deepfakesの技術交換スレです。
前スレ
【AIコラ】fakeapp その12【革命】
https://phoebe.bbspink.com/test/read.cgi/ascii/1580015540/
テンプレに書いてない質問はok
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
探検
【AIコラ】fakeapp その13【革命】
レス数が1000を超えています。これ以上書き込みはできません。
1
2020/03/08(日) 21:28:26.922名無しさん@お腹いっぱい。
2020/03/08(日) 21:31:14.73 deepfakesなソフト
◎DeepFaceLab(以下、DFL)
◎deepfakes/faceswap(以下、FS)
●fakeapp
●openfaceswap(以下、OFS)
●myfakeapp
deepfakesとは?
AutoEncoderで顔を再生成できるようにAとBそれぞれの特徴量を学習し、decoderを入れ替えることにより、AとBの顔を交換する手法。
・質問や情報交換について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
◎DeepFaceLab(以下、DFL)
◎deepfakes/faceswap(以下、FS)
●fakeapp
●openfaceswap(以下、OFS)
●myfakeapp
deepfakesとは?
AutoEncoderで顔を再生成できるようにAとBそれぞれの特徴量を学習し、decoderを入れ替えることにより、AとBの顔を交換する手法。
・質問や情報交換について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
3名無しさん@お腹いっぱい。
2020/03/08(日) 21:32:33.34 ・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
4名無しさん@お腹いっぱい。
2020/03/08(日) 21:33:02.83 ◎よくある質問
・違法じゃないの?
deepfakes自体に違法性はない。
ただし権利者に許可を得ていないコンテンツの二次利用は著作権法に違反。
また、所謂フェイクポルノを不特定多数が見れる場所に公開すれば名誉毀損(侮辱罪)に該当。
有名人の顔を使用して経済的利益を得ればパブリシティ権の侵害になる。
・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。
・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。
・RTXシリーズでも動くの?
FS、DFL共に動く。CUDA10以降を選ぶこと。
5 名前:/名無しさん[1-30].jpg[sage] 投稿日:2020/01/26(日) 14:39:36.12 ID:l6qr1y1gH
・作るのにどれくらいかかる?
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。但しmodelの再利用については賛否両論あり。
・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。
・違法じゃないの?
deepfakes自体に違法性はない。
ただし権利者に許可を得ていないコンテンツの二次利用は著作権法に違反。
また、所謂フェイクポルノを不特定多数が見れる場所に公開すれば名誉毀損(侮辱罪)に該当。
有名人の顔を使用して経済的利益を得ればパブリシティ権の侵害になる。
・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。
・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。
・RTXシリーズでも動くの?
FS、DFL共に動く。CUDA10以降を選ぶこと。
5 名前:/名無しさん[1-30].jpg[sage] 投稿日:2020/01/26(日) 14:39:36.12 ID:l6qr1y1gH
・作るのにどれくらいかかる?
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。但しmodelの再利用については賛否両論あり。
・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。
5名無しさん@お腹いっぱい。
2020/03/08(日) 21:34:41.42 DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://mrdeepfakes.com/forums/thread-deepfacelab-explained-and-usage-tutorial
FSはこれ
https://faceswap.dev/forum/app.php/faqpage
もうちょっと掘った内容の話はこれ読め
https://www.alanzucconi.com/2018/03/14/introduction-to-deepfakes/
リクエスト禁止
技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須
https://mrdeepfakes.com/forums/thread-deepfacelab-explained-and-usage-tutorial
FSはこれ
https://faceswap.dev/forum/app.php/faqpage
もうちょっと掘った内容の話はこれ読め
https://www.alanzucconi.com/2018/03/14/introduction-to-deepfakes/
リクエスト禁止
技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須
6名無しさん@お腹いっぱい。
2020/03/08(日) 21:36:38.48 過去スレ一覧(続く)
https://find.5ch.net/search?q=AI%E3%82%B3%E3%83%A9
1 https://2ch.live/cache/view/ascii/1518391672
2 https://2ch.live/cache/view/ascii/1525096908
3 https://2ch.live/cache/view/ascii/1540703439
4 https://2ch.live/cache/view/ascii/1558162081
5 https://2ch.live/cache/view/ascii/1562952179
6 http://phoebe.bbspink.com/test/read.cgi/ascii/1565578836/
7 http://phoebe.bbspink.com/test/read.cgi/ascii/1567676603/
8 http://phoebe.bbspink.com/test/read.cgi/ascii/1569811630/
9 http://phoebe.bbspink.com/test/read.cgi/ascii/1571681348/
10 http://phoebe.bbspink.com/test/read.cgi/ascii/1573832431/
11 http://phoebe.bbspink.com/test/read.cgi/ascii/1576974608/
https://find.5ch.net/search?q=AI%E3%82%B3%E3%83%A9
1 https://2ch.live/cache/view/ascii/1518391672
2 https://2ch.live/cache/view/ascii/1525096908
3 https://2ch.live/cache/view/ascii/1540703439
4 https://2ch.live/cache/view/ascii/1558162081
5 https://2ch.live/cache/view/ascii/1562952179
6 http://phoebe.bbspink.com/test/read.cgi/ascii/1565578836/
7 http://phoebe.bbspink.com/test/read.cgi/ascii/1567676603/
8 http://phoebe.bbspink.com/test/read.cgi/ascii/1569811630/
9 http://phoebe.bbspink.com/test/read.cgi/ascii/1571681348/
10 http://phoebe.bbspink.com/test/read.cgi/ascii/1573832431/
11 http://phoebe.bbspink.com/test/read.cgi/ascii/1576974608/
7名無しさん@お腹いっぱい。 (ワッチョイ 8bb0-zlPp)
2020/03/08(日) 22:34:26.10ID:JlTNJ4w608名無しさん@お腹いっぱい。 (ワッチョイ ef73-skBI)
2020/03/08(日) 23:05:40.24ID:3Cptr/Zz0 なんで>>1は前スレでここ建てた時からID消してんの?
9名無しさん@お腹いっぱい。 (ワッチョイ eb58-xiWk)
2020/03/09(月) 00:06:59.34ID:4l5nu36J0 まあとりあえずスレ立ておつ
1がID消してるよりも必死にしたらばに誘導してるやつのほうが謎だわ
1がID消してるよりも必死にしたらばに誘導してるやつのほうが謎だわ
10名無しさん@お腹いっぱい。 (ワッチョイ cb81-o1n2)
2020/03/09(月) 02:42:01.95ID:OAzKaczO0 結局どこが本スレ?
11名無しさん@お腹いっぱい。 (ワッチョイ fb58-wzO4)
2020/03/09(月) 04:27:57.15ID:BZxTTKx30 ここじゃね
12名無しさん@お腹いっぱい。 (ワッチョイW df7e-BSMR)
2020/03/09(月) 05:39:08.80ID:NXS/2QJU0 dfl 2.0 公式チュートリアル
https://mrdeepfakes.com/forums/thread-guide-deepfacelab-2-0-explained-and-tutorials-recommended
dfl まとめwiki
https://seesaawiki.jp/dfl/
https://mrdeepfakes.com/forums/thread-guide-deepfacelab-2-0-explained-and-tutorials-recommended
dfl まとめwiki
https://seesaawiki.jp/dfl/
13名無しさん@お腹いっぱい。 (ワッチョイ ef73-skBI)
2020/03/09(月) 10:59:42.34ID:aM4kRs4d0 日記劇場開幕!
14名無しさん@お腹いっぱい。 (アウアウウー Sa0f-wbfS)
2020/03/09(月) 12:22:44.94ID:IvkY6qqxa わっちょいありでおけ
15deepfakes (ワッチョイ 6181-yNY2)
2020/03/11(水) 14:40:44.60ID:k9twMkQg016名無しさん@お腹いっぱい。 (ワッチョイW 127e-DLZx)
2020/03/11(水) 18:09:39.41ID:5iRPZd8V0 悪くない
まさにそんな感じかも
HDじゃない分軽くて、バッチ数とかかなり上げられるけど詳細感には限界を感じる
riae系ということでやはりきつめの角度には強いがsrcに寄せられる度はDFHDには負ける
あと目線が逃げがちという点も変わらずある
riaeと比較出来てないから何とも言えないけど、それ比でsrc寄りになるという文句通りなら価値は結構ある
悪くない
まさにそんな感じかも
HDじゃない分軽くて、バッチ数とかかなり上げられるけど詳細感には限界を感じる
riae系ということでやはりきつめの角度には強いがsrcに寄せられる度はDFHDには負ける
あと目線が逃げがちという点も変わらずある
riaeと比較出来てないから何とも言えないけど、それ比でsrc寄りになるという文句通りなら価値は結構ある
悪くない
17名無しさん@お腹いっぱい。 (ワッチョイ 0958-drwQ)
2020/03/12(木) 07:36:47.70ID:eSRPI10n018名無しさん@お腹いっぱい。 (ワッチョイ 0958-drwQ)
2020/03/12(木) 07:39:17.65ID:eSRPI10n0 顔抽出が512になったけど今まで256基準で映像集めてたからキツイな
拡大して荒くなったのエンハンスするとノイズも強調されちゃうし
拡大して荒くなったのエンハンスするとノイズも強調されちゃうし
19名無しさん@お腹いっぱい。 (ワッチョイW 6181-dGF7)
2020/03/12(木) 08:19:15.14ID:++VkYxTv0 >>17
飛鳥をねるにw
飛鳥をねるにw
20名無しさん@お腹いっぱい。 (ワントンキン MMd2-yPcy)
2020/03/12(木) 11:34:09.45ID:4Nk38z66M もちろん相性によって変わるのは分かるんだけど
SAEHDのres256で作ってたらerodeとblurはどれぐらいを目安に設定してる?
SAEHDのres256で作ってたらerodeとblurはどれぐらいを目安に設定してる?
21名無しさん@お腹いっぱい。 (ワッチョイ 6181-yNY2)
2020/03/12(木) 15:10:55.73ID:++VkYxTv022名無しさん@お腹いっぱい。 (ワッチョイW 127e-DLZx)
2020/03/12(木) 18:41:24.63ID:tB8EcCYQ023名無しさん@お腹いっぱい。 (ワッチョイW 127e-DLZx)
2020/03/12(木) 20:33:36.32ID:tB8EcCYQ0 >>18
mainscriptフォルダの中のExtractor.pyの690行目の
image_size 512
ってなってるのを256にしたらいいよ
あと512に変更された時に同時に変わった264行目のjpegクオリティの設定値90を100に戻せば以前と同じになる
今の所whole faceで使う以外に更新された形跡はないからデメリットもゼロのはず
mainscriptフォルダの中のExtractor.pyの690行目の
image_size 512
ってなってるのを256にしたらいいよ
あと512に変更された時に同時に変わった264行目のjpegクオリティの設定値90を100に戻せば以前と同じになる
今の所whole faceで使う以外に更新された形跡はないからデメリットもゼロのはず
24名無しさん@お腹いっぱい。 (ワッチョイ 0635-9uVy)
2020/03/12(木) 22:10:00.27ID:2a2y9kxo0 whole faceってどうなんだろうね
試した人はいるのだろうか
試した人はいるのだろうか
25名無しさん@お腹いっぱい。 (ワッチョイW 094a-unSp)
2020/03/12(木) 23:54:56.48ID:MDlgTWmc0 だからその場合前髪はどうなるんだってばよ
26名無しさん@お腹いっぱい。 (ワッチョイ 0958-drwQ)
2020/03/13(金) 00:19:58.25ID:FRY1lWFe027名無しさん@お腹いっぱい。 (オーパイ ed6a-yNY2)
2020/03/14(土) 14:27:19.89ID:5b1Q5Egb0Pi 質問2は自己解決しました。TAB押しですね。
28名無しさん@お腹いっぱい。 (オーパイ ed6a-yNY2)
2020/03/14(土) 14:29:34.66ID:5b1Q5Egb0Pi ありゃ、書き込む場所間違えました。失礼をば。
29名無しさん@お腹いっぱい。 (オーパイW 127e-DLZx)
2020/03/14(土) 20:02:11.32ID:uFYBRnWi0Pi リリースはされてないけどliaech消されたな
liae比でも非常に軽い点、
src前髪未処理の時でも他と比べて上手くこなす点等
それなりに可能性を感じたんだが
fansegトレーニングも次のリリースに入るはずだけどこれは嬉しいね
liae比でも非常に軽い点、
src前髪未処理の時でも他と比べて上手くこなす点等
それなりに可能性を感じたんだが
fansegトレーニングも次のリリースに入るはずだけどこれは嬉しいね
30名無しさん@お腹いっぱい。 (ササクッテロ Sp91-zVXg)
2020/03/14(土) 22:14:40.72ID:Vnibp3R2p liaechは試しに3時間ぐらい回してみたけどloss5台でずっと砂嵐だった
31名無しさん@お腹いっぱい。 (ワッチョイ 7d58-5Ayy)
2020/03/15(日) 00:03:32.56ID:KVM+J1hp032276 (アウアウウー Sac5-PwW1)
2020/03/15(日) 04:46:06.02ID:IQIGgRxAa pretrainモデル置いてあるな、どうなのこれ
33名無しさん@お腹いっぱい。 (ササクッテロ Sp91-zVXg)
2020/03/15(日) 16:23:27.36ID:4umkjAgNp アップ正面メイン笛用にres256 dims352 48 48 16モデル作ったけどres192dims512と比べて目に見えて解像度上がりました
ただし髪型とか目線の細かい追従力も落ちるから一長一短
ただし髪型とか目線の細かい追従力も落ちるから一長一短
34名無しさん@お腹いっぱい。 (ワッチョイ 0958-drwQ)
2020/03/15(日) 17:38:04.45ID:yhJxNEaZ0 resはresolutionで解像度って意味だから数値上げればそりゃあがるよ
プレビューの画像も大きくなってたでしょ
プレビューの画像も大きくなってたでしょ
35名無しさん@お腹いっぱい。 (ワッチョイ c673-+rRg)
2020/03/15(日) 18:56:57.60ID:MQNX7zcp0 >>33
dimsってそういう意味じゃないから
dimsってそういう意味じゃないから
36名無しさん@お腹いっぱい。 (スッップ Sda2-unSp)
2020/03/15(日) 18:59:08.52ID:/qDTVcIWd37名無しさん@お腹いっぱい。 (ワッチョイW 127e-DLZx)
2020/03/16(月) 00:05:06.61ID:xiasxOjH0 0315版来たね
whole face向けのfansegのようなものも実装
面倒そうではあるけどなんだか凄そう
whole face向けのfansegのようなものも実装
面倒そうではあるけどなんだか凄そう
38名無しさん@お腹いっぱい。 (スップ Sd02-tNS8)
2020/03/16(月) 09:57:38.02ID:hh/P9aqad あれ、はげかけたオッサンはいいけど
前髪ある女性はどうなるのか興味はある
前髪ある女性はどうなるのか興味はある
39名無しさん@お腹いっぱい。 (ワッチョイ 116a-1G7t)
2020/03/19(木) 08:34:35.21ID:eZXxODMQ0 綺麗に顔が入れ替わっても、似ないなあ。
髪型があってないとだめなのか。
髪型があってないとだめなのか。
40名無しさん@お腹いっぱい。 (ワッチョイ 5981-W/ZL)
2020/03/20(金) 04:03:36.53ID:jXJKJ5Me0 髪型と体格は大事
41名無しさん@お腹いっぱい。 (ワッチョイ d9b1-cULp)
2020/03/23(月) 07:25:16.71ID:N6F8TwiB0 mergeする段階でのface scaleの数値がかなり大事な気がする
これが本人とかけ離れてるとパーツがほぼ完ぺきに学習できてても似ない
これが本人とかけ離れてるとパーツがほぼ完ぺきに学習できてても似ない
42名無しさん@お腹いっぱい。 (ワッチョイW d9b1-P3wQ)
2020/03/24(火) 01:30:36.89ID:nEnJnCxz0 最近スレの勢いなくなったけど何かあった?
43名無しさん@お腹いっぱい。 (ワッチョイ b158-4+dA)
2020/03/24(火) 02:23:57.40ID:Smbi0LHj0 皆dst探しの旅に出てる。
スレ分離した、ワッチョイ付きで荒しが減った(NGできる)、目新しい技術的な話題がない
といったところかね。
かくいう自分もwhole_faceやXSegに興味はあるものの試せてないから
話題提供もできない。
スレ分離した、ワッチョイ付きで荒しが減った(NGできる)、目新しい技術的な話題がない
といったところかね。
かくいう自分もwhole_faceやXSegに興味はあるものの試せてないから
話題提供もできない。
44名無しさん@お腹いっぱい。 (ワッチョイ d9b1-cULp)
2020/03/24(火) 07:40:03.28ID:oT2Tf0fK0 これある程度トレーニングさせたら動画にして
中途半端に本人っぽくできあがったやつをdstに交換してさらにトレーニング
ってやった方が早く本人に近付かない??
ダメなのそれじゃ
中途半端に本人っぽくできあがったやつをdstに交換してさらにトレーニング
ってやった方が早く本人に近付かない??
ダメなのそれじゃ
45名無しさん@お腹いっぱい。 (スプッッ Sda5-hLfN)
2020/03/24(火) 08:10:06.11ID:iDZ7wLgXd それでダメな理由は?
46名無しさん@お腹いっぱい。 (ワッチョイW b37e-eO/6)
2020/03/24(火) 09:42:53.21ID:qo8BVKia0 完成までの時短をしたいという意味では手間が膨大な割に効果はどうなのかと思うけど
完成品を更にもう一度deepfakeしてsrcに近付けるという意味の試みなら面白いかも
完成品を更にもう一度deepfakeしてsrcに近付けるという意味の試みなら面白いかも
47名無しさん@お腹いっぱい。 (ワッチョイW d9b1-P3wQ)
2020/03/24(火) 09:51:16.55ID:nEnJnCxz0 予想だけどそれすると顔色が目にみえて合わなくなる予感
48名無しさん@お腹いっぱい。 (ワッチョイW b37e-eO/6)
2020/03/24(火) 09:54:22.24ID:qo8BVKia0 dfuhdとliaeuhdというarchiが追加されてるね
これはコード少し見たところ、UltraHDというわけでもなく、非HDのdfやliaeとほぼ同じものだった
効率化の部分で少し違いがあるような感じ
詳細出るまで急いで試す必要もなさそう
これはコード少し見たところ、UltraHDというわけでもなく、非HDのdfやliaeとほぼ同じものだった
効率化の部分で少し違いがあるような感じ
詳細出るまで急いで試す必要もなさそう
49名無しさん@お腹いっぱい。 (ササクッテロ Sp85-Umd9)
2020/03/24(火) 18:52:56.92ID:6dHMToehp 全力笑顔で上の歯全部出てるようなsrc素材は削除してよさそうだな
50名無しさん@お腹いっぱい。 (ワッチョイ b158-4+dA)
2020/03/24(火) 23:47:09.10ID:Smbi0LHj051名無しさん@お腹いっぱい。 (ワッチョイ f50c-pf+t)
2020/03/25(水) 03:45:12.95ID:re6mWRmx0 liaechいいよな
復活きぼん
復活きぼん
52名無しさん@お腹いっぱい。 (ワッチョイW a27e-awtu)
2020/03/25(水) 04:09:41.77ID:qGNRYBPo0 == 24.03.2020 ==
SAEHD:「dfuhd」と「liaeuhd」を追加しましたarchi
uhdバージョンは「HD」よりも軽量ですが、通常バージョンよりも重いです。
liaeuhdは、より「srcに似た」結果
比較を提供します 。
liae:
https://i.imgur.com/JEICFwI.jpg
liaeuhd:
https://i.imgur.com/ymU7t5E.jpg
新しいXSegEditorを追加しました!
リリースあったのね
非HDと大差ないと考えてたけど
これもsrcに寄せるということなら試していきたいな
SAEHD:「dfuhd」と「liaeuhd」を追加しましたarchi
uhdバージョンは「HD」よりも軽量ですが、通常バージョンよりも重いです。
liaeuhdは、より「srcに似た」結果
比較を提供します 。
liae:
https://i.imgur.com/JEICFwI.jpg
liaeuhd:
https://i.imgur.com/ymU7t5E.jpg
新しいXSegEditorを追加しました!
リリースあったのね
非HDと大差ないと考えてたけど
これもsrcに寄せるということなら試していきたいな
53名無しさん@お腹いっぱい。 (ワッチョイW a27e-awtu)
2020/03/25(水) 04:18:43.73ID:qGNRYBPo0 liaechはおれもいいなと思った
他とコード構造も全く違うものだったし、差別化に可能性を感じた
消された時はコードは選択部分だけの削除だったから比較的簡単に自分で書き戻せたけど、今回のarchiの追加で骨組み部分がバッサリ消されてしまった
ちなみに今回の「u」版はliaechの流用というわけでは全く無くて、既に書いた通り非HDをほんの少し変更したものだね
他とコード構造も全く違うものだったし、差別化に可能性を感じた
消された時はコードは選択部分だけの削除だったから比較的簡単に自分で書き戻せたけど、今回のarchiの追加で骨組み部分がバッサリ消されてしまった
ちなみに今回の「u」版はliaechの流用というわけでは全く無くて、既に書いた通り非HDをほんの少し変更したものだね
54名無しさん@お腹いっぱい。 (ワッチョイ b1dc-MKsy)
2020/03/26(木) 18:09:57.04ID:WgG8N4yX0 的外れなら申し訳ないんだが、DFとLIAEのアーキテクチャの違いって識別モデルか生成モデルかの違い?
LIAEの方が色んな角度に対応できるのって入力データから分布推定して自分で訓練データ生成してるから?
合ってても間違ってても教えてくれると助かる
LIAEの方が色んな角度に対応できるのって入力データから分布推定して自分で訓練データ生成してるから?
合ってても間違ってても教えてくれると助かる
55名無しさん@お腹いっぱい。 (ワッチョイW a27e-awtu)
2020/03/26(木) 22:33:44.47ID:NqJ4KI0s0 識別か生成かはよく分からないけど
LIAEは外観と表情を明示的に分けて中間層を作るモデル構造を採ってるために
モーフィング的なスワップが上手くいくということだと思う
LIAEは外観と表情を明示的に分けて中間層を作るモデル構造を採ってるために
モーフィング的なスワップが上手くいくということだと思う
56名無しさん@お腹いっぱい。 (ワッチョイ b1dc-MKsy)
2020/03/27(金) 00:13:09.93ID:AKZ+7tkj057名無しさん@お腹いっぱい。 (ワッチョイW a27e-awtu)
2020/03/27(金) 04:49:48.49ID:giouTI5C0 ImprovementAEだね
元はfsの関係者が「速度や解像度の面で優れたAEを作ったよ」と出して来たものを
dflの作者が調整してliaeになった
なのでオーソドックスタイプに比して角度に強いとかいう特徴が残ったのは結果論であって元々意図したものではない気がする
オーソドックスタイプもdfl独自の改良を経てDFとして進化をして来たけど、liaeはその特徴があるために並行して残されてるんだろうなと
元はfsの関係者が「速度や解像度の面で優れたAEを作ったよ」と出して来たものを
dflの作者が調整してliaeになった
なのでオーソドックスタイプに比して角度に強いとかいう特徴が残ったのは結果論であって元々意図したものではない気がする
オーソドックスタイプもdfl独自の改良を経てDFとして進化をして来たけど、liaeはその特徴があるために並行して残されてるんだろうなと
58名無しさん@お腹いっぱい。 (ワッチョイW a27e-awtu)
2020/03/27(金) 05:45:58.97ID:giouTI5C0 liaeはdfにおけるtfの様なお手軽にsrcに寄せるパラメータが無いのが最大の欠点だから
作者も今そこを克服させるために試行錯誤して出してきてるのがliaechだったりliaeuhdなんだろうね
作者も今そこを克服させるために試行錯誤して出してきてるのがliaechだったりliaeuhdなんだろうね
59名無しさん@お腹いっぱい。 (ワッチョイ b1dc-sBwH)
2020/03/28(土) 12:49:45.94ID:/80Q7ijQ0 >>57
improvementか、具体的に何か機能を意識した言葉ではなかったのねサンクス
improvementか、具体的に何か機能を意識した言葉ではなかったのねサンクス
60名無しさん@お腹いっぱい。 (ワッチョイ b1dc-sBwH)
2020/03/28(土) 12:57:22.55ID:/80Q7ijQ0 >>24
今さらながらwhole faceを試した
輪郭・前髪ごとガッツリ入れ替えることができてる気がする
髪の色が同じであれば前髪を消すより前髪ごと入れ替えた方が本人感が出る
ただXseg editorでマスクする範囲を手動指定しないといけないのはまあまあしんどい
輪郭・前髪が似てなくても何が何でもsrcに似せたいという気概がある時に使うと良いのかなと思った
今さらながらwhole faceを試した
輪郭・前髪ごとガッツリ入れ替えることができてる気がする
髪の色が同じであれば前髪を消すより前髪ごと入れ替えた方が本人感が出る
ただXseg editorでマスクする範囲を手動指定しないといけないのはまあまあしんどい
輪郭・前髪が似てなくても何が何でもsrcに似せたいという気概がある時に使うと良いのかなと思った
61名無しさん@お腹いっぱい。 (ワッチョイ 9e74-4ZXy)
2020/03/28(土) 13:16:17.36ID:j/kWWaYc0 >>60
adobeのaftereffectを使わなくてもXseg editorでマスクすればいいんだよね?
前髪のマスクはかなり面倒だろうなあ
話は変わるけどLiaeuhdはrandom warpでloss値が0.4で頭打ちになる
数値の基準がこれまでと違うのかな
adobeのaftereffectを使わなくてもXseg editorでマスクすればいいんだよね?
前髪のマスクはかなり面倒だろうなあ
話は変わるけどLiaeuhdはrandom warpでloss値が0.4で頭打ちになる
数値の基準がこれまでと違うのかな
62名無しさん@お腹いっぱい。 (ワッチョイ b1dc-sBwH)
2020/03/28(土) 13:40:47.18ID:/80Q7ijQ0 >>61
xseg editorでマスクしてxseg merge.batでマージすればxseg trainを動かせた
ほんで前髪の生え際からがっつり入れ替えられた
もう一つ思ったのは
dst中にがっつり下を向く角度がある時に前髪ごと入れ替えちゃうと、dstの頭頂部とsrcの前髪の継ぎ目が気になる
(正面だと継ぎ目があんまり見えないから目立たなくて綺麗に入れ替わって見える)
まだ試してないけど、頭頂部を含んで入れ替え可能ならより自然になるかもしれない
xseg editorでマスクしてxseg merge.batでマージすればxseg trainを動かせた
ほんで前髪の生え際からがっつり入れ替えられた
もう一つ思ったのは
dst中にがっつり下を向く角度がある時に前髪ごと入れ替えちゃうと、dstの頭頂部とsrcの前髪の継ぎ目が気になる
(正面だと継ぎ目があんまり見えないから目立たなくて綺麗に入れ替わって見える)
まだ試してないけど、頭頂部を含んで入れ替え可能ならより自然になるかもしれない
63名無しさん@お腹いっぱい。 (ワッチョイW a27e-awtu)
2020/03/28(土) 14:25:57.27ID:9yGjLnFv0 whole faceで前髪ごと全部入れ替えるってのは面白い
日本ならではの試みかも
前髪がっつりある場合ってそうやって使わないと利点が出てこないもんね
つべに上がってたfullとwholeの比較では
同じ解像度だと当然wholeの方が解像感不足が見て取れた
日本ならではの試みかも
前髪がっつりある場合ってそうやって使わないと利点が出てこないもんね
つべに上がってたfullとwholeの比較では
同じ解像度だと当然wholeの方が解像感不足が見て取れた
64名無しさん@お腹いっぱい。 (スップ Sd12-yyQk)
2020/03/28(土) 14:26:01.58ID:va70JoC1d 前髪の挙動はどうなんのよ
srcの前髪が揺れを再現したりするの? イメージわかない
srcの前髪が揺れを再現したりするの? イメージわかない
65名無しさん@お腹いっぱい。 (ワイーワ2 FF1a-MKsy)
2020/03/28(土) 17:14:17.05ID:l0Vmb7vVF66名無しさん@お腹いっぱい。 (ワイーワ2 FF1a-MKsy)
2020/03/28(土) 17:28:12.25ID:l0Vmb7vVF67名無しさん@お腹いっぱい。 (ワイーワ2 FF1a-MKsy)
2020/03/28(土) 17:35:09.27ID:l0Vmb7vVF whole faceでの前髪交換については↓が気になってる
@srcに複数の前髪形状(右流し、左流し、ぱっつん、デコ出し)の顔を設定した場合、convert後にどの前髪が再現されるのか
Adstの前髪形状に依存してconvert後の前髪が生成されるのか、dstの前髪形状とは関係なく生成されるされるのか
自分でも機会があれば試すつもりだけど、もし分かった人がいたら教えてほしい
@srcに複数の前髪形状(右流し、左流し、ぱっつん、デコ出し)の顔を設定した場合、convert後にどの前髪が再現されるのか
Adstの前髪形状に依存してconvert後の前髪が生成されるのか、dstの前髪形状とは関係なく生成されるされるのか
自分でも機会があれば試すつもりだけど、もし分かった人がいたら教えてほしい
68名無しさん@お腹いっぱい。 (ワッチョイ 6558-z4rF)
2020/03/28(土) 17:35:25.06ID:Goaiwf1U0 facetype.mouth
69名無しさん@お腹いっぱい。 (スプッッ Sd69-gfEG)
2020/03/29(日) 11:45:32.71ID:H8OSfEmad 顔に立体感が出ない時はGANとかで詳細を学習させればいいのかね?
merge後の顔がどうものっぺりというか平面的というか人間味がないんだよな
陰影とか部位ごとの細かな色の違いがない気がするんだよな
merge後の顔がどうものっぺりというか平面的というか人間味がないんだよな
陰影とか部位ごとの細かな色の違いがない気がするんだよな
70名無しさん@お腹いっぱい。 (ニククエW f611-z7xk)
2020/03/29(日) 12:55:21.58ID:9/D7wg1n0NIKU trainが動かない時、バッチ数を下げると動きだすが、GANもそういう事があるようだ
GAN 1.0で動き出さないから0.5にしてみたら動いた
GAN 1.0で動き出さないから0.5にしてみたら動いた
71名無しさん@お腹いっぱい。 (ニククエW a27e-awtu)
2020/03/29(日) 16:14:30.59ID:rEsSIHYm0NIKU72名無しさん@お腹いっぱい。 (ワッチョイ b1dc-MKsy)
2020/03/30(月) 00:35:27.38ID:J8QiYQpC0 口の動きを細かく追従させようと思ったらインタビュー映像とかを高fpsで切り取らないとだめ?
喋るシーンで腹話術状態に陥ってるんだけど
喋るシーンで腹話術状態に陥ってるんだけど
73名無しさん@お腹いっぱい。 (ササクッテロ Sp79-5C8B)
2020/03/30(月) 15:46:08.43ID:+r+Umd0Bp 笑顔でほぼ動きないのとかオールカットだぞ
74名無しさん@お腹いっぱい。 (オイコラミネオ MMc6-iaHD)
2020/03/30(月) 15:49:45.95ID:XtOd4EETM 最初のインタビューまで再現したいのかよw
75名無しさん@お腹いっぱい。 (ワッチョイ 1920-4ZXy)
2020/03/30(月) 15:58:26.47ID:FBvPsvHf0 「オナニーは毎日してます」とか言ってるdstなら分からんでもないw
76名無しさん@お腹いっぱい。 (ワッチョイ 5158-Cd0d)
2020/03/30(月) 18:56:42.79ID:6Fb0+fps0 5fpsぐらいである程度入れておけばなんとかなるよ
dstとの相性もあるのかもしれないが
dstとの相性もあるのかもしれないが
77名無しさん@お腹いっぱい。 (ワッチョイW f562-PaMR)
2020/03/30(月) 19:59:51.31ID:KZkVDsCJ0 最近始めたんだけど、DFはデータの水増しとかできるのか疑問です。
78名無しさん@お腹いっぱい。 (ワッチョイ b1dc-MKsy)
2020/03/30(月) 20:39:22.15ID:J8QiYQpC0 俺はこう、ギリギリあり得そうなリアリティのある部分の方が脳が本人だと錯覚するタイプなんだw
後は会話シーン再現できたら感動しそうだなとw
後は会話シーン再現できたら感動しそうだなとw
79名無しさん@お腹いっぱい。 (ワッチョイ b1dc-MKsy)
2020/03/30(月) 20:40:41.42ID:J8QiYQpC080名無しさん@お腹いっぱい。 (ワッチョイW a27e-awtu)
2020/03/30(月) 23:19:16.55ID:zzBjTu5L0 xsegが拡張されて、fanseg削除になったみたいだけど
実際試してみないと使い勝手が分かんないな
実際試してみないと使い勝手が分かんないな
81名無しさん@お腹いっぱい。 (ワッチョイW a27e-awtu)
2020/03/30(月) 23:22:48.76ID:zzBjTu5L0 == 2020年3月30日==
新しいスクリプト:
5.XSeg) data_dst/src mask for XSeg trainer - fetch.bat
XSegポリゴンを含む面を、aligned_xseg \ dirにコピーします。
ラベルの付いた顔を収集して他の偽物で再利用する場合にのみ役立ちます。
これで、SAEHDトレーニングプロセスでトレーニング済みのXSegマスクを使用できます。
これは、ランドマークから取得されたデフォルトの「full_face」マスクが、トレーニングされたXSegモデルから取得されたマスクで置き換えられることを意味します。
使用する
5.XSeg.optional)data_dst / data_srcのトレーニング済みマスク-apply.bat
5.XSeg.optional)data_dst / data_srcのトレーニング済みマスク-remove.bat
通常は必要ありません。障害物で 'face_style'と 'bg_style'を使用したい場合は、これを使用できます。
XSegトレーナー:顔のタイプを選択できるようになりました
XSegトレーナー:「オーバーライド設定」でトレーニングを再開できるようになりました
合併:XSeg- *モードをすべてのタイプの面で使用できるようになりました。
したがって、古いMaskEditor、FANSEGモデル、およびFAN-xモードは削除されました。
新しいXSegソリューションの方が優れており、シンプルで便利です。通常のディープフェイクの手動マスキングは1時間だけです。
新しいスクリプト:
5.XSeg) data_dst/src mask for XSeg trainer - fetch.bat
XSegポリゴンを含む面を、aligned_xseg \ dirにコピーします。
ラベルの付いた顔を収集して他の偽物で再利用する場合にのみ役立ちます。
これで、SAEHDトレーニングプロセスでトレーニング済みのXSegマスクを使用できます。
これは、ランドマークから取得されたデフォルトの「full_face」マスクが、トレーニングされたXSegモデルから取得されたマスクで置き換えられることを意味します。
使用する
5.XSeg.optional)data_dst / data_srcのトレーニング済みマスク-apply.bat
5.XSeg.optional)data_dst / data_srcのトレーニング済みマスク-remove.bat
通常は必要ありません。障害物で 'face_style'と 'bg_style'を使用したい場合は、これを使用できます。
XSegトレーナー:顔のタイプを選択できるようになりました
XSegトレーナー:「オーバーライド設定」でトレーニングを再開できるようになりました
合併:XSeg- *モードをすべてのタイプの面で使用できるようになりました。
したがって、古いMaskEditor、FANSEGモデル、およびFAN-xモードは削除されました。
新しいXSegソリューションの方が優れており、シンプルで便利です。通常のディープフェイクの手動マスキングは1時間だけです。
82名無しさん@お腹いっぱい。 (ワッチョイ f673-bAxU)
2020/03/31(火) 09:30:06.53ID:aYjnpngr0 日記避けの意味無かったな
83名無しさん@お腹いっぱい。 (スップ Sdb2-8a/N)
2020/03/31(火) 10:00:27.66ID:rKAk42QYd 一週間ngに出来る
84名無しさん@お腹いっぱい。 (ワッチョイ 5e8b-pf+t)
2020/03/31(火) 13:06:30.98ID:LeDJsUnr0 新しいソリューションとか望んでないんだよね
顔切り出しの精度を上げるとか
フェラとかキスの舌を認識するとか
基本をレベルアップさせてくれないと
顔切り出しの精度を上げるとか
フェラとかキスの舌を認識するとか
基本をレベルアップさせてくれないと
85名無しさん@お腹いっぱい。 (アウアウカー Sab1-z7xk)
2020/03/31(火) 17:29:20.02ID:0o9pusela 言えてる、オレも顔認識の精度はもっと上げられると思う
前後のコマで認識してて、なんでこのコマを取りこぼすかな?とかあるもんね
前後のコマで認識してて、なんでこのコマを取りこぼすかな?とかあるもんね
86名無しさん@お腹いっぱい。 (ワッチョイW f5dc-5C8B)
2020/03/31(火) 21:22:29.81ID:I/gxsxjC0 マスクの精度上げるだけで質上がるからね
現状キツい角度は手動でもちゃんとランドマークしてくれないことが多い
現状キツい角度は手動でもちゃんとランドマークしてくれないことが多い
87名無しさん@お腹いっぱい。 (ワッチョイW f611-z7xk)
2020/03/31(火) 22:37:26.38ID:JjEfSF990 そうだね、キツい角度と言っても人が見ればすぐ判別つくようなものでも、手動でうまく決まらなくてイライラする
88名無しさん@お腹いっぱい。 (ワッチョイW f611-z7xk)
2020/03/31(火) 22:38:37.87ID:JjEfSF990 途中で書き込んじゃった
前後のコマから判別するとかのアルゴリズムは入ってないのかな?と思うわ
前後のコマから判別するとかのアルゴリズムは入ってないのかな?と思うわ
89名無しさん@お腹いっぱい。 (ウソ800 b5b1-CuPJ)
2020/04/01(水) 06:35:16.47ID:FtwB/Hwh0USO mask editorをもっと手軽に行えるパッチがほしいわ 現状1コマ1コマ手動とか非現実的すぎる
90名無しさん@お腹いっぱい。 (ウソ800 Sd03-gZn9)
2020/04/01(水) 10:00:04.29ID:eRmqIE+XdUSO 確蟹
複数フレーム一括適用したい
複数フレーム一括適用したい
91名無しさん@お腹いっぱい。 (ワッチョイ 4b8b-CuPJ)
2020/04/01(水) 19:43:39.07ID:tAelVcdv0 マスクエディタはちんぷんかんぷんだな
元々フェラは全然作ってないけど、作ろうと思ったら大変そうだった
結局、以前書かれてたdst同士でtrainして下準備するって方法に落ち着いた
https://i.imgur.com/qw7Bsn9.jpg
元々フェラは全然作ってないけど、作ろうと思ったら大変そうだった
結局、以前書かれてたdst同士でtrainして下準備するって方法に落ち着いた
https://i.imgur.com/qw7Bsn9.jpg
92名無しさん@お腹いっぱい。 (ワッチョイ 4b86-trDy)
2020/04/01(水) 20:45:29.36ID:GGgcjJxk0 whole faceやってみたいけど、
liaechを使いたいがために03.07.2020バージョンで止まってて手が出ねえ
liaechを使いたいがために03.07.2020バージョンで止まってて手が出ねえ
93名無しさん@お腹いっぱい。 (ワッチョイ 55ac-/I61)
2020/04/02(木) 21:01:33.07ID:6VwEnxDC0 0330版でwhole_faceである必要がなくなったけど
XSeg trainでface typeがwfになってしまうので以下
Model_XSegのmodel.py 25行目のwfをfに変更
\workspace\modelにXSeg_default_options.datがある場合は削除
XSeg trainでface typeがwfになってしまうので以下
Model_XSegのmodel.py 25行目のwfをfに変更
\workspace\modelにXSeg_default_options.datがある場合は削除
94名無しさん@お腹いっぱい。 (ワッチョイW 037e-p0ll)
2020/04/03(金) 01:47:31.34ID:wC7uozgc0 >>93
ほんとだバグってんね
ナイス情報
fanseg消えてしまうってんでなかなか試せずにいたけど
並行環境で試してみたら結構良いねこれ
マスクエディターは変な重さは無くなって比較的扱いやすい
dstもsrcもそれぞれ公式にxsegトレーニングが簡単に出来るのもいい
後はこのトレーニングしたモデルがどの程度汎用性あるのかだな
一度一通り学習出来たものがあれば、dst変えても以前のfansegレベルに機能するのかどうか
この辺を試していきたい
ほんとだバグってんね
ナイス情報
fanseg消えてしまうってんでなかなか試せずにいたけど
並行環境で試してみたら結構良いねこれ
マスクエディターは変な重さは無くなって比較的扱いやすい
dstもsrcもそれぞれ公式にxsegトレーニングが簡単に出来るのもいい
後はこのトレーニングしたモデルがどの程度汎用性あるのかだな
一度一通り学習出来たものがあれば、dst変えても以前のfansegレベルに機能するのかどうか
この辺を試していきたい
95名無しさん@お腹いっぱい。 (ワッチョイ 2d58-Ttar)
2020/04/03(金) 02:37:22.31ID:grzGUvyD0 試していきたいって黙ってやればいいだろ
いちいち表明するんじゃねえ
いちいち表明するんじゃねえ
96名無しさん@お腹いっぱい。 (ワッチョイW 8557-quZ8)
2020/04/03(金) 15:40:50.04ID:3uAEzclG0 ワッチョイの7e-がガイジなんだからNGするだけだろ
97名無しさん@お腹いっぱい。 (ワッチョイ 9b73-s1FH)
2020/04/03(金) 20:54:30.14ID:6ejPtlMH0 今週の日記
ワッチョイW 037e-p0ll
ワッチョイ 55ac-/I61
ワッチョイW 037e-p0ll
ワッチョイ 55ac-/I61
98名無しさん@お腹いっぱい。 (ワッチョイ b5b1-CuPJ)
2020/04/04(土) 02:10:14.45ID:h8/Z55IC0 mask editorだけどマウス右クリでカットしたあとeでセーブ推して次のフレームいってそこからrとe交互にずっと最後まで押してるけどもっとスピードアップできないものか
99名無しさん@お腹いっぱい。 (アンパンW 037e-p0ll)
2020/04/04(土) 14:41:23.87ID:Sf+wtkSS00404 頭丸ごと交換キター!
これは面白そう
これは面白そう
100名無しさん@お腹いっぱい。 (アンパンW 037e-p0ll)
2020/04/04(土) 14:53:47.79ID:Sf+wtkSS00404 xsegはfansegでチラつくような場面でも上手く機能して精度はいい感じ
ただやっぱり汎用性はそんなに高くなくてdstが変わる毎にマスクしてトレーニングをしなければならない
fansegのお手軽さが無くなるので、この点はかなりきついと思う
あと旧環境で前髪を通常マスクしたsrcでtf・GANをかけるとマスクが変になったり、マージ後の色味が安定しなかったり変なことになった
原因はまだはっきりとは分からないんで要検証かと
という訳で、完全移行はあまりお勧め出来ない状況なので既存環境と並列して試すのがいいと思う
ただやっぱり汎用性はそんなに高くなくてdstが変わる毎にマスクしてトレーニングをしなければならない
fansegのお手軽さが無くなるので、この点はかなりきついと思う
あと旧環境で前髪を通常マスクしたsrcでtf・GANをかけるとマスクが変になったり、マージ後の色味が安定しなかったり変なことになった
原因はまだはっきりとは分からないんで要検証かと
という訳で、完全移行はあまりお勧め出来ない状況なので既存環境と並列して試すのがいいと思う
101名無しさん@お腹いっぱい。 (アンパンW 037e-p0ll)
2020/04/04(土) 14:58:17.95ID:Sf+wtkSS00404102名無しさん@お腹いっぱい。 (アンパンW 154a-/5Ms)
2020/04/04(土) 17:08:58.77ID:dmivGDWA00404 どうなってんの?w
髪の毛の動きとかどうなんのよ
髪の毛の動きとかどうなんのよ
103名無しさん@お腹いっぱい。 (アンパンW e5b1-nr9G)
2020/04/04(土) 19:50:40.31ID:330ruvVg00404 whole faceすごくいいな
そろそろ前髪問題を解決するアップデートして欲しいけど外人で前髪ある人って稀だからなぁ
日本人が製作者なら真っ先に解決するとこだろうな
そろそろ前髪問題を解決するアップデートして欲しいけど外人で前髪ある人って稀だからなぁ
日本人が製作者なら真っ先に解決するとこだろうな
104名無しさん@お腹いっぱい。 (アンパン b5b1-CuPJ)
2020/04/04(土) 19:58:50.93ID:h8/Z55IC00404 >>101
最新のDFLでできるの??
最新のDFLでできるの??
105名無しさん@お腹いっぱい。 (アンパン 4b8b-CuPJ)
2020/04/04(土) 20:55:58.56ID:YHDflw7Q00404 最新の落としたらFANSEG無くなってて使えない
フルフェイス切り捨てるなよ
フルフェイス切り捨てるなよ
106名無しさん@お腹いっぱい。 (ワッチョイ 55dc-8H9x)
2020/04/04(土) 23:26:11.26ID:KHcKnkl/0 liaeuhdってliaehdと比較してsrcに似せる能力段違いに低くない?
他にliaeuhd使った人居たら感想を聞きたい
他にliaeuhd使った人居たら感想を聞きたい
107名無しさん@お腹いっぱい。 (アウアウウー Sae9-P3rJ)
2020/04/05(日) 12:24:14.19ID:vS5IpjJ2a whole faceの例、男性短髪、正面、背景シンプというやりやすい条件。
女性長髪、横顔、複雑な背景でうまくいくんだったら画期的だけど、どうなん。
女性長髪、横顔、複雑な背景でうまくいくんだったら画期的だけど、どうなん。
108名無しさん@お腹いっぱい。 (ワッチョイ 8d76-XPij)
2020/04/05(日) 14:44:45.84ID:uqkNWP6u0109名無しさん@お腹いっぱい。 (ササクッテロ Sp01-qxA/)
2020/04/05(日) 15:17:28.51ID:mjQBe+uWp 過去にうん時間かけて手動マスクしたのが使えないアプデは勘弁して
110名無しさん@お腹いっぱい。 (ワッチョイW 154a-/5Ms)
2020/04/05(日) 19:19:15.24ID:IXNbLOG30 マスク時間かけてるやつって1枚1枚指1本からやってそうだよな(´・ω・`)
111名無しさん@お腹いっぱい。 (ワッチョイ 4d6a-8H9x)
2020/04/05(日) 20:33:42.19ID:pF9s67qw0 full face なくなったのは衝撃だな
whole face ってそんなにええん?
whole face ってそんなにええん?
112名無しさん@お腹いっぱい。 (ワッチョイ 4d6a-8H9x)
2020/04/06(月) 08:07:58.80ID:+TbKqf+50 と思ったら統合されとるだけやん
113名無しさん@お腹いっぱい。 (ワッチョイW e5b1-nr9G)
2020/04/06(月) 16:08:30.14ID:w3RUfrj80 一つ前のバージョンに戻しました俺は
114名無しさん@お腹いっぱい。 (ワッチョイW b5b1-V5k0)
2020/04/07(火) 06:44:45.95ID:Fn0GKTrd0 srcをマスクする方法ないですか。
srcの前髪を消したい
srcの前髪を消したい
115名無しさん@お腹いっぱい。 (ワッチョイ 6776-tys6)
2020/04/08(水) 21:13:08.06ID:FKhziBu90 みんな家にいるのでcolabの割り当てが…
116名無しさん@お腹いっぱい。 (ワッチョイ 4f58-AglQ)
2020/04/13(月) 05:29:46.96ID:3BLhPgPW0 RTX3000がでたら買い換えようと思ってたけどコロナで遅れそうだよなあ
wholefaceがメジャーになったら1070じゃ厳しいな
wholefaceがメジャーになったら1070じゃ厳しいな
117名無しさん@お腹いっぱい。 (ワッチョイ d7b1-6/vv)
2020/04/13(月) 08:34:19.92ID:Jy3MYXur0 2.0のFULLのSRCで何万回か学習させたモデルを別のSRCに使いまわしできますか?
118名無しさん@お腹いっぱい。 (ワッチョイ d7b1-6/vv)
2020/04/13(月) 08:41:50.79ID:Jy3MYXur0 FULLFACEで30マンくらいまわしたけど、尺八がうまくできない、口があきすらしないんだけどどうしたらいいんだ?
どうゆう設定で回したらいいでしょうか?
どうゆう設定で回したらいいでしょうか?
119名無しさん@お腹いっぱい。 (ワッチョイ 1764-zfCe)
2020/04/14(火) 00:01:01.96ID:+ElKOj2r0 wholeみたいな頭部自体の挿げ替えは髪短い女性か男性ぐらいしか適用出来そうにない印象あるわ
まあ一応同素材同設定でfとwfでdfhd回してみたけど、fは割と目線反映したのに対してwfはやたら寄り目気味が多くなった
まあ一応同素材同設定でfとwfでdfhd回してみたけど、fは割と目線反映したのに対してwfはやたら寄り目気味が多くなった
120名無しさん@お腹いっぱい。 (ワッチョイ 174a-xa8R)
2020/04/17(金) 23:40:43.78ID:xIXuHpwA0 2.0でマージしたときにsrcの顔枠がくっきりするんだが、どの設定をいじればいいいんだ?
単純に学習不足?
単純に学習不足?
121名無しさん@お腹いっぱい。 (ワッチョイ 578b-Ho7r)
2020/04/17(金) 23:47:03.29ID:VL6TZpmV0 blur
122名無しさん@お腹いっぱい。 (スッップ Sdbf-SkSa)
2020/04/18(土) 12:28:45.47ID:p4chc1pkd gifコラ作ること考えたら超お手軽ツールだよね(´・ω・`)
123名無しさん@お腹いっぱい。 (ワッチョイ 9758-Ho7r)
2020/04/18(土) 16:54:51.47ID:pW2zECMl0 DFLcolabで任意のver使えるようにならないかな
124名無しさん@お腹いっぱい。 (ワッチョイ 7f81-ycCE)
2020/04/19(日) 22:11:01.34ID:EHXjUG140 merged to mov lossless からダヴィンチリゾルブで調整やっている人いる?
125名無しさん@お腹いっぱい。 (ワッチョイ 57b1-xa8R)
2020/04/20(月) 19:16:04.50ID:APtCS+ip0 2.0はまだ模索段階だから今すぐ飛びつかなくていいって感じかな
126名無しさん@お腹いっぱい。 (ワッチョイ 7f81-ycCE)
2020/04/21(火) 12:34:40.84ID:TQjEALP90 顔に大量ぶっかけのコラを作れてこそ職人
127名無しさん@お腹いっぱい。 (ワッチョイ 2f81-B/PN)
2020/04/25(土) 20:58:51.67ID:mNXvBs6S0 色の水増し機能があったのはどのバージョンだったかわかる人いる?
どうしても顔色が合わないので水増し試してみたいと思う。
どうしても顔色が合わないので水増し試してみたいと思う。
128名無しさん@お腹いっぱい。 (ニククエ Sp5b-mI7k)
2020/04/29(水) 22:09:34.45ID:nfJ46MJqpNIKU 日テレでフェイク動画講座やってたよ
GANって結構最先端な機能だったのね
GANって結構最先端な機能だったのね
129名無しさん@お腹いっぱい。 (アウアウエー Sa9f-QtER)
2020/04/30(木) 06:43:29.26ID:0B0W4hTja 別にそこまで新しいものでもないが
130名無しさん@お腹いっぱい。 (ワッチョイ bf73-WbWN)
2020/04/30(木) 10:38:09.88ID:7PTWbMH40 科捜研の女のGANに敵うものは無い
131名無しさん@お腹いっぱい。 (ササクッテロ Sp5b-mI7k)
2020/04/30(木) 16:55:24.57ID:K4H8CEP1p あかん何書いてもイチャモンしか返ってこない
132名無しさん@お腹いっぱい。 (ワッチョイ a7dc-LlFz)
2020/05/01(金) 20:54:29.72ID:lM4yB0uv0 もうDFLスレは死んだよ
目新しい技術もないし、議論もない
目新しい技術もないし、議論もない
133名無しさん@お腹いっぱい。 (ワッチョイ e78b-ts7H)
2020/05/01(金) 22:06:18.87ID:6wl/GXQ70 fanseg無くなってから新しいバージョンに移行できないな
今のバージョンで満足行くもの作れてるから問題ないし
今のバージョンで満足行くもの作れてるから問題ないし
134名無しさん@お腹いっぱい。 (ワッチョイ 0758-8lVZ)
2020/05/01(金) 23:28:25.80ID:NrSekkAz0 何事も扱う側のレベルが低いと正しい評価はされない
なんであれをこうしないんだとかおれもよく思ったもんだけど
作者の方がよく考えてるって気付かされる
なんであれをこうしないんだとかおれもよく思ったもんだけど
作者の方がよく考えてるって気付かされる
135名無しさん@お腹いっぱい。 (ワッチョイ a758-ts7H)
2020/05/02(土) 00:14:05.96ID:m9MaDzXV0 マシンスペックが足りなくてなあ
RTX30xxも控えてるから今買いかえるわけにもっていう
RTX30xxも控えてるから今買いかえるわけにもっていう
136名無しさん@お腹いっぱい。 (ワッチョイW 5f83-eDDL)
2020/05/02(土) 00:41:19.80ID:AZtGXwfu0 macで上手くできてる人いる?
137名無しさん@お腹いっぱい。 (スプッッ Sdff-Hdl+)
2020/05/02(土) 16:14:47.63ID:enrCSxaJd 乃木専の僕的には眉間V字カットが一番の技術革新ポイントや!
138名無しさん@お腹いっぱい。 (ワッチョイ e78b-ts7H)
2020/05/02(土) 16:35:43.81ID:kndIzdIZ0 乃木じゃなくても眉間っていらないよね
俺もだいぶ前から切ってるけど特に問題ない
俺もだいぶ前から切ってるけど特に問題ない
139名無しさん@お腹いっぱい。 (スプッッ Sdff-Hdl+)
2020/05/02(土) 16:42:50.04ID:enrCSxaJd 前髪率高いとね
V字ないと今でも両津になるのかね
V字ないと今でも両津になるのかね
140名無しさん@お腹いっぱい。 (ワントンキン MMbf-8gtV)
2020/05/02(土) 21:08:09.77ID:DqrRKhFsM LandmarksProcessor.pyを弄ってV字カットしたdebug作れたし、convert時にmask_modeをdstにすればそのdebugでmergeできるんだけど、
未カットsrc、dst、modelでそれをやる方法ってない?今あるのをextractしなおす以外に方法ない?
最近復活して、今更V字カットを知ったんだけど、今までのをまたextractするのはきつい…
未カットsrc、dst、modelでそれをやる方法ってない?今あるのをextractしなおす以外に方法ない?
最近復活して、今更V字カットを知ったんだけど、今までのをまたextractするのはきつい…
141名無しさん@お腹いっぱい。 (ワッチョイ df76-ur4w)
2020/05/02(土) 21:14:25.70ID:mGctdCrf0142名無しさん@お腹いっぱい。 (ワッチョイ ff81-h83k)
2020/05/03(日) 15:47:53.78ID:86bG7FW+0 金正恩のAIコラすごいね。完璧な作品だ。
143名無しさん@お腹いっぱい。 (ワッチョイ 27b1-h83k)
2020/05/04(月) 23:35:54.81ID:0My1K4DF0 どこにあるの
144名無しさん@お腹いっぱい。 (ササクッテロラ Sp33-nzb4)
2020/05/06(水) 16:56:46.10ID:Lw9kLh11p 坂道系ほぼ前髪固定で3800kだけど眉間も消えるようになったしどうゆう原理か常に隠れてる側の眉毛もある程度反映されるようになった
145名無しさん@お腹いっぱい。 (ワッチョイW 17ea-QpwZ)
2020/05/10(日) 22:16:58.83ID:UMmAGo+10 あほばっかりで見る価値ないな
146名無しさん@お腹いっぱい。 (ワッチョイ 1776-8oPF)
2020/05/11(月) 17:55:00.66ID:h1ToNM4+0 アホのくせに構ってほしいゴミレスはオマエやw
147名無しさん@お腹いっぱい。 (ワッチョイW d34a-miuc)
2020/05/12(火) 19:43:33.85ID:p+2oAlrw0 すまぬ
一度編集したdstのマスクを全部リセットするのってどうやってやるのですか(´・ω・`)?
一度編集したdstのマスクを全部リセットするのってどうやってやるのですか(´・ω・`)?
148名無しさん@お腹いっぱい。 (ワッチョイ 1158-gIXh)
2020/05/13(水) 23:08:43.84ID:8uOjqsgU0149名無しさん@お腹いっぱい。 (ワッチョイ 1158-gIXh)
2020/05/13(水) 23:09:31.15ID:8uOjqsgU0 2ヶ月ぶりぐらいにソフト更新したらなんかtrain速くなってるな
150名無しさん@お腹いっぱい。 (オイコラミネオ MMfd-klWZ)
2020/05/16(土) 01:04:55.99ID:3edN40mOM もしかして1660Tiの6GBってdfl2.0環境では全くスペック足りてない?
1.0だとSAEHDで動いてたのに2.0のSAEHDではバッチ2、ほか最低限動作するレベルまで落としてもメモリエラーで始まりもしない
おとなしく前のに戻るか、Quickとやらがどんなもんなのか試してみるか…
1.0だとSAEHDで動いてたのに2.0のSAEHDではバッチ2、ほか最低限動作するレベルまで落としてもメモリエラーで始まりもしない
おとなしく前のに戻るか、Quickとやらがどんなもんなのか試してみるか…
151名無しさん@お腹いっぱい。 (ワッチョイ 1158-gIXh)
2020/05/16(土) 01:55:27.51ID:mUCB7bD00 同じグラボ持ってないから分からないけどアーキテクチャ次第では動くかもしれない
dfhd選んでるようだったらdfとか他のにするといいかな
既にそうだったら無理かも
Quickはお試し用だからそれなら1.0使っておいたほうがいい
dfhd選んでるようだったらdfとか他のにするといいかな
既にそうだったら無理かも
Quickはお試し用だからそれなら1.0使っておいたほうがいい
152名無しさん@お腹いっぱい。 (ワッチョイ 937a-JcAG)
2020/05/16(土) 13:45:18.93ID:R6d/SouM0 Xsagって、自分でマスク指定しないといけないの?
153276 (ワッチョイW bf6d-xocK)
2020/05/18(月) 00:59:56.33ID:Jrk49TBp0 このところのレベル低下すげえな。github読んでから来いよ…
154名無しさん@お腹いっぱい。 (ワッチョイW 1158-klWZ)
2020/05/18(月) 01:11:23.35ID:nlthB1PL0 さあここからレベルの高い書き込みのオンパレードだぞー!
155名無しさん@お腹いっぱい。 (ワッチョイ 0f58-0jSP)
2020/05/18(月) 02:31:35.42ID:fvIW8xEM0 情報欲しいのは商売してる業者と糖質と素人だろ
こいつらにやる情報はねえから絶対書かねえからな
こいつらにやる情報はねえから絶対書かねえからな
156名無しさん@お腹いっぱい。 (ワッチョイ f776-uRPb)
2020/05/18(月) 04:08:40.15ID:jliUM3b80 っと言いつつ気になって仕方が無いチョン共
いちいちこっち見んなってw
いちいちこっち見んなってw
157名無しさん@お腹いっぱい。 (ササクッテロラ Sp63-cU0A)
2020/05/19(火) 19:56:06.73ID:FQpgtQtlp xsegめんどくさそうだから0307でやってるけど何一つ不満ないわ
158名無しさん@お腹いっぱい。 (アウアウエーT Sa52-oW4g)
2020/05/21(木) 08:49:03.76ID:dnUYW0Iwa ぶっかけものって作れないのでしょうか?
作ろうとしたけど顔にかかると精子だけ消える、学習不足?
外人が作った動画見たことあるから作れると思うんだけど
誰か教えて
作ろうとしたけど顔にかかると精子だけ消える、学習不足?
外人が作った動画見たことあるから作れると思うんだけど
誰か教えて
159名無しさん@お腹いっぱい。 (ワッチョイ 3e81-f9J/)
2020/05/21(木) 14:27:53.94ID:S9FC95oU0 バカには無理
160名無しさん@お腹いっぱい。 (スップ Sdba-OkZ7)
2020/05/21(木) 16:40:37.02ID:xkd75AEEd 濃い目のところをひたすらxsegでマスクして作ったことある。そこそこの出来だったけど労力半端なかった。
161名無しさん@お腹いっぱい。 (ワッチョイW 1a6d-LW3c)
2020/05/21(木) 18:43:14.46ID:ib9sK5ST0 過去スレ読めばできるだろ。
162名無しさん@お腹いっぱい。 (アウアウカー Sac3-k5Kl)
2020/05/21(木) 20:52:39.81ID:LsC/XKxOa face style power を入れれば再現されたりしないのかな?
自分は十分学習が進んだ段階でface style power入れて回したらモデル崩壊したんで、実験する気にもならんけど
自分は十分学習が進んだ段階でface style power入れて回したらモデル崩壊したんで、実験する気にもならんけど
163名無しさん@お腹いっぱい。 (アウアウカー Sac3-k5Kl)
2020/05/21(木) 20:54:28.39ID:LsC/XKxOa164名無しさん@お腹いっぱい。 (アウアウエーT Sa52-oW4g)
2020/05/22(金) 00:48:20.72ID:KnjF7+BOa 過去スレ見たけど
明暗閾値以下をRGB0.0.0に変更これどうゆうことですか?
白いとこ以外を黒くするの?
誰か教えてください
明暗閾値以下をRGB0.0.0に変更これどうゆうことですか?
白いとこ以外を黒くするの?
誰か教えてください
165名無しさん@お腹いっぱい。 (ワッチョイ 0e76-oW4g)
2020/05/22(金) 10:25:18.06ID:rBaylj+J0 自分のやり方は例のアルファPng吐き+Aviutlマージだから
Dstの残したい汁部分にマスク乗せるだけなんで、汁もゲロも普通に作ってる。
Dstの残したい汁部分にマスク乗せるだけなんで、汁もゲロも普通に作ってる。
166名無しさん@お腹いっぱい。 (ワッチョイ 638b-crVl)
2020/05/22(金) 18:18:09.88ID:pjFee6JO0 そんな難しいことしてるやつは普通じゃないだろうな
167名無しさん@お腹いっぱい。 (アウアウウー Sac7-LW3c)
2020/05/22(金) 20:41:22.00ID:I78KjF16a ちゃんとよく読め、もっと楽にできるやん?
168名無しさん@お腹いっぱい。 (ワッチョイ 7657-Ziuy)
2020/05/22(金) 21:59:47.62ID:PXshBRv50 dstのフェイスセットをコピーしてsrc側に放り込んである程度trainしてから
本来のsrcに入れ替えるんじゃなかったっけ
本来のsrcに入れ替えるんじゃなかったっけ
169名無しさん@お腹いっぱい。 (ワッチョイW df06-x69y)
2020/05/22(金) 22:24:54.19ID:jSySsFXI0 それ笛動画じゃなかったっけ
170名無しさん@お腹いっぱい。 (アウアウエーT Sa52-oW4g)
2020/05/23(土) 09:34:25.38ID:s2jNEB/1a 例のアルファPng吐きどうゆうことですか?
かけこら作るのが一番簡単かな?
かけこら作るのが一番簡単かな?
171名無しさん@お腹いっぱい。 (ワッチョイ 3e81-f9J/)
2020/05/24(日) 15:45:37.64ID:bTzS1T3r0 しょうがないな。教えてやるか。
まず、自分が大量の精液をグリーンスクリーンにぶっかける。
その映像を録画しsrcとコラージュする。
まさに自分が〇〇の顔に大量写生している動画の完成だ!
ただ、ポイントは一人で大量の精液を写生できるかだ。
俺は自信があるが。
まず、自分が大量の精液をグリーンスクリーンにぶっかける。
その映像を録画しsrcとコラージュする。
まさに自分が〇〇の顔に大量写生している動画の完成だ!
ただ、ポイントは一人で大量の精液を写生できるかだ。
俺は自信があるが。
172名無しさん@お腹いっぱい。 (ワッチョイW 1a6d-LW3c)
2020/05/24(日) 17:31:20.89ID:2xGjBrsZ0 >>169
一緒
一緒
173名無しさん@お腹いっぱい。 (アウアウウーT Sac7-oW4g)
2020/05/24(日) 23:31:57.79ID:rbQ7tUPqa dstでいいもん見つけたんだけど
えらがすごいんよ。(笑ったらアンパ〇マン)
何とかならん?
えらがすごいんよ。(笑ったらアンパ〇マン)
何とかならん?
174名無しさん@お腹いっぱい。 (ワッチョイ 9a84-I6Yg)
2020/05/25(月) 04:53:08.84ID:ZuAaE4v90175名無しさん@お腹いっぱい。 (アウアウエーT Sa52-oW4g)
2020/05/25(月) 13:53:32.95ID:DkTmSI95a 動画編集とか透明化調べてたけど
168の方法でよかったのか
168の方法でよかったのか
176名無しさん@お腹いっぱい。 (ワッチョイW bbf1-JckK)
2020/05/26(火) 21:24:00.28ID:3NsAT3FU0 久々に触ったけどxseg凄えな
177名無しさん@お腹いっぱい。 (スッップ Sdb3-c8xy)
2020/05/27(水) 19:43:45.97ID:GxkXfgsCd SAEHDあたりから更新してないんだが
何が凄いんだい?
何が凄いんだい?
178名無しさん@お腹いっぱい。 (ワッチョイ 418b-moxv)
2020/05/27(水) 20:03:34.20ID:Y26TWEKj0 xsegで違和感なくキレイに作れるようになるけどfansegより似るわけでもない
179名無しさん@お腹いっぱい。 (ワッチョイ bfb8-+Do1)
2020/06/13(土) 02:18:13.05ID:dKsDnHQP0 解説サイトの写真にあるDFとDFHDの違いが判らん。
特に精細になっている感じもしない。
解像度が上がるわけではないのこれ?
特に精細になっている感じもしない。
解像度が上がるわけではないのこれ?
180名無しさん@お腹いっぱい。 (ワッチョイ 4fc1-5fXH)
2020/06/27(土) 11:34:21.83ID:wOjWGBc+0 0622きてるね
181名無しさん@お腹いっぱい。 (ワッチョイ 0f8b-NJGG)
2020/06/27(土) 14:42:09.34ID:yY6ysnts0 SAEHDでhdが廃止されて、uhdは名前が-uに変更されたとか、この辺のネーミングついて行けない
-udで速度が倍速になるというのは気になる
-udで速度が倍速になるというのは気になる
182名無しさん@お腹いっぱい。 (ワッチョイ 3fb8-pPzt)
2020/06/28(日) 11:00:11.43ID:6cXBI5gu0 最新のグラボに付いてるTensor Coreってアプリで未対応?
ディープラーニング専用っぽいから期待してるんだけど。
ディープラーニング専用っぽいから期待してるんだけど。
183名無しさん@お腹いっぱい。 (ワッチョイ 0f8b-NJGG)
2020/06/28(日) 16:10:20.55ID:EGLR9JeQ0 0627が出てた
extractの顔の最大数を指定できるようになったのは良いな
extractの顔の最大数を指定できるようになったのは良いな
184名無しさん@お腹いっぱい。 (ワッチョイ ff73-FVGi)
2020/06/28(日) 20:23:13.83ID:LcRhdzUk0 1frame内の人数って事?
185名無しさん@お腹いっぱい。 (ワッチョイ 0f8b-NJGG)
2020/06/28(日) 21:51:06.08ID:EGLR9JeQ0 そう
今までメイン以外の背景とかひな壇とかワイプとかの人も全部拾って遅くなってたけど
これがちょっと早くなる
今までメイン以外の背景とかひな壇とかワイプとかの人も全部拾って遅くなってたけど
これがちょっと早くなる
186名無しさん@お腹いっぱい。 (ワッチョイ ff73-FVGi)
2020/06/28(日) 22:15:19.08ID:LcRhdzUk0 それはいいね 本命が01でミスが00とかだとデバッグも面倒だったし
187名無しさん@お腹いっぱい。 (ニククエ ff73-FVGi)
2020/06/29(月) 12:43:56.10ID:ULHG4wqF0NIKU 0628使ってみた src抽出のみ↑が使えるみたい。なぜdstは省くのか
liaechメインなので、0307のextractorと交換したものの動かず…
liaechメインなので、0307のextractorと交換したものの動かず…
188名無しさん@お腹いっぱい。 (ニククエ 0f8b-NJGG)
2020/06/29(月) 21:52:21.51ID:DEJhBUsC0NIKU dstもsrcも同じ機能を使ってるから、バッチファイルいじればdstでも動くと思うよ
189名無しさん@お腹いっぱい。 (ワッチョイ ff73-FVGi)
2020/06/30(火) 10:44:57.28ID:4Nj9IWgc0 >>188
d
py弄ってダメそうだったから諦めてたが、5)extract dstを右クリ編集で開いて「--max-faces-from-image 0 ^」の行を消したらイケた
src作る時もdebugの使い易さからextract dstしか使って無かったので非常に助かる
d
py弄ってダメそうだったから諦めてたが、5)extract dstを右クリ編集で開いて「--max-faces-from-image 0 ^」の行を消したらイケた
src作る時もdebugの使い易さからextract dstしか使って無かったので非常に助かる
190名無しさん@お腹いっぱい。 (ワッチョイ ff73-FVGi)
2020/06/30(火) 20:52:36.24ID:4Nj9IWgc0191名無しさん@お腹いっぱい。 (ワッチョイW 8f4a-Fder)
2020/06/30(火) 21:02:05.62ID:vjTN/2340 ディズニーはこれで何をしようとしてるんだ(´・ω・`)?
192名無しさん@お腹いっぱい。 (ワッチョイ 0fe5-pPzt)
2020/06/30(火) 21:50:53.22ID:xxGs3C+o0 ディズニーはメリット大きいでしょ。
ゴーストライターならぬゴースト俳優みたいな事も出来るし、
過去の俳優を映画に使ったりもできるし。
古い話だけど、ロボコップみたいなのなら、顔以外はCGでもいい。
ディズニーランドのアトラクションで「自分の家族が捕まった」とか、
配信動画(ゲーム?)の登場人物に視聴者を混ぜるとかも簡単。
ゴーストライターならぬゴースト俳優みたいな事も出来るし、
過去の俳優を映画に使ったりもできるし。
古い話だけど、ロボコップみたいなのなら、顔以外はCGでもいい。
ディズニーランドのアトラクションで「自分の家族が捕まった」とか、
配信動画(ゲーム?)の登場人物に視聴者を混ぜるとかも簡単。
193名無しさん@お腹いっぱい。 (ワッチョイ 8f58-NJGG)
2020/06/30(火) 22:49:23.31ID:zipM2Kcn0 愛・地球博かなんかのときにアトラクションに入場した人の顔をCG化して映像の中に登場させるみたいなやつあったな
194名無しさん@お腹いっぱい。 (ワッチョイ 4673-FtsS)
2020/07/02(木) 17:22:17.73ID:N0LtVnu80 0628のextractでmax1でやったら、男優の顔の枚数が60%位になってmanual祭りになった…
195名無しさん@お腹いっぱい。 (ワッチョイ 6b8b-VQSO)
2020/07/02(木) 17:57:57.36ID:cAdhucl90 別に有能になったわけじゃないしな
maxは2ぐらいでいいと思う
maxは2ぐらいでいいと思う
196名無しさん@お腹いっぱい。 (スップ Sd4a-iFX4)
2020/07/02(木) 20:01:49.89ID:IZoE3vDsd 前も書いたけど乃木坂やっててぬいぐるみの犬がextractされたときはほっこりしたお
197名無しさん@お腹いっぱい。 (ワッチョイ 0b7e-dE/J)
2020/07/02(木) 22:03:16.24ID:o9pYtNIQ0 DFL2.0でmergeするときにinteractive mergerを選択すると、
キーボード配列が表示されたMergerのウィンドウは立ち上がるものの、
プレビューウィンドウのようなものは表示されず、キーも何を押しても効かないのですが、
解決方法がわかる方はいらっしゃいますでしょうか。
キーボード配列が表示されたMergerのウィンドウは立ち上がるものの、
プレビューウィンドウのようなものは表示されず、キーも何を押しても効かないのですが、
解決方法がわかる方はいらっしゃいますでしょうか。
198名無しさん@お腹いっぱい。 (ワッチョイ 4673-FtsS)
2020/07/02(木) 22:10:34.16ID:N0LtVnu80 >>197
キーボードの画面がアクティブの時にtabを押すってインターネッツで見た
キーボードの画面がアクティブの時にtabを押すってインターネッツで見た
199名無しさん@お腹いっぱい。 (ワッチョイ 0b7e-dE/J)
2020/07/02(木) 22:26:37.62ID:o9pYtNIQ0 >198
マジ天才。
この度は誠にありがとうございます。
マジ天才。
この度は誠にありがとうございます。
200名無しさん@お腹いっぱい。 (ワッチョイ 7fdc-OiVe)
2020/07/04(土) 20:54:33.57ID:wOJm5uDN0 最近地上波のバラエティ番組とかでもdeepfakeを使った企画とかやってるね
あんまり世の中に浸透させるような技術じゃないと思うけど
あんまり世の中に浸透させるような技術じゃないと思うけど
201名無しさん@お腹いっぱい。 (ワッチョイ b3b8-keh3)
2020/07/22(水) 23:56:47.08ID:mcDICQ/L0 GOOGLEが提供してるTPUってやつもDFLに応用できるんだよね。
異次元の推論能力試してみたい。
だれか使えるようにしてくれ。
異次元の推論能力試してみたい。
だれか使えるようにしてくれ。
202名無しさん@お腹いっぱい。 (アウアウウー Sa5d-vMr0)
2020/07/23(木) 03:21:43.55ID:hrbelyxTa >>201
もう少し理解してから書き込めよな。
もう少し理解してから書き込めよな。
203名無しさん@お腹いっぱい。 (ワッチョイ 1390-FoHg)
2020/08/05(水) 15:14:29.67ID:U/7rE44R0 モザイク除去でいいの知ってる人いる?
ネットで検索したら
https://twitter.com/Ohsaworks
これしか出てこなかった
画像見たけどこれフェイクに見えるし
いいの知ってる人いたら教えて
https://twitter.com/5chan_nel (5ch newer account)
ネットで検索したら
https://twitter.com/Ohsaworks
これしか出てこなかった
画像見たけどこれフェイクに見えるし
いいの知ってる人いたら教えて
https://twitter.com/5chan_nel (5ch newer account)
204名無しさん@お腹いっぱい。 (アウアウカー Saad-Hcnj)
2020/08/11(火) 04:58:07.68ID:TT84wDURa extractって昔のバージョンだと完全手動じゃなかったっけ。今触ったらマニュアルでも半自動なんだな。
完全手動出よかったのに。
完全手動出よかったのに。
205名無しさん@お腹いっぱい。 (ワッチョイ 99b1-++7W)
2020/08/13(木) 09:01:54.26ID:1eR2LUF60 どこかに256のmodel落ちてないですか
206名無しさん@お腹いっぱい。 (アウアウウー Saa5-6Dw2)
2020/08/13(木) 17:10:30.31ID:0By5UK+aa >>205
普通に公開されてるよ
普通に公開されてるよ
207名無しさん@お腹いっぱい。 (ワッチョイ 818b-p5K4)
2020/08/13(木) 17:21:32.76ID:n40sk9SW0 やなやろーだな
208名無しさん@お腹いっぱい。 (アウアウウー Saa5-6Dw2)
2020/08/13(木) 20:47:36.17ID:0By5UK+aa >>207
いや悪気もなくそのままなんだけど、冗談きついぜ。
いや悪気もなくそのままなんだけど、冗談きついぜ。
209名無しさん@お腹いっぱい。 (ワッチョイ 818b-p5K4)
2020/08/13(木) 21:19:09.72ID:n40sk9SW0 本気で言っててアドバイスになってると思ってるのならアホ
だたおちょくろうと思って書いてたらやっぱりアホ
だたおちょくろうと思って書いてたらやっぱりアホ
210名無しさん@お腹いっぱい。 (アウアウウー Saa5-6Dw2)
2020/08/13(木) 21:32:39.17ID:0By5UK+aa >>209
まあ、普通に公開されているのに見つけられもしないアホよりアホという。英語で検索せーよ。
まあ、普通に公開されているのに見つけられもしないアホよりアホという。英語で検索せーよ。
211名無しさん@お腹いっぱい。 (ワッチョイ 818b-p5K4)
2020/08/13(木) 21:39:26.14ID:n40sk9SW0 やなやろーだな
212名無しさん@お腹いっぱい。 (ワッチョイ e958-p5K4)
2020/08/13(木) 22:01:46.31ID:R4h/zdVq0 そもそも256のmodelって書き方だけじゃどーにもならんよ
213名無しさん@お腹いっぱい。 (アウアウウー Saa5-6Dw2)
2020/08/13(木) 22:23:18.86ID:0By5UK+aa >>212
おいおい、言わなくて良いのに
おいおい、言わなくて良いのに
214名無しさん@お腹いっぱい。 (ワッチョイ 818b-p5K4)
2020/08/13(木) 22:29:11.76ID:n40sk9SW0 公開されてるよとか言っておきながら無責任だなおい
215名無しさん@お腹いっぱい。 (ワッチョイ 99b1-++7W)
2020/08/14(金) 11:11:57.12ID:Zqsu4eRH0 srcを高精度化できるツールないですか
216名無しさん@お腹いっぱい。 (アウアウウー Saa5-XTSl)
2020/08/14(金) 13:30:33.89ID:kn0uqyHca つ Shrapen AI
217名無しさん@お腹いっぱい。 (ワッチョイ 7104-pNDi)
2020/08/14(金) 13:34:08.95ID:D8HFdcYO0 画質向上という意味なら 4.2) data_src util faceset enhanceでenhanceしたらいいんじゃない?
218名無しさん@お腹いっぱい。 (ワッチョイ 99b1-++7W)
2020/08/14(金) 14:34:15.05ID:Zqsu4eRH0 ありがとう
こんな機能あったのか・・
こんな機能あったのか・・
219名無しさん@お腹いっぱい。 (ワッチョイ d2b8-XQXO)
2020/08/14(金) 20:09:37.31ID:gy+utf5k0 >205~214
でもまぁ英語ってことは外人ばっかりってことだよねぇ
でもまぁ英語ってことは外人ばっかりってことだよねぇ
220名無しさん@お腹いっぱい。 (ワッチョイW fd6d-6Dw2)
2020/08/15(土) 16:49:45.10ID:fzP6X0dB0 >>219
いや、英語でええやん。普通に教育受けていれば、なんも問題ないで。
いや、英語でええやん。普通に教育受けていれば、なんも問題ないで。
221名無しさん@お腹いっぱい。 (ワッチョイ 99b1-XQXO)
2020/08/16(日) 06:00:03.79ID:xCU2TcBH0 モザイクとちんこまんこを顔認証同様してくれる機能ができれば
あとは学習するだけで余裕でモザイク破壊できるのに(実際には架空の物に入れ替え)
日本だと超需要だけど、開発するあちら側の人はモザイク問題抱えてないのがな
あとは学習するだけで余裕でモザイク破壊できるのに(実際には架空の物に入れ替え)
日本だと超需要だけど、開発するあちら側の人はモザイク問題抱えてないのがな
222名無しさん@お腹いっぱい。 (ワッチョイW fd6d-6Dw2)
2020/08/16(日) 15:15:13.82ID:v1Hnq7wX0 実装できないとそういう発言になるよねえ。
223名無しさん@お腹いっぱい。 (アウアウカー Sa13-opce)
2020/08/20(木) 19:43:52.73ID:afTu7L+ia 過去スレではお世話になりました
笛動画ばかり作ってましたが結局口元だけ
dst側を透過させるのがクオリティ高くなりますね
本人度は下がるけどベロのリアルさ優先
笛動画ばかり作ってましたが結局口元だけ
dst側を透過させるのがクオリティ高くなりますね
本人度は下がるけどベロのリアルさ優先
224名無しさん@お腹いっぱい。 (スップ Sd9f-QMRI)
2020/08/20(木) 20:15:25.85ID:xuytU2rkd ぼくはヘラチオ用に下唇だけランドマーク外してextractするようにしたよ!
アゴから下唇が台形にマスクされるんだ!
まだ1回しか試してないけど、src-dstの組み合わせが悪かったのか全然似なかったが^^;
アゴから下唇が台形にマスクされるんだ!
まだ1回しか試してないけど、src-dstの組み合わせが悪かったのか全然似なかったが^^;
225名無しさん@お腹いっぱい。 (エムゾネW FF9f-9bgl)
2020/08/21(金) 01:40:40.03ID:hJhygtQkF 適当にFanzaのスクリーンショットとかでフェラの画像集めてきてX-segの手動て設定 したのを集めたフォルダとdstフォルダを参照してX-segまわせばいいと思うけど
失敗したやつは手動で指定してFanzaの方のフォルダに混ぜて次のdst用に流用
モザイクも四角に合わせて手動マスクすれば綺麗に処理できるし、ぶっかけとかもある程度の濃さがまでは問題ない
今のところ手動の方の枚数が200枚くらいになって150万回くらい回したX-Segモデル使ってるけど新しく手動でマスクすることはほぼ無くなった
失敗したやつは手動で指定してFanzaの方のフォルダに混ぜて次のdst用に流用
モザイクも四角に合わせて手動マスクすれば綺麗に処理できるし、ぶっかけとかもある程度の濃さがまでは問題ない
今のところ手動の方の枚数が200枚くらいになって150万回くらい回したX-Segモデル使ってるけど新しく手動でマスクすることはほぼ無くなった
226名無しさん@お腹いっぱい。 (ワッチョイ ff73-f06y)
2020/08/21(金) 11:22:06.51ID:DtRw6tVn0 landmark(≠mask)って外せるん?
227名無しさん@お腹いっぱい。 (ワッチョイW ffc0-9bgl)
2020/08/21(金) 11:29:35.27ID:aWipBxFU0 >>226
alignedから該当ファイル削除すれば?
モノが無けりゃ学習も合成もしようがないし
必要性がわかんないけど検出自体なかったことにしたいならaligned_debugからも消してから手動検出起動してスペースキーでスキップすればランドマークなしの_debugファイルが出力されるでしょ
alignedから該当ファイル削除すれば?
モノが無けりゃ学習も合成もしようがないし
必要性がわかんないけど検出自体なかったことにしたいならaligned_debugからも消してから手動検出起動してスペースキーでスキップすればランドマークなしの_debugファイルが出力されるでしょ
228名無しさん@お腹いっぱい。 (ワッチョイ ff73-f06y)
2020/08/21(金) 14:23:52.47ID:DtRw6tVn0 いや、>>224の話ね
229名無しさん@お腹いっぱい。 (ワッチョイ 1f76-RTUg)
2020/08/21(金) 15:08:53.28ID:1itfpdcT0 >>228
LandmarksProcessor.pyをカスタムして書き換えれば
landmarkを外せると思います
68ランドマークの番号のどこからどこまでが下唇相当か調べるとかして
それやってみたけど、大きくMaskを外す感じで、肌色が合わなかったりしました
LandmarksProcessor.pyをカスタムして書き換えれば
landmarkを外せると思います
68ランドマークの番号のどこからどこまでが下唇相当か調べるとかして
それやってみたけど、大きくMaskを外す感じで、肌色が合わなかったりしました
230名無しさん@お腹いっぱい。 (アウアウウー Sa63-ZTig)
2020/08/22(土) 01:33:32.58ID:iXZtUuj8a >>229
普通にやってるで。
普通にやってるで。
231名無しさん@お腹いっぱい。 (ワッチョイ 9f5e-YpYZ)
2020/08/22(土) 02:13:52.47ID:Jk7E9Sqq0 役立たずのレスやな
232名無しさん@お腹いっぱい。 (アウアウウー Sa63-ZTig)
2020/08/22(土) 02:51:01.43ID:iXZtUuj8a >>231
そんくらい自分でやれや。子供かよ。
そんくらい自分でやれや。子供かよ。
233名無しさん@お腹いっぱい。 (ワッチョイ 9f5e-YpYZ)
2020/08/22(土) 07:53:55.07ID:Jk7E9Sqq0 そういう意味じゃないよ
子供かよ
子供かよ
234名無しさん@お腹いっぱい。 (スップ Sd9f-QMRI)
2020/08/22(土) 09:29:16.02ID:uU3GIdNNd 眉間V字カットver.を前にここでもらったので、それとオリジナルのlandmark processorファイルを比較して差分を調べ、同じ要領で下唇以下のlandmark番号を消してみた(外出先なのでファイル内のどの箇所かは今わからん、スマソ)
10枚くらいでextractしてdebugフォルダのmaskの形を見ながらどのlandmarkを外すか調整した
landmarkとmaskの関係が独特な動きなので最初わけわかんなかったけど何回も試して習得した
プログラムひとつも書けないけどエロのために頑張ってやってみたよ!
10枚くらいでextractしてdebugフォルダのmaskの形を見ながらどのlandmarkを外すか調整した
landmarkとmaskの関係が独特な動きなので最初わけわかんなかったけど何回も試して習得した
プログラムひとつも書けないけどエロのために頑張ってやってみたよ!
235名無しさん@お腹いっぱい。 (スップ Sd9f-QMRI)
2020/08/22(土) 09:35:37.17ID:uU3GIdNNd 下唇はたしか48-65?か68?とかだった気が
顔にlandmark番号を振ってある画像があるので、それ見ながらやれば、landmarkの位置と番号の照合は大変ではない
顔にlandmark番号を振ってある画像があるので、それ見ながらやれば、landmarkの位置と番号の照合は大変ではない
236名無しさん@お腹いっぱい。 (アウアウウー Sa63-L4Oh)
2020/08/22(土) 10:03:18.17ID:5DzAzSgEa237名無しさん@お腹いっぱい。 (ワッチョイ ff73-f06y)
2020/08/22(土) 10:26:24.49ID:Vdpk3hjO0 舌は全maskしても反映されない事けっこうあるからな…
238名無しさん@お腹いっぱい。 (ワッチョイ ff73-f06y)
2020/08/23(日) 12:36:11.85ID:bIxYe9nP0 ワッチョイ無しの方は日記が単発で荒らすから地獄になってんな
239名無しさん@お腹いっぱい。 (ワッチョイ 9f8b-YpYZ)
2020/08/23(日) 12:43:11.58ID:AiLRwBpr0 今荒らしてるのは日記じゃなくて、何書いても日記日記と連呼するやつだな
そのせいで誰も書かなくなった
そのせいで誰も書かなくなった
240名無しさん@お腹いっぱい。 (ワッチョイ ff0c-VInS)
2020/08/23(日) 12:59:25.32ID:a0Eyq4BK0 眉間V字カットverいいな
俺も欲しいなあ
俺も欲しいなあ
241名無しさん@お腹いっぱい。 (ワッチョイ 9f5e-YpYZ)
2020/08/23(日) 13:26:08.11ID:dFGC0Mw20 眉間カットはLandmarkProcessorの
parts = [r_jaw, l_jaw, r_cheek, l_cheek, nose_ridge, r_eye, l_eye, nose]
からnose_ridge消して再extractすればいけるんじゃない
parts = [r_jaw, l_jaw, r_cheek, l_cheek, nose_ridge, r_eye, l_eye, nose]
からnose_ridge消して再extractすればいけるんじゃない
242名無しさん@お腹いっぱい。 (ワッチョイW 9f5e-E+up)
2020/08/23(日) 13:28:53.24ID:wuEqeWwa0 >>238
お前日記連呼マンだろ?
お前日記連呼マンだろ?
243名無しさん@お腹いっぱい。 (ワッチョイW 1f6d-ZTig)
2020/08/24(月) 01:40:33.15ID:ojLwwe2/0 >>231
今時python位書けて当然だろうに
今時python位書けて当然だろうに
244名無しさん@お腹いっぱい。 (アウアウカー Sa13-opce)
2020/08/25(火) 17:52:01.51ID:Z+irDBVFa245名無しさん@お腹いっぱい。 (ワッチョイ 1f73-n+O8)
2020/08/25(火) 20:12:58.91ID:i+igCcbw0246名無しさん@お腹いっぱい。 (ワッチョイW 22e9-8QnA)
2020/08/27(木) 08:24:15.59ID:FTJLPDer0 初心者すぎる質問で申し訳ない
自分で作りたいと思ったんだけど何からすればいいのか分からない
とりあえずテンプレにのってるDeepfakeLabを入れればいいのかな?
使い方とかあれば見てみたいんだけど英語のサイトで完璧に理解出来る気がしないから日本語版あったら教えて欲しい
自分で作りたいと思ったんだけど何からすればいいのか分からない
とりあえずテンプレにのってるDeepfakeLabを入れればいいのかな?
使い方とかあれば見てみたいんだけど英語のサイトで完璧に理解出来る気がしないから日本語版あったら教えて欲しい
247名無しさん@お腹いっぱい。 (アウアウウー Sa85-t21d)
2020/08/27(木) 09:16:12.79ID:B/gUhTeXa >>246
さすがにググれかす
さすがにググれかす
248名無しさん@お腹いっぱい。 (アウアウカー Sac9-nUCc)
2020/09/01(火) 19:10:31.66ID:H/qK7Irqa 話題無いねdstがメガネの場合
X-segでメガネをマスクdst×dstで目線を学習
dst×srcに入れ替えで上手く出来ました
X-segでメガネをマスクdst×dstで目線を学習
dst×srcに入れ替えで上手く出来ました
249名無しさん@お腹いっぱい。 (ワッチョイW 676d-t/Jd)
2020/09/03(木) 05:51:40.57ID:/dQ8fFXW0 ワッチョイ無しのスレに変なの沸いてて困った件。寝起きなのに、自作自演と言われるし。日記野郎なのかなあ。
250名無しさん@お腹いっぱい。 (ワッチョイ 87ac-yOpk)
2020/09/03(木) 09:50:27.79ID:hnGObw+60 警察の誤認にイラつくだけ損。無視でいいよ
251名無しさん@お腹いっぱい。 (JPW 0H4f-16pX)
2020/09/03(木) 12:22:21.13ID:ax/E/ExZH RTX30シリーズでもDFLは動くんかな
252名無しさん@お腹いっぱい。 (ワッチョイW c774-F499)
2020/09/06(日) 12:49:35.03ID:+j6AVXJu0 rtx 3090使おうがゴミやからな
もっと、精度高くて現実と見違えるレベルになるには何倍の性能が必要なんや?
つか、顔スワップは元の体型との兼ね合いもあるから微妙
fakenudeで服剥ぎ取ったやつの方がいいのか?
もっと、精度高くて現実と見違えるレベルになるには何倍の性能が必要なんや?
つか、顔スワップは元の体型との兼ね合いもあるから微妙
fakenudeで服剥ぎ取ったやつの方がいいのか?
253名無しさん@お腹いっぱい。 (ワッチョイ c78b-XrX+)
2020/09/06(日) 13:06:26.69ID:F0MCM7FK0 ハードだけ進化してもソフトが進化しないと無意味だよね
254名無しさん@お腹いっぱい。 (ワッチョイW 5f6d-t/Jd)
2020/09/06(日) 15:56:11.78ID:M27/ocZk0 >>252
論文を追いかけて自分で俺様仕様に改造するこったな
論文を追いかけて自分で俺様仕様に改造するこったな
255名無しさん@お腹いっぱい。 (ワッチョイ 3ab8-QmsY)
2020/09/10(木) 22:11:53.21ID:SEejORQ00 deep learningの学習速度ってグラボスペックのどこを見ればいいの?
CUDAコア数?
メモリクロック?
CUDAコア数?
メモリクロック?
256名無しさん@お腹いっぱい。 (ワッチョイ 9776-lMKa)
2020/09/17(木) 11:42:10.84ID:xjJnG0n90 VRAM
257名無しさん@お腹いっぱい。 (ワッチョイ ff12-lMKa)
2020/09/18(金) 13:08:39.35ID:++IXQmxI0 0802バージョンでGAN回してると変に崩れていかないか?
0704に戻してみた。
0704に戻してみた。
258名無しさん@お腹いっぱい。 (ワッチョイ c2b8-/QqT)
2020/09/26(土) 19:46:55.65ID:MuA+gs7q0 google colab使ってみたが、むっちゃ遅いぞこれ
T4が割り当てられたがこんなもんなんかな
課金もしてみたが変わらんかった
T4が割り当てられたがこんなもんなんかな
課金もしてみたが変わらんかった
259名無しさん@お腹いっぱい。 (ワッチョイW c392-ItFb)
2020/09/30(水) 02:32:27.13ID:naW9s5J00 trainのdimensionsの値っていじるとどういう変化が出るんですか?
配布されてるmodelはデフォルトと違うみたいなんですが、解説サイトみるといじる必要ないって書かれているので
配布されてるmodelはデフォルトと違うみたいなんですが、解説サイトみるといじる必要ないって書かれているので
260名無しさん@お腹いっぱい。 (ワッチョイW a36d-FycS)
2020/09/30(水) 08:59:58.63ID:VJBDzhJR0 >>259
いい加減そーをすをよめ
いい加減そーをすをよめ
261名無しさん@お腹いっぱい。 (ワッチョイ 7f84-2+Dn)
2020/10/03(土) 00:11:40.21ID:RGUdGhfZ0 「ディープフェイク職人」逮捕 AVの顔すり替えた容疑
アダルトビデオ(AV)の出演者の顔を芸能人とすり替えた動画をインターネット上にアップしたなどとして、
警視庁と千葉県警は、男2人を名誉毀損(きそん)と著作権法違反の疑いで逮捕し、2日発表した。
こうした動画は「ディープフェイク」といわれ、ネット上にあふれているが、未然に防ぐ手立てがないのが実情だ。
立件は全国初という。
これどこでなにしたら逮捕されるの?
アダルトビデオ(AV)の出演者の顔を芸能人とすり替えた動画をインターネット上にアップしたなどとして、
警視庁と千葉県警は、男2人を名誉毀損(きそん)と著作権法違反の疑いで逮捕し、2日発表した。
こうした動画は「ディープフェイク」といわれ、ネット上にあふれているが、未然に防ぐ手立てがないのが実情だ。
立件は全国初という。
これどこでなにしたら逮捕されるの?
262名無しさん@お腹いっぱい。 (ワッチョイW f358-wbZK)
2020/10/03(土) 00:33:28.15ID:pVOsK5VR0 全部自分で書いてるじゃん
アホなの?
アダルトビデオ(AV)の出演者の顔を芸能人とすり替えた動画をインターネット上にアップしたなど
名誉毀損(きそん)と著作権法違反
アホなの?
アダルトビデオ(AV)の出演者の顔を芸能人とすり替えた動画をインターネット上にアップしたなど
名誉毀損(きそん)と著作権法違反
263名無しさん@お腹いっぱい。 (ワッチョイ 7f84-2+Dn)
2020/10/03(土) 01:06:52.88ID:RGUdGhfZ0264名無しさん@お腹いっぱい。 (エムゾネW FF1f-ItFb)
2020/10/03(土) 01:42:26.73ID:WgDGQyVsF このスレの住民の大多数は自己満足して終わりだろうし心配ないでしょ
ネット公開したら著作権でまず引っかかるだろうしそのついでに見せしめとかじゃないの?
ネット公開したら著作権でまず引っかかるだろうしそのついでに見せしめとかじゃないの?
265名無しさん@お腹いっぱい。 (ワッチョイ bfb8-gW4a)
2020/10/03(土) 19:58:53.12ID:K+CyLSSN0 だれか3080か3090のレビューしてくれんかのう
2080の倍速くらいになるんかねぇ
2080の倍速くらいになるんかねぇ
266名無しさん@お腹いっぱい。 (ワッチョイ 4358-4fpq)
2020/10/04(日) 00:51:30.62ID:LK2mjtY20 DFLつこてみようかと思って学習バッチ起動したけど、setenv.batがねーんだけど、最初から入ってないんだけどもこれは自分でつくらなあかんの?
267名無しさん@お腹いっぱい。 (ワッチョイ e38b-Kk5w)
2020/10/04(日) 01:15:39.09ID:12SnuMHa0 _internalのフォルダ内にあるよ
268名無しさん@お腹いっぱい。 (ワッチョイ 4358-4fpq)
2020/10/04(日) 03:13:32.27ID:LK2mjtY20 >267
回答さんきゅ
どうやらDLに失敗してたのか最新の物には入ってないのかよくわからんのだけど、一個前の奴落したら入っておりもうした!
あんがとね!
回答さんきゅ
どうやらDLに失敗してたのか最新の物には入ってないのかよくわからんのだけど、一個前の奴落したら入っておりもうした!
あんがとね!
269名無しさん@お腹いっぱい。 (ワッチョイ cf02-Kk5w)
2020/10/05(月) 18:22:46.81ID:VzTNZbLj0 先週くらいからはじめました
初歩的な質問だけど
srcは1人固定、ソースも手持ち以上は増えないという俺の場合は
dstをコロコロ変えても同じモデル(src)でずっとtrain回してていいんよね?
dstが新しくてもsrcの学習が進んでればそんなに回さなくてもいい、
という理解で合ってますか?
初歩的な質問だけど
srcは1人固定、ソースも手持ち以上は増えないという俺の場合は
dstをコロコロ変えても同じモデル(src)でずっとtrain回してていいんよね?
dstが新しくてもsrcの学習が進んでればそんなに回さなくてもいい、
という理解で合ってますか?
270名無しさん@お腹いっぱい。 (ワッチョイ cf02-Kk5w)
2020/10/06(火) 00:10:26.43ID:oDYYVDvI0 ごめん
質問スレ見つけた
質問スレ見つけた
271名無しさん@お腹いっぱい。 (ワッチョイ 2374-gW4a)
2020/10/06(火) 15:31:32.20ID:ZHIaq+L90 src供給元としてインスタライブはなかなかいいですね
272名無しさん@お腹いっぱい。 (ワッチョイ b3b0-Kk5w)
2020/10/06(火) 15:33:41.84ID:PMN8yzDR0273名無しさん@お腹いっぱい。 (ワッチョイW 6f5f-NtcW)
2020/10/06(火) 16:27:51.84ID:yi3iiYnM0 deepfake作れるPC組みたいんだけど、
RYZENとRADEONは向いてない?
coreシリーズとGeforceの方が良いかな?
RYZENとRADEONは向いてない?
coreシリーズとGeforceの方が良いかな?
274名無しさん@お腹いっぱい。 (テテンテンテン MM7f-Ps8k)
2020/10/06(火) 16:48:08.55ID:GXZfsAoWM DFL2.0はRADEONサポートしてないからグラボはGeForceの方がいいんじゃないかな
CPUはどっちでも大丈夫
CPUはどっちでも大丈夫
275名無しさん@お腹いっぱい。 (ワッチョイW a36d-ufNG)
2020/10/06(火) 18:13:28.11ID:ZrPxp2i20276名無しさん@お腹いっぱい。 (ササクッテロラ Sp47-oqv1)
2020/10/06(火) 18:36:24.55ID:poC1BG+cp 1060の6GBとかもう古本くらいの値段で売ってるからその辺から始めてはどうかと思う
そこから欲をかくほどコスパ悪くなるから職人レベルに行くかどうかを自分で判断するわけだ
そこから欲をかくほどコスパ悪くなるから職人レベルに行くかどうかを自分で判断するわけだ
277名無しさん@お腹いっぱい。 (スプッッ Sd1f-NtcW)
2020/10/06(火) 21:09:13.87ID:JSitH0d9d278名無しさん@お腹いっぱい。 (スプッッ Sd1f-NtcW)
2020/10/06(火) 21:10:00.06ID:JSitH0d9d279名無しさん@お腹いっぱい。 (ワッチョイ e38b-Kk5w)
2020/10/06(火) 22:49:33.22ID:TMtMKOvo0 あっちがスレ停止されとる
280名無しさん@お腹いっぱい。 (ワッチョイW 8392-zOA+)
2020/10/07(水) 05:27:05.58ID:RUMaHvCn0 extract とかmergeのデフォルト設定って変えられないですか?
GPUの選択とか必要ないしマスクもXsegしか使わないんで、毎回変更するのが
面倒で
GPUの選択とか必要ないしマスクもXsegしか使わないんで、毎回変更するのが
面倒で
281名無しさん@お腹いっぱい。 (ワッチョイ 3ab8-YQ4O)
2020/10/08(木) 19:26:03.95ID:ADRG6ExJ0 3080買ったのにDFL未対応・・・早まったわ
282名無しさん@お腹いっぱい。 (ワッチョイ de8b-xYNh)
2020/10/08(木) 20:58:48.21ID:A8uhVA2C0 >>280
俺はソースを書き換えて使ってるけど、多少知識がないと難しいかもね
俺はソースを書き換えて使ってるけど、多少知識がないと難しいかもね
283名無しさん@お腹いっぱい。 (アウアウウー Sa2f-3rwy)
2020/10/09(金) 09:31:18.84ID:UDdmib8ea 難しいところあるかあ?
284名無しさん@お腹いっぱい。 (ワッチョイW 9e76-fu2g)
2020/10/09(金) 11:27:13.78ID:yEZAv5Eg0 DFLが対応してるGPUで最高性能なのってどれだろう
285名無しさん@お腹いっぱい。 (テテンテンテン MM86-ctJO)
2020/10/09(金) 12:11:35.33ID:JRB0eukOM TeslaV100っていけるんかね
286名無しさん@お腹いっぱい。 (ワッチョイW b3b1-aExD)
2020/10/09(金) 12:41:04.41ID:ez8mNQ3S0 お試し程度でやってみたい場合、1番安いのは今でも1060の6gでOK?
287名無しさん@お腹いっぱい。 (ワッチョイ 4a76-Pfvf)
2020/10/09(金) 13:13:14.91ID:jwkrV2cN0 これやりたい放題やん。
超絶低画質でもリアルタイム高画質&角度変更できる。
同僚の低画質Zoomとっとかないと。
ttps://www.youtube.com/watch?v=NqmMnjJ6GEg&feature=emb_logo
超絶低画質でもリアルタイム高画質&角度変更できる。
同僚の低画質Zoomとっとかないと。
ttps://www.youtube.com/watch?v=NqmMnjJ6GEg&feature=emb_logo
288名無しさん@お腹いっぱい。 (ワッチョイW 9e76-fu2g)
2020/10/09(金) 13:48:34.52ID:yEZAv5Eg0289名無しさん@お腹いっぱい。 (ワッチョイW b3b1-aExD)
2020/10/09(金) 14:49:48.76ID:ez8mNQ3S0 そうなのね。やはりマトモに動かそうとすると8GB必要?そうなると急に高くなるよね
290名無しさん@お腹いっぱい。 (スプッッ Sd8a-J1D0)
2020/10/09(金) 15:00:43.99ID:MCnjvVT2d 6で 何なら別に4でも動くけどそれはもともと持ってる人が試すっていう感じ
今から買うなら8〜
今から買うなら8〜
291名無しさん@お腹いっぱい。 (オイコラミネオ MM56-kmye)
2020/10/09(金) 17:15:39.99ID:/1zDRP1pM 自分2060の6Gだけど前に試した時は始まりすらしなかった
最近更新されたソフトなら動くんかな
最近更新されたソフトなら動くんかな
292sage (ワッチョイ 3ab8-YQ4O)
2020/10/09(金) 19:40:17.99ID:0TK0poT50 似てるか似てないかは集めた素材でほぼきまる
そして素材の良しあしは128ピクセルの4バッチ
で十分確認できる。
6gもあればたぶん動くはず・・・
そして素材の良しあしは128ピクセルの4バッチ
で十分確認できる。
6gもあればたぶん動くはず・・・
293名無しさん@お腹いっぱい。 (ワッチョイ 3ab8-YQ4O)
2020/10/09(金) 19:42:11.02ID:0TK0poT50 個人的には、素材作りにエンコードを多用するから多コアCPUがあった方がいいと思う
294名無しさん@お腹いっぱい。 (オッペケ Sr0f-Agw5)
2020/10/16(金) 10:14:11.32ID:k/EWrH8Lr ていうか基本的な操作がわからん上にわかりやすく解説してもくれないサイトばかり
295名無しさん@お腹いっぱい。 (ワッチョイ 9f40-8ZN/)
2020/10/16(金) 10:17:20.72ID:dpsWwjFW0 3080、旧のopenCL対応版なら動くんだけど2.0のCudaのほうが速いのかな?
自分じゃ2.0動くグラボ無いんでわからん…
自分じゃ2.0動くグラボ無いんでわからん…
296名無しさん@お腹いっぱい。 (テテンテンテン MM7f-R1WU)
2020/10/16(金) 10:43:09.99ID:D4a4kO9hM 参考になるかわからんが2.0で2080ti使うと
res128×4bacthでtrainすると0.3〜0.4msで回る
res128×4bacthでtrainすると0.3〜0.4msで回る
297名無しさん@お腹いっぱい。 (テテンテンテン MM7f-R1WU)
2020/10/16(金) 10:46:05.41ID:D4a4kO9hM 160×12で0.6〜0.7msくらい
192まであげると設定次第だけど10バッチで0.8前後
それ以上バッチあげると始まらない
192まであげると設定次第だけど10バッチで0.8前後
それ以上バッチあげると始まらない
298名無しさん@お腹いっぱい。 (ワッチョイ 9f40-8ZN/)
2020/10/16(金) 11:32:50.66ID:dpsWwjFW0 まだよく分からないんでとりあえず1.0のh126でtrain、バッチ4(Vram消費9G)にした以外はデフォのままで0.28msぐらいだったかな
挙げてもらった設定がh126と比較してどうなのかはわからないけど
openCLだからめっちゃ遅くなるってわけでもなさそうなのかな?
Cuda11対応版とかでるんだろうか…
挙げてもらった設定がh126と比較してどうなのかはわからないけど
openCLだからめっちゃ遅くなるってわけでもなさそうなのかな?
Cuda11対応版とかでるんだろうか…
299名無しさん@お腹いっぱい。 (アウアウエー Sa3f-jCdL)
2020/10/16(金) 11:32:54.12ID:wYsOaOfqa 3000シリーズは対応版が新しく作られないと使えないな。
3090でやってみたけど、30分放置してもtrain始まらなかった。
3090でやってみたけど、30分放置してもtrain始まらなかった。
300名無しさん@お腹いっぱい。 (ワッチョイ dfb8-ntOo)
2020/10/16(金) 20:52:46.23ID:w2FS26h+0301名無しさん@お腹いっぱい。 (アウアウウー Sacf-VYVV)
2020/10/16(金) 21:29:36.02ID:VoHbNDaJa まあ普通に動いているけどな
少し修正が必要だがね
少し修正が必要だがね
302名無しさん@お腹いっぱい。 (オイコラミネオ MM8f-RwWY)
2020/10/17(土) 01:46:15.20ID:aSfYpQzhM これやっぱり玄人は正面DFで横顔はLIAEで、とか分けてtrainして動画にする時に統合とかやってんのかね
303名無しさん@お腹いっぱい。 (ワッチョイ 0f8b-fMdf)
2020/10/17(土) 05:23:54.34ID:7k4Xljxu0 そこまでするほどLIAEの正面は下手じゃないと思う
304名無しさん@お腹いっぱい。 (ワッチョイ 4b76-ntOo)
2020/10/17(土) 17:25:15.52ID:4QKhgGoz0 因みに、OpenCLってのは構造的にCUDAの4.5倍ほど遅い。
中間ソースの随時コンパイルが発生するから。
但しこれはDFL1.0での比較で、2.0ではOpenCL考慮不要になったことで、もっと速い。
尚、DFL1.0でも最終版は素のH/DF/lea(しか試してない)だと、コンバータでブレが発生するんで、
抽出は1.0最終版(精度が高いが遅い)、Trainとコンバートは12月版がオススメ。
あと初心者でRadeあるんなら、数千円のRX470だとめっちゃ遅いが8GB+メインメモリ全部使えるんで
128系だとBatch32以上で走る。きっちり整理した素材(SRC/DST共に3000枚程度)なら
一晩で0.1まで下がるんで、充分実用になるよ。
今7万枚のをコンバート中なんで、ちょっと書いてみました。
中間ソースの随時コンパイルが発生するから。
但しこれはDFL1.0での比較で、2.0ではOpenCL考慮不要になったことで、もっと速い。
尚、DFL1.0でも最終版は素のH/DF/lea(しか試してない)だと、コンバータでブレが発生するんで、
抽出は1.0最終版(精度が高いが遅い)、Trainとコンバートは12月版がオススメ。
あと初心者でRadeあるんなら、数千円のRX470だとめっちゃ遅いが8GB+メインメモリ全部使えるんで
128系だとBatch32以上で走る。きっちり整理した素材(SRC/DST共に3000枚程度)なら
一晩で0.1まで下がるんで、充分実用になるよ。
今7万枚のをコンバート中なんで、ちょっと書いてみました。
305名無しさん@お腹いっぱい。 (ラクッペペ MM7f-gNQ9)
2020/10/17(土) 18:10:47.22ID:2tVxPRYMM >>304
暇そうだからdflのバージョンとcpuとグラボのスペック、コンバートの1フレームあたりにかかる時間教えてくれさい
暇そうだからdflのバージョンとcpuとグラボのスペック、コンバートの1フレームあたりにかかる時間教えてくれさい
306名無しさん@お腹いっぱい。 (ワッチョイ 9f03-EWCJ)
2020/10/17(土) 22:54:26.42ID:xdR3QvkV0 初挑戦でいきなりVR動画やってみたけど普通に立体視差ある動画になるんですね
当然と言えば当然だけど
当然と言えば当然だけど
307名無しさん@お腹いっぱい。 (ワッチョイ 9f06-0iS6)
2020/10/18(日) 11:19:08.61ID:QWydIy230 >304
1.0の最終版はダウンロードできましたが、12月版はありませんでした。
まだ落とせる場所があるのなら教えてもらえませんか?
1.0の最終版はダウンロードできましたが、12月版はありませんでした。
まだ落とせる場所があるのなら教えてもらえませんか?
308名無しさん@お腹いっぱい。 (オッペケ Sr0f-Agw5)
2020/10/18(日) 12:34:07.87ID:Vi5oXAeor どなたか基本的な使い方教えてくれませんか?
インストールと起動は無事できました
Coreの移し替えもできました
インストールと起動は無事できました
Coreの移し替えもできました
309名無しさん@お腹いっぱい。 (ワッチョイ 0f8b-fMdf)
2020/10/18(日) 13:00:28.71ID:och5bpbs0 このサイトを参照
https://www.deepfake.xyz/deepfacelab/how-to-use-deepfacelab20/
結構書かれてることが古くなってるけど、大体の流れはわかると思う
詳細は英語だけどここ
https://mrdeepfakes.com/forums/thread-1-1-sfw-guide-deepfacelab-2-0-guide-recommended-up-to-date
https://www.deepfake.xyz/deepfacelab/how-to-use-deepfacelab20/
結構書かれてることが古くなってるけど、大体の流れはわかると思う
詳細は英語だけどここ
https://mrdeepfakes.com/forums/thread-1-1-sfw-guide-deepfacelab-2-0-guide-recommended-up-to-date
310名無しさん@お腹いっぱい。 (ワッチョイ 8b76-ntOo)
2020/10/18(日) 13:12:53.34ID:/ijgJsGK0 GoogleDriveの歴代Ver一覧だけリンク残ってるけど、ダウンロード始まらないなぁ。
自分の場合めっちゃ昔の抽出素材混じってるからコンバート時にブレるんかも。
一番問題起きないのは20191107だけど、ExtractやAI高画質化(enhance)は最終版必須だし
手でソースイジって直す様な細かいパラ(画像圧縮等)は、1.0が全て最適設定になってるので
イチから通しで作る新規参入組は、1.0最終版でも良いと思うよ。
自分の場合めっちゃ昔の抽出素材混じってるからコンバート時にブレるんかも。
一番問題起きないのは20191107だけど、ExtractやAI高画質化(enhance)は最終版必須だし
手でソースイジって直す様な細かいパラ(画像圧縮等)は、1.0が全て最適設定になってるので
イチから通しで作る新規参入組は、1.0最終版でも良いと思うよ。
311名無しさん@お腹いっぱい。 (ワッチョイ 0f8b-fMdf)
2020/10/18(日) 15:45:18.86ID:och5bpbs0 今から1.0を勧めるのはちょっと狂ってると思う
312名無しさん@お腹いっぱい。 (ワッチョイ 7bb0-fMdf)
2020/10/18(日) 16:43:20.63ID:1m79reOf0 今から始めたいのですが
DeepFaceLab_NVIDIA_build_05_06_2020
ソフトはこれで始められますか?
DeepFaceLab_NVIDIA_build_05_06_2020
ソフトはこれで始められますか?
313名無しさん@お腹いっぱい。 (ガラプー KK7f-QU/m)
2020/10/18(日) 19:46:14.90ID:wwaOWAvcK AMDだから1.0でやってる
314名無しさん@お腹いっぱい。 (ワッチョイ 7bb0-fMdf)
2020/10/18(日) 20:13:10.17ID:1m79reOf0315名無しさん@お腹いっぱい。 (ワッチョイ dfb8-ntOo)
2020/10/18(日) 20:43:36.19ID:LUIiKeNF0316名無しさん@お腹いっぱい。 (ワッチョイ 7bb0-fMdf)
2020/10/18(日) 20:50:21.83ID:1m79reOf0317名無しさん@お腹いっぱい。 (ワッチョイ dfb8-ntOo)
2020/10/18(日) 21:34:26.58ID:LUIiKeNF0 >>316
309のサイトに全部書いている
309のサイトに全部書いている
318名無しさん@お腹いっぱい。 (ワッチョイ 7bb0-fMdf)
2020/10/18(日) 21:45:25.74ID:1m79reOf0319名無しさん@お腹いっぱい。 (ワッチョイW 3b6d-VYVV)
2020/10/19(月) 00:06:07.24ID:y2QbXk9a0 つうか最低限の英語すら読めないならやめとけw
320名無しさん@お腹いっぱい。 (ワッチョイ 0f8b-fMdf)
2020/10/19(月) 00:13:41.62ID:IA2QXfya0321名無しさん@お腹いっぱい。 (ワッチョイW 5bf7-e7Db)
2020/10/20(火) 16:08:18.78ID:FrzY92Z/0 スムーズに顔交換できるのはどんな動画がいいですか?
交換する側もされる側も知りたいです
交換する側もされる側も知りたいです
322名無しさん@お腹いっぱい。 (テテンテンテン MM7f-R1WU)
2020/10/20(火) 16:18:45.14ID:zF4EhN/FM エロいの前提で話すなら痴女ものの手コキのシーンが一番楽
dstの顔が基本正面で動きが少なくて表情も笑顔寄り
srcも正面で笑顔のなら集めやすい
AI側も顔認識しやすい
dstの顔が基本正面で動きが少なくて表情も笑顔寄り
srcも正面で笑顔のなら集めやすい
AI側も顔認識しやすい
323名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-fMdf)
2020/10/20(火) 16:52:29.34ID:KhxwyrT80 >>320
DeepFaceLab 2.0のダウンロード
https://drive.google.com/drive/folders/1UU910EHpGTexhU0dR2Ya2TCcnPGWpdT-
DeepFaceLab_NVIDIA_build_05_06_2020.exe
リンク先のグーグルドライブには「05_06_2020」とあるけど
最新は08_02のやつはどこにあるの?
DeepFaceLab 2.0のダウンロード
https://drive.google.com/drive/folders/1UU910EHpGTexhU0dR2Ya2TCcnPGWpdT-
DeepFaceLab_NVIDIA_build_05_06_2020.exe
リンク先のグーグルドライブには「05_06_2020」とあるけど
最新は08_02のやつはどこにあるの?
324名無しさん@お腹いっぱい。 (ワッチョイ dfb8-ntOo)
2020/10/20(火) 19:17:43.24ID:h1Fh4n2Z0325名無しさん@お腹いっぱい。 (ワッチョイ fb76-ntOo)
2020/10/20(火) 22:48:49.06ID:5AJuVK7a0 >>321
双方とも、デコ出し触覚無しだとExtractのミスもほぼ無くて学習もコンバートも速い。
あと色合わせも苦労しない。SRCは時代劇がオススメ。
DSTで合うのを見つけるのは熟練工でも結構むずいんで、とりあえず小顔でデコ発達してる奴。
基本芸能人は顔が極端に小さくデコが発達してる。っでこれがAV女優では稀。
っま慣れたらイラマやら難しいのにチャレンジしたり、声変換に走ったり、エロの事なんか忘れるけどな。
双方とも、デコ出し触覚無しだとExtractのミスもほぼ無くて学習もコンバートも速い。
あと色合わせも苦労しない。SRCは時代劇がオススメ。
DSTで合うのを見つけるのは熟練工でも結構むずいんで、とりあえず小顔でデコ発達してる奴。
基本芸能人は顔が極端に小さくデコが発達してる。っでこれがAV女優では稀。
っま慣れたらイラマやら難しいのにチャレンジしたり、声変換に走ったり、エロの事なんか忘れるけどな。
326名無しさん@お腹いっぱい。 (ワッチョイ 0f8b-fMdf)
2020/10/20(火) 23:13:23.72ID:w7dIQw0H0 独特な人だな
327名無しさん@お腹いっぱい。 (スフッ Sda2-91ko)
2020/10/21(水) 07:29:17.27ID:VatD36CFd ググって最初にでてくるgithubとかに行って
Windowsと書いてる所に行けばある 0820ver
Windowsと書いてる所に行けばある 0820ver
328名無しさん@お腹いっぱい。 (エムゾネW FFa2-91ko)
2020/10/21(水) 07:30:26.31ID:7iIZTfJFF 間違えた 0802ver
329名無しさん@お腹いっぱい。 (ワッチョイ ee82-pYMh)
2020/10/21(水) 11:26:40.85ID:lW42MsFC0 1050tiでチマチマ頑張ってきたがもう無理か
colab
colab
330名無しさん@お腹いっぱい。 (アウアウエー Sa8a-THo2)
2020/10/21(水) 12:34:10.30ID:PmnXtyzia >322 >325
ありがとうございます
ちなみにdeepfacelabにログインできないのですが、今バグ起きてますか?
ありがとうございます
ちなみにdeepfacelabにログインできないのですが、今バグ起きてますか?
331名無しさん@お腹いっぱい。 (アウアウクー MMd1-pRTw)
2020/10/21(水) 12:54:23.08ID:poYyJT78M332名無しさん@お腹いっぱい。 (ワッチョイ e9b0-tMQb)
2020/10/21(水) 13:18:44.17ID:AlPgfK8W0333名無しさん@お腹いっぱい。 (ガラプー KK96-IPVZ)
2020/10/21(水) 18:47:30.85ID:VW4F+N+YK >>331
俺なんてCPUだぞ
俺なんてCPUだぞ
334名無しさん@お腹いっぱい。 (ワッチョイ e9b0-tMQb)
2020/10/21(水) 18:55:30.46ID:ZrtPTtT40 そんな装備で大丈夫か?
335名無しさん@お腹いっぱい。 (ワッチョイW 0136-lnFN)
2020/10/21(水) 20:00:21.08ID:u96g0Tkp0 ver2.0でsrcの素材を解像度で4倍、数で3倍くらいに増やしたらトレインをスタートはするものの数十分するとリタイヤします。
やはりsrcが重くなったせいでしょうか?
やはりsrcが重くなったせいでしょうか?
336名無しさん@お腹いっぱい。 (ワッチョイ 8958-tMQb)
2020/10/21(水) 20:30:31.82ID:i2910RD50 少数でいいから解像度下げたsrcを用意して動くか試してみればいいんじゃないの
そもそもtrainで設定する解像度以上のものを用意しても意味がない
そもそもtrainで設定する解像度以上のものを用意しても意味がない
337名無しさん@お腹いっぱい。 (ワッチョイ 46fb-8DiG)
2020/10/22(木) 00:56:48.49ID:T8di6rVE0 試行錯誤しながら1週間程faceswapやってみたんだが行き詰った。
train時に変換元の顔画像300枚程でチマチマやっててプレビュー画像にどうも違和感があるから
4000枚に増やしたらCPU100%に張り付いて、GPUが5%も行かない状態になってしまった。
その状態で300枚に戻そうが、全く別の画像(変換元/変換先ともに)に差し替えようが
再インストールしようが、バッチ数下げようが、ずっとCPU100%のままでtrainの反復が10分以上になってしまった。。
DFLで1からやり直し中。
faceswapはググっても記事少ないね。
train時に変換元の顔画像300枚程でチマチマやっててプレビュー画像にどうも違和感があるから
4000枚に増やしたらCPU100%に張り付いて、GPUが5%も行かない状態になってしまった。
その状態で300枚に戻そうが、全く別の画像(変換元/変換先ともに)に差し替えようが
再インストールしようが、バッチ数下げようが、ずっとCPU100%のままでtrainの反復が10分以上になってしまった。。
DFLで1からやり直し中。
faceswapはググっても記事少ないね。
338名無しさん@お腹いっぱい。 (ワッチョイ eedc-LA9s)
2020/10/22(木) 19:25:42.32ID:zKd55HRD0 1080から3080に変えてみた。
train550msくらいだったのが240msくらいになったむっちゃ速い!
train550msくらいだったのが240msくらいになったむっちゃ速い!
339名無しさん@お腹いっぱい。 (ワッチョイ 8203-LA9s)
2020/10/22(木) 19:35:54.09ID:tYHCkmzG0 rtx30xx番台って対応してたのね
340名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/22(木) 20:27:35.61ID:h+j4PQwM0 いや、
ちょうど今日、有志の方が30シリーズで動くもの、暫定的に公開してくれたみたい
ちょうど今日、有志の方が30シリーズで動くもの、暫定的に公開してくれたみたい
341名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/22(木) 20:32:48.76ID:eIyg8eQY0 現行は対応してないはず
開発スレに対応版らしきものが上がってるけど
もしかしてそれ?
開発スレに対応版らしきものが上がってるけど
もしかしてそれ?
342名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/22(木) 20:34:51.41ID:eIyg8eQY0343名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/22(木) 20:43:08.23ID:h+j4PQwM0 CudaとCUDNNってやつの開発者向けライブラリ、インストールしないとダメだった
344名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/22(木) 20:54:18.66ID:eIyg8eQY0345名無しさん@お腹いっぱい。 (ワッチョイ 0db0-tMQb)
2020/10/22(木) 20:57:43.37ID:qNEnQLJ/0 というか3080とか一般人がそんなポンポン買うものなの?
コスパ悪いしゲームするにもオーバースペックだろ
コスパ悪いしゲームするにもオーバースペックだろ
346名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/22(木) 21:05:28.47ID:eIyg8eQY0347名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/22(木) 21:14:21.44ID:h+j4PQwM0 有志の方の公開はこの掲示板の下の方に、配布してるMEGAのリンクあるね
https://github.com/iperov/DeepFaceLab/issues/906
Cudaのインストーラは普段NvidiaグラボのドライバーをDLしてるページの直ぐ横のタブ[開発者]→[cuda]から入手可能
CUDNNは検索したら直ぐでてきたけど以下から
https://developer.nvidia.com/cudnn
バージョンは最新の11.1でWindos x86のものを。
途中でアカウントの作成を促されたけど、ゲーム向けのやつでログインできた
CUDNNはzip解凍でライブラリ類だけ
Cudaをインストールした際に作られたフォルダの同じ階層にライブラリ類をコピーしたらDFL、無事起動できた
https://github.com/iperov/DeepFaceLab/issues/906
Cudaのインストーラは普段NvidiaグラボのドライバーをDLしてるページの直ぐ横のタブ[開発者]→[cuda]から入手可能
CUDNNは検索したら直ぐでてきたけど以下から
https://developer.nvidia.com/cudnn
バージョンは最新の11.1でWindos x86のものを。
途中でアカウントの作成を促されたけど、ゲーム向けのやつでログインできた
CUDNNはzip解凍でライブラリ類だけ
Cudaをインストールした際に作られたフォルダの同じ階層にライブラリ類をコピーしたらDFL、無事起動できた
348名無しさん@お腹いっぱい。 (ワッチョイ eedc-LA9s)
2020/10/22(木) 21:14:32.08ID:zKd55HRD0 コスパ考えたらそもそも機械学習が……
いずれゲームも3080クラス必要になるだろうし、
電気代と自分の時間を節約出来ると考えれば
10万出す人もいるってこった。
いずれゲームも3080クラス必要になるだろうし、
電気代と自分の時間を節約出来ると考えれば
10万出す人もいるってこった。
349名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/22(木) 21:42:13.96ID:eIyg8eQY0 >>347
これからやってみるけど、まじでサンキュー
これからやってみるけど、まじでサンキュー
350名無しさん@お腹いっぱい。 (ワッチョイW 0136-lnFN)
2020/10/22(木) 21:48:40.46ID:TO8B60o00 すみません、DFL対応で最速GPUって結局どれですか>_<
351名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/22(木) 22:31:56.87ID:eIyg8eQY0 >>350
TITAN RTX
TITAN RTX
352名無しさん@お腹いっぱい。 (ワッチョイW e173-c9Pt)
2020/10/22(木) 23:01:50.04ID:cJT+LPHT0 colabはTeslaP100で回るらしいけど個人でスパコン組めばV100×4とかで回せるんか
353名無しさん@お腹いっぱい。 (ワッチョイ 0db0-tMQb)
2020/10/22(木) 23:08:00.20ID:qNEnQLJ/0 >>350
3090(SLI)
3090(SLI)
354名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/22(木) 23:20:21.26ID:eIyg8eQY0 >>347
なんかエラーでるなぁ
Cudaをインストールした時に作られるフォルダって
C:\Users\xxxx\AppData\Local\Temp\CUDA であってるよねぇ
CUDAフォルダの下にcuda フォルダを入れるんだよね。
なんかエラーでるなぁ
Cudaをインストールした時に作られるフォルダって
C:\Users\xxxx\AppData\Local\Temp\CUDA であってるよねぇ
CUDAフォルダの下にcuda フォルダを入れるんだよね。
355名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/22(木) 23:28:34.33ID:h+j4PQwM0356名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/22(木) 23:59:08.67ID:eIyg8eQY0 >>355
動いた!ありがとう!
速度はこんな感じ。まぁまぁ。満足
1070ti 3080
256*4bacth 610ms 330ms
192*8bacth 630ms 340ms
どちらも1.85倍だけどそれ以上に目鼻立ちの生成が早い気がするが
それは気のせいだろうか・・?
動いた!ありがとう!
速度はこんな感じ。まぁまぁ。満足
1070ti 3080
256*4bacth 610ms 330ms
192*8bacth 630ms 340ms
どちらも1.85倍だけどそれ以上に目鼻立ちの生成が早い気がするが
それは気のせいだろうか・・?
357名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/23(金) 00:11:19.51ID:HqbYDjga0 >>356
おめでとう
自分はまだ、スクラッチから本格的にtrainしてないので違いはわからないけど
3090にしたので今まで以上に高batchで動かせるので目線合わせ優先オプションとかで早く効果がでるかとか期待してます
そのほかNvidiaライブライブ側の改良で高効率化の可能性もあるかもしれないですね
おめでとう
自分はまだ、スクラッチから本格的にtrainしてないので違いはわからないけど
3090にしたので今まで以上に高batchで動かせるので目線合わせ優先オプションとかで早く効果がでるかとか期待してます
そのほかNvidiaライブライブ側の改良で高効率化の可能性もあるかもしれないですね
358名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/23(金) 00:13:22.89ID:HqbYDjga0 ×ライブライブ
○ライブラリ 汗
○ライブラリ 汗
359名無しさん@お腹いっぱい。 (ワッチョイ 0db0-tMQb)
2020/10/23(金) 00:14:21.92ID:RtB5hXlX0 ベンチ以外で役立つ時が来るなんて胸熱だね
360名無しさん@お腹いっぱい。 (ワッチョイW 8958-ELTL)
2020/10/23(金) 01:19:36.74ID:2S0YPlgP0361名無しさん@お腹いっぱい。 (ワッチョイW e173-c9Pt)
2020/10/23(金) 01:23:14.70ID:c3ko3rIU0 ヴォースゲー
使用率は100%近くに張り付いたまま?それとも余力ある感じ?
使用率は100%近くに張り付いたまま?それとも余力ある感じ?
362名無しさん@お腹いっぱい。 (ワッチョイW e173-c9Pt)
2020/10/23(金) 01:24:00.02ID:c3ko3rIU0 失礼20/24か
363名無しさん@お腹いっぱい。 (ワッチョイ 39b1-dx+9)
2020/10/23(金) 05:56:33.80ID:52gZjbAX0 すげぇなあ
こんなけ早かったら学習見てるのも楽しそうだ
こんなけ早かったら学習見てるのも楽しそうだ
364名無しさん@お腹いっぱい。 (ガラプー KK96-IPVZ)
2020/10/23(金) 08:25:40.37ID:bSYHZ+T3K いいなあRTX3090
しかし、やっぱり昔より要求されるVRAMが高くなってるっぽいな
解像度160のバッチ8でも20GBかよ
しかし、やっぱり昔より要求されるVRAMが高くなってるっぽいな
解像度160のバッチ8でも20GBかよ
365名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/23(金) 09:16:27.05ID:HqbYDjga0 いや、VRAMに余裕があるので先行して余分にメモリ確保されているような動きでは?
もう少しbatchを上げても20GBから変わらないはず
あと、最新の-ud付きのarchiなら少メモリ・高性能になるんじゃないかな?
それともdimsを上げてるからいっぱいいっぱい?
もう少しbatchを上げても20GBから変わらないはず
あと、最新の-ud付きのarchiなら少メモリ・高性能になるんじゃないかな?
それともdimsを上げてるからいっぱいいっぱい?
366名無しさん@お腹いっぱい。 (ワッチョイ 8240-hFPD)
2020/10/23(金) 10:56:10.94ID:l5UGsWh+0 3080の10Gじゃ足りん・・・
どうせ夜中にまわすからメインメモリ使わせようかな
OCメモリとか使ったら速くなるのかな
どうせ夜中にまわすからメインメモリ使わせようかな
OCメモリとか使ったら速くなるのかな
367名無しさん@お腹いっぱい。 (ブーイモ MM76-VbP0)
2020/10/23(金) 12:15:05.24ID:NfJNELhdM368名無しさん@お腹いっぱい。 (ワッチョイ d176-LA9s)
2020/10/23(金) 13:47:17.75ID:Y+JuKCrt0 Gefoの人、メインメモリ流用したらどれぐらい遅くなりますか?
うちradeの8Gなんで買い換えようと思ってるんですが、メインメモリ13G程度流用して
現状256でバッチ8、128でバッチ32で回るんで、あんま不自由なくて躊躇してます。
ちな、上で張ってくれてる3090が160バッチ8で400msっての
当然ぶっちぎりでウチの16倍ぐらい速度出て羨ましい限りですが、
逆に4千円のRXと23万の3090でもその程度の差なのかっとも感じてます。
うちradeの8Gなんで買い換えようと思ってるんですが、メインメモリ13G程度流用して
現状256でバッチ8、128でバッチ32で回るんで、あんま不自由なくて躊躇してます。
ちな、上で張ってくれてる3090が160バッチ8で400msっての
当然ぶっちぎりでウチの16倍ぐらい速度出て羨ましい限りですが、
逆に4千円のRXと23万の3090でもその程度の差なのかっとも感じてます。
369名無しさん@お腹いっぱい。 (ワッチョイW 02dc-8b2a)
2020/10/23(金) 14:31:06.53ID:Fl/jVmhW0 メインメモリ流用って
どうやるの?
どうやるの?
370名無しさん@お腹いっぱい。 (ワッチョイ 8240-9O/L)
2020/10/23(金) 15:31:58.61ID:l5UGsWh+0 >>367
テスト程度でしか触ってないんでうろ覚えだけど顔抽出時全スレッド100%で動いてたから
3000対応版はCPU動作になってるのかも。3000非対応のほうもGPU指定してもCPUになってた気がする
メインメモリ利用時もこれまたうろ覚えだけどVramより3〜4倍かかってたような?
テスト程度でしか触ってないんでうろ覚えだけど顔抽出時全スレッド100%で動いてたから
3000対応版はCPU動作になってるのかも。3000非対応のほうもGPU指定してもCPUになってた気がする
メインメモリ利用時もこれまたうろ覚えだけどVramより3〜4倍かかってたような?
371名無しさん@お腹いっぱい。 (ブーイモ MM76-VbP0)
2020/10/23(金) 19:34:12.63ID:NfJNELhdM 少し前に3080のメモリだけ増やしたバージョンが出るかもって記事みたけど。あれはデマだったんだろうか。すごくメモリがほしいがさすがに3090はなぁ。
372名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/23(金) 20:58:07.09ID:2KFTMctm0373名無しさん@お腹いっぱい。 (ワッチョイ 0576-LA9s)
2020/10/23(金) 21:42:15.58ID:mi5784WO0 >>370
メインメモリ流用はCudaの速度の利点がスポイルされるんで、Gefoではイマイチですね。
RadeはOpenCLの遅さのせいで、VRAM8Gでバッチ16と
メインメモリ共用のバッチ32では1.8倍遅い程度なんで、並行学習数も相まって効果的なんですが。
>>372
1学習6秒前半ってのは最速時で、調子悪いと7秒掛かりますwっが、元々CPUで試してたモンで。
っま、おかげでデータ整理の技が磨かれて、24時間も回せばLoss0.1切りまで下げられるほどに。
因みにちょっと調べたんですが、ディープラーニング界隈でのイテレーションってのは
データセット一巡で1Iterって表現になるらしく、データ数 / (1学習×Batch数) = 1イテレーション、
例えば3200データ/バッチ32=100よって、1イテレーション=100Iter(学習)ってことらしいっす。
しらんけど。
メインメモリ流用はCudaの速度の利点がスポイルされるんで、Gefoではイマイチですね。
RadeはOpenCLの遅さのせいで、VRAM8Gでバッチ16と
メインメモリ共用のバッチ32では1.8倍遅い程度なんで、並行学習数も相まって効果的なんですが。
>>372
1学習6秒前半ってのは最速時で、調子悪いと7秒掛かりますwっが、元々CPUで試してたモンで。
っま、おかげでデータ整理の技が磨かれて、24時間も回せばLoss0.1切りまで下げられるほどに。
因みにちょっと調べたんですが、ディープラーニング界隈でのイテレーションってのは
データセット一巡で1Iterって表現になるらしく、データ数 / (1学習×Batch数) = 1イテレーション、
例えば3200データ/バッチ32=100よって、1イテレーション=100Iter(学習)ってことらしいっす。
しらんけど。
374名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
2020/10/23(金) 22:09:35.99ID:2KFTMctm0 >>373
データ数増やしてもイテレーション時間
は変わんないから違うんじゃないかなぁ・・・
1学習7秒なら1か月くらいかかりそうだが、
それが24時間で終わるってのは不思議だな。
実際できるなら確かに買い替えは不要だ。
データ数増やしてもイテレーション時間
は変わんないから違うんじゃないかなぁ・・・
1学習7秒なら1か月くらいかかりそうだが、
それが24時間で終わるってのは不思議だな。
実際できるなら確かに買い替えは不要だ。
375名無しさん@お腹いっぱい。 (ワッチョイ 0576-LA9s)
2020/10/23(金) 23:11:39.05ID:mi5784WO0 >>374
ちょっとわかりにくい書き方になってたので補足を。
Train中のCMD画面やプレビュー画面に出てくる「Iter」ってのは、あくまでも1データの学習✕バッチ数で
これを所謂「1イテレーション」と言うべきじゃ無いのでは?って話です。
あと24時間でギンギンになる件、1.0のDF128でバッチ数32以上だと素でかなり仕上がり速いのと
髪の毛・障害物・ブレ・ズレ・連続性欠如が学習遅くなるので、学習データ収集とランドマーク修正を徹底します。
まぁ普通の事だけど、昔は2週間回してもボケてたのに、同じ元ネタを再整理・エンハンスして回したら
1日で0.092になってたんで、やっぱデータ整理が最重要ですね。
っまムダな努力と時間の浪費だし、ランドマークで腱鞘炎になったんで買い替えますが、
まだテンソルコア未対応なんですよね・・
ちょっとわかりにくい書き方になってたので補足を。
Train中のCMD画面やプレビュー画面に出てくる「Iter」ってのは、あくまでも1データの学習✕バッチ数で
これを所謂「1イテレーション」と言うべきじゃ無いのでは?って話です。
あと24時間でギンギンになる件、1.0のDF128でバッチ数32以上だと素でかなり仕上がり速いのと
髪の毛・障害物・ブレ・ズレ・連続性欠如が学習遅くなるので、学習データ収集とランドマーク修正を徹底します。
まぁ普通の事だけど、昔は2週間回してもボケてたのに、同じ元ネタを再整理・エンハンスして回したら
1日で0.092になってたんで、やっぱデータ整理が最重要ですね。
っまムダな努力と時間の浪費だし、ランドマークで腱鞘炎になったんで買い替えますが、
まだテンソルコア未対応なんですよね・・
376名無しさん@お腹いっぱい。 (ワッチョイ 12b8-LA9s)
2020/10/23(金) 23:55:50.53ID:2KFTMctm0377名無しさん@お腹いっぱい。 (ワッチョイ 11b0-tMQb)
2020/10/24(土) 00:56:51.27ID:QcM6vCJa0 今は良くても夏場はどうする気なんだろ
100%フル稼働なんだろ?
100%フル稼働なんだろ?
378名無しさん@お腹いっぱい。 (ワッチョイ ee8b-dcnK)
2020/10/24(土) 01:02:14.64ID:N3biyeat0 何でそんなに悔しそうなんだよw
379名無しさん@お腹いっぱい。 (ワッチョイ 7e73-LA9s)
2020/10/24(土) 12:48:05.44ID:8Q/YgJi70 3000対応版、train始めて数分したら落ちるなぁ
さらには1.のopenCL版もエラーでるようになってしまった
さらには1.のopenCL版もエラーでるようになってしまった
380名無しさん@お腹いっぱい。 (ワッチョイW 8958-ELTL)
2020/10/24(土) 19:49:38.42ID:mpE8xggA0 >>360
この学習のmerge画面だけど、mergeもめっちゃ早くなってる。13it/sとか初めて見たわ
この学習のmerge画面だけど、mergeもめっちゃ早くなってる。13it/sとか初めて見たわ
381名無しさん@お腹いっぱい。 (ワッチョイW 8958-ELTL)
2020/10/24(土) 19:54:46.67ID:mpE8xggA0382名無しさん@お腹いっぱい。 (ワッチョイ ee8b-dcnK)
2020/10/24(土) 20:00:58.67ID:N3biyeat0 マージはそんなにGPU使ってなかった気もするけど
使用率はどんなもんなんだろう?
使用率はどんなもんなんだろう?
383名無しさん@お腹いっぱい。 (ワッチョイW 8958-ELTL)
2020/10/24(土) 20:06:19.34ID:mpE8xggA0384名無しさん@お腹いっぱい。 (ワッチョイ ee8b-dcnK)
2020/10/24(土) 22:08:59.63ID:N3biyeat0 GPUもCPUもトレインは全力なのに,、マージは余力たっぷりでサボってるよな
最後まで気を抜かないで仕事をしてほしい
最後まで気を抜かないで仕事をしてほしい
385名無しさん@お腹いっぱい。 (ワッチョイ e976-LA9s)
2020/10/24(土) 22:36:28.66ID:jniyLvCf0 久々に先週から、石○ゆ○子と仲○由○恵と赤○珠○とホ○ン○秋
作ってたら、なんか急激に飽きてきた・・今、熟女系にハマってるんですが
最近気付いたんだけど、モデルデータ流用時にData.datは新規にして、
エンコーダとデコーダだけ流用するほうが学習が速いですよね。
何故なのか理由分かる人います?
作ってたら、なんか急激に飽きてきた・・今、熟女系にハマってるんですが
最近気付いたんだけど、モデルデータ流用時にData.datは新規にして、
エンコーダとデコーダだけ流用するほうが学習が速いですよね。
何故なのか理由分かる人います?
386名無しさん@お腹いっぱい。 (ワッチョイW 7e1e-THo2)
2020/10/25(日) 11:21:51.72ID:3u8KmkM10 dstデータのdebugフォルダを確認した時に、顔の認識がおかしな事になっている部分ってそのまま学習させて行っても顔を正しく認識するようにはならないですか?
髪の毛や顔の角度のせいで顔と認識出来なかったり、手とか背景のせいで顔ではない部分が口とかとして認識されてしまっていたりする部分です。
髪の毛や顔の角度のせいで顔と認識出来なかったり、手とか背景のせいで顔ではない部分が口とかとして認識されてしまっていたりする部分です。
387名無しさん@お腹いっぱい。 (ワッチョイ d173-I4Oq)
2020/10/25(日) 11:44:53.81ID:m8d5/ZGu0 >>386
debugフォルダ内の認識していない画像を削除して、
「5) data_dst faceset MANUAL RE-EXTRACT DELETED ALIGNED_DEBUG.bat」を実行。手動で抽出。
そういうことじゃなくて?
debugフォルダ内の認識していない画像を削除して、
「5) data_dst faceset MANUAL RE-EXTRACT DELETED ALIGNED_DEBUG.bat」を実行。手動で抽出。
そういうことじゃなくて?
388名無しさん@お腹いっぱい。 (ブーイモ MM76-VbP0)
2020/10/25(日) 12:36:24.80ID:t5Kc4llpM ttps://gazlog.hatenablog.jp/entry/20gbrtx308016gbrtx3070cancelled
メモリ倍増モデル発売延期。
これショック。
メモリ倍増モデル発売延期。
これショック。
389名無しさん@お腹いっぱい。 (ワッチョイW 7e1e-THo2)
2020/10/25(日) 16:55:11.51ID:3u8KmkM10390名無しさん@お腹いっぱい。 (ワッチョイ ee86-Kbrf)
2020/10/25(日) 16:58:14.69ID:8ibR3/EG0 >>325
声変換って何使ってるの?
声変換って何使ってるの?
391名無しさん@お腹いっぱい。 (ワッチョイ 8240-9O/L)
2020/10/26(月) 16:56:48.22ID:CrnMz1Gh0 3080で使うにはgithubの3000対応版とcudatoolkit11.1、11.1用のcuDNNだけでいいのかな?
python入れたり、そこからなにかインストールとかいらないんだろか
python入れたり、そこからなにかインストールとかいらないんだろか
392名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/26(月) 17:02:18.36ID:0WQzUpBi0 result.mp4まで作れた後、追加の遊び方としてこれはどうだろう?
1. data_dst\aligned内の正方形jpgを連結してdata_dst.mp4(2)を作る。抜けてる番号のは真っ黒なjpgで代用する
2. data_dst.mp4(2)から顔抽出してdata_dst\aligned(2)を準備する
3. 既に学習済みのmodelを使って(2)をmergeしresult.mp4(2)を作る
4. 常に顔どアップな(2)をそのまま楽しむのもいいが、普通に16:9で作った(1)の右上にワイプとして(2)に埋め込む (要動画編集ソフト)
1. data_dst\aligned内の正方形jpgを連結してdata_dst.mp4(2)を作る。抜けてる番号のは真っ黒なjpgで代用する
2. data_dst.mp4(2)から顔抽出してdata_dst\aligned(2)を準備する
3. 既に学習済みのmodelを使って(2)をmergeしresult.mp4(2)を作る
4. 常に顔どアップな(2)をそのまま楽しむのもいいが、普通に16:9で作った(1)の右上にワイプとして(2)に埋め込む (要動画編集ソフト)
393名無しさん@お腹いっぱい。 (ブーイモ MM76-VbP0)
2020/10/26(月) 18:26:07.58ID:BzwGotNMM >>391
要らない、ホントにかいてることだけでいけた。
要らない、ホントにかいてることだけでいけた。
394名無しさん@お腹いっぱい。 (ブーイモ MM76-VbP0)
2020/10/26(月) 18:31:39.68ID:BzwGotNMM >>392
いまいち状況がわかってないが、resultから顔抽出して動画にするのと何か違うん?
いまいち状況がわかってないが、resultから顔抽出して動画にするのと何か違うん?
395名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/26(月) 18:42:47.48ID:0WQzUpBi0 >>394
mergeするときのdata_dst\alinged\のjpg群は
同じく
mergeするときのdata_dst\の母体画像から抽出したものでないと上手くmergeできないですよね
jpg側に母体画像のどこの座標から切り取ったかの情報が埋め込まれているはず
なので1回目の成果物から顔アップのFAKE動画を作ろうとなると上のようになるかと
まだ構想段階なので間違ってるかもですが
mergeするときのdata_dst\alinged\のjpg群は
同じく
mergeするときのdata_dst\の母体画像から抽出したものでないと上手くmergeできないですよね
jpg側に母体画像のどこの座標から切り取ったかの情報が埋め込まれているはず
なので1回目の成果物から顔アップのFAKE動画を作ろうとなると上のようになるかと
まだ構想段階なので間違ってるかもですが
396名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/26(月) 18:56:41.91ID:0WQzUpBi0 >>394
ごめんなさい
再mergeすらいらないんじゃない?
という意味では、ある意味そうですが、
例えばRes448で学習させたものを、1回目のmergeで大き過ぎたり小さ過ぎたりな顔で出力したresult.mp4の映像を再利用するよりかは
512x512で均等な顔の大きさで作ったdata_dst.mp4(2)から2回目のmergeをした方が、高品質な顔アップFAKE動画が作れるかな、という期待です
ごめんなさい
再mergeすらいらないんじゃない?
という意味では、ある意味そうですが、
例えばRes448で学習させたものを、1回目のmergeで大き過ぎたり小さ過ぎたりな顔で出力したresult.mp4の映像を再利用するよりかは
512x512で均等な顔の大きさで作ったdata_dst.mp4(2)から2回目のmergeをした方が、高品質な顔アップFAKE動画が作れるかな、という期待です
397名無しさん@お腹いっぱい。 (ワッチョイ 12b8-LA9s)
2020/10/26(月) 19:19:03.69ID:2uACU5bE0398名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/26(月) 19:27:08.45ID:0WQzUpBi0399名無しさん@お腹いっぱい。 (ワッチョイ 12b8-LA9s)
2020/10/26(月) 19:32:16.95ID:2uACU5bE0 そういえばだれか教えてほしいけど。
fake動画の題材にしてもいい人っているんかな?
(もちろんヌードなし真面目な内容で)
トランプとかプーチンとかが何の遠慮もなく使われてるけど
あれも大丈夫なんかな。
fake動画の題材にしてもいい人っているんかな?
(もちろんヌードなし真面目な内容で)
トランプとかプーチンとかが何の遠慮もなく使われてるけど
あれも大丈夫なんかな。
400名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/26(月) 19:48:12.69ID:0WQzUpBi0 ちなみに、
脳トレおじさん状態にして、音声を著作権フリーにしたFAKE動画は法に問われるか?
が興味深いw
脳トレおじさん状態にして、音声を著作権フリーにしたFAKE動画は法に問われるか?
が興味深いw
401名無しさん@お腹いっぱい。 (ワッチョイW 0281-pRTw)
2020/10/26(月) 20:07:01.00ID:rLyABmm60 既に鬼籍に入った人を題材にした場合はどうなるの?家族とかに訴えられる?
402名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/26(月) 20:07:50.99ID:0WQzUpBi0 ソースコードいじれる方でしたら
通常のmerge処理のついでに、顔アップ版のmerge画像を出力させること、難しくは無さそうですね
通常のmerge処理のついでに、顔アップ版のmerge画像を出力させること、難しくは無さそうですね
403名無しさん@お腹いっぱい。 (ワッチョイW 1d6d-OBMA)
2020/10/26(月) 20:57:31.31ID:Wt7KtfjV0 もうやってる
404名無しさん@お腹いっぱい。 (ワッチョイ 7e73-LA9s)
2020/10/26(月) 21:09:20.78ID:kLwhQv1P0405名無しさん@お腹いっぱい。 (ワッチョイ 12b8-LA9s)
2020/10/26(月) 22:07:43.86ID:2uACU5bE0406名無しさん@お腹いっぱい。 (ワッチョイ 7e73-LA9s)
2020/10/27(火) 01:03:44.68ID:Zl7wFivw0407名無しさん@お腹いっぱい。 (ワッチョイW 2e10-oXyV)
2020/10/27(火) 16:20:03.15ID:bOqCSIKY0 同僚とか近くのコンビニの店員で作りたいけど写真手に入れるハードルが高すぎる
ばれたらえらいことやから盗撮は出来んし‥
ばれたらえらいことやから盗撮は出来んし‥
408名無しさん@お腹いっぱい。 (ワッチョイ d2b0-tMQb)
2020/10/27(火) 16:32:25.77ID:4qmjR0qN0 顔認証システムのAIを作ってるエンジニアです
1万円支払うので協力願えませんか?
色んな角度から動画撮影を行いますが他では使いません!
1万円支払うので協力願えませんか?
色んな角度から動画撮影を行いますが他では使いません!
409名無しさん@お腹いっぱい。 (ワッチョイW 2e10-oXyV)
2020/10/27(火) 16:36:30.46ID:bOqCSIKY0 一万で手に入るなら払うけど怪しすぎるわwww
snsとかやってたら簡単に手に入るんだろうけどなぁ
あと10年もしたら卒アルから作れるようになったりしてな
法律が進んでディープフェイク作成ソフトの公開が違法になるかもしらんが
snsとかやってたら簡単に手に入るんだろうけどなぁ
あと10年もしたら卒アルから作れるようになったりしてな
法律が進んでディープフェイク作成ソフトの公開が違法になるかもしらんが
410名無しさん@お腹いっぱい。 (ガラプー KK96-IPVZ)
2020/10/27(火) 16:45:21.53ID:ERtkicshK 上を向いた顔を集めるのが大変だわ
411名無しさん@お腹いっぱい。 (テテンテンテン MMe6-6dUz)
2020/10/27(火) 20:32:08.75ID:z6+LF/4oM あんがい写真だけでも数あれば割と作れるもんだね
412名無しさん@お腹いっぱい。 (ワッチョイ 0db0-tMQb)
2020/10/27(火) 20:46:34.87ID:spSbQSk90 はあ?
エアプは黙ってろよ
エアプは黙ってろよ
413名無しさん@お腹いっぱい。 (ワッチョイW e987-6dUz)
2020/10/27(火) 21:34:33.00ID:Jx/rJ5Mh0 10万回以上回したモデル流用して、正面に限るけどね
正面だけならほぼ問題ないぞ
正面だけならほぼ問題ないぞ
414名無しさん@お腹いっぱい。 (ワッチョイ 39b1-dx+9)
2020/10/27(火) 22:56:48.00ID:l6YtcvRQ0 友達の結婚式のコメントを集めてるけど
友達が少ないから友達のフリをしてコメント動画を撮らせて下さい
お願いしますっ!!┏〇
台本考えて3パターンくらい撮らせてもらえば尺もクリア
友達が少ないから友達のフリをしてコメント動画を撮らせて下さい
お願いしますっ!!┏〇
台本考えて3パターンくらい撮らせてもらえば尺もクリア
415名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
2020/10/27(火) 23:26:15.84ID:ksLsKbpB0 推しとのオンライン握手会であっち向いてホイw
416名無しさん@お腹いっぱい。 (ワッチョイ a958-CXnf)
2020/10/28(水) 00:28:16.33ID:I87HQowX0 自分用でシーン集められるなら別に正面だけでもいいしな
417名無しさん@お腹いっぱい。 (ワッチョイW 0b10-xx6n)
2020/10/28(水) 15:03:18.86ID:OjNPWEL40 DFLってグラボのSLIに対応してる?
418名無しさん@お腹いっぱい。 (ワッチョイ c176-L1Xi)
2020/10/28(水) 16:30:57.16ID:FsENVKBa0 前出のRadeの者ですが、2.0でお聞きしたい事がもう一点あります。
コンバート時の色合わせって、現バージョンでは何か進展してますか?
1.0のクローズまで色々オプションパラが追加されたけど、どれも使いもんにならず、
結局は初代のOverlay&rctが一番マシって状況が続いてました。
(idtだと一番マシなOverlayでも、極端なダイナミックレンジで白飛び・黒飛びが出るし、
HistmachやSeamlessを使用すると、erodeやBlurで範囲拡張する場合、周辺の色が交じる上
障害物があるとFan-X使っても混じってしまい完全に破綻するし、常に色が暴れる)
Overlay&rctではカラーレンジが狭く、逆光や片側光源では陰影が一致せず、
アルファ吐きで動画編集ソフト上にて手動補正でなんとか色・陰影合わせするしか無いけど
一番仕上がりがマトモって状況が続いてました。
均一光源のDst使えば良いんですが、そういう映像だからFake動画がつまらん絵になるワケで
美しい印影の動画で作ると、かなりエロい高級なのが出来るんです。
っつーワケで、最新版での色・陰影合わせ・色ブレ対策はどんな感じになってます?
コンバート時の色合わせって、現バージョンでは何か進展してますか?
1.0のクローズまで色々オプションパラが追加されたけど、どれも使いもんにならず、
結局は初代のOverlay&rctが一番マシって状況が続いてました。
(idtだと一番マシなOverlayでも、極端なダイナミックレンジで白飛び・黒飛びが出るし、
HistmachやSeamlessを使用すると、erodeやBlurで範囲拡張する場合、周辺の色が交じる上
障害物があるとFan-X使っても混じってしまい完全に破綻するし、常に色が暴れる)
Overlay&rctではカラーレンジが狭く、逆光や片側光源では陰影が一致せず、
アルファ吐きで動画編集ソフト上にて手動補正でなんとか色・陰影合わせするしか無いけど
一番仕上がりがマトモって状況が続いてました。
均一光源のDst使えば良いんですが、そういう映像だからFake動画がつまらん絵になるワケで
美しい印影の動画で作ると、かなりエロい高級なのが出来るんです。
っつーワケで、最新版での色・陰影合わせ・色ブレ対策はどんな感じになってます?
419名無しさん@お腹いっぱい。 (ワッチョイ b3b8-L1Xi)
2020/10/28(水) 19:06:46.98ID:e9pyeq/m0420名無しさん@お腹いっぱい。 (ニククエW 6992-WMBf)
2020/10/29(木) 12:37:14.74ID:8KwMWUr40NIKU421名無しさん@お腹いっぱい。 (ニククエW f9b1-VwRA)
2020/10/29(木) 14:37:07.96ID:rAuHNvbq0NIKU >>420
ありがとうございます
実はソースをいじり始めいて、確かにrawモードってやつだと背景をmergeせずに、学習した顔だけ出力しているようでした
Pythonは未経験でしたが、前後のソースを参考にmergeのコア処理後の顔アップ画像が保存できるようになり、ワイプ化(ここは動画編集ソフトで)できました
ありがとうございます
実はソースをいじり始めいて、確かにrawモードってやつだと背景をmergeせずに、学習した顔だけ出力しているようでした
Pythonは未経験でしたが、前後のソースを参考にmergeのコア処理後の顔アップ画像が保存できるようになり、ワイプ化(ここは動画編集ソフトで)できました
422名無しさん@お腹いっぱい。 (ニククエW f9b1-VwRA)
2020/10/29(木) 14:41:37.31ID:rAuHNvbq0NIKU ちなみに
この手法で顔アップ動画をつくると、現状の顔抽出ツールの不連続さから、かなり動きがカクツクのですが、連結した後の動画を手ブレ補正系の変換を強く効かせたところ、かなり滑らかなものにできました
この手法で顔アップ動画をつくると、現状の顔抽出ツールの不連続さから、かなり動きがカクツクのですが、連結した後の動画を手ブレ補正系の変換を強く効かせたところ、かなり滑らかなものにできました
423名無しさん@お腹いっぱい。 (ニククエ b3b8-L1Xi)
2020/10/29(木) 19:34:20.11ID:2/hkgh4c0NIKU 質問です
dstの輪郭や目鼻口の位置を無視してsrcをそのまま被せる
もしくはそれに近い設定ってありますか?
dstの輪郭や目鼻口の位置を無視してsrcをそのまま被せる
もしくはそれに近い設定ってありますか?
424名無しさん@お腹いっぱい。 (ニククエW 9973-Pymw)
2020/10/29(木) 20:11:50.20ID:OPrFtLE60NIKU GAN上げてみたらどうかな
ただやる前にmodelのバックアップはしておいた方がいい
ただやる前にmodelのバックアップはしておいた方がいい
425名無しさん@お腹いっぱい。 (ニククエ 79d7-5fT2)
2020/10/29(木) 21:02:42.69ID:TtodVaTt0NIKU >>423
mergeでrawを選択したらいんじゃないのかね
trainのプレビュー画面の枠全体が置き換わるはず
ただしtrainをしっかりしないと枠内の背景がモヤッとしちゃうが
的外れだったらごめんよ
mergeでrawを選択したらいんじゃないのかね
trainのプレビュー画面の枠全体が置き換わるはず
ただしtrainをしっかりしないと枠内の背景がモヤッとしちゃうが
的外れだったらごめんよ
426名無しさん@お腹いっぱい。 (中止 b3b8-L1Xi)
2020/10/31(土) 00:47:23.27ID:VuXqAgFf0HLWN427名無しさん@お腹いっぱい。 (中止 b3b8-L1Xi)
2020/10/31(土) 23:12:05.58ID:VuXqAgFf0HLWN PCI-E x16スロットがグラボを認識しなくなって、
代わりにx4にさしてるんだけど
これボトルネックになるかな?
特に遅くなってる感じがしないけど。
代わりにx4にさしてるんだけど
これボトルネックになるかな?
特に遅くなってる感じがしないけど。
428名無しさん@お腹いっぱい。 (ワッチョイW 6992-gojB)
2020/11/01(日) 10:58:30.22ID:qiumODiT0 ~pack.batみたいに無圧縮でファイルを纏められて、高速で展開できるツールってなんかないですか?
数千、数万のファイルを操作するのが地味に手間なんで
数千、数万のファイルを操作するのが地味に手間なんで
429名無しさん@お腹いっぱい。 (ワッチョイW f9b1-VwRA)
2020/11/01(日) 14:37:39.08ID:ey9nij4H0 >>428
.tar形式なら無圧縮なのでそこそこ早いし、フリーツールも沢山あるけど
固めたままでの中身参照はできないんじゃないかな?
自分はSSD→HDDへバックアップ保存や別PCへの転送時に使ってる
.tar形式なら無圧縮なのでそこそこ早いし、フリーツールも沢山あるけど
固めたままでの中身参照はできないんじゃないかな?
自分はSSD→HDDへバックアップ保存や別PCへの転送時に使ってる
430名無しさん@お腹いっぱい。 (エムゾネW FF33-gojB)
2020/11/02(月) 00:51:48.62ID:YQKZmYtRF431名無しさん@お腹いっぱい。 (ワッチョイW 0b10-3PWw)
2020/11/02(月) 09:44:43.49ID:pDbHZcTf0 グラボのメモリが重要なのはわかったけど、2080tiと3080だとどっちのほうがいいの?
メモリとかグラボの性能での違いって時間だけで仕上がりのクオリティには影響ないの?
あとグラボ以外のスペックはどんくらいあったらいいんだろ?
メモリとかグラボの性能での違いって時間だけで仕上がりのクオリティには影響ないの?
あとグラボ以外のスペックはどんくらいあったらいいんだろ?
432名無しさん@お腹いっぱい。 (ブーイモ MMdd-wChx)
2020/11/02(月) 12:32:20.03ID:te+8FA8eM >>431
少なくともDFLが完全に対応したら3080のが上だと思う。
train速度はあくまでCUDAコア数に比例するからメモリ増加で直接的に早くはならない。メモリ倍なら最大バッチ数も倍になるけど、倍速には程遠いというのが所感。バッチ数はクオリティに影響するらしいけど俺は違いわからん。どっちかっていうと高解像度にしたい時にメモリがネックになるから欲しい。
少なくともDFLが完全に対応したら3080のが上だと思う。
train速度はあくまでCUDAコア数に比例するからメモリ増加で直接的に早くはならない。メモリ倍なら最大バッチ数も倍になるけど、倍速には程遠いというのが所感。バッチ数はクオリティに影響するらしいけど俺は違いわからん。どっちかっていうと高解像度にしたい時にメモリがネックになるから欲しい。
433名無しさん@お腹いっぱい。 (ブーイモ MMdd-wChx)
2020/11/02(月) 12:37:21.30ID:te+8FA8eM434名無しさん@お腹いっぱい。 (ワッチョイW f9b1-VwRA)
2020/11/02(月) 12:52:34.95ID:zrDWQFF20 Google ColabのPro版契約でいつでもVRAM16GBが使えるから、trainはそっちに任せて、CPUはmergeの高速化優先でより多コアなものを、っていう選択肢もあるかな
435名無しさん@お腹いっぱい。 (ワッチョイW 0b10-3PWw)
2020/11/02(月) 14:04:26.56ID:pDbHZcTf0436名無しさん@お腹いっぱい。 (テテンテンテン MMeb-Pymw)
2020/11/02(月) 15:17:45.32ID:epUt67xBM i9-9900kだけどtrainは25%〜30%くらい
ただmerge to mp4の時は100%に張り付いて爆音爆熱で簡易水冷でも98℃まであがるわ
RTX3000シリーズは現状コスパで3080かなあ
3070はCUDAはいいけどvRAMが足りなさそう
ただmerge to mp4の時は100%に張り付いて爆音爆熱で簡易水冷でも98℃まであがるわ
RTX3000シリーズは現状コスパで3080かなあ
3070はCUDAはいいけどvRAMが足りなさそう
437名無しさん@お腹いっぱい。 (ワッチョイW f9b1-VwRA)
2020/11/02(月) 15:31:20.88ID:zrDWQFF20 >>436
〜.bat の中からffmpegに動画エンコードのコーディック指定するところで
コーディック名をNvidiaグラボのハードウェアエンコードを示すものに書き換えると、CPUの負荷、かなり減るはず
ビデオレートに充分余裕がある場合は仕上がりの品質に差はないんじゃないかな
〜.bat の中からffmpegに動画エンコードのコーディック指定するところで
コーディック名をNvidiaグラボのハードウェアエンコードを示すものに書き換えると、CPUの負荷、かなり減るはず
ビデオレートに充分余裕がある場合は仕上がりの品質に差はないんじゃないかな
438名無しさん@お腹いっぱい。 (テテンテンテン MMeb-Pymw)
2020/11/02(月) 15:53:55.91ID:epUt67xBM439名無しさん@お腹いっぱい。 (ワッチョイW 0b10-3PWw)
2020/11/02(月) 16:35:32.54ID:pDbHZcTf0 メモリは16gあれば十分?32あったほうがいい?
440名無しさん@お腹いっぱい。 (ワッチョイW f158-YgTH)
2020/11/02(月) 16:40:47.13ID:oTSX7uBW0 >>436
空冷9900KF
mergeで100%にはなるけど90度は超えない
51以上でOCしてるならmerge中はやめたほうがいいような
50で十分だし36でも対して変わりないよ
今からなら金あって待てるなら100% 3070よりは3080だね
空冷9900KF
mergeで100%にはなるけど90度は超えない
51以上でOCしてるならmerge中はやめたほうがいいような
50で十分だし36でも対して変わりないよ
今からなら金あって待てるなら100% 3070よりは3080だね
441名無しさん@お腹いっぱい。 (ワッチョイW 0b10-3PWw)
2020/11/02(月) 16:51:20.82ID:pDbHZcTf0 温度上がりすぎるときって部屋はエアコンガンガンなん?真冬に窓開けててもそんな熱なったりする?
442名無しさん@お腹いっぱい。 (ブーイモ MMdd-wChx)
2020/11/02(月) 17:17:37.77ID:te+8FA8eM >>434
colabは課金して試して見たが、V100でもめちゃ遅だったよ。すぐ切れるし使い物にならなかった。
colabは課金して試して見たが、V100でもめちゃ遅だったよ。すぐ切れるし使い物にならなかった。
443名無しさん@お腹いっぱい。 (ブーイモ MMdd-wChx)
2020/11/02(月) 17:20:44.35ID:te+8FA8eM >>441真夏にエアコンかけず1日放ったらかしでも何とかなったよ。もちろんいる間はエアコンかける。
444名無しさん@お腹いっぱい。 (ブーイモ MMdd-wChx)
2020/11/02(月) 17:22:21.92ID:te+8FA8eM >>439
メモリは16で余裕
メモリは16で余裕
445名無しさん@お腹いっぱい。 (ワッチョイW f9b1-VwRA)
2020/11/02(月) 18:05:57.25ID:zrDWQFF20 >>442
Pro版ならうちは最低半日は連続train、可能だけどなぁ
なしかしらのPCブラウザ、立ち上げて接続を維持させておかないと切られる仕様である点はクリアしないといけないけど
夏場、外に出かける時は低電圧のタブレットPCを画面OFFの起動しっぱでColabにたんまり働いてもらった
確かにtrain速度だけなら自宅PCでやる方が速い
Pro版ならうちは最低半日は連続train、可能だけどなぁ
なしかしらのPCブラウザ、立ち上げて接続を維持させておかないと切られる仕様である点はクリアしないといけないけど
夏場、外に出かける時は低電圧のタブレットPCを画面OFFの起動しっぱでColabにたんまり働いてもらった
確かにtrain速度だけなら自宅PCでやる方が速い
446名無しさん@お腹いっぱい。 (ワッチョイ 0bb0-CXnf)
2020/11/02(月) 18:15:26.35ID:2I01jCPy0 真夏とか導線溶けそうだなw
447名無しさん@お腹いっぱい。 (ワッチョイ 7380-svXt)
2020/11/03(火) 00:41:31.88ID:9DR17jo40 DFLで作成しようと思い、素材等準備したんですが、最初からエラーで躓いてます
お力添えよろしくお願いします
【使用ソフト】DFL CUDA9.2SSE
【使用モデル】GeForce GTX 1060 6GB
【スペック】
【内容】' internal\setenv.bat'は内部コマンドまたは
外部コマンド操作可能なプログラムまたはバッチファイルとして
認識されていません
続行するには何かキーを押してください
というエラーが出ます
よろしくお願いします
お力添えよろしくお願いします
【使用ソフト】DFL CUDA9.2SSE
【使用モデル】GeForce GTX 1060 6GB
【スペック】
【内容】' internal\setenv.bat'は内部コマンドまたは
外部コマンド操作可能なプログラムまたはバッチファイルとして
認識されていません
続行するには何かキーを押してください
というエラーが出ます
よろしくお願いします
448名無しさん@お腹いっぱい。 (ワッチョイ 8b8b-SOku)
2020/11/03(火) 00:58:34.58ID:6OB+jO/t0 まずは同じフォルダ内にinternalってフォルダが有るかどうか確認
なければ解凍に失敗してる
なければ解凍に失敗してる
449名無しさん@お腹いっぱい。 (ワッチョイ 7380-svXt)
2020/11/03(火) 01:46:22.05ID:9DR17jo40450名無しさん@お腹いっぱい。 (ワッチョイ 7380-svXt)
2020/11/03(火) 02:04:15.62ID:9DR17jo40 再インストールしたら>>447のエラーは出なくなりましたが、
input_file not found.
Done.
というエラーが出ました。
dstとscrに素材の動画放り込んでるんですが、何がいけないのでしょうか。
お力添えよろしくお願いします。
input_file not found.
Done.
というエラーが出ました。
dstとscrに素材の動画放り込んでるんですが、何がいけないのでしょうか。
お力添えよろしくお願いします。
451名無しさん@お腹いっぱい。 (ワッチョイ 8b8b-SOku)
2020/11/03(火) 02:14:04.74ID:6OB+jO/t0452名無しさん@お腹いっぱい。 (ワッチョイ 7380-svXt)
2020/11/03(火) 03:33:14.00ID:9DR17jo40 >>451
ありがとうございます
ずっとそれを見て画像も見比べながらやってるんですが・・・
Operating System: Windows 10 Home 64-bit
Card name: NVIDIA GeForce GTX 1060 6GB
Manufacturer: NVIDIA
Chip type: GeForce GTX 1060 6GB
これであればDeepFaceLabCUDA9.2SSEで合ってますよね?
ありがとうございます
ずっとそれを見て画像も見比べながらやってるんですが・・・
Operating System: Windows 10 Home 64-bit
Card name: NVIDIA GeForce GTX 1060 6GB
Manufacturer: NVIDIA
Chip type: GeForce GTX 1060 6GB
これであればDeepFaceLabCUDA9.2SSEで合ってますよね?
453名無しさん@お腹いっぱい。 (ワッチョイW 396d-z5gY)
2020/11/03(火) 07:53:05.53ID:IMl0IT6h0 >>450
dstとsrcフォルダにいれるのは静止画。
動画はworkspace内にdata_dst、data_srcにリネームして入れる。
バッチファイルを実行したら自動的にフォルダが作成されて動画が静止画に分割されて保存される。
そこからさらにバッチファイル実行して顔抽出。
かなり端折って説明したから詳しい操作はググってね。
dstとsrcフォルダにいれるのは静止画。
動画はworkspace内にdata_dst、data_srcにリネームして入れる。
バッチファイルを実行したら自動的にフォルダが作成されて動画が静止画に分割されて保存される。
そこからさらにバッチファイル実行して顔抽出。
かなり端折って説明したから詳しい操作はググってね。
454名無しさん@お腹いっぱい。 (ワッチョイ 7380-svXt)
2020/11/03(火) 10:53:11.00ID:9DR17jo40 >>453
それは理解してます。
書き方が悪かったですね。正しくはdstとscr「の」素材の動画
必要なツールすべてDLして、あとはバッチを実行すれば動画から静止画を抽出
してくれてalignedに入るはず・・・なんですが実行しても
input_file not found.
Done.
で終わってしまいます
拡張子は.mp4を入れています。
それは理解してます。
書き方が悪かったですね。正しくはdstとscr「の」素材の動画
必要なツールすべてDLして、あとはバッチを実行すれば動画から静止画を抽出
してくれてalignedに入るはず・・・なんですが実行しても
input_file not found.
Done.
で終わってしまいます
拡張子は.mp4を入れています。
455名無しさん@お腹いっぱい。 (ワッチョイ 89b1-rWMZ)
2020/11/03(火) 11:29:14.77ID:buiSSoMd0 素材のファイル名をちゃんと書き直してないか
extract imagesを実行してないか、かな
extract imagesを実行してないか、かな
456名無しさん@お腹いっぱい。 (ワッチョイ 8b8b-SOku)
2020/11/03(火) 11:36:55.52ID:6OB+jO/t0 最初のsrcのextractをやってるとしたら、エラーの意味は
workspaceフォルダ内のdata_src.*(拡張子は何でも良い)が存在しない、という意味
workspaceフォルダ内のdata_src.*(拡張子は何でも良い)が存在しない、という意味
457名無しさん@お腹いっぱい。 (ワッチョイW 396d-Eb0r)
2020/11/03(火) 12:02:39.04ID:IMl0IT6h0 >>454
scr→srcかな?
scr→srcかな?
458名無しさん@お腹いっぱい。 (テテンテンテン MMeb-Pymw)
2020/11/03(火) 12:53:07.93ID:aA/bbg53M ありそう
✕data_scr.mp4
○data_src.mp4
それかファイルの場所がworkspace直下じゃないか
workspaceフォルダ内のスクショ貼ってくれれば原因わかると思う
✕data_scr.mp4
○data_src.mp4
それかファイルの場所がworkspace直下じゃないか
workspaceフォルダ内のスクショ貼ってくれれば原因わかると思う
459名無しさん@お腹いっぱい。 (ワッチョイW a958-s5tv)
2020/11/03(火) 16:57:35.68ID:B87EBKPc0 動かす前からこんな感じじゃ動いたあととんでもない質問してきそうだな
460名無しさん@お腹いっぱい。 (ワッチョイW f9b1-VwRA)
2020/11/03(火) 22:12:55.11ID:wS/R7/dA0 ちゃんと「JUST DO IT !!」のチュートリアルからやってみようd( ̄  ̄)
461名無しさん@お腹いっぱい。 (ワッチョイ 1176-L1Xi)
2020/11/03(火) 22:49:09.01ID:nNJ2V7dG0 そろそろ荒らしか正義マンに転生する頃だ。
ところで「エラ張りAV女優」を教えて欲しい。
有益な情報をくれたらベストマッチ情報をお返しします。
ところで「エラ張りAV女優」を教えて欲しい。
有益な情報をくれたらベストマッチ情報をお返しします。
462名無しさん@お腹いっぱい。 (ワッチョイ 89b1-rWMZ)
2020/11/03(火) 23:58:21.14ID:buiSSoMd0 どの程度のエラがいいか分からんけど
吉川あいみ
巨乳エラ
吉川あいみ
巨乳エラ
463名無しさん@お腹いっぱい。 (ワッチョイ a2b8-GqKp)
2020/11/04(水) 00:37:32.86ID:tL73Cqc00 30XX正式対応版きたか!?
464名無しさん@お腹いっぱい。 (ワッチョイW 856d-BHOs)
2020/11/04(水) 07:50:03.80ID:rs54VRWZ0 また、解説すら読めない奴が沸いてきたなあ
465名無しさん@お腹いっぱい。 (ドコグロ MM9a-DjYi)
2020/11/04(水) 12:37:29.01ID:McQVsaRfM 1070から3080に変えたけど明らかにはやくなったわ
部屋もあったまって丁度いい
部屋もあったまって丁度いい
466名無しさん@お腹いっぱい。 (ワッチョイ a976-GqKp)
2020/11/04(水) 18:08:34.34ID:tscn/g/c0 >>642
吉川あいみの若い頃ってすげぇ可愛いよねー素でそこらのタレントをぶっちぎってる。
ヒンニュー教徒の俺でも、唯一好きな巨乳ですわ。
・・っが、今回は真○よ○子とか深○絵○等の「貧乳エラ」用を探してます。
吉川あいみの若い頃ってすげぇ可愛いよねー素でそこらのタレントをぶっちぎってる。
ヒンニュー教徒の俺でも、唯一好きな巨乳ですわ。
・・っが、今回は真○よ○子とか深○絵○等の「貧乳エラ」用を探してます。
467名無しさん@お腹いっぱい。 (ワッチョイ a976-GqKp)
2020/11/04(水) 18:09:39.80ID:tscn/g/c0468名無しさん@お腹いっぱい。 (ワッチョイW 5158-4CIw)
2020/11/04(水) 18:19:51.38ID:YbHqGHjf0 伏せ字にする必要あるんか…?
469名無しさん@お腹いっぱい。 (ワッチョイ 5e8b-QVGU)
2020/11/04(水) 18:36:17.98ID:F7FvBfs10 半角は板が無くなったのかよ
470名無しさん@お腹いっぱい。 (アウアウカー Sab1-+M+9)
2020/11/04(水) 19:30:21.00ID:7PdCoyrza 3090.300.80.30バッチ6で回し始めた
もっと上げた方が良いかな?
正直この辺の数値良く分からないんだよね
もっと上げた方が良いかな?
正直この辺の数値良く分からないんだよね
471名無しさん@お腹いっぱい。 (ワッチョイ b576-D/bg)
2020/11/04(水) 23:25:24.68ID:Hmko0va90472名無しさん@お腹いっぱい。 (ワッチョイ b576-D/bg)
2020/11/04(水) 23:54:42.01ID:Hmko0va90 過去スレにあったdst x dstの学習で前髪、舌、笛マスク不要になりそう
liae-ud res:128
Xsegマスクした方が速いかも
liae-ud res:128
Xsegマスクした方が速いかも
473名無しさん@お腹いっぱい。 (ワイモマー MMb2-V8dH)
2020/11/05(木) 01:04:16.00ID:v/XlTM2dM >>472
自分もdst x dstでやってみて
その後modelを使い回して同じsrc、別のdstでmergeまで
またmodelを使い回して同じsrc、別のdstでmergeまで
と繰り返してると、最初の方はいいけど、そのうち
mergeしても全然dstに似なくなってくる
dst x dstしてるから、当たり前だけど
自分もdst x dstでやってみて
その後modelを使い回して同じsrc、別のdstでmergeまで
またmodelを使い回して同じsrc、別のdstでmergeまで
と繰り返してると、最初の方はいいけど、そのうち
mergeしても全然dstに似なくなってくる
dst x dstしてるから、当たり前だけど
474名無しさん@お腹いっぱい。 (ワッチョイ 3111-79Tt)
2020/11/05(木) 01:14:40.34ID:CJgZMRsC0 RTX_3000_buildが問題なく動くようなら俺もそろそろGTX1080ti卒業するか…
475名無しさん@お腹いっぱい。 (ワッチョイ b576-GqKp)
2020/11/05(木) 01:36:21.77ID:QQuZM8iO0 Mega.nzに普通に上っていましたね
来年第一四半期にVRAM 48GBでるのでは?なので
BTO PCで80万以内とかだったら買ってもいいな
RTX2000シリーズより安いですよね
来年第一四半期にVRAM 48GBでるのでは?なので
BTO PCで80万以内とかだったら買ってもいいな
RTX2000シリーズより安いですよね
476名無しさん@お腹いっぱい。 (ワッチョイ b576-GqKp)
2020/11/05(木) 10:26:01.52ID:QQuZM8iO0 >>472
dstを同一人物の範囲でやってみたらどうかな?やってみます
dstを同一人物の範囲でやってみたらどうかな?やってみます
477名無しさん@お腹いっぱい。 (ワッチョイW d9b1-nE0X)
2020/11/05(木) 11:12:26.28ID:rxaGmwUT0 dstA × dstA → srcX x dstA の手法は 作品Aの演出、質感を如何に高品質でFAKEとして再現できるか?を目的としていて
これで作ったmodelを更にdstBに流用して似る/似ないの議論は違うんじゃないかな?
もともと過去スレでは、BUKKAKE系の再現方法として紹介されてたはず
海外のBUKKAKEのFAKE動画はホント凄い
これで作ったmodelを更にdstBに流用して似る/似ないの議論は違うんじゃないかな?
もともと過去スレでは、BUKKAKE系の再現方法として紹介されてたはず
海外のBUKKAKEのFAKE動画はホント凄い
478名無しさん@お腹いっぱい。 (ワッチョイ 81b1-Maji)
2020/11/05(木) 14:36:12.54ID:E2I6NmgM0 海外のあれはそうやって作ってたのか、汁っぽさがあそこまで再現できてるの凄いとは思ってた
dst×dstはsrcが戻ってくるまでけっこう時間がかかるんだよね
でも角度と微妙な表情がよく出るし目線(白目や斜視)もそれで改善されるからわりと必須かもしれない
dst×dstはsrcが戻ってくるまでけっこう時間がかかるんだよね
でも角度と微妙な表情がよく出るし目線(白目や斜視)もそれで改善されるからわりと必須かもしれない
479名無しさん@お腹いっぱい。 (ワッチョイ b576-D/bg)
2020/11/05(木) 15:05:50.83ID:QQuZM8iO0 元々srcごとのモデルはほぼ完成しているような気がして、
dst×dstも0から学習するより速いだろうと言う事で、srcのモデルからdst×dstを学習
また別dstにする場合は、srcのモデルからdst×dstを学習し、
dst×dstを学習したmodelは使い回さないつもりでしたが
dst×dstも0から学習するより速いだろうと言う事で、srcのモデルからdst×dstを学習
また別dstにする場合は、srcのモデルからdst×dstを学習し、
dst×dstを学習したmodelは使い回さないつもりでしたが
480名無しさん@お腹いっぱい。 (テテンテンテン MM96-F5fy)
2020/11/05(木) 16:01:01.83ID:XsVFCQpLM dst×dstでLRD trueまで回してから本src入れたら表情出る?
どうしても高画質な悲哀系の表情集まらなくて真顔っぽいのが直るならやってみようかな
どうしても高画質な悲哀系の表情集まらなくて真顔っぽいのが直るならやってみようかな
481名無しさん@お腹いっぱい。 (ワッチョイ b576-D/bg)
2020/11/05(木) 16:17:16.20ID:QQuZM8iO0 そんな。。似ないdstは諦めて、1人似たdstで違うsrcでやっていますし
src 18人までいますし。分かりません
srcの表情は中立顔と笑顔のみですかね
泣き顔dstなんてありませんし
src 18人までいますし。分かりません
srcの表情は中立顔と笑顔のみですかね
泣き顔dstなんてありませんし
482名無しさん@お腹いっぱい。 (エムゾネW FFb2-4orW)
2020/11/06(金) 02:40:54.34ID:nRm8rqecF dstxdstで十分に回した後、srcxdstでGAN0.1、batch10で500回程度で眉や口角反映させたまま似せられるね
ただやっぱりsrcに変えてから数回せないのでそもそも似てる人物じゃないと難しいのが難点
ただやっぱりsrcに変えてから数回せないのでそもそも似てる人物じゃないと難しいのが難点
483名無しさん@お腹いっぱい。 (オイコラミネオ MM91-4orW)
2020/11/06(金) 02:44:47.62ID:K3cxmzIXM 顔が似たav嬢とかの真顔、笑顔以外を集めてこの方法でsrc用の表情を稼ぐとかもできそう
484名無しさん@お腹いっぱい。 (ワッチョイ 6558-D/bg)
2020/11/06(金) 23:21:41.30ID:81FkB4I30 3090だとRTX_3000_buildでも顔抽出の途中で「3090が応答しなくなり、止めました」的なエラーが表示されて必ずエラーになる
485名無しさん@お腹いっぱい。 (ワッチョイW 6558-Bfa+)
2020/11/06(金) 23:29:20.19ID:81FkB4I30 >>484
顔抽出だけでなく、マージでもエラーになるから3090だと修正版が出るまで何もできないわ
顔抽出だけでなく、マージでもエラーになるから3090だと修正版が出るまで何もできないわ
486名無しさん@お腹いっぱい。 (ワッチョイW 5158-zEY8)
2020/11/06(金) 23:42:12.92ID:adVFy+FR0 3000シリーズはまだできる環境できない環境あるみたいやな
487名無しさん@お腹いっぱい。 (ワッチョイW d9b1-gwR3)
2020/11/06(金) 23:51:06.02ID:MJ/MYc/a0 うちも3090だけどtrainでGAN power使うと異常終了した
有志さんの暫定対応版なら問題ない
有志さんの暫定対応版なら問題ない
488名無しさん@お腹いっぱい。 (ワッチョイ b576-D/bg)
2020/11/07(土) 02:01:02.93ID:7VCV0uMT0 なんでRTX3000に対応できるのですかね?
Tensorflow未サポート、Bazel未サポートとか見ましたが
新しい版にならないと未対応の気が
CUDA11、Cudnn、Tensorflow、Bazelとかの対応表は見かけませんが
Tensorflow未サポート、Bazel未サポートとか見ましたが
新しい版にならないと未対応の気が
CUDA11、Cudnn、Tensorflow、Bazelとかの対応表は見かけませんが
489名無しさん@お腹いっぱい。 (スプッッ Sd12-kS7F)
2020/11/07(土) 02:58:34.08ID:Q9v9cd0+d とりあえず、
抽出はtest版でできる
ほかは11/3版でできる
ほぼ普通に動かすのに1ヶ月くらいは最低かかるっぽいね
抽出はtest版でできる
ほかは11/3版でできる
ほぼ普通に動かすのに1ヶ月くらいは最低かかるっぽいね
490名無しさん@お腹いっぱい。 (ワッチョイ b576-D/bg)
2020/11/07(土) 11:51:02.47ID:7VCV0uMT0 RTX3000に対応する気満々で、買っておいても損は無い訳ですかね
しばらく待つつもりですが
CUDAコア多いみたいで速いのかな?RTX2000より安くてありがたい気が
しばらく待つつもりですが
CUDAコア多いみたいで速いのかな?RTX2000より安くてありがたい気が
491名無しさん@お腹いっぱい。 (ワッチョイ a2b8-D/bg)
2020/11/07(土) 13:52:37.60ID:3MAAekxs0 俺の3080はtest版、正式(?)版どっちでも動くんだがtest版の方が早いよねこれ?
正式版はそのうち早くなると期待していいのかな。
test版で問題ないからしばらくはこれでやるけど。
>>490
vram増量版がでるかもしれないし、ラインナップされるまで待ってもいいのでは?_
正式版はそのうち早くなると期待していいのかな。
test版で問題ないからしばらくはこれでやるけど。
>>490
vram増量版がでるかもしれないし、ラインナップされるまで待ってもいいのでは?_
492名無しさん@お腹いっぱい。 (ワッチョイ b576-D/bg)
2020/11/07(土) 18:47:48.59ID:7VCV0uMT0 >>491
来年第一四半期にでも、AMDへの対抗として、VRAM増量版が出るのでは?
とか噂はあるみたいですね
3080とか2080TiよりCUDAコアが増えていますが、DFLが速かったりしますかね?
来年第一四半期にでも、AMDへの対抗として、VRAM増量版が出るのでは?
とか噂はあるみたいですね
3080とか2080TiよりCUDAコアが増えていますが、DFLが速かったりしますかね?
493名無しさん@お腹いっぱい。 (ワッチョイW 8936-UK2n)
2020/11/07(土) 19:11:42.55ID:xeKN1zLF0 箱の外にいる人間がダメになるくらい発熱するならCPUの方が先に逝くよねと独り言
494名無しさん@お腹いっぱい。 (スフッ Sdb2-RPT/)
2020/11/07(土) 19:15:04.30ID:/fD/cqh1d495名無しさん@お腹いっぱい。 (ガラプー KKc6-vpVD)
2020/11/08(日) 10:06:42.06ID:1l7SawS6K debugではランドマーク合ってるのにyawやpitchでソートすると並び方が滅茶苦茶なのは何なの?
496名無しさん@お腹いっぱい。 (スフッ Sdb2-3rNP)
2020/11/08(日) 14:55:24.20ID:T+0ZZ1RGd https://i.imgur.com/TtRsqAZ.jpg
https://i.imgur.com/ZobNN0Y.jpg
今日から仲間入りなんだが、なにかあったら教えて欲しい
やっていく手順とかない?
https://i.imgur.com/ZobNN0Y.jpg
今日から仲間入りなんだが、なにかあったら教えて欲しい
やっていく手順とかない?
497名無しさん@お腹いっぱい。 (ワッチョイ 5e8b-QVGU)
2020/11/08(日) 15:04:41.14ID:eggywemJ0 送料たけーな
498名無しさん@お腹いっぱい。 (スフッ Sdb2-3rNP)
2020/11/08(日) 16:41:18.90ID:T+0ZZ1RGd そんな難癖つけんなよ
これでも破格なレベルなんだぞ
俺の苦労知らねえだろお前
これでも破格なレベルなんだぞ
俺の苦労知らねえだろお前
499名無しさん@お腹いっぱい。 (ワッチョイ 5e8b-QVGU)
2020/11/08(日) 16:52:55.32ID:eggywemJ0 そんなツッコミ待ちの画像で偉そうだな
500名無しさん@お腹いっぱい。 (ワッチョイW 1211-+UO9)
2020/11/08(日) 17:07:58.45ID:NN99suqu0 OSとストレージは…
501名無しさん@お腹いっぱい。 (ワッチョイW 5158-zEY8)
2020/11/08(日) 18:11:00.89ID:1ouMV+uY0 >>496
パーツ的には特に問題ないので、マニュアル読めるように電子辞書買おう
パーツ的には特に問題ないので、マニュアル読めるように電子辞書買おう
502名無しさん@お腹いっぱい。 (ワッチョイ 19b0-t1Nk)
2020/11/08(日) 18:17:52.69ID:X8wD7ifg0 STORMとか聞いた事ないショップだな
大丈夫なのか?ここ
大丈夫なのか?ここ
503名無しさん@お腹いっぱい。 (スップ Sd12-HpUP)
2020/11/08(日) 19:06:13.50ID:yxK/6Vw7d 女優とかだと上向いてる素材を集めるのが鬼門だな
根気よくドラマとか漁るしかないか
根気よくドラマとか漁るしかないか
504名無しさん@お腹いっぱい。 (ワッチョイW 6973-F5fy)
2020/11/08(日) 19:21:42.11ID:5aik6jOh0 >>437
これどうやるか教えてほしい
コーディックをlibx264からh264_nvencに変更するのはわかったけどどこで書き換えるのかがわからない
merge to mp4.bat開くと結局main.py呼んでるっぽかったからそこ開いても見当たらず
ffmpeg自体の設定を変えなきゃいけないんですかね
これどうやるか教えてほしい
コーディックをlibx264からh264_nvencに変更するのはわかったけどどこで書き換えるのかがわからない
merge to mp4.bat開くと結局main.py呼んでるっぽかったからそこ開いても見当たらず
ffmpeg自体の設定を変えなきゃいけないんですかね
505名無しさん@お腹いっぱい。 (ワッチョイ 5e8b-QVGU)
2020/11/08(日) 19:22:35.39ID:eggywemJ0 似た顔のAV女優の上向き画像入れとけばなんとかなるよ
liaeならきれいに整えてくれる
どうせ上向きなんて、誰だかわからん顔になるし
liaeならきれいに整えてくれる
どうせ上向きなんて、誰だかわからん顔になるし
506名無しさん@お腹いっぱい。 (ワッチョイ 5e8b-QVGU)
2020/11/08(日) 19:26:51.25ID:eggywemJ0 >>504
DFLに任せないで、BATファイル内にffmpegを直に書くんだと思う
DFLに任せないで、BATファイル内にffmpegを直に書くんだと思う
507名無しさん@お腹いっぱい。 (ワッチョイW 51cc-1lIo)
2020/11/08(日) 19:34:39.58ID:8L6WscJz0 ストームでこの構成でこの値段…
ご愁傷さまです
ご愁傷さまです
508名無しさん@お腹いっぱい。 (ワイモマー MMb2-8Myv)
2020/11/08(日) 19:54:23.45ID:sHLFkgRyM >>504
colabでやってるけど、たぶんいっしょ
_internal\DeepFaceLab\mainscripts\VideoEd.py
の中の"libx264"(3つのうち後ろ2つ)を置き換えればいいんじゃね?
colabでやってるけど、たぶんいっしょ
_internal\DeepFaceLab\mainscripts\VideoEd.py
の中の"libx264"(3つのうち後ろ2つ)を置き換えればいいんじゃね?
509名無しさん@お腹いっぱい。 (ワッチョイ f582-79Tt)
2020/11/08(日) 19:56:56.03ID:Ngpy8mq10 colabが1時間すら使わせてくれない
頼むぜ…
頼むぜ…
510名無しさん@お腹いっぱい。 (ワッチョイW 6973-F5fy)
2020/11/08(日) 20:27:49.24ID:5aik6jOh0511名無しさん@お腹いっぱい。 (ワッチョイ 51f1-D/bg)
2020/11/08(日) 20:57:26.51ID:EgZXLDG30 バージョンあがってるみたいなんで凄い久しぶりに最新版で一つ作ってみたんだけど、merge後の画像(動画)に不定期に
貼付け部分だけでなく全域に以下のような横方向の黒いノイズ(赤矢印の部分)がぽつぽつ出るようになったのですが、回避方法ありますか?
https://i.imgur.com/66s5LPT.png
modelはnew-saehd
merge設定はoverlay,FAN-prdFAN-dst ,mask modifier50,rct,gaussian他は全部デフォ値です
貼付け部分だけでなく全域に以下のような横方向の黒いノイズ(赤矢印の部分)がぽつぽつ出るようになったのですが、回避方法ありますか?
https://i.imgur.com/66s5LPT.png
modelはnew-saehd
merge設定はoverlay,FAN-prdFAN-dst ,mask modifier50,rct,gaussian他は全部デフォ値です
512名無しさん@お腹いっぱい。 (ワッチョイ d973-MLiU)
2020/11/08(日) 21:24:11.04ID:9gCPOTxS0 動画で見てみないと判断できないのぉ・・
513名無しさん@お腹いっぱい。 (ワッチョイ 81b1-Maji)
2020/11/08(日) 21:29:42.39ID:y4HJcfoo0 あーこれはソフトが虫に食われてますね
514名無しさん@お腹いっぱい。 (ワッチョイ 5158-t1Nk)
2020/11/08(日) 23:13:32.85ID:CbT+jXTI0 どのverからどのverにしたか分からんけどもし使いまわしてるならmodelが古くて対応してないとか?
とりあえず自分の環境で見たことは無い
とりあえず自分の環境で見たことは無い
515名無しさん@お腹いっぱい。 (アウアウカー Sab1-+M+9)
2020/11/08(日) 23:28:38.86ID:tzZ3Mq1ea 最初から良い物は出来ない
数をこなして慣れよう
数をこなして慣れよう
516名無しさん@お腹いっぱい。 (ワッチョイ 51f1-D/bg)
2020/11/08(日) 23:49:44.79ID:EgZXLDG30517名無しさん@お腹いっぱい。 (ワッチョイ 5158-t1Nk)
2020/11/09(月) 00:08:01.11ID:RcX0SIqg0 >>516
他のmodel、画像でもなるならcolabにインストールされるverのバグなんじゃない?
直接関係ないけどcolabでmergeまでやるのはやめといたほうがいい
googleはエロいのban対象だから
他のmodel、画像でもなるならcolabにインストールされるverのバグなんじゃない?
直接関係ないけどcolabでmergeまでやるのはやめといたほうがいい
googleはエロいのban対象だから
518名無しさん@お腹いっぱい。 (ワッチョイ 6558-t1Nk)
2020/11/09(月) 00:20:32.82ID:y+B/4dVK0 発生したのみたことないな
おま環事象とみた
おま環事象とみた
519名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 00:31:39.83ID:fPNAn+OG0520名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 00:33:38.78ID:fPNAn+OG0 おいおい、情報ビッシリの画像二枚にレスこれだけ?
ここにいても無駄かな
ここにいても無駄かな
521名無しさん@お腹いっぱい。 (ワッチョイ 6558-t1Nk)
2020/11/09(月) 00:42:58.22ID:y+B/4dVK0 無駄だね
522名無しさん@お腹いっぱい。 (ワッチョイ 5158-t1Nk)
2020/11/09(月) 00:53:13.01ID:RcX0SIqg0 だってそれ総合で見たし何聞きたいかよく分からんし無駄なんじゃない
523名無しさん@お腹いっぱい。 (ワッチョイ 81b1-Maji)
2020/11/09(月) 01:02:55.41ID:tIbnudMz0 DF始めるのにpcスペック情報なんてほとんどどうでもいいものだし
勝手に始めたらええやん
勝手に始めたらええやん
524名無しさん@お腹いっぱい。 (スプッッ Sd12-kS7F)
2020/11/09(月) 01:25:35.05ID:YU16Es0Wd あの画像で気になるところなんてスマホ充電しろ以外に何があると言うのか
525名無しさん@お腹いっぱい。 (ワッチョイ 19b0-t1Nk)
2020/11/09(月) 01:29:03.65ID:YiwAJ7jm0 ただの基地外レス乞食なのにおまえら優しいな
526名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 01:32:10.15ID:fPNAn+OG0 もういいよ
批判しか能がない生産性ゼロの消費者共は黙ってなさい
批判しか能がない生産性ゼロの消費者共は黙ってなさい
527名無しさん@お腹いっぱい。 (エムゾネW FFb2-iiQt)
2020/11/09(月) 01:35:05.57ID:80e1O0drF 向こうにもあったけどGPUがAMD製でなければあとはどんな構成でもとりあえず動くからな
なんならGPU無しでもいいわけだし
ちょっと情報が古いけど解説サイト見れば誰でも作れるし、見てもなんにも分からんなら頭のスペックが足りないとしか…
なんならGPU無しでもいいわけだし
ちょっと情報が古いけど解説サイト見れば誰でも作れるし、見てもなんにも分からんなら頭のスペックが足りないとしか…
528名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 02:08:49.69ID:fPNAn+OG0 amd ryzen って文字列が読めないの?
だから質問してんだよ
だから質問してんだよ
529名無しさん@お腹いっぱい。 (オイコラミネオ MM91-iiQt)
2020/11/09(月) 02:15:16.13ID:p197nIGnM530名無しさん@お腹いっぱい。 (オイコラミネオ MM91-iiQt)
2020/11/09(月) 02:16:53.75ID:p197nIGnM もしかしてRyzenとRadeonの区別がつかないのか?
531名無しさん@お腹いっぱい。 (ワッチョイ 0976-D/bg)
2020/11/09(月) 02:34:38.67ID:CeTZo8gu0 自分も数年前に自作面倒になってストームで作ったけど、名無しパーツが軒並み定評ある一流品なんだよね。
なんで書かないのか不明だけど、企業向けメインだから余ってるの使うんかなぁ。
クーラー・電源等、高いヤツ乗っててめっちゃ安かった、愛想が皆無だけど配線綺麗だったね。
>>517
だよねー。Googleは通報義務があって、メンドクサイからAI監視で所管国の法治機関に自動通報だから
ポリが動くかどうかだけ。DeepFake検挙の圧が高まってる今は特に。
実際ドライブに自分の娘(赤ちゃん)のお風呂写真2枚アゲたオッサンがいきなり逮捕されてたし
なんで書かないのか不明だけど、企業向けメインだから余ってるの使うんかなぁ。
クーラー・電源等、高いヤツ乗っててめっちゃ安かった、愛想が皆無だけど配線綺麗だったね。
>>517
だよねー。Googleは通報義務があって、メンドクサイからAI監視で所管国の法治機関に自動通報だから
ポリが動くかどうかだけ。DeepFake検挙の圧が高まってる今は特に。
実際ドライブに自分の娘(赤ちゃん)のお風呂写真2枚アゲたオッサンがいきなり逮捕されてたし
532名無しさん@お腹いっぱい。 (ワッチョイW d9b1-gwR3)
2020/11/09(月) 02:41:32.69ID:tMu9gRf30533名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 02:58:25.37ID:fPNAn+OG0 いやAMDじゃDFL最新版使えねえだろうが
だからソフトどうすればという話
だからソフトどうすればという話
534名無しさん@お腹いっぱい。 (ワッチョイ 5e8b-QVGU)
2020/11/09(月) 03:04:08.82ID:IJH2zHJT0 寝ろ
535名無しさん@お腹いっぱい。 (ワッチョイ 51f1-D/bg)
2020/11/09(月) 03:07:22.09ID:BRUjq08T0 その調子だとPC買っても無理だと思う。
536名無しさん@お腹いっぱい。 (ワッチョイ 19b0-t1Nk)
2020/11/09(月) 03:09:02.36ID:YiwAJ7jm0537名無しさん@お腹いっぱい。 (オイコラミネオ MM91-iiQt)
2020/11/09(月) 03:09:57.98ID:p197nIGnM いや上にRyzen3700で動くって人いるし俺も古いけどRyzen1700使ってるんだけど
お前のPCはCPUはAMDのRyzen3700でGPUはGeforceのRTX3070なんじゃないの
勘違い?
何度も言われてるけど、CPUは何でもいいし、GPUはAMDのRadeonじゃなきゃ(Geforceなら)何度もいいって話なんだけど
ただ上にあるとおりRTX3000シリーズで動くかは賭け
そのうち対応版は出るだろうけど
お前のPCはCPUはAMDのRyzen3700でGPUはGeforceのRTX3070なんじゃないの
勘違い?
何度も言われてるけど、CPUは何でもいいし、GPUはAMDのRadeonじゃなきゃ(Geforceなら)何度もいいって話なんだけど
ただ上にあるとおりRTX3000シリーズで動くかは賭け
そのうち対応版は出るだろうけど
538名無しさん@お腹いっぱい。 (ワッチョイW 6973-F5fy)
2020/11/09(月) 03:14:57.93ID:9rw2QZ7d0539名無しさん@お腹いっぱい。 (ワッチョイ 51f1-D/bg)
2020/11/09(月) 03:38:30.69ID:BRUjq08T0 >>537
HWだけじゃなく全ての要素を総合的に見たらID:fPNAn+OG0は動作させられないと思う。
HWだけじゃなく全ての要素を総合的に見たらID:fPNAn+OG0は動作させられないと思う。
540名無しさん@お腹いっぱい。 (ワッチョイ 0976-D/bg)
2020/11/09(月) 03:40:56.02ID:CeTZo8gu0 人工知能の前に、先ずは自分の知脳障害をナントカしろよってのが
定期的に湧くのは、エロ故の成すべき技なんだろーか?
ガイジの思考と健常者の思考をデコーダ化して、エンコーダで入れ替える
ディープガイジを開発すれば、意思疎通が可能になるのに。
定期的に湧くのは、エロ故の成すべき技なんだろーか?
ガイジの思考と健常者の思考をデコーダ化して、エンコーダで入れ替える
ディープガイジを開発すれば、意思疎通が可能になるのに。
541名無しさん@お腹いっぱい。 (エムゾネW FFb2-iiQt)
2020/11/09(月) 03:55:55.80ID:7k/5TvQaF 散々動くって言われてんのに暴れてるあたりマジモンのアレな奴なんだろうってのがひしひしと伝わってくるw
542名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 04:02:59.89ID:fPNAn+OG0 なんでもええから賭けとか無しで普通によく使えるやつ教えてくれ言うとんねん
なんでここまで言わんとわからんのや
なんでここまで言わんとわからんのや
543名無しさん@お腹いっぱい。 (ワッチョイW 126d-BHOs)
2020/11/09(月) 04:44:44.48ID:ouFY3sbv0 >>498
ばーか
ばーか
544名無しさん@お腹いっぱい。 (ワッチョイW 126d-BHOs)
2020/11/09(月) 04:48:34.29ID:ouFY3sbv0 自分で使い方すら調べられない奴を相手にしても時間が無駄だわ
英語どころか日本語も読めないだろ
英語どころか日本語も読めないだろ
545名無しさん@お腹いっぱい。 (ワッチョイW 51cc-1lIo)
2020/11/09(月) 07:55:39.38ID:oSGZeSF90 ソフトに学習させる前に自分の脳に20万回学習させた方が良いってか
546名無しさん@お腹いっぱい。 (ワンミングク MM62-V0d8)
2020/11/09(月) 08:04:46.31ID:+6rnijiLM 文章からだんだん余裕無くなっていくの草
まあせめてソフトのダウンロードぐらいは自分で出来ないと厳しいな
まあせめてソフトのダウンロードぐらいは自分で出来ないと厳しいな
547名無しさん@お腹いっぱい。 (ワッチョイW 3192-iiQt)
2020/11/09(月) 10:05:42.04ID:nHd5P5CZ0 PCの構成見せられて「どう?」としか聞かれてないし
とりあえず解説サイト見ていっぺん作ってみろとしか答えられないよな
作る上で詰まった点について聞くんならまだしも
とりあえず解説サイト見ていっぺん作ってみろとしか答えられないよな
作る上で詰まった点について聞くんならまだしも
548名無しさん@お腹いっぱい。 (テテンテンテン MM96-F5fy)
2020/11/09(月) 10:18:21.49ID:zWH9MIaSM 普通によく使えるやつってなんだよ
構成の話かソフトの話かもわからん
構成ならCPUは別にRyzenでも動くけどなんか気にしてるからi9買ってグラボは2080tiにすれば間違いない
Ryzenと3070のPCもう発注かけたんならとりあえずopenCLの1.0で遊びながら2.0の正規版が3000台に対応するの待てば?
Faceswapとかは知らん
構成の話かソフトの話かもわからん
構成ならCPUは別にRyzenでも動くけどなんか気にしてるからi9買ってグラボは2080tiにすれば間違いない
Ryzenと3070のPCもう発注かけたんならとりあえずopenCLの1.0で遊びながら2.0の正規版が3000台に対応するの待てば?
Faceswapとかは知らん
549名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 11:42:09.98ID:fPNAn+OG0 って事はDFL一択ってくらい歴然たる差があるの?
ぶっちゃけ多すぎてわからんのよなこの界隈
ぶっちゃけ多すぎてわからんのよなこの界隈
550名無しさん@お腹いっぱい。 (アウアウウー Sacd-BHOs)
2020/11/09(月) 11:59:35.70ID:K9K4nNdNa >>549
いいから試してから言えよ
いいから試してから言えよ
551名無しさん@お腹いっぱい。 (ドコグロ MM1d-DjYi)
2020/11/09(月) 12:21:07.94ID:LE/KJpIJM 増えてると思ったらガッカリ
552名無しさん@お腹いっぱい。 (ワッチョイW 6558-Bfa+)
2020/11/09(月) 15:09:04.39ID:lIo+Pxpa0 アホはスルーで
553名無しさん@お腹いっぱい。 (アウアウウー Sacd-BHOs)
2020/11/10(火) 00:06:34.27ID:jkqKDcj6a それでいい
554名無しさん@お腹いっぱい。 (ワッチョイW 3111-rWPd)
2020/11/10(火) 05:30:38.07ID:iSzfgUgv0 どうやら似ない原因の一つはrandom flipをオンにしてるとダメだね
顔を反転させて足りない角度を作る機能だが
顔を半分に切って繋げてる様だ
顔を反転させて足りない角度を作る機能だが
顔を半分に切って繋げてる様だ
555名無しさん@お腹いっぱい。 (ワッチョイ 9e76-D/bg)
2020/11/10(火) 07:17:03.93ID:tN11tDf70 顔が歪んでるO彩佳や歪な表情をする吉高・柴咲・綾瀬等以外はあんま関係無いけどね。
それ以前に素材マッチングが9割以上を占める。姿形は兎も角、表情モーションで決まるな。
それよりも、ランダムフリップはDSTもフリップフリップゥー!で無駄に
学習時間倍増するし、正常存在データにも反転学習で収束阻害起こすから
足らん画角は事前に反転MP4仕込んでホクロだけレタッチしてOFFが鉄板でしょ。
これらの積み重ねで、ヘボいGPUでもすげぇSLIを超える仕上がり速度が得られる。
それ以前に素材マッチングが9割以上を占める。姿形は兎も角、表情モーションで決まるな。
それよりも、ランダムフリップはDSTもフリップフリップゥー!で無駄に
学習時間倍増するし、正常存在データにも反転学習で収束阻害起こすから
足らん画角は事前に反転MP4仕込んでホクロだけレタッチしてOFFが鉄板でしょ。
これらの積み重ねで、ヘボいGPUでもすげぇSLIを超える仕上がり速度が得られる。
556名無しさん@お腹いっぱい。 (ブーイモ MMad-wFu1)
2020/11/10(火) 12:43:22.52ID:tGvZlte6M >>555
素材マッチングのために2000人分の女優写真集使おうとしてる。サイトから巡回ソフトで落として、全部で10万枚ある。角度の悪い写真を取り除く作業の途中だが全然終わらない。
素材マッチングのために2000人分の女優写真集使おうとしてる。サイトから巡回ソフトで落として、全部で10万枚ある。角度の悪い写真を取り除く作業の途中だが全然終わらない。
557名無しさん@お腹いっぱい。 (ワッチョイW 61c9-0JBe)
2020/11/10(火) 14:16:15.65ID:Xqn2KSf40 >>556
マッチングに使うアルゴリズムは決まってるのん?
マッチングに使うアルゴリズムは決まってるのん?
558名無しさん@お腹いっぱい。 (ワッチョイ 1276-D/bg)
2020/11/10(火) 14:19:49.61ID:QwJJy83w0 それって何に使うの?意味あるの?
559名無しさん@お腹いっぱい。 (ワッチョイ 1276-D/bg)
2020/11/10(火) 14:27:31.09ID:QwJJy83w0 DFLの前にsrcに合うdstを探させるって事か
560名無しさん@お腹いっぱい。 (ワッチョイW 3636-HpUP)
2020/11/10(火) 22:46:26.25ID:UY8pqjk+0 マージするとdstの面影が強く残るようになってしまった
今までそんなことなかったし、train中のプレビューも良かったんだけどなぁ
今までそんなことなかったし、train中のプレビューも良かったんだけどなぁ
561名無しさん@お腹いっぱい。 (ワッチョイ 03b8-NSHw)
2020/11/11(水) 01:50:05.06ID:vRVJrRzo0562名無しさん@お腹いっぱい。 (ワッチョイW 2573-6mFn)
2020/11/11(水) 01:56:12.10ID:KSWQDPe/0 train中のプレビューのまま動画にしてほしいと思うことは多々ある
ちょっと聞きたいんですけどresultまで済ませた後extractしたsrcとdstの画像って保存してる?
自分はsrcは放置で次のsrcで上書き
dstは使い回せそうな感じならdstフォルダからmergeとmaskは消してあと残してます
ちょっと聞きたいんですけどresultまで済ませた後extractしたsrcとdstの画像って保存してる?
自分はsrcは放置で次のsrcで上書き
dstは使い回せそうな感じならdstフォルダからmergeとmaskは消してあと残してます
563名無しさん@お腹いっぱい。 (ワッチョイW 1592-Sff7)
2020/11/11(水) 02:41:42.52ID:W8zNnEYY0 >>562
基本両方残してるけど
srcはalignedだけ、dstはextract結果に満足すれば切り出したフレームとalignedだけ、それぞれpack.batでまとめてる
というか上書きって毎回srcのextractからやり直してるってこと?それとも同じsrcで作ることがないの?
基本両方残してるけど
srcはalignedだけ、dstはextract結果に満足すれば切り出したフレームとalignedだけ、それぞれpack.batでまとめてる
というか上書きって毎回srcのextractからやり直してるってこと?それとも同じsrcで作ることがないの?
564名無しさん@お腹いっぱい。 (ワッチョイ cb76-NSHw)
2020/11/11(水) 04:16:17.68ID:MCx2qdPx0 やる気無い時に、過去のSRCとDST組み合わせてテキトーに回してるなぁ。死ぬまで働けー!って感じで。
だからSRCのチョイス分alignedとDSTの全alignedはパックして全部残してる。
DSTのフレームPngは嵩張るんで元ネタのmp4だけ。
っで絶対合わなさそうなネタが頻繁にマッチするから、もう何が合う要因なのかわかりません・・
あと、2年熟成を続けたエンコーダとデコーダ、かなりヤバくなってる。
バッチ32でiter8000も回せば、どんな素材(メガネ以外)もビンビンになるわ。
だからSRCのチョイス分alignedとDSTの全alignedはパックして全部残してる。
DSTのフレームPngは嵩張るんで元ネタのmp4だけ。
っで絶対合わなさそうなネタが頻繁にマッチするから、もう何が合う要因なのかわかりません・・
あと、2年熟成を続けたエンコーダとデコーダ、かなりヤバくなってる。
バッチ32でiter8000も回せば、どんな素材(メガネ以外)もビンビンになるわ。
565連投失礼 (ワッチョイ cb76-NSHw)
2020/11/11(水) 04:31:53.48ID:MCx2qdPx0 輪郭・パーツ配置が明らかに違うのにマッチする奴見て気付いたことは、やっぱ表情や仕草の遷移で
(例えばホランは動作の直前に思考フリーズみたいのが一瞬入って、制止状態から別ポーズへのキレが鋭い、
絶対に優しげな表情をせず、バカにしてるような眼差し・微笑みしかしない)
静止画で容姿が似てる事より、モーション命ってことは分かったんだけど、
だからってどう探せばいいんだろう・・
(例えばホランは動作の直前に思考フリーズみたいのが一瞬入って、制止状態から別ポーズへのキレが鋭い、
絶対に優しげな表情をせず、バカにしてるような眼差し・微笑みしかしない)
静止画で容姿が似てる事より、モーション命ってことは分かったんだけど、
だからってどう探せばいいんだろう・・
566名無しさん@お腹いっぱい。 (アウアウウー Saa9-lwVy)
2020/11/11(水) 06:56:26.81ID:To9Fw6swa 愛嬌は表情と動作が作る
美しさは骨と皮膚が作る
エロさは脂肪が作る
美しさは骨と皮膚が作る
エロさは脂肪が作る
567名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/11(水) 10:46:07.90ID:xKnS2O760 似せるクオリティだけを求めるならdstからsrcを選ぶほうが近道なんだろな
たまーに雰囲気が似てるなってのがあるからそれに併せればいい
なんとなく似てる「激似」シリーズで作った事ある人っていないのかな
たまーに雰囲気が似てるなってのがあるからそれに併せればいい
なんとなく似てる「激似」シリーズで作った事ある人っていないのかな
568名無しさん@お腹いっぱい。 (ワッチョイ 4506-dT/H)
2020/11/11(水) 10:53:34.62ID:H5kFq16u0 対応グラボもってないので、とりあえずやり方だけでも覚えるために
google colabで試してるのですが、colabでx-segを読み込むことはできるようですが
colabでx-segのエディタは使えないのでしょうか。
google colabで試してるのですが、colabでx-segを読み込むことはできるようですが
colabでx-segのエディタは使えないのでしょうか。
569名無しさん@お腹いっぱい。 (ポキッー 23b0-Y0tO)
2020/11/11(水) 12:49:06.54ID:+7ChvgQu01111 関係ないけどGeForceのドライバーってどれくらいの頻度で更新してる?
余りにも頻繁にアプデ来るから毎回面倒過ぎるんだが・・・
余りにも頻繁にアプデ来るから毎回面倒過ぎるんだが・・・
570名無しさん@お腹いっぱい。 (ポキッーW ed58-+2Ll)
2020/11/11(水) 13:51:31.19ID:3jnPD3Kt01111 >>569
対応ゲームやらバグやら思い当たるものがあったら更新してる
けどDFLだけなら手持ちのグラボが動いてるなら更新不要では?
なんならスタジオドライバにしちゃうのもありかと
基本的に同等以上に動くし
もちろん環境次第だけど
対応ゲームやらバグやら思い当たるものがあったら更新してる
けどDFLだけなら手持ちのグラボが動いてるなら更新不要では?
なんならスタジオドライバにしちゃうのもありかと
基本的に同等以上に動くし
もちろん環境次第だけど
571名無しさん@お腹いっぱい。 (ポキッー MM43-PW4O)
2020/11/11(水) 15:49:34.44ID:O0E5xR28M1111 >>568
colabでx-segのエディタを使ったことはないけど、まずはGUIを
使えるようにしないといけないと思う
↓これとか手間掛かりそう
ttps://internet-of-tomohiro.netlify.app/google_colab/vnc.ja.html
colabでx-segのエディタを使ったことはないけど、まずはGUIを
使えるようにしないといけないと思う
↓これとか手間掛かりそう
ttps://internet-of-tomohiro.netlify.app/google_colab/vnc.ja.html
572名無しさん@お腹いっぱい。 (ポキッーW 2573-6mFn)
2020/11/11(水) 20:51:27.76ID:KSWQDPe/01111 >>563
毎回同じmodelの新鮮な動画からsrc取りしてます
ただiter100万くらいまではいい感じだったけど
200万過ぎた辺りからなんとなく違和感出てくるようになってきた
1回辺り2000くらい枚数用意して20-30万くらい回したら次のsrcみたいな使い方してます
毎回同じmodelの新鮮な動画からsrc取りしてます
ただiter100万くらいまではいい感じだったけど
200万過ぎた辺りからなんとなく違和感出てくるようになってきた
1回辺り2000くらい枚数用意して20-30万くらい回したら次のsrcみたいな使い方してます
573名無しさん@お腹いっぱい。 (ポキッーW 1b36-o0S1)
2020/11/11(水) 21:14:00.59ID:yQeI6t6q01111 >>567
似てるって言われてる人って目元とかパーツは似てても輪郭はそこまでってことが多い
だからdstとしては微妙なこともあるよね
輪郭と眉目口鼻の位置が似てる人が真に相応しいと思うんだけど、簡単に探せないものかね
似てるって言われてる人って目元とかパーツは似てても輪郭はそこまでってことが多い
だからdstとしては微妙なこともあるよね
輪郭と眉目口鼻の位置が似てる人が真に相応しいと思うんだけど、簡単に探せないものかね
574名無しさん@お腹いっぱい。 (ワッチョイ d558-Y0tO)
2020/11/11(水) 23:39:19.30ID:pRhS3Pfh0 最近は完全デコ出しのsrc使ってXseg-prdでerode0〜-25ぐらいをとって出力するのを試してる
dstによって生え際の違和感はあるけど顔はほぼほぼまんまのが出来るから自分用ならいいかなって
dstによって生え際の違和感はあるけど顔はほぼほぼまんまのが出来るから自分用ならいいかなって
575名無しさん@お腹いっぱい。 (ガラプー KKab-9+Yv)
2020/11/12(木) 07:33:02.46ID:GUd62WpeK たとえ似なくてもsrc本人よりかわいくなるならいいんだがなあ
576名無しさん@お腹いっぱい。 (ワッチョイ d5f1-Pj7A)
2020/11/12(木) 09:14:41.65ID:Wj3yF24T0 久しぶりに最新版落としてやってみたらいろいろ変わってて笛がうまくできない。
最新版のMargerのオプションはどれにすればいいんだ?
前みたいにfan-prd+fan-dstとかでお気楽に作れないのかな?
最新版のMargerのオプションはどれにすればいいんだ?
前みたいにfan-prd+fan-dstとかでお気楽に作れないのかな?
577名無しさん@お腹いっぱい。 (ワッチョイ cb10-gWUl)
2020/11/12(木) 09:28:19.51ID:Lg76zgpE0 5800xと3080で作ろうと思ってたけど3080tiのうわさも出てるし中々買えんな
2080tiと3070だと2080tiのほうがいいのかな?
2080tiと3070だと2080tiのほうがいいのかな?
578名無しさん@お腹いっぱい。 (ワッチョイ 2376-Pj7A)
2020/11/12(木) 09:44:00.29ID:HFQDP7H70 >>576
フォーラムにXsegマスク済の顔画像があるので、
それを利用してXseg Trainしている(顔はWFが多いけど、Fで)
(9)の最後のやつでMergeしている
srcのモデルに対し、dst×dstでTrain、笛、舌、前髪などがはっきりとプレビューで見える様になるまでTrain
顔の部分にかかった物のみが見えればいいと思います
srcとdstを混ぜて、yaw、pitchでsortして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います(liae-ud)
dstにあってsrcに無い角度が出てきたら、素材不足なのでsrcをつべから足しています
素材が足りたら、srcを類似でsortして、コピーしたdstを削除して通常srcとdstでtrain
フォーラムにXsegマスク済の顔画像があるので、
それを利用してXseg Trainしている(顔はWFが多いけど、Fで)
(9)の最後のやつでMergeしている
srcのモデルに対し、dst×dstでTrain、笛、舌、前髪などがはっきりとプレビューで見える様になるまでTrain
顔の部分にかかった物のみが見えればいいと思います
srcとdstを混ぜて、yaw、pitchでsortして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います(liae-ud)
dstにあってsrcに無い角度が出てきたら、素材不足なのでsrcをつべから足しています
素材が足りたら、srcを類似でsortして、コピーしたdstを削除して通常srcとdstでtrain
579名無しさん@お腹いっぱい。 (ワッチョイ 1b76-Pj7A)
2020/11/12(木) 10:23:49.66ID:s6LpwJ7W0 DST探し疲れたら、とりあえず吉良りん使ってみ。
かなり汎用性高いから。
>>572
最近のバージョンって過学習防止とリソース有効活用で、片側トレインオフ付いたんじゃ無いの?
因みに、浮くリソース分って丸々片方のトレインに割り振れるんだろーか?
かなり汎用性高いから。
>>572
最近のバージョンって過学習防止とリソース有効活用で、片側トレインオフ付いたんじゃ無いの?
因みに、浮くリソース分って丸々片方のトレインに割り振れるんだろーか?
580名無しさん@お腹いっぱい。 (ワッチョイW 1592-xxKQ)
2020/11/12(木) 11:35:04.74ID:J3UOKW5g0 基本的な質問ですみませんがsrcは複数の動画から作るより一つの動画から作る方が似やすいんですか?
581名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/12(木) 12:22:41.75ID:B873nvJca582名無しさん@お腹いっぱい。 (オイコラミネオ MM71-Sff7)
2020/11/12(木) 12:39:09.90ID:65btTtM9M >>568
今は亡きTwitter界隈の投稿者達の作品見返してたら肌の粒状感?とか目尻の細かいシワまで表現できてるのとかあるけど、GANとかTrueFaceとかでやってんのかね
それともそもそも素材と学習の解像度が高いのか
今は亡きTwitter界隈の投稿者達の作品見返してたら肌の粒状感?とか目尻の細かいシワまで表現できてるのとかあるけど、GANとかTrueFaceとかでやってんのかね
それともそもそも素材と学習の解像度が高いのか
583名無しさん@お腹いっぱい。 (オイコラミネオ MM71-Sff7)
2020/11/12(木) 12:39:30.15ID:65btTtM9M ごめんアンカーミス
584名無しさん@お腹いっぱい。 (ワッチョイ ed58-Y0tO)
2020/11/12(木) 15:33:14.43ID:so6fTjEw0 head悪くないな
髪色と長さが合えばまんま本人を作れることもある
髪色と長さが合えばまんま本人を作れることもある
585名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 17:06:43.92ID:ndk//35u0 皆学習何万回くらい回してるの?
↓くらいの前提だとして
・モデルはpretrain済み
・バッチ数は4〜6程度
・動画は3分程度
・resは256
正直自分は1日以上待てないから、10万回くらいで止めてしまうんだけども
↓くらいの前提だとして
・モデルはpretrain済み
・バッチ数は4〜6程度
・動画は3分程度
・resは256
正直自分は1日以上待てないから、10万回くらいで止めてしまうんだけども
586名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/12(木) 17:27:14.44ID:7J/LVAmJa >>585
回数じゃなくてloss値が0.2切るまでやってる
回数じゃなくてloss値が0.2切るまでやってる
587名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 18:06:54.12ID:ndk//35u0588名無しさん@お腹いっぱい。 (ワッチョイ 4b8b-WW/G)
2020/11/12(木) 18:25:20.92ID:jcKmYQVw0589名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/12(木) 19:13:45.86ID:7J/LVAmJa590名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 19:31:16.40ID:ndk//35u0591名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 19:48:04.57ID:ndk//35u0592名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/12(木) 20:06:17.98ID:7J/LVAmJa >>590
まぁスリッパ3960xとRTX3090だからね(笑)
コア数も多分速度に関係してるんだと思う。
random warpは触ったことないんだわ。
loss値が前回の保存ポイントの値より高く保存されたときが3,4回続いたら一回止めて、GAN1.0で再学習してる。
それでしばらくほっといたら2.0切ってるからこの辺で終わるか〜って感じ
まぁスリッパ3960xとRTX3090だからね(笑)
コア数も多分速度に関係してるんだと思う。
random warpは触ったことないんだわ。
loss値が前回の保存ポイントの値より高く保存されたときが3,4回続いたら一回止めて、GAN1.0で再学習してる。
それでしばらくほっといたら2.0切ってるからこの辺で終わるか〜って感じ
593名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 21:03:20.62ID:ndk//35u0 >>592
RTX3000台か、それは速いはずだね
自分は2080tiだからさすがにそれよりは時間がかかる
なるほど、ほんとにlossが横ばいになるまで待ってからGANに移ってるんだね
参考になったわ、サンクス
RTX3000台か、それは速いはずだね
自分は2080tiだからさすがにそれよりは時間がかかる
なるほど、ほんとにlossが横ばいになるまで待ってからGANに移ってるんだね
参考になったわ、サンクス
594名無しさん@お腹いっぱい。 (スップ Sd43-XMjj)
2020/11/12(木) 21:34:00.85ID:wmji4AsNd 別にGANも必須じゃないし
むしろ設定してない人の方が多そう
むしろ設定してない人の方が多そう
595名無しさん@お腹いっぱい。 (ササクッテロ Spc1-b+pk)
2020/11/12(木) 22:19:58.98ID:AqQmlTNqp 結局どの程度のもの作ってるかもお互いわからない状況での議論には無理があるよね。
596名無しさん@お腹いっぱい。 (ドコグロ MMa1-JBbW)
2020/11/12(木) 22:49:49.73ID:12MsjdEzM 一年前にもしてたような話や質問がループしてる
597名無しさん@お腹いっぱい。 (ワッチョイ 2376-NSHw)
2020/11/12(木) 22:52:07.08ID:HFQDP7H70 >>576 >>588
XsegはFANSegと違って、作者が作成したモデルは無いからTrainが必要
で、フォーラムにXsegマスク済の顔画像があるから、それをありがたく使わせてもらって、Train
それで、笛、手などは結構いけるかな。舌出しが少ないかも知れない
dstのXsegマスクも、明らかに顔の角度とかが違うコマ数枚程度Maskしてもいいらしい
dstの向かって左側の眉に、前髪とかがかかっていれば、srcの前髪Maskも兼ねるので、なお良い
で、1000回程度Xseg Trainして、モデルにアプライ
それでMergeして見て、うまくいかなかったコマとかの代表をXsegマスクして、またXseg Train
XsegはFANSegと違って、作者が作成したモデルは無いからTrainが必要
で、フォーラムにXsegマスク済の顔画像があるから、それをありがたく使わせてもらって、Train
それで、笛、手などは結構いけるかな。舌出しが少ないかも知れない
dstのXsegマスクも、明らかに顔の角度とかが違うコマ数枚程度Maskしてもいいらしい
dstの向かって左側の眉に、前髪とかがかかっていれば、srcの前髪Maskも兼ねるので、なお良い
で、1000回程度Xseg Trainして、モデルにアプライ
それでMergeして見て、うまくいかなかったコマとかの代表をXsegマスクして、またXseg Train
598名無しさん@お腹いっぱい。 (ワッチョイ 15b0-Y0tO)
2020/11/12(木) 23:19:32.68ID:CfBrJPpv0 山口偽草レベルで作りたいのですがどうやれば出来ますか?
599名無しさん@お腹いっぱい。 (ワッチョイ 4b8b-WW/G)
2020/11/12(木) 23:28:19.66ID:jcKmYQVw0 あのレベルは普通にやれば作れるよ
600名無しさん@お腹いっぱい。 (ワッチョイ 2376-NSHw)
2020/11/12(木) 23:28:42.82ID:HFQDP7H70 >>576
Xseg Trainは、(FANSeg Trainと同じく)プレビューを見ると、Random Flipしてるっぽいので、少し左/右横顔どちらでもいけるのでは?
舌出し、前髪ありdstとか優先的にMaskすれば、笛もあるでしょうし
dst×dstの学習は、顔ぶっかけとかやりたい時に、海外勢はそれで作成していたらしい
Xseg Trainは、(FANSeg Trainと同じく)プレビューを見ると、Random Flipしてるっぽいので、少し左/右横顔どちらでもいけるのでは?
舌出し、前髪ありdstとか優先的にMaskすれば、笛もあるでしょうし
dst×dstの学習は、顔ぶっかけとかやりたい時に、海外勢はそれで作成していたらしい
601名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/13(金) 14:26:58.55ID:UA22R1HH0 自分も res256でやってるけど、
loss値 0.2以下はすごいなあ 50万回以上やってもせいぜい 0.4台です
0.4台で十分精細になっていて満足いくレベルなので、res256だとこんなもんかと
思っていました
loss値 0.2以下はすごいなあ 50万回以上やってもせいぜい 0.4台です
0.4台で十分精細になっていて満足いくレベルなので、res256だとこんなもんかと
思っていました
602名無しさん@お腹いっぱい。 (ワッチョイW ed58-+2Ll)
2020/11/13(金) 14:35:51.12ID:WXQn2pAd0 0.4って何かしら間違ってると思う
603名無しさん@お腹いっぱい。 (ワッチョイ 1511-gWUl)
2020/11/13(金) 15:10:57.98ID:Rp5MH8PG0 masked_trainingやlr_dropoutのオンオフでloss値は変わるんだし
どんな設定でTrainしてるのか明記せずにloss値だけ書かれても
その数値が良いとも悪いとも言えないし参考にもできないのでは…
どんな設定でTrainしてるのか明記せずにloss値だけ書かれても
その数値が良いとも悪いとも言えないし参考にもできないのでは…
604名無しさん@お腹いっぱい。 (ガラプー KKab-9+Yv)
2020/11/13(金) 18:13:33.36ID:RtQLpPEmK むしろ解像度高い方がloss値低くでる
605名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 20:01:53.29ID:8NvZYbW40606名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 20:26:09.99ID:8NvZYbW40 最新版とか、HDアーキが無くなった代わりに、-udとかで
R/W ON→R/W OFF→lr_dropoutオンにしてくれ
それで似るとか、Loss値が下がるとか
lr_dropoutオンにできない設定だとまずいでしょう
R/W ON→R/W OFF→lr_dropoutオンにしてくれ
それで似るとか、Loss値が下がるとか
lr_dropoutオンにできない設定だとまずいでしょう
607名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/13(金) 20:54:46.03ID:UA22R1HH0 >>605
たぶん、srcの枚数が多いからだと自分では思っています 2万枚ほどあるから
そのせいかなと。
設定は df-ud wf res256 dimsは 320-96-96-22 pretrain済で
もちろんrw off ir-dropout on マスクtrain はoff(xseg-dst で十分なので)
障害物はないです。
たぶん、srcの枚数が多いからだと自分では思っています 2万枚ほどあるから
そのせいかなと。
設定は df-ud wf res256 dimsは 320-96-96-22 pretrain済で
もちろんrw off ir-dropout on マスクtrain はoff(xseg-dst で十分なので)
障害物はないです。
608名無しさん@お腹いっぱい。 (ワッチョイW 1587-8D3Z)
2020/11/13(金) 21:30:49.17ID:Cfx3dLjb0 Srcに素材追加したい場合って最初からやり直す他方法ってない感じですか?
609名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/13(金) 21:37:24.22ID:NL8RZuj70 残したいsrcのalignedのファイル名を変えるか他に移しておいて
新しいの作ったらそこに足せばいいんじゃないの
新しいの作ったらそこに足せばいいんじゃないの
610名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 23:09:40.45ID:8NvZYbW40 >>607
srcは最大でも15,000枚程度とかあったような。。
BestでSortしてはどうでしょうか?もちろんバックアップしてから
自分はsrcのフォルダにdstをコピーして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います
学習効率を上げる仮説
【初期学習】src画像/dstは適当に1枚
randomwarp/learningmask/lrdropout/trueface等はOFFにして処理速度を上げる
ある程度(数万回?)trainする
【本番】dst画像を作りたいものにして通常trainする
これをsrcごとに行ってそれぞれの学習を進めていく
srcは最大でも15,000枚程度とかあったような。。
BestでSortしてはどうでしょうか?もちろんバックアップしてから
自分はsrcのフォルダにdstをコピーして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います
学習効率を上げる仮説
【初期学習】src画像/dstは適当に1枚
randomwarp/learningmask/lrdropout/trueface等はOFFにして処理速度を上げる
ある程度(数万回?)trainする
【本番】dst画像を作りたいものにして通常trainする
これをsrcごとに行ってそれぞれの学習を進めていく
611名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 23:15:06.67ID:8NvZYbW40 >>607
wfと言う事は、Xseg Train必須とかありましたね
srcの前髪、おでこのMaskが少なくて、XsegモデルのTrain不足とか?
Xsegモデルを5.XSeg) data_src trained mask - apply.batするとか?
wfと言う事は、Xseg Train必須とかありましたね
srcの前髪、おでこのMaskが少なくて、XsegモデルのTrain不足とか?
Xsegモデルを5.XSeg) data_src trained mask - apply.batするとか?
612名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/13(金) 23:30:25.90ID:UA22R1HH0 >>610,611
ありがとうございます。
srcはなにもソートせず、順番考えず、そのまま使っているので(もちろん、障害物や、
ぼけているやつや、ミスっている不要なのは削除済)
確かにそのせいかもしれませんね。整理してやってみます。
xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
流用するやりかたをしているので結果としては十分にマスクできているのですが、
今のdstモデルではトレーニングしてないことになるので確かにそれもあるかも
しれないなあ。
ありがとうございます。
srcはなにもソートせず、順番考えず、そのまま使っているので(もちろん、障害物や、
ぼけているやつや、ミスっている不要なのは削除済)
確かにそのせいかもしれませんね。整理してやってみます。
xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
流用するやりかたをしているので結果としては十分にマスクできているのですが、
今のdstモデルではトレーニングしてないことになるので確かにそれもあるかも
しれないなあ。
613名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 23:57:15.29ID:8NvZYbW40 >>612
ぬぬ。。
SAEHD_default_options.dat→XSeg_default_options.dat
SAEHD_data.dat→XSeg_data.dat
SAEHD_src_dst_opt→XSeg_256_opt.npy
SAEHD_inter_AB.npy→XSeg_256.npyまたは
SAEHD_decoder_dst.npy→XSeg_256.npy
って事?
ぬぬ。。
SAEHD_default_options.dat→XSeg_default_options.dat
SAEHD_data.dat→XSeg_data.dat
SAEHD_src_dst_opt→XSeg_256_opt.npy
SAEHD_inter_AB.npy→XSeg_256.npyまたは
SAEHD_decoder_dst.npy→XSeg_256.npy
って事?
614名無しさん@お腹いっぱい。 (ワッチョイW 45b1-gCq8)
2020/11/14(土) 00:02:11.48ID:vlduy/VD0 masked_trainingがoffだとプレビュー画面で見えてる四角内の全部(顔+背景)が学習対象になって、loss値の評価も四角内全部になるから絶対値が大きくでる、っていうことじゃないかな?
自分も経験してるけど、間違ってたらごめんなさい
自分も経験してるけど、間違ってたらごめんなさい
615名無しさん@お腹いっぱい。 (テテンテンテン MM4b-8D3Z)
2020/11/14(土) 00:21:24.16ID:WRZK6oIIM Dstマニュアル顔抽出で2つの顔指定することってできない?vrで片方の顔だけ自動抽出できなかった時に手動で治したいだが片方しか選択できない
616名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 00:53:13.09ID:NPdvuDuD0 masked_trainingがoff/on切り替えられる昔の版で、Onにしておかないと
最新版とかではmasked_trainingがOnにならない(モデル流用時)
新規モデル作成とかだと、無条件でOnになるはず
masked_trainingがOffのままだとまずいのでは?
旧版持っていないですか?
最新版とかではmasked_trainingがOnにならない(モデル流用時)
新規モデル作成とかだと、無条件でOnになるはず
masked_trainingがOffのままだとまずいのでは?
旧版持っていないですか?
617名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 00:55:38.11ID:NPdvuDuD0 昔、dfhdとかでやっていたので、df-ud、liae-udで無条件に新規Trainしましたね
618名無しさん@お腹いっぱい。 (ワッチョイW e5bd-PC2A)
2020/11/14(土) 01:00:01.64ID:mNQWW0LX0 DFL RTX 3000 Testが動かんくなった
Readyドライバー入れたくらいだけど原因それかな?
戻しても全然始まらんようなった
Readyドライバー入れたくらいだけど原因それかな?
戻しても全然始まらんようなった
619名無しさん@お腹いっぱい。 (ワッチョイ 1511-D0pj)
2020/11/14(土) 02:13:49.31ID:D0wIq4X20 最新版でもwfとheadはmasked_training好きにオンオフ設定できるよ。
自分はdstの顔の輪郭内に収める時は最後までmasked_trainingオンで回して
輪郭も修正したい時は学習が進んだ最後の方でオフにしてる。
自分はdstの顔の輪郭内に収める時は最後までmasked_trainingオンで回して
輪郭も修正したい時は学習が進んだ最後の方でオフにしてる。
620名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 02:33:14.42ID:NPdvuDuD0 >>612
aligned_xsegフォルダを、dst、srcフォルダの下に置いておけばいいのかな?
> xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
> 流用するやりかた
どゆこと?
aligned_xsegフォルダを、dst、srcフォルダの下に置いておけばいいのかな?
> xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
> 流用するやりかた
どゆこと?
621名無しさん@お腹いっぱい。 (オイコラミネオ MM71-Sff7)
2020/11/14(土) 06:51:24.74ID:9omkxdvPM whole faceとfull faceとheadって出来にどういう変化が出るんですか?
とりあえずwhole faceでOK?
とりあえずwhole faceでOK?
622名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/14(土) 11:58:08.44ID:X0aFYZBAa >>621
自分の体感だとheadがやっぱり一番違和感なく顔作れると思う。前髪ありdstでもけっこう自然にsrcに入れ替えられてる
自分の体感だとheadがやっぱり一番違和感なく顔作れると思う。前髪ありdstでもけっこう自然にsrcに入れ替えられてる
623名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/14(土) 13:01:47.18ID:AYNVyRpj0624名無しさん@お腹いっぱい。 (ワッチョイW 45b1-gCq8)
2020/11/14(土) 14:03:07.91ID:vlduy/VD0 日本人モデル向けに眉下で設定したX-segテンプレートほすぃ
625名無しさん@お腹いっぱい。 (ワッチョイ d558-Y0tO)
2020/11/14(土) 14:11:46.64ID:jFF2g3zy0 modelもそうだけどxsegがeditされたaligend画像が欲しいわ
フォーラム見たけどそれだけまとまってるのは見当たらなかった
翻訳しながらだから見つけられてないだけかもしれないけど
フォーラム見たけどそれだけまとまってるのは見当たらなかった
翻訳しながらだから見つけられてないだけかもしれないけど
626名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/14(土) 15:56:18.81ID:AYNVyRpj0 すまん、説明がわるかったかもしれません。
xsegモデルの件だけど、まさにそのeditされたaligned画像があったはず
2.1 [SFW] [NSFW] [GUIDE] [SHARING] - DFL 2.0 XSEG MODEL GUIDE AND SHARING THREAD
にあると思うんだけど。
xsegモデルの件だけど、まさにそのeditされたaligned画像があったはず
2.1 [SFW] [NSFW] [GUIDE] [SHARING] - DFL 2.0 XSEG MODEL GUIDE AND SHARING THREAD
にあると思うんだけど。
627名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 20:04:19.37ID:NPdvuDuD0628名無しさん@お腹いっぱい。 (ドコグロ MM93-JBbW)
2020/11/15(日) 07:59:48.94ID:C81wlwlYM 素材スレがスレストされてるな
サポートセンターみたいな真似してると此処もやばいんじゃね
更新や動作環境の話までに留めておけよ
サポートセンターみたいな真似してると此処もやばいんじゃね
更新や動作環境の話までに留めておけよ
629名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/15(日) 09:03:15.43ID:9qR/gwXk0 芸能人や女優の名前を書いてただけでアウトだから内容はあんま関係ないな
おそらくdeepfakeってスレタイで消すか決めてる
おそらくdeepfakeってスレタイで消すか決めてる
630名無しさん@お腹いっぱい。 (ワッチョイ 45e8-Y0tO)
2020/11/15(日) 14:51:32.00ID:27B76vsy0 全く問題ないんだけどもう少し目立たないスレタイにしろって事かもな
631名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/15(日) 17:10:10.48ID:CodO+bBb0 【AIコラ】fakeappはまずいと思う
DFLとか略語では?
Google検索にひっかかるけど、上位は関係無いものばかり
DFLとか略語では?
Google検索にひっかかるけど、上位は関係無いものばかり
632名無しさん@お腹いっぱい。 (ワッチョイ 4b8b-Bt6w)
2020/11/15(日) 17:15:11.59ID:r68Ev+9W0 Deepfake総合はスレストだけど新スレ立てたな
633名無しさん@お腹いっぱい。 (ドコグロ MM43-JBbW)
2020/11/15(日) 21:43:56.55ID:G1vVHissM 最初に停められたのは半角の技術スレな
コラの普及に5chを使われるのが嫌なんだろうから
此処で解説や相談はしない方がいい
コラの普及に5chを使われるのが嫌なんだろうから
此処で解説や相談はしない方がいい
634名無しさん@お腹いっぱい。 (スプッッ Sda1-bcYd)
2020/11/16(月) 01:49:51.49ID:Rmd0qmVxd 目立つとかそういうことではなくて、10月から施行された改正著作権法でリーチサイト問題が発生したから、問題あるサイトへのリンクを貼りまくる所が閉鎖されてると聞いてるが…
(書いた本人ではなくて、サイトが罰則を受ける)
半角はそういうサイトへのリンクを貼りまくってる所だから、板ごと閉鎖。スレの問題では無いでしょ。
「成果物」や「素材です」とか言って著作権違反物にリンクを貼ったらアウトだと思うよ。
(書いた本人ではなくて、サイトが罰則を受ける)
半角はそういうサイトへのリンクを貼りまくってる所だから、板ごと閉鎖。スレの問題では無いでしょ。
「成果物」や「素材です」とか言って著作権違反物にリンクを貼ったらアウトだと思うよ。
635名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/16(月) 11:04:23.47ID:3RMvypG00 技術スレも素材スレもそんなことしてなかったろ
636名無しさん@お腹いっぱい。 (ワッチョイW c574-xcA9)
2020/11/16(月) 16:56:16.74ID:Hp9O4PSG0 5chも簡単に日本の法律に従うようになったんか?
637名無しさん@お腹いっぱい。 (ワッチョイ 2311-+Iwg)
2020/11/16(月) 18:56:10.10ID:r3IEqbqg0 私日本人ニダ
うそじゃないニダ
うそじゃないニダ
638名無しさん@お腹いっぱい。 (ワッチョイ dd06-dT/H)
2020/11/16(月) 19:49:22.39ID:TeQkIxXY0 まだFansegバージョンのままでXsegに移行してないのですが
Xsegって、他の人がtrainしたXsegモデルをもらってコピペすれば使い回しできるようですが
そのXsegモデルが顔前の障害物を十分trainされたものなら、再tranせずにdstにいきなりapplyするだけで
それなりのマスクが適用されるのでしょうか?
またsrc・dstをすでに f でtrainしている場合に、wf のXsegモデルって使えるのでしょうか?
よろしくお願いします
Xsegって、他の人がtrainしたXsegモデルをもらってコピペすれば使い回しできるようですが
そのXsegモデルが顔前の障害物を十分trainされたものなら、再tranせずにdstにいきなりapplyするだけで
それなりのマスクが適用されるのでしょうか?
またsrc・dstをすでに f でtrainしている場合に、wf のXsegモデルって使えるのでしょうか?
よろしくお願いします
639名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/16(月) 20:16:30.58ID:Nq1ILe+O0 mercury.bbspink.comだと大丈夫とか?
640名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/16(月) 22:00:04.45ID:Nq1ILe+O0641名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/16(月) 22:14:16.38ID:tpAMToL/0 学習させてて、人間の目から見たら目立つとこが超最後の方でしか学習されないことあるよね
全体の肌の質感は面積が広いから学習遅くても仕方ないとして、まつ毛と唇の光沢の学習の遅さが毎回気になる
特に唇の光沢が弱いとのっぺりするから優先的に学習してもらいたい
全体の肌の質感は面積が広いから学習遅くても仕方ないとして、まつ毛と唇の光沢の学習の遅さが毎回気になる
特に唇の光沢が弱いとのっぺりするから優先的に学習してもらいたい
642名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/16(月) 22:16:40.84ID:tpAMToL/0 単にピクセル誤差を埋めるように学習するんじゃなくて、人間の目から見て重要なとこを
優先して学習するような仕組みをDFLにも取り込んでほしい
優先して学習するような仕組みをDFLにも取り込んでほしい
643名無しさん@お腹いっぱい。 (ワッチョイW 75b1-b+pk)
2020/11/16(月) 23:36:01.49ID:jbH/9GP+0 eye priority改造すれば出来るよ
644名無しさん@お腹いっぱい。 (ブーイモ MM69-kS8p)
2020/11/17(火) 12:11:41.91ID:Grit+M++M それも大事だけど目鼻口の相対位置を反映させる機能があれば革命的に良くなるのになぁ。
645名無しさん@お腹いっぱい。 (ワッチョイ ab15-NOUc)
2020/11/18(水) 08:36:41.57ID:gzVfzjLt0 今までフェイスタイプをfullで利用しておりWHOLEに挑戦してみようと思いまして。
6) train SAEHDの設定画面でフェイスタイプをfullからWHOLEに変更するにはどうしたらしたらいいんでしょうか?
ちなみにDSTとSRCはWHOLE用に細工はしています
一度FULLでやったら変えれないんでしょうか?
6) train SAEHDの設定画面でフェイスタイプをfullからWHOLEに変更するにはどうしたらしたらいいんでしょうか?
ちなみにDSTとSRCはWHOLE用に細工はしています
一度FULLでやったら変えれないんでしょうか?
646名無しさん@お腹いっぱい。 (テテンテンテン MM8e-7H2D)
2020/11/18(水) 09:08:15.36ID:l4KupGxiM facetypeってmodel毎に持ってて初回しか設定出来なくない?
もし変えたかったら新規で作るしかないのかな
もし変えたかったら新規で作るしかないのかな
647名無しさん@お腹いっぱい。 (ワッチョイ a7d7-8i2i)
2020/11/18(水) 10:50:51.58ID:u2Pu6V/j0 まずはwhole feceでextractし直さなきゃ
srcもdstも両方とも
modelも新規に作成してfece typeを選択
pretrain済みのものを拾ってきて利用してもいいけど
srcもdstも両方とも
modelも新規に作成してfece typeを選択
pretrain済みのものを拾ってきて利用してもいいけど
648名無しさん@お腹いっぱい。 (ワッチョイ 068b-jfI9)
2020/11/18(水) 18:32:48.85ID:A7yZYkB10 whole faceは日本人には意味ないって言われて、やったこと無いな
649名無しさん@お腹いっぱい。 (ワッチョイW 4b58-Cu+U)
2020/11/19(木) 00:06:05.88ID:f+2ePRJM0 何時間もCPU&GPU100%で放っておくとすぐPCぶっ壊れそうで怖いな
650名無しさん@お腹いっぱい。 (ワッチョイW 12b8-qjTi)
2020/11/19(木) 01:22:39.91ID:Xe+MizZI0 確か、fullでやっとけばそれより狭い範囲は共用できたでしょ。つまり全部fullでやっとけってこと。
651名無しさん@お腹いっぱい。 (ワッチョイ cf58-b6az)
2020/11/19(木) 02:12:53.98ID:Ml9LICjg0 範囲で言えば
head > whole > full
だぞ
head > whole > full
だぞ
652名無しさん@お腹いっぱい。 (ワッチョイW ab6d-wIQ9)
2020/11/19(木) 07:17:05.73ID:OJ4dRZrc0 >>649
この時期で壊れるなら熱排気が駄目すぎだろ
この時期で壊れるなら熱排気が駄目すぎだろ
653名無しさん@お腹いっぱい。 (ワッチョイ 57b1-cChY)
2020/11/19(木) 08:47:22.71ID:ZzKVxBnn0 RTXは3000のbuildあるけど、RX6800XTも対応したbuild出ないと使えないんかな
あの値段でVRAM16GMは魅力だから欲しいんだが
あの値段でVRAM16GMは魅力だから欲しいんだが
654名無しさん@お腹いっぱい。 (アウアウウー Sa3b-wIQ9)
2020/11/19(木) 13:38:01.85ID:0jxmCp95a655名無しさん@お腹いっぱい。 (アウアウウー Sa3b-Ocry)
2020/11/19(木) 14:30:26.24ID:lLT8dCJ1a もうAI系のソフトにRADEONは使えないだろうなぁ
Video enhance AIもRTXの方が速いし
Video enhance AIもRTXの方が速いし
656名無しさん@お腹いっぱい。 (ワッチョイ b2ad-bQi2)
2020/11/19(木) 15:27:49.81ID:8IaFnpzN0 アイドルも被害「ディープフェイク」まとめサイト管理人を逮捕。芸能団体は「違法なまとめ行為」を批判
https://news.yahoo.co.jp/articles/84edf77306b0e6385ed1819b60b1ca5a4262c839?page=1
まとめサイトにリンクを載せてた管理人が逮捕だって。
損害賠償金もアダルト業界+芸能事務所から来る可能性あるから金額えぐいだろうね。
https://news.yahoo.co.jp/articles/84edf77306b0e6385ed1819b60b1ca5a4262c839?page=1
まとめサイトにリンクを載せてた管理人が逮捕だって。
損害賠償金もアダルト業界+芸能事務所から来る可能性あるから金額えぐいだろうね。
657名無しさん@お腹いっぱい。 (ワッチョイW a376-9fGJ)
2020/11/19(木) 15:49:30.49ID:IB1CtEPv0 >>656
これがダメなら袋とじで紹介してた男性誌はどうなるんだよ
これがダメなら袋とじで紹介してた男性誌はどうなるんだよ
658名無しさん@お腹いっぱい。 (ワッチョイ 8269-Ci24)
2020/11/19(木) 16:16:37.33ID:wOOG4ccP0 今もやってるの?
659名無しさん@お腹いっぱい。 (ガラプー KK9e-yb3V)
2020/11/19(木) 16:33:41.42ID:vzLkvPa4K CPUの多コア化が加速してるし、またopenCL対応しないかな
660名無しさん@お腹いっぱい。 (ワイモマー MM02-VuZ6)
2020/11/19(木) 16:48:54.67ID:EUOL35N5M >捜査幹部は「作ることも拡散することも許されない。摘発を続けて被害を防ぎたい」としている。
ttps://www.asahi.com/articles/ASNCM3RKRNCKUTIL059.html?iref=com_latestnews_01
作るのもだめだってさ
ttps://www.asahi.com/articles/ASNCM3RKRNCKUTIL059.html?iref=com_latestnews_01
作るのもだめだってさ
661名無しさん@お腹いっぱい。 (ワッチョイ 5fb1-Cs4+)
2020/11/19(木) 18:00:34.39ID:oG9CaZVK0 国家の無知っぷりがやばいな
こんなもん誰が見てもフェイクバレバレなのに
「違和感なし」とか「本人そのもの」とかAVの売り文句みたいなのだけ聴いて
悪用されたらめっちゃやべえ技術じゃんとかジジイ達は本気で思ってるんだろうな
こんなもん誰が見てもフェイクバレバレなのに
「違和感なし」とか「本人そのもの」とかAVの売り文句みたいなのだけ聴いて
悪用されたらめっちゃやべえ技術じゃんとかジジイ達は本気で思ってるんだろうな
662名無しさん@お腹いっぱい。 (ワッチョイ 57b1-cChY)
2020/11/19(木) 18:19:06.07ID:ZzKVxBnn0663名無しさん@お腹いっぱい。 (ワッチョイ 6211-bmON)
2020/11/19(木) 20:52:36.94ID:9O2De+ee0 むしろ国は利用する方なのにな、証拠捏造で誰でも有罪にできる
664名無しさん@お腹いっぱい。 (HappyBirthday! cff1-cChY)
2020/11/20(金) 05:18:47.41ID:MxJta4TS0HAPPY 1080tiを2000系とか3000系に替えたとして現状のDFLでパフォーマンス差ってどのくらいなんだろう。
665名無しさん@お腹いっぱい。 (HappyBirthday! e2b0-b6az)
2020/11/20(金) 11:48:21.63ID:3T8qBovt0HAPPY 雲泥の差
666名無しさん@お腹いっぱい。 (HappyBirthday! Sa3b-Ocry)
2020/11/20(金) 12:40:08.29ID:eQ69zOVfaHAPPY667名無しさん@お腹いっぱい。 (HappyBirthday!W ffc9-CRcG)
2020/11/20(金) 12:48:40.78ID:1hwNZ+iS0HAPPY668名無しさん@お腹いっぱい。 (HappyBirthday! Sa3b-wIQ9)
2020/11/20(金) 12:51:17.00ID:O0M8yLpbaHAPPY まあ寝ている間に学習させているから、倍といっても二十万だす気にはならんなあ
しばらく2080tiでいこうかな
しばらく2080tiでいこうかな
669名無しさん@お腹いっぱい。 (HappyBirthday! 4b58-b6az)
2020/11/20(金) 16:53:29.34ID:+1mqpxsf0HAPPY670名無しさん@お腹いっぱい。 (HappyBirthday! 5fb1-Cs4+)
2020/11/20(金) 19:53:48.60ID:dskYLWZA0HAPPY これはいけると思っても微妙に似てない
マッチング難しい・・・
マッチング難しい・・・
671名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
2020/11/20(金) 21:22:18.95ID:28OLAj410HAPPY >>651
ごめんheadの間違い
ごめんheadの間違い
672名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
2020/11/20(金) 21:24:19.25ID:28OLAj410HAPPY ところで、3000シリーズの3Dベンチマークスコアだと
メモリクロックも重要になるって話を聞いたけど(VRAMじゃない普通のメモリね)
DFLも影響するかな。
わかる人いる?
メモリクロックも重要になるって話を聞いたけど(VRAMじゃない普通のメモリね)
DFLも影響するかな。
わかる人いる?
673名無しさん@お腹いっぱい。 (HappyBirthday! e2b0-b6az)
2020/11/20(金) 21:50:28.64ID:lXV7QsNn0HAPPY なんで影響あると思ったの?
674名無しさん@お腹いっぱい。 (ワッチョイW 12b8-qjTi)
2020/11/21(土) 00:42:20.95ID:lLtl/hBb0 3000シリーズの性能高いから安いメモリだと足引っ張るかもと思った。根拠はない。
675名無しさん@お腹いっぱい。 (ワッチョイW cf58-r+GL)
2020/11/22(日) 07:07:48.29ID:g0BUD64r0 繋がり眉毛問題だけどsrcの前髪が眉にかかってる画像だけxsegで髪のかからない部分をマスクしてtrainすれば解消する?
676名無しさん@お腹いっぱい。 (ワッチョイ 6276-cChY)
2020/11/22(日) 07:38:06.54ID:EgGZuU2e0 dst×dstの学習で有効なのはliae-hdとかみたい
df-hdだと前髪の残骸の黒い物が。。
df-hdだと前髪の残骸の黒い物が。。
677名無しさん@お腹いっぱい。 (ワッチョイW 9773-7H2D)
2020/11/22(日) 09:37:08.41ID:CPUrfaaZ0 いつもres192liae-hdでやってて初めてliae-uhd使ってみたんだけど全然loss値下がらん
時間も0.7msec/Iterくらいでいつもの倍くらいかかる
300kくらい回してやっと落ち着いてきたから一旦LRD trueにしてみたらbatch size2でもtrainスタート出来ず
DDR4 2666 32GB,i9-9900k,2080tiだけどGPUがボトルネックっぽい
どんな環境ならliae-uhd使いこなせるんですかね
時間も0.7msec/Iterくらいでいつもの倍くらいかかる
300kくらい回してやっと落ち着いてきたから一旦LRD trueにしてみたらbatch size2でもtrainスタート出来ず
DDR4 2666 32GB,i9-9900k,2080tiだけどGPUがボトルネックっぽい
どんな環境ならliae-uhd使いこなせるんですかね
678名無しさん@お腹いっぱい。 (ワッチョイ 068b-jfI9)
2020/11/22(日) 10:43:03.92ID:Qe8FXRgo0 最新のでliae-udにしてみたらどうだろう
679名無しさん@お腹いっぱい。 (ブーイモ MM13-Vt99)
2020/11/24(火) 23:01:35.36ID:3+PulNcVM 色々要求するとVRAMが足らないよなliae系はかなり食うし
680名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/11/25(水) 19:16:18.38ID:CuXZwmIx0 素材スレのうなってもうた…
貞松大輔に対するグチやsrcに合う話題はどこですれば
貞松大輔に対するグチやsrcに合う話題はどこですれば
681名無しさん@お腹いっぱい。 (ワッチョイW 1774-3++/)
2020/11/25(水) 19:27:40.19ID:3+9detNx0 なんか新しいアルゴリズムのアイデアないのかね
今のアルゴリズムでマシンパワーでごり押しするしかないのか
今のアルゴリズムでマシンパワーでごり押しするしかないのか
682名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/11/25(水) 19:55:42.12ID:CuXZwmIx0 ゆうてCPU大事だし、fullHDならres192batch8で十分 それ以上はオーバースペック
683名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/28(土) 12:48:32.85ID:hCIJHXj40 5600x RTX3070で顔抽出が2.0 it/s程度しか出ないけどこんなもん?
image sizeが768なのがダメなのかなぁ?
768→256程度に落とせば 速度は上がる気がするけど間違ってる?
設定入れるときに適当にENTER連打してたから768になってるけど
出来上がりに大して差がないなら256ぐらいに落としてもう一度回した方が良いのかな?
image sizeが768なのがダメなのかなぁ?
768→256程度に落とせば 速度は上がる気がするけど間違ってる?
設定入れるときに適当にENTER連打してたから768になってるけど
出来上がりに大して差がないなら256ぐらいに落としてもう一度回した方が良いのかな?
684名無しさん@お腹いっぱい。 (ワッチョイ ff90-W5Mj)
2020/11/28(土) 15:47:04.81ID:1wNVnHgm0 始めたばっかりの頃に持ってたGPUは微妙だったので、設定を解像度128、バッチ8、DFでやってたんだけど、
その後もうちょっといいGPUに変えて、解像度が夢の256でできるようになったのでもっと高画質でいけるだろうと思っていたが、
(バッチは4、DF)、解像度128のを最後のマージでスーパーレゾリューション?って数字をあげれば最終的に高解像度の顔になるから、
あんまり最初の解像度って関係ないんかなとおもったけど、どうなんでしょう?
解像度、バッチ、アーキテクチャーってのは、動く範囲内で取捨選択しないといけないけど、どれ優先が一番いいんでしょうね?
ちなみに、最近つくったモデルは、解像度128、バッチ4、liaeで、なんかこれが一番いいのではないかと思っていますが。
この設定は途中で替えれないから、最初にどれが最適か決めなきゃいけないから皆さんの意見が聞きたいです。
その後もうちょっといいGPUに変えて、解像度が夢の256でできるようになったのでもっと高画質でいけるだろうと思っていたが、
(バッチは4、DF)、解像度128のを最後のマージでスーパーレゾリューション?って数字をあげれば最終的に高解像度の顔になるから、
あんまり最初の解像度って関係ないんかなとおもったけど、どうなんでしょう?
解像度、バッチ、アーキテクチャーってのは、動く範囲内で取捨選択しないといけないけど、どれ優先が一番いいんでしょうね?
ちなみに、最近つくったモデルは、解像度128、バッチ4、liaeで、なんかこれが一番いいのではないかと思っていますが。
この設定は途中で替えれないから、最初にどれが最適か決めなきゃいけないから皆さんの意見が聞きたいです。
685名無しさん@お腹いっぱい。 (ワッチョイ 77d2-lhmq)
2020/11/29(日) 09:37:22.70ID:mhSRYID90 2070super8G、Re256、B9、Liae-udで安定
使いまわしModelを48時間まわして0.2くらい
使いまわしModelを48時間まわして0.2くらい
686名無しさん@お腹いっぱい。 (ニククエ bf73-iIvg)
2020/11/29(日) 14:06:50.34ID:Tpam6OoK0NIKU その設定だと相当dims下げないと動かなくね
687名無しさん@お腹いっぱい。 (ニククエW 9773-VJkO)
2020/11/29(日) 14:40:14.96ID:p18Ce+C00NIKU res160-liae-dims512-batch8
RWtrueで0.5切ったらfalse→0.2切ったらLRDtrue→0.1切るまでtrain
mergeする時はbmmだけ150でcolorはrctかlct
maskはlearned-prd*learned-dst*Xseg-prd*Xseg-dst
これでなんとなくうまくいってる
所々怪しいけど誰に見せるでもないし必要十分かな
RWtrueで0.5切ったらfalse→0.2切ったらLRDtrue→0.1切るまでtrain
mergeする時はbmmだけ150でcolorはrctかlct
maskはlearned-prd*learned-dst*Xseg-prd*Xseg-dst
これでなんとなくうまくいってる
所々怪しいけど誰に見せるでもないし必要十分かな
688名無しさん@お腹いっぱい。 (ニククエW 57b1-b0Bn)
2020/11/29(日) 18:30:10.78ID:f9hYXlTt0NIKU df-ud wholeface res386 batch3 VRAM8G
で満足してるのは少数派なのか。
で満足してるのは少数派なのか。
689名無しさん@お腹いっぱい。 (ニククエW 57c9-xWvL)
2020/11/29(日) 18:51:05.76ID:7ob5oBlS0NIKU 386はなんか気持ち悪いから少数派だろうな
690名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
2020/11/29(日) 19:40:56.83ID:bnfTaNH00NIKU 32で割り切れる数字じゃなきゃダメだと聞いたが、そんな適当な数字でも動くんだね
ちゃんと動いてるのかどうかは知らんけど
ちゃんと動いてるのかどうかは知らんけど
691名無しさん@お腹いっぱい。 (ニククエ d758-P4WK)
2020/11/29(日) 20:30:44.81ID:RoG3tSlB0NIKU 32で割り切れるじゃなくて2の累乗だな
692名無しさん@お腹いっぱい。 (ニククエW 57b1-b0Bn)
2020/11/29(日) 20:42:58.89ID:f9hYXlTt0NIKU 384の間違いだったw
693名無しさん@お腹いっぱい。 (ニククエ 777b-P4WK)
2020/11/29(日) 20:48:21.82ID:1/zEu/6p0NIKU PCオール換装ついでにDFL入れて試してみたけど要求するスペック、時間、負荷
どれも他のエロ技術とは格段に違い過ぎて悪い意味でハードル高いわ
PC購入費は除外したとして、自分の5600x RTX3070の構成だと20万回回すのにおよそ24時間
画像の吸出し+選別作業含めると+6時間はかかる
およそ3分程度の動画ですら 作成に30時間
モザイク破壊なら3000シリーズ動かないけど、2080なら2時間作品で6時間もあれば完成
高画質化なら2時間作品で24時間もあればいける
加えてSSDへのダメージ量もぶっちぎりでDFLが食うし
上記の1作品2時間にした場合の電気代はDFL9,600円 破壊なら60円、高画質化なら240円ぐらいになるの考えると
本当にコイツじゃないとダメなんだと思うぐらい入れ込んでる顔がないと、かなりやり続けるにはハードル高いわ
なれた人なら自分の1/10ぐらいにそれぞれの負荷減らせるもんなのかなぁ?
どれも他のエロ技術とは格段に違い過ぎて悪い意味でハードル高いわ
PC購入費は除外したとして、自分の5600x RTX3070の構成だと20万回回すのにおよそ24時間
画像の吸出し+選別作業含めると+6時間はかかる
およそ3分程度の動画ですら 作成に30時間
モザイク破壊なら3000シリーズ動かないけど、2080なら2時間作品で6時間もあれば完成
高画質化なら2時間作品で24時間もあればいける
加えてSSDへのダメージ量もぶっちぎりでDFLが食うし
上記の1作品2時間にした場合の電気代はDFL9,600円 破壊なら60円、高画質化なら240円ぐらいになるの考えると
本当にコイツじゃないとダメなんだと思うぐらい入れ込んでる顔がないと、かなりやり続けるにはハードル高いわ
なれた人なら自分の1/10ぐらいにそれぞれの負荷減らせるもんなのかなぁ?
694名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
2020/11/29(日) 21:35:15.32ID:bnfTaNH00NIKU コスト考えてるようじゃダメだよ
ディープフェイクはプライスレス
ディープフェイクはプライスレス
695名無しさん@お腹いっぱい。 (ニククエ MMbf-WCF9)
2020/11/29(日) 21:45:03.70ID:fJO2wTOfMNIKU Colab Proでいいじゃない
696名無しさん@お腹いっぱい。 (ニククエ Sa5b-K3Z5)
2020/11/29(日) 22:08:29.54ID:E4IbaFhJaNIKU697名無しさん@お腹いっぱい。 (アウアウクー MMcb-DT36)
2020/11/30(月) 01:17:07.65ID:hJyLAQ15M colabとか言うまた凄い技術があるんだなぁ
これならノートの低電力PCで動かせるし
結構なハイスペ割り当てられるから良さそうだが
どのGPU割り当てられるかによって動かすコード変わりそうなのと
コード少しはかけるレベルと米国居住の関門も突破する必要有るのが難易度高いわ
それクリアできる人なら電気代の観点や
騒音と廃熱、機器損傷の問題もクリア出来るし
自分のメインをゲームなり他のエンコにまわせるのもメリットデカイ
これならノートの低電力PCで動かせるし
結構なハイスペ割り当てられるから良さそうだが
どのGPU割り当てられるかによって動かすコード変わりそうなのと
コード少しはかけるレベルと米国居住の関門も突破する必要有るのが難易度高いわ
それクリアできる人なら電気代の観点や
騒音と廃熱、機器損傷の問題もクリア出来るし
自分のメインをゲームなり他のエンコにまわせるのもメリットデカイ
698名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/11/30(月) 01:24:54.45ID:Vu2EyZLO0 どこぞのメンバー全員とか変に欲張ったりしなけりゃそんなtrainに時間取られたりしないでしょ
699名無しさん@お腹いっぱい。 (ワッチョイW 57c9-fKCL)
2020/11/30(月) 01:57:13.02ID:L3Lssn020 colabは遅い
そもそもリソース限られてるんだから話してるやつは自分の首閉めてるのわからん?
そもそもリソース限られてるんだから話してるやつは自分の首閉めてるのわからん?
700名無しさん@お腹いっぱい。 (ワッチョイW 57c9-fKCL)
2020/11/30(月) 02:09:32.60ID:L3Lssn020701名無しさん@お腹いっぱい。 (ワッチョイW 17b1-nc77)
2020/11/30(月) 02:11:47.16ID:xmdANFb70 NY州の郵便番号調べて適当に入力したら契約できちゃったよ、Pro版(笑)
702名無しさん@お腹いっぱい。 (ワッチョイW 9f11-fF0a)
2020/11/30(月) 05:01:42.25ID:0SW/Bk/M0 解約できなくて泣くところまでセット
703名無しさん@お腹いっぱい。 (アウアウクー MMcb-JW44)
2020/11/30(月) 12:34:45.75ID:koWoITJ/M dstもsrcも自分で選べて本人にしか見えない物が作れるんだから、マシン費用、train時間、電気代etc気にならない
いい時代になったもんだ
いい時代になったもんだ
704名無しさん@お腹いっぱい。 (ワッチョイ d711-kGov)
2020/11/30(月) 15:03:51.28ID:NZ34c/SY0 ミスターディープフェイクの動画がDLできんのだが・・・
ワシさんのダウンローダー使ってたら今までは出来たんだけど
間違って拡張機能から削除しちゃったら
再インストールする時にもう拡張機能ストアにはないって出てきて困ってる
暗号化された分割動画ファイルが落とせるアドオン他にない?
それか昔のバージョンのワシのダウンローダー置いてあるところない?
お願いします
ワシさんのダウンローダー使ってたら今までは出来たんだけど
間違って拡張機能から削除しちゃったら
再インストールする時にもう拡張機能ストアにはないって出てきて困ってる
暗号化された分割動画ファイルが落とせるアドオン他にない?
それか昔のバージョンのワシのダウンローダー置いてあるところない?
お願いします
705名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/30(月) 19:04:08.40ID:mavPp4f10 初めてやってみたけど化け物しか産まれなかったわ
26万回しても0.40を下回ること無かったってことはsrc側が悪いのかdstをほぼ取捨選択しなかったらからなのか
変換されてない表情もあったりした
20万回以降は0.4以降全く下がらなかった
srcは一応ブレてる画像は取り除いたつもりで抽出15000→7000枚程度にした
しかしマスク等は一切編集しておらず、前髪が少し被ってるのとかは除外しなかった
dstに関してはあまり取捨選択しなかったがぱっと見で分かるブレ画像のみ取り除いた
これで結局化け物しか産まれなかった
dst側は取り除いた部分があることについて逆に顔が変換されない時間帯があるのでは?と感じた
0.1や0.2に切るくらいに持っていける人は徹底的にマスク処理してるのかな??
26万回しても0.40を下回ること無かったってことはsrc側が悪いのかdstをほぼ取捨選択しなかったらからなのか
変換されてない表情もあったりした
20万回以降は0.4以降全く下がらなかった
srcは一応ブレてる画像は取り除いたつもりで抽出15000→7000枚程度にした
しかしマスク等は一切編集しておらず、前髪が少し被ってるのとかは除外しなかった
dstに関してはあまり取捨選択しなかったがぱっと見で分かるブレ画像のみ取り除いた
これで結局化け物しか産まれなかった
dst側は取り除いた部分があることについて逆に顔が変換されない時間帯があるのでは?と感じた
0.1や0.2に切るくらいに持っていける人は徹底的にマスク処理してるのかな??
706名無しさん@お腹いっぱい。 (ワッチョイ ff8b-3i1O)
2020/11/30(月) 19:08:56.11ID:JxNmtT260 なんでdstを取り除いた
707名無しさん@お腹いっぱい。 (ワッチョイW 176d-JW44)
2020/11/30(月) 20:13:59.58ID:PMod7TTd0 >>705
削除したdstはmergeするときに元に戻してないとその部分だけ顔変換されないよ。
顔抽出に失敗したdstならその部分だけ手動でやり直す。
dstの顔の角度がsrcにないとクリーチャーになりやすいね。
削除したdstはmergeするときに元に戻してないとその部分だけ顔変換されないよ。
顔抽出に失敗したdstならその部分だけ手動でやり直す。
dstの顔の角度がsrcにないとクリーチャーになりやすいね。
708名無しさん@お腹いっぱい。 (ワッチョイW 9773-VJkO)
2020/11/30(月) 20:37:30.71ID:XbSg8MO60 faceset extractってwfよりfの方が抽出上手だね
いつからか抽出率悪くなったと思ったらwfになってたわ
いつからか抽出率悪くなったと思ったらwfになってたわ
709名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/11/30(月) 21:04:16.83ID:Vu2EyZLO0 26万回して0.4ってのは
pretrainをしてないか甘いんじゃないかな
好きなsrcを入れるのはその後
pretrainをしてないか甘いんじゃないかな
好きなsrcを入れるのはその後
710名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/30(月) 21:11:06.74ID:mavPp4f10711名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/12/01(火) 09:54:23.94ID:W+M4aEU40 十秒のdstでいいから、一度manualでextractしてみればいいよ
つーか過去スレ全く見てないだろ
つーか過去スレ全く見てないだろ
712名無しさん@お腹いっぱい。 (ワッチョイW b776-JWtn)
2020/12/01(火) 14:22:52.09ID:+CtYVkxm0 >>693
知り合いで作った時の破壊力は凄まじいぞ
知り合いで作った時の破壊力は凄まじいぞ
713名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 16:33:19.94ID:1ayHuz0u0714名無しさん@お腹いっぱい。 (ワッチョイW d758-6OYj)
2020/12/01(火) 19:46:45.63ID:J8ghkzDF0 まず知り合いに似てるAV女優や好きな顔したグラビアアイドル探すんだよ
それが見つかればあとは根気次第で素敵なオカズが作り放題だ、まあそんな顔した人間見つけるって前提が難しいが
それが見つかればあとは根気次第で素敵なオカズが作り放題だ、まあそんな顔した人間見つけるって前提が難しいが
715名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 20:05:18.90ID:AiVrrgTR0 恥かくだけだからあり得ない妄想で語るなよ
716名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/12/01(火) 20:33:56.10ID:W+M4aEU40 ある程度iterの伸びたDF系modelを流用すれば写真数枚でも結構出来るぞ
素材が豊富ならliae系だと髪型や輪郭の齟齬も巧い事trainで馴染ませてくれる
素材が豊富ならliae系だと髪型や輪郭の齟齬も巧い事trainで馴染ませてくれる
717名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 20:41:35.25ID:AiVrrgTR0 その程度じゃ正面以外はクリーチャー
はい論破
はい論破
718名無しさん@お腹いっぱい。 (ワッチョイW 9773-VJkO)
2020/12/01(火) 21:26:54.01ID:f/c4kQm90 普通知り合いとハメ撮りした映像srcに使うよね?
719名無しさん@お腹いっぱい。 (ワッチョイW 1776-48Hd)
2020/12/01(火) 21:49:11.93ID:Nkx9cF1L0 >>718
そんなキレイに撮影出来るものなの?
そんなキレイに撮影出来るものなの?
720名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/12/01(火) 21:52:41.28ID:749QyeiR0 Gigapixelで高画質化まではした
721名無しさん@お腹いっぱい。 (ワッチョイ ff8b-3i1O)
2020/12/01(火) 22:08:03.61ID:SP7n4Gx10 意味あるの?
722名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 22:10:57.93ID:AiVrrgTR0 劣化するだけで特に意味は無い
723名無しさん@お腹いっぱい。 (ワッチョイ 97e5-m/w5)
2020/12/01(火) 23:25:13.05ID:1DYHnSSa0 DFL の XsegEditor の使い方で教えてください
右上から「緑」(HotKey[2]) を選んで顔を囲うことでマスクが出来ているようなのですが、「赤」「青」は何のためにあるのでしょう?
まさか、RGB の色ごとにマスク作ることなんてしないですよね?
「緑」で顔を囲うのではなく、障害物の方を囲んで自動的に避けるよう train することは出来ないのでしょうか?
右上から「緑」(HotKey[2]) を選んで顔を囲うことでマスクが出来ているようなのですが、「赤」「青」は何のためにあるのでしょう?
まさか、RGB の色ごとにマスク作ることなんてしないですよね?
「緑」で顔を囲うのではなく、障害物の方を囲んで自動的に避けるよう train することは出来ないのでしょうか?
724名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/02(水) 00:05:16.68ID:ud0WrYAl0 色は関係ないから好きなのどうぞ
左上の実践のがマスクで、その下の点線が障害物
左上の実践のがマスクで、その下の点線が障害物
725723 (ワッチョイ 4ee5-l3pW)
2020/12/02(水) 12:34:10.91ID:M+kiswA60726名無しさん@お腹いっぱい。 (ワッチョイW 9b58-Tzug)
2020/12/02(水) 13:31:28.16ID:rjqqNMY+0 >>716
枚数少ないときはliaeの方がいいって過去スレで見たんだがdfのほうがいいのか?
枚数少ないときはliaeの方がいいって過去スレで見たんだがdfのほうがいいのか?
727名無しさん@お腹いっぱい。 (ワッチョイW 9676-UvAp)
2020/12/02(水) 13:56:37.91ID:0ySnKGdC0728名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/03(木) 08:02:37.35ID:QLnoNr3J0 似てるとかは何も考えず5人別の顔で同じアングルの動画を5秒ずつ切り取ってtrainしたら
輪郭もパーツも全然違うのによく似る人と輪郭とかが近しいのに全然別人ってのが出て来た
ほんとに合わせてみないと分からんねこれ・・・
輪郭もパーツも全然違うのによく似る人と輪郭とかが近しいのに全然別人ってのが出て来た
ほんとに合わせてみないと分からんねこれ・・・
729名無しさん@お腹いっぱい。 (ワッチョイ 8ebc-YXDh)
2020/12/03(木) 14:23:29.82ID:uhHeOsIp0 いろんなオプションがあるけど
それらを試行錯誤するより実際に一番効果的なのは素材選び
でも、元々の目的は好きな顔と映像をくっつけたいってことなんだから
素材選びで縛れられるのだったら本末転倒だよね
それらを試行錯誤するより実際に一番効果的なのは素材選び
でも、元々の目的は好きな顔と映像をくっつけたいってことなんだから
素材選びで縛れられるのだったら本末転倒だよね
730名無しさん@お腹いっぱい。 (ワッチョイW bfbd-ncXa)
2020/12/04(金) 09:12:25.99ID:Dp5oNYgi0 素材厳選でちんこ萎れるのが難点
731名無しさん@お腹いっぱい。 (ワッチョイ f3d2-dzmw)
2020/12/04(金) 11:35:10.52ID:hFcPRa1A0 >>705
eyes pri 入れっぱなしでは?
eyes pri 入れっぱなしでは?
732名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/04(金) 13:07:06.10ID:r2OPm5N20 俺もこさかなちゃんのVRDFにチンコ入れっぱなし
VRは見つめあえるから良いね
VRは見つめあえるから良いね
733名無しさん@お腹いっぱい。 (ワッチョイ 4ee5-l3pW)
2020/12/05(土) 10:36:24.36ID:Zs7kwVjN0 仕上がりは別として、みんな、最大でどれくらいのイタレーション数回したことがあるんだろ?
734名無しさん@お腹いっぱい。 (ワッチョイ d2c0-9rBX)
2020/12/05(土) 16:49:20.16ID:bNAQ/T3U0 初めてDFL使ってるんだけど最後の静止画を動画に戻す工程だけができない。
↓のエラーが出るんだけどこれってどういう意味だろう?
Error initializing output stream 0:0 -- Error while opening encoder for output stream #0:0 - maybe incorrect parameters such as bit_rate, rate, width or height
↓のエラーが出るんだけどこれってどういう意味だろう?
Error initializing output stream 0:0 -- Error while opening encoder for output stream #0:0 - maybe incorrect parameters such as bit_rate, rate, width or height
735名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/05(土) 19:03:42.53ID:c0W96cnr0 元動画のパラメータがおかしいって書いてるな
ビットレートかレートか縦横の画像サイズ
他のソフトでmerge後の画像を連結して動画にしたほうが早そう
ビットレートかレートか縦横の画像サイズ
他のソフトでmerge後の画像を連結して動画にしたほうが早そう
736名無しさん@お腹いっぱい。 (ワッチョイ e758-l3pW)
2020/12/06(日) 16:39:07.06ID:t+TRfq+a0 いま生きてるのってこのスレしかない?
737名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 17:15:56.92ID:dplg1Nbl0738名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 17:18:21.40ID:dplg1Nbl0 ついでに聞きたいんだけど、色味を合わせるためにはマージの設定変えたらいいのかな?
素材選びの段階で決まっちゃう?
素材選びの段階で決まっちゃう?
739名無しさん@お腹いっぱい。 (テテンテンテン MM34-sRwT)
2020/12/06(日) 17:23:03.87ID:B0/DiutKM trainでも寄せられるけどpreview見てもいまいち分からんから
自分はtrainの段階ではnoneでmergeでしか合わせてない
よっぽどかけ離れた色じゃなければ問題ないんじゃないかな
ただ背景の色に引っ張られるときはあるね
自分はtrainの段階ではnoneでmergeでしか合わせてない
よっぽどかけ離れた色じゃなければ問題ないんじゃないかな
ただ背景の色に引っ張られるときはあるね
740名無しさん@お腹いっぱい。 (ワッチョイ dfe8-jrSk)
2020/12/06(日) 17:24:19.33ID:7mPqReH50 みんなは抽出した画像が逆さまになってる時どうしてる?
反転で戻すのか削除するのか
反転で戻すのか削除するのか
741名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 17:26:47.37ID:dplg1Nbl0 なるほどー
始めたてだからいろいろ悩みながらやってみるわ。
始めたてだからいろいろ悩みながらやってみるわ。
742名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/06(日) 17:32:43.35ID:u5dWSy7k0743名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 18:08:30.26ID:dplg1Nbl0 顔画像抽出の時って似たような画像が何十枚もできるけど
これ全部あったほうがいいの?
これ全部あったほうがいいの?
744名無しさん@お腹いっぱい。 (ワッチョイW 5173-sRwT)
2020/12/06(日) 18:33:09.70ID:XZEqMAsU0 srcは削ってもいいけどdstはぱっと見同じでも各フレームに対応してる
消すとそのフレームは元のままになるのでdstは残しましょう
消すとそのフレームは元のままになるのでdstは残しましょう
745名無しさん@お腹いっぱい。 (ワッチョイ 0a73-v2J+)
2020/12/06(日) 20:26:41.83ID:JZexmdPR0 この手の子は説明しても無駄
746名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 21:13:48.72ID:dplg1Nbl0747名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/07(月) 11:45:16.47ID:PDhG/gSa0 srcを500枚でやってみたけどほぼ正面の動画に限れば意外と納得行く形になるな。
748名無しさん@お腹いっぱい。 (ガラプー KK12-Flf6)
2020/12/07(月) 18:16:55.40ID:Qi8CcLKrK srcの角度が足りてるかが重要だよな
749名無しさん@お腹いっぱい。 (ワッチョイ e758-l3pW)
2020/12/07(月) 18:18:22.47ID:+YI4ArM10 自分で作って自分で見るなら正面だけでもいいもんなあ
シーン選びがめんどくさくはなるが
シーン選びがめんどくさくはなるが
750名無しさん@お腹いっぱい。 (ワッチョイW 5173-sRwT)
2020/12/07(月) 18:18:57.58ID:oQUTyePX0 変顔集みたいなsrc継ぎ足したら表情の追従が劇的に改善した
行為中の顔は変顔だった?
行為中の顔は変顔だった?
751名無しさん@お腹いっぱい。 (ワッチョイW d2c0-TBV6)
2020/12/07(月) 18:34:06.83ID:PDhG/gSa0 枚数も大事なんだろうけどワンパターンじゃだめってことか。
変顔探すのって実は大変じゃないか。。。
変顔探すのって実は大変じゃないか。。。
752名無しさん@お腹いっぱい。 (ワッチョイ 9fd7-9FtY)
2020/12/07(月) 19:22:43.82ID:lVIUA3ha0753名無しさん@お腹いっぱい。 (ワッチョイ 0a73-v2J+)
2020/12/07(月) 20:27:13.17ID:CZif91rW0 face type hの範囲外であれば5%程度までの数の障害物有り画像(唇下までのマイク等)も収束に影響ない
ってmrでiperovが書いた、と過去スレに書いた気がする
ってmrでiperovが書いた、と過去スレに書いた気がする
754名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/07(月) 20:28:50.38ID:iWq9JxKa0 本人じゃなくても雰囲気の似てる子を先に覚えさせてそれをベースにすれば
100枚くらいの写真でも主観ものならいい感じに出来る
100枚くらいの写真でも主観ものならいい感じに出来る
755名無しさん@お腹いっぱい。 (アウアウウー Sa30-SutW)
2020/12/07(月) 21:02:58.42ID:RDrwRkoHa >>745
それメンス
それメンス
756名無しさん@お腹いっぱい。 (ワッチョイ 6e0c-9rBX)
2020/12/07(月) 23:04:45.15ID:mlcZcFaz0 RTX3090期待してたんだけど、顔抽出がwf-512-100の設定で
1.4s/it でめっちゃ遅い。なにか間違っているんだろうか。バッチ数は
同じモデルで確かに2倍まで上げれたんだが。
1.4s/it でめっちゃ遅い。なにか間違っているんだろうか。バッチ数は
同じモデルで確かに2倍まで上げれたんだが。
757名無しさん@お腹いっぱい。 (ワッチョイW 09c9-iXoL)
2020/12/07(月) 23:38:35.75ID:MxK7KYRh0 結局128とかに画像を縮小してるからgpuでの推論にかかる時間自体はそんなにかからなくて他はcpuでの処理だからな
ssdの書き込み速度も大事
ssdの書き込み速度も大事
758名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/08(火) 03:53:55.45ID:A4byW3Wi0 学習結果を再利用するときってmodelフォルダの中のデータをどれかコピペすればいいのかな?
みんな再利用してるのかな?
みんな再利用してるのかな?
759名無しさん@お腹いっぱい。 (ワッチョイW 6492-S0LA)
2020/12/08(火) 06:50:50.30ID:feSo48Wf0 目を閉じてるシーンにtrainすると殆ど薄目開けた状態になるんだけどこれって目を閉じたsrc不足?単純にtrain不足?
760名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/08(火) 08:20:45.12ID:A4byW3Wi0 >>759
src不足じゃない?
src不足じゃない?
761名無しさん@お腹いっぱい。 (ワッチョイ 7c10-Jcqy)
2020/12/08(火) 10:51:30.64ID:LAh0TGf50 >>693モザイク破壊と高画質化ってどうやってやるの??
762名無しさん@お腹いっぱい。 (ワッチョイ 2e00-MyGE)
2020/12/08(火) 12:02:44.18ID:8KvUIbmc0763名無しさん@お腹いっぱい。 (ワッチョイ dfe8-jrSk)
2020/12/08(火) 15:06:45.88ID:o60HFREd0 >>759
目を閉じてる画像は瞬きしてる場面から抽出できる
目を閉じてる画像は瞬きしてる場面から抽出できる
764名無しさん@お腹いっぱい。 (ワッチョイW dfb1-sGEz)
2020/12/08(火) 17:28:59.05ID:RS192MT80765名無しさん@お腹いっぱい。 (スフッ Sd70-wrey)
2020/12/08(火) 18:56:29.95ID:8FF249zpd <<764
756ですが4多重とはdflを4つ立ち上げてdstを4分割にして顔抽出するということでしょうか?
756ですが4多重とはdflを4つ立ち上げてdstを4分割にして顔抽出するということでしょうか?
766名無しさん@お腹いっぱい。 (ワッチョイW dfb1-sGEz)
2020/12/08(火) 19:21:26.28ID:RS192MT80 >>765
そうですね
DFLの解凍フォルダを4つコピーしてdstなりsrcなりのフレーム毎ファイル群を4分配して
各作業フォルダ内の目的の.batを実行します
自分は3多重まで試しましたがVRAMの余り具合から4多重はいけそうでした
そうですね
DFLの解凍フォルダを4つコピーしてdstなりsrcなりのフレーム毎ファイル群を4分配して
各作業フォルダ内の目的の.batを実行します
自分は3多重まで試しましたがVRAMの余り具合から4多重はいけそうでした
767名無しさん@お腹いっぱい。 (ワッチョイ 0a73-v2J+)
2020/12/08(火) 20:09:49.49ID:GsVvrHSQ0 src画像が多かったから瞬きしてる前後を中心に選んだところ、イメージより目の細い子に仕上がった
対応力も求められるが、好きな顔を多く残すのって大事
対応力も求められるが、好きな顔を多く残すのって大事
768名無しさん@お腹いっぱい。 (ワッチョイ 9b58-jrSk)
2020/12/08(火) 20:13:36.36ID:BZ9ydVv70 そうね
自分の脳味噌が本人と認識している画像を多く残した方がよい
自分の脳味噌が本人と認識している画像を多く残した方がよい
769名無しさん@お腹いっぱい。 (ワッチョイW 5173-sRwT)
2020/12/08(火) 20:38:42.05ID:BxnUz1890 srcの名前と画像を隅っこに乗っけると脳みそがより補正しやすい説あるな
770名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/08(火) 20:57:55.35ID:oMsXGO9B0 半目、白目、ギョロ目はsrcの質と言うよりDFLのaiがバカって部分が大きいと思う
dst×dstで馴染むまでtrainすると補正されやすい
dst×dstで馴染むまでtrainすると補正されやすい
771名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/08(火) 21:00:00.67ID:4PiliLXq0 wikiに書いといてよ
772名無しさん@お腹いっぱい。 (ワッチョイ e758-l3pW)
2020/12/08(火) 21:00:52.16ID:f168gPez0 srcのインタビュー映像でも隣に表示しながら見ればいいんじゃないか
773名無しさん@お腹いっぱい。 (ワッチョイ 6e0c-CWdK)
2020/12/08(火) 22:04:30.12ID:2DWZs20e0 >>766
なるほど、それは確かに速そうだ。ありがとうございます。
なるほど、それは確かに速そうだ。ありがとうございます。
774名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/08(火) 22:20:58.64ID:A4byW3Wi0 wikiで前回のtrainを参考にするってあるけどalignedフォルダの中身を入れ替えれば
前回の学習を引き継いでやってくれるのかな?
前回の学習を引き継いでやってくれるのかな?
775名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/08(火) 23:19:14.53ID:oMsXGO9B0 それでいい
けど使いまわす前のプレーンなmodelデータのバックアップは取っておいた方がいい
けど使いまわす前のプレーンなmodelデータのバックアップは取っておいた方がいい
776名無しさん@お腹いっぱい。 (ワッチョイW 7302-DblO)
2020/12/08(火) 23:25:36.48ID:27EakBge0 deepfake関連スレがここにしかないから聞く
質問なんだけど、trainって何時間使うのが良いの?
質問なんだけど、trainって何時間使うのが良いの?
777名無しさん@お腹いっぱい。 (ワッチョイW fbe8-JZSp)
2020/12/08(火) 23:55:49.61ID:aqodbY+L0 自分が納得いく時間
778名無しさん@お腹いっぱい。 (ワッチョイW a773-0JIE)
2020/12/09(水) 00:04:40.89ID:4UX9/WFl0 似たら終わり
779名無しさん@お腹いっぱい。 (ワッチョイW 8702-wuy4)
2020/12/09(水) 01:38:28.34ID:2YkWcIjF0 質問まとめてきた
1
例えばウインクしてるDSTだとしたら、DFLは目を閉じてるSRCと目を開いてるSRCから合成してウインクさせることはできる?
要は感じてる時のしかめっ面がSRCになければ、DSTには応用して使えないの?
イメージとしては、使える部分だけを切り取って貼っていく
2
似てる似てないの結果はどの要素が一番になる?
骨格や歯並びなど
1
例えばウインクしてるDSTだとしたら、DFLは目を閉じてるSRCと目を開いてるSRCから合成してウインクさせることはできる?
要は感じてる時のしかめっ面がSRCになければ、DSTには応用して使えないの?
イメージとしては、使える部分だけを切り取って貼っていく
2
似てる似てないの結果はどの要素が一番になる?
骨格や歯並びなど
780名無しさん@お腹いっぱい。 (ワッチョイW ff1f-dHdi)
2020/12/09(水) 03:21:16.08ID:u2xnaVFR0 何日かtrainしてるけど全然似ないな
グラフが交差したらOkなのん?
グラフが交差したらOkなのん?
781名無しさん@お腹いっぱい。 (ワッチョイ dfc0-orE1)
2020/12/09(水) 05:30:04.77ID:fkhvzo3/0 グラフが交差ってどれのこと?
782名無しさん@お腹いっぱい。 (ガラプー KK4f-5uwb)
2020/12/09(水) 07:16:24.25ID:E+/DVhAmK 試しにmergeしてみれば?
意外と似てたりするぞ
意外と似てたりするぞ
783名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/09(水) 09:55:58.56ID:6iCi1tOW0 初心者というよりガイジだらけになったな
784名無しさん@お腹いっぱい。 (ワッチョイW dfc0-dwQo)
2020/12/09(水) 10:08:26.74ID:fkhvzo3/0785名無しさん@お腹いっぱい。 (ワッチョイW df11-M3Cv)
2020/12/09(水) 10:24:44.19ID:ILQUMBAJ0 先月グラボ買ってやり始めたんで色々参考になります…
786名無しさん@お腹いっぱい。 (ワッチョイ dfc0-orE1)
2020/12/09(水) 10:33:46.95ID:fkhvzo3/0 ちなみに俺は3日前に始めた
787名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/09(水) 11:18:27.68ID:eM6LmaQtd >>779
に答えられる人いない?
に答えられる人いない?
788名無しさん@お腹いっぱい。 (ワッチョイ c758-orE1)
2020/12/09(水) 12:16:47.17ID:noEZzGKA0 ここで親切マン待つよりガイド観て試行錯誤するのが近道
いやマジで
いやマジで
789名無しさん@お腹いっぱい。 (テテンテンテン MM8f-0JIE)
2020/12/09(水) 12:19:50.12ID:VglPfXdZM >>787
ウインクは寄せはしてくれる片目開け片目瞑り〜薄目みたいな
完全再現するにはウインクしてるsrcあれば可能
要は〜以降は何言いたいかわからんけどRWtrueでsrcに無い表情を生成しようとする
似る要素は輪郭とパーツの配置が大きいと個人的には思う
ウインクは寄せはしてくれる片目開け片目瞑り〜薄目みたいな
完全再現するにはウインクしてるsrcあれば可能
要は〜以降は何言いたいかわからんけどRWtrueでsrcに無い表情を生成しようとする
似る要素は輪郭とパーツの配置が大きいと個人的には思う
790名無しさん@お腹いっぱい。 (ワッチョイ a7e5-kNbH)
2020/12/09(水) 12:37:27.91ID:s+49EXJp0 髪型も同じじゃないとダメくない?
額を出してるdstと眉まで前髪なsrcでやると、眉の上に変なちょんまげが生えてるresultが出来上がる(涙
額を出してるdstと眉まで前髪なsrcでやると、眉の上に変なちょんまげが生えてるresultが出来上がる(涙
791名無しさん@お腹いっぱい。 (テテンテンテン MM8f-0JIE)
2020/12/09(水) 13:06:22.72ID:VglPfXdZM xsegつけて0.01くらいまでtrainして通常train中もある程度loss値落ち着いたところでlearnmasktrue
mergeのmask選択をlearned-prd*learned-dst*Xseg-prd*Xseg-dstにすれば前髪問題両津眉問題は回避できる
それでも駄目ならfacetypeの設定がおかしいwfとかでやってないか?
mergeのmask選択をlearned-prd*learned-dst*Xseg-prd*Xseg-dstにすれば前髪問題両津眉問題は回避できる
それでも駄目ならfacetypeの設定がおかしいwfとかでやってないか?
792名無しさん@お腹いっぱい。 (ワッチョイW a7b1-3tvF)
2020/12/09(水) 13:11:07.70ID:Z0JpTnOw0 普通にマスク処理してないだけだろ
793名無しさん@お腹いっぱい。 (ワッチョイW a7b1-3tvF)
2020/12/09(水) 13:24:47.08ID:Z0JpTnOw0 >>779
1.出来るだけ色んな表情と角度がある方が良いよ!そっちの方がリアルに近づく
2.相性次第
骨格というか輪郭ね
アイドル作成するなら髪型も結構重要だよ
女優なら色んな髪型するけどアイドルは髪型固定が多いから
歯並びは関係ない
1.出来るだけ色んな表情と角度がある方が良いよ!そっちの方がリアルに近づく
2.相性次第
骨格というか輪郭ね
アイドル作成するなら髪型も結構重要だよ
女優なら色んな髪型するけどアイドルは髪型固定が多いから
歯並びは関係ない
794790 (ワッチョイ a7e5-kNbH)
2020/12/09(水) 13:50:29.45ID:s+49EXJp0 >>791-792
わかってないのでよければ教えて。。。
今、色々と設定変えながら試している段階なんだけど、XSegでのマスクは、障害物がないsrc(眉まで前髪)ではやってなくて、
障害物が顔の前に入り込むdst(おでこ出し)のみでやってます。XSegのtrainは62万itr・0.02台まで。
その後本train中。face_typeはf(XSseg、本trainともに)。
本trainで30万itrくらい、ロス値はsrc 0.55・dst 0.25ってところなんだけど、プレビュー見る限り、うまく行きそうなところもあるけれど、
おでこに突如前髪登場、というのもある。
前に試したときはXSegせずで、おでこに前髪がたくさん、でした。
やり方間違ってるかな。。。?
わかってないのでよければ教えて。。。
今、色々と設定変えながら試している段階なんだけど、XSegでのマスクは、障害物がないsrc(眉まで前髪)ではやってなくて、
障害物が顔の前に入り込むdst(おでこ出し)のみでやってます。XSegのtrainは62万itr・0.02台まで。
その後本train中。face_typeはf(XSseg、本trainともに)。
本trainで30万itrくらい、ロス値はsrc 0.55・dst 0.25ってところなんだけど、プレビュー見る限り、うまく行きそうなところもあるけれど、
おでこに突如前髪登場、というのもある。
前に試したときはXSegせずで、おでこに前髪がたくさん、でした。
やり方間違ってるかな。。。?
795名無しさん@お腹いっぱい。 (テテンテンテン MM8f-0JIE)
2020/12/09(水) 15:01:17.98ID:g2LiSzlZM 狭い方の範囲に合わせて反対もmask処理してみて
今の場合dstが眉まで前髪かかってるならsrcも眉下で線引き
mergeの時interactive merger使ってる?画像確認しながらmask選択すれば問題ないはず
あとはV押してmask範囲見ながらblur mask modifierを100-150くらいあげれば大抵馴染む
今の場合dstが眉まで前髪かかってるならsrcも眉下で線引き
mergeの時interactive merger使ってる?画像確認しながらmask選択すれば問題ないはず
あとはV押してmask範囲見ながらblur mask modifierを100-150くらいあげれば大抵馴染む
796名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/09(水) 18:43:16.92ID:eM6LmaQtd ガイドって言われても英語表記、英語音声だしなあ
まともな解説サイトが無いってのも駄目だわ
まともな解説サイトが無いってのも駄目だわ
797名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/09(水) 18:50:32.81ID:eM6LmaQtd 俺も質問まとめて来た
1、SRCが髪、手で隠れていてもそれは残したほうがいいのか
残すなら顔の隠れている割合の条件も教えてほしい
2,DSTで顔に髪がかかっているものは採用対象にしないべきか
3、SRCで上下逆さまになっているものがたまに見かける
これはなにもしなくていいの?
4、workが多すぎるんだが、使うおすすめを教えてほしい
5,顔を学習させるのって、あくまでもパッチワークみたいな切り取って貼っていく感じではなく、マシンに顔を記憶させて応用も効かせるっていう考え方であってるよね?
ってことは2つの動画の明度が違っててもいける?
1、SRCが髪、手で隠れていてもそれは残したほうがいいのか
残すなら顔の隠れている割合の条件も教えてほしい
2,DSTで顔に髪がかかっているものは採用対象にしないべきか
3、SRCで上下逆さまになっているものがたまに見かける
これはなにもしなくていいの?
4、workが多すぎるんだが、使うおすすめを教えてほしい
5,顔を学習させるのって、あくまでもパッチワークみたいな切り取って貼っていく感じではなく、マシンに顔を記憶させて応用も効かせるっていう考え方であってるよね?
ってことは2つの動画の明度が違っててもいける?
798名無しさん@お腹いっぱい。 (ワッチョイW a776-0JIE)
2020/12/09(水) 19:19:38.16ID:JZ2sO5720 1.消せ
2.消せ
3.消せ
4.?
5.白人→黒人みたいなのは違和感しかないだろうけどある程度はいける
2.消せ
3.消せ
4.?
5.白人→黒人みたいなのは違和感しかないだろうけどある程度はいける
799名無しさん@お腹いっぱい。 (ワッチョイ 7f8b-kHb6)
2020/12/09(水) 19:22:05.54ID:phBW9iQ10 >>797
1 ちゃんと顔が見えてないのは削除
2 dstの髪はxsegとかで大体何とかなるけど邪魔なものはないほうがふさわしい
3 失敗してるので絶対に削除
4の意味はわからない
5 明度の違いぐらいは問題なくやってくれてるけど、仕組みはわからない
1 ちゃんと顔が見えてないのは削除
2 dstの髪はxsegとかで大体何とかなるけど邪魔なものはないほうがふさわしい
3 失敗してるので絶対に削除
4の意味はわからない
5 明度の違いぐらいは問題なくやってくれてるけど、仕組みはわからない
800名無しさん@お腹いっぱい。 (ワッチョイW df11-5+YQ)
2020/12/09(水) 19:26:41.08ID:ILQUMBAJ0 1.学習の邪魔になるので削除
2.xsegでマスクして学習させてみる、もしくは違うフォルダに退避させてマージ時に戻してみて上手くいくか探る
3.顔と誤認識してるので削除。横顔の場合角度つきすぎてたら何かおかしいので削除
4.?
5.差が酷すぎなければだいたいいける
自分はこんな認識
2.xsegでマスクして学習させてみる、もしくは違うフォルダに退避させてマージ時に戻してみて上手くいくか探る
3.顔と誤認識してるので削除。横顔の場合角度つきすぎてたら何かおかしいので削除
4.?
5.差が酷すぎなければだいたいいける
自分はこんな認識
801名無しさん@お腹いっぱい。 (ワッチョイW a7b1-3tvF)
2020/12/09(水) 19:35:57.35ID:Z0JpTnOw0 >>796
翻訳使えよ
翻訳使えよ
802名無しさん@お腹いっぱい。 (ワッチョイ c758-kNbH)
2020/12/09(水) 19:52:37.09ID:1+t2CxAi0 ちょっとひどすぎんな
教師気取りのやつは別に場所作ってそこでやれよ
お前等が構うから他がスルーしてても意味ねえじゃん
教師気取りのやつは別に場所作ってそこでやれよ
お前等が構うから他がスルーしてても意味ねえじゃん
803名無し募集中。。。 (ワッチョイ 7f8b-kHb6)
2020/12/09(水) 20:21:07.58ID:phBW9iQ10 いやもうこういうスレなんだよ
日記が来てからかつてのスレは死んだんだ諦めろ
日記が来てからかつてのスレは死んだんだ諦めろ
804名無しさん@お腹いっぱい。 (ワッチョイW a7b1-3tvF)
2020/12/09(水) 20:32:08.43ID:Z0JpTnOw0805名無しさん@お腹いっぱい。 (ワッチョイ e7b1-gZHY)
2020/12/09(水) 21:17:45.78ID:hBY+apRS0 質問スレが無くなったのは痛い
806名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/09(水) 21:21:43.80ID:5SlYHvfQd どうでもいいわ
こちとら文字の書き方を知らんっていうほどの未熟者なんだからシャーペン買う場所教えてくれるだけでも普通に有り難い
あんたら不満だけの奴らは一生レスしないでくれ
こちとら文字の書き方を知らんっていうほどの未熟者なんだからシャーペン買う場所教えてくれるだけでも普通に有り難い
あんたら不満だけの奴らは一生レスしないでくれ
807名無しさん@お腹いっぱい。 (ワッチョイ dfc0-orE1)
2020/12/09(水) 21:36:18.95ID:fkhvzo3/0 逆に昔はどうだったのか知りたい。
結局こういう質問・回答だったんじゃないだろうか?
まさか作品上げあってたなんてないだろうし・・・
結局こういう質問・回答だったんじゃないだろうか?
まさか作品上げあってたなんてないだろうし・・・
808名無しさん@お腹いっぱい。 (ワッチョイ 87bc-ojTD)
2020/12/09(水) 21:40:07.42ID:g3AyXSYp0 5chに質問書いて返ってくるかわからん返事を待つより
その前に過去スレ読んだり"DeepFaceLab"で検索した方が役に立つのに
その前に過去スレ読んだり"DeepFaceLab"で検索した方が役に立つのに
809名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/09(水) 22:44:41.97ID:UCvec3fSa >>784
上級者っていうかググったりgithubの説明から理解したらこうはならんやろ
上級者っていうかググったりgithubの説明から理解したらこうはならんやろ
810名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/09(水) 22:49:26.43ID:UCvec3fSa >>779
1可能、元ネタ次第。例えば過去スレに説明があるとおり、dst同士で学習して、srcに入れ替えたら楽。少し品質は落ちるけどな。
2表情のパターンと眉かな、そのキャラクターがしない表情は似たところで違和感がある、その次に輪郭。
1可能、元ネタ次第。例えば過去スレに説明があるとおり、dst同士で学習して、srcに入れ替えたら楽。少し品質は落ちるけどな。
2表情のパターンと眉かな、そのキャラクターがしない表情は似たところで違和感がある、その次に輪郭。
811名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/09(水) 22:51:10.17ID:UCvec3fSa >>802
酷いのは調べもしないお前だ。過去スレを順番に読むだけでいいんだぜ。馬鹿でもわかる。
酷いのは調べもしないお前だ。過去スレを順番に読むだけでいいんだぜ。馬鹿でもわかる。
812名無しさん@お腹いっぱい。 (ワッチョイW 6758-G9vp)
2020/12/09(水) 23:03:46.66ID:s/5fndNG0 普通にGit調べりゃ基本的なことは書いてるし、youtubeにもあるし
まずそこ見てくれ、後は自分で試す
そんなこともできないようじゃ無理
まずそこ見てくれ、後は自分で試す
そんなこともできないようじゃ無理
813名無しさん@お腹いっぱい。 (ワッチョイ 7f8b-kHb6)
2020/12/09(水) 23:09:46.75ID:phBW9iQ10 言ってることはよく分かるが、このスレ質問しか書かれないじゃん
過疎スレで自治してても楽しくないよ
過疎スレで自治してても楽しくないよ
814名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/10(木) 03:48:03.82ID:/7jWWh++0 過去スレすら読め無い奴はスルーでいい
そもそも教えてやる義理も無い
そんな事より更新来てるぞ
そもそも教えてやる義理も無い
そんな事より更新来てるぞ
815名無しさん@お腹いっぱい。 (スフッ Sdff-Vs3D)
2020/12/10(木) 08:02:53.56ID:WiLA8XdLd ほんとだ、更新
816名無しさん@お腹いっぱい。 (ワッチョイ c7d2-lRqm)
2020/12/10(木) 09:47:40.33ID:Sk4psy3/0 true face なくなったんけ?
817名無しさん@お腹いっぱい。 (ワッチョイ 6776-LBAI)
2020/12/10(木) 18:59:50.35ID:OK9ZqjYk0 1.「パソコンのいろは」「ファイル操作入門」の知識すら無いのに、タメで書き込んでるヤツをガイジという。
2.「画像形式と情報保持構造」「動画形式・編集入門」「CMDコマンドとCMD画面」の知識が無い者をパソコン初心者、
3.「DeepLearningの画像認識」「このAIパッケージを利用したDeepFakeの仕組み」の知識が無い者をAI初心者、
4.これらが揃っててDeepFakeを始めるモノをDFL初心者、すなわちこのスレでの初心者と言う。
ぶっちゃけDFLって即使える筈なんだけど、PCの基礎知識が足らんからトンチンカンな質問になるんでしょ。
因みに自分の場合、元々3DCGアニメ屋なのでDSTは自作してる。
マスクオブジェとその影は別レイヤーレンダで後乗せだから学習速いし、画角も好きに出来るし、
CG顔は学習異様に速いし、触手とかハラボコとかケツ口貫通とかめっちゃヤバイっす。
自作DSTの公開は無問題だろーから需要あるなら提供しようかとここ来たんだけど、もうね・・・
2.「画像形式と情報保持構造」「動画形式・編集入門」「CMDコマンドとCMD画面」の知識が無い者をパソコン初心者、
3.「DeepLearningの画像認識」「このAIパッケージを利用したDeepFakeの仕組み」の知識が無い者をAI初心者、
4.これらが揃っててDeepFakeを始めるモノをDFL初心者、すなわちこのスレでの初心者と言う。
ぶっちゃけDFLって即使える筈なんだけど、PCの基礎知識が足らんからトンチンカンな質問になるんでしょ。
因みに自分の場合、元々3DCGアニメ屋なのでDSTは自作してる。
マスクオブジェとその影は別レイヤーレンダで後乗せだから学習速いし、画角も好きに出来るし、
CG顔は学習異様に速いし、触手とかハラボコとかケツ口貫通とかめっちゃヤバイっす。
自作DSTの公開は無問題だろーから需要あるなら提供しようかとここ来たんだけど、もうね・・・
818名無しさん@お腹いっぱい。 (ワッチョイ 6758-kNbH)
2020/12/10(木) 19:04:09.02ID:mLdLBmhZ0 というかソフト触る前に質問するからトンチンカンな内容になるのよ
一切触ってないような人には教えるのも難しいし
一切触ってないような人には教えるのも難しいし
819名無しさん@お腹いっぱい。 (ワッチョイ 6786-D4Qg)
2020/12/10(木) 20:28:03.98ID:FQIN8bLm0 更新きてるこのRTX_build_12_09って
RTX系統じゃなきゃだめよ(GTXはだめよ)なの?
RTX系統じゃなきゃだめよ(GTXはだめよ)なの?
820名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/10(木) 22:00:16.94ID:qc6t0ytaa いや、割と阿呆な質問が多いから、まじでこの国の教養大丈夫って思うわ。
821名無しさん@お腹いっぱい。 (ワッチョイW a773-0JIE)
2020/12/10(木) 22:05:52.45ID:yOOFH5aQ0 憂国のDF
822名無しさん@お腹いっぱい。 (ワッチョイW a773-0JIE)
2020/12/10(木) 23:45:03.46ID:yOOFH5aQ0 2080tiだと12_09のdst faceset extract不安定
100くらい見つけたとこで止まる
08_02に戻す
100くらい見つけたとこで止まる
08_02に戻す
823名無しさん@お腹いっぱい。 (スププ Sdff-Vs3D)
2020/12/11(金) 00:40:21.54ID:Ddvg9igrd rtx3000シリーズでも同じ症状だった
顔抽出で止まる
顔抽出で止まる
824名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/11(金) 11:27:28.14ID:1oJNK2XDd っていうかあんたら上級者がなにもせず還元しないのが駄目なんでしょ
wikiだの、このスレのテンプレすら英語版のマニュアルをポンと貼っただけでテンプレ貼りをドヤ顔で仕事した気になってんだから世話ねえわな
こんだけ質問来る意味、少しは考えたことあるかい?
ないわな
wikiだの、このスレのテンプレすら英語版のマニュアルをポンと貼っただけでテンプレ貼りをドヤ顔で仕事した気になってんだから世話ねえわな
こんだけ質問来る意味、少しは考えたことあるかい?
ないわな
825名無しさん@お腹いっぱい。 (ワッチョイW 8702-wuy4)
2020/12/11(金) 11:46:09.53ID:+cr9RpGF0 パッチファイルが多すぎるんだが、いくつか消してる人っていない?
残すやつ教えてほしい
残すやつ教えてほしい
826名無しさん@お腹いっぱい。 (ワントンキン MMbf-bBEk)
2020/12/11(金) 11:48:10.82ID:wFJQwkbxM アフィブログ作って解説したら儲かるかな
別にグラビア雑誌にアイドルの顔張り付けるのと一緒だよな?
なんかの幇助とか言われて国家権力に捕まらないかちと心配
別にグラビア雑誌にアイドルの顔張り付けるのと一緒だよな?
なんかの幇助とか言われて国家権力に捕まらないかちと心配
827名無しさん@お腹いっぱい。 (ワッチョイW 87bc-hfz9)
2020/12/11(金) 11:53:43.75ID:jEHMqz0g0 マジな話「wikiみたりweb検索する前に、まず5chで質問」←これが意味わからん
828名無しさん@お腹いっぱい。 (スッップ Sdff-mk3U)
2020/12/11(金) 13:00:06.10ID:eMw2CvrSd >>825
パッチファイルに手を入れられる知識があるならRTXでまともに動くようにしてくれ
パッチファイルに手を入れられる知識があるならRTXでまともに動くようにしてくれ
829名無しさん@お腹いっぱい。 (アウアウウー Sa6b-ksjQ)
2020/12/11(金) 13:10:49.36ID:sPUWInp0a だからまず電子辞書を買えと言っているのに・・・
830名無しさん@お腹いっぱい。 (ワッチョイ e7b1-gZHY)
2020/12/11(金) 13:54:43.56ID:IxeShAVX0 質問に答えてくれてる人に対して感謝の言葉すら一言も無く文句だけは上級者
まじで死んだ方がいい
まじで死んだ方がいい
831名無しさん@お腹いっぱい。 (ワッチョイ 6758-kNbH)
2020/12/11(金) 14:03:56.75ID:0rIHmixA0 俺ができないのはお前らのせい!!!
832名無しさん@お腹いっぱい。 (ワッチョイW 6758-G9vp)
2020/12/11(金) 15:09:20.05ID:U16STI9O0 >>825
パッチファイルわりと全部使うけどな
パッチファイルわりと全部使うけどな
833名無しさん@お腹いっぱい。 (ワッチョイW df11-M3Cv)
2020/12/11(金) 15:16:02.67ID:zw0/H3ZT0 もしかして…バッチ…
834名無しさん@お腹いっぱい。 (ワッチョイ 6786-D4Qg)
2020/12/11(金) 21:30:52.66ID:dAhfyizA0 更新なったやつ消えとる・・・
まあ、俺は解凍時にエラー吐いてたし、trainも開始できんかった。
まあ、俺は解凍時にエラー吐いてたし、trainも開始できんかった。
835名無しさん@お腹いっぱい。 (ワッチョイ 7f73-LBAI)
2020/12/11(金) 21:33:13.66ID:FZ5Wzj+70 >>826
家族の面白動画の作り方とかならいいんじゃね
家族の面白動画の作り方とかならいいんじゃね
836名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/11(金) 23:20:47.23ID:aDSAIMhja >>824
馬鹿だろお前w
馬鹿だろお前w
837名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/11(金) 23:22:16.60ID:aDSAIMhja バッチはカスタムするし、不要な処理はコメントアウトしたり普通にいじる。
838名無しさん@お腹いっぱい。 (ワッチョイW 276d-3nR/)
2020/12/11(金) 23:50:56.33ID:BOESYB7R0 また新しく更新されとるよ
839名無しさん@お腹いっぱい。 (ワッチョイ a7e5-kNbH)
2020/12/12(土) 08:36:34.32ID:ncrGzXF00 8/2 版とかもファイル名変えたのかな?
840名無しさん@お腹いっぱい。 (ワッチョイ 7f6e-kNbH)
2020/12/12(土) 08:45:31.06ID:FmoqpffD0 2000版と3000版ができとる
841名無しさん@お腹いっぱい。 (ワッチョイW 670c-Vs3D)
2020/12/12(土) 09:43:59.43ID:HI4Z2tUg0 3000の新しいやつでもまだ顔抽出止まるなあ
842名無しさん@お腹いっぱい。 (ワッチョイ 7f8b-kHb6)
2020/12/12(土) 09:47:28.20ID:Rps2P8U30 久しぶりの更新だからしばらく様子見かな
843名無しさん@お腹いっぱい。 (ワッチョイW 276d-3nR/)
2020/12/12(土) 09:54:32.69ID:PtlhXsm50 3000版顔抽出開始するのに3分いじょうかかるな
とうぶんの間Test版と併用だな
あとtrain optionにadabeliefが追加されている
とうぶんの間Test版と併用だな
あとtrain optionにadabeliefが追加されている
844名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/12(土) 10:39:23.60ID:E32hPOqId 今気付いたんだが、例えば1.1に複数のバッチファイルあるやつってそのうちのどれか一つ選んで実行ってこと?
番号順に一つずつやる、コンマ以下あるやつは好みで使用、使わなくても良いっていうのでいいのか?
番号順に一つずつやる、コンマ以下あるやつは好みで使用、使わなくても良いっていうのでいいのか?
845名無しさん@お腹いっぱい。 (ドコグロ MM9f-G9vp)
2020/12/12(土) 11:36:30.77ID:bVxlWFJiM846名無しさん@お腹いっぱい。 (デーンチッ Sa6b-ksjQ)
2020/12/12(土) 12:15:29.81ID:rJw9eB0Qa1212847名無しさん@お腹いっぱい。 (デーンチッ 7f6e-kNbH)
2020/12/12(土) 12:27:32.43ID:FmoqpffD01212 [n] Use AdaBelief optimizer? ( y/n ?:help ) : ?
Experimental AdaBelief optimizer.
It requires more VRAM, but the accuracy of the model is higher,
and lr_dropout is not needed.
Experimental AdaBelief optimizer.
It requires more VRAM, but the accuracy of the model is higher,
and lr_dropout is not needed.
848名無しさん@お腹いっぱい。 (デーンチッW df40-HS6K)
2020/12/12(土) 17:31:48.96ID:DKJvJqeD01212 富岳用に最適化して走らせたらどれぐらい快適になるんだろかとか妄想しちゃう
849名無しさん@お腹いっぱい。 (デーンチッ dfc0-orE1)
2020/12/12(土) 18:20:13.52ID:3emTDP+T01212 個人で楽しむ分には結構満足できるようになってきた。
でもdstが腕と被るところは難しいね。
一つずつマスクすればいいんだろうけど手間すぎる・・・
でもdstが腕と被るところは難しいね。
一つずつマスクすればいいんだろうけど手間すぎる・・・
850名無しさん@お腹いっぱい。 (デーンチッ bf73-AcSP)
2020/12/12(土) 21:28:04.28ID:5seRSGjV01212 ちなみにwikiはガイジがスレを適当に転載した、情報も古い上に未検証な物なので注意
851名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/13(日) 01:57:17.61ID:faeRPvMB0 誰か初心者質問スレ立ててくれ
852名無しさん@お腹いっぱい。 (ワッチョイ c758-orE1)
2020/12/13(日) 11:40:06.25ID:Jx5YTba10 >>847
最新技術つっこんできているな
最新技術つっこんできているな
853名無しさん@お腹いっぱい。 (ワッチョイ 5fb8-LBAI)
2020/12/13(日) 20:36:09.82ID:YrwZpEdN0 AdaBelief optimizerのドロップアウトが要らないってことは
仕上げでやってたドロップアウトなしで最後までTRAINできる感じかな。
だったら便利だなぁ。
仕上げでやってたドロップアウトなしで最後までTRAINできる感じかな。
だったら便利だなぁ。
854名無しさん@お腹いっぱい。 (ワッチョイW dfc0-1/9y)
2020/12/13(日) 20:41:08.34ID:rwBsKs7M0 始めて1週間もたってない初心者にも届いていないレベルだが、
難しいこと頑張るよりもまずは正面向きのdst,srcを用意して短い動画で色々と試すほうが色々とよくわかることがわかった。
次はmaskとかも試してみたい。
難しいこと頑張るよりもまずは正面向きのdst,srcを用意して短い動画で色々と試すほうが色々とよくわかることがわかった。
次はmaskとかも試してみたい。
855名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/13(日) 21:07:26.12ID:faeRPvMB0856名無しさん@お腹いっぱい。 (ワッチョイ c758-orE1)
2020/12/15(火) 02:17:04.78ID:wjYJSccf0 ボーナス突っ込んで3090に買い替えたんだけど、学習開始時にエラー吐いて使い物にならんな
爆熱で補助電源8pin×3の電気代とか今のところ後悔しかないわ
爆熱で補助電源8pin×3の電気代とか今のところ後悔しかないわ
857名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/15(火) 13:08:32.81ID:0Bw3Bs9g0 DFL頻繁に更新来てるから最新の入れた方が良いよ、あとCudaを11.1に変えるとか?
なぜかGPUでのXSegはできないけど他は3090でも動いてる
なぜかGPUでのXSegはできないけど他は3090でも動いてる
858名無しさん@お腹いっぱい。 (ワッチョイW 276d-3nR/)
2020/12/15(火) 15:31:14.92ID:BaeKkjan0 3000版はtenser使って圧縮してdataをvramに送るんだけど結構失敗してエラーでる
失敗しても24G以内に収まりそうなんだけどな
自分はタスクマネージャーでgpuメモリ使用量を見ている
失敗するとgpuメモリ使用量が増えたあとすぐに減るからわかる
そうなったらtrainバッチやりなおしている
失敗しても24G以内に収まりそうなんだけどな
自分はタスクマネージャーでgpuメモリ使用量を見ている
失敗するとgpuメモリ使用量が増えたあとすぐに減るからわかる
そうなったらtrainバッチやりなおしている
859名無しさん@お腹いっぱい。 (ワッチョイW 2774-FefN)
2020/12/15(火) 16:38:52.75ID:cOJp3Ogr0 圧縮って量子化して8bitとかして演算してるのかな
860名無しさん@お腹いっぱい。 (ワッチョイ bfb0-orE1)
2020/12/15(火) 16:44:09.34ID:PbpwvKJe0 タスクマネージャーずっと見てんの?
草なんだが
草なんだが
861名無しさん@お腹いっぱい。 (ワッチョイW 276d-3nR/)
2020/12/15(火) 17:35:42.17ID:BaeKkjan0 うん
train始まったら放置しているけどな
train始まったら放置しているけどな
862名無しさん@お腹いっぱい。 (ワッチョイ bfb0-orE1)
2020/12/15(火) 17:43:28.12ID:PbpwvKJe0863名無しさん@お腹いっぱい。 (ワントンキン MMbf-bBEk)
2020/12/15(火) 17:46:52.72ID:2n6kE0OcM コロナで儲けた企業も結構あるんやで
864名無しさん@お腹いっぱい。 (ワッチョイ a7e5-kNbH)
2020/12/15(火) 18:29:40.50ID:y1RmT23p0 ボーナスでDFのために20万以上使うってすげー
865名無しさん@お腹いっぱい。 (ラクッペペ MM8f-dgJ5)
2020/12/15(火) 18:36:16.69ID:N4OQvP9ZM タスクマネージャーのgpu使用率はあてにならんぞ
よく調べた方がいい
よく調べた方がいい
866名無しさん@お腹いっぱい。 (ワッチョイ bfb0-orE1)
2020/12/15(火) 18:50:21.11ID:PbpwvKJe0 コロナで儲けた企業?
具体的にどこよ
具体的にどこよ
867名無しさん@お腹いっぱい。 (ワッチョイW 6758-2lUs)
2020/12/15(火) 19:48:33.42ID:heMXIoMB0 薬屋とかメガネ業界とか
868名無しさん@お腹いっぱい。 (ワッチョイ 67bb-GZFP)
2020/12/15(火) 20:43:06.11ID:O3Ti3+380 ドラッグストアは化粧品とかヒゲソリとかの売り上げ減ったべ
869名無しさん@お腹いっぱい。 (ワッチョイ 7fb0-orE1)
2020/12/15(火) 20:50:09.72ID:1NqRdMyi0 Amazonとか通販サイトのごく一部だろ
870名無しさん@お腹いっぱい。 (ワッチョイW c790-qFRf)
2020/12/15(火) 21:05:25.21ID:IV6ggM9v0 昔ながらのGPU-Zとか使えばいいんじゃね
871名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/16(水) 00:35:24.83ID:ztwcSGgL0 ELSA System Graph
872名無しさん@お腹いっぱい。 (ワッチョイW 3bb1-2Np4)
2020/12/16(水) 14:21:14.71ID:RFv2Li0A0 今年の8月からアップデートしていないのですが、した方がいいですか?改良されてますか?
873名無しさん@お腹いっぱい。 (アウアウクー MMf3-jeV2)
2020/12/16(水) 15:27:19.58ID:3EuKp4WsM 賞与の満額っていうのがよく分からん
業績により変動で決まるんじゃないのか?満額って何ヵ月?3ヶ月?
うちは去年夏 3.5 冬 3.7がコロナのせいで夏3.0 冬 2.5という大打撃受けたから
賞与だけで年収60万以上下がってしまったわ久しぶりに額面3桁切ってしまった
業績により変動で決まるんじゃないのか?満額って何ヵ月?3ヶ月?
うちは去年夏 3.5 冬 3.7がコロナのせいで夏3.0 冬 2.5という大打撃受けたから
賞与だけで年収60万以上下がってしまったわ久しぶりに額面3桁切ってしまった
874名無しさん@お腹いっぱい。 (ワッチョイW 7302-5sE/)
2020/12/16(水) 21:47:50.90ID:pNZtkVQB0 batファイルの末尾に<~.txtと書いて、予め設定を書いておくっていうやり方をここで教えてもらってずっと助かってるんだけど、
これの仕様についてどうやれば勉強できるか誰か教えてくれない?
自分で調べてみようと思ったんだけど、検索ワードが分からなくてヒットしない…
これの仕様についてどうやれば勉強できるか誰か教えてくれない?
自分で調べてみようと思ったんだけど、検索ワードが分からなくてヒットしない…
875名無しさん@お腹いっぱい。 (ワッチョイ f3b0-FZ4g)
2020/12/16(水) 21:55:41.94ID:Ao2uWfmQ0876名無しさん@お腹いっぱい。 (アウアウクー MMf3-jeV2)
2020/12/17(木) 00:44:40.56ID:T7o2nx4BM >>875
上級国民でもなんでもない
ただの変態おっさん庶民
東京じゃないけど都市部で30半ばにもなればこの程度普通におる
休日出勤が結構多かったから税率23をギリギリ維持してしまっただけ
上級国民なら年収1500万は少なくとも越えてないと
寝取られ趣味だけど嫁にそんなこと頼めないからコッソリお気に入りの体と入れ換えて妄想楽しむしかないただの変態よ
上級国民でもなんでもない
ただの変態おっさん庶民
東京じゃないけど都市部で30半ばにもなればこの程度普通におる
休日出勤が結構多かったから税率23をギリギリ維持してしまっただけ
上級国民なら年収1500万は少なくとも越えてないと
寝取られ趣味だけど嫁にそんなこと頼めないからコッソリお気に入りの体と入れ換えて妄想楽しむしかないただの変態よ
877名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/17(木) 01:10:02.90ID:NxWOtusT0 デフレの前は年収600万が普通だったけど、今は年収400万が普通だそうだぞ
年収600万は高収入の部類
自分も年収600万は結構残業の結構中年でようやくだった様な
昔でも残業しても年収800万は無理くさいぞ
地方都市。IT企業
年収600万は高収入の部類
自分も年収600万は結構残業の結構中年でようやくだった様な
昔でも残業しても年収800万は無理くさいぞ
地方都市。IT企業
878名無しさん@お腹いっぱい。 (ワッチョイ f3b0-FZ4g)
2020/12/17(木) 02:35:05.12ID:611kD0SC0 大学生、無職、SE、都市部一流企業社員、地方都市IT企業
よし、全員いるな
よし、全員いるな
879名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/17(木) 07:04:28.20ID:2Uq36/oO0 経歴もfakeでした…
880名無しさん@お腹いっぱい。 (ワッチョイ 4bb0-FZ4g)
2020/12/17(木) 15:21:29.48ID:vbTKedqj0 草www
881名無しさん@お腹いっぱい。 (アウアウクー MMf3-jeV2)
2020/12/17(木) 16:33:10.35ID:eT5JMdPgM 都内の男性正社員平均年収が695万なのに何故そんなに嘘扱いされるのか良くわからない
地方都市といっても全国トップ5に入る都市だからってのもある
給与明細は会社バレるからこれでも良いかな?
年収=収入が合わないのは贈与税かからない範囲で毎年親が送ってきて、相続税無くすためと株の配当金があるから
後12月の給与30万後半足してこの手取りから税率計算すれば年収700万も賞与の月数も嘘じゃないと分かって貰えるかな?
決して上級国民でもなんでもない
ただの庶民だし平均レベル
http://s.kota2.net/1608189932.jpg
地方都市といっても全国トップ5に入る都市だからってのもある
給与明細は会社バレるからこれでも良いかな?
年収=収入が合わないのは贈与税かからない範囲で毎年親が送ってきて、相続税無くすためと株の配当金があるから
後12月の給与30万後半足してこの手取りから税率計算すれば年収700万も賞与の月数も嘘じゃないと分かって貰えるかな?
決して上級国民でもなんでもない
ただの庶民だし平均レベル
http://s.kota2.net/1608189932.jpg
882名無しさん@お腹いっぱい。 (ワッチョイ 4bb0-FZ4g)
2020/12/17(木) 16:45:43.66ID:fiV0ceWY0 必死で草
いいから涙ふけよwwwwwwwww
いいから涙ふけよwwwwwwwww
883名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/17(木) 17:00:09.27ID:ngedge0K0 スレチなことに気づかない程度の頭の持ち主だからじゃない?
884名無しさん@お腹いっぱい。 (ワッチョイ 4bb0-FZ4g)
2020/12/17(木) 17:03:55.57ID:NWYzOpCA0 そもそも平日の昼間に何言ってんんだコイツ
いいからハロワ行け
いいからハロワ行け
885名無しさん@お腹いっぱい。 (ワッチョイ 6673-yDMm)
2020/12/17(木) 20:50:05.15ID:o3IuRTfD0 それが日記クオリティ
886名無しさん@お腹いっぱい。 (ワッチョイ a3b1-FZ4g)
2020/12/17(木) 21:52:28.38ID:u0R0/cRV0 ここの住人からしたら旧石器時代の話かもしれないが
DFL1系から2系にアップデートしたら、一見同じパラメータなんだが
化け物が生成されるようになった
srcもdstも全部同じで新規に学習しても
2系だと特定画角、それが困ったことに正面であることが多い、が化け物化する
個々のinterationのスピードは上がってるから、何かを犠牲にしてるんだろうな
結局、今でも1系動かしてるわ
DFL1系から2系にアップデートしたら、一見同じパラメータなんだが
化け物が生成されるようになった
srcもdstも全部同じで新規に学習しても
2系だと特定画角、それが困ったことに正面であることが多い、が化け物化する
個々のinterationのスピードは上がってるから、何かを犠牲にしてるんだろうな
結局、今でも1系動かしてるわ
887名無しさん@お腹いっぱい。 (ワッチョイ 1f58-FZ4g)
2020/12/17(木) 21:54:13.40ID:wEUiOt//0 megaからRTXバージョン消えたね
まだまだ時間かかりそうだし気長に待つしかないか
まだまだ時間かかりそうだし気長に待つしかないか
888名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
2020/12/17(木) 22:52:55.07ID:8N8Wm6Ww0 じゃあ今の20201216バージョンって3000シリーズ非対応なのか
また更新されたと思って喜んでたのだが。
また更新されたと思って喜んでたのだが。
889名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/18(金) 02:09:00.46ID:Uo/5aC410 >>886
初期設定の数値の割り当てが悪いとかじゃないか?
初期設定の数値の割り当てが悪いとかじゃないか?
890名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/18(金) 02:37:18.97ID:TwSdCL4r0 新しく始める時はフォーラムにあるpretrain済みのモデルデータを使えば
設定もされてるし失敗しないと思うんだけど
気に入らなければ他のを使ってみればいいし
設定もされてるし失敗しないと思うんだけど
気に入らなければ他のを使ってみればいいし
891名無しさん@お腹いっぱい。 (エムゾネW FF8a-gfaQ)
2020/12/18(金) 05:24:04.36ID:Dlt/mIM3F 更新入れたらliae-udがデフォルトになってるんだけどこっちが主流になったのかね?
今後のことも考えると早めに切り替えておくべきか
今後のことも考えると早めに切り替えておくべきか
892名無しさん@お腹いっぱい。 (ワッチョイW 8bf0-gWbi)
2020/12/18(金) 17:20:58.45ID:o6LrbTtV0 最新verでRTX3090動いてるよ
893名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/18(金) 17:24:17.87ID:Ges5iJPC0 08_02_2020だけど、liae-udだと似ないと言うかdstのままの物があるのだが
df-udだと似るやつも
dst×dstの学習はliae-udの時のみ有効な様な。df-udだとMaskしてくれない様な
df-udだと似るやつも
dst×dstの学習はliae-udの時のみ有効な様な。df-udだとMaskしてくれない様な
894名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/18(金) 17:29:17.02ID:Ges5iJPC0895名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/18(金) 17:36:27.92ID:21+Qa28k0 初めてこのスレ見つけました。よろしくお願いします。
自分は3090使っていますが、対応されて問題なく出来ましたよ。
自分は3090使っていますが、対応されて問題なく出来ましたよ。
896名無しさん@お腹いっぱい。 (スフッ Sd8a-9SH0)
2020/12/18(金) 18:20:46.75ID:nrKnapkwd おお、ついに3090で動くようになったか 帰ったら試してみよう
897名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/18(金) 18:30:28.43ID:21+Qa28k0 3090*2でSLIして見たいですが、電源が。。。
898名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
2020/12/18(金) 21:41:15.60ID:Lb5y8KFl0 3090を2台買えるやつが電源なんか気にするかよ
899名無しさん@お腹いっぱい。 (ワッチョイ f30c-Gz4g)
2020/12/18(金) 21:41:30.50ID:zo8yTqtf0 だめだうちの3090では最新版でもやはり、顔抽出途中で止まった。また待ちます。
900名無しさん@お腹いっぱい。 (ワッチョイW 8b3a-gWbi)
2020/12/18(金) 22:36:42.37ID:vt6l6RKH0901名無しさん@お腹いっぱい。 (ワッチョイ f30c-Gz4g)
2020/12/19(土) 00:32:52.88ID:GV4bOaIu0902名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/19(土) 00:36:24.50ID:KmwJgewt0 たしかにXsegでは止まってしまいますね。。確認不足でした。すみません。どうやらTensorflowの問題らしいです。
903名無しさん@お腹いっぱい。 (ワッチョイ ff7b-WzAq)
2020/12/19(土) 13:48:21.72ID:rB3YLKrL0 3090だとエラー出るのかな?
最新ver試してないけど3070なら一か月ぐらいにmegaにあった3000buildだとエラーなく最後まで出来たんだけど
顔の抽出が凄い遅かったのはあったが
>>894
マネーフォワードがデフォ設定だと賞与が一時金扱いに分類される
手取り150万の年間賞与だと額面200万くらい
給与が330万手取りなので額面だと約400ちょっと
会社で財形貯蓄や会社主体の保険入ってると天引きされるから実際はもう少し多いと予想
確かに700万前後あるだろうけど、ここで披露したからどうだと言う話
あと必死に乏してる奴等はそれ以上に惨めだが
最新ver試してないけど3070なら一か月ぐらいにmegaにあった3000buildだとエラーなく最後まで出来たんだけど
顔の抽出が凄い遅かったのはあったが
>>894
マネーフォワードがデフォ設定だと賞与が一時金扱いに分類される
手取り150万の年間賞与だと額面200万くらい
給与が330万手取りなので額面だと約400ちょっと
会社で財形貯蓄や会社主体の保険入ってると天引きされるから実際はもう少し多いと予想
確かに700万前後あるだろうけど、ここで披露したからどうだと言う話
あと必死に乏してる奴等はそれ以上に惨めだが
904名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/19(土) 14:18:16.99ID:D0kdx6n60 酷いスレだわ
905名無しさん@お腹いっぱい。 (スプッッ Sd2a-20fS)
2020/12/19(土) 14:18:39.79ID:BjQuUv3rd どうでもいいがMFは手入力できるから自分の好きな金額にできるぞ
906名無しさん@お腹いっぱい。 (ワッチョイ 1f58-22vh)
2020/12/19(土) 15:36:04.64ID:J319dMxk0 3090動いてる人うらやま
うちの環境じゃ相変わらずエラー吐いて学習始まらないんだよなぁ
[Place models and optimizer on GPU]切ると、vram50%ぐらい使用しながら一応動くけど
CPU使用率半端無いし遅いしで使いものにならないし
うちの環境じゃ相変わらずエラー吐いて学習始まらないんだよなぁ
[Place models and optimizer on GPU]切ると、vram50%ぐらい使用しながら一応動くけど
CPU使用率半端無いし遅いしで使いものにならないし
907名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/19(土) 17:49:40.95ID:t8IeWd2z0 DFスレ民の給与とかクソどうでもいいんだが
908名無しさん@お腹いっぱい。 (ワッチョイ 0fb0-FZ4g)
2020/12/19(土) 17:54:16.28ID:U4XvjCW70 エアプ会社員が大暴れしてるのふふってなる
909名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/19(土) 20:52:19.53ID:bUqQTCjA0 そんな事より素材スレか合成レシピを書き込むページを誰か作って
910名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/19(土) 21:52:24.85ID:2gW2kMY60911名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/19(土) 22:33:55.48ID:D0kdx6n60 俺の1080じゃ更新無理かなと思ってたけど一応build_12_16_2020落として使ってみた
liae-udのres192だけど、今の所モデルそのまんまで速度も変わらず使えてる
lr_dropoutが無くなったので代わりにAdaBeliefを使うのが変わった点だろうか
liae-udのres192だけど、今の所モデルそのまんまで速度も変わらず使えてる
lr_dropoutが無くなったので代わりにAdaBeliefを使うのが変わった点だろうか
912名無しさん@お腹いっぱい。 (ワッチョイW 7311-sjWL)
2020/12/19(土) 22:55:58.53ID:0D39FK5s0 3月の下旬にリリースされたバージョンでずっとやってるんですが、今時のバージョンは、顔の抽出精度も向上していますか?
今使ってるバージョンだと、連続シーンなのに、顔が抽出されないコマがあったりするので、向上しているなら久しぶりにバージョンを上げようかと思うのですが。
今使ってるバージョンだと、連続シーンなのに、顔が抽出されないコマがあったりするので、向上しているなら久しぶりにバージョンを上げようかと思うのですが。
913名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/19(土) 23:28:59.68ID:KmwJgewt0 私の場合は3000buildの12月のバージョンが出ていたのでダウンロードして使っています。XSegのトレーニング以外はきちんと動いています。ただ顔の抽出がたまにおかしくなりますね。
914名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/20(日) 01:37:01.79ID:DL1vCqlY0 まだやってないけど顔の抽出は俺が使い始めた去年の春ぐらいから基本何も変化がない
915名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/20(日) 09:31:03.88ID:7xq9z9kO0 顔抽出の精度とかはDFLの範疇じゃないでしょ
別の人の研究のS3FDとかのモデルの顔のバリエーション、Train具合次第では?
別の人の研究のS3FDとかのモデルの顔のバリエーション、Train具合次第では?
916名無しさん@お腹いっぱい。 (ワッチョイW 7311-sjWL)
2020/12/20(日) 10:43:32.57ID:3O97qwdj0917名無しさん@お腹いっぱい。 (ワッチョイW 7311-sjWL)
2020/12/20(日) 10:48:37.88ID:3O97qwdj0 >>915
S3FDがdflの作者と違うのは知ってたんですが、そろそろバージョンアップされてないかな〜と思いまして
S3FDの精度が高くなれば、ずっと作業が楽になるのに…というかmodelが鍛えられてしまえば、debug作業しか時間は取られないわけで
S3FDがdflの作者と違うのは知ってたんですが、そろそろバージョンアップされてないかな〜と思いまして
S3FDの精度が高くなれば、ずっと作業が楽になるのに…というかmodelが鍛えられてしまえば、debug作業しか時間は取られないわけで
918名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/20(日) 13:48:59.44ID:oNCgA0e7d 質問
初めて動画作成まで行ったんだが、完成した動画の顔がボヤケててそもそもSRCの顔が適用されてない気がする
trainは12時間やったんだがこれって何が原因?
初めて動画作成まで行ったんだが、完成した動画の顔がボヤケててそもそもSRCの顔が適用されてない気がする
trainは12時間やったんだがこれって何が原因?
919名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/20(日) 15:50:33.84ID:hFMQVgz60 train何時間とかじゃなくてpreviewの顔とloss値見ろ
ついでに言うとpretrain済だとしても12時間じゃ足りない
ついでに言うとpretrain済だとしても12時間じゃ足りない
920名無しさん@お腹いっぱい。 (ワッチョイW 5358-sv8k)
2020/12/20(日) 16:21:20.42ID:Xv9J0g2I0921名無しさん@お腹いっぱい。 (ワッチョイ 1f58-22vh)
2020/12/20(日) 17:18:08.61ID:bviIK2bX0 スルーしろよボケ
922名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/20(日) 17:24:36.07ID:oNCgA0e7d lossってどこに出る?
もう分けがわからん
もう分けがわからん
923名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/20(日) 17:33:52.12ID:hFMQVgz60 lossが分からないのは草
そのレベルだったらもう無理だわ
そのレベルだったらもう無理だわ
924名無しさん@お腹いっぱい。 (ワッチョイ 8be8-FZ4g)
2020/12/20(日) 18:47:41.72ID:GHbUYMoT0925名無しさん@お腹いっぱい。 (ラクッペペ MMe6-fNDA)
2020/12/20(日) 19:49:44.32ID:mMWU7kDFM pretrainってのはトレーニングの再利用ってことだよな?
926名無しさん@お腹いっぱい。 (ワッチョイW ea6d-PSda)
2020/12/20(日) 19:54:04.73ID:+gDZrhSb0 やべえな、マニュアル読めねえレベルか
927名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 20:09:43.69ID:E0I/MuaR0 何回かやれば、ってその何回もやるのが無駄すぎでしょ
たかだか2分の動画でなんで100時間かけないとあかんねん
これがAIの最先端って?笑わせんな
たかだか2分の動画でなんで100時間かけないとあかんねん
これがAIの最先端って?笑わせんな
928名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 20:14:04.54ID:E0I/MuaR0 まともな社会人でできるやついねえよこんなもん
aviutlと同時起動で双方の効率終わるし使えるのは寝てる時だけ
そうなると電気代が終わる
aviutlと同時起動で双方の効率終わるし使えるのは寝てる時だけ
そうなると電気代が終わる
929名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/20(日) 20:32:56.32ID:DL1vCqlY0 まあそれはそれとして
1220出た
lr_dropoutまた使えるようになった
目と口が優先できるオプションになった
1220出た
lr_dropoutまた使えるようになった
目と口が優先できるオプションになった
930名無しさん@お腹いっぱい。 (ワッチョイ 8be8-FZ4g)
2020/12/20(日) 20:58:32.75ID:GHbUYMoT0931名無しさん@お腹いっぱい。 (ワッチョイW ea6d-PSda)
2020/12/20(日) 21:42:53.64ID:+gDZrhSb0 >>927
百時間掛かるとしたら、お前の環境がしょぼいか、やり方が下手なだけだわ
つうかDFLの内容は最先端ではない。例えば、最先端の論文検証を民生用のグラボ一枚でやろうとしたら試算上で一年とかざらだぞ、アホらしくてやらないけども。
百時間掛かるとしたら、お前の環境がしょぼいか、やり方が下手なだけだわ
つうかDFLの内容は最先端ではない。例えば、最先端の論文検証を民生用のグラボ一枚でやろうとしたら試算上で一年とかざらだぞ、アホらしくてやらないけども。
932名無しさん@お腹いっぱい。 (ワッチョイ 4ac0-FZ4g)
2020/12/20(日) 21:50:25.73ID:5bFtS3MH0933名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
2020/12/20(日) 22:08:30.46ID:2udGUMJa0 だれかグラボ3枚で顔抽出やった人いる?
適当なグラボ2枚で動くのは確認した。
(今のところ3080で顔抽出が一番遅いからなんとかしたい)
適当なグラボ2枚で動くのは確認した。
(今のところ3080で顔抽出が一番遅いからなんとかしたい)
934名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 22:42:51.91ID:E0I/MuaR0 人物変えて、のくだりがよくわからん
それってフォルダーにdstの名前のやつ入れてtrain削除して〜、っていうのを繰り返すのか?
だとしたら、よくわからん不出来な素材で試してた結果、経験積ませたと思ってたが実際はできてなかったとかあるんじゃないの?
それってフォルダーにdstの名前のやつ入れてtrain削除して〜、っていうのを繰り返すのか?
だとしたら、よくわからん不出来な素材で試してた結果、経験積ませたと思ってたが実際はできてなかったとかあるんじゃないの?
935名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 22:45:31.54ID:E0I/MuaR0 dstじゃなくてSRCだったわ
あと、その過程はworkにある1234567の全部をやっていかなくちゃだめなの?
できることならtrainは最小限でやりたいんだが
あと、その過程はworkにある1234567の全部をやっていかなくちゃだめなの?
できることならtrainは最小限でやりたいんだが
936名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/20(日) 22:56:05.15ID:DL1vCqlY0 わざわざ答えるやつがいるからこういう流れになるんだよ
937名無しさん@お腹いっぱい。 (スップ Sd2a-8jHH)
2020/12/20(日) 23:14:46.80ID:YhrtOCdPd 試験的な実装をしているとか、それこそ少し上でも出たような「一部のアルゴリズムを最近のものに変更しました」みたいなforkってあったりするの?
見てみようと思ったら、forkの数が5.1kとかあって見る気が失せた。
見てみようと思ったら、forkの数が5.1kとかあって見る気が失せた。
938名無しさん@お腹いっぱい。 (ワッチョイ 1f58-FZ4g)
2020/12/21(月) 02:45:54.07ID:pw3nSI350 Eyes priority is replaced with Eyes and mouth priority,
Helps to fix eye problems during training like "alien eyes" and wrong eyes direction.
Also makes the detail of the teeth higher.
New default values with new model:
Archi : ‘liae-ud’
AdaBelief : enabled
Helps to fix eye problems during training like "alien eyes" and wrong eyes direction.
Also makes the detail of the teeth higher.
New default values with new model:
Archi : ‘liae-ud’
AdaBelief : enabled
939名無しさん@お腹いっぱい。 (エムゾネW FF8a-gfaQ)
2020/12/21(月) 03:53:55.12ID:y+LGPGS5F 試行錯誤もせず自分の不勉強を棚に上げて勝手にキレ始めるやつにはそもそも向いてない
諦めろ
諦めろ
940名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/21(月) 05:24:06.78ID:zpyty4uo0 二週間前からまったく成長してなさそうだな
941名無しさん@お腹いっぱい。 (アウアウウー Sa9f-PSda)
2020/12/21(月) 09:33:17.32ID:iKBrrl3Ia >>936
確かにな
確かにな
942名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/21(月) 10:55:47.63ID:q5W6Tk/kd >>934について誰か答えてほしい
943名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/21(月) 12:00:01.92ID:q5W6Tk/kd 訓練って、そもそもどうやるのかわからんのだがチュートリアルとか今ないのか?
違う人物5人でやるにしても1人何時間やるのか、どのデータを消してどれを残すのか、どういう動画をやるのかとか重要な点がない
違う人物5人でやるにしても1人何時間やるのか、どのデータを消してどれを残すのか、どういう動画をやるのかとか重要な点がない
944名無しさん@お腹いっぱい。 (ワッチョイ 6603-FZ4g)
2020/12/21(月) 12:45:45.74ID:tH216XgZ0 久々に復帰したけどDeepFaceLab_NVIDIAってやつエラーで動かんわ
前使ってたDeepFaceLab_CUDA_9.2_SSEは動いたけど、最新版に乗り換える意味ってある?
前使ってたDeepFaceLab_CUDA_9.2_SSEは動いたけど、最新版に乗り換える意味ってある?
945名無しさん@お腹いっぱい。 (ワッチョイW 7392-gfaQ)
2020/12/21(月) 14:01:25.19ID:kJCDsbLq0 >>943
youtubeに外人が山ほどチュートリアル動画上げてるけど
自動翻訳で字幕も出せるしそれ見てこいよ
わからない単語はググってください
界隈特有の単語や意味はありません
DFなんて自己満足の極みだから君がほしい何を何回、何時間とかの正解なんてある訳ないんだよ
youtubeに外人が山ほどチュートリアル動画上げてるけど
自動翻訳で字幕も出せるしそれ見てこいよ
わからない単語はググってください
界隈特有の単語や意味はありません
DFなんて自己満足の極みだから君がほしい何を何回、何時間とかの正解なんてある訳ないんだよ
946名無しさん@お腹いっぱい。 (アウアウウー Sa9f-sv8k)
2020/12/21(月) 14:32:18.90ID:W2JMuyVIa >>943
wikiもマニュアルもあるからまず電子辞書買ってこい
wikiもマニュアルもあるからまず電子辞書買ってこい
947名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/21(月) 15:05:57.23ID:kxUGQTO/0 どんなにAIの最先端であっても使い手がこれじゃね
豚に真珠
豚に真珠
948名無しさん@お腹いっぱい。 (ワッチョイW be02-xWwc)
2020/12/21(月) 18:21:38.23ID:3PezdazN0 このスレって一体なんの為にあるのかわからんよな
俺も初心者の頃なんの利益にもならなかったよ
俺も初心者の頃なんの利益にもならなかったよ
949名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/21(月) 18:33:31.32ID:q5W6Tk/kd950名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/21(月) 18:48:41.07ID:7+ICaAmz0 うーんこの
951名無しさん@お腹いっぱい。 (ワッチョイW 7b73-A7VK)
2020/12/21(月) 18:51:15.66ID:fxMF7jBF0 ギリ健か?生きるの大変そうやな
952名無しさん@お腹いっぱい。 (ワッチョイ 4ae8-FZ4g)
2020/12/21(月) 20:08:17.23ID:6XqIYiVD0 maskの修正するときにtrainされたmaskの形から修正できたらいいのにってすごく思う。
953名無しさん@お腹いっぱい。 (アウアウウー Sa9f-PSda)
2020/12/21(月) 20:35:43.20ID:jru9VoQqa >>949
中学生かよw諦めろw
中学生かよw諦めろw
954名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
2020/12/21(月) 21:02:37.11ID:N17igtqX0 すごく初心者的質問になるかもしれないが、ぶっちゃけ、学習してモデルをつくるという仕組みをよく理解できていない。
いろんな角度の画像を覚えこまして、新しいはめ込む動画のもとの顔がこういう角度でこういう表情だから、data_srcのか中に顔の中で一番いいやつを探してきて、これをコラするよ(場合によっては目はこの画像で、口はこれがいいなとかパーツごとに判断して)、
ということなのか、それとも、いろんな角度の画像を勉強して、この顔のいろんな方向からの顔のデータを作って、この方向でこういう表現をしているdstの顔に、学習してできた顔のデータを再生するよということなんか。
どっちなんでしょう。
前者であれば、あくまでも張り付けるパーツの画像が必要なので、それがきれいでなければいくら学習してもうまくいかないが、後者なら、いったん顔のデータ作れさえすれば、あとはきれいな画像を作り上げてくれるということになる。
ゴミをいくら張り付けてもゴミのままになる。
そういう意味で、最初の素材選びは、いい勉強をしてらうというより、いいパーツを集めることにも影響するから最重要ということなるよね。
どっちなんでしょう?
いろんな角度の画像を覚えこまして、新しいはめ込む動画のもとの顔がこういう角度でこういう表情だから、data_srcのか中に顔の中で一番いいやつを探してきて、これをコラするよ(場合によっては目はこの画像で、口はこれがいいなとかパーツごとに判断して)、
ということなのか、それとも、いろんな角度の画像を勉強して、この顔のいろんな方向からの顔のデータを作って、この方向でこういう表現をしているdstの顔に、学習してできた顔のデータを再生するよということなんか。
どっちなんでしょう。
前者であれば、あくまでも張り付けるパーツの画像が必要なので、それがきれいでなければいくら学習してもうまくいかないが、後者なら、いったん顔のデータ作れさえすれば、あとはきれいな画像を作り上げてくれるということになる。
ゴミをいくら張り付けてもゴミのままになる。
そういう意味で、最初の素材選びは、いい勉強をしてらうというより、いいパーツを集めることにも影響するから最重要ということなるよね。
どっちなんでしょう?
955名無しさん@お腹いっぱい。 (ワッチョイ 4ae8-FZ4g)
2020/12/21(月) 21:14:52.49ID:6XqIYiVD0 >>954
俺も最近やり始めながら同じことを悩んでたわ。
どちらかというと前者なのかなと思ってる。
だから素材選びは大事なのかなーと。。。
loss値が小さくなるってのがAIさんが今ある素材で限界までがんばりました。
ってことか思ってる。
あってるんでしょうか?こういうことはマニュアルにも書いてないから気になる。
教えて!詳しい人!
俺も最近やり始めながら同じことを悩んでたわ。
どちらかというと前者なのかなと思ってる。
だから素材選びは大事なのかなーと。。。
loss値が小さくなるってのがAIさんが今ある素材で限界までがんばりました。
ってことか思ってる。
あってるんでしょうか?こういうことはマニュアルにも書いてないから気になる。
教えて!詳しい人!
956名無しさん@お腹いっぱい。 (ワッチョイ dbe5-22vh)
2020/12/21(月) 21:24:53.56ID:zkwZdfnQ0 前者。瞬きしてない src ばかり集めたら瞬きしない result しか出来ない
モデルというのはモデリングしたもの、ではない
モデルというのはモデリングしたもの、ではない
957名無しさん@お腹いっぱい。 (ワッチョイ 4ae8-FZ4g)
2020/12/21(月) 21:40:48.65ID:6XqIYiVD0958名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/21(月) 22:18:04.81ID:+Y0CGwjB0 AdaBelief結構すごいな
ちょっとアルゴリズムが変わっただけかと思ったら、学習かなり速いんだね
ちょっとアルゴリズムが変わっただけかと思ったら、学習かなり速いんだね
959名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/21(月) 23:10:48.00ID:xr7dB6O0p 後者だよ。
ただ3Dとかパーツごとの意味を分かって描いてる訳じゃない。絵として判断してsrcっぽい絵を生成してる。
ずっと笑顔なら笑顔=srcっぽい絵なんだからそうなる。
src側の出力はsrcの画像だけ学習してるから、srcに無いものは生成出来ない。pretrainしてたりモデル引き継げばそれ参照できるから結果再現度あがる。
ただ3Dとかパーツごとの意味を分かって描いてる訳じゃない。絵として判断してsrcっぽい絵を生成してる。
ずっと笑顔なら笑顔=srcっぽい絵なんだからそうなる。
src側の出力はsrcの画像だけ学習してるから、srcに無いものは生成出来ない。pretrainしてたりモデル引き継げばそれ参照できるから結果再現度あがる。
960名無しさん@お腹いっぱい。 (ワッチョイ daae-Gz4g)
2020/12/22(火) 00:00:02.11ID:u3Jf/Qex0961名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 08:11:36.66ID:OvF2fd0Bd >>943
に答えてくれ誰か
に答えてくれ誰か
962名無しさん@お腹いっぱい。 (ワッチョイW c3c9-dJ1Z)
2020/12/22(火) 08:51:27.26ID:R/BwnKDK0 こんなくそ知識のところで聞いても意味ないよ
初心者馬鹿にしてるやつがそもそも初心者なんだから
dstxdstもモデルの引き継ぎもディベロッパー全員否定してる
信頼できるのはdflのgithub, telegram(ロシア語)、faceswapのdiscord, 公式くらいでmrも怪しい
翻訳のやり方から勉強しな
初心者馬鹿にしてるやつがそもそも初心者なんだから
dstxdstもモデルの引き継ぎもディベロッパー全員否定してる
信頼できるのはdflのgithub, telegram(ロシア語)、faceswapのdiscord, 公式くらいでmrも怪しい
翻訳のやり方から勉強しな
963名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/22(火) 09:01:44.67ID:Rc7+cPYsp964名無しさん@お腹いっぱい。 (ワッチョイW c3c9-Xl0H)
2020/12/22(火) 09:39:19.83ID:R/BwnKDK0 転移学習とmodelの使いまわしの違いがわかってないから言ってんだよ
間違った知識を広めてるという自覚を持ってね
間違った知識を広めてるという自覚を持ってね
965名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/22(火) 10:22:57.12ID:vA2c7czk0 だから自分で調べろって書いてんのにそれを否定してんのがこの質問者なんだよ
966名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 12:02:45.51ID:OvF2fd0Bd >>963
ってことはDSTって名前の動画が何個もあって良いってこと?
ってことはDSTって名前の動画が何個もあって良いってこと?
967名無しさん@お腹いっぱい。 (ワッチョイW 7392-gfaQ)
2020/12/22(火) 12:38:07.85ID:4S+Lba/00 ID:q5W6Tk/kd
こいつヤバいな
こいつヤバいな
968名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-WSGO)
2020/12/22(火) 13:15:39.79ID:GHeJZOBNp data_dst
data_dst_A01
data_dst_A02
data_dst_A01
data_dst_A02
969名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/22(火) 13:52:53.11ID:qQgXnR8U0 触ってみてから質問すればいいのに触りすらしないから理解もできない
970名無しさん@お腹いっぱい。 (ワッチョイ 6603-FZ4g)
2020/12/22(火) 14:07:35.90ID:3SAtxVKw0 質問に誰も答えれてない時点で自分以下のバカしか居ないんだからここで聞くだけ無駄
971名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/22(火) 14:37:02.94ID:Rc7+cPYsp ファインチューニングって言うのが正しいのかな?
972名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/22(火) 16:50:14.66ID:x1pl3Cvw0 >>962
dstxdstはXseg Maskさぼった時に、liae-udでは有効だったけど
df-udでは無効
モデルの引き継ぎが無効とは、モデル使いまわしが無効だとでも?
いちいち新規から学習なのか?
フォーラムに上がっているTrain済のモデルの意味合いは?
Pretrainも無効なんでしょ
dstxdstはXseg Maskさぼった時に、liae-udでは有効だったけど
df-udでは無効
モデルの引き継ぎが無効とは、モデル使いまわしが無効だとでも?
いちいち新規から学習なのか?
フォーラムに上がっているTrain済のモデルの意味合いは?
Pretrainも無効なんでしょ
973名無しさん@お腹いっぱい。 (ワッチョイ 1f58-22vh)
2020/12/22(火) 17:00:42.15ID:PSLszAIf0 間違った知識は訂正しても他人が賢くなるだけだからそのまま放置するのが基本
974名無しさん@お腹いっぱい。 (ワッチョイ 8be8-FZ4g)
2020/12/22(火) 17:01:20.46ID:6E3YQXis0 作りたいのが一人だとしてもそのsrcだけじゃなく色んな表情や画角を学習させないと自然な仕上がりにならない
アイドルだけ作ってるやつは全部笑顔か無表情になる
アイドルだけ作ってるやつは全部笑顔か無表情になる
975名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 17:06:25.68ID:D3kaqk9w0 >>974
そうなんですよね。1人の顔でもいろんな表情で、光の当たり方、角度を混ぜたデータセットを作らないと綺麗なのは出来ないですね。しかもデータセットが大きすぎても結果は悪くなるので綺麗な画像をちゃんと選ぶのがコツかと。
そうなんですよね。1人の顔でもいろんな表情で、光の当たり方、角度を混ぜたデータセットを作らないと綺麗なのは出来ないですね。しかもデータセットが大きすぎても結果は悪くなるので綺麗な画像をちゃんと選ぶのがコツかと。
976名無しさん@お腹いっぱい。 (ワッチョイW c3c9-dJ1Z)
2020/12/22(火) 17:20:11.28ID:R/BwnKDK0 大半が>>972みたいな馬鹿だからなんの議論にも発展しない
事前学習、転移学習、ファインチューニングとモデルの使い回しは違う
おま環であーだこーだ言ってるだけのクソスレ
匿名でやってても誰が正しいかもわからないでしょ?下手くそ量産するだけだし、初心者にも害悪だからこんなスレやめた方がいいよ
事前学習、転移学習、ファインチューニングとモデルの使い回しは違う
おま環であーだこーだ言ってるだけのクソスレ
匿名でやってても誰が正しいかもわからないでしょ?下手くそ量産するだけだし、初心者にも害悪だからこんなスレやめた方がいいよ
977名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/22(火) 18:23:06.06ID:y/trkkeh0 何か聞きたいならTwitterの職人で優しそうな奴に聞けってそれ一番言われてるから
978名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 18:41:03.86ID:OvF2fd0Bd このスレ無くせ、とかいうくせ、ちゃっかり定期的に見に来るんだぞ
すまんが議論はよそでやれな?
ここは討論会じゃねえよ
すまんが議論はよそでやれな?
ここは討論会じゃねえよ
979名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 18:41:56.59ID:OvF2fd0Bd >>977
なお誰かまでは言えない模様
なお誰かまでは言えない模様
980名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
2020/12/22(火) 18:46:26.49ID:lphrcyjs0 >>954
素材がいいに越したことはない
これはまさしくその通りなんだけど、srcを一つの動画ファイルから作るだけでいいのか、できるだけいろんなものから作ればいいのか、
抜き出しのfpsは30で全フレーム出したほうがいいのか、よくないのか。
あるいは顔を動かしてぶれているような画像は、画像としては微妙だけど、動きのコマとして有用なのか。
そもそも学習させる元のファイルは多ければ多いほどいいのか。
ほぼ重複しているような画像は必要か、不要だとしたらどれぐらいの違いがあるか。
とか、色々最近悩んでいて、一通りモデル作ってみたんで、量産に入りたいなあと思い、
そのためには、モデルの作り方の最適解を探したいなあと思っとるんです。
限られたパワーで、モデルの解像度に振り分けるのか、liaeモデルを使うほうがいいのか、バッチサイズを優先してあげたほうがいいのかなど、色々むずかしいですなあ。
素材がいいに越したことはない
これはまさしくその通りなんだけど、srcを一つの動画ファイルから作るだけでいいのか、できるだけいろんなものから作ればいいのか、
抜き出しのfpsは30で全フレーム出したほうがいいのか、よくないのか。
あるいは顔を動かしてぶれているような画像は、画像としては微妙だけど、動きのコマとして有用なのか。
そもそも学習させる元のファイルは多ければ多いほどいいのか。
ほぼ重複しているような画像は必要か、不要だとしたらどれぐらいの違いがあるか。
とか、色々最近悩んでいて、一通りモデル作ってみたんで、量産に入りたいなあと思い、
そのためには、モデルの作り方の最適解を探したいなあと思っとるんです。
限られたパワーで、モデルの解像度に振り分けるのか、liaeモデルを使うほうがいいのか、バッチサイズを優先してあげたほうがいいのかなど、色々むずかしいですなあ。
981名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
2020/12/22(火) 18:48:27.16ID:lphrcyjs0 そのためにも、ある程度構造を理解しないといけないなあということになって、ぶっちゃけ今更ながらよく理解せずにつくっているなあと。
982名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/22(火) 19:22:49.10ID:y/trkkeh0 十分素材が充実(表情、角度的な意味で)してるなら一続きの動画で構わないけど実際問題難しい、ドラマの主演で1シーズン分素材があるとかなら話は別だけど
抜き出しは30fpsも要らない、10以下で抽出してさらにボヤけてるものとかを間引けばok
ボヤけてるsrcは不要、dstがボヤけてればmergeで勝手にボヤける
正面付近のシーンをメインで作るならdf、側面などもしっかり作りたいならliae
抜き出しは30fpsも要らない、10以下で抽出してさらにボヤけてるものとかを間引けばok
ボヤけてるsrcは不要、dstがボヤけてればmergeで勝手にボヤける
正面付近のシーンをメインで作るならdf、側面などもしっかり作りたいならliae
983名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 19:32:49.28ID:D3kaqk9w0 YouTubeで海外非エロdeepfakeを作ってるShamookって人は、映画3作くらいから顔を抽出してるらしいです。srcは大体8000枚(ぼやけてるやつ、同じような物は間引いて)で、トレーニングしてて、300万回くらいiterしてましたよ。参考になるか分かりませんが。。
984名無しさん@お腹いっぱい。 (ワッチョイW be02-xWwc)
2020/12/22(火) 19:39:37.32ID:rcl3oPSM0 DVDとか変えたら髪型、化粧変わってもはや別人なのにこれでもデータは多いほうが良いのか、それとも似てるやつだけを取捨選択したほうがいいの?
985名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/22(火) 20:03:50.31ID:Rc7+cPYsp どれだけ集められるかにもよるけど可能なら自分の思ってるイメージに近いメイクだけにしておいた方が無難。明るさとか色合い表情画角は多彩にな。5fpsで似た画像は削除してる。目閉じてるの足りないこと多いからそこも忘れずに。
どうせ議論厨に間違ってるって言われるんだろうけどなw
どうせ議論厨に間違ってるって言われるんだろうけどなw
986名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 20:05:28.26ID:D3kaqk9w0 >>984
髪型は関係ないと思います。ただ化粧は影響してくると思います。なるべく同じような化粧で、違うアングルや表情、ライティングを集めた方が無難かと。ただ違う化粧(ギャルvs清楚)見たいなデータでトレーニングしてないのでなんとも言えないですが。。
髪型は関係ないと思います。ただ化粧は影響してくると思います。なるべく同じような化粧で、違うアングルや表情、ライティングを集めた方が無難かと。ただ違う化粧(ギャルvs清楚)見たいなデータでトレーニングしてないのでなんとも言えないですが。。
987名無しさん@お腹いっぱい。 (ワッチョイW c3c9-Xl0H)
2020/12/22(火) 20:09:42.38ID:R/BwnKDK0 それはあってるぞ自信持って!!
988名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 20:19:10.89ID:D3kaqk9w0 もし、Pythonが使えるならPySceneDetectお勧めです。これで映画をシーンごとに分割してくれるから、やり易くなりますよ。
989名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/22(火) 21:22:12.74ID:HawVq19D0990名無しさん@お腹いっぱい。 (アウアウウー Sa9f-PSda)
2020/12/22(火) 22:22:01.70ID:OGfDfqvba >>976
はいはいw
はいはいw
991名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/22(火) 22:54:42.26ID:vA2c7czk0 映画とかで使えそうなシーンをカット編集しても10分〜多くて20分程度にしかならないから
コマ送りして一枚ずつpng出力してるわ
ピンボケもすぐ分かるし瞬きの瞬間は細かくとか動きのないシーンは飛ばしてとか
直感的に操作しやすいから取りこぼしも少なくなるし
分割した数万枚の画像とにらめっこするより作業が雑になりにくく少ない枚数で質のいい素材を集められる
まあどうやるかは好みだけど
コマ送りして一枚ずつpng出力してるわ
ピンボケもすぐ分かるし瞬きの瞬間は細かくとか動きのないシーンは飛ばしてとか
直感的に操作しやすいから取りこぼしも少なくなるし
分割した数万枚の画像とにらめっこするより作業が雑になりにくく少ない枚数で質のいい素材を集められる
まあどうやるかは好みだけど
992名無しさん@お腹いっぱい。 (ワッチョイW 7b73-A7VK)
2020/12/22(火) 23:12:32.54ID:cfhcugtO0 みんなすごいなあ
誰に見せるでもないから適当に拾った5分くらいの動画を30fpsでバラして
顔抽出出来てるのは全部使ってそれで作ってるわ
なんならdstも正面中心で編集して面倒そうなシーンは端から切ってる
さっきTBSでやってた山里の眼鏡ごとsrcにするのとかめっちゃ面倒そうやな
誰に見せるでもないから適当に拾った5分くらいの動画を30fpsでバラして
顔抽出出来てるのは全部使ってそれで作ってるわ
なんならdstも正面中心で編集して面倒そうなシーンは端から切ってる
さっきTBSでやってた山里の眼鏡ごとsrcにするのとかめっちゃ面倒そうやな
993名無しさん@お腹いっぱい。 (ワッチョイW 1f58-6v99)
2020/12/22(火) 23:19:24.17ID:PSLszAIf0 これもう次スレ要らないぞ
更新速報や3000番の報告なんかは有用だったけど
他はもう何回目だよって同じ話しかしてない
更新速報や3000番の報告なんかは有用だったけど
他はもう何回目だよって同じ話しかしてない
994名無しさん@お腹いっぱい。 (ワッチョイ ff8b-Vck4)
2020/12/23(水) 00:24:23.79ID:7Gy0dGBD0 お前が来なけりゃいだろ
995名無しさん@お腹いっぱい。 (ワッチョイ 5b03-80jV)
2020/12/23(水) 05:58:27.97ID:uPvo6CHK0 知識なくて付いてこれないから悔しいんだね・・・
996名無しさん@お腹いっぱい。 (ワンミングク MMff-w8eF)
2020/12/23(水) 09:44:35.36ID:RMFN9dQhM >>993
wikiでも作って誘導したらいいやん
wikiでも作って誘導したらいいやん
997名無しさん@お腹いっぱい。 (ササクッテロル Sp1f-a9Ct)
2020/12/23(水) 12:11:48.68ID:Yx1pqwCnp >>996
作りましょうか?
作りましょうか?
998名無しさん@お腹いっぱい。 (ワッチョイ 5373-OmO1)
2020/12/23(水) 12:19:16.75ID:bUB4e3R50 日記地獄じゃん
999名無しさん@お腹いっぱい。 (ワッチョイ 5d76-yePO)
2020/12/23(水) 17:20:05.03ID:MVaI8uh/0 ここでキレて喚いてる無能者の問題点は、門外漢の無知無能が
いきなり裸でポークビッツ握りしめて正座してるってとこなの。
猿や金魚の刷り込みみたいに覚えたトコロで、ロクなモンは出来ないし
RTX3090がどうこうってのはヘタコの手抜きに貢献するだけ。
ワカランうちは、遅いGPUで速く学習出来るデータセット作成の腕を磨く方が身のため。
ぶっちゃけ、適切な画像とランドマークのデータセットなら
1.0のCPUでもDF128なら数日でモノになる。
1.0終盤に追加されたコンバート時のGAN系の高精細オプションは
通常の倍程度のコンバート負荷のみで抜群の性能を発揮するから、
FHD中サイズでも128でカバー出来る精細さを実現してるし。
加えて、他の動画編集ソフトを使いこなせる知識と各種フォーマット知識も無いと
どれだけ良いマージ画像が出来ても、色合わせや輪郭合わせが上手く出来ない。
この知識があると、単純にオーバーレイの各種マスク処理を使わずにLeraned輪郭でマージデータ出力が
出来るから、マスク準備不要且つトレイン・マージデータ出力が異様に速く済む。
アルファマスク出力指定で、動画編集ソフト側で色合わせ・マスク・輪郭ぼかしをやると
多少の異常フレームもキレイに直せるし、
そもそも元データのDst作成時に顔のみの部分出力と不要な他人等をマスク消去して
必要フレームのみ出力出来るから、Extractでの誤認識もほぼ解消出来る。
要は初心者をバカにしているのでは無く、そういった総合的なPC映像知識がAI以前に必要なんだよ。
いきなり裸でポークビッツ握りしめて正座してるってとこなの。
猿や金魚の刷り込みみたいに覚えたトコロで、ロクなモンは出来ないし
RTX3090がどうこうってのはヘタコの手抜きに貢献するだけ。
ワカランうちは、遅いGPUで速く学習出来るデータセット作成の腕を磨く方が身のため。
ぶっちゃけ、適切な画像とランドマークのデータセットなら
1.0のCPUでもDF128なら数日でモノになる。
1.0終盤に追加されたコンバート時のGAN系の高精細オプションは
通常の倍程度のコンバート負荷のみで抜群の性能を発揮するから、
FHD中サイズでも128でカバー出来る精細さを実現してるし。
加えて、他の動画編集ソフトを使いこなせる知識と各種フォーマット知識も無いと
どれだけ良いマージ画像が出来ても、色合わせや輪郭合わせが上手く出来ない。
この知識があると、単純にオーバーレイの各種マスク処理を使わずにLeraned輪郭でマージデータ出力が
出来るから、マスク準備不要且つトレイン・マージデータ出力が異様に速く済む。
アルファマスク出力指定で、動画編集ソフト側で色合わせ・マスク・輪郭ぼかしをやると
多少の異常フレームもキレイに直せるし、
そもそも元データのDst作成時に顔のみの部分出力と不要な他人等をマスク消去して
必要フレームのみ出力出来るから、Extractでの誤認識もほぼ解消出来る。
要は初心者をバカにしているのでは無く、そういった総合的なPC映像知識がAI以前に必要なんだよ。
1000名無しさん@お腹いっぱい。 (ワッチョイ 6bb0-80jV)
2020/12/23(水) 17:40:14.84ID:uy94Yqmx0 御託はいいからお前の作品見せてみろよ
10011001
Over 1000Thread このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 289日 20時間 11分 49秒
新しいスレッドを立ててください。
life time: 289日 20時間 11分 49秒
10021002
Over 1000Thread 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。
ニュース
- 小泉農相、備蓄米の入札中止 スーパーなどに直接売り渡す考えも ★3 [おっさん友の会★]
- 石破首相「日本の財政はギリシャ以下」 減税巡る発言が波紋 玉木氏「江藤氏より問題」 [煮卵★]
- 【芸能】若槻千夏、レジでの「ポイントカード作りますか?」に“画期的対処法”発明 ウイカ絶賛「天才!もう関わりたくない」 [冬月記者★]
- 「ダイエー」がPayPayなどのコード決済を終了へ 5月末で [パンナ・コッタ★]
- 石破首相「コメ5キロ3000円台に下げる」 備蓄米の随意契約を指示 ★2 [蚤の市★]
- 【芸能】CM消滅&大河も降板… 永野芽郁を火だるまにした田中圭の沈黙 「だんまりなのエグくない?」「男側が叩かれるべき」と波紋★2 [冬月記者★]
- 【吉報】眞ん子、コムKの子供を出産 [517459952]
- 日本人による『中国叩き』、さすがに一線を超えるwwwwwwwwwwwwwwwwwwwwwww [271912485]
- 【速報】小泉進次郎大臣、農家が農協から買わされる資材価格を問題視「ホームセンターの少量販売の方が安値とか異常」 [249548894]
- ばっかもーん、そいつが
- 日本人の特技「スパイト行動」ヤバすぎるww [377388547]
- 戸塚ヨットスクールのおっさん、大人気になってしまうwwwwwwwwww「普通に言ってることは正しい」 [918862327]