【質問】dfl【その3】

■ このスレッドは過去ログ倉庫に格納されています
2020/12/13(日) 21:02:14.37ID:faeRPvMB0
DeepFaceLab(以下、DFL)の質問&回答スレです

・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。

・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。

・RTXシリーズでも動くの?
FS、DFL共に動く。
2021/09/10(金) 12:42:29.61ID:Mk7iUkp40
>>711
Colabのメイン部分(jappさん作?)をよく確認したらDFLで顔抽出した以外の画像は変換対象外にしていましたね
このチェック部分を上手くコメントアウトすればColabでもmerge後のフレーム画像をそのままGPENを掛けられるかもですね

自分もようやく改造ソースで連続コマを再動画化(GPEN適用は1万6千枚)が出来ましたが、通常の顔サイズなら目立ったチラつきはありませんでした
一番印象が変わる前髪や眉毛もチリチリするようなことはなし

ただ画面縦の6割以上な顔アップで動きが少ない場面だと顔全体が少しチラつくこともありでした
2021/09/10(金) 21:37:48.01ID:U/9/DGqN0
病気悪化してんな
2021/09/12(日) 18:36:45.02ID:X9AarYyj0
上の方にCG感が凄いと言われてるけど、GFPGANローカルで使えるしいいね

昔の写真やるのおもしろい

https://i.imgur.com/yK1QcbG.jpg
2021/09/12(日) 20:18:07.71ID:YM7exWzl0
改行好きなん?
2021/09/12(日) 20:37:41.15ID:X9AarYyj0
Mateで書き込めなくてpcでコピペしたら改行してた意味はないよ
2021/09/13(月) 03:54:43.25ID:LYSnhsI70
ガ〜イ?
2021/09/14(火) 13:24:52.41ID:orVHCs2F0
今GTX1080使ってるけどRTX3060に変えると学習早くなるかね?
ゲームベンチだとあまり差がないからどうなのかなーと思ってます。
719名無しさん@お腹いっぱい。
垢版 |
2021/09/14(火) 15:01:17.73ID:ddnUq2gF0
口開けてるシーンが全部めっちゃ笑顔になっちゃうんだけどどうしたらいいんだ?
学習させる顔の笑顔シーンを消してから学習させるしかない?
720名無しさん@お腹いっぱい。
垢版 |
2021/09/14(火) 20:29:24.82ID:Im5nQU3s0
>>718
1080から3060に変えたけど、学習2は倍から3倍に速くなったよ。
1080だと512×512ぐらいのフェイスセットが限界だけど、
3060だと1000×1000でheadごと切り出しとかもイケる。
TDPも下がるし電気代的にもお得でマザボへの負担も若干少ない。

8ピンのみで動く光らないmsiのがお勧めだと思う。

ただメモリバス幅は1080よりだいぶ劣化するので完全上位互換では全くない。
古いゲームとかだと1080の方が速いかも。
721名無しさん@お腹いっぱい。
垢版 |
2021/09/14(火) 20:43:04.62ID:Im5nQU3s0
>>719
偽造しちゃうのも手だよ。

src側のalignedに切り出し後の顔画像が並んでるじゃん。
あれをdstの最終のmergedに全部コピペして merged to mp4すると、
顔が中心に寄った動画として書き出される。

これがサイズ、画角が中央に揃ってて、動画編集ソフトでコラージュしやすい。
笑ってない顔なら、真顔上半分と口開けた顔下半分とかで重ねれば大量に無表情の口開け顔とか作れる。
目を閉じてとか、片目閉じて(左右で重ねる)とかも同じ感じで作れる。
多少色なんかがズレてても、学習後は本番時のdstの顔色に揃えるんだからザックリでも結構うまくいく。
722名無しさん@お腹いっぱい。
垢版 |
2021/09/14(火) 20:45:45.42ID:Im5nQU3s0
補足
MP4にする時に、dstの元動画も参照するから、
顔を切り出したsrcの元動画を、data_dstにリネームしとかないと動画書き出せない。
2021/09/14(火) 21:06:59.47ID:XTE/irHQ0
>>719
liaeの方がdstの表情に寄せるのに向いてる
2021/09/14(火) 21:33:15.38ID:orVHCs2F0
>>720
なるほどー。

すごく参考になる情報ありがとう。
ゲームはやらないので載せ換える価値ありそうですね。

検討してみます。

もう少し出しても良いのなら3060tiの方がさらに早くなるかな?
3060はVRAM12GBなのが魅力なんですけどね。
2021/09/14(火) 21:36:44.86ID:WBM4S41e0
df liveのお手軽さが最高なんだけどこれってsrcの顔をそのまま出力してるから
dfmモデルはsrcの学習データだけ利用してるのかね?
それならsrc×srcで時短して汎用モデル沢山作りたいんだけど
dstの学習データとかも使ってるとしたらsrc×dstで学習したモデル使った方が
照明条件とかdstへの適応力上がったりするのかな
2021/09/15(水) 10:17:19.89ID:OUk08hrH0
触角ヘアをこの世から撲滅したい
2021/09/15(水) 21:24:25.97ID:5r6EZMlL0
ageたりsageたりでクソ自演Q&Aを繰り返す日記をこの世から撲滅したい
728名無しさん@お腹いっぱい。
垢版 |
2021/09/16(木) 13:06:26.37ID:M44eBt7s0
>>721>>723
サンクス、いろいろ試してみます。
2021/09/16(木) 20:24:51.53ID:DR6CVoFi0
画面外から顔がフェードインしてくるとき、一部分しか写ってない上にだいたいブラーかかってるから上手く認識されずにどうしてもおかしくなっちゃうな
数フレームだしカットしてしまうのが丸いかな
2021/09/16(木) 21:16:17.74ID:f1Q/4sBt0
manual extractのa modeで拾う事は出来るけど、あんま良い結果になった事は無いな
自分の場合は切り出しの段階で省く
2021/09/16(木) 22:33:35.59ID:jEznZFgA0
MVEで前後からコピペして位置合わせればいける
2021/09/16(木) 22:36:48.54ID:onzUx4Rv0
あーなるほど、天才だ
マニュアル人間だからそういう発想なかった
ありがとうございます
2021/09/16(木) 23:11:43.49ID:jEznZFgA0
横顔とか笛も同じようにすると安定する
2021/09/17(金) 21:24:39.79ID:kJDJcHz70
ワッチョイって大事なんだな
2021/09/18(土) 01:03:59.37ID:A9bokZIB0
19日前のDeepFakeArchi.pyの更新で
Added -t arhi option.って書かれてて色々とコードが追加されてるけど
これはFP16で学習できるようになるのか?
iperovがRTMモデルに最適ですとしか回答してないからよく分からんが
2か月前にFP16でのテスト画面載せてたし
最新版のDFLのinternal Model_SAEHD Model.pyにも隠しコマンドみたいに
use fp16オプションと説明が追加されたりしてるからコード書き換えれば使えそうなんだが
736名無しさん@お腹いっぱい。
垢版 |
2021/09/18(土) 15:43:57.92ID:GEtIPbbW0
9/6版だとOOMエラー。
8/12版ではさくさく いくのに。
同じSRCとDSTなのにどういうことでしょう?
2021/09/18(土) 17:24:48.89ID:JGDxsHEr0
最新のやつって1080じゃまともに動かないよね
CUDA関連のファイル入れ替えたら動いたけど、1080はもう切り捨てられたのかな
2021/09/18(土) 18:34:26.33ID:A9bokZIB0
状態と種類にもよるけど1080ならまだメルカリで4万円くらいで売れるから
58000円の3060買って12gbのvramで楽しもうぜ
2021/09/18(土) 23:45:55.93ID:AroAgHdn0
>>737
動くよ。
2021/09/19(日) 01:14:00.37ID:fvYvWdU00
>>739
環境にもよるんだろうけど、そのままじゃ動かなかったんだ
エラーメッセージがCUDA絡みっぽかったからCUDAとCUDNNのフォルダの中身を去年12月のに入れ替えたら動いた
2021/09/21(火) 22:27:25.19ID:N+XLay7i0
>>712
顔抽出したファイルをGPENに掛けてもそのままではtrainで使えないけど
そこからもう1回顔抽出したら使えた
2021/09/21(火) 22:58:22.59ID:Y1yE1sS30
>>741
>>705 の添付テキストの7行目に書いてあることを実施して頂くとGPEN後の画像をそのまま使える筈ですので試してみて下さい
2021/09/21(火) 23:03:38.13ID:Y1yE1sS30
ちなみに save & restore は本来 data_src のための機能なので対象画像をdata_src\alignedに格納してbatを実行する必要がありますね
2021/09/21(火) 23:43:46.55ID:N+XLay7i0
>>742
なるほどありがとう
GPENをよく分かってなくて、colabでデフォルトでやってるから、
元のJPGファイルからPNGができてるんだ
JPGで保存するように改造してみる
2021/09/21(火) 23:58:53.80ID:Y1yE1sS30
>>744
ごめんなさい
私自身はその後GPENの方はあまり触ってなくてColabの動作も変わってるかもですので不可解な点があればColab上のソースを覗いてみるといいかもですね
2021/09/22(水) 00:15:48.62ID:9ENp7cWW0
XnConvertとか使えば解像度変えずにすぐpngからjpgに変換できるから楽だよ
2021/09/22(水) 04:06:08.18ID:8VSnhWqr0
>>746
ありがとう
colabだからLinux版を動かすか、
ファイルをダウンロードしてWindows版で変換するかだね
2021/09/22(水) 22:17:15.43ID:8VSnhWqr0
744だけど、colabのGPENでjpgを出力する方法
https://colab.research.google.com/github/tg-bomze/collection-of-notebooks/blob/master/GPEN_DFL_Colab.ipynb#scrollTo=0RF8vZUDL7Ma
「2) Simple settings」の後ろの方で.pngを.jpgに変更するだけだった(2ヵ所)
それと742でtrainに使えるはず
749名無しさん@お腹いっぱい。
垢版 |
2021/09/23(木) 23:17:20.64ID:kN6NynmK0
gtx1660で2.0って動くの?cudaが使えればいいのかな?
2021/09/25(土) 16:34:44.07ID:O+umQXec0
>>749
RTX3060でないと。
2021/09/25(土) 22:00:27.13ID:QGQpgHEl0
>>750
まだ完成させてないけど今トレーニング中なのでいけるみたい
2021/09/25(土) 22:00:27.13ID:QGQpgHEl0
>>750
まだ完成させてないけど今トレーニング中なのでいけるみたい
2021/09/25(土) 22:32:19.54ID:pToTqKyh0
gtx900シリーズまではサポートされてるから普通に動かせるけど
6gbだとresとか全然上げられないからすぐ新しいの欲しくなるよ
754名無しさん@お腹いっぱい。
垢版 |
2021/09/27(月) 01:00:08.11ID:30Ng7ivD0
興味本位で初めてみたけどこれ電気代ヤバくない?
ものすごい部屋の温度あがってたわ
Google colabはなんや難しそうやし…
2021/09/27(月) 01:25:55.59ID:VLuPrSgn0
月120-150hくらい2080tiでtrainしてたら電気代2-3kくらい上がった
2021/09/27(月) 02:18:41.12ID:90GIpRiF0
発熱と電気代気になったから電力制限70%にしてるわ
パフォーマンスは5、6%しか落ちないな
2021/09/27(月) 02:34:25.32ID:KLpZtGwy0
これからの時期は暖房代わりになるぞ
ってほどでもないんだよな
2021/09/27(月) 05:27:58.02ID:5YjrKRbg0
GoogleColabProはマジでコスパ良いから絶対使ったほうがいいぞ
電気代だけでも元取れるし
759名無しさん@お腹いっぱい。
垢版 |
2021/09/28(火) 04:41:12.98ID:Pt9lNeVg0
もしかしてLHRって良くない?
顔抽出をやってくるない事が多い-できることもある
2021/09/28(火) 18:09:07.28ID:qRgzwDO40
>>759

自分はRTX3060狙ってるんだけどそれが気になって買えんのだよ。
誰か詳しい人教えろください。
2021/09/28(火) 19:17:32.54ID:xI3IMOQB0
制限無しの1660とgainwardの安いLHR3060を別のpcで使ってdstを半分ずつ抽出してるけど
顔抽出の精度は全く変わらんな dflの顔抽出の性能自体が悪いから抽出速度は3060が少し早い程度だけど
vram多いから3060だと1660の倍くらいの設定にしても問題無く学習できる
mrのスレッドでもLHRは関係無いって言われてるし顔の素材とか準備するのに時間かかるから
早く買って作業開始した方が良いよ
2021/09/28(火) 20:24:57.48ID:YB1wn9Sn0
ちゃんとするなら結局は手動extract一択になるけどな…
2021/09/28(火) 20:29:20.27ID:nvGKbmK+0
暇人かよ
2021/09/28(火) 20:36:37.32ID:SIidQGsB0
全フレームマニュアルで抽出するやつとかおらんやろ
それとも死んだvineみたいに6秒DFでも作るんか?
2021/09/29(水) 18:06:37.46ID:UxxZPmv00
久々に触ったらオプション増えてまくってて何がなんやら
後半GAN使うときにこれはON/OFFにしろみたいなのってある?
2021/09/29(水) 19:11:23.15ID:q2znDvl+0
debugでちゃんとland/maskが一致するものを作るならmanualだろ
時間も自動とそんなに変わらんし 比較した事すら無い初心者は知らんけど
2021/09/29(水) 19:17:19.26ID:q2znDvl+0
角度が30度以上つく場合のautoとmanual+aでのmask範囲の違いは大分印象変わるぞ
前髪多めの素材で俯いたりまばたきするフレーム、髪が輪郭を一部でも隠す場合、こういうのもマニュアルでやらないと
後からdebugで微妙な部分を探してmask editorで修正とか二度手間じゃん そこまでやってる奴このスレに居ないだろうけど
2021/09/29(水) 19:21:17.09ID:q2znDvl+0
ただし使える部分のみ切り出した前提で、srcで5分(sortと目視選別必至)dstで1〜2分が現実的なライン
2021/09/29(水) 19:53:35.44ID:rGbEfDg50
早漏かよ
2021/09/29(水) 20:32:02.51ID:nrBNYEsL0
手動でもランドマーク1点ごとに移動できない欠陥ツールだからこだわるならMVE1択
2021/09/29(水) 21:02:10.19ID:q2znDvl+0
笛とかなら必須だろ 逆にどうしてんの?
AV丸ごとextractみたいなガイジはおいといて
2021/09/29(水) 21:24:00.69ID:BygiL9MB0
>>766
君3f/secで何万フレームも手動抽出できるん?もはやAIやん
それともうんちグラボだと抽出クッソ遅いのかな?
2021/09/29(水) 21:56:50.09ID:q2znDvl+0
1ー2分って書いてあって何フレームか分からないエアプが何言ってんの?
2021/09/29(水) 21:58:15.44ID:q2znDvl+0
この蒙古弁終わってんな
2021/09/29(水) 22:00:29.92ID:rGbEfDg50
そこまでやってる奴このスレに居ないだろうけど
wwwwwwwwww
2021/09/29(水) 22:13:30.48ID:BygiL9MB0
ごめん見てなかったわまさかそんな短いとは思わんかった
でもdstの時間に関係なく秒速3フレームで抽出するの無理だよね?
仮に5秒で1フレーム抽出出来ても5時間かかるけど自動なら20分手直し考えてもまあ1時間
4時間くらいなら誤差な暇人か定年後の爺か?それならボケ防止によさそう
2021/09/30(木) 10:06:11.78ID:Ado1qhnY0
7777777
778名無しさん@お腹いっぱい。
垢版 |
2021/10/04(月) 15:29:27.24ID:OaVGMfEO0
数枚の写真からそれなりの動画作れた人っている?
身近な人で作れたら最高だけど動画なんて手に入らねーよ
779名無しさん@お腹いっぱい。
垢版 |
2021/10/04(月) 18:19:24.67ID:8L8eWXyA0
> 数枚の写真からそれなりの動画作れた人っている?
> 身近な人で作れたら最高だけど動画なんて手に入らねーよ

写真撮るフリして動画撮るんだよw
2021/10/05(火) 02:39:55.99ID:GSIWIHFu0
>>778
https://jpghd.com/
781名無しさん@お腹いっぱい。
垢版 |
2021/10/05(火) 09:05:41.98ID:+qUl489E0
>>779
写真撮るのもハードル高すぎるw
>>780
ソフトDLして自分のPCで出来るといいんだけど、アップするのは何かあったらと思うと怖い。。
2021/10/05(火) 09:22:33.49ID:4b5giejz0
tes
783名無しさん@お腹いっぱい。
垢版 |
2021/10/10(日) 15:13:22.48ID:NeUk8CB/0
ちょっと教えてください。
ページングファイルの設定をしたいと思っています。物理メモリは16GBです。
最新版のDFLやろうとする時、メモリは物理メモリと合わせて何GB位必要でしょうか?
2021/10/10(日) 20:58:22.40ID:AQWawAiP0
大型アップデートきたな
今度の「-t」優秀すぎw
めっちゃ似る
785名無しさん@お腹いっぱい。
垢版 |
2021/10/10(日) 21:04:52.66ID:GZfIclNl0
model作り直しだから試すの躊躇するわ
すぐ互換性ない更新くるかもしれないし
2021/10/10(日) 21:07:31.76ID:rJMFfw/50
-tおしえて
2021/10/10(日) 21:09:15.62ID:xq7l3EOI0
liaeでも従来のDF以上にSRC寄りになるぞ
つまり今までのliaeのデメリットがなくなった
2021/10/10(日) 22:49:02.51ID:rJMFfw/50
アプデで精度は上がってるけど速度は遅くなった感じ
2021/10/11(月) 19:21:53.50ID:AOwR4ko90
liae-udtで良いの?
2021/10/11(月) 19:22:47.35ID:2ZCNXDFp0
いいよ
2021/10/11(月) 19:44:33.24ID:AOwR4ko90
1日動かしてみたけどliae-udとほぼ同じものが出来上がるけど
めっちゃ似るとか嘘だな
792名無しさん@お腹いっぱい。
垢版 |
2021/10/11(月) 21:29:02.29ID:/PyS8Pa+0
10/09版取り下げられてるな
2021/10/11(月) 21:39:37.78ID:+iZKVD7V0
udt だったか、df-tでやったら進まなくて詰んでたから、助かった。
さて-tのめっちゃ似るに期待!
2021/10/11(月) 22:23:11.57ID:AOwR4ko90
10/11のが出たんだな
この辺まだ紆余曲折しそう
2021/10/11(月) 23:18:32.24ID:f/D/po3t0
gpuが使用できないcudaの不具合があったからその更新だな
githubのissuesに書かれてるけどcuda11.4.2をダウンロードして
cudaの.dllファイルを全部交換したら1009verで普通に動かせる
0906verの3060でliae-udだとres416 lrd offバッチ4 lrd onバッチ2が限界だったけど
udtだとvram使用量が2gbくらい減ってoffバッチ6 onバッチ4まで上げられるようになったわ
2021/10/12(火) 18:33:31.09ID:mmqqB7Re0
解像度256まで上げたら
ae_dims、e_dims、d_dimsはそれぞれどの程度上げたらいいんだろ
2021/10/12(火) 22:38:20.80ID:G4uj4U3k0
-tでやってもまなふぃ可愛くならないんですけど
2021/10/13(水) 00:26:38.58ID:pay0X7A50
出来の差はまだ分からないけどtつけたらたしかにVRAM使用量減るね
バッチ6で回してたとこ8で回るようになった
2021/10/13(水) 00:31:37.97ID:+Xfq7PHn0
colabでfaceset.pakの作り方が分からなくて、検索してやっと分かった

後知恵だけど、Windows版のバッチファイルが入ってるフォルダを
調べたら、そこにそれ用のファイルがあったw
2021/10/13(水) 01:35:07.05ID:DszooqEo0
ようやく使えそうなGPU手に入れた
今日から電気代気にせず回すからお前らよろしくな!!
で、何から始めたらいいんだ?
2021/10/13(水) 09:28:15.07ID:oiz+LdOd0
最新バージョンでtrain中はGPUだけでなくCPUも60%ほど使ってないかい?
自分の環境だけなぁ。
2021/10/13(水) 09:34:38.91ID:pay0X7A50
>>798
8どころか10でも行けた
VRAM使用量は変わらないな
res上げてやり直そうかな

>>801
自分のとこは50パー
前はこんな使ってなかった気がする
2021/10/13(水) 20:18:20.17ID:4PtWVzcN0
-tだけじゃなくて地味に-cも一緒に追加されてたから
liae udtとudtcで同じ設定で回してるけどvramも変化しないし違いが分からん
ディスコでも説明してないし大きな変更はないのかな
2021/10/13(水) 23:48:36.14ID:pay0X7A50
t結構いい感じかも
cなんてあるのか
2021/10/13(水) 23:53:58.35ID:oubWrE110
何をやってるのかは分からないけど一応tは似るって触れ込みなんだよな
2021/10/14(木) 00:54:26.22ID:yjPS7HZp0
udとudtで全く同じ条件で比較してないから曖昧だけど
tは確かにsrcに寄せられるみたいでsrcとほぼ同じ顔が作れたから良いと思う
cはディスコでも1人しか触れてないし皆スルーしてるから謎すぎる
2021/10/14(木) 18:54:57.29ID:F9O4hq0o0
>>797
・AMP UDT 比較
https://i.imgur.com/22MQDsS.jpg

AMPの場合パーツ相性はそこそこで輪郭と髪型重視でdst選びの幅が広がった
AMPはsrc-srcの学習をしてからinter_dst.npyを削除してsrc-dstの学習再開
似ないなと思ったらとりあえずinter_dst.npy削除
2021/10/15(金) 17:28:08.51ID:b19BNwoI0
Pretrain用のオリジナルfaceset.pakを作るときの画像はマスク済の画像を使うべきでしょうか?
2021/10/16(土) 21:40:36.44ID:TAblnYtg0
liaeって視線の方向がちゃんと合ってて良かったのにliae-udtはド下手になってる
810名無しさん@お腹いっぱい。
垢版 |
2021/10/17(日) 21:30:13.26ID:+PIDJ2ha0
今更な質問なのは百も承知なのですがランダムワープってどういう仕組み、効果なのでしょうか?
811名無しさん@お腹いっぱい。
垢版 |
2021/10/17(日) 21:34:53.96ID:+PIDJ2ha0
マニュアルでさらなる精密さが欲しければ外してとありますが外してtrainしたらそもそも最初にランダムワープでtrainする意味ってないと思うのですが違いますか?
■ このスレッドは過去ログ倉庫に格納されています
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況