【質問】df 【その5】
■ このスレッドは過去ログ倉庫に格納されています
DeepFaceLab (以下、DFL)の質問&回答スレです ・質問について 日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。 必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。 ・エラーについて エラーが出て解決できない場合は、なるべく詳細な情報 (環境やどうしてそうなったか)を書きまし 特にエラー文は1番のヒントです。 ググれば解決することも多いです。 自分で解決できない場合は ・ソフトはどれ使えばいい? 利用者が多く情報が多いのはDFL。 FSも英語圏では情報が得やすい。 他は更新していない ・必要スペックは? ない。 VRAM容量6GB~が推奨スペック。 GPU性能は高い程いい。 RTXシリーズでも動くの? FS、DFL共に動く。 【質問】 df 【その4】 http://egg.2ch.net/test/read.cgi/software/1644653181/ 【質問】 df 【その3】 http://egg.2ch.net/test/read.cgi/software/1607860934/ ・作るのにどれくらいかかる? パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。 2回目からはmodelの再利用により学習時間を大幅に短縮できる。 ・lossについて A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。 DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー https://github.com/iperov/DeepFaceLab https://mrdeepfakes....commended-up-to-date https://mrdeepfakes....brity-datasets-guide https://www.deepfake...-to-use-deepfacelab/ https://seesaawiki.jp/dfl/ リクエスト禁止 DFLとかAIとかに文句つけるのは禁止 技術質問はテンプレ必須 【使用ソフト】バージョンも書く 【使用モデル】 【スペック】 【内容】エラー時はエラーメッセージ 動画制作のおおまかな流れ 1.素材を準備する 2.素材動画を全フレーム画像で書き出し 3.顔部分のみを抽出 4.誤検出された画像を削除 5.学習させる(train) 6.顔を移植した画像を書き出し(merge) 7.書き出した画像を動画にする 乙です 以前にmerge作業をPhotoshopでやってる人が いたのですが あれって動画編集ツールじゃないのに 動画制作もできるのですかね trainを終わらせる感覚がどうも掴めない 見た感じはもう目も歯もくっきりし出して mergeするときにerodeで輪郭をボヤかそうと 数値を上げると200以上上げようとすると dst画像がうっすら浮き出てしまう 輪郭の相性が良くて、ボヤかす必要があまりないと そんなに数値上げる必要もないんだけどね 20分前後の動画res288で学習済みモデル使用 それで17万くらい 30万くらいはやるべきかな? ちなバッチ8です 12とか14でも動くけど、意味なさそうなので 8に固定 dst src双方0.35切ったら良いことにしてる eyes_mouth_prioを切って、random_warpをonで 0.3は切りますね eyes_mouth_prioを切らなければ0.4~0.5をウロウロしてます random_warpの入り切りは数値には ほとんど影響ない感じですけど google colab proに入れば今でもdeepface使えるみたいだな >>14 eyes強調なしで0.2切り、強調ありで0.35くらいだといい感じ randomwarpは無しでやってる。 ほぼ正面向きだと問題はないんですけど 少し横を向いたりすると、揉み上げの付近に 境界線(輪郭と書いてしまいましたが)が 出ますよね それを目立たないように数値を上げると dstの画像が浮き出てしまうのですよね 揉み上げの長いdstならちょうどそこに合ったりもするので その場合だと気にならないのですが train30万以上dst&srcともに0.1以下(どの設定でも) でもうまく消せないってことは、これもう 元のdst動画の画質落とすしかない感じですかね これだと画質落として目立たないってだけですけど mergeでerodeを-20~70ぐらい?、 blur maskを100~250ぐらいにして blur sharpenを1にすればなじまないかな あとは目視で調整してくれとしか言えないけど >>18 ありがとうございます 書かれている数値内で色々試してみて かなり改善されました あと、blur sharpenは使ったことが無かったのですが これが意外と効果があり非常に助かりました 感謝です 3060で我慢できなくなってTUF 3090が16万切ったから買っちまった 4090発売間近だけど最低23万はするだろうしDFLが安定するまで数か月かかるだろうからありだよな… 今から3060買おうとしてる俺がいるっていうのに まあ4000が対応するかどうかも現状微妙だからいいんじゃないか iperovは4000の電力は批判してたけど常に動向は追ってるみたいだから結局対応するんじゃないかな 3060の12GBメモリはコスパ最強だけどコアが弱いからDF liveでFPS上げれないのがストレスなんだよな でも4060出るのは来年以降だしメモリ減るっぽいからDFLだけなら3060で全然良いと思う 3090は350wがネックでさすがにお金だけでは 買えないんだよな 部屋が熱くなる 冬はいいけど 3060は170wってのもいいよね チェッカー使ってみたらフル稼働でも200w弱な感じ 前も書いたけどほんの数%の性能のために限界まで電力使おうとしてるだけだから アフターバーナーでパワーリミットすれば解決じゃない? 3060 OC無しでVRAM100%使用で180w使うけど 80%制限して130Wになっても学習速度ほぼ変わらないし落ちることもない 3090で50%制限にすれば3080Ti 24GB 175wって感じにできそう カードにもよるっぽいんだよね RTX4500だとほとんど下げられない 20wくらいは下がるけど、そうすると露骨に 学習速度が落ちてしまい結局やめてしまった Aシリーズは元から制限かけてるような低電力だから厳しいのかね 3000シリーズはどれも余裕あるから問題無さそう 機械学習の部分は良いんだけど顔認識の部分がウンコなのはどうにかならんのかね 下アングルだと全然認識してくれないし 口がないと予測変換もかなり酷いしね ただ下アングルだとうまく認識されても 素材を探すのが大変 変な結果になるのは顔の抽出で起きたミスがほとんどだから確かにね 今流行りのイラストAI試してる人いるかな?近い雰囲気を感じるからなんかに使えそう。 試してはいないけど、絵師さんで色々試している人がいるね 308010GBと12GBどっち買うか迷う 価格差なんて数千円しかないんだけど、確か3080 12GBって3090より爆熱なんだよね? 10GBと12GBどっち買う? このグレード以上は予算的に厳しい >>33 やっぱそうだよな 爆熱の3080 12GB買いますわ バックプレート側にも12枚VRAMが載ってる90よりはマシじゃないかね ちなみに3090の場合は制限無しで700msの学習がパワーリミット70%で800msになる程度で250Wしか使わなくなった 60%だと1000ms位で50%だと急に1500ms位に下がったから GPUにもよるけどアフターバーナーで70%辺りに調整すれば効率良く温度も電力も下げられて良いと思う X-segを使いまわすといつの間にか口の中まで マスクしちゃうのなんででしょうかね 同じモデルで3回目くらいで口の中まで マスクし出してしまう そうすると歯に悪影響でてしまうのですよね X-segは一度学習させるとはぶく物を覚えて (笛の時のモザイクとか)何度も使える 眉毛使う使わない、前髪をはぶくはぶかない 自分に合った使い方を覚える 作る作品ごとにマスクするのは面倒臭いからねぇ いや3回目が何を指してるか分からないって話なんだけど もうちょっと説明が必要だね 口の中をマスクしちゃうのなら、そうならないようにxsegのtrainすればいいだけだし 追加学習続けてるとって話なのかただmergeのときに使ってるだけでって話なのか どっちにしても不完全なモデルになってるだけだと思うけど 一枚だけ除外ポリゴンし忘れたのが混じってたときにそんなことになったことがある 有識者の方いたら教えてくれ DFLを3、4年前につかってたものなんだがとにかく英語が苦手でストレスフルだったのとエラーだので2日使ってのっぺらぼうしか作れなかった 今のdfもDFLしかない? 使いやすさの進化とかある? 一回ちゃんとやろうと思ってMVEでlandmark修正をチマチマやってたら一ヶ月かかってしまった…疲れた >>46 テンプレにあるサイト見たら大体できんじゃないの あと前スレ240にあげてくれたすごいxseg使うと楽 DFLも戦争始まってから更新しなくなったし何か代わりが欲しいね gtx1070で細々と頑張ってましたが潮時かと思い始めて数か月 色々リサーチした結果rtx3060が最適解かとは思うのですが・・・如何せん金が無い VRAMが最重要って事ならrts 2060 12gbでも良いのでは?と思っちゃったんですがダメ? 中古価格で5~10Kの違いは貧乏人には大きいんですけどやっぱrtx3060が良い? 4000シリーズが近いからアレだけど3060のほうが後悔は少ないだろう 2060の12GBって後から出てきたよく分からないモデルでもあるし 性能としては2060ノーマルに12g載せた感じ 3060と同じメモリでも作業的なスピードは 全体的に若干落ちるかな そろそろxsegに挑戦したいんですが、前スレでいただいたすごいxsegってとりあえずどこにつっこめばいんでしょうか? Mr.で貰って来たmodel使ってみたけど1から学習が始まってしまう 何か設定が必要なんでしょうか? パッと見た目はわからんけど pretrainは終わってるから1から始めるより学習が速くなってるはず >>58 いやでもCurrent iterationの所が1からになってるんです プレビューも真っ赤で変だし >>60 そう言うモンなんですね 暫く回してみます、ありがとうございました 正直作るのめんどい 一作作るのに手作業が2時間位はあるし 似てる素材を使うのがいいんだけどね なんかズレてるなーと思って ランドマーク見てもそうでもないし MVE使って微調整しても意味ないしで そうなったらカットしちゃう ここ最近ギリギリの横顔(しかもちょっと斜め) に挑戦してるんだけど なかなか合ってくれない これってsrc素材のほうでちょうど適合するのが ないからですかね (ランドマークは確認済み) これがうまくいけばキスシーンの幅が拡がるので なんとか頑張っているんだけど srcを増やすときって、どうやってますか? またextractし直したら上書きされてしまいますよね? 前からあるやつの名前変えて、あらたにextractし直せばいいってことですかね? ありがとうございます。 俺はsrcの別のフォルダ作って一旦そこに入れちゃう ①alignedに顔画像がある状態でdata_src(dst) util faceset packを使ってfaceset.pakファイルに顔画像をまとめる ②alignedフォルダ内に人物名のフォルダを作って顔画像と.pakファイルを移動させる srcもdstもこれで管理してるわ フォルダ内の画像は読み込まないし使いたい時はalignedフォルダにfaceset.pakだけ移動させれば使える faceset.pakの名前を変更すると読み込まれなくなるのと pakファイルはxsegの編集とかでは読み込まれないから編集したい時はunpackするか alignedフォルダに元画像を全て移動させる必要があるのは注意 ae_dims, e_dims, d_dimsって解像度に対してどれぐらいに設定すればいいの? 眉のしたからdstの眉出てくるの対処出来ないかな? そうか、xseg使えるようpc買い替えないとダメだな 1080だけどレゾ256でバッチ2でなんとかって感じ DFL2.0だとトレイン途中で止まるから 前髪のせいで目のところに眉毛のポリゴン来てるとかじゃなくて >>75 xsegは軽いから1080で動かないならなにかがおかしい cpuになってんじゃないの modelを再利用できるっていうのは、どういうことでしょうか? modelがsrcを学習済みなので、dstを交換してもdstの学習のみで済むということでしょうか? >>76 前髪はオンザ眉になるようなのにはチャレンジしてなくて アエギ顔の時に眉間近くの眉毛が上がるからその時に出てくるやつです >>77 i7-6700kだからヘタってきてるのかも もう一度xseg使えるか試してみます 皆さまアドバイスありがとうございました >>65 自分はオリジナルsrcをworkspaceから他のフォルダに逃がして継ぎ足したいsrc動画をextractまでやってalignedだけ残してalignedの中のPNGの名前をオリジナルと被らないように変更してオリジナルsrcの alignedに継ぎ足しsimilarとか任意でsortし直して使用してるわ >>81 ありがとうございます dstと相性が悪かったのでdstだけ交換してやってみます dst変更してもmodel流用はできるってことで合ってますか??? 合ってるよ あんまり引き継ぎを繰り返すと似なくなるけど >>54 とすごいxsegくれた人、ホントにありがとう すごいxsegって、自分が使ってるxsegを置き換える形でいいんですよね? modelをコピーして名前変えて、別のmodelとして使うことってできますか??? modelを色々いじくってブラッシュアップしたいけど、旧modelも出来が悪いわけではないから残しておきたい そりゃコピーすれば残しておけるよ 当然名前変えたほうがバックアップってことになるけど 唇超えてたら除外するけどケースバイケース 何も障害物ないのに顔抽出スルーされるフレームが続出するの何なんだろう ベロチューとかベロベロさせたい時は舌除外は必須だな xsegの笛とかベロチューのやり方動画ないですかね? 角度が徐々に変わる時とかどの辺りでマーキングし直すのかいまいち分からない 質問です ①の画像 髪から上が黒くなっている(目から下は正常に見える) ②の画像 鼻から上が黒くなっている(目は見えない) がソートしたあとに残っているのですが、これは残すべきでしょうか 質問 1、モデルが下唇を噛んでいるような顔の画像があるとき、これは入れるべきでしょうか? 2、認識について教えてください srcの画像に笑顔と無表情の2種類があるとき、dstに怒りの表情があると適用できないという認識であっているでしょうか? それとも、応用を効かせてくれるのでしょうか? >>95 前スレのすごいxseg導入すれば追加学習無くてもなんとかなってるよ >>96 dstの話なら、うまく抽出出来てそうなら残す、グチャグチャで失敗してそうなら消す 消しておくと、マージのときにスルーしてくれる。残しておくと、失敗の画像の場合はクリーチャーになる。 失敗してるかどうか判断つかないときは、alinged debugのほうを見に行くと良い >>96 レアな画像なら残す基本は削除 ②に関してはほぼ役に立たないかと >>97 個人的には残す 大口やおちょぼ口は残してる 無表情、笑顔のsrcで怒りの表情は ある程度はモーフィングしてくれる ただ当然限界はあるので 多種多様な表情を揃えたほうがいい >>97 1 srcの話なら、なるべくいろんな表情を残しておいたほうがいい。ただし抽出しっぱいするくらい難しい表情の場合は消しておく。 2 trainのときになるべく近づけるように学習されるが、srcのほうにdstと似た表情が入ってないときはあまり似ない(表現できない)はず。例えばsrcに笑顔しか入っていないとマージしたときに笑顔っぽい表情ばかりになる >>98 アドバイスありがとうございます 凄いxsegはmodelにコピペでxsegトレインも何もせず導入前と同じ工程で作成すればよいのですか? 質問なんですが、safhdのtrainが始まりません エンター、英字キーを押しています https://i.imgur.com/Xcf57Wd.jpg 何が原因かわかる方おられますでしょうか? 少し待ってから押したらこんなのが出ました なにがなにやらわかりません https://i.imgur.com/T0m5giI.jpg 直撮りおじさんさぁ… よく見てないけどOOMじゃないの VRAM6GBでどこまでどこまで回せるのか知らないけど 初回は特に重いからバッチサイズ2とかに下げて回るか確認したら? archiまさかのheadか 大人しくffかせめてwfで どうもありがとうございます RTX3070もしてたので行けるかと思ってましたトホホ、、、 2にしたらこうなりました、、、 なんどもすみません メモリエラーの表示があるから仮想メモリを増やす faceタイプは選択するならMFじゃなくてWFの方ね archiはliae-udよりもliae-udtのほうがOOMになりにくいよ あと、マージやろうとしたのですが https://i.imgur.com/OYPWcjh.jpg から進みません 何が原因かわかる方いませんか?? プレビューウィンドウでtab押して1枚目表示されたらパラメータ調整 決まったらctrl+ > で1枚目の設定が全フレームに適応されるから放置 終わったらmerge to mp4で完成 前髪除外について質問です 眉はsrcのものを使いたいのですが、一部前髪が眉にかかっているものがあります。xsegの点線で囲って除外するので良いでしょうか? trainについて質問です 30分辺りでloss値が0.03とかしか変わらないのですが、これは良いのでしょうか? 目安の表などはないでしょうか? そろそろ、RTX4090で使えるかの報告が上がらんかな 3000用DFLで普通に使えるみたいだけど res320 dims512 64 64 32 batch8で 3090/450ms 4090/400msらしいから今は誤差レベル これからCUDAの更新とかあればもっと早くなるかも xsegについての質問です 現在、dstの顔の眉から下のみが変換される状態になっています 希望としては額を含めた顔全体を変換したいです ただ、xsegのedit→train→applyを行っているのに何度行っても眉から下だけが変換されます どうすればいいのでしょうか? お願いします >>122 サンクス 今、3080で4080買うか迷ってたので、参考にします。 dstの枚数が10万超えるとビデオ化失敗するわ ファイル名が1万台と10万台のところで並び順が混ざって音ズレしてしまう 大作になりすぎないように気をつけよう。。 とりあえずフォルダ内を99999枚までに減らしてなんとかしたわ。もっといい対処方法あったんだろうけど。 novel aiちょっといじってみたけど、絵に興味ないとあんまりだな。df使いこなせてる人はローカルnovelaiもすぐ導入できるから遊んでみるのはおすすめ 単に5桁の数字で切り出してるってだけ ざっと見た感じ _internal\DeepFaceLab\mainscripts\VideoEd.py の%5dが5桁だからその数字を増やせば桁が増えると思う >>131 おおー、ありがとう!まさにそこらへんまでは見てたんだけど見つけられなかったわ。5を6にすればいけそうかな。 つまりdをXに変えるとはわわわになるんですねわかりません srcの人物を変えたいのですが、modelを使いまわした方が良いでしょうか?それとも新しくmodelを作った方が良いでしょうか? sortを使うと画像番号が狂ってしまうのですが これ壊れてますかね? うーん、番号が狂うとaliged_debugと合わなく なるので、駄目なんじゃないですかね 今まで手動でやってたけど 大丈夫かと思ってやったらまた狂ってもうた ただのjpgに見えるけど、内部にデータを持ってるから sortでoriginalに直せる そうだったのか… continueしてもうた 次から頑張ります dfl使いの方から視てfaceswap はどうですか? すごいxsegつかってるだけで満足してるレベルでトレインもエンター押しっぱで始めちゃってるけど、トレインsaehdするときにここの数値は変えたほうがいいよってとこあったら教えてくださいm(_ _)m resとバッチは自分の使ってるグラボとの 兼ね合いや、制作スピードや、自分の満足が いくように設定 3090とかならres512のバッチ10とか行けそう dimsとかその辺は基本デフォルト 2枚挿しでメモリ80Gとかでやってる外人さんは デフォルト値を全部倍の数値でやってるらしいけど 金持ちにしかできんよな trainの間ゲームできないからPCもう一台欲しくなってきた H256で書き出すのって何を弄れば良いんだっけ? 色々と探したけど分かんなくなっちったよ( p′??。) [17:30:01][#515305][0369ms][0.1327][0.1702] プレビュ-の目視以外でトレインの辞め時の目安ってどのくらいにしてますか? 二番目の回転数みたいのをだいじにするのか、右二つのほうが重要なのか loss値の下がり幅かな 停滞したらRW抜くとかLRD入れるとかBS変えるとか そのときの状況次第だけどね 調べないとだけど、とりあえずloss値からですね。ありがとうございますm(_ _)m tacotron2(音声df)試したかたいます? 自分は挫折した。 RTX3060でVARMは12288MB、ドライブの容量には凄く余裕があります。 仮想メモリをカスタムに設定したらSAEHDが動くようになりましたが、 仮想メモリをカスタムサイズにした場合の初期サイズと最大サイズの 推奨値とかありますか?またSAEHDでのyやn数字を選択する所の オススメの設定とかありますか?調べても少し古いのが多くサイトには 載ってない選択肢があり困ってます。長くてすいませんが最後に トレーニング滅茶苦茶遅いんですけどなんでやねんです。 Quick96の時の10分の1ぐらいの遅さなんですけども普通ですか? 英語の解説サイトをグーグル翻訳して読むのがおすすめ もう少し質問が整理できるようになったら来て 3060で32Gだとメモリ云々で困ることはなかったよ 確認したら19Gとか使ってるっぽいから 素直に32Gに増やすのがいいんじゃないかね さいわい、メモリはそれほど高騰してないし 俺も3060だけどメモリ16Gで問題出てないな 仮想メモリもお任せにしてる res224 batch4~20ぐらいで回してる 考えたこと無かったけどpretrainのときってrandom worpとかのオプション設定はデフォルトのままでいいのかな? eyes and mouth priorityってどのタイミングで使えばいいんだ? gan入れたあと? なんなら最初から入れててもいい なんか寄り目になったりするから俺は使わんが 俺は最初から入れて目の瞳が綺麗になったり 歯が一つ一つ見えだしたら切ってる あー途中で切るっていうのもあるのか 俺もあんまり使ってなかったんだけどまた試してみるわ、ありがとう ごめん追加で質問なんだけどeyes and mouth priorityと同時に使っちゃいけないオプションってある? eyesmousePriority入れると画質が制限があると別スレに書いてあった 本当か知らんが xsegが適用されるのってmergeの時ですよね マスクeditしてもMergeの時にマスクでxsegを選んでなかったからずっと何も変わってなかったけど合ってんのかな mergeの時に使う方法と、TRAIN前にapplyして使う方法がある。 後者じゃないとあまり意味無いけど ありがとうございます 色々やってるけどやっぱ主観でずっとこっち見続けてるようなやつ以外はほとんど顔がおかしくなるなあ 最初は髪が顔にかからないようなdstとsrcで練習するのがいいよ 何が問題かわかりやすい liae-udtでeyes and mouth priority試してみたけど大きな変化は感じなかったわ 解像度低いからかもしれないけど 確かにちょっと目線合いづらくなってたからとりあえず使わない方向にした EMPって目口を優先的にtrainするってだけでしょ? 効率以外に画質的な差とか出る?気にするレベルの ganパワーやtruefaceやるくらいなら解像度上げてった方が結果は良い 最近気づいたけど、srcは画質優先にしたほうがいいね。多少手が写ったりしててもxsegでなんとかなる 結局modelのres設定次第よ そこに合わせたsrcがあればいいわけで 静止画のが画質良くなるからpinterest結構使えるな 角度は動画のが揃うかもしれんけど liaeからdfに変えてみたんだけどtrue face powerってこれはganと同時に使っていいのかな? どっち先がいいとかある? wfで笛動画って作れないですか?どうしても笛部分にsrcの口元が重なってしまいます、xsegは使用してます Xsegちゃんとやってるなら、mergeの時のmaskの種類を変えればいい 初心者質問なんですが、肌の色合わせってマージのときにwとsキーでの調整になるんでしょうか? なかなか合わなくて。。色味のあってるsrcとdstを用意しなきゃだめでしょうか? ちなみにここしか見つからなかったんですが、本スレ?はここですか 質問スレはここで合ってる マージでcolor transferをrctとかにしとけばいい あと、trainでも肌の色を合わせるとこでrctとか選べるからそれもやっとくといいかも それでも合わないときは合わないが トレインとこでもrctにしといたほうがいいんですね。 トレインはそのままエンター押しっぱなしにしてました Xseg の使い方がいまいちわかりません。 ジェネリックをダウンロード Whole face mask apply Mask edit であってないやつを修正 Fetchでdstフォルダに出来たaligned xsegをModelに移す Xseg train trained mask apply この流れで合ってます? そんな難しいやり方してないから分からん applyしてだめならeditしてtrainしてapplyだ trainのところでenter a name to create a new modelすると、以前のmodelは消えてしまいますか? >>188 trainをrctにしとくと画像を周りの色と馴染ませてくれるっぽい 周りに極端に変な色がなければrctにしとくといいけど、やらなくても別に良いくらいのもの >>189 xsegはいちいちtrain面倒なのでxseg applyだけにしてるな。xseg trainの仕方よくわからん >>191 それ、Modelフォルダが無いときに出る表示なので、modelのフォルダ名など確認すると良いかも ちゃんとあれば出ないはず merge SAEHDが終わったら自動でmp4が出力されるようにしたいんだけどやってる人いないかな extractが終わったら自動でsortするとか その辺はバッチファイルだから余裕でできると思うけど、PC初心者だと難しいかも 単純にバッチファイル内の内容を合併させるだけでも行けると思う merge to mp4で書き出しした時にresult.mp4じゃなくて、 result1,2….mp4って上書きせずに別名で保存されるように書き換えたいんだけどどこを変更すれば良いんだろうか pyファイルいくつか見たけど特定できない… >>192 さらにありがとうございます 早く試したい >>195 ありがとう。その方向で試してみようかな。キー入力を自動で入れれさえすればできそう。キー入力で動かしたり閉じたりするやつが多いし。 batの統合、resultの名前の変更は比較的簡単。自動入力はものによってはハードル高い。 10秒程度の動画をなんとか完成できたけど結構大変やなこれ そこまで有名人じゃないから高画質でアングル揃ってるsrcを用意するのが一番厳しかったわ 1回作れれば、2回目以降はモデルも素材も使いまわせるし、多少時間長くても量産できるようになるけどね。 SRC揃えるのに楽しみを見出して何も作ってない俺みたいなのもいる 今さらmve使ってみたけどheatmap便利だね srcの足りない角度がわかるから素材収集が捗る src角度揃ってもdstの横顔抽出失敗してる事多くて上手くいかないことが多い 特に奥の顔半分の目元とか 解決策あるのかな? 横顔抽出はめちゃくちゃ苦手だからdstにするのを避けるか、どうせ横顔なんて似ないから無視するか >>216 俺も寿司職人だから繋がりたいな ツイの足好きな人?それとも前からいる人かな ココに貼るくらいなら、ツイでやれば他の作者とも繋がれていいと思うけどな。 >>199 だけどやってみたら自動化できた main.pyに追加のオプション名が書いてあるのでバッチにどんどん追加して切り貼りでtrain→merge→出力みたいにつなげる mergeはmergerconfig.pyとかを直接いじらないとだめだけど。 左の眉毛だけ前髪で隠れてるsrcを使ってtrainしてたら眉毛ごと右目を反転して左目として使われてしまったのですがそういうものなんですか? random flipとかをオンにするとそうなるかもね ここで素材集めろ tps://deepsukebe.io/?ref=DXVHb MVEに挑戦してみたいけどMRやdfvfx以外で分かりやすい使い方ガイドがあるサイトありますか? 皆さんは普通に使いこなせてるのでしょうか? 珍しく規制外れた >>227 MVEで何したいかにもよると思うけど 自分はヒートマップ見ながらsrc素材集めにしか使ってないな、 手動ランドマーク修正とかはやってられんし。 dstのランドマークで目を閉じさせればtrain時に閉じ目で学習してくれるという認識であってますか? srcにもある程度目を閉じてる素材があれば ランドマークはXsegしてないときは顔の範囲決めに使われるけど、Xsegすれば位置決めにしか使われない。 TRAINの時にランドマークを活用して向きとか目や口の形を計算するとかは一切無い。 それホンマけ?xsegのマスクってtrain範囲を指定するものだけどランドマークと関係ある? 位置の情報しか使わないで表情とかsrcで再現できるものなん? Xsegとランドマークは関係ない。Xsegされてない時にランドマークの輪郭が範囲として代用されるってだけ。 学習はあくまで2次元の絵として特徴が学習されるだけで、ランドマークは全く使わないし、角度にあわせて切り貼りしてる訳でもない。 オマケに、アゴのラインのランドマークは位置合わせにも使われないから、Xsegしてる場合は全く意味無い。 あくまでsrc、dstの学習時に使われない。という話?train時の画面で言う左から2枚目と4枚目の画像。 dstをsrcで再現するとき(5枚目)にはランドマークの形が使われているんじゃないの? >>229 顔の近くに手などの障害物があると輪廓をとらえきれずに透かしたような輪郭が外側に出来たり目の位置がおかしかったりすることがあるので輪郭やパーツの配置を出来るだけ正確にとらえたいからです >>231 ありがとうございます 参考にして挑戦します 233を書いたものですが、ランドマークで閉じ目判定できるのかなと思った理由が前スレのやり取り↓を見たからです 176 名無しさん@お腹いっぱい。[sage] 2022/04/02(土) 11:07:26.17 ID:bJ41ty0m0 dst では閉じ目のシーンが、出来上がりを見ると半目になってしまいます これを閉じ目にしたいのですが、何かいい方法ないでしょうか? loss値は0.2くらいで、一応src5000枚のうち、200枚くらいは目を閉じてます 178 名無しさん@お腹いっぱい。[sage] 2022/04/02(土) 17:03:59.56 ID:P0/RTPSV0 >>176 ae dimsを上げるか、MVEでdstのランドマークをいじれば多分いける >>240 ランドマークいじっても意味無い。 dstの目開けてるシーンを増やして、srcの目閉じてる割合を増やす。なんなら学習する時だけalignedの顔をコピペで増やしたりして割合調整すればいい。 具体的にどれくらいかは、素材にもよるしモデルの学習の程度にもよる。 mergeすると若干顔の位置がズレるんですが、mergerの設定等で修正できますか? >>237 衝撃のあまりオウム返しっぽくなるが Xsegしているなら目鼻口の位置さえあっていれば出来上がりに遜色ない、てこと? 今までアゴのラインがずれてるだけで一個ずつ手動ランドマーク修正していた俺は… 笛なんてもう嫌になるほど… >>244 残念だがそういうこと。笛の細長いアゴは放置して良い。 位置さえ合わせられるなら目鼻だって無視していい。 瞬きのたびに画像がブレるのは目の形が変わって位置合わせがブレるからだし、横顔も素材不足だけじゃなく見えてない方の目の位置のズレとDFLの設計上横顔はちょっとした変化で位置がブレやすいせいもある。 MVE使えるなら右下のプレビューが前後と比べてブレが少ないように調整するのがいい。前後のフレームをコピーして調整するとか。 resolution128だと問題ないのですが、256にすると以下のエラーが表示されてしまいます 仮想メモリを増やすと改善するとのことで、設定してみたのですが変わりませんでした 原因わかる方いらっしゃいましたら教えていただきたいです CPU:i5 10400F GPU:RTX3070 528.24 メモリ:16GB Win10 x64 GPUスケジューリング:ON 仮想メモリ:初期 最大 65536 DFL RTX3000_series_build_11_20_2021 https://imgur.com/5goqn52.png https://imgur.com/0e0I21O.png https://imgur.com/G5v0mbj.png https://imgur.com/dk1oFVI.png batch sizeちょい下げたら動くんじゃない?6とか >>247 3まで落としたら動きました! 解像度256はメモリが少ないと中々厳しいのですね レスありがとうございました グラボ変えたから2年ぶりくらいに復帰してDFLで動画作ってるんだけど、眼鏡かけてるsrcを上手いこと眼鏡かけてないdstに乗せる方法ってなんかあります? 昔DFでやった時はそこそこ上手くいったんだけど、liaeで作ったのが悪いのか設定が悪いのかわからんがメガネ部分の再現がイマイチで… LIAE使わないから分からんけどDFでは出来る。xseg使うなら障害物として認識してると再現されないから注意 >>250 今の環境ってliaeで安定ってどっかで見たんですが、眼鏡の場合はDFのが上手くいくっぽいですかね? とりあえずDFでもう一度回してみますわー Xseg使って眼鏡のあるsrcをtrainする時って全部のsrcを手動でマスクしなきゃダメなんです? xsegは何枚か手動でやって、xseg trainしてからapplyすれば、全体が同じようにマスクされるって仕組み 日本人の善良性は良い事なんだよ 俺らみたいなクズだってその恩恵に預かって平和に暮らせてる 問題はその善良性を利用しようとする悪意から守る組織がないことだよ いつもffでやってて、そろそろwfとかhead試そうと思ってるんだけど、 xsegもwf用とかhead用に準備しないといけないのかな? いつもxseggeneric使ってるんだけど、髪の毛の部分が全部マスクされるから意味なくなる気がして。 プレビューで赤い斑点みたいなのでが出てきたが Face Style Power 0.001で数分回したらもとに戻ったわ 未来の誰かのために書いておく headは頭丸ごと(髪の毛含む)入れ替えたいのだからhead用Xsegを用意する必要あり wfはGenericが用意されているからとりあえずそれ使うもよし、srcの前髪再現したいなら別途用意 俺も最近ffからwfに変えたけど、DFLについてるxsegは元々wf用だよね 俺は前髪ありにしてみたけど、激似度が増してすごいけど違和感も増えるな 抜けるから良いけど モデルのdecoderのdstとsrcを入れ替えてやり直すと違和感減るって裏技教わった。多少混ざる感じはあるけど馴染んだ気がする。 >>259-261 なるほど、wfならgenericでいいけど、前髪調整とかheadとかは専用xsegで、カスタマイズしたりするわけだね。裏技もどうもです。 プレビューで顔にタイルが張り付いたみたいになったのってもうmodel崩壊しててどうしようもないんでしたっけ? trainの設定でリカバリー出来ます? ちょっとしたノイズならワープyで他の素材学習させれば良くなること多い モデルの~inter.npyを消してからしばらく回してみればどうだろう 静止画を作れるのがあれば足りないsrcを補えるのに headでやってるんだけどPreviewの3番目と4番目の顔の大きさが微妙に違っちゃってない? 前、ここで教えてもらった万能xsegなるものがある中華のサイト、よくわからんがなんか色々お宝ありそうだなあ。 買い方すらわからんが。 GUIとか高解像度化とか高速顔検出とか顔素材とか。 ろだが中華系で使い勝手悪い。 日本向けに前髪ぱっつんとか汁トッピングに対応した万能xsegが欲しい xseg面倒臭くて堪らん 汁物(特化型)と万能(バランス型)じゃあ両立無理でしょ どんなfacesetにも対応できるxsegとかないし、自分で調節するのが手っ取り早くて良質。 表情を似せるのにface style powerって使えるんかな。 ここでもらった万能Xsegがめっちゃすごくて、手とか髪とか、汁も結構うまくいくから使っていたけど、おれはfでやってるのにwfのを強引に使っていたり、少し汁にも不満が出てきたから、ゼロから作ってみようと思うけど、やっぱめんどくさいかな? ラベルの仕方分かっててaligned素材あるなら数十分あれば万能よりはマシなの作れると思うけどな。 modelはゼロからだとtrain遅すぎだからpretarin済拾ってきて流用。 今はすべてwfになっているけど、最初はfの方がいいという感じじゃかなったかな? すでに色々素材をfでやっちゃったんだけど、wfの方がいいところってどこなんかな? >>278 これってxsegで前髪込でmaskしてるってこと? 前髪込みでやってる DFLの解説サイトって外人が書いてるのばかりで、その通りxsegやってたけど 日本の女性アイドルの顔って前髪も含まれてるなってのを改めて感じる なるほどね srcとdstの髪色は絶対合わせなきゃいけないけどありかもなぁ 試してみるわ 前髪まで含める場合って髪のどのあたりまでを範囲にするの? 俺も前髪込でやってるが、アイドルはこの方が断然似る。ただ境界に違和感出やすい。 かこむ範囲はいわゆる前髪の範囲 wfのほうが横顔の範囲が広いんで斜め向きのときにfより違和感が少ない。 マージ速度は遅くなったけど 試しに前髪込みで作ってみたら意外と簡単にできた。囲むのも20枚くらいでも大丈夫そう ただ、trainが足りないのかもだけど278みたいにきれいにならず前髪と他の髪の境目が激しく違和感ありありになった >>278 すごいな。 ネットに出てる一部のやつはそんなにレベル高くないんだな。 性質上、これって職人が地下に隠れて自分のためにしかしない世界だからどこまで到達しとるかすらよくわからん。 中華はだいぶオープンだが、日本はやっぱり自分でやっていくしかないんかなあ。 正面の静止画とエロ動画とかじゃ難易度全然違うからなんとも言えんけどね >>278 がダメとか言うんじゃなくて >286 制作してるなら簡単に他の作者と繋がれるぞ。表で作ってる奴らはレベル低いと思う。 前髪までマスクってそうかdstのほうもやらなきゃいけないのか めんどくさいな trainすると普通に動くんだけど25分毎のセーブで落ちる様になってしまった 俺もセーブで落ちる現象しょっちゅうあった PCのメモリを16Gから32Gに上げたら治った そんなにメモリ使ってるように思えないけど 連休暇だから可愛いだけの動画作った https://i.imgur.com/Ph0RBv1.mp4 liae-udtのwfで前髪あり なぜか黒髪が薄くなったりして合わせるの難しい 連休暇だから可愛いだけの動画作った② https://streamable.com/4cz0l9 耳の部分も範囲に含めようと思ったらwfでは厳しかった twitterはやってない 耳やりたいならheadにして倍率弄るのが一番。それにしても上手いなぁ >>299 いいね。xseg頑張ると結構上手くいくもんやなあ >>299 すげぇ 1050で頑張っていたがちゃんとしたグラボ買おうかな。 >>302 ちゃんとした グラボ 買ってくれよ マジで model使い回すときってGANのファイルとかもそのまま使うの? >>306 同じことをhinataでやってるだけだよ ちょっと編集して上げときます https://streamable.com/25z9x5 とあるブログにあったdeepfacelab 勝手にFAQという記事が大変参考になりました facetypeはずっとfでやってきたけどwfに切り替える踏ん切りがついた 耳出しするかどうかもwfとxsegでコントロールできるのか liae-udtって学習結構重くなりますか? 今df-udなんですけど 重くはなるけど成果物の方向性がかなり違うからどっちが好みかで決めたほうがいいと思う 30人くらいの顔に置き換えて並べた動画見かけたんだけど、それぞれ学習したってこと?一括で出来たりしないよね? srcが全部別人という意味なら、単に人数分モデル学習して別々にmergeしたんじゃない? dstが30でsrcが1という意味なら一括でいけそうだけど >>314 ワイは223に書いたけど複数srcを自動で切り替えて一気に作れるようにしたで >>318 自分用に複数のファイルをごちゃごちゃいじったから上げるのは難しいけど、コード読んでちょっとずついじってけばできなくはないレベルよ すぐ戻れるように元の環境をコピーして色々実験してみると良い >>320 ありがとうございます。自分にはbatのコピペくらいが精一杯で。 頑張ってみます。 顔のランドマーク漏れを手動で抽出させる作業に億劫な思いしているんだが、pythonとか使ってあの作業をプログラムで実行させるとかってできないの? そういうことやってる人いる 何ら認識に問題ない顔なのに数枚単位で飛ばされるやつなら俺も知りたい >>322 ミスったalingedをリストにしてalinged_debugから削除するプログラムはすぐ作れる。 そこから一枚ずつ再抽出は手動だが。 定期的に自動でランダムにマウスを動かしていくプログラムは簡単に作れそうだな ランドマークが出現したら次に行くというコードを実装するのが難しそうだが pyautoguiとopencv使えばできそうな気がするが、そういう方法とっている人おらんの? マジメにやるならretinafaceとかマシな顔認識組み込んだ方が早い >>328 入れ替え試したいけど大変だし公式で改善してほしいなあ 画像一枚でfaceswapできる最新のソフトウェアがでた まじでやばい ローカルで環境作ってgpuでやったんだけど まじできれいにdeepfakeできて笑っちゃった https://github.com/s0md3v/roop nsfwフィルターを無効化したい場合はcore.pyの if predict_image(target_path) > 0.85: quit() seconds, probabilities = predict_video_frames(video_path=args.target_path, frame_interval=100) if any(probability > 0.85 for probability in probabilities): quit() これらをコメントアウトすればおk 参考に RTX3060ti でメモリフルロードCUDA使用率96%くらいで処理が進んでいく 使ったけど学習モデルの解像度低いし微妙じゃない? 海外コミュニティでも完成後に全フレームを超解像推奨って感じだったし >>331 GPU使用率が4割止まりでフルに使ってくれないんですが仕様ですかね? AI画像生成界隈で生成画像の動画化が次の目標って感じでそういうツールが色々話題になってる。 DFLで作る動画と比べたらだいぶ簡易版って感じだよ。今後に期待ではある。 脈絡なしの唐突にトランスフォームする動画が出来てしまいそうではある >>331 動画見る感じ出来は良さそう 暇なとき試してみるかな DFLきっかけにAIの勉強を始めているんだが、一瞬話題になったfacejappのようなものを開発できるようになるのはいつのことやら >>331 起動とプレビューまではできたけど生成がなぜか動かねえ 性能的にはそこまでだけどワンクリックで完成するので手軽さはいいね もうちょい導入簡単になればいけるな。てかこれウェブサービスにできそう You Tubeに試してみた動画があるから気になる人はそれ見とけばいいと思う xsegのeditを使おうとするとpluginが見つからないってでます。どうやったら解決できますか? CPU:i9 13900 GPU:RTX3070ti メモリ:48GB Win11 GPUスケジューリング:ON 仮想メモリ:最大 144000 DFL RTX3000_series_build_11_20_2021 SRC 3万枚 DST 3万枚 で これでtrain SAEHD が Face type wf resolution 64 AutoEncoder dimensions 64 Batch_size 4 でやっとなんだけどもっとパラメーター上げられないのかな? resolution 128 AutoEncoder dimensions 128 Batch_size 8 とかは無理? train Quick96だと普通に動くんだけどなぁ。 それと同時に>>344 と一緒の症状もあり。 >>345 学習するときにGPUがちゃんと選択されてないんじゃないか src,dstとも1万枚くらいまで落とした方が軽くなるんじゃない? 特にdstは分割してもクオリティーに関係ないから 345だ 希望通りにできるようになった >>346 ありがとう分をわきまえるよ >>347 レスありがとう おそらく原因は色々試した結果 『OSError: [WinError 1450] システム リソースが不足しているため、要求されたサービスを完了できません。』 これが出た後少し時間が経つと(1m位)動くことがあってその時にブラウザを多重起動させると動きが止まるので俺の使い方がアホだって事でFaみたいだ >>348 ありがとう、そうする。 1050で頑張っていると書いて死ねと言われて奮発してみたが おまいらこんな良いの使ってるんだなぁ。 CPUもI5の第4世代から変えたから変化の凄さに驚いてる。 枚数は SRC 1万枚 DST 1.6万枚 まで減らしてブラウザーなど余計なものを立ち上げずに実行したら>>345 で希望したパラメーターで動くようになった。 ブラウジングなどしなければもう少しパラメーター上げても動きそう。 お騒がせして申し訳ない。 そして感謝。 sage間違ってたなスマン 345だ 追記で「ページングファイルが云々」の表示が出た場合は要求するパラメーターがスペックを超えてるようで、 いくら待っても動かなかった。 (動くのかもしれんが俺の環境では動かなかった) ありがとう。 >350 詳しく説明できないですが、ページングファイルはスペックのいいパソコンでも 何十ギガか設定しておかないと動かないことがあります。固定して何十ギガか設定されると改善すると思います。 Batch数も上げられるかもです。どうか解決しますように。 必要な仮想メモリを知りたい時はタスクマネージャのメモリのコミット済みのところを確認 trainしながら他のことをしたいなら余分にメモリ確保 ちなみに32スレッドでmargeしようとすると140GBほどメモリ必要 RTX4060Tiのメモリーが16Gになっていて、RTX3060よりちょっと多くなるけどまあコスパは3060の方がいいとして、もうちょっと解像度上げたいあるいは時間短縮したいなんかで 買うとして、 まず4000代ってそもそも動くのか? その上で、12Gを16Gにしてどれぐらい幸せになるのか? すでに上位機種で16G使ってる人いたらそれも教えてください。 >>351 ありがとう >>352 ありがとう train SAEHD した後タスクマネージャを見ているとコミット済みの分母が上昇していき 俺の環境だと色々試した結果SRC,DST1万枚まで減らして174/191辺りで、 resolution 196 AutoEncoder dimensions 288 Batch_size 8 が限界のようだ。 動くまでの変な間はコミット済みのメモリが落ち着くまでの間だったんだなぁ。勉強になった。 動く動かないが明確に分かるようになった。 それから>>344 も(多分一緒だと思うが)解決した。 俺はDFLをデスクトップに置いていたんだが、パスにカタカナとか入ってるとダメなのかもしれない。 Cドライブ直下に置いたらxsegできた。 とにかくおまいらありがとう。 学習時間をどれくらい短くしたいかにもよるけど、1日待てるならbatch 1とか2に下げて、resolution 出来るだけあげた方が幸せになれる。 dimsはデフォルトのままでいい。 但し、モデル使い回す前提だから、最初は誰かにモデル貰うのがおすすめ。8GBあれば320でも行ける。 rtx3060買ったからmodel作り直そうかなと思ってるんだけど 解像度とae_dimsってどれぐらいのバランスにすればいいんだろう できれば解像度は384ぐらいまで上げたい モデルを再利用しようと思ったんだけど、設定を変更する画面に行く前に勝手にtrainが始まる これって複数あるモデルファイルのどれかを消せばいいんですか? >>356 DFudt wf512 dimsは全て初期値でやってる。何も困ってない。 >>358 512じゃ逆にsrcの素材用意するのが大変じゃないか? 最近ちょっと疎くて調べたけどよく分からなかったので教えてください。 ちょっとマシン入れ替えの必要がでまして、何買うか検討中なんですが、 Ada LovelaceコアのRTX4070,4080辺りで、DeepFaceLab_NVIDIA_RTX3000_seriesとfaceswapとfaceswapは動作するのでしょうか? 現在の環境はノートの3070Laptop(これが交換対象)と、 あと五月蠅いので使ってないですが1080tiデスクトップです。 >>332 せっかく書いて貰ったのに、その文が見つからない 今のバージョンだとどこを外せばいいんだろう? MVE使いたいけどYouTubeだとUIやファイルの表示が小さすぎて何を弄ってるかわからないから日本語で分かりやすく解説してるサイトとかないかな?ディスコードだけじゃ理解が追いつかなくて ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.4 2024/05/19 Walang Kapalit ★ | Donguri System Team 5ちゃんねる