【質問】dfl【その3】
レス数が1000を超えています。これ以上書き込みはできません。
DeepFaceLab(以下、DFL)の質問&回答スレです
・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。
・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。
・RTXシリーズでも動くの?
FS、DFL共に動く。 リクエスト禁止
DFLとかAIとかに文句つけるのは禁止
技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須
ダウンロード方法
https://mega.nz/folder/Po0nGQrA#dbbttiNWojCt8jzD4xYaPw
インストール方法
ダウンロードした
DeepFaceLab_CUDA_build_date.exe をダブルクリックし自己解凍形式)、D:\(Dドライブなどルート)などに解凍する。 動画制作のおおまかな流れ
1.素材を準備する
2.素材動画を全フレーム画像で書き出し
3.顔部分のみを抽出
4.誤検出された画像を削除
5.学習させる(train)
6.顔を移植した画像を書き出し(convert)
7.書き出した画像を動画にする 顔が画面からフェードアウトするときのことで質問があります。
顔が画面の2/3消えたくらいでsrcへの置換がされずdstの顔が表示されます。
その部分だけマニュアルで顔を切り取っdstのalignedフォルダに追加しましたが、
mergeすると相変わらずdstの顔のままになっています。
alignedフォルダに入っている画像の部分を置き換えてくれるのかと思っていましたが違うのでしょうか?
ファイル名は動画の流れに合うように連番になっています。 マニュアルでっていうのはRe〜みたいなデバッグ消したファイルをextractするbat実行したってこと?
それとも例えばwinPhotoみたいな他のソフトでトリミングした画像の名前だけ変えてalignedに入れたってこと?
前者ならわからん
後者なら意味ない 未抽出の顔は、DFLで手動抽出するしかないと思います
メタ情報が入らないでしょう すいません、途中で送ってしまった・・・
マニュアルの意味は
5) data_dst faceset extract MANUAL.bat
でファイルを作ったということです。
11さんが言ったDFLで手動抽出とはこれを使うということですよね? 5) data_dst faceset extract MANUAL.bat
は使用した事は無いのですが
とにかくDFLで抽出すればいいのでしょう
何か、DFLで抽出した顔のローテーションが違うとかで
勝手に回転させたりしたりはだめだとか
debugから消して、手動再抽出とかは上手くいっています 今年の8月からDFLをアップデートしていないのですが、改良はされてますかね? 08_02_2020使用していますが
hdアーキの代わりに-udとか
軽くなってlr_dropout=Trueに最後していい感じ
Xsegはなかなかいいんじゃないですかね 質問なんだが、この画像のあとKeyを押すと進めない
この現象になるときと、trainでちゃんと学習するときがあっておそらくは作業中に強制終了させたりするとこの現象が起こると思ってるんだが、本当にこれが理由であってるんだろうか?
それと、この現象に陥ったときに1から始めるの面倒なんだが方法ってない? もしかしたらとてもレベルの低いことかもしれないけど質問させてください。
dst素材で顔に手が被っている場合の対処としては、
XSegで手の部分を顔以外(破線の囲い)と指定してやればいいのでしょうか?
(素材数枚でやる必要あり?) 21です。
22さん、ごもっともです。
実はやってはみたんですが、上手くいっていません。
それの原因が回数なのかmaskの当て方なのかそもそものmaskの考え方が違うのかわからず、
あのような質問になりました。 >>23
手がどれくらい被ってるか分からんけどこんな感じでやってる
何枚かマスクしてXsegやってマスクに適用し編集でチェック
ダメなとこあったらマスク追加でXseg
https://i.imgur.com/8IZ8cqH.jpg >>25
あれ?眉毛って顔に入れないんでしたっけ? それは自由だ
大体眉に髪かかってるの多いから避けるのが無難と思う 眉なしでdstのXsegを作ったら顔入れ替えの時にsrcも眉から下が適用される、って考えてあってます? あれ?ちょっと思ったんですけど、
フェイスタイプはFで基本やってたんですけど眉から下でマスクするならHにしちゃっていいんですよね? mask処理をしたら仕上がりが倍以上よくなった。
ここの人たちありがとう! >>32
halfだと、顎のあたりとかの色合わせ、色のなじみが悪くなる場合があるのでは?
src、dst次第かも >>34
そうか。確かに。
Fでやってて問題ないのでそのままやってみます。 loss値0.1で能面が治らないんですが、ここまでやっても治らないのはsrcが足りてないんでしょうか? 別スレでAdaBeliefで学習が速くなると聞いて、最新版を試したけど
特に速くなってなくない?
ただEyes priorityがEyes and mouth priorityに変わってて、前は口が微妙に
ずれてる場合があったのが、うまく入れ替わってる AdaBeliefは理論的には速くなってるはずだけど、dflがそんなに効率よく取り入れてるかどうかはわからない
反復が速くなるんじゃなくて、loss値が下げ止まるまでが速い感じだと思う 質問させて。
過去スレにあったdst×dstのやつ。
dst×dstで、
liae-ud、Full Face、RW Trueで始め。
0.5切ったらRW False。
0.2切ったらLRD true。0.1切るまでtrain。
その後に、srcフォルダに入っているdst画像は全削除で、
好みのsrc画像入れるであってますか?
src画像に切り替えるタイミングと、
srcフォルダのdst画像は全削除でよいのかが分からないのです。
宜しくです。 すまない日記さんとやらではないです。
初期設定で0.2くらいまでtrainして、
srcフォルダの画像切り替え。
その後に、RWやLRDのパラメーター変えて、0.1までtrainかな。
試してるんですが、いまいち上手くいがず迷ってます。 dstxdstをどこまでやるかは、人それぞれでしょう
プレビュー画面見ながら自分で判断するしかない
場合によっては、一度その状態でmargeして、仕上がり具合を見る
このタイミングで、dstの顔で違和感なく動画が作成できるなら良しとするのもアリ
srcのaligned画像を入れ替える時は、dstの画像は全て削除 >>42
dst画像は全削除でよかったんですね。
ありがとうございます。
プレビュー確認し、途中でマージしてみる。
分かりました。ありがとう。 dstのコピーとか削除とかやらずにバッチファイル内のsrcとdstのフォルダを同じにすればいいだけじゃないの?
まぁ未だにdstxdstとか謎技術を信奉してるのあいつぐらいだけだと思うけど 掲示板どこも止まってる?
マージするとき、ツール使ってフレームごとに設定するプレビュー画面で、
dst画像に、src画像がはまってないというか、
位置がずれる現象が。
外側の四角いランドマークな位置が思いっきりずれてるんです。
こんな経験あります? view aligned debug resultsでおかしいの削除してMANUAL RE-EXTRCT DELETED ALIGND_DEBUGやってる? >>46
返信ありがとうございます。
srcとdstのランドマーク確認しましたが、
おかしいのないんですよ。
すこしズレるんでなく、全体的にズレてるんです。
対象は真ん中なのに、5かな、押すと四角い枠が半分だけ見えるんです。
また1から作り直してみます。 >>47
data_dst.mp4を顔抽出した後に解像度変更や不要シーンカット等、再編集してない? >>48
ごめんなさい
data_dst.mp4というより、そこからコマごとに切り出した画像群が顔抽出時〜mergeで構成が全く同じであるか?ですね >>49
返信ありがとうございます!
dstもsrcも編集してないんです。
不思議なのはプレビュー(一番右)は上手く出来てるやうに見えるんです。
んで、マージで手動のツールで見ると、いわゆるdstしか表示されない。
5押すとマスク?表示されますよね。
それ見ると違うとこに四角の一部がでるんです。
壊れちゃったのかな。ちなみに50万くらい回して、0.12くらいです。 == 04.01.2021 ==
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。 dstとsrcを1枚でやったらめっちゃ早く静止画のコラできるんじゃないかと思ってやってみたけど、
1回当たりの時間はそんな変わらないんだな。
これが俺のPCの性能ってことか。 メモリ8×2,gpu8 のマシンで動かしているのですが、メモリ使用率が90%、gpu使用率が15%程度なのですがこんな物なのでしょうか?
gpuの使用率を上げる方法ありましたらご教示いただきたいです タスクマネージャーのGPU使用率は当てにならない
ELSA GPU Optimizerみたいの使ってみて 動画からの画像抽出をGPUで行うことはできないのでしょうか
jpgなら大した負荷はかからないのですが
pngだとファンが高速で回りCPU使用率が100%付近に張り付きます
可能であればどのファイルのどの項目を触ればいいかご教授下さい trainの途中でアーキテクチャをliaeに変えたいんですが、
いじるファイルはmodelフォルダのSAEHD_data.datでいいのでしょうか?
テキストで開こうとすると文字化けするのですが、何か専用のソフトが必要でしょうか?
また、文字化けながらもそれっぽい記載があったので、df→liaeに変えたのですが、
エラーが出てtrainできませんでした。
やはり文字化けの中変えるのはダメでした。。。 >>54
タスクマネージャーのグラフのとこのcuda見ればめっちゃ使ってるのがわかると思うよ >>58
できなかったんですね。ありがとうございます。
以前dataファイルをいじって設定を変えると見た気がしたので探していました。
train最初の段階で決めておかないとダメなんですね。
やり直します。 rtx3090使ってる人Xseg使えてます?
うちの環境だとgpuスケジューリングONにしたら使えるんだけど
タスクマネージャからcudaの項目が消えて、3dで使用されてるのが気になります 俺の3080も確かに3Dが使われている
というか、そもそもcudaの項目がなくなっとるぞ >>63
RTX3000系もDFL安定して動作する様になりましたか? >>64
最近までxegが動かない問題があったけど
最新版でGPUスケジューリングをONにしろって
て表示が出ててきてONにしたら動くようになったよ。
俺の3080はもう問題なし 色々と調べてみましたが3000台は学習初動でvram使用計算にバグあるっぽいですね
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます >>66
凄く有益な情報ありがとう
いままでHEADだと256*4bachが
限界だったのに320*8でも動くようになったよ
3080tiが出るまで待とうと思ってたけど、
必要なくなったw >>65-68
どうもありがとう
確かCudaコアが倍増とか??1 Iterも短縮?
消費電力は減るはVRAMは増えるは安くなるはで前世代から見て改善だらけかな? 3070よりVRAMの多い3060の方がこのスレ的には良いのかな 顔抽出の精度って学習されないんでしょうか?
debugフォルダ見たら何回やっても失敗が多いんですが。。。 1080Tiから変える価値あるかな...
悩ましい 3060がvRam12GBで330ドルらしい
これ買いやろ 顔画像をheadで切り抜きしてるけど上下にすごい余白ができる
余白ギリギリで切り抜いてほしいんだけど、調節する方法あるかなぁ? >>74
headはそもそも頭部全体を切り抜くってアルゴリズムだから余白が多いのが当然だろ
head>Whole>full>harfで範囲が小さくなるんだから変更するしかないんじゃない? >>75
そりゃそうだが縦幅の半分近く無駄にしている。
おかげでVRAM馬鹿食いの割に低解像度。
もうちょっと何とかなりそうだと思うが。 3080Tiが無期限延期になってしまった
3090にせざるを得ない ReadyToMerge model 良さそうだね ReadyToMergeモデルってのはごく少ないtrain回数で高品質なマージができるって意味?
特別なプログラムがあるわけじゃなくて、効率的なtrainのやり方って感じかな。 RTMmodelはパターン豊富なsrcとdstにPretrain用データを使って事前に十分学習させとけば、本番のdstで全く学習せずにいきなりmergeしてもいい感じに合成できるよってことで合ってる? モデルの使いまわしを1つのsrcだけで効率よくするって感じか >>77
headって、背景やsrcとdstの髪型に気を遣って
AAEとかDavinci Resolveで後処理しないといけないんでしょ? >>85
確かに背景と髪の境界線は多少ちらつくので気になる人は映像処理するといいかも。
自分は我慢できる範囲。そこはデメリットかな。ちなみに顎と首の境界線はwf同等なので
だいじょうぶ。マスクはwfよりかはxseg-editの枚数増える感じ。なによりもdst関係なく
本人そっくりになるのがメリット。 >>86
ふだん、耳・前髪・横髪含む前頭部とメガネ残しでxseg-editして、wfで回してるんだけど
趣旨考えるとやっぱりheadに移行したほうがいい結果いなりそうだな
xseg-editも髪の残す境界に悩まず全部マスクできれば枚数増えても逆に楽になるのかな
寝てる時とかの逆立ち毛や、長髪についても抽出した画像内では全部頭部としてマスク内に残してやってる? てかヘッドってsrcの髪型も揃えるんよね?
resなんぼでやってる?
224とかじゃ小さ過ぎるか 髪は長髪でも頭部としてマスクしています、さすがにすこし乱れているのまでは
カットしてますが。xsegが思ったよりすごくて、長髪でもちゃんと学習してぴったり
合ってくるのは驚いた。マスクはdstもsrcも両方必須ですね。resは448です。
mrにあるpretrainモデルもheadだと少ししかないのであまり選択の余地はないですね。 >>89
448は俺のpcじゃ無理だ!
GPUは3090ですか? >>89
ほうほう
fでそれなりに満足できてたけどheadに手を出してみたくなった headて短髪インタビューじゃないと厳しいかなと思ってたんだが凄いな
マスク処理、448のトレイン
作るのにどれくらいかかるんや... >>90
gpuはそうです。wfで満足したかったが、dstの相性が悪いのか、モデルが似なかったので
やむなくですね。 俺の3080(VRAM10GB)ではres352のbatch4でギリギリ回る
res448なら16GBは最低必要だろうね
8GBのグラボでSLIを組むか、3060の発売を待つか、3090がいいだろうね。 2080tiどころかTITAN Xでも怪しいくらいか
3080tiは凍結っぽいし現状は3090になるな
Vramもメモリ増設くらい簡単に増やせればいいのに これのために3090買えてマスクに時間かけられるやつがどれくらいいるかだな...
使えるシーンも限定されるだろうし >>96
TITAN RTXならアリだね、
パソコン工房で14万で販売されてた形跡がある
演算速度は3080に負けるらしいけど、14万なら魅力的。 >>89
情報ありがとう!やってみてダメだった時の徒労感が嫌で忌避してたけど
headでやってみる気力がわいてきた!
>>95
1080ti(11G)でliae-ud、res384、ae等デフォ、batch5は行けそう
adabelief切ればres416ならどうかなっても思ったけど、切る気にはならなかった。 mrにはheadであと 320と240の pretrain済モデルがあるので
自分の環境に合ったので試してみるといいかも。 >>96
VRAMとかは基盤に直付けで無いと、低速なのかな
メモリだけCPUのメインメモリも使うと、遅くなるんですかねえ モデルの使いまわしをしてるんですが、プレビュー上のグラフ表示だけリセットする方法ってないですか?
まぁ気にするなって話なんですが 俺は高解像度だとプレビューの顔画像が1個になるのを何とかしたい フォーラムに上がってるジェネリックxsegの使い方がよくわからないんですが
modelフォルダに突っ込んでマージするだけでsrcとdstにはxsegマスクを
特に必要とせず済むように使うためにあるんですか?
それとも5.XSeg.optional) trained mask for data_src - apply等を実行して
srcやdstに適応してからまたxsegのtrainをしてやる必要があるんですか? やってみれば良いんじゃないの
恐らくフォルダに突っ込んどけばマージは出来る
でもapplyした方がtrainの効率は良いだろう 顔入れ換える系のこれより、ひんむく系の方が画質悪いけど興奮するわ
違う? >>2のフォーラムのtools and appsに前から専用スレッドがたってる
スタンドアロンツールとオンラインサービスがある
オンラインのやつはコツ掴めば中々すごい画像を生成する
解像度が600*600と低いが.. 現状解像度低いから、興奮するのかも知れんが
顔入れ換える系は高解像だから、顔にあったボディをしっかり選ばないと俺の脳は受け付けないのかもしれん すみません
headで学習してますが、いざmergeSAEHD実行してもdstの顔しかでてきません
dstもsrxもheadで切り抜いてます。
対処方法教えてくださいませんか pretorainモデルの使い方がわかりません
普通に実行するとdstとsrcとは違う外人の顔がでてきます trainの下準備みたいなもんだから、その知らん外人でtrainするのがpretrain ありがとうございます。
pre trainの効果は、トレインが早い、角度に強くなるであってますか >>110
どれのこと言ってるの?
顔入れ替えと服脱がすやつしかなくないか? pretrain用のpakの中身は「自分が過去に使ったsrc/dstを適当に混ぜた物」と入れ替えるのお勧め
loss値じゃなくて、previewでキツい角度や表情がキレイになる位まででおk aedimは512にしてますか?
pretrain見るとあんまりしてないからそこまで重要じゃないのかな aedims512でadabelief trueにするとbatch size1でもtrain始められなくない? pretrainではなく普通のトレーニング済みモデルってどこかにありますか だからみんなpretrainでアップしてるのか
pretorainの効果って今一つわからないのですが、結局Iter1から自分でやるんですね
train時間短縮で使いまわせらたと思ったのですが pretrain無しで一から回してみればいいと思うよ
未実装だった頃は200k回してやっと何となく見れるレベルって感じだった記憶がある いろんなsrc、dstを混ぜて、Trainモデルをアップすれば、
誰が誰だか分からない平均顔?
捕まるかな? Mask Editorで画像を確認するとき、一気に画像を飛ばすキーとか無いですかね・・?
3万枚とか、ずーっとDボタンを押しっぱなしで確認するのしんどい。
解像度1024だと送りのスピードも遅いし。 shiftDでちょい速くなる程度か
最後の方だけ確認したい時なんかは前半の画像を別フォルダに逃したりしてるわ 3080と3090どっち買うか迷ってるんだけど、同じ設定で比べると時間的にどのぐらい差がありそう? メモリが多いとbatch数増やせるから
その分trainは早く終わる
1070無印から3090に載せ替えたけど
3〜4倍のbatch数で動いたよ
cudaコアも5倍なのでかなり速くなった
寝る前にtrain始めて起きたら完成していると言ってた人がいたけど
自分も同じ感じ
3080は持っていないのでわからない プレビューでdstの顔向きをsrcが追従してくれません
src不足でしょうか >>130
ありがとう!その早さは魅力だなぁ。
と同時に飽きるから安いのでいいというのもまた真理。悩む。 グラボ更新ついでに最新版にアプデしたらプレビューが5×5マスでなくて、
srcの2×2部分しか表示されなくなったんだけどそういう設定かなんかあります? >>128
さんくす!
Shift+D知らんかった。
あと、他のフォルダに移せばいいってのも盲点やった。 すみません。
headをためしてますが、プレビューで顔が崩壊してます。
xsegでもっと枚数範囲指定せんとダメでしょうか オレもhead挑戦中
まだ途中だが、プレビューで崩れた顔が出てくるので、Xsegに戻ってeditしながら再train中 基本的には短髪スーツのオッサンがスピーチしてる動画しか想定されてないから…
余程src/dstの条件が一致してかつ、正面に近い物しか無理 まじですか
じゃ、一般的に騎乗位とかのエロはWFがいいのですね ちょっと前までf一択みたいな風潮だったのにいつの間にかwf〜headがメインになってるな fしか使ってないわ
日本の女性アイドル使ったheadの完成品があれば見てみたいわ >>143
スマホとかのfirmwareみたいに、常に最新が良いと思いがちなのかも
要は用途に適した環境が大事な気がする 自分は最新も確認しつつliaechでrawが多い headなら、顔の輪郭まで持ってけそうだと思ってやってるけど、まだmergeまで行ってない。
ま、最近忙しくて、作業を進められてないのが原因だけど。
df faceのmodelなら3人作ったし、結構短時間で新作作れるけど、顔の輪郭で不満が残る場合があり… 顔の輪郭までならheadである必要もないかと思う
>>146でも書いてあるけど新しいバージョンが上位互換というわけでもないし
おでこに髪がかかるようなsrcはfを使うのがベストと作者も言ってた気がするし、fから進めない 自分も眉毛の下でmaskするからextractはwfだけどarchiはずっとfだな
ただheadだと輪郭前髪ごと移植できるみたいだから気にはなってる こういう場合に、気楽にアップできないのがつらいな。 3070で顔の切り抜きの速度1.2it/sって普通なんですかね?なにか自分の設定が悪いのでしょうか それで普通
extract faceはGPUもCPUも全然性能使い切ってくれないから遅い 色々試してみて感じたのは
DFLの最大の弱点は顔抽出の精度
Xsegみたいにユーザーの手動検出を元に学習とかできないのかな 顔検出の精度低いって、ちんこ重なってると駄目なん? 口が隠れてると手動での検出すら厳しくなるね
2年ぐらい使ってるけど、この辺は一切進化してない
作者がいじれない所らしい 3pとか2人以上の顔の差し替えを同一動画で作るのは
どういう手順で作ってるんでしょうか? 予想だけどA,B両方抽出してBのalignedとdebug消してAをXに変換→result出力
そのresultからX,Bを抽出してXのalignedとDebug消してBをYに変換
みたいな流れじゃないかな src(芸能人)は小顔で目が大きい→dstは顔が大きく目が小さい→trainでdstのlandmarkサイズを基準に学習→マスク外のサイズが微妙になる… >>161
mergeのときに顔のサイズ変えられるでしょ
Jを押して大きくしてみては 輪郭に合わせるとなんか巨頭オみたいになって違和感バキバキの時あるね
特に上から見下ろすシーンが気持ち悪くなる気がする 自分も時々起こるので、対策が知りたい。
dstのマスクが大きくて、srcが小さいので、Jで大きくして間を埋めようとすると
頭でっかちになってしまう症状。あごと首のラインのところでおかしくなるんだよなあ。
rawで出力してdavinciresolveで合成するとかなりましになったので、起こったときの
対策はとりあえず、そうしている。 後は、fullfaceのrect範囲(赤枠)の大きさがmanualでも小さい場合も多い 特に横顔とか口を大きく開けてる画
headとかだと素材の制限が増えて違うし 3060はコア性能が2060s以下だとわかったため
3000スレはお通夜になっている 遅ればせながらhead試してみた
髪の色と長さが合っていれば本人そのものを再現できてよいですね・・・
ただ、やはり先人のコメントのとおり注意点、制限も
・同一ソースからのsrc抽出が必要
(複数ソースだとsrcの髪型に一貫性がないため、mergeしたときに髪の毛が薄く生えたり
濃く生えたりする箇所が出てきて変になる)
・動きが少なく正面シーン中心じゃないとmergeが滲みやすい head試してたんだけど、train200万回近く回してもクリーチャー顔がいくつか残り、いまいにはそれが増えだしたから一時凍結したわ 肩弱い奴はハメ撮り止めちまえ!顔見切れすぎブレすぎ枕使わないから角度煽りすぎ Xsegあまり鍛えられていないので(手作業が面倒)
前髪、舌、笛があまりうまくいっていない(ボケる感じ?)
あと、額とかの色合わせとか。。
動画編集ソフトとか?
使い方が謎です。。
簡単に教えてはもらえませんし Xseg で要所要所をマスクしても、前後のフレームがまったく顔検出出来ないことがあるんだが何でだろう?
あれって、同じような構図のフレームは、1フレームだけ指定すれば、ほかのフレームは同じように学習してくれると思ってるんだけど違うの?
結局、ほぼ全フレームに近い形でマスクしないと思ったようにならなくてチョー面倒なんだけど(涙
一部のフレームだけ指定すると、dst のままのフレームがたくさんあって src の中に dst がちらちら入り込んじゃう。
何か、やり方間違ってるのかしら。。。
(もちろん、本学習の前に Xseg の train・fetch・apply はしてる) xsegはsrcとdst分けて学習したほうが楽
あと、xsegはすぐに過学習になるから汎用性がなくなってきたら
リセットしてやり直さなきゃいけない >>178
その現象、自分も経験した
自分の場合は、Xsegしたコマに、実線で囲まれた領域が無くて、破線で囲まれた領域のみのやつが混じってたせいだった >>179
俺はmodelも手動指定した画像も流用しまくってるけど問題ないよ
200万回ぐらい回したmodelで過去のdstで手動指定した画像300枚くらいと新規のdst参照するようにして回せばbatch13なら10分も回せば十分はっきりマスクされる
それまでに手動でやってないパターンのマスクは流石に無理だけど すみません
Xsegtrainはどのくらいやればいいものですか?
目安となる時間を教えて頂きたいです。 これ、そっくりになるね。始めたばかりだけど、その辺のサイトに落ちてるのより自分でやった方が似てると思う >>178
似たような構図でも目が開いてるか閉じてるかだけでもマスク範囲が変わるんで別物として編集する
XSegの注意点として例に挙がってるのが、目の開閉・顔の向き・照明条件
最初のうちはかなり面倒くさいけど地道にサンプルを増やしてくしかない win10のexplorerがアホ過ぎてストレス貯まる 最新版で1か月ぐらいheadに挑戦してたけど結果が良くないので、Fansegラストビルドの20200327に戻ってる
で、最近Train中にプログラムがいつの間にかフリーズしてる現象が多発なんだけど、同じ状況の方いますか? それに該当するかはわからんけど、train中にcmdの黒画面を触っちゃって中断状態になる事がある
その時は同画面アクティブで適当なキーを押せば再開する 再挑戦したいんですが、AMDRYZENでdfl1.0使ってて教えられるよ、ってかたいませんか?
当方は趣味で動画編集してるくらいの無知なのですが 前回は、trainさせたのをはめ込んだら顔がのっぺらぼうになってやめました >>191
サンクス、それかも知れないので帰ったらやってみます。 RadeonじゃなくてRyzen?Threadripper ならいけるか?
そんなことするくらいなら1080tiの中古でも買った方が良さそうだけど そこらへんのサイト見てわからないのは知らない言葉の数だろ?
知らない言葉全部聞く気か?
そんな他力本願のやつに教えるのにどれだけ時間かかるか想像してみ
本当に作りたきゃ調べる努力をしてわからないことを聞きなよ 最新版でFAN-dstの設定なくなったのだるすぎる
マスク編集めんどくせぇ fan-dstも残してくれれば良かったのにね
でもXSegの方が明らかに高機能で、フェラもベロチューも違和感なく出来るからオススメ
ただフェラもキスもextractが異常に下手クソなんだよな 別に機能はxsegもfansegも全く同じだぞ
extractはmanualのAを使ったことが無い、使える画の選定がグダグダだと話にならんけど 別途、舌と思われるパターンをXsegマスクするツールが欲しいな。。
ランドマークが入らないので、難しい、できないのでしょうか?
前髪も同様。前髪ありは日本人、韓国人くらいかな。。 俺もheadやってみたが、確かに上であがってるような一長一短。
200k程度回して簡単な角度なら最高だけど、ちょっとでも角度がきつくなるとクリーチャーに。
Xsegのサンプル数も多く、とにかくなにより抽出の精度が異常に悪く、相当数手作業になる感じだな。
srcセットには出来る労力だけど、数多くのdstセットに同じ労力使えるかといわれると…
だがツボはまるとこれはつよい… すみません
xsegでフェラ編集する場合、editで範囲指定するときにdstの口まわりを除外するように指定して、完成時にsrcに除外したdstの口回りをうつしだすということであってますか? 質問なんだが、SRCって最低どのくらいの時間でやってる?
1時間で充分なのかわからん 時間じゃなくて使えるフレーム数と表情角度のバリエーションで考えろ😠 すまん、普通のフレーム数ってどのくらいなんでしょうか 3000〜4000
もっと少なくてもいいときもあればもっと多い方がよいときもあるが
これくらいをベースに調整してみるとよいでしょう ありがとうございます
またあとで自分のやつと照らし合わせて返します ゲーミングノートでやってる人いる?
rtx30〜のノートを買おうかと思ってるんだがデスクトップ比較でどんなもんか知りたい 39 名無しさん@お腹いっぱい。 sage 2021/02/03(水) 23:43:22.40 ID:5tX+xQ2H0
CPU Ryzen 3900XT
GPU GTX 1080
DFL2.0
でtrainしたら、tensorflowのエラーやらで止まってしまうんだけど、AMDのCPUだとダメなんだろうか?
AMDのグラボはサポートしなくなったのはわかるんだけどCPUはサポートしてるよね?
これって俺もで、これからはじめようとここにたどり着いた
どうなのでしょうか? あ、俺のRTX3000なんだよね...
なんか調べてたら3000は特殊らしいんだが >>214
3000版用と2000まで用と2種類ある
39は欲張りすぎてoomになっているだけかと
3000版はgpuスケジューリングonにしないとエラーでやすいね 一番最新のやつダウンロードしちゃいました
名前は02_03_2020.exeなんですがどうなんでしょう GPUのスペック越える設定でtrainしようとするとエラー吐いて始まらないよ
無印1080なら
Archi:DF
reso128
各dims:64
bs:4
adabelief-
その他オプションデフォルトでtrain開始しない? >>214
俺も1080でCPUはryzenだけど問題なく動いてるから、頑張れば動くよ
俺はフォーラムにある
LIAE-UD FF 192_SAEHD
ってモデルを愛用してる いまはDSTとSRCを全フレーム抽出するところまでやりました
残業多い社会人で時間かかるので、結構手間かけて無理ってわかったらしょっくだなぁー いや、RTX3000シリーズでRYZENCPUなんですよね 一応今日始めました
https://i.imgur.com/lqRpxS1.jpg
この画面から一時間待っても動かずエンター押したらこの通り
なにが悪いんでしょう >>217 で解決してるのになんでそんなにターンかかるの...
2020.3が最新の訳ないやん... この人絶対に無理だよ
きっとDFLだけじゃなく何やらせても無理だよ ファイル数が22万なので
2時間位の動画か
顔抽出失敗の数を見て卒倒しないようにね
01_04_2021の最新版をしようしてもvram不足でエラーでそうやね
dstは最初は720p 10秒位にしていろいろ試したほうがよいよ 皆さんご回答、本当にありがとうございます
720p10秒っていうのはどこで設定出来るのかわからないのですがどうしたら良いでしょう 4つの動画をひとつにまとめてやってるので負荷かかるかな、とは思ってました
ただ、一つ一つやろうとしたら抽出は上書きされるみたいでこれしかなかったんですよねえ うーむ
昔、大学で、理系、工学部だと、手計算やってられない物があるので
科学技術計算、FORTRANとかやって
計算機とはー
とか
プログラムとはー
とか、ある程度、概念形成されると思うんだよね
一般常識として、計算機、プログラムとはーとか、ある程度ないとまずいんでないの?
どうするよ? Pythonなんか、ソースコード丸見えだから、
if then elseとか
forループとか
ある程度は共通ですよ
型宣言しないので、なんじゃこりゃでした
1バイトデータとか確保してないのに、なぜ分かり、動くん?でした
andとかorとか、簡単な事が概念形成されればいいかと個人的には思います たまにいるよね
スクリーンショットを「写真」で撮る奴w 次は、正面近く、カメラ目線で尺の短いdstとか
srcが眉なしだけだと、dstの眉をそのまま出すだけだし、本人の眉情報が無い
瞬きしてもいいけど、目瞑りぱなしだと、顔の特徴が出ませんな
俯きも、目玉が見えませんし、その分特徴が出づらいかと思います
上向きなんて、srcそんなに集められない気がします またご面倒かけてすんません
昨日に続いて最新のDFL入れたら作業途中でこんな画面になりました
なにが悪かったんでしょうか
https://i.imgur.com/AwgDTRh.jpg ダズント レスポンス だそうです
理由になっていない 言ってなくて草
でもまあ聞く耳持たず
2回目だからレッドカードだな 初っ端から2時間超えの作ろうとしてて草
巷にあるDF動画なんてせいぜい5分程度がザラなのに
新規で5分の動画なら学習に24時間は覚悟するて聞いたらどんな反応するのか 顔の未検出、誤検出とかたくさんあったりして
手動でガンバレ dstでいい感じのシーンとか、トリミング編集とかできないと、DFLも無理でしょうね
dstが顔でかくて、ボケるかも?だと画面サイズ縮小編集とか
DFLの他、フリーの動画編集ソフトとかで遊んだりしませんでしたか? あっ、DSTって短くしないと駄目なんですか
一応日常的に編集動画投稿してます(最高再生回数二万回)
SRCのtrainに時間かかると思ってたので、DSTは負荷かからないと勘違いしてた
どうもありがとう dstが長すぎる事によるエラーがあるかも知れませんが
やった事はないので分からないです
そんな、顔を入れ替えたいシーンばかりではなく、だらだら長い所、
平板なシーンも多いでしょうに
顔の未検出の手動抽出とかあるから、dstが長いと大変だと思います
そのままだとちらちらdstに戻り、顔が入れ替わらない
顔の誤検出の手動削除もあります
完成後、がっかりとかあると思いますし、いきなり長くてもね 最初に思ってたのは2時間やるとしても、使えるのはそこから20分くらい、と思ってたんですよね
5分でやると10秒位では、と思う mergeの時にinteractive mergerを使わないで、batの末尾に<merge.txtみたいな形でテキストに事前に書いた設定項目読み込ませたいんだけど、
Use interactive merger?をnで渡しても勝手にyになって、起動しちゃうのどうにかならない?
20210104使ってます。 多分、最初の方はBatで食わせるがうまくいかないみたいで
Pythonいじって、何とか。。
面倒なので、ほっといてますが dstはショートカットとか、髪を上げていると
輪郭がごまかせないので、違和感が出る事があるみたい
麻○憂ちゃんの無臭時代はショートカット
残念 ただでさえ電気代かかるのにマイニング収益も考えると機会損失が大きすぎて作れない 誰か3060でやってる人いる?
くそ味噌言われてるけど12gは使えるんじゃね 10.misc) start EBSynth.bat
@echo off
call _internal\setenv.bat
start "" /D "%INTERNAL%\EbSynth" /LOW "%INTERNAL%\EbSynth\EbSynth.exe" "%INTERNAL%\EbSynth\SampleProject\sample.ebs"
とかありますな ワンピースの普通の水着をラバーコーティングのテカテカ水着に描きかえる的なことはできる よくそういう発想ができるな(褒め言葉)
素直に感心する
髪色の変更とかパンストを網タイツに、とかも頑張ればできそうかな 【合成】娘のライバルを蹴落とすため「ディープフェイク」作成、母親を逮捕 米
ttps://news.livedoor.com/article/detail/19850564/
チアリーダーとして活動する娘のライバルたちが裸で飲酒・喫煙する映像をAIでねつ造し、本人らに送付。自殺を促すメッセージも匿名で送信したとみられている。
アメリカはすげーな headより広い範囲を抽出する方法ある?
髪が長いと途切れてまう・・ それだと肩より上が収まる画面は全体が入れ替わる事になるけど… modelの学習が300から400万回ぐらいに育ってしまうと、流用すれば新規のdstでも数時間で仕上がってくる
そうなると、aligned debugのチェック&手動でのパス再作成が大半の時間を占めるね
もちろん、それとは別にdst探しはやるけど 素朴な疑問なんだが、流用っていうテクニックがあって、他の人物にもあまり悪影響ない、一番のユーザー不満である時間短縮ができる
それなら初期のパッケージとして普通は用意すべきだよな?
それをしないのってなんでなの? 量産してるやつとか流用してるけどだいたい似てないやん 元アイドルAと、とあるdstでいちから動画を作る
dstを次々替えて(外国人を含む)どんどん動画を作る
modelが成長してくると、train時間は短くてもすぐに似る
というパターンで、他にタレントBや女優Cのmodelも作っているが、dstがどれだけ似ているかがやっぱり重要
dstの顔の輪郭や髪型がかけ離れていると、あいのこみたいな顔にしかならない それちゃんと学習できてないから...
何回繰り返すのか... 自分が満足できるクオリティで作れているので、良しとしています srcモデル流用しないで(とある所でsrc流用はやめる。dstxdst学習のため)
毎回新規のsrcから作成しているの?
srcA→srcBでsrcBが完成したと思ったらやめる
srcA→srcCでsrcCが完成したと思ったらやめる 08_02_2020から以降してみたが
adabelief: TrueだとVRAMバカ食い?
Batch Size半分でもエラー
使うのなら最後の方で使うのかな? >>285
そっちかよ
入力サイズと画像サイズ合わせて読み込み時間節約の方だと思った >>285
srcは使用しないが、dstに使用するといいかも?
実験してみますか >>286
adabeliefは新しい学習方法なので
途中でoffにするとadabeliefでトレインしたものは活かしてくれない
なので使うなら最初からonにして
途中からoffにしない
あと使用するvram多いよ >>288
ややこしくなるから初心者は質問だけしてればいいです... おはよう
adabelie off onにしたら、最初から学習し直し?
Loss値がみるみる下がりますね adabelie off onにしたらXsegモデル学習し直しみたい
src/dst 512→256にしたら、Mergeがむちゃむちゃ速いですね 去年の7月ぶりに最新版にアップデートするけど新しい機能増えてますか? 解凍した後changelog.htmlを見れば変更点と新規機能が分かるかと アップデートしたけどsrc側に顔が寄るのがデフォ設定に変わった感じ 顔の切り出しが遅すぎるの何とかしてほしいよ
CPUもGPUも20%以下しか使ってないのがもったいない 新しいpc作ってやりたいけどグラボが全然ねぇ、、、
radeonはまだ対応してないんだよね。。。
CPUって全然話題に上がらんけど、5800xでも5950Xでも大差ないの? >>304
2.0からコア数に比例して学習が速くなるようになってるはずやで CPUも重要なのか、、誰にも見せれないのに中々金のかかる趣味だなw dst用にお勧めのAVタイトルとか、プレイ内容別にまとめている神って居ないのかしら?
少なくともググった位では見つからないんだよね。 >>310
Deepfake 素材に関するスレ
でググってみ。 >>313
見つかりました。
早速勉強させていただきます。
ありがとう、ありがとう。 src/dst 256x256にしたらae_dims:512だとだめみたい
ae_dims:256までかな お世話になります
質問です
1、目に髪がかかっているのはSRCにすべき?
2、特定の作品が化粧違うが、これはSRCにいれるべき? >>316
@避けた方が良いが、dstが同条件(mask範囲内での髪の位置など)ならイケる場合も
A個別で作成した方が良いが、どうしても角度や表情がカバー出来ないなら、メインとする方のfacesetに対し10%程度なら補足としての追加がイケる場合も なるほどありがとうございます
ってことは肌の色味が違うのとかはどうなんでしょうか
SRCって輪郭だけじゃなく色も見てますよね? >>318
極端に暗いとか、野外で光の当たり方がキツいのは特にmodel形成を阻害する所感
train時のcolor transでmklとか入れてれば、ある程度なら調整してくれるが、現状mergeではdstと同じにはなり辛い
髪型については、眉を超える前髪とか触角は自動extractはほぼ無理 手動Aやmask調整で適正範囲を指定してもtrainやmergeでグダグダになり易い adabeliefは学習速度を上げるだけ?
であればDimsを上げてadabelief offにした方がいい気もする PreTrainやってなかったんたんだけど必須ですかね? CPU変えてめっちゃ早くなって安定したって報告しようとしたらちょうどCPUの話題になってた。
i5 7500→i9 10800に変えたらtrain速度1.3倍、merge速度100倍になったわ。
merge一瞬で終わるし、train中動画見たりゲームとかしても落ちないしもっと早く変えるべきだった。 mergeはCPUのスレッドが多ければ多いだけ速いね 久しぶりにやったらliaeがデフォになったんだな。dfの方が似るように思うんだが、liae何か進化したのか? >>328>>2
liaeとdfの違いから見直した方が良い dfの方が似ると思うのならそれでいいと思う
俺は差異を感じなかったし利点もあるのでliaeに移行した 相性と数だね 数百万分のナンボが合うかって感じだけど dfは表情の追従が弱い
よほどsrcのバリエーションが多くないと
もしくはdstが短いとか eyes_mouth_prio: False
にしたらいきなりLoss値が下がった liaeの万能な所を経験するとdfには戻れないな
正面の静止画メインならdf一択だが
>>335
名前のとおり目と口を主に学習して他の部分はほとんど学習しないから
目と口に違和感がないかぎり基本offだね liaeは最後にganpower使用しないと似ている感じがしないね
まずはdfl guideのQ&AのQ8の通りにきちんとtrainしてloss値十分下がったあとの最後の仕上げに使う
ganpower使うと表情はdstに寄ってしまうけど
srcの細かいシワ、しみ、ホクロ等が反映されるようになる
学習が進めばlrdをonにしてtrainするだけで反映されるようになる
あとはたまに学習ミスってモザイクがでたりするからganpower使用する前にmodelをバックアップしたほうが良い これで似なかったらdstとsrcの相性が良くなかったと判断してあきらめる 最新版のDFLで5.XSeg) train実行してバッチ2にしても動かないのですが単純にGPU性能不足でしょうか
GPUはGTX1080です。 >>338
今までデフォ設定のままで、gan使ったことなかったから試してみるは >>340
同じGPUだが余裕だ
mrdeepfakesのModel name: LIAE-UD FF 192_SAEHDっての使ってる >>337
liaeはdfよりもdstとの一致要求がシビアなので、flip使うのも場合によっては有効
warp切ったらGANじゃなくてdropを使う方が良い気がする teslaとかサーバー製品って、メモリ帯域はすごいけどFP32のTFLOPSの値は一般向けのGEFORCE 3090の方が上なんだけど、学習にはどっちが有利なんだろうね
もちろん、アプリの種類にもよるんだろうが
サーバー向けは科学技術計算で使われるFP64の性能も要求されるからこの分FP32の性能があげられないんだろう ganpowerってあげれば上げるほど似るのですか? 5950xで新しく作ったけどグラボが手に入らん
とりあえずもってた1070挿してるけど、弱いグラボだと時間かかるだけでクオリティは同じなの? 俺は、DFがええわ→liaeの違和感の無さええわ→やっぱdfの本人性の高さが一番大事やわ
で今DF >>349
dimsが上げらないからクオリティは上げられないかも trainしてると落ちるのはCPUの温度の問題かな? >>352サンクス、手に入るまで我慢するか
発売時に3080手に入らない段階で3090買っとくのが大正解だったな、、、 似るってだけならDFで前髪含むが最強。
LIAEには戻れない。 >>356
それってfacetypeはwfでやるの?
ちょっと気になる headの高解像度pretrainモデルどこかにないですか 俺もdf一択だわ。使い分けるメリットすら無いくらい今のDFは優秀。 前髪のないDSTに、前髪のあるSRCかぶせたら前髪無くなります。。
対処方法ありますか >>362
DFは角度あるとつらいよ
すべての角度のsrcがあれば良いんだろうけど そっくりな映像を作りたいなら
liaeでもちょうどいい角度のsrcが必要なのは同じ
だったら存在する角度の再現性が高くて学習の負荷が低い
DFに優位性がある 今のliaeって正面下手じゃないでしょ
俺は臨機応変で使ってるよ つーかmodelとかarchは素材に合わせて好きなの使ってろよ
ガキじゃねーんだから○○最強とかイチイチ押し付けてくんな 質問でも無ぇし 3090使ってheadのliae-uで回せば大概できるから
src画像さえちゃんと集めてあればdstの選別とかいらねーよ まぁDFLのスレってここぐらいしか無いし、ここでイキるしか無いんだよな >>363
基本はdstに合わせるしか無い フォトショで全flame前髪書きたいなら知らん
GPUもmodelも関係ないし、選別する必要性が理解できない程度のエアプがスルー出来ないなら制作に向いてない 髪の動きが不自然になりがちだけど、dstに前髪なくても前髪生えるよ。
エアプはスルー。 まぁ公開するわけじゃないから不自然でも抜けりゃいいんだよ >>365
なるほどね、豊富なsrc取れるやつでしか作ってないからその発想は無かったわ 半年ぶりにアップデートしたら色々変わってたんだが、
df→無くなった
liae→無くなった
dfHD→dfになった
liaeHD→liaeになった
更にそれぞれ、uとdのオプション付けれるようになった
という認識でいいのでしょうか? >>379
df→ドッフッ
liae→ライアヤャ
dfHD→ドッフッHD
liaeHD→ライアヤャHD 3080tiの発売日が決まったようですね
メモリ12gみたいだけど2gでも差が出るのかな ジェネリックxsegってのがアップされてるね、なんぞこれ? Xsegで舌を破線で囲って除外してからtrainしたら
舌を出してないフレームの一部でも口内が除外されてしまって
mergeすると口に違和感が出るようになりました
これを避けるには先に舌のあるパートと無いパートでdstを分割するしかないのでしょうか
何かいい方法がありましたらご教示下さい >>385
その口内を除去して欲しくないフレームのマスクを書いてトレイン
完璧にしたいなら、トレインして適用して、変になるフレームを書いてまたトレインしてのループをするしかない >>385
fansegだとmaskに応じてちゃんと反映される
後は求める画をsrcが持ってれば精度は上がる >>384
あいつアウトだろ
ツイッターでモザかければいいってもんじゃないのにな
事務所とかに通報してる人も結構いるらしいしもうそろそろ... WEBのプロダクト紹介ポエムから制作ニワカなのが丸出しなんだよな… ad使いたくてもaedims512のmodelだとBS2まで下げて他のOP切ってもOOM吐く Github覗いたら4月23日頃にこんなん出てんねんけど、何?
「added AMD/Intel cards support via DirectX12 ( DirectML backend )」
ラデも使えるんやったら、VRAMてんこ盛りのが余ってるからメチャ有り難いねんけど。 自己解決っつーか、処理が早くて要望が上がってたDirectX12版のDFLリリースされてんだw
っでAMD/Intel系が自動的に対応って理屈やね。
ヤバいんちゃうん?16GBの板が1万で売ってるAMDやで?
//blog.csdn.net/ddrfan/article/details/116085129 自分トコで動いたんか?
動かんし2060スパーとmx250(インテルオンボよりはマシレベル)比較で
半分ぐらいの速度しか出んって話やけど、630とRX580では30倍ぐらい性能差があるから
ええトコ行くんちゃうん?
1.0のOpenCL版はCuda比較で20%程度の性能しか出んかったけど、VRAM量が圧倒的なんで
1iterあたりの学習差は50%ぐらいは稼げてた。
だから、性能は1.0の頃より2.5倍向上して安くてVRAM量が多いRadeは、
回転数以上のパフォーマンス出るでしょ。
まだちゃんと動かんみたいやけど、ヒマ見て試すわ。 changelogに
ゲフォより20〜80%遅いと書いてあるからね
16G版ラデで20%遅いスピードでトレインできる感じかな(テキトー) 技術的な質問じゃないが、
このスレに配偶者がいたり恋人と一緒に住んでたりする人いる?その場合、隠れてやってる?
見られたときの気まずさって普通のAVとかエロサイトの比じゃないような気がするが。 FHDやとExtract1枚1.5秒もかかるし、2回めにPhytonがワーニング吐いてる。
>>402
そんなピーキーな関係で付き合うから別れるハメになるんだよ。
愛顧らでもDeepFakeでも「また悪巧みしてる」って笑われてるけど。 見られたところでわからんくね?
芸能人Aで作ってたとして、DF作ったって言われなきゃわからないでしょ 声のディープフェイクってまだないのかな?
ハシカンに好きな言葉言わせるとか 声のディープフェイクやりたいなぁ、知人の顔を手に入れるのは大変だけど声なら簡単に手に入るしw
けど犯罪防止で公開しないんじゃないか? 参考までにDX12版
radeon7と3090混ぜてheadの抽出が7~8枚/secって感じ
混ぜてやってるにしちゃ頑張ってる方じゃないかな とりあえずDLして
changelog.html
を見れば分かる ============ CHANGELOG ============
== 12.05.2021 ==
FacesetResizerは、顔の種類の変更をサポートするようになりました
XSegEditor:削除ボタンを追加
XSegトレーナーのトレーニングサンプルの拡張が改善されました。
XSegモデルは、さまざまな面が大量にある場合にうまく機能するように変更されているため、既存のxseg モデルを再トレーニングする必要があります。
さまざまな面で事前トレーニングされた汎用XSegモデルが追加されました。きれいな顔が含まれているため、src フェイスセットに最適ですが、 複雑な顔の障害物なしでdstフッテージに適用することもできます。
5.XSegジェネリック)data_dst whole_face マスク- apply.bat
5.XSegジェネリック)data_src whole_face マスク- apply.bat
意味わからへん 作ったものを批評してもらいたいとき、顔以外を黒く塗りつぶした動画にしてからupしてもアウトになるのかな? 日記じゃねえ
そろそろ話題も尽きた様な。。
つべに下手くそがうp
顔がチラチラ
ボケボケ
つべにすずちゃんのばきゅーんを上げたいが、
著作権侵害で怒られるかも
ハリウッドセレブのノンアダルトなら。。
腕前の披露だけとか つべにうpする時に非公開設定なるものが
URL貼り付けで、他の人も見れるのでは?
それでも消されるか/怒られるかは知らん
Mega.nzで共有して、リンク貼り付けでこっそりとか 顔ぐらいしか見えない様に、クロップでもして、
誰と言わなければセーフな気もしてきた
音声トラックはなしとか
DeepFakeとかも言わない方がいいかも
つべにうpするときも、著作権の侵害でも、収益化できないだけだったりする
場合によると思いますが 「すずちゃん」とか文体然りどう見ても日記 どうでもいけどw
>>414
1 flameずつ黒く塗るのか… >>412
ID:kXqmwQwO0
とはID違うやろがw
タブレットはWiFi接続のみだから、ルーターは同じで、同じIPアドレスになるのでは
ガラケーが使えなくなったら、パカパカスマホにしてネット契約はしないつもり
>>414
顔の絶対位置がそれほどずれないのであれば、Avidemux等でクロップもありかと
すずのばきゅーんでも作ってみますかね
怒られるだけで、垢BANされなければいいかと 今の所、著作権侵害の申立なし
要は、相手が怒るか、気づかないか、大目に見るかとか
画像トラックや音声トラックで計算機で自動チェックしてるみたい。さすがはGoogle
https://www.youtube.com/watch?v=LSUrZwjinQ8 しかしGPUの枯渇や異様な値上がりなんやねん・・
RX470_8Gでさえ中古で5万とかありえんわ。
新品4千円で売ってたのが夢の様だ。
1070ちも16000円やったのに。 ラデは対応してないみたいだけど、未対応なだけ?今後も対応予定無しなのかな DirextX12版で普通に動くけど。
且つRadeはVram溢れた分は勝手にメインメモリに逃げるから、デカいのが回る。
DirectX12版は遅いけど、実測したらDFL1.0の3倍以上出てるし
なによりAI_enhancerがCuda無しで使えるからDFL関係なしに高速に画像高画質化できるのが良いね。 グラボのメモリが多いほうがいいならquadroってどうなん?
nvidiaならquadroでもゲフォでもどっちでもいいのかな
DFLの使い方サイトではゲフォしか載ってないけど quadro rtx a6000使用している人はいるみたいよ a6000はさすがに高すぎる。。。w
けど早くていいの出来るんだろうなぁ
もうすぐ出るa5000がメモリ24gで今の3090と同じような値段だけどどっちのほうがDFLには向いてるんだろう
メモリ容量は同じでも90はx付きだけど 今から新しくPCを買う予定の者で、GPUはRTX3060にしようと思っています。
現実的な値段でVRAMが12GBと多かったのでこれがいいと思ったのですが、やはりVRAM容量は
大切なのでしょうか。また、RTX3060だとCUDAコア数が比較的少ないようですが、コア数はどのくらい
大事な要素なのでしょうか。RTX3060と比べて極端に値段の高くないものでこれより良いものがあれば教えてほしいです。
ちなみにdeepfake以外には高い性能を要する用途では使わない予定です。 ちょっと古いけどTITNXも12gでそっちはSLIもできる
中古で5万くらいで買えるみたい
どっちがいいのかは知らんけど、1枚なら3060、SLIするならTITANXじゃね? 最近のビルドって、Iterが何回目かに1回異様に遅くなるなぁってGitHub覗いたら
4回から16回に1回起きるらしいね。
特に高性能GPUほど発生頻度・遅延時間が酷いらしいけど、みんなも起きてる?
ウチのはショボいから1/16ぐらいの頻度で、倍遅いことがあるけど、
3090だと1/4ごとに30倍ぐらい遅くなって深刻らしい。
あと、メモリ認識が無条件にシステム予約分を差っ引いた値になり
複数台GPU搭載してDFL専用のフリーGPU作っても、無条件にシステム予約分が差っ引かれる。
だからウチのも8GBのうち0.8Gぐらいが使用されずに空いたまま。
なんかすげぇ勿体ないんですけど。 2080tiだけど確かに1/15〜1/20くらいで倍かかることあるわ
そのIterって決まってloss値も高く出るから
なんか難しい顔面処理して時間かかったんかなくらいにしか思ってなかった 700msが突然2秒とかなる時あって大丈夫か?と思ってたけど仕様かよ… 俺も遅延あった、aligned内の画像2048にしてるとき起きて、512とか768え固めたら治ったから
別もんかもしれないが。 >>434
数か月使ったらGPU作業よりも時間を食うのでCPU優先が良いと思う
FHD画質ならres512以上は無意味じゃね?dimsなんかも等倍に出来なくてバランス悪そうだし CPU Ryzen 5950x
GPU RTX3090
DFL2.0
5.XSeg) trainを実行したらエラーで止まってしまうんですけど、原因分かる人いませんか?
6) train SAEHDは実行できるのですが、XSegを使うことができません。
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "multiprocessing\spawn.py", line 105, in spawn_main
File "multiprocessing\spawn.py", line 115, in _main
File "C:\Users\○○p\DeepFaceLab_NVIDIA_RTX3000_series\_internal\DeepFaceLab\core\leras\initializers\__init__.py", line 2, in <module>
from tensorflow.python.ops import init_ops
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\__init__.py", line 41, in <module>
from tensorflow.python.tools import module_util as _module_util
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\__init__.py", line 39, in <module>
from tensorflow.python import pywrap_tensorflow as _pywrap_tensorflow
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 83, in <module>
raise ImportError(msg)
ImportError: Traceback (most recent call last):
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 64, in <module>
from tensorflow.python._pywrap_tensorflow_internal import *
ImportError: DLL load failed: ページング ファイルが小さすぎるため、この操作を完了できません。
Failed to load the native TensorFlow runtime.
See https://www.tensorflow.org/install/errors
for some common reasons and solutions. Include the entire stack trace
above this error message when asking for help. 日本語で理由書いてあるやん
仮想メモリ増やしなよ
tensorflowのエラーがよく出るのは
vram不足とGPUの低電圧化
3090だとかなり欲張りな設定じゃないとvram不足にならんけどね ヤバいな、うちのネコが勝手にPC使ってdeep fake作る時代になってるのかも ページングファイルが小さいってさ、仮想メモリ不足でも起こるよね。
その場合、新たにメモリ領域を確保するか。
Cドライブ空き容量増やすかで改善する。 身近な知人とかで作ってる人いる?
画像集め無理だよな、、、ただでさえ写真ゲットむつかしいのにコロナのせいでずっとマスクしてるし
技術が進めば卒アルから作れるようになったりするのかな >>416
なんでつべに貼りたがってるのか良くわからんけど
ちょっと見てもらいたいだけなら、どっかのロダにパス付きで貼って晒せば良いんじゃないの
貼るんならココよりも↓こっちのが良いと思う
Deepfake総合 ★29
https://mercury.bbspink.com/test/read.cgi/adultsite/1620517033/ あなた達は私にbukkakeの作り方を教えることはできますか?
私は自分の独自の手段でbukkakeの挑戦をしていますが、まだ成功していません。 RTX3070買ったんで3000用のBuild使ってみたら、
Resolutionは128じゃないとエラー出るし、VRAMは8GBのはずなのに6.44GBって表示される
1080ではResolution192で出来てたのにどうなってるんだ…? >>452
win10をmay2020update以降に更新
ゲフォも451.48以降のドライバにして
GPUスケジュールリングをonにする
vram使用量はわからん
久しぶりに3070でdf動かしたらvram使用量は7.8Gだった >>450
mask_dimsをdecooder_dimsの50%程度まで上げる(通常は30%位) ※但し、モダイクのエッジ(口元に一番近い半円状の部分)がキツくなる
mask editorで当該部分を手動mask fanseg(Xsegだとイマイチ)で集中学習させておく dfよりliae系の方が反映度高い気がする >>453
やってみたけどダメだった
GPUスケジューリングはonにしてたからwindowsとゲフォドライバ更新した
CUDAも11.3に更新してある
You are training the model from scratch.
It is strongly recommended to use a pretrained model to speed up the training and improve the quality.
って出てOOMになるんだけど、今までスルーしてたxSegのモデルが必須になったりしてる…?
一応xSegで10枚くらいやってみたが変わらなかったけど >>455
oom出ているならbatch数減らして様子見るしかないかな
xsegは最新版で学習方法変わってtrainやり直しだけど関係ないと思う
旧xsegでマスク済ならそれ使用して問題ない
xseg genericがそこそこ優秀だから凝ったマスクをしないかぎりこれで十分
英文は
modelをゼロからトレーニングしているよ
pretrain済みのmodel使えばスピードも品質も向上するよって意味だから
1080で使用してたmodelを流用するかgithubのリンクからダウンロードする >>456
train始まった、ありがとう助かった
modelの流用ってそういうことか…
dstとsrc両方違くてもmodelファイルに入れれば利用できたの知らなかったから、
今までpretrain使ったことなかった… 質問です。
build_01_04_2021で、modelを流用しながらやってるのですが、
loss値が下がる毎に肌が部分的に擦りむいたというか、ただれたかのように、赤と黄色っぽい色のモアレのように
なってきました。これがmodelの崩壊というやつですか?治し方があったら教えてください。 GANは使い回すと壊れやすいのか、肌の質感がおかしくなる感じがする。たまにGAN関連のファイルだけ消してる。 >>458
srcフォルダにもdstと同じフェイスセットを入れてrandomwarpでまわしたらええと思う それなんの意味があるの
普通にモデル崩壊してるから最初からやるしか無いと思うよ 自分の場合は使い回し用modelは25k程度で保存しておいて、今日の素材が決まったらsrc/srcでクリアになる前辺りまでtrain
その後dstを本番に入れ替えてって流れだと似つつ早い 458です。皆さん有難うございます。
まずはmodelが崩壊してるじゃないかということですね。
random warpを諸々の条件加えて修復試みてみます。
去年まで、fanseg でやってて、今年からbuild変えて始めたばっかりなので、
訳も分からず、Adabeleifを疑ってたりしました。
いずれにしても、以前のbuildよりmodelが壊れやすいのですね。 まだ壊れたことないので参考にさせて欲しいんですけど
iter数・各powerオプションの数値・勾配クリッピング使用の有無
を教えていただけないでしょうか 458です。
100万iter
eye mouth prio y
adabelief y
face style power y 0.1
で、やっていました。
それで、夕べからrandom warp のみ yで8万回回したら完全に治っておりました。
有難うございました。 xseg genericの使い方がわかりません。
これを実行したあとxseg trainでしょうか xseg trainせずにxsegを適応させるのがxseg generic >>466
face style powerが原因じゃないかな
一度試してみたことあったけど肌の色が変わっちゃって以来使ってないや 3090買って環境は整ったけどいざやるとなると誰と誰をくっつけようか、、、
練習用にこれとこれって定番あったりする? 3080tiの値段見ると3090で良いかなと思うわ
おれは1月のnvidiaのカンファレンスで80tiの発表がなかったから3090を購入した
>>471
似てる似ていないは個人の主観でかなり左右されるし逮捕者も出ているからから
定番とかはおすすめしにくい
過去ログ倉庫から素材スレをさがすしかないかな >>471
おでこと輪郭が髪で隠れていない組み合わせ なるべく正面で明るいスタジオ撮影の素材
dstは1分以内で、extractは自動とマニュアル両方試して範囲や補足し易さを比べてみよう 紙長いのはむつかしいのか
せっかくなら無修正で作りたいけどカリビアンとか1か月だけ入会してDLしまくろうかなぁw 4Kディスプレイにしたらプレビュー画面とか小さくて見ずらいんだけど、解決法ある? デスクトップ画面で右クリックして
ディスプレイ設定→拡大縮小とレイアウトを100%から150%とかに変更すれば
画面全体が見やすくなるはず >>479
%を変えただけだと、150とか200にしてもプレビューだけ何故か大きさ変わらないんだよね
解像度を変えれば間違いなく大きくなるけど、4Kの意味無いじゃんって感じではあるけど、これしか方法はないかな いやだから、フルHDディスプレイにしたらいいじゃん
自分でも言ってるように、解像度を変えて大きくしても4Kの意味ないじゃん
デュアルモニタで用途に応じて4KとフルHDを使いわければいい
なんで俺を無視して「これしか方法はない」とか言ってんだよ
デュアルモニタするスペースがないとかならそう言えよ >>478
ああ、これがお前か
なんで無視したのかわからないのか? プレビュー画面の大きさはtrainするときの解像度の値に依存するはずでは? うむ Resolution 192以上だと縦4横5が維持できなくなる >>483
性格悪いな
回答くれた人に対する態度とは思えん >>482
後だしやんけ
477みたらフルHD(1台)とかから4kに切り替えたと思うじゃん ◆Model_SAEHD/Model.py 763行目あたり
n_samples = min(4, self.get_batch_size(), 800 // self.resolution )
if self.resolution <= 256:
最大表示行4。res256の場合、800を256で割ったときの数=3行まで表示できる
バッチサイズが2だった場合は2行しか表示されない。res256を超えてる場合は1行表示
4→10 800→3840 256→384 に書き換えて
res384 バッチサイズ8 でトレインした時のプレビューは8行になるけど1マスが小さくなる
プレビュー全体の大きさを変えられればいいんだけどわからない >>489
超ありがとう、縦2行はまだしも、横2列なのがずっとストレスだった。解消された。 それは何より。256超えても384なら2行表示だった気もするけど、まあ分かりますかね >>491
見つけたと思う、
\_internal\DeepFaceLab\mainscripts\
275行の
max_size = 800
でプレビューの縦サイズmax変えられるみたい。
>>489のと組み合わせてどうだろうか? batch/resolutionの設定に関わらず、縦4横5でディスプレイの縦幅最大に合わせた表示にしたい! >>489さんと>>492さんの書いてることやってみました
SAEHDはしっかり反映されてるけどAMPでトレーナー開くと2✕3のままでした
model.pyはもちろんAMP側を変えたんですけど原因わかる方いますか? >>498
それこそ、model.pyの記述見てみたらres関係なく
st = [ np.concatenate ((S[i], D[i], DD[i]*DDM_000[i]), axis=1) ]
st += [ np.concatenate ((SS[i], DD[i], SD_075[i] ), axis=1) ]
の2×3行になるように設定されてるからでは? 縦は解決しましたが、横2列なのは変わらない。
これを変える方法ありますか?
ご存じもかた、よろしくお願いいたします。 res結構デカイってこと?
>>489 の256のところをそのサイズにしてみればどうだろう >>499
stを追加していけば増えました
ただ全く同じ画像が縦に増えただけでした…
言語の知識がないので頓珍漢なことをしてるのでしょうね
SAEHDと同じように4-5列に増やすことはできますか?
わかる方おられましたらお手数ですがご教示いただきたいです Model_AMP/Model A5.py の746行目〜834行目(#overrideから次の#overrideまで) をコピーして使える
>>489のようにいじることもできるかな。アップデートでModel A5.pyが消えるかもしれないのでバックアップしといて >>504
ありがとうございました
無事以前プラスαのトレーナーになりました
無知な私にも懇切親切にご教示いただき感謝します >>504やった後だとmergeでエラーでるかも
元のModel.pyなら出ないので、merge用の別環境作るか
記述を見比べながらカスタマイズしてくれ 一年ぶりにやっていますが色々忘れてしまっているので質問します
女優Aの人をずっとトレーニングしていてやっぱり別の作品にはめこみたいとなった場合
1.既にあるdata_dstディレクトリを名前変えてバックアップ
2.新しくはめ込みたいdata_dst.mp4から顔を抜き出し ずっとトレーニングしていたモデルを使ってトレーニングを継続
これでいいんでしょうか? >>509
普遍的な正解ってのは無いけど、時短/似せたいという条件だと大体そんな感じ。
古いほうのdata_dstとalignedファイルだけ※どっか別の場所に保管して、新しいdata_dstを持って来る。
※src人物名→素材名(番組名)→srcセット(aligned/data_src/model) って階層で保管すると多くなってから流用し易くなる
→dstセット(aligned/data_dst)
modelはそのまま同src人物において使い続けても良いけど、どこかで壊れたり似なくなって来たりする事もあるから
iter 25-50k辺りでコピーしておいて、それを同srcの流用modelとして都度持ってくるのがお勧め 普及?して結構経つし、閉鎖的だから素材管理も手順も自己流って人が多いと思う
それぞれ環境や目的に合ったやり方が見つかってるといいね 20万ほどトレーニングしていざマージしてみようとしたら以下の英語メッセージがでて何も進まない状態になりました
https://i.imgur.com/MMmzW0U.jpg
It is strongly recommended to process the faces separatelly.
Use 'recover original filename' to determine the exact duplicates.
Warning: multiple faces detected. Motion blur will not be used.
英文を翻訳はしましたが何をどうすればいいのかわからない状態です
どなたか教えてくれると助かります alignedフォルダの中に_1がつくファイルがあると思うから消してみ >>513
https://i.imgur.com/j5ymVno.jpg
data_dstのalighedフォルダの中にこれだけ居ましたので消してみます
data_srcのalignedフォルダの中にも_1がつくファイル名が割といたのですがそちらも消すでよいですか? もうちょっと頑張るのなら、_0と_1を比較して正しい方を残すのが正解
これ以上は説明がめんどい 壁の柄とか男の顔にmergeされて女の顔チカチカしてそう マージしてできたファイルがお面かぶったみたいになるのですが
これって単にトレーニング不足なんでしょうか?
Iterの数字は120000過ぎあたりでちょっとやってみた結果です
https://i.imgur.com/zfGz9GS.jpg >>521
color transferの設定はrctがおすすめだぞ
iterの数ではなくloss値が0.2近くまで下がっているか確認しよう
merge画面でEのキーで境界をボカして調整しよう >>522 >>525
ありがとうございます
https://i.imgur.com/RuOslO4.jpg
マージの時の設定にblurとcolor transferの設定みなおしてみます
loss値というのが右端のものが0.2を切るところまで回しました
みなさんは右から二番目の数字も0.2近くまでトレーニングしてますか? >>526
rctがおすすめっていうのはtrainのときの設定ね。下から12番めのct_modeってやつ
参考までにワイのいつもの設定をあげとく
https://i.imgur.com/XzSqwwP.jpg それくらいの勾配になったらRW切っていいdstのRFもいらん
それでしばらく回してまた勾配緩くなってきたらLRD入れてお好みでGANつければいいよ 3090すごいなaedims上げてadbつけてbs16で回せるのか 顔だけじゃなくてパーツとかも変えれたら面白いのにね
A子の顔でB子の体をベースにC子のおっぱいにして乳首はD子、まんこはE子って感じで理想のAV女優を作ってみたい
あと声のDFも出てほしいけど犯罪防止とかで一般公開されないんだろうなぁ dst→1080P ほぼ正面5000枚 512pix FF
src→1080P顔アップ 厳選3000枚 512pix FF
Xseg Mask全画像適用済み 50万pretrain済みモデル使用
RTX3060 LIAE-UD res192 dimsデフォ バッチ10前後 Fdst UY RW ABオン
途中LRD EMP使用 最後RWオフ
loss値0.1になったらLRD+GAN0.1でプレビューがクッキリするまでtrain
これでdstが引きのシーンはほとんど問題ないけど
dstの顔がアップになるシーンでsrcの解像度不足が気になるんだよなぁ
フォーラムにDF-UDのFFでちょうど良いモデルが居ないからこの設定にしてるけど
DF-UD res320 dimsデフォよりDF-UD res192 dims512の方がsrcの画質良くなる?
それとフェイスセットの解像度は256とか1024に変えたらクオリティ結構変わるのかな >>527 >>528
ありがとうごぜえますありがとうごぜえます
見よう見まねでパラメーター変更してみました
https://i.imgur.com/aZ1ko38.jpg
このloss値というのがだんだん増えていくようになったんですががんばってれば減るんでしょうか?
これが0.2にさしかかったら>>528さんが教えてくれたパラメータ変更をしてみたいと思います loss増えるのはrandom warp中にいろんなオプション付けてるからだと思うが
少なくともctはrandom warp切ってから入れたほうがいい train中のctって特に利点無いよね
マージの時だけで十分な気がするけど train時にnoneでやってて、マージしたら顔の頬の部分に白飛びが発生したフレームがあったので、rctで少し追加trainしてやったら直ったことあったよ >>536
お前はそれでいいからイチイチ同意求めんなよ >>538
でも上のレスだとこうしろ!ああしろ!ばかりで初心者には意味分からないだろうなと思って ここで聞くよりTwitterとかで聞く方がマシな答え貰える。 >>532
お面は、マージ設定でmask modeがdstになってるからでは?
もしそうならxキーで何回か切り替えてみて。 マージする時って重い設定避けてもGPUあんまり使わないから遅いよな
Ryzen 5 3600 3.5Ghzから4Ghzに周波数上げるだけで3.3it/sから3.9it/sになったから
12コアとかにしたいんだけど
みんなマージの時にどのCPUで何it/sか教えてほしい >>543
スリッパ3960Xでだいたい8it/sいかないくらい。
割に合わないというかスペック使いきれてない感あるわ
https://i.imgur.com/GkO4k33.jpg >>544
RTX3090の人かな?
CPUについての情報少ないから助かるわありがとう
速くはなってるけど17万円24コアが2.5万円6コアの倍ってコスパ悪すぎるなw
3600だと使用率100%で張り付くから12コアの3900にしようかな
ちなみに1024pxで抽出したsrcとdst1万枚でマージしようとしたら
重すぎてマージできなくて512pxに変換したら問題無くできたから
フェイスセットの解像度でもかなりスピード変わりそう フォーラムのガイドに1080Pの場合は768〜1024をおすすめします的なことが書かれてたから安易に変えてみたんだけど画質変わらないしtrain時の読み込みも遅くなるしデメリットしか無かったわw プレビューの画像のほうが最終的なマージより優秀だな そんなん、プレビュー画像を出力し続けるようにModすればよくね?誰でも出来る件。 笛以外はrawを前提にして素材選びから変えるのも良いぞ 相性も色も割と無視出来て手軽 morph factor とか amp とか 使用感どうですか?
ちょっとしばらく触ってなかったので、ついていけなくなってきた;; たまにある正面からの固定アングルみたいなdstならAMP使えそうだけど
動き激しいのだとsrcの角度完璧に揃えないとmerge後SAEHDより違和感がある
morphはmodelに対して設定するのはよくわからんからデフォの0.33でやったけど
mergeの時のopは0だろうが1.0だろうが最高値でかかる恐らくバグ
結果AMPは断念したわハードルが高すぎるし使い勝手悪い >>554
ありがとう。しばらく今までのsaehdでいきます。
xseg generic は使ってみる。changelogにあったあごのラインがおかしい画像の
パターンはよく起こって悩みの種だったので これが解決すればまじで神パッチだわ。 pretrainの仕方って設定を選ぶときの最後の選択肢を有効にして、一定程度学習が進んだら無効にするという方法であってますか。
実際にその手順でやったら無効にしたあとプレビューが0から生成しているようですが、大丈夫でしょうか。 ありがとうございます。
通常と同じくゼロから生成されるけど、仕上がりがよくなるという感じですか? うん
例えば車の新型だすとき使えるパーツは使い回した方が効率いいでしょ
ただcelebAは外車の公道用のパーツだから本当は日本車のレーシング用を集めたほうがいい >>559
良くなるというか早くなる。iter30k未満とかのpreviewが暗くて不鮮明な期間が短くなる感じ 外国人オンリーで100万回pretrainされたモデルを利用して
5万回くらい本trainすれば本人レベルになるから普通に満足してたんだけど
日本人のセットでpretrainしてからtrainしたらもっとsrcに似せられるのかな? 厳密に比較して無いから分からんが、前髪とか髪色も鑑みるとそのはず
元々のceleb_Aを解凍してみるとアバターみたいな奴とか男とかかなり無茶な内容
自分がよく使うタイプのsrc/dstから50k枚位選んで100k程度(輪郭ハッキリしてくる程度)のpreでも十分なのは試した 枚数と回数の情報までサンクス
pretrain済みモデルだとdimsとかの設定も
自分のGPUの限界まで上げられないのが不満だから自分でpretrainしてみるわ スマン、50kじゃなくて5kだな 笛とかmask処理済の物も入れておくといいかも ほぼ選別しないで全部ぶち込んでるのかと思ったわw
色んなパターンの良いとこ取りして鍛えてみる 2枚の写真から作るって無理?
正面写真2枚で動画も正面の数秒ほどの動画で試しに作ってるんだけど顔にならん。。。 >>567
@似た条件の人でiter25,000位まで回してから、目的のsrcと入れ替える
A画が足りない場合はDF系が合成し易い >>567
写真から動画を作るAI活用したサービスがあるよ。 卒アルではないけど写真手に入れるのが難しくてw
うまい人だと卒アルからでも作れるんかな
まだ始めたばかりだからとりあえず動画動画で練習してから写真にチャレンジしてみます 写真から作る場合ってちょっと時期が違う写真で化粧の感じが違うのは混ぜないほうがいい? どうしても足りないなら仕方ないが、基本的には混ぜない方が良い グラボが3090なんですけどコア使用率が2〜3%
メモリ使用が7.9Gしか使わないんですけどこんなもんですか?
フルに働いてほしいが すいません顔を解析してる時で、トレーニング中はコア20%メモリ20G弱まで上がりました
それでもフルに使えてないですね、OCしたらもっと早くなるのかな 顔を解析してるときはコアは1つしか使ってないから、どうやっても上がらない
train中はCPUじゃなくてGPUをフルで使ってるはず 抽出の方法変えちゃえば1080Tiですら標準の奴より
10倍くらい早く顔の抽出できるみたいだから
誰かに改善してもらいたいわ
作者なら頑張ればすぐ改造できそうな部分なんだけどなぁ やり始めたけどめっちゃ時間かかるね
ネットに上がってるような短いのじゃなくてAV1本丸々の超大作を量産しようと思ってたけど無理だなw
練習で1分の動画作るだけで糞時間かかってる 今やり方覚えるために冒頭の顔だけの1分とかで練習してるけど全然うまくいかんw
素材が写真2枚ってのがダメなんだろうけどw
動画で手に入る似せたいのって特にないんだよなぁ。。。
もうAV→AVでやってみようかな 初めて作成するのに写真2枚って・・・
根本的に認識が間違ってるな 動画でいろんな角度と表情が必要なのはわかってるんだw
ただ好きな芸能人とかも特にいないから作りたい顔の動画がないんだよね srcが正面だけならカメラ固定のオナニー動画からスタートだな 昔、職場で一番のお気に入りの後輩のプレゼンの指導をたまたましたことがあって、
そのとき、慣例に従ってビデオ撮って「自分でどこ悪いか見とき」と本人に渡した。
いやぁ、そんときのビデオがこんなところで役立つとは思いもしなかったよw
てな訳で、ビデオ撮る口実見つけるのがオススメw AV見る時輪郭と身体重視になってしまったな
あとアングル的にやりやすそうなシーンがあると興奮が増す 堂々と動画取れるのはうらやましいなぁ
チャンスがあったとしても最近はマスクしてるしね、、、 587みたいなのを掲示板で書く奴は死んでほしい
俺らにとっても害悪だってことを認識すべき 逆にマスクしてる組み合わせに挑戦してみるかな バックの画とかでdstの肩で口から下が隠れる素材でもイケる事もあるし
眼鏡は意外とsrcの目元も再現出来てたが全体的に無理があるというかボヤけ気味だった mergeはrctよりnoneの方が合うことが多々あるね >>595
rctの方が合うことがあるから結局は物次第。
一概には言えない。 2080Tiだけど、慣れて来ると1時間くらいの動画は余裕
下手すると2時間くらいでもイケそう
コツっていうか、キスシーンとかの2顔同時に写ってるめんどくさい部分は諦めて
出来上がった部分から良い部分だけを切り取って編集したほうが、精神に優しい
初心者はグラビア系やイメージビデオ系が楽
大抵は被写体1顔だけした写ってないし、髪が振り乱れるような場面が殆ど無いから
物凄くサクサク作成出来る 192のバッジ6〜10くらいで、GPUもCPUもほぼ全開
どうも192×バッジ数がGPUメモリ使用率になるらしく
GPUのメモリ11Gを目一杯使えんのよな
バッジは2ごとで上がっていくらしいから
バッジが8で9G使ってたら、バッジ10だといきなり11G越える
結論としては192←この値が小さいと、かけるいくらという選択肢が多くなって
例えば192を半分にするとバッジがもっと細かい数で設定できる かと
2080だと、192か256かの2択しか無いが
256だとバッジが2とかになって、すこぶる学習処理が停滞する 究極言うと、元々激似のヤツ同士を合わせると物凄い楽
得に輪郭と口元と髪型
口は笛作成時にsrc側の口をマスクしてdstの口をそのまま使えて便利 口をマスクか… その手があったな
ともかく バッチ な 日記っていつも深夜早朝に現れるな
まぁ俺は嫌いじゃないよ
過疎スレだし 今からグラボ買おうと思ってるなら3060がオススメ
2080Tiに比べて処理速度はちょっと遅いが、メモリ12GでDFL向き
このメモリ容量を搭載した3060より上のグレードは3080Tiになって
確かに速度は速いけど価格が4倍くらいする
そうなったらもう、3060搭載のPC2〜3台自作したほうが、処理が楽
だいたい、3060搭載のPC2台で3080Tiと同等の処理が可能 まだバッジとか言ってんのか…日記とは違う方向でキツい子 二年くらい離れてたんだけど、この界隈って簡単なアプリケーションとか出た?
以前経験したのは、
@インストールまでがクソ面倒
A複数人記憶させて使い回しさせると精度が良くなる
B赤字かなんかでめちゃくちゃ中断させられる
っていうので、スタートラインたつのがハードル高すぎた
おまけに出来上がったのみたらのっぺらぼう
それともまだ変わってない? 誰にも認められないと他者攻撃性に変わるっていうけど典型だな
>>611
知らんと思うけど2年前はそんなんだったんやで
>>613
dflはダウンロードするだけやで
2年前のエントリークラスだと厳しいけど高いpcなら試してみ 普段ゲームしかしません APEX最高!みたいなアホ学生は自分で調べるより先に人に何でも聞こうとするから優しくしたら質問まみれになるし
デメリットしかないから放っといた方が良い
mrのガイド翻訳しても理解できないとこだけ質問してくれ 説明書が英語だから
バージョンが変わって付いた新しい機能を調べるのが
非常にめんどくさい 調べるも何も前よりよくなってたら試したいから使ってる人の意見を聞きたいって話やん
ほんでミスターに書いてる以上のこと聞いてもおまえわからねえじゃん 何でこんなアホを擁護する必要があるんだよ携帯とPC使って自作自演か?
日本語で解説してるサイトもあるんだから
自分で調べれば2年前とどこが変わったかすぐ分かるだろww
Xseg Maskって何?Pre train済みモデルってどう使うの?AMPって何?
ってくだらない質問にお前が全部答えてやれよ上級職人さん すまんなお前の初心者への優しさは評価するよ
トレーニング中のプレビューサイズの変え方とか
開発者のiperovは変更できないってディスコで言ってたけど
このスレではModel.pyの数値をいじれば変更可能って事とか
開発者よりも参考になるから見てるし
もっと過疎られても困るからやめとくわ >>621
おまえガイジスレでも煽ってるよな
そんなの(Python初心者でもできるけどめんどさいから)できないだぞ
ipeはそういうやつ
そんなのもできないやつが初心者煽るな GUIベースになったらなったで、このパラメタはどう設定するのでしょうとか、
何でここを選択するとこっちが選択出来ないのとか、
結局訊くレベルは同じだと思うけどw
もちろん、AIなんで全部勝手にやってくれてあ〜らびっくり、完璧!ってのがいいけどね。
残念ながらそういうレベルになるのはまだまだ先だね。。。 この表情・角度は十分、ここが足りないって視覚的にすぐわかればだいぶ手間減らせるんだけどな 視覚的にはすぐわかるよ
例えば、鼻の穴見えるような角度のsrcが足りないと
上むいた時、鼻が潰れたみたいな画像ができあがる
俺は、激似dstを見つけた時に、そのdstの上向き画像をsrcに足して対処してる
どうせ、顎下から見てるんでsrcもdstも顔見えないからわりと使い回し効く 大体、足りない角度は顔見えない角度な事が多いから
srcに他人の顔dstを打ち込んでも、ほとんど違和感無い >>627-628
なるほど、言われてみれば確かにそうだ!
このスレで初めて役に立った know-how だw main.pyを直接叩く人が少ないせいで、情報が少なくて面倒だった すいませんちょっと教えてください。
build_07_01_2021でxseg_generic やったところ、なかなか優秀だと思いました。
build_07_30_2021だと、更にxseg_genericが良くなったらしいので、こちらでやり直したいと思っているのですが、
コピーするのはworkspaceフォルダ丸ごとで良いのでしょうか?
あと、xsegのpretraining modeもやった後にxseg_genericをした方がよいのでしょうか? Xseg_genericは_intermalフォルダ内にあるmodelを使用しているから
XsegをtrainしてもXseg_genericには反映されない
自分用のXseg_generic作りたいなら
_internal→model_generic_xsegフォルダ内にあるファイルを
workspace→modelに移してtrainするほうが0からtrainするより早い
満足できる状態になったら
_internal→model_generic_xsegフォルダに戻す
ちなみに自分はXseg_genericはいじらずにデフォのままで使用しているけど 新しいアルゴリズムのpretrain済modelはダウンロードできるまで時間かかるだろうから
今は_internal→model_generic_xsegフォルダ内のファイルをコピーしてtrainしている なんか最近はじめたやつ多そうだな
日記と知ったかぶってるやつが肩ぶん回してるの草 634です。
635 636 有難うございます!
いちいちxsegするの面倒くさくて。自分の印象だと、xseg_genericが
fansegレベルに近づいてるのではと感じてます。
まあ試行錯誤の連続ですね。 DFLive相性みるのにいいかなと使ってみたけどフェラも結構いける 3060からA4000に載せ替えてみたけどアチアチ過ぎて効率落ちたような気がする... >>644
話が抽象的すぎて分からん。
具体的に何がどう性能落ちたか、そういう話をみんな聞きたいんだよ。 train/mergeの際の色調整がマニュアルで出来たらいいのう婆さんや >>645
>>647
効率落ちたっていうのは極端過ぎたわすまん。今のところあんまり変わらんっていうの正しいかも
DFLは最新のRTX3000ver、cuda11.4導入済、A4000(70% PL)と3060(non-LHR/70% PL))での比較になるけど同条件でのsrc顔抽出速度は3060の方が気持ち早いくらい
デフォ設定で抽出/SAEHDで回して反復速度は250〜300ms。res128→192に変えて400〜450msぐらい。loss値の減り具合も大して変わりないような...
ちなみにPL解除すると室温26°環境にて3060は85度付近をウロウロで済むけどA4000は90度まで跳ね上がるのでやむ終えず
PLかけても75〜80度とアチアチだけど学習中ワットチェッカーではmax170Wと3060の210Wほど電気喰わずちょっぴりエコな所と冷却ファンが2500rpmと回る割には静かなのは嬉しい点。3年保証だし
数値上変わらないのはドライバが未成熟なのか現時点では頭打ちな仕様なのか...LHRの影響ではない事を祈っているよ〜 >>643
真正面アングルだけならDFLと変わらないレベルのが
リアルタイムで作れるし便利だけど
横とか下向いたりするだけで顔崩壊するし
フェラ動画もxseg maskが機能しないからチンコがsrcの顔にかき消されるんだけど
それ用に変えなきゃいけない設定とかコードとかある?
Face mergerのmask typeとかを変更したりしてもフェラは崩壊してダメだわ
もちろんDFLでは普通に作れるしFace Swapperにtrain済みのdfmファイルを使用してる >> 649
dstで口から下を取り除いた顔の輪郭を【含む】線で囲む
同じコマ上のちんこ部分や顔にかかった手の先や紐状の髪の毛等は【含まない】線で囲んで学習
その後、再度Xsegで開いて連続コマを動画風に流しながら白黒でマスクを確認して
マスクがきれいにかかってない部分を選んで、また学習
これを繰り返す >>649
相性見るのにちょっと使っただけだから、これくらいの角度あんまり変わらないタイプ
https://i.imgur.com/ft6YYfP.jpg DF live使ってる人少なそうだから困るな
mrのスレッドで配布してたフェラ用にmaskされたtrain済みマスクを
全dst画像に適応させてtrainしてるから
DFLのmask edit見てもチンコも綺麗にマスクされた状態なんだけど
新規フェラ動画をDFliveのFile sourceに使いたくても
dstのチンコを事前にマスクしなきゃいけないから
リアルタイムフェラ動画はキツイか
無編集の数時間ある動画ぶち込んでもすぐDFできるのはめっちゃ便利なんだけどな >>652
居ないかと思ったら643本人いたわ ありがと
設定変えれば色んなアングル対応できるのかと思ったけど
live向けだしやっぱり正面アングルに限るか
でも今までノーマークだったdstが
こんなに相性良かったんだって発見しやすいし
相性確認用として使うことにするわ 手動でも顔抽出が難しいところって、皆さんは諦めてというか、わりきってカットしてますか? >>655
srcに関しては使わない dstの場合は頑張って無理ならスルー mask editorキッチりゃってもlandmarkがめちゃくちゃだと厳しい
ブレはともかく髪でmask内(目とか)が隠れたりだと、他のframeがmerge出来る段階までtrainしても崩れたままが殆ど
srcで奇跡的にドンピシャなのがあるとイケる事もある でもやっぱextractが楽な素材ほど完成品も似やすい(≒シコい)のは確か 人物A汎用modelの作成で、汎用Pretrain modelから、1.人物Aをfacesetに入れて追加Pretrain、2.人物AのAlignedで追加Pretrain、3.人物AのSRCxSRCで通常train
この3通りでは1と2には優位な差は見られないが、SRC育成が進んでる3が高品質になりやすいであってる?
Pretrain Facesetに人物Aのalignを入れる人がいたけどそれの優位性が思いつかないんだがなんかある? 外国人だけで100万pretrainさせたmodelと
自分が通常trainでよく使うsrcとdstだけ選別してcelebAに1万枚入れて
20万pretrainしたモデル使って同じ素材で通常trainして比較したけど
外国人model使った方が横顔とかきつめの角度にも対応できてsrcに寄せやすかったから
pretrainよりも通常trainに時間かけた方が良いな
とにかくsrcの画質にこだわってDFDNetとか使ってsrcの画質爆上げさせて
random warpオンで損失0.1くらいまで通常trainすれば小さいホクロとか
歯とかもクッキリ学習してくれて一番高品質にできるかな
海外のセレブとかは至近距離の一眼撮影未加工データとか大量にあるし
それを更に全部reminiさせたりAi Enhanceしてるから高画質すぎて羨ましい 1024px以上のaligned使うとvram12GBと6コアcpuでも
マージの時にフリーズするから解像度が巨大化するのはNGだな
でもDFDNetだと512pxとかで解像度維持したままファイルサイズ3分の1にできる上に
眉毛とかホクロがボケてよく分からない720Pくらいの映像でも
Aiでremini並みに復元してクッキリさせられて
無料で自分のPC上で数千枚の画像丸ごと高画質にできるからsrc増やす度に使ってる
ただ英語の解説しかないしpythonの知識が無かったから
色々と導入して高画質化できるようになるまで理解するのがきつかった わりとまじでブログやった方がいい
匿名が何言ってても成果がわからないから ヒント1質問スレ
ヒント2大前提のモデルの種類も書かない日記 前からある技術だけどjappは早速日記を参考にして
昨日の夜からAi EnhancerのGPEN導入してるから
自分で頭使って試せる奴は1から10まで説明しなくて良いし役に立ってくれるな
DF上でのGPENの仕上がりの違いも知りたかったから助かるわー >>663
dfd試してみた
step1の顔抽出がかなり遅いんだけどこんなもん?
元画像が512pxとかになるとこれで何千枚とかやるのは気が遠くなるぐらい遅い
出力された画像は確かに凄い鮮明になってたけど dfdはステップ3でメモリーエラー出て20時間ぐらい動かしてたのに最初からやり直しだわw
数枚だとエラー出ないんだけどなぁ
10000枚やるとあかんわ。
gfsganはきれいになるしエラーは出ないけど、CG感が凄い
gpenはwindowsで動かない >>671
step1はcudaとかcudnnとか入れてpythonで色々と設定しないと
CPUしか使わないしアホみたいに時間かかるから使わなくて良いよ
Colabで動作させてるなら分からんけどローカルで動作できるなら
githubのチュートリアル通りにTestWholeフォルダにaligned画像入れるんじゃなくて
DFDNet-whole\Results\TestWholeResults\Step1_CropImgに
aligned画像全部入れて同じようにtest_FaceDict.pyを実行したら
無駄なクロップとかの工程すっ飛ばして色々とエラーが表示されて動作停止した後に
Step3_RestoreCropFaceフォルダに高解像データが保存されてるからそれを移動させれば学習で使える
これなら512pxの画像1枚につき1秒くらいで高解像度化してくれるはず
Colabの場合はそのままDFLで使えるのかも知れないけど
このやり方だとDFLImage扱いされないから
4.2) data_src util faceset metadata save.batを使って
元のalignedデータのメタデータを全部保存してから
超解像したalignedを元画像データと全て同じ名前のままalignedフォルダに移動させて
4.2) data_src util faceset metadata restore.batを使ってメタデータを移植させれば
DFLImageとして使えるようになる jappがGPENをColab上で動かせるようにしたみたいだけど
DFLで切り出したaligned使うと最後まで動作はするけど
結果のzipフォルダが空の状態で保存されてて超解像できてないんだよな
サンプル映像見るとDFDよりも解像度は上っぽいけど
若干顔が別人になってる様に見えるからDFDの方が良いかね >>673
返信どうも
ただこの方法だとノイズが入ったり不自然になる画像があった
色々弄ってみて解決
遅いのはdlib関連だったみたい
test_FaceDict.pyの26行目
dets = detector(img, 1)の1を0に変えたらstep1の処理が5倍くらい速くなった(それでもまだ遅いけど...)
あとはdlibのコンパイル時にCmakeやらVSのオプション弄っても高速になるらしいけどそちらは未確認 >>674
普通にできたよ
alinedフォルダをフォルダごと圧縮した? >>677
動作確認で数枚の画像だけ圧縮してたけど
フォルダごと圧縮したら問題無くいけたわサンクス
dfd使ってもノイズでよく分からない唇のシワとか
まつ毛まで見えるようになるし処理早いし数日で革命起きて草 ずっと古いdfl使ってた初心者なんですけど、最近のバージョンってtrain遅くなったけど精度は上がってたりします?
めちゃくちゃ数こなすの遅くなってて Colabの方で超解像化してそのままぶち込んでもDFLファイル見つからんて言われるね。再extractかければいいだけだが 4.2) data_src util faceset metadata save.bat
4.2) data_src util faceset metadata restore.bat
もっとこのファイルは評価されるべき
元画像まとめてsaveしてgpen画像と交換してrestoreするだけよ RTX2080Ti用って1080Tiでも動くんだな
バッチを倍にしても起動するし学習早くなった >>685
up to 2080tiやぞそれ以前のは使える
>>686
src強化
元動画の画質が多少粗くても使えるようになる
ただたまに化け物生成されるから出力されたのは全数目視検査した方がいい 既出かもしれんが、headshotってソフト知ってる?使いようによってはsrc不足を補えるかも。 >>686
ぼやけた画像を高画質化、高精細化する。
かなりいいぞ。
頑張って導入してみ。 google colaboのGPEN使うとすぐGPU使用量の上限に当たって使えなくならない? 自分のローカルPC(2070s)環境上でGPENを動かす事はできるのでしょうか? できるけど
Winじゃ動作しなかったからdebianインストールして動かしたよ あら〜面倒くさいんですね、じゃすなおにColabでやります。
サンクスです。 >>694
試したのはWinのAnaconda環境ね
wsl2はGPU対応ビルドがWin11のみになっちゃったので未確認です 自分の顔が杉浦ぼっ樹にジャストフィットすると解り
葵つかさや紗倉まなとの共演を果たしてしまう>>1 普通にmergeして作成したフルHD解像度のpngやjpgをColabのGPENで高精細化しようとしたらダメだった
代わりにpngから更にheadモード1024で顔抽出したやつなら変換できたので、mergeのソースを弄ってpngの顔抽出元に上書きできるようにした
画面いっぱいの大きな顔でもなかなかな解像感でてる
まだ動画の連続したコマで処理、再動画化は試してないので最終的にチラつき等出ないかはわからない >>697
まさにmerge画像を更に超解像できたらクオリティもっと上げられると思ってたからありがたい
mergeのソースはどこいじればgpen画像と交換できるん? Xsegの仕組みを応用して自動顔抽出したがいけてないランドマークを補正する機能は作れないのかな?
pretrainのfacesetに設定されているだろう正確なランドマークを学習させて >>699
ソースの変更箇所を画像にしてみましたので参考になれば
修正箇所はおおまかに以下の4箇所です
1段目・・・FrameInfo.py __init__()
2段目・・・Merger.py main()
3段目・・・MergeMasked.py MergeMasked()
4段目・・・MergeMasked.py MergeMaskedFace()
https://i.imgur.com/C4KSm8G.jpg >>702
優しすぎて泣ける
変更点と解説まで分かりやすく作っていただいてありがとうございます!
息子も大喜びです >>701
3060で顔抽出2重起動しても3it/sくらいだからもっと早くしたいけど
Xseg応用してどのくらいの速度で抽出できてる?
DFLと連携してるMachine Video Editor使えば
ランドマークの自動配置に加えて手動で1点ずつ動かせるから
その抽出方法でも活かせたら強いな >>703
ソース改造後の使い方などを書いてみましたのでご一読下さい
ソース改造後は通常のマージ機能が使えなくなるので作業フォルダを分ける必要があります
https://i.imgur.com/xSvYBRG.jpg >>705
もはや課金したいレベル
見ないと詰まりそうなポイント多いのでめちゃくちゃ助かります! >>706
自分はまだ連続コマでの再動画化は試せてないので、GPEN側の精度によってはチラつきで視聴に耐えられないかもしれません
その場合は静止画スライドショーで楽しんで下さいw
あと、1回目の通常マージではsuper resolutionはかけない方が良いですね
GPENで再度高精細化すると前歯に縦線が入ったり副作用が出やすいですね 数コマでも更に高品質なシーンが作れるだけで十分なのでノーダメージですw
全部踏まえて修行してみます >>704
Xseg応用しての顔抽出っては自分にとってはまだ夢物語でこれからソースコード勉強してみようかっていう段階です
できれば公式さんにそういうの作って欲しい
Machine Video Editorっていうのがあるんですね、調べてみます >>709
なるほどね
他の顔識別AIを応用すれば動画のまま1フレーム毎に顔認識させて
10倍くらい早くできるみたいだから公式で作ってほしいけど
開発者の対応見てると作る気無さそう
MVEはmrとyoutubeにガイドがあるから参考にしてみて >697
debianのローカル環境でやってみたらmerge画像は直接変換できたよ
確かに綺麗にはなるんだけど、動画にすると若干チラつき感はありますね >>711
Colabのメイン部分(jappさん作?)をよく確認したらDFLで顔抽出した以外の画像は変換対象外にしていましたね
このチェック部分を上手くコメントアウトすればColabでもmerge後のフレーム画像をそのままGPENを掛けられるかもですね
自分もようやく改造ソースで連続コマを再動画化(GPEN適用は1万6千枚)が出来ましたが、通常の顔サイズなら目立ったチラつきはありませんでした
一番印象が変わる前髪や眉毛もチリチリするようなことはなし
ただ画面縦の6割以上な顔アップで動きが少ない場面だと顔全体が少しチラつくこともありでした 上の方にCG感が凄いと言われてるけど、GFPGANローカルで使えるしいいね
昔の写真やるのおもしろい
https://i.imgur.com/yK1QcbG.jpg Mateで書き込めなくてpcでコピペしたら改行してた意味はないよ 今GTX1080使ってるけどRTX3060に変えると学習早くなるかね?
ゲームベンチだとあまり差がないからどうなのかなーと思ってます。 口開けてるシーンが全部めっちゃ笑顔になっちゃうんだけどどうしたらいいんだ?
学習させる顔の笑顔シーンを消してから学習させるしかない? >>718
1080から3060に変えたけど、学習2は倍から3倍に速くなったよ。
1080だと512×512ぐらいのフェイスセットが限界だけど、
3060だと1000×1000でheadごと切り出しとかもイケる。
TDPも下がるし電気代的にもお得でマザボへの負担も若干少ない。
8ピンのみで動く光らないmsiのがお勧めだと思う。
ただメモリバス幅は1080よりだいぶ劣化するので完全上位互換では全くない。
古いゲームとかだと1080の方が速いかも。 >>719
偽造しちゃうのも手だよ。
src側のalignedに切り出し後の顔画像が並んでるじゃん。
あれをdstの最終のmergedに全部コピペして merged to mp4すると、
顔が中心に寄った動画として書き出される。
これがサイズ、画角が中央に揃ってて、動画編集ソフトでコラージュしやすい。
笑ってない顔なら、真顔上半分と口開けた顔下半分とかで重ねれば大量に無表情の口開け顔とか作れる。
目を閉じてとか、片目閉じて(左右で重ねる)とかも同じ感じで作れる。
多少色なんかがズレてても、学習後は本番時のdstの顔色に揃えるんだからザックリでも結構うまくいく。 補足
MP4にする時に、dstの元動画も参照するから、
顔を切り出したsrcの元動画を、data_dstにリネームしとかないと動画書き出せない。 >>719
liaeの方がdstの表情に寄せるのに向いてる >>720
なるほどー。
すごく参考になる情報ありがとう。
ゲームはやらないので載せ換える価値ありそうですね。
検討してみます。
もう少し出しても良いのなら3060tiの方がさらに早くなるかな?
3060はVRAM12GBなのが魅力なんですけどね。 df liveのお手軽さが最高なんだけどこれってsrcの顔をそのまま出力してるから
dfmモデルはsrcの学習データだけ利用してるのかね?
それならsrc×srcで時短して汎用モデル沢山作りたいんだけど
dstの学習データとかも使ってるとしたらsrc×dstで学習したモデル使った方が
照明条件とかdstへの適応力上がったりするのかな ageたりsageたりでクソ自演Q&Aを繰り返す日記をこの世から撲滅したい >>721>>723
サンクス、いろいろ試してみます。 画面外から顔がフェードインしてくるとき、一部分しか写ってない上にだいたいブラーかかってるから上手く認識されずにどうしてもおかしくなっちゃうな
数フレームだしカットしてしまうのが丸いかな manual extractのa modeで拾う事は出来るけど、あんま良い結果になった事は無いな
自分の場合は切り出しの段階で省く あーなるほど、天才だ
マニュアル人間だからそういう発想なかった
ありがとうございます 19日前のDeepFakeArchi.pyの更新で
Added -t arhi option.って書かれてて色々とコードが追加されてるけど
これはFP16で学習できるようになるのか?
iperovがRTMモデルに最適ですとしか回答してないからよく分からんが
2か月前にFP16でのテスト画面載せてたし
最新版のDFLのinternal Model_SAEHD Model.pyにも隠しコマンドみたいに
use fp16オプションと説明が追加されたりしてるからコード書き換えれば使えそうなんだが 9/6版だとOOMエラー。
8/12版ではさくさく いくのに。
同じSRCとDSTなのにどういうことでしょう? 最新のやつって1080じゃまともに動かないよね
CUDA関連のファイル入れ替えたら動いたけど、1080はもう切り捨てられたのかな 状態と種類にもよるけど1080ならまだメルカリで4万円くらいで売れるから
58000円の3060買って12gbのvramで楽しもうぜ >>739
環境にもよるんだろうけど、そのままじゃ動かなかったんだ
エラーメッセージがCUDA絡みっぽかったからCUDAとCUDNNのフォルダの中身を去年12月のに入れ替えたら動いた >>712
顔抽出したファイルをGPENに掛けてもそのままではtrainで使えないけど
そこからもう1回顔抽出したら使えた >>741
>>705 の添付テキストの7行目に書いてあることを実施して頂くとGPEN後の画像をそのまま使える筈ですので試してみて下さい ちなみに save & restore は本来 data_src のための機能なので対象画像をdata_src\alignedに格納してbatを実行する必要がありますね >>742
なるほどありがとう
GPENをよく分かってなくて、colabでデフォルトでやってるから、
元のJPGファイルからPNGができてるんだ
JPGで保存するように改造してみる >>744
ごめんなさい
私自身はその後GPENの方はあまり触ってなくてColabの動作も変わってるかもですので不可解な点があればColab上のソースを覗いてみるといいかもですね XnConvertとか使えば解像度変えずにすぐpngからjpgに変換できるから楽だよ >>746
ありがとう
colabだからLinux版を動かすか、
ファイルをダウンロードしてWindows版で変換するかだね gtx1660で2.0って動くの?cudaが使えればいいのかな? >>750
まだ完成させてないけど今トレーニング中なのでいけるみたい >>750
まだ完成させてないけど今トレーニング中なのでいけるみたい gtx900シリーズまではサポートされてるから普通に動かせるけど
6gbだとresとか全然上げられないからすぐ新しいの欲しくなるよ 興味本位で初めてみたけどこれ電気代ヤバくない?
ものすごい部屋の温度あがってたわ
Google colabはなんや難しそうやし… 月120-150hくらい2080tiでtrainしてたら電気代2-3kくらい上がった 発熱と電気代気になったから電力制限70%にしてるわ
パフォーマンスは5、6%しか落ちないな これからの時期は暖房代わりになるぞ
ってほどでもないんだよな GoogleColabProはマジでコスパ良いから絶対使ったほうがいいぞ
電気代だけでも元取れるし もしかしてLHRって良くない?
顔抽出をやってくるない事が多い-できることもある >>759
自分はRTX3060狙ってるんだけどそれが気になって買えんのだよ。
誰か詳しい人教えろください。 制限無しの1660とgainwardの安いLHR3060を別のpcで使ってdstを半分ずつ抽出してるけど
顔抽出の精度は全く変わらんな dflの顔抽出の性能自体が悪いから抽出速度は3060が少し早い程度だけど
vram多いから3060だと1660の倍くらいの設定にしても問題無く学習できる
mrのスレッドでもLHRは関係無いって言われてるし顔の素材とか準備するのに時間かかるから
早く買って作業開始した方が良いよ ちゃんとするなら結局は手動extract一択になるけどな… 全フレームマニュアルで抽出するやつとかおらんやろ
それとも死んだvineみたいに6秒DFでも作るんか? 久々に触ったらオプション増えてまくってて何がなんやら
後半GAN使うときにこれはON/OFFにしろみたいなのってある? debugでちゃんとland/maskが一致するものを作るならmanualだろ
時間も自動とそんなに変わらんし 比較した事すら無い初心者は知らんけど 角度が30度以上つく場合のautoとmanual+aでのmask範囲の違いは大分印象変わるぞ
前髪多めの素材で俯いたりまばたきするフレーム、髪が輪郭を一部でも隠す場合、こういうのもマニュアルでやらないと
後からdebugで微妙な部分を探してmask editorで修正とか二度手間じゃん そこまでやってる奴このスレに居ないだろうけど ただし使える部分のみ切り出した前提で、srcで5分(sortと目視選別必至)dstで1〜2分が現実的なライン 手動でもランドマーク1点ごとに移動できない欠陥ツールだからこだわるならMVE1択 笛とかなら必須だろ 逆にどうしてんの?
AV丸ごとextractみたいなガイジはおいといて >>766
君3f/secで何万フレームも手動抽出できるん?もはやAIやん
それともうんちグラボだと抽出クッソ遅いのかな? 1ー2分って書いてあって何フレームか分からないエアプが何言ってんの? そこまでやってる奴このスレに居ないだろうけど
wwwwwwwwww ごめん見てなかったわまさかそんな短いとは思わんかった
でもdstの時間に関係なく秒速3フレームで抽出するの無理だよね?
仮に5秒で1フレーム抽出出来ても5時間かかるけど自動なら20分手直し考えてもまあ1時間
4時間くらいなら誤差な暇人か定年後の爺か?それならボケ防止によさそう 数枚の写真からそれなりの動画作れた人っている?
身近な人で作れたら最高だけど動画なんて手に入らねーよ > 数枚の写真からそれなりの動画作れた人っている?
> 身近な人で作れたら最高だけど動画なんて手に入らねーよ
写真撮るフリして動画撮るんだよw >>779
写真撮るのもハードル高すぎるw
>>780
ソフトDLして自分のPCで出来るといいんだけど、アップするのは何かあったらと思うと怖い。。 ちょっと教えてください。
ページングファイルの設定をしたいと思っています。物理メモリは16GBです。
最新版のDFLやろうとする時、メモリは物理メモリと合わせて何GB位必要でしょうか? 大型アップデートきたな
今度の「-t」優秀すぎw
めっちゃ似る model作り直しだから試すの躊躇するわ
すぐ互換性ない更新くるかもしれないし liaeでも従来のDF以上にSRC寄りになるぞ
つまり今までのliaeのデメリットがなくなった 1日動かしてみたけどliae-udとほぼ同じものが出来上がるけど
めっちゃ似るとか嘘だな udt だったか、df-tでやったら進まなくて詰んでたから、助かった。
さて-tのめっちゃ似るに期待! 10/11のが出たんだな
この辺まだ紆余曲折しそう gpuが使用できないcudaの不具合があったからその更新だな
githubのissuesに書かれてるけどcuda11.4.2をダウンロードして
cudaの.dllファイルを全部交換したら1009verで普通に動かせる
0906verの3060でliae-udだとres416 lrd offバッチ4 lrd onバッチ2が限界だったけど
udtだとvram使用量が2gbくらい減ってoffバッチ6 onバッチ4まで上げられるようになったわ 解像度256まで上げたら
ae_dims、e_dims、d_dimsはそれぞれどの程度上げたらいいんだろ 出来の差はまだ分からないけどtつけたらたしかにVRAM使用量減るね
バッチ6で回してたとこ8で回るようになった colabでfaceset.pakの作り方が分からなくて、検索してやっと分かった
後知恵だけど、Windows版のバッチファイルが入ってるフォルダを
調べたら、そこにそれ用のファイルがあったw ようやく使えそうなGPU手に入れた
今日から電気代気にせず回すからお前らよろしくな!!
で、何から始めたらいいんだ? 最新バージョンでtrain中はGPUだけでなくCPUも60%ほど使ってないかい?
自分の環境だけなぁ。 >>798
8どころか10でも行けた
VRAM使用量は変わらないな
res上げてやり直そうかな
>>801
自分のとこは50パー
前はこんな使ってなかった気がする -tだけじゃなくて地味に-cも一緒に追加されてたから
liae udtとudtcで同じ設定で回してるけどvramも変化しないし違いが分からん
ディスコでも説明してないし大きな変更はないのかな 何をやってるのかは分からないけど一応tは似るって触れ込みなんだよな udとudtで全く同じ条件で比較してないから曖昧だけど
tは確かにsrcに寄せられるみたいでsrcとほぼ同じ顔が作れたから良いと思う
cはディスコでも1人しか触れてないし皆スルーしてるから謎すぎる >>797
・AMP UDT 比較
https://i.imgur.com/22MQDsS.jpg
AMPの場合パーツ相性はそこそこで輪郭と髪型重視でdst選びの幅が広がった
AMPはsrc-srcの学習をしてからinter_dst.npyを削除してsrc-dstの学習再開
似ないなと思ったらとりあえずinter_dst.npy削除 Pretrain用のオリジナルfaceset.pakを作るときの画像はマスク済の画像を使うべきでしょうか? liaeって視線の方向がちゃんと合ってて良かったのにliae-udtはド下手になってる 今更な質問なのは百も承知なのですがランダムワープってどういう仕組み、効果なのでしょうか? マニュアルでさらなる精密さが欲しければ外してとありますが外してtrainしたらそもそも最初にランダムワープでtrainする意味ってないと思うのですが違いますか? randomで大雑把にtrainしてからオフにして精密にtrainすると速いぐらいの感じ
ずっとオンだとぼやけたまんまだし最初からオフだとすげー時間かかるのに似ないと思う >>812
ありがとうございます。
最初からオフだと似ないっていうのがいまいち実感出来ないのですがそうなのでしょうかね 多分 Xseg Train のプレビューで顔画像をグニャグニャ曲げて train してるのと同じことしてるんじゃないかな?
少ないalignedでも効率良く学習できるよう変形を加えてる? 原理は俺も全然わかんないけど
最初はランダムワープありでバッチ少なめ、最後はランダムワープ無しでバッチ最大限、って作者が言ってたことを公式のように覚えてる ここ4,5日ぐらいcolab proがT4しか使えない
ずっとP100使えてたから反動かもしれんが >>817
自分もColab Proで2〜3週間前にT4が1週間ほど続いた
今はP100に戻ってる
ユーザーによって?使用量によって?違うのか すみません
DSTのAV探しに苦慮してます。
なんかいい探し方ありますでしょうか。
DFにあうので >>819
AVの使えそうなシーンだけ編集で切り取ればいいんじゃないか 今geforceのRTX2070superを使っていますが、3060ってのはメモリーがすごく大きいみたいなので、DFL用途であればこっちの方がいいのかと思ったりしています。
今解像度256でバッチ4でやってますが、もっと解像度があげれるとかそういうメリットあるんでしょうか? あると思いますよ 自分はwfなら res384 バッチ16 headなら res512 バッチ12
でやってます。3090です。 すいません、headの所、まちがえました。訂正します
headならres448 でバッチ12でした。 3060だとliae-udt,wf,res416,バッチ4で900msくらいで動かせるよ SRCを高画質化したいけど、GPEN等導入する知識がないのでソフト買おうかなと思ってます。
@VideoEnhanceAI AgigapixelAI BsharpenAIのうちどれを買えば良い? もしくはその他?
全部無料版で試してみるべきとこだが、せかしてくる息子がおりまして。画像は512PIXで考えてます。 3060いいですね。
やっぱこの用途だけしかやらないなら、メモリー量が正義なんですかねえ。
ぶっちゃけ一切ゲームやらないし、買ってみようかなあ。 価格2倍以上の3080よりも3060の方が設定上げられるし
2070s売って3060買えばほとんど差額無しで買えると思うしDF用ならベスト 自分3060ti使ってて一番新しい3000シリーズダウンロードしたんだけどこれcuda入ってます?
なんかトレーニング中にタスクマネージャーみたらgpuの3dがめっちゃ動いててcuda項目がないし、変だと思ってググってみてもcudaはdflのフォルダ内に入ってるとから別途でダウンロードする必要ないって書いてあってよく分らんのですが Win純正のタスクマネージャーが無能なだけだから心配いらないよ GTX1080Ti使ってますが、RTX3060に買い換えるメリットあるでしょうか?
メモリ1GBしか変わらないので、どうなんだろう・・と。 cudaコア数も同じでゲーム時とかの性能もレイトレーシングとか除けば
ほとんど変わらないから1080tiで良いと思う
本当かまだ分からないけど1月中旬に出ると噂されてる3070Ti 16GB版待ちだな 最近ほとんどゲームもしないのでRTXにする意味はなさそうですね。
もうしばらく1080Tiで行くことにします。
ありがとうございました。 >>834
今更だけどこういう考え方も。
3060ならtensorcoreが乗ってるから多少速い。
1080tiは流石にいつ壊れるかわからない経年劣化が予想される。だがヤフオクで高く売れる。
1080tiをヤフオクで手放して、3060を新品で買えば、気持ち速いグラボが新品で手に入る。
自分は1080放流して3060を買った。
爆速にはならないけどコイル鳴きが無くなったのでそれなりに満足してます。 >>819
ttp://erodougazo.com/actress/
広告多いのが玉に傷だけど、身長、スリーサイズ、年齢でマイナーな女優まで探せる。
サイズ=骨格が近いと顔も似やすい。 今年8月ぐらいのバージョンから10月21日の奴にDFLを更新したんだけど、train SAEHDでモデルの読み込みが終わった瞬間に”Pythonが動作を停止しました”で
止まるから原因を探ろうとしてるんだけどDFLの動いてるコンソール側に何もエラーログを吐かないからどうしたもんかと頭抱えてる
Quick96だと何故か動くからドライバ周りが臭いとは思うんだけどなんか要求要項に変更入ったりした? うちは「color transfer for src faceset」をnone以外にすると同じような症状になる
他のbatch size等の組み合わせでエラーメッセージが出なかったり、MemoryErrorやスタックトレースが出たりもする
Colabなら問題なくTrain始まるんだけど・・・ 昨晩新しいのが出てたから一旦完全にまっさらな状態で一切数値を弄らずサンプル使って動くか試したけどやっぱり駄目だった
今度は設定値まで読み込まれたけどもStarting. Press "Enter" to stop training and save model.が表示された直後に落ちる
>>839
color transfer一通り試したけど変化が無かったからこうなるとPythonかCUDAの問題なのかね 俺も同様だった。
で、何やってもダメなRTX3000シリーズのビルドは諦めて、directx 12版を使ったら動いた。
まぁ、直ぐに更新されてモデルも作り直しだろうし動く方を使ってる。 公式discordのロシア語の方のbatch-sizeチャンネルでnvidiaドライバーを更新したら
同じようにトレーニング開始直前で落ちるようになったって人がいるけど
過去のドライバーを入れ直したら解決したっぽいな
ロシア語だからDeepL翻訳使っても翻訳が曖昧だしgame ready版かstudio版なのかも分からんけど
とりあえず何パターンか過去のドライバー試しみれば直るかも 昔のDFLに入ってるCUDA関連のファイル持ってきたら動いたりするよ 他にも同様の症状の人いるんやな。ちょっと安心したわ。
とりあえず色々ドライバ変えて試してみる ダヴィンチ・リゾルブのスタジオ版導入したんだが、
DFL使用時のRTX3060のメモリが12g→10.45gに目減りするね。
(ダヴィンチ起動してなくても。)
ビデオメモリーの予約?なのか,DFLで10.45gで表示されててもWindowsのタスクマネージャーでは12g使ってる。
顔射モノを作るのは本当に楽になったが、メモリーが一割減るのは結構痛いね。 256x256のsrcを一気に高画質化できる方法ないですよね rtx2060なんだけど普通のビルドDLでいいの? 最初に入ってるお試し用の動画って、かなり短時間でクオリティ高いのが作れるけど
モデルがあってたらあんな短時間でいけるん? modelの育て方次第やね。
学習させる女優さんなりアイドルなりの画像を様々な画角から被りなく3000枚〜とか集めて、
しっかりと学習させておけば、そこからは速い。
ただ、最初の学習の速さも仕上がる速さも、グラボのスペックと素材の解像度によって雲泥。
環境にお金かけるほど、処理の重い高画質な方向に移行するから、結局、みんな時間はかけてると思う。 例えば素材が正面メインでちょっと角度変えただけの画像ばかりはマジで学習が遅い
これが、ガチで色々な角度(正面、後ろに振り替える、ほぼ真上から、ほぼ真下まで)を均等に含むと
あっというまに精度よく出来上がる
普通の人はこういう角度ってほとんど存在しない(騎乗位の角度や正常位の角度で顔を見るのはほぼない)けどここの素材探しに妥協するほどきつくなる
後は輪郭や髪型等が似てれば1晩でほぼ完成するよ ローカルマシンでGPEN導入したいけど、なかなか的確に解説してるサイト無いね。 なんかtrain開いても最後press any key to continueになって始まらなくなったんですけどとうしたんですかね
調べたらcuda関係...? >>859
これをローカルマシンで走らせたいのよ。
Google コラボではなくてさ。 githubにGPEN-windows来てたよ
1) install_dependences.bat実行で20GBほど使うので注意
face_enhancement.pyの136行目のinput/outputフォルダを確認か変更
2) start_gpen.batの実行で高精細化
dflイメージはそのままdflイメージとして使える
とまあとりあえずの使い方なんだけど、うちの環境(win11 RTX3090)だと
2) start_gpen.batだけがうまく動作しない
もし他にも動かない人がいれば修正方法を書いとく >>862
お!
どうもありがとう。
早速試してみます。 >>862
ダメでした。
3060で動かず…コードとか難しいなぁ…。 まったく動かないって話なら俺にはわからない
GPEN化せずに元画像がそのままoutputフォルダに出力される人は以下を試して
■face_enhancement.py 170行目から
#Optional
# im = cv2.resize(im, (0, 0), fx=1, fy=1)
img, orig_faces, enhanced_faces = faceenhancer.process(im)
↓
#Optional
im = cv2.resize(im, (0, 0), fx=2, fy=2)
img, orig_faces, enhanced_faces = faceenhancer.process(im)
img = cv2.resize(img, (0,0), fx=0.5, fy=0.5) 昔誰かが書いてたけど、学習中のプレビュー画像って大きいサイズで出力できないの?プレビュー画像をソースにできたらかなり良さそう。 >>865
3060ユーザーで俺もDFLで抽出したaligned画像だけ変換されなかったけどこれでいけたわサンクス
マージした画像とかそのまま入れても自動で顔認識して更にGPENできるし良いわ
ちなみに元画像のファイル名に一文字でも日本語が含まれてると
問答無用でerrorが表示される仕様みたいなんだけどコード書けばすぐ直せるのかな?
適当に英数字オンリーのファイル名にリネームすれば動くから大変ならこれで良いけども >>867
一番最初のバッチでインストール失敗しない? >>868
githubのissuesでも報告されてないし何の問題も無く一発でインストールできたから
rarの解凍とかからやり直してもインストールできなかったら俺には分からんなぁ 3060 12G使用で、aedims384のWFだと、res192でしか動かないなー
davinci 入れてから?dflのVRAMが9GBくらいで表示されてるがそれも影響しているのかな >>870
dflはそもそもvramフルでは使わないと思うよ 海外のフォーラムでもよく質問されてるけどdflのvram表示は実際に使用できる数値と違うから無視で良い
タスクマネージャー開いてパフォーマンスタブのGPUを確認すれば分かるけど
俺の3060は限界まで設定上げてdfl起動すると専用GPUメモリが11.8GB位で共有GPUメモリも2GB位使ってる
dimsもホクロとか細部の学習に大事だけどres低いと顔のドットが目立って違和感しかないからres最優先してるわ pretrainやり方についてわかりやすく説明してる日本語サイトってありますか?やり方よくわからん 日本のサイトってあんまりないよね
海外のサイトをグーグル翻訳して探すほうが楽だと思う >>874
ありがとうございます
頑張ってGoogle翻訳でみます res256とres320って違いでます?3080で回すときres320でギリでした。今までres256でしたがちょっと解像度あげてみようかなと思案中です。 デビューしたけどこれって学習時にdst必要なんだな...
って思ったけど、これあくまでプレビュー用に必要なだけ?? 学習で作られるモデルってsrcに依存するのはいいとしてdstにも依存してるんでしょうか?? >>879
dstが大量に必要なのはsrc学習時のニューラルネットワーク形成時に加算処理をするための参考情報として必要なのと、予想通りプレビュー用に用いられる為。
だからsrcは様々な素材があった方が学習が速く、dstにも様々な顔が有った方が学習が速いのは事実。
あと、GPUばっかり重視されるけどCPUやメモリも使われてるから出来るだけ高性能なCPUを積んでメモリも出来るだけ拡張した方がいい。処理が加速される。 初心者です
縦笛時のXSeg Genericってsrcとdstの両方にかけるのでしょうか? >>882
eyes mouth priorityをかけても
眼球があらぬ方向を向いてしまうのだが
これもdstの問題でしょうか
randomwarp中にeyes mouthかけると駄目とかありますかね >>882
ありがとうございます
当方、いいGPUもってないので学習だけcolabでやろうと思ってました
でいきなりムフフなdstではやりませんが、学習時にdstをextractしてなかったらエラー出たので
とりあえずcolabで学習実験し始めたので遊んで見ようと思います train開始時にsrcとdstのLoading samplesが終わった後「続行するには何かキーを押してください」が表示されて止まるようになってしまった。
別のworkspace使っても変わらずで困っています。 colabでtrain中のsaveってどうやるの
Enter押しても何も起こらない deepfacelabの最新11月版ですが今までいけた設定でもtrain時にエラーで回りません。GPUは3080でres256batch8でエラーになります。新たに設定など必要なのでしょうか?ちなみに前までは2020.7月版でした。 SAE -t を全く同じ dst 素材で試し中。
結果報告するよ。 tオプション一応使ってるけど何にも変わってない気がするよね
視線が合いづらくなってるなと思うぐらい >>890
バージョン上げたら何かがおかしくなるのは、いつものことだと思うし
無理しないで以前のバージョンを使うかバッチを下げるかだな
俺は11月バージョンちゃんと動かなかったから10月のを使ってる どんなエラーだったか覚えてないけど
dflのあるドライブのページングファイルを設定したら安定したことがあった liae-ud から liae-udt にしたら batch 3 だったのが 8 で回るようになった。
(RTX2080 rez 192) 連投すまんが、batch 16 でも動いた。
こんなに batch 上げたことなかったけど、少 batch の時より似ていくスピードが早い気がする。
これがある意味 -t の効果なのかも。 それ-udでも16で回ると思うし、3は少なすぎで何か間違ってるんじゃないかな 結構古いVerのDFLを使ってて更新したからかな?以前のは重かった。 フォーラムにあるpretrainデータの流用のやり方って
1.アップされてるmodelデータをダウンロードして、作業フォルダーのmodelの中にコピー
2.そのデータをEnable pretraining modeを『n』に変えてtrain
であってます? 0からのスタートみたいに見えるから不安になるけど、それで合ってる VR用の左右2人映っている画面でmanual extract( data_dst faceset MANUAL RE-EXTRACT DELETED ALIGNED_DEBUGdst )
で 手動で顔抽出したいときに左側の顔の調整が済んで 左クリックおして 一旦確定、
右側の顔を調整したいときはどうすればいいのでしょうか?
左側だけで 左クリックのあと ENTERを押すと
次のフレームに行ってしまうのですが、一画面で、2人手動抽出するやり方は
ないのでしょうか? >>903
あざす!
>>905
VRなんて2画面で一気にやっちゃうけどなあ。たまに顔がチラチラするけど気にしない。
みんなそんな完璧目指してるの?
1つ作るのに何時間かけるのよ >>905
ありがとうございます
たまにチラチラする程度ならいいんだけど
結構失敗してる割合が高いので
面倒だけど1画面ずつやるかあ
headを使ってるせいかもしれませんが。
まあもうちょっと顔抽出の精度は上げてほしい VRを分けるのは正直全く面倒じゃない
DFLにやらせないでバッチファイルでffmpegにやらせる
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:0:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\l_%%05d.jpg"
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:in_w/2:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\r_%%05d.jpg" aedims512で他dimsデフォでやってるが
dstの目が半開きの時にどうしても視線がヤバくなるなあ
トレイン不足ではないと思うが…
encoderもしくはdecoder dimsの増減で改善したりするかな、どういうパラメータかすら把握してないけども 写真からそこそこのやつ出来た人って写真何枚で出来た? >>909
グラボは3090?
ちなみにresあげるのとaedimsあげるのどちらがいいものなの?
自分は3080だけど初期値からあげる場合はそのどちらかしか無理なのでres320にしてるけど、よくスレでaedims上げるという話を聞くので マージした画像GPENするのもいいよ
鮮明で顔が浮くかもだけど
https://i.imgur.com/XBGuvQK.jpg >>913
GPEN便利だけど一回で800枚から1000枚くらいしか変換できなくて困る。30000枚とかあるとき時間かかりすぎる。一気にできる方法とかあるの? >>914
GPEN-windows使ってます
2分3分で場面分割してやってて、多くて5000ちょっとだけど大丈夫でした >>913
それイテレーションどれくらいなん??
始めたばかりだと目安が全く途中で心折れるw >>912
グラボは3060の12Gです
aedimsを上げたほうが表情がよりdstに近くなる気がしますね
resは上げるとクッキリします >>915
それってソフトウェアですか?みた感じ無さそう。
>>918
自分は解像度が気になるのでres上げで引き続きやってみようかなと思います >>916
元facesetと作ったfacesetでpretrain130万くらいのモデルでdst複数人やってて60〜70万くらい。liae-udt,res256
難しい角度や表情はなくて主に正面とかです
>>919
ここのGPEN-windowsのところGoogleドライブからDLです
https://github.com/yangxy/GPEN >>920
ありがとう
60万か
途中でめげちゃ駄目ってことか res416でもpretrainモデル使ってdstがほぼ正面なら10万も回せば元のsrcとほぼ同じレベルまで仕上がるよ
モデルDLして劇的に時短するためにMrの無料会員登録は必須
GPENwin版も使って全srcを超解像すれば解像度もかなり上がるしパーツがはっきりするおかげで学習も早くできる extract MANUALで一度に一枚の画像に複数顔指定すること出来る? >>920
GPENの件ですが落としたら_internalのファイルが入ってましたがこれをdeepfacelab内に上書きして何かを実行する感じです?やり方がよくわからない… >>925
readmeに書いてある通りに
Install or update GPEN.batそれからinstall_dependences.bat
モデルをダウンロードしてweightsフォルダに入れる
start_gpen.batを編集でフォルダ指定して上書き保存
例えばalignedをgpenのinputに持ってきて高画質にする場合
--use_cuda --indir input/aligned --outdir results/aligned
GPENやる前にmetadataをsaveして!
難しいこと分からんからこれでやってます >>926
ご丁寧にあざす!とりあえず指示通りにやってみたけどweightsフォルダが出ないですね。とりあえずまたいじってみます!
3080だと制限多いから3090欲しいわ〜、誰か新品20万で売ってくれい GPENwin版はDFLも考慮してるから
元のColab版で必要だったmetadataのsaveとrestoreしなくてもそのままDFLで使えるよ
GPEN頻繁に更新されてて結構仕様変わるけど
最新バージョンだとweightsが無い場合はstart_gpen.bat起動したら
勝手に必要なモデルのインストールしてくれた気がする udtみんな似る似る言うけどこれdstに寄っている印象あるわ udt を1700k 回したが、同じ dst で ud と比べ udt の方が似てるなと思った。
まだ 経過途中なので 2500k くらい回ったときにまた報告するよ。 SRC画像のバラバラの色調をできるだけ統一したいのですが、皆さんはどうやっていますか?
お勧めの方法はどんなもんでしょう? >>932
統一しなくても大丈夫じゃね?気にしたことないわ いまメインのSSD1TB内に場所作って色々遊んでますが、複数作ってるとすぐ容量いっぱいになる。なので新たに6TBくらいのHDD購入してそっちで場所作ってやろうと思いますが、やる場所としてSSDとHDDでなんか違いはあります?
学習スピードは特に関係ないという話ですが、他に機械学習ならSSDの方が向いてるとか、HDDは劣化速度が速くなるからやめた方がいいとか。 トレイン中はオンメモリだからあんま関係ないだろうね メモリ128GB搭載してRAMディスク作ってやってる。まあ、容量の見込みが甘かった人的ミスを除き、落ちることは今のところないな。ヒストリーと記録しない方式なら困らない。 あまりHDDは向かないんですかね?個人的にはHDD常に動かす感じになるのかなと思うので劣化するの早くなるとかが心配ですね 初心者の質問で申し訳ないのですが3090使ってる方trainの設定どのくらいにしてますか?
facetype f
liae-u
rct
ae_dms 512
バッチサイズ 4
くらいでやろうと思ってたんですがresolution360くらいまで落としても全然動いてくれません
res128とdms256での動作は確認済みです
全体スペックは以下です
cpu5950X
gpu3090
メモリ32G 3090です
facetype head
res 448
liae-udt
ae-dims 256
バッチサイズは 8
前のは 12で余裕で動いていたのに最新のだと
10でもたまにとまるから8にしている
-tのせいか、ビルドのせいかはわからないけど。 3090で大体同じ感じでやってます。RAMも32GBです。
仮想メモリはどうですか?自分は16GB割り当てて動いてます。
解決しなかったらすまん。 >>942
同じ設定にしたんですが出来ませんでした
というかres256dims256ですら動きませんでした
メモリエラーが出て終了するかエラーログすら出ずに急に「終了するには何かキーを…」が出て動いてくれません
最新版と昨年10月のバージョンを試したのですがどちらも同じでした
解凍しただけでは何か不足しているでしょうか
>>943
すみません、詳しくないのでわからないんですけどvram24 ram64(上に書いた32Gは誤りです)じゃメモリ足りないでしょうか
プログラム走ってるときにvram5Gくらい使ったところで強制終了されてます 2060sで設定を見直したりしても最新バージョンだとtrainが始まらないです
2021後半のビルド速度も精度も良くて気に入ってたのに... >>944
RAMは32もあれば十分だけど仮想メモリは別物だから仮想メモリ 設定でググって変えよう
DFLがインストールされてるドライブのカスタムサイズを選択して初期サイズと最大サイズの欄に
「16384」って入力して「設定」を押せば仮想メモリに16GB割り当てる事になる
それとGPUスケジューリング オンでググってオフになってたらオンに変更
nvidiaのドライバーも最新版の方が学習スピード早くなるみたいだから更新した方が良い >>945
>>929と同じ状態なら
DeepFaceLab_NVIDIA_up_to_RTX2080Ti\_internal\DeepFaceLab\models\Model_SAEHDフォルダの中の
Model.pyをメモ帳にドラッグして開いて上のタブの「編集」→「検索」
cpu_count = multiprocessing.cpu_count()で検索してこの669行目の部分を
cpu_count = 4 #multiprocessing.cpu_count()って書き換えて上書き保存すれば解決しそう
それでダメなら同じくnvidiaドライバーを最新版にするとかかな みんなの数見てると3060でバッチサイズ12って多すぎるんだろうか >>947
試しましたがダメでしたね〜
前までできてて突然出来なくなったので原因がなかなかわからないです
仕方なくネットに転がってた古いビルドを使ってるのですが src絶望的に少なくてもひたすら学習させてたら意外といけるな >>951
去年の10月バージョン位から
cudaとcudnnが最新版に更新されたので
そのせいかも 多分そうですね
最新バージョンも10月20日くらいのでしたし
どこかにそれより一個くらい前の無いですかね >>952
マスク後のsrcの範囲がdstのそれよりも随分狭い素材でひたすらトレインするとどうなるのか検証中 srcって少しでも増やすために写真の時期が違ったり、メイク髪型が若干変わってるのは混ぜないほうがいい? でも少なすぎるならそういうのも投入したほうがよくないか >>954
おれも最近同じ症状になったが
NVIDIAドライバ バックナンバー(2021年9月のもの)入れたら治ったわ。
いつものダウンロードページの下のほうにリンクある 初心者なんですが、お面ぽさとか髪の毛かぶりとか、長時間学習させれば改善されてくもんなんでしょうか?それともその辺はちゃんと設定?しないとだめ? お面ぽさや髪はマスクで解消される部分もあり一概に言えませんがあからさまに立体感や表情のないお面なら学習不足ですね
ある程度馴染んでいる状態ならマスクのやり方次第です ありがとうございます。もうしばらくこのまま回してみます。 どれくらい学習させたかにもよるけどsrcが悪いんじゃない? 24時間です。たしかにsrcもそんなによくないですね。
とりあえずあまり知らない状態でどのくらいのがつくれるのかやってみてるんだけど、もうこれ以上はよくならないのかどうか。トリアーエズあと一日やってみます。
んで次はfaceswapためします。 初心者は正面だけとかの簡単なsrcとdstの短時間なやつでやってみ ちょっと試しというか実験で10枚程度の写真からどれまでできるかやってみたけど5分程度のインタビュー動画までは作れた。
手順は少しだけかかる、とはいってもアプリ一個挟むだけで写真数枚しかない人がべらべら喋る様はなかなかすごい。
これは無限の可能性感じるわ >>970
少ない枚数から色んな角度を簡単に水増しできたら良いのにな dstの顔の大きさ合わなくて小顔アプリみたいの欲しい 事前学習をやめて本番の学習をしたいのですがやり方がわかりません
6) train SAEHD.batで [n] Enable pretraining mode ( y/n ?:help ) : y にして
事前学習をしているのですが、そろそろ本番の学習をしようと思い
トレーニングビューでエンターキーを押して終了させて
再び6) train SAEHD.batでモデルとCPUの設定をすると再び事前学習となります
どうすれば事前学習ではなく本番の学習ができるようになるのでしょうか nにすればいいだけ
その設定が出てこないって話なら最初にpress enter〜みたいな表示が出たときに2秒以内にエンターキー GPUを1080TIから買い換え検討中。。
3090と3080Tiで悩んでます。
VRAMの容量以外、それほど性能差が無いような印象なんだけど、
DFLで使うに辺りVRAM24GBのアドバンテージって大きい??
12GBでも十分?
色々調べてみたけど、ゲームでの比較ばかりで、、。
アドバイス下さい。 その二つなら断然3090。やれる事が全然変わる。画質特に拘らずWebにupされているレベルでいいなら3080tiでもいいがそれならむしろ3060でいい。VRAMが絶対正義ですこの世界 >977
VRAMが全て・・。
って事は、3080Ti 買っても DFLで出来ることは1080Tiとあんまり変わらないって事なんすな・・。
なるほど。
3090買うことにします。
ありがとうございました。 結局VRAM12と24だとレゾリューションのサイズが越えられない壁ってことなんかな。 resとか各dimsとかのmodelのパラメータもそうだし
重いmodelをそれなりのオプション付けてある程度のバッチサイズで学習させる時にvramが活きてくるね
11GBだとres384でLRDとGAN付けるとバッチサイズ2まで落とさないとOOM吐く GANって何回か更新されてるけど今のGAN3?は高解像度だと上手く機能しなかったり評価悪いみたいだな
損失0.1まで来たらLRD+GAN power0.1他デフォでやって効果分かるレベルには使えるけどどんな設定にしてる?
設定上げすぎると数千回くらいで急に崩壊したりするから難しいな みなさんは学習のタイミングは深夜回しっぱなしですか?3080ですがファン爆回りでパソコンがぶっこわれないか心配 merge SAEHD.batでresultが出力されなくなった
同じ症状の人おる? loss値グラフで黄色と青が最初のラインより下回ることあるんだろうけどこれって回しすぎなのかな 前髪ないdstに前髪あるsrc合わせたい場合はwfよりffのほうがいいのでしょうか? そんな質問するレベルでff使いこなせないような気が >>986
ffでsrcの髪を顔以外としてマスクするのが基本なのかな
またはsrcの前髪を残したいのなら
wfで両素材の前髪部分をマスクせず顔扱いにするという手も
ただ違和感なく出来るかは分からない 初歩的な質問かもしれんけどrctとかmkl-mでmargeしても色が合わないのはsrcとdstの光源や影が合ってないってことなのかな? >>990
カラートランスファーをrctにしてtrainしてみたらいいかも 基本的な内容なんだけど、trainの解像度って、実際のところ品質にどれぐらい差が出るのかな。
俺は256以上はできないんだけど、前に作った128との差が、アップにすると出ると思うんだが、普通の状態だとさほど差がないようにも思える。
mergeの時に、シャープネス的なやつをかけると割とくっきりするからこれでしのいでいる感じもあるのだが。
3060買うとVRAM12になって、384ぐらいの解像度が可能になるけどおそらくそれが限界ぐらいだが、実際に出来上がる品質には差がでるもんなんだろうか。
解像度色々変えてみて、上の世界に行った人、教えてください。 >>991
サンクス。いままでnoneでtrainしてたから試してみる >>972
tiktokとか小顔にできるもんね
あれ凄いと思う
ただ動きが激しかったり何かが被さるとズレル
dstに使う動画をtiktokで小顔にさせるとか
他にも動画アプリで小顔機能のあるのを
探しだして色々と試すのも面白いかも >>992
アップにしないと差が出ない認識であってるの思います。
特に、ネットで拾ったりするようなHD画質を元に、
体全体が映るような引いた画角でやるなら品質に差はないかも。
ただ、VRAMに余裕があると、バッチ積めるのでtrainが速くなる。
それと、実質的にそれなりの高解像でしか出来ない顔射もの。
ただ3060 12g使ってるけど、trainは速くなるけど、最初の切り出しは結構遅いよ。
でも、発熱や消費電力も低めなのでお勧めです。 海外の怪物達を見てるとA100 80GB×2とかRTX A6000 48GB×4でVRAM 192GBの人とかいるけど
192GBでもres 512 ae dims 512 e,d dims 128でバッチ24とかで動かしてるな
標準で限界のres640とかコード変えてres700とかにしてる人もいるけど劇的に変わるってわけでも無さそう
それよりもsrcが全部4K動画とか大量の一眼レフ画像があるとかで差が出るな >>954 >>962
自分も同じ症状で、困っています。2021年の9月のnivdiaドライバー入れても
治りませんでした。なにかいい対処方法ないでしょうか?
ビルドは 2021年11月20日バージョンのを使っています
古いバージョン(2021年1月)では安定して動くのですが、-tが使いたいので
11月20日バージョンで動かしたいです。 Pretrainで3夜かけて30万回した後、PretrainをNにして本番のTrain開始。
で、何気なくP押してページ切り替えたら、2列目と4、5列目のプレビューが真っ黒に。
ほかのページに切り替えても直らず。
Mergeしたら、もちろん真っ黒な顔に。
再Trainしても変わらず、再Pretrainにしても真っ黒のまま。。。
試しに2時間ぐらい回してみたけど直らず・・・。
3日間が無駄に。。。
仕方ないので諦めて、最初から回して検証してみたんだけど、
Pretrain> Train> 1回目の自動保存の前にPを押すと再現。
1回自動保存が終わった後だったら、P押しても真っ黒にならず。
これって既知?? そもそもpretrain終了後も何日か回さなきゃダメじゃないのか
なんですぐマージしたんだ ディスコでblackで検索かけたら同じ様な人いたけどdstもsrcの学習もどこかの段階で崩壊してるのは確定だな
dimsとかの設定が高すぎると起こる事もあるみたいだからGPUとモデル設定の画像あればもっと原因分かりやすいかも
本トレインでプレビューの更新押さなければ大丈夫なら崩壊を防ぐ設定のclipgradをオンにして回していけないかね
誰か次スレ頼んだ このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 425日 19時間 55分 54秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。