X



【質問】dfl【その3】
レス数が1000を超えています。これ以上書き込みはできません。
0001名無しさん@お腹いっぱい。垢版2020/12/13(日) 21:02:14.37ID:faeRPvMB0
DeepFaceLab(以下、DFL)の質問&回答スレです

・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。

・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。

・RTXシリーズでも動くの?
FS、DFL共に動く。
0002名無しさん@お腹いっぱい。垢版2020/12/13(日) 21:03:30.09ID:faeRPvMB0
・作るのにどれくらいかかる?
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。

・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。

DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://github.com/iperov/DeepFaceLab
https://mrdeepfakes.com/forums/thread-1-1-sfw-guide-deepfacelab-2-0-guide-recommended-up-to-date
https://mrdeepfakes.com/forums/thread-3-1-sfw-guide-how-to-make-celebrity-datasets-guide
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
https://seesaawiki.jp/dfl/
0003名無しさん@お腹いっぱい。垢版2020/12/13(日) 21:05:20.53ID:faeRPvMB0
リクエスト禁止
DFLとかAIとかに文句つけるのは禁止

技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須

ダウンロード方法
https://mega.nz/folder/Po0nGQrA#dbbttiNWojCt8jzD4xYaPw

インストール方法
ダウンロードした
DeepFaceLab_CUDA_build_date.exe をダブルクリックし自己解凍形式)、D:\(Dドライブなどルート)などに解凍する。
0004名無しさん@お腹いっぱい。垢版2020/12/13(日) 21:06:09.28ID:faeRPvMB0
動画制作のおおまかな流れ
1.素材を準備する
2.素材動画を全フレーム画像で書き出し
3.顔部分のみを抽出
4.誤検出された画像を削除
5.学習させる(train)
6.顔を移植した画像を書き出し(convert)
7.書き出した画像を動画にする
0009名無しさん@お腹いっぱい。垢版2020/12/15(火) 06:18:15.66ID:aa22ZlrX0
顔が画面からフェードアウトするときのことで質問があります。

顔が画面の2/3消えたくらいでsrcへの置換がされずdstの顔が表示されます。
その部分だけマニュアルで顔を切り取っdstのalignedフォルダに追加しましたが、
mergeすると相変わらずdstの顔のままになっています。

alignedフォルダに入っている画像の部分を置き換えてくれるのかと思っていましたが違うのでしょうか?
ファイル名は動画の流れに合うように連番になっています。
0010名無しさん@お腹いっぱい。垢版2020/12/15(火) 07:45:47.08ID:kZfxVZgL0
マニュアルでっていうのはRe〜みたいなデバッグ消したファイルをextractするbat実行したってこと?
それとも例えばwinPhotoみたいな他のソフトでトリミングした画像の名前だけ変えてalignedに入れたってこと?

前者ならわからん
後者なら意味ない
0013名無しさん@お腹いっぱい。垢版2020/12/15(火) 09:32:22.61ID:aa22ZlrX0
すいません、途中で送ってしまった・・・

マニュアルの意味は
5) data_dst faceset extract MANUAL.bat
でファイルを作ったということです。

11さんが言ったDFLで手動抽出とはこれを使うということですよね?
0014名無しさん@お腹いっぱい。垢版2020/12/16(水) 00:42:36.29ID:ztwcSGgL0
5) data_dst faceset extract MANUAL.bat
は使用した事は無いのですが
とにかくDFLで抽出すればいいのでしょう
何か、DFLで抽出した顔のローテーションが違うとかで
勝手に回転させたりしたりはだめだとか
debugから消して、手動再抽出とかは上手くいっています
0015名無しさん@お腹いっぱい。垢版2020/12/16(水) 14:22:06.27ID:RFv2Li0A0
今年の8月からDFLをアップデートしていないのですが、改良はされてますかね?
0016名無しさん@お腹いっぱい。垢版2020/12/17(木) 01:37:53.71ID:NxWOtusT0
08_02_2020使用していますが
hdアーキの代わりに-udとか
軽くなってlr_dropout=Trueに最後していい感じ
Xsegはなかなかいいんじゃないですかね
0017名無しさん@お腹いっぱい。垢版2020/12/17(木) 02:38:10.76ID:nZutQQ6b0
質問なんだが、この画像のあとKeyを押すと進めない

この現象になるときと、trainでちゃんと学習するときがあっておそらくは作業中に強制終了させたりするとこの現象が起こると思ってるんだが、本当にこれが理由であってるんだろうか?

それと、この現象に陥ったときに1から始めるの面倒なんだが方法ってない?
0019名無しさん@お腹いっぱい。垢版2020/12/17(木) 20:56:32.53ID:KusLfrvY0
お前は二度と来るな!!!
0021名無しさん@お腹いっぱい。垢版2020/12/17(木) 23:14:09.49ID:hXxkmTMU0
もしかしたらとてもレベルの低いことかもしれないけど質問させてください。

dst素材で顔に手が被っている場合の対処としては、
XSegで手の部分を顔以外(破線の囲い)と指定してやればいいのでしょうか?
(素材数枚でやる必要あり?)
0022名無しさん@お腹いっぱい。垢版2020/12/17(木) 23:24:28.31ID:KusLfrvY0
なんでやる前に質問するんだよ
0023名無しさん@お腹いっぱい。垢版2020/12/18(金) 19:08:25.22ID:jVkj4tZx0
21です。
22さん、ごもっともです。
実はやってはみたんですが、上手くいっていません。
それの原因が回数なのかmaskの当て方なのかそもそものmaskの考え方が違うのかわからず、
あのような質問になりました。
0027名無しさん@お腹いっぱい。垢版2020/12/19(土) 21:08:03.29ID:D0kdx6n60
それは自由だ
大体眉に髪かかってるの多いから避けるのが無難と思う
0032名無しさん@お腹いっぱい。垢版2020/12/19(土) 22:41:01.14ID:Wt8/fXrj0
あれ?ちょっと思ったんですけど、
フェイスタイプはFで基本やってたんですけど眉から下でマスクするならHにしちゃっていいんですよね?
0037名無しさん@お腹いっぱい。垢版2020/12/26(土) 11:25:01.65ID:2VH+8smV0
別スレでAdaBeliefで学習が速くなると聞いて、最新版を試したけど
特に速くなってなくない?

ただEyes priorityがEyes and mouth priorityに変わってて、前は口が微妙に
ずれてる場合があったのが、うまく入れ替わってる
0038名無しさん@お腹いっぱい。垢版2020/12/27(日) 15:10:55.43ID:nyl/b2Pw0
AdaBeliefは理論的には速くなってるはずだけど、dflがそんなに効率よく取り入れてるかどうかはわからない
反復が速くなるんじゃなくて、loss値が下げ止まるまでが速い感じだと思う
0039名無しさん@お腹いっぱい。垢版2020/12/28(月) 15:07:20.09ID:knwf3sOp0
質問させて。
過去スレにあったdst×dstのやつ。

dst×dstで、
liae-ud、Full Face、RW Trueで始め。
0.5切ったらRW False。
0.2切ったらLRD true。0.1切るまでtrain。

その後に、srcフォルダに入っているdst画像は全削除で、
好みのsrc画像入れるであってますか?

src画像に切り替えるタイミングと、
srcフォルダのdst画像は全削除でよいのかが分からないのです。

宜しくです。
0040名無しさん@お腹いっぱい。垢版2020/12/28(月) 15:12:39.58ID:s3HDd8Cy0
日記君登場!
0041名無しさん@お腹いっぱい。垢版2020/12/28(月) 15:16:58.59ID:knwf3sOp0
すまない日記さんとやらではないです。

初期設定で0.2くらいまでtrainして、
srcフォルダの画像切り替え。
その後に、RWやLRDのパラメーター変えて、0.1までtrainかな。

試してるんですが、いまいち上手くいがず迷ってます。
0042名無しさん@お腹いっぱい。垢版2020/12/28(月) 21:25:25.38ID:Abx4SwYw0
dstxdstをどこまでやるかは、人それぞれでしょう
プレビュー画面見ながら自分で判断するしかない
場合によっては、一度その状態でmargeして、仕上がり具合を見る
このタイミングで、dstの顔で違和感なく動画が作成できるなら良しとするのもアリ

srcのaligned画像を入れ替える時は、dstの画像は全て削除
0043名無しさん@お腹いっぱい。垢版2020/12/29(火) 08:16:49.11ID:ZYoYNgkw0
>>42
dst画像は全削除でよかったんですね。
ありがとうございます。

プレビュー確認し、途中でマージしてみる。
分かりました。ありがとう。
0044名無しさん@お腹いっぱい。垢版2020/12/29(火) 10:27:32.77ID:UQjgRLtJ0
dstのコピーとか削除とかやらずにバッチファイル内のsrcとdstのフォルダを同じにすればいいだけじゃないの?
まぁ未だにdstxdstとか謎技術を信奉してるのあいつぐらいだけだと思うけど
0045名無しさん@お腹いっぱい。垢版2020/12/30(水) 12:31:43.43ID:1XD/DpP60
掲示板どこも止まってる?

マージするとき、ツール使ってフレームごとに設定するプレビュー画面で、
dst画像に、src画像がはまってないというか、
位置がずれる現象が。
外側の四角いランドマークな位置が思いっきりずれてるんです。
こんな経験あります?
0047名無しさん@お腹いっぱい。垢版2020/12/30(水) 17:30:34.24ID:tMTsPyYn0
>>46
返信ありがとうございます。
srcとdstのランドマーク確認しましたが、
おかしいのないんですよ。
すこしズレるんでなく、全体的にズレてるんです。
対象は真ん中なのに、5かな、押すと四角い枠が半分だけ見えるんです。
また1から作り直してみます。
0049名無しさん@お腹いっぱい。垢版2020/12/30(水) 19:21:21.77ID:gK81YVBv0
>>48
ごめんなさい
data_dst.mp4というより、そこからコマごとに切り出した画像群が顔抽出時〜mergeで構成が全く同じであるか?ですね
0050名無しさん@お腹いっぱい。垢版2020/12/30(水) 20:37:59.31ID:s24E4MLf0
>>49
返信ありがとうございます!
dstもsrcも編集してないんです。
不思議なのはプレビュー(一番右)は上手く出来てるやうに見えるんです。
んで、マージで手動のツールで見ると、いわゆるdstしか表示されない。
5押すとマスク?表示されますよね。
それ見ると違うとこに四角の一部がでるんです。
壊れちゃったのかな。ちなみに50万くらい回して、0.12くらいです。
0051名無しさん@お腹いっぱい。垢版2020/12/31(木) 11:12:56.21ID:CSbjdsl+0
おま環だな
0052名無しさん@お腹いっぱい。垢版2021/01/04(月) 13:50:37.88ID:DXZqWVCn0
== 04.01.2021 ==
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。
0053名無しさん@お腹いっぱい。垢版2021/01/08(金) 07:16:50.90ID:ZrmCeq1m0
dstとsrcを1枚でやったらめっちゃ早く静止画のコラできるんじゃないかと思ってやってみたけど、
1回当たりの時間はそんな変わらないんだな。
これが俺のPCの性能ってことか。
0054名無しさん@お腹いっぱい。垢版2021/01/09(土) 00:49:44.07ID:fBepmN1R0
メモリ8×2,gpu8 のマシンで動かしているのですが、メモリ使用率が90%、gpu使用率が15%程度なのですがこんな物なのでしょうか?
gpuの使用率を上げる方法ありましたらご教示いただきたいです
0055名無しさん@お腹いっぱい。垢版2021/01/09(土) 01:41:01.75ID:b3UZuNTN0
タスクマネージャーのGPU使用率は当てにならない
ELSA GPU Optimizerみたいの使ってみて
0056名無しさん@お腹いっぱい。垢版2021/01/09(土) 02:30:36.20ID:J7ol4gHn0
動画からの画像抽出をGPUで行うことはできないのでしょうか
jpgなら大した負荷はかからないのですが
pngだとファンが高速で回りCPU使用率が100%付近に張り付きます
可能であればどのファイルのどの項目を触ればいいかご教授下さい
0057名無しさん@お腹いっぱい。垢版2021/01/09(土) 05:59:01.12ID:Ws9CPkEd0
trainの途中でアーキテクチャをliaeに変えたいんですが、
いじるファイルはmodelフォルダのSAEHD_data.datでいいのでしょうか?
テキストで開こうとすると文字化けするのですが、何か専用のソフトが必要でしょうか?

また、文字化けながらもそれっぽい記載があったので、df→liaeに変えたのですが、
エラーが出てtrainできませんでした。
やはり文字化けの中変えるのはダメでした。。。
0058名無しさん@お腹いっぱい。垢版2021/01/09(土) 10:06:15.87ID:b3UZuNTN0
>>57
不可能
0060名無しさん@お腹いっぱい。垢版2021/01/09(土) 12:59:18.51ID:Ws9CPkEd0
>>58
できなかったんですね。ありがとうございます。
以前dataファイルをいじって設定を変えると見た気がしたので探していました。
train最初の段階で決めておかないとダメなんですね。
やり直します。
0061名無しさん@お腹いっぱい。垢版2021/01/10(日) 11:46:47.48ID:a/Mpc8zA0
rtx3090使ってる人Xseg使えてます?
うちの環境だとgpuスケジューリングONにしたら使えるんだけど
タスクマネージャからcudaの項目が消えて、3dで使用されてるのが気になります
0062名無しさん@お腹いっぱい。垢版2021/01/10(日) 12:07:59.77ID:YmtG7pSH0
>>55
0063名無しさん@お腹いっぱい。垢版2021/01/10(日) 17:38:20.88ID:S6XwlXVn0
俺の3080も確かに3Dが使われている
というか、そもそもcudaの項目がなくなっとるぞ
0065名無しさん@お腹いっぱい。垢版2021/01/10(日) 23:01:04.87ID:S6XwlXVn0
>>64
最近までxegが動かない問題があったけど
最新版でGPUスケジューリングをONにしろって
て表示が出ててきてONにしたら動くようになったよ。
俺の3080はもう問題なし
0066名無しさん@お腹いっぱい。垢版2021/01/10(日) 23:04:30.82ID:a/Mpc8zA0
色々と調べてみましたが3000台は学習初動でvram使用計算にバグあるっぽいですね
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます
0068名無しさん@お腹いっぱい。垢版2021/01/10(日) 23:16:58.06ID:S6XwlXVn0
>>66
凄く有益な情報ありがとう
いままでHEADだと256*4bachが
限界だったのに320*8でも動くようになったよ
3080tiが出るまで待とうと思ってたけど、
必要なくなったw
0069名無しさん@お腹いっぱい。垢版2021/01/13(水) 03:27:20.99ID:BcOqF2sv0
>>65-68
どうもありがとう
確かCudaコアが倍増とか??1 Iterも短縮?
消費電力は減るはVRAMは増えるは安くなるはで前世代から見て改善だらけかな?
0071名無しさん@お腹いっぱい。垢版2021/01/13(水) 09:51:29.09ID:xmKQtiaT0
顔抽出の精度って学習されないんでしょうか?
debugフォルダ見たら何回やっても失敗が多いんですが。。。
0074名無しさん@お腹いっぱい。垢版2021/01/17(日) 23:32:57.31ID:GF9iGrUJ0
顔画像をheadで切り抜きしてるけど上下にすごい余白ができる
余白ギリギリで切り抜いてほしいんだけど、調節する方法あるかなぁ?
0075名無しさん@お腹いっぱい。垢版2021/01/17(日) 23:57:25.58ID:2v/zwxJ80
>>74
headはそもそも頭部全体を切り抜くってアルゴリズムだから余白が多いのが当然だろ
head>Whole>full>harfで範囲が小さくなるんだから変更するしかないんじゃない?
0076名無しさん@お腹いっぱい。垢版2021/01/19(火) 00:28:39.19ID:LTGWcQnS0
>>75
そりゃそうだが縦幅の半分近く無駄にしている。
おかげでVRAM馬鹿食いの割に低解像度。
もうちょっと何とかなりそうだと思うが。
0078名無しさん@お腹いっぱい。垢版2021/01/19(火) 22:18:21.22ID:LTGWcQnS0
3080Tiが無期限延期になってしまった
3090にせざるを得ない
0079名無しさん@お腹いっぱい。垢版2021/01/19(火) 23:21:07.32ID:SW7ZtdJ70
ReadyToMerge model 良さそうだね
0081名無しさん@お腹いっぱい。垢版2021/01/20(水) 19:37:33.17ID:E0VTRomg0
俺はここにいるぞ
0082名無しさん@お腹いっぱい。垢版2021/01/20(水) 21:12:28.49ID:Eo6BWrtN0
ReadyToMergeモデルってのはごく少ないtrain回数で高品質なマージができるって意味?
特別なプログラムがあるわけじゃなくて、効率的なtrainのやり方って感じかな。
0083名無しさん@お腹いっぱい。垢版2021/01/21(木) 09:44:21.31ID:xgOvuSRQ0
RTMmodelはパターン豊富なsrcとdstにPretrain用データを使って事前に十分学習させとけば、本番のdstで全く学習せずにいきなりmergeしてもいい感じに合成できるよってことで合ってる?
0086名無しさん@お腹いっぱい。垢版2021/01/23(土) 09:02:57.54ID:fUZZe34M0
>>85
確かに背景と髪の境界線は多少ちらつくので気になる人は映像処理するといいかも。
自分は我慢できる範囲。そこはデメリットかな。ちなみに顎と首の境界線はwf同等なので
だいじょうぶ。マスクはwfよりかはxseg-editの枚数増える感じ。なによりもdst関係なく
本人そっくりになるのがメリット。
0087名無しさん@お腹いっぱい。垢版2021/01/23(土) 11:35:03.15ID:6S5RB2j60
>>86
ふだん、耳・前髪・横髪含む前頭部とメガネ残しでxseg-editして、wfで回してるんだけど
趣旨考えるとやっぱりheadに移行したほうがいい結果いなりそうだな
xseg-editも髪の残す境界に悩まず全部マスクできれば枚数増えても逆に楽になるのかな
寝てる時とかの逆立ち毛や、長髪についても抽出した画像内では全部頭部としてマスク内に残してやってる?
0088名無しさん@お腹いっぱい。垢版2021/01/23(土) 11:52:56.82ID:Wkj8eEdW0
てかヘッドってsrcの髪型も揃えるんよね?
resなんぼでやってる?
224とかじゃ小さ過ぎるか
0089名無しさん@お腹いっぱい。垢版2021/01/23(土) 14:18:05.56ID:fUZZe34M0
髪は長髪でも頭部としてマスクしています、さすがにすこし乱れているのまでは
カットしてますが。xsegが思ったよりすごくて、長髪でもちゃんと学習してぴったり
合ってくるのは驚いた。マスクはdstもsrcも両方必須ですね。resは448です。
mrにあるpretrainモデルもheadだと少ししかないのであまり選択の余地はないですね。
0090名無しさん@お腹いっぱい。垢版2021/01/23(土) 14:37:43.30ID:Wkj8eEdW0
>>89
448は俺のpcじゃ無理だ!
GPUは3090ですか?
0092名無しさん@お腹いっぱい。垢版2021/01/23(土) 15:11:05.79ID:XmNWxByt0
headて短髪インタビューじゃないと厳しいかなと思ってたんだが凄いな
マスク処理、448のトレイン
作るのにどれくらいかかるんや...
0094名無しさん@お腹いっぱい。垢版2021/01/23(土) 16:31:38.58ID:fUZZe34M0
>>90
gpuはそうです。wfで満足したかったが、dstの相性が悪いのか、モデルが似なかったので
やむなくですね。
0095名無しさん@お腹いっぱい。垢版2021/01/24(日) 09:34:39.67ID:PR92PFvw0
俺の3080(VRAM10GB)ではres352のbatch4でギリギリ回る
res448なら16GBは最低必要だろうね
8GBのグラボでSLIを組むか、3060の発売を待つか、3090がいいだろうね。
0096名無しさん@お腹いっぱい。垢版2021/01/24(日) 10:26:30.03ID:Vxr9RyIP0
2080tiどころかTITAN Xでも怪しいくらいか
3080tiは凍結っぽいし現状は3090になるな
Vramもメモリ増設くらい簡単に増やせればいいのに
0097名無しさん@お腹いっぱい。垢版2021/01/24(日) 10:49:05.70ID:GaLlRUJ/0
これのために3090買えてマスクに時間かけられるやつがどれくらいいるかだな...
使えるシーンも限定されるだろうし
0098名無しさん@お腹いっぱい。垢版2021/01/24(日) 14:16:52.68ID:PR92PFvw0
>>96
TITAN RTXならアリだね、
パソコン工房で14万で販売されてた形跡がある
演算速度は3080に負けるらしいけど、14万なら魅力的。
0099名無しさん@お腹いっぱい。垢版2021/01/24(日) 21:00:07.87ID:GAwZNhtZ0
>>89
情報ありがとう!やってみてダメだった時の徒労感が嫌で忌避してたけど
headでやってみる気力がわいてきた!

>>95
1080ti(11G)でliae-ud、res384、ae等デフォ、batch5は行けそう
adabelief切ればres416ならどうかなっても思ったけど、切る気にはならなかった。
0100名無しさん@お腹いっぱい。垢版2021/01/24(日) 23:04:26.06ID:u14CN91H0
mrにはheadであと 320と240の pretrain済モデルがあるので
自分の環境に合ったので試してみるといいかも。
0103名無しさん@お腹いっぱい。垢版2021/01/30(土) 01:06:24.02ID:qNhMh9NT0
モデルの使いまわしをしてるんですが、プレビュー上のグラフ表示だけリセットする方法ってないですか?
まぁ気にするなって話なんですが
0105名無しさん@お腹いっぱい。垢版2021/01/31(日) 10:32:33.04ID:qldx7Bc70
俺は高解像度だとプレビューの顔画像が1個になるのを何とかしたい
0106名無しさん@お腹いっぱい。垢版2021/02/06(土) 20:31:00.06ID:7UxgC66u0
フォーラムに上がってるジェネリックxsegの使い方がよくわからないんですが
modelフォルダに突っ込んでマージするだけでsrcとdstにはxsegマスクを
特に必要とせず済むように使うためにあるんですか?
それとも5.XSeg.optional) trained mask for data_src - apply等を実行して
srcやdstに適応してからまたxsegのtrainをしてやる必要があるんですか?
0107名無しさん@お腹いっぱい。垢版2021/02/06(土) 20:44:24.21ID:C9Pbm6kr0
やってみれば良いんじゃないの
恐らくフォルダに突っ込んどけばマージは出来る
でもapplyした方がtrainの効率は良いだろう
0110名無しさん@お腹いっぱい。垢版2021/02/07(日) 17:19:02.06ID:EISinFZl0
>>2のフォーラムのtools and appsに前から専用スレッドがたってる
スタンドアロンツールとオンラインサービスがある
オンラインのやつはコツ掴めば中々すごい画像を生成する
解像度が600*600と低いが..
0111名無しさん@お腹いっぱい。垢版2021/02/07(日) 17:25:32.17ID:EISinFZl0
現状解像度低いから、興奮するのかも知れんが
顔入れ換える系は高解像だから、顔にあったボディをしっかり選ばないと俺の脳は受け付けないのかもしれん
0112名無しさん@お腹いっぱい。垢版2021/02/07(日) 22:54:52.32ID:5hohS1jB0
すみません
headで学習してますが、いざmergeSAEHD実行してもdstの顔しかでてきません
dstもsrxもheadで切り抜いてます。
対処方法教えてくださいませんか
0114名無しさん@お腹いっぱい。垢版2021/02/08(月) 02:09:41.03ID:t6ym3FLe0
trainの下準備みたいなもんだから、その知らん外人でtrainするのがpretrain
0118名無しさん@お腹いっぱい。垢版2021/02/08(月) 20:24:06.83ID:GUE+qRrc0
pretrain用のpakの中身は「自分が過去に使ったsrc/dstを適当に混ぜた物」と入れ替えるのお勧め
loss値じゃなくて、previewでキツい角度や表情がキレイになる位まででおk
0123名無しさん@お腹いっぱい。垢版2021/02/11(木) 10:08:17.03ID:ykF3+vXs0
だからみんなpretrainでアップしてるのか
pretorainの効果って今一つわからないのですが、結局Iter1から自分でやるんですね
train時間短縮で使いまわせらたと思ったのですが
0125名無しさん@お腹いっぱい。垢版2021/02/11(木) 17:09:50.55ID:EWg0+ITJ0
pretrain無しで一から回してみればいいと思うよ
未実装だった頃は200k回してやっと何となく見れるレベルって感じだった記憶がある
0126名無しさん@お腹いっぱい。垢版2021/02/13(土) 10:01:23.08ID:UyM85h3B0
いろんなsrc、dstを混ぜて、Trainモデルをアップすれば、
誰が誰だか分からない平均顔?
捕まるかな?
0127名無しさん@お腹いっぱい。垢版2021/02/13(土) 18:30:19.20ID:hRYiEizk0
Mask Editorで画像を確認するとき、一気に画像を飛ばすキーとか無いですかね・・?
3万枚とか、ずーっとDボタンを押しっぱなしで確認するのしんどい。
解像度1024だと送りのスピードも遅いし。
0128名無しさん@お腹いっぱい。垢版2021/02/13(土) 18:45:24.37ID:+mwpZ2KX0
shiftDでちょい速くなる程度か
最後の方だけ確認したい時なんかは前半の画像を別フォルダに逃したりしてるわ
0130名無しさん@お腹いっぱい。垢版2021/02/14(日) 14:59:32.16ID:VDn4FPbX0
メモリが多いとbatch数増やせるから
その分trainは早く終わる
1070無印から3090に載せ替えたけど
3〜4倍のbatch数で動いたよ
cudaコアも5倍なのでかなり速くなった
寝る前にtrain始めて起きたら完成していると言ってた人がいたけど
自分も同じ感じ
3080は持っていないのでわからない
0132名無しさん@お腹いっぱい。垢版2021/02/14(日) 17:55:23.04ID:+Be3z2U10
だろうね
0135名無しさん@お腹いっぱい。垢版2021/02/14(日) 19:03:54.39ID:+Be3z2U10
オフにする意味がないよね
0137名無しさん@お腹いっぱい。垢版2021/02/15(月) 17:24:25.52ID:suE851DB0
グラボ更新ついでに最新版にアプデしたらプレビューが5×5マスでなくて、
srcの2×2部分しか表示されなくなったんだけどそういう設定かなんかあります?
0139名無しさん@お腹いっぱい。垢版2021/02/20(土) 16:30:38.36ID:NUHj5Eln0
すみません。
headをためしてますが、プレビューで顔が崩壊してます。
xsegでもっと枚数範囲指定せんとダメでしょうか
0140名無しさん@お腹いっぱい。垢版2021/02/20(土) 16:57:12.66ID:dGfdqg3/0
オレもhead挑戦中
まだ途中だが、プレビューで崩れた顔が出てくるので、Xsegに戻ってeditしながら再train中
0141名無しさん@お腹いっぱい。垢版2021/02/20(土) 18:29:20.29ID:i6nh76Ki0
基本的には短髪スーツのオッサンがスピーチしてる動画しか想定されてないから…
余程src/dstの条件が一致してかつ、正面に近い物しか無理
0144名無しさん@お腹いっぱい。垢版2021/02/20(土) 18:54:53.84ID:qbjgYPuG0
fしか使ってないわ
日本の女性アイドル使ったheadの完成品があれば見てみたいわ
0146名無しさん@お腹いっぱい。垢版2021/02/20(土) 21:17:33.60ID:i6nh76Ki0
>>143
スマホとかのfirmwareみたいに、常に最新が良いと思いがちなのかも
要は用途に適した環境が大事な気がする 自分は最新も確認しつつliaechでrawが多い
0147名無しさん@お腹いっぱい。垢版2021/02/20(土) 22:01:08.68ID:dGfdqg3/0
headなら、顔の輪郭まで持ってけそうだと思ってやってるけど、まだmergeまで行ってない。
ま、最近忙しくて、作業を進められてないのが原因だけど。
df faceのmodelなら3人作ったし、結構短時間で新作作れるけど、顔の輪郭で不満が残る場合があり…
0148名無しさん@お腹いっぱい。垢版2021/02/20(土) 22:32:16.99ID:qbjgYPuG0
顔の輪郭までならheadである必要もないかと思う
>>146でも書いてあるけど新しいバージョンが上位互換というわけでもないし
おでこに髪がかかるようなsrcはfを使うのがベストと作者も言ってた気がするし、fから進めない
0149名無しさん@お腹いっぱい。垢版2021/02/20(土) 23:11:22.18ID:0Y0LlUwk0
自分も眉毛の下でmaskするからextractはwfだけどarchiはずっとfだな
ただheadだと輪郭前髪ごと移植できるみたいだから気にはなってる
0152名無しさん@お腹いっぱい。垢版2021/02/23(火) 14:31:10.89ID:HptXYUfd0
3070で顔の切り抜きの速度1.2it/sって普通なんですかね?なにか自分の設定が悪いのでしょうか
0153名無しさん@お腹いっぱい。垢版2021/02/23(火) 14:42:46.30ID:U2LAwJeT0
それで普通
extract faceはGPUもCPUも全然性能使い切ってくれないから遅い
0154名無しさん@お腹いっぱい。垢版2021/02/23(火) 15:42:09.97ID:vC0XWc3F0
色々試してみて感じたのは
DFLの最大の弱点は顔抽出の精度
Xsegみたいにユーザーの手動検出を元に学習とかできないのかな
0157名無しさん@お腹いっぱい。垢版2021/02/23(火) 18:01:04.86ID:U2LAwJeT0
口が隠れてると手動での検出すら厳しくなるね
2年ぐらい使ってるけど、この辺は一切進化してない
作者がいじれない所らしい
0160名無しさん@お腹いっぱい。垢版2021/02/23(火) 19:21:46.48ID:aEGVTsnr0
予想だけどA,B両方抽出してBのalignedとdebug消してAをXに変換→result出力
そのresultからX,Bを抽出してXのalignedとDebug消してBをYに変換
みたいな流れじゃないかな
0161名無しさん@お腹いっぱい。垢版2021/02/23(火) 20:01:58.00ID:09NP18fj0
src(芸能人)は小顔で目が大きい→dstは顔が大きく目が小さい→trainでdstのlandmarkサイズを基準に学習→マスク外のサイズが微妙になる…
0164名無しさん@お腹いっぱい。垢版2021/02/23(火) 22:46:33.38ID:aEGVTsnr0
輪郭に合わせるとなんか巨頭オみたいになって違和感バキバキの時あるね
特に上から見下ろすシーンが気持ち悪くなる気がする
0165名無しさん@お腹いっぱい。垢版2021/02/24(水) 00:35:41.01ID:voql3v5b0
自分も時々起こるので、対策が知りたい。
dstのマスクが大きくて、srcが小さいので、Jで大きくして間を埋めようとすると
頭でっかちになってしまう症状。あごと首のラインのところでおかしくなるんだよなあ。
rawで出力してdavinciresolveで合成するとかなりましになったので、起こったときの
対策はとりあえず、そうしている。
0166名無しさん@お腹いっぱい。垢版2021/02/24(水) 00:44:32.35ID:5uy8zOgB0
後は、fullfaceのrect範囲(赤枠)の大きさがmanualでも小さい場合も多い 特に横顔とか口を大きく開けてる画
headとかだと素材の制限が増えて違うし
0167名無しさん@お腹いっぱい。垢版2021/02/25(木) 00:09:52.18ID:FBZpMjjH0
>>153
そうなんですね。ありがとうございます
0171名無しさん@お腹いっぱい。垢版2021/02/26(金) 11:54:05.74ID:9SZ6Yb570
遅ればせながらhead試してみた
髪の色と長さが合っていれば本人そのものを再現できてよいですね・・・
ただ、やはり先人のコメントのとおり注意点、制限も

・同一ソースからのsrc抽出が必要
(複数ソースだとsrcの髪型に一貫性がないため、mergeしたときに髪の毛が薄く生えたり
 濃く生えたりする箇所が出てきて変になる)
・動きが少なく正面シーン中心じゃないとmergeが滲みやすい
0172名無しさん@お腹いっぱい。垢版2021/02/26(金) 15:24:46.03ID:kG+E1Neq0
head試してたんだけど、train200万回近く回してもクリーチャー顔がいくつか残り、いまいにはそれが増えだしたから一時凍結したわ
0175名無しさん@お腹いっぱい。垢版2021/02/26(金) 19:43:02.95ID:AFL65++U0
森七菜ちゃん可愛いね
0176名無しさん@お腹いっぱい。垢版2021/02/26(金) 22:21:14.19ID:ySOdKgO70
Xsegあまり鍛えられていないので(手作業が面倒)
前髪、舌、笛があまりうまくいっていない(ボケる感じ?)

あと、額とかの色合わせとか。。

動画編集ソフトとか?
使い方が謎です。。
簡単に教えてはもらえませんし
0177名無しさん@お腹いっぱい。垢版2021/02/26(金) 22:57:56.31ID:AFL65++U0
Xsegでマスクするだけだろ
0178名無しさん@お腹いっぱい。垢版2021/02/27(土) 10:23:55.84ID:u0B7HciK0
Xseg で要所要所をマスクしても、前後のフレームがまったく顔検出出来ないことがあるんだが何でだろう?
あれって、同じような構図のフレームは、1フレームだけ指定すれば、ほかのフレームは同じように学習してくれると思ってるんだけど違うの?

結局、ほぼ全フレームに近い形でマスクしないと思ったようにならなくてチョー面倒なんだけど(涙
一部のフレームだけ指定すると、dst のままのフレームがたくさんあって src の中に dst がちらちら入り込んじゃう。
何か、やり方間違ってるのかしら。。。
(もちろん、本学習の前に Xseg の train・fetch・apply はしてる)
0179名無しさん@お腹いっぱい。垢版2021/02/27(土) 11:18:46.06ID:cyYZh7yu0
xsegはsrcとdst分けて学習したほうが楽
あと、xsegはすぐに過学習になるから汎用性がなくなってきたら
リセットしてやり直さなきゃいけない
0180名無しさん@お腹いっぱい。垢版2021/02/27(土) 12:24:37.05ID:zAwQXJd/0
>>178
その現象、自分も経験した
自分の場合は、Xsegしたコマに、実線で囲まれた領域が無くて、破線で囲まれた領域のみのやつが混じってたせいだった
0183名無しさん@お腹いっぱい。垢版2021/02/28(日) 01:28:46.03ID:+h1/tT500
>>179
俺はmodelも手動指定した画像も流用しまくってるけど問題ないよ
200万回ぐらい回したmodelで過去のdstで手動指定した画像300枚くらいと新規のdst参照するようにして回せばbatch13なら10分も回せば十分はっきりマスクされる
それまでに手動でやってないパターンのマスクは流石に無理だけど
0185名無しさん@お腹いっぱい。垢版2021/02/28(日) 12:54:57.48ID:gp9MsIgc0
>>184
2時間くらいでおk
0186名無しさん@お腹いっぱい。垢版2021/02/28(日) 16:27:35.55ID:Q0/+ToJZ0
これ、そっくりになるね。始めたばかりだけど、その辺のサイトに落ちてるのより自分でやった方が似てると思う
0187名無しさん@お腹いっぱい。垢版2021/02/28(日) 16:35:48.12ID:hw3Z62AE0
>>178
似たような構図でも目が開いてるか閉じてるかだけでもマスク範囲が変わるんで別物として編集する
XSegの注意点として例に挙がってるのが、目の開閉・顔の向き・照明条件
最初のうちはかなり面倒くさいけど地道にサンプルを増やしてくしかない
0190名無しさん@お腹いっぱい。垢版2021/03/01(月) 15:12:55.15ID:D/1OsYiq0
最新版で1か月ぐらいheadに挑戦してたけど結果が良くないので、Fansegラストビルドの20200327に戻ってる
で、最近Train中にプログラムがいつの間にかフリーズしてる現象が多発なんだけど、同じ状況の方いますか?
0191名無しさん@お腹いっぱい。垢版2021/03/01(月) 15:22:16.49ID:cWOtQJ+p0
それに該当するかはわからんけど、train中にcmdの黒画面を触っちゃって中断状態になる事がある
その時は同画面アクティブで適当なキーを押せば再開する
0192名無しさん@お腹いっぱい。垢版2021/03/01(月) 17:11:08.95ID:9yegWZFy0
再挑戦したいんですが、AMDRYZENでdfl1.0使ってて教えられるよ、ってかたいませんか?
当方は趣味で動画編集してるくらいの無知なのですが
0195名無しさん@お腹いっぱい。垢版2021/03/01(月) 18:32:48.31ID:oQcdpcaE0
GPU無しは厳しいだろうな
0196名無しさん@お腹いっぱい。垢版2021/03/01(月) 18:45:19.47ID:OpPLjOf30
RadeonじゃなくてRyzen?Threadripper ならいけるか?
そんなことするくらいなら1080tiの中古でも買った方が良さそうだけど
0198名無しさん@お腹いっぱい。垢版2021/03/01(月) 20:10:19.68ID:5SHA7bHi0
そこらへんのサイト見てわからないのは知らない言葉の数だろ?
知らない言葉全部聞く気か?
そんな他力本願のやつに教えるのにどれだけ時間かかるか想像してみ
本当に作りたきゃ調べる努力をしてわからないことを聞きなよ
0200名無しさん@お腹いっぱい。垢版2021/03/01(月) 22:41:09.45ID:oQcdpcaE0
fan-dstも残してくれれば良かったのにね
でもXSegの方が明らかに高機能で、フェラもベロチューも違和感なく出来るからオススメ

ただフェラもキスもextractが異常に下手クソなんだよな
0201名無しさん@お腹いっぱい。垢版2021/03/02(火) 00:13:05.24ID:pHrB2/op0
別に機能はxsegもfansegも全く同じだぞ
extractはmanualのAを使ったことが無い、使える画の選定がグダグダだと話にならんけど
0202名無しさん@お腹いっぱい。垢版2021/03/02(火) 00:39:45.95ID:JUyU4u280
話の通じないやつだな
0203名無しさん@お腹いっぱい。垢版2021/03/02(火) 04:00:30.60ID:yfmelPEV0
別途、舌と思われるパターンをXsegマスクするツールが欲しいな。。
ランドマークが入らないので、難しい、できないのでしょうか?
前髪も同様。前髪ありは日本人、韓国人くらいかな。。
0205名無しさん@お腹いっぱい。垢版2021/03/02(火) 20:30:03.39ID:z+w1WYUO0
俺もheadやってみたが、確かに上であがってるような一長一短。
200k程度回して簡単な角度なら最高だけど、ちょっとでも角度がきつくなるとクリーチャーに。
Xsegのサンプル数も多く、とにかくなにより抽出の精度が異常に悪く、相当数手作業になる感じだな。
srcセットには出来る労力だけど、数多くのdstセットに同じ労力使えるかといわれると…
だがツボはまるとこれはつよい…
0206名無しさん@お腹いっぱい。垢版2021/03/03(水) 08:27:51.37ID:HznyZdrf0
すみません 
xsegでフェラ編集する場合、editで範囲指定するときにdstの口まわりを除外するように指定して、完成時にsrcに除外したdstの口回りをうつしだすということであってますか?
0211名無しさん@お腹いっぱい。垢版2021/03/03(水) 15:31:52.95ID:NttWcEcZ0
3000〜4000
もっと少なくてもいいときもあればもっと多い方がよいときもあるが
これくらいをベースに調整してみるとよいでしょう
0213名無しさん@お腹いっぱい。垢版2021/03/03(水) 19:28:09.48ID:G0WKHSpM0
ゲーミングノートでやってる人いる?
rtx30〜のノートを買おうかと思ってるんだがデスクトップ比較でどんなもんか知りたい
0214名無しさん@お腹いっぱい。垢版2021/03/03(水) 20:10:10.14ID:VBtFUQOw0
39 名無しさん@お腹いっぱい。 sage 2021/02/03(水) 23:43:22.40 ID:5tX+xQ2H0
CPU Ryzen 3900XT
GPU GTX 1080
DFL2.0

でtrainしたら、tensorflowのエラーやらで止まってしまうんだけど、AMDのCPUだとダメなんだろうか?
AMDのグラボはサポートしなくなったのはわかるんだけどCPUはサポートしてるよね?


これって俺もで、これからはじめようとここにたどり着いた
どうなのでしょうか?
0217名無しさん@お腹いっぱい。垢版2021/03/03(水) 20:42:09.11ID:35q5rjHF0
>>214
3000版用と2000まで用と2種類ある
39は欲張りすぎてoomになっているだけかと
3000版はgpuスケジューリングonにしないとエラーでやすいね
0219名無しさん@お腹いっぱい。垢版2021/03/03(水) 21:58:47.41ID:4K73l4ef0
GPUのスペック越える設定でtrainしようとするとエラー吐いて始まらないよ
無印1080なら
Archi:DF
reso128
各dims:64
bs:4
adabelief-
その他オプションデフォルトでtrain開始しない?
0220名無しさん@お腹いっぱい。垢版2021/03/03(水) 22:44:00.44ID:brWD1sEx0
>>214
俺も1080でCPUはryzenだけど問題なく動いてるから、頑張れば動くよ
俺はフォーラムにある
LIAE-UD FF 192_SAEHD
ってモデルを愛用してる
0221名無しさん@お腹いっぱい。垢版2021/03/03(水) 22:44:46.21ID:YxY6ANAM0
いまはDSTとSRCを全フレーム抽出するところまでやりました

残業多い社会人で時間かかるので、結構手間かけて無理ってわかったらしょっくだなぁー
0228名無しさん@お腹いっぱい。垢版2021/03/04(木) 00:53:41.10ID:iunPonaH0
ファイル数が22万なので
2時間位の動画か
顔抽出失敗の数を見て卒倒しないようにね
01_04_2021の最新版をしようしてもvram不足でエラーでそうやね
dstは最初は720p 10秒位にしていろいろ試したほうがよいよ
0229名無しさん@お腹いっぱい。垢版2021/03/04(木) 02:12:05.41ID:wuTryrGl0
皆さんご回答、本当にありがとうございます

720p10秒っていうのはどこで設定出来るのかわからないのですがどうしたら良いでしょう
0230名無しさん@お腹いっぱい。垢版2021/03/04(木) 02:14:21.45ID:wuTryrGl0
4つの動画をひとつにまとめてやってるので負荷かかるかな、とは思ってました

ただ、一つ一つやろうとしたら抽出は上書きされるみたいでこれしかなかったんですよねえ
0231名無しさん@お腹いっぱい。垢版2021/03/04(木) 02:55:03.24ID:iAL1X8v90
うーむ
昔、大学で、理系、工学部だと、手計算やってられない物があるので
科学技術計算、FORTRANとかやって
計算機とはー
とか
プログラムとはー
とか、ある程度、概念形成されると思うんだよね
一般常識として、計算機、プログラムとはーとか、ある程度ないとまずいんでないの?
どうするよ?
0232名無しさん@お腹いっぱい。垢版2021/03/04(木) 03:01:05.35ID:iAL1X8v90
Pythonなんか、ソースコード丸見えだから、
if then elseとか
forループとか
ある程度は共通ですよ
型宣言しないので、なんじゃこりゃでした
1バイトデータとか確保してないのに、なぜ分かり、動くん?でした
andとかorとか、簡単な事が概念形成されればいいかと個人的には思います
0234名無しさん@お腹いっぱい。垢版2021/03/04(木) 10:48:10.45ID:nG9ZlYOi0
ブタに真珠
0237名無しさん@お腹いっぱい。垢版2021/03/04(木) 15:44:23.92ID:iAL1X8v90
次は、正面近く、カメラ目線で尺の短いdstとか
srcが眉なしだけだと、dstの眉をそのまま出すだけだし、本人の眉情報が無い
瞬きしてもいいけど、目瞑りぱなしだと、顔の特徴が出ませんな
俯きも、目玉が見えませんし、その分特徴が出づらいかと思います
上向きなんて、srcそんなに集められない気がします
0246名無しさん@お腹いっぱい。垢版2021/03/05(金) 04:15:37.75ID:FROHvsCN0
初っ端から2時間超えの作ろうとしてて草
巷にあるDF動画なんてせいぜい5分程度がザラなのに
新規で5分の動画なら学習に24時間は覚悟するて聞いたらどんな反応するのか
0248名無しさん@お腹いっぱい。垢版2021/03/05(金) 08:47:38.30ID:jskKYGtb0
dstでいい感じのシーンとか、トリミング編集とかできないと、DFLも無理でしょうね
dstが顔でかくて、ボケるかも?だと画面サイズ縮小編集とか
DFLの他、フリーの動画編集ソフトとかで遊んだりしませんでしたか?
0249名無しさん@お腹いっぱい。垢版2021/03/05(金) 13:31:41.56ID:Jzg61Xqo0
あっ、DSTって短くしないと駄目なんですか

一応日常的に編集動画投稿してます(最高再生回数二万回)
SRCのtrainに時間かかると思ってたので、DSTは負荷かからないと勘違いしてた
どうもありがとう
0250名無しさん@お腹いっぱい。垢版2021/03/05(金) 15:39:47.52ID:jskKYGtb0
dstが長すぎる事によるエラーがあるかも知れませんが
やった事はないので分からないです
そんな、顔を入れ替えたいシーンばかりではなく、だらだら長い所、
平板なシーンも多いでしょうに

顔の未検出の手動抽出とかあるから、dstが長いと大変だと思います
そのままだとちらちらdstに戻り、顔が入れ替わらない
顔の誤検出の手動削除もあります

完成後、がっかりとかあると思いますし、いきなり長くてもね
0252名無しさん@お腹いっぱい。垢版2021/03/05(金) 18:48:45.11ID:Jzg61Xqo0
最初に思ってたのは2時間やるとしても、使えるのはそこから20分くらい、と思ってたんですよね

5分でやると10秒位では、と思う
0253名無しさん@お腹いっぱい。垢版2021/03/05(金) 19:45:20.77ID:e6ZwS5ll0
mergeの時にinteractive mergerを使わないで、batの末尾に<merge.txtみたいな形でテキストに事前に書いた設定項目読み込ませたいんだけど、
Use interactive merger?をnで渡しても勝手にyになって、起動しちゃうのどうにかならない?
20210104使ってます。
0256名無しさん@お腹いっぱい。垢版2021/03/06(土) 12:18:39.18ID:POsdlmr90
多分、最初の方はBatで食わせるがうまくいかないみたいで
Pythonいじって、何とか。。
面倒なので、ほっといてますが
0258名無しさん@お腹いっぱい。垢版2021/03/06(土) 15:19:05.53ID:POsdlmr90
dstはショートカットとか、髪を上げていると
輪郭がごまかせないので、違和感が出る事があるみたい
麻○憂ちゃんの無臭時代はショートカット
残念
0264名無しさん@お腹いっぱい。垢版2021/03/11(木) 18:39:21.46ID:NZScrXcq0
10.misc) start EBSynth.bat

@echo off
call _internal\setenv.bat

start "" /D "%INTERNAL%\EbSynth" /LOW "%INTERNAL%\EbSynth\EbSynth.exe" "%INTERNAL%\EbSynth\SampleProject\sample.ebs"

とかありますな
0266名無しさん@お腹いっぱい。垢版2021/03/13(土) 01:58:40.80ID:IO0QbPD50
よくそういう発想ができるな(褒め言葉)
素直に感心する
髪色の変更とかパンストを網タイツに、とかも頑張ればできそうかな
0267名無しさん@お腹いっぱい。垢版2021/03/15(月) 21:14:22.13ID:Rs+laLZd0
【合成】娘のライバルを蹴落とすため「ディープフェイク」作成、母親を逮捕 米
ttps://news.livedoor.com/article/detail/19850564/

チアリーダーとして活動する娘のライバルたちが裸で飲酒・喫煙する映像をAIでねつ造し、本人らに送付。自殺を促すメッセージも匿名で送信したとみられている。

アメリカはすげーな
0269名無しさん@お腹いっぱい。垢版2021/03/16(火) 23:32:59.20ID:ZtV5x6jf0
headより広い範囲を抽出する方法ある?
髪が長いと途切れてまう・・
0273名無しさん@お腹いっぱい。垢版2021/03/17(水) 15:35:46.22ID:wYm9Xwu40
modelの学習が300から400万回ぐらいに育ってしまうと、流用すれば新規のdstでも数時間で仕上がってくる
そうなると、aligned debugのチェック&手動でのパス再作成が大半の時間を占めるね
もちろん、それとは別にdst探しはやるけど
0274名無しさん@お腹いっぱい。垢版2021/03/17(水) 16:11:26.20ID:cXMgY1sR0
素朴な疑問なんだが、流用っていうテクニックがあって、他の人物にもあまり悪影響ない、一番のユーザー不満である時間短縮ができる
それなら初期のパッケージとして普通は用意すべきだよな?

それをしないのってなんでなの?
0277名無しさん@お腹いっぱい。垢版2021/03/17(水) 18:34:26.55ID:wYm9Xwu40
元アイドルAと、とあるdstでいちから動画を作る
dstを次々替えて(外国人を含む)どんどん動画を作る
modelが成長してくると、train時間は短くてもすぐに似る
というパターンで、他にタレントBや女優Cのmodelも作っているが、dstがどれだけ似ているかがやっぱり重要
dstの顔の輪郭や髪型がかけ離れていると、あいのこみたいな顔にしかならない
0280名無しさん@お腹いっぱい。垢版2021/03/18(木) 08:26:25.65ID:9TxMDenz0
srcモデル流用しないで(とある所でsrc流用はやめる。dstxdst学習のため)
毎回新規のsrcから作成しているの?
srcA→srcBでsrcBが完成したと思ったらやめる
srcA→srcCでsrcCが完成したと思ったらやめる
0286名無しさん@お腹いっぱい。垢版2021/03/25(木) 09:08:15.10ID:ljW0hp1e0
08_02_2020から以降してみたが
adabelief: TrueだとVRAMバカ食い?
Batch Size半分でもエラー
使うのなら最後の方で使うのかな?
0289名無しさん@お腹いっぱい。垢版2021/03/25(木) 11:47:41.56ID:6v/MBSvq0
>>286
adabeliefは新しい学習方法なので
途中でoffにするとadabeliefでトレインしたものは活かしてくれない
なので使うなら最初からonにして
途中からoffにしない
あと使用するvram多いよ
0294名無しさん@お腹いっぱい。垢版2021/03/26(金) 04:57:39.43ID:WSGBSkIA0
adabelie off onにしたらXsegモデル学習し直しみたい
src/dst 512→256にしたら、Mergeがむちゃむちゃ速いですね
0296名無しさん@お腹いっぱい。垢版2021/03/27(土) 00:18:38.20ID:oPMgV8i50
去年の7月ぶりに最新版にアップデートするけど新しい機能増えてますか?
0301名無しさん@お腹いっぱい。垢版2021/03/27(土) 19:07:48.10ID:oPMgV8i50
アップデートしたけどsrc側に顔が寄るのがデフォ設定に変わった感じ
0302名無しさん@お腹いっぱい。垢版2021/03/28(日) 03:03:17.49ID:ueHeY/O40
liaeになってただけか
0303名無し募集中。。。垢版2021/03/28(日) 03:16:42.30ID:EHo1up4D0
顔の切り出しが遅すぎるの何とかしてほしいよ
CPUもGPUも20%以下しか使ってないのがもったいない
0304名無しさん@お腹いっぱい。垢版2021/03/30(火) 14:48:04.94ID:3oji83cR0
新しいpc作ってやりたいけどグラボが全然ねぇ、、、
radeonはまだ対応してないんだよね。。。
CPUって全然話題に上がらんけど、5800xでも5950Xでも大差ないの?
0309名無しさん@お腹いっぱい。垢版2021/03/31(水) 09:48:24.78ID:2980UnH60
CPUも重要なのか、、誰にも見せれないのに中々金のかかる趣味だなw
0310名無しさん@お腹いっぱい。垢版2021/03/31(水) 12:26:38.84ID:ENG1cKaz0
dst用にお勧めのAVタイトルとか、プレイ内容別にまとめている神って居ないのかしら?
少なくともググった位では見つからないんだよね。
0313名無しさん@お腹いっぱい。垢版2021/03/31(水) 18:49:20.98ID:ppLJGluL0
>>310
Deepfake 素材に関するスレ 
でググってみ。
0314名無しさん@お腹いっぱい。垢版2021/03/31(水) 23:47:42.08ID:+ePpkTvz0
>>313
見つかりました。
早速勉強させていただきます。

ありがとう、ありがとう。
0316名無しさん@お腹いっぱい。垢版2021/04/03(土) 12:00:52.75ID:DWGUJF3Y0
お世話になります
質問です

1、目に髪がかかっているのはSRCにすべき?

2、特定の作品が化粧違うが、これはSRCにいれるべき?
0317名無しさん@お腹いっぱい。垢版2021/04/03(土) 12:27:52.04ID:zcWUI8wj0
>>316
@避けた方が良いが、dstが同条件(mask範囲内での髪の位置など)ならイケる場合も
A個別で作成した方が良いが、どうしても角度や表情がカバー出来ないなら、メインとする方のfacesetに対し10%程度なら補足としての追加がイケる場合も
0318名無しさん@お腹いっぱい。垢版2021/04/03(土) 12:30:06.75ID:DWGUJF3Y0
なるほどありがとうございます

ってことは肌の色味が違うのとかはどうなんでしょうか
SRCって輪郭だけじゃなく色も見てますよね?
0319名無しさん@お腹いっぱい。垢版2021/04/03(土) 13:00:40.33ID:zcWUI8wj0
>>318
極端に暗いとか、野外で光の当たり方がキツいのは特にmodel形成を阻害する所感
train時のcolor transでmklとか入れてれば、ある程度なら調整してくれるが、現状mergeではdstと同じにはなり辛い
髪型については、眉を超える前髪とか触角は自動extractはほぼ無理 手動Aやmask調整で適正範囲を指定してもtrainやmergeでグダグダになり易い
0321名無しさん@お腹いっぱい。垢版2021/04/04(日) 08:27:22.49ID:djLTBAJX0
入り切り出来ないじゃん
0324名無しさん@お腹いっぱい。垢版2021/04/09(金) 14:31:38.36ID:BFw6vu2x0
CPU変えてめっちゃ早くなって安定したって報告しようとしたらちょうどCPUの話題になってた。
i5 7500→i9 10800に変えたらtrain速度1.3倍、merge速度100倍になったわ。
merge一瞬で終わるし、train中動画見たりゲームとかしても落ちないしもっと早く変えるべきだった。
0328名無しさん@お腹いっぱい。垢版2021/04/10(土) 16:46:37.62ID:Mrqtwq0X0
久しぶりにやったらliaeがデフォになったんだな。dfの方が似るように思うんだが、liae何か進化したのか?
0330名無しさん@お腹いっぱい。垢版2021/04/10(土) 18:21:36.97ID:iH//3Q0I0
顔の相性がいい素材のliaeが一番クオリティ高い
0331名無しさん@お腹いっぱい。垢版2021/04/10(土) 19:26:58.90ID:yrnfAYTy0
dfの方が似ると思うのならそれでいいと思う
俺は差異を感じなかったし利点もあるのでliaeに移行した
0333名無しさん@お腹いっぱい。垢版2021/04/11(日) 02:08:26.59ID:ujYKb++B0
顔が似るのは明らかにDF
0336名無しさん@お腹いっぱい。垢版2021/04/11(日) 09:11:30.41ID:TpXKrb8Y0
liaeの万能な所を経験するとdfには戻れないな
正面の静止画メインならdf一択だが

>>335
名前のとおり目と口を主に学習して他の部分はほとんど学習しないから
目と口に違和感がないかぎり基本offだね
0338名無しさん@お腹いっぱい。垢版2021/04/11(日) 13:11:07.17ID:TpXKrb8Y0
liaeは最後にganpower使用しないと似ている感じがしないね
まずはdfl guideのQ&AのQ8の通りにきちんとtrainしてloss値十分下がったあとの最後の仕上げに使う
ganpower使うと表情はdstに寄ってしまうけど
srcの細かいシワ、しみ、ホクロ等が反映されるようになる
学習が進めばlrdをonにしてtrainするだけで反映されるようになる
あとはたまに学習ミスってモザイクがでたりするからganpower使用する前にmodelをバックアップしたほうが良い
0340名無しさん@お腹いっぱい。垢版2021/04/11(日) 14:33:56.46ID:fOz/zYlH0
最新版のDFLで5.XSeg) train実行してバッチ2にしても動かないのですが単純にGPU性能不足でしょうか
GPUはGTX1080です。
0344名無しさん@お腹いっぱい。垢版2021/04/11(日) 20:37:46.21ID:mUgJkMdu0
>>337
liaeはdfよりもdstとの一致要求がシビアなので、flip使うのも場合によっては有効
warp切ったらGANじゃなくてdropを使う方が良い気がする
0345名無しさん@お腹いっぱい。垢版2021/04/11(日) 22:28:24.73ID:Ryk/5C4v0
teslaとかサーバー製品って、メモリ帯域はすごいけどFP32のTFLOPSの値は一般向けのGEFORCE 3090の方が上なんだけど、学習にはどっちが有利なんだろうね
もちろん、アプリの種類にもよるんだろうが

サーバー向けは科学技術計算で使われるFP64の性能も要求されるからこの分FP32の性能があげられないんだろう
0349名無しさん@お腹いっぱい。垢版2021/04/12(月) 09:14:41.44ID:d7OWDGE40
5950xで新しく作ったけどグラボが手に入らん
とりあえずもってた1070挿してるけど、弱いグラボだと時間かかるだけでクオリティは同じなの?
0350名無しさん@お腹いっぱい。垢版2021/04/12(月) 20:20:03.45ID:s0hHjzfp0
俺は、DFがええわ→liaeの違和感の無さええわ→やっぱdfの本人性の高さが一番大事やわ

で今DF
0353名無しさん@お腹いっぱい。垢版2021/04/13(火) 09:33:52.96ID:6hNDogoR0
trainしてると落ちるのはCPUの温度の問題かな?
0354名無しさん@お腹いっぱい。垢版2021/04/13(火) 11:04:17.97ID:wkxq5OTE0
>>352サンクス、手に入るまで我慢するか
発売時に3080手に入らない段階で3090買っとくのが大正解だったな、、、
0362名無しさん@お腹いっぱい。垢版2021/04/18(日) 00:50:07.81ID:LEn9w1ZS0
俺もdf一択だわ。使い分けるメリットすら無いくらい今のDFは優秀。
0366名無しさん@お腹いっぱい。垢版2021/04/18(日) 02:54:12.61ID:8xZymf5Q0
そっくりな映像を作りたいなら
liaeでもちょうどいい角度のsrcが必要なのは同じ
だったら存在する角度の再現性が高くて学習の負荷が低い
DFに優位性がある
0369名無しさん@お腹いっぱい。垢版2021/04/18(日) 11:14:31.75ID:PgKP4gD60
つーかmodelとかarchは素材に合わせて好きなの使ってろよ
ガキじゃねーんだから○○最強とかイチイチ押し付けてくんな 質問でも無ぇし
0370名無しさん@お腹いっぱい。垢版2021/04/18(日) 15:32:41.08ID:FLvozWDK0
3090使ってheadのliae-uで回せば大概できるから
src画像さえちゃんと集めてあればdstの選別とかいらねーよ
0374名無しさん@お腹いっぱい。垢版2021/04/18(日) 17:16:47.51ID:PgKP4gD60
>>363
基本はdstに合わせるしか無い フォトショで全flame前髪書きたいなら知らん
GPUもmodelも関係ないし、選別する必要性が理解できない程度のエアプがスルー出来ないなら制作に向いてない
0378名無しさん@お腹いっぱい。垢版2021/04/21(水) 03:38:34.38ID:6cuwbeaM0
>>365
なるほどね、豊富なsrc取れるやつでしか作ってないからその発想は無かったわ
0379名無しさん@お腹いっぱい。垢版2021/04/23(金) 15:15:32.15ID:GI0t/RwX0
半年ぶりにアップデートしたら色々変わってたんだが、
df→無くなった
liae→無くなった
dfHD→dfになった
liaeHD→liaeになった
更にそれぞれ、uとdのオプション付けれるようになった
という認識でいいのでしょうか?
0381名無しさん@お腹いっぱい。垢版2021/04/24(土) 11:33:27.08ID:H0wRkMGL0
3080tiの発売日が決まったようですね
メモリ12gみたいだけど2gでも差が出るのかな
0382名無しさん@お腹いっぱい。垢版2021/04/25(日) 19:30:45.27ID:MHgX3CJU0
ジェネリックxsegってのがアップされてるね、なんぞこれ?
0385名無しさん@お腹いっぱい。垢版2021/04/26(月) 01:28:23.59ID:Ga7VyGbW0
Xsegで舌を破線で囲って除外してからtrainしたら
舌を出してないフレームの一部でも口内が除外されてしまって
mergeすると口に違和感が出るようになりました

これを避けるには先に舌のあるパートと無いパートでdstを分割するしかないのでしょうか
何かいい方法がありましたらご教示下さい
0386名無しさん@お腹いっぱい。垢版2021/04/26(月) 08:47:05.58ID:8TtDd35S0
>>385
その口内を除去して欲しくないフレームのマスクを書いてトレイン
完璧にしたいなら、トレインして適用して、変になるフレームを書いてまたトレインしてのループをするしかない
0388名無しさん@お腹いっぱい。垢版2021/04/28(水) 16:41:24.16ID:5pMQt8kK0
>>384
あいつアウトだろ
ツイッターでモザかければいいってもんじゃないのにな
事務所とかに通報してる人も結構いるらしいしもうそろそろ...
0394名無しさん@お腹いっぱい。垢版2021/05/09(日) 11:57:47.23ID:KcsGK0sG0
Github覗いたら4月23日頃にこんなん出てんねんけど、何?
「added AMD/Intel cards support via DirectX12 ( DirectML backend )」
ラデも使えるんやったら、VRAMてんこ盛りのが余ってるからメチャ有り難いねんけど。
0395名無しさん@お腹いっぱい。垢版2021/05/09(日) 12:13:49.80ID:KcsGK0sG0
自己解決っつーか、処理が早くて要望が上がってたDirectX12版のDFLリリースされてんだw
っでAMD/Intel系が自動的に対応って理屈やね。
ヤバいんちゃうん?16GBの板が1万で売ってるAMDやで?
//blog.csdn.net/ddrfan/article/details/116085129
0397名無しさん@お腹いっぱい。垢版2021/05/09(日) 12:36:48.26ID:KcsGK0sG0
自分トコで動いたんか?
動かんし2060スパーとmx250(インテルオンボよりはマシレベル)比較で
半分ぐらいの速度しか出んって話やけど、630とRX580では30倍ぐらい性能差があるから
ええトコ行くんちゃうん?
1.0のOpenCL版はCuda比較で20%程度の性能しか出んかったけど、VRAM量が圧倒的なんで
1iterあたりの学習差は50%ぐらいは稼げてた。
だから、性能は1.0の頃より2.5倍向上して安くてVRAM量が多いRadeは、
回転数以上のパフォーマンス出るでしょ。

まだちゃんと動かんみたいやけど、ヒマ見て試すわ。
0398名無しさん@お腹いっぱい。垢版2021/05/09(日) 12:38:22.18ID:dC6pQfzc0
changelogに
ゲフォより20〜80%遅いと書いてあるからね
16G版ラデで20%遅いスピードでトレインできる感じかな(テキトー)
0401397垢版2021/05/09(日) 14:53:07.02ID:7GLUQRSe0
今試し始めたけどExtractおっそ
0402名無しさん@お腹いっぱい。垢版2021/05/09(日) 15:02:09.08ID:Bvr4sTpV0
技術的な質問じゃないが、
このスレに配偶者がいたり恋人と一緒に住んでたりする人いる?その場合、隠れてやってる?
見られたときの気まずさって普通のAVとかエロサイトの比じゃないような気がするが。
0403397垢版2021/05/09(日) 15:47:07.04ID:7GLUQRSe0
FHDやとExtract1枚1.5秒もかかるし、2回めにPhytonがワーニング吐いてる。
>>402
そんなピーキーな関係で付き合うから別れるハメになるんだよ。
愛顧らでもDeepFakeでも「また悪巧みしてる」って笑われてるけど。
0404名無しさん@お腹いっぱい。垢版2021/05/11(火) 16:55:07.54ID:+gKf1ZOW0
見られたところでわからんくね?
芸能人Aで作ってたとして、DF作ったって言われなきゃわからないでしょ
0407名無しさん@お腹いっぱい。垢版2021/05/12(水) 09:02:39.20ID:dKw8q9B90
声のディープフェイクやりたいなぁ、知人の顔を手に入れるのは大変だけど声なら簡単に手に入るしw
けど犯罪防止で公開しないんじゃないか?
0408名無しさん@お腹いっぱい。垢版2021/05/12(水) 14:02:17.38ID:FAFNQAxW0
参考までにDX12版
radeon7と3090混ぜてheadの抽出が7~8枚/secって感じ
混ぜてやってるにしちゃ頑張ってる方じゃないかな
0409名無しさん@お腹いっぱい垢版2021/05/14(金) 23:04:37.15ID:z9HMic4B0
05_12_2021 きてるな
0412名無しさん@お腹いっぱい。垢版2021/05/15(土) 09:15:09.55ID:kXqmwQwO0
============ CHANGELOG ============
== 12.05.2021 ==
FacesetResizerは、顔の種類の変更をサポートするようになりました
XSegEditor:削除ボタンを追加
XSegトレーナーのトレーニングサンプルの拡張が改善されました。
XSegモデルは、さまざまな面が大量にある場合にうまく機能するように変更されているため、既存のxseg モデルを再トレーニングする必要があります。
さまざまな面で事前トレーニングされた汎用XSegモデルが追加されました。きれいな顔が含まれているため、src フェイスセットに最適ですが、 複雑な顔の障害物なしでdstフッテージに適用することもできます。
5.XSegジェネリック)data_dst whole_face マスク- apply.bat
5.XSegジェネリック)data_src whole_face マスク- apply.bat

意味わからへん
0414名無しさん@お腹いっぱい。垢版2021/05/15(土) 15:55:16.44ID:4lLHMjB+0
作ったものを批評してもらいたいとき、顔以外を黒く塗りつぶした動画にしてからupしてもアウトになるのかな?
0415名無しさん@お腹いっぱい。垢版2021/05/15(土) 19:34:19.49ID:dDwHuN7p0
日記じゃねえ
そろそろ話題も尽きた様な。。

つべに下手くそがうp
顔がチラチラ
ボケボケ

つべにすずちゃんのばきゅーんを上げたいが、
著作権侵害で怒られるかも

ハリウッドセレブのノンアダルトなら。。
腕前の披露だけとか
0416名無しさん@お腹いっぱい。垢版2021/05/15(土) 19:42:47.59ID:dDwHuN7p0
つべにうpする時に非公開設定なるものが
URL貼り付けで、他の人も見れるのでは?
それでも消されるか/怒られるかは知らん
Mega.nzで共有して、リンク貼り付けでこっそりとか
0417名無しさん@お腹いっぱい。垢版2021/05/15(土) 20:07:24.30ID:dDwHuN7p0
顔ぐらいしか見えない様に、クロップでもして、
誰と言わなければセーフな気もしてきた
音声トラックはなしとか
DeepFakeとかも言わない方がいいかも

つべにうpするときも、著作権の侵害でも、収益化できないだけだったりする
場合によると思いますが
0420名無しさん@お腹いっぱい。垢版2021/05/16(日) 05:57:13.56ID:FvakAbYC0
>>412
ID:kXqmwQwO0
とはID違うやろがw
タブレットはWiFi接続のみだから、ルーターは同じで、同じIPアドレスになるのでは
ガラケーが使えなくなったら、パカパカスマホにしてネット契約はしないつもり

>>414
顔の絶対位置がそれほどずれないのであれば、Avidemux等でクロップもありかと

すずのばきゅーんでも作ってみますかね
怒られるだけで、垢BANされなければいいかと
0428名無しさん@お腹いっぱい。垢版2021/05/17(月) 09:30:31.78ID:ZXkUDGDT0
しかしGPUの枯渇や異様な値上がりなんやねん・・
RX470_8Gでさえ中古で5万とかありえんわ。
新品4千円で売ってたのが夢の様だ。
1070ちも16000円やったのに。
0429名無しさん@お腹いっぱい。垢版2021/05/17(月) 10:30:57.76ID:gRpQHRPy0
ラデは対応してないみたいだけど、未対応なだけ?今後も対応予定無しなのかな
0430名無しさん@お腹いっぱい。垢版2021/05/17(月) 11:13:58.20ID:ZXkUDGDT0
DirextX12版で普通に動くけど。
且つRadeはVram溢れた分は勝手にメインメモリに逃げるから、デカいのが回る。
DirectX12版は遅いけど、実測したらDFL1.0の3倍以上出てるし
なによりAI_enhancerがCuda無しで使えるからDFL関係なしに高速に画像高画質化できるのが良いね。
0431名無しさん@お腹いっぱい。垢版2021/05/18(火) 09:22:50.64ID:YhQVa2UZ0
グラボのメモリが多いほうがいいならquadroってどうなん?
nvidiaならquadroでもゲフォでもどっちでもいいのかな
DFLの使い方サイトではゲフォしか載ってないけど
0433名無しさん@お腹いっぱい。垢版2021/05/18(火) 09:42:38.87ID:YhQVa2UZ0
a6000はさすがに高すぎる。。。w
けど早くていいの出来るんだろうなぁ
もうすぐ出るa5000がメモリ24gで今の3090と同じような値段だけどどっちのほうがDFLには向いてるんだろう
メモリ容量は同じでも90はx付きだけど
0434名無しさん@お腹いっぱい。垢版2021/05/19(水) 06:33:49.74ID:pHUuxLRo0
今から新しくPCを買う予定の者で、GPUはRTX3060にしようと思っています。
現実的な値段でVRAMが12GBと多かったのでこれがいいと思ったのですが、やはりVRAM容量は
大切なのでしょうか。また、RTX3060だとCUDAコア数が比較的少ないようですが、コア数はどのくらい
大事な要素なのでしょうか。RTX3060と比べて極端に値段の高くないものでこれより良いものがあれば教えてほしいです。
ちなみにdeepfake以外には高い性能を要する用途では使わない予定です。
0435名無しさん@お腹いっぱい。垢版2021/05/19(水) 09:28:39.11ID:9rV2XUwq0
ちょっと古いけどTITNXも12gでそっちはSLIもできる
中古で5万くらいで買えるみたい
どっちがいいのかは知らんけど、1枚なら3060、SLIするならTITANXじゃね?
0436名無しさん@お腹いっぱい。垢版2021/05/19(水) 12:58:26.49ID:nmsaiqKz0
最近のビルドって、Iterが何回目かに1回異様に遅くなるなぁってGitHub覗いたら
4回から16回に1回起きるらしいね。
特に高性能GPUほど発生頻度・遅延時間が酷いらしいけど、みんなも起きてる?
ウチのはショボいから1/16ぐらいの頻度で、倍遅いことがあるけど、
3090だと1/4ごとに30倍ぐらい遅くなって深刻らしい。

あと、メモリ認識が無条件にシステム予約分を差っ引いた値になり
複数台GPU搭載してDFL専用のフリーGPU作っても、無条件にシステム予約分が差っ引かれる。
だからウチのも8GBのうち0.8Gぐらいが使用されずに空いたまま。

なんかすげぇ勿体ないんですけど。
0437名無しさん@お腹いっぱい。垢版2021/05/19(水) 13:28:35.47ID:kZvylfeE0
2080tiだけど確かに1/15〜1/20くらいで倍かかることあるわ
そのIterって決まってloss値も高く出るから
なんか難しい顔面処理して時間かかったんかなくらいにしか思ってなかった
0439名無しさん@お腹いっぱい。垢版2021/05/19(水) 18:26:45.50ID:PzF11tfx0
俺も遅延あった、aligned内の画像2048にしてるとき起きて、512とか768え固めたら治ったから
別もんかもしれないが。
0440名無しさん@お腹いっぱい。垢版2021/05/19(水) 20:20:16.72ID:7a+U+8wR0
>>434
数か月使ったらGPU作業よりも時間を食うのでCPU優先が良いと思う
FHD画質ならres512以上は無意味じゃね?dimsなんかも等倍に出来なくてバランス悪そうだし
0441名無しさん@お腹いっぱい。垢版2021/05/19(水) 23:05:04.82ID:ClOdUpn50
TSMC、Intel、Nvidiaが数年単位のチップ不足を警告
https://cafe-dc.com/semiconductor/tsmc-intel-and-nvidia-warn-of-years-of-chip-shortages/

GeForce RTX 30供給不足の原因はSamsungの歩留まり低迷か?、台湾メディア
https://news.mynavi.jp/article/20201214-1589914/

Intel・NVIDIA・TSMCの重役が「世界的な半導体不足は2021年中続く」と予測、最悪の予測は「2023年以降も続く」
https://gigazine.net/news/20210416-chip-shortage-could-last-2023/

TMSC GPU 半導体 値上がり
0443名無しさん@お腹いっぱい。垢版2021/05/20(木) 05:02:26.85ID:zr67n6c00
CPU Ryzen 5950x
GPU RTX3090
DFL2.0
5.XSeg) trainを実行したらエラーで止まってしまうんですけど、原因分かる人いませんか?
6) train SAEHDは実行できるのですが、XSegを使うことができません。

Traceback (most recent call last):
File "<string>", line 1, in <module>
File "multiprocessing\spawn.py", line 105, in spawn_main
File "multiprocessing\spawn.py", line 115, in _main
File "C:\Users\○○p\DeepFaceLab_NVIDIA_RTX3000_series\_internal\DeepFaceLab\core\leras\initializers\__init__.py", line 2, in <module>
from tensorflow.python.ops import init_ops
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\__init__.py", line 41, in <module>
from tensorflow.python.tools import module_util as _module_util
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\__init__.py", line 39, in <module>
from tensorflow.python import pywrap_tensorflow as _pywrap_tensorflow
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 83, in <module>
raise ImportError(msg)
ImportError: Traceback (most recent call last):
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 64, in <module>
from tensorflow.python._pywrap_tensorflow_internal import *
ImportError: DLL load failed: ページング ファイルが小さすぎるため、この操作を完了できません。

Failed to load the native TensorFlow runtime.

See https://www.tensorflow.org/install/errors

for some common reasons and solutions. Include the entire stack trace
above this error message when asking for help.
0444名無しさん@お腹いっぱい。垢版2021/05/20(木) 10:12:37.08ID:f4P52IEH0
日本語で理由書いてあるやん
仮想メモリ増やしなよ
tensorflowのエラーがよく出るのは
vram不足とGPUの低電圧化
3090だとかなり欲張りな設定じゃないとvram不足にならんけどね
0446名無しさん@お腹いっぱい。垢版2021/05/20(木) 18:57:45.96ID:PWAMirGC0
ページングファイルが小さいってさ、仮想メモリ不足でも起こるよね。
その場合、新たにメモリ領域を確保するか。
Cドライブ空き容量増やすかで改善する。
0447名無しさん@お腹いっぱい。垢版2021/05/20(木) 18:58:26.52ID:PWAMirGC0
あぁ仮想メモリ増やせってすでに書いてるね。
0448名無しさん@お腹いっぱい。垢版2021/05/21(金) 13:28:23.21ID:8KkTKvF10
身近な知人とかで作ってる人いる?
画像集め無理だよな、、、ただでさえ写真ゲットむつかしいのにコロナのせいでずっとマスクしてるし
技術が進めば卒アルから作れるようになったりするのかな
0450名無しさん@お腹いっぱい。垢版2021/05/30(日) 02:32:05.45ID:stJcXwc/0
あなた達は私にbukkakeの作り方を教えることはできますか?
私は自分の独自の手段でbukkakeの挑戦をしていますが、まだ成功していません。
0452名無しさん@お腹いっぱい。垢版2021/05/30(日) 06:00:38.17ID:gnHvI3uH0
RTX3070買ったんで3000用のBuild使ってみたら、
Resolutionは128じゃないとエラー出るし、VRAMは8GBのはずなのに6.44GBって表示される
1080ではResolution192で出来てたのにどうなってるんだ…?
0453名無しさん@お腹いっぱい。垢版2021/05/30(日) 12:10:17.61ID:AzSojR8u0
>>452
win10をmay2020update以降に更新
ゲフォも451.48以降のドライバにして
GPUスケジュールリングをonにする

vram使用量はわからん
久しぶりに3070でdf動かしたらvram使用量は7.8Gだった
0454名無しさん@お腹いっぱい。垢版2021/05/30(日) 13:54:58.71ID:OTxm4i7K0
>>450
mask_dimsをdecooder_dimsの50%程度まで上げる(通常は30%位) ※但し、モダイクのエッジ(口元に一番近い半円状の部分)がキツくなる
mask editorで当該部分を手動mask fanseg(Xsegだとイマイチ)で集中学習させておく dfよりliae系の方が反映度高い気がする
0455名無しさん@お腹いっぱい。垢版2021/05/30(日) 14:47:37.73ID:gnHvI3uH0
>>453
やってみたけどダメだった
GPUスケジューリングはonにしてたからwindowsとゲフォドライバ更新した
CUDAも11.3に更新してある

You are training the model from scratch.
It is strongly recommended to use a pretrained model to speed up the training and improve the quality.

って出てOOMになるんだけど、今までスルーしてたxSegのモデルが必須になったりしてる…?
一応xSegで10枚くらいやってみたが変わらなかったけど
0456名無しさん@お腹いっぱい。垢版2021/05/30(日) 15:30:47.70ID:AzSojR8u0
>>455
oom出ているならbatch数減らして様子見るしかないかな
xsegは最新版で学習方法変わってtrainやり直しだけど関係ないと思う
旧xsegでマスク済ならそれ使用して問題ない
xseg genericがそこそこ優秀だから凝ったマスクをしないかぎりこれで十分

英文は
modelをゼロからトレーニングしているよ
pretrain済みのmodel使えばスピードも品質も向上するよって意味だから
1080で使用してたmodelを流用するかgithubのリンクからダウンロードする
0457名無しさん@お腹いっぱい。垢版2021/05/30(日) 17:10:16.82ID:gnHvI3uH0
>>456
train始まった、ありがとう助かった

modelの流用ってそういうことか…
dstとsrc両方違くてもmodelファイルに入れれば利用できたの知らなかったから、
今までpretrain使ったことなかった…
0458名無しさん@お腹いっぱい。垢版2021/06/01(火) 04:30:29.82ID:NaQZjGJ/0
質問です。
build_01_04_2021で、modelを流用しながらやってるのですが、
loss値が下がる毎に肌が部分的に擦りむいたというか、ただれたかのように、赤と黄色っぽい色のモアレのように
なってきました。これがmodelの崩壊というやつですか?治し方があったら教えてください。
0459名無しさん@お腹いっぱい。垢版2021/06/01(火) 09:17:31.60ID:DkbBI8Ow0
GANは使い回すと壊れやすいのか、肌の質感がおかしくなる感じがする。たまにGAN関連のファイルだけ消してる。
0462名無しさん@お腹いっぱい。垢版2021/06/01(火) 21:33:12.75ID:+oX0ZDEO0
自分の場合は使い回し用modelは25k程度で保存しておいて、今日の素材が決まったらsrc/srcでクリアになる前辺りまでtrain
その後dstを本番に入れ替えてって流れだと似つつ早い
0463名無しさん@お腹いっぱい。垢版2021/06/01(火) 22:54:45.13ID:NaQZjGJ/0
458です。皆さん有難うございます。
まずはmodelが崩壊してるじゃないかということですね。
random warpを諸々の条件加えて修復試みてみます。
去年まで、fanseg でやってて、今年からbuild変えて始めたばっかりなので、
訳も分からず、Adabeleifを疑ってたりしました。
いずれにしても、以前のbuildよりmodelが壊れやすいのですね。
0464名無しさん@お腹いっぱい。垢版2021/06/01(火) 23:17:38.19ID:FDTJh7SL0
まだ壊れたことないので参考にさせて欲しいんですけど
iter数・各powerオプションの数値・勾配クリッピング使用の有無
を教えていただけないでしょうか
0465名無しさん@お腹いっぱい。垢版2021/06/01(火) 23:33:48.45ID:B6yGj4FH0
あれ?以前のバージョン消された?
0466名無しさん@お腹いっぱい。垢版2021/06/02(水) 06:39:37.76ID:m43NnH8U0
458です。
100万iter
eye mouth prio y
adabelief y
face style power y 0.1
で、やっていました。
それで、夕べからrandom warp のみ yで8万回回したら完全に治っておりました。
有難うございました。
0471名無しさん@お腹いっぱい。垢版2021/06/05(土) 20:26:22.83ID:8SPey0ws0
3090買って環境は整ったけどいざやるとなると誰と誰をくっつけようか、、、
練習用にこれとこれって定番あったりする?
0473名無しさん@お腹いっぱい。垢版2021/06/07(月) 23:36:12.88ID:z+s1c0Wd0
vram倍だし、別によくね?
0474名無しさん@お腹いっぱい。垢版2021/06/08(火) 07:10:29.56ID:jQDjXLaY0
3080tiの値段見ると3090で良いかなと思うわ
おれは1月のnvidiaのカンファレンスで80tiの発表がなかったから3090を購入した
>>471
似てる似ていないは個人の主観でかなり左右されるし逮捕者も出ているからから
定番とかはおすすめしにくい
過去ログ倉庫から素材スレをさがすしかないかな
0475名無しさん@お腹いっぱい。垢版2021/06/08(火) 14:52:17.59ID:arKSKjcf0
>>471
おでこと輪郭が髪で隠れていない組み合わせ なるべく正面で明るいスタジオ撮影の素材
dstは1分以内で、extractは自動とマニュアル両方試して範囲や補足し易さを比べてみよう
0476名無しさん@お腹いっぱい。垢版2021/06/10(木) 17:46:42.27ID:TbiE4rbU0
紙長いのはむつかしいのか
せっかくなら無修正で作りたいけどカリビアンとか1か月だけ入会してDLしまくろうかなぁw
0479名無しさん@お腹いっぱい。垢版2021/06/11(金) 10:22:34.01ID:9UIJBXLp0
デスクトップ画面で右クリックして
ディスプレイ設定→拡大縮小とレイアウトを100%から150%とかに変更すれば
画面全体が見やすくなるはず
0480名無しさん@お腹いっぱい。垢版2021/06/11(金) 16:24:06.11ID:bbwMmrk40
>>479
%を変えただけだと、150とか200にしてもプレビューだけ何故か大きさ変わらないんだよね
解像度を変えれば間違いなく大きくなるけど、4Kの意味無いじゃんって感じではあるけど、これしか方法はないかな
0481名無しさん@お腹いっぱい。垢版2021/06/11(金) 18:44:13.92ID:1ddRA1dL0
いやだから、フルHDディスプレイにしたらいいじゃん
自分でも言ってるように、解像度を変えて大きくしても4Kの意味ないじゃん
デュアルモニタで用途に応じて4KとフルHDを使いわければいい
なんで俺を無視して「これしか方法はない」とか言ってんだよ
デュアルモニタするスペースがないとかならそう言えよ
0489名無しさん@お腹いっぱい。垢版2021/06/12(土) 04:47:04.27ID:JYJDz9Xu0
◆Model_SAEHD/Model.py 763行目あたり

n_samples = min(4, self.get_batch_size(), 800 // self.resolution )

if self.resolution <= 256:
最大表示行4。res256の場合、800を256で割ったときの数=3行まで表示できる
バッチサイズが2だった場合は2行しか表示されない。res256を超えてる場合は1行表示

4→10 800→3840 256→384 に書き換えて
res384 バッチサイズ8 でトレインした時のプレビューは8行になるけど1マスが小さくなる
プレビュー全体の大きさを変えられればいいんだけどわからない
0492名無しさん@お腹いっぱい。垢版2021/06/12(土) 12:15:23.22ID:y1WHG5Vx0
>>491
見つけたと思う、
\_internal\DeepFaceLab\mainscripts\
275行の
max_size = 800
でプレビューの縦サイズmax変えられるみたい。

>>489のと組み合わせてどうだろうか?
0498名無しさん@お腹いっぱい。垢版2021/06/13(日) 03:43:54.45ID:mDSEZXa30
>>489さんと>>492さんの書いてることやってみました
SAEHDはしっかり反映されてるけどAMPでトレーナー開くと2✕3のままでした
model.pyはもちろんAMP側を変えたんですけど原因わかる方いますか?
0499名無しさん@お腹いっぱい。垢版2021/06/13(日) 09:01:42.48ID:j+ACoQ880
>>498
それこそ、model.pyの記述見てみたらres関係なく
st = [ np.concatenate ((S[i], D[i], DD[i]*DDM_000[i]), axis=1) ]
st += [ np.concatenate ((SS[i], DD[i], SD_075[i] ), axis=1) ]
の2×3行になるように設定されてるからでは?
0501名無しさん@お腹いっぱい。垢版2021/06/13(日) 21:06:13.64ID:arhvwpHs0
縦は解決しましたが、横2列なのは変わらない。
これを変える方法ありますか?
ご存じもかた、よろしくお願いいたします。
0503名無しさん@お腹いっぱい。垢版2021/06/13(日) 23:20:15.90ID:mDSEZXa30
>>499
stを追加していけば増えました
ただ全く同じ画像が縦に増えただけでした…
言語の知識がないので頓珍漢なことをしてるのでしょうね
SAEHDと同じように4-5列に増やすことはできますか?
わかる方おられましたらお手数ですがご教示いただきたいです
0504名無しさん@お腹いっぱい。垢版2021/06/14(月) 03:37:23.60ID:c/YeWTVj0
Model_AMP/Model A5.py の746行目〜834行目(#overrideから次の#overrideまで) をコピーして使える
>>489のようにいじることもできるかな。アップデートでModel A5.pyが消えるかもしれないのでバックアップしといて
0505名無しさん@お腹いっぱい。垢版2021/06/14(月) 23:16:48.77ID:D/PPtnwO0
>>504
ありがとうございました
無事以前プラスαのトレーナーになりました
無知な私にも懇切親切にご教示いただき感謝します
0508名無しさん@お腹いっぱい。垢版2021/06/18(金) 17:47:49.43ID:kBLTpXvJ0
>>504やった後だとmergeでエラーでるかも
元のModel.pyなら出ないので、merge用の別環境作るか
記述を見比べながらカスタマイズしてくれ
0509名無しさん@お腹いっぱい。垢版2021/06/19(土) 17:19:05.99ID:gm9RTeA00
一年ぶりにやっていますが色々忘れてしまっているので質問します
女優Aの人をずっとトレーニングしていてやっぱり別の作品にはめこみたいとなった場合

1.既にあるdata_dstディレクトリを名前変えてバックアップ
2.新しくはめ込みたいdata_dst.mp4から顔を抜き出し ずっとトレーニングしていたモデルを使ってトレーニングを継続

これでいいんでしょうか? 
0510名無しさん@お腹いっぱい。垢版2021/06/19(土) 20:42:24.23ID:jh4dZyY30
>>509
普遍的な正解ってのは無いけど、時短/似せたいという条件だと大体そんな感じ。
古いほうのdata_dstとalignedファイルだけ※どっか別の場所に保管して、新しいdata_dstを持って来る。
※src人物名→素材名(番組名)→srcセット(aligned/data_src/model) って階層で保管すると多くなってから流用し易くなる
             →dstセット(aligned/data_dst)
modelはそのまま同src人物において使い続けても良いけど、どこかで壊れたり似なくなって来たりする事もあるから
iter 25-50k辺りでコピーしておいて、それを同srcの流用modelとして都度持ってくるのがお勧め
0511名無しさん@お腹いっぱい。垢版2021/06/19(土) 20:46:28.21ID:jh4dZyY30
普及?して結構経つし、閉鎖的だから素材管理も手順も自己流って人が多いと思う
それぞれ環境や目的に合ったやり方が見つかってるといいね
0512名無しさん@お腹いっぱい。垢版2021/06/20(日) 20:37:58.41ID:PlINfQIg0
20万ほどトレーニングしていざマージしてみようとしたら以下の英語メッセージがでて何も進まない状態になりました
https://i.imgur.com/MMmzW0U.jpg

It is strongly recommended to process the faces separatelly.
Use 'recover original filename' to determine the exact duplicates.

Warning: multiple faces detected. Motion blur will not be used.

英文を翻訳はしましたが何をどうすればいいのかわからない状態です
どなたか教えてくれると助かります
0525名無しさん@お腹いっぱい。垢版2021/06/22(火) 01:01:04.97ID:HFQ3GISY0
>>521
color transferの設定はrctがおすすめだぞ
iterの数ではなくloss値が0.2近くまで下がっているか確認しよう
merge画面でEのキーで境界をボカして調整しよう
0528名無しさん@お腹いっぱい。垢版2021/06/22(火) 11:57:45.82ID:JjNP+lBO0
それくらいの勾配になったらRW切っていいdstのRFもいらん
それでしばらく回してまた勾配緩くなってきたらLRD入れてお好みでGANつければいいよ
0530名無しさん@お腹いっぱい。垢版2021/06/22(火) 13:23:47.77ID:8+ZmkIXl0
顔だけじゃなくてパーツとかも変えれたら面白いのにね
A子の顔でB子の体をベースにC子のおっぱいにして乳首はD子、まんこはE子って感じで理想のAV女優を作ってみたい
あと声のDFも出てほしいけど犯罪防止とかで一般公開されないんだろうなぁ
0531名無しさん@お腹いっぱい。垢版2021/06/22(火) 13:59:18.01ID:EOVlxFpy0
dst→1080P ほぼ正面5000枚 512pix FF
src→1080P顔アップ 厳選3000枚 512pix FF
Xseg Mask全画像適用済み 50万pretrain済みモデル使用
RTX3060 LIAE-UD res192 dimsデフォ バッチ10前後 Fdst UY RW ABオン
途中LRD EMP使用 最後RWオフ
loss値0.1になったらLRD+GAN0.1でプレビューがクッキリするまでtrain

これでdstが引きのシーンはほとんど問題ないけど
dstの顔がアップになるシーンでsrcの解像度不足が気になるんだよなぁ
フォーラムにDF-UDのFFでちょうど良いモデルが居ないからこの設定にしてるけど
DF-UD res320 dimsデフォよりDF-UD res192 dims512の方がsrcの画質良くなる?
それとフェイスセットの解像度は256とか1024に変えたらクオリティ結構変わるのかな
0532名無しさん@お腹いっぱい。垢版2021/06/22(火) 15:55:03.51ID:gJT/QsmY0
>>527 >>528
ありがとうごぜえますありがとうごぜえます
見よう見まねでパラメーター変更してみました
https://i.imgur.com/aZ1ko38.jpg
このloss値というのがだんだん増えていくようになったんですががんばってれば減るんでしょうか?

これが0.2にさしかかったら>>528さんが教えてくれたパラメータ変更をしてみたいと思います
0534名無しさん@お腹いっぱい。垢版2021/06/22(火) 19:15:47.21ID:GwYc/Dja0
loss増えるのはrandom warp中にいろんなオプション付けてるからだと思うが
少なくともctはrandom warp切ってから入れたほうがいい
0537名無しさん@お腹いっぱい。垢版2021/06/24(木) 09:03:18.31ID:hgUnlDdA0
train時にnoneでやってて、マージしたら顔の頬の部分に白飛びが発生したフレームがあったので、rctで少し追加trainしてやったら直ったことあったよ
0543名無しさん@お腹いっぱい。垢版2021/06/26(土) 13:36:14.92ID:mJGhjQLv0
マージする時って重い設定避けてもGPUあんまり使わないから遅いよな
Ryzen 5 3600 3.5Ghzから4Ghzに周波数上げるだけで3.3it/sから3.9it/sになったから
12コアとかにしたいんだけど
みんなマージの時にどのCPUで何it/sか教えてほしい
0545名無しさん@お腹いっぱい。垢版2021/06/26(土) 20:56:01.54ID:mJGhjQLv0
>>544
RTX3090の人かな?
CPUについての情報少ないから助かるわありがとう
速くはなってるけど17万円24コアが2.5万円6コアの倍ってコスパ悪すぎるなw
3600だと使用率100%で張り付くから12コアの3900にしようかな

ちなみに1024pxで抽出したsrcとdst1万枚でマージしようとしたら
重すぎてマージできなくて512pxに変換したら問題無くできたから
フェイスセットの解像度でもかなりスピード変わりそう
0547名無しさん@お腹いっぱい。垢版2021/06/26(土) 23:53:59.06ID:mJGhjQLv0
フォーラムのガイドに1080Pの場合は768〜1024をおすすめします的なことが書かれてたから安易に変えてみたんだけど画質変わらないしtrain時の読み込みも遅くなるしデメリットしか無かったわw
0551名無しさん@お腹いっぱい。垢版2021/06/27(日) 12:02:13.98ID:ocn4RUcd0
そんなん、プレビュー画像を出力し続けるようにModすればよくね?誰でも出来る件。
0553名無しさん@お腹いっぱい。垢版2021/06/27(日) 19:11:22.03ID:zVvBk5kK0
morph factor とか amp とか 使用感どうですか? 
ちょっとしばらく触ってなかったので、ついていけなくなってきた;;
0554名無しさん@お腹いっぱい。垢版2021/06/28(月) 02:02:02.22ID:jAsP+lkm0
たまにある正面からの固定アングルみたいなdstならAMP使えそうだけど
動き激しいのだとsrcの角度完璧に揃えないとmerge後SAEHDより違和感がある
morphはmodelに対して設定するのはよくわからんからデフォの0.33でやったけど
mergeの時のopは0だろうが1.0だろうが最高値でかかる恐らくバグ

結果AMPは断念したわハードルが高すぎるし使い勝手悪い
0556名無しさん@お腹いっぱい。垢版2021/06/28(月) 23:20:55.53ID:N9b3f5eO0
>>554
ありがとう。しばらく今までのsaehdでいきます。
xseg generic は使ってみる。changelogにあったあごのラインがおかしい画像の
パターンはよく起こって悩みの種だったので これが解決すればまじで神パッチだわ。
0557名無しさん@お腹いっぱい。垢版2021/07/10(土) 19:48:55.67ID:ygclf0IN0
pretrainの仕方って設定を選ぶときの最後の選択肢を有効にして、一定程度学習が進んだら無効にするという方法であってますか。
実際にその手順でやったら無効にしたあとプレビューが0から生成しているようですが、大丈夫でしょうか。
0559名無しさん@お腹いっぱい。垢版2021/07/10(土) 20:43:57.64ID:ygclf0IN0
ありがとうございます。
通常と同じくゼロから生成されるけど、仕上がりがよくなるという感じですか?
0560名無しさん@お腹いっぱい。垢版2021/07/10(土) 21:47:19.77ID:fVw4v6i10
うん
例えば車の新型だすとき使えるパーツは使い回した方が効率いいでしょ
ただcelebAは外車の公道用のパーツだから本当は日本車のレーシング用を集めたほうがいい
0562名無しさん@お腹いっぱい。垢版2021/07/11(日) 00:52:48.31ID:CWlbfjOB0
外国人オンリーで100万回pretrainされたモデルを利用して
5万回くらい本trainすれば本人レベルになるから普通に満足してたんだけど
日本人のセットでpretrainしてからtrainしたらもっとsrcに似せられるのかな?
0563名無しさん@お腹いっぱい。垢版2021/07/11(日) 14:34:11.15ID:4iPJ7ijq0
厳密に比較して無いから分からんが、前髪とか髪色も鑑みるとそのはず
元々のceleb_Aを解凍してみるとアバターみたいな奴とか男とかかなり無茶な内容
自分がよく使うタイプのsrc/dstから50k枚位選んで100k程度(輪郭ハッキリしてくる程度)のpreでも十分なのは試した
0564名無しさん@お腹いっぱい。垢版2021/07/11(日) 15:34:42.18ID:CWlbfjOB0
枚数と回数の情報までサンクス
pretrain済みモデルだとdimsとかの設定も
自分のGPUの限界まで上げられないのが不満だから自分でpretrainしてみるわ
0566名無しさん@お腹いっぱい。垢版2021/07/11(日) 23:20:27.22ID:CWlbfjOB0
ほぼ選別しないで全部ぶち込んでるのかと思ったわw
色んなパターンの良いとこ取りして鍛えてみる
0567名無しさん@お腹いっぱい。垢版2021/07/17(土) 16:05:41.43ID:tE1HHxke0
2枚の写真から作るって無理?
正面写真2枚で動画も正面の数秒ほどの動画で試しに作ってるんだけど顔にならん。。。
0570名無しさん@お腹いっぱい。垢版2021/07/18(日) 04:03:32.95ID:AwEFT1wl0
>>567
写真から動画を作るAI活用したサービスがあるよ。
0572名無しさん@お腹いっぱい。垢版2021/07/19(月) 07:59:07.03ID:mnpBJkqV0
卒アルではないけど写真手に入れるのが難しくてw
うまい人だと卒アルからでも作れるんかな
まだ始めたばかりだからとりあえず動画動画で練習してから写真にチャレンジしてみます
0576名無しさん@お腹いっぱい。垢版2021/07/19(月) 20:54:13.59ID:/hLny+A60
グラボが3090なんですけどコア使用率が2〜3%
メモリ使用が7.9Gしか使わないんですけどこんなもんですか?
フルに働いてほしいが
0578名無しさん@お腹いっぱい。垢版2021/07/19(月) 21:41:05.01ID:/hLny+A60
すいません顔を解析してる時で、トレーニング中はコア20%メモリ20G弱まで上がりました
それでもフルに使えてないですね、OCしたらもっと早くなるのかな
0579名無しさん@お腹いっぱい。垢版2021/07/19(月) 23:07:10.44ID:0p2eNPIv0
顔を解析してるときはコアは1つしか使ってないから、どうやっても上がらない
train中はCPUじゃなくてGPUをフルで使ってるはず
0580名無しさん@お腹いっぱい。垢版2021/07/20(火) 00:28:20.23ID:zYKnJBhc0
抽出の方法変えちゃえば1080Tiですら標準の奴より
10倍くらい早く顔の抽出できるみたいだから
誰かに改善してもらいたいわ
作者なら頑張ればすぐ改造できそうな部分なんだけどなぁ
0581名無しさん@お腹いっぱい。垢版2021/07/20(火) 08:49:25.70ID:bmVR8mDJ0
やり始めたけどめっちゃ時間かかるね
ネットに上がってるような短いのじゃなくてAV1本丸々の超大作を量産しようと思ってたけど無理だなw
練習で1分の動画作るだけで糞時間かかってる
0583名無しさん@お腹いっぱい。垢版2021/07/20(火) 21:38:24.36ID:0odC18lY0
今やり方覚えるために冒頭の顔だけの1分とかで練習してるけど全然うまくいかんw
素材が写真2枚ってのがダメなんだろうけどw
動画で手に入る似せたいのって特にないんだよなぁ。。。
もうAV→AVでやってみようかな
0585名無しさん@お腹いっぱい。垢版2021/07/20(火) 22:23:41.94ID:0odC18lY0
動画でいろんな角度と表情が必要なのはわかってるんだw
ただ好きな芸能人とかも特にいないから作りたい顔の動画がないんだよね
0587名無しさん@お腹いっぱい。垢版2021/07/21(水) 03:00:33.81ID:bp3qHvqp0
昔、職場で一番のお気に入りの後輩のプレゼンの指導をたまたましたことがあって、
そのとき、慣例に従ってビデオ撮って「自分でどこ悪いか見とき」と本人に渡した。
いやぁ、そんときのビデオがこんなところで役立つとは思いもしなかったよw

てな訳で、ビデオ撮る口実見つけるのがオススメw
0590名無しさん@お腹いっぱい。垢版2021/07/21(水) 07:53:46.25ID:62aSpyoD0
AV見る時輪郭と身体重視になってしまったな
あとアングル的にやりやすそうなシーンがあると興奮が増す
0591名無しさん@お腹いっぱい。垢版2021/07/21(水) 08:00:19.81ID:81A7l/pw0
堂々と動画取れるのはうらやましいなぁ
チャンスがあったとしても最近はマスクしてるしね、、、
0594名無しさん@お腹いっぱい。垢版2021/07/21(水) 19:29:15.54ID:r7BcsjDB0
逆にマスクしてる組み合わせに挑戦してみるかな バックの画とかでdstの肩で口から下が隠れる素材でもイケる事もあるし
眼鏡は意外とsrcの目元も再現出来てたが全体的に無理があるというかボヤけ気味だった
0598名無しさん@お腹いっぱい。垢版2021/08/04(水) 04:05:41.24ID:uGonNvCV0
2080Tiだけど、慣れて来ると1時間くらいの動画は余裕
下手すると2時間くらいでもイケそう
コツっていうか、キスシーンとかの2顔同時に写ってるめんどくさい部分は諦めて
出来上がった部分から良い部分だけを切り取って編集したほうが、精神に優しい

初心者はグラビア系やイメージビデオ系が楽
大抵は被写体1顔だけした写ってないし、髪が振り乱れるような場面が殆ど無いから
物凄くサクサク作成出来る
0599名無しさん@お腹いっぱい。垢版2021/08/04(水) 04:16:19.44ID:uGonNvCV0
192のバッジ6〜10くらいで、GPUもCPUもほぼ全開
どうも192×バッジ数がGPUメモリ使用率になるらしく
GPUのメモリ11Gを目一杯使えんのよな

バッジは2ごとで上がっていくらしいから
バッジが8で9G使ってたら、バッジ10だといきなり11G越える

結論としては192←この値が小さいと、かけるいくらという選択肢が多くなって
例えば192を半分にするとバッジがもっと細かい数で設定できる かと

2080だと、192か256かの2択しか無いが
256だとバッジが2とかになって、すこぶる学習処理が停滞する
0600名無しさん@お腹いっぱい。垢版2021/08/04(水) 04:26:29.99ID:uGonNvCV0
究極言うと、元々激似のヤツ同士を合わせると物凄い楽
得に輪郭と口元と髪型
口は笛作成時にsrc側の口をマスクしてdstの口をそのまま使えて便利
0606名無しさん@お腹いっぱい。垢版2021/08/04(水) 20:26:04.82ID:iRLaDLAM0
今からグラボ買おうと思ってるなら3060がオススメ
2080Tiに比べて処理速度はちょっと遅いが、メモリ12GでDFL向き
このメモリ容量を搭載した3060より上のグレードは3080Tiになって
確かに速度は速いけど価格が4倍くらいする
そうなったらもう、3060搭載のPC2〜3台自作したほうが、処理が楽
だいたい、3060搭載のPC2台で3080Tiと同等の処理が可能
0610名無しさん@お腹いっぱい。垢版2021/08/05(木) 08:13:02.87ID:hllfiSPu0
二年くらい離れてたんだけど、この界隈って簡単なアプリケーションとか出た?

以前経験したのは、
@インストールまでがクソ面倒
A複数人記憶させて使い回しさせると精度が良くなる
B赤字かなんかでめちゃくちゃ中断させられる

っていうので、スタートラインたつのがハードル高すぎた
おまけに出来上がったのみたらのっぺらぼう
それともまだ変わってない?
0614名無しさん@お腹いっぱい。垢版2021/08/05(木) 13:02:28.17ID:YV8IStiQ0
誰にも認められないと他者攻撃性に変わるっていうけど典型だな

>>611
知らんと思うけど2年前はそんなんだったんやで

>>613
dflはダウンロードするだけやで
2年前のエントリークラスだと厳しいけど高いpcなら試してみ
0615名無しさん@お腹いっぱい。垢版2021/08/05(木) 13:22:45.04ID:+aINE/lW0
普段ゲームしかしません APEX最高!みたいなアホ学生は自分で調べるより先に人に何でも聞こうとするから優しくしたら質問まみれになるし
デメリットしかないから放っといた方が良い
mrのガイド翻訳しても理解できないとこだけ質問してくれ
0617名無しさん@お腹いっぱい。垢版2021/08/05(木) 14:46:01.41ID:YV8IStiQ0
調べるも何も前よりよくなってたら試したいから使ってる人の意見を聞きたいって話やん

ほんでミスターに書いてる以上のこと聞いてもおまえわからねえじゃん
0618名無しさん@お腹いっぱい。垢版2021/08/05(木) 14:58:03.83ID:+aINE/lW0
何でこんなアホを擁護する必要があるんだよ携帯とPC使って自作自演か?
日本語で解説してるサイトもあるんだから
自分で調べれば2年前とどこが変わったかすぐ分かるだろww
Xseg Maskって何?Pre train済みモデルってどう使うの?AMPって何?
ってくだらない質問にお前が全部答えてやれよ上級職人さん
0621名無しさん@お腹いっぱい。垢版2021/08/05(木) 16:32:18.59ID:+aINE/lW0
すまんなお前の初心者への優しさは評価するよ
トレーニング中のプレビューサイズの変え方とか
開発者のiperovは変更できないってディスコで言ってたけど
このスレではModel.pyの数値をいじれば変更可能って事とか
開発者よりも参考になるから見てるし
もっと過疎られても困るからやめとくわ
0622名無しさん@お腹いっぱい。垢版2021/08/05(木) 16:41:52.21ID:YV8IStiQ0
>>621
おまえガイジスレでも煽ってるよな
そんなの(Python初心者でもできるけどめんどさいから)できないだぞ
ipeはそういうやつ
そんなのもできないやつが初心者煽るな
0624名無しさん@お腹いっぱい。垢版2021/08/05(木) 20:10:52.98ID:WjiSY5nE0
GUIベースになったらなったで、このパラメタはどう設定するのでしょうとか、
何でここを選択するとこっちが選択出来ないのとか、
結局訊くレベルは同じだと思うけどw

もちろん、AIなんで全部勝手にやってくれてあ〜らびっくり、完璧!ってのがいいけどね。
残念ながらそういうレベルになるのはまだまだ先だね。。。
0627名無しさん@お腹いっぱい。垢版2021/08/05(木) 23:29:04.41ID:pZOn4l/80
視覚的にはすぐわかるよ
例えば、鼻の穴見えるような角度のsrcが足りないと
上むいた時、鼻が潰れたみたいな画像ができあがる
俺は、激似dstを見つけた時に、そのdstの上向き画像をsrcに足して対処してる
どうせ、顎下から見てるんでsrcもdstも顔見えないからわりと使い回し効く
0628名無しさん@お腹いっぱい。垢版2021/08/05(木) 23:30:19.84ID:pZOn4l/80
大体、足りない角度は顔見えない角度な事が多いから
srcに他人の顔dstを打ち込んでも、ほとんど違和感無い
0634名無しさん@お腹いっぱい。垢版2021/08/07(土) 01:31:07.68ID:cN7PojON0
すいませんちょっと教えてください。
build_07_01_2021でxseg_generic やったところ、なかなか優秀だと思いました。
build_07_30_2021だと、更にxseg_genericが良くなったらしいので、こちらでやり直したいと思っているのですが、
コピーするのはworkspaceフォルダ丸ごとで良いのでしょうか?
あと、xsegのpretraining modeもやった後にxseg_genericをした方がよいのでしょうか?
0635名無しさん@お腹いっぱい。垢版2021/08/07(土) 08:45:39.31ID:+Mp2hdU+0
Xseg_genericは_intermalフォルダ内にあるmodelを使用しているから
XsegをtrainしてもXseg_genericには反映されない
自分用のXseg_generic作りたいなら
_internal→model_generic_xsegフォルダ内にあるファイルを
workspace→modelに移してtrainするほうが0からtrainするより早い
満足できる状態になったら
_internal→model_generic_xsegフォルダに戻す
ちなみに自分はXseg_genericはいじらずにデフォのままで使用しているけど
0636名無しさん@お腹いっぱい。垢版2021/08/07(土) 08:51:24.20ID:+Mp2hdU+0
新しいアルゴリズムのpretrain済modelはダウンロードできるまで時間かかるだろうから
今は_internal→model_generic_xsegフォルダ内のファイルをコピーしてtrainしている
0640名無しさん@お腹いっぱい。垢版2021/08/08(日) 13:11:01.11ID:lCcOAULi0
634です。
635 636 有難うございます!
いちいちxsegするの面倒くさくて。自分の印象だと、xseg_genericが
fansegレベルに近づいてるのではと感じてます。
まあ試行錯誤の連続ですね。
0642名無しさん@お腹いっぱい。垢版2021/08/09(月) 02:49:46.18ID:Hd2OVUFs0
警察
0644名無しさん@お腹いっぱい。垢版2021/08/14(土) 14:30:48.38ID:rumXi0yN0
3060からA4000に載せ替えてみたけどアチアチ過ぎて効率落ちたような気がする...
0647名無しさん@お腹いっぱい。垢版2021/08/14(土) 21:57:29.48ID:2KeyOdab0
>>644
冗談だろ、買い換える意味がわからん
0648名無しさん@お腹いっぱい。垢版2021/08/15(日) 03:02:50.70ID:RGpjsGfN0
>>645
>>647
効率落ちたっていうのは極端過ぎたわすまん。今のところあんまり変わらんっていうの正しいかも

DFLは最新のRTX3000ver、cuda11.4導入済、A4000(70% PL)と3060(non-LHR/70% PL))での比較になるけど同条件でのsrc顔抽出速度は3060の方が気持ち早いくらい

デフォ設定で抽出/SAEHDで回して反復速度は250〜300ms。res128→192に変えて400〜450msぐらい。loss値の減り具合も大して変わりないような...

ちなみにPL解除すると室温26°環境にて3060は85度付近をウロウロで済むけどA4000は90度まで跳ね上がるのでやむ終えず

PLかけても75〜80度とアチアチだけど学習中ワットチェッカーではmax170Wと3060の210Wほど電気喰わずちょっぴりエコな所と冷却ファンが2500rpmと回る割には静かなのは嬉しい点。3年保証だし

数値上変わらないのはドライバが未成熟なのか現時点では頭打ちな仕様なのか...LHRの影響ではない事を祈っているよ〜
0649名無しさん@お腹いっぱい。垢版2021/08/15(日) 21:21:56.85ID:DNCv+M1o0
>>643
真正面アングルだけならDFLと変わらないレベルのが
リアルタイムで作れるし便利だけど
横とか下向いたりするだけで顔崩壊するし
フェラ動画もxseg maskが機能しないからチンコがsrcの顔にかき消されるんだけど
それ用に変えなきゃいけない設定とかコードとかある?
Face mergerのmask typeとかを変更したりしてもフェラは崩壊してダメだわ
もちろんDFLでは普通に作れるしFace Swapperにtrain済みのdfmファイルを使用してる
0650名無しさん@お腹いっぱい。垢版2021/08/15(日) 21:28:05.72ID:p/9PmR910
>> 649
dstで口から下を取り除いた顔の輪郭を【含む】線で囲む
同じコマ上のちんこ部分や顔にかかった手の先や紐状の髪の毛等は【含まない】線で囲んで学習
その後、再度Xsegで開いて連続コマを動画風に流しながら白黒でマスクを確認して
マスクがきれいにかかってない部分を選んで、また学習
これを繰り返す
0653名無しさん@お腹いっぱい。垢版2021/08/15(日) 22:12:03.12ID:DNCv+M1o0
DF live使ってる人少なそうだから困るな
mrのスレッドで配布してたフェラ用にmaskされたtrain済みマスクを
全dst画像に適応させてtrainしてるから
DFLのmask edit見てもチンコも綺麗にマスクされた状態なんだけど
新規フェラ動画をDFliveのFile sourceに使いたくても
dstのチンコを事前にマスクしなきゃいけないから
リアルタイムフェラ動画はキツイか
無編集の数時間ある動画ぶち込んでもすぐDFできるのはめっちゃ便利なんだけどな
0654名無しさん@お腹いっぱい。垢版2021/08/15(日) 22:19:46.22ID:DNCv+M1o0
>>652
居ないかと思ったら643本人いたわ ありがと
設定変えれば色んなアングル対応できるのかと思ったけど
live向けだしやっぱり正面アングルに限るか
でも今までノーマークだったdstが
こんなに相性良かったんだって発見しやすいし
相性確認用として使うことにするわ
0655名無しさん@お腹いっぱい。垢版2021/08/18(水) 01:01:52.19ID:xz+5pDh90
手動でも顔抽出が難しいところって、皆さんは諦めてというか、わりきってカットしてますか?
0656名無しさん@お腹いっぱい。垢版2021/08/18(水) 15:48:47.90ID:LFgo9Rq60
>>655
srcに関しては使わない dstの場合は頑張って無理ならスルー mask editorキッチりゃってもlandmarkがめちゃくちゃだと厳しい
ブレはともかく髪でmask内(目とか)が隠れたりだと、他のframeがmerge出来る段階までtrainしても崩れたままが殆ど
srcで奇跡的にドンピシャなのがあるとイケる事もある
0659名無しさん@お腹いっぱい。垢版2021/08/19(木) 00:12:08.26ID:86Ip9tY10
某記事のやつってこれ?
0660名無しさん@お腹いっぱい。垢版2021/08/19(木) 12:29:36.96ID:+oj+aGUi0
人物A汎用modelの作成で、汎用Pretrain modelから、1.人物Aをfacesetに入れて追加Pretrain、2.人物AのAlignedで追加Pretrain、3.人物AのSRCxSRCで通常train
この3通りでは1と2には優位な差は見られないが、SRC育成が進んでる3が高品質になりやすいであってる?
Pretrain Facesetに人物Aのalignを入れる人がいたけどそれの優位性が思いつかないんだがなんかある?
0661名無しさん@お腹いっぱい。垢版2021/08/19(木) 14:40:52.23ID:tnCo+0m30
外国人だけで100万pretrainさせたmodelと
自分が通常trainでよく使うsrcとdstだけ選別してcelebAに1万枚入れて
20万pretrainしたモデル使って同じ素材で通常trainして比較したけど
外国人model使った方が横顔とかきつめの角度にも対応できてsrcに寄せやすかったから
pretrainよりも通常trainに時間かけた方が良いな
とにかくsrcの画質にこだわってDFDNetとか使ってsrcの画質爆上げさせて
random warpオンで損失0.1くらいまで通常trainすれば小さいホクロとか
歯とかもクッキリ学習してくれて一番高品質にできるかな
海外のセレブとかは至近距離の一眼撮影未加工データとか大量にあるし
それを更に全部reminiさせたりAi Enhanceしてるから高画質すぎて羨ましい
0663名無しさん@お腹いっぱい。垢版2021/08/19(木) 21:49:52.69ID:tnCo+0m30
1024px以上のaligned使うとvram12GBと6コアcpuでも
マージの時にフリーズするから解像度が巨大化するのはNGだな
でもDFDNetだと512pxとかで解像度維持したままファイルサイズ3分の1にできる上に
眉毛とかホクロがボケてよく分からない720Pくらいの映像でも
Aiでremini並みに復元してクッキリさせられて
無料で自分のPC上で数千枚の画像丸ごと高画質にできるからsrc増やす度に使ってる
ただ英語の解説しかないしpythonの知識が無かったから
色々と導入して高画質化できるようになるまで理解するのがきつかった
0669名無しさん@お腹いっぱい。垢版2021/08/20(金) 18:52:09.31ID:x+u1HPoK0
前からある技術だけどjappは早速日記を参考にして
昨日の夜からAi EnhancerのGPEN導入してるから
自分で頭使って試せる奴は1から10まで説明しなくて良いし役に立ってくれるな
DF上でのGPENの仕上がりの違いも知りたかったから助かるわー
0670名無しさん@お腹いっぱい。垢版2021/08/20(金) 18:55:29.36ID:eNZLX5Qb0
キモ
0671名無しさん@お腹いっぱい。垢版2021/08/22(日) 01:49:03.43ID:9i8FyP7D0
>>663
dfd試してみた
step1の顔抽出がかなり遅いんだけどこんなもん?
元画像が512pxとかになるとこれで何千枚とかやるのは気が遠くなるぐらい遅い
出力された画像は確かに凄い鮮明になってたけど
0672名無しさん@お腹いっぱい。垢版2021/08/22(日) 01:55:39.19ID:Ctpld0710
dfdはステップ3でメモリーエラー出て20時間ぐらい動かしてたのに最初からやり直しだわw
数枚だとエラー出ないんだけどなぁ
10000枚やるとあかんわ。
gfsganはきれいになるしエラーは出ないけど、CG感が凄い
gpenはwindowsで動かない
0673名無しさん@お腹いっぱい。垢版2021/08/22(日) 02:37:36.85ID:YcSWsJMr0
>>671
step1はcudaとかcudnnとか入れてpythonで色々と設定しないと
CPUしか使わないしアホみたいに時間かかるから使わなくて良いよ

Colabで動作させてるなら分からんけどローカルで動作できるなら
githubのチュートリアル通りにTestWholeフォルダにaligned画像入れるんじゃなくて
DFDNet-whole\Results\TestWholeResults\Step1_CropImgに
aligned画像全部入れて同じようにtest_FaceDict.pyを実行したら
無駄なクロップとかの工程すっ飛ばして色々とエラーが表示されて動作停止した後に
Step3_RestoreCropFaceフォルダに高解像データが保存されてるからそれを移動させれば学習で使える
これなら512pxの画像1枚につき1秒くらいで高解像度化してくれるはず

Colabの場合はそのままDFLで使えるのかも知れないけど
このやり方だとDFLImage扱いされないから
4.2) data_src util faceset metadata save.batを使って
元のalignedデータのメタデータを全部保存してから
超解像したalignedを元画像データと全て同じ名前のままalignedフォルダに移動させて
4.2) data_src util faceset metadata restore.batを使ってメタデータを移植させれば
DFLImageとして使えるようになる
0674名無しさん@お腹いっぱい。垢版2021/08/22(日) 02:47:07.79ID:YcSWsJMr0
jappがGPENをColab上で動かせるようにしたみたいだけど
DFLで切り出したaligned使うと最後まで動作はするけど
結果のzipフォルダが空の状態で保存されてて超解像できてないんだよな
サンプル映像見るとDFDよりも解像度は上っぽいけど
若干顔が別人になってる様に見えるからDFDの方が良いかね
0676名無しさん@お腹いっぱい。垢版2021/08/22(日) 12:23:05.50ID:7oGU12I30
>>673
返信どうも
ただこの方法だとノイズが入ったり不自然になる画像があった

色々弄ってみて解決
遅いのはdlib関連だったみたい
test_FaceDict.pyの26行目
dets = detector(img, 1)の1を0に変えたらstep1の処理が5倍くらい速くなった(それでもまだ遅いけど...)

あとはdlibのコンパイル時にCmakeやらVSのオプション弄っても高速になるらしいけどそちらは未確認
0678名無しさん@お腹いっぱい。垢版2021/08/22(日) 16:12:08.11ID:YcSWsJMr0
>>677
動作確認で数枚の画像だけ圧縮してたけど
フォルダごと圧縮したら問題無くいけたわサンクス
dfd使ってもノイズでよく分からない唇のシワとか
まつ毛まで見えるようになるし処理早いし数日で革命起きて草
0679名無しさん@お腹いっぱい。垢版2021/08/24(火) 16:11:01.63ID:znV+kD/K0
ずっと古いdfl使ってた初心者なんですけど、最近のバージョンってtrain遅くなったけど精度は上がってたりします?
めちゃくちゃ数こなすの遅くなってて
0682名無しさん@お腹いっぱい。垢版2021/08/24(火) 21:09:29.07ID:K13xNfur0
Colabの方で超解像化してそのままぶち込んでもDFLファイル見つからんて言われるね。再extractかければいいだけだが
0683名無しさん@お腹いっぱい。垢版2021/08/24(火) 22:56:56.84ID:GoCWkELK0
4.2) data_src util faceset metadata save.bat
4.2) data_src util faceset metadata restore.bat

もっとこのファイルは評価されるべき
元画像まとめてsaveしてgpen画像と交換してrestoreするだけよ
0687名無しさん@お腹いっぱい。垢版2021/08/30(月) 11:13:35.30ID:VYMHbgyX0
>>685
up to 2080tiやぞそれ以前のは使える

>>686
src強化
元動画の画質が多少粗くても使えるようになる
ただたまに化け物生成されるから出力されたのは全数目視検査した方がいい
0697名無しさん@お腹いっぱい。垢版2021/09/07(火) 21:08:45.44ID:XDBpiBeN0
普通にmergeして作成したフルHD解像度のpngやjpgをColabのGPENで高精細化しようとしたらダメだった
代わりにpngから更にheadモード1024で顔抽出したやつなら変換できたので、mergeのソースを弄ってpngの顔抽出元に上書きできるようにした
画面いっぱいの大きな顔でもなかなかな解像感でてる
まだ動画の連続したコマで処理、再動画化は試してないので最終的にチラつき等出ないかはわからない
0699名無しさん@お腹いっぱい。垢版2021/09/07(火) 21:39:13.44ID:wcpFI7Kt0
>>697
まさにmerge画像を更に超解像できたらクオリティもっと上げられると思ってたからありがたい
mergeのソースはどこいじればgpen画像と交換できるん?
0701名無しさん@お腹いっぱい。垢版2021/09/08(水) 17:33:31.93ID:PoGNAqgQ0
Xsegの仕組みを応用して自動顔抽出したがいけてないランドマークを補正する機能は作れないのかな?
pretrainのfacesetに設定されているだろう正確なランドマークを学習させて
0702名無しさん@お腹いっぱい。垢版2021/09/09(木) 20:41:31.17ID:hEi9tf9d0
>>699
ソースの変更箇所を画像にしてみましたので参考になれば
修正箇所はおおまかに以下の4箇所です

1段目・・・FrameInfo.py __init__()
2段目・・・Merger.py main()
3段目・・・MergeMasked.py MergeMasked()
4段目・・・MergeMasked.py MergeMaskedFace()

https://i.imgur.com/C4KSm8G.jpg
0704名無しさん@お腹いっぱい。垢版2021/09/09(木) 21:33:24.63ID:BlyJDcJH0
>>701
3060で顔抽出2重起動しても3it/sくらいだからもっと早くしたいけど
Xseg応用してどのくらいの速度で抽出できてる?
DFLと連携してるMachine Video Editor使えば
ランドマークの自動配置に加えて手動で1点ずつ動かせるから
その抽出方法でも活かせたら強いな
0707名無しさん@お腹いっぱい。垢版2021/09/09(木) 22:44:13.62ID:hEi9tf9d0
>>706
自分はまだ連続コマでの再動画化は試せてないので、GPEN側の精度によってはチラつきで視聴に耐えられないかもしれません
その場合は静止画スライドショーで楽しんで下さいw

あと、1回目の通常マージではsuper resolutionはかけない方が良いですね
GPENで再度高精細化すると前歯に縦線が入ったり副作用が出やすいですね
0708名無しさん@お腹いっぱい。垢版2021/09/09(木) 23:13:57.50ID:BlyJDcJH0
数コマでも更に高品質なシーンが作れるだけで十分なのでノーダメージですw
全部踏まえて修行してみます
0709名無しさん@お腹いっぱい。垢版2021/09/09(木) 23:42:22.97ID:fQEJwoHV0
>>704
Xseg応用しての顔抽出っては自分にとってはまだ夢物語でこれからソースコード勉強してみようかっていう段階です
できれば公式さんにそういうの作って欲しい

Machine Video Editorっていうのがあるんですね、調べてみます
0710名無しさん@お腹いっぱい。垢版2021/09/10(金) 01:22:36.37ID:yzfiE5zs0
>>709
なるほどね
他の顔識別AIを応用すれば動画のまま1フレーム毎に顔認識させて
10倍くらい早くできるみたいだから公式で作ってほしいけど
開発者の対応見てると作る気無さそう

MVEはmrとyoutubeにガイドがあるから参考にしてみて
0711名無しさん@お腹いっぱい。垢版2021/09/10(金) 05:12:45.13ID:38pYaBDy0
>697
debianのローカル環境でやってみたらmerge画像は直接変換できたよ

確かに綺麗にはなるんだけど、動画にすると若干チラつき感はありますね
0712名無しさん@お腹いっぱい。垢版2021/09/10(金) 12:42:29.61ID:Mk7iUkp40
>>711
Colabのメイン部分(jappさん作?)をよく確認したらDFLで顔抽出した以外の画像は変換対象外にしていましたね
このチェック部分を上手くコメントアウトすればColabでもmerge後のフレーム画像をそのままGPENを掛けられるかもですね

自分もようやく改造ソースで連続コマを再動画化(GPEN適用は1万6千枚)が出来ましたが、通常の顔サイズなら目立ったチラつきはありませんでした
一番印象が変わる前髪や眉毛もチリチリするようなことはなし

ただ画面縦の6割以上な顔アップで動きが少ない場面だと顔全体が少しチラつくこともありでした
0718名無しさん@お腹いっぱい。垢版2021/09/14(火) 13:24:52.41ID:orVHCs2F0
今GTX1080使ってるけどRTX3060に変えると学習早くなるかね?
ゲームベンチだとあまり差がないからどうなのかなーと思ってます。
0719名無しさん@お腹いっぱい。垢版2021/09/14(火) 15:01:17.73ID:ddnUq2gF0
口開けてるシーンが全部めっちゃ笑顔になっちゃうんだけどどうしたらいいんだ?
学習させる顔の笑顔シーンを消してから学習させるしかない?
0720名無しさん@お腹いっぱい。垢版2021/09/14(火) 20:29:24.82ID:Im5nQU3s0
>>718
1080から3060に変えたけど、学習2は倍から3倍に速くなったよ。
1080だと512×512ぐらいのフェイスセットが限界だけど、
3060だと1000×1000でheadごと切り出しとかもイケる。
TDPも下がるし電気代的にもお得でマザボへの負担も若干少ない。

8ピンのみで動く光らないmsiのがお勧めだと思う。

ただメモリバス幅は1080よりだいぶ劣化するので完全上位互換では全くない。
古いゲームとかだと1080の方が速いかも。
0721名無しさん@お腹いっぱい。垢版2021/09/14(火) 20:43:04.62ID:Im5nQU3s0
>>719
偽造しちゃうのも手だよ。

src側のalignedに切り出し後の顔画像が並んでるじゃん。
あれをdstの最終のmergedに全部コピペして merged to mp4すると、
顔が中心に寄った動画として書き出される。

これがサイズ、画角が中央に揃ってて、動画編集ソフトでコラージュしやすい。
笑ってない顔なら、真顔上半分と口開けた顔下半分とかで重ねれば大量に無表情の口開け顔とか作れる。
目を閉じてとか、片目閉じて(左右で重ねる)とかも同じ感じで作れる。
多少色なんかがズレてても、学習後は本番時のdstの顔色に揃えるんだからザックリでも結構うまくいく。
0722名無しさん@お腹いっぱい。垢版2021/09/14(火) 20:45:45.42ID:Im5nQU3s0
補足
MP4にする時に、dstの元動画も参照するから、
顔を切り出したsrcの元動画を、data_dstにリネームしとかないと動画書き出せない。
0724名無しさん@お腹いっぱい。垢版2021/09/14(火) 21:33:15.38ID:orVHCs2F0
>>720
なるほどー。

すごく参考になる情報ありがとう。
ゲームはやらないので載せ換える価値ありそうですね。

検討してみます。

もう少し出しても良いのなら3060tiの方がさらに早くなるかな?
3060はVRAM12GBなのが魅力なんですけどね。
0725名無しさん@お腹いっぱい。垢版2021/09/14(火) 21:36:44.86ID:WBM4S41e0
df liveのお手軽さが最高なんだけどこれってsrcの顔をそのまま出力してるから
dfmモデルはsrcの学習データだけ利用してるのかね?
それならsrc×srcで時短して汎用モデル沢山作りたいんだけど
dstの学習データとかも使ってるとしたらsrc×dstで学習したモデル使った方が
照明条件とかdstへの適応力上がったりするのかな
0728名無しさん@お腹いっぱい。垢版2021/09/16(木) 13:06:26.37ID:M44eBt7s0
>>721>>723
サンクス、いろいろ試してみます。
0729名無しさん@お腹いっぱい。垢版2021/09/16(木) 20:24:51.53ID:DR6CVoFi0
画面外から顔がフェードインしてくるとき、一部分しか写ってない上にだいたいブラーかかってるから上手く認識されずにどうしてもおかしくなっちゃうな
数フレームだしカットしてしまうのが丸いかな
0730名無しさん@お腹いっぱい。垢版2021/09/16(木) 21:16:17.74ID:f1Q/4sBt0
manual extractのa modeで拾う事は出来るけど、あんま良い結果になった事は無いな
自分の場合は切り出しの段階で省く
0735名無しさん@お腹いっぱい。垢版2021/09/18(土) 01:03:59.37ID:A9bokZIB0
19日前のDeepFakeArchi.pyの更新で
Added -t arhi option.って書かれてて色々とコードが追加されてるけど
これはFP16で学習できるようになるのか?
iperovがRTMモデルに最適ですとしか回答してないからよく分からんが
2か月前にFP16でのテスト画面載せてたし
最新版のDFLのinternal Model_SAEHD Model.pyにも隠しコマンドみたいに
use fp16オプションと説明が追加されたりしてるからコード書き換えれば使えそうなんだが
0736名無しさん@お腹いっぱい。垢版2021/09/18(土) 15:43:57.92ID:GEtIPbbW0
9/6版だとOOMエラー。
8/12版ではさくさく いくのに。
同じSRCとDSTなのにどういうことでしょう?
0737名無しさん@お腹いっぱい。垢版2021/09/18(土) 17:24:48.89ID:JGDxsHEr0
最新のやつって1080じゃまともに動かないよね
CUDA関連のファイル入れ替えたら動いたけど、1080はもう切り捨てられたのかな
0738名無しさん@お腹いっぱい。垢版2021/09/18(土) 18:34:26.33ID:A9bokZIB0
状態と種類にもよるけど1080ならまだメルカリで4万円くらいで売れるから
58000円の3060買って12gbのvramで楽しもうぜ
0740名無しさん@お腹いっぱい。垢版2021/09/19(日) 01:14:00.37ID:fvYvWdU00
>>739
環境にもよるんだろうけど、そのままじゃ動かなかったんだ
エラーメッセージがCUDA絡みっぽかったからCUDAとCUDNNのフォルダの中身を去年12月のに入れ替えたら動いた
0743名無しさん@お腹いっぱい。垢版2021/09/21(火) 23:03:38.13ID:Y1yE1sS30
ちなみに save & restore は本来 data_src のための機能なので対象画像をdata_src\alignedに格納してbatを実行する必要がありますね
0744名無しさん@お腹いっぱい。垢版2021/09/21(火) 23:43:46.55ID:N+XLay7i0
>>742
なるほどありがとう
GPENをよく分かってなくて、colabでデフォルトでやってるから、
元のJPGファイルからPNGができてるんだ
JPGで保存するように改造してみる
0745名無しさん@お腹いっぱい。垢版2021/09/21(火) 23:58:53.80ID:Y1yE1sS30
>>744
ごめんなさい
私自身はその後GPENの方はあまり触ってなくてColabの動作も変わってるかもですので不可解な点があればColab上のソースを覗いてみるといいかもですね
0749名無しさん@お腹いっぱい。垢版2021/09/23(木) 23:17:20.64ID:kN6NynmK0
gtx1660で2.0って動くの?cudaが使えればいいのかな?
0753名無しさん@お腹いっぱい。垢版2021/09/25(土) 22:32:19.54ID:pToTqKyh0
gtx900シリーズまではサポートされてるから普通に動かせるけど
6gbだとresとか全然上げられないからすぐ新しいの欲しくなるよ
0754名無しさん@お腹いっぱい。垢版2021/09/27(月) 01:00:08.11ID:30Ng7ivD0
興味本位で初めてみたけどこれ電気代ヤバくない?
ものすごい部屋の温度あがってたわ
Google colabはなんや難しそうやし…
0759名無しさん@お腹いっぱい。垢版2021/09/28(火) 04:41:12.98ID:Pt9lNeVg0
もしかしてLHRって良くない?
顔抽出をやってくるない事が多い-できることもある
0761名無しさん@お腹いっぱい。垢版2021/09/28(火) 19:17:32.54ID:xI3IMOQB0
制限無しの1660とgainwardの安いLHR3060を別のpcで使ってdstを半分ずつ抽出してるけど
顔抽出の精度は全く変わらんな dflの顔抽出の性能自体が悪いから抽出速度は3060が少し早い程度だけど
vram多いから3060だと1660の倍くらいの設定にしても問題無く学習できる
mrのスレッドでもLHRは関係無いって言われてるし顔の素材とか準備するのに時間かかるから
早く買って作業開始した方が良いよ
0764名無しさん@お腹いっぱい。垢版2021/09/28(火) 20:36:37.32ID:SIidQGsB0
全フレームマニュアルで抽出するやつとかおらんやろ
それとも死んだvineみたいに6秒DFでも作るんか?
0765名無しさん@お腹いっぱい。垢版2021/09/29(水) 18:06:37.46ID:UxxZPmv00
久々に触ったらオプション増えてまくってて何がなんやら
後半GAN使うときにこれはON/OFFにしろみたいなのってある?
0766名無しさん@お腹いっぱい。垢版2021/09/29(水) 19:11:23.15ID:q2znDvl+0
debugでちゃんとland/maskが一致するものを作るならmanualだろ
時間も自動とそんなに変わらんし 比較した事すら無い初心者は知らんけど
0767名無しさん@お腹いっぱい。垢版2021/09/29(水) 19:17:19.26ID:q2znDvl+0
角度が30度以上つく場合のautoとmanual+aでのmask範囲の違いは大分印象変わるぞ
前髪多めの素材で俯いたりまばたきするフレーム、髪が輪郭を一部でも隠す場合、こういうのもマニュアルでやらないと
後からdebugで微妙な部分を探してmask editorで修正とか二度手間じゃん そこまでやってる奴このスレに居ないだろうけど
0776名無しさん@お腹いっぱい。垢版2021/09/29(水) 22:13:30.48ID:BygiL9MB0
ごめん見てなかったわまさかそんな短いとは思わんかった
でもdstの時間に関係なく秒速3フレームで抽出するの無理だよね?
仮に5秒で1フレーム抽出出来ても5時間かかるけど自動なら20分手直し考えてもまあ1時間
4時間くらいなら誤差な暇人か定年後の爺か?それならボケ防止によさそう
0778名無しさん@お腹いっぱい。垢版2021/10/04(月) 15:29:27.24ID:OaVGMfEO0
数枚の写真からそれなりの動画作れた人っている?
身近な人で作れたら最高だけど動画なんて手に入らねーよ
0779名無しさん@お腹いっぱい。垢版2021/10/04(月) 18:19:24.67ID:8L8eWXyA0
> 数枚の写真からそれなりの動画作れた人っている?
> 身近な人で作れたら最高だけど動画なんて手に入らねーよ

写真撮るフリして動画撮るんだよw
0781名無しさん@お腹いっぱい。垢版2021/10/05(火) 09:05:41.98ID:+qUl489E0
>>779
写真撮るのもハードル高すぎるw
>>780
ソフトDLして自分のPCで出来るといいんだけど、アップするのは何かあったらと思うと怖い。。
0783名無しさん@お腹いっぱい。垢版2021/10/10(日) 15:13:22.48ID:NeUk8CB/0
ちょっと教えてください。
ページングファイルの設定をしたいと思っています。物理メモリは16GBです。
最新版のDFLやろうとする時、メモリは物理メモリと合わせて何GB位必要でしょうか?
0785名無しさん@お腹いっぱい。垢版2021/10/10(日) 21:04:52.66ID:GZfIclNl0
model作り直しだから試すの躊躇するわ
すぐ互換性ない更新くるかもしれないし
0792名無しさん@お腹いっぱい。垢版2021/10/11(月) 21:29:02.29ID:/PyS8Pa+0
10/09版取り下げられてるな
0795名無しさん@お腹いっぱい。垢版2021/10/11(月) 23:18:32.24ID:f/D/po3t0
gpuが使用できないcudaの不具合があったからその更新だな
githubのissuesに書かれてるけどcuda11.4.2をダウンロードして
cudaの.dllファイルを全部交換したら1009verで普通に動かせる
0906verの3060でliae-udだとres416 lrd offバッチ4 lrd onバッチ2が限界だったけど
udtだとvram使用量が2gbくらい減ってoffバッチ6 onバッチ4まで上げられるようになったわ
0798名無しさん@お腹いっぱい。垢版2021/10/13(水) 00:26:38.58ID:pay0X7A50
出来の差はまだ分からないけどtつけたらたしかにVRAM使用量減るね
バッチ6で回してたとこ8で回るようになった
0799名無しさん@お腹いっぱい。垢版2021/10/13(水) 00:31:37.97ID:+Xfq7PHn0
colabでfaceset.pakの作り方が分からなくて、検索してやっと分かった

後知恵だけど、Windows版のバッチファイルが入ってるフォルダを
調べたら、そこにそれ用のファイルがあったw
0800名無しさん@お腹いっぱい。垢版2021/10/13(水) 01:35:07.05ID:DszooqEo0
ようやく使えそうなGPU手に入れた
今日から電気代気にせず回すからお前らよろしくな!!
で、何から始めたらいいんだ?
0802名無しさん@お腹いっぱい。垢版2021/10/13(水) 09:34:38.91ID:pay0X7A50
>>798
8どころか10でも行けた
VRAM使用量は変わらないな
res上げてやり直そうかな

>>801
自分のとこは50パー
前はこんな使ってなかった気がする
0803名無しさん@お腹いっぱい。垢版2021/10/13(水) 20:18:20.17ID:4PtWVzcN0
-tだけじゃなくて地味に-cも一緒に追加されてたから
liae udtとudtcで同じ設定で回してるけどvramも変化しないし違いが分からん
ディスコでも説明してないし大きな変更はないのかな
0806名無しさん@お腹いっぱい。垢版2021/10/14(木) 00:54:26.22ID:yjPS7HZp0
udとudtで全く同じ条件で比較してないから曖昧だけど
tは確かにsrcに寄せられるみたいでsrcとほぼ同じ顔が作れたから良いと思う
cはディスコでも1人しか触れてないし皆スルーしてるから謎すぎる
0810名無しさん@お腹いっぱい。垢版2021/10/17(日) 21:30:13.26ID:+PIDJ2ha0
今更な質問なのは百も承知なのですがランダムワープってどういう仕組み、効果なのでしょうか?
0811名無しさん@お腹いっぱい。垢版2021/10/17(日) 21:34:53.96ID:+PIDJ2ha0
マニュアルでさらなる精密さが欲しければ外してとありますが外してtrainしたらそもそも最初にランダムワープでtrainする意味ってないと思うのですが違いますか?
0812名無しさん@お腹いっぱい。垢版2021/10/17(日) 21:44:03.87ID:awoVRcnP0
randomで大雑把にtrainしてからオフにして精密にtrainすると速いぐらいの感じ
ずっとオンだとぼやけたまんまだし最初からオフだとすげー時間かかるのに似ないと思う
0813名無しさん@お腹いっぱい。垢版2021/10/17(日) 21:52:29.70ID:+PIDJ2ha0
>>812
ありがとうございます。
最初からオフだと似ないっていうのがいまいち実感出来ないのですがそうなのでしょうかね
0814名無しさん@お腹いっぱい。垢版2021/10/18(月) 00:06:26.08ID:L2yMKhe30
多分 Xseg Train のプレビューで顔画像をグニャグニャ曲げて train してるのと同じことしてるんじゃないかな?
少ないalignedでも効率良く学習できるよう変形を加えてる?
0815名無しさん@お腹いっぱい。垢版2021/10/18(月) 00:48:24.55ID:32ja+T1Y0
原理は俺も全然わかんないけど
最初はランダムワープありでバッチ少なめ、最後はランダムワープ無しでバッチ最大限、って作者が言ってたことを公式のように覚えてる
0818名無しさん@お腹いっぱい。垢版2021/10/30(土) 20:22:51.63ID:TKKHaE6j0
>>817
自分もColab Proで2〜3週間前にT4が1週間ほど続いた
今はP100に戻ってる
ユーザーによって?使用量によって?違うのか
0822名無しさん@お腹いっぱい。垢版2021/11/01(月) 20:01:15.01ID:VUCB/2br0
今geforceのRTX2070superを使っていますが、3060ってのはメモリーがすごく大きいみたいなので、DFL用途であればこっちの方がいいのかと思ったりしています。
今解像度256でバッチ4でやってますが、もっと解像度があげれるとかそういうメリットあるんでしょうか?
0823名無しさん@お腹いっぱい。垢版2021/11/02(火) 10:15:34.18ID:XQluit7L0
あると思いますよ 自分はwfなら res384 バッチ16 headなら res512 バッチ12
でやってます。3090です。
0827名無しさん@お腹いっぱい。垢版2021/11/02(火) 17:40:56.44ID:OXdutDgI0
SRCを高画質化したいけど、GPEN等導入する知識がないのでソフト買おうかなと思ってます。
@VideoEnhanceAI AgigapixelAI BsharpenAIのうちどれを買えば良い? もしくはその他?
全部無料版で試してみるべきとこだが、せかしてくる息子がおりまして。画像は512PIXで考えてます。
0828名無しさん@お腹いっぱい。垢版2021/11/02(火) 18:27:50.31ID:vgm3mzfv0
3060いいですね。
やっぱこの用途だけしかやらないなら、メモリー量が正義なんですかねえ。
ぶっちゃけ一切ゲームやらないし、買ってみようかなあ。
0829名無しさん@お腹いっぱい。垢版2021/11/02(火) 19:02:48.76ID:HsOgxce80
価格2倍以上の3080よりも3060の方が設定上げられるし
2070s売って3060買えばほとんど差額無しで買えると思うしDF用ならベスト
0830名無しさん@お腹いっぱい。垢版2021/11/04(木) 19:31:23.57ID:/63pgaRf0
自分3060ti使ってて一番新しい3000シリーズダウンロードしたんだけどこれcuda入ってます?
なんかトレーニング中にタスクマネージャーみたらgpuの3dがめっちゃ動いててcuda項目がないし、変だと思ってググってみてもcudaはdflのフォルダ内に入ってるとから別途でダウンロードする必要ないって書いてあってよく分らんのですが
0832名無しさん@お腹いっぱい。垢版2021/11/05(金) 10:54:19.53ID:pzWDqP6M0
GTX1080Ti使ってますが、RTX3060に買い換えるメリットあるでしょうか?
メモリ1GBしか変わらないので、どうなんだろう・・と。
0833名無しさん@お腹いっぱい。垢版2021/11/05(金) 11:42:39.68ID:XqRKISi90
cudaコア数も同じでゲーム時とかの性能もレイトレーシングとか除けば
ほとんど変わらないから1080tiで良いと思う
本当かまだ分からないけど1月中旬に出ると噂されてる3070Ti 16GB版待ちだな
0834名無しさん@お腹いっぱい。垢版2021/11/05(金) 20:54:40.08ID:pzWDqP6M0
最近ほとんどゲームもしないのでRTXにする意味はなさそうですね。
もうしばらく1080Tiで行くことにします。
ありがとうございました。
0835名無しさん@お腹いっぱい。垢版2021/11/10(水) 18:27:38.45ID:dZzM7reK0
>>834
今更だけどこういう考え方も。

3060ならtensorcoreが乗ってるから多少速い。
1080tiは流石にいつ壊れるかわからない経年劣化が予想される。だがヤフオクで高く売れる。
1080tiをヤフオクで手放して、3060を新品で買えば、気持ち速いグラボが新品で手に入る。
自分は1080放流して3060を買った。
爆速にはならないけどコイル鳴きが無くなったのでそれなりに満足してます。
0836名無しさん@お腹いっぱい。垢版2021/11/20(土) 22:00:23.95ID:KXLxwqyy0
>>819
ttp://erodougazo.com/actress/

広告多いのが玉に傷だけど、身長、スリーサイズ、年齢でマイナーな女優まで探せる。
サイズ=骨格が近いと顔も似やすい。
0837sage垢版2021/11/21(日) 03:30:16.13ID:tuT3JfQN0
今年8月ぐらいのバージョンから10月21日の奴にDFLを更新したんだけど、train SAEHDでモデルの読み込みが終わった瞬間に”Pythonが動作を停止しました”で
止まるから原因を探ろうとしてるんだけどDFLの動いてるコンソール側に何もエラーログを吐かないからどうしたもんかと頭抱えてる
Quick96だと何故か動くからドライバ周りが臭いとは思うんだけどなんか要求要項に変更入ったりした?
0839名無しさん@お腹いっぱい。垢版2021/11/21(日) 09:20:06.84ID:2QWYIZCa0
うちは「color transfer for src faceset」をnone以外にすると同じような症状になる
他のbatch size等の組み合わせでエラーメッセージが出なかったり、MemoryErrorやスタックトレースが出たりもする
Colabなら問題なくTrain始まるんだけど・・・
0840名無しさん@お腹いっぱい。垢版2021/11/21(日) 12:04:05.45ID:tuT3JfQN0
昨晩新しいのが出てたから一旦完全にまっさらな状態で一切数値を弄らずサンプル使って動くか試したけどやっぱり駄目だった
今度は設定値まで読み込まれたけどもStarting. Press "Enter" to stop training and save model.が表示された直後に落ちる
>>839
color transfer一通り試したけど変化が無かったからこうなるとPythonかCUDAの問題なのかね
0841名無しさん@お腹いっぱい。垢版2021/11/21(日) 13:47:58.25ID:14puFHte0
俺も同様だった。
で、何やってもダメなRTX3000シリーズのビルドは諦めて、directx 12版を使ったら動いた。

まぁ、直ぐに更新されてモデルも作り直しだろうし動く方を使ってる。
0842名無しさん@お腹いっぱい。垢版2021/11/21(日) 14:25:46.15ID:crt1xHSg0
公式discordのロシア語の方のbatch-sizeチャンネルでnvidiaドライバーを更新したら
同じようにトレーニング開始直前で落ちるようになったって人がいるけど
過去のドライバーを入れ直したら解決したっぽいな
ロシア語だからDeepL翻訳使っても翻訳が曖昧だしgame ready版かstudio版なのかも分からんけど
とりあえず何パターンか過去のドライバー試しみれば直るかも
0844名無しさん@お腹いっぱい。垢版2021/11/23(火) 14:51:08.80ID:Yose+IY/0
他にも同様の症状の人いるんやな。ちょっと安心したわ。
とりあえず色々ドライバ変えて試してみる
0846名無しさん@お腹いっぱい。垢版2021/11/24(水) 14:38:56.37ID:rsRm00hg0
ダヴィンチ・リゾルブのスタジオ版導入したんだが、
DFL使用時のRTX3060のメモリが12g→10.45gに目減りするね。
(ダヴィンチ起動してなくても。)

ビデオメモリーの予約?なのか,DFLで10.45gで表示されててもWindowsのタスクマネージャーでは12g使ってる。

顔射モノを作るのは本当に楽になったが、メモリーが一割減るのは結構痛いね。
0851名無しさん@お腹いっぱい。垢版2021/11/29(月) 12:42:20.72ID:SpYvlTIx0
rtx2060なんだけど普通のビルドDLでいいの?
0853名無しさん@お腹いっぱい。垢版2021/11/30(火) 16:32:45.36ID:5RgpTB3P0
最初に入ってるお試し用の動画って、かなり短時間でクオリティ高いのが作れるけど
モデルがあってたらあんな短時間でいけるん?
0854名無しさん@お腹いっぱい。垢版2021/11/30(火) 17:17:20.07ID:uAvNaFgU0
modelの育て方次第やね。

学習させる女優さんなりアイドルなりの画像を様々な画角から被りなく3000枚〜とか集めて、
しっかりと学習させておけば、そこからは速い。

ただ、最初の学習の速さも仕上がる速さも、グラボのスペックと素材の解像度によって雲泥。
環境にお金かけるほど、処理の重い高画質な方向に移行するから、結局、みんな時間はかけてると思う。
0855名無しさん@お腹いっぱい。垢版2021/12/02(木) 20:37:12.31ID:5V9jPkGy0
例えば素材が正面メインでちょっと角度変えただけの画像ばかりはマジで学習が遅い

これが、ガチで色々な角度(正面、後ろに振り替える、ほぼ真上から、ほぼ真下まで)を均等に含むと
あっというまに精度よく出来上がる

普通の人はこういう角度ってほとんど存在しない(騎乗位の角度や正常位の角度で顔を見るのはほぼない)けどここの素材探しに妥協するほどきつくなる


後は輪郭や髪型等が似てれば1晩でほぼ完成するよ
0860名無しさん@お腹いっぱい。垢版2021/12/06(月) 09:31:32.11ID:7TQp3gMa0
なんかtrain開いても最後press any key to continueになって始まらなくなったんですけどとうしたんですかね
調べたらcuda関係...?
0862名無しさん@お腹いっぱい。垢版2021/12/06(月) 12:11:47.47ID:tn9GF6V80
githubにGPEN-windows来てたよ

1) install_dependences.bat実行で20GBほど使うので注意
face_enhancement.pyの136行目のinput/outputフォルダを確認か変更
2) start_gpen.batの実行で高精細化
dflイメージはそのままdflイメージとして使える

とまあとりあえずの使い方なんだけど、うちの環境(win11 RTX3090)だと
2) start_gpen.batだけがうまく動作しない
もし他にも動かない人がいれば修正方法を書いとく
0865名無しさん@お腹いっぱい。垢版2021/12/08(水) 18:04:03.28ID:6zggqNLQ0
まったく動かないって話なら俺にはわからない
GPEN化せずに元画像がそのままoutputフォルダに出力される人は以下を試して

■face_enhancement.py 170行目から
#Optional
# im = cv2.resize(im, (0, 0), fx=1, fy=1)

img, orig_faces, enhanced_faces = faceenhancer.process(im)



#Optional
im = cv2.resize(im, (0, 0), fx=2, fy=2)

img, orig_faces, enhanced_faces = faceenhancer.process(im)

img = cv2.resize(img, (0,0), fx=0.5, fy=0.5)
0866名無しさん@お腹いっぱい。垢版2021/12/08(水) 21:15:46.72ID:FrfC+Ijp0
昔誰かが書いてたけど、学習中のプレビュー画像って大きいサイズで出力できないの?プレビュー画像をソースにできたらかなり良さそう。
0867名無しさん@お腹いっぱい。垢版2021/12/08(水) 21:33:57.22ID:Wkwdxakh0
>>865
3060ユーザーで俺もDFLで抽出したaligned画像だけ変換されなかったけどこれでいけたわサンクス
マージした画像とかそのまま入れても自動で顔認識して更にGPENできるし良いわ

ちなみに元画像のファイル名に一文字でも日本語が含まれてると
問答無用でerrorが表示される仕様みたいなんだけどコード書けばすぐ直せるのかな?
適当に英数字オンリーのファイル名にリネームすれば動くから大変ならこれで良いけども
0869名無しさん@お腹いっぱい。垢版2021/12/10(金) 14:17:44.90ID:B2zxNIS90
>>868
githubのissuesでも報告されてないし何の問題も無く一発でインストールできたから
rarの解凍とかからやり直してもインストールできなかったら俺には分からんなぁ
0870名無しさん@お腹いっぱい。垢版2021/12/16(木) 12:48:47.66ID:1kEL9Exo0
3060 12G使用で、aedims384のWFだと、res192でしか動かないなー
davinci 入れてから?dflのVRAMが9GBくらいで表示されてるがそれも影響しているのかな
0872名無しさん@お腹いっぱい。垢版2021/12/19(日) 11:29:06.07ID:t5yWPrKb0
海外のフォーラムでもよく質問されてるけどdflのvram表示は実際に使用できる数値と違うから無視で良い
タスクマネージャー開いてパフォーマンスタブのGPUを確認すれば分かるけど
俺の3060は限界まで設定上げてdfl起動すると専用GPUメモリが11.8GB位で共有GPUメモリも2GB位使ってる
dimsもホクロとか細部の学習に大事だけどres低いと顔のドットが目立って違和感しかないからres最優先してるわ
0876名無しさん@お腹いっぱい。垢版2021/12/27(月) 00:41:38.14ID:W1bjTLuS0
res256とres320って違いでます?3080で回すときres320でギリでした。今までres256でしたがちょっと解像度あげてみようかなと思案中です。
0879名無しさん@お腹いっぱい。垢版2021/12/30(木) 16:24:37.06ID:ec7+Lk140
デビューしたけどこれって学習時にdst必要なんだな...
って思ったけど、これあくまでプレビュー用に必要なだけ??
0880名無しさん@お腹いっぱい。垢版2021/12/30(木) 16:27:28.61ID:ec7+Lk140
学習で作られるモデルってsrcに依存するのはいいとしてdstにも依存してるんでしょうか??
0881名無しさん@お腹いっぱい。垢版2021/12/30(木) 20:55:57.46ID:rfUapu/o0
普通にググってこい。
0882名無しさん@お腹いっぱい。垢版2021/12/31(金) 09:19:47.55ID:mlnKev650
>>879
dstが大量に必要なのはsrc学習時のニューラルネットワーク形成時に加算処理をするための参考情報として必要なのと、予想通りプレビュー用に用いられる為。
だからsrcは様々な素材があった方が学習が速く、dstにも様々な顔が有った方が学習が速いのは事実。
あと、GPUばっかり重視されるけどCPUやメモリも使われてるから出来るだけ高性能なCPUを積んでメモリも出来るだけ拡張した方がいい。処理が加速される。
0886名無しさん@お腹いっぱい。垢版2021/12/31(金) 11:16:40.65ID:2b2uynRc0
>>882
eyes mouth priorityをかけても
眼球があらぬ方向を向いてしまうのだが
これもdstの問題でしょうか
randomwarp中にeyes mouthかけると駄目とかありますかね
0887名無しさん@お腹いっぱい。垢版2021/12/31(金) 15:53:15.02ID:Ym7jaWSV0
>>882
ありがとうございます
当方、いいGPUもってないので学習だけcolabでやろうと思ってました
でいきなりムフフなdstではやりませんが、学習時にdstをextractしてなかったらエラー出たので

とりあえずcolabで学習実験し始めたので遊んで見ようと思います
0888名無しさん@お腹いっぱい。垢版2022/01/01(土) 08:35:57.73ID:RMYOJESg0
train開始時にsrcとdstのLoading samplesが終わった後「続行するには何かキーを押してください」が表示されて止まるようになってしまった。
別のworkspace使っても変わらずで困っています。
0890名無しさん@お腹いっぱい。垢版2022/01/02(日) 01:15:19.95ID:pLuoI4A/0
deepfacelabの最新11月版ですが今までいけた設定でもtrain時にエラーで回りません。GPUは3080でres256batch8でエラーになります。新たに設定など必要なのでしょうか?ちなみに前までは2020.7月版でした。
0892名無しさん@お腹いっぱい。垢版2022/01/02(日) 14:47:22.65ID:b+bQtfQv0
日記発狂中
0893名無しさん@お腹いっぱい。垢版2022/01/02(日) 20:02:20.32ID:gGIMOkqb0
SAE -t を全く同じ dst 素材で試し中。
結果報告するよ。
0894名無しさん@お腹いっぱい。垢版2022/01/03(月) 02:43:27.52ID:Zq3c9rkl0
tオプション一応使ってるけど何にも変わってない気がするよね
視線が合いづらくなってるなと思うぐらい
0895名無しさん@お腹いっぱい。垢版2022/01/03(月) 02:47:55.60ID:Zq3c9rkl0
>>890
バージョン上げたら何かがおかしくなるのは、いつものことだと思うし
無理しないで以前のバージョンを使うかバッチを下げるかだな
俺は11月バージョンちゃんと動かなかったから10月のを使ってる
0896名無しさん@お腹いっぱい。垢版2022/01/03(月) 11:06:30.84ID:5Ip/Zxcg0
どんなエラーだったか覚えてないけど
dflのあるドライブのページングファイルを設定したら安定したことがあった
0897名無しさん@お腹いっぱい。垢版2022/01/03(月) 11:35:52.29ID:y/zQ0hnr0
liae-ud から liae-udt にしたら batch 3 だったのが 8 で回るようになった。
(RTX2080 rez 192)
0898名無しさん@お腹いっぱい。垢版2022/01/03(月) 12:03:17.42ID:y/zQ0hnr0
連投すまんが、batch 16 でも動いた。
こんなに batch 上げたことなかったけど、少 batch の時より似ていくスピードが早い気がする。
これがある意味 -t の効果なのかも。
0901名無しさん@お腹いっぱい。垢版2022/01/04(火) 01:06:26.48ID:qaUq+uoL0
結構古いVerのDFLを使ってて更新したからかな?以前のは重かった。
0902名無しさん@お腹いっぱい。垢版2022/01/04(火) 20:30:15.74ID:9YBKEDFN0
フォーラムにあるpretrainデータの流用のやり方って

1.アップされてるmodelデータをダウンロードして、作業フォルダーのmodelの中にコピー
2.そのデータをEnable pretraining modeを『n』に変えてtrain

であってます?
0903名無しさん@お腹いっぱい。垢版2022/01/04(火) 22:20:31.48ID:MBys4NSV0
0からのスタートみたいに見えるから不安になるけど、それで合ってる
0904名無しさん@お腹いっぱい。垢版2022/01/05(水) 21:22:10.94ID:wvXGDXAF0
VR用の左右2人映っている画面でmanual extract( data_dst faceset MANUAL RE-EXTRACT DELETED ALIGNED_DEBUGdst )
で 手動で顔抽出したいときに左側の顔の調整が済んで 左クリックおして 一旦確定、
右側の顔を調整したいときはどうすればいいのでしょうか?
左側だけで 左クリックのあと ENTERを押すと
次のフレームに行ってしまうのですが、一画面で、2人手動抽出するやり方は
ないのでしょうか?
0906名無しさん@お腹いっぱい。垢版2022/01/06(木) 02:12:42.53ID:P4HaLcsF0
>>903
あざす!

>>905
VRなんて2画面で一気にやっちゃうけどなあ。たまに顔がチラチラするけど気にしない。

みんなそんな完璧目指してるの?
1つ作るのに何時間かけるのよ
0907名無しさん@お腹いっぱい。垢版2022/01/06(木) 07:27:45.18ID:PBHAwCGR0
>>905
ありがとうございます

たまにチラチラする程度ならいいんだけど
結構失敗してる割合が高いので
面倒だけど1画面ずつやるかあ
headを使ってるせいかもしれませんが。
まあもうちょっと顔抽出の精度は上げてほしい
0908名無しさん@お腹いっぱい。垢版2022/01/06(木) 22:35:44.55ID:hoLEuXjZ0
VRを分けるのは正直全く面倒じゃない
DFLにやらせないでバッチファイルでffmpegにやらせる
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:0:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\l_%%05d.jpg"
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:in_w/2:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\r_%%05d.jpg"
0909名無しさん@お腹いっぱい。垢版2022/01/07(金) 17:08:34.56ID:I74S7yAb0
aedims512で他dimsデフォでやってるが
dstの目が半開きの時にどうしても視線がヤバくなるなあ
トレイン不足ではないと思うが…
encoderもしくはdecoder dimsの増減で改善したりするかな、どういうパラメータかすら把握してないけども
0910名無しさん@お腹いっぱい。垢版2022/01/07(金) 17:49:36.86ID:bNjCrjCp0
写真からそこそこのやつ出来た人って写真何枚で出来た?
0912名無しさん@お腹いっぱい。垢版2022/01/07(金) 21:58:41.73ID:EGw3TzjO0
>>909
グラボは3090?

ちなみにresあげるのとaedimsあげるのどちらがいいものなの?

自分は3080だけど初期値からあげる場合はそのどちらかしか無理なのでres320にしてるけど、よくスレでaedims上げるという話を聞くので
0914名無しさん@お腹いっぱい。垢版2022/01/07(金) 23:38:46.37ID:EGw3TzjO0
>>913
GPEN便利だけど一回で800枚から1000枚くらいしか変換できなくて困る。30000枚とかあるとき時間かかりすぎる。一気にできる方法とかあるの?
0917名無しさん@お腹いっぱい。垢版2022/01/08(土) 09:56:06.90ID:zRIQetXm0
*目安が全くなく途中で
0922名無しさん@お腹いっぱい。垢版2022/01/08(土) 16:03:54.56ID:dctlSj140
res416でもpretrainモデル使ってdstがほぼ正面なら10万も回せば元のsrcとほぼ同じレベルまで仕上がるよ
モデルDLして劇的に時短するためにMrの無料会員登録は必須
GPENwin版も使って全srcを超解像すれば解像度もかなり上がるしパーツがはっきりするおかげで学習も早くできる
0924名無しさん@お腹いっぱい。垢版2022/01/08(土) 19:45:42.91ID:Qu2qqzcX0
諦めろん
0925名無しさん@お腹いっぱい。垢版2022/01/09(日) 00:04:36.22ID:PYkRpVCm0
>>920
GPENの件ですが落としたら_internalのファイルが入ってましたがこれをdeepfacelab内に上書きして何かを実行する感じです?やり方がよくわからない…
0926名無しさん@お腹いっぱい。垢版2022/01/09(日) 21:31:10.86ID:8+NXdDiz0
>>925
readmeに書いてある通りに
Install or update GPEN.batそれからinstall_dependences.bat
モデルをダウンロードしてweightsフォルダに入れる
start_gpen.batを編集でフォルダ指定して上書き保存
例えばalignedをgpenのinputに持ってきて高画質にする場合
--use_cuda --indir input/aligned --outdir results/aligned
GPENやる前にmetadataをsaveして!
難しいこと分からんからこれでやってます
0927名無しさん@お腹いっぱい。垢版2022/01/10(月) 02:14:21.61ID:uaoPGD0B0
>>926
ご丁寧にあざす!とりあえず指示通りにやってみたけどweightsフォルダが出ないですね。とりあえずまたいじってみます!

3080だと制限多いから3090欲しいわ〜、誰か新品20万で売ってくれい
0928名無しさん@お腹いっぱい。垢版2022/01/10(月) 02:46:28.67ID:5/hQ2rxT0
GPENwin版はDFLも考慮してるから
元のColab版で必要だったmetadataのsaveとrestoreしなくてもそのままDFLで使えるよ

GPEN頻繁に更新されてて結構仕様変わるけど
最新バージョンだとweightsが無い場合はstart_gpen.bat起動したら
勝手に必要なモデルのインストールしてくれた気がする
0931名無しさん@お腹いっぱい。垢版2022/01/13(木) 20:24:35.17ID:IcpCxY8C0
udt を1700k 回したが、同じ dst で ud と比べ udt の方が似てるなと思った。
まだ 経過途中なので 2500k くらい回ったときにまた報告するよ。
0932名無しさん@お腹いっぱい。垢版2022/01/18(火) 20:05:29.00ID:/Mv54Db00
SRC画像のバラバラの色調をできるだけ統一したいのですが、皆さんはどうやっていますか?
お勧めの方法はどんなもんでしょう?
0933名無しさん@お腹いっぱい。垢版2022/01/18(火) 23:59:28.96ID:cI2eC2Zf0
自分でpythonツール書いてる
0935名無しさん@お腹いっぱい。垢版2022/01/19(水) 11:42:42.77ID:jLGUt7Aq0
いまメインのSSD1TB内に場所作って色々遊んでますが、複数作ってるとすぐ容量いっぱいになる。なので新たに6TBくらいのHDD購入してそっちで場所作ってやろうと思いますが、やる場所としてSSDとHDDでなんか違いはあります?

学習スピードは特に関係ないという話ですが、他に機械学習ならSSDの方が向いてるとか、HDDは劣化速度が速くなるからやめた方がいいとか。
0937名無しさん@お腹いっぱい。垢版2022/01/19(水) 21:31:37.71ID:nHNCvCq10
メモリ128GB搭載してRAMディスク作ってやってる。まあ、容量の見込みが甘かった人的ミスを除き、落ちることは今のところないな。ヒストリーと記録しない方式なら困らない。
0939名無しさん@お腹いっぱい。垢版2022/01/20(木) 20:22:26.12ID:N8G5akzi0
あまりHDDは向かないんですかね?個人的にはHDD常に動かす感じになるのかなと思うので劣化するの早くなるとかが心配ですね
0941名無しさん@お腹いっぱい。垢版2022/01/21(金) 23:45:34.94ID:iu6Eiy0s0
初心者の質問で申し訳ないのですが3090使ってる方trainの設定どのくらいにしてますか?

facetype f
liae-u
rct
ae_dms 512
バッチサイズ 4
くらいでやろうと思ってたんですがresolution360くらいまで落としても全然動いてくれません
res128とdms256での動作は確認済みです

全体スペックは以下です
cpu5950X
gpu3090
メモリ32G
0942名無しさん@お腹いっぱい。垢版2022/01/22(土) 00:07:16.58ID:Qh9dXPVa0
3090です
facetype head
res 448
liae-udt
ae-dims 256
バッチサイズは 8
前のは 12で余裕で動いていたのに最新のだと
10でもたまにとまるから8にしている
-tのせいか、ビルドのせいかはわからないけど。
0943名無しさん@お腹いっぱい。垢版2022/01/22(土) 06:34:57.72ID:pTSmkJLX0
3090で大体同じ感じでやってます。RAMも32GBです。
仮想メモリはどうですか?自分は16GB割り当てて動いてます。
解決しなかったらすまん。
0944名無しさん@お腹いっぱい。垢版2022/01/22(土) 08:52:50.97ID:bbQt+6Ab0
>>942
同じ設定にしたんですが出来ませんでした
というかres256dims256ですら動きませんでした
メモリエラーが出て終了するかエラーログすら出ずに急に「終了するには何かキーを…」が出て動いてくれません
最新版と昨年10月のバージョンを試したのですがどちらも同じでした
解凍しただけでは何か不足しているでしょうか

>>943
すみません、詳しくないのでわからないんですけどvram24 ram64(上に書いた32Gは誤りです)じゃメモリ足りないでしょうか
プログラム走ってるときにvram5Gくらい使ったところで強制終了されてます
0945名無しさん@お腹いっぱい。垢版2022/01/22(土) 11:05:56.01ID:MGmjHTpr0
2060sで設定を見直したりしても最新バージョンだとtrainが始まらないです
2021後半のビルド速度も精度も良くて気に入ってたのに...
0946名無しさん@お腹いっぱい。垢版2022/01/22(土) 11:14:39.09ID:5S7r+SDB0
>>944
RAMは32もあれば十分だけど仮想メモリは別物だから仮想メモリ 設定でググって変えよう
DFLがインストールされてるドライブのカスタムサイズを選択して初期サイズと最大サイズの欄に
「16384」って入力して「設定」を押せば仮想メモリに16GB割り当てる事になる

それとGPUスケジューリング オンでググってオフになってたらオンに変更

nvidiaのドライバーも最新版の方が学習スピード早くなるみたいだから更新した方が良い
0947名無しさん@お腹いっぱい。垢版2022/01/22(土) 11:47:48.35ID:5S7r+SDB0
>>945
>>929と同じ状態なら
DeepFaceLab_NVIDIA_up_to_RTX2080Ti\_internal\DeepFaceLab\models\Model_SAEHDフォルダの中の
Model.pyをメモ帳にドラッグして開いて上のタブの「編集」→「検索」
cpu_count = multiprocessing.cpu_count()で検索してこの669行目の部分を
cpu_count = 4 #multiprocessing.cpu_count()って書き換えて上書き保存すれば解決しそう

それでダメなら同じくnvidiaドライバーを最新版にするとかかな
0951名無しさん@お腹いっぱい。垢版2022/01/22(土) 18:29:14.57ID:MGmjHTpr0
>>947
試しましたがダメでしたね〜
前までできてて突然出来なくなったので原因がなかなかわからないです
仕方なくネットに転がってた古いビルドを使ってるのですが
0954名無しさん@お腹いっぱい。垢版2022/01/22(土) 20:15:01.66ID:MGmjHTpr0
多分そうですね
最新バージョンも10月20日くらいのでしたし
どこかにそれより一個くらい前の無いですかね
0958名無しさん@お腹いっぱい。垢版2022/01/25(火) 15:21:05.83ID:DLP8u0WD0
srcって少しでも増やすために写真の時期が違ったり、メイク髪型が若干変わってるのは混ぜないほうがいい?
0962名無しさん@お腹いっぱい。垢版2022/01/30(日) 16:09:07.28ID:5vKxJU9r0
>>954
おれも最近同じ症状になったが
NVIDIAドライバ バックナンバー(2021年9月のもの)入れたら治ったわ。
いつものダウンロードページの下のほうにリンクある
0963名無しさん@お腹いっぱい。垢版2022/02/01(火) 11:43:16.01ID:9FLPjWuq0
初心者なんですが、お面ぽさとか髪の毛かぶりとか、長時間学習させれば改善されてくもんなんでしょうか?それともその辺はちゃんと設定?しないとだめ?
0964名無しさん@お腹いっぱい。垢版2022/02/01(火) 12:38:01.76ID:RljtO5B+0
お面ぽさや髪はマスクで解消される部分もあり一概に言えませんがあからさまに立体感や表情のないお面なら学習不足ですね

ある程度馴染んでいる状態ならマスクのやり方次第です
0967名無しさん@お腹いっぱい。垢版2022/02/01(火) 15:43:28.92ID:9FLPjWuq0
24時間です。たしかにsrcもそんなによくないですね。
とりあえずあまり知らない状態でどのくらいのがつくれるのかやってみてるんだけど、もうこれ以上はよくならないのかどうか。トリアーエズあと一日やってみます。
んで次はfaceswapためします。
0970名無しさん@お腹いっぱい。垢版2022/02/03(木) 01:16:35.30ID:6rAI0BNB0
ちょっと試しというか実験で10枚程度の写真からどれまでできるかやってみたけど5分程度のインタビュー動画までは作れた。
手順は少しだけかかる、とはいってもアプリ一個挟むだけで写真数枚しかない人がべらべら喋る様はなかなかすごい。
これは無限の可能性感じるわ
0973名無しさん@お腹いっぱい。垢版2022/02/03(木) 22:40:43.69ID:GBd4NeLy0
事前学習をやめて本番の学習をしたいのですがやり方がわかりません
6) train SAEHD.batで [n] Enable pretraining mode ( y/n ?:help ) : y にして
事前学習をしているのですが、そろそろ本番の学習をしようと思い
トレーニングビューでエンターキーを押して終了させて
再び6) train SAEHD.batでモデルとCPUの設定をすると再び事前学習となります
どうすれば事前学習ではなく本番の学習ができるようになるのでしょうか
0974名無しさん@お腹いっぱい。垢版2022/02/03(木) 22:48:52.73ID:P4ueEL/o0
nにすればいいだけ
その設定が出てこないって話なら最初にpress enter〜みたいな表示が出たときに2秒以内にエンターキー
0976名無しさん@お腹いっぱい。垢版2022/02/04(金) 09:30:21.46ID:R4vSHDv90
GPUを1080TIから買い換え検討中。。
3090と3080Tiで悩んでます。

VRAMの容量以外、それほど性能差が無いような印象なんだけど、
DFLで使うに辺りVRAM24GBのアドバンテージって大きい??
12GBでも十分?

色々調べてみたけど、ゲームでの比較ばかりで、、。
アドバイス下さい。
0977名無しさん@お腹いっぱい。垢版2022/02/04(金) 09:47:37.18ID:QLhHZqYC0
その二つなら断然3090。やれる事が全然変わる。画質特に拘らずWebにupされているレベルでいいなら3080tiでもいいがそれならむしろ3060でいい。VRAMが絶対正義ですこの世界
0978名無しさん@お腹いっぱい。垢版2022/02/04(金) 22:38:45.64ID:R4vSHDv90
>977

VRAMが全て・・。
って事は、3080Ti 買っても DFLで出来ることは1080Tiとあんまり変わらないって事なんすな・・。
なるほど。

3090買うことにします。
ありがとうございました。
0979名無しさん@お腹いっぱい。垢版2022/02/05(土) 01:19:28.68ID:pcREMhET0
結局VRAM12と24だとレゾリューションのサイズが越えられない壁ってことなんかな。
0980名無しさん@お腹いっぱい。垢版2022/02/05(土) 01:53:57.97ID:XID0lGKS0
resとか各dimsとかのmodelのパラメータもそうだし
重いmodelをそれなりのオプション付けてある程度のバッチサイズで学習させる時にvramが活きてくるね
11GBだとres384でLRDとGAN付けるとバッチサイズ2まで落とさないとOOM吐く
0981名無しさん@お腹いっぱい。垢版2022/02/05(土) 02:23:52.50ID:vqiRZvra0
GANって何回か更新されてるけど今のGAN3?は高解像度だと上手く機能しなかったり評価悪いみたいだな
損失0.1まで来たらLRD+GAN power0.1他デフォでやって効果分かるレベルには使えるけどどんな設定にしてる?
設定上げすぎると数千回くらいで急に崩壊したりするから難しいな
0982名無しさん@お腹いっぱい。垢版2022/02/05(土) 03:20:41.36ID:ZzYUNoO/0
みなさんは学習のタイミングは深夜回しっぱなしですか?3080ですがファン爆回りでパソコンがぶっこわれないか心配
0984983垢版2022/02/05(土) 04:35:32.35ID:oWJVbQwG0
ごめん
実行ファイルを間違ってた
0988名無しさん@お腹いっぱい。垢版2022/02/06(日) 08:49:46.47ID:U43DA5880
>>986
ffでsrcの髪を顔以外としてマスクするのが基本なのかな

またはsrcの前髪を残したいのなら
wfで両素材の前髪部分をマスクせず顔扱いにするという手も
ただ違和感なく出来るかは分からない
0990名無しさん@お腹いっぱい。垢版2022/02/07(月) 18:14:37.54ID:ZgnlHBW/0
初歩的な質問かもしれんけどrctとかmkl-mでmargeしても色が合わないのはsrcとdstの光源や影が合ってないってことなのかな?
0992名無しさん@お腹いっぱい。垢版2022/02/08(火) 03:43:38.63ID:HM4E1suF0
基本的な内容なんだけど、trainの解像度って、実際のところ品質にどれぐらい差が出るのかな。
俺は256以上はできないんだけど、前に作った128との差が、アップにすると出ると思うんだが、普通の状態だとさほど差がないようにも思える。
mergeの時に、シャープネス的なやつをかけると割とくっきりするからこれでしのいでいる感じもあるのだが。
3060買うとVRAM12になって、384ぐらいの解像度が可能になるけどおそらくそれが限界ぐらいだが、実際に出来上がる品質には差がでるもんなんだろうか。
解像度色々変えてみて、上の世界に行った人、教えてください。
0994名無しさん@お腹いっぱい。垢版2022/02/09(水) 15:36:00.22ID:cvzUrfTG0
>>972
tiktokとか小顔にできるもんね
あれ凄いと思う
ただ動きが激しかったり何かが被さるとズレル
dstに使う動画をtiktokで小顔にさせるとか
他にも動画アプリで小顔機能のあるのを
探しだして色々と試すのも面白いかも
0995名無しさん@お腹いっぱい。垢版2022/02/10(木) 14:12:10.19ID:kohRYpw40
>>992
アップにしないと差が出ない認識であってるの思います。
特に、ネットで拾ったりするようなHD画質を元に、
体全体が映るような引いた画角でやるなら品質に差はないかも。

ただ、VRAMに余裕があると、バッチ積めるのでtrainが速くなる。
それと、実質的にそれなりの高解像でしか出来ない顔射もの。

ただ3060 12g使ってるけど、trainは速くなるけど、最初の切り出しは結構遅いよ。
でも、発熱や消費電力も低めなのでお勧めです。
0996名無しさん@お腹いっぱい。垢版2022/02/10(木) 15:43:14.57ID:i/VLkcOU0
海外の怪物達を見てるとA100 80GB×2とかRTX A6000 48GB×4でVRAM 192GBの人とかいるけど
192GBでもres 512 ae dims 512 e,d dims 128でバッチ24とかで動かしてるな
標準で限界のres640とかコード変えてres700とかにしてる人もいるけど劇的に変わるってわけでも無さそう
それよりもsrcが全部4K動画とか大量の一眼レフ画像があるとかで差が出るな
0997名無しさん@お腹いっぱい。垢版2022/02/12(土) 01:34:38.10ID:YeI0C5JR0
>>954 >>962
自分も同じ症状で、困っています。2021年の9月のnivdiaドライバー入れても
治りませんでした。なにかいい対処方法ないでしょうか?
ビルドは 2021年11月20日バージョンのを使っています
古いバージョン(2021年1月)では安定して動くのですが、-tが使いたいので
11月20日バージョンで動かしたいです。
0998名無しさん@お腹いっぱい。垢版2022/02/12(土) 16:06:25.05ID:kj81HqCu0
Pretrainで3夜かけて30万回した後、PretrainをNにして本番のTrain開始。
で、何気なくP押してページ切り替えたら、2列目と4、5列目のプレビューが真っ黒に。
ほかのページに切り替えても直らず。
Mergeしたら、もちろん真っ黒な顔に。

再Trainしても変わらず、再Pretrainにしても真っ黒のまま。。。
試しに2時間ぐらい回してみたけど直らず・・・。
3日間が無駄に。。。

仕方ないので諦めて、最初から回して検証してみたんだけど、
Pretrain> Train> 1回目の自動保存の前にPを押すと再現。
1回自動保存が終わった後だったら、P押しても真っ黒にならず。

これって既知??
1000名無しさん@お腹いっぱい。垢版2022/02/12(土) 16:58:08.55ID:uftxxy+d0
ディスコでblackで検索かけたら同じ様な人いたけどdstもsrcの学習もどこかの段階で崩壊してるのは確定だな
dimsとかの設定が高すぎると起こる事もあるみたいだからGPUとモデル設定の画像あればもっと原因分かりやすいかも
本トレインでプレビューの更新押さなければ大丈夫なら崩壊を防ぐ設定のclipgradをオンにして回していけないかね

誰か次スレ頼んだ
10011001垢版Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 425日 19時間 55分 54秒
10021002垢版Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。

ニューススポーツなんでも実況