X



【質問】dfl【その3】

レス数が1000を超えています。これ以上書き込みはできません。
2020/12/13(日) 21:02:14.37ID:faeRPvMB0
DeepFaceLab(以下、DFL)の質問&回答スレです

・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。

・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。

・RTXシリーズでも動くの?
FS、DFL共に動く。
2020/12/13(日) 21:03:30.09ID:faeRPvMB0
・作るのにどれくらいかかる?
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。

・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。

DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://github.com/iperov/DeepFaceLab
https://mrdeepfakes.com/forums/thread-1-1-sfw-guide-deepfacelab-2-0-guide-recommended-up-to-date
https://mrdeepfakes.com/forums/thread-3-1-sfw-guide-how-to-make-celebrity-datasets-guide
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
https://seesaawiki.jp/dfl/
2020/12/13(日) 21:05:20.53ID:faeRPvMB0
リクエスト禁止
DFLとかAIとかに文句つけるのは禁止

技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須

ダウンロード方法
https://mega.nz/folder/Po0nGQrA#dbbttiNWojCt8jzD4xYaPw

インストール方法
ダウンロードした
DeepFaceLab_CUDA_build_date.exe をダブルクリックし自己解凍形式)、D:\(Dドライブなどルート)などに解凍する。
2020/12/13(日) 21:06:09.28ID:faeRPvMB0
動画制作のおおまかな流れ
1.素材を準備する
2.素材動画を全フレーム画像で書き出し
3.顔部分のみを抽出
4.誤検出された画像を削除
5.学習させる(train)
6.顔を移植した画像を書き出し(convert)
7.書き出した画像を動画にする
2020/12/14(月) 01:51:13.80ID:FjI7Qd0F0
6. は merge ではなくて?
2020/12/14(月) 02:05:24.44ID:aVt/a1LC0
>>5
mergeです。情報が古くてすんません
2020/12/14(月) 22:08:54.99ID:jlKE0V5a0
なんだ日記か…
2020/12/15(火) 04:16:58.56ID:hwUlEsRf0
自治厨ェ…
2020/12/15(火) 06:18:15.66ID:aa22ZlrX0
顔が画面からフェードアウトするときのことで質問があります。

顔が画面の2/3消えたくらいでsrcへの置換がされずdstの顔が表示されます。
その部分だけマニュアルで顔を切り取っdstのalignedフォルダに追加しましたが、
mergeすると相変わらずdstの顔のままになっています。

alignedフォルダに入っている画像の部分を置き換えてくれるのかと思っていましたが違うのでしょうか?
ファイル名は動画の流れに合うように連番になっています。
2020/12/15(火) 07:45:47.08ID:kZfxVZgL0
マニュアルでっていうのはRe〜みたいなデバッグ消したファイルをextractするbat実行したってこと?
それとも例えばwinPhotoみたいな他のソフトでトリミングした画像の名前だけ変えてalignedに入れたってこと?

前者ならわからん
後者なら意味ない
2020/12/15(火) 09:08:09.20ID:OerpmQQP0
未抽出の顔は、DFLで手動抽出するしかないと思います
メタ情報が入らないでしょう
2020/12/15(火) 09:31:00.13ID:aa22ZlrX0
マニュアルの意味は
2020/12/15(火) 09:32:22.61ID:aa22ZlrX0
すいません、途中で送ってしまった・・・

マニュアルの意味は
5) data_dst faceset extract MANUAL.bat
でファイルを作ったということです。

11さんが言ったDFLで手動抽出とはこれを使うということですよね?
2020/12/16(水) 00:42:36.29ID:ztwcSGgL0
5) data_dst faceset extract MANUAL.bat
は使用した事は無いのですが
とにかくDFLで抽出すればいいのでしょう
何か、DFLで抽出した顔のローテーションが違うとかで
勝手に回転させたりしたりはだめだとか
debugから消して、手動再抽出とかは上手くいっています
15名無しさん@お腹いっぱい。
垢版 |
2020/12/16(水) 14:22:06.27ID:RFv2Li0A0
今年の8月からDFLをアップデートしていないのですが、改良はされてますかね?
2020/12/17(木) 01:37:53.71ID:NxWOtusT0
08_02_2020使用していますが
hdアーキの代わりに-udとか
軽くなってlr_dropout=Trueに最後していい感じ
Xsegはなかなかいいんじゃないですかね
2020/12/17(木) 02:38:10.76ID:nZutQQ6b0
質問なんだが、この画像のあとKeyを押すと進めない

この現象になるときと、trainでちゃんと学習するときがあっておそらくは作業中に強制終了させたりするとこの現象が起こると思ってるんだが、本当にこれが理由であってるんだろうか?

それと、この現象に陥ったときに1から始めるの面倒なんだが方法ってない?
2020/12/17(木) 02:38:26.03ID:nZutQQ6b0
https://i.imgur.com/hJDwVwP.jpg
19名無しさん@お腹いっぱい。
垢版 |
2020/12/17(木) 20:56:32.53ID:KusLfrvY0
お前は二度と来るな!!!
2020/12/17(木) 21:11:00.65ID:DOy7qOo30
3070おじさん早速出禁食らってて草
2020/12/17(木) 23:14:09.49ID:hXxkmTMU0
もしかしたらとてもレベルの低いことかもしれないけど質問させてください。

dst素材で顔に手が被っている場合の対処としては、
XSegで手の部分を顔以外(破線の囲い)と指定してやればいいのでしょうか?
(素材数枚でやる必要あり?)
22名無しさん@お腹いっぱい。
垢版 |
2020/12/17(木) 23:24:28.31ID:KusLfrvY0
なんでやる前に質問するんだよ
2020/12/18(金) 19:08:25.22ID:jVkj4tZx0
21です。
22さん、ごもっともです。
実はやってはみたんですが、上手くいっていません。
それの原因が回数なのかmaskの当て方なのかそもそものmaskの考え方が違うのかわからず、
あのような質問になりました。
2020/12/19(土) 00:29:11.41ID:2gW2kMY60
https://mrdeepfakes.com/forums/thread-2-1-sfw-nsfw-guide-sharing-dfl-2-0-xseg-model-guide-and-sharing-thread
手とか笛とかは、フォーラムにある画像でXseg Trainで結構上手くいくと思いますけど
それで上手くいかない場合のみ、結構少数枚数でも手動Maskするといい感じみたい
2020/12/19(土) 00:32:15.88ID:VLdZaMbM0
>>23
手がどれくらい被ってるか分からんけどこんな感じでやってる
何枚かマスクしてXsegやってマスクに適用し編集でチェック
ダメなとこあったらマスク追加でXseg
https://i.imgur.com/8IZ8cqH.jpg
2020/12/19(土) 20:51:18.05ID:Wt8/fXrj0
>>25
あれ?眉毛って顔に入れないんでしたっけ?
27名無しさん@お腹いっぱい。
垢版 |
2020/12/19(土) 21:08:03.29ID:D0kdx6n60
それは自由だ
大体眉に髪かかってるの多いから避けるのが無難と思う
2020/12/19(土) 21:22:09.98ID:Wt8/fXrj0
眉なしでdstのXsegを作ったら顔入れ替えの時にsrcも眉から下が適用される、って考えてあってます?
2020/12/19(土) 21:53:43.56ID:/L/JgTI+0
>>28
うんマスクされるから
2020/12/19(土) 21:55:58.22ID:/L/JgTI+0
補足srcも眉から下でマスクしてます
2020/12/19(土) 21:59:27.63ID:Wt8/fXrj0
なるほど!ちょっと試してみます。
2020/12/19(土) 22:41:01.14ID:Wt8/fXrj0
あれ?ちょっと思ったんですけど、
フェイスタイプはFで基本やってたんですけど眉から下でマスクするならHにしちゃっていいんですよね?
2020/12/20(日) 05:00:28.89ID:5bFtS3MH0
mask処理をしたら仕上がりが倍以上よくなった。
ここの人たちありがとう!
2020/12/20(日) 09:27:09.85ID:7xq9z9kO0
>>32
halfだと、顎のあたりとかの色合わせ、色のなじみが悪くなる場合があるのでは?
src、dst次第かも
2020/12/20(日) 09:28:40.66ID:5bFtS3MH0
>>34
そうか。確かに。
Fでやってて問題ないのでそのままやってみます。
2020/12/21(月) 13:05:13.28ID:qO0rZz2d0
loss値0.1で能面が治らないんですが、ここまでやっても治らないのはsrcが足りてないんでしょうか?
2020/12/26(土) 11:25:01.65ID:2VH+8smV0
別スレでAdaBeliefで学習が速くなると聞いて、最新版を試したけど
特に速くなってなくない?

ただEyes priorityがEyes and mouth priorityに変わってて、前は口が微妙に
ずれてる場合があったのが、うまく入れ替わってる
38名無しさん@お腹いっぱい。
垢版 |
2020/12/27(日) 15:10:55.43ID:nyl/b2Pw0
AdaBeliefは理論的には速くなってるはずだけど、dflがそんなに効率よく取り入れてるかどうかはわからない
反復が速くなるんじゃなくて、loss値が下げ止まるまでが速い感じだと思う
39名無しさん@お腹いっぱい。
垢版 |
2020/12/28(月) 15:07:20.09ID:knwf3sOp0
質問させて。
過去スレにあったdst×dstのやつ。

dst×dstで、
liae-ud、Full Face、RW Trueで始め。
0.5切ったらRW False。
0.2切ったらLRD true。0.1切るまでtrain。

その後に、srcフォルダに入っているdst画像は全削除で、
好みのsrc画像入れるであってますか?

src画像に切り替えるタイミングと、
srcフォルダのdst画像は全削除でよいのかが分からないのです。

宜しくです。
40名無しさん@お腹いっぱい。
垢版 |
2020/12/28(月) 15:12:39.58ID:s3HDd8Cy0
日記君登場!
2020/12/28(月) 15:16:58.59ID:knwf3sOp0
すまない日記さんとやらではないです。

初期設定で0.2くらいまでtrainして、
srcフォルダの画像切り替え。
その後に、RWやLRDのパラメーター変えて、0.1までtrainかな。

試してるんですが、いまいち上手くいがず迷ってます。
2020/12/28(月) 21:25:25.38ID:Abx4SwYw0
dstxdstをどこまでやるかは、人それぞれでしょう
プレビュー画面見ながら自分で判断するしかない
場合によっては、一度その状態でmargeして、仕上がり具合を見る
このタイミングで、dstの顔で違和感なく動画が作成できるなら良しとするのもアリ

srcのaligned画像を入れ替える時は、dstの画像は全て削除
2020/12/29(火) 08:16:49.11ID:ZYoYNgkw0
>>42
dst画像は全削除でよかったんですね。
ありがとうございます。

プレビュー確認し、途中でマージしてみる。
分かりました。ありがとう。
44名無しさん@お腹いっぱい。
垢版 |
2020/12/29(火) 10:27:32.77ID:UQjgRLtJ0
dstのコピーとか削除とかやらずにバッチファイル内のsrcとdstのフォルダを同じにすればいいだけじゃないの?
まぁ未だにdstxdstとか謎技術を信奉してるのあいつぐらいだけだと思うけど
2020/12/30(水) 12:31:43.43ID:1XD/DpP60
掲示板どこも止まってる?

マージするとき、ツール使ってフレームごとに設定するプレビュー画面で、
dst画像に、src画像がはまってないというか、
位置がずれる現象が。
外側の四角いランドマークな位置が思いっきりずれてるんです。
こんな経験あります?
2020/12/30(水) 15:53:06.18ID:T1hMrvgO0
view aligned debug resultsでおかしいの削除してMANUAL RE-EXTRCT DELETED ALIGND_DEBUGやってる?
2020/12/30(水) 17:30:34.24ID:tMTsPyYn0
>>46
返信ありがとうございます。
srcとdstのランドマーク確認しましたが、
おかしいのないんですよ。
すこしズレるんでなく、全体的にズレてるんです。
対象は真ん中なのに、5かな、押すと四角い枠が半分だけ見えるんです。
また1から作り直してみます。
2020/12/30(水) 19:13:48.50ID:gK81YVBv0
>>47
data_dst.mp4を顔抽出した後に解像度変更や不要シーンカット等、再編集してない?
2020/12/30(水) 19:21:21.77ID:gK81YVBv0
>>48
ごめんなさい
data_dst.mp4というより、そこからコマごとに切り出した画像群が顔抽出時〜mergeで構成が全く同じであるか?ですね
2020/12/30(水) 20:37:59.31ID:s24E4MLf0
>>49
返信ありがとうございます!
dstもsrcも編集してないんです。
不思議なのはプレビュー(一番右)は上手く出来てるやうに見えるんです。
んで、マージで手動のツールで見ると、いわゆるdstしか表示されない。
5押すとマスク?表示されますよね。
それ見ると違うとこに四角の一部がでるんです。
壊れちゃったのかな。ちなみに50万くらい回して、0.12くらいです。
51名無しさん@お腹いっぱい。
垢版 |
2020/12/31(木) 11:12:56.21ID:CSbjdsl+0
おま環だな
52名無しさん@お腹いっぱい。
垢版 |
2021/01/04(月) 13:50:37.88ID:DXZqWVCn0
== 04.01.2021 ==
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。
53名無しさん@お腹いっぱい。
垢版 |
2021/01/08(金) 07:16:50.90ID:ZrmCeq1m0
dstとsrcを1枚でやったらめっちゃ早く静止画のコラできるんじゃないかと思ってやってみたけど、
1回当たりの時間はそんな変わらないんだな。
これが俺のPCの性能ってことか。
2021/01/09(土) 00:49:44.07ID:fBepmN1R0
メモリ8×2,gpu8 のマシンで動かしているのですが、メモリ使用率が90%、gpu使用率が15%程度なのですがこんな物なのでしょうか?
gpuの使用率を上げる方法ありましたらご教示いただきたいです
55名無しさん@お腹いっぱい。
垢版 |
2021/01/09(土) 01:41:01.75ID:b3UZuNTN0
タスクマネージャーのGPU使用率は当てにならない
ELSA GPU Optimizerみたいの使ってみて
2021/01/09(土) 02:30:36.20ID:J7ol4gHn0
動画からの画像抽出をGPUで行うことはできないのでしょうか
jpgなら大した負荷はかからないのですが
pngだとファンが高速で回りCPU使用率が100%付近に張り付きます
可能であればどのファイルのどの項目を触ればいいかご教授下さい
57名無しさん@お腹いっぱい。
垢版 |
2021/01/09(土) 05:59:01.12ID:Ws9CPkEd0
trainの途中でアーキテクチャをliaeに変えたいんですが、
いじるファイルはmodelフォルダのSAEHD_data.datでいいのでしょうか?
テキストで開こうとすると文字化けするのですが、何か専用のソフトが必要でしょうか?

また、文字化けながらもそれっぽい記載があったので、df→liaeに変えたのですが、
エラーが出てtrainできませんでした。
やはり文字化けの中変えるのはダメでした。。。
58名無しさん@お腹いっぱい。
垢版 |
2021/01/09(土) 10:06:15.87ID:b3UZuNTN0
>>57
不可能
2021/01/09(土) 10:47:33.06ID:NoIegefL0
>>54
タスクマネージャーのグラフのとこのcuda見ればめっちゃ使ってるのがわかると思うよ
60名無しさん@お腹いっぱい。
垢版 |
2021/01/09(土) 12:59:18.51ID:Ws9CPkEd0
>>58
できなかったんですね。ありがとうございます。
以前dataファイルをいじって設定を変えると見た気がしたので探していました。
train最初の段階で決めておかないとダメなんですね。
やり直します。
2021/01/10(日) 11:46:47.48ID:a/Mpc8zA0
rtx3090使ってる人Xseg使えてます?
うちの環境だとgpuスケジューリングONにしたら使えるんだけど
タスクマネージャからcudaの項目が消えて、3dで使用されてるのが気になります
62名無しさん@お腹いっぱい。
垢版 |
2021/01/10(日) 12:07:59.77ID:YmtG7pSH0
>>55
63名無しさん@お腹いっぱい。
垢版 |
2021/01/10(日) 17:38:20.88ID:S6XwlXVn0
俺の3080も確かに3Dが使われている
というか、そもそもcudaの項目がなくなっとるぞ
2021/01/10(日) 22:31:30.71ID:GjVlp6Gj0
>>63
RTX3000系もDFL安定して動作する様になりましたか?
65名無しさん@お腹いっぱい。
垢版 |
2021/01/10(日) 23:01:04.87ID:S6XwlXVn0
>>64
最近までxegが動かない問題があったけど
最新版でGPUスケジューリングをONにしろって
て表示が出ててきてONにしたら動くようになったよ。
俺の3080はもう問題なし
2021/01/10(日) 23:04:30.82ID:a/Mpc8zA0
色々と調べてみましたが3000台は学習初動でvram使用計算にバグあるっぽいですね
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます
2021/01/10(日) 23:15:26.34ID:ldHKuG2D0
ついに3000番台を買うときが来たのか
68名無しさん@お腹いっぱい。
垢版 |
2021/01/10(日) 23:16:58.06ID:S6XwlXVn0
>>66
凄く有益な情報ありがとう
いままでHEADだと256*4bachが
限界だったのに320*8でも動くようになったよ
3080tiが出るまで待とうと思ってたけど、
必要なくなったw
2021/01/13(水) 03:27:20.99ID:BcOqF2sv0
>>65-68
どうもありがとう
確かCudaコアが倍増とか??1 Iterも短縮?
消費電力は減るはVRAMは増えるは安くなるはで前世代から見て改善だらけかな?
2021/01/13(水) 04:50:01.39ID:gs+03oev0
3070よりVRAMの多い3060の方がこのスレ的には良いのかな
71名無しさん@お腹いっぱい。
垢版 |
2021/01/13(水) 09:51:29.09ID:xmKQtiaT0
顔抽出の精度って学習されないんでしょうか?
debugフォルダ見たら何回やっても失敗が多いんですが。。。
2021/01/13(水) 18:44:02.83ID:3Hac03cm0
1080Tiから変える価値あるかな...
悩ましい
2021/01/13(水) 18:54:12.78ID:N8pw1+uI0
3060がvRam12GBで330ドルらしい
これ買いやろ
74名無しさん@お腹いっぱい。
垢版 |
2021/01/17(日) 23:32:57.31ID:GF9iGrUJ0
顔画像をheadで切り抜きしてるけど上下にすごい余白ができる
余白ギリギリで切り抜いてほしいんだけど、調節する方法あるかなぁ?
2021/01/17(日) 23:57:25.58ID:2v/zwxJ80
>>74
headはそもそも頭部全体を切り抜くってアルゴリズムだから余白が多いのが当然だろ
head>Whole>full>harfで範囲が小さくなるんだから変更するしかないんじゃない?
76名無しさん@お腹いっぱい。
垢版 |
2021/01/19(火) 00:28:39.19ID:LTGWcQnS0
>>75
そりゃそうだが縦幅の半分近く無駄にしている。
おかげでVRAM馬鹿食いの割に低解像度。
もうちょっと何とかなりそうだと思うが。
2021/01/19(火) 07:29:56.86ID:FSUOoPPp0
head最強だよな まんま本人に仕上がる
78名無しさん@お腹いっぱい。
垢版 |
2021/01/19(火) 22:18:21.22ID:LTGWcQnS0
3080Tiが無期限延期になってしまった
3090にせざるを得ない
79名無しさん@お腹いっぱい。
垢版 |
2021/01/19(火) 23:21:07.32ID:SW7ZtdJ70
ReadyToMerge model 良さそうだね
2021/01/20(水) 11:05:33.37ID:P6q7UDGa0
ときにみんなどこいったの?解散?
81名無しさん@お腹いっぱい。
垢版 |
2021/01/20(水) 19:37:33.17ID:E0VTRomg0
俺はここにいるぞ
82名無しさん@お腹いっぱい。
垢版 |
2021/01/20(水) 21:12:28.49ID:Eo6BWrtN0
ReadyToMergeモデルってのはごく少ないtrain回数で高品質なマージができるって意味?
特別なプログラムがあるわけじゃなくて、効率的なtrainのやり方って感じかな。
2021/01/21(木) 09:44:21.31ID:xgOvuSRQ0
RTMmodelはパターン豊富なsrcとdstにPretrain用データを使って事前に十分学習させとけば、本番のdstで全く学習せずにいきなりmergeしてもいい感じに合成できるよってことで合ってる?
2021/01/21(木) 10:01:04.01ID:79km7b5Y0
モデルの使いまわしを1つのsrcだけで効率よくするって感じか
2021/01/22(金) 23:56:02.92ID:65mc9Ut00
>>77
headって、背景やsrcとdstの髪型に気を遣って
AAEとかDavinci Resolveで後処理しないといけないんでしょ?
2021/01/23(土) 09:02:57.54ID:fUZZe34M0
>>85
確かに背景と髪の境界線は多少ちらつくので気になる人は映像処理するといいかも。
自分は我慢できる範囲。そこはデメリットかな。ちなみに顎と首の境界線はwf同等なので
だいじょうぶ。マスクはwfよりかはxseg-editの枚数増える感じ。なによりもdst関係なく
本人そっくりになるのがメリット。
2021/01/23(土) 11:35:03.15ID:6S5RB2j60
>>86
ふだん、耳・前髪・横髪含む前頭部とメガネ残しでxseg-editして、wfで回してるんだけど
趣旨考えるとやっぱりheadに移行したほうがいい結果いなりそうだな
xseg-editも髪の残す境界に悩まず全部マスクできれば枚数増えても逆に楽になるのかな
寝てる時とかの逆立ち毛や、長髪についても抽出した画像内では全部頭部としてマスク内に残してやってる?
88名無しさん@お腹いっぱい。
垢版 |
2021/01/23(土) 11:52:56.82ID:Wkj8eEdW0
てかヘッドってsrcの髪型も揃えるんよね?
resなんぼでやってる?
224とかじゃ小さ過ぎるか
2021/01/23(土) 14:18:05.56ID:fUZZe34M0
髪は長髪でも頭部としてマスクしています、さすがにすこし乱れているのまでは
カットしてますが。xsegが思ったよりすごくて、長髪でもちゃんと学習してぴったり
合ってくるのは驚いた。マスクはdstもsrcも両方必須ですね。resは448です。
mrにあるpretrainモデルもheadだと少ししかないのであまり選択の余地はないですね。
90名無しさん@お腹いっぱい。
垢版 |
2021/01/23(土) 14:37:43.30ID:Wkj8eEdW0
>>89
448は俺のpcじゃ無理だ!
GPUは3090ですか?
2021/01/23(土) 14:57:58.15ID:2xJk3k4U0
>>89
ほうほう
fでそれなりに満足できてたけどheadに手を出してみたくなった
2021/01/23(土) 15:11:05.79ID:XmNWxByt0
headて短髪インタビューじゃないと厳しいかなと思ってたんだが凄いな
マスク処理、448のトレイン
作るのにどれくらいかかるんや...
2021/01/23(土) 16:08:12.73ID:1USTDxg40
1660sでは無理そうだな・・・
2021/01/23(土) 16:31:38.58ID:fUZZe34M0
>>90
gpuはそうです。wfで満足したかったが、dstの相性が悪いのか、モデルが似なかったので
やむなくですね。
95名無しさん@お腹いっぱい。
垢版 |
2021/01/24(日) 09:34:39.67ID:PR92PFvw0
俺の3080(VRAM10GB)ではres352のbatch4でギリギリ回る
res448なら16GBは最低必要だろうね
8GBのグラボでSLIを組むか、3060の発売を待つか、3090がいいだろうね。
2021/01/24(日) 10:26:30.03ID:Vxr9RyIP0
2080tiどころかTITAN Xでも怪しいくらいか
3080tiは凍結っぽいし現状は3090になるな
Vramもメモリ増設くらい簡単に増やせればいいのに
2021/01/24(日) 10:49:05.70ID:GaLlRUJ/0
これのために3090買えてマスクに時間かけられるやつがどれくらいいるかだな...
使えるシーンも限定されるだろうし
98名無しさん@お腹いっぱい。
垢版 |
2021/01/24(日) 14:16:52.68ID:PR92PFvw0
>>96
TITAN RTXならアリだね、
パソコン工房で14万で販売されてた形跡がある
演算速度は3080に負けるらしいけど、14万なら魅力的。
2021/01/24(日) 21:00:07.87ID:GAwZNhtZ0
>>89
情報ありがとう!やってみてダメだった時の徒労感が嫌で忌避してたけど
headでやってみる気力がわいてきた!

>>95
1080ti(11G)でliae-ud、res384、ae等デフォ、batch5は行けそう
adabelief切ればres416ならどうかなっても思ったけど、切る気にはならなかった。
2021/01/24(日) 23:04:26.06ID:u14CN91H0
mrにはheadであと 320と240の pretrain済モデルがあるので
自分の環境に合ったので試してみるといいかも。
2021/01/27(水) 01:34:22.08ID:gC+kjNVK0
なんかみなさんResが高いですねえ
いけるのか?
2021/01/29(金) 17:51:49.93ID:xArR9kmF0
>>96
VRAMとかは基盤に直付けで無いと、低速なのかな
メモリだけCPUのメインメモリも使うと、遅くなるんですかねえ
2021/01/30(土) 01:06:24.02ID:qNhMh9NT0
モデルの使いまわしをしてるんですが、プレビュー上のグラフ表示だけリセットする方法ってないですか?
まぁ気にするなって話なんですが
2021/01/31(日) 10:17:39.06ID:AUjud4w80
たしかに気になるw
105名無しさん@お腹いっぱい。
垢版 |
2021/01/31(日) 10:32:33.04ID:qldx7Bc70
俺は高解像度だとプレビューの顔画像が1個になるのを何とかしたい
2021/02/06(土) 20:31:00.06ID:7UxgC66u0
フォーラムに上がってるジェネリックxsegの使い方がよくわからないんですが
modelフォルダに突っ込んでマージするだけでsrcとdstにはxsegマスクを
特に必要とせず済むように使うためにあるんですか?
それとも5.XSeg.optional) trained mask for data_src - apply等を実行して
srcやdstに適応してからまたxsegのtrainをしてやる必要があるんですか?
107名無しさん@お腹いっぱい。
垢版 |
2021/02/06(土) 20:44:24.21ID:C9Pbm6kr0
やってみれば良いんじゃないの
恐らくフォルダに突っ込んどけばマージは出来る
でもapplyした方がtrainの効率は良いだろう
2021/02/07(日) 13:19:04.10ID:EISinFZl0
顔入れ換える系のこれより、ひんむく系の方が画質悪いけど興奮するわ

違う?
2021/02/07(日) 16:11:40.42ID:abPpdZtz0
>>108

ひんむく系は今どっかあるの?
2021/02/07(日) 17:19:02.06ID:EISinFZl0
>>2のフォーラムのtools and appsに前から専用スレッドがたってる
スタンドアロンツールとオンラインサービスがある
オンラインのやつはコツ掴めば中々すごい画像を生成する
解像度が600*600と低いが..
2021/02/07(日) 17:25:32.17ID:EISinFZl0
現状解像度低いから、興奮するのかも知れんが
顔入れ換える系は高解像だから、顔にあったボディをしっかり選ばないと俺の脳は受け付けないのかもしれん
2021/02/07(日) 22:54:52.32ID:5hohS1jB0
すみません
headで学習してますが、いざmergeSAEHD実行してもdstの顔しかでてきません
dstもsrxもheadで切り抜いてます。
対処方法教えてくださいませんか
2021/02/08(月) 00:25:59.91ID:PLWgGX+60
pretorainモデルの使い方がわかりません
普通に実行するとdstとsrcとは違う外人の顔がでてきます
114名無しさん@お腹いっぱい。
垢版 |
2021/02/08(月) 02:09:41.03ID:t6ym3FLe0
trainの下準備みたいなもんだから、その知らん外人でtrainするのがpretrain
2021/02/08(月) 06:26:59.84ID:1E+vYgdz0
ありがとうございます。
pre trainの効果は、トレインが早い、角度に強くなるであってますか
2021/02/08(月) 14:28:47.57ID:Yy3LRlrT0
>>110
どれのこと言ってるの?
顔入れ替えと服脱がすやつしかなくないか?
2021/02/08(月) 19:40:15.85ID:PLWgGX+60
>>114
ありがとう
2021/02/08(月) 20:24:06.83ID:GUE+qRrc0
pretrain用のpakの中身は「自分が過去に使ったsrc/dstを適当に混ぜた物」と入れ替えるのお勧め
loss値じゃなくて、previewでキツい角度や表情がキレイになる位まででおk
2021/02/10(水) 20:30:39.54ID:96f2SSGm0
aedimは512にしてますか?
pretrain見るとあんまりしてないからそこまで重要じゃないのかな
2021/02/10(水) 21:56:17.31ID:k4diDgZd0
aedims512でadabelief trueにするとbatch size1でもtrain始められなくない?
2021/02/11(木) 09:50:18.65ID:ykF3+vXs0
pretrainではなく普通のトレーニング済みモデルってどこかにありますか
2021/02/11(木) 10:04:39.76ID:xZn5iYJL0
捕まりたいのか
2021/02/11(木) 10:08:17.03ID:ykF3+vXs0
だからみんなpretrainでアップしてるのか
pretorainの効果って今一つわからないのですが、結局Iter1から自分でやるんですね
train時間短縮で使いまわせらたと思ったのですが
2021/02/11(木) 15:49:01.22ID:a5Q0d3ss0
ガイジランドへようこそ!
2021/02/11(木) 17:09:50.55ID:EWg0+ITJ0
pretrain無しで一から回してみればいいと思うよ
未実装だった頃は200k回してやっと何となく見れるレベルって感じだった記憶がある
2021/02/13(土) 10:01:23.08ID:UyM85h3B0
いろんなsrc、dstを混ぜて、Trainモデルをアップすれば、
誰が誰だか分からない平均顔?
捕まるかな?
127名無しさん@お腹いっぱい。
垢版 |
2021/02/13(土) 18:30:19.20ID:hRYiEizk0
Mask Editorで画像を確認するとき、一気に画像を飛ばすキーとか無いですかね・・?
3万枚とか、ずーっとDボタンを押しっぱなしで確認するのしんどい。
解像度1024だと送りのスピードも遅いし。
128名無しさん@お腹いっぱい。
垢版 |
2021/02/13(土) 18:45:24.37ID:+mwpZ2KX0
shiftDでちょい速くなる程度か
最後の方だけ確認したい時なんかは前半の画像を別フォルダに逃したりしてるわ
2021/02/14(日) 13:02:52.41ID:QlYS4rBG0
3080と3090どっち買うか迷ってるんだけど、同じ設定で比べると時間的にどのぐらい差がありそう?
2021/02/14(日) 14:59:32.16ID:VDn4FPbX0
メモリが多いとbatch数増やせるから
その分trainは早く終わる
1070無印から3090に載せ替えたけど
3〜4倍のbatch数で動いたよ
cudaコアも5倍なのでかなり速くなった
寝る前にtrain始めて起きたら完成していると言ってた人がいたけど
自分も同じ感じ
3080は持っていないのでわからない
2021/02/14(日) 17:43:35.88ID:uRn3MwTq0
プレビューでdstの顔向きをsrcが追従してくれません
src不足でしょうか
132名無しさん@お腹いっぱい。
垢版 |
2021/02/14(日) 17:55:23.04ID:+Be3z2U10
だろうね
2021/02/14(日) 18:19:15.11ID:1qsuoh/90
どうせすぐ飽きるから1050で
2021/02/14(日) 18:30:47.34ID:7sYREDjN0
adabeliefは最初からtrueでいいのかな
135名無しさん@お腹いっぱい。
垢版 |
2021/02/14(日) 19:03:54.39ID:+Be3z2U10
オフにする意味がないよね
2021/02/15(月) 10:27:41.06ID:DgGODcso0
>>130
ありがとう!その早さは魅力だなぁ。
と同時に飽きるから安いのでいいというのもまた真理。悩む。
2021/02/15(月) 17:24:25.52ID:suE851DB0
グラボ更新ついでに最新版にアプデしたらプレビューが5×5マスでなくて、
srcの2×2部分しか表示されなくなったんだけどそういう設定かなんかあります?
2021/02/18(木) 14:11:20.43ID:cee5geq80
>>128
さんくす!
Shift+D知らんかった。
あと、他のフォルダに移せばいいってのも盲点やった。
2021/02/20(土) 16:30:38.36ID:NUHj5Eln0
すみません。
headをためしてますが、プレビューで顔が崩壊してます。
xsegでもっと枚数範囲指定せんとダメでしょうか
2021/02/20(土) 16:57:12.66ID:dGfdqg3/0
オレもhead挑戦中
まだ途中だが、プレビューで崩れた顔が出てくるので、Xsegに戻ってeditしながら再train中
2021/02/20(土) 18:29:20.29ID:i6nh76Ki0
基本的には短髪スーツのオッサンがスピーチしてる動画しか想定されてないから…
余程src/dstの条件が一致してかつ、正面に近い物しか無理
2021/02/20(土) 18:34:45.04ID:NUHj5Eln0
まじですか
じゃ、一般的に騎乗位とかのエロはWFがいいのですね
2021/02/20(土) 18:48:07.22ID:0Y0LlUwk0
ちょっと前までf一択みたいな風潮だったのにいつの間にかwf〜headがメインになってるな
144名無しさん@お腹いっぱい。
垢版 |
2021/02/20(土) 18:54:53.84ID:qbjgYPuG0
fしか使ってないわ
日本の女性アイドル使ったheadの完成品があれば見てみたいわ
2021/02/20(土) 19:36:23.22ID:05shFO990
AVでは難しいだろうけど命知らずの馬鹿は好きだ
2021/02/20(土) 21:17:33.60ID:i6nh76Ki0
>>143
スマホとかのfirmwareみたいに、常に最新が良いと思いがちなのかも
要は用途に適した環境が大事な気がする 自分は最新も確認しつつliaechでrawが多い
2021/02/20(土) 22:01:08.68ID:dGfdqg3/0
headなら、顔の輪郭まで持ってけそうだと思ってやってるけど、まだmergeまで行ってない。
ま、最近忙しくて、作業を進められてないのが原因だけど。
df faceのmodelなら3人作ったし、結構短時間で新作作れるけど、顔の輪郭で不満が残る場合があり…
148名無しさん@お腹いっぱい。
垢版 |
2021/02/20(土) 22:32:16.99ID:qbjgYPuG0
顔の輪郭までならheadである必要もないかと思う
>>146でも書いてあるけど新しいバージョンが上位互換というわけでもないし
おでこに髪がかかるようなsrcはfを使うのがベストと作者も言ってた気がするし、fから進めない
2021/02/20(土) 23:11:22.18ID:0Y0LlUwk0
自分も眉毛の下でmaskするからextractはwfだけどarchiはずっとfだな
ただheadだと輪郭前髪ごと移植できるみたいだから気にはなってる
2021/02/21(日) 01:05:26.27ID:6Wm57AXT0
こういう場合に、気楽にアップできないのがつらいな。
2021/02/21(日) 01:46:37.58ID:WaKuxNEP0
せやな
headがどれくらい補完できるか気になる
152名無しさん@お腹いっぱい。
垢版 |
2021/02/23(火) 14:31:10.89ID:HptXYUfd0
3070で顔の切り抜きの速度1.2it/sって普通なんですかね?なにか自分の設定が悪いのでしょうか
153名無しさん@お腹いっぱい。
垢版 |
2021/02/23(火) 14:42:46.30ID:U2LAwJeT0
それで普通
extract faceはGPUもCPUも全然性能使い切ってくれないから遅い
154名無しさん@お腹いっぱい。
垢版 |
2021/02/23(火) 15:42:09.97ID:vC0XWc3F0
色々試してみて感じたのは
DFLの最大の弱点は顔抽出の精度
Xsegみたいにユーザーの手動検出を元に学習とかできないのかな
2021/02/23(火) 17:21:25.04ID:ipJ3q2HE0
DFLそんなに遅いのか...
2021/02/23(火) 17:55:59.67ID:jG48/ggc0
顔検出の精度低いって、ちんこ重なってると駄目なん?
157名無しさん@お腹いっぱい。
垢版 |
2021/02/23(火) 18:01:04.86ID:U2LAwJeT0
口が隠れてると手動での検出すら厳しくなるね
2年ぐらい使ってるけど、この辺は一切進化してない
作者がいじれない所らしい
2021/02/23(火) 18:09:16.98ID:jG48/ggc0
そっか
ちんこが問題かw
2021/02/23(火) 18:46:43.57ID:IN3iaJxd0
3pとか2人以上の顔の差し替えを同一動画で作るのは
どういう手順で作ってるんでしょうか?
2021/02/23(火) 19:21:46.48ID:aEGVTsnr0
予想だけどA,B両方抽出してBのalignedとdebug消してAをXに変換→result出力
そのresultからX,Bを抽出してXのalignedとDebug消してBをYに変換
みたいな流れじゃないかな
2021/02/23(火) 20:01:58.00ID:09NP18fj0
src(芸能人)は小顔で目が大きい→dstは顔が大きく目が小さい→trainでdstのlandmarkサイズを基準に学習→マスク外のサイズが微妙になる…
2021/02/23(火) 20:36:34.28ID:hbbh5Bsl0
>>161
mergeのときに顔のサイズ変えられるでしょ
Jを押して大きくしてみては
2021/02/23(火) 22:36:12.20ID:09NP18fj0
それはmask内部の事…サンクス
2021/02/23(火) 22:46:33.38ID:aEGVTsnr0
輪郭に合わせるとなんか巨頭オみたいになって違和感バキバキの時あるね
特に上から見下ろすシーンが気持ち悪くなる気がする
2021/02/24(水) 00:35:41.01ID:voql3v5b0
自分も時々起こるので、対策が知りたい。
dstのマスクが大きくて、srcが小さいので、Jで大きくして間を埋めようとすると
頭でっかちになってしまう症状。あごと首のラインのところでおかしくなるんだよなあ。
rawで出力してdavinciresolveで合成するとかなりましになったので、起こったときの
対策はとりあえず、そうしている。
2021/02/24(水) 00:44:32.35ID:5uy8zOgB0
後は、fullfaceのrect範囲(赤枠)の大きさがmanualでも小さい場合も多い 特に横顔とか口を大きく開けてる画
headとかだと素材の制限が増えて違うし
167名無しさん@お腹いっぱい。
垢版 |
2021/02/25(木) 00:09:52.18ID:FBZpMjjH0
>>153
そうなんですね。ありがとうございます
2021/02/25(木) 21:25:32.98ID:LWTuT8VT0
謎の3060は明日発売か
2021/02/25(木) 21:45:36.58ID:DZrP8Dsh0
貞松はマジでdfl殺しだなぁ
2021/02/26(金) 10:15:03.40ID:EcMmQcPy0
3060はコア性能が2060s以下だとわかったため
3000スレはお通夜になっている
2021/02/26(金) 11:54:05.74ID:9SZ6Yb570
遅ればせながらhead試してみた
髪の色と長さが合っていれば本人そのものを再現できてよいですね・・・
ただ、やはり先人のコメントのとおり注意点、制限も

・同一ソースからのsrc抽出が必要
(複数ソースだとsrcの髪型に一貫性がないため、mergeしたときに髪の毛が薄く生えたり
 濃く生えたりする箇所が出てきて変になる)
・動きが少なく正面シーン中心じゃないとmergeが滲みやすい
2021/02/26(金) 15:24:46.03ID:kG+E1Neq0
head試してたんだけど、train200万回近く回してもクリーチャー顔がいくつか残り、いまいにはそれが増えだしたから一時凍結したわ
2021/02/26(金) 15:42:56.85ID:j9gWypTl0
肩弱い奴はハメ撮り止めちまえ!顔見切れすぎブレすぎ枕使わないから角度煽りすぎ
2021/02/26(金) 19:41:07.27ID:FsXsHRfM0
つ 全編超広角
175名無しさん@お腹いっぱい。
垢版 |
2021/02/26(金) 19:43:02.95ID:AFL65++U0
森七菜ちゃん可愛いね
2021/02/26(金) 22:21:14.19ID:ySOdKgO70
Xsegあまり鍛えられていないので(手作業が面倒)
前髪、舌、笛があまりうまくいっていない(ボケる感じ?)

あと、額とかの色合わせとか。。

動画編集ソフトとか?
使い方が謎です。。
簡単に教えてはもらえませんし
177名無しさん@お腹いっぱい。
垢版 |
2021/02/26(金) 22:57:56.31ID:AFL65++U0
Xsegでマスクするだけだろ
2021/02/27(土) 10:23:55.84ID:u0B7HciK0
Xseg で要所要所をマスクしても、前後のフレームがまったく顔検出出来ないことがあるんだが何でだろう?
あれって、同じような構図のフレームは、1フレームだけ指定すれば、ほかのフレームは同じように学習してくれると思ってるんだけど違うの?

結局、ほぼ全フレームに近い形でマスクしないと思ったようにならなくてチョー面倒なんだけど(涙
一部のフレームだけ指定すると、dst のままのフレームがたくさんあって src の中に dst がちらちら入り込んじゃう。
何か、やり方間違ってるのかしら。。。
(もちろん、本学習の前に Xseg の train・fetch・apply はしてる)
2021/02/27(土) 11:18:46.06ID:cyYZh7yu0
xsegはsrcとdst分けて学習したほうが楽
あと、xsegはすぐに過学習になるから汎用性がなくなってきたら
リセットしてやり直さなきゃいけない
2021/02/27(土) 12:24:37.05ID:zAwQXJd/0
>>178
その現象、自分も経験した
自分の場合は、Xsegしたコマに、実線で囲まれた領域が無くて、破線で囲まれた領域のみのやつが混じってたせいだった
2021/02/27(土) 14:05:43.43ID:ONWhNIL+0
extract結果自体がマズいと予想
2021/02/27(土) 21:16:18.59ID:BJGcUk1u0
コツをつかんだけど外しまくりです
2021/02/28(日) 01:28:46.03ID:+h1/tT500
>>179
俺はmodelも手動指定した画像も流用しまくってるけど問題ないよ
200万回ぐらい回したmodelで過去のdstで手動指定した画像300枚くらいと新規のdst参照するようにして回せばbatch13なら10分も回せば十分はっきりマスクされる
それまでに手動でやってないパターンのマスクは流石に無理だけど
2021/02/28(日) 08:00:54.43ID:IBd5QeE20
すみません
Xsegtrainはどのくらいやればいいものですか?
目安となる時間を教えて頂きたいです。
185名無しさん@お腹いっぱい。
垢版 |
2021/02/28(日) 12:54:57.48ID:gp9MsIgc0
>>184
2時間くらいでおk
2021/02/28(日) 16:27:35.55ID:Q0/+ToJZ0
これ、そっくりになるね。始めたばかりだけど、その辺のサイトに落ちてるのより自分でやった方が似てると思う
187名無しさん@お腹いっぱい。
垢版 |
2021/02/28(日) 16:35:48.12ID:hw3Z62AE0
>>178
似たような構図でも目が開いてるか閉じてるかだけでもマスク範囲が変わるんで別物として編集する
XSegの注意点として例に挙がってるのが、目の開閉・顔の向き・照明条件
最初のうちはかなり面倒くさいけど地道にサンプルを増やしてくしかない
2021/02/28(日) 20:11:11.35ID:vMSEX/YG0
win10のexplorerがアホ過ぎてストレス貯まる
2021/02/28(日) 22:30:39.66ID:a6tWsyT5O
extractorの方がアホ
2021/03/01(月) 15:12:55.15ID:D/1OsYiq0
最新版で1か月ぐらいheadに挑戦してたけど結果が良くないので、Fansegラストビルドの20200327に戻ってる
で、最近Train中にプログラムがいつの間にかフリーズしてる現象が多発なんだけど、同じ状況の方いますか?
2021/03/01(月) 15:22:16.49ID:cWOtQJ+p0
それに該当するかはわからんけど、train中にcmdの黒画面を触っちゃって中断状態になる事がある
その時は同画面アクティブで適当なキーを押せば再開する
2021/03/01(月) 17:11:08.95ID:9yegWZFy0
再挑戦したいんですが、AMDRYZENでdfl1.0使ってて教えられるよ、ってかたいませんか?
当方は趣味で動画編集してるくらいの無知なのですが
2021/03/01(月) 17:12:27.00ID:9yegWZFy0
前回は、trainさせたのをはめ込んだら顔がのっぺらぼうになってやめました
2021/03/01(月) 17:54:21.07ID:D/1OsYiq0
>>191
サンクス、それかも知れないので帰ったらやってみます。
195名無しさん@お腹いっぱい。
垢版 |
2021/03/01(月) 18:32:48.31ID:oQcdpcaE0
GPU無しは厳しいだろうな
2021/03/01(月) 18:45:19.47ID:OpPLjOf30
RadeonじゃなくてRyzen?Threadripper ならいけるか?
そんなことするくらいなら1080tiの中古でも買った方が良さそうだけど
2021/03/01(月) 19:48:11.04ID:9yegWZFy0
いかんせん解説サイトないのがね
2021/03/01(月) 20:10:19.68ID:5SHA7bHi0
そこらへんのサイト見てわからないのは知らない言葉の数だろ?
知らない言葉全部聞く気か?
そんな他力本願のやつに教えるのにどれだけ時間かかるか想像してみ
本当に作りたきゃ調べる努力をしてわからないことを聞きなよ
2021/03/01(月) 21:47:13.71ID:gjj9f1UA0
最新版でFAN-dstの設定なくなったのだるすぎる
マスク編集めんどくせぇ
200名無しさん@お腹いっぱい。
垢版 |
2021/03/01(月) 22:41:09.45ID:oQcdpcaE0
fan-dstも残してくれれば良かったのにね
でもXSegの方が明らかに高機能で、フェラもベロチューも違和感なく出来るからオススメ

ただフェラもキスもextractが異常に下手クソなんだよな
2021/03/02(火) 00:13:05.24ID:pHrB2/op0
別に機能はxsegもfansegも全く同じだぞ
extractはmanualのAを使ったことが無い、使える画の選定がグダグダだと話にならんけど
202名無しさん@お腹いっぱい。
垢版 |
2021/03/02(火) 00:39:45.95ID:JUyU4u280
話の通じないやつだな
2021/03/02(火) 04:00:30.60ID:yfmelPEV0
別途、舌と思われるパターンをXsegマスクするツールが欲しいな。。
ランドマークが入らないので、難しい、できないのでしょうか?
前髪も同様。前髪ありは日本人、韓国人くらいかな。。
2021/03/02(火) 13:09:05.45ID:anVKnmc70
>>203
自作した。汎用性は低いけど。
2021/03/02(火) 20:30:03.39ID:z+w1WYUO0
俺もheadやってみたが、確かに上であがってるような一長一短。
200k程度回して簡単な角度なら最高だけど、ちょっとでも角度がきつくなるとクリーチャーに。
Xsegのサンプル数も多く、とにかくなにより抽出の精度が異常に悪く、相当数手作業になる感じだな。
srcセットには出来る労力だけど、数多くのdstセットに同じ労力使えるかといわれると…
だがツボはまるとこれはつよい…
2021/03/03(水) 08:27:51.37ID:HznyZdrf0
すみません 
xsegでフェラ編集する場合、editで範囲指定するときにdstの口まわりを除外するように指定して、完成時にsrcに除外したdstの口回りをうつしだすということであってますか?
2021/03/03(水) 14:01:18.80ID:NHlrshYt0
>>206
>>2
2021/03/03(水) 15:25:36.86ID:YxY6ANAM0
質問なんだが、SRCって最低どのくらいの時間でやってる?
1時間で充分なのかわからん
2021/03/03(水) 15:26:51.98ID:JfQWVVPz0
時間じゃなくて使えるフレーム数と表情角度のバリエーションで考えろ😠
2021/03/03(水) 15:27:57.28ID:YxY6ANAM0
すまん、普通のフレーム数ってどのくらいなんでしょうか
2021/03/03(水) 15:31:52.95ID:NttWcEcZ0
3000〜4000
もっと少なくてもいいときもあればもっと多い方がよいときもあるが
これくらいをベースに調整してみるとよいでしょう
2021/03/03(水) 15:39:28.69ID:YxY6ANAM0
ありがとうございます
またあとで自分のやつと照らし合わせて返します
2021/03/03(水) 19:28:09.48ID:G0WKHSpM0
ゲーミングノートでやってる人いる?
rtx30〜のノートを買おうかと思ってるんだがデスクトップ比較でどんなもんか知りたい
2021/03/03(水) 20:10:10.14ID:VBtFUQOw0
39 名無しさん@お腹いっぱい。 sage 2021/02/03(水) 23:43:22.40 ID:5tX+xQ2H0
CPU Ryzen 3900XT
GPU GTX 1080
DFL2.0

でtrainしたら、tensorflowのエラーやらで止まってしまうんだけど、AMDのCPUだとダメなんだろうか?
AMDのグラボはサポートしなくなったのはわかるんだけどCPUはサポートしてるよね?


これって俺もで、これからはじめようとここにたどり着いた
どうなのでしょうか?
2021/03/03(水) 20:19:42.51ID:ytC2UZQW0
最新版はRTXにしか対応してないんじゃないっけ
2021/03/03(水) 20:24:12.82ID:VBtFUQOw0
あ、俺のRTX3000なんだよね...
なんか調べてたら3000は特殊らしいんだが
2021/03/03(水) 20:42:09.11ID:35q5rjHF0
>>214
3000版用と2000まで用と2種類ある
39は欲張りすぎてoomになっているだけかと
3000版はgpuスケジューリングonにしないとエラーでやすいね
2021/03/03(水) 21:34:52.23ID:VBtFUQOw0
一番最新のやつダウンロードしちゃいました
名前は02_03_2020.exeなんですがどうなんでしょう
2021/03/03(水) 21:58:47.41ID:4K73l4ef0
GPUのスペック越える設定でtrainしようとするとエラー吐いて始まらないよ
無印1080なら
Archi:DF
reso128
各dims:64
bs:4
adabelief-
その他オプションデフォルトでtrain開始しない?
2021/03/03(水) 22:44:00.44ID:brWD1sEx0
>>214
俺も1080でCPUはryzenだけど問題なく動いてるから、頑張れば動くよ
俺はフォーラムにある
LIAE-UD FF 192_SAEHD
ってモデルを愛用してる
2021/03/03(水) 22:44:46.21ID:YxY6ANAM0
いまはDSTとSRCを全フレーム抽出するところまでやりました

残業多い社会人で時間かかるので、結構手間かけて無理ってわかったらしょっくだなぁー
2021/03/03(水) 22:45:53.95ID:YxY6ANAM0
いや、RTX3000シリーズでRYZENCPUなんですよね
2021/03/03(水) 23:15:02.42ID:brWD1sEx0
お前には無理だから諦めろ
2021/03/03(水) 23:30:48.13ID:4K73l4ef0
さては外付HDD3070おじさんか?
2021/03/03(水) 23:41:34.90ID:YxY6ANAM0
一応今日始めました


https://i.imgur.com/lqRpxS1.jpg
この画面から一時間待っても動かずエンター押したらこの通り
なにが悪いんでしょう
2021/03/03(水) 23:46:49.49ID:HJOxkBIX0
>>217 で解決してるのになんでそんなにターンかかるの...
2020.3が最新の訳ないやん...
2021/03/04(木) 00:29:11.07ID:OMskWBdK0
この人絶対に無理だよ
きっとDFLだけじゃなく何やらせても無理だよ
2021/03/04(木) 00:53:41.10ID:iunPonaH0
ファイル数が22万なので
2時間位の動画か
顔抽出失敗の数を見て卒倒しないようにね
01_04_2021の最新版をしようしてもvram不足でエラーでそうやね
dstは最初は720p 10秒位にしていろいろ試したほうがよいよ
2021/03/04(木) 02:12:05.41ID:wuTryrGl0
皆さんご回答、本当にありがとうございます

720p10秒っていうのはどこで設定出来るのかわからないのですがどうしたら良いでしょう
2021/03/04(木) 02:14:21.45ID:wuTryrGl0
4つの動画をひとつにまとめてやってるので負荷かかるかな、とは思ってました

ただ、一つ一つやろうとしたら抽出は上書きされるみたいでこれしかなかったんですよねえ
2021/03/04(木) 02:55:03.24ID:iAL1X8v90
うーむ
昔、大学で、理系、工学部だと、手計算やってられない物があるので
科学技術計算、FORTRANとかやって
計算機とはー
とか
プログラムとはー
とか、ある程度、概念形成されると思うんだよね
一般常識として、計算機、プログラムとはーとか、ある程度ないとまずいんでないの?
どうするよ?
2021/03/04(木) 03:01:05.35ID:iAL1X8v90
Pythonなんか、ソースコード丸見えだから、
if then elseとか
forループとか
ある程度は共通ですよ
型宣言しないので、なんじゃこりゃでした
1バイトデータとか確保してないのに、なぜ分かり、動くん?でした
andとかorとか、簡単な事が概念形成されればいいかと個人的には思います
2021/03/04(木) 08:51:45.26ID:51Htq1110
たまにいるよね
スクリーンショットを「写真」で撮る奴w
234名無しさん@お腹いっぱい。
垢版 |
2021/03/04(木) 10:48:10.45ID:nG9ZlYOi0
ブタに真珠
2021/03/04(木) 12:12:05.47ID:0eUgwERS0
付属のサンプル動画で一通りやってみればいいのに
2021/03/04(木) 13:17:59.81ID:ezhe73Di0
猿以下の脳みそなんだから無駄
2021/03/04(木) 15:44:23.92ID:iAL1X8v90
次は、正面近く、カメラ目線で尺の短いdstとか
srcが眉なしだけだと、dstの眉をそのまま出すだけだし、本人の眉情報が無い
瞬きしてもいいけど、目瞑りぱなしだと、顔の特徴が出ませんな
俯きも、目玉が見えませんし、その分特徴が出づらいかと思います
上向きなんて、srcそんなに集められない気がします
2021/03/04(木) 16:23:38.79ID:VwHjzY4k0
チラ裏
2021/03/04(木) 20:38:05.01ID:wuTryrGl0
またご面倒かけてすんません
昨日に続いて最新のDFL入れたら作業途中でこんな画面になりました

なにが悪かったんでしょうか

https://i.imgur.com/AwgDTRh.jpg
2021/03/04(木) 20:39:36.36ID:wuTryrGl0
ダズント レスポンス だそうです

理由になっていない
2021/03/04(木) 21:22:27.03ID:OMskWBdK0
2度と来るなと言っただろ
2021/03/04(木) 21:48:16.79ID:VwHjzY4k0
言ってなくて草
でもまあ聞く耳持たず
2回目だからレッドカードだな
2021/03/04(木) 23:09:21.38ID:ZR8huL9b0
>>19
2021/03/05(金) 00:29:45.89ID:+ndEjcHz0
>>239
すごく簡潔に言うと
君には無理だよ
2021/03/05(金) 02:18:47.97ID:Jzg61Xqo0
誰か日常的に使ってる人いない?
2021/03/05(金) 04:15:37.75ID:FROHvsCN0
初っ端から2時間超えの作ろうとしてて草
巷にあるDF動画なんてせいぜい5分程度がザラなのに
新規で5分の動画なら学習に24時間は覚悟するて聞いたらどんな反応するのか
2021/03/05(金) 08:14:51.62ID:jskKYGtb0
顔の未検出、誤検出とかたくさんあったりして
手動でガンバレ
2021/03/05(金) 08:47:38.30ID:jskKYGtb0
dstでいい感じのシーンとか、トリミング編集とかできないと、DFLも無理でしょうね
dstが顔でかくて、ボケるかも?だと画面サイズ縮小編集とか
DFLの他、フリーの動画編集ソフトとかで遊んだりしませんでしたか?
2021/03/05(金) 13:31:41.56ID:Jzg61Xqo0
あっ、DSTって短くしないと駄目なんですか

一応日常的に編集動画投稿してます(最高再生回数二万回)
SRCのtrainに時間かかると思ってたので、DSTは負荷かからないと勘違いしてた
どうもありがとう
2021/03/05(金) 15:39:47.52ID:jskKYGtb0
dstが長すぎる事によるエラーがあるかも知れませんが
やった事はないので分からないです
そんな、顔を入れ替えたいシーンばかりではなく、だらだら長い所、
平板なシーンも多いでしょうに

顔の未検出の手動抽出とかあるから、dstが長いと大変だと思います
そのままだとちらちらdstに戻り、顔が入れ替わらない
顔の誤検出の手動削除もあります

完成後、がっかりとかあると思いますし、いきなり長くてもね
2021/03/05(金) 16:02:02.65ID:bL7u3lOy0
鏡と話すおじさん怖すぎ
2021/03/05(金) 18:48:45.11ID:Jzg61Xqo0
最初に思ってたのは2時間やるとしても、使えるのはそこから20分くらい、と思ってたんですよね

5分でやると10秒位では、と思う
2021/03/05(金) 19:45:20.77ID:e6ZwS5ll0
mergeの時にinteractive mergerを使わないで、batの末尾に<merge.txtみたいな形でテキストに事前に書いた設定項目読み込ませたいんだけど、
Use interactive merger?をnで渡しても勝手にyになって、起動しちゃうのどうにかならない?
20210104使ってます。
2021/03/05(金) 21:33:21.91ID:3hMHQIJd0
設定項目とは
2021/03/05(金) 22:30:26.29ID:e6ZwS5ll0
0とかmklとか、そういう手動で入力する項目
2021/03/06(土) 12:18:39.18ID:POsdlmr90
多分、最初の方はBatで食わせるがうまくいかないみたいで
Pythonいじって、何とか。。
面倒なので、ほっといてますが
2021/03/06(土) 12:54:39.63ID:xKPyp+Qx0
日記の句読点は異常
2021/03/06(土) 15:19:05.53ID:POsdlmr90
dstはショートカットとか、髪を上げていると
輪郭がごまかせないので、違和感が出る事があるみたい
麻○憂ちゃんの無臭時代はショートカット
残念
2021/03/07(日) 20:17:50.85ID:RzmGNvkO0
昨日のドラマでdeepfake連呼してたなw
2021/03/10(水) 08:59:02.94ID:CpR/xemb0
ただでさえ電気代かかるのにマイニング収益も考えると機会損失が大きすぎて作れない
2021/03/10(水) 13:07:42.13ID:ZiONWU1g0
お、おう
2021/03/10(水) 18:47:45.05ID:2DwOEiHP0
誰か3060でやってる人いる?
くそ味噌言われてるけど12gは使えるんじゃね
2021/03/10(水) 21:43:16.61ID:S4FjQjIv0
これ使えね?
https://www.youtube.com/watch?v=Ki9NVyD3It4
https://www.youtube.com/watch?v=J2AnvERt8jU

https://ebsynth.com/
2021/03/11(木) 18:39:21.46ID:NZScrXcq0
10.misc) start EBSynth.bat

@echo off
call _internal\setenv.bat

start "" /D "%INTERNAL%\EbSynth" /LOW "%INTERNAL%\EbSynth\EbSynth.exe" "%INTERNAL%\EbSynth\SampleProject\sample.ebs"

とかありますな
2021/03/12(金) 13:33:15.35ID:eZyVdiTN0
ワンピースの普通の水着をラバーコーティングのテカテカ水着に描きかえる的なことはできる
2021/03/13(土) 01:58:40.80ID:IO0QbPD50
よくそういう発想ができるな(褒め言葉)
素直に感心する
髪色の変更とかパンストを網タイツに、とかも頑張ればできそうかな
2021/03/15(月) 21:14:22.13ID:Rs+laLZd0
【合成】娘のライバルを蹴落とすため「ディープフェイク」作成、母親を逮捕 米
ttps://news.livedoor.com/article/detail/19850564/

チアリーダーとして活動する娘のライバルたちが裸で飲酒・喫煙する映像をAIでねつ造し、本人らに送付。自殺を促すメッセージも匿名で送信したとみられている。

アメリカはすげーな
2021/03/15(月) 22:46:33.04ID:X9iIG4Xz0
かあーちゃん…
269名無しさん@お腹いっぱい。
垢版 |
2021/03/16(火) 23:32:59.20ID:ZtV5x6jf0
headより広い範囲を抽出する方法ある?
髪が長いと途切れてまう・・
2021/03/17(水) 12:28:14.17ID:UXUkd/xO0
それだと肩より上が収まる画面は全体が入れ替わる事になるけど…
2021/03/17(水) 12:45:41.15ID:4cgX7pI/0
dst探しが作業時間の9割を占めてる気がする
2021/03/17(水) 13:51:55.35ID:Uc6ZjDwx0
trainだぞ
2021/03/17(水) 15:35:46.22ID:wYm9Xwu40
modelの学習が300から400万回ぐらいに育ってしまうと、流用すれば新規のdstでも数時間で仕上がってくる
そうなると、aligned debugのチェック&手動でのパス再作成が大半の時間を占めるね
もちろん、それとは別にdst探しはやるけど
2021/03/17(水) 16:11:26.20ID:cXMgY1sR0
素朴な疑問なんだが、流用っていうテクニックがあって、他の人物にもあまり悪影響ない、一番のユーザー不満である時間短縮ができる
それなら初期のパッケージとして普通は用意すべきだよな?

それをしないのってなんでなの?
2021/03/17(水) 16:34:25.64ID:UXUkd/xO0
>>2
2021/03/17(水) 17:45:21.47ID:Cpy9coZu0
量産してるやつとか流用してるけどだいたい似てないやん
2021/03/17(水) 18:34:26.55ID:wYm9Xwu40
元アイドルAと、とあるdstでいちから動画を作る
dstを次々替えて(外国人を含む)どんどん動画を作る
modelが成長してくると、train時間は短くてもすぐに似る
というパターンで、他にタレントBや女優Cのmodelも作っているが、dstがどれだけ似ているかがやっぱり重要
dstの顔の輪郭や髪型がかけ離れていると、あいのこみたいな顔にしかならない
2021/03/17(水) 19:24:19.48ID:Cpy9coZu0
それちゃんと学習できてないから...
何回繰り返すのか...
2021/03/17(水) 23:33:54.06ID:Z+HaKt2P0
自分が満足できるクオリティで作れているので、良しとしています
2021/03/18(木) 08:26:25.65ID:9TxMDenz0
srcモデル流用しないで(とある所でsrc流用はやめる。dstxdst学習のため)
毎回新規のsrcから作成しているの?
srcA→srcBでsrcBが完成したと思ったらやめる
srcA→srcCでsrcCが完成したと思ったらやめる
2021/03/24(水) 08:09:30.11ID:8P0VBNU70
新バージョン来た
何が変わったんだろう
2021/03/24(水) 18:42:18.30ID:er2gsBi80
あんまりどうでもいい変更だな
2021/03/24(水) 18:53:48.94ID:WATVeH6E0
初心者にはそうかも
2021/03/24(水) 19:12:31.41ID:RNFuWygC0
関係ないやつもいるだろ!
初心者さん!
2021/03/24(水) 20:01:54.01ID:er2gsBi80
ランダムフリップとか普通使わないじゃない
2021/03/25(木) 09:08:15.10ID:ljW0hp1e0
08_02_2020から以降してみたが
adabelief: TrueだとVRAMバカ食い?
Batch Size半分でもエラー
使うのなら最後の方で使うのかな?
2021/03/25(木) 10:24:49.98ID:qiu4TJYs0
>>285
そっちかよ
入力サイズと画像サイズ合わせて読み込み時間節約の方だと思った
2021/03/25(木) 11:18:47.84ID:ljW0hp1e0
>>285
srcは使用しないが、dstに使用するといいかも?
実験してみますか
2021/03/25(木) 11:47:41.56ID:6v/MBSvq0
>>286
adabeliefは新しい学習方法なので
途中でoffにするとadabeliefでトレインしたものは活かしてくれない
なので使うなら最初からonにして
途中からoffにしない
あと使用するvram多いよ
2021/03/25(木) 13:06:24.68ID:zJwTcj6T0
>>288
ややこしくなるから初心者は質問だけしてればいいです...
2021/03/25(木) 13:29:39.56ID:ljW0hp1e0
>>289
ありがとう
2021/03/25(木) 18:39:38.77ID:NXpAycAx0
adabeliefかなり速いから常にONだわ
2021/03/26(金) 04:37:45.96ID:WSGBSkIA0
おはよう
adabelie off onにしたら、最初から学習し直し?
Loss値がみるみる下がりますね
2021/03/26(金) 04:57:39.43ID:WSGBSkIA0
adabelie off onにしたらXsegモデル学習し直しみたい
src/dst 512→256にしたら、Mergeがむちゃむちゃ速いですね
2021/03/26(金) 05:06:32.44ID:WSGBSkIA0
Xsegモデルコピーしてませんでした
296名無しさん@お腹いっぱい。
垢版 |
2021/03/27(土) 00:18:38.20ID:oPMgV8i50
去年の7月ぶりに最新版にアップデートするけど新しい機能増えてますか?
2021/03/27(土) 00:48:45.07ID:dz4Xid2K0
何言っているのかちょっと判らない
2021/03/27(土) 08:43:37.56ID:sN724fnu0
解凍した後changelog.htmlを見れば変更点と新規機能が分かるかと
2021/03/27(土) 12:28:45.94ID:gvzOZTC40
新GANどうよ
2021/03/27(土) 15:38:56.16ID:HClXAhpC0
Multiple Choices
301名無しさん@お腹いっぱい。
垢版 |
2021/03/27(土) 19:07:48.10ID:oPMgV8i50
アップデートしたけどsrc側に顔が寄るのがデフォ設定に変わった感じ
302名無しさん@お腹いっぱい。
垢版 |
2021/03/28(日) 03:03:17.49ID:ueHeY/O40
liaeになってただけか
303名無し募集中。。。
垢版 |
2021/03/28(日) 03:16:42.30ID:EHo1up4D0
顔の切り出しが遅すぎるの何とかしてほしいよ
CPUもGPUも20%以下しか使ってないのがもったいない
304名無しさん@お腹いっぱい。
垢版 |
2021/03/30(火) 14:48:04.94ID:3oji83cR0
新しいpc作ってやりたいけどグラボが全然ねぇ、、、
radeonはまだ対応してないんだよね。。。
CPUって全然話題に上がらんけど、5800xでも5950Xでも大差ないの?
2021/03/30(火) 15:08:41.08ID:oAnoMaIs0
Radeonは1.0しか対応してないぞ
2021/03/30(火) 15:09:06.17ID:oAnoMaIs0
ごめん流し見でGPUの話かと思った
2021/03/30(火) 15:11:07.67ID:TDRp20Tc0
CPUこそ一番良い奴にすべき
2021/03/30(火) 23:50:38.41ID:yeTj8ebz0
>>304
2.0からコア数に比例して学習が速くなるようになってるはずやで
309名無しさん@お腹いっぱい。
垢版 |
2021/03/31(水) 09:48:24.78ID:2980UnH60
CPUも重要なのか、、誰にも見せれないのに中々金のかかる趣味だなw
310名無しさん@お腹いっぱい。
垢版 |
2021/03/31(水) 12:26:38.84ID:ENG1cKaz0
dst用にお勧めのAVタイトルとか、プレイ内容別にまとめている神って居ないのかしら?
少なくともググった位では見つからないんだよね。
2021/03/31(水) 12:54:32.16ID:e9MPlRyQ0
前まで素材スレあったんだけどね
2021/03/31(水) 14:04:36.29ID:1aFr7Puq0
モザの壁
313名無しさん@お腹いっぱい。
垢版 |
2021/03/31(水) 18:49:20.98ID:ppLJGluL0
>>310
Deepfake 素材に関するスレ 
でググってみ。
314名無しさん@お腹いっぱい。
垢版 |
2021/03/31(水) 23:47:42.08ID:+ePpkTvz0
>>313
見つかりました。
早速勉強させていただきます。

ありがとう、ありがとう。
2021/04/01(木) 12:26:46.85ID:9d4s2qfN0
src/dst 256x256にしたらae_dims:512だとだめみたい
ae_dims:256までかな
2021/04/03(土) 12:00:52.75ID:DWGUJF3Y0
お世話になります
質問です

1、目に髪がかかっているのはSRCにすべき?

2、特定の作品が化粧違うが、これはSRCにいれるべき?
2021/04/03(土) 12:27:52.04ID:zcWUI8wj0
>>316
@避けた方が良いが、dstが同条件(mask範囲内での髪の位置など)ならイケる場合も
A個別で作成した方が良いが、どうしても角度や表情がカバー出来ないなら、メインとする方のfacesetに対し10%程度なら補足としての追加がイケる場合も
2021/04/03(土) 12:30:06.75ID:DWGUJF3Y0
なるほどありがとうございます

ってことは肌の色味が違うのとかはどうなんでしょうか
SRCって輪郭だけじゃなく色も見てますよね?
2021/04/03(土) 13:00:40.33ID:zcWUI8wj0
>>318
極端に暗いとか、野外で光の当たり方がキツいのは特にmodel形成を阻害する所感
train時のcolor transでmklとか入れてれば、ある程度なら調整してくれるが、現状mergeではdstと同じにはなり辛い
髪型については、眉を超える前髪とか触角は自動extractはほぼ無理 手動Aやmask調整で適正範囲を指定してもtrainやmergeでグダグダになり易い
2021/04/04(日) 08:10:59.28ID:m4PTOv9y0
adabeliefは学習速度を上げるだけ?
であればDimsを上げてadabelief offにした方がいい気もする
321名無しさん@お腹いっぱい。
垢版 |
2021/04/04(日) 08:27:22.49ID:djLTBAJX0
入り切り出来ないじゃん
2021/04/05(月) 07:04:49.67ID:0rK27O7A0
PreTrainやってなかったんたんだけど必須ですかね?
2021/04/05(月) 09:16:02.81ID:QWc1wMJx0
ドラゴン桜が今夜から再放送
324名無しさん@お腹いっぱい。
垢版 |
2021/04/09(金) 14:31:38.36ID:BFw6vu2x0
CPU変えてめっちゃ早くなって安定したって報告しようとしたらちょうどCPUの話題になってた。
i5 7500→i9 10800に変えたらtrain速度1.3倍、merge速度100倍になったわ。
merge一瞬で終わるし、train中動画見たりゲームとかしても落ちないしもっと早く変えるべきだった。
2021/04/10(土) 06:41:21.67ID:Pch01OEJ0
どどるげ動画さんすごいな
2021/04/10(土) 11:15:05.96ID:JqdV/13K0
スレチ
2021/04/10(土) 16:34:08.79ID:yrnfAYTy0
mergeはCPUのスレッドが多ければ多いだけ速いね
2021/04/10(土) 16:46:37.62ID:Mrqtwq0X0
久しぶりにやったらliaeがデフォになったんだな。dfの方が似るように思うんだが、liae何か進化したのか?
2021/04/10(土) 17:07:14.68ID:JqdV/13K0
>>328>>2
liaeとdfの違いから見直した方が良い
330名無しさん@お腹いっぱい。
垢版 |
2021/04/10(土) 18:21:36.97ID:iH//3Q0I0
顔の相性がいい素材のliaeが一番クオリティ高い
2021/04/10(土) 19:26:58.90ID:yrnfAYTy0
dfの方が似ると思うのならそれでいいと思う
俺は差異を感じなかったし利点もあるのでliaeに移行した
2021/04/10(土) 19:26:58.99ID:JqdV/13K0
相性と数だね 数百万分のナンボが合うかって感じだけど
333名無しさん@お腹いっぱい。
垢版 |
2021/04/11(日) 02:08:26.59ID:ujYKb++B0
顔が似るのは明らかにDF
2021/04/11(日) 06:46:42.93ID:PPB+3BwD0
dfは表情の追従が弱い
よほどsrcのバリエーションが多くないと
もしくはdstが短いとか
2021/04/11(日) 07:01:13.64ID:PPB+3BwD0
eyes_mouth_prio: False
にしたらいきなりLoss値が下がった
2021/04/11(日) 09:11:30.41ID:TpXKrb8Y0
liaeの万能な所を経験するとdfには戻れないな
正面の静止画メインならdf一択だが

>>335
名前のとおり目と口を主に学習して他の部分はほとんど学習しないから
目と口に違和感がないかぎり基本offだね
2021/04/11(日) 12:09:59.56ID:Q2c9bGeC0
liae似ないんだけど、何かコツある?
2021/04/11(日) 13:11:07.17ID:TpXKrb8Y0
liaeは最後にganpower使用しないと似ている感じがしないね
まずはdfl guideのQ&AのQ8の通りにきちんとtrainしてloss値十分下がったあとの最後の仕上げに使う
ganpower使うと表情はdstに寄ってしまうけど
srcの細かいシワ、しみ、ホクロ等が反映されるようになる
学習が進めばlrdをonにしてtrainするだけで反映されるようになる
あとはたまに学習ミスってモザイクがでたりするからganpower使用する前にmodelをバックアップしたほうが良い
2021/04/11(日) 13:14:18.20ID:TpXKrb8Y0
これで似なかったらdstとsrcの相性が良くなかったと判断してあきらめる
2021/04/11(日) 14:33:56.46ID:fOz/zYlH0
最新版のDFLで5.XSeg) train実行してバッチ2にしても動かないのですが単純にGPU性能不足でしょうか
GPUはGTX1080です。
2021/04/11(日) 15:38:18.11ID:fJrIygUF0
>>338
今までデフォ設定のままで、gan使ったことなかったから試してみるは
2021/04/11(日) 15:44:18.78ID:S56eIIgv0
>>340
同じGPUだが余裕だ
mrdeepfakesのModel name: LIAE-UD FF 192_SAEHDっての使ってる
2021/04/11(日) 16:39:15.44ID:fOz/zYlH0
windowsの設定でした。 解決しました
2021/04/11(日) 20:37:46.21ID:mUgJkMdu0
>>337
liaeはdfよりもdstとの一致要求がシビアなので、flip使うのも場合によっては有効
warp切ったらGANじゃなくてdropを使う方が良い気がする
2021/04/11(日) 22:28:24.73ID:Ryk/5C4v0
teslaとかサーバー製品って、メモリ帯域はすごいけどFP32のTFLOPSの値は一般向けのGEFORCE 3090の方が上なんだけど、学習にはどっちが有利なんだろうね
もちろん、アプリの種類にもよるんだろうが

サーバー向けは科学技術計算で使われるFP64の性能も要求されるからこの分FP32の性能があげられないんだろう
2021/04/11(日) 22:31:12.62ID:Ryk/5C4v0
https://qiita.com/yukoba/items/10d0ba3fb1d19a6ab6a5
グラフィックで多用される演算と学習で多用される演算がFP32が同じだからね
2021/04/11(日) 22:53:27.26ID:fOz/zYlH0
WFでやったら頭頂部付近が気になる
2021/04/12(月) 06:51:04.55ID:YLrUK5uX0
ganpowerってあげれば上げるほど似るのですか?
349名無しさん@お腹いっぱい。
垢版 |
2021/04/12(月) 09:14:41.44ID:d7OWDGE40
5950xで新しく作ったけどグラボが手に入らん
とりあえずもってた1070挿してるけど、弱いグラボだと時間かかるだけでクオリティは同じなの?
350名無しさん@お腹いっぱい。
垢版 |
2021/04/12(月) 20:20:03.45ID:s0hHjzfp0
俺は、DFがええわ→liaeの違和感の無さええわ→やっぱdfの本人性の高さが一番大事やわ

で今DF
2021/04/12(月) 23:00:55.24ID:BhE0odAf0
VRでやってるとLIAE一択だな
2021/04/13(火) 06:26:22.26ID:SLvCoHjC0
>>349
dimsが上げらないからクオリティは上げられないかも
353名無しさん@お腹いっぱい。
垢版 |
2021/04/13(火) 09:33:52.96ID:6hNDogoR0
trainしてると落ちるのはCPUの温度の問題かな?
354名無しさん@お腹いっぱい。
垢版 |
2021/04/13(火) 11:04:17.97ID:wkxq5OTE0
>>352サンクス、手に入るまで我慢するか
発売時に3080手に入らない段階で3090買っとくのが大正解だったな、、、
2021/04/13(火) 12:13:56.15ID:qJPsKE3Y0
1.5倍近くパワーアップするhopperが本命?
2021/04/13(火) 15:16:22.16ID:wO6pG87X0
似るってだけならDFで前髪含むが最強。
LIAEには戻れない。
2021/04/13(火) 20:37:09.52ID:dO8oUwDl0
普通は使い分ける
2021/04/14(水) 00:27:47.30ID:N2DP15B60
この為に環境整えたのに気付いたら掘ってた
2021/04/14(水) 19:11:48.30ID:pkNMzccF0
>>356
それってfacetypeはwfでやるの?
ちょっと気になる
2021/04/14(水) 20:15:22.28ID:pvicPtlx0
最強とか言ってる時点で察して差し上げろ
2021/04/17(土) 20:16:54.79ID:twzomULj0
headの高解像度pretrainモデルどこかにないですか
362名無しさん@お腹いっぱい。
垢版 |
2021/04/18(日) 00:50:07.81ID:LEn9w1ZS0
俺もdf一択だわ。使い分けるメリットすら無いくらい今のDFは優秀。
2021/04/18(日) 01:20:04.90ID:vFHsN19P0
前髪のないDSTに、前髪のあるSRCかぶせたら前髪無くなります。。
対処方法ありますか
2021/04/18(日) 01:48:15.42ID:1BcANTD70
前髪のあるdstを探す
2021/04/18(日) 01:50:21.59ID:1BcANTD70
>>362
DFは角度あるとつらいよ
すべての角度のsrcがあれば良いんだろうけど
366名無しさん@お腹いっぱい。
垢版 |
2021/04/18(日) 02:54:12.61ID:8xZymf5Q0
そっくりな映像を作りたいなら
liaeでもちょうどいい角度のsrcが必要なのは同じ
だったら存在する角度の再現性が高くて学習の負荷が低い
DFに優位性がある
2021/04/18(日) 03:06:06.78ID:1BcANTD70
今のliaeって正面下手じゃないでしょ
俺は臨機応変で使ってるよ
2021/04/18(日) 10:37:47.89ID:PgKP4gD60
dfは頭使わず手軽なのが初心者ウケが良いだけ
2021/04/18(日) 11:14:31.75ID:PgKP4gD60
つーかmodelとかarchは素材に合わせて好きなの使ってろよ
ガキじゃねーんだから○○最強とかイチイチ押し付けてくんな 質問でも無ぇし
2021/04/18(日) 15:32:41.08ID:FLvozWDK0
3090使ってheadのliae-uで回せば大概できるから
src画像さえちゃんと集めてあればdstの選別とかいらねーよ
2021/04/18(日) 15:40:29.87ID:LxQl3MNK0
まぁDFLのスレってここぐらいしか無いし、ここでイキるしか無いんだよな
2021/04/18(日) 15:52:00.23ID:vFHsN19P0
>>370
そのmodel貰えませんか?
2021/04/18(日) 16:14:42.41ID:tJMQwguA0
true face power
2021/04/18(日) 17:16:47.51ID:PgKP4gD60
>>363
基本はdstに合わせるしか無い フォトショで全flame前髪書きたいなら知らん
GPUもmodelも関係ないし、選別する必要性が理解できない程度のエアプがスルー出来ないなら制作に向いてない
2021/04/18(日) 19:31:13.43ID:vRGixPgW0
meta human
2021/04/18(日) 22:56:55.12ID:0ixJ+XPV0
髪の動きが不自然になりがちだけど、dstに前髪なくても前髪生えるよ。
エアプはスルー。
2021/04/19(月) 00:03:29.37ID:8yqc5y2p0
まぁ公開するわけじゃないから不自然でも抜けりゃいいんだよ
378名無しさん@お腹いっぱい。
垢版 |
2021/04/21(水) 03:38:34.38ID:6cuwbeaM0
>>365
なるほどね、豊富なsrc取れるやつでしか作ってないからその発想は無かったわ
2021/04/23(金) 15:15:32.15ID:GI0t/RwX0
半年ぶりにアップデートしたら色々変わってたんだが、
df→無くなった
liae→無くなった
dfHD→dfになった
liaeHD→liaeになった
更にそれぞれ、uとdのオプション付けれるようになった
という認識でいいのでしょうか?
2021/04/23(金) 15:47:16.41ID:rYgS35L60
>>379
df→ドッフッ
liae→ライアヤャ
dfHD→ドッフッHD
liaeHD→ライアヤャHD
381名無しさん@お腹いっぱい。
垢版 |
2021/04/24(土) 11:33:27.08ID:H0wRkMGL0
3080tiの発売日が決まったようですね
メモリ12gみたいだけど2gでも差が出るのかな
382名無しさん@お腹いっぱい。
垢版 |
2021/04/25(日) 19:30:45.27ID:MHgX3CJU0
ジェネリックxsegってのがアップされてるね、なんぞこれ?
2021/04/25(日) 21:43:09.29ID:oPpNSQFB0
facejapp使ってるひといる?
2021/04/26(月) 00:35:58.47ID:kYMNlaSV0
そういうのいいから
2021/04/26(月) 01:28:23.59ID:Ga7VyGbW0
Xsegで舌を破線で囲って除外してからtrainしたら
舌を出してないフレームの一部でも口内が除外されてしまって
mergeすると口に違和感が出るようになりました

これを避けるには先に舌のあるパートと無いパートでdstを分割するしかないのでしょうか
何かいい方法がありましたらご教示下さい
2021/04/26(月) 08:47:05.58ID:8TtDd35S0
>>385
その口内を除去して欲しくないフレームのマスクを書いてトレイン
完璧にしたいなら、トレインして適用して、変になるフレームを書いてまたトレインしてのループをするしかない
2021/04/26(月) 12:57:22.83ID:kYMNlaSV0
>>385
fansegだとmaskに応じてちゃんと反映される
後は求める画をsrcが持ってれば精度は上がる
2021/04/28(水) 16:41:24.16ID:5pMQt8kK0
>>384
あいつアウトだろ
ツイッターでモザかければいいってもんじゃないのにな
事務所とかに通報してる人も結構いるらしいしもうそろそろ...
2021/04/28(水) 20:52:29.03ID:jKwPlVkD0
WEBのプロダクト紹介ポエムから制作ニワカなのが丸出しなんだよな…
2021/05/05(水) 16:24:51.53ID:NeCrKWaH0
ゾアタフ来てる
2021/05/06(木) 07:10:06.38ID:e9OJLbGy0
みなさんadabelief使ってます?
2021/05/06(木) 18:31:17.25ID:fXl6cLfg0
常にONだよ
2021/05/06(木) 19:01:24.64ID:8uOvXnX90
ad使いたくてもaedims512のmodelだとBS2まで下げて他のOP切ってもOOM吐く
394名無しさん@お腹いっぱい。
垢版 |
2021/05/09(日) 11:57:47.23ID:KcsGK0sG0
Github覗いたら4月23日頃にこんなん出てんねんけど、何?
「added AMD/Intel cards support via DirectX12 ( DirectML backend )」
ラデも使えるんやったら、VRAMてんこ盛りのが余ってるからメチャ有り難いねんけど。
395名無しさん@お腹いっぱい。
垢版 |
2021/05/09(日) 12:13:49.80ID:KcsGK0sG0
自己解決っつーか、処理が早くて要望が上がってたDirectX12版のDFLリリースされてんだw
っでAMD/Intel系が自動的に対応って理屈やね。
ヤバいんちゃうん?16GBの板が1万で売ってるAMDやで?
//blog.csdn.net/ddrfan/article/details/116085129
2021/05/09(日) 12:18:12.27ID:sclGtzl90
ビックリするぐらい遅いけど
397名無しさん@お腹いっぱい。
垢版 |
2021/05/09(日) 12:36:48.26ID:KcsGK0sG0
自分トコで動いたんか?
動かんし2060スパーとmx250(インテルオンボよりはマシレベル)比較で
半分ぐらいの速度しか出んって話やけど、630とRX580では30倍ぐらい性能差があるから
ええトコ行くんちゃうん?
1.0のOpenCL版はCuda比較で20%程度の性能しか出んかったけど、VRAM量が圧倒的なんで
1iterあたりの学習差は50%ぐらいは稼げてた。
だから、性能は1.0の頃より2.5倍向上して安くてVRAM量が多いRadeは、
回転数以上のパフォーマンス出るでしょ。

まだちゃんと動かんみたいやけど、ヒマ見て試すわ。
2021/05/09(日) 12:38:22.18ID:dC6pQfzc0
changelogに
ゲフォより20〜80%遅いと書いてあるからね
16G版ラデで20%遅いスピードでトレインできる感じかな(テキトー)
2021/05/09(日) 12:52:31.56ID:sclGtzl90
DFL1.0よりは速くなってるんだね
良かったね
2021/05/09(日) 14:39:51.63ID:j1SyNQjA0
Bad Request
401397
垢版 |
2021/05/09(日) 14:53:07.02ID:7GLUQRSe0
今試し始めたけどExtractおっそ
402名無しさん@お腹いっぱい。
垢版 |
2021/05/09(日) 15:02:09.08ID:Bvr4sTpV0
技術的な質問じゃないが、
このスレに配偶者がいたり恋人と一緒に住んでたりする人いる?その場合、隠れてやってる?
見られたときの気まずさって普通のAVとかエロサイトの比じゃないような気がするが。
403397
垢版 |
2021/05/09(日) 15:47:07.04ID:7GLUQRSe0
FHDやとExtract1枚1.5秒もかかるし、2回めにPhytonがワーニング吐いてる。
>>402
そんなピーキーな関係で付き合うから別れるハメになるんだよ。
愛顧らでもDeepFakeでも「また悪巧みしてる」って笑われてるけど。
404名無しさん@お腹いっぱい。
垢版 |
2021/05/11(火) 16:55:07.54ID:+gKf1ZOW0
見られたところでわからんくね?
芸能人Aで作ってたとして、DF作ったって言われなきゃわからないでしょ
2021/05/11(火) 19:07:48.39ID:PzT70Coy0
声のディープフェイクってまだないのかな?
ハシカンに好きな言葉言わせるとか
2021/05/11(火) 20:00:54.57ID:ieEMk1ST0
>>405
アドビのデモであったよ
407名無しさん@お腹いっぱい。
垢版 |
2021/05/12(水) 09:02:39.20ID:dKw8q9B90
声のディープフェイクやりたいなぁ、知人の顔を手に入れるのは大変だけど声なら簡単に手に入るしw
けど犯罪防止で公開しないんじゃないか?
2021/05/12(水) 14:02:17.38ID:FAFNQAxW0
参考までにDX12版
radeon7と3090混ぜてheadの抽出が7~8枚/secって感じ
混ぜてやってるにしちゃ頑張ってる方じゃないかな
409名無しさん@お腹いっぱい
垢版 |
2021/05/14(金) 23:04:37.15ID:z9HMic4B0
05_12_2021 きてるな
2021/05/15(土) 00:32:51.49ID:kXqmwQwO0
何が変わったの
2021/05/15(土) 06:16:48.49ID:dDwHuN7p0
とりあえずDLして
changelog.html
を見れば分かる
2021/05/15(土) 09:15:09.55ID:kXqmwQwO0
============ CHANGELOG ============
== 12.05.2021 ==
FacesetResizerは、顔の種類の変更をサポートするようになりました
XSegEditor:削除ボタンを追加
XSegトレーナーのトレーニングサンプルの拡張が改善されました。
XSegモデルは、さまざまな面が大量にある場合にうまく機能するように変更されているため、既存のxseg モデルを再トレーニングする必要があります。
さまざまな面で事前トレーニングされた汎用XSegモデルが追加されました。きれいな顔が含まれているため、src フェイスセットに最適ですが、 複雑な顔の障害物なしでdstフッテージに適用することもできます。
5.XSegジェネリック)data_dst whole_face マスク- apply.bat
5.XSegジェネリック)data_src whole_face マスク- apply.bat

意味わからへん
2021/05/15(土) 15:41:54.42ID:eAJd2YYp0
日記生きてたんか
2021/05/15(土) 15:55:16.44ID:4lLHMjB+0
作ったものを批評してもらいたいとき、顔以外を黒く塗りつぶした動画にしてからupしてもアウトになるのかな?
2021/05/15(土) 19:34:19.49ID:dDwHuN7p0
日記じゃねえ
そろそろ話題も尽きた様な。。

つべに下手くそがうp
顔がチラチラ
ボケボケ

つべにすずちゃんのばきゅーんを上げたいが、
著作権侵害で怒られるかも

ハリウッドセレブのノンアダルトなら。。
腕前の披露だけとか
2021/05/15(土) 19:42:47.59ID:dDwHuN7p0
つべにうpする時に非公開設定なるものが
URL貼り付けで、他の人も見れるのでは?
それでも消されるか/怒られるかは知らん
Mega.nzで共有して、リンク貼り付けでこっそりとか
2021/05/15(土) 20:07:24.30ID:dDwHuN7p0
顔ぐらいしか見えない様に、クロップでもして、
誰と言わなければセーフな気もしてきた
音声トラックはなしとか
DeepFakeとかも言わない方がいいかも

つべにうpするときも、著作権の侵害でも、収益化できないだけだったりする
場合によると思いますが
2021/05/15(土) 20:40:41.09ID:dDwHuN7p0
女の闘い
https://www.youtube.com/watch?v=ft8GWxYQDJo
著作権侵害の申立あり
2021/05/15(土) 21:13:41.97ID:eAJd2YYp0
「すずちゃん」とか文体然りどう見ても日記 どうでもいけどw
>>414
1 flameずつ黒く塗るのか…
2021/05/16(日) 05:57:13.56ID:FvakAbYC0
>>412
ID:kXqmwQwO0
とはID違うやろがw
タブレットはWiFi接続のみだから、ルーターは同じで、同じIPアドレスになるのでは
ガラケーが使えなくなったら、パカパカスマホにしてネット契約はしないつもり

>>414
顔の絶対位置がそれほどずれないのであれば、Avidemux等でクロップもありかと

すずのばきゅーんでも作ってみますかね
怒られるだけで、垢BANされなければいいかと
2021/05/16(日) 06:04:29.85ID:FvakAbYC0
女の闘い
https://www.youtube.com/watch?v=YHEaepNLUh8
https://www.youtube.com/watch?v=g_tYsv37g1s
https://www.youtube.com/watch?v=LYumah5Aa5Q
https://www.youtube.com/watch?v=5hI7OEk4wiE
2021/05/16(日) 06:23:41.82ID:FvakAbYC0
おっ○いの闘い
https://www.youtube.com/watch?v=NUov68Ow8Z0
2021/05/16(日) 06:41:16.29ID:FvakAbYC0
今の所、著作権侵害の申立なし
要は、相手が怒るか、気づかないか、大目に見るかとか
画像トラックや音声トラックで計算機で自動チェックしてるみたい。さすがはGoogle
https://www.youtube.com/watch?v=LSUrZwjinQ8
2021/05/16(日) 07:29:40.83ID:FvakAbYC0
おっ○いの闘い
https://www.youtube.com/watch?v=U7GQ0G3gQko
ラスト音声トラック同期版
2021/05/16(日) 09:25:43.50ID:FvakAbYC0
女の闘い
ブロック済
https://www.youtube.com/watch?v=l3r2O10kfik
2021/05/16(日) 09:46:43.76ID:PUdxbC9h0
誰だよ日記呼んできたのw
うぜーよ
2021/05/16(日) 18:47:25.26ID:FvakAbYC0
ほむほむ
https://www.youtube.com/watch?v=zBqPChSEk5k
非公開設定だが、ブロックされた
BANされない垢かな?
2021/05/17(月) 09:30:31.78ID:ZXkUDGDT0
しかしGPUの枯渇や異様な値上がりなんやねん・・
RX470_8Gでさえ中古で5万とかありえんわ。
新品4千円で売ってたのが夢の様だ。
1070ちも16000円やったのに。
429名無しさん@お腹いっぱい。
垢版 |
2021/05/17(月) 10:30:57.76ID:gRpQHRPy0
ラデは対応してないみたいだけど、未対応なだけ?今後も対応予定無しなのかな
2021/05/17(月) 11:13:58.20ID:ZXkUDGDT0
DirextX12版で普通に動くけど。
且つRadeはVram溢れた分は勝手にメインメモリに逃げるから、デカいのが回る。
DirectX12版は遅いけど、実測したらDFL1.0の3倍以上出てるし
なによりAI_enhancerがCuda無しで使えるからDFL関係なしに高速に画像高画質化できるのが良いね。
431名無しさん@お腹いっぱい。
垢版 |
2021/05/18(火) 09:22:50.64ID:YhQVa2UZ0
グラボのメモリが多いほうがいいならquadroってどうなん?
nvidiaならquadroでもゲフォでもどっちでもいいのかな
DFLの使い方サイトではゲフォしか載ってないけど
2021/05/18(火) 09:29:58.48ID:r0a2WGk/0
quadro rtx a6000使用している人はいるみたいよ
433名無しさん@お腹いっぱい。
垢版 |
2021/05/18(火) 09:42:38.87ID:YhQVa2UZ0
a6000はさすがに高すぎる。。。w
けど早くていいの出来るんだろうなぁ
もうすぐ出るa5000がメモリ24gで今の3090と同じような値段だけどどっちのほうがDFLには向いてるんだろう
メモリ容量は同じでも90はx付きだけど
434名無しさん@お腹いっぱい。
垢版 |
2021/05/19(水) 06:33:49.74ID:pHUuxLRo0
今から新しくPCを買う予定の者で、GPUはRTX3060にしようと思っています。
現実的な値段でVRAMが12GBと多かったのでこれがいいと思ったのですが、やはりVRAM容量は
大切なのでしょうか。また、RTX3060だとCUDAコア数が比較的少ないようですが、コア数はどのくらい
大事な要素なのでしょうか。RTX3060と比べて極端に値段の高くないものでこれより良いものがあれば教えてほしいです。
ちなみにdeepfake以外には高い性能を要する用途では使わない予定です。
435名無しさん@お腹いっぱい。
垢版 |
2021/05/19(水) 09:28:39.11ID:9rV2XUwq0
ちょっと古いけどTITNXも12gでそっちはSLIもできる
中古で5万くらいで買えるみたい
どっちがいいのかは知らんけど、1枚なら3060、SLIするならTITANXじゃね?
436名無しさん@お腹いっぱい。
垢版 |
2021/05/19(水) 12:58:26.49ID:nmsaiqKz0
最近のビルドって、Iterが何回目かに1回異様に遅くなるなぁってGitHub覗いたら
4回から16回に1回起きるらしいね。
特に高性能GPUほど発生頻度・遅延時間が酷いらしいけど、みんなも起きてる?
ウチのはショボいから1/16ぐらいの頻度で、倍遅いことがあるけど、
3090だと1/4ごとに30倍ぐらい遅くなって深刻らしい。

あと、メモリ認識が無条件にシステム予約分を差っ引いた値になり
複数台GPU搭載してDFL専用のフリーGPU作っても、無条件にシステム予約分が差っ引かれる。
だからウチのも8GBのうち0.8Gぐらいが使用されずに空いたまま。

なんかすげぇ勿体ないんですけど。
2021/05/19(水) 13:28:35.47ID:kZvylfeE0
2080tiだけど確かに1/15〜1/20くらいで倍かかることあるわ
そのIterって決まってloss値も高く出るから
なんか難しい顔面処理して時間かかったんかなくらいにしか思ってなかった
2021/05/19(水) 16:41:03.94ID:JhIrvuGf0
700msが突然2秒とかなる時あって大丈夫か?と思ってたけど仕様かよ…
2021/05/19(水) 18:26:45.50ID:PzF11tfx0
俺も遅延あった、aligned内の画像2048にしてるとき起きて、512とか768え固めたら治ったから
別もんかもしれないが。
2021/05/19(水) 20:20:16.72ID:7a+U+8wR0
>>434
数か月使ったらGPU作業よりも時間を食うのでCPU優先が良いと思う
FHD画質ならres512以上は無意味じゃね?dimsなんかも等倍に出来なくてバランス悪そうだし
2021/05/19(水) 23:05:04.82ID:ClOdUpn50
TSMC、Intel、Nvidiaが数年単位のチップ不足を警告
https://cafe-dc.com/semiconductor/tsmc-intel-and-nvidia-warn-of-years-of-chip-shortages/

GeForce RTX 30供給不足の原因はSamsungの歩留まり低迷か?、台湾メディア
https://news.mynavi.jp/article/20201214-1589914/

Intel・NVIDIA・TSMCの重役が「世界的な半導体不足は2021年中続く」と予測、最悪の予測は「2023年以降も続く」
https://gigazine.net/news/20210416-chip-shortage-could-last-2023/

TMSC GPU 半導体 値上がり
2021/05/19(水) 23:19:33.09ID:ClOdUpn50
半導体不足解消されたら、安くなるのかね?
443名無しさん@お腹いっぱい。
垢版 |
2021/05/20(木) 05:02:26.85ID:zr67n6c00
CPU Ryzen 5950x
GPU RTX3090
DFL2.0
5.XSeg) trainを実行したらエラーで止まってしまうんですけど、原因分かる人いませんか?
6) train SAEHDは実行できるのですが、XSegを使うことができません。

Traceback (most recent call last):
File "<string>", line 1, in <module>
File "multiprocessing\spawn.py", line 105, in spawn_main
File "multiprocessing\spawn.py", line 115, in _main
File "C:\Users\○○p\DeepFaceLab_NVIDIA_RTX3000_series\_internal\DeepFaceLab\core\leras\initializers\__init__.py", line 2, in <module>
from tensorflow.python.ops import init_ops
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\__init__.py", line 41, in <module>
from tensorflow.python.tools import module_util as _module_util
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\__init__.py", line 39, in <module>
from tensorflow.python import pywrap_tensorflow as _pywrap_tensorflow
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 83, in <module>
raise ImportError(msg)
ImportError: Traceback (most recent call last):
File "C:\Users\○○\DeepFaceLab_NVIDIA_RTX3000_series\_internal\python-3.6.8\lib\site-packages\tensorflow\python\pywrap_tensorflow.py", line 64, in <module>
from tensorflow.python._pywrap_tensorflow_internal import *
ImportError: DLL load failed: ページング ファイルが小さすぎるため、この操作を完了できません。

Failed to load the native TensorFlow runtime.

See https://www.tensorflow.org/install/errors

for some common reasons and solutions. Include the entire stack trace
above this error message when asking for help.
2021/05/20(木) 10:12:37.08ID:f4P52IEH0
日本語で理由書いてあるやん
仮想メモリ増やしなよ
tensorflowのエラーがよく出るのは
vram不足とGPUの低電圧化
3090だとかなり欲張りな設定じゃないとvram不足にならんけどね
2021/05/20(木) 11:11:21.63ID:kPe9fco50
ヤバいな、うちのネコが勝手にPC使ってdeep fake作る時代になってるのかも
446名無しさん@お腹いっぱい。
垢版 |
2021/05/20(木) 18:57:45.96ID:PWAMirGC0
ページングファイルが小さいってさ、仮想メモリ不足でも起こるよね。
その場合、新たにメモリ領域を確保するか。
Cドライブ空き容量増やすかで改善する。
447名無しさん@お腹いっぱい。
垢版 |
2021/05/20(木) 18:58:26.52ID:PWAMirGC0
あぁ仮想メモリ増やせってすでに書いてるね。
448名無しさん@お腹いっぱい。
垢版 |
2021/05/21(金) 13:28:23.21ID:8KkTKvF10
身近な知人とかで作ってる人いる?
画像集め無理だよな、、、ただでさえ写真ゲットむつかしいのにコロナのせいでずっとマスクしてるし
技術が進めば卒アルから作れるようになったりするのかな
2021/05/22(土) 12:20:54.52ID:xB+pRSfV0
>>416
なんでつべに貼りたがってるのか良くわからんけど
ちょっと見てもらいたいだけなら、どっかのロダにパス付きで貼って晒せば良いんじゃないの
貼るんならココよりも↓こっちのが良いと思う
Deepfake総合 ★29
https://mercury.bbspink.com/test/read.cgi/adultsite/1620517033/
2021/05/30(日) 02:32:05.45ID:stJcXwc/0
あなた達は私にbukkakeの作り方を教えることはできますか?
私は自分の独自の手段でbukkakeの挑戦をしていますが、まだ成功していません。
2021/05/30(日) 03:56:22.01ID:eE/b2fkt0
>>450
翻訳乙
2021/05/30(日) 06:00:38.17ID:gnHvI3uH0
RTX3070買ったんで3000用のBuild使ってみたら、
Resolutionは128じゃないとエラー出るし、VRAMは8GBのはずなのに6.44GBって表示される
1080ではResolution192で出来てたのにどうなってるんだ…?
2021/05/30(日) 12:10:17.61ID:AzSojR8u0
>>452
win10をmay2020update以降に更新
ゲフォも451.48以降のドライバにして
GPUスケジュールリングをonにする

vram使用量はわからん
久しぶりに3070でdf動かしたらvram使用量は7.8Gだった
2021/05/30(日) 13:54:58.71ID:OTxm4i7K0
>>450
mask_dimsをdecooder_dimsの50%程度まで上げる(通常は30%位) ※但し、モダイクのエッジ(口元に一番近い半円状の部分)がキツくなる
mask editorで当該部分を手動mask fanseg(Xsegだとイマイチ)で集中学習させておく dfよりliae系の方が反映度高い気がする
2021/05/30(日) 14:47:37.73ID:gnHvI3uH0
>>453
やってみたけどダメだった
GPUスケジューリングはonにしてたからwindowsとゲフォドライバ更新した
CUDAも11.3に更新してある

You are training the model from scratch.
It is strongly recommended to use a pretrained model to speed up the training and improve the quality.

って出てOOMになるんだけど、今までスルーしてたxSegのモデルが必須になったりしてる…?
一応xSegで10枚くらいやってみたが変わらなかったけど
2021/05/30(日) 15:30:47.70ID:AzSojR8u0
>>455
oom出ているならbatch数減らして様子見るしかないかな
xsegは最新版で学習方法変わってtrainやり直しだけど関係ないと思う
旧xsegでマスク済ならそれ使用して問題ない
xseg genericがそこそこ優秀だから凝ったマスクをしないかぎりこれで十分

英文は
modelをゼロからトレーニングしているよ
pretrain済みのmodel使えばスピードも品質も向上するよって意味だから
1080で使用してたmodelを流用するかgithubのリンクからダウンロードする
2021/05/30(日) 17:10:16.82ID:gnHvI3uH0
>>456
train始まった、ありがとう助かった

modelの流用ってそういうことか…
dstとsrc両方違くてもmodelファイルに入れれば利用できたの知らなかったから、
今までpretrain使ったことなかった…
458名無しさん@お腹いっぱい。
垢版 |
2021/06/01(火) 04:30:29.82ID:NaQZjGJ/0
質問です。
build_01_04_2021で、modelを流用しながらやってるのですが、
loss値が下がる毎に肌が部分的に擦りむいたというか、ただれたかのように、赤と黄色っぽい色のモアレのように
なってきました。これがmodelの崩壊というやつですか?治し方があったら教えてください。
2021/06/01(火) 09:17:31.60ID:DkbBI8Ow0
GANは使い回すと壊れやすいのか、肌の質感がおかしくなる感じがする。たまにGAN関連のファイルだけ消してる。
2021/06/01(火) 16:46:17.95ID:T8qtiPuh0
>>458
srcフォルダにもdstと同じフェイスセットを入れてrandomwarpでまわしたらええと思う
2021/06/01(火) 20:27:53.69ID:12WbP+md0
それなんの意味があるの
普通にモデル崩壊してるから最初からやるしか無いと思うよ
2021/06/01(火) 21:33:12.75ID:+oX0ZDEO0
自分の場合は使い回し用modelは25k程度で保存しておいて、今日の素材が決まったらsrc/srcでクリアになる前辺りまでtrain
その後dstを本番に入れ替えてって流れだと似つつ早い
463名無しさん@お腹いっぱい。
垢版 |
2021/06/01(火) 22:54:45.13ID:NaQZjGJ/0
458です。皆さん有難うございます。
まずはmodelが崩壊してるじゃないかということですね。
random warpを諸々の条件加えて修復試みてみます。
去年まで、fanseg でやってて、今年からbuild変えて始めたばっかりなので、
訳も分からず、Adabeleifを疑ってたりしました。
いずれにしても、以前のbuildよりmodelが壊れやすいのですね。
2021/06/01(火) 23:17:38.19ID:FDTJh7SL0
まだ壊れたことないので参考にさせて欲しいんですけど
iter数・各powerオプションの数値・勾配クリッピング使用の有無
を教えていただけないでしょうか
465名無しさん@お腹いっぱい。
垢版 |
2021/06/01(火) 23:33:48.45ID:B6yGj4FH0
あれ?以前のバージョン消された?
466名無しさん@お腹いっぱい。
垢版 |
2021/06/02(水) 06:39:37.76ID:m43NnH8U0
458です。
100万iter
eye mouth prio y
adabelief y
face style power y 0.1
で、やっていました。
それで、夕べからrandom warp のみ yで8万回回したら完全に治っておりました。
有難うございました。
2021/06/03(木) 21:46:53.12ID:FzjeA7O60
LHR版のグラボだとなんか影響出たりするだろうか
2021/06/04(金) 01:12:19.80ID:JXzzU3Zm0
xseg genericの使い方がわかりません。
これを実行したあとxseg trainでしょうか
2021/06/04(金) 10:02:30.64ID:DjIhu11x0
xseg trainせずにxsegを適応させるのがxseg generic
2021/06/05(土) 17:43:19.20ID:yQlVk0er0
>>466
face style powerが原因じゃないかな
一度試してみたことあったけど肌の色が変わっちゃって以来使ってないや
471名無しさん@お腹いっぱい。
垢版 |
2021/06/05(土) 20:26:22.83ID:8SPey0ws0
3090買って環境は整ったけどいざやるとなると誰と誰をくっつけようか、、、
練習用にこれとこれって定番あったりする?
2021/06/07(月) 21:12:19.28ID:MEWcsuHP0
このタイミングで3090買うとかまじかよ。
473名無しさん@お腹いっぱい。
垢版 |
2021/06/07(月) 23:36:12.88ID:z+s1c0Wd0
vram倍だし、別によくね?
2021/06/08(火) 07:10:29.56ID:jQDjXLaY0
3080tiの値段見ると3090で良いかなと思うわ
おれは1月のnvidiaのカンファレンスで80tiの発表がなかったから3090を購入した
>>471
似てる似ていないは個人の主観でかなり左右されるし逮捕者も出ているからから
定番とかはおすすめしにくい
過去ログ倉庫から素材スレをさがすしかないかな
2021/06/08(火) 14:52:17.59ID:arKSKjcf0
>>471
おでこと輪郭が髪で隠れていない組み合わせ なるべく正面で明るいスタジオ撮影の素材
dstは1分以内で、extractは自動とマニュアル両方試して範囲や補足し易さを比べてみよう
476名無しさん@お腹いっぱい。
垢版 |
2021/06/10(木) 17:46:42.27ID:TbiE4rbU0
紙長いのはむつかしいのか
せっかくなら無修正で作りたいけどカリビアンとか1か月だけ入会してDLしまくろうかなぁw
2021/06/11(金) 08:05:22.48ID:bbwMmrk40
4Kディスプレイにしたらプレビュー画面とか小さくて見ずらいんだけど、解決法ある?
2021/06/11(金) 09:58:19.70ID:1ddRA1dL0
フルHDディスプレイで試してみれば?
2021/06/11(金) 10:22:34.01ID:9UIJBXLp0
デスクトップ画面で右クリックして
ディスプレイ設定→拡大縮小とレイアウトを100%から150%とかに変更すれば
画面全体が見やすくなるはず
2021/06/11(金) 16:24:06.11ID:bbwMmrk40
>>479
%を変えただけだと、150とか200にしてもプレビューだけ何故か大きさ変わらないんだよね
解像度を変えれば間違いなく大きくなるけど、4Kの意味無いじゃんって感じではあるけど、これしか方法はないかな
2021/06/11(金) 18:44:13.92ID:1ddRA1dL0
いやだから、フルHDディスプレイにしたらいいじゃん
自分でも言ってるように、解像度を変えて大きくしても4Kの意味ないじゃん
デュアルモニタで用途に応じて4KとフルHDを使いわければいい
なんで俺を無視して「これしか方法はない」とか言ってんだよ
デュアルモニタするスペースがないとかならそう言えよ
2021/06/11(金) 19:00:01.00ID:bbwMmrk40
いや4Kでデュアルにしたんだよ
2021/06/11(金) 19:02:32.22ID:bbwMmrk40
>>478
ああ、これがお前か
なんで無視したのかわからないのか?
2021/06/11(金) 19:31:49.76ID:Ol7Tk7MO0
プレビュー画面の大きさはtrainするときの解像度の値に依存するはずでは?
2021/06/11(金) 20:54:24.34ID:HboJbhDn0
うむ Resolution 192以上だと縦4横5が維持できなくなる
2021/06/11(金) 20:55:35.82ID:bufiJ0rr0
>>483
性格悪いな
回答くれた人に対する態度とは思えん
2021/06/11(金) 21:14:48.06ID:1ddRA1dL0
>>482
後だしやんけ
477みたらフルHD(1台)とかから4kに切り替えたと思うじゃん
2021/06/11(金) 21:15:57.58ID:bbwMmrk40
そういうのいいから
2021/06/12(土) 04:47:04.27ID:JYJDz9Xu0
◆Model_SAEHD/Model.py 763行目あたり

n_samples = min(4, self.get_batch_size(), 800 // self.resolution )

if self.resolution <= 256:
最大表示行4。res256の場合、800を256で割ったときの数=3行まで表示できる
バッチサイズが2だった場合は2行しか表示されない。res256を超えてる場合は1行表示

4→10 800→3840 256→384 に書き換えて
res384 バッチサイズ8 でトレインした時のプレビューは8行になるけど1マスが小さくなる
プレビュー全体の大きさを変えられればいいんだけどわからない
2021/06/12(土) 10:49:51.86ID:y1WHG5Vx0
>>489
超ありがとう、縦2行はまだしも、横2列なのがずっとストレスだった。解消された。
2021/06/12(土) 11:33:33.64ID:JYJDz9Xu0
それは何より。256超えても384なら2行表示だった気もするけど、まあ分かりますかね
2021/06/12(土) 12:15:23.22ID:y1WHG5Vx0
>>491
見つけたと思う、
\_internal\DeepFaceLab\mainscripts\
275行の
max_size = 800
でプレビューの縦サイズmax変えられるみたい。

>>489のと組み合わせてどうだろうか?
2021/06/12(土) 12:15:55.89ID:y1WHG5Vx0
↑肝心なとこ忘れてた、Trainer.pyね。
2021/06/12(土) 14:35:58.31ID:1etQVIEi0
スレが機能しているだと…!?
2021/06/12(土) 15:02:42.60ID:JYJDz9Xu0
>>492
ありがてぇ。これは捗る
2021/06/12(土) 15:45:30.67ID:oWYsPAjh0
いい流れだ
昨日のアホみたいな長文とは違う
2021/06/12(土) 18:17:54.69ID:1etQVIEi0
batch/resolutionの設定に関わらず、縦4横5でディスプレイの縦幅最大に合わせた表示にしたい!
2021/06/13(日) 03:43:54.45ID:mDSEZXa30
>>489さんと>>492さんの書いてることやってみました
SAEHDはしっかり反映されてるけどAMPでトレーナー開くと2✕3のままでした
model.pyはもちろんAMP側を変えたんですけど原因わかる方いますか?
2021/06/13(日) 09:01:42.48ID:j+ACoQ880
>>498
それこそ、model.pyの記述見てみたらres関係なく
st = [ np.concatenate ((S[i], D[i], DD[i]*DDM_000[i]), axis=1) ]
st += [ np.concatenate ((SS[i], DD[i], SD_075[i] ), axis=1) ]
の2×3行になるように設定されてるからでは?
2021/06/13(日) 12:16:37.11ID:2B5J8XuA0
Internal Server Error
501名無しさん@お腹いっぱい。
垢版 |
2021/06/13(日) 21:06:13.64ID:arhvwpHs0
縦は解決しましたが、横2列なのは変わらない。
これを変える方法ありますか?
ご存じもかた、よろしくお願いいたします。
2021/06/13(日) 22:14:01.33ID:cm5XN6360
res結構デカイってこと?
>>489 の256のところをそのサイズにしてみればどうだろう
2021/06/13(日) 23:20:15.90ID:mDSEZXa30
>>499
stを追加していけば増えました
ただ全く同じ画像が縦に増えただけでした…
言語の知識がないので頓珍漢なことをしてるのでしょうね
SAEHDと同じように4-5列に増やすことはできますか?
わかる方おられましたらお手数ですがご教示いただきたいです
2021/06/14(月) 03:37:23.60ID:c/YeWTVj0
Model_AMP/Model A5.py の746行目〜834行目(#overrideから次の#overrideまで) をコピーして使える
>>489のようにいじることもできるかな。アップデートでModel A5.pyが消えるかもしれないのでバックアップしといて
2021/06/14(月) 23:16:48.77ID:D/PPtnwO0
>>504
ありがとうございました
無事以前プラスαのトレーナーになりました
無知な私にも懇切親切にご教示いただき感謝します
2021/06/16(水) 00:51:21.29ID:8YI3HpYy0
意味不明w
2021/06/16(水) 00:52:31.55ID:8YI3HpYy0
すまん
書き込むスレ間違えた
2021/06/18(金) 17:47:49.43ID:kBLTpXvJ0
>>504やった後だとmergeでエラーでるかも
元のModel.pyなら出ないので、merge用の別環境作るか
記述を見比べながらカスタマイズしてくれ
2021/06/19(土) 17:19:05.99ID:gm9RTeA00
一年ぶりにやっていますが色々忘れてしまっているので質問します
女優Aの人をずっとトレーニングしていてやっぱり別の作品にはめこみたいとなった場合

1.既にあるdata_dstディレクトリを名前変えてバックアップ
2.新しくはめ込みたいdata_dst.mp4から顔を抜き出し ずっとトレーニングしていたモデルを使ってトレーニングを継続

これでいいんでしょうか? 
2021/06/19(土) 20:42:24.23ID:jh4dZyY30
>>509
普遍的な正解ってのは無いけど、時短/似せたいという条件だと大体そんな感じ。
古いほうのdata_dstとalignedファイルだけ※どっか別の場所に保管して、新しいdata_dstを持って来る。
※src人物名→素材名(番組名)→srcセット(aligned/data_src/model) って階層で保管すると多くなってから流用し易くなる
             →dstセット(aligned/data_dst)
modelはそのまま同src人物において使い続けても良いけど、どこかで壊れたり似なくなって来たりする事もあるから
iter 25-50k辺りでコピーしておいて、それを同srcの流用modelとして都度持ってくるのがお勧め
2021/06/19(土) 20:46:28.21ID:jh4dZyY30
普及?して結構経つし、閉鎖的だから素材管理も手順も自己流って人が多いと思う
それぞれ環境や目的に合ったやり方が見つかってるといいね
2021/06/20(日) 20:37:58.41ID:PlINfQIg0
20万ほどトレーニングしていざマージしてみようとしたら以下の英語メッセージがでて何も進まない状態になりました
https://i.imgur.com/MMmzW0U.jpg

It is strongly recommended to process the faces separatelly.
Use 'recover original filename' to determine the exact duplicates.

Warning: multiple faces detected. Motion blur will not be used.

英文を翻訳はしましたが何をどうすればいいのかわからない状態です
どなたか教えてくれると助かります
2021/06/20(日) 20:55:58.00ID:3OIeeX4C0
alignedフォルダの中に_1がつくファイルがあると思うから消してみ
2021/06/20(日) 21:00:24.71ID:PlINfQIg0
>>513
わかりました 見てみます
2021/06/20(日) 21:04:01.65ID:PlINfQIg0
>>513
https://i.imgur.com/j5ymVno.jpg
data_dstのalighedフォルダの中にこれだけ居ましたので消してみます

data_srcのalignedフォルダの中にも_1がつくファイル名が割といたのですがそちらも消すでよいですか?
2021/06/20(日) 21:31:36.56ID:3OIeeX4C0
もうちょっと頑張るのなら、_0と_1を比較して正しい方を残すのが正解
これ以上は説明がめんどい
2021/06/20(日) 21:41:38.78ID:K+Wsc6Di0
壁の柄とか男の顔にmergeされて女の顔チカチカしてそう
2021/06/20(日) 21:52:02.49ID:l13tojiL0
extractは手動に限る…
2021/06/21(月) 13:22:01.16ID:Upp5sOsC0
多分debug見なきゃ判別できないタイプじゃね
2021/06/21(月) 14:08:59.40ID:AWUT/H4f0
動画を切り出す作業をしないって人なのかも
2021/06/21(月) 15:01:54.57ID:FlbtnxHg0
マージしてできたファイルがお面かぶったみたいになるのですが
これって単にトレーニング不足なんでしょうか?
Iterの数字は120000過ぎあたりでちょっとやってみた結果です
https://i.imgur.com/zfGz9GS.jpg
2021/06/21(月) 20:49:49.65ID:ffcZmnvW0
マージのときにblurを増やす
2021/06/21(月) 22:21:12.32ID:BDpSTyEU0
センスが微塵も感じられないので手を引きましょう
2021/06/21(月) 22:35:28.99ID:ffcZmnvW0
お前がこのスレから手を引けよハゲ
2021/06/22(火) 01:01:04.97ID:HFQ3GISY0
>>521
color transferの設定はrctがおすすめだぞ
iterの数ではなくloss値が0.2近くまで下がっているか確認しよう
merge画面でEのキーで境界をボカして調整しよう
2021/06/22(火) 11:29:01.21ID:gJT/QsmY0
>>522 >>525
ありがとうございます
https://i.imgur.com/RuOslO4.jpg
マージの時の設定にblurとcolor transferの設定みなおしてみます
loss値というのが右端のものが0.2を切るところまで回しました
みなさんは右から二番目の数字も0.2近くまでトレーニングしてますか?
2021/06/22(火) 11:53:07.30ID:0+MQl8kF0
>>526
rctがおすすめっていうのはtrainのときの設定ね。下から12番めのct_modeってやつ
参考までにワイのいつもの設定をあげとく
https://i.imgur.com/XzSqwwP.jpg
2021/06/22(火) 11:57:45.82ID:JjNP+lBO0
それくらいの勾配になったらRW切っていいdstのRFもいらん
それでしばらく回してまた勾配緩くなってきたらLRD入れてお好みでGANつければいいよ
2021/06/22(火) 12:01:59.29ID:JjNP+lBO0
3090すごいなaedims上げてadbつけてbs16で回せるのか
530名無しさん@お腹いっぱい。
垢版 |
2021/06/22(火) 13:23:47.77ID:8+ZmkIXl0
顔だけじゃなくてパーツとかも変えれたら面白いのにね
A子の顔でB子の体をベースにC子のおっぱいにして乳首はD子、まんこはE子って感じで理想のAV女優を作ってみたい
あと声のDFも出てほしいけど犯罪防止とかで一般公開されないんだろうなぁ
2021/06/22(火) 13:59:18.01ID:EOVlxFpy0
dst→1080P ほぼ正面5000枚 512pix FF
src→1080P顔アップ 厳選3000枚 512pix FF
Xseg Mask全画像適用済み 50万pretrain済みモデル使用
RTX3060 LIAE-UD res192 dimsデフォ バッチ10前後 Fdst UY RW ABオン
途中LRD EMP使用 最後RWオフ
loss値0.1になったらLRD+GAN0.1でプレビューがクッキリするまでtrain

これでdstが引きのシーンはほとんど問題ないけど
dstの顔がアップになるシーンでsrcの解像度不足が気になるんだよなぁ
フォーラムにDF-UDのFFでちょうど良いモデルが居ないからこの設定にしてるけど
DF-UD res320 dimsデフォよりDF-UD res192 dims512の方がsrcの画質良くなる?
それとフェイスセットの解像度は256とか1024に変えたらクオリティ結構変わるのかな
2021/06/22(火) 15:55:03.51ID:gJT/QsmY0
>>527 >>528
ありがとうごぜえますありがとうごぜえます
見よう見まねでパラメーター変更してみました
https://i.imgur.com/aZ1ko38.jpg
このloss値というのがだんだん増えていくようになったんですががんばってれば減るんでしょうか?

これが0.2にさしかかったら>>528さんが教えてくれたパラメータ変更をしてみたいと思います
2021/06/22(火) 16:27:02.32ID:ihi2Cn0H0
loss値は減る一方でないとおかしい。やり直し。
2021/06/22(火) 19:15:47.21ID:GwYc/Dja0
loss増えるのはrandom warp中にいろんなオプション付けてるからだと思うが
少なくともctはrandom warp切ってから入れたほうがいい
2021/06/23(水) 19:42:33.35ID:qP7aZr600
金子みゆ隠さなくなってて草
2021/06/23(水) 20:12:34.83ID:hbOH0YQH0
train中のctって特に利点無いよね
マージの時だけで十分な気がするけど
2021/06/24(木) 09:03:18.31ID:hgUnlDdA0
train時にnoneでやってて、マージしたら顔の頬の部分に白飛びが発生したフレームがあったので、rctで少し追加trainしてやったら直ったことあったよ
2021/06/24(木) 13:00:36.00ID:NsvyVm870
>>536
お前はそれでいいからイチイチ同意求めんなよ
2021/06/24(木) 18:01:00.32ID:GFZtpRLa0
>>538
でも上のレスだとこうしろ!ああしろ!ばかりで初心者には意味分からないだろうなと思って
2021/06/25(金) 22:57:28.57ID:D3SPIYQN0
ここで聞くよりTwitterとかで聞く方がマシな答え貰える。
2021/06/26(土) 00:50:13.66ID:xmuSRDWC0
質問自体が見当違いな子に絡まれてかわいそう
2021/06/26(土) 10:13:56.90ID:4mcqUSwL0
>>532
お面は、マージ設定でmask modeがdstになってるからでは?
もしそうならxキーで何回か切り替えてみて。
2021/06/26(土) 13:36:14.92ID:mJGhjQLv0
マージする時って重い設定避けてもGPUあんまり使わないから遅いよな
Ryzen 5 3600 3.5Ghzから4Ghzに周波数上げるだけで3.3it/sから3.9it/sになったから
12コアとかにしたいんだけど
みんなマージの時にどのCPUで何it/sか教えてほしい
2021/06/26(土) 20:19:43.85ID:GdOCwOCK0
>>543
スリッパ3960Xでだいたい8it/sいかないくらい。
割に合わないというかスペック使いきれてない感あるわ
https://i.imgur.com/GkO4k33.jpg
2021/06/26(土) 20:56:01.54ID:mJGhjQLv0
>>544
RTX3090の人かな?
CPUについての情報少ないから助かるわありがとう
速くはなってるけど17万円24コアが2.5万円6コアの倍ってコスパ悪すぎるなw
3600だと使用率100%で張り付くから12コアの3900にしようかな

ちなみに1024pxで抽出したsrcとdst1万枚でマージしようとしたら
重すぎてマージできなくて512pxに変換したら問題無くできたから
フェイスセットの解像度でもかなりスピード変わりそう
2021/06/26(土) 23:04:46.80ID:xmuSRDWC0
FHDでも512以上って意味無くね
2021/06/26(土) 23:53:59.06ID:mJGhjQLv0
フォーラムのガイドに1080Pの場合は768〜1024をおすすめします的なことが書かれてたから安易に変えてみたんだけど画質変わらないしtrain時の読み込みも遅くなるしデメリットしか無かったわw
2021/06/27(日) 01:49:02.20ID:ocn4RUcd0
プレビューの画像のほうが最終的なマージより優秀だな
2021/06/27(日) 04:42:35.32ID:3yG9KXga0
それな…
2021/06/27(日) 08:43:04.87ID:+CVF5hv/0
mergeの設定変えれば良いのでは?
551名無しさん@お腹いっぱい。
垢版 |
2021/06/27(日) 12:02:13.98ID:ocn4RUcd0
そんなん、プレビュー画像を出力し続けるようにModすればよくね?誰でも出来る件。
2021/06/27(日) 12:54:31.50ID:ADzsSK/y0
笛以外はrawを前提にして素材選びから変えるのも良いぞ 相性も色も割と無視出来て手軽
2021/06/27(日) 19:11:22.03ID:zVvBk5kK0
morph factor とか amp とか 使用感どうですか? 
ちょっとしばらく触ってなかったので、ついていけなくなってきた;;
2021/06/28(月) 02:02:02.22ID:jAsP+lkm0
たまにある正面からの固定アングルみたいなdstならAMP使えそうだけど
動き激しいのだとsrcの角度完璧に揃えないとmerge後SAEHDより違和感がある
morphはmodelに対して設定するのはよくわからんからデフォの0.33でやったけど
mergeの時のopは0だろうが1.0だろうが最高値でかかる恐らくバグ

結果AMPは断念したわハードルが高すぎるし使い勝手悪い
2021/06/28(月) 10:15:13.71ID:XUfTq1R50
55555
2021/06/28(月) 23:20:55.53ID:N9b3f5eO0
>>554
ありがとう。しばらく今までのsaehdでいきます。
xseg generic は使ってみる。changelogにあったあごのラインがおかしい画像の
パターンはよく起こって悩みの種だったので これが解決すればまじで神パッチだわ。
557名無しさん@お腹いっぱい。
垢版 |
2021/07/10(土) 19:48:55.67ID:ygclf0IN0
pretrainの仕方って設定を選ぶときの最後の選択肢を有効にして、一定程度学習が進んだら無効にするという方法であってますか。
実際にその手順でやったら無効にしたあとプレビューが0から生成しているようですが、大丈夫でしょうか。
2021/07/10(土) 20:25:37.27ID:fVw4v6i10
>>557
あってるで
559名無しさん@お腹いっぱい。
垢版 |
2021/07/10(土) 20:43:57.64ID:ygclf0IN0
ありがとうございます。
通常と同じくゼロから生成されるけど、仕上がりがよくなるという感じですか?
2021/07/10(土) 21:47:19.77ID:fVw4v6i10
うん
例えば車の新型だすとき使えるパーツは使い回した方が効率いいでしょ
ただcelebAは外車の公道用のパーツだから本当は日本車のレーシング用を集めたほうがいい
2021/07/10(土) 23:35:56.76ID:+joTc5dv0
>>559
良くなるというか早くなる。iter30k未満とかのpreviewが暗くて不鮮明な期間が短くなる感じ
2021/07/11(日) 00:52:48.31ID:CWlbfjOB0
外国人オンリーで100万回pretrainされたモデルを利用して
5万回くらい本trainすれば本人レベルになるから普通に満足してたんだけど
日本人のセットでpretrainしてからtrainしたらもっとsrcに似せられるのかな?
2021/07/11(日) 14:34:11.15ID:4iPJ7ijq0
厳密に比較して無いから分からんが、前髪とか髪色も鑑みるとそのはず
元々のceleb_Aを解凍してみるとアバターみたいな奴とか男とかかなり無茶な内容
自分がよく使うタイプのsrc/dstから50k枚位選んで100k程度(輪郭ハッキリしてくる程度)のpreでも十分なのは試した
2021/07/11(日) 15:34:42.18ID:CWlbfjOB0
枚数と回数の情報までサンクス
pretrain済みモデルだとdimsとかの設定も
自分のGPUの限界まで上げられないのが不満だから自分でpretrainしてみるわ
2021/07/11(日) 17:03:16.00ID:4iPJ7ijq0
スマン、50kじゃなくて5kだな 笛とかmask処理済の物も入れておくといいかも
2021/07/11(日) 23:20:27.22ID:CWlbfjOB0
ほぼ選別しないで全部ぶち込んでるのかと思ったわw
色んなパターンの良いとこ取りして鍛えてみる
567名無しさん@お腹いっぱい。
垢版 |
2021/07/17(土) 16:05:41.43ID:tE1HHxke0
2枚の写真から作るって無理?
正面写真2枚で動画も正面の数秒ほどの動画で試しに作ってるんだけど顔にならん。。。
2021/07/17(土) 20:03:10.92ID:49RoD/PP0
>>567
@似た条件の人でiter25,000位まで回してから、目的のsrcと入れ替える
A画が足りない場合はDF系が合成し易い
2021/07/17(土) 20:17:11.20ID:m8SzxLwK0
画像を集める努力したほうが良い
570名無しさん@お腹いっぱい。
垢版 |
2021/07/18(日) 04:03:32.95ID:AwEFT1wl0
>>567
写真から動画を作るAI活用したサービスがあるよ。
2021/07/18(日) 14:09:15.44ID:kQthvfK/0
>>569
卒アルとかじゃね こういう系↓もあるけど実用性は高くないかな
http://nvidia-research-mingyuliu.com/vid2vid-cameo/
2021/07/19(月) 07:59:07.03ID:mnpBJkqV0
卒アルではないけど写真手に入れるのが難しくてw
うまい人だと卒アルからでも作れるんかな
まだ始めたばかりだからとりあえず動画動画で練習してから写真にチャレンジしてみます
2021/07/19(月) 19:39:58.05ID:mnpBJkqV0
写真から作る場合ってちょっと時期が違う写真で化粧の感じが違うのは混ぜないほうがいい?
2021/07/19(月) 20:00:52.45ID:7YCgwTmN0
どうしても足りないなら仕方ないが、基本的には混ぜない方が良い
2021/07/19(月) 20:14:26.59ID:mnpBJkqV0
やっぱまぜないほうがいいかサンクス
2021/07/19(月) 20:54:13.59ID:/hLny+A60
グラボが3090なんですけどコア使用率が2〜3%
メモリ使用が7.9Gしか使わないんですけどこんなもんですか?
フルに働いてほしいが
2021/07/19(月) 21:22:33.14ID:0p2eNPIv0
何をしてる時なのだ
578名無しさん@お腹いっぱい。
垢版 |
2021/07/19(月) 21:41:05.01ID:/hLny+A60
すいません顔を解析してる時で、トレーニング中はコア20%メモリ20G弱まで上がりました
それでもフルに使えてないですね、OCしたらもっと早くなるのかな
2021/07/19(月) 23:07:10.44ID:0p2eNPIv0
顔を解析してるときはコアは1つしか使ってないから、どうやっても上がらない
train中はCPUじゃなくてGPUをフルで使ってるはず
2021/07/20(火) 00:28:20.23ID:zYKnJBhc0
抽出の方法変えちゃえば1080Tiですら標準の奴より
10倍くらい早く顔の抽出できるみたいだから
誰かに改善してもらいたいわ
作者なら頑張ればすぐ改造できそうな部分なんだけどなぁ
581名無しさん@お腹いっぱい。
垢版 |
2021/07/20(火) 08:49:25.70ID:bmVR8mDJ0
やり始めたけどめっちゃ時間かかるね
ネットに上がってるような短いのじゃなくてAV1本丸々の超大作を量産しようと思ってたけど無理だなw
練習で1分の動画作るだけで糞時間かかってる
2021/07/20(火) 19:31:07.28ID:LH5uBg020
自分で抜くためなんだから数分でいいんだよ
583名無しさん@お腹いっぱい。
垢版 |
2021/07/20(火) 21:38:24.36ID:0odC18lY0
今やり方覚えるために冒頭の顔だけの1分とかで練習してるけど全然うまくいかんw
素材が写真2枚ってのがダメなんだろうけどw
動画で手に入る似せたいのって特にないんだよなぁ。。。
もうAV→AVでやってみようかな
2021/07/20(火) 21:51:25.86ID:snh/Cinm0
初めて作成するのに写真2枚って・・・
根本的に認識が間違ってるな
585名無しさん@お腹いっぱい。
垢版 |
2021/07/20(火) 22:23:41.94ID:0odC18lY0
動画でいろんな角度と表情が必要なのはわかってるんだw
ただ好きな芸能人とかも特にいないから作りたい顔の動画がないんだよね
2021/07/21(水) 01:26:00.03ID:G3eU1ERk0
srcが正面だけならカメラ固定のオナニー動画からスタートだな
2021/07/21(水) 03:00:33.81ID:bp3qHvqp0
昔、職場で一番のお気に入りの後輩のプレゼンの指導をたまたましたことがあって、
そのとき、慣例に従ってビデオ撮って「自分でどこ悪いか見とき」と本人に渡した。
いやぁ、そんときのビデオがこんなところで役立つとは思いもしなかったよw

てな訳で、ビデオ撮る口実見つけるのがオススメw
2021/07/21(水) 06:36:54.84ID:bCKSdgEy0
隙あらば
2021/07/21(水) 07:35:05.54ID:ZGIZHfNv0
おじさんキモいよ!(正論)
2021/07/21(水) 07:53:46.25ID:62aSpyoD0
AV見る時輪郭と身体重視になってしまったな
あとアングル的にやりやすそうなシーンがあると興奮が増す
591名無しさん@お腹いっぱい。
垢版 |
2021/07/21(水) 08:00:19.81ID:81A7l/pw0
堂々と動画取れるのはうらやましいなぁ
チャンスがあったとしても最近はマスクしてるしね、、、
2021/07/21(水) 13:11:41.24ID:3cH6YO/Q0
587みたいなのを掲示板で書く奴は死んでほしい
俺らにとっても害悪だってことを認識すべき
2021/07/21(水) 18:33:08.72ID:Nc67crZ50
職場におばちゃんしかいない俺の気持ちも考えろ!
2021/07/21(水) 19:29:15.54ID:r7BcsjDB0
逆にマスクしてる組み合わせに挑戦してみるかな バックの画とかでdstの肩で口から下が隠れる素材でもイケる事もあるし
眼鏡は意外とsrcの目元も再現出来てたが全体的に無理があるというかボヤけ気味だった
2021/07/25(日) 22:25:04.18ID:rnjoPeZD0
mergeはrctよりnoneの方が合うことが多々あるね
2021/07/25(日) 22:35:58.61ID:ZYtB1o7m0
素材次第
2021/07/29(木) 09:30:49.51ID:naVqs5ad0
>>595
rctの方が合うことがあるから結局は物次第。
一概には言えない。
2021/08/04(水) 04:05:41.24ID:uGonNvCV0
2080Tiだけど、慣れて来ると1時間くらいの動画は余裕
下手すると2時間くらいでもイケそう
コツっていうか、キスシーンとかの2顔同時に写ってるめんどくさい部分は諦めて
出来上がった部分から良い部分だけを切り取って編集したほうが、精神に優しい

初心者はグラビア系やイメージビデオ系が楽
大抵は被写体1顔だけした写ってないし、髪が振り乱れるような場面が殆ど無いから
物凄くサクサク作成出来る
2021/08/04(水) 04:16:19.44ID:uGonNvCV0
192のバッジ6〜10くらいで、GPUもCPUもほぼ全開
どうも192×バッジ数がGPUメモリ使用率になるらしく
GPUのメモリ11Gを目一杯使えんのよな

バッジは2ごとで上がっていくらしいから
バッジが8で9G使ってたら、バッジ10だといきなり11G越える

結論としては192←この値が小さいと、かけるいくらという選択肢が多くなって
例えば192を半分にするとバッジがもっと細かい数で設定できる かと

2080だと、192か256かの2択しか無いが
256だとバッジが2とかになって、すこぶる学習処理が停滞する
2021/08/04(水) 04:26:29.99ID:uGonNvCV0
究極言うと、元々激似のヤツ同士を合わせると物凄い楽
得に輪郭と口元と髪型
口は笛作成時にsrc側の口をマスクしてdstの口をそのまま使えて便利
2021/08/04(水) 06:40:23.21ID:qbHBu/fB0
>>600
今更日記乙
2021/08/04(水) 08:08:29.30ID:dy9GQWk/0
口をマスクか… その手があったな
ともかく バッチ な
2021/08/04(水) 12:43:45.49ID:JjiMSQy20
すごい日記だぁ…(恍惚)
2021/08/04(水) 13:14:48.86ID:JjiMSQy20
文章から伝わる無能感
2021/08/04(水) 18:41:37.95ID:B2Zp4Ru90
日記っていつも深夜早朝に現れるな
まぁ俺は嫌いじゃないよ
過疎スレだし
2021/08/04(水) 20:26:04.82ID:iRLaDLAM0
今からグラボ買おうと思ってるなら3060がオススメ
2080Tiに比べて処理速度はちょっと遅いが、メモリ12GでDFL向き
このメモリ容量を搭載した3060より上のグレードは3080Tiになって
確かに速度は速いけど価格が4倍くらいする
そうなったらもう、3060搭載のPC2〜3台自作したほうが、処理が楽
だいたい、3060搭載のPC2台で3080Tiと同等の処理が可能
2021/08/04(水) 20:26:09.98ID:/KTNrQru0
まだバッジとか言ってんのか…日記とは違う方向でキツい子
2021/08/04(水) 21:39:52.79ID:B9yunsph0
あいかわらず警察さんはわかりやすいな
2021/08/05(木) 07:32:29.26ID:wkyTLABA0
同等の処理が可能(ガバガバ試算)
2021/08/05(木) 08:13:02.87ID:hllfiSPu0
二年くらい離れてたんだけど、この界隈って簡単なアプリケーションとか出た?

以前経験したのは、
@インストールまでがクソ面倒
A複数人記憶させて使い回しさせると精度が良くなる
B赤字かなんかでめちゃくちゃ中断させられる

っていうので、スタートラインたつのがハードル高すぎた
おまけに出来上がったのみたらのっぺらぼう
それともまだ変わってない?
2021/08/05(木) 09:08:40.93ID:WjiSY5nE0
おまえのスキルがなさ過ぎなだけだろw
2021/08/05(木) 09:18:50.27ID:Tm7c3SN20
>>610
諦めた方がいい
2021/08/05(木) 12:28:15.49ID:hllfiSPu0
残念
PC高かったけどゲームやめるし売るわ
2021/08/05(木) 13:02:28.17ID:YV8IStiQ0
誰にも認められないと他者攻撃性に変わるっていうけど典型だな

>>611
知らんと思うけど2年前はそんなんだったんやで

>>613
dflはダウンロードするだけやで
2年前のエントリークラスだと厳しいけど高いpcなら試してみ
2021/08/05(木) 13:22:45.04ID:+aINE/lW0
普段ゲームしかしません APEX最高!みたいなアホ学生は自分で調べるより先に人に何でも聞こうとするから優しくしたら質問まみれになるし
デメリットしかないから放っといた方が良い
mrのガイド翻訳しても理解できないとこだけ質問してくれ
2021/08/05(木) 14:45:22.20ID:pZOn4l/80
説明書が英語だから
バージョンが変わって付いた新しい機能を調べるのが
非常にめんどくさい
2021/08/05(木) 14:46:01.41ID:YV8IStiQ0
調べるも何も前よりよくなってたら試したいから使ってる人の意見を聞きたいって話やん

ほんでミスターに書いてる以上のこと聞いてもおまえわからねえじゃん
2021/08/05(木) 14:58:03.83ID:+aINE/lW0
何でこんなアホを擁護する必要があるんだよ携帯とPC使って自作自演か?
日本語で解説してるサイトもあるんだから
自分で調べれば2年前とどこが変わったかすぐ分かるだろww
Xseg Maskって何?Pre train済みモデルってどう使うの?AMPって何?
ってくだらない質問にお前が全部答えてやれよ上級職人さん
2021/08/05(木) 15:09:19.55ID:YV8IStiQ0
他人下げでアイデンティティ保つために見てるなら
2021/08/05(木) 15:10:39.39ID:YV8IStiQ0
おまえが質問スレを見なければいいだけじゃない?
2021/08/05(木) 16:32:18.59ID:+aINE/lW0
すまんなお前の初心者への優しさは評価するよ
トレーニング中のプレビューサイズの変え方とか
開発者のiperovは変更できないってディスコで言ってたけど
このスレではModel.pyの数値をいじれば変更可能って事とか
開発者よりも参考になるから見てるし
もっと過疎られても困るからやめとくわ
2021/08/05(木) 16:41:52.21ID:YV8IStiQ0
>>621
おまえガイジスレでも煽ってるよな
そんなの(Python初心者でもできるけどめんどさいから)できないだぞ
ipeはそういうやつ
そんなのもできないやつが初心者煽るな
2021/08/05(木) 18:15:16.58ID:aFO7DRNb0
今の時代にGUIが無いのは敷居高いと思うな
2021/08/05(木) 20:10:52.98ID:WjiSY5nE0
GUIベースになったらなったで、このパラメタはどう設定するのでしょうとか、
何でここを選択するとこっちが選択出来ないのとか、
結局訊くレベルは同じだと思うけどw

もちろん、AIなんで全部勝手にやってくれてあ〜らびっくり、完璧!ってのがいいけどね。
残念ながらそういうレベルになるのはまだまだ先だね。。。
2021/08/05(木) 20:21:57.32ID:brDmSZdq0
無理矢理句読点つけて他人ぶってるの可愛い
2021/08/05(木) 20:26:56.87ID:TSYnkPDl0
この表情・角度は十分、ここが足りないって視覚的にすぐわかればだいぶ手間減らせるんだけどな
627名無しさん@お腹いっぱい。
垢版 |
2021/08/05(木) 23:29:04.41ID:pZOn4l/80
視覚的にはすぐわかるよ
例えば、鼻の穴見えるような角度のsrcが足りないと
上むいた時、鼻が潰れたみたいな画像ができあがる
俺は、激似dstを見つけた時に、そのdstの上向き画像をsrcに足して対処してる
どうせ、顎下から見てるんでsrcもdstも顔見えないからわりと使い回し効く
2021/08/05(木) 23:30:19.84ID:pZOn4l/80
大体、足りない角度は顔見えない角度な事が多いから
srcに他人の顔dstを打ち込んでも、ほとんど違和感無い
2021/08/06(金) 09:24:18.21ID:q1aRiAE10
>>627-628
なるほど、言われてみれば確かにそうだ!
このスレで初めて役に立った know-how だw
2021/08/06(金) 15:34:20.36ID:PHJSMRMR0
日記…
2021/08/06(金) 18:29:06.14ID:QF5VOBmw0
みんなわかってるからわろとけばいいんだよ
2021/08/06(金) 20:55:20.02ID:Cj+aYrhW0
警察さんはわかりやすい妨害するよな
2021/08/06(金) 21:58:10.32ID:2jtTia/00
main.pyを直接叩く人が少ないせいで、情報が少なくて面倒だった
634名無しさん@お腹いっぱい。
垢版 |
2021/08/07(土) 01:31:07.68ID:cN7PojON0
すいませんちょっと教えてください。
build_07_01_2021でxseg_generic やったところ、なかなか優秀だと思いました。
build_07_30_2021だと、更にxseg_genericが良くなったらしいので、こちらでやり直したいと思っているのですが、
コピーするのはworkspaceフォルダ丸ごとで良いのでしょうか?
あと、xsegのpretraining modeもやった後にxseg_genericをした方がよいのでしょうか?
2021/08/07(土) 08:45:39.31ID:+Mp2hdU+0
Xseg_genericは_intermalフォルダ内にあるmodelを使用しているから
XsegをtrainしてもXseg_genericには反映されない
自分用のXseg_generic作りたいなら
_internal→model_generic_xsegフォルダ内にあるファイルを
workspace→modelに移してtrainするほうが0からtrainするより早い
満足できる状態になったら
_internal→model_generic_xsegフォルダに戻す
ちなみに自分はXseg_genericはいじらずにデフォのままで使用しているけど
2021/08/07(土) 08:51:24.20ID:+Mp2hdU+0
新しいアルゴリズムのpretrain済modelはダウンロードできるまで時間かかるだろうから
今は_internal→model_generic_xsegフォルダ内のファイルをコピーしてtrainしている
2021/08/07(土) 13:55:30.50ID:7Mv6JnTQ0
日記は自演が上達しないなぁ
2021/08/07(土) 16:18:29.69ID:kSq8Jh2f0
なんか最近はじめたやつ多そうだな
日記と知ったかぶってるやつが肩ぶん回してるの草
2021/08/08(日) 00:38:59.76ID:d8I51IH50
警察だんだっけ?
640名無しさん@お腹いっぱい。
垢版 |
2021/08/08(日) 13:11:01.11ID:lCcOAULi0
634です。
635 636 有難うございます!
いちいちxsegするの面倒くさくて。自分の印象だと、xseg_genericが
fansegレベルに近づいてるのではと感じてます。
まあ試行錯誤の連続ですね。
2021/08/08(日) 13:51:25.99ID:KVJyeqJL0
ageたりsageたり忙しいヤツだな
642名無しさん@お腹いっぱい。
垢版 |
2021/08/09(月) 02:49:46.18ID:Hd2OVUFs0
警察
2021/08/11(水) 00:10:20.30ID:w2hLXazV0
DFLive相性みるのにいいかなと使ってみたけどフェラも結構いける
644名無しさん@お腹いっぱい。
垢版 |
2021/08/14(土) 14:30:48.38ID:rumXi0yN0
3060からA4000に載せ替えてみたけどアチアチ過ぎて効率落ちたような気がする...
2021/08/14(土) 19:40:14.30ID:PTWlw4Cb0
>>644
話が抽象的すぎて分からん。
具体的に何がどう性能落ちたか、そういう話をみんな聞きたいんだよ。
2021/08/14(土) 21:17:42.93ID:BbJowiH+0
train/mergeの際の色調整がマニュアルで出来たらいいのう婆さんや
647名無しさん@お腹いっぱい。
垢版 |
2021/08/14(土) 21:57:29.48ID:2KeyOdab0
>>644
冗談だろ、買い換える意味がわからん
648名無しさん@お腹いっぱい。
垢版 |
2021/08/15(日) 03:02:50.70ID:RGpjsGfN0
>>645
>>647
効率落ちたっていうのは極端過ぎたわすまん。今のところあんまり変わらんっていうの正しいかも

DFLは最新のRTX3000ver、cuda11.4導入済、A4000(70% PL)と3060(non-LHR/70% PL))での比較になるけど同条件でのsrc顔抽出速度は3060の方が気持ち早いくらい

デフォ設定で抽出/SAEHDで回して反復速度は250〜300ms。res128→192に変えて400〜450msぐらい。loss値の減り具合も大して変わりないような...

ちなみにPL解除すると室温26°環境にて3060は85度付近をウロウロで済むけどA4000は90度まで跳ね上がるのでやむ終えず

PLかけても75〜80度とアチアチだけど学習中ワットチェッカーではmax170Wと3060の210Wほど電気喰わずちょっぴりエコな所と冷却ファンが2500rpmと回る割には静かなのは嬉しい点。3年保証だし

数値上変わらないのはドライバが未成熟なのか現時点では頭打ちな仕様なのか...LHRの影響ではない事を祈っているよ〜
2021/08/15(日) 21:21:56.85ID:DNCv+M1o0
>>643
真正面アングルだけならDFLと変わらないレベルのが
リアルタイムで作れるし便利だけど
横とか下向いたりするだけで顔崩壊するし
フェラ動画もxseg maskが機能しないからチンコがsrcの顔にかき消されるんだけど
それ用に変えなきゃいけない設定とかコードとかある?
Face mergerのmask typeとかを変更したりしてもフェラは崩壊してダメだわ
もちろんDFLでは普通に作れるしFace Swapperにtrain済みのdfmファイルを使用してる
650名無しさん@お腹いっぱい。
垢版 |
2021/08/15(日) 21:28:05.72ID:p/9PmR910
>> 649
dstで口から下を取り除いた顔の輪郭を【含む】線で囲む
同じコマ上のちんこ部分や顔にかかった手の先や紐状の髪の毛等は【含まない】線で囲んで学習
その後、再度Xsegで開いて連続コマを動画風に流しながら白黒でマスクを確認して
マスクがきれいにかかってない部分を選んで、また学習
これを繰り返す
2021/08/15(日) 21:44:36.39ID:7QNjK3EC0
以上、日記成長しないの巻
2021/08/15(日) 22:09:30.08ID:ttt6yKdG0
>>649
相性見るのにちょっと使っただけだから、これくらいの角度あんまり変わらないタイプ
https://i.imgur.com/ft6YYfP.jpg
2021/08/15(日) 22:12:03.12ID:DNCv+M1o0
DF live使ってる人少なそうだから困るな
mrのスレッドで配布してたフェラ用にmaskされたtrain済みマスクを
全dst画像に適応させてtrainしてるから
DFLのmask edit見てもチンコも綺麗にマスクされた状態なんだけど
新規フェラ動画をDFliveのFile sourceに使いたくても
dstのチンコを事前にマスクしなきゃいけないから
リアルタイムフェラ動画はキツイか
無編集の数時間ある動画ぶち込んでもすぐDFできるのはめっちゃ便利なんだけどな
2021/08/15(日) 22:19:46.22ID:DNCv+M1o0
>>652
居ないかと思ったら643本人いたわ ありがと
設定変えれば色んなアングル対応できるのかと思ったけど
live向けだしやっぱり正面アングルに限るか
でも今までノーマークだったdstが
こんなに相性良かったんだって発見しやすいし
相性確認用として使うことにするわ
655名無しさん@お腹いっぱい。
垢版 |
2021/08/18(水) 01:01:52.19ID:xz+5pDh90
手動でも顔抽出が難しいところって、皆さんは諦めてというか、わりきってカットしてますか?
2021/08/18(水) 15:48:47.90ID:LFgo9Rq60
>>655
srcに関しては使わない dstの場合は頑張って無理ならスルー mask editorキッチりゃってもlandmarkがめちゃくちゃだと厳しい
ブレはともかく髪でmask内(目とか)が隠れたりだと、他のframeがmerge出来る段階までtrainしても崩れたままが殆ど
srcで奇跡的にドンピシャなのがあるとイケる事もある
2021/08/18(水) 15:52:15.62ID:LFgo9Rq60
でもやっぱextractが楽な素材ほど完成品も似やすい(≒シコい)のは確か
658名無しさん@お腹いっぱい。
垢版 |
2021/08/19(木) 00:11:20.95ID:86Ip9tY10
うおー
https://deepsukebe.io/?ref=bFB5N
659名無しさん@お腹いっぱい。
垢版 |
2021/08/19(木) 00:12:08.26ID:86Ip9tY10
某記事のやつってこれ?
660名無しさん@お腹いっぱい。
垢版 |
2021/08/19(木) 12:29:36.96ID:+oj+aGUi0
人物A汎用modelの作成で、汎用Pretrain modelから、1.人物Aをfacesetに入れて追加Pretrain、2.人物AのAlignedで追加Pretrain、3.人物AのSRCxSRCで通常train
この3通りでは1と2には優位な差は見られないが、SRC育成が進んでる3が高品質になりやすいであってる?
Pretrain Facesetに人物Aのalignを入れる人がいたけどそれの優位性が思いつかないんだがなんかある?
2021/08/19(木) 14:40:52.23ID:tnCo+0m30
外国人だけで100万pretrainさせたmodelと
自分が通常trainでよく使うsrcとdstだけ選別してcelebAに1万枚入れて
20万pretrainしたモデル使って同じ素材で通常trainして比較したけど
外国人model使った方が横顔とかきつめの角度にも対応できてsrcに寄せやすかったから
pretrainよりも通常trainに時間かけた方が良いな
とにかくsrcの画質にこだわってDFDNetとか使ってsrcの画質爆上げさせて
random warpオンで損失0.1くらいまで通常trainすれば小さいホクロとか
歯とかもクッキリ学習してくれて一番高品質にできるかな
海外のセレブとかは至近距離の一眼撮影未加工データとか大量にあるし
それを更に全部reminiさせたりAi Enhanceしてるから高画質すぎて羨ましい
2021/08/19(木) 20:45:46.96ID:2AP/jkWp0
素材のデータ重いと遅くなるやん?
2021/08/19(木) 21:49:52.69ID:tnCo+0m30
1024px以上のaligned使うとvram12GBと6コアcpuでも
マージの時にフリーズするから解像度が巨大化するのはNGだな
でもDFDNetだと512pxとかで解像度維持したままファイルサイズ3分の1にできる上に
眉毛とかホクロがボケてよく分からない720Pくらいの映像でも
Aiでremini並みに復元してクッキリさせられて
無料で自分のPC上で数千枚の画像丸ごと高画質にできるからsrc増やす度に使ってる
ただ英語の解説しかないしpythonの知識が無かったから
色々と導入して高画質化できるようになるまで理解するのがきつかった
2021/08/19(木) 22:12:17.71ID:1goFL/Ny0
そうですね
2021/08/20(金) 12:54:17.40ID:ncQ5u5E20
いい日記ですね
2021/08/20(金) 14:39:05.89ID:/8FjV9C70
わりとまじでブログやった方がいい
匿名が何言ってても成果がわからないから
2021/08/20(金) 15:14:04.85ID:x+u1HPoK0
自分でやって確かめればええ話や
2021/08/20(金) 16:03:12.83ID:ijo32nQF0
ヒント1質問スレ
ヒント2大前提のモデルの種類も書かない日記
2021/08/20(金) 18:52:09.31ID:x+u1HPoK0
前からある技術だけどjappは早速日記を参考にして
昨日の夜からAi EnhancerのGPEN導入してるから
自分で頭使って試せる奴は1から10まで説明しなくて良いし役に立ってくれるな
DF上でのGPENの仕上がりの違いも知りたかったから助かるわー
670名無しさん@お腹いっぱい。
垢版 |
2021/08/20(金) 18:55:29.36ID:eNZLX5Qb0
キモ
2021/08/22(日) 01:49:03.43ID:9i8FyP7D0
>>663
dfd試してみた
step1の顔抽出がかなり遅いんだけどこんなもん?
元画像が512pxとかになるとこれで何千枚とかやるのは気が遠くなるぐらい遅い
出力された画像は確かに凄い鮮明になってたけど
2021/08/22(日) 01:55:39.19ID:Ctpld0710
dfdはステップ3でメモリーエラー出て20時間ぐらい動かしてたのに最初からやり直しだわw
数枚だとエラー出ないんだけどなぁ
10000枚やるとあかんわ。
gfsganはきれいになるしエラーは出ないけど、CG感が凄い
gpenはwindowsで動かない
2021/08/22(日) 02:37:36.85ID:YcSWsJMr0
>>671
step1はcudaとかcudnnとか入れてpythonで色々と設定しないと
CPUしか使わないしアホみたいに時間かかるから使わなくて良いよ

Colabで動作させてるなら分からんけどローカルで動作できるなら
githubのチュートリアル通りにTestWholeフォルダにaligned画像入れるんじゃなくて
DFDNet-whole\Results\TestWholeResults\Step1_CropImgに
aligned画像全部入れて同じようにtest_FaceDict.pyを実行したら
無駄なクロップとかの工程すっ飛ばして色々とエラーが表示されて動作停止した後に
Step3_RestoreCropFaceフォルダに高解像データが保存されてるからそれを移動させれば学習で使える
これなら512pxの画像1枚につき1秒くらいで高解像度化してくれるはず

Colabの場合はそのままDFLで使えるのかも知れないけど
このやり方だとDFLImage扱いされないから
4.2) data_src util faceset metadata save.batを使って
元のalignedデータのメタデータを全部保存してから
超解像したalignedを元画像データと全て同じ名前のままalignedフォルダに移動させて
4.2) data_src util faceset metadata restore.batを使ってメタデータを移植させれば
DFLImageとして使えるようになる
2021/08/22(日) 02:47:07.79ID:YcSWsJMr0
jappがGPENをColab上で動かせるようにしたみたいだけど
DFLで切り出したaligned使うと最後まで動作はするけど
結果のzipフォルダが空の状態で保存されてて超解像できてないんだよな
サンプル映像見るとDFDよりも解像度は上っぽいけど
若干顔が別人になってる様に見えるからDFDの方が良いかね
2021/08/22(日) 05:58:45.46ID:I75KMms30
そうですね
2021/08/22(日) 12:23:05.50ID:7oGU12I30
>>673
返信どうも
ただこの方法だとノイズが入ったり不自然になる画像があった

色々弄ってみて解決
遅いのはdlib関連だったみたい
test_FaceDict.pyの26行目
dets = detector(img, 1)の1を0に変えたらstep1の処理が5倍くらい速くなった(それでもまだ遅いけど...)

あとはdlibのコンパイル時にCmakeやらVSのオプション弄っても高速になるらしいけどそちらは未確認
2021/08/22(日) 14:38:56.92ID:1OUmt4dD0
>>674
普通にできたよ
alinedフォルダをフォルダごと圧縮した?
2021/08/22(日) 16:12:08.11ID:YcSWsJMr0
>>677
動作確認で数枚の画像だけ圧縮してたけど
フォルダごと圧縮したら問題無くいけたわサンクス
dfd使ってもノイズでよく分からない唇のシワとか
まつ毛まで見えるようになるし処理早いし数日で革命起きて草
2021/08/24(火) 16:11:01.63ID:znV+kD/K0
ずっと古いdfl使ってた初心者なんですけど、最近のバージョンってtrain遅くなったけど精度は上がってたりします?
めちゃくちゃ数こなすの遅くなってて
2021/08/24(火) 16:21:20.08ID:boOfcCMH0
train速くなって精度は変わってないと思う
2021/08/24(火) 16:50:29.41ID:znV+kD/K0
え、速くなってるんですか
682名無しさん@お腹いっぱい。
垢版 |
2021/08/24(火) 21:09:29.07ID:K13xNfur0
Colabの方で超解像化してそのままぶち込んでもDFLファイル見つからんて言われるね。再extractかければいいだけだが
2021/08/24(火) 22:56:56.84ID:GoCWkELK0
4.2) data_src util faceset metadata save.bat
4.2) data_src util faceset metadata restore.bat

もっとこのファイルは評価されるべき
元画像まとめてsaveしてgpen画像と交換してrestoreするだけよ
2021/08/25(水) 22:34:17.34ID:F9N5Sztr0
gpenやっと導入できた
すごいなこれ
2021/08/30(月) 09:19:19.72ID:eFBFa3gW0
RTX2080Ti用って1080Tiでも動くんだな
バッチを倍にしても起動するし学習早くなった
2021/08/30(月) 09:55:35.43ID:M2UQRVos0
gpenて何に使ってるの?
2021/08/30(月) 11:13:35.30ID:VYMHbgyX0
>>685
up to 2080tiやぞそれ以前のは使える

>>686
src強化
元動画の画質が多少粗くても使えるようになる
ただたまに化け物生成されるから出力されたのは全数目視検査した方がいい
2021/08/30(月) 11:49:08.43ID:M2UQRVos0
なるほどありがとう
2021/08/31(火) 01:27:12.16ID:NDXXMj3B0
既出かもしれんが、headshotってソフト知ってる?使いようによってはsrc不足を補えるかも。
2021/09/02(木) 07:50:34.98ID:2zugo5R50
>>686
ぼやけた画像を高画質化、高精細化する。
かなりいいぞ。
頑張って導入してみ。
2021/09/02(木) 08:25:46.35ID:2zugo5R50
google colaboのGPEN使うとすぐGPU使用量の上限に当たって使えなくならない?
2021/09/02(木) 10:46:48.15ID:GLjLJFaa0
自分のローカルPC(2070s)環境上でGPENを動かす事はできるのでしょうか?
2021/09/03(金) 23:51:20.50ID:3WHdgben0
できるけど
Winじゃ動作しなかったからdebianインストールして動かしたよ
2021/09/04(土) 07:43:11.29ID:sA+UCAw10
あら〜面倒くさいんですね、じゃすなおにColabでやります。
サンクスです。
2021/09/04(土) 08:27:54.28ID:/9JA17ys0
>>694
試したのはWinのAnaconda環境ね
wsl2はGPU対応ビルドがWin11のみになっちゃったので未確認です
2021/09/07(火) 00:26:08.09ID:SrKfu8eX0
自分の顔が杉浦ぼっ樹にジャストフィットすると解り
葵つかさや紗倉まなとの共演を果たしてしまう>>1
2021/09/07(火) 21:08:45.44ID:XDBpiBeN0
普通にmergeして作成したフルHD解像度のpngやjpgをColabのGPENで高精細化しようとしたらダメだった
代わりにpngから更にheadモード1024で顔抽出したやつなら変換できたので、mergeのソースを弄ってpngの顔抽出元に上書きできるようにした
画面いっぱいの大きな顔でもなかなかな解像感でてる
まだ動画の連続したコマで処理、再動画化は試してないので最終的にチラつき等出ないかはわからない
2021/09/07(火) 21:26:41.97ID:4Rv9o3gA0
明日の日記もお楽しみに
2021/09/07(火) 21:39:13.44ID:wcpFI7Kt0
>>697
まさにmerge画像を更に超解像できたらクオリティもっと上げられると思ってたからありがたい
mergeのソースはどこいじればgpen画像と交換できるん?
2021/09/08(水) 15:54:50.45ID:Q8ZpHZbl0
趣味系の板でこういう高齢者増えたな
2021/09/08(水) 17:33:31.93ID:PoGNAqgQ0
Xsegの仕組みを応用して自動顔抽出したがいけてないランドマークを補正する機能は作れないのかな?
pretrainのfacesetに設定されているだろう正確なランドマークを学習させて
2021/09/09(木) 20:41:31.17ID:hEi9tf9d0
>>699
ソースの変更箇所を画像にしてみましたので参考になれば
修正箇所はおおまかに以下の4箇所です

1段目・・・FrameInfo.py __init__()
2段目・・・Merger.py main()
3段目・・・MergeMasked.py MergeMasked()
4段目・・・MergeMasked.py MergeMaskedFace()

https://i.imgur.com/C4KSm8G.jpg
2021/09/09(木) 21:06:44.87ID:BlyJDcJH0
>>702
優しすぎて泣ける
変更点と解説まで分かりやすく作っていただいてありがとうございます!
息子も大喜びです
2021/09/09(木) 21:33:24.63ID:BlyJDcJH0
>>701
3060で顔抽出2重起動しても3it/sくらいだからもっと早くしたいけど
Xseg応用してどのくらいの速度で抽出できてる?
DFLと連携してるMachine Video Editor使えば
ランドマークの自動配置に加えて手動で1点ずつ動かせるから
その抽出方法でも活かせたら強いな
2021/09/09(木) 22:09:31.80ID:hEi9tf9d0
>>703
ソース改造後の使い方などを書いてみましたのでご一読下さい
ソース改造後は通常のマージ機能が使えなくなるので作業フォルダを分ける必要があります

https://i.imgur.com/xSvYBRG.jpg
2021/09/09(木) 22:33:14.19ID:BlyJDcJH0
>>705
もはや課金したいレベル
見ないと詰まりそうなポイント多いのでめちゃくちゃ助かります!
2021/09/09(木) 22:44:13.62ID:hEi9tf9d0
>>706
自分はまだ連続コマでの再動画化は試せてないので、GPEN側の精度によってはチラつきで視聴に耐えられないかもしれません
その場合は静止画スライドショーで楽しんで下さいw

あと、1回目の通常マージではsuper resolutionはかけない方が良いですね
GPENで再度高精細化すると前歯に縦線が入ったり副作用が出やすいですね
2021/09/09(木) 23:13:57.50ID:BlyJDcJH0
数コマでも更に高品質なシーンが作れるだけで十分なのでノーダメージですw
全部踏まえて修行してみます
2021/09/09(木) 23:42:22.97ID:fQEJwoHV0
>>704
Xseg応用しての顔抽出っては自分にとってはまだ夢物語でこれからソースコード勉強してみようかっていう段階です
できれば公式さんにそういうの作って欲しい

Machine Video Editorっていうのがあるんですね、調べてみます
2021/09/10(金) 01:22:36.37ID:yzfiE5zs0
>>709
なるほどね
他の顔識別AIを応用すれば動画のまま1フレーム毎に顔認識させて
10倍くらい早くできるみたいだから公式で作ってほしいけど
開発者の対応見てると作る気無さそう

MVEはmrとyoutubeにガイドがあるから参考にしてみて
2021/09/10(金) 05:12:45.13ID:38pYaBDy0
>697
debianのローカル環境でやってみたらmerge画像は直接変換できたよ

確かに綺麗にはなるんだけど、動画にすると若干チラつき感はありますね
2021/09/10(金) 12:42:29.61ID:Mk7iUkp40
>>711
Colabのメイン部分(jappさん作?)をよく確認したらDFLで顔抽出した以外の画像は変換対象外にしていましたね
このチェック部分を上手くコメントアウトすればColabでもmerge後のフレーム画像をそのままGPENを掛けられるかもですね

自分もようやく改造ソースで連続コマを再動画化(GPEN適用は1万6千枚)が出来ましたが、通常の顔サイズなら目立ったチラつきはありませんでした
一番印象が変わる前髪や眉毛もチリチリするようなことはなし

ただ画面縦の6割以上な顔アップで動きが少ない場面だと顔全体が少しチラつくこともありでした
2021/09/10(金) 21:37:48.01ID:U/9/DGqN0
病気悪化してんな
2021/09/12(日) 18:36:45.02ID:X9AarYyj0
上の方にCG感が凄いと言われてるけど、GFPGANローカルで使えるしいいね

昔の写真やるのおもしろい

https://i.imgur.com/yK1QcbG.jpg
2021/09/12(日) 20:18:07.71ID:YM7exWzl0
改行好きなん?
2021/09/12(日) 20:37:41.15ID:X9AarYyj0
Mateで書き込めなくてpcでコピペしたら改行してた意味はないよ
2021/09/13(月) 03:54:43.25ID:LYSnhsI70
ガ〜イ?
2021/09/14(火) 13:24:52.41ID:orVHCs2F0
今GTX1080使ってるけどRTX3060に変えると学習早くなるかね?
ゲームベンチだとあまり差がないからどうなのかなーと思ってます。
719名無しさん@お腹いっぱい。
垢版 |
2021/09/14(火) 15:01:17.73ID:ddnUq2gF0
口開けてるシーンが全部めっちゃ笑顔になっちゃうんだけどどうしたらいいんだ?
学習させる顔の笑顔シーンを消してから学習させるしかない?
720名無しさん@お腹いっぱい。
垢版 |
2021/09/14(火) 20:29:24.82ID:Im5nQU3s0
>>718
1080から3060に変えたけど、学習2は倍から3倍に速くなったよ。
1080だと512×512ぐらいのフェイスセットが限界だけど、
3060だと1000×1000でheadごと切り出しとかもイケる。
TDPも下がるし電気代的にもお得でマザボへの負担も若干少ない。

8ピンのみで動く光らないmsiのがお勧めだと思う。

ただメモリバス幅は1080よりだいぶ劣化するので完全上位互換では全くない。
古いゲームとかだと1080の方が速いかも。
721名無しさん@お腹いっぱい。
垢版 |
2021/09/14(火) 20:43:04.62ID:Im5nQU3s0
>>719
偽造しちゃうのも手だよ。

src側のalignedに切り出し後の顔画像が並んでるじゃん。
あれをdstの最終のmergedに全部コピペして merged to mp4すると、
顔が中心に寄った動画として書き出される。

これがサイズ、画角が中央に揃ってて、動画編集ソフトでコラージュしやすい。
笑ってない顔なら、真顔上半分と口開けた顔下半分とかで重ねれば大量に無表情の口開け顔とか作れる。
目を閉じてとか、片目閉じて(左右で重ねる)とかも同じ感じで作れる。
多少色なんかがズレてても、学習後は本番時のdstの顔色に揃えるんだからザックリでも結構うまくいく。
722名無しさん@お腹いっぱい。
垢版 |
2021/09/14(火) 20:45:45.42ID:Im5nQU3s0
補足
MP4にする時に、dstの元動画も参照するから、
顔を切り出したsrcの元動画を、data_dstにリネームしとかないと動画書き出せない。
2021/09/14(火) 21:06:59.47ID:XTE/irHQ0
>>719
liaeの方がdstの表情に寄せるのに向いてる
2021/09/14(火) 21:33:15.38ID:orVHCs2F0
>>720
なるほどー。

すごく参考になる情報ありがとう。
ゲームはやらないので載せ換える価値ありそうですね。

検討してみます。

もう少し出しても良いのなら3060tiの方がさらに早くなるかな?
3060はVRAM12GBなのが魅力なんですけどね。
2021/09/14(火) 21:36:44.86ID:WBM4S41e0
df liveのお手軽さが最高なんだけどこれってsrcの顔をそのまま出力してるから
dfmモデルはsrcの学習データだけ利用してるのかね?
それならsrc×srcで時短して汎用モデル沢山作りたいんだけど
dstの学習データとかも使ってるとしたらsrc×dstで学習したモデル使った方が
照明条件とかdstへの適応力上がったりするのかな
2021/09/15(水) 10:17:19.89ID:OUk08hrH0
触角ヘアをこの世から撲滅したい
2021/09/15(水) 21:24:25.97ID:5r6EZMlL0
ageたりsageたりでクソ自演Q&Aを繰り返す日記をこの世から撲滅したい
728名無しさん@お腹いっぱい。
垢版 |
2021/09/16(木) 13:06:26.37ID:M44eBt7s0
>>721>>723
サンクス、いろいろ試してみます。
2021/09/16(木) 20:24:51.53ID:DR6CVoFi0
画面外から顔がフェードインしてくるとき、一部分しか写ってない上にだいたいブラーかかってるから上手く認識されずにどうしてもおかしくなっちゃうな
数フレームだしカットしてしまうのが丸いかな
2021/09/16(木) 21:16:17.74ID:f1Q/4sBt0
manual extractのa modeで拾う事は出来るけど、あんま良い結果になった事は無いな
自分の場合は切り出しの段階で省く
2021/09/16(木) 22:33:35.59ID:jEznZFgA0
MVEで前後からコピペして位置合わせればいける
2021/09/16(木) 22:36:48.54ID:onzUx4Rv0
あーなるほど、天才だ
マニュアル人間だからそういう発想なかった
ありがとうございます
2021/09/16(木) 23:11:43.49ID:jEznZFgA0
横顔とか笛も同じようにすると安定する
2021/09/17(金) 21:24:39.79ID:kJDJcHz70
ワッチョイって大事なんだな
2021/09/18(土) 01:03:59.37ID:A9bokZIB0
19日前のDeepFakeArchi.pyの更新で
Added -t arhi option.って書かれてて色々とコードが追加されてるけど
これはFP16で学習できるようになるのか?
iperovがRTMモデルに最適ですとしか回答してないからよく分からんが
2か月前にFP16でのテスト画面載せてたし
最新版のDFLのinternal Model_SAEHD Model.pyにも隠しコマンドみたいに
use fp16オプションと説明が追加されたりしてるからコード書き換えれば使えそうなんだが
736名無しさん@お腹いっぱい。
垢版 |
2021/09/18(土) 15:43:57.92ID:GEtIPbbW0
9/6版だとOOMエラー。
8/12版ではさくさく いくのに。
同じSRCとDSTなのにどういうことでしょう?
2021/09/18(土) 17:24:48.89ID:JGDxsHEr0
最新のやつって1080じゃまともに動かないよね
CUDA関連のファイル入れ替えたら動いたけど、1080はもう切り捨てられたのかな
2021/09/18(土) 18:34:26.33ID:A9bokZIB0
状態と種類にもよるけど1080ならまだメルカリで4万円くらいで売れるから
58000円の3060買って12gbのvramで楽しもうぜ
2021/09/18(土) 23:45:55.93ID:AroAgHdn0
>>737
動くよ。
2021/09/19(日) 01:14:00.37ID:fvYvWdU00
>>739
環境にもよるんだろうけど、そのままじゃ動かなかったんだ
エラーメッセージがCUDA絡みっぽかったからCUDAとCUDNNのフォルダの中身を去年12月のに入れ替えたら動いた
2021/09/21(火) 22:27:25.19ID:N+XLay7i0
>>712
顔抽出したファイルをGPENに掛けてもそのままではtrainで使えないけど
そこからもう1回顔抽出したら使えた
2021/09/21(火) 22:58:22.59ID:Y1yE1sS30
>>741
>>705 の添付テキストの7行目に書いてあることを実施して頂くとGPEN後の画像をそのまま使える筈ですので試してみて下さい
2021/09/21(火) 23:03:38.13ID:Y1yE1sS30
ちなみに save & restore は本来 data_src のための機能なので対象画像をdata_src\alignedに格納してbatを実行する必要がありますね
2021/09/21(火) 23:43:46.55ID:N+XLay7i0
>>742
なるほどありがとう
GPENをよく分かってなくて、colabでデフォルトでやってるから、
元のJPGファイルからPNGができてるんだ
JPGで保存するように改造してみる
2021/09/21(火) 23:58:53.80ID:Y1yE1sS30
>>744
ごめんなさい
私自身はその後GPENの方はあまり触ってなくてColabの動作も変わってるかもですので不可解な点があればColab上のソースを覗いてみるといいかもですね
2021/09/22(水) 00:15:48.62ID:9ENp7cWW0
XnConvertとか使えば解像度変えずにすぐpngからjpgに変換できるから楽だよ
2021/09/22(水) 04:06:08.18ID:8VSnhWqr0
>>746
ありがとう
colabだからLinux版を動かすか、
ファイルをダウンロードしてWindows版で変換するかだね
2021/09/22(水) 22:17:15.43ID:8VSnhWqr0
744だけど、colabのGPENでjpgを出力する方法
https://colab.research.google.com/github/tg-bomze/collection-of-notebooks/blob/master/GPEN_DFL_Colab.ipynb#scrollTo=0RF8vZUDL7Ma
「2) Simple settings」の後ろの方で.pngを.jpgに変更するだけだった(2ヵ所)
それと742でtrainに使えるはず
749名無しさん@お腹いっぱい。
垢版 |
2021/09/23(木) 23:17:20.64ID:kN6NynmK0
gtx1660で2.0って動くの?cudaが使えればいいのかな?
2021/09/25(土) 16:34:44.07ID:O+umQXec0
>>749
RTX3060でないと。
2021/09/25(土) 22:00:27.13ID:QGQpgHEl0
>>750
まだ完成させてないけど今トレーニング中なのでいけるみたい
2021/09/25(土) 22:00:27.13ID:QGQpgHEl0
>>750
まだ完成させてないけど今トレーニング中なのでいけるみたい
2021/09/25(土) 22:32:19.54ID:pToTqKyh0
gtx900シリーズまではサポートされてるから普通に動かせるけど
6gbだとresとか全然上げられないからすぐ新しいの欲しくなるよ
754名無しさん@お腹いっぱい。
垢版 |
2021/09/27(月) 01:00:08.11ID:30Ng7ivD0
興味本位で初めてみたけどこれ電気代ヤバくない?
ものすごい部屋の温度あがってたわ
Google colabはなんや難しそうやし…
2021/09/27(月) 01:25:55.59ID:VLuPrSgn0
月120-150hくらい2080tiでtrainしてたら電気代2-3kくらい上がった
2021/09/27(月) 02:18:41.12ID:90GIpRiF0
発熱と電気代気になったから電力制限70%にしてるわ
パフォーマンスは5、6%しか落ちないな
2021/09/27(月) 02:34:25.32ID:KLpZtGwy0
これからの時期は暖房代わりになるぞ
ってほどでもないんだよな
2021/09/27(月) 05:27:58.02ID:5YjrKRbg0
GoogleColabProはマジでコスパ良いから絶対使ったほうがいいぞ
電気代だけでも元取れるし
759名無しさん@お腹いっぱい。
垢版 |
2021/09/28(火) 04:41:12.98ID:Pt9lNeVg0
もしかしてLHRって良くない?
顔抽出をやってくるない事が多い-できることもある
2021/09/28(火) 18:09:07.28ID:qRgzwDO40
>>759

自分はRTX3060狙ってるんだけどそれが気になって買えんのだよ。
誰か詳しい人教えろください。
2021/09/28(火) 19:17:32.54ID:xI3IMOQB0
制限無しの1660とgainwardの安いLHR3060を別のpcで使ってdstを半分ずつ抽出してるけど
顔抽出の精度は全く変わらんな dflの顔抽出の性能自体が悪いから抽出速度は3060が少し早い程度だけど
vram多いから3060だと1660の倍くらいの設定にしても問題無く学習できる
mrのスレッドでもLHRは関係無いって言われてるし顔の素材とか準備するのに時間かかるから
早く買って作業開始した方が良いよ
2021/09/28(火) 20:24:57.48ID:YB1wn9Sn0
ちゃんとするなら結局は手動extract一択になるけどな…
2021/09/28(火) 20:29:20.27ID:nvGKbmK+0
暇人かよ
2021/09/28(火) 20:36:37.32ID:SIidQGsB0
全フレームマニュアルで抽出するやつとかおらんやろ
それとも死んだvineみたいに6秒DFでも作るんか?
2021/09/29(水) 18:06:37.46ID:UxxZPmv00
久々に触ったらオプション増えてまくってて何がなんやら
後半GAN使うときにこれはON/OFFにしろみたいなのってある?
2021/09/29(水) 19:11:23.15ID:q2znDvl+0
debugでちゃんとland/maskが一致するものを作るならmanualだろ
時間も自動とそんなに変わらんし 比較した事すら無い初心者は知らんけど
2021/09/29(水) 19:17:19.26ID:q2znDvl+0
角度が30度以上つく場合のautoとmanual+aでのmask範囲の違いは大分印象変わるぞ
前髪多めの素材で俯いたりまばたきするフレーム、髪が輪郭を一部でも隠す場合、こういうのもマニュアルでやらないと
後からdebugで微妙な部分を探してmask editorで修正とか二度手間じゃん そこまでやってる奴このスレに居ないだろうけど
2021/09/29(水) 19:21:17.09ID:q2znDvl+0
ただし使える部分のみ切り出した前提で、srcで5分(sortと目視選別必至)dstで1〜2分が現実的なライン
2021/09/29(水) 19:53:35.44ID:rGbEfDg50
早漏かよ
2021/09/29(水) 20:32:02.51ID:nrBNYEsL0
手動でもランドマーク1点ごとに移動できない欠陥ツールだからこだわるならMVE1択
2021/09/29(水) 21:02:10.19ID:q2znDvl+0
笛とかなら必須だろ 逆にどうしてんの?
AV丸ごとextractみたいなガイジはおいといて
2021/09/29(水) 21:24:00.69ID:BygiL9MB0
>>766
君3f/secで何万フレームも手動抽出できるん?もはやAIやん
それともうんちグラボだと抽出クッソ遅いのかな?
2021/09/29(水) 21:56:50.09ID:q2znDvl+0
1ー2分って書いてあって何フレームか分からないエアプが何言ってんの?
2021/09/29(水) 21:58:15.44ID:q2znDvl+0
この蒙古弁終わってんな
2021/09/29(水) 22:00:29.92ID:rGbEfDg50
そこまでやってる奴このスレに居ないだろうけど
wwwwwwwwww
2021/09/29(水) 22:13:30.48ID:BygiL9MB0
ごめん見てなかったわまさかそんな短いとは思わんかった
でもdstの時間に関係なく秒速3フレームで抽出するの無理だよね?
仮に5秒で1フレーム抽出出来ても5時間かかるけど自動なら20分手直し考えてもまあ1時間
4時間くらいなら誤差な暇人か定年後の爺か?それならボケ防止によさそう
2021/09/30(木) 10:06:11.78ID:Ado1qhnY0
7777777
778名無しさん@お腹いっぱい。
垢版 |
2021/10/04(月) 15:29:27.24ID:OaVGMfEO0
数枚の写真からそれなりの動画作れた人っている?
身近な人で作れたら最高だけど動画なんて手に入らねーよ
779名無しさん@お腹いっぱい。
垢版 |
2021/10/04(月) 18:19:24.67ID:8L8eWXyA0
> 数枚の写真からそれなりの動画作れた人っている?
> 身近な人で作れたら最高だけど動画なんて手に入らねーよ

写真撮るフリして動画撮るんだよw
2021/10/05(火) 02:39:55.99ID:GSIWIHFu0
>>778
https://jpghd.com/
781名無しさん@お腹いっぱい。
垢版 |
2021/10/05(火) 09:05:41.98ID:+qUl489E0
>>779
写真撮るのもハードル高すぎるw
>>780
ソフトDLして自分のPCで出来るといいんだけど、アップするのは何かあったらと思うと怖い。。
2021/10/05(火) 09:22:33.49ID:4b5giejz0
tes
783名無しさん@お腹いっぱい。
垢版 |
2021/10/10(日) 15:13:22.48ID:NeUk8CB/0
ちょっと教えてください。
ページングファイルの設定をしたいと思っています。物理メモリは16GBです。
最新版のDFLやろうとする時、メモリは物理メモリと合わせて何GB位必要でしょうか?
2021/10/10(日) 20:58:22.40ID:AQWawAiP0
大型アップデートきたな
今度の「-t」優秀すぎw
めっちゃ似る
785名無しさん@お腹いっぱい。
垢版 |
2021/10/10(日) 21:04:52.66ID:GZfIclNl0
model作り直しだから試すの躊躇するわ
すぐ互換性ない更新くるかもしれないし
2021/10/10(日) 21:07:31.76ID:rJMFfw/50
-tおしえて
2021/10/10(日) 21:09:15.62ID:xq7l3EOI0
liaeでも従来のDF以上にSRC寄りになるぞ
つまり今までのliaeのデメリットがなくなった
2021/10/10(日) 22:49:02.51ID:rJMFfw/50
アプデで精度は上がってるけど速度は遅くなった感じ
2021/10/11(月) 19:21:53.50ID:AOwR4ko90
liae-udtで良いの?
2021/10/11(月) 19:22:47.35ID:2ZCNXDFp0
いいよ
2021/10/11(月) 19:44:33.24ID:AOwR4ko90
1日動かしてみたけどliae-udとほぼ同じものが出来上がるけど
めっちゃ似るとか嘘だな
792名無しさん@お腹いっぱい。
垢版 |
2021/10/11(月) 21:29:02.29ID:/PyS8Pa+0
10/09版取り下げられてるな
2021/10/11(月) 21:39:37.78ID:+iZKVD7V0
udt だったか、df-tでやったら進まなくて詰んでたから、助かった。
さて-tのめっちゃ似るに期待!
2021/10/11(月) 22:23:11.57ID:AOwR4ko90
10/11のが出たんだな
この辺まだ紆余曲折しそう
2021/10/11(月) 23:18:32.24ID:f/D/po3t0
gpuが使用できないcudaの不具合があったからその更新だな
githubのissuesに書かれてるけどcuda11.4.2をダウンロードして
cudaの.dllファイルを全部交換したら1009verで普通に動かせる
0906verの3060でliae-udだとres416 lrd offバッチ4 lrd onバッチ2が限界だったけど
udtだとvram使用量が2gbくらい減ってoffバッチ6 onバッチ4まで上げられるようになったわ
2021/10/12(火) 18:33:31.09ID:mmqqB7Re0
解像度256まで上げたら
ae_dims、e_dims、d_dimsはそれぞれどの程度上げたらいいんだろ
2021/10/12(火) 22:38:20.80ID:G4uj4U3k0
-tでやってもまなふぃ可愛くならないんですけど
2021/10/13(水) 00:26:38.58ID:pay0X7A50
出来の差はまだ分からないけどtつけたらたしかにVRAM使用量減るね
バッチ6で回してたとこ8で回るようになった
2021/10/13(水) 00:31:37.97ID:+Xfq7PHn0
colabでfaceset.pakの作り方が分からなくて、検索してやっと分かった

後知恵だけど、Windows版のバッチファイルが入ってるフォルダを
調べたら、そこにそれ用のファイルがあったw
2021/10/13(水) 01:35:07.05ID:DszooqEo0
ようやく使えそうなGPU手に入れた
今日から電気代気にせず回すからお前らよろしくな!!
で、何から始めたらいいんだ?
2021/10/13(水) 09:28:15.07ID:oiz+LdOd0
最新バージョンでtrain中はGPUだけでなくCPUも60%ほど使ってないかい?
自分の環境だけなぁ。
2021/10/13(水) 09:34:38.91ID:pay0X7A50
>>798
8どころか10でも行けた
VRAM使用量は変わらないな
res上げてやり直そうかな

>>801
自分のとこは50パー
前はこんな使ってなかった気がする
2021/10/13(水) 20:18:20.17ID:4PtWVzcN0
-tだけじゃなくて地味に-cも一緒に追加されてたから
liae udtとudtcで同じ設定で回してるけどvramも変化しないし違いが分からん
ディスコでも説明してないし大きな変更はないのかな
2021/10/13(水) 23:48:36.14ID:pay0X7A50
t結構いい感じかも
cなんてあるのか
2021/10/13(水) 23:53:58.35ID:oubWrE110
何をやってるのかは分からないけど一応tは似るって触れ込みなんだよな
2021/10/14(木) 00:54:26.22ID:yjPS7HZp0
udとudtで全く同じ条件で比較してないから曖昧だけど
tは確かにsrcに寄せられるみたいでsrcとほぼ同じ顔が作れたから良いと思う
cはディスコでも1人しか触れてないし皆スルーしてるから謎すぎる
2021/10/14(木) 18:54:57.29ID:F9O4hq0o0
>>797
・AMP UDT 比較
https://i.imgur.com/22MQDsS.jpg

AMPの場合パーツ相性はそこそこで輪郭と髪型重視でdst選びの幅が広がった
AMPはsrc-srcの学習をしてからinter_dst.npyを削除してsrc-dstの学習再開
似ないなと思ったらとりあえずinter_dst.npy削除
2021/10/15(金) 17:28:08.51ID:b19BNwoI0
Pretrain用のオリジナルfaceset.pakを作るときの画像はマスク済の画像を使うべきでしょうか?
2021/10/16(土) 21:40:36.44ID:TAblnYtg0
liaeって視線の方向がちゃんと合ってて良かったのにliae-udtはド下手になってる
810名無しさん@お腹いっぱい。
垢版 |
2021/10/17(日) 21:30:13.26ID:+PIDJ2ha0
今更な質問なのは百も承知なのですがランダムワープってどういう仕組み、効果なのでしょうか?
811名無しさん@お腹いっぱい。
垢版 |
2021/10/17(日) 21:34:53.96ID:+PIDJ2ha0
マニュアルでさらなる精密さが欲しければ外してとありますが外してtrainしたらそもそも最初にランダムワープでtrainする意味ってないと思うのですが違いますか?
2021/10/17(日) 21:44:03.87ID:awoVRcnP0
randomで大雑把にtrainしてからオフにして精密にtrainすると速いぐらいの感じ
ずっとオンだとぼやけたまんまだし最初からオフだとすげー時間かかるのに似ないと思う
813名無しさん@お腹いっぱい。
垢版 |
2021/10/17(日) 21:52:29.70ID:+PIDJ2ha0
>>812
ありがとうございます。
最初からオフだと似ないっていうのがいまいち実感出来ないのですがそうなのでしょうかね
2021/10/18(月) 00:06:26.08ID:L2yMKhe30
多分 Xseg Train のプレビューで顔画像をグニャグニャ曲げて train してるのと同じことしてるんじゃないかな?
少ないalignedでも効率良く学習できるよう変形を加えてる?
2021/10/18(月) 00:48:24.55ID:32ja+T1Y0
原理は俺も全然わかんないけど
最初はランダムワープありでバッチ少なめ、最後はランダムワープ無しでバッチ最大限、って作者が言ってたことを公式のように覚えてる
2021/10/20(水) 08:21:39.29ID:M0OaL8pY0
>>815
あらためて復習になる。
サンクス。
2021/10/30(土) 16:37:59.93ID:RejQUWcQ0
ここ4,5日ぐらいcolab proがT4しか使えない
ずっとP100使えてたから反動かもしれんが
2021/10/30(土) 20:22:51.63ID:TKKHaE6j0
>>817
自分もColab Proで2〜3週間前にT4が1週間ほど続いた
今はP100に戻ってる
ユーザーによって?使用量によって?違うのか
2021/10/31(日) 19:29:54.15ID:0gV4QXTe0
すみません
DSTのAV探しに苦慮してます。
なんかいい探し方ありますでしょうか。
DFにあうので
2021/11/01(月) 06:24:44.79ID:TJEam9ub0
>>819
自作するといいよ
2021/11/01(月) 14:20:20.40ID:98K+vmyc0
>>819
AVの使えそうなシーンだけ編集で切り取ればいいんじゃないか
822名無しさん@お腹いっぱい。
垢版 |
2021/11/01(月) 20:01:15.01ID:VUCB/2br0
今geforceのRTX2070superを使っていますが、3060ってのはメモリーがすごく大きいみたいなので、DFL用途であればこっちの方がいいのかと思ったりしています。
今解像度256でバッチ4でやってますが、もっと解像度があげれるとかそういうメリットあるんでしょうか?
2021/11/02(火) 10:15:34.18ID:XQluit7L0
あると思いますよ 自分はwfなら res384 バッチ16 headなら res512 バッチ12
でやってます。3090です。
2021/11/02(火) 10:17:56.96ID:XQluit7L0
すいません、headの所、まちがえました。訂正します
headならres448 でバッチ12でした。
2021/11/02(火) 12:57:10.34ID:xjxVUhHW0
二重あごの女優多すぎ
痩せろや!と思う
2021/11/02(火) 13:28:00.70ID:HsOgxce80
3060だとliae-udt,wf,res416,バッチ4で900msくらいで動かせるよ
827名無しさん@お腹いっぱい。
垢版 |
2021/11/02(火) 17:40:56.44ID:OXdutDgI0
SRCを高画質化したいけど、GPEN等導入する知識がないのでソフト買おうかなと思ってます。
@VideoEnhanceAI AgigapixelAI BsharpenAIのうちどれを買えば良い? もしくはその他?
全部無料版で試してみるべきとこだが、せかしてくる息子がおりまして。画像は512PIXで考えてます。
828名無しさん@お腹いっぱい。
垢版 |
2021/11/02(火) 18:27:50.31ID:vgm3mzfv0
3060いいですね。
やっぱこの用途だけしかやらないなら、メモリー量が正義なんですかねえ。
ぶっちゃけ一切ゲームやらないし、買ってみようかなあ。
2021/11/02(火) 19:02:48.76ID:HsOgxce80
価格2倍以上の3080よりも3060の方が設定上げられるし
2070s売って3060買えばほとんど差額無しで買えると思うしDF用ならベスト
830名無しさん@お腹いっぱい。
垢版 |
2021/11/04(木) 19:31:23.57ID:/63pgaRf0
自分3060ti使ってて一番新しい3000シリーズダウンロードしたんだけどこれcuda入ってます?
なんかトレーニング中にタスクマネージャーみたらgpuの3dがめっちゃ動いててcuda項目がないし、変だと思ってググってみてもcudaはdflのフォルダ内に入ってるとから別途でダウンロードする必要ないって書いてあってよく分らんのですが
2021/11/04(木) 20:26:29.60ID:OODjFfiY0
Win純正のタスクマネージャーが無能なだけだから心配いらないよ
832名無しさん@お腹いっぱい。
垢版 |
2021/11/05(金) 10:54:19.53ID:pzWDqP6M0
GTX1080Ti使ってますが、RTX3060に買い換えるメリットあるでしょうか?
メモリ1GBしか変わらないので、どうなんだろう・・と。
2021/11/05(金) 11:42:39.68ID:XqRKISi90
cudaコア数も同じでゲーム時とかの性能もレイトレーシングとか除けば
ほとんど変わらないから1080tiで良いと思う
本当かまだ分からないけど1月中旬に出ると噂されてる3070Ti 16GB版待ちだな
2021/11/05(金) 20:54:40.08ID:pzWDqP6M0
最近ほとんどゲームもしないのでRTXにする意味はなさそうですね。
もうしばらく1080Tiで行くことにします。
ありがとうございました。
2021/11/10(水) 18:27:38.45ID:dZzM7reK0
>>834
今更だけどこういう考え方も。

3060ならtensorcoreが乗ってるから多少速い。
1080tiは流石にいつ壊れるかわからない経年劣化が予想される。だがヤフオクで高く売れる。
1080tiをヤフオクで手放して、3060を新品で買えば、気持ち速いグラボが新品で手に入る。
自分は1080放流して3060を買った。
爆速にはならないけどコイル鳴きが無くなったのでそれなりに満足してます。
836名無しさん@お腹いっぱい。
垢版 |
2021/11/20(土) 22:00:23.95ID:KXLxwqyy0
>>819
ttp://erodougazo.com/actress/

広告多いのが玉に傷だけど、身長、スリーサイズ、年齢でマイナーな女優まで探せる。
サイズ=骨格が近いと顔も似やすい。
837sage
垢版 |
2021/11/21(日) 03:30:16.13ID:tuT3JfQN0
今年8月ぐらいのバージョンから10月21日の奴にDFLを更新したんだけど、train SAEHDでモデルの読み込みが終わった瞬間に”Pythonが動作を停止しました”で
止まるから原因を探ろうとしてるんだけどDFLの動いてるコンソール側に何もエラーログを吐かないからどうしたもんかと頭抱えてる
Quick96だと何故か動くからドライバ周りが臭いとは思うんだけどなんか要求要項に変更入ったりした?
2021/11/21(日) 03:31:04.60ID:tuT3JfQN0
sageる所入れ違えてたわすまん
2021/11/21(日) 09:20:06.84ID:2QWYIZCa0
うちは「color transfer for src faceset」をnone以外にすると同じような症状になる
他のbatch size等の組み合わせでエラーメッセージが出なかったり、MemoryErrorやスタックトレースが出たりもする
Colabなら問題なくTrain始まるんだけど・・・
2021/11/21(日) 12:04:05.45ID:tuT3JfQN0
昨晩新しいのが出てたから一旦完全にまっさらな状態で一切数値を弄らずサンプル使って動くか試したけどやっぱり駄目だった
今度は設定値まで読み込まれたけどもStarting. Press "Enter" to stop training and save model.が表示された直後に落ちる
>>839
color transfer一通り試したけど変化が無かったからこうなるとPythonかCUDAの問題なのかね
841名無しさん@お腹いっぱい。
垢版 |
2021/11/21(日) 13:47:58.25ID:14puFHte0
俺も同様だった。
で、何やってもダメなRTX3000シリーズのビルドは諦めて、directx 12版を使ったら動いた。

まぁ、直ぐに更新されてモデルも作り直しだろうし動く方を使ってる。
2021/11/21(日) 14:25:46.15ID:crt1xHSg0
公式discordのロシア語の方のbatch-sizeチャンネルでnvidiaドライバーを更新したら
同じようにトレーニング開始直前で落ちるようになったって人がいるけど
過去のドライバーを入れ直したら解決したっぽいな
ロシア語だからDeepL翻訳使っても翻訳が曖昧だしgame ready版かstudio版なのかも分からんけど
とりあえず何パターンか過去のドライバー試しみれば直るかも
2021/11/22(月) 21:29:06.74ID:LCTTs2ZW0
昔のDFLに入ってるCUDA関連のファイル持ってきたら動いたりするよ
2021/11/23(火) 14:51:08.80ID:Yose+IY/0
他にも同様の症状の人いるんやな。ちょっと安心したわ。
とりあえず色々ドライバ変えて試してみる
2021/11/23(火) 15:21:38.72ID:Yose+IY/0
9月までドライバ戻したら無事動いたわ
846名無しさん@お腹いっぱい。
垢版 |
2021/11/24(水) 14:38:56.37ID:rsRm00hg0
ダヴィンチ・リゾルブのスタジオ版導入したんだが、
DFL使用時のRTX3060のメモリが12g→10.45gに目減りするね。
(ダヴィンチ起動してなくても。)

ビデオメモリーの予約?なのか,DFLで10.45gで表示されててもWindowsのタスクマネージャーでは12g使ってる。

顔射モノを作るのは本当に楽になったが、メモリーが一割減るのは結構痛いね。
2021/11/28(日) 11:50:40.81ID:+QRM8Ih+0
256x256のsrcを一気に高画質化できる方法ないですよね
2021/11/28(日) 12:17:38.37ID:bknd1NKC0
高画質な元動画を探すのはどうでしょう
2021/11/28(日) 13:21:22.02ID:jmhp1MNN0
>>847
GPENが近道かと。
2021/11/28(日) 17:43:52.31ID:+QRM8Ih+0
>>849
できた!
ありがとう
851名無しさん@お腹いっぱい。
垢版 |
2021/11/29(月) 12:42:20.72ID:SpYvlTIx0
rtx2060なんだけど普通のビルドDLでいいの?
2021/11/29(月) 18:39:28.18ID:Va0I15xE0
普通ってどれだ
853名無しさん@お腹いっぱい。
垢版 |
2021/11/30(火) 16:32:45.36ID:5RgpTB3P0
最初に入ってるお試し用の動画って、かなり短時間でクオリティ高いのが作れるけど
モデルがあってたらあんな短時間でいけるん?
854名無しさん@お腹いっぱい。
垢版 |
2021/11/30(火) 17:17:20.07ID:uAvNaFgU0
modelの育て方次第やね。

学習させる女優さんなりアイドルなりの画像を様々な画角から被りなく3000枚〜とか集めて、
しっかりと学習させておけば、そこからは速い。

ただ、最初の学習の速さも仕上がる速さも、グラボのスペックと素材の解像度によって雲泥。
環境にお金かけるほど、処理の重い高画質な方向に移行するから、結局、みんな時間はかけてると思う。
855名無しさん@お腹いっぱい。
垢版 |
2021/12/02(木) 20:37:12.31ID:5V9jPkGy0
例えば素材が正面メインでちょっと角度変えただけの画像ばかりはマジで学習が遅い

これが、ガチで色々な角度(正面、後ろに振り替える、ほぼ真上から、ほぼ真下まで)を均等に含むと
あっというまに精度よく出来上がる

普通の人はこういう角度ってほとんど存在しない(騎乗位の角度や正常位の角度で顔を見るのはほぼない)けどここの素材探しに妥協するほどきつくなる


後は輪郭や髪型等が似てれば1晩でほぼ完成するよ
2021/12/05(日) 13:17:12.91ID:4PMtcFCH0
ローカルマシンでGPEN導入したいけど、なかなか的確に解説してるサイト無いね。
2021/12/05(日) 14:02:58.76ID:MNlpXza50
ここで紹介する人も不親切だしね
2021/12/05(日) 17:13:31.64ID:4PMtcFCH0
>>857
流石にそれは思った事ないよ…
2021/12/05(日) 21:45:39.52ID:WF6hbhh00
https://www.xn--dckci7a6hqdn90a.jp/archives/10279517.html
860名無しさん@お腹いっぱい。
垢版 |
2021/12/06(月) 09:31:32.11ID:7TQp3gMa0
なんかtrain開いても最後press any key to continueになって始まらなくなったんですけどとうしたんですかね
調べたらcuda関係...?
2021/12/06(月) 11:45:08.71ID:7LrEe5hm0
>>859
これをローカルマシンで走らせたいのよ。
Google コラボではなくてさ。
2021/12/06(月) 12:11:47.47ID:tn9GF6V80
githubにGPEN-windows来てたよ

1) install_dependences.bat実行で20GBほど使うので注意
face_enhancement.pyの136行目のinput/outputフォルダを確認か変更
2) start_gpen.batの実行で高精細化
dflイメージはそのままdflイメージとして使える

とまあとりあえずの使い方なんだけど、うちの環境(win11 RTX3090)だと
2) start_gpen.batだけがうまく動作しない
もし他にも動かない人がいれば修正方法を書いとく
2021/12/06(月) 12:38:01.33ID:7LrEe5hm0
>>862
お!
どうもありがとう。
早速試してみます。
2021/12/06(月) 22:42:41.17ID:7LrEe5hm0
>>862
ダメでした。
3060で動かず…コードとか難しいなぁ…。
2021/12/08(水) 18:04:03.28ID:6zggqNLQ0
まったく動かないって話なら俺にはわからない
GPEN化せずに元画像がそのままoutputフォルダに出力される人は以下を試して

■face_enhancement.py 170行目から
#Optional
# im = cv2.resize(im, (0, 0), fx=1, fy=1)

img, orig_faces, enhanced_faces = faceenhancer.process(im)



#Optional
im = cv2.resize(im, (0, 0), fx=2, fy=2)

img, orig_faces, enhanced_faces = faceenhancer.process(im)

img = cv2.resize(img, (0,0), fx=0.5, fy=0.5)
866名無しさん@お腹いっぱい。
垢版 |
2021/12/08(水) 21:15:46.72ID:FrfC+Ijp0
昔誰かが書いてたけど、学習中のプレビュー画像って大きいサイズで出力できないの?プレビュー画像をソースにできたらかなり良さそう。
2021/12/08(水) 21:33:57.22ID:Wkwdxakh0
>>865
3060ユーザーで俺もDFLで抽出したaligned画像だけ変換されなかったけどこれでいけたわサンクス
マージした画像とかそのまま入れても自動で顔認識して更にGPENできるし良いわ

ちなみに元画像のファイル名に一文字でも日本語が含まれてると
問答無用でerrorが表示される仕様みたいなんだけどコード書けばすぐ直せるのかな?
適当に英数字オンリーのファイル名にリネームすれば動くから大変ならこれで良いけども
2021/12/10(金) 13:49:10.08ID:I54Pkngo0
>>867
一番最初のバッチでインストール失敗しない?
2021/12/10(金) 14:17:44.90ID:B2zxNIS90
>>868
githubのissuesでも報告されてないし何の問題も無く一発でインストールできたから
rarの解凍とかからやり直してもインストールできなかったら俺には分からんなぁ
2021/12/16(木) 12:48:47.66ID:1kEL9Exo0
3060 12G使用で、aedims384のWFだと、res192でしか動かないなー
davinci 入れてから?dflのVRAMが9GBくらいで表示されてるがそれも影響しているのかな
2021/12/19(日) 03:01:16.78ID:Pconil9L0
>>870
dflはそもそもvramフルでは使わないと思うよ
2021/12/19(日) 11:29:06.07ID:t5yWPrKb0
海外のフォーラムでもよく質問されてるけどdflのvram表示は実際に使用できる数値と違うから無視で良い
タスクマネージャー開いてパフォーマンスタブのGPUを確認すれば分かるけど
俺の3060は限界まで設定上げてdfl起動すると専用GPUメモリが11.8GB位で共有GPUメモリも2GB位使ってる
dimsもホクロとか細部の学習に大事だけどres低いと顔のドットが目立って違和感しかないからres最優先してるわ
2021/12/25(土) 19:54:14.85ID:Ht1fNKNu0
pretrainやり方についてわかりやすく説明してる日本語サイトってありますか?やり方よくわからん
2021/12/26(日) 07:55:41.81ID:XyFoXeUf0
日本のサイトってあんまりないよね
海外のサイトをグーグル翻訳して探すほうが楽だと思う
2021/12/26(日) 20:53:21.78ID:xjsdO3Hi0
>>874
ありがとうございます

頑張ってGoogle翻訳でみます
2021/12/27(月) 00:41:38.14ID:W1bjTLuS0
res256とres320って違いでます?3080で回すときres320でギリでした。今までres256でしたがちょっと解像度あげてみようかなと思案中です。
2021/12/27(月) 00:56:32.89ID:+4noIjVB0
抜ければ何でも良いんだよ
2021/12/27(月) 04:41:42.55ID:pLisgeUK0
dstによるだろ
2021/12/30(木) 16:24:37.06ID:ec7+Lk140
デビューしたけどこれって学習時にdst必要なんだな...
って思ったけど、これあくまでプレビュー用に必要なだけ??
880名無しさん@お腹いっぱい。
垢版 |
2021/12/30(木) 16:27:28.61ID:ec7+Lk140
学習で作られるモデルってsrcに依存するのはいいとしてdstにも依存してるんでしょうか??
881名無しさん@お腹いっぱい。
垢版 |
2021/12/30(木) 20:55:57.46ID:rfUapu/o0
普通にググってこい。
2021/12/31(金) 09:19:47.55ID:mlnKev650
>>879
dstが大量に必要なのはsrc学習時のニューラルネットワーク形成時に加算処理をするための参考情報として必要なのと、予想通りプレビュー用に用いられる為。
だからsrcは様々な素材があった方が学習が速く、dstにも様々な顔が有った方が学習が速いのは事実。
あと、GPUばっかり重視されるけどCPUやメモリも使われてるから出来るだけ高性能なCPUを積んでメモリも出来るだけ拡張した方がいい。処理が加速される。
2021/12/31(金) 10:22:13.61ID:GJyniFHS0
聞いてねえよ
2021/12/31(金) 10:33:05.75ID:CQPs86l/0
初心者です
縦笛時のXSeg Genericってsrcとdstの両方にかけるのでしょうか?
2021/12/31(金) 11:11:05.55ID:GJyniFHS0
笛関係なく両方にかける
2021/12/31(金) 11:16:40.65ID:2b2uynRc0
>>882
eyes mouth priorityをかけても
眼球があらぬ方向を向いてしまうのだが
これもdstの問題でしょうか
randomwarp中にeyes mouthかけると駄目とかありますかね
2021/12/31(金) 15:53:15.02ID:Ym7jaWSV0
>>882
ありがとうございます
当方、いいGPUもってないので学習だけcolabでやろうと思ってました
でいきなりムフフなdstではやりませんが、学習時にdstをextractしてなかったらエラー出たので

とりあえずcolabで学習実験し始めたので遊んで見ようと思います
2022/01/01(土) 08:35:57.73ID:RMYOJESg0
train開始時にsrcとdstのLoading samplesが終わった後「続行するには何かキーを押してください」が表示されて止まるようになってしまった。
別のworkspace使っても変わらずで困っています。
2022/01/01(土) 18:48:58.70ID:1b3PUI8a0
colabでtrain中のsaveってどうやるの
Enter押しても何も起こらない
2022/01/02(日) 01:15:19.95ID:pLuoI4A/0
deepfacelabの最新11月版ですが今までいけた設定でもtrain時にエラーで回りません。GPUは3080でres256batch8でエラーになります。新たに設定など必要なのでしょうか?ちなみに前までは2020.7月版でした。
2022/01/02(日) 14:44:31.73ID:7l9A7CgM0
>>883
友達いなさそうだね。笑
892名無しさん@お腹いっぱい。
垢版 |
2022/01/02(日) 14:47:22.65ID:b+bQtfQv0
日記発狂中
893名無しさん@お腹いっぱい。
垢版 |
2022/01/02(日) 20:02:20.32ID:gGIMOkqb0
SAE -t を全く同じ dst 素材で試し中。
結果報告するよ。
2022/01/03(月) 02:43:27.52ID:Zq3c9rkl0
tオプション一応使ってるけど何にも変わってない気がするよね
視線が合いづらくなってるなと思うぐらい
2022/01/03(月) 02:47:55.60ID:Zq3c9rkl0
>>890
バージョン上げたら何かがおかしくなるのは、いつものことだと思うし
無理しないで以前のバージョンを使うかバッチを下げるかだな
俺は11月バージョンちゃんと動かなかったから10月のを使ってる
2022/01/03(月) 11:06:30.84ID:5Ip/Zxcg0
どんなエラーだったか覚えてないけど
dflのあるドライブのページングファイルを設定したら安定したことがあった
897名無しさん@お腹いっぱい。
垢版 |
2022/01/03(月) 11:35:52.29ID:y/zQ0hnr0
liae-ud から liae-udt にしたら batch 3 だったのが 8 で回るようになった。
(RTX2080 rez 192)
898名無しさん@お腹いっぱい。
垢版 |
2022/01/03(月) 12:03:17.42ID:y/zQ0hnr0
連投すまんが、batch 16 でも動いた。
こんなに batch 上げたことなかったけど、少 batch の時より似ていくスピードが早い気がする。
これがある意味 -t の効果なのかも。
2022/01/03(月) 21:19:32.01ID:Zq3c9rkl0
それ-udでも16で回ると思うし、3は少なすぎで何か間違ってるんじゃないかな
2022/01/03(月) 22:03:40.39ID:SjPqIlYq0
dims上げすぎか?
901名無しさん@お腹いっぱい。
垢版 |
2022/01/04(火) 01:06:26.48ID:qaUq+uoL0
結構古いVerのDFLを使ってて更新したからかな?以前のは重かった。
2022/01/04(火) 20:30:15.74ID:9YBKEDFN0
フォーラムにあるpretrainデータの流用のやり方って

1.アップされてるmodelデータをダウンロードして、作業フォルダーのmodelの中にコピー
2.そのデータをEnable pretraining modeを『n』に変えてtrain

であってます?
903名無しさん@お腹いっぱい。
垢版 |
2022/01/04(火) 22:20:31.48ID:MBys4NSV0
0からのスタートみたいに見えるから不安になるけど、それで合ってる
2022/01/05(水) 21:22:10.94ID:wvXGDXAF0
VR用の左右2人映っている画面でmanual extract( data_dst faceset MANUAL RE-EXTRACT DELETED ALIGNED_DEBUGdst )
で 手動で顔抽出したいときに左側の顔の調整が済んで 左クリックおして 一旦確定、
右側の顔を調整したいときはどうすればいいのでしょうか?
左側だけで 左クリックのあと ENTERを押すと
次のフレームに行ってしまうのですが、一画面で、2人手動抽出するやり方は
ないのでしょうか?
2022/01/05(水) 23:53:20.43ID:21OuJmak0
無い
面倒でも2つに分けるべき
2022/01/06(木) 02:12:42.53ID:P4HaLcsF0
>>903
あざす!

>>905
VRなんて2画面で一気にやっちゃうけどなあ。たまに顔がチラチラするけど気にしない。

みんなそんな完璧目指してるの?
1つ作るのに何時間かけるのよ
2022/01/06(木) 07:27:45.18ID:PBHAwCGR0
>>905
ありがとうございます

たまにチラチラする程度ならいいんだけど
結構失敗してる割合が高いので
面倒だけど1画面ずつやるかあ
headを使ってるせいかもしれませんが。
まあもうちょっと顔抽出の精度は上げてほしい
2022/01/06(木) 22:35:44.55ID:hoLEuXjZ0
VRを分けるのは正直全く面倒じゃない
DFLにやらせないでバッチファイルでffmpegにやらせる
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:0:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\l_%%05d.jpg"
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:in_w/2:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\r_%%05d.jpg"
2022/01/07(金) 17:08:34.56ID:I74S7yAb0
aedims512で他dimsデフォでやってるが
dstの目が半開きの時にどうしても視線がヤバくなるなあ
トレイン不足ではないと思うが…
encoderもしくはdecoder dimsの増減で改善したりするかな、どういうパラメータかすら把握してないけども
910名無しさん@お腹いっぱい。
垢版 |
2022/01/07(金) 17:49:36.86ID:bNjCrjCp0
写真からそこそこのやつ出来た人って写真何枚で出来た?
2022/01/07(金) 18:57:29.55ID:14vNCetC0
視線はLIAEだと意外とまともになったりするね
2022/01/07(金) 21:58:41.73ID:EGw3TzjO0
>>909
グラボは3090?

ちなみにresあげるのとaedimsあげるのどちらがいいものなの?

自分は3080だけど初期値からあげる場合はそのどちらかしか無理なのでres320にしてるけど、よくスレでaedims上げるという話を聞くので
2022/01/07(金) 23:07:31.32ID:mbYzsz2X0
マージした画像GPENするのもいいよ
鮮明で顔が浮くかもだけど
https://i.imgur.com/XBGuvQK.jpg
2022/01/07(金) 23:38:46.37ID:EGw3TzjO0
>>913
GPEN便利だけど一回で800枚から1000枚くらいしか変換できなくて困る。30000枚とかあるとき時間かかりすぎる。一気にできる方法とかあるの?
2022/01/08(土) 01:15:20.60ID:fqK5BClX0
>>914
GPEN-windows使ってます
2分3分で場面分割してやってて、多くて5000ちょっとだけど大丈夫でした
2022/01/08(土) 09:55:17.78ID:zRIQetXm0
>>913
それイテレーションどれくらいなん??
始めたばかりだと目安が全く途中で心折れるw
917名無しさん@お腹いっぱい。
垢版 |
2022/01/08(土) 09:56:06.90ID:zRIQetXm0
*目安が全くなく途中で
2022/01/08(土) 10:52:10.12ID:yL5Crg0k0
>>912
グラボは3060の12Gです
aedimsを上げたほうが表情がよりdstに近くなる気がしますね
resは上げるとクッキリします
2022/01/08(土) 12:50:31.94ID:ximUJlyv0
>>915
それってソフトウェアですか?みた感じ無さそう。

>>918
自分は解像度が気になるのでres上げで引き続きやってみようかなと思います
2022/01/08(土) 13:23:41.68ID:fqK5BClX0
>>916
元facesetと作ったfacesetでpretrain130万くらいのモデルでdst複数人やってて60〜70万くらい。liae-udt,res256
難しい角度や表情はなくて主に正面とかです

>>919
ここのGPEN-windowsのところGoogleドライブからDLです
https://github.com/yangxy/GPEN
2022/01/08(土) 13:41:51.97ID:zRIQetXm0
>>920
ありがとう
60万か
途中でめげちゃ駄目ってことか
2022/01/08(土) 16:03:54.56ID:dctlSj140
res416でもpretrainモデル使ってdstがほぼ正面なら10万も回せば元のsrcとほぼ同じレベルまで仕上がるよ
モデルDLして劇的に時短するためにMrの無料会員登録は必須
GPENwin版も使って全srcを超解像すれば解像度もかなり上がるしパーツがはっきりするおかげで学習も早くできる
2022/01/08(土) 19:13:48.28ID:PFAljBMq0
extract MANUALで一度に一枚の画像に複数顔指定すること出来る?
924名無しさん@お腹いっぱい。
垢版 |
2022/01/08(土) 19:45:42.91ID:Qu2qqzcX0
諦めろん
2022/01/09(日) 00:04:36.22ID:PYkRpVCm0
>>920
GPENの件ですが落としたら_internalのファイルが入ってましたがこれをdeepfacelab内に上書きして何かを実行する感じです?やり方がよくわからない…
2022/01/09(日) 21:31:10.86ID:8+NXdDiz0
>>925
readmeに書いてある通りに
Install or update GPEN.batそれからinstall_dependences.bat
モデルをダウンロードしてweightsフォルダに入れる
start_gpen.batを編集でフォルダ指定して上書き保存
例えばalignedをgpenのinputに持ってきて高画質にする場合
--use_cuda --indir input/aligned --outdir results/aligned
GPENやる前にmetadataをsaveして!
難しいこと分からんからこれでやってます
2022/01/10(月) 02:14:21.61ID:uaoPGD0B0
>>926
ご丁寧にあざす!とりあえず指示通りにやってみたけどweightsフォルダが出ないですね。とりあえずまたいじってみます!

3080だと制限多いから3090欲しいわ〜、誰か新品20万で売ってくれい
2022/01/10(月) 02:46:28.67ID:5/hQ2rxT0
GPENwin版はDFLも考慮してるから
元のColab版で必要だったmetadataのsaveとrestoreしなくてもそのままDFLで使えるよ

GPEN頻繁に更新されてて結構仕様変わるけど
最新バージョンだとweightsが無い場合はstart_gpen.bat起動したら
勝手に必要なモデルのインストールしてくれた気がする
929名無しさん@お腹いっぱい。
垢版 |
2022/01/12(水) 21:18:55.19ID:T5+DOFO60
https://github.com/iperov/DeepFaceLab/issues/5456
と同じ症状なのですが結局どう直せばよいのでしょうか?
翻訳でニュアンスしかわかりません。
2022/01/13(木) 00:06:10.44ID:rhl1uI840
udtみんな似る似る言うけどこれdstに寄っている印象あるわ
931名無しさん@お腹いっぱい。
垢版 |
2022/01/13(木) 20:24:35.17ID:IcpCxY8C0
udt を1700k 回したが、同じ dst で ud と比べ udt の方が似てるなと思った。
まだ 経過途中なので 2500k くらい回ったときにまた報告するよ。
932名無しさん@お腹いっぱい。
垢版 |
2022/01/18(火) 20:05:29.00ID:/Mv54Db00
SRC画像のバラバラの色調をできるだけ統一したいのですが、皆さんはどうやっていますか?
お勧めの方法はどんなもんでしょう?
933名無しさん@お腹いっぱい。
垢版 |
2022/01/18(火) 23:59:28.96ID:cI2eC2Zf0
自分でpythonツール書いてる
2022/01/19(水) 00:13:56.88ID:jLGUt7Aq0
>>932
統一しなくても大丈夫じゃね?気にしたことないわ
2022/01/19(水) 11:42:42.77ID:jLGUt7Aq0
いまメインのSSD1TB内に場所作って色々遊んでますが、複数作ってるとすぐ容量いっぱいになる。なので新たに6TBくらいのHDD購入してそっちで場所作ってやろうと思いますが、やる場所としてSSDとHDDでなんか違いはあります?

学習スピードは特に関係ないという話ですが、他に機械学習ならSSDの方が向いてるとか、HDDは劣化速度が速くなるからやめた方がいいとか。
2022/01/19(水) 18:37:11.19ID:glojK9ZZ0
トレイン中はオンメモリだからあんま関係ないだろうね
937名無しさん@お腹いっぱい。
垢版 |
2022/01/19(水) 21:31:37.71ID:nHNCvCq10
メモリ128GB搭載してRAMディスク作ってやってる。まあ、容量の見込みが甘かった人的ミスを除き、落ちることは今のところないな。ヒストリーと記録しない方式なら困らない。
2022/01/20(木) 12:36:12.04ID:V6H9UWTc0
HDDにするとトレイン開始は遅くなると思います
2022/01/20(木) 20:22:26.12ID:N8G5akzi0
あまりHDDは向かないんですかね?個人的にはHDD常に動かす感じになるのかなと思うので劣化するの早くなるとかが心配ですね
2022/01/20(木) 23:31:09.76ID:uSuOZywc0
HDDで運用してるけど
別に変わらないよ
2022/01/21(金) 23:45:34.94ID:iu6Eiy0s0
初心者の質問で申し訳ないのですが3090使ってる方trainの設定どのくらいにしてますか?

facetype f
liae-u
rct
ae_dms 512
バッチサイズ 4
くらいでやろうと思ってたんですがresolution360くらいまで落としても全然動いてくれません
res128とdms256での動作は確認済みです

全体スペックは以下です
cpu5950X
gpu3090
メモリ32G
2022/01/22(土) 00:07:16.58ID:Qh9dXPVa0
3090です
facetype head
res 448
liae-udt
ae-dims 256
バッチサイズは 8
前のは 12で余裕で動いていたのに最新のだと
10でもたまにとまるから8にしている
-tのせいか、ビルドのせいかはわからないけど。
943名無しさん@お腹いっぱい。
垢版 |
2022/01/22(土) 06:34:57.72ID:pTSmkJLX0
3090で大体同じ感じでやってます。RAMも32GBです。
仮想メモリはどうですか?自分は16GB割り当てて動いてます。
解決しなかったらすまん。
2022/01/22(土) 08:52:50.97ID:bbQt+6Ab0
>>942
同じ設定にしたんですが出来ませんでした
というかres256dims256ですら動きませんでした
メモリエラーが出て終了するかエラーログすら出ずに急に「終了するには何かキーを…」が出て動いてくれません
最新版と昨年10月のバージョンを試したのですがどちらも同じでした
解凍しただけでは何か不足しているでしょうか

>>943
すみません、詳しくないのでわからないんですけどvram24 ram64(上に書いた32Gは誤りです)じゃメモリ足りないでしょうか
プログラム走ってるときにvram5Gくらい使ったところで強制終了されてます
2022/01/22(土) 11:05:56.01ID:MGmjHTpr0
2060sで設定を見直したりしても最新バージョンだとtrainが始まらないです
2021後半のビルド速度も精度も良くて気に入ってたのに...
2022/01/22(土) 11:14:39.09ID:5S7r+SDB0
>>944
RAMは32もあれば十分だけど仮想メモリは別物だから仮想メモリ 設定でググって変えよう
DFLがインストールされてるドライブのカスタムサイズを選択して初期サイズと最大サイズの欄に
「16384」って入力して「設定」を押せば仮想メモリに16GB割り当てる事になる

それとGPUスケジューリング オンでググってオフになってたらオンに変更

nvidiaのドライバーも最新版の方が学習スピード早くなるみたいだから更新した方が良い
2022/01/22(土) 11:47:48.35ID:5S7r+SDB0
>>945
>>929と同じ状態なら
DeepFaceLab_NVIDIA_up_to_RTX2080Ti\_internal\DeepFaceLab\models\Model_SAEHDフォルダの中の
Model.pyをメモ帳にドラッグして開いて上のタブの「編集」→「検索」
cpu_count = multiprocessing.cpu_count()で検索してこの669行目の部分を
cpu_count = 4 #multiprocessing.cpu_count()って書き換えて上書き保存すれば解決しそう

それでダメなら同じくnvidiaドライバーを最新版にするとかかな
2022/01/22(土) 12:45:00.92ID:Z0ToKj8a0
みんなの数見てると3060でバッチサイズ12って多すぎるんだろうか
2022/01/22(土) 14:01:22.30ID:8hWmlkBw0
resとdimsにも依るからなんとも
2022/01/22(土) 15:04:32.00ID:Z0ToKj8a0
>>949
res256でaedims288かな
2022/01/22(土) 18:29:14.57ID:MGmjHTpr0
>>947
試しましたがダメでしたね〜
前までできてて突然出来なくなったので原因がなかなかわからないです
仕方なくネットに転がってた古いビルドを使ってるのですが
2022/01/22(土) 18:51:45.37ID:FaFJllrG0
src絶望的に少なくてもひたすら学習させてたら意外といけるな
2022/01/22(土) 19:32:27.99ID:ZJHh8eU80
>>951
去年の10月バージョン位から
cudaとcudnnが最新版に更新されたので
そのせいかも
2022/01/22(土) 20:15:01.66ID:MGmjHTpr0
多分そうですね
最新バージョンも10月20日くらいのでしたし
どこかにそれより一個くらい前の無いですかね
2022/01/22(土) 23:42:42.36ID:4GdRKd0m0
>>952
マスク後のsrcの範囲がdstのそれよりも随分狭い素材でひたすらトレインするとどうなるのか検証中
2022/01/22(土) 23:53:04.46ID:y/jFmRFy0
1枚のsrcでも学習しまくったらいけるのかな?
2022/01/23(日) 13:13:17.25ID:nSNr0cTn0
一枚は厳しい
958名無しさん@お腹いっぱい。
垢版 |
2022/01/25(火) 15:21:05.83ID:DLP8u0WD0
srcって少しでも増やすために写真の時期が違ったり、メイク髪型が若干変わってるのは混ぜないほうがいい?
2022/01/25(火) 22:16:00.62ID:MkcO/HSU0
そりゃそうだ
2022/01/25(火) 22:20:46.53ID:DrYsWzI90
でも少なすぎるならそういうのも投入したほうがよくないか
2022/01/28(金) 07:21:13.63ID:ma/2n1If0
src少ないって知り合いかよw
962名無しさん@お腹いっぱい。
垢版 |
2022/01/30(日) 16:09:07.28ID:5vKxJU9r0
>>954
おれも最近同じ症状になったが
NVIDIAドライバ バックナンバー(2021年9月のもの)入れたら治ったわ。
いつものダウンロードページの下のほうにリンクある
2022/02/01(火) 11:43:16.01ID:9FLPjWuq0
初心者なんですが、お面ぽさとか髪の毛かぶりとか、長時間学習させれば改善されてくもんなんでしょうか?それともその辺はちゃんと設定?しないとだめ?
2022/02/01(火) 12:38:01.76ID:RljtO5B+0
お面ぽさや髪はマスクで解消される部分もあり一概に言えませんがあからさまに立体感や表情のないお面なら学習不足ですね

ある程度馴染んでいる状態ならマスクのやり方次第です
2022/02/01(火) 13:02:12.11ID:9FLPjWuq0
ありがとうございます。もうしばらくこのまま回してみます。
2022/02/01(火) 13:13:57.43ID:kalmcF330
どれくらい学習させたかにもよるけどsrcが悪いんじゃない?
2022/02/01(火) 15:43:28.92ID:9FLPjWuq0
24時間です。たしかにsrcもそんなによくないですね。
とりあえずあまり知らない状態でどのくらいのがつくれるのかやってみてるんだけど、もうこれ以上はよくならないのかどうか。トリアーエズあと一日やってみます。
んで次はfaceswapためします。
2022/02/02(水) 00:22:10.29ID:xykkrSJm0
試すだけ無駄
2022/02/02(水) 00:52:33.23ID:CzNijtxf0
初心者は正面だけとかの簡単なsrcとdstの短時間なやつでやってみ
2022/02/03(木) 01:16:35.30ID:6rAI0BNB0
ちょっと試しというか実験で10枚程度の写真からどれまでできるかやってみたけど5分程度のインタビュー動画までは作れた。
手順は少しだけかかる、とはいってもアプリ一個挟むだけで写真数枚しかない人がべらべら喋る様はなかなかすごい。
これは無限の可能性感じるわ
2022/02/03(木) 03:05:23.33ID:U+/TyCDo0
>>970
少ない枚数から色んな角度を簡単に水増しできたら良いのにな
2022/02/03(木) 07:21:23.34ID:S0T7EvzN0
dstの顔の大きさ合わなくて小顔アプリみたいの欲しい
2022/02/03(木) 22:40:43.69ID:GBd4NeLy0
事前学習をやめて本番の学習をしたいのですがやり方がわかりません
6) train SAEHD.batで [n] Enable pretraining mode ( y/n ?:help ) : y にして
事前学習をしているのですが、そろそろ本番の学習をしようと思い
トレーニングビューでエンターキーを押して終了させて
再び6) train SAEHD.batでモデルとCPUの設定をすると再び事前学習となります
どうすれば事前学習ではなく本番の学習ができるようになるのでしょうか
2022/02/03(木) 22:48:52.73ID:P4ueEL/o0
nにすればいいだけ
その設定が出てこないって話なら最初にpress enter〜みたいな表示が出たときに2秒以内にエンターキー
2022/02/03(木) 23:22:23.44ID:GBd4NeLy0
素早いレスありがとうございます
助かりました
2022/02/04(金) 09:30:21.46ID:R4vSHDv90
GPUを1080TIから買い換え検討中。。
3090と3080Tiで悩んでます。

VRAMの容量以外、それほど性能差が無いような印象なんだけど、
DFLで使うに辺りVRAM24GBのアドバンテージって大きい??
12GBでも十分?

色々調べてみたけど、ゲームでの比較ばかりで、、。
アドバイス下さい。
2022/02/04(金) 09:47:37.18ID:QLhHZqYC0
その二つなら断然3090。やれる事が全然変わる。画質特に拘らずWebにupされているレベルでいいなら3080tiでもいいがそれならむしろ3060でいい。VRAMが絶対正義ですこの世界
2022/02/04(金) 22:38:45.64ID:R4vSHDv90
>977

VRAMが全て・・。
って事は、3080Ti 買っても DFLで出来ることは1080Tiとあんまり変わらないって事なんすな・・。
なるほど。

3090買うことにします。
ありがとうございました。
979名無しさん@お腹いっぱい。
垢版 |
2022/02/05(土) 01:19:28.68ID:pcREMhET0
結局VRAM12と24だとレゾリューションのサイズが越えられない壁ってことなんかな。
2022/02/05(土) 01:53:57.97ID:XID0lGKS0
resとか各dimsとかのmodelのパラメータもそうだし
重いmodelをそれなりのオプション付けてある程度のバッチサイズで学習させる時にvramが活きてくるね
11GBだとres384でLRDとGAN付けるとバッチサイズ2まで落とさないとOOM吐く
2022/02/05(土) 02:23:52.50ID:vqiRZvra0
GANって何回か更新されてるけど今のGAN3?は高解像度だと上手く機能しなかったり評価悪いみたいだな
損失0.1まで来たらLRD+GAN power0.1他デフォでやって効果分かるレベルには使えるけどどんな設定にしてる?
設定上げすぎると数千回くらいで急に崩壊したりするから難しいな
2022/02/05(土) 03:20:41.36ID:ZzYUNoO/0
みなさんは学習のタイミングは深夜回しっぱなしですか?3080ですがファン爆回りでパソコンがぶっこわれないか心配
2022/02/05(土) 04:28:43.03ID:oWJVbQwG0
merge SAEHD.batでresultが出力されなくなった
同じ症状の人おる?
984983
垢版 |
2022/02/05(土) 04:35:32.35ID:oWJVbQwG0
ごめん
実行ファイルを間違ってた
2022/02/05(土) 11:05:39.58ID:Tf5WtgFe0
loss値グラフで黄色と青が最初のラインより下回ることあるんだろうけどこれって回しすぎなのかな
2022/02/06(日) 01:39:12.72ID:xM4ZPRZB0
前髪ないdstに前髪あるsrc合わせたい場合はwfよりffのほうがいいのでしょうか?
2022/02/06(日) 02:04:15.67ID:pBq9Eafh0
そんな質問するレベルでff使いこなせないような気が
2022/02/06(日) 08:49:46.47ID:U43DA5880
>>986
ffでsrcの髪を顔以外としてマスクするのが基本なのかな

またはsrcの前髪を残したいのなら
wfで両素材の前髪部分をマスクせず顔扱いにするという手も
ただ違和感なく出来るかは分からない
2022/02/06(日) 17:56:48.47ID:EUPMbbtn0
wfなら輪郭も変換できるってマ??
2022/02/07(月) 18:14:37.54ID:ZgnlHBW/0
初歩的な質問かもしれんけどrctとかmkl-mでmargeしても色が合わないのはsrcとdstの光源や影が合ってないってことなのかな?
2022/02/07(月) 21:17:46.60ID:NZdUEW+90
>>990
カラートランスファーをrctにしてtrainしてみたらいいかも
992名無しさん@お腹いっぱい。
垢版 |
2022/02/08(火) 03:43:38.63ID:HM4E1suF0
基本的な内容なんだけど、trainの解像度って、実際のところ品質にどれぐらい差が出るのかな。
俺は256以上はできないんだけど、前に作った128との差が、アップにすると出ると思うんだが、普通の状態だとさほど差がないようにも思える。
mergeの時に、シャープネス的なやつをかけると割とくっきりするからこれでしのいでいる感じもあるのだが。
3060買うとVRAM12になって、384ぐらいの解像度が可能になるけどおそらくそれが限界ぐらいだが、実際に出来上がる品質には差がでるもんなんだろうか。
解像度色々変えてみて、上の世界に行った人、教えてください。
2022/02/08(火) 10:20:49.34ID:XxDUx6qH0
>>991
サンクス。いままでnoneでtrainしてたから試してみる
2022/02/09(水) 15:36:00.22ID:cvzUrfTG0
>>972
tiktokとか小顔にできるもんね
あれ凄いと思う
ただ動きが激しかったり何かが被さるとズレル
dstに使う動画をtiktokで小顔にさせるとか
他にも動画アプリで小顔機能のあるのを
探しだして色々と試すのも面白いかも
995名無しさん@お腹いっぱい。
垢版 |
2022/02/10(木) 14:12:10.19ID:kohRYpw40
>>992
アップにしないと差が出ない認識であってるの思います。
特に、ネットで拾ったりするようなHD画質を元に、
体全体が映るような引いた画角でやるなら品質に差はないかも。

ただ、VRAMに余裕があると、バッチ積めるのでtrainが速くなる。
それと、実質的にそれなりの高解像でしか出来ない顔射もの。

ただ3060 12g使ってるけど、trainは速くなるけど、最初の切り出しは結構遅いよ。
でも、発熱や消費電力も低めなのでお勧めです。
2022/02/10(木) 15:43:14.57ID:i/VLkcOU0
海外の怪物達を見てるとA100 80GB×2とかRTX A6000 48GB×4でVRAM 192GBの人とかいるけど
192GBでもres 512 ae dims 512 e,d dims 128でバッチ24とかで動かしてるな
標準で限界のres640とかコード変えてres700とかにしてる人もいるけど劇的に変わるってわけでも無さそう
それよりもsrcが全部4K動画とか大量の一眼レフ画像があるとかで差が出るな
2022/02/12(土) 01:34:38.10ID:YeI0C5JR0
>>954 >>962
自分も同じ症状で、困っています。2021年の9月のnivdiaドライバー入れても
治りませんでした。なにかいい対処方法ないでしょうか?
ビルドは 2021年11月20日バージョンのを使っています
古いバージョン(2021年1月)では安定して動くのですが、-tが使いたいので
11月20日バージョンで動かしたいです。
2022/02/12(土) 16:06:25.05ID:kj81HqCu0
Pretrainで3夜かけて30万回した後、PretrainをNにして本番のTrain開始。
で、何気なくP押してページ切り替えたら、2列目と4、5列目のプレビューが真っ黒に。
ほかのページに切り替えても直らず。
Mergeしたら、もちろん真っ黒な顔に。

再Trainしても変わらず、再Pretrainにしても真っ黒のまま。。。
試しに2時間ぐらい回してみたけど直らず・・・。
3日間が無駄に。。。

仕方ないので諦めて、最初から回して検証してみたんだけど、
Pretrain> Train> 1回目の自動保存の前にPを押すと再現。
1回自動保存が終わった後だったら、P押しても真っ黒にならず。

これって既知??
2022/02/12(土) 16:20:16.26ID:riPMgkL40
そもそもpretrain終了後も何日か回さなきゃダメじゃないのか
なんですぐマージしたんだ
2022/02/12(土) 16:58:08.55ID:uftxxy+d0
ディスコでblackで検索かけたら同じ様な人いたけどdstもsrcの学習もどこかの段階で崩壊してるのは確定だな
dimsとかの設定が高すぎると起こる事もあるみたいだからGPUとモデル設定の画像あればもっと原因分かりやすいかも
本トレインでプレビューの更新押さなければ大丈夫なら崩壊を防ぐ設定のclipgradをオンにして回していけないかね

誰か次スレ頼んだ
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 425日 19時間 55分 54秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況