【質問】dfl【その4】

■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。
垢版 |
2022/02/12(土) 17:06:21.44ID:6x5j6Sbc0
DeepFaceLab(以下、DFL)の質問&回答スレです

・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。

・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。

・RTXシリーズでも動くの?
FS、DFL共に動く。

【質問】dfl【その3】
https://egg.5ch.net/test/read.cgi/software/1607860934/
374名無しさん@お腹いっぱい。
垢版 |
2022/07/03(日) 09:29:52.56ID:DV+Qgj0d0
>>371 です
バッチ6 res160なら動くようになったがres上げるとバッチ下げてもエラー出てダメです

RTX3060Ti VRAM8GBだけど表示されるのは5.24GB
CPU i5-10400 2.90GHz コア6 論理プロセッサ12

仮想メモリ、初期サイズと最大サイズがありますが皆それぞれどのくらいにしてますか
375名無しさん@お腹いっぱい。
垢版 |
2022/07/03(日) 09:29:55.67ID:DV+Qgj0d0
>>371 です
バッチ6 res160なら動くようになったがres上げるとバッチ下げてもエラー出てダメです

RTX3060Ti VRAM8GBだけど表示されるのは5.24GB
CPU i5-10400 2.90GHz コア6 論理プロセッサ12

仮想メモリ、初期サイズと最大サイズがありますが皆それぞれどのくらいにしてますか
376名無しさん@お腹いっぱい。
垢版 |
2022/07/03(日) 09:29:59.95ID:DV+Qgj0d0
>>371 です
バッチ6 res160なら動くようになったがres上げるとバッチ下げてもエラー出てダメです

RTX3060Ti VRAM8GBだけど表示されるのは5.24GB
CPU i5-10400 2.90GHz コア6 論理プロセッサ12

仮想メモリ、初期サイズと最大サイズがありますが皆それぞれどのくらいにしてますか
377名無しさん@お腹いっぱい。
垢版 |
2022/07/03(日) 09:30:55.40ID:DV+Qgj0d0
クソ重複したすみません
2022/07/03(日) 13:41:23.05ID:dCDAMB2w0
トレイン画面のVRAMは少なく表示されるけど実際には100%使えてるから関係ないよ
ryzen3600 rtx3060 ram32GBで仮想メモリは初期・最大32GBに設定してるけどres416でも動く
379名無しさん@お腹いっぱい。
垢版 |
2022/07/03(日) 14:07:40.78ID:wCAv+HML0
416はできたことないなぁ
liae-udのバッチ8で320が限界
eyes_mouthとrandom_warpを切れば
いけそうだけど、そこは切れんよね
同じく3060
2022/07/03(日) 14:44:20.29ID:dCDAMB2w0
dims 256ならRW+LRDでもres416 バッチ4で1000ms位で回せる
liae-udよりもudtならVRAM使用量減らせるはずだから設定上げられると思う
ただresが2倍になると学習時間は4倍になるらしいし320と416じゃアップシーン以外だとほとんど差は無いと思うから320で十分だと思う

最近はなるべく早く品質高いのを作りたいからres224 dims512 バッチ16で1000ms位で回してるけど
引きのシーンだけなら解像度不足も感じないしバッチ高くできるおかげで爆速で完成するから高解像度は使わなくなったな
381名無しさん@お腹いっぱい。
垢版 |
2022/07/03(日) 15:08:01.58ID:wCAv+HML0
レスありがとう
その辺の兼ね合いもあるのよね
制作時間削りたいなら、落とすしかない
データ引き継ぎなら半日で完成させる
こともできるし
その辺は都度どう作りたいかにもよるかもねdst素材が元々あまり良くなかったら
もう192とかでやっちゃう
2022/07/04(月) 15:52:55.99ID:2+D8RO9i0
みんなは芸能人をavに入れたりしてるん?
誰と誰が相性いいとか教えて下さい
ほんとは知り合いで作りたいけど動画はもちろん写真すら手に入らん
2022/07/04(月) 16:44:05.02ID:KA5dYDvP0
ツイッター探せばいますよ
2022/07/04(月) 16:45:01.25ID:KA5dYDvP0
ああ、そういうことじゃないのねw
失敬
2022/07/04(月) 18:36:26.60ID:iXan0RSN0
色んな子で、というのは最初は思うんだがいざ作ってみるとやっぱり好みが絞られてくるから、ぶっちゃけdst作りの方が多くなる
出来るだけ完璧なモデルが作れればあとは流用できるからどんなに時間がかかっても解像度とか色々妥協せず最高のものを作りたいと思う派なんだ。
でもこうやったら完全に最高のものが作れるというのがいまいちよくわからんから辛い
今は中華が一番情報密度が濃いんかなあ
2022/07/04(月) 18:57:21.54ID:tSXt6ID60
解像度とかはとりあえずてきとうに試して上手くいきそうなやつをちゃんと作り直すのが早いんじゃない?
387名無しさん@お腹いっぱい。
垢版 |
2022/07/05(火) 13:17:40.31ID:RzDVSp0f0
髪型と声と体形が似てるdstだと神作品になりやすい
なんでdst側から逆算して作るようにしてるわ
2022/07/05(火) 14:15:09.78ID:iVSxUGNB0
俺は顔の大きさで決めてる
輪郭とか多少違っても顔が小さけりゃ
それなりに見れる
389名無しさん@お腹いっぱい。
垢版 |
2022/07/05(火) 14:52:34.43ID:TJub2Y0x0
gpu2枚刺しでそれぞれ別のmodelをtrainできますか?
3060と3080tiでやってみたけどエラーで止まっちゃう
2022/07/05(火) 16:17:42.98ID:I+5OUQFP0
英語での情報だから曖昧だけど
32GB RAMと24スレッドCPU(AMDかIntelなのかコア数も不明) 2080Ti×3
で3つの別のモデルをトレーニングできた人がいるみたいだから一応できるんじゃないかな

DeepFaceLab_NVIDIA_RTX3000_series/_internal/DeepFaceLab/models/Model_SAEHD/Model.pyをメモ帳とかにドラッグして開いて
669行目のcpu_count = multiprocessing.cpu_count() って所を
cpu_count = min(multiprocessing.cpu_count(), 8) に書き換えて保存したら動作するようになったらしい

注意点は2番目以降に実行したモデルは設定に関係無く学習速度が半分に低下するっぽい?のと
動かない場合は仮想メモリを更に増やしたりモデルの設定を落としたりとか
後はpython詳しくないから分からないけどCPUコア数が少ない場合はcpu countの最後の「8」を変える必要とかあるかも
2022/07/05(火) 16:21:33.65ID:iVSxUGNB0
それ以前に二枚差しの条件をクリアしてる
上での話しですよね?
2022/07/05(火) 16:58:46.76ID:I+5OUQFP0
GPUも詳しくないから俺からは何とも言えないんだけど
3000番代は3090と対応マザボしかNV LINKできないのとNV LINKなら1つの同じモデルを倍のVRAMと1.5倍速位で学習できるのは知ってたが
それぞれ別のモデルを動かす場合もNV LINKって必要なのかね?
393名無しさん@お腹いっぱい。
垢版 |
2022/07/05(火) 17:55:22.54ID:TJub2Y0x0
すみません。仮想メモリを倍の250GBに設定したら動きました。
単に仮想メモリが足りていなかったみたいです
2022/07/05(火) 18:06:45.32ID:I+5OUQFP0
2GPU動かせる余裕さえあれば意外と簡単なんだな 解決して良かったわ
2022/07/05(火) 23:33:43.95ID:Su+4iHLH0
グラボ2枚あるからやってみたいけど
俺も
>>392に書いてある知識しかないな
2枚をNV LINKしないで動かせるもんなのか
2022/07/05(火) 23:58:07.95ID:I+5OUQFP0
まぁ単純に1枚につき1つのモデルを学習してるだけだからGPU的にはいつも通りの事だよね
2枚刺せるケースのスペースとか2枚フルで動かしても余裕な電源容量があれば問題無いんじゃない?
エアフローが悪かったりすると熱が凄そうだけど
2022/07/06(水) 08:47:26.67ID:aa9ZIQ0K0
そういうものなのね
マイニングとか複数枚使うことがなかったから
そもそもそういう知識がなかった
398名無しさん@お腹いっぱい。
垢版 |
2022/07/06(水) 16:28:39.08ID:RDizLiWz0
プレビューでは気にならないんだがいざマージしてみると顔の大きさに対してパーツがデカすぎるように感じることがあるんだがsrcとdstの相性の問題?それとも設定で解決出来るんですかね?
2022/07/06(水) 16:43:11.27ID:aa9ZIQ0K0
部分的ならランドマークの確認
全体的ならae_dimsの数値設定かな
デフォルト256だったら512にしてみるとか
2022/07/06(水) 18:10:39.39ID:RDizLiWz0
全体的な話なのでae_dimsを512まであげて試してみたいと思います
2022/07/11(月) 20:15:10.98ID:j6ujw1FP0
ここの猛者共は動画編集ソフトは何使ってる?ウォーターマーク付かないの探してるんだけどなんか良いのなくて
2022/07/11(月) 22:44:25.33ID:LPYMXiqy0
>>401
猛者ではないがdavinci resolve

しかし、顔抽出はマジでもう少し何とかならんのかね
2022/07/12(火) 18:25:47.65ID:E6hRj5aG0
抽出の改善は数年前から提案されてるけどiperovが頑固すぎてS3FDから変える気無いみたいだから公式は無理だろうな
顔のdetectorにS3FDじゃなくてRetinaFace使ったりすれば早い上に正確に抽出できるようになるみたいだけど誰か頑張ってくれとしか言えねぇ
2022/07/12(火) 19:14:30.36ID:z7BQS4z/0
>>402
ありがとう!見てみたけどスゲー…
なんかプロ仕様じゃん…
でもこれよさそうだから頑張って使ってみるよー
405名無しさん@お腹いっぱい。
垢版 |
2022/07/13(水) 00:04:46.21ID:lowTd7t20
VR試してるんだけど顔抽出に数十時間かかっちゃうんだけどそういうもの?
普通の動画だと数時間で終わるんだけども
2022/07/13(水) 00:13:20.68ID:D0HZrxD/0
超巨大画像から複数の顔を検出してたらそれぐらいになるんじゃない?
2022/07/13(水) 08:49:48.83ID:vRv6e9wN0
動画の総時間にもよるしVRだと、1画面に
2つ抽出するからなぁ
もしかして60分の動画とかやってる?
408405
垢版 |
2022/07/13(水) 09:52:52.95ID:lowTd7t20
なるほど。編集面倒だから30分の動画でやってたんだけど2-3分にしたほうが良いのかも。
2022/07/13(水) 23:26:12.71ID:ZE8H4rto0
そもそもVRで使える場面なんてあんまりないから、ちゃんと編集したほうがいいよ
410名無しさん@お腹いっぱい。
垢版 |
2022/07/14(木) 07:35:45.47ID:VkjaF8jr0
普通に作ってからvr化するで充分だと感じた
2022/07/14(木) 12:34:05.45ID:+SJEC84v0
VRは基本正面向いてるから作りやすくはあるけどね
シーン厳選すれば
2022/07/14(木) 17:29:14.63ID:TDf0NdiS0
主観ものがVRばかりになってしまって寂しいんよ
413405
垢版 |
2022/07/14(木) 20:20:18.65ID:OVOOn0BX0
基本顔が真ん中で歪んでないやつだけに厳選しとくわけね。結構手間暇かかるけどやってみるかな。VR化もありかもしれん。ありがと~
414名無しさん@お腹いっぱい。
垢版 |
2022/07/15(金) 06:34:35.16ID:lDmvSKZg0
3060Ti(8GB)と3060(12GB)だったら3060一択?
415名無しさん@お腹いっぱい。
垢版 |
2022/07/15(金) 12:56:38.88ID:ZKTjTy180
res256で10gb以上消費してるから3060だな
ちなみに3080tiと3060だと処理速度の差は倍くらい
2022/07/15(金) 14:33:23.64ID:tC+rWXAV0
DFではFP32の計算速度が参考になるっぽいけど
90は35TFLOPS 80tiは34TF 60は13TFなのに学習速度は90でも60の2倍みたいだし
60tiは16TF位だから同じ設定に限れば60と処理速度はほぼ同じだと思う

しかし60はVRAMのおかげでかなり設定上げられるから安い上に学習も早くて顔の品質も高くできるし60一択
2022/07/15(金) 15:40:30.84ID:dsfexgb60
3080tiは一時に比べれば安くはなってるが
TDP350wってのがな
フルで動かすと400w近くいく

その点、3060ならフルでも200wいかないくらい
値段も半値で買えるしお手頃ではあるね
2022/07/15(金) 15:57:04.86ID:dsfexgb60
https://imgur.com/a/mg9tKAV

参考実数値
さすがに400w近くまではいかないか
2022/07/15(金) 16:09:31.66ID:tC+rWXAV0
TDP気にするならパワーリミットかけたりすれば全然電力使わなくなるし速度もほとんど下がらないけどなぁ
2ファンの安い3060でも制限せずに100%使用してると確かに180wくらいだけど
80%制限とかクロック少し下げるだけで130wくらいしか使わなくなるし温度も下がるし安定してるわ
2022/07/15(金) 16:40:32.61ID:dsfexgb60
それは考えたんだけど、安定性が欠けるんじゃないかと思ったのよ
MSIアフターバーナーでしょ?
2022/07/15(金) 16:59:07.65ID:tC+rWXAV0
使ってるgpuメーカーの専用ソフトがあるからそれで制限してるけどアフターバーナーで良いと思う
電源も安物だけど1日中パワーリミットしてVRAMは限界まで使って学習させても1回も不具合なんか起きたことないよ
マイニングしてる人とか50%制限で1年中動かしたりしてるみたいだけど問題無さそうだし
安定しないなら設定戻せば良いだけだしね
422420
垢版 |
2022/07/15(金) 19:32:33.75ID:tqI4CtwM0
やってみようかな
今週末にグラボをパワーアップさせる予定なんだけど
やっぱりTDPも必然的に上がるし
悩ましいところだったんだよね
2022/07/15(金) 22:55:05.03ID:1+QoYr3n0
srcが歌のMVとかで顔面がピカピカ(テカテカ)してる問題はどうしたらいいん?
画像を暗くしたり、レベル補正、色相、彩度、光度など変えてもどうにもならんっ
2022/07/16(土) 00:24:58.44ID:gR3aRASv0
某女優を時代劇っぽいドラマの素材で作ったらテカテカになり過ぎたから素直に他からの素材増やしたわ
425名無しさん@お腹いっぱい。
垢版 |
2022/07/16(土) 13:19:09.84ID:g01ZOvPh0
windows11にしたらフォルダの中身見えなくなって作業糞めんどいな…
2022/07/16(土) 14:07:18.76ID:fA0KHqdk0
数日前にもwindows11にアップグレードさせようとする画面が出てきたけど、もちろん無視した
自分にとっての明確な利点が無い限り、上げない
ソフトが動かなくなったり不安定になるのが一番困る
安定している10で十分だわ
2022/07/17(日) 09:11:25.49ID:vyuEBHEN0
声のディープフェイクってまだ作られていないの?
2022/07/17(日) 10:31:26.27ID:LcIGNT2Y0
既にリアルタイムでできるやつがあるはず
2022/07/18(月) 23:59:48.29ID:ijiYt14o0
RTX3000が安くなり始めたから買いたいところだけど4000まで待つか悩むわ
今の感じだと4000に対応するか微妙だよね
2022/07/19(火) 01:22:59.45ID:p+jpYmZi0
3000買って4000も買うんだよ
2022/07/19(火) 01:46:56.46ID:FMweEmkS0
3000や4000にすればよりそっくりになるというのなら買うんだけどな
2022/07/19(火) 01:57:35.55ID:31fbPIzQ0
現状と同じ解像度でやるのであれば他の設定あげられる分よりそっくりになるだろう
解像度欲張るとあんまり変わらないだろうけど
2022/07/19(火) 02:16:01.15ID:Q/bLl1jd0
ついさっき4090はTime Spy Extremeスコアがリークされたしそこまで遅延せず9月か10月には発売できそうか
他は予定より発売遅れそうだけど4080は16GB積んでるっぽいから3080とか80tiは微妙だなぁ
手持ちのVRAMが6GBとかで不満なら3000はすぐ手に入るしありかも
2022/07/19(火) 08:49:55.12ID:ujFlmdfg0
VRAM20gで解像度上げられるだけあげてみたけど
独特のノッペリ感はどうしても残る
それならres256か320でやってバッチ上げれば
学習速度が上がるから
そっちのほうがいいかもね
dst動画も720pなら全体的な違和感が減るから
そっちのほうが良いと思ったかな
435名無しさん@お腹いっぱい。
垢版 |
2022/07/19(火) 17:56:22.31ID:m2z44RG30
今まで1080ti,2080tiが必要だった作業が5万以下でこなせる3060はdflの最適解よ
とりあえず3060買って40xx出てからハイエンドにするか考えれば良い
2022/07/19(火) 18:44:10.51ID:0+9sgm1f0
俺、勝手に解像度至上主義だから、バッチ犠牲にしてでも解像度をギリギリ上げようと思ってやったんだけ、ぶっちゃけそんなに劇的には変わらんような気もする
バッチはまあ時間かかってもいいから少なくていいかもと思ってるんだけど、ほかに上げるメリットってあるの?
あと、他のパラメータでこいつこそ重要だわってのがあるのかなあ
2022/07/20(水) 13:44:15.32ID:o1xhO8b60
現状は他のパラメーターもデフォルトで
問題なさそうだし、eyes_mouth、li_dropout、
randm_warpは解像度を犠牲にしてまで
使わないってのは厳しいでしょ
全部使わなければres数値はもっと上げられるけど
2022/07/20(水) 14:00:14.31ID:dFLCwcf80
>>427
real time voice cloning
てのがあるけどワシには使い方分からない
ついでに誰が教えてほしいね
2022/07/20(水) 15:02:32.48ID:LrAZ47cK0
声のディープフェイクやりたいわ
身近な人の写真手に入れるのは大変だけど音声くらいなら手に入れやすいし
2022/07/20(水) 15:43:32.38ID:HxiiWOKR0
声まで似せられたら、本物度はかなり上がるだろうね
自作の中にたまたまdstの声がsrsに似てたのがあって、その動画は自分で見ても凄く本物っぽい
441名無しさん@お腹いっぱい。
垢版 |
2022/07/20(水) 20:52:53.57ID:HYJNbO3J0
グーグルコラボってどうなったか知ってる人いる?
2022/07/22(金) 09:14:42.56ID:vzeoQiMq0
GAN,TrueFace,LrD,RW,gradient clippingが使える条件で解像度全振りにしてる。
2022/07/22(金) 09:54:22.65ID:m2nx6LGd0
eyes_mouthは使わないの?
2022/07/22(金) 18:27:31.78ID:FmW++BPV0
俺は解像度そこそこで早く仕上がるようにしてる
人に見せるもんじゃないし抜ければいいんだよ
2022/07/22(金) 21:34:10.74ID:TJsmBo5W0
300万超えてからはeye mouthなくてもそれなりに出来るし、1日で仕上がるから、解像度全振りで困ってない。
2022/07/22(金) 22:00:34.95ID:64xOH30g0
liae-udtの方が滑らかに仕上がるが
liae-udの方が本人に似ている

出来れば後者にしたいところだがmergeすると何か額の左右辺りにフチが出るんだよなあ…ちゃんとXsegもしてるんだが
2022/07/22(金) 22:07:19.82ID:P4e4JgD70
>>445
res高いとGAN power0.1でも肌がきめ細かくなってくるまでにかなり時間かかるよね
res変えて1から使い始める時とか特にだけど GANは何時間くらいオンにしてる?
2022/07/22(金) 23:17:56.61ID:J62czCeN0
LIAEだと使い回した時に似せづらいからDF-udt使ってる。
半日RW onにして、半日GAN,lrdをonでRW offにしてる。
最初の200万は安定しないと割り切ったほうがいい。
2022/07/22(金) 23:37:17.73ID:P4e4JgD70
res320位でGAN最初から鍛えたかったけど200万でも半日かかるのは長いなぁ
res224で200万以上のモデルだとGANもすぐ完成するからそれで我慢しとくかな
2022/07/23(土) 00:41:32.68ID:fzgye5+R0
全部試したわけではないけど、UDのみが
一番似るんでないのかな
つかそう思っていた
ただUDだけだと設定上げられないんだよね
2022/07/23(土) 02:21:47.53ID:fzgye5+R0
つか200万も回すんかいな
res320だと半日回しても10万程度しかいかん
2022/07/23(土) 11:43:55.44ID:1q/2O1Ou0
>>449
どれくらいこだわるかによる。正面だけとかならすぐ。笛あり20分動画でこだわりたいとき1日かける。

>>451
色々作りながらだったから2ヶ月くらいかかった。res384
2022/07/23(土) 20:56:41.14ID:fzgye5+R0
X-segを使い回すんだけど、なぜか口の中まで
マスクされてしまい
歯が二重とかになるんですよね
>>261の人がMVEを使った修正方法を
書いてくれているけど
難しくてできない、、、

口の中(特に歯)なんてマスクしないのに
使い回すと勝手に学習してしまうんですかね
都度、X-segするのとても面倒
2022/07/23(土) 22:18:06.93ID:jFrrfYPL0
マスクしてる素材に口あけてるのが少なすぎるとか、もしくは逆に多すぎるとかじゃないの
自前のmodelではなったことないから分かんないけど
2022/07/23(土) 23:24:13.64ID:MZAgAy5Q0
口の中をマスクしないxseg作るしか無いんじゃないの
口の中までマスクされてるalignedを探して顔囲んでxsegのtrainするだけ
456名無しさん@お腹いっぱい。
垢版 |
2022/07/23(土) 23:30:12.92ID:Xp0oWRkH0
240の中華xseg使えば?それでtrainもしてないけど特に困ることないが。
2022/07/24(日) 02:22:41.24ID:FWYBvzrq0
アドバイスサンクス
中華のやつは試したけど駄目だった
>>455
どうもそれっぽいです
割合的にはかなり少ないのですが
舌を出していれば当然舌もマスクするので
その影響が出てるっぽい
口の中は一切マスクしないのを一回作って
それをベースとして保存して
そこから作る作品に合わせて微調整していく
というのがベターっぽいです
色々助かりました
2022/07/24(日) 05:24:30.86ID:1YqGzRc20
udtの方が似る気がする
2022/07/25(月) 15:16:32.36ID:4H4bT+Cl0
一度モデルができれば使い回しするとして、モデルとして完成してAその上で、使いたいdstをしばらく回して作るB
で、再度他のを作りたい時には保存していたAのモデルでその都度使うのがいいのか、Bのモデルに継ぎ足ししていく感じのがいいのか
scrはそもそも貼り付けるデータだから同じやつでいいがdstは本来バリエーションに富んだ方がいいから、一つのdstでずっと育てるより育成途中に変えて行った方が結果手にはいいんだろうか

今まで継ぎ足し系でやったら割とできがよかったが、それだけが原因ではないかもしれんから詳しい人教えてください
2022/07/26(火) 07:53:15.07ID:nq4YGngr0
まずmodelの設定を晒さないことにはなんとも
461名無しさん@お腹いっぱい。
垢版 |
2022/07/26(火) 16:21:09.33ID:Q8ptxxcg0
初心者です。st、srcの顔画像切り出し、マスク範囲設定(xseg)からxsegのtrain、applyまで完了していよいよtrainするのですが、画像の読み込みまで完了後、続行するには何かキーを…で止まってしまいます。
SAEHD、Quick96どっちでやっても同じです。
何か手順が間違っているのでしょうか?
DFLのバージョンは最新、グラボはRTX3050です。
2022/07/26(火) 16:43:12.52ID:9OwxVb0u0
windowsの設定でGPUスケジューリングをオンにする
DFLを置いてるドライブのページングファイルを32GB(32000MB)くらいに設定する

とりあえずまずやるべきはこの2つかな 設定方法はググればすぐ出る
463名無しさん@お腹いっぱい。
垢版 |
2022/07/26(火) 18:34:34.47ID:Q8ptxxcg0
>>462
ありがとうございます。
2つとも設定して再起動後、再度試してみましたが症状変わらずでした。
他に原因ありそうでしょうか?
2022/07/26(火) 18:39:01.56ID:TxQOZAcI0
dflは3000シリーズでやってます?
2022/07/26(火) 18:42:51.97ID:xVHnF50T0
>>461

Ryzen9 3950xだとtrain環境のあるドライブのページファイルを
100GBくらいにしたらやっとtrain動いた
因みにRTX3060
2022/07/26(火) 18:51:16.28ID:9OwxVb0u0
CPUとRAMの量によってページングファイルがもっと必要になるみたいだから上げた方が良さそうだね
ドライブの空き容量が数GBとかしかないのもダメっぽい

それとintel 12世代だとwin11への更新が必須みたい
一応nvidiaドライバーの更新も確認
あとはDFLの推奨がtensorflow-gpu==2.4.0なんだけど2.6.0にしたら動くパターンも経験してる
467名無しさん@お腹いっぱい。
垢版 |
2022/07/26(火) 18:56:53.75ID:Q8ptxxcg0
みなさん、ありがとうございます!
色々教えてもらった方法をまずは試してみます!
2022/07/26(火) 20:19:23.07ID:nq4YGngr0
というか最初はxsegとか考えずに短いsrcとdst用意して抽出→train→mergeまでの一連の流れをできるようになったほうがいいよ
2022/07/27(水) 17:16:06.36ID:Mj02Pobk0
459ですが、
設定としては、
3060を使っていて、解像度は448
liae-udtにしています。
バッチは4です。
eyeはオン、random_srcはオンにしています。
今は100万回ぐらい回しました。
最初に、カラーはなしにした方がいいかと思いましたが、途中で、rctに変えました。
さらに途中で、eyeをオフにすると、少しマージが減ったのですが、再度入れてみました。
90万回あたりで、random_warpをオフにしました。
結局loss値は0.5ぐらいを維持してあまり下がりません。
全然だめなわけではないけども、おそらくこれは間違った部分があるのだろうと思っています。
2022/07/27(水) 18:12:40.69ID:XbpLqqHc0
動画から抽出した、data_src内のpngは
顔抽出した後は消しても問題ありませんか?
2022/07/27(水) 18:34:24.46ID:6CVg1HTG0
抽出した画像の中身確認はした?
パッと見でおかしいのはもちろん消すけど
一見まともに見えてもランドマークめちゃくちゃな顔もあったりする
そういうのが多いとloss値下がり辛いしmergeしても変になるよ
2022/07/27(水) 18:56:57.56ID:KWqlpZrn0
見た目はどうなんだい
数値ばっか気にしても意味ないよ
473名無しさん@お腹いっぱい。
垢版 |
2022/07/27(水) 21:23:49.69ID:wacI+i9G0
>>470
srcのほうの抽出前pngは消してもいい
dstのほうは最後のマージで使うのでとっといてね
何回かやってるうちに大体できるようになってくると思うよ
■ このスレッドは過去ログ倉庫に格納されています
大学生アイラと影の怪物と戦うリョウが、深夜3時3分の静止した世界で交錯する超常スリラーの概要

ニューススポーツなんでも実況