X



【質問】df 【その5】
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@お腹いっぱい。
垢版 |
2022/08/12(金) 12:42:35.09ID:Gk+m6bIv0
DeepFaceLab (以下、DFL)の質問&回答スレです

・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報 (環境やどうしてそうなったか)を書きまし 特にエラー文は1番のヒントです。 ググれば解決することも多いです。 自分で解決できない場合は

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。 FSも英語圏では情報が得やすい。 他は更新していない

・必要スペックは?
ない。

VRAM容量6GB~が推奨スペック。 GPU性能は高い程いい。

RTXシリーズでも動くの?
FS、DFL共に動く。

【質問】 df 【その4】
http://egg.2ch.net/test/read.cgi/software/1644653181/
【質問】 df 【その3】
http://egg.2ch.net/test/read.cgi/software/1607860934/
0002名無しさん@お腹いっぱい。
垢版 |
2022/08/12(金) 12:46:30.32ID:Gk+m6bIv0
・作るのにどれくらいかかる?
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。

・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。

DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://github.com/iperov/DeepFaceLab
https://mrdeepfakes....commended-up-to-date
https://mrdeepfakes....brity-datasets-guide
https://www.deepfake...-to-use-deepfacelab/
https://seesaawiki.jp/dfl/
0003名無しさん@お腹いっぱい。
垢版 |
2022/08/12(金) 12:49:41.49ID:Gk+m6bIv0
リクエスト禁止
DFLとかAIとかに文句つけるのは禁止

技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ
0004名無しさん@お腹いっぱい。
垢版 |
2022/08/12(金) 12:50:55.78ID:Gk+m6bIv0
動画制作のおおまかな流れ
1.素材を準備する
2.素材動画を全フレーム画像で書き出し
3.顔部分のみを抽出
4.誤検出された画像を削除
5.学習させる(train)
6.顔を移植した画像を書き出し(merge)
7.書き出した画像を動画にする
0007名無しさん@お腹いっぱい。
垢版 |
2022/08/14(日) 23:06:14.80ID:dLXJQ6/U0
乙です

以前にmerge作業をPhotoshopでやってる人が
いたのですが
あれって動画編集ツールじゃないのに
動画制作もできるのですかね
0009名無しさん@お腹いっぱい。
垢版 |
2022/08/17(水) 14:01:48.05ID:TrzAmWEV0
乙。前スレは漱石さんが埋めてしまったね
0010名無しさん@お腹いっぱい。
垢版 |
2022/08/18(木) 06:35:28.93ID:8ccZS+N00
ぉっ
0011名無しさん@お腹いっぱい。
垢版 |
2022/08/22(月) 08:57:27.53ID:AB0f/euA0
trainを終わらせる感覚がどうも掴めない
見た感じはもう目も歯もくっきりし出して
mergeするときにerodeで輪郭をボヤかそうと
数値を上げると200以上上げようとすると
dst画像がうっすら浮き出てしまう

輪郭の相性が良くて、ボヤかす必要があまりないと
そんなに数値上げる必要もないんだけどね
20分前後の動画res288で学習済みモデル使用
それで17万くらい
30万くらいはやるべきかな?
0012名無しさん@お腹いっぱい。
垢版 |
2022/08/22(月) 09:00:50.97ID:AB0f/euA0
ちなバッチ8です
12とか14でも動くけど、意味なさそうなので
8に固定
0014名無しさん@お腹いっぱい。
垢版 |
2022/08/22(月) 12:27:00.56ID:AB0f/euA0
eyes_mouth_prioを切って、random_warpをonで
0.3は切りますね
eyes_mouth_prioを切らなければ0.4~0.5をウロウロしてます

random_warpの入り切りは数値には
ほとんど影響ない感じですけど
0016名無しさん@お腹いっぱい。
垢版 |
2022/08/24(水) 22:25:06.72ID:8byLBnvs0
>>14
eyes強調なしで0.2切り、強調ありで0.35くらいだといい感じ
randomwarpは無しでやってる。
0017名無しさん@お腹いっぱい。
垢版 |
2022/08/25(木) 08:56:13.73ID:qPDjd4n00
ほぼ正面向きだと問題はないんですけど
少し横を向いたりすると、揉み上げの付近に
境界線(輪郭と書いてしまいましたが)が
出ますよね
それを目立たないように数値を上げると
dstの画像が浮き出てしまうのですよね
揉み上げの長いdstならちょうどそこに合ったりもするので
その場合だと気にならないのですが

train30万以上dst&srcともに0.1以下(どの設定でも)
でもうまく消せないってことは、これもう
元のdst動画の画質落とすしかない感じですかね
これだと画質落として目立たないってだけですけど
0018名無しさん@お腹いっぱい。
垢版 |
2022/08/25(木) 20:35:41.84ID:ls7WyPVG0
mergeでerodeを-20~70ぐらい?、 blur maskを100~250ぐらいにして
blur sharpenを1にすればなじまないかな
あとは目視で調整してくれとしか言えないけど
0019名無しさん@お腹いっぱい。
垢版 |
2022/08/26(金) 10:02:54.37ID:JtVAlkYj0
>>18
ありがとうございます
書かれている数値内で色々試してみて
かなり改善されました
あと、blur sharpenは使ったことが無かったのですが
これが意外と効果があり非常に助かりました
感謝です
0020名無しさん@お腹いっぱい。
垢版 |
2022/08/27(土) 15:10:32.36ID:2VaCR82f0
3060で我慢できなくなってTUF 3090が16万切ったから買っちまった
4090発売間近だけど最低23万はするだろうしDFLが安定するまで数か月かかるだろうからありだよな…
0021名無しさん@お腹いっぱい。
垢版 |
2022/08/27(土) 15:15:23.47ID:F2HkCkzz0
今から3060買おうとしてる俺がいるっていうのに
まあ4000が対応するかどうかも現状微妙だからいいんじゃないか
0022名無しさん@お腹いっぱい。
垢版 |
2022/08/27(土) 15:41:39.83ID:2VaCR82f0
iperovは4000の電力は批判してたけど常に動向は追ってるみたいだから結局対応するんじゃないかな
3060の12GBメモリはコスパ最強だけどコアが弱いからDF liveでFPS上げれないのがストレスなんだよな
でも4060出るのは来年以降だしメモリ減るっぽいからDFLだけなら3060で全然良いと思う
0023名無しさん@お腹いっぱい。
垢版 |
2022/08/27(土) 16:11:14.91ID:h5v5hQNL0
3090は350wがネックでさすがにお金だけでは
買えないんだよな
部屋が熱くなる
冬はいいけど
3060は170wってのもいいよね
チェッカー使ってみたらフル稼働でも200w弱な感じ
0024名無しさん@お腹いっぱい。
垢版 |
2022/08/27(土) 16:30:32.16ID:2VaCR82f0
前も書いたけどほんの数%の性能のために限界まで電力使おうとしてるだけだから
アフターバーナーでパワーリミットすれば解決じゃない?

3060 OC無しでVRAM100%使用で180w使うけど
80%制限して130Wになっても学習速度ほぼ変わらないし落ちることもない
3090で50%制限にすれば3080Ti 24GB 175wって感じにできそう
0025名無しさん@お腹いっぱい。
垢版 |
2022/08/27(土) 18:10:40.29ID:d/isXeDE0
カードにもよるっぽいんだよね
RTX4500だとほとんど下げられない
20wくらいは下がるけど、そうすると露骨に
学習速度が落ちてしまい結局やめてしまった
0026名無しさん@お腹いっぱい。
垢版 |
2022/08/27(土) 18:36:04.20ID:2VaCR82f0
Aシリーズは元から制限かけてるような低電力だから厳しいのかね
3000シリーズはどれも余裕あるから問題無さそう
0027名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 14:56:21.46ID:0gH6wVEa0
機械学習の部分は良いんだけど顔認識の部分がウンコなのはどうにかならんのかね
下アングルだと全然認識してくれないし
0028名無しさん@お腹いっぱい。
垢版 |
2022/08/29(月) 16:19:39.34ID:xa+et8XY0
口がないと予測変換もかなり酷いしね
ただ下アングルだとうまく認識されても
素材を探すのが大変
0030名無しさん@お腹いっぱい。
垢版 |
2022/09/01(木) 18:46:05.04ID:IqOw3ez+0
今流行りのイラストAI試してる人いるかな?近い雰囲気を感じるからなんかに使えそう。
0032名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 10:09:10.99ID:hpp81Vwz0
308010GBと12GBどっち買うか迷う
価格差なんて数千円しかないんだけど、確か3080 12GBって3090より爆熱なんだよね?
10GBと12GBどっち買う?
このグレード以上は予算的に厳しい
0035名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 11:19:46.84ID:hpp81Vwz0
>>33
やっぱそうだよな
爆熱の3080 12GB買いますわ
0036名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 12:03:17.48ID:PhPlO1rh0
バックプレート側にも12枚VRAMが載ってる90よりはマシじゃないかね
ちなみに3090の場合は制限無しで700msの学習がパワーリミット70%で800msになる程度で250Wしか使わなくなった
60%だと1000ms位で50%だと急に1500ms位に下がったから
GPUにもよるけどアフターバーナーで70%辺りに調整すれば効率良く温度も電力も下げられて良いと思う
0037名無しさん@お腹いっぱい。
垢版 |
2022/09/04(日) 23:24:16.11ID:yELt6QjU0
X-segを使いまわすといつの間にか口の中まで
マスクしちゃうのなんででしょうかね

同じモデルで3回目くらいで口の中まで
マスクし出してしまう
そうすると歯に悪影響でてしまうのですよね
0040名無しさん@お腹いっぱい。
垢版 |
2022/09/07(水) 08:52:46.57ID:pCorNqx70
X-segは一度学習させるとはぶく物を覚えて
(笛の時のモザイクとか)何度も使える
眉毛使う使わない、前髪をはぶくはぶかない
自分に合った使い方を覚える
作る作品ごとにマスクするのは面倒臭いからねぇ
0042名無しさん@お腹いっぱい。
垢版 |
2022/09/07(水) 15:42:52.19ID:pCorNqx70
😰
0043名無しさん@お腹いっぱい。
垢版 |
2022/09/07(水) 22:53:59.47ID:dwNv6o4E0
もうちょっと説明が必要だね
口の中をマスクしちゃうのなら、そうならないようにxsegのtrainすればいいだけだし
0044名無しさん@お腹いっぱい。
垢版 |
2022/09/07(水) 23:02:00.48ID:lBxGrf9s0
追加学習続けてるとって話なのかただmergeのときに使ってるだけでって話なのか
どっちにしても不完全なモデルになってるだけだと思うけど
0046名無しさん@お腹いっぱい。
垢版 |
2022/09/11(日) 20:32:56.68ID:VXoedt0H0
有識者の方いたら教えてくれ

DFLを3、4年前につかってたものなんだがとにかく英語が苦手でストレスフルだったのとエラーだので2日使ってのっぺらぼうしか作れなかった

今のdfもDFLしかない?
使いやすさの進化とかある?
0047名無しさん@お腹いっぱい。
垢版 |
2022/09/11(日) 20:36:40.69ID:anSX9+Hz0
一回ちゃんとやろうと思ってMVEでlandmark修正をチマチマやってたら一ヶ月かかってしまった…疲れた
0050名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:24:21.46ID:ilH+k3Ur0
gtx1070で細々と頑張ってましたが潮時かと思い始めて数か月
色々リサーチした結果rtx3060が最適解かとは思うのですが・・・如何せん金が無い
VRAMが最重要って事ならrts 2060 12gbでも良いのでは?と思っちゃったんですがダメ?
中古価格で5~10Kの違いは貧乏人には大きいんですけどやっぱrtx3060が良い?
0051名無しさん@お腹いっぱい。
垢版 |
2022/09/12(月) 21:39:07.63ID:8YJlD3vf0
4000シリーズが近いからアレだけど3060のほうが後悔は少ないだろう
2060の12GBって後から出てきたよく分からないモデルでもあるし
0052名無しさん@お腹いっぱい。
垢版 |
2022/09/13(火) 08:58:14.05ID:GjCF0axN0
性能としては2060ノーマルに12g載せた感じ
3060と同じメモリでも作業的なスピードは
全体的に若干落ちるかな
0053名無しさん@お腹いっぱい。
垢版 |
2022/09/14(水) 18:40:43.43ID:pMpALWT50
そろそろxsegに挑戦したいんですが、前スレでいただいたすごいxsegってとりあえずどこにつっこめばいんでしょうか?
0056名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:34:49.12ID:UXHz9/1+0
Mr.で貰って来たmodel使ってみたけど1から学習が始まってしまう
何か設定が必要なんでしょうか?
0057名無しさん@お腹いっぱい。
垢版 |
2022/09/18(日) 16:40:28.34ID:7h+Nwocv0
パッと見た目はわからんけど
pretrainは終わってるから1から始めるより学習が速くなってるはず
0062名無しさん@お腹いっぱい。
垢版 |
2022/09/20(火) 20:51:40.30ID:L5CYx+BW0
正直作るのめんどい
一作作るのに手作業が2時間位はあるし
0064名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 08:51:07.15ID:sMkgfCWR0
似てる素材を使うのがいいんだけどね
なんかズレてるなーと思って
ランドマーク見てもそうでもないし
MVE使って微調整しても意味ないしで
そうなったらカットしちゃう

ここ最近ギリギリの横顔(しかもちょっと斜め)
に挑戦してるんだけど
なかなか合ってくれない
これってsrc素材のほうでちょうど適合するのが
ないからですかね
(ランドマークは確認済み)
これがうまくいけばキスシーンの幅が拡がるので
なんとか頑張っているんだけど
0065名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 14:32:37.60ID:xF5pEfM70
srcを増やすときって、どうやってますか?
またextractし直したら上書きされてしまいますよね?
0067名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 18:28:25.61ID:xF5pEfM70
前からあるやつの名前変えて、あらたにextractし直せばいいってことですかね?
ありがとうございます。
0068名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 19:16:50.70ID:vj//9fr30
俺はsrcの別のフォルダ作って一旦そこに入れちゃう
0069名無しさん@お腹いっぱい。
垢版 |
2022/09/22(木) 19:26:40.73ID:Vq2/S5k40
①alignedに顔画像がある状態でdata_src(dst) util faceset packを使ってfaceset.pakファイルに顔画像をまとめる
②alignedフォルダ内に人物名のフォルダを作って顔画像と.pakファイルを移動させる
srcもdstもこれで管理してるわ
フォルダ内の画像は読み込まないし使いたい時はalignedフォルダにfaceset.pakだけ移動させれば使える

faceset.pakの名前を変更すると読み込まれなくなるのと
pakファイルはxsegの編集とかでは読み込まれないから編集したい時はunpackするか
alignedフォルダに元画像を全て移動させる必要があるのは注意
0073名無しさん@お腹いっぱい。
垢版 |
2022/10/01(土) 15:35:07.48ID:jYdpU7r00
眉のしたからdstの眉出てくるの対処出来ないかな?
0075名無しさん@お腹いっぱい。
垢版 |
2022/10/01(土) 21:37:20.00ID:jYdpU7r00
そうか、xseg使えるようpc買い替えないとダメだな
1080だけどレゾ256でバッチ2でなんとかって感じ
DFL2.0だとトレイン途中で止まるから
0078名無しさん@お腹いっぱい。
垢版 |
2022/10/02(日) 00:10:56.52ID:Ze/2Tdjv0
modelを再利用できるっていうのは、どういうことでしょうか?
modelがsrcを学習済みなので、dstを交換してもdstの学習のみで済むということでしょうか?
0079名無しさん@お腹いっぱい。
垢版 |
2022/10/02(日) 00:12:46.71ID:OxOsUZqo0
>>76
前髪はオンザ眉になるようなのにはチャレンジしてなくて
アエギ顔の時に眉間近くの眉毛が上がるからその時に出てくるやつです
>>77
i7-6700kだからヘタってきてるのかも
もう一度xseg使えるか試してみます

皆さまアドバイスありがとうございました
0080名無しさん@お腹いっぱい。
垢版 |
2022/10/02(日) 00:35:07.01ID:OxOsUZqo0
>>65
自分はオリジナルsrcをworkspaceから他のフォルダに逃がして継ぎ足したいsrc動画をextractまでやってalignedだけ残してalignedの中のPNGの名前をオリジナルと被らないように変更してオリジナルsrcの alignedに継ぎ足しsimilarとか任意でsortし直して使用してるわ
0082名無しさん@お腹いっぱい。
垢版 |
2022/10/02(日) 20:59:52.53ID:Ze/2Tdjv0
>>81
ありがとうございます
dstと相性が悪かったのでdstだけ交換してやってみます
0083名無しさん@お腹いっぱい。
垢版 |
2022/10/04(火) 00:04:37.44ID:NAUtJ9Ne0
dst変更してもmodel流用はできるってことで合ってますか???
0086名無しさん@お腹いっぱい。
垢版 |
2022/10/06(木) 12:42:07.12ID:Ixk/6OUP0
すごいxsegって、自分が使ってるxsegを置き換える形でいいんですよね?
0088名無しさん@お腹いっぱい。
垢版 |
2022/10/10(月) 22:39:01.54ID:PbSLq9kG0
modelをコピーして名前変えて、別のmodelとして使うことってできますか???
0090名無しさん@お腹いっぱい。
垢版 |
2022/10/11(火) 00:05:27.52ID:AxujvcyZ0
modelを色々いじくってブラッシュアップしたいけど、旧modelも出来が悪いわけではないから残しておきたい
0092名無しさん@お腹いっぱい。
垢版 |
2022/10/14(金) 21:48:09.32ID:gcamJQ5z0
dstの舌って、xsegで除外しますか?
0093名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 01:47:39.80ID:VGG5RfDp0
唇超えてたら除外するけどケースバイケース


何も障害物ないのに顔抽出スルーされるフレームが続出するの何なんだろう
0095名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 14:33:40.35ID:4anx+XCB0
xsegの笛とかベロチューのやり方動画ないですかね?
角度が徐々に変わる時とかどの辺りでマーキングし直すのかいまいち分からない 
0096名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 19:49:34.28ID:bgY0pqHI0
質問です

①の画像
髪から上が黒くなっている(目から下は正常に見える)
②の画像
鼻から上が黒くなっている(目は見えない)

がソートしたあとに残っているのですが、これは残すべきでしょうか
0097名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 21:07:33.42ID:bkLwUHoa0
質問

1、モデルが下唇を噛んでいるような顔の画像があるとき、これは入れるべきでしょうか?

2、認識について教えてください
srcの画像に笑顔と無表情の2種類があるとき、dstに怒りの表情があると適用できないという認識であっているでしょうか?
それとも、応用を効かせてくれるのでしょうか?
0098名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 23:16:17.03ID:4JEHwKEl0
>>95
前スレのすごいxseg導入すれば追加学習無くてもなんとかなってるよ
0099名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 23:21:17.72ID:4JEHwKEl0
>>96
dstの話なら、うまく抽出出来てそうなら残す、グチャグチャで失敗してそうなら消す
消しておくと、マージのときにスルーしてくれる。残しておくと、失敗の画像の場合はクリーチャーになる。

失敗してるかどうか判断つかないときは、alinged debugのほうを見に行くと良い
0100名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 23:25:21.40ID:KFNxbAys0
>>96
レアな画像なら残す基本は削除
②に関してはほぼ役に立たないかと
>>97
個人的には残す
大口やおちょぼ口は残してる

無表情、笑顔のsrcで怒りの表情は
ある程度はモーフィングしてくれる
ただ当然限界はあるので
多種多様な表情を揃えたほうがいい
0101名無しさん@お腹いっぱい。
垢版 |
2022/10/15(土) 23:27:01.53ID:4JEHwKEl0
>>97
1 srcの話なら、なるべくいろんな表情を残しておいたほうがいい。ただし抽出しっぱいするくらい難しい表情の場合は消しておく。

2 trainのときになるべく近づけるように学習されるが、srcのほうにdstと似た表情が入ってないときはあまり似ない(表現できない)はず。例えばsrcに笑顔しか入っていないとマージしたときに笑顔っぽい表情ばかりになる
0102名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 00:06:08.56ID:N6wVLrOh0
>>98
アドバイスありがとうございます
凄いxsegはmodelにコピペでxsegトレインも何もせず導入前と同じ工程で作成すればよいのですか?
0105名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 08:29:17.44ID:ky+FS/nE0
直撮りおじさんさぁ…
よく見てないけどOOMじゃないの
VRAM6GBでどこまでどこまで回せるのか知らないけど
初回は特に重いからバッチサイズ2とかに下げて回るか確認したら?
0109名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 09:54:21.45ID:C8xQoykK0
3060 12GBのほうが有能だったりね
0112名無しさん@お腹いっぱい。
垢版 |
2022/10/16(日) 12:57:20.40ID:Fc3TqUfF0
メモリエラーの表示があるから仮想メモリを増やす
faceタイプは選択するならMFじゃなくてWFの方ね
archiはliae-udよりもliae-udtのほうがOOMになりにくいよ
0117名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 20:43:55.21ID:oWwXdYZD0
プレビューウィンドウでtab押して1枚目表示されたらパラメータ調整
決まったらctrl+ > で1枚目の設定が全フレームに適応されるから放置
終わったらmerge to mp4で完成
0118名無しさん@お腹いっぱい。
垢版 |
2022/10/17(月) 20:49:29.67ID:DoGZSHTu0
前髪除外について質問です
眉はsrcのものを使いたいのですが、一部前髪が眉にかかっているものがあります。xsegの点線で囲って除外するので良いでしょうか?
0120名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 10:23:43.58ID:QTQkFNxd0
trainについて質問です

30分辺りでloss値が0.03とかしか変わらないのですが、これは良いのでしょうか?
目安の表などはないでしょうか?
0122名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 18:42:30.80ID:oqQkcfyK0
3000用DFLで普通に使えるみたいだけど
res320 dims512 64 64 32 batch8で
3090/450ms 4090/400msらしいから今は誤差レベル
これからCUDAの更新とかあればもっと早くなるかも
0123名無しさん@お腹いっぱい。
垢版 |
2022/10/19(水) 19:56:23.64ID:sCZmYln10
xsegについての質問です
現在、dstの顔の眉から下のみが変換される状態になっています
希望としては額を含めた顔全体を変換したいです

ただ、xsegのedit→train→applyを行っているのに何度行っても眉から下だけが変換されます
どうすればいいのでしょうか?
お願いします
0125名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 17:17:57.55ID:GMICPLRD0
dstの枚数が10万超えるとビデオ化失敗するわ
ファイル名が1万台と10万台のところで並び順が混ざって音ズレしてしまう
大作になりすぎないように気をつけよう。。
0128名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 18:06:35.66ID:GMICPLRD0
とりあえずフォルダ内を99999枚までに減らしてなんとかしたわ。もっといい対処方法あったんだろうけど。
0129名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 18:50:11.04ID:GMICPLRD0
novel aiちょっといじってみたけど、絵に興味ないとあんまりだな。df使いこなせてる人はローカルnovelaiもすぐ導入できるから遊んでみるのはおすすめ
0131名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 21:20:33.89ID:p+bRMkWL0
単に5桁の数字で切り出してるってだけ
ざっと見た感じ
_internal\DeepFaceLab\mainscripts\VideoEd.py
の%5dが5桁だからその数字を増やせば桁が増えると思う
0132名無しさん@お腹いっぱい。
垢版 |
2022/10/22(土) 21:41:51.40ID:GMICPLRD0
>>131
おおー、ありがとう!まさにそこらへんまでは見てたんだけど見つけられなかったわ。5を6にすればいけそうかな。
0134名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 09:03:49.72ID:OnJcdPDa0
srcの人物を変えたいのですが、modelを使いまわした方が良いでしょうか?それとも新しくmodelを作った方が良いでしょうか?
0136名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 21:04:01.06ID:gvOmj8x/0
sortを使うと画像番号が狂ってしまうのですが
これ壊れてますかね?
0138名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 21:30:20.54ID:gvOmj8x/0
うーん、番号が狂うとaliged_debugと合わなく
なるので、駄目なんじゃないですかね

今まで手動でやってたけど
大丈夫かと思ってやったらまた狂ってもうた
0140名無しさん@お腹いっぱい。
垢版 |
2022/10/24(月) 21:51:31.05ID:gvOmj8x/0
そうだったのか…
continueしてもうた
次から頑張ります
0142名無しさん@お腹いっぱい。
垢版 |
2022/10/25(火) 23:08:37.70ID:J2ipFT990
>>141
使ったことないけど性能違うのかな?
0143名無しさん@お腹いっぱい。
垢版 |
2022/10/26(水) 16:58:59.90ID:APR2sem50
すごいxsegつかってるだけで満足してるレベルでトレインもエンター押しっぱで始めちゃってるけど、トレインsaehdするときにここの数値は変えたほうがいいよってとこあったら教えてくださいm(_ _)m
0144名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 10:29:17.68ID:M7r7NraN0
resとバッチは自分の使ってるグラボとの
兼ね合いや、制作スピードや、自分の満足が
いくように設定
3090とかならres512のバッチ10とか行けそう

dimsとかその辺は基本デフォルト
2枚挿しでメモリ80Gとかでやってる外人さんは
デフォルト値を全部倍の数値でやってるらしいけど
金持ちにしかできんよな
0145名無しさん@お腹いっぱい。
垢版 |
2022/10/27(木) 14:20:32.30ID:X1qpxpXs0
trainの間ゲームできないからPCもう一台欲しくなってきた
0147名無しさん@お腹いっぱい。
垢版 |
2022/10/31(月) 22:46:31.29ID:jtMfs7/d0
H256で書き出すのって何を弄れば良いんだっけ?
色々と探したけど分かんなくなっちったよ( p′??。)
0148名無しさん@お腹いっぱい。
垢版 |
2022/11/01(火) 18:49:55.39ID:okYNWnlI0
[17:30:01][#515305][0369ms][0.1327][0.1702]
プレビュ-の目視以外でトレインの辞め時の目安ってどのくらいにしてますか?
二番目の回転数みたいのをだいじにするのか、右二つのほうが重要なのか
0149名無しさん@お腹いっぱい。
垢版 |
2022/11/02(水) 02:46:06.95ID:9YJbm+xM0
loss値の下がり幅かな
停滞したらRW抜くとかLRD入れるとかBS変えるとか
そのときの状況次第だけどね
0152名無しさん@お腹いっぱい。
垢版 |
2022/11/04(金) 09:15:09.94ID:WUioJ+pC0
RTX3060でVARMは12288MB、ドライブの容量には凄く余裕があります。
仮想メモリをカスタムに設定したらSAEHDが動くようになりましたが、
仮想メモリをカスタムサイズにした場合の初期サイズと最大サイズの
推奨値とかありますか?またSAEHDでのyやn数字を選択する所の
オススメの設定とかありますか?調べても少し古いのが多くサイトには
載ってない選択肢があり困ってます。長くてすいませんが最後に
トレーニング滅茶苦茶遅いんですけどなんでやねんです。
Quick96の時の10分の1ぐらいの遅さなんですけども普通ですか?
0154名無しさん@お腹いっぱい。
垢版 |
2022/11/05(土) 01:03:53.75ID:mE99NVVi0
英語の解説サイトをグーグル翻訳して読むのがおすすめ
もう少し質問が整理できるようになったら来て
0155名無しさん@お腹いっぱい。
垢版 |
2022/11/05(土) 09:23:27.63ID:hX6FK9Hv0
3060で32Gだとメモリ云々で困ることはなかったよ
確認したら19Gとか使ってるっぽいから
素直に32Gに増やすのがいいんじゃないかね
さいわい、メモリはそれほど高騰してないし
0156名無しさん@お腹いっぱい。
垢版 |
2022/11/05(土) 09:50:47.84ID:mE99NVVi0
俺も3060だけどメモリ16Gで問題出てないな
仮想メモリもお任せにしてる
res224 batch4~20ぐらいで回してる
0157名無しさん@お腹いっぱい。
垢版 |
2022/11/06(日) 02:14:05.45ID:v4PUrSlL0
考えたこと無かったけどpretrainのときってrandom worpとかのオプション設定はデフォルトのままでいいのかな?
0160名無しさん@お腹いっぱい。
垢版 |
2022/11/09(水) 14:20:07.99ID:75PwsS+g0
俺は最初から入れて目の瞳が綺麗になったり
歯が一つ一つ見えだしたら切ってる
0161名無しさん@お腹いっぱい。
垢版 |
2022/11/09(水) 14:26:58.68ID:QgOKNs4K0
あー途中で切るっていうのもあるのか
俺もあんまり使ってなかったんだけどまた試してみるわ、ありがとう
0162名無しさん@お腹いっぱい。
垢版 |
2022/11/09(水) 20:30:23.99ID:QgOKNs4K0
ごめん追加で質問なんだけどeyes and mouth priorityと同時に使っちゃいけないオプションってある?
0163名無しさん@お腹いっぱい。
垢版 |
2022/11/09(水) 23:50:53.46ID:+GWqptlJ0
eyesmousePriority入れると画質が制限があると別スレに書いてあった
本当か知らんが
0164名無しさん@お腹いっぱい。
垢版 |
2022/11/17(木) 11:48:05.09ID:rgkyZFCC0
xsegが適用されるのってmergeの時ですよね
マスクeditしてもMergeの時にマスクでxsegを選んでなかったからずっと何も変わってなかったけど合ってんのかな
0166名無しさん@お腹いっぱい。
垢版 |
2022/11/17(木) 23:43:59.63ID:3dAXTU/20
mergeの時に使う方法と、TRAIN前にapplyして使う方法がある。
後者じゃないとあまり意味無いけど
0167名無しさん@お腹いっぱい。
垢版 |
2022/11/18(金) 09:43:01.45ID:YTvVGelW0
ありがとうございます
色々やってるけどやっぱ主観でずっとこっち見続けてるようなやつ以外はほとんど顔がおかしくなるなあ
0169名無しさん@お腹いっぱい。
垢版 |
2022/11/20(日) 22:54:03.35ID:azJZlfpC0
liae-udtでeyes and mouth priority試してみたけど大きな変化は感じなかったわ
解像度低いからかもしれないけど
確かにちょっと目線合いづらくなってたからとりあえず使わない方向にした
0170名無しさん@お腹いっぱい。
垢版 |
2022/11/21(月) 09:34:18.03ID:ZQZ362ih0
EMPって目口を優先的にtrainするってだけでしょ?
効率以外に画質的な差とか出る?気にするレベルの
0173名無しさん@お腹いっぱい。
垢版 |
2022/11/23(水) 10:27:19.05ID:MPWtYLc30
最近気づいたけど、srcは画質優先にしたほうがいいね。多少手が写ったりしててもxsegでなんとかなる
0177名無しさん@お腹いっぱい。
垢版 |
2022/11/29(火) 17:04:07.55ID:3PSVUapq0
静止画のが画質良くなるからpinterest結構使えるな
角度は動画のが揃うかもしれんけど
0181名無しさん@お腹いっぱい。
垢版 |
2022/12/02(金) 17:20:01.14ID:jnYGnr9s0
liaeからdfに変えてみたんだけどtrue face powerってこれはganと同時に使っていいのかな?
どっち先がいいとかある?
0182名無しさん@お腹いっぱい。
垢版 |
2022/12/08(木) 20:50:47.81ID:owicea2X0
wfで笛動画って作れないですか?どうしても笛部分にsrcの口元が重なってしまいます、xsegは使用してます
0184名無しさん@お腹いっぱい。
垢版 |
2023/01/03(火) 23:54:17.85ID:fdqGH3/20
初心者質問なんですが、肌の色合わせってマージのときにwとsキーでの調整になるんでしょうか?
なかなか合わなくて。。色味のあってるsrcとdstを用意しなきゃだめでしょうか?
ちなみにここしか見つからなかったんですが、本スレ?はここですか
0187名無しさん@お腹いっぱい。
垢版 |
2023/01/04(水) 15:40:09.88ID:MogFj8Vw0
あと、trainでも肌の色を合わせるとこでrctとか選べるからそれもやっとくといいかも
それでも合わないときは合わないが
0188名無しさん@お腹いっぱい。
垢版 |
2023/01/05(木) 21:58:59.90ID:wIG3GNTE0
トレインとこでもrctにしといたほうがいいんですね。
トレインはそのままエンター押しっぱなしにしてました
0189名無しさん@お腹いっぱい。
垢版 |
2023/01/07(土) 15:48:13.47ID:rY8ss1tf0
Xseg の使い方がいまいちわかりません。

ジェネリックをダウンロード
Whole face mask apply
Mask edit であってないやつを修正
Fetchでdstフォルダに出来たaligned xsegをModelに移す
Xseg train
trained mask apply

この流れで合ってます?
0191名無しさん@お腹いっぱい。
垢版 |
2023/01/08(日) 15:48:49.39ID:4oZ0aXJa0
trainのところでenter a name to create a new modelすると、以前のmodelは消えてしまいますか?
0192名無しさん@お腹いっぱい。
垢版 |
2023/01/09(月) 13:09:29.18ID:F4Gi5vPX0
>>188
trainをrctにしとくと画像を周りの色と馴染ませてくれるっぽい
周りに極端に変な色がなければrctにしとくといいけど、やらなくても別に良いくらいのもの

>>189
xsegはいちいちtrain面倒なのでxseg applyだけにしてるな。xseg trainの仕方よくわからん
0193名無しさん@お腹いっぱい。
垢版 |
2023/01/09(月) 13:11:03.57ID:F4Gi5vPX0
>>191
それ、Modelフォルダが無いときに出る表示なので、modelのフォルダ名など確認すると良いかも
ちゃんとあれば出ないはず
0194名無しさん@お腹いっぱい。
垢版 |
2023/01/09(月) 13:13:34.90ID:F4Gi5vPX0
merge SAEHDが終わったら自動でmp4が出力されるようにしたいんだけどやってる人いないかな
extractが終わったら自動でsortするとか
0195名無しさん@お腹いっぱい。
垢版 |
2023/01/09(月) 14:42:30.06ID:/03+2rCo0
その辺はバッチファイルだから余裕でできると思うけど、PC初心者だと難しいかも
単純にバッチファイル内の内容を合併させるだけでも行けると思う
0196名無しさん@お腹いっぱい。
垢版 |
2023/01/09(月) 15:21:50.86ID:lqtXqFmP0
merge to mp4で書き出しした時にresult.mp4じゃなくて、
result1,2….mp4って上書きせずに別名で保存されるように書き換えたいんだけどどこを変更すれば良いんだろうか
pyファイルいくつか見たけど特定できない…
0199名無しさん@お腹いっぱい。
垢版 |
2023/01/09(月) 23:27:20.43ID:F4Gi5vPX0
>>195
ありがとう。その方向で試してみようかな。キー入力を自動で入れれさえすればできそう。キー入力で動かしたり閉じたりするやつが多いし。
0201名無しさん@お腹いっぱい。
垢版 |
2023/01/10(火) 05:06:30.72ID:OI+17qBX0
AIとは何なのか…
色々考えさせられるな
0202名無しさん@お腹いっぱい。
垢版 |
2023/01/14(土) 11:01:45.06ID:FKh1tW9r0
10秒程度の動画をなんとか完成できたけど結構大変やなこれ
そこまで有名人じゃないから高画質でアングル揃ってるsrcを用意するのが一番厳しかったわ
0203名無しさん@お腹いっぱい。
垢版 |
2023/01/14(土) 12:22:26.90ID:jPrYzATi0
1回作れれば、2回目以降はモデルも素材も使いまわせるし、多少時間長くても量産できるようになるけどね。
0212名無しさん@お腹いっぱい。
垢版 |
2023/01/22(日) 21:59:03.12ID:RFPGjc6m0
src角度揃ってもdstの横顔抽出失敗してる事多くて上手くいかないことが多い 特に奥の顔半分の目元とか
解決策あるのかな?
0213名無しさん@お腹いっぱい。
垢版 |
2023/01/22(日) 23:15:37.37ID:EDBidnyP0
横顔抽出はめちゃくちゃ苦手だからdstにするのを避けるか、どうせ横顔なんて似ないから無視するか
0223名無しさん@お腹いっぱい。
垢版 |
2023/02/02(木) 17:33:19.87ID:nRS8Tn/k0
>>199だけどやってみたら自動化できた
main.pyに追加のオプション名が書いてあるのでバッチにどんどん追加して切り貼りでtrain→merge→出力みたいにつなげる

mergeはmergerconfig.pyとかを直接いじらないとだめだけど。
0224名無しさん@お腹いっぱい。
垢版 |
2023/02/05(日) 01:04:50.32ID:k7b9fPS20
左の眉毛だけ前髪で隠れてるsrcを使ってtrainしてたら眉毛ごと右目を反転して左目として使われてしまったのですがそういうものなんですか?
0226名無しさん@お腹いっぱい。
垢版 |
2023/02/07(火) 23:53:39.93ID:Maj5uqyV0
ここで素材集めろ

tps://deepsukebe.io/?ref=DXVHb
0227名無しさん@お腹いっぱい。
垢版 |
2023/02/13(月) 07:36:26.68ID:ZiV8bwWf0
MVEに挑戦してみたいけどMRやdfvfx以外で分かりやすい使い方ガイドがあるサイトありますか?
皆さんは普通に使いこなせてるのでしょうか?
0229名無しさん@お腹いっぱい。
垢版 |
2023/02/13(月) 18:50:53.68ID:CjE6dXIp0
珍しく規制外れた
>>227
MVEで何したいかにもよると思うけど
自分はヒートマップ見ながらsrc素材集めにしか使ってないな、
手動ランドマーク修正とかはやってられんし。
0233名無しさん@お腹いっぱい。
垢版 |
2023/02/15(水) 22:43:17.73ID:Xmzu2TXe0
dstのランドマークで目を閉じさせればtrain時に閉じ目で学習してくれるという認識であってますか?
srcにもある程度目を閉じてる素材があれば
0234名無しさん@お腹いっぱい。
垢版 |
2023/02/15(水) 23:30:53.57ID:C36FdfN00
ランドマークはXsegしてないときは顔の範囲決めに使われるけど、Xsegすれば位置決めにしか使われない。
TRAINの時にランドマークを活用して向きとか目や口の形を計算するとかは一切無い。
0236名無しさん@お腹いっぱい。
垢版 |
2023/02/16(木) 00:20:59.23ID:F18icPDv0
それホンマけ?xsegのマスクってtrain範囲を指定するものだけどランドマークと関係ある?
位置の情報しか使わないで表情とかsrcで再現できるものなん?
0237名無しさん@お腹いっぱい。
垢版 |
2023/02/16(木) 00:52:51.54ID:5gsBWbny0
Xsegとランドマークは関係ない。Xsegされてない時にランドマークの輪郭が範囲として代用されるってだけ。
学習はあくまで2次元の絵として特徴が学習されるだけで、ランドマークは全く使わないし、角度にあわせて切り貼りしてる訳でもない。
オマケに、アゴのラインのランドマークは位置合わせにも使われないから、Xsegしてる場合は全く意味無い。
0238名無しさん@お腹いっぱい。
垢版 |
2023/02/16(木) 01:24:17.56ID:F18icPDv0
あくまでsrc、dstの学習時に使われない。という話?train時の画面で言う左から2枚目と4枚目の画像。
dstをsrcで再現するとき(5枚目)にはランドマークの形が使われているんじゃないの?
0239名無しさん@お腹いっぱい。
垢版 |
2023/02/16(木) 01:34:49.72ID:HRn8ngui0
>>229
顔の近くに手などの障害物があると輪廓をとらえきれずに透かしたような輪郭が外側に出来たり目の位置がおかしかったりすることがあるので輪郭やパーツの配置を出来るだけ正確にとらえたいからです
>>231
ありがとうございます 参考にして挑戦します
0240名無しさん@お腹いっぱい。
垢版 |
2023/02/16(木) 07:59:45.70ID:HR+MxSPg0
233を書いたものですが、ランドマークで閉じ目判定できるのかなと思った理由が前スレのやり取り↓を見たからです


176 名無しさん@お腹いっぱい。[sage] 2022/04/02(土) 11:07:26.17 ID:bJ41ty0m0
dst では閉じ目のシーンが、出来上がりを見ると半目になってしまいます
これを閉じ目にしたいのですが、何かいい方法ないでしょうか?

loss値は0.2くらいで、一応src5000枚のうち、200枚くらいは目を閉じてます

178 名無しさん@お腹いっぱい。[sage] 2022/04/02(土) 17:03:59.56 ID:P0/RTPSV0
>>176
ae dimsを上げるか、MVEでdstのランドマークをいじれば多分いける
0242名無しさん@お腹いっぱい。
垢版 |
2023/02/16(木) 08:30:40.87ID:rRW1usUU0
>>240
ランドマークいじっても意味無い。
dstの目開けてるシーンを増やして、srcの目閉じてる割合を増やす。なんなら学習する時だけalignedの顔をコピペで増やしたりして割合調整すればいい。
具体的にどれくらいかは、素材にもよるしモデルの学習の程度にもよる。
0244名無しさん@お腹いっぱい。
垢版 |
2023/02/17(金) 00:10:37.08ID:b+DUitFv0
>>237
衝撃のあまりオウム返しっぽくなるが
Xsegしているなら目鼻口の位置さえあっていれば出来上がりに遜色ない、てこと?
今までアゴのラインがずれてるだけで一個ずつ手動ランドマーク修正していた俺は…
笛なんてもう嫌になるほど…
0245名無しさん@お腹いっぱい。
垢版 |
2023/02/17(金) 01:08:46.45ID:cWsjf25j0
>>244
残念だがそういうこと。笛の細長いアゴは放置して良い。
位置さえ合わせられるなら目鼻だって無視していい。
瞬きのたびに画像がブレるのは目の形が変わって位置合わせがブレるからだし、横顔も素材不足だけじゃなく見えてない方の目の位置のズレとDFLの設計上横顔はちょっとした変化で位置がブレやすいせいもある。
MVE使えるなら右下のプレビューが前後と比べてブレが少ないように調整するのがいい。前後のフレームをコピーして調整するとか。
0246名無しさん@お腹いっぱい。
垢版 |
2023/02/20(月) 09:26:08.14ID:4dPv0+8P0
resolution128だと問題ないのですが、256にすると以下のエラーが表示されてしまいます
仮想メモリを増やすと改善するとのことで、設定してみたのですが変わりませんでした
原因わかる方いらっしゃいましたら教えていただきたいです

CPU:i5 10400F
GPU:RTX3070 528.24
メモリ:16GB
Win10 x64
GPUスケジューリング:ON
仮想メモリ:初期 最大 65536
DFL RTX3000_series_build_11_20_2021

https://imgur.com/5goqn52.png
https://imgur.com/0e0I21O.png
https://imgur.com/G5v0mbj.png
https://imgur.com/dk1oFVI.png
0248名無しさん@お腹いっぱい。
垢版 |
2023/02/20(月) 14:25:23.14ID:4dPv0+8P0
>>247
3まで落としたら動きました!
解像度256はメモリが少ないと中々厳しいのですね
レスありがとうございました
0249名無しさん@お腹いっぱい。
垢版 |
2023/02/20(月) 22:35:00.10ID:fK5C7GLQ0
グラボ変えたから2年ぶりくらいに復帰してDFLで動画作ってるんだけど、眼鏡かけてるsrcを上手いこと眼鏡かけてないdstに乗せる方法ってなんかあります?
昔DFでやった時はそこそこ上手くいったんだけど、liaeで作ったのが悪いのか設定が悪いのかわからんがメガネ部分の再現がイマイチで…
0250名無しさん@お腹いっぱい。
垢版 |
2023/02/21(火) 23:13:00.90ID:ccgKX9a10
LIAE使わないから分からんけどDFでは出来る。xseg使うなら障害物として認識してると再現されないから注意
0251名無しさん@お腹いっぱい。
垢版 |
2023/02/21(火) 23:24:36.28ID:D/7kSmxt0
>>250
今の環境ってliaeで安定ってどっかで見たんですが、眼鏡の場合はDFのが上手くいくっぽいですかね?
とりあえずDFでもう一度回してみますわー
0254名無しさん@お腹いっぱい。
垢版 |
2023/02/22(水) 01:22:35.10ID:ze0Y3MfF0
xsegは何枚か手動でやって、xseg trainしてからapplyすれば、全体が同じようにマスクされるって仕組み
0256名無しさん@お腹いっぱい。
垢版 |
2023/02/25(土) 07:19:24.43ID:ukScmqKv0
日本人の善良性は良い事なんだよ
俺らみたいなクズだってその恩恵に預かって平和に暮らせてる
問題はその善良性を利用しようとする悪意から守る組織がないことだよ
0257名無しさん@お腹いっぱい。
垢版 |
2023/03/06(月) 10:04:30.53ID:fSbU7phg0
いつもffでやってて、そろそろwfとかhead試そうと思ってるんだけど、
xsegもwf用とかhead用に準備しないといけないのかな?
いつもxseggeneric使ってるんだけど、髪の毛の部分が全部マスクされるから意味なくなる気がして。
0258名無しさん@お腹いっぱい。
垢版 |
2023/03/06(月) 17:54:04.09ID:44uPUE1m0
プレビューで赤い斑点みたいなのでが出てきたが
Face Style Power 0.001で数分回したらもとに戻ったわ
未来の誰かのために書いておく
0259名無しさん@お腹いっぱい。
垢版 |
2023/03/06(月) 17:58:05.68ID:44uPUE1m0
headは頭丸ごと(髪の毛含む)入れ替えたいのだからhead用Xsegを用意する必要あり
wfはGenericが用意されているからとりあえずそれ使うもよし、srcの前髪再現したいなら別途用意
0260名無しさん@お腹いっぱい。
垢版 |
2023/03/06(月) 18:46:36.08ID:6ZPjB8EA0
俺も最近ffからwfに変えたけど、DFLについてるxsegは元々wf用だよね
俺は前髪ありにしてみたけど、激似度が増してすごいけど違和感も増えるな
抜けるから良いけど
0261名無しさん@お腹いっぱい。
垢版 |
2023/03/07(火) 11:17:06.57ID:yyLoujDV0
モデルのdecoderのdstとsrcを入れ替えてやり直すと違和感減るって裏技教わった。多少混ざる感じはあるけど馴染んだ気がする。
0262名無しさん@お腹いっぱい。
垢版 |
2023/03/07(火) 13:15:51.87ID:ncSOUbYQ0
>>259-261
なるほど、wfならgenericでいいけど、前髪調整とかheadとかは専用xsegで、カスタマイズしたりするわけだね。裏技もどうもです。
0263名無しさん@お腹いっぱい。
垢版 |
2023/03/15(水) 11:16:48.93ID:uxH5cOEq0
プレビューで顔にタイルが張り付いたみたいになったのってもうmodel崩壊しててどうしようもないんでしたっけ?
trainの設定でリカバリー出来ます?
0268名無しさん@お腹いっぱい。
垢版 |
2023/04/01(土) 03:36:15.87ID:oXMyyJb00
前、ここで教えてもらった万能xsegなるものがある中華のサイト、よくわからんがなんか色々お宝ありそうだなあ。
買い方すらわからんが。
0271名無しさん@お腹いっぱい。
垢版 |
2023/04/02(日) 18:27:58.32ID:2bSeiGCI0
汁物(特化型)と万能(バランス型)じゃあ両立無理でしょ
どんなfacesetにも対応できるxsegとかないし、自分で調節するのが手っ取り早くて良質。
0273名無しさん@お腹いっぱい。
垢版 |
2023/04/08(土) 16:46:37.81ID:DUwANlWJ0
ここでもらった万能Xsegがめっちゃすごくて、手とか髪とか、汁も結構うまくいくから使っていたけど、おれはfでやってるのにwfのを強引に使っていたり、少し汁にも不満が出てきたから、ゼロから作ってみようと思うけど、やっぱめんどくさいかな?
0275名無しさん@お腹いっぱい。
垢版 |
2023/04/08(土) 22:14:00.15ID:Es4AtnVu0
ラベルの仕方分かっててaligned素材あるなら数十分あれば万能よりはマシなの作れると思うけどな。
modelはゼロからだとtrain遅すぎだからpretarin済拾ってきて流用。
0277名無しさん@お腹いっぱい。
垢版 |
2023/04/09(日) 01:22:18.82ID:XzEt//5J0
今はすべてwfになっているけど、最初はfの方がいいという感じじゃかなったかな?
すでに色々素材をfでやっちゃったんだけど、wfの方がいいところってどこなんかな?
0280名無しさん@お腹いっぱい。
垢版 |
2023/04/09(日) 22:25:35.58ID:Sq/PGNPh0
前髪込みでやってる
DFLの解説サイトって外人が書いてるのばかりで、その通りxsegやってたけど
日本の女性アイドルの顔って前髪も含まれてるなってのを改めて感じる
0281名無しさん@お腹いっぱい。
垢版 |
2023/04/10(月) 00:08:35.71ID:Od/G1B/k0
なるほどね
srcとdstの髪色は絶対合わせなきゃいけないけどありかもなぁ
試してみるわ
0283名無しさん@お腹いっぱい。
垢版 |
2023/04/10(月) 02:58:19.03ID:xPwX36Qu0
俺も前髪込でやってるが、アイドルはこの方が断然似る。ただ境界に違和感出やすい。
かこむ範囲はいわゆる前髪の範囲
0284名無しさん@お腹いっぱい。
垢版 |
2023/04/11(火) 04:31:02.08ID:4kp8KaKm0
wfのほうが横顔の範囲が広いんで斜め向きのときにfより違和感が少ない。
マージ速度は遅くなったけど
0285名無しさん@お腹いっぱい。
垢版 |
2023/04/12(水) 13:30:27.53ID:mYNmjkPD0
試しに前髪込みで作ってみたら意外と簡単にできた。囲むのも20枚くらいでも大丈夫そう

ただ、trainが足りないのかもだけど278みたいにきれいにならず前髪と他の髪の境目が激しく違和感ありありになった
0286名無しさん@お腹いっぱい。
垢版 |
2023/04/12(水) 20:25:52.27ID:hWMuxz4H0
>>278
すごいな。
ネットに出てる一部のやつはそんなにレベル高くないんだな。
性質上、これって職人が地下に隠れて自分のためにしかしない世界だからどこまで到達しとるかすらよくわからん。
中華はだいぶオープンだが、日本はやっぱり自分でやっていくしかないんかなあ。
0293名無しさん@お腹いっぱい。
垢版 |
2023/04/24(月) 18:19:35.45ID:H4dHLJHj0
俺もセーブで落ちる現象しょっちゅうあった
PCのメモリを16Gから32Gに上げたら治った
そんなにメモリ使ってるように思えないけど
0302名無しさん@お腹いっぱい。
垢版 |
2023/05/05(金) 05:21:19.05ID:8VpD3odv0
>>299
すげぇ
1050で頑張っていたがちゃんとしたグラボ買おうかな。
0307名無しさん@お腹いっぱい。
垢版 |
2023/05/06(土) 23:50:07.90ID:GPX+IrsI0
>>306
同じことをhinataでやってるだけだよ
ちょっと編集して上げときます
https://streamable.com/25z9x5

とあるブログにあったdeepfacelab 勝手にFAQという記事が大変参考になりました
facetypeはずっとfでやってきたけどwfに切り替える踏ん切りがついた
0308名無しさん@お腹いっぱい。
垢版 |
2023/05/07(日) 02:18:53.34ID:vHMedS9C0
耳出しするかどうかもwfとxsegでコントロールできるのか
0311名無しさん@お腹いっぱい。
垢版 |
2023/05/19(金) 11:23:25.70ID:BCIWqu440
liae-udtって学習結構重くなりますか?
今df-udなんですけど
0313名無しさん@お腹いっぱい。
垢版 |
2023/05/19(金) 18:24:28.89ID:BCIWqu440
横顔とかが多めならliaeの方がいいってことか
0314名無しさん@お腹いっぱい。
垢版 |
2023/05/20(土) 12:40:13.30ID:0huAZO1B0
30人くらいの顔に置き換えて並べた動画見かけたんだけど、それぞれ学習したってこと?一括で出来たりしないよね?
0315名無しさん@お腹いっぱい。
垢版 |
2023/05/20(土) 16:18:41.95ID:KsgtRVo+0
srcが全部別人という意味なら、単に人数分モデル学習して別々にmergeしたんじゃない?
dstが30でsrcが1という意味なら一括でいけそうだけど
0317名無しさん@お腹いっぱい。
垢版 |
2023/05/20(土) 21:44:03.45ID:qSo/EFPf0
>>314
ワイは223に書いたけど複数srcを自動で切り替えて一気に作れるようにしたで
0320名無しさん@お腹いっぱい。
垢版 |
2023/05/21(日) 16:48:12.26ID:kmE3PZ5/0
>>318
自分用に複数のファイルをごちゃごちゃいじったから上げるのは難しいけど、コード読んでちょっとずついじってけばできなくはないレベルよ
すぐ戻れるように元の環境をコピーして色々実験してみると良い
0322名無しさん@お腹いっぱい。
垢版 |
2023/05/23(火) 00:32:18.44ID:GszYT59n0
顔のランドマーク漏れを手動で抽出させる作業に億劫な思いしているんだが、pythonとか使ってあの作業をプログラムで実行させるとかってできないの?
そういうことやってる人いる
0324名無しさん@お腹いっぱい。
垢版 |
2023/05/23(火) 23:44:25.36ID:25ALQNza0
>>322
ミスったalingedをリストにしてalinged_debugから削除するプログラムはすぐ作れる。
そこから一枚ずつ再抽出は手動だが。
0326名無しさん@お腹いっぱい。
垢版 |
2023/05/29(月) 00:55:40.36ID:fabDcnGr0
定期的に自動でランダムにマウスを動かしていくプログラムは簡単に作れそうだな
ランドマークが出現したら次に行くというコードを実装するのが難しそうだが
0327名無しさん@お腹いっぱい。
垢版 |
2023/06/02(金) 01:41:11.04ID:UfsOmOis0
pyautoguiとopencv使えばできそうな気がするが、そういう方法とっている人おらんの?
0330名無しさん@お腹いっぱい。
垢版 |
2023/06/05(月) 23:24:27.84ID:hhSXD8Fw0
>>328
入れ替え試したいけど大変だし公式で改善してほしいなあ
0332名無しさん@お腹いっぱい。
垢版 |
2023/06/07(水) 23:19:01.84ID:Ikq0QrkQ0
nsfwフィルターを無効化したい場合はcore.pyの

if predict_image(target_path) > 0.85:
quit()

seconds, probabilities = predict_video_frames(video_path=args.target_path, frame_interval=100)
if any(probability > 0.85 for probability in probabilities):
quit()

これらをコメントアウトすればおk

参考に RTX3060ti でメモリフルロードCUDA使用率96%くらいで処理が進んでいく
0334名無しさん@お腹いっぱい。
垢版 |
2023/06/08(木) 00:15:58.53ID:aHCH31RJ0
使ったけど学習モデルの解像度低いし微妙じゃない?
海外コミュニティでも完成後に全フレームを超解像推奨って感じだったし
0336名無しさん@お腹いっぱい。
垢版 |
2023/06/08(木) 14:06:38.26ID:40JxCQYM0
AI画像生成界隈で生成画像の動画化が次の目標って感じでそういうツールが色々話題になってる。
DFLで作る動画と比べたらだいぶ簡易版って感じだよ。今後に期待ではある。
0338名無しさん@お腹いっぱい。
垢版 |
2023/06/08(木) 22:46:36.04ID:BR70T0SQ0
>>331
動画見る感じ出来は良さそう
暇なとき試してみるかな
0341名無しさん@お腹いっぱい。
垢版 |
2023/06/10(土) 15:30:15.61ID:Xrhgez9R0
DFLきっかけにAIの勉強を始めているんだが、一瞬話題になったfacejappのようなものを開発できるようになるのはいつのことやら
0343名無しさん@お腹いっぱい。
垢版 |
2023/06/14(水) 22:43:03.24ID:Y/KSN3GV0
>>331
起動とプレビューまではできたけど生成がなぜか動かねえ
性能的にはそこまでだけどワンクリックで完成するので手軽さはいいね
もうちょい導入簡単になればいけるな。てかこれウェブサービスにできそう
You Tubeに試してみた動画があるから気になる人はそれ見とけばいいと思う
0345sage
垢版 |
2023/07/27(木) 10:33:16.04ID:SjQmTMxf0
CPU:i9 13900
GPU:RTX3070ti
メモリ:48GB
Win11
GPUスケジューリング:ON
仮想メモリ:最大 144000
DFL RTX3000_series_build_11_20_2021
SRC 3万枚
DST 3万枚


これでtrain SAEHD が
Face type wf
resolution 64
AutoEncoder dimensions 64
Batch_size 4
でやっとなんだけどもっとパラメーター上げられないのかな?

resolution 128
AutoEncoder dimensions 128
Batch_size 8
とかは無理?

train Quick96だと普通に動くんだけどなぁ。
それと同時に>>344と一緒の症状もあり。
0348名無しさん@お腹いっぱい。
垢版 |
2023/07/28(金) 03:10:12.35ID:+JMKxiqQ0
src,dstとも1万枚くらいまで落とした方が軽くなるんじゃない?
特にdstは分割してもクオリティーに関係ないから
0349sage
垢版 |
2023/07/31(月) 20:37:40.71ID:xNSPzyrl0
345だ
希望通りにできるようになった

>>346
ありがとう分をわきまえるよ

>>347
レスありがとう
おそらく原因は色々試した結果
『OSError: [WinError 1450] システム リソースが不足しているため、要求されたサービスを完了できません。』
これが出た後少し時間が経つと(1m位)動くことがあってその時にブラウザを多重起動させると動きが止まるので俺の使い方がアホだって事でFaみたいだ

>>348
ありがとう、そうする。

1050で頑張っていると書いて死ねと言われて奮発してみたが
おまいらこんな良いの使ってるんだなぁ。
CPUもI5の第4世代から変えたから変化の凄さに驚いてる。

枚数は
SRC 1万枚
DST 1.6万枚
まで減らしてブラウザーなど余計なものを立ち上げずに実行したら>>345で希望したパラメーターで動くようになった。
ブラウジングなどしなければもう少しパラメーター上げても動きそう。

お騒がせして申し訳ない。
そして感謝。
0350名無しさん@お腹いっぱい。
垢版 |
2023/07/31(月) 20:51:13.85ID:xNSPzyrl0
sage間違ってたなスマン

345だ
追記で「ページングファイルが云々」の表示が出た場合は要求するパラメーターがスペックを超えてるようで、
いくら待っても動かなかった。
(動くのかもしれんが俺の環境では動かなかった)
ありがとう。
0351名無しさん@お腹いっぱい。
垢版 |
2023/08/01(火) 00:57:31.08ID:YWsllAid0
>350 詳しく説明できないですが、ページングファイルはスペックのいいパソコンでも
何十ギガか設定しておかないと動かないことがあります。固定して何十ギガか設定されると改善すると思います。
Batch数も上げられるかもです。どうか解決しますように。
0352名無しさん@お腹いっぱい。
垢版 |
2023/08/03(木) 00:54:42.96ID:jDa/47nl0
必要な仮想メモリを知りたい時はタスクマネージャのメモリのコミット済みのところを確認
trainしながら他のことをしたいなら余分にメモリ確保
ちなみに32スレッドでmargeしようとすると140GBほどメモリ必要
0353名無しさん@お腹いっぱい。
垢版 |
2023/08/05(土) 16:50:28.99ID:hp0s8X580
RTX4060Tiのメモリーが16Gになっていて、RTX3060よりちょっと多くなるけどまあコスパは3060の方がいいとして、もうちょっと解像度上げたいあるいは時間短縮したいなんかで
買うとして、
まず4000代ってそもそも動くのか?
その上で、12Gを16Gにしてどれぐらい幸せになるのか?
すでに上位機種で16G使ってる人いたらそれも教えてください。
0354345
垢版 |
2023/08/12(土) 12:22:32.89ID:ilZPXXvx0
>>351
ありがとう

>>352
ありがとう
train SAEHD した後タスクマネージャを見ているとコミット済みの分母が上昇していき
俺の環境だと色々試した結果SRC,DST1万枚まで減らして174/191辺りで、
resolution 196
AutoEncoder dimensions 288
Batch_size 8
が限界のようだ。

動くまでの変な間はコミット済みのメモリが落ち着くまでの間だったんだなぁ。勉強になった。
動く動かないが明確に分かるようになった。

それから>>344も(多分一緒だと思うが)解決した。
俺はDFLをデスクトップに置いていたんだが、パスにカタカナとか入ってるとダメなのかもしれない。
Cドライブ直下に置いたらxsegできた。

とにかくおまいらありがとう。
0355名無しさん@お腹いっぱい。
垢版 |
2023/08/12(土) 21:53:16.47ID:fIBlbfQn0
学習時間をどれくらい短くしたいかにもよるけど、1日待てるならbatch 1とか2に下げて、resolution 出来るだけあげた方が幸せになれる。
dimsはデフォルトのままでいい。
但し、モデル使い回す前提だから、最初は誰かにモデル貰うのがおすすめ。8GBあれば320でも行ける。
0356名無しさん@お腹いっぱい。
垢版 |
2023/08/17(木) 01:03:49.99ID:P8jwvJAm0
rtx3060買ったからmodel作り直そうかなと思ってるんだけど
解像度とae_dimsってどれぐらいのバランスにすればいいんだろう
できれば解像度は384ぐらいまで上げたい
0357名無しさん@お腹いっぱい。
垢版 |
2023/08/24(木) 15:01:26.64ID:QI+RauGh0
モデルを再利用しようと思ったんだけど、設定を変更する画面に行く前に勝手にtrainが始まる
これって複数あるモデルファイルのどれかを消せばいいんですか?
0360名無しさん@お腹いっぱい。
垢版 |
2023/09/02(土) 16:32:14.34ID:FvAR9ATK0
最近ちょっと疎くて調べたけどよく分からなかったので教えてください。
ちょっとマシン入れ替えの必要がでまして、何買うか検討中なんですが、
Ada LovelaceコアのRTX4070,4080辺りで、DeepFaceLab_NVIDIA_RTX3000_seriesとfaceswapとfaceswapは動作するのでしょうか?

現在の環境はノートの3070Laptop(これが交換対象)と、
あと五月蠅いので使ってないですが1080tiデスクトップです。
0363名無しさん@お腹いっぱい。
垢版 |
2023/10/17(火) 15:33:31.65ID:7g80lVQu0
MVE使いたいけどYouTubeだとUIやファイルの表示が小さすぎて何を弄ってるかわからないから日本語で分かりやすく解説してるサイトとかないかな?ディスコードだけじゃ理解が追いつかなくて
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況