【質問】dfl【その4】

■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。
垢版 |
2022/02/12(土) 17:06:21.44ID:6x5j6Sbc0
DeepFaceLab(以下、DFL)の質問&回答スレです

・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。

・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。

・RTXシリーズでも動くの?
FS、DFL共に動く。

【質問】dfl【その3】
https://egg.5ch.net/test/read.cgi/software/1607860934/
2022/03/27(日) 22:55:56.34ID:jO66UYzT0
headのもやもや感が全然取れん
3060じゃパワー不足かな?
2022/04/01(金) 02:49:24.34ID:i/Dt3ia50
全然更新ないなって思ってたけどこのソフトの作者ってロシア人なんだっけ?
2022/04/01(金) 21:59:37.07ID:4WodZj1v0
ロシア人だけど今も有名人のDF作るかオーバーウォッチで遊ぶかディスコでしょうもない質問してくる奴に対してキレてるだけで暇なのに細かい更新しかしてないから期待できないなw
2022/04/02(土) 11:07:26.17ID:bJ41ty0m0
dst では閉じ目のシーンが、出来上がりを見ると半目になってしまいます
これを閉じ目にしたいのですが、何かいい方法ないでしょうか?

loss値は0.2くらいで、一応src5000枚のうち、200枚くらいは目を閉じてます
2022/04/02(土) 14:30:20.60ID:n+sdsj+m0
LIAEだとマシになる程度
2022/04/02(土) 17:03:59.56ID:P0/RTPSV0
>>176
ae dimsを上げるか、MVEでdstのランドマークをいじれば多分いける
2022/04/02(土) 20:25:58.83ID:bJ41ty0m0
>>178
ae_dims初期設定の256からいじったことないんですけど、どれくらい上げれば変化分かるものなのでしょうか?
それと、ae_dimsってtrain途中で変えることできないんですが、初めからやり直すしかないんでしょうか?
2022/04/02(土) 20:38:49.85ID:vMFBhom70
目を閉じたsrcとdstだけ集めて別にやる手もある それでも完璧にはならないけど
2022/04/02(土) 21:04:15.77ID:MzF+nllB0
>>179
多分やり直すしかないと思います
aeは512位が良いのではないかと
2022/04/03(日) 17:24:15.63ID:WTeczf3+0
目を閉じない問題は、私はsrc素材の1/3くらいは
目を閉じてる画像にしましたね
そもそも作る動画の内、半分以上は閉じてるので
がっつり増やしてもいい感じ
それで現状は納得してます
>>180さんの言う
個別でやるのは何度か試しました
かなり良い感じに閉じてくれるのですが
再び他のと混ぜて学習を始めると
すぐにうっすら目が開いてきてしまいました
個別でやる場合完全に作業を分ける必要が
ありそうです
少々手間ですけどね
2022/04/04(月) 12:49:57.53ID:5VrWw7W80
modelについて教えて下さい

例えばセクシーAのdstに真矢ミキのsrcでmodel maya1で作る。
その後別のセクシーAのdstで作る場合、前のdstフォルダだけ移動させておいて、新しいdstの作成→model maya2てな具合にするんでしょうか?
それともmaya1を使い回せますか?
またセクシーBでdst作りなおす際は、modelフォルダも作り直しになるんてしょうか?
2022/04/06(水) 08:43:26.77ID:AFJhfssD0
使い回しても、名前を付けておけば
train時など選択できるようになっていますけど
私は作り直していますよ
あとから解像度だったり、segの学習だけ残して
また違う設定でやり直すとき楽ですから
2022/04/06(水) 12:18:49.01ID:935Nv1JU0
ありがとうございます。
作り直しでいきます。
2022/04/10(日) 13:12:42.13ID:V+Nr+wj40
黒目の中の光(ハイライト?)あれはeyes pri〜つけてしばらく学習してれば光ってくるんでしょうか?
現状レ○プ目みたいになってしまいます
187名無しさん@お腹いっぱい。
垢版 |
2022/04/11(月) 04:37:57.89ID:NZhVHzX80
eyes_mouth_prio
目と口元を優先して学習するのでそうですね
2022/04/11(月) 19:48:50.41ID:+t9joplk0
mergeした時に、たまにほんの小さなノイズが入ってたりするんですが何が原因なのでしょうか?
それとこれもたまに一部だけ色がおかしい(褐色系になってる)ことがあるんですが、こちらの原因も知りたいです

どちらも過学習とかなんですかね?
2022/04/11(月) 20:19:11.12ID:t0FU5e360
dstのランドマークが微妙にグチャっとなってるとか
2022/04/12(火) 10:51:59.06ID:dFbSR8GF0
>>189
かなりブレてるdst使ったのでノイズの原因それかもしれません
ランドマークおかしいと肌の色も変になるんでしょうか?
2022/04/12(火) 16:14:04.26ID:qI5Tf84l0
xsegについてなのですが、srcとdstを分けて学習させる方法無いですか?
2022/04/16(土) 16:21:07.16ID:DuGhO7Du0
srcもdstも色素薄い系の唇なのに、mergeすると蛍光ピンクの唇になるんだけど、唇の色味をsrcに近づける方法ないかな?
CTはtrainの最後の方だけオンにして、mergeはrctでやってる
2022/04/17(日) 00:29:31.39ID:rUWuQdwG0
>>192
merge時の変換対象範囲にビビットな色が入ってるとcolor_transfer_modeによっては顔の中に色移りするよね mix_m とか
顔の中や近くに同じピンク色の物体あったりするかな?
rctなら問題なかったと思うけど、ちょっと前にmergeのrctに関する不具合改修入ってたような
2022/04/17(日) 11:09:50.31ID:fnFMs2If0
>>193
近くにピンクなものは無いかな
train不足かと思ったけど、empオンにして0.2まで下がってるし、res192の限界なのかも
ganはまだ使ってないから、それやってみてダメだったらもう少し高い解像度でやってみる
ありがとう
2022/04/17(日) 14:21:53.43ID:glI3I/Yr0
背景が暗い時とか明るすぎる時も顔の色に影響しておかしくなる事があるな
res416でもたまにsrcとdstの相性で起こるしtrainの回数とかでもなくてCTとmergeの設定が適してないと思う

train中のCTがrctならmergeの設定はnoneとか他の色に変える
merge中に「3 あ」キーを押してCTと組み合わせる(通常に戻す時は「1 ぬ」)
「P」と「;」キーでcolor degrade powerを調整して顔の色味を薄くする
バックアップがあるならtrain時はCT noneにしてmerge時だけCTを使う
他にも「2 ふ」のhist-matchに変えたりとかerode maskの値を下げたりとかmergeの設定をとにかく変えまくればどこかで自然になるはず
2022/04/17(日) 15:32:04.89ID:mtEFPZeR0
xsegマスクとかで背景のド派手な色までマスクしていると
チークや唇がド派手な色になるね
マスクで1ドットでも拾ってしまっているとド派手になる
dst側で拾ってしまっていることが多い
2022/04/17(日) 16:41:36.00ID:IcWw10n+0
顔全体において、目鼻口を少し上や下の位置にずらして配置する設定ってないんですかね
198名無しさん@お腹いっぱい。
垢版 |
2022/04/17(日) 21:35:15.30ID:3XvgvHfn0
>>196
なるほど唇が真っ赤になってなんで?
って思っていましたが理由がわかりました
ありがとう
2022/04/19(火) 20:04:55.00ID:xGLImC0Y0
マージした時に小さいほくろみたいな斑点がでるんだけど、これってモデルが崩壊してるってことなの?
斑点は数枚出て少ししたら消える
200名無しさん@お腹いっぱい。
垢版 |
2022/04/20(水) 09:01:15.97ID:6eatME5b0
>>195
仕上がりの動画で顔がチカチカすると書いた者ですが

mergeの設定をlctにしてみたり
他にも書いてあるのをいくつか試していけば
改善されそうです
遅くなりましたが感謝です
2022/04/22(金) 18:09:09.61ID:TVPvMheP0
圧倒的にsrc素材がたんないんだけどどうしてる?
金かかってもいいからブルーレイから動画切り出す方法教えて下さい
2022/04/22(金) 20:56:28.29ID:NB8VdweX0
makemkvでググって
2022/04/22(金) 21:37:38.33ID:TVPvMheP0
まじでありがとうございます
2022/04/24(日) 21:51:41.33ID:OfbeTYjB0
Lenovo Legion T770i を新規購入したのですがDFLがエラーで動きません
Error: Blas GEMM launch failed
というエラーが出てきます
タスクマネージャみるとGPUのメモリが全く反応していません
ベンチマークではGPUはきちんと稼働しているようなのですが…
2022/04/24(日) 23:11:33.01ID:fOxVveo50
それは大変だね
2022/04/24(日) 23:43:36.31ID:ZxVG2GE90
情報が少なすぎるな
2022/04/25(月) 00:02:07.18ID:ch59vKbd0
すみません 情報追記です
【使用ソフト】DeepFaceLab_NVIDIA_RTX3000_series
【スペック】Core i7-12700K GeForce RTX 3070 LHR 8GB GDDR6

色々やってみてエラーが少なくなったのですが、以下の解決法がわかりません
ご教授いただけましたら幸いです
【エラー内容】
Process Process-16:
Traceback (most recent call last):
File 〜〜〜
MemoryError: Unable to allocate 3.00 MiB for an array with shape (512, 512, 3) and data type float32

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
File "multiprocessing\process.py", line 258, in _bootstrap
File "multiprocessing\process.py", line 93, in run
File 〜〜〜
MemoryError: Unable to allocate 3.00 MiB for an array with shape (512, 512, 3) and data type float32
208名無しさん@お腹いっぱい。
垢版 |
2022/04/25(月) 12:18:12.29ID:Ooe8elAe0
>>166さんの
この書き込みとか参考になりませんかね?
2022/04/25(月) 12:41:48.42ID:KAKc59oU0
仮想メモリ(ページングファイル)不足っぽいからDFLがインストールされてるドライブの仮想メモリを16384MBくらいに設定すれば直るかも
設定方法はググればすぐ出る
2022/04/26(火) 13:16:29.10ID:gJQQOev00
>>202
まじではかどる。ほんとにありがとう。あとは真矢ミキにあう輪郭の持ち主教えて下さい。
2022/04/26(火) 20:58:05.60ID:vavNCihD0
ググった
面長だから篠田〇うでどうだ
2022/04/27(水) 14:47:51.50ID:Pkp72xdb0
篠田はゆったんで失敗して以来はずしちゃってた。ありがとう、ためしてみます
2022/04/28(木) 02:00:03.00ID:aIBcX5Jj0
>>210
真矢ミキ推しいいねwそういう斜め上いくのいい

試してないからわからんが最近の妃ひかりなんてハマりそうだが

真矢ミキはロケットみたいな顔してるから篠田みうは合わなそう…
2022/04/29(金) 10:25:52.41ID:5baeoEx80
A4000からA2000-12GBに載せ替えてみた
SEAHDデフォ設定で回してみても学習速度ほぼ変わらず
学習中の消費電力はワットチェッカー値で200→115wまで削減成功。GPUコア温度も60℃までしか上がらんから夏場も安心して量産できますわ
215名無しさん@お腹いっぱい。
垢版 |
2022/04/29(金) 12:59:03.45ID:JPqFeDaG0
補助電源不要って凄いね
電気代気にしなければ3090tiでも買いたいけど
450wとか無理過ぎる…
4000シリーズは900wという噂も
どこまで上がるのやら
2022/04/29(金) 13:21:18.40ID:47Vv6btI0
そこまで行くと最早オーブントースターか暖房器具だな
2022/04/30(土) 00:29:08.64ID:iFmC3kBY0
むしろ電子レンジ
2022/04/30(土) 02:59:52.82ID:qo9cn1tL0
冬は暖房になるかなと思ったらそうでもないという
219名無しさん@お腹いっぱい。
垢版 |
2022/04/30(土) 04:57:10.47ID:BPmXB5da0
作り始めて1週間だけどまあまあのやつできた。すごいソフトだわこれ。
220名無しさん@お腹いっぱい。
垢版 |
2022/05/02(月) 08:48:33.08ID:bBb80XlE0
resを段階的に上げてどこまで上がるか
試しているのですが368にして進めると
通常通り動くのですが、数値が352になって
しまいます
同じことが2度起こりました
基本は16づつ上げてみているのですが
何か間違っているのでしょうか?
2022/05/02(月) 09:17:56.88ID:gpIw8Z2R0
32の倍数じゃないから?知らんけど
222名無しさん@お腹いっぱい。
垢版 |
2022/05/02(月) 09:36:30.16ID:bBb80XlE0
まじすか
今日仕事なんで帰ったらやってみます
2022/05/02(月) 09:54:59.72ID:lApr3ZwM0
trainオプションでdを使うなら解像度は32の倍数にしないといけない
dを使わないなら16の倍数で可
他にも32の倍数にしないといけない理由があったきがするけど忘れた
224名無しさん@お腹いっぱい。
垢版 |
2022/05/02(月) 09:59:29.11ID:bBb80XlE0
そんな法則があったのね
助かります
2022/05/03(火) 08:25:23.25ID:0RCyt3he0
その顔の角度はちゃんとsrcに結構な量あるだろって場面でも、上向き下向きの顔はブレブレになっちゃうのはしょうがないんでしょうか?
まだxsegとかのレベルにいたってないからなのか
226名無しさん@お腹いっぱい。
垢版 |
2022/05/03(火) 12:32:06.73ID:VYIRxIsf0
ちょうど同じ状況
上を向いている顔がボケてる
いましがたsrcで上向きの画像を3倍くらい
増やしたので、trainしながら様子見です
2022/05/03(火) 14:58:18.39ID:ab+Bua+T0
dst / sec 共にランドマークとXsegマスク(のapply)がいい具合に設定されているかが重要だね
かなり角度の厳しい上向きだとランドマークがグニャっとしてたりマスクが真っ黒だったり
デフォルトはマスクの白部分のみを学習の対象にしてTRAINすらからマスクがしっかりしてないと幾ら回しても精度が上がらないね
2022/05/03(火) 16:37:36.17ID:0RCyt3he0
ただトレインsaehdでまわしてるようなレベルじゃ変わり様なさそうですね。
もうちょい進んでから考えます
2022/05/03(火) 16:46:32.01ID:vgR+ZEDl0
ブレるのは顔のextractが上手に出来てないんでしょう
どうせ上とか下向いてるのは誰だかわからないんだからalignedのファイル消しちゃうのも手
2022/05/03(火) 18:34:40.89ID:0RCyt3he0
上向いてるポーズが好きなもんでデュフ
いずれは合わせられるようにになりたい。
ここにいる人達は眼中なしかもしれないけど、face-jappてーのはどうなんですかね。
231名無しさん@お腹いっぱい。
垢版 |
2022/05/03(火) 19:26:40.11ID:VYIRxIsf0
ランドマークはすべて確認
下向きの構図のあごのラインが伸びている
箇所が数点あり修正
修正したもののあごと胸元との境界の色合いの
関係上、かなり境目が判別しづらいので
もう思い切ってすべてX-segでライン引き

上向きも同じように確認
ランドマーク数点修正
こちらは境目は問題なさそう
src画像で同じような上向き画像の枚数が少ないのと
角度的に同じものがほぼない(似てるものはある)
のが原因かと
比較的似ている構図のsrcを増やして対応してみます
2022/05/03(火) 22:18:24.32ID:ab+Bua+T0
XsegTrain のソースを少し見ていてわかったんだけど
alignedフォルダ内に手書きポリゴンを設定した画像が一枚も場合、代わりに学習済みモデルからApplyされたマスク形状からTrainするようになってる
何の為の実装なのかわからないけど、例えばXsegGenericからApplyした後、Editorで目視確認して精度のいいフレームだけ集めて再Trainすると厳しい画角のマスクが安定するよ
2022/05/03(火) 22:20:55.83ID:ab+Bua+T0
>>232
ごめんなさい ポリゴン設定が一枚もないときね
234名無しさん@お腹いっぱい。
垢版 |
2022/05/04(水) 06:23:42.62ID:e3xI5kwg0
勉強になる
XSegの精度を上げることができます
235名無しさん@お腹いっぱい。
垢版 |
2022/05/06(金) 09:01:34.78ID:m9d0kAgY0
前髪込みで入れ替えようと色々試していますが
比較的顔が近くなると、どうしても
髪の色合いの違いが目立ってしまう
これ学習進めれば馴染んでくるものでも
ないですよねぇ…
2022/05/07(土) 23:01:56.02ID:3jh8GvgE0
自ら難しい道を進んだのだから、もっと訓練しなさい
237名無しさん@お腹いっぱい。
垢版 |
2022/05/08(日) 01:19:35.25ID:qcMmO1DU0
近所に自衛隊があるのですが
ゴールデンウィーク体験入学に申し込みました
訓練は怠りません
2022/05/08(日) 16:17:02.50ID:+30B7ZBV0
モザ有のフェラもので作ろうと思ったらモザイク部分にxsegマスクすれば上手くいくかな?
239名無しさん@お腹いっぱい。
垢版 |
2022/05/09(月) 08:47:08.69ID:Ws3EXOCX0
モザイクに沿ってXsegをする
ずっとやっているとモザイク掛けるのって大変
だよなぁ
とか思う
2022/05/10(火) 20:05:15.69ID:qdf2rza60
中華サイトで万能Xsegとかいうのあったから共有
有料だったけどま、ええやろ
https://mega.nz/file/lg4x0TrZ#AeH5YV-4oahEJN7GpGWqMDFZEamTi_oqgugAxtI1u7Y
2022/05/10(火) 20:29:05.16ID:NMM0A3VF0
すごいxsegだぁ…
2022/05/10(火) 22:02:28.77ID:lr/2fNoP0
>>240
ちょっと試してみたけどすごかったわありがとう
243名無しさん@お腹いっぱい。
垢版 |
2022/05/11(水) 08:52:29.18ID:h9ATkTSe0
なんか凄い怪しいんですけど
そもそも万能XSedって何が万能なのか
書かないのも怪しい
244名無しさん@お腹いっぱい。
垢版 |
2022/05/11(水) 09:15:12.91ID:h9ATkTSe0
怪しいと書いて失礼しました
中華サイトでは普通に議論されていた
もしかして中華のほうが盛んなのか
2022/05/11(水) 18:25:51.89ID:qAvMalUE0
ジェネリックより良いの?
246名無しさん@お腹いっぱい。
垢版 |
2022/05/12(木) 00:12:01.72ID:yrVcgdH40
700万くらいトレーニングされたデータだった
試しに使ってトレーニングしてみたら
量にもよるのだろうけどあっという間に終わった
2022/05/12(木) 00:49:26.98ID:BA60hG+e0
万能なんだからトレーニングしなくても使えるのが売りだと思うぞ
248名無しさん@お腹いっぱい。
垢版 |
2022/05/12(木) 08:48:20.55ID:ZulyfRCJ0
トレーニングしないでapplyすればいいのかな
ただ、あくまでもオーソドックスなマスクなので
前髪を含めたい時とかには使えない
あと、前髪が少しでもかかってる眉毛も
除外された
2022/05/12(木) 13:48:15.62ID:7jBjWNhN0
前髪含めたいって特殊な要望なんだからそりゃそうだろ
2022/05/13(金) 11:58:18.53ID:uT5rz2O00
試してみたいけどAlipayで買ったの?
2022/05/13(金) 17:24:00.31ID:nFtqAf+i0
>>250
管理者に連絡してビットコイン支払いでポイントを買って、そのポイントで買った
ログボ的にポイントもらえるからかなり期間が必要だけど一応金払わなくても買えることは買える
2022/05/14(土) 13:17:37.33ID:Sn8d9Yf/0
>>250
上の無料で使えたで?なんで金払うん?
253名無しさん@お腹いっぱい。
垢版 |
2022/05/14(土) 14:08:57.25ID:A38SsgXY0
いや、その上の人はどうやって手に入れたの?
って話しなだけだと思うのだが…
2022/05/14(土) 16:01:00.45ID:mNVaU5bp0
復号キーが何か分からなくて自分で買わなきゃ使えないと思ってるんでしょ
それよりも同じサイトにあるfaceswapの顔抽出機能を元に改造してDFLの顔抽出速度を5〜10倍にできる切脸加速神器ってのが気になる
これは配布対策されてるっぽいけどもっと速く抽出したいからちゃんと使えるか試してほしいわw
255名無しさん@お腹いっぱい。
垢版 |
2022/05/14(土) 18:46:18.05ID:A38SsgXY0
顔抽出は速さよりも正確さがもっと上がると良いなぁ
headの精度は低いし、wfやfも口が手などで
覆い被さり眉、目、鼻だけになると精度がガタ落ちする
中華連中なら作ってくれそうな気がする
2022/05/14(土) 18:48:22.53ID:/mQkZFKv0
下からの顔とか集めても肝心の顔抽出くんが認識してくれなかったりするんだよね
2022/05/14(土) 20:54:43.57ID:vJWFtC2u0
中国人ってエロに積極的だよな
2022/05/15(日) 17:58:48.60ID:azpfPkLA0
>>240
ありがたく使わせてもらったけど素材によっては口の中までマスクされて歯が3重になっちゃうな
mergeだけで使ったからapplyしてからtrainすれば変わるかな?
259名無しさん@お腹いっぱい。
垢版 |
2022/05/15(日) 23:24:14.28ID:aBoalglr0
自分が普段使ってるデータ使ったほうが良くない?
700万トレーニングだと修正に時間かかりそう

俺の場合試しに使ったけど眉毛除外されちゃうから
結果的に自分のデータ使ったよ
日本人はsrcモデルもdstモデルも眉毛に前髪が
被ってるのが多いから
もうそれごと入れ替えるようにしちゃってる
2022/05/16(月) 00:44:46.73ID:fvIT/NHc0
修正もなにもそのまま使う前提のmodelじゃないの
2022/05/16(月) 02:29:52.81ID:JrhaQ+BQ0
手動設定のXsegマスクのポリゴンはMVEのブラシ/消しゴムツールで簡単に微調整できる
自分はGenericモデルからApplyした白黒マスク形状をポリゴンに変換してaligned画像に書き戻すスクリプト作ってMVEで編集しているよ
262名無しさん@お腹いっぱい。
垢版 |
2022/05/16(月) 10:33:09.56ID:cy44vi7b0
スクリプト組む知識ないでござるよ(´・ω・)

ちなみに最近は処理能力を犠牲にしてでも
解像度上げることに挑戦しているのだけれど
アップシーンでも違和感のないresの数値って
どのくらいなんだろね
320でもアップになると違和感バリバリ
263名無しさん@お腹いっぱい。
垢版 |
2022/05/16(月) 10:34:01.33ID:cy44vi7b0
処理能力つか処理速度か
2022/05/16(月) 12:37:48.71ID:pD96smW30
どうしてもアップにしたいのはresは384で元動画を敢えて720にしてる
480でスマホで見るのもありかも
2022/05/16(月) 13:29:51.79ID:TfJXf+/F0
いつもres384でdst720pにしてるけど画面いっぱいにアップするシーンだと720pのdstにres416とかでものっぺりするし
3090でもres512くらいだからDFLだけだと厳しいな

ちなみにdstを480pまで下げると画質が荒すぎて顔のパーツが認識しづらくなるからか結果の顔の品質も悪くなる気がするんだけどdst側も全部GPEN使えばもっと仕上がり良くなるんかな?
266名無しさん@お腹いっぱい。
垢版 |
2022/05/16(月) 14:04:02.88ID:cy44vi7b0
なるほどあえてdst側を下げて、極力違和感を
少なくするわけですね
にしても3090って24Gですよね?
それでもいいとこ512なのか

GPENって以前だれかが紹介してくれたけど
ボヤけた画像に使うとシャープさが強すぎたので
以来、使ってないなぁ
通常レベル(と自分で思える)画像に対して
味付け程度に使うものではないのかな?
267名無しさん@お腹いっぱい。
垢版 |
2022/05/16(月) 15:04:01.75ID:w8WuftD90
250なんだけど、みんなの会話のおかげで勘違いしとったことに気づいた。
ありがとう
で、今まで面倒なんでxseg手出してなくて使ってみたらすごいな
まだ微妙だがぶっかけうどんも作れるようになったし、可能性広がったわ
この万能xsegより、ぶっかけうどん用のって知ってる人いないですか?
2022/05/16(月) 19:33:06.63ID:JrhaQ+BQ0
>>261
該当の機能だけに特化させてソースを整理したら100行程度におさまったので興味のある方は参考にどうぞ٩( 'ω' )و

https://i.imgur.com/025cEOS.jpg

https://i.imgur.com/Xd2NpcV.jpg
2022/05/16(月) 20:32:08.94ID:JrhaQ+BQ0
>>268
ちなみに起動方法は以下になりますね

①261のソースコード「MyXsegUtil.py」を_internal¥DeepFaceLab¥mainscriptsに格納
②_internal¥DeepFaceLab¥main.pyの末尾付近に以下画像1のコードを追加
③DFLルートフォルダに「任意ファイル名.bat」として以下画像2を作成
④XsegApplyからポリゴン情報に変換したい画像のみをworkspace¥data_dst¥alignedに格納
⑤ ③で作成した「任意ファイル名.bat」を起動
⑥上書き保存されたaligned画像のポリゴンを公式EditorやMVEで気に食わない部分だけ手動調整する

https://i.imgur.com/0jHs4CH.jpg

https://i.imgur.com/u1LyRCo.jpg
270名無しさん@お腹いっぱい。
垢版 |
2022/05/17(火) 19:15:00.18ID:bw8VxBEZ0
>>269
なかなか上級者だなあ
気に入らないランドマークを手動で動かせるってことであってる?
本家のgithubにプルリク?しておけばいいんじゃないか
2022/05/17(火) 20:17:32.54ID:tUaQweCY0
>>270
>気に入らないランドマークを手動で動かせるってことであってる?
認識あってます、が動かすのはランドマークでなくXsegマスクのポリゴンの各頂点ですね
Genericモデル等からApplyしただけのマスク形状をGUIで微調整できるツールは自分が知る範囲では無かったので、これを公式EditorやMVEで編集可能なポリゴン情報に変換するのが268の役割です
268の⑥の作業をMVEのブラシ/消しゴムツールで行ってるイメージが以下画像です
Genericモデルでは髭はマスクされませんがMVEの消しゴムツールで髭をマスク対象に追加することも簡単ですね

https://i.imgur.com/LyXap8Y.jpg
272名無しさん@お腹いっぱい。
垢版 |
2022/05/17(火) 21:32:34.21ID:bw8VxBEZ0
>>271
なるほどマスクをmveというツールで編集できるということか
xsegのtrain面倒だったからこれうまく使えるならいいかも
厚かましいけど100行のコード打ち込むの大変だからべた張りしてくれるとありがたいけどね。画像すぐ消えちゃうし。保存しとくけども。どうもありがとん
2022/05/17(火) 22:13:13.65ID:3J5LZHA30
ランドマークはな… 手動でうまくやった感あっても成果物が微振動してて萎える
■ このスレッドは過去ログ倉庫に格納されています