DeepFaceLab(以下、DFL)の質問&回答スレです
・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。
・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。
・RTXシリーズでも動くの?
FS、DFL共に動く。
【質問】dfl【その3】
https://egg.5ch.net/test/read.cgi/software/1607860934/
【質問】dfl【その4】
■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。
2022/02/12(土) 17:06:21.44ID:6x5j6Sbc0219名無しさん@お腹いっぱい。
2022/04/30(土) 04:57:10.47ID:BPmXB5da0 作り始めて1週間だけどまあまあのやつできた。すごいソフトだわこれ。
220名無しさん@お腹いっぱい。
2022/05/02(月) 08:48:33.08ID:bBb80XlE0 resを段階的に上げてどこまで上がるか
試しているのですが368にして進めると
通常通り動くのですが、数値が352になって
しまいます
同じことが2度起こりました
基本は16づつ上げてみているのですが
何か間違っているのでしょうか?
試しているのですが368にして進めると
通常通り動くのですが、数値が352になって
しまいます
同じことが2度起こりました
基本は16づつ上げてみているのですが
何か間違っているのでしょうか?
2022/05/02(月) 09:17:56.88ID:gpIw8Z2R0
32の倍数じゃないから?知らんけど
222名無しさん@お腹いっぱい。
2022/05/02(月) 09:36:30.16ID:bBb80XlE0 まじすか
今日仕事なんで帰ったらやってみます
今日仕事なんで帰ったらやってみます
2022/05/02(月) 09:54:59.72ID:lApr3ZwM0
trainオプションでdを使うなら解像度は32の倍数にしないといけない
dを使わないなら16の倍数で可
他にも32の倍数にしないといけない理由があったきがするけど忘れた
dを使わないなら16の倍数で可
他にも32の倍数にしないといけない理由があったきがするけど忘れた
224名無しさん@お腹いっぱい。
2022/05/02(月) 09:59:29.11ID:bBb80XlE0 そんな法則があったのね
助かります
助かります
2022/05/03(火) 08:25:23.25ID:0RCyt3he0
その顔の角度はちゃんとsrcに結構な量あるだろって場面でも、上向き下向きの顔はブレブレになっちゃうのはしょうがないんでしょうか?
まだxsegとかのレベルにいたってないからなのか
まだxsegとかのレベルにいたってないからなのか
226名無しさん@お腹いっぱい。
2022/05/03(火) 12:32:06.73ID:VYIRxIsf0 ちょうど同じ状況
上を向いている顔がボケてる
いましがたsrcで上向きの画像を3倍くらい
増やしたので、trainしながら様子見です
上を向いている顔がボケてる
いましがたsrcで上向きの画像を3倍くらい
増やしたので、trainしながら様子見です
2022/05/03(火) 14:58:18.39ID:ab+Bua+T0
dst / sec 共にランドマークとXsegマスク(のapply)がいい具合に設定されているかが重要だね
かなり角度の厳しい上向きだとランドマークがグニャっとしてたりマスクが真っ黒だったり
デフォルトはマスクの白部分のみを学習の対象にしてTRAINすらからマスクがしっかりしてないと幾ら回しても精度が上がらないね
かなり角度の厳しい上向きだとランドマークがグニャっとしてたりマスクが真っ黒だったり
デフォルトはマスクの白部分のみを学習の対象にしてTRAINすらからマスクがしっかりしてないと幾ら回しても精度が上がらないね
2022/05/03(火) 16:37:36.17ID:0RCyt3he0
ただトレインsaehdでまわしてるようなレベルじゃ変わり様なさそうですね。
もうちょい進んでから考えます
もうちょい進んでから考えます
2022/05/03(火) 16:46:32.01ID:vgR+ZEDl0
ブレるのは顔のextractが上手に出来てないんでしょう
どうせ上とか下向いてるのは誰だかわからないんだからalignedのファイル消しちゃうのも手
どうせ上とか下向いてるのは誰だかわからないんだからalignedのファイル消しちゃうのも手
2022/05/03(火) 18:34:40.89ID:0RCyt3he0
上向いてるポーズが好きなもんでデュフ
いずれは合わせられるようにになりたい。
ここにいる人達は眼中なしかもしれないけど、face-jappてーのはどうなんですかね。
いずれは合わせられるようにになりたい。
ここにいる人達は眼中なしかもしれないけど、face-jappてーのはどうなんですかね。
231名無しさん@お腹いっぱい。
2022/05/03(火) 19:26:40.11ID:VYIRxIsf0 ランドマークはすべて確認
下向きの構図のあごのラインが伸びている
箇所が数点あり修正
修正したもののあごと胸元との境界の色合いの
関係上、かなり境目が判別しづらいので
もう思い切ってすべてX-segでライン引き
上向きも同じように確認
ランドマーク数点修正
こちらは境目は問題なさそう
src画像で同じような上向き画像の枚数が少ないのと
角度的に同じものがほぼない(似てるものはある)
のが原因かと
比較的似ている構図のsrcを増やして対応してみます
下向きの構図のあごのラインが伸びている
箇所が数点あり修正
修正したもののあごと胸元との境界の色合いの
関係上、かなり境目が判別しづらいので
もう思い切ってすべてX-segでライン引き
上向きも同じように確認
ランドマーク数点修正
こちらは境目は問題なさそう
src画像で同じような上向き画像の枚数が少ないのと
角度的に同じものがほぼない(似てるものはある)
のが原因かと
比較的似ている構図のsrcを増やして対応してみます
2022/05/03(火) 22:18:24.32ID:ab+Bua+T0
XsegTrain のソースを少し見ていてわかったんだけど
alignedフォルダ内に手書きポリゴンを設定した画像が一枚も場合、代わりに学習済みモデルからApplyされたマスク形状からTrainするようになってる
何の為の実装なのかわからないけど、例えばXsegGenericからApplyした後、Editorで目視確認して精度のいいフレームだけ集めて再Trainすると厳しい画角のマスクが安定するよ
alignedフォルダ内に手書きポリゴンを設定した画像が一枚も場合、代わりに学習済みモデルからApplyされたマスク形状からTrainするようになってる
何の為の実装なのかわからないけど、例えばXsegGenericからApplyした後、Editorで目視確認して精度のいいフレームだけ集めて再Trainすると厳しい画角のマスクが安定するよ
2022/05/03(火) 22:20:55.83ID:ab+Bua+T0
>>232
ごめんなさい ポリゴン設定が一枚もないときね
ごめんなさい ポリゴン設定が一枚もないときね
234名無しさん@お腹いっぱい。
2022/05/04(水) 06:23:42.62ID:e3xI5kwg0 勉強になる
XSegの精度を上げることができます
XSegの精度を上げることができます
235名無しさん@お腹いっぱい。
2022/05/06(金) 09:01:34.78ID:m9d0kAgY0 前髪込みで入れ替えようと色々試していますが
比較的顔が近くなると、どうしても
髪の色合いの違いが目立ってしまう
これ学習進めれば馴染んでくるものでも
ないですよねぇ…
比較的顔が近くなると、どうしても
髪の色合いの違いが目立ってしまう
これ学習進めれば馴染んでくるものでも
ないですよねぇ…
2022/05/07(土) 23:01:56.02ID:3jh8GvgE0
自ら難しい道を進んだのだから、もっと訓練しなさい
237名無しさん@お腹いっぱい。
2022/05/08(日) 01:19:35.25ID:qcMmO1DU0 近所に自衛隊があるのですが
ゴールデンウィーク体験入学に申し込みました
訓練は怠りません
ゴールデンウィーク体験入学に申し込みました
訓練は怠りません
2022/05/08(日) 16:17:02.50ID:+30B7ZBV0
モザ有のフェラもので作ろうと思ったらモザイク部分にxsegマスクすれば上手くいくかな?
239名無しさん@お腹いっぱい。
2022/05/09(月) 08:47:08.69ID:Ws3EXOCX0 モザイクに沿ってXsegをする
ずっとやっているとモザイク掛けるのって大変
だよなぁ
とか思う
ずっとやっているとモザイク掛けるのって大変
だよなぁ
とか思う
2022/05/10(火) 20:05:15.69ID:qdf2rza60
中華サイトで万能Xsegとかいうのあったから共有
有料だったけどま、ええやろ
https://mega.nz/file/lg4x0TrZ#AeH5YV-4oahEJN7GpGWqMDFZEamTi_oqgugAxtI1u7Y
有料だったけどま、ええやろ
https://mega.nz/file/lg4x0TrZ#AeH5YV-4oahEJN7GpGWqMDFZEamTi_oqgugAxtI1u7Y
2022/05/10(火) 20:29:05.16ID:NMM0A3VF0
すごいxsegだぁ…
2022/05/10(火) 22:02:28.77ID:lr/2fNoP0
>>240
ちょっと試してみたけどすごかったわありがとう
ちょっと試してみたけどすごかったわありがとう
243名無しさん@お腹いっぱい。
2022/05/11(水) 08:52:29.18ID:h9ATkTSe0 なんか凄い怪しいんですけど
そもそも万能XSedって何が万能なのか
書かないのも怪しい
そもそも万能XSedって何が万能なのか
書かないのも怪しい
244名無しさん@お腹いっぱい。
2022/05/11(水) 09:15:12.91ID:h9ATkTSe0 怪しいと書いて失礼しました
中華サイトでは普通に議論されていた
もしかして中華のほうが盛んなのか
中華サイトでは普通に議論されていた
もしかして中華のほうが盛んなのか
2022/05/11(水) 18:25:51.89ID:qAvMalUE0
ジェネリックより良いの?
246名無しさん@お腹いっぱい。
2022/05/12(木) 00:12:01.72ID:yrVcgdH40 700万くらいトレーニングされたデータだった
試しに使ってトレーニングしてみたら
量にもよるのだろうけどあっという間に終わった
試しに使ってトレーニングしてみたら
量にもよるのだろうけどあっという間に終わった
2022/05/12(木) 00:49:26.98ID:BA60hG+e0
万能なんだからトレーニングしなくても使えるのが売りだと思うぞ
248名無しさん@お腹いっぱい。
2022/05/12(木) 08:48:20.55ID:ZulyfRCJ0 トレーニングしないでapplyすればいいのかな
ただ、あくまでもオーソドックスなマスクなので
前髪を含めたい時とかには使えない
あと、前髪が少しでもかかってる眉毛も
除外された
ただ、あくまでもオーソドックスなマスクなので
前髪を含めたい時とかには使えない
あと、前髪が少しでもかかってる眉毛も
除外された
2022/05/12(木) 13:48:15.62ID:7jBjWNhN0
前髪含めたいって特殊な要望なんだからそりゃそうだろ
2022/05/13(金) 11:58:18.53ID:uT5rz2O00
試してみたいけどAlipayで買ったの?
2022/05/13(金) 17:24:00.31ID:nFtqAf+i0
2022/05/14(土) 13:17:37.33ID:Sn8d9Yf/0
>>250
上の無料で使えたで?なんで金払うん?
上の無料で使えたで?なんで金払うん?
253名無しさん@お腹いっぱい。
2022/05/14(土) 14:08:57.25ID:A38SsgXY0 いや、その上の人はどうやって手に入れたの?
って話しなだけだと思うのだが…
って話しなだけだと思うのだが…
2022/05/14(土) 16:01:00.45ID:mNVaU5bp0
復号キーが何か分からなくて自分で買わなきゃ使えないと思ってるんでしょ
それよりも同じサイトにあるfaceswapの顔抽出機能を元に改造してDFLの顔抽出速度を5〜10倍にできる切脸加速神器ってのが気になる
これは配布対策されてるっぽいけどもっと速く抽出したいからちゃんと使えるか試してほしいわw
それよりも同じサイトにあるfaceswapの顔抽出機能を元に改造してDFLの顔抽出速度を5〜10倍にできる切脸加速神器ってのが気になる
これは配布対策されてるっぽいけどもっと速く抽出したいからちゃんと使えるか試してほしいわw
255名無しさん@お腹いっぱい。
2022/05/14(土) 18:46:18.05ID:A38SsgXY0 顔抽出は速さよりも正確さがもっと上がると良いなぁ
headの精度は低いし、wfやfも口が手などで
覆い被さり眉、目、鼻だけになると精度がガタ落ちする
中華連中なら作ってくれそうな気がする
headの精度は低いし、wfやfも口が手などで
覆い被さり眉、目、鼻だけになると精度がガタ落ちする
中華連中なら作ってくれそうな気がする
2022/05/14(土) 18:48:22.53ID:/mQkZFKv0
下からの顔とか集めても肝心の顔抽出くんが認識してくれなかったりするんだよね
2022/05/14(土) 20:54:43.57ID:vJWFtC2u0
中国人ってエロに積極的だよな
2022/05/15(日) 17:58:48.60ID:azpfPkLA0
259名無しさん@お腹いっぱい。
2022/05/15(日) 23:24:14.28ID:aBoalglr0 自分が普段使ってるデータ使ったほうが良くない?
700万トレーニングだと修正に時間かかりそう
俺の場合試しに使ったけど眉毛除外されちゃうから
結果的に自分のデータ使ったよ
日本人はsrcモデルもdstモデルも眉毛に前髪が
被ってるのが多いから
もうそれごと入れ替えるようにしちゃってる
700万トレーニングだと修正に時間かかりそう
俺の場合試しに使ったけど眉毛除外されちゃうから
結果的に自分のデータ使ったよ
日本人はsrcモデルもdstモデルも眉毛に前髪が
被ってるのが多いから
もうそれごと入れ替えるようにしちゃってる
2022/05/16(月) 00:44:46.73ID:fvIT/NHc0
修正もなにもそのまま使う前提のmodelじゃないの
2022/05/16(月) 02:29:52.81ID:JrhaQ+BQ0
手動設定のXsegマスクのポリゴンはMVEのブラシ/消しゴムツールで簡単に微調整できる
自分はGenericモデルからApplyした白黒マスク形状をポリゴンに変換してaligned画像に書き戻すスクリプト作ってMVEで編集しているよ
自分はGenericモデルからApplyした白黒マスク形状をポリゴンに変換してaligned画像に書き戻すスクリプト作ってMVEで編集しているよ
262名無しさん@お腹いっぱい。
2022/05/16(月) 10:33:09.56ID:cy44vi7b0 スクリプト組む知識ないでござるよ(´・ω・)
ちなみに最近は処理能力を犠牲にしてでも
解像度上げることに挑戦しているのだけれど
アップシーンでも違和感のないresの数値って
どのくらいなんだろね
320でもアップになると違和感バリバリ
ちなみに最近は処理能力を犠牲にしてでも
解像度上げることに挑戦しているのだけれど
アップシーンでも違和感のないresの数値って
どのくらいなんだろね
320でもアップになると違和感バリバリ
263名無しさん@お腹いっぱい。
2022/05/16(月) 10:34:01.33ID:cy44vi7b0 処理能力つか処理速度か
2022/05/16(月) 12:37:48.71ID:pD96smW30
どうしてもアップにしたいのはresは384で元動画を敢えて720にしてる
480でスマホで見るのもありかも
480でスマホで見るのもありかも
2022/05/16(月) 13:29:51.79ID:TfJXf+/F0
いつもres384でdst720pにしてるけど画面いっぱいにアップするシーンだと720pのdstにres416とかでものっぺりするし
3090でもres512くらいだからDFLだけだと厳しいな
ちなみにdstを480pまで下げると画質が荒すぎて顔のパーツが認識しづらくなるからか結果の顔の品質も悪くなる気がするんだけどdst側も全部GPEN使えばもっと仕上がり良くなるんかな?
3090でもres512くらいだからDFLだけだと厳しいな
ちなみにdstを480pまで下げると画質が荒すぎて顔のパーツが認識しづらくなるからか結果の顔の品質も悪くなる気がするんだけどdst側も全部GPEN使えばもっと仕上がり良くなるんかな?
266名無しさん@お腹いっぱい。
2022/05/16(月) 14:04:02.88ID:cy44vi7b0 なるほどあえてdst側を下げて、極力違和感を
少なくするわけですね
にしても3090って24Gですよね?
それでもいいとこ512なのか
GPENって以前だれかが紹介してくれたけど
ボヤけた画像に使うとシャープさが強すぎたので
以来、使ってないなぁ
通常レベル(と自分で思える)画像に対して
味付け程度に使うものではないのかな?
少なくするわけですね
にしても3090って24Gですよね?
それでもいいとこ512なのか
GPENって以前だれかが紹介してくれたけど
ボヤけた画像に使うとシャープさが強すぎたので
以来、使ってないなぁ
通常レベル(と自分で思える)画像に対して
味付け程度に使うものではないのかな?
267名無しさん@お腹いっぱい。
2022/05/16(月) 15:04:01.75ID:w8WuftD90 250なんだけど、みんなの会話のおかげで勘違いしとったことに気づいた。
ありがとう
で、今まで面倒なんでxseg手出してなくて使ってみたらすごいな
まだ微妙だがぶっかけうどんも作れるようになったし、可能性広がったわ
この万能xsegより、ぶっかけうどん用のって知ってる人いないですか?
ありがとう
で、今まで面倒なんでxseg手出してなくて使ってみたらすごいな
まだ微妙だがぶっかけうどんも作れるようになったし、可能性広がったわ
この万能xsegより、ぶっかけうどん用のって知ってる人いないですか?
2022/05/16(月) 19:33:06.63ID:JrhaQ+BQ0
>>261
該当の機能だけに特化させてソースを整理したら100行程度におさまったので興味のある方は参考にどうぞ٩( 'ω' )و
https://i.imgur.com/025cEOS.jpg
https://i.imgur.com/Xd2NpcV.jpg
該当の機能だけに特化させてソースを整理したら100行程度におさまったので興味のある方は参考にどうぞ٩( 'ω' )و
https://i.imgur.com/025cEOS.jpg
https://i.imgur.com/Xd2NpcV.jpg
2022/05/16(月) 20:32:08.94ID:JrhaQ+BQ0
>>268
ちなみに起動方法は以下になりますね
①261のソースコード「MyXsegUtil.py」を_internal¥DeepFaceLab¥mainscriptsに格納
②_internal¥DeepFaceLab¥main.pyの末尾付近に以下画像1のコードを追加
③DFLルートフォルダに「任意ファイル名.bat」として以下画像2を作成
④XsegApplyからポリゴン情報に変換したい画像のみをworkspace¥data_dst¥alignedに格納
⑤ ③で作成した「任意ファイル名.bat」を起動
⑥上書き保存されたaligned画像のポリゴンを公式EditorやMVEで気に食わない部分だけ手動調整する
https://i.imgur.com/0jHs4CH.jpg
https://i.imgur.com/u1LyRCo.jpg
ちなみに起動方法は以下になりますね
①261のソースコード「MyXsegUtil.py」を_internal¥DeepFaceLab¥mainscriptsに格納
②_internal¥DeepFaceLab¥main.pyの末尾付近に以下画像1のコードを追加
③DFLルートフォルダに「任意ファイル名.bat」として以下画像2を作成
④XsegApplyからポリゴン情報に変換したい画像のみをworkspace¥data_dst¥alignedに格納
⑤ ③で作成した「任意ファイル名.bat」を起動
⑥上書き保存されたaligned画像のポリゴンを公式EditorやMVEで気に食わない部分だけ手動調整する
https://i.imgur.com/0jHs4CH.jpg
https://i.imgur.com/u1LyRCo.jpg
270名無しさん@お腹いっぱい。
2022/05/17(火) 19:15:00.18ID:bw8VxBEZ02022/05/17(火) 20:17:32.54ID:tUaQweCY0
>>270
>気に入らないランドマークを手動で動かせるってことであってる?
認識あってます、が動かすのはランドマークでなくXsegマスクのポリゴンの各頂点ですね
Genericモデル等からApplyしただけのマスク形状をGUIで微調整できるツールは自分が知る範囲では無かったので、これを公式EditorやMVEで編集可能なポリゴン情報に変換するのが268の役割です
268の⑥の作業をMVEのブラシ/消しゴムツールで行ってるイメージが以下画像です
Genericモデルでは髭はマスクされませんがMVEの消しゴムツールで髭をマスク対象に追加することも簡単ですね
https://i.imgur.com/LyXap8Y.jpg
>気に入らないランドマークを手動で動かせるってことであってる?
認識あってます、が動かすのはランドマークでなくXsegマスクのポリゴンの各頂点ですね
Genericモデル等からApplyしただけのマスク形状をGUIで微調整できるツールは自分が知る範囲では無かったので、これを公式EditorやMVEで編集可能なポリゴン情報に変換するのが268の役割です
268の⑥の作業をMVEのブラシ/消しゴムツールで行ってるイメージが以下画像です
Genericモデルでは髭はマスクされませんがMVEの消しゴムツールで髭をマスク対象に追加することも簡単ですね
https://i.imgur.com/LyXap8Y.jpg
272名無しさん@お腹いっぱい。
2022/05/17(火) 21:32:34.21ID:bw8VxBEZ0 >>271
なるほどマスクをmveというツールで編集できるということか
xsegのtrain面倒だったからこれうまく使えるならいいかも
厚かましいけど100行のコード打ち込むの大変だからべた張りしてくれるとありがたいけどね。画像すぐ消えちゃうし。保存しとくけども。どうもありがとん
なるほどマスクをmveというツールで編集できるということか
xsegのtrain面倒だったからこれうまく使えるならいいかも
厚かましいけど100行のコード打ち込むの大変だからべた張りしてくれるとありがたいけどね。画像すぐ消えちゃうし。保存しとくけども。どうもありがとん
2022/05/17(火) 22:13:13.65ID:3J5LZHA30
ランドマークはな… 手動でうまくやった感あっても成果物が微振動してて萎える
2022/05/17(火) 23:01:43.23ID:tUaQweCY0
MyXsegUtil.py
main.py ←公式2021/10/20のものを編集
任意ファイル名.bat
の3ファイルをパス付zipでアップロードしました
https://dotup.org/uploda/dotup.org2805553.zip.html
zipのパスワードは「mxu」です(全て大文字)
MVEの入手・使い方は自分では上手く説明できませんYouTubeにチュートリアル動画や、DFLの公式サイトに紹介記事があったような気がします
main.py ←公式2021/10/20のものを編集
任意ファイル名.bat
の3ファイルをパス付zipでアップロードしました
https://dotup.org/uploda/dotup.org2805553.zip.html
zipのパスワードは「mxu」です(全て大文字)
MVEの入手・使い方は自分では上手く説明できませんYouTubeにチュートリアル動画や、DFLの公式サイトに紹介記事があったような気がします
2022/05/17(火) 23:04:55.27ID:tUaQweCY0
>>274
ごめんなさい「mxu」は全て小文字です(~_~;)
ごめんなさい「mxu」は全て小文字です(~_~;)
2022/05/18(水) 00:04:01.53ID:FjiMNziL0
>>273
AIってまだまだだなって思うよね
AIってまだまだだなって思うよね
277名無しさん@お腹いっぱい。
2022/05/18(水) 00:10:11.19ID:2a03PKQR0 >>275
わざわざどうもありがとう!試してみますわ。自分だとこんな設計できないのでありがたい、、
わざわざどうもありがとう!試してみますわ。自分だとこんな設計できないのでありがたい、、
278名無しさん@お腹いっぱい。
2022/05/18(水) 08:51:44.41ID:66XBTdkO0 >>271
MVEってこれか
結構前にこのエディターでランドマークを
上手く認識させる術はないかと
試行錯誤していたことがあった
結果はMVEじたいを使いこなせないで終わった
当時ははじめたばかりだったし、
またやってみようかな
MVEってこれか
結構前にこのエディターでランドマークを
上手く認識させる術はないかと
試行錯誤していたことがあった
結果はMVEじたいを使いこなせないで終わった
当時ははじめたばかりだったし、
またやってみようかな
2022/05/18(水) 12:15:27.23ID:QPGuUQZy0
>>278
編集画面左上の[Landmarks/Segmentation]スイッチで編集対象を切り替えます
DFL公式ツールで抽出したframeとalignedをMVEに取り込んで、ランドマークを手編集、alignedの再出力まで経験してる方なら269のスクリプト、直ぐに活用できます
が、自分もそこまでMVEを動かすにはかなり苦労しました
編集画面左上の[Landmarks/Segmentation]スイッチで編集対象を切り替えます
DFL公式ツールで抽出したframeとalignedをMVEに取り込んで、ランドマークを手編集、alignedの再出力まで経験してる方なら269のスクリプト、直ぐに活用できます
が、自分もそこまでMVEを動かすにはかなり苦労しました
280名無しさん@お腹いっぱい。
2022/05/18(水) 12:24:47.02ID:66XBTdkO02022/05/18(水) 16:00:43.69ID:QPGuUQZy0
一点、気になるのは
MVEでalignedを再出力すると、ランドマークを全くいじってないものでも、DFL公式ツールで顔抽出したものから、切り出し外枠が上下方向に若干ズレる
公式のままとMVEで再出力したalignedを混ぜても顔TrainやMergeに悪影響は無いと思うけど、気になる方は269の工程でMVEで修正したalignedはXsegのTrainのみに使用した方が良いかな
MVEでalignedを再出力すると、ランドマークを全くいじってないものでも、DFL公式ツールで顔抽出したものから、切り出し外枠が上下方向に若干ズレる
公式のままとMVEで再出力したalignedを混ぜても顔TrainやMergeに悪影響は無いと思うけど、気になる方は269の工程でMVEで修正したalignedはXsegのTrainのみに使用した方が良いかな
282名無しさん@お腹いっぱい。
2022/05/19(木) 21:29:04.04ID:veHLA6rg0 >>267
ぶっかけうどんってなんだ?って思っていたけど
顔射のことね
万能のやつで俺も試してみたけど
5割~8割くらいカバーできるっぽいね
ただ完成度を求めるなら、やっぱチマチマと
範囲指定したほうが良いかな
嗜好としては好き嫌い別れそうだし
好きじゃないとやってられんよな
ぶっかけうどんってなんだ?って思っていたけど
顔射のことね
万能のやつで俺も試してみたけど
5割~8割くらいカバーできるっぽいね
ただ完成度を求めるなら、やっぱチマチマと
範囲指定したほうが良いかな
嗜好としては好き嫌い別れそうだし
好きじゃないとやってられんよな
283名無しさん@お腹いっぱい。
2022/05/21(土) 21:44:35.01ID:nq3h4Fc50 誰か教えて欲しいのですが
option項目でtrue_face_powerが出ないのは
何故なのでしょう?
train設定を決めていく一番最初から出ません(T-T)
なのにmodelフォルダを開くと項目はあります
option項目でtrue_face_powerが出ないのは
何故なのでしょう?
train設定を決めていく一番最初から出ません(T-T)
なのにmodelフォルダを開くと項目はあります
2022/05/24(火) 12:13:13.86ID:QSDxEAGw0
285283
2022/05/24(火) 16:15:45.23ID:3ltn6eZz0 (|||´Д`)シラナカッタ
2022/05/26(木) 13:11:34.30ID:YO9uu4MS0
>>240って512サイズのWFでは使えない?
287名無しさん@お腹いっぱい。
2022/05/26(木) 20:56:41.64ID:9rxvOyP/0 その辺、あまり気にしないで使ったな
srcの素材ってfもwfも混ぜているんだけど
普通に使えた
サイズもデフォルトだと512で
そのままでやってるから512にも使えると思う
srcの素材ってfもwfも混ぜているんだけど
普通に使えた
サイズもデフォルトだと512で
そのままでやってるから512にも使えると思う
288名無しさん@お腹いっぱい。
2022/05/28(土) 22:00:52.46ID:ZDGMOath0 >>240
今更やが君有能やな。一段上の世界に行けたわ。
今更やが君有能やな。一段上の世界に行けたわ。
2022/05/30(月) 18:52:59.91ID:JJP67lR70
久々にやってみようと1年ぶりくらいに覗いてみたけどもう難しくなりすぎてそうで無理やな多分
ここの会話の8割が分からん単語になってしもうとるわ
ここの会話の8割が分からん単語になってしもうとるわ
2022/05/30(月) 22:21:29.00ID:R7ANQpHC0
2022/05/30(月) 23:55:26.39ID:hS2mcaV90
終わりやね
家じゃ電気代やべえし
家じゃ電気代やべえし
2022/05/31(火) 12:11:29.78ID:gPCtwJaq0
みんなやっぱcolabでやってたの?
2022/05/31(火) 12:43:51.99ID:aMtHzOyZ0
colabに関する質問とかほぼ見ないしほとんどローカル環境じゃない?
rtx4000シリーズが待ち遠しいわ
rtx4000シリーズが待ち遠しいわ
294名無しさん@お腹いっぱい。
2022/05/31(火) 15:25:25.92ID:dit0gigA0 4000シリーズはTDP次第かなぁ
性能が優秀でも爆熱&電気代かかり過ぎでは
さすがにきつい
性能が優秀でも爆熱&電気代かかり過ぎでは
さすがにきつい
2022/06/02(木) 00:45:29.06ID:VjMHbYZj0
deep learningにはがっかりやな
もっと夢をみさせてくれてもよかったのに
第三次ブーム終了
もっと夢をみさせてくれてもよかったのに
第三次ブーム終了
2022/06/02(木) 01:35:05.47ID:7IlYBT3F0
VRでやってみ?
飛ぶぞ
飛ぶぞ
2022/06/02(木) 12:24:37.88ID:IFXy02B70
>>296
hddの容量が飛んだわ
hddの容量が飛んだわ
2022/06/02(木) 17:13:39.54ID:7IlYBT3F0
うちは8Tのhddを2台運用や
2022/06/02(木) 21:38:34.71ID:GjF+qT4X0
VRって画面中央に顔の部分しか使えないからそんなに長時間の作れなくない?
2022/06/02(木) 21:54:01.40ID:7IlYBT3F0
2022/06/02(木) 21:55:49.42ID:KWOdVOlj0
VRは使える部分を探すのが大変だな
なかなか似ないし
なかなか似ないし
2022/06/02(木) 22:55:09.76ID:7IlYBT3F0
斧のB 164786、ファイル名はKANPAI
パスはKANNAPAIZURI
はしかんのパイずりVR
3分と短くてすまん
明日の22時に消す
パスはKANNAPAIZURI
はしかんのパイずりVR
3分と短くてすまん
明日の22時に消す
2022/06/02(木) 23:06:58.25ID:7knjQD+Z0
>>302
❤
❤
2022/06/02(木) 23:50:08.81ID:KWOdVOlj0
でかした
2022/06/03(金) 00:00:03.49ID:7C0FvFCG0
2Dで満足してVRには手出してなかったけど没入感あるから良いな
>>302 これはresとdimsどれくらいにしてる?
>>302 これはresとdimsどれくらいにしてる?
2022/06/03(金) 00:25:09.66ID:RAgUAufb0
vram10GBか12GBかわからないけどres256まではそれなりのバッチサイズでも余裕じゃない?
自分はvram11GBだけどres384のdimsはデフォでbs6くらい
256なら16~18でも回る
ただLRDをGPUで使うと流石にOOM吐くからその時はbsを1/2に落とす
自分はvram11GBだけどres384のdimsはデフォでbs6くらい
256なら16~18でも回る
ただLRDをGPUで使うと流石にOOM吐くからその時はbsを1/2に落とす
308296
2022/06/03(金) 00:29:55.86ID:hXO9TKYj02022/06/03(金) 00:41:55.28ID:rq31+fIZ0
resはもうちょっと欲しいところだね
VRだと目の前に来るからぼやっと見えちゃう
マージでsuper resolution powerを強めにかけてもいいけど
ついでにうるさいこと言うと、VRは目線が最重要だからeyes mouth prioで十分にトレインしたほうが良いかも
VRだと目の前に来るからぼやっと見えちゃう
マージでsuper resolution powerを強めにかけてもいいけど
ついでにうるさいこと言うと、VRは目線が最重要だからeyes mouth prioで十分にトレインしたほうが良いかも
310296
2022/06/03(金) 00:50:46.84ID:hXO9TKYj0 確かにVRだと目というか視線に違和感出ますね。
一応、eyes mouth prioはオンにしたんですけどね。
トレインが足りなかったか
一応、eyes mouth prioはオンにしたんですけどね。
トレインが足りなかったか
2022/06/03(金) 01:14:21.71ID:enjW/Kz+0
トレイン画面の利用可能vramは少なめに表示されてるだけだから初期80でも10gbフルで使えてるはず res320のdims256でバッチ6とか8くらいなら行けるんじゃない?
ちなみにdimsとかは固定してresだけを上げるなら320resに設定したmodelを新しく1から立ち上げて、学習始めたらすぐセーブして保存して
完成済みのmodelフォルダに入ってる旧decoderとencoder.npyファイルをコピーして
320resモデルフォルダの新dec&enc.npyファイルと同じ名前にして旧データと置き換えれば顔のデータ引き継げるから1から学習し直すよりかなり早い
それと若干顔がdst寄りになってるように見えるんだけど同じmodelデータで違う素材使って学習してると仕上がりがどんどんdst寄りの顔になっていくから
新しい素材で学習始める時はinter_AB.npyだけ消してからトレインした方がsrc寄りになるよ
dst以外のプレビューの顔がリセットされるけどすぐ学習し直すし仕上がり良くなる
ちなみにdimsとかは固定してresだけを上げるなら320resに設定したmodelを新しく1から立ち上げて、学習始めたらすぐセーブして保存して
完成済みのmodelフォルダに入ってる旧decoderとencoder.npyファイルをコピーして
320resモデルフォルダの新dec&enc.npyファイルと同じ名前にして旧データと置き換えれば顔のデータ引き継げるから1から学習し直すよりかなり早い
それと若干顔がdst寄りになってるように見えるんだけど同じmodelデータで違う素材使って学習してると仕上がりがどんどんdst寄りの顔になっていくから
新しい素材で学習始める時はinter_AB.npyだけ消してからトレインした方がsrc寄りになるよ
dst以外のプレビューの顔がリセットされるけどすぐ学習し直すし仕上がり良くなる
312296
2022/06/03(金) 01:31:23.47ID:hXO9TKYj0 了解です。
次に作る時はres320のdims256でやってみます。
res変更時にデータを引き継げるのは知りませんでした。
確かに面倒なので同じmodelデータ使っていますね。
そちらも試してみます。
次に作る時はres320のdims256でやってみます。
res変更時にデータを引き継げるのは知りませんでした。
確かに面倒なので同じmodelデータ使っていますね。
そちらも試してみます。
313名無しさん@お腹いっぱい。
2022/06/03(金) 08:44:14.88ID:ztWjqObM0 もしかしてtrainのときのFacetypeって
wfからfに戻った?
wfからfに戻った?
314名無しさん@お腹いっぱい。
2022/06/03(金) 08:44:44.44ID:ztWjqObM0 デフォルト状態での話しです
315名無しさん@お腹いっぱい。
2022/06/03(金) 23:59:40.62ID:l99TgKx60316名無しさん@お腹いっぱい。
2022/06/04(土) 00:13:43.82ID:DsZbmEyh0 輪郭だけはどうしようもないけど
他の部位、分かりやすいところでは鼻とかが
あきらかにdstモデルの特徴を残してしまってる
のをたまに見かけるけど
そういう理屈だったのね
他の部位、分かりやすいところでは鼻とかが
あきらかにdstモデルの特徴を残してしまってる
のをたまに見かけるけど
そういう理屈だったのね
2022/06/04(土) 01:42:40.61ID:lpInVctW0
srcかdstどちらか一方でも大きく変更する場合はLIAEだとinter AB.npy
DFだとinter.npyファイルを消せば前回使った顔データ達を混ぜずに学習できるから結果良くなるはず
dstの角度・表情・照明とかがsrcに無くてdstに寄る場合はまず素材変えなきゃだけども
DFだとinter.npyファイルを消せば前回使った顔データ達を混ぜずに学習できるから結果良くなるはず
dstの角度・表情・照明とかがsrcに無くてdstに寄る場合はまず素材変えなきゃだけども
2022/06/04(土) 14:13:09.00ID:8w6IGb4r0
最近の開発者の感じからして4000には対応しなそうだな
2022/06/04(土) 18:10:38.05ID:t4JAJsiw0
確かに最近、更新ないしね
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 日本行き空路49万件キャンセル 中国自粛呼びかけ 日本行きチケット予約の約32%に相当 ★4 [ぐれ★]
- 【音楽】Perfume・あ~ちゃんの結婚相手「一般男性」は吉田カバンの社長・吉田幸裕氏(41) 高身長で山本耕史似 [Ailuropoda melanoleuca★]
- 【大分】佐賀関で大規模火災、170棟以上が延焼中 70代男性1人と連絡取れず [ぐれ★]
- 【サッカー】U-17日本代表、激闘PK戦制す 北朝鮮撃破で6大会ぶり8強入り U17W杯 [久太郎★]
- 【インバウンド】中国人観光客の日本での消費額は年間約2兆円超…中国政府は公務員の出張取り消し [1ゲットロボ★]
- 【サッカー】日本代表、ボリビアに3発快勝 森保監督通算100試合目を飾る…鎌田、町野、中村がゴール [久太郎★]
- アンケート調査で「高市発言は問題なし」 93.5%wwwwwwwwwwwwwwwwwwwwwwwww [279254606]
- 自閉症が「んなっしょい」と連呼するお🏡
- 【画像】エロい一般漫画はなぜこんなに抜けるのか
- 日本人の海外旅行したきのマナーよくなったのはいつから
- BTSのバラエティ面白すぎワロタ
- 寝癖ってどうしたらつかなくなるんや?
