【質問】dfl【その4】

■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。
垢版 |
2022/02/12(土) 17:06:21.44ID:6x5j6Sbc0
DeepFaceLab(以下、DFL)の質問&回答スレです

・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。

・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。

・RTXシリーズでも動くの?
FS、DFL共に動く。

【質問】dfl【その3】
https://egg.5ch.net/test/read.cgi/software/1607860934/
2022/03/12(土) 09:54:02.05ID:wCRcM+/e0
res384て…
そんなに上げられるものなの?
302とか288でやってるな
RTX3060で
2022/03/12(土) 10:01:31.09ID:kiyIk+z60
余白の話が出たので情報共有

extractした時のフェイス部分の大きさ位置変更
■LandmarksProcessor.py
・214行目 顔の大きさ 数字が小さいほど大きくなる
FaceType.WHOLE_FACE: (0.40, False),
FaceType.HEAD: (0.70, False),

・302行目 wfの顔位置 数字が小さいほど上に行く
g_c += vec*vec_len*0.07

・323行目 headの顔位置 同上
g_c += vvec*vvec_len*0.50

調整する際の注意点は横顔抽出のときにアゴ部分が切れないようにする
俺は head 0.40 0.10 でやってるけどデコマユ切ってる人はもっと大きくできる
変更後の抽出した画像はloss値が上がる
難点はMVEでのextractが初期値の顔の大きさになってしまうこと
2022/03/12(土) 10:19:05.20ID:0zNvv9L80
>103
その設定ならほぼwfのデフォルトと同じでは?互換性捨ててまでやることじゃないと思う。
headは髪のボリュームあると上手くいかないし、日本のアイドルは前髪まで含めておけば、本人っぽくはなるし両津問題で困ること無くなるし、wfで十分と思ってる。
2022/03/12(土) 11:05:32.81ID:kiyIk+z60
>>104
同じ数値にしてもwfとhaedのextractは異なるものが抽出されるのと
そもそもランドマークの扱いが違うので内部データが異なる全く別物になります
headの3Dでのextractが画角に強いのと仕上がりが好みなので俺はheadを選択してるのね
2022/03/12(土) 11:11:38.42ID:kiyIk+z60
すみません互換性の部分が良く分からなかったけど
modelのfacetypeはheadでの話をしてました
2022/03/12(土) 11:48:41.93ID:Ib5GDpaq0
>>106
確かにheadは画角に強いですよね〜
マスクをどこからどこにすれば良いかが難しい…
2022/03/12(土) 12:04:25.27ID:aVff+N+e0
>>103
聞きたかったのはaligned resを変えた場合の画質の変化だったが
そんなことよりもその情報を知ってるってことはもしかしてloss functionにMS-SSIM+L1とか使えるようにしてる?
何の事か分からなかったらスルーで良いんだけど
自分でも今実験しててSSIMもしくはMS-SSIMと比べてどこまで顔に差が出るか知りたいんだよね
2022/03/12(土) 13:36:03.80ID:NInxcUBj0
srcは髪型のシルエットから顎までしっかりマスクやって
dstは顎あたりしっかりやって頭部広めにキノコ型にマスクすると
結構よかったです。dstはポニーテールで
2022/03/12(土) 14:00:26.27ID:wgBVVMqc0
srcが常に同じ髪型してるわけじゃないから大変そう
2022/03/12(土) 21:28:47.34ID:0zNvv9L80
>103
そういう事か。余白が理由じゃないんですね。勉強になります。
もしかして、3Dextract でwfのフォーマットで書き出すように出来たりする?画角に強いwfの書き出しが出来るなら嬉しいんだけど。
2022/03/12(土) 23:04:52.29ID:Dm7Kl3Is0
みんなwfなのか
俺はいまだにfなんすけど
113名無しさん@お腹いっぱい。
垢版 |
2022/03/12(土) 23:18:01.49ID:5tfgxYB10
おれもfっすw
2022/03/12(土) 23:27:21.78ID:cjYIexVM0
udとudtはどうなん?udtはなんかdst寄りになってる気がする
2022/03/12(土) 23:30:13.79ID:cjYIexVM0
fの人は雰囲気出てればいっかぁって人でしょ

ガチ勢はwf一択
116名無しさん@お腹いっぱい。
垢版 |
2022/03/13(日) 00:00:01.30ID:DdKgiaZa0
fとかwfってscrとモデルとdstにそれぞれあると思うけど、やっぱり同じもの同士合わせないといけないの?
最初にやってるdstとか使いまわしするんでfにしないといけないからという感じもあるんだけど。
2022/03/13(日) 00:47:17.30ID:yAXmsNkO0
俺も3年ほど作ってるけどfだな
wfあんまり役に立たない
2022/03/13(日) 06:07:26.50ID:hdkPXi/B0
>>114
liaeはDSTの顔の角度がSRCにないとそうなるよ
dfだとクリーチャーになる
あとは単純にtrainが不十分
loss値が0.1あたりまで下がると一気に似てくる
2022/03/13(日) 08:47:35.62ID:+35yBR+40
自分はwf派
眉下で切ったりするならffで十分。狭い方が安定するし、解像度も高くなる。かなり素材の相性が必要だけど。
wfでちゃんと再現出来るなら広範囲変換した方が似るのは当然。輪郭や前髪まで含めれば特に。色合わせ適当でも目立たないし、上向いた時に顎下まで範囲に含めれば、お面っぽさも減る。
前髪は多少チラつくからそれが許せるかにもよるし、輪郭と障害物同時にこなすは難しいから、何を求めるかで違うんじゃないかな。
2022/03/13(日) 12:17:23.70ID:JichKtkJ0
電気代がヤバかったので一旦引退します笑
2万/月ほど乗ってる
2022/03/14(月) 18:12:33.30ID:D4fxcIxb0
もしsrcの正面の画像をたけしで揃えて
左向きの顔は全部さんま
右向きの顔は全部紳助
で揃えたら右向くと紳助になって左向くとさんまで正面向いてるときはたけしの
阿修羅みたいな奴ができるん?
2022/03/14(月) 18:43:30.13ID:W2/Abswa0
エロくないのは却下
123名無しさん@お腹いっぱい。
垢版 |
2022/03/15(火) 16:02:54.44ID:ZhAgGwk60
mergeして動画にすると顔にちらつきが
見られるのってtrain不足ですかね?
同じ位の動画時間で同じtrain時間でも
ちらつかないのも出来たりするので
謎です
ランドマークが乱れている時のちらつきとは
明らかに違います
2022/03/15(火) 18:22:06.45ID:GimY8sSm0
顔のextractがちゃんと出来てないとか
2022/03/15(火) 18:48:48.84ID:iwGHh9C30
ほぼ正面のなんてことないシーンなのにチラつく動画が出来上がることは、まれにあるね
カラーモードを変えてtrainを続けてみるなどのテストはしてないので、打開策があるのか私には分からん
対処法があるなら、教えて欲しいです
2022/03/15(火) 20:22:33.75ID:GimY8sSm0
rctでチラついたらmkl-mにするとかぐらいかな
127123
垢版 |
2022/03/15(火) 21:04:10.12ID:QBc0zKPp0
ありがとうございます
カラーはいつもrctでやっbトいます
一番無難な選択bニしてやっていbスのですが
他も試してどう変化がでるかやってみます
128名無しさん@お腹いっぱい。
垢版 |
2022/03/20(日) 10:27:22.32ID:W9LumOpO0
一番効率の良いTrainの設定ってどんな感じでしょうか?
バッチ増やすとiter遅くなるような気がします。
3090でやってます。今バッチ16で0.55ms位です。
2022/03/20(日) 10:32:09.81ID:f7F6AzPZ0
最初4ぐらいの小さめで、整ってきたらバッチギリギリまで上げるのが基本
130名無しさん@お腹いっぱい。
垢版 |
2022/03/20(日) 16:13:08.85ID:W9LumOpO0
>>129
有難うございます。ずっとバッチ16で最初からやってました。
次回言われたようにやってみますね!
2022/03/20(日) 18:24:29.76ID:JnvGMxIO0
自分も最初からずっと16でやってた...
単に並列処理数が多くて効率的ぐらいに思ってたけど違ったのか
2022/03/20(日) 20:27:52.31ID:3qWrgP2z0
xsegのトレーニングはどれくらいやたほうがいいですか?
2022/03/20(日) 21:07:14.42ID:UdeYg4MP0
プレビューでマスク範囲内の影がなくなるまで
2022/03/20(日) 22:30:47.66ID:QozVxlKn0
1iterの学習時間/バッチサイズが最小になる設定が一番効率いいのかと思ってた
135名無しさん@お腹いっぱい。
垢版 |
2022/03/21(月) 00:08:26.96ID:H8YMV8UJ0
髪で顔が覆われたdstのaligned素材を一旦別ファイルに移動させて(正確には切り取り→貼り付け)trainし、merge前にdstのalignedフォルダに戻したのですが、merge時に画像が見つからないとなりました。

原因がよく分からないのですが、なぜでしょうか?

train、mergeはQuick96でやりました。
2022/03/21(月) 00:32:47.94ID:DQloK8KR0
移動の仕方が何か違うのかもね
ただのjpgファイルに見えるけど、ただのjpgじゃないからね
2022/03/21(月) 05:08:34.55ID:wbKZkIL60
フォルダ名や位置を間違える、ソートして元に戻さすやっちゃってたとかそういう凡ミスが経験上多い
2022/03/21(月) 16:23:02.73ID:NJIf394q0
VRAM12GBの3060と10GBの3080だと
前者のほうが処理はやいですか?
2022/03/21(月) 16:29:43.94ID:DQloK8KR0
はやいかもね
でもDFでは普通はVRAMが少しでも多い方を買う
2022/03/21(月) 17:59:52.05ID:6HSCPIWQ0
全く同じ設定にして比較してるのを見たけど3060が600msで3090が300msくらいだったから
3060よりも3080の方が処理は早いけどそこまで変わるわけじゃないし
3060なら3080よりもバッチ、解像度、dims上げられるし価格も考えて3060が圧勝
というか秋に出る4070でさえ3090以上の性能らしいから3080は論外
2022/03/21(月) 18:27:34.11ID:u9d1XUrx0
まだしばらく2060superでがんばる
142名無しさん@お腹いっぱい。
垢版 |
2022/03/21(月) 20:15:05.61ID:359CBjeS0
loss値が下がらなくなるまでという説明が良くあるけど、random warpをyからnに切り替えるタイミングで
0.001でも下がり続けてたらyで続行すべき?
そのあたりの見極めが出来なくてモヤモヤしてます。
2022/03/21(月) 22:52:37.92ID:6HSCPIWQ0
プレビューの見栄えにもよるけど25分毎のlossの履歴見て3回連続で0.001ずつ位しか下がってない時は
大きく変化することは無いからそうなったら設定変えてるな

素材によって損失の低下速度も変わるから多少タイミングも変えるが
大体最初はRW+UYだけONでsrc lossが0.35位まで行ったらRW+UY+LRD ONにして
srcが0.25位まで行ったらRW切ってUY+LRDオンリーで0.15とかになったら終わらせてる
144名無しさん@お腹いっぱい。
垢版 |
2022/03/21(月) 23:49:23.48ID:359CBjeS0
>>143
コメント有難うございます。
自分がやってた事と大きく違ってなかったので安心しました。
各オプションを有効・無効にするタイミング間違えた事で結果が変わって何度無駄なトレーニングをした事か、、、
悩ましいけど段々良くなってるような気がしてて楽しいから続けられる。
2022/03/22(火) 14:59:31.20ID:CuSz3ILS0
>>143
RWとLRDを両方オンにしたことないのですが、うまく学習は進みますか?
2022/03/22(火) 18:53:15.63ID:R5xnplv90
>>145
DFLの開発者も深層学習に詳しい人達もRW→RW+LRD→LRDの工程を推奨してるし
この方法でsrcと同じクオリティの顔が最終的に作れてるから最適だと思う
現状どんな結果なのか分からないし元の素材が悪かったらどうしようもないけど
同じ様なタイミングで進めていけば今よりも良くなるかもね
2022/03/22(火) 20:30:54.38ID:pu+Lo9mf0
>>136
>>137
返信ありがとうございます。
ネットで調べたところ、no face foundと表示された箇所は、aligned_debugのランドマークが上手くいってない部分でした。
MANUAL RE-EXTRACT DELETED ALIGNED_DEBUGでいじってみます。
2022/03/23(水) 14:27:25.42ID:9NSCv3W90
眉のマスクについて、眉下をマスクしてmergeした際に前髪が二重になります(dst の前髪の下にprdの前髪がある)

@マスクをする際はsrc、dst 共に眉下の縁ギリギリを実線でなぞっているのですが、この認識であっているのでしょうか?

Aそもそもsrcの眉を上手く使う方法はないのか?

B片眉にのみ前髪がかかっている場合、実線で眉の高さをある程度揃えて、前髪部分だけ点線で除外した方がいいのか?それとも実線だけで前髪に沿って線を引けばいいのか?
2022/03/23(水) 16:46:19.05ID:4N7u+7Mf0
マスクはdstだけで良いと思います
それでX-seg trainをするとdstとsrc両方
読み込んでくれdstのマスクをsrcに対しても
あてがって学習してくれているみたいですね
2022/03/23(水) 18:27:37.35ID:QtDV5ckE0
dstだけのxseg trainってできないのかね
srcはさんざんtrainしてるのに
2022/03/23(水) 18:44:51.20ID:jfcxBLMW0
srcフォルダどこかへ移動させて試してみるとか
エラー起こるかな?
2022/03/23(水) 19:20:42.55ID:wd+rVhFW0
できるよ
srcのalignedフォルダの名前適当に変えてやればdstだけで始まる
2022/03/23(水) 19:58:38.89ID:U8658mPa0
xsegの汎用で当てた後はみ出してたりするのを修正するのは一番左上ので輪郭を
いったんもう一度規定してやらないとだめなんですかね?
点線の方の部分的に消す方だけやっても直したことにはならないんですか?
文章だとわかりにくいんでこれでは修正したことにならないんですか?↓
https://imgur.com/a/K3TGLcj
2022/03/23(水) 20:42:02.57ID:9NSCv3W90
>>149
なるほど
YouTubeでチュートリアル見ても、srcの方へもマスクしてたので、必須かと思ってました
今後dst のみでやってみます

ところでそうなるとsrcのマスクはどういう時に使うんですかね?
2022/03/23(水) 20:50:49.68ID:QtDV5ckE0
>>153
面倒くさいけど適応させる顔の部分を全部囲ってやらないとダメ
その例だとそんな大変でもないと思うけど
2022/03/23(水) 21:34:13.56ID:jfcxBLMW0
srcのマスクって私はしたことないですね
不必要な物の除去に使えそうですが
そういうのはtrain時に認識しませんし
そもそも除外します
2022/03/23(水) 21:41:05.89ID:QtDV5ckE0
マスクしないと必要のない部分も学習しちゃってloss値が下がらなくなるからだな
158名無しさん@お腹いっぱい。
垢版 |
2022/03/23(水) 23:16:28.96ID:cvUc74yB0
棒を舐めたいとする
そうするとSRCでバナナ食ってるやつとかを用意する必要がある
ここでx-segちゃんとやらないとバナナを口と学習してしまって棒なめてる時にバナナが出てくる
159名無しさん@お腹いっぱい。
垢版 |
2022/03/23(水) 23:28:19.66ID:cvUc74yB0
顔にちょっと手とかがかかってるのとかも除外するほど完成度が上がるんだよな
2022/03/24(木) 01:25:59.83ID:EZKR+eN60
バナナの例えがわかりにくいよ
笛はdstの方にマスクすればsrcのバナナも隠れるだろうし
2022/03/24(木) 01:48:47.43ID:oNqp1W5C0
>>153
最初、障害物だけ囲めばいいじゃーんってやって何も起こらないやつな
顔全体も実線ポリゴンで指定しとかないと適用されない
2022/03/24(木) 09:19:32.61ID:t9Nn/zwJ0
大口開けてるsrc画像欲しくておにぎりかぶりついてる
画像使っているんだけど
マスクしたほうが効率は良かったんですね
いまからでもやろうかなぁ
2022/03/24(木) 22:09:34.97ID:bRlaDVTh0
今まで、新しいの作るたびに、clear workspaceでワークスペースを空にしてました
過去スレ見てたら下のようなレスがあったのですが、一番最後の文を見る限り、
真新しいのを作る際はdata_dstとdata_srcのフォルダを削除して、modelフォルダは残しといた方が良いってことですかね?




296 /名無しさん[1-30].jpg 2019/08/19(月) 21:35:35 ID:
モデルの流用はmodeLフォルダの
上書きのことなのでしょうか。

297 /名無しさん[1-30].jpg 2019/08/19(月) 21:54:03 ID:
>>287
あれ、なんだろうね?
H128でも時々おかしなことになる。
やんごとなき御方が片方だけブルーのカラコンに。ビッチにもほどがある。
>>296
ModelデータはAligneと独立してるから
Dstの出力用画像がまるっぽ入れ替わっても同一人物なら無問題。
Src/Dst共に新人物にする場合でも、流用Modelデータは「人の顔」を学習済だから
新規の数十分の1のトレインで済むって寸法。
2022/03/24(木) 23:32:28.33ID:eM3mEN2v0
Mergeする時に、core9-9900の時には全コア使ってるんだけど、core7-12700の時にはコアを4つぐらいしか使ってない
なのでだいぶ時間に差が出るんだけどバグなんかな?
これが普通?
2022/03/25(金) 22:51:23.67ID:qiPzT4p+0
CPUが新しすぎて対応してないんじゃ
2022/03/26(土) 12:05:01.52ID:SF8psl8Q0
11世代では問題無かったけどMSI Z690と12世代 i9に変えたらトレーニング開始15分で停止するようになったって人がいたけどBIOSアップデートしたら直ったってよ
俺は使ってないから分からんけどマイクロコードの更新で12世代から分かれたEコアとPコアのcpuスケジューリングの処理が改善されたからみたい
他のマザボも多分同じように更新来てるだろうからアプデしたら直るかもね
12世代はwin11に最適化されてるって事も言及してるからwin11も必要かも
2022/03/26(土) 19:13:39.39ID:NVpYOcd40
みなさんありがとう
やっぱCPUうまく動いてないのかなあ
Bios、OSのせいもあるんかもしれないけどDFL自体去年のが最新版だから対応してないんかなあ
12世代で全CPUちゃんと動いてるよっていう人がいたら教えてください
2022/03/26(土) 19:20:31.46ID:Exoy10VI0
Eコア無効にして動かしてみれば
2022/03/27(日) 00:10:57.51ID:v3V83Ug60
Windows11にしたら全コア動き始めた
12世代の人はアップデートしないといけないな
2022/03/27(日) 12:07:02.85ID:8DfOfbqV0
srcの前髪使いたい場合はxsegでsrcとdst の前髪まるごとmaskすればいいのかな?
maskのコツとかある?
2022/03/27(日) 12:56:26.02ID:qLkzrCgF0
そのとおり
全く難しくないからやってみると良いと思う
成功したという人もいるけど、俺には無理だった
srcの前髪が常に同じじゃないといけないし、どんなにdstが上下運動しても前髪不自然に止まったまんまだし、とにかく輪郭が不自然
2022/03/27(日) 21:20:19.30ID:8DfOfbqV0
>>171
ありがとうございます
とりあえずやってみます
2022/03/27(日) 22:55:56.34ID:jO66UYzT0
headのもやもや感が全然取れん
3060じゃパワー不足かな?
2022/04/01(金) 02:49:24.34ID:i/Dt3ia50
全然更新ないなって思ってたけどこのソフトの作者ってロシア人なんだっけ?
2022/04/01(金) 21:59:37.07ID:4WodZj1v0
ロシア人だけど今も有名人のDF作るかオーバーウォッチで遊ぶかディスコでしょうもない質問してくる奴に対してキレてるだけで暇なのに細かい更新しかしてないから期待できないなw
2022/04/02(土) 11:07:26.17ID:bJ41ty0m0
dst では閉じ目のシーンが、出来上がりを見ると半目になってしまいます
これを閉じ目にしたいのですが、何かいい方法ないでしょうか?

loss値は0.2くらいで、一応src5000枚のうち、200枚くらいは目を閉じてます
2022/04/02(土) 14:30:20.60ID:n+sdsj+m0
LIAEだとマシになる程度
2022/04/02(土) 17:03:59.56ID:P0/RTPSV0
>>176
ae dimsを上げるか、MVEでdstのランドマークをいじれば多分いける
2022/04/02(土) 20:25:58.83ID:bJ41ty0m0
>>178
ae_dims初期設定の256からいじったことないんですけど、どれくらい上げれば変化分かるものなのでしょうか?
それと、ae_dimsってtrain途中で変えることできないんですが、初めからやり直すしかないんでしょうか?
2022/04/02(土) 20:38:49.85ID:vMFBhom70
目を閉じたsrcとdstだけ集めて別にやる手もある それでも完璧にはならないけど
2022/04/02(土) 21:04:15.77ID:MzF+nllB0
>>179
多分やり直すしかないと思います
aeは512位が良いのではないかと
2022/04/03(日) 17:24:15.63ID:WTeczf3+0
目を閉じない問題は、私はsrc素材の1/3くらいは
目を閉じてる画像にしましたね
そもそも作る動画の内、半分以上は閉じてるので
がっつり増やしてもいい感じ
それで現状は納得してます
>>180さんの言う
個別でやるのは何度か試しました
かなり良い感じに閉じてくれるのですが
再び他のと混ぜて学習を始めると
すぐにうっすら目が開いてきてしまいました
個別でやる場合完全に作業を分ける必要が
ありそうです
少々手間ですけどね
2022/04/04(月) 12:49:57.53ID:5VrWw7W80
modelについて教えて下さい

例えばセクシーAのdstに真矢ミキのsrcでmodel maya1で作る。
その後別のセクシーAのdstで作る場合、前のdstフォルダだけ移動させておいて、新しいdstの作成→model maya2てな具合にするんでしょうか?
それともmaya1を使い回せますか?
またセクシーBでdst作りなおす際は、modelフォルダも作り直しになるんてしょうか?
2022/04/06(水) 08:43:26.77ID:AFJhfssD0
使い回しても、名前を付けておけば
train時など選択できるようになっていますけど
私は作り直していますよ
あとから解像度だったり、segの学習だけ残して
また違う設定でやり直すとき楽ですから
2022/04/06(水) 12:18:49.01ID:935Nv1JU0
ありがとうございます。
作り直しでいきます。
2022/04/10(日) 13:12:42.13ID:V+Nr+wj40
黒目の中の光(ハイライト?)あれはeyes pri〜つけてしばらく学習してれば光ってくるんでしょうか?
現状レ○プ目みたいになってしまいます
187名無しさん@お腹いっぱい。
垢版 |
2022/04/11(月) 04:37:57.89ID:NZhVHzX80
eyes_mouth_prio
目と口元を優先して学習するのでそうですね
2022/04/11(月) 19:48:50.41ID:+t9joplk0
mergeした時に、たまにほんの小さなノイズが入ってたりするんですが何が原因なのでしょうか?
それとこれもたまに一部だけ色がおかしい(褐色系になってる)ことがあるんですが、こちらの原因も知りたいです

どちらも過学習とかなんですかね?
2022/04/11(月) 20:19:11.12ID:t0FU5e360
dstのランドマークが微妙にグチャっとなってるとか
2022/04/12(火) 10:51:59.06ID:dFbSR8GF0
>>189
かなりブレてるdst使ったのでノイズの原因それかもしれません
ランドマークおかしいと肌の色も変になるんでしょうか?
2022/04/12(火) 16:14:04.26ID:qI5Tf84l0
xsegについてなのですが、srcとdstを分けて学習させる方法無いですか?
2022/04/16(土) 16:21:07.16ID:DuGhO7Du0
srcもdstも色素薄い系の唇なのに、mergeすると蛍光ピンクの唇になるんだけど、唇の色味をsrcに近づける方法ないかな?
CTはtrainの最後の方だけオンにして、mergeはrctでやってる
2022/04/17(日) 00:29:31.39ID:rUWuQdwG0
>>192
merge時の変換対象範囲にビビットな色が入ってるとcolor_transfer_modeによっては顔の中に色移りするよね mix_m とか
顔の中や近くに同じピンク色の物体あったりするかな?
rctなら問題なかったと思うけど、ちょっと前にmergeのrctに関する不具合改修入ってたような
2022/04/17(日) 11:09:50.31ID:fnFMs2If0
>>193
近くにピンクなものは無いかな
train不足かと思ったけど、empオンにして0.2まで下がってるし、res192の限界なのかも
ganはまだ使ってないから、それやってみてダメだったらもう少し高い解像度でやってみる
ありがとう
2022/04/17(日) 14:21:53.43ID:glI3I/Yr0
背景が暗い時とか明るすぎる時も顔の色に影響しておかしくなる事があるな
res416でもたまにsrcとdstの相性で起こるしtrainの回数とかでもなくてCTとmergeの設定が適してないと思う

train中のCTがrctならmergeの設定はnoneとか他の色に変える
merge中に「3 あ」キーを押してCTと組み合わせる(通常に戻す時は「1 ぬ」)
「P」と「;」キーでcolor degrade powerを調整して顔の色味を薄くする
バックアップがあるならtrain時はCT noneにしてmerge時だけCTを使う
他にも「2 ふ」のhist-matchに変えたりとかerode maskの値を下げたりとかmergeの設定をとにかく変えまくればどこかで自然になるはず
2022/04/17(日) 15:32:04.89ID:mtEFPZeR0
xsegマスクとかで背景のド派手な色までマスクしていると
チークや唇がド派手な色になるね
マスクで1ドットでも拾ってしまっているとド派手になる
dst側で拾ってしまっていることが多い
2022/04/17(日) 16:41:36.00ID:IcWw10n+0
顔全体において、目鼻口を少し上や下の位置にずらして配置する設定ってないんですかね
198名無しさん@お腹いっぱい。
垢版 |
2022/04/17(日) 21:35:15.30ID:3XvgvHfn0
>>196
なるほど唇が真っ赤になってなんで?
って思っていましたが理由がわかりました
ありがとう
2022/04/19(火) 20:04:55.00ID:xGLImC0Y0
マージした時に小さいほくろみたいな斑点がでるんだけど、これってモデルが崩壊してるってことなの?
斑点は数枚出て少ししたら消える
200名無しさん@お腹いっぱい。
垢版 |
2022/04/20(水) 09:01:15.97ID:6eatME5b0
>>195
仕上がりの動画で顔がチカチカすると書いた者ですが

mergeの設定をlctにしてみたり
他にも書いてあるのをいくつか試していけば
改善されそうです
遅くなりましたが感謝です
2022/04/22(金) 18:09:09.61ID:TVPvMheP0
圧倒的にsrc素材がたんないんだけどどうしてる?
金かかってもいいからブルーレイから動画切り出す方法教えて下さい
■ このスレッドは過去ログ倉庫に格納されています