deepfakesの技術交換スレです。
前スレ
【AIコラ】fakeapp その12【革命】
https://phoebe.bbspink.com/test/read.cgi/ascii/1580015540/
テンプレに書いてない質問はok
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
探検
【AIコラ】fakeapp その13【革命】
■ このスレッドは過去ログ倉庫に格納されています
1
2020/03/08(日) 21:28:26.92670名無しさん@お腹いっぱい。 (HappyBirthday! 5fb1-Cs4+)
2020/11/20(金) 19:53:48.60ID:dskYLWZA0HAPPY これはいけると思っても微妙に似てない
マッチング難しい・・・
マッチング難しい・・・
671名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
2020/11/20(金) 21:22:18.95ID:28OLAj410HAPPY >>651
ごめんheadの間違い
ごめんheadの間違い
672名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
2020/11/20(金) 21:24:19.25ID:28OLAj410HAPPY ところで、3000シリーズの3Dベンチマークスコアだと
メモリクロックも重要になるって話を聞いたけど(VRAMじゃない普通のメモリね)
DFLも影響するかな。
わかる人いる?
メモリクロックも重要になるって話を聞いたけど(VRAMじゃない普通のメモリね)
DFLも影響するかな。
わかる人いる?
673名無しさん@お腹いっぱい。 (HappyBirthday! e2b0-b6az)
2020/11/20(金) 21:50:28.64ID:lXV7QsNn0HAPPY なんで影響あると思ったの?
674名無しさん@お腹いっぱい。 (ワッチョイW 12b8-qjTi)
2020/11/21(土) 00:42:20.95ID:lLtl/hBb0 3000シリーズの性能高いから安いメモリだと足引っ張るかもと思った。根拠はない。
675名無しさん@お腹いっぱい。 (ワッチョイW cf58-r+GL)
2020/11/22(日) 07:07:48.29ID:g0BUD64r0 繋がり眉毛問題だけどsrcの前髪が眉にかかってる画像だけxsegで髪のかからない部分をマスクしてtrainすれば解消する?
676名無しさん@お腹いっぱい。 (ワッチョイ 6276-cChY)
2020/11/22(日) 07:38:06.54ID:EgGZuU2e0 dst×dstの学習で有効なのはliae-hdとかみたい
df-hdだと前髪の残骸の黒い物が。。
df-hdだと前髪の残骸の黒い物が。。
677名無しさん@お腹いっぱい。 (ワッチョイW 9773-7H2D)
2020/11/22(日) 09:37:08.41ID:CPUrfaaZ0 いつもres192liae-hdでやってて初めてliae-uhd使ってみたんだけど全然loss値下がらん
時間も0.7msec/Iterくらいでいつもの倍くらいかかる
300kくらい回してやっと落ち着いてきたから一旦LRD trueにしてみたらbatch size2でもtrainスタート出来ず
DDR4 2666 32GB,i9-9900k,2080tiだけどGPUがボトルネックっぽい
どんな環境ならliae-uhd使いこなせるんですかね
時間も0.7msec/Iterくらいでいつもの倍くらいかかる
300kくらい回してやっと落ち着いてきたから一旦LRD trueにしてみたらbatch size2でもtrainスタート出来ず
DDR4 2666 32GB,i9-9900k,2080tiだけどGPUがボトルネックっぽい
どんな環境ならliae-uhd使いこなせるんですかね
678名無しさん@お腹いっぱい。 (ワッチョイ 068b-jfI9)
2020/11/22(日) 10:43:03.92ID:Qe8FXRgo0 最新のでliae-udにしてみたらどうだろう
679名無しさん@お腹いっぱい。 (ブーイモ MM13-Vt99)
2020/11/24(火) 23:01:35.36ID:3+PulNcVM 色々要求するとVRAMが足らないよなliae系はかなり食うし
680名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/11/25(水) 19:16:18.38ID:CuXZwmIx0 素材スレのうなってもうた…
貞松大輔に対するグチやsrcに合う話題はどこですれば
貞松大輔に対するグチやsrcに合う話題はどこですれば
681名無しさん@お腹いっぱい。 (ワッチョイW 1774-3++/)
2020/11/25(水) 19:27:40.19ID:3+9detNx0 なんか新しいアルゴリズムのアイデアないのかね
今のアルゴリズムでマシンパワーでごり押しするしかないのか
今のアルゴリズムでマシンパワーでごり押しするしかないのか
682名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/11/25(水) 19:55:42.12ID:CuXZwmIx0 ゆうてCPU大事だし、fullHDならres192batch8で十分 それ以上はオーバースペック
683名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/28(土) 12:48:32.85ID:hCIJHXj40 5600x RTX3070で顔抽出が2.0 it/s程度しか出ないけどこんなもん?
image sizeが768なのがダメなのかなぁ?
768→256程度に落とせば 速度は上がる気がするけど間違ってる?
設定入れるときに適当にENTER連打してたから768になってるけど
出来上がりに大して差がないなら256ぐらいに落としてもう一度回した方が良いのかな?
image sizeが768なのがダメなのかなぁ?
768→256程度に落とせば 速度は上がる気がするけど間違ってる?
設定入れるときに適当にENTER連打してたから768になってるけど
出来上がりに大して差がないなら256ぐらいに落としてもう一度回した方が良いのかな?
684名無しさん@お腹いっぱい。 (ワッチョイ ff90-W5Mj)
2020/11/28(土) 15:47:04.81ID:1wNVnHgm0 始めたばっかりの頃に持ってたGPUは微妙だったので、設定を解像度128、バッチ8、DFでやってたんだけど、
その後もうちょっといいGPUに変えて、解像度が夢の256でできるようになったのでもっと高画質でいけるだろうと思っていたが、
(バッチは4、DF)、解像度128のを最後のマージでスーパーレゾリューション?って数字をあげれば最終的に高解像度の顔になるから、
あんまり最初の解像度って関係ないんかなとおもったけど、どうなんでしょう?
解像度、バッチ、アーキテクチャーってのは、動く範囲内で取捨選択しないといけないけど、どれ優先が一番いいんでしょうね?
ちなみに、最近つくったモデルは、解像度128、バッチ4、liaeで、なんかこれが一番いいのではないかと思っていますが。
この設定は途中で替えれないから、最初にどれが最適か決めなきゃいけないから皆さんの意見が聞きたいです。
その後もうちょっといいGPUに変えて、解像度が夢の256でできるようになったのでもっと高画質でいけるだろうと思っていたが、
(バッチは4、DF)、解像度128のを最後のマージでスーパーレゾリューション?って数字をあげれば最終的に高解像度の顔になるから、
あんまり最初の解像度って関係ないんかなとおもったけど、どうなんでしょう?
解像度、バッチ、アーキテクチャーってのは、動く範囲内で取捨選択しないといけないけど、どれ優先が一番いいんでしょうね?
ちなみに、最近つくったモデルは、解像度128、バッチ4、liaeで、なんかこれが一番いいのではないかと思っていますが。
この設定は途中で替えれないから、最初にどれが最適か決めなきゃいけないから皆さんの意見が聞きたいです。
685名無しさん@お腹いっぱい。 (ワッチョイ 77d2-lhmq)
2020/11/29(日) 09:37:22.70ID:mhSRYID90 2070super8G、Re256、B9、Liae-udで安定
使いまわしModelを48時間まわして0.2くらい
使いまわしModelを48時間まわして0.2くらい
686名無しさん@お腹いっぱい。 (ニククエ bf73-iIvg)
2020/11/29(日) 14:06:50.34ID:Tpam6OoK0NIKU その設定だと相当dims下げないと動かなくね
687名無しさん@お腹いっぱい。 (ニククエW 9773-VJkO)
2020/11/29(日) 14:40:14.96ID:p18Ce+C00NIKU res160-liae-dims512-batch8
RWtrueで0.5切ったらfalse→0.2切ったらLRDtrue→0.1切るまでtrain
mergeする時はbmmだけ150でcolorはrctかlct
maskはlearned-prd*learned-dst*Xseg-prd*Xseg-dst
これでなんとなくうまくいってる
所々怪しいけど誰に見せるでもないし必要十分かな
RWtrueで0.5切ったらfalse→0.2切ったらLRDtrue→0.1切るまでtrain
mergeする時はbmmだけ150でcolorはrctかlct
maskはlearned-prd*learned-dst*Xseg-prd*Xseg-dst
これでなんとなくうまくいってる
所々怪しいけど誰に見せるでもないし必要十分かな
688名無しさん@お腹いっぱい。 (ニククエW 57b1-b0Bn)
2020/11/29(日) 18:30:10.78ID:f9hYXlTt0NIKU df-ud wholeface res386 batch3 VRAM8G
で満足してるのは少数派なのか。
で満足してるのは少数派なのか。
689名無しさん@お腹いっぱい。 (ニククエW 57c9-xWvL)
2020/11/29(日) 18:51:05.76ID:7ob5oBlS0NIKU 386はなんか気持ち悪いから少数派だろうな
690名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
2020/11/29(日) 19:40:56.83ID:bnfTaNH00NIKU 32で割り切れる数字じゃなきゃダメだと聞いたが、そんな適当な数字でも動くんだね
ちゃんと動いてるのかどうかは知らんけど
ちゃんと動いてるのかどうかは知らんけど
691名無しさん@お腹いっぱい。 (ニククエ d758-P4WK)
2020/11/29(日) 20:30:44.81ID:RoG3tSlB0NIKU 32で割り切れるじゃなくて2の累乗だな
692名無しさん@お腹いっぱい。 (ニククエW 57b1-b0Bn)
2020/11/29(日) 20:42:58.89ID:f9hYXlTt0NIKU 384の間違いだったw
693名無しさん@お腹いっぱい。 (ニククエ 777b-P4WK)
2020/11/29(日) 20:48:21.82ID:1/zEu/6p0NIKU PCオール換装ついでにDFL入れて試してみたけど要求するスペック、時間、負荷
どれも他のエロ技術とは格段に違い過ぎて悪い意味でハードル高いわ
PC購入費は除外したとして、自分の5600x RTX3070の構成だと20万回回すのにおよそ24時間
画像の吸出し+選別作業含めると+6時間はかかる
およそ3分程度の動画ですら 作成に30時間
モザイク破壊なら3000シリーズ動かないけど、2080なら2時間作品で6時間もあれば完成
高画質化なら2時間作品で24時間もあればいける
加えてSSDへのダメージ量もぶっちぎりでDFLが食うし
上記の1作品2時間にした場合の電気代はDFL9,600円 破壊なら60円、高画質化なら240円ぐらいになるの考えると
本当にコイツじゃないとダメなんだと思うぐらい入れ込んでる顔がないと、かなりやり続けるにはハードル高いわ
なれた人なら自分の1/10ぐらいにそれぞれの負荷減らせるもんなのかなぁ?
どれも他のエロ技術とは格段に違い過ぎて悪い意味でハードル高いわ
PC購入費は除外したとして、自分の5600x RTX3070の構成だと20万回回すのにおよそ24時間
画像の吸出し+選別作業含めると+6時間はかかる
およそ3分程度の動画ですら 作成に30時間
モザイク破壊なら3000シリーズ動かないけど、2080なら2時間作品で6時間もあれば完成
高画質化なら2時間作品で24時間もあればいける
加えてSSDへのダメージ量もぶっちぎりでDFLが食うし
上記の1作品2時間にした場合の電気代はDFL9,600円 破壊なら60円、高画質化なら240円ぐらいになるの考えると
本当にコイツじゃないとダメなんだと思うぐらい入れ込んでる顔がないと、かなりやり続けるにはハードル高いわ
なれた人なら自分の1/10ぐらいにそれぞれの負荷減らせるもんなのかなぁ?
694名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
2020/11/29(日) 21:35:15.32ID:bnfTaNH00NIKU コスト考えてるようじゃダメだよ
ディープフェイクはプライスレス
ディープフェイクはプライスレス
695名無しさん@お腹いっぱい。 (ニククエ MMbf-WCF9)
2020/11/29(日) 21:45:03.70ID:fJO2wTOfMNIKU Colab Proでいいじゃない
696名無しさん@お腹いっぱい。 (ニククエ Sa5b-K3Z5)
2020/11/29(日) 22:08:29.54ID:E4IbaFhJaNIKU697名無しさん@お腹いっぱい。 (アウアウクー MMcb-DT36)
2020/11/30(月) 01:17:07.65ID:hJyLAQ15M colabとか言うまた凄い技術があるんだなぁ
これならノートの低電力PCで動かせるし
結構なハイスペ割り当てられるから良さそうだが
どのGPU割り当てられるかによって動かすコード変わりそうなのと
コード少しはかけるレベルと米国居住の関門も突破する必要有るのが難易度高いわ
それクリアできる人なら電気代の観点や
騒音と廃熱、機器損傷の問題もクリア出来るし
自分のメインをゲームなり他のエンコにまわせるのもメリットデカイ
これならノートの低電力PCで動かせるし
結構なハイスペ割り当てられるから良さそうだが
どのGPU割り当てられるかによって動かすコード変わりそうなのと
コード少しはかけるレベルと米国居住の関門も突破する必要有るのが難易度高いわ
それクリアできる人なら電気代の観点や
騒音と廃熱、機器損傷の問題もクリア出来るし
自分のメインをゲームなり他のエンコにまわせるのもメリットデカイ
698名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/11/30(月) 01:24:54.45ID:Vu2EyZLO0 どこぞのメンバー全員とか変に欲張ったりしなけりゃそんなtrainに時間取られたりしないでしょ
699名無しさん@お腹いっぱい。 (ワッチョイW 57c9-fKCL)
2020/11/30(月) 01:57:13.02ID:L3Lssn020 colabは遅い
そもそもリソース限られてるんだから話してるやつは自分の首閉めてるのわからん?
そもそもリソース限られてるんだから話してるやつは自分の首閉めてるのわからん?
700名無しさん@お腹いっぱい。 (ワッチョイW 57c9-fKCL)
2020/11/30(月) 02:09:32.60ID:L3Lssn020701名無しさん@お腹いっぱい。 (ワッチョイW 17b1-nc77)
2020/11/30(月) 02:11:47.16ID:xmdANFb70 NY州の郵便番号調べて適当に入力したら契約できちゃったよ、Pro版(笑)
702名無しさん@お腹いっぱい。 (ワッチョイW 9f11-fF0a)
2020/11/30(月) 05:01:42.25ID:0SW/Bk/M0 解約できなくて泣くところまでセット
703名無しさん@お腹いっぱい。 (アウアウクー MMcb-JW44)
2020/11/30(月) 12:34:45.75ID:koWoITJ/M dstもsrcも自分で選べて本人にしか見えない物が作れるんだから、マシン費用、train時間、電気代etc気にならない
いい時代になったもんだ
いい時代になったもんだ
704名無しさん@お腹いっぱい。 (ワッチョイ d711-kGov)
2020/11/30(月) 15:03:51.28ID:NZ34c/SY0 ミスターディープフェイクの動画がDLできんのだが・・・
ワシさんのダウンローダー使ってたら今までは出来たんだけど
間違って拡張機能から削除しちゃったら
再インストールする時にもう拡張機能ストアにはないって出てきて困ってる
暗号化された分割動画ファイルが落とせるアドオン他にない?
それか昔のバージョンのワシのダウンローダー置いてあるところない?
お願いします
ワシさんのダウンローダー使ってたら今までは出来たんだけど
間違って拡張機能から削除しちゃったら
再インストールする時にもう拡張機能ストアにはないって出てきて困ってる
暗号化された分割動画ファイルが落とせるアドオン他にない?
それか昔のバージョンのワシのダウンローダー置いてあるところない?
お願いします
705名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/30(月) 19:04:08.40ID:mavPp4f10 初めてやってみたけど化け物しか産まれなかったわ
26万回しても0.40を下回ること無かったってことはsrc側が悪いのかdstをほぼ取捨選択しなかったらからなのか
変換されてない表情もあったりした
20万回以降は0.4以降全く下がらなかった
srcは一応ブレてる画像は取り除いたつもりで抽出15000→7000枚程度にした
しかしマスク等は一切編集しておらず、前髪が少し被ってるのとかは除外しなかった
dstに関してはあまり取捨選択しなかったがぱっと見で分かるブレ画像のみ取り除いた
これで結局化け物しか産まれなかった
dst側は取り除いた部分があることについて逆に顔が変換されない時間帯があるのでは?と感じた
0.1や0.2に切るくらいに持っていける人は徹底的にマスク処理してるのかな??
26万回しても0.40を下回ること無かったってことはsrc側が悪いのかdstをほぼ取捨選択しなかったらからなのか
変換されてない表情もあったりした
20万回以降は0.4以降全く下がらなかった
srcは一応ブレてる画像は取り除いたつもりで抽出15000→7000枚程度にした
しかしマスク等は一切編集しておらず、前髪が少し被ってるのとかは除外しなかった
dstに関してはあまり取捨選択しなかったがぱっと見で分かるブレ画像のみ取り除いた
これで結局化け物しか産まれなかった
dst側は取り除いた部分があることについて逆に顔が変換されない時間帯があるのでは?と感じた
0.1や0.2に切るくらいに持っていける人は徹底的にマスク処理してるのかな??
706名無しさん@お腹いっぱい。 (ワッチョイ ff8b-3i1O)
2020/11/30(月) 19:08:56.11ID:JxNmtT260 なんでdstを取り除いた
707名無しさん@お腹いっぱい。 (ワッチョイW 176d-JW44)
2020/11/30(月) 20:13:59.58ID:PMod7TTd0 >>705
削除したdstはmergeするときに元に戻してないとその部分だけ顔変換されないよ。
顔抽出に失敗したdstならその部分だけ手動でやり直す。
dstの顔の角度がsrcにないとクリーチャーになりやすいね。
削除したdstはmergeするときに元に戻してないとその部分だけ顔変換されないよ。
顔抽出に失敗したdstならその部分だけ手動でやり直す。
dstの顔の角度がsrcにないとクリーチャーになりやすいね。
708名無しさん@お腹いっぱい。 (ワッチョイW 9773-VJkO)
2020/11/30(月) 20:37:30.71ID:XbSg8MO60 faceset extractってwfよりfの方が抽出上手だね
いつからか抽出率悪くなったと思ったらwfになってたわ
いつからか抽出率悪くなったと思ったらwfになってたわ
709名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/11/30(月) 21:04:16.83ID:Vu2EyZLO0 26万回して0.4ってのは
pretrainをしてないか甘いんじゃないかな
好きなsrcを入れるのはその後
pretrainをしてないか甘いんじゃないかな
好きなsrcを入れるのはその後
710名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/30(月) 21:11:06.74ID:mavPp4f10711名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/12/01(火) 09:54:23.94ID:W+M4aEU40 十秒のdstでいいから、一度manualでextractしてみればいいよ
つーか過去スレ全く見てないだろ
つーか過去スレ全く見てないだろ
712名無しさん@お腹いっぱい。 (ワッチョイW b776-JWtn)
2020/12/01(火) 14:22:52.09ID:+CtYVkxm0 >>693
知り合いで作った時の破壊力は凄まじいぞ
知り合いで作った時の破壊力は凄まじいぞ
713名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 16:33:19.94ID:1ayHuz0u0714名無しさん@お腹いっぱい。 (ワッチョイW d758-6OYj)
2020/12/01(火) 19:46:45.63ID:J8ghkzDF0 まず知り合いに似てるAV女優や好きな顔したグラビアアイドル探すんだよ
それが見つかればあとは根気次第で素敵なオカズが作り放題だ、まあそんな顔した人間見つけるって前提が難しいが
それが見つかればあとは根気次第で素敵なオカズが作り放題だ、まあそんな顔した人間見つけるって前提が難しいが
715名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 20:05:18.90ID:AiVrrgTR0 恥かくだけだからあり得ない妄想で語るなよ
716名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/12/01(火) 20:33:56.10ID:W+M4aEU40 ある程度iterの伸びたDF系modelを流用すれば写真数枚でも結構出来るぞ
素材が豊富ならliae系だと髪型や輪郭の齟齬も巧い事trainで馴染ませてくれる
素材が豊富ならliae系だと髪型や輪郭の齟齬も巧い事trainで馴染ませてくれる
717名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 20:41:35.25ID:AiVrrgTR0 その程度じゃ正面以外はクリーチャー
はい論破
はい論破
718名無しさん@お腹いっぱい。 (ワッチョイW 9773-VJkO)
2020/12/01(火) 21:26:54.01ID:f/c4kQm90 普通知り合いとハメ撮りした映像srcに使うよね?
719名無しさん@お腹いっぱい。 (ワッチョイW 1776-48Hd)
2020/12/01(火) 21:49:11.93ID:Nkx9cF1L0 >>718
そんなキレイに撮影出来るものなの?
そんなキレイに撮影出来るものなの?
720名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/12/01(火) 21:52:41.28ID:749QyeiR0 Gigapixelで高画質化まではした
721名無しさん@お腹いっぱい。 (ワッチョイ ff8b-3i1O)
2020/12/01(火) 22:08:03.61ID:SP7n4Gx10 意味あるの?
722名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 22:10:57.93ID:AiVrrgTR0 劣化するだけで特に意味は無い
723名無しさん@お腹いっぱい。 (ワッチョイ 97e5-m/w5)
2020/12/01(火) 23:25:13.05ID:1DYHnSSa0 DFL の XsegEditor の使い方で教えてください
右上から「緑」(HotKey[2]) を選んで顔を囲うことでマスクが出来ているようなのですが、「赤」「青」は何のためにあるのでしょう?
まさか、RGB の色ごとにマスク作ることなんてしないですよね?
「緑」で顔を囲うのではなく、障害物の方を囲んで自動的に避けるよう train することは出来ないのでしょうか?
右上から「緑」(HotKey[2]) を選んで顔を囲うことでマスクが出来ているようなのですが、「赤」「青」は何のためにあるのでしょう?
まさか、RGB の色ごとにマスク作ることなんてしないですよね?
「緑」で顔を囲うのではなく、障害物の方を囲んで自動的に避けるよう train することは出来ないのでしょうか?
724名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/02(水) 00:05:16.68ID:ud0WrYAl0 色は関係ないから好きなのどうぞ
左上の実践のがマスクで、その下の点線が障害物
左上の実践のがマスクで、その下の点線が障害物
725723 (ワッチョイ 4ee5-l3pW)
2020/12/02(水) 12:34:10.91ID:M+kiswA60726名無しさん@お腹いっぱい。 (ワッチョイW 9b58-Tzug)
2020/12/02(水) 13:31:28.16ID:rjqqNMY+0 >>716
枚数少ないときはliaeの方がいいって過去スレで見たんだがdfのほうがいいのか?
枚数少ないときはliaeの方がいいって過去スレで見たんだがdfのほうがいいのか?
727名無しさん@お腹いっぱい。 (ワッチョイW 9676-UvAp)
2020/12/02(水) 13:56:37.91ID:0ySnKGdC0728名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/03(木) 08:02:37.35ID:QLnoNr3J0 似てるとかは何も考えず5人別の顔で同じアングルの動画を5秒ずつ切り取ってtrainしたら
輪郭もパーツも全然違うのによく似る人と輪郭とかが近しいのに全然別人ってのが出て来た
ほんとに合わせてみないと分からんねこれ・・・
輪郭もパーツも全然違うのによく似る人と輪郭とかが近しいのに全然別人ってのが出て来た
ほんとに合わせてみないと分からんねこれ・・・
729名無しさん@お腹いっぱい。 (ワッチョイ 8ebc-YXDh)
2020/12/03(木) 14:23:29.82ID:uhHeOsIp0 いろんなオプションがあるけど
それらを試行錯誤するより実際に一番効果的なのは素材選び
でも、元々の目的は好きな顔と映像をくっつけたいってことなんだから
素材選びで縛れられるのだったら本末転倒だよね
それらを試行錯誤するより実際に一番効果的なのは素材選び
でも、元々の目的は好きな顔と映像をくっつけたいってことなんだから
素材選びで縛れられるのだったら本末転倒だよね
730名無しさん@お腹いっぱい。 (ワッチョイW bfbd-ncXa)
2020/12/04(金) 09:12:25.99ID:Dp5oNYgi0 素材厳選でちんこ萎れるのが難点
731名無しさん@お腹いっぱい。 (ワッチョイ f3d2-dzmw)
2020/12/04(金) 11:35:10.52ID:hFcPRa1A0 >>705
eyes pri 入れっぱなしでは?
eyes pri 入れっぱなしでは?
732名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/04(金) 13:07:06.10ID:r2OPm5N20 俺もこさかなちゃんのVRDFにチンコ入れっぱなし
VRは見つめあえるから良いね
VRは見つめあえるから良いね
733名無しさん@お腹いっぱい。 (ワッチョイ 4ee5-l3pW)
2020/12/05(土) 10:36:24.36ID:Zs7kwVjN0 仕上がりは別として、みんな、最大でどれくらいのイタレーション数回したことがあるんだろ?
734名無しさん@お腹いっぱい。 (ワッチョイ d2c0-9rBX)
2020/12/05(土) 16:49:20.16ID:bNAQ/T3U0 初めてDFL使ってるんだけど最後の静止画を動画に戻す工程だけができない。
↓のエラーが出るんだけどこれってどういう意味だろう?
Error initializing output stream 0:0 -- Error while opening encoder for output stream #0:0 - maybe incorrect parameters such as bit_rate, rate, width or height
↓のエラーが出るんだけどこれってどういう意味だろう?
Error initializing output stream 0:0 -- Error while opening encoder for output stream #0:0 - maybe incorrect parameters such as bit_rate, rate, width or height
735名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/05(土) 19:03:42.53ID:c0W96cnr0 元動画のパラメータがおかしいって書いてるな
ビットレートかレートか縦横の画像サイズ
他のソフトでmerge後の画像を連結して動画にしたほうが早そう
ビットレートかレートか縦横の画像サイズ
他のソフトでmerge後の画像を連結して動画にしたほうが早そう
736名無しさん@お腹いっぱい。 (ワッチョイ e758-l3pW)
2020/12/06(日) 16:39:07.06ID:t+TRfq+a0 いま生きてるのってこのスレしかない?
737名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 17:15:56.92ID:dplg1Nbl0738名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 17:18:21.40ID:dplg1Nbl0 ついでに聞きたいんだけど、色味を合わせるためにはマージの設定変えたらいいのかな?
素材選びの段階で決まっちゃう?
素材選びの段階で決まっちゃう?
739名無しさん@お腹いっぱい。 (テテンテンテン MM34-sRwT)
2020/12/06(日) 17:23:03.87ID:B0/DiutKM trainでも寄せられるけどpreview見てもいまいち分からんから
自分はtrainの段階ではnoneでmergeでしか合わせてない
よっぽどかけ離れた色じゃなければ問題ないんじゃないかな
ただ背景の色に引っ張られるときはあるね
自分はtrainの段階ではnoneでmergeでしか合わせてない
よっぽどかけ離れた色じゃなければ問題ないんじゃないかな
ただ背景の色に引っ張られるときはあるね
740名無しさん@お腹いっぱい。 (ワッチョイ dfe8-jrSk)
2020/12/06(日) 17:24:19.33ID:7mPqReH50 みんなは抽出した画像が逆さまになってる時どうしてる?
反転で戻すのか削除するのか
反転で戻すのか削除するのか
741名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 17:26:47.37ID:dplg1Nbl0 なるほどー
始めたてだからいろいろ悩みながらやってみるわ。
始めたてだからいろいろ悩みながらやってみるわ。
742名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/06(日) 17:32:43.35ID:u5dWSy7k0743名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 18:08:30.26ID:dplg1Nbl0 顔画像抽出の時って似たような画像が何十枚もできるけど
これ全部あったほうがいいの?
これ全部あったほうがいいの?
744名無しさん@お腹いっぱい。 (ワッチョイW 5173-sRwT)
2020/12/06(日) 18:33:09.70ID:XZEqMAsU0 srcは削ってもいいけどdstはぱっと見同じでも各フレームに対応してる
消すとそのフレームは元のままになるのでdstは残しましょう
消すとそのフレームは元のままになるのでdstは残しましょう
745名無しさん@お腹いっぱい。 (ワッチョイ 0a73-v2J+)
2020/12/06(日) 20:26:41.83ID:JZexmdPR0 この手の子は説明しても無駄
746名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 21:13:48.72ID:dplg1Nbl0747名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/07(月) 11:45:16.47ID:PDhG/gSa0 srcを500枚でやってみたけどほぼ正面の動画に限れば意外と納得行く形になるな。
748名無しさん@お腹いっぱい。 (ガラプー KK12-Flf6)
2020/12/07(月) 18:16:55.40ID:Qi8CcLKrK srcの角度が足りてるかが重要だよな
749名無しさん@お腹いっぱい。 (ワッチョイ e758-l3pW)
2020/12/07(月) 18:18:22.47ID:+YI4ArM10 自分で作って自分で見るなら正面だけでもいいもんなあ
シーン選びがめんどくさくはなるが
シーン選びがめんどくさくはなるが
750名無しさん@お腹いっぱい。 (ワッチョイW 5173-sRwT)
2020/12/07(月) 18:18:57.58ID:oQUTyePX0 変顔集みたいなsrc継ぎ足したら表情の追従が劇的に改善した
行為中の顔は変顔だった?
行為中の顔は変顔だった?
751名無しさん@お腹いっぱい。 (ワッチョイW d2c0-TBV6)
2020/12/07(月) 18:34:06.83ID:PDhG/gSa0 枚数も大事なんだろうけどワンパターンじゃだめってことか。
変顔探すのって実は大変じゃないか。。。
変顔探すのって実は大変じゃないか。。。
752名無しさん@お腹いっぱい。 (ワッチョイ 9fd7-9FtY)
2020/12/07(月) 19:22:43.82ID:lVIUA3ha0753名無しさん@お腹いっぱい。 (ワッチョイ 0a73-v2J+)
2020/12/07(月) 20:27:13.17ID:CZif91rW0 face type hの範囲外であれば5%程度までの数の障害物有り画像(唇下までのマイク等)も収束に影響ない
ってmrでiperovが書いた、と過去スレに書いた気がする
ってmrでiperovが書いた、と過去スレに書いた気がする
754名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/07(月) 20:28:50.38ID:iWq9JxKa0 本人じゃなくても雰囲気の似てる子を先に覚えさせてそれをベースにすれば
100枚くらいの写真でも主観ものならいい感じに出来る
100枚くらいの写真でも主観ものならいい感じに出来る
755名無しさん@お腹いっぱい。 (アウアウウー Sa30-SutW)
2020/12/07(月) 21:02:58.42ID:RDrwRkoHa >>745
それメンス
それメンス
756名無しさん@お腹いっぱい。 (ワッチョイ 6e0c-9rBX)
2020/12/07(月) 23:04:45.15ID:mlcZcFaz0 RTX3090期待してたんだけど、顔抽出がwf-512-100の設定で
1.4s/it でめっちゃ遅い。なにか間違っているんだろうか。バッチ数は
同じモデルで確かに2倍まで上げれたんだが。
1.4s/it でめっちゃ遅い。なにか間違っているんだろうか。バッチ数は
同じモデルで確かに2倍まで上げれたんだが。
757名無しさん@お腹いっぱい。 (ワッチョイW 09c9-iXoL)
2020/12/07(月) 23:38:35.75ID:MxK7KYRh0 結局128とかに画像を縮小してるからgpuでの推論にかかる時間自体はそんなにかからなくて他はcpuでの処理だからな
ssdの書き込み速度も大事
ssdの書き込み速度も大事
758名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/08(火) 03:53:55.45ID:A4byW3Wi0 学習結果を再利用するときってmodelフォルダの中のデータをどれかコピペすればいいのかな?
みんな再利用してるのかな?
みんな再利用してるのかな?
759名無しさん@お腹いっぱい。 (ワッチョイW 6492-S0LA)
2020/12/08(火) 06:50:50.30ID:feSo48Wf0 目を閉じてるシーンにtrainすると殆ど薄目開けた状態になるんだけどこれって目を閉じたsrc不足?単純にtrain不足?
760名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/08(火) 08:20:45.12ID:A4byW3Wi0 >>759
src不足じゃない?
src不足じゃない?
761名無しさん@お腹いっぱい。 (ワッチョイ 7c10-Jcqy)
2020/12/08(火) 10:51:30.64ID:LAh0TGf50 >>693モザイク破壊と高画質化ってどうやってやるの??
762名無しさん@お腹いっぱい。 (ワッチョイ 2e00-MyGE)
2020/12/08(火) 12:02:44.18ID:8KvUIbmc0763名無しさん@お腹いっぱい。 (ワッチョイ dfe8-jrSk)
2020/12/08(火) 15:06:45.88ID:o60HFREd0 >>759
目を閉じてる画像は瞬きしてる場面から抽出できる
目を閉じてる画像は瞬きしてる場面から抽出できる
764名無しさん@お腹いっぱい。 (ワッチョイW dfb1-sGEz)
2020/12/08(火) 17:28:59.05ID:RS192MT80765名無しさん@お腹いっぱい。 (スフッ Sd70-wrey)
2020/12/08(火) 18:56:29.95ID:8FF249zpd <<764
756ですが4多重とはdflを4つ立ち上げてdstを4分割にして顔抽出するということでしょうか?
756ですが4多重とはdflを4つ立ち上げてdstを4分割にして顔抽出するということでしょうか?
766名無しさん@お腹いっぱい。 (ワッチョイW dfb1-sGEz)
2020/12/08(火) 19:21:26.28ID:RS192MT80 >>765
そうですね
DFLの解凍フォルダを4つコピーしてdstなりsrcなりのフレーム毎ファイル群を4分配して
各作業フォルダ内の目的の.batを実行します
自分は3多重まで試しましたがVRAMの余り具合から4多重はいけそうでした
そうですね
DFLの解凍フォルダを4つコピーしてdstなりsrcなりのフレーム毎ファイル群を4分配して
各作業フォルダ内の目的の.batを実行します
自分は3多重まで試しましたがVRAMの余り具合から4多重はいけそうでした
767名無しさん@お腹いっぱい。 (ワッチョイ 0a73-v2J+)
2020/12/08(火) 20:09:49.49ID:GsVvrHSQ0 src画像が多かったから瞬きしてる前後を中心に選んだところ、イメージより目の細い子に仕上がった
対応力も求められるが、好きな顔を多く残すのって大事
対応力も求められるが、好きな顔を多く残すのって大事
768名無しさん@お腹いっぱい。 (ワッチョイ 9b58-jrSk)
2020/12/08(火) 20:13:36.36ID:BZ9ydVv70 そうね
自分の脳味噌が本人と認識している画像を多く残した方がよい
自分の脳味噌が本人と認識している画像を多く残した方がよい
769名無しさん@お腹いっぱい。 (ワッチョイW 5173-sRwT)
2020/12/08(火) 20:38:42.05ID:BxnUz1890 srcの名前と画像を隅っこに乗っけると脳みそがより補正しやすい説あるな
770名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/08(火) 20:57:55.35ID:oMsXGO9B0 半目、白目、ギョロ目はsrcの質と言うよりDFLのaiがバカって部分が大きいと思う
dst×dstで馴染むまでtrainすると補正されやすい
dst×dstで馴染むまでtrainすると補正されやすい
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【台湾有事】トランプ氏 電話会談で高市総理に発言抑制を要求か 米メディア報道… ★10 [BFU★]
- 中国、日本渡航に再警告 「侮辱や暴行で複数の負傷報告」 [ぐれ★]
- 経済誌元編集長「石破氏がコメ増産したからコメが余りまくってるどうしてくれるんだ」高市総理は悪夢の石破政権の尻ぬぐいしてる [バイト歴50年★]
- 英検、6級と7級新設へ 基礎レベルの学習に対応 [少考さん★]
- 【足立暴走男の母親が涙の謝罪】「医師から運転を止められていた」母が語った事件の背景 男は数年前から統合失調症 最近薬を変え… [ぐれ★]
- 参政・梅村みずほ議員「土葬を原則禁止にしろ」「上皇陛下も火葬が望ましいといってる」 [バイト歴50年★]
- VIPでウマ娘
- おさかなさんあつまれえ
- 【高市速報】トランプ大統領「これ以上日中の対立をエスカレートさせるな」 [931948549]
- トランプ、高市首相との電話協議で『日中対立「沈静化の必要性」に言及』首相の国会答弁を支持する発言なし [256556981]
- 理想の人間一人思い浮かべてスレ開け
- 嫌儲ウマ娘部 ★2 [959428968]
