芸能人や女優の名前を書いてただけでアウトだから内容はあんま関係ないな
おそらくdeepfakeってスレタイで消すか決めてる
探検
【AIコラ】fakeapp その13【革命】
レス数が1000を超えています。これ以上書き込みはできません。
629名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/15(日) 09:03:15.43ID:9qR/gwXk0630名無しさん@お腹いっぱい。 (ワッチョイ 45e8-Y0tO)
2020/11/15(日) 14:51:32.00ID:27B76vsy0 全く問題ないんだけどもう少し目立たないスレタイにしろって事かもな
631名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/15(日) 17:10:10.48ID:CodO+bBb0 【AIコラ】fakeappはまずいと思う
DFLとか略語では?
Google検索にひっかかるけど、上位は関係無いものばかり
DFLとか略語では?
Google検索にひっかかるけど、上位は関係無いものばかり
632名無しさん@お腹いっぱい。 (ワッチョイ 4b8b-Bt6w)
2020/11/15(日) 17:15:11.59ID:r68Ev+9W0 Deepfake総合はスレストだけど新スレ立てたな
633名無しさん@お腹いっぱい。 (ドコグロ MM43-JBbW)
2020/11/15(日) 21:43:56.55ID:G1vVHissM 最初に停められたのは半角の技術スレな
コラの普及に5chを使われるのが嫌なんだろうから
此処で解説や相談はしない方がいい
コラの普及に5chを使われるのが嫌なんだろうから
此処で解説や相談はしない方がいい
634名無しさん@お腹いっぱい。 (スプッッ Sda1-bcYd)
2020/11/16(月) 01:49:51.49ID:Rmd0qmVxd 目立つとかそういうことではなくて、10月から施行された改正著作権法でリーチサイト問題が発生したから、問題あるサイトへのリンクを貼りまくる所が閉鎖されてると聞いてるが…
(書いた本人ではなくて、サイトが罰則を受ける)
半角はそういうサイトへのリンクを貼りまくってる所だから、板ごと閉鎖。スレの問題では無いでしょ。
「成果物」や「素材です」とか言って著作権違反物にリンクを貼ったらアウトだと思うよ。
(書いた本人ではなくて、サイトが罰則を受ける)
半角はそういうサイトへのリンクを貼りまくってる所だから、板ごと閉鎖。スレの問題では無いでしょ。
「成果物」や「素材です」とか言って著作権違反物にリンクを貼ったらアウトだと思うよ。
635名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/16(月) 11:04:23.47ID:3RMvypG00 技術スレも素材スレもそんなことしてなかったろ
636名無しさん@お腹いっぱい。 (ワッチョイW c574-xcA9)
2020/11/16(月) 16:56:16.74ID:Hp9O4PSG0 5chも簡単に日本の法律に従うようになったんか?
637名無しさん@お腹いっぱい。 (ワッチョイ 2311-+Iwg)
2020/11/16(月) 18:56:10.10ID:r3IEqbqg0 私日本人ニダ
うそじゃないニダ
うそじゃないニダ
638名無しさん@お腹いっぱい。 (ワッチョイ dd06-dT/H)
2020/11/16(月) 19:49:22.39ID:TeQkIxXY0 まだFansegバージョンのままでXsegに移行してないのですが
Xsegって、他の人がtrainしたXsegモデルをもらってコピペすれば使い回しできるようですが
そのXsegモデルが顔前の障害物を十分trainされたものなら、再tranせずにdstにいきなりapplyするだけで
それなりのマスクが適用されるのでしょうか?
またsrc・dstをすでに f でtrainしている場合に、wf のXsegモデルって使えるのでしょうか?
よろしくお願いします
Xsegって、他の人がtrainしたXsegモデルをもらってコピペすれば使い回しできるようですが
そのXsegモデルが顔前の障害物を十分trainされたものなら、再tranせずにdstにいきなりapplyするだけで
それなりのマスクが適用されるのでしょうか?
またsrc・dstをすでに f でtrainしている場合に、wf のXsegモデルって使えるのでしょうか?
よろしくお願いします
639名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/16(月) 20:16:30.58ID:Nq1ILe+O0 mercury.bbspink.comだと大丈夫とか?
640名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/16(月) 22:00:04.45ID:Nq1ILe+O0641名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/16(月) 22:14:16.38ID:tpAMToL/0 学習させてて、人間の目から見たら目立つとこが超最後の方でしか学習されないことあるよね
全体の肌の質感は面積が広いから学習遅くても仕方ないとして、まつ毛と唇の光沢の学習の遅さが毎回気になる
特に唇の光沢が弱いとのっぺりするから優先的に学習してもらいたい
全体の肌の質感は面積が広いから学習遅くても仕方ないとして、まつ毛と唇の光沢の学習の遅さが毎回気になる
特に唇の光沢が弱いとのっぺりするから優先的に学習してもらいたい
642名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/16(月) 22:16:40.84ID:tpAMToL/0 単にピクセル誤差を埋めるように学習するんじゃなくて、人間の目から見て重要なとこを
優先して学習するような仕組みをDFLにも取り込んでほしい
優先して学習するような仕組みをDFLにも取り込んでほしい
643名無しさん@お腹いっぱい。 (ワッチョイW 75b1-b+pk)
2020/11/16(月) 23:36:01.49ID:jbH/9GP+0 eye priority改造すれば出来るよ
644名無しさん@お腹いっぱい。 (ブーイモ MM69-kS8p)
2020/11/17(火) 12:11:41.91ID:Grit+M++M それも大事だけど目鼻口の相対位置を反映させる機能があれば革命的に良くなるのになぁ。
645名無しさん@お腹いっぱい。 (ワッチョイ ab15-NOUc)
2020/11/18(水) 08:36:41.57ID:gzVfzjLt0 今までフェイスタイプをfullで利用しておりWHOLEに挑戦してみようと思いまして。
6) train SAEHDの設定画面でフェイスタイプをfullからWHOLEに変更するにはどうしたらしたらいいんでしょうか?
ちなみにDSTとSRCはWHOLE用に細工はしています
一度FULLでやったら変えれないんでしょうか?
6) train SAEHDの設定画面でフェイスタイプをfullからWHOLEに変更するにはどうしたらしたらいいんでしょうか?
ちなみにDSTとSRCはWHOLE用に細工はしています
一度FULLでやったら変えれないんでしょうか?
646名無しさん@お腹いっぱい。 (テテンテンテン MM8e-7H2D)
2020/11/18(水) 09:08:15.36ID:l4KupGxiM facetypeってmodel毎に持ってて初回しか設定出来なくない?
もし変えたかったら新規で作るしかないのかな
もし変えたかったら新規で作るしかないのかな
647名無しさん@お腹いっぱい。 (ワッチョイ a7d7-8i2i)
2020/11/18(水) 10:50:51.58ID:u2Pu6V/j0 まずはwhole feceでextractし直さなきゃ
srcもdstも両方とも
modelも新規に作成してfece typeを選択
pretrain済みのものを拾ってきて利用してもいいけど
srcもdstも両方とも
modelも新規に作成してfece typeを選択
pretrain済みのものを拾ってきて利用してもいいけど
648名無しさん@お腹いっぱい。 (ワッチョイ 068b-jfI9)
2020/11/18(水) 18:32:48.85ID:A7yZYkB10 whole faceは日本人には意味ないって言われて、やったこと無いな
649名無しさん@お腹いっぱい。 (ワッチョイW 4b58-Cu+U)
2020/11/19(木) 00:06:05.88ID:f+2ePRJM0 何時間もCPU&GPU100%で放っておくとすぐPCぶっ壊れそうで怖いな
650名無しさん@お腹いっぱい。 (ワッチョイW 12b8-qjTi)
2020/11/19(木) 01:22:39.91ID:Xe+MizZI0 確か、fullでやっとけばそれより狭い範囲は共用できたでしょ。つまり全部fullでやっとけってこと。
651名無しさん@お腹いっぱい。 (ワッチョイ cf58-b6az)
2020/11/19(木) 02:12:53.98ID:Ml9LICjg0 範囲で言えば
head > whole > full
だぞ
head > whole > full
だぞ
652名無しさん@お腹いっぱい。 (ワッチョイW ab6d-wIQ9)
2020/11/19(木) 07:17:05.73ID:OJ4dRZrc0 >>649
この時期で壊れるなら熱排気が駄目すぎだろ
この時期で壊れるなら熱排気が駄目すぎだろ
653名無しさん@お腹いっぱい。 (ワッチョイ 57b1-cChY)
2020/11/19(木) 08:47:22.71ID:ZzKVxBnn0 RTXは3000のbuildあるけど、RX6800XTも対応したbuild出ないと使えないんかな
あの値段でVRAM16GMは魅力だから欲しいんだが
あの値段でVRAM16GMは魅力だから欲しいんだが
654名無しさん@お腹いっぱい。 (アウアウウー Sa3b-wIQ9)
2020/11/19(木) 13:38:01.85ID:0jxmCp95a655名無しさん@お腹いっぱい。 (アウアウウー Sa3b-Ocry)
2020/11/19(木) 14:30:26.24ID:lLT8dCJ1a もうAI系のソフトにRADEONは使えないだろうなぁ
Video enhance AIもRTXの方が速いし
Video enhance AIもRTXの方が速いし
656名無しさん@お腹いっぱい。 (ワッチョイ b2ad-bQi2)
2020/11/19(木) 15:27:49.81ID:8IaFnpzN0 アイドルも被害「ディープフェイク」まとめサイト管理人を逮捕。芸能団体は「違法なまとめ行為」を批判
https://news.yahoo.co.jp/articles/84edf77306b0e6385ed1819b60b1ca5a4262c839?page=1
まとめサイトにリンクを載せてた管理人が逮捕だって。
損害賠償金もアダルト業界+芸能事務所から来る可能性あるから金額えぐいだろうね。
https://news.yahoo.co.jp/articles/84edf77306b0e6385ed1819b60b1ca5a4262c839?page=1
まとめサイトにリンクを載せてた管理人が逮捕だって。
損害賠償金もアダルト業界+芸能事務所から来る可能性あるから金額えぐいだろうね。
657名無しさん@お腹いっぱい。 (ワッチョイW a376-9fGJ)
2020/11/19(木) 15:49:30.49ID:IB1CtEPv0 >>656
これがダメなら袋とじで紹介してた男性誌はどうなるんだよ
これがダメなら袋とじで紹介してた男性誌はどうなるんだよ
658名無しさん@お腹いっぱい。 (ワッチョイ 8269-Ci24)
2020/11/19(木) 16:16:37.33ID:wOOG4ccP0 今もやってるの?
659名無しさん@お腹いっぱい。 (ガラプー KK9e-yb3V)
2020/11/19(木) 16:33:41.42ID:vzLkvPa4K CPUの多コア化が加速してるし、またopenCL対応しないかな
660名無しさん@お腹いっぱい。 (ワイモマー MM02-VuZ6)
2020/11/19(木) 16:48:54.67ID:EUOL35N5M >捜査幹部は「作ることも拡散することも許されない。摘発を続けて被害を防ぎたい」としている。
ttps://www.asahi.com/articles/ASNCM3RKRNCKUTIL059.html?iref=com_latestnews_01
作るのもだめだってさ
ttps://www.asahi.com/articles/ASNCM3RKRNCKUTIL059.html?iref=com_latestnews_01
作るのもだめだってさ
661名無しさん@お腹いっぱい。 (ワッチョイ 5fb1-Cs4+)
2020/11/19(木) 18:00:34.39ID:oG9CaZVK0 国家の無知っぷりがやばいな
こんなもん誰が見てもフェイクバレバレなのに
「違和感なし」とか「本人そのもの」とかAVの売り文句みたいなのだけ聴いて
悪用されたらめっちゃやべえ技術じゃんとかジジイ達は本気で思ってるんだろうな
こんなもん誰が見てもフェイクバレバレなのに
「違和感なし」とか「本人そのもの」とかAVの売り文句みたいなのだけ聴いて
悪用されたらめっちゃやべえ技術じゃんとかジジイ達は本気で思ってるんだろうな
662名無しさん@お腹いっぱい。 (ワッチョイ 57b1-cChY)
2020/11/19(木) 18:19:06.07ID:ZzKVxBnn0663名無しさん@お腹いっぱい。 (ワッチョイ 6211-bmON)
2020/11/19(木) 20:52:36.94ID:9O2De+ee0 むしろ国は利用する方なのにな、証拠捏造で誰でも有罪にできる
664名無しさん@お腹いっぱい。 (HappyBirthday! cff1-cChY)
2020/11/20(金) 05:18:47.41ID:MxJta4TS0HAPPY 1080tiを2000系とか3000系に替えたとして現状のDFLでパフォーマンス差ってどのくらいなんだろう。
665名無しさん@お腹いっぱい。 (HappyBirthday! e2b0-b6az)
2020/11/20(金) 11:48:21.63ID:3T8qBovt0HAPPY 雲泥の差
666名無しさん@お腹いっぱい。 (HappyBirthday! Sa3b-Ocry)
2020/11/20(金) 12:40:08.29ID:eQ69zOVfaHAPPY667名無しさん@お腹いっぱい。 (HappyBirthday!W ffc9-CRcG)
2020/11/20(金) 12:48:40.78ID:1hwNZ+iS0HAPPY668名無しさん@お腹いっぱい。 (HappyBirthday! Sa3b-wIQ9)
2020/11/20(金) 12:51:17.00ID:O0M8yLpbaHAPPY まあ寝ている間に学習させているから、倍といっても二十万だす気にはならんなあ
しばらく2080tiでいこうかな
しばらく2080tiでいこうかな
669名無しさん@お腹いっぱい。 (HappyBirthday! 4b58-b6az)
2020/11/20(金) 16:53:29.34ID:+1mqpxsf0HAPPY670名無しさん@お腹いっぱい。 (HappyBirthday! 5fb1-Cs4+)
2020/11/20(金) 19:53:48.60ID:dskYLWZA0HAPPY これはいけると思っても微妙に似てない
マッチング難しい・・・
マッチング難しい・・・
671名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
2020/11/20(金) 21:22:18.95ID:28OLAj410HAPPY >>651
ごめんheadの間違い
ごめんheadの間違い
672名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
2020/11/20(金) 21:24:19.25ID:28OLAj410HAPPY ところで、3000シリーズの3Dベンチマークスコアだと
メモリクロックも重要になるって話を聞いたけど(VRAMじゃない普通のメモリね)
DFLも影響するかな。
わかる人いる?
メモリクロックも重要になるって話を聞いたけど(VRAMじゃない普通のメモリね)
DFLも影響するかな。
わかる人いる?
673名無しさん@お腹いっぱい。 (HappyBirthday! e2b0-b6az)
2020/11/20(金) 21:50:28.64ID:lXV7QsNn0HAPPY なんで影響あると思ったの?
674名無しさん@お腹いっぱい。 (ワッチョイW 12b8-qjTi)
2020/11/21(土) 00:42:20.95ID:lLtl/hBb0 3000シリーズの性能高いから安いメモリだと足引っ張るかもと思った。根拠はない。
675名無しさん@お腹いっぱい。 (ワッチョイW cf58-r+GL)
2020/11/22(日) 07:07:48.29ID:g0BUD64r0 繋がり眉毛問題だけどsrcの前髪が眉にかかってる画像だけxsegで髪のかからない部分をマスクしてtrainすれば解消する?
676名無しさん@お腹いっぱい。 (ワッチョイ 6276-cChY)
2020/11/22(日) 07:38:06.54ID:EgGZuU2e0 dst×dstの学習で有効なのはliae-hdとかみたい
df-hdだと前髪の残骸の黒い物が。。
df-hdだと前髪の残骸の黒い物が。。
677名無しさん@お腹いっぱい。 (ワッチョイW 9773-7H2D)
2020/11/22(日) 09:37:08.41ID:CPUrfaaZ0 いつもres192liae-hdでやってて初めてliae-uhd使ってみたんだけど全然loss値下がらん
時間も0.7msec/Iterくらいでいつもの倍くらいかかる
300kくらい回してやっと落ち着いてきたから一旦LRD trueにしてみたらbatch size2でもtrainスタート出来ず
DDR4 2666 32GB,i9-9900k,2080tiだけどGPUがボトルネックっぽい
どんな環境ならliae-uhd使いこなせるんですかね
時間も0.7msec/Iterくらいでいつもの倍くらいかかる
300kくらい回してやっと落ち着いてきたから一旦LRD trueにしてみたらbatch size2でもtrainスタート出来ず
DDR4 2666 32GB,i9-9900k,2080tiだけどGPUがボトルネックっぽい
どんな環境ならliae-uhd使いこなせるんですかね
678名無しさん@お腹いっぱい。 (ワッチョイ 068b-jfI9)
2020/11/22(日) 10:43:03.92ID:Qe8FXRgo0 最新のでliae-udにしてみたらどうだろう
679名無しさん@お腹いっぱい。 (ブーイモ MM13-Vt99)
2020/11/24(火) 23:01:35.36ID:3+PulNcVM 色々要求するとVRAMが足らないよなliae系はかなり食うし
680名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/11/25(水) 19:16:18.38ID:CuXZwmIx0 素材スレのうなってもうた…
貞松大輔に対するグチやsrcに合う話題はどこですれば
貞松大輔に対するグチやsrcに合う話題はどこですれば
681名無しさん@お腹いっぱい。 (ワッチョイW 1774-3++/)
2020/11/25(水) 19:27:40.19ID:3+9detNx0 なんか新しいアルゴリズムのアイデアないのかね
今のアルゴリズムでマシンパワーでごり押しするしかないのか
今のアルゴリズムでマシンパワーでごり押しするしかないのか
682名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/11/25(水) 19:55:42.12ID:CuXZwmIx0 ゆうてCPU大事だし、fullHDならres192batch8で十分 それ以上はオーバースペック
683名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/28(土) 12:48:32.85ID:hCIJHXj40 5600x RTX3070で顔抽出が2.0 it/s程度しか出ないけどこんなもん?
image sizeが768なのがダメなのかなぁ?
768→256程度に落とせば 速度は上がる気がするけど間違ってる?
設定入れるときに適当にENTER連打してたから768になってるけど
出来上がりに大して差がないなら256ぐらいに落としてもう一度回した方が良いのかな?
image sizeが768なのがダメなのかなぁ?
768→256程度に落とせば 速度は上がる気がするけど間違ってる?
設定入れるときに適当にENTER連打してたから768になってるけど
出来上がりに大して差がないなら256ぐらいに落としてもう一度回した方が良いのかな?
684名無しさん@お腹いっぱい。 (ワッチョイ ff90-W5Mj)
2020/11/28(土) 15:47:04.81ID:1wNVnHgm0 始めたばっかりの頃に持ってたGPUは微妙だったので、設定を解像度128、バッチ8、DFでやってたんだけど、
その後もうちょっといいGPUに変えて、解像度が夢の256でできるようになったのでもっと高画質でいけるだろうと思っていたが、
(バッチは4、DF)、解像度128のを最後のマージでスーパーレゾリューション?って数字をあげれば最終的に高解像度の顔になるから、
あんまり最初の解像度って関係ないんかなとおもったけど、どうなんでしょう?
解像度、バッチ、アーキテクチャーってのは、動く範囲内で取捨選択しないといけないけど、どれ優先が一番いいんでしょうね?
ちなみに、最近つくったモデルは、解像度128、バッチ4、liaeで、なんかこれが一番いいのではないかと思っていますが。
この設定は途中で替えれないから、最初にどれが最適か決めなきゃいけないから皆さんの意見が聞きたいです。
その後もうちょっといいGPUに変えて、解像度が夢の256でできるようになったのでもっと高画質でいけるだろうと思っていたが、
(バッチは4、DF)、解像度128のを最後のマージでスーパーレゾリューション?って数字をあげれば最終的に高解像度の顔になるから、
あんまり最初の解像度って関係ないんかなとおもったけど、どうなんでしょう?
解像度、バッチ、アーキテクチャーってのは、動く範囲内で取捨選択しないといけないけど、どれ優先が一番いいんでしょうね?
ちなみに、最近つくったモデルは、解像度128、バッチ4、liaeで、なんかこれが一番いいのではないかと思っていますが。
この設定は途中で替えれないから、最初にどれが最適か決めなきゃいけないから皆さんの意見が聞きたいです。
685名無しさん@お腹いっぱい。 (ワッチョイ 77d2-lhmq)
2020/11/29(日) 09:37:22.70ID:mhSRYID90 2070super8G、Re256、B9、Liae-udで安定
使いまわしModelを48時間まわして0.2くらい
使いまわしModelを48時間まわして0.2くらい
686名無しさん@お腹いっぱい。 (ニククエ bf73-iIvg)
2020/11/29(日) 14:06:50.34ID:Tpam6OoK0NIKU その設定だと相当dims下げないと動かなくね
687名無しさん@お腹いっぱい。 (ニククエW 9773-VJkO)
2020/11/29(日) 14:40:14.96ID:p18Ce+C00NIKU res160-liae-dims512-batch8
RWtrueで0.5切ったらfalse→0.2切ったらLRDtrue→0.1切るまでtrain
mergeする時はbmmだけ150でcolorはrctかlct
maskはlearned-prd*learned-dst*Xseg-prd*Xseg-dst
これでなんとなくうまくいってる
所々怪しいけど誰に見せるでもないし必要十分かな
RWtrueで0.5切ったらfalse→0.2切ったらLRDtrue→0.1切るまでtrain
mergeする時はbmmだけ150でcolorはrctかlct
maskはlearned-prd*learned-dst*Xseg-prd*Xseg-dst
これでなんとなくうまくいってる
所々怪しいけど誰に見せるでもないし必要十分かな
688名無しさん@お腹いっぱい。 (ニククエW 57b1-b0Bn)
2020/11/29(日) 18:30:10.78ID:f9hYXlTt0NIKU df-ud wholeface res386 batch3 VRAM8G
で満足してるのは少数派なのか。
で満足してるのは少数派なのか。
689名無しさん@お腹いっぱい。 (ニククエW 57c9-xWvL)
2020/11/29(日) 18:51:05.76ID:7ob5oBlS0NIKU 386はなんか気持ち悪いから少数派だろうな
690名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
2020/11/29(日) 19:40:56.83ID:bnfTaNH00NIKU 32で割り切れる数字じゃなきゃダメだと聞いたが、そんな適当な数字でも動くんだね
ちゃんと動いてるのかどうかは知らんけど
ちゃんと動いてるのかどうかは知らんけど
691名無しさん@お腹いっぱい。 (ニククエ d758-P4WK)
2020/11/29(日) 20:30:44.81ID:RoG3tSlB0NIKU 32で割り切れるじゃなくて2の累乗だな
692名無しさん@お腹いっぱい。 (ニククエW 57b1-b0Bn)
2020/11/29(日) 20:42:58.89ID:f9hYXlTt0NIKU 384の間違いだったw
693名無しさん@お腹いっぱい。 (ニククエ 777b-P4WK)
2020/11/29(日) 20:48:21.82ID:1/zEu/6p0NIKU PCオール換装ついでにDFL入れて試してみたけど要求するスペック、時間、負荷
どれも他のエロ技術とは格段に違い過ぎて悪い意味でハードル高いわ
PC購入費は除外したとして、自分の5600x RTX3070の構成だと20万回回すのにおよそ24時間
画像の吸出し+選別作業含めると+6時間はかかる
およそ3分程度の動画ですら 作成に30時間
モザイク破壊なら3000シリーズ動かないけど、2080なら2時間作品で6時間もあれば完成
高画質化なら2時間作品で24時間もあればいける
加えてSSDへのダメージ量もぶっちぎりでDFLが食うし
上記の1作品2時間にした場合の電気代はDFL9,600円 破壊なら60円、高画質化なら240円ぐらいになるの考えると
本当にコイツじゃないとダメなんだと思うぐらい入れ込んでる顔がないと、かなりやり続けるにはハードル高いわ
なれた人なら自分の1/10ぐらいにそれぞれの負荷減らせるもんなのかなぁ?
どれも他のエロ技術とは格段に違い過ぎて悪い意味でハードル高いわ
PC購入費は除外したとして、自分の5600x RTX3070の構成だと20万回回すのにおよそ24時間
画像の吸出し+選別作業含めると+6時間はかかる
およそ3分程度の動画ですら 作成に30時間
モザイク破壊なら3000シリーズ動かないけど、2080なら2時間作品で6時間もあれば完成
高画質化なら2時間作品で24時間もあればいける
加えてSSDへのダメージ量もぶっちぎりでDFLが食うし
上記の1作品2時間にした場合の電気代はDFL9,600円 破壊なら60円、高画質化なら240円ぐらいになるの考えると
本当にコイツじゃないとダメなんだと思うぐらい入れ込んでる顔がないと、かなりやり続けるにはハードル高いわ
なれた人なら自分の1/10ぐらいにそれぞれの負荷減らせるもんなのかなぁ?
694名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
2020/11/29(日) 21:35:15.32ID:bnfTaNH00NIKU コスト考えてるようじゃダメだよ
ディープフェイクはプライスレス
ディープフェイクはプライスレス
695名無しさん@お腹いっぱい。 (ニククエ MMbf-WCF9)
2020/11/29(日) 21:45:03.70ID:fJO2wTOfMNIKU Colab Proでいいじゃない
696名無しさん@お腹いっぱい。 (ニククエ Sa5b-K3Z5)
2020/11/29(日) 22:08:29.54ID:E4IbaFhJaNIKU697名無しさん@お腹いっぱい。 (アウアウクー MMcb-DT36)
2020/11/30(月) 01:17:07.65ID:hJyLAQ15M colabとか言うまた凄い技術があるんだなぁ
これならノートの低電力PCで動かせるし
結構なハイスペ割り当てられるから良さそうだが
どのGPU割り当てられるかによって動かすコード変わりそうなのと
コード少しはかけるレベルと米国居住の関門も突破する必要有るのが難易度高いわ
それクリアできる人なら電気代の観点や
騒音と廃熱、機器損傷の問題もクリア出来るし
自分のメインをゲームなり他のエンコにまわせるのもメリットデカイ
これならノートの低電力PCで動かせるし
結構なハイスペ割り当てられるから良さそうだが
どのGPU割り当てられるかによって動かすコード変わりそうなのと
コード少しはかけるレベルと米国居住の関門も突破する必要有るのが難易度高いわ
それクリアできる人なら電気代の観点や
騒音と廃熱、機器損傷の問題もクリア出来るし
自分のメインをゲームなり他のエンコにまわせるのもメリットデカイ
698名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/11/30(月) 01:24:54.45ID:Vu2EyZLO0 どこぞのメンバー全員とか変に欲張ったりしなけりゃそんなtrainに時間取られたりしないでしょ
699名無しさん@お腹いっぱい。 (ワッチョイW 57c9-fKCL)
2020/11/30(月) 01:57:13.02ID:L3Lssn020 colabは遅い
そもそもリソース限られてるんだから話してるやつは自分の首閉めてるのわからん?
そもそもリソース限られてるんだから話してるやつは自分の首閉めてるのわからん?
700名無しさん@お腹いっぱい。 (ワッチョイW 57c9-fKCL)
2020/11/30(月) 02:09:32.60ID:L3Lssn020701名無しさん@お腹いっぱい。 (ワッチョイW 17b1-nc77)
2020/11/30(月) 02:11:47.16ID:xmdANFb70 NY州の郵便番号調べて適当に入力したら契約できちゃったよ、Pro版(笑)
702名無しさん@お腹いっぱい。 (ワッチョイW 9f11-fF0a)
2020/11/30(月) 05:01:42.25ID:0SW/Bk/M0 解約できなくて泣くところまでセット
703名無しさん@お腹いっぱい。 (アウアウクー MMcb-JW44)
2020/11/30(月) 12:34:45.75ID:koWoITJ/M dstもsrcも自分で選べて本人にしか見えない物が作れるんだから、マシン費用、train時間、電気代etc気にならない
いい時代になったもんだ
いい時代になったもんだ
704名無しさん@お腹いっぱい。 (ワッチョイ d711-kGov)
2020/11/30(月) 15:03:51.28ID:NZ34c/SY0 ミスターディープフェイクの動画がDLできんのだが・・・
ワシさんのダウンローダー使ってたら今までは出来たんだけど
間違って拡張機能から削除しちゃったら
再インストールする時にもう拡張機能ストアにはないって出てきて困ってる
暗号化された分割動画ファイルが落とせるアドオン他にない?
それか昔のバージョンのワシのダウンローダー置いてあるところない?
お願いします
ワシさんのダウンローダー使ってたら今までは出来たんだけど
間違って拡張機能から削除しちゃったら
再インストールする時にもう拡張機能ストアにはないって出てきて困ってる
暗号化された分割動画ファイルが落とせるアドオン他にない?
それか昔のバージョンのワシのダウンローダー置いてあるところない?
お願いします
705名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/30(月) 19:04:08.40ID:mavPp4f10 初めてやってみたけど化け物しか産まれなかったわ
26万回しても0.40を下回ること無かったってことはsrc側が悪いのかdstをほぼ取捨選択しなかったらからなのか
変換されてない表情もあったりした
20万回以降は0.4以降全く下がらなかった
srcは一応ブレてる画像は取り除いたつもりで抽出15000→7000枚程度にした
しかしマスク等は一切編集しておらず、前髪が少し被ってるのとかは除外しなかった
dstに関してはあまり取捨選択しなかったがぱっと見で分かるブレ画像のみ取り除いた
これで結局化け物しか産まれなかった
dst側は取り除いた部分があることについて逆に顔が変換されない時間帯があるのでは?と感じた
0.1や0.2に切るくらいに持っていける人は徹底的にマスク処理してるのかな??
26万回しても0.40を下回ること無かったってことはsrc側が悪いのかdstをほぼ取捨選択しなかったらからなのか
変換されてない表情もあったりした
20万回以降は0.4以降全く下がらなかった
srcは一応ブレてる画像は取り除いたつもりで抽出15000→7000枚程度にした
しかしマスク等は一切編集しておらず、前髪が少し被ってるのとかは除外しなかった
dstに関してはあまり取捨選択しなかったがぱっと見で分かるブレ画像のみ取り除いた
これで結局化け物しか産まれなかった
dst側は取り除いた部分があることについて逆に顔が変換されない時間帯があるのでは?と感じた
0.1や0.2に切るくらいに持っていける人は徹底的にマスク処理してるのかな??
706名無しさん@お腹いっぱい。 (ワッチョイ ff8b-3i1O)
2020/11/30(月) 19:08:56.11ID:JxNmtT260 なんでdstを取り除いた
707名無しさん@お腹いっぱい。 (ワッチョイW 176d-JW44)
2020/11/30(月) 20:13:59.58ID:PMod7TTd0 >>705
削除したdstはmergeするときに元に戻してないとその部分だけ顔変換されないよ。
顔抽出に失敗したdstならその部分だけ手動でやり直す。
dstの顔の角度がsrcにないとクリーチャーになりやすいね。
削除したdstはmergeするときに元に戻してないとその部分だけ顔変換されないよ。
顔抽出に失敗したdstならその部分だけ手動でやり直す。
dstの顔の角度がsrcにないとクリーチャーになりやすいね。
708名無しさん@お腹いっぱい。 (ワッチョイW 9773-VJkO)
2020/11/30(月) 20:37:30.71ID:XbSg8MO60 faceset extractってwfよりfの方が抽出上手だね
いつからか抽出率悪くなったと思ったらwfになってたわ
いつからか抽出率悪くなったと思ったらwfになってたわ
709名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/11/30(月) 21:04:16.83ID:Vu2EyZLO0 26万回して0.4ってのは
pretrainをしてないか甘いんじゃないかな
好きなsrcを入れるのはその後
pretrainをしてないか甘いんじゃないかな
好きなsrcを入れるのはその後
710名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/30(月) 21:11:06.74ID:mavPp4f10711名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/12/01(火) 09:54:23.94ID:W+M4aEU40 十秒のdstでいいから、一度manualでextractしてみればいいよ
つーか過去スレ全く見てないだろ
つーか過去スレ全く見てないだろ
712名無しさん@お腹いっぱい。 (ワッチョイW b776-JWtn)
2020/12/01(火) 14:22:52.09ID:+CtYVkxm0 >>693
知り合いで作った時の破壊力は凄まじいぞ
知り合いで作った時の破壊力は凄まじいぞ
713名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 16:33:19.94ID:1ayHuz0u0714名無しさん@お腹いっぱい。 (ワッチョイW d758-6OYj)
2020/12/01(火) 19:46:45.63ID:J8ghkzDF0 まず知り合いに似てるAV女優や好きな顔したグラビアアイドル探すんだよ
それが見つかればあとは根気次第で素敵なオカズが作り放題だ、まあそんな顔した人間見つけるって前提が難しいが
それが見つかればあとは根気次第で素敵なオカズが作り放題だ、まあそんな顔した人間見つけるって前提が難しいが
715名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 20:05:18.90ID:AiVrrgTR0 恥かくだけだからあり得ない妄想で語るなよ
716名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/12/01(火) 20:33:56.10ID:W+M4aEU40 ある程度iterの伸びたDF系modelを流用すれば写真数枚でも結構出来るぞ
素材が豊富ならliae系だと髪型や輪郭の齟齬も巧い事trainで馴染ませてくれる
素材が豊富ならliae系だと髪型や輪郭の齟齬も巧い事trainで馴染ませてくれる
717名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 20:41:35.25ID:AiVrrgTR0 その程度じゃ正面以外はクリーチャー
はい論破
はい論破
718名無しさん@お腹いっぱい。 (ワッチョイW 9773-VJkO)
2020/12/01(火) 21:26:54.01ID:f/c4kQm90 普通知り合いとハメ撮りした映像srcに使うよね?
719名無しさん@お腹いっぱい。 (ワッチョイW 1776-48Hd)
2020/12/01(火) 21:49:11.93ID:Nkx9cF1L0 >>718
そんなキレイに撮影出来るものなの?
そんなキレイに撮影出来るものなの?
720名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/12/01(火) 21:52:41.28ID:749QyeiR0 Gigapixelで高画質化まではした
721名無しさん@お腹いっぱい。 (ワッチョイ ff8b-3i1O)
2020/12/01(火) 22:08:03.61ID:SP7n4Gx10 意味あるの?
722名無しさん@お腹いっぱい。 (ワッチョイ 9fb0-P4WK)
2020/12/01(火) 22:10:57.93ID:AiVrrgTR0 劣化するだけで特に意味は無い
723名無しさん@お腹いっぱい。 (ワッチョイ 97e5-m/w5)
2020/12/01(火) 23:25:13.05ID:1DYHnSSa0 DFL の XsegEditor の使い方で教えてください
右上から「緑」(HotKey[2]) を選んで顔を囲うことでマスクが出来ているようなのですが、「赤」「青」は何のためにあるのでしょう?
まさか、RGB の色ごとにマスク作ることなんてしないですよね?
「緑」で顔を囲うのではなく、障害物の方を囲んで自動的に避けるよう train することは出来ないのでしょうか?
右上から「緑」(HotKey[2]) を選んで顔を囲うことでマスクが出来ているようなのですが、「赤」「青」は何のためにあるのでしょう?
まさか、RGB の色ごとにマスク作ることなんてしないですよね?
「緑」で顔を囲うのではなく、障害物の方を囲んで自動的に避けるよう train することは出来ないのでしょうか?
724名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/02(水) 00:05:16.68ID:ud0WrYAl0 色は関係ないから好きなのどうぞ
左上の実践のがマスクで、その下の点線が障害物
左上の実践のがマスクで、その下の点線が障害物
725723 (ワッチョイ 4ee5-l3pW)
2020/12/02(水) 12:34:10.91ID:M+kiswA60726名無しさん@お腹いっぱい。 (ワッチョイW 9b58-Tzug)
2020/12/02(水) 13:31:28.16ID:rjqqNMY+0 >>716
枚数少ないときはliaeの方がいいって過去スレで見たんだがdfのほうがいいのか?
枚数少ないときはliaeの方がいいって過去スレで見たんだがdfのほうがいいのか?
727名無しさん@お腹いっぱい。 (ワッチョイW 9676-UvAp)
2020/12/02(水) 13:56:37.91ID:0ySnKGdC0728名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/03(木) 08:02:37.35ID:QLnoNr3J0 似てるとかは何も考えず5人別の顔で同じアングルの動画を5秒ずつ切り取ってtrainしたら
輪郭もパーツも全然違うのによく似る人と輪郭とかが近しいのに全然別人ってのが出て来た
ほんとに合わせてみないと分からんねこれ・・・
輪郭もパーツも全然違うのによく似る人と輪郭とかが近しいのに全然別人ってのが出て来た
ほんとに合わせてみないと分からんねこれ・・・
729名無しさん@お腹いっぱい。 (ワッチョイ 8ebc-YXDh)
2020/12/03(木) 14:23:29.82ID:uhHeOsIp0 いろんなオプションがあるけど
それらを試行錯誤するより実際に一番効果的なのは素材選び
でも、元々の目的は好きな顔と映像をくっつけたいってことなんだから
素材選びで縛れられるのだったら本末転倒だよね
それらを試行錯誤するより実際に一番効果的なのは素材選び
でも、元々の目的は好きな顔と映像をくっつけたいってことなんだから
素材選びで縛れられるのだったら本末転倒だよね
730名無しさん@お腹いっぱい。 (ワッチョイW bfbd-ncXa)
2020/12/04(金) 09:12:25.99ID:Dp5oNYgi0 素材厳選でちんこ萎れるのが難点
731名無しさん@お腹いっぱい。 (ワッチョイ f3d2-dzmw)
2020/12/04(金) 11:35:10.52ID:hFcPRa1A0 >>705
eyes pri 入れっぱなしでは?
eyes pri 入れっぱなしでは?
732名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/04(金) 13:07:06.10ID:r2OPm5N20 俺もこさかなちゃんのVRDFにチンコ入れっぱなし
VRは見つめあえるから良いね
VRは見つめあえるから良いね
733名無しさん@お腹いっぱい。 (ワッチョイ 4ee5-l3pW)
2020/12/05(土) 10:36:24.36ID:Zs7kwVjN0 仕上がりは別として、みんな、最大でどれくらいのイタレーション数回したことがあるんだろ?
734名無しさん@お腹いっぱい。 (ワッチョイ d2c0-9rBX)
2020/12/05(土) 16:49:20.16ID:bNAQ/T3U0 初めてDFL使ってるんだけど最後の静止画を動画に戻す工程だけができない。
↓のエラーが出るんだけどこれってどういう意味だろう?
Error initializing output stream 0:0 -- Error while opening encoder for output stream #0:0 - maybe incorrect parameters such as bit_rate, rate, width or height
↓のエラーが出るんだけどこれってどういう意味だろう?
Error initializing output stream 0:0 -- Error while opening encoder for output stream #0:0 - maybe incorrect parameters such as bit_rate, rate, width or height
735名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/05(土) 19:03:42.53ID:c0W96cnr0 元動画のパラメータがおかしいって書いてるな
ビットレートかレートか縦横の画像サイズ
他のソフトでmerge後の画像を連結して動画にしたほうが早そう
ビットレートかレートか縦横の画像サイズ
他のソフトでmerge後の画像を連結して動画にしたほうが早そう
736名無しさん@お腹いっぱい。 (ワッチョイ e758-l3pW)
2020/12/06(日) 16:39:07.06ID:t+TRfq+a0 いま生きてるのってこのスレしかない?
737名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 17:15:56.92ID:dplg1Nbl0738名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 17:18:21.40ID:dplg1Nbl0 ついでに聞きたいんだけど、色味を合わせるためにはマージの設定変えたらいいのかな?
素材選びの段階で決まっちゃう?
素材選びの段階で決まっちゃう?
739名無しさん@お腹いっぱい。 (テテンテンテン MM34-sRwT)
2020/12/06(日) 17:23:03.87ID:B0/DiutKM trainでも寄せられるけどpreview見てもいまいち分からんから
自分はtrainの段階ではnoneでmergeでしか合わせてない
よっぽどかけ離れた色じゃなければ問題ないんじゃないかな
ただ背景の色に引っ張られるときはあるね
自分はtrainの段階ではnoneでmergeでしか合わせてない
よっぽどかけ離れた色じゃなければ問題ないんじゃないかな
ただ背景の色に引っ張られるときはあるね
740名無しさん@お腹いっぱい。 (ワッチョイ dfe8-jrSk)
2020/12/06(日) 17:24:19.33ID:7mPqReH50 みんなは抽出した画像が逆さまになってる時どうしてる?
反転で戻すのか削除するのか
反転で戻すのか削除するのか
741名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 17:26:47.37ID:dplg1Nbl0 なるほどー
始めたてだからいろいろ悩みながらやってみるわ。
始めたてだからいろいろ悩みながらやってみるわ。
742名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/06(日) 17:32:43.35ID:u5dWSy7k0743名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 18:08:30.26ID:dplg1Nbl0 顔画像抽出の時って似たような画像が何十枚もできるけど
これ全部あったほうがいいの?
これ全部あったほうがいいの?
744名無しさん@お腹いっぱい。 (ワッチョイW 5173-sRwT)
2020/12/06(日) 18:33:09.70ID:XZEqMAsU0 srcは削ってもいいけどdstはぱっと見同じでも各フレームに対応してる
消すとそのフレームは元のままになるのでdstは残しましょう
消すとそのフレームは元のままになるのでdstは残しましょう
745名無しさん@お腹いっぱい。 (ワッチョイ 0a73-v2J+)
2020/12/06(日) 20:26:41.83ID:JZexmdPR0 この手の子は説明しても無駄
746名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/06(日) 21:13:48.72ID:dplg1Nbl0747名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/07(月) 11:45:16.47ID:PDhG/gSa0 srcを500枚でやってみたけどほぼ正面の動画に限れば意外と納得行く形になるな。
748名無しさん@お腹いっぱい。 (ガラプー KK12-Flf6)
2020/12/07(月) 18:16:55.40ID:Qi8CcLKrK srcの角度が足りてるかが重要だよな
749名無しさん@お腹いっぱい。 (ワッチョイ e758-l3pW)
2020/12/07(月) 18:18:22.47ID:+YI4ArM10 自分で作って自分で見るなら正面だけでもいいもんなあ
シーン選びがめんどくさくはなるが
シーン選びがめんどくさくはなるが
750名無しさん@お腹いっぱい。 (ワッチョイW 5173-sRwT)
2020/12/07(月) 18:18:57.58ID:oQUTyePX0 変顔集みたいなsrc継ぎ足したら表情の追従が劇的に改善した
行為中の顔は変顔だった?
行為中の顔は変顔だった?
751名無しさん@お腹いっぱい。 (ワッチョイW d2c0-TBV6)
2020/12/07(月) 18:34:06.83ID:PDhG/gSa0 枚数も大事なんだろうけどワンパターンじゃだめってことか。
変顔探すのって実は大変じゃないか。。。
変顔探すのって実は大変じゃないか。。。
752名無しさん@お腹いっぱい。 (ワッチョイ 9fd7-9FtY)
2020/12/07(月) 19:22:43.82ID:lVIUA3ha0753名無しさん@お腹いっぱい。 (ワッチョイ 0a73-v2J+)
2020/12/07(月) 20:27:13.17ID:CZif91rW0 face type hの範囲外であれば5%程度までの数の障害物有り画像(唇下までのマイク等)も収束に影響ない
ってmrでiperovが書いた、と過去スレに書いた気がする
ってmrでiperovが書いた、と過去スレに書いた気がする
754名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/07(月) 20:28:50.38ID:iWq9JxKa0 本人じゃなくても雰囲気の似てる子を先に覚えさせてそれをベースにすれば
100枚くらいの写真でも主観ものならいい感じに出来る
100枚くらいの写真でも主観ものならいい感じに出来る
755名無しさん@お腹いっぱい。 (アウアウウー Sa30-SutW)
2020/12/07(月) 21:02:58.42ID:RDrwRkoHa >>745
それメンス
それメンス
756名無しさん@お腹いっぱい。 (ワッチョイ 6e0c-9rBX)
2020/12/07(月) 23:04:45.15ID:mlcZcFaz0 RTX3090期待してたんだけど、顔抽出がwf-512-100の設定で
1.4s/it でめっちゃ遅い。なにか間違っているんだろうか。バッチ数は
同じモデルで確かに2倍まで上げれたんだが。
1.4s/it でめっちゃ遅い。なにか間違っているんだろうか。バッチ数は
同じモデルで確かに2倍まで上げれたんだが。
757名無しさん@お腹いっぱい。 (ワッチョイW 09c9-iXoL)
2020/12/07(月) 23:38:35.75ID:MxK7KYRh0 結局128とかに画像を縮小してるからgpuでの推論にかかる時間自体はそんなにかからなくて他はcpuでの処理だからな
ssdの書き込み速度も大事
ssdの書き込み速度も大事
758名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/08(火) 03:53:55.45ID:A4byW3Wi0 学習結果を再利用するときってmodelフォルダの中のデータをどれかコピペすればいいのかな?
みんな再利用してるのかな?
みんな再利用してるのかな?
759名無しさん@お腹いっぱい。 (ワッチョイW 6492-S0LA)
2020/12/08(火) 06:50:50.30ID:feSo48Wf0 目を閉じてるシーンにtrainすると殆ど薄目開けた状態になるんだけどこれって目を閉じたsrc不足?単純にtrain不足?
760名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/08(火) 08:20:45.12ID:A4byW3Wi0 >>759
src不足じゃない?
src不足じゃない?
761名無しさん@お腹いっぱい。 (ワッチョイ 7c10-Jcqy)
2020/12/08(火) 10:51:30.64ID:LAh0TGf50 >>693モザイク破壊と高画質化ってどうやってやるの??
762名無しさん@お腹いっぱい。 (ワッチョイ 2e00-MyGE)
2020/12/08(火) 12:02:44.18ID:8KvUIbmc0763名無しさん@お腹いっぱい。 (ワッチョイ dfe8-jrSk)
2020/12/08(火) 15:06:45.88ID:o60HFREd0 >>759
目を閉じてる画像は瞬きしてる場面から抽出できる
目を閉じてる画像は瞬きしてる場面から抽出できる
764名無しさん@お腹いっぱい。 (ワッチョイW dfb1-sGEz)
2020/12/08(火) 17:28:59.05ID:RS192MT80765名無しさん@お腹いっぱい。 (スフッ Sd70-wrey)
2020/12/08(火) 18:56:29.95ID:8FF249zpd <<764
756ですが4多重とはdflを4つ立ち上げてdstを4分割にして顔抽出するということでしょうか?
756ですが4多重とはdflを4つ立ち上げてdstを4分割にして顔抽出するということでしょうか?
766名無しさん@お腹いっぱい。 (ワッチョイW dfb1-sGEz)
2020/12/08(火) 19:21:26.28ID:RS192MT80 >>765
そうですね
DFLの解凍フォルダを4つコピーしてdstなりsrcなりのフレーム毎ファイル群を4分配して
各作業フォルダ内の目的の.batを実行します
自分は3多重まで試しましたがVRAMの余り具合から4多重はいけそうでした
そうですね
DFLの解凍フォルダを4つコピーしてdstなりsrcなりのフレーム毎ファイル群を4分配して
各作業フォルダ内の目的の.batを実行します
自分は3多重まで試しましたがVRAMの余り具合から4多重はいけそうでした
767名無しさん@お腹いっぱい。 (ワッチョイ 0a73-v2J+)
2020/12/08(火) 20:09:49.49ID:GsVvrHSQ0 src画像が多かったから瞬きしてる前後を中心に選んだところ、イメージより目の細い子に仕上がった
対応力も求められるが、好きな顔を多く残すのって大事
対応力も求められるが、好きな顔を多く残すのって大事
768名無しさん@お腹いっぱい。 (ワッチョイ 9b58-jrSk)
2020/12/08(火) 20:13:36.36ID:BZ9ydVv70 そうね
自分の脳味噌が本人と認識している画像を多く残した方がよい
自分の脳味噌が本人と認識している画像を多く残した方がよい
769名無しさん@お腹いっぱい。 (ワッチョイW 5173-sRwT)
2020/12/08(火) 20:38:42.05ID:BxnUz1890 srcの名前と画像を隅っこに乗っけると脳みそがより補正しやすい説あるな
770名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/08(火) 20:57:55.35ID:oMsXGO9B0 半目、白目、ギョロ目はsrcの質と言うよりDFLのaiがバカって部分が大きいと思う
dst×dstで馴染むまでtrainすると補正されやすい
dst×dstで馴染むまでtrainすると補正されやすい
771名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
2020/12/08(火) 21:00:00.67ID:4PiliLXq0 wikiに書いといてよ
772名無しさん@お腹いっぱい。 (ワッチョイ e758-l3pW)
2020/12/08(火) 21:00:52.16ID:f168gPez0 srcのインタビュー映像でも隣に表示しながら見ればいいんじゃないか
773名無しさん@お腹いっぱい。 (ワッチョイ 6e0c-CWdK)
2020/12/08(火) 22:04:30.12ID:2DWZs20e0 >>766
なるほど、それは確かに速そうだ。ありがとうございます。
なるほど、それは確かに速そうだ。ありがとうございます。
774名無しさん@お腹いっぱい。 (ワッチョイ d2c0-jrSk)
2020/12/08(火) 22:20:58.64ID:A4byW3Wi0 wikiで前回のtrainを参考にするってあるけどalignedフォルダの中身を入れ替えれば
前回の学習を引き継いでやってくれるのかな?
前回の学習を引き継いでやってくれるのかな?
775名無しさん@お腹いっぱい。 (ワッチョイ dfb1-EWp5)
2020/12/08(火) 23:19:14.53ID:oMsXGO9B0 それでいい
けど使いまわす前のプレーンなmodelデータのバックアップは取っておいた方がいい
けど使いまわす前のプレーンなmodelデータのバックアップは取っておいた方がいい
776名無しさん@お腹いっぱい。 (ワッチョイW 7302-DblO)
2020/12/08(火) 23:25:36.48ID:27EakBge0 deepfake関連スレがここにしかないから聞く
質問なんだけど、trainって何時間使うのが良いの?
質問なんだけど、trainって何時間使うのが良いの?
777名無しさん@お腹いっぱい。 (ワッチョイW fbe8-JZSp)
2020/12/08(火) 23:55:49.61ID:aqodbY+L0 自分が納得いく時間
778名無しさん@お腹いっぱい。 (ワッチョイW a773-0JIE)
2020/12/09(水) 00:04:40.89ID:4UX9/WFl0 似たら終わり
779名無しさん@お腹いっぱい。 (ワッチョイW 8702-wuy4)
2020/12/09(水) 01:38:28.34ID:2YkWcIjF0 質問まとめてきた
1
例えばウインクしてるDSTだとしたら、DFLは目を閉じてるSRCと目を開いてるSRCから合成してウインクさせることはできる?
要は感じてる時のしかめっ面がSRCになければ、DSTには応用して使えないの?
イメージとしては、使える部分だけを切り取って貼っていく
2
似てる似てないの結果はどの要素が一番になる?
骨格や歯並びなど
1
例えばウインクしてるDSTだとしたら、DFLは目を閉じてるSRCと目を開いてるSRCから合成してウインクさせることはできる?
要は感じてる時のしかめっ面がSRCになければ、DSTには応用して使えないの?
イメージとしては、使える部分だけを切り取って貼っていく
2
似てる似てないの結果はどの要素が一番になる?
骨格や歯並びなど
780名無しさん@お腹いっぱい。 (ワッチョイW ff1f-dHdi)
2020/12/09(水) 03:21:16.08ID:u2xnaVFR0 何日かtrainしてるけど全然似ないな
グラフが交差したらOkなのん?
グラフが交差したらOkなのん?
781名無しさん@お腹いっぱい。 (ワッチョイ dfc0-orE1)
2020/12/09(水) 05:30:04.77ID:fkhvzo3/0 グラフが交差ってどれのこと?
782名無しさん@お腹いっぱい。 (ガラプー KK4f-5uwb)
2020/12/09(水) 07:16:24.25ID:E+/DVhAmK 試しにmergeしてみれば?
意外と似てたりするぞ
意外と似てたりするぞ
783名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/09(水) 09:55:58.56ID:6iCi1tOW0 初心者というよりガイジだらけになったな
784名無しさん@お腹いっぱい。 (ワッチョイW dfc0-dwQo)
2020/12/09(水) 10:08:26.74ID:fkhvzo3/0785名無しさん@お腹いっぱい。 (ワッチョイW df11-M3Cv)
2020/12/09(水) 10:24:44.19ID:ILQUMBAJ0 先月グラボ買ってやり始めたんで色々参考になります…
786名無しさん@お腹いっぱい。 (ワッチョイ dfc0-orE1)
2020/12/09(水) 10:33:46.95ID:fkhvzo3/0 ちなみに俺は3日前に始めた
787名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/09(水) 11:18:27.68ID:eM6LmaQtd >>779
に答えられる人いない?
に答えられる人いない?
788名無しさん@お腹いっぱい。 (ワッチョイ c758-orE1)
2020/12/09(水) 12:16:47.17ID:noEZzGKA0 ここで親切マン待つよりガイド観て試行錯誤するのが近道
いやマジで
いやマジで
789名無しさん@お腹いっぱい。 (テテンテンテン MM8f-0JIE)
2020/12/09(水) 12:19:50.12ID:VglPfXdZM >>787
ウインクは寄せはしてくれる片目開け片目瞑り〜薄目みたいな
完全再現するにはウインクしてるsrcあれば可能
要は〜以降は何言いたいかわからんけどRWtrueでsrcに無い表情を生成しようとする
似る要素は輪郭とパーツの配置が大きいと個人的には思う
ウインクは寄せはしてくれる片目開け片目瞑り〜薄目みたいな
完全再現するにはウインクしてるsrcあれば可能
要は〜以降は何言いたいかわからんけどRWtrueでsrcに無い表情を生成しようとする
似る要素は輪郭とパーツの配置が大きいと個人的には思う
790名無しさん@お腹いっぱい。 (ワッチョイ a7e5-kNbH)
2020/12/09(水) 12:37:27.91ID:s+49EXJp0 髪型も同じじゃないとダメくない?
額を出してるdstと眉まで前髪なsrcでやると、眉の上に変なちょんまげが生えてるresultが出来上がる(涙
額を出してるdstと眉まで前髪なsrcでやると、眉の上に変なちょんまげが生えてるresultが出来上がる(涙
791名無しさん@お腹いっぱい。 (テテンテンテン MM8f-0JIE)
2020/12/09(水) 13:06:22.72ID:VglPfXdZM xsegつけて0.01くらいまでtrainして通常train中もある程度loss値落ち着いたところでlearnmasktrue
mergeのmask選択をlearned-prd*learned-dst*Xseg-prd*Xseg-dstにすれば前髪問題両津眉問題は回避できる
それでも駄目ならfacetypeの設定がおかしいwfとかでやってないか?
mergeのmask選択をlearned-prd*learned-dst*Xseg-prd*Xseg-dstにすれば前髪問題両津眉問題は回避できる
それでも駄目ならfacetypeの設定がおかしいwfとかでやってないか?
792名無しさん@お腹いっぱい。 (ワッチョイW a7b1-3tvF)
2020/12/09(水) 13:11:07.70ID:Z0JpTnOw0 普通にマスク処理してないだけだろ
793名無しさん@お腹いっぱい。 (ワッチョイW a7b1-3tvF)
2020/12/09(水) 13:24:47.08ID:Z0JpTnOw0 >>779
1.出来るだけ色んな表情と角度がある方が良いよ!そっちの方がリアルに近づく
2.相性次第
骨格というか輪郭ね
アイドル作成するなら髪型も結構重要だよ
女優なら色んな髪型するけどアイドルは髪型固定が多いから
歯並びは関係ない
1.出来るだけ色んな表情と角度がある方が良いよ!そっちの方がリアルに近づく
2.相性次第
骨格というか輪郭ね
アイドル作成するなら髪型も結構重要だよ
女優なら色んな髪型するけどアイドルは髪型固定が多いから
歯並びは関係ない
794790 (ワッチョイ a7e5-kNbH)
2020/12/09(水) 13:50:29.45ID:s+49EXJp0 >>791-792
わかってないのでよければ教えて。。。
今、色々と設定変えながら試している段階なんだけど、XSegでのマスクは、障害物がないsrc(眉まで前髪)ではやってなくて、
障害物が顔の前に入り込むdst(おでこ出し)のみでやってます。XSegのtrainは62万itr・0.02台まで。
その後本train中。face_typeはf(XSseg、本trainともに)。
本trainで30万itrくらい、ロス値はsrc 0.55・dst 0.25ってところなんだけど、プレビュー見る限り、うまく行きそうなところもあるけれど、
おでこに突如前髪登場、というのもある。
前に試したときはXSegせずで、おでこに前髪がたくさん、でした。
やり方間違ってるかな。。。?
わかってないのでよければ教えて。。。
今、色々と設定変えながら試している段階なんだけど、XSegでのマスクは、障害物がないsrc(眉まで前髪)ではやってなくて、
障害物が顔の前に入り込むdst(おでこ出し)のみでやってます。XSegのtrainは62万itr・0.02台まで。
その後本train中。face_typeはf(XSseg、本trainともに)。
本trainで30万itrくらい、ロス値はsrc 0.55・dst 0.25ってところなんだけど、プレビュー見る限り、うまく行きそうなところもあるけれど、
おでこに突如前髪登場、というのもある。
前に試したときはXSegせずで、おでこに前髪がたくさん、でした。
やり方間違ってるかな。。。?
795名無しさん@お腹いっぱい。 (テテンテンテン MM8f-0JIE)
2020/12/09(水) 15:01:17.98ID:g2LiSzlZM 狭い方の範囲に合わせて反対もmask処理してみて
今の場合dstが眉まで前髪かかってるならsrcも眉下で線引き
mergeの時interactive merger使ってる?画像確認しながらmask選択すれば問題ないはず
あとはV押してmask範囲見ながらblur mask modifierを100-150くらいあげれば大抵馴染む
今の場合dstが眉まで前髪かかってるならsrcも眉下で線引き
mergeの時interactive merger使ってる?画像確認しながらmask選択すれば問題ないはず
あとはV押してmask範囲見ながらblur mask modifierを100-150くらいあげれば大抵馴染む
796名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/09(水) 18:43:16.92ID:eM6LmaQtd ガイドって言われても英語表記、英語音声だしなあ
まともな解説サイトが無いってのも駄目だわ
まともな解説サイトが無いってのも駄目だわ
797名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/09(水) 18:50:32.81ID:eM6LmaQtd 俺も質問まとめて来た
1、SRCが髪、手で隠れていてもそれは残したほうがいいのか
残すなら顔の隠れている割合の条件も教えてほしい
2,DSTで顔に髪がかかっているものは採用対象にしないべきか
3、SRCで上下逆さまになっているものがたまに見かける
これはなにもしなくていいの?
4、workが多すぎるんだが、使うおすすめを教えてほしい
5,顔を学習させるのって、あくまでもパッチワークみたいな切り取って貼っていく感じではなく、マシンに顔を記憶させて応用も効かせるっていう考え方であってるよね?
ってことは2つの動画の明度が違っててもいける?
1、SRCが髪、手で隠れていてもそれは残したほうがいいのか
残すなら顔の隠れている割合の条件も教えてほしい
2,DSTで顔に髪がかかっているものは採用対象にしないべきか
3、SRCで上下逆さまになっているものがたまに見かける
これはなにもしなくていいの?
4、workが多すぎるんだが、使うおすすめを教えてほしい
5,顔を学習させるのって、あくまでもパッチワークみたいな切り取って貼っていく感じではなく、マシンに顔を記憶させて応用も効かせるっていう考え方であってるよね?
ってことは2つの動画の明度が違っててもいける?
798名無しさん@お腹いっぱい。 (ワッチョイW a776-0JIE)
2020/12/09(水) 19:19:38.16ID:JZ2sO5720 1.消せ
2.消せ
3.消せ
4.?
5.白人→黒人みたいなのは違和感しかないだろうけどある程度はいける
2.消せ
3.消せ
4.?
5.白人→黒人みたいなのは違和感しかないだろうけどある程度はいける
799名無しさん@お腹いっぱい。 (ワッチョイ 7f8b-kHb6)
2020/12/09(水) 19:22:05.54ID:phBW9iQ10 >>797
1 ちゃんと顔が見えてないのは削除
2 dstの髪はxsegとかで大体何とかなるけど邪魔なものはないほうがふさわしい
3 失敗してるので絶対に削除
4の意味はわからない
5 明度の違いぐらいは問題なくやってくれてるけど、仕組みはわからない
1 ちゃんと顔が見えてないのは削除
2 dstの髪はxsegとかで大体何とかなるけど邪魔なものはないほうがふさわしい
3 失敗してるので絶対に削除
4の意味はわからない
5 明度の違いぐらいは問題なくやってくれてるけど、仕組みはわからない
800名無しさん@お腹いっぱい。 (ワッチョイW df11-5+YQ)
2020/12/09(水) 19:26:41.08ID:ILQUMBAJ0 1.学習の邪魔になるので削除
2.xsegでマスクして学習させてみる、もしくは違うフォルダに退避させてマージ時に戻してみて上手くいくか探る
3.顔と誤認識してるので削除。横顔の場合角度つきすぎてたら何かおかしいので削除
4.?
5.差が酷すぎなければだいたいいける
自分はこんな認識
2.xsegでマスクして学習させてみる、もしくは違うフォルダに退避させてマージ時に戻してみて上手くいくか探る
3.顔と誤認識してるので削除。横顔の場合角度つきすぎてたら何かおかしいので削除
4.?
5.差が酷すぎなければだいたいいける
自分はこんな認識
801名無しさん@お腹いっぱい。 (ワッチョイW a7b1-3tvF)
2020/12/09(水) 19:35:57.35ID:Z0JpTnOw0 >>796
翻訳使えよ
翻訳使えよ
802名無しさん@お腹いっぱい。 (ワッチョイ c758-kNbH)
2020/12/09(水) 19:52:37.09ID:1+t2CxAi0 ちょっとひどすぎんな
教師気取りのやつは別に場所作ってそこでやれよ
お前等が構うから他がスルーしてても意味ねえじゃん
教師気取りのやつは別に場所作ってそこでやれよ
お前等が構うから他がスルーしてても意味ねえじゃん
803名無し募集中。。。 (ワッチョイ 7f8b-kHb6)
2020/12/09(水) 20:21:07.58ID:phBW9iQ10 いやもうこういうスレなんだよ
日記が来てからかつてのスレは死んだんだ諦めろ
日記が来てからかつてのスレは死んだんだ諦めろ
804名無しさん@お腹いっぱい。 (ワッチョイW a7b1-3tvF)
2020/12/09(水) 20:32:08.43ID:Z0JpTnOw0805名無しさん@お腹いっぱい。 (ワッチョイ e7b1-gZHY)
2020/12/09(水) 21:17:45.78ID:hBY+apRS0 質問スレが無くなったのは痛い
806名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/09(水) 21:21:43.80ID:5SlYHvfQd どうでもいいわ
こちとら文字の書き方を知らんっていうほどの未熟者なんだからシャーペン買う場所教えてくれるだけでも普通に有り難い
あんたら不満だけの奴らは一生レスしないでくれ
こちとら文字の書き方を知らんっていうほどの未熟者なんだからシャーペン買う場所教えてくれるだけでも普通に有り難い
あんたら不満だけの奴らは一生レスしないでくれ
807名無しさん@お腹いっぱい。 (ワッチョイ dfc0-orE1)
2020/12/09(水) 21:36:18.95ID:fkhvzo3/0 逆に昔はどうだったのか知りたい。
結局こういう質問・回答だったんじゃないだろうか?
まさか作品上げあってたなんてないだろうし・・・
結局こういう質問・回答だったんじゃないだろうか?
まさか作品上げあってたなんてないだろうし・・・
808名無しさん@お腹いっぱい。 (ワッチョイ 87bc-ojTD)
2020/12/09(水) 21:40:07.42ID:g3AyXSYp0 5chに質問書いて返ってくるかわからん返事を待つより
その前に過去スレ読んだり"DeepFaceLab"で検索した方が役に立つのに
その前に過去スレ読んだり"DeepFaceLab"で検索した方が役に立つのに
809名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/09(水) 22:44:41.97ID:UCvec3fSa >>784
上級者っていうかググったりgithubの説明から理解したらこうはならんやろ
上級者っていうかググったりgithubの説明から理解したらこうはならんやろ
810名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/09(水) 22:49:26.43ID:UCvec3fSa >>779
1可能、元ネタ次第。例えば過去スレに説明があるとおり、dst同士で学習して、srcに入れ替えたら楽。少し品質は落ちるけどな。
2表情のパターンと眉かな、そのキャラクターがしない表情は似たところで違和感がある、その次に輪郭。
1可能、元ネタ次第。例えば過去スレに説明があるとおり、dst同士で学習して、srcに入れ替えたら楽。少し品質は落ちるけどな。
2表情のパターンと眉かな、そのキャラクターがしない表情は似たところで違和感がある、その次に輪郭。
811名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/09(水) 22:51:10.17ID:UCvec3fSa >>802
酷いのは調べもしないお前だ。過去スレを順番に読むだけでいいんだぜ。馬鹿でもわかる。
酷いのは調べもしないお前だ。過去スレを順番に読むだけでいいんだぜ。馬鹿でもわかる。
812名無しさん@お腹いっぱい。 (ワッチョイW 6758-G9vp)
2020/12/09(水) 23:03:46.66ID:s/5fndNG0 普通にGit調べりゃ基本的なことは書いてるし、youtubeにもあるし
まずそこ見てくれ、後は自分で試す
そんなこともできないようじゃ無理
まずそこ見てくれ、後は自分で試す
そんなこともできないようじゃ無理
813名無しさん@お腹いっぱい。 (ワッチョイ 7f8b-kHb6)
2020/12/09(水) 23:09:46.75ID:phBW9iQ10 言ってることはよく分かるが、このスレ質問しか書かれないじゃん
過疎スレで自治してても楽しくないよ
過疎スレで自治してても楽しくないよ
814名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/10(木) 03:48:03.82ID:/7jWWh++0 過去スレすら読め無い奴はスルーでいい
そもそも教えてやる義理も無い
そんな事より更新来てるぞ
そもそも教えてやる義理も無い
そんな事より更新来てるぞ
815名無しさん@お腹いっぱい。 (スフッ Sdff-Vs3D)
2020/12/10(木) 08:02:53.56ID:WiLA8XdLd ほんとだ、更新
816名無しさん@お腹いっぱい。 (ワッチョイ c7d2-lRqm)
2020/12/10(木) 09:47:40.33ID:Sk4psy3/0 true face なくなったんけ?
817名無しさん@お腹いっぱい。 (ワッチョイ 6776-LBAI)
2020/12/10(木) 18:59:50.35ID:OK9ZqjYk0 1.「パソコンのいろは」「ファイル操作入門」の知識すら無いのに、タメで書き込んでるヤツをガイジという。
2.「画像形式と情報保持構造」「動画形式・編集入門」「CMDコマンドとCMD画面」の知識が無い者をパソコン初心者、
3.「DeepLearningの画像認識」「このAIパッケージを利用したDeepFakeの仕組み」の知識が無い者をAI初心者、
4.これらが揃っててDeepFakeを始めるモノをDFL初心者、すなわちこのスレでの初心者と言う。
ぶっちゃけDFLって即使える筈なんだけど、PCの基礎知識が足らんからトンチンカンな質問になるんでしょ。
因みに自分の場合、元々3DCGアニメ屋なのでDSTは自作してる。
マスクオブジェとその影は別レイヤーレンダで後乗せだから学習速いし、画角も好きに出来るし、
CG顔は学習異様に速いし、触手とかハラボコとかケツ口貫通とかめっちゃヤバイっす。
自作DSTの公開は無問題だろーから需要あるなら提供しようかとここ来たんだけど、もうね・・・
2.「画像形式と情報保持構造」「動画形式・編集入門」「CMDコマンドとCMD画面」の知識が無い者をパソコン初心者、
3.「DeepLearningの画像認識」「このAIパッケージを利用したDeepFakeの仕組み」の知識が無い者をAI初心者、
4.これらが揃っててDeepFakeを始めるモノをDFL初心者、すなわちこのスレでの初心者と言う。
ぶっちゃけDFLって即使える筈なんだけど、PCの基礎知識が足らんからトンチンカンな質問になるんでしょ。
因みに自分の場合、元々3DCGアニメ屋なのでDSTは自作してる。
マスクオブジェとその影は別レイヤーレンダで後乗せだから学習速いし、画角も好きに出来るし、
CG顔は学習異様に速いし、触手とかハラボコとかケツ口貫通とかめっちゃヤバイっす。
自作DSTの公開は無問題だろーから需要あるなら提供しようかとここ来たんだけど、もうね・・・
818名無しさん@お腹いっぱい。 (ワッチョイ 6758-kNbH)
2020/12/10(木) 19:04:09.02ID:mLdLBmhZ0 というかソフト触る前に質問するからトンチンカンな内容になるのよ
一切触ってないような人には教えるのも難しいし
一切触ってないような人には教えるのも難しいし
819名無しさん@お腹いっぱい。 (ワッチョイ 6786-D4Qg)
2020/12/10(木) 20:28:03.98ID:FQIN8bLm0 更新きてるこのRTX_build_12_09って
RTX系統じゃなきゃだめよ(GTXはだめよ)なの?
RTX系統じゃなきゃだめよ(GTXはだめよ)なの?
820名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/10(木) 22:00:16.94ID:qc6t0ytaa いや、割と阿呆な質問が多いから、まじでこの国の教養大丈夫って思うわ。
821名無しさん@お腹いっぱい。 (ワッチョイW a773-0JIE)
2020/12/10(木) 22:05:52.45ID:yOOFH5aQ0 憂国のDF
822名無しさん@お腹いっぱい。 (ワッチョイW a773-0JIE)
2020/12/10(木) 23:45:03.46ID:yOOFH5aQ0 2080tiだと12_09のdst faceset extract不安定
100くらい見つけたとこで止まる
08_02に戻す
100くらい見つけたとこで止まる
08_02に戻す
823名無しさん@お腹いっぱい。 (スププ Sdff-Vs3D)
2020/12/11(金) 00:40:21.54ID:Ddvg9igrd rtx3000シリーズでも同じ症状だった
顔抽出で止まる
顔抽出で止まる
824名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/11(金) 11:27:28.14ID:1oJNK2XDd っていうかあんたら上級者がなにもせず還元しないのが駄目なんでしょ
wikiだの、このスレのテンプレすら英語版のマニュアルをポンと貼っただけでテンプレ貼りをドヤ顔で仕事した気になってんだから世話ねえわな
こんだけ質問来る意味、少しは考えたことあるかい?
ないわな
wikiだの、このスレのテンプレすら英語版のマニュアルをポンと貼っただけでテンプレ貼りをドヤ顔で仕事した気になってんだから世話ねえわな
こんだけ質問来る意味、少しは考えたことあるかい?
ないわな
825名無しさん@お腹いっぱい。 (ワッチョイW 8702-wuy4)
2020/12/11(金) 11:46:09.53ID:+cr9RpGF0 パッチファイルが多すぎるんだが、いくつか消してる人っていない?
残すやつ教えてほしい
残すやつ教えてほしい
826名無しさん@お腹いっぱい。 (ワントンキン MMbf-bBEk)
2020/12/11(金) 11:48:10.82ID:wFJQwkbxM アフィブログ作って解説したら儲かるかな
別にグラビア雑誌にアイドルの顔張り付けるのと一緒だよな?
なんかの幇助とか言われて国家権力に捕まらないかちと心配
別にグラビア雑誌にアイドルの顔張り付けるのと一緒だよな?
なんかの幇助とか言われて国家権力に捕まらないかちと心配
827名無しさん@お腹いっぱい。 (ワッチョイW 87bc-hfz9)
2020/12/11(金) 11:53:43.75ID:jEHMqz0g0 マジな話「wikiみたりweb検索する前に、まず5chで質問」←これが意味わからん
828名無しさん@お腹いっぱい。 (スッップ Sdff-mk3U)
2020/12/11(金) 13:00:06.10ID:eMw2CvrSd >>825
パッチファイルに手を入れられる知識があるならRTXでまともに動くようにしてくれ
パッチファイルに手を入れられる知識があるならRTXでまともに動くようにしてくれ
829名無しさん@お腹いっぱい。 (アウアウウー Sa6b-ksjQ)
2020/12/11(金) 13:10:49.36ID:sPUWInp0a だからまず電子辞書を買えと言っているのに・・・
830名無しさん@お腹いっぱい。 (ワッチョイ e7b1-gZHY)
2020/12/11(金) 13:54:43.56ID:IxeShAVX0 質問に答えてくれてる人に対して感謝の言葉すら一言も無く文句だけは上級者
まじで死んだ方がいい
まじで死んだ方がいい
831名無しさん@お腹いっぱい。 (ワッチョイ 6758-kNbH)
2020/12/11(金) 14:03:56.75ID:0rIHmixA0 俺ができないのはお前らのせい!!!
832名無しさん@お腹いっぱい。 (ワッチョイW 6758-G9vp)
2020/12/11(金) 15:09:20.05ID:U16STI9O0 >>825
パッチファイルわりと全部使うけどな
パッチファイルわりと全部使うけどな
833名無しさん@お腹いっぱい。 (ワッチョイW df11-M3Cv)
2020/12/11(金) 15:16:02.67ID:zw0/H3ZT0 もしかして…バッチ…
834名無しさん@お腹いっぱい。 (ワッチョイ 6786-D4Qg)
2020/12/11(金) 21:30:52.66ID:dAhfyizA0 更新なったやつ消えとる・・・
まあ、俺は解凍時にエラー吐いてたし、trainも開始できんかった。
まあ、俺は解凍時にエラー吐いてたし、trainも開始できんかった。
835名無しさん@お腹いっぱい。 (ワッチョイ 7f73-LBAI)
2020/12/11(金) 21:33:13.66ID:FZ5Wzj+70 >>826
家族の面白動画の作り方とかならいいんじゃね
家族の面白動画の作り方とかならいいんじゃね
836名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/11(金) 23:20:47.23ID:aDSAIMhja >>824
馬鹿だろお前w
馬鹿だろお前w
837名無しさん@お腹いっぱい。 (アウアウウー Sa6b-DwJl)
2020/12/11(金) 23:22:16.60ID:aDSAIMhja バッチはカスタムするし、不要な処理はコメントアウトしたり普通にいじる。
838名無しさん@お腹いっぱい。 (ワッチョイW 276d-3nR/)
2020/12/11(金) 23:50:56.33ID:BOESYB7R0 また新しく更新されとるよ
839名無しさん@お腹いっぱい。 (ワッチョイ a7e5-kNbH)
2020/12/12(土) 08:36:34.32ID:ncrGzXF00 8/2 版とかもファイル名変えたのかな?
840名無しさん@お腹いっぱい。 (ワッチョイ 7f6e-kNbH)
2020/12/12(土) 08:45:31.06ID:FmoqpffD0 2000版と3000版ができとる
841名無しさん@お腹いっぱい。 (ワッチョイW 670c-Vs3D)
2020/12/12(土) 09:43:59.43ID:HI4Z2tUg0 3000の新しいやつでもまだ顔抽出止まるなあ
842名無しさん@お腹いっぱい。 (ワッチョイ 7f8b-kHb6)
2020/12/12(土) 09:47:28.20ID:Rps2P8U30 久しぶりの更新だからしばらく様子見かな
843名無しさん@お腹いっぱい。 (ワッチョイW 276d-3nR/)
2020/12/12(土) 09:54:32.69ID:PtlhXsm50 3000版顔抽出開始するのに3分いじょうかかるな
とうぶんの間Test版と併用だな
あとtrain optionにadabeliefが追加されている
とうぶんの間Test版と併用だな
あとtrain optionにadabeliefが追加されている
844名無しさん@お腹いっぱい。 (スフッ Sdff-wuy4)
2020/12/12(土) 10:39:23.60ID:E32hPOqId 今気付いたんだが、例えば1.1に複数のバッチファイルあるやつってそのうちのどれか一つ選んで実行ってこと?
番号順に一つずつやる、コンマ以下あるやつは好みで使用、使わなくても良いっていうのでいいのか?
番号順に一つずつやる、コンマ以下あるやつは好みで使用、使わなくても良いっていうのでいいのか?
845名無しさん@お腹いっぱい。 (ドコグロ MM9f-G9vp)
2020/12/12(土) 11:36:30.77ID:bVxlWFJiM846名無しさん@お腹いっぱい。 (デーンチッ Sa6b-ksjQ)
2020/12/12(土) 12:15:29.81ID:rJw9eB0Qa1212847名無しさん@お腹いっぱい。 (デーンチッ 7f6e-kNbH)
2020/12/12(土) 12:27:32.43ID:FmoqpffD01212 [n] Use AdaBelief optimizer? ( y/n ?:help ) : ?
Experimental AdaBelief optimizer.
It requires more VRAM, but the accuracy of the model is higher,
and lr_dropout is not needed.
Experimental AdaBelief optimizer.
It requires more VRAM, but the accuracy of the model is higher,
and lr_dropout is not needed.
848名無しさん@お腹いっぱい。 (デーンチッW df40-HS6K)
2020/12/12(土) 17:31:48.96ID:DKJvJqeD01212 富岳用に最適化して走らせたらどれぐらい快適になるんだろかとか妄想しちゃう
849名無しさん@お腹いっぱい。 (デーンチッ dfc0-orE1)
2020/12/12(土) 18:20:13.52ID:3emTDP+T01212 個人で楽しむ分には結構満足できるようになってきた。
でもdstが腕と被るところは難しいね。
一つずつマスクすればいいんだろうけど手間すぎる・・・
でもdstが腕と被るところは難しいね。
一つずつマスクすればいいんだろうけど手間すぎる・・・
850名無しさん@お腹いっぱい。 (デーンチッ bf73-AcSP)
2020/12/12(土) 21:28:04.28ID:5seRSGjV01212 ちなみにwikiはガイジがスレを適当に転載した、情報も古い上に未検証な物なので注意
851名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/13(日) 01:57:17.61ID:faeRPvMB0 誰か初心者質問スレ立ててくれ
852名無しさん@お腹いっぱい。 (ワッチョイ c758-orE1)
2020/12/13(日) 11:40:06.25ID:Jx5YTba10 >>847
最新技術つっこんできているな
最新技術つっこんできているな
853名無しさん@お腹いっぱい。 (ワッチョイ 5fb8-LBAI)
2020/12/13(日) 20:36:09.82ID:YrwZpEdN0 AdaBelief optimizerのドロップアウトが要らないってことは
仕上げでやってたドロップアウトなしで最後までTRAINできる感じかな。
だったら便利だなぁ。
仕上げでやってたドロップアウトなしで最後までTRAINできる感じかな。
だったら便利だなぁ。
854名無しさん@お腹いっぱい。 (ワッチョイW dfc0-1/9y)
2020/12/13(日) 20:41:08.34ID:rwBsKs7M0 始めて1週間もたってない初心者にも届いていないレベルだが、
難しいこと頑張るよりもまずは正面向きのdst,srcを用意して短い動画で色々と試すほうが色々とよくわかることがわかった。
次はmaskとかも試してみたい。
難しいこと頑張るよりもまずは正面向きのdst,srcを用意して短い動画で色々と試すほうが色々とよくわかることがわかった。
次はmaskとかも試してみたい。
855名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/13(日) 21:07:26.12ID:faeRPvMB0856名無しさん@お腹いっぱい。 (ワッチョイ c758-orE1)
2020/12/15(火) 02:17:04.78ID:wjYJSccf0 ボーナス突っ込んで3090に買い替えたんだけど、学習開始時にエラー吐いて使い物にならんな
爆熱で補助電源8pin×3の電気代とか今のところ後悔しかないわ
爆熱で補助電源8pin×3の電気代とか今のところ後悔しかないわ
857名無しさん@お腹いっぱい。 (ワッチョイ df76-LBAI)
2020/12/15(火) 13:08:32.81ID:0Bw3Bs9g0 DFL頻繁に更新来てるから最新の入れた方が良いよ、あとCudaを11.1に変えるとか?
なぜかGPUでのXSegはできないけど他は3090でも動いてる
なぜかGPUでのXSegはできないけど他は3090でも動いてる
858名無しさん@お腹いっぱい。 (ワッチョイW 276d-3nR/)
2020/12/15(火) 15:31:14.92ID:BaeKkjan0 3000版はtenser使って圧縮してdataをvramに送るんだけど結構失敗してエラーでる
失敗しても24G以内に収まりそうなんだけどな
自分はタスクマネージャーでgpuメモリ使用量を見ている
失敗するとgpuメモリ使用量が増えたあとすぐに減るからわかる
そうなったらtrainバッチやりなおしている
失敗しても24G以内に収まりそうなんだけどな
自分はタスクマネージャーでgpuメモリ使用量を見ている
失敗するとgpuメモリ使用量が増えたあとすぐに減るからわかる
そうなったらtrainバッチやりなおしている
859名無しさん@お腹いっぱい。 (ワッチョイW 2774-FefN)
2020/12/15(火) 16:38:52.75ID:cOJp3Ogr0 圧縮って量子化して8bitとかして演算してるのかな
860名無しさん@お腹いっぱい。 (ワッチョイ bfb0-orE1)
2020/12/15(火) 16:44:09.34ID:PbpwvKJe0 タスクマネージャーずっと見てんの?
草なんだが
草なんだが
861名無しさん@お腹いっぱい。 (ワッチョイW 276d-3nR/)
2020/12/15(火) 17:35:42.17ID:BaeKkjan0 うん
train始まったら放置しているけどな
train始まったら放置しているけどな
862名無しさん@お腹いっぱい。 (ワッチョイ bfb0-orE1)
2020/12/15(火) 17:43:28.12ID:PbpwvKJe0863名無しさん@お腹いっぱい。 (ワントンキン MMbf-bBEk)
2020/12/15(火) 17:46:52.72ID:2n6kE0OcM コロナで儲けた企業も結構あるんやで
864名無しさん@お腹いっぱい。 (ワッチョイ a7e5-kNbH)
2020/12/15(火) 18:29:40.50ID:y1RmT23p0 ボーナスでDFのために20万以上使うってすげー
865名無しさん@お腹いっぱい。 (ラクッペペ MM8f-dgJ5)
2020/12/15(火) 18:36:16.69ID:N4OQvP9ZM タスクマネージャーのgpu使用率はあてにならんぞ
よく調べた方がいい
よく調べた方がいい
866名無しさん@お腹いっぱい。 (ワッチョイ bfb0-orE1)
2020/12/15(火) 18:50:21.11ID:PbpwvKJe0 コロナで儲けた企業?
具体的にどこよ
具体的にどこよ
867名無しさん@お腹いっぱい。 (ワッチョイW 6758-2lUs)
2020/12/15(火) 19:48:33.42ID:heMXIoMB0 薬屋とかメガネ業界とか
868名無しさん@お腹いっぱい。 (ワッチョイ 67bb-GZFP)
2020/12/15(火) 20:43:06.11ID:O3Ti3+380 ドラッグストアは化粧品とかヒゲソリとかの売り上げ減ったべ
869名無しさん@お腹いっぱい。 (ワッチョイ 7fb0-orE1)
2020/12/15(火) 20:50:09.72ID:1NqRdMyi0 Amazonとか通販サイトのごく一部だろ
870名無しさん@お腹いっぱい。 (ワッチョイW c790-qFRf)
2020/12/15(火) 21:05:25.21ID:IV6ggM9v0 昔ながらのGPU-Zとか使えばいいんじゃね
871名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/16(水) 00:35:24.83ID:ztwcSGgL0 ELSA System Graph
872名無しさん@お腹いっぱい。 (ワッチョイW 3bb1-2Np4)
2020/12/16(水) 14:21:14.71ID:RFv2Li0A0 今年の8月からアップデートしていないのですが、した方がいいですか?改良されてますか?
873名無しさん@お腹いっぱい。 (アウアウクー MMf3-jeV2)
2020/12/16(水) 15:27:19.58ID:3EuKp4WsM 賞与の満額っていうのがよく分からん
業績により変動で決まるんじゃないのか?満額って何ヵ月?3ヶ月?
うちは去年夏 3.5 冬 3.7がコロナのせいで夏3.0 冬 2.5という大打撃受けたから
賞与だけで年収60万以上下がってしまったわ久しぶりに額面3桁切ってしまった
業績により変動で決まるんじゃないのか?満額って何ヵ月?3ヶ月?
うちは去年夏 3.5 冬 3.7がコロナのせいで夏3.0 冬 2.5という大打撃受けたから
賞与だけで年収60万以上下がってしまったわ久しぶりに額面3桁切ってしまった
874名無しさん@お腹いっぱい。 (ワッチョイW 7302-5sE/)
2020/12/16(水) 21:47:50.90ID:pNZtkVQB0 batファイルの末尾に<~.txtと書いて、予め設定を書いておくっていうやり方をここで教えてもらってずっと助かってるんだけど、
これの仕様についてどうやれば勉強できるか誰か教えてくれない?
自分で調べてみようと思ったんだけど、検索ワードが分からなくてヒットしない…
これの仕様についてどうやれば勉強できるか誰か教えてくれない?
自分で調べてみようと思ったんだけど、検索ワードが分からなくてヒットしない…
875名無しさん@お腹いっぱい。 (ワッチョイ f3b0-FZ4g)
2020/12/16(水) 21:55:41.94ID:Ao2uWfmQ0876名無しさん@お腹いっぱい。 (アウアウクー MMf3-jeV2)
2020/12/17(木) 00:44:40.56ID:T7o2nx4BM >>875
上級国民でもなんでもない
ただの変態おっさん庶民
東京じゃないけど都市部で30半ばにもなればこの程度普通におる
休日出勤が結構多かったから税率23をギリギリ維持してしまっただけ
上級国民なら年収1500万は少なくとも越えてないと
寝取られ趣味だけど嫁にそんなこと頼めないからコッソリお気に入りの体と入れ換えて妄想楽しむしかないただの変態よ
上級国民でもなんでもない
ただの変態おっさん庶民
東京じゃないけど都市部で30半ばにもなればこの程度普通におる
休日出勤が結構多かったから税率23をギリギリ維持してしまっただけ
上級国民なら年収1500万は少なくとも越えてないと
寝取られ趣味だけど嫁にそんなこと頼めないからコッソリお気に入りの体と入れ換えて妄想楽しむしかないただの変態よ
877名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/17(木) 01:10:02.90ID:NxWOtusT0 デフレの前は年収600万が普通だったけど、今は年収400万が普通だそうだぞ
年収600万は高収入の部類
自分も年収600万は結構残業の結構中年でようやくだった様な
昔でも残業しても年収800万は無理くさいぞ
地方都市。IT企業
年収600万は高収入の部類
自分も年収600万は結構残業の結構中年でようやくだった様な
昔でも残業しても年収800万は無理くさいぞ
地方都市。IT企業
878名無しさん@お腹いっぱい。 (ワッチョイ f3b0-FZ4g)
2020/12/17(木) 02:35:05.12ID:611kD0SC0 大学生、無職、SE、都市部一流企業社員、地方都市IT企業
よし、全員いるな
よし、全員いるな
879名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/17(木) 07:04:28.20ID:2Uq36/oO0 経歴もfakeでした…
880名無しさん@お腹いっぱい。 (ワッチョイ 4bb0-FZ4g)
2020/12/17(木) 15:21:29.48ID:vbTKedqj0 草www
881名無しさん@お腹いっぱい。 (アウアウクー MMf3-jeV2)
2020/12/17(木) 16:33:10.35ID:eT5JMdPgM 都内の男性正社員平均年収が695万なのに何故そんなに嘘扱いされるのか良くわからない
地方都市といっても全国トップ5に入る都市だからってのもある
給与明細は会社バレるからこれでも良いかな?
年収=収入が合わないのは贈与税かからない範囲で毎年親が送ってきて、相続税無くすためと株の配当金があるから
後12月の給与30万後半足してこの手取りから税率計算すれば年収700万も賞与の月数も嘘じゃないと分かって貰えるかな?
決して上級国民でもなんでもない
ただの庶民だし平均レベル
http://s.kota2.net/1608189932.jpg
地方都市といっても全国トップ5に入る都市だからってのもある
給与明細は会社バレるからこれでも良いかな?
年収=収入が合わないのは贈与税かからない範囲で毎年親が送ってきて、相続税無くすためと株の配当金があるから
後12月の給与30万後半足してこの手取りから税率計算すれば年収700万も賞与の月数も嘘じゃないと分かって貰えるかな?
決して上級国民でもなんでもない
ただの庶民だし平均レベル
http://s.kota2.net/1608189932.jpg
882名無しさん@お腹いっぱい。 (ワッチョイ 4bb0-FZ4g)
2020/12/17(木) 16:45:43.66ID:fiV0ceWY0 必死で草
いいから涙ふけよwwwwwwwww
いいから涙ふけよwwwwwwwww
883名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/17(木) 17:00:09.27ID:ngedge0K0 スレチなことに気づかない程度の頭の持ち主だからじゃない?
884名無しさん@お腹いっぱい。 (ワッチョイ 4bb0-FZ4g)
2020/12/17(木) 17:03:55.57ID:NWYzOpCA0 そもそも平日の昼間に何言ってんんだコイツ
いいからハロワ行け
いいからハロワ行け
885名無しさん@お腹いっぱい。 (ワッチョイ 6673-yDMm)
2020/12/17(木) 20:50:05.15ID:o3IuRTfD0 それが日記クオリティ
886名無しさん@お腹いっぱい。 (ワッチョイ a3b1-FZ4g)
2020/12/17(木) 21:52:28.38ID:u0R0/cRV0 ここの住人からしたら旧石器時代の話かもしれないが
DFL1系から2系にアップデートしたら、一見同じパラメータなんだが
化け物が生成されるようになった
srcもdstも全部同じで新規に学習しても
2系だと特定画角、それが困ったことに正面であることが多い、が化け物化する
個々のinterationのスピードは上がってるから、何かを犠牲にしてるんだろうな
結局、今でも1系動かしてるわ
DFL1系から2系にアップデートしたら、一見同じパラメータなんだが
化け物が生成されるようになった
srcもdstも全部同じで新規に学習しても
2系だと特定画角、それが困ったことに正面であることが多い、が化け物化する
個々のinterationのスピードは上がってるから、何かを犠牲にしてるんだろうな
結局、今でも1系動かしてるわ
887名無しさん@お腹いっぱい。 (ワッチョイ 1f58-FZ4g)
2020/12/17(木) 21:54:13.40ID:wEUiOt//0 megaからRTXバージョン消えたね
まだまだ時間かかりそうだし気長に待つしかないか
まだまだ時間かかりそうだし気長に待つしかないか
888名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
2020/12/17(木) 22:52:55.07ID:8N8Wm6Ww0 じゃあ今の20201216バージョンって3000シリーズ非対応なのか
また更新されたと思って喜んでたのだが。
また更新されたと思って喜んでたのだが。
889名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/18(金) 02:09:00.46ID:Uo/5aC410 >>886
初期設定の数値の割り当てが悪いとかじゃないか?
初期設定の数値の割り当てが悪いとかじゃないか?
890名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/18(金) 02:37:18.97ID:TwSdCL4r0 新しく始める時はフォーラムにあるpretrain済みのモデルデータを使えば
設定もされてるし失敗しないと思うんだけど
気に入らなければ他のを使ってみればいいし
設定もされてるし失敗しないと思うんだけど
気に入らなければ他のを使ってみればいいし
891名無しさん@お腹いっぱい。 (エムゾネW FF8a-gfaQ)
2020/12/18(金) 05:24:04.36ID:Dlt/mIM3F 更新入れたらliae-udがデフォルトになってるんだけどこっちが主流になったのかね?
今後のことも考えると早めに切り替えておくべきか
今後のことも考えると早めに切り替えておくべきか
892名無しさん@お腹いっぱい。 (ワッチョイW 8bf0-gWbi)
2020/12/18(金) 17:20:58.45ID:o6LrbTtV0 最新verでRTX3090動いてるよ
893名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/18(金) 17:24:17.87ID:Ges5iJPC0 08_02_2020だけど、liae-udだと似ないと言うかdstのままの物があるのだが
df-udだと似るやつも
dst×dstの学習はliae-udの時のみ有効な様な。df-udだとMaskしてくれない様な
df-udだと似るやつも
dst×dstの学習はliae-udの時のみ有効な様な。df-udだとMaskしてくれない様な
894名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/18(金) 17:29:17.02ID:Ges5iJPC0895名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/18(金) 17:36:27.92ID:21+Qa28k0 初めてこのスレ見つけました。よろしくお願いします。
自分は3090使っていますが、対応されて問題なく出来ましたよ。
自分は3090使っていますが、対応されて問題なく出来ましたよ。
896名無しさん@お腹いっぱい。 (スフッ Sd8a-9SH0)
2020/12/18(金) 18:20:46.75ID:nrKnapkwd おお、ついに3090で動くようになったか 帰ったら試してみよう
897名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/18(金) 18:30:28.43ID:21+Qa28k0 3090*2でSLIして見たいですが、電源が。。。
898名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
2020/12/18(金) 21:41:15.60ID:Lb5y8KFl0 3090を2台買えるやつが電源なんか気にするかよ
899名無しさん@お腹いっぱい。 (ワッチョイ f30c-Gz4g)
2020/12/18(金) 21:41:30.50ID:zo8yTqtf0 だめだうちの3090では最新版でもやはり、顔抽出途中で止まった。また待ちます。
900名無しさん@お腹いっぱい。 (ワッチョイW 8b3a-gWbi)
2020/12/18(金) 22:36:42.37ID:vt6l6RKH0901名無しさん@お腹いっぱい。 (ワッチョイ f30c-Gz4g)
2020/12/19(土) 00:32:52.88ID:GV4bOaIu0902名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/19(土) 00:36:24.50ID:KmwJgewt0 たしかにXsegでは止まってしまいますね。。確認不足でした。すみません。どうやらTensorflowの問題らしいです。
903名無しさん@お腹いっぱい。 (ワッチョイ ff7b-WzAq)
2020/12/19(土) 13:48:21.72ID:rB3YLKrL0 3090だとエラー出るのかな?
最新ver試してないけど3070なら一か月ぐらいにmegaにあった3000buildだとエラーなく最後まで出来たんだけど
顔の抽出が凄い遅かったのはあったが
>>894
マネーフォワードがデフォ設定だと賞与が一時金扱いに分類される
手取り150万の年間賞与だと額面200万くらい
給与が330万手取りなので額面だと約400ちょっと
会社で財形貯蓄や会社主体の保険入ってると天引きされるから実際はもう少し多いと予想
確かに700万前後あるだろうけど、ここで披露したからどうだと言う話
あと必死に乏してる奴等はそれ以上に惨めだが
最新ver試してないけど3070なら一か月ぐらいにmegaにあった3000buildだとエラーなく最後まで出来たんだけど
顔の抽出が凄い遅かったのはあったが
>>894
マネーフォワードがデフォ設定だと賞与が一時金扱いに分類される
手取り150万の年間賞与だと額面200万くらい
給与が330万手取りなので額面だと約400ちょっと
会社で財形貯蓄や会社主体の保険入ってると天引きされるから実際はもう少し多いと予想
確かに700万前後あるだろうけど、ここで披露したからどうだと言う話
あと必死に乏してる奴等はそれ以上に惨めだが
904名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/19(土) 14:18:16.99ID:D0kdx6n60 酷いスレだわ
905名無しさん@お腹いっぱい。 (スプッッ Sd2a-20fS)
2020/12/19(土) 14:18:39.79ID:BjQuUv3rd どうでもいいがMFは手入力できるから自分の好きな金額にできるぞ
906名無しさん@お腹いっぱい。 (ワッチョイ 1f58-22vh)
2020/12/19(土) 15:36:04.64ID:J319dMxk0 3090動いてる人うらやま
うちの環境じゃ相変わらずエラー吐いて学習始まらないんだよなぁ
[Place models and optimizer on GPU]切ると、vram50%ぐらい使用しながら一応動くけど
CPU使用率半端無いし遅いしで使いものにならないし
うちの環境じゃ相変わらずエラー吐いて学習始まらないんだよなぁ
[Place models and optimizer on GPU]切ると、vram50%ぐらい使用しながら一応動くけど
CPU使用率半端無いし遅いしで使いものにならないし
907名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/19(土) 17:49:40.95ID:t8IeWd2z0 DFスレ民の給与とかクソどうでもいいんだが
908名無しさん@お腹いっぱい。 (ワッチョイ 0fb0-FZ4g)
2020/12/19(土) 17:54:16.28ID:U4XvjCW70 エアプ会社員が大暴れしてるのふふってなる
909名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/19(土) 20:52:19.53ID:bUqQTCjA0 そんな事より素材スレか合成レシピを書き込むページを誰か作って
910名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/19(土) 21:52:24.85ID:2gW2kMY60911名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/19(土) 22:33:55.48ID:D0kdx6n60 俺の1080じゃ更新無理かなと思ってたけど一応build_12_16_2020落として使ってみた
liae-udのres192だけど、今の所モデルそのまんまで速度も変わらず使えてる
lr_dropoutが無くなったので代わりにAdaBeliefを使うのが変わった点だろうか
liae-udのres192だけど、今の所モデルそのまんまで速度も変わらず使えてる
lr_dropoutが無くなったので代わりにAdaBeliefを使うのが変わった点だろうか
912名無しさん@お腹いっぱい。 (ワッチョイW 7311-sjWL)
2020/12/19(土) 22:55:58.53ID:0D39FK5s0 3月の下旬にリリースされたバージョンでずっとやってるんですが、今時のバージョンは、顔の抽出精度も向上していますか?
今使ってるバージョンだと、連続シーンなのに、顔が抽出されないコマがあったりするので、向上しているなら久しぶりにバージョンを上げようかと思うのですが。
今使ってるバージョンだと、連続シーンなのに、顔が抽出されないコマがあったりするので、向上しているなら久しぶりにバージョンを上げようかと思うのですが。
913名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/19(土) 23:28:59.68ID:KmwJgewt0 私の場合は3000buildの12月のバージョンが出ていたのでダウンロードして使っています。XSegのトレーニング以外はきちんと動いています。ただ顔の抽出がたまにおかしくなりますね。
914名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/20(日) 01:37:01.79ID:DL1vCqlY0 まだやってないけど顔の抽出は俺が使い始めた去年の春ぐらいから基本何も変化がない
915名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/20(日) 09:31:03.88ID:7xq9z9kO0 顔抽出の精度とかはDFLの範疇じゃないでしょ
別の人の研究のS3FDとかのモデルの顔のバリエーション、Train具合次第では?
別の人の研究のS3FDとかのモデルの顔のバリエーション、Train具合次第では?
916名無しさん@お腹いっぱい。 (ワッチョイW 7311-sjWL)
2020/12/20(日) 10:43:32.57ID:3O97qwdj0917名無しさん@お腹いっぱい。 (ワッチョイW 7311-sjWL)
2020/12/20(日) 10:48:37.88ID:3O97qwdj0 >>915
S3FDがdflの作者と違うのは知ってたんですが、そろそろバージョンアップされてないかな〜と思いまして
S3FDの精度が高くなれば、ずっと作業が楽になるのに…というかmodelが鍛えられてしまえば、debug作業しか時間は取られないわけで
S3FDがdflの作者と違うのは知ってたんですが、そろそろバージョンアップされてないかな〜と思いまして
S3FDの精度が高くなれば、ずっと作業が楽になるのに…というかmodelが鍛えられてしまえば、debug作業しか時間は取られないわけで
918名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/20(日) 13:48:59.44ID:oNCgA0e7d 質問
初めて動画作成まで行ったんだが、完成した動画の顔がボヤケててそもそもSRCの顔が適用されてない気がする
trainは12時間やったんだがこれって何が原因?
初めて動画作成まで行ったんだが、完成した動画の顔がボヤケててそもそもSRCの顔が適用されてない気がする
trainは12時間やったんだがこれって何が原因?
919名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/20(日) 15:50:33.84ID:hFMQVgz60 train何時間とかじゃなくてpreviewの顔とloss値見ろ
ついでに言うとpretrain済だとしても12時間じゃ足りない
ついでに言うとpretrain済だとしても12時間じゃ足りない
920名無しさん@お腹いっぱい。 (ワッチョイW 5358-sv8k)
2020/12/20(日) 16:21:20.42ID:Xv9J0g2I0921名無しさん@お腹いっぱい。 (ワッチョイ 1f58-22vh)
2020/12/20(日) 17:18:08.61ID:bviIK2bX0 スルーしろよボケ
922名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/20(日) 17:24:36.07ID:oNCgA0e7d lossってどこに出る?
もう分けがわからん
もう分けがわからん
923名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/20(日) 17:33:52.12ID:hFMQVgz60 lossが分からないのは草
そのレベルだったらもう無理だわ
そのレベルだったらもう無理だわ
924名無しさん@お腹いっぱい。 (ワッチョイ 8be8-FZ4g)
2020/12/20(日) 18:47:41.72ID:GHbUYMoT0925名無しさん@お腹いっぱい。 (ラクッペペ MMe6-fNDA)
2020/12/20(日) 19:49:44.32ID:mMWU7kDFM pretrainってのはトレーニングの再利用ってことだよな?
926名無しさん@お腹いっぱい。 (ワッチョイW ea6d-PSda)
2020/12/20(日) 19:54:04.73ID:+gDZrhSb0 やべえな、マニュアル読めねえレベルか
927名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 20:09:43.69ID:E0I/MuaR0 何回かやれば、ってその何回もやるのが無駄すぎでしょ
たかだか2分の動画でなんで100時間かけないとあかんねん
これがAIの最先端って?笑わせんな
たかだか2分の動画でなんで100時間かけないとあかんねん
これがAIの最先端って?笑わせんな
928名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 20:14:04.54ID:E0I/MuaR0 まともな社会人でできるやついねえよこんなもん
aviutlと同時起動で双方の効率終わるし使えるのは寝てる時だけ
そうなると電気代が終わる
aviutlと同時起動で双方の効率終わるし使えるのは寝てる時だけ
そうなると電気代が終わる
929名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/20(日) 20:32:56.32ID:DL1vCqlY0 まあそれはそれとして
1220出た
lr_dropoutまた使えるようになった
目と口が優先できるオプションになった
1220出た
lr_dropoutまた使えるようになった
目と口が優先できるオプションになった
930名無しさん@お腹いっぱい。 (ワッチョイ 8be8-FZ4g)
2020/12/20(日) 20:58:32.75ID:GHbUYMoT0931名無しさん@お腹いっぱい。 (ワッチョイW ea6d-PSda)
2020/12/20(日) 21:42:53.64ID:+gDZrhSb0 >>927
百時間掛かるとしたら、お前の環境がしょぼいか、やり方が下手なだけだわ
つうかDFLの内容は最先端ではない。例えば、最先端の論文検証を民生用のグラボ一枚でやろうとしたら試算上で一年とかざらだぞ、アホらしくてやらないけども。
百時間掛かるとしたら、お前の環境がしょぼいか、やり方が下手なだけだわ
つうかDFLの内容は最先端ではない。例えば、最先端の論文検証を民生用のグラボ一枚でやろうとしたら試算上で一年とかざらだぞ、アホらしくてやらないけども。
932名無しさん@お腹いっぱい。 (ワッチョイ 4ac0-FZ4g)
2020/12/20(日) 21:50:25.73ID:5bFtS3MH0933名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
2020/12/20(日) 22:08:30.46ID:2udGUMJa0 だれかグラボ3枚で顔抽出やった人いる?
適当なグラボ2枚で動くのは確認した。
(今のところ3080で顔抽出が一番遅いからなんとかしたい)
適当なグラボ2枚で動くのは確認した。
(今のところ3080で顔抽出が一番遅いからなんとかしたい)
934名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 22:42:51.91ID:E0I/MuaR0 人物変えて、のくだりがよくわからん
それってフォルダーにdstの名前のやつ入れてtrain削除して〜、っていうのを繰り返すのか?
だとしたら、よくわからん不出来な素材で試してた結果、経験積ませたと思ってたが実際はできてなかったとかあるんじゃないの?
それってフォルダーにdstの名前のやつ入れてtrain削除して〜、っていうのを繰り返すのか?
だとしたら、よくわからん不出来な素材で試してた結果、経験積ませたと思ってたが実際はできてなかったとかあるんじゃないの?
935名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 22:45:31.54ID:E0I/MuaR0 dstじゃなくてSRCだったわ
あと、その過程はworkにある1234567の全部をやっていかなくちゃだめなの?
できることならtrainは最小限でやりたいんだが
あと、その過程はworkにある1234567の全部をやっていかなくちゃだめなの?
できることならtrainは最小限でやりたいんだが
936名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/20(日) 22:56:05.15ID:DL1vCqlY0 わざわざ答えるやつがいるからこういう流れになるんだよ
937名無しさん@お腹いっぱい。 (スップ Sd2a-8jHH)
2020/12/20(日) 23:14:46.80ID:YhrtOCdPd 試験的な実装をしているとか、それこそ少し上でも出たような「一部のアルゴリズムを最近のものに変更しました」みたいなforkってあったりするの?
見てみようと思ったら、forkの数が5.1kとかあって見る気が失せた。
見てみようと思ったら、forkの数が5.1kとかあって見る気が失せた。
938名無しさん@お腹いっぱい。 (ワッチョイ 1f58-FZ4g)
2020/12/21(月) 02:45:54.07ID:pw3nSI350 Eyes priority is replaced with Eyes and mouth priority,
Helps to fix eye problems during training like "alien eyes" and wrong eyes direction.
Also makes the detail of the teeth higher.
New default values with new model:
Archi : ‘liae-ud’
AdaBelief : enabled
Helps to fix eye problems during training like "alien eyes" and wrong eyes direction.
Also makes the detail of the teeth higher.
New default values with new model:
Archi : ‘liae-ud’
AdaBelief : enabled
939名無しさん@お腹いっぱい。 (エムゾネW FF8a-gfaQ)
2020/12/21(月) 03:53:55.12ID:y+LGPGS5F 試行錯誤もせず自分の不勉強を棚に上げて勝手にキレ始めるやつにはそもそも向いてない
諦めろ
諦めろ
940名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/21(月) 05:24:06.78ID:zpyty4uo0 二週間前からまったく成長してなさそうだな
941名無しさん@お腹いっぱい。 (アウアウウー Sa9f-PSda)
2020/12/21(月) 09:33:17.32ID:iKBrrl3Ia >>936
確かにな
確かにな
942名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/21(月) 10:55:47.63ID:q5W6Tk/kd >>934について誰か答えてほしい
943名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/21(月) 12:00:01.92ID:q5W6Tk/kd 訓練って、そもそもどうやるのかわからんのだがチュートリアルとか今ないのか?
違う人物5人でやるにしても1人何時間やるのか、どのデータを消してどれを残すのか、どういう動画をやるのかとか重要な点がない
違う人物5人でやるにしても1人何時間やるのか、どのデータを消してどれを残すのか、どういう動画をやるのかとか重要な点がない
944名無しさん@お腹いっぱい。 (ワッチョイ 6603-FZ4g)
2020/12/21(月) 12:45:45.74ID:tH216XgZ0 久々に復帰したけどDeepFaceLab_NVIDIAってやつエラーで動かんわ
前使ってたDeepFaceLab_CUDA_9.2_SSEは動いたけど、最新版に乗り換える意味ってある?
前使ってたDeepFaceLab_CUDA_9.2_SSEは動いたけど、最新版に乗り換える意味ってある?
945名無しさん@お腹いっぱい。 (ワッチョイW 7392-gfaQ)
2020/12/21(月) 14:01:25.19ID:kJCDsbLq0 >>943
youtubeに外人が山ほどチュートリアル動画上げてるけど
自動翻訳で字幕も出せるしそれ見てこいよ
わからない単語はググってください
界隈特有の単語や意味はありません
DFなんて自己満足の極みだから君がほしい何を何回、何時間とかの正解なんてある訳ないんだよ
youtubeに外人が山ほどチュートリアル動画上げてるけど
自動翻訳で字幕も出せるしそれ見てこいよ
わからない単語はググってください
界隈特有の単語や意味はありません
DFなんて自己満足の極みだから君がほしい何を何回、何時間とかの正解なんてある訳ないんだよ
946名無しさん@お腹いっぱい。 (アウアウウー Sa9f-sv8k)
2020/12/21(月) 14:32:18.90ID:W2JMuyVIa >>943
wikiもマニュアルもあるからまず電子辞書買ってこい
wikiもマニュアルもあるからまず電子辞書買ってこい
947名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/21(月) 15:05:57.23ID:kxUGQTO/0 どんなにAIの最先端であっても使い手がこれじゃね
豚に真珠
豚に真珠
948名無しさん@お腹いっぱい。 (ワッチョイW be02-xWwc)
2020/12/21(月) 18:21:38.23ID:3PezdazN0 このスレって一体なんの為にあるのかわからんよな
俺も初心者の頃なんの利益にもならなかったよ
俺も初心者の頃なんの利益にもならなかったよ
949名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/21(月) 18:33:31.32ID:q5W6Tk/kd950名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/21(月) 18:48:41.07ID:7+ICaAmz0 うーんこの
951名無しさん@お腹いっぱい。 (ワッチョイW 7b73-A7VK)
2020/12/21(月) 18:51:15.66ID:fxMF7jBF0 ギリ健か?生きるの大変そうやな
952名無しさん@お腹いっぱい。 (ワッチョイ 4ae8-FZ4g)
2020/12/21(月) 20:08:17.23ID:6XqIYiVD0 maskの修正するときにtrainされたmaskの形から修正できたらいいのにってすごく思う。
953名無しさん@お腹いっぱい。 (アウアウウー Sa9f-PSda)
2020/12/21(月) 20:35:43.20ID:jru9VoQqa >>949
中学生かよw諦めろw
中学生かよw諦めろw
954名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
2020/12/21(月) 21:02:37.11ID:N17igtqX0 すごく初心者的質問になるかもしれないが、ぶっちゃけ、学習してモデルをつくるという仕組みをよく理解できていない。
いろんな角度の画像を覚えこまして、新しいはめ込む動画のもとの顔がこういう角度でこういう表情だから、data_srcのか中に顔の中で一番いいやつを探してきて、これをコラするよ(場合によっては目はこの画像で、口はこれがいいなとかパーツごとに判断して)、
ということなのか、それとも、いろんな角度の画像を勉強して、この顔のいろんな方向からの顔のデータを作って、この方向でこういう表現をしているdstの顔に、学習してできた顔のデータを再生するよということなんか。
どっちなんでしょう。
前者であれば、あくまでも張り付けるパーツの画像が必要なので、それがきれいでなければいくら学習してもうまくいかないが、後者なら、いったん顔のデータ作れさえすれば、あとはきれいな画像を作り上げてくれるということになる。
ゴミをいくら張り付けてもゴミのままになる。
そういう意味で、最初の素材選びは、いい勉強をしてらうというより、いいパーツを集めることにも影響するから最重要ということなるよね。
どっちなんでしょう?
いろんな角度の画像を覚えこまして、新しいはめ込む動画のもとの顔がこういう角度でこういう表情だから、data_srcのか中に顔の中で一番いいやつを探してきて、これをコラするよ(場合によっては目はこの画像で、口はこれがいいなとかパーツごとに判断して)、
ということなのか、それとも、いろんな角度の画像を勉強して、この顔のいろんな方向からの顔のデータを作って、この方向でこういう表現をしているdstの顔に、学習してできた顔のデータを再生するよということなんか。
どっちなんでしょう。
前者であれば、あくまでも張り付けるパーツの画像が必要なので、それがきれいでなければいくら学習してもうまくいかないが、後者なら、いったん顔のデータ作れさえすれば、あとはきれいな画像を作り上げてくれるということになる。
ゴミをいくら張り付けてもゴミのままになる。
そういう意味で、最初の素材選びは、いい勉強をしてらうというより、いいパーツを集めることにも影響するから最重要ということなるよね。
どっちなんでしょう?
955名無しさん@お腹いっぱい。 (ワッチョイ 4ae8-FZ4g)
2020/12/21(月) 21:14:52.49ID:6XqIYiVD0 >>954
俺も最近やり始めながら同じことを悩んでたわ。
どちらかというと前者なのかなと思ってる。
だから素材選びは大事なのかなーと。。。
loss値が小さくなるってのがAIさんが今ある素材で限界までがんばりました。
ってことか思ってる。
あってるんでしょうか?こういうことはマニュアルにも書いてないから気になる。
教えて!詳しい人!
俺も最近やり始めながら同じことを悩んでたわ。
どちらかというと前者なのかなと思ってる。
だから素材選びは大事なのかなーと。。。
loss値が小さくなるってのがAIさんが今ある素材で限界までがんばりました。
ってことか思ってる。
あってるんでしょうか?こういうことはマニュアルにも書いてないから気になる。
教えて!詳しい人!
956名無しさん@お腹いっぱい。 (ワッチョイ dbe5-22vh)
2020/12/21(月) 21:24:53.56ID:zkwZdfnQ0 前者。瞬きしてない src ばかり集めたら瞬きしない result しか出来ない
モデルというのはモデリングしたもの、ではない
モデルというのはモデリングしたもの、ではない
957名無しさん@お腹いっぱい。 (ワッチョイ 4ae8-FZ4g)
2020/12/21(月) 21:40:48.65ID:6XqIYiVD0958名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/21(月) 22:18:04.81ID:+Y0CGwjB0 AdaBelief結構すごいな
ちょっとアルゴリズムが変わっただけかと思ったら、学習かなり速いんだね
ちょっとアルゴリズムが変わっただけかと思ったら、学習かなり速いんだね
959名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/21(月) 23:10:48.00ID:xr7dB6O0p 後者だよ。
ただ3Dとかパーツごとの意味を分かって描いてる訳じゃない。絵として判断してsrcっぽい絵を生成してる。
ずっと笑顔なら笑顔=srcっぽい絵なんだからそうなる。
src側の出力はsrcの画像だけ学習してるから、srcに無いものは生成出来ない。pretrainしてたりモデル引き継げばそれ参照できるから結果再現度あがる。
ただ3Dとかパーツごとの意味を分かって描いてる訳じゃない。絵として判断してsrcっぽい絵を生成してる。
ずっと笑顔なら笑顔=srcっぽい絵なんだからそうなる。
src側の出力はsrcの画像だけ学習してるから、srcに無いものは生成出来ない。pretrainしてたりモデル引き継げばそれ参照できるから結果再現度あがる。
960名無しさん@お腹いっぱい。 (ワッチョイ daae-Gz4g)
2020/12/22(火) 00:00:02.11ID:u3Jf/Qex0961名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 08:11:36.66ID:OvF2fd0Bd >>943
に答えてくれ誰か
に答えてくれ誰か
962名無しさん@お腹いっぱい。 (ワッチョイW c3c9-dJ1Z)
2020/12/22(火) 08:51:27.26ID:R/BwnKDK0 こんなくそ知識のところで聞いても意味ないよ
初心者馬鹿にしてるやつがそもそも初心者なんだから
dstxdstもモデルの引き継ぎもディベロッパー全員否定してる
信頼できるのはdflのgithub, telegram(ロシア語)、faceswapのdiscord, 公式くらいでmrも怪しい
翻訳のやり方から勉強しな
初心者馬鹿にしてるやつがそもそも初心者なんだから
dstxdstもモデルの引き継ぎもディベロッパー全員否定してる
信頼できるのはdflのgithub, telegram(ロシア語)、faceswapのdiscord, 公式くらいでmrも怪しい
翻訳のやり方から勉強しな
963名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/22(火) 09:01:44.67ID:Rc7+cPYsp964名無しさん@お腹いっぱい。 (ワッチョイW c3c9-Xl0H)
2020/12/22(火) 09:39:19.83ID:R/BwnKDK0 転移学習とmodelの使いまわしの違いがわかってないから言ってんだよ
間違った知識を広めてるという自覚を持ってね
間違った知識を広めてるという自覚を持ってね
965名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/22(火) 10:22:57.12ID:vA2c7czk0 だから自分で調べろって書いてんのにそれを否定してんのがこの質問者なんだよ
966名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 12:02:45.51ID:OvF2fd0Bd >>963
ってことはDSTって名前の動画が何個もあって良いってこと?
ってことはDSTって名前の動画が何個もあって良いってこと?
967名無しさん@お腹いっぱい。 (ワッチョイW 7392-gfaQ)
2020/12/22(火) 12:38:07.85ID:4S+Lba/00 ID:q5W6Tk/kd
こいつヤバいな
こいつヤバいな
968名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-WSGO)
2020/12/22(火) 13:15:39.79ID:GHeJZOBNp data_dst
data_dst_A01
data_dst_A02
data_dst_A01
data_dst_A02
969名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/22(火) 13:52:53.11ID:qQgXnR8U0 触ってみてから質問すればいいのに触りすらしないから理解もできない
970名無しさん@お腹いっぱい。 (ワッチョイ 6603-FZ4g)
2020/12/22(火) 14:07:35.90ID:3SAtxVKw0 質問に誰も答えれてない時点で自分以下のバカしか居ないんだからここで聞くだけ無駄
971名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/22(火) 14:37:02.94ID:Rc7+cPYsp ファインチューニングって言うのが正しいのかな?
972名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/22(火) 16:50:14.66ID:x1pl3Cvw0 >>962
dstxdstはXseg Maskさぼった時に、liae-udでは有効だったけど
df-udでは無効
モデルの引き継ぎが無効とは、モデル使いまわしが無効だとでも?
いちいち新規から学習なのか?
フォーラムに上がっているTrain済のモデルの意味合いは?
Pretrainも無効なんでしょ
dstxdstはXseg Maskさぼった時に、liae-udでは有効だったけど
df-udでは無効
モデルの引き継ぎが無効とは、モデル使いまわしが無効だとでも?
いちいち新規から学習なのか?
フォーラムに上がっているTrain済のモデルの意味合いは?
Pretrainも無効なんでしょ
973名無しさん@お腹いっぱい。 (ワッチョイ 1f58-22vh)
2020/12/22(火) 17:00:42.15ID:PSLszAIf0 間違った知識は訂正しても他人が賢くなるだけだからそのまま放置するのが基本
974名無しさん@お腹いっぱい。 (ワッチョイ 8be8-FZ4g)
2020/12/22(火) 17:01:20.46ID:6E3YQXis0 作りたいのが一人だとしてもそのsrcだけじゃなく色んな表情や画角を学習させないと自然な仕上がりにならない
アイドルだけ作ってるやつは全部笑顔か無表情になる
アイドルだけ作ってるやつは全部笑顔か無表情になる
975名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 17:06:25.68ID:D3kaqk9w0 >>974
そうなんですよね。1人の顔でもいろんな表情で、光の当たり方、角度を混ぜたデータセットを作らないと綺麗なのは出来ないですね。しかもデータセットが大きすぎても結果は悪くなるので綺麗な画像をちゃんと選ぶのがコツかと。
そうなんですよね。1人の顔でもいろんな表情で、光の当たり方、角度を混ぜたデータセットを作らないと綺麗なのは出来ないですね。しかもデータセットが大きすぎても結果は悪くなるので綺麗な画像をちゃんと選ぶのがコツかと。
976名無しさん@お腹いっぱい。 (ワッチョイW c3c9-dJ1Z)
2020/12/22(火) 17:20:11.28ID:R/BwnKDK0 大半が>>972みたいな馬鹿だからなんの議論にも発展しない
事前学習、転移学習、ファインチューニングとモデルの使い回しは違う
おま環であーだこーだ言ってるだけのクソスレ
匿名でやってても誰が正しいかもわからないでしょ?下手くそ量産するだけだし、初心者にも害悪だからこんなスレやめた方がいいよ
事前学習、転移学習、ファインチューニングとモデルの使い回しは違う
おま環であーだこーだ言ってるだけのクソスレ
匿名でやってても誰が正しいかもわからないでしょ?下手くそ量産するだけだし、初心者にも害悪だからこんなスレやめた方がいいよ
977名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/22(火) 18:23:06.06ID:y/trkkeh0 何か聞きたいならTwitterの職人で優しそうな奴に聞けってそれ一番言われてるから
978名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 18:41:03.86ID:OvF2fd0Bd このスレ無くせ、とかいうくせ、ちゃっかり定期的に見に来るんだぞ
すまんが議論はよそでやれな?
ここは討論会じゃねえよ
すまんが議論はよそでやれな?
ここは討論会じゃねえよ
979名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 18:41:56.59ID:OvF2fd0Bd >>977
なお誰かまでは言えない模様
なお誰かまでは言えない模様
980名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
2020/12/22(火) 18:46:26.49ID:lphrcyjs0 >>954
素材がいいに越したことはない
これはまさしくその通りなんだけど、srcを一つの動画ファイルから作るだけでいいのか、できるだけいろんなものから作ればいいのか、
抜き出しのfpsは30で全フレーム出したほうがいいのか、よくないのか。
あるいは顔を動かしてぶれているような画像は、画像としては微妙だけど、動きのコマとして有用なのか。
そもそも学習させる元のファイルは多ければ多いほどいいのか。
ほぼ重複しているような画像は必要か、不要だとしたらどれぐらいの違いがあるか。
とか、色々最近悩んでいて、一通りモデル作ってみたんで、量産に入りたいなあと思い、
そのためには、モデルの作り方の最適解を探したいなあと思っとるんです。
限られたパワーで、モデルの解像度に振り分けるのか、liaeモデルを使うほうがいいのか、バッチサイズを優先してあげたほうがいいのかなど、色々むずかしいですなあ。
素材がいいに越したことはない
これはまさしくその通りなんだけど、srcを一つの動画ファイルから作るだけでいいのか、できるだけいろんなものから作ればいいのか、
抜き出しのfpsは30で全フレーム出したほうがいいのか、よくないのか。
あるいは顔を動かしてぶれているような画像は、画像としては微妙だけど、動きのコマとして有用なのか。
そもそも学習させる元のファイルは多ければ多いほどいいのか。
ほぼ重複しているような画像は必要か、不要だとしたらどれぐらいの違いがあるか。
とか、色々最近悩んでいて、一通りモデル作ってみたんで、量産に入りたいなあと思い、
そのためには、モデルの作り方の最適解を探したいなあと思っとるんです。
限られたパワーで、モデルの解像度に振り分けるのか、liaeモデルを使うほうがいいのか、バッチサイズを優先してあげたほうがいいのかなど、色々むずかしいですなあ。
981名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
2020/12/22(火) 18:48:27.16ID:lphrcyjs0 そのためにも、ある程度構造を理解しないといけないなあということになって、ぶっちゃけ今更ながらよく理解せずにつくっているなあと。
982名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/22(火) 19:22:49.10ID:y/trkkeh0 十分素材が充実(表情、角度的な意味で)してるなら一続きの動画で構わないけど実際問題難しい、ドラマの主演で1シーズン分素材があるとかなら話は別だけど
抜き出しは30fpsも要らない、10以下で抽出してさらにボヤけてるものとかを間引けばok
ボヤけてるsrcは不要、dstがボヤけてればmergeで勝手にボヤける
正面付近のシーンをメインで作るならdf、側面などもしっかり作りたいならliae
抜き出しは30fpsも要らない、10以下で抽出してさらにボヤけてるものとかを間引けばok
ボヤけてるsrcは不要、dstがボヤけてればmergeで勝手にボヤける
正面付近のシーンをメインで作るならdf、側面などもしっかり作りたいならliae
983名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 19:32:49.28ID:D3kaqk9w0 YouTubeで海外非エロdeepfakeを作ってるShamookって人は、映画3作くらいから顔を抽出してるらしいです。srcは大体8000枚(ぼやけてるやつ、同じような物は間引いて)で、トレーニングしてて、300万回くらいiterしてましたよ。参考になるか分かりませんが。。
984名無しさん@お腹いっぱい。 (ワッチョイW be02-xWwc)
2020/12/22(火) 19:39:37.32ID:rcl3oPSM0 DVDとか変えたら髪型、化粧変わってもはや別人なのにこれでもデータは多いほうが良いのか、それとも似てるやつだけを取捨選択したほうがいいの?
985名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/22(火) 20:03:50.31ID:Rc7+cPYsp どれだけ集められるかにもよるけど可能なら自分の思ってるイメージに近いメイクだけにしておいた方が無難。明るさとか色合い表情画角は多彩にな。5fpsで似た画像は削除してる。目閉じてるの足りないこと多いからそこも忘れずに。
どうせ議論厨に間違ってるって言われるんだろうけどなw
どうせ議論厨に間違ってるって言われるんだろうけどなw
986名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 20:05:28.26ID:D3kaqk9w0 >>984
髪型は関係ないと思います。ただ化粧は影響してくると思います。なるべく同じような化粧で、違うアングルや表情、ライティングを集めた方が無難かと。ただ違う化粧(ギャルvs清楚)見たいなデータでトレーニングしてないのでなんとも言えないですが。。
髪型は関係ないと思います。ただ化粧は影響してくると思います。なるべく同じような化粧で、違うアングルや表情、ライティングを集めた方が無難かと。ただ違う化粧(ギャルvs清楚)見たいなデータでトレーニングしてないのでなんとも言えないですが。。
987名無しさん@お腹いっぱい。 (ワッチョイW c3c9-Xl0H)
2020/12/22(火) 20:09:42.38ID:R/BwnKDK0 それはあってるぞ自信持って!!
988名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 20:19:10.89ID:D3kaqk9w0 もし、Pythonが使えるならPySceneDetectお勧めです。これで映画をシーンごとに分割してくれるから、やり易くなりますよ。
989名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/22(火) 21:22:12.74ID:HawVq19D0990名無しさん@お腹いっぱい。 (アウアウウー Sa9f-PSda)
2020/12/22(火) 22:22:01.70ID:OGfDfqvba >>976
はいはいw
はいはいw
991名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/22(火) 22:54:42.26ID:vA2c7czk0 映画とかで使えそうなシーンをカット編集しても10分〜多くて20分程度にしかならないから
コマ送りして一枚ずつpng出力してるわ
ピンボケもすぐ分かるし瞬きの瞬間は細かくとか動きのないシーンは飛ばしてとか
直感的に操作しやすいから取りこぼしも少なくなるし
分割した数万枚の画像とにらめっこするより作業が雑になりにくく少ない枚数で質のいい素材を集められる
まあどうやるかは好みだけど
コマ送りして一枚ずつpng出力してるわ
ピンボケもすぐ分かるし瞬きの瞬間は細かくとか動きのないシーンは飛ばしてとか
直感的に操作しやすいから取りこぼしも少なくなるし
分割した数万枚の画像とにらめっこするより作業が雑になりにくく少ない枚数で質のいい素材を集められる
まあどうやるかは好みだけど
992名無しさん@お腹いっぱい。 (ワッチョイW 7b73-A7VK)
2020/12/22(火) 23:12:32.54ID:cfhcugtO0 みんなすごいなあ
誰に見せるでもないから適当に拾った5分くらいの動画を30fpsでバラして
顔抽出出来てるのは全部使ってそれで作ってるわ
なんならdstも正面中心で編集して面倒そうなシーンは端から切ってる
さっきTBSでやってた山里の眼鏡ごとsrcにするのとかめっちゃ面倒そうやな
誰に見せるでもないから適当に拾った5分くらいの動画を30fpsでバラして
顔抽出出来てるのは全部使ってそれで作ってるわ
なんならdstも正面中心で編集して面倒そうなシーンは端から切ってる
さっきTBSでやってた山里の眼鏡ごとsrcにするのとかめっちゃ面倒そうやな
993名無しさん@お腹いっぱい。 (ワッチョイW 1f58-6v99)
2020/12/22(火) 23:19:24.17ID:PSLszAIf0 これもう次スレ要らないぞ
更新速報や3000番の報告なんかは有用だったけど
他はもう何回目だよって同じ話しかしてない
更新速報や3000番の報告なんかは有用だったけど
他はもう何回目だよって同じ話しかしてない
994名無しさん@お腹いっぱい。 (ワッチョイ ff8b-Vck4)
2020/12/23(水) 00:24:23.79ID:7Gy0dGBD0 お前が来なけりゃいだろ
995名無しさん@お腹いっぱい。 (ワッチョイ 5b03-80jV)
2020/12/23(水) 05:58:27.97ID:uPvo6CHK0 知識なくて付いてこれないから悔しいんだね・・・
996名無しさん@お腹いっぱい。 (ワンミングク MMff-w8eF)
2020/12/23(水) 09:44:35.36ID:RMFN9dQhM >>993
wikiでも作って誘導したらいいやん
wikiでも作って誘導したらいいやん
997名無しさん@お腹いっぱい。 (ササクッテロル Sp1f-a9Ct)
2020/12/23(水) 12:11:48.68ID:Yx1pqwCnp >>996
作りましょうか?
作りましょうか?
998名無しさん@お腹いっぱい。 (ワッチョイ 5373-OmO1)
2020/12/23(水) 12:19:16.75ID:bUB4e3R50 日記地獄じゃん
999名無しさん@お腹いっぱい。 (ワッチョイ 5d76-yePO)
2020/12/23(水) 17:20:05.03ID:MVaI8uh/0 ここでキレて喚いてる無能者の問題点は、門外漢の無知無能が
いきなり裸でポークビッツ握りしめて正座してるってとこなの。
猿や金魚の刷り込みみたいに覚えたトコロで、ロクなモンは出来ないし
RTX3090がどうこうってのはヘタコの手抜きに貢献するだけ。
ワカランうちは、遅いGPUで速く学習出来るデータセット作成の腕を磨く方が身のため。
ぶっちゃけ、適切な画像とランドマークのデータセットなら
1.0のCPUでもDF128なら数日でモノになる。
1.0終盤に追加されたコンバート時のGAN系の高精細オプションは
通常の倍程度のコンバート負荷のみで抜群の性能を発揮するから、
FHD中サイズでも128でカバー出来る精細さを実現してるし。
加えて、他の動画編集ソフトを使いこなせる知識と各種フォーマット知識も無いと
どれだけ良いマージ画像が出来ても、色合わせや輪郭合わせが上手く出来ない。
この知識があると、単純にオーバーレイの各種マスク処理を使わずにLeraned輪郭でマージデータ出力が
出来るから、マスク準備不要且つトレイン・マージデータ出力が異様に速く済む。
アルファマスク出力指定で、動画編集ソフト側で色合わせ・マスク・輪郭ぼかしをやると
多少の異常フレームもキレイに直せるし、
そもそも元データのDst作成時に顔のみの部分出力と不要な他人等をマスク消去して
必要フレームのみ出力出来るから、Extractでの誤認識もほぼ解消出来る。
要は初心者をバカにしているのでは無く、そういった総合的なPC映像知識がAI以前に必要なんだよ。
いきなり裸でポークビッツ握りしめて正座してるってとこなの。
猿や金魚の刷り込みみたいに覚えたトコロで、ロクなモンは出来ないし
RTX3090がどうこうってのはヘタコの手抜きに貢献するだけ。
ワカランうちは、遅いGPUで速く学習出来るデータセット作成の腕を磨く方が身のため。
ぶっちゃけ、適切な画像とランドマークのデータセットなら
1.0のCPUでもDF128なら数日でモノになる。
1.0終盤に追加されたコンバート時のGAN系の高精細オプションは
通常の倍程度のコンバート負荷のみで抜群の性能を発揮するから、
FHD中サイズでも128でカバー出来る精細さを実現してるし。
加えて、他の動画編集ソフトを使いこなせる知識と各種フォーマット知識も無いと
どれだけ良いマージ画像が出来ても、色合わせや輪郭合わせが上手く出来ない。
この知識があると、単純にオーバーレイの各種マスク処理を使わずにLeraned輪郭でマージデータ出力が
出来るから、マスク準備不要且つトレイン・マージデータ出力が異様に速く済む。
アルファマスク出力指定で、動画編集ソフト側で色合わせ・マスク・輪郭ぼかしをやると
多少の異常フレームもキレイに直せるし、
そもそも元データのDst作成時に顔のみの部分出力と不要な他人等をマスク消去して
必要フレームのみ出力出来るから、Extractでの誤認識もほぼ解消出来る。
要は初心者をバカにしているのでは無く、そういった総合的なPC映像知識がAI以前に必要なんだよ。
1000名無しさん@お腹いっぱい。 (ワッチョイ 6bb0-80jV)
2020/12/23(水) 17:40:14.84ID:uy94Yqmx0 御託はいいからお前の作品見せてみろよ
10011001
Over 1000Thread このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 289日 20時間 11分 49秒
新しいスレッドを立ててください。
life time: 289日 20時間 11分 49秒
10021002
Over 1000Thread 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。
ニュース
- 【文春】スクープ撮 指原莉乃(32)、年下ライダー俳優と“14年推し” 真剣交際 [冬月記者★]
- 【MLB】負傷者リスト入り・佐々木朗希、診断結果を正式発表 『右肩インピンジメント症候群』を発症… 長期離脱必至 [冬月記者★]
- 地方創生「どうしてもやりたい」 石破首相、人口減少に危機感 [首都圏の虎★]
- 元フジアナAさんが中居正広側の"反論"に胸中告白「これまで聞いていた内容と違うので困惑」「嫌な思いがフラッシュバック」 [Ailuropoda melanoleuca★]
- 【🗻】市長「道楽で富士山に登る人を公費で救う必要あるか」…ヘリは1時間40万円、救助は命がけ ★2 [ぐれ★]
- 「国民は暗殺者なの?」“愛子さまの万博警備”批判投稿が炎上、厳戒態勢の背景に“火炎瓶・刃物”事件 [夜のけいちゃん★]
- 【石破悲報】Kindle for Androidアプリ(v8.51以前)、2025年5月26日以降Kindleコンテンツのダウンロードができなくなる。残り12日だぞ… [803137891]
- 外人「日本のアニメは絶対に黒人を出さない」 [576132833]
- Xの連中って「叩いていい奴」を見つけたときになんで集団バーサーカーになるの? [289416686]
- 【トランプ悲報】NVIDIA、GPU価格を最大15%値上げか [803137891]
- 金持ち国家スイス、山の救助に1000万円を請求するドケチ国家だったwwwwwwwwwwwwwジャップは見習うな [271912485]
- 【画像】女漫画家しか描かないこういうシーン、流石にキモすぎる [608329945]