deepfakesの技術交換スレです。
前スレ
【AIコラ】fakeapp その12【革命】
https://phoebe.bbspink.com/test/read.cgi/ascii/1580015540/
テンプレに書いてない質問はok
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
【AIコラ】fakeapp その13【革命】
■ このスレッドは過去ログ倉庫に格納されています
1
2020/03/08(日) 21:28:26.92608名無しさん@お腹いっぱい。 (ワッチョイW 1587-8D3Z)
2020/11/13(金) 21:30:49.17ID:Cfx3dLjb0 Srcに素材追加したい場合って最初からやり直す他方法ってない感じですか?
609名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/13(金) 21:37:24.22ID:NL8RZuj70 残したいsrcのalignedのファイル名を変えるか他に移しておいて
新しいの作ったらそこに足せばいいんじゃないの
新しいの作ったらそこに足せばいいんじゃないの
610名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 23:09:40.45ID:8NvZYbW40 >>607
srcは最大でも15,000枚程度とかあったような。。
BestでSortしてはどうでしょうか?もちろんバックアップしてから
自分はsrcのフォルダにdstをコピーして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います
学習効率を上げる仮説
【初期学習】src画像/dstは適当に1枚
randomwarp/learningmask/lrdropout/trueface等はOFFにして処理速度を上げる
ある程度(数万回?)trainする
【本番】dst画像を作りたいものにして通常trainする
これをsrcごとに行ってそれぞれの学習を進めていく
srcは最大でも15,000枚程度とかあったような。。
BestでSortしてはどうでしょうか?もちろんバックアップしてから
自分はsrcのフォルダにdstをコピーして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います
学習効率を上げる仮説
【初期学習】src画像/dstは適当に1枚
randomwarp/learningmask/lrdropout/trueface等はOFFにして処理速度を上げる
ある程度(数万回?)trainする
【本番】dst画像を作りたいものにして通常trainする
これをsrcごとに行ってそれぞれの学習を進めていく
611名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 23:15:06.67ID:8NvZYbW40 >>607
wfと言う事は、Xseg Train必須とかありましたね
srcの前髪、おでこのMaskが少なくて、XsegモデルのTrain不足とか?
Xsegモデルを5.XSeg) data_src trained mask - apply.batするとか?
wfと言う事は、Xseg Train必須とかありましたね
srcの前髪、おでこのMaskが少なくて、XsegモデルのTrain不足とか?
Xsegモデルを5.XSeg) data_src trained mask - apply.batするとか?
612名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/13(金) 23:30:25.90ID:UA22R1HH0 >>610,611
ありがとうございます。
srcはなにもソートせず、順番考えず、そのまま使っているので(もちろん、障害物や、
ぼけているやつや、ミスっている不要なのは削除済)
確かにそのせいかもしれませんね。整理してやってみます。
xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
流用するやりかたをしているので結果としては十分にマスクできているのですが、
今のdstモデルではトレーニングしてないことになるので確かにそれもあるかも
しれないなあ。
ありがとうございます。
srcはなにもソートせず、順番考えず、そのまま使っているので(もちろん、障害物や、
ぼけているやつや、ミスっている不要なのは削除済)
確かにそのせいかもしれませんね。整理してやってみます。
xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
流用するやりかたをしているので結果としては十分にマスクできているのですが、
今のdstモデルではトレーニングしてないことになるので確かにそれもあるかも
しれないなあ。
613名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 23:57:15.29ID:8NvZYbW40 >>612
ぬぬ。。
SAEHD_default_options.dat→XSeg_default_options.dat
SAEHD_data.dat→XSeg_data.dat
SAEHD_src_dst_opt→XSeg_256_opt.npy
SAEHD_inter_AB.npy→XSeg_256.npyまたは
SAEHD_decoder_dst.npy→XSeg_256.npy
って事?
ぬぬ。。
SAEHD_default_options.dat→XSeg_default_options.dat
SAEHD_data.dat→XSeg_data.dat
SAEHD_src_dst_opt→XSeg_256_opt.npy
SAEHD_inter_AB.npy→XSeg_256.npyまたは
SAEHD_decoder_dst.npy→XSeg_256.npy
って事?
614名無しさん@お腹いっぱい。 (ワッチョイW 45b1-gCq8)
2020/11/14(土) 00:02:11.48ID:vlduy/VD0 masked_trainingがoffだとプレビュー画面で見えてる四角内の全部(顔+背景)が学習対象になって、loss値の評価も四角内全部になるから絶対値が大きくでる、っていうことじゃないかな?
自分も経験してるけど、間違ってたらごめんなさい
自分も経験してるけど、間違ってたらごめんなさい
615名無しさん@お腹いっぱい。 (テテンテンテン MM4b-8D3Z)
2020/11/14(土) 00:21:24.16ID:WRZK6oIIM Dstマニュアル顔抽出で2つの顔指定することってできない?vrで片方の顔だけ自動抽出できなかった時に手動で治したいだが片方しか選択できない
616名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 00:53:13.09ID:NPdvuDuD0 masked_trainingがoff/on切り替えられる昔の版で、Onにしておかないと
最新版とかではmasked_trainingがOnにならない(モデル流用時)
新規モデル作成とかだと、無条件でOnになるはず
masked_trainingがOffのままだとまずいのでは?
旧版持っていないですか?
最新版とかではmasked_trainingがOnにならない(モデル流用時)
新規モデル作成とかだと、無条件でOnになるはず
masked_trainingがOffのままだとまずいのでは?
旧版持っていないですか?
617名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 00:55:38.11ID:NPdvuDuD0 昔、dfhdとかでやっていたので、df-ud、liae-udで無条件に新規Trainしましたね
618名無しさん@お腹いっぱい。 (ワッチョイW e5bd-PC2A)
2020/11/14(土) 01:00:01.64ID:mNQWW0LX0 DFL RTX 3000 Testが動かんくなった
Readyドライバー入れたくらいだけど原因それかな?
戻しても全然始まらんようなった
Readyドライバー入れたくらいだけど原因それかな?
戻しても全然始まらんようなった
619名無しさん@お腹いっぱい。 (ワッチョイ 1511-D0pj)
2020/11/14(土) 02:13:49.31ID:D0wIq4X20 最新版でもwfとheadはmasked_training好きにオンオフ設定できるよ。
自分はdstの顔の輪郭内に収める時は最後までmasked_trainingオンで回して
輪郭も修正したい時は学習が進んだ最後の方でオフにしてる。
自分はdstの顔の輪郭内に収める時は最後までmasked_trainingオンで回して
輪郭も修正したい時は学習が進んだ最後の方でオフにしてる。
620名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 02:33:14.42ID:NPdvuDuD0 >>612
aligned_xsegフォルダを、dst、srcフォルダの下に置いておけばいいのかな?
> xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
> 流用するやりかた
どゆこと?
aligned_xsegフォルダを、dst、srcフォルダの下に置いておけばいいのかな?
> xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
> 流用するやりかた
どゆこと?
621名無しさん@お腹いっぱい。 (オイコラミネオ MM71-Sff7)
2020/11/14(土) 06:51:24.74ID:9omkxdvPM whole faceとfull faceとheadって出来にどういう変化が出るんですか?
とりあえずwhole faceでOK?
とりあえずwhole faceでOK?
622名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/14(土) 11:58:08.44ID:X0aFYZBAa >>621
自分の体感だとheadがやっぱり一番違和感なく顔作れると思う。前髪ありdstでもけっこう自然にsrcに入れ替えられてる
自分の体感だとheadがやっぱり一番違和感なく顔作れると思う。前髪ありdstでもけっこう自然にsrcに入れ替えられてる
623名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/14(土) 13:01:47.18ID:AYNVyRpj0624名無しさん@お腹いっぱい。 (ワッチョイW 45b1-gCq8)
2020/11/14(土) 14:03:07.91ID:vlduy/VD0 日本人モデル向けに眉下で設定したX-segテンプレートほすぃ
625名無しさん@お腹いっぱい。 (ワッチョイ d558-Y0tO)
2020/11/14(土) 14:11:46.64ID:jFF2g3zy0 modelもそうだけどxsegがeditされたaligend画像が欲しいわ
フォーラム見たけどそれだけまとまってるのは見当たらなかった
翻訳しながらだから見つけられてないだけかもしれないけど
フォーラム見たけどそれだけまとまってるのは見当たらなかった
翻訳しながらだから見つけられてないだけかもしれないけど
626名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/14(土) 15:56:18.81ID:AYNVyRpj0 すまん、説明がわるかったかもしれません。
xsegモデルの件だけど、まさにそのeditされたaligned画像があったはず
2.1 [SFW] [NSFW] [GUIDE] [SHARING] - DFL 2.0 XSEG MODEL GUIDE AND SHARING THREAD
にあると思うんだけど。
xsegモデルの件だけど、まさにそのeditされたaligned画像があったはず
2.1 [SFW] [NSFW] [GUIDE] [SHARING] - DFL 2.0 XSEG MODEL GUIDE AND SHARING THREAD
にあると思うんだけど。
627名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 20:04:19.37ID:NPdvuDuD0628名無しさん@お腹いっぱい。 (ドコグロ MM93-JBbW)
2020/11/15(日) 07:59:48.94ID:C81wlwlYM 素材スレがスレストされてるな
サポートセンターみたいな真似してると此処もやばいんじゃね
更新や動作環境の話までに留めておけよ
サポートセンターみたいな真似してると此処もやばいんじゃね
更新や動作環境の話までに留めておけよ
629名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/15(日) 09:03:15.43ID:9qR/gwXk0 芸能人や女優の名前を書いてただけでアウトだから内容はあんま関係ないな
おそらくdeepfakeってスレタイで消すか決めてる
おそらくdeepfakeってスレタイで消すか決めてる
630名無しさん@お腹いっぱい。 (ワッチョイ 45e8-Y0tO)
2020/11/15(日) 14:51:32.00ID:27B76vsy0 全く問題ないんだけどもう少し目立たないスレタイにしろって事かもな
631名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/15(日) 17:10:10.48ID:CodO+bBb0 【AIコラ】fakeappはまずいと思う
DFLとか略語では?
Google検索にひっかかるけど、上位は関係無いものばかり
DFLとか略語では?
Google検索にひっかかるけど、上位は関係無いものばかり
632名無しさん@お腹いっぱい。 (ワッチョイ 4b8b-Bt6w)
2020/11/15(日) 17:15:11.59ID:r68Ev+9W0 Deepfake総合はスレストだけど新スレ立てたな
633名無しさん@お腹いっぱい。 (ドコグロ MM43-JBbW)
2020/11/15(日) 21:43:56.55ID:G1vVHissM 最初に停められたのは半角の技術スレな
コラの普及に5chを使われるのが嫌なんだろうから
此処で解説や相談はしない方がいい
コラの普及に5chを使われるのが嫌なんだろうから
此処で解説や相談はしない方がいい
634名無しさん@お腹いっぱい。 (スプッッ Sda1-bcYd)
2020/11/16(月) 01:49:51.49ID:Rmd0qmVxd 目立つとかそういうことではなくて、10月から施行された改正著作権法でリーチサイト問題が発生したから、問題あるサイトへのリンクを貼りまくる所が閉鎖されてると聞いてるが…
(書いた本人ではなくて、サイトが罰則を受ける)
半角はそういうサイトへのリンクを貼りまくってる所だから、板ごと閉鎖。スレの問題では無いでしょ。
「成果物」や「素材です」とか言って著作権違反物にリンクを貼ったらアウトだと思うよ。
(書いた本人ではなくて、サイトが罰則を受ける)
半角はそういうサイトへのリンクを貼りまくってる所だから、板ごと閉鎖。スレの問題では無いでしょ。
「成果物」や「素材です」とか言って著作権違反物にリンクを貼ったらアウトだと思うよ。
635名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/16(月) 11:04:23.47ID:3RMvypG00 技術スレも素材スレもそんなことしてなかったろ
636名無しさん@お腹いっぱい。 (ワッチョイW c574-xcA9)
2020/11/16(月) 16:56:16.74ID:Hp9O4PSG0 5chも簡単に日本の法律に従うようになったんか?
637名無しさん@お腹いっぱい。 (ワッチョイ 2311-+Iwg)
2020/11/16(月) 18:56:10.10ID:r3IEqbqg0 私日本人ニダ
うそじゃないニダ
うそじゃないニダ
638名無しさん@お腹いっぱい。 (ワッチョイ dd06-dT/H)
2020/11/16(月) 19:49:22.39ID:TeQkIxXY0 まだFansegバージョンのままでXsegに移行してないのですが
Xsegって、他の人がtrainしたXsegモデルをもらってコピペすれば使い回しできるようですが
そのXsegモデルが顔前の障害物を十分trainされたものなら、再tranせずにdstにいきなりapplyするだけで
それなりのマスクが適用されるのでしょうか?
またsrc・dstをすでに f でtrainしている場合に、wf のXsegモデルって使えるのでしょうか?
よろしくお願いします
Xsegって、他の人がtrainしたXsegモデルをもらってコピペすれば使い回しできるようですが
そのXsegモデルが顔前の障害物を十分trainされたものなら、再tranせずにdstにいきなりapplyするだけで
それなりのマスクが適用されるのでしょうか?
またsrc・dstをすでに f でtrainしている場合に、wf のXsegモデルって使えるのでしょうか?
よろしくお願いします
639名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/16(月) 20:16:30.58ID:Nq1ILe+O0 mercury.bbspink.comだと大丈夫とか?
640名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/16(月) 22:00:04.45ID:Nq1ILe+O0641名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/16(月) 22:14:16.38ID:tpAMToL/0 学習させてて、人間の目から見たら目立つとこが超最後の方でしか学習されないことあるよね
全体の肌の質感は面積が広いから学習遅くても仕方ないとして、まつ毛と唇の光沢の学習の遅さが毎回気になる
特に唇の光沢が弱いとのっぺりするから優先的に学習してもらいたい
全体の肌の質感は面積が広いから学習遅くても仕方ないとして、まつ毛と唇の光沢の学習の遅さが毎回気になる
特に唇の光沢が弱いとのっぺりするから優先的に学習してもらいたい
642名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/16(月) 22:16:40.84ID:tpAMToL/0 単にピクセル誤差を埋めるように学習するんじゃなくて、人間の目から見て重要なとこを
優先して学習するような仕組みをDFLにも取り込んでほしい
優先して学習するような仕組みをDFLにも取り込んでほしい
643名無しさん@お腹いっぱい。 (ワッチョイW 75b1-b+pk)
2020/11/16(月) 23:36:01.49ID:jbH/9GP+0 eye priority改造すれば出来るよ
644名無しさん@お腹いっぱい。 (ブーイモ MM69-kS8p)
2020/11/17(火) 12:11:41.91ID:Grit+M++M それも大事だけど目鼻口の相対位置を反映させる機能があれば革命的に良くなるのになぁ。
645名無しさん@お腹いっぱい。 (ワッチョイ ab15-NOUc)
2020/11/18(水) 08:36:41.57ID:gzVfzjLt0 今までフェイスタイプをfullで利用しておりWHOLEに挑戦してみようと思いまして。
6) train SAEHDの設定画面でフェイスタイプをfullからWHOLEに変更するにはどうしたらしたらいいんでしょうか?
ちなみにDSTとSRCはWHOLE用に細工はしています
一度FULLでやったら変えれないんでしょうか?
6) train SAEHDの設定画面でフェイスタイプをfullからWHOLEに変更するにはどうしたらしたらいいんでしょうか?
ちなみにDSTとSRCはWHOLE用に細工はしています
一度FULLでやったら変えれないんでしょうか?
646名無しさん@お腹いっぱい。 (テテンテンテン MM8e-7H2D)
2020/11/18(水) 09:08:15.36ID:l4KupGxiM facetypeってmodel毎に持ってて初回しか設定出来なくない?
もし変えたかったら新規で作るしかないのかな
もし変えたかったら新規で作るしかないのかな
647名無しさん@お腹いっぱい。 (ワッチョイ a7d7-8i2i)
2020/11/18(水) 10:50:51.58ID:u2Pu6V/j0 まずはwhole feceでextractし直さなきゃ
srcもdstも両方とも
modelも新規に作成してfece typeを選択
pretrain済みのものを拾ってきて利用してもいいけど
srcもdstも両方とも
modelも新規に作成してfece typeを選択
pretrain済みのものを拾ってきて利用してもいいけど
648名無しさん@お腹いっぱい。 (ワッチョイ 068b-jfI9)
2020/11/18(水) 18:32:48.85ID:A7yZYkB10 whole faceは日本人には意味ないって言われて、やったこと無いな
649名無しさん@お腹いっぱい。 (ワッチョイW 4b58-Cu+U)
2020/11/19(木) 00:06:05.88ID:f+2ePRJM0 何時間もCPU&GPU100%で放っておくとすぐPCぶっ壊れそうで怖いな
650名無しさん@お腹いっぱい。 (ワッチョイW 12b8-qjTi)
2020/11/19(木) 01:22:39.91ID:Xe+MizZI0 確か、fullでやっとけばそれより狭い範囲は共用できたでしょ。つまり全部fullでやっとけってこと。
651名無しさん@お腹いっぱい。 (ワッチョイ cf58-b6az)
2020/11/19(木) 02:12:53.98ID:Ml9LICjg0 範囲で言えば
head > whole > full
だぞ
head > whole > full
だぞ
652名無しさん@お腹いっぱい。 (ワッチョイW ab6d-wIQ9)
2020/11/19(木) 07:17:05.73ID:OJ4dRZrc0 >>649
この時期で壊れるなら熱排気が駄目すぎだろ
この時期で壊れるなら熱排気が駄目すぎだろ
653名無しさん@お腹いっぱい。 (ワッチョイ 57b1-cChY)
2020/11/19(木) 08:47:22.71ID:ZzKVxBnn0 RTXは3000のbuildあるけど、RX6800XTも対応したbuild出ないと使えないんかな
あの値段でVRAM16GMは魅力だから欲しいんだが
あの値段でVRAM16GMは魅力だから欲しいんだが
654名無しさん@お腹いっぱい。 (アウアウウー Sa3b-wIQ9)
2020/11/19(木) 13:38:01.85ID:0jxmCp95a655名無しさん@お腹いっぱい。 (アウアウウー Sa3b-Ocry)
2020/11/19(木) 14:30:26.24ID:lLT8dCJ1a もうAI系のソフトにRADEONは使えないだろうなぁ
Video enhance AIもRTXの方が速いし
Video enhance AIもRTXの方が速いし
656名無しさん@お腹いっぱい。 (ワッチョイ b2ad-bQi2)
2020/11/19(木) 15:27:49.81ID:8IaFnpzN0 アイドルも被害「ディープフェイク」まとめサイト管理人を逮捕。芸能団体は「違法なまとめ行為」を批判
https://news.yahoo.co.jp/articles/84edf77306b0e6385ed1819b60b1ca5a4262c839?page=1
まとめサイトにリンクを載せてた管理人が逮捕だって。
損害賠償金もアダルト業界+芸能事務所から来る可能性あるから金額えぐいだろうね。
https://news.yahoo.co.jp/articles/84edf77306b0e6385ed1819b60b1ca5a4262c839?page=1
まとめサイトにリンクを載せてた管理人が逮捕だって。
損害賠償金もアダルト業界+芸能事務所から来る可能性あるから金額えぐいだろうね。
657名無しさん@お腹いっぱい。 (ワッチョイW a376-9fGJ)
2020/11/19(木) 15:49:30.49ID:IB1CtEPv0 >>656
これがダメなら袋とじで紹介してた男性誌はどうなるんだよ
これがダメなら袋とじで紹介してた男性誌はどうなるんだよ
658名無しさん@お腹いっぱい。 (ワッチョイ 8269-Ci24)
2020/11/19(木) 16:16:37.33ID:wOOG4ccP0 今もやってるの?
659名無しさん@お腹いっぱい。 (ガラプー KK9e-yb3V)
2020/11/19(木) 16:33:41.42ID:vzLkvPa4K CPUの多コア化が加速してるし、またopenCL対応しないかな
660名無しさん@お腹いっぱい。 (ワイモマー MM02-VuZ6)
2020/11/19(木) 16:48:54.67ID:EUOL35N5M >捜査幹部は「作ることも拡散することも許されない。摘発を続けて被害を防ぎたい」としている。
ttps://www.asahi.com/articles/ASNCM3RKRNCKUTIL059.html?iref=com_latestnews_01
作るのもだめだってさ
ttps://www.asahi.com/articles/ASNCM3RKRNCKUTIL059.html?iref=com_latestnews_01
作るのもだめだってさ
661名無しさん@お腹いっぱい。 (ワッチョイ 5fb1-Cs4+)
2020/11/19(木) 18:00:34.39ID:oG9CaZVK0 国家の無知っぷりがやばいな
こんなもん誰が見てもフェイクバレバレなのに
「違和感なし」とか「本人そのもの」とかAVの売り文句みたいなのだけ聴いて
悪用されたらめっちゃやべえ技術じゃんとかジジイ達は本気で思ってるんだろうな
こんなもん誰が見てもフェイクバレバレなのに
「違和感なし」とか「本人そのもの」とかAVの売り文句みたいなのだけ聴いて
悪用されたらめっちゃやべえ技術じゃんとかジジイ達は本気で思ってるんだろうな
662名無しさん@お腹いっぱい。 (ワッチョイ 57b1-cChY)
2020/11/19(木) 18:19:06.07ID:ZzKVxBnn0663名無しさん@お腹いっぱい。 (ワッチョイ 6211-bmON)
2020/11/19(木) 20:52:36.94ID:9O2De+ee0 むしろ国は利用する方なのにな、証拠捏造で誰でも有罪にできる
664名無しさん@お腹いっぱい。 (HappyBirthday! cff1-cChY)
2020/11/20(金) 05:18:47.41ID:MxJta4TS0HAPPY 1080tiを2000系とか3000系に替えたとして現状のDFLでパフォーマンス差ってどのくらいなんだろう。
665名無しさん@お腹いっぱい。 (HappyBirthday! e2b0-b6az)
2020/11/20(金) 11:48:21.63ID:3T8qBovt0HAPPY 雲泥の差
666名無しさん@お腹いっぱい。 (HappyBirthday! Sa3b-Ocry)
2020/11/20(金) 12:40:08.29ID:eQ69zOVfaHAPPY667名無しさん@お腹いっぱい。 (HappyBirthday!W ffc9-CRcG)
2020/11/20(金) 12:48:40.78ID:1hwNZ+iS0HAPPY668名無しさん@お腹いっぱい。 (HappyBirthday! Sa3b-wIQ9)
2020/11/20(金) 12:51:17.00ID:O0M8yLpbaHAPPY まあ寝ている間に学習させているから、倍といっても二十万だす気にはならんなあ
しばらく2080tiでいこうかな
しばらく2080tiでいこうかな
669名無しさん@お腹いっぱい。 (HappyBirthday! 4b58-b6az)
2020/11/20(金) 16:53:29.34ID:+1mqpxsf0HAPPY670名無しさん@お腹いっぱい。 (HappyBirthday! 5fb1-Cs4+)
2020/11/20(金) 19:53:48.60ID:dskYLWZA0HAPPY これはいけると思っても微妙に似てない
マッチング難しい・・・
マッチング難しい・・・
671名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
2020/11/20(金) 21:22:18.95ID:28OLAj410HAPPY >>651
ごめんheadの間違い
ごめんheadの間違い
672名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
2020/11/20(金) 21:24:19.25ID:28OLAj410HAPPY ところで、3000シリーズの3Dベンチマークスコアだと
メモリクロックも重要になるって話を聞いたけど(VRAMじゃない普通のメモリね)
DFLも影響するかな。
わかる人いる?
メモリクロックも重要になるって話を聞いたけど(VRAMじゃない普通のメモリね)
DFLも影響するかな。
わかる人いる?
673名無しさん@お腹いっぱい。 (HappyBirthday! e2b0-b6az)
2020/11/20(金) 21:50:28.64ID:lXV7QsNn0HAPPY なんで影響あると思ったの?
674名無しさん@お腹いっぱい。 (ワッチョイW 12b8-qjTi)
2020/11/21(土) 00:42:20.95ID:lLtl/hBb0 3000シリーズの性能高いから安いメモリだと足引っ張るかもと思った。根拠はない。
675名無しさん@お腹いっぱい。 (ワッチョイW cf58-r+GL)
2020/11/22(日) 07:07:48.29ID:g0BUD64r0 繋がり眉毛問題だけどsrcの前髪が眉にかかってる画像だけxsegで髪のかからない部分をマスクしてtrainすれば解消する?
676名無しさん@お腹いっぱい。 (ワッチョイ 6276-cChY)
2020/11/22(日) 07:38:06.54ID:EgGZuU2e0 dst×dstの学習で有効なのはliae-hdとかみたい
df-hdだと前髪の残骸の黒い物が。。
df-hdだと前髪の残骸の黒い物が。。
677名無しさん@お腹いっぱい。 (ワッチョイW 9773-7H2D)
2020/11/22(日) 09:37:08.41ID:CPUrfaaZ0 いつもres192liae-hdでやってて初めてliae-uhd使ってみたんだけど全然loss値下がらん
時間も0.7msec/Iterくらいでいつもの倍くらいかかる
300kくらい回してやっと落ち着いてきたから一旦LRD trueにしてみたらbatch size2でもtrainスタート出来ず
DDR4 2666 32GB,i9-9900k,2080tiだけどGPUがボトルネックっぽい
どんな環境ならliae-uhd使いこなせるんですかね
時間も0.7msec/Iterくらいでいつもの倍くらいかかる
300kくらい回してやっと落ち着いてきたから一旦LRD trueにしてみたらbatch size2でもtrainスタート出来ず
DDR4 2666 32GB,i9-9900k,2080tiだけどGPUがボトルネックっぽい
どんな環境ならliae-uhd使いこなせるんですかね
678名無しさん@お腹いっぱい。 (ワッチョイ 068b-jfI9)
2020/11/22(日) 10:43:03.92ID:Qe8FXRgo0 最新のでliae-udにしてみたらどうだろう
679名無しさん@お腹いっぱい。 (ブーイモ MM13-Vt99)
2020/11/24(火) 23:01:35.36ID:3+PulNcVM 色々要求するとVRAMが足らないよなliae系はかなり食うし
680名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/11/25(水) 19:16:18.38ID:CuXZwmIx0 素材スレのうなってもうた…
貞松大輔に対するグチやsrcに合う話題はどこですれば
貞松大輔に対するグチやsrcに合う話題はどこですれば
681名無しさん@お腹いっぱい。 (ワッチョイW 1774-3++/)
2020/11/25(水) 19:27:40.19ID:3+9detNx0 なんか新しいアルゴリズムのアイデアないのかね
今のアルゴリズムでマシンパワーでごり押しするしかないのか
今のアルゴリズムでマシンパワーでごり押しするしかないのか
682名無しさん@お腹いっぱい。 (ワッチョイ bf73-iIvg)
2020/11/25(水) 19:55:42.12ID:CuXZwmIx0 ゆうてCPU大事だし、fullHDならres192batch8で十分 それ以上はオーバースペック
683名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/28(土) 12:48:32.85ID:hCIJHXj40 5600x RTX3070で顔抽出が2.0 it/s程度しか出ないけどこんなもん?
image sizeが768なのがダメなのかなぁ?
768→256程度に落とせば 速度は上がる気がするけど間違ってる?
設定入れるときに適当にENTER連打してたから768になってるけど
出来上がりに大して差がないなら256ぐらいに落としてもう一度回した方が良いのかな?
image sizeが768なのがダメなのかなぁ?
768→256程度に落とせば 速度は上がる気がするけど間違ってる?
設定入れるときに適当にENTER連打してたから768になってるけど
出来上がりに大して差がないなら256ぐらいに落としてもう一度回した方が良いのかな?
684名無しさん@お腹いっぱい。 (ワッチョイ ff90-W5Mj)
2020/11/28(土) 15:47:04.81ID:1wNVnHgm0 始めたばっかりの頃に持ってたGPUは微妙だったので、設定を解像度128、バッチ8、DFでやってたんだけど、
その後もうちょっといいGPUに変えて、解像度が夢の256でできるようになったのでもっと高画質でいけるだろうと思っていたが、
(バッチは4、DF)、解像度128のを最後のマージでスーパーレゾリューション?って数字をあげれば最終的に高解像度の顔になるから、
あんまり最初の解像度って関係ないんかなとおもったけど、どうなんでしょう?
解像度、バッチ、アーキテクチャーってのは、動く範囲内で取捨選択しないといけないけど、どれ優先が一番いいんでしょうね?
ちなみに、最近つくったモデルは、解像度128、バッチ4、liaeで、なんかこれが一番いいのではないかと思っていますが。
この設定は途中で替えれないから、最初にどれが最適か決めなきゃいけないから皆さんの意見が聞きたいです。
その後もうちょっといいGPUに変えて、解像度が夢の256でできるようになったのでもっと高画質でいけるだろうと思っていたが、
(バッチは4、DF)、解像度128のを最後のマージでスーパーレゾリューション?って数字をあげれば最終的に高解像度の顔になるから、
あんまり最初の解像度って関係ないんかなとおもったけど、どうなんでしょう?
解像度、バッチ、アーキテクチャーってのは、動く範囲内で取捨選択しないといけないけど、どれ優先が一番いいんでしょうね?
ちなみに、最近つくったモデルは、解像度128、バッチ4、liaeで、なんかこれが一番いいのではないかと思っていますが。
この設定は途中で替えれないから、最初にどれが最適か決めなきゃいけないから皆さんの意見が聞きたいです。
685名無しさん@お腹いっぱい。 (ワッチョイ 77d2-lhmq)
2020/11/29(日) 09:37:22.70ID:mhSRYID90 2070super8G、Re256、B9、Liae-udで安定
使いまわしModelを48時間まわして0.2くらい
使いまわしModelを48時間まわして0.2くらい
686名無しさん@お腹いっぱい。 (ニククエ bf73-iIvg)
2020/11/29(日) 14:06:50.34ID:Tpam6OoK0NIKU その設定だと相当dims下げないと動かなくね
687名無しさん@お腹いっぱい。 (ニククエW 9773-VJkO)
2020/11/29(日) 14:40:14.96ID:p18Ce+C00NIKU res160-liae-dims512-batch8
RWtrueで0.5切ったらfalse→0.2切ったらLRDtrue→0.1切るまでtrain
mergeする時はbmmだけ150でcolorはrctかlct
maskはlearned-prd*learned-dst*Xseg-prd*Xseg-dst
これでなんとなくうまくいってる
所々怪しいけど誰に見せるでもないし必要十分かな
RWtrueで0.5切ったらfalse→0.2切ったらLRDtrue→0.1切るまでtrain
mergeする時はbmmだけ150でcolorはrctかlct
maskはlearned-prd*learned-dst*Xseg-prd*Xseg-dst
これでなんとなくうまくいってる
所々怪しいけど誰に見せるでもないし必要十分かな
688名無しさん@お腹いっぱい。 (ニククエW 57b1-b0Bn)
2020/11/29(日) 18:30:10.78ID:f9hYXlTt0NIKU df-ud wholeface res386 batch3 VRAM8G
で満足してるのは少数派なのか。
で満足してるのは少数派なのか。
689名無しさん@お腹いっぱい。 (ニククエW 57c9-xWvL)
2020/11/29(日) 18:51:05.76ID:7ob5oBlS0NIKU 386はなんか気持ち悪いから少数派だろうな
690名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
2020/11/29(日) 19:40:56.83ID:bnfTaNH00NIKU 32で割り切れる数字じゃなきゃダメだと聞いたが、そんな適当な数字でも動くんだね
ちゃんと動いてるのかどうかは知らんけど
ちゃんと動いてるのかどうかは知らんけど
691名無しさん@お腹いっぱい。 (ニククエ d758-P4WK)
2020/11/29(日) 20:30:44.81ID:RoG3tSlB0NIKU 32で割り切れるじゃなくて2の累乗だな
692名無しさん@お腹いっぱい。 (ニククエW 57b1-b0Bn)
2020/11/29(日) 20:42:58.89ID:f9hYXlTt0NIKU 384の間違いだったw
693名無しさん@お腹いっぱい。 (ニククエ 777b-P4WK)
2020/11/29(日) 20:48:21.82ID:1/zEu/6p0NIKU PCオール換装ついでにDFL入れて試してみたけど要求するスペック、時間、負荷
どれも他のエロ技術とは格段に違い過ぎて悪い意味でハードル高いわ
PC購入費は除外したとして、自分の5600x RTX3070の構成だと20万回回すのにおよそ24時間
画像の吸出し+選別作業含めると+6時間はかかる
およそ3分程度の動画ですら 作成に30時間
モザイク破壊なら3000シリーズ動かないけど、2080なら2時間作品で6時間もあれば完成
高画質化なら2時間作品で24時間もあればいける
加えてSSDへのダメージ量もぶっちぎりでDFLが食うし
上記の1作品2時間にした場合の電気代はDFL9,600円 破壊なら60円、高画質化なら240円ぐらいになるの考えると
本当にコイツじゃないとダメなんだと思うぐらい入れ込んでる顔がないと、かなりやり続けるにはハードル高いわ
なれた人なら自分の1/10ぐらいにそれぞれの負荷減らせるもんなのかなぁ?
どれも他のエロ技術とは格段に違い過ぎて悪い意味でハードル高いわ
PC購入費は除外したとして、自分の5600x RTX3070の構成だと20万回回すのにおよそ24時間
画像の吸出し+選別作業含めると+6時間はかかる
およそ3分程度の動画ですら 作成に30時間
モザイク破壊なら3000シリーズ動かないけど、2080なら2時間作品で6時間もあれば完成
高画質化なら2時間作品で24時間もあればいける
加えてSSDへのダメージ量もぶっちぎりでDFLが食うし
上記の1作品2時間にした場合の電気代はDFL9,600円 破壊なら60円、高画質化なら240円ぐらいになるの考えると
本当にコイツじゃないとダメなんだと思うぐらい入れ込んでる顔がないと、かなりやり続けるにはハードル高いわ
なれた人なら自分の1/10ぐらいにそれぞれの負荷減らせるもんなのかなぁ?
694名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
2020/11/29(日) 21:35:15.32ID:bnfTaNH00NIKU コスト考えてるようじゃダメだよ
ディープフェイクはプライスレス
ディープフェイクはプライスレス
695名無しさん@お腹いっぱい。 (ニククエ MMbf-WCF9)
2020/11/29(日) 21:45:03.70ID:fJO2wTOfMNIKU Colab Proでいいじゃない
696名無しさん@お腹いっぱい。 (ニククエ Sa5b-K3Z5)
2020/11/29(日) 22:08:29.54ID:E4IbaFhJaNIKU697名無しさん@お腹いっぱい。 (アウアウクー MMcb-DT36)
2020/11/30(月) 01:17:07.65ID:hJyLAQ15M colabとか言うまた凄い技術があるんだなぁ
これならノートの低電力PCで動かせるし
結構なハイスペ割り当てられるから良さそうだが
どのGPU割り当てられるかによって動かすコード変わりそうなのと
コード少しはかけるレベルと米国居住の関門も突破する必要有るのが難易度高いわ
それクリアできる人なら電気代の観点や
騒音と廃熱、機器損傷の問題もクリア出来るし
自分のメインをゲームなり他のエンコにまわせるのもメリットデカイ
これならノートの低電力PCで動かせるし
結構なハイスペ割り当てられるから良さそうだが
どのGPU割り当てられるかによって動かすコード変わりそうなのと
コード少しはかけるレベルと米国居住の関門も突破する必要有るのが難易度高いわ
それクリアできる人なら電気代の観点や
騒音と廃熱、機器損傷の問題もクリア出来るし
自分のメインをゲームなり他のエンコにまわせるのもメリットデカイ
698名無しさん@お腹いっぱい。 (ワッチョイ 57b1-U4aW)
2020/11/30(月) 01:24:54.45ID:Vu2EyZLO0 どこぞのメンバー全員とか変に欲張ったりしなけりゃそんなtrainに時間取られたりしないでしょ
699名無しさん@お腹いっぱい。 (ワッチョイW 57c9-fKCL)
2020/11/30(月) 01:57:13.02ID:L3Lssn020 colabは遅い
そもそもリソース限られてるんだから話してるやつは自分の首閉めてるのわからん?
そもそもリソース限られてるんだから話してるやつは自分の首閉めてるのわからん?
700名無しさん@お腹いっぱい。 (ワッチョイW 57c9-fKCL)
2020/11/30(月) 02:09:32.60ID:L3Lssn020701名無しさん@お腹いっぱい。 (ワッチョイW 17b1-nc77)
2020/11/30(月) 02:11:47.16ID:xmdANFb70 NY州の郵便番号調べて適当に入力したら契約できちゃったよ、Pro版(笑)
702名無しさん@お腹いっぱい。 (ワッチョイW 9f11-fF0a)
2020/11/30(月) 05:01:42.25ID:0SW/Bk/M0 解約できなくて泣くところまでセット
703名無しさん@お腹いっぱい。 (アウアウクー MMcb-JW44)
2020/11/30(月) 12:34:45.75ID:koWoITJ/M dstもsrcも自分で選べて本人にしか見えない物が作れるんだから、マシン費用、train時間、電気代etc気にならない
いい時代になったもんだ
いい時代になったもんだ
704名無しさん@お腹いっぱい。 (ワッチョイ d711-kGov)
2020/11/30(月) 15:03:51.28ID:NZ34c/SY0 ミスターディープフェイクの動画がDLできんのだが・・・
ワシさんのダウンローダー使ってたら今までは出来たんだけど
間違って拡張機能から削除しちゃったら
再インストールする時にもう拡張機能ストアにはないって出てきて困ってる
暗号化された分割動画ファイルが落とせるアドオン他にない?
それか昔のバージョンのワシのダウンローダー置いてあるところない?
お願いします
ワシさんのダウンローダー使ってたら今までは出来たんだけど
間違って拡張機能から削除しちゃったら
再インストールする時にもう拡張機能ストアにはないって出てきて困ってる
暗号化された分割動画ファイルが落とせるアドオン他にない?
それか昔のバージョンのワシのダウンローダー置いてあるところない?
お願いします
705名無しさん@お腹いっぱい。 (ワッチョイ 777b-P4WK)
2020/11/30(月) 19:04:08.40ID:mavPp4f10 初めてやってみたけど化け物しか産まれなかったわ
26万回しても0.40を下回ること無かったってことはsrc側が悪いのかdstをほぼ取捨選択しなかったらからなのか
変換されてない表情もあったりした
20万回以降は0.4以降全く下がらなかった
srcは一応ブレてる画像は取り除いたつもりで抽出15000→7000枚程度にした
しかしマスク等は一切編集しておらず、前髪が少し被ってるのとかは除外しなかった
dstに関してはあまり取捨選択しなかったがぱっと見で分かるブレ画像のみ取り除いた
これで結局化け物しか産まれなかった
dst側は取り除いた部分があることについて逆に顔が変換されない時間帯があるのでは?と感じた
0.1や0.2に切るくらいに持っていける人は徹底的にマスク処理してるのかな??
26万回しても0.40を下回ること無かったってことはsrc側が悪いのかdstをほぼ取捨選択しなかったらからなのか
変換されてない表情もあったりした
20万回以降は0.4以降全く下がらなかった
srcは一応ブレてる画像は取り除いたつもりで抽出15000→7000枚程度にした
しかしマスク等は一切編集しておらず、前髪が少し被ってるのとかは除外しなかった
dstに関してはあまり取捨選択しなかったがぱっと見で分かるブレ画像のみ取り除いた
これで結局化け物しか産まれなかった
dst側は取り除いた部分があることについて逆に顔が変換されない時間帯があるのでは?と感じた
0.1や0.2に切るくらいに持っていける人は徹底的にマスク処理してるのかな??
706名無しさん@お腹いっぱい。 (ワッチョイ ff8b-3i1O)
2020/11/30(月) 19:08:56.11ID:JxNmtT260 なんでdstを取り除いた
707名無しさん@お腹いっぱい。 (ワッチョイW 176d-JW44)
2020/11/30(月) 20:13:59.58ID:PMod7TTd0 >>705
削除したdstはmergeするときに元に戻してないとその部分だけ顔変換されないよ。
顔抽出に失敗したdstならその部分だけ手動でやり直す。
dstの顔の角度がsrcにないとクリーチャーになりやすいね。
削除したdstはmergeするときに元に戻してないとその部分だけ顔変換されないよ。
顔抽出に失敗したdstならその部分だけ手動でやり直す。
dstの顔の角度がsrcにないとクリーチャーになりやすいね。
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- プーチン大統領「ウクライナ軍が撤退すれば戦闘は終わる」と主張 [どどん★]
- 【テレビ】玉川徹「これ天災じゃなくて人災でしょ。責任どうするんだ」 日本のホテル、中国人観光客からのキャンセルが相次ぐ [冬月記者★]
- 【文春】元TOKIO・国分太一(51)「女性スタッフ2名への“わいせつ事案”」日テレ事情聴取の全貌が分かった! ★10 [Ailuropoda melanoleuca★]
- 高市総理の「そんなことよりも」発言を釈明 木原官房長官「急いで話題転換する趣旨」 [ぐれ★]
- 【中国国防省】日本は戦争犯罪を悔い改め、憲法改正と軍備増強という危険な試みをただちに改めよと発信… [BFU★]
- 参政・梅村みずほ議員「土葬を原則禁止にしろ」「上皇陛下も火葬が望ましいといってる」 [バイト歴50年★]
- 精神障害者は国に差別されてる
- 【悲報】高市内閣「WSJの記事はデマ」⇒共同「独自取材によると、トランプ氏は中国との対立をエスカレートするなと要請」 [115996789]
- サウナで大量に汗流すと露骨にしょっぱいもの食べたくなる
- 高速道路で対向トラックに突っ込んだ軽ワゴン(25)が死亡 福岡県 [546716239]
- 【朗報】シンガポール首相「日本は東南アジアで最も信頼されている国」→中国人大発狂wwwwww
- 【高市悲報】中国、世界中に是非を問うwwwwwwwwwwwwwwwwwww [308389511]
