deepfakesの技術交換スレです。
前スレ
【AIコラ】fakeapp その12【革命】
https://phoebe.bbspink.com/test/read.cgi/ascii/1580015540/
テンプレに書いてない質問はok
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
探検
【AIコラ】fakeapp その13【革命】
レス数が950を超えています。1000を超えると書き込みができなくなります。
1
2020/03/08(日) 21:28:26.92884名無しさん@お腹いっぱい。 (ワッチョイ 4bb0-FZ4g)
2020/12/17(木) 17:03:55.57ID:NWYzOpCA0 そもそも平日の昼間に何言ってんんだコイツ
いいからハロワ行け
いいからハロワ行け
885名無しさん@お腹いっぱい。 (ワッチョイ 6673-yDMm)
2020/12/17(木) 20:50:05.15ID:o3IuRTfD0 それが日記クオリティ
886名無しさん@お腹いっぱい。 (ワッチョイ a3b1-FZ4g)
2020/12/17(木) 21:52:28.38ID:u0R0/cRV0 ここの住人からしたら旧石器時代の話かもしれないが
DFL1系から2系にアップデートしたら、一見同じパラメータなんだが
化け物が生成されるようになった
srcもdstも全部同じで新規に学習しても
2系だと特定画角、それが困ったことに正面であることが多い、が化け物化する
個々のinterationのスピードは上がってるから、何かを犠牲にしてるんだろうな
結局、今でも1系動かしてるわ
DFL1系から2系にアップデートしたら、一見同じパラメータなんだが
化け物が生成されるようになった
srcもdstも全部同じで新規に学習しても
2系だと特定画角、それが困ったことに正面であることが多い、が化け物化する
個々のinterationのスピードは上がってるから、何かを犠牲にしてるんだろうな
結局、今でも1系動かしてるわ
887名無しさん@お腹いっぱい。 (ワッチョイ 1f58-FZ4g)
2020/12/17(木) 21:54:13.40ID:wEUiOt//0 megaからRTXバージョン消えたね
まだまだ時間かかりそうだし気長に待つしかないか
まだまだ時間かかりそうだし気長に待つしかないか
888名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
2020/12/17(木) 22:52:55.07ID:8N8Wm6Ww0 じゃあ今の20201216バージョンって3000シリーズ非対応なのか
また更新されたと思って喜んでたのだが。
また更新されたと思って喜んでたのだが。
889名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/18(金) 02:09:00.46ID:Uo/5aC410 >>886
初期設定の数値の割り当てが悪いとかじゃないか?
初期設定の数値の割り当てが悪いとかじゃないか?
890名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/18(金) 02:37:18.97ID:TwSdCL4r0 新しく始める時はフォーラムにあるpretrain済みのモデルデータを使えば
設定もされてるし失敗しないと思うんだけど
気に入らなければ他のを使ってみればいいし
設定もされてるし失敗しないと思うんだけど
気に入らなければ他のを使ってみればいいし
891名無しさん@お腹いっぱい。 (エムゾネW FF8a-gfaQ)
2020/12/18(金) 05:24:04.36ID:Dlt/mIM3F 更新入れたらliae-udがデフォルトになってるんだけどこっちが主流になったのかね?
今後のことも考えると早めに切り替えておくべきか
今後のことも考えると早めに切り替えておくべきか
892名無しさん@お腹いっぱい。 (ワッチョイW 8bf0-gWbi)
2020/12/18(金) 17:20:58.45ID:o6LrbTtV0 最新verでRTX3090動いてるよ
893名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/18(金) 17:24:17.87ID:Ges5iJPC0 08_02_2020だけど、liae-udだと似ないと言うかdstのままの物があるのだが
df-udだと似るやつも
dst×dstの学習はliae-udの時のみ有効な様な。df-udだとMaskしてくれない様な
df-udだと似るやつも
dst×dstの学習はliae-udの時のみ有効な様な。df-udだとMaskしてくれない様な
894名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/18(金) 17:29:17.02ID:Ges5iJPC0895名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/18(金) 17:36:27.92ID:21+Qa28k0 初めてこのスレ見つけました。よろしくお願いします。
自分は3090使っていますが、対応されて問題なく出来ましたよ。
自分は3090使っていますが、対応されて問題なく出来ましたよ。
896名無しさん@お腹いっぱい。 (スフッ Sd8a-9SH0)
2020/12/18(金) 18:20:46.75ID:nrKnapkwd おお、ついに3090で動くようになったか 帰ったら試してみよう
897名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/18(金) 18:30:28.43ID:21+Qa28k0 3090*2でSLIして見たいですが、電源が。。。
898名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
2020/12/18(金) 21:41:15.60ID:Lb5y8KFl0 3090を2台買えるやつが電源なんか気にするかよ
899名無しさん@お腹いっぱい。 (ワッチョイ f30c-Gz4g)
2020/12/18(金) 21:41:30.50ID:zo8yTqtf0 だめだうちの3090では最新版でもやはり、顔抽出途中で止まった。また待ちます。
900名無しさん@お腹いっぱい。 (ワッチョイW 8b3a-gWbi)
2020/12/18(金) 22:36:42.37ID:vt6l6RKH0901名無しさん@お腹いっぱい。 (ワッチョイ f30c-Gz4g)
2020/12/19(土) 00:32:52.88ID:GV4bOaIu0902名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/19(土) 00:36:24.50ID:KmwJgewt0 たしかにXsegでは止まってしまいますね。。確認不足でした。すみません。どうやらTensorflowの問題らしいです。
903名無しさん@お腹いっぱい。 (ワッチョイ ff7b-WzAq)
2020/12/19(土) 13:48:21.72ID:rB3YLKrL0 3090だとエラー出るのかな?
最新ver試してないけど3070なら一か月ぐらいにmegaにあった3000buildだとエラーなく最後まで出来たんだけど
顔の抽出が凄い遅かったのはあったが
>>894
マネーフォワードがデフォ設定だと賞与が一時金扱いに分類される
手取り150万の年間賞与だと額面200万くらい
給与が330万手取りなので額面だと約400ちょっと
会社で財形貯蓄や会社主体の保険入ってると天引きされるから実際はもう少し多いと予想
確かに700万前後あるだろうけど、ここで披露したからどうだと言う話
あと必死に乏してる奴等はそれ以上に惨めだが
最新ver試してないけど3070なら一か月ぐらいにmegaにあった3000buildだとエラーなく最後まで出来たんだけど
顔の抽出が凄い遅かったのはあったが
>>894
マネーフォワードがデフォ設定だと賞与が一時金扱いに分類される
手取り150万の年間賞与だと額面200万くらい
給与が330万手取りなので額面だと約400ちょっと
会社で財形貯蓄や会社主体の保険入ってると天引きされるから実際はもう少し多いと予想
確かに700万前後あるだろうけど、ここで披露したからどうだと言う話
あと必死に乏してる奴等はそれ以上に惨めだが
904名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/19(土) 14:18:16.99ID:D0kdx6n60 酷いスレだわ
905名無しさん@お腹いっぱい。 (スプッッ Sd2a-20fS)
2020/12/19(土) 14:18:39.79ID:BjQuUv3rd どうでもいいがMFは手入力できるから自分の好きな金額にできるぞ
906名無しさん@お腹いっぱい。 (ワッチョイ 1f58-22vh)
2020/12/19(土) 15:36:04.64ID:J319dMxk0 3090動いてる人うらやま
うちの環境じゃ相変わらずエラー吐いて学習始まらないんだよなぁ
[Place models and optimizer on GPU]切ると、vram50%ぐらい使用しながら一応動くけど
CPU使用率半端無いし遅いしで使いものにならないし
うちの環境じゃ相変わらずエラー吐いて学習始まらないんだよなぁ
[Place models and optimizer on GPU]切ると、vram50%ぐらい使用しながら一応動くけど
CPU使用率半端無いし遅いしで使いものにならないし
907名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/19(土) 17:49:40.95ID:t8IeWd2z0 DFスレ民の給与とかクソどうでもいいんだが
908名無しさん@お腹いっぱい。 (ワッチョイ 0fb0-FZ4g)
2020/12/19(土) 17:54:16.28ID:U4XvjCW70 エアプ会社員が大暴れしてるのふふってなる
909名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/19(土) 20:52:19.53ID:bUqQTCjA0 そんな事より素材スレか合成レシピを書き込むページを誰か作って
910名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/19(土) 21:52:24.85ID:2gW2kMY60911名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/19(土) 22:33:55.48ID:D0kdx6n60 俺の1080じゃ更新無理かなと思ってたけど一応build_12_16_2020落として使ってみた
liae-udのres192だけど、今の所モデルそのまんまで速度も変わらず使えてる
lr_dropoutが無くなったので代わりにAdaBeliefを使うのが変わった点だろうか
liae-udのres192だけど、今の所モデルそのまんまで速度も変わらず使えてる
lr_dropoutが無くなったので代わりにAdaBeliefを使うのが変わった点だろうか
912名無しさん@お腹いっぱい。 (ワッチョイW 7311-sjWL)
2020/12/19(土) 22:55:58.53ID:0D39FK5s0 3月の下旬にリリースされたバージョンでずっとやってるんですが、今時のバージョンは、顔の抽出精度も向上していますか?
今使ってるバージョンだと、連続シーンなのに、顔が抽出されないコマがあったりするので、向上しているなら久しぶりにバージョンを上げようかと思うのですが。
今使ってるバージョンだと、連続シーンなのに、顔が抽出されないコマがあったりするので、向上しているなら久しぶりにバージョンを上げようかと思うのですが。
913名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/19(土) 23:28:59.68ID:KmwJgewt0 私の場合は3000buildの12月のバージョンが出ていたのでダウンロードして使っています。XSegのトレーニング以外はきちんと動いています。ただ顔の抽出がたまにおかしくなりますね。
914名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/20(日) 01:37:01.79ID:DL1vCqlY0 まだやってないけど顔の抽出は俺が使い始めた去年の春ぐらいから基本何も変化がない
915名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/20(日) 09:31:03.88ID:7xq9z9kO0 顔抽出の精度とかはDFLの範疇じゃないでしょ
別の人の研究のS3FDとかのモデルの顔のバリエーション、Train具合次第では?
別の人の研究のS3FDとかのモデルの顔のバリエーション、Train具合次第では?
916名無しさん@お腹いっぱい。 (ワッチョイW 7311-sjWL)
2020/12/20(日) 10:43:32.57ID:3O97qwdj0917名無しさん@お腹いっぱい。 (ワッチョイW 7311-sjWL)
2020/12/20(日) 10:48:37.88ID:3O97qwdj0 >>915
S3FDがdflの作者と違うのは知ってたんですが、そろそろバージョンアップされてないかな〜と思いまして
S3FDの精度が高くなれば、ずっと作業が楽になるのに…というかmodelが鍛えられてしまえば、debug作業しか時間は取られないわけで
S3FDがdflの作者と違うのは知ってたんですが、そろそろバージョンアップされてないかな〜と思いまして
S3FDの精度が高くなれば、ずっと作業が楽になるのに…というかmodelが鍛えられてしまえば、debug作業しか時間は取られないわけで
918名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/20(日) 13:48:59.44ID:oNCgA0e7d 質問
初めて動画作成まで行ったんだが、完成した動画の顔がボヤケててそもそもSRCの顔が適用されてない気がする
trainは12時間やったんだがこれって何が原因?
初めて動画作成まで行ったんだが、完成した動画の顔がボヤケててそもそもSRCの顔が適用されてない気がする
trainは12時間やったんだがこれって何が原因?
919名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/20(日) 15:50:33.84ID:hFMQVgz60 train何時間とかじゃなくてpreviewの顔とloss値見ろ
ついでに言うとpretrain済だとしても12時間じゃ足りない
ついでに言うとpretrain済だとしても12時間じゃ足りない
920名無しさん@お腹いっぱい。 (ワッチョイW 5358-sv8k)
2020/12/20(日) 16:21:20.42ID:Xv9J0g2I0921名無しさん@お腹いっぱい。 (ワッチョイ 1f58-22vh)
2020/12/20(日) 17:18:08.61ID:bviIK2bX0 スルーしろよボケ
922名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/20(日) 17:24:36.07ID:oNCgA0e7d lossってどこに出る?
もう分けがわからん
もう分けがわからん
923名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/20(日) 17:33:52.12ID:hFMQVgz60 lossが分からないのは草
そのレベルだったらもう無理だわ
そのレベルだったらもう無理だわ
924名無しさん@お腹いっぱい。 (ワッチョイ 8be8-FZ4g)
2020/12/20(日) 18:47:41.72ID:GHbUYMoT0925名無しさん@お腹いっぱい。 (ラクッペペ MMe6-fNDA)
2020/12/20(日) 19:49:44.32ID:mMWU7kDFM pretrainってのはトレーニングの再利用ってことだよな?
926名無しさん@お腹いっぱい。 (ワッチョイW ea6d-PSda)
2020/12/20(日) 19:54:04.73ID:+gDZrhSb0 やべえな、マニュアル読めねえレベルか
927名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 20:09:43.69ID:E0I/MuaR0 何回かやれば、ってその何回もやるのが無駄すぎでしょ
たかだか2分の動画でなんで100時間かけないとあかんねん
これがAIの最先端って?笑わせんな
たかだか2分の動画でなんで100時間かけないとあかんねん
これがAIの最先端って?笑わせんな
928名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 20:14:04.54ID:E0I/MuaR0 まともな社会人でできるやついねえよこんなもん
aviutlと同時起動で双方の効率終わるし使えるのは寝てる時だけ
そうなると電気代が終わる
aviutlと同時起動で双方の効率終わるし使えるのは寝てる時だけ
そうなると電気代が終わる
929名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/20(日) 20:32:56.32ID:DL1vCqlY0 まあそれはそれとして
1220出た
lr_dropoutまた使えるようになった
目と口が優先できるオプションになった
1220出た
lr_dropoutまた使えるようになった
目と口が優先できるオプションになった
930名無しさん@お腹いっぱい。 (ワッチョイ 8be8-FZ4g)
2020/12/20(日) 20:58:32.75ID:GHbUYMoT0931名無しさん@お腹いっぱい。 (ワッチョイW ea6d-PSda)
2020/12/20(日) 21:42:53.64ID:+gDZrhSb0 >>927
百時間掛かるとしたら、お前の環境がしょぼいか、やり方が下手なだけだわ
つうかDFLの内容は最先端ではない。例えば、最先端の論文検証を民生用のグラボ一枚でやろうとしたら試算上で一年とかざらだぞ、アホらしくてやらないけども。
百時間掛かるとしたら、お前の環境がしょぼいか、やり方が下手なだけだわ
つうかDFLの内容は最先端ではない。例えば、最先端の論文検証を民生用のグラボ一枚でやろうとしたら試算上で一年とかざらだぞ、アホらしくてやらないけども。
932名無しさん@お腹いっぱい。 (ワッチョイ 4ac0-FZ4g)
2020/12/20(日) 21:50:25.73ID:5bFtS3MH0933名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
2020/12/20(日) 22:08:30.46ID:2udGUMJa0 だれかグラボ3枚で顔抽出やった人いる?
適当なグラボ2枚で動くのは確認した。
(今のところ3080で顔抽出が一番遅いからなんとかしたい)
適当なグラボ2枚で動くのは確認した。
(今のところ3080で顔抽出が一番遅いからなんとかしたい)
934名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 22:42:51.91ID:E0I/MuaR0 人物変えて、のくだりがよくわからん
それってフォルダーにdstの名前のやつ入れてtrain削除して〜、っていうのを繰り返すのか?
だとしたら、よくわからん不出来な素材で試してた結果、経験積ませたと思ってたが実際はできてなかったとかあるんじゃないの?
それってフォルダーにdstの名前のやつ入れてtrain削除して〜、っていうのを繰り返すのか?
だとしたら、よくわからん不出来な素材で試してた結果、経験積ませたと思ってたが実際はできてなかったとかあるんじゃないの?
935名無しさん@お腹いっぱい。 (ワッチョイW 9702-xWwc)
2020/12/20(日) 22:45:31.54ID:E0I/MuaR0 dstじゃなくてSRCだったわ
あと、その過程はworkにある1234567の全部をやっていかなくちゃだめなの?
できることならtrainは最小限でやりたいんだが
あと、その過程はworkにある1234567の全部をやっていかなくちゃだめなの?
できることならtrainは最小限でやりたいんだが
936名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/20(日) 22:56:05.15ID:DL1vCqlY0 わざわざ答えるやつがいるからこういう流れになるんだよ
937名無しさん@お腹いっぱい。 (スップ Sd2a-8jHH)
2020/12/20(日) 23:14:46.80ID:YhrtOCdPd 試験的な実装をしているとか、それこそ少し上でも出たような「一部のアルゴリズムを最近のものに変更しました」みたいなforkってあったりするの?
見てみようと思ったら、forkの数が5.1kとかあって見る気が失せた。
見てみようと思ったら、forkの数が5.1kとかあって見る気が失せた。
938名無しさん@お腹いっぱい。 (ワッチョイ 1f58-FZ4g)
2020/12/21(月) 02:45:54.07ID:pw3nSI350 Eyes priority is replaced with Eyes and mouth priority,
Helps to fix eye problems during training like "alien eyes" and wrong eyes direction.
Also makes the detail of the teeth higher.
New default values with new model:
Archi : ‘liae-ud’
AdaBelief : enabled
Helps to fix eye problems during training like "alien eyes" and wrong eyes direction.
Also makes the detail of the teeth higher.
New default values with new model:
Archi : ‘liae-ud’
AdaBelief : enabled
939名無しさん@お腹いっぱい。 (エムゾネW FF8a-gfaQ)
2020/12/21(月) 03:53:55.12ID:y+LGPGS5F 試行錯誤もせず自分の不勉強を棚に上げて勝手にキレ始めるやつにはそもそも向いてない
諦めろ
諦めろ
940名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/21(月) 05:24:06.78ID:zpyty4uo0 二週間前からまったく成長してなさそうだな
941名無しさん@お腹いっぱい。 (アウアウウー Sa9f-PSda)
2020/12/21(月) 09:33:17.32ID:iKBrrl3Ia >>936
確かにな
確かにな
942名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/21(月) 10:55:47.63ID:q5W6Tk/kd >>934について誰か答えてほしい
943名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/21(月) 12:00:01.92ID:q5W6Tk/kd 訓練って、そもそもどうやるのかわからんのだがチュートリアルとか今ないのか?
違う人物5人でやるにしても1人何時間やるのか、どのデータを消してどれを残すのか、どういう動画をやるのかとか重要な点がない
違う人物5人でやるにしても1人何時間やるのか、どのデータを消してどれを残すのか、どういう動画をやるのかとか重要な点がない
944名無しさん@お腹いっぱい。 (ワッチョイ 6603-FZ4g)
2020/12/21(月) 12:45:45.74ID:tH216XgZ0 久々に復帰したけどDeepFaceLab_NVIDIAってやつエラーで動かんわ
前使ってたDeepFaceLab_CUDA_9.2_SSEは動いたけど、最新版に乗り換える意味ってある?
前使ってたDeepFaceLab_CUDA_9.2_SSEは動いたけど、最新版に乗り換える意味ってある?
945名無しさん@お腹いっぱい。 (ワッチョイW 7392-gfaQ)
2020/12/21(月) 14:01:25.19ID:kJCDsbLq0 >>943
youtubeに外人が山ほどチュートリアル動画上げてるけど
自動翻訳で字幕も出せるしそれ見てこいよ
わからない単語はググってください
界隈特有の単語や意味はありません
DFなんて自己満足の極みだから君がほしい何を何回、何時間とかの正解なんてある訳ないんだよ
youtubeに外人が山ほどチュートリアル動画上げてるけど
自動翻訳で字幕も出せるしそれ見てこいよ
わからない単語はググってください
界隈特有の単語や意味はありません
DFなんて自己満足の極みだから君がほしい何を何回、何時間とかの正解なんてある訳ないんだよ
946名無しさん@お腹いっぱい。 (アウアウウー Sa9f-sv8k)
2020/12/21(月) 14:32:18.90ID:W2JMuyVIa >>943
wikiもマニュアルもあるからまず電子辞書買ってこい
wikiもマニュアルもあるからまず電子辞書買ってこい
947名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/21(月) 15:05:57.23ID:kxUGQTO/0 どんなにAIの最先端であっても使い手がこれじゃね
豚に真珠
豚に真珠
948名無しさん@お腹いっぱい。 (ワッチョイW be02-xWwc)
2020/12/21(月) 18:21:38.23ID:3PezdazN0 このスレって一体なんの為にあるのかわからんよな
俺も初心者の頃なんの利益にもならなかったよ
俺も初心者の頃なんの利益にもならなかったよ
949名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/21(月) 18:33:31.32ID:q5W6Tk/kd950名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/21(月) 18:48:41.07ID:7+ICaAmz0 うーんこの
951名無しさん@お腹いっぱい。 (ワッチョイW 7b73-A7VK)
2020/12/21(月) 18:51:15.66ID:fxMF7jBF0 ギリ健か?生きるの大変そうやな
952名無しさん@お腹いっぱい。 (ワッチョイ 4ae8-FZ4g)
2020/12/21(月) 20:08:17.23ID:6XqIYiVD0 maskの修正するときにtrainされたmaskの形から修正できたらいいのにってすごく思う。
953名無しさん@お腹いっぱい。 (アウアウウー Sa9f-PSda)
2020/12/21(月) 20:35:43.20ID:jru9VoQqa >>949
中学生かよw諦めろw
中学生かよw諦めろw
954名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
2020/12/21(月) 21:02:37.11ID:N17igtqX0 すごく初心者的質問になるかもしれないが、ぶっちゃけ、学習してモデルをつくるという仕組みをよく理解できていない。
いろんな角度の画像を覚えこまして、新しいはめ込む動画のもとの顔がこういう角度でこういう表情だから、data_srcのか中に顔の中で一番いいやつを探してきて、これをコラするよ(場合によっては目はこの画像で、口はこれがいいなとかパーツごとに判断して)、
ということなのか、それとも、いろんな角度の画像を勉強して、この顔のいろんな方向からの顔のデータを作って、この方向でこういう表現をしているdstの顔に、学習してできた顔のデータを再生するよということなんか。
どっちなんでしょう。
前者であれば、あくまでも張り付けるパーツの画像が必要なので、それがきれいでなければいくら学習してもうまくいかないが、後者なら、いったん顔のデータ作れさえすれば、あとはきれいな画像を作り上げてくれるということになる。
ゴミをいくら張り付けてもゴミのままになる。
そういう意味で、最初の素材選びは、いい勉強をしてらうというより、いいパーツを集めることにも影響するから最重要ということなるよね。
どっちなんでしょう?
いろんな角度の画像を覚えこまして、新しいはめ込む動画のもとの顔がこういう角度でこういう表情だから、data_srcのか中に顔の中で一番いいやつを探してきて、これをコラするよ(場合によっては目はこの画像で、口はこれがいいなとかパーツごとに判断して)、
ということなのか、それとも、いろんな角度の画像を勉強して、この顔のいろんな方向からの顔のデータを作って、この方向でこういう表現をしているdstの顔に、学習してできた顔のデータを再生するよということなんか。
どっちなんでしょう。
前者であれば、あくまでも張り付けるパーツの画像が必要なので、それがきれいでなければいくら学習してもうまくいかないが、後者なら、いったん顔のデータ作れさえすれば、あとはきれいな画像を作り上げてくれるということになる。
ゴミをいくら張り付けてもゴミのままになる。
そういう意味で、最初の素材選びは、いい勉強をしてらうというより、いいパーツを集めることにも影響するから最重要ということなるよね。
どっちなんでしょう?
955名無しさん@お腹いっぱい。 (ワッチョイ 4ae8-FZ4g)
2020/12/21(月) 21:14:52.49ID:6XqIYiVD0 >>954
俺も最近やり始めながら同じことを悩んでたわ。
どちらかというと前者なのかなと思ってる。
だから素材選びは大事なのかなーと。。。
loss値が小さくなるってのがAIさんが今ある素材で限界までがんばりました。
ってことか思ってる。
あってるんでしょうか?こういうことはマニュアルにも書いてないから気になる。
教えて!詳しい人!
俺も最近やり始めながら同じことを悩んでたわ。
どちらかというと前者なのかなと思ってる。
だから素材選びは大事なのかなーと。。。
loss値が小さくなるってのがAIさんが今ある素材で限界までがんばりました。
ってことか思ってる。
あってるんでしょうか?こういうことはマニュアルにも書いてないから気になる。
教えて!詳しい人!
956名無しさん@お腹いっぱい。 (ワッチョイ dbe5-22vh)
2020/12/21(月) 21:24:53.56ID:zkwZdfnQ0 前者。瞬きしてない src ばかり集めたら瞬きしない result しか出来ない
モデルというのはモデリングしたもの、ではない
モデルというのはモデリングしたもの、ではない
957名無しさん@お腹いっぱい。 (ワッチョイ 4ae8-FZ4g)
2020/12/21(月) 21:40:48.65ID:6XqIYiVD0958名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
2020/12/21(月) 22:18:04.81ID:+Y0CGwjB0 AdaBelief結構すごいな
ちょっとアルゴリズムが変わっただけかと思ったら、学習かなり速いんだね
ちょっとアルゴリズムが変わっただけかと思ったら、学習かなり速いんだね
959名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/21(月) 23:10:48.00ID:xr7dB6O0p 後者だよ。
ただ3Dとかパーツごとの意味を分かって描いてる訳じゃない。絵として判断してsrcっぽい絵を生成してる。
ずっと笑顔なら笑顔=srcっぽい絵なんだからそうなる。
src側の出力はsrcの画像だけ学習してるから、srcに無いものは生成出来ない。pretrainしてたりモデル引き継げばそれ参照できるから結果再現度あがる。
ただ3Dとかパーツごとの意味を分かって描いてる訳じゃない。絵として判断してsrcっぽい絵を生成してる。
ずっと笑顔なら笑顔=srcっぽい絵なんだからそうなる。
src側の出力はsrcの画像だけ学習してるから、srcに無いものは生成出来ない。pretrainしてたりモデル引き継げばそれ参照できるから結果再現度あがる。
960名無しさん@お腹いっぱい。 (ワッチョイ daae-Gz4g)
2020/12/22(火) 00:00:02.11ID:u3Jf/Qex0961名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 08:11:36.66ID:OvF2fd0Bd >>943
に答えてくれ誰か
に答えてくれ誰か
962名無しさん@お腹いっぱい。 (ワッチョイW c3c9-dJ1Z)
2020/12/22(火) 08:51:27.26ID:R/BwnKDK0 こんなくそ知識のところで聞いても意味ないよ
初心者馬鹿にしてるやつがそもそも初心者なんだから
dstxdstもモデルの引き継ぎもディベロッパー全員否定してる
信頼できるのはdflのgithub, telegram(ロシア語)、faceswapのdiscord, 公式くらいでmrも怪しい
翻訳のやり方から勉強しな
初心者馬鹿にしてるやつがそもそも初心者なんだから
dstxdstもモデルの引き継ぎもディベロッパー全員否定してる
信頼できるのはdflのgithub, telegram(ロシア語)、faceswapのdiscord, 公式くらいでmrも怪しい
翻訳のやり方から勉強しな
963名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/22(火) 09:01:44.67ID:Rc7+cPYsp964名無しさん@お腹いっぱい。 (ワッチョイW c3c9-Xl0H)
2020/12/22(火) 09:39:19.83ID:R/BwnKDK0 転移学習とmodelの使いまわしの違いがわかってないから言ってんだよ
間違った知識を広めてるという自覚を持ってね
間違った知識を広めてるという自覚を持ってね
965名無しさん@お腹いっぱい。 (ワッチョイ a3b1-JYd2)
2020/12/22(火) 10:22:57.12ID:vA2c7czk0 だから自分で調べろって書いてんのにそれを否定してんのがこの質問者なんだよ
966名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 12:02:45.51ID:OvF2fd0Bd >>963
ってことはDSTって名前の動画が何個もあって良いってこと?
ってことはDSTって名前の動画が何個もあって良いってこと?
967名無しさん@お腹いっぱい。 (ワッチョイW 7392-gfaQ)
2020/12/22(火) 12:38:07.85ID:4S+Lba/00 ID:q5W6Tk/kd
こいつヤバいな
こいつヤバいな
968名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-WSGO)
2020/12/22(火) 13:15:39.79ID:GHeJZOBNp data_dst
data_dst_A01
data_dst_A02
data_dst_A01
data_dst_A02
969名無しさん@お腹いっぱい。 (ワッチョイ 5358-22vh)
2020/12/22(火) 13:52:53.11ID:qQgXnR8U0 触ってみてから質問すればいいのに触りすらしないから理解もできない
970名無しさん@お腹いっぱい。 (ワッチョイ 6603-FZ4g)
2020/12/22(火) 14:07:35.90ID:3SAtxVKw0 質問に誰も答えれてない時点で自分以下のバカしか居ないんだからここで聞くだけ無駄
971名無しさん@お腹いっぱい。 (ササクッテロラ Spb3-f8cj)
2020/12/22(火) 14:37:02.94ID:Rc7+cPYsp ファインチューニングって言うのが正しいのかな?
972名無しさん@お腹いっぱい。 (ワッチョイ ea76-Gz4g)
2020/12/22(火) 16:50:14.66ID:x1pl3Cvw0 >>962
dstxdstはXseg Maskさぼった時に、liae-udでは有効だったけど
df-udでは無効
モデルの引き継ぎが無効とは、モデル使いまわしが無効だとでも?
いちいち新規から学習なのか?
フォーラムに上がっているTrain済のモデルの意味合いは?
Pretrainも無効なんでしょ
dstxdstはXseg Maskさぼった時に、liae-udでは有効だったけど
df-udでは無効
モデルの引き継ぎが無効とは、モデル使いまわしが無効だとでも?
いちいち新規から学習なのか?
フォーラムに上がっているTrain済のモデルの意味合いは?
Pretrainも無効なんでしょ
973名無しさん@お腹いっぱい。 (ワッチョイ 1f58-22vh)
2020/12/22(火) 17:00:42.15ID:PSLszAIf0 間違った知識は訂正しても他人が賢くなるだけだからそのまま放置するのが基本
974名無しさん@お腹いっぱい。 (ワッチョイ 8be8-FZ4g)
2020/12/22(火) 17:01:20.46ID:6E3YQXis0 作りたいのが一人だとしてもそのsrcだけじゃなく色んな表情や画角を学習させないと自然な仕上がりにならない
アイドルだけ作ってるやつは全部笑顔か無表情になる
アイドルだけ作ってるやつは全部笑顔か無表情になる
975名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 17:06:25.68ID:D3kaqk9w0 >>974
そうなんですよね。1人の顔でもいろんな表情で、光の当たり方、角度を混ぜたデータセットを作らないと綺麗なのは出来ないですね。しかもデータセットが大きすぎても結果は悪くなるので綺麗な画像をちゃんと選ぶのがコツかと。
そうなんですよね。1人の顔でもいろんな表情で、光の当たり方、角度を混ぜたデータセットを作らないと綺麗なのは出来ないですね。しかもデータセットが大きすぎても結果は悪くなるので綺麗な画像をちゃんと選ぶのがコツかと。
976名無しさん@お腹いっぱい。 (ワッチョイW c3c9-dJ1Z)
2020/12/22(火) 17:20:11.28ID:R/BwnKDK0 大半が>>972みたいな馬鹿だからなんの議論にも発展しない
事前学習、転移学習、ファインチューニングとモデルの使い回しは違う
おま環であーだこーだ言ってるだけのクソスレ
匿名でやってても誰が正しいかもわからないでしょ?下手くそ量産するだけだし、初心者にも害悪だからこんなスレやめた方がいいよ
事前学習、転移学習、ファインチューニングとモデルの使い回しは違う
おま環であーだこーだ言ってるだけのクソスレ
匿名でやってても誰が正しいかもわからないでしょ?下手くそ量産するだけだし、初心者にも害悪だからこんなスレやめた方がいいよ
977名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/22(火) 18:23:06.06ID:y/trkkeh0 何か聞きたいならTwitterの職人で優しそうな奴に聞けってそれ一番言われてるから
978名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 18:41:03.86ID:OvF2fd0Bd このスレ無くせ、とかいうくせ、ちゃっかり定期的に見に来るんだぞ
すまんが議論はよそでやれな?
ここは討論会じゃねえよ
すまんが議論はよそでやれな?
ここは討論会じゃねえよ
979名無しさん@お腹いっぱい。 (スフッ Sd8a-xWwc)
2020/12/22(火) 18:41:56.59ID:OvF2fd0Bd >>977
なお誰かまでは言えない模様
なお誰かまでは言えない模様
980名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
2020/12/22(火) 18:46:26.49ID:lphrcyjs0 >>954
素材がいいに越したことはない
これはまさしくその通りなんだけど、srcを一つの動画ファイルから作るだけでいいのか、できるだけいろんなものから作ればいいのか、
抜き出しのfpsは30で全フレーム出したほうがいいのか、よくないのか。
あるいは顔を動かしてぶれているような画像は、画像としては微妙だけど、動きのコマとして有用なのか。
そもそも学習させる元のファイルは多ければ多いほどいいのか。
ほぼ重複しているような画像は必要か、不要だとしたらどれぐらいの違いがあるか。
とか、色々最近悩んでいて、一通りモデル作ってみたんで、量産に入りたいなあと思い、
そのためには、モデルの作り方の最適解を探したいなあと思っとるんです。
限られたパワーで、モデルの解像度に振り分けるのか、liaeモデルを使うほうがいいのか、バッチサイズを優先してあげたほうがいいのかなど、色々むずかしいですなあ。
素材がいいに越したことはない
これはまさしくその通りなんだけど、srcを一つの動画ファイルから作るだけでいいのか、できるだけいろんなものから作ればいいのか、
抜き出しのfpsは30で全フレーム出したほうがいいのか、よくないのか。
あるいは顔を動かしてぶれているような画像は、画像としては微妙だけど、動きのコマとして有用なのか。
そもそも学習させる元のファイルは多ければ多いほどいいのか。
ほぼ重複しているような画像は必要か、不要だとしたらどれぐらいの違いがあるか。
とか、色々最近悩んでいて、一通りモデル作ってみたんで、量産に入りたいなあと思い、
そのためには、モデルの作り方の最適解を探したいなあと思っとるんです。
限られたパワーで、モデルの解像度に振り分けるのか、liaeモデルを使うほうがいいのか、バッチサイズを優先してあげたほうがいいのかなど、色々むずかしいですなあ。
981名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
2020/12/22(火) 18:48:27.16ID:lphrcyjs0 そのためにも、ある程度構造を理解しないといけないなあということになって、ぶっちゃけ今更ながらよく理解せずにつくっているなあと。
982名無しさん@お腹いっぱい。 (ワッチョイW bf90-hYwG)
2020/12/22(火) 19:22:49.10ID:y/trkkeh0 十分素材が充実(表情、角度的な意味で)してるなら一続きの動画で構わないけど実際問題難しい、ドラマの主演で1シーズン分素材があるとかなら話は別だけど
抜き出しは30fpsも要らない、10以下で抽出してさらにボヤけてるものとかを間引けばok
ボヤけてるsrcは不要、dstがボヤけてればmergeで勝手にボヤける
正面付近のシーンをメインで作るならdf、側面などもしっかり作りたいならliae
抜き出しは30fpsも要らない、10以下で抽出してさらにボヤけてるものとかを間引けばok
ボヤけてるsrcは不要、dstがボヤけてればmergeで勝手にボヤける
正面付近のシーンをメインで作るならdf、側面などもしっかり作りたいならliae
983名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
2020/12/22(火) 19:32:49.28ID:D3kaqk9w0 YouTubeで海外非エロdeepfakeを作ってるShamookって人は、映画3作くらいから顔を抽出してるらしいです。srcは大体8000枚(ぼやけてるやつ、同じような物は間引いて)で、トレーニングしてて、300万回くらいiterしてましたよ。参考になるか分かりませんが。。
レス数が950を超えています。1000を超えると書き込みができなくなります。
ニュース
- 中国、日本渡航に再警告 「侮辱や暴行で複数の負傷報告」★2 [ぐれ★]
- 高市早苗氏「“裏金問題”の調査をすると約束しましたが調査結果を公表するとは約束してません」 [バイト歴50年★]
- 【台湾有事】トランプ氏 電話会談で高市総理に発言抑制を要求か 米メディア報道… ★11 [BFU★]
- 高市総理の「そんなことよりも」発言を釈明 木原官房長官「急いで話題転換する趣旨」 [ぐれ★]
- 【足立暴走男の母親が涙の謝罪】「医師から運転を止められていた」母が語った事件の背景 男は数年前から統合失調症 最近薬を変え… [ぐれ★]
- 皇居 敷地内にドローン 外国人観光客2人が操縦か 皇宮警察本部 (NHKニュース) [少考さん★]
- 【実況】博衣こよりのえちえち4周年カウントダウン🧪
- 高市早苗、怒号「岡田呼んでこいやぁ!」 [856698234]
- まったり進行おじゃる丸ハウス🏡
- 【悲報】米メディア「高市早苗は外交の泥沼に自ら足を踏み入れた間抜け」 [714769305]
- VIPでウマ娘
- 【高市速報】トランプ大統領「これ以上日中の対立をエスカレートさせるな」 [931948549]
