【AIコラ】fakeapp その13【革命】

レス数が1000を超えています。これ以上書き込みはできません。
1
垢版 |
2020/03/08(日) 21:28:26.92
deepfakesの技術交換スレです。

前スレ
【AIコラ】fakeapp その12【革命】
https://phoebe.bbspink.com/test/read.cgi/ascii/1580015540/

テンプレに書いてない質問はok
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2020/12/20(日) 10:43:32.57ID:3O97qwdj0
>>914
ありがとうございます
やはりそうなんですね
2020/12/20(日) 10:48:37.88ID:3O97qwdj0
>>915
S3FDがdflの作者と違うのは知ってたんですが、そろそろバージョンアップされてないかな〜と思いまして
S3FDの精度が高くなれば、ずっと作業が楽になるのに…というかmodelが鍛えられてしまえば、debug作業しか時間は取られないわけで
2020/12/20(日) 13:48:59.44ID:oNCgA0e7d
質問

初めて動画作成まで行ったんだが、完成した動画の顔がボヤケててそもそもSRCの顔が適用されてない気がする


trainは12時間やったんだがこれって何が原因?
2020/12/20(日) 15:50:33.84ID:hFMQVgz60
train何時間とかじゃなくてpreviewの顔とloss値見ろ

ついでに言うとpretrain済だとしても12時間じゃ足りない
2020/12/20(日) 16:21:20.42ID:Xv9J0g2I0
>>918
trainは時間じゃなくloss値を見よう。
loss値が0.2を切るくらいでやっとまともに見れるかなって仕上がりになるから
2020/12/20(日) 17:18:08.61ID:bviIK2bX0
スルーしろよボケ
2020/12/20(日) 17:24:36.07ID:oNCgA0e7d
lossってどこに出る?
もう分けがわからん
2020/12/20(日) 17:33:52.12ID:hFMQVgz60
lossが分からないのは草
そのレベルだったらもう無理だわ
2020/12/20(日) 18:47:41.72ID:GHbUYMoT0
>>918
最初はそんなもん
何回かやればAIが学習する
925名無しさん@お腹いっぱい。 (ラクッペペ MMe6-fNDA)
垢版 |
2020/12/20(日) 19:49:44.32ID:mMWU7kDFM
pretrainってのはトレーニングの再利用ってことだよな?
2020/12/20(日) 19:54:04.73ID:+gDZrhSb0
やべえな、マニュアル読めねえレベルか
2020/12/20(日) 20:09:43.69ID:E0I/MuaR0
何回かやれば、ってその何回もやるのが無駄すぎでしょ

たかだか2分の動画でなんで100時間かけないとあかんねん
これがAIの最先端って?笑わせんな
2020/12/20(日) 20:14:04.54ID:E0I/MuaR0
まともな社会人でできるやついねえよこんなもん
aviutlと同時起動で双方の効率終わるし使えるのは寝てる時だけ
そうなると電気代が終わる
929名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
垢版 |
2020/12/20(日) 20:32:56.32ID:DL1vCqlY0
まあそれはそれとして
1220出た
lr_dropoutまた使えるようになった
目と口が優先できるオプションになった
2020/12/20(日) 20:58:32.75ID:GHbUYMoT0
>>927
同じ動画を何回やっても学習しないぞ
人物を変えて5回やれ2回目からは1時間でいい
2020/12/20(日) 21:42:53.64ID:+gDZrhSb0
>>927
百時間掛かるとしたら、お前の環境がしょぼいか、やり方が下手なだけだわ
つうかDFLの内容は最先端ではない。例えば、最先端の論文検証を民生用のグラボ一枚でやろうとしたら試算上で一年とかざらだぞ、アホらしくてやらないけども。
2020/12/20(日) 21:50:25.73ID:5bFtS3MH0
>>930
その辺りが興味あって知りたかったんだけど、
別素材(dst、srcとも)で回してもAI自体はどんどん学習していくの?
933名無しさん@お腹いっぱい。 (ワッチョイ dab8-Gz4g)
垢版 |
2020/12/20(日) 22:08:30.46ID:2udGUMJa0
だれかグラボ3枚で顔抽出やった人いる?
適当なグラボ2枚で動くのは確認した。
(今のところ3080で顔抽出が一番遅いからなんとかしたい)
2020/12/20(日) 22:42:51.91ID:E0I/MuaR0
人物変えて、のくだりがよくわからん

それってフォルダーにdstの名前のやつ入れてtrain削除して〜、っていうのを繰り返すのか?

だとしたら、よくわからん不出来な素材で試してた結果、経験積ませたと思ってたが実際はできてなかったとかあるんじゃないの?
2020/12/20(日) 22:45:31.54ID:E0I/MuaR0
dstじゃなくてSRCだったわ

あと、その過程はworkにある1234567の全部をやっていかなくちゃだめなの?
できることならtrainは最小限でやりたいんだが
936名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
垢版 |
2020/12/20(日) 22:56:05.15ID:DL1vCqlY0
わざわざ答えるやつがいるからこういう流れになるんだよ
2020/12/20(日) 23:14:46.80ID:YhrtOCdPd
試験的な実装をしているとか、それこそ少し上でも出たような「一部のアルゴリズムを最近のものに変更しました」みたいなforkってあったりするの?

見てみようと思ったら、forkの数が5.1kとかあって見る気が失せた。
2020/12/21(月) 02:45:54.07ID:pw3nSI350
Eyes priority is replaced with Eyes and mouth priority,

Helps to fix eye problems during training like "alien eyes" and wrong eyes direction.
Also makes the detail of the teeth higher.

New default values with new model:
Archi : ‘liae-ud’
AdaBelief : enabled
2020/12/21(月) 03:53:55.12ID:y+LGPGS5F
試行錯誤もせず自分の不勉強を棚に上げて勝手にキレ始めるやつにはそもそも向いてない
諦めろ
2020/12/21(月) 05:24:06.78ID:zpyty4uo0
二週間前からまったく成長してなさそうだな
2020/12/21(月) 09:33:17.32ID:iKBrrl3Ia
>>936
確かにな
2020/12/21(月) 10:55:47.63ID:q5W6Tk/kd
>>934について誰か答えてほしい
2020/12/21(月) 12:00:01.92ID:q5W6Tk/kd
訓練って、そもそもどうやるのかわからんのだがチュートリアルとか今ないのか?

違う人物5人でやるにしても1人何時間やるのか、どのデータを消してどれを残すのか、どういう動画をやるのかとか重要な点がない
2020/12/21(月) 12:45:45.74ID:tH216XgZ0
久々に復帰したけどDeepFaceLab_NVIDIAってやつエラーで動かんわ
前使ってたDeepFaceLab_CUDA_9.2_SSEは動いたけど、最新版に乗り換える意味ってある?
2020/12/21(月) 14:01:25.19ID:kJCDsbLq0
>>943
youtubeに外人が山ほどチュートリアル動画上げてるけど
自動翻訳で字幕も出せるしそれ見てこいよ
わからない単語はググってください
界隈特有の単語や意味はありません
DFなんて自己満足の極みだから君がほしい何を何回、何時間とかの正解なんてある訳ないんだよ
2020/12/21(月) 14:32:18.90ID:W2JMuyVIa
>>943
wikiもマニュアルもあるからまず電子辞書買ってこい
2020/12/21(月) 15:05:57.23ID:kxUGQTO/0
どんなにAIの最先端であっても使い手がこれじゃね
豚に真珠
2020/12/21(月) 18:21:38.23ID:3PezdazN0
このスレって一体なんの為にあるのかわからんよな
俺も初心者の頃なんの利益にもならなかったよ
2020/12/21(月) 18:33:31.32ID:q5W6Tk/kd
>>945
youtubeで検索、再生順の上から3つ見たけど日本語字幕なんて1つもできない

エアプは黙っててくれないかせめて
2020/12/21(月) 18:48:41.07ID:7+ICaAmz0
うーんこの
2020/12/21(月) 18:51:15.66ID:fxMF7jBF0
ギリ健か?生きるの大変そうやな
2020/12/21(月) 20:08:17.23ID:6XqIYiVD0
maskの修正するときにtrainされたmaskの形から修正できたらいいのにってすごく思う。
2020/12/21(月) 20:35:43.20ID:jru9VoQqa
>>949
中学生かよw諦めろw
954名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
垢版 |
2020/12/21(月) 21:02:37.11ID:N17igtqX0
すごく初心者的質問になるかもしれないが、ぶっちゃけ、学習してモデルをつくるという仕組みをよく理解できていない。
いろんな角度の画像を覚えこまして、新しいはめ込む動画のもとの顔がこういう角度でこういう表情だから、data_srcのか中に顔の中で一番いいやつを探してきて、これをコラするよ(場合によっては目はこの画像で、口はこれがいいなとかパーツごとに判断して)、
ということなのか、それとも、いろんな角度の画像を勉強して、この顔のいろんな方向からの顔のデータを作って、この方向でこういう表現をしているdstの顔に、学習してできた顔のデータを再生するよということなんか。
どっちなんでしょう。
前者であれば、あくまでも張り付けるパーツの画像が必要なので、それがきれいでなければいくら学習してもうまくいかないが、後者なら、いったん顔のデータ作れさえすれば、あとはきれいな画像を作り上げてくれるということになる。
ゴミをいくら張り付けてもゴミのままになる。
そういう意味で、最初の素材選びは、いい勉強をしてらうというより、いいパーツを集めることにも影響するから最重要ということなるよね。
どっちなんでしょう?
2020/12/21(月) 21:14:52.49ID:6XqIYiVD0
>>954
俺も最近やり始めながら同じことを悩んでたわ。
どちらかというと前者なのかなと思ってる。
だから素材選びは大事なのかなーと。。。

loss値が小さくなるってのがAIさんが今ある素材で限界までがんばりました。
ってことか思ってる。

あってるんでしょうか?こういうことはマニュアルにも書いてないから気になる。
教えて!詳しい人!
2020/12/21(月) 21:24:53.56ID:zkwZdfnQ0
前者。瞬きしてない src ばかり集めたら瞬きしない result しか出来ない
モデルというのはモデリングしたもの、ではない
2020/12/21(月) 21:40:48.65ID:6XqIYiVD0
>>956
例えば、笑顔のdstなのに泣き顔のsrcしかない場合って
能面になったりするの?
958名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
垢版 |
2020/12/21(月) 22:18:04.81ID:+Y0CGwjB0
AdaBelief結構すごいな
ちょっとアルゴリズムが変わっただけかと思ったら、学習かなり速いんだね
2020/12/21(月) 23:10:48.00ID:xr7dB6O0p
後者だよ。
ただ3Dとかパーツごとの意味を分かって描いてる訳じゃない。絵として判断してsrcっぽい絵を生成してる。
ずっと笑顔なら笑顔=srcっぽい絵なんだからそうなる。
src側の出力はsrcの画像だけ学習してるから、srcに無いものは生成出来ない。pretrainしてたりモデル引き継げばそれ参照できるから結果再現度あがる。
960名無しさん@お腹いっぱい。 (ワッチョイ daae-Gz4g)
垢版 |
2020/12/22(火) 00:00:02.11ID:u3Jf/Qex0
>>954
どっちにしても素材選びが最重要なのは間違いないよ。
なんか悩む要素ある?
2020/12/22(火) 08:11:36.66ID:OvF2fd0Bd
>>943
に答えてくれ誰か
2020/12/22(火) 08:51:27.26ID:R/BwnKDK0
こんなくそ知識のところで聞いても意味ないよ
初心者馬鹿にしてるやつがそもそも初心者なんだから
dstxdstもモデルの引き継ぎもディベロッパー全員否定してる
信頼できるのはdflのgithub, telegram(ロシア語)、faceswapのdiscord, 公式くらいでmrも怪しい
翻訳のやり方から勉強しな
2020/12/22(火) 09:01:44.67ID:Rc7+cPYsp
>>961
modelフォルダ丸ごと残して、あとやり直せばいいだけ。
同じdst,src使うなら、そっちも残しておけばいい。

転移学習は限られた環境でやるなら否定されることではないよ。
2020/12/22(火) 09:39:19.83ID:R/BwnKDK0
転移学習とmodelの使いまわしの違いがわかってないから言ってんだよ
間違った知識を広めてるという自覚を持ってね
2020/12/22(火) 10:22:57.12ID:vA2c7czk0
だから自分で調べろって書いてんのにそれを否定してんのがこの質問者なんだよ
2020/12/22(火) 12:02:45.51ID:OvF2fd0Bd
>>963
ってことはDSTって名前の動画が何個もあって良いってこと?
2020/12/22(火) 12:38:07.85ID:4S+Lba/00
ID:q5W6Tk/kd
こいつヤバいな
2020/12/22(火) 13:15:39.79ID:GHeJZOBNp
data_dst
data_dst_A01
data_dst_A02
2020/12/22(火) 13:52:53.11ID:qQgXnR8U0
触ってみてから質問すればいいのに触りすらしないから理解もできない
2020/12/22(火) 14:07:35.90ID:3SAtxVKw0
質問に誰も答えれてない時点で自分以下のバカしか居ないんだからここで聞くだけ無駄
2020/12/22(火) 14:37:02.94ID:Rc7+cPYsp
ファインチューニングって言うのが正しいのかな?
2020/12/22(火) 16:50:14.66ID:x1pl3Cvw0
>>962
dstxdstはXseg Maskさぼった時に、liae-udでは有効だったけど
df-udでは無効
モデルの引き継ぎが無効とは、モデル使いまわしが無効だとでも?
いちいち新規から学習なのか?
フォーラムに上がっているTrain済のモデルの意味合いは?
Pretrainも無効なんでしょ
2020/12/22(火) 17:00:42.15ID:PSLszAIf0
間違った知識は訂正しても他人が賢くなるだけだからそのまま放置するのが基本
2020/12/22(火) 17:01:20.46ID:6E3YQXis0
作りたいのが一人だとしてもそのsrcだけじゃなく色んな表情や画角を学習させないと自然な仕上がりにならない
アイドルだけ作ってるやつは全部笑顔か無表情になる
975名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
垢版 |
2020/12/22(火) 17:06:25.68ID:D3kaqk9w0
>>974
そうなんですよね。1人の顔でもいろんな表情で、光の当たり方、角度を混ぜたデータセットを作らないと綺麗なのは出来ないですね。しかもデータセットが大きすぎても結果は悪くなるので綺麗な画像をちゃんと選ぶのがコツかと。
2020/12/22(火) 17:20:11.28ID:R/BwnKDK0
大半が>>972みたいな馬鹿だからなんの議論にも発展しない
事前学習、転移学習、ファインチューニングとモデルの使い回しは違う
おま環であーだこーだ言ってるだけのクソスレ
匿名でやってても誰が正しいかもわからないでしょ?下手くそ量産するだけだし、初心者にも害悪だからこんなスレやめた方がいいよ
2020/12/22(火) 18:23:06.06ID:y/trkkeh0
何か聞きたいならTwitterの職人で優しそうな奴に聞けってそれ一番言われてるから
2020/12/22(火) 18:41:03.86ID:OvF2fd0Bd
このスレ無くせ、とかいうくせ、ちゃっかり定期的に見に来るんだぞ

すまんが議論はよそでやれな?
ここは討論会じゃねえよ
2020/12/22(火) 18:41:56.59ID:OvF2fd0Bd
>>977
なお誰かまでは言えない模様
980名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
垢版 |
2020/12/22(火) 18:46:26.49ID:lphrcyjs0
>>954
素材がいいに越したことはない
これはまさしくその通りなんだけど、srcを一つの動画ファイルから作るだけでいいのか、できるだけいろんなものから作ればいいのか、
抜き出しのfpsは30で全フレーム出したほうがいいのか、よくないのか。
あるいは顔を動かしてぶれているような画像は、画像としては微妙だけど、動きのコマとして有用なのか。
そもそも学習させる元のファイルは多ければ多いほどいいのか。
ほぼ重複しているような画像は必要か、不要だとしたらどれぐらいの違いがあるか。
とか、色々最近悩んでいて、一通りモデル作ってみたんで、量産に入りたいなあと思い、
そのためには、モデルの作り方の最適解を探したいなあと思っとるんです。
限られたパワーで、モデルの解像度に振り分けるのか、liaeモデルを使うほうがいいのか、バッチサイズを優先してあげたほうがいいのかなど、色々むずかしいですなあ。
981名無しさん@お腹いっぱい。 (ワッチョイ f390-Xhoa)
垢版 |
2020/12/22(火) 18:48:27.16ID:lphrcyjs0
そのためにも、ある程度構造を理解しないといけないなあということになって、ぶっちゃけ今更ながらよく理解せずにつくっているなあと。
2020/12/22(火) 19:22:49.10ID:y/trkkeh0
十分素材が充実(表情、角度的な意味で)してるなら一続きの動画で構わないけど実際問題難しい、ドラマの主演で1シーズン分素材があるとかなら話は別だけど
抜き出しは30fpsも要らない、10以下で抽出してさらにボヤけてるものとかを間引けばok
ボヤけてるsrcは不要、dstがボヤけてればmergeで勝手にボヤける
正面付近のシーンをメインで作るならdf、側面などもしっかり作りたいならliae
983名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
垢版 |
2020/12/22(火) 19:32:49.28ID:D3kaqk9w0
YouTubeで海外非エロdeepfakeを作ってるShamookって人は、映画3作くらいから顔を抽出してるらしいです。srcは大体8000枚(ぼやけてるやつ、同じような物は間引いて)で、トレーニングしてて、300万回くらいiterしてましたよ。参考になるか分かりませんが。。
2020/12/22(火) 19:39:37.32ID:rcl3oPSM0
DVDとか変えたら髪型、化粧変わってもはや別人なのにこれでもデータは多いほうが良いのか、それとも似てるやつだけを取捨選択したほうがいいの?
2020/12/22(火) 20:03:50.31ID:Rc7+cPYsp
どれだけ集められるかにもよるけど可能なら自分の思ってるイメージに近いメイクだけにしておいた方が無難。明るさとか色合い表情画角は多彩にな。5fpsで似た画像は削除してる。目閉じてるの足りないこと多いからそこも忘れずに。
どうせ議論厨に間違ってるって言われるんだろうけどなw
986名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
垢版 |
2020/12/22(火) 20:05:28.26ID:D3kaqk9w0
>>984
髪型は関係ないと思います。ただ化粧は影響してくると思います。なるべく同じような化粧で、違うアングルや表情、ライティングを集めた方が無難かと。ただ違う化粧(ギャルvs清楚)見たいなデータでトレーニングしてないのでなんとも言えないですが。。
2020/12/22(火) 20:09:42.38ID:R/BwnKDK0
それはあってるぞ自信持って!!
988名無しさん@お腹いっぱい。 (ワッチョイW 2669-FqYp)
垢版 |
2020/12/22(火) 20:19:10.89ID:D3kaqk9w0
もし、Pythonが使えるならPySceneDetectお勧めです。これで映画をシーンごとに分割してくれるから、やり易くなりますよ。
989名無しさん@お腹いっぱい。 (ワッチョイ be8b-Dubi)
垢版 |
2020/12/22(火) 21:22:12.74ID:HawVq19D0
>>982
fps低いと目をつぶってるシーンがうまく抽出できないから
フルで抽出してから減らすほうが良いと思うよ
2020/12/22(火) 22:22:01.70ID:OGfDfqvba
>>976
はいはいw
2020/12/22(火) 22:54:42.26ID:vA2c7czk0
映画とかで使えそうなシーンをカット編集しても10分〜多くて20分程度にしかならないから
コマ送りして一枚ずつpng出力してるわ
ピンボケもすぐ分かるし瞬きの瞬間は細かくとか動きのないシーンは飛ばしてとか
直感的に操作しやすいから取りこぼしも少なくなるし
分割した数万枚の画像とにらめっこするより作業が雑になりにくく少ない枚数で質のいい素材を集められる
まあどうやるかは好みだけど
2020/12/22(火) 23:12:32.54ID:cfhcugtO0
みんなすごいなあ
誰に見せるでもないから適当に拾った5分くらいの動画を30fpsでバラして
顔抽出出来てるのは全部使ってそれで作ってるわ
なんならdstも正面中心で編集して面倒そうなシーンは端から切ってる

さっきTBSでやってた山里の眼鏡ごとsrcにするのとかめっちゃ面倒そうやな
2020/12/22(火) 23:19:24.17ID:PSLszAIf0
これもう次スレ要らないぞ
更新速報や3000番の報告なんかは有用だったけど
他はもう何回目だよって同じ話しかしてない
994名無しさん@お腹いっぱい。 (ワッチョイ ff8b-Vck4)
垢版 |
2020/12/23(水) 00:24:23.79ID:7Gy0dGBD0
お前が来なけりゃいだろ
2020/12/23(水) 05:58:27.97ID:uPvo6CHK0
知識なくて付いてこれないから悔しいんだね・・・
2020/12/23(水) 09:44:35.36ID:RMFN9dQhM
>>993
wikiでも作って誘導したらいいやん
997名無しさん@お腹いっぱい。 (ササクッテロル Sp1f-a9Ct)
垢版 |
2020/12/23(水) 12:11:48.68ID:Yx1pqwCnp
>>996
作りましょうか?
2020/12/23(水) 12:19:16.75ID:bUB4e3R50
日記地獄じゃん
999名無しさん@お腹いっぱい。 (ワッチョイ 5d76-yePO)
垢版 |
2020/12/23(水) 17:20:05.03ID:MVaI8uh/0
ここでキレて喚いてる無能者の問題点は、門外漢の無知無能が
いきなり裸でポークビッツ握りしめて正座してるってとこなの。

猿や金魚の刷り込みみたいに覚えたトコロで、ロクなモンは出来ないし
RTX3090がどうこうってのはヘタコの手抜きに貢献するだけ。
ワカランうちは、遅いGPUで速く学習出来るデータセット作成の腕を磨く方が身のため。

ぶっちゃけ、適切な画像とランドマークのデータセットなら
1.0のCPUでもDF128なら数日でモノになる。
1.0終盤に追加されたコンバート時のGAN系の高精細オプションは
通常の倍程度のコンバート負荷のみで抜群の性能を発揮するから、
FHD中サイズでも128でカバー出来る精細さを実現してるし。

加えて、他の動画編集ソフトを使いこなせる知識と各種フォーマット知識も無いと
どれだけ良いマージ画像が出来ても、色合わせや輪郭合わせが上手く出来ない。
この知識があると、単純にオーバーレイの各種マスク処理を使わずにLeraned輪郭でマージデータ出力が
出来るから、マスク準備不要且つトレイン・マージデータ出力が異様に速く済む。

アルファマスク出力指定で、動画編集ソフト側で色合わせ・マスク・輪郭ぼかしをやると
多少の異常フレームもキレイに直せるし、
そもそも元データのDst作成時に顔のみの部分出力と不要な他人等をマスク消去して
必要フレームのみ出力出来るから、Extractでの誤認識もほぼ解消出来る。

要は初心者をバカにしているのでは無く、そういった総合的なPC映像知識がAI以前に必要なんだよ。
2020/12/23(水) 17:40:14.84ID:uy94Yqmx0
御託はいいからお前の作品見せてみろよ
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 289日 20時間 11分 49秒
レス数が1000を超えています。これ以上書き込みはできません。
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況