deepfakesの技術交換スレです。
前スレ
【AIコラ】fakeapp その12【革命】
https://phoebe.bbspink.com/test/read.cgi/ascii/1580015540/
テンプレに書いてない質問はok
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
探検
【AIコラ】fakeapp その13【革命】
■ このスレッドは過去ログ倉庫に格納されています
1
2020/03/08(日) 21:28:26.92518名無しさん@お腹いっぱい。 (ワッチョイ 6558-t1Nk)
2020/11/09(月) 00:20:32.82ID:y+B/4dVK0 発生したのみたことないな
おま環事象とみた
おま環事象とみた
519名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 00:31:39.83ID:fPNAn+OG0520名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 00:33:38.78ID:fPNAn+OG0 おいおい、情報ビッシリの画像二枚にレスこれだけ?
ここにいても無駄かな
ここにいても無駄かな
521名無しさん@お腹いっぱい。 (ワッチョイ 6558-t1Nk)
2020/11/09(月) 00:42:58.22ID:y+B/4dVK0 無駄だね
522名無しさん@お腹いっぱい。 (ワッチョイ 5158-t1Nk)
2020/11/09(月) 00:53:13.01ID:RcX0SIqg0 だってそれ総合で見たし何聞きたいかよく分からんし無駄なんじゃない
523名無しさん@お腹いっぱい。 (ワッチョイ 81b1-Maji)
2020/11/09(月) 01:02:55.41ID:tIbnudMz0 DF始めるのにpcスペック情報なんてほとんどどうでもいいものだし
勝手に始めたらええやん
勝手に始めたらええやん
524名無しさん@お腹いっぱい。 (スプッッ Sd12-kS7F)
2020/11/09(月) 01:25:35.05ID:YU16Es0Wd あの画像で気になるところなんてスマホ充電しろ以外に何があると言うのか
525名無しさん@お腹いっぱい。 (ワッチョイ 19b0-t1Nk)
2020/11/09(月) 01:29:03.65ID:YiwAJ7jm0 ただの基地外レス乞食なのにおまえら優しいな
526名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 01:32:10.15ID:fPNAn+OG0 もういいよ
批判しか能がない生産性ゼロの消費者共は黙ってなさい
批判しか能がない生産性ゼロの消費者共は黙ってなさい
527名無しさん@お腹いっぱい。 (エムゾネW FFb2-iiQt)
2020/11/09(月) 01:35:05.57ID:80e1O0drF 向こうにもあったけどGPUがAMD製でなければあとはどんな構成でもとりあえず動くからな
なんならGPU無しでもいいわけだし
ちょっと情報が古いけど解説サイト見れば誰でも作れるし、見てもなんにも分からんなら頭のスペックが足りないとしか…
なんならGPU無しでもいいわけだし
ちょっと情報が古いけど解説サイト見れば誰でも作れるし、見てもなんにも分からんなら頭のスペックが足りないとしか…
528名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 02:08:49.69ID:fPNAn+OG0 amd ryzen って文字列が読めないの?
だから質問してんだよ
だから質問してんだよ
529名無しさん@お腹いっぱい。 (オイコラミネオ MM91-iiQt)
2020/11/09(月) 02:15:16.13ID:p197nIGnM530名無しさん@お腹いっぱい。 (オイコラミネオ MM91-iiQt)
2020/11/09(月) 02:16:53.75ID:p197nIGnM もしかしてRyzenとRadeonの区別がつかないのか?
531名無しさん@お腹いっぱい。 (ワッチョイ 0976-D/bg)
2020/11/09(月) 02:34:38.67ID:CeTZo8gu0 自分も数年前に自作面倒になってストームで作ったけど、名無しパーツが軒並み定評ある一流品なんだよね。
なんで書かないのか不明だけど、企業向けメインだから余ってるの使うんかなぁ。
クーラー・電源等、高いヤツ乗っててめっちゃ安かった、愛想が皆無だけど配線綺麗だったね。
>>517
だよねー。Googleは通報義務があって、メンドクサイからAI監視で所管国の法治機関に自動通報だから
ポリが動くかどうかだけ。DeepFake検挙の圧が高まってる今は特に。
実際ドライブに自分の娘(赤ちゃん)のお風呂写真2枚アゲたオッサンがいきなり逮捕されてたし
なんで書かないのか不明だけど、企業向けメインだから余ってるの使うんかなぁ。
クーラー・電源等、高いヤツ乗っててめっちゃ安かった、愛想が皆無だけど配線綺麗だったね。
>>517
だよねー。Googleは通報義務があって、メンドクサイからAI監視で所管国の法治機関に自動通報だから
ポリが動くかどうかだけ。DeepFake検挙の圧が高まってる今は特に。
実際ドライブに自分の娘(赤ちゃん)のお風呂写真2枚アゲたオッサンがいきなり逮捕されてたし
532名無しさん@お腹いっぱい。 (ワッチョイW d9b1-gwR3)
2020/11/09(月) 02:41:32.69ID:tMu9gRf30533名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 02:58:25.37ID:fPNAn+OG0 いやAMDじゃDFL最新版使えねえだろうが
だからソフトどうすればという話
だからソフトどうすればという話
534名無しさん@お腹いっぱい。 (ワッチョイ 5e8b-QVGU)
2020/11/09(月) 03:04:08.82ID:IJH2zHJT0 寝ろ
535名無しさん@お腹いっぱい。 (ワッチョイ 51f1-D/bg)
2020/11/09(月) 03:07:22.09ID:BRUjq08T0 その調子だとPC買っても無理だと思う。
536名無しさん@お腹いっぱい。 (ワッチョイ 19b0-t1Nk)
2020/11/09(月) 03:09:02.36ID:YiwAJ7jm0537名無しさん@お腹いっぱい。 (オイコラミネオ MM91-iiQt)
2020/11/09(月) 03:09:57.98ID:p197nIGnM いや上にRyzen3700で動くって人いるし俺も古いけどRyzen1700使ってるんだけど
お前のPCはCPUはAMDのRyzen3700でGPUはGeforceのRTX3070なんじゃないの
勘違い?
何度も言われてるけど、CPUは何でもいいし、GPUはAMDのRadeonじゃなきゃ(Geforceなら)何度もいいって話なんだけど
ただ上にあるとおりRTX3000シリーズで動くかは賭け
そのうち対応版は出るだろうけど
お前のPCはCPUはAMDのRyzen3700でGPUはGeforceのRTX3070なんじゃないの
勘違い?
何度も言われてるけど、CPUは何でもいいし、GPUはAMDのRadeonじゃなきゃ(Geforceなら)何度もいいって話なんだけど
ただ上にあるとおりRTX3000シリーズで動くかは賭け
そのうち対応版は出るだろうけど
538名無しさん@お腹いっぱい。 (ワッチョイW 6973-F5fy)
2020/11/09(月) 03:14:57.93ID:9rw2QZ7d0539名無しさん@お腹いっぱい。 (ワッチョイ 51f1-D/bg)
2020/11/09(月) 03:38:30.69ID:BRUjq08T0 >>537
HWだけじゃなく全ての要素を総合的に見たらID:fPNAn+OG0は動作させられないと思う。
HWだけじゃなく全ての要素を総合的に見たらID:fPNAn+OG0は動作させられないと思う。
540名無しさん@お腹いっぱい。 (ワッチョイ 0976-D/bg)
2020/11/09(月) 03:40:56.02ID:CeTZo8gu0 人工知能の前に、先ずは自分の知脳障害をナントカしろよってのが
定期的に湧くのは、エロ故の成すべき技なんだろーか?
ガイジの思考と健常者の思考をデコーダ化して、エンコーダで入れ替える
ディープガイジを開発すれば、意思疎通が可能になるのに。
定期的に湧くのは、エロ故の成すべき技なんだろーか?
ガイジの思考と健常者の思考をデコーダ化して、エンコーダで入れ替える
ディープガイジを開発すれば、意思疎通が可能になるのに。
541名無しさん@お腹いっぱい。 (エムゾネW FFb2-iiQt)
2020/11/09(月) 03:55:55.80ID:7k/5TvQaF 散々動くって言われてんのに暴れてるあたりマジモンのアレな奴なんだろうってのがひしひしと伝わってくるw
542名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 04:02:59.89ID:fPNAn+OG0 なんでもええから賭けとか無しで普通によく使えるやつ教えてくれ言うとんねん
なんでここまで言わんとわからんのや
なんでここまで言わんとわからんのや
543名無しさん@お腹いっぱい。 (ワッチョイW 126d-BHOs)
2020/11/09(月) 04:44:44.48ID:ouFY3sbv0 >>498
ばーか
ばーか
544名無しさん@お腹いっぱい。 (ワッチョイW 126d-BHOs)
2020/11/09(月) 04:48:34.29ID:ouFY3sbv0 自分で使い方すら調べられない奴を相手にしても時間が無駄だわ
英語どころか日本語も読めないだろ
英語どころか日本語も読めないだろ
545名無しさん@お腹いっぱい。 (ワッチョイW 51cc-1lIo)
2020/11/09(月) 07:55:39.38ID:oSGZeSF90 ソフトに学習させる前に自分の脳に20万回学習させた方が良いってか
546名無しさん@お腹いっぱい。 (ワンミングク MM62-V0d8)
2020/11/09(月) 08:04:46.31ID:+6rnijiLM 文章からだんだん余裕無くなっていくの草
まあせめてソフトのダウンロードぐらいは自分で出来ないと厳しいな
まあせめてソフトのダウンロードぐらいは自分で出来ないと厳しいな
547名無しさん@お腹いっぱい。 (ワッチョイW 3192-iiQt)
2020/11/09(月) 10:05:42.04ID:nHd5P5CZ0 PCの構成見せられて「どう?」としか聞かれてないし
とりあえず解説サイト見ていっぺん作ってみろとしか答えられないよな
作る上で詰まった点について聞くんならまだしも
とりあえず解説サイト見ていっぺん作ってみろとしか答えられないよな
作る上で詰まった点について聞くんならまだしも
548名無しさん@お腹いっぱい。 (テテンテンテン MM96-F5fy)
2020/11/09(月) 10:18:21.49ID:zWH9MIaSM 普通によく使えるやつってなんだよ
構成の話かソフトの話かもわからん
構成ならCPUは別にRyzenでも動くけどなんか気にしてるからi9買ってグラボは2080tiにすれば間違いない
Ryzenと3070のPCもう発注かけたんならとりあえずopenCLの1.0で遊びながら2.0の正規版が3000台に対応するの待てば?
Faceswapとかは知らん
構成の話かソフトの話かもわからん
構成ならCPUは別にRyzenでも動くけどなんか気にしてるからi9買ってグラボは2080tiにすれば間違いない
Ryzenと3070のPCもう発注かけたんならとりあえずopenCLの1.0で遊びながら2.0の正規版が3000台に対応するの待てば?
Faceswapとかは知らん
549名無しさん@お腹いっぱい。 (ワッチョイW ad02-3rNP)
2020/11/09(月) 11:42:09.98ID:fPNAn+OG0 って事はDFL一択ってくらい歴然たる差があるの?
ぶっちゃけ多すぎてわからんのよなこの界隈
ぶっちゃけ多すぎてわからんのよなこの界隈
550名無しさん@お腹いっぱい。 (アウアウウー Sacd-BHOs)
2020/11/09(月) 11:59:35.70ID:K9K4nNdNa >>549
いいから試してから言えよ
いいから試してから言えよ
551名無しさん@お腹いっぱい。 (ドコグロ MM1d-DjYi)
2020/11/09(月) 12:21:07.94ID:LE/KJpIJM 増えてると思ったらガッカリ
552名無しさん@お腹いっぱい。 (ワッチョイW 6558-Bfa+)
2020/11/09(月) 15:09:04.39ID:lIo+Pxpa0 アホはスルーで
553名無しさん@お腹いっぱい。 (アウアウウー Sacd-BHOs)
2020/11/10(火) 00:06:34.27ID:jkqKDcj6a それでいい
554名無しさん@お腹いっぱい。 (ワッチョイW 3111-rWPd)
2020/11/10(火) 05:30:38.07ID:iSzfgUgv0 どうやら似ない原因の一つはrandom flipをオンにしてるとダメだね
顔を反転させて足りない角度を作る機能だが
顔を半分に切って繋げてる様だ
顔を反転させて足りない角度を作る機能だが
顔を半分に切って繋げてる様だ
555名無しさん@お腹いっぱい。 (ワッチョイ 9e76-D/bg)
2020/11/10(火) 07:17:03.93ID:tN11tDf70 顔が歪んでるO彩佳や歪な表情をする吉高・柴咲・綾瀬等以外はあんま関係無いけどね。
それ以前に素材マッチングが9割以上を占める。姿形は兎も角、表情モーションで決まるな。
それよりも、ランダムフリップはDSTもフリップフリップゥー!で無駄に
学習時間倍増するし、正常存在データにも反転学習で収束阻害起こすから
足らん画角は事前に反転MP4仕込んでホクロだけレタッチしてOFFが鉄板でしょ。
これらの積み重ねで、ヘボいGPUでもすげぇSLIを超える仕上がり速度が得られる。
それ以前に素材マッチングが9割以上を占める。姿形は兎も角、表情モーションで決まるな。
それよりも、ランダムフリップはDSTもフリップフリップゥー!で無駄に
学習時間倍増するし、正常存在データにも反転学習で収束阻害起こすから
足らん画角は事前に反転MP4仕込んでホクロだけレタッチしてOFFが鉄板でしょ。
これらの積み重ねで、ヘボいGPUでもすげぇSLIを超える仕上がり速度が得られる。
556名無しさん@お腹いっぱい。 (ブーイモ MMad-wFu1)
2020/11/10(火) 12:43:22.52ID:tGvZlte6M >>555
素材マッチングのために2000人分の女優写真集使おうとしてる。サイトから巡回ソフトで落として、全部で10万枚ある。角度の悪い写真を取り除く作業の途中だが全然終わらない。
素材マッチングのために2000人分の女優写真集使おうとしてる。サイトから巡回ソフトで落として、全部で10万枚ある。角度の悪い写真を取り除く作業の途中だが全然終わらない。
557名無しさん@お腹いっぱい。 (ワッチョイW 61c9-0JBe)
2020/11/10(火) 14:16:15.65ID:Xqn2KSf40 >>556
マッチングに使うアルゴリズムは決まってるのん?
マッチングに使うアルゴリズムは決まってるのん?
558名無しさん@お腹いっぱい。 (ワッチョイ 1276-D/bg)
2020/11/10(火) 14:19:49.61ID:QwJJy83w0 それって何に使うの?意味あるの?
559名無しさん@お腹いっぱい。 (ワッチョイ 1276-D/bg)
2020/11/10(火) 14:27:31.09ID:QwJJy83w0 DFLの前にsrcに合うdstを探させるって事か
560名無しさん@お腹いっぱい。 (ワッチョイW 3636-HpUP)
2020/11/10(火) 22:46:26.25ID:UY8pqjk+0 マージするとdstの面影が強く残るようになってしまった
今までそんなことなかったし、train中のプレビューも良かったんだけどなぁ
今までそんなことなかったし、train中のプレビューも良かったんだけどなぁ
561名無しさん@お腹いっぱい。 (ワッチョイ 03b8-NSHw)
2020/11/11(水) 01:50:05.06ID:vRVJrRzo0562名無しさん@お腹いっぱい。 (ワッチョイW 2573-6mFn)
2020/11/11(水) 01:56:12.10ID:KSWQDPe/0 train中のプレビューのまま動画にしてほしいと思うことは多々ある
ちょっと聞きたいんですけどresultまで済ませた後extractしたsrcとdstの画像って保存してる?
自分はsrcは放置で次のsrcで上書き
dstは使い回せそうな感じならdstフォルダからmergeとmaskは消してあと残してます
ちょっと聞きたいんですけどresultまで済ませた後extractしたsrcとdstの画像って保存してる?
自分はsrcは放置で次のsrcで上書き
dstは使い回せそうな感じならdstフォルダからmergeとmaskは消してあと残してます
563名無しさん@お腹いっぱい。 (ワッチョイW 1592-Sff7)
2020/11/11(水) 02:41:42.52ID:W8zNnEYY0 >>562
基本両方残してるけど
srcはalignedだけ、dstはextract結果に満足すれば切り出したフレームとalignedだけ、それぞれpack.batでまとめてる
というか上書きって毎回srcのextractからやり直してるってこと?それとも同じsrcで作ることがないの?
基本両方残してるけど
srcはalignedだけ、dstはextract結果に満足すれば切り出したフレームとalignedだけ、それぞれpack.batでまとめてる
というか上書きって毎回srcのextractからやり直してるってこと?それとも同じsrcで作ることがないの?
564名無しさん@お腹いっぱい。 (ワッチョイ cb76-NSHw)
2020/11/11(水) 04:16:17.68ID:MCx2qdPx0 やる気無い時に、過去のSRCとDST組み合わせてテキトーに回してるなぁ。死ぬまで働けー!って感じで。
だからSRCのチョイス分alignedとDSTの全alignedはパックして全部残してる。
DSTのフレームPngは嵩張るんで元ネタのmp4だけ。
っで絶対合わなさそうなネタが頻繁にマッチするから、もう何が合う要因なのかわかりません・・
あと、2年熟成を続けたエンコーダとデコーダ、かなりヤバくなってる。
バッチ32でiter8000も回せば、どんな素材(メガネ以外)もビンビンになるわ。
だからSRCのチョイス分alignedとDSTの全alignedはパックして全部残してる。
DSTのフレームPngは嵩張るんで元ネタのmp4だけ。
っで絶対合わなさそうなネタが頻繁にマッチするから、もう何が合う要因なのかわかりません・・
あと、2年熟成を続けたエンコーダとデコーダ、かなりヤバくなってる。
バッチ32でiter8000も回せば、どんな素材(メガネ以外)もビンビンになるわ。
565連投失礼 (ワッチョイ cb76-NSHw)
2020/11/11(水) 04:31:53.48ID:MCx2qdPx0 輪郭・パーツ配置が明らかに違うのにマッチする奴見て気付いたことは、やっぱ表情や仕草の遷移で
(例えばホランは動作の直前に思考フリーズみたいのが一瞬入って、制止状態から別ポーズへのキレが鋭い、
絶対に優しげな表情をせず、バカにしてるような眼差し・微笑みしかしない)
静止画で容姿が似てる事より、モーション命ってことは分かったんだけど、
だからってどう探せばいいんだろう・・
(例えばホランは動作の直前に思考フリーズみたいのが一瞬入って、制止状態から別ポーズへのキレが鋭い、
絶対に優しげな表情をせず、バカにしてるような眼差し・微笑みしかしない)
静止画で容姿が似てる事より、モーション命ってことは分かったんだけど、
だからってどう探せばいいんだろう・・
566名無しさん@お腹いっぱい。 (アウアウウー Saa9-lwVy)
2020/11/11(水) 06:56:26.81ID:To9Fw6swa 愛嬌は表情と動作が作る
美しさは骨と皮膚が作る
エロさは脂肪が作る
美しさは骨と皮膚が作る
エロさは脂肪が作る
567名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/11(水) 10:46:07.90ID:xKnS2O760 似せるクオリティだけを求めるならdstからsrcを選ぶほうが近道なんだろな
たまーに雰囲気が似てるなってのがあるからそれに併せればいい
なんとなく似てる「激似」シリーズで作った事ある人っていないのかな
たまーに雰囲気が似てるなってのがあるからそれに併せればいい
なんとなく似てる「激似」シリーズで作った事ある人っていないのかな
568名無しさん@お腹いっぱい。 (ワッチョイ 4506-dT/H)
2020/11/11(水) 10:53:34.62ID:H5kFq16u0 対応グラボもってないので、とりあえずやり方だけでも覚えるために
google colabで試してるのですが、colabでx-segを読み込むことはできるようですが
colabでx-segのエディタは使えないのでしょうか。
google colabで試してるのですが、colabでx-segを読み込むことはできるようですが
colabでx-segのエディタは使えないのでしょうか。
569名無しさん@お腹いっぱい。 (ポキッー 23b0-Y0tO)
2020/11/11(水) 12:49:06.54ID:+7ChvgQu01111 関係ないけどGeForceのドライバーってどれくらいの頻度で更新してる?
余りにも頻繁にアプデ来るから毎回面倒過ぎるんだが・・・
余りにも頻繁にアプデ来るから毎回面倒過ぎるんだが・・・
570名無しさん@お腹いっぱい。 (ポキッーW ed58-+2Ll)
2020/11/11(水) 13:51:31.19ID:3jnPD3Kt01111 >>569
対応ゲームやらバグやら思い当たるものがあったら更新してる
けどDFLだけなら手持ちのグラボが動いてるなら更新不要では?
なんならスタジオドライバにしちゃうのもありかと
基本的に同等以上に動くし
もちろん環境次第だけど
対応ゲームやらバグやら思い当たるものがあったら更新してる
けどDFLだけなら手持ちのグラボが動いてるなら更新不要では?
なんならスタジオドライバにしちゃうのもありかと
基本的に同等以上に動くし
もちろん環境次第だけど
571名無しさん@お腹いっぱい。 (ポキッー MM43-PW4O)
2020/11/11(水) 15:49:34.44ID:O0E5xR28M1111 >>568
colabでx-segのエディタを使ったことはないけど、まずはGUIを
使えるようにしないといけないと思う
↓これとか手間掛かりそう
ttps://internet-of-tomohiro.netlify.app/google_colab/vnc.ja.html
colabでx-segのエディタを使ったことはないけど、まずはGUIを
使えるようにしないといけないと思う
↓これとか手間掛かりそう
ttps://internet-of-tomohiro.netlify.app/google_colab/vnc.ja.html
572名無しさん@お腹いっぱい。 (ポキッーW 2573-6mFn)
2020/11/11(水) 20:51:27.76ID:KSWQDPe/01111 >>563
毎回同じmodelの新鮮な動画からsrc取りしてます
ただiter100万くらいまではいい感じだったけど
200万過ぎた辺りからなんとなく違和感出てくるようになってきた
1回辺り2000くらい枚数用意して20-30万くらい回したら次のsrcみたいな使い方してます
毎回同じmodelの新鮮な動画からsrc取りしてます
ただiter100万くらいまではいい感じだったけど
200万過ぎた辺りからなんとなく違和感出てくるようになってきた
1回辺り2000くらい枚数用意して20-30万くらい回したら次のsrcみたいな使い方してます
573名無しさん@お腹いっぱい。 (ポキッーW 1b36-o0S1)
2020/11/11(水) 21:14:00.59ID:yQeI6t6q01111 >>567
似てるって言われてる人って目元とかパーツは似てても輪郭はそこまでってことが多い
だからdstとしては微妙なこともあるよね
輪郭と眉目口鼻の位置が似てる人が真に相応しいと思うんだけど、簡単に探せないものかね
似てるって言われてる人って目元とかパーツは似てても輪郭はそこまでってことが多い
だからdstとしては微妙なこともあるよね
輪郭と眉目口鼻の位置が似てる人が真に相応しいと思うんだけど、簡単に探せないものかね
574名無しさん@お腹いっぱい。 (ワッチョイ d558-Y0tO)
2020/11/11(水) 23:39:19.30ID:pRhS3Pfh0 最近は完全デコ出しのsrc使ってXseg-prdでerode0〜-25ぐらいをとって出力するのを試してる
dstによって生え際の違和感はあるけど顔はほぼほぼまんまのが出来るから自分用ならいいかなって
dstによって生え際の違和感はあるけど顔はほぼほぼまんまのが出来るから自分用ならいいかなって
575名無しさん@お腹いっぱい。 (ガラプー KKab-9+Yv)
2020/11/12(木) 07:33:02.46ID:GUd62WpeK たとえ似なくてもsrc本人よりかわいくなるならいいんだがなあ
576名無しさん@お腹いっぱい。 (ワッチョイ d5f1-Pj7A)
2020/11/12(木) 09:14:41.65ID:Wj3yF24T0 久しぶりに最新版落としてやってみたらいろいろ変わってて笛がうまくできない。
最新版のMargerのオプションはどれにすればいいんだ?
前みたいにfan-prd+fan-dstとかでお気楽に作れないのかな?
最新版のMargerのオプションはどれにすればいいんだ?
前みたいにfan-prd+fan-dstとかでお気楽に作れないのかな?
577名無しさん@お腹いっぱい。 (ワッチョイ cb10-gWUl)
2020/11/12(木) 09:28:19.51ID:Lg76zgpE0 5800xと3080で作ろうと思ってたけど3080tiのうわさも出てるし中々買えんな
2080tiと3070だと2080tiのほうがいいのかな?
2080tiと3070だと2080tiのほうがいいのかな?
578名無しさん@お腹いっぱい。 (ワッチョイ 2376-Pj7A)
2020/11/12(木) 09:44:00.29ID:HFQDP7H70 >>576
フォーラムにXsegマスク済の顔画像があるので、
それを利用してXseg Trainしている(顔はWFが多いけど、Fで)
(9)の最後のやつでMergeしている
srcのモデルに対し、dst×dstでTrain、笛、舌、前髪などがはっきりとプレビューで見える様になるまでTrain
顔の部分にかかった物のみが見えればいいと思います
srcとdstを混ぜて、yaw、pitchでsortして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います(liae-ud)
dstにあってsrcに無い角度が出てきたら、素材不足なのでsrcをつべから足しています
素材が足りたら、srcを類似でsortして、コピーしたdstを削除して通常srcとdstでtrain
フォーラムにXsegマスク済の顔画像があるので、
それを利用してXseg Trainしている(顔はWFが多いけど、Fで)
(9)の最後のやつでMergeしている
srcのモデルに対し、dst×dstでTrain、笛、舌、前髪などがはっきりとプレビューで見える様になるまでTrain
顔の部分にかかった物のみが見えればいいと思います
srcとdstを混ぜて、yaw、pitchでsortして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います(liae-ud)
dstにあってsrcに無い角度が出てきたら、素材不足なのでsrcをつべから足しています
素材が足りたら、srcを類似でsortして、コピーしたdstを削除して通常srcとdstでtrain
579名無しさん@お腹いっぱい。 (ワッチョイ 1b76-Pj7A)
2020/11/12(木) 10:23:49.66ID:s6LpwJ7W0 DST探し疲れたら、とりあえず吉良りん使ってみ。
かなり汎用性高いから。
>>572
最近のバージョンって過学習防止とリソース有効活用で、片側トレインオフ付いたんじゃ無いの?
因みに、浮くリソース分って丸々片方のトレインに割り振れるんだろーか?
かなり汎用性高いから。
>>572
最近のバージョンって過学習防止とリソース有効活用で、片側トレインオフ付いたんじゃ無いの?
因みに、浮くリソース分って丸々片方のトレインに割り振れるんだろーか?
580名無しさん@お腹いっぱい。 (ワッチョイW 1592-xxKQ)
2020/11/12(木) 11:35:04.74ID:J3UOKW5g0 基本的な質問ですみませんがsrcは複数の動画から作るより一つの動画から作る方が似やすいんですか?
581名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/12(木) 12:22:41.75ID:B873nvJca582名無しさん@お腹いっぱい。 (オイコラミネオ MM71-Sff7)
2020/11/12(木) 12:39:09.90ID:65btTtM9M >>568
今は亡きTwitter界隈の投稿者達の作品見返してたら肌の粒状感?とか目尻の細かいシワまで表現できてるのとかあるけど、GANとかTrueFaceとかでやってんのかね
それともそもそも素材と学習の解像度が高いのか
今は亡きTwitter界隈の投稿者達の作品見返してたら肌の粒状感?とか目尻の細かいシワまで表現できてるのとかあるけど、GANとかTrueFaceとかでやってんのかね
それともそもそも素材と学習の解像度が高いのか
583名無しさん@お腹いっぱい。 (オイコラミネオ MM71-Sff7)
2020/11/12(木) 12:39:30.15ID:65btTtM9M ごめんアンカーミス
584名無しさん@お腹いっぱい。 (ワッチョイ ed58-Y0tO)
2020/11/12(木) 15:33:14.43ID:so6fTjEw0 head悪くないな
髪色と長さが合えばまんま本人を作れることもある
髪色と長さが合えばまんま本人を作れることもある
585名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 17:06:43.92ID:ndk//35u0 皆学習何万回くらい回してるの?
↓くらいの前提だとして
・モデルはpretrain済み
・バッチ数は4〜6程度
・動画は3分程度
・resは256
正直自分は1日以上待てないから、10万回くらいで止めてしまうんだけども
↓くらいの前提だとして
・モデルはpretrain済み
・バッチ数は4〜6程度
・動画は3分程度
・resは256
正直自分は1日以上待てないから、10万回くらいで止めてしまうんだけども
586名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/12(木) 17:27:14.44ID:7J/LVAmJa >>585
回数じゃなくてloss値が0.2切るまでやってる
回数じゃなくてloss値が0.2切るまでやってる
587名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 18:06:54.12ID:ndk//35u0588名無しさん@お腹いっぱい。 (ワッチョイ 4b8b-WW/G)
2020/11/12(木) 18:25:20.92ID:jcKmYQVw0589名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/12(木) 19:13:45.86ID:7J/LVAmJa590名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 19:31:16.40ID:ndk//35u0591名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 19:48:04.57ID:ndk//35u0592名無しさん@お腹いっぱい。 (アウアウウー Saa9-q1Gx)
2020/11/12(木) 20:06:17.98ID:7J/LVAmJa >>590
まぁスリッパ3960xとRTX3090だからね(笑)
コア数も多分速度に関係してるんだと思う。
random warpは触ったことないんだわ。
loss値が前回の保存ポイントの値より高く保存されたときが3,4回続いたら一回止めて、GAN1.0で再学習してる。
それでしばらくほっといたら2.0切ってるからこの辺で終わるか〜って感じ
まぁスリッパ3960xとRTX3090だからね(笑)
コア数も多分速度に関係してるんだと思う。
random warpは触ったことないんだわ。
loss値が前回の保存ポイントの値より高く保存されたときが3,4回続いたら一回止めて、GAN1.0で再学習してる。
それでしばらくほっといたら2.0切ってるからこの辺で終わるか〜って感じ
593名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
2020/11/12(木) 21:03:20.62ID:ndk//35u0 >>592
RTX3000台か、それは速いはずだね
自分は2080tiだからさすがにそれよりは時間がかかる
なるほど、ほんとにlossが横ばいになるまで待ってからGANに移ってるんだね
参考になったわ、サンクス
RTX3000台か、それは速いはずだね
自分は2080tiだからさすがにそれよりは時間がかかる
なるほど、ほんとにlossが横ばいになるまで待ってからGANに移ってるんだね
参考になったわ、サンクス
594名無しさん@お腹いっぱい。 (スップ Sd43-XMjj)
2020/11/12(木) 21:34:00.85ID:wmji4AsNd 別にGANも必須じゃないし
むしろ設定してない人の方が多そう
むしろ設定してない人の方が多そう
595名無しさん@お腹いっぱい。 (ササクッテロ Spc1-b+pk)
2020/11/12(木) 22:19:58.98ID:AqQmlTNqp 結局どの程度のもの作ってるかもお互いわからない状況での議論には無理があるよね。
596名無しさん@お腹いっぱい。 (ドコグロ MMa1-JBbW)
2020/11/12(木) 22:49:49.73ID:12MsjdEzM 一年前にもしてたような話や質問がループしてる
597名無しさん@お腹いっぱい。 (ワッチョイ 2376-NSHw)
2020/11/12(木) 22:52:07.08ID:HFQDP7H70 >>576 >>588
XsegはFANSegと違って、作者が作成したモデルは無いからTrainが必要
で、フォーラムにXsegマスク済の顔画像があるから、それをありがたく使わせてもらって、Train
それで、笛、手などは結構いけるかな。舌出しが少ないかも知れない
dstのXsegマスクも、明らかに顔の角度とかが違うコマ数枚程度Maskしてもいいらしい
dstの向かって左側の眉に、前髪とかがかかっていれば、srcの前髪Maskも兼ねるので、なお良い
で、1000回程度Xseg Trainして、モデルにアプライ
それでMergeして見て、うまくいかなかったコマとかの代表をXsegマスクして、またXseg Train
XsegはFANSegと違って、作者が作成したモデルは無いからTrainが必要
で、フォーラムにXsegマスク済の顔画像があるから、それをありがたく使わせてもらって、Train
それで、笛、手などは結構いけるかな。舌出しが少ないかも知れない
dstのXsegマスクも、明らかに顔の角度とかが違うコマ数枚程度Maskしてもいいらしい
dstの向かって左側の眉に、前髪とかがかかっていれば、srcの前髪Maskも兼ねるので、なお良い
で、1000回程度Xseg Trainして、モデルにアプライ
それでMergeして見て、うまくいかなかったコマとかの代表をXsegマスクして、またXseg Train
598名無しさん@お腹いっぱい。 (ワッチョイ 15b0-Y0tO)
2020/11/12(木) 23:19:32.68ID:CfBrJPpv0 山口偽草レベルで作りたいのですがどうやれば出来ますか?
599名無しさん@お腹いっぱい。 (ワッチョイ 4b8b-WW/G)
2020/11/12(木) 23:28:19.66ID:jcKmYQVw0 あのレベルは普通にやれば作れるよ
600名無しさん@お腹いっぱい。 (ワッチョイ 2376-NSHw)
2020/11/12(木) 23:28:42.82ID:HFQDP7H70 >>576
Xseg Trainは、(FANSeg Trainと同じく)プレビューを見ると、Random Flipしてるっぽいので、少し左/右横顔どちらでもいけるのでは?
舌出し、前髪ありdstとか優先的にMaskすれば、笛もあるでしょうし
dst×dstの学習は、顔ぶっかけとかやりたい時に、海外勢はそれで作成していたらしい
Xseg Trainは、(FANSeg Trainと同じく)プレビューを見ると、Random Flipしてるっぽいので、少し左/右横顔どちらでもいけるのでは?
舌出し、前髪ありdstとか優先的にMaskすれば、笛もあるでしょうし
dst×dstの学習は、顔ぶっかけとかやりたい時に、海外勢はそれで作成していたらしい
601名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/13(金) 14:26:58.55ID:UA22R1HH0 自分も res256でやってるけど、
loss値 0.2以下はすごいなあ 50万回以上やってもせいぜい 0.4台です
0.4台で十分精細になっていて満足いくレベルなので、res256だとこんなもんかと
思っていました
loss値 0.2以下はすごいなあ 50万回以上やってもせいぜい 0.4台です
0.4台で十分精細になっていて満足いくレベルなので、res256だとこんなもんかと
思っていました
602名無しさん@お腹いっぱい。 (ワッチョイW ed58-+2Ll)
2020/11/13(金) 14:35:51.12ID:WXQn2pAd0 0.4って何かしら間違ってると思う
603名無しさん@お腹いっぱい。 (ワッチョイ 1511-gWUl)
2020/11/13(金) 15:10:57.98ID:Rp5MH8PG0 masked_trainingやlr_dropoutのオンオフでloss値は変わるんだし
どんな設定でTrainしてるのか明記せずにloss値だけ書かれても
その数値が良いとも悪いとも言えないし参考にもできないのでは…
どんな設定でTrainしてるのか明記せずにloss値だけ書かれても
その数値が良いとも悪いとも言えないし参考にもできないのでは…
604名無しさん@お腹いっぱい。 (ガラプー KKab-9+Yv)
2020/11/13(金) 18:13:33.36ID:RtQLpPEmK むしろ解像度高い方がloss値低くでる
605名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 20:01:53.29ID:8NvZYbW40606名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 20:26:09.99ID:8NvZYbW40 最新版とか、HDアーキが無くなった代わりに、-udとかで
R/W ON→R/W OFF→lr_dropoutオンにしてくれ
それで似るとか、Loss値が下がるとか
lr_dropoutオンにできない設定だとまずいでしょう
R/W ON→R/W OFF→lr_dropoutオンにしてくれ
それで似るとか、Loss値が下がるとか
lr_dropoutオンにできない設定だとまずいでしょう
607名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/13(金) 20:54:46.03ID:UA22R1HH0 >>605
たぶん、srcの枚数が多いからだと自分では思っています 2万枚ほどあるから
そのせいかなと。
設定は df-ud wf res256 dimsは 320-96-96-22 pretrain済で
もちろんrw off ir-dropout on マスクtrain はoff(xseg-dst で十分なので)
障害物はないです。
たぶん、srcの枚数が多いからだと自分では思っています 2万枚ほどあるから
そのせいかなと。
設定は df-ud wf res256 dimsは 320-96-96-22 pretrain済で
もちろんrw off ir-dropout on マスクtrain はoff(xseg-dst で十分なので)
障害物はないです。
608名無しさん@お腹いっぱい。 (ワッチョイW 1587-8D3Z)
2020/11/13(金) 21:30:49.17ID:Cfx3dLjb0 Srcに素材追加したい場合って最初からやり直す他方法ってない感じですか?
609名無しさん@お腹いっぱい。 (ワッチョイ 75b1-Plbh)
2020/11/13(金) 21:37:24.22ID:NL8RZuj70 残したいsrcのalignedのファイル名を変えるか他に移しておいて
新しいの作ったらそこに足せばいいんじゃないの
新しいの作ったらそこに足せばいいんじゃないの
610名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 23:09:40.45ID:8NvZYbW40 >>607
srcは最大でも15,000枚程度とかあったような。。
BestでSortしてはどうでしょうか?もちろんバックアップしてから
自分はsrcのフォルダにdstをコピーして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います
学習効率を上げる仮説
【初期学習】src画像/dstは適当に1枚
randomwarp/learningmask/lrdropout/trueface等はOFFにして処理速度を上げる
ある程度(数万回?)trainする
【本番】dst画像を作りたいものにして通常trainする
これをsrcごとに行ってそれぞれの学習を進めていく
srcは最大でも15,000枚程度とかあったような。。
BestでSortしてはどうでしょうか?もちろんバックアップしてから
自分はsrcのフォルダにdstをコピーして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います
学習効率を上げる仮説
【初期学習】src画像/dstは適当に1枚
randomwarp/learningmask/lrdropout/trueface等はOFFにして処理速度を上げる
ある程度(数万回?)trainする
【本番】dst画像を作りたいものにして通常trainする
これをsrcごとに行ってそれぞれの学習を進めていく
611名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 23:15:06.67ID:8NvZYbW40 >>607
wfと言う事は、Xseg Train必須とかありましたね
srcの前髪、おでこのMaskが少なくて、XsegモデルのTrain不足とか?
Xsegモデルを5.XSeg) data_src trained mask - apply.batするとか?
wfと言う事は、Xseg Train必須とかありましたね
srcの前髪、おでこのMaskが少なくて、XsegモデルのTrain不足とか?
Xsegモデルを5.XSeg) data_src trained mask - apply.batするとか?
612名無しさん@お腹いっぱい。 (ワッチョイ cd0c-Pj7A)
2020/11/13(金) 23:30:25.90ID:UA22R1HH0 >>610,611
ありがとうございます。
srcはなにもソートせず、順番考えず、そのまま使っているので(もちろん、障害物や、
ぼけているやつや、ミスっている不要なのは削除済)
確かにそのせいかもしれませんね。整理してやってみます。
xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
流用するやりかたをしているので結果としては十分にマスクできているのですが、
今のdstモデルではトレーニングしてないことになるので確かにそれもあるかも
しれないなあ。
ありがとうございます。
srcはなにもソートせず、順番考えず、そのまま使っているので(もちろん、障害物や、
ぼけているやつや、ミスっている不要なのは削除済)
確かにそのせいかもしれませんね。整理してやってみます。
xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
流用するやりかたをしているので結果としては十分にマスクできているのですが、
今のdstモデルではトレーニングしてないことになるので確かにそれもあるかも
しれないなあ。
613名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/13(金) 23:57:15.29ID:8NvZYbW40 >>612
ぬぬ。。
SAEHD_default_options.dat→XSeg_default_options.dat
SAEHD_data.dat→XSeg_data.dat
SAEHD_src_dst_opt→XSeg_256_opt.npy
SAEHD_inter_AB.npy→XSeg_256.npyまたは
SAEHD_decoder_dst.npy→XSeg_256.npy
って事?
ぬぬ。。
SAEHD_default_options.dat→XSeg_default_options.dat
SAEHD_data.dat→XSeg_data.dat
SAEHD_src_dst_opt→XSeg_256_opt.npy
SAEHD_inter_AB.npy→XSeg_256.npyまたは
SAEHD_decoder_dst.npy→XSeg_256.npy
って事?
614名無しさん@お腹いっぱい。 (ワッチョイW 45b1-gCq8)
2020/11/14(土) 00:02:11.48ID:vlduy/VD0 masked_trainingがoffだとプレビュー画面で見えてる四角内の全部(顔+背景)が学習対象になって、loss値の評価も四角内全部になるから絶対値が大きくでる、っていうことじゃないかな?
自分も経験してるけど、間違ってたらごめんなさい
自分も経験してるけど、間違ってたらごめんなさい
615名無しさん@お腹いっぱい。 (テテンテンテン MM4b-8D3Z)
2020/11/14(土) 00:21:24.16ID:WRZK6oIIM Dstマニュアル顔抽出で2つの顔指定することってできない?vrで片方の顔だけ自動抽出できなかった時に手動で治したいだが片方しか選択できない
616名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 00:53:13.09ID:NPdvuDuD0 masked_trainingがoff/on切り替えられる昔の版で、Onにしておかないと
最新版とかではmasked_trainingがOnにならない(モデル流用時)
新規モデル作成とかだと、無条件でOnになるはず
masked_trainingがOffのままだとまずいのでは?
旧版持っていないですか?
最新版とかではmasked_trainingがOnにならない(モデル流用時)
新規モデル作成とかだと、無条件でOnになるはず
masked_trainingがOffのままだとまずいのでは?
旧版持っていないですか?
617名無しさん@お腹いっぱい。 (ワッチョイ 2376-D0pj)
2020/11/14(土) 00:55:38.11ID:NPdvuDuD0 昔、dfhdとかでやっていたので、df-ud、liae-udで無条件に新規Trainしましたね
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 石破茂氏、「高市さんよくぞ言った」の空気に待った 存立危機事態…考えてはいても「公の場で言うことか」:東京新聞 [少考さん★]
- トランプ氏、日中の対立を懸念 首相に「エスカレート回避を」−日本政府関係者(共同) ★2 [蚤の市★]
- 中国外務省「正式な発言撤回なければ受け入れず」 高市首相は台湾有事「存立危機事態」言及せずも「言及しないことと撤回は別問題」★2 [ぐれ★]
- 【おっぱい】「女性を見つけた瞬間に揉みたいという衝動にかられ…」路上で25歳女性に不同意わいせつ行為か 21歳土木作業員の男を逮捕 [nita★]
- トランプ氏、日中対立激化は望まず 直接関与に日本政府内に危機感も [蚤の市★]
- 【文春】元TOKIO・国分太一(51)「女性スタッフ2名への“わいせつ事案”」日テレ事情聴取の全貌が分かった! ★11 [Ailuropoda melanoleuca★]
- イーノック、そんな装備で大丈夫か?
- 水道料金、来年から3倍wwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww [329329848]
- 高市「国民が何兆円損しても在外邦人の安全が脅かされても絶対に謝らん」 ネトウヨ「高市さんは国民を第一に考えてる」 マジで何なの? [314039747]
- 【悲報】国民健康保険料、2026年から引き上げ決定WWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWWW
- おい、そこのお前
- 日経「"戦時になっても国を統治できる体制"を整えることが高市首相に課せられた重大な責任」 [289765331]
