【AIコラ】fakeapp その13【革命】

■ このスレッドは過去ログ倉庫に格納されています
1
垢版 |
2020/03/08(日) 21:28:26.92
deepfakesの技術交換スレです。

前スレ
【AIコラ】fakeapp その12【革命】
https://phoebe.bbspink.com/test/read.cgi/ascii/1580015540/

テンプレに書いてない質問はok
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
355名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/22(木) 23:28:34.33ID:h+j4PQwM0
>>354
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.1
の方ですね
356名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
垢版 |
2020/10/22(木) 23:59:08.67ID:eIyg8eQY0
>>355
動いた!ありがとう!
速度はこんな感じ。まぁまぁ。満足

1070ti 3080
256*4bacth 610ms 330ms
192*8bacth 630ms 340ms

どちらも1.85倍だけどそれ以上に目鼻立ちの生成が早い気がするが
それは気のせいだろうか・・?
357名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/23(金) 00:11:19.51ID:HqbYDjga0
>>356
おめでとう
自分はまだ、スクラッチから本格的にtrainしてないので違いはわからないけど
3090にしたので今まで以上に高batchで動かせるので目線合わせ優先オプションとかで早く効果がでるかとか期待してます
そのほかNvidiaライブライブ側の改良で高効率化の可能性もあるかもしれないですね
358名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/23(金) 00:13:22.89ID:HqbYDjga0
×ライブライブ
○ライブラリ 汗
2020/10/23(金) 00:14:21.92ID:RtB5hXlX0
ベンチ以外で役立つ時が来るなんて胸熱だね
2020/10/23(金) 01:19:36.74ID:2S0YPlgP0
3090クッソ速くて草
タスクマネージャー読みでVRAM20GB使うような学習でこの速度はすごい
https://i.imgur.com/8aRfjAG.jpg
2020/10/23(金) 01:23:14.70ID:c3ko3rIU0
ヴォースゲー
使用率は100%近くに張り付いたまま?それとも余力ある感じ?
2020/10/23(金) 01:24:00.02ID:c3ko3rIU0
失礼20/24か
2020/10/23(金) 05:56:33.80ID:52gZjbAX0
すげぇなあ
こんなけ早かったら学習見てるのも楽しそうだ
2020/10/23(金) 08:25:40.37ID:bSYHZ+T3K
いいなあRTX3090
しかし、やっぱり昔より要求されるVRAMが高くなってるっぽいな
解像度160のバッチ8でも20GBかよ
365名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/23(金) 09:16:27.05ID:HqbYDjga0
いや、VRAMに余裕があるので先行して余分にメモリ確保されているような動きでは?
もう少しbatchを上げても20GBから変わらないはず
あと、最新の-ud付きのarchiなら少メモリ・高性能になるんじゃないかな?
それともdimsを上げてるからいっぱいいっぱい?
2020/10/23(金) 10:56:10.94ID:l5UGsWh+0
3080の10Gじゃ足りん・・・
どうせ夜中にまわすからメインメモリ使わせようかな
OCメモリとか使ったら速くなるのかな
2020/10/23(金) 12:15:05.24ID:NfJNELhdM
>>366
俺も感じてる。
場合によっては元々使ってた
1070ti*2 16MBの方が使い勝手良い。

あと、顔抽出がめっちゃ遅い。
CPUが使われてる?
2020/10/23(金) 13:47:17.75ID:Y+JuKCrt0
Gefoの人、メインメモリ流用したらどれぐらい遅くなりますか?
うちradeの8Gなんで買い換えようと思ってるんですが、メインメモリ13G程度流用して
現状256でバッチ8、128でバッチ32で回るんで、あんま不自由なくて躊躇してます。

ちな、上で張ってくれてる3090が160バッチ8で400msっての
当然ぶっちぎりでウチの16倍ぐらい速度出て羨ましい限りですが、
逆に4千円のRXと23万の3090でもその程度の差なのかっとも感じてます。
2020/10/23(金) 14:31:06.53ID:Fl/jVmhW0
メインメモリ流用って
どうやるの?
2020/10/23(金) 15:31:58.61ID:l5UGsWh+0
>>367
テスト程度でしか触ってないんでうろ覚えだけど顔抽出時全スレッド100%で動いてたから
3000対応版はCPU動作になってるのかも。3000非対応のほうもGPU指定してもCPUになってた気がする

メインメモリ利用時もこれまたうろ覚えだけどVramより3〜4倍かかってたような?
2020/10/23(金) 19:34:12.63ID:NfJNELhdM
少し前に3080のメモリだけ増やしたバージョンが出るかもって記事みたけど。あれはデマだったんだろうか。すごくメモリがほしいがさすがに3090はなぁ。
372名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
垢版 |
2020/10/23(金) 20:58:07.09ID:2KFTMctm0
>>368
6400msとか俺は絶対無理だわ・・・
1.0から2.0にするだけでもかなり早くなるから
安物のgefo買った方がいいと思うが。
2020/10/23(金) 21:42:15.58ID:mi5784WO0
>>370
メインメモリ流用はCudaの速度の利点がスポイルされるんで、Gefoではイマイチですね。
RadeはOpenCLの遅さのせいで、VRAM8Gでバッチ16と
メインメモリ共用のバッチ32では1.8倍遅い程度なんで、並行学習数も相まって効果的なんですが。

>>372
1学習6秒前半ってのは最速時で、調子悪いと7秒掛かりますwっが、元々CPUで試してたモンで。
っま、おかげでデータ整理の技が磨かれて、24時間も回せばLoss0.1切りまで下げられるほどに。

因みにちょっと調べたんですが、ディープラーニング界隈でのイテレーションってのは
データセット一巡で1Iterって表現になるらしく、データ数 / (1学習×Batch数) = 1イテレーション、
例えば3200データ/バッチ32=100よって、1イテレーション=100Iter(学習)ってことらしいっす。
しらんけど。
374名無しさん@お腹いっぱい。 (ワッチョイ 12b8-8DiG)
垢版 |
2020/10/23(金) 22:09:35.99ID:2KFTMctm0
>>373
データ数増やしてもイテレーション時間
は変わんないから違うんじゃないかなぁ・・・

1学習7秒なら1か月くらいかかりそうだが、
それが24時間で終わるってのは不思議だな。
実際できるなら確かに買い替えは不要だ。
2020/10/23(金) 23:11:39.05ID:mi5784WO0
>>374
ちょっとわかりにくい書き方になってたので補足を。
Train中のCMD画面やプレビュー画面に出てくる「Iter」ってのは、あくまでも1データの学習✕バッチ数で
これを所謂「1イテレーション」と言うべきじゃ無いのでは?って話です。

あと24時間でギンギンになる件、1.0のDF128でバッチ数32以上だと素でかなり仕上がり速いのと
髪の毛・障害物・ブレ・ズレ・連続性欠如が学習遅くなるので、学習データ収集とランドマーク修正を徹底します。
まぁ普通の事だけど、昔は2週間回してもボケてたのに、同じ元ネタを再整理・エンハンスして回したら
1日で0.092になってたんで、やっぱデータ整理が最重要ですね。

っまムダな努力と時間の浪費だし、ランドマークで腱鞘炎になったんで買い替えますが、
まだテンソルコア未対応なんですよね・・
376名無しさん@お腹いっぱい。 (ワッチョイ 12b8-LA9s)
垢版 |
2020/10/23(金) 23:55:50.53ID:2KFTMctm0
>>375
なるほど。
どっちにしろ金に困ってないなら
買うた方がええね。
2020/10/24(土) 00:56:51.27ID:QcM6vCJa0
今は良くても夏場はどうする気なんだろ
100%フル稼働なんだろ?
2020/10/24(土) 01:02:14.64ID:N3biyeat0
何でそんなに悔しそうなんだよw
2020/10/24(土) 12:48:05.44ID:8Q/YgJi70
3000対応版、train始めて数分したら落ちるなぁ
さらには1.のopenCL版もエラーでるようになってしまった
2020/10/24(土) 19:49:38.42ID:mpE8xggA0
>>360
この学習のmerge画面だけど、mergeもめっちゃ早くなってる。13it/sとか初めて見たわ
2020/10/24(土) 19:54:46.67ID:mpE8xggA0
>>380
画像忘れてた
https://i.imgur.com/nbAt4br.jpg
2020/10/24(土) 20:00:58.67ID:N3biyeat0
マージはそんなにGPU使ってなかった気もするけど
使用率はどんなもんなんだろう?
2020/10/24(土) 20:06:19.34ID:mpE8xggA0
>>381
>>382
たしかにそんな使ってないね
cudaが良くて30%ってところか
https://i.imgur.com/szAKmND.jpg
2020/10/24(土) 22:08:59.63ID:N3biyeat0
GPUもCPUもトレインは全力なのに,、マージは余力たっぷりでサボってるよな
最後まで気を抜かないで仕事をしてほしい
2020/10/24(土) 22:36:28.66ID:jniyLvCf0
久々に先週から、石○ゆ○子と仲○由○恵と赤○珠○とホ○ン○秋
作ってたら、なんか急激に飽きてきた・・今、熟女系にハマってるんですが

最近気付いたんだけど、モデルデータ流用時にData.datは新規にして、
エンコーダとデコーダだけ流用するほうが学習が速いですよね。
何故なのか理由分かる人います?
386名無しさん@お腹いっぱい。 (ワッチョイW 7e1e-THo2)
垢版 |
2020/10/25(日) 11:21:51.72ID:3u8KmkM10
dstデータのdebugフォルダを確認した時に、顔の認識がおかしな事になっている部分ってそのまま学習させて行っても顔を正しく認識するようにはならないですか?

髪の毛や顔の角度のせいで顔と認識出来なかったり、手とか背景のせいで顔ではない部分が口とかとして認識されてしまっていたりする部分です。
2020/10/25(日) 11:44:53.81ID:m8d5/ZGu0
>>386
debugフォルダ内の認識していない画像を削除して、
「5) data_dst faceset MANUAL RE-EXTRACT DELETED ALIGNED_DEBUG.bat」を実行。手動で抽出。
そういうことじゃなくて?
2020/10/25(日) 12:36:24.80ID:t5Kc4llpM
ttps://gazlog.hatenablog.jp/entry/20gbrtx308016gbrtx3070cancelled
メモリ倍増モデル発売延期。
これショック。
389名無しさん@お腹いっぱい。 (ワッチョイW 7e1e-THo2)
垢版 |
2020/10/25(日) 16:55:11.51ID:3u8KmkM10
>>387
ありがとうございます!
手動で認識し直しできました。
まだ障害物の多いシーンや顔半分隠れてたりすると認識させれなかったりしますが誤認に関してはある程度対応できそうです。
2020/10/25(日) 16:58:14.69ID:8ibR3/EG0
>>325
声変換って何使ってるの?
2020/10/26(月) 16:56:48.22ID:CrnMz1Gh0
3080で使うにはgithubの3000対応版とcudatoolkit11.1、11.1用のcuDNNだけでいいのかな?
python入れたり、そこからなにかインストールとかいらないんだろか
392名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/26(月) 17:02:18.36ID:0WQzUpBi0
result.mp4まで作れた後、追加の遊び方としてこれはどうだろう?
1. data_dst\aligned内の正方形jpgを連結してdata_dst.mp4(2)を作る。抜けてる番号のは真っ黒なjpgで代用する
2. data_dst.mp4(2)から顔抽出してdata_dst\aligned(2)を準備する
3. 既に学習済みのmodelを使って(2)をmergeしresult.mp4(2)を作る
4. 常に顔どアップな(2)をそのまま楽しむのもいいが、普通に16:9で作った(1)の右上にワイプとして(2)に埋め込む (要動画編集ソフト)
2020/10/26(月) 18:26:07.58ID:BzwGotNMM
>>391
要らない、ホントにかいてることだけでいけた。
2020/10/26(月) 18:31:39.68ID:BzwGotNMM
>>392
いまいち状況がわかってないが、resultから顔抽出して動画にするのと何か違うん?
395名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/26(月) 18:42:47.48ID:0WQzUpBi0
>>394
mergeするときのdata_dst\alinged\のjpg群は
同じく
mergeするときのdata_dst\の母体画像から抽出したものでないと上手くmergeできないですよね
jpg側に母体画像のどこの座標から切り取ったかの情報が埋め込まれているはず

なので1回目の成果物から顔アップのFAKE動画を作ろうとなると上のようになるかと
まだ構想段階なので間違ってるかもですが
396名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/26(月) 18:56:41.91ID:0WQzUpBi0
>>394
ごめんなさい
再mergeすらいらないんじゃない?
という意味では、ある意味そうですが、
例えばRes448で学習させたものを、1回目のmergeで大き過ぎたり小さ過ぎたりな顔で出力したresult.mp4の映像を再利用するよりかは
512x512で均等な顔の大きさで作ったdata_dst.mp4(2)から2回目のmergeをした方が、高品質な顔アップFAKE動画が作れるかな、という期待です
397名無しさん@お腹いっぱい。 (ワッチョイ 12b8-LA9s)
垢版 |
2020/10/26(月) 19:19:03.69ID:2uACU5bE0
>>396
成果物としてはDSの脳トレにでてくる
顔だけのオッサンみたいなものかい?
そもそもFAKEになってるのかそれはw
一回作って揚げてみせてくれと言いたいところだが
共有できんのが痛いな。
398名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/26(月) 19:27:08.45ID:0WQzUpBi0
>>397
そうですね
アルファマスクを活用すればその脳トレおじさん風にもできそうですね
共有はできないですが上手くワイプ化できれば見栄えは良くなりそうです
399名無しさん@お腹いっぱい。 (ワッチョイ 12b8-LA9s)
垢版 |
2020/10/26(月) 19:32:16.95ID:2uACU5bE0
そういえばだれか教えてほしいけど。
fake動画の題材にしてもいい人っているんかな?
(もちろんヌードなし真面目な内容で)
トランプとかプーチンとかが何の遠慮もなく使われてるけど
あれも大丈夫なんかな。
400名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/26(月) 19:48:12.69ID:0WQzUpBi0
ちなみに、
脳トレおじさん状態にして、音声を著作権フリーにしたFAKE動画は法に問われるか?
が興味深いw
2020/10/26(月) 20:07:01.00ID:rLyABmm60
既に鬼籍に入った人を題材にした場合はどうなるの?家族とかに訴えられる?
402名無しさん@お腹いっぱい。 (ワッチョイW d1b1-xMNm)
垢版 |
2020/10/26(月) 20:07:50.99ID:0WQzUpBi0
ソースコードいじれる方でしたら
通常のmerge処理のついでに、顔アップ版のmerge画像を出力させること、難しくは無さそうですね
2020/10/26(月) 20:57:31.31ID:Wt7KtfjV0
もうやってる
2020/10/26(月) 21:09:20.78ID:kLwhQv1P0
>>393
ありがとー。でもやってみたけどtrain始めてしばらくしたらsysnc errorみたいなの吐いて落ちる。
環境かなぁ 1.0のopenCLなら問題ないからこっちで頑張るか…
405名無しさん@お腹いっぱい。 (ワッチョイ 12b8-LA9s)
垢版 |
2020/10/26(月) 22:07:43.86ID:2uACU5bE0
>>404
train自体は始まるけど暫くしたら落ちる感じ?
設定を軽量にしても落ちるなら原因わからんね。
そもそも始まらないならインストールの手順がおかしいかもと思うけど。
2020/10/27(火) 01:03:44.68ID:Zl7wFivw0
>>405
Quick96もSHADEも始まるものの数分で止まりますね。Vramも余裕あるけど
エラー吐いて止まるっていう。やっぱ環境すかねぇ…
1.0使いながら正式対応版期待してまっときますw
2020/10/27(火) 16:20:03.15ID:bOqCSIKY0
同僚とか近くのコンビニの店員で作りたいけど写真手に入れるハードルが高すぎる
ばれたらえらいことやから盗撮は出来んし‥
2020/10/27(火) 16:32:25.77ID:4qmjR0qN0
顔認証システムのAIを作ってるエンジニアです
1万円支払うので協力願えませんか?
色んな角度から動画撮影を行いますが他では使いません!
2020/10/27(火) 16:36:30.46ID:bOqCSIKY0
一万で手に入るなら払うけど怪しすぎるわwww
snsとかやってたら簡単に手に入るんだろうけどなぁ
あと10年もしたら卒アルから作れるようになったりしてな
法律が進んでディープフェイク作成ソフトの公開が違法になるかもしらんが
2020/10/27(火) 16:45:21.53ID:ERtkicshK
上を向いた顔を集めるのが大変だわ
2020/10/27(火) 20:32:08.75ID:z6+LF/4oM
あんがい写真だけでも数あれば割と作れるもんだね
2020/10/27(火) 20:46:34.87ID:spSbQSk90
はあ?
エアプは黙ってろよ
2020/10/27(火) 21:34:33.00ID:Jx/rJ5Mh0
10万回以上回したモデル流用して、正面に限るけどね
正面だけならほぼ問題ないぞ
2020/10/27(火) 22:56:48.00ID:l6YtcvRQ0
友達の結婚式のコメントを集めてるけど
友達が少ないから友達のフリをしてコメント動画を撮らせて下さい
お願いしますっ!!┏〇
台本考えて3パターンくらい撮らせてもらえば尺もクリア
2020/10/27(火) 23:26:15.84ID:ksLsKbpB0
推しとのオンライン握手会であっち向いてホイw
2020/10/28(水) 00:28:16.33ID:I87HQowX0
自分用でシーン集められるなら別に正面だけでもいいしな
2020/10/28(水) 15:03:18.86ID:OjNPWEL40
DFLってグラボのSLIに対応してる?
2020/10/28(水) 16:30:57.16ID:FsENVKBa0
前出のRadeの者ですが、2.0でお聞きしたい事がもう一点あります。
コンバート時の色合わせって、現バージョンでは何か進展してますか?

1.0のクローズまで色々オプションパラが追加されたけど、どれも使いもんにならず、
結局は初代のOverlay&rctが一番マシって状況が続いてました。
(idtだと一番マシなOverlayでも、極端なダイナミックレンジで白飛び・黒飛びが出るし、
HistmachやSeamlessを使用すると、erodeやBlurで範囲拡張する場合、周辺の色が交じる上
障害物があるとFan-X使っても混じってしまい完全に破綻するし、常に色が暴れる)

Overlay&rctではカラーレンジが狭く、逆光や片側光源では陰影が一致せず、
アルファ吐きで動画編集ソフト上にて手動補正でなんとか色・陰影合わせするしか無いけど
一番仕上がりがマトモって状況が続いてました。

均一光源のDst使えば良いんですが、そういう映像だからFake動画がつまらん絵になるワケで
美しい印影の動画で作ると、かなりエロい高級なのが出来るんです。

っつーワケで、最新版での色・陰影合わせ・色ブレ対策はどんな感じになってます?
419名無しさん@お腹いっぱい。 (ワッチョイ b3b8-L1Xi)
垢版 |
2020/10/28(水) 19:06:46.98ID:e9pyeq/m0
>>417
してる、ただメモリが倍になるだけで
trainが早くはならないので注意。
(でもface extractは倍速になるので
結構気に入ってる)
2020/10/29(木) 12:37:14.74ID:8KwMWUr40NIKU
>>398
普通にmergeする時にmodeをraw-predictにすれば近いものは作れますね
train時のプレビューが出力されるみたいでdstの背景は反映されませんけど
421名無しさん@お腹いっぱい。 (ニククエW f9b1-VwRA)
垢版 |
2020/10/29(木) 14:37:07.96ID:rAuHNvbq0NIKU
>>420
ありがとうございます
実はソースをいじり始めいて、確かにrawモードってやつだと背景をmergeせずに、学習した顔だけ出力しているようでした
Pythonは未経験でしたが、前後のソースを参考にmergeのコア処理後の顔アップ画像が保存できるようになり、ワイプ化(ここは動画編集ソフトで)できました
422名無しさん@お腹いっぱい。 (ニククエW f9b1-VwRA)
垢版 |
2020/10/29(木) 14:41:37.31ID:rAuHNvbq0NIKU
ちなみに
この手法で顔アップ動画をつくると、現状の顔抽出ツールの不連続さから、かなり動きがカクツクのですが、連結した後の動画を手ブレ補正系の変換を強く効かせたところ、かなり滑らかなものにできました
423名無しさん@お腹いっぱい。 (ニククエ b3b8-L1Xi)
垢版 |
2020/10/29(木) 19:34:20.11ID:2/hkgh4c0NIKU
質問です
dstの輪郭や目鼻口の位置を無視してsrcをそのまま被せる
もしくはそれに近い設定ってありますか?
2020/10/29(木) 20:11:50.20ID:OPrFtLE60NIKU
GAN上げてみたらどうかな
ただやる前にmodelのバックアップはしておいた方がいい
2020/10/29(木) 21:02:42.69ID:TtodVaTt0NIKU
>>423
mergeでrawを選択したらいんじゃないのかね
trainのプレビュー画面の枠全体が置き換わるはず
ただしtrainをしっかりしないと枠内の背景がモヤッとしちゃうが
的外れだったらごめんよ
426名無しさん@お腹いっぱい。 (中止 b3b8-L1Xi)
垢版 |
2020/10/31(土) 00:47:23.27ID:VuXqAgFf0HLWN
>>424
ありがとう
GANて解像度が上がるものだと思ってるけど。
それで顔の形変わったりしますか?
>>425
ありがとう、それもやってみます
427名無しさん@お腹いっぱい。 (中止 b3b8-L1Xi)
垢版 |
2020/10/31(土) 23:12:05.58ID:VuXqAgFf0HLWN
PCI-E x16スロットがグラボを認識しなくなって、
代わりにx4にさしてるんだけど
これボトルネックになるかな?
特に遅くなってる感じがしないけど。
2020/11/01(日) 10:58:30.22ID:qiumODiT0
~pack.batみたいに無圧縮でファイルを纏められて、高速で展開できるツールってなんかないですか?
数千、数万のファイルを操作するのが地味に手間なんで
2020/11/01(日) 14:37:39.08ID:ey9nij4H0
>>428
.tar形式なら無圧縮なのでそこそこ早いし、フリーツールも沢山あるけど
固めたままでの中身参照はできないんじゃないかな?
自分はSSD→HDDへバックアップ保存や別PCへの転送時に使ってる
2020/11/02(月) 00:51:48.62ID:YQKZmYtRF
>>429
ありがとうございます
試してみます
中身の参照は特に考えてなかったので問題ないです
2020/11/02(月) 09:44:43.49ID:pDbHZcTf0
グラボのメモリが重要なのはわかったけど、2080tiと3080だとどっちのほうがいいの?
メモリとかグラボの性能での違いって時間だけで仕上がりのクオリティには影響ないの?
あとグラボ以外のスペックはどんくらいあったらいいんだろ?
2020/11/02(月) 12:32:20.03ID:te+8FA8eM
>>431
少なくともDFLが完全に対応したら3080のが上だと思う。
train速度はあくまでCUDAコア数に比例するからメモリ増加で直接的に早くはならない。メモリ倍なら最大バッチ数も倍になるけど、倍速には程遠いというのが所感。バッチ数はクオリティに影響するらしいけど俺は違いわからん。どっちかっていうと高解像度にしたい時にメモリがネックになるから欲しい。
2020/11/02(月) 12:37:21.30ID:te+8FA8eM
>>431
CPUは6コア6スレッドの9400Fで常に100%。
RYZEN3700xで8コア16スレッドで50%くらい
6コア12スレッドくらいがちょうどいいのでは。
2020/11/02(月) 12:52:34.95ID:zrDWQFF20
Google ColabのPro版契約でいつでもVRAM16GBが使えるから、trainはそっちに任せて、CPUはmergeの高速化優先でより多コアなものを、っていう選択肢もあるかな
2020/11/02(月) 14:04:26.56ID:pDbHZcTf0
>>432サンクス
CPUは10世代i7で十分そうか
グラボが悩むなぁ‥3080tiも一部で聞くけど公式発表じゃないもんね
radeonに対応してくれたらいいのにね
2020/11/02(月) 15:17:45.32ID:epUt67xBM
i9-9900kだけどtrainは25%〜30%くらい
ただmerge to mp4の時は100%に張り付いて爆音爆熱で簡易水冷でも98℃まであがるわ

RTX3000シリーズは現状コスパで3080かなあ
3070はCUDAはいいけどvRAMが足りなさそう
2020/11/02(月) 15:31:20.88ID:zrDWQFF20
>>436
〜.bat の中からffmpegに動画エンコードのコーディック指定するところで
コーディック名をNvidiaグラボのハードウェアエンコードを示すものに書き換えると、CPUの負荷、かなり減るはず
ビデオレートに充分余裕がある場合は仕上がりの品質に差はないんじゃないかな
2020/11/02(月) 15:53:55.91ID:epUt67xBM
>>437
おおありがとうやってみます
こんなん絶対過負荷やろと思いながらやってたから助かる
2020/11/02(月) 16:35:32.54ID:pDbHZcTf0
メモリは16gあれば十分?32あったほうがいい?
2020/11/02(月) 16:40:47.13ID:oTSX7uBW0
>>436
空冷9900KF
mergeで100%にはなるけど90度は超えない
51以上でOCしてるならmerge中はやめたほうがいいような
50で十分だし36でも対して変わりないよ

今からなら金あって待てるなら100% 3070よりは3080だね
2020/11/02(月) 16:51:20.82ID:pDbHZcTf0
温度上がりすぎるときって部屋はエアコンガンガンなん?真冬に窓開けててもそんな熱なったりする?
2020/11/02(月) 17:17:37.77ID:te+8FA8eM
>>434
colabは課金して試して見たが、V100でもめちゃ遅だったよ。すぐ切れるし使い物にならなかった。
2020/11/02(月) 17:20:44.35ID:te+8FA8eM
>>441真夏にエアコンかけず1日放ったらかしでも何とかなったよ。もちろんいる間はエアコンかける。
2020/11/02(月) 17:22:21.92ID:te+8FA8eM
>>439
メモリは16で余裕
2020/11/02(月) 18:05:57.25ID:zrDWQFF20
>>442
Pro版ならうちは最低半日は連続train、可能だけどなぁ
なしかしらのPCブラウザ、立ち上げて接続を維持させておかないと切られる仕様である点はクリアしないといけないけど
夏場、外に出かける時は低電圧のタブレットPCを画面OFFの起動しっぱでColabにたんまり働いてもらった
確かにtrain速度だけなら自宅PCでやる方が速い
2020/11/02(月) 18:15:26.35ID:2I01jCPy0
真夏とか導線溶けそうだなw
2020/11/03(火) 00:41:31.88ID:9DR17jo40
DFLで作成しようと思い、素材等準備したんですが、最初からエラーで躓いてます
お力添えよろしくお願いします
【使用ソフト】DFL CUDA9.2SSE
【使用モデル】GeForce GTX 1060 6GB
【スペック】
【内容】' internal\setenv.bat'は内部コマンドまたは
外部コマンド操作可能なプログラムまたはバッチファイルとして
認識されていません
続行するには何かキーを押してください

というエラーが出ます
よろしくお願いします
2020/11/03(火) 00:58:34.58ID:6OB+jO/t0
まずは同じフォルダ内にinternalってフォルダが有るかどうか確認
なければ解凍に失敗してる
449名無しさん@お腹いっぱい。 (ワッチョイ 7380-svXt)
垢版 |
2020/11/03(火) 01:46:22.05ID:9DR17jo40
>>448
internalというフォルダはあります。
その中にsetenv.batは見当たりません。

とりあえずいったん全部入れなおしてみます
450名無しさん@お腹いっぱい。 (ワッチョイ 7380-svXt)
垢版 |
2020/11/03(火) 02:04:15.62ID:9DR17jo40
再インストールしたら>>447のエラーは出なくなりましたが、
input_file not found.
Done.

というエラーが出ました。

dstとscrに素材の動画放り込んでるんですが、何がいけないのでしょうか。
お力添えよろしくお願いします。
2020/11/03(火) 02:14:04.74ID:6OB+jO/t0
いろいろ間違ってると思う
ここ読みながら、そのとおりやれば何とかなる
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
452名無しさん@お腹いっぱい。 (ワッチョイ 7380-svXt)
垢版 |
2020/11/03(火) 03:33:14.00ID:9DR17jo40
>>451
ありがとうございます

ずっとそれを見て画像も見比べながらやってるんですが・・・
 Operating System: Windows 10 Home 64-bit
Card name: NVIDIA GeForce GTX 1060 6GB
Manufacturer: NVIDIA
Chip type: GeForce GTX 1060 6GB
これであればDeepFaceLabCUDA9.2SSEで合ってますよね?
2020/11/03(火) 07:53:05.53ID:IMl0IT6h0
>>450
dstとsrcフォルダにいれるのは静止画。
動画はworkspace内にdata_dst、data_srcにリネームして入れる。
バッチファイルを実行したら自動的にフォルダが作成されて動画が静止画に分割されて保存される。
そこからさらにバッチファイル実行して顔抽出。
かなり端折って説明したから詳しい操作はググってね。
2020/11/03(火) 10:53:11.00ID:9DR17jo40
>>453
それは理解してます。
書き方が悪かったですね。正しくはdstとscr「の」素材の動画

必要なツールすべてDLして、あとはバッチを実行すれば動画から静止画を抽出
してくれてalignedに入るはず・・・なんですが実行しても
input_file not found.
Done.
で終わってしまいます

拡張子は.mp4を入れています。
■ このスレッドは過去ログ倉庫に格納されています
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況