DeepFaceLab(以下、DFL)の質問&回答スレです
・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。
・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。
・RTXシリーズでも動くの?
FS、DFL共に動く。
【質問】dfl【その3】
■ このスレッドは過去ログ倉庫に格納されています
2020/12/13(日) 21:02:14.37ID:faeRPvMB0
2021/08/05(木) 09:08:40.93ID:WjiSY5nE0
おまえのスキルがなさ過ぎなだけだろw
2021/08/05(木) 09:18:50.27ID:Tm7c3SN20
>>610
諦めた方がいい
諦めた方がいい
2021/08/05(木) 12:28:15.49ID:hllfiSPu0
残念
PC高かったけどゲームやめるし売るわ
PC高かったけどゲームやめるし売るわ
2021/08/05(木) 13:02:28.17ID:YV8IStiQ0
2021/08/05(木) 13:22:45.04ID:+aINE/lW0
普段ゲームしかしません APEX最高!みたいなアホ学生は自分で調べるより先に人に何でも聞こうとするから優しくしたら質問まみれになるし
デメリットしかないから放っといた方が良い
mrのガイド翻訳しても理解できないとこだけ質問してくれ
デメリットしかないから放っといた方が良い
mrのガイド翻訳しても理解できないとこだけ質問してくれ
2021/08/05(木) 14:45:22.20ID:pZOn4l/80
説明書が英語だから
バージョンが変わって付いた新しい機能を調べるのが
非常にめんどくさい
バージョンが変わって付いた新しい機能を調べるのが
非常にめんどくさい
2021/08/05(木) 14:46:01.41ID:YV8IStiQ0
調べるも何も前よりよくなってたら試したいから使ってる人の意見を聞きたいって話やん
ほんでミスターに書いてる以上のこと聞いてもおまえわからねえじゃん
ほんでミスターに書いてる以上のこと聞いてもおまえわからねえじゃん
2021/08/05(木) 14:58:03.83ID:+aINE/lW0
何でこんなアホを擁護する必要があるんだよ携帯とPC使って自作自演か?
日本語で解説してるサイトもあるんだから
自分で調べれば2年前とどこが変わったかすぐ分かるだろww
Xseg Maskって何?Pre train済みモデルってどう使うの?AMPって何?
ってくだらない質問にお前が全部答えてやれよ上級職人さん
日本語で解説してるサイトもあるんだから
自分で調べれば2年前とどこが変わったかすぐ分かるだろww
Xseg Maskって何?Pre train済みモデルってどう使うの?AMPって何?
ってくだらない質問にお前が全部答えてやれよ上級職人さん
2021/08/05(木) 15:09:19.55ID:YV8IStiQ0
他人下げでアイデンティティ保つために見てるなら
2021/08/05(木) 15:10:39.39ID:YV8IStiQ0
おまえが質問スレを見なければいいだけじゃない?
2021/08/05(木) 16:32:18.59ID:+aINE/lW0
すまんなお前の初心者への優しさは評価するよ
トレーニング中のプレビューサイズの変え方とか
開発者のiperovは変更できないってディスコで言ってたけど
このスレではModel.pyの数値をいじれば変更可能って事とか
開発者よりも参考になるから見てるし
もっと過疎られても困るからやめとくわ
トレーニング中のプレビューサイズの変え方とか
開発者のiperovは変更できないってディスコで言ってたけど
このスレではModel.pyの数値をいじれば変更可能って事とか
開発者よりも参考になるから見てるし
もっと過疎られても困るからやめとくわ
2021/08/05(木) 16:41:52.21ID:YV8IStiQ0
2021/08/05(木) 18:15:16.58ID:aFO7DRNb0
今の時代にGUIが無いのは敷居高いと思うな
2021/08/05(木) 20:10:52.98ID:WjiSY5nE0
GUIベースになったらなったで、このパラメタはどう設定するのでしょうとか、
何でここを選択するとこっちが選択出来ないのとか、
結局訊くレベルは同じだと思うけどw
もちろん、AIなんで全部勝手にやってくれてあ〜らびっくり、完璧!ってのがいいけどね。
残念ながらそういうレベルになるのはまだまだ先だね。。。
何でここを選択するとこっちが選択出来ないのとか、
結局訊くレベルは同じだと思うけどw
もちろん、AIなんで全部勝手にやってくれてあ〜らびっくり、完璧!ってのがいいけどね。
残念ながらそういうレベルになるのはまだまだ先だね。。。
2021/08/05(木) 20:21:57.32ID:brDmSZdq0
無理矢理句読点つけて他人ぶってるの可愛い
2021/08/05(木) 20:26:56.87ID:TSYnkPDl0
この表情・角度は十分、ここが足りないって視覚的にすぐわかればだいぶ手間減らせるんだけどな
627名無しさん@お腹いっぱい。
2021/08/05(木) 23:29:04.41ID:pZOn4l/80 視覚的にはすぐわかるよ
例えば、鼻の穴見えるような角度のsrcが足りないと
上むいた時、鼻が潰れたみたいな画像ができあがる
俺は、激似dstを見つけた時に、そのdstの上向き画像をsrcに足して対処してる
どうせ、顎下から見てるんでsrcもdstも顔見えないからわりと使い回し効く
例えば、鼻の穴見えるような角度のsrcが足りないと
上むいた時、鼻が潰れたみたいな画像ができあがる
俺は、激似dstを見つけた時に、そのdstの上向き画像をsrcに足して対処してる
どうせ、顎下から見てるんでsrcもdstも顔見えないからわりと使い回し効く
2021/08/05(木) 23:30:19.84ID:pZOn4l/80
大体、足りない角度は顔見えない角度な事が多いから
srcに他人の顔dstを打ち込んでも、ほとんど違和感無い
srcに他人の顔dstを打ち込んでも、ほとんど違和感無い
2021/08/06(金) 09:24:18.21ID:q1aRiAE10
2021/08/06(金) 15:34:20.36ID:PHJSMRMR0
日記…
2021/08/06(金) 18:29:06.14ID:QF5VOBmw0
みんなわかってるからわろとけばいいんだよ
2021/08/06(金) 20:55:20.02ID:Cj+aYrhW0
警察さんはわかりやすい妨害するよな
2021/08/06(金) 21:58:10.32ID:2jtTia/00
main.pyを直接叩く人が少ないせいで、情報が少なくて面倒だった
634名無しさん@お腹いっぱい。
2021/08/07(土) 01:31:07.68ID:cN7PojON0 すいませんちょっと教えてください。
build_07_01_2021でxseg_generic やったところ、なかなか優秀だと思いました。
build_07_30_2021だと、更にxseg_genericが良くなったらしいので、こちらでやり直したいと思っているのですが、
コピーするのはworkspaceフォルダ丸ごとで良いのでしょうか?
あと、xsegのpretraining modeもやった後にxseg_genericをした方がよいのでしょうか?
build_07_01_2021でxseg_generic やったところ、なかなか優秀だと思いました。
build_07_30_2021だと、更にxseg_genericが良くなったらしいので、こちらでやり直したいと思っているのですが、
コピーするのはworkspaceフォルダ丸ごとで良いのでしょうか?
あと、xsegのpretraining modeもやった後にxseg_genericをした方がよいのでしょうか?
2021/08/07(土) 08:45:39.31ID:+Mp2hdU+0
Xseg_genericは_intermalフォルダ内にあるmodelを使用しているから
XsegをtrainしてもXseg_genericには反映されない
自分用のXseg_generic作りたいなら
_internal→model_generic_xsegフォルダ内にあるファイルを
workspace→modelに移してtrainするほうが0からtrainするより早い
満足できる状態になったら
_internal→model_generic_xsegフォルダに戻す
ちなみに自分はXseg_genericはいじらずにデフォのままで使用しているけど
XsegをtrainしてもXseg_genericには反映されない
自分用のXseg_generic作りたいなら
_internal→model_generic_xsegフォルダ内にあるファイルを
workspace→modelに移してtrainするほうが0からtrainするより早い
満足できる状態になったら
_internal→model_generic_xsegフォルダに戻す
ちなみに自分はXseg_genericはいじらずにデフォのままで使用しているけど
2021/08/07(土) 08:51:24.20ID:+Mp2hdU+0
新しいアルゴリズムのpretrain済modelはダウンロードできるまで時間かかるだろうから
今は_internal→model_generic_xsegフォルダ内のファイルをコピーしてtrainしている
今は_internal→model_generic_xsegフォルダ内のファイルをコピーしてtrainしている
2021/08/07(土) 13:55:30.50ID:7Mv6JnTQ0
日記は自演が上達しないなぁ
2021/08/07(土) 16:18:29.69ID:kSq8Jh2f0
なんか最近はじめたやつ多そうだな
日記と知ったかぶってるやつが肩ぶん回してるの草
日記と知ったかぶってるやつが肩ぶん回してるの草
2021/08/08(日) 00:38:59.76ID:d8I51IH50
警察だんだっけ?
640名無しさん@お腹いっぱい。
2021/08/08(日) 13:11:01.11ID:lCcOAULi0 634です。
635 636 有難うございます!
いちいちxsegするの面倒くさくて。自分の印象だと、xseg_genericが
fansegレベルに近づいてるのではと感じてます。
まあ試行錯誤の連続ですね。
635 636 有難うございます!
いちいちxsegするの面倒くさくて。自分の印象だと、xseg_genericが
fansegレベルに近づいてるのではと感じてます。
まあ試行錯誤の連続ですね。
2021/08/08(日) 13:51:25.99ID:KVJyeqJL0
ageたりsageたり忙しいヤツだな
642名無しさん@お腹いっぱい。
2021/08/09(月) 02:49:46.18ID:Hd2OVUFs0 警察
2021/08/11(水) 00:10:20.30ID:w2hLXazV0
DFLive相性みるのにいいかなと使ってみたけどフェラも結構いける
644名無しさん@お腹いっぱい。
2021/08/14(土) 14:30:48.38ID:rumXi0yN0 3060からA4000に載せ替えてみたけどアチアチ過ぎて効率落ちたような気がする...
2021/08/14(土) 19:40:14.30ID:PTWlw4Cb0
2021/08/14(土) 21:17:42.93ID:BbJowiH+0
train/mergeの際の色調整がマニュアルで出来たらいいのう婆さんや
647名無しさん@お腹いっぱい。
2021/08/14(土) 21:57:29.48ID:2KeyOdab0 >>644
冗談だろ、買い換える意味がわからん
冗談だろ、買い換える意味がわからん
648名無しさん@お腹いっぱい。
2021/08/15(日) 03:02:50.70ID:RGpjsGfN0 >>645
>>647
効率落ちたっていうのは極端過ぎたわすまん。今のところあんまり変わらんっていうの正しいかも
DFLは最新のRTX3000ver、cuda11.4導入済、A4000(70% PL)と3060(non-LHR/70% PL))での比較になるけど同条件でのsrc顔抽出速度は3060の方が気持ち早いくらい
デフォ設定で抽出/SAEHDで回して反復速度は250〜300ms。res128→192に変えて400〜450msぐらい。loss値の減り具合も大して変わりないような...
ちなみにPL解除すると室温26°環境にて3060は85度付近をウロウロで済むけどA4000は90度まで跳ね上がるのでやむ終えず
PLかけても75〜80度とアチアチだけど学習中ワットチェッカーではmax170Wと3060の210Wほど電気喰わずちょっぴりエコな所と冷却ファンが2500rpmと回る割には静かなのは嬉しい点。3年保証だし
数値上変わらないのはドライバが未成熟なのか現時点では頭打ちな仕様なのか...LHRの影響ではない事を祈っているよ〜
>>647
効率落ちたっていうのは極端過ぎたわすまん。今のところあんまり変わらんっていうの正しいかも
DFLは最新のRTX3000ver、cuda11.4導入済、A4000(70% PL)と3060(non-LHR/70% PL))での比較になるけど同条件でのsrc顔抽出速度は3060の方が気持ち早いくらい
デフォ設定で抽出/SAEHDで回して反復速度は250〜300ms。res128→192に変えて400〜450msぐらい。loss値の減り具合も大して変わりないような...
ちなみにPL解除すると室温26°環境にて3060は85度付近をウロウロで済むけどA4000は90度まで跳ね上がるのでやむ終えず
PLかけても75〜80度とアチアチだけど学習中ワットチェッカーではmax170Wと3060の210Wほど電気喰わずちょっぴりエコな所と冷却ファンが2500rpmと回る割には静かなのは嬉しい点。3年保証だし
数値上変わらないのはドライバが未成熟なのか現時点では頭打ちな仕様なのか...LHRの影響ではない事を祈っているよ〜
2021/08/15(日) 21:21:56.85ID:DNCv+M1o0
>>643
真正面アングルだけならDFLと変わらないレベルのが
リアルタイムで作れるし便利だけど
横とか下向いたりするだけで顔崩壊するし
フェラ動画もxseg maskが機能しないからチンコがsrcの顔にかき消されるんだけど
それ用に変えなきゃいけない設定とかコードとかある?
Face mergerのmask typeとかを変更したりしてもフェラは崩壊してダメだわ
もちろんDFLでは普通に作れるしFace Swapperにtrain済みのdfmファイルを使用してる
真正面アングルだけならDFLと変わらないレベルのが
リアルタイムで作れるし便利だけど
横とか下向いたりするだけで顔崩壊するし
フェラ動画もxseg maskが機能しないからチンコがsrcの顔にかき消されるんだけど
それ用に変えなきゃいけない設定とかコードとかある?
Face mergerのmask typeとかを変更したりしてもフェラは崩壊してダメだわ
もちろんDFLでは普通に作れるしFace Swapperにtrain済みのdfmファイルを使用してる
650名無しさん@お腹いっぱい。
2021/08/15(日) 21:28:05.72ID:p/9PmR910 >> 649
dstで口から下を取り除いた顔の輪郭を【含む】線で囲む
同じコマ上のちんこ部分や顔にかかった手の先や紐状の髪の毛等は【含まない】線で囲んで学習
その後、再度Xsegで開いて連続コマを動画風に流しながら白黒でマスクを確認して
マスクがきれいにかかってない部分を選んで、また学習
これを繰り返す
dstで口から下を取り除いた顔の輪郭を【含む】線で囲む
同じコマ上のちんこ部分や顔にかかった手の先や紐状の髪の毛等は【含まない】線で囲んで学習
その後、再度Xsegで開いて連続コマを動画風に流しながら白黒でマスクを確認して
マスクがきれいにかかってない部分を選んで、また学習
これを繰り返す
2021/08/15(日) 21:44:36.39ID:7QNjK3EC0
以上、日記成長しないの巻
2021/08/15(日) 22:09:30.08ID:ttt6yKdG0
2021/08/15(日) 22:12:03.12ID:DNCv+M1o0
DF live使ってる人少なそうだから困るな
mrのスレッドで配布してたフェラ用にmaskされたtrain済みマスクを
全dst画像に適応させてtrainしてるから
DFLのmask edit見てもチンコも綺麗にマスクされた状態なんだけど
新規フェラ動画をDFliveのFile sourceに使いたくても
dstのチンコを事前にマスクしなきゃいけないから
リアルタイムフェラ動画はキツイか
無編集の数時間ある動画ぶち込んでもすぐDFできるのはめっちゃ便利なんだけどな
mrのスレッドで配布してたフェラ用にmaskされたtrain済みマスクを
全dst画像に適応させてtrainしてるから
DFLのmask edit見てもチンコも綺麗にマスクされた状態なんだけど
新規フェラ動画をDFliveのFile sourceに使いたくても
dstのチンコを事前にマスクしなきゃいけないから
リアルタイムフェラ動画はキツイか
無編集の数時間ある動画ぶち込んでもすぐDFできるのはめっちゃ便利なんだけどな
2021/08/15(日) 22:19:46.22ID:DNCv+M1o0
>>652
居ないかと思ったら643本人いたわ ありがと
設定変えれば色んなアングル対応できるのかと思ったけど
live向けだしやっぱり正面アングルに限るか
でも今までノーマークだったdstが
こんなに相性良かったんだって発見しやすいし
相性確認用として使うことにするわ
居ないかと思ったら643本人いたわ ありがと
設定変えれば色んなアングル対応できるのかと思ったけど
live向けだしやっぱり正面アングルに限るか
でも今までノーマークだったdstが
こんなに相性良かったんだって発見しやすいし
相性確認用として使うことにするわ
655名無しさん@お腹いっぱい。
2021/08/18(水) 01:01:52.19ID:xz+5pDh90 手動でも顔抽出が難しいところって、皆さんは諦めてというか、わりきってカットしてますか?
2021/08/18(水) 15:48:47.90ID:LFgo9Rq60
>>655
srcに関しては使わない dstの場合は頑張って無理ならスルー mask editorキッチりゃってもlandmarkがめちゃくちゃだと厳しい
ブレはともかく髪でmask内(目とか)が隠れたりだと、他のframeがmerge出来る段階までtrainしても崩れたままが殆ど
srcで奇跡的にドンピシャなのがあるとイケる事もある
srcに関しては使わない dstの場合は頑張って無理ならスルー mask editorキッチりゃってもlandmarkがめちゃくちゃだと厳しい
ブレはともかく髪でmask内(目とか)が隠れたりだと、他のframeがmerge出来る段階までtrainしても崩れたままが殆ど
srcで奇跡的にドンピシャなのがあるとイケる事もある
2021/08/18(水) 15:52:15.62ID:LFgo9Rq60
でもやっぱextractが楽な素材ほど完成品も似やすい(≒シコい)のは確か
658名無しさん@お腹いっぱい。
2021/08/19(木) 00:11:20.95ID:86Ip9tY10659名無しさん@お腹いっぱい。
2021/08/19(木) 00:12:08.26ID:86Ip9tY10 某記事のやつってこれ?
660名無しさん@お腹いっぱい。
2021/08/19(木) 12:29:36.96ID:+oj+aGUi0 人物A汎用modelの作成で、汎用Pretrain modelから、1.人物Aをfacesetに入れて追加Pretrain、2.人物AのAlignedで追加Pretrain、3.人物AのSRCxSRCで通常train
この3通りでは1と2には優位な差は見られないが、SRC育成が進んでる3が高品質になりやすいであってる?
Pretrain Facesetに人物Aのalignを入れる人がいたけどそれの優位性が思いつかないんだがなんかある?
この3通りでは1と2には優位な差は見られないが、SRC育成が進んでる3が高品質になりやすいであってる?
Pretrain Facesetに人物Aのalignを入れる人がいたけどそれの優位性が思いつかないんだがなんかある?
2021/08/19(木) 14:40:52.23ID:tnCo+0m30
外国人だけで100万pretrainさせたmodelと
自分が通常trainでよく使うsrcとdstだけ選別してcelebAに1万枚入れて
20万pretrainしたモデル使って同じ素材で通常trainして比較したけど
外国人model使った方が横顔とかきつめの角度にも対応できてsrcに寄せやすかったから
pretrainよりも通常trainに時間かけた方が良いな
とにかくsrcの画質にこだわってDFDNetとか使ってsrcの画質爆上げさせて
random warpオンで損失0.1くらいまで通常trainすれば小さいホクロとか
歯とかもクッキリ学習してくれて一番高品質にできるかな
海外のセレブとかは至近距離の一眼撮影未加工データとか大量にあるし
それを更に全部reminiさせたりAi Enhanceしてるから高画質すぎて羨ましい
自分が通常trainでよく使うsrcとdstだけ選別してcelebAに1万枚入れて
20万pretrainしたモデル使って同じ素材で通常trainして比較したけど
外国人model使った方が横顔とかきつめの角度にも対応できてsrcに寄せやすかったから
pretrainよりも通常trainに時間かけた方が良いな
とにかくsrcの画質にこだわってDFDNetとか使ってsrcの画質爆上げさせて
random warpオンで損失0.1くらいまで通常trainすれば小さいホクロとか
歯とかもクッキリ学習してくれて一番高品質にできるかな
海外のセレブとかは至近距離の一眼撮影未加工データとか大量にあるし
それを更に全部reminiさせたりAi Enhanceしてるから高画質すぎて羨ましい
2021/08/19(木) 20:45:46.96ID:2AP/jkWp0
素材のデータ重いと遅くなるやん?
2021/08/19(木) 21:49:52.69ID:tnCo+0m30
1024px以上のaligned使うとvram12GBと6コアcpuでも
マージの時にフリーズするから解像度が巨大化するのはNGだな
でもDFDNetだと512pxとかで解像度維持したままファイルサイズ3分の1にできる上に
眉毛とかホクロがボケてよく分からない720Pくらいの映像でも
Aiでremini並みに復元してクッキリさせられて
無料で自分のPC上で数千枚の画像丸ごと高画質にできるからsrc増やす度に使ってる
ただ英語の解説しかないしpythonの知識が無かったから
色々と導入して高画質化できるようになるまで理解するのがきつかった
マージの時にフリーズするから解像度が巨大化するのはNGだな
でもDFDNetだと512pxとかで解像度維持したままファイルサイズ3分の1にできる上に
眉毛とかホクロがボケてよく分からない720Pくらいの映像でも
Aiでremini並みに復元してクッキリさせられて
無料で自分のPC上で数千枚の画像丸ごと高画質にできるからsrc増やす度に使ってる
ただ英語の解説しかないしpythonの知識が無かったから
色々と導入して高画質化できるようになるまで理解するのがきつかった
2021/08/19(木) 22:12:17.71ID:1goFL/Ny0
そうですね
2021/08/20(金) 12:54:17.40ID:ncQ5u5E20
いい日記ですね
2021/08/20(金) 14:39:05.89ID:/8FjV9C70
わりとまじでブログやった方がいい
匿名が何言ってても成果がわからないから
匿名が何言ってても成果がわからないから
2021/08/20(金) 15:14:04.85ID:x+u1HPoK0
自分でやって確かめればええ話や
2021/08/20(金) 16:03:12.83ID:ijo32nQF0
ヒント1質問スレ
ヒント2大前提のモデルの種類も書かない日記
ヒント2大前提のモデルの種類も書かない日記
2021/08/20(金) 18:52:09.31ID:x+u1HPoK0
前からある技術だけどjappは早速日記を参考にして
昨日の夜からAi EnhancerのGPEN導入してるから
自分で頭使って試せる奴は1から10まで説明しなくて良いし役に立ってくれるな
DF上でのGPENの仕上がりの違いも知りたかったから助かるわー
昨日の夜からAi EnhancerのGPEN導入してるから
自分で頭使って試せる奴は1から10まで説明しなくて良いし役に立ってくれるな
DF上でのGPENの仕上がりの違いも知りたかったから助かるわー
670名無しさん@お腹いっぱい。
2021/08/20(金) 18:55:29.36ID:eNZLX5Qb0 キモ
2021/08/22(日) 01:49:03.43ID:9i8FyP7D0
>>663
dfd試してみた
step1の顔抽出がかなり遅いんだけどこんなもん?
元画像が512pxとかになるとこれで何千枚とかやるのは気が遠くなるぐらい遅い
出力された画像は確かに凄い鮮明になってたけど
dfd試してみた
step1の顔抽出がかなり遅いんだけどこんなもん?
元画像が512pxとかになるとこれで何千枚とかやるのは気が遠くなるぐらい遅い
出力された画像は確かに凄い鮮明になってたけど
2021/08/22(日) 01:55:39.19ID:Ctpld0710
dfdはステップ3でメモリーエラー出て20時間ぐらい動かしてたのに最初からやり直しだわw
数枚だとエラー出ないんだけどなぁ
10000枚やるとあかんわ。
gfsganはきれいになるしエラーは出ないけど、CG感が凄い
gpenはwindowsで動かない
数枚だとエラー出ないんだけどなぁ
10000枚やるとあかんわ。
gfsganはきれいになるしエラーは出ないけど、CG感が凄い
gpenはwindowsで動かない
2021/08/22(日) 02:37:36.85ID:YcSWsJMr0
>>671
step1はcudaとかcudnnとか入れてpythonで色々と設定しないと
CPUしか使わないしアホみたいに時間かかるから使わなくて良いよ
Colabで動作させてるなら分からんけどローカルで動作できるなら
githubのチュートリアル通りにTestWholeフォルダにaligned画像入れるんじゃなくて
DFDNet-whole\Results\TestWholeResults\Step1_CropImgに
aligned画像全部入れて同じようにtest_FaceDict.pyを実行したら
無駄なクロップとかの工程すっ飛ばして色々とエラーが表示されて動作停止した後に
Step3_RestoreCropFaceフォルダに高解像データが保存されてるからそれを移動させれば学習で使える
これなら512pxの画像1枚につき1秒くらいで高解像度化してくれるはず
Colabの場合はそのままDFLで使えるのかも知れないけど
このやり方だとDFLImage扱いされないから
4.2) data_src util faceset metadata save.batを使って
元のalignedデータのメタデータを全部保存してから
超解像したalignedを元画像データと全て同じ名前のままalignedフォルダに移動させて
4.2) data_src util faceset metadata restore.batを使ってメタデータを移植させれば
DFLImageとして使えるようになる
step1はcudaとかcudnnとか入れてpythonで色々と設定しないと
CPUしか使わないしアホみたいに時間かかるから使わなくて良いよ
Colabで動作させてるなら分からんけどローカルで動作できるなら
githubのチュートリアル通りにTestWholeフォルダにaligned画像入れるんじゃなくて
DFDNet-whole\Results\TestWholeResults\Step1_CropImgに
aligned画像全部入れて同じようにtest_FaceDict.pyを実行したら
無駄なクロップとかの工程すっ飛ばして色々とエラーが表示されて動作停止した後に
Step3_RestoreCropFaceフォルダに高解像データが保存されてるからそれを移動させれば学習で使える
これなら512pxの画像1枚につき1秒くらいで高解像度化してくれるはず
Colabの場合はそのままDFLで使えるのかも知れないけど
このやり方だとDFLImage扱いされないから
4.2) data_src util faceset metadata save.batを使って
元のalignedデータのメタデータを全部保存してから
超解像したalignedを元画像データと全て同じ名前のままalignedフォルダに移動させて
4.2) data_src util faceset metadata restore.batを使ってメタデータを移植させれば
DFLImageとして使えるようになる
2021/08/22(日) 02:47:07.79ID:YcSWsJMr0
jappがGPENをColab上で動かせるようにしたみたいだけど
DFLで切り出したaligned使うと最後まで動作はするけど
結果のzipフォルダが空の状態で保存されてて超解像できてないんだよな
サンプル映像見るとDFDよりも解像度は上っぽいけど
若干顔が別人になってる様に見えるからDFDの方が良いかね
DFLで切り出したaligned使うと最後まで動作はするけど
結果のzipフォルダが空の状態で保存されてて超解像できてないんだよな
サンプル映像見るとDFDよりも解像度は上っぽいけど
若干顔が別人になってる様に見えるからDFDの方が良いかね
2021/08/22(日) 05:58:45.46ID:I75KMms30
そうですね
2021/08/22(日) 12:23:05.50ID:7oGU12I30
>>673
返信どうも
ただこの方法だとノイズが入ったり不自然になる画像があった
色々弄ってみて解決
遅いのはdlib関連だったみたい
test_FaceDict.pyの26行目
dets = detector(img, 1)の1を0に変えたらstep1の処理が5倍くらい速くなった(それでもまだ遅いけど...)
あとはdlibのコンパイル時にCmakeやらVSのオプション弄っても高速になるらしいけどそちらは未確認
返信どうも
ただこの方法だとノイズが入ったり不自然になる画像があった
色々弄ってみて解決
遅いのはdlib関連だったみたい
test_FaceDict.pyの26行目
dets = detector(img, 1)の1を0に変えたらstep1の処理が5倍くらい速くなった(それでもまだ遅いけど...)
あとはdlibのコンパイル時にCmakeやらVSのオプション弄っても高速になるらしいけどそちらは未確認
2021/08/22(日) 14:38:56.92ID:1OUmt4dD0
2021/08/22(日) 16:12:08.11ID:YcSWsJMr0
>>677
動作確認で数枚の画像だけ圧縮してたけど
フォルダごと圧縮したら問題無くいけたわサンクス
dfd使ってもノイズでよく分からない唇のシワとか
まつ毛まで見えるようになるし処理早いし数日で革命起きて草
動作確認で数枚の画像だけ圧縮してたけど
フォルダごと圧縮したら問題無くいけたわサンクス
dfd使ってもノイズでよく分からない唇のシワとか
まつ毛まで見えるようになるし処理早いし数日で革命起きて草
2021/08/24(火) 16:11:01.63ID:znV+kD/K0
ずっと古いdfl使ってた初心者なんですけど、最近のバージョンってtrain遅くなったけど精度は上がってたりします?
めちゃくちゃ数こなすの遅くなってて
めちゃくちゃ数こなすの遅くなってて
2021/08/24(火) 16:21:20.08ID:boOfcCMH0
train速くなって精度は変わってないと思う
2021/08/24(火) 16:50:29.41ID:znV+kD/K0
え、速くなってるんですか
682名無しさん@お腹いっぱい。
2021/08/24(火) 21:09:29.07ID:K13xNfur0 Colabの方で超解像化してそのままぶち込んでもDFLファイル見つからんて言われるね。再extractかければいいだけだが
2021/08/24(火) 22:56:56.84ID:GoCWkELK0
4.2) data_src util faceset metadata save.bat
4.2) data_src util faceset metadata restore.bat
もっとこのファイルは評価されるべき
元画像まとめてsaveしてgpen画像と交換してrestoreするだけよ
4.2) data_src util faceset metadata restore.bat
もっとこのファイルは評価されるべき
元画像まとめてsaveしてgpen画像と交換してrestoreするだけよ
2021/08/25(水) 22:34:17.34ID:F9N5Sztr0
gpenやっと導入できた
すごいなこれ
すごいなこれ
2021/08/30(月) 09:19:19.72ID:eFBFa3gW0
RTX2080Ti用って1080Tiでも動くんだな
バッチを倍にしても起動するし学習早くなった
バッチを倍にしても起動するし学習早くなった
2021/08/30(月) 09:55:35.43ID:M2UQRVos0
gpenて何に使ってるの?
2021/08/30(月) 11:13:35.30ID:VYMHbgyX0
2021/08/30(月) 11:49:08.43ID:M2UQRVos0
なるほどありがとう
2021/08/31(火) 01:27:12.16ID:NDXXMj3B0
既出かもしれんが、headshotってソフト知ってる?使いようによってはsrc不足を補えるかも。
2021/09/02(木) 07:50:34.98ID:2zugo5R50
2021/09/02(木) 08:25:46.35ID:2zugo5R50
google colaboのGPEN使うとすぐGPU使用量の上限に当たって使えなくならない?
2021/09/02(木) 10:46:48.15ID:GLjLJFaa0
自分のローカルPC(2070s)環境上でGPENを動かす事はできるのでしょうか?
2021/09/03(金) 23:51:20.50ID:3WHdgben0
できるけど
Winじゃ動作しなかったからdebianインストールして動かしたよ
Winじゃ動作しなかったからdebianインストールして動かしたよ
2021/09/04(土) 07:43:11.29ID:sA+UCAw10
あら〜面倒くさいんですね、じゃすなおにColabでやります。
サンクスです。
サンクスです。
2021/09/04(土) 08:27:54.28ID:/9JA17ys0
2021/09/07(火) 00:26:08.09ID:SrKfu8eX0
自分の顔が杉浦ぼっ樹にジャストフィットすると解り
葵つかさや紗倉まなとの共演を果たしてしまう>>1
葵つかさや紗倉まなとの共演を果たしてしまう>>1
2021/09/07(火) 21:08:45.44ID:XDBpiBeN0
普通にmergeして作成したフルHD解像度のpngやjpgをColabのGPENで高精細化しようとしたらダメだった
代わりにpngから更にheadモード1024で顔抽出したやつなら変換できたので、mergeのソースを弄ってpngの顔抽出元に上書きできるようにした
画面いっぱいの大きな顔でもなかなかな解像感でてる
まだ動画の連続したコマで処理、再動画化は試してないので最終的にチラつき等出ないかはわからない
代わりにpngから更にheadモード1024で顔抽出したやつなら変換できたので、mergeのソースを弄ってpngの顔抽出元に上書きできるようにした
画面いっぱいの大きな顔でもなかなかな解像感でてる
まだ動画の連続したコマで処理、再動画化は試してないので最終的にチラつき等出ないかはわからない
2021/09/07(火) 21:26:41.97ID:4Rv9o3gA0
明日の日記もお楽しみに
2021/09/07(火) 21:39:13.44ID:wcpFI7Kt0
2021/09/08(水) 15:54:50.45ID:Q8ZpHZbl0
趣味系の板でこういう高齢者増えたな
2021/09/08(水) 17:33:31.93ID:PoGNAqgQ0
Xsegの仕組みを応用して自動顔抽出したがいけてないランドマークを補正する機能は作れないのかな?
pretrainのfacesetに設定されているだろう正確なランドマークを学習させて
pretrainのfacesetに設定されているだろう正確なランドマークを学習させて
2021/09/09(木) 20:41:31.17ID:hEi9tf9d0
>>699
ソースの変更箇所を画像にしてみましたので参考になれば
修正箇所はおおまかに以下の4箇所です
1段目・・・FrameInfo.py __init__()
2段目・・・Merger.py main()
3段目・・・MergeMasked.py MergeMasked()
4段目・・・MergeMasked.py MergeMaskedFace()
https://i.imgur.com/C4KSm8G.jpg
ソースの変更箇所を画像にしてみましたので参考になれば
修正箇所はおおまかに以下の4箇所です
1段目・・・FrameInfo.py __init__()
2段目・・・Merger.py main()
3段目・・・MergeMasked.py MergeMasked()
4段目・・・MergeMasked.py MergeMaskedFace()
https://i.imgur.com/C4KSm8G.jpg
2021/09/09(木) 21:06:44.87ID:BlyJDcJH0
2021/09/09(木) 21:33:24.63ID:BlyJDcJH0
>>701
3060で顔抽出2重起動しても3it/sくらいだからもっと早くしたいけど
Xseg応用してどのくらいの速度で抽出できてる?
DFLと連携してるMachine Video Editor使えば
ランドマークの自動配置に加えて手動で1点ずつ動かせるから
その抽出方法でも活かせたら強いな
3060で顔抽出2重起動しても3it/sくらいだからもっと早くしたいけど
Xseg応用してどのくらいの速度で抽出できてる?
DFLと連携してるMachine Video Editor使えば
ランドマークの自動配置に加えて手動で1点ずつ動かせるから
その抽出方法でも活かせたら強いな
2021/09/09(木) 22:09:31.80ID:hEi9tf9d0
>>703
ソース改造後の使い方などを書いてみましたのでご一読下さい
ソース改造後は通常のマージ機能が使えなくなるので作業フォルダを分ける必要があります
https://i.imgur.com/xSvYBRG.jpg
ソース改造後の使い方などを書いてみましたのでご一読下さい
ソース改造後は通常のマージ機能が使えなくなるので作業フォルダを分ける必要があります
https://i.imgur.com/xSvYBRG.jpg
2021/09/09(木) 22:33:14.19ID:BlyJDcJH0
2021/09/09(木) 22:44:13.62ID:hEi9tf9d0
>>706
自分はまだ連続コマでの再動画化は試せてないので、GPEN側の精度によってはチラつきで視聴に耐えられないかもしれません
その場合は静止画スライドショーで楽しんで下さいw
あと、1回目の通常マージではsuper resolutionはかけない方が良いですね
GPENで再度高精細化すると前歯に縦線が入ったり副作用が出やすいですね
自分はまだ連続コマでの再動画化は試せてないので、GPEN側の精度によってはチラつきで視聴に耐えられないかもしれません
その場合は静止画スライドショーで楽しんで下さいw
あと、1回目の通常マージではsuper resolutionはかけない方が良いですね
GPENで再度高精細化すると前歯に縦線が入ったり副作用が出やすいですね
2021/09/09(木) 23:13:57.50ID:BlyJDcJH0
数コマでも更に高品質なシーンが作れるだけで十分なのでノーダメージですw
全部踏まえて修行してみます
全部踏まえて修行してみます
2021/09/09(木) 23:42:22.97ID:fQEJwoHV0
>>704
Xseg応用しての顔抽出っては自分にとってはまだ夢物語でこれからソースコード勉強してみようかっていう段階です
できれば公式さんにそういうの作って欲しい
Machine Video Editorっていうのがあるんですね、調べてみます
Xseg応用しての顔抽出っては自分にとってはまだ夢物語でこれからソースコード勉強してみようかっていう段階です
できれば公式さんにそういうの作って欲しい
Machine Video Editorっていうのがあるんですね、調べてみます
2021/09/10(金) 01:22:36.37ID:yzfiE5zs0
>>709
なるほどね
他の顔識別AIを応用すれば動画のまま1フレーム毎に顔認識させて
10倍くらい早くできるみたいだから公式で作ってほしいけど
開発者の対応見てると作る気無さそう
MVEはmrとyoutubeにガイドがあるから参考にしてみて
なるほどね
他の顔識別AIを応用すれば動画のまま1フレーム毎に顔認識させて
10倍くらい早くできるみたいだから公式で作ってほしいけど
開発者の対応見てると作る気無さそう
MVEはmrとyoutubeにガイドがあるから参考にしてみて
2021/09/10(金) 05:12:45.13ID:38pYaBDy0
>697
debianのローカル環境でやってみたらmerge画像は直接変換できたよ
確かに綺麗にはなるんだけど、動画にすると若干チラつき感はありますね
debianのローカル環境でやってみたらmerge画像は直接変換できたよ
確かに綺麗にはなるんだけど、動画にすると若干チラつき感はありますね
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 中国・ロシア両軍の爆撃機が東京方面へ向かう「異例のルート」を共同飛行…核も搭載可能、連携して威嚇か ★3 [ぐれ★]
- 京都のホテル大幅値下げ 訪日中国人客、年1000万人目前で急ブレーキ [蚤の市★]
- 【沖縄】宮古島で陸自防災訓練に抗議した団体、「恫喝された」と駐屯地トップ厳正捜査求め署名運動 「市民弾圧と戦争への道を…」 [少考さん★]
- 高市首相の答弁書に「台湾有事答えない」と明記 存立危機発言当時 ★9 [蚤の市★]
- 「今の女性はルッキズム」は本当なのか? 若い世代が結婚相手に求める"本当の条件" [少考さん★]
- 「中国人の訪日熱は冷めた」 人気旅行先から日本外れる 14日で自粛呼びかけ1カ月 ★3 [蚤の市★]
- 【実況】博衣こよりのえちえちドラクエ1&2リメイク🧪
- 自民重鎮「高市は中国側に開戦の口実を与えてしまった」 [329271814]
- トランプ「アメリカが日本の味方に?なるわけねーだろw」→ネトウヨ「建前でそう言ってるだけ!アメリカは中国を攻撃する準備してる!」 [314039747]
- 鈴木農水大臣「440円分の買い物ができる500円のお米券を477円で販売するのでみんな買ってね😉」 [931948549]
- クリスマスが今年も
- 【悲報】ユニクロのダウンを洗った結果wwwwwwwwwwwwwwwwwwww [802034645]
