DeepFaceLab(以下、DFL)の質問&回答スレです
・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。
・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。
・RTXシリーズでも動くの?
FS、DFL共に動く。
【質問】dfl【その3】
https://egg.5ch.net/test/read.cgi/software/1607860934/
探検
【質問】dfl【その4】
■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。
2022/02/12(土) 17:06:21.44ID:6x5j6Sbc02022/05/16(月) 02:29:52.81ID:JrhaQ+BQ0
手動設定のXsegマスクのポリゴンはMVEのブラシ/消しゴムツールで簡単に微調整できる
自分はGenericモデルからApplyした白黒マスク形状をポリゴンに変換してaligned画像に書き戻すスクリプト作ってMVEで編集しているよ
自分はGenericモデルからApplyした白黒マスク形状をポリゴンに変換してaligned画像に書き戻すスクリプト作ってMVEで編集しているよ
262名無しさん@お腹いっぱい。
2022/05/16(月) 10:33:09.56ID:cy44vi7b0 スクリプト組む知識ないでござるよ(´・ω・)
ちなみに最近は処理能力を犠牲にしてでも
解像度上げることに挑戦しているのだけれど
アップシーンでも違和感のないresの数値って
どのくらいなんだろね
320でもアップになると違和感バリバリ
ちなみに最近は処理能力を犠牲にしてでも
解像度上げることに挑戦しているのだけれど
アップシーンでも違和感のないresの数値って
どのくらいなんだろね
320でもアップになると違和感バリバリ
263名無しさん@お腹いっぱい。
2022/05/16(月) 10:34:01.33ID:cy44vi7b0 処理能力つか処理速度か
2022/05/16(月) 12:37:48.71ID:pD96smW30
どうしてもアップにしたいのはresは384で元動画を敢えて720にしてる
480でスマホで見るのもありかも
480でスマホで見るのもありかも
2022/05/16(月) 13:29:51.79ID:TfJXf+/F0
いつもres384でdst720pにしてるけど画面いっぱいにアップするシーンだと720pのdstにres416とかでものっぺりするし
3090でもres512くらいだからDFLだけだと厳しいな
ちなみにdstを480pまで下げると画質が荒すぎて顔のパーツが認識しづらくなるからか結果の顔の品質も悪くなる気がするんだけどdst側も全部GPEN使えばもっと仕上がり良くなるんかな?
3090でもres512くらいだからDFLだけだと厳しいな
ちなみにdstを480pまで下げると画質が荒すぎて顔のパーツが認識しづらくなるからか結果の顔の品質も悪くなる気がするんだけどdst側も全部GPEN使えばもっと仕上がり良くなるんかな?
266名無しさん@お腹いっぱい。
2022/05/16(月) 14:04:02.88ID:cy44vi7b0 なるほどあえてdst側を下げて、極力違和感を
少なくするわけですね
にしても3090って24Gですよね?
それでもいいとこ512なのか
GPENって以前だれかが紹介してくれたけど
ボヤけた画像に使うとシャープさが強すぎたので
以来、使ってないなぁ
通常レベル(と自分で思える)画像に対して
味付け程度に使うものではないのかな?
少なくするわけですね
にしても3090って24Gですよね?
それでもいいとこ512なのか
GPENって以前だれかが紹介してくれたけど
ボヤけた画像に使うとシャープさが強すぎたので
以来、使ってないなぁ
通常レベル(と自分で思える)画像に対して
味付け程度に使うものではないのかな?
267名無しさん@お腹いっぱい。
2022/05/16(月) 15:04:01.75ID:w8WuftD90 250なんだけど、みんなの会話のおかげで勘違いしとったことに気づいた。
ありがとう
で、今まで面倒なんでxseg手出してなくて使ってみたらすごいな
まだ微妙だがぶっかけうどんも作れるようになったし、可能性広がったわ
この万能xsegより、ぶっかけうどん用のって知ってる人いないですか?
ありがとう
で、今まで面倒なんでxseg手出してなくて使ってみたらすごいな
まだ微妙だがぶっかけうどんも作れるようになったし、可能性広がったわ
この万能xsegより、ぶっかけうどん用のって知ってる人いないですか?
2022/05/16(月) 19:33:06.63ID:JrhaQ+BQ0
>>261
該当の機能だけに特化させてソースを整理したら100行程度におさまったので興味のある方は参考にどうぞ٩( 'ω' )و
https://i.imgur.com/025cEOS.jpg
https://i.imgur.com/Xd2NpcV.jpg
該当の機能だけに特化させてソースを整理したら100行程度におさまったので興味のある方は参考にどうぞ٩( 'ω' )و
https://i.imgur.com/025cEOS.jpg
https://i.imgur.com/Xd2NpcV.jpg
2022/05/16(月) 20:32:08.94ID:JrhaQ+BQ0
>>268
ちなみに起動方法は以下になりますね
①261のソースコード「MyXsegUtil.py」を_internal¥DeepFaceLab¥mainscriptsに格納
②_internal¥DeepFaceLab¥main.pyの末尾付近に以下画像1のコードを追加
③DFLルートフォルダに「任意ファイル名.bat」として以下画像2を作成
④XsegApplyからポリゴン情報に変換したい画像のみをworkspace¥data_dst¥alignedに格納
⑤ ③で作成した「任意ファイル名.bat」を起動
⑥上書き保存されたaligned画像のポリゴンを公式EditorやMVEで気に食わない部分だけ手動調整する
https://i.imgur.com/0jHs4CH.jpg
https://i.imgur.com/u1LyRCo.jpg
ちなみに起動方法は以下になりますね
①261のソースコード「MyXsegUtil.py」を_internal¥DeepFaceLab¥mainscriptsに格納
②_internal¥DeepFaceLab¥main.pyの末尾付近に以下画像1のコードを追加
③DFLルートフォルダに「任意ファイル名.bat」として以下画像2を作成
④XsegApplyからポリゴン情報に変換したい画像のみをworkspace¥data_dst¥alignedに格納
⑤ ③で作成した「任意ファイル名.bat」を起動
⑥上書き保存されたaligned画像のポリゴンを公式EditorやMVEで気に食わない部分だけ手動調整する
https://i.imgur.com/0jHs4CH.jpg
https://i.imgur.com/u1LyRCo.jpg
270名無しさん@お腹いっぱい。
2022/05/17(火) 19:15:00.18ID:bw8VxBEZ02022/05/17(火) 20:17:32.54ID:tUaQweCY0
>>270
>気に入らないランドマークを手動で動かせるってことであってる?
認識あってます、が動かすのはランドマークでなくXsegマスクのポリゴンの各頂点ですね
Genericモデル等からApplyしただけのマスク形状をGUIで微調整できるツールは自分が知る範囲では無かったので、これを公式EditorやMVEで編集可能なポリゴン情報に変換するのが268の役割です
268の⑥の作業をMVEのブラシ/消しゴムツールで行ってるイメージが以下画像です
Genericモデルでは髭はマスクされませんがMVEの消しゴムツールで髭をマスク対象に追加することも簡単ですね
https://i.imgur.com/LyXap8Y.jpg
>気に入らないランドマークを手動で動かせるってことであってる?
認識あってます、が動かすのはランドマークでなくXsegマスクのポリゴンの各頂点ですね
Genericモデル等からApplyしただけのマスク形状をGUIで微調整できるツールは自分が知る範囲では無かったので、これを公式EditorやMVEで編集可能なポリゴン情報に変換するのが268の役割です
268の⑥の作業をMVEのブラシ/消しゴムツールで行ってるイメージが以下画像です
Genericモデルでは髭はマスクされませんがMVEの消しゴムツールで髭をマスク対象に追加することも簡単ですね
https://i.imgur.com/LyXap8Y.jpg
272名無しさん@お腹いっぱい。
2022/05/17(火) 21:32:34.21ID:bw8VxBEZ0 >>271
なるほどマスクをmveというツールで編集できるということか
xsegのtrain面倒だったからこれうまく使えるならいいかも
厚かましいけど100行のコード打ち込むの大変だからべた張りしてくれるとありがたいけどね。画像すぐ消えちゃうし。保存しとくけども。どうもありがとん
なるほどマスクをmveというツールで編集できるということか
xsegのtrain面倒だったからこれうまく使えるならいいかも
厚かましいけど100行のコード打ち込むの大変だからべた張りしてくれるとありがたいけどね。画像すぐ消えちゃうし。保存しとくけども。どうもありがとん
2022/05/17(火) 22:13:13.65ID:3J5LZHA30
ランドマークはな… 手動でうまくやった感あっても成果物が微振動してて萎える
2022/05/17(火) 23:01:43.23ID:tUaQweCY0
MyXsegUtil.py
main.py ←公式2021/10/20のものを編集
任意ファイル名.bat
の3ファイルをパス付zipでアップロードしました
https://dotup.org/uploda/dotup.org2805553.zip.html
zipのパスワードは「mxu」です(全て大文字)
MVEの入手・使い方は自分では上手く説明できませんYouTubeにチュートリアル動画や、DFLの公式サイトに紹介記事があったような気がします
main.py ←公式2021/10/20のものを編集
任意ファイル名.bat
の3ファイルをパス付zipでアップロードしました
https://dotup.org/uploda/dotup.org2805553.zip.html
zipのパスワードは「mxu」です(全て大文字)
MVEの入手・使い方は自分では上手く説明できませんYouTubeにチュートリアル動画や、DFLの公式サイトに紹介記事があったような気がします
2022/05/17(火) 23:04:55.27ID:tUaQweCY0
>>274
ごめんなさい「mxu」は全て小文字です(~_~;)
ごめんなさい「mxu」は全て小文字です(~_~;)
2022/05/18(水) 00:04:01.53ID:FjiMNziL0
>>273
AIってまだまだだなって思うよね
AIってまだまだだなって思うよね
277名無しさん@お腹いっぱい。
2022/05/18(水) 00:10:11.19ID:2a03PKQR0 >>275
わざわざどうもありがとう!試してみますわ。自分だとこんな設計できないのでありがたい、、
わざわざどうもありがとう!試してみますわ。自分だとこんな設計できないのでありがたい、、
278名無しさん@お腹いっぱい。
2022/05/18(水) 08:51:44.41ID:66XBTdkO0 >>271
MVEってこれか
結構前にこのエディターでランドマークを
上手く認識させる術はないかと
試行錯誤していたことがあった
結果はMVEじたいを使いこなせないで終わった
当時ははじめたばかりだったし、
またやってみようかな
MVEってこれか
結構前にこのエディターでランドマークを
上手く認識させる術はないかと
試行錯誤していたことがあった
結果はMVEじたいを使いこなせないで終わった
当時ははじめたばかりだったし、
またやってみようかな
2022/05/18(水) 12:15:27.23ID:QPGuUQZy0
>>278
編集画面左上の[Landmarks/Segmentation]スイッチで編集対象を切り替えます
DFL公式ツールで抽出したframeとalignedをMVEに取り込んで、ランドマークを手編集、alignedの再出力まで経験してる方なら269のスクリプト、直ぐに活用できます
が、自分もそこまでMVEを動かすにはかなり苦労しました
編集画面左上の[Landmarks/Segmentation]スイッチで編集対象を切り替えます
DFL公式ツールで抽出したframeとalignedをMVEに取り込んで、ランドマークを手編集、alignedの再出力まで経験してる方なら269のスクリプト、直ぐに活用できます
が、自分もそこまでMVEを動かすにはかなり苦労しました
280名無しさん@お腹いっぱい。
2022/05/18(水) 12:24:47.02ID:66XBTdkO02022/05/18(水) 16:00:43.69ID:QPGuUQZy0
一点、気になるのは
MVEでalignedを再出力すると、ランドマークを全くいじってないものでも、DFL公式ツールで顔抽出したものから、切り出し外枠が上下方向に若干ズレる
公式のままとMVEで再出力したalignedを混ぜても顔TrainやMergeに悪影響は無いと思うけど、気になる方は269の工程でMVEで修正したalignedはXsegのTrainのみに使用した方が良いかな
MVEでalignedを再出力すると、ランドマークを全くいじってないものでも、DFL公式ツールで顔抽出したものから、切り出し外枠が上下方向に若干ズレる
公式のままとMVEで再出力したalignedを混ぜても顔TrainやMergeに悪影響は無いと思うけど、気になる方は269の工程でMVEで修正したalignedはXsegのTrainのみに使用した方が良いかな
282名無しさん@お腹いっぱい。
2022/05/19(木) 21:29:04.04ID:veHLA6rg0 >>267
ぶっかけうどんってなんだ?って思っていたけど
顔射のことね
万能のやつで俺も試してみたけど
5割~8割くらいカバーできるっぽいね
ただ完成度を求めるなら、やっぱチマチマと
範囲指定したほうが良いかな
嗜好としては好き嫌い別れそうだし
好きじゃないとやってられんよな
ぶっかけうどんってなんだ?って思っていたけど
顔射のことね
万能のやつで俺も試してみたけど
5割~8割くらいカバーできるっぽいね
ただ完成度を求めるなら、やっぱチマチマと
範囲指定したほうが良いかな
嗜好としては好き嫌い別れそうだし
好きじゃないとやってられんよな
283名無しさん@お腹いっぱい。
2022/05/21(土) 21:44:35.01ID:nq3h4Fc50 誰か教えて欲しいのですが
option項目でtrue_face_powerが出ないのは
何故なのでしょう?
train設定を決めていく一番最初から出ません(T-T)
なのにmodelフォルダを開くと項目はあります
option項目でtrue_face_powerが出ないのは
何故なのでしょう?
train設定を決めていく一番最初から出ません(T-T)
なのにmodelフォルダを開くと項目はあります
2022/05/24(火) 12:13:13.86ID:QSDxEAGw0
285283
2022/05/24(火) 16:15:45.23ID:3ltn6eZz0 (|||´Д`)シラナカッタ
2022/05/26(木) 13:11:34.30ID:YO9uu4MS0
>>240って512サイズのWFでは使えない?
287名無しさん@お腹いっぱい。
2022/05/26(木) 20:56:41.64ID:9rxvOyP/0 その辺、あまり気にしないで使ったな
srcの素材ってfもwfも混ぜているんだけど
普通に使えた
サイズもデフォルトだと512で
そのままでやってるから512にも使えると思う
srcの素材ってfもwfも混ぜているんだけど
普通に使えた
サイズもデフォルトだと512で
そのままでやってるから512にも使えると思う
288名無しさん@お腹いっぱい。
2022/05/28(土) 22:00:52.46ID:ZDGMOath0 >>240
今更やが君有能やな。一段上の世界に行けたわ。
今更やが君有能やな。一段上の世界に行けたわ。
2022/05/30(月) 18:52:59.91ID:JJP67lR70
久々にやってみようと1年ぶりくらいに覗いてみたけどもう難しくなりすぎてそうで無理やな多分
ここの会話の8割が分からん単語になってしもうとるわ
ここの会話の8割が分からん単語になってしもうとるわ
2022/05/30(月) 22:21:29.00ID:R7ANQpHC0
2022/05/30(月) 23:55:26.39ID:hS2mcaV90
終わりやね
家じゃ電気代やべえし
家じゃ電気代やべえし
2022/05/31(火) 12:11:29.78ID:gPCtwJaq0
みんなやっぱcolabでやってたの?
2022/05/31(火) 12:43:51.99ID:aMtHzOyZ0
colabに関する質問とかほぼ見ないしほとんどローカル環境じゃない?
rtx4000シリーズが待ち遠しいわ
rtx4000シリーズが待ち遠しいわ
294名無しさん@お腹いっぱい。
2022/05/31(火) 15:25:25.92ID:dit0gigA0 4000シリーズはTDP次第かなぁ
性能が優秀でも爆熱&電気代かかり過ぎでは
さすがにきつい
性能が優秀でも爆熱&電気代かかり過ぎでは
さすがにきつい
2022/06/02(木) 00:45:29.06ID:VjMHbYZj0
deep learningにはがっかりやな
もっと夢をみさせてくれてもよかったのに
第三次ブーム終了
もっと夢をみさせてくれてもよかったのに
第三次ブーム終了
2022/06/02(木) 01:35:05.47ID:7IlYBT3F0
VRでやってみ?
飛ぶぞ
飛ぶぞ
2022/06/02(木) 12:24:37.88ID:IFXy02B70
>>296
hddの容量が飛んだわ
hddの容量が飛んだわ
2022/06/02(木) 17:13:39.54ID:7IlYBT3F0
うちは8Tのhddを2台運用や
2022/06/02(木) 21:38:34.71ID:GjF+qT4X0
VRって画面中央に顔の部分しか使えないからそんなに長時間の作れなくない?
2022/06/02(木) 21:54:01.40ID:7IlYBT3F0
2022/06/02(木) 21:55:49.42ID:KWOdVOlj0
VRは使える部分を探すのが大変だな
なかなか似ないし
なかなか似ないし
2022/06/02(木) 22:55:09.76ID:7IlYBT3F0
斧のB 164786、ファイル名はKANPAI
パスはKANNAPAIZURI
はしかんのパイずりVR
3分と短くてすまん
明日の22時に消す
パスはKANNAPAIZURI
はしかんのパイずりVR
3分と短くてすまん
明日の22時に消す
2022/06/02(木) 23:06:58.25ID:7knjQD+Z0
>>302
❤
❤
2022/06/02(木) 23:50:08.81ID:KWOdVOlj0
でかした
2022/06/03(金) 00:00:03.49ID:7C0FvFCG0
2Dで満足してVRには手出してなかったけど没入感あるから良いな
>>302 これはresとdimsどれくらいにしてる?
>>302 これはresとdimsどれくらいにしてる?
2022/06/03(金) 00:25:09.66ID:RAgUAufb0
vram10GBか12GBかわからないけどres256まではそれなりのバッチサイズでも余裕じゃない?
自分はvram11GBだけどres384のdimsはデフォでbs6くらい
256なら16~18でも回る
ただLRDをGPUで使うと流石にOOM吐くからその時はbsを1/2に落とす
自分はvram11GBだけどres384のdimsはデフォでbs6くらい
256なら16~18でも回る
ただLRDをGPUで使うと流石にOOM吐くからその時はbsを1/2に落とす
308296
2022/06/03(金) 00:29:55.86ID:hXO9TKYj02022/06/03(金) 00:41:55.28ID:rq31+fIZ0
resはもうちょっと欲しいところだね
VRだと目の前に来るからぼやっと見えちゃう
マージでsuper resolution powerを強めにかけてもいいけど
ついでにうるさいこと言うと、VRは目線が最重要だからeyes mouth prioで十分にトレインしたほうが良いかも
VRだと目の前に来るからぼやっと見えちゃう
マージでsuper resolution powerを強めにかけてもいいけど
ついでにうるさいこと言うと、VRは目線が最重要だからeyes mouth prioで十分にトレインしたほうが良いかも
310296
2022/06/03(金) 00:50:46.84ID:hXO9TKYj0 確かにVRだと目というか視線に違和感出ますね。
一応、eyes mouth prioはオンにしたんですけどね。
トレインが足りなかったか
一応、eyes mouth prioはオンにしたんですけどね。
トレインが足りなかったか
2022/06/03(金) 01:14:21.71ID:enjW/Kz+0
トレイン画面の利用可能vramは少なめに表示されてるだけだから初期80でも10gbフルで使えてるはず res320のdims256でバッチ6とか8くらいなら行けるんじゃない?
ちなみにdimsとかは固定してresだけを上げるなら320resに設定したmodelを新しく1から立ち上げて、学習始めたらすぐセーブして保存して
完成済みのmodelフォルダに入ってる旧decoderとencoder.npyファイルをコピーして
320resモデルフォルダの新dec&enc.npyファイルと同じ名前にして旧データと置き換えれば顔のデータ引き継げるから1から学習し直すよりかなり早い
それと若干顔がdst寄りになってるように見えるんだけど同じmodelデータで違う素材使って学習してると仕上がりがどんどんdst寄りの顔になっていくから
新しい素材で学習始める時はinter_AB.npyだけ消してからトレインした方がsrc寄りになるよ
dst以外のプレビューの顔がリセットされるけどすぐ学習し直すし仕上がり良くなる
ちなみにdimsとかは固定してresだけを上げるなら320resに設定したmodelを新しく1から立ち上げて、学習始めたらすぐセーブして保存して
完成済みのmodelフォルダに入ってる旧decoderとencoder.npyファイルをコピーして
320resモデルフォルダの新dec&enc.npyファイルと同じ名前にして旧データと置き換えれば顔のデータ引き継げるから1から学習し直すよりかなり早い
それと若干顔がdst寄りになってるように見えるんだけど同じmodelデータで違う素材使って学習してると仕上がりがどんどんdst寄りの顔になっていくから
新しい素材で学習始める時はinter_AB.npyだけ消してからトレインした方がsrc寄りになるよ
dst以外のプレビューの顔がリセットされるけどすぐ学習し直すし仕上がり良くなる
312296
2022/06/03(金) 01:31:23.47ID:hXO9TKYj0 了解です。
次に作る時はres320のdims256でやってみます。
res変更時にデータを引き継げるのは知りませんでした。
確かに面倒なので同じmodelデータ使っていますね。
そちらも試してみます。
次に作る時はres320のdims256でやってみます。
res変更時にデータを引き継げるのは知りませんでした。
確かに面倒なので同じmodelデータ使っていますね。
そちらも試してみます。
313名無しさん@お腹いっぱい。
2022/06/03(金) 08:44:14.88ID:ztWjqObM0 もしかしてtrainのときのFacetypeって
wfからfに戻った?
wfからfに戻った?
314名無しさん@お腹いっぱい。
2022/06/03(金) 08:44:44.44ID:ztWjqObM0 デフォルト状態での話しです
315名無しさん@お腹いっぱい。
2022/06/03(金) 23:59:40.62ID:l99TgKx60316名無しさん@お腹いっぱい。
2022/06/04(土) 00:13:43.82ID:DsZbmEyh0 輪郭だけはどうしようもないけど
他の部位、分かりやすいところでは鼻とかが
あきらかにdstモデルの特徴を残してしまってる
のをたまに見かけるけど
そういう理屈だったのね
他の部位、分かりやすいところでは鼻とかが
あきらかにdstモデルの特徴を残してしまってる
のをたまに見かけるけど
そういう理屈だったのね
2022/06/04(土) 01:42:40.61ID:lpInVctW0
srcかdstどちらか一方でも大きく変更する場合はLIAEだとinter AB.npy
DFだとinter.npyファイルを消せば前回使った顔データ達を混ぜずに学習できるから結果良くなるはず
dstの角度・表情・照明とかがsrcに無くてdstに寄る場合はまず素材変えなきゃだけども
DFだとinter.npyファイルを消せば前回使った顔データ達を混ぜずに学習できるから結果良くなるはず
dstの角度・表情・照明とかがsrcに無くてdstに寄る場合はまず素材変えなきゃだけども
2022/06/04(土) 14:13:09.00ID:8w6IGb4r0
最近の開発者の感じからして4000には対応しなそうだな
2022/06/04(土) 18:10:38.05ID:t4JAJsiw0
確かに最近、更新ないしね
2022/06/05(日) 18:44:59.01ID:NVcGVpFW0
グラボ新調して高解像度にしたらTraining Previewがsrc2枚だけになったんだけど、これどっかでウィンドウサイズ変える項目ないのかな。
自分でスクリプトちょっと覗いてみたけど分からなかったので誰か教えて下さい。
自分でスクリプトちょっと覗いてみたけど分からなかったので誰か教えて下さい。
321名無しさん@お腹いっぱい。
2022/06/05(日) 20:30:17.89ID:LL0/5v3j0 スペースキーじゃなかったかな
322名無しさん@お腹いっぱい。
2022/06/05(日) 20:31:10.11ID:LL0/5v3j0 あ、ごめんウィンドウサイズか
サイズ変更はちとわからん
サイズ変更はちとわからん
2022/06/05(日) 21:07:29.27ID:hZdFauKx0
489 名無しさん@お腹いっぱい。 sage 2021/06/12(土) 04:47:04.27 ID:JYJDz9Xu0.net
◆Model_SAEHD/Model.py 763行目あたり
n_samples = min(4, self.get_batch_size(), 800 // self.resolution )
if self.resolution <= 256:
最大表示行4。res256の場合、800を256で割ったときの数=3行まで表示できる
バッチサイズが2だった場合は2行しか表示されない。res256を超えてる場合は1行表示
4→10 800→3840 256→384 に書き換えて
res384 バッチサイズ8 でトレインした時のプレビューは8行になるけど1マスが小さくなる
プレビュー全体の大きさを変えられればいいんだけどわからない
492 名無しさん@お腹いっぱい。 sage 2021/06/12(土) 12:15:23.22 ID:y1WHG5Vx0.net
>>491
見つけたと思う、
\_internal\DeepFaceLab\mainscripts\
275行の
max_size = 800
でプレビューの縦サイズmax変えられるみたい。
>>489のと組み合わせてどうだろうか?
493 名無しさん@お腹いっぱい。 sage 2021/06/12(土) 12:15:55.89 ID:y1WHG5Vx0.net
↑肝心なとこ忘れてた、Trainer.pyね。
◆Model_SAEHD/Model.py 763行目あたり
n_samples = min(4, self.get_batch_size(), 800 // self.resolution )
if self.resolution <= 256:
最大表示行4。res256の場合、800を256で割ったときの数=3行まで表示できる
バッチサイズが2だった場合は2行しか表示されない。res256を超えてる場合は1行表示
4→10 800→3840 256→384 に書き換えて
res384 バッチサイズ8 でトレインした時のプレビューは8行になるけど1マスが小さくなる
プレビュー全体の大きさを変えられればいいんだけどわからない
492 名無しさん@お腹いっぱい。 sage 2021/06/12(土) 12:15:23.22 ID:y1WHG5Vx0.net
>>491
見つけたと思う、
\_internal\DeepFaceLab\mainscripts\
275行の
max_size = 800
でプレビューの縦サイズmax変えられるみたい。
>>489のと組み合わせてどうだろうか?
493 名無しさん@お腹いっぱい。 sage 2021/06/12(土) 12:15:55.89 ID:y1WHG5Vx0.net
↑肝心なとこ忘れてた、Trainer.pyね。
2022/06/05(日) 21:17:20.55ID:hZdFauKx0
先人の知恵です
これベースに自分の環境に合わせてどうぞ
参考までに自分のmodel.pyは
n_sample = min(5,self.get_batch_size(),1920 // self.resolution )
if self.resolution <= 512
trainer.pyは max size = 920 に変更してます
これベースに自分の環境に合わせてどうぞ
参考までに自分のmodel.pyは
n_sample = min(5,self.get_batch_size(),1920 // self.resolution )
if self.resolution <= 512
trainer.pyは max size = 920 に変更してます
2022/06/06(月) 11:42:37.87ID:QS53nj4j0
ありがとう。無事変更できました。
2022/06/10(金) 21:48:12.25ID:0y/QaNqf0
ちょうどcolab proの期限切れたから試してみた
無料版だと警告が表示されるけど課金してproにしたら表示されないな
無料版だと警告が表示されるけど課金してproにしたら表示されないな
2022/06/10(金) 22:22:22.26ID:vQjMxSTR0
昨日か一昨日はプロでもダメだった
2022/06/10(金) 22:53:35.77ID:GDWYjFFi0
性能いいグラボをDFで独占するなって話なんだし多分時間の問題じゃろ
329名無しさん@お腹いっぱい。
2022/06/11(土) 13:27:39.26ID:RxorxSQX0 rtx3600に完全移行したからモデル全部作り直さんといけんのだが、一応モデルの解像度も上げれるから384でやってるけど、前まで使っていたscrを流用しようか新たにもう少し高い解像度にするか迷ってる
元々は512だからそれでもいいんだろうが768ぐらいでもいけるのでそれのほうがやっぱりいいのか
でも切り抜く前の映像がFHDで顔アップなのばかりじゃないから512で十分なんかなあと
ここら辺のこと知ってる人いたら教えてください
元々は512だからそれでもいいんだろうが768ぐらいでもいけるのでそれのほうがやっぱりいいのか
でも切り抜く前の映像がFHDで顔アップなのばかりじゃないから512で十分なんかなあと
ここら辺のこと知ってる人いたら教えてください
2022/06/11(土) 23:40:07.45ID:jbEydccc0
触発されて久々にVRで作ってみたけど肝心のVRゴーグルが壊れちまった・・・
331名無しさん@お腹いっぱい。
2022/06/15(水) 08:45:11.77ID:mnFiPvVo02022/06/15(水) 11:48:22.49ID:eU+ghlra0
メモリに置くんならサイズが増えることも考慮しないとね
2022/06/15(水) 12:26:21.01ID:LYoDBP5r0
alignedを768で切り抜いてもモデルresが384なら勝手に384にリサイズされるみたいだから意味無いし
それよりもトレーニング時のCPU使用率がかなり増えたり開始時の読み込み速度とかマージも遅くなってデメリットしかなかったな
それよりもトレーニング時のCPU使用率がかなり増えたり開始時の読み込み速度とかマージも遅くなってデメリットしかなかったな
334名無しさん@お腹いっぱい。
2022/06/15(水) 13:12:26.77ID:mnFiPvVo0 解像度で言ったらsrc素材動画の解像度は
高いほうがいい
だけど結局はdst動画に貼り付けるわけだから
いくら高かろうが独特の違和感は出る
誰かが言ったdflの限界だろうね
結果、dst動画の解像度を下げて違和感を少しでも減らすのが
最善だったりもする
高いほうがいい
だけど結局はdst動画に貼り付けるわけだから
いくら高かろうが独特の違和感は出る
誰かが言ったdflの限界だろうね
結果、dst動画の解像度を下げて違和感を少しでも減らすのが
最善だったりもする
2022/06/16(木) 12:24:47.58ID:2HVxIoiO0
>>311
なるほど。同じモデルを使っていくと、髪とか、何か違和感があるのはそういう理由なのですね。ありがとうございます。
しかしinter_AB.npyを消しても"すぐ学習しなおす"というレベルに鍛えるには、やっぱ2Mとか学習が必要なのかな
srcの質もあると思うけど
なるほど。同じモデルを使っていくと、髪とか、何か違和感があるのはそういう理由なのですね。ありがとうございます。
しかしinter_AB.npyを消しても"すぐ学習しなおす"というレベルに鍛えるには、やっぱ2Mとか学習が必要なのかな
srcの質もあると思うけど
2022/06/16(木) 14:50:54.21ID:LRUH7fz80
素材とか設定でかなり時間変わるけどres384で20万学習くらいのモデルでもinter削除で使い回すのと1から学習を比べたら半分くらい時短できるって感じかな
もちろん1M単位でdstもsrcも何人も変えて使ってたりすれば更に早くなる
もちろん1M単位でdstもsrcも何人も変えて使ってたりすれば更に早くなる
337名無しさん@お腹いっぱい。
2022/06/16(木) 19:46:53.24ID:EDhifPjM0 extractで顔を抽出する時、グラボを指定すると読み込んでくれないのですが、何か解決方法あったりしますか?
一応CPU設定にすれば読み込んではくれますが、非常に遅いので…
環境は
CPU:i7 10700K
GPU:3060ti
メモリ:16GB で、Geforceのドライバは最新、GPUスケジューリングはONです。
一応CPU設定にすれば読み込んではくれますが、非常に遅いので…
環境は
CPU:i7 10700K
GPU:3060ti
メモリ:16GB で、Geforceのドライバは最新、GPUスケジューリングはONです。
2022/06/16(木) 20:37:14.58ID:dsBpZ7Xb0
DFLのバージョンは
340名無しさん@お腹いっぱい。
2022/06/16(木) 22:31:47.61ID:f3f/UvtL0 RTX3000シリーズじゃないの?
2022/06/17(金) 00:19:10.61ID:QSFHyI4N0
そんな昔のバージョンで3060対応してるわけないべ
2022/06/17(金) 00:30:07.56ID:FEJ2vOtk0
なぜ2年前のバージョンを使おうと思ったのか
343名無しさん@お腹いっぱい。
2022/06/17(金) 08:45:12.18ID:HCfj803y0 更新されていないHPを参考にすると
どうしても古い情報のままでやってしまうんでしょ
3000番代を使ってるなら3000シリーズがあるから
素直にそれを落とせば問題なし
どうしても古い情報のままでやってしまうんでしょ
3000番代を使ってるなら3000シリーズがあるから
素直にそれを落とせば問題なし
344名無しさん@お腹いっぱい。
2022/06/17(金) 09:03:22.95ID:HCfj803y0 ついでに古いHPだとCUDAをダウンロードとか
書いてあるけど
3000シリーズを落とすだけで大丈夫
書いてあるけど
3000シリーズを落とすだけで大丈夫
345名無しさん@お腹いっぱい。
2022/06/17(金) 09:13:24.55ID:gfgWizAD0 久しぶりにやろうとしたらtrain SAEHDがどうやってもpress any key to continue状態に
やっぱりこれはnvidiaドライバのダウングレードしかないんですかね
やっぱりこれはnvidiaドライバのダウングレードしかないんですかね
346名無しさん@お腹いっぱい。
2022/06/17(金) 09:45:33.25ID:HCfj803y0 workspaceに適切なフォルダ等がきちんと揃ってます?
renameのし忘れとかフォルダを別のとこへ
移動していたとか
renameのし忘れとかフォルダを別のとこへ
移動していたとか
347名無しさん@お腹いっぱい。
2022/06/17(金) 11:14:04.36ID:duZH2Np40 quick96だっけ?そっちではちゃんと動くし実際ダウングレードしたらちゃんと動いたんですよね...
348名無しさん@お腹いっぱい。
2022/06/17(金) 11:53:30.99ID:HCfj803y0 dflの3000シリーズで試してみるとか
あれRTXなら問題ない
つかRTX A2000でちゃんと動く
あれRTXなら問題ない
つかRTX A2000でちゃんと動く
349名無しさん@お腹いっぱい。
2022/06/17(金) 12:34:08.16ID:5rpbYlBN0 仕上がり動画の再生スピードがたまに2ー3倍位速くなってしまうのがある。なぜなんですか
350名無しさん@お腹いっぱい。
2022/06/17(金) 18:59:54.34ID:3QV9H3RK0351名無しさん@お腹いっぱい。
2022/06/17(金) 19:48:55.23ID:qnyH9yHW0 摘発以来、どこも更新しなくなちゃったから
いかんせん情報が古いんだよね
比較的新しいのは「顔入替ソフト使用例」
用語説明だったら「どどるげ動画の制作机」
この二つくらいかな
前者で作り方を覚えつつ、後者で用語を調べる感じ
いかんせん情報が古いんだよね
比較的新しいのは「顔入替ソフト使用例」
用語説明だったら「どどるげ動画の制作机」
この二つくらいかな
前者で作り方を覚えつつ、後者で用語を調べる感じ
352名無しさん@お腹いっぱい。
2022/06/21(火) 23:23:27.70ID:xB4BzfwJ0 今月の電気代思ったよりかかってなかったわ。グラボ回してるから相当上がってるかと思ったけど意外とそうでもないのか
353名無しさん@お腹いっぱい。
2022/06/22(水) 08:50:11.70ID:LwKW3g0x0 グラボにもよるでしょ
3060だとTDP170Wだから、50インチの液晶テレビくらい
テレビだと1日中点けても電気代とか
気にかける人って少ないだろうし
200Wでも冷蔵庫くらいだしね
3060だとTDP170Wだから、50インチの液晶テレビくらい
テレビだと1日中点けても電気代とか
気にかける人って少ないだろうし
200Wでも冷蔵庫くらいだしね
354名無しさん@お腹いっぱい。
2022/06/23(木) 00:35:48.45ID:ScpqrfBp0 >>353
3060で当たり。確かにテレビで換算するとそんなかかってないのも理解できるな。
3060で当たり。確かにテレビで換算するとそんなかかってないのも理解できるな。
2022/06/23(木) 16:35:26.17ID:XaICpSqF0
アレクサが声のディープフェイクみたいなのを出来るようにするらしいな
2022/06/24(金) 02:13:29.60ID:QG8iXjqP0
アレクサって任意の文章を感情入れて読ませたりできるの?
単純に読み上げるだけならできそうだけど
単純に読み上げるだけならできそうだけど
2022/06/25(土) 14:36:55.17ID:N1Z5ADJr0
VRすごい
358名無しさん@お腹いっぱい。
2022/06/26(日) 20:39:55.47ID:gwHrpeXo0 train中 ずっと800ms付近で学習進んでたんだが最近5回おきくらいに6000msくらいのラグ挟まれるんだけどどういう症状なのか誰かわかりますか?
タイミングとしては前に作ったモデルそのままでdstだけ変えてトレーニングしようとした時から発生した。 同時にモデルのバックアップ取ろうとして別の場所にモデルコピーしたのが悪かったのか?と思ってバックアップ削除したけど変わりません
新規モデルで始めても6000ms出ます
タイミングとしては前に作ったモデルそのままでdstだけ変えてトレーニングしようとした時から発生した。 同時にモデルのバックアップ取ろうとして別の場所にモデルコピーしたのが悪かったのか?と思ってバックアップ削除したけど変わりません
新規モデルで始めても6000ms出ます
2022/06/26(日) 21:39:28.98ID:RDHIpYG30
dstのalignedの中に顔じゃない画像とか混じってない?
2022/06/26(日) 22:05:08.56ID:RDHIpYG30
あとはPC上で何か重い処理がその時に裏で走っていたとか
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 中国国営メディア「沖縄は日本ではない」… ★3 [BFU★]
- 中国国営メディア「沖縄は日本ではない」… ★2 [BFU★]
- 高市政権にパイプ役不在…日中高まる緊張 公明党の連立離脱影響、自民内にも懸念「自分でまいた種は自分で刈り取ってもらわないと」 [ぐれ★]
- 小野田氏、”中国経済への依存“に警戒感 高市首相の国会答弁巡り [煮卵★]
- 【こんなの初めて…】民泊には既にキャンセルも 中国の渡航自粛で [ぐれ★]
- 台湾声明 「台湾は独立した主権国家、中国は台湾を統治したことがなく、中国は口出しする権利ない」 中国が高市首相に抗議で ★7 [お断り★]
- 【悲報】自国で旅客機を開発して自国内で飛ばすだけで採算取れる国と税金チューチューして終わった国、戦争になればどっちが勝つと思う? [616817505]
- 干した猿みたいなミイラ顔の女がネトウヨだらけなのは何故なのか… [667744927]
- 【悲報】ココイチ、売上増収も客離れが止まらずジリ貧。「さらなる値上げも視野」😳 [518915984]
- 【なぜ】安倍晋三の評価、地味に上がってる模様… [343591364]
- 中国国営放送「日本は琉球をただちに中国に返還せよ」 キタ━━━━(゚∀゚)━━━━!!!!! [314039747]
- 【画像】セクシー女優・天沢りんさん「お休み頂いてた半年間でこんな体になりました🪽🤍」👉予想通りの展開に [242521385]
