DeepFaceLab(以下、DFL)の質問&回答スレです
・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。
・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。
・RTXシリーズでも動くの?
FS、DFL共に動く。
探検
【質問】dfl【その3】
■ このスレッドは過去ログ倉庫に格納されています
2020/12/13(日) 21:02:14.37ID:faeRPvMB0
2020/12/13(日) 21:03:30.09ID:faeRPvMB0
・作るのにどれくらいかかる?
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。
・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。
DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://github.com/iperov/DeepFaceLab
https://mrdeepfakes.com/forums/thread-1-1-sfw-guide-deepfacelab-2-0-guide-recommended-up-to-date
https://mrdeepfakes.com/forums/thread-3-1-sfw-guide-how-to-make-celebrity-datasets-guide
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
https://seesaawiki.jp/dfl/
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。
・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。
DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://github.com/iperov/DeepFaceLab
https://mrdeepfakes.com/forums/thread-1-1-sfw-guide-deepfacelab-2-0-guide-recommended-up-to-date
https://mrdeepfakes.com/forums/thread-3-1-sfw-guide-how-to-make-celebrity-datasets-guide
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
https://seesaawiki.jp/dfl/
2020/12/13(日) 21:05:20.53ID:faeRPvMB0
リクエスト禁止
DFLとかAIとかに文句つけるのは禁止
技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須
ダウンロード方法
https://mega.nz/folder/Po0nGQrA#dbbttiNWojCt8jzD4xYaPw
インストール方法
ダウンロードした
DeepFaceLab_CUDA_build_date.exe をダブルクリックし自己解凍形式)、D:\(Dドライブなどルート)などに解凍する。
DFLとかAIとかに文句つけるのは禁止
技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須
ダウンロード方法
https://mega.nz/folder/Po0nGQrA#dbbttiNWojCt8jzD4xYaPw
インストール方法
ダウンロードした
DeepFaceLab_CUDA_build_date.exe をダブルクリックし自己解凍形式)、D:\(Dドライブなどルート)などに解凍する。
2020/12/13(日) 21:06:09.28ID:faeRPvMB0
動画制作のおおまかな流れ
1.素材を準備する
2.素材動画を全フレーム画像で書き出し
3.顔部分のみを抽出
4.誤検出された画像を削除
5.学習させる(train)
6.顔を移植した画像を書き出し(convert)
7.書き出した画像を動画にする
1.素材を準備する
2.素材動画を全フレーム画像で書き出し
3.顔部分のみを抽出
4.誤検出された画像を削除
5.学習させる(train)
6.顔を移植した画像を書き出し(convert)
7.書き出した画像を動画にする
2020/12/14(月) 01:51:13.80ID:FjI7Qd0F0
6. は merge ではなくて?
2020/12/14(月) 02:05:24.44ID:aVt/a1LC0
>>5
mergeです。情報が古くてすんません
mergeです。情報が古くてすんません
2020/12/14(月) 22:08:54.99ID:jlKE0V5a0
なんだ日記か…
2020/12/15(火) 04:16:58.56ID:hwUlEsRf0
自治厨ェ…
2020/12/15(火) 06:18:15.66ID:aa22ZlrX0
顔が画面からフェードアウトするときのことで質問があります。
顔が画面の2/3消えたくらいでsrcへの置換がされずdstの顔が表示されます。
その部分だけマニュアルで顔を切り取っdstのalignedフォルダに追加しましたが、
mergeすると相変わらずdstの顔のままになっています。
alignedフォルダに入っている画像の部分を置き換えてくれるのかと思っていましたが違うのでしょうか?
ファイル名は動画の流れに合うように連番になっています。
顔が画面の2/3消えたくらいでsrcへの置換がされずdstの顔が表示されます。
その部分だけマニュアルで顔を切り取っdstのalignedフォルダに追加しましたが、
mergeすると相変わらずdstの顔のままになっています。
alignedフォルダに入っている画像の部分を置き換えてくれるのかと思っていましたが違うのでしょうか?
ファイル名は動画の流れに合うように連番になっています。
2020/12/15(火) 07:45:47.08ID:kZfxVZgL0
マニュアルでっていうのはRe〜みたいなデバッグ消したファイルをextractするbat実行したってこと?
それとも例えばwinPhotoみたいな他のソフトでトリミングした画像の名前だけ変えてalignedに入れたってこと?
前者ならわからん
後者なら意味ない
それとも例えばwinPhotoみたいな他のソフトでトリミングした画像の名前だけ変えてalignedに入れたってこと?
前者ならわからん
後者なら意味ない
2020/12/15(火) 09:08:09.20ID:OerpmQQP0
未抽出の顔は、DFLで手動抽出するしかないと思います
メタ情報が入らないでしょう
メタ情報が入らないでしょう
2020/12/15(火) 09:31:00.13ID:aa22ZlrX0
マニュアルの意味は
2020/12/15(火) 09:32:22.61ID:aa22ZlrX0
すいません、途中で送ってしまった・・・
マニュアルの意味は
5) data_dst faceset extract MANUAL.bat
でファイルを作ったということです。
11さんが言ったDFLで手動抽出とはこれを使うということですよね?
マニュアルの意味は
5) data_dst faceset extract MANUAL.bat
でファイルを作ったということです。
11さんが言ったDFLで手動抽出とはこれを使うということですよね?
2020/12/16(水) 00:42:36.29ID:ztwcSGgL0
5) data_dst faceset extract MANUAL.bat
は使用した事は無いのですが
とにかくDFLで抽出すればいいのでしょう
何か、DFLで抽出した顔のローテーションが違うとかで
勝手に回転させたりしたりはだめだとか
debugから消して、手動再抽出とかは上手くいっています
は使用した事は無いのですが
とにかくDFLで抽出すればいいのでしょう
何か、DFLで抽出した顔のローテーションが違うとかで
勝手に回転させたりしたりはだめだとか
debugから消して、手動再抽出とかは上手くいっています
15名無しさん@お腹いっぱい。
2020/12/16(水) 14:22:06.27ID:RFv2Li0A0 今年の8月からDFLをアップデートしていないのですが、改良はされてますかね?
2020/12/17(木) 01:37:53.71ID:NxWOtusT0
08_02_2020使用していますが
hdアーキの代わりに-udとか
軽くなってlr_dropout=Trueに最後していい感じ
Xsegはなかなかいいんじゃないですかね
hdアーキの代わりに-udとか
軽くなってlr_dropout=Trueに最後していい感じ
Xsegはなかなかいいんじゃないですかね
2020/12/17(木) 02:38:10.76ID:nZutQQ6b0
質問なんだが、この画像のあとKeyを押すと進めない
この現象になるときと、trainでちゃんと学習するときがあっておそらくは作業中に強制終了させたりするとこの現象が起こると思ってるんだが、本当にこれが理由であってるんだろうか?
それと、この現象に陥ったときに1から始めるの面倒なんだが方法ってない?
この現象になるときと、trainでちゃんと学習するときがあっておそらくは作業中に強制終了させたりするとこの現象が起こると思ってるんだが、本当にこれが理由であってるんだろうか?
それと、この現象に陥ったときに1から始めるの面倒なんだが方法ってない?
2020/12/17(木) 02:38:26.03ID:nZutQQ6b0
19名無しさん@お腹いっぱい。
2020/12/17(木) 20:56:32.53ID:KusLfrvY0 お前は二度と来るな!!!
2020/12/17(木) 21:11:00.65ID:DOy7qOo30
3070おじさん早速出禁食らってて草
2020/12/17(木) 23:14:09.49ID:hXxkmTMU0
もしかしたらとてもレベルの低いことかもしれないけど質問させてください。
dst素材で顔に手が被っている場合の対処としては、
XSegで手の部分を顔以外(破線の囲い)と指定してやればいいのでしょうか?
(素材数枚でやる必要あり?)
dst素材で顔に手が被っている場合の対処としては、
XSegで手の部分を顔以外(破線の囲い)と指定してやればいいのでしょうか?
(素材数枚でやる必要あり?)
22名無しさん@お腹いっぱい。
2020/12/17(木) 23:24:28.31ID:KusLfrvY0 なんでやる前に質問するんだよ
2020/12/18(金) 19:08:25.22ID:jVkj4tZx0
21です。
22さん、ごもっともです。
実はやってはみたんですが、上手くいっていません。
それの原因が回数なのかmaskの当て方なのかそもそものmaskの考え方が違うのかわからず、
あのような質問になりました。
22さん、ごもっともです。
実はやってはみたんですが、上手くいっていません。
それの原因が回数なのかmaskの当て方なのかそもそものmaskの考え方が違うのかわからず、
あのような質問になりました。
2020/12/19(土) 00:29:11.41ID:2gW2kMY60
https://mrdeepfakes.com/forums/thread-2-1-sfw-nsfw-guide-sharing-dfl-2-0-xseg-model-guide-and-sharing-thread
手とか笛とかは、フォーラムにある画像でXseg Trainで結構上手くいくと思いますけど
それで上手くいかない場合のみ、結構少数枚数でも手動Maskするといい感じみたい
手とか笛とかは、フォーラムにある画像でXseg Trainで結構上手くいくと思いますけど
それで上手くいかない場合のみ、結構少数枚数でも手動Maskするといい感じみたい
2020/12/19(土) 00:32:15.88ID:VLdZaMbM0
>>23
手がどれくらい被ってるか分からんけどこんな感じでやってる
何枚かマスクしてXsegやってマスクに適用し編集でチェック
ダメなとこあったらマスク追加でXseg
https://i.imgur.com/8IZ8cqH.jpg
手がどれくらい被ってるか分からんけどこんな感じでやってる
何枚かマスクしてXsegやってマスクに適用し編集でチェック
ダメなとこあったらマスク追加でXseg
https://i.imgur.com/8IZ8cqH.jpg
2020/12/19(土) 20:51:18.05ID:Wt8/fXrj0
>>25
あれ?眉毛って顔に入れないんでしたっけ?
あれ?眉毛って顔に入れないんでしたっけ?
27名無しさん@お腹いっぱい。
2020/12/19(土) 21:08:03.29ID:D0kdx6n60 それは自由だ
大体眉に髪かかってるの多いから避けるのが無難と思う
大体眉に髪かかってるの多いから避けるのが無難と思う
2020/12/19(土) 21:22:09.98ID:Wt8/fXrj0
眉なしでdstのXsegを作ったら顔入れ替えの時にsrcも眉から下が適用される、って考えてあってます?
2020/12/19(土) 21:53:43.56ID:/L/JgTI+0
>>28
うんマスクされるから
うんマスクされるから
2020/12/19(土) 21:55:58.22ID:/L/JgTI+0
補足srcも眉から下でマスクしてます
2020/12/19(土) 21:59:27.63ID:Wt8/fXrj0
なるほど!ちょっと試してみます。
2020/12/19(土) 22:41:01.14ID:Wt8/fXrj0
あれ?ちょっと思ったんですけど、
フェイスタイプはFで基本やってたんですけど眉から下でマスクするならHにしちゃっていいんですよね?
フェイスタイプはFで基本やってたんですけど眉から下でマスクするならHにしちゃっていいんですよね?
2020/12/20(日) 05:00:28.89ID:5bFtS3MH0
mask処理をしたら仕上がりが倍以上よくなった。
ここの人たちありがとう!
ここの人たちありがとう!
2020/12/20(日) 09:27:09.85ID:7xq9z9kO0
2020/12/20(日) 09:28:40.66ID:5bFtS3MH0
2020/12/21(月) 13:05:13.28ID:qO0rZz2d0
loss値0.1で能面が治らないんですが、ここまでやっても治らないのはsrcが足りてないんでしょうか?
2020/12/26(土) 11:25:01.65ID:2VH+8smV0
別スレでAdaBeliefで学習が速くなると聞いて、最新版を試したけど
特に速くなってなくない?
ただEyes priorityがEyes and mouth priorityに変わってて、前は口が微妙に
ずれてる場合があったのが、うまく入れ替わってる
特に速くなってなくない?
ただEyes priorityがEyes and mouth priorityに変わってて、前は口が微妙に
ずれてる場合があったのが、うまく入れ替わってる
38名無しさん@お腹いっぱい。
2020/12/27(日) 15:10:55.43ID:nyl/b2Pw0 AdaBeliefは理論的には速くなってるはずだけど、dflがそんなに効率よく取り入れてるかどうかはわからない
反復が速くなるんじゃなくて、loss値が下げ止まるまでが速い感じだと思う
反復が速くなるんじゃなくて、loss値が下げ止まるまでが速い感じだと思う
39名無しさん@お腹いっぱい。
2020/12/28(月) 15:07:20.09ID:knwf3sOp0 質問させて。
過去スレにあったdst×dstのやつ。
dst×dstで、
liae-ud、Full Face、RW Trueで始め。
0.5切ったらRW False。
0.2切ったらLRD true。0.1切るまでtrain。
その後に、srcフォルダに入っているdst画像は全削除で、
好みのsrc画像入れるであってますか?
src画像に切り替えるタイミングと、
srcフォルダのdst画像は全削除でよいのかが分からないのです。
宜しくです。
過去スレにあったdst×dstのやつ。
dst×dstで、
liae-ud、Full Face、RW Trueで始め。
0.5切ったらRW False。
0.2切ったらLRD true。0.1切るまでtrain。
その後に、srcフォルダに入っているdst画像は全削除で、
好みのsrc画像入れるであってますか?
src画像に切り替えるタイミングと、
srcフォルダのdst画像は全削除でよいのかが分からないのです。
宜しくです。
40名無しさん@お腹いっぱい。
2020/12/28(月) 15:12:39.58ID:s3HDd8Cy0 日記君登場!
2020/12/28(月) 15:16:58.59ID:knwf3sOp0
すまない日記さんとやらではないです。
初期設定で0.2くらいまでtrainして、
srcフォルダの画像切り替え。
その後に、RWやLRDのパラメーター変えて、0.1までtrainかな。
試してるんですが、いまいち上手くいがず迷ってます。
初期設定で0.2くらいまでtrainして、
srcフォルダの画像切り替え。
その後に、RWやLRDのパラメーター変えて、0.1までtrainかな。
試してるんですが、いまいち上手くいがず迷ってます。
2020/12/28(月) 21:25:25.38ID:Abx4SwYw0
dstxdstをどこまでやるかは、人それぞれでしょう
プレビュー画面見ながら自分で判断するしかない
場合によっては、一度その状態でmargeして、仕上がり具合を見る
このタイミングで、dstの顔で違和感なく動画が作成できるなら良しとするのもアリ
srcのaligned画像を入れ替える時は、dstの画像は全て削除
プレビュー画面見ながら自分で判断するしかない
場合によっては、一度その状態でmargeして、仕上がり具合を見る
このタイミングで、dstの顔で違和感なく動画が作成できるなら良しとするのもアリ
srcのaligned画像を入れ替える時は、dstの画像は全て削除
2020/12/29(火) 08:16:49.11ID:ZYoYNgkw0
44名無しさん@お腹いっぱい。
2020/12/29(火) 10:27:32.77ID:UQjgRLtJ0 dstのコピーとか削除とかやらずにバッチファイル内のsrcとdstのフォルダを同じにすればいいだけじゃないの?
まぁ未だにdstxdstとか謎技術を信奉してるのあいつぐらいだけだと思うけど
まぁ未だにdstxdstとか謎技術を信奉してるのあいつぐらいだけだと思うけど
2020/12/30(水) 12:31:43.43ID:1XD/DpP60
掲示板どこも止まってる?
マージするとき、ツール使ってフレームごとに設定するプレビュー画面で、
dst画像に、src画像がはまってないというか、
位置がずれる現象が。
外側の四角いランドマークな位置が思いっきりずれてるんです。
こんな経験あります?
マージするとき、ツール使ってフレームごとに設定するプレビュー画面で、
dst画像に、src画像がはまってないというか、
位置がずれる現象が。
外側の四角いランドマークな位置が思いっきりずれてるんです。
こんな経験あります?
2020/12/30(水) 15:53:06.18ID:T1hMrvgO0
view aligned debug resultsでおかしいの削除してMANUAL RE-EXTRCT DELETED ALIGND_DEBUGやってる?
2020/12/30(水) 17:30:34.24ID:tMTsPyYn0
>>46
返信ありがとうございます。
srcとdstのランドマーク確認しましたが、
おかしいのないんですよ。
すこしズレるんでなく、全体的にズレてるんです。
対象は真ん中なのに、5かな、押すと四角い枠が半分だけ見えるんです。
また1から作り直してみます。
返信ありがとうございます。
srcとdstのランドマーク確認しましたが、
おかしいのないんですよ。
すこしズレるんでなく、全体的にズレてるんです。
対象は真ん中なのに、5かな、押すと四角い枠が半分だけ見えるんです。
また1から作り直してみます。
2020/12/30(水) 19:13:48.50ID:gK81YVBv0
>>47
data_dst.mp4を顔抽出した後に解像度変更や不要シーンカット等、再編集してない?
data_dst.mp4を顔抽出した後に解像度変更や不要シーンカット等、再編集してない?
2020/12/30(水) 19:21:21.77ID:gK81YVBv0
2020/12/30(水) 20:37:59.31ID:s24E4MLf0
>>49
返信ありがとうございます!
dstもsrcも編集してないんです。
不思議なのはプレビュー(一番右)は上手く出来てるやうに見えるんです。
んで、マージで手動のツールで見ると、いわゆるdstしか表示されない。
5押すとマスク?表示されますよね。
それ見ると違うとこに四角の一部がでるんです。
壊れちゃったのかな。ちなみに50万くらい回して、0.12くらいです。
返信ありがとうございます!
dstもsrcも編集してないんです。
不思議なのはプレビュー(一番右)は上手く出来てるやうに見えるんです。
んで、マージで手動のツールで見ると、いわゆるdstしか表示されない。
5押すとマスク?表示されますよね。
それ見ると違うとこに四角の一部がでるんです。
壊れちゃったのかな。ちなみに50万くらい回して、0.12くらいです。
51名無しさん@お腹いっぱい。
2020/12/31(木) 11:12:56.21ID:CSbjdsl+0 おま環だな
52名無しさん@お腹いっぱい。
2021/01/04(月) 13:50:37.88ID:DXZqWVCn0 == 04.01.2021 ==
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。
53名無しさん@お腹いっぱい。
2021/01/08(金) 07:16:50.90ID:ZrmCeq1m0 dstとsrcを1枚でやったらめっちゃ早く静止画のコラできるんじゃないかと思ってやってみたけど、
1回当たりの時間はそんな変わらないんだな。
これが俺のPCの性能ってことか。
1回当たりの時間はそんな変わらないんだな。
これが俺のPCの性能ってことか。
2021/01/09(土) 00:49:44.07ID:fBepmN1R0
メモリ8×2,gpu8 のマシンで動かしているのですが、メモリ使用率が90%、gpu使用率が15%程度なのですがこんな物なのでしょうか?
gpuの使用率を上げる方法ありましたらご教示いただきたいです
gpuの使用率を上げる方法ありましたらご教示いただきたいです
55名無しさん@お腹いっぱい。
2021/01/09(土) 01:41:01.75ID:b3UZuNTN0 タスクマネージャーのGPU使用率は当てにならない
ELSA GPU Optimizerみたいの使ってみて
ELSA GPU Optimizerみたいの使ってみて
2021/01/09(土) 02:30:36.20ID:J7ol4gHn0
動画からの画像抽出をGPUで行うことはできないのでしょうか
jpgなら大した負荷はかからないのですが
pngだとファンが高速で回りCPU使用率が100%付近に張り付きます
可能であればどのファイルのどの項目を触ればいいかご教授下さい
jpgなら大した負荷はかからないのですが
pngだとファンが高速で回りCPU使用率が100%付近に張り付きます
可能であればどのファイルのどの項目を触ればいいかご教授下さい
57名無しさん@お腹いっぱい。
2021/01/09(土) 05:59:01.12ID:Ws9CPkEd0 trainの途中でアーキテクチャをliaeに変えたいんですが、
いじるファイルはmodelフォルダのSAEHD_data.datでいいのでしょうか?
テキストで開こうとすると文字化けするのですが、何か専用のソフトが必要でしょうか?
また、文字化けながらもそれっぽい記載があったので、df→liaeに変えたのですが、
エラーが出てtrainできませんでした。
やはり文字化けの中変えるのはダメでした。。。
いじるファイルはmodelフォルダのSAEHD_data.datでいいのでしょうか?
テキストで開こうとすると文字化けするのですが、何か専用のソフトが必要でしょうか?
また、文字化けながらもそれっぽい記載があったので、df→liaeに変えたのですが、
エラーが出てtrainできませんでした。
やはり文字化けの中変えるのはダメでした。。。
58名無しさん@お腹いっぱい。
2021/01/09(土) 10:06:15.87ID:b3UZuNTN0 >>57
不可能
不可能
2021/01/09(土) 10:47:33.06ID:NoIegefL0
>>54
タスクマネージャーのグラフのとこのcuda見ればめっちゃ使ってるのがわかると思うよ
タスクマネージャーのグラフのとこのcuda見ればめっちゃ使ってるのがわかると思うよ
60名無しさん@お腹いっぱい。
2021/01/09(土) 12:59:18.51ID:Ws9CPkEd0 >>58
できなかったんですね。ありがとうございます。
以前dataファイルをいじって設定を変えると見た気がしたので探していました。
train最初の段階で決めておかないとダメなんですね。
やり直します。
できなかったんですね。ありがとうございます。
以前dataファイルをいじって設定を変えると見た気がしたので探していました。
train最初の段階で決めておかないとダメなんですね。
やり直します。
2021/01/10(日) 11:46:47.48ID:a/Mpc8zA0
rtx3090使ってる人Xseg使えてます?
うちの環境だとgpuスケジューリングONにしたら使えるんだけど
タスクマネージャからcudaの項目が消えて、3dで使用されてるのが気になります
うちの環境だとgpuスケジューリングONにしたら使えるんだけど
タスクマネージャからcudaの項目が消えて、3dで使用されてるのが気になります
62名無しさん@お腹いっぱい。
2021/01/10(日) 12:07:59.77ID:YmtG7pSH063名無しさん@お腹いっぱい。
2021/01/10(日) 17:38:20.88ID:S6XwlXVn0 俺の3080も確かに3Dが使われている
というか、そもそもcudaの項目がなくなっとるぞ
というか、そもそもcudaの項目がなくなっとるぞ
2021/01/10(日) 22:31:30.71ID:GjVlp6Gj0
>>63
RTX3000系もDFL安定して動作する様になりましたか?
RTX3000系もDFL安定して動作する様になりましたか?
65名無しさん@お腹いっぱい。
2021/01/10(日) 23:01:04.87ID:S6XwlXVn02021/01/10(日) 23:04:30.82ID:a/Mpc8zA0
色々と調べてみましたが3000台は学習初動でvram使用計算にバグあるっぽいですね
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます
2021/01/10(日) 23:15:26.34ID:ldHKuG2D0
ついに3000番台を買うときが来たのか
68名無しさん@お腹いっぱい。
2021/01/10(日) 23:16:58.06ID:S6XwlXVn02021/01/13(水) 03:27:20.99ID:BcOqF2sv0
2021/01/13(水) 04:50:01.39ID:gs+03oev0
3070よりVRAMの多い3060の方がこのスレ的には良いのかな
71名無しさん@お腹いっぱい。
2021/01/13(水) 09:51:29.09ID:xmKQtiaT0 顔抽出の精度って学習されないんでしょうか?
debugフォルダ見たら何回やっても失敗が多いんですが。。。
debugフォルダ見たら何回やっても失敗が多いんですが。。。
2021/01/13(水) 18:44:02.83ID:3Hac03cm0
1080Tiから変える価値あるかな...
悩ましい
悩ましい
2021/01/13(水) 18:54:12.78ID:N8pw1+uI0
3060がvRam12GBで330ドルらしい
これ買いやろ
これ買いやろ
74名無しさん@お腹いっぱい。
2021/01/17(日) 23:32:57.31ID:GF9iGrUJ0 顔画像をheadで切り抜きしてるけど上下にすごい余白ができる
余白ギリギリで切り抜いてほしいんだけど、調節する方法あるかなぁ?
余白ギリギリで切り抜いてほしいんだけど、調節する方法あるかなぁ?
2021/01/17(日) 23:57:25.58ID:2v/zwxJ80
76名無しさん@お腹いっぱい。
2021/01/19(火) 00:28:39.19ID:LTGWcQnS02021/01/19(火) 07:29:56.86ID:FSUOoPPp0
head最強だよな まんま本人に仕上がる
78名無しさん@お腹いっぱい。
2021/01/19(火) 22:18:21.22ID:LTGWcQnS0 3080Tiが無期限延期になってしまった
3090にせざるを得ない
3090にせざるを得ない
79名無しさん@お腹いっぱい。
2021/01/19(火) 23:21:07.32ID:SW7ZtdJ70 ReadyToMerge model 良さそうだね
2021/01/20(水) 11:05:33.37ID:P6q7UDGa0
ときにみんなどこいったの?解散?
81名無しさん@お腹いっぱい。
2021/01/20(水) 19:37:33.17ID:E0VTRomg0 俺はここにいるぞ
82名無しさん@お腹いっぱい。
2021/01/20(水) 21:12:28.49ID:Eo6BWrtN0 ReadyToMergeモデルってのはごく少ないtrain回数で高品質なマージができるって意味?
特別なプログラムがあるわけじゃなくて、効率的なtrainのやり方って感じかな。
特別なプログラムがあるわけじゃなくて、効率的なtrainのやり方って感じかな。
2021/01/21(木) 09:44:21.31ID:xgOvuSRQ0
RTMmodelはパターン豊富なsrcとdstにPretrain用データを使って事前に十分学習させとけば、本番のdstで全く学習せずにいきなりmergeしてもいい感じに合成できるよってことで合ってる?
2021/01/21(木) 10:01:04.01ID:79km7b5Y0
モデルの使いまわしを1つのsrcだけで効率よくするって感じか
2021/01/22(金) 23:56:02.92ID:65mc9Ut00
2021/01/23(土) 09:02:57.54ID:fUZZe34M0
>>85
確かに背景と髪の境界線は多少ちらつくので気になる人は映像処理するといいかも。
自分は我慢できる範囲。そこはデメリットかな。ちなみに顎と首の境界線はwf同等なので
だいじょうぶ。マスクはwfよりかはxseg-editの枚数増える感じ。なによりもdst関係なく
本人そっくりになるのがメリット。
確かに背景と髪の境界線は多少ちらつくので気になる人は映像処理するといいかも。
自分は我慢できる範囲。そこはデメリットかな。ちなみに顎と首の境界線はwf同等なので
だいじょうぶ。マスクはwfよりかはxseg-editの枚数増える感じ。なによりもdst関係なく
本人そっくりになるのがメリット。
2021/01/23(土) 11:35:03.15ID:6S5RB2j60
>>86
ふだん、耳・前髪・横髪含む前頭部とメガネ残しでxseg-editして、wfで回してるんだけど
趣旨考えるとやっぱりheadに移行したほうがいい結果いなりそうだな
xseg-editも髪の残す境界に悩まず全部マスクできれば枚数増えても逆に楽になるのかな
寝てる時とかの逆立ち毛や、長髪についても抽出した画像内では全部頭部としてマスク内に残してやってる?
ふだん、耳・前髪・横髪含む前頭部とメガネ残しでxseg-editして、wfで回してるんだけど
趣旨考えるとやっぱりheadに移行したほうがいい結果いなりそうだな
xseg-editも髪の残す境界に悩まず全部マスクできれば枚数増えても逆に楽になるのかな
寝てる時とかの逆立ち毛や、長髪についても抽出した画像内では全部頭部としてマスク内に残してやってる?
88名無しさん@お腹いっぱい。
2021/01/23(土) 11:52:56.82ID:Wkj8eEdW0 てかヘッドってsrcの髪型も揃えるんよね?
resなんぼでやってる?
224とかじゃ小さ過ぎるか
resなんぼでやってる?
224とかじゃ小さ過ぎるか
2021/01/23(土) 14:18:05.56ID:fUZZe34M0
髪は長髪でも頭部としてマスクしています、さすがにすこし乱れているのまでは
カットしてますが。xsegが思ったよりすごくて、長髪でもちゃんと学習してぴったり
合ってくるのは驚いた。マスクはdstもsrcも両方必須ですね。resは448です。
mrにあるpretrainモデルもheadだと少ししかないのであまり選択の余地はないですね。
カットしてますが。xsegが思ったよりすごくて、長髪でもちゃんと学習してぴったり
合ってくるのは驚いた。マスクはdstもsrcも両方必須ですね。resは448です。
mrにあるpretrainモデルもheadだと少ししかないのであまり選択の余地はないですね。
90名無しさん@お腹いっぱい。
2021/01/23(土) 14:37:43.30ID:Wkj8eEdW02021/01/23(土) 14:57:58.15ID:2xJk3k4U0
2021/01/23(土) 15:11:05.79ID:XmNWxByt0
headて短髪インタビューじゃないと厳しいかなと思ってたんだが凄いな
マスク処理、448のトレイン
作るのにどれくらいかかるんや...
マスク処理、448のトレイン
作るのにどれくらいかかるんや...
2021/01/23(土) 16:08:12.73ID:1USTDxg40
1660sでは無理そうだな・・・
2021/01/23(土) 16:31:38.58ID:fUZZe34M0
95名無しさん@お腹いっぱい。
2021/01/24(日) 09:34:39.67ID:PR92PFvw0 俺の3080(VRAM10GB)ではres352のbatch4でギリギリ回る
res448なら16GBは最低必要だろうね
8GBのグラボでSLIを組むか、3060の発売を待つか、3090がいいだろうね。
res448なら16GBは最低必要だろうね
8GBのグラボでSLIを組むか、3060の発売を待つか、3090がいいだろうね。
2021/01/24(日) 10:26:30.03ID:Vxr9RyIP0
2080tiどころかTITAN Xでも怪しいくらいか
3080tiは凍結っぽいし現状は3090になるな
Vramもメモリ増設くらい簡単に増やせればいいのに
3080tiは凍結っぽいし現状は3090になるな
Vramもメモリ増設くらい簡単に増やせればいいのに
2021/01/24(日) 10:49:05.70ID:GaLlRUJ/0
これのために3090買えてマスクに時間かけられるやつがどれくらいいるかだな...
使えるシーンも限定されるだろうし
使えるシーンも限定されるだろうし
98名無しさん@お腹いっぱい。
2021/01/24(日) 14:16:52.68ID:PR92PFvw02021/01/24(日) 21:00:07.87ID:GAwZNhtZ0
2021/01/24(日) 23:04:26.06ID:u14CN91H0
mrにはheadであと 320と240の pretrain済モデルがあるので
自分の環境に合ったので試してみるといいかも。
自分の環境に合ったので試してみるといいかも。
2021/01/27(水) 01:34:22.08ID:gC+kjNVK0
なんかみなさんResが高いですねえ
いけるのか?
いけるのか?
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 高市首相の答弁書に「台湾有事答えない」と明記 存立危機発言当時 ★2 [蚤の市★]
- 「偽サッチャー」「自滅的」「時代遅れ」 高市首相の経済政策を海外メディアが酷評 [蚤の市★]
- 【ド軍】山本由伸、WBC出場を決断!ドジャースが本人の意向を尊重、佐々木朗希はチームが故障歴を懸念で不参加 [鉄チーズ烏★]
- 米大統領報道官「日本と強固な同盟維持、中国とも協力」 [少考さん★]
- JA全農が「新おこめ券」…来年9月末の有効期限を新設、必要経費のみ上乗せ ★2 [蚤の市★]
- 【テレビ】粗品「THE W」バッサリ「おもんない、レベル低い」審査員就任で「日テレが“血の海”に…」 [湛然★]
- 通気取り「⚪︎⚪︎を食べればその店の実力が分かる」←だから何だ?
- 女の子集合!
- ひまでんぼ
- おまえら宝くじは買わないと当たらないんだぞ?
- タバコ吸わんがこれでタバコ吸ってたらカッコ良いかも
- 「鈴木彩艷」←これ読めない奴wwwwwwwwwwwwwwwwwwwwwwwwwwwwww
