DeepFaceLab(以下、DFL)の質問&回答スレです
・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。
・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。
・RTXシリーズでも動くの?
FS、DFL共に動く。
探検
【質問】dfl【その3】
■ このスレッドは過去ログ倉庫に格納されています
2020/12/13(日) 21:02:14.37ID:faeRPvMB0
2020/12/13(日) 21:03:30.09ID:faeRPvMB0
・作るのにどれくらいかかる?
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。
・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。
DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://github.com/iperov/DeepFaceLab
https://mrdeepfakes.com/forums/thread-1-1-sfw-guide-deepfacelab-2-0-guide-recommended-up-to-date
https://mrdeepfakes.com/forums/thread-3-1-sfw-guide-how-to-make-celebrity-datasets-guide
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
https://seesaawiki.jp/dfl/
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。
・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。
DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://github.com/iperov/DeepFaceLab
https://mrdeepfakes.com/forums/thread-1-1-sfw-guide-deepfacelab-2-0-guide-recommended-up-to-date
https://mrdeepfakes.com/forums/thread-3-1-sfw-guide-how-to-make-celebrity-datasets-guide
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
https://seesaawiki.jp/dfl/
2020/12/13(日) 21:05:20.53ID:faeRPvMB0
リクエスト禁止
DFLとかAIとかに文句つけるのは禁止
技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須
ダウンロード方法
https://mega.nz/folder/Po0nGQrA#dbbttiNWojCt8jzD4xYaPw
インストール方法
ダウンロードした
DeepFaceLab_CUDA_build_date.exe をダブルクリックし自己解凍形式)、D:\(Dドライブなどルート)などに解凍する。
DFLとかAIとかに文句つけるのは禁止
技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須
ダウンロード方法
https://mega.nz/folder/Po0nGQrA#dbbttiNWojCt8jzD4xYaPw
インストール方法
ダウンロードした
DeepFaceLab_CUDA_build_date.exe をダブルクリックし自己解凍形式)、D:\(Dドライブなどルート)などに解凍する。
2020/12/13(日) 21:06:09.28ID:faeRPvMB0
動画制作のおおまかな流れ
1.素材を準備する
2.素材動画を全フレーム画像で書き出し
3.顔部分のみを抽出
4.誤検出された画像を削除
5.学習させる(train)
6.顔を移植した画像を書き出し(convert)
7.書き出した画像を動画にする
1.素材を準備する
2.素材動画を全フレーム画像で書き出し
3.顔部分のみを抽出
4.誤検出された画像を削除
5.学習させる(train)
6.顔を移植した画像を書き出し(convert)
7.書き出した画像を動画にする
2020/12/14(月) 01:51:13.80ID:FjI7Qd0F0
6. は merge ではなくて?
2020/12/14(月) 02:05:24.44ID:aVt/a1LC0
>>5
mergeです。情報が古くてすんません
mergeです。情報が古くてすんません
2020/12/14(月) 22:08:54.99ID:jlKE0V5a0
なんだ日記か…
2020/12/15(火) 04:16:58.56ID:hwUlEsRf0
自治厨ェ…
2020/12/15(火) 06:18:15.66ID:aa22ZlrX0
顔が画面からフェードアウトするときのことで質問があります。
顔が画面の2/3消えたくらいでsrcへの置換がされずdstの顔が表示されます。
その部分だけマニュアルで顔を切り取っdstのalignedフォルダに追加しましたが、
mergeすると相変わらずdstの顔のままになっています。
alignedフォルダに入っている画像の部分を置き換えてくれるのかと思っていましたが違うのでしょうか?
ファイル名は動画の流れに合うように連番になっています。
顔が画面の2/3消えたくらいでsrcへの置換がされずdstの顔が表示されます。
その部分だけマニュアルで顔を切り取っdstのalignedフォルダに追加しましたが、
mergeすると相変わらずdstの顔のままになっています。
alignedフォルダに入っている画像の部分を置き換えてくれるのかと思っていましたが違うのでしょうか?
ファイル名は動画の流れに合うように連番になっています。
2020/12/15(火) 07:45:47.08ID:kZfxVZgL0
マニュアルでっていうのはRe〜みたいなデバッグ消したファイルをextractするbat実行したってこと?
それとも例えばwinPhotoみたいな他のソフトでトリミングした画像の名前だけ変えてalignedに入れたってこと?
前者ならわからん
後者なら意味ない
それとも例えばwinPhotoみたいな他のソフトでトリミングした画像の名前だけ変えてalignedに入れたってこと?
前者ならわからん
後者なら意味ない
2020/12/15(火) 09:08:09.20ID:OerpmQQP0
未抽出の顔は、DFLで手動抽出するしかないと思います
メタ情報が入らないでしょう
メタ情報が入らないでしょう
2020/12/15(火) 09:31:00.13ID:aa22ZlrX0
マニュアルの意味は
2020/12/15(火) 09:32:22.61ID:aa22ZlrX0
すいません、途中で送ってしまった・・・
マニュアルの意味は
5) data_dst faceset extract MANUAL.bat
でファイルを作ったということです。
11さんが言ったDFLで手動抽出とはこれを使うということですよね?
マニュアルの意味は
5) data_dst faceset extract MANUAL.bat
でファイルを作ったということです。
11さんが言ったDFLで手動抽出とはこれを使うということですよね?
2020/12/16(水) 00:42:36.29ID:ztwcSGgL0
5) data_dst faceset extract MANUAL.bat
は使用した事は無いのですが
とにかくDFLで抽出すればいいのでしょう
何か、DFLで抽出した顔のローテーションが違うとかで
勝手に回転させたりしたりはだめだとか
debugから消して、手動再抽出とかは上手くいっています
は使用した事は無いのですが
とにかくDFLで抽出すればいいのでしょう
何か、DFLで抽出した顔のローテーションが違うとかで
勝手に回転させたりしたりはだめだとか
debugから消して、手動再抽出とかは上手くいっています
15名無しさん@お腹いっぱい。
2020/12/16(水) 14:22:06.27ID:RFv2Li0A0 今年の8月からDFLをアップデートしていないのですが、改良はされてますかね?
2020/12/17(木) 01:37:53.71ID:NxWOtusT0
08_02_2020使用していますが
hdアーキの代わりに-udとか
軽くなってlr_dropout=Trueに最後していい感じ
Xsegはなかなかいいんじゃないですかね
hdアーキの代わりに-udとか
軽くなってlr_dropout=Trueに最後していい感じ
Xsegはなかなかいいんじゃないですかね
2020/12/17(木) 02:38:10.76ID:nZutQQ6b0
質問なんだが、この画像のあとKeyを押すと進めない
この現象になるときと、trainでちゃんと学習するときがあっておそらくは作業中に強制終了させたりするとこの現象が起こると思ってるんだが、本当にこれが理由であってるんだろうか?
それと、この現象に陥ったときに1から始めるの面倒なんだが方法ってない?
この現象になるときと、trainでちゃんと学習するときがあっておそらくは作業中に強制終了させたりするとこの現象が起こると思ってるんだが、本当にこれが理由であってるんだろうか?
それと、この現象に陥ったときに1から始めるの面倒なんだが方法ってない?
2020/12/17(木) 02:38:26.03ID:nZutQQ6b0
19名無しさん@お腹いっぱい。
2020/12/17(木) 20:56:32.53ID:KusLfrvY0 お前は二度と来るな!!!
2020/12/17(木) 21:11:00.65ID:DOy7qOo30
3070おじさん早速出禁食らってて草
2020/12/17(木) 23:14:09.49ID:hXxkmTMU0
もしかしたらとてもレベルの低いことかもしれないけど質問させてください。
dst素材で顔に手が被っている場合の対処としては、
XSegで手の部分を顔以外(破線の囲い)と指定してやればいいのでしょうか?
(素材数枚でやる必要あり?)
dst素材で顔に手が被っている場合の対処としては、
XSegで手の部分を顔以外(破線の囲い)と指定してやればいいのでしょうか?
(素材数枚でやる必要あり?)
22名無しさん@お腹いっぱい。
2020/12/17(木) 23:24:28.31ID:KusLfrvY0 なんでやる前に質問するんだよ
2020/12/18(金) 19:08:25.22ID:jVkj4tZx0
21です。
22さん、ごもっともです。
実はやってはみたんですが、上手くいっていません。
それの原因が回数なのかmaskの当て方なのかそもそものmaskの考え方が違うのかわからず、
あのような質問になりました。
22さん、ごもっともです。
実はやってはみたんですが、上手くいっていません。
それの原因が回数なのかmaskの当て方なのかそもそものmaskの考え方が違うのかわからず、
あのような質問になりました。
2020/12/19(土) 00:29:11.41ID:2gW2kMY60
https://mrdeepfakes.com/forums/thread-2-1-sfw-nsfw-guide-sharing-dfl-2-0-xseg-model-guide-and-sharing-thread
手とか笛とかは、フォーラムにある画像でXseg Trainで結構上手くいくと思いますけど
それで上手くいかない場合のみ、結構少数枚数でも手動Maskするといい感じみたい
手とか笛とかは、フォーラムにある画像でXseg Trainで結構上手くいくと思いますけど
それで上手くいかない場合のみ、結構少数枚数でも手動Maskするといい感じみたい
2020/12/19(土) 00:32:15.88ID:VLdZaMbM0
>>23
手がどれくらい被ってるか分からんけどこんな感じでやってる
何枚かマスクしてXsegやってマスクに適用し編集でチェック
ダメなとこあったらマスク追加でXseg
https://i.imgur.com/8IZ8cqH.jpg
手がどれくらい被ってるか分からんけどこんな感じでやってる
何枚かマスクしてXsegやってマスクに適用し編集でチェック
ダメなとこあったらマスク追加でXseg
https://i.imgur.com/8IZ8cqH.jpg
2020/12/19(土) 20:51:18.05ID:Wt8/fXrj0
>>25
あれ?眉毛って顔に入れないんでしたっけ?
あれ?眉毛って顔に入れないんでしたっけ?
27名無しさん@お腹いっぱい。
2020/12/19(土) 21:08:03.29ID:D0kdx6n60 それは自由だ
大体眉に髪かかってるの多いから避けるのが無難と思う
大体眉に髪かかってるの多いから避けるのが無難と思う
2020/12/19(土) 21:22:09.98ID:Wt8/fXrj0
眉なしでdstのXsegを作ったら顔入れ替えの時にsrcも眉から下が適用される、って考えてあってます?
2020/12/19(土) 21:53:43.56ID:/L/JgTI+0
>>28
うんマスクされるから
うんマスクされるから
2020/12/19(土) 21:55:58.22ID:/L/JgTI+0
補足srcも眉から下でマスクしてます
2020/12/19(土) 21:59:27.63ID:Wt8/fXrj0
なるほど!ちょっと試してみます。
2020/12/19(土) 22:41:01.14ID:Wt8/fXrj0
あれ?ちょっと思ったんですけど、
フェイスタイプはFで基本やってたんですけど眉から下でマスクするならHにしちゃっていいんですよね?
フェイスタイプはFで基本やってたんですけど眉から下でマスクするならHにしちゃっていいんですよね?
2020/12/20(日) 05:00:28.89ID:5bFtS3MH0
mask処理をしたら仕上がりが倍以上よくなった。
ここの人たちありがとう!
ここの人たちありがとう!
2020/12/20(日) 09:27:09.85ID:7xq9z9kO0
2020/12/20(日) 09:28:40.66ID:5bFtS3MH0
2020/12/21(月) 13:05:13.28ID:qO0rZz2d0
loss値0.1で能面が治らないんですが、ここまでやっても治らないのはsrcが足りてないんでしょうか?
2020/12/26(土) 11:25:01.65ID:2VH+8smV0
別スレでAdaBeliefで学習が速くなると聞いて、最新版を試したけど
特に速くなってなくない?
ただEyes priorityがEyes and mouth priorityに変わってて、前は口が微妙に
ずれてる場合があったのが、うまく入れ替わってる
特に速くなってなくない?
ただEyes priorityがEyes and mouth priorityに変わってて、前は口が微妙に
ずれてる場合があったのが、うまく入れ替わってる
38名無しさん@お腹いっぱい。
2020/12/27(日) 15:10:55.43ID:nyl/b2Pw0 AdaBeliefは理論的には速くなってるはずだけど、dflがそんなに効率よく取り入れてるかどうかはわからない
反復が速くなるんじゃなくて、loss値が下げ止まるまでが速い感じだと思う
反復が速くなるんじゃなくて、loss値が下げ止まるまでが速い感じだと思う
39名無しさん@お腹いっぱい。
2020/12/28(月) 15:07:20.09ID:knwf3sOp0 質問させて。
過去スレにあったdst×dstのやつ。
dst×dstで、
liae-ud、Full Face、RW Trueで始め。
0.5切ったらRW False。
0.2切ったらLRD true。0.1切るまでtrain。
その後に、srcフォルダに入っているdst画像は全削除で、
好みのsrc画像入れるであってますか?
src画像に切り替えるタイミングと、
srcフォルダのdst画像は全削除でよいのかが分からないのです。
宜しくです。
過去スレにあったdst×dstのやつ。
dst×dstで、
liae-ud、Full Face、RW Trueで始め。
0.5切ったらRW False。
0.2切ったらLRD true。0.1切るまでtrain。
その後に、srcフォルダに入っているdst画像は全削除で、
好みのsrc画像入れるであってますか?
src画像に切り替えるタイミングと、
srcフォルダのdst画像は全削除でよいのかが分からないのです。
宜しくです。
40名無しさん@お腹いっぱい。
2020/12/28(月) 15:12:39.58ID:s3HDd8Cy0 日記君登場!
2020/12/28(月) 15:16:58.59ID:knwf3sOp0
すまない日記さんとやらではないです。
初期設定で0.2くらいまでtrainして、
srcフォルダの画像切り替え。
その後に、RWやLRDのパラメーター変えて、0.1までtrainかな。
試してるんですが、いまいち上手くいがず迷ってます。
初期設定で0.2くらいまでtrainして、
srcフォルダの画像切り替え。
その後に、RWやLRDのパラメーター変えて、0.1までtrainかな。
試してるんですが、いまいち上手くいがず迷ってます。
2020/12/28(月) 21:25:25.38ID:Abx4SwYw0
dstxdstをどこまでやるかは、人それぞれでしょう
プレビュー画面見ながら自分で判断するしかない
場合によっては、一度その状態でmargeして、仕上がり具合を見る
このタイミングで、dstの顔で違和感なく動画が作成できるなら良しとするのもアリ
srcのaligned画像を入れ替える時は、dstの画像は全て削除
プレビュー画面見ながら自分で判断するしかない
場合によっては、一度その状態でmargeして、仕上がり具合を見る
このタイミングで、dstの顔で違和感なく動画が作成できるなら良しとするのもアリ
srcのaligned画像を入れ替える時は、dstの画像は全て削除
2020/12/29(火) 08:16:49.11ID:ZYoYNgkw0
44名無しさん@お腹いっぱい。
2020/12/29(火) 10:27:32.77ID:UQjgRLtJ0 dstのコピーとか削除とかやらずにバッチファイル内のsrcとdstのフォルダを同じにすればいいだけじゃないの?
まぁ未だにdstxdstとか謎技術を信奉してるのあいつぐらいだけだと思うけど
まぁ未だにdstxdstとか謎技術を信奉してるのあいつぐらいだけだと思うけど
2020/12/30(水) 12:31:43.43ID:1XD/DpP60
掲示板どこも止まってる?
マージするとき、ツール使ってフレームごとに設定するプレビュー画面で、
dst画像に、src画像がはまってないというか、
位置がずれる現象が。
外側の四角いランドマークな位置が思いっきりずれてるんです。
こんな経験あります?
マージするとき、ツール使ってフレームごとに設定するプレビュー画面で、
dst画像に、src画像がはまってないというか、
位置がずれる現象が。
外側の四角いランドマークな位置が思いっきりずれてるんです。
こんな経験あります?
2020/12/30(水) 15:53:06.18ID:T1hMrvgO0
view aligned debug resultsでおかしいの削除してMANUAL RE-EXTRCT DELETED ALIGND_DEBUGやってる?
2020/12/30(水) 17:30:34.24ID:tMTsPyYn0
>>46
返信ありがとうございます。
srcとdstのランドマーク確認しましたが、
おかしいのないんですよ。
すこしズレるんでなく、全体的にズレてるんです。
対象は真ん中なのに、5かな、押すと四角い枠が半分だけ見えるんです。
また1から作り直してみます。
返信ありがとうございます。
srcとdstのランドマーク確認しましたが、
おかしいのないんですよ。
すこしズレるんでなく、全体的にズレてるんです。
対象は真ん中なのに、5かな、押すと四角い枠が半分だけ見えるんです。
また1から作り直してみます。
2020/12/30(水) 19:13:48.50ID:gK81YVBv0
>>47
data_dst.mp4を顔抽出した後に解像度変更や不要シーンカット等、再編集してない?
data_dst.mp4を顔抽出した後に解像度変更や不要シーンカット等、再編集してない?
2020/12/30(水) 19:21:21.77ID:gK81YVBv0
2020/12/30(水) 20:37:59.31ID:s24E4MLf0
>>49
返信ありがとうございます!
dstもsrcも編集してないんです。
不思議なのはプレビュー(一番右)は上手く出来てるやうに見えるんです。
んで、マージで手動のツールで見ると、いわゆるdstしか表示されない。
5押すとマスク?表示されますよね。
それ見ると違うとこに四角の一部がでるんです。
壊れちゃったのかな。ちなみに50万くらい回して、0.12くらいです。
返信ありがとうございます!
dstもsrcも編集してないんです。
不思議なのはプレビュー(一番右)は上手く出来てるやうに見えるんです。
んで、マージで手動のツールで見ると、いわゆるdstしか表示されない。
5押すとマスク?表示されますよね。
それ見ると違うとこに四角の一部がでるんです。
壊れちゃったのかな。ちなみに50万くらい回して、0.12くらいです。
51名無しさん@お腹いっぱい。
2020/12/31(木) 11:12:56.21ID:CSbjdsl+0 おま環だな
52名無しさん@お腹いっぱい。
2021/01/04(月) 13:50:37.88ID:DXZqWVCn0 == 04.01.2021 ==
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。
53名無しさん@お腹いっぱい。
2021/01/08(金) 07:16:50.90ID:ZrmCeq1m0 dstとsrcを1枚でやったらめっちゃ早く静止画のコラできるんじゃないかと思ってやってみたけど、
1回当たりの時間はそんな変わらないんだな。
これが俺のPCの性能ってことか。
1回当たりの時間はそんな変わらないんだな。
これが俺のPCの性能ってことか。
2021/01/09(土) 00:49:44.07ID:fBepmN1R0
メモリ8×2,gpu8 のマシンで動かしているのですが、メモリ使用率が90%、gpu使用率が15%程度なのですがこんな物なのでしょうか?
gpuの使用率を上げる方法ありましたらご教示いただきたいです
gpuの使用率を上げる方法ありましたらご教示いただきたいです
55名無しさん@お腹いっぱい。
2021/01/09(土) 01:41:01.75ID:b3UZuNTN0 タスクマネージャーのGPU使用率は当てにならない
ELSA GPU Optimizerみたいの使ってみて
ELSA GPU Optimizerみたいの使ってみて
2021/01/09(土) 02:30:36.20ID:J7ol4gHn0
動画からの画像抽出をGPUで行うことはできないのでしょうか
jpgなら大した負荷はかからないのですが
pngだとファンが高速で回りCPU使用率が100%付近に張り付きます
可能であればどのファイルのどの項目を触ればいいかご教授下さい
jpgなら大した負荷はかからないのですが
pngだとファンが高速で回りCPU使用率が100%付近に張り付きます
可能であればどのファイルのどの項目を触ればいいかご教授下さい
57名無しさん@お腹いっぱい。
2021/01/09(土) 05:59:01.12ID:Ws9CPkEd0 trainの途中でアーキテクチャをliaeに変えたいんですが、
いじるファイルはmodelフォルダのSAEHD_data.datでいいのでしょうか?
テキストで開こうとすると文字化けするのですが、何か専用のソフトが必要でしょうか?
また、文字化けながらもそれっぽい記載があったので、df→liaeに変えたのですが、
エラーが出てtrainできませんでした。
やはり文字化けの中変えるのはダメでした。。。
いじるファイルはmodelフォルダのSAEHD_data.datでいいのでしょうか?
テキストで開こうとすると文字化けするのですが、何か専用のソフトが必要でしょうか?
また、文字化けながらもそれっぽい記載があったので、df→liaeに変えたのですが、
エラーが出てtrainできませんでした。
やはり文字化けの中変えるのはダメでした。。。
58名無しさん@お腹いっぱい。
2021/01/09(土) 10:06:15.87ID:b3UZuNTN0 >>57
不可能
不可能
2021/01/09(土) 10:47:33.06ID:NoIegefL0
>>54
タスクマネージャーのグラフのとこのcuda見ればめっちゃ使ってるのがわかると思うよ
タスクマネージャーのグラフのとこのcuda見ればめっちゃ使ってるのがわかると思うよ
60名無しさん@お腹いっぱい。
2021/01/09(土) 12:59:18.51ID:Ws9CPkEd0 >>58
できなかったんですね。ありがとうございます。
以前dataファイルをいじって設定を変えると見た気がしたので探していました。
train最初の段階で決めておかないとダメなんですね。
やり直します。
できなかったんですね。ありがとうございます。
以前dataファイルをいじって設定を変えると見た気がしたので探していました。
train最初の段階で決めておかないとダメなんですね。
やり直します。
2021/01/10(日) 11:46:47.48ID:a/Mpc8zA0
rtx3090使ってる人Xseg使えてます?
うちの環境だとgpuスケジューリングONにしたら使えるんだけど
タスクマネージャからcudaの項目が消えて、3dで使用されてるのが気になります
うちの環境だとgpuスケジューリングONにしたら使えるんだけど
タスクマネージャからcudaの項目が消えて、3dで使用されてるのが気になります
62名無しさん@お腹いっぱい。
2021/01/10(日) 12:07:59.77ID:YmtG7pSH063名無しさん@お腹いっぱい。
2021/01/10(日) 17:38:20.88ID:S6XwlXVn0 俺の3080も確かに3Dが使われている
というか、そもそもcudaの項目がなくなっとるぞ
というか、そもそもcudaの項目がなくなっとるぞ
2021/01/10(日) 22:31:30.71ID:GjVlp6Gj0
>>63
RTX3000系もDFL安定して動作する様になりましたか?
RTX3000系もDFL安定して動作する様になりましたか?
65名無しさん@お腹いっぱい。
2021/01/10(日) 23:01:04.87ID:S6XwlXVn02021/01/10(日) 23:04:30.82ID:a/Mpc8zA0
色々と調べてみましたが3000台は学習初動でvram使用計算にバグあるっぽいですね
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【給食無償化】国が全額負担 自維公3党、近く合意へ [ぐれ★]
- 「レーダー照射」なぜ中国は素直に謝罪しないのか 非を認めず反論、逆ギレ「ごめんなさい」と言えない国情★2 [七波羅探題★]
- こども家庭庁、2026年から“独身税”を開始、年収200万なら年4200円、年収400万なら年7800円 ★6 [お断り★]
- 40代教員、1億8600万円分の暗号資産だまし取られる 「警察手帳のような物」見せられ−滋賀県草津市 [蚤の市★]
- 松村沙友理、スタバは好きだけど「やっぱコーヒーに700円800円が…」「家でお湯わかしてやったらタダやん」 [muffin★]
- 【千葉】「使用済みの生理用品が欲しくて」 女子トイレに侵入した疑い、自称塾講師(28)を逮捕 四街道署 [nita★]
- 【緊急】朝倉未来のブレイキングダウンで不意打ち食らって失神した選手、くも膜下出血で死亡 [455031798]
- 全員ぶっ殺すお🏡
- 高市早苗「為替は色んな要因で市場が決めるもの、私のせいじゃないわよ!」 [972432215]
- 【実況】博衣こよりのえちえちダンガンロンパ2🧪★4
- 月曜日のんなぁ…お疲れ様なのらね…✋🍬ハウス🏡
- 日本、30年ぶりに金利0.75%に! [219241683]
