DeepFaceLab(以下、DFL)の質問&回答スレです
・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。
・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。
・RTXシリーズでも動くの?
FS、DFL共に動く。
探検
【質問】dfl【その3】
レス数が900を超えています。1000を超えると表示できなくなるよ。
2020/12/13(日) 21:02:14.37ID:faeRPvMB0
2021/11/28(日) 12:17:38.37ID:bknd1NKC0
高画質な元動画を探すのはどうでしょう
2021/11/28(日) 13:21:22.02ID:jmhp1MNN0
>>847
GPENが近道かと。
GPENが近道かと。
2021/11/28(日) 17:43:52.31ID:+QRM8Ih+0
851名無しさん@お腹いっぱい。
2021/11/29(月) 12:42:20.72ID:SpYvlTIx0 rtx2060なんだけど普通のビルドDLでいいの?
2021/11/29(月) 18:39:28.18ID:Va0I15xE0
普通ってどれだ
853名無しさん@お腹いっぱい。
2021/11/30(火) 16:32:45.36ID:5RgpTB3P0 最初に入ってるお試し用の動画って、かなり短時間でクオリティ高いのが作れるけど
モデルがあってたらあんな短時間でいけるん?
モデルがあってたらあんな短時間でいけるん?
854名無しさん@お腹いっぱい。
2021/11/30(火) 17:17:20.07ID:uAvNaFgU0 modelの育て方次第やね。
学習させる女優さんなりアイドルなりの画像を様々な画角から被りなく3000枚〜とか集めて、
しっかりと学習させておけば、そこからは速い。
ただ、最初の学習の速さも仕上がる速さも、グラボのスペックと素材の解像度によって雲泥。
環境にお金かけるほど、処理の重い高画質な方向に移行するから、結局、みんな時間はかけてると思う。
学習させる女優さんなりアイドルなりの画像を様々な画角から被りなく3000枚〜とか集めて、
しっかりと学習させておけば、そこからは速い。
ただ、最初の学習の速さも仕上がる速さも、グラボのスペックと素材の解像度によって雲泥。
環境にお金かけるほど、処理の重い高画質な方向に移行するから、結局、みんな時間はかけてると思う。
855名無しさん@お腹いっぱい。
2021/12/02(木) 20:37:12.31ID:5V9jPkGy0 例えば素材が正面メインでちょっと角度変えただけの画像ばかりはマジで学習が遅い
これが、ガチで色々な角度(正面、後ろに振り替える、ほぼ真上から、ほぼ真下まで)を均等に含むと
あっというまに精度よく出来上がる
普通の人はこういう角度ってほとんど存在しない(騎乗位の角度や正常位の角度で顔を見るのはほぼない)けどここの素材探しに妥協するほどきつくなる
後は輪郭や髪型等が似てれば1晩でほぼ完成するよ
これが、ガチで色々な角度(正面、後ろに振り替える、ほぼ真上から、ほぼ真下まで)を均等に含むと
あっというまに精度よく出来上がる
普通の人はこういう角度ってほとんど存在しない(騎乗位の角度や正常位の角度で顔を見るのはほぼない)けどここの素材探しに妥協するほどきつくなる
後は輪郭や髪型等が似てれば1晩でほぼ完成するよ
2021/12/05(日) 13:17:12.91ID:4PMtcFCH0
ローカルマシンでGPEN導入したいけど、なかなか的確に解説してるサイト無いね。
2021/12/05(日) 14:02:58.76ID:MNlpXza50
ここで紹介する人も不親切だしね
2021/12/05(日) 17:13:31.64ID:4PMtcFCH0
>>857
流石にそれは思った事ないよ…
流石にそれは思った事ないよ…
2021/12/05(日) 21:45:39.52ID:WF6hbhh00
860名無しさん@お腹いっぱい。
2021/12/06(月) 09:31:32.11ID:7TQp3gMa0 なんかtrain開いても最後press any key to continueになって始まらなくなったんですけどとうしたんですかね
調べたらcuda関係...?
調べたらcuda関係...?
2021/12/06(月) 11:45:08.71ID:7LrEe5hm0
2021/12/06(月) 12:11:47.47ID:tn9GF6V80
githubにGPEN-windows来てたよ
1) install_dependences.bat実行で20GBほど使うので注意
face_enhancement.pyの136行目のinput/outputフォルダを確認か変更
2) start_gpen.batの実行で高精細化
dflイメージはそのままdflイメージとして使える
とまあとりあえずの使い方なんだけど、うちの環境(win11 RTX3090)だと
2) start_gpen.batだけがうまく動作しない
もし他にも動かない人がいれば修正方法を書いとく
1) install_dependences.bat実行で20GBほど使うので注意
face_enhancement.pyの136行目のinput/outputフォルダを確認か変更
2) start_gpen.batの実行で高精細化
dflイメージはそのままdflイメージとして使える
とまあとりあえずの使い方なんだけど、うちの環境(win11 RTX3090)だと
2) start_gpen.batだけがうまく動作しない
もし他にも動かない人がいれば修正方法を書いとく
2021/12/06(月) 12:38:01.33ID:7LrEe5hm0
2021/12/06(月) 22:42:41.17ID:7LrEe5hm0
2021/12/08(水) 18:04:03.28ID:6zggqNLQ0
まったく動かないって話なら俺にはわからない
GPEN化せずに元画像がそのままoutputフォルダに出力される人は以下を試して
■face_enhancement.py 170行目から
#Optional
# im = cv2.resize(im, (0, 0), fx=1, fy=1)
img, orig_faces, enhanced_faces = faceenhancer.process(im)
↓
#Optional
im = cv2.resize(im, (0, 0), fx=2, fy=2)
img, orig_faces, enhanced_faces = faceenhancer.process(im)
img = cv2.resize(img, (0,0), fx=0.5, fy=0.5)
GPEN化せずに元画像がそのままoutputフォルダに出力される人は以下を試して
■face_enhancement.py 170行目から
#Optional
# im = cv2.resize(im, (0, 0), fx=1, fy=1)
img, orig_faces, enhanced_faces = faceenhancer.process(im)
↓
#Optional
im = cv2.resize(im, (0, 0), fx=2, fy=2)
img, orig_faces, enhanced_faces = faceenhancer.process(im)
img = cv2.resize(img, (0,0), fx=0.5, fy=0.5)
866名無しさん@お腹いっぱい。
2021/12/08(水) 21:15:46.72ID:FrfC+Ijp0 昔誰かが書いてたけど、学習中のプレビュー画像って大きいサイズで出力できないの?プレビュー画像をソースにできたらかなり良さそう。
2021/12/08(水) 21:33:57.22ID:Wkwdxakh0
>>865
3060ユーザーで俺もDFLで抽出したaligned画像だけ変換されなかったけどこれでいけたわサンクス
マージした画像とかそのまま入れても自動で顔認識して更にGPENできるし良いわ
ちなみに元画像のファイル名に一文字でも日本語が含まれてると
問答無用でerrorが表示される仕様みたいなんだけどコード書けばすぐ直せるのかな?
適当に英数字オンリーのファイル名にリネームすれば動くから大変ならこれで良いけども
3060ユーザーで俺もDFLで抽出したaligned画像だけ変換されなかったけどこれでいけたわサンクス
マージした画像とかそのまま入れても自動で顔認識して更にGPENできるし良いわ
ちなみに元画像のファイル名に一文字でも日本語が含まれてると
問答無用でerrorが表示される仕様みたいなんだけどコード書けばすぐ直せるのかな?
適当に英数字オンリーのファイル名にリネームすれば動くから大変ならこれで良いけども
2021/12/10(金) 13:49:10.08ID:I54Pkngo0
>>867
一番最初のバッチでインストール失敗しない?
一番最初のバッチでインストール失敗しない?
2021/12/10(金) 14:17:44.90ID:B2zxNIS90
2021/12/16(木) 12:48:47.66ID:1kEL9Exo0
3060 12G使用で、aedims384のWFだと、res192でしか動かないなー
davinci 入れてから?dflのVRAMが9GBくらいで表示されてるがそれも影響しているのかな
davinci 入れてから?dflのVRAMが9GBくらいで表示されてるがそれも影響しているのかな
2021/12/19(日) 03:01:16.78ID:Pconil9L0
>>870
dflはそもそもvramフルでは使わないと思うよ
dflはそもそもvramフルでは使わないと思うよ
2021/12/19(日) 11:29:06.07ID:t5yWPrKb0
海外のフォーラムでもよく質問されてるけどdflのvram表示は実際に使用できる数値と違うから無視で良い
タスクマネージャー開いてパフォーマンスタブのGPUを確認すれば分かるけど
俺の3060は限界まで設定上げてdfl起動すると専用GPUメモリが11.8GB位で共有GPUメモリも2GB位使ってる
dimsもホクロとか細部の学習に大事だけどres低いと顔のドットが目立って違和感しかないからres最優先してるわ
タスクマネージャー開いてパフォーマンスタブのGPUを確認すれば分かるけど
俺の3060は限界まで設定上げてdfl起動すると専用GPUメモリが11.8GB位で共有GPUメモリも2GB位使ってる
dimsもホクロとか細部の学習に大事だけどres低いと顔のドットが目立って違和感しかないからres最優先してるわ
2021/12/25(土) 19:54:14.85ID:Ht1fNKNu0
pretrainやり方についてわかりやすく説明してる日本語サイトってありますか?やり方よくわからん
2021/12/26(日) 07:55:41.81ID:XyFoXeUf0
日本のサイトってあんまりないよね
海外のサイトをグーグル翻訳して探すほうが楽だと思う
海外のサイトをグーグル翻訳して探すほうが楽だと思う
2021/12/26(日) 20:53:21.78ID:xjsdO3Hi0
2021/12/27(月) 00:41:38.14ID:W1bjTLuS0
res256とres320って違いでます?3080で回すときres320でギリでした。今までres256でしたがちょっと解像度あげてみようかなと思案中です。
2021/12/27(月) 00:56:32.89ID:+4noIjVB0
抜ければ何でも良いんだよ
2021/12/27(月) 04:41:42.55ID:pLisgeUK0
dstによるだろ
2021/12/30(木) 16:24:37.06ID:ec7+Lk140
デビューしたけどこれって学習時にdst必要なんだな...
って思ったけど、これあくまでプレビュー用に必要なだけ??
って思ったけど、これあくまでプレビュー用に必要なだけ??
880名無しさん@お腹いっぱい。
2021/12/30(木) 16:27:28.61ID:ec7+Lk140 学習で作られるモデルってsrcに依存するのはいいとしてdstにも依存してるんでしょうか??
881名無しさん@お腹いっぱい。
2021/12/30(木) 20:55:57.46ID:rfUapu/o0 普通にググってこい。
2021/12/31(金) 09:19:47.55ID:mlnKev650
>>879
dstが大量に必要なのはsrc学習時のニューラルネットワーク形成時に加算処理をするための参考情報として必要なのと、予想通りプレビュー用に用いられる為。
だからsrcは様々な素材があった方が学習が速く、dstにも様々な顔が有った方が学習が速いのは事実。
あと、GPUばっかり重視されるけどCPUやメモリも使われてるから出来るだけ高性能なCPUを積んでメモリも出来るだけ拡張した方がいい。処理が加速される。
dstが大量に必要なのはsrc学習時のニューラルネットワーク形成時に加算処理をするための参考情報として必要なのと、予想通りプレビュー用に用いられる為。
だからsrcは様々な素材があった方が学習が速く、dstにも様々な顔が有った方が学習が速いのは事実。
あと、GPUばっかり重視されるけどCPUやメモリも使われてるから出来るだけ高性能なCPUを積んでメモリも出来るだけ拡張した方がいい。処理が加速される。
2021/12/31(金) 10:22:13.61ID:GJyniFHS0
聞いてねえよ
2021/12/31(金) 10:33:05.75ID:CQPs86l/0
初心者です
縦笛時のXSeg Genericってsrcとdstの両方にかけるのでしょうか?
縦笛時のXSeg Genericってsrcとdstの両方にかけるのでしょうか?
2021/12/31(金) 11:11:05.55ID:GJyniFHS0
笛関係なく両方にかける
2021/12/31(金) 11:16:40.65ID:2b2uynRc0
>>882
eyes mouth priorityをかけても
眼球があらぬ方向を向いてしまうのだが
これもdstの問題でしょうか
randomwarp中にeyes mouthかけると駄目とかありますかね
eyes mouth priorityをかけても
眼球があらぬ方向を向いてしまうのだが
これもdstの問題でしょうか
randomwarp中にeyes mouthかけると駄目とかありますかね
2021/12/31(金) 15:53:15.02ID:Ym7jaWSV0
>>882
ありがとうございます
当方、いいGPUもってないので学習だけcolabでやろうと思ってました
でいきなりムフフなdstではやりませんが、学習時にdstをextractしてなかったらエラー出たので
とりあえずcolabで学習実験し始めたので遊んで見ようと思います
ありがとうございます
当方、いいGPUもってないので学習だけcolabでやろうと思ってました
でいきなりムフフなdstではやりませんが、学習時にdstをextractしてなかったらエラー出たので
とりあえずcolabで学習実験し始めたので遊んで見ようと思います
2022/01/01(土) 08:35:57.73ID:RMYOJESg0
train開始時にsrcとdstのLoading samplesが終わった後「続行するには何かキーを押してください」が表示されて止まるようになってしまった。
別のworkspace使っても変わらずで困っています。
別のworkspace使っても変わらずで困っています。
2022/01/01(土) 18:48:58.70ID:1b3PUI8a0
colabでtrain中のsaveってどうやるの
Enter押しても何も起こらない
Enter押しても何も起こらない
2022/01/02(日) 01:15:19.95ID:pLuoI4A/0
deepfacelabの最新11月版ですが今までいけた設定でもtrain時にエラーで回りません。GPUは3080でres256batch8でエラーになります。新たに設定など必要なのでしょうか?ちなみに前までは2020.7月版でした。
2022/01/02(日) 14:44:31.73ID:7l9A7CgM0
>>883
友達いなさそうだね。笑
友達いなさそうだね。笑
892名無しさん@お腹いっぱい。
2022/01/02(日) 14:47:22.65ID:b+bQtfQv0 日記発狂中
893名無しさん@お腹いっぱい。
2022/01/02(日) 20:02:20.32ID:gGIMOkqb0 SAE -t を全く同じ dst 素材で試し中。
結果報告するよ。
結果報告するよ。
2022/01/03(月) 02:43:27.52ID:Zq3c9rkl0
tオプション一応使ってるけど何にも変わってない気がするよね
視線が合いづらくなってるなと思うぐらい
視線が合いづらくなってるなと思うぐらい
2022/01/03(月) 02:47:55.60ID:Zq3c9rkl0
2022/01/03(月) 11:06:30.84ID:5Ip/Zxcg0
どんなエラーだったか覚えてないけど
dflのあるドライブのページングファイルを設定したら安定したことがあった
dflのあるドライブのページングファイルを設定したら安定したことがあった
897名無しさん@お腹いっぱい。
2022/01/03(月) 11:35:52.29ID:y/zQ0hnr0 liae-ud から liae-udt にしたら batch 3 だったのが 8 で回るようになった。
(RTX2080 rez 192)
(RTX2080 rez 192)
898名無しさん@お腹いっぱい。
2022/01/03(月) 12:03:17.42ID:y/zQ0hnr0 連投すまんが、batch 16 でも動いた。
こんなに batch 上げたことなかったけど、少 batch の時より似ていくスピードが早い気がする。
これがある意味 -t の効果なのかも。
こんなに batch 上げたことなかったけど、少 batch の時より似ていくスピードが早い気がする。
これがある意味 -t の効果なのかも。
2022/01/03(月) 21:19:32.01ID:Zq3c9rkl0
それ-udでも16で回ると思うし、3は少なすぎで何か間違ってるんじゃないかな
2022/01/03(月) 22:03:40.39ID:SjPqIlYq0
dims上げすぎか?
901名無しさん@お腹いっぱい。
2022/01/04(火) 01:06:26.48ID:qaUq+uoL0 結構古いVerのDFLを使ってて更新したからかな?以前のは重かった。
2022/01/04(火) 20:30:15.74ID:9YBKEDFN0
フォーラムにあるpretrainデータの流用のやり方って
1.アップされてるmodelデータをダウンロードして、作業フォルダーのmodelの中にコピー
2.そのデータをEnable pretraining modeを『n』に変えてtrain
であってます?
1.アップされてるmodelデータをダウンロードして、作業フォルダーのmodelの中にコピー
2.そのデータをEnable pretraining modeを『n』に変えてtrain
であってます?
903名無しさん@お腹いっぱい。
2022/01/04(火) 22:20:31.48ID:MBys4NSV0 0からのスタートみたいに見えるから不安になるけど、それで合ってる
2022/01/05(水) 21:22:10.94ID:wvXGDXAF0
VR用の左右2人映っている画面でmanual extract( data_dst faceset MANUAL RE-EXTRACT DELETED ALIGNED_DEBUGdst )
で 手動で顔抽出したいときに左側の顔の調整が済んで 左クリックおして 一旦確定、
右側の顔を調整したいときはどうすればいいのでしょうか?
左側だけで 左クリックのあと ENTERを押すと
次のフレームに行ってしまうのですが、一画面で、2人手動抽出するやり方は
ないのでしょうか?
で 手動で顔抽出したいときに左側の顔の調整が済んで 左クリックおして 一旦確定、
右側の顔を調整したいときはどうすればいいのでしょうか?
左側だけで 左クリックのあと ENTERを押すと
次のフレームに行ってしまうのですが、一画面で、2人手動抽出するやり方は
ないのでしょうか?
2022/01/05(水) 23:53:20.43ID:21OuJmak0
無い
面倒でも2つに分けるべき
面倒でも2つに分けるべき
2022/01/06(木) 02:12:42.53ID:P4HaLcsF0
2022/01/06(木) 07:27:45.18ID:PBHAwCGR0
>>905
ありがとうございます
たまにチラチラする程度ならいいんだけど
結構失敗してる割合が高いので
面倒だけど1画面ずつやるかあ
headを使ってるせいかもしれませんが。
まあもうちょっと顔抽出の精度は上げてほしい
ありがとうございます
たまにチラチラする程度ならいいんだけど
結構失敗してる割合が高いので
面倒だけど1画面ずつやるかあ
headを使ってるせいかもしれませんが。
まあもうちょっと顔抽出の精度は上げてほしい
2022/01/06(木) 22:35:44.55ID:hoLEuXjZ0
VRを分けるのは正直全く面倒じゃない
DFLにやらせないでバッチファイルでffmpegにやらせる
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:0:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\l_%%05d.jpg"
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:in_w/2:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\r_%%05d.jpg"
DFLにやらせないでバッチファイルでffmpegにやらせる
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:0:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\l_%%05d.jpg"
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:in_w/2:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\r_%%05d.jpg"
2022/01/07(金) 17:08:34.56ID:I74S7yAb0
aedims512で他dimsデフォでやってるが
dstの目が半開きの時にどうしても視線がヤバくなるなあ
トレイン不足ではないと思うが…
encoderもしくはdecoder dimsの増減で改善したりするかな、どういうパラメータかすら把握してないけども
dstの目が半開きの時にどうしても視線がヤバくなるなあ
トレイン不足ではないと思うが…
encoderもしくはdecoder dimsの増減で改善したりするかな、どういうパラメータかすら把握してないけども
910名無しさん@お腹いっぱい。
2022/01/07(金) 17:49:36.86ID:bNjCrjCp0 写真からそこそこのやつ出来た人って写真何枚で出来た?
2022/01/07(金) 18:57:29.55ID:14vNCetC0
視線はLIAEだと意外とまともになったりするね
2022/01/07(金) 21:58:41.73ID:EGw3TzjO0
>>909
グラボは3090?
ちなみにresあげるのとaedimsあげるのどちらがいいものなの?
自分は3080だけど初期値からあげる場合はそのどちらかしか無理なのでres320にしてるけど、よくスレでaedims上げるという話を聞くので
グラボは3090?
ちなみにresあげるのとaedimsあげるのどちらがいいものなの?
自分は3080だけど初期値からあげる場合はそのどちらかしか無理なのでres320にしてるけど、よくスレでaedims上げるという話を聞くので
2022/01/07(金) 23:07:31.32ID:mbYzsz2X0
2022/01/07(金) 23:38:46.37ID:EGw3TzjO0
>>913
GPEN便利だけど一回で800枚から1000枚くらいしか変換できなくて困る。30000枚とかあるとき時間かかりすぎる。一気にできる方法とかあるの?
GPEN便利だけど一回で800枚から1000枚くらいしか変換できなくて困る。30000枚とかあるとき時間かかりすぎる。一気にできる方法とかあるの?
2022/01/08(土) 01:15:20.60ID:fqK5BClX0
2022/01/08(土) 09:55:17.78ID:zRIQetXm0
917名無しさん@お腹いっぱい。
2022/01/08(土) 09:56:06.90ID:zRIQetXm0 *目安が全くなく途中で
2022/01/08(土) 10:52:10.12ID:yL5Crg0k0
2022/01/08(土) 12:50:31.94ID:ximUJlyv0
2022/01/08(土) 13:23:41.68ID:fqK5BClX0
>>916
元facesetと作ったfacesetでpretrain130万くらいのモデルでdst複数人やってて60〜70万くらい。liae-udt,res256
難しい角度や表情はなくて主に正面とかです
>>919
ここのGPEN-windowsのところGoogleドライブからDLです
https://github.com/yangxy/GPEN
元facesetと作ったfacesetでpretrain130万くらいのモデルでdst複数人やってて60〜70万くらい。liae-udt,res256
難しい角度や表情はなくて主に正面とかです
>>919
ここのGPEN-windowsのところGoogleドライブからDLです
https://github.com/yangxy/GPEN
2022/01/08(土) 13:41:51.97ID:zRIQetXm0
2022/01/08(土) 16:03:54.56ID:dctlSj140
res416でもpretrainモデル使ってdstがほぼ正面なら10万も回せば元のsrcとほぼ同じレベルまで仕上がるよ
モデルDLして劇的に時短するためにMrの無料会員登録は必須
GPENwin版も使って全srcを超解像すれば解像度もかなり上がるしパーツがはっきりするおかげで学習も早くできる
モデルDLして劇的に時短するためにMrの無料会員登録は必須
GPENwin版も使って全srcを超解像すれば解像度もかなり上がるしパーツがはっきりするおかげで学習も早くできる
2022/01/08(土) 19:13:48.28ID:PFAljBMq0
extract MANUALで一度に一枚の画像に複数顔指定すること出来る?
924名無しさん@お腹いっぱい。
2022/01/08(土) 19:45:42.91ID:Qu2qqzcX0 諦めろん
2022/01/09(日) 00:04:36.22ID:PYkRpVCm0
>>920
GPENの件ですが落としたら_internalのファイルが入ってましたがこれをdeepfacelab内に上書きして何かを実行する感じです?やり方がよくわからない…
GPENの件ですが落としたら_internalのファイルが入ってましたがこれをdeepfacelab内に上書きして何かを実行する感じです?やり方がよくわからない…
2022/01/09(日) 21:31:10.86ID:8+NXdDiz0
>>925
readmeに書いてある通りに
Install or update GPEN.batそれからinstall_dependences.bat
モデルをダウンロードしてweightsフォルダに入れる
start_gpen.batを編集でフォルダ指定して上書き保存
例えばalignedをgpenのinputに持ってきて高画質にする場合
--use_cuda --indir input/aligned --outdir results/aligned
GPENやる前にmetadataをsaveして!
難しいこと分からんからこれでやってます
readmeに書いてある通りに
Install or update GPEN.batそれからinstall_dependences.bat
モデルをダウンロードしてweightsフォルダに入れる
start_gpen.batを編集でフォルダ指定して上書き保存
例えばalignedをgpenのinputに持ってきて高画質にする場合
--use_cuda --indir input/aligned --outdir results/aligned
GPENやる前にmetadataをsaveして!
難しいこと分からんからこれでやってます
2022/01/10(月) 02:14:21.61ID:uaoPGD0B0
>>926
ご丁寧にあざす!とりあえず指示通りにやってみたけどweightsフォルダが出ないですね。とりあえずまたいじってみます!
3080だと制限多いから3090欲しいわ〜、誰か新品20万で売ってくれい
ご丁寧にあざす!とりあえず指示通りにやってみたけどweightsフォルダが出ないですね。とりあえずまたいじってみます!
3080だと制限多いから3090欲しいわ〜、誰か新品20万で売ってくれい
2022/01/10(月) 02:46:28.67ID:5/hQ2rxT0
GPENwin版はDFLも考慮してるから
元のColab版で必要だったmetadataのsaveとrestoreしなくてもそのままDFLで使えるよ
GPEN頻繁に更新されてて結構仕様変わるけど
最新バージョンだとweightsが無い場合はstart_gpen.bat起動したら
勝手に必要なモデルのインストールしてくれた気がする
元のColab版で必要だったmetadataのsaveとrestoreしなくてもそのままDFLで使えるよ
GPEN頻繁に更新されてて結構仕様変わるけど
最新バージョンだとweightsが無い場合はstart_gpen.bat起動したら
勝手に必要なモデルのインストールしてくれた気がする
929名無しさん@お腹いっぱい。
2022/01/12(水) 21:18:55.19ID:T5+DOFO602022/01/13(木) 00:06:10.44ID:rhl1uI840
udtみんな似る似る言うけどこれdstに寄っている印象あるわ
931名無しさん@お腹いっぱい。
2022/01/13(木) 20:24:35.17ID:IcpCxY8C0 udt を1700k 回したが、同じ dst で ud と比べ udt の方が似てるなと思った。
まだ 経過途中なので 2500k くらい回ったときにまた報告するよ。
まだ 経過途中なので 2500k くらい回ったときにまた報告するよ。
932名無しさん@お腹いっぱい。
2022/01/18(火) 20:05:29.00ID:/Mv54Db00 SRC画像のバラバラの色調をできるだけ統一したいのですが、皆さんはどうやっていますか?
お勧めの方法はどんなもんでしょう?
お勧めの方法はどんなもんでしょう?
933名無しさん@お腹いっぱい。
2022/01/18(火) 23:59:28.96ID:cI2eC2Zf0 自分でpythonツール書いてる
2022/01/19(水) 00:13:56.88ID:jLGUt7Aq0
>>932
統一しなくても大丈夫じゃね?気にしたことないわ
統一しなくても大丈夫じゃね?気にしたことないわ
2022/01/19(水) 11:42:42.77ID:jLGUt7Aq0
いまメインのSSD1TB内に場所作って色々遊んでますが、複数作ってるとすぐ容量いっぱいになる。なので新たに6TBくらいのHDD購入してそっちで場所作ってやろうと思いますが、やる場所としてSSDとHDDでなんか違いはあります?
学習スピードは特に関係ないという話ですが、他に機械学習ならSSDの方が向いてるとか、HDDは劣化速度が速くなるからやめた方がいいとか。
学習スピードは特に関係ないという話ですが、他に機械学習ならSSDの方が向いてるとか、HDDは劣化速度が速くなるからやめた方がいいとか。
2022/01/19(水) 18:37:11.19ID:glojK9ZZ0
トレイン中はオンメモリだからあんま関係ないだろうね
937名無しさん@お腹いっぱい。
2022/01/19(水) 21:31:37.71ID:nHNCvCq10 メモリ128GB搭載してRAMディスク作ってやってる。まあ、容量の見込みが甘かった人的ミスを除き、落ちることは今のところないな。ヒストリーと記録しない方式なら困らない。
2022/01/20(木) 12:36:12.04ID:V6H9UWTc0
HDDにするとトレイン開始は遅くなると思います
2022/01/20(木) 20:22:26.12ID:N8G5akzi0
あまりHDDは向かないんですかね?個人的にはHDD常に動かす感じになるのかなと思うので劣化するの早くなるとかが心配ですね
2022/01/20(木) 23:31:09.76ID:uSuOZywc0
HDDで運用してるけど
別に変わらないよ
別に変わらないよ
2022/01/21(金) 23:45:34.94ID:iu6Eiy0s0
初心者の質問で申し訳ないのですが3090使ってる方trainの設定どのくらいにしてますか?
facetype f
liae-u
rct
ae_dms 512
バッチサイズ 4
くらいでやろうと思ってたんですがresolution360くらいまで落としても全然動いてくれません
res128とdms256での動作は確認済みです
全体スペックは以下です
cpu5950X
gpu3090
メモリ32G
facetype f
liae-u
rct
ae_dms 512
バッチサイズ 4
くらいでやろうと思ってたんですがresolution360くらいまで落としても全然動いてくれません
res128とdms256での動作は確認済みです
全体スペックは以下です
cpu5950X
gpu3090
メモリ32G
2022/01/22(土) 00:07:16.58ID:Qh9dXPVa0
3090です
facetype head
res 448
liae-udt
ae-dims 256
バッチサイズは 8
前のは 12で余裕で動いていたのに最新のだと
10でもたまにとまるから8にしている
-tのせいか、ビルドのせいかはわからないけど。
facetype head
res 448
liae-udt
ae-dims 256
バッチサイズは 8
前のは 12で余裕で動いていたのに最新のだと
10でもたまにとまるから8にしている
-tのせいか、ビルドのせいかはわからないけど。
943名無しさん@お腹いっぱい。
2022/01/22(土) 06:34:57.72ID:pTSmkJLX0 3090で大体同じ感じでやってます。RAMも32GBです。
仮想メモリはどうですか?自分は16GB割り当てて動いてます。
解決しなかったらすまん。
仮想メモリはどうですか?自分は16GB割り当てて動いてます。
解決しなかったらすまん。
2022/01/22(土) 08:52:50.97ID:bbQt+6Ab0
2022/01/22(土) 11:05:56.01ID:MGmjHTpr0
2060sで設定を見直したりしても最新バージョンだとtrainが始まらないです
2021後半のビルド速度も精度も良くて気に入ってたのに...
2021後半のビルド速度も精度も良くて気に入ってたのに...
2022/01/22(土) 11:14:39.09ID:5S7r+SDB0
>>944
RAMは32もあれば十分だけど仮想メモリは別物だから仮想メモリ 設定でググって変えよう
DFLがインストールされてるドライブのカスタムサイズを選択して初期サイズと最大サイズの欄に
「16384」って入力して「設定」を押せば仮想メモリに16GB割り当てる事になる
それとGPUスケジューリング オンでググってオフになってたらオンに変更
nvidiaのドライバーも最新版の方が学習スピード早くなるみたいだから更新した方が良い
RAMは32もあれば十分だけど仮想メモリは別物だから仮想メモリ 設定でググって変えよう
DFLがインストールされてるドライブのカスタムサイズを選択して初期サイズと最大サイズの欄に
「16384」って入力して「設定」を押せば仮想メモリに16GB割り当てる事になる
それとGPUスケジューリング オンでググってオフになってたらオンに変更
nvidiaのドライバーも最新版の方が学習スピード早くなるみたいだから更新した方が良い
2022/01/22(土) 11:47:48.35ID:5S7r+SDB0
レス数が900を超えています。1000を超えると表示できなくなるよ。
ニュース
- 京都のホテル大幅値下げ 訪日中国人客、年1000万人目前で急ブレーキ ★2 [蚤の市★]
- 高市首相の答弁書に「台湾有事答えない」と明記 存立危機発言当時 ★9 [蚤の市★]
- 「今の女性はルッキズム」は本当なのか? 若い世代が結婚相手に求める"本当の条件" [少考さん★]
- 【サッカー】J1リーグの2025年平均観客動員数が4.4%増の21,246人 最多入場者数の2019年を超えて過去最高値 ★2 [尺アジ★]
- 【沖縄】宮古島で陸自防災訓練に抗議した団体、「恫喝された」と駐屯地トップ厳正捜査求め署名運動 「市民弾圧と戦争への道を…」 [少考さん★]
- 中国・ロシア両軍の爆撃機が東京方面へ向かう「異例のルート」を共同飛行…核も搭載可能、連携して威嚇か ★4 [ぐれ★]
- 前駐中国大使「日本は中国からもアメリカからも真っ先に切り捨てられる」高市 [931948549]
- 【実況】博衣こよりのえちえちドラクエ1&2リメイク🧪
- 正義のミカタ「中国は日本人の反高市勢力を裏で操ってる。あいつらはスパイ」 [931948549]
- 【実況】博衣こよりのえちえちドラクエ1&2リメイク🧪★2
- 鈴木農水大臣「440円分の買い物ができる500円のお米券を477円で販売するのでみんな買ってね😉」 [931948549]
- 【悲報】ネトウヨ識者八幡和郎「高市は原稿棒読みもできんのか😨石破でよかった…政権打倒を主張したのを後悔してる」 [359965264]
