【質問】dfl【その3】

レス数が900を超えています。1000を超えると表示できなくなるよ。
2020/12/13(日) 21:02:14.37ID:faeRPvMB0
DeepFaceLab(以下、DFL)の質問&回答スレです

・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。

・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。

・RTXシリーズでも動くの?
FS、DFL共に動く。
813名無しさん@お腹いっぱい。
垢版 |
2021/10/17(日) 21:52:29.70ID:+PIDJ2ha0
>>812
ありがとうございます。
最初からオフだと似ないっていうのがいまいち実感出来ないのですがそうなのでしょうかね
2021/10/18(月) 00:06:26.08ID:L2yMKhe30
多分 Xseg Train のプレビューで顔画像をグニャグニャ曲げて train してるのと同じことしてるんじゃないかな?
少ないalignedでも効率良く学習できるよう変形を加えてる?
2021/10/18(月) 00:48:24.55ID:32ja+T1Y0
原理は俺も全然わかんないけど
最初はランダムワープありでバッチ少なめ、最後はランダムワープ無しでバッチ最大限、って作者が言ってたことを公式のように覚えてる
2021/10/20(水) 08:21:39.29ID:M0OaL8pY0
>>815
あらためて復習になる。
サンクス。
2021/10/30(土) 16:37:59.93ID:RejQUWcQ0
ここ4,5日ぐらいcolab proがT4しか使えない
ずっとP100使えてたから反動かもしれんが
2021/10/30(土) 20:22:51.63ID:TKKHaE6j0
>>817
自分もColab Proで2〜3週間前にT4が1週間ほど続いた
今はP100に戻ってる
ユーザーによって?使用量によって?違うのか
2021/10/31(日) 19:29:54.15ID:0gV4QXTe0
すみません
DSTのAV探しに苦慮してます。
なんかいい探し方ありますでしょうか。
DFにあうので
2021/11/01(月) 06:24:44.79ID:TJEam9ub0
>>819
自作するといいよ
2021/11/01(月) 14:20:20.40ID:98K+vmyc0
>>819
AVの使えそうなシーンだけ編集で切り取ればいいんじゃないか
822名無しさん@お腹いっぱい。
垢版 |
2021/11/01(月) 20:01:15.01ID:VUCB/2br0
今geforceのRTX2070superを使っていますが、3060ってのはメモリーがすごく大きいみたいなので、DFL用途であればこっちの方がいいのかと思ったりしています。
今解像度256でバッチ4でやってますが、もっと解像度があげれるとかそういうメリットあるんでしょうか?
2021/11/02(火) 10:15:34.18ID:XQluit7L0
あると思いますよ 自分はwfなら res384 バッチ16 headなら res512 バッチ12
でやってます。3090です。
2021/11/02(火) 10:17:56.96ID:XQluit7L0
すいません、headの所、まちがえました。訂正します
headならres448 でバッチ12でした。
2021/11/02(火) 12:57:10.34ID:xjxVUhHW0
二重あごの女優多すぎ
痩せろや!と思う
2021/11/02(火) 13:28:00.70ID:HsOgxce80
3060だとliae-udt,wf,res416,バッチ4で900msくらいで動かせるよ
827名無しさん@お腹いっぱい。
垢版 |
2021/11/02(火) 17:40:56.44ID:OXdutDgI0
SRCを高画質化したいけど、GPEN等導入する知識がないのでソフト買おうかなと思ってます。
@VideoEnhanceAI AgigapixelAI BsharpenAIのうちどれを買えば良い? もしくはその他?
全部無料版で試してみるべきとこだが、せかしてくる息子がおりまして。画像は512PIXで考えてます。
828名無しさん@お腹いっぱい。
垢版 |
2021/11/02(火) 18:27:50.31ID:vgm3mzfv0
3060いいですね。
やっぱこの用途だけしかやらないなら、メモリー量が正義なんですかねえ。
ぶっちゃけ一切ゲームやらないし、買ってみようかなあ。
2021/11/02(火) 19:02:48.76ID:HsOgxce80
価格2倍以上の3080よりも3060の方が設定上げられるし
2070s売って3060買えばほとんど差額無しで買えると思うしDF用ならベスト
830名無しさん@お腹いっぱい。
垢版 |
2021/11/04(木) 19:31:23.57ID:/63pgaRf0
自分3060ti使ってて一番新しい3000シリーズダウンロードしたんだけどこれcuda入ってます?
なんかトレーニング中にタスクマネージャーみたらgpuの3dがめっちゃ動いててcuda項目がないし、変だと思ってググってみてもcudaはdflのフォルダ内に入ってるとから別途でダウンロードする必要ないって書いてあってよく分らんのですが
2021/11/04(木) 20:26:29.60ID:OODjFfiY0
Win純正のタスクマネージャーが無能なだけだから心配いらないよ
832名無しさん@お腹いっぱい。
垢版 |
2021/11/05(金) 10:54:19.53ID:pzWDqP6M0
GTX1080Ti使ってますが、RTX3060に買い換えるメリットあるでしょうか?
メモリ1GBしか変わらないので、どうなんだろう・・と。
2021/11/05(金) 11:42:39.68ID:XqRKISi90
cudaコア数も同じでゲーム時とかの性能もレイトレーシングとか除けば
ほとんど変わらないから1080tiで良いと思う
本当かまだ分からないけど1月中旬に出ると噂されてる3070Ti 16GB版待ちだな
2021/11/05(金) 20:54:40.08ID:pzWDqP6M0
最近ほとんどゲームもしないのでRTXにする意味はなさそうですね。
もうしばらく1080Tiで行くことにします。
ありがとうございました。
2021/11/10(水) 18:27:38.45ID:dZzM7reK0
>>834
今更だけどこういう考え方も。

3060ならtensorcoreが乗ってるから多少速い。
1080tiは流石にいつ壊れるかわからない経年劣化が予想される。だがヤフオクで高く売れる。
1080tiをヤフオクで手放して、3060を新品で買えば、気持ち速いグラボが新品で手に入る。
自分は1080放流して3060を買った。
爆速にはならないけどコイル鳴きが無くなったのでそれなりに満足してます。
836名無しさん@お腹いっぱい。
垢版 |
2021/11/20(土) 22:00:23.95ID:KXLxwqyy0
>>819
ttp://erodougazo.com/actress/

広告多いのが玉に傷だけど、身長、スリーサイズ、年齢でマイナーな女優まで探せる。
サイズ=骨格が近いと顔も似やすい。
837sage
垢版 |
2021/11/21(日) 03:30:16.13ID:tuT3JfQN0
今年8月ぐらいのバージョンから10月21日の奴にDFLを更新したんだけど、train SAEHDでモデルの読み込みが終わった瞬間に”Pythonが動作を停止しました”で
止まるから原因を探ろうとしてるんだけどDFLの動いてるコンソール側に何もエラーログを吐かないからどうしたもんかと頭抱えてる
Quick96だと何故か動くからドライバ周りが臭いとは思うんだけどなんか要求要項に変更入ったりした?
2021/11/21(日) 03:31:04.60ID:tuT3JfQN0
sageる所入れ違えてたわすまん
2021/11/21(日) 09:20:06.84ID:2QWYIZCa0
うちは「color transfer for src faceset」をnone以外にすると同じような症状になる
他のbatch size等の組み合わせでエラーメッセージが出なかったり、MemoryErrorやスタックトレースが出たりもする
Colabなら問題なくTrain始まるんだけど・・・
2021/11/21(日) 12:04:05.45ID:tuT3JfQN0
昨晩新しいのが出てたから一旦完全にまっさらな状態で一切数値を弄らずサンプル使って動くか試したけどやっぱり駄目だった
今度は設定値まで読み込まれたけどもStarting. Press "Enter" to stop training and save model.が表示された直後に落ちる
>>839
color transfer一通り試したけど変化が無かったからこうなるとPythonかCUDAの問題なのかね
841名無しさん@お腹いっぱい。
垢版 |
2021/11/21(日) 13:47:58.25ID:14puFHte0
俺も同様だった。
で、何やってもダメなRTX3000シリーズのビルドは諦めて、directx 12版を使ったら動いた。

まぁ、直ぐに更新されてモデルも作り直しだろうし動く方を使ってる。
2021/11/21(日) 14:25:46.15ID:crt1xHSg0
公式discordのロシア語の方のbatch-sizeチャンネルでnvidiaドライバーを更新したら
同じようにトレーニング開始直前で落ちるようになったって人がいるけど
過去のドライバーを入れ直したら解決したっぽいな
ロシア語だからDeepL翻訳使っても翻訳が曖昧だしgame ready版かstudio版なのかも分からんけど
とりあえず何パターンか過去のドライバー試しみれば直るかも
2021/11/22(月) 21:29:06.74ID:LCTTs2ZW0
昔のDFLに入ってるCUDA関連のファイル持ってきたら動いたりするよ
2021/11/23(火) 14:51:08.80ID:Yose+IY/0
他にも同様の症状の人いるんやな。ちょっと安心したわ。
とりあえず色々ドライバ変えて試してみる
2021/11/23(火) 15:21:38.72ID:Yose+IY/0
9月までドライバ戻したら無事動いたわ
846名無しさん@お腹いっぱい。
垢版 |
2021/11/24(水) 14:38:56.37ID:rsRm00hg0
ダヴィンチ・リゾルブのスタジオ版導入したんだが、
DFL使用時のRTX3060のメモリが12g→10.45gに目減りするね。
(ダヴィンチ起動してなくても。)

ビデオメモリーの予約?なのか,DFLで10.45gで表示されててもWindowsのタスクマネージャーでは12g使ってる。

顔射モノを作るのは本当に楽になったが、メモリーが一割減るのは結構痛いね。
2021/11/28(日) 11:50:40.81ID:+QRM8Ih+0
256x256のsrcを一気に高画質化できる方法ないですよね
2021/11/28(日) 12:17:38.37ID:bknd1NKC0
高画質な元動画を探すのはどうでしょう
2021/11/28(日) 13:21:22.02ID:jmhp1MNN0
>>847
GPENが近道かと。
2021/11/28(日) 17:43:52.31ID:+QRM8Ih+0
>>849
できた!
ありがとう
851名無しさん@お腹いっぱい。
垢版 |
2021/11/29(月) 12:42:20.72ID:SpYvlTIx0
rtx2060なんだけど普通のビルドDLでいいの?
2021/11/29(月) 18:39:28.18ID:Va0I15xE0
普通ってどれだ
853名無しさん@お腹いっぱい。
垢版 |
2021/11/30(火) 16:32:45.36ID:5RgpTB3P0
最初に入ってるお試し用の動画って、かなり短時間でクオリティ高いのが作れるけど
モデルがあってたらあんな短時間でいけるん?
854名無しさん@お腹いっぱい。
垢版 |
2021/11/30(火) 17:17:20.07ID:uAvNaFgU0
modelの育て方次第やね。

学習させる女優さんなりアイドルなりの画像を様々な画角から被りなく3000枚〜とか集めて、
しっかりと学習させておけば、そこからは速い。

ただ、最初の学習の速さも仕上がる速さも、グラボのスペックと素材の解像度によって雲泥。
環境にお金かけるほど、処理の重い高画質な方向に移行するから、結局、みんな時間はかけてると思う。
855名無しさん@お腹いっぱい。
垢版 |
2021/12/02(木) 20:37:12.31ID:5V9jPkGy0
例えば素材が正面メインでちょっと角度変えただけの画像ばかりはマジで学習が遅い

これが、ガチで色々な角度(正面、後ろに振り替える、ほぼ真上から、ほぼ真下まで)を均等に含むと
あっというまに精度よく出来上がる

普通の人はこういう角度ってほとんど存在しない(騎乗位の角度や正常位の角度で顔を見るのはほぼない)けどここの素材探しに妥協するほどきつくなる


後は輪郭や髪型等が似てれば1晩でほぼ完成するよ
2021/12/05(日) 13:17:12.91ID:4PMtcFCH0
ローカルマシンでGPEN導入したいけど、なかなか的確に解説してるサイト無いね。
2021/12/05(日) 14:02:58.76ID:MNlpXza50
ここで紹介する人も不親切だしね
2021/12/05(日) 17:13:31.64ID:4PMtcFCH0
>>857
流石にそれは思った事ないよ…
2021/12/05(日) 21:45:39.52ID:WF6hbhh00
https://www.xn--dckci7a6hqdn90a.jp/archives/10279517.html
860名無しさん@お腹いっぱい。
垢版 |
2021/12/06(月) 09:31:32.11ID:7TQp3gMa0
なんかtrain開いても最後press any key to continueになって始まらなくなったんですけどとうしたんですかね
調べたらcuda関係...?
2021/12/06(月) 11:45:08.71ID:7LrEe5hm0
>>859
これをローカルマシンで走らせたいのよ。
Google コラボではなくてさ。
2021/12/06(月) 12:11:47.47ID:tn9GF6V80
githubにGPEN-windows来てたよ

1) install_dependences.bat実行で20GBほど使うので注意
face_enhancement.pyの136行目のinput/outputフォルダを確認か変更
2) start_gpen.batの実行で高精細化
dflイメージはそのままdflイメージとして使える

とまあとりあえずの使い方なんだけど、うちの環境(win11 RTX3090)だと
2) start_gpen.batだけがうまく動作しない
もし他にも動かない人がいれば修正方法を書いとく
2021/12/06(月) 12:38:01.33ID:7LrEe5hm0
>>862
お!
どうもありがとう。
早速試してみます。
2021/12/06(月) 22:42:41.17ID:7LrEe5hm0
>>862
ダメでした。
3060で動かず…コードとか難しいなぁ…。
2021/12/08(水) 18:04:03.28ID:6zggqNLQ0
まったく動かないって話なら俺にはわからない
GPEN化せずに元画像がそのままoutputフォルダに出力される人は以下を試して

■face_enhancement.py 170行目から
#Optional
# im = cv2.resize(im, (0, 0), fx=1, fy=1)

img, orig_faces, enhanced_faces = faceenhancer.process(im)



#Optional
im = cv2.resize(im, (0, 0), fx=2, fy=2)

img, orig_faces, enhanced_faces = faceenhancer.process(im)

img = cv2.resize(img, (0,0), fx=0.5, fy=0.5)
866名無しさん@お腹いっぱい。
垢版 |
2021/12/08(水) 21:15:46.72ID:FrfC+Ijp0
昔誰かが書いてたけど、学習中のプレビュー画像って大きいサイズで出力できないの?プレビュー画像をソースにできたらかなり良さそう。
2021/12/08(水) 21:33:57.22ID:Wkwdxakh0
>>865
3060ユーザーで俺もDFLで抽出したaligned画像だけ変換されなかったけどこれでいけたわサンクス
マージした画像とかそのまま入れても自動で顔認識して更にGPENできるし良いわ

ちなみに元画像のファイル名に一文字でも日本語が含まれてると
問答無用でerrorが表示される仕様みたいなんだけどコード書けばすぐ直せるのかな?
適当に英数字オンリーのファイル名にリネームすれば動くから大変ならこれで良いけども
2021/12/10(金) 13:49:10.08ID:I54Pkngo0
>>867
一番最初のバッチでインストール失敗しない?
2021/12/10(金) 14:17:44.90ID:B2zxNIS90
>>868
githubのissuesでも報告されてないし何の問題も無く一発でインストールできたから
rarの解凍とかからやり直してもインストールできなかったら俺には分からんなぁ
2021/12/16(木) 12:48:47.66ID:1kEL9Exo0
3060 12G使用で、aedims384のWFだと、res192でしか動かないなー
davinci 入れてから?dflのVRAMが9GBくらいで表示されてるがそれも影響しているのかな
2021/12/19(日) 03:01:16.78ID:Pconil9L0
>>870
dflはそもそもvramフルでは使わないと思うよ
2021/12/19(日) 11:29:06.07ID:t5yWPrKb0
海外のフォーラムでもよく質問されてるけどdflのvram表示は実際に使用できる数値と違うから無視で良い
タスクマネージャー開いてパフォーマンスタブのGPUを確認すれば分かるけど
俺の3060は限界まで設定上げてdfl起動すると専用GPUメモリが11.8GB位で共有GPUメモリも2GB位使ってる
dimsもホクロとか細部の学習に大事だけどres低いと顔のドットが目立って違和感しかないからres最優先してるわ
2021/12/25(土) 19:54:14.85ID:Ht1fNKNu0
pretrainやり方についてわかりやすく説明してる日本語サイトってありますか?やり方よくわからん
2021/12/26(日) 07:55:41.81ID:XyFoXeUf0
日本のサイトってあんまりないよね
海外のサイトをグーグル翻訳して探すほうが楽だと思う
2021/12/26(日) 20:53:21.78ID:xjsdO3Hi0
>>874
ありがとうございます

頑張ってGoogle翻訳でみます
2021/12/27(月) 00:41:38.14ID:W1bjTLuS0
res256とres320って違いでます?3080で回すときres320でギリでした。今までres256でしたがちょっと解像度あげてみようかなと思案中です。
2021/12/27(月) 00:56:32.89ID:+4noIjVB0
抜ければ何でも良いんだよ
2021/12/27(月) 04:41:42.55ID:pLisgeUK0
dstによるだろ
2021/12/30(木) 16:24:37.06ID:ec7+Lk140
デビューしたけどこれって学習時にdst必要なんだな...
って思ったけど、これあくまでプレビュー用に必要なだけ??
880名無しさん@お腹いっぱい。
垢版 |
2021/12/30(木) 16:27:28.61ID:ec7+Lk140
学習で作られるモデルってsrcに依存するのはいいとしてdstにも依存してるんでしょうか??
881名無しさん@お腹いっぱい。
垢版 |
2021/12/30(木) 20:55:57.46ID:rfUapu/o0
普通にググってこい。
2021/12/31(金) 09:19:47.55ID:mlnKev650
>>879
dstが大量に必要なのはsrc学習時のニューラルネットワーク形成時に加算処理をするための参考情報として必要なのと、予想通りプレビュー用に用いられる為。
だからsrcは様々な素材があった方が学習が速く、dstにも様々な顔が有った方が学習が速いのは事実。
あと、GPUばっかり重視されるけどCPUやメモリも使われてるから出来るだけ高性能なCPUを積んでメモリも出来るだけ拡張した方がいい。処理が加速される。
2021/12/31(金) 10:22:13.61ID:GJyniFHS0
聞いてねえよ
2021/12/31(金) 10:33:05.75ID:CQPs86l/0
初心者です
縦笛時のXSeg Genericってsrcとdstの両方にかけるのでしょうか?
2021/12/31(金) 11:11:05.55ID:GJyniFHS0
笛関係なく両方にかける
2021/12/31(金) 11:16:40.65ID:2b2uynRc0
>>882
eyes mouth priorityをかけても
眼球があらぬ方向を向いてしまうのだが
これもdstの問題でしょうか
randomwarp中にeyes mouthかけると駄目とかありますかね
2021/12/31(金) 15:53:15.02ID:Ym7jaWSV0
>>882
ありがとうございます
当方、いいGPUもってないので学習だけcolabでやろうと思ってました
でいきなりムフフなdstではやりませんが、学習時にdstをextractしてなかったらエラー出たので

とりあえずcolabで学習実験し始めたので遊んで見ようと思います
2022/01/01(土) 08:35:57.73ID:RMYOJESg0
train開始時にsrcとdstのLoading samplesが終わった後「続行するには何かキーを押してください」が表示されて止まるようになってしまった。
別のworkspace使っても変わらずで困っています。
2022/01/01(土) 18:48:58.70ID:1b3PUI8a0
colabでtrain中のsaveってどうやるの
Enter押しても何も起こらない
2022/01/02(日) 01:15:19.95ID:pLuoI4A/0
deepfacelabの最新11月版ですが今までいけた設定でもtrain時にエラーで回りません。GPUは3080でres256batch8でエラーになります。新たに設定など必要なのでしょうか?ちなみに前までは2020.7月版でした。
2022/01/02(日) 14:44:31.73ID:7l9A7CgM0
>>883
友達いなさそうだね。笑
892名無しさん@お腹いっぱい。
垢版 |
2022/01/02(日) 14:47:22.65ID:b+bQtfQv0
日記発狂中
893名無しさん@お腹いっぱい。
垢版 |
2022/01/02(日) 20:02:20.32ID:gGIMOkqb0
SAE -t を全く同じ dst 素材で試し中。
結果報告するよ。
2022/01/03(月) 02:43:27.52ID:Zq3c9rkl0
tオプション一応使ってるけど何にも変わってない気がするよね
視線が合いづらくなってるなと思うぐらい
2022/01/03(月) 02:47:55.60ID:Zq3c9rkl0
>>890
バージョン上げたら何かがおかしくなるのは、いつものことだと思うし
無理しないで以前のバージョンを使うかバッチを下げるかだな
俺は11月バージョンちゃんと動かなかったから10月のを使ってる
2022/01/03(月) 11:06:30.84ID:5Ip/Zxcg0
どんなエラーだったか覚えてないけど
dflのあるドライブのページングファイルを設定したら安定したことがあった
897名無しさん@お腹いっぱい。
垢版 |
2022/01/03(月) 11:35:52.29ID:y/zQ0hnr0
liae-ud から liae-udt にしたら batch 3 だったのが 8 で回るようになった。
(RTX2080 rez 192)
898名無しさん@お腹いっぱい。
垢版 |
2022/01/03(月) 12:03:17.42ID:y/zQ0hnr0
連投すまんが、batch 16 でも動いた。
こんなに batch 上げたことなかったけど、少 batch の時より似ていくスピードが早い気がする。
これがある意味 -t の効果なのかも。
2022/01/03(月) 21:19:32.01ID:Zq3c9rkl0
それ-udでも16で回ると思うし、3は少なすぎで何か間違ってるんじゃないかな
2022/01/03(月) 22:03:40.39ID:SjPqIlYq0
dims上げすぎか?
901名無しさん@お腹いっぱい。
垢版 |
2022/01/04(火) 01:06:26.48ID:qaUq+uoL0
結構古いVerのDFLを使ってて更新したからかな?以前のは重かった。
2022/01/04(火) 20:30:15.74ID:9YBKEDFN0
フォーラムにあるpretrainデータの流用のやり方って

1.アップされてるmodelデータをダウンロードして、作業フォルダーのmodelの中にコピー
2.そのデータをEnable pretraining modeを『n』に変えてtrain

であってます?
903名無しさん@お腹いっぱい。
垢版 |
2022/01/04(火) 22:20:31.48ID:MBys4NSV0
0からのスタートみたいに見えるから不安になるけど、それで合ってる
2022/01/05(水) 21:22:10.94ID:wvXGDXAF0
VR用の左右2人映っている画面でmanual extract( data_dst faceset MANUAL RE-EXTRACT DELETED ALIGNED_DEBUGdst )
で 手動で顔抽出したいときに左側の顔の調整が済んで 左クリックおして 一旦確定、
右側の顔を調整したいときはどうすればいいのでしょうか?
左側だけで 左クリックのあと ENTERを押すと
次のフレームに行ってしまうのですが、一画面で、2人手動抽出するやり方は
ないのでしょうか?
2022/01/05(水) 23:53:20.43ID:21OuJmak0
無い
面倒でも2つに分けるべき
2022/01/06(木) 02:12:42.53ID:P4HaLcsF0
>>903
あざす!

>>905
VRなんて2画面で一気にやっちゃうけどなあ。たまに顔がチラチラするけど気にしない。

みんなそんな完璧目指してるの?
1つ作るのに何時間かけるのよ
2022/01/06(木) 07:27:45.18ID:PBHAwCGR0
>>905
ありがとうございます

たまにチラチラする程度ならいいんだけど
結構失敗してる割合が高いので
面倒だけど1画面ずつやるかあ
headを使ってるせいかもしれませんが。
まあもうちょっと顔抽出の精度は上げてほしい
2022/01/06(木) 22:35:44.55ID:hoLEuXjZ0
VRを分けるのは正直全く面倒じゃない
DFLにやらせないでバッチファイルでffmpegにやらせる
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:0:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\l_%%05d.jpg"
_internal\ffmpeg\ffmpeg -i %input_file% -vf crop=in_w/2:in_h:in_w/2:0 -qmin 1 -q 1 "%WORKSPACE%\data_dst\r_%%05d.jpg"
2022/01/07(金) 17:08:34.56ID:I74S7yAb0
aedims512で他dimsデフォでやってるが
dstの目が半開きの時にどうしても視線がヤバくなるなあ
トレイン不足ではないと思うが…
encoderもしくはdecoder dimsの増減で改善したりするかな、どういうパラメータかすら把握してないけども
910名無しさん@お腹いっぱい。
垢版 |
2022/01/07(金) 17:49:36.86ID:bNjCrjCp0
写真からそこそこのやつ出来た人って写真何枚で出来た?
2022/01/07(金) 18:57:29.55ID:14vNCetC0
視線はLIAEだと意外とまともになったりするね
2022/01/07(金) 21:58:41.73ID:EGw3TzjO0
>>909
グラボは3090?

ちなみにresあげるのとaedimsあげるのどちらがいいものなの?

自分は3080だけど初期値からあげる場合はそのどちらかしか無理なのでres320にしてるけど、よくスレでaedims上げるという話を聞くので
レス数が900を超えています。1000を超えると表示できなくなるよ。
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況