【質問】dfl【その3】

■ このスレッドは過去ログ倉庫に格納されています
2020/12/13(日) 21:02:14.37ID:faeRPvMB0
DeepFaceLab(以下、DFL)の質問&回答スレです

・質問について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。

・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。

・RTXシリーズでも動くの?
FS、DFL共に動く。
2020/12/20(日) 05:00:28.89ID:5bFtS3MH0
mask処理をしたら仕上がりが倍以上よくなった。
ここの人たちありがとう!
2020/12/20(日) 09:27:09.85ID:7xq9z9kO0
>>32
halfだと、顎のあたりとかの色合わせ、色のなじみが悪くなる場合があるのでは?
src、dst次第かも
2020/12/20(日) 09:28:40.66ID:5bFtS3MH0
>>34
そうか。確かに。
Fでやってて問題ないのでそのままやってみます。
2020/12/21(月) 13:05:13.28ID:qO0rZz2d0
loss値0.1で能面が治らないんですが、ここまでやっても治らないのはsrcが足りてないんでしょうか?
2020/12/26(土) 11:25:01.65ID:2VH+8smV0
別スレでAdaBeliefで学習が速くなると聞いて、最新版を試したけど
特に速くなってなくない?

ただEyes priorityがEyes and mouth priorityに変わってて、前は口が微妙に
ずれてる場合があったのが、うまく入れ替わってる
38名無しさん@お腹いっぱい。
垢版 |
2020/12/27(日) 15:10:55.43ID:nyl/b2Pw0
AdaBeliefは理論的には速くなってるはずだけど、dflがそんなに効率よく取り入れてるかどうかはわからない
反復が速くなるんじゃなくて、loss値が下げ止まるまでが速い感じだと思う
39名無しさん@お腹いっぱい。
垢版 |
2020/12/28(月) 15:07:20.09ID:knwf3sOp0
質問させて。
過去スレにあったdst×dstのやつ。

dst×dstで、
liae-ud、Full Face、RW Trueで始め。
0.5切ったらRW False。
0.2切ったらLRD true。0.1切るまでtrain。

その後に、srcフォルダに入っているdst画像は全削除で、
好みのsrc画像入れるであってますか?

src画像に切り替えるタイミングと、
srcフォルダのdst画像は全削除でよいのかが分からないのです。

宜しくです。
40名無しさん@お腹いっぱい。
垢版 |
2020/12/28(月) 15:12:39.58ID:s3HDd8Cy0
日記君登場!
2020/12/28(月) 15:16:58.59ID:knwf3sOp0
すまない日記さんとやらではないです。

初期設定で0.2くらいまでtrainして、
srcフォルダの画像切り替え。
その後に、RWやLRDのパラメーター変えて、0.1までtrainかな。

試してるんですが、いまいち上手くいがず迷ってます。
2020/12/28(月) 21:25:25.38ID:Abx4SwYw0
dstxdstをどこまでやるかは、人それぞれでしょう
プレビュー画面見ながら自分で判断するしかない
場合によっては、一度その状態でmargeして、仕上がり具合を見る
このタイミングで、dstの顔で違和感なく動画が作成できるなら良しとするのもアリ

srcのaligned画像を入れ替える時は、dstの画像は全て削除
2020/12/29(火) 08:16:49.11ID:ZYoYNgkw0
>>42
dst画像は全削除でよかったんですね。
ありがとうございます。

プレビュー確認し、途中でマージしてみる。
分かりました。ありがとう。
44名無しさん@お腹いっぱい。
垢版 |
2020/12/29(火) 10:27:32.77ID:UQjgRLtJ0
dstのコピーとか削除とかやらずにバッチファイル内のsrcとdstのフォルダを同じにすればいいだけじゃないの?
まぁ未だにdstxdstとか謎技術を信奉してるのあいつぐらいだけだと思うけど
2020/12/30(水) 12:31:43.43ID:1XD/DpP60
掲示板どこも止まってる?

マージするとき、ツール使ってフレームごとに設定するプレビュー画面で、
dst画像に、src画像がはまってないというか、
位置がずれる現象が。
外側の四角いランドマークな位置が思いっきりずれてるんです。
こんな経験あります?
2020/12/30(水) 15:53:06.18ID:T1hMrvgO0
view aligned debug resultsでおかしいの削除してMANUAL RE-EXTRCT DELETED ALIGND_DEBUGやってる?
2020/12/30(水) 17:30:34.24ID:tMTsPyYn0
>>46
返信ありがとうございます。
srcとdstのランドマーク確認しましたが、
おかしいのないんですよ。
すこしズレるんでなく、全体的にズレてるんです。
対象は真ん中なのに、5かな、押すと四角い枠が半分だけ見えるんです。
また1から作り直してみます。
2020/12/30(水) 19:13:48.50ID:gK81YVBv0
>>47
data_dst.mp4を顔抽出した後に解像度変更や不要シーンカット等、再編集してない?
2020/12/30(水) 19:21:21.77ID:gK81YVBv0
>>48
ごめんなさい
data_dst.mp4というより、そこからコマごとに切り出した画像群が顔抽出時〜mergeで構成が全く同じであるか?ですね
2020/12/30(水) 20:37:59.31ID:s24E4MLf0
>>49
返信ありがとうございます!
dstもsrcも編集してないんです。
不思議なのはプレビュー(一番右)は上手く出来てるやうに見えるんです。
んで、マージで手動のツールで見ると、いわゆるdstしか表示されない。
5押すとマスク?表示されますよね。
それ見ると違うとこに四角の一部がでるんです。
壊れちゃったのかな。ちなみに50万くらい回して、0.12くらいです。
51名無しさん@お腹いっぱい。
垢版 |
2020/12/31(木) 11:12:56.21ID:CSbjdsl+0
おま環だな
52名無しさん@お腹いっぱい。
垢版 |
2021/01/04(月) 13:50:37.88ID:DXZqWVCn0
== 04.01.2021 ==
SAEHD:GANが改善されました。アーティファクトが少なくなり、プレビューがよりクリーンになりました。
53名無しさん@お腹いっぱい。
垢版 |
2021/01/08(金) 07:16:50.90ID:ZrmCeq1m0
dstとsrcを1枚でやったらめっちゃ早く静止画のコラできるんじゃないかと思ってやってみたけど、
1回当たりの時間はそんな変わらないんだな。
これが俺のPCの性能ってことか。
2021/01/09(土) 00:49:44.07ID:fBepmN1R0
メモリ8×2,gpu8 のマシンで動かしているのですが、メモリ使用率が90%、gpu使用率が15%程度なのですがこんな物なのでしょうか?
gpuの使用率を上げる方法ありましたらご教示いただきたいです
55名無しさん@お腹いっぱい。
垢版 |
2021/01/09(土) 01:41:01.75ID:b3UZuNTN0
タスクマネージャーのGPU使用率は当てにならない
ELSA GPU Optimizerみたいの使ってみて
2021/01/09(土) 02:30:36.20ID:J7ol4gHn0
動画からの画像抽出をGPUで行うことはできないのでしょうか
jpgなら大した負荷はかからないのですが
pngだとファンが高速で回りCPU使用率が100%付近に張り付きます
可能であればどのファイルのどの項目を触ればいいかご教授下さい
57名無しさん@お腹いっぱい。
垢版 |
2021/01/09(土) 05:59:01.12ID:Ws9CPkEd0
trainの途中でアーキテクチャをliaeに変えたいんですが、
いじるファイルはmodelフォルダのSAEHD_data.datでいいのでしょうか?
テキストで開こうとすると文字化けするのですが、何か専用のソフトが必要でしょうか?

また、文字化けながらもそれっぽい記載があったので、df→liaeに変えたのですが、
エラーが出てtrainできませんでした。
やはり文字化けの中変えるのはダメでした。。。
58名無しさん@お腹いっぱい。
垢版 |
2021/01/09(土) 10:06:15.87ID:b3UZuNTN0
>>57
不可能
2021/01/09(土) 10:47:33.06ID:NoIegefL0
>>54
タスクマネージャーのグラフのとこのcuda見ればめっちゃ使ってるのがわかると思うよ
60名無しさん@お腹いっぱい。
垢版 |
2021/01/09(土) 12:59:18.51ID:Ws9CPkEd0
>>58
できなかったんですね。ありがとうございます。
以前dataファイルをいじって設定を変えると見た気がしたので探していました。
train最初の段階で決めておかないとダメなんですね。
やり直します。
2021/01/10(日) 11:46:47.48ID:a/Mpc8zA0
rtx3090使ってる人Xseg使えてます?
うちの環境だとgpuスケジューリングONにしたら使えるんだけど
タスクマネージャからcudaの項目が消えて、3dで使用されてるのが気になります
62名無しさん@お腹いっぱい。
垢版 |
2021/01/10(日) 12:07:59.77ID:YmtG7pSH0
>>55
63名無しさん@お腹いっぱい。
垢版 |
2021/01/10(日) 17:38:20.88ID:S6XwlXVn0
俺の3080も確かに3Dが使われている
というか、そもそもcudaの項目がなくなっとるぞ
2021/01/10(日) 22:31:30.71ID:GjVlp6Gj0
>>63
RTX3000系もDFL安定して動作する様になりましたか?
65名無しさん@お腹いっぱい。
垢版 |
2021/01/10(日) 23:01:04.87ID:S6XwlXVn0
>>64
最近までxegが動かない問題があったけど
最新版でGPUスケジューリングをONにしろって
て表示が出ててきてONにしたら動くようになったよ。
俺の3080はもう問題なし
2021/01/10(日) 23:04:30.82ID:a/Mpc8zA0
色々と調べてみましたが3000台は学習初動でvram使用計算にバグあるっぽいですね
とりあえずgpuスケジューリングONにして学習開始さえしてしまえば、その後OFFにしても問題なく動いてくれてます
初動ではres256でbatch8以上で動かなかったのが、今のところbatch16で問題無く動いてくれてるし
タスクマネージャでもcudaコアガンガン使ってくれてます
2021/01/10(日) 23:15:26.34ID:ldHKuG2D0
ついに3000番台を買うときが来たのか
68名無しさん@お腹いっぱい。
垢版 |
2021/01/10(日) 23:16:58.06ID:S6XwlXVn0
>>66
凄く有益な情報ありがとう
いままでHEADだと256*4bachが
限界だったのに320*8でも動くようになったよ
3080tiが出るまで待とうと思ってたけど、
必要なくなったw
2021/01/13(水) 03:27:20.99ID:BcOqF2sv0
>>65-68
どうもありがとう
確かCudaコアが倍増とか??1 Iterも短縮?
消費電力は減るはVRAMは増えるは安くなるはで前世代から見て改善だらけかな?
2021/01/13(水) 04:50:01.39ID:gs+03oev0
3070よりVRAMの多い3060の方がこのスレ的には良いのかな
71名無しさん@お腹いっぱい。
垢版 |
2021/01/13(水) 09:51:29.09ID:xmKQtiaT0
顔抽出の精度って学習されないんでしょうか?
debugフォルダ見たら何回やっても失敗が多いんですが。。。
2021/01/13(水) 18:44:02.83ID:3Hac03cm0
1080Tiから変える価値あるかな...
悩ましい
2021/01/13(水) 18:54:12.78ID:N8pw1+uI0
3060がvRam12GBで330ドルらしい
これ買いやろ
74名無しさん@お腹いっぱい。
垢版 |
2021/01/17(日) 23:32:57.31ID:GF9iGrUJ0
顔画像をheadで切り抜きしてるけど上下にすごい余白ができる
余白ギリギリで切り抜いてほしいんだけど、調節する方法あるかなぁ?
2021/01/17(日) 23:57:25.58ID:2v/zwxJ80
>>74
headはそもそも頭部全体を切り抜くってアルゴリズムだから余白が多いのが当然だろ
head>Whole>full>harfで範囲が小さくなるんだから変更するしかないんじゃない?
76名無しさん@お腹いっぱい。
垢版 |
2021/01/19(火) 00:28:39.19ID:LTGWcQnS0
>>75
そりゃそうだが縦幅の半分近く無駄にしている。
おかげでVRAM馬鹿食いの割に低解像度。
もうちょっと何とかなりそうだと思うが。
2021/01/19(火) 07:29:56.86ID:FSUOoPPp0
head最強だよな まんま本人に仕上がる
78名無しさん@お腹いっぱい。
垢版 |
2021/01/19(火) 22:18:21.22ID:LTGWcQnS0
3080Tiが無期限延期になってしまった
3090にせざるを得ない
79名無しさん@お腹いっぱい。
垢版 |
2021/01/19(火) 23:21:07.32ID:SW7ZtdJ70
ReadyToMerge model 良さそうだね
2021/01/20(水) 11:05:33.37ID:P6q7UDGa0
ときにみんなどこいったの?解散?
81名無しさん@お腹いっぱい。
垢版 |
2021/01/20(水) 19:37:33.17ID:E0VTRomg0
俺はここにいるぞ
82名無しさん@お腹いっぱい。
垢版 |
2021/01/20(水) 21:12:28.49ID:Eo6BWrtN0
ReadyToMergeモデルってのはごく少ないtrain回数で高品質なマージができるって意味?
特別なプログラムがあるわけじゃなくて、効率的なtrainのやり方って感じかな。
2021/01/21(木) 09:44:21.31ID:xgOvuSRQ0
RTMmodelはパターン豊富なsrcとdstにPretrain用データを使って事前に十分学習させとけば、本番のdstで全く学習せずにいきなりmergeしてもいい感じに合成できるよってことで合ってる?
2021/01/21(木) 10:01:04.01ID:79km7b5Y0
モデルの使いまわしを1つのsrcだけで効率よくするって感じか
2021/01/22(金) 23:56:02.92ID:65mc9Ut00
>>77
headって、背景やsrcとdstの髪型に気を遣って
AAEとかDavinci Resolveで後処理しないといけないんでしょ?
2021/01/23(土) 09:02:57.54ID:fUZZe34M0
>>85
確かに背景と髪の境界線は多少ちらつくので気になる人は映像処理するといいかも。
自分は我慢できる範囲。そこはデメリットかな。ちなみに顎と首の境界線はwf同等なので
だいじょうぶ。マスクはwfよりかはxseg-editの枚数増える感じ。なによりもdst関係なく
本人そっくりになるのがメリット。
2021/01/23(土) 11:35:03.15ID:6S5RB2j60
>>86
ふだん、耳・前髪・横髪含む前頭部とメガネ残しでxseg-editして、wfで回してるんだけど
趣旨考えるとやっぱりheadに移行したほうがいい結果いなりそうだな
xseg-editも髪の残す境界に悩まず全部マスクできれば枚数増えても逆に楽になるのかな
寝てる時とかの逆立ち毛や、長髪についても抽出した画像内では全部頭部としてマスク内に残してやってる?
88名無しさん@お腹いっぱい。
垢版 |
2021/01/23(土) 11:52:56.82ID:Wkj8eEdW0
てかヘッドってsrcの髪型も揃えるんよね?
resなんぼでやってる?
224とかじゃ小さ過ぎるか
2021/01/23(土) 14:18:05.56ID:fUZZe34M0
髪は長髪でも頭部としてマスクしています、さすがにすこし乱れているのまでは
カットしてますが。xsegが思ったよりすごくて、長髪でもちゃんと学習してぴったり
合ってくるのは驚いた。マスクはdstもsrcも両方必須ですね。resは448です。
mrにあるpretrainモデルもheadだと少ししかないのであまり選択の余地はないですね。
90名無しさん@お腹いっぱい。
垢版 |
2021/01/23(土) 14:37:43.30ID:Wkj8eEdW0
>>89
448は俺のpcじゃ無理だ!
GPUは3090ですか?
2021/01/23(土) 14:57:58.15ID:2xJk3k4U0
>>89
ほうほう
fでそれなりに満足できてたけどheadに手を出してみたくなった
2021/01/23(土) 15:11:05.79ID:XmNWxByt0
headて短髪インタビューじゃないと厳しいかなと思ってたんだが凄いな
マスク処理、448のトレイン
作るのにどれくらいかかるんや...
2021/01/23(土) 16:08:12.73ID:1USTDxg40
1660sでは無理そうだな・・・
2021/01/23(土) 16:31:38.58ID:fUZZe34M0
>>90
gpuはそうです。wfで満足したかったが、dstの相性が悪いのか、モデルが似なかったので
やむなくですね。
95名無しさん@お腹いっぱい。
垢版 |
2021/01/24(日) 09:34:39.67ID:PR92PFvw0
俺の3080(VRAM10GB)ではres352のbatch4でギリギリ回る
res448なら16GBは最低必要だろうね
8GBのグラボでSLIを組むか、3060の発売を待つか、3090がいいだろうね。
2021/01/24(日) 10:26:30.03ID:Vxr9RyIP0
2080tiどころかTITAN Xでも怪しいくらいか
3080tiは凍結っぽいし現状は3090になるな
Vramもメモリ増設くらい簡単に増やせればいいのに
2021/01/24(日) 10:49:05.70ID:GaLlRUJ/0
これのために3090買えてマスクに時間かけられるやつがどれくらいいるかだな...
使えるシーンも限定されるだろうし
98名無しさん@お腹いっぱい。
垢版 |
2021/01/24(日) 14:16:52.68ID:PR92PFvw0
>>96
TITAN RTXならアリだね、
パソコン工房で14万で販売されてた形跡がある
演算速度は3080に負けるらしいけど、14万なら魅力的。
2021/01/24(日) 21:00:07.87ID:GAwZNhtZ0
>>89
情報ありがとう!やってみてダメだった時の徒労感が嫌で忌避してたけど
headでやってみる気力がわいてきた!

>>95
1080ti(11G)でliae-ud、res384、ae等デフォ、batch5は行けそう
adabelief切ればres416ならどうかなっても思ったけど、切る気にはならなかった。
2021/01/24(日) 23:04:26.06ID:u14CN91H0
mrにはheadであと 320と240の pretrain済モデルがあるので
自分の環境に合ったので試してみるといいかも。
2021/01/27(水) 01:34:22.08ID:gC+kjNVK0
なんかみなさんResが高いですねえ
いけるのか?
2021/01/29(金) 17:51:49.93ID:xArR9kmF0
>>96
VRAMとかは基盤に直付けで無いと、低速なのかな
メモリだけCPUのメインメモリも使うと、遅くなるんですかねえ
2021/01/30(土) 01:06:24.02ID:qNhMh9NT0
モデルの使いまわしをしてるんですが、プレビュー上のグラフ表示だけリセットする方法ってないですか?
まぁ気にするなって話なんですが
2021/01/31(日) 10:17:39.06ID:AUjud4w80
たしかに気になるw
105名無しさん@お腹いっぱい。
垢版 |
2021/01/31(日) 10:32:33.04ID:qldx7Bc70
俺は高解像度だとプレビューの顔画像が1個になるのを何とかしたい
2021/02/06(土) 20:31:00.06ID:7UxgC66u0
フォーラムに上がってるジェネリックxsegの使い方がよくわからないんですが
modelフォルダに突っ込んでマージするだけでsrcとdstにはxsegマスクを
特に必要とせず済むように使うためにあるんですか?
それとも5.XSeg.optional) trained mask for data_src - apply等を実行して
srcやdstに適応してからまたxsegのtrainをしてやる必要があるんですか?
107名無しさん@お腹いっぱい。
垢版 |
2021/02/06(土) 20:44:24.21ID:C9Pbm6kr0
やってみれば良いんじゃないの
恐らくフォルダに突っ込んどけばマージは出来る
でもapplyした方がtrainの効率は良いだろう
2021/02/07(日) 13:19:04.10ID:EISinFZl0
顔入れ換える系のこれより、ひんむく系の方が画質悪いけど興奮するわ

違う?
2021/02/07(日) 16:11:40.42ID:abPpdZtz0
>>108

ひんむく系は今どっかあるの?
2021/02/07(日) 17:19:02.06ID:EISinFZl0
>>2のフォーラムのtools and appsに前から専用スレッドがたってる
スタンドアロンツールとオンラインサービスがある
オンラインのやつはコツ掴めば中々すごい画像を生成する
解像度が600*600と低いが..
2021/02/07(日) 17:25:32.17ID:EISinFZl0
現状解像度低いから、興奮するのかも知れんが
顔入れ換える系は高解像だから、顔にあったボディをしっかり選ばないと俺の脳は受け付けないのかもしれん
2021/02/07(日) 22:54:52.32ID:5hohS1jB0
すみません
headで学習してますが、いざmergeSAEHD実行してもdstの顔しかでてきません
dstもsrxもheadで切り抜いてます。
対処方法教えてくださいませんか
2021/02/08(月) 00:25:59.91ID:PLWgGX+60
pretorainモデルの使い方がわかりません
普通に実行するとdstとsrcとは違う外人の顔がでてきます
114名無しさん@お腹いっぱい。
垢版 |
2021/02/08(月) 02:09:41.03ID:t6ym3FLe0
trainの下準備みたいなもんだから、その知らん外人でtrainするのがpretrain
2021/02/08(月) 06:26:59.84ID:1E+vYgdz0
ありがとうございます。
pre trainの効果は、トレインが早い、角度に強くなるであってますか
2021/02/08(月) 14:28:47.57ID:Yy3LRlrT0
>>110
どれのこと言ってるの?
顔入れ替えと服脱がすやつしかなくないか?
2021/02/08(月) 19:40:15.85ID:PLWgGX+60
>>114
ありがとう
2021/02/08(月) 20:24:06.83ID:GUE+qRrc0
pretrain用のpakの中身は「自分が過去に使ったsrc/dstを適当に混ぜた物」と入れ替えるのお勧め
loss値じゃなくて、previewでキツい角度や表情がキレイになる位まででおk
2021/02/10(水) 20:30:39.54ID:96f2SSGm0
aedimは512にしてますか?
pretrain見るとあんまりしてないからそこまで重要じゃないのかな
2021/02/10(水) 21:56:17.31ID:k4diDgZd0
aedims512でadabelief trueにするとbatch size1でもtrain始められなくない?
2021/02/11(木) 09:50:18.65ID:ykF3+vXs0
pretrainではなく普通のトレーニング済みモデルってどこかにありますか
2021/02/11(木) 10:04:39.76ID:xZn5iYJL0
捕まりたいのか
2021/02/11(木) 10:08:17.03ID:ykF3+vXs0
だからみんなpretrainでアップしてるのか
pretorainの効果って今一つわからないのですが、結局Iter1から自分でやるんですね
train時間短縮で使いまわせらたと思ったのですが
2021/02/11(木) 15:49:01.22ID:a5Q0d3ss0
ガイジランドへようこそ!
2021/02/11(木) 17:09:50.55ID:EWg0+ITJ0
pretrain無しで一から回してみればいいと思うよ
未実装だった頃は200k回してやっと何となく見れるレベルって感じだった記憶がある
2021/02/13(土) 10:01:23.08ID:UyM85h3B0
いろんなsrc、dstを混ぜて、Trainモデルをアップすれば、
誰が誰だか分からない平均顔?
捕まるかな?
127名無しさん@お腹いっぱい。
垢版 |
2021/02/13(土) 18:30:19.20ID:hRYiEizk0
Mask Editorで画像を確認するとき、一気に画像を飛ばすキーとか無いですかね・・?
3万枚とか、ずーっとDボタンを押しっぱなしで確認するのしんどい。
解像度1024だと送りのスピードも遅いし。
128名無しさん@お腹いっぱい。
垢版 |
2021/02/13(土) 18:45:24.37ID:+mwpZ2KX0
shiftDでちょい速くなる程度か
最後の方だけ確認したい時なんかは前半の画像を別フォルダに逃したりしてるわ
2021/02/14(日) 13:02:52.41ID:QlYS4rBG0
3080と3090どっち買うか迷ってるんだけど、同じ設定で比べると時間的にどのぐらい差がありそう?
2021/02/14(日) 14:59:32.16ID:VDn4FPbX0
メモリが多いとbatch数増やせるから
その分trainは早く終わる
1070無印から3090に載せ替えたけど
3〜4倍のbatch数で動いたよ
cudaコアも5倍なのでかなり速くなった
寝る前にtrain始めて起きたら完成していると言ってた人がいたけど
自分も同じ感じ
3080は持っていないのでわからない
2021/02/14(日) 17:43:35.88ID:uRn3MwTq0
プレビューでdstの顔向きをsrcが追従してくれません
src不足でしょうか
132名無しさん@お腹いっぱい。
垢版 |
2021/02/14(日) 17:55:23.04ID:+Be3z2U10
だろうね
■ このスレッドは過去ログ倉庫に格納されています
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況