【AIコラ】fakeapp その13【革命】

■ このスレッドは過去ログ倉庫に格納されています
1
垢版 |
2020/03/08(日) 21:28:26.92
deepfakesの技術交換スレです。

前スレ
【AIコラ】fakeapp その12【革命】
https://phoebe.bbspink.com/test/read.cgi/ascii/1580015540/

テンプレに書いてない質問はok
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2020/11/20(金) 19:53:48.60ID:dskYLWZA0HAPPY
これはいけると思っても微妙に似てない
マッチング難しい・・・
671名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
垢版 |
2020/11/20(金) 21:22:18.95ID:28OLAj410HAPPY
>>651
ごめんheadの間違い
672名無しさん@お腹いっぱい。 (HappyBirthday! 12b8-cChY)
垢版 |
2020/11/20(金) 21:24:19.25ID:28OLAj410HAPPY
ところで、3000シリーズの3Dベンチマークスコアだと
メモリクロックも重要になるって話を聞いたけど(VRAMじゃない普通のメモリね)
DFLも影響するかな。
わかる人いる?
2020/11/20(金) 21:50:28.64ID:lXV7QsNn0HAPPY
なんで影響あると思ったの?
2020/11/21(土) 00:42:20.95ID:lLtl/hBb0
3000シリーズの性能高いから安いメモリだと足引っ張るかもと思った。根拠はない。
2020/11/22(日) 07:07:48.29ID:g0BUD64r0
繋がり眉毛問題だけどsrcの前髪が眉にかかってる画像だけxsegで髪のかからない部分をマスクしてtrainすれば解消する?
2020/11/22(日) 07:38:06.54ID:EgGZuU2e0
dst×dstの学習で有効なのはliae-hdとかみたい
df-hdだと前髪の残骸の黒い物が。。
2020/11/22(日) 09:37:08.41ID:CPUrfaaZ0
いつもres192liae-hdでやってて初めてliae-uhd使ってみたんだけど全然loss値下がらん
時間も0.7msec/Iterくらいでいつもの倍くらいかかる
300kくらい回してやっと落ち着いてきたから一旦LRD trueにしてみたらbatch size2でもtrainスタート出来ず

DDR4 2666 32GB,i9-9900k,2080tiだけどGPUがボトルネックっぽい
どんな環境ならliae-uhd使いこなせるんですかね
678名無しさん@お腹いっぱい。 (ワッチョイ 068b-jfI9)
垢版 |
2020/11/22(日) 10:43:03.92ID:Qe8FXRgo0
最新のでliae-udにしてみたらどうだろう
2020/11/24(火) 23:01:35.36ID:3+PulNcVM
色々要求するとVRAMが足らないよなliae系はかなり食うし
2020/11/25(水) 19:16:18.38ID:CuXZwmIx0
素材スレのうなってもうた…
貞松大輔に対するグチやsrcに合う話題はどこですれば
2020/11/25(水) 19:27:40.19ID:3+9detNx0
なんか新しいアルゴリズムのアイデアないのかね
今のアルゴリズムでマシンパワーでごり押しするしかないのか
2020/11/25(水) 19:55:42.12ID:CuXZwmIx0
ゆうてCPU大事だし、fullHDならres192batch8で十分 それ以上はオーバースペック
2020/11/28(土) 12:48:32.85ID:hCIJHXj40
5600x RTX3070で顔抽出が2.0 it/s程度しか出ないけどこんなもん?
image sizeが768なのがダメなのかなぁ?
768→256程度に落とせば 速度は上がる気がするけど間違ってる?

設定入れるときに適当にENTER連打してたから768になってるけど
出来上がりに大して差がないなら256ぐらいに落としてもう一度回した方が良いのかな?
684名無しさん@お腹いっぱい。 (ワッチョイ ff90-W5Mj)
垢版 |
2020/11/28(土) 15:47:04.81ID:1wNVnHgm0
始めたばっかりの頃に持ってたGPUは微妙だったので、設定を解像度128、バッチ8、DFでやってたんだけど、
その後もうちょっといいGPUに変えて、解像度が夢の256でできるようになったのでもっと高画質でいけるだろうと思っていたが、
(バッチは4、DF)、解像度128のを最後のマージでスーパーレゾリューション?って数字をあげれば最終的に高解像度の顔になるから、
あんまり最初の解像度って関係ないんかなとおもったけど、どうなんでしょう?
解像度、バッチ、アーキテクチャーってのは、動く範囲内で取捨選択しないといけないけど、どれ優先が一番いいんでしょうね?
ちなみに、最近つくったモデルは、解像度128、バッチ4、liaeで、なんかこれが一番いいのではないかと思っていますが。
この設定は途中で替えれないから、最初にどれが最適か決めなきゃいけないから皆さんの意見が聞きたいです。
2020/11/29(日) 09:37:22.70ID:mhSRYID90
2070super8G、Re256、B9、Liae-udで安定
使いまわしModelを48時間まわして0.2くらい
2020/11/29(日) 14:06:50.34ID:Tpam6OoK0NIKU
その設定だと相当dims下げないと動かなくね
2020/11/29(日) 14:40:14.96ID:p18Ce+C00NIKU
res160-liae-dims512-batch8
RWtrueで0.5切ったらfalse→0.2切ったらLRDtrue→0.1切るまでtrain
mergeする時はbmmだけ150でcolorはrctかlct
maskはlearned-prd*learned-dst*Xseg-prd*Xseg-dst
これでなんとなくうまくいってる
所々怪しいけど誰に見せるでもないし必要十分かな
2020/11/29(日) 18:30:10.78ID:f9hYXlTt0NIKU
df-ud wholeface res386 batch3 VRAM8G
で満足してるのは少数派なのか。
2020/11/29(日) 18:51:05.76ID:7ob5oBlS0NIKU
386はなんか気持ち悪いから少数派だろうな
690名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
垢版 |
2020/11/29(日) 19:40:56.83ID:bnfTaNH00NIKU
32で割り切れる数字じゃなきゃダメだと聞いたが、そんな適当な数字でも動くんだね
ちゃんと動いてるのかどうかは知らんけど
2020/11/29(日) 20:30:44.81ID:RoG3tSlB0NIKU
32で割り切れるじゃなくて2の累乗だな
2020/11/29(日) 20:42:58.89ID:f9hYXlTt0NIKU
384の間違いだったw
2020/11/29(日) 20:48:21.82ID:1/zEu/6p0NIKU
PCオール換装ついでにDFL入れて試してみたけど要求するスペック、時間、負荷
どれも他のエロ技術とは格段に違い過ぎて悪い意味でハードル高いわ

PC購入費は除外したとして、自分の5600x RTX3070の構成だと20万回回すのにおよそ24時間
画像の吸出し+選別作業含めると+6時間はかかる
およそ3分程度の動画ですら 作成に30時間
モザイク破壊なら3000シリーズ動かないけど、2080なら2時間作品で6時間もあれば完成
高画質化なら2時間作品で24時間もあればいける

加えてSSDへのダメージ量もぶっちぎりでDFLが食うし
上記の1作品2時間にした場合の電気代はDFL9,600円 破壊なら60円、高画質化なら240円ぐらいになるの考えると
本当にコイツじゃないとダメなんだと思うぐらい入れ込んでる顔がないと、かなりやり続けるにはハードル高いわ

なれた人なら自分の1/10ぐらいにそれぞれの負荷減らせるもんなのかなぁ?
694名無しさん@お腹いっぱい。 (ニククエ ff8b-3i1O)
垢版 |
2020/11/29(日) 21:35:15.32ID:bnfTaNH00NIKU
コスト考えてるようじゃダメだよ
ディープフェイクはプライスレス
2020/11/29(日) 21:45:03.70ID:fJO2wTOfMNIKU
Colab Proでいいじゃない
2020/11/29(日) 22:08:29.54ID:E4IbaFhJaNIKU
>>693
ほんそれ
新しい技術ってことではじめは楽しかったけど
割に合わないよなあ
2020/11/30(月) 01:17:07.65ID:hJyLAQ15M
colabとか言うまた凄い技術があるんだなぁ
これならノートの低電力PCで動かせるし
結構なハイスペ割り当てられるから良さそうだが
どのGPU割り当てられるかによって動かすコード変わりそうなのと
コード少しはかけるレベルと米国居住の関門も突破する必要有るのが難易度高いわ

それクリアできる人なら電気代の観点や
騒音と廃熱、機器損傷の問題もクリア出来るし
自分のメインをゲームなり他のエンコにまわせるのもメリットデカイ
2020/11/30(月) 01:24:54.45ID:Vu2EyZLO0
どこぞのメンバー全員とか変に欲張ったりしなけりゃそんなtrainに時間取られたりしないでしょ
2020/11/30(月) 01:57:13.02ID:L3Lssn020
colabは遅い
そもそもリソース限られてるんだから話してるやつは自分の首閉めてるのわからん?
2020/11/30(月) 02:09:32.60ID:L3Lssn020
>>691
間違った訂正すんな
16の倍数(-dアーキは32の倍数)であってる
2020/11/30(月) 02:11:47.16ID:xmdANFb70
NY州の郵便番号調べて適当に入力したら契約できちゃったよ、Pro版(笑)
2020/11/30(月) 05:01:42.25ID:0SW/Bk/M0
解約できなくて泣くところまでセット
2020/11/30(月) 12:34:45.75ID:koWoITJ/M
dstもsrcも自分で選べて本人にしか見えない物が作れるんだから、マシン費用、train時間、電気代etc気にならない
いい時代になったもんだ
704名無しさん@お腹いっぱい。 (ワッチョイ d711-kGov)
垢版 |
2020/11/30(月) 15:03:51.28ID:NZ34c/SY0
ミスターディープフェイクの動画がDLできんのだが・・・
ワシさんのダウンローダー使ってたら今までは出来たんだけど
間違って拡張機能から削除しちゃったら
再インストールする時にもう拡張機能ストアにはないって出てきて困ってる

暗号化された分割動画ファイルが落とせるアドオン他にない?
それか昔のバージョンのワシのダウンローダー置いてあるところない?

お願いします
2020/11/30(月) 19:04:08.40ID:mavPp4f10
初めてやってみたけど化け物しか産まれなかったわ
26万回しても0.40を下回ること無かったってことはsrc側が悪いのかdstをほぼ取捨選択しなかったらからなのか
変換されてない表情もあったりした
20万回以降は0.4以降全く下がらなかった

srcは一応ブレてる画像は取り除いたつもりで抽出15000→7000枚程度にした
しかしマスク等は一切編集しておらず、前髪が少し被ってるのとかは除外しなかった

dstに関してはあまり取捨選択しなかったがぱっと見で分かるブレ画像のみ取り除いた
これで結局化け物しか産まれなかった
dst側は取り除いた部分があることについて逆に顔が変換されない時間帯があるのでは?と感じた

0.1や0.2に切るくらいに持っていける人は徹底的にマスク処理してるのかな??
706名無しさん@お腹いっぱい。 (ワッチョイ ff8b-3i1O)
垢版 |
2020/11/30(月) 19:08:56.11ID:JxNmtT260
なんでdstを取り除いた
2020/11/30(月) 20:13:59.58ID:PMod7TTd0
>>705
削除したdstはmergeするときに元に戻してないとその部分だけ顔変換されないよ。
顔抽出に失敗したdstならその部分だけ手動でやり直す。
dstの顔の角度がsrcにないとクリーチャーになりやすいね。
2020/11/30(月) 20:37:30.71ID:XbSg8MO60
faceset extractってwfよりfの方が抽出上手だね
いつからか抽出率悪くなったと思ったらwfになってたわ
2020/11/30(月) 21:04:16.83ID:Vu2EyZLO0
26万回して0.4ってのは
pretrainをしてないか甘いんじゃないかな
好きなsrcを入れるのはその後
2020/11/30(月) 21:11:06.74ID:mavPp4f10
>>706
>>707
なるほどそうなのね
参考にさせてもらったサイトだとdst側もブレ画像取り除くってあったからてっきり削除するんだと思ったけど
これでどうやって画像変換するのかと思ったらそういう事だったのか

と言う事はsrc側はクッキリ顔がわかる画像のみ使う(髪の毛が少しでもかかってる写真も除外する)
dst側は抽出した画像で完全に顔じゃない部分のみ取り除く

この2点を守れば大分改善されるって事かな?
一枚一枚気合入れてマスク処理はとても出来る気がしない
それでもsrc枚数を相当減らしたとしても、一枚ずつのクオリティをあげた方が結果的に綺麗に仕上がるのかな?
2020/12/01(火) 09:54:23.94ID:W+M4aEU40
十秒のdstでいいから、一度manualでextractしてみればいいよ
つーか過去スレ全く見てないだろ
712名無しさん@お腹いっぱい。 (ワッチョイW b776-JWtn)
垢版 |
2020/12/01(火) 14:22:52.09ID:+CtYVkxm0
>>693
知り合いで作った時の破壊力は凄まじいぞ
2020/12/01(火) 16:33:19.94ID:1ayHuz0u0
>>712
エアプ乙
素材が集められないじゃん
2020/12/01(火) 19:46:45.63ID:J8ghkzDF0
まず知り合いに似てるAV女優や好きな顔したグラビアアイドル探すんだよ
それが見つかればあとは根気次第で素敵なオカズが作り放題だ、まあそんな顔した人間見つけるって前提が難しいが
2020/12/01(火) 20:05:18.90ID:AiVrrgTR0
恥かくだけだからあり得ない妄想で語るなよ
2020/12/01(火) 20:33:56.10ID:W+M4aEU40
ある程度iterの伸びたDF系modelを流用すれば写真数枚でも結構出来るぞ
素材が豊富ならliae系だと髪型や輪郭の齟齬も巧い事trainで馴染ませてくれる
2020/12/01(火) 20:41:35.25ID:AiVrrgTR0
その程度じゃ正面以外はクリーチャー
はい論破
2020/12/01(火) 21:26:54.01ID:f/c4kQm90
普通知り合いとハメ撮りした映像srcに使うよね?
2020/12/01(火) 21:49:11.93ID:Nkx9cF1L0
>>718
そんなキレイに撮影出来るものなの?
2020/12/01(火) 21:52:41.28ID:749QyeiR0
Gigapixelで高画質化まではした
721名無しさん@お腹いっぱい。 (ワッチョイ ff8b-3i1O)
垢版 |
2020/12/01(火) 22:08:03.61ID:SP7n4Gx10
意味あるの?
2020/12/01(火) 22:10:57.93ID:AiVrrgTR0
劣化するだけで特に意味は無い
2020/12/01(火) 23:25:13.05ID:1DYHnSSa0
DFL の XsegEditor の使い方で教えてください

右上から「緑」(HotKey[2]) を選んで顔を囲うことでマスクが出来ているようなのですが、「赤」「青」は何のためにあるのでしょう?
まさか、RGB の色ごとにマスク作ることなんてしないですよね?

「緑」で顔を囲うのではなく、障害物の方を囲んで自動的に避けるよう train することは出来ないのでしょうか?
724名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
垢版 |
2020/12/02(水) 00:05:16.68ID:ud0WrYAl0
色は関係ないから好きなのどうぞ
左上の実践のがマスクで、その下の点線が障害物
2020/12/02(水) 12:34:10.91ID:M+kiswA60
>>724
ありがと!(やっぱり赤緑青は区別ないのか。。。

左の点線の使い方がわかってなかたのですが、そうか、これが障害物マスクなんですね。助かります
早速やってみよう
2020/12/02(水) 13:31:28.16ID:rjqqNMY+0
>>716
枚数少ないときはliaeの方がいいって過去スレで見たんだがdfのほうがいいのか?
727名無しさん@お腹いっぱい。 (ワッチョイW 9676-UvAp)
垢版 |
2020/12/02(水) 13:56:37.91ID:0ySnKGdC0
>>713
一緒に飲み食いできる仲ならみんなの様子を撮ってるフリをしてスマホで撮れば済む話だ
食事中なら今でもマスクはしてないしな
2020/12/03(木) 08:02:37.35ID:QLnoNr3J0
似てるとかは何も考えず5人別の顔で同じアングルの動画を5秒ずつ切り取ってtrainしたら
輪郭もパーツも全然違うのによく似る人と輪郭とかが近しいのに全然別人ってのが出て来た
ほんとに合わせてみないと分からんねこれ・・・
2020/12/03(木) 14:23:29.82ID:uhHeOsIp0
いろんなオプションがあるけど
それらを試行錯誤するより実際に一番効果的なのは素材選び

でも、元々の目的は好きな顔と映像をくっつけたいってことなんだから
素材選びで縛れられるのだったら本末転倒だよね
2020/12/04(金) 09:12:25.99ID:Dp5oNYgi0
素材厳選でちんこ萎れるのが難点
2020/12/04(金) 11:35:10.52ID:hFcPRa1A0
>>705
eyes pri 入れっぱなしでは?
732名無しさん@お腹いっぱい。 (ワッチョイ 4c8b-YB/h)
垢版 |
2020/12/04(金) 13:07:06.10ID:r2OPm5N20
俺もこさかなちゃんのVRDFにチンコ入れっぱなし
VRは見つめあえるから良いね
2020/12/05(土) 10:36:24.36ID:Zs7kwVjN0
仕上がりは別として、みんな、最大でどれくらいのイタレーション数回したことがあるんだろ?
734名無しさん@お腹いっぱい。 (ワッチョイ d2c0-9rBX)
垢版 |
2020/12/05(土) 16:49:20.16ID:bNAQ/T3U0
初めてDFL使ってるんだけど最後の静止画を動画に戻す工程だけができない。
↓のエラーが出るんだけどこれってどういう意味だろう?
Error initializing output stream 0:0 -- Error while opening encoder for output stream #0:0 - maybe incorrect parameters such as bit_rate, rate, width or height
2020/12/05(土) 19:03:42.53ID:c0W96cnr0
元動画のパラメータがおかしいって書いてるな
ビットレートかレートか縦横の画像サイズ
他のソフトでmerge後の画像を連結して動画にしたほうが早そう
2020/12/06(日) 16:39:07.06ID:t+TRfq+a0
いま生きてるのってこのスレしかない?
2020/12/06(日) 17:15:56.92ID:dplg1Nbl0
>>736
最近始めたからわからないけどそうじゃない?
前はもっとあったの?
2020/12/06(日) 17:18:21.40ID:dplg1Nbl0
ついでに聞きたいんだけど、色味を合わせるためにはマージの設定変えたらいいのかな?
素材選びの段階で決まっちゃう?
2020/12/06(日) 17:23:03.87ID:B0/DiutKM
trainでも寄せられるけどpreview見てもいまいち分からんから
自分はtrainの段階ではnoneでmergeでしか合わせてない
よっぽどかけ離れた色じゃなければ問題ないんじゃないかな
ただ背景の色に引っ張られるときはあるね
2020/12/06(日) 17:24:19.33ID:7mPqReH50
みんなは抽出した画像が逆さまになってる時どうしてる?
反転で戻すのか削除するのか
2020/12/06(日) 17:26:47.37ID:dplg1Nbl0
なるほどー
始めたてだからいろいろ悩みながらやってみるわ。
2020/12/06(日) 17:32:43.35ID:u5dWSy7k0
>>740
alignedのファイルは画像ファイルに見えるけどいろんなデータも入ってるから、いじるのはNG
マニュアルでRE-EXTRACTしないとだめ
2020/12/06(日) 18:08:30.26ID:dplg1Nbl0
顔画像抽出の時って似たような画像が何十枚もできるけど
これ全部あったほうがいいの?
2020/12/06(日) 18:33:09.70ID:XZEqMAsU0
srcは削ってもいいけどdstはぱっと見同じでも各フレームに対応してる
消すとそのフレームは元のままになるのでdstは残しましょう
2020/12/06(日) 20:26:41.83ID:JZexmdPR0
この手の子は説明しても無駄
2020/12/06(日) 21:13:48.72ID:dplg1Nbl0
>>744
ありがとう!
dstは各フレームに対応していたのか!
消したのでやってみたらなんかおかしいと思ったら・・・
2020/12/07(月) 11:45:16.47ID:PDhG/gSa0
srcを500枚でやってみたけどほぼ正面の動画に限れば意外と納得行く形になるな。
2020/12/07(月) 18:16:55.40ID:Qi8CcLKrK
srcの角度が足りてるかが重要だよな
2020/12/07(月) 18:18:22.47ID:+YI4ArM10
自分で作って自分で見るなら正面だけでもいいもんなあ
シーン選びがめんどくさくはなるが
2020/12/07(月) 18:18:57.58ID:oQUTyePX0
変顔集みたいなsrc継ぎ足したら表情の追従が劇的に改善した
行為中の顔は変顔だった?
751名無しさん@お腹いっぱい。 (ワッチョイW d2c0-TBV6)
垢版 |
2020/12/07(月) 18:34:06.83ID:PDhG/gSa0
枚数も大事なんだろうけどワンパターンじゃだめってことか。
変顔探すのって実は大変じゃないか。。。
2020/12/07(月) 19:22:43.82ID:lVIUA3ha0
>>751
有吉ゼミの激辛料理食いに出てくれたら解決するんだが
難点は字幕が顔にかぶりやすいことだな
2020/12/07(月) 20:27:13.17ID:CZif91rW0
face type hの範囲外であれば5%程度までの数の障害物有り画像(唇下までのマイク等)も収束に影響ない
ってmrでiperovが書いた、と過去スレに書いた気がする
2020/12/07(月) 20:28:50.38ID:iWq9JxKa0
本人じゃなくても雰囲気の似てる子を先に覚えさせてそれをベースにすれば
100枚くらいの写真でも主観ものならいい感じに出来る
2020/12/07(月) 21:02:58.42ID:RDrwRkoHa
>>745
それメンス
2020/12/07(月) 23:04:45.15ID:mlcZcFaz0
RTX3090期待してたんだけど、顔抽出がwf-512-100の設定で
1.4s/it でめっちゃ遅い。なにか間違っているんだろうか。バッチ数は
同じモデルで確かに2倍まで上げれたんだが。
2020/12/07(月) 23:38:35.75ID:MxK7KYRh0
結局128とかに画像を縮小してるからgpuでの推論にかかる時間自体はそんなにかからなくて他はcpuでの処理だからな
ssdの書き込み速度も大事
2020/12/08(火) 03:53:55.45ID:A4byW3Wi0
学習結果を再利用するときってmodelフォルダの中のデータをどれかコピペすればいいのかな?
みんな再利用してるのかな?
2020/12/08(火) 06:50:50.30ID:feSo48Wf0
目を閉じてるシーンにtrainすると殆ど薄目開けた状態になるんだけどこれって目を閉じたsrc不足?単純にtrain不足?
2020/12/08(火) 08:20:45.12ID:A4byW3Wi0
>>759
src不足じゃない?
761名無しさん@お腹いっぱい。 (ワッチョイ 7c10-Jcqy)
垢版 |
2020/12/08(火) 10:51:30.64ID:LAh0TGf50
>>693モザイク破壊と高画質化ってどうやってやるの??
2020/12/08(火) 12:02:44.18ID:8KvUIbmc0
>>761
高画質化はこれか
https://github.com/AaronFeng753/Waifu2x-Extension-GUI
2020/12/08(火) 15:06:45.88ID:o60HFREd0
>>759
目を閉じてる画像は瞬きしてる場面から抽出できる
2020/12/08(火) 17:28:59.05ID:RS192MT80
>>756
RTX3090なら顔抽出、4多重くらいで起動できるはず
多重数上げて早く終わらせることは可能(CPUコア数にもよるけど)
2020/12/08(火) 18:56:29.95ID:8FF249zpd
<<764
756ですが4多重とはdflを4つ立ち上げてdstを4分割にして顔抽出するということでしょうか?
2020/12/08(火) 19:21:26.28ID:RS192MT80
>>765
そうですね
DFLの解凍フォルダを4つコピーしてdstなりsrcなりのフレーム毎ファイル群を4分配して
各作業フォルダ内の目的の.batを実行します
自分は3多重まで試しましたがVRAMの余り具合から4多重はいけそうでした
2020/12/08(火) 20:09:49.49ID:GsVvrHSQ0
src画像が多かったから瞬きしてる前後を中心に選んだところ、イメージより目の細い子に仕上がった
対応力も求められるが、好きな顔を多く残すのって大事
2020/12/08(火) 20:13:36.36ID:BZ9ydVv70
そうね
自分の脳味噌が本人と認識している画像を多く残した方がよい
2020/12/08(火) 20:38:42.05ID:BxnUz1890
srcの名前と画像を隅っこに乗っけると脳みそがより補正しやすい説あるな
■ このスレッドは過去ログ倉庫に格納されています
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況