画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。
--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/
・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436
・waifu2xとその派生ソフト一覧
http://kourindrug.sa kura.ne.jp/waifu2x.html
・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437
・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/
・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html
・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
探検
【超解像】画像拡大ソフト総合スレ4【waifu2x】
■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。 (ワッチョイ 236c-uJ+0)
2018/10/16(火) 17:11:24.76ID:dbJHIFwl0235名無しさん@お腹いっぱい。 (ワッチョイ 1211-61/s)
2019/04/23(火) 19:04:57.82ID:9AsCe0/R0236名無しさん@お腹いっぱい。 (ワッチョイ 126c-38Qo)
2019/04/23(火) 19:41:10.60ID:03b0pFDu0 >>235
100x100倍 超解像ソフトかMugen Viewerあたりかな?
100x100倍 超解像ソフトかMugen Viewerあたりかな?
237名無しさん@お腹いっぱい。 (ワッチョイ 1211-61/s)
2019/04/23(火) 21:15:57.92ID:9AsCe0/R0238名無しさん@お腹いっぱい。 (スッップ Sdb2-WWOg)
2019/04/24(水) 11:58:56.38ID:KsYbIJEOd >>237
市販だとphotozoomproがあるけど、そういうのとは違う?
市販だとphotozoomproがあるけど、そういうのとは違う?
239名無しさん@お腹いっぱい。 (ワッチョイ 3673-YIQo)
2019/04/24(水) 15:16:53.64ID:PI6vk/zf0240名無しさん@お腹いっぱい。 (ワッチョイ 6776-7GOi)
2019/05/02(木) 17:19:45.09ID:9+FquZvj0 今更waifu2xcaffeのアップデートに気づいて
CUnetでは分割数で結果が変わると書いてあったので、
拡大のみ2倍 TTAなし 分割数512 と
拡大のみ2倍 TTAなし 分割数32を試してみたら、
512の方は文字の輪郭が二重にボケたりしますね。
これ処理速度的には結構困る。
TTAあり 512分割だと輪郭がマシにはなりますが、結局時間がかかりすぎるという。
CUnetでは分割数で結果が変わると書いてあったので、
拡大のみ2倍 TTAなし 分割数512 と
拡大のみ2倍 TTAなし 分割数32を試してみたら、
512の方は文字の輪郭が二重にボケたりしますね。
これ処理速度的には結構困る。
TTAあり 512分割だと輪郭がマシにはなりますが、結局時間がかかりすぎるという。
241名無しさん@お腹いっぱい。 (ワッチョイ 6776-7GOi)
2019/05/02(木) 17:22:15.36ID:9+FquZvj0 それにUpRGBとどう違うんだろううと
CUnet32分割とUpRGBをそれぞれ拡大のみTTAなしで比較してみたら、
CUnetの方は影付き文字の色が結構黒ずむ。
無条件にCUnetにすればいいと思ってましたけど考えものですね。
CUnet32分割とUpRGBをそれぞれ拡大のみTTAなしで比較してみたら、
CUnetの方は影付き文字の色が結構黒ずむ。
無条件にCUnetにすればいいと思ってましたけど考えものですね。
242名無しさん@お腹いっぱい。 (ワッチョイ 6776-7GOi)
2019/05/02(木) 17:53:13.44ID:9+FquZvj0 UpResNet10モデルも分割数で違いがあるみたいなので試してきた
分割数が多い512だと影付き文字の色が黒ずみますが、
分割数が少ない128以下だと影付き文字の色味がそのままでした。
分割数でここまで如実に変化されるとちょっと怖くて使えない……
分割数が多い512だと影付き文字の色が黒ずみますが、
分割数が少ない128以下だと影付き文字の色味がそのままでした。
分割数でここまで如実に変化されるとちょっと怖くて使えない……
243名無しさん@お腹いっぱい。 (ワッチョイ 6fbb-R0y6)
2019/05/02(木) 18:09:08.97ID:cbh53kBe0 自分が使ってる環境ではCUnetよりUpResNet10をもっぱら使ってるけど
大体処理する画像数が30-300くらいまでで
最初に240-256で速度出そうな方で変換して結果確認
おかしな画像があったら38以下の分割でバッチ数多目で試すって感じで使ってる
大体処理する画像数が30-300くらいまでで
最初に240-256で速度出そうな方で変換して結果確認
おかしな画像があったら38以下の分割でバッチ数多目で試すって感じで使ってる
244名無しさん@お腹いっぱい。 (ワッチョイ 6776-7GOi)
2019/05/02(木) 18:23:55.66ID:9+FquZvj0 私はDVDの高解像度化に使っているのでどうしても画像数が数百万程度になっちゃうので、
ところどころサンプルを抜き出して目視チェックはできますが全部チェックは流石に無理なので極力汎用的な設定を模索してるんですよね。
今のところはまずDVDのアナモルフィックをlanczos3で行い、その後Waifu2x-caffeで
UpRGB noise-scale level0 4x TTAのオプションでやるのが一番色味の変化が少なかったです。
あと、アナモルフィックをbicubic(大抵のデコーダーで初期設定)で行った時点で、字幕の色が影付きだと悪くなるの結構罠だと思う。
ところどころサンプルを抜き出して目視チェックはできますが全部チェックは流石に無理なので極力汎用的な設定を模索してるんですよね。
今のところはまずDVDのアナモルフィックをlanczos3で行い、その後Waifu2x-caffeで
UpRGB noise-scale level0 4x TTAのオプションでやるのが一番色味の変化が少なかったです。
あと、アナモルフィックをbicubic(大抵のデコーダーで初期設定)で行った時点で、字幕の色が影付きだと悪くなるの結構罠だと思う。
245名無しさん@お腹いっぱい。 (ワッチョイ 6211-whR5)
2019/05/02(木) 19:04:39.27ID:cPGK5p3k0 分割サイズが大きいほうがオーバーヘッドが少なくなって画質が上がりそうな気がするけど小さいほうが画質いいの?
周辺の画素の情報を拾いすぎてアーティファクトみたいなの出してるのかな
周辺の画素の情報を拾いすぎてアーティファクトみたいなの出してるのかな
246名無しさん@お腹いっぱい。 (ワッチョイ 6776-7GOi)
2019/05/02(木) 19:19:19.97ID:9+FquZvj0 しばらく連投で愚痴った割に具体例を出さないのも失礼かなと思って、用意してきました。
aの影に変な輪郭ができてるのが分かると思います。
CUnet noise_scale level0 2x TTAなし 32分割
https://imgur.com/kBpgbUp
CUnet noise_scale level0 2x TTAなし 512分割
https://imgur.com/VsKqYtG
aの影に変な輪郭ができてるのが分かると思います。
CUnet noise_scale level0 2x TTAなし 32分割
https://imgur.com/kBpgbUp
CUnet noise_scale level0 2x TTAなし 512分割
https://imgur.com/VsKqYtG
247名無しさん@お腹いっぱい。 (ワッチョイ 6776-7GOi)
2019/05/02(木) 21:41:46.37ID:9+FquZvj0 ところでいくらWaifu2xといえど4xぐらいまで拡大すると流石に輪郭がボケて来るので、
みなさんシャープとか掛けてらっしゃると思うんですけど、
おすすめのシャープ系フィルターを持ったソフトありませんか?
複数画像に一括でシャープ掛けられるソフトあんまり持って無いので、
おすすめがあればぜひお聞きしたい。
みなさんシャープとか掛けてらっしゃると思うんですけど、
おすすめのシャープ系フィルターを持ったソフトありませんか?
複数画像に一括でシャープ掛けられるソフトあんまり持って無いので、
おすすめがあればぜひお聞きしたい。
248名無しさん@お腹いっぱい。 (ワッチョイWW 4fda-fbFq)
2019/05/03(金) 02:47:34.42ID:DObikpjE0249名無しさん@お腹いっぱい。 (ワッチョイ 06ac-51S+)
2019/05/03(金) 03:47:50.70ID:mYwZ7YE60250名無しさん@お腹いっぱい。 (ワッチョイ 8200-1v1a)
2019/05/03(金) 06:17:47.31ID:Aq0MIe3J0 >>247
Neat Imageての調子よかったな
Neat Imageての調子よかったな
251名無しさん@お腹いっぱい。 (ワッチョイW e2f4-IcTs)
2019/05/03(金) 07:01:42.31ID:Nmuz6OTQ0 複数回で輪郭ボケは仕方ないと思う。
思いつきだけど案外warpsharp弱目に掛けると悪くなさそう。
思いつきだけど案外warpsharp弱目に掛けると悪くなさそう。
252名無しさん@お腹いっぱい。 (ワッチョイWW 27cf-JJ5l)
2019/05/03(金) 08:40:41.21ID:grJEhKaX0 分割は最小限で行うべし
253名無しさん@お腹いっぱい。 (ワッチョイ 6211-whR5)
2019/05/03(金) 12:00:55.20ID:AbMWNQh90 分割サイズが大きいほうが無数の断片に分割されるって思ってない?
実際は分割サイズが大きいほど分割されないよ。
例えば元の画像のサイズが400x400で分割サイズが200のときは200x200のブロックに4分割して処理するみたいな感じ。
実際は分割サイズが大きいほど分割されないよ。
例えば元の画像のサイズが400x400で分割サイズが200のときは200x200のブロックに4分割して処理するみたいな感じ。
254名無しさん@お腹いっぱい。 (ワッチョイWW e2df-JJ5l)
2019/05/03(金) 13:04:11.40ID:7POfNBBv0 分割の表記を変えたほうがいいかもしれんね
・現状のままだと
数値=分割したブロックの縦横それぞれのドット数
・プログラムを書き換えて何分割するかに変更した場合
数値=分割数
現状のままで数値が小さいほうがきれいに仕上がる点を考えると、最小ドット数実行モードみたいなのを設けておけば、
ユーザーが分割数だのドット数だのに煩わされずに1番きれいな画像を簡単に得られることにはなる
ただし、最小ドット数にするとものすごく多数に分割されるわけだから実行時間は長くなるだろうけど
CUnetなどで実写モデルがメモリーオーバーする件も、最小ドット数モード限定で装備できないものか
最小ドット数であれば演算時に必要とするメモリーの量も最小限で済むだろうし
このソフトを使いたいユーザーは、速さより品質を重視するユーザーのほうが多いだろうから、分割しまくることによる実行時間の増加は許容されるだろうし
・現状のままだと
数値=分割したブロックの縦横それぞれのドット数
・プログラムを書き換えて何分割するかに変更した場合
数値=分割数
現状のままで数値が小さいほうがきれいに仕上がる点を考えると、最小ドット数実行モードみたいなのを設けておけば、
ユーザーが分割数だのドット数だのに煩わされずに1番きれいな画像を簡単に得られることにはなる
ただし、最小ドット数にするとものすごく多数に分割されるわけだから実行時間は長くなるだろうけど
CUnetなどで実写モデルがメモリーオーバーする件も、最小ドット数モード限定で装備できないものか
最小ドット数であれば演算時に必要とするメモリーの量も最小限で済むだろうし
このソフトを使いたいユーザーは、速さより品質を重視するユーザーのほうが多いだろうから、分割しまくることによる実行時間の増加は許容されるだろうし
255名無しさん@お腹いっぱい。 (ワッチョイ 6776-7GOi)
2019/05/03(金) 19:58:39.91ID:r6zMaToM0 一日掛けて画像補間のためのディープラーニングの用意してたら、avastがいくつかライブラリ削除しやがったせいでやりなおしになった……
256名無しさん@お腹いっぱい。 (ワッチョイWW 4fda-fbFq)
2019/05/03(金) 20:10:52.12ID:DObikpjE0 cudnnってDLしたファイルをフォルダに入れるだけだよね?
何故か初期化失敗で読み込まないんだけど、GUIじゃ使えない?
何故か初期化失敗で読み込まないんだけど、GUIじゃ使えない?
257名無しさん@お腹いっぱい。 (ワッチョイ cb73-ahOC)
2019/05/03(金) 20:15:48.54ID:iDHhZedk0 ドライバが古いとか
258名無しさん@お腹いっぱい。 (ワッチョイ 6776-7GOi)
2019/05/03(金) 21:47:43.60ID:r6zMaToM0 ちゃんと
cudnn64_7.dll
をwaifu2x-caffe.exeと同じフォルダに入れてあったら動くはず。GUI版で動作確認してる。
cudnn64_7.dll
をwaifu2x-caffe.exeと同じフォルダに入れてあったら動くはず。GUI版で動作確認してる。
259名無しさん@お腹いっぱい。 (ワッチョイ 6776-7GOi)
2019/05/03(金) 23:00:43.62ID:r6zMaToM0260名無しさん@お腹いっぱい。 (ワッチョイWW 4fda-fbFq)
2019/05/04(土) 12:18:47.40ID:g8nWmqR40 >>258
原因が判明。
Xeon CPUx2+GTX1060で使ってんだけど、Core-i7+GTX1060のサブPCで試したら使えた。
OS、ドライバー等ソフトの環境は同じ。まさかCPUのせいとは。
原因が判明。
Xeon CPUx2+GTX1060で使ってんだけど、Core-i7+GTX1060のサブPCで試したら使えた。
OS、ドライバー等ソフトの環境は同じ。まさかCPUのせいとは。
261名無しさん@お腹いっぱい。 (ワッチョイ 6776-gJ33)
2019/05/05(日) 01:13:29.26ID:61owYgJd0 Waifu2x-caffeのReadmeには
TTA は指定するとPSNRが上がるよ
ぐらいにしか書いてないけど、
実際CUnetモデルを使う分にはアーティファクトが結構抑制される。(少なくとも当方の環境では)
今はEDSRを使った拡大を試してみてるんだけど、
Waifu2x(CUnet, TTA)に比べると、4xでも輪郭がくっきりしてる代わりにアーティファクトがちょこちょこでてしまうから、
誰かEDSRとTTA組み合わせてきてくれないかなあ、EDSRはNTSCサイズにそのまま使っても4xに15秒ぐらい(GTX1080)かかるから、
TTAなんてやったら余裕で分超えそうだけど
TTA は指定するとPSNRが上がるよ
ぐらいにしか書いてないけど、
実際CUnetモデルを使う分にはアーティファクトが結構抑制される。(少なくとも当方の環境では)
今はEDSRを使った拡大を試してみてるんだけど、
Waifu2x(CUnet, TTA)に比べると、4xでも輪郭がくっきりしてる代わりにアーティファクトがちょこちょこでてしまうから、
誰かEDSRとTTA組み合わせてきてくれないかなあ、EDSRはNTSCサイズにそのまま使っても4xに15秒ぐらい(GTX1080)かかるから、
TTAなんてやったら余裕で分超えそうだけど
262名無しさん@お腹いっぱい。 (ワッチョイ e2b1-lccj)
2019/05/05(日) 02:34:10.45ID:KctNE4Ca0 Linux環境でwaifu2x-ncnn-vulkanをビルドしてみたんだが
Mesa19.0.3だとfp16s使ってたのが
Mesa-Gitだとint8sを使うようになった
自分の環境ではそれで前者は33秒かかった処理が後者だと29秒になった
VK_KHR_shader_float16_int8対応の有無によるものだろうけど具体的にはわからん
Mesa19.0.3だとfp16s使ってたのが
Mesa-Gitだとint8sを使うようになった
自分の環境ではそれで前者は33秒かかった処理が後者だと29秒になった
VK_KHR_shader_float16_int8対応の有無によるものだろうけど具体的にはわからん
263名無しさん@お腹いっぱい。 (コードモWW 27cf-JJ5l)
2019/05/05(日) 06:04:51.50ID:YGDAWLlo00505 >>261
ESDRって何ぞ?
ESDRって何ぞ?
264名無しさん@お腹いっぱい。 (コードモ 6211-whR5)
2019/05/05(日) 08:03:09.55ID:6VIw4tX500505 >>261
EDSRで綺麗に拡大できないのはこれのせいだろうね
waifu2xだと縮小時のフィルタを何種類かランダムで使用して学習してるから問題が起きにくいけど
https://twitter.com/ultraistter/status/1048561959187009542
> 論文だと学習データの縮小アルゴリズム固定しているの多いけど、これやると使ってる縮小アルゴリズムにオーバーフィッティングしてて同じ縮小でベンチマークやるから精度良いことになるけど、
> 現実ではなにが使われているか分からないので変なノイズ出たりで使い物にならなくなる
https://twitter.com/5chan_nel (5ch newer account)
EDSRで綺麗に拡大できないのはこれのせいだろうね
waifu2xだと縮小時のフィルタを何種類かランダムで使用して学習してるから問題が起きにくいけど
https://twitter.com/ultraistter/status/1048561959187009542
> 論文だと学習データの縮小アルゴリズム固定しているの多いけど、これやると使ってる縮小アルゴリズムにオーバーフィッティングしてて同じ縮小でベンチマークやるから精度良いことになるけど、
> 現実ではなにが使われているか分からないので変なノイズ出たりで使い物にならなくなる
https://twitter.com/5chan_nel (5ch newer account)
265名無しさん@お腹いっぱい。 (コードモ 6211-whR5)
2019/05/05(日) 08:10:27.99ID:6VIw4tX500505 EDSRの論文著者がバイキュービックでガチガチにトレーニングしてるからそれ以外の画像だと綺麗に拡大出来ないって言ってる
https://github.com/thstkdgus35/EDSR-PyTorch/issues/34#issuecomment-389725742
https://github.com/thstkdgus35/EDSR-PyTorch/issues/34#issuecomment-389725742
266名無しさん@お腹いっぱい。 (コードモ 6776-gJ33)
2019/05/05(日) 12:12:11.20ID:61owYgJd00505267名無しさん@お腹いっぱい。 (コードモ 6776-gJ33)
2019/05/05(日) 12:19:11.63ID:61owYgJd00505 そういえばちょっと前にCUnetやUpResNet10では分割数で出力結果が変わってしまうから
分割数と実行時間のトレードオフみたいな話題が出てたけど
ディープラーニングが一般化する以前に使われていた
ループエンコーディングを利用した高解像度拡大アルゴリズムをちょっと応用して。(東芝がやってたやつ)
1. CUnet分割512で拡大
2. 各区画を縮小して、元画像と差分を取る。
3. 差分の大きな区画に関しては、拡大に際しアーティファクトなどが発生していると考えられる。
4. 差分の大きな区画のみ分割を半分程度にして拡大しなおす。
以下くりかえし。
ってのはできないのかな?
分割数と実行時間のトレードオフみたいな話題が出てたけど
ディープラーニングが一般化する以前に使われていた
ループエンコーディングを利用した高解像度拡大アルゴリズムをちょっと応用して。(東芝がやってたやつ)
1. CUnet分割512で拡大
2. 各区画を縮小して、元画像と差分を取る。
3. 差分の大きな区画に関しては、拡大に際しアーティファクトなどが発生していると考えられる。
4. 差分の大きな区画のみ分割を半分程度にして拡大しなおす。
以下くりかえし。
ってのはできないのかな?
268名無しさん@お腹いっぱい。 (コードモ MM9f-JJ5l)
2019/05/05(日) 14:48:27.00ID:gD5f8BncM0505 究極を目指すのであれば、縦横3×3か5×5程度のミニブロック単位で処理して、拡大後のミニブロックどうしで再度整合性を取るのがいいような気もする
めちゃくちゃ時間かかるけど
めちゃくちゃ時間かかるけど
269名無しさん@お腹いっぱい。 (コードモ 6776-gJ33)
2019/05/05(日) 15:38:36.41ID:61owYgJd00505 ふと思ったんですけど、ノイズを除去するモデルは存在するのに、
アーティファクトを除去するモデルはないっぽい?のは何か大きな理由があるんですかね?
人間はそれを見てアーティファクトかそうでないかをある程度判断できるわけで、
素人的にはそういう人間の無意識のうちの振り分けを再現するのってニューラルネットワークは得意そうに見えるのだけれども。
アーティファクトを除去するモデルはないっぽい?のは何か大きな理由があるんですかね?
人間はそれを見てアーティファクトかそうでないかをある程度判断できるわけで、
素人的にはそういう人間の無意識のうちの振り分けを再現するのってニューラルネットワークは得意そうに見えるのだけれども。
270名無しさん@お腹いっぱい。 (コードモ MM02-R0y6)
2019/05/05(日) 16:39:29.34ID:4uUJLCU+M0505 >>267は手順2で拡大した大きさの元画像がないとできないから特に意味がないような
アーティファクトについては、正解となる元画像と縮小拡大画像を比較する学習原理からすると
現状の拡大モデルで既にアーティファクトをなくそうとはしているはずなわけで
アーティファクトを消すだけのモデルを作ったところで、ノイズ除去を二重に掛けるみたいな結果にしかならないんじゃないかな
アーティファクトについては、正解となる元画像と縮小拡大画像を比較する学習原理からすると
現状の拡大モデルで既にアーティファクトをなくそうとはしているはずなわけで
アーティファクトを消すだけのモデルを作ったところで、ノイズ除去を二重に掛けるみたいな結果にしかならないんじゃないかな
271名無しさん@お腹いっぱい。 (ワッチョイ 6776-gJ33)
2019/05/06(月) 03:09:12.68ID:WQB9nEdR0 RCANは実行時間的にTTAはやってないっぽい?ので、TTA処理を付けたしたらどうなるか実験してみる。
トレーニングじゃなくて中身に手を出すのは初めてなのでまあ、多分どっかでこけるでしょ。
トレーニングじゃなくて中身に手を出すのは初めてなのでまあ、多分どっかでこけるでしょ。
272名無しさん@お腹いっぱい。 (ワッチョイ 6776-gJ33)
2019/05/06(月) 16:22:40.78ID:WQB9nEdR0 ソースコード読んだりGANの理論見たりしててふと思ったんだけど、
わざとアーティファクトを発生させるGeneratorを作って、
ある画像にアーティファクトが発生しているかどうかを見分けるDiscriminatorも作って。
ここで学習させたDiscriminatorをArtifact Loss関数として
そこらの超高解像の損失関数に、付け加えて
もともとの損失関数の出力を極力小さく保ちつつ、かつArtifact Lossも小さく保つモデルとか作れないのかな?
わざとアーティファクトを発生させるGeneratorを作って、
ある画像にアーティファクトが発生しているかどうかを見分けるDiscriminatorも作って。
ここで学習させたDiscriminatorをArtifact Loss関数として
そこらの超高解像の損失関数に、付け加えて
もともとの損失関数の出力を極力小さく保ちつつ、かつArtifact Lossも小さく保つモデルとか作れないのかな?
273名無しさん@お腹いっぱい。 (ワッチョイW e2f4-IcTs)
2019/05/06(月) 20:42:31.88ID:2/IyLREF0 >>272画像指標は落ちそうだけど見た目は綺麗になるかもね
274名無しさん@お腹いっぱい。 (ワッチョイ 9f11-vM1y)
2019/05/10(金) 20:42:06.30ID:TUjQ7Fi60275名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/10(金) 23:38:50.29ID:w4J1WUH60 VulkanのGUI版誰か作ってくれないかな…
276名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/14(火) 11:16:40.53ID:v9RTX3rB0 Ryzen7でVulkan使って変換しようとしても
[0 AMD Radeon(TM) RX Vega 10 Graphics] queueC=1 queueT=2 memU=2 memDL=0 memHV=1
[0 AMD Radeon(TM) RX Vega 10 Graphics] fp16s=1 fp16a=0 int8s=1 int8a=0
vkCreateShaderModule failed -3
local_shader_module 0000000000000000 waifu2x_preproc_int8s created
ってなって変換できないんだけどだれか原因わからないかな?
知識なくてお手上げ…
[0 AMD Radeon(TM) RX Vega 10 Graphics] queueC=1 queueT=2 memU=2 memDL=0 memHV=1
[0 AMD Radeon(TM) RX Vega 10 Graphics] fp16s=1 fp16a=0 int8s=1 int8a=0
vkCreateShaderModule failed -3
local_shader_module 0000000000000000 waifu2x_preproc_int8s created
ってなって変換できないんだけどだれか原因わからないかな?
知識なくてお手上げ…
277名無しさん@お腹いっぱい。 (ワッチョイ 9fb1-E9kx)
2019/05/14(火) 11:24:05.45ID:eUsXHcZ30 ncnnをちゃんと -DNCNN_VULKAN=ON を付けてcmakeしてるか
waifu2x-vulkanのCMakeLists.txtの
include_directories、link_directoriesをちゃんと書き換えてるか
はどう?
waifu2x-vulkanのCMakeLists.txtの
include_directories、link_directoriesをちゃんと書き換えてるか
はどう?
278名無しさん@お腹いっぱい。 (ワッチョイ 9fb1-E9kx)
2019/05/14(火) 11:27:53.64ID:eUsXHcZ30 ごめん、配布されてるバイナリを使ってるならドライバの問題かもしれない
279名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/14(火) 11:38:26.08ID:v9RTX3rB0 CMakeLists.txtってのはフォルダにないみたいですね…
もうちょっといろいろ試してみます
もうちょっといろいろ試してみます
280名無しさん@お腹いっぱい。 (ワッチョイWW 9f5d-uU7i)
2019/05/14(火) 11:42:28.85ID:XRvrSnpa0 >>276
自分も同じようになったけどGPUのドライバを更新したら使えるようになったよ
自分も同じようになったけどGPUのドライバを更新したら使えるようになったよ
281名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/14(火) 15:38:46.04ID:v9RTX3rB0 >>280
ドライバ更新したらいけた!ありがとう〜
ドライバ更新したらいけた!ありがとう〜
282名無しさん@お腹いっぱい。 (ワッチョイ 7790-qbCp)
2019/05/14(火) 17:13:58.82ID:0XCEBJGX0 >>275
バッチファイルで良いじゃん
バッチファイルで良いじゃん
283名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/14(火) 21:44:34.13ID:v9RTX3rB0 >>282
GUI作って公開してくれてる人がいたからありがたく使わせてもらってる
倍率は1倍と2倍以外は使えないみたいだけど
https://github.com/f11894/waifu2x-chainer-GUI
GUI作って公開してくれてる人がいたからありがたく使わせてもらってる
倍率は1倍と2倍以外は使えないみたいだけど
https://github.com/f11894/waifu2x-chainer-GUI
284名無しさん@お腹いっぱい。 (ワッチョイ eecf-2kBU)
2019/05/16(木) 17:14:24.32ID:uoSLJfe80 ・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も
-100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x1.jpg.html
+100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x2.jpg.html
嘘だろw
別の写真じゃないのか?
テクスチャー、フリンジ除去など バッチ編集も
-100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x1.jpg.html
+100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x2.jpg.html
嘘だろw
別の写真じゃないのか?
285名無しさん@お腹いっぱい。 (ワントンキン MM88-a8/e)
2019/05/16(木) 17:48:03.77ID:cUiSCQ1XM >>284
±0はないの?
±0はないの?
286名無しさん@お腹いっぱい。 (ワッチョイ eecf-2kBU)
2019/05/17(金) 13:24:05.39ID:Y6hmCawT0 >>285
元の記事のリンクが抜けていたな
・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も
https://dc.watch.impress.co.jp/docs/news/1184626.html
記事中にはない模様
本家の情報もあまりない
https://helpx.adobe.com/jp/lightroom-cc/using/whats-new/2019-3.html#texture
続く
元の記事のリンクが抜けていたな
・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も
https://dc.watch.impress.co.jp/docs/news/1184626.html
記事中にはない模様
本家の情報もあまりない
https://helpx.adobe.com/jp/lightroom-cc/using/whats-new/2019-3.html#texture
続く
287名無しさん@お腹いっぱい。 (ワッチョイ eecf-2kBU)
2019/05/17(金) 13:26:01.00ID:Y6hmCawT0 比較してくれているサイトがあった
・LightroomとCamera Rawに「テクスチャ」スライダーが追加 肌を簡単に綺麗に出来る!?
(なぜかリンク貼ると怒るので記事のタイトルを検索してください)
この手法(中周波成分を操作する方法)、どこかで聞いたようなと記憶があるんだけど思い出せない。
SONYのテレビだったかレコーダーあたりでこの手法のようなことをアピールしていたような記憶があるのだけど…
(他メーカーも口には出さないが、隠し味程度に使っているようだけど)
・LightroomとCamera Rawに「テクスチャ」スライダーが追加 肌を簡単に綺麗に出来る!?
(なぜかリンク貼ると怒るので記事のタイトルを検索してください)
この手法(中周波成分を操作する方法)、どこかで聞いたようなと記憶があるんだけど思い出せない。
SONYのテレビだったかレコーダーあたりでこの手法のようなことをアピールしていたような記憶があるのだけど…
(他メーカーも口には出さないが、隠し味程度に使っているようだけど)
288名無しさん@お腹いっぱい。 (アウアウクー MMd2-55EA)
2019/05/17(金) 18:45:53.22ID:pkl3fT7EM ソニー、繰り返しフルカラー描画できるフィルムを開発 熱で発色状態を変化 装飾のみならず写真画質も
https://dc.watch.impress.co.jp/docs/news/1185122.html
マイクロドットプリンター以来の新印刷方式登場かな?
なめらかな階調をカラー印刷で実現は素晴らしい
https://dc.watch.impress.co.jp/docs/news/1185122.html
マイクロドットプリンター以来の新印刷方式登場かな?
なめらかな階調をカラー印刷で実現は素晴らしい
289名無しさん@お腹いっぱい。 (ワッチョイ df29-1+kT)
2019/05/23(木) 15:04:57.20ID:pn9ulyEn0 すげえ
Samsungが1枚の写真や絵画からリアルな会話アニメーションを作成できる技術を開発
https://gigazine.net/news/20190523-samsung-ai-animate-painting/
https://i.gzn.jp/img/2019/05/23/samsung-ai-animate-painting/00.png
Samsungが1枚の写真や絵画からリアルな会話アニメーションを作成できる技術を開発
https://gigazine.net/news/20190523-samsung-ai-animate-painting/
https://i.gzn.jp/img/2019/05/23/samsung-ai-animate-painting/00.png
290名無しさん@お腹いっぱい。 (ワッチョイWW bfcf-QHkU)
2019/05/23(木) 15:10:52.41ID:eTN5wD9X0 別人が混じってるレベルw
291名無しさん@お腹いっぱい。 (ワッチョイ 076d-dCWx)
2019/05/23(木) 18:59:41.60ID:hHkb4j4M0 アニメ向けにチューンしたらlive2d要らなくなるな
292名無しさん@お腹いっぱい。 (ワッチョイ df11-5bJk)
2019/05/25(土) 21:26:28.66ID:FaY1aX6g0 低解像度ビデオもすぐに高解像度に変換できる超解像アルゴリズムTecoGANがすごい
https://ai-scholar.tech/treatise/tecogan-154/
https://imgur.com/1sH5fLl.gif
https://imgur.com/bOvZFqD.gif
https://imgur.com/re5hkgB.gif
https://www.youtube.com/watch?v=pZXFXtfd-Ak
https://ai-scholar.tech/treatise/tecogan-154/
https://imgur.com/1sH5fLl.gif
https://imgur.com/bOvZFqD.gif
https://imgur.com/re5hkgB.gif
https://www.youtube.com/watch?v=pZXFXtfd-Ak
293名無しさん@お腹いっぱい。 (アウアウウー Saab-c5/w)
2019/05/25(土) 22:27:12.02ID:vmLLAtmla すごそう
294名無しさん@お腹いっぱい。 (アウアウウーT Saab-Fpyl)
2019/05/25(土) 23:04:33.03ID:CKP6oNsUa カメラが動いてないと実質同フレームからしか補完できないだろうし、動きのある実写向きだろうか
リミテッドアニメにはあまり効果が無さそうな気がする
リミテッドアニメにはあまり効果が無さそうな気がする
295名無しさん@お腹いっぱい。 (ワッチョイ a7d0-1+kT)
2019/05/25(土) 23:43:44.58ID:7GZyvIYF0 >>292
これはすごい
これはすごい
296名無しさん@お腹いっぱい。 (ワッチョイWW 67cf-QHkU)
2019/05/26(日) 00:59:31.09ID:TWwSVOjY0 テコすごいなぁ
waifu2x最大の欠点である輪郭の違和感や斜め線の不自然さが感じられない
waifu2x最大の欠点である輪郭の違和感や斜め線の不自然さが感じられない
297名無しさん@お腹いっぱい。 (ワッチョイ dff1-UZr9)
2019/05/26(日) 11:29:04.16ID:pO82b6+30 ビデオ撮影の頃の特撮に使ってみたい。
298名無しさん@お腹いっぱい。 (ワッチョイ 8781-fhgQ)
2019/05/26(日) 12:24:05.47ID:1V1/pKG70 今までのGANと何が違うのかはわからなかった
299名無しさん@お腹いっぱい。 (アウアウクー MM5b-QHkU)
2019/05/26(日) 12:43:57.99ID:kBnnBn4FM300名無しさん@お腹いっぱい。 (ワッチョイ df11-5bJk)
2019/05/26(日) 15:17:53.68ID:cR7q12SK0301名無しさん@お腹いっぱい。 (アウアウクー MM5b-QHkU)
2019/05/26(日) 15:22:39.77ID:kBnnBn4FM >>300
一応あるんだね
誰かGUI化プリーズ!
ついでに、これって学習型超解像系では数少ない動画対応なわけだが、超解像実施時に同時に
インターレース解除も学習型で高品質にやってくれたらパーフェクトなんだけど、
さすがにそれは難しいのだろうか?
一応あるんだね
誰かGUI化プリーズ!
ついでに、これって学習型超解像系では数少ない動画対応なわけだが、超解像実施時に同時に
インターレース解除も学習型で高品質にやってくれたらパーフェクトなんだけど、
さすがにそれは難しいのだろうか?
302名無しさん@お腹いっぱい。 (ワッチョイ df27-B5bR)
2019/05/26(日) 21:29:46.06ID:+ch5bYuC0 インターレース解除なんて極端な話1フィールド分を縦2倍に拡大すればいいんでしょ
時間軸超解像だから下手に解像度落ちることも無いだろうし
あとはどのように間引きするかどうかと下手な編集でフィールドの順番狂う場合とかの補正だけど
時間軸超解像だから下手に解像度落ちることも無いだろうし
あとはどのように間引きするかどうかと下手な編集でフィールドの順番狂う場合とかの補正だけど
303名無しさん@お腹いっぱい。 (ワッチョイW dff4-zbZi)
2019/05/26(日) 21:56:57.82ID:jwyQIbn+0 KTGMCでいいじゃん
304名無しさん@お腹いっぱい。 (アウアウウーT Saab-Fpyl)
2019/05/28(火) 17:40:21.03ID:UrzVhcxva KTGMCって引き延ばしはneedi3っぽいから、画質は今時のAIには大分及ばないんじゃないの
静止画を縦2倍拡大するでもなく、3次元的にAIが補完してくれたら、ずっと画質が上がりそうに思える
静止画を縦2倍拡大するでもなく、3次元的にAIが補完してくれたら、ずっと画質が上がりそうに思える
305名無しさん@お腹いっぱい。 (アウアウクー MM5b-QHkU)
2019/05/28(火) 20:42:29.81ID:gEBPW0REM だよね
しかしディープラーニング系のインターレース解除の話って、なぜか出てこないよな
しかしディープラーニング系のインターレース解除の話って、なぜか出てこないよな
306名無しさん@お腹いっぱい。 (ニククエ 6791-1+kT)
2019/05/29(水) 14:25:15.09ID:ftyZ12/y0NIKU GoogleのAIが「ムービーの最初と最後のコマ」から途中のコマを生成することに成功
https://gigazine.net/news/20190529-ai-video-start-end-frames/
https://i.gzn.jp/img/2019/05/29/ai-video-start-end-frames/img-snap00034.jpg
研究者らは「マンガのコマから自動でアニメーションを作ることができるシステムを想像してみてください。
間違いなくアニメーション業界に革命を起こすでしょう」と述べています。
https://gigazine.net/news/20190529-ai-video-start-end-frames/
https://i.gzn.jp/img/2019/05/29/ai-video-start-end-frames/img-snap00034.jpg
研究者らは「マンガのコマから自動でアニメーションを作ることができるシステムを想像してみてください。
間違いなくアニメーション業界に革命を起こすでしょう」と述べています。
307名無しさん@お腹いっぱい。 (ニククエWW 7fc0-PYFn)
2019/05/29(水) 19:29:46.17ID:IYomfBXq0NIKU TecoGANのソフトまだー?
308名無しさん@お腹いっぱい。 (ワッチョイ 8f81-vDLl)
2019/05/30(木) 08:30:07.25ID:SkzC95NL0309名無しさん@お腹いっぱい。 (ワッチョイ be5b-bIfI)
2019/05/30(木) 19:08:18.35ID:/ORdI6JU0 TecoGAN凄すぎるな
鎧の網目とか、従来の手法だと潰れて酷いことになってたのに
まだ論文読んでないけど、どうやって改善したのか見当もつかん
それで動画対応って、進化の段階2つくらいすっ飛ばしてる感ある
鎧の網目とか、従来の手法だと潰れて酷いことになってたのに
まだ論文読んでないけど、どうやって改善したのか見当もつかん
それで動画対応って、進化の段階2つくらいすっ飛ばしてる感ある
310名無しさん@お腹いっぱい。 (アウアウウーT Sa1f-yed5)
2019/05/30(木) 21:21:47.79ID:qhWSo5x/a それは考え方が逆だろう
前後のフレームを参照できる動画だから静止画よりも綺麗に出来るわけで
前後のフレームを参照できる動画だから静止画よりも綺麗に出来るわけで
311名無しさん@お腹いっぱい。 (ワッチョイWW cbcf-48b9)
2019/05/30(木) 21:45:25.74ID:fQanmDs/0 テコは静止画に適用することはできるのだろうか?
前後フレームの比較が必須の動作であれば、同じ画像を2枚連続再生みたいにしても無理かな?
前後フレームの比較が必須の動作であれば、同じ画像を2枚連続再生みたいにしても無理かな?
312名無しさん@お腹いっぱい。 (ワイモマー MM8a-qmTP)
2019/05/30(木) 22:50:53.11ID:YdmeTxotM これに限った話ではないが、前後から元情報を多く参照することで画質を上げる動画の超解像は
その原理からして被写体が複雑な動きや速い動きをせず、カメラは止まっておらずかつ速すぎないと強く効果が発揮される
サンプルも全部そんな感じになってるし、そこから外れるような、例えば静止画を並べただけの動画とかは
元情報を増やしようがないので、既存の静止画の超解像と変わり映えのしないものしかできないだろう
その原理からして被写体が複雑な動きや速い動きをせず、カメラは止まっておらずかつ速すぎないと強く効果が発揮される
サンプルも全部そんな感じになってるし、そこから外れるような、例えば静止画を並べただけの動画とかは
元情報を増やしようがないので、既存の静止画の超解像と変わり映えのしないものしかできないだろう
313名無しさん@お腹いっぱい。 (ワッチョイ 8f81-vDLl)
2019/05/31(金) 08:21:13.31ID:XEZ+0fl20 学習済みモデルに適当な動画入れたけどあんまきれいにならんかった
やっぱそれなりに似た動画で訓練させないとだめだな
やっぱそれなりに似た動画で訓練させないとだめだな
314名無しさん@お腹いっぱい。 (ワッチョイ caf6-2ZOZ)
2019/06/03(月) 03:02:51.07ID:q11/n1qz0 なあVBでGUIから実行ファイルに引数を渡すだけのソフトつくってるんやが・・・
複数のファイルを渡そうとすると変換自体はできるんだけど
「process successfully done」が表示されなくてファイルの出力ができないんだけどなんでや?
ちなみに↓みたいに1個ずつ処理する時はちゃんと出力される(同じディレクトリに保存される)
Dim waifu2x As String = """C:\waifu2x-converter_x64.exe"""
Dim hikisuu As String = " -i 入力元パス -m noise_scale --noise_level 1 --scale_ratio 1.6 --model_dir モデルのディレクトリ"
Dim p As System.Diagnostics.Process = System.Diagnostics.Process.Start(waifu2x, hikisuu)
もしかして、複数渡す時は-oを使って出力先指定しないとダメなのか?
複数のファイルを渡そうとすると変換自体はできるんだけど
「process successfully done」が表示されなくてファイルの出力ができないんだけどなんでや?
ちなみに↓みたいに1個ずつ処理する時はちゃんと出力される(同じディレクトリに保存される)
Dim waifu2x As String = """C:\waifu2x-converter_x64.exe"""
Dim hikisuu As String = " -i 入力元パス -m noise_scale --noise_level 1 --scale_ratio 1.6 --model_dir モデルのディレクトリ"
Dim p As System.Diagnostics.Process = System.Diagnostics.Process.Start(waifu2x, hikisuu)
もしかして、複数渡す時は-oを使って出力先指定しないとダメなのか?
315名無しさん@お腹いっぱい。 (ワッチョイ ea11-IoUc)
2019/06/05(水) 18:40:47.80ID:6GS8491t0 TecoGANで超解像出来るソフト出てきたっぽい
性能はまだ試してないから分からん
https://twitter.com/Javski2/status/1135114902106861568
https://twitter.com/5chan_nel (5ch newer account)
性能はまだ試してないから分からん
https://twitter.com/Javski2/status/1135114902106861568
https://twitter.com/5chan_nel (5ch newer account)
316名無しさん@お腹いっぱい。 (アウアウエーT Sae2-yed5)
2019/06/05(水) 19:57:55.39ID:Vm8XJtxha 向いている動画では2D超解像よりも細かいディティールを取り出せたりもするが、アーティファクトが結構強め
取り敢えず現状で汎用的に動画に使用するには、別ソフトで先にノイズ除去が必須かなあ
3DNR的なことを一緒に学習してくれれば
取り敢えず現状で汎用的に動画に使用するには、別ソフトで先にノイズ除去が必須かなあ
3DNR的なことを一緒に学習してくれれば
317名無しさん@お腹いっぱい。 (ワッチョイ eaa1-f8CH)
2019/06/05(水) 20:00:49.77ID:UAm3olJ/0 AVのモザイク部分を超解像で補間するのか。考えたな。
318名無しさん@お腹いっぱい。 (ワッチョイ eaa1-f8CH)
2019/06/05(水) 22:11:08.29ID:6yBp3sEW0 TecoGAN試してみた。
1070Ti(Mem 6Gb)だと、720x480を入力するとメモリが足りなくてエラーが出る。
720x480をリサイズして360x240にすると、1440x960(4倍)にしてくれるが、
解像度が上がったかよく分からない。
720x480→1440x960(2倍)の設定で、メモリエラーを吐かなくするにはどうしたらいいんだろう。
1070Ti(Mem 6Gb)だと、720x480を入力するとメモリが足りなくてエラーが出る。
720x480をリサイズして360x240にすると、1440x960(4倍)にしてくれるが、
解像度が上がったかよく分からない。
720x480→1440x960(2倍)の設定で、メモリエラーを吐かなくするにはどうしたらいいんだろう。
319名無しさん@お腹いっぱい。 (テトリス 2df0-LJAA)
2019/06/06(木) 21:51:59.38ID:CIcmT6zC00606 waifu2xの本家は拡大しない場合、ファイルサイズも小さくなって良かったんだけど
2x系の他のは大体大きくなっちゃうんね
本家は当分復帰できなそうだしなんかいいの無いかなぁ
2x系の他のは大体大きくなっちゃうんね
本家は当分復帰できなそうだしなんかいいの無いかなぁ
320名無しさん@お腹いっぱい。 (アウアウクー MM23-ZXHS)
2019/06/06(木) 22:25:11.60ID:XAE4ieKNM 商用ソフトウェアでディープラーニングを活用した画像拡大ソフトウェアとか出ないのかな?
321名無しさん@お腹いっぱい。 (ワッチョイWW 3bda-nxHx)
2019/06/06(木) 22:49:50.71ID:qJMz8Q1c0 出来てもニッチすぎて法人向けしか発売しないんじゃね
322名無しさん@お腹いっぱい。 (ワッチョイ c323-ANyO)
2019/06/07(金) 10:40:09.00ID:la8yChLX0 >>320
仕事で画像扱う人は解像度高い画像用意するからな
仕事で画像扱う人は解像度高い画像用意するからな
323名無しさん@お腹いっぱい。 (ワッチョイ bfbc-K3Ee)
2019/06/08(土) 23:41:45.90ID:/XBZt5lM0324名無しさん@お腹いっぱい。 (アウアウクー MM23-ZXHS)
2019/06/10(月) 02:08:29.92ID:66JpaA5xM RTX2080〜2060がマイナーアップデートされるっぽいが、2060のVRAMがいよいよ8GBになると、
メモリーを必要としやすいwaifu2xなどの画像処理ソフトの普及に貢献することになるのだろうか?
メモリーを必要としやすいwaifu2xなどの画像処理ソフトの普及に貢献することになるのだろうか?
325名無しさん@お腹いっぱい。 (ワッチョイ 535b-uQfi)
2019/06/10(月) 07:52:11.23ID:FXpFHTRQ0 微妙じゃね
一般人からしたら2060ですら高いし、趣味で少し深層学習するやつらは既にtensorコアの数見て2070以上買ってるのでは
グラボの話してるとTesla欲しくなってくる
一般人からしたら2060ですら高いし、趣味で少し深層学習するやつらは既にtensorコアの数見て2070以上買ってるのでは
グラボの話してるとTesla欲しくなってくる
326名無しさん@お腹いっぱい。 (ワッチョイ e311-CMXr)
2019/06/12(水) 06:38:04.51ID:kjEMwrKr0 waifu2x-ncnn-vulkan version 20190611
https://github.com/nihui/waifu2x-ncnn-vulkan/releases/tag/20190611
build with ncnn 20190611, faster conversion speed
https://github.com/nihui/waifu2x-ncnn-vulkan/releases/tag/20190611
build with ncnn 20190611, faster conversion speed
327名無しさん@お腹いっぱい。 (ワッチョイ e311-CMXr)
2019/06/12(水) 06:40:07.75ID:kjEMwrKr0 変換速度が更に速くなったのはいいけど2倍以上にも拡大出来るようになってほしいねえ
328名無しさん@お腹いっぱい。 (ワッチョイ 91f6-KbKT)
2019/06/12(水) 10:35:29.81ID:MbRWERiy0 畳の目の部分とか凄い
https://www.nicovideo.jp/watch/sm35228765
https://www.nicovideo.jp/watch/sm35228765
329名無しさん@お腹いっぱい。 (ワッチョイ 4ebc-2qry)
2019/06/14(金) 15:17:46.59ID:a/zZxWho0330名無しさん@お腹いっぱい。 (ワンミングク MM8a-NVMV)
2019/06/14(金) 16:23:50.13ID:OiW6h4t/M PNGレベル変えられるようになるなら俺は低い方が必要かな
PNGで出すと処理時間が最大1.5倍とかになるから、10万枚とか出す場合はBMPで出してるけど500GBとかに膨らんだフォルダ見るとなんだかなぁってなる。
PNGで出すと処理時間が最大1.5倍とかになるから、10万枚とか出す場合はBMPで出してるけど500GBとかに膨らんだフォルダ見るとなんだかなぁってなる。
331名無しさん@お腹いっぱい。 (ワッチョイWW f3cf-rpCp)
2019/06/16(日) 04:17:12.25ID:xncohqpB0 ・西川善司の3DGE:次世代GPU「Navi」の詳細とRadeon Softwareの新機能をレポート。操作遅延を低減する「Anti-Lag」は本当に効くのか?
https://www.4gamer.net/games/337/G033715/20190612140/
「Image Sharpeningは,一種のシャープネスフィルタである。
しかし,説明を聞く限り,そのアルゴリズムは2008年発売の東芝レグザ7000番台が使っていた超解像アルゴリズムとそっくりであるため,
超解像処理といっても問題はなかろう。
実際にAMDも,2560×1440ピクセルで描画したフレームに対して,Image Sharpeningを適用した結果を4K解像度の描画と比較して,
「4K/60pレンダリングができないGPUでも,疑似4Kゲーム体験ができる」とアピールしていた。」
NVIDIA、AMDともに、いよいよ超解像技術を利用できるようになってきたか
問題は、このスレの場合、その技術を一般的な画像に適用して出力させることができるのかどうかなわけだが、
そのあたりはNVIDIA、AMDともにいまいちよくわからん
https://www.4gamer.net/games/337/G033715/20190612140/
「Image Sharpeningは,一種のシャープネスフィルタである。
しかし,説明を聞く限り,そのアルゴリズムは2008年発売の東芝レグザ7000番台が使っていた超解像アルゴリズムとそっくりであるため,
超解像処理といっても問題はなかろう。
実際にAMDも,2560×1440ピクセルで描画したフレームに対して,Image Sharpeningを適用した結果を4K解像度の描画と比較して,
「4K/60pレンダリングができないGPUでも,疑似4Kゲーム体験ができる」とアピールしていた。」
NVIDIA、AMDともに、いよいよ超解像技術を利用できるようになってきたか
問題は、このスレの場合、その技術を一般的な画像に適用して出力させることができるのかどうかなわけだが、
そのあたりはNVIDIA、AMDともにいまいちよくわからん
332名無しさん@お腹いっぱい。 (ワッチョイW faf4-NVMV)
2019/06/16(日) 21:31:36.02ID:zMP2l3DG0 >>331
この頃のRegzaの超解像って1度拡大した画像を元の解像度に戻して差分を計測、加味して再び拡大だったように思うんだけど
Aviutlでそれを再現したフィルタ作ってる人が居て、試すとアンシャープマスクよりは良いシャープフィルタといった感じだったな
この頃のRegzaの超解像って1度拡大した画像を元の解像度に戻して差分を計測、加味して再び拡大だったように思うんだけど
Aviutlでそれを再現したフィルタ作ってる人が居て、試すとアンシャープマスクよりは良いシャープフィルタといった感じだったな
333名無しさん@お腹いっぱい。 (ワッチョイ 1a27-2/YF)
2019/06/16(日) 21:38:13.70ID:DBsuQn0S0 斜めの繋がりを考慮しないジャギーとハロー生成フィルタだったな
差分を2乗した非線形USMのが軽くてマシという
差分を2乗した非線形USMのが軽くてマシという
334名無しさん@お腹いっぱい。 (アウアウエーT Sa52-vI2o)
2019/06/16(日) 21:53:23.05ID:FiL+MiW2a リアルタイム処理でGPUの負荷が1%以下という辺りからすると
全く新しいアルゴリズムを使っているのでもない限り
既存の画像の超解像と比べられるレベルの物じゃなさそう
全く新しいアルゴリズムを使っているのでもない限り
既存の画像の超解像と比べられるレベルの物じゃなさそう
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 中国国連大使「日本が中国に武力行使すると脅しをかけたのは初めて」 国連事務総長に書簡★5 [♪♪♪★]
- 高市首相告白「『なめられない服』を選ぶことに数時間を費やしました」「外交交渉でマウント取れる服、買わなくてはいかんかもなぁ」★4 [ぐれ★]
- 【🐼】パンダ、日本で会えなくなる? 中国との関係悪化で不安の声 ★2 [ぐれ★]
- 【芸能】44歳・池脇千鶴、激変ぶりにネット衝撃 「まるで別人…」「変化が凄い!!」の声 [冬月記者★]
- 竹中平蔵氏、万博は大成功だったと持論 批判していた人々にチクリ「反省の弁の一つも聞きたい」 [バイト歴50年★]
- 中国「国連安保理の許可なしに日本攻撃可能」 Xで旧敵国条項に言及… ★15 [BFU★]
