【超解像】画像拡大ソフト総合スレ4【waifu2x】

■ このスレッドは過去ログ倉庫に格納されています
2018/10/16(火) 17:11:24.76ID:dbJHIFwl0
画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。

--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/

・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436

・waifu2xとその派生ソフト一覧
http://kourindrug.sa kura.ne.jp/waifu2x.html

・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437

・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/

・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html

・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
2019/04/23(火) 19:04:57.82ID:9AsCe0/R0
>>234
動画というよりは、普通の画像を普通のビューアで拡大するように超解像できるソフトが有ったと思うんですが…
私の方でもサイトを探してみます。
2019/04/23(火) 19:41:10.60ID:03b0pFDu0
>>235
100x100倍 超解像ソフトかMugen Viewerあたりかな?
2019/04/23(火) 21:15:57.92ID:9AsCe0/R0
>>236
100*100ではないですね。
確か公式サイトはインド系の彫刻?を拡大していたと思います
2019/04/24(水) 11:58:56.38ID:KsYbIJEOd
>>237
市販だとphotozoomproがあるけど、そういうのとは違う?
2019/04/24(水) 15:16:53.64ID:PI6vk/zf0
>>232

http://reshade.com/
インド系の彫刻で推理したけどどうだろう?

https://www.gigafree.net/tool/resize/Reshade.html
2019/05/02(木) 17:19:45.09ID:9+FquZvj0
今更waifu2xcaffeのアップデートに気づいて
CUnetでは分割数で結果が変わると書いてあったので、
拡大のみ2倍 TTAなし 分割数512 と
拡大のみ2倍 TTAなし 分割数32を試してみたら、
512の方は文字の輪郭が二重にボケたりしますね。
これ処理速度的には結構困る。
TTAあり 512分割だと輪郭がマシにはなりますが、結局時間がかかりすぎるという。
2019/05/02(木) 17:22:15.36ID:9+FquZvj0
それにUpRGBとどう違うんだろううと
CUnet32分割とUpRGBをそれぞれ拡大のみTTAなしで比較してみたら、
CUnetの方は影付き文字の色が結構黒ずむ。
無条件にCUnetにすればいいと思ってましたけど考えものですね。
2019/05/02(木) 17:53:13.44ID:9+FquZvj0
UpResNet10モデルも分割数で違いがあるみたいなので試してきた
分割数が多い512だと影付き文字の色が黒ずみますが、
分割数が少ない128以下だと影付き文字の色味がそのままでした。

分割数でここまで如実に変化されるとちょっと怖くて使えない……
2019/05/02(木) 18:09:08.97ID:cbh53kBe0
自分が使ってる環境ではCUnetよりUpResNet10をもっぱら使ってるけど
大体処理する画像数が30-300くらいまでで
最初に240-256で速度出そうな方で変換して結果確認
おかしな画像があったら38以下の分割でバッチ数多目で試すって感じで使ってる
2019/05/02(木) 18:23:55.66ID:9+FquZvj0
私はDVDの高解像度化に使っているのでどうしても画像数が数百万程度になっちゃうので、
ところどころサンプルを抜き出して目視チェックはできますが全部チェックは流石に無理なので極力汎用的な設定を模索してるんですよね。

今のところはまずDVDのアナモルフィックをlanczos3で行い、その後Waifu2x-caffeで
UpRGB noise-scale level0 4x TTAのオプションでやるのが一番色味の変化が少なかったです。

あと、アナモルフィックをbicubic(大抵のデコーダーで初期設定)で行った時点で、字幕の色が影付きだと悪くなるの結構罠だと思う。
2019/05/02(木) 19:04:39.27ID:cPGK5p3k0
分割サイズが大きいほうがオーバーヘッドが少なくなって画質が上がりそうな気がするけど小さいほうが画質いいの?
周辺の画素の情報を拾いすぎてアーティファクトみたいなの出してるのかな
2019/05/02(木) 19:19:19.97ID:9+FquZvj0
しばらく連投で愚痴った割に具体例を出さないのも失礼かなと思って、用意してきました。
aの影に変な輪郭ができてるのが分かると思います。

CUnet noise_scale level0 2x TTAなし 32分割
https://imgur.com/kBpgbUp

CUnet noise_scale level0 2x TTAなし 512分割
https://imgur.com/VsKqYtG
2019/05/02(木) 21:41:46.37ID:9+FquZvj0
ところでいくらWaifu2xといえど4xぐらいまで拡大すると流石に輪郭がボケて来るので、
みなさんシャープとか掛けてらっしゃると思うんですけど、

おすすめのシャープ系フィルターを持ったソフトありませんか?
複数画像に一括でシャープ掛けられるソフトあんまり持って無いので、
おすすめがあればぜひお聞きしたい。
2019/05/03(金) 02:47:34.42ID:DObikpjE0
>>245
>>179って事。つまり、数字が大きい程雑な分速度は速い
2019/05/03(金) 03:47:50.70ID:mYwZ7YE60
>>247
色々面倒なのでお勧めしかねるけれど、
画像を連番にしてavisynthで好きなフィルター入れてやってます
2019/05/03(金) 06:17:47.31ID:Aq0MIe3J0
>>247
Neat Imageての調子よかったな
251名無しさん@お腹いっぱい。 (ワッチョイW e2f4-IcTs)
垢版 |
2019/05/03(金) 07:01:42.31ID:Nmuz6OTQ0
複数回で輪郭ボケは仕方ないと思う。
思いつきだけど案外warpsharp弱目に掛けると悪くなさそう。
2019/05/03(金) 08:40:41.21ID:grJEhKaX0
分割は最小限で行うべし
2019/05/03(金) 12:00:55.20ID:AbMWNQh90
分割サイズが大きいほうが無数の断片に分割されるって思ってない?
実際は分割サイズが大きいほど分割されないよ。

例えば元の画像のサイズが400x400で分割サイズが200のときは200x200のブロックに4分割して処理するみたいな感じ。
2019/05/03(金) 13:04:11.40ID:7POfNBBv0
分割の表記を変えたほうがいいかもしれんね

・現状のままだと
数値=分割したブロックの縦横それぞれのドット数

・プログラムを書き換えて何分割するかに変更した場合
数値=分割数

現状のままで数値が小さいほうがきれいに仕上がる点を考えると、最小ドット数実行モードみたいなのを設けておけば、
ユーザーが分割数だのドット数だのに煩わされずに1番きれいな画像を簡単に得られることにはなる
ただし、最小ドット数にするとものすごく多数に分割されるわけだから実行時間は長くなるだろうけど

CUnetなどで実写モデルがメモリーオーバーする件も、最小ドット数モード限定で装備できないものか
最小ドット数であれば演算時に必要とするメモリーの量も最小限で済むだろうし
このソフトを使いたいユーザーは、速さより品質を重視するユーザーのほうが多いだろうから、分割しまくることによる実行時間の増加は許容されるだろうし
2019/05/03(金) 19:58:39.91ID:r6zMaToM0
一日掛けて画像補間のためのディープラーニングの用意してたら、avastがいくつかライブラリ削除しやがったせいでやりなおしになった……
2019/05/03(金) 20:10:52.12ID:DObikpjE0
cudnnってDLしたファイルをフォルダに入れるだけだよね?
何故か初期化失敗で読み込まないんだけど、GUIじゃ使えない?
2019/05/03(金) 20:15:48.54ID:iDHhZedk0
ドライバが古いとか
2019/05/03(金) 21:47:43.60ID:r6zMaToM0
ちゃんと
cudnn64_7.dll
をwaifu2x-caffe.exeと同じフォルダに入れてあったら動くはず。GUI版で動作確認してる。
2019/05/03(金) 23:00:43.62ID:r6zMaToM0
>>249
>>250
教えていただきありがとうございます。
御礼の言葉を忘れておりました。すみません……
2019/05/04(土) 12:18:47.40ID:g8nWmqR40
>>258
原因が判明。
Xeon CPUx2+GTX1060で使ってんだけど、Core-i7+GTX1060のサブPCで試したら使えた。
OS、ドライバー等ソフトの環境は同じ。まさかCPUのせいとは。
2019/05/05(日) 01:13:29.26ID:61owYgJd0
Waifu2x-caffeのReadmeには
TTA は指定するとPSNRが上がるよ
ぐらいにしか書いてないけど、
実際CUnetモデルを使う分にはアーティファクトが結構抑制される。(少なくとも当方の環境では)

今はEDSRを使った拡大を試してみてるんだけど、
Waifu2x(CUnet, TTA)に比べると、4xでも輪郭がくっきりしてる代わりにアーティファクトがちょこちょこでてしまうから、
誰かEDSRとTTA組み合わせてきてくれないかなあ、EDSRはNTSCサイズにそのまま使っても4xに15秒ぐらい(GTX1080)かかるから、
TTAなんてやったら余裕で分超えそうだけど
2019/05/05(日) 02:34:10.45ID:KctNE4Ca0
Linux環境でwaifu2x-ncnn-vulkanをビルドしてみたんだが
Mesa19.0.3だとfp16s使ってたのが
Mesa-Gitだとint8sを使うようになった
自分の環境ではそれで前者は33秒かかった処理が後者だと29秒になった
VK_KHR_shader_float16_int8対応の有無によるものだろうけど具体的にはわからん
2019/05/05(日) 06:04:51.50ID:YGDAWLlo00505
>>261
ESDRって何ぞ?
2019/05/05(日) 08:03:09.55ID:6VIw4tX500505
>>261
EDSRで綺麗に拡大できないのはこれのせいだろうね
waifu2xだと縮小時のフィルタを何種類かランダムで使用して学習してるから問題が起きにくいけど

https://twitter.com/ultraistter/status/1048561959187009542
> 論文だと学習データの縮小アルゴリズム固定しているの多いけど、これやると使ってる縮小アルゴリズムにオーバーフィッティングしてて同じ縮小でベンチマークやるから精度良いことになるけど、
> 現実ではなにが使われているか分からないので変なノイズ出たりで使い物にならなくなる
https://twitter.com/5chan_nel (5ch newer account)
2019/05/05(日) 08:10:27.99ID:6VIw4tX500505
EDSRの論文著者がバイキュービックでガチガチにトレーニングしてるからそれ以外の画像だと綺麗に拡大出来ないって言ってる

https://github.com/thstkdgus35/EDSR-PyTorch/issues/34#issuecomment-389725742
2019/05/05(日) 12:12:11.20ID:61owYgJd00505
>>263
超高解像度化に使うディープニューラルネットワークのアルゴリズムの一つ。

>>264
>>265
情報ありがとう。
NTIRE用にベンチがよくなるよう実用性をある種無視して過適応させてるのが鯨飲なら、
こっちで多少縮小アルゴリズムをミックスしたデータセット用意して学習させるか、
いっそのこと、各縮小アルゴリズムごとにモデルを分けて学習させてみるか。
2019/05/05(日) 12:19:11.63ID:61owYgJd00505
そういえばちょっと前にCUnetやUpResNet10では分割数で出力結果が変わってしまうから
分割数と実行時間のトレードオフみたいな話題が出てたけど

ディープラーニングが一般化する以前に使われていた
ループエンコーディングを利用した高解像度拡大アルゴリズムをちょっと応用して。(東芝がやってたやつ)

1. CUnet分割512で拡大
2. 各区画を縮小して、元画像と差分を取る。
3. 差分の大きな区画に関しては、拡大に際しアーティファクトなどが発生していると考えられる。
4. 差分の大きな区画のみ分割を半分程度にして拡大しなおす。
以下くりかえし。

ってのはできないのかな?
2019/05/05(日) 14:48:27.00ID:gD5f8BncM0505
究極を目指すのであれば、縦横3×3か5×5程度のミニブロック単位で処理して、拡大後のミニブロックどうしで再度整合性を取るのがいいような気もする
めちゃくちゃ時間かかるけど
2019/05/05(日) 15:38:36.41ID:61owYgJd00505
ふと思ったんですけど、ノイズを除去するモデルは存在するのに、
アーティファクトを除去するモデルはないっぽい?のは何か大きな理由があるんですかね?

人間はそれを見てアーティファクトかそうでないかをある程度判断できるわけで、
素人的にはそういう人間の無意識のうちの振り分けを再現するのってニューラルネットワークは得意そうに見えるのだけれども。
2019/05/05(日) 16:39:29.34ID:4uUJLCU+M0505
>>267は手順2で拡大した大きさの元画像がないとできないから特に意味がないような

アーティファクトについては、正解となる元画像と縮小拡大画像を比較する学習原理からすると
現状の拡大モデルで既にアーティファクトをなくそうとはしているはずなわけで
アーティファクトを消すだけのモデルを作ったところで、ノイズ除去を二重に掛けるみたいな結果にしかならないんじゃないかな
2019/05/06(月) 03:09:12.68ID:WQB9nEdR0
RCANは実行時間的にTTAはやってないっぽい?ので、TTA処理を付けたしたらどうなるか実験してみる。
トレーニングじゃなくて中身に手を出すのは初めてなのでまあ、多分どっかでこけるでしょ。
2019/05/06(月) 16:22:40.78ID:WQB9nEdR0
ソースコード読んだりGANの理論見たりしててふと思ったんだけど、
わざとアーティファクトを発生させるGeneratorを作って、
ある画像にアーティファクトが発生しているかどうかを見分けるDiscriminatorも作って。
ここで学習させたDiscriminatorをArtifact Loss関数として

そこらの超高解像の損失関数に、付け加えて
もともとの損失関数の出力を極力小さく保ちつつ、かつArtifact Lossも小さく保つモデルとか作れないのかな?
273名無しさん@お腹いっぱい。 (ワッチョイW e2f4-IcTs)
垢版 |
2019/05/06(月) 20:42:31.88ID:2/IyLREF0
>>272画像指標は落ちそうだけど見た目は綺麗になるかもね
2019/05/10(金) 20:42:06.30ID:TUjQ7Fi60
>>238
>>239
reshadeでした。
スッキリしました〜
2019/05/10(金) 23:38:50.29ID:w4J1WUH60
VulkanのGUI版誰か作ってくれないかな…
2019/05/14(火) 11:16:40.53ID:v9RTX3rB0
Ryzen7でVulkan使って変換しようとしても
[0 AMD Radeon(TM) RX Vega 10 Graphics] queueC=1 queueT=2 memU=2 memDL=0 memHV=1
[0 AMD Radeon(TM) RX Vega 10 Graphics] fp16s=1 fp16a=0 int8s=1 int8a=0
vkCreateShaderModule failed -3
local_shader_module 0000000000000000 waifu2x_preproc_int8s created
ってなって変換できないんだけどだれか原因わからないかな?
知識なくてお手上げ…
2019/05/14(火) 11:24:05.45ID:eUsXHcZ30
ncnnをちゃんと -DNCNN_VULKAN=ON を付けてcmakeしてるか
waifu2x-vulkanのCMakeLists.txtの
include_directories、link_directoriesをちゃんと書き換えてるか
はどう?
2019/05/14(火) 11:27:53.64ID:eUsXHcZ30
ごめん、配布されてるバイナリを使ってるならドライバの問題かもしれない
2019/05/14(火) 11:38:26.08ID:v9RTX3rB0
CMakeLists.txtってのはフォルダにないみたいですね…
もうちょっといろいろ試してみます
2019/05/14(火) 11:42:28.85ID:XRvrSnpa0
>>276
自分も同じようになったけどGPUのドライバを更新したら使えるようになったよ
2019/05/14(火) 15:38:46.04ID:v9RTX3rB0
>>280
ドライバ更新したらいけた!ありがとう〜
2019/05/14(火) 17:13:58.82ID:0XCEBJGX0
>>275
バッチファイルで良いじゃん
2019/05/14(火) 21:44:34.13ID:v9RTX3rB0
>>282
GUI作って公開してくれてる人がいたからありがたく使わせてもらってる
倍率は1倍と2倍以外は使えないみたいだけど
https://github.com/f11894/waifu2x-chainer-GUI
2019/05/16(木) 17:14:24.32ID:uoSLJfe80
・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も

-100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x1.jpg.html

+100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x2.jpg.html

嘘だろw
別の写真じゃないのか?
285名無しさん@お腹いっぱい。 (ワントンキン MM88-a8/e)
垢版 |
2019/05/16(木) 17:48:03.77ID:cUiSCQ1XM
>>284
±0はないの?
2019/05/17(金) 13:24:05.39ID:Y6hmCawT0
>>285
元の記事のリンクが抜けていたな
・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も
https://dc.watch.impress.co.jp/docs/news/1184626.html

記事中にはない模様

本家の情報もあまりない
https://helpx.adobe.com/jp/lightroom-cc/using/whats-new/2019-3.html#texture

続く
2019/05/17(金) 13:26:01.00ID:Y6hmCawT0
比較してくれているサイトがあった
・LightroomとCamera Rawに「テクスチャ」スライダーが追加 肌を簡単に綺麗に出来る!?
(なぜかリンク貼ると怒るので記事のタイトルを検索してください)

この手法(中周波成分を操作する方法)、どこかで聞いたようなと記憶があるんだけど思い出せない。
SONYのテレビだったかレコーダーあたりでこの手法のようなことをアピールしていたような記憶があるのだけど…
(他メーカーも口には出さないが、隠し味程度に使っているようだけど)
2019/05/17(金) 18:45:53.22ID:pkl3fT7EM
ソニー、繰り返しフルカラー描画できるフィルムを開発 熱で発色状態を変化 装飾のみならず写真画質も
https://dc.watch.impress.co.jp/docs/news/1185122.html

マイクロドットプリンター以来の新印刷方式登場かな?
なめらかな階調をカラー印刷で実現は素晴らしい
2019/05/23(木) 15:04:57.20ID:pn9ulyEn0
すげえ

Samsungが1枚の写真や絵画からリアルな会話アニメーションを作成できる技術を開発
https://gigazine.net/news/20190523-samsung-ai-animate-painting/
https://i.gzn.jp/img/2019/05/23/samsung-ai-animate-painting/00.png
2019/05/23(木) 15:10:52.41ID:eTN5wD9X0
別人が混じってるレベルw
2019/05/23(木) 18:59:41.60ID:hHkb4j4M0
アニメ向けにチューンしたらlive2d要らなくなるな
2019/05/25(土) 21:26:28.66ID:FaY1aX6g0
低解像度ビデオもすぐに高解像度に変換できる超解像アルゴリズムTecoGANがすごい
https://ai-scholar.tech/treatise/tecogan-154/

https://imgur.com/1sH5fLl.gif
https://imgur.com/bOvZFqD.gif
https://imgur.com/re5hkgB.gif
https://www.youtube.com/watch?v=pZXFXtfd-Ak
2019/05/25(土) 22:27:12.02ID:vmLLAtmla
すごそう
2019/05/25(土) 23:04:33.03ID:CKP6oNsUa
カメラが動いてないと実質同フレームからしか補完できないだろうし、動きのある実写向きだろうか
リミテッドアニメにはあまり効果が無さそうな気がする
2019/05/25(土) 23:43:44.58ID:7GZyvIYF0
>>292
これはすごい
2019/05/26(日) 00:59:31.09ID:TWwSVOjY0
テコすごいなぁ
waifu2x最大の欠点である輪郭の違和感や斜め線の不自然さが感じられない
2019/05/26(日) 11:29:04.16ID:pO82b6+30
ビデオ撮影の頃の特撮に使ってみたい。
2019/05/26(日) 12:24:05.47ID:1V1/pKG70
今までのGANと何が違うのかはわからなかった
2019/05/26(日) 12:43:57.99ID:kBnnBn4FM
>>297
オリジナルがSD(480i)しか残っていない素材に効きそうだよね
お試し版とかあればいいのだが
2019/05/26(日) 15:17:53.68ID:cR7q12SK0
>>299
一応GitHubに公開されてるみたいだけど使い方はよくわからない
https://github.com/thunil/TecoGAN
2019/05/26(日) 15:22:39.77ID:kBnnBn4FM
>>300
一応あるんだね
誰かGUI化プリーズ!

ついでに、これって学習型超解像系では数少ない動画対応なわけだが、超解像実施時に同時に
インターレース解除も学習型で高品質にやってくれたらパーフェクトなんだけど、
さすがにそれは難しいのだろうか?
2019/05/26(日) 21:29:46.06ID:+ch5bYuC0
インターレース解除なんて極端な話1フィールド分を縦2倍に拡大すればいいんでしょ
時間軸超解像だから下手に解像度落ちることも無いだろうし
あとはどのように間引きするかどうかと下手な編集でフィールドの順番狂う場合とかの補正だけど
303名無しさん@お腹いっぱい。 (ワッチョイW dff4-zbZi)
垢版 |
2019/05/26(日) 21:56:57.82ID:jwyQIbn+0
KTGMCでいいじゃん
2019/05/28(火) 17:40:21.03ID:UrzVhcxva
KTGMCって引き延ばしはneedi3っぽいから、画質は今時のAIには大分及ばないんじゃないの
静止画を縦2倍拡大するでもなく、3次元的にAIが補完してくれたら、ずっと画質が上がりそうに思える
2019/05/28(火) 20:42:29.81ID:gEBPW0REM
だよね
しかしディープラーニング系のインターレース解除の話って、なぜか出てこないよな
2019/05/29(水) 14:25:15.09ID:ftyZ12/y0NIKU
GoogleのAIが「ムービーの最初と最後のコマ」から途中のコマを生成することに成功
https://gigazine.net/news/20190529-ai-video-start-end-frames/
https://i.gzn.jp/img/2019/05/29/ai-video-start-end-frames/img-snap00034.jpg
研究者らは「マンガのコマから自動でアニメーションを作ることができるシステムを想像してみてください。
間違いなくアニメーション業界に革命を起こすでしょう」と述べています。
2019/05/29(水) 19:29:46.17ID:IYomfBXq0NIKU
TecoGANのソフトまだー?
2019/05/30(木) 08:30:07.25ID:SkzC95NL0
>>307
https://github.com/thunil/TecoGAN
2019/05/30(木) 19:08:18.35ID:/ORdI6JU0
TecoGAN凄すぎるな
鎧の網目とか、従来の手法だと潰れて酷いことになってたのに
まだ論文読んでないけど、どうやって改善したのか見当もつかん
それで動画対応って、進化の段階2つくらいすっ飛ばしてる感ある
2019/05/30(木) 21:21:47.79ID:qhWSo5x/a
それは考え方が逆だろう
前後のフレームを参照できる動画だから静止画よりも綺麗に出来るわけで
2019/05/30(木) 21:45:25.74ID:fQanmDs/0
テコは静止画に適用することはできるのだろうか?
前後フレームの比較が必須の動作であれば、同じ画像を2枚連続再生みたいにしても無理かな?
2019/05/30(木) 22:50:53.11ID:YdmeTxotM
これに限った話ではないが、前後から元情報を多く参照することで画質を上げる動画の超解像は
その原理からして被写体が複雑な動きや速い動きをせず、カメラは止まっておらずかつ速すぎないと強く効果が発揮される

サンプルも全部そんな感じになってるし、そこから外れるような、例えば静止画を並べただけの動画とかは
元情報を増やしようがないので、既存の静止画の超解像と変わり映えのしないものしかできないだろう
2019/05/31(金) 08:21:13.31ID:XEZ+0fl20
学習済みモデルに適当な動画入れたけどあんまきれいにならんかった
やっぱそれなりに似た動画で訓練させないとだめだな
2019/06/03(月) 03:02:51.07ID:q11/n1qz0
なあVBでGUIから実行ファイルに引数を渡すだけのソフトつくってるんやが・・・
複数のファイルを渡そうとすると変換自体はできるんだけど
「process successfully done」が表示されなくてファイルの出力ができないんだけどなんでや?
ちなみに↓みたいに1個ずつ処理する時はちゃんと出力される(同じディレクトリに保存される)

Dim waifu2x As String = """C:\waifu2x-converter_x64.exe"""
Dim hikisuu As String = " -i 入力元パス -m noise_scale --noise_level 1 --scale_ratio 1.6 --model_dir モデルのディレクトリ"
Dim p As System.Diagnostics.Process = System.Diagnostics.Process.Start(waifu2x, hikisuu)

もしかして、複数渡す時は-oを使って出力先指定しないとダメなのか?
2019/06/05(水) 18:40:47.80ID:6GS8491t0
TecoGANで超解像出来るソフト出てきたっぽい
性能はまだ試してないから分からん

https://twitter.com/Javski2/status/1135114902106861568
https://twitter.com/5chan_nel (5ch newer account)
2019/06/05(水) 19:57:55.39ID:Vm8XJtxha
向いている動画では2D超解像よりも細かいディティールを取り出せたりもするが、アーティファクトが結構強め
取り敢えず現状で汎用的に動画に使用するには、別ソフトで先にノイズ除去が必須かなあ
3DNR的なことを一緒に学習してくれれば
2019/06/05(水) 20:00:49.77ID:UAm3olJ/0
AVのモザイク部分を超解像で補間するのか。考えたな。
2019/06/05(水) 22:11:08.29ID:6yBp3sEW0
TecoGAN試してみた。
1070Ti(Mem 6Gb)だと、720x480を入力するとメモリが足りなくてエラーが出る。
720x480をリサイズして360x240にすると、1440x960(4倍)にしてくれるが、
解像度が上がったかよく分からない。

720x480→1440x960(2倍)の設定で、メモリエラーを吐かなくするにはどうしたらいいんだろう。
2019/06/06(木) 21:51:59.38ID:CIcmT6zC00606
waifu2xの本家は拡大しない場合、ファイルサイズも小さくなって良かったんだけど
2x系の他のは大体大きくなっちゃうんね
本家は当分復帰できなそうだしなんかいいの無いかなぁ
2019/06/06(木) 22:25:11.60ID:XAE4ieKNM
商用ソフトウェアでディープラーニングを活用した画像拡大ソフトウェアとか出ないのかな?
2019/06/06(木) 22:49:50.71ID:qJMz8Q1c0
出来てもニッチすぎて法人向けしか発売しないんじゃね
2019/06/07(金) 10:40:09.00ID:la8yChLX0
>>320
仕事で画像扱う人は解像度高い画像用意するからな
2019/06/08(土) 23:41:45.90ID:/XBZt5lM0
>>748
ワイ「ア●ルの横のほくろかわいいね〜(ペロペロ」

ワイ「もう一回なめちゃお・・・


・・・・


ワイ「あれ消えた、どこ行った?」
2019/06/10(月) 02:08:29.92ID:66JpaA5xM
RTX2080〜2060がマイナーアップデートされるっぽいが、2060のVRAMがいよいよ8GBになると、
メモリーを必要としやすいwaifu2xなどの画像処理ソフトの普及に貢献することになるのだろうか?
2019/06/10(月) 07:52:11.23ID:FXpFHTRQ0
微妙じゃね
一般人からしたら2060ですら高いし、趣味で少し深層学習するやつらは既にtensorコアの数見て2070以上買ってるのでは
グラボの話してるとTesla欲しくなってくる
2019/06/12(水) 06:38:04.51ID:kjEMwrKr0
waifu2x-ncnn-vulkan version 20190611
https://github.com/nihui/waifu2x-ncnn-vulkan/releases/tag/20190611
build with ncnn 20190611, faster conversion speed
2019/06/12(水) 06:40:07.75ID:kjEMwrKr0
変換速度が更に速くなったのはいいけど2倍以上にも拡大出来るようになってほしいねえ
2019/06/12(水) 10:35:29.81ID:MbRWERiy0
畳の目の部分とか凄い
https://www.nicovideo.jp/watch/sm35228765
2019/06/14(金) 15:17:46.59ID:a/zZxWho0
>>319
caffeでPNG圧縮レベル設定できたらありがたいなあと思う
藤 -Resizer-やRalphaとかの一括処理ツールでレベル9再圧縮かければ結構縮むからやってみ
330名無しさん@お腹いっぱい。 (ワンミングク MM8a-NVMV)
垢版 |
2019/06/14(金) 16:23:50.13ID:OiW6h4t/M
PNGレベル変えられるようになるなら俺は低い方が必要かな
PNGで出すと処理時間が最大1.5倍とかになるから、10万枚とか出す場合はBMPで出してるけど500GBとかに膨らんだフォルダ見るとなんだかなぁってなる。
2019/06/16(日) 04:17:12.25ID:xncohqpB0
・西川善司の3DGE:次世代GPU「Navi」の詳細とRadeon Softwareの新機能をレポート。操作遅延を低減する「Anti-Lag」は本当に効くのか?
https://www.4gamer.net/games/337/G033715/20190612140/

「Image Sharpeningは,一種のシャープネスフィルタである。
しかし,説明を聞く限り,そのアルゴリズムは2008年発売の東芝レグザ7000番台が使っていた超解像アルゴリズムとそっくりであるため,
超解像処理といっても問題はなかろう。
実際にAMDも,2560×1440ピクセルで描画したフレームに対して,Image Sharpeningを適用した結果を4K解像度の描画と比較して,
「4K/60pレンダリングができないGPUでも,疑似4Kゲーム体験ができる」とアピールしていた。」

NVIDIA、AMDともに、いよいよ超解像技術を利用できるようになってきたか
問題は、このスレの場合、その技術を一般的な画像に適用して出力させることができるのかどうかなわけだが、
そのあたりはNVIDIA、AMDともにいまいちよくわからん
332名無しさん@お腹いっぱい。 (ワッチョイW faf4-NVMV)
垢版 |
2019/06/16(日) 21:31:36.02ID:zMP2l3DG0
>>331
この頃のRegzaの超解像って1度拡大した画像を元の解像度に戻して差分を計測、加味して再び拡大だったように思うんだけど
Aviutlでそれを再現したフィルタ作ってる人が居て、試すとアンシャープマスクよりは良いシャープフィルタといった感じだったな
2019/06/16(日) 21:38:13.70ID:DBsuQn0S0
斜めの繋がりを考慮しないジャギーとハロー生成フィルタだったな
差分を2乗した非線形USMのが軽くてマシという
2019/06/16(日) 21:53:23.05ID:FiL+MiW2a
リアルタイム処理でGPUの負荷が1%以下という辺りからすると
全く新しいアルゴリズムを使っているのでもない限り
既存の画像の超解像と比べられるレベルの物じゃなさそう
■ このスレッドは過去ログ倉庫に格納されています