【超解像】画像拡大ソフト総合スレ4【waifu2x】

■ このスレッドは過去ログ倉庫に格納されています
2018/10/16(火) 17:11:24.76ID:dbJHIFwl0
画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。

--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/

・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436

・waifu2xとその派生ソフト一覧
http://kourindrug.sa kura.ne.jp/waifu2x.html

・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437

・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/

・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html

・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
2019/04/07(日) 16:01:05.24ID:clyI9h+00
ほぅ…
2019/04/07(日) 21:04:04.90ID:NpENbpyn0
速度があんまり出ないって書いたけど勘違いだったかも
思ったよりずっと早い

https://twitter.com/nihui/status/1114820507663077376
https://pbs.twimg.com/media/D3ijNE2UwAAKeI2.png
https://twitter.com/5chan_nel (5ch newer account)
2019/04/07(日) 21:06:46.85ID:vdzyz0MMM
>>203
画像サイズによって速度の優劣が変わるんだな
なぜだろう?
2019/04/07(日) 21:10:54.26ID:NpENbpyn0
>>204
多分caffeは起動に時間がかかるんだと思う。
2019/04/08(月) 05:19:47.57ID:2BjuH2b40
ラデでも動くのは確認できたが
CUnetなのにボケボケなのはモデル間違えてるんかな
2019/04/08(月) 06:52:31.18ID:TiMwgifv0
モデルを間違えてるというより推論っていうのかな?モデルを使って拡大する処理の部分に問題がある気がする
ちゃんとディープラーニングに詳しい人が見てくれないとはっきりとしたことは分からないけどさ
2019/04/08(月) 13:35:57.44ID:ZZ9lhk7U0
>>203
画像の表でtotal timeがミリ秒になってるけど秒だよね…?
2019/04/08(月) 15:58:06.63ID:zWsbGzPs0
>>201のwindows版をダウンロードしたんですが、exeをクリックするだけでは起動できないんですよね?
これからどうすればいいんでしょうか?
2019/04/08(月) 16:56:11.76ID:LbY2hy4o0
>>209

waifu2x.exe [input image] [output png] [noise=-1/0/1/2/3] [scale=1/2]

noise = noise level, large value means strong denoise effect, -1=no effect
scale = scale level, 1=no scale, 2=upscale 2x
211名無しさん@お腹いっぱい。 (ワッチョイW 12f4-JGqv)
垢版 |
2019/04/08(月) 20:30:43.74ID:jZXCy11k0
>>203
GTX1070にしてはまだかなり遅いと思うな。
caffeならcudnn使用のcunetで5-7倍程度出ると思う。
GTX1080だとインプット150万画像/sec程度の速度でx2拡大処理出来てるので
212名無しさん@お腹いっぱい。 (ワッチョイW 12f4-JGqv)
垢版 |
2019/04/08(月) 20:32:28.18ID:jZXCy11k0
書いた後でなんだが400x400の項目しか見てなかった。
4000x4000とかだとそれなりに速くなるんだな
2019/04/09(火) 08:11:36.54ID:+66l/EeT0
>>210
ありがとうございます!
仕事から帰ってきてから試してみます。
2019/04/13(土) 23:51:37.79ID:YA4M92W80
Vulkan版ブロックサイズ指定できるようになって以前のだとエラー出て拡大できなかった画像も行けるようになってた
AMD派はVulkanかOpenCV使えば良さそうかな
2019/04/14(日) 07:36:14.69ID:LzzJpJSI0
Vulkan版なんだけど現時点では出力画像のコントラストがちょっと変わることがあるので注意ね
まだ試験運用に留めて本番運用に使用するのは控えたほうがいいかも

適当に説明すると
最初のリリースだとgtx20とvegaのGPUでfp16aの演算結果が正しくない問題があって>>206,207で言われてたように画質の悪い画像が出力されてた
なので現在のバージョンでは応急処置としてfp16aの演算をオフしてあって、明らかにおかしな画像が出力されるってことは無くなった
しかしfp16aをオフにすると演算精度が足りないみたいで画像のコントラストが変わってしまうという事が起きるように
TODOの中にこの問題の修正が入っているのでいつかは直ると思うがいつ直るかは不明
2019/04/14(日) 08:40:27.56ID:LzzJpJSI0
いやごめん適当なこと書いたかも
fp16aのバグが直ったらコントラストの問題も直るみたいに書いたけどそうでもないかもしれない
2019/04/14(日) 10:09:14.94ID:LzzJpJSI0
コントラストが変わる問題を作者の人に聞いたら早速返答が帰ってきた

https://github.com/nihui/waifu2x-ncnn-vulkan/issues/4#issuecomment-482907991
yeah, I found the little difference too.
It is not because of fp16s or fp16a, but because of postprocess.
waifu2x-caffe add a small eps value to all pixels during postprocess, while waifu2x-ncnn-vulkan do not.
I may port this behavior to let the result pixel-wise identity to the caffe one.

以下Google翻訳
ええ、私も少し違いが見つかりました。
これはfp16sやfp16aが原因ではなく、後処理が原因です。
waifu2x-caffeは後処理中にすべてのピクセルに小さいeps値を追加しますが、waifu2x-ncnn-vulkanは追加しません。
この振る舞いを移植して、結果として得られるピクセル単位のアイデンティティーをカフェのものにすることができます。
2019/04/14(日) 19:00:29.76ID:LzzJpJSI0
Vulkan版、version 20190414で>>217の修正入ってベンチマークのスコアがwaifu2x-caffeとほぼ同じになった。
それと速度の最適化も入って環境によっては2倍くらい早くなった。
2019/04/14(日) 19:44:51.03ID:0BctWd9PM
>>201
これで使われてるモデルって、要するにアニメ画像用のみなんだっけ?
2019/04/14(日) 20:50:38.62ID:LzzJpJSI0
>>219
うん、CUnetはイラスト用のモデルしか配布されてない
写真用のモデルはメモリの問題で用意出来ないらしい

https://twitter.com/ultraistter/status/1062072639714258944
https://twitter.com/5chan_nel (5ch newer account)
2019/04/14(日) 21:27:52.26ID:0BctWd9PM
>>220
手動でメモリーの開放を指示できないの?
2019/04/15(月) 09:35:10.67ID:tBy9LOL10
Vulkan版ってコマンドラインの書式を他の派生と互換性のある形にすれば過去のフロントエンドの資産を使い回せるのになんであんな独特のやつにしたんだろ
223名無しさん@お腹いっぱい。 (ワンミングク MMd3-bVTB)
垢版 |
2019/04/15(月) 11:26:20.37ID:Vf4ifI9IM
まったく見てないんだけどvulkanってTTA2-8出力出来たりする?
2019/04/15(月) 19:36:12.02ID:wRmnOLzm0
>>223
TTAモードは実装されてない
2019/04/15(月) 22:07:56.77ID:scTMK+wtM
ダメじゃん
2019/04/15(月) 23:18:32.99ID:wRmnOLzm0
>>225
必要だと思うなら実装を要望してきたら
作者さん結構フットワーク軽い人だから実装してくれるかもよ
2019/04/16(火) 17:55:33.71ID:sZZEz/wBM
・[NAB2019:アストロデザイン]PLマウント採用の8K120p収録に対応した新製品「AB-4815」を出展
https://www.pronews.jp/news/20190416152541.html

waifu2xの進化が止まっている間に、商用環境でのディープラーニングを用いたアップコンバート環境が実用化されようとしているようだ
(記事中段)
2019/04/16(火) 18:08:37.65ID:+CTlw73i0
Vulkan版のcommand-lineですが
waifu2x.exe [input image] [output png] [noise=-1/0/1/2/3] [scale=1/2]

@パラメーターは 「noise=」「scale=」の文字は不要で数字のみの記述でした。
ADBCSが含まれるファイル名、フォルダー名は エラーとなりますが 解決法はありますか?
2019/04/17(水) 06:49:26.21ID:fw0Zc4/v0
>>228
報告しといた。
https://github.com/nihui/waifu2x-ncnn-vulkan/issues/11
2019/04/17(水) 23:46:12.93ID:QFjHmM4T0
>>229
ありがとうございます。
2019/04/21(日) 22:10:23.73ID:u/p3b4U60
直ったみたい

waifu2x-ncnn-vulkan version 20190421
https://github.com/nihui/waifu2x-ncnn-vulkan/releases/tag/20190421

あとncnn更新の影響なのかVRAM使用量がちょっと増えてるからカツカツの状態で使ってる人はブロックサイズをちょっと小さくしたほうがいいかも
232名無しさん@お腹いっぱい。 (ワッチョイ 1211-61/s)
垢版 |
2019/04/22(月) 17:11:19.39ID:GvmMF6Np0
既出かもしれませんが、リアルタイムで超解像を実行できるソフトには
どのようなものがあるのでしょうか?
昔使っていたのですが、名前を忘れてしまいました。
どなたか教えていただけるとありがたいです。
2019/04/22(月) 17:47:31.04ID:NUUuQljuM
動画のレンダリングのことならmadVRだろうか
汎用的にウィンドウを拡大出来るものがあるなら、自分も知りたいな
2019/04/22(月) 20:20:07.30ID:m4KktFDS0
>>232
フレーム補完したり疑似的に動画を超解像する奴ならスプラッシュってのが評価高いよ。

https://mirillis.com/ja/free-hd-video-player
2019/04/23(火) 19:04:57.82ID:9AsCe0/R0
>>234
動画というよりは、普通の画像を普通のビューアで拡大するように超解像できるソフトが有ったと思うんですが…
私の方でもサイトを探してみます。
2019/04/23(火) 19:41:10.60ID:03b0pFDu0
>>235
100x100倍 超解像ソフトかMugen Viewerあたりかな?
2019/04/23(火) 21:15:57.92ID:9AsCe0/R0
>>236
100*100ではないですね。
確か公式サイトはインド系の彫刻?を拡大していたと思います
2019/04/24(水) 11:58:56.38ID:KsYbIJEOd
>>237
市販だとphotozoomproがあるけど、そういうのとは違う?
2019/04/24(水) 15:16:53.64ID:PI6vk/zf0
>>232

http://reshade.com/
インド系の彫刻で推理したけどどうだろう?

https://www.gigafree.net/tool/resize/Reshade.html
2019/05/02(木) 17:19:45.09ID:9+FquZvj0
今更waifu2xcaffeのアップデートに気づいて
CUnetでは分割数で結果が変わると書いてあったので、
拡大のみ2倍 TTAなし 分割数512 と
拡大のみ2倍 TTAなし 分割数32を試してみたら、
512の方は文字の輪郭が二重にボケたりしますね。
これ処理速度的には結構困る。
TTAあり 512分割だと輪郭がマシにはなりますが、結局時間がかかりすぎるという。
2019/05/02(木) 17:22:15.36ID:9+FquZvj0
それにUpRGBとどう違うんだろううと
CUnet32分割とUpRGBをそれぞれ拡大のみTTAなしで比較してみたら、
CUnetの方は影付き文字の色が結構黒ずむ。
無条件にCUnetにすればいいと思ってましたけど考えものですね。
2019/05/02(木) 17:53:13.44ID:9+FquZvj0
UpResNet10モデルも分割数で違いがあるみたいなので試してきた
分割数が多い512だと影付き文字の色が黒ずみますが、
分割数が少ない128以下だと影付き文字の色味がそのままでした。

分割数でここまで如実に変化されるとちょっと怖くて使えない……
2019/05/02(木) 18:09:08.97ID:cbh53kBe0
自分が使ってる環境ではCUnetよりUpResNet10をもっぱら使ってるけど
大体処理する画像数が30-300くらいまでで
最初に240-256で速度出そうな方で変換して結果確認
おかしな画像があったら38以下の分割でバッチ数多目で試すって感じで使ってる
2019/05/02(木) 18:23:55.66ID:9+FquZvj0
私はDVDの高解像度化に使っているのでどうしても画像数が数百万程度になっちゃうので、
ところどころサンプルを抜き出して目視チェックはできますが全部チェックは流石に無理なので極力汎用的な設定を模索してるんですよね。

今のところはまずDVDのアナモルフィックをlanczos3で行い、その後Waifu2x-caffeで
UpRGB noise-scale level0 4x TTAのオプションでやるのが一番色味の変化が少なかったです。

あと、アナモルフィックをbicubic(大抵のデコーダーで初期設定)で行った時点で、字幕の色が影付きだと悪くなるの結構罠だと思う。
2019/05/02(木) 19:04:39.27ID:cPGK5p3k0
分割サイズが大きいほうがオーバーヘッドが少なくなって画質が上がりそうな気がするけど小さいほうが画質いいの?
周辺の画素の情報を拾いすぎてアーティファクトみたいなの出してるのかな
2019/05/02(木) 19:19:19.97ID:9+FquZvj0
しばらく連投で愚痴った割に具体例を出さないのも失礼かなと思って、用意してきました。
aの影に変な輪郭ができてるのが分かると思います。

CUnet noise_scale level0 2x TTAなし 32分割
https://imgur.com/kBpgbUp

CUnet noise_scale level0 2x TTAなし 512分割
https://imgur.com/VsKqYtG
2019/05/02(木) 21:41:46.37ID:9+FquZvj0
ところでいくらWaifu2xといえど4xぐらいまで拡大すると流石に輪郭がボケて来るので、
みなさんシャープとか掛けてらっしゃると思うんですけど、

おすすめのシャープ系フィルターを持ったソフトありませんか?
複数画像に一括でシャープ掛けられるソフトあんまり持って無いので、
おすすめがあればぜひお聞きしたい。
2019/05/03(金) 02:47:34.42ID:DObikpjE0
>>245
>>179って事。つまり、数字が大きい程雑な分速度は速い
2019/05/03(金) 03:47:50.70ID:mYwZ7YE60
>>247
色々面倒なのでお勧めしかねるけれど、
画像を連番にしてavisynthで好きなフィルター入れてやってます
2019/05/03(金) 06:17:47.31ID:Aq0MIe3J0
>>247
Neat Imageての調子よかったな
251名無しさん@お腹いっぱい。 (ワッチョイW e2f4-IcTs)
垢版 |
2019/05/03(金) 07:01:42.31ID:Nmuz6OTQ0
複数回で輪郭ボケは仕方ないと思う。
思いつきだけど案外warpsharp弱目に掛けると悪くなさそう。
2019/05/03(金) 08:40:41.21ID:grJEhKaX0
分割は最小限で行うべし
2019/05/03(金) 12:00:55.20ID:AbMWNQh90
分割サイズが大きいほうが無数の断片に分割されるって思ってない?
実際は分割サイズが大きいほど分割されないよ。

例えば元の画像のサイズが400x400で分割サイズが200のときは200x200のブロックに4分割して処理するみたいな感じ。
2019/05/03(金) 13:04:11.40ID:7POfNBBv0
分割の表記を変えたほうがいいかもしれんね

・現状のままだと
数値=分割したブロックの縦横それぞれのドット数

・プログラムを書き換えて何分割するかに変更した場合
数値=分割数

現状のままで数値が小さいほうがきれいに仕上がる点を考えると、最小ドット数実行モードみたいなのを設けておけば、
ユーザーが分割数だのドット数だのに煩わされずに1番きれいな画像を簡単に得られることにはなる
ただし、最小ドット数にするとものすごく多数に分割されるわけだから実行時間は長くなるだろうけど

CUnetなどで実写モデルがメモリーオーバーする件も、最小ドット数モード限定で装備できないものか
最小ドット数であれば演算時に必要とするメモリーの量も最小限で済むだろうし
このソフトを使いたいユーザーは、速さより品質を重視するユーザーのほうが多いだろうから、分割しまくることによる実行時間の増加は許容されるだろうし
2019/05/03(金) 19:58:39.91ID:r6zMaToM0
一日掛けて画像補間のためのディープラーニングの用意してたら、avastがいくつかライブラリ削除しやがったせいでやりなおしになった……
2019/05/03(金) 20:10:52.12ID:DObikpjE0
cudnnってDLしたファイルをフォルダに入れるだけだよね?
何故か初期化失敗で読み込まないんだけど、GUIじゃ使えない?
2019/05/03(金) 20:15:48.54ID:iDHhZedk0
ドライバが古いとか
2019/05/03(金) 21:47:43.60ID:r6zMaToM0
ちゃんと
cudnn64_7.dll
をwaifu2x-caffe.exeと同じフォルダに入れてあったら動くはず。GUI版で動作確認してる。
2019/05/03(金) 23:00:43.62ID:r6zMaToM0
>>249
>>250
教えていただきありがとうございます。
御礼の言葉を忘れておりました。すみません……
2019/05/04(土) 12:18:47.40ID:g8nWmqR40
>>258
原因が判明。
Xeon CPUx2+GTX1060で使ってんだけど、Core-i7+GTX1060のサブPCで試したら使えた。
OS、ドライバー等ソフトの環境は同じ。まさかCPUのせいとは。
2019/05/05(日) 01:13:29.26ID:61owYgJd0
Waifu2x-caffeのReadmeには
TTA は指定するとPSNRが上がるよ
ぐらいにしか書いてないけど、
実際CUnetモデルを使う分にはアーティファクトが結構抑制される。(少なくとも当方の環境では)

今はEDSRを使った拡大を試してみてるんだけど、
Waifu2x(CUnet, TTA)に比べると、4xでも輪郭がくっきりしてる代わりにアーティファクトがちょこちょこでてしまうから、
誰かEDSRとTTA組み合わせてきてくれないかなあ、EDSRはNTSCサイズにそのまま使っても4xに15秒ぐらい(GTX1080)かかるから、
TTAなんてやったら余裕で分超えそうだけど
2019/05/05(日) 02:34:10.45ID:KctNE4Ca0
Linux環境でwaifu2x-ncnn-vulkanをビルドしてみたんだが
Mesa19.0.3だとfp16s使ってたのが
Mesa-Gitだとint8sを使うようになった
自分の環境ではそれで前者は33秒かかった処理が後者だと29秒になった
VK_KHR_shader_float16_int8対応の有無によるものだろうけど具体的にはわからん
2019/05/05(日) 06:04:51.50ID:YGDAWLlo00505
>>261
ESDRって何ぞ?
2019/05/05(日) 08:03:09.55ID:6VIw4tX500505
>>261
EDSRで綺麗に拡大できないのはこれのせいだろうね
waifu2xだと縮小時のフィルタを何種類かランダムで使用して学習してるから問題が起きにくいけど

https://twitter.com/ultraistter/status/1048561959187009542
> 論文だと学習データの縮小アルゴリズム固定しているの多いけど、これやると使ってる縮小アルゴリズムにオーバーフィッティングしてて同じ縮小でベンチマークやるから精度良いことになるけど、
> 現実ではなにが使われているか分からないので変なノイズ出たりで使い物にならなくなる
https://twitter.com/5chan_nel (5ch newer account)
2019/05/05(日) 08:10:27.99ID:6VIw4tX500505
EDSRの論文著者がバイキュービックでガチガチにトレーニングしてるからそれ以外の画像だと綺麗に拡大出来ないって言ってる

https://github.com/thstkdgus35/EDSR-PyTorch/issues/34#issuecomment-389725742
2019/05/05(日) 12:12:11.20ID:61owYgJd00505
>>263
超高解像度化に使うディープニューラルネットワークのアルゴリズムの一つ。

>>264
>>265
情報ありがとう。
NTIRE用にベンチがよくなるよう実用性をある種無視して過適応させてるのが鯨飲なら、
こっちで多少縮小アルゴリズムをミックスしたデータセット用意して学習させるか、
いっそのこと、各縮小アルゴリズムごとにモデルを分けて学習させてみるか。
2019/05/05(日) 12:19:11.63ID:61owYgJd00505
そういえばちょっと前にCUnetやUpResNet10では分割数で出力結果が変わってしまうから
分割数と実行時間のトレードオフみたいな話題が出てたけど

ディープラーニングが一般化する以前に使われていた
ループエンコーディングを利用した高解像度拡大アルゴリズムをちょっと応用して。(東芝がやってたやつ)

1. CUnet分割512で拡大
2. 各区画を縮小して、元画像と差分を取る。
3. 差分の大きな区画に関しては、拡大に際しアーティファクトなどが発生していると考えられる。
4. 差分の大きな区画のみ分割を半分程度にして拡大しなおす。
以下くりかえし。

ってのはできないのかな?
2019/05/05(日) 14:48:27.00ID:gD5f8BncM0505
究極を目指すのであれば、縦横3×3か5×5程度のミニブロック単位で処理して、拡大後のミニブロックどうしで再度整合性を取るのがいいような気もする
めちゃくちゃ時間かかるけど
2019/05/05(日) 15:38:36.41ID:61owYgJd00505
ふと思ったんですけど、ノイズを除去するモデルは存在するのに、
アーティファクトを除去するモデルはないっぽい?のは何か大きな理由があるんですかね?

人間はそれを見てアーティファクトかそうでないかをある程度判断できるわけで、
素人的にはそういう人間の無意識のうちの振り分けを再現するのってニューラルネットワークは得意そうに見えるのだけれども。
2019/05/05(日) 16:39:29.34ID:4uUJLCU+M0505
>>267は手順2で拡大した大きさの元画像がないとできないから特に意味がないような

アーティファクトについては、正解となる元画像と縮小拡大画像を比較する学習原理からすると
現状の拡大モデルで既にアーティファクトをなくそうとはしているはずなわけで
アーティファクトを消すだけのモデルを作ったところで、ノイズ除去を二重に掛けるみたいな結果にしかならないんじゃないかな
2019/05/06(月) 03:09:12.68ID:WQB9nEdR0
RCANは実行時間的にTTAはやってないっぽい?ので、TTA処理を付けたしたらどうなるか実験してみる。
トレーニングじゃなくて中身に手を出すのは初めてなのでまあ、多分どっかでこけるでしょ。
2019/05/06(月) 16:22:40.78ID:WQB9nEdR0
ソースコード読んだりGANの理論見たりしててふと思ったんだけど、
わざとアーティファクトを発生させるGeneratorを作って、
ある画像にアーティファクトが発生しているかどうかを見分けるDiscriminatorも作って。
ここで学習させたDiscriminatorをArtifact Loss関数として

そこらの超高解像の損失関数に、付け加えて
もともとの損失関数の出力を極力小さく保ちつつ、かつArtifact Lossも小さく保つモデルとか作れないのかな?
273名無しさん@お腹いっぱい。 (ワッチョイW e2f4-IcTs)
垢版 |
2019/05/06(月) 20:42:31.88ID:2/IyLREF0
>>272画像指標は落ちそうだけど見た目は綺麗になるかもね
2019/05/10(金) 20:42:06.30ID:TUjQ7Fi60
>>238
>>239
reshadeでした。
スッキリしました〜
2019/05/10(金) 23:38:50.29ID:w4J1WUH60
VulkanのGUI版誰か作ってくれないかな…
2019/05/14(火) 11:16:40.53ID:v9RTX3rB0
Ryzen7でVulkan使って変換しようとしても
[0 AMD Radeon(TM) RX Vega 10 Graphics] queueC=1 queueT=2 memU=2 memDL=0 memHV=1
[0 AMD Radeon(TM) RX Vega 10 Graphics] fp16s=1 fp16a=0 int8s=1 int8a=0
vkCreateShaderModule failed -3
local_shader_module 0000000000000000 waifu2x_preproc_int8s created
ってなって変換できないんだけどだれか原因わからないかな?
知識なくてお手上げ…
2019/05/14(火) 11:24:05.45ID:eUsXHcZ30
ncnnをちゃんと -DNCNN_VULKAN=ON を付けてcmakeしてるか
waifu2x-vulkanのCMakeLists.txtの
include_directories、link_directoriesをちゃんと書き換えてるか
はどう?
2019/05/14(火) 11:27:53.64ID:eUsXHcZ30
ごめん、配布されてるバイナリを使ってるならドライバの問題かもしれない
2019/05/14(火) 11:38:26.08ID:v9RTX3rB0
CMakeLists.txtってのはフォルダにないみたいですね…
もうちょっといろいろ試してみます
2019/05/14(火) 11:42:28.85ID:XRvrSnpa0
>>276
自分も同じようになったけどGPUのドライバを更新したら使えるようになったよ
2019/05/14(火) 15:38:46.04ID:v9RTX3rB0
>>280
ドライバ更新したらいけた!ありがとう〜
2019/05/14(火) 17:13:58.82ID:0XCEBJGX0
>>275
バッチファイルで良いじゃん
2019/05/14(火) 21:44:34.13ID:v9RTX3rB0
>>282
GUI作って公開してくれてる人がいたからありがたく使わせてもらってる
倍率は1倍と2倍以外は使えないみたいだけど
https://github.com/f11894/waifu2x-chainer-GUI
2019/05/16(木) 17:14:24.32ID:uoSLJfe80
・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も

-100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x1.jpg.html

+100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x2.jpg.html

嘘だろw
別の写真じゃないのか?
285名無しさん@お腹いっぱい。 (ワントンキン MM88-a8/e)
垢版 |
2019/05/16(木) 17:48:03.77ID:cUiSCQ1XM
>>284
±0はないの?
2019/05/17(金) 13:24:05.39ID:Y6hmCawT0
>>285
元の記事のリンクが抜けていたな
・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も
https://dc.watch.impress.co.jp/docs/news/1184626.html

記事中にはない模様

本家の情報もあまりない
https://helpx.adobe.com/jp/lightroom-cc/using/whats-new/2019-3.html#texture

続く
2019/05/17(金) 13:26:01.00ID:Y6hmCawT0
比較してくれているサイトがあった
・LightroomとCamera Rawに「テクスチャ」スライダーが追加 肌を簡単に綺麗に出来る!?
(なぜかリンク貼ると怒るので記事のタイトルを検索してください)

この手法(中周波成分を操作する方法)、どこかで聞いたようなと記憶があるんだけど思い出せない。
SONYのテレビだったかレコーダーあたりでこの手法のようなことをアピールしていたような記憶があるのだけど…
(他メーカーも口には出さないが、隠し味程度に使っているようだけど)
2019/05/17(金) 18:45:53.22ID:pkl3fT7EM
ソニー、繰り返しフルカラー描画できるフィルムを開発 熱で発色状態を変化 装飾のみならず写真画質も
https://dc.watch.impress.co.jp/docs/news/1185122.html

マイクロドットプリンター以来の新印刷方式登場かな?
なめらかな階調をカラー印刷で実現は素晴らしい
2019/05/23(木) 15:04:57.20ID:pn9ulyEn0
すげえ

Samsungが1枚の写真や絵画からリアルな会話アニメーションを作成できる技術を開発
https://gigazine.net/news/20190523-samsung-ai-animate-painting/
https://i.gzn.jp/img/2019/05/23/samsung-ai-animate-painting/00.png
2019/05/23(木) 15:10:52.41ID:eTN5wD9X0
別人が混じってるレベルw
2019/05/23(木) 18:59:41.60ID:hHkb4j4M0
アニメ向けにチューンしたらlive2d要らなくなるな
2019/05/25(土) 21:26:28.66ID:FaY1aX6g0
低解像度ビデオもすぐに高解像度に変換できる超解像アルゴリズムTecoGANがすごい
https://ai-scholar.tech/treatise/tecogan-154/

https://imgur.com/1sH5fLl.gif
https://imgur.com/bOvZFqD.gif
https://imgur.com/re5hkgB.gif
https://www.youtube.com/watch?v=pZXFXtfd-Ak
2019/05/25(土) 22:27:12.02ID:vmLLAtmla
すごそう
2019/05/25(土) 23:04:33.03ID:CKP6oNsUa
カメラが動いてないと実質同フレームからしか補完できないだろうし、動きのある実写向きだろうか
リミテッドアニメにはあまり効果が無さそうな気がする
2019/05/25(土) 23:43:44.58ID:7GZyvIYF0
>>292
これはすごい
2019/05/26(日) 00:59:31.09ID:TWwSVOjY0
テコすごいなぁ
waifu2x最大の欠点である輪郭の違和感や斜め線の不自然さが感じられない
2019/05/26(日) 11:29:04.16ID:pO82b6+30
ビデオ撮影の頃の特撮に使ってみたい。
2019/05/26(日) 12:24:05.47ID:1V1/pKG70
今までのGANと何が違うのかはわからなかった
2019/05/26(日) 12:43:57.99ID:kBnnBn4FM
>>297
オリジナルがSD(480i)しか残っていない素材に効きそうだよね
お試し版とかあればいいのだが
2019/05/26(日) 15:17:53.68ID:cR7q12SK0
>>299
一応GitHubに公開されてるみたいだけど使い方はよくわからない
https://github.com/thunil/TecoGAN
2019/05/26(日) 15:22:39.77ID:kBnnBn4FM
>>300
一応あるんだね
誰かGUI化プリーズ!

ついでに、これって学習型超解像系では数少ない動画対応なわけだが、超解像実施時に同時に
インターレース解除も学習型で高品質にやってくれたらパーフェクトなんだけど、
さすがにそれは難しいのだろうか?
■ このスレッドは過去ログ倉庫に格納されています
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況