【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net

レス数が900を超えています。1000を超えると表示できなくなるよ。
画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。

--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/

・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436

・waifu2xとその派生ソフト一覧
※リンクがNGワードに!

・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437

・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/

・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html

・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured

MSE・PSNRによる画像拡大アルゴリズム10種・ソフト8種、計14パターンの画質評価結果
http://loggialogic.blogspot.jp/2015/09/msepsnr10814.html

・waifu2xとその派生ソフト一覧
http://kourindrug.sa kura.ne.jp/waifu2x.html

Q. waifu2xの派生バージョン多いけどどれがオススメ?
A. Windows 64bitかつGPUがnVidia製なら、Waifu2x-caffe。それ以外の環境なら、tanakamura版あたりを試すと良い。
2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。


・歴代スレ
waifu2x [転載禁止]2ch.net
http://anago.2ch.net/test/read.cgi/software/1433637613/

【超解像】画像拡大ソフト総合スレ1【waifu2x】 [転載禁止]2ch.net
http://potato.2ch.net/test/read.cgi/software/1447218757/

いちおつ

          旦 旦 旦 旦 旦
          旦 旦 旦 旦 旦
           旦 旦 旦 旦 旦
           旦 旦 旦 旦 旦
          旦 旦 旦 旦 旦
           旦 旦 旦 旦 旦
          旦 旦 旦 旦 旦
.   ∧_∧   旦 旦 旦 旦 旦
   ( ´・ω・ ).  旦 旦 旦 旦 旦
.   /ヽ○==○ 旦 旦 旦 旦 旦
  /  ||_ |_ 旦 旦 旦 旦 旦
  し' ̄(_))  ̄(_))  ̄(_))  ̄(_)) 

>>2
> 2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。

これは古い情報で、20151130以降のバージョンならアルファ対応してる。

>>1
>>5
cppの0101入れてFireGL環境でqtのGUIつこうてますけれど
元画にあるPNGアルファチャンネル消えて色があふれたみたいな画になるよ
使い方が悪いのか見当がつかない

ここは暴言多いんで、ワッチョイありでいいわ

おつおつ

こっちが本スレかな?

スレ立て乙

ワッチョイで特に必要性薄くなったけど念のため・・・
オススメ追加NGワード(正規表現)の手順 (改訂版)

1.[ツール]→[設定]→[機能]→[あぼーん]→[NGEx]→テキストボックス内に適当な名前(例:caff荒らし)を入力して→[追加]

2.次に開くウィンドウで、 以下の様に設定する。
   NGWORDのタイプを「正規(含む)」に変更し、そしてキーワードに以下をコピペ(予め1行にすること)
(は([  \.]+)?み([  \.]+)?出|V([  \.]+)?G([  \.]+)?A|1([  \.]+)?0([  \.]+)?2([  \.]+)?4|7([  \.]+)?6([  \.]+)?8|
1([  \.]+)?9([  \.]+)?2([  \.]+)?0|6([  \.]+)?4([  \.]+)?0|M([  \.]+)?D([  \.]+)?.?([  \.]+)?5([  \.]+)?5([  \.]+)?0([  \.]+)?0([  \.]+)?|
L([  \.]+)?7([  \.]+)?9([  \.]+)?7|解([  \.]+)?像([  \.]+)?度([  \.]+)?|糞|雑([  \.]+)?魚|ク([  \.]+)?ソ|ザ([  \.]+)?コ|客|干([  \.]+)?[さしすせ])

3.左下のリストボックスを「透明あぼ〜ん」に設定。[OK]を押すれば新規レスからあぼ−んされるので取り敢えず終わり。
   既存のレスも消去したいなら4.も実行。

4.[スレッド]→[このログを削除]して、[ファイル]→[最近閉じたスレ]から削除したスレを開き直す。
   レス番号が歯抜けになっているはず。

2.のキーワードはその動向を見ながら変更追加して下さい。中には関係ないのも巻き込むので注意ですね。
正規表現をもう少し駆使すればかなりの精度でNGできます。ただ上記とその変更でも十分活用出来るでしょう。

>>6
qtのGUIって↓のやつだよね?
https://github.com/khws4v1/waifu2x-converter-qt

試しに使ってみたけどアルファ保持されたよ。
アルファ消えるのはもしかして古いバイナリを使うように設定してるとかかな?

ワッチョイのおかげでレトロガイジが駆逐されたみたいやな

14名無しさん@お腹いっぱい。 (ワッチョイ 9c42-BRmI)2016/05/10(火) 18:42:31.00ID:PIjk1rDx0
レトロガイジって何ですか?

「レトロなキチガイ児」のことじゃね?知らんけど。

>>12
お手数かけました情報ありがとう
そちらで保持されておられるのなら自分の方法が間違ってるに違いないと確信した
qt側の設定で最新のcppの実行ファイル指定はできていたので何か間違いがないか
手順を再確認してみる

昔の栄光にすがってる、哀れな独りよがりのピエロのことだよ。

>>12
試行した結果
自作PNG→OK
webで拾ってきた透過PNG→NGなのもある
作者さんが注意書きされておられた
bKGDに変な値入ってると変な色が出る可能性はある。
上記に該当する画像だと判断できました
アプリで開いて透過PNGで保存し直しwaifuするとOKでした
いまさらな話題で失礼しました

新しい機器が買えないニート

一応連絡です(作者の人ではないのですが)
waifu2x-c/c with Batchfile and HTA-GUIをご利用中の方へ

・画像アップロードでウェブサイトを乗っ取られる攻撃が進行中--「ImageMagick」脆弱性
http://japan.zdnet.com/article/35082361/
というニュースが少し前より出ております。
念のため、最新のImageMagickに更新されておいた方がいいかと思います。

・ImageMagickダウンロードページ
http://www.imagemagick.org/script/binary-releases.php#windows
(種類がいろいろあるようですが、ImageMagick-7.0.1-3-Q16-x64-dll.exeでよいかと思います。)

なお更新するにあたって、事前に古いバージョンを手動削除し、念のためCCleaner等できれいにしてから最新版をインストールされた方がいいと思います。
(手動で削除しないと古いバージョンが残ったままになってしまうため)

・インストール時の注意点
途中で「Select Additional Tasks」の画面が表示されたら

上から2番目
Add application directory to your system path

1番下
Install ImageMagickObject OLE Control for VBscript,Visual Basic,and WSH

この2点に必ずチェックが入った状態にして先に進めること。

ちなみに、先ほどImageMagickを更新してから久々にwaifu2x-c/c with Batchfile and HTA-GUIを起動して使ってみましたが、
やはり私のPCでは利用できないままなのは変わらないようです。
(起動時にエラーは出るし、ファイルの選択すらできない。)

前スレで画像のbit深度について書いていた件なんだけど、いろいろ調べていたら
・ImageMagickのビット深度と画質劣化
http://mikio.hatenablog.com/entry/2016/02/12/220435
という興味深いページに行き当たった。

曰く、「ImageMagick 7からはHDRIがデフォルトになる」そうです。
※HDRIとは、「内部表現を浮動小数点数で持つ機能」のことだそうです。
先日>>20にてアップデート推奨と書きましたが、現在のバージョンが7.0.1-3ですので、おそらく対応しているものかと思います。

ImageMagick 7以降を使うと旧バージョンに比べて画像フォーマットの変換時の劣化を抑えられるかも。
旧バージョンを利用中の方は更新されておく方がいいと思います。

ところでもともと調べていたのは「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」を探すことが目的だったのですが、案外ないものですね。
(Photoshop関連の情報はたくさん出てくるのですが)
ImageMagickだとできるかなと調べているのですが、よくわからんです。
誰かご存知でしたらよろしくです。

HDRIについてさらなる考察をされている件も興味深いので合わせてどうぞ
(HDRIかつ16bit、あるいは32bit、64bitのケースなど)

・ImageMagickのビット深度と画質劣化 その2
http://mikio.hatenablog.com/entry/2016/02/15/221433

>「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」
綺麗に、ってのは、オーディオで言うところのアップサンプリングみたいなのを考えてる?

解像度を上げつつ、補完するピクセルの色を16bitでしか
表現できない色で表現する、ならわかるけど
解像度を上げないでそのまま16bit化するのはただ
ファイル容量増えるだけで何も変わらないよ

>>24
「オーディオで言うところのアップサンプリングみたいなの」ということになるのかどうかわかりませんが、
各色16bitに変換する際にトーンジャンプが起きないように補完しつつ変換するような感じの動作をするものを探しています。

表現が間違っているかも。
元画像に含まれるトーンジャンプ(バンディング)を滑らかに補正しつつ、bit深度を拡張、というべきかも。
つまり元画像が高圧縮された画像であればあるほどトーンジャンプが発生している確率が高いので、
そのまま拡大するのではなく、あらかじめ階調をできる限り滑らかに補正しておいてからwaifu2xに渡す、というような前準備を考えています。
等倍サイズでは目立たなくとも、拡大するとトーンジャンプは目立つことが多いので。

可能性の話になるけれど、ディープラーニングを利用したノイズ除去とは別にやの、トーンジャンプ除去モードとかbit深度拡張モードがあればいいのか?
(等倍での出力も対応)

ノイズ除去も目的に応じてより細かいモードがあるといいのかも。
ブロックノイズ軽減モードとか、モスキートノイズ軽減モード、カラーノイズ除去モード、などなど。

思いつきのメモ
画像を圧縮することによって発生する問題(ブロックノイズとかトーンジャンプとか)を、圧縮前はこうだっただろうという想定で復元する「超復元」。
さすがにそんな都合のいいものは無理?

>>28
1.00000001倍に拡大して自動判別してノイズ除去で良いんじゃね

>>28
トーンジャンプ/ブロックノイズした絵を入力・解除された絵を出力するように学習させれば可能かも

>画像が高圧縮された画像であればあるほどトーンジャンプが発生している確率が高いので
トーンジャンプ(バンディング) が判るような圧縮画像じゃ、8bit諧調ですらないのでは?ってレベルの画像なんじゃないだろうか・・・

処理時間半分以下になるバージョンの公開が待ち遠しい

フィギュアの写真をアニメ調にしてくれる機能があったらなぁ。

新バージョン待ち遠しいな

新モデルはupconvブランチに置いてますけど
ピクセルアートなどでひどいアーティファクトが出てることに気付いたのでまだ変更します。
時間半分以下でイラストでのベンチマークも上ではありますけど
以前より悪くなるパターンもあってあやしくなってきました。

処理時間よりどれくらい綺麗に処理出来るようになったかが気になるな
特に前スレで書かれてたノイズを使ったときの溶けた感じや輪郭線など

とにかく作者さん頑張って

モデルデータなんだけど、現状はアニメ用とか写真用とかに分かれていて利用者が選択するやり方になっているけど、
絵柄の部分ごとに自動的に切り替えて適用させることはできないものなんだろうか?
(切り替える判断をディープラーニングでさせる)
・階調情報が少ない面が一定以上ある部分→アニメモデル
・輪郭線が複雑に構成されている部分→Yモデル
・それ以外→RGBモデル
みたいな。

>>35
ピクセルアートはコントラスト比が高い絵柄が多いから、現状のwaifu2xのやり方だと溶ける症状が出やすいかもしれませんね。
どうも溶ける症状が出やすいところって、コントラスト比の高い部分が隣接しているような場所でおこりやすい気がしますね。
(だから結果として輪郭周辺部とかで目につきやすいのかも)

コントラスト比が高い部分とコントラスト比の低い部分を同じ割合で強調してしまっているのかな?
元画像のコントラスト比が高くなるほど、強調する度合いを低下させておくような仕掛が必要だと思います。

新バージョンでは輪郭線が綺麗になる?
SDからFHDにアップコンバートするとこんな感じになるんだよね…
http://i.imgur.com/GhxuUH3.png

>>39
みんなそれを期待していると言っても過言ではないのけど、実際問題としては相当難しいんだろうなとも思う。
というのは、人間の目には輪郭とは「一本の繋がった線」として認識しているので、目に見えにくいところが少しくらい途切れていても
脳内で補完される(これを「アモーダル効果」とかいうそうです)仕組みがあるけれど、コンピューターに勝手にそのような効果が備わっているわけではないので、
輪郭線の細部の「ムラ」になっていたり、ノイズまみれになっているところを、いかに連続した線としてきれいに見せる=すなわち「連続した線として認識できる」
かが鍵になるのだと思う。
つまり、現状のwaifu2xは細かい点ごとを処理している状態であるところを、あらかじめディープラーニングを使って「この連続成分は線なのか?」ということを
事前に認識する前処理を施したうえで、「線成分(=連続成分)」と認識した場所と、そうではないところで処理方法を切り替えることが必要なのではないかと個人的に
思ってはいるのだけど(連続成分については超解像効果をオフ、もしくは弱めて適用)、作者様、そんな前処理&処理方法の切り替えはできないものでしょうか?

現状が出力1px出すのにその周りの7x7pxがどうなっているかで出力を決めているので
その範囲でそれが線か点か平面かみたいなところは判定できていると思います
新モデルはこれが12x12に広がるのでもう少し複雑なパターンも分かるのではと思うけど
フィルタが大きくなるとそれだけ無関係なピクセルから影響を受けやすくもなるので
アーティファクトも出やすくなってしまう

>>41
参照範囲を拡張されるのですか?
それはいいですね。
アーティファクトについては元画像が圧縮画像である場合に発生しやすいかと思いますので、現在装備しているノイズ除去とは別に、
アーティファクトの影響が出やすそうな圧縮ノイズだけを事前に除去するようなモードをつけておくことで対処することは難しいのでしょうか?
(>>28で書いたような感じのブロックノイズとかトーンジャンプに加え、輪郭周辺部に出やすいモスキートノイズなどを個別にオン・オフできるといいかと思いますが)

作者様のTwitterを見たところ、「Imager::AnimeFace」なる輪郭検出に必要になりそうなソフトウェアをすでに作られていたご様子。
このソフトの技術で認識した輪郭部だけに適用する「輪郭ノイズ除去フィルター」なんて組み込めないものですかね?

こんなソフトもあるようですね。
・JPEGノイズ除去フィルタ
http://www.webtech.co.jp/help/ja/optpixlabs/jpeg_noise_filter/

人のいるところでは開かないほうがいいページだけれども、参考にはなりそうなところ。

Googleで「輪郭ノイズ除去フィルター」で検索すると、「プロカメラマンのPhotoshop女性写真補正術」なるところが表示されますのでそこに出てきます。

人前では見るなよ!見るなよ!

>>40
分かりやすい説明ありがとう
やっぱりみんなもそこ気になってるんだね
輪郭線も気になるけど、画像みたいな色が違う境界線も新バージョンで改善されると嬉しいな

要望ばかりで申し訳ないが、作者様頑張って下さい

アニメって原寸でも少しボケ気味だから拡大前に若干縮小するか、シャープかけてからの方が良い結果になることが多い

waifu2x-c/c with Batchfile and HTA-GUI作者です、ご無沙汰してます

>>20
ありがとうございます。私もこのレスを見て始めて脆弱性のことを知りました...
>>21
申し訳ないです。。。もしよければバッチファイルだけでもご利用ください。

重いのに使ってくださる方がいて嬉しい限りです。
リアルが多忙ですが、tanakmura氏版がLv3に対応した後ぐらいの時期に次版をリリースしようと考えています。
次版は少々軽くなっているはずです。
また、近いうちに選択肢が簡単な(コマンドライン準拠でない)バージョンも用意したいと考えています。
個体差でエラー&起動しない問題の解決にも取り組みたいところです。

>>48
ImageMagickの件については、>>22-23に記述した件もありますので、更新しておいて損はないかと思います。
なお、「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」の件ですが、どうやらImageMagickにそのような機能があるっぽいのですが、まだよくわからず。
引き続き調査中。
(ImageMagickをGUIで使える汎用性の高いフロントエンド(AviUtlみたいな)ってないのかな?)

ひょっとして8bit→16bitをImageMagickで変換するには

convert input.png -depth 16 output.png

だけでよかった?

そんなわけはなかった・・・
引き続き調査。

倍速バージョンがcaffeに採用される日はまだ遠いのでしょうか?

各16bitにしてもグラボやモニタが対応してないと確認できないよーな

16bitは編集前提だから
まぁ、Radeonの次期モデルから10bit出力対応になるし、モニターも対応モデルが増えていくから無駄にはならん

>>39
これ学習時に縮小するときにジッタ成分としてランダムにサンプリング位置を僅かにずらしたのを学習させれば
ノイズとして巧いこと処理できるようにならないかな
縮小したのをWarpsharpとかランダムシフトでずらして凸凹を再現してもいいけど

>>54
ちゃんとキレーに処理されてたら無駄にならないからいいけど、
いざ確認できるようになってから、誤差拡散ノイズまみれとかになってたら嫌じゃね?

ビット拡張は暗部階調に意味があるんだからガンマカーブやトーンカーブいじって明るくしてやれば確認は出来るでしょ
10bit出力だってDirectXやOpenGLのフルスクリーンで相当昔から出来るがDeepColorのTVでもそのままじゃわからん
Blu-Ray再生でRGBのまま再生したいときにロスが減るという意味がある程度かもしれん

新バージョンはいつ頃になりそうですか?

rigayaの日記兼メモ帳 技研公開 2016
http://rigaya34589.blog135.fc2.com/blog-entry-788.html

NHKの方でも縮小して拡大、PSNR算出みたいな事するのね

ムッ、ブログ記事の画像URLのGiken2016_10s.jpgをGiken2016_10.jpgにすると読みやすいのが出るな

>>58
平均的にはいいんだけど,現在のモデルよりすごく悪くなる例がいくつかあってどうしてもよくならないので苦悩しています
(ウェブの方を置換するので現在より悪い例はできるだけ無くしたい)
あと2倍といっていたけど,モデルのロード時間も測ってしまっていて
測りなおしたら4倍近く速かったので,もう少し遅くなっていいのでよくできないかなと考えています

>>61
お疲れ様です。
すごく悪くなる例というのは、以前おっしゃられていたピクセルアートなどの場合でしょうか?
私はプログラミングのことはよくわかりませんが、悪くなる原因というのは現行方式にくらべて新方式が速く処理できる以上、
何か重要な処理が省かれてしまっている、もしくは簡略化されてしまっている、という可能性はないのでしょうか?
逆に言うと、省かれたか簡略化された処理がかねてより問題の輪郭線などが溶けてしまう要素とも関係していたりはしないのでしょうか?

もしそうであるならばですが、拡大処理などをする前にまず画像全体をチェックして、新方式で問題ないと判断される場所は新方式で高速処理し、
問題が出そうと判断される場所は現行方式、あるいはさらに改良した方式をあてがうなど、処理を切り替える必要性があるのではないでしょうか?

それと3年ほど前の記事ですが、こんな記述も参考になるかも
・東芝「REGZA Z8X」開発陣に聞く、「本格的4K時代」 4Kだから差が出る画質。地デジを高画質化の秘密
http://av.watch.impress.co.jp/docs/series/rt/20130809_610976.html

「ではなにが実物感に繋がっているのかというと、グラデーションの美しさであったり、自然なエッジの持つ「柔らかいが細かい」という感覚です。
映像エンジンとしては、階調性や微小な振幅が失われないよう、いかに内部のバス幅を広くとるか、ということを意識して開発しています。

最後まで12bitで伝送するといったことにこだわらないと、4Kらしい実物感が出てこないのです。」
→つまり、前回お話ししていた8bit画像を高bit化する際の処理方法とその後の情報精度維持が効く!

・微細テクスチャー復元
http://av.watch.impress.co.jp/img/avw/docs/610/976/html/ppt05.jpg.html

「2Kの段と4Kの段をしっかりわけて処理しないと、そうした「リアリティ」が出ない

そんなにゲインをかけてはいないです。微小なところしかかけていないんですが、それを入れるか入れないかで、4Kになってしまうと大きくかわってきます。」
→微小な階調差の領域とそうでないところを同じ処理(=強調)をしてはいけない!
※協調具合は逆ガンマ特性であてがうといいのかも

・絵柄構造適応型MPEG-NR
http://www.toshiba.co.jp/regza/lineup/z700x/quality_03.html#psa
→絵柄の相関性に基づいてフィルターの形状を適正化の部分を取り込むことで、参照範囲を拡張することによるアーティファクトの問題を軽減!

8bit画像を高bit化について追記

ノイズ除去や拡大する前に、ディープラーニングを使った高bit化(8→16bit化)が必要なのかも。
※単なるデータだけ16bitにしました、ではなく!

>>64を訂正

元画像でディープラーニングを使った高bit化(8→16bit化)ではなく、waifu2xで内部的に確か使っているニアレストネイバーで拡大した画像をディープラーニングを使った高bit化(8→16bit化)のほうがいいのか?

いや、それなら拡大後の画像にディープラーニングを使った高bit化(8→16bit化)を適用すればいいのか?
手元で試せるわけじゃないからわからんな・・・

そもそも原点に戻るべきなんだろうか?

waifu2xが出た当初、今よりも輪郭が溶けやすかったので、NNEDI3で拡大後にwaifu2xでノイズ除去のみ適用というのをやったことがあったけど、
waifu2xが改良されてからNNEDI3を使う方法は全く試してなかったんだよねぇ。

NNEDI3と最新版のノイズ除去との組み合わせ、あるいは以前に書いたような輪郭成分と認識される部分だけに適用されるような新型ノイズ除去?との組み合わせならばどうなるのだろうとふつふつ・・・

そのうち時間が取れたら試すか。

手元に以前にNNEDIS3にて2倍、4倍、8倍に拡大した画像があったので改めて見てみたのだが、確かに眠い画像ではあるんだけど輪郭とかは自然なんだよね。
NNEDI3で拡大して、画像の面成分(=「Imager::AnimeFace」にて輪郭と認識されないところ)のみwaifu2xにて超解像効果を適用・・・

それができるのならば、テレビなどでよくある解像度の変換はなしで、解像感だけアップする手段にも使えるのか?

ダラダラとうぜえ・・・

「私はプログラミングのことはよくわかりませんが」って奴が、よくまあ長々と愚にもつかない事を語れるもんだ
マジでどういう神経してるのかと

大手サイトで紹介されたのは初めて?
http://www.itmedia.co.jp/news/articles/1605/31/news119.html
以前話題になってた自動カラー化の

>>70
まあアドバイスをするぐらい良いじゃない
作者も嫌なら無視すればいいだけなんだし

>>61
結構苦労されてるみたいですね…
個人的に処理速度より精度を気にしてるので期待しています(特に輪郭線)

今日のGoogleは影絵作家の生誕記念バージョンになっているけれど、新バージョンは影絵とかも不得意かもと思ったところでひとつ気になったことがあったので調べてみた。

・Convolutional Neural Networkとは何なのか
http://qiita.com/icoxfog417/items/5fd55fad152231d706c2

気になったのは
「CNNの進化
年が経るにつれ精度が上がってきているCNNですが、近年の構成では以下のような特徴がみられます。
フィルタを小さくし、階層を深くする
PoolingやFCのレイヤをなくす
以下の図では、年々精度が上がるにつれレイヤが深くなっているのがわかります。」
の部分。

つまり、フィルターというか参照範囲そのものを増やすよりもレイヤー(考え得るパターンの分岐?)を深く(=パターンを増やす)するほうが得策っぽい件なのだが、
そうであるならば、参照範囲は現行程度に留めて、フィルターの形を複数用意してそれぞれの絵柄に応じて一番しっくりくるフィルターの情報を基に畳みこみした方が
いいんではなかろうかとふと思ったのですが、ダメですかね?

フィルターをあらかじめ、正方形、長方形、△(向き四方向各々)菱形、8角形、とか用意しておいて、全部実行して一番いいのを選択。

TTLモードで回転による8パターンをやる時間があるならば、この方がいい結果が出るような気もするんですが。

すでにやっている人はいたようです。

・Deep Learning Advent Calendar 2015
http://vaaaaaanquish.hatenablog.com/entry/2015/12/25/005523
「sliding windowのスケールの違いによって入力も違うため, 誤認識が発生するという問題もありました.
そこで, Exhaustive Searchのスケールによる誤認識を減らすための画像処理手法や計算量を減らす手法*4, 物体検出に対して効率的な手法*5が出てきたり,
CNN以外でもsliding windowの欠点を補うようなRandom Forest的手法*6が出てきたりしました.」

で、さらにDeep Q-Network(DQN)などというものも出ているようで(名前がなw)
深い・・・

もう悪くなりそうなパターンを調べてそういうパターンを自動生成して学習データに加えることで無理やり対応した
例: http://ccsaku.moe.hm/gyazo/data/0b76b99850d7cc5eac0e4857da451890.png
こういうパターンを良くするのと引き換えにイラストの平均的なスコアは少し下がると思うけど
最悪な場合のスコアはかなり上がっているはずなのでいいやろという感じ

イラスト90枚のセットで,縮小に平均画素法を使ったときの平均PSNRが
既存: 36.74, 新: 37.07
縮小にLanczosを使った時が
既存: 36.76, 新: 37.25
で平均も既存よりは良くなっている
処理速度も2.4倍くらい速い
対応方法はこれでいいと思うので,
あとちょっと調節するのとノイズ除去付きも試してみてよければ追加で
ウェブの方は新モデルで置き換えることはほぼ決まりです

>>74
レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数のことで
>フィルタを小さくし、階層を深くする
これはVGG Netなどの3x3畳み込みを何度も繰り返すネットワークで
waifu2xは元からこれをベースにしています.
また1x1畳み込み以外だとレイヤを増やすと参照範囲も広がります.
フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず

>>76
お疲れ様です。
悪いパターンを自動生成して学習ですか。
それはよさそうですね。
確かにこういうコントラスト比の高く境界面の差が大きい画像を集中的に取り込んでおくのはいいと思います。
(そういう意味では影絵もいいのか?)
期待しております。

>>77
入れ違った・・・
解説ありがとうございます。

>レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数
ということは、演算回数を利用者が任意に変更できるようになると、
・回数を減らして時間短縮(精度は落ちる)
・回数を増やして精度向上(時間はかかるが、1日でも2日でもバッチコーイならば・・・)
とかできるといいかもしれないなと思いました。

>フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず
それは素晴らしい。

結果を楽しみにしておきます。

>>76
おお!
お疲れ様です
上で出てたアニメの輪郭線などは改善されそうですか?

今の感じだとアニメは拡大後の理想される線の質がイラストと違うので
イラストで学習しているとダメだと思います
写真モデルを使えば無難な結果になると思うけど

やっぱり輪郭線は直らないのか…
そこ期待してたのにだけにちょっと残念だ

写真モデルで試してと書かれていると思いますが…
写真モデル+TTL+新バージョンの組合せで、どれだけ改善されるか次第かと。

本家、もしかしてもう新バージョンに変わった?

いいえ

86名無しさん@お腹いっぱい。 (テトリス fc41-ChPp)2016/06/06(月) 21:11:13.67ID:mne5Rlul00606
モノクロ写真をアップすると……? 「人工知能で白黒写真をカラーに」を試せるWebサービス
ディープラーニングを応用し、白黒写真を自然な色味に彩色する手法をブラウザ上で実行できるWebサービスが公開された。
http://www.itmedia.co.jp/news/articles/1606/06/news131.html

>>86
へー、これもローカルで動くやつ誰か作らないかな(他力本願

>>86
学習データが偏っているんだろうけど、黄色あたりが不自然なんだよな、これ。
もっと学習データ増やさないと。
ディープラーニング関係の資料を見ていて思うのは、学習データがキモであるにも関わらず、学習するのに時間がかかるせいか妙に学習データの数が少ないなと思うケースがしばしばあるように思う。
ある程度の正確性を求めたければ少なくとも10000以上は学習しないと話にならないのに。


ぼっさん

いよいよ作者氏が本気出す時が来たようだ。
https://twitter.com/ultraistter/status/741488649884164096?lang=ja

ところで、GTX 1080 1枚 VS RX480 2枚で話題になった例の件、waifu2xの場合はやはりGTX 1080 1枚のほうがいいんだよね?

新モデル+GTX 1080だと640x480->1024x768のノイズ除去+2xが560msくらいでできています
あとGPUの違いなのかcuDNN v5+CUDA 8.0か分からないけど
以前試したら異常に遅かったWinogradという3x3畳み込みを速くするアルゴリズムが
速くなってて,現verも950msくらいで処理できています.
(以前は,新モデルのほうが3倍くらい速かったので差がかなり縮んだ)
AWS EC2のGPU+現verだと3700msくらいで,このGPUはGTX 760と同じくらいの性能です.

>640x480->1024x768
640x480->1280x960に訂正

ベンチマークというか単純に自PCのショボさを比較したいのですが
皆で共通に使える適当な画像(画像群)ってどこかにあったりしますか?

R18にならない程度の2次で(ココ重要

>>92
お疲れ様です。
GTX 1080導入、おめでとうございます。
アルゴリズムによって速度が変わるとのことですが、画質が変わったりはしないのでしょうか?
遅いけど高画質なアルゴリズムとかあるのかなと。
あと、二段階超解像ってできないかなと思ったりしてるのですが。
つまり、
1回目:今まで通りの超解像による拡大
2回目:1回目でできた拡大画像と元の画像を比較して、再度超解像効果を手直し
みたいな。
元画像と拡大画像を見比べて、「もっとここ手直しできる」というところを再調整とでもいうのか。
この2回目だけの処理だけ活用すると、元画像を拡大せずに解像感や輪郭まわりの再現性向上にも使えますだとなおうれしいんですが。

>>94
速度についてなら画像のサイズとチャンネル数(RGBか透過を持っているか)だけ合わせれば
画像の内容はほとんど関係ないと思います
>>95
変わりません
やりません
ただすごく変になった時/ところを検出できると便利とは思います

>>96
アルゴリズムによる画質の変化はないんですね。
すごく変になったところを検出→フィードバック→再調整
ができればいいですね。

9894 (ワッチョイ 839d-7xHu)2016/06/11(土) 22:26:00.73ID:+7f02WYI0
>>96
なるほど、てっきり線が多様でノイズの多い複雑だけど低画質なものが
加速度的に必要時間が増えていくものだと思ってました

開発、陰ながら応援しています

560msって早すぎやろ!
waifu2xで動画エンコしてるけどかなり短縮されそうでワクワクだわ
俺もPascal買おうかなぁ

新モデルが待ち遠しいな…
完成までまだ時間掛かりそうですか?

ノイズ除去付き拡大もうまくいっているので
たぶんもう学習処理回すだけです
イラストは明日には全部学習終わります
あと写真、Yモデルの再学習に4日つづくくらいかかる
ちなみに現在のモデルも使えるようにしているので追加という形になります
ウェブ版はGPUメモリの関係で全部のモデル読めないので置き換えますが
ベンチマーク的には結構スコアが上がっているけど
パッと見でわかるほどの違いはないと思います

>>101
思ったより完成が早いですね、お疲れ様です!
新バージョンは処理は早いけど精度(輪郭線や境界線等)はあまり変わらないということでしょうか?

ノイズ除去がYからRGBになったときはサンプルの画像挙げて変化を説明してたはず
画像出さずにPSNRの数値だけ出すのは人間の目から見てそう変化がないからだろう多分

サンプル出してたの別の人だったかも、うろ覚え(汗

>>103
2枚重ねてみると、ところどころ違いがあるは分かりますけど
黙って置き換えても誰も気づかないのではないかという不安はあります
なんとなく違和感が減った気はするけどプラシーボかもしれない
PSNR的には結構良くなっているので、よくなっているのは確かだと思いますが説得力はないです
明日か明後日くらいにウェブの方イラストだけ置き換えようと思うので
気になる画像を持っている方はそのときに試してみてください

やっぱ置き換えではなくてお試し用サーバー1台用意します。
もともと今のウェブ版はそういうものだけど、
もう普通のウェブサービスになってしまっていて置き換えるのに勇気がいるので。
それならTTAも使えるようにできます。(遅いのは仕方がないねということで)

>>105
写真モデルを用いても>>39のような輪郭線を綺麗にするのは難しいでしょうか?

>>101
いよいよですね。
期待してます。
>>106
サーバーを別途確保されるんですか?

お試し機能以外、サーバーでのサービスは、そろそろ有料化されたほうがいいんじゃないでしょうか?
ネットサービスは無料が当たり前という風潮がいまだにありますが、当たり前じゃないんだということを理解させることも大事だと思います。
(お試し機能も1人が専有し続けないような制限を設けたほうがいいと思います。)

別件で、かねてからの「溶ける」件、対処療法ではあるのですが、対策になりそうな方法を発見しました。
1週間ほど時間が取れないので、それ以降に検証してみる予定です。

>>107
元画像があれば見ておきますが。
写真はまだやっていないので分からないですが
イラストはそれほど変わっていないのであまり期待できないと思います。
ちなみにこれはイラストでノイズ除去2してますよね...?

>>109
>>39の画像上げた者です
画像のは704*396→1920*1080に拡大ノイズ除去2したものです
残念ながら今は元画像がないです…

http://waifu2x-dev.udp.jp/
で新モデル試せるようにしています
拡大とノイズ除去+拡大が変わっています.ノイズ除去のみは同じです.
自分で見た感じだと,拡大はそれほど違いはないし問題もないように思うけど
ノイズ除去が入ると,強弱が以前よりはっきり出ていて
いい時はいいけど,ノイズが強い時に線の太さが不安定になっているように思います.
なにか思うことがあれば書いていただくと対応できるかもしれません.
ベンチマーク結果は
https://github.com/nagadomi/waifu2x/blob/upconv/appendix/vgg_7_vs_upconv_7_art.md
にあります.ベンチマーク的には全部良くなっています.

やっぱりYUV 420のJPEGでやったほうがいいのかなと思い始めました.
現実のJPEGはほとんどがYUV 420で学習時にYUV 444しか見ていないので.
今は色が変わるのでやっていないのですが,選択できるようにするかもしれません.

新バージョン、凄く速度が上がってますね
でも、輪郭線は正直微妙かなぁ
良くなってるところもあるけど、悪くなってるところも結構あったりする
こればっかりはしょうがないですね

あ、間違えて旧版の写真モデルと比較してた
イラスト同士で見比べてみたけど、違いが全然わからんw
ただ、処理速度は格段に早くなってる

YUV420/YUV444半分づつで学習したら
入力YUV444時のスコアほとんど下げずに
入力YUV420時のスコアがっつり上げれる感じだったので
もうノイズ除去もこれに置き換えようと思います.
もともとJPEGの色のノイズ等も消しているし,色以前に細部が消えたりしているので
色がちょっと変わるリスクなんていまさらだよね...?
平均的には良くなるし,いくらか試すと線の境界などで色が濁ってるが結構直ってる.

>>111
お疲れ様です。
早速試させていただきました。
イラストモデルのみではありますが試したところ、以前に比べて少し溶けにくくはなったような気もします(特に4倍以上にした場合)
なお、>>108にて書いた対処療法をすこし時間があったのでやってみました。
(結果は下記にてダウンロード可。明日の23時59分までの限定です。解説はテキストファイルに書いてあります。)
http://www1.axfc.net/u/3679593
写真モデルでやるとどうなるか、あるいはもうすこし小細工するかも含めて検討中です。

>>112
YUV 420モデル(イラスト・写真それぞれ)があれば、一種の色超解像的効果が期待できるので、圧縮画像には特に効用が見込めると思います。
期待しております。

>>116の画像を若干手直ししました。
http://www1.axfc.net/u/3679606
この方がいいかも。

あらかじめNNEDI3で拡大する前に、GIMPでアンシャープマスクを+0.10程度かけておいてからNNEDI3で拡大→縮小→waifu2x→再度GIMPにてコントラストとアンシャープで微調整のほうが細部の情報が残りやすいみたい。
アップする時間がなくなったので今日はここまで。

移動中に報告
NNEDI3を使って、圧縮画像によく見受けられる輪郭周りのノイズを除去して溶ける症状を抑える件、もっと手間を少なくかつNNEDI3を使うことによる副作用である
ボケる点を克服できそうな方法を見つけたかも。
古いソフトウェアなのだが「ノイズクリーナー2」というソフトをカスタマイズ設定にして極々微量のノイズ除去を行ってからwaifu2xで拡大するといくぶん溶けにくい。
ただし、設定の落としどころが難しい。

imagemagickのコマンド、7になってから変わったの今初めて気づいた...

アンシャープマスクよりボケずに済む方法を試してみました。
(テキストファイルに開設あり)
http://www1.axfc.net/u/3679934

寝ます

NNIDI3による前処理などいろいろ試した結果、

1.waifu2xは拡大する前に輪郭に作用しやすいノイズフィルターをあらかじめ適用しておくと、拡大した画像が溶けにくい。
2.NNEDI3は輪郭線に強く作用するフィルターのため、縮小後の画像にもその作用が強く残り、結果として輪郭ノイズ低減フィルターのような作用をもたらしている。
3.ただし、NNEDI3は面などの細かい情報もそぎ落としてしまいやすく、全体的にボケやすいため、そのままでは使いにくい。
4.面部分には作用せず、輪郭にのみ作用するフィルターがあれば理想的。waifu2xのノイズ除去(中)も試してみたが、waifu2xのノイズ除去は中でも強すぎるためこれも使いにくい。
(元画像とwaifu2xでノイズ除去した画像を合成してノイズ除去の強度を調整することはできるかもしれないが、合成度合をコントロールしながら合成できるような都合のいいソフトがあるのかどうか・・・)

もうあとは、この輪郭のノイズを制圧できさえすれば完成すると思われるだけに、何かいい方法があればと思うのだけど。

単純にTotalVariationで分離してから掛けろよ

>>123
これのこと?
http://convexbrain.osdn.jp/cgi-bin/wifky.pl?p=TV-Denoising
ものすごく画像が甘くなってるんだが・・・
waifu2xの比じゃないよ、これ。

俺はエッジレベル調整使ってる

>>125
エッジレベル調整は輪郭のコントラストを無理やり強調しているだけだから、ノイズそのものは残っている状態なわけで、根本的な解決にならないかと。
こんなんだし。
http://aviutl.info/sharp/

アニメの輪郭線に入っているノイズがイラストでは見ないパターンでうまくいかないので
そのあたりをイラストっぽい方に寄せることができればマシになるということだと思います.

古いアニメにある輪郭線まわりのノイズがソフトウェアで再現できるなら対応もできるのですが
どこで入ってくる何のノイズなんでしょうか.

>>127
たぶん圧縮画像特有のノイズだと思います。
圧縮画像は目につきにくい暗い部分の階調表現を大胆に間引いてしまいがちですので(攻殻機動隊のエンコードを担当した人が、かつてDVDの時代にとても苦労されていることを語られていましたし)、
暗部の多い圧縮画像を集中的にとりこんでモデルデータを作られるといいのかもしれません。
あるいは暗部の多い圧縮画像の割合の多いモデルデータを暗部ノイズ対策専用の前処理専用モデルとして用意して、事前に弱く(ここ重要!!)適用できるようにされるといいかもしれません。
ついでに現行のノイズ除去の強度ももっと弱いタイプを二段階ほど(最弱は中の1/3以下の強度!)用意して頂きたいとも思います。
(モデルデータを変えずに参照範囲を狭めるとかでの対応でも結構ですので)

>>128
圧縮画像というのは具合的にどんな圧縮なんでしょうか.
TV用の当時のエンコーダがあってその癖なんでしょうか.
現在のJPEGノイズ除去の弱いバージョンはすぐ作れますが
動画を対象とするなら,動画用のエンコーダを使って
正しいデータセットを作るほうがいいと考えています.
ソフトウェアで再現が難しいなら,HDリマスタとその前のバージョンDVD?を買ってきて
フレームの位置合わせができるなら,そこから変換の対応関係を作るでもいいと思っています.
エンコの設定?とかできるならそれが一番いいですが.

今考えている動画の対応は,
- イラストに窓をつけて適当な速度で平行移動・回転したりをフレームとして切り出す
- 動画にエンコ(同時に1/2に縮小)
- エンコ後からまたフレームに分割して元画像への変換を学習する
ということです.
変換先がイラストになるのでアニメとはちょっと違う質感になるかもしれませんが
アニメの"元画像"って手に入らないと思うのと,
これだと作るのは簡単なので妥協点としていいのではと思っています.
他にはMMDから動画を作るとかですけど,これもシェーダーのクセを再現してしまうと思うので
たぶんイラストのほうがバリエーションが多くてよいです.

今すぐにやるという話ではなく,今やっている対応が終ったら
いまのところCNN超解像として改良できる部分はすべて終わるので
動画について色々言われるならそこでもやろうかなというレベルの話ですが.

>>130
何のこっちゃよくわかりませんが、凄く期待してます

圧縮画像のノイズの件、夜になりますがコメントします。
(今時間がないので)

いわゆるHDリマスターは解像度やエンコードだけでなく映像自体も違うことがあるから
比較対象としてはBDとDVDが同時発売のものじゃないかな
海外版との比較だと同解像度のビットレート違いなんてのもあるかも

アニメと一口に言っても輪郭の特徴がそんなに多くの作品に共通してるかは疑問だけど

やっと帰宅できた・・
すみません、気力が持たないので昼以降に改めてコメントします。
限界

体壊さない程度にがんばってくれ

今日初めて写真の拡大に利用させてもらいましたが凄い技術ですね。
応援しています!頑張ってください!

>>129
昨日疲れすぎてコメントできなかった圧縮ノイズについてですがコメントしておきます。
まず下記サイトを参照ください。
http://www.asahi-net.or.jp/~ax2s-kmtn/ref/jpeg.html

このサイトの一番下部の画像を見るとわかりやすいかと思いますが、建物の輪郭周りに本来であれば存在しない種々のノイズがまとわりついているのがお分かりいただけると思いますが、
こういったノイズが輪郭周りに細かくまとわりついている画像をwaifu2xにて拡大すると、輪郭などが溶けやすくなっています。
NNEID3によってあらかじめこのような輪郭にまとわりつきやすいノイズを滑らかにしておくと、waifu2xにて拡大時に溶けにくくなっているのは先日実証した通りです。

このため、もしこのようなノイズ専用の対策フィルターを作るのであれば、JPEGなどの非可逆圧縮をしていない画像を複数用意し、その画像をJPEGにて高圧縮し、わざと輪郭などにノイズが出ている画像(画像サイズは等倍でよい)を作成し、
圧縮前と圧縮後の画像をディープラーニングによって学習させれば、圧縮ノイズ対策にはなるでしょうけれど、それは結局現行のノイズ除去と考えとしてはそう大差ないかなとも思います。

とするならば、やはり前回にお伝えした通り、今よりもっとノイズ除去強度の弱いフィルターをまずは用意すること、そしてその先の展開としては、その弱いフィルターを輪郭と認識される部分のみに適用できるようなオプションを用意できればなお良いかと思います。
(オプションを有効にすると輪郭のみに適用、無効にすると画像全体に適用、ノイズ除去強度は、「最弱(中の1/3か1/4程度の強度)、弱(中の1/2程度の強度)、中、強、最強」の5段階あたり?)
輪郭の認識手法については、AviUtlなどのフィルターである「エッジレベル調整MT」の輪郭検出手法あたりでよいのかなと思います。

続き
エッジレベル調整MTの参考
http://aviutl.info/sharp/
http://aviutl.info/wp-content/uploads/20160220-020557-553.jpg

あるいは別の考え方としてですが、NNEDI3の輪郭に作用する部分だけをインスパイアした輪郭ノイズ除去フィルターを作れるならば作ってほしいという考え方もありますが・・・
参考
https://github.com/MaverickTse/AviUtlInstaller/blob/master/deinterlace_plugin/nnedi3/jp/nnedi3.txt
(それが可能であるならば、AviUtlを通さずに済むため、RGB→YUV→RGBの変換ロスを気にしなくて済むのと、16bit画像なども直接扱えるようになるので大変ありがたいのですが)

昨日お話ししていた圧縮画像の暗部の階調情報の大幅な簡略化をわかりやすく示す画像が探した範囲でなかったのですが、これは大面積部については通常のwaifu2xのノイズ除去でも対応できる範疇かと思いますので、ひとまず置いておきましょう。

ちなみに上記の件より、今のところ動画用に別途のノイズ対策(一つの画像に小さな窓を設定してスライドなど含む)は今のところしなくても大丈夫かと思います。
(動画の圧縮率の高い状況で輪郭周りに一番除去しにくいノイズがあるのはH.264で圧縮した画像ではありますが)

上記のことを書いてから気づいたのですが、ひょっとすると拡大前にGIMPの「選択的ガウスぼかし」を超絶的に最弱で適用してから拡大すればいけるかも・・・

「選択的ガウスぼかし」でいけたかもしんまい・・・
試しにアップしてみた
http://www1.axfc.net/u/3680573

いや、この延長で行くならばバイラテラルフィルターを極微量適用のほうがよりダメージは少ないかも?

NL-MeansやBilateral等のエッジ保存ノイズフィルタをかけたのが骨格成分
それと原画との差分がテクスチャ成分で多くの種類のノイズ含む微小変化分
高性能に分離するのがTotal Variationフィルタ

骨格だけwaifu2xでテクスチャ成分はLanczos3で後で適量を合成すればいい
暗部はガンマ補正して暗部の輝度差を広げたのを処理して逆ガンマで戻して
通常ガンマの画像と合成
こんなんでどうだ?

YUV420 JPEGで学習すると線もきれいになった気がするので
JPEG画像についてはJPEGノイズの種類が適切でなかったのもあるかもしれないです.
印象も色の濁りが減って良くなったように思うんですが
それはつまり色が変わっていることなんですが...
来週くらいに-devのほうはYUV420対応に置き換えます.
現verのノイズ除去も同じ教師データで学習したものに置き換えようと考えています.
(拡大時だけノイズ除去のかかり方が違うと混乱を生むと思うので)

エッジ周りのノイズを取るのは, バイラテラルとは逆の重みだと思うんですけど"周り"だとそうなんでしょうか.
エッジ用の重みのマスクを作って合成するのが簡単じゃないかと思います.
自分としては,データセットを泥臭くいじったりはあっても
データを用意したあとは最適化問題としてやるのがいいと思っているのと
手でごちゃごちゃってもさまざまなパターン(さまざま例外を含む)を考えると
平均的な精度で機械学習に勝つことはできないと思っているので前処理や後処理をやる気はないです.
弱いノイズ除去は用意できます.

>>142
お疲れ様です。
420、やはり効果ありましたか。
となると、やはり元が非可逆圧縮している画像→420モデル、元が可逆圧縮か非圧縮画像(444の状態)であれば444モデルと選択できるといいのかもしれないですね。

こちらでも非線形フィルターなど含めいろいろテストしてみたのですが、ある程度のところまではいくものの、やはり根本的にはイラスト用モデルで試していることの限界もあり、これで文句なしというところまではいかなかったので。
420モデルの写真用が使えるようになるとおそらく前処理に関しては非線形フィルターでもなんとかなるかなとは思うのですが。
(もちろんwaifu2xのノイズ除去に最弱があればその方がいいと思いますが)

>>143
入れ違った。
私も合成するよりはディープラーニングの判断に任せる方がいいとおもいます。
最弱フィルター、お待ちしております。

人はエッジ周りが変になっていることに敏感なので
損失関数でエッジ周りの重みを上げるとかは全然いいのかなと思ったけど
もうやっているんですよね. .
そういうことも考えるともうほとんど手動調節やなという気もする

>>146
損失関数でエッヂ周りの重みをとはどういうことなんでしょうか?
私はとりあえずGIMPとAviUtlのフィルターを複数試している程度なので、上記の件がどのフィルターの作用なのかよくわからないですが(滝汗…)

いずれにしても、もう一息のところまでは来ているかなと思います。

caffeの作者さんにファイル名についてお願い、と言うか要望があるのですが、例えば元ファイル名が
 img.jpg
のものをRGBモデル、ノイズ除去レベル1、拡大倍率x2.000000、で処理した場合
 img(RGB)(noise_scale)(Level1)(x2.000000).png
のようになるかと思いますが、これを例えば
 img-RGB_nsLv1_x2.0.png
のようになるべく短いファイル名になるようにしたいのです
リネームソフトの手間もなくなりますし
簡潔に言うと、RGB・Photoなどのモデル、レベル、倍率にそれぞれ自分好みのネーム設定ができたらいいなと

それもまたきりのない話だな
そのうち小数点以下何桁までで丸め方のルールは〜とか設定したくなるかもしれない

出力ファイル名を
{ORIGINAL_FILENAME}_{NOISE_LEVEL}_{SEQUENCE_NO;%06d}.png
みたいなフォーマットで指定できればいい話ではあると思うけど

下手な実装するとバッフオーバーフローの脆弱性持ちそうだな

各項目対象に文字数制限は必要ね

http://waifu2x-dev.udp.jp/ のノイズ除去をYUV420 JPEG対応に置き換えています。
試していないですが、ノイズ除去だけはソフト版にも持っていけると思います。
https://github.com/nagadomi/waifu2x/tree/upconv/models/vgg_7/art

>>153
お疲れ様です。
ノイズ除去更新、了解です。
ところでノイズ除去の最弱と弱は、まだ時間かかりそうでしょうか?

>>154
写真の学習を先にやっててこれが1週間くらいかかると思うのでその後になります

今ノイズレベル1〜3なので、0に追加しようと思っています。
ノイズ1でも対象とするJPEGの品質65〜85で確かに強いかなと思うので。
80〜95くらいのやつを入れます。

>>155
よろしくお願いします。

w2xcは対応してくれないのかな
caffeでエンコとかやったことないから困る

>>157
https://github.com/HomeOfVapourSynthEvolution/VapourSynth-Waifu2x-caffe

caffeでエンコードするこういうのもあるみたい。導入がちょっと面倒くさいが。

写真だとノイズ除去がイマイチなんで、waifuで拡大だけやって
Neat Imageでノイズ除去するという使い方させてもらってます
最新のV8は白ボケをどう直したらいいのか分からないので古いV7.6使ってる

ディープラーニングについて、NHK-Eテレにて今夜23時30分よりサイエンスZEROにて放送

161名無しさん@お腹いっぱい。 (ワッチョイ b7e2-jO4j)2016/06/28(火) 23:31:12.36ID:YVu6qt8i0
サイトが見れない?

私もサイトが表示されないですね…。(´・ω・`)

163名無しさん@お腹いっぱい。 (ワッチョイ dbb7-o//t)2016/06/29(水) 02:23:18.17ID:f5M/bR6F0
waifu2xって画像縮小できないの?

こーひーできるだろ

つかえないんやが

166名無しさん@お腹いっぱい。 (ニククエ Sa17-RJF0)2016/06/29(水) 14:07:06.67ID:VaEWzwoyaNIKU
お、サイト繋がった!良かった

167名無しさん@お腹いっぱい。 (ニククエ MM57-jO4j)2016/06/29(水) 17:54:31.19ID:CAYY+cjmMNIKU
落ちてるぞ、ウチ32Bit環境やから困るわ

168名無しさん@お腹いっぱい。 (ニククエW 1fd1-gJJb)2016/06/29(水) 18:30:58.55ID:ShnTKE5+0NIKU
俺も繋がらない

169名無しさん@お腹いっぱい。 (ニククエ MM57-jO4j)2016/06/29(水) 22:10:41.75ID:CAYY+cjmMNIKU
NHK クロ現でノイズ除去やってる

ワイフ生き返った

超解像って単に拡大してシャープフィルタかけたのとは違うよね…?

全く違います

コンピュータが2種類の拡大結果を提案してユーザーがキレイだと思ったほうを選んでいく。その結果を蓄積してく。みたいにやったらだんだん画像はキレイになってくの?

>>171 >>173
「元画像」と「元画像にノイズを添加したもの」、もしくは「元画像」と「元画像を1/2に縮小したもの」に対し、
後者から前者を作成できるように機械学習させたのがwaifu2x

Neat Imageのコミュニティに入った
http://i.imgur.com/ZlmZtHz.jpg

>>174
その変換をどういうフィルタをかければよくできるかをデータから決めてる感じですね。
シャープ

177名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX)2016/07/01(金) 16:59:01.87ID:u6NBrYfw0
>>174
その変換をどういうフィルタをかければよくできるかをデータから決めてる感じですね。
シャープすぎることがあるのは、1/2縮小時にボケることの副作用の気がしていて
もっとよい縮小アルゴリズムが求められている。
>Neat Image
写真はJPEGノイズよりもカメラの高感度ノイズのほうが一般向けに需要がありそうなんですよね。
自分も写真のデータセットを作るときにセンサに由来すると思われるノイズが取れなくて結局縮小してしまったし。

つい最近ソフトの存在を知ったのだが、作者は何者?

179175 (ワイモマー MMcd-R7o+)2016/07/01(金) 17:41:57.50ID:G/tSW9oqM
>>177
アナログをスキャナで取り込む時も同じではないでしょうか
とりあえずサンプル貼っときますね、撮影は1989年頃
http://i.imgur.com/WIFzEKU.jpg
http://i.imgur.com/d65jMq4.jpg

これ比較する時って、補完無しで同率拡大した画像とで比べたほうが判りやすいよね 多分

181名無しさん@お腹いっぱい。 (ワイモマー MMcd-R7o+)2016/07/01(金) 23:08:12.50ID:G/tSW9oqM
フル画面表示した時の画質の違いでおk

それだとドでかい画像の場合縮小表示しちゃうんじゃね

Olympus viewerの様なデジカメや一眼レフカメラに付属しているソフトとwaifu2x-caffeと比べたら細かい部分を拡大する時どちらが優れていますか?

市販のやつが一番

185183 (アウアウ Sa6a-s3GQ)2016/07/02(土) 23:41:57.11ID:TF/iwvGYa
>>184
ありがとうございます。

waifu2x-caffe ver 1.1.4
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.4

upconvモデルに対応
変換に使用するGPUデバイスを指定できるようにした
コマンドライン版の出力ファイル名自動生成の規則をGUI版と揃えた
かなり中身を書き直した関係でメモリ不足対策が無効になった

1.1.4
今まで問題のなかった batch_size 指定で
waifu2x-caffe-cui.exe -b 4 -i kore.jpg

waifu2x-caffe-cui.exe --batch_size 4 -i kore.jpg
だとエラー吐いて失敗するようになった

waifu2x-caffe-cui.exe -b=4 -i kore.jpg

waifu2x-caffe-cui.exe --batch_size=4 -i kore.jpg
のように = で指定するとエラーにならず変換は問題ないっぽいけど
-c asdf だとusage表示、 -c=asdf や -b=qwer とかで変換は成功するので
= でつなぐと batch_size 指定が無視されてるだけ?

エラーメッセージは下のような感じ
Could not create log file: File exists
COULD NOT CREATE LOGFILE '20160704-004037.8712'!
F0704 00:40:37.079417 6000 math_functions.cpp:92] Check failed: error == cudaSuccess (11 vs. 0) invalid argument
*** Check failure stack trace: ***

好きな写真をいろんなタッチに自動で加工してくれる「deepart.io」
http://gigazine.net/news/20160703-deepart-io/

どんな写真が作れるのかは以下のページを見ると分かります。
Selected latest deeparts
https://deepart.io/latest/
http://i.gzn.jp/img/2016/07/03/deepart-io/snap.png

>>186
更新お疲れ様です
本家のdev版では写真のほうも追加されてますが
もしかしてそちらの更新も追加されているんでしょうか

>>186
upconvは文字の潰れが少なくて良いです

191186 (ワッチョイ 3a39-xKxK)2016/07/04(月) 23:40:18.55ID:NcDz8yAM0
紛らわしいかもしれないけど自分は更新情報を書き込んでるだけで作者じゃないよ

waifu2x-caffe upconvの速度はどんな感じです?
caffeはDeconvolutionがcuDNN対応していないのと
cuDNNもforward algorithmの自動選択が微妙で
Torch版ほどの差は出ていないのではと思うので気になっています。

>>186
公開ありがとうございます
ver.1132までは問題なく使えておりましたが、今回verでは実行ボタンを押すと同時に落ちます
win7pro 64bitのノートでCPU動作です
対策あれば教えてください

以下エラーログです
Log line format: [IWEF]mmdd hh:mm:ss.uuuuuu threadid file:line] msg
E0705 02:40:25.573511 5904 common.cpp:119] Cannot create Cublas handle. Cublas won't be available.
E0705 02:40:25.575511 5904 common.cpp:126] Cannot create Curand generator. Curand won't be available.

CUDAのライブラリがないと言っているので
CPU選択時にGPU使おうとしているのかな

caffe ver1.1.4で「?かなり中身を書き直した関係でメモリ不足対策が無効になった」ってあるけど
メモリ不足したらどうなんの?
他にも色々不安要素バリバリで更新しないほうがいいのかな


ver1132からver115へ
実行押して1秒ぐらいで終わるって
早すぎませんかね?
後、画質の差はわからないです
マジお疲れ様です

198名無しさん@お腹いっぱい。 (タナボタ Saff-77u/)2016/07/07(木) 08:46:47.16ID:szfYQdRBa0707
3DCGでIrayなどの物理レンダラーとかだと、ピクセル当たりの
サンプリンが少ないとノイズが残ります。

もしこれを学習させて綺麗に除去出来るなら、レンダリング
演算量の削減が出来るのでCG業界でも需要があるかも?

とりあえずDaz stuzio作成した、95%と100%でサンプリングした
画像を置いておきます。

http://fast-uploader.com/file/7023403027370/
http://fast-uploader.com/file/7023403077217/

waifu 2x でnoise_scale Level1 x2.0 イラスト実行
http://fast-uploader.com/file/7023403811009/



学習用サンプル画像も、無料で物理レンダラーが使えるdaz studio,
blenderなどでGPU使って作成出来るので、余裕が有ればmodelに
3dcgの低サンプリング画像の高画質化modelが欲しいです。

写真の低ISOノイズに近い物があるので、難しいかな?
ノイズ除去フィルタの領域になるか。

199名無しさん@お腹いっぱい。 (タナボタ 23d2-0AkP)2016/07/07(木) 09:05:03.41ID:o2ChrGcQ00707
>>198
先日、ペアの教師データを用意すれば何でも学習できる機能(Universal filter!!)を入れたので
入力画像と理想的な出力画像のペアを用意できるなら試すことはできます。
githubで3DCGで解像度を変えたレンダリング結果を学習して拡大できないかという話がでているのと
自分もBlenderのCyclesレンダーを使っていて、これがサンプリングが少ないとめちゃくちゃノイズが出る上に
GPUを有効にしてもめちゃくちゃ遅くて困っているので試して見るかもしれません。
(ただ学習データ生成に使うレンダリングエンジンのくせに依存する気がする。
 レンダリングエンジンにあまり詳しくないので勘ですが)

写真の低ISOノイズ除去ができないのは、この現象が物理的なもので
コンピュータ上でシミュレートするのが難しく教師データが自動生成できないからで
データさえ用意できれば多分できます。

200名無しさん@お腹いっぱい。 (タナボタ Saff-77u/)2016/07/07(木) 09:09:21.80ID:szfYQdRBa0707
あと以前AMDのGPU使ってたので、AMDのGPUでも動くとより嬉しい。


AMD、GPGPU向けの取り組み「ボルツマンイニシアチブ」を発表。CUDAとの互換性も提供
http://srad.jp/story/15/11/18/0657225/

> Heterogenous Compute Compiler(HCC)と名付けられた新しいコンパイラはLLVM Clang
> ベースでC++11/14や/C11、OpenMP4.0、そしてC++17で採用予定のParallel STLに対応。
> 1つのコンパイラでCPUとGPUのどちらにも使える。そのためGPU用のカーネルを別のソースに
> 記述する必要はなく、ラムダ式でSTL互換のアルゴリズムに述語引数として渡せばよい。

> Heterogeneous-compute Interface for Portability(HIP)はHCCで利用できるCUDA風のAPI。
> HIPで書かれたソースコードはHCCだけでなく、ヘッダーファイルを加えることでNVIDIAのCUDA向けコンパイラであるNVCCでもコンパイル可能となる。
> 従来のCUDAコードをHIPコードに変換するためのツールも用意されており、これによってHSA環境はソースコードレベルでCUDAとの互換性を有することになる。

使ったことはないけど、CUDAコードをAMD環境用のバイナリにするコンパイラとヘッダが
公開されているので、リコンパイルだけでAMD対応も可能かも知れません。

201名無しさん@お腹いっぱい。 (タナボタ 23d2-0AkP)2016/07/07(木) 10:46:32.57ID:o2ChrGcQ00707
caffeはopenclブランチをAMDの人がやってるみたいなので
そのうち対応するんじゃないかな

202名無しさん@お腹いっぱい。 (タナボタ Sdbf-oo3f)2016/07/07(木) 12:40:12.27ID:X0GGd45dd0707
>>196
本家の写真、イラストの新バージョンに対応したの?

203名無しさん@お腹いっぱい。 (タナボタ a7e2-Ij6B)2016/07/07(木) 15:29:18.23ID:Jgi4mmBU00707
waifu2x-converter追随しちくりっ

204名無しさん@お腹いっぱい。 (タナボタ 4336-Bfmi)2016/07/07(木) 17:12:02.28ID:N0EeMUi700707
193です
エラー対応ありがとうございました

CPU動作ですと1132とほとんど同じ処理時間でした
同じ画像で比較したら97秒が96秒になりました
GPU買うしかないですね

205名無しさん@お腹いっぱい。 (タナボタ bf39-x9gT)2016/07/07(木) 17:28:10.64ID:CjnjorT/00707
>>204
こちらでの結果と異なりますね。
UpRGBモデル使っていますか?

画像100枚平均処理時間 2倍拡大のみ CPU使用

caffe ver 1.1.5 RGB 22.43645秒
caffe ver 1.1.5 UpRGB 10.4412秒
w2xc ver 20160101 RGB 7.12312秒

206名無しさん@お腹いっぱい。 (タナボタ 4336-Bfmi)2016/07/07(木) 19:28:52.61ID:N0EeMUi700707
>>205
ありがとうございます
UpRGBモデル使ってませんでした
ノイズ除去ありなしどちらも28秒切るところまで行きました
ほぼ同タイムで、ノイズ除去有の方がぱっと見てわかるすっきり具合でした
おかげさまでGPU購入をゆっくり検討できるようになりました

waifu2x-caffe 1.1.5 にて batch_size の件、対応ありがとうございます
batch_size は 2 と 4 と不正な指定しか試してなかったので 1 の場合は盲点でした


プライオリティを付けるなら超低めの一点要望です
cudnn_data の生成される場所を カレントディレクトリ あるいは waifu2x-caffe-cui.exe の
ある場所だけでなく model_dir のように指定可能にできないでしょうか
指定可能の方が個人的には嬉しいのと、waifu2x-caffe-cui.exe のある場所固定(優先)
にすると Program Files の下に置いている人はどーなるんだ、
等という話もあるかと思うので指定可能を推したいです

関連は無いかと思いますが、エラーログの出力先も waifu2x-caffe-cui.exe のある場所に
固定されるとそれはそれで個人的にションボリなので
 エラーログの出力先は exe の場所固定
 cudnn_data の生成場所は exe の場所固定あるいは指定
というパターンになるのであれば、現状維持となる
 エラーログの出力先はカレント
 cudnn_data の生成場所はカレント
のままの方がエラー発生をエラーログの有り無しから掴みやすいので有り難いです

caffeいつの間にかCPUでも速くなってたんだな
俺の古いノートでもtanakamura版より速かった

caffeってAMD対応してないのか
Vega買う予定だからそれまでに対応してほしいな

スキャナで取り込んだ白黒写真もサイズが大きいと効果なし
スキャン時のゴミとかも鮮明になる
16年前に撮った100万画素のデジカメでも効果あり
人物と背景の境目や文字が一番効果ある
ただ塗り絵みたいになる
2kの50インチだが60インチの4kに変えれば200万画素でも効果あるの?

>>210
サイズ大きいのは縮小してから拡大するときれいになるかもしれませんよ
写真はためしてませんが、漫画では効果てきめんでした

>>210
そう言う使い方には向かない

213名無しさん@お腹いっぱい。 (スプー Sdbf-q6Qi)2016/07/08(金) 16:24:04.54ID:LIOMaWBvd
繋がらない

waifu2x-caffe ver 1.1.5なんだが
横幅指定が使えない というか縦幅指定になる
CUIで--scale_heigh使っても--scale_widthが動いてる
ファイル名は(height)になるんだけどな

215214 (ワッチョイ fbd1-VBIq)2016/07/08(金) 18:45:17.81ID:dsqbXFnh0
がっと書いたら全部逆になってるな
縦幅指定が使えないが真

Nシステムや防犯カメラの画像解析と違うの?

>>216
防犯カメラのは数コマ撮影してノイズ除去してくんじゃね。それ専用のソフトがあったような。

人物写真100枚くらいレベル3で効果が大きいのは
文字>>>チェック柄などのライン>>人物と背景の境目のモスキートノイズ>肌のカラーノイズで修正できたのは全体の3分の1くらい。
文字が潰れた自炊コミックや小説が一番効果あるね

219名無しさん@お腹いっぱい。 (ワイモマー MM9f-Bfmi)2016/07/09(土) 06:03:12.82ID:N2XUaDTaM
オンライン版は何かパスワード入れろとか出て来たぞ

ユーザー名とパスワード?
そんなものどうやって確認したら良いんだよ!

waifu2xで検索するとwaifu2x-multiが上に来ててワロタ
作者どうにかしろよ

おまえがすりゃいいだろ

ページランクは明らかに高いと思うけど
頻繁に落ちたりドメインだったりでgoogleの評価が下がってるんだろうな

パスワードは,サーバーが落ちてEC2内でIPアドレスが再利用されて別のサイトに誘導されていただけです(こわい)

あと,noise0(これまでの一番弱いやつよりも弱い)を追加したのと,waifu2x.udp.jpのほうも新モデルに変えました.
前よりも不安定な印象なのでたまに謎のノイズが出たりがあるかもしれないですが,平均的には良いです.
noise0はJPEG品質85〜95(1回)くらいでnoise1や除去なしよりも良くなります.
見た目ノイズないのに拡大するとノイズが強調されて出てきたようなときに使えると思います.

>>223
お疲れ様です
質問なのですが、新モデルに切り替えて処理速度が早くなったらサーバーに余裕が出来て今までより安く運営出来るとか安定するとかそういうメリットは発生しますか?

>>224
GPU的には余裕ができると思うので扱える画像のサイズをでかくしました.2560x2560 -> 3000x3000まで.
ただ処理速度も重要ですが,転送量が多くてつっかえている感じがあるのであまり変わらない気がします.
画像が昔のモデムみたいな速度で上から次第に表示されていくことがあるのは処理速度ではなく帯域のせいです.
常時50〜120人くらいが同時に使っていて1リクエストで2MBくらいの画像を出力するので結構な量になります.
処理が速くなりでかい画像がより高速にやりとりされようになると逆につらくなるかもしれません.
たまに落ちるのは単に金銭的問題で毎月タワマンの家賃くらい払えば落ちなくなりますが,払っていないのでたまに落ちます.
(これは色んな話を断ったりしているのであまり言い訳にはできないんだけど)

たまーに長い時あるよねぇ〜
マルチもフツーのやつも

Olympus Viewer 3でシャープネス(数値は+7)で編集後に拡大したらノイズが酷くなったのですがwaifu2xでその画像のノイズを改善できますか?

質問の意図が分からん
無料なんだから自分で試してみなよ

>>227

写真の編集を納得いくまでやりたいなら↓がオススメ
https://www.google.com/intl/ja/nikcollection/

GIMPで使いたいとき

shellout plugin for NIK
http://steaz.altervista.org/shellout-plugin-for-gimp-and-nik-collection/

やっぱり話とか来てるのか
流石だ

話受けたら現状維持できなくなる可能性が微レ存?

>>229
ありがとうございます。


>>233
おお、ついにノイズレベル0が!

cui版で -n 0 のように noise_level 0 を指定すると

PARSE ERROR: Argument: -n (--noise_level)
Value '0' does not meet constraint: 1|2|3
(Brief USAGE 略)

って怒られてエラーになっちゃいます
GUI版で変換した noise_level 0 の画像と比較すると、noise_level 無指定の場合には
きちんとデフォルトの noise_level 0 になるようです(UpRGB)

ついでに --help を出しても noise_level に関しては 0 の無い 1.1.5 以前のままです

235名無しさん@お腹いっぱい。 (ワッチョイ d325-Bfmi)2016/07/11(月) 13:40:38.41ID:PaECKmpe0
拡大するとアニメ塗りの塗り壁になってしまう
人工知能のわりに頭が悪いな。本当に
人間より優れたシンギラなるんかと疑問点。

3次画像を拡大する専用の
Youjo2seXを早く出せよ、おい!

重力をシミュレートしてオッパイを大きくしたり立体を認識してオッパイの影を変えちゃうとかできるようになるかな?

3次なら写真のほうでやってるか?

作者の気に入らないユーザーには使わせないような仕組みがあればなぁ

3次元写真向けの自動補正ソフトないですか?

>>239
Yes!TAKASU CLINIC!

これとか凄い。ディズニー凄い。

FaceDirector: Continuous Control of Facial Performance in Video
https://www.youtube.com/watch?v=o-nJpaCXL0k

また落ちてる!
いくらなんでも頻繁すぎるのでは?

スポットインスタンスは月単位で見ると安いのですが
たまに異常に価格が上がることがあるのでそういうことが起こるたびに落ちます.
今は1台あたりの鯖代が1時間$6.5まで価格が上がったので落ちました.
1時間$6.5で3台動かしていると1日放置で5万円くらいかかるので落ちてくれないと困る感じです.
許容範囲のところがあればそこで復活します.

w2xcで動画エンコしてるんですが
Aviutlで動画が綺麗になるオススメのフィルタとかありますか?
一応、今はエッジレベル調整を併用してます

たぶん,誰か考えたと思うんですけれども,
例えば,元画像を4倍に拡大したいとして,

A.そのまま4倍に拡大する
B.半分に縮小した後,8倍に拡大する

を組み合わせた学習モデルって作れないですか?

解像度が低い画像を拡大しようとした時に,
Bだと近くのものは綺麗に拡大されるのですが,遠くのものが潰れてしまいます.
一方で,Aは全体的に綺麗なのですが,Bほど近くのものは綺麗にならない.

複雑で潰れそうな部分はAで,大雑把な部分はBのモデルを適用できれば,
画質がかなり改善されそうな気がするのですがいかがですか?

246名無しさん@お腹いっぱい。 (ワッチョイ 3d25-8xJT)2016/07/14(木) 13:51:27.47ID:AKBc/xAg0
これって輪郭検出のち内部を塗りつぶすソフト?ですか?
のぺ〜っと、、細かな情報が消えてしまう。
クスコ、 じゃねえランチョで拡大、のちw2でノイズ消しの
ほうがシャアぷに仕上がるようです少佐

日本語でおk

>>245見てこれを思い出した
http://www.slideshare.net/nikuque/ss-52190439/1
これで画像のサイズや圧縮率、動画のビットレートの最適化ができたらいいな

最近思ってるのは画像に関して機械学習でノイズ除去や高解像度化ができるなら
音声に関してもできないかなと。個人的には画像よりこっちの方が興味ある。

>>248
音はいろんな人が言っているけど
音声(自然言語)って厳格だからちょっとミスって変になったらものすごく気になるように思う.
画像(絵)はちょっと変でもまあ仕方ないかで済むけど.
想像で言ってますが.

ガ(ry)ぞ
ttp://www.kobe-np.co.jp/news/awaji/201607/0009281896.shtml
ttps://coubic.com/awajicinema

251250 (ワッチョイ 7d7c-8xJT)2016/07/15(金) 02:01:26.04ID:MkkKZ1cc0
誤爆ごめんなさい

サイトのうしろの人が気になる

>>249
音声っていっても声より音楽、オーディオデータ全般が目当てなんだよな
サンプリング周波数やビット深度が細かかったらこんな倍音が乗っていたはずだ(可聴域外でも)とか
クリップした波形の修復(これは機械学習以前からいろいろ研究されてる)とか
もしかしたらエフェクトの新しい概念が生まれるかもしれないし

画像でも綺麗にするだけじゃなくて積極的な加工に使える可能性はあると思う
やたら重いわりに得られるものが何だか分からなくてダメかもしれないけど

新バージョンの解説記事とかは書かれないんですか?(読みたい)

死んでね?

おまえはもう

         ,,ィニニヽ彡彡彡彡ミニ三ミ、
        ,ィミシ彡ミミ、゛彡彡彡三ミ、彡イ三;ヽ
       {彡y彡彡y彡ミ 彡彡三三彡Y彡三ミ}
       {ツ彡シィイイ彡ミ 彡三ミミシシヾミ三シ
       (彡彡イ/////ノ〃〃ハ;ヾヾミ三彡Y 三)
       {彡y///イ/     ミヾヾミ三彡Yシイ
        Y((( /       `ミミ三三彡イミ、
         !、,,,_     _,,,..---   ゛ミ,ィイi }ミ三;シ
          }T゛'tゝ .:´ ィ弋カ'-    Y/5 /i川イ
         !  ̄ .i :.   ̄ ...    ーノミト、シ
         ',:.:. ,' ::.    .:.:.:.:    iイミ三ソ
         ',  ヽ ー        !::ミミ三リ
          ヽ. ゛'三‐‐‐'`     ノ :::iーーー'
           `、      , '  : :',
             ` ー-┬‐ '     : :ヽ
                  |        : : \
              ___....l:: ::  __ , ---.ヽ

         シンディ・ルー (1984- インド )

このソフトを使う場合、HBM2のVegaとGP100のPascalではどちらのほうが早く処理できますか?

ここに書いておいたら読んでもらえるかな
caffe版の1.1.6を使用しています
変換も早くなり、レベル0も実装されて気に入っていますが
ちょっとした不具合を見つけましたので連絡です

・「ノイズ除去と拡大」または「ノイズ除去」モードでノイズ除去レベルを
1以上から0にした時、ファイル名がLevel0にならない
変換モードを変えてから元のモードに戻るとファイル名がLevel0になるので、
レベル0ラジオボタンのクリック時にファイル名変更処理が抜けているのかも

・ノイズ除去の自動判別が効いていない?
元々選択されていた除去レベルで処理している感じ

>>259
『ノイズ除去(自動判別)と拡大』って readme によれば
『拡大を行います。入力がJPEG画像の場合のみノイズ除去も行います』
だから、もともと jpeg と png など混在した対象をまとめて変換する時用の
「”ノイズ除去適用対象を自動判別”と拡大」であって
「”ノイズ除去レベルを自動的に選択”と拡大」するという意図は
含まれていないような(実際そういう動作だし)

以前『自動判別』ってなにをどう? と思って readme 読んだ時にそう理解した

waifu2x-caffe ver 1.1.6.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6.1

コマンドラインオプションでノイズ除去レベル0が指定できなかったバグを修正
GUI版でノイズ除去レベル0ラジオボタンを押した時に出力ファイル名サフィックスが変化しないバグを修正
中国語(簡体字)訳が正しく表示されなかったバグを修正

「ノイズ除去(Level0)と拡大」と「拡大」ってどう違うの?

263186 (ワッチョイ 3239-eb7y)2016/07/17(日) 13:38:19.22ID:0l5V0UQR0
>>262
ノイズ除去(Level0)はノイズ除去しないわけじゃなくて極弱めにする

waifu2x-c-c-with-bat使ってみたけど
変換しようとするとidentifyがコマンドとして認識されていませんとかで動かない
そもそもhtaアイコンや起動後のGUIにD&Dも出来ない、なんか使い方が間違ってるのか?

ソースを見る感じ、「下の[参照]でファイルを選択してください」の上の黒帯のところにD&Dするっぽいけど
禁止マーク出て画像持っていけん・・・良く分からん

>>260
うおお今まで勘違いしてた
指摘ありがと

電書向けのモデルはどれがいいのかしら

イラストモデルは,青空文庫PDFをランダムなフォントサイズで画像に書きだしたものを学習データに混ぜてる.
2%くらいだけど.

そもそもNN系の手法使う必用無いと思うんだけど

270名無しさん@お腹いっぱい。 (ワッチョイ 96a2-PsRz)2016/07/20(水) 10:14:04.74ID:Cc0UAxz90
落ちてる?
[web.lua] Error in RequestHandler, thread: 0x40336bf0 is dead.
▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼
/home/ubuntu/torch/install/share/lua/5.1/md5.lua:0: attempt to index a nil value
stack traceback:
.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:278: in function <.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:255>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:553: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:544>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:568: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:567>
▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲

夜中にサーバーの1台がそのエラー出し続けていたけど今は直っているし謎です.
APIに使っているHTTP Serverがわりと怪しいのでメモリをぶっ壊して変になったあと落ちてupstartが再起動したのかもしれない.

落ちてる

273名無しさん@お腹いっぱい。 (ワッチョイ 0325-iqWO)2016/07/21(木) 13:55:35.59ID:9F1XqsII0
うちのPCじゃうごかないなあ
ヌーロンダブもどうなっとるんじゃ

githubで外国人の人も言ってたけど4倍拡大以上だとアーティファクトが出ることがあるね。
「4x and 8x are not fully supported because this is waifu2x」らしいからしょうがないけど。

元画像
http://www.pixiv.net/member_illust.php?mode=medium&illust_id=57922779

UpRGB old 4倍
http://i.imgur.com/Hx51mML.png
UpRGB new 4倍
http://i.imgur.com/34szjiL.png
RGB 4倍
http://i.imgur.com/2u8aM7q.png

数日前に更新したモデルでかなり出にくくなってると思ってたけどまだ出てますね
2倍の時点でも出てるようなのでもう少し頑張るか..

忙しくて久しく見れてなかったけど更新されたようですね。
>>274の問題は、継続ですか。
こうなるとやはりディープラーニング+αが必要なように思えますね。
ディープラーニングは優秀だけど完璧というわけではないので、なんらかの補助手段は必要なように思います。
こちらでも時間のあるときに新バージョンのテストはしてみますが、はてさて。

お疲れ様です〜

1.1.6caffe、cuDNNでjpg3千枚処理したら半分辺りでフリーズして660が死んだ
別pcに入れ替えても駄目

鯖代ケチって家PCなんか酷使するから…安いグラボでまだよかったな
この手の大量処理はクラウドに丸投げが基本だよ

酷使すると死ぬのか
熱?

>>280
フルタワーでケースファン7つエアコン27℃強風+扇風機直当て
660でも死んだらショック新品の950保証期間まで酷使

クラウド高いよ、何言ってるんだ

そんなに冷やさなきゃいけないレベルだとグラボよりHDDが心配だし
安定動作に神経使うストレスの方が辛いのではないか

自分で組んだのかな、普通はそんなことにならないぞ

オレもGTX260を使っていた頃は熱暴走で落ちるたびに冷凍してた

それって、waifu2xでCUDA使うと、下手なゲームよりGPUぶん回すってことか。恐ろしい……

たまーにワイフかけて保存したらその画像が真っ黒になって表示されないんだが
これは俺の使ってる画像整理アプリのせいか?

こういうときに免責事項が役に立つのよねえ
よかったな作者ともども!

また落ちてるっぽい……

upconv_7の2xモデル更新しています。
>>274
とgithubで上げられている例はアーティファクトでなくなっています。(2倍においては)
まだ出るパターンはあるかもしれませんが、出にくくはなってると思います。

PSNRが高いほうが出てたりするので1/2にしたときに潰れてしまうメッシュ状の模様を
書き込んで復元しようとしていて、判断をミスった時にそういうアーティファクトとして出ているのだと思います。
ミスることがあっても平均的にはやったほうが良くなるみたいですが
平均より最悪が重要だと思うので、アーティファクトが出にくいパラメータを最終的に選ぶようにしました。

>>287
ウェブ版なら使うブラウザ(Firefoxなど)によって
画像を名前つけて保存で画像が保存できていないことがある
ファイルサイズが小さいので見たら分かる

2倍や4倍のような拡大は実際めったにしないんだよなあ
様々な半端なサイズの元画像を、画面解像度の縦や横
(またはその2倍4倍など)を意識したサイズに拡大することがほとんど

waifu2xは学習モデルでの2倍拡大(場合によっては複数回処理)と
既存アルゴリズムでの拡大縮小を組み合わせてるんだっけ?

拡大縮小は切り捨てで微妙に画像サイズが変わってしまうことあるので縦横指定も欲しいかなあ
1920x1826→1280x1217→1920x1825(1825.5)

単純倍だから出来るのであって、縦、横それぞれ解像度指定とか込みにしたら、
今みたいな時間で出来ないような気がする。

リキッドリサイズだっけ。大きさを変えたくない部分を残して画像の拡大縮小するような技術。あれを使ったほうが無難だと思う。

2倍と4倍だけ使って、必要がある時は別のソフトで縮小してます
どうしてもこれ単体で完結しなきゃならないって事はないと思うの

>>293
余分に拡大してから縦横指定の縮小すればいいんじゃね?

caffeのCUDAで7GB分のjpg処理した
丸1日かかってサイズが50GBに膨れ上がった。グラボは生きてる

新モデル(upconv_7)は構造上2の倍数にしか拡大できない。
最初のモデル(vgg_7)は任意サイズにBicubic等で拡大した結果を
CNNで修正するという形にすれば可変倍率にも対応できるけど
倍率固定して学習した時に精度で勝てないので、なら2倍にして縮小でいいのではと思ってる。
ただ縮小も気をつけないと縮小時にモアレやリンギングが出たりがある(これは一般的な話ではあるけど)。

全然終わらないしCPUとメモリの使用が大変な事になってると思ったら拡大率が4000000になってた

>>290
対応ありがとうございます&お疲れ様です。
アーティファクトの問題はPSNRだけ見ても分からないので調整大変そうですね。

>>299
特定倍率で縮小した際に全く同じ画像に戻るという謳い文句はどこいったんだろなw

は?

ニューラルネットより頭悪そう

305名無しさん@お腹いっぱい。 (ワッチョイ 7925-oK17)2016/08/01(月) 14:14:51.51ID:s/CT/hUD0
AIやシンギュラがこれだけ進歩したんだから画像処理も
単なる塗りつぶしじゃなくてもっと賢い方法が出ないかな。
昔の映画やレコード音源の修正でも同じ、劣化逸失した情報を
量子演算で取り戻すような、根本的なところでの革新が必要。
やぱり人間の脳みその性能上限に縛られてる?だろ
そういや水着の布地て体積の半分以上はすきまの空間であり
そこを通り抜けてくる光線は多量に存在するはず。
その軌跡を光学補正して美少女の素肌映像を再現する
すきま光線解析ソフトが出ないかな?
あの光線が再利用されず無駄に散逸してるのは残念

レンダリングに年単位かかりそうだな

>>305
ゴッホの油絵の自画像を写真にするデモを見たことあるからやればできるんじゃね

受光器に達するまでに光が混ざって分解不能になってるから無理だろ

AI利用の写真アート化アプリ、Prismaが大ブーム―大手ソーシャルメディアが買収?
http://jp.techcrunch.com/2016/07/20/20160719prismagram/

waifu2xの作者「Prismaはneural styleのパクリ」

Release ver 1.1.7
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7

upconvモデルを更新
標準で使われるモデルをupconv_7_anime_style_art_rgbに変更
GUI版でupconvモデルが上に表示されるようにした
GUI版でノイズ除去レベルを0を変えても出力ファイル名が変化しないバグを修正

UpRGBはノイズ除去だけした時に一度拡大してから縮小していると聞きましたが
デフォルトにしまうとそこに不安がある気がします。
拡大縮小は結構劣化を生むと思うので、構造上難しいならいっそUpRGBでノイズ除去のみはエラーに倒してもいいように思っています。
一応JSON側にarch_name: upconv_7/vgg_7を入れてますが。

最近になってcafeとmultiがあることに気づいたんだけど
これってどちらも性能は同じなのかな?
multiのほうが画像単体で複数変換できるから便利な気もしないでもないけど
どなたか細かな仕様の違いご存知でしょうか

waifu2x-caffe(最新版)はウェブ版(waifu2x.udp.jp)とほとんど同じはずです。
逆にそれ以外は使っているモデルが古いなどで細かく性能を測るとスコアは低いと思います。
https://triple-underscore.github.io/css-images/pixel-art-small.png
この画像をノイズ除去なし2倍で変換してみて
良し悪しに関わらず出てくる画像がウェブ版と異なる場合は
使っているwaifu2xのバージョンが古いです。
この画像はバージョンによって異なるアーティファクト(ノイズ)が出てくる呪いの画像なので
バージョンを調べるのに便利です。

>>314
ご丁寧にどうもです!

アプリの圧勝でした
サイトは使わないほうがイイですね
ありがとうございました。

>「waifu2x-caffe_Difference_From_ver1.6.0.zip」はver 1.6.0からの差分ファイルが入っています。

ってあるんですが、ver 1.6.0がどこを探しても見つかりません・・・


それは ver 1.1.6 でしょw

320名無しさん@お腹いっぱい。 (ワッチョイ 6f04-MLGp)2016/08/08(月) 02:22:38.85ID:Ex+ktA6y0
今の限界の3倍くらいの大きさの画像も処理できるようになると嬉しいわ

そんなおっきい画像でなにすんの

昔の解像度足りない画像を大サイズにできれば
出版用途もありそうだよね

>>322
そういうのはフリーウェアじゃなくて高い市販のソフト使うんじゃね

その市販のソフトってどれ?
フォトショじゃできないでしょ

フォトショップで手動で

商業で使うなら一般人の財布酷使してないで経費で落とせよ

jpeg出力する時にサブサンプリングも選びたい

どう考えても一般人じゃないだろw

コミケでSIGNICO買ってくる予定だけど
今年も画像処理についてなのかな

330Youjyo2Sex. exe→cute(笑 (ワッチョイ 4d25-MTuc)2016/08/11(木) 15:59:39.98ID:Q9oi6RJK0
.
いまあるPIXdateからアニメ塗りではこれが限界な。
技術って上限があるんだね、カツワイルも宗教家のw
そういや、宇宙のホワイトノイズには宇宙人の美幼女動画8Kや
フル裸16Kも含まれているだろうしあれを受信して2chで実況中継
するのはどうかな?異星人の幼女ポルノだから法律の埒外だし
俺をタイホするのは越権行為だっ!警察は引っ込めッ!

わーお

お騒がせのhulu入れないマンだが
新ver(Vivaldi.1.3.551.30.x64.exe)に更新したらやっと見れるようになったよ
IDパス入力するログイン画面もでず入れるようになったよ
これで人にも心置きなく薦められるよ

誤爆したよ

>>332-333
名前に偽りなし

waifu2x-caffe初めて使ってみたけど処理に時間かかりすぎワロタ

>>335
グラボ積みなされ

処理時間の目安CPUが分でGPUが秒

338名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw)2016/08/13(土) 01:52:33.75ID:9hSx5rj10

339名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw)2016/08/13(土) 01:53:04.42ID:9hSx5rj10
誤爆

>>335
http://akiba-pc.watch.impress.co.jp/img/ah/docs/747/222/html/mdosv1604_b51.jpg.html

GeForce730辺りでも十分速くなるよ。750Tiだと760と其処まで大きな差は無くなるよ。
数千、数万(例えば動画などが該当する)と連続処理させるなら兎も角、
1回にせいぜい百枚くらいまでの作業なら1万程度の750tiがコスパ最強だと個人的には思う。

http://f.xup.cc/xup9unncade.jpg
なんじゃこりゃ。

>>340
cpuってこんな時間かかんのかワロタ

中古のスリムデスクトップの240Wですが750Ti載りますか?
今は5570です

載るけどCUDA目的ならPICE3対応してるのかマザボのスペックを確認されたし
5570はPCIE2でしょ?
2用に3用を載せても下位速度で動いて本来の速度が出いならあまり意味ないし

750tiは消費電力はさほど気にしなくてもいい。大したことない。補助電も特に要らない。
2スロット分の厚みがいけるなら俺も使っているクロシコのGF-GTX750Ti-LE2GHDが良い感じ。
負荷時でも静かで熱も神経質にならなくてもいいレベル。もちロープロ対応。

1スロしか駄目な場合はELSAとかがあるがやや高くてこれはロープロダメ。
他の人の回答待ち。730とかならあるのかなー?

帯域による減速は事実としてあるけど、そこまで大きな差は出にくいと推測してみる。
3Dグリグリと違い使用メモリも数GBとか使うわけでも無いし。
帯域を使用する一番の浪費はメモリでしょ。
嫁2xはPCIExpress帯域関連に神経質にならなくて良いと電波してみるよ。

これすげー。ウィンドウズのパソコンで使えるようにしてくれー

深層学習でドット絵のような荒い写真を高画質化できるプログラムがGitHubに公開
http://pc.watch.impress.co.jp/docs/news/1017571.html
http://pc.watch.impress.co.jp/img/pcw/docs/1017/571/01.png

つかえるだろ

証明写真みたいな画像限定のようだが
実用性は?

元の画像と印象変わっちゃうけどそれっぽくでっちあげてるね

ほぼ別人だが不気味の谷になってないのはすごい
将来はSF映画でよく見る監視カメラ拡大とかも出来るようになるんだろうなぁ

もはや別人じゃねーかw 当たり前の結果だけども

>>348
フロントエンド作ってくれー。オッパイモードとかも欲しい。

AVのモザイクに対して処理したらどうなるんだろう、とゲスな事を考えてしまったw

みんな息ふき替えしたかのようにレスしててワロ

類似データで埋めるって感じか
モザイク除去が捗るな

学習データによっては実用性がありそうだな

16×16ドット → 64×64ドット
GTX 1080で3時間だとよw

> This particular example was produced after training the network for 3 hours on a GTX 1080 GPU, equivalent to 130,000 batches or about 10 epochs.
英語わからんけど学習に3時間じゃ?

ドット絵というと xBRZ の上位変換か?! と期待したけど
「GTX 1080で3時間」はつらすぎる……

スッピン化しててワラタw

以前のソニーのテレビに搭載されていたDRCのディープラーニング版みたいだね。
元の画像をいじくるより置き換えたほうが溶けなくていいのかも。

監視カメラの粗い画像から犯人像を復元するのに使えそうだな
しかしかなり違う顔になったりするので冤罪のもとにもなりそうだ

>>347
科捜研の超解像技術が現実に…

30年以内には下手な絵をプロのイラストレーターが書いたような絵に変換するプログラムが出そう

>>365
今、映画「シン・ゴジラ」ファン界隈で流行ってる○○調似顔絵とかソフトウェアが勝手にやってくれるようになると思う。
http://image.eiga.k-img.com/images/buzz/59900/a9b73721ebe711a6/320.jpg
http://buzz-netnews.com/wp-content/uploads/2016/08/639826a2fa230071f44d06266e2fc5b1.jpg

こういう絵画も写真調にしちゃうんだろうか。
http://kaoruko-trend.blog.so-net.ne.jp/_images/blog/_9d1/kaoruko-trend/m_2005-06-24.jpg

ネットじゃモザイクを解除できると思ってる奴多くてワロタ
モザイクの処理はドット混ぜてたり位置換えてたりするから無理po

してるのとしてないのがあるし

昔画像に可逆的なマスクかけるソフトがあったなw

371名無しさん@お腹いっぱい。 (ワッチョイ 73f0-wh/5)2016/09/05(月) 19:40:58.30ID:HkAh0Dw50
全層畳込みニューラルネットワークによるラフスケッチの自動線画化
http://hi.cs.waseda.ac.jp:8081/

使い方

1 「ファイルを選択」ボタンを押し、線画化したい画像を選択してください。
2 線画の簡略度を設定してください。
3 「線画化!」ボタンを押すと、線画化した結果が下の方に表示されます。

★システムの改善にご協力ください!★

現在のシステムはまだまだ発展途上であり、みなさんのラフスケッチをAIに学習させることでさらに精度が上がっていきます。ぜひシステムの改善にご協力ください。

>>371
ラフが線画になる時代が来たのか……
クソのようなカラー版じゃなくて、
矢吹絵を石恵塗りで色付き生成するのもきっと時間の問題だな、胸熱すぎる

ラフっていうかアタリ程度だとまともな絵にはならないね
そりゃそうか

HUNTER×HUNTERやBastardの雑誌版がコミックス版に!

アカン、富樫がさらに怠けてまう

トーンとかベタの学習難しそうw

377名無しさん@お腹いっぱい。 (キュッキュ e6e2-tq+X)2016/09/09(金) 16:13:10.17ID:bHeHK16U00909
ラフというかわりと完成した鉛筆画ならそれなりにいけそうな気がするねぇ
学校で描いた落書きとか突っ込んでみれば

378名無しさん@お腹いっぱい。 (キュッキュ d099-sMwW)2016/09/09(金) 20:59:58.26ID:kjPCajQ000909
てか富樫のラフ画をもとに処理して見せればいかにすごいかわかるんじゃね

waifu2x-caffe ver 1.1.7.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7.1

GUI版にアイコン追加
crop_wとcrop_hが違う値の時にTTAモードを使うと出力がおかしくなるバグを修正

>>379
ついに自作のコーヒーカップ・アイコンとお別れの日が来たか・・・

waifu2x caffeでjpegをpngにした場合
waifu側でRGBに補完してpngで吐き出してくれるのですか?
それともYUVで処理した後単純なRGB変換をしてるのですか?

>>381
画像を読み込んだ時点でRGBになってwaifu2xで処理して結果をPNGで保存
ノイズ除去ありだとYUV4:2:0のクロマサブサンプリングもwaifu2x側である程度修復される

フォトモデルがYUV処理なんだと思ってた
(´・ω・`)違うのか・・

This website is hosted by the server of pixiv Inc
いつの間にやら

http://drawr.net
こことおなじIP

pixivの援助を受けはじめたのかな

今のところwaifu2x.udp.jpの接続先をEC2からピクシブ様が提供されている環境に切り替えた以上の意味はないです。
githubのwebブランチからデプロイするようにして頂いています。(広告等は追加されるかもしれません)
サーバー代とたまに落ちる問題は解決したんじゃないかと思います。
回線やハードウェアも以前よりいいと思います。

鯖うつしたのかな?

わーびっくりした
なるほどね

multiっていちいちimgurにうpしてんのか?消せないの?

>>390
つ 削除要請

簡単な線を引くだけで自動で画像を生成してしまう「iGAN」がスゴイ
http://gigazine.net/news/20160926-igan/
iGANでどんなことができるのかを端的に現わしたのが以下の図。
http://i.gzn.jp/img/2016/09/26/igan/s01.png

>>390
ファイルのURLを持ってるのは確かだけど、imgurにうpしているようには見えないけど
どうしてそう思いました?

そういえば、アニメの輪郭線問題ってどうなったの?

>>393
クリックしたらi .imgur〜から始まるURLが見えた

E8400で使ってみたら 1ページ辺り3分近くかかるな
i5-6600辺りに換装したら実用的になるかな?

安物でもいいからGPU

GPUか AMD買う予定だったけどGeforceにしようかな

GeForceをディープラーニング目的で買うなら最低でも8xx世代、できれば9xx世代を買うべし

もちろん10xx世代も含む

vega買う予定だけど、このソフトにはあまり向かないのかな…

Caffeがamdで動くようになるって話があったような気がするけど進捗はどうなのかな

experimentalって書いてるしまだ先の話かね

>>399
8xxはノーパソ用だろ?
vramは多いけど処理性能は7xxより劣るのがな…。

AMDならwaifu2x-converter-cppがある
まあ更新が止まってるけど

>>405
これはマジでいいな
最初文字も出ないし変換してるかわからんほどやたら時間かかるから疑ったけど
最初だけで次回がスムーズで驚いたよ
使えるソフトだし更新してほしいな

waifu2xの論文マダー?

waifu2x-caffe ver 1.1.8
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8

CUDA Toolkitを8.0.44に更新(同梱しているdllも更新)
cuDNN v5.1に対応
アルファチャンネルが単色の場合、cv::INTER_NEARESTで拡大することで高速化

意図せず無意味なアルファチャンネル情報が付いている画像の変換が早くなった模樣
ただtwitter形式で上げられてるpngは単色じゃないから変わらないねえ

CUDA使えなくなった
このバージョンの推奨ドライバって何になる?

使えなくて一瞬焦った
推奨ドライバは知らないけどnVidiaのドライバを
368.81 → 373.06 にupdateして使えるようになって一安心

tanakamura版使ってるんだけどCUDAで処理させようとするとこんなエラーが出るんだけど俺環?

Iteration #6(128->128)...(94.5009[ms], 310.326[GFLOPS], 1.07752[GB/s])
Iteration #7(128->3)...(10.8175[ms], 63.5389[GFLOPS], 4.81689[GB/s])
total : 0.218784[sec], 263.632[GFLOPS]
OpenCV Error: Unspecified error (could not find a writer for the specified extension) in imwrite_, file C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp,
line 439
terminate called after throwing an instance of 'cv::Exception'
what(): C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp:439: error: (-2) could not find a writer for the specified extension in function imwrite_
This application has requested the Runtime to terminate it in an unusual way.
Please contact the application's support team for more information.

原因はわからんが対処法はわかった
-o hogeはダメで-o hoge.pngは問題ない

拡張子指定しないとどの形式で出力したらいいのかわからないじゃん

そういう問題なんです?
普通に全部pngで出てくるのかと思った

waifu2x-converter-cpp

AMD版の更新おねがいしまつ!

かなり久しぶりにみたら色々アップデートしててちょっと困惑してるんだが
bmpで出力する場合、以前は24bitだったが今のバージョンだと32bitになってるよね
これ前みたいに24bitのbmpで出力する方法ある?

ごめん
>>417はwaifu2x-caffeの話ね

>>417
もともとの画像が32bitとかではなくて?
こっちで24bitの画像を処理しても24bitになったよ

あ、いや24bitのbmpを処理したら32bitになるっぽい?

>>419-420
こっちで確認した結果はbmp入力→bmp出力だとほぼ確実に32bitになる
「ほぼ」というのはそうならないパターンもあったので

最初にjpg入力→bmp出力をやると24bitのbmpで出て
そのあと続けてbmp入力->bmp出力すると24bitのまま出た

最初からbmp入力→bmp出力だと32bitになる
分けわからん

あ、一応全部GUIでのwaifu2x-caffe使用によるもので、設定は以下の通り
出力拡張子「.bmp」
変換モード「ノイズ除去」
ノイズ除去レベル「レベル0」
モデル「2次元イラスト(RGBモデル)」
分割サイズ「128」

>>419
入力24bit png
出力 bmp
結果24bit bmp

>>420
入力24bit bmp
出力 bmp
結果32bit bmp

この動作は仕様なのかな?

ふむ、仕様かバグかしらんけどBMP→BMPでの24bit出力は無理そうかな
なんかコマンドラインからならオプションでできる、とかあったら知りたかったけどパッと見なさそうだし
大人しく出力後に別ソフトで変換するわ

そういやwaifu2x、派生版もMITやBSDライセンスが多いけれど
コレ使ったスマホアプリを有料や無料+広告で出しても大丈夫なんだろか
実用速度にするならPrismaのように外部専用鯖が必要になるから動画広告でも付けたいんだよね

Prismaは最近オフラインでも動作するようになった。

>>424
それはもう、このスレに書き込むとかいう奥ゆかしいコミュニケーションじゃなくて作者に連絡取ったほうがいいんじゃないか

>>424
全く問題ない
さらに言えばフォークしてそれ自体を売りに出しても構わない(要求された場合無料でなくてもいいがソースを出す必要があるが)

>427
GPL汚染されてないのにソース出す必要あるの?

>>428
すまん、GPLの場合はそうだったね
BSDとかMITならいらない

実際作者はどのくらい儲かったのか気になるな

赤字じゃろ


黒字の間しか鯖動かしてないんじゃなかったっけ
トータルではどうなのか知らんが

>>432
将来有望なボトラーだな

ロリポ法に引っかかる写真じゃないのか?

Reshadeってどうなの?
写真の拡大には良さそうだが

>>436
ポスターみたいに大きく印刷したいときかな。

http://www.itmedia.co.jp/news/articles/1611/07/news119.html
「わしが育てた」なやり方が取れるのか
組織だって重点的に応募すれば好みのタッチに近付くのかな? 弾かれるのかな?
どっちにしても楽しそう

白黒写真の着色技術をイラストにも応用するのかな。某嫁2倍みたいだ。

GIGAZINEにも先日モノクロ写真を自然なカラー写真にしてくれる研究のってたな
こりゃ2020年までには女性の水着写真を入力→その人の全裸画像出力まで行くと思った
DMMのAVパッケージからの顔写真やFBの顔写真の検索サービス売ってる人もいたしな
倫理的にこれやっていいのかって画像処理、
データ処理、データベース化が出てくるだろうね
今のビッグデータでさえプライバシー倫理的にどうなのって話でもあるが
倫理的にアウトなやつはコードで配布って形になる予感

今まで通り個人の範疇で何をしようがそりゃ個人の自由よww
メーカー側が売ることが出来るかできないかはそりゃコマーシャル方法によるだろうなw
「水着の女を裸にできます」なんてコマーシャルじゃ確実にアウトwww

ikorageの配布元が消えてる…

Googleが低解像度画像を爆速で高画質化する機械学習を使った技術「RAISR」を発表 - GIGAZINE
http://gigazine.net/news/20161115-google-resarch-raisr/

超解像は、リアルタイムで進行している。

ピッドーン、ピッドーン…

論文読んだかんじPSNRやSSIMはSRCNNより落ちるけど処理速度は圧倒的に早いな
SRCNNが数秒かかるところを0.1秒以下で出来てるっぽい(グラフ見間違えてなければ)

ワイフは2次元特化しかこの先生きのこる術はないのか

今後はデコードでなく、補間に適した方法で圧縮した小サイズの画像を転送して
モバイル端末側で拡大処理をするようなサービスも出てくるかもね
バッテリー持ちと帯域とのトレードオフになるだろうけどw

>>447
「高圧縮率だが展開に負荷がかかる新しい圧縮フォーマット」と何が違うのか

>>446
その2次元絵もアプコンでは境界線が溶けてて使い物にならないんだけどな
RAISRのベンチ次第では本格的にいらない子になるわ

>>448
画像(動画)であれば全て対応可能な点と
マシンラーニング結果で精度の向上が見込める点か

処理速度が発表通りなら確かに動画のアプコンも現実的な範疇かな

これweb版はpixivのサーバーで動いてるんだな

>>443
どこかでテストできるサイトはないのかな?
あるいはwaifu2xに「同じ写真のアップサンプリング版と高解像度版」のセットを学習に使用するの部分だけでも組み込んで、速度はともかく画質向上ができればとも思うけど

2030年、日本人がモザイクを無修正にする技術を発明する

>>454
US:モザイクってなんだ?

>>453
無い

>>453
Set5,14の結果が論文に載っているけどwaifu2xの写真モデルよりだいぶ低いです。
Bicubicよりマシな結果で速度に特化している感じだと思う。

写真で言えば、現状木の葉の重なりとか
同系色の小石及や砂漠の処理が難しいな
サンプル食わせても、思ったように描画してくれない

みんな論文読んだ?
読んだ範囲だと選択的に
デシタルフィルタで輪郭強調してるだけっぽいけど
表現力とかreceptive fieidはかなり
waifu2xの方が大きい

ただ家電組み込みとかは有利そう

昔からよくある超解像のエッジ強調でボケ低減重視した結果
テクスチャ成分が消えて油絵見たいになる奴だな
今までは反復で処理してたのを1回?なんで速度が速いみたいな
あとで元画像の高周波成分に応じたディザ加えると視覚上はそれっぽく見えるようなの

https://twitter.com/personasama/status/781839302791532544

ディープラーニングは詳しく無いんだけど、
マンガのコマを入力にしてこういう動画を出力させることって出来ますか?

余裕

あぁwaifuより溶けてねーかと思ったのはあながち間違ってなかったのか

>>457
論文のままやるのではなく、waifu2x流に 「同じ写真のアップサンプリング版」と「(今までのモデルデータと同じ)高解像度版」の2パターンのモデルデータを作成して、
それぞれで超解像処理したあとに部分ごとにいいとこ取りするとかではダメなの?

koroshellのコンバータをcppに変えたら速くなった!
気がする

プラーシボウ公開です。

madVRにNGU (Next Generation Upscaling)というのが入ったらしいので
動画に詳しい方はレポートをおねがいします。

madVRスレに比較画像ありました

madVR Part8 ©2ch.net
http://potato.2ch.net/test/read.cgi/software/1469289290/404

404 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2016/11/05(土) 22:15:28.64 ID:FYlCTwMn0
http://forum.doom9.org/showthread.php?p=1784964#post1784964
新アルゴリズムはまだ時間かかりそうだが、比較画像がでてきた
NG1がmadshiの新アルゴリズム、Waifu2xは比較用でリアルタイムでは使用できない
http://madshi.net/madVR/AmericanDad/AmericanDadOrg.png
http://madshi.net/madVR/AmericanDad/AmericanDadJinc.png
http://madshi.net/madVR/AmericanDad/AmericanDadNNEDI256SR4.png
http://madshi.net/madVR/AmericanDad/AmericanDadNG1.png
http://madshi.net/madVR/AmericanDad/AmericanDadWaifu2x.png

実写でやってくれないとよくわからんぞ…

Jincはぼやけすぎ
NNEDIはリンギングがひどい (ただ元の画像に入っているのでシャープにするときに強調してしまっているのかも)
NGUとwaifu2xはぱっと見同じに見えるけど線だけ見るとwaifu2xのほうくっきりしているのと
左の女性の口周りの色のにじみなどが消えているというのが自分の感想です。(このwaifu2xはノイズ除去あり?)
これでwaifu2xの100倍速いならすごくいいんじゃないでしょうか。

あと
>madVR v0.91.0
>* added new NGU (Next Generation Upscaling) algorithm
とあるのでもう入ってると思います。

>>469
実写だとこれ
http://forum.doom9.org/showthread.php?p=1785599#post1785599

NGUは輝度のみの拡大で、色差はBicubic60で拡大している模樣
面白そうだけどうちの低スペPCじゃmadVRは無理だなあ

動画のキレイな拡大ならMPDNてのもオススメ。openclに対応してる。

BSD100 x2

PSNR 28.599 SSIM 84.309 Lanczos3
PSNR 28.729 SSIM 83.971 NNEDI3
PSNR 29.721 SSIM 87.238 SRCNN
PSNR 30.071 SSIM 87.456 NGU
PSNR 30.081 SSIM 87.471 waifu2x_Photo
PSNR 30.292 SSIM 87.885 waifu2x_UpPhoto

評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に

思いのほかNGUのスコアが高くなって困惑
madVRの開発者がNGUはGoogle RAISRより優れていると豪語してたけどマジかもしれない

NGU、恐ろしい子!
ただ原理的なことがさっぱりわからんけど。
というか、静止画で手軽に試す手段とかあるの?

>>474
> というか、静止画で手軽に試す手段とかあるの?

無いと思う。
MPC BEにpngを読み込ませてスクリーンショット撮影っていうのをひたすら繰り返した。
NNEDI3みたいにプラグイン形式で使うことが出来れば楽なのだが。

さすがに画質ではwaifu2xにはあと1歩及ばないけど
動画をリアルタイムに拡大処理可能な速度でこれは凄いな

>>473
>評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に
超解像の論文でよく使われているPSNRと書かれている再現できない謎の評価指標は
輝度だけのPSNRなのですが
MATLABの実装由来で輝度を16-235の範囲の整数にしたあとにMSEを計算しているため通常のPSNRより高くなっています。
(また縮小に使うアルゴリズムはBicubicに固定します。
waifu2xのtools/benchmark.luaで-filter Catrom -range_bug 1にした時にこの評価指標を再現できます)
この評価指標を使っている場合は、BicubicのPSNRが高いので見分けが付きます。
RAISRはSRCNNよりもPSNRは低いと書いてあるのでNGUはRAISRよりも高いと思います。

NGUの演算時間を延ばしていいから、もっと高精度に演算させるオプションとかないものなのか?
あるいは先日の例に習って
従来型waifu2xとNGUのいいとこ取りとか

これはすげえな…
久々にハイエンドグラボ買うか

480473 (ワッチョイ bf39-Yhbf)2016/11/25(金) 02:32:42.55ID:Bfwfyes20
>>477
詳しい説明ありがとうございます。
MATLABもLuaも導入難易度が高そうだったのでWindowsで簡単に扱えるソフトで良いものが無いか探したところ、FFmpegを使えばだいたい同じような値が出ることが分かりました。
これでデータセットの中に縮小済みの画像が入っているものに関しては割と近い感じの数字が出せるかもしれません。

BSD100 x2

Y-PSNR 29.553 bicubic
Y-PSNR 29.917 Lanczos3
Y-PSNR 30.066 NNEDI3
Y-PSNR 31.096 SRCNN
Y-PSNR 31.190 SelfExSR
Y-PSNR 31.397 NGU
Y-PSNR 31.417 waifu2x_Photo
Y-PSNR 31.627 waifu2x_UpPhoto

>>480
Bicubic, waifu2x_Photo, waifu2x_UpPhotoのスコアは手元と大体同じです。(差が0.01程度)
SelfExSRは2年くらい前にstate of the artと言っていたものなので
処理時間の制限つけた上でそれを超えてるのはすごいですね
もっと遅くしてよいという条件でどこまで上げれるのか気になる


読唇術もコンピュータ処理の時代か
インチキ読唇術者ざまあ

動画対応期待age

ICCプロファイルのサポートもするらしい

Don't ignore color profile · Issue #158
https://github.com/nagadomi/waifu2x/issues/158#issuecomment-265580773

PSNR値は視覚及び脳内での判定と一致しないんだよな
元写真を縮小→拡大テストで見比べると、SRCNN等は微妙と言うか
人間的感性も数値化できればいいんだが

そいや市販ソフトのPIXEL MASTERは昔使ってみたが(性能は微妙なところ)
今は公式ツイッターさえSpamBOTにのっとられてる有様だなw

PSNRを高くにするは、ほとんど同じ入力から拡大結果が異なるようなときに
それらの平均を出力したほうが有利で、平均というのは無難だけどどの正解にも近くないので違和感を感じやすいと言われています。
人の感覚に近いものとして、Perceptual LossやGANを使ったモデルが出ていて
これは、拡大結果の違和感は少ないけど、元画像とは近くならないです。
(PSNRは低い、ぼやけている部分を強調したり、元画像とは異なるテクスチャを追記したりする)
ただ写真ではかなりすごい結果が出ています。
https://arxiv.org/abs/1609.04802(画像だけでも見る価値があると思う)

488名無しさん@お腹いっぱい。 (ワッチョイ 5389-+CJx)2016/12/10(土) 00:29:51.46ID:SKbSNzE30
>>484
面白いのがあったよ
実際使えるかわからんけども
http://shimarisu.webcrow.jp/su_resol.html

>>488
これは使える。良い。

そこに書いてある
>24Mbps、29.97fpsのFHDを4kに拡大してみました。
>・インターレースソースの問題(プログレッシブ化)。
>・音声のずれ。
>・かえって画質が劣化した。
>と感じています。

これは数字から推測するにBSを録画したTSファイルやろな

中学生ぐらいが作ったサイトっぽいな(俺も作ったわぁ)

>>488
ノートン先生にブロックされたが?

>>492
その先生にせもんじゃね?

>>492
ノートン先生は落としたファイルの利用者が少ないとなんでもかんでも有害認定する池沼だぞ

ノートン先生は引退して画商になった。今のノートン先生はレプタリアンが化けてる。

496名無しさん@お腹いっぱい。 (プレステP 7be1-drn7)2016/12/12(月) 15:32:46.27ID:u7QO8mxr01212
うちのノートン先生は利用者が少ないファイルでウイルスの疑いがないならそういう風に注意だけ出してくれるけど違う先生なの?

497名無しさん@お腹いっぱい。 (KIMWW a7b3-IzEV)2016/12/12(月) 18:03:31.51ID:UNxRc+zn01212
madvrのNGUのベンチが思った以上に凄いから動画に関してはそっちで充分かな
waifu2xだと溶けるのがやっぱり残念なのと、動画のパンでは、境界線でジャギーみたいなのが発生するのも凄く気になる
あと結局は、エンコに凄く時間がかかるのがネックだなぁ
静止画でのベンチは素晴らしいんだけどね

NGUがどう進化するか次第だと思う。
waifu2xのいいところと、NGUのいいところが、うまくミックスできると最強なんだろうけど。

光と闇が合わさって最強に見える

500 Internal Server Error

madVRスレでも言われていたけどNGUはジャギーが稀に出る事があるのでそこが改善されると嬉しい。
ちなみにwaifu2xで拡大すると綺麗に拡大されるのでやはり優秀だなあと思う。

前々から思ってたんだけどノイズ除去の「最高」を精度とか品質が最高だと思ってどんな画像も最高で変換している人がいるような気がする。
例えばこの記事も元のjpgの品質が98くらいあるのに最高で変換している。

フルHDから4Kへ! Webのちからでプリキュアの壁紙を超高解像度化する|ギズモード・ジャパン
http://www.gizmodo.jp/2016/12/4k-precure-wall-paper.html

よりアニメ調を強くしたい時に強くする

ノイズ除去強めるとのっぺりしないかなぁ

505502 (ワッチョイ dc39-sOSw)2016/12/18(日) 02:02:20.19ID:PC7MwSWO0
>>504
実際のっぺりするね
http://i.imgur.com/G6m1ltP.png

>>488
この作者普通にできる人だったのか

507488 (ワッチョイW 8289-SvdB)2016/12/18(日) 11:56:30.17ID:7XzIowgg0
>>505
必要ないならあえて強く掛けない方がいい気がするよな…上の画像なんて元からJPEG品質高いっぽいし

>>506
これなぁ
俺の環境では動画と音声の長さが合わなくて、音ズレしまくったんだよな
更新も止まってるっぽいし…

音は後から直すのが良いんじゃね。

動画は可変フレームレートとか色々あるから音ズレしやすいんだよねえ……
一部のWMVも可変フレームレートだから普通にFFmpegで変換すると音ズレする。

>>507
コメント欄に「このソフトで変換すると音声がずれる動画がyoutubeなどにあったらurlを教えてください。」って書いてあるからサンプル提供するかMediainfoで調べた情報送ればいいんじゃないかな。

普通にw2xcでエンコするのじゃ駄目なの?

caffeの最新と同等の動画用があるといいんだけどな

まあそれが理想だなぁ
w2xcも更新が止まっちゃったし

>>488のやつは内部にwaifu2x-caffe使ってる
導入も簡単だし、音ズレ対策やその他諸々の機能追加されたら使い勝手良くなるから頑張って欲しい

モデルを入れ替えたらええのか

caffe使ったvapoursynthのプラグインがあるだろ

導入することさえ出来ればVapourSynth-Waifu2x-caffeが品質も処理速度も最高だと思うけど導入難易度高いね。

517名無しさん@お腹いっぱい。 (ワッチョイ 9e4e-g1cW)2016/12/22(木) 17:08:38.15ID:j+vsgrZa0
初心者新参なんだが、どれがおすすめ?

Windows10 Pro 32bit Core i5
メモリ4G

>>517
32bitのWindowsだとtanakamura氏のwaifu2x-converter-cppかな。
64bitのWindowsなら今でも更新が続いているwaifu2x-caffeがいいんだけどね。
今だとcaffe版にしか付いてない機能も多いし

519名無しさん@お腹いっぱい。 (ワッチョイ 9e4e-g1cW)2016/12/23(金) 09:29:37.03ID:2mEiHi6o0
>>518
ありがとうございます!
トライしてみます!!


Sharper Scaling
http://a-sharper-scaling.com/

Bicubic interpolation
http://a-sharper-scaling.com/2b.jpg

Photoshop Preserve Details
http://a-sharper-scaling.com/2pd.jpg

A Sharper Scaling
http://a-sharper-scaling.com/2ass.jpg 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)

今使ってるグラボがGTX670なんだけど、1060や1050にしたら処理早くなりますかね?
80枚のイラストを3.0倍、ノイズ除去1 jpgでやると20分位掛かっちゃうんです


>>522
早くなると思います。
gtx1060@6gbならばvramを最大限活用すれば間違いなく体感できる差を得られるでしょう。

ごめんグラボよく分からないから523は無しでw

>>524
ありがとうございます

>>526
ttaの有無、分割サイズ、変換する画像の大まかなサイズなど詳しく教えていただければ自分のpcで走らせてみますがどうでしょう?
多少なりとも参考になると思います。

AMDから今度出るGPUが深層学習向けらしいけど
このソフトでも早くなるのかな

529488 (ワッチョイW 1289-W3gD)2016/12/23(金) 23:46:46.15ID:rtorBkxO0
>>509
さっき覗いたら更新来てた
音ズレ検証してみたけど解消してるわ
これはいいで

530名無しさん@お腹いっぱい。 (中止 aa39-AwQU)2016/12/24(土) 15:31:26.95ID:OFvUtbxO0EVE
処理速度をベンチマークするbat書いたよ
動くかどうか分からないけど奇特な人はチャレンジしてみて。

https://www.dropbox.com/s/5p9lnl62qnlk69v/waifu2x_benchmark_v1.zip?dl=0

531名無しさん@お腹いっぱい。 (ワッチョイ 34e1-t+3N)2016/12/28(水) 17:41:29.27ID:08hGKA3e0
オンボのノートPCじゃこのソフト使えないんでしょうか?
1280×800の画像1枚を2倍にしたいだけなんですが実行ボタン押しても残り時間:不明って出てフリーズします。
ウェブ版は普通に使えます

waifu2x-caffeなら時間かかるが動くんじゃね

とにかくColorProfile対応してくれることを望みます
ちょっとライトエフェクトとかある差分画像とか全体が全く違う色になって困り果ててしまうわ
これで動画のエンコなんてしたらもう…

534名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)2016/12/28(水) 18:09:49.29ID:08hGKA3e0
>>532
ありがとうございます。ソフト名を書くのを忘れていました。
そのwaifu2x-caffeでフリーズしてしまうのです。

>>534
じゃあ明日まで待つ

>>534
残り時間不明のまま一見なにも起きない(裏でちゃんとうごいてる)
のは仕様だと思いますが。CPU使用率を見てれば動いてるかどうか
分かるよ

>>533
大人しくmadvrのNGU使え

初期設定だとCUDAで変換するようになってるけど環境がCUDAに対応しているかチェックする時に躓いているのかな
動作設定で使用プロセッサーをCPUにすれば動くと思うけど

539名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)2016/12/28(水) 19:59:06.13ID:08hGKA3e0
>>538
動作設定はCPUにしております。CPU使用率は80%以上でございます。Braswellでは非力すぎて動かないのかな

>>539
時間がかかるだけで変換出来ないって事はないと思うんだけどね
あと気をつけないといけないと思うのは分割サイズを大きくしすぎるとメモリを食ってOSごとフリーズする事くらいかな

なんだ、終わるまで待てない人だったかw

進捗バーが動くものだと思ってるんだろうな

あの進捗、ファイル数なんだよなぁ(´・ω・`) 大漁のファイル掘り込めばバー動くけど
オンボろノートで1280×800を2倍拡大だと数分掛かるんじゃね?

重たい処理したいときはこのあたりのソフト使うと良いよ

【優先度】CPU最適化スレ 3CPU【自動変更】
http://potato.2ch.net/test/read.cgi/software/1327059116/

545531 (ワッチョイW b2e1-EzRd)2016/12/30(金) 14:31:11.67ID:tIIWopzb0
辛抱強く待ってたら一応完了したのですが出力先を見たら何もできていませんでした‥.

モデルのUpPhotoとphotoの違いは何でしょうか?

出力先指定してあるの?違う所見てない? それか上書になってない?

無印は標準モデル
Up印は速度優先モデル(と言っても倍程度。出来上がりに大差はないけど物によっては気になるかもしれない)

1060が届いたので試してみました
・・・・・・・・・・あまり変わっていない?
分割サイズを128から240にしたけど、う〜ん

後cuDNNってなんぞ?

cuDNNはNVIDIAが別で配布しているライブラリ
ディープラーニング用のAPIが入ってる

waifu2xはほとんどの処理時間は
コンボリューションで、cuDNNに
含まれるAPIなので恐らく速くなるはず

caffeeの自前実装のコンボリューションが
鬼のように最適化されてたら変わらんかも
しれんが比較したことないので知らん

>>548
ここに各種条件でのベンチマーク結果が書いてあるよ
https://github.com/lltcggie/waifu2x-caffe

cuDNN RGBモデル

| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:03.170 | 278 |
| 125 | 00:00:02.745 | 279 |
| 200 | 00:00:02.253 | 365 |
| 250 | 00:00:02.147 | 446 |
| 500 | 00:00:01.982 | 1110 |

CUDA RGBモデル

| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:06.192 | 724 |
| 125 | 00:00:05.504 | 724 |
| 200 | 00:00:04.642 | 1556 |
| 250 | 00:00:04.436 | 2345 |
| 500 | 計測不能 | 計測不能(6144以上) |

>>548
英文書いて登録とか俺には無理だわ
単にチェック入れるだけならな

CUDAとcuDNN、処理時間倍違うのかよ。
さらにup系で倍、ファファファノファー

Upは速度優先ではなくて速度精度ともに無印より上だよ

554名無しさん@お腹いっぱい。 (JP 0Hde-Sa8B)2016/12/31(土) 00:39:48.58ID:RK8kbYryH
Up使うとほとんど無印よりきたねー結果になるんだがなんでた?

>>554
アーティファクトが出やすい問題がある>>41 >>274
最新の二次元モデルでは出にくくなってはいるけど

あ、あとcaffeでノイズ除去のみする場合はRGBのほうがいい

>>553
ほんとにそうなら無印いらなくない?
>>555の問題があるからだから残ってるんでしょ?
だからそういうのは精度上とは言わないもんじゃない?

cuDNNだけどっかに落ちてねーの?

>>557
数百枚に対するベンチマーク(PSNR)では数値的に上

cuDNN64.5.dll見っけた
探せばあるもんだなぁ
早速導入
おほっ滅茶早ww

分轄サイズを384にすると5GB以上使って4〜5分だったものが1分掛からずに終了
メモリ使用量は1GB程度に減ってた
cuDNN凄いな

うpしようとしてたけどやめて良かった

nvidiaに登録すればDLできるし、探すほどのものでもないべ

この凄さは良い1060のおかげもメモリ量もあって半分くらいはあるのかな?
あってくれ、でないと¥27,000が泣く

ウィルス付だったり変な改変受けてたりするのも有るし
そんなに難しくないから適当に登録した方が安心

Kaby Lake-S「Core i7-7700K」基礎検証レポート。注目すべきは絶対性能ではなく,電力対性能比だ - 4Gamer.net
http://www.4gamer.net/games/344/G034458/20170102001/

waifu2xでベンチマークしてて笑う

>>566
ディープラーニングの推定工程ベンチマークとして便利かもしれないな

笑うとか意味不でキムチワル

というかしょっぱすぎる性能だな
Ryzen頑張ってくれよ本当に…

中の人Pixivだったのか納得した

waifu2xのことなら、中の人の定義によるけど
開発している人(俺)はpixivではないよ
サーバーはpixivの方が運営しているけど

このスレを見ている人間にとっては大嫌いなレガシー不可逆画像コーデックJPEGに新たなエンコーダが
ttp://gigazine.net/news/20170113-google-guetzli/
人間の目に最適化した極低速高圧縮JPEGエンコーダGuetzli

SSIM:             libjpeg比 14%悪化
PSNRHVS-M:        libjpeg比 14%悪化
butteraugli:         libjpeg比 30%良化
エンコード速度:       libjpeg比 10000%+悪化
同等画質サイズ:       libjpeg比 35%良化
同等画質転送レート:    libjpeg比 35%良化
ttps://translate.google.co.jp/translate?sl=en&tl=ja&u=http%3A%2F%2Fencode.ru%2Fthreads%2F2628
ttp://encode.ru/threads/2628

長すぎるエンコード時間(消費エネルギー)という元手・投資を取り返すには何回その画像ダウンロードされないといけないんだろうな
性能はたしかに良いからお試しあれ

よくわからんが、電算機関連の話では
性能って普通は速度(時間)のことを言うんじゃないのか

GuetzliよりGuetzliの性能を評価したbutteraugliってやつのほうが気になる。
SSIMやPSNRより人間の主観に近い画質指標なのかな。

butteraugliでwaifu2xと他の拡大アルゴリズムの比較されたら、どんな結果が出るのだろうな

リファレンスのpngをq89ぐらいにすると、
似たサイズになるんだけど、確かに通常より綺麗だな。
waifuで拡大したほうが超綺麗になったけど、そういう問題じゃないからね。

>>575
自分もそう思ったんだけどbutteraugliのビルド方法がよく分からなくて断念したよ。
Googleがバイナリを配布してくれればいいんだけどね。

というかほぼGoogleしか使ってない指標でGoogleのエンコーダを評価されても性能が良く分からないよなと思う。


waifu2xの後追いして遊んでるんだけど
作者氏、GAN使うの嫌がってるんだよね

とりあえずGAN、ResNet、PixelSuffle
実装してみたけど見た目SRCNN臭さは
だいぶとれるけどたくさん評価
してないので微妙

俺の本丸は計算量削減なんだけど
理論上計算量3割のはずなのに
3割しか早くならない

chainer、推論遅くないか

サンプル画像すら出さないで何を言わんや…

評価中なので待ってください
一回回すのに10時間かかるので
何日かかかります

スクール水着の凹凸を判断してテカテカのラバーコーティングの水着にできる?

いいなそれ

>>579
GANはPSNRをあまり下げずに使えるならいいですが
(ロス関数の重みの調節で出来ると思いますがトレードオフがあるのでGAN使う意味がなくなってきそう)
PSNRがBicubic以下になると
変換結果に不安があるため現在BicubcやLanczosが使われる領域での置き換えには使えないと思って避けています。
もちろんいくつかモデル作って選択できるようにすればいいだけですが
面倒なのでやっていない状態です。ResNetはdevブランチには入ってます。

>584
GANについては混合比率下げると
全くなしと見分けがつかないので
PSNRは必ず犠牲になる印象です

3dB近く悪くなるので受容できないで
しょうね

GANは学習すごく遅くなるので
つらいです

GANは学習回数多くしないとだめ
なのでもしかしたら今足りてない
可能性があるので後でしつこく
やってみます

作者さんも自分で実験するのが
めんどいと思うので結果はアップして
共有します

butteraugli というので本当に見た目の印象が定量評価できるならそれもあり思いますね。
僕が見た目の評価嫌う理由は、たいして見る目がない人がリンギングでまってくる画像を
くっきりしているからよいとか判定してしまうところにあるので。

butteraugjiはためしてみたけど
値が小さい方がいいっぽいね

画像ができたら数字比較してみるわ

butteraugliでエポックごとの
評価みたけど学習打ち切った時点で
まだあがってた

評価がサチるまで回しますが、
たぶんすごい時間かかります

二乗誤差じゃわからん

SRGANはやろうとした人を何人も見ましたが
みんなうまくいっていないので
写真のモデルでcheckboard artifactを出さずに
論文の結果と似たような画像を生成できればそれだけで価値があると思いますよ

SRGANはチャレンジですね。がんばってみます。
うまくいったら挑戦します。

butteraugli初耳だったんですが、スレ観たらビルドの仕方が
わからない人がいる模様。Linuxの開発したことのある人少ないんですかね。

Windows10のコマンドプロンプト開いて以下のコマンドで実行、

$ bash

コンパイラとライブラリインストール(zlibはpngと一緒に入る)、

$ sudo apt-get install gcc g++ make libjpeg-dev libpng-de

ソースコードのMakefileのあるディレクトリで

$ make

で実行ファイル作られます。bash上か他のLinuxマシンのみで動きます。

プログラマじゃない人も色々遊んでみてください。

591名無しさん@お腹いっぱい。 (ワッチョイ 0932-vSov)2017/01/15(日) 21:27:08.93ID:0bystr9E0
$ sudo apt-get install gcc g++ make libjpeg-dev libpng-dev

です。すんません。

waifu2x、再び!!
Stay tune!

593577 (ワッチョイ 1339-5BG0)2017/01/15(日) 22:37:39.20ID:3/ESU5jW0
>>590
ありがとうございます。
ビルドできました。

Google、機械学習で低解像度画像をシャープに見せる「RAISR」をサービスで実用化
http://www.itmedia.co.jp/news/articles/1701/17/news067.html

>>594
これyoutube動画でもやってくれないかな。
あと動画上の物体の形や位置を認識してサラウンド感を与えるとか。

やりたいことはYoutubeがすでやっている動画の再エンコと一緒じゃないかな
画質を改善するというより、苦情の少ない範囲で圧縮したいなので
運営としては通信量が減って嬉しいけどユーザーとしては以前よりも画質が悪くなるので
携帯事業者がやっていた「通信の最適化」と同じ考えだと思う

でもそれで同じ容量で解像度が例えば1.5倍になれば話が変わる
色空間やインターレースしかり悪いばかりのトレードオフでは無いと思う

waifu2x-cafeeをXeonとQuadro両方積んだPCで実行するときってどっちのほうが効率的なんだ?
ちなみにXeonは12コア3.30GHz、Quadroは2000。

>>598
Quadroの方が速いんじゃないですかねぇ?

↓の画像でXeon 16Core 3.6GHzで2分40秒ぐらい
CPU使用率は20%ほど XPx64環境で無理矢理実行したからちょっとアテにならないかもしれないけど
http://www.dotup.org/uploda/www.dotup.org1133523.jpg 変換元画像
http://www.dotup.org/uploda/www.dotup.org1133524.png 設定

>>599
ハイエンドなマシンで動かしてらっしゃるようなので
NeuronDoubler v5.00だとどれぐらいかかるか検証して頂いてもいいですか?
http://loggialogic.blogspot.jp/2015/09/neurondoubler-v500.html?m=1

601599 (ワッチョイW cf63-gIHQ)2017/01/24(火) 23:23:52.69ID:RYhQuic60
>>600
sampleのlogo.pngを2倍で16s、4倍で66s
sampleのphoto.pngを2倍で44s、4倍で200s
といった感じです

32倍をlogo.pngでやってみたら1876sとかかかったので、photo.pngの方は試してないですw

>>601
ありがとうございます
手持ちのMacbook Pro late 2012では
960×540のpng(写真)を変換したところ1600s
ぐらいでした
16コアもあると動画用にNeuronDoublerを使えそうで羨ましいです

waifu2x研究家なんですけど
GANのPSNR問題解消しそうなので
週末画像出します

waifu2xと同じupモデルをこっちで
再現したものとの比較しますが
時間がかかるのでそれ以外との
比較は難しいです

何個かネタがあってそのマイルストーンです

3月に資料作るのでそのとき
リンク張ります

単純にはMSEとGANの出力を適当な割合で合成すればいいように思うけど
重くなるので学習の枠内でやれればいいですね

あとneural-enhanceの人も最近waifu2x的なやつをやろうとしているみたいです
https://twitter.com/madebyollin/status/823652970440986624
これは別の人の結果だけど、たしかに線はくっきりしているけど余計なことをしすぎているように見える

>604
適当な割合で合成すればいいんですけどふたつ問題があって

1. 適切な混合比率がタスクによって違う
2. 結果が不安定でうまくいってるエポックとそうでないエポックのばらつきが大きい

なので、前者については二乗誤差に対して何%GANを反映するのかって
コントロールを入れています。

GANが余計なことをするのは誤差のGANの項が正解データとの比較を
しないからじゃないかってことで正解データと比較するGANをは
考えてみました。

GANなしに比べてSSIM、PSNRは同等、butteraugliはかなり良くなってます。
正解データと比較する時点でGANの解釈がかなり変わるんですが
(評価中なので正確な値は週末出します)

わかる人がまわりにいないので、ここに書いてあれなんですけど、

従来のGAN)
Discriminatorで本物らしさを判定して誤差に反映

自分の手法)
本物らしさを学習したDiscriminatorの中間層の出力を
本物と生成データで比較、となります。

Discriminatorの中間層は通常の二乗誤差で比較するのと比べて
大幅に大きい情報量で比較するのと、Discriminator自体が
誤差関数になるので普通の二乗誤差と比べると複雑、高度な比較になります。

Twitterが出してる論文は物体認識を学習させたモデルで中間層の出力で
比較しろ、と書いてあって、これがコンテンツロスなんですが、
コンテンツロスの適用部分はGANに対してやった方がいいのでは
というのが自分の意見です。

こういうやつに税金投入するべき

イラストの超解像でperceptual lossにImageNetの学習済みモデルを使うのがよくないのは明らかなので
Discriminatorが使えるならそれは同じ解像度のイラストで学習しているわけだからよさそうですね
ただDiscriminatorは学習中に動くので不安定そうですが
GAN自体がそういうものなので動く感じでしょうか

609名無しさん@お腹いっぱい。 (JP 0H73-xu7M)2017/01/26(木) 14:51:03.26ID:owYC7mKIH
どうも、wiafu2x研究家の人です。

Twitter社の論文読んだとき、コンテンツロスがめちゃくちゃ
めんどくさいので俺はあきらめました(コンテンツロスのために
物体認識のタスクもやらないといけなくなるので大いに藪蛇)。

SRGANがみんなうまくいかない原因はsoftmax、softplusを
そのまま誤差にするから結果が不安定で調整が難しい、
のが大きなところかと思います。

そもそものDCGAN自体も論文の趣旨がうまく生成できる
パラメータが見つかりましたって部分ですからね。

ちなみに自分はSRCNNは勉強会の発表ネタなので、8月に
一か月実験したのと3月の発表があるのでそれで今だけ
やってるだけなので、先行技術のサーベイが非常に
あやしい(何も知らない)のでご教授いただけると幸いです。

今のところもう一個ネタがあって、画像ごとに重要度マップを
作って誤差に重み付けする方法を考えています。
多分来月前半には実験してると思います。

物体認識の学習済みモデルは配布されているので自前で学習する必要はないです(再現させる場合)。
generatorの出力とgroundtruthそれぞれをそのネットワークに入力して
適当な層(convの2,3層目)の出力が同じになるようにMSEを最小化するのがperceptual loss(コンテンツロス)で
それとdiscriminatorを使ったadversarial lossで
loss = perceptual_loss * perceptual_loss_weight + adversarial_loss * adversarial_loss_weight
を最小化するように拡大前の画像を入力とするgeneratorを学習するのがSRGANという認識です。
なので違いはコンテンツロスに使うモデルを変えているところだと思いました。
自分もGANはやったことがないので違ってるかもしれません。

説明ありがとうございます
認識合わせできました

自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが

なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです

それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました

ganのloss_weightがセンシティブで
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います 

学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます

自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います

後でスレの人に厳しいデータ教えてもらおうと思います

詳しいことはよくわからないけど、ガンガレ。超ガンガレ。

どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…

waifu2xの研究してる人なんだけど

すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...

chainerで線画着色をwebサービスにして公開してみた
http://qiita.com/taizan/items/7119e16064cc11500f32

>>614
楽しみにしてますがゆっくりやってくだちい

>>615
着色は全くの範囲外だったが、ちと興味が出てきたw
モノクロ写真とかにも活用できそうだな

618名無しさん@お腹いっぱい。 (ワッチョイ a239-WSvd)2017/01/28(土) 15:35:09.06ID:iZRmUjsJ0
>>615
着色の精度はまだまだだけど、とても面白かったです。
学習が進めばもっとよくなると思うとすごい期待できます。

619名無しさん@お腹いっぱい。 (ワッチョイ 4725-AZYz)2017/01/30(月) 14:56:45.57ID:pPztTfPj0
あいかわらず
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい

今更ながら>>615-616に気付いた
自演すんなよw

>>620
アンカちゃんと読もうなー

>>615
やっぱり自動だと色が薄くなるね
あと漫画だとエラー吐かれて駄目だわ

>>615
別にスレッド建てれば?

それとも有るの?


625名無しさん@お腹いっぱい。 (アタマイタイーW 7a39-cbEw)2017/02/02(木) 17:45:47.99ID:HLUwrrpx00202
waifu2xcaffeで600dpiの画像を2倍に変換したら
96dpiになったのですが、これは仕様ですか?
てっきり倍にしたのだから300dpiになるのかと思っていました。

>>625
1920x1080で600dpi(=3.2インチ*1.8インチ)の画像を2倍に変換したら、
3840x2160で1200dpi(=3.2インチ*1.8インチ)か、600dpi(=6.4インチ*3.6インチ)じゃないか?

>>625
dpiは入出力デバイスの設定なのでwaifu2xの処理はそこに関与しません。
画像のメタデータに特に気を使っていないので印刷サイズには既定値が入っているのだと思います。
印刷や入稿等で必要なら別の方法で再設定出来ると思います。

628名無しさん@お腹いっぱい。 (ワッチョイ 7a39-BdZd)2017/02/03(金) 10:31:32.28ID:GXC4yUrd0
>>626
>>627
ありがとうございます。
実感としてきれいに見ることができているので少し疑問に思い質問させていただきました。
dpiについてwaifu2xはいじっていないのですね。
dpiやppiのデータ上の数字は気にしないことにします。
(印刷とかはしないので)

ソフトの名前の由来はなに?

waifuを2倍に拡大するからだろ
waifuはぐぐれ

ワイフ




わざわざ5行で書く無能

2次特の時点で由来とか聞かなくてもわかるくらいには直接的

じぇいぺぐルネッサンス

madVRにおけるNGU pixart特化版のテスト中みたい
NGU無印やwaifu2xと比較するとやや眠くなるものの、例のジャギー問題もこっちなら出なさそう
旧来のNNEDIを正統進化させたような画になってて、処理負荷は低い

Original     ttp://madvr.com/mario/org.png
waifu2x     ttp://madvr.com/mario/waifu2x.png
NGU VH    ttp://madvr.com/mario/NGUveryHigh.png
NGUpixart VH ttp://madvr.com/mario/NGUpixartVeryHigh.png
NNEDI256   ttp://madvr.com/mario/nnedi256.png

waifu2xはwebサービスじゃなくて
windows版はないのだろうか?

pixel artの拡大はゲーム機のエミュレータで実装されているような処理のほうが納得できる拡大になると思う
2xSaIとか
http://johanneskopf.de/publications/pixelart/
とか

>>636
waifu2x-caffe

>>637
ピクセルシェーダー機能ある動画再生ソフトについてるんじゃね。

8×8ピクセルに縮小した画像から元の画像を予想する技術をGoogle Brainが開発
http://gigazine.net/news/20170208-pixel-recursive-super-resolution/
http://i.gzn.jp/img/2017/02/08/pixel-recursive-super-resolution/a03.jpg

>>637
それはffdshowにあるね。

http://blog.nest-online.jp/7557
ここの一番上のなんたらマジックで拡大しても劣化しないベクター画像化してみたんだけどいいですね
久々にワクワクした

と書き込んだ後でバンディングが問題なことに気がついた失礼

644名無しさん@お腹いっぱい。 (ワッチョイ 263b-P6gz)2017/02/10(金) 19:41:32.41ID:jEc7Edve0
9日に緊急のWindows UpdateとやらでGeforceのドライバが更新されて
Waifu2x-caffeを使うと「CUDAドライバーがインストールされていない〜」状態になった

一応、システムの復元で元に戻したけど....作者さん助けて(もう見てないかねぇ)
Windows10は勝手にアプデかかるから困った

Geforceのドライバだけ古いのインストールしたら良いんじゃね

古いVerは置いとかないとね
俺も勝手にアップデートされた

>>644
Windows Update経由のGeForceドライバ更新はいい話聞かないからどうにかして止めるなりNVIDIA公式から拾ってくるなりしたほうがいいかも
こちらはGTX680にドライバ378.49で何事もなく動いてます

どうも、wiafu2x研究家の人です。
すごい時間かかりましたが最初の結果が出ました。

|PSNR|SSIM|butteraugli|
waifu2x|27.629|0.928|9.622|
GANなし|27.612|0.927|9.049|
GANあり|27.474|0.926|8.968|

butteraugliの値は低い方がいいはず
なので俺の手法の方が良い

俺の手法は主に計算量をwaifu2x/UPモデルより計算量を1/4にしていますが8層です。
実質的に層の数が多いのが効いてる可能性もありますが不明です。

すみませんがこちらの都合でアルゴリズムは非公開です。
ここで話が出ていた俺手法のGANについては今再試験中です。

WUでVGAのドライバ更新する人なんておるんか・・・

勝手にされるから困ってるっていう話じゃないのかな?

どうも、wiafu2x研究家の人です。

評価結果以下に置いてあります。
2000エポック学習させた最終100エポックの画像も付けているのでデータでかいです。
評価できる人がいたらみてやってください。

https://remoteplace-my.sharepoint.com/personal/t-matsu_office_remoteplace_net/_layouts/15/guestaccess.aspx?docid=0eb33501796144cb0abeadc2dd87b74d3&authkey=AbBvhLq0ewcbScMYwVYIx4c&expiration=2017-03-14T02:04:18.000Z

web版のwaifu2x、ICCプロファイル対応したっぽい?

>>648
その値は画像数百枚の平均ですか、1枚だけですか。
waifu2xと書いてあるものはネットワークの定義だけ持ってきて独自に学習したものですか。(そうだと予測)

元画像を探してきてLanczosで1/2にしたあとにwaifu2x配布モデルで拡大すると明らかに結果が違います。
http://ccsaku.moe.hm/gyazo/data/18eac1728b714cfe64b7843ae5a91499.png
左が評価に使用されている超解像/waifu2xモデル/model_u01999.pkl.pngで、右がwaifu2xの配布モデルの拡大結果です。
左はかなりぼやけていて
PSNRも 超解像/waifu2xモデル: 27.717, waifu2x配布モデル: 31.771
と4dBも差があります。ちなみにLanczosが26.449です。
waifu2xと書く場合はこちらの配布モデルと比較して欲しいです。
学習データは、2012年に作ったものなのでそれよりも新しい画像は使われていません。

添付の結果については、見た目はほとんど違いが分かりませんが
GANありは顎のラインと鳥の下の髪あたりにcheckboard artifactが出ています。
各エポックで結果が揺れるならエポックごとにvalidationしてそれで一番よい値の時だけ
パラメータ保存しておけばいいと思います。

>>653
対応は入れましたが、最近サーバーの環境にちょっとトラブルがあるので
すぐにはウェブ版に反映されないかもしれません。

656名無しさん@お腹いっぱい。 (JP 0H09-3CwI)2017/02/13(月) 12:19:52.07ID:BMiBMFwmH
>654
確認ありがとうございます!!!
waifu2xと書くのは問題ありそうなのでいい呼び方があったら教えてください。

waifu2xと直接比較しないのは、不明な工夫(学習データ、アウギュメンテーションなど)
がたくさんあり、それを見切れないので比較しようがないというのがあります。
条件を合わせているのは層の数、チャンネル数だけです。
そちらの方としてはあまり変わったことはやってないかもしれませんが、
こちらはそれがわかりません。

とりあえずこれでいい結果が出る手法が発見されればwaifu2xにバックポートすれば
性能上がるのかなと思います。

PNSRなどは2000エポックのうち最後の1000エポックの平均です。
画像を複数枚評価するのは時間的に厳しいのでできていません。

アーティファクトについてはしらなかったのでそういう指摘は助かります。
GANは2000エポックで収束してないというか収束しそうにないので
俺手法のGANの効果については今のところ自分も懐疑的です。

>>656
waifu2xはごちゃごちゃやっていることが多いですがそこまで影響していないと思うので
4dBも違うのは教師データの位置がずれてるか学習の方法かハイパーパラメータが悪いのではないかと思います。
最初に近い精度までは持って行かないとなにか間違いやバグがある可能性があり信頼できなくなります。
waifu2xは写真データで既存手法と同じくらいの結果が出るところまでは調節しています。

waifu2xの学習の基本的なところは、
- 入力画像のランダムな位置から96x96の領域(patch)を切り取り(y)
- それを48x48に縮小(x), 縮小アルゴリズムはBox(平均画素法)とlanczosをランダムに使う
- CNNにxを入力して82x82の出力を取得(zero paddingがないため(96-14)^2になる)
- 出力とyのピクセル位置が合うようにyを82x82に切り取り
- (x-y)^2 誤差を計算してパラメータを更新
で、実際には、画像単位で縮小してその中から64領域を切り取って、xと対応するyもあらかじめ作りながら
画像数*64の(x, y)ペアを作った後にシャッフルしてbatch_size=16, optimizer=Adam(alpha=0.00025)で学習を回しています。
64領域のサンプリングは2エポック毎に行っています(ランダムな位置から再度作り直す)
patch_size, batch_size, Adamの設定は結果への影響が大きいです。

>画像を複数枚評価するのは時間的に厳しいのでできていません。
学習に使わない画像を100枚くらい外しておいて
学習済みのモデルでベンチマークするコードを書いておけば実行は5分もかからないと思います。

>>655
反映されているようです。ウェブ版にICCプロファイルの対応入れています。

658名無しさん@お腹いっぱい。 (JP 0H09-3CwI)2017/02/13(月) 17:35:47.49ID:BMiBMFwmH
4dB問題は知ってたんですけどいくら確認してもおかしいところが
見つからないのでwaifu2xが何かやってるんだろうととりあえず放置していました。

そちらからみておかしい、とのことですのでもっとしっかりデータ確認します。

ありうるのはサブピクセルレベルでのピクセルずれ(縮小時に奇数ピクセル数だとずれるとか)が
ありうるかと思いますが、そちらで情報開示してもらったのでそれに合わせてやってみます。

縮小フィルタの特性を学習してしまう問題も知ってるんですけど、そういう回避方法は
考えていませんでした。やってみます。

adamのalphaは小さめにしていますが
それでもでかいようなので全部そろえます

毎度すみません

>>82x82
upconv_7の出力は68x68でした。(96-14*2)
>縮小時に奇数ピクセル数だとずれるとか
これは必須です。もし対策していなければこのせいじゃないかと思います。
waifu2xは学習画像読み込み時点で4の倍数になるようにしています。(4xもあるため)
またpatchを切り取る位置も元画像側の位置が奇数になると縮小側の位置がズレます。

超解像頑張り中の人です。

とりあえずwaifu2xのソースコード読んでコンボリューションの初期値あわせてみたり、
変な処理をしていたのを直したり色々やったところ1dB改善しました (PSNR=28.5dB)。
視覚的には大幅な画質向上があります。

AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。

言われたところは全部直したつもりなんですが、誤差関数が何かやってる様子。
よくわかりません。HunberLossも使っているのか使ってないのかわかりませんし...。

とりあえず1バッチ=12画像、1エポック=100バッチで2000エポックで学習が
収束しきってないのでがんばればPSNR=29dBまでは行くと思うんですが
31dBかかなり厳しいです。30dB行ったら諦めます。

俺的には学習データ数が少ない、augumentationがまずいってところかなあと思います。
学習データはすごく重要なんですけど、俺にはそこに情熱がない...。

こっちの学習データは250枚、augumentationは上下、左右反転、45度ローテーション、
ノイズ付加、画像縮小です。

ほんまwaifu2xはエンジニアリングの塊なので一朝一夕には追いつけませぬ。
(諦めてるので追いつく気なし)

>>661
HuberLossは使っていますが多分それほど関係ないです。(というかMSEのほうがPSNRは高くなると思います)
誤差はノイズ除去で色が劣化しているのを直すときに
下げれる誤差に限界があるので、YUVのYの重み(0.299 × R + 0.587 × G + 0.114 × B)にあわせて
チャンネルごとの誤差の重みを調節しているだけなので、拡大の場合はそれほど関係と思います。
学習データが少ないのはあるかもしれないですが、今はパッチを切り出さずに画像単位でforward/backwadしているでしょうか?
小さなパッチを切り出してからシャッフルして小さいminibatchで学習するのはとても重要です。
画像単位だと例えば1280x720だった、出力が86万個の変数になって
この平均誤差をbackwardすることになるので、画像内のある小さな領域内で誤差が大きかった場合でも平均されて消えてしまいます。
特にイラストの場合は何もない背景が多くて、そこは誤差がほぼゼロになるため平均されて誤差が消失しやすいです。
(waifu2xはパッチを切り出した後パッチ内が単色背景の場合は50%くらいの確率で捨てるような処理も入っています)
また学習データ少ない場合でも、たとえば96x96のパッチだと画像1枚から70万通りくらいの切り出し位置があるのでデータ増加にもなります。

>AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
あと書いていませんでしたが、0.00025から初めて最終的にその1/10くらいになるように減らしていっています。
Adamは学習率が自動調節されるようなことが書かれていることがありますが
パラメータの要素単位の正規化をやっているだけなのでalphaを減らすのは意味があります。
なので最終的なエポックで1/10くらいになるようにalphaをスケジュールしたほうがPSNRは高くなります。
調節が難しければ、80%くらい進んだ後で1/10にして残り20%を回すくらいでも十分意味があると思います。

画像は教えてもらったパッチサイズに分割しています
当然シャッフルしています

SGDなんかでは学習率を減衰する正則化は普通ですけど
Adamでも効果あるんですね。というかそんなに小さな学習率で
PSNR向上するのか...。

ai搭載してほしい

deeplearning研究の成果であるwaifu2xがAIでないとしたら何がAIだと言うのかね

>>665
正解を大量に教えれば、その正解に近いものを導くのがAIだけど、あなたの求める正解って何?

>>667
AIだったとは!

超解像で遊んでいる人です。

waifu2xの方の話を聞いてて自分の中で結論が出たのはSRCNNの
画質はずばり精度で決まるということですね。

学習率が異様に小さいのが納得していなかったのですが、
多分SRCNNの重みの調整は超絶微細な学習です。
なので高めの学習率で荒い調整したら細かい調整がいるのかなと思います。

例えるなら7層のネットワークの調整は7枚のレンズの焦点を
あわせるようなもんかなあと思います。

なので処理の過程で精度を落とすような処理は厳禁ですし、
学習データも多い方が明らかに有利です。
なのでかなり気をつかった実装が必要かなと思います。

PSNRは改善してきましたが、やはりノウハウの塊であるwaifu2xを
越えるのは難しいかなと思います。自分はアルゴリズムの方に
興味があるのでそっちがんばります。

自分とwaifu2xの作者の方は目指しているところがまったく逆なので
競合しなかったのが救いです。

先日専門家の方からsaliency mapという手法を教えてもらったので
視覚ベースの高精度化の実験やってます。定量化が難しいですけど
なんとなくbutteraugliは向上しそうな気がします。

あとGANの識別器から重要な画素の情報を計算する方法も考えたので
それも実験中です。

手垢が付いてない分野なので色々新しい手法が見つかります。

SRCNNというか回帰問題なのでそうだと思います。
分類では識別境界に近いところ以外は大雑把でよいですが
回帰だと全ての点を正確に合わせないといけないです。


673名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)2017/02/25(土) 21:08:59.68ID:lgzXMqNX0
アニメとか動画を拡大したい人向けのソフト作ってみた。
http://c00-c03.blogspot.jp/2017/02/waifu2x.html

それを使った場合と使わないで普通に全部拡大した場合の結果の違いまだ未検証?

675名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)2017/02/25(土) 22:33:37.42ID:lgzXMqNX0
>>674
動画とブログに書きましたが、速度はこのソフトを使ったほうが早くなります。
画質には普通に拡大した場合と比較して違いはありません。

動いてないコマは端折ったのね。面白い考え。

拡大をCPUで処理してる場合はかなり早くなるんじゃね?

>>676
コマっつーかコマ内のさらに差分じゃね


面白いな。素材がとにかく低ノイズじゃないと差分がいい具合にならない気はする。
実写だとどうだろうなぁ。実写動画でいろいろ拡大絡みのことはやってみたいと思ってるんだけど。

680名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)2017/02/26(日) 22:41:32.17ID:uRk4b+bo0
>>679
閾値の値を調整すれば程度は対応できますが、
完成した時にブロックノイズが現れることがあるので調整が難しいですね。

ラデオンでも快適に使えるようにしてくだされ

この差分方式が進化すると裏に進出済み女優の表作品からモザイクを除去できるのでしょうか?

>>678
コイツです。

684名無しさん@お腹いっぱい。 (ワッチョイ 3a44-kj3l)2017/03/04(土) 17:25:09.45ID:RVxD/uAR0
>>682
学習データの蒐集方法が謎w

個人ごとに好みがあると思うので各人で学習させる事もできるといいんじゃないかなw

100万枚くらい正解と不正解の学習用画像もってる人限定か

モザイクと検出された所が全てマンコに置換されて
マンコまみれの悪夢のような画像が生成されるんだな

マジレスすると、モザイクの範囲や解像度は入力によって異なるので復元を学習するのはなかなか難しいと思う。
モザイクの顔が復元できるよみたいなデモは
入力が8x8のモザイクで出力も位置合わせされた顔しかありえないなど限定された条件の結果なのでまだ実用的ではない。

パネルアート画像がモザイク認識されてとんでも画像へと処理される奇劇のヨカン(´∀`ミ)

690名無しさん@お腹いっぱい。 (ワッチョイ 6be5-9O7/)2017/03/09(木) 21:30:19.36ID:+vcVYOGF0
>>681
約4倍の高速化したバージョンを公開したのでもしよかったら試してみてください。
http://c00-c03.blogspot.jp/2017/02/AniZipReleaseNotes.html

実写は無理だった

AMDでwaifu2x

http://inatsuka.com/extra/koroshell/ でwaifu2x_koroshellをDL
http://d.hatena.ne.jp/w_o/touch/20150629/1435585193 で
waifu2x-converter_x64_0629_02.zipをDL
waifu2x_koroshellを入れて
waifu2x_koroshellの中のwaifu2x-converterにwaifu2x-converter_x64_0629_02の中身上書き

waifu2x_koroshellで動かすとGUIでOpenCL使える

>>696
何でわざわざそんな古いバージョンを…
20160101が最新だよ
http://d.hatena.ne.jp/w_o/20150629/1451664048

あと最近、海外の人が作った派生もある
https://github.com/DeadSix27/waifu2x-converter-cpp/releases

同梱されているモデルのバージョンが新しい
ノイズ除去レベル3が追加されている(なぜかレベル0は追加されていないが)
今後も更新がありそう
などのメリットがある

>693
tanakamura氏版から派生したようですね。RX460で正常動作。

ただ、透過画像との相性問題も引き継いじゃってるので、修正されたらいいなぁ。

>>693
それだとkoroshellに入れても使えないし
692のはkoroshellを使った操作が楽な方法よ

>695
koroshellフォルダに「waifu2x-converter」サブフォルダ作って、
「waifu2x-converter_x64.exe」にリネームすれば、使えますよ。
ノイズ除去は、なし(Lv0)、弱(Lv1)、強(Lv2)までしか選べないので、
Lv3使えないけど。

自分用にこういうの作ったから良かったらどうぞ
基本的にただのフロントエンドなので元のソフトの機能しか使えないですが
http://i.imgur.com/6j4XHEy.png
https://www.dropbox.com/sh/0y9scaml78otum2/AAAs4sTIHQWn_UfYCwwC95VKa?dl=0

https://www.virustotal.com/ja/file/67cc556ad135c2ab85d83b4bd92e6735b873904ff42a38f9022719435996d9e9/analysis/
https://www.virustotal.com/ja/file/c06ba95ca00297f0d7e8892bb350899337d50f7c30a5f9e104e58e8ba96107d7/analysis/

かなり強引な方法ではあるけど、フォルダも処理出来る(多分)ので>>673フソフトとも連携できるはず

全く見てないけどkoroshellの代わりになるようなもの
という認識で良い?

>>698
基本的にはそういう感じですが使い勝手は異なるのでどちらが良いかは人によるかと思います。
具体的には画像をドラッグ&ドロップしただけでは変換が始まらないので何枚もポンポン放る使い方をする方はkoroshellのほうが良いかもしれません。

koroshellより優れていると思うところは

フォルダをサブフォルダごと処理出来る(多分)
同梱モデルが新しい
最初からtanakamura氏のwaifu2x-converter-cppを同梱をしてあるので差し替える必要がない
イラスト用モデルと写真用モデルの切り替えができる
ノイズ除去レベル 0〜3まで使用可能

ですかね。

700

D&Dモードも実装して(はぁと)

waifu2xのすごさを実感したわ
幅720ピクセルの画像をFHDにして壁紙で耐えられる
まあイラストだから許せるのもあるけど

昔付き合ってた女のいろんな画像とか、waifu2xで拡大して遊んでるわw
流石に昔のスマホの素人撮りだから、2倍以上だと粗が目立つけども・・・

閑古休題、DenoiseNetも今後期待できそうね
https://pbs.twimg.com/media/C1tjW1qWIAAEpJw.jpg
https://arxiv.org/abs/1701.01698

>>703
ホクロが消えてシワが消えて
若返り画像生成ツールやね

縦横幅を指定って7680x4320みたいな指定でいいのね

>>705
何の話かと思ったら更新来てたのね

waifu2x-caffe ver 1.1.8.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.1
GUIで変換後の縦横幅でサイズ指定を追加
CUIで変換後の縦横幅を同時に指定できるようにした
GUIの翻訳にフランス語追加

ところで↓の話ってどうなったんですかね?

CUDA on AMD GPUs, now possible? · Issue #71 · lltcggie/waifu2x-caffe
https://github.com/lltcggie/waifu2x-caffe/issues/71

MIOpenは2017年の第1四半期にリリース予定って聞いたんですが、まだリリースされてないのかな?

ある程度大きい画像だと違いはあまり感じられないのね

>>706
ver 1.1.8.1使おうとしたらCUDAドライバ無いッスってエラーが出た
前のverはNVIDIAのドライバ入れてGPU変換出来てたのに何でだろう
今新たにドライバ入れなおし中

ドライバ更新したらCUDA変換できた

>ある程度大きい画像だと違いはあまり感じられないのね
画像によるけどフォトショ等で一旦縮小してからやると綺麗になったりする時もあるよ

711名無しさん@お腹いっぱい。 (アンパン d146-YuVY)2017/04/04(火) 06:54:31.05ID:IKEv3bLo00404
ん、GUIで高さ指定の場合に入力値が横幅として処理されちゃってる?
横幅指定は正しく横幅になり、縦x横指定の場合もその通りになる
ファイル名の付き方は指定の通りになってる

712名無しさん@お腹いっぱい。 (ワッチョイ 3720-+TA9)2017/04/08(土) 18:15:39.34ID:rclrmZXV0
>>711
致命的バグが修正されませんね。

バージョンアップ来そうな予感

waifu2x-caffe ver 1.1.8.2
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.2
出力フォルダを選択するときにエラー落ちすることがあるバグを修正
GUIで縦幅サイズ指定にしても横幅の指定と認識されるバグを修正
出力深度ビット数を入力で変更できないようにした

今繋がらなくなってる?
プロキシエラーになる

>>715
こっちは繋がるよ

このソフト便利だなあ
写真で使うと解像感があがる
塗り絵になってしまうのは仕方ないけど縮小して見る分には問題ない

これすげえ。

ディープネットワークによる
シーンの大域的かつ局所的な整合性を考慮した画像補完
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/ja/

様々なシーンの画像補完(Places2データセット)
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/images/results/results.png
顔画像の補完(CelebAデータセット)

>>718
なにこれ使い道一つしか思い浮かばない

>>719
通報した

これであの水玉を消せるんやな!

そもそも学習用のモデルが用意できねぇw

学習用モデル=世界中で公開されているネット上の画像っていうパターンか。

>>718
早稲田のチーム凄いな

ここに書いて良いのか分かりませんが waifu2x-caffe ver 1.1.8.2
GUIで 出力深度ビット数を16bitにして終了しても設定が保存されません。
(Setting.ini で常に LastOutputDepth=8 になる)

>>719
水着とか消しても裸にはならずに水着が生成されるだけだとおもうぞw

>726
横に別の裸婦おいとけばそういうものと解釈されると思われ

728名無しさん@お腹いっぱい。 (コードモ 0287-kvki)2017/05/05(金) 07:07:35.10ID:x1hI7Qpd00505
waifu2x-caffe 1.1.8.2
拡大サイズの縦横幅で指定にチェックした状態で、変換モードをノイズ除去だけにしてもリサイズされちゃうな

waifu2x-caffe作者様:
出力パスに.(UpRGB)(noise_scale)(Level2)(height 1920).jpgとかを
一切付与しない動作設定OPって追加出来ませんかね?

コマンドラインから使えばいいじゃん

複数ファイル渡せば付与されたフォルダが作られた中に元のファイル名で保存されるやん(単ファイルでやってるならファイル名入れなおせば?)

>>718

性欲はイノベーションの母

あっそ

734名無しさん@お腹いっぱい。2017/05/10(水) 10:54:53.09ID:9A/riYfT0
仕事で衛星写真系の超解像を齧ってるんだが
既存のアルゴリズムだとなかなか思ったようにはいかないものだな
学習ベース(元画像から縮小)は現状数十万件あることは有るのだが

>>734
これの建物のデモとか面白いよ

Image-to-Image Demo
https://affinelayer.com/pixsrv/index.html

>734
学習させる正解って何って世界で、ゴースト出ても味があるとかじゃ清まされないからねぇ

衛生写真の超解像ってセンサ的に撮れないものを出そうとしているならそれは無理なので
検出したい物体だけ小さくても周りの状態や別の情報から検出できるようにするとか問題設定を変えたほうがいい気がする
最近kaggleでも衛生写真の領域分割(車、道などの分類)や位置合わせなどやっていたよ

これ、ループが何回で終わるか分からないのが難点だなあ
start process block (*,*) ...
の数字が減少する方向で書いてあればいいのに

>>692
これの導入が間違ったのかな
waifu2x_koroshellが本体?
waifu2x_koroshellのwaifu2x-converterフォルダにwaifu2x-converter_x64_0629_02の中身上書きしたら応答停止になった

つかwaifu2x_koroshellオリジナルが2分半かかったけどtanakamuraオリジナルは30秒未満だったよw

tanakamuraってまだ更新してるの?

止まってる

waifu2x-caffe ver 1.1.8.3
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.3
縦幅か横幅指定の拡大で、計算誤差が原因で指定サイズから1pxくらいずれることがあるのを修正
日本語環境以外でCUIの出力が文字化けしていることがあるのを修正
cuDNN v6に対応

>>742
このスレで報告されたバグは修正されてない?
もうこのスレ見てないのかな
見てるけど重要度低いと判断されて後回しになってるのかもしれないけど

AMD版更新・・・

waifu2xすげーな
アプコンの美しさ、処理の速さ、生成ファイルの容量、ひとつも不満なし
久々に神ソフトに出会ったわ

不満をしいてあげれば、にじみ(ボヤケ)かな。
画数の多い文字が含められてる画像を処理した場合とかに特に目立つ。

にじみというより溶けてる。
アンチエイリアスでもかけたくなる

ノイズ除去オフにしてみたら?

普通に拡大するよりかなりマシだとは思うけど
その画数が多い文字ってそもそも小さくて点のあつまりみたいになってるようなのじゃないの?

>>744
どこのこと?w

!?

https://twitter.com/ceekz/status/867657726066737153
eBookJapan が waifu2x に目を付けたものの、マンガ画像での画質には満足できる結果が得られなかったので、作者の nagadomi 氏と共同研究したとのお話、超いい話。 #jsai2017

お前らは元データの解像度上げろよw

ホントだよ

どれだけひどい元解像度を想定してるの (((´・ω・`)

サーバーにクソ画像で保存(容量節約)
購入者宅でwaifu2x拡大
という流れか

まともな画質になる範囲なら大アリだと前から思ってたけど
読みながら拡大じゃ遅すぎるから
買ってダウンロードした直後か読む前に全ページ拡大かねえ
それにしたって時間かかるな
画像部分と写植部分のデータを分けて文字はリアルタイムレンダリングなら理想じゃねって思ってる
フォントは必要に応じてダウンロードされる想定

いずれにせよ、この手の技術が企業側の手にかかった時、
ユーザにメリットなんてほとんど考えられないと思うのは俺だけか

文字の多くが吹き出し内に収まっている画像なら恩恵が大きそう
黒ベタやカケアミの上の文字は苦手そうだが

>>757
それは同感だな...

資本投入で開発スピードアップ、変換品質アップするなら有料でもなんら問題はない
むしろ現状の「タダで使えるのが当たり前」を前提にしていることのほうが、よほど不自然だ

>>750
スマン、まだかなーって待ちわびてるのよw

どう考えてもトーンで爆死だろ

>>760
今だとIPを育てるよりもいかに換金するかって方向になりがちには思える
企業にも以前ほどは余裕が無いんだ


waifu2x-caffe_Difference_From_ver1.8.0.zip
1.1.8の間違い?


ディープラーニングシステムの主要要素(モデルなど)の再現や入れ替えを容易にして研究を促進するGoogleのTensor2Tensorが一般公開
http://jp.techcrunch.com/2017/06/20/20170619tensor2tensor/

近頃、あまり動きはないようですが、これ以上の改良などは特になさそうなのかな?

>>707
AMD、Vega世代のGPUを搭載した機械学習向けの「Radeon Instinct MI25」
http://news.mynavi.jp/news/2017/06/26/330/
> なお、MIOpenとROCmに関しては、6月29日の公開を予定する。

>>768
お、ついに来るか。
ところでMIOpenってAMDの古いGPUでも使えるのかな?
なんかRadeon Instinctシリーズ限定っぽい感じもするが。

米尼から買った1080Tiを1060に追加して(学習ベース構築の段階)24時間回してるんだが
工業扇が50wくらい食ってるが、1月あたりの電気代が6千円→1万越えにw 

ガレージ設置で計測機が別系統なのでわかりやすい・・・設置するまでは基本料金に収まってたのよね

電力会社の見直しだ!!

「拡大サイズは0より大きい整数である必要があります」というエラーが出るのですが

どなたか解決法を教えてください、お願いします

>>772
拡大率の指定で全角数字を入力してるとか?

>>773
ご指摘ありがとうございます

「変換後の縦横幅で指定」の項目に「縦幅」の数値を誤って入力していました(ノ∀`)

もうずっと502 Bad Gateway
頻繁にこれ出るんだけどもうちょっと何とかならんのか
PC的にweb版しか使えないから辛い

落ちてる間は代替サイトでしのぐしか無いね

waifu2x-multi
http://waifu2x.me/index.ja.html

Waifu2X!
http://waifu2x.booru.pics/


グロ

これ中国のアプリが勝手にweb版のwaifu2xを利用してるってこと?
最近web版が不調らしいのってこれのせい?

Is it suitable for third party app to use online demo's api? · Issue #190 · nagadomi/waifu2x
https://github.com/nagadomi/waifu2x/issues/190

作者としては自力で鯖建ててくれよってなもんのようだが

もうこのサイト終わりか?
全く使えねー

>>760
Adobe社が開発協力したらいいのに、

>>782
というより、ほかのソフト開発者なり開発会社が未だに参入してこないことに不自然さを感じる。
本家自体も最近動きがないところを見ると、何かしらの根本的な問題でも抱えているのだろうか?
最近madvrの拡大処理の進展具合を見ていないからわからんが、あちらのほうが未来があるのだろうか?

基本アニメにしか効果ない上に拡大後はベタ塗り状態じゃ企業が名乗り出る訳ないわ

ノイズ除去切ればベタ塗りにはならんでしょ

超解像の研究は割とどこもやってると思う多分
waifu2xと提携しなくても独自に出来るし水面下でやってるから動きが見えにくいだけじゃない?

刑事ドラマではwaifu2xもびっくりの鮮明な解像度拡大がある設定の世界なのに
現実は無慈悲なのである


大手企業かつ政府支援プロジェクトともなると
ASIC/FPGAにも詳しいエンジニアも容易に自社調達できる良い環境だなぁ
最適化したコードかつ、自社生産のカスタムASICを利用した電算機にとか羨ましい

個人趣味で汎用コンピュータを使っている以上、電気代も馬鹿にならん
ライブラリ構築だけでも面倒クセぇ、処理能力レンタルするとこれまたコストが

・ ディープラーニングエンジンをUSBチップ化してエッジコンピューティングをサポートするMovidius、Intelに買われてから快調
http://jp.techcrunch.com/2017/07/21/20170720movidius-launches-a-79-deep-learning-usb-stick/

新たなる展開か?

100GFLOPSだと性能的にどうなんじゃろ…1Wなのは良いけど

USBで127台つけるんやろ

GeForceにTensorコア積んでくれたほうが嬉しいかなー

ASICやFPGAが主流になってGPUの時代は終わるよ

さすがにそれはない
ハードウェアシェーダーから
プログラマブルシェーダーになぜなったのか
ということを知らなさすぎ

ディープラーニングについては処理がある程度固まってきてるみたいだからGPUは割高になるかもしれんね
ディープラーニングの次が出てきたらプログラマブルに戻る

cuDNNだけハードウェア化されたらいい

オープンソースなのにウェブサービスでしか利用できない謎アプリ

GUI版はとっくに死んでるのか?

>>799
caffe版はまだ生きてると思うよ

アプリって言ってるあたり798はスマホでの利用を言ってるんじゃないかな

スマホでなんかしたらバクハツするんじゃね

caffe版使わずに謎とか言っちゃうの?
恥ずかしすぎじゃないか

803名無しさん@お腹いっぱい。 (ニククエ beec-QFBF)2017/07/29(土) 21:22:36.12ID:ZE6rDzLe0NIKU
waifu2xのサーバーが外部のアプリから使用されていて開発者が使うのやめる気ないようなのと
そこからのアクセスが多すぎて処理できないのでreCAPTCHAを導入しました。
クソメンドイですがご了承下さい。
表示されない場合はリロードすると出てくると思います。

804名無しさん@お腹いっぱい。 (ニククエ aead-2p8+)2017/07/29(土) 21:34:55.04ID:GAGld7sU0NIKU
乙ですというほかない…

>>803
乙です
やむを得ないと思います

>>803
対応乙
災難やったね


実行ボタンの上のreCAPTCHAという領域にチェックをつけていると動くと思います。
回答の再利用はできないので、1画像変換ごとにチェックを付ける必要があります。
reCAPTCHA自体が動いていないなどありましたら、実行環境を書いておいて下さい。

同じGoogle製だけあってChromeだとチェックするだけで動くね

分かりにくいので、チェックがついていない時は実行/ダウンロード押せないようにしました。
またページをチェックを付けれていても答えが間違っていると(?)たまに認証に失敗することもあるようです。
チェックだけ済むのは、疑われていないとき?で
何度もやっていると、画像の問題に答えないと通らなくなる気がします。

AndroidのChromeだとチェック入れても上の画像しか表示も保存もされません
スマホの他のブラウザで試してみたら
表示されるのはいくつかありましたが、保存は出来なかったです

ページをリロードする。キャッシュをクリアする。
もし使ってるなら、広告ブロックソフトを停止する。

GUI版で良くない?Web版の方が速いの?

環境に依存するかしないかの違いがあるんだからバカなの?

807だけじゃなくGithubの一部の外国人ユーザーもreCAPTCHAが上手くいかないって言ってるな
web系は難しいね

webベースでのサービスは、常に不安定さとの戦いになる。
しかし本家がwebベースでの公開にこだわる以上、ユーザーサイドではどうしようもない。
caffeが唯一の救いではあるが、本家とcaffeの作者それぞれに依存する度合いが高いので、この状態も安定しているとは言い難い。
Gimpのプラグインのような形式にして、ソースコードをオープンにとかならば、誰か頑張るとかで継続性はやや向上するだろうけど。

>>816
ソースコードはGitHubで公開されてる。

>>817
Gimpのプラグインの形式に沿ったソースコードということ

>>813
GUIの方が圧倒的に速い
フルHD解像度のノイズリダクション最高、倍拡大16bit色512分割でも10秒掛からん

>>819
VGAによるんじゃないの?

その意味でのVGAって言葉久々に聞いたw

>>820
1070でもP-TITAN Xでもそう変わらんよ
TITAN Xの良いとこは12GBのメモリによる1024分割処理が出来るくらい
8GBじゃたまに出来る640分割が最高かな

>>822
んーGT730ぐらいと比較してください

そんなもん、使う意味すらない

ウェブのサーバーは GRID K520 を 4つ使っています。
混んでいる時間帯でなければそれなりに速いと思います。
reCAPTCHAをいれてから連続アクセスしにくくなったからか体感的にはかなり速くなっています。

waifu2x-caffeは配布バイナリには含まれていないですがDLL用のインターフェースも持っているので
他のソフトの組み込みにも使いやすいと思います。

827名無しさん@お腹いっぱい。 (ワッチョイW e3d2-KhZc)2017/08/02(水) 18:09:49.64ID:I8D/7zTO0
すごい助かってる
さんきゅ

本家繋がりませんな

829名無しさん@お腹いっぱい。 (ワッチョイW 3b89-OC4/)2017/08/03(木) 14:35:42.81ID:gWZ+CKtM0
初めて書き込みます。
本家もmulti?も繋がらない…

しばらく待つしかありませんか?

だからネットは信用できないんだよ

invalid request

・ プロの技術を学んだディープラーニングが画像を美しくレタッチ
http://ascii.jp/elem/000/001/526/1526816/

いよいよデカいところが本気出してきましたな。
しかも向こうはレタッチ後の人間が最適化した画像をサンプル画像に持ち出している。
果たして実力や如何に。


>>833
ブレードランナーのエスパーみたいなの作れそう。

なんかすげー怪しい派生サイト出来てた

Bigjpg - AI二次元画像の拡大, スマート大きな画像 waifu2x 畳み込み深人工知能ニューラルネットワーク(CNN)無料ロスレスズーム。写真にも対応。
http://www.bigjpg.com/

サーバー又借りしてたら草

FFGの勢いは近年すごい気がしたけど、18の一軒で一気に地に落ちたな。
今まで敵をたくさん作ったので、連合を作ってFFGの牙城を崩すなら今しかないのかな。
といっても九州地銀の弱腰経営陣には無理か。あの18が負けてもないのにFFGに下ろうとしたくらいだからなぁw
ちゃんと将来考えて動いてくれよ経営陣w

何を言ってるんだ、このゲーム脳は…

>>832
これ、どこか試せるところないのかな?

>>839
無いね

>>840
○| ̄|_

ディープラーニングの技術って素人だと簡単には手を出せないからサイト上で試せたら便利よね
waifu2xの作者さんの言ってたことを今更痛感するわ

MakeGirls.moe - Create Anime Characters with A.I.!
http://make.girls.moe/

>>832の奴、もっと具体的なサンプル画像とかを大きなサイズで公開してくれないと評価のしようがないね

>>844
MITの出版物に載るんじゃね

サンプル画像、ZIPでくれ

>>832
データセットは公開されているので http://groups.csail.mit.edu/graphics/fivek_dataset/
対応を学習することはできますけど
写真の後処理を機械学習で自動でやろうとか実際考えるものでしょうか?
そこは写真作りで一番重要なところだから自分でやりたいと思うんだけど
そこにあまり興味ない人には自動でできたら便利なのかな

>>847
どの程度の処理までさせるか次第なのでは?
元画像よりコントラスト比なども含めた変化まで強制的にお仕着せになるならば困るけれど、リンク先が言うレタッチ的な要素が
waifu2xで発生する例の輪郭の不自然さを旨く手直しするような作用をしてくれるのならば、やる価値はあるかと。
いいところだけ旨く流用できれば一番いいのでは?

スマホのアプリで料理の写真を美味しそうに見えるように簡単レタッチするソフトが人気あったからこの手のやつは需要あるんじゃないかな

そこら辺のプログラマでもネタで
深層学習一発ネタやってるし、
まともなプログラマなら誰でもできる
ようになってるんだが

waifu2xのツール類が充実してるのは
基本的な考え方が簡単なのはあるよ

waifu2xがすぐれてるのはそういうところじゃない
ノウハウや学習データセットの
作成だと思うよ

やってみたらわかるけど同じ性能出すの
かなり困難

ニューラルネットワーク構造と学習済み辞書 が非常に優秀。
というか世の中これを向上させるための提案が大量に出回ってるけど99割はモノにならない

99割もか

千分率…

wwww

禿犬使ってると何でも大袈裟にしたくなるんだろ

おまえらネタにマジレス

857名無しさん@お腹いっぱい。 (ワッチョイ b187-4mbe)2017/08/21(月) 12:11:16.37ID:fEWkVfat0
>>835
それの中身-----------

よくある質問

どのような技術で使用されています?
最新の深い畳込みニューラルネットワークを用いた。それは知的に品質を失うことなく彼らを大きくする絵の中の雑音とセレーションを減らします。例示の写真を見る

違いは何ですか?
PSのような他のソフトウェアで、絵はまだファジールックを拡大、
および可視ブラーと雑音があります。
当社の製品は絵の線と色のために調整された特別なアルゴリズムとニューラルネットワークを使用し、
この拡大効果が優れている。色はよく保たれており、ほぼ格子または倍増は見えません。
もっと重要なのは、雑音、品質に重大な影響を及ぼすことができない結果、
イメージで見られる。

拡大するのに最適な画像は何ですか?
アニメ/ファンアートの写真は最高です。

858名無しさん@お腹いっぱい。 (ワッチョイ b187-4mbe)2017/08/21(月) 12:11:39.99ID:fEWkVfat0
画像の限界は何ですか?
現在3000x3000解像度をアップロードすることができ、10MB以下の写真。

スピードはどうですか?
スタート後予想の処理時間が表示されます。
よっの倍率と画像サイズ、増幅時間が異なり、数分から数十分不等。
実際には予想時間が少し短い時間が少し短い。

なぜ失敗拡大?
ネットワーク環境と同時に受けサーバー使用人数の影響があって、
とても小さい確率が増幅して失敗すること。
もしあなたがこのような状況に会ったら、数分でもう一度試してみてください。

拡大を開始している間はブラウザーを開いたままにする必要がありますか?
もしあなたは登録が、そんなにずっと保持ブラウザを開いて、
さもなくば紛失増幅のピクチャー。
もしあなたは登録したが、それがブラウザを閉じ、支持拡大オフライン、
壱時間またダウンロードできますよ。

自分の歴史記録をどう見る?
登録後、記録と自分の歴史記録を調べて。

もっと写真を拡大するには?
このツールのサーバーの支出を維持するため、有料の拡大サービスを提供します。
有料のアップグレード口座後使え独立の高性能サーバ、拡大写真をより速く、より多く、より安定した

--------------

日本語おかしすぎなwww

日本の英文サイトも英語圏の人からこんな風に見られてるのかな?

ただの自動翻訳じゃね?

reCAPTCHA導入以来で鯖死んでるのはじめてみた

動画の拡大で使うにはaviutlのnnedi3一択だな
流石に遅過ぎるし最近は何かgifみたいなノイズが出てクソだし

ノイズっていうか輪郭周りの不自然さ問題は、今の手法のままで対策するとなると、音声の処理でよく用いるオーバーサンプリング処理的な
考え方で攻めたほうが解決しやすいのではないかとも思う。
つまり、現状は縦横2倍(画像情報量で言うと4倍)に拡大をストレートに行っているけど、どうしても丸目誤差の問題が出るし目につきやすい。
(TTLモードで、画像を回転させる手法で幾分の軽減はされるが、根本的な解決手法ではない)

ならば、サンプル画像の確保が大変にはなるが、8倍オーバーサンプリングとでもいうか、内部処理的に縦横8倍(画像情報量で64倍)にすることを
前提に設計し、拡大後に縦横2倍(画像情報量で4倍)までダウンスケール、つまり縮小すれば、丸目誤差に伴うノイズというか荒らは気にならなく
なるのではないかと思う。
情報量が従来の計算に比べ16倍にはなるけれど、TTLモードを使うことを考えたら結局時間的には大差ないのではないかと思わなくはない。

ただし、縦横8倍の差をディープラーニングするためのサンプル画像がかなり大きなサイズの画像が必要になることがネックだろうと思われる。
このあたり、作者氏の手間の問題になってくるから、ユーザーがどうこう言いにくいところではあるのだが。

>>863
TTAモードのことを言ってるんだろうけど、それとリサイズのアルゴリズムは根本的に関係ないんじゃないの
ダウンサンプリングすればいいと言うけど、それはどんな手法を使うんだい?

画像処理のコストはめちゃくちゃ下がってるし、waifu2xにしても自分で用意したデータセットで学習する手引もされてる
具体的なアイデアがあるなら試してみるといいよ

865名無しさん@お腹いっぱい。 (キュッキュ MM06-gtkA)2017/09/09(土) 19:37:28.64ID:pXK9vUQtM0909
アルゴリズムは難しくないので
自分で実装してみたら?

俺が試した範囲ではオーバーサンプリングして
縮小してもあんま変わらなかった

当たり前だが俺は作者じゃないよ

waifu2x-caffe ver 1.1.8.4
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.4
cuDNN v7に対応

今回の場合cudnn-8.0-windows7-x64-v7.zip/cuda/bin/cudnn64_7.dllかな
このへん本当に分かりにくいよなあ
前提となるCUDAやGeForceドライバのバージョンもあったかもしれない

CPU用はまだ? AVX2とかSSE4.2とかで1/10のスピードにならんかな←遅くてもいいからって意味で

>>868
CPUならtanakamuraさんの派生のやつが早いと思うよ

ハイブリッド、キタコレ

・ 低解像度画像からでも高解像度画像を生成できる「PixelNN」
http://gigazine.net/news/20170926-pixelnn/

すごい
おれの落書きを写真にしてほしい

写真とそれを落書きにしたイラスト2000枚を学習させればええだけやで

>>870
waifu2xの欠点を克服できたら神

874名無しさん@お腹いっぱい。 (ニククエ 236c-omH/)2017/09/29(金) 23:10:14.54ID:BSunbs8Y0NIKU
iOS版のwaifu2xなんてものが出来てた

imxieyi/waifu2x-ios: iOS Core ML implementation of waifu2x
https://github.com/imxieyi/waifu2x-ios

どんだけエンコ時間かかんだよ

>>869
thx、更新止まってるみたいでげんなり

invalid requestって何が原因?頻発するんだが

878sage (ワッチョイ e5ec-6smv)2017/10/03(火) 18:49:13.53ID:1vKvOmgu0
>>877
reCAPTCHAの認証に失敗すると出てます。
全体の3%くらいでそんなに出ていないので
それ以上の確率で発生しているなら環境か回答に原因があると思いますがよく分かってないです。
判定には、reCAPTCHAの入力(マウスの軌道,画像問題が出たならその回答)、端末のIPアドレスが使われてます。

>>878
なるほど。実行ボタン押せても回答が間違ってる場合があるってことかな
ここ数日で急に出てくるようになったんだよね
ちょっと注意してreCAPTCHAやってみます

前にノイズが云々言った者だがもう直ったみたいだな
前までは本当に素人が分かるレベルの汚いノイズが出てたんだ
マルチの方が未だに直ってないようなんで使ってみれば分かる

ウェブでの処理は1年以上変更していないですよ

waifu2x-caffeで縦横幅両方指定すると横だけ指定した場合に比べてかなり時間かかるけど、
縦横幅両方指定だと単純に2の累乗倍して縮小するだけじゃない何か別の処理してるのかな

指定値のどちらかが元サイズの2倍数を超えているとか
128->256(2倍), 128->257(4倍後縮小)と境界がある

>>882
テストしたけど変わらないわ

883のケースじゃないかね

色々試してみたが、(自分の場合)どうも一定以上縦長の画像を拡大してみたときに縦横幅両方指定/横だけ指定で処理時間に差が出るようだ
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う

>>885
その条件でテストしたら確かに違いを確認したわ

横幅のみ指定 20秒
横幅、縦幅指定 90秒

例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う

横幅のみは 1.6倍 プロファイル使って1回
両方指定は 2.0倍 4分割から縮小

と違う経路になってるかと。 886の時間差的にそれっぽい

>>887
1.6倍かどうかは関係ないかも
900x1800でも一緒だった

1.6倍の意味を理解してないと思われ

>>870
お試し環境はないの?

フォトショにもAIアップスケールだって

https://pc.watch.impress.co.jp/docs/news/1087038.html
>人工知能を活かした画像拡大機能で、ディテールやテクスチャを保持しつつ画像サイズを変更でき、劣化が抑えられるという。

>>891
リンク先の画像だと、画像サイズが小さくてわかりにくいが、確かに髪の表現や顔の血管やシワが強調されてはいる。
まだプレビュー扱いのようではあるが。
しかし、Photoshop高いからな…

Lightroom付いて月1000円は安いと思うけど

・・・数年でいくらになるかと言うと

"(((( ´,,_ゝ`))))

文字などの拡大結果がwaifu2xっぽいらしいですね
(CNN系はどれも似たような特徴がでる)

>>894
買い切り時代の値段で8年くらい使える訳だけど
確かにまともに使わない人には高いか

休みの日のお絵かき用途に毎月1000円も出したくないな

Photoshopでお絵かきなんてするやついるのか

月180万……
いまだに運営費の問題は健在か

・ガビガビの低解像度写真を高解像度な写真に変換できる「EnhanceNet-PAT」が登場
https://gigazine.net/news/20171101-algorithm-low-resolution-images/

この研究の前は、最先端の超解像技術でさえ、画像の中にぼやけた部分やざらざらした部分を持っていました。
その理由は、『高精細な画像になるようにオリジナル写真を再構成させる』などのニューラルネットワークでは実現不可能なことを、ニューラルネットワークに要求していたからです。
そのため、超解像技術で作成された画像は、一部がぼやけていたそうです。
そこで、我々はニューラルネットワークにより高精細なテクスチャーを作成してもらう、という異なるアプローチを取りました。
この手法ではニューラルネットワークが画像全体を見て、領域を検出し、意味情報を使ってより高精細なテクスチャーを作成し、高解像度の画像を作成します」

能書きはいいから早く一般人が利用できるようにしてくれ!

こんな事が出来るようになったのに、何でデインターレースは上手く出来ないのか

デインターレースはやりたがる人が少ないんじゃないか
あとリアルタイム動作を考えると難しいとかあるかも

>>900
これ、デジタル放送のブロックノイズ対策やモザイク除去にも使えそうだな

凄いんだけど、失敗例だと化物みたいになっちゃうな

http://i.imgur.com/PXVKiei.png

ゾンビで学習しちゃったみたいな?

奥の人と融合して別の学習済みの何かとザ・フライしたな

ハゲの再現度は高いな

ゾンビ化以外は、従来版よりいいね。
従来版の輪郭が溶ける問題は発生していないから、ゾンビ程度ならペイント程度でも局所的に簡単に手直しできそうだし。
(輪郭が溶けるほうは、ペイントで簡単に手直しとはいかないし)

>>900
これ試せるところないの?

無いよ

金積めば研究データ使わせてくれるかも

有料でいいからソフト化してくれ

同一画像については変換パラメータ変更での再処理は○回まで無料とかは欲しいが
利用量(枚数、サイズ)に応じた従量制課金かプリペイド制のサービスになると利用しなくなる法則

オンライン変換サービスしてる人も課金モデルでその部分指摘してたな

テクスチャを学習するってことは、本格的に学習すると
データの容量が凄いことになるのかな

学習するサンプルも多いだろう

画像系ディープラーニングの学習データの量はニューラルネットワークで定義されてる係数やフィルタの数で固定される
学習サンプルが多いとデータが増えるわけではなく、固定サイズの学習データの質がサンプルの内容に応じて最適化されていくだけ

ここのサイト結構性能いいかも
ちょっと誰か試して

Let's Enhance – free online image upscale and enhancement with neural networks
https://letsenhance.io/

原画像
http://i.imgur.com/mxp9Q2J.png
http://i.imgur.com/TGaT3oX.png

waifu2x
http://i.imgur.com/s4jE2hO.png
http://i.imgur.com/UZsH9uj.png

Let’s Enhance
http://i.imgur.com/fu6PEWJ.png
http://i.imgur.com/SVpsLwH.png

紹介記事
This Website Uses AI to Enhance Low-Res Photos, CSI-Style
https://petapixel.com/2017/10/31/website-uses-ai-enhance-photo-csi-style/

>>917のサイトのやつSRGANを参考に作っているらしい
ボケずに拡大出来るけど模樣なんかが元の画像と違った感じになる

原画像
https://i.imgur.com/Xs8E2hZ.png
waifu2x
https://i.imgur.com/4D0rzHC.png
Let’s Enhance
https://i.imgur.com/2elNRSJ.png

SRGANに関してはここの説明が分かりやすかった
https://elix-tech.github.io/ja/2017/02/06/gan.html#papers

元の画像から変わりすぎ

>>919
ちょっと画像の例が悪かったかもしれない
元の1/4に縮小して拡大してあるから細部の情報なんて全く残ってないのよ

>>920
EnhanceNet-PATは、そこまで酷くない。
今更出来の悪いものは必要ない。

予想外の結果になりそうで面白い

923917 (ワッチョイ 7f6c-+eVz)2017/11/09(木) 08:10:48.38ID:ejxgnOxl0
紹介の仕方をミスった感が強いけど>>917のサイトは写真の種類によってはそれなりに有用だと思う。
waifu2x UpPhoto x4 ノイズ除去無しとの比較。

http://upup.bz/j/my27960IRCYtBJQmxSGzyUg.jpg
http://upup.bz/j/my27961gChYtd_bPU81wFWU.png
http://upup.bz/j/my27962YLrYtQJyJmWv6uSE.png

http://upup.bz/j/my27966jlmYtbo37ME0ayCU.jpg
http://upup.bz/j/my27967AwAYtbo37ME0ayCU.png
http://upup.bz/j/my27968lFCYtbo37ME0ayCU.png

>>923
どれがどれかくらい書いてアップしろよ、常考・・・
上から
・原画
・UpPhoto x4
・waifu2x(ノイズ除去無し)
だな。

■草刈正雄画像
一見すると確かにUpPhoto x4の仕上がりは良好に見える。
が、ブルーのクッションのうち右側のほうに着目すると、少しコントラスト比が変動してしまい
眠たくなってしまっている。
原画ではもう少しだけコントラスト感がある。

■女性画像
草刈正雄画像と同様に、黒い服?のコントラスト感が若干弱まり眠たくなってしまっている。

この程度の画像でコントラスト変動が出る(全体にではなく一部にというのが問題)のは、学習に用いている画像の枚数が少なすぎるのではないか?

前の>>916でもそうだけど、学習量が少なすぎるから、少ない学習データの中で一番近そうなのはこれしかないんです状態に感じられて仕方がない。
少なくとも今の学習量の8倍は学習させたほうがいい。

あと、一度拡大した画像自体を縮小して、元画像との変化が出ているところを再度調整しなおすような仕組み(フィードバック補償)があってもよいのかもしれない。
ゾンビ化の画像とかもそうだが、フィードバックしていればあのまま出てくることはないはず。
一度きりの結果に満足するなかれ。

>>924
ごめん、どれがどれか書き忘れた。
上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。

あとレビューありがとう。
自分は画像処理の専門家じゃないしそんなに目も良くないので意見を言ってくれると助かります。
学習量については一週間毎にモデルを更新していく予定とのことなのでそれで改善されるかも。

>>925
>上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
これマジ?
だとしたらLet's Enhanceが一番ぼけてることになるのだが。
輪郭線などの具合から、てっきり3番目がwaifu2xかと思っていたのだが。

>>917
ここの最新エントリにLet’s Enhanceの使い方から処理の違いとか詳しいのある
digibibo.com

>>926
Let's Enhanceぼかしたままのところとディテールを加えるところのメリハリがあるね
髪の毛や肌は明らかにLet's Enhanceの方が情報量が多い(存在しない情報を付加している)
メガネのエッジなんかもLet's Enhanceの方がくっきりしてる

>>927
さすがに記事書き慣れてる人は紹介が上手いねw
自分だけではしゃいで魅力を説明できない自分とは大違いだわ

なぜかリンク貼るとエラーになるのでリンク先で画像見つけてほしいが

■JPEGノイズ除去のbefore/after(左右で比較できる画像)
tmpimg1711101329n220171110135958928.jpg
やはりコントラストが変動しているな。

■拡大のbefore/after(鉄塔の画像)
before
tmpimg1711101340n120171110140051020.jpg

after
tmpimg1711101341n120171110140114527.jpg
拡大後の鉄塔の赤色や右側の塔の上部のオレンジ、クレーンの青、背景等をみると、同様に変動している。
輪郭周りの処理はwaifu2xよりうまいけど、まだまだ問題点が多い。

追記

ただし、ノイズ除去の精度はかなり高い。
これ、デジタル放送のノイズ除去や、調整次第ではVHSの3倍モードのノイズに効用がありそうな気はする。

確かに非常に良くなる画像とディテールが崩れる画像がある印象。
だけどまさに魔法と呼びたくなるほど凄い処理がされる画像もあったよ。

イラスト系の比較画像がほしいな
実写はもともとwaifu2x苦手なの分かってるし

934名無しさん@お腹いっぱい。 (ポキッー df8e-0ibl)2017/11/11(土) 11:12:56.96ID:K8wJXMCa01111
>>933
今は無料で試せるみたいだから自分で試してみたら。

閑話休題。
Let’s Enhance、これもGPUの力がないと演算に時間がかかるタイプなのかな?
来年早々にIntel CPU+Radeon GPUなCPUをIntelが出すみたいだし、AMD系含めオフライン環境でも実行できるようになればいいのだが。
動画を連番画像で書き出してアップさせようとするとすさまじい枚数になるので、時間はかかってもいいがオフラインで実行できないと死ぬ。

>>933
Let's EnhanceのTwitterアカウントの人がWe are trained on photos, not anime ) Waifu2x has a clear leadership here )って言ってるからあんまり向いてないんじゃないかな
Google翻訳 私たちはアニメではなく写真で訓練されています)Waifu2xはここで明確なリーダーシップを持っています)

>>584でGANはPSNRが下がる懸念があると言われていたので気になって調べてみました。
一応bicubicと同程度はあるようです。

BSD100 x4 Y-PSNR
25.976 bicubic
26.085 Let’s Enhance
27.094 waifu2x Photo
27.196 waifu2x UpPhoto

ベンチマークに使った画像もUPしておきます。
https://www.dropbox.com/sh/i5b2old7vqgtvyv/AADb8UIqZel9LTDaFuwDdLwda?dl=0

>>936
PSNRで20台半ばか。
ただ、そもそも超解像のような処理の場合、PSNRが評価指標として適切かという問題はある。
以下を読むと参考になるかと。

・MSE/PSNR vs SSIM の比較画像紹介
https://qiita.com/yoya/items/510043d836c9f2f0fe2f

SSIMで比較してみるといいのかもしれない。

追記
Let’s Enhanceは、コントラストが変動する問題が解決すれば、基本的には今の状態でも使えなくはないのだが(バケる問題は学習量を増やせば落ち着くかと思われるので)、なぜにあんなにコントラスト変動が起こるのかが解せないんだよね。

再度追記
>>936の画像を見ていると、苦手な画像が少しわかってきた。
小さな三角形のような形が含まれる画像が変形しやすいように見える。
ヒョウ柄とか動物の目のまわりとか、そういう画像をたくさん学習させるとかなり改善されるような気がする。

Let’s Enhanceについてさらに評価と要望

・アンチJPEG
JPEG画像などに見られるブロックノイズを解像感を落とさずに除去
→この考え方を応用して、スキャナで取り込んだ画像に発生するモアレを、解像感を落とさずにモアレだけ除去できるような
「アンチモアレ」機能に発展させてもらうことはできないのだろうか?
現状、モアレ除去を試みると、どうしても解像感が犠牲になるのと、素材ごとに手動で最適な設定値を見出さなければならない状況になるが、
自動的に最適な状態で除去してくれたら、印刷物の取り込みが大幅に楽になる。
ついでに、オプションで印刷物取り込み画像はコントラストが眠くなりがちです、取り込み後にガンマをいじくったりして補正しなければならないケースが多いので、
印刷物のコントラスト補正最適化モードも自動的に実行されるオプションがあればなおよいのだけど。

・ボーリング
省略

・マジック
アンチJPEGを実行後に拡大しているようなのだが、アンチJPEGをオフにして拡大だけするモードをつけられないのだろうか?
サンプル画像を見ていると、アンチJPEGによる副作用なのか、妙にノッペリして見える箇所が見受けられるので。

waifu2xとの比較画像含め作成してみました。
https://www.axfc.net/u/3862416
※700MB程度zipファイルです。時間のある時にお試しください。
今夜2時までの公開です。
(著作権があるので、テスト目的のみで使用してください)

※元画像がAdobe-RGBの画像については、ICCプロファイルの引継ぎがされていないため、正しい色味で表示されませんが、これはwaifu2xの初期と同じく、プロファイルの編集をすれば正しく表示されます。

なお、変換した画像について
・いつもの画像
waifu2xのテストでよく使用していた画像です。
pngファイルにつき、anti-jpegは出力されていません。
ノイズ除去を適用したくなければ、pngファイルでアップするとよいのかもしれないです。
waifu2xとの比較ですが、boolin(2次元向き)よりmagic(実写向き)のほうが精細感や透明感があり好ましいように思います。
ただし、川の右側の欄干の処理がもう一歩な感じはするけど、縦横4倍!でこの状態はすごい。
(試す前まで、waifuと同じ縦横2倍だと思ってました・・・)
ただし、川の左側の石の護岸壁が元画像とコントラストが異なるのは気になるところ。

他の画像はjpgですので、anti-jpegあり。
参考程度にどうぞ。
(ノイズ除去なしになるか試そうと、jpg⇒pngした画像をアップしようとしたら枚数上限に達したので、また次回試してみます)

重すぎてダウンロード出来ない

>>942
また時間のあるときにでもアップしてみます。

なお、開発元からメールが届き、やはりpngでアップした場合はJPEGのノイズ除去はしないで拡大だけするようです。
その状況を確認しようと再度アップを試みたところ、前回のアップからすでに1日以上経過しているにもかかわらず、
上限枚数に達したと表示されアップできない状態。
どうも不安定なようす。

今までグラボに負荷がかからないように、ゲームやるときでもGPU LOADをなるべく30%以内に抑えてきたんだが、
waifu2x-caffeだと常時100%使うんだな   (((( ;゚Д゚)))ガクガクブルブル
まあ、すぐ慣れるか・・・

俺100%にならないぞ
性能が低いからか?

新着レスの表示
レス数が900を超えています。1000を超えると表示できなくなるよ。
レスを投稿する