X



【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net

レス数が1000を超えています。これ以上書き込みはできません。
2016/05/10(火) 11:28:05.20ID:h2o6wyXCa
画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。

--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/

・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436

・waifu2xとその派生ソフト一覧
※リンクがNGワードに!

・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437

・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/

・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html

・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
2016/05/10(火) 11:29:30.45ID:1d2KsrB6a
MSE・PSNRによる画像拡大アルゴリズム10種・ソフト8種、計14パターンの画質評価結果
http://loggialogic.blogspot.jp/2015/09/msepsnr10814.html

・waifu2xとその派生ソフト一覧
http://kourindrug.sa kura.ne.jp/waifu2x.html

Q. waifu2xの派生バージョン多いけどどれがオススメ?
A. Windows 64bitかつGPUがnVidia製なら、Waifu2x-caffe。それ以外の環境なら、tanakamura版あたりを試すと良い。
2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。


・歴代スレ
waifu2x [転載禁止]??2ch.net
http://anago.2ch.net/test/read.cgi/software/1433637613/

【超解像】画像拡大ソフト総合スレ1【waifu2x】 [転載禁止]??2ch.net
http://potato.2ch.net/test/read.cgi/software/1447218757/
2016/05/10(火) 11:57:50.59ID:eninfPPB0
いちおつ
2016/05/10(火) 12:11:54.14ID:aFfpXB7Y0
          旦 旦 旦 旦 旦
          旦 旦 旦 旦 旦
           旦 旦 旦 旦 旦
           旦 旦 旦 旦 旦
          旦 旦 旦 旦 旦
           旦 旦 旦 旦 旦
          旦 旦 旦 旦 旦
.   ∧_∧   旦 旦 旦 旦 旦
   ( ´・ω・ ).  旦 旦 旦 旦 旦
.   /ヽ○==○ 旦 旦 旦 旦 旦
  /  ||_ |_ 旦 旦 旦 旦 旦
  し' ̄(_))  ̄(_))  ̄(_))  ̄(_)) 
2016/05/10(火) 12:52:09.56ID:Fd7DWOdg0
>>2
> 2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。

これは古い情報で、20151130以降のバージョンならアルファ対応してる。
2016/05/10(火) 13:32:05.47ID:6mjJMeGF0
>>1
>>5
cppの0101入れてFireGL環境でqtのGUIつこうてますけれど
元画にあるPNGアルファチャンネル消えて色があふれたみたいな画になるよ
使い方が悪いのか見当がつかない
2016/05/10(火) 13:55:21.96ID:NxSJJ6AA0
ここは暴言多いんで、ワッチョイありでいいわ
2016/05/10(火) 13:57:29.01ID:Zw+WHUPo0
おつおつ
2016/05/10(火) 14:49:07.77ID:O19W+R3l0
こっちが本スレかな?
2016/05/10(火) 15:11:00.81ID:6o3hZDzu0
スレ立て乙
2016/05/10(火) 17:42:07.13ID:0/i3y4sK0
ワッチョイで特に必要性薄くなったけど念のため・・・
オススメ追加NGワード(正規表現)の手順 (改訂版)

1.[ツール]→[設定]→[機能]→[あぼーん]→[NGEx]→テキストボックス内に適当な名前(例:caff荒らし)を入力して→[追加]

2.次に開くウィンドウで、 以下の様に設定する。
   NGWORDのタイプを「正規(含む)」に変更し、そしてキーワードに以下をコピペ(予め1行にすること)
(は([  \.]+)?み([  \.]+)?出|V([  \.]+)?G([  \.]+)?A|1([  \.]+)?0([  \.]+)?2([  \.]+)?4|7([  \.]+)?6([  \.]+)?8|
1([  \.]+)?9([  \.]+)?2([  \.]+)?0|6([  \.]+)?4([  \.]+)?0|M([  \.]+)?D([  \.]+)?.?([  \.]+)?5([  \.]+)?5([  \.]+)?0([  \.]+)?0([  \.]+)?|
L([  \.]+)?7([  \.]+)?9([  \.]+)?7|解([  \.]+)?像([  \.]+)?度([  \.]+)?|糞|雑([  \.]+)?魚|ク([  \.]+)?ソ|ザ([  \.]+)?コ|客|干([  \.]+)?[さしすせ])

3.左下のリストボックスを「透明あぼ〜ん」に設定。[OK]を押すれば新規レスからあぼ−んされるので取り敢えず終わり。
   既存のレスも消去したいなら4.も実行。

4.[スレッド]→[このログを削除]して、[ファイル]→[最近閉じたスレ]から削除したスレを開き直す。
   レス番号が歯抜けになっているはず。

2.のキーワードはその動向を見ながら変更追加して下さい。中には関係ないのも巻き込むので注意ですね。
正規表現をもう少し駆使すればかなりの精度でNGできます。ただ上記とその変更でも十分活用出来るでしょう。
2016/05/10(火) 18:18:00.24ID:Fd7DWOdg0
>>6
qtのGUIって↓のやつだよね?
https://github.com/khws4v1/waifu2x-converter-qt

試しに使ってみたけどアルファ保持されたよ。
アルファ消えるのはもしかして古いバイナリを使うように設定してるとかかな?
2016/05/10(火) 18:19:52.36ID:pNhD28mzd
ワッチョイのおかげでレトロガイジが駆逐されたみたいやな
14名無しさん@お腹いっぱい。 (ワッチョイ 9c42-BRmI)
垢版 |
2016/05/10(火) 18:42:31.00ID:PIjk1rDx0
レトロガイジって何ですか?
2016/05/10(火) 18:48:05.87ID:Lz+ZkU790
「レトロなキチガイ児」のことじゃね?知らんけど。
2016/05/10(火) 19:40:07.52ID:6mjJMeGF0
>>12
お手数かけました情報ありがとう
そちらで保持されておられるのなら自分の方法が間違ってるに違いないと確信した
qt側の設定で最新のcppの実行ファイル指定はできていたので何か間違いがないか
手順を再確認してみる
2016/05/10(火) 19:52:07.36ID:0vfKWyMS0
昔の栄光にすがってる、哀れな独りよがりのピエロのことだよ。
2016/05/10(火) 20:02:00.70ID:6mjJMeGF0
>>12
試行した結果
自作PNG→OK
webで拾ってきた透過PNG→NGなのもある
作者さんが注意書きされておられた
bKGDに変な値入ってると変な色が出る可能性はある。
上記に該当する画像だと判断できました
アプリで開いて透過PNGで保存し直しwaifuするとOKでした
いまさらな話題で失礼しました
2016/05/10(火) 23:59:53.00ID:eninfPPB0
新しい機器が買えないニート
2016/05/11(水) 15:04:46.70ID:JWRjx2E2a
一応連絡です(作者の人ではないのですが)
waifu2x-c/c with Batchfile and HTA-GUIをご利用中の方へ

・画像アップロードでウェブサイトを乗っ取られる攻撃が進行中--「ImageMagick」脆弱性
http://japan.zdnet.com/article/35082361/
というニュースが少し前より出ております。
念のため、最新のImageMagickに更新されておいた方がいいかと思います。

・ImageMagickダウンロードページ
http://www.imagemagick.org/script/binary-releases.php#windows
(種類がいろいろあるようですが、ImageMagick-7.0.1-3-Q16-x64-dll.exeでよいかと思います。)

なお更新するにあたって、事前に古いバージョンを手動削除し、念のためCCleaner等できれいにしてから最新版をインストールされた方がいいと思います。
(手動で削除しないと古いバージョンが残ったままになってしまうため)

・インストール時の注意点
途中で「Select Additional Tasks」の画面が表示されたら

上から2番目
Add application directory to your system path

1番下
Install ImageMagickObject OLE Control for VBscript,Visual Basic,and WSH

この2点に必ずチェックが入った状態にして先に進めること。
2016/05/11(水) 15:20:21.00ID:JWRjx2E2a
ちなみに、先ほどImageMagickを更新してから久々にwaifu2x-c/c with Batchfile and HTA-GUIを起動して使ってみましたが、
やはり私のPCでは利用できないままなのは変わらないようです。
(起動時にエラーは出るし、ファイルの選択すらできない。)
2016/05/14(土) 10:55:12.05ID:CHSZ183Na
前スレで画像のbit深度について書いていた件なんだけど、いろいろ調べていたら
・ImageMagickのビット深度と画質劣化
http://mikio.hatenablog.com/entry/2016/02/12/220435
という興味深いページに行き当たった。

曰く、「ImageMagick 7からはHDRIがデフォルトになる」そうです。
※HDRIとは、「内部表現を浮動小数点数で持つ機能」のことだそうです。
先日>>20にてアップデート推奨と書きましたが、現在のバージョンが7.0.1-3ですので、おそらく対応しているものかと思います。

ImageMagick 7以降を使うと旧バージョンに比べて画像フォーマットの変換時の劣化を抑えられるかも。
旧バージョンを利用中の方は更新されておく方がいいと思います。

ところでもともと調べていたのは「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」を探すことが目的だったのですが、案外ないものですね。
(Photoshop関連の情報はたくさん出てくるのですが)
ImageMagickだとできるかなと調べているのですが、よくわからんです。
誰かご存知でしたらよろしくです。
2016/05/14(土) 11:04:35.89ID:CHSZ183Na
HDRIについてさらなる考察をされている件も興味深いので合わせてどうぞ
(HDRIかつ16bit、あるいは32bit、64bitのケースなど)

・ImageMagickのビット深度と画質劣化 その2
http://mikio.hatenablog.com/entry/2016/02/15/221433
2016/05/14(土) 11:13:20.68ID:GNuM19aQ0
>「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」
綺麗に、ってのは、オーディオで言うところのアップサンプリングみたいなのを考えてる?

解像度を上げつつ、補完するピクセルの色を16bitでしか
表現できない色で表現する、ならわかるけど
解像度を上げないでそのまま16bit化するのはただ
ファイル容量増えるだけで何も変わらないよ
2016/05/14(土) 11:44:34.95ID:CHSZ183Na
>>24
「オーディオで言うところのアップサンプリングみたいなの」ということになるのかどうかわかりませんが、
各色16bitに変換する際にトーンジャンプが起きないように補完しつつ変換するような感じの動作をするものを探しています。
2016/05/14(土) 12:20:35.15ID:CHSZ183Na
表現が間違っているかも。
元画像に含まれるトーンジャンプ(バンディング)を滑らかに補正しつつ、bit深度を拡張、というべきかも。
つまり元画像が高圧縮された画像であればあるほどトーンジャンプが発生している確率が高いので、
そのまま拡大するのではなく、あらかじめ階調をできる限り滑らかに補正しておいてからwaifu2xに渡す、というような前準備を考えています。
等倍サイズでは目立たなくとも、拡大するとトーンジャンプは目立つことが多いので。
2016/05/14(土) 12:29:11.32ID:CHSZ183Na
可能性の話になるけれど、ディープラーニングを利用したノイズ除去とは別にやの、トーンジャンプ除去モードとかbit深度拡張モードがあればいいのか?
(等倍での出力も対応)

ノイズ除去も目的に応じてより細かいモードがあるといいのかも。
ブロックノイズ軽減モードとか、モスキートノイズ軽減モード、カラーノイズ除去モード、などなど。
2016/05/14(土) 18:50:49.16ID:CHSZ183Na
思いつきのメモ
画像を圧縮することによって発生する問題(ブロックノイズとかトーンジャンプとか)を、圧縮前はこうだっただろうという想定で復元する「超復元」。
さすがにそんな都合のいいものは無理?
2016/05/14(土) 19:20:53.65ID:0zj3O/Km0
>>28
1.00000001倍に拡大して自動判別してノイズ除去で良いんじゃね
2016/05/14(土) 21:32:59.96ID:Nq8DfokX0
>>28
トーンジャンプ/ブロックノイズした絵を入力・解除された絵を出力するように学習させれば可能かも
2016/05/15(日) 04:52:32.51ID:a+hZy1+X0
>画像が高圧縮された画像であればあるほどトーンジャンプが発生している確率が高いので
トーンジャンプ(バンディング) が判るような圧縮画像じゃ、8bit諧調ですらないのでは?ってレベルの画像なんじゃないだろうか・・・
2016/05/16(月) 15:12:06.66ID:N/rtYCXM0
処理時間半分以下になるバージョンの公開が待ち遠しい
2016/05/16(月) 16:35:15.65ID:B4gPzHV00
フィギュアの写真をアニメ調にしてくれる機能があったらなぁ。
2016/05/16(月) 18:25:08.61ID:5Rev/Kkkd
新バージョン待ち遠しいな
2016/05/16(月) 19:44:29.81ID:7A45SCwf0
新モデルはupconvブランチに置いてますけど
ピクセルアートなどでひどいアーティファクトが出てることに気付いたのでまだ変更します。
時間半分以下でイラストでのベンチマークも上ではありますけど
以前より悪くなるパターンもあってあやしくなってきました。
2016/05/16(月) 21:18:27.97ID:GoJkJQIl0
処理時間よりどれくらい綺麗に処理出来るようになったかが気になるな
特に前スレで書かれてたノイズを使ったときの溶けた感じや輪郭線など

とにかく作者さん頑張って
2016/05/17(火) 08:12:24.79ID:CE801I46a
モデルデータなんだけど、現状はアニメ用とか写真用とかに分かれていて利用者が選択するやり方になっているけど、
絵柄の部分ごとに自動的に切り替えて適用させることはできないものなんだろうか?
(切り替える判断をディープラーニングでさせる)
・階調情報が少ない面が一定以上ある部分→アニメモデル
・輪郭線が複雑に構成されている部分→Yモデル
・それ以外→RGBモデル
みたいな。
2016/05/17(火) 11:39:19.21ID:CE801I46a
>>35
ピクセルアートはコントラスト比が高い絵柄が多いから、現状のwaifu2xのやり方だと溶ける症状が出やすいかもしれませんね。
どうも溶ける症状が出やすいところって、コントラスト比の高い部分が隣接しているような場所でおこりやすい気がしますね。
(だから結果として輪郭周辺部とかで目につきやすいのかも)

コントラスト比が高い部分とコントラスト比の低い部分を同じ割合で強調してしまっているのかな?
元画像のコントラスト比が高くなるほど、強調する度合いを低下させておくような仕掛が必要だと思います。
2016/05/18(水) 21:27:07.33ID:wnzNAYYTd
新バージョンでは輪郭線が綺麗になる?
SDからFHDにアップコンバートするとこんな感じになるんだよね…
http://i.imgur.com/GhxuUH3.png
2016/05/19(木) 11:36:41.13ID:snBFEXtFa
>>39
みんなそれを期待していると言っても過言ではないのけど、実際問題としては相当難しいんだろうなとも思う。
というのは、人間の目には輪郭とは「一本の繋がった線」として認識しているので、目に見えにくいところが少しくらい途切れていても
脳内で補完される(これを「アモーダル効果」とかいうそうです)仕組みがあるけれど、コンピューターに勝手にそのような効果が備わっているわけではないので、
輪郭線の細部の「ムラ」になっていたり、ノイズまみれになっているところを、いかに連続した線としてきれいに見せる=すなわち「連続した線として認識できる」
かが鍵になるのだと思う。
つまり、現状のwaifu2xは細かい点ごとを処理している状態であるところを、あらかじめディープラーニングを使って「この連続成分は線なのか?」ということを
事前に認識する前処理を施したうえで、「線成分(=連続成分)」と認識した場所と、そうではないところで処理方法を切り替えることが必要なのではないかと個人的に
思ってはいるのだけど(連続成分については超解像効果をオフ、もしくは弱めて適用)、作者様、そんな前処理&処理方法の切り替えはできないものでしょうか?
2016/05/19(木) 11:54:46.91ID:p48VMaQS0
現状が出力1px出すのにその周りの7x7pxがどうなっているかで出力を決めているので
その範囲でそれが線か点か平面かみたいなところは判定できていると思います
新モデルはこれが12x12に広がるのでもう少し複雑なパターンも分かるのではと思うけど
フィルタが大きくなるとそれだけ無関係なピクセルから影響を受けやすくもなるので
アーティファクトも出やすくなってしまう
2016/05/19(木) 12:34:06.20ID:snBFEXtFa
>>41
参照範囲を拡張されるのですか?
それはいいですね。
アーティファクトについては元画像が圧縮画像である場合に発生しやすいかと思いますので、現在装備しているノイズ除去とは別に、
アーティファクトの影響が出やすそうな圧縮ノイズだけを事前に除去するようなモードをつけておくことで対処することは難しいのでしょうか?
(>>28で書いたような感じのブロックノイズとかトーンジャンプに加え、輪郭周辺部に出やすいモスキートノイズなどを個別にオン・オフできるといいかと思いますが)
2016/05/19(木) 12:42:22.08ID:snBFEXtFa
作者様のTwitterを見たところ、「Imager::AnimeFace」なる輪郭検出に必要になりそうなソフトウェアをすでに作られていたご様子。
このソフトの技術で認識した輪郭部だけに適用する「輪郭ノイズ除去フィルター」なんて組み込めないものですかね?
2016/05/19(木) 12:44:38.11ID:snBFEXtFa
こんなソフトもあるようですね。
・JPEGノイズ除去フィルタ
http://www.webtech.co.jp/help/ja/optpixlabs/jpeg_noise_filter/
2016/05/19(木) 12:49:58.03ID:snBFEXtFa
人のいるところでは開かないほうがいいページだけれども、参考にはなりそうなところ。

Googleで「輪郭ノイズ除去フィルター」で検索すると、「プロカメラマンのPhotoshop女性写真補正術」なるところが表示されますのでそこに出てきます。

人前では見るなよ!見るなよ!
2016/05/19(木) 12:51:00.20ID:Jy9TZu3Bd
>>40
分かりやすい説明ありがとう
やっぱりみんなもそこ気になってるんだね
輪郭線も気になるけど、画像みたいな色が違う境界線も新バージョンで改善されると嬉しいな

要望ばかりで申し訳ないが、作者様頑張って下さい
2016/05/19(木) 12:57:20.90ID:0HndFo6fM
アニメって原寸でも少しボケ気味だから拡大前に若干縮小するか、シャープかけてからの方が良い結果になることが多い
2016/05/24(火) 01:06:43.33ID:pHT3p8L20
waifu2x-c/c with Batchfile and HTA-GUI作者です、ご無沙汰してます

>>20
ありがとうございます。私もこのレスを見て始めて脆弱性のことを知りました...
>>21
申し訳ないです。。。もしよければバッチファイルだけでもご利用ください。

重いのに使ってくださる方がいて嬉しい限りです。
リアルが多忙ですが、tanakmura氏版がLv3に対応した後ぐらいの時期に次版をリリースしようと考えています。
次版は少々軽くなっているはずです。
また、近いうちに選択肢が簡単な(コマンドライン準拠でない)バージョンも用意したいと考えています。
個体差でエラー&起動しない問題の解決にも取り組みたいところです。
2016/05/24(火) 09:35:22.04ID:gUvghq74a
>>48
ImageMagickの件については、>>22-23に記述した件もありますので、更新しておいて損はないかと思います。
なお、「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」の件ですが、どうやらImageMagickにそのような機能があるっぽいのですが、まだよくわからず。
引き続き調査中。
(ImageMagickをGUIで使える汎用性の高いフロントエンド(AviUtlみたいな)ってないのかな?)
2016/05/24(火) 10:00:09.81ID:gUvghq74a
ひょっとして8bit→16bitをImageMagickで変換するには

convert input.png -depth 16 output.png

だけでよかった?
2016/05/24(火) 10:13:01.51ID:gUvghq74a
そんなわけはなかった・・・
引き続き調査。
2016/05/24(火) 17:42:11.99ID:wmnqMgZB0
倍速バージョンがcaffeに採用される日はまだ遠いのでしょうか?
2016/05/24(火) 18:13:16.41ID:MHUmioZy0
各16bitにしてもグラボやモニタが対応してないと確認できないよーな
2016/05/24(火) 19:22:40.86ID:65AxGBFja
16bitは編集前提だから
まぁ、Radeonの次期モデルから10bit出力対応になるし、モニターも対応モデルが増えていくから無駄にはならん
2016/05/24(火) 20:29:37.48ID:8l5f+VfM0
>>39
これ学習時に縮小するときにジッタ成分としてランダムにサンプリング位置を僅かにずらしたのを学習させれば
ノイズとして巧いこと処理できるようにならないかな
縮小したのをWarpsharpとかランダムシフトでずらして凸凹を再現してもいいけど
2016/05/24(火) 20:41:22.46ID:MHUmioZy0
>>54
ちゃんとキレーに処理されてたら無駄にならないからいいけど、
いざ確認できるようになってから、誤差拡散ノイズまみれとかになってたら嫌じゃね?
2016/05/24(火) 20:59:08.32ID:8l5f+VfM0
ビット拡張は暗部階調に意味があるんだからガンマカーブやトーンカーブいじって明るくしてやれば確認は出来るでしょ
10bit出力だってDirectXやOpenGLのフルスクリーンで相当昔から出来るがDeepColorのTVでもそのままじゃわからん
Blu-Ray再生でRGBのまま再生したいときにロスが減るという意味がある程度かもしれん
2016/05/28(土) 18:13:12.85ID:VJDl+RrJ0
新バージョンはいつ頃になりそうですか?
2016/05/29(日) 03:27:38.86ID:s6BvNCI80
rigayaの日記兼メモ帳 技研公開 2016
http://rigaya34589.blog135.fc2.com/blog-entry-788.html

NHKの方でも縮小して拡大、PSNR算出みたいな事するのね
2016/05/29(日) 03:40:46.10ID:s6BvNCI80
ムッ、ブログ記事の画像URLのGiken2016_10s.jpgをGiken2016_10.jpgにすると読みやすいのが出るな
2016/05/31(火) 00:49:27.83ID:oZ5ZU4SC0
>>58
平均的にはいいんだけど,現在のモデルよりすごく悪くなる例がいくつかあってどうしてもよくならないので苦悩しています
(ウェブの方を置換するので現在より悪い例はできるだけ無くしたい)
あと2倍といっていたけど,モデルのロード時間も測ってしまっていて
測りなおしたら4倍近く速かったので,もう少し遅くなっていいのでよくできないかなと考えています
2016/05/31(火) 10:03:28.13ID:C22Vvmqga
>>61
お疲れ様です。
すごく悪くなる例というのは、以前おっしゃられていたピクセルアートなどの場合でしょうか?
私はプログラミングのことはよくわかりませんが、悪くなる原因というのは現行方式にくらべて新方式が速く処理できる以上、
何か重要な処理が省かれてしまっている、もしくは簡略化されてしまっている、という可能性はないのでしょうか?
逆に言うと、省かれたか簡略化された処理がかねてより問題の輪郭線などが溶けてしまう要素とも関係していたりはしないのでしょうか?

もしそうであるならばですが、拡大処理などをする前にまず画像全体をチェックして、新方式で問題ないと判断される場所は新方式で高速処理し、
問題が出そうと判断される場所は現行方式、あるいはさらに改良した方式をあてがうなど、処理を切り替える必要性があるのではないでしょうか?

それと3年ほど前の記事ですが、こんな記述も参考になるかも
・東芝「REGZA Z8X」開発陣に聞く、「本格的4K時代」 4Kだから差が出る画質。地デジを高画質化の秘密
http://av.watch.impress.co.jp/docs/series/rt/20130809_610976.html

「ではなにが実物感に繋がっているのかというと、グラデーションの美しさであったり、自然なエッジの持つ「柔らかいが細かい」という感覚です。
映像エンジンとしては、階調性や微小な振幅が失われないよう、いかに内部のバス幅を広くとるか、ということを意識して開発しています。

最後まで12bitで伝送するといったことにこだわらないと、4Kらしい実物感が出てこないのです。」
→つまり、前回お話ししていた8bit画像を高bit化する際の処理方法とその後の情報精度維持が効く!
2016/05/31(火) 10:04:09.16ID:C22Vvmqga
・微細テクスチャー復元
http://av.watch.impress.co.jp/img/avw/docs/610/976/html/ppt05.jpg.html

「2Kの段と4Kの段をしっかりわけて処理しないと、そうした「リアリティ」が出ない

そんなにゲインをかけてはいないです。微小なところしかかけていないんですが、それを入れるか入れないかで、4Kになってしまうと大きくかわってきます。」
→微小な階調差の領域とそうでないところを同じ処理(=強調)をしてはいけない!
※協調具合は逆ガンマ特性であてがうといいのかも

・絵柄構造適応型MPEG-NR
http://www.toshiba.co.jp/regza/lineup/z700x/quality_03.html#psa
→絵柄の相関性に基づいてフィルターの形状を適正化の部分を取り込むことで、参照範囲を拡張することによるアーティファクトの問題を軽減!
2016/05/31(火) 10:11:05.50ID:C22Vvmqga
8bit画像を高bit化について追記

ノイズ除去や拡大する前に、ディープラーニングを使った高bit化(8→16bit化)が必要なのかも。
※単なるデータだけ16bitにしました、ではなく!
2016/05/31(火) 12:33:31.37ID:C22Vvmqga
>>64を訂正

元画像でディープラーニングを使った高bit化(8→16bit化)ではなく、waifu2xで内部的に確か使っているニアレストネイバーで拡大した画像をディープラーニングを使った高bit化(8→16bit化)のほうがいいのか?
2016/05/31(火) 12:35:45.44ID:C22Vvmqga
いや、それなら拡大後の画像にディープラーニングを使った高bit化(8→16bit化)を適用すればいいのか?
手元で試せるわけじゃないからわからんな・・・
2016/05/31(火) 12:57:25.17ID:C22Vvmqga
そもそも原点に戻るべきなんだろうか?

waifu2xが出た当初、今よりも輪郭が溶けやすかったので、NNEDI3で拡大後にwaifu2xでノイズ除去のみ適用というのをやったことがあったけど、
waifu2xが改良されてからNNEDI3を使う方法は全く試してなかったんだよねぇ。

NNEDI3と最新版のノイズ除去との組み合わせ、あるいは以前に書いたような輪郭成分と認識される部分だけに適用されるような新型ノイズ除去?との組み合わせならばどうなるのだろうとふつふつ・・・

そのうち時間が取れたら試すか。
2016/05/31(火) 13:14:26.12ID:C22Vvmqga
手元に以前にNNEDIS3にて2倍、4倍、8倍に拡大した画像があったので改めて見てみたのだが、確かに眠い画像ではあるんだけど輪郭とかは自然なんだよね。
NNEDI3で拡大して、画像の面成分(=「Imager::AnimeFace」にて輪郭と認識されないところ)のみwaifu2xにて超解像効果を適用・・・

それができるのならば、テレビなどでよくある解像度の変換はなしで、解像感だけアップする手段にも使えるのか?
2016/05/31(火) 13:20:06.61ID:7tY1vICr0
ダラダラとうぜえ・・・
2016/05/31(火) 16:10:01.21ID:nKVf7NYn0
「私はプログラミングのことはよくわかりませんが」って奴が、よくまあ長々と愚にもつかない事を語れるもんだ
マジでどういう神経してるのかと
2016/05/31(火) 16:19:05.88ID:IXSgPgWR0
大手サイトで紹介されたのは初めて?
http://www.itmedia.co.jp/news/articles/1605/31/news119.html
以前話題になってた自動カラー化の
2016/05/31(火) 18:17:18.12ID:G7S0Hj3Td
>>70
まあアドバイスをするぐらい良いじゃない
作者も嫌なら無視すればいいだけなんだし
2016/05/31(火) 19:23:41.36ID:DPKFBz190
>>61
結構苦労されてるみたいですね…
個人的に処理速度より精度を気にしてるので期待しています(特に輪郭線)
2016/06/02(木) 10:13:34.24ID:8dS/92/Ma
今日のGoogleは影絵作家の生誕記念バージョンになっているけれど、新バージョンは影絵とかも不得意かもと思ったところでひとつ気になったことがあったので調べてみた。

・Convolutional Neural Networkとは何なのか
http://qiita.com/icoxfog417/items/5fd55fad152231d706c2

気になったのは
「CNNの進化
年が経るにつれ精度が上がってきているCNNですが、近年の構成では以下のような特徴がみられます。
フィルタを小さくし、階層を深くする
PoolingやFCのレイヤをなくす
以下の図では、年々精度が上がるにつれレイヤが深くなっているのがわかります。」
の部分。

つまり、フィルターというか参照範囲そのものを増やすよりもレイヤー(考え得るパターンの分岐?)を深く(=パターンを増やす)するほうが得策っぽい件なのだが、
そうであるならば、参照範囲は現行程度に留めて、フィルターの形を複数用意してそれぞれの絵柄に応じて一番しっくりくるフィルターの情報を基に畳みこみした方が
いいんではなかろうかとふと思ったのですが、ダメですかね?

フィルターをあらかじめ、正方形、長方形、△(向き四方向各々)菱形、8角形、とか用意しておいて、全部実行して一番いいのを選択。

TTLモードで回転による8パターンをやる時間があるならば、この方がいい結果が出るような気もするんですが。
2016/06/02(木) 10:30:41.45ID:8dS/92/Ma
すでにやっている人はいたようです。

・Deep Learning Advent Calendar 2015
http://vaaaaaanquish.hatenablog.com/entry/2015/12/25/005523
「sliding windowのスケールの違いによって入力も違うため, 誤認識が発生するという問題もありました.
そこで, Exhaustive Searchのスケールによる誤認識を減らすための画像処理手法や計算量を減らす手法*4, 物体検出に対して効率的な手法*5が出てきたり,
CNN以外でもsliding windowの欠点を補うようなRandom Forest的手法*6が出てきたりしました.」

で、さらにDeep Q-Network(DQN)などというものも出ているようで(名前がなw)
深い・・・
2016/06/02(木) 10:37:26.83ID:oNKZhMTS0
もう悪くなりそうなパターンを調べてそういうパターンを自動生成して学習データに加えることで無理やり対応した
例: http://ccsaku.moe.hm/gyazo/data/0b76b99850d7cc5eac0e4857da451890.png
こういうパターンを良くするのと引き換えにイラストの平均的なスコアは少し下がると思うけど
最悪な場合のスコアはかなり上がっているはずなのでいいやろという感じ

イラスト90枚のセットで,縮小に平均画素法を使ったときの平均PSNRが
既存: 36.74, 新: 37.07
縮小にLanczosを使った時が
既存: 36.76, 新: 37.25
で平均も既存よりは良くなっている
処理速度も2.4倍くらい速い
対応方法はこれでいいと思うので,
あとちょっと調節するのとノイズ除去付きも試してみてよければ追加で
ウェブの方は新モデルで置き換えることはほぼ決まりです
2016/06/02(木) 10:53:32.12ID:oNKZhMTS0
>>74
レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数のことで
>フィルタを小さくし、階層を深くする
これはVGG Netなどの3x3畳み込みを何度も繰り返すネットワークで
waifu2xは元からこれをベースにしています.
また1x1畳み込み以外だとレイヤを増やすと参照範囲も広がります.
フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず
2016/06/02(木) 10:56:14.63ID:8dS/92/Ma
>>76
お疲れ様です。
悪いパターンを自動生成して学習ですか。
それはよさそうですね。
確かにこういうコントラスト比の高く境界面の差が大きい画像を集中的に取り込んでおくのはいいと思います。
(そういう意味では影絵もいいのか?)
期待しております。
2016/06/02(木) 11:00:59.96ID:8dS/92/Ma
>>77
入れ違った・・・
解説ありがとうございます。

>レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数
ということは、演算回数を利用者が任意に変更できるようになると、
・回数を減らして時間短縮(精度は落ちる)
・回数を増やして精度向上(時間はかかるが、1日でも2日でもバッチコーイならば・・・)
とかできるといいかもしれないなと思いました。

>フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず
それは素晴らしい。

結果を楽しみにしておきます。
2016/06/02(木) 20:21:59.49ID:pnTBbeI40
>>76
おお!
お疲れ様です
上で出てたアニメの輪郭線などは改善されそうですか?
2016/06/02(木) 23:11:39.30ID:oNKZhMTS0
今の感じだとアニメは拡大後の理想される線の質がイラストと違うので
イラストで学習しているとダメだと思います
写真モデルを使えば無難な結果になると思うけど
2016/06/03(金) 07:56:07.56ID:wf71obz2d
やっぱり輪郭線は直らないのか…
そこ期待してたのにだけにちょっと残念だ
2016/06/03(金) 08:07:32.57ID:W5n/SZaca
写真モデルで試してと書かれていると思いますが…
写真モデル+TTL+新バージョンの組合せで、どれだけ改善されるか次第かと。
2016/06/04(土) 10:43:26.24ID:LR9p0GeB0
本家、もしかしてもう新バージョンに変わった?
2016/06/05(日) 00:04:39.84ID:Tj8OObVD0
いいえ
2016/06/06(月) 21:11:13.67ID:mne5Rlul00606
モノクロ写真をアップすると……? 「人工知能で白黒写真をカラーに」を試せるWebサービス
ディープラーニングを応用し、白黒写真を自然な色味に彩色する手法をブラウザ上で実行できるWebサービスが公開された。
http://www.itmedia.co.jp/news/articles/1606/06/news131.html
2016/06/07(火) 01:06:02.01ID:TrYKmBlx0
>>86
へー、これもローカルで動くやつ誰か作らないかな(他力本願
2016/06/07(火) 09:35:28.02ID:AUEYrNINa
>>86
学習データが偏っているんだろうけど、黄色あたりが不自然なんだよな、これ。
もっと学習データ増やさないと。
ディープラーニング関係の資料を見ていて思うのは、学習データがキモであるにも関わらず、学習するのに時間がかかるせいか妙に学習データの数が少ないなと思うケースがしばしばあるように思う。
ある程度の正確性を求めたければ少なくとも10000以上は学習しないと話にならないのに。
2016/06/07(火) 10:08:31.94ID:nWqCN5140
例えばこういう植物とかは緑になる
https://sociorocketnews.files.wordpress.com/2013/11/24142124124.jpg
http://blog-imgs-57.fc2.com/c/h/a/chariome/20131112223957f20.jpg
http://www.fmsaga.co.jp/blog/uploads/NCM_2635.JPG
http://www.fmsaga.co.jp/blog/uploads/NCM_2636.JPG
2016/06/07(火) 15:34:59.10ID:pCuPD5oYp
ぼっさん
2016/06/11(土) 15:38:17.09ID:rLStxyFWa
いよいよ作者氏が本気出す時が来たようだ。
https://twitter.com/ultraistter/status/741488649884164096?lang=ja

ところで、GTX 1080 1枚 VS RX480 2枚で話題になった例の件、waifu2xの場合はやはりGTX 1080 1枚のほうがいいんだよね?
2016/06/11(土) 19:45:42.62ID:3Rvur7wT0
新モデル+GTX 1080だと640x480->1024x768のノイズ除去+2xが560msくらいでできています
あとGPUの違いなのかcuDNN v5+CUDA 8.0か分からないけど
以前試したら異常に遅かったWinogradという3x3畳み込みを速くするアルゴリズムが
速くなってて,現verも950msくらいで処理できています.
(以前は,新モデルのほうが3倍くらい速かったので差がかなり縮んだ)
AWS EC2のGPU+現verだと3700msくらいで,このGPUはGTX 760と同じくらいの性能です.
2016/06/11(土) 19:59:19.46ID:3Rvur7wT0
>640x480->1024x768
640x480->1280x960に訂正
2016/06/11(土) 20:27:45.11ID:qniHE9xy0
ベンチマークというか単純に自PCのショボさを比較したいのですが
皆で共通に使える適当な画像(画像群)ってどこかにあったりしますか?

R18にならない程度の2次で(ココ重要
2016/06/11(土) 20:45:50.92ID:rLStxyFWa
>>92
お疲れ様です。
GTX 1080導入、おめでとうございます。
アルゴリズムによって速度が変わるとのことですが、画質が変わったりはしないのでしょうか?
遅いけど高画質なアルゴリズムとかあるのかなと。
あと、二段階超解像ってできないかなと思ったりしてるのですが。
つまり、
1回目:今まで通りの超解像による拡大
2回目:1回目でできた拡大画像と元の画像を比較して、再度超解像効果を手直し
みたいな。
元画像と拡大画像を見比べて、「もっとここ手直しできる」というところを再調整とでもいうのか。
この2回目だけの処理だけ活用すると、元画像を拡大せずに解像感や輪郭まわりの再現性向上にも使えますだとなおうれしいんですが。
2016/06/11(土) 21:06:09.55ID:3Rvur7wT0
>>94
速度についてなら画像のサイズとチャンネル数(RGBか透過を持っているか)だけ合わせれば
画像の内容はほとんど関係ないと思います
>>95
変わりません
やりません
ただすごく変になった時/ところを検出できると便利とは思います
2016/06/11(土) 21:22:18.30ID:rLStxyFWa
>>96
アルゴリズムによる画質の変化はないんですね。
すごく変になったところを検出→フィードバック→再調整
ができればいいですね。
2016/06/11(土) 22:26:00.73ID:+7f02WYI0
>>96
なるほど、てっきり線が多様でノイズの多い複雑だけど低画質なものが
加速度的に必要時間が増えていくものだと思ってました

開発、陰ながら応援しています
2016/06/11(土) 23:05:53.70ID:nlOtB76kd
560msって早すぎやろ!
waifu2xで動画エンコしてるけどかなり短縮されそうでワクワクだわ
俺もPascal買おうかなぁ
2016/06/12(日) 11:32:13.03ID:068lTRES0
新モデルが待ち遠しいな…
完成までまだ時間掛かりそうですか?
2016/06/12(日) 12:56:41.65ID:KlXasCVu0
ノイズ除去付き拡大もうまくいっているので
たぶんもう学習処理回すだけです
イラストは明日には全部学習終わります
あと写真、Yモデルの再学習に4日つづくくらいかかる
ちなみに現在のモデルも使えるようにしているので追加という形になります
ウェブ版はGPUメモリの関係で全部のモデル読めないので置き換えますが
ベンチマーク的には結構スコアが上がっているけど
パッと見でわかるほどの違いはないと思います
2016/06/12(日) 13:07:19.18ID:068lTRES0
>>101
思ったより完成が早いですね、お疲れ様です!
新バージョンは処理は早いけど精度(輪郭線や境界線等)はあまり変わらないということでしょうか?
2016/06/12(日) 13:19:55.61ID:b/8HpM7e0
ノイズ除去がYからRGBになったときはサンプルの画像挙げて変化を説明してたはず
画像出さずにPSNRの数値だけ出すのは人間の目から見てそう変化がないからだろう多分
2016/06/12(日) 13:25:17.47ID:b/8HpM7e0
サンプル出してたの別の人だったかも、うろ覚え(汗
2016/06/12(日) 14:42:39.03ID:KlXasCVu0
>>103
2枚重ねてみると、ところどころ違いがあるは分かりますけど
黙って置き換えても誰も気づかないのではないかという不安はあります
なんとなく違和感が減った気はするけどプラシーボかもしれない
PSNR的には結構良くなっているので、よくなっているのは確かだと思いますが説得力はないです
明日か明後日くらいにウェブの方イラストだけ置き換えようと思うので
気になる画像を持っている方はそのときに試してみてください
2016/06/12(日) 15:47:23.38ID:KlXasCVu0
やっぱ置き換えではなくてお試し用サーバー1台用意します。
もともと今のウェブ版はそういうものだけど、
もう普通のウェブサービスになってしまっていて置き換えるのに勇気がいるので。
それならTTAも使えるようにできます。(遅いのは仕方がないねということで)
2016/06/12(日) 16:01:03.81ID:068lTRES0
>>105
写真モデルを用いても>>39のような輪郭線を綺麗にするのは難しいでしょうか?
2016/06/12(日) 17:23:59.21ID:sb1XFNmOa
>>101
いよいよですね。
期待してます。
>>106
サーバーを別途確保されるんですか?

お試し機能以外、サーバーでのサービスは、そろそろ有料化されたほうがいいんじゃないでしょうか?
ネットサービスは無料が当たり前という風潮がいまだにありますが、当たり前じゃないんだということを理解させることも大事だと思います。
(お試し機能も1人が専有し続けないような制限を設けたほうがいいと思います。)

別件で、かねてからの「溶ける」件、対処療法ではあるのですが、対策になりそうな方法を発見しました。
1週間ほど時間が取れないので、それ以降に検証してみる予定です。
2016/06/13(月) 00:47:21.31ID:X831nMGS0
>>107
元画像があれば見ておきますが。
写真はまだやっていないので分からないですが
イラストはそれほど変わっていないのであまり期待できないと思います。
ちなみにこれはイラストでノイズ除去2してますよね...?
2016/06/13(月) 01:59:20.36ID:grDqBPChd
>>109
>>39の画像上げた者です
画像のは704*396→1920*1080に拡大ノイズ除去2したものです
残念ながら今は元画像がないです…
2016/06/13(月) 18:17:31.84ID:X831nMGS0
http://waifu2x-dev.udp.jp/
で新モデル試せるようにしています
拡大とノイズ除去+拡大が変わっています.ノイズ除去のみは同じです.
自分で見た感じだと,拡大はそれほど違いはないし問題もないように思うけど
ノイズ除去が入ると,強弱が以前よりはっきり出ていて
いい時はいいけど,ノイズが強い時に線の太さが不安定になっているように思います.
なにか思うことがあれば書いていただくと対応できるかもしれません.
ベンチマーク結果は
https://github.com/nagadomi/waifu2x/blob/upconv/appendix/vgg_7_vs_upconv_7_art.md
にあります.ベンチマーク的には全部良くなっています.
2016/06/13(月) 18:21:32.55ID:X831nMGS0
やっぱりYUV 420のJPEGでやったほうがいいのかなと思い始めました.
現実のJPEGはほとんどがYUV 420で学習時にYUV 444しか見ていないので.
今は色が変わるのでやっていないのですが,選択できるようにするかもしれません.
2016/06/14(火) 02:01:47.66ID:LX3lI3W3d
新バージョン、凄く速度が上がってますね
でも、輪郭線は正直微妙かなぁ
良くなってるところもあるけど、悪くなってるところも結構あったりする
こればっかりはしょうがないですね
2016/06/14(火) 02:19:04.81ID:LX3lI3W3d
あ、間違えて旧版の写真モデルと比較してた
イラスト同士で見比べてみたけど、違いが全然わからんw
ただ、処理速度は格段に早くなってる
2016/06/14(火) 10:39:33.36ID:FTpBbaqf0
YUV420/YUV444半分づつで学習したら
入力YUV444時のスコアほとんど下げずに
入力YUV420時のスコアがっつり上げれる感じだったので
もうノイズ除去もこれに置き換えようと思います.
もともとJPEGの色のノイズ等も消しているし,色以前に細部が消えたりしているので
色がちょっと変わるリスクなんていまさらだよね...?
平均的には良くなるし,いくらか試すと線の境界などで色が濁ってるが結構直ってる.
2016/06/14(火) 11:21:07.53ID:cuCffqFAa
>>111
お疲れ様です。
早速試させていただきました。
イラストモデルのみではありますが試したところ、以前に比べて少し溶けにくくはなったような気もします(特に4倍以上にした場合)
なお、>>108にて書いた対処療法をすこし時間があったのでやってみました。
(結果は下記にてダウンロード可。明日の23時59分までの限定です。解説はテキストファイルに書いてあります。)
http://www1.axfc.net/u/3679593
写真モデルでやるとどうなるか、あるいはもうすこし小細工するかも含めて検討中です。

>>112
YUV 420モデル(イラスト・写真それぞれ)があれば、一種の色超解像的効果が期待できるので、圧縮画像には特に効用が見込めると思います。
期待しております。
2016/06/14(火) 12:09:55.28ID:cuCffqFAa
>>116の画像を若干手直ししました。
http://www1.axfc.net/u/3679606
この方がいいかも。
2016/06/14(火) 12:26:29.32ID:cuCffqFAa
あらかじめNNEDI3で拡大する前に、GIMPでアンシャープマスクを+0.10程度かけておいてからNNEDI3で拡大→縮小→waifu2x→再度GIMPにてコントラストとアンシャープで微調整のほうが細部の情報が残りやすいみたい。
アップする時間がなくなったので今日はここまで。
2016/06/14(火) 18:07:05.51ID:cuCffqFAa
移動中に報告
NNEDI3を使って、圧縮画像によく見受けられる輪郭周りのノイズを除去して溶ける症状を抑える件、もっと手間を少なくかつNNEDI3を使うことによる副作用である
ボケる点を克服できそうな方法を見つけたかも。
古いソフトウェアなのだが「ノイズクリーナー2」というソフトをカスタマイズ設定にして極々微量のノイズ除去を行ってからwaifu2xで拡大するといくぶん溶けにくい。
ただし、設定の落としどころが難しい。
2016/06/14(火) 22:53:23.00ID:12Iwj2O80
imagemagickのコマンド、7になってから変わったの今初めて気づいた...
2016/06/15(水) 01:45:09.31ID:aj7H3zSR0
アンシャープマスクよりボケずに済む方法を試してみました。
(テキストファイルに開設あり)
http://www1.axfc.net/u/3679934

寝ます
2016/06/15(水) 12:07:14.79ID:6gcbBuvXa
NNIDI3による前処理などいろいろ試した結果、

1.waifu2xは拡大する前に輪郭に作用しやすいノイズフィルターをあらかじめ適用しておくと、拡大した画像が溶けにくい。
2.NNEDI3は輪郭線に強く作用するフィルターのため、縮小後の画像にもその作用が強く残り、結果として輪郭ノイズ低減フィルターのような作用をもたらしている。
3.ただし、NNEDI3は面などの細かい情報もそぎ落としてしまいやすく、全体的にボケやすいため、そのままでは使いにくい。
4.面部分には作用せず、輪郭にのみ作用するフィルターがあれば理想的。waifu2xのノイズ除去(中)も試してみたが、waifu2xのノイズ除去は中でも強すぎるためこれも使いにくい。
(元画像とwaifu2xでノイズ除去した画像を合成してノイズ除去の強度を調整することはできるかもしれないが、合成度合をコントロールしながら合成できるような都合のいいソフトがあるのかどうか・・・)

もうあとは、この輪郭のノイズを制圧できさえすれば完成すると思われるだけに、何かいい方法があればと思うのだけど。
2016/06/15(水) 12:46:21.17ID:p6o2+4CV0
単純にTotalVariationで分離してから掛けろよ
2016/06/15(水) 14:57:07.20ID:6gcbBuvXa
>>123
これのこと?
http://convexbrain.osdn.jp/cgi-bin/wifky.pl?p=TV-Denoising
ものすごく画像が甘くなってるんだが・・・
waifu2xの比じゃないよ、これ。
2016/06/15(水) 15:01:46.27ID:6WWfghFId
俺はエッジレベル調整使ってる
2016/06/15(水) 15:25:03.46ID:6gcbBuvXa
>>125
エッジレベル調整は輪郭のコントラストを無理やり強調しているだけだから、ノイズそのものは残っている状態なわけで、根本的な解決にならないかと。
こんなんだし。
http://aviutl.info/sharp/
2016/06/15(水) 16:31:22.20ID:JEuKL93L0
アニメの輪郭線に入っているノイズがイラストでは見ないパターンでうまくいかないので
そのあたりをイラストっぽい方に寄せることができればマシになるということだと思います.

古いアニメにある輪郭線まわりのノイズがソフトウェアで再現できるなら対応もできるのですが
どこで入ってくる何のノイズなんでしょうか.
2016/06/15(水) 17:00:29.10ID:6gcbBuvXa
>>127
たぶん圧縮画像特有のノイズだと思います。
圧縮画像は目につきにくい暗い部分の階調表現を大胆に間引いてしまいがちですので(攻殻機動隊のエンコードを担当した人が、かつてDVDの時代にとても苦労されていることを語られていましたし)、
暗部の多い圧縮画像を集中的にとりこんでモデルデータを作られるといいのかもしれません。
あるいは暗部の多い圧縮画像の割合の多いモデルデータを暗部ノイズ対策専用の前処理専用モデルとして用意して、事前に弱く(ここ重要!!)適用できるようにされるといいかもしれません。
ついでに現行のノイズ除去の強度ももっと弱いタイプを二段階ほど(最弱は中の1/3以下の強度!)用意して頂きたいとも思います。
(モデルデータを変えずに参照範囲を狭めるとかでの対応でも結構ですので)
2016/06/15(水) 17:20:59.49ID:JEuKL93L0
>>128
圧縮画像というのは具合的にどんな圧縮なんでしょうか.
TV用の当時のエンコーダがあってその癖なんでしょうか.
現在のJPEGノイズ除去の弱いバージョンはすぐ作れますが
動画を対象とするなら,動画用のエンコーダを使って
正しいデータセットを作るほうがいいと考えています.
ソフトウェアで再現が難しいなら,HDリマスタとその前のバージョンDVD?を買ってきて
フレームの位置合わせができるなら,そこから変換の対応関係を作るでもいいと思っています.
エンコの設定?とかできるならそれが一番いいですが.
2016/06/15(水) 17:48:43.36ID:JEuKL93L0
今考えている動画の対応は,
- イラストに窓をつけて適当な速度で平行移動・回転したりをフレームとして切り出す
- 動画にエンコ(同時に1/2に縮小)
- エンコ後からまたフレームに分割して元画像への変換を学習する
ということです.
変換先がイラストになるのでアニメとはちょっと違う質感になるかもしれませんが
アニメの"元画像"って手に入らないと思うのと,
これだと作るのは簡単なので妥協点としていいのではと思っています.
他にはMMDから動画を作るとかですけど,これもシェーダーのクセを再現してしまうと思うので
たぶんイラストのほうがバリエーションが多くてよいです.

今すぐにやるという話ではなく,今やっている対応が終ったら
いまのところCNN超解像として改良できる部分はすべて終わるので
動画について色々言われるならそこでもやろうかなというレベルの話ですが.
2016/06/15(水) 18:09:19.82ID:6WWfghFId
>>130
何のこっちゃよくわかりませんが、凄く期待してます
2016/06/15(水) 18:10:55.45ID:6gcbBuvXa
圧縮画像のノイズの件、夜になりますがコメントします。
(今時間がないので)
2016/06/15(水) 22:19:16.48ID:iLIvxjAw0
いわゆるHDリマスターは解像度やエンコードだけでなく映像自体も違うことがあるから
比較対象としてはBDとDVDが同時発売のものじゃないかな
海外版との比較だと同解像度のビットレート違いなんてのもあるかも

アニメと一口に言っても輪郭の特徴がそんなに多くの作品に共通してるかは疑問だけど
2016/06/16(木) 02:12:13.44ID:8MOB+ifY0
やっと帰宅できた・・
すみません、気力が持たないので昼以降に改めてコメントします。
限界
2016/06/16(木) 04:06:54.85ID:10TNdGfw0
体壊さない程度にがんばってくれ
2016/06/16(木) 17:17:40.41ID:dOR2VLG8a
今日初めて写真の拡大に利用させてもらいましたが凄い技術ですね。
応援しています!頑張ってください!
2016/06/16(木) 18:24:55.57ID:ipCAAVq1a
>>129
昨日疲れすぎてコメントできなかった圧縮ノイズについてですがコメントしておきます。
まず下記サイトを参照ください。
http://www.asahi-net.or.jp/~ax2s-kmtn/ref/jpeg.html

このサイトの一番下部の画像を見るとわかりやすいかと思いますが、建物の輪郭周りに本来であれば存在しない種々のノイズがまとわりついているのがお分かりいただけると思いますが、
こういったノイズが輪郭周りに細かくまとわりついている画像をwaifu2xにて拡大すると、輪郭などが溶けやすくなっています。
NNEID3によってあらかじめこのような輪郭にまとわりつきやすいノイズを滑らかにしておくと、waifu2xにて拡大時に溶けにくくなっているのは先日実証した通りです。

このため、もしこのようなノイズ専用の対策フィルターを作るのであれば、JPEGなどの非可逆圧縮をしていない画像を複数用意し、その画像をJPEGにて高圧縮し、わざと輪郭などにノイズが出ている画像(画像サイズは等倍でよい)を作成し、
圧縮前と圧縮後の画像をディープラーニングによって学習させれば、圧縮ノイズ対策にはなるでしょうけれど、それは結局現行のノイズ除去と考えとしてはそう大差ないかなとも思います。

とするならば、やはり前回にお伝えした通り、今よりもっとノイズ除去強度の弱いフィルターをまずは用意すること、そしてその先の展開としては、その弱いフィルターを輪郭と認識される部分のみに適用できるようなオプションを用意できればなお良いかと思います。
(オプションを有効にすると輪郭のみに適用、無効にすると画像全体に適用、ノイズ除去強度は、「最弱(中の1/3か1/4程度の強度)、弱(中の1/2程度の強度)、中、強、最強」の5段階あたり?)
輪郭の認識手法については、AviUtlなどのフィルターである「エッジレベル調整MT」の輪郭検出手法あたりでよいのかなと思います。
2016/06/16(木) 18:25:35.35ID:ipCAAVq1a
続き
エッジレベル調整MTの参考
http://aviutl.info/sharp/
http://aviutl.info/wp-content/uploads/20160220-020557-553.jpg

あるいは別の考え方としてですが、NNEDI3の輪郭に作用する部分だけをインスパイアした輪郭ノイズ除去フィルターを作れるならば作ってほしいという考え方もありますが・・・
参考
https://github.com/MaverickTse/AviUtlInstaller/blob/master/deinterlace_plugin/nnedi3/jp/nnedi3.txt
(それが可能であるならば、AviUtlを通さずに済むため、RGB→YUV→RGBの変換ロスを気にしなくて済むのと、16bit画像なども直接扱えるようになるので大変ありがたいのですが)

昨日お話ししていた圧縮画像の暗部の階調情報の大幅な簡略化をわかりやすく示す画像が探した範囲でなかったのですが、これは大面積部については通常のwaifu2xのノイズ除去でも対応できる範疇かと思いますので、ひとまず置いておきましょう。

ちなみに上記の件より、今のところ動画用に別途のノイズ対策(一つの画像に小さな窓を設定してスライドなど含む)は今のところしなくても大丈夫かと思います。
(動画の圧縮率の高い状況で輪郭周りに一番除去しにくいノイズがあるのはH.264で圧縮した画像ではありますが)
2016/06/16(木) 18:44:15.78ID:DV2OC3cTa
上記のことを書いてから気づいたのですが、ひょっとすると拡大前にGIMPの「選択的ガウスぼかし」を超絶的に最弱で適用してから拡大すればいけるかも・・・
2016/06/16(木) 19:52:56.77ID:DV2OC3cTa
「選択的ガウスぼかし」でいけたかもしんまい・・・
試しにアップしてみた
http://www1.axfc.net/u/3680573

いや、この延長で行くならばバイラテラルフィルターを極微量適用のほうがよりダメージは少ないかも?
2016/06/16(木) 20:52:17.87ID:zGfIcyp20
NL-MeansやBilateral等のエッジ保存ノイズフィルタをかけたのが骨格成分
それと原画との差分がテクスチャ成分で多くの種類のノイズ含む微小変化分
高性能に分離するのがTotal Variationフィルタ

骨格だけwaifu2xでテクスチャ成分はLanczos3で後で適量を合成すればいい
暗部はガンマ補正して暗部の輝度差を広げたのを処理して逆ガンマで戻して
通常ガンマの画像と合成
こんなんでどうだ?
2016/06/17(金) 10:45:07.16ID:uiYIwWPv0
YUV420 JPEGで学習すると線もきれいになった気がするので
JPEG画像についてはJPEGノイズの種類が適切でなかったのもあるかもしれないです.
印象も色の濁りが減って良くなったように思うんですが
それはつまり色が変わっていることなんですが...
来週くらいに-devのほうはYUV420対応に置き換えます.
現verのノイズ除去も同じ教師データで学習したものに置き換えようと考えています.
(拡大時だけノイズ除去のかかり方が違うと混乱を生むと思うので)
2016/06/17(金) 12:24:23.88ID:uiYIwWPv0
エッジ周りのノイズを取るのは, バイラテラルとは逆の重みだと思うんですけど"周り"だとそうなんでしょうか.
エッジ用の重みのマスクを作って合成するのが簡単じゃないかと思います.
自分としては,データセットを泥臭くいじったりはあっても
データを用意したあとは最適化問題としてやるのがいいと思っているのと
手でごちゃごちゃってもさまざまなパターン(さまざま例外を含む)を考えると
平均的な精度で機械学習に勝つことはできないと思っているので前処理や後処理をやる気はないです.
弱いノイズ除去は用意できます.
2016/06/17(金) 12:25:21.08ID:egwY+yyva
>>142
お疲れ様です。
420、やはり効果ありましたか。
となると、やはり元が非可逆圧縮している画像→420モデル、元が可逆圧縮か非圧縮画像(444の状態)であれば444モデルと選択できるといいのかもしれないですね。

こちらでも非線形フィルターなど含めいろいろテストしてみたのですが、ある程度のところまではいくものの、やはり根本的にはイラスト用モデルで試していることの限界もあり、これで文句なしというところまではいかなかったので。
420モデルの写真用が使えるようになるとおそらく前処理に関しては非線形フィルターでもなんとかなるかなとは思うのですが。
(もちろんwaifu2xのノイズ除去に最弱があればその方がいいと思いますが)
2016/06/17(金) 12:29:24.44ID:egwY+yyva
>>143
入れ違った。
私も合成するよりはディープラーニングの判断に任せる方がいいとおもいます。
最弱フィルター、お待ちしております。
2016/06/17(金) 12:34:06.52ID:uiYIwWPv0
人はエッジ周りが変になっていることに敏感なので
損失関数でエッジ周りの重みを上げるとかは全然いいのかなと思ったけど
もうやっているんですよね. .
そういうことも考えるともうほとんど手動調節やなという気もする
2016/06/17(金) 13:01:39.74ID:egwY+yyva
>>146
損失関数でエッヂ周りの重みをとはどういうことなんでしょうか?
私はとりあえずGIMPとAviUtlのフィルターを複数試している程度なので、上記の件がどのフィルターの作用なのかよくわからないですが(滝汗…)

いずれにしても、もう一息のところまでは来ているかなと思います。
2016/06/18(土) 12:14:20.27ID:qBjQF52o0
caffeの作者さんにファイル名についてお願い、と言うか要望があるのですが、例えば元ファイル名が
 img.jpg
のものをRGBモデル、ノイズ除去レベル1、拡大倍率x2.000000、で処理した場合
 img(RGB)(noise_scale)(Level1)(x2.000000).png
のようになるかと思いますが、これを例えば
 img-RGB_nsLv1_x2.0.png
のようになるべく短いファイル名になるようにしたいのです
リネームソフトの手間もなくなりますし
簡潔に言うと、RGB・Photoなどのモデル、レベル、倍率にそれぞれ自分好みのネーム設定ができたらいいなと
2016/06/19(日) 12:44:00.16ID:5d2T2vgy0
それもまたきりのない話だな
そのうち小数点以下何桁までで丸め方のルールは〜とか設定したくなるかもしれない
2016/06/19(日) 14:27:28.71ID:B8m/ESUS0
出力ファイル名を
{ORIGINAL_FILENAME}_{NOISE_LEVEL}_{SEQUENCE_NO;%06d}.png
みたいなフォーマットで指定できればいい話ではあると思うけど
2016/06/19(日) 18:26:21.66ID:JdLEHa3u0
下手な実装するとバッフオーバーフローの脆弱性持ちそうだな
2016/06/20(月) 01:51:15.15ID:Q6Azk7Sq0
各項目対象に文字数制限は必要ね
2016/06/20(月) 18:24:37.59ID:OxeSzmHe0
http://waifu2x-dev.udp.jp/ のノイズ除去をYUV420 JPEG対応に置き換えています。
試していないですが、ノイズ除去だけはソフト版にも持っていけると思います。
https://github.com/nagadomi/waifu2x/tree/upconv/models/vgg_7/art
2016/06/20(月) 19:50:44.69ID:F1cC+6iua
>>153
お疲れ様です。
ノイズ除去更新、了解です。
ところでノイズ除去の最弱と弱は、まだ時間かかりそうでしょうか?
2016/06/20(月) 21:10:41.84ID:OxeSzmHe0
>>154
写真の学習を先にやっててこれが1週間くらいかかると思うのでその後になります

今ノイズレベル1〜3なので、0に追加しようと思っています。
ノイズ1でも対象とするJPEGの品質65〜85で確かに強いかなと思うので。
80〜95くらいのやつを入れます。
2016/06/20(月) 21:47:03.21ID:F1cC+6iua
>>155
よろしくお願いします。
2016/06/24(金) 00:16:13.19ID:Tj0Yx6nv0
w2xcは対応してくれないのかな
caffeでエンコとかやったことないから困る
2016/06/24(金) 05:19:48.84ID:1pQApire0
>>157
https://github.com/HomeOfVapourSynthEvolution/VapourSynth-Waifu2x-caffe

caffeでエンコードするこういうのもあるみたい。導入がちょっと面倒くさいが。
2016/06/26(日) 12:28:20.99ID:qPmlSzrmM
写真だとノイズ除去がイマイチなんで、waifuで拡大だけやって
Neat Imageでノイズ除去するという使い方させてもらってます
最新のV8は白ボケをどう直したらいいのか分からないので古いV7.6使ってる
2016/06/26(日) 21:25:04.12ID:KxHEnHfza
ディープラーニングについて、NHK-Eテレにて今夜23時30分よりサイエンスZEROにて放送
161名無しさん@お腹いっぱい。 (ワッチョイ b7e2-jO4j)
垢版 |
2016/06/28(火) 23:31:12.36ID:YVu6qt8i0
サイトが見れない?
2016/06/29(水) 00:50:43.91ID:VaEWzwoya
私もサイトが表示されないですね…。(´・ω・`)
163名無しさん@お腹いっぱい。 (ワッチョイ dbb7-o//t)
垢版 |
2016/06/29(水) 02:23:18.17ID:f5M/bR6F0
waifu2xって画像縮小できないの?
2016/06/29(水) 02:26:53.26ID:Lar04yff0
こーひーできるだろ
2016/06/29(水) 05:58:30.93ID:1ZU+/ZGG0
つかえないんやが
2016/06/29(水) 14:07:06.67ID:VaEWzwoyaNIKU
お、サイト繋がった!良かった
2016/06/29(水) 17:54:31.19ID:CAYY+cjmMNIKU
落ちてるぞ、ウチ32Bit環境やから困るわ
2016/06/29(水) 18:30:58.55ID:ShnTKE5+0NIKU
俺も繋がらない
2016/06/29(水) 22:10:41.75ID:CAYY+cjmMNIKU
NHK クロ現でノイズ除去やってる
2016/06/30(木) 12:16:44.06ID:Cb9/jtjmM
ワイフ生き返った
2016/07/01(金) 02:09:40.55ID:5LM7wvfF0
超解像って単に拡大してシャープフィルタかけたのとは違うよね…?
2016/07/01(金) 09:40:15.03ID:h5/8p4PQa
全く違います
2016/07/01(金) 10:10:53.84ID:M34jK4ST0
コンピュータが2種類の拡大結果を提案してユーザーがキレイだと思ったほうを選んでいく。その結果を蓄積してく。みたいにやったらだんだん画像はキレイになってくの?
2016/07/01(金) 10:29:17.86ID:uGgAQSA00
>>171 >>173
「元画像」と「元画像にノイズを添加したもの」、もしくは「元画像」と「元画像を1/2に縮小したもの」に対し、
後者から前者を作成できるように機械学習させたのがwaifu2x
2016/07/01(金) 16:33:57.22ID:G/tSW9oqM
Neat Imageのコミュニティに入った
http://i.imgur.com/ZlmZtHz.jpg
2016/07/01(金) 16:58:14.36ID:u6NBrYfw0
>>174
その変換をどういうフィルタをかければよくできるかをデータから決めてる感じですね。
シャープ
177名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX)
垢版 |
2016/07/01(金) 16:59:01.87ID:u6NBrYfw0
>>174
その変換をどういうフィルタをかければよくできるかをデータから決めてる感じですね。
シャープすぎることがあるのは、1/2縮小時にボケることの副作用の気がしていて
もっとよい縮小アルゴリズムが求められている。
>Neat Image
写真はJPEGノイズよりもカメラの高感度ノイズのほうが一般向けに需要がありそうなんですよね。
自分も写真のデータセットを作るときにセンサに由来すると思われるノイズが取れなくて結局縮小してしまったし。
2016/07/01(金) 17:39:27.23ID:WhtBr2UD0
つい最近ソフトの存在を知ったのだが、作者は何者?
2016/07/01(金) 17:41:57.50ID:G/tSW9oqM
>>177
アナログをスキャナで取り込む時も同じではないでしょうか
とりあえずサンプル貼っときますね、撮影は1989年頃
http://i.imgur.com/WIFzEKU.jpg
http://i.imgur.com/d65jMq4.jpg
2016/07/01(金) 19:59:48.62ID:lQ0BYCYQ0
これ比較する時って、補完無しで同率拡大した画像とで比べたほうが判りやすいよね 多分
181名無しさん@お腹いっぱい。 (ワイモマー MMcd-R7o+)
垢版 |
2016/07/01(金) 23:08:12.50ID:G/tSW9oqM
フル画面表示した時の画質の違いでおk
2016/07/02(土) 01:42:19.02ID:M9jj+JKN0
それだとドでかい画像の場合縮小表示しちゃうんじゃね
2016/07/02(土) 20:17:17.05ID:Js2/0ggxa
Olympus viewerの様なデジカメや一眼レフカメラに付属しているソフトとwaifu2x-caffeと比べたら細かい部分を拡大する時どちらが優れていますか?
2016/07/02(土) 20:28:02.40ID:60Js3xoy0
市販のやつが一番
2016/07/02(土) 23:41:57.11ID:TF/iwvGYa
>>184
ありがとうございます。
2016/07/03(日) 23:32:02.98ID:wVW5bsnw0
waifu2x-caffe ver 1.1.4
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.4

upconvモデルに対応
変換に使用するGPUデバイスを指定できるようにした
コマンドライン版の出力ファイル名自動生成の規則をGUI版と揃えた
かなり中身を書き直した関係でメモリ不足対策が無効になった
2016/07/04(月) 00:53:04.84ID:16kM987e0
1.1.4
今まで問題のなかった batch_size 指定で
waifu2x-caffe-cui.exe -b 4 -i kore.jpg

waifu2x-caffe-cui.exe --batch_size 4 -i kore.jpg
だとエラー吐いて失敗するようになった

waifu2x-caffe-cui.exe -b=4 -i kore.jpg

waifu2x-caffe-cui.exe --batch_size=4 -i kore.jpg
のように = で指定するとエラーにならず変換は問題ないっぽいけど
-c asdf だとusage表示、 -c=asdf や -b=qwer とかで変換は成功するので
= でつなぐと batch_size 指定が無視されてるだけ?

エラーメッセージは下のような感じ
Could not create log file: File exists
COULD NOT CREATE LOGFILE '20160704-004037.8712'!
F0704 00:40:37.079417 6000 math_functions.cpp:92] Check failed: error == cudaSuccess (11 vs. 0) invalid argument
*** Check failure stack trace: ***
2016/07/04(月) 10:40:14.99ID:gZoKUAJa0
好きな写真をいろんなタッチに自動で加工してくれる「deepart.io」
http://gigazine.net/news/20160703-deepart-io/

どんな写真が作れるのかは以下のページを見ると分かります。
Selected latest deeparts
https://deepart.io/latest/
http://i.gzn.jp/img/2016/07/03/deepart-io/snap.png
2016/07/04(月) 18:22:16.94ID:eTmRTPxcd
>>186
更新お疲れ様です
本家のdev版では写真のほうも追加されてますが
もしかしてそちらの更新も追加されているんでしょうか
2016/07/04(月) 23:32:53.22ID:jkv2bR2s0
>>186
upconvは文字の潰れが少なくて良いです
2016/07/04(月) 23:40:18.55ID:NcDz8yAM0
紛らわしいかもしれないけど自分は更新情報を書き込んでるだけで作者じゃないよ
2016/07/05(火) 00:02:07.39ID:0Z3aC8fN0
waifu2x-caffe upconvの速度はどんな感じです?
caffeはDeconvolutionがcuDNN対応していないのと
cuDNNもforward algorithmの自動選択が微妙で
Torch版ほどの差は出ていないのではと思うので気になっています。
2016/07/05(火) 02:47:19.53ID:y52RVxO/0
>>186
公開ありがとうございます
ver.1132までは問題なく使えておりましたが、今回verでは実行ボタンを押すと同時に落ちます
win7pro 64bitのノートでCPU動作です
対策あれば教えてください

以下エラーログです
Log line format: [IWEF]mmdd hh:mm:ss.uuuuuu threadid file:line] msg
E0705 02:40:25.573511 5904 common.cpp:119] Cannot create Cublas handle. Cublas won't be available.
E0705 02:40:25.575511 5904 common.cpp:126] Cannot create Curand generator. Curand won't be available.
2016/07/05(火) 03:08:52.96ID:0Z3aC8fN0
CUDAのライブラリがないと言っているので
CPU選択時にGPU使おうとしているのかな
2016/07/05(火) 23:56:36.64ID:CNSOSSvt0
caffe ver1.1.4で「?かなり中身を書き直した関係でメモリ不足対策が無効になった」ってあるけど
メモリ不足したらどうなんの?
他にも色々不安要素バリバリで更新しないほうがいいのかな
2016/07/07(木) 04:36:12.87ID:2MUOiyuY0
waifu2x-caffe ver 1.1.5
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.5
2016/07/07(木) 06:15:46.59ID:Shbm++tA0
ver1132からver115へ
実行押して1秒ぐらいで終わるって
早すぎませんかね?
後、画質の差はわからないです
マジお疲れ様です
198名無しさん@お腹いっぱい。 (タナボタ Saff-77u/)
垢版 |
2016/07/07(木) 08:46:47.16ID:szfYQdRBa0707
3DCGでIrayなどの物理レンダラーとかだと、ピクセル当たりの
サンプリンが少ないとノイズが残ります。

もしこれを学習させて綺麗に除去出来るなら、レンダリング
演算量の削減が出来るのでCG業界でも需要があるかも?

とりあえずDaz stuzio作成した、95%と100%でサンプリングした
画像を置いておきます。

http://fast-uploader.com/file/7023403027370/
http://fast-uploader.com/file/7023403077217/

waifu 2x でnoise_scale Level1 x2.0 イラスト実行
http://fast-uploader.com/file/7023403811009/



学習用サンプル画像も、無料で物理レンダラーが使えるdaz studio,
blenderなどでGPU使って作成出来るので、余裕が有ればmodelに
3dcgの低サンプリング画像の高画質化modelが欲しいです。

写真の低ISOノイズに近い物があるので、難しいかな?
ノイズ除去フィルタの領域になるか。
2016/07/07(木) 09:05:03.41ID:o2ChrGcQ00707
>>198
先日、ペアの教師データを用意すれば何でも学習できる機能(Universal filter!!)を入れたので
入力画像と理想的な出力画像のペアを用意できるなら試すことはできます。
githubで3DCGで解像度を変えたレンダリング結果を学習して拡大できないかという話がでているのと
自分もBlenderのCyclesレンダーを使っていて、これがサンプリングが少ないとめちゃくちゃノイズが出る上に
GPUを有効にしてもめちゃくちゃ遅くて困っているので試して見るかもしれません。
(ただ学習データ生成に使うレンダリングエンジンのくせに依存する気がする。
 レンダリングエンジンにあまり詳しくないので勘ですが)

写真の低ISOノイズ除去ができないのは、この現象が物理的なもので
コンピュータ上でシミュレートするのが難しく教師データが自動生成できないからで
データさえ用意できれば多分できます。
200名無しさん@お腹いっぱい。 (タナボタ Saff-77u/)
垢版 |
2016/07/07(木) 09:09:21.80ID:szfYQdRBa0707
あと以前AMDのGPU使ってたので、AMDのGPUでも動くとより嬉しい。


AMD、GPGPU向けの取り組み「ボルツマンイニシアチブ」を発表。CUDAとの互換性も提供
http://srad.jp/story/15/11/18/0657225/

> Heterogenous Compute Compiler(HCC)と名付けられた新しいコンパイラはLLVM Clang
> ベースでC++11/14や/C11、OpenMP4.0、そしてC++17で採用予定のParallel STLに対応。
> 1つのコンパイラでCPUとGPUのどちらにも使える。そのためGPU用のカーネルを別のソースに
> 記述する必要はなく、ラムダ式でSTL互換のアルゴリズムに述語引数として渡せばよい。

> Heterogeneous-compute Interface for Portability(HIP)はHCCで利用できるCUDA風のAPI。
> HIPで書かれたソースコードはHCCだけでなく、ヘッダーファイルを加えることでNVIDIAのCUDA向けコンパイラであるNVCCでもコンパイル可能となる。
> 従来のCUDAコードをHIPコードに変換するためのツールも用意されており、これによってHSA環境はソースコードレベルでCUDAとの互換性を有することになる。

使ったことはないけど、CUDAコードをAMD環境用のバイナリにするコンパイラとヘッダが
公開されているので、リコンパイルだけでAMD対応も可能かも知れません。
2016/07/07(木) 10:46:32.57ID:o2ChrGcQ00707
caffeはopenclブランチをAMDの人がやってるみたいなので
そのうち対応するんじゃないかな
2016/07/07(木) 12:40:12.27ID:X0GGd45dd0707
>>196
本家の写真、イラストの新バージョンに対応したの?
2016/07/07(木) 15:29:18.23ID:Jgi4mmBU00707
waifu2x-converter追随しちくりっ
2016/07/07(木) 17:12:02.28ID:N0EeMUi700707
193です
エラー対応ありがとうございました

CPU動作ですと1132とほとんど同じ処理時間でした
同じ画像で比較したら97秒が96秒になりました
GPU買うしかないですね
2016/07/07(木) 17:28:10.64ID:CjnjorT/00707
>>204
こちらでの結果と異なりますね。
UpRGBモデル使っていますか?

画像100枚平均処理時間 2倍拡大のみ CPU使用

caffe ver 1.1.5 RGB 22.43645秒
caffe ver 1.1.5 UpRGB 10.4412秒
w2xc ver 20160101 RGB 7.12312秒
2016/07/07(木) 19:28:52.61ID:N0EeMUi700707
>>205
ありがとうございます
UpRGBモデル使ってませんでした
ノイズ除去ありなしどちらも28秒切るところまで行きました
ほぼ同タイムで、ノイズ除去有の方がぱっと見てわかるすっきり具合でした
おかげさまでGPU購入をゆっくり検討できるようになりました
2016/07/07(木) 22:38:02.75ID:mFWhvyoA0
waifu2x-caffe 1.1.5 にて batch_size の件、対応ありがとうございます
batch_size は 2 と 4 と不正な指定しか試してなかったので 1 の場合は盲点でした


プライオリティを付けるなら超低めの一点要望です
cudnn_data の生成される場所を カレントディレクトリ あるいは waifu2x-caffe-cui.exe の
ある場所だけでなく model_dir のように指定可能にできないでしょうか
指定可能の方が個人的には嬉しいのと、waifu2x-caffe-cui.exe のある場所固定(優先)
にすると Program Files の下に置いている人はどーなるんだ、
等という話もあるかと思うので指定可能を推したいです

関連は無いかと思いますが、エラーログの出力先も waifu2x-caffe-cui.exe のある場所に
固定されるとそれはそれで個人的にションボリなので
 エラーログの出力先は exe の場所固定
 cudnn_data の生成場所は exe の場所固定あるいは指定
というパターンになるのであれば、現状維持となる
 エラーログの出力先はカレント
 cudnn_data の生成場所はカレント
のままの方がエラー発生をエラーログの有り無しから掴みやすいので有り難いです
2016/07/07(木) 23:31:58.26ID:Q807zVYb0
caffeいつの間にかCPUでも速くなってたんだな
俺の古いノートでもtanakamura版より速かった
2016/07/08(金) 00:21:26.70ID:MxrGRp260
caffeってAMD対応してないのか
Vega買う予定だからそれまでに対応してほしいな
2016/07/08(金) 02:30:16.54ID:EpDyhBMv0
スキャナで取り込んだ白黒写真もサイズが大きいと効果なし
スキャン時のゴミとかも鮮明になる
16年前に撮った100万画素のデジカメでも効果あり
人物と背景の境目や文字が一番効果ある
ただ塗り絵みたいになる
2kの50インチだが60インチの4kに変えれば200万画素でも効果あるの?
2016/07/08(金) 02:43:39.19ID:U5gK4I5q0
>>210
サイズ大きいのは縮小してから拡大するときれいになるかもしれませんよ
写真はためしてませんが、漫画では効果てきめんでした
2016/07/08(金) 10:41:00.32ID:atx8Q/X+0
>>210
そう言う使い方には向かない
213名無しさん@お腹いっぱい。 (スプー Sdbf-q6Qi)
垢版 |
2016/07/08(金) 16:24:04.54ID:LIOMaWBvd
繋がらない
2016/07/08(金) 18:42:36.60ID:dsqbXFnh0
waifu2x-caffe ver 1.1.5なんだが
横幅指定が使えない というか縦幅指定になる
CUIで--scale_heigh使っても--scale_widthが動いてる
ファイル名は(height)になるんだけどな
2016/07/08(金) 18:45:17.81ID:dsqbXFnh0
がっと書いたら全部逆になってるな
縦幅指定が使えないが真
2016/07/08(金) 21:19:24.39ID:EpDyhBMv0
Nシステムや防犯カメラの画像解析と違うの?
2016/07/08(金) 22:50:22.60ID:FtOXgf4l0
>>216
防犯カメラのは数コマ撮影してノイズ除去してくんじゃね。それ専用のソフトがあったような。
2016/07/09(土) 00:33:43.51ID:UiHSYu5L0
人物写真100枚くらいレベル3で効果が大きいのは
文字>>>チェック柄などのライン>>人物と背景の境目のモスキートノイズ>肌のカラーノイズで修正できたのは全体の3分の1くらい。
文字が潰れた自炊コミックや小説が一番効果あるね
219名無しさん@お腹いっぱい。 (ワイモマー MM9f-Bfmi)
垢版 |
2016/07/09(土) 06:03:12.82ID:N2XUaDTaM
オンライン版は何かパスワード入れろとか出て来たぞ
2016/07/09(土) 08:22:58.63ID:nYSJWZ3O0
ユーザー名とパスワード?
そんなものどうやって確認したら良いんだよ!
2016/07/09(土) 11:23:58.89ID:vV8RzQQI0
waifu2xで検索するとwaifu2x-multiが上に来ててワロタ
作者どうにかしろよ
2016/07/09(土) 12:21:18.09ID:gXGWJsZ2p
おまえがすりゃいいだろ
2016/07/09(土) 12:43:20.65ID:1eYwCzvQ0
ページランクは明らかに高いと思うけど
頻繁に落ちたりドメインだったりでgoogleの評価が下がってるんだろうな

パスワードは,サーバーが落ちてEC2内でIPアドレスが再利用されて別のサイトに誘導されていただけです(こわい)

あと,noise0(これまでの一番弱いやつよりも弱い)を追加したのと,waifu2x.udp.jpのほうも新モデルに変えました.
前よりも不安定な印象なのでたまに謎のノイズが出たりがあるかもしれないですが,平均的には良いです.
noise0はJPEG品質85〜95(1回)くらいでnoise1や除去なしよりも良くなります.
見た目ノイズないのに拡大するとノイズが強調されて出てきたようなときに使えると思います.
2016/07/09(土) 13:13:24.07ID:vW24965J0
>>223
お疲れ様です
質問なのですが、新モデルに切り替えて処理速度が早くなったらサーバーに余裕が出来て今までより安く運営出来るとか安定するとかそういうメリットは発生しますか?
2016/07/09(土) 14:21:05.59ID:1eYwCzvQ0
>>224
GPU的には余裕ができると思うので扱える画像のサイズをでかくしました.2560x2560 -> 3000x3000まで.
ただ処理速度も重要ですが,転送量が多くてつっかえている感じがあるのであまり変わらない気がします.
画像が昔のモデムみたいな速度で上から次第に表示されていくことがあるのは処理速度ではなく帯域のせいです.
常時50〜120人くらいが同時に使っていて1リクエストで2MBくらいの画像を出力するので結構な量になります.
処理が速くなりでかい画像がより高速にやりとりされようになると逆につらくなるかもしれません.
たまに落ちるのは単に金銭的問題で毎月タワマンの家賃くらい払えば落ちなくなりますが,払っていないのでたまに落ちます.
(これは色んな話を断ったりしているのであまり言い訳にはできないんだけど)
2016/07/09(土) 16:07:08.82ID:K5bxkZUs0
たまーに長い時あるよねぇ〜
マルチもフツーのやつも
2016/07/09(土) 19:26:07.00ID:nYNdyt/pa
Olympus Viewer 3でシャープネス(数値は+7)で編集後に拡大したらノイズが酷くなったのですがwaifu2xでその画像のノイズを改善できますか?
2016/07/09(土) 21:05:02.49ID:PxPxd/Jw0
質問の意図が分からん
無料なんだから自分で試してみなよ
2016/07/09(土) 21:11:57.04ID:fAUSGoqf0
>>227

写真の編集を納得いくまでやりたいなら↓がオススメ
https://www.google.com/intl/ja/nikcollection/

GIMPで使いたいとき

shellout plugin for NIK
http://steaz.altervista.org/shellout-plugin-for-gimp-and-nik-collection/
2016/07/09(土) 21:49:14.07ID:vV8RzQQI0
やっぱり話とか来てるのか
流石だ
2016/07/10(日) 04:07:17.50ID:aXg7mYO+0
話受けたら現状維持できなくなる可能性が微レ存?
2016/07/10(日) 06:29:41.30ID:u96Wq/kna
>>229
ありがとうございます。
2016/07/11(月) 02:10:05.35ID:L0atsYt80
Release ver 1.1.6
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6
2016/07/11(月) 04:03:13.80ID:3xx0SzsG0
>>233
おお、ついにノイズレベル0が!

cui版で -n 0 のように noise_level 0 を指定すると

PARSE ERROR: Argument: -n (--noise_level)
Value '0' does not meet constraint: 1|2|3
(Brief USAGE 略)

って怒られてエラーになっちゃいます
GUI版で変換した noise_level 0 の画像と比較すると、noise_level 無指定の場合には
きちんとデフォルトの noise_level 0 になるようです(UpRGB)

ついでに --help を出しても noise_level に関しては 0 の無い 1.1.5 以前のままです
235名無しさん@お腹いっぱい。 (ワッチョイ d325-Bfmi)
垢版 |
2016/07/11(月) 13:40:38.41ID:PaECKmpe0
拡大するとアニメ塗りの塗り壁になってしまう
人工知能のわりに頭が悪いな。本当に
人間より優れたシンギラなるんかと疑問点。

3次画像を拡大する専用の
Youjo2seXを早く出せよ、おい!
2016/07/11(月) 13:53:25.53ID:FgWkp8c20
重力をシミュレートしてオッパイを大きくしたり立体を認識してオッパイの影を変えちゃうとかできるようになるかな?
2016/07/11(月) 15:26:05.48ID:EGf/5Brb0
3次なら写真のほうでやってるか?
2016/07/11(月) 19:50:44.68ID:rrQkvAft0
作者の気に入らないユーザーには使わせないような仕組みがあればなぁ
2016/07/12(火) 02:31:32.01ID:xzA7ng9T0
3次元写真向けの自動補正ソフトないですか?
2016/07/12(火) 08:50:12.67ID:Iqc/vrEd0
>>239
Yes!TAKASU CLINIC!
2016/07/12(火) 10:43:28.64ID:VQ1i59d30
これとか凄い。ディズニー凄い。

FaceDirector: Continuous Control of Facial Performance in Video
https://www.youtube.com/watch?v=o-nJpaCXL0k
2016/07/14(木) 08:29:48.81ID:69szQv+1r
また落ちてる!
いくらなんでも頻繁すぎるのでは?
2016/07/14(木) 09:38:42.50ID:kfj6dhpi0
スポットインスタンスは月単位で見ると安いのですが
たまに異常に価格が上がることがあるのでそういうことが起こるたびに落ちます.
今は1台あたりの鯖代が1時間$6.5まで価格が上がったので落ちました.
1時間$6.5で3台動かしていると1日放置で5万円くらいかかるので落ちてくれないと困る感じです.
許容範囲のところがあればそこで復活します.
2016/07/14(木) 12:55:40.76ID:PjfewzbAd
w2xcで動画エンコしてるんですが
Aviutlで動画が綺麗になるオススメのフィルタとかありますか?
一応、今はエッジレベル調整を併用してます
2016/07/14(木) 13:39:09.41ID:FgL37a7K0
たぶん,誰か考えたと思うんですけれども,
例えば,元画像を4倍に拡大したいとして,

A.そのまま4倍に拡大する
B.半分に縮小した後,8倍に拡大する

を組み合わせた学習モデルって作れないですか?

解像度が低い画像を拡大しようとした時に,
Bだと近くのものは綺麗に拡大されるのですが,遠くのものが潰れてしまいます.
一方で,Aは全体的に綺麗なのですが,Bほど近くのものは綺麗にならない.

複雑で潰れそうな部分はAで,大雑把な部分はBのモデルを適用できれば,
画質がかなり改善されそうな気がするのですがいかがですか?
246名無しさん@お腹いっぱい。 (ワッチョイ 3d25-8xJT)
垢版 |
2016/07/14(木) 13:51:27.47ID:AKBc/xAg0
これって輪郭検出のち内部を塗りつぶすソフト?ですか?
のぺ〜っと、、細かな情報が消えてしまう。
クスコ、 じゃねえランチョで拡大、のちw2でノイズ消しの
ほうがシャアぷに仕上がるようです少佐
2016/07/14(木) 19:42:25.11ID:GmzwyXSXF
日本語でおk
2016/07/14(木) 20:02:13.83ID:x6vqi83V0
>>245見てこれを思い出した
http://www.slideshare.net/nikuque/ss-52190439/1
これで画像のサイズや圧縮率、動画のビットレートの最適化ができたらいいな

最近思ってるのは画像に関して機械学習でノイズ除去や高解像度化ができるなら
音声に関してもできないかなと。個人的には画像よりこっちの方が興味ある。
2016/07/15(金) 01:22:46.25ID:2zYLl84L0
>>248
音はいろんな人が言っているけど
音声(自然言語)って厳格だからちょっとミスって変になったらものすごく気になるように思う.
画像(絵)はちょっと変でもまあ仕方ないかで済むけど.
想像で言ってますが.
2016/07/15(金) 02:00:47.45ID:MkkKZ1cc0
ガ(ry)ぞ
ttp://www.kobe-np.co.jp/news/awaji/201607/0009281896.shtml
ttps://coubic.com/awajicinema
2016/07/15(金) 02:01:26.04ID:MkkKZ1cc0
誤爆ごめんなさい
2016/07/15(金) 09:46:25.21ID:EtUlD+t70
サイトのうしろの人が気になる
2016/07/15(金) 14:43:45.51ID:lsrfj+NR0
>>249
音声っていっても声より音楽、オーディオデータ全般が目当てなんだよな
サンプリング周波数やビット深度が細かかったらこんな倍音が乗っていたはずだ(可聴域外でも)とか
クリップした波形の修復(これは機械学習以前からいろいろ研究されてる)とか
もしかしたらエフェクトの新しい概念が生まれるかもしれないし

画像でも綺麗にするだけじゃなくて積極的な加工に使える可能性はあると思う
やたら重いわりに得られるものが何だか分からなくてダメかもしれないけど
2016/07/15(金) 18:36:53.00ID:kzVyt7ZA0
新バージョンの解説記事とかは書かれないんですか?(読みたい)
2016/07/16(土) 01:17:02.43ID:N6yx45UH0
死んでね?
2016/07/16(土) 01:25:56.15ID:dEJ3j/L/0
おまえはもう
2016/07/16(土) 02:11:45.11ID:S43VbK8v0
         ,,ィニニヽ彡彡彡彡ミニ三ミ、
        ,ィミシ彡ミミ、゛彡彡彡三ミ、彡イ三;ヽ
       {彡y彡彡y彡ミ 彡彡三三彡Y彡三ミ}
       {ツ彡シィイイ彡ミ 彡三ミミシシヾミ三シ
       (彡彡イ/////ノ〃〃ハ;ヾヾミ三彡Y 三)
       {彡y///イ/     ミヾヾミ三彡Yシイ
        Y((( /       `ミミ三三彡イミ、
         !、,,,_     _,,,..---   ゛ミ,ィイi }ミ三;シ
          }T゛'tゝ .:´ ィ弋カ'-    Y/5 /i川イ
         !  ̄ .i :.   ̄ ...    ーノミト、シ
         ',:.:. ,' ::.    .:.:.:.:    iイミ三ソ
         ',  ヽ ー        !::ミミ三リ
          ヽ. ゛'三‐‐‐'`     ノ :::iーーー'
           `、      , '  : :',
             ` ー-┬‐ '     : :ヽ
                  |        : : \
              ___....l:: ::  __ , ---.ヽ

         シンディ・ルー (1984- インド )
2016/07/16(土) 09:57:24.60ID:2YtzRzg40
このソフトを使う場合、HBM2のVegaとGP100のPascalではどちらのほうが早く処理できますか?
2016/07/16(土) 14:03:31.11ID:E/RHyF4m0
ここに書いておいたら読んでもらえるかな
caffe版の1.1.6を使用しています
変換も早くなり、レベル0も実装されて気に入っていますが
ちょっとした不具合を見つけましたので連絡です

・「ノイズ除去と拡大」または「ノイズ除去」モードでノイズ除去レベルを
1以上から0にした時、ファイル名がLevel0にならない
変換モードを変えてから元のモードに戻るとファイル名がLevel0になるので、
レベル0ラジオボタンのクリック時にファイル名変更処理が抜けているのかも

・ノイズ除去の自動判別が効いていない?
元々選択されていた除去レベルで処理している感じ
2016/07/16(土) 18:09:29.57ID:hnFQHF9f0
>>259
『ノイズ除去(自動判別)と拡大』って readme によれば
『拡大を行います。入力がJPEG画像の場合のみノイズ除去も行います』
だから、もともと jpeg と png など混在した対象をまとめて変換する時用の
「”ノイズ除去適用対象を自動判別”と拡大」であって
「”ノイズ除去レベルを自動的に選択”と拡大」するという意図は
含まれていないような(実際そういう動作だし)

以前『自動判別』ってなにをどう? と思って readme 読んだ時にそう理解した
2016/07/16(土) 23:30:51.94ID:W/gd8pMi0
waifu2x-caffe ver 1.1.6.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6.1

コマンドラインオプションでノイズ除去レベル0が指定できなかったバグを修正
GUI版でノイズ除去レベル0ラジオボタンを押した時に出力ファイル名サフィックスが変化しないバグを修正
中国語(簡体字)訳が正しく表示されなかったバグを修正
2016/07/17(日) 11:24:55.20ID:xLDHp9GO0
「ノイズ除去(Level0)と拡大」と「拡大」ってどう違うの?
2016/07/17(日) 13:38:19.22ID:0l5V0UQR0
>>262
ノイズ除去(Level0)はノイズ除去しないわけじゃなくて極弱めにする
2016/07/17(日) 16:28:14.30ID:5LD6v75S0
waifu2x-c-c-with-bat使ってみたけど
変換しようとするとidentifyがコマンドとして認識されていませんとかで動かない
そもそもhtaアイコンや起動後のGUIにD&Dも出来ない、なんか使い方が間違ってるのか?
2016/07/17(日) 16:37:52.40ID:5LD6v75S0
ソースを見る感じ、「下の[参照]でファイルを選択してください」の上の黒帯のところにD&Dするっぽいけど
禁止マーク出て画像持っていけん・・・良く分からん
2016/07/18(月) 02:32:36.92ID:kLwhW3GT0
>>260
うおお今まで勘違いしてた
指摘ありがと
2016/07/19(火) 14:21:24.05ID:3zLqneLK0
電書向けのモデルはどれがいいのかしら
2016/07/19(火) 23:46:09.06ID:9/EyUQef0
イラストモデルは,青空文庫PDFをランダムなフォントサイズで画像に書きだしたものを学習データに混ぜてる.
2%くらいだけど.
2016/07/20(水) 00:17:56.50ID:r27zJO+90
そもそもNN系の手法使う必用無いと思うんだけど
270名無しさん@お腹いっぱい。 (ワッチョイ 96a2-PsRz)
垢版 |
2016/07/20(水) 10:14:04.74ID:Cc0UAxz90
落ちてる?
[web.lua] Error in RequestHandler, thread: 0x40336bf0 is dead.
▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼
/home/ubuntu/torch/install/share/lua/5.1/md5.lua:0: attempt to index a nil value
stack traceback:
.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:278: in function <.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:255>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:553: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:544>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:568: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:567>
▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲
2016/07/20(水) 12:16:35.37ID:Mmd6XeiM0
夜中にサーバーの1台がそのエラー出し続けていたけど今は直っているし謎です.
APIに使っているHTTP Serverがわりと怪しいのでメモリをぶっ壊して変になったあと落ちてupstartが再起動したのかもしれない.
2016/07/21(木) 13:16:23.51ID:IR5KX4Jld
落ちてる
273名無しさん@お腹いっぱい。 (ワッチョイ 0325-iqWO)
垢版 |
2016/07/21(木) 13:55:35.59ID:9F1XqsII0
うちのPCじゃうごかないなあ
ヌーロンダブもどうなっとるんじゃ
2016/07/25(月) 02:56:16.34ID:rCMzi4GJ0
githubで外国人の人も言ってたけど4倍拡大以上だとアーティファクトが出ることがあるね。
「4x and 8x are not fully supported because this is waifu2x」らしいからしょうがないけど。

元画像
http://www.pixiv.net/member_illust.php?mode=medium&;illust_id=57922779

UpRGB old 4倍
http://i.imgur.com/Hx51mML.png
UpRGB new 4倍
http://i.imgur.com/34szjiL.png
RGB 4倍
http://i.imgur.com/2u8aM7q.png
2016/07/25(月) 04:14:04.42ID:4alvlvzt0
数日前に更新したモデルでかなり出にくくなってると思ってたけどまだ出てますね
2倍の時点でも出てるようなのでもう少し頑張るか..
2016/07/25(月) 14:52:40.14ID:ANO+1WFAa
忙しくて久しく見れてなかったけど更新されたようですね。
>>274の問題は、継続ですか。
こうなるとやはりディープラーニング+αが必要なように思えますね。
ディープラーニングは優秀だけど完璧というわけではないので、なんらかの補助手段は必要なように思います。
こちらでも時間のあるときに新バージョンのテストはしてみますが、はてさて。
2016/07/25(月) 16:27:47.90ID:ul9PwMxA0
お疲れ様です〜
2016/07/27(水) 12:51:16.85ID:DXmASclwa
1.1.6caffe、cuDNNでjpg3千枚処理したら半分辺りでフリーズして660が死んだ
別pcに入れ替えても駄目
2016/07/27(水) 15:16:02.75ID:Xcqs/u6a0
鯖代ケチって家PCなんか酷使するから…安いグラボでまだよかったな
この手の大量処理はクラウドに丸投げが基本だよ
2016/07/27(水) 15:54:13.79ID:Rr+2U8Ur0
酷使すると死ぬのか
熱?
2016/07/27(水) 16:10:27.99ID:x4weqHzw0
>>280
フルタワーでケースファン7つエアコン27℃強風+扇風機直当て
660でも死んだらショック新品の950保証期間まで酷使
2016/07/27(水) 18:00:57.04ID:wX21/+5Y0
クラウド高いよ、何言ってるんだ
2016/07/27(水) 18:56:13.21ID:Rr+2U8Ur0
そんなに冷やさなきゃいけないレベルだとグラボよりHDDが心配だし
安定動作に神経使うストレスの方が辛いのではないか
2016/07/27(水) 22:37:48.16ID:wX21/+5Y0
自分で組んだのかな、普通はそんなことにならないぞ
2016/07/28(木) 01:17:52.38ID:8OVpTxFs0
オレもGTX260を使っていた頃は熱暴走で落ちるたびに冷凍してた
2016/07/28(木) 03:51:48.66ID:LQWjxarY0
それって、waifu2xでCUDA使うと、下手なゲームよりGPUぶん回すってことか。恐ろしい……
2016/07/28(木) 06:20:34.66ID:Qyn3Cmpq0
たまーにワイフかけて保存したらその画像が真っ黒になって表示されないんだが
これは俺の使ってる画像整理アプリのせいか?
2016/07/28(木) 09:17:53.32ID:/E0Xi9YX0
こういうときに免責事項が役に立つのよねえ
よかったな作者ともども!
2016/07/29(金) 11:37:05.09ID:vm3S9VUb0
また落ちてるっぽい……
2016/07/30(土) 05:41:04.97ID:0EvlKLvb0
upconv_7の2xモデル更新しています。
>>274
とgithubで上げられている例はアーティファクトでなくなっています。(2倍においては)
まだ出るパターンはあるかもしれませんが、出にくくはなってると思います。

PSNRが高いほうが出てたりするので1/2にしたときに潰れてしまうメッシュ状の模様を
書き込んで復元しようとしていて、判断をミスった時にそういうアーティファクトとして出ているのだと思います。
ミスることがあっても平均的にはやったほうが良くなるみたいですが
平均より最悪が重要だと思うので、アーティファクトが出にくいパラメータを最終的に選ぶようにしました。
2016/07/30(土) 06:19:54.81ID:0EvlKLvb0
>>287
ウェブ版なら使うブラウザ(Firefoxなど)によって
画像を名前つけて保存で画像が保存できていないことがある
ファイルサイズが小さいので見たら分かる
2016/07/30(土) 12:44:32.29ID:Jy30OL100
2倍や4倍のような拡大は実際めったにしないんだよなあ
様々な半端なサイズの元画像を、画面解像度の縦や横
(またはその2倍4倍など)を意識したサイズに拡大することがほとんど

waifu2xは学習モデルでの2倍拡大(場合によっては複数回処理)と
既存アルゴリズムでの拡大縮小を組み合わせてるんだっけ?
2016/07/30(土) 13:14:42.89ID:YuJWhpry0
拡大縮小は切り捨てで微妙に画像サイズが変わってしまうことあるので縦横指定も欲しいかなあ
1920x1826→1280x1217→1920x1825(1825.5)
2016/07/30(土) 13:36:45.89ID:vtJie8gc0
単純倍だから出来るのであって、縦、横それぞれ解像度指定とか込みにしたら、
今みたいな時間で出来ないような気がする。
2016/07/30(土) 14:54:36.26ID:0Mmf+fna0
リキッドリサイズだっけ。大きさを変えたくない部分を残して画像の拡大縮小するような技術。あれを使ったほうが無難だと思う。
2016/07/30(土) 16:43:14.63ID:UcJY7F8E0
2倍と4倍だけ使って、必要がある時は別のソフトで縮小してます
どうしてもこれ単体で完結しなきゃならないって事はないと思うの
2016/07/30(土) 17:45:08.04ID:bIud6JO60
>>293
余分に拡大してから縦横指定の縮小すればいいんじゃね?
2016/07/30(土) 17:53:12.62ID:oKeh5+w+0
caffeのCUDAで7GB分のjpg処理した
丸1日かかってサイズが50GBに膨れ上がった。グラボは生きてる
2016/07/30(土) 19:15:15.90ID:0EvlKLvb0
新モデル(upconv_7)は構造上2の倍数にしか拡大できない。
最初のモデル(vgg_7)は任意サイズにBicubic等で拡大した結果を
CNNで修正するという形にすれば可変倍率にも対応できるけど
倍率固定して学習した時に精度で勝てないので、なら2倍にして縮小でいいのではと思ってる。
ただ縮小も気をつけないと縮小時にモアレやリンギングが出たりがある(これは一般的な話ではあるけど)。
2016/07/30(土) 19:23:28.97ID:n23zGb+9p
全然終わらないしCPUとメモリの使用が大変な事になってると思ったら拡大率が4000000になってた
2016/07/30(土) 23:42:41.79ID:sCD53oI10
>>290
対応ありがとうございます&お疲れ様です。
アーティファクトの問題はPSNRだけ見ても分からないので調整大変そうですね。
2016/07/31(日) 09:55:52.67ID:NopmseGR0
>>299
特定倍率で縮小した際に全く同じ画像に戻るという謳い文句はどこいったんだろなw
2016/07/31(日) 10:50:24.06ID:PAEE7ItP0
は?
2016/07/31(日) 15:25:26.10ID:YE2fzuJR0
ニューラルネットより頭悪そう
305名無しさん@お腹いっぱい。 (ワッチョイ 7925-oK17)
垢版 |
2016/08/01(月) 14:14:51.51ID:s/CT/hUD0
AIやシンギュラがこれだけ進歩したんだから画像処理も
単なる塗りつぶしじゃなくてもっと賢い方法が出ないかな。
昔の映画やレコード音源の修正でも同じ、劣化逸失した情報を
量子演算で取り戻すような、根本的なところでの革新が必要。
やぱり人間の脳みその性能上限に縛られてる?だろ
そういや水着の布地て体積の半分以上はすきまの空間であり
そこを通り抜けてくる光線は多量に存在するはず。
その軌跡を光学補正して美少女の素肌映像を再現する
すきま光線解析ソフトが出ないかな?
あの光線が再利用されず無駄に散逸してるのは残念
2016/08/01(月) 14:56:45.65ID:XumSCgBa0
レンダリングに年単位かかりそうだな
2016/08/01(月) 16:42:33.48ID:HGp6ELjo0
>>305
ゴッホの油絵の自画像を写真にするデモを見たことあるからやればできるんじゃね
2016/08/01(月) 16:51:58.38ID:HwLXQe2J0
受光器に達するまでに光が混ざって分解不能になってるから無理だろ
2016/08/02(火) 13:05:32.05ID:fGveZl970
AI利用の写真アート化アプリ、Prismaが大ブーム―大手ソーシャルメディアが買収?
http://jp.techcrunch.com/2016/07/20/20160719prismagram/
2016/08/02(火) 13:17:49.07ID:Vyq+NoRf0
waifu2xの作者「Prismaはneural styleのパクリ」
2016/08/03(水) 06:41:47.32ID:oVUNsKD/0
Release ver 1.1.7
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7

upconvモデルを更新
標準で使われるモデルをupconv_7_anime_style_art_rgbに変更
GUI版でupconvモデルが上に表示されるようにした
GUI版でノイズ除去レベルを0を変えても出力ファイル名が変化しないバグを修正
2016/08/03(水) 10:29:08.49ID:muLCaGi+0
UpRGBはノイズ除去だけした時に一度拡大してから縮小していると聞きましたが
デフォルトにしまうとそこに不安がある気がします。
拡大縮小は結構劣化を生むと思うので、構造上難しいならいっそUpRGBでノイズ除去のみはエラーに倒してもいいように思っています。
一応JSON側にarch_name: upconv_7/vgg_7を入れてますが。
2016/08/06(土) 17:25:26.75ID:sO6XeMu60
最近になってcafeとmultiがあることに気づいたんだけど
これってどちらも性能は同じなのかな?
multiのほうが画像単体で複数変換できるから便利な気もしないでもないけど
どなたか細かな仕様の違いご存知でしょうか
2016/08/06(土) 21:11:33.14ID:Yf7P2RxD0
waifu2x-caffe(最新版)はウェブ版(waifu2x.udp.jp)とほとんど同じはずです。
逆にそれ以外は使っているモデルが古いなどで細かく性能を測るとスコアは低いと思います。
https://triple-underscore.github.io/css-images/pixel-art-small.png
この画像をノイズ除去なし2倍で変換してみて
良し悪しに関わらず出てくる画像がウェブ版と異なる場合は
使っているwaifu2xのバージョンが古いです。
この画像はバージョンによって異なるアーティファクト(ノイズ)が出てくる呪いの画像なので
バージョンを調べるのに便利です。
2016/08/06(土) 22:26:20.88ID:sO6XeMu60
>>314
ご丁寧にどうもです!
2016/08/06(土) 23:29:19.19ID:sO6XeMu60
アプリの圧勝でした
サイトは使わないほうがイイですね
ありがとうございました。
2016/08/07(日) 03:45:08.69ID:EY9TRI870
>「waifu2x-caffe_Difference_From_ver1.6.0.zip」はver 1.6.0からの差分ファイルが入っています。

ってあるんですが、ver 1.6.0がどこを探しても見つかりません・・・
2016/08/07(日) 09:47:07.72ID:LibYw5eS0
>>317
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6
2016/08/07(日) 16:21:37.06ID:L8Aw2/wW0
それは ver 1.1.6 でしょw
320名無しさん@お腹いっぱい。 (ワッチョイ 6f04-MLGp)
垢版 |
2016/08/08(月) 02:22:38.85ID:Ex+ktA6y0
今の限界の3倍くらいの大きさの画像も処理できるようになると嬉しいわ
2016/08/08(月) 03:24:26.81ID:diE1g9JG0
そんなおっきい画像でなにすんの
2016/08/08(月) 09:45:36.14ID:sUYNvMx200808
昔の解像度足りない画像を大サイズにできれば
出版用途もありそうだよね
2016/08/08(月) 13:12:24.04ID:NCCm5rlu00808
>>322
そういうのはフリーウェアじゃなくて高い市販のソフト使うんじゃね
2016/08/08(月) 18:22:35.20ID:sUYNvMx200808
その市販のソフトってどれ?
フォトショじゃできないでしょ
2016/08/08(月) 20:04:15.07ID:NCCm5rlu00808
フォトショップで手動で
2016/08/09(火) 13:38:23.30ID:/39gSS+B0
商業で使うなら一般人の財布酷使してないで経費で落とせよ
2016/08/09(火) 19:16:07.15ID:q0m6fQ5g0
jpeg出力する時にサブサンプリングも選びたい
2016/08/10(水) 11:08:28.80ID:FZaDpFlT0
どう考えても一般人じゃないだろw
2016/08/11(木) 10:59:07.17ID:vnZIwvLQ0
コミケでSIGNICO買ってくる予定だけど
今年も画像処理についてなのかな
330Youjyo2Sex. exe→cute(笑 (ワッチョイ 4d25-MTuc)
垢版 |
2016/08/11(木) 15:59:39.98ID:Q9oi6RJK0
.
いまあるPIXdateからアニメ塗りではこれが限界な。
技術って上限があるんだね、カツワイルも宗教家のw
そういや、宇宙のホワイトノイズには宇宙人の美幼女動画8Kや
フル裸16Kも含まれているだろうしあれを受信して2chで実況中継
するのはどうかな?異星人の幼女ポルノだから法律の埒外だし
俺をタイホするのは越権行為だっ!警察は引っ込めッ!
2016/08/11(木) 16:35:57.24ID:4WxrPDBh0
わーお
2016/08/11(木) 20:56:01.57ID:NtL5iqif0
お騒がせのhulu入れないマンだが
新ver(Vivaldi.1.3.551.30.x64.exe)に更新したらやっと見れるようになったよ
IDパス入力するログイン画面もでず入れるようになったよ
これで人にも心置きなく薦められるよ
2016/08/11(木) 20:56:33.37ID:NtL5iqif0
誤爆したよ
2016/08/12(金) 00:22:58.79ID:7mBYz0dm0
>>332-333
名前に偽りなし
2016/08/12(金) 21:04:51.54ID:MqMeLtY+0
waifu2x-caffe初めて使ってみたけど処理に時間かかりすぎワロタ
2016/08/12(金) 22:42:09.72ID:SSR/eqY30
>>335
グラボ積みなされ
2016/08/13(土) 01:47:53.51ID:1UHkR4UU0
処理時間の目安CPUが分でGPUが秒
338名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw)
垢版 |
2016/08/13(土) 01:52:33.75ID:9hSx5rj10
http://i.imgur.com/1SO57Q2.jpg
339名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw)
垢版 |
2016/08/13(土) 01:53:04.42ID:9hSx5rj10
誤爆
2016/08/13(土) 11:04:26.87ID:bUa0xV+O0
>>335
http://akiba-pc.watch.impress.co.jp/img/ah/docs/747/222/html/mdosv1604_b51.jpg.html

GeForce730辺りでも十分速くなるよ。750Tiだと760と其処まで大きな差は無くなるよ。
数千、数万(例えば動画などが該当する)と連続処理させるなら兎も角、
1回にせいぜい百枚くらいまでの作業なら1万程度の750tiがコスパ最強だと個人的には思う。
2016/08/13(土) 16:43:44.02ID:SETYS8X8r
http://f.xup.cc/xup9unncade.jpg
なんじゃこりゃ。
2016/08/14(日) 08:19:13.96ID:K3dGTcF40
>>340
cpuってこんな時間かかんのかワロタ
2016/08/15(月) 14:04:20.97ID:Gj8QJ9x30
中古のスリムデスクトップの240Wですが750Ti載りますか?
今は5570です
2016/08/15(月) 16:08:32.93ID:u7Yq65wf0
載るけどCUDA目的ならPICE3対応してるのかマザボのスペックを確認されたし
5570はPCIE2でしょ?
2用に3用を載せても下位速度で動いて本来の速度が出いならあまり意味ないし
2016/08/15(月) 17:35:49.02ID:mNG+BBBj0
750tiは消費電力はさほど気にしなくてもいい。大したことない。補助電も特に要らない。
2スロット分の厚みがいけるなら俺も使っているクロシコのGF-GTX750Ti-LE2GHDが良い感じ。
負荷時でも静かで熱も神経質にならなくてもいいレベル。もちロープロ対応。

1スロしか駄目な場合はELSAとかがあるがやや高くてこれはロープロダメ。
他の人の回答待ち。730とかならあるのかなー?
2016/08/15(月) 17:43:08.47ID:mNG+BBBj0
帯域による減速は事実としてあるけど、そこまで大きな差は出にくいと推測してみる。
3Dグリグリと違い使用メモリも数GBとか使うわけでも無いし。
帯域を使用する一番の浪費はメモリでしょ。
嫁2xはPCIExpress帯域関連に神経質にならなくて良いと電波してみるよ。
2016/08/31(水) 14:54:01.77ID:aBASHfO90
これすげー。ウィンドウズのパソコンで使えるようにしてくれー

深層学習でドット絵のような荒い写真を高画質化できるプログラムがGitHubに公開
http://pc.watch.impress.co.jp/docs/news/1017571.html
http://pc.watch.impress.co.jp/img/pcw/docs/1017/571/01.png
2016/08/31(水) 17:23:14.73ID:tTltoSK70
つかえるだろ
2016/08/31(水) 17:26:33.81ID:JHqzk+Ql0
証明写真みたいな画像限定のようだが
実用性は?
2016/08/31(水) 17:31:27.09ID:ghbHSoMs0
元の画像と印象変わっちゃうけどそれっぽくでっちあげてるね
2016/08/31(水) 17:31:42.96ID:z2XkjsyX0
ほぼ別人だが不気味の谷になってないのはすごい
将来はSF映画でよく見る監視カメラ拡大とかも出来るようになるんだろうなぁ
2016/08/31(水) 17:43:57.39ID:XOd6q/8e0
もはや別人じゃねーかw 当たり前の結果だけども
2016/08/31(水) 18:11:45.69ID:aBASHfO90
>>348
フロントエンド作ってくれー。オッパイモードとかも欲しい。
2016/08/31(水) 18:33:08.50ID:5aJAq/qJ0
AVのモザイクに対して処理したらどうなるんだろう、とゲスな事を考えてしまったw
2016/08/31(水) 18:39:36.25ID:RNequdjc0
みんな息ふき替えしたかのようにレスしててワロ
2016/08/31(水) 19:26:57.78ID:ub1nr2q10
類似データで埋めるって感じか
モザイク除去が捗るな
2016/08/31(水) 19:36:42.08ID:k9FwYtUp0
学習データによっては実用性がありそうだな
2016/08/31(水) 19:40:47.54ID:ulWjFzeq0
16×16ドット → 64×64ドット
GTX 1080で3時間だとよw
2016/08/31(水) 19:58:07.92ID:TyCiUy8i0
> This particular example was produced after training the network for 3 hours on a GTX 1080 GPU, equivalent to 130,000 batches or about 10 epochs.
英語わからんけど学習に3時間じゃ?
2016/08/31(水) 20:00:53.35ID:apIEx6eH0
ドット絵というと xBRZ の上位変換か?! と期待したけど
「GTX 1080で3時間」はつらすぎる……
2016/08/31(水) 22:10:57.99ID:VxNgffX00
スッピン化しててワラタw
2016/09/01(木) 00:32:03.04ID:29xlAkds0
以前のソニーのテレビに搭載されていたDRCのディープラーニング版みたいだね。
元の画像をいじくるより置き換えたほうが溶けなくていいのかも。
2016/09/01(木) 01:54:24.98ID:hVMajEDe0
監視カメラの粗い画像から犯人像を復元するのに使えそうだな
しかしかなり違う顔になったりするので冤罪のもとにもなりそうだ
2016/09/01(木) 02:15:33.23ID:pXg/9Tx30
>>347
科捜研の超解像技術が現実に…
2016/09/01(木) 04:17:07.63ID:gdGgHeTp0
30年以内には下手な絵をプロのイラストレーターが書いたような絵に変換するプログラムが出そう
2016/09/01(木) 11:48:07.29ID:3YqH18Y40
>>365
今、映画「シン・ゴジラ」ファン界隈で流行ってる○○調似顔絵とかソフトウェアが勝手にやってくれるようになると思う。
http://image.eiga.k-img.com/images/buzz/59900/a9b73721ebe711a6/320.jpg
http://buzz-netnews.com/wp-content/uploads/2016/08/639826a2fa230071f44d06266e2fc5b1.jpg
2016/09/01(木) 13:35:55.74ID:3YqH18Y40
こういう絵画も写真調にしちゃうんだろうか。
http://kaoruko-trend.blog.so-net.ne.jp/_images/blog/_9d1/kaoruko-trend/m_2005-06-24.jpg
2016/09/02(金) 07:11:39.11ID:akMl2GII0
ネットじゃモザイクを解除できると思ってる奴多くてワロタ
モザイクの処理はドット混ぜてたり位置換えてたりするから無理po
2016/09/02(金) 11:02:27.60ID:zmGVEAZp0
してるのとしてないのがあるし
2016/09/02(金) 12:56:10.35ID:2rppqSTy0
昔画像に可逆的なマスクかけるソフトがあったなw
371名無しさん@お腹いっぱい。 (ワッチョイ 73f0-wh/5)
垢版 |
2016/09/05(月) 19:40:58.30ID:HkAh0Dw50
全層畳込みニューラルネットワークによるラフスケッチの自動線画化
http://hi.cs.waseda.ac.jp:8081/

使い方

1 「ファイルを選択」ボタンを押し、線画化したい画像を選択してください。
2 線画の簡略度を設定してください。
3 「線画化!」ボタンを押すと、線画化した結果が下の方に表示されます。

★システムの改善にご協力ください!★

現在のシステムはまだまだ発展途上であり、みなさんのラフスケッチをAIに学習させることでさらに精度が上がっていきます。ぜひシステムの改善にご協力ください。
2016/09/05(月) 20:44:07.84ID:ncyZk6yB0
>>371
ラフが線画になる時代が来たのか……
クソのようなカラー版じゃなくて、
矢吹絵を石恵塗りで色付き生成するのもきっと時間の問題だな、胸熱すぎる
2016/09/06(火) 14:57:47.61ID:cnJtRy+R0
ラフっていうかアタリ程度だとまともな絵にはならないね
そりゃそうか
2016/09/06(火) 20:05:04.36ID:MFy5hrF30
HUNTER×HUNTERやBastardの雑誌版がコミックス版に!
2016/09/08(木) 21:37:18.46ID:pimDce810
アカン、富樫がさらに怠けてまう
2016/09/08(木) 23:11:04.46ID:3XEPh2rd0
トーンとかベタの学習難しそうw
2016/09/09(金) 16:13:10.17ID:bHeHK16U00909
ラフというかわりと完成した鉛筆画ならそれなりにいけそうな気がするねぇ
学校で描いた落書きとか突っ込んでみれば
2016/09/09(金) 20:59:58.26ID:kjPCajQ000909
てか富樫のラフ画をもとに処理して見せればいかにすごいかわかるんじゃね
2016/09/11(日) 15:59:53.99ID:R2SaEzoR0
waifu2x-caffe ver 1.1.7.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7.1

GUI版にアイコン追加
crop_wとcrop_hが違う値の時にTTAモードを使うと出力がおかしくなるバグを修正
2016/09/11(日) 16:26:22.03ID:vpaofvjM0
>>379
ついに自作のコーヒーカップ・アイコンとお別れの日が来たか・・・
2016/09/18(日) 20:37:37.26ID:HtW6SWx/M
waifu2x caffeでjpegをpngにした場合
waifu側でRGBに補完してpngで吐き出してくれるのですか?
それともYUVで処理した後単純なRGB変換をしてるのですか?
2016/09/22(木) 14:59:25.14ID:pvC1fAbc0
>>381
画像を読み込んだ時点でRGBになってwaifu2xで処理して結果をPNGで保存
ノイズ除去ありだとYUV4:2:0のクロマサブサンプリングもwaifu2x側である程度修復される
2016/09/22(木) 15:05:31.06ID:grDO1t9h0
フォトモデルがYUV処理なんだと思ってた
(´・ω・`)違うのか・・
2016/09/23(金) 00:36:37.52ID:ULFrB3kZ0
This website is hosted by the server of pixiv Inc
いつの間にやら
2016/09/23(金) 00:38:45.22ID:ULFrB3kZ0
http://drawr.net
こことおなじIP
2016/09/23(金) 01:14:54.91ID:RWE7EzK40
pixivの援助を受けはじめたのかな
2016/09/23(金) 03:23:03.25ID:T/2Nhf4Y0
今のところwaifu2x.udp.jpの接続先をEC2からピクシブ様が提供されている環境に切り替えた以上の意味はないです。
githubのwebブランチからデプロイするようにして頂いています。(広告等は追加されるかもしれません)
サーバー代とたまに落ちる問題は解決したんじゃないかと思います。
回線やハードウェアも以前よりいいと思います。
2016/09/23(金) 03:23:09.35ID:Y2UL0mT70
鯖うつしたのかな?
2016/09/23(金) 03:23:53.04ID:Y2UL0mT70
わーびっくりした
なるほどね
2016/09/26(月) 02:13:17.42ID:69hP3vNm0
multiっていちいちimgurにうpしてんのか?消せないの?
2016/09/26(月) 13:10:18.69ID:LOgjLQVp0
>>390
つ 削除要請
2016/09/26(月) 15:17:59.26ID:m08Vz01s0
簡単な線を引くだけで自動で画像を生成してしまう「iGAN」がスゴイ
http://gigazine.net/news/20160926-igan/
iGANでどんなことができるのかを端的に現わしたのが以下の図。
http://i.gzn.jp/img/2016/09/26/igan/s01.png
2016/09/27(火) 18:50:05.35ID:sSRb+qEN0
>>390
ファイルのURLを持ってるのは確かだけど、imgurにうpしているようには見えないけど
どうしてそう思いました?
2016/09/27(火) 19:38:18.18ID:pNtkjlrq0
そういえば、アニメの輪郭線問題ってどうなったの?
2016/09/27(火) 19:58:31.55ID:UJb8XfhN0
>>393
クリックしたらi .imgur〜から始まるURLが見えた
2016/10/07(金) 16:48:21.16ID:/sntnc3p0
E8400で使ってみたら 1ページ辺り3分近くかかるな
i5-6600辺りに換装したら実用的になるかな?
2016/10/07(金) 18:08:29.61ID:cOmmgKXU0
安物でもいいからGPU
2016/10/07(金) 22:34:24.32ID:EEOkfHO00
GPUか AMD買う予定だったけどGeforceにしようかな
2016/10/08(土) 11:34:42.30ID:vdcelTt8a
GeForceをディープラーニング目的で買うなら最低でも8xx世代、できれば9xx世代を買うべし
2016/10/08(土) 11:35:20.00ID:tmBt0+l9a
もちろん10xx世代も含む
2016/10/08(土) 15:57:18.55ID:mUNKQ9VA0
vega買う予定だけど、このソフトにはあまり向かないのかな…
2016/10/08(土) 16:04:26.46ID:zhZwX8dM0
Caffeがamdで動くようになるって話があったような気がするけど進捗はどうなのかな
2016/10/08(土) 16:40:36.33ID:zhZwX8dM0
experimentalって書いてるしまだ先の話かね
2016/10/09(日) 12:04:39.02ID:3zkBwPsK0
>>399
8xxはノーパソ用だろ?
vramは多いけど処理性能は7xxより劣るのがな…。
2016/10/09(日) 23:08:49.97ID:lkNtoejG0
AMDならwaifu2x-converter-cppがある
まあ更新が止まってるけど
2016/10/12(水) 02:08:10.89ID:DvgXjgYd0
>>405
これはマジでいいな
最初文字も出ないし変換してるかわからんほどやたら時間かかるから疑ったけど
最初だけで次回がスムーズで驚いたよ
使えるソフトだし更新してほしいな
2016/10/13(木) 00:34:06.01ID:9gJSMmWd0
waifu2xの論文マダー?
2016/10/14(金) 20:28:31.66ID:p7wth0l90
waifu2x-caffe ver 1.1.8
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8

CUDA Toolkitを8.0.44に更新(同梱しているdllも更新)
cuDNN v5.1に対応
アルファチャンネルが単色の場合、cv::INTER_NEARESTで拡大することで高速化
2016/10/14(金) 21:09:23.50ID:p7wth0l90
意図せず無意味なアルファチャンネル情報が付いている画像の変換が早くなった模樣
ただtwitter形式で上げられてるpngは単色じゃないから変わらないねえ
2016/10/15(土) 03:10:02.99ID:ary+qlce0
CUDA使えなくなった
このバージョンの推奨ドライバって何になる?
2016/10/15(土) 11:33:50.20ID:K4B7brJK0
使えなくて一瞬焦った
推奨ドライバは知らないけどnVidiaのドライバを
368.81 → 373.06 にupdateして使えるようになって一安心
2016/10/16(日) 12:12:23.85ID:ZYUiLLZr0
tanakamura版使ってるんだけどCUDAで処理させようとするとこんなエラーが出るんだけど俺環?

Iteration #6(128->128)...(94.5009[ms], 310.326[GFLOPS], 1.07752[GB/s])
Iteration #7(128->3)...(10.8175[ms], 63.5389[GFLOPS], 4.81689[GB/s])
total : 0.218784[sec], 263.632[GFLOPS]
OpenCV Error: Unspecified error (could not find a writer for the specified extension) in imwrite_, file C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp,
line 439
terminate called after throwing an instance of 'cv::Exception'
what(): C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp:439: error: (-2) could not find a writer for the specified extension in function imwrite_
This application has requested the Runtime to terminate it in an unusual way.
Please contact the application's support team for more information.
2016/10/16(日) 12:16:28.49ID:ZYUiLLZr0
原因はわからんが対処法はわかった
-o hogeはダメで-o hoge.pngは問題ない
2016/10/16(日) 12:29:18.64ID:t79GHdGS0
拡張子指定しないとどの形式で出力したらいいのかわからないじゃん
2016/10/16(日) 12:34:03.62ID:ZYUiLLZr0
そういう問題なんです?
普通に全部pngで出てくるのかと思った
2016/10/19(水) 11:26:59.23ID:1zIroVsL0
waifu2x-converter-cpp

AMD版の更新おねがいしまつ!
2016/10/22(土) 18:31:29.33ID:mx2PDzFg0
かなり久しぶりにみたら色々アップデートしててちょっと困惑してるんだが
bmpで出力する場合、以前は24bitだったが今のバージョンだと32bitになってるよね
これ前みたいに24bitのbmpで出力する方法ある?
2016/10/22(土) 18:35:15.31ID:mx2PDzFg0
ごめん
>>417はwaifu2x-caffeの話ね
2016/10/22(土) 19:57:26.52ID:fEyVsVpV0
>>417
もともとの画像が32bitとかではなくて?
こっちで24bitの画像を処理しても24bitになったよ
2016/10/22(土) 20:28:48.85ID:fEyVsVpV0
あ、いや24bitのbmpを処理したら32bitになるっぽい?
2016/10/22(土) 20:39:09.10ID:mx2PDzFg0
>>419-420
こっちで確認した結果はbmp入力→bmp出力だとほぼ確実に32bitになる
「ほぼ」というのはそうならないパターンもあったので

最初にjpg入力→bmp出力をやると24bitのbmpで出て
そのあと続けてbmp入力->bmp出力すると24bitのまま出た

最初からbmp入力→bmp出力だと32bitになる
分けわからん

あ、一応全部GUIでのwaifu2x-caffe使用によるもので、設定は以下の通り
出力拡張子「.bmp」
変換モード「ノイズ除去」
ノイズ除去レベル「レベル0」
モデル「2次元イラスト(RGBモデル)」
分割サイズ「128」
2016/10/22(土) 20:49:51.82ID:fEyVsVpV0
>>419
入力24bit png
出力 bmp
結果24bit bmp

>>420
入力24bit bmp
出力 bmp
結果32bit bmp

この動作は仕様なのかな?
2016/10/22(土) 21:01:39.50ID:mx2PDzFg0
ふむ、仕様かバグかしらんけどBMP→BMPでの24bit出力は無理そうかな
なんかコマンドラインからならオプションでできる、とかあったら知りたかったけどパッと見なさそうだし
大人しく出力後に別ソフトで変換するわ
2016/10/24(月) 01:50:33.33ID:ZlIEeXn30
そういやwaifu2x、派生版もMITやBSDライセンスが多いけれど
コレ使ったスマホアプリを有料や無料+広告で出しても大丈夫なんだろか
実用速度にするならPrismaのように外部専用鯖が必要になるから動画広告でも付けたいんだよね
2016/10/24(月) 14:09:10.83ID:PLW9ma850
Prismaは最近オフラインでも動作するようになった。
2016/10/24(月) 14:48:03.78ID:Tv00xCEx0
>>424
それはもう、このスレに書き込むとかいう奥ゆかしいコミュニケーションじゃなくて作者に連絡取ったほうがいいんじゃないか
2016/10/24(月) 20:31:38.98ID:J/6YAUIY0
>>424
全く問題ない
さらに言えばフォークしてそれ自体を売りに出しても構わない(要求された場合無料でなくてもいいがソースを出す必要があるが)
2016/10/24(月) 22:42:16.55ID:oIHJY+tR0
>427
GPL汚染されてないのにソース出す必要あるの?
2016/10/24(月) 23:12:55.18ID:V2/WuydK0
>>428
すまん、GPLの場合はそうだったね
BSDとかMITならいらない
2016/10/27(木) 19:02:40.13ID:/mmrCNGh0
実際作者はどのくらい儲かったのか気になるな
2016/10/27(木) 19:37:21.88ID:3BsAGMNE0
赤字じゃろ
2016/10/27(木) 20:16:00.47ID:nEwOdHdh0
http://i.imgur.com/xtsSXu8.jpg
2016/10/27(木) 22:29:05.50ID:DHAG/L+X0
黒字の間しか鯖動かしてないんじゃなかったっけ
トータルではどうなのか知らんが
2016/10/28(金) 08:26:51.72ID:x25NJOMQ0
>>432
将来有望なボトラーだな
2016/10/28(金) 13:24:51.84ID:sangDm780
ロリポ法に引っかかる写真じゃないのか?
2016/11/01(火) 01:09:19.68ID:PwTB2CzY0
Reshadeってどうなの?
写真の拡大には良さそうだが
2016/11/01(火) 12:41:44.14ID:rGOjCzh+0
>>436
ポスターみたいに大きく印刷したいときかな。
2016/11/08(火) 06:32:18.87ID:8JXudXNa0
http://www.itmedia.co.jp/news/articles/1611/07/news119.html
「わしが育てた」なやり方が取れるのか
組織だって重点的に応募すれば好みのタッチに近付くのかな? 弾かれるのかな?
どっちにしても楽しそう
2016/11/08(火) 14:11:37.76ID:jWw7B6CU0
白黒写真の着色技術をイラストにも応用するのかな。某嫁2倍みたいだ。
2016/11/09(水) 03:30:07.07ID:hyCn3erA0
GIGAZINEにも先日モノクロ写真を自然なカラー写真にしてくれる研究のってたな
こりゃ2020年までには女性の水着写真を入力→その人の全裸画像出力まで行くと思った
DMMのAVパッケージからの顔写真やFBの顔写真の検索サービス売ってる人もいたしな
倫理的にこれやっていいのかって画像処理、
データ処理、データベース化が出てくるだろうね
今のビッグデータでさえプライバシー倫理的にどうなのって話でもあるが
倫理的にアウトなやつはコードで配布って形になる予感
2016/11/10(木) 19:03:16.68ID:dIlzLCb/0
今まで通り個人の範疇で何をしようがそりゃ個人の自由よww
メーカー側が売ることが出来るかできないかはそりゃコマーシャル方法によるだろうなw
「水着の女を裸にできます」なんてコマーシャルじゃ確実にアウトwww
2016/11/11(金) 02:45:39.70ID:9qH54OVf0
ikorageの配布元が消えてる…
2016/11/15(火) 13:48:33.70ID:UlmxwCUD0
Googleが低解像度画像を爆速で高画質化する機械学習を使った技術「RAISR」を発表 - GIGAZINE
http://gigazine.net/news/20161115-google-resarch-raisr/
2016/11/15(火) 14:09:45.93ID:tmMc38MOa
超解像は、リアルタイムで進行している。

ピッドーン、ピッドーン…
2016/11/15(火) 14:13:39.18ID:UlmxwCUD0
論文読んだかんじPSNRやSSIMはSRCNNより落ちるけど処理速度は圧倒的に早いな
SRCNNが数秒かかるところを0.1秒以下で出来てるっぽい(グラフ見間違えてなければ)
2016/11/15(火) 16:06:21.30ID:FV8UZR3G0
ワイフは2次元特化しかこの先生きのこる術はないのか
2016/11/15(火) 16:17:39.32ID:0ngnQcTC0
今後はデコードでなく、補間に適した方法で圧縮した小サイズの画像を転送して
モバイル端末側で拡大処理をするようなサービスも出てくるかもね
バッテリー持ちと帯域とのトレードオフになるだろうけどw
2016/11/15(火) 18:41:26.50ID:FV4OX9Su0
>>447
「高圧縮率だが展開に負荷がかかる新しい圧縮フォーマット」と何が違うのか
2016/11/15(火) 19:16:21.53ID:c8ZQtT620
>>446
その2次元絵もアプコンでは境界線が溶けてて使い物にならないんだけどな
RAISRのベンチ次第では本格的にいらない子になるわ
2016/11/15(火) 19:20:44.51ID:5ND97o9T0
>>448
画像(動画)であれば全て対応可能な点と
マシンラーニング結果で精度の向上が見込める点か
2016/11/15(火) 19:28:49.71ID:UlmxwCUD0
処理速度が発表通りなら確かに動画のアプコンも現実的な範疇かな
2016/11/15(火) 23:44:55.89ID:YYXeIyPo0
これweb版はpixivのサーバーで動いてるんだな
2016/11/16(水) 01:28:53.03ID:vMIkzin30
>>443
どこかでテストできるサイトはないのかな?
あるいはwaifu2xに「同じ写真のアップサンプリング版と高解像度版」のセットを学習に使用するの部分だけでも組み込んで、速度はともかく画質向上ができればとも思うけど
2016/11/16(水) 05:20:16.47ID:72HKYFC/0
2030年、日本人がモザイクを無修正にする技術を発明する
2016/11/16(水) 10:45:19.54ID:ni5Hu/5nM
>>454
US:モザイクってなんだ?
2016/11/16(水) 12:10:01.25ID:TWFcW6Ex0
>>453
無い
2016/11/16(水) 19:32:16.85ID:uZcFhIHi0
>>453
Set5,14の結果が論文に載っているけどwaifu2xの写真モデルよりだいぶ低いです。
Bicubicよりマシな結果で速度に特化している感じだと思う。
2016/11/16(水) 19:52:31.28ID:4aJT7KUt0
写真で言えば、現状木の葉の重なりとか
同系色の小石及や砂漠の処理が難しいな
サンプル食わせても、思ったように描画してくれない
2016/11/16(水) 19:55:59.77ID:HEIE/29H0
みんな論文読んだ?
読んだ範囲だと選択的に
デシタルフィルタで輪郭強調してるだけっぽいけど
表現力とかreceptive fieidはかなり
waifu2xの方が大きい

ただ家電組み込みとかは有利そう
2016/11/16(水) 21:42:25.30ID:cC8uL87B0
昔からよくある超解像のエッジ強調でボケ低減重視した結果
テクスチャ成分が消えて油絵見たいになる奴だな
今までは反復で処理してたのを1回?なんで速度が速いみたいな
あとで元画像の高周波成分に応じたディザ加えると視覚上はそれっぽく見えるようなの
2016/11/16(水) 21:50:26.19ID:NXjeS7A10
https://twitter.com/personasama/status/781839302791532544

ディープラーニングは詳しく無いんだけど、
マンガのコマを入力にしてこういう動画を出力させることって出来ますか?
2016/11/16(水) 21:51:54.96ID:mDwWgKfI0
余裕
2016/11/17(木) 06:17:49.45ID:SigrQOB30
あぁwaifuより溶けてねーかと思ったのはあながち間違ってなかったのか
2016/11/17(木) 22:15:42.90ID:naiHg0fia
>>457
論文のままやるのではなく、waifu2x流に 「同じ写真のアップサンプリング版」と「(今までのモデルデータと同じ)高解像度版」の2パターンのモデルデータを作成して、
それぞれで超解像処理したあとに部分ごとにいいとこ取りするとかではダメなの?
2016/11/18(金) 13:33:46.27ID:by0IP/QY0
koroshellのコンバータをcppに変えたら速くなった!
気がする
2016/11/18(金) 13:49:44.70ID:+onBe1T00
プラーシボウ公開です。
2016/11/19(土) 13:56:59.27ID:FbdjsfyA0
madVRにNGU (Next Generation Upscaling)というのが入ったらしいので
動画に詳しい方はレポートをおねがいします。
2016/11/19(土) 14:18:38.38ID:GoobHDYL0
madVRスレに比較画像ありました

madVR Part8 ©2ch.net
http://potato.2ch.net/test/read.cgi/software/1469289290/404

404 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2016/11/05(土) 22:15:28.64 ID:FYlCTwMn0
http://forum.doom9.org/showthread.php?p=1784964#post1784964
新アルゴリズムはまだ時間かかりそうだが、比較画像がでてきた
NG1がmadshiの新アルゴリズム、Waifu2xは比較用でリアルタイムでは使用できない
http://madshi.net/madVR/AmericanDad/AmericanDadOrg.png
http://madshi.net/madVR/AmericanDad/AmericanDadJinc.png
http://madshi.net/madVR/AmericanDad/AmericanDadNNEDI256SR4.png
http://madshi.net/madVR/AmericanDad/AmericanDadNG1.png
http://madshi.net/madVR/AmericanDad/AmericanDadWaifu2x.png
2016/11/19(土) 15:13:42.49ID:nJTgS5yva
実写でやってくれないとよくわからんぞ…
2016/11/19(土) 16:15:24.16ID:FbdjsfyA0
Jincはぼやけすぎ
NNEDIはリンギングがひどい (ただ元の画像に入っているのでシャープにするときに強調してしまっているのかも)
NGUとwaifu2xはぱっと見同じに見えるけど線だけ見るとwaifu2xのほうくっきりしているのと
左の女性の口周りの色のにじみなどが消えているというのが自分の感想です。(このwaifu2xはノイズ除去あり?)
これでwaifu2xの100倍速いならすごくいいんじゃないでしょうか。

あと
>madVR v0.91.0
>* added new NGU (Next Generation Upscaling) algorithm
とあるのでもう入ってると思います。
2016/11/19(土) 16:21:10.15ID:GoobHDYL0
>>469
実写だとこれ
http://forum.doom9.org/showthread.php?p=1785599#post1785599

NGUは輝度のみの拡大で、色差はBicubic60で拡大している模樣
面白そうだけどうちの低スペPCじゃmadVRは無理だなあ
2016/11/19(土) 16:21:54.60ID:teVDYV6E0
動画のキレイな拡大ならMPDNてのもオススメ。openclに対応してる。
2016/11/21(月) 19:33:59.35ID:v70Y0tAf0
BSD100 x2

PSNR 28.599 SSIM 84.309 Lanczos3
PSNR 28.729 SSIM 83.971 NNEDI3
PSNR 29.721 SSIM 87.238 SRCNN
PSNR 30.071 SSIM 87.456 NGU
PSNR 30.081 SSIM 87.471 waifu2x_Photo
PSNR 30.292 SSIM 87.885 waifu2x_UpPhoto

評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に

思いのほかNGUのスコアが高くなって困惑
madVRの開発者がNGUはGoogle RAISRより優れていると豪語してたけどマジかもしれない
2016/11/21(月) 20:29:10.26ID:8IXPzx3ea
NGU、恐ろしい子!
ただ原理的なことがさっぱりわからんけど。
というか、静止画で手軽に試す手段とかあるの?
2016/11/21(月) 20:43:35.85ID:v70Y0tAf0
>>474
> というか、静止画で手軽に試す手段とかあるの?

無いと思う。
MPC BEにpngを読み込ませてスクリーンショット撮影っていうのをひたすら繰り返した。
NNEDI3みたいにプラグイン形式で使うことが出来れば楽なのだが。
2016/11/21(月) 20:49:31.60ID:q5eJiKkPM
さすがに画質ではwaifu2xにはあと1歩及ばないけど
動画をリアルタイムに拡大処理可能な速度でこれは凄いな
2016/11/21(月) 22:56:47.72ID:69aqH2zp0
>>473
>評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に
超解像の論文でよく使われているPSNRと書かれている再現できない謎の評価指標は
輝度だけのPSNRなのですが
MATLABの実装由来で輝度を16-235の範囲の整数にしたあとにMSEを計算しているため通常のPSNRより高くなっています。
(また縮小に使うアルゴリズムはBicubicに固定します。
waifu2xのtools/benchmark.luaで-filter Catrom -range_bug 1にした時にこの評価指標を再現できます)
この評価指標を使っている場合は、BicubicのPSNRが高いので見分けが付きます。
RAISRはSRCNNよりもPSNRは低いと書いてあるのでNGUはRAISRよりも高いと思います。
2016/11/22(火) 20:59:13.01ID:+jtRMRs7a
NGUの演算時間を延ばしていいから、もっと高精度に演算させるオプションとかないものなのか?
あるいは先日の例に習って
従来型waifu2xとNGUのいいとこ取りとか
2016/11/23(水) 08:59:40.21ID:Lehn7eyt0
これはすげえな…
久々にハイエンドグラボ買うか
2016/11/25(金) 02:32:42.55ID:Bfwfyes20
>>477
詳しい説明ありがとうございます。
MATLABもLuaも導入難易度が高そうだったのでWindowsで簡単に扱えるソフトで良いものが無いか探したところ、FFmpegを使えばだいたい同じような値が出ることが分かりました。
これでデータセットの中に縮小済みの画像が入っているものに関しては割と近い感じの数字が出せるかもしれません。

BSD100 x2

Y-PSNR 29.553 bicubic
Y-PSNR 29.917 Lanczos3
Y-PSNR 30.066 NNEDI3
Y-PSNR 31.096 SRCNN
Y-PSNR 31.190 SelfExSR
Y-PSNR 31.397 NGU
Y-PSNR 31.417 waifu2x_Photo
Y-PSNR 31.627 waifu2x_UpPhoto
2016/11/25(金) 22:57:57.27ID:wsdFYFZc0
>>480
Bicubic, waifu2x_Photo, waifu2x_UpPhotoのスコアは手元と大体同じです。(差が0.01程度)
SelfExSRは2年くらい前にstate of the artと言っていたものなので
処理時間の制限つけた上でそれを超えてるのはすごいですね
もっと遅くしてよいという条件でどこまで上げれるのか気になる
2016/11/28(月) 19:21:55.57ID:bX62daeg0
http://i.imgur.com/GvD97ih.jpg
2016/11/28(月) 20:24:16.40ID:F0CAB6jW0
読唇術もコンピュータ処理の時代か
インチキ読唇術者ざまあ
2016/12/08(木) 14:28:01.71ID:qFG9JG4v0
動画対応期待age
2016/12/08(木) 19:17:12.07ID:Y+k4cziV0
ICCプロファイルのサポートもするらしい

Don't ignore color profile · Issue #158
https://github.com/nagadomi/waifu2x/issues/158#issuecomment-265580773
2016/12/09(金) 15:57:16.96ID:dkacw0nd0
PSNR値は視覚及び脳内での判定と一致しないんだよな
元写真を縮小→拡大テストで見比べると、SRCNN等は微妙と言うか
人間的感性も数値化できればいいんだが

そいや市販ソフトのPIXEL MASTERは昔使ってみたが(性能は微妙なところ)
今は公式ツイッターさえSpamBOTにのっとられてる有様だなw
2016/12/10(土) 00:19:42.16ID:hDKiBCZm0
PSNRを高くにするは、ほとんど同じ入力から拡大結果が異なるようなときに
それらの平均を出力したほうが有利で、平均というのは無難だけどどの正解にも近くないので違和感を感じやすいと言われています。
人の感覚に近いものとして、Perceptual LossやGANを使ったモデルが出ていて
これは、拡大結果の違和感は少ないけど、元画像とは近くならないです。
(PSNRは低い、ぼやけている部分を強調したり、元画像とは異なるテクスチャを追記したりする)
ただ写真ではかなりすごい結果が出ています。
https://arxiv.org/abs/1609.04802(画像だけでも見る価値があると思う)
488名無しさん@お腹いっぱい。 (ワッチョイ 5389-+CJx)
垢版 |
2016/12/10(土) 00:29:51.46ID:SKbSNzE30
>>484
面白いのがあったよ
実際使えるかわからんけども
http://shimarisu.webcrow.jp/su_resol.html
2016/12/10(土) 11:48:30.46ID:l2pj7+Te0
>>488
これは使える。良い。
2016/12/10(土) 13:42:59.29ID:QUqj3HOP0
そこに書いてある
>24Mbps、29.97fpsのFHDを4kに拡大してみました。
>・インターレースソースの問題(プログレッシブ化)。
>・音声のずれ。
>・かえって画質が劣化した。
>と感じています。

これは数字から推測するにBSを録画したTSファイルやろな
2016/12/11(日) 21:12:36.54ID:bCV3NUNX0
中学生ぐらいが作ったサイトっぽいな(俺も作ったわぁ)
2016/12/12(月) 01:24:13.36ID:5NlvRxoI0
>>488
ノートン先生にブロックされたが?
2016/12/12(月) 07:57:55.52ID:eVBTFnPkM
>>492
その先生にせもんじゃね?
2016/12/12(月) 09:36:41.73ID:xJ/FQoEf0
>>492
ノートン先生は落としたファイルの利用者が少ないとなんでもかんでも有害認定する池沼だぞ
2016/12/12(月) 11:05:25.67ID:pPy5/pF00
ノートン先生は引退して画商になった。今のノートン先生はレプタリアンが化けてる。
2016/12/12(月) 15:32:46.27ID:u7QO8mxr01212
うちのノートン先生は利用者が少ないファイルでウイルスの疑いがないならそういう風に注意だけ出してくれるけど違う先生なの?
2016/12/12(月) 18:03:31.51ID:UNxRc+zn01212
madvrのNGUのベンチが思った以上に凄いから動画に関してはそっちで充分かな
waifu2xだと溶けるのがやっぱり残念なのと、動画のパンでは、境界線でジャギーみたいなのが発生するのも凄く気になる
あと結局は、エンコに凄く時間がかかるのがネックだなぁ
静止画でのベンチは素晴らしいんだけどね
2016/12/12(月) 22:48:32.93ID:QU4Hkdhpa
NGUがどう進化するか次第だと思う。
waifu2xのいいところと、NGUのいいところが、うまくミックスできると最強なんだろうけど。
2016/12/13(火) 12:11:33.58ID:x32bOoQH0
光と闇が合わさって最強に見える
2016/12/13(火) 13:09:33.02ID:8QyAZWHP0
500 Internal Server Error
2016/12/13(火) 17:56:43.54ID:FUHIn3Ai0
madVRスレでも言われていたけどNGUはジャギーが稀に出る事があるのでそこが改善されると嬉しい。
ちなみにwaifu2xで拡大すると綺麗に拡大されるのでやはり優秀だなあと思う。
2016/12/17(土) 23:32:04.49ID:2euhmd5j0
前々から思ってたんだけどノイズ除去の「最高」を精度とか品質が最高だと思ってどんな画像も最高で変換している人がいるような気がする。
例えばこの記事も元のjpgの品質が98くらいあるのに最高で変換している。

フルHDから4Kへ! Webのちからでプリキュアの壁紙を超高解像度化する|ギズモード・ジャパン
http://www.gizmodo.jp/2016/12/4k-precure-wall-paper.html
2016/12/18(日) 00:11:40.73ID:CaPeROsC0
よりアニメ調を強くしたい時に強くする
2016/12/18(日) 01:33:48.95ID:WvoSbh560
ノイズ除去強めるとのっぺりしないかなぁ
2016/12/18(日) 02:02:20.19ID:PC7MwSWO0
>>504
実際のっぺりするね
http://i.imgur.com/G6m1ltP.png
2016/12/18(日) 02:57:40.65ID:BgfFpOKG0
>>488
この作者普通にできる人だったのか
2016/12/18(日) 11:56:30.17ID:7XzIowgg0
>>505
必要ないならあえて強く掛けない方がいい気がするよな…上の画像なんて元からJPEG品質高いっぽいし

>>506
これなぁ
俺の環境では動画と音声の長さが合わなくて、音ズレしまくったんだよな
更新も止まってるっぽいし…
2016/12/18(日) 12:18:17.73ID:7uHGUmfP0
音は後から直すのが良いんじゃね。
2016/12/18(日) 15:45:47.64ID:MQqRPQLB0
動画は可変フレームレートとか色々あるから音ズレしやすいんだよねえ……
一部のWMVも可変フレームレートだから普通にFFmpegで変換すると音ズレする。

>>507
コメント欄に「このソフトで変換すると音声がずれる動画がyoutubeなどにあったらurlを教えてください。」って書いてあるからサンプル提供するかMediainfoで調べた情報送ればいいんじゃないかな。
2016/12/19(月) 00:02:19.88ID:yf+HOxwP0
普通にw2xcでエンコするのじゃ駄目なの?
2016/12/19(月) 12:40:53.53ID:X/IjQk7I0
caffeの最新と同等の動画用があるといいんだけどな
2016/12/19(月) 19:11:26.22ID:yf+HOxwP0
まあそれが理想だなぁ
w2xcも更新が止まっちゃったし
2016/12/19(月) 19:46:10.94ID:HZi8fcUQ0
>>488のやつは内部にwaifu2x-caffe使ってる
導入も簡単だし、音ズレ対策やその他諸々の機能追加されたら使い勝手良くなるから頑張って欲しい
2016/12/19(月) 20:12:37.28ID:cYoxZTIh0
モデルを入れ替えたらええのか
2016/12/20(火) 11:37:38.14ID:7knK4IIC0
caffe使ったvapoursynthのプラグインがあるだろ
2016/12/20(火) 18:15:15.96ID:dIqVOmMR0
導入することさえ出来ればVapourSynth-Waifu2x-caffeが品質も処理速度も最高だと思うけど導入難易度高いね。
517名無しさん@お腹いっぱい。 (ワッチョイ 9e4e-g1cW)
垢版 |
2016/12/22(木) 17:08:38.15ID:j+vsgrZa0
初心者新参なんだが、どれがおすすめ?

Windows10 Pro 32bit Core i5
メモリ4G
2016/12/22(木) 19:56:30.72ID:wcWe8A3W0
>>517
32bitのWindowsだとtanakamura氏のwaifu2x-converter-cppかな。
64bitのWindowsなら今でも更新が続いているwaifu2x-caffeがいいんだけどね。
今だとcaffe版にしか付いてない機能も多いし
519名無しさん@お腹いっぱい。 (ワッチョイ 9e4e-g1cW)
垢版 |
2016/12/23(金) 09:29:37.03ID:2mEiHi6o0
>>518
ありがとうございます!
トライしてみます!!
2016/12/23(金) 13:04:02.41ID:arkHvTYf0
NeuralStyler 2.0
http://neuralstyler.com/index.html
2016/12/23(金) 19:29:05.72ID:arkHvTYf0
Sharper Scaling
http://a-sharper-scaling.com/

Bicubic interpolation
http://a-sharper-scaling.com/2b.jpg

Photoshop Preserve Details
http://a-sharper-scaling.com/2pd.jpg

A Sharper Scaling
http://a-sharper-scaling.com/2ass.jpg 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)
2016/12/23(金) 20:14:40.66ID:zVH9+6gN0
今使ってるグラボがGTX670なんだけど、1060や1050にしたら処理早くなりますかね?
80枚のイラストを3.0倍、ノイズ除去1 jpgでやると20分位掛かっちゃうんです
2016/12/23(金) 20:29:03.16ID:m2BLsLT80
>>522
http://akiba-pc.watch.impress.co.jp/img/ah/docs/747/222/html/mdosv1604_b51.jpg.html
多分早くなる
2016/12/23(金) 20:38:32.67ID:PfQKYtOOd
>>522
早くなると思います。
gtx1060@6gbならばvramを最大限活用すれば間違いなく体感できる差を得られるでしょう。
2016/12/23(金) 20:40:47.34ID:m2BLsLT80
ごめんグラボよく分からないから523は無しでw
2016/12/23(金) 20:52:17.48ID:zVH9+6gN0
>>524
ありがとうございます
2016/12/23(金) 21:04:41.82ID:2fSZFBUld
>>526
ttaの有無、分割サイズ、変換する画像の大まかなサイズなど詳しく教えていただければ自分のpcで走らせてみますがどうでしょう?
多少なりとも参考になると思います。
2016/12/23(金) 23:22:19.50ID:8WQGOLBP0
AMDから今度出るGPUが深層学習向けらしいけど
このソフトでも早くなるのかな
2016/12/23(金) 23:46:46.15ID:rtorBkxO0
>>509
さっき覗いたら更新来てた
音ズレ検証してみたけど解消してるわ
これはいいで
2016/12/24(土) 15:31:26.95ID:OFvUtbxO0EVE
処理速度をベンチマークするbat書いたよ
動くかどうか分からないけど奇特な人はチャレンジしてみて。

https://www.dropbox.com/s/5p9lnl62qnlk69v/waifu2x_benchmark_v1.zip?dl=0
531名無しさん@お腹いっぱい。 (ワッチョイ 34e1-t+3N)
垢版 |
2016/12/28(水) 17:41:29.27ID:08hGKA3e0
オンボのノートPCじゃこのソフト使えないんでしょうか?
1280×800の画像1枚を2倍にしたいだけなんですが実行ボタン押しても残り時間:不明って出てフリーズします。
ウェブ版は普通に使えます
2016/12/28(水) 17:49:55.63ID:BK0VqACV0
waifu2x-caffeなら時間かかるが動くんじゃね
2016/12/28(水) 17:51:02.58ID:6hOu5zQ90
とにかくColorProfile対応してくれることを望みます
ちょっとライトエフェクトとかある差分画像とか全体が全く違う色になって困り果ててしまうわ
これで動画のエンコなんてしたらもう…
534名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)
垢版 |
2016/12/28(水) 18:09:49.29ID:08hGKA3e0
>>532
ありがとうございます。ソフト名を書くのを忘れていました。
そのwaifu2x-caffeでフリーズしてしまうのです。
2016/12/28(水) 18:13:18.56ID:BK0VqACV0
>>534
じゃあ明日まで待つ
2016/12/28(水) 18:14:43.22ID:ClaiyaoC0
>>534
残り時間不明のまま一見なにも起きない(裏でちゃんとうごいてる)
のは仕様だと思いますが。CPU使用率を見てれば動いてるかどうか
分かるよ
2016/12/28(水) 18:39:45.55ID:ABw+Y6U70
>>533
大人しくmadvrのNGU使え
2016/12/28(水) 18:40:08.51ID:YGxoh5pu0
初期設定だとCUDAで変換するようになってるけど環境がCUDAに対応しているかチェックする時に躓いているのかな
動作設定で使用プロセッサーをCPUにすれば動くと思うけど
539名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)
垢版 |
2016/12/28(水) 19:59:06.13ID:08hGKA3e0
>>538
動作設定はCPUにしております。CPU使用率は80%以上でございます。Braswellでは非力すぎて動かないのかな
2016/12/28(水) 20:51:23.97ID:YGxoh5pu0
>>539
時間がかかるだけで変換出来ないって事はないと思うんだけどね
あと気をつけないといけないと思うのは分割サイズを大きくしすぎるとメモリを食ってOSごとフリーズする事くらいかな
2016/12/28(水) 23:07:48.09ID:ClaiyaoC0
なんだ、終わるまで待てない人だったかw
2016/12/28(水) 23:12:10.69ID:p2Cg+1Vx0
進捗バーが動くものだと思ってるんだろうな
2016/12/28(水) 23:49:47.12ID:9pSB/lfO0
あの進捗、ファイル数なんだよなぁ(´・ω・`) 大漁のファイル掘り込めばバー動くけど
オンボろノートで1280×800を2倍拡大だと数分掛かるんじゃね?
2016/12/28(水) 23:53:04.70ID:BK0VqACV0
重たい処理したいときはこのあたりのソフト使うと良いよ

【優先度】CPU最適化スレ 3CPU【自動変更】
http://potato.2ch.net/test/read.cgi/software/1327059116/
545531 (ワッチョイW b2e1-EzRd)
垢版 |
2016/12/30(金) 14:31:11.67ID:tIIWopzb0
辛抱強く待ってたら一応完了したのですが出力先を見たら何もできていませんでした‥.

モデルのUpPhotoとphotoの違いは何でしょうか?
2016/12/30(金) 14:40:02.55ID:RVSItgrB0
出力先指定してあるの?違う所見てない? それか上書になってない?

無印は標準モデル
Up印は速度優先モデル(と言っても倍程度。出来上がりに大差はないけど物によっては気になるかもしれない)
2016/12/30(金) 17:02:37.88ID:G+DVIbZ50
1060が届いたので試してみました
・・・・・・・・・・あまり変わっていない?
分割サイズを128から240にしたけど、う〜ん

後cuDNNってなんぞ?
2016/12/30(金) 18:12:22.39ID:X3KvqHdb0
cuDNNはNVIDIAが別で配布しているライブラリ
ディープラーニング用のAPIが入ってる

waifu2xはほとんどの処理時間は
コンボリューションで、cuDNNに
含まれるAPIなので恐らく速くなるはず

caffeeの自前実装のコンボリューションが
鬼のように最適化されてたら変わらんかも
しれんが比較したことないので知らん
2016/12/30(金) 18:20:53.02ID:nC1+/K860
>>548
ここに各種条件でのベンチマーク結果が書いてあるよ
https://github.com/lltcggie/waifu2x-caffe
2016/12/30(金) 18:21:04.13ID:vUMlJ/xP0
cuDNN RGBモデル

| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:03.170 | 278 |
| 125 | 00:00:02.745 | 279 |
| 200 | 00:00:02.253 | 365 |
| 250 | 00:00:02.147 | 446 |
| 500 | 00:00:01.982 | 1110 |

CUDA RGBモデル

| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:06.192 | 724 |
| 125 | 00:00:05.504 | 724 |
| 200 | 00:00:04.642 | 1556 |
| 250 | 00:00:04.436 | 2345 |
| 500 | 計測不能 | 計測不能(6144以上) |
2016/12/30(金) 18:34:48.69ID:G+DVIbZ50
>>548
英文書いて登録とか俺には無理だわ
単にチェック入れるだけならな
2016/12/30(金) 18:46:40.90ID:nwoXjDvq0
CUDAとcuDNN、処理時間倍違うのかよ。
さらにup系で倍、ファファファノファー
2016/12/31(土) 00:37:50.29ID:AExTirDU0
Upは速度優先ではなくて速度精度ともに無印より上だよ
2016/12/31(土) 00:39:48.58ID:RK8kbYryH
Up使うとほとんど無印よりきたねー結果になるんだがなんでた?
2016/12/31(土) 00:50:31.70ID:p7hb+TgK0
>>554
アーティファクトが出やすい問題がある>>41 >>274
最新の二次元モデルでは出にくくなってはいるけど
2016/12/31(土) 00:55:45.82ID:p7hb+TgK0
あ、あとcaffeでノイズ除去のみする場合はRGBのほうがいい
2016/12/31(土) 08:15:58.58ID:leMGDIx60
>>553
ほんとにそうなら無印いらなくない?
>>555の問題があるからだから残ってるんでしょ?
だからそういうのは精度上とは言わないもんじゃない?
2016/12/31(土) 08:28:57.23ID:AjfKh5GG0
cuDNNだけどっかに落ちてねーの?
2016/12/31(土) 08:40:38.66ID:AExTirDU0
>>557
数百枚に対するベンチマーク(PSNR)では数値的に上
2016/12/31(土) 22:34:22.56ID:sFjW5xQA0
cuDNN64.5.dll見っけた
探せばあるもんだなぁ
早速導入
おほっ滅茶早ww
2016/12/31(土) 23:03:42.96ID:sFjW5xQA0
分轄サイズを384にすると5GB以上使って4〜5分だったものが1分掛からずに終了
メモリ使用量は1GB程度に減ってた
cuDNN凄いな
2016/12/31(土) 23:51:10.10ID:c2L6UkQy0
うpしようとしてたけどやめて良かった
2017/01/01(日) 06:27:46.76ID:kaC7n5qt0
nvidiaに登録すればDLできるし、探すほどのものでもないべ
2017/01/01(日) 08:15:07.66ID:Rld7TCmj0
この凄さは良い1060のおかげもメモリ量もあって半分くらいはあるのかな?
あってくれ、でないと¥27,000が泣く
2017/01/01(日) 11:52:36.53ID:ZNSLWmzy0
ウィルス付だったり変な改変受けてたりするのも有るし
そんなに難しくないから適当に登録した方が安心
2017/01/04(水) 13:37:33.40ID:3JPHOCLB0
Kaby Lake-S「Core i7-7700K」基礎検証レポート。注目すべきは絶対性能ではなく,電力対性能比だ - 4Gamer.net
http://www.4gamer.net/games/344/G034458/20170102001/

waifu2xでベンチマークしてて笑う
2017/01/04(水) 19:59:44.27ID:dGeuxDic0
>>566
ディープラーニングの推定工程ベンチマークとして便利かもしれないな
2017/01/04(水) 20:11:49.14ID:IycFIp3h0
笑うとか意味不でキムチワル
2017/01/04(水) 22:02:39.62ID:CPp7npvh0
というかしょっぱすぎる性能だな
Ryzen頑張ってくれよ本当に…
2017/01/07(土) 23:25:48.14ID:kGxVSOqh0
中の人Pixivだったのか納得した
2017/01/08(日) 19:04:40.17ID:ZpzukTrs0
waifu2xのことなら、中の人の定義によるけど
開発している人(俺)はpixivではないよ
サーバーはpixivの方が運営しているけど
2017/01/14(土) 04:19:51.80ID:AOMWwbEx0
このスレを見ている人間にとっては大嫌いなレガシー不可逆画像コーデックJPEGに新たなエンコーダが
ttp://gigazine.net/news/20170113-google-guetzli/
人間の目に最適化した極低速高圧縮JPEGエンコーダGuetzli

SSIM:             libjpeg比 14%悪化
PSNRHVS-M:        libjpeg比 14%悪化
butteraugli:         libjpeg比 30%良化
エンコード速度:       libjpeg比 10000%+悪化
同等画質サイズ:       libjpeg比 35%良化
同等画質転送レート:    libjpeg比 35%良化
ttps://translate.google.co.jp/translate?sl=en&tl=ja&u=http%3A%2F%2Fencode.ru%2Fthreads%2F2628
ttp://encode.ru/threads/2628

長すぎるエンコード時間(消費エネルギー)という元手・投資を取り返すには何回その画像ダウンロードされないといけないんだろうな
性能はたしかに良いからお試しあれ
2017/01/14(土) 10:43:46.82ID:kO6Aianq0
よくわからんが、電算機関連の話では
性能って普通は速度(時間)のことを言うんじゃないのか
2017/01/14(土) 11:55:01.52ID:cz8mjfgz0
GuetzliよりGuetzliの性能を評価したbutteraugliってやつのほうが気になる。
SSIMやPSNRより人間の主観に近い画質指標なのかな。
2017/01/14(土) 12:31:07.66ID:ySHnyXEvM
butteraugliでwaifu2xと他の拡大アルゴリズムの比較されたら、どんな結果が出るのだろうな
2017/01/14(土) 13:15:34.86ID:3XEqy+Cv0
リファレンスのpngをq89ぐらいにすると、
似たサイズになるんだけど、確かに通常より綺麗だな。
waifuで拡大したほうが超綺麗になったけど、そういう問題じゃないからね。
2017/01/14(土) 16:10:52.71ID:cz8mjfgz0
>>575
自分もそう思ったんだけどbutteraugliのビルド方法がよく分からなくて断念したよ。
Googleがバイナリを配布してくれればいいんだけどね。

というかほぼGoogleしか使ってない指標でGoogleのエンコーダを評価されても性能が良く分からないよなと思う。
2017/01/14(土) 18:56:54.13ID:0SNYGzDGd
>>577
https://github.com/google/guetzli/releases
2017/01/15(日) 09:56:09.63ID:0bystr9E0
waifu2xの後追いして遊んでるんだけど
作者氏、GAN使うの嫌がってるんだよね

とりあえずGAN、ResNet、PixelSuffle
実装してみたけど見た目SRCNN臭さは
だいぶとれるけどたくさん評価
してないので微妙

俺の本丸は計算量削減なんだけど
理論上計算量3割のはずなのに
3割しか早くならない

chainer、推論遅くないか
2017/01/15(日) 12:05:43.60ID:lB/+H+EU0
サンプル画像すら出さないで何を言わんや…
2017/01/15(日) 12:31:47.79ID:KsNDNARPr
評価中なので待ってください
一回回すのに10時間かかるので
何日かかかります
2017/01/15(日) 13:36:32.29ID:Ux9tIyw00
スクール水着の凹凸を判断してテカテカのラバーコーティングの水着にできる?
2017/01/15(日) 13:52:26.00ID:HieKzZb90
いいなそれ
2017/01/15(日) 15:35:17.21ID:6WNzG8+M0
>>579
GANはPSNRをあまり下げずに使えるならいいですが
(ロス関数の重みの調節で出来ると思いますがトレードオフがあるのでGAN使う意味がなくなってきそう)
PSNRがBicubic以下になると
変換結果に不安があるため現在BicubcやLanczosが使われる領域での置き換えには使えないと思って避けています。
もちろんいくつかモデル作って選択できるようにすればいいだけですが
面倒なのでやっていない状態です。ResNetはdevブランチには入ってます。
2017/01/15(日) 15:46:09.89ID:7I2qaVWZ0
>584
GANについては混合比率下げると
全くなしと見分けがつかないので
PSNRは必ず犠牲になる印象です

3dB近く悪くなるので受容できないで
しょうね

GANは学習すごく遅くなるので
つらいです

GANは学習回数多くしないとだめ
なのでもしかしたら今足りてない
可能性があるので後でしつこく
やってみます

作者さんも自分で実験するのが
めんどいと思うので結果はアップして
共有します
2017/01/15(日) 15:59:53.33ID:6WNzG8+M0
butteraugli というので本当に見た目の印象が定量評価できるならそれもあり思いますね。
僕が見た目の評価嫌う理由は、たいして見る目がない人がリンギングでまってくる画像を
くっきりしているからよいとか判定してしまうところにあるので。
2017/01/15(日) 18:17:37.15ID:7I2qaVWZ0
butteraugjiはためしてみたけど
値が小さい方がいいっぽいね

画像ができたら数字比較してみるわ
2017/01/15(日) 19:31:48.53ID:7I2qaVWZ0
butteraugliでエポックごとの
評価みたけど学習打ち切った時点で
まだあがってた

評価がサチるまで回しますが、
たぶんすごい時間かかります

二乗誤差じゃわからん
2017/01/15(日) 20:38:29.02ID:6WNzG8+M0
SRGANはやろうとした人を何人も見ましたが
みんなうまくいっていないので
写真のモデルでcheckboard artifactを出さずに
論文の結果と似たような画像を生成できればそれだけで価値があると思いますよ
2017/01/15(日) 21:26:01.39ID:0bystr9E0
SRGANはチャレンジですね。がんばってみます。
うまくいったら挑戦します。

butteraugli初耳だったんですが、スレ観たらビルドの仕方が
わからない人がいる模様。Linuxの開発したことのある人少ないんですかね。

Windows10のコマンドプロンプト開いて以下のコマンドで実行、

$ bash

コンパイラとライブラリインストール(zlibはpngと一緒に入る)、

$ sudo apt-get install gcc g++ make libjpeg-dev libpng-de

ソースコードのMakefileのあるディレクトリで

$ make

で実行ファイル作られます。bash上か他のLinuxマシンのみで動きます。

プログラマじゃない人も色々遊んでみてください。
591名無しさん@お腹いっぱい。 (ワッチョイ 0932-vSov)
垢版 |
2017/01/15(日) 21:27:08.93ID:0bystr9E0
$ sudo apt-get install gcc g++ make libjpeg-dev libpng-dev

です。すんません。
2017/01/15(日) 21:29:00.78ID:lB/+H+EU0
waifu2x、再び!!
Stay tune!
2017/01/15(日) 22:37:39.20ID:3/ESU5jW0
>>590
ありがとうございます。
ビルドできました。
2017/01/18(水) 15:23:24.52ID:bain95gP0
Google、機械学習で低解像度画像をシャープに見せる「RAISR」をサービスで実用化
http://www.itmedia.co.jp/news/articles/1701/17/news067.html
2017/01/18(水) 15:27:07.14ID:n4UMTi1p0
>>594
これyoutube動画でもやってくれないかな。
あと動画上の物体の形や位置を認識してサラウンド感を与えるとか。
2017/01/18(水) 15:39:56.54ID:xnw/jmuH0
やりたいことはYoutubeがすでやっている動画の再エンコと一緒じゃないかな
画質を改善するというより、苦情の少ない範囲で圧縮したいなので
運営としては通信量が減って嬉しいけどユーザーとしては以前よりも画質が悪くなるので
携帯事業者がやっていた「通信の最適化」と同じ考えだと思う
2017/01/18(水) 20:37:05.06ID:eyJLRRBJ0
でもそれで同じ容量で解像度が例えば1.5倍になれば話が変わる
色空間やインターレースしかり悪いばかりのトレードオフでは無いと思う
2017/01/23(月) 19:31:01.14ID:B0/L9i7j0
waifu2x-cafeeをXeonとQuadro両方積んだPCで実行するときってどっちのほうが効率的なんだ?
ちなみにXeonは12コア3.30GHz、Quadroは2000。
2017/01/24(火) 00:16:40.73ID:RYhQuic60
>>598
Quadroの方が速いんじゃないですかねぇ?

↓の画像でXeon 16Core 3.6GHzで2分40秒ぐらい
CPU使用率は20%ほど XPx64環境で無理矢理実行したからちょっとアテにならないかもしれないけど
http://www.dotup.org/uploda/www.dotup.org1133523.jpg 変換元画像
http://www.dotup.org/uploda/www.dotup.org1133524.png 設定
2017/01/24(火) 08:27:54.07ID:2IuxhXxQ0
>>599
ハイエンドなマシンで動かしてらっしゃるようなので
NeuronDoubler v5.00だとどれぐらいかかるか検証して頂いてもいいですか?
http://loggialogic.blogspot.jp/2015/09/neurondoubler-v500.html?m=1
2017/01/24(火) 23:23:52.69ID:RYhQuic60
>>600
sampleのlogo.pngを2倍で16s、4倍で66s
sampleのphoto.pngを2倍で44s、4倍で200s
といった感じです

32倍をlogo.pngでやってみたら1876sとかかかったので、photo.pngの方は試してないですw
2017/01/25(水) 09:31:13.38ID:7PUj0Uuc0
>>601
ありがとうございます
手持ちのMacbook Pro late 2012では
960×540のpng(写真)を変換したところ1600s
ぐらいでした
16コアもあると動画用にNeuronDoublerを使えそうで羨ましいです
2017/01/25(水) 21:02:31.59ID:idIVVLyq0
waifu2x研究家なんですけど
GANのPSNR問題解消しそうなので
週末画像出します

waifu2xと同じupモデルをこっちで
再現したものとの比較しますが
時間がかかるのでそれ以外との
比較は難しいです

何個かネタがあってそのマイルストーンです

3月に資料作るのでそのとき
リンク張ります
2017/01/26(木) 00:25:26.80ID:AnODLToW0
単純にはMSEとGANの出力を適当な割合で合成すればいいように思うけど
重くなるので学習の枠内でやれればいいですね

あとneural-enhanceの人も最近waifu2x的なやつをやろうとしているみたいです
https://twitter.com/madebyollin/status/823652970440986624
これは別の人の結果だけど、たしかに線はくっきりしているけど余計なことをしすぎているように見える
2017/01/26(木) 06:13:14.86ID:9CM3n4Bd0
>604
適当な割合で合成すればいいんですけどふたつ問題があって

1. 適切な混合比率がタスクによって違う
2. 結果が不安定でうまくいってるエポックとそうでないエポックのばらつきが大きい

なので、前者については二乗誤差に対して何%GANを反映するのかって
コントロールを入れています。

GANが余計なことをするのは誤差のGANの項が正解データとの比較を
しないからじゃないかってことで正解データと比較するGANをは
考えてみました。

GANなしに比べてSSIM、PSNRは同等、butteraugliはかなり良くなってます。
正解データと比較する時点でGANの解釈がかなり変わるんですが
(評価中なので正確な値は週末出します)
2017/01/26(木) 06:33:06.18ID:9CM3n4Bd0
わかる人がまわりにいないので、ここに書いてあれなんですけど、

従来のGAN)
Discriminatorで本物らしさを判定して誤差に反映

自分の手法)
本物らしさを学習したDiscriminatorの中間層の出力を
本物と生成データで比較、となります。

Discriminatorの中間層は通常の二乗誤差で比較するのと比べて
大幅に大きい情報量で比較するのと、Discriminator自体が
誤差関数になるので普通の二乗誤差と比べると複雑、高度な比較になります。

Twitterが出してる論文は物体認識を学習させたモデルで中間層の出力で
比較しろ、と書いてあって、これがコンテンツロスなんですが、
コンテンツロスの適用部分はGANに対してやった方がいいのでは
というのが自分の意見です。
2017/01/26(木) 08:44:57.33ID:BNYEQ6nK0
こういうやつに税金投入するべき
2017/01/26(木) 13:58:06.91ID:AnODLToW0
イラストの超解像でperceptual lossにImageNetの学習済みモデルを使うのがよくないのは明らかなので
Discriminatorが使えるならそれは同じ解像度のイラストで学習しているわけだからよさそうですね
ただDiscriminatorは学習中に動くので不安定そうですが
GAN自体がそういうものなので動く感じでしょうか
2017/01/26(木) 14:51:03.26ID:owYC7mKIH
どうも、wiafu2x研究家の人です。

Twitter社の論文読んだとき、コンテンツロスがめちゃくちゃ
めんどくさいので俺はあきらめました(コンテンツロスのために
物体認識のタスクもやらないといけなくなるので大いに藪蛇)。

SRGANがみんなうまくいかない原因はsoftmax、softplusを
そのまま誤差にするから結果が不安定で調整が難しい、
のが大きなところかと思います。

そもそものDCGAN自体も論文の趣旨がうまく生成できる
パラメータが見つかりましたって部分ですからね。

ちなみに自分はSRCNNは勉強会の発表ネタなので、8月に
一か月実験したのと3月の発表があるのでそれで今だけ
やってるだけなので、先行技術のサーベイが非常に
あやしい(何も知らない)のでご教授いただけると幸いです。

今のところもう一個ネタがあって、画像ごとに重要度マップを
作って誤差に重み付けする方法を考えています。
多分来月前半には実験してると思います。
2017/01/26(木) 16:22:50.49ID:AnODLToW0
物体認識の学習済みモデルは配布されているので自前で学習する必要はないです(再現させる場合)。
generatorの出力とgroundtruthそれぞれをそのネットワークに入力して
適当な層(convの2,3層目)の出力が同じになるようにMSEを最小化するのがperceptual loss(コンテンツロス)で
それとdiscriminatorを使ったadversarial lossで
loss = perceptual_loss * perceptual_loss_weight + adversarial_loss * adversarial_loss_weight
を最小化するように拡大前の画像を入力とするgeneratorを学習するのがSRGANという認識です。
なので違いはコンテンツロスに使うモデルを変えているところだと思いました。
自分もGANはやったことがないので違ってるかもしれません。
2017/01/26(木) 16:48:26.18ID:j7MEo8mlr
説明ありがとうございます
認識合わせできました

自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが

なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです

それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました
2017/01/26(木) 17:17:12.53ID:j7MEo8mlr
ganのloss_weightがセンシティブで
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います 

学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます

自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います

後でスレの人に厳しいデータ教えてもらおうと思います
2017/01/26(木) 19:03:54.54ID:tDU6wUAkF
詳しいことはよくわからないけど、ガンガレ。超ガンガレ。

どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…
2017/01/28(土) 11:47:38.55ID:edepqLn8r
waifu2xの研究してる人なんだけど

すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...
2017/01/28(土) 14:42:13.13ID:BYBTK1en0
chainerで線画着色をwebサービスにして公開してみた
http://qiita.com/taizan/items/7119e16064cc11500f32
2017/01/28(土) 15:02:18.06ID:BYBTK1en0
>>614
楽しみにしてますがゆっくりやってくだちい
2017/01/28(土) 15:17:47.96ID:jlInyXUj0
>>615
着色は全くの範囲外だったが、ちと興味が出てきたw
モノクロ写真とかにも活用できそうだな
618名無しさん@お腹いっぱい。 (ワッチョイ a239-WSvd)
垢版 |
2017/01/28(土) 15:35:09.06ID:iZRmUjsJ0
>>615
着色の精度はまだまだだけど、とても面白かったです。
学習が進めばもっとよくなると思うとすごい期待できます。
619名無しさん@お腹いっぱい。 (ワッチョイ 4725-AZYz)
垢版 |
2017/01/30(月) 14:56:45.57ID:pPztTfPj0
あいかわらず
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい
2017/01/30(月) 18:04:46.45ID:qudbf77R0
今更ながら>>615-616に気付いた
自演すんなよw
2017/01/30(月) 18:20:11.64ID:AIhudIHS0
>>620
アンカちゃんと読もうなー
2017/01/31(火) 03:28:18.08ID:Mk/X4pNp0
>>615
やっぱり自動だと色が薄くなるね
あと漫画だとエラー吐かれて駄目だわ
2017/02/01(水) 00:48:53.09ID:47em4zG90
>>615
別にスレッド建てれば?

それとも有るの?
2017/02/01(水) 18:15:33.93ID:r8gMgX8Z0
http://i.imgur.com/3FdvZVm.jpg
http://i.imgur.com/K1wQKBV.jpg
625名無しさん@お腹いっぱい。 (アタマイタイーW 7a39-cbEw)
垢版 |
2017/02/02(木) 17:45:47.99ID:HLUwrrpx00202
waifu2xcaffeで600dpiの画像を2倍に変換したら
96dpiになったのですが、これは仕様ですか?
てっきり倍にしたのだから300dpiになるのかと思っていました。
2017/02/02(木) 18:37:57.12ID:TB2MRryB00202
>>625
1920x1080で600dpi(=3.2インチ*1.8インチ)の画像を2倍に変換したら、
3840x2160で1200dpi(=3.2インチ*1.8インチ)か、600dpi(=6.4インチ*3.6インチ)じゃないか?
2017/02/02(木) 18:58:49.86ID:J3/O+Al000202
>>625
dpiは入出力デバイスの設定なのでwaifu2xの処理はそこに関与しません。
画像のメタデータに特に気を使っていないので印刷サイズには既定値が入っているのだと思います。
印刷や入稿等で必要なら別の方法で再設定出来ると思います。
628名無しさん@お腹いっぱい。 (ワッチョイ 7a39-BdZd)
垢版 |
2017/02/03(金) 10:31:32.28ID:GXC4yUrd0
>>626
>>627
ありがとうございます。
実感としてきれいに見ることができているので少し疑問に思い質問させていただきました。
dpiについてwaifu2xはいじっていないのですね。
dpiやppiのデータ上の数字は気にしないことにします。
(印刷とかはしないので)
2017/02/03(金) 10:35:55.98ID:2kWw6qu3p
ソフトの名前の由来はなに?
2017/02/03(金) 11:03:16.69ID:x+9qdMRg0
waifuを2倍に拡大するからだろ
waifuはぐぐれ
2017/02/03(金) 12:46:58.29ID:tUa22Nfc0
ワイフ



2017/02/03(金) 13:50:44.75ID:Djehhjag0
わざわざ5行で書く無能
2017/02/03(金) 15:14:16.11ID:2ljm3Fbi0
2次特の時点で由来とか聞かなくてもわかるくらいには直接的
2017/02/03(金) 15:22:25.83ID:/MDCuEKc0
じぇいぺぐルネッサンス
2017/02/05(日) 23:27:16.44ID:LHzxPccgM
madVRにおけるNGU pixart特化版のテスト中みたい
NGU無印やwaifu2xと比較するとやや眠くなるものの、例のジャギー問題もこっちなら出なさそう
旧来のNNEDIを正統進化させたような画になってて、処理負荷は低い

Original     ttp://madvr.com/mario/org.png
waifu2x     ttp://madvr.com/mario/waifu2x.png
NGU VH    ttp://madvr.com/mario/NGUveryHigh.png
NGUpixart VH ttp://madvr.com/mario/NGUpixartVeryHigh.png
NNEDI256   ttp://madvr.com/mario/nnedi256.png
2017/02/06(月) 14:09:54.91ID:RhMnf4vZd
waifu2xはwebサービスじゃなくて
windows版はないのだろうか?
2017/02/06(月) 14:13:31.31ID:ogCj2q/30
pixel artの拡大はゲーム機のエミュレータで実装されているような処理のほうが納得できる拡大になると思う
2xSaIとか
http://johanneskopf.de/publications/pixelart/
とか
2017/02/06(月) 14:13:58.10ID:ogCj2q/30
>>636
waifu2x-caffe
2017/02/06(月) 14:49:05.64ID:yDHhyamZ0
>>637
ピクセルシェーダー機能ある動画再生ソフトについてるんじゃね。
2017/02/08(水) 12:04:15.02ID:0rk9u2E+0
8×8ピクセルに縮小した画像から元の画像を予想する技術をGoogle Brainが開発
http://gigazine.net/news/20170208-pixel-recursive-super-resolution/
http://i.gzn.jp/img/2017/02/08/pixel-recursive-super-resolution/a03.jpg
2017/02/08(水) 16:11:31.49ID:8Gpp+YrU0
>>637
それはffdshowにあるね。
2017/02/08(水) 17:11:42.74ID:C6utgMTP0
http://blog.nest-online.jp/7557
ここの一番上のなんたらマジックで拡大しても劣化しないベクター画像化してみたんだけどいいですね
久々にワクワクした
2017/02/08(水) 17:13:49.90ID:C6utgMTP0
と書き込んだ後でバンディングが問題なことに気がついた失礼
644名無しさん@お腹いっぱい。 (ワッチョイ 263b-P6gz)
垢版 |
2017/02/10(金) 19:41:32.41ID:jEc7Edve0
9日に緊急のWindows UpdateとやらでGeforceのドライバが更新されて
Waifu2x-caffeを使うと「CUDAドライバーがインストールされていない〜」状態になった

一応、システムの復元で元に戻したけど....作者さん助けて(もう見てないかねぇ)
Windows10は勝手にアプデかかるから困った
2017/02/10(金) 19:56:17.86ID:M6Wjsk9Z0
Geforceのドライバだけ古いのインストールしたら良いんじゃね
2017/02/10(金) 20:37:24.67ID:xx2cZ+iv0
古いVerは置いとかないとね
俺も勝手にアップデートされた
2017/02/10(金) 22:04:57.99ID:5UGLSm6g0
>>644
Windows Update経由のGeForceドライバ更新はいい話聞かないからどうにかして止めるなりNVIDIA公式から拾ってくるなりしたほうがいいかも
こちらはGTX680にドライバ378.49で何事もなく動いてます
2017/02/11(土) 20:31:30.21ID:Kr/JTqjP0
どうも、wiafu2x研究家の人です。
すごい時間かかりましたが最初の結果が出ました。

|PSNR|SSIM|butteraugli|
waifu2x|27.629|0.928|9.622|
GANなし|27.612|0.927|9.049|
GANあり|27.474|0.926|8.968|
2017/02/11(土) 20:36:55.90ID:Kr/JTqjP0
butteraugliの値は低い方がいいはず
なので俺の手法の方が良い

俺の手法は主に計算量をwaifu2x/UPモデルより計算量を1/4にしていますが8層です。
実質的に層の数が多いのが効いてる可能性もありますが不明です。

すみませんがこちらの都合でアルゴリズムは非公開です。
ここで話が出ていた俺手法のGANについては今再試験中です。
2017/02/11(土) 23:13:48.93ID:ntjYRpkn0
WUでVGAのドライバ更新する人なんておるんか・・・
2017/02/11(土) 23:21:38.80ID:bBXphDts0
勝手にされるから困ってるっていう話じゃないのかな?
2017/02/12(日) 11:08:12.78ID:ra0YTrEG0
どうも、wiafu2x研究家の人です。

評価結果以下に置いてあります。
2000エポック学習させた最終100エポックの画像も付けているのでデータでかいです。
評価できる人がいたらみてやってください。

https://remoteplace-my.sharepoint.com/personal/t-matsu_office_remoteplace_net/_layouts/15/guestaccess.aspx?docid=0eb33501796144cb0abeadc2dd87b74d3&;authkey=AbBvhLq0ewcbScMYwVYIx4c&expiration=2017-03-14T02:04:18.000Z
2017/02/12(日) 18:06:51.45ID:8CCipcq70
web版のwaifu2x、ICCプロファイル対応したっぽい?
2017/02/12(日) 18:47:05.95ID:T/zbW8Mv0
>>648
その値は画像数百枚の平均ですか、1枚だけですか。
waifu2xと書いてあるものはネットワークの定義だけ持ってきて独自に学習したものですか。(そうだと予測)

元画像を探してきてLanczosで1/2にしたあとにwaifu2x配布モデルで拡大すると明らかに結果が違います。
http://ccsaku.moe.hm/gyazo/data/18eac1728b714cfe64b7843ae5a91499.png
左が評価に使用されている超解像/waifu2xモデル/model_u01999.pkl.pngで、右がwaifu2xの配布モデルの拡大結果です。
左はかなりぼやけていて
PSNRも 超解像/waifu2xモデル: 27.717, waifu2x配布モデル: 31.771
と4dBも差があります。ちなみにLanczosが26.449です。
waifu2xと書く場合はこちらの配布モデルと比較して欲しいです。
学習データは、2012年に作ったものなのでそれよりも新しい画像は使われていません。

添付の結果については、見た目はほとんど違いが分かりませんが
GANありは顎のラインと鳥の下の髪あたりにcheckboard artifactが出ています。
各エポックで結果が揺れるならエポックごとにvalidationしてそれで一番よい値の時だけ
パラメータ保存しておけばいいと思います。
2017/02/12(日) 18:49:25.75ID:T/zbW8Mv0
>>653
対応は入れましたが、最近サーバーの環境にちょっとトラブルがあるので
すぐにはウェブ版に反映されないかもしれません。
656名無しさん@お腹いっぱい。 (JP 0H09-3CwI)
垢版 |
2017/02/13(月) 12:19:52.07ID:BMiBMFwmH
>654
確認ありがとうございます!!!
waifu2xと書くのは問題ありそうなのでいい呼び方があったら教えてください。

waifu2xと直接比較しないのは、不明な工夫(学習データ、アウギュメンテーションなど)
がたくさんあり、それを見切れないので比較しようがないというのがあります。
条件を合わせているのは層の数、チャンネル数だけです。
そちらの方としてはあまり変わったことはやってないかもしれませんが、
こちらはそれがわかりません。

とりあえずこれでいい結果が出る手法が発見されればwaifu2xにバックポートすれば
性能上がるのかなと思います。

PNSRなどは2000エポックのうち最後の1000エポックの平均です。
画像を複数枚評価するのは時間的に厳しいのでできていません。

アーティファクトについてはしらなかったのでそういう指摘は助かります。
GANは2000エポックで収束してないというか収束しそうにないので
俺手法のGANの効果については今のところ自分も懐疑的です。
2017/02/13(月) 15:10:31.44ID:eYxsvRKA0
>>656
waifu2xはごちゃごちゃやっていることが多いですがそこまで影響していないと思うので
4dBも違うのは教師データの位置がずれてるか学習の方法かハイパーパラメータが悪いのではないかと思います。
最初に近い精度までは持って行かないとなにか間違いやバグがある可能性があり信頼できなくなります。
waifu2xは写真データで既存手法と同じくらいの結果が出るところまでは調節しています。

waifu2xの学習の基本的なところは、
- 入力画像のランダムな位置から96x96の領域(patch)を切り取り(y)
- それを48x48に縮小(x), 縮小アルゴリズムはBox(平均画素法)とlanczosをランダムに使う
- CNNにxを入力して82x82の出力を取得(zero paddingがないため(96-14)^2になる)
- 出力とyのピクセル位置が合うようにyを82x82に切り取り
- (x-y)^2 誤差を計算してパラメータを更新
で、実際には、画像単位で縮小してその中から64領域を切り取って、xと対応するyもあらかじめ作りながら
画像数*64の(x, y)ペアを作った後にシャッフルしてbatch_size=16, optimizer=Adam(alpha=0.00025)で学習を回しています。
64領域のサンプリングは2エポック毎に行っています(ランダムな位置から再度作り直す)
patch_size, batch_size, Adamの設定は結果への影響が大きいです。

>画像を複数枚評価するのは時間的に厳しいのでできていません。
学習に使わない画像を100枚くらい外しておいて
学習済みのモデルでベンチマークするコードを書いておけば実行は5分もかからないと思います。

>>655
反映されているようです。ウェブ版にICCプロファイルの対応入れています。
2017/02/13(月) 17:35:47.49ID:BMiBMFwmH
4dB問題は知ってたんですけどいくら確認してもおかしいところが
見つからないのでwaifu2xが何かやってるんだろうととりあえず放置していました。

そちらからみておかしい、とのことですのでもっとしっかりデータ確認します。

ありうるのはサブピクセルレベルでのピクセルずれ(縮小時に奇数ピクセル数だとずれるとか)が
ありうるかと思いますが、そちらで情報開示してもらったのでそれに合わせてやってみます。

縮小フィルタの特性を学習してしまう問題も知ってるんですけど、そういう回避方法は
考えていませんでした。やってみます。
2017/02/13(月) 19:03:49.27ID:6JRW9uJM0
adamのalphaは小さめにしていますが
それでもでかいようなので全部そろえます

毎度すみません
2017/02/14(火) 00:43:58.37ID:9afuuku60
>>82x82
upconv_7の出力は68x68でした。(96-14*2)
>縮小時に奇数ピクセル数だとずれるとか
これは必須です。もし対策していなければこのせいじゃないかと思います。
waifu2xは学習画像読み込み時点で4の倍数になるようにしています。(4xもあるため)
またpatchを切り取る位置も元画像側の位置が奇数になると縮小側の位置がズレます。
2017/02/17(金) 20:31:02.69ID:ISS8P0MC0
超解像頑張り中の人です。

とりあえずwaifu2xのソースコード読んでコンボリューションの初期値あわせてみたり、
変な処理をしていたのを直したり色々やったところ1dB改善しました (PSNR=28.5dB)。
視覚的には大幅な画質向上があります。

AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。

言われたところは全部直したつもりなんですが、誤差関数が何かやってる様子。
よくわかりません。HunberLossも使っているのか使ってないのかわかりませんし...。

とりあえず1バッチ=12画像、1エポック=100バッチで2000エポックで学習が
収束しきってないのでがんばればPSNR=29dBまでは行くと思うんですが
31dBかかなり厳しいです。30dB行ったら諦めます。

俺的には学習データ数が少ない、augumentationがまずいってところかなあと思います。
学習データはすごく重要なんですけど、俺にはそこに情熱がない...。

こっちの学習データは250枚、augumentationは上下、左右反転、45度ローテーション、
ノイズ付加、画像縮小です。

ほんまwaifu2xはエンジニアリングの塊なので一朝一夕には追いつけませぬ。
(諦めてるので追いつく気なし)
2017/02/17(金) 22:19:08.74ID:AmcVWIz30
>>661
HuberLossは使っていますが多分それほど関係ないです。(というかMSEのほうがPSNRは高くなると思います)
誤差はノイズ除去で色が劣化しているのを直すときに
下げれる誤差に限界があるので、YUVのYの重み(0.299 × R + 0.587 × G + 0.114 × B)にあわせて
チャンネルごとの誤差の重みを調節しているだけなので、拡大の場合はそれほど関係と思います。
学習データが少ないのはあるかもしれないですが、今はパッチを切り出さずに画像単位でforward/backwadしているでしょうか?
小さなパッチを切り出してからシャッフルして小さいminibatchで学習するのはとても重要です。
画像単位だと例えば1280x720だった、出力が86万個の変数になって
この平均誤差をbackwardすることになるので、画像内のある小さな領域内で誤差が大きかった場合でも平均されて消えてしまいます。
特にイラストの場合は何もない背景が多くて、そこは誤差がほぼゼロになるため平均されて誤差が消失しやすいです。
(waifu2xはパッチを切り出した後パッチ内が単色背景の場合は50%くらいの確率で捨てるような処理も入っています)
また学習データ少ない場合でも、たとえば96x96のパッチだと画像1枚から70万通りくらいの切り出し位置があるのでデータ増加にもなります。
2017/02/17(金) 22:33:15.43ID:AmcVWIz30
>AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
あと書いていませんでしたが、0.00025から初めて最終的にその1/10くらいになるように減らしていっています。
Adamは学習率が自動調節されるようなことが書かれていることがありますが
パラメータの要素単位の正規化をやっているだけなのでalphaを減らすのは意味があります。
なので最終的なエポックで1/10くらいになるようにalphaをスケジュールしたほうがPSNRは高くなります。
調節が難しければ、80%くらい進んだ後で1/10にして残り20%を回すくらいでも十分意味があると思います。
2017/02/17(金) 23:47:35.21ID:ISS8P0MC0
画像は教えてもらったパッチサイズに分割しています
当然シャッフルしています

SGDなんかでは学習率を減衰する正則化は普通ですけど
Adamでも効果あるんですね。というかそんなに小さな学習率で
PSNR向上するのか...。
2017/02/18(土) 04:13:42.14ID:3fQ0tPmvM
ai搭載してほしい
2017/02/18(土) 13:20:51.75ID:M/eXR+AJ0
deeplearning研究の成果であるwaifu2xがAIでないとしたら何がAIだと言うのかね
2017/02/18(土) 13:22:00.41ID:05aNXszw0
>>665
正解を大量に教えれば、その正解に近いものを導くのがAIだけど、あなたの求める正解って何?
2017/02/18(土) 14:02:32.75ID:3fQ0tPmvM
>>667
AIだったとは!
2017/02/19(日) 20:45:41.75ID:Io/fs1qe0
超解像で遊んでいる人です。

waifu2xの方の話を聞いてて自分の中で結論が出たのはSRCNNの
画質はずばり精度で決まるということですね。

学習率が異様に小さいのが納得していなかったのですが、
多分SRCNNの重みの調整は超絶微細な学習です。
なので高めの学習率で荒い調整したら細かい調整がいるのかなと思います。

例えるなら7層のネットワークの調整は7枚のレンズの焦点を
あわせるようなもんかなあと思います。

なので処理の過程で精度を落とすような処理は厳禁ですし、
学習データも多い方が明らかに有利です。
なのでかなり気をつかった実装が必要かなと思います。

PSNRは改善してきましたが、やはりノウハウの塊であるwaifu2xを
越えるのは難しいかなと思います。自分はアルゴリズムの方に
興味があるのでそっちがんばります。

自分とwaifu2xの作者の方は目指しているところがまったく逆なので
競合しなかったのが救いです。
2017/02/19(日) 20:46:05.85ID:Io/fs1qe0
先日専門家の方からsaliency mapという手法を教えてもらったので
視覚ベースの高精度化の実験やってます。定量化が難しいですけど
なんとなくbutteraugliは向上しそうな気がします。

あとGANの識別器から重要な画素の情報を計算する方法も考えたので
それも実験中です。

手垢が付いてない分野なので色々新しい手法が見つかります。
2017/02/20(月) 03:22:48.92ID:eI9WZF/30
SRCNNというか回帰問題なのでそうだと思います。
分類では識別境界に近いところ以外は大雑把でよいですが
回帰だと全ての点を正確に合わせないといけないです。
2017/02/22(水) 16:16:01.04ID:RyHb8dzv0
おもすれー
http://affinelayer.com/pixsrv/index.html
673名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
垢版 |
2017/02/25(土) 21:08:59.68ID:lgzXMqNX0
アニメとか動画を拡大したい人向けのソフト作ってみた。
http://c00-c03.blogspot.jp/2017/02/waifu2x.html
2017/02/25(土) 21:43:53.51ID:IaQhgHq50
それを使った場合と使わないで普通に全部拡大した場合の結果の違いまだ未検証?
675名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
垢版 |
2017/02/25(土) 22:33:37.42ID:lgzXMqNX0
>>674
動画とブログに書きましたが、速度はこのソフトを使ったほうが早くなります。
画質には普通に拡大した場合と比較して違いはありません。
2017/02/26(日) 12:08:18.25ID:lIqm/eYA0
動いてないコマは端折ったのね。面白い考え。
2017/02/26(日) 12:35:01.92ID:zA+f4GY30
拡大をCPUで処理してる場合はかなり早くなるんじゃね?

>>676
コマっつーかコマ内のさらに差分じゃね
2017/02/26(日) 16:36:31.44ID:/VbKsdDz0
http://i.imgur.com/qeqSdax.jpg
http://i.imgur.com/THyF7yT.jpg
http://i.imgur.com/WCzYXqd.jpg
http://i.imgur.com/FZMLAXt.jpg
2017/02/26(日) 22:12:33.57ID:Xy6B3Z1p0
面白いな。素材がとにかく低ノイズじゃないと差分がいい具合にならない気はする。
実写だとどうだろうなぁ。実写動画でいろいろ拡大絡みのことはやってみたいと思ってるんだけど。
680名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
垢版 |
2017/02/26(日) 22:41:32.17ID:uRk4b+bo0
>>679
閾値の値を調整すれば程度は対応できますが、
完成した時にブロックノイズが現れることがあるので調整が難しいですね。
2017/02/27(月) 12:23:47.22ID:GA0WyZxg0
ラデオンでも快適に使えるようにしてくだされ
2017/02/27(月) 19:28:07.51ID:S1xW0xg80
この差分方式が進化すると裏に進出済み女優の表作品からモザイクを除去できるのでしょうか?
2017/02/28(火) 12:49:55.55ID:pSKMH9Zc0
>>678
コイツです。
684名無しさん@お腹いっぱい。 (ワッチョイ 3a44-kj3l)
垢版 |
2017/03/04(土) 17:25:09.45ID:RVxD/uAR0
>>682
学習データの蒐集方法が謎w
2017/03/05(日) 00:58:28.30ID:xeJSOFvy0
個人ごとに好みがあると思うので各人で学習させる事もできるといいんじゃないかなw
2017/03/05(日) 01:54:20.37ID:nTZYFyha0
100万枚くらい正解と不正解の学習用画像もってる人限定か
2017/03/05(日) 22:34:47.95ID:sbvLrrZw0
モザイクと検出された所が全てマンコに置換されて
マンコまみれの悪夢のような画像が生成されるんだな
2017/03/06(月) 14:05:04.79ID:gas2tGQp0
マジレスすると、モザイクの範囲や解像度は入力によって異なるので復元を学習するのはなかなか難しいと思う。
モザイクの顔が復元できるよみたいなデモは
入力が8x8のモザイクで出力も位置合わせされた顔しかありえないなど限定された条件の結果なのでまだ実用的ではない。
2017/03/06(月) 19:34:14.98ID:N2MWaHxD0
パネルアート画像がモザイク認識されてとんでも画像へと処理される奇劇のヨカン(´∀`ミ)
690名無しさん@お腹いっぱい。 (ワッチョイ 6be5-9O7/)
垢版 |
2017/03/09(木) 21:30:19.36ID:+vcVYOGF0
>>681
約4倍の高速化したバージョンを公開したのでもしよかったら試してみてください。
http://c00-c03.blogspot.jp/2017/02/AniZipReleaseNotes.html
2017/03/10(金) 09:35:55.09ID:RMdt2oaF0
実写は無理だった
2017/03/11(土) 14:37:39.60ID:SU15X7fC0
AMDでwaifu2x

http://inatsuka.com/extra/koroshell/ でwaifu2x_koroshellをDL
http://d.hatena.ne.jp/w_o/touch/20150629/1435585193 で
waifu2x-converter_x64_0629_02.zipをDL
waifu2x_koroshellを入れて
waifu2x_koroshellの中のwaifu2x-converterにwaifu2x-converter_x64_0629_02の中身上書き

waifu2x_koroshellで動かすとGUIでOpenCL使える
2017/03/12(日) 06:36:21.76ID:hZc07GQB0
>>696
何でわざわざそんな古いバージョンを…
20160101が最新だよ
http://d.hatena.ne.jp/w_o/20150629/1451664048

あと最近、海外の人が作った派生もある
https://github.com/DeadSix27/waifu2x-converter-cpp/releases

同梱されているモデルのバージョンが新しい
ノイズ除去レベル3が追加されている(なぜかレベル0は追加されていないが)
今後も更新がありそう
などのメリットがある
2017/03/12(日) 13:25:52.96ID:PEldwp8G0
>693
tanakamura氏版から派生したようですね。RX460で正常動作。

ただ、透過画像との相性問題も引き継いじゃってるので、修正されたらいいなぁ。
2017/03/14(火) 06:01:16.34ID:ytw58lnz0
>>693
それだとkoroshellに入れても使えないし
692のはkoroshellを使った操作が楽な方法よ
2017/03/15(水) 01:31:35.13ID:NMYyqaAt0
>695
koroshellフォルダに「waifu2x-converter」サブフォルダ作って、
「waifu2x-converter_x64.exe」にリネームすれば、使えますよ。
ノイズ除去は、なし(Lv0)、弱(Lv1)、強(Lv2)までしか選べないので、
Lv3使えないけど。
2017/03/17(金) 17:24:03.19ID:FhgIFmLg0
自分用にこういうの作ったから良かったらどうぞ
基本的にただのフロントエンドなので元のソフトの機能しか使えないですが
http://i.imgur.com/6j4XHEy.png
https://www.dropbox.com/sh/0y9scaml78otum2/AAAs4sTIHQWn_UfYCwwC95VKa?dl=0

https://www.virustotal.com/ja/file/67cc556ad135c2ab85d83b4bd92e6735b873904ff42a38f9022719435996d9e9/analysis/
https://www.virustotal.com/ja/file/c06ba95ca00297f0d7e8892bb350899337d50f7c30a5f9e104e58e8ba96107d7/analysis/

かなり強引な方法ではあるけど、フォルダも処理出来る(多分)ので>>673フソフトとも連携できるはず
2017/03/17(金) 23:03:21.46ID:fptxaYtO0
全く見てないけどkoroshellの代わりになるようなもの
という認識で良い?
2017/03/17(金) 23:37:27.66ID:FhgIFmLg0
>>698
基本的にはそういう感じですが使い勝手は異なるのでどちらが良いかは人によるかと思います。
具体的には画像をドラッグ&ドロップしただけでは変換が始まらないので何枚もポンポン放る使い方をする方はkoroshellのほうが良いかもしれません。

koroshellより優れていると思うところは

フォルダをサブフォルダごと処理出来る(多分)
同梱モデルが新しい
最初からtanakamura氏のwaifu2x-converter-cppを同梱をしてあるので差し替える必要がない
イラスト用モデルと写真用モデルの切り替えができる
ノイズ除去レベル 0〜3まで使用可能

ですかね。
2017/03/18(土) 16:30:49.66ID:SMS+/6Qv0
700
2017/03/18(土) 16:48:11.10ID:uCDPIZXT0
D&Dモードも実装して(はぁと)
2017/03/31(金) 14:45:23.84ID:BqzZfGSY0
waifu2xのすごさを実感したわ
幅720ピクセルの画像をFHDにして壁紙で耐えられる
まあイラストだから許せるのもあるけど
2017/03/31(金) 18:13:13.97ID:2g/H5pQj0
昔付き合ってた女のいろんな画像とか、waifu2xで拡大して遊んでるわw
流石に昔のスマホの素人撮りだから、2倍以上だと粗が目立つけども・・・

閑古休題、DenoiseNetも今後期待できそうね
https://pbs.twimg.com/media/C1tjW1qWIAAEpJw.jpg
https://arxiv.org/abs/1701.01698
2017/03/31(金) 23:36:18.06ID:iFk//65N0
>>703
ホクロが消えてシワが消えて
若返り画像生成ツールやね
2017/04/02(日) 23:42:14.76ID:P/TEvgCC0
縦横幅を指定って7680x4320みたいな指定でいいのね
2017/04/03(月) 00:01:52.18ID:j7vFn78H0
>>705
何の話かと思ったら更新来てたのね

waifu2x-caffe ver 1.1.8.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.1
GUIで変換後の縦横幅でサイズ指定を追加
CUIで変換後の縦横幅を同時に指定できるようにした
GUIの翻訳にフランス語追加
2017/04/03(月) 00:19:45.25ID:j7vFn78H0
ところで↓の話ってどうなったんですかね?

CUDA on AMD GPUs, now possible? · Issue #71 · lltcggie/waifu2x-caffe
https://github.com/lltcggie/waifu2x-caffe/issues/71

MIOpenは2017年の第1四半期にリリース予定って聞いたんですが、まだリリースされてないのかな?
2017/04/03(月) 00:59:01.62ID:/CKofziZ0
ある程度大きい画像だと違いはあまり感じられないのね
2017/04/03(月) 18:49:25.18ID:X2+lQHyy0
>>706
ver 1.1.8.1使おうとしたらCUDAドライバ無いッスってエラーが出た
前のverはNVIDIAのドライバ入れてGPU変換出来てたのに何でだろう
今新たにドライバ入れなおし中
2017/04/03(月) 23:08:06.81ID:X2+lQHyy0
ドライバ更新したらCUDA変換できた

>ある程度大きい画像だと違いはあまり感じられないのね
画像によるけどフォトショ等で一旦縮小してからやると綺麗になったりする時もあるよ
2017/04/04(火) 06:54:31.05ID:IKEv3bLo00404
ん、GUIで高さ指定の場合に入力値が横幅として処理されちゃってる?
横幅指定は正しく横幅になり、縦x横指定の場合もその通りになる
ファイル名の付き方は指定の通りになってる
712名無しさん@お腹いっぱい。 (ワッチョイ 3720-+TA9)
垢版 |
2017/04/08(土) 18:15:39.34ID:rclrmZXV0
>>711
致命的バグが修正されませんね。
2017/04/16(日) 21:27:24.07ID:pBocPxZ/0
バージョンアップ来そうな予感
2017/04/16(日) 21:37:19.02ID:pBocPxZ/0
waifu2x-caffe ver 1.1.8.2
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.2
出力フォルダを選択するときにエラー落ちすることがあるバグを修正
GUIで縦幅サイズ指定にしても横幅の指定と認識されるバグを修正
出力深度ビット数を入力で変更できないようにした
2017/04/17(月) 00:16:48.95ID:Fnf2sWjg0
今繋がらなくなってる?
プロキシエラーになる
2017/04/17(月) 00:40:06.64ID:3EuGOoc40
>>715
こっちは繋がるよ
2017/04/30(日) 20:09:22.51ID:tNItES6T0
このソフト便利だなあ
写真で使うと解像感があがる
塗り絵になってしまうのは仕方ないけど縮小して見る分には問題ない
2017/05/02(火) 15:42:24.70ID:JQ04n9gT0
これすげえ。

ディープネットワークによる
シーンの大域的かつ局所的な整合性を考慮した画像補完
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/ja/

様々なシーンの画像補完(Places2データセット)
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/images/results/results.png
顔画像の補完(CelebAデータセット)
2017/05/02(火) 15:58:18.77ID:vtKwUtbN0
>>718
なにこれ使い道一つしか思い浮かばない
2017/05/02(火) 16:57:06.66ID:taLs0zcqa
>>719
通報した
2017/05/02(火) 17:17:39.08ID:qDVWDXWEd
これであの水玉を消せるんやな!
2017/05/02(火) 17:18:42.61ID:pqsa/JXr0
そもそも学習用のモデルが用意できねぇw
2017/05/02(火) 19:11:17.40ID:XTKWh3siM
学習用モデル=世界中で公開されているネット上の画像っていうパターンか。
2017/05/02(火) 21:16:59.37ID:5cXtYQYl0
>>718
早稲田のチーム凄いな
2017/05/03(水) 00:00:51.86ID:+CxIcRIL0
ここに書いて良いのか分かりませんが waifu2x-caffe ver 1.1.8.2
GUIで 出力深度ビット数を16bitにして終了しても設定が保存されません。
(Setting.ini で常に LastOutputDepth=8 になる)
2017/05/03(水) 23:06:21.15ID:ImwEXeaO0
>>719
水着とか消しても裸にはならずに水着が生成されるだけだとおもうぞw
2017/05/04(木) 01:20:29.54ID:G2y9UVJf0
>726
横に別の裸婦おいとけばそういうものと解釈されると思われ
2017/05/05(金) 07:07:35.10ID:x1hI7Qpd00505
waifu2x-caffe 1.1.8.2
拡大サイズの縦横幅で指定にチェックした状態で、変換モードをノイズ除去だけにしてもリサイズされちゃうな
2017/05/06(土) 21:46:20.63ID:IOuQ7Cr50
waifu2x-caffe作者様:
出力パスに.(UpRGB)(noise_scale)(Level2)(height 1920).jpgとかを
一切付与しない動作設定OPって追加出来ませんかね?
2017/05/06(土) 23:16:08.90ID:4rqar1y80
コマンドラインから使えばいいじゃん
2017/05/07(日) 00:14:14.19ID:2eNDc51j0
複数ファイル渡せば付与されたフォルダが作られた中に元のファイル名で保存されるやん(単ファイルでやってるならファイル名入れなおせば?)
2017/05/09(火) 10:49:10.46ID:z00DZkJZ0
>>718

性欲はイノベーションの母
2017/05/09(火) 17:09:22.63ID:bfkz6Z1j0
あっそ
2017/05/10(水) 10:54:53.09ID:9A/riYfT0
仕事で衛星写真系の超解像を齧ってるんだが
既存のアルゴリズムだとなかなか思ったようにはいかないものだな
学習ベース(元画像から縮小)は現状数十万件あることは有るのだが
2017/05/10(水) 11:23:44.94ID:UuXmik9X0
>>734
これの建物のデモとか面白いよ

Image-to-Image Demo
https://affinelayer.com/pixsrv/index.html
2017/05/10(水) 15:49:05.06ID:uNxg2QHm0
>734
学習させる正解って何って世界で、ゴースト出ても味があるとかじゃ清まされないからねぇ
2017/05/11(木) 16:24:41.03ID:SMDSeqjX0
衛生写真の超解像ってセンサ的に撮れないものを出そうとしているならそれは無理なので
検出したい物体だけ小さくても周りの状態や別の情報から検出できるようにするとか問題設定を変えたほうがいい気がする
最近kaggleでも衛生写真の領域分割(車、道などの分類)や位置合わせなどやっていたよ
2017/05/13(土) 09:19:13.00ID:dJt40kY10
これ、ループが何回で終わるか分からないのが難点だなあ
start process block (*,*) ...
の数字が減少する方向で書いてあればいいのに
2017/05/13(土) 15:49:39.24ID:FAb2LKwd0
>>692
これの導入が間違ったのかな
waifu2x_koroshellが本体?
waifu2x_koroshellのwaifu2x-converterフォルダにwaifu2x-converter_x64_0629_02の中身上書きしたら応答停止になった

つかwaifu2x_koroshellオリジナルが2分半かかったけどtanakamuraオリジナルは30秒未満だったよw
2017/05/13(土) 23:40:32.01ID:P6F+VILj0
tanakamuraってまだ更新してるの?
2017/05/14(日) 15:16:16.36ID:1GR9xMZmM
止まってる
2017/05/15(月) 01:11:02.50ID:NgqhOYwL0
waifu2x-caffe ver 1.1.8.3
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.3
縦幅か横幅指定の拡大で、計算誤差が原因で指定サイズから1pxくらいずれることがあるのを修正
日本語環境以外でCUIの出力が文字化けしていることがあるのを修正
cuDNN v6に対応
2017/05/15(月) 05:45:05.44ID:yjuDx3R10
>>742
このスレで報告されたバグは修正されてない?
もうこのスレ見てないのかな
見てるけど重要度低いと判断されて後回しになってるのかもしれないけど
2017/05/19(金) 09:05:30.88ID:GMrJ8uZy0
AMD版更新・・・
2017/05/19(金) 13:22:34.26ID:g46aCL8V0
waifu2xすげーな
アプコンの美しさ、処理の速さ、生成ファイルの容量、ひとつも不満なし
久々に神ソフトに出会ったわ
2017/05/22(月) 16:39:55.09ID:TBnT4kBv0
不満をしいてあげれば、にじみ(ボヤケ)かな。
画数の多い文字が含められてる画像を処理した場合とかに特に目立つ。
2017/05/22(月) 19:07:44.33ID:pWmGSvMIM
にじみというより溶けてる。
アンチエイリアスでもかけたくなる
2017/05/22(月) 19:30:46.99ID:TeLMEihh0
ノイズ除去オフにしてみたら?
2017/05/22(月) 19:39:45.16ID:VCQWXW2m0
普通に拡大するよりかなりマシだとは思うけど
その画数が多い文字ってそもそも小さくて点のあつまりみたいになってるようなのじゃないの?
2017/05/24(水) 03:21:38.21ID:029zNDOI0
>>744
どこのこと?w
2017/05/25(木) 18:25:43.19ID:65GD6j0N0
!?

https://twitter.com/ceekz/status/867657726066737153
eBookJapan が waifu2x に目を付けたものの、マンガ画像での画質には満足できる結果が得られなかったので、作者の nagadomi 氏と共同研究したとのお話、超いい話。 #jsai2017
2017/05/25(木) 19:29:59.98ID:eyGOFKtj0
お前らは元データの解像度上げろよw
2017/05/25(木) 22:15:17.68ID:kUHM1/vo0
ホントだよ
2017/05/26(金) 04:30:43.98ID:nRPx0DCl0
どれだけひどい元解像度を想定してるの (((´・ω・`)
2017/05/26(金) 16:30:06.46ID:EQGpWO780
サーバーにクソ画像で保存(容量節約)
購入者宅でwaifu2x拡大
という流れか
2017/05/26(金) 17:05:25.15ID:8jEqXNTn0
まともな画質になる範囲なら大アリだと前から思ってたけど
読みながら拡大じゃ遅すぎるから
買ってダウンロードした直後か読む前に全ページ拡大かねえ
それにしたって時間かかるな
画像部分と写植部分のデータを分けて文字はリアルタイムレンダリングなら理想じゃねって思ってる
フォントは必要に応じてダウンロードされる想定
2017/05/26(金) 17:22:43.39ID:c9AYd7GP0
いずれにせよ、この手の技術が企業側の手にかかった時、
ユーザにメリットなんてほとんど考えられないと思うのは俺だけか
2017/05/26(金) 19:16:01.27ID:WYvdqFs/0
文字の多くが吹き出し内に収まっている画像なら恩恵が大きそう
黒ベタやカケアミの上の文字は苦手そうだが
2017/05/26(金) 23:10:47.80ID:8jEqXNTn0
>>757
それは同感だな...
2017/05/27(土) 06:59:40.02ID:83m0YSC30
資本投入で開発スピードアップ、変換品質アップするなら有料でもなんら問題はない
むしろ現状の「タダで使えるのが当たり前」を前提にしていることのほうが、よほど不自然だ
2017/05/27(土) 13:18:06.97ID:OKArgZIU0
>>750
スマン、まだかなーって待ちわびてるのよw
2017/05/27(土) 15:29:04.19ID:SF5b7Q1g0
どう考えてもトーンで爆死だろ
2017/05/28(日) 05:24:34.22ID:fiLf1wF90
>>760
今だとIPを育てるよりもいかに換金するかって方向になりがちには思える
企業にも以前ほどは余裕が無いんだ
2017/05/31(水) 07:02:52.19ID:vM+I0McW0
http://106.imagebam.com/download/aZJsAhVxEI6009OViXubpw/29366/293658706/bicycles-144.jpg
2017/06/01(木) 16:55:53.64ID:HaB1LARk0
waifu2x-caffe_Difference_From_ver1.8.0.zip
1.1.8の間違い?
2017/06/03(土) 08:15:36.26ID:qOKxzklB0
http://ist3-6.filesor.com/pimpandhost.com/1/_/_/_/1/4/v/T/X/4vTXO/Cul_nu-051_l.jpg
2017/06/20(火) 23:50:36.91ID:lcWK/YJq0
ディープラーニングシステムの主要要素(モデルなど)の再現や入れ替えを容易にして研究を促進するGoogleのTensor2Tensorが一般公開
http://jp.techcrunch.com/2017/06/20/20170619tensor2tensor/

近頃、あまり動きはないようですが、これ以上の改良などは特になさそうなのかな?
2017/06/27(火) 00:44:09.93ID:YRRyu61z0
>>707
AMD、Vega世代のGPUを搭載した機械学習向けの「Radeon Instinct MI25」
http://news.mynavi.jp/news/2017/06/26/330/
> なお、MIOpenとROCmに関しては、6月29日の公開を予定する。
2017/06/27(火) 01:56:04.79ID:Ejj/j5kL0
>>768
お、ついに来るか。
ところでMIOpenってAMDの古いGPUでも使えるのかな?
なんかRadeon Instinctシリーズ限定っぽい感じもするが。
2017/06/27(火) 02:19:37.15ID:QcSZqwrU0
米尼から買った1080Tiを1060に追加して(学習ベース構築の段階)24時間回してるんだが
工業扇が50wくらい食ってるが、1月あたりの電気代が6千円→1万越えにw 

ガレージ設置で計測機が別系統なのでわかりやすい・・・設置するまでは基本料金に収まってたのよね
2017/06/30(金) 00:00:38.38ID:YwpeVX100
電力会社の見直しだ!!
2017/07/02(日) 08:01:39.54ID:WTrkZN+Xx
「拡大サイズは0より大きい整数である必要があります」というエラーが出るのですが

どなたか解決法を教えてください、お願いします
2017/07/02(日) 14:07:31.97ID:rKTJKeju0
>>772
拡大率の指定で全角数字を入力してるとか?
2017/07/02(日) 16:35:48.85ID:WTrkZN+Xx
>>773
ご指摘ありがとうございます

「変換後の縦横幅で指定」の項目に「縦幅」の数値を誤って入力していました(ノ∀`)
2017/07/05(水) 10:46:00.75ID:uTzApKYp0
もうずっと502 Bad Gateway
頻繁にこれ出るんだけどもうちょっと何とかならんのか
PC的にweb版しか使えないから辛い
2017/07/06(木) 08:08:51.99ID:/U2eBeXh0
落ちてる間は代替サイトでしのぐしか無いね

waifu2x-multi
http://waifu2x.me/index.ja.html

Waifu2X!
http://waifu2x.booru.pics/
2017/07/08(土) 12:05:31.07ID:MTSa9P4x0
http://pbs.twimg.com/media/B3rl-WcCYAA4h98.jpg
http://pbs.twimg.com/media/B3rl-VlCAAIvWn9.jpg
http://pbs.twimg.com/media/B3rl-X6CUAIB9Lc.jpg
http://pbs.twimg.com/media/B3rl-YFCUAE_x2p.jpg
http://i.imgur.com/HbCxNbF.jpg
http://i.imgur.com/wg9q7YT.jpg
2017/07/08(土) 21:16:36.36ID:bLbQGezTa
グロ
2017/07/15(土) 02:32:50.65ID:Zi3CbZ/c0
これ中国のアプリが勝手にweb版のwaifu2xを利用してるってこと?
最近web版が不調らしいのってこれのせい?

Is it suitable for third party app to use online demo's api? · Issue #190 · nagadomi/waifu2x
https://github.com/nagadomi/waifu2x/issues/190
2017/07/15(土) 14:45:57.36ID:G3EyFNGP0
作者としては自力で鯖建ててくれよってなもんのようだが
2017/07/15(土) 22:32:16.45ID:Kox/QIdc0
もうこのサイト終わりか?
全く使えねー
2017/07/16(日) 22:57:45.74ID:Ww7Ywr2NM
>>760
Adobe社が開発協力したらいいのに、
2017/07/17(月) 22:45:44.84ID:oOoQzt3uM
>>782
というより、ほかのソフト開発者なり開発会社が未だに参入してこないことに不自然さを感じる。
本家自体も最近動きがないところを見ると、何かしらの根本的な問題でも抱えているのだろうか?
最近madvrの拡大処理の進展具合を見ていないからわからんが、あちらのほうが未来があるのだろうか?
2017/07/17(月) 23:11:35.28ID:VhJWbd/M0
基本アニメにしか効果ない上に拡大後はベタ塗り状態じゃ企業が名乗り出る訳ないわ
2017/07/18(火) 00:55:39.73ID:GPjcpwot0
ノイズ除去切ればベタ塗りにはならんでしょ
2017/07/18(火) 01:09:41.09ID:WRy8/mpM0
超解像の研究は割とどこもやってると思う多分
waifu2xと提携しなくても独自に出来るし水面下でやってるから動きが見えにくいだけじゃない?
2017/07/18(火) 01:16:51.66ID:u0xTs1V00
刑事ドラマではwaifu2xもびっくりの鮮明な解像度拡大がある設定の世界なのに
現実は無慈悲なのである
2017/07/18(火) 01:24:18.89ID:MN/RSjUs0
NECの技術
http://i.imgur.com/hYJMZl4.png

http://jpn.nec.com/ad/onlinetv/rd/srt_h.html
2017/07/18(火) 01:45:26.20ID:PfbLynbe0
大手企業かつ政府支援プロジェクトともなると
ASIC/FPGAにも詳しいエンジニアも容易に自社調達できる良い環境だなぁ
最適化したコードかつ、自社生産のカスタムASICを利用した電算機にとか羨ましい

個人趣味で汎用コンピュータを使っている以上、電気代も馬鹿にならん
ライブラリ構築だけでも面倒クセぇ、処理能力レンタルするとこれまたコストが
2017/07/21(金) 17:11:59.13ID:R67DHQtba
・ ディープラーニングエンジンをUSBチップ化してエッジコンピューティングをサポートするMovidius、Intelに買われてから快調
http://jp.techcrunch.com/2017/07/21/20170720movidius-launches-a-79-deep-learning-usb-stick/

新たなる展開か?
2017/07/21(金) 17:55:45.69ID:44OoZVhG0
100GFLOPSだと性能的にどうなんじゃろ…1Wなのは良いけど
2017/07/21(金) 18:26:05.54ID:jzbSQrJ80
USBで127台つけるんやろ
2017/07/21(金) 18:57:39.52ID:44OoZVhG0
GeForceにTensorコア積んでくれたほうが嬉しいかなー
2017/07/22(土) 15:23:52.12ID:KSVHK/ps0
ASICやFPGAが主流になってGPUの時代は終わるよ
2017/07/22(土) 17:51:15.37ID:02zQXlhH0
さすがにそれはない
ハードウェアシェーダーから
プログラマブルシェーダーになぜなったのか
ということを知らなさすぎ
2017/07/22(土) 18:00:17.06ID:n2Cq2gcy0
ディープラーニングについては処理がある程度固まってきてるみたいだからGPUは割高になるかもしれんね
ディープラーニングの次が出てきたらプログラマブルに戻る
2017/07/25(火) 13:51:30.69ID:W9H2LP1L0
cuDNNだけハードウェア化されたらいい
2017/07/28(金) 20:16:37.80ID:kjrX+KoL0
オープンソースなのにウェブサービスでしか利用できない謎アプリ
2017/07/28(金) 20:37:35.56ID:/uC0CJt+d
GUI版はとっくに死んでるのか?
2017/07/28(金) 20:56:10.38ID:fO9dUqqy0
>>799
caffe版はまだ生きてると思うよ

アプリって言ってるあたり798はスマホでの利用を言ってるんじゃないかな
2017/07/28(金) 21:05:32.20ID:SCeD2ML70
スマホでなんかしたらバクハツするんじゃね
2017/07/28(金) 21:27:12.12ID:aleKDasgd
caffe版使わずに謎とか言っちゃうの?
恥ずかしすぎじゃないか
2017/07/29(土) 21:22:36.12ID:ZE6rDzLe0NIKU
waifu2xのサーバーが外部のアプリから使用されていて開発者が使うのやめる気ないようなのと
そこからのアクセスが多すぎて処理できないのでreCAPTCHAを導入しました。
クソメンドイですがご了承下さい。
表示されない場合はリロードすると出てくると思います。
2017/07/29(土) 21:34:55.04ID:GAGld7sU0NIKU
乙ですというほかない…
2017/07/30(日) 02:09:16.58ID:2BU+9NyM0
>>803
乙です
やむを得ないと思います
2017/07/30(日) 04:49:09.26ID:LQpeaIGl0
>>803
対応乙
災難やったね
2017/07/30(日) 13:52:11.35ID:ghAcuX/m0
使えない
http://i.imgur.com/Ii3At1t.jpg
2017/07/30(日) 14:47:13.09ID:CvwU+lTS0
実行ボタンの上のreCAPTCHAという領域にチェックをつけていると動くと思います。
回答の再利用はできないので、1画像変換ごとにチェックを付ける必要があります。
reCAPTCHA自体が動いていないなどありましたら、実行環境を書いておいて下さい。
2017/07/30(日) 15:02:06.81ID:2BU+9NyM0
同じGoogle製だけあってChromeだとチェックするだけで動くね
2017/07/30(日) 15:16:43.84ID:CvwU+lTS0
分かりにくいので、チェックがついていない時は実行/ダウンロード押せないようにしました。
またページをチェックを付けれていても答えが間違っていると(?)たまに認証に失敗することもあるようです。
チェックだけ済むのは、疑われていないとき?で
何度もやっていると、画像の問題に答えないと通らなくなる気がします。
2017/07/30(日) 16:52:23.84ID:ghAcuX/m0
AndroidのChromeだとチェック入れても上の画像しか表示も保存もされません
スマホの他のブラウザで試してみたら
表示されるのはいくつかありましたが、保存は出来なかったです
2017/07/30(日) 17:14:32.08ID:BXnmDPPj0
ページをリロードする。キャッシュをクリアする。
もし使ってるなら、広告ブロックソフトを停止する。
2017/07/30(日) 17:44:16.19ID:FyhxV1ef0
GUI版で良くない?Web版の方が速いの?
2017/07/30(日) 18:03:59.98ID:tcaEED7w0
環境に依存するかしないかの違いがあるんだからバカなの?
2017/07/31(月) 08:00:14.81ID:guYKaMwB0
807だけじゃなくGithubの一部の外国人ユーザーもreCAPTCHAが上手くいかないって言ってるな
web系は難しいね
2017/07/31(月) 22:34:04.82ID:5UmyApl0M
webベースでのサービスは、常に不安定さとの戦いになる。
しかし本家がwebベースでの公開にこだわる以上、ユーザーサイドではどうしようもない。
caffeが唯一の救いではあるが、本家とcaffeの作者それぞれに依存する度合いが高いので、この状態も安定しているとは言い難い。
Gimpのプラグインのような形式にして、ソースコードをオープンにとかならば、誰か頑張るとかで継続性はやや向上するだろうけど。
2017/07/31(月) 23:06:43.18ID:l56LhgPc0
>>816
ソースコードはGitHubで公開されてる。
2017/08/01(火) 10:28:05.21ID:yzvIVLUGa
>>817
Gimpのプラグインの形式に沿ったソースコードということ
2017/08/01(火) 11:59:56.63ID:njn6WqMWd
>>813
GUIの方が圧倒的に速い
フルHD解像度のノイズリダクション最高、倍拡大16bit色512分割でも10秒掛からん
2017/08/01(火) 12:29:02.13ID:P4srvPy4M
>>819
VGAによるんじゃないの?
2017/08/01(火) 12:48:05.35ID:5+E1QQJQ0
その意味でのVGAって言葉久々に聞いたw
2017/08/02(水) 04:45:55.20ID:8yZ4NqFyd
>>820
1070でもP-TITAN Xでもそう変わらんよ
TITAN Xの良いとこは12GBのメモリによる1024分割処理が出来るくらい
8GBじゃたまに出来る640分割が最高かな
2017/08/02(水) 08:41:50.10ID:/4JCEp/20
>>822
んーGT730ぐらいと比較してください
2017/08/02(水) 14:00:32.01ID:dePrbMvZ0
そんなもん、使う意味すらない
2017/08/02(水) 16:23:33.11ID:fcBUe8KN0
ウェブのサーバーは GRID K520 を 4つ使っています。
混んでいる時間帯でなければそれなりに速いと思います。
reCAPTCHAをいれてから連続アクセスしにくくなったからか体感的にはかなり速くなっています。
2017/08/02(水) 16:36:29.31ID:fcBUe8KN0
waifu2x-caffeは配布バイナリには含まれていないですがDLL用のインターフェースも持っているので
他のソフトの組み込みにも使いやすいと思います。
827名無しさん@お腹いっぱい。 (ワッチョイW e3d2-KhZc)
垢版 |
2017/08/02(水) 18:09:49.64ID:I8D/7zTO0
すごい助かってる
さんきゅ
2017/08/03(木) 10:59:47.03ID:nw5S/WIw0
本家繋がりませんな
829名無しさん@お腹いっぱい。 (ワッチョイW 3b89-OC4/)
垢版 |
2017/08/03(木) 14:35:42.81ID:gWZ+CKtM0
初めて書き込みます。
本家もmulti?も繋がらない…

しばらく待つしかありませんか?
2017/08/03(木) 21:14:58.09ID:sXtHLgo1M
だからネットは信用できないんだよ
2017/08/04(金) 19:08:32.54ID:qsU0qohV0
invalid request
2017/08/04(金) 22:17:29.26ID:i658spf7M
・ プロの技術を学んだディープラーニングが画像を美しくレタッチ
http://ascii.jp/elem/000/001/526/1526816/

いよいよデカいところが本気出してきましたな。
しかも向こうはレタッチ後の人間が最適化した画像をサンプル画像に持ち出している。
果たして実力や如何に。
2017/08/05(土) 05:06:53.16ID:OkzVSv4J0
NVIDIAも
http://pc.watch.impress.co.jp/docs/news/1073443.html
2017/08/05(土) 11:11:38.33ID:EfHQRhVp0
>>833
ブレードランナーのエスパーみたいなの作れそう。
2017/08/07(月) 06:36:54.54ID:MnjwDMyA0
なんかすげー怪しい派生サイト出来てた

Bigjpg - AI二次元画像の拡大, スマート大きな画像 waifu2x 畳み込み深人工知能ニューラルネットワーク(CNN)無料ロスレスズーム。写真にも対応。
http://www.bigjpg.com/
2017/08/07(月) 10:34:43.37ID:UO2X6lXJd
サーバー又借りしてたら草
2017/08/08(火) 00:30:49.74ID:MEpIWrBJ0
FFGの勢いは近年すごい気がしたけど、18の一軒で一気に地に落ちたな。
今まで敵をたくさん作ったので、連合を作ってFFGの牙城を崩すなら今しかないのかな。
といっても九州地銀の弱腰経営陣には無理か。あの18が負けてもないのにFFGに下ろうとしたくらいだからなぁw
ちゃんと将来考えて動いてくれよ経営陣w
2017/08/08(火) 10:06:25.89ID:k0j1rJxSM0808
何を言ってるんだ、このゲーム脳は…
2017/08/13(日) 10:35:09.03ID:OT9MbAIqM
>>832
これ、どこか試せるところないのかな?
2017/08/13(日) 10:38:18.15ID:Mwp0HeZi0
>>839
無いね
2017/08/13(日) 11:18:59.63ID:GDcsz5Fda
>>840
○| ̄|_
2017/08/13(日) 11:37:42.89ID:VovBq+5f0
ディープラーニングの技術って素人だと簡単には手を出せないからサイト上で試せたら便利よね
waifu2xの作者さんの言ってたことを今更痛感するわ
2017/08/13(日) 16:45:30.56ID:Mwp0HeZi0
MakeGirls.moe - Create Anime Characters with A.I.!
http://make.girls.moe/
2017/08/13(日) 23:54:46.98ID:ZIbjHeti0
>>832の奴、もっと具体的なサンプル画像とかを大きなサイズで公開してくれないと評価のしようがないね
2017/08/14(月) 00:03:04.73ID:ppPX4EZi0
>>844
MITの出版物に載るんじゃね
2017/08/14(月) 10:36:42.43ID:xdKrTCwJM
サンプル画像、ZIPでくれ
2017/08/14(月) 16:02:00.01ID:vUUbKi4a0
>>832
データセットは公開されているので http://groups.csail.mit.edu/graphics/fivek_dataset/
対応を学習することはできますけど
写真の後処理を機械学習で自動でやろうとか実際考えるものでしょうか?
そこは写真作りで一番重要なところだから自分でやりたいと思うんだけど
そこにあまり興味ない人には自動でできたら便利なのかな
2017/08/14(月) 21:02:10.99ID:xdKrTCwJM
>>847
どの程度の処理までさせるか次第なのでは?
元画像よりコントラスト比なども含めた変化まで強制的にお仕着せになるならば困るけれど、リンク先が言うレタッチ的な要素が
waifu2xで発生する例の輪郭の不自然さを旨く手直しするような作用をしてくれるのならば、やる価値はあるかと。
いいところだけ旨く流用できれば一番いいのでは?
2017/08/15(火) 07:05:53.22ID:GERdhowG0
スマホのアプリで料理の写真を美味しそうに見えるように簡単レタッチするソフトが人気あったからこの手のやつは需要あるんじゃないかな
2017/08/15(火) 14:43:30.10ID:Rjv4SHNTM
そこら辺のプログラマでもネタで
深層学習一発ネタやってるし、
まともなプログラマなら誰でもできる
ようになってるんだが

waifu2xのツール類が充実してるのは
基本的な考え方が簡単なのはあるよ

waifu2xがすぐれてるのはそういうところじゃない
ノウハウや学習データセットの
作成だと思うよ

やってみたらわかるけど同じ性能出すの
かなり困難
2017/08/15(火) 16:02:59.00ID:YhlLR/9zM
ニューラルネットワーク構造と学習済み辞書 が非常に優秀。
というか世の中これを向上させるための提案が大量に出回ってるけど99割はモノにならない
2017/08/15(火) 19:45:09.54ID:ppzO7+Ky0
99割もか
2017/08/15(火) 21:31:21.13ID:7w8yH9sEM
千分率…
2017/08/16(水) 08:02:09.03ID:5P8xirai0
wwww
2017/08/16(水) 10:04:51.69ID:R7IYTeRwd
禿犬使ってると何でも大袈裟にしたくなるんだろ
2017/08/16(水) 10:25:41.42ID:KWgmxR6Ed
おまえらネタにマジレス
857名無しさん@お腹いっぱい。 (ワッチョイ b187-4mbe)
垢版 |
2017/08/21(月) 12:11:16.37ID:fEWkVfat0
>>835
それの中身-----------

よくある質問

どのような技術で使用されています?
最新の深い畳込みニューラルネットワークを用いた。それは知的に品質を失うことなく彼らを大きくする絵の中の雑音とセレーションを減らします。例示の写真を見る

違いは何ですか?
PSのような他のソフトウェアで、絵はまだファジールックを拡大、
および可視ブラーと雑音があります。
当社の製品は絵の線と色のために調整された特別なアルゴリズムとニューラルネットワークを使用し、
この拡大効果が優れている。色はよく保たれており、ほぼ格子または倍増は見えません。
もっと重要なのは、雑音、品質に重大な影響を及ぼすことができない結果、
イメージで見られる。

拡大するのに最適な画像は何ですか?
アニメ/ファンアートの写真は最高です。
858名無しさん@お腹いっぱい。 (ワッチョイ b187-4mbe)
垢版 |
2017/08/21(月) 12:11:39.99ID:fEWkVfat0
画像の限界は何ですか?
現在3000x3000解像度をアップロードすることができ、10MB以下の写真。

スピードはどうですか?
スタート後予想の処理時間が表示されます。
よっの倍率と画像サイズ、増幅時間が異なり、数分から数十分不等。
実際には予想時間が少し短い時間が少し短い。

なぜ失敗拡大?
ネットワーク環境と同時に受けサーバー使用人数の影響があって、
とても小さい確率が増幅して失敗すること。
もしあなたがこのような状況に会ったら、数分でもう一度試してみてください。

拡大を開始している間はブラウザーを開いたままにする必要がありますか?
もしあなたは登録が、そんなにずっと保持ブラウザを開いて、
さもなくば紛失増幅のピクチャー。
もしあなたは登録したが、それがブラウザを閉じ、支持拡大オフライン、
壱時間またダウンロードできますよ。

自分の歴史記録をどう見る?
登録後、記録と自分の歴史記録を調べて。

もっと写真を拡大するには?
このツールのサーバーの支出を維持するため、有料の拡大サービスを提供します。
有料のアップグレード口座後使え独立の高性能サーバ、拡大写真をより速く、より多く、より安定した

--------------

日本語おかしすぎなwww
2017/08/21(月) 15:48:43.73ID:iKLwi2FH0
日本の英文サイトも英語圏の人からこんな風に見られてるのかな?
2017/08/21(月) 23:19:04.92ID:ly/5hkxC0
ただの自動翻訳じゃね?
2017/08/24(木) 01:25:20.46ID:bdSqPE2i0
reCAPTCHA導入以来で鯖死んでるのはじめてみた
2017/09/01(金) 00:00:02.33ID:zzz4Gs1za
動画の拡大で使うにはaviutlのnnedi3一択だな
流石に遅過ぎるし最近は何かgifみたいなノイズが出てクソだし
2017/09/08(金) 13:05:18.06ID:R3L5IwMm0
ノイズっていうか輪郭周りの不自然さ問題は、今の手法のままで対策するとなると、音声の処理でよく用いるオーバーサンプリング処理的な
考え方で攻めたほうが解決しやすいのではないかとも思う。
つまり、現状は縦横2倍(画像情報量で言うと4倍)に拡大をストレートに行っているけど、どうしても丸目誤差の問題が出るし目につきやすい。
(TTLモードで、画像を回転させる手法で幾分の軽減はされるが、根本的な解決手法ではない)

ならば、サンプル画像の確保が大変にはなるが、8倍オーバーサンプリングとでもいうか、内部処理的に縦横8倍(画像情報量で64倍)にすることを
前提に設計し、拡大後に縦横2倍(画像情報量で4倍)までダウンスケール、つまり縮小すれば、丸目誤差に伴うノイズというか荒らは気にならなく
なるのではないかと思う。
情報量が従来の計算に比べ16倍にはなるけれど、TTLモードを使うことを考えたら結局時間的には大差ないのではないかと思わなくはない。

ただし、縦横8倍の差をディープラーニングするためのサンプル画像がかなり大きなサイズの画像が必要になることがネックだろうと思われる。
このあたり、作者氏の手間の問題になってくるから、ユーザーがどうこう言いにくいところではあるのだが。
2017/09/08(金) 18:43:51.46ID:WUxLR/XY0
>>863
TTAモードのことを言ってるんだろうけど、それとリサイズのアルゴリズムは根本的に関係ないんじゃないの
ダウンサンプリングすればいいと言うけど、それはどんな手法を使うんだい?

画像処理のコストはめちゃくちゃ下がってるし、waifu2xにしても自分で用意したデータセットで学習する手引もされてる
具体的なアイデアがあるなら試してみるといいよ
2017/09/09(土) 19:37:28.64ID:pXK9vUQtM0909
アルゴリズムは難しくないので
自分で実装してみたら?

俺が試した範囲ではオーバーサンプリングして
縮小してもあんま変わらなかった

当たり前だが俺は作者じゃないよ
2017/09/17(日) 18:47:42.61ID:lEmEP6WS0
waifu2x-caffe ver 1.1.8.4
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.4
cuDNN v7に対応
2017/09/17(日) 19:22:03.46ID:SWVnmedP0
今回の場合cudnn-8.0-windows7-x64-v7.zip/cuda/bin/cudnn64_7.dllかな
このへん本当に分かりにくいよなあ
前提となるCUDAやGeForceドライバのバージョンもあったかもしれない
2017/09/23(土) 14:43:51.85ID:vfPusanO0
CPU用はまだ? AVX2とかSSE4.2とかで1/10のスピードにならんかな←遅くてもいいからって意味で
2017/09/23(土) 15:27:18.83ID:NRQikrBL0
>>868
CPUならtanakamuraさんの派生のやつが早いと思うよ
2017/09/26(火) 23:36:59.42ID:XXsLzxjQ0
ハイブリッド、キタコレ

・ 低解像度画像からでも高解像度画像を生成できる「PixelNN」
http://gigazine.net/news/20170926-pixelnn/
2017/09/27(水) 07:59:58.55ID:2lP1ylD00
すごい
おれの落書きを写真にしてほしい
2017/09/27(水) 08:02:54.37ID:cwBPr8CMM
写真とそれを落書きにしたイラスト2000枚を学習させればええだけやで
2017/09/28(木) 00:14:50.04ID:TlwhVgpF0
>>870
waifu2xの欠点を克服できたら神
2017/09/29(金) 23:10:14.54ID:BSunbs8Y0NIKU
iOS版のwaifu2xなんてものが出来てた

imxieyi/waifu2x-ios: iOS Core ML implementation of waifu2x
https://github.com/imxieyi/waifu2x-ios
2017/09/30(土) 13:17:09.52ID:scjErNqF0
どんだけエンコ時間かかんだよ
2017/10/01(日) 04:32:53.20ID:Wqt3xmrb0
>>869
thx、更新止まってるみたいでげんなり
2017/10/03(火) 15:27:19.03ID:3JCntEds0
invalid requestって何が原因?頻発するんだが
878sage (ワッチョイ e5ec-6smv)
垢版 |
2017/10/03(火) 18:49:13.53ID:1vKvOmgu0
>>877
reCAPTCHAの認証に失敗すると出てます。
全体の3%くらいでそんなに出ていないので
それ以上の確率で発生しているなら環境か回答に原因があると思いますがよく分かってないです。
判定には、reCAPTCHAの入力(マウスの軌道,画像問題が出たならその回答)、端末のIPアドレスが使われてます。
2017/10/03(火) 19:32:40.42ID:SgT7tkwS0
>>878
なるほど。実行ボタン押せても回答が間違ってる場合があるってことかな
ここ数日で急に出てくるようになったんだよね
ちょっと注意してreCAPTCHAやってみます
2017/10/05(木) 09:21:46.76ID:vrmE32hAa
前にノイズが云々言った者だがもう直ったみたいだな
前までは本当に素人が分かるレベルの汚いノイズが出てたんだ
マルチの方が未だに直ってないようなんで使ってみれば分かる
2017/10/06(金) 07:25:18.44ID:0QWgeDO+0
ウェブでの処理は1年以上変更していないですよ
2017/10/10(火) 02:22:10.25ID:PBW0sxG70
waifu2x-caffeで縦横幅両方指定すると横だけ指定した場合に比べてかなり時間かかるけど、
縦横幅両方指定だと単純に2の累乗倍して縮小するだけじゃない何か別の処理してるのかな
2017/10/10(火) 06:38:54.71ID:a24uxQmA0
指定値のどちらかが元サイズの2倍数を超えているとか
128->256(2倍), 128->257(4倍後縮小)と境界がある
2017/10/10(火) 07:44:11.35ID:nRQQJMre0
>>882
テストしたけど変わらないわ

883のケースじゃないかね
2017/10/11(水) 16:33:54.83ID:t/Umntra0
色々試してみたが、(自分の場合)どうも一定以上縦長の画像を拡大してみたときに縦横幅両方指定/横だけ指定で処理時間に差が出るようだ
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う
2017/10/11(水) 19:01:00.60ID:YWDml6V60
>>885
その条件でテストしたら確かに違いを確認したわ

横幅のみ指定 20秒
横幅、縦幅指定 90秒
2017/10/11(水) 21:01:30.37ID:M5faF1lLM
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う

横幅のみは 1.6倍 プロファイル使って1回
両方指定は 2.0倍 4分割から縮小

と違う経路になってるかと。 886の時間差的にそれっぽい
2017/10/11(水) 22:14:53.14ID:YWDml6V60
>>887
1.6倍かどうかは関係ないかも
900x1800でも一緒だった
2017/10/12(木) 02:42:07.67ID:klsngnEYM
1.6倍の意味を理解してないと思われ
2017/10/13(金) 14:25:26.13ID:H9ptKdhPM
>>870
お試し環境はないの?
2017/10/20(金) 01:08:34.86ID:rsh3kdsE0
フォトショにもAIアップスケールだって

https://pc.watch.impress.co.jp/docs/news/1087038.html
>人工知能を活かした画像拡大機能で、ディテールやテクスチャを保持しつつ画像サイズを変更でき、劣化が抑えられるという。
2017/10/20(金) 18:35:55.04ID:w9nfF7IqM
>>891
リンク先の画像だと、画像サイズが小さくてわかりにくいが、確かに髪の表現や顔の血管やシワが強調されてはいる。
まだプレビュー扱いのようではあるが。
しかし、Photoshop高いからな…
2017/10/20(金) 20:01:04.46ID:KV4gR3xtM
Lightroom付いて月1000円は安いと思うけど
2017/10/21(土) 11:55:13.81ID:ezIgs+TB0
・・・数年でいくらになるかと言うと

"(((( ´,,_ゝ`))))
2017/10/21(土) 15:26:44.82ID:d4VYBQVI0
文字などの拡大結果がwaifu2xっぽいらしいですね
(CNN系はどれも似たような特徴がでる)
2017/10/21(土) 20:38:14.84ID:lX5ko0Pe0
>>894
買い切り時代の値段で8年くらい使える訳だけど
確かにまともに使わない人には高いか
2017/10/22(日) 00:33:19.63ID:PfWLRsqV0
休みの日のお絵かき用途に毎月1000円も出したくないな
2017/10/22(日) 01:58:31.92ID:/njJqV5y0
Photoshopでお絵かきなんてするやついるのか
2017/10/26(木) 23:06:10.33ID:DefK6fF40
月180万……
いまだに運営費の問題は健在か
2017/11/01(水) 16:47:19.17ID:gUHZ+jN20
・ガビガビの低解像度写真を高解像度な写真に変換できる「EnhanceNet-PAT」が登場
https://gigazine.net/news/20171101-algorithm-low-resolution-images/

この研究の前は、最先端の超解像技術でさえ、画像の中にぼやけた部分やざらざらした部分を持っていました。
その理由は、『高精細な画像になるようにオリジナル写真を再構成させる』などのニューラルネットワークでは実現不可能なことを、ニューラルネットワークに要求していたからです。
そのため、超解像技術で作成された画像は、一部がぼやけていたそうです。
そこで、我々はニューラルネットワークにより高精細なテクスチャーを作成してもらう、という異なるアプローチを取りました。
この手法ではニューラルネットワークが画像全体を見て、領域を検出し、意味情報を使ってより高精細なテクスチャーを作成し、高解像度の画像を作成します」

能書きはいいから早く一般人が利用できるようにしてくれ!
2017/11/01(水) 16:51:02.16ID:ywNULZCUd
こんな事が出来るようになったのに、何でデインターレースは上手く出来ないのか
2017/11/01(水) 17:40:08.94ID:Rrmmh94R0
デインターレースはやりたがる人が少ないんじゃないか
あとリアルタイム動作を考えると難しいとかあるかも
2017/11/01(水) 23:54:09.20ID:37DME+fd0
>>900
これ、デジタル放送のブロックノイズ対策やモザイク除去にも使えそうだな
2017/11/02(木) 00:44:20.56ID:XY5MStcz0
凄いんだけど、失敗例だと化物みたいになっちゃうな

http://i.imgur.com/PXVKiei.png
2017/11/02(木) 03:30:36.42ID:AXeKiQ9g0
ゾンビで学習しちゃったみたいな?
2017/11/02(木) 16:48:27.48ID:fpvIbUNIM
奥の人と融合して別の学習済みの何かとザ・フライしたな
2017/11/02(木) 21:01:37.47ID:AW27ksif0
ハゲの再現度は高いな
2017/11/02(木) 21:19:44.34ID:I7cvRq4a0
ゾンビ化以外は、従来版よりいいね。
従来版の輪郭が溶ける問題は発生していないから、ゾンビ程度ならペイント程度でも局所的に簡単に手直しできそうだし。
(輪郭が溶けるほうは、ペイントで簡単に手直しとはいかないし)
2017/11/03(金) 11:01:23.26ID:GBIyNV7aa
>>900
これ試せるところないの?
2017/11/03(金) 11:05:59.35ID:3JWHfXbG0
無いよ
2017/11/03(金) 12:02:31.66ID:LebgZYe6M
金積めば研究データ使わせてくれるかも
2017/11/03(金) 15:37:03.81ID:H76ey3tB0
有料でいいからソフト化してくれ
2017/11/03(金) 18:36:36.38ID:VfeW0NTrM
同一画像については変換パラメータ変更での再処理は○回まで無料とかは欲しいが
利用量(枚数、サイズ)に応じた従量制課金かプリペイド制のサービスになると利用しなくなる法則

オンライン変換サービスしてる人も課金モデルでその部分指摘してたな
2017/11/03(金) 21:34:13.82ID:NDN+SZgNM
テクスチャを学習するってことは、本格的に学習すると
データの容量が凄いことになるのかな
2017/11/03(金) 21:56:43.26ID:3JWHfXbG0
学習するサンプルも多いだろう
2017/11/03(金) 23:10:14.26ID:VfeW0NTrM
画像系ディープラーニングの学習データの量はニューラルネットワークで定義されてる係数やフィルタの数で固定される
学習サンプルが多いとデータが増えるわけではなく、固定サイズの学習データの質がサンプルの内容に応じて最適化されていくだけ
2017/11/06(月) 03:18:01.70ID:FH+Fgmgp0
ここのサイト結構性能いいかも
ちょっと誰か試して

Let's Enhance – free online image upscale and enhancement with neural networks
https://letsenhance.io/

原画像
http://i.imgur.com/mxp9Q2J.png
http://i.imgur.com/TGaT3oX.png

waifu2x
http://i.imgur.com/s4jE2hO.png
http://i.imgur.com/UZsH9uj.png

Let’s Enhance
http://i.imgur.com/fu6PEWJ.png
http://i.imgur.com/SVpsLwH.png

紹介記事
This Website Uses AI to Enhance Low-Res Photos, CSI-Style
https://petapixel.com/2017/10/31/website-uses-ai-enhance-photo-csi-style/
2017/11/06(月) 05:34:47.22ID:FH+Fgmgp0
>>917のサイトのやつSRGANを参考に作っているらしい
ボケずに拡大出来るけど模樣なんかが元の画像と違った感じになる

原画像
https://i.imgur.com/Xs8E2hZ.png
waifu2x
https://i.imgur.com/4D0rzHC.png
Let’s Enhance
https://i.imgur.com/2elNRSJ.png

SRGANに関してはここの説明が分かりやすかった
https://elix-tech.github.io/ja/2017/02/06/gan.html#papers
2017/11/06(月) 13:47:49.83ID:TDgC8d4y0
元の画像から変わりすぎ
2017/11/06(月) 20:17:39.89ID:ir0xJWe00
>>919
ちょっと画像の例が悪かったかもしれない
元の1/4に縮小して拡大してあるから細部の情報なんて全く残ってないのよ
2017/11/06(月) 21:19:25.20ID:TDgC8d4y0
>>920
EnhanceNet-PATは、そこまで酷くない。
今更出来の悪いものは必要ない。
2017/11/06(月) 21:42:36.91ID:Q6z17jgC0
予想外の結果になりそうで面白い
2017/11/09(木) 08:10:48.38ID:ejxgnOxl0
紹介の仕方をミスった感が強いけど>>917のサイトは写真の種類によってはそれなりに有用だと思う。
waifu2x UpPhoto x4 ノイズ除去無しとの比較。

http://upup.bz/j/my27960IRCYtBJQmxSGzyUg.jpg
http://upup.bz/j/my27961gChYtd_bPU81wFWU.png
http://upup.bz/j/my27962YLrYtQJyJmWv6uSE.png

http://upup.bz/j/my27966jlmYtbo37ME0ayCU.jpg
http://upup.bz/j/my27967AwAYtbo37ME0ayCU.png
http://upup.bz/j/my27968lFCYtbo37ME0ayCU.png
2017/11/10(金) 11:40:25.71ID:uNZAv5Jo0
>>923
どれがどれかくらい書いてアップしろよ、常考・・・
上から
・原画
・UpPhoto x4
・waifu2x(ノイズ除去無し)
だな。

■草刈正雄画像
一見すると確かにUpPhoto x4の仕上がりは良好に見える。
が、ブルーのクッションのうち右側のほうに着目すると、少しコントラスト比が変動してしまい
眠たくなってしまっている。
原画ではもう少しだけコントラスト感がある。

■女性画像
草刈正雄画像と同様に、黒い服?のコントラスト感が若干弱まり眠たくなってしまっている。

この程度の画像でコントラスト変動が出る(全体にではなく一部にというのが問題)のは、学習に用いている画像の枚数が少なすぎるのではないか?

前の>>916でもそうだけど、学習量が少なすぎるから、少ない学習データの中で一番近そうなのはこれしかないんです状態に感じられて仕方がない。
少なくとも今の学習量の8倍は学習させたほうがいい。

あと、一度拡大した画像自体を縮小して、元画像との変化が出ているところを再度調整しなおすような仕組み(フィードバック補償)があってもよいのかもしれない。
ゾンビ化の画像とかもそうだが、フィードバックしていればあのまま出てくることはないはず。
一度きりの結果に満足するなかれ。
2017/11/10(金) 12:57:12.20ID:1rKnYbnJ0
>>924
ごめん、どれがどれか書き忘れた。
上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。

あとレビューありがとう。
自分は画像処理の専門家じゃないしそんなに目も良くないので意見を言ってくれると助かります。
学習量については一週間毎にモデルを更新していく予定とのことなのでそれで改善されるかも。
2017/11/10(金) 13:18:06.57ID:uNZAv5Jo0
>>925
>上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
これマジ?
だとしたらLet's Enhanceが一番ぼけてることになるのだが。
輪郭線などの具合から、てっきり3番目がwaifu2xかと思っていたのだが。
2017/11/10(金) 14:43:20.30ID:mTpzd+uCD
>>917
ここの最新エントリにLet’s Enhanceの使い方から処理の違いとか詳しいのある
digibibo.com
2017/11/10(金) 14:56:28.62ID:oFJM5zAg0
>>926
Let's Enhanceぼかしたままのところとディテールを加えるところのメリハリがあるね
髪の毛や肌は明らかにLet's Enhanceの方が情報量が多い(存在しない情報を付加している)
メガネのエッジなんかもLet's Enhanceの方がくっきりしてる
2017/11/10(金) 15:03:23.18ID:1rKnYbnJ0
>>927
さすがに記事書き慣れてる人は紹介が上手いねw
自分だけではしゃいで魅力を説明できない自分とは大違いだわ
2017/11/10(金) 16:46:38.70ID:uNZAv5Jo0
なぜかリンク貼るとエラーになるのでリンク先で画像見つけてほしいが

■JPEGノイズ除去のbefore/after(左右で比較できる画像)
tmpimg1711101329n220171110135958928.jpg
やはりコントラストが変動しているな。

■拡大のbefore/after(鉄塔の画像)
before
tmpimg1711101340n120171110140051020.jpg

after
tmpimg1711101341n120171110140114527.jpg
拡大後の鉄塔の赤色や右側の塔の上部のオレンジ、クレーンの青、背景等をみると、同様に変動している。
輪郭周りの処理はwaifu2xよりうまいけど、まだまだ問題点が多い。
2017/11/10(金) 16:51:55.59ID:uNZAv5Jo0
追記

ただし、ノイズ除去の精度はかなり高い。
これ、デジタル放送のノイズ除去や、調整次第ではVHSの3倍モードのノイズに効用がありそうな気はする。
2017/11/10(金) 17:25:45.25ID:C0fr3WYka
確かに非常に良くなる画像とディテールが崩れる画像がある印象。
だけどまさに魔法と呼びたくなるほど凄い処理がされる画像もあったよ。
2017/11/10(金) 19:57:18.90ID:fiLLUmkY0
イラスト系の比較画像がほしいな
実写はもともとwaifu2x苦手なの分かってるし
2017/11/11(土) 11:12:56.96ID:K8wJXMCa01111
>>933
今は無料で試せるみたいだから自分で試してみたら。

閑話休題。
Let’s Enhance、これもGPUの力がないと演算に時間がかかるタイプなのかな?
来年早々にIntel CPU+Radeon GPUなCPUをIntelが出すみたいだし、AMD系含めオフライン環境でも実行できるようになればいいのだが。
動画を連番画像で書き出してアップさせようとするとすさまじい枚数になるので、時間はかかってもいいがオフラインで実行できないと死ぬ。
2017/11/12(日) 00:45:44.32ID:uaMsUrr60
>>933
Let's EnhanceのTwitterアカウントの人がWe are trained on photos, not anime ) Waifu2x has a clear leadership here )って言ってるからあんまり向いてないんじゃないかな
Google翻訳 私たちはアニメではなく写真で訓練されています)Waifu2xはここで明確なリーダーシップを持っています)
2017/11/12(日) 11:50:55.45ID:uaMsUrr60
>>584でGANはPSNRが下がる懸念があると言われていたので気になって調べてみました。
一応bicubicと同程度はあるようです。

BSD100 x4 Y-PSNR
25.976 bicubic
26.085 Let’s Enhance
27.094 waifu2x Photo
27.196 waifu2x UpPhoto

ベンチマークに使った画像もUPしておきます。
https://www.dropbox.com/sh/i5b2old7vqgtvyv/AADb8UIqZel9LTDaFuwDdLwda?dl=0
2017/11/12(日) 13:41:34.72ID:dNH6kcXn0
>>936
PSNRで20台半ばか。
ただ、そもそも超解像のような処理の場合、PSNRが評価指標として適切かという問題はある。
以下を読むと参考になるかと。

・MSE/PSNR vs SSIM の比較画像紹介
https://qiita.com/yoya/items/510043d836c9f2f0fe2f

SSIMで比較してみるといいのかもしれない。
2017/11/12(日) 13:47:37.01ID:dNH6kcXn0
追記
Let’s Enhanceは、コントラストが変動する問題が解決すれば、基本的には今の状態でも使えなくはないのだが(バケる問題は学習量を増やせば落ち着くかと思われるので)、なぜにあんなにコントラスト変動が起こるのかが解せないんだよね。
2017/11/12(日) 13:59:45.49ID:dNH6kcXn0
再度追記
>>936の画像を見ていると、苦手な画像が少しわかってきた。
小さな三角形のような形が含まれる画像が変形しやすいように見える。
ヒョウ柄とか動物の目のまわりとか、そういう画像をたくさん学習させるとかなり改善されるような気がする。
2017/11/13(月) 11:19:04.01ID:TPyOarub0
Let’s Enhanceについてさらに評価と要望

・アンチJPEG
JPEG画像などに見られるブロックノイズを解像感を落とさずに除去
→この考え方を応用して、スキャナで取り込んだ画像に発生するモアレを、解像感を落とさずにモアレだけ除去できるような
「アンチモアレ」機能に発展させてもらうことはできないのだろうか?
現状、モアレ除去を試みると、どうしても解像感が犠牲になるのと、素材ごとに手動で最適な設定値を見出さなければならない状況になるが、
自動的に最適な状態で除去してくれたら、印刷物の取り込みが大幅に楽になる。
ついでに、オプションで印刷物取り込み画像はコントラストが眠くなりがちです、取り込み後にガンマをいじくったりして補正しなければならないケースが多いので、
印刷物のコントラスト補正最適化モードも自動的に実行されるオプションがあればなおよいのだけど。

・ボーリング
省略

・マジック
アンチJPEGを実行後に拡大しているようなのだが、アンチJPEGをオフにして拡大だけするモードをつけられないのだろうか?
サンプル画像を見ていると、アンチJPEGによる副作用なのか、妙にノッペリして見える箇所が見受けられるので。
2017/11/13(月) 14:30:14.38ID:TPyOarub0
waifu2xとの比較画像含め作成してみました。
https://www.axfc.net/u/3862416
※700MB程度zipファイルです。時間のある時にお試しください。
今夜2時までの公開です。
(著作権があるので、テスト目的のみで使用してください)

※元画像がAdobe-RGBの画像については、ICCプロファイルの引継ぎがされていないため、正しい色味で表示されませんが、これはwaifu2xの初期と同じく、プロファイルの編集をすれば正しく表示されます。

なお、変換した画像について
・いつもの画像
waifu2xのテストでよく使用していた画像です。
pngファイルにつき、anti-jpegは出力されていません。
ノイズ除去を適用したくなければ、pngファイルでアップするとよいのかもしれないです。
waifu2xとの比較ですが、boolin(2次元向き)よりmagic(実写向き)のほうが精細感や透明感があり好ましいように思います。
ただし、川の右側の欄干の処理がもう一歩な感じはするけど、縦横4倍!でこの状態はすごい。
(試す前まで、waifuと同じ縦横2倍だと思ってました・・・)
ただし、川の左側の石の護岸壁が元画像とコントラストが異なるのは気になるところ。

他の画像はjpgですので、anti-jpegあり。
参考程度にどうぞ。
(ノイズ除去なしになるか試そうと、jpg⇒pngした画像をアップしようとしたら枚数上限に達したので、また次回試してみます)
2017/11/13(月) 23:14:41.84ID:SEq7VEq/0
重すぎてダウンロード出来ない
2017/11/15(水) 12:26:10.44ID:+/WZXxMd0
>>942
また時間のあるときにでもアップしてみます。

なお、開発元からメールが届き、やはりpngでアップした場合はJPEGのノイズ除去はしないで拡大だけするようです。
その状況を確認しようと再度アップを試みたところ、前回のアップからすでに1日以上経過しているにもかかわらず、
上限枚数に達したと表示されアップできない状態。
どうも不安定なようす。
2017/11/21(火) 11:15:49.96ID:GGDYSobV0
今までグラボに負荷がかからないように、ゲームやるときでもGPU LOADをなるべく30%以内に抑えてきたんだが、
waifu2x-caffeだと常時100%使うんだな   (((( ;゚Д゚)))ガクガクブルブル
まあ、すぐ慣れるか・・・
2017/11/21(火) 11:49:30.65ID:ggCP7JpA0
俺100%にならないぞ
性能が低いからか?
2017/11/22(水) 10:59:57.46ID:MpzyPo1w0
ディープラーニングのすごさを体験! 人工知能で画像を加工できるツール5選
http://news.mynavi.jp/articles/2017/11/22/ai/
2017/11/27(月) 16:45:35.69ID:k5rPv5PA0
Let's Enhance、月払いと年払いのサブスクリプションプランを作ったみたいだね。
無料版は制限きつすぎ。
2017/11/27(月) 18:31:18.18ID:l2QRCD030
waifu2xも運営費の捻出に苦労している中ビジネスモデルが成功するのか興味がある
2017/11/27(月) 20:18:13.21ID:0yxjOZvPd
そもそも一般的な使い道が思い付かない
防犯カメラ画像の解析とか?
2017/11/27(月) 20:24:39.62ID:25fgXHbid
AIが解析した監視カメラ映像は法的な証拠能力があるのだろうか
2017/11/28(火) 23:44:40.07ID:X/pTZJk50
>>947
オフラインで使えるようになった?
GPU使って大量にやりたい
2017/11/29(水) 09:11:55.09ID:uEaZLV9C0
どこをどう読んだらオフラインで使えるようになったように読めるのか…
2017/11/29(水) 14:08:33.74ID:LjzMHann0NIKU
また繋がらない
モチベが無くなる前に復旧してくれー
954名無しさん@お腹いっぱい。 (アークセーT Sxbd-SZ7f)
垢版 |
2017/12/01(金) 00:27:17.53ID:JRCbfq5qx
これUPした画像はサーバにずっと保存されるの?それとも一定期間で削除?
2017/12/01(金) 02:29:52.78ID:YkGnoxC70
速攻削除じゃないの?保存する意味あるかな?
2017/12/01(金) 10:26:12.87ID:rk1mw3Ut0
ぐへへ
2017/12/08(金) 19:58:14.25ID:1692mnP40
Tensor演算性能110TFLOPSなTitan Vが出たけど、waifu2xどれくらい速くなるんけ?
2017/12/13(水) 05:40:07.05ID:mHLtONb60
waifu2x、iOSのSafariからやるとGoogle reCaptureクリアしてもInvalid Requestが出てしまうのですがどうしたらいいですか?
959名無しさん@お腹いっぱい。 (ワッチョイ 973e-zy4u)
垢版 |
2017/12/13(水) 19:36:00.62ID:azBr58UQ0
>Let’s Enhanceは、コントラストが変動する問題が解決すれば
GANの原理的に元の数値自体を見てないから形状とか以外は
ごっつり変わる可能性があるんだよね
2017/12/20(水) 10:42:06.75ID:o8jFfiBn0
>>959
それじゃ話にならんね
2017/12/20(水) 11:03:38.82ID:Nd23KCWC0
PSNRを高くしていく方向性の超解像は原画像とかけ離れた結果にはなりにくいが溶けたりぼやけたりする
PSNRを無視して自然に見える画像を作り出そうとする方向性の超解像はくっきりしているけど原画像とかけ離れた結果になるリスクが有る

ジレンマみたいな感じで難しいね
今後はどっちの超解像が主流になるのかな
2017/12/22(金) 12:59:10.97ID:45YP9s6P0
誰でも悪夢のようなムービーが作れるようになるツール「Bind」が公開
https://gigazine.net/news/20171221-bind/
2017/12/22(金) 14:00:11.61ID:WX6qzd4e0
>>961
PSNR無視型=Let's Enhance
で輝度信号(Y)だけ処理して
PSNR重視型=waifu2x(RGB処理)で処理した画像の輝度信号(Y)だけ差し替え
とか無理か
2017/12/24(日) 01:09:29.89ID:OnQYpWTt0EVE
コントラストが変わらなくて
元画像を参照するGANを思いついたので
近いうち実装する

写真向け手法
2017/12/25(月) 13:29:33.78ID:l6esTw+c0XMAS
>>964
waifu2x-markUか?
頑張れ、にぃちゃん
2018/01/01(月) 08:05:08.81ID:PGln9fAz0
>>701
かなり遅レスになりますがD&Dモード的なものを実装しました
2018/01/01(月) 10:47:23.44ID:Hh7i7mWtM
アンチエイリアス、ジャギ取り用の深層学習のソフトってないだろうか

学習させるとしたら、ジャギっている大きな画像を大量に用意し
ニアレストネイバーで縮小したジャギっている画像と
適当なフィルタで縮小してスムージングされた画像を学習させる形になるのかな
2018/01/01(月) 15:11:31.18ID:jOvnUDDx0
waifu2xって元画像がジャギって
ゆがんでても補正してくれるんだけど
ソース読むと縮小フィルタを
ランダムに選択して学習してるので
ジャギがあってもなくてもうまくいく
設計なんだよね

964の100パーセントGANによる
超解像だけど、画質的にはwaifu2x
には遙かに及ばないけど
劣化画像と理想画像が全く別の
画像でもいいので、大量のスマホの写真と
一眼レフの画像があればスマホの画像を
一眼レフに変換できる
2018/01/01(月) 19:31:50.30ID:MEklgyMk0
>>967
学習が可能だとしたら、用意するのはジャギってない画像だろ
そこからニアレストネイバーで縮小&拡大して同サイズのジャギってる画像を生成する
正解データの質は重要と思われ
2018/01/01(月) 20:24:27.50ID:Hh7i7mWtM
>>969
言葉足らずで申し訳ないですが、こちらとしては処理対象のジャギーっている画像とは
よくある斜めの色の境界に中間色がなく1ドットのギザギザが見える状態を想定しています

ジャギってない画像=色の境界付近に中間色がある画像をニアレストネイバーで縮小すると
縮小画像の境界線上で元画像の境界付近の中間色を抽出してしまう箇所が出て来ますし
それを拡大すると、ジャギっている部分が1ドットではなく拡大倍ドットとなりまので
想定のジャギー画像とは異なるものが出力されます

ニアレストネイバーで縮小⇒拡大した画像を元の画像に向けるというのは
ニアレストネイバーの性質上、実質的にwaifu2xの拡大に近いものと思われますが
現状のwaifu2xには上記で想定しているジャギーはあまり取れません

彩色等の関係で最終的に必要な物より高解像度かつアンチエイリアスが掛かってない画像を用意して、
その後に縮小することで中間色を生成させジャギってない状態にするというのは良くある手法ですので
その辺の効果により、前述の方法で学習できるのではないかなと考えていました
2018/01/01(月) 20:29:13.01ID:8BMS1Da70
ところで次スレどうする?
荒らしが立てたスレ再利用する?

あ、もし新しくスレ立てるんなら
>>2のアルファチャンネルの情報は古いから消しといてね。
2018/01/01(月) 21:19:51.47ID:xM62e1bZ0
>>970
画像用意が大変だから最初はベクター画像を教師とするのが良いかとジャギーは後処理で作れるし
フォントレンダラーで文字ベースでやれば適度な曲線や払いの先鋭化が学習できるかも
2018/01/01(月) 22:08:58.84ID:Hh7i7mWtM
>>972
確かにそうですね
既存のソフトがないなら、その方向性で考えてみます
2018/01/01(月) 22:20:48.47ID:lYo0ZpOi0
>>971
本来的には新スレを立てるべきだが、この板、古いスレが残ったままになるからいつまでも鬱陶しい状況が続くのがなんとも…
しかもスレタイの数字をわざわざ全角にしてるとか頭悪すぎて嫌になるのだが、再利用してさっさと消化したほうがいいのかもと思わなくもない
2018/01/05(金) 12:51:26.34ID:nBhogx94a
ところで、>>964の件は、もう実装済みなんだろうか?
2018/01/06(土) 10:48:48.97ID:0S9DEI+l0
そもそも実装したとしても一般人が気軽に試せる形になるのだろうか?
2018/01/06(土) 19:51:14.90ID:OealWOcAr
>975
年末に実装して実験中
とりあえずwaifu2xの画質は絶対にぬけないのは理屈上
わかってるので

画質的にはlanczosよりまし程度
写真の場合はいけてるんじゃないかと
思うが学習用写真が集まってない

カメラ固有の最適化が可能
2018/01/07(日) 12:55:19.05ID:qq+ZqyR5M

>>964ってwaifu2xの話じゃないの?
2018/01/07(日) 13:45:53.90ID:dBE9S5Xpr
>978
ちがうよ
深層学習の超解像のアルゴリズムの
開発は最近は割とだれでもできる
2018/01/08(月) 15:39:19.53ID:6xLoPyaT0
・AMD、HBM2搭載のモバイルGPU「Radeon Vega Mobile」
「NVIDIAで言えばcuDNNに対応するライブラリとしてオープンソースのMIOpenを利用し、NVIDIAで言えばCUDAに相当するプログラミング言語としてはオープンソースのHIPを活用しているの。
AMDは、CUDAのコードをHIPに移植するツールとして「HIPfy」という自動変換ツールを用意しており、それを利用してCUDAベースのアプリケーションを、
HIPに変換してRadeon Instinct上で機械学習/深層学習の学習や推論を行なうことができるようになっている。」
期待していいのか?
2018/01/08(月) 16:53:16.29ID:XECcA2bg0
つまり、CUDAで出来る事をRadeon上でも出来る様になるの?
2018/01/08(月) 23:48:52.12ID:XfcA6Mys0
>>966
ホンマに実装してくれたんか!有難う!!
2018/01/10(水) 11:36:27.73ID:PiW5a8mQ0
もう本家は改良とかしないのかね?
2018/01/11(木) 17:43:53.14ID:Er8Gq8eDM
動画版waifu2x がどうとか言ってたけど今はビットコイン取引BOTを改良して必要資金貯めてるとか
2018/01/11(木) 19:01:21.32ID:2J+WZHTPM
GT1030でもcuDNNで変換できるんだな
今までCPUで数分かかってた変換がほんの数秒で終わって感動した
2018/01/11(木) 19:27:01.77ID:k859fDIrd
>>985
そりゃそうだ
VRAMありゃ分割数増やせる
2018/01/12(金) 01:13:13.08ID:DyRHfmzZ0
1030はNVENC削られてるうえにcompute capabilityのリストからもハブられてるよね……
cudaだけは使えるからこのツール使ううえでは困らんけど
2018/01/13(土) 02:27:32.81ID:hh+HLA6dM
1050Ti でぶん回してるけどパラメータ上げてもGPU使用率50%にも届かないから全く問題なさそう
2018/01/14(日) 14:03:58.75ID:ifFduiGd0
原因はわからないけどwaifu2xcafeで拡大すると変色する画像がある
皆はこういうの無いの?色が反転したように変わる
2018/01/14(日) 16:10:24.22ID:r3v4tsYY0
画像ファイルが CMYK 、ICCプロファイル付きだったりすると結構変わる
でも、反転というほどまでは行かない気がするので外してるかな
2018/01/14(日) 16:59:42.78ID:zlhxjl+z0
ICCプロファイルの種類によっては結構変わるみたいね
例えばこのサイトの画像なんかは激しく変色する

Is your system ICC Version 4 ready?
http://www.color.org/version4html.xalter

現状だとweb版しかICCプロファイルに対応してないからweb版使うといい
2018/01/14(日) 18:30:09.46ID:oJDLZTLRM
ICCプロファイルが原因ならば、前スレに書いた修正手順を試せばいい
2018/01/16(火) 10:51:24.87ID:oDmj97zFM
次スレどうするの?
2018/01/16(火) 17:41:26.41ID:Up0GJ+WT0
2年前に後出重複で立ってかっそ過疎なのにまだ残ってるのがまだあるけどそっち使うの?
でもなんかお古すぎてアレだな・・とは思う人も居るのかしらかしら
2018/01/16(火) 19:40:03.11ID:oDmj97zFM
>>994
>>974
2018/01/17(水) 09:44:45.02ID:RPwmPYrq0
荒らしがくるようならワッチョイで建ててな
2018/01/17(水) 17:04:31.09ID:WtaDae6Y0
過疎ってるからワッチョイもあまり意味ないけどな
2018/01/17(水) 17:30:20.62ID:enIPH0J50
ワッチョイ有りの方がいいと思う 念のため
2018/01/24(水) 00:36:37.13ID:/NC95LKA0
caffe作者さんへ。caffeってOpenCL(radeon)に対応予定はないの?
VEGA搭載のRyzen 5 2400Gを購入したいけどソレだけが二の足を踏む理由。
RYZEN G買ってWaifuの為だけにGeForce乗っけるのもなぁーチラチラッ
対応をもう一度検討してみて下さい。

converter-cppやcl-waifu2xも更新2年以上無いし・・・
2018/01/24(水) 12:13:35.09ID:L/CzsuW60
caffe作者さんへ。OpenCLなんかには対応する必要ないよ。
10011001
垢版 |
Over 1000Thread
このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 624日 0時間 45分 30秒
10021002
垢版 |
Over 1000Thread
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。