画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。
--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/
・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436
・waifu2xとその派生ソフト一覧
※リンクがNGワードに!
・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437
・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/
・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html
・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
レス数が1000を超えています。これ以上書き込みはできません。
1名無しさん@お腹いっぱい。 転載ダメ©2ch.net (アウアウ Sa2a-NyIq)
2016/05/10(火) 11:28:05.20ID:h2o6wyXCa2名無しさん@お腹いっぱい。 (アウアウ Sa2a-NyIq)
2016/05/10(火) 11:29:30.45ID:1d2KsrB6a MSE・PSNRによる画像拡大アルゴリズム10種・ソフト8種、計14パターンの画質評価結果
http://loggialogic.blogspot.jp/2015/09/msepsnr10814.html
・waifu2xとその派生ソフト一覧
http://kourindrug.sa kura.ne.jp/waifu2x.html
Q. waifu2xの派生バージョン多いけどどれがオススメ?
A. Windows 64bitかつGPUがnVidia製なら、Waifu2x-caffe。それ以外の環境なら、tanakamura版あたりを試すと良い。
2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。
・歴代スレ
waifu2x [転載禁止]??2ch.net
http://anago.2ch.net/test/read.cgi/software/1433637613/
【超解像】画像拡大ソフト総合スレ1【waifu2x】 [転載禁止]??2ch.net
http://potato.2ch.net/test/read.cgi/software/1447218757/
http://loggialogic.blogspot.jp/2015/09/msepsnr10814.html
・waifu2xとその派生ソフト一覧
http://kourindrug.sa kura.ne.jp/waifu2x.html
Q. waifu2xの派生バージョン多いけどどれがオススメ?
A. Windows 64bitかつGPUがnVidia製なら、Waifu2x-caffe。それ以外の環境なら、tanakamura版あたりを試すと良い。
2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。
・歴代スレ
waifu2x [転載禁止]??2ch.net
http://anago.2ch.net/test/read.cgi/software/1433637613/
【超解像】画像拡大ソフト総合スレ1【waifu2x】 [転載禁止]??2ch.net
http://potato.2ch.net/test/read.cgi/software/1447218757/
3名無しさん@お腹いっぱい。 (ワッチョイ bd64-kevm)
2016/05/10(火) 11:57:50.59ID:eninfPPB0 いちおつ
4名無しさん@お腹いっぱい。 (ワッチョイ 9c42-BRmI)
2016/05/10(火) 12:11:54.14ID:aFfpXB7Y0 旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
. ∧_∧ 旦 旦 旦 旦 旦
( ´・ω・ ). 旦 旦 旦 旦 旦
. /ヽ○==○ 旦 旦 旦 旦 旦
/ ||_ |_ 旦 旦 旦 旦 旦
し' ̄(_))  ̄(_))  ̄(_))  ̄(_))
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
旦 旦 旦 旦 旦
. ∧_∧ 旦 旦 旦 旦 旦
( ´・ω・ ). 旦 旦 旦 旦 旦
. /ヽ○==○ 旦 旦 旦 旦 旦
/ ||_ |_ 旦 旦 旦 旦 旦
し' ̄(_))  ̄(_))  ̄(_))  ̄(_))
5名無しさん@お腹いっぱい。 (ワッチョイ fa39-RvG2)
2016/05/10(火) 12:52:09.56ID:Fd7DWOdg0 >>2
> 2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。
これは古い情報で、20151130以降のバージョンならアルファ対応してる。
> 2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。
これは古い情報で、20151130以降のバージョンならアルファ対応してる。
6名無しさん@お腹いっぱい。 (ワッチョイ 9fe2-5iF2)
2016/05/10(火) 13:32:05.47ID:6mjJMeGF07名無しさん@お腹いっぱい。 (ワッチョイ 1550-7Olf)
2016/05/10(火) 13:55:21.96ID:NxSJJ6AA0 ここは暴言多いんで、ワッチョイありでいいわ
8名無しさん@お腹いっぱい。 (ワッチョイW 88e2-hIBt)
2016/05/10(火) 13:57:29.01ID:Zw+WHUPo0 おつおつ
9名無しさん@お腹いっぱい。 (ワッチョイW 3383-10y/)
2016/05/10(火) 14:49:07.77ID:O19W+R3l0 こっちが本スレかな?
乙
乙
10名無しさん@お腹いっぱい。 (ワッチョイ 88e2-pJm1)
2016/05/10(火) 15:11:00.81ID:6o3hZDzu0 スレ立て乙
11名無しさん@お腹いっぱい。 (ワッチョイ b55d-7Olf)
2016/05/10(火) 17:42:07.13ID:0/i3y4sK0 ワッチョイで特に必要性薄くなったけど念のため・・・
オススメ追加NGワード(正規表現)の手順 (改訂版)
1.[ツール]→[設定]→[機能]→[あぼーん]→[NGEx]→テキストボックス内に適当な名前(例:caff荒らし)を入力して→[追加]
2.次に開くウィンドウで、 以下の様に設定する。
NGWORDのタイプを「正規(含む)」に変更し、そしてキーワードに以下をコピペ(予め1行にすること)
(は([ \.]+)?み([ \.]+)?出|V([ \.]+)?G([ \.]+)?A|1([ \.]+)?0([ \.]+)?2([ \.]+)?4|7([ \.]+)?6([ \.]+)?8|
1([ \.]+)?9([ \.]+)?2([ \.]+)?0|6([ \.]+)?4([ \.]+)?0|M([ \.]+)?D([ \.]+)?.?([ \.]+)?5([ \.]+)?5([ \.]+)?0([ \.]+)?0([ \.]+)?|
L([ \.]+)?7([ \.]+)?9([ \.]+)?7|解([ \.]+)?像([ \.]+)?度([ \.]+)?|糞|雑([ \.]+)?魚|ク([ \.]+)?ソ|ザ([ \.]+)?コ|客|干([ \.]+)?[さしすせ])
3.左下のリストボックスを「透明あぼ〜ん」に設定。[OK]を押すれば新規レスからあぼ−んされるので取り敢えず終わり。
既存のレスも消去したいなら4.も実行。
4.[スレッド]→[このログを削除]して、[ファイル]→[最近閉じたスレ]から削除したスレを開き直す。
レス番号が歯抜けになっているはず。
2.のキーワードはその動向を見ながら変更追加して下さい。中には関係ないのも巻き込むので注意ですね。
正規表現をもう少し駆使すればかなりの精度でNGできます。ただ上記とその変更でも十分活用出来るでしょう。
オススメ追加NGワード(正規表現)の手順 (改訂版)
1.[ツール]→[設定]→[機能]→[あぼーん]→[NGEx]→テキストボックス内に適当な名前(例:caff荒らし)を入力して→[追加]
2.次に開くウィンドウで、 以下の様に設定する。
NGWORDのタイプを「正規(含む)」に変更し、そしてキーワードに以下をコピペ(予め1行にすること)
(は([ \.]+)?み([ \.]+)?出|V([ \.]+)?G([ \.]+)?A|1([ \.]+)?0([ \.]+)?2([ \.]+)?4|7([ \.]+)?6([ \.]+)?8|
1([ \.]+)?9([ \.]+)?2([ \.]+)?0|6([ \.]+)?4([ \.]+)?0|M([ \.]+)?D([ \.]+)?.?([ \.]+)?5([ \.]+)?5([ \.]+)?0([ \.]+)?0([ \.]+)?|
L([ \.]+)?7([ \.]+)?9([ \.]+)?7|解([ \.]+)?像([ \.]+)?度([ \.]+)?|糞|雑([ \.]+)?魚|ク([ \.]+)?ソ|ザ([ \.]+)?コ|客|干([ \.]+)?[さしすせ])
3.左下のリストボックスを「透明あぼ〜ん」に設定。[OK]を押すれば新規レスからあぼ−んされるので取り敢えず終わり。
既存のレスも消去したいなら4.も実行。
4.[スレッド]→[このログを削除]して、[ファイル]→[最近閉じたスレ]から削除したスレを開き直す。
レス番号が歯抜けになっているはず。
2.のキーワードはその動向を見ながら変更追加して下さい。中には関係ないのも巻き込むので注意ですね。
正規表現をもう少し駆使すればかなりの精度でNGできます。ただ上記とその変更でも十分活用出来るでしょう。
12名無しさん@お腹いっぱい。 (ワッチョイ fa39-RvG2)
2016/05/10(火) 18:18:00.24ID:Fd7DWOdg0 >>6
qtのGUIって↓のやつだよね?
https://github.com/khws4v1/waifu2x-converter-qt
試しに使ってみたけどアルファ保持されたよ。
アルファ消えるのはもしかして古いバイナリを使うように設定してるとかかな?
qtのGUIって↓のやつだよね?
https://github.com/khws4v1/waifu2x-converter-qt
試しに使ってみたけどアルファ保持されたよ。
アルファ消えるのはもしかして古いバイナリを使うように設定してるとかかな?
13名無しさん@お腹いっぱい。 (スプー Sdb8-uAmq)
2016/05/10(火) 18:19:52.36ID:pNhD28mzd ワッチョイのおかげでレトロガイジが駆逐されたみたいやな
14名無しさん@お腹いっぱい。 (ワッチョイ 9c42-BRmI)
2016/05/10(火) 18:42:31.00ID:PIjk1rDx0 レトロガイジって何ですか?
15名無しさん@お腹いっぱい。 (ワッチョイ ff0f-lMTc)
2016/05/10(火) 18:48:05.87ID:Lz+ZkU790 「レトロなキチガイ児」のことじゃね?知らんけど。
16名無しさん@お腹いっぱい。 (ワッチョイ 9fe2-5iF2)
2016/05/10(火) 19:40:07.52ID:6mjJMeGF0 >>12
お手数かけました情報ありがとう
そちらで保持されておられるのなら自分の方法が間違ってるに違いないと確信した
qt側の設定で最新のcppの実行ファイル指定はできていたので何か間違いがないか
手順を再確認してみる
お手数かけました情報ありがとう
そちらで保持されておられるのなら自分の方法が間違ってるに違いないと確信した
qt側の設定で最新のcppの実行ファイル指定はできていたので何か間違いがないか
手順を再確認してみる
17名無しさん@お腹いっぱい。 (ワッチョイ be6d-xPRS)
2016/05/10(火) 19:52:07.36ID:0vfKWyMS0 昔の栄光にすがってる、哀れな独りよがりのピエロのことだよ。
18名無しさん@お腹いっぱい。 (ワッチョイ 9fe2-5iF2)
2016/05/10(火) 20:02:00.70ID:6mjJMeGF0 >>12
試行した結果
自作PNG→OK
webで拾ってきた透過PNG→NGなのもある
作者さんが注意書きされておられた
bKGDに変な値入ってると変な色が出る可能性はある。
上記に該当する画像だと判断できました
アプリで開いて透過PNGで保存し直しwaifuするとOKでした
いまさらな話題で失礼しました
試行した結果
自作PNG→OK
webで拾ってきた透過PNG→NGなのもある
作者さんが注意書きされておられた
bKGDに変な値入ってると変な色が出る可能性はある。
上記に該当する画像だと判断できました
アプリで開いて透過PNGで保存し直しwaifuするとOKでした
いまさらな話題で失礼しました
19名無しさん@お腹いっぱい。 (ワッチョイ bd64-kevm)
2016/05/10(火) 23:59:53.00ID:eninfPPB0 新しい機器が買えないニート
20名無しさん@お腹いっぱい。 (アウアウ Sa85-Xnmr)
2016/05/11(水) 15:04:46.70ID:JWRjx2E2a 一応連絡です(作者の人ではないのですが)
waifu2x-c/c with Batchfile and HTA-GUIをご利用中の方へ
・画像アップロードでウェブサイトを乗っ取られる攻撃が進行中--「ImageMagick」脆弱性
http://japan.zdnet.com/article/35082361/
というニュースが少し前より出ております。
念のため、最新のImageMagickに更新されておいた方がいいかと思います。
・ImageMagickダウンロードページ
http://www.imagemagick.org/script/binary-releases.php#windows
(種類がいろいろあるようですが、ImageMagick-7.0.1-3-Q16-x64-dll.exeでよいかと思います。)
なお更新するにあたって、事前に古いバージョンを手動削除し、念のためCCleaner等できれいにしてから最新版をインストールされた方がいいと思います。
(手動で削除しないと古いバージョンが残ったままになってしまうため)
・インストール時の注意点
途中で「Select Additional Tasks」の画面が表示されたら
上から2番目
Add application directory to your system path
1番下
Install ImageMagickObject OLE Control for VBscript,Visual Basic,and WSH
この2点に必ずチェックが入った状態にして先に進めること。
waifu2x-c/c with Batchfile and HTA-GUIをご利用中の方へ
・画像アップロードでウェブサイトを乗っ取られる攻撃が進行中--「ImageMagick」脆弱性
http://japan.zdnet.com/article/35082361/
というニュースが少し前より出ております。
念のため、最新のImageMagickに更新されておいた方がいいかと思います。
・ImageMagickダウンロードページ
http://www.imagemagick.org/script/binary-releases.php#windows
(種類がいろいろあるようですが、ImageMagick-7.0.1-3-Q16-x64-dll.exeでよいかと思います。)
なお更新するにあたって、事前に古いバージョンを手動削除し、念のためCCleaner等できれいにしてから最新版をインストールされた方がいいと思います。
(手動で削除しないと古いバージョンが残ったままになってしまうため)
・インストール時の注意点
途中で「Select Additional Tasks」の画面が表示されたら
上から2番目
Add application directory to your system path
1番下
Install ImageMagickObject OLE Control for VBscript,Visual Basic,and WSH
この2点に必ずチェックが入った状態にして先に進めること。
21名無しさん@お腹いっぱい。 (アウアウ Sa85-Xnmr)
2016/05/11(水) 15:20:21.00ID:JWRjx2E2a ちなみに、先ほどImageMagickを更新してから久々にwaifu2x-c/c with Batchfile and HTA-GUIを起動して使ってみましたが、
やはり私のPCでは利用できないままなのは変わらないようです。
(起動時にエラーは出るし、ファイルの選択すらできない。)
やはり私のPCでは利用できないままなのは変わらないようです。
(起動時にエラーは出るし、ファイルの選択すらできない。)
22名無しさん@お腹いっぱい。 (アウアウ Saef-Wax8)
2016/05/14(土) 10:55:12.05ID:CHSZ183Na 前スレで画像のbit深度について書いていた件なんだけど、いろいろ調べていたら
・ImageMagickのビット深度と画質劣化
http://mikio.hatenablog.com/entry/2016/02/12/220435
という興味深いページに行き当たった。
曰く、「ImageMagick 7からはHDRIがデフォルトになる」そうです。
※HDRIとは、「内部表現を浮動小数点数で持つ機能」のことだそうです。
先日>>20にてアップデート推奨と書きましたが、現在のバージョンが7.0.1-3ですので、おそらく対応しているものかと思います。
ImageMagick 7以降を使うと旧バージョンに比べて画像フォーマットの変換時の劣化を抑えられるかも。
旧バージョンを利用中の方は更新されておく方がいいと思います。
ところでもともと調べていたのは「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」を探すことが目的だったのですが、案外ないものですね。
(Photoshop関連の情報はたくさん出てくるのですが)
ImageMagickだとできるかなと調べているのですが、よくわからんです。
誰かご存知でしたらよろしくです。
・ImageMagickのビット深度と画質劣化
http://mikio.hatenablog.com/entry/2016/02/12/220435
という興味深いページに行き当たった。
曰く、「ImageMagick 7からはHDRIがデフォルトになる」そうです。
※HDRIとは、「内部表現を浮動小数点数で持つ機能」のことだそうです。
先日>>20にてアップデート推奨と書きましたが、現在のバージョンが7.0.1-3ですので、おそらく対応しているものかと思います。
ImageMagick 7以降を使うと旧バージョンに比べて画像フォーマットの変換時の劣化を抑えられるかも。
旧バージョンを利用中の方は更新されておく方がいいと思います。
ところでもともと調べていたのは「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」を探すことが目的だったのですが、案外ないものですね。
(Photoshop関連の情報はたくさん出てくるのですが)
ImageMagickだとできるかなと調べているのですが、よくわからんです。
誰かご存知でしたらよろしくです。
23名無しさん@お腹いっぱい。 (アウアウ Saef-Wax8)
2016/05/14(土) 11:04:35.89ID:CHSZ183Na HDRIについてさらなる考察をされている件も興味深いので合わせてどうぞ
(HDRIかつ16bit、あるいは32bit、64bitのケースなど)
・ImageMagickのビット深度と画質劣化 その2
http://mikio.hatenablog.com/entry/2016/02/15/221433
(HDRIかつ16bit、あるいは32bit、64bitのケースなど)
・ImageMagickのビット深度と画質劣化 その2
http://mikio.hatenablog.com/entry/2016/02/15/221433
24名無しさん@お腹いっぱい。 (ワッチョイ a744-Wsqh)
2016/05/14(土) 11:13:20.68ID:GNuM19aQ0 >「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」
綺麗に、ってのは、オーディオで言うところのアップサンプリングみたいなのを考えてる?
解像度を上げつつ、補完するピクセルの色を16bitでしか
表現できない色で表現する、ならわかるけど
解像度を上げないでそのまま16bit化するのはただ
ファイル容量増えるだけで何も変わらないよ
綺麗に、ってのは、オーディオで言うところのアップサンプリングみたいなのを考えてる?
解像度を上げつつ、補完するピクセルの色を16bitでしか
表現できない色で表現する、ならわかるけど
解像度を上げないでそのまま16bit化するのはただ
ファイル容量増えるだけで何も変わらないよ
25名無しさん@お腹いっぱい。 (アウアウ Saef-Wax8)
2016/05/14(土) 11:44:34.95ID:CHSZ183Na >>24
「オーディオで言うところのアップサンプリングみたいなの」ということになるのかどうかわかりませんが、
各色16bitに変換する際にトーンジャンプが起きないように補完しつつ変換するような感じの動作をするものを探しています。
「オーディオで言うところのアップサンプリングみたいなの」ということになるのかどうかわかりませんが、
各色16bitに変換する際にトーンジャンプが起きないように補完しつつ変換するような感じの動作をするものを探しています。
26名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb)
2016/05/14(土) 12:20:35.15ID:CHSZ183Na 表現が間違っているかも。
元画像に含まれるトーンジャンプ(バンディング)を滑らかに補正しつつ、bit深度を拡張、というべきかも。
つまり元画像が高圧縮された画像であればあるほどトーンジャンプが発生している確率が高いので、
そのまま拡大するのではなく、あらかじめ階調をできる限り滑らかに補正しておいてからwaifu2xに渡す、というような前準備を考えています。
等倍サイズでは目立たなくとも、拡大するとトーンジャンプは目立つことが多いので。
元画像に含まれるトーンジャンプ(バンディング)を滑らかに補正しつつ、bit深度を拡張、というべきかも。
つまり元画像が高圧縮された画像であればあるほどトーンジャンプが発生している確率が高いので、
そのまま拡大するのではなく、あらかじめ階調をできる限り滑らかに補正しておいてからwaifu2xに渡す、というような前準備を考えています。
等倍サイズでは目立たなくとも、拡大するとトーンジャンプは目立つことが多いので。
27名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb)
2016/05/14(土) 12:29:11.32ID:CHSZ183Na 可能性の話になるけれど、ディープラーニングを利用したノイズ除去とは別にやの、トーンジャンプ除去モードとかbit深度拡張モードがあればいいのか?
(等倍での出力も対応)
ノイズ除去も目的に応じてより細かいモードがあるといいのかも。
ブロックノイズ軽減モードとか、モスキートノイズ軽減モード、カラーノイズ除去モード、などなど。
(等倍での出力も対応)
ノイズ除去も目的に応じてより細かいモードがあるといいのかも。
ブロックノイズ軽減モードとか、モスキートノイズ軽減モード、カラーノイズ除去モード、などなど。
28名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb)
2016/05/14(土) 18:50:49.16ID:CHSZ183Na 思いつきのメモ
画像を圧縮することによって発生する問題(ブロックノイズとかトーンジャンプとか)を、圧縮前はこうだっただろうという想定で復元する「超復元」。
さすがにそんな都合のいいものは無理?
画像を圧縮することによって発生する問題(ブロックノイズとかトーンジャンプとか)を、圧縮前はこうだっただろうという想定で復元する「超復元」。
さすがにそんな都合のいいものは無理?
29名無しさん@お腹いっぱい。 (ワッチョイ 3720-Wsqh)
2016/05/14(土) 19:20:53.65ID:0zj3O/Km0 >>28
1.00000001倍に拡大して自動判別してノイズ除去で良いんじゃね
1.00000001倍に拡大して自動判別してノイズ除去で良いんじゃね
30名無しさん@お腹いっぱい。 (ワッチョイ 077c-yliF)
2016/05/14(土) 21:32:59.96ID:Nq8DfokX0 >>28
トーンジャンプ/ブロックノイズした絵を入力・解除された絵を出力するように学習させれば可能かも
トーンジャンプ/ブロックノイズした絵を入力・解除された絵を出力するように学習させれば可能かも
31名無しさん@お腹いっぱい。 (ワッチョイ afe1-Jrc9)
2016/05/15(日) 04:52:32.51ID:a+hZy1+X0 >画像が高圧縮された画像であればあるほどトーンジャンプが発生している確率が高いので
トーンジャンプ(バンディング) が判るような圧縮画像じゃ、8bit諧調ですらないのでは?ってレベルの画像なんじゃないだろうか・・・
トーンジャンプ(バンディング) が判るような圧縮画像じゃ、8bit諧調ですらないのでは?ってレベルの画像なんじゃないだろうか・・・
32名無しさん@お腹いっぱい。 (ワッチョイ 5336-Wsqh)
2016/05/16(月) 15:12:06.66ID:N/rtYCXM0 処理時間半分以下になるバージョンの公開が待ち遠しい
33名無しさん@お腹いっぱい。 (ワッチョイ 37b5-Wsqh)
2016/05/16(月) 16:35:15.65ID:B4gPzHV00 フィギュアの写真をアニメ調にしてくれる機能があったらなぁ。
34名無しさん@お腹いっぱい。 (スプー Sd1f-jhWs)
2016/05/16(月) 18:25:08.61ID:5Rev/Kkkd 新バージョン待ち遠しいな
35名無しさん@お腹いっぱい。 (ワッチョイ b7d2-J8dZ)
2016/05/16(月) 19:44:29.81ID:7A45SCwf0 新モデルはupconvブランチに置いてますけど
ピクセルアートなどでひどいアーティファクトが出てることに気付いたのでまだ変更します。
時間半分以下でイラストでのベンチマークも上ではありますけど
以前より悪くなるパターンもあってあやしくなってきました。
ピクセルアートなどでひどいアーティファクトが出てることに気付いたのでまだ変更します。
時間半分以下でイラストでのベンチマークも上ではありますけど
以前より悪くなるパターンもあってあやしくなってきました。
36名無しさん@お腹いっぱい。 (ワッチョイW 374d-jhWs)
2016/05/16(月) 21:18:27.97ID:GoJkJQIl0 処理時間よりどれくらい綺麗に処理出来るようになったかが気になるな
特に前スレで書かれてたノイズを使ったときの溶けた感じや輪郭線など
とにかく作者さん頑張って
特に前スレで書かれてたノイズを使ったときの溶けた感じや輪郭線など
とにかく作者さん頑張って
37名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb)
2016/05/17(火) 08:12:24.79ID:CE801I46a モデルデータなんだけど、現状はアニメ用とか写真用とかに分かれていて利用者が選択するやり方になっているけど、
絵柄の部分ごとに自動的に切り替えて適用させることはできないものなんだろうか?
(切り替える判断をディープラーニングでさせる)
・階調情報が少ない面が一定以上ある部分→アニメモデル
・輪郭線が複雑に構成されている部分→Yモデル
・それ以外→RGBモデル
みたいな。
絵柄の部分ごとに自動的に切り替えて適用させることはできないものなんだろうか?
(切り替える判断をディープラーニングでさせる)
・階調情報が少ない面が一定以上ある部分→アニメモデル
・輪郭線が複雑に構成されている部分→Yモデル
・それ以外→RGBモデル
みたいな。
38名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb)
2016/05/17(火) 11:39:19.21ID:CE801I46a >>35
ピクセルアートはコントラスト比が高い絵柄が多いから、現状のwaifu2xのやり方だと溶ける症状が出やすいかもしれませんね。
どうも溶ける症状が出やすいところって、コントラスト比の高い部分が隣接しているような場所でおこりやすい気がしますね。
(だから結果として輪郭周辺部とかで目につきやすいのかも)
コントラスト比が高い部分とコントラスト比の低い部分を同じ割合で強調してしまっているのかな?
元画像のコントラスト比が高くなるほど、強調する度合いを低下させておくような仕掛が必要だと思います。
ピクセルアートはコントラスト比が高い絵柄が多いから、現状のwaifu2xのやり方だと溶ける症状が出やすいかもしれませんね。
どうも溶ける症状が出やすいところって、コントラスト比の高い部分が隣接しているような場所でおこりやすい気がしますね。
(だから結果として輪郭周辺部とかで目につきやすいのかも)
コントラスト比が高い部分とコントラスト比の低い部分を同じ割合で強調してしまっているのかな?
元画像のコントラスト比が高くなるほど、強調する度合いを低下させておくような仕掛が必要だと思います。
39名無しさん@お腹いっぱい。 (スプー Sd1f-jhWs)
2016/05/18(水) 21:27:07.33ID:wnzNAYYTd40名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r)
2016/05/19(木) 11:36:41.13ID:snBFEXtFa >>39
みんなそれを期待していると言っても過言ではないのけど、実際問題としては相当難しいんだろうなとも思う。
というのは、人間の目には輪郭とは「一本の繋がった線」として認識しているので、目に見えにくいところが少しくらい途切れていても
脳内で補完される(これを「アモーダル効果」とかいうそうです)仕組みがあるけれど、コンピューターに勝手にそのような効果が備わっているわけではないので、
輪郭線の細部の「ムラ」になっていたり、ノイズまみれになっているところを、いかに連続した線としてきれいに見せる=すなわち「連続した線として認識できる」
かが鍵になるのだと思う。
つまり、現状のwaifu2xは細かい点ごとを処理している状態であるところを、あらかじめディープラーニングを使って「この連続成分は線なのか?」ということを
事前に認識する前処理を施したうえで、「線成分(=連続成分)」と認識した場所と、そうではないところで処理方法を切り替えることが必要なのではないかと個人的に
思ってはいるのだけど(連続成分については超解像効果をオフ、もしくは弱めて適用)、作者様、そんな前処理&処理方法の切り替えはできないものでしょうか?
みんなそれを期待していると言っても過言ではないのけど、実際問題としては相当難しいんだろうなとも思う。
というのは、人間の目には輪郭とは「一本の繋がった線」として認識しているので、目に見えにくいところが少しくらい途切れていても
脳内で補完される(これを「アモーダル効果」とかいうそうです)仕組みがあるけれど、コンピューターに勝手にそのような効果が備わっているわけではないので、
輪郭線の細部の「ムラ」になっていたり、ノイズまみれになっているところを、いかに連続した線としてきれいに見せる=すなわち「連続した線として認識できる」
かが鍵になるのだと思う。
つまり、現状のwaifu2xは細かい点ごとを処理している状態であるところを、あらかじめディープラーニングを使って「この連続成分は線なのか?」ということを
事前に認識する前処理を施したうえで、「線成分(=連続成分)」と認識した場所と、そうではないところで処理方法を切り替えることが必要なのではないかと個人的に
思ってはいるのだけど(連続成分については超解像効果をオフ、もしくは弱めて適用)、作者様、そんな前処理&処理方法の切り替えはできないものでしょうか?
41名無しさん@お腹いっぱい。 (ワッチョイ bcd2-SHNT)
2016/05/19(木) 11:54:46.91ID:p48VMaQS0 現状が出力1px出すのにその周りの7x7pxがどうなっているかで出力を決めているので
その範囲でそれが線か点か平面かみたいなところは判定できていると思います
新モデルはこれが12x12に広がるのでもう少し複雑なパターンも分かるのではと思うけど
フィルタが大きくなるとそれだけ無関係なピクセルから影響を受けやすくもなるので
アーティファクトも出やすくなってしまう
その範囲でそれが線か点か平面かみたいなところは判定できていると思います
新モデルはこれが12x12に広がるのでもう少し複雑なパターンも分かるのではと思うけど
フィルタが大きくなるとそれだけ無関係なピクセルから影響を受けやすくもなるので
アーティファクトも出やすくなってしまう
42名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r)
2016/05/19(木) 12:34:06.20ID:snBFEXtFa43名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r)
2016/05/19(木) 12:42:22.08ID:snBFEXtFa 作者様のTwitterを見たところ、「Imager::AnimeFace」なる輪郭検出に必要になりそうなソフトウェアをすでに作られていたご様子。
このソフトの技術で認識した輪郭部だけに適用する「輪郭ノイズ除去フィルター」なんて組み込めないものですかね?
このソフトの技術で認識した輪郭部だけに適用する「輪郭ノイズ除去フィルター」なんて組み込めないものですかね?
44名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r)
2016/05/19(木) 12:44:38.11ID:snBFEXtFa45名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r)
2016/05/19(木) 12:49:58.03ID:snBFEXtFa 人のいるところでは開かないほうがいいページだけれども、参考にはなりそうなところ。
Googleで「輪郭ノイズ除去フィルター」で検索すると、「プロカメラマンのPhotoshop女性写真補正術」なるところが表示されますのでそこに出てきます。
人前では見るなよ!見るなよ!
Googleで「輪郭ノイズ除去フィルター」で検索すると、「プロカメラマンのPhotoshop女性写真補正術」なるところが表示されますのでそこに出てきます。
人前では見るなよ!見るなよ!
46名無しさん@お腹いっぱい。 (スプー Sd78-lZ/E)
2016/05/19(木) 12:51:00.20ID:Jy9TZu3Bd >>40
分かりやすい説明ありがとう
やっぱりみんなもそこ気になってるんだね
輪郭線も気になるけど、画像みたいな色が違う境界線も新バージョンで改善されると嬉しいな
要望ばかりで申し訳ないが、作者様頑張って下さい
分かりやすい説明ありがとう
やっぱりみんなもそこ気になってるんだね
輪郭線も気になるけど、画像みたいな色が違う境界線も新バージョンで改善されると嬉しいな
要望ばかりで申し訳ないが、作者様頑張って下さい
47名無しさん@お腹いっぱい。 (ブーイモ MM28-MTTD)
2016/05/19(木) 12:57:20.90ID:0HndFo6fM アニメって原寸でも少しボケ気味だから拡大前に若干縮小するか、シャープかけてからの方が良い結果になることが多い
48名無しさん@お腹いっぱい。 (ワッチョイ c991-MYRu)
2016/05/24(火) 01:06:43.33ID:pHT3p8L20 waifu2x-c/c with Batchfile and HTA-GUI作者です、ご無沙汰してます
>>20
ありがとうございます。私もこのレスを見て始めて脆弱性のことを知りました...
>>21
申し訳ないです。。。もしよければバッチファイルだけでもご利用ください。
重いのに使ってくださる方がいて嬉しい限りです。
リアルが多忙ですが、tanakmura氏版がLv3に対応した後ぐらいの時期に次版をリリースしようと考えています。
次版は少々軽くなっているはずです。
また、近いうちに選択肢が簡単な(コマンドライン準拠でない)バージョンも用意したいと考えています。
個体差でエラー&起動しない問題の解決にも取り組みたいところです。
>>20
ありがとうございます。私もこのレスを見て始めて脆弱性のことを知りました...
>>21
申し訳ないです。。。もしよければバッチファイルだけでもご利用ください。
重いのに使ってくださる方がいて嬉しい限りです。
リアルが多忙ですが、tanakmura氏版がLv3に対応した後ぐらいの時期に次版をリリースしようと考えています。
次版は少々軽くなっているはずです。
また、近いうちに選択肢が簡単な(コマンドライン準拠でない)バージョンも用意したいと考えています。
個体差でエラー&起動しない問題の解決にも取り組みたいところです。
49名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r)
2016/05/24(火) 09:35:22.04ID:gUvghq74a50名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r)
2016/05/24(火) 10:00:09.81ID:gUvghq74a ひょっとして8bit→16bitをImageMagickで変換するには
convert input.png -depth 16 output.png
だけでよかった?
convert input.png -depth 16 output.png
だけでよかった?
51名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r)
2016/05/24(火) 10:13:01.51ID:gUvghq74a そんなわけはなかった・・・
引き続き調査。
引き続き調査。
52名無しさん@お腹いっぱい。 (ワッチョイ 2136-xKv1)
2016/05/24(火) 17:42:11.99ID:wmnqMgZB0 倍速バージョンがcaffeに採用される日はまだ遠いのでしょうか?
53名無しさん@お腹いっぱい。 (ワッチョイ 96e1-G0cz)
2016/05/24(火) 18:13:16.41ID:MHUmioZy0 各16bitにしてもグラボやモニタが対応してないと確認できないよーな
54名無しさん@お腹いっぱい。 (アウアウ Sa22-ZXL4)
2016/05/24(火) 19:22:40.86ID:65AxGBFja 16bitは編集前提だから
まぁ、Radeonの次期モデルから10bit出力対応になるし、モニターも対応モデルが増えていくから無駄にはならん
まぁ、Radeonの次期モデルから10bit出力対応になるし、モニターも対応モデルが増えていくから無駄にはならん
55名無しさん@お腹いっぱい。 (ワッチョイ c66d-2dQw)
2016/05/24(火) 20:29:37.48ID:8l5f+VfM0 >>39
これ学習時に縮小するときにジッタ成分としてランダムにサンプリング位置を僅かにずらしたのを学習させれば
ノイズとして巧いこと処理できるようにならないかな
縮小したのをWarpsharpとかランダムシフトでずらして凸凹を再現してもいいけど
これ学習時に縮小するときにジッタ成分としてランダムにサンプリング位置を僅かにずらしたのを学習させれば
ノイズとして巧いこと処理できるようにならないかな
縮小したのをWarpsharpとかランダムシフトでずらして凸凹を再現してもいいけど
56名無しさん@お腹いっぱい。 (ワッチョイ 96e1-G0cz)
2016/05/24(火) 20:41:22.46ID:MHUmioZy057名無しさん@お腹いっぱい。 (ワッチョイ c66d-2dQw)
2016/05/24(火) 20:59:08.32ID:8l5f+VfM0 ビット拡張は暗部階調に意味があるんだからガンマカーブやトーンカーブいじって明るくしてやれば確認は出来るでしょ
10bit出力だってDirectXやOpenGLのフルスクリーンで相当昔から出来るがDeepColorのTVでもそのままじゃわからん
Blu-Ray再生でRGBのまま再生したいときにロスが減るという意味がある程度かもしれん
10bit出力だってDirectXやOpenGLのフルスクリーンで相当昔から出来るがDeepColorのTVでもそのままじゃわからん
Blu-Ray再生でRGBのまま再生したいときにロスが減るという意味がある程度かもしれん
58名無しさん@お腹いっぱい。 (ワッチョイW 574d-q9La)
2016/05/28(土) 18:13:12.85ID:VJDl+RrJ0 新バージョンはいつ頃になりそうですか?
59名無しさん@お腹いっぱい。 (ワッチョイ 3f39-I3Qh)
2016/05/29(日) 03:27:38.86ID:s6BvNCI80 rigayaの日記兼メモ帳 技研公開 2016
http://rigaya34589.blog135.fc2.com/blog-entry-788.html
NHKの方でも縮小して拡大、PSNR算出みたいな事するのね
http://rigaya34589.blog135.fc2.com/blog-entry-788.html
NHKの方でも縮小して拡大、PSNR算出みたいな事するのね
60名無しさん@お腹いっぱい。 (ワッチョイ 3f39-I3Qh)
2016/05/29(日) 03:40:46.10ID:s6BvNCI80 ムッ、ブログ記事の画像URLのGiken2016_10s.jpgをGiken2016_10.jpgにすると読みやすいのが出るな
61名無しさん@お腹いっぱい。 (ワッチョイ d7d2-AZVN)
2016/05/31(火) 00:49:27.83ID:oZ5ZU4SC0 >>58
平均的にはいいんだけど,現在のモデルよりすごく悪くなる例がいくつかあってどうしてもよくならないので苦悩しています
(ウェブの方を置換するので現在より悪い例はできるだけ無くしたい)
あと2倍といっていたけど,モデルのロード時間も測ってしまっていて
測りなおしたら4倍近く速かったので,もう少し遅くなっていいのでよくできないかなと考えています
平均的にはいいんだけど,現在のモデルよりすごく悪くなる例がいくつかあってどうしてもよくならないので苦悩しています
(ウェブの方を置換するので現在より悪い例はできるだけ無くしたい)
あと2倍といっていたけど,モデルのロード時間も測ってしまっていて
測りなおしたら4倍近く速かったので,もう少し遅くなっていいのでよくできないかなと考えています
62名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ)
2016/05/31(火) 10:03:28.13ID:C22Vvmqga >>61
お疲れ様です。
すごく悪くなる例というのは、以前おっしゃられていたピクセルアートなどの場合でしょうか?
私はプログラミングのことはよくわかりませんが、悪くなる原因というのは現行方式にくらべて新方式が速く処理できる以上、
何か重要な処理が省かれてしまっている、もしくは簡略化されてしまっている、という可能性はないのでしょうか?
逆に言うと、省かれたか簡略化された処理がかねてより問題の輪郭線などが溶けてしまう要素とも関係していたりはしないのでしょうか?
もしそうであるならばですが、拡大処理などをする前にまず画像全体をチェックして、新方式で問題ないと判断される場所は新方式で高速処理し、
問題が出そうと判断される場所は現行方式、あるいはさらに改良した方式をあてがうなど、処理を切り替える必要性があるのではないでしょうか?
それと3年ほど前の記事ですが、こんな記述も参考になるかも
・東芝「REGZA Z8X」開発陣に聞く、「本格的4K時代」 4Kだから差が出る画質。地デジを高画質化の秘密
http://av.watch.impress.co.jp/docs/series/rt/20130809_610976.html
「ではなにが実物感に繋がっているのかというと、グラデーションの美しさであったり、自然なエッジの持つ「柔らかいが細かい」という感覚です。
映像エンジンとしては、階調性や微小な振幅が失われないよう、いかに内部のバス幅を広くとるか、ということを意識して開発しています。
最後まで12bitで伝送するといったことにこだわらないと、4Kらしい実物感が出てこないのです。」
→つまり、前回お話ししていた8bit画像を高bit化する際の処理方法とその後の情報精度維持が効く!
お疲れ様です。
すごく悪くなる例というのは、以前おっしゃられていたピクセルアートなどの場合でしょうか?
私はプログラミングのことはよくわかりませんが、悪くなる原因というのは現行方式にくらべて新方式が速く処理できる以上、
何か重要な処理が省かれてしまっている、もしくは簡略化されてしまっている、という可能性はないのでしょうか?
逆に言うと、省かれたか簡略化された処理がかねてより問題の輪郭線などが溶けてしまう要素とも関係していたりはしないのでしょうか?
もしそうであるならばですが、拡大処理などをする前にまず画像全体をチェックして、新方式で問題ないと判断される場所は新方式で高速処理し、
問題が出そうと判断される場所は現行方式、あるいはさらに改良した方式をあてがうなど、処理を切り替える必要性があるのではないでしょうか?
それと3年ほど前の記事ですが、こんな記述も参考になるかも
・東芝「REGZA Z8X」開発陣に聞く、「本格的4K時代」 4Kだから差が出る画質。地デジを高画質化の秘密
http://av.watch.impress.co.jp/docs/series/rt/20130809_610976.html
「ではなにが実物感に繋がっているのかというと、グラデーションの美しさであったり、自然なエッジの持つ「柔らかいが細かい」という感覚です。
映像エンジンとしては、階調性や微小な振幅が失われないよう、いかに内部のバス幅を広くとるか、ということを意識して開発しています。
最後まで12bitで伝送するといったことにこだわらないと、4Kらしい実物感が出てこないのです。」
→つまり、前回お話ししていた8bit画像を高bit化する際の処理方法とその後の情報精度維持が効く!
63名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ)
2016/05/31(火) 10:04:09.16ID:C22Vvmqga ・微細テクスチャー復元
http://av.watch.impress.co.jp/img/avw/docs/610/976/html/ppt05.jpg.html
「2Kの段と4Kの段をしっかりわけて処理しないと、そうした「リアリティ」が出ない
そんなにゲインをかけてはいないです。微小なところしかかけていないんですが、それを入れるか入れないかで、4Kになってしまうと大きくかわってきます。」
→微小な階調差の領域とそうでないところを同じ処理(=強調)をしてはいけない!
※協調具合は逆ガンマ特性であてがうといいのかも
・絵柄構造適応型MPEG-NR
http://www.toshiba.co.jp/regza/lineup/z700x/quality_03.html#psa
→絵柄の相関性に基づいてフィルターの形状を適正化の部分を取り込むことで、参照範囲を拡張することによるアーティファクトの問題を軽減!
http://av.watch.impress.co.jp/img/avw/docs/610/976/html/ppt05.jpg.html
「2Kの段と4Kの段をしっかりわけて処理しないと、そうした「リアリティ」が出ない
そんなにゲインをかけてはいないです。微小なところしかかけていないんですが、それを入れるか入れないかで、4Kになってしまうと大きくかわってきます。」
→微小な階調差の領域とそうでないところを同じ処理(=強調)をしてはいけない!
※協調具合は逆ガンマ特性であてがうといいのかも
・絵柄構造適応型MPEG-NR
http://www.toshiba.co.jp/regza/lineup/z700x/quality_03.html#psa
→絵柄の相関性に基づいてフィルターの形状を適正化の部分を取り込むことで、参照範囲を拡張することによるアーティファクトの問題を軽減!
64名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ)
2016/05/31(火) 10:11:05.50ID:C22Vvmqga 8bit画像を高bit化について追記
ノイズ除去や拡大する前に、ディープラーニングを使った高bit化(8→16bit化)が必要なのかも。
※単なるデータだけ16bitにしました、ではなく!
ノイズ除去や拡大する前に、ディープラーニングを使った高bit化(8→16bit化)が必要なのかも。
※単なるデータだけ16bitにしました、ではなく!
65名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ)
2016/05/31(火) 12:33:31.37ID:C22Vvmqga >>64を訂正
元画像でディープラーニングを使った高bit化(8→16bit化)ではなく、waifu2xで内部的に確か使っているニアレストネイバーで拡大した画像をディープラーニングを使った高bit化(8→16bit化)のほうがいいのか?
元画像でディープラーニングを使った高bit化(8→16bit化)ではなく、waifu2xで内部的に確か使っているニアレストネイバーで拡大した画像をディープラーニングを使った高bit化(8→16bit化)のほうがいいのか?
66名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ)
2016/05/31(火) 12:35:45.44ID:C22Vvmqga いや、それなら拡大後の画像にディープラーニングを使った高bit化(8→16bit化)を適用すればいいのか?
手元で試せるわけじゃないからわからんな・・・
手元で試せるわけじゃないからわからんな・・・
67名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ)
2016/05/31(火) 12:57:25.17ID:C22Vvmqga そもそも原点に戻るべきなんだろうか?
waifu2xが出た当初、今よりも輪郭が溶けやすかったので、NNEDI3で拡大後にwaifu2xでノイズ除去のみ適用というのをやったことがあったけど、
waifu2xが改良されてからNNEDI3を使う方法は全く試してなかったんだよねぇ。
NNEDI3と最新版のノイズ除去との組み合わせ、あるいは以前に書いたような輪郭成分と認識される部分だけに適用されるような新型ノイズ除去?との組み合わせならばどうなるのだろうとふつふつ・・・
そのうち時間が取れたら試すか。
waifu2xが出た当初、今よりも輪郭が溶けやすかったので、NNEDI3で拡大後にwaifu2xでノイズ除去のみ適用というのをやったことがあったけど、
waifu2xが改良されてからNNEDI3を使う方法は全く試してなかったんだよねぇ。
NNEDI3と最新版のノイズ除去との組み合わせ、あるいは以前に書いたような輪郭成分と認識される部分だけに適用されるような新型ノイズ除去?との組み合わせならばどうなるのだろうとふつふつ・・・
そのうち時間が取れたら試すか。
68名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ)
2016/05/31(火) 13:14:26.12ID:C22Vvmqga 手元に以前にNNEDIS3にて2倍、4倍、8倍に拡大した画像があったので改めて見てみたのだが、確かに眠い画像ではあるんだけど輪郭とかは自然なんだよね。
NNEDI3で拡大して、画像の面成分(=「Imager::AnimeFace」にて輪郭と認識されないところ)のみwaifu2xにて超解像効果を適用・・・
それができるのならば、テレビなどでよくある解像度の変換はなしで、解像感だけアップする手段にも使えるのか?
NNEDI3で拡大して、画像の面成分(=「Imager::AnimeFace」にて輪郭と認識されないところ)のみwaifu2xにて超解像効果を適用・・・
それができるのならば、テレビなどでよくある解像度の変換はなしで、解像感だけアップする手段にも使えるのか?
69名無しさん@お腹いっぱい。 (ワッチョイ 7b0f-dYmh)
2016/05/31(火) 13:20:06.61ID:7tY1vICr0 ダラダラとうぜえ・・・
70名無しさん@お腹いっぱい。 (ワッチョイ e7e2-FhuW)
2016/05/31(火) 16:10:01.21ID:nKVf7NYn0 「私はプログラミングのことはよくわかりませんが」って奴が、よくまあ長々と愚にもつかない事を語れるもんだ
マジでどういう神経してるのかと
マジでどういう神経してるのかと
71名無しさん@お腹いっぱい。 (ワッチョイ e39d-kHkB)
2016/05/31(火) 16:19:05.88ID:IXSgPgWR072名無しさん@お腹いっぱい。 (スプー Sdff-q9La)
2016/05/31(火) 18:17:18.12ID:G7S0Hj3Td73名無しさん@お腹いっぱい。 (ワッチョイW 576c-q9La)
2016/05/31(火) 19:23:41.36ID:DPKFBz19074名無しさん@お腹いっぱい。 (アウアウ Sae5-YSaM)
2016/06/02(木) 10:13:34.24ID:8dS/92/Ma 今日のGoogleは影絵作家の生誕記念バージョンになっているけれど、新バージョンは影絵とかも不得意かもと思ったところでひとつ気になったことがあったので調べてみた。
・Convolutional Neural Networkとは何なのか
http://qiita.com/icoxfog417/items/5fd55fad152231d706c2
気になったのは
「CNNの進化
年が経るにつれ精度が上がってきているCNNですが、近年の構成では以下のような特徴がみられます。
フィルタを小さくし、階層を深くする
PoolingやFCのレイヤをなくす
以下の図では、年々精度が上がるにつれレイヤが深くなっているのがわかります。」
の部分。
つまり、フィルターというか参照範囲そのものを増やすよりもレイヤー(考え得るパターンの分岐?)を深く(=パターンを増やす)するほうが得策っぽい件なのだが、
そうであるならば、参照範囲は現行程度に留めて、フィルターの形を複数用意してそれぞれの絵柄に応じて一番しっくりくるフィルターの情報を基に畳みこみした方が
いいんではなかろうかとふと思ったのですが、ダメですかね?
フィルターをあらかじめ、正方形、長方形、△(向き四方向各々)菱形、8角形、とか用意しておいて、全部実行して一番いいのを選択。
TTLモードで回転による8パターンをやる時間があるならば、この方がいい結果が出るような気もするんですが。
・Convolutional Neural Networkとは何なのか
http://qiita.com/icoxfog417/items/5fd55fad152231d706c2
気になったのは
「CNNの進化
年が経るにつれ精度が上がってきているCNNですが、近年の構成では以下のような特徴がみられます。
フィルタを小さくし、階層を深くする
PoolingやFCのレイヤをなくす
以下の図では、年々精度が上がるにつれレイヤが深くなっているのがわかります。」
の部分。
つまり、フィルターというか参照範囲そのものを増やすよりもレイヤー(考え得るパターンの分岐?)を深く(=パターンを増やす)するほうが得策っぽい件なのだが、
そうであるならば、参照範囲は現行程度に留めて、フィルターの形を複数用意してそれぞれの絵柄に応じて一番しっくりくるフィルターの情報を基に畳みこみした方が
いいんではなかろうかとふと思ったのですが、ダメですかね?
フィルターをあらかじめ、正方形、長方形、△(向き四方向各々)菱形、8角形、とか用意しておいて、全部実行して一番いいのを選択。
TTLモードで回転による8パターンをやる時間があるならば、この方がいい結果が出るような気もするんですが。
75名無しさん@お腹いっぱい。 (アウアウ Sae5-YSaM)
2016/06/02(木) 10:30:41.45ID:8dS/92/Ma すでにやっている人はいたようです。
・Deep Learning Advent Calendar 2015
http://vaaaaaanquish.hatenablog.com/entry/2015/12/25/005523
「sliding windowのスケールの違いによって入力も違うため, 誤認識が発生するという問題もありました.
そこで, Exhaustive Searchのスケールによる誤認識を減らすための画像処理手法や計算量を減らす手法*4, 物体検出に対して効率的な手法*5が出てきたり,
CNN以外でもsliding windowの欠点を補うようなRandom Forest的手法*6が出てきたりしました.」
で、さらにDeep Q-Network(DQN)などというものも出ているようで(名前がなw)
深い・・・
・Deep Learning Advent Calendar 2015
http://vaaaaaanquish.hatenablog.com/entry/2015/12/25/005523
「sliding windowのスケールの違いによって入力も違うため, 誤認識が発生するという問題もありました.
そこで, Exhaustive Searchのスケールによる誤認識を減らすための画像処理手法や計算量を減らす手法*4, 物体検出に対して効率的な手法*5が出てきたり,
CNN以外でもsliding windowの欠点を補うようなRandom Forest的手法*6が出てきたりしました.」
で、さらにDeep Q-Network(DQN)などというものも出ているようで(名前がなw)
深い・・・
76名無しさん@お腹いっぱい。 (ワッチョイ 95d2-wHOq)
2016/06/02(木) 10:37:26.83ID:oNKZhMTS0 もう悪くなりそうなパターンを調べてそういうパターンを自動生成して学習データに加えることで無理やり対応した
例: http://ccsaku.moe.hm/gyazo/data/0b76b99850d7cc5eac0e4857da451890.png
こういうパターンを良くするのと引き換えにイラストの平均的なスコアは少し下がると思うけど
最悪な場合のスコアはかなり上がっているはずなのでいいやろという感じ
イラスト90枚のセットで,縮小に平均画素法を使ったときの平均PSNRが
既存: 36.74, 新: 37.07
縮小にLanczosを使った時が
既存: 36.76, 新: 37.25
で平均も既存よりは良くなっている
処理速度も2.4倍くらい速い
対応方法はこれでいいと思うので,
あとちょっと調節するのとノイズ除去付きも試してみてよければ追加で
ウェブの方は新モデルで置き換えることはほぼ決まりです
例: http://ccsaku.moe.hm/gyazo/data/0b76b99850d7cc5eac0e4857da451890.png
こういうパターンを良くするのと引き換えにイラストの平均的なスコアは少し下がると思うけど
最悪な場合のスコアはかなり上がっているはずなのでいいやろという感じ
イラスト90枚のセットで,縮小に平均画素法を使ったときの平均PSNRが
既存: 36.74, 新: 37.07
縮小にLanczosを使った時が
既存: 36.76, 新: 37.25
で平均も既存よりは良くなっている
処理速度も2.4倍くらい速い
対応方法はこれでいいと思うので,
あとちょっと調節するのとノイズ除去付きも試してみてよければ追加で
ウェブの方は新モデルで置き換えることはほぼ決まりです
77名無しさん@お腹いっぱい。 (ワッチョイ 95d2-wHOq)
2016/06/02(木) 10:53:32.12ID:oNKZhMTS0 >>74
レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数のことで
>フィルタを小さくし、階層を深くする
これはVGG Netなどの3x3畳み込みを何度も繰り返すネットワークで
waifu2xは元からこれをベースにしています.
また1x1畳み込み以外だとレイヤを増やすと参照範囲も広がります.
フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず
レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数のことで
>フィルタを小さくし、階層を深くする
これはVGG Netなどの3x3畳み込みを何度も繰り返すネットワークで
waifu2xは元からこれをベースにしています.
また1x1畳み込み以外だとレイヤを増やすと参照範囲も広がります.
フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず
78名無しさん@お腹いっぱい。 (アウアウ Sae5-YSaM)
2016/06/02(木) 10:56:14.63ID:8dS/92/Ma >>76
お疲れ様です。
悪いパターンを自動生成して学習ですか。
それはよさそうですね。
確かにこういうコントラスト比の高く境界面の差が大きい画像を集中的に取り込んでおくのはいいと思います。
(そういう意味では影絵もいいのか?)
期待しております。
お疲れ様です。
悪いパターンを自動生成して学習ですか。
それはよさそうですね。
確かにこういうコントラスト比の高く境界面の差が大きい画像を集中的に取り込んでおくのはいいと思います。
(そういう意味では影絵もいいのか?)
期待しております。
79名無しさん@お腹いっぱい。 (アウアウ Sae5-YSaM)
2016/06/02(木) 11:00:59.96ID:8dS/92/Ma >>77
入れ違った・・・
解説ありがとうございます。
>レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数
ということは、演算回数を利用者が任意に変更できるようになると、
・回数を減らして時間短縮(精度は落ちる)
・回数を増やして精度向上(時間はかかるが、1日でも2日でもバッチコーイならば・・・)
とかできるといいかもしれないなと思いました。
>フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず
それは素晴らしい。
結果を楽しみにしておきます。
入れ違った・・・
解説ありがとうございます。
>レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数
ということは、演算回数を利用者が任意に変更できるようになると、
・回数を減らして時間短縮(精度は落ちる)
・回数を増やして精度向上(時間はかかるが、1日でも2日でもバッチコーイならば・・・)
とかできるといいかもしれないなと思いました。
>フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず
それは素晴らしい。
結果を楽しみにしておきます。
80名無しさん@お腹いっぱい。 (ワッチョイW fc6c-1HXA)
2016/06/02(木) 20:21:59.49ID:pnTBbeI4081名無しさん@お腹いっぱい。 (ワッチョイ 95d2-wHOq)
2016/06/02(木) 23:11:39.30ID:oNKZhMTS0 今の感じだとアニメは拡大後の理想される線の質がイラストと違うので
イラストで学習しているとダメだと思います
写真モデルを使えば無難な結果になると思うけど
イラストで学習しているとダメだと思います
写真モデルを使えば無難な結果になると思うけど
82名無しさん@お腹いっぱい。 (スプー Sdb8-1HXA)
2016/06/03(金) 07:56:07.56ID:wf71obz2d やっぱり輪郭線は直らないのか…
そこ期待してたのにだけにちょっと残念だ
そこ期待してたのにだけにちょっと残念だ
83名無しさん@お腹いっぱい。 (アウアウ Sae5-qzWR)
2016/06/03(金) 08:07:32.57ID:W5n/SZaca 写真モデルで試してと書かれていると思いますが…
写真モデル+TTL+新バージョンの組合せで、どれだけ改善されるか次第かと。
写真モデル+TTL+新バージョンの組合せで、どれだけ改善されるか次第かと。
84名無しさん@お腹いっぱい。 (ワッチョイW fc6c-1HXA)
2016/06/04(土) 10:43:26.24ID:LR9p0GeB0 本家、もしかしてもう新バージョンに変わった?
85名無しさん@お腹いっぱい。 (ワッチョイ 95d2-wHOq)
2016/06/05(日) 00:04:39.84ID:Tj8OObVD0 いいえ
86名無しさん@お腹いっぱい。 (テトリス fc41-ChPp)
2016/06/06(月) 21:11:13.67ID:mne5Rlul00606 モノクロ写真をアップすると……? 「人工知能で白黒写真をカラーに」を試せるWebサービス
ディープラーニングを応用し、白黒写真を自然な色味に彩色する手法をブラウザ上で実行できるWebサービスが公開された。
http://www.itmedia.co.jp/news/articles/1606/06/news131.html
ディープラーニングを応用し、白黒写真を自然な色味に彩色する手法をブラウザ上で実行できるWebサービスが公開された。
http://www.itmedia.co.jp/news/articles/1606/06/news131.html
87名無しさん@お腹いっぱい。 (ワッチョイ 59d1-ChPp)
2016/06/07(火) 01:06:02.01ID:TrYKmBlx0 >>86
へー、これもローカルで動くやつ誰か作らないかな(他力本願
へー、これもローカルで動くやつ誰か作らないかな(他力本願
88名無しさん@お腹いっぱい。 (アウアウ Sae5-8R5K)
2016/06/07(火) 09:35:28.02ID:AUEYrNINa >>86
学習データが偏っているんだろうけど、黄色あたりが不自然なんだよな、これ。
もっと学習データ増やさないと。
ディープラーニング関係の資料を見ていて思うのは、学習データがキモであるにも関わらず、学習するのに時間がかかるせいか妙に学習データの数が少ないなと思うケースがしばしばあるように思う。
ある程度の正確性を求めたければ少なくとも10000以上は学習しないと話にならないのに。
学習データが偏っているんだろうけど、黄色あたりが不自然なんだよな、これ。
もっと学習データ増やさないと。
ディープラーニング関係の資料を見ていて思うのは、学習データがキモであるにも関わらず、学習するのに時間がかかるせいか妙に学習データの数が少ないなと思うケースがしばしばあるように思う。
ある程度の正確性を求めたければ少なくとも10000以上は学習しないと話にならないのに。
89名無しさん@お腹いっぱい。 (ワッチョイ fc41-ChPp)
2016/06/07(火) 10:08:31.94ID:nWqCN514090名無しさん@お腹いっぱい。 (ササクッテロ Sp89-H1tZ)
2016/06/07(火) 15:34:59.10ID:pCuPD5oYp ぼっさん
91名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a)
2016/06/11(土) 15:38:17.09ID:rLStxyFWa いよいよ作者氏が本気出す時が来たようだ。
https://twitter.com/ultraistter/status/741488649884164096?lang=ja
ところで、GTX 1080 1枚 VS RX480 2枚で話題になった例の件、waifu2xの場合はやはりGTX 1080 1枚のほうがいいんだよね?
https://twitter.com/ultraistter/status/741488649884164096?lang=ja
ところで、GTX 1080 1枚 VS RX480 2枚で話題になった例の件、waifu2xの場合はやはりGTX 1080 1枚のほうがいいんだよね?
92名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/11(土) 19:45:42.62ID:3Rvur7wT0 新モデル+GTX 1080だと640x480->1024x768のノイズ除去+2xが560msくらいでできています
あとGPUの違いなのかcuDNN v5+CUDA 8.0か分からないけど
以前試したら異常に遅かったWinogradという3x3畳み込みを速くするアルゴリズムが
速くなってて,現verも950msくらいで処理できています.
(以前は,新モデルのほうが3倍くらい速かったので差がかなり縮んだ)
AWS EC2のGPU+現verだと3700msくらいで,このGPUはGTX 760と同じくらいの性能です.
あとGPUの違いなのかcuDNN v5+CUDA 8.0か分からないけど
以前試したら異常に遅かったWinogradという3x3畳み込みを速くするアルゴリズムが
速くなってて,現verも950msくらいで処理できています.
(以前は,新モデルのほうが3倍くらい速かったので差がかなり縮んだ)
AWS EC2のGPU+現verだと3700msくらいで,このGPUはGTX 760と同じくらいの性能です.
93名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/11(土) 19:59:19.46ID:3Rvur7wT0 >640x480->1024x768
640x480->1280x960に訂正
640x480->1280x960に訂正
94名無しさん@お腹いっぱい。 (ワッチョイ bb9d-7xHu)
2016/06/11(土) 20:27:45.11ID:qniHE9xy0 ベンチマークというか単純に自PCのショボさを比較したいのですが
皆で共通に使える適当な画像(画像群)ってどこかにあったりしますか?
R18にならない程度の2次で(ココ重要
皆で共通に使える適当な画像(画像群)ってどこかにあったりしますか?
R18にならない程度の2次で(ココ重要
95名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww)
2016/06/11(土) 20:45:50.92ID:rLStxyFWa >>92
お疲れ様です。
GTX 1080導入、おめでとうございます。
アルゴリズムによって速度が変わるとのことですが、画質が変わったりはしないのでしょうか?
遅いけど高画質なアルゴリズムとかあるのかなと。
あと、二段階超解像ってできないかなと思ったりしてるのですが。
つまり、
1回目:今まで通りの超解像による拡大
2回目:1回目でできた拡大画像と元の画像を比較して、再度超解像効果を手直し
みたいな。
元画像と拡大画像を見比べて、「もっとここ手直しできる」というところを再調整とでもいうのか。
この2回目だけの処理だけ活用すると、元画像を拡大せずに解像感や輪郭まわりの再現性向上にも使えますだとなおうれしいんですが。
お疲れ様です。
GTX 1080導入、おめでとうございます。
アルゴリズムによって速度が変わるとのことですが、画質が変わったりはしないのでしょうか?
遅いけど高画質なアルゴリズムとかあるのかなと。
あと、二段階超解像ってできないかなと思ったりしてるのですが。
つまり、
1回目:今まで通りの超解像による拡大
2回目:1回目でできた拡大画像と元の画像を比較して、再度超解像効果を手直し
みたいな。
元画像と拡大画像を見比べて、「もっとここ手直しできる」というところを再調整とでもいうのか。
この2回目だけの処理だけ活用すると、元画像を拡大せずに解像感や輪郭まわりの再現性向上にも使えますだとなおうれしいんですが。
96名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/11(土) 21:06:09.55ID:3Rvur7wT097名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww)
2016/06/11(土) 21:22:18.30ID:rLStxyFWa9894 (ワッチョイ 839d-7xHu)
2016/06/11(土) 22:26:00.73ID:+7f02WYI099名無しさん@お腹いっぱい。 (スプー Sd4f-jNGR)
2016/06/11(土) 23:05:53.70ID:nlOtB76kd 560msって早すぎやろ!
waifu2xで動画エンコしてるけどかなり短縮されそうでワクワクだわ
俺もPascal買おうかなぁ
waifu2xで動画エンコしてるけどかなり短縮されそうでワクワクだわ
俺もPascal買おうかなぁ
100名無しさん@お腹いっぱい。 (ワッチョイW 076c-jNGR)
2016/06/12(日) 11:32:13.03ID:068lTRES0 新モデルが待ち遠しいな…
完成までまだ時間掛かりそうですか?
完成までまだ時間掛かりそうですか?
101名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/12(日) 12:56:41.65ID:KlXasCVu0 ノイズ除去付き拡大もうまくいっているので
たぶんもう学習処理回すだけです
イラストは明日には全部学習終わります
あと写真、Yモデルの再学習に4日つづくくらいかかる
ちなみに現在のモデルも使えるようにしているので追加という形になります
ウェブ版はGPUメモリの関係で全部のモデル読めないので置き換えますが
ベンチマーク的には結構スコアが上がっているけど
パッと見でわかるほどの違いはないと思います
たぶんもう学習処理回すだけです
イラストは明日には全部学習終わります
あと写真、Yモデルの再学習に4日つづくくらいかかる
ちなみに現在のモデルも使えるようにしているので追加という形になります
ウェブ版はGPUメモリの関係で全部のモデル読めないので置き換えますが
ベンチマーク的には結構スコアが上がっているけど
パッと見でわかるほどの違いはないと思います
102名無しさん@お腹いっぱい。 (ワッチョイW 076c-jNGR)
2016/06/12(日) 13:07:19.18ID:068lTRES0103名無しさん@お腹いっぱい。 (ワッチョイ 9f39-pgBS)
2016/06/12(日) 13:19:55.61ID:b/8HpM7e0 ノイズ除去がYからRGBになったときはサンプルの画像挙げて変化を説明してたはず
画像出さずにPSNRの数値だけ出すのは人間の目から見てそう変化がないからだろう多分
画像出さずにPSNRの数値だけ出すのは人間の目から見てそう変化がないからだろう多分
104名無しさん@お腹いっぱい。 (ワッチョイ 9f39-pgBS)
2016/06/12(日) 13:25:17.47ID:b/8HpM7e0 サンプル出してたの別の人だったかも、うろ覚え(汗
105名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/12(日) 14:42:39.03ID:KlXasCVu0 >>103
2枚重ねてみると、ところどころ違いがあるは分かりますけど
黙って置き換えても誰も気づかないのではないかという不安はあります
なんとなく違和感が減った気はするけどプラシーボかもしれない
PSNR的には結構良くなっているので、よくなっているのは確かだと思いますが説得力はないです
明日か明後日くらいにウェブの方イラストだけ置き換えようと思うので
気になる画像を持っている方はそのときに試してみてください
2枚重ねてみると、ところどころ違いがあるは分かりますけど
黙って置き換えても誰も気づかないのではないかという不安はあります
なんとなく違和感が減った気はするけどプラシーボかもしれない
PSNR的には結構良くなっているので、よくなっているのは確かだと思いますが説得力はないです
明日か明後日くらいにウェブの方イラストだけ置き換えようと思うので
気になる画像を持っている方はそのときに試してみてください
106名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/12(日) 15:47:23.38ID:KlXasCVu0 やっぱ置き換えではなくてお試し用サーバー1台用意します。
もともと今のウェブ版はそういうものだけど、
もう普通のウェブサービスになってしまっていて置き換えるのに勇気がいるので。
それならTTAも使えるようにできます。(遅いのは仕方がないねということで)
もともと今のウェブ版はそういうものだけど、
もう普通のウェブサービスになってしまっていて置き換えるのに勇気がいるので。
それならTTAも使えるようにできます。(遅いのは仕方がないねということで)
107名無しさん@お腹いっぱい。 (ワッチョイW 076c-jNGR)
2016/06/12(日) 16:01:03.81ID:068lTRES0108名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww)
2016/06/12(日) 17:23:59.21ID:sb1XFNmOa109名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/13(月) 00:47:21.31ID:X831nMGS0 >>107
元画像があれば見ておきますが。
写真はまだやっていないので分からないですが
イラストはそれほど変わっていないのであまり期待できないと思います。
ちなみにこれはイラストでノイズ除去2してますよね...?
元画像があれば見ておきますが。
写真はまだやっていないので分からないですが
イラストはそれほど変わっていないのであまり期待できないと思います。
ちなみにこれはイラストでノイズ除去2してますよね...?
110名無しさん@お腹いっぱい。 (スプー Sd4f-jNGR)
2016/06/13(月) 01:59:20.36ID:grDqBPChd111名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/13(月) 18:17:31.84ID:X831nMGS0 http://waifu2x-dev.udp.jp/
で新モデル試せるようにしています
拡大とノイズ除去+拡大が変わっています.ノイズ除去のみは同じです.
自分で見た感じだと,拡大はそれほど違いはないし問題もないように思うけど
ノイズ除去が入ると,強弱が以前よりはっきり出ていて
いい時はいいけど,ノイズが強い時に線の太さが不安定になっているように思います.
なにか思うことがあれば書いていただくと対応できるかもしれません.
ベンチマーク結果は
https://github.com/nagadomi/waifu2x/blob/upconv/appendix/vgg_7_vs_upconv_7_art.md
にあります.ベンチマーク的には全部良くなっています.
で新モデル試せるようにしています
拡大とノイズ除去+拡大が変わっています.ノイズ除去のみは同じです.
自分で見た感じだと,拡大はそれほど違いはないし問題もないように思うけど
ノイズ除去が入ると,強弱が以前よりはっきり出ていて
いい時はいいけど,ノイズが強い時に線の太さが不安定になっているように思います.
なにか思うことがあれば書いていただくと対応できるかもしれません.
ベンチマーク結果は
https://github.com/nagadomi/waifu2x/blob/upconv/appendix/vgg_7_vs_upconv_7_art.md
にあります.ベンチマーク的には全部良くなっています.
112名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/13(月) 18:21:32.55ID:X831nMGS0 やっぱりYUV 420のJPEGでやったほうがいいのかなと思い始めました.
現実のJPEGはほとんどがYUV 420で学習時にYUV 444しか見ていないので.
今は色が変わるのでやっていないのですが,選択できるようにするかもしれません.
現実のJPEGはほとんどがYUV 420で学習時にYUV 444しか見ていないので.
今は色が変わるのでやっていないのですが,選択できるようにするかもしれません.
113名無しさん@お腹いっぱい。 (スプー Sdcf-jNGR)
2016/06/14(火) 02:01:47.66ID:LX3lI3W3d 新バージョン、凄く速度が上がってますね
でも、輪郭線は正直微妙かなぁ
良くなってるところもあるけど、悪くなってるところも結構あったりする
こればっかりはしょうがないですね
でも、輪郭線は正直微妙かなぁ
良くなってるところもあるけど、悪くなってるところも結構あったりする
こればっかりはしょうがないですね
114名無しさん@お腹いっぱい。 (スプー Sdcf-jNGR)
2016/06/14(火) 02:19:04.81ID:LX3lI3W3d あ、間違えて旧版の写真モデルと比較してた
イラスト同士で見比べてみたけど、違いが全然わからんw
ただ、処理速度は格段に早くなってる
イラスト同士で見比べてみたけど、違いが全然わからんw
ただ、処理速度は格段に早くなってる
115名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/14(火) 10:39:33.36ID:FTpBbaqf0 YUV420/YUV444半分づつで学習したら
入力YUV444時のスコアほとんど下げずに
入力YUV420時のスコアがっつり上げれる感じだったので
もうノイズ除去もこれに置き換えようと思います.
もともとJPEGの色のノイズ等も消しているし,色以前に細部が消えたりしているので
色がちょっと変わるリスクなんていまさらだよね...?
平均的には良くなるし,いくらか試すと線の境界などで色が濁ってるが結構直ってる.
入力YUV444時のスコアほとんど下げずに
入力YUV420時のスコアがっつり上げれる感じだったので
もうノイズ除去もこれに置き換えようと思います.
もともとJPEGの色のノイズ等も消しているし,色以前に細部が消えたりしているので
色がちょっと変わるリスクなんていまさらだよね...?
平均的には良くなるし,いくらか試すと線の境界などで色が濁ってるが結構直ってる.
116名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a)
2016/06/14(火) 11:21:07.53ID:cuCffqFAa >>111
お疲れ様です。
早速試させていただきました。
イラストモデルのみではありますが試したところ、以前に比べて少し溶けにくくはなったような気もします(特に4倍以上にした場合)
なお、>>108にて書いた対処療法をすこし時間があったのでやってみました。
(結果は下記にてダウンロード可。明日の23時59分までの限定です。解説はテキストファイルに書いてあります。)
http://www1.axfc.net/u/3679593
写真モデルでやるとどうなるか、あるいはもうすこし小細工するかも含めて検討中です。
>>112
YUV 420モデル(イラスト・写真それぞれ)があれば、一種の色超解像的効果が期待できるので、圧縮画像には特に効用が見込めると思います。
期待しております。
お疲れ様です。
早速試させていただきました。
イラストモデルのみではありますが試したところ、以前に比べて少し溶けにくくはなったような気もします(特に4倍以上にした場合)
なお、>>108にて書いた対処療法をすこし時間があったのでやってみました。
(結果は下記にてダウンロード可。明日の23時59分までの限定です。解説はテキストファイルに書いてあります。)
http://www1.axfc.net/u/3679593
写真モデルでやるとどうなるか、あるいはもうすこし小細工するかも含めて検討中です。
>>112
YUV 420モデル(イラスト・写真それぞれ)があれば、一種の色超解像的効果が期待できるので、圧縮画像には特に効用が見込めると思います。
期待しております。
117名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a)
2016/06/14(火) 12:09:55.28ID:cuCffqFAa118名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a)
2016/06/14(火) 12:26:29.32ID:cuCffqFAa あらかじめNNEDI3で拡大する前に、GIMPでアンシャープマスクを+0.10程度かけておいてからNNEDI3で拡大→縮小→waifu2x→再度GIMPにてコントラストとアンシャープで微調整のほうが細部の情報が残りやすいみたい。
アップする時間がなくなったので今日はここまで。
アップする時間がなくなったので今日はここまで。
119名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a)
2016/06/14(火) 18:07:05.51ID:cuCffqFAa 移動中に報告
NNEDI3を使って、圧縮画像によく見受けられる輪郭周りのノイズを除去して溶ける症状を抑える件、もっと手間を少なくかつNNEDI3を使うことによる副作用である
ボケる点を克服できそうな方法を見つけたかも。
古いソフトウェアなのだが「ノイズクリーナー2」というソフトをカスタマイズ設定にして極々微量のノイズ除去を行ってからwaifu2xで拡大するといくぶん溶けにくい。
ただし、設定の落としどころが難しい。
NNEDI3を使って、圧縮画像によく見受けられる輪郭周りのノイズを除去して溶ける症状を抑える件、もっと手間を少なくかつNNEDI3を使うことによる副作用である
ボケる点を克服できそうな方法を見つけたかも。
古いソフトウェアなのだが「ノイズクリーナー2」というソフトをカスタマイズ設定にして極々微量のノイズ除去を行ってからwaifu2xで拡大するといくぶん溶けにくい。
ただし、設定の落としどころが難しい。
120名無しさん@お腹いっぱい。 (ワッチョイ 9b91-yUSa)
2016/06/14(火) 22:53:23.00ID:12Iwj2O80 imagemagickのコマンド、7になってから変わったの今初めて気づいた...
121名無しさん@お腹いっぱい。 (ワッチョイ 837c-wy7a)
2016/06/15(水) 01:45:09.31ID:aj7H3zSR0122名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a)
2016/06/15(水) 12:07:14.79ID:6gcbBuvXa NNIDI3による前処理などいろいろ試した結果、
1.waifu2xは拡大する前に輪郭に作用しやすいノイズフィルターをあらかじめ適用しておくと、拡大した画像が溶けにくい。
2.NNEDI3は輪郭線に強く作用するフィルターのため、縮小後の画像にもその作用が強く残り、結果として輪郭ノイズ低減フィルターのような作用をもたらしている。
3.ただし、NNEDI3は面などの細かい情報もそぎ落としてしまいやすく、全体的にボケやすいため、そのままでは使いにくい。
4.面部分には作用せず、輪郭にのみ作用するフィルターがあれば理想的。waifu2xのノイズ除去(中)も試してみたが、waifu2xのノイズ除去は中でも強すぎるためこれも使いにくい。
(元画像とwaifu2xでノイズ除去した画像を合成してノイズ除去の強度を調整することはできるかもしれないが、合成度合をコントロールしながら合成できるような都合のいいソフトがあるのかどうか・・・)
もうあとは、この輪郭のノイズを制圧できさえすれば完成すると思われるだけに、何かいい方法があればと思うのだけど。
1.waifu2xは拡大する前に輪郭に作用しやすいノイズフィルターをあらかじめ適用しておくと、拡大した画像が溶けにくい。
2.NNEDI3は輪郭線に強く作用するフィルターのため、縮小後の画像にもその作用が強く残り、結果として輪郭ノイズ低減フィルターのような作用をもたらしている。
3.ただし、NNEDI3は面などの細かい情報もそぎ落としてしまいやすく、全体的にボケやすいため、そのままでは使いにくい。
4.面部分には作用せず、輪郭にのみ作用するフィルターがあれば理想的。waifu2xのノイズ除去(中)も試してみたが、waifu2xのノイズ除去は中でも強すぎるためこれも使いにくい。
(元画像とwaifu2xでノイズ除去した画像を合成してノイズ除去の強度を調整することはできるかもしれないが、合成度合をコントロールしながら合成できるような都合のいいソフトがあるのかどうか・・・)
もうあとは、この輪郭のノイズを制圧できさえすれば完成すると思われるだけに、何かいい方法があればと思うのだけど。
123名無しさん@お腹いっぱい。 (ワッチョイ 6f6d-cn0R)
2016/06/15(水) 12:46:21.17ID:p6o2+4CV0 単純にTotalVariationで分離してから掛けろよ
124名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a)
2016/06/15(水) 14:57:07.20ID:6gcbBuvXa >>123
これのこと?
http://convexbrain.osdn.jp/cgi-bin/wifky.pl?p=TV-Denoising
ものすごく画像が甘くなってるんだが・・・
waifu2xの比じゃないよ、これ。
これのこと?
http://convexbrain.osdn.jp/cgi-bin/wifky.pl?p=TV-Denoising
ものすごく画像が甘くなってるんだが・・・
waifu2xの比じゃないよ、これ。
125名無しさん@お腹いっぱい。 (スプー Sd4f-jNGR)
2016/06/15(水) 15:01:46.27ID:6WWfghFId 俺はエッジレベル調整使ってる
126名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a)
2016/06/15(水) 15:25:03.46ID:6gcbBuvXa >>125
エッジレベル調整は輪郭のコントラストを無理やり強調しているだけだから、ノイズそのものは残っている状態なわけで、根本的な解決にならないかと。
こんなんだし。
http://aviutl.info/sharp/
エッジレベル調整は輪郭のコントラストを無理やり強調しているだけだから、ノイズそのものは残っている状態なわけで、根本的な解決にならないかと。
こんなんだし。
http://aviutl.info/sharp/
127名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/15(水) 16:31:22.20ID:JEuKL93L0 アニメの輪郭線に入っているノイズがイラストでは見ないパターンでうまくいかないので
そのあたりをイラストっぽい方に寄せることができればマシになるということだと思います.
古いアニメにある輪郭線まわりのノイズがソフトウェアで再現できるなら対応もできるのですが
どこで入ってくる何のノイズなんでしょうか.
そのあたりをイラストっぽい方に寄せることができればマシになるということだと思います.
古いアニメにある輪郭線まわりのノイズがソフトウェアで再現できるなら対応もできるのですが
どこで入ってくる何のノイズなんでしょうか.
128名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww)
2016/06/15(水) 17:00:29.10ID:6gcbBuvXa >>127
たぶん圧縮画像特有のノイズだと思います。
圧縮画像は目につきにくい暗い部分の階調表現を大胆に間引いてしまいがちですので(攻殻機動隊のエンコードを担当した人が、かつてDVDの時代にとても苦労されていることを語られていましたし)、
暗部の多い圧縮画像を集中的にとりこんでモデルデータを作られるといいのかもしれません。
あるいは暗部の多い圧縮画像の割合の多いモデルデータを暗部ノイズ対策専用の前処理専用モデルとして用意して、事前に弱く(ここ重要!!)適用できるようにされるといいかもしれません。
ついでに現行のノイズ除去の強度ももっと弱いタイプを二段階ほど(最弱は中の1/3以下の強度!)用意して頂きたいとも思います。
(モデルデータを変えずに参照範囲を狭めるとかでの対応でも結構ですので)
たぶん圧縮画像特有のノイズだと思います。
圧縮画像は目につきにくい暗い部分の階調表現を大胆に間引いてしまいがちですので(攻殻機動隊のエンコードを担当した人が、かつてDVDの時代にとても苦労されていることを語られていましたし)、
暗部の多い圧縮画像を集中的にとりこんでモデルデータを作られるといいのかもしれません。
あるいは暗部の多い圧縮画像の割合の多いモデルデータを暗部ノイズ対策専用の前処理専用モデルとして用意して、事前に弱く(ここ重要!!)適用できるようにされるといいかもしれません。
ついでに現行のノイズ除去の強度ももっと弱いタイプを二段階ほど(最弱は中の1/3以下の強度!)用意して頂きたいとも思います。
(モデルデータを変えずに参照範囲を狭めるとかでの対応でも結構ですので)
129名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/15(水) 17:20:59.49ID:JEuKL93L0 >>128
圧縮画像というのは具合的にどんな圧縮なんでしょうか.
TV用の当時のエンコーダがあってその癖なんでしょうか.
現在のJPEGノイズ除去の弱いバージョンはすぐ作れますが
動画を対象とするなら,動画用のエンコーダを使って
正しいデータセットを作るほうがいいと考えています.
ソフトウェアで再現が難しいなら,HDリマスタとその前のバージョンDVD?を買ってきて
フレームの位置合わせができるなら,そこから変換の対応関係を作るでもいいと思っています.
エンコの設定?とかできるならそれが一番いいですが.
圧縮画像というのは具合的にどんな圧縮なんでしょうか.
TV用の当時のエンコーダがあってその癖なんでしょうか.
現在のJPEGノイズ除去の弱いバージョンはすぐ作れますが
動画を対象とするなら,動画用のエンコーダを使って
正しいデータセットを作るほうがいいと考えています.
ソフトウェアで再現が難しいなら,HDリマスタとその前のバージョンDVD?を買ってきて
フレームの位置合わせができるなら,そこから変換の対応関係を作るでもいいと思っています.
エンコの設定?とかできるならそれが一番いいですが.
130名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk)
2016/06/15(水) 17:48:43.36ID:JEuKL93L0 今考えている動画の対応は,
- イラストに窓をつけて適当な速度で平行移動・回転したりをフレームとして切り出す
- 動画にエンコ(同時に1/2に縮小)
- エンコ後からまたフレームに分割して元画像への変換を学習する
ということです.
変換先がイラストになるのでアニメとはちょっと違う質感になるかもしれませんが
アニメの"元画像"って手に入らないと思うのと,
これだと作るのは簡単なので妥協点としていいのではと思っています.
他にはMMDから動画を作るとかですけど,これもシェーダーのクセを再現してしまうと思うので
たぶんイラストのほうがバリエーションが多くてよいです.
今すぐにやるという話ではなく,今やっている対応が終ったら
いまのところCNN超解像として改良できる部分はすべて終わるので
動画について色々言われるならそこでもやろうかなというレベルの話ですが.
- イラストに窓をつけて適当な速度で平行移動・回転したりをフレームとして切り出す
- 動画にエンコ(同時に1/2に縮小)
- エンコ後からまたフレームに分割して元画像への変換を学習する
ということです.
変換先がイラストになるのでアニメとはちょっと違う質感になるかもしれませんが
アニメの"元画像"って手に入らないと思うのと,
これだと作るのは簡単なので妥協点としていいのではと思っています.
他にはMMDから動画を作るとかですけど,これもシェーダーのクセを再現してしまうと思うので
たぶんイラストのほうがバリエーションが多くてよいです.
今すぐにやるという話ではなく,今やっている対応が終ったら
いまのところCNN超解像として改良できる部分はすべて終わるので
動画について色々言われるならそこでもやろうかなというレベルの話ですが.
131名無しさん@お腹いっぱい。 (スプー Sd4f-jNGR)
2016/06/15(水) 18:09:19.82ID:6WWfghFId >>130
何のこっちゃよくわかりませんが、凄く期待してます
何のこっちゃよくわかりませんが、凄く期待してます
132名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww)
2016/06/15(水) 18:10:55.45ID:6gcbBuvXa 圧縮画像のノイズの件、夜になりますがコメントします。
(今時間がないので)
(今時間がないので)
133名無しさん@お腹いっぱい。 (ワッチョイ ebd2-zRkg)
2016/06/15(水) 22:19:16.48ID:iLIvxjAw0 いわゆるHDリマスターは解像度やエンコードだけでなく映像自体も違うことがあるから
比較対象としてはBDとDVDが同時発売のものじゃないかな
海外版との比較だと同解像度のビットレート違いなんてのもあるかも
アニメと一口に言っても輪郭の特徴がそんなに多くの作品に共通してるかは疑問だけど
比較対象としてはBDとDVDが同時発売のものじゃないかな
海外版との比較だと同解像度のビットレート違いなんてのもあるかも
アニメと一口に言っても輪郭の特徴がそんなに多くの作品に共通してるかは疑問だけど
134名無しさん@お腹いっぱい。 (ワッチョイ c37c-oJ6o)
2016/06/16(木) 02:12:13.44ID:8MOB+ifY0 やっと帰宅できた・・
すみません、気力が持たないので昼以降に改めてコメントします。
限界
すみません、気力が持たないので昼以降に改めてコメントします。
限界
135名無しさん@お腹いっぱい。 (ワッチョイ 76e2-ege2)
2016/06/16(木) 04:06:54.85ID:10TNdGfw0 体壊さない程度にがんばってくれ
136名無しさん@お腹いっぱい。 (アウアウT Sa3e-4fuR)
2016/06/16(木) 17:17:40.41ID:dOR2VLG8a 今日初めて写真の拡大に利用させてもらいましたが凄い技術ですね。
応援しています!頑張ってください!
応援しています!頑張ってください!
137名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19)
2016/06/16(木) 18:24:55.57ID:ipCAAVq1a >>129
昨日疲れすぎてコメントできなかった圧縮ノイズについてですがコメントしておきます。
まず下記サイトを参照ください。
http://www.asahi-net.or.jp/~ax2s-kmtn/ref/jpeg.html
このサイトの一番下部の画像を見るとわかりやすいかと思いますが、建物の輪郭周りに本来であれば存在しない種々のノイズがまとわりついているのがお分かりいただけると思いますが、
こういったノイズが輪郭周りに細かくまとわりついている画像をwaifu2xにて拡大すると、輪郭などが溶けやすくなっています。
NNEID3によってあらかじめこのような輪郭にまとわりつきやすいノイズを滑らかにしておくと、waifu2xにて拡大時に溶けにくくなっているのは先日実証した通りです。
このため、もしこのようなノイズ専用の対策フィルターを作るのであれば、JPEGなどの非可逆圧縮をしていない画像を複数用意し、その画像をJPEGにて高圧縮し、わざと輪郭などにノイズが出ている画像(画像サイズは等倍でよい)を作成し、
圧縮前と圧縮後の画像をディープラーニングによって学習させれば、圧縮ノイズ対策にはなるでしょうけれど、それは結局現行のノイズ除去と考えとしてはそう大差ないかなとも思います。
とするならば、やはり前回にお伝えした通り、今よりもっとノイズ除去強度の弱いフィルターをまずは用意すること、そしてその先の展開としては、その弱いフィルターを輪郭と認識される部分のみに適用できるようなオプションを用意できればなお良いかと思います。
(オプションを有効にすると輪郭のみに適用、無効にすると画像全体に適用、ノイズ除去強度は、「最弱(中の1/3か1/4程度の強度)、弱(中の1/2程度の強度)、中、強、最強」の5段階あたり?)
輪郭の認識手法については、AviUtlなどのフィルターである「エッジレベル調整MT」の輪郭検出手法あたりでよいのかなと思います。
昨日疲れすぎてコメントできなかった圧縮ノイズについてですがコメントしておきます。
まず下記サイトを参照ください。
http://www.asahi-net.or.jp/~ax2s-kmtn/ref/jpeg.html
このサイトの一番下部の画像を見るとわかりやすいかと思いますが、建物の輪郭周りに本来であれば存在しない種々のノイズがまとわりついているのがお分かりいただけると思いますが、
こういったノイズが輪郭周りに細かくまとわりついている画像をwaifu2xにて拡大すると、輪郭などが溶けやすくなっています。
NNEID3によってあらかじめこのような輪郭にまとわりつきやすいノイズを滑らかにしておくと、waifu2xにて拡大時に溶けにくくなっているのは先日実証した通りです。
このため、もしこのようなノイズ専用の対策フィルターを作るのであれば、JPEGなどの非可逆圧縮をしていない画像を複数用意し、その画像をJPEGにて高圧縮し、わざと輪郭などにノイズが出ている画像(画像サイズは等倍でよい)を作成し、
圧縮前と圧縮後の画像をディープラーニングによって学習させれば、圧縮ノイズ対策にはなるでしょうけれど、それは結局現行のノイズ除去と考えとしてはそう大差ないかなとも思います。
とするならば、やはり前回にお伝えした通り、今よりもっとノイズ除去強度の弱いフィルターをまずは用意すること、そしてその先の展開としては、その弱いフィルターを輪郭と認識される部分のみに適用できるようなオプションを用意できればなお良いかと思います。
(オプションを有効にすると輪郭のみに適用、無効にすると画像全体に適用、ノイズ除去強度は、「最弱(中の1/3か1/4程度の強度)、弱(中の1/2程度の強度)、中、強、最強」の5段階あたり?)
輪郭の認識手法については、AviUtlなどのフィルターである「エッジレベル調整MT」の輪郭検出手法あたりでよいのかなと思います。
138名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19)
2016/06/16(木) 18:25:35.35ID:ipCAAVq1a 続き
エッジレベル調整MTの参考
http://aviutl.info/sharp/
http://aviutl.info/wp-content/uploads/20160220-020557-553.jpg
あるいは別の考え方としてですが、NNEDI3の輪郭に作用する部分だけをインスパイアした輪郭ノイズ除去フィルターを作れるならば作ってほしいという考え方もありますが・・・
参考
https://github.com/MaverickTse/AviUtlInstaller/blob/master/deinterlace_plugin/nnedi3/jp/nnedi3.txt
(それが可能であるならば、AviUtlを通さずに済むため、RGB→YUV→RGBの変換ロスを気にしなくて済むのと、16bit画像なども直接扱えるようになるので大変ありがたいのですが)
昨日お話ししていた圧縮画像の暗部の階調情報の大幅な簡略化をわかりやすく示す画像が探した範囲でなかったのですが、これは大面積部については通常のwaifu2xのノイズ除去でも対応できる範疇かと思いますので、ひとまず置いておきましょう。
ちなみに上記の件より、今のところ動画用に別途のノイズ対策(一つの画像に小さな窓を設定してスライドなど含む)は今のところしなくても大丈夫かと思います。
(動画の圧縮率の高い状況で輪郭周りに一番除去しにくいノイズがあるのはH.264で圧縮した画像ではありますが)
エッジレベル調整MTの参考
http://aviutl.info/sharp/
http://aviutl.info/wp-content/uploads/20160220-020557-553.jpg
あるいは別の考え方としてですが、NNEDI3の輪郭に作用する部分だけをインスパイアした輪郭ノイズ除去フィルターを作れるならば作ってほしいという考え方もありますが・・・
参考
https://github.com/MaverickTse/AviUtlInstaller/blob/master/deinterlace_plugin/nnedi3/jp/nnedi3.txt
(それが可能であるならば、AviUtlを通さずに済むため、RGB→YUV→RGBの変換ロスを気にしなくて済むのと、16bit画像なども直接扱えるようになるので大変ありがたいのですが)
昨日お話ししていた圧縮画像の暗部の階調情報の大幅な簡略化をわかりやすく示す画像が探した範囲でなかったのですが、これは大面積部については通常のwaifu2xのノイズ除去でも対応できる範疇かと思いますので、ひとまず置いておきましょう。
ちなみに上記の件より、今のところ動画用に別途のノイズ対策(一つの画像に小さな窓を設定してスライドなど含む)は今のところしなくても大丈夫かと思います。
(動画の圧縮率の高い状況で輪郭周りに一番除去しにくいノイズがあるのはH.264で圧縮した画像ではありますが)
139名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19)
2016/06/16(木) 18:44:15.78ID:DV2OC3cTa 上記のことを書いてから気づいたのですが、ひょっとすると拡大前にGIMPの「選択的ガウスぼかし」を超絶的に最弱で適用してから拡大すればいけるかも・・・
140名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19)
2016/06/16(木) 19:52:56.77ID:DV2OC3cTa 「選択的ガウスぼかし」でいけたかもしんまい・・・
試しにアップしてみた
http://www1.axfc.net/u/3680573
いや、この延長で行くならばバイラテラルフィルターを極微量適用のほうがよりダメージは少ないかも?
試しにアップしてみた
http://www1.axfc.net/u/3680573
いや、この延長で行くならばバイラテラルフィルターを極微量適用のほうがよりダメージは少ないかも?
141名無しさん@お腹いっぱい。 (ワッチョイ a66d-Wpqh)
2016/06/16(木) 20:52:17.87ID:zGfIcyp20 NL-MeansやBilateral等のエッジ保存ノイズフィルタをかけたのが骨格成分
それと原画との差分がテクスチャ成分で多くの種類のノイズ含む微小変化分
高性能に分離するのがTotal Variationフィルタ
骨格だけwaifu2xでテクスチャ成分はLanczos3で後で適量を合成すればいい
暗部はガンマ補正して暗部の輝度差を広げたのを処理して逆ガンマで戻して
通常ガンマの画像と合成
こんなんでどうだ?
それと原画との差分がテクスチャ成分で多くの種類のノイズ含む微小変化分
高性能に分離するのがTotal Variationフィルタ
骨格だけwaifu2xでテクスチャ成分はLanczos3で後で適量を合成すればいい
暗部はガンマ補正して暗部の輝度差を広げたのを処理して逆ガンマで戻して
通常ガンマの画像と合成
こんなんでどうだ?
142名無しさん@お腹いっぱい。 (ワッチョイ f9d2-XvC/)
2016/06/17(金) 10:45:07.16ID:uiYIwWPv0 YUV420 JPEGで学習すると線もきれいになった気がするので
JPEG画像についてはJPEGノイズの種類が適切でなかったのもあるかもしれないです.
印象も色の濁りが減って良くなったように思うんですが
それはつまり色が変わっていることなんですが...
来週くらいに-devのほうはYUV420対応に置き換えます.
現verのノイズ除去も同じ教師データで学習したものに置き換えようと考えています.
(拡大時だけノイズ除去のかかり方が違うと混乱を生むと思うので)
JPEG画像についてはJPEGノイズの種類が適切でなかったのもあるかもしれないです.
印象も色の濁りが減って良くなったように思うんですが
それはつまり色が変わっていることなんですが...
来週くらいに-devのほうはYUV420対応に置き換えます.
現verのノイズ除去も同じ教師データで学習したものに置き換えようと考えています.
(拡大時だけノイズ除去のかかり方が違うと混乱を生むと思うので)
143名無しさん@お腹いっぱい。 (ワッチョイ f9d2-XvC/)
2016/06/17(金) 12:24:23.88ID:uiYIwWPv0 エッジ周りのノイズを取るのは, バイラテラルとは逆の重みだと思うんですけど"周り"だとそうなんでしょうか.
エッジ用の重みのマスクを作って合成するのが簡単じゃないかと思います.
自分としては,データセットを泥臭くいじったりはあっても
データを用意したあとは最適化問題としてやるのがいいと思っているのと
手でごちゃごちゃってもさまざまなパターン(さまざま例外を含む)を考えると
平均的な精度で機械学習に勝つことはできないと思っているので前処理や後処理をやる気はないです.
弱いノイズ除去は用意できます.
エッジ用の重みのマスクを作って合成するのが簡単じゃないかと思います.
自分としては,データセットを泥臭くいじったりはあっても
データを用意したあとは最適化問題としてやるのがいいと思っているのと
手でごちゃごちゃってもさまざまなパターン(さまざま例外を含む)を考えると
平均的な精度で機械学習に勝つことはできないと思っているので前処理や後処理をやる気はないです.
弱いノイズ除去は用意できます.
144名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19)
2016/06/17(金) 12:25:21.08ID:egwY+yyva >>142
お疲れ様です。
420、やはり効果ありましたか。
となると、やはり元が非可逆圧縮している画像→420モデル、元が可逆圧縮か非圧縮画像(444の状態)であれば444モデルと選択できるといいのかもしれないですね。
こちらでも非線形フィルターなど含めいろいろテストしてみたのですが、ある程度のところまではいくものの、やはり根本的にはイラスト用モデルで試していることの限界もあり、これで文句なしというところまではいかなかったので。
420モデルの写真用が使えるようになるとおそらく前処理に関しては非線形フィルターでもなんとかなるかなとは思うのですが。
(もちろんwaifu2xのノイズ除去に最弱があればその方がいいと思いますが)
お疲れ様です。
420、やはり効果ありましたか。
となると、やはり元が非可逆圧縮している画像→420モデル、元が可逆圧縮か非圧縮画像(444の状態)であれば444モデルと選択できるといいのかもしれないですね。
こちらでも非線形フィルターなど含めいろいろテストしてみたのですが、ある程度のところまではいくものの、やはり根本的にはイラスト用モデルで試していることの限界もあり、これで文句なしというところまではいかなかったので。
420モデルの写真用が使えるようになるとおそらく前処理に関しては非線形フィルターでもなんとかなるかなとは思うのですが。
(もちろんwaifu2xのノイズ除去に最弱があればその方がいいと思いますが)
145名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19)
2016/06/17(金) 12:29:24.44ID:egwY+yyva146名無しさん@お腹いっぱい。 (ワッチョイ f9d2-XvC/)
2016/06/17(金) 12:34:06.52ID:uiYIwWPv0 人はエッジ周りが変になっていることに敏感なので
損失関数でエッジ周りの重みを上げるとかは全然いいのかなと思ったけど
もうやっているんですよね. .
そういうことも考えるともうほとんど手動調節やなという気もする
損失関数でエッジ周りの重みを上げるとかは全然いいのかなと思ったけど
もうやっているんですよね. .
そういうことも考えるともうほとんど手動調節やなという気もする
147名無しさん@お腹いっぱい。 (アウアウ Sad9-BoQW)
2016/06/17(金) 13:01:39.74ID:egwY+yyva >>146
損失関数でエッヂ周りの重みをとはどういうことなんでしょうか?
私はとりあえずGIMPとAviUtlのフィルターを複数試している程度なので、上記の件がどのフィルターの作用なのかよくわからないですが(滝汗…)
いずれにしても、もう一息のところまでは来ているかなと思います。
損失関数でエッヂ周りの重みをとはどういうことなんでしょうか?
私はとりあえずGIMPとAviUtlのフィルターを複数試している程度なので、上記の件がどのフィルターの作用なのかよくわからないですが(滝汗…)
いずれにしても、もう一息のところまでは来ているかなと思います。
148名無しさん@お腹いっぱい。 (ワッチョイ c699-7Pd6)
2016/06/18(土) 12:14:20.27ID:qBjQF52o0 caffeの作者さんにファイル名についてお願い、と言うか要望があるのですが、例えば元ファイル名が
img.jpg
のものをRGBモデル、ノイズ除去レベル1、拡大倍率x2.000000、で処理した場合
img(RGB)(noise_scale)(Level1)(x2.000000).png
のようになるかと思いますが、これを例えば
img-RGB_nsLv1_x2.0.png
のようになるべく短いファイル名になるようにしたいのです
リネームソフトの手間もなくなりますし
簡潔に言うと、RGB・Photoなどのモデル、レベル、倍率にそれぞれ自分好みのネーム設定ができたらいいなと
img.jpg
のものをRGBモデル、ノイズ除去レベル1、拡大倍率x2.000000、で処理した場合
img(RGB)(noise_scale)(Level1)(x2.000000).png
のようになるかと思いますが、これを例えば
img-RGB_nsLv1_x2.0.png
のようになるべく短いファイル名になるようにしたいのです
リネームソフトの手間もなくなりますし
簡潔に言うと、RGB・Photoなどのモデル、レベル、倍率にそれぞれ自分好みのネーム設定ができたらいいなと
149名無しさん@お腹いっぱい。 (ワッチョイ fcd2-/3y4)
2016/06/19(日) 12:44:00.16ID:5d2T2vgy0 それもまたきりのない話だな
そのうち小数点以下何桁までで丸め方のルールは〜とか設定したくなるかもしれない
そのうち小数点以下何桁までで丸め方のルールは〜とか設定したくなるかもしれない
150名無しさん@お腹いっぱい。 (ワッチョイ f9d2-sZHE)
2016/06/19(日) 14:27:28.71ID:B8m/ESUS0 出力ファイル名を
{ORIGINAL_FILENAME}_{NOISE_LEVEL}_{SEQUENCE_NO;%06d}.png
みたいなフォーマットで指定できればいい話ではあると思うけど
{ORIGINAL_FILENAME}_{NOISE_LEVEL}_{SEQUENCE_NO;%06d}.png
みたいなフォーマットで指定できればいい話ではあると思うけど
151名無しさん@お腹いっぱい。 (ワッチョイ a66d-Wpqh)
2016/06/19(日) 18:26:21.66ID:JdLEHa3u0 下手な実装するとバッフオーバーフローの脆弱性持ちそうだな
152名無しさん@お腹いっぱい。 (ワッチョイ 76e1-4fuR)
2016/06/20(月) 01:51:15.15ID:Q6Azk7Sq0 各項目対象に文字数制限は必要ね
153名無しさん@お腹いっぱい。 (ワッチョイ f9d2-sZHE)
2016/06/20(月) 18:24:37.59ID:OxeSzmHe0 http://waifu2x-dev.udp.jp/ のノイズ除去をYUV420 JPEG対応に置き換えています。
試していないですが、ノイズ除去だけはソフト版にも持っていけると思います。
https://github.com/nagadomi/waifu2x/tree/upconv/models/vgg_7/art
試していないですが、ノイズ除去だけはソフト版にも持っていけると思います。
https://github.com/nagadomi/waifu2x/tree/upconv/models/vgg_7/art
154名無しさん@お腹いっぱい。 (アウアウ Sad9-BoQW)
2016/06/20(月) 19:50:44.69ID:F1cC+6iua155名無しさん@お腹いっぱい。 (ワッチョイ f9d2-sZHE)
2016/06/20(月) 21:10:41.84ID:OxeSzmHe0 >>154
写真の学習を先にやっててこれが1週間くらいかかると思うのでその後になります
今ノイズレベル1〜3なので、0に追加しようと思っています。
ノイズ1でも対象とするJPEGの品質65〜85で確かに強いかなと思うので。
80〜95くらいのやつを入れます。
写真の学習を先にやっててこれが1週間くらいかかると思うのでその後になります
今ノイズレベル1〜3なので、0に追加しようと思っています。
ノイズ1でも対象とするJPEGの品質65〜85で確かに強いかなと思うので。
80〜95くらいのやつを入れます。
156名無しさん@お腹いっぱい。 (アウアウ Sad9-BoQW)
2016/06/20(月) 21:47:03.21ID:F1cC+6iua >>155
よろしくお願いします。
よろしくお願いします。
157名無しさん@お腹いっぱい。 (ワッチョイW c76c-gJJb)
2016/06/24(金) 00:16:13.19ID:Tj0Yx6nv0 w2xcは対応してくれないのかな
caffeでエンコとかやったことないから困る
caffeでエンコとかやったことないから困る
158名無しさん@お腹いっぱい。 (ワッチョイ 1f39-HU42)
2016/06/24(金) 05:19:48.84ID:1pQApire0 >>157
https://github.com/HomeOfVapourSynthEvolution/VapourSynth-Waifu2x-caffe
caffeでエンコードするこういうのもあるみたい。導入がちょっと面倒くさいが。
https://github.com/HomeOfVapourSynthEvolution/VapourSynth-Waifu2x-caffe
caffeでエンコードするこういうのもあるみたい。導入がちょっと面倒くさいが。
159名無しさん@お腹いっぱい。 (ワイモマー MM57-jO4j)
2016/06/26(日) 12:28:20.99ID:qPmlSzrmM 写真だとノイズ除去がイマイチなんで、waifuで拡大だけやって
Neat Imageでノイズ除去するという使い方させてもらってます
最新のV8は白ボケをどう直したらいいのか分からないので古いV7.6使ってる
Neat Imageでノイズ除去するという使い方させてもらってます
最新のV8は白ボケをどう直したらいいのか分からないので古いV7.6使ってる
160名無しさん@お腹いっぱい。 (アウアウ Sa5f-Gho2)
2016/06/26(日) 21:25:04.12ID:KxHEnHfza ディープラーニングについて、NHK-Eテレにて今夜23時30分よりサイエンスZEROにて放送
161名無しさん@お腹いっぱい。 (ワッチョイ b7e2-jO4j)
2016/06/28(火) 23:31:12.36ID:YVu6qt8i0 サイトが見れない?
162名無しさん@お腹いっぱい。 (アウアウ Sa17-RJF0)
2016/06/29(水) 00:50:43.91ID:VaEWzwoya 私もサイトが表示されないですね…。(´・ω・`)
163名無しさん@お腹いっぱい。 (ワッチョイ dbb7-o//t)
2016/06/29(水) 02:23:18.17ID:f5M/bR6F0 waifu2xって画像縮小できないの?
164名無しさん@お腹いっぱい。 (ワッチョイ 9b64-9GV8)
2016/06/29(水) 02:26:53.26ID:Lar04yff0 こーひーできるだろ
165名無しさん@お腹いっぱい。 (ワッチョイW 1739-gJJb)
2016/06/29(水) 05:58:30.93ID:1ZU+/ZGG0 つかえないんやが
166名無しさん@お腹いっぱい。 (ニククエ Sa17-RJF0)
2016/06/29(水) 14:07:06.67ID:VaEWzwoyaNIKU お、サイト繋がった!良かった
167名無しさん@お腹いっぱい。 (ニククエ MM57-jO4j)
2016/06/29(水) 17:54:31.19ID:CAYY+cjmMNIKU 落ちてるぞ、ウチ32Bit環境やから困るわ
168名無しさん@お腹いっぱい。 (ニククエW 1fd1-gJJb)
2016/06/29(水) 18:30:58.55ID:ShnTKE5+0NIKU 俺も繋がらない
169名無しさん@お腹いっぱい。 (ニククエ MM57-jO4j)
2016/06/29(水) 22:10:41.75ID:CAYY+cjmMNIKU NHK クロ現でノイズ除去やってる
170名無しさん@お腹いっぱい。 (ワイモマー MMcd-R7o+)
2016/06/30(木) 12:16:44.06ID:Cb9/jtjmM ワイフ生き返った
171名無しさん@お腹いっぱい。 (ワッチョイ 88e2-R7o+)
2016/07/01(金) 02:09:40.55ID:5LM7wvfF0 超解像って単に拡大してシャープフィルタかけたのとは違うよね…?
172名無しさん@お腹いっぱい。 (アウアウ Sa25-xb4q)
2016/07/01(金) 09:40:15.03ID:h5/8p4PQa 全く違います
173名無しさん@お腹いっぱい。 (ワッチョイ fc51-R7o+)
2016/07/01(金) 10:10:53.84ID:M34jK4ST0 コンピュータが2種類の拡大結果を提案してユーザーがキレイだと思ったほうを選んでいく。その結果を蓄積してく。みたいにやったらだんだん画像はキレイになってくの?
174名無しさん@お腹いっぱい。 (ワッチョイ 687c-NBGD)
2016/07/01(金) 10:29:17.86ID:uGgAQSA00175名無しさん@お腹いっぱい。 (ワイモマー MMcd-R7o+)
2016/07/01(金) 16:33:57.22ID:G/tSW9oqM Neat Imageのコミュニティに入った
http://i.imgur.com/ZlmZtHz.jpg
http://i.imgur.com/ZlmZtHz.jpg
176名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX)
2016/07/01(金) 16:58:14.36ID:u6NBrYfw0177名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX)
2016/07/01(金) 16:59:01.87ID:u6NBrYfw0 >>174
その変換をどういうフィルタをかければよくできるかをデータから決めてる感じですね。
シャープすぎることがあるのは、1/2縮小時にボケることの副作用の気がしていて
もっとよい縮小アルゴリズムが求められている。
>Neat Image
写真はJPEGノイズよりもカメラの高感度ノイズのほうが一般向けに需要がありそうなんですよね。
自分も写真のデータセットを作るときにセンサに由来すると思われるノイズが取れなくて結局縮小してしまったし。
その変換をどういうフィルタをかければよくできるかをデータから決めてる感じですね。
シャープすぎることがあるのは、1/2縮小時にボケることの副作用の気がしていて
もっとよい縮小アルゴリズムが求められている。
>Neat Image
写真はJPEGノイズよりもカメラの高感度ノイズのほうが一般向けに需要がありそうなんですよね。
自分も写真のデータセットを作るときにセンサに由来すると思われるノイズが取れなくて結局縮小してしまったし。
178名無しさん@お腹いっぱい。 (ワッチョイ dd91-A58j)
2016/07/01(金) 17:39:27.23ID:WhtBr2UD0 つい最近ソフトの存在を知ったのだが、作者は何者?
179175 (ワイモマー MMcd-R7o+)
2016/07/01(金) 17:41:57.50ID:G/tSW9oqM >>177
アナログをスキャナで取り込む時も同じではないでしょうか
とりあえずサンプル貼っときますね、撮影は1989年頃
http://i.imgur.com/WIFzEKU.jpg
http://i.imgur.com/d65jMq4.jpg
アナログをスキャナで取り込む時も同じではないでしょうか
とりあえずサンプル貼っときますね、撮影は1989年頃
http://i.imgur.com/WIFzEKU.jpg
http://i.imgur.com/d65jMq4.jpg
180名無しさん@お腹いっぱい。 (ワッチョイ 0ee1-R7o+)
2016/07/01(金) 19:59:48.62ID:lQ0BYCYQ0 これ比較する時って、補完無しで同率拡大した画像とで比べたほうが判りやすいよね 多分
181名無しさん@お腹いっぱい。 (ワイモマー MMcd-R7o+)
2016/07/01(金) 23:08:12.50ID:G/tSW9oqM フル画面表示した時の画質の違いでおk
182名無しさん@お腹いっぱい。 (ワッチョイ 0ee1-R7o+)
2016/07/02(土) 01:42:19.02ID:M9jj+JKN0 それだとドでかい画像の場合縮小表示しちゃうんじゃね
183名無しさん@お腹いっぱい。 (アウアウ Sa6a-s3GQ)
2016/07/02(土) 20:17:17.05ID:Js2/0ggxa Olympus viewerの様なデジカメや一眼レフカメラに付属しているソフトとwaifu2x-caffeと比べたら細かい部分を拡大する時どちらが優れていますか?
184名無しさん@お腹いっぱい。 (ワッチョイ fc51-R7o+)
2016/07/02(土) 20:28:02.40ID:60Js3xoy0 市販のやつが一番
186名無しさん@お腹いっぱい。 (ワッチョイ 3a39-xKxK)
2016/07/03(日) 23:32:02.98ID:wVW5bsnw0 waifu2x-caffe ver 1.1.4
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.4
upconvモデルに対応
変換に使用するGPUデバイスを指定できるようにした
コマンドライン版の出力ファイル名自動生成の規則をGUI版と揃えた
かなり中身を書き直した関係でメモリ不足対策が無効になった
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.4
upconvモデルに対応
変換に使用するGPUデバイスを指定できるようにした
コマンドライン版の出力ファイル名自動生成の規則をGUI版と揃えた
かなり中身を書き直した関係でメモリ不足対策が無効になった
187名無しさん@お腹いっぱい。 (ワッチョイ fc9d-R7o+)
2016/07/04(月) 00:53:04.84ID:16kM987e0 1.1.4
今まで問題のなかった batch_size 指定で
waifu2x-caffe-cui.exe -b 4 -i kore.jpg
や
waifu2x-caffe-cui.exe --batch_size 4 -i kore.jpg
だとエラー吐いて失敗するようになった
waifu2x-caffe-cui.exe -b=4 -i kore.jpg
や
waifu2x-caffe-cui.exe --batch_size=4 -i kore.jpg
のように = で指定するとエラーにならず変換は問題ないっぽいけど
-c asdf だとusage表示、 -c=asdf や -b=qwer とかで変換は成功するので
= でつなぐと batch_size 指定が無視されてるだけ?
エラーメッセージは下のような感じ
Could not create log file: File exists
COULD NOT CREATE LOGFILE '20160704-004037.8712'!
F0704 00:40:37.079417 6000 math_functions.cpp:92] Check failed: error == cudaSuccess (11 vs. 0) invalid argument
*** Check failure stack trace: ***
今まで問題のなかった batch_size 指定で
waifu2x-caffe-cui.exe -b 4 -i kore.jpg
や
waifu2x-caffe-cui.exe --batch_size 4 -i kore.jpg
だとエラー吐いて失敗するようになった
waifu2x-caffe-cui.exe -b=4 -i kore.jpg
や
waifu2x-caffe-cui.exe --batch_size=4 -i kore.jpg
のように = で指定するとエラーにならず変換は問題ないっぽいけど
-c asdf だとusage表示、 -c=asdf や -b=qwer とかで変換は成功するので
= でつなぐと batch_size 指定が無視されてるだけ?
エラーメッセージは下のような感じ
Could not create log file: File exists
COULD NOT CREATE LOGFILE '20160704-004037.8712'!
F0704 00:40:37.079417 6000 math_functions.cpp:92] Check failed: error == cudaSuccess (11 vs. 0) invalid argument
*** Check failure stack trace: ***
188名無しさん@お腹いっぱい。 (ワッチョイ fc28-R7o+)
2016/07/04(月) 10:40:14.99ID:gZoKUAJa0 好きな写真をいろんなタッチに自動で加工してくれる「deepart.io」
http://gigazine.net/news/20160703-deepart-io/
どんな写真が作れるのかは以下のページを見ると分かります。
Selected latest deeparts
https://deepart.io/latest/
http://i.gzn.jp/img/2016/07/03/deepart-io/snap.png
http://gigazine.net/news/20160703-deepart-io/
どんな写真が作れるのかは以下のページを見ると分かります。
Selected latest deeparts
https://deepart.io/latest/
http://i.gzn.jp/img/2016/07/03/deepart-io/snap.png
189名無しさん@お腹いっぱい。 (スプー Sdb8-s3GQ)
2016/07/04(月) 18:22:16.94ID:eTmRTPxcd190名無しさん@お腹いっぱい。 (ワッチョイ d532-NpNI)
2016/07/04(月) 23:32:53.22ID:jkv2bR2s0 >>186
upconvは文字の潰れが少なくて良いです
upconvは文字の潰れが少なくて良いです
191186 (ワッチョイ 3a39-xKxK)
2016/07/04(月) 23:40:18.55ID:NcDz8yAM0 紛らわしいかもしれないけど自分は更新情報を書き込んでるだけで作者じゃないよ
192名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX)
2016/07/05(火) 00:02:07.39ID:0Z3aC8fN0 waifu2x-caffe upconvの速度はどんな感じです?
caffeはDeconvolutionがcuDNN対応していないのと
cuDNNもforward algorithmの自動選択が微妙で
Torch版ほどの差は出ていないのではと思うので気になっています。
caffeはDeconvolutionがcuDNN対応していないのと
cuDNNもforward algorithmの自動選択が微妙で
Torch版ほどの差は出ていないのではと思うので気になっています。
193名無しさん@お腹いっぱい。 (ワッチョイ 2d36-R7o+)
2016/07/05(火) 02:47:19.53ID:y52RVxO/0 >>186
公開ありがとうございます
ver.1132までは問題なく使えておりましたが、今回verでは実行ボタンを押すと同時に落ちます
win7pro 64bitのノートでCPU動作です
対策あれば教えてください
以下エラーログです
Log line format: [IWEF]mmdd hh:mm:ss.uuuuuu threadid file:line] msg
E0705 02:40:25.573511 5904 common.cpp:119] Cannot create Cublas handle. Cublas won't be available.
E0705 02:40:25.575511 5904 common.cpp:126] Cannot create Curand generator. Curand won't be available.
公開ありがとうございます
ver.1132までは問題なく使えておりましたが、今回verでは実行ボタンを押すと同時に落ちます
win7pro 64bitのノートでCPU動作です
対策あれば教えてください
以下エラーログです
Log line format: [IWEF]mmdd hh:mm:ss.uuuuuu threadid file:line] msg
E0705 02:40:25.573511 5904 common.cpp:119] Cannot create Cublas handle. Cublas won't be available.
E0705 02:40:25.575511 5904 common.cpp:126] Cannot create Curand generator. Curand won't be available.
194名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX)
2016/07/05(火) 03:08:52.96ID:0Z3aC8fN0 CUDAのライブラリがないと言っているので
CPU選択時にGPU使おうとしているのかな
CPU選択時にGPU使おうとしているのかな
195名無しさん@お腹いっぱい。 (ワッチョイ 0ee1-R7o+)
2016/07/05(火) 23:56:36.64ID:CNSOSSvt0 caffe ver1.1.4で「?かなり中身を書き直した関係でメモリ不足対策が無効になった」ってあるけど
メモリ不足したらどうなんの?
他にも色々不安要素バリバリで更新しないほうがいいのかな
メモリ不足したらどうなんの?
他にも色々不安要素バリバリで更新しないほうがいいのかな
196名無しさん@お腹いっぱい。 (ワッチョイ 0fa1-37rI)
2016/07/07(木) 04:36:12.87ID:2MUOiyuY0 waifu2x-caffe ver 1.1.5
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.5
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.5
197名無しさん@お腹いっぱい。 (ワッチョイW 8383-cFDw)
2016/07/07(木) 06:15:46.59ID:Shbm++tA0 ver1132からver115へ
実行押して1秒ぐらいで終わるって
早すぎませんかね?
後、画質の差はわからないです
マジお疲れ様です
実行押して1秒ぐらいで終わるって
早すぎませんかね?
後、画質の差はわからないです
マジお疲れ様です
198名無しさん@お腹いっぱい。 (タナボタ Saff-77u/)
2016/07/07(木) 08:46:47.16ID:szfYQdRBa0707 3DCGでIrayなどの物理レンダラーとかだと、ピクセル当たりの
サンプリンが少ないとノイズが残ります。
もしこれを学習させて綺麗に除去出来るなら、レンダリング
演算量の削減が出来るのでCG業界でも需要があるかも?
とりあえずDaz stuzio作成した、95%と100%でサンプリングした
画像を置いておきます。
http://fast-uploader.com/file/7023403027370/
http://fast-uploader.com/file/7023403077217/
waifu 2x でnoise_scale Level1 x2.0 イラスト実行
http://fast-uploader.com/file/7023403811009/
学習用サンプル画像も、無料で物理レンダラーが使えるdaz studio,
blenderなどでGPU使って作成出来るので、余裕が有ればmodelに
3dcgの低サンプリング画像の高画質化modelが欲しいです。
写真の低ISOノイズに近い物があるので、難しいかな?
ノイズ除去フィルタの領域になるか。
サンプリンが少ないとノイズが残ります。
もしこれを学習させて綺麗に除去出来るなら、レンダリング
演算量の削減が出来るのでCG業界でも需要があるかも?
とりあえずDaz stuzio作成した、95%と100%でサンプリングした
画像を置いておきます。
http://fast-uploader.com/file/7023403027370/
http://fast-uploader.com/file/7023403077217/
waifu 2x でnoise_scale Level1 x2.0 イラスト実行
http://fast-uploader.com/file/7023403811009/
学習用サンプル画像も、無料で物理レンダラーが使えるdaz studio,
blenderなどでGPU使って作成出来るので、余裕が有ればmodelに
3dcgの低サンプリング画像の高画質化modelが欲しいです。
写真の低ISOノイズに近い物があるので、難しいかな?
ノイズ除去フィルタの領域になるか。
199名無しさん@お腹いっぱい。 (タナボタ 23d2-0AkP)
2016/07/07(木) 09:05:03.41ID:o2ChrGcQ00707 >>198
先日、ペアの教師データを用意すれば何でも学習できる機能(Universal filter!!)を入れたので
入力画像と理想的な出力画像のペアを用意できるなら試すことはできます。
githubで3DCGで解像度を変えたレンダリング結果を学習して拡大できないかという話がでているのと
自分もBlenderのCyclesレンダーを使っていて、これがサンプリングが少ないとめちゃくちゃノイズが出る上に
GPUを有効にしてもめちゃくちゃ遅くて困っているので試して見るかもしれません。
(ただ学習データ生成に使うレンダリングエンジンのくせに依存する気がする。
レンダリングエンジンにあまり詳しくないので勘ですが)
写真の低ISOノイズ除去ができないのは、この現象が物理的なもので
コンピュータ上でシミュレートするのが難しく教師データが自動生成できないからで
データさえ用意できれば多分できます。
先日、ペアの教師データを用意すれば何でも学習できる機能(Universal filter!!)を入れたので
入力画像と理想的な出力画像のペアを用意できるなら試すことはできます。
githubで3DCGで解像度を変えたレンダリング結果を学習して拡大できないかという話がでているのと
自分もBlenderのCyclesレンダーを使っていて、これがサンプリングが少ないとめちゃくちゃノイズが出る上に
GPUを有効にしてもめちゃくちゃ遅くて困っているので試して見るかもしれません。
(ただ学習データ生成に使うレンダリングエンジンのくせに依存する気がする。
レンダリングエンジンにあまり詳しくないので勘ですが)
写真の低ISOノイズ除去ができないのは、この現象が物理的なもので
コンピュータ上でシミュレートするのが難しく教師データが自動生成できないからで
データさえ用意できれば多分できます。
200名無しさん@お腹いっぱい。 (タナボタ Saff-77u/)
2016/07/07(木) 09:09:21.80ID:szfYQdRBa0707 あと以前AMDのGPU使ってたので、AMDのGPUでも動くとより嬉しい。
AMD、GPGPU向けの取り組み「ボルツマンイニシアチブ」を発表。CUDAとの互換性も提供
http://srad.jp/story/15/11/18/0657225/
> Heterogenous Compute Compiler(HCC)と名付けられた新しいコンパイラはLLVM Clang
> ベースでC++11/14や/C11、OpenMP4.0、そしてC++17で採用予定のParallel STLに対応。
> 1つのコンパイラでCPUとGPUのどちらにも使える。そのためGPU用のカーネルを別のソースに
> 記述する必要はなく、ラムダ式でSTL互換のアルゴリズムに述語引数として渡せばよい。
> Heterogeneous-compute Interface for Portability(HIP)はHCCで利用できるCUDA風のAPI。
> HIPで書かれたソースコードはHCCだけでなく、ヘッダーファイルを加えることでNVIDIAのCUDA向けコンパイラであるNVCCでもコンパイル可能となる。
> 従来のCUDAコードをHIPコードに変換するためのツールも用意されており、これによってHSA環境はソースコードレベルでCUDAとの互換性を有することになる。
使ったことはないけど、CUDAコードをAMD環境用のバイナリにするコンパイラとヘッダが
公開されているので、リコンパイルだけでAMD対応も可能かも知れません。
AMD、GPGPU向けの取り組み「ボルツマンイニシアチブ」を発表。CUDAとの互換性も提供
http://srad.jp/story/15/11/18/0657225/
> Heterogenous Compute Compiler(HCC)と名付けられた新しいコンパイラはLLVM Clang
> ベースでC++11/14や/C11、OpenMP4.0、そしてC++17で採用予定のParallel STLに対応。
> 1つのコンパイラでCPUとGPUのどちらにも使える。そのためGPU用のカーネルを別のソースに
> 記述する必要はなく、ラムダ式でSTL互換のアルゴリズムに述語引数として渡せばよい。
> Heterogeneous-compute Interface for Portability(HIP)はHCCで利用できるCUDA風のAPI。
> HIPで書かれたソースコードはHCCだけでなく、ヘッダーファイルを加えることでNVIDIAのCUDA向けコンパイラであるNVCCでもコンパイル可能となる。
> 従来のCUDAコードをHIPコードに変換するためのツールも用意されており、これによってHSA環境はソースコードレベルでCUDAとの互換性を有することになる。
使ったことはないけど、CUDAコードをAMD環境用のバイナリにするコンパイラとヘッダが
公開されているので、リコンパイルだけでAMD対応も可能かも知れません。
201名無しさん@お腹いっぱい。 (タナボタ 23d2-0AkP)
2016/07/07(木) 10:46:32.57ID:o2ChrGcQ00707 caffeはopenclブランチをAMDの人がやってるみたいなので
そのうち対応するんじゃないかな
そのうち対応するんじゃないかな
202名無しさん@お腹いっぱい。 (タナボタ Sdbf-oo3f)
2016/07/07(木) 12:40:12.27ID:X0GGd45dd0707 >>196
本家の写真、イラストの新バージョンに対応したの?
本家の写真、イラストの新バージョンに対応したの?
203名無しさん@お腹いっぱい。 (タナボタ a7e2-Ij6B)
2016/07/07(木) 15:29:18.23ID:Jgi4mmBU00707 waifu2x-converter追随しちくりっ
204名無しさん@お腹いっぱい。 (タナボタ 4336-Bfmi)
2016/07/07(木) 17:12:02.28ID:N0EeMUi700707 193です
エラー対応ありがとうございました
CPU動作ですと1132とほとんど同じ処理時間でした
同じ画像で比較したら97秒が96秒になりました
GPU買うしかないですね
エラー対応ありがとうございました
CPU動作ですと1132とほとんど同じ処理時間でした
同じ画像で比較したら97秒が96秒になりました
GPU買うしかないですね
205名無しさん@お腹いっぱい。 (タナボタ bf39-x9gT)
2016/07/07(木) 17:28:10.64ID:CjnjorT/00707 >>204
こちらでの結果と異なりますね。
UpRGBモデル使っていますか?
画像100枚平均処理時間 2倍拡大のみ CPU使用
caffe ver 1.1.5 RGB 22.43645秒
caffe ver 1.1.5 UpRGB 10.4412秒
w2xc ver 20160101 RGB 7.12312秒
こちらでの結果と異なりますね。
UpRGBモデル使っていますか?
画像100枚平均処理時間 2倍拡大のみ CPU使用
caffe ver 1.1.5 RGB 22.43645秒
caffe ver 1.1.5 UpRGB 10.4412秒
w2xc ver 20160101 RGB 7.12312秒
206名無しさん@お腹いっぱい。 (タナボタ 4336-Bfmi)
2016/07/07(木) 19:28:52.61ID:N0EeMUi700707 >>205
ありがとうございます
UpRGBモデル使ってませんでした
ノイズ除去ありなしどちらも28秒切るところまで行きました
ほぼ同タイムで、ノイズ除去有の方がぱっと見てわかるすっきり具合でした
おかげさまでGPU購入をゆっくり検討できるようになりました
ありがとうございます
UpRGBモデル使ってませんでした
ノイズ除去ありなしどちらも28秒切るところまで行きました
ほぼ同タイムで、ノイズ除去有の方がぱっと見てわかるすっきり具合でした
おかげさまでGPU購入をゆっくり検討できるようになりました
207名無しさん@お腹いっぱい。 (ワッチョイ 5f89-Bfmi)
2016/07/07(木) 22:38:02.75ID:mFWhvyoA0 waifu2x-caffe 1.1.5 にて batch_size の件、対応ありがとうございます
batch_size は 2 と 4 と不正な指定しか試してなかったので 1 の場合は盲点でした
プライオリティを付けるなら超低めの一点要望です
cudnn_data の生成される場所を カレントディレクトリ あるいは waifu2x-caffe-cui.exe の
ある場所だけでなく model_dir のように指定可能にできないでしょうか
指定可能の方が個人的には嬉しいのと、waifu2x-caffe-cui.exe のある場所固定(優先)
にすると Program Files の下に置いている人はどーなるんだ、
等という話もあるかと思うので指定可能を推したいです
関連は無いかと思いますが、エラーログの出力先も waifu2x-caffe-cui.exe のある場所に
固定されるとそれはそれで個人的にションボリなので
エラーログの出力先は exe の場所固定
cudnn_data の生成場所は exe の場所固定あるいは指定
というパターンになるのであれば、現状維持となる
エラーログの出力先はカレント
cudnn_data の生成場所はカレント
のままの方がエラー発生をエラーログの有り無しから掴みやすいので有り難いです
batch_size は 2 と 4 と不正な指定しか試してなかったので 1 の場合は盲点でした
プライオリティを付けるなら超低めの一点要望です
cudnn_data の生成される場所を カレントディレクトリ あるいは waifu2x-caffe-cui.exe の
ある場所だけでなく model_dir のように指定可能にできないでしょうか
指定可能の方が個人的には嬉しいのと、waifu2x-caffe-cui.exe のある場所固定(優先)
にすると Program Files の下に置いている人はどーなるんだ、
等という話もあるかと思うので指定可能を推したいです
関連は無いかと思いますが、エラーログの出力先も waifu2x-caffe-cui.exe のある場所に
固定されるとそれはそれで個人的にションボリなので
エラーログの出力先は exe の場所固定
cudnn_data の生成場所は exe の場所固定あるいは指定
というパターンになるのであれば、現状維持となる
エラーログの出力先はカレント
cudnn_data の生成場所はカレント
のままの方がエラー発生をエラーログの有り無しから掴みやすいので有り難いです
208名無しさん@お腹いっぱい。 (ワッチョイ 27d1-Bfmi)
2016/07/07(木) 23:31:58.26ID:Q807zVYb0 caffeいつの間にかCPUでも速くなってたんだな
俺の古いノートでもtanakamura版より速かった
俺の古いノートでもtanakamura版より速かった
209名無しさん@お腹いっぱい。 (ワッチョイW 9fbe-oo3f)
2016/07/08(金) 00:21:26.70ID:MxrGRp260 caffeってAMD対応してないのか
Vega買う予定だからそれまでに対応してほしいな
Vega買う予定だからそれまでに対応してほしいな
210名無しさん@お腹いっぱい。 (ワッチョイW 5ba4-oo3f)
2016/07/08(金) 02:30:16.54ID:EpDyhBMv0 スキャナで取り込んだ白黒写真もサイズが大きいと効果なし
スキャン時のゴミとかも鮮明になる
16年前に撮った100万画素のデジカメでも効果あり
人物と背景の境目や文字が一番効果ある
ただ塗り絵みたいになる
2kの50インチだが60インチの4kに変えれば200万画素でも効果あるの?
スキャン時のゴミとかも鮮明になる
16年前に撮った100万画素のデジカメでも効果あり
人物と背景の境目や文字が一番効果ある
ただ塗り絵みたいになる
2kの50インチだが60インチの4kに変えれば200万画素でも効果あるの?
211名無しさん@お腹いっぱい。 (ワッチョイ 4336-Bfmi)
2016/07/08(金) 02:43:39.19ID:U5gK4I5q0212名無しさん@お腹いっぱい。 (ワッチョイ 9798-Bfmi)
2016/07/08(金) 10:41:00.32ID:atx8Q/X+0 >>210
そう言う使い方には向かない
そう言う使い方には向かない
213名無しさん@お腹いっぱい。 (スプー Sdbf-q6Qi)
2016/07/08(金) 16:24:04.54ID:LIOMaWBvd 繋がらない
214名無しさん@お腹いっぱい。 (ワッチョイ fbd1-VBIq)
2016/07/08(金) 18:42:36.60ID:dsqbXFnh0 waifu2x-caffe ver 1.1.5なんだが
横幅指定が使えない というか縦幅指定になる
CUIで--scale_heigh使っても--scale_widthが動いてる
ファイル名は(height)になるんだけどな
横幅指定が使えない というか縦幅指定になる
CUIで--scale_heigh使っても--scale_widthが動いてる
ファイル名は(height)になるんだけどな
215214 (ワッチョイ fbd1-VBIq)
2016/07/08(金) 18:45:17.81ID:dsqbXFnh0 がっと書いたら全部逆になってるな
縦幅指定が使えないが真
縦幅指定が使えないが真
216名無しさん@お腹いっぱい。 (ワッチョイW 5ba4-oo3f)
2016/07/08(金) 21:19:24.39ID:EpDyhBMv0 Nシステムや防犯カメラの画像解析と違うの?
217名無しさん@お腹いっぱい。 (ワッチョイ 9728-Bfmi)
2016/07/08(金) 22:50:22.60ID:FtOXgf4l0 >>216
防犯カメラのは数コマ撮影してノイズ除去してくんじゃね。それ専用のソフトがあったような。
防犯カメラのは数コマ撮影してノイズ除去してくんじゃね。それ専用のソフトがあったような。
218名無しさん@お腹いっぱい。 (ワッチョイW 5ba4-oo3f)
2016/07/09(土) 00:33:43.51ID:UiHSYu5L0 人物写真100枚くらいレベル3で効果が大きいのは
文字>>>チェック柄などのライン>>人物と背景の境目のモスキートノイズ>肌のカラーノイズで修正できたのは全体の3分の1くらい。
文字が潰れた自炊コミックや小説が一番効果あるね
文字>>>チェック柄などのライン>>人物と背景の境目のモスキートノイズ>肌のカラーノイズで修正できたのは全体の3分の1くらい。
文字が潰れた自炊コミックや小説が一番効果あるね
219名無しさん@お腹いっぱい。 (ワイモマー MM9f-Bfmi)
2016/07/09(土) 06:03:12.82ID:N2XUaDTaM オンライン版は何かパスワード入れろとか出て来たぞ
220名無しさん@お腹いっぱい。 (ワッチョイW c799-oo3f)
2016/07/09(土) 08:22:58.63ID:nYSJWZ3O0 ユーザー名とパスワード?
そんなものどうやって確認したら良いんだよ!
そんなものどうやって確認したら良いんだよ!
221名無しさん@お腹いっぱい。 (ワッチョイ 5b91-ZuDG)
2016/07/09(土) 11:23:58.89ID:vV8RzQQI0 waifu2xで検索するとwaifu2x-multiが上に来ててワロタ
作者どうにかしろよ
作者どうにかしろよ
222名無しさん@お腹いっぱい。 (ササクッテロ Sp1f-cFDw)
2016/07/09(土) 12:21:18.09ID:gXGWJsZ2p おまえがすりゃいいだろ
223名無しさん@お腹いっぱい。 (ワッチョイ 23d2-0AkP)
2016/07/09(土) 12:43:20.65ID:1eYwCzvQ0 ページランクは明らかに高いと思うけど
頻繁に落ちたりドメインだったりでgoogleの評価が下がってるんだろうな
パスワードは,サーバーが落ちてEC2内でIPアドレスが再利用されて別のサイトに誘導されていただけです(こわい)
あと,noise0(これまでの一番弱いやつよりも弱い)を追加したのと,waifu2x.udp.jpのほうも新モデルに変えました.
前よりも不安定な印象なのでたまに謎のノイズが出たりがあるかもしれないですが,平均的には良いです.
noise0はJPEG品質85〜95(1回)くらいでnoise1や除去なしよりも良くなります.
見た目ノイズないのに拡大するとノイズが強調されて出てきたようなときに使えると思います.
頻繁に落ちたりドメインだったりでgoogleの評価が下がってるんだろうな
パスワードは,サーバーが落ちてEC2内でIPアドレスが再利用されて別のサイトに誘導されていただけです(こわい)
あと,noise0(これまでの一番弱いやつよりも弱い)を追加したのと,waifu2x.udp.jpのほうも新モデルに変えました.
前よりも不安定な印象なのでたまに謎のノイズが出たりがあるかもしれないですが,平均的には良いです.
noise0はJPEG品質85〜95(1回)くらいでnoise1や除去なしよりも良くなります.
見た目ノイズないのに拡大するとノイズが強調されて出てきたようなときに使えると思います.
224名無しさん@お腹いっぱい。 (ワッチョイ bf39-x9gT)
2016/07/09(土) 13:13:24.07ID:vW24965J0225名無しさん@お腹いっぱい。 (ワッチョイ 23d2-0AkP)
2016/07/09(土) 14:21:05.59ID:1eYwCzvQ0 >>224
GPU的には余裕ができると思うので扱える画像のサイズをでかくしました.2560x2560 -> 3000x3000まで.
ただ処理速度も重要ですが,転送量が多くてつっかえている感じがあるのであまり変わらない気がします.
画像が昔のモデムみたいな速度で上から次第に表示されていくことがあるのは処理速度ではなく帯域のせいです.
常時50〜120人くらいが同時に使っていて1リクエストで2MBくらいの画像を出力するので結構な量になります.
処理が速くなりでかい画像がより高速にやりとりされようになると逆につらくなるかもしれません.
たまに落ちるのは単に金銭的問題で毎月タワマンの家賃くらい払えば落ちなくなりますが,払っていないのでたまに落ちます.
(これは色んな話を断ったりしているのであまり言い訳にはできないんだけど)
GPU的には余裕ができると思うので扱える画像のサイズをでかくしました.2560x2560 -> 3000x3000まで.
ただ処理速度も重要ですが,転送量が多くてつっかえている感じがあるのであまり変わらない気がします.
画像が昔のモデムみたいな速度で上から次第に表示されていくことがあるのは処理速度ではなく帯域のせいです.
常時50〜120人くらいが同時に使っていて1リクエストで2MBくらいの画像を出力するので結構な量になります.
処理が速くなりでかい画像がより高速にやりとりされようになると逆につらくなるかもしれません.
たまに落ちるのは単に金銭的問題で毎月タワマンの家賃くらい払えば落ちなくなりますが,払っていないのでたまに落ちます.
(これは色んな話を断ったりしているのであまり言い訳にはできないんだけど)
226名無しさん@お腹いっぱい。 (ワッチョイW 4739-oo3f)
2016/07/09(土) 16:07:08.82ID:K5bxkZUs0 たまーに長い時あるよねぇ〜
マルチもフツーのやつも
マルチもフツーのやつも
227名無しさん@お腹いっぱい。 (アウアウ Sa7f-oo3f)
2016/07/09(土) 19:26:07.00ID:nYNdyt/pa Olympus Viewer 3でシャープネス(数値は+7)で編集後に拡大したらノイズが酷くなったのですがwaifu2xでその画像のノイズを改善できますか?
228名無しさん@お腹いっぱい。 (ワッチョイ 4b7c-Bfmi)
2016/07/09(土) 21:05:02.49ID:PxPxd/Jw0 質問の意図が分からん
無料なんだから自分で試してみなよ
無料なんだから自分で試してみなよ
229名無しさん@お腹いっぱい。 (ワッチョイ 9728-Bfmi)
2016/07/09(土) 21:11:57.04ID:fAUSGoqf0 >>227
写真の編集を納得いくまでやりたいなら↓がオススメ
https://www.google.com/intl/ja/nikcollection/
GIMPで使いたいとき
shellout plugin for NIK
http://steaz.altervista.org/shellout-plugin-for-gimp-and-nik-collection/
写真の編集を納得いくまでやりたいなら↓がオススメ
https://www.google.com/intl/ja/nikcollection/
GIMPで使いたいとき
shellout plugin for NIK
http://steaz.altervista.org/shellout-plugin-for-gimp-and-nik-collection/
230名無しさん@お腹いっぱい。 (ワッチョイ 5b91-ZuDG)
2016/07/09(土) 21:49:14.07ID:vV8RzQQI0 やっぱり話とか来てるのか
流石だ
流石だ
231名無しさん@お腹いっぱい。 (ワッチョイ a7e2-Ij6B)
2016/07/10(日) 04:07:17.50ID:aXg7mYO+0 話受けたら現状維持できなくなる可能性が微レ存?
232名無しさん@お腹いっぱい。 (アウアウ Sa7f-oo3f)
2016/07/10(日) 06:29:41.30ID:u96Wq/kna >>229
ありがとうございます。
ありがとうございます。
233名無しさん@お腹いっぱい。 (ワッチョイ 83a1-37rI)
2016/07/11(月) 02:10:05.35ID:L0atsYt80 Release ver 1.1.6
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6
234名無しさん@お腹いっぱい。 (ワッチョイ 839d-Bfmi)
2016/07/11(月) 04:03:13.80ID:3xx0SzsG0 >>233
おお、ついにノイズレベル0が!
cui版で -n 0 のように noise_level 0 を指定すると
PARSE ERROR: Argument: -n (--noise_level)
Value '0' does not meet constraint: 1|2|3
(Brief USAGE 略)
って怒られてエラーになっちゃいます
GUI版で変換した noise_level 0 の画像と比較すると、noise_level 無指定の場合には
きちんとデフォルトの noise_level 0 になるようです(UpRGB)
ついでに --help を出しても noise_level に関しては 0 の無い 1.1.5 以前のままです
おお、ついにノイズレベル0が!
cui版で -n 0 のように noise_level 0 を指定すると
PARSE ERROR: Argument: -n (--noise_level)
Value '0' does not meet constraint: 1|2|3
(Brief USAGE 略)
って怒られてエラーになっちゃいます
GUI版で変換した noise_level 0 の画像と比較すると、noise_level 無指定の場合には
きちんとデフォルトの noise_level 0 になるようです(UpRGB)
ついでに --help を出しても noise_level に関しては 0 の無い 1.1.5 以前のままです
235名無しさん@お腹いっぱい。 (ワッチョイ d325-Bfmi)
2016/07/11(月) 13:40:38.41ID:PaECKmpe0 拡大するとアニメ塗りの塗り壁になってしまう
人工知能のわりに頭が悪いな。本当に
人間より優れたシンギラなるんかと疑問点。
3次画像を拡大する専用の
Youjo2seXを早く出せよ、おい!
人工知能のわりに頭が悪いな。本当に
人間より優れたシンギラなるんかと疑問点。
3次画像を拡大する専用の
Youjo2seXを早く出せよ、おい!
236名無しさん@お腹いっぱい。 (ワッチョイ 0315-Bfmi)
2016/07/11(月) 13:53:25.53ID:FgWkp8c20 重力をシミュレートしてオッパイを大きくしたり立体を認識してオッパイの影を変えちゃうとかできるようになるかな?
237名無しさん@お腹いっぱい。 (ワッチョイ 27e2-Bfmi)
2016/07/11(月) 15:26:05.48ID:EGf/5Brb0 3次なら写真のほうでやってるか?
238名無しさん@お腹いっぱい。 (ワッチョイ db3b-+LlH)
2016/07/11(月) 19:50:44.68ID:rrQkvAft0 作者の気に入らないユーザーには使わせないような仕組みがあればなぁ
239名無しさん@お腹いっぱい。 (ワッチョイW 5ba4-oo3f)
2016/07/12(火) 02:31:32.01ID:xzA7ng9T0 3次元写真向けの自動補正ソフトないですか?
240名無しさん@お腹いっぱい。 (ワッチョイ 235d-Bfmi)
2016/07/12(火) 08:50:12.67ID:Iqc/vrEd0 >>239
Yes!TAKASU CLINIC!
Yes!TAKASU CLINIC!
241名無しさん@お腹いっぱい。 (ワッチョイ 0315-Bfmi)
2016/07/12(火) 10:43:28.64ID:VQ1i59d30 これとか凄い。ディズニー凄い。
FaceDirector: Continuous Control of Facial Performance in Video
https://www.youtube.com/watch?v=o-nJpaCXL0k
FaceDirector: Continuous Control of Facial Performance in Video
https://www.youtube.com/watch?v=o-nJpaCXL0k
242名無しさん@お腹いっぱい。 (オッペケ Sr3d-4wno)
2016/07/14(木) 08:29:48.81ID:69szQv+1r また落ちてる!
いくらなんでも頻繁すぎるのでは?
いくらなんでも頻繁すぎるのでは?
243名無しさん@お腹いっぱい。 (ワッチョイ 69d2-ewdN)
2016/07/14(木) 09:38:42.50ID:kfj6dhpi0 スポットインスタンスは月単位で見ると安いのですが
たまに異常に価格が上がることがあるのでそういうことが起こるたびに落ちます.
今は1台あたりの鯖代が1時間$6.5まで価格が上がったので落ちました.
1時間$6.5で3台動かしていると1日放置で5万円くらいかかるので落ちてくれないと困る感じです.
許容範囲のところがあればそこで復活します.
たまに異常に価格が上がることがあるのでそういうことが起こるたびに落ちます.
今は1台あたりの鯖代が1時間$6.5まで価格が上がったので落ちました.
1時間$6.5で3台動かしていると1日放置で5万円くらいかかるので落ちてくれないと困る感じです.
許容範囲のところがあればそこで復活します.
244名無しさん@お腹いっぱい。 (スプー Sd28-4wno)
2016/07/14(木) 12:55:40.76ID:PjfewzbAd w2xcで動画エンコしてるんですが
Aviutlで動画が綺麗になるオススメのフィルタとかありますか?
一応、今はエッジレベル調整を併用してます
Aviutlで動画が綺麗になるオススメのフィルタとかありますか?
一応、今はエッジレベル調整を併用してます
245名無しさん@お腹いっぱい。 (ワッチョイ 49a9-/weA)
2016/07/14(木) 13:39:09.41ID:FgL37a7K0 たぶん,誰か考えたと思うんですけれども,
例えば,元画像を4倍に拡大したいとして,
A.そのまま4倍に拡大する
B.半分に縮小した後,8倍に拡大する
を組み合わせた学習モデルって作れないですか?
解像度が低い画像を拡大しようとした時に,
Bだと近くのものは綺麗に拡大されるのですが,遠くのものが潰れてしまいます.
一方で,Aは全体的に綺麗なのですが,Bほど近くのものは綺麗にならない.
複雑で潰れそうな部分はAで,大雑把な部分はBのモデルを適用できれば,
画質がかなり改善されそうな気がするのですがいかがですか?
例えば,元画像を4倍に拡大したいとして,
A.そのまま4倍に拡大する
B.半分に縮小した後,8倍に拡大する
を組み合わせた学習モデルって作れないですか?
解像度が低い画像を拡大しようとした時に,
Bだと近くのものは綺麗に拡大されるのですが,遠くのものが潰れてしまいます.
一方で,Aは全体的に綺麗なのですが,Bほど近くのものは綺麗にならない.
複雑で潰れそうな部分はAで,大雑把な部分はBのモデルを適用できれば,
画質がかなり改善されそうな気がするのですがいかがですか?
246名無しさん@お腹いっぱい。 (ワッチョイ 3d25-8xJT)
2016/07/14(木) 13:51:27.47ID:AKBc/xAg0 これって輪郭検出のち内部を塗りつぶすソフト?ですか?
のぺ〜っと、、細かな情報が消えてしまう。
クスコ、 じゃねえランチョで拡大、のちw2でノイズ消しの
ほうがシャアぷに仕上がるようです少佐
のぺ〜っと、、細かな情報が消えてしまう。
クスコ、 じゃねえランチョで拡大、のちw2でノイズ消しの
ほうがシャアぷに仕上がるようです少佐
247名無しさん@お腹いっぱい。 (ファミマW FFd0-8GE1)
2016/07/14(木) 19:42:25.11ID:GmzwyXSXF 日本語でおk
248名無しさん@お腹いっぱい。 (ワッチョイ bcd2-GuGR)
2016/07/14(木) 20:02:13.83ID:x6vqi83V0 >>245見てこれを思い出した
http://www.slideshare.net/nikuque/ss-52190439/1
これで画像のサイズや圧縮率、動画のビットレートの最適化ができたらいいな
最近思ってるのは画像に関して機械学習でノイズ除去や高解像度化ができるなら
音声に関してもできないかなと。個人的には画像よりこっちの方が興味ある。
http://www.slideshare.net/nikuque/ss-52190439/1
これで画像のサイズや圧縮率、動画のビットレートの最適化ができたらいいな
最近思ってるのは画像に関して機械学習でノイズ除去や高解像度化ができるなら
音声に関してもできないかなと。個人的には画像よりこっちの方が興味ある。
249名無しさん@お腹いっぱい。 (ワッチョイ 69d2-ewdN)
2016/07/15(金) 01:22:46.25ID:2zYLl84L0 >>248
音はいろんな人が言っているけど
音声(自然言語)って厳格だからちょっとミスって変になったらものすごく気になるように思う.
画像(絵)はちょっと変でもまあ仕方ないかで済むけど.
想像で言ってますが.
音はいろんな人が言っているけど
音声(自然言語)って厳格だからちょっとミスって変になったらものすごく気になるように思う.
画像(絵)はちょっと変でもまあ仕方ないかで済むけど.
想像で言ってますが.
250名無しさん@お腹いっぱい。 (ワッチョイ 7d7c-8xJT)
2016/07/15(金) 02:00:47.45ID:MkkKZ1cc0 ガ(ry)ぞ
ttp://www.kobe-np.co.jp/news/awaji/201607/0009281896.shtml
ttps://coubic.com/awajicinema
ttp://www.kobe-np.co.jp/news/awaji/201607/0009281896.shtml
ttps://coubic.com/awajicinema
251250 (ワッチョイ 7d7c-8xJT)
2016/07/15(金) 02:01:26.04ID:MkkKZ1cc0 誤爆ごめんなさい
252名無しさん@お腹いっぱい。 (ワッチョイ f8e2-8xJT)
2016/07/15(金) 09:46:25.21ID:EtUlD+t70 サイトのうしろの人が気になる
253名無しさん@お腹いっぱい。 (ワッチョイ bcd2-GuGR)
2016/07/15(金) 14:43:45.51ID:lsrfj+NR0 >>249
音声っていっても声より音楽、オーディオデータ全般が目当てなんだよな
サンプリング周波数やビット深度が細かかったらこんな倍音が乗っていたはずだ(可聴域外でも)とか
クリップした波形の修復(これは機械学習以前からいろいろ研究されてる)とか
もしかしたらエフェクトの新しい概念が生まれるかもしれないし
画像でも綺麗にするだけじゃなくて積極的な加工に使える可能性はあると思う
やたら重いわりに得られるものが何だか分からなくてダメかもしれないけど
音声っていっても声より音楽、オーディオデータ全般が目当てなんだよな
サンプリング周波数やビット深度が細かかったらこんな倍音が乗っていたはずだ(可聴域外でも)とか
クリップした波形の修復(これは機械学習以前からいろいろ研究されてる)とか
もしかしたらエフェクトの新しい概念が生まれるかもしれないし
画像でも綺麗にするだけじゃなくて積極的な加工に使える可能性はあると思う
やたら重いわりに得られるものが何だか分からなくてダメかもしれないけど
254名無しさん@お腹いっぱい。 (ワッチョイ fb91-hASY)
2016/07/15(金) 18:36:53.00ID:kzVyt7ZA0 新バージョンの解説記事とかは書かれないんですか?(読みたい)
255名無しさん@お腹いっぱい。 (ワッチョイW 8a32-VzEl)
2016/07/16(土) 01:17:02.43ID:N6yx45UH0 死んでね?
256名無しさん@お腹いっぱい。 (ワッチョイW b039-4wno)
2016/07/16(土) 01:25:56.15ID:dEJ3j/L/0 おまえはもう
257名無しさん@お腹いっぱい。 (ワッチョイ bb0f-L3Fl)
2016/07/16(土) 02:11:45.11ID:S43VbK8v0 ,,ィニニヽ彡彡彡彡ミニ三ミ、
,ィミシ彡ミミ、゛彡彡彡三ミ、彡イ三;ヽ
{彡y彡彡y彡ミ 彡彡三三彡Y彡三ミ}
{ツ彡シィイイ彡ミ 彡三ミミシシヾミ三シ
(彡彡イ/////ノ〃〃ハ;ヾヾミ三彡Y 三)
{彡y///イ/ ミヾヾミ三彡Yシイ
Y((( / `ミミ三三彡イミ、
!、,,,_ _,,,..--- ゛ミ,ィイi }ミ三;シ
}T゛'tゝ .:´ ィ弋カ'- Y/5 /i川イ
!  ̄ .i :.  ̄ ... ーノミト、シ
',:.:. ,' ::. .:.:.:.: iイミ三ソ
', ヽ ー !::ミミ三リ
ヽ. ゛'三‐‐‐'` ノ :::iーーー'
`、 , ' : :',
` ー-┬‐ ' : :ヽ
| : : \
___....l:: :: __ , ---.ヽ
シンディ・ルー (1984- インド )
,ィミシ彡ミミ、゛彡彡彡三ミ、彡イ三;ヽ
{彡y彡彡y彡ミ 彡彡三三彡Y彡三ミ}
{ツ彡シィイイ彡ミ 彡三ミミシシヾミ三シ
(彡彡イ/////ノ〃〃ハ;ヾヾミ三彡Y 三)
{彡y///イ/ ミヾヾミ三彡Yシイ
Y((( / `ミミ三三彡イミ、
!、,,,_ _,,,..--- ゛ミ,ィイi }ミ三;シ
}T゛'tゝ .:´ ィ弋カ'- Y/5 /i川イ
!  ̄ .i :.  ̄ ... ーノミト、シ
',:.:. ,' ::. .:.:.:.: iイミ三ソ
', ヽ ー !::ミミ三リ
ヽ. ゛'三‐‐‐'` ノ :::iーーー'
`、 , ' : :',
` ー-┬‐ ' : :ヽ
| : : \
___....l:: :: __ , ---.ヽ
シンディ・ルー (1984- インド )
258名無しさん@お腹いっぱい。 (ワッチョイW c553-4wno)
2016/07/16(土) 09:57:24.60ID:2YtzRzg40 このソフトを使う場合、HBM2のVegaとGP100のPascalではどちらのほうが早く処理できますか?
259名無しさん@お腹いっぱい。 (ワッチョイ 323f-EqXU)
2016/07/16(土) 14:03:31.11ID:E/RHyF4m0 ここに書いておいたら読んでもらえるかな
caffe版の1.1.6を使用しています
変換も早くなり、レベル0も実装されて気に入っていますが
ちょっとした不具合を見つけましたので連絡です
・「ノイズ除去と拡大」または「ノイズ除去」モードでノイズ除去レベルを
1以上から0にした時、ファイル名がLevel0にならない
変換モードを変えてから元のモードに戻るとファイル名がLevel0になるので、
レベル0ラジオボタンのクリック時にファイル名変更処理が抜けているのかも
・ノイズ除去の自動判別が効いていない?
元々選択されていた除去レベルで処理している感じ
caffe版の1.1.6を使用しています
変換も早くなり、レベル0も実装されて気に入っていますが
ちょっとした不具合を見つけましたので連絡です
・「ノイズ除去と拡大」または「ノイズ除去」モードでノイズ除去レベルを
1以上から0にした時、ファイル名がLevel0にならない
変換モードを変えてから元のモードに戻るとファイル名がLevel0になるので、
レベル0ラジオボタンのクリック時にファイル名変更処理が抜けているのかも
・ノイズ除去の自動判別が効いていない?
元々選択されていた除去レベルで処理している感じ
260名無しさん@お腹いっぱい。 (ワッチョイ ca89-8xJT)
2016/07/16(土) 18:09:29.57ID:hnFQHF9f0 >>259
『ノイズ除去(自動判別)と拡大』って readme によれば
『拡大を行います。入力がJPEG画像の場合のみノイズ除去も行います』
だから、もともと jpeg と png など混在した対象をまとめて変換する時用の
「”ノイズ除去適用対象を自動判別”と拡大」であって
「”ノイズ除去レベルを自動的に選択”と拡大」するという意図は
含まれていないような(実際そういう動作だし)
以前『自動判別』ってなにをどう? と思って readme 読んだ時にそう理解した
『ノイズ除去(自動判別)と拡大』って readme によれば
『拡大を行います。入力がJPEG画像の場合のみノイズ除去も行います』
だから、もともと jpeg と png など混在した対象をまとめて変換する時用の
「”ノイズ除去適用対象を自動判別”と拡大」であって
「”ノイズ除去レベルを自動的に選択”と拡大」するという意図は
含まれていないような(実際そういう動作だし)
以前『自動判別』ってなにをどう? と思って readme 読んだ時にそう理解した
261名無しさん@お腹いっぱい。 (ワッチョイ 3239-eb7y)
2016/07/16(土) 23:30:51.94ID:W/gd8pMi0 waifu2x-caffe ver 1.1.6.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6.1
コマンドラインオプションでノイズ除去レベル0が指定できなかったバグを修正
GUI版でノイズ除去レベル0ラジオボタンを押した時に出力ファイル名サフィックスが変化しないバグを修正
中国語(簡体字)訳が正しく表示されなかったバグを修正
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6.1
コマンドラインオプションでノイズ除去レベル0が指定できなかったバグを修正
GUI版でノイズ除去レベル0ラジオボタンを押した時に出力ファイル名サフィックスが変化しないバグを修正
中国語(簡体字)訳が正しく表示されなかったバグを修正
262名無しさん@お腹いっぱい。 (ワッチョイ 8a1d-8xJT)
2016/07/17(日) 11:24:55.20ID:xLDHp9GO0 「ノイズ除去(Level0)と拡大」と「拡大」ってどう違うの?
263186 (ワッチョイ 3239-eb7y)
2016/07/17(日) 13:38:19.22ID:0l5V0UQR0 >>262
ノイズ除去(Level0)はノイズ除去しないわけじゃなくて極弱めにする
ノイズ除去(Level0)はノイズ除去しないわけじゃなくて極弱めにする
264名無しさん@お腹いっぱい。 (ワッチョイ e6c4-BKa+)
2016/07/17(日) 16:28:14.30ID:5LD6v75S0 waifu2x-c-c-with-bat使ってみたけど
変換しようとするとidentifyがコマンドとして認識されていませんとかで動かない
そもそもhtaアイコンや起動後のGUIにD&Dも出来ない、なんか使い方が間違ってるのか?
変換しようとするとidentifyがコマンドとして認識されていませんとかで動かない
そもそもhtaアイコンや起動後のGUIにD&Dも出来ない、なんか使い方が間違ってるのか?
265名無しさん@お腹いっぱい。 (ワッチョイ e6c4-BKa+)
2016/07/17(日) 16:37:52.40ID:5LD6v75S0 ソースを見る感じ、「下の[参照]でファイルを選択してください」の上の黒帯のところにD&Dするっぽいけど
禁止マーク出て画像持っていけん・・・良く分からん
禁止マーク出て画像持っていけん・・・良く分からん
266名無しさん@お腹いっぱい。 (ワッチョイ 323f-EqXU)
2016/07/18(月) 02:32:36.92ID:kLwhW3GT0267名無しさん@お腹いっぱい。 (ワッチョイW e289-jj/H)
2016/07/19(火) 14:21:24.05ID:3zLqneLK0 電書向けのモデルはどれがいいのかしら
268名無しさん@お腹いっぱい。 (ワッチョイ 69d2-ewdN)
2016/07/19(火) 23:46:09.06ID:9/EyUQef0 イラストモデルは,青空文庫PDFをランダムなフォントサイズで画像に書きだしたものを学習データに混ぜてる.
2%くらいだけど.
2%くらいだけど.
269名無しさん@お腹いっぱい。 (ワッチョイ fb91-hASY)
2016/07/20(水) 00:17:56.50ID:r27zJO+90 そもそもNN系の手法使う必用無いと思うんだけど
270名無しさん@お腹いっぱい。 (ワッチョイ 96a2-PsRz)
2016/07/20(水) 10:14:04.74ID:Cc0UAxz90 落ちてる?
[web.lua] Error in RequestHandler, thread: 0x40336bf0 is dead.
▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼
/home/ubuntu/torch/install/share/lua/5.1/md5.lua:0: attempt to index a nil value
stack traceback:
.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:278: in function <.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:255>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:553: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:544>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:568: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:567>
▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲
[web.lua] Error in RequestHandler, thread: 0x40336bf0 is dead.
▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼
/home/ubuntu/torch/install/share/lua/5.1/md5.lua:0: attempt to index a nil value
stack traceback:
.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:278: in function <.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:255>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:553: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:544>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:568: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:567>
▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲
271名無しさん@お腹いっぱい。 (ワッチョイ 69d2-ewdN)
2016/07/20(水) 12:16:35.37ID:Mmd6XeiM0 夜中にサーバーの1台がそのエラー出し続けていたけど今は直っているし謎です.
APIに使っているHTTP Serverがわりと怪しいのでメモリをぶっ壊して変になったあと落ちてupstartが再起動したのかもしれない.
APIに使っているHTTP Serverがわりと怪しいのでメモリをぶっ壊して変になったあと落ちてupstartが再起動したのかもしれない.
272名無しさん@お腹いっぱい。 (スッップ Sd5f-eQ6f)
2016/07/21(木) 13:16:23.51ID:IR5KX4Jld 落ちてる
273名無しさん@お腹いっぱい。 (ワッチョイ 0325-iqWO)
2016/07/21(木) 13:55:35.59ID:9F1XqsII0 うちのPCじゃうごかないなあ
ヌーロンダブもどうなっとるんじゃ
ヌーロンダブもどうなっとるんじゃ
274名無しさん@お腹いっぱい。 (ワッチョイ ff39-0GON)
2016/07/25(月) 02:56:16.34ID:rCMzi4GJ0 githubで外国人の人も言ってたけど4倍拡大以上だとアーティファクトが出ることがあるね。
「4x and 8x are not fully supported because this is waifu2x」らしいからしょうがないけど。
元画像
http://www.pixiv.net/member_illust.php?mode=medium&illust_id=57922779
UpRGB old 4倍
http://i.imgur.com/Hx51mML.png
UpRGB new 4倍
http://i.imgur.com/34szjiL.png
RGB 4倍
http://i.imgur.com/2u8aM7q.png
「4x and 8x are not fully supported because this is waifu2x」らしいからしょうがないけど。
元画像
http://www.pixiv.net/member_illust.php?mode=medium&illust_id=57922779
UpRGB old 4倍
http://i.imgur.com/Hx51mML.png
UpRGB new 4倍
http://i.imgur.com/34szjiL.png
RGB 4倍
http://i.imgur.com/2u8aM7q.png
275名無しさん@お腹いっぱい。 (ワッチョイ 77d2-vKHU)
2016/07/25(月) 04:14:04.42ID:4alvlvzt0 数日前に更新したモデルでかなり出にくくなってると思ってたけどまだ出てますね
2倍の時点でも出てるようなのでもう少し頑張るか..
2倍の時点でも出てるようなのでもう少し頑張るか..
276名無しさん@お腹いっぱい。 (アウアウ Sacf-GUDH)
2016/07/25(月) 14:52:40.14ID:ANO+1WFAa 忙しくて久しく見れてなかったけど更新されたようですね。
>>274の問題は、継続ですか。
こうなるとやはりディープラーニング+αが必要なように思えますね。
ディープラーニングは優秀だけど完璧というわけではないので、なんらかの補助手段は必要なように思います。
こちらでも時間のあるときに新バージョンのテストはしてみますが、はてさて。
>>274の問題は、継続ですか。
こうなるとやはりディープラーニング+αが必要なように思えますね。
ディープラーニングは優秀だけど完璧というわけではないので、なんらかの補助手段は必要なように思います。
こちらでも時間のあるときに新バージョンのテストはしてみますが、はてさて。
277名無しさん@お腹いっぱい。 (ワッチョイW e739-eQ6f)
2016/07/25(月) 16:27:47.90ID:ul9PwMxA0 お疲れ様です〜
278名無しさん@お腹いっぱい。 (アウアウ Sa0f-eQ6f)
2016/07/27(水) 12:51:16.85ID:DXmASclwa 1.1.6caffe、cuDNNでjpg3千枚処理したら半分辺りでフリーズして660が死んだ
別pcに入れ替えても駄目
別pcに入れ替えても駄目
279名無しさん@お腹いっぱい。 (ワッチョイ 1b7c-iqWO)
2016/07/27(水) 15:16:02.75ID:Xcqs/u6a0 鯖代ケチって家PCなんか酷使するから…安いグラボでまだよかったな
この手の大量処理はクラウドに丸投げが基本だよ
この手の大量処理はクラウドに丸投げが基本だよ
280名無しさん@お腹いっぱい。 (ワッチョイ 77d2-h5PY)
2016/07/27(水) 15:54:13.79ID:Rr+2U8Ur0 酷使すると死ぬのか
熱?
熱?
281名無しさん@お腹いっぱい。 (ワッチョイW eba4-eQ6f)
2016/07/27(水) 16:10:27.99ID:x4weqHzw0282名無しさん@お腹いっぱい。 (ワッチョイ f391-BS4f)
2016/07/27(水) 18:00:57.04ID:wX21/+5Y0 クラウド高いよ、何言ってるんだ
283名無しさん@お腹いっぱい。 (ワッチョイ 77d2-h5PY)
2016/07/27(水) 18:56:13.21ID:Rr+2U8Ur0 そんなに冷やさなきゃいけないレベルだとグラボよりHDDが心配だし
安定動作に神経使うストレスの方が辛いのではないか
安定動作に神経使うストレスの方が辛いのではないか
284名無しさん@お腹いっぱい。 (ワッチョイ f391-BS4f)
2016/07/27(水) 22:37:48.16ID:wX21/+5Y0 自分で組んだのかな、普通はそんなことにならないぞ
285名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX)
2016/07/28(木) 01:17:52.38ID:8OVpTxFs0 オレもGTX260を使っていた頃は熱暴走で落ちるたびに冷凍してた
286名無しさん@お腹いっぱい。 (ワッチョイ 7a6d-c3jf)
2016/07/28(木) 03:51:48.66ID:LQWjxarY0 それって、waifu2xでCUDA使うと、下手なゲームよりGPUぶん回すってことか。恐ろしい……
287名無しさん@お腹いっぱい。 (ワッチョイW 4039-Y0VN)
2016/07/28(木) 06:20:34.66ID:Qyn3Cmpq0 たまーにワイフかけて保存したらその画像が真っ黒になって表示されないんだが
これは俺の使ってる画像整理アプリのせいか?
これは俺の使ってる画像整理アプリのせいか?
288名無しさん@お腹いっぱい。 (ワッチョイW 7fcf-xRNj)
2016/07/28(木) 09:17:53.32ID:/E0Xi9YX0 こういうときに免責事項が役に立つのよねえ
よかったな作者ともども!
よかったな作者ともども!
289名無しさん@お腹いっぱい。 (ワッチョイW 4039-Y0VN)
2016/07/29(金) 11:37:05.09ID:vm3S9VUb0 また落ちてるっぽい……
290名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX)
2016/07/30(土) 05:41:04.97ID:0EvlKLvb0 upconv_7の2xモデル更新しています。
>>274
とgithubで上げられている例はアーティファクトでなくなっています。(2倍においては)
まだ出るパターンはあるかもしれませんが、出にくくはなってると思います。
PSNRが高いほうが出てたりするので1/2にしたときに潰れてしまうメッシュ状の模様を
書き込んで復元しようとしていて、判断をミスった時にそういうアーティファクトとして出ているのだと思います。
ミスることがあっても平均的にはやったほうが良くなるみたいですが
平均より最悪が重要だと思うので、アーティファクトが出にくいパラメータを最終的に選ぶようにしました。
>>274
とgithubで上げられている例はアーティファクトでなくなっています。(2倍においては)
まだ出るパターンはあるかもしれませんが、出にくくはなってると思います。
PSNRが高いほうが出てたりするので1/2にしたときに潰れてしまうメッシュ状の模様を
書き込んで復元しようとしていて、判断をミスった時にそういうアーティファクトとして出ているのだと思います。
ミスることがあっても平均的にはやったほうが良くなるみたいですが
平均より最悪が重要だと思うので、アーティファクトが出にくいパラメータを最終的に選ぶようにしました。
291名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX)
2016/07/30(土) 06:19:54.81ID:0EvlKLvb0292名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-OJXh)
2016/07/30(土) 12:44:32.29ID:Jy30OL100 2倍や4倍のような拡大は実際めったにしないんだよなあ
様々な半端なサイズの元画像を、画面解像度の縦や横
(またはその2倍4倍など)を意識したサイズに拡大することがほとんど
waifu2xは学習モデルでの2倍拡大(場合によっては複数回処理)と
既存アルゴリズムでの拡大縮小を組み合わせてるんだっけ?
様々な半端なサイズの元画像を、画面解像度の縦や横
(またはその2倍4倍など)を意識したサイズに拡大することがほとんど
waifu2xは学習モデルでの2倍拡大(場合によっては複数回処理)と
既存アルゴリズムでの拡大縮小を組み合わせてるんだっけ?
293名無しさん@お腹いっぱい。 (ワッチョイ e099-E1uE)
2016/07/30(土) 13:14:42.89ID:YuJWhpry0 拡大縮小は切り捨てで微妙に画像サイズが変わってしまうことあるので縦横指定も欲しいかなあ
1920x1826→1280x1217→1920x1825(1825.5)
1920x1826→1280x1217→1920x1825(1825.5)
294名無しさん@お腹いっぱい。 (ワッチョイ 7a6d-c3jf)
2016/07/30(土) 13:36:45.89ID:vtJie8gc0 単純倍だから出来るのであって、縦、横それぞれ解像度指定とか込みにしたら、
今みたいな時間で出来ないような気がする。
今みたいな時間で出来ないような気がする。
295名無しさん@お腹いっぱい。 (ワッチョイ 7c28-oK17)
2016/07/30(土) 14:54:36.26ID:0Mmf+fna0 リキッドリサイズだっけ。大きさを変えたくない部分を残して画像の拡大縮小するような技術。あれを使ったほうが無難だと思う。
296名無しさん@お腹いっぱい。 (ワッチョイ b9b4-oK17)
2016/07/30(土) 16:43:14.63ID:UcJY7F8E0 2倍と4倍だけ使って、必要がある時は別のソフトで縮小してます
どうしてもこれ単体で完結しなきゃならないって事はないと思うの
どうしてもこれ単体で完結しなきゃならないって事はないと思うの
297名無しさん@お腹いっぱい。 (ワッチョイ cee1-oK17)
2016/07/30(土) 17:45:08.04ID:bIud6JO60 >>293
余分に拡大してから縦横指定の縮小すればいいんじゃね?
余分に拡大してから縦横指定の縮小すればいいんじゃね?
298名無しさん@お腹いっぱい。 (ワッチョイW 7fa4-Y0VN)
2016/07/30(土) 17:53:12.62ID:oKeh5+w+0 caffeのCUDAで7GB分のjpg処理した
丸1日かかってサイズが50GBに膨れ上がった。グラボは生きてる
丸1日かかってサイズが50GBに膨れ上がった。グラボは生きてる
299名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX)
2016/07/30(土) 19:15:15.90ID:0EvlKLvb0 新モデル(upconv_7)は構造上2の倍数にしか拡大できない。
最初のモデル(vgg_7)は任意サイズにBicubic等で拡大した結果を
CNNで修正するという形にすれば可変倍率にも対応できるけど
倍率固定して学習した時に精度で勝てないので、なら2倍にして縮小でいいのではと思ってる。
ただ縮小も気をつけないと縮小時にモアレやリンギングが出たりがある(これは一般的な話ではあるけど)。
最初のモデル(vgg_7)は任意サイズにBicubic等で拡大した結果を
CNNで修正するという形にすれば可変倍率にも対応できるけど
倍率固定して学習した時に精度で勝てないので、なら2倍にして縮小でいいのではと思ってる。
ただ縮小も気をつけないと縮小時にモアレやリンギングが出たりがある(これは一般的な話ではあるけど)。
300名無しさん@お腹いっぱい。 (ササクッテロT Sp69-xRNj)
2016/07/30(土) 19:23:28.97ID:n23zGb+9p 全然終わらないしCPUとメモリの使用が大変な事になってると思ったら拡大率が4000000になってた
301名無しさん@お腹いっぱい。 (ワッチョイ 7a39-ycy3)
2016/07/30(土) 23:42:41.79ID:sCD53oI10302名無しさん@お腹いっぱい。 (ワッチョイ b787-oK17)
2016/07/31(日) 09:55:52.67ID:NopmseGR0 >>299
特定倍率で縮小した際に全く同じ画像に戻るという謳い文句はどこいったんだろなw
特定倍率で縮小した際に全く同じ画像に戻るという謳い文句はどこいったんだろなw
303名無しさん@お腹いっぱい。 (ワッチョイ 68e2-oK17)
2016/07/31(日) 10:50:24.06ID:PAEE7ItP0 は?
304名無しさん@お腹いっぱい。 (ワッチョイ 7d91-XOua)
2016/07/31(日) 15:25:26.10ID:YE2fzuJR0 ニューラルネットより頭悪そう
305名無しさん@お腹いっぱい。 (ワッチョイ 7925-oK17)
2016/08/01(月) 14:14:51.51ID:s/CT/hUD0 AIやシンギュラがこれだけ進歩したんだから画像処理も
単なる塗りつぶしじゃなくてもっと賢い方法が出ないかな。
昔の映画やレコード音源の修正でも同じ、劣化逸失した情報を
量子演算で取り戻すような、根本的なところでの革新が必要。
やぱり人間の脳みその性能上限に縛られてる?だろ
そういや水着の布地て体積の半分以上はすきまの空間であり
そこを通り抜けてくる光線は多量に存在するはず。
その軌跡を光学補正して美少女の素肌映像を再現する
すきま光線解析ソフトが出ないかな?
あの光線が再利用されず無駄に散逸してるのは残念
単なる塗りつぶしじゃなくてもっと賢い方法が出ないかな。
昔の映画やレコード音源の修正でも同じ、劣化逸失した情報を
量子演算で取り戻すような、根本的なところでの革新が必要。
やぱり人間の脳みその性能上限に縛られてる?だろ
そういや水着の布地て体積の半分以上はすきまの空間であり
そこを通り抜けてくる光線は多量に存在するはず。
その軌跡を光学補正して美少女の素肌映像を再現する
すきま光線解析ソフトが出ないかな?
あの光線が再利用されず無駄に散逸してるのは残念
306名無しさん@お腹いっぱい。 (ワッチョイW 75d2-yd0p)
2016/08/01(月) 14:56:45.65ID:XumSCgBa0 レンダリングに年単位かかりそうだな
307名無しさん@お腹いっぱい。 (ワッチョイ 7cb5-oK17)
2016/08/01(月) 16:42:33.48ID:HGp6ELjo0 >>305
ゴッホの油絵の自画像を写真にするデモを見たことあるからやればできるんじゃね
ゴッホの油絵の自画像を写真にするデモを見たことあるからやればできるんじゃね
308名無しさん@お腹いっぱい。 (ワッチョイ 68e2-oK17)
2016/08/01(月) 16:51:58.38ID:HwLXQe2J0 受光器に達するまでに光が混ざって分解不能になってるから無理だろ
309名無しさん@お腹いっぱい。 (ワッチョイ dd15-oK17)
2016/08/02(火) 13:05:32.05ID:fGveZl970 AI利用の写真アート化アプリ、Prismaが大ブーム―大手ソーシャルメディアが買収?
http://jp.techcrunch.com/2016/07/20/20160719prismagram/
http://jp.techcrunch.com/2016/07/20/20160719prismagram/
310名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX)
2016/08/02(火) 13:17:49.07ID:Vyq+NoRf0 waifu2xの作者「Prismaはneural styleのパクリ」
311名無しさん@お腹いっぱい。 (ワッチョイ 3da1-UCuX)
2016/08/03(水) 06:41:47.32ID:oVUNsKD/0 Release ver 1.1.7
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7
upconvモデルを更新
標準で使われるモデルをupconv_7_anime_style_art_rgbに変更
GUI版でupconvモデルが上に表示されるようにした
GUI版でノイズ除去レベルを0を変えても出力ファイル名が変化しないバグを修正
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7
upconvモデルを更新
標準で使われるモデルをupconv_7_anime_style_art_rgbに変更
GUI版でupconvモデルが上に表示されるようにした
GUI版でノイズ除去レベルを0を変えても出力ファイル名が変化しないバグを修正
312名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX)
2016/08/03(水) 10:29:08.49ID:muLCaGi+0 UpRGBはノイズ除去だけした時に一度拡大してから縮小していると聞きましたが
デフォルトにしまうとそこに不安がある気がします。
拡大縮小は結構劣化を生むと思うので、構造上難しいならいっそUpRGBでノイズ除去のみはエラーに倒してもいいように思っています。
一応JSON側にarch_name: upconv_7/vgg_7を入れてますが。
デフォルトにしまうとそこに不安がある気がします。
拡大縮小は結構劣化を生むと思うので、構造上難しいならいっそUpRGBでノイズ除去のみはエラーに倒してもいいように思っています。
一応JSON側にarch_name: upconv_7/vgg_7を入れてますが。
313名無しさん@お腹いっぱい。 (ワッチョイW 6b1a-d+5h)
2016/08/06(土) 17:25:26.75ID:sO6XeMu60 最近になってcafeとmultiがあることに気づいたんだけど
これってどちらも性能は同じなのかな?
multiのほうが画像単体で複数変換できるから便利な気もしないでもないけど
どなたか細かな仕様の違いご存知でしょうか
これってどちらも性能は同じなのかな?
multiのほうが画像単体で複数変換できるから便利な気もしないでもないけど
どなたか細かな仕様の違いご存知でしょうか
314名無しさん@お腹いっぱい。 (ワッチョイ 67d2-CqAC)
2016/08/06(土) 21:11:33.14ID:Yf7P2RxD0 waifu2x-caffe(最新版)はウェブ版(waifu2x.udp.jp)とほとんど同じはずです。
逆にそれ以外は使っているモデルが古いなどで細かく性能を測るとスコアは低いと思います。
https://triple-underscore.github.io/css-images/pixel-art-small.png
この画像をノイズ除去なし2倍で変換してみて
良し悪しに関わらず出てくる画像がウェブ版と異なる場合は
使っているwaifu2xのバージョンが古いです。
この画像はバージョンによって異なるアーティファクト(ノイズ)が出てくる呪いの画像なので
バージョンを調べるのに便利です。
逆にそれ以外は使っているモデルが古いなどで細かく性能を測るとスコアは低いと思います。
https://triple-underscore.github.io/css-images/pixel-art-small.png
この画像をノイズ除去なし2倍で変換してみて
良し悪しに関わらず出てくる画像がウェブ版と異なる場合は
使っているwaifu2xのバージョンが古いです。
この画像はバージョンによって異なるアーティファクト(ノイズ)が出てくる呪いの画像なので
バージョンを調べるのに便利です。
315名無しさん@お腹いっぱい。 (ワッチョイW 6b1a-d+5h)
2016/08/06(土) 22:26:20.88ID:sO6XeMu60 >>314
ご丁寧にどうもです!
ご丁寧にどうもです!
316名無しさん@お腹いっぱい。 (ワッチョイW 6b1a-d+5h)
2016/08/06(土) 23:29:19.19ID:sO6XeMu60 アプリの圧勝でした
サイトは使わないほうがイイですね
ありがとうございました。
サイトは使わないほうがイイですね
ありがとうございました。
317名無しさん@お腹いっぱい。 (ワッチョイ 2fe1-+Lqe)
2016/08/07(日) 03:45:08.69ID:EY9TRI870 >「waifu2x-caffe_Difference_From_ver1.6.0.zip」はver 1.6.0からの差分ファイルが入っています。
ってあるんですが、ver 1.6.0がどこを探しても見つかりません・・・
ってあるんですが、ver 1.6.0がどこを探しても見つかりません・・・
318名無しさん@お腹いっぱい。 (ワッチョイ e78c-+Lqe)
2016/08/07(日) 09:47:07.72ID:LibYw5eS0319名無しさん@お腹いっぱい。 (ワッチョイ df5b-FBFv)
2016/08/07(日) 16:21:37.06ID:L8Aw2/wW0 それは ver 1.1.6 でしょw
320名無しさん@お腹いっぱい。 (ワッチョイ 6f04-MLGp)
2016/08/08(月) 02:22:38.85ID:Ex+ktA6y0 今の限界の3倍くらいの大きさの画像も処理できるようになると嬉しいわ
321名無しさん@お腹いっぱい。 (ワッチョイW f739-d+5h)
2016/08/08(月) 03:24:26.81ID:diE1g9JG0 そんなおっきい画像でなにすんの
322名無しさん@お腹いっぱい。 (プチプチ 17e2-+Lqe)
2016/08/08(月) 09:45:36.14ID:sUYNvMx200808 昔の解像度足りない画像を大サイズにできれば
出版用途もありそうだよね
出版用途もありそうだよね
323名無しさん@お腹いっぱい。 (プチプチ e78c-+Lqe)
2016/08/08(月) 13:12:24.04ID:NCCm5rlu00808 >>322
そういうのはフリーウェアじゃなくて高い市販のソフト使うんじゃね
そういうのはフリーウェアじゃなくて高い市販のソフト使うんじゃね
324名無しさん@お腹いっぱい。 (プチプチ 17e2-+Lqe)
2016/08/08(月) 18:22:35.20ID:sUYNvMx200808 その市販のソフトってどれ?
フォトショじゃできないでしょ
フォトショじゃできないでしょ
325名無しさん@お腹いっぱい。 (プチプチ e78c-+Lqe)
2016/08/08(月) 20:04:15.07ID:NCCm5rlu00808 フォトショップで手動で
326名無しさん@お腹いっぱい。 (ワッチョイ 17e2-vLVs)
2016/08/09(火) 13:38:23.30ID:/39gSS+B0 商業で使うなら一般人の財布酷使してないで経費で落とせよ
327名無しさん@お腹いっぱい。 (ワッチョイ ab32-+Lqe)
2016/08/09(火) 19:16:07.15ID:q0m6fQ5g0 jpeg出力する時にサブサンプリングも選びたい
328名無しさん@お腹いっぱい。 (ワッチョイ f791-PPHl)
2016/08/10(水) 11:08:28.80ID:FZaDpFlT0 どう考えても一般人じゃないだろw
329名無しさん@お腹いっぱい。 (ワッチョイW 5a41-w5BT)
2016/08/11(木) 10:59:07.17ID:vnZIwvLQ0 コミケでSIGNICO買ってくる予定だけど
今年も画像処理についてなのかな
今年も画像処理についてなのかな
330Youjyo2Sex. exe→cute(笑 (ワッチョイ 4d25-MTuc)
2016/08/11(木) 15:59:39.98ID:Q9oi6RJK0 .
いまあるPIXdateからアニメ塗りではこれが限界な。
技術って上限があるんだね、カツワイルも宗教家のw
そういや、宇宙のホワイトノイズには宇宙人の美幼女動画8Kや
フル裸16Kも含まれているだろうしあれを受信して2chで実況中継
するのはどうかな?異星人の幼女ポルノだから法律の埒外だし
俺をタイホするのは越権行為だっ!警察は引っ込めッ!
いまあるPIXdateからアニメ塗りではこれが限界な。
技術って上限があるんだね、カツワイルも宗教家のw
そういや、宇宙のホワイトノイズには宇宙人の美幼女動画8Kや
フル裸16Kも含まれているだろうしあれを受信して2chで実況中継
するのはどうかな?異星人の幼女ポルノだから法律の埒外だし
俺をタイホするのは越権行為だっ!警察は引っ込めッ!
331名無しさん@お腹いっぱい。 (ワッチョイ 39e5-MgLL)
2016/08/11(木) 16:35:57.24ID:4WxrPDBh0 わーお
332名無しさん@お腹いっぱい。 (ワッチョイ 4331-Q7Yp)
2016/08/11(木) 20:56:01.57ID:NtL5iqif0 お騒がせのhulu入れないマンだが
新ver(Vivaldi.1.3.551.30.x64.exe)に更新したらやっと見れるようになったよ
IDパス入力するログイン画面もでず入れるようになったよ
これで人にも心置きなく薦められるよ
新ver(Vivaldi.1.3.551.30.x64.exe)に更新したらやっと見れるようになったよ
IDパス入力するログイン画面もでず入れるようになったよ
これで人にも心置きなく薦められるよ
333名無しさん@お腹いっぱい。 (ワッチョイ 4331-Q7Yp)
2016/08/11(木) 20:56:33.37ID:NtL5iqif0 誤爆したよ
334名無しさん@お腹いっぱい。 (ワッチョイ fc5d-MTuc)
2016/08/12(金) 00:22:58.79ID:7mBYz0dm0 >>332-333
名前に偽りなし
名前に偽りなし
335名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw)
2016/08/12(金) 21:04:51.54ID:MqMeLtY+0 waifu2x-caffe初めて使ってみたけど処理に時間かかりすぎワロタ
336名無しさん@お腹いっぱい。 (ワッチョイW f883-xYo4)
2016/08/12(金) 22:42:09.72ID:SSR/eqY30 >>335
グラボ積みなされ
グラボ積みなされ
337名無しさん@お腹いっぱい。 (ワッチョイ 5c31-Q7Yp)
2016/08/13(土) 01:47:53.51ID:1UHkR4UU0 処理時間の目安CPUが分でGPUが秒
338名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw)
2016/08/13(土) 01:52:33.75ID:9hSx5rj10339名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw)
2016/08/13(土) 01:53:04.42ID:9hSx5rj10 誤爆
340名無しさん@お腹いっぱい。 (ワッチョイ fc5d-MTuc)
2016/08/13(土) 11:04:26.87ID:bUa0xV+O0 >>335
http://akiba-pc.watch.impress.co.jp/img/ah/docs/747/222/html/mdosv1604_b51.jpg.html
GeForce730辺りでも十分速くなるよ。750Tiだと760と其処まで大きな差は無くなるよ。
数千、数万(例えば動画などが該当する)と連続処理させるなら兎も角、
1回にせいぜい百枚くらいまでの作業なら1万程度の750tiがコスパ最強だと個人的には思う。
http://akiba-pc.watch.impress.co.jp/img/ah/docs/747/222/html/mdosv1604_b51.jpg.html
GeForce730辺りでも十分速くなるよ。750Tiだと760と其処まで大きな差は無くなるよ。
数千、数万(例えば動画などが該当する)と連続処理させるなら兎も角、
1回にせいぜい百枚くらいまでの作業なら1万程度の750tiがコスパ最強だと個人的には思う。
341名無しさん@お腹いっぱい。 (オッペケ Sr8d-3Vwo)
2016/08/13(土) 16:43:44.02ID:SETYS8X8r http://f.xup.cc/xup9unncade.jpg
なんじゃこりゃ。
なんじゃこりゃ。
342名無しさん@お腹いっぱい。 (ワッチョイ fcd2-MTuc)
2016/08/14(日) 08:19:13.96ID:K3dGTcF40 >>340
cpuってこんな時間かかんのかワロタ
cpuってこんな時間かかんのかワロタ
343名無しさん@お腹いっぱい。 (ワッチョイW 6149-3Vwo)
2016/08/15(月) 14:04:20.97ID:Gj8QJ9x30 中古のスリムデスクトップの240Wですが750Ti載りますか?
今は5570です
今は5570です
344名無しさん@お腹いっぱい。 (ワッチョイ f6e1-MTuc)
2016/08/15(月) 16:08:32.93ID:u7Yq65wf0 載るけどCUDA目的ならPICE3対応してるのかマザボのスペックを確認されたし
5570はPCIE2でしょ?
2用に3用を載せても下位速度で動いて本来の速度が出いならあまり意味ないし
5570はPCIE2でしょ?
2用に3用を載せても下位速度で動いて本来の速度が出いならあまり意味ないし
345名無しさん@お腹いっぱい。 (ワッチョイ fc5d-MTuc)
2016/08/15(月) 17:35:49.02ID:mNG+BBBj0 750tiは消費電力はさほど気にしなくてもいい。大したことない。補助電も特に要らない。
2スロット分の厚みがいけるなら俺も使っているクロシコのGF-GTX750Ti-LE2GHDが良い感じ。
負荷時でも静かで熱も神経質にならなくてもいいレベル。もちロープロ対応。
1スロしか駄目な場合はELSAとかがあるがやや高くてこれはロープロダメ。
他の人の回答待ち。730とかならあるのかなー?
2スロット分の厚みがいけるなら俺も使っているクロシコのGF-GTX750Ti-LE2GHDが良い感じ。
負荷時でも静かで熱も神経質にならなくてもいいレベル。もちロープロ対応。
1スロしか駄目な場合はELSAとかがあるがやや高くてこれはロープロダメ。
他の人の回答待ち。730とかならあるのかなー?
346名無しさん@お腹いっぱい。 (ワッチョイ fc5d-MTuc)
2016/08/15(月) 17:43:08.47ID:mNG+BBBj0 帯域による減速は事実としてあるけど、そこまで大きな差は出にくいと推測してみる。
3Dグリグリと違い使用メモリも数GBとか使うわけでも無いし。
帯域を使用する一番の浪費はメモリでしょ。
嫁2xはPCIExpress帯域関連に神経質にならなくて良いと電波してみるよ。
3Dグリグリと違い使用メモリも数GBとか使うわけでも無いし。
帯域を使用する一番の浪費はメモリでしょ。
嫁2xはPCIExpress帯域関連に神経質にならなくて良いと電波してみるよ。
347名無しさん@お腹いっぱい。 (ワッチョイ 7cb5-gQqU)
2016/08/31(水) 14:54:01.77ID:aBASHfO90 これすげー。ウィンドウズのパソコンで使えるようにしてくれー
深層学習でドット絵のような荒い写真を高画質化できるプログラムがGitHubに公開
http://pc.watch.impress.co.jp/docs/news/1017571.html
http://pc.watch.impress.co.jp/img/pcw/docs/1017/571/01.png
深層学習でドット絵のような荒い写真を高画質化できるプログラムがGitHubに公開
http://pc.watch.impress.co.jp/docs/news/1017571.html
http://pc.watch.impress.co.jp/img/pcw/docs/1017/571/01.png
348名無しさん@お腹いっぱい。 (ワッチョイ a0eb-/t5E)
2016/08/31(水) 17:23:14.73ID:tTltoSK70 つかえるだろ
349名無しさん@お腹いっぱい。 (ワッチョイ dee2-gQqU)
2016/08/31(水) 17:26:33.81ID:JHqzk+Ql0 証明写真みたいな画像限定のようだが
実用性は?
実用性は?
350名無しさん@お腹いっぱい。 (ワッチョイ 8039-hF2y)
2016/08/31(水) 17:31:27.09ID:ghbHSoMs0 元の画像と印象変わっちゃうけどそれっぽくでっちあげてるね
351名無しさん@お腹いっぱい。 (ワッチョイ 3d7c-gQqU)
2016/08/31(水) 17:31:42.96ID:z2XkjsyX0 ほぼ別人だが不気味の谷になってないのはすごい
将来はSF映画でよく見る監視カメラ拡大とかも出来るようになるんだろうなぁ
将来はSF映画でよく見る監視カメラ拡大とかも出来るようになるんだろうなぁ
352名無しさん@お腹いっぱい。 (ワッチョイ 7cd6-gQqU)
2016/08/31(水) 17:43:57.39ID:XOd6q/8e0 もはや別人じゃねーかw 当たり前の結果だけども
353名無しさん@お腹いっぱい。 (ワッチョイ 7cb5-gQqU)
2016/08/31(水) 18:11:45.69ID:aBASHfO90 >>348
フロントエンド作ってくれー。オッパイモードとかも欲しい。
フロントエンド作ってくれー。オッパイモードとかも欲しい。
354名無しさん@お腹いっぱい。 (ワッチョイ 7a6d-k0vn)
2016/08/31(水) 18:33:08.50ID:5aJAq/qJ0 AVのモザイクに対して処理したらどうなるんだろう、とゲスな事を考えてしまったw
355名無しさん@お腹いっぱい。 (ワッチョイ 7f5d-gQqU)
2016/08/31(水) 18:39:36.25ID:RNequdjc0 みんな息ふき替えしたかのようにレスしててワロ
356名無しさん@お腹いっぱい。 (ワッチョイ a344-gQqU)
2016/08/31(水) 19:26:57.78ID:ub1nr2q10 類似データで埋めるって感じか
モザイク除去が捗るな
モザイク除去が捗るな
357名無しさん@お腹いっぱい。 (ワッチョイW 6e8b-W75L)
2016/08/31(水) 19:36:42.08ID:k9FwYtUp0 学習データによっては実用性がありそうだな
358名無しさん@お腹いっぱい。 (ワッチョイ 7e69-gQqU)
2016/08/31(水) 19:40:47.54ID:ulWjFzeq0 16×16ドット → 64×64ドット
GTX 1080で3時間だとよw
GTX 1080で3時間だとよw
359名無しさん@お腹いっぱい。 (ワッチョイ 6d32-gQqU)
2016/08/31(水) 19:58:07.92ID:TyCiUy8i0 > This particular example was produced after training the network for 3 hours on a GTX 1080 GPU, equivalent to 130,000 batches or about 10 epochs.
英語わからんけど学習に3時間じゃ?
英語わからんけど学習に3時間じゃ?
360名無しさん@お腹いっぱい。 (ワッチョイ d59d-gQqU)
2016/08/31(水) 20:00:53.35ID:apIEx6eH0 ドット絵というと xBRZ の上位変換か?! と期待したけど
「GTX 1080で3時間」はつらすぎる……
「GTX 1080で3時間」はつらすぎる……
361名無しさん@お腹いっぱい。 (ワッチョイ 8199-12yH)
2016/08/31(水) 22:10:57.99ID:VxNgffX00 スッピン化しててワラタw
362名無しさん@お腹いっぱい。 (ワッチョイW 477c-bl/H)
2016/09/01(木) 00:32:03.04ID:29xlAkds0 以前のソニーのテレビに搭載されていたDRCのディープラーニング版みたいだね。
元の画像をいじくるより置き換えたほうが溶けなくていいのかも。
元の画像をいじくるより置き換えたほうが溶けなくていいのかも。
363名無しさん@お腹いっぱい。 (ワッチョイ 6fe2-wh/5)
2016/09/01(木) 01:54:24.98ID:hVMajEDe0 監視カメラの粗い画像から犯人像を復元するのに使えそうだな
しかしかなり違う顔になったりするので冤罪のもとにもなりそうだ
しかしかなり違う顔になったりするので冤罪のもとにもなりそうだ
364名無しさん@お腹いっぱい。 (ワッチョイ 67d7-eWV5)
2016/09/01(木) 02:15:33.23ID:pXg/9Tx30 >>347
科捜研の超解像技術が現実に…
科捜研の超解像技術が現実に…
365名無しさん@お腹いっぱい。 (ワッチョイ 3332-OBkd)
2016/09/01(木) 04:17:07.63ID:gdGgHeTp0 30年以内には下手な絵をプロのイラストレーターが書いたような絵に変換するプログラムが出そう
366名無しさん@お腹いっぱい。 (ワッチョイ 7315-wh/5)
2016/09/01(木) 11:48:07.29ID:3YqH18Y40 >>365
今、映画「シン・ゴジラ」ファン界隈で流行ってる○○調似顔絵とかソフトウェアが勝手にやってくれるようになると思う。
http://image.eiga.k-img.com/images/buzz/59900/a9b73721ebe711a6/320.jpg
http://buzz-netnews.com/wp-content/uploads/2016/08/639826a2fa230071f44d06266e2fc5b1.jpg
今、映画「シン・ゴジラ」ファン界隈で流行ってる○○調似顔絵とかソフトウェアが勝手にやってくれるようになると思う。
http://image.eiga.k-img.com/images/buzz/59900/a9b73721ebe711a6/320.jpg
http://buzz-netnews.com/wp-content/uploads/2016/08/639826a2fa230071f44d06266e2fc5b1.jpg
367名無しさん@お腹いっぱい。 (ワッチョイ 7315-wh/5)
2016/09/01(木) 13:35:55.74ID:3YqH18Y40 こういう絵画も写真調にしちゃうんだろうか。
http://kaoruko-trend.blog.so-net.ne.jp/_images/blog/_9d1/kaoruko-trend/m_2005-06-24.jpg
http://kaoruko-trend.blog.so-net.ne.jp/_images/blog/_9d1/kaoruko-trend/m_2005-06-24.jpg
368名無しさん@お腹いっぱい。 (ワッチョイ 6799-kcnE)
2016/09/02(金) 07:11:39.11ID:akMl2GII0 ネットじゃモザイクを解除できると思ってる奴多くてワロタ
モザイクの処理はドット混ぜてたり位置換えてたりするから無理po
モザイクの処理はドット混ぜてたり位置換えてたりするから無理po
369名無しさん@お腹いっぱい。 (ワッチョイ 6fe2-wh/5)
2016/09/02(金) 11:02:27.60ID:zmGVEAZp0 してるのとしてないのがあるし
370名無しさん@お腹いっぱい。 (ワッチョイ 5f5e-wh/5)
2016/09/02(金) 12:56:10.35ID:2rppqSTy0 昔画像に可逆的なマスクかけるソフトがあったなw
371名無しさん@お腹いっぱい。 (ワッチョイ 73f0-wh/5)
2016/09/05(月) 19:40:58.30ID:HkAh0Dw50 全層畳込みニューラルネットワークによるラフスケッチの自動線画化
http://hi.cs.waseda.ac.jp:8081/
使い方
1 「ファイルを選択」ボタンを押し、線画化したい画像を選択してください。
2 線画の簡略度を設定してください。
3 「線画化!」ボタンを押すと、線画化した結果が下の方に表示されます。
★システムの改善にご協力ください!★
現在のシステムはまだまだ発展途上であり、みなさんのラフスケッチをAIに学習させることでさらに精度が上がっていきます。ぜひシステムの改善にご協力ください。
http://hi.cs.waseda.ac.jp:8081/
使い方
1 「ファイルを選択」ボタンを押し、線画化したい画像を選択してください。
2 線画の簡略度を設定してください。
3 「線画化!」ボタンを押すと、線画化した結果が下の方に表示されます。
★システムの改善にご協力ください!★
現在のシステムはまだまだ発展途上であり、みなさんのラフスケッチをAIに学習させることでさらに精度が上がっていきます。ぜひシステムの改善にご協力ください。
372名無しさん@お腹いっぱい。 (ワッチョイ e79d-wh/5)
2016/09/05(月) 20:44:07.84ID:ncyZk6yB0373名無しさん@お腹いっぱい。 (ワッチョイ 6fe2-wh/5)
2016/09/06(火) 14:57:47.61ID:cnJtRy+R0 ラフっていうかアタリ程度だとまともな絵にはならないね
そりゃそうか
そりゃそうか
374名無しさん@お腹いっぱい。 (ワッチョイ 5fda-wh/5)
2016/09/06(火) 20:05:04.36ID:MFy5hrF30 HUNTER×HUNTERやBastardの雑誌版がコミックス版に!
375名無しさん@お腹いっぱい。 (ワッチョイ 9387-tq+X)
2016/09/08(木) 21:37:18.46ID:pimDce810 アカン、富樫がさらに怠けてまう
376名無しさん@お腹いっぱい。 (ワッチョイ c132-tq+X)
2016/09/08(木) 23:11:04.46ID:3XEPh2rd0 トーンとかベタの学習難しそうw
377名無しさん@お腹いっぱい。 (キュッキュ e6e2-tq+X)
2016/09/09(金) 16:13:10.17ID:bHeHK16U00909 ラフというかわりと完成した鉛筆画ならそれなりにいけそうな気がするねぇ
学校で描いた落書きとか突っ込んでみれば
学校で描いた落書きとか突っ込んでみれば
378名無しさん@お腹いっぱい。 (キュッキュ d099-sMwW)
2016/09/09(金) 20:59:58.26ID:kjPCajQ000909 てか富樫のラフ画をもとに処理して見せればいかにすごいかわかるんじゃね
379名無しさん@お腹いっぱい。 (ワッチョイ fba1-UKYW)
2016/09/11(日) 15:59:53.99ID:R2SaEzoR0 waifu2x-caffe ver 1.1.7.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7.1
GUI版にアイコン追加
crop_wとcrop_hが違う値の時にTTAモードを使うと出力がおかしくなるバグを修正
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7.1
GUI版にアイコン追加
crop_wとcrop_hが違う値の時にTTAモードを使うと出力がおかしくなるバグを修正
380名無しさん@お腹いっぱい。 (ワッチョイ fb5d-tq+X)
2016/09/11(日) 16:26:22.03ID:vpaofvjM0 >>379
ついに自作のコーヒーカップ・アイコンとお別れの日が来たか・・・
ついに自作のコーヒーカップ・アイコンとお別れの日が来たか・・・
381名無しさん@お腹いっぱい。 (ワンミングク MMbf-NmdU)
2016/09/18(日) 20:37:37.26ID:HtW6SWx/M waifu2x caffeでjpegをpngにした場合
waifu側でRGBに補完してpngで吐き出してくれるのですか?
それともYUVで処理した後単純なRGB変換をしてるのですか?
waifu側でRGBに補完してpngで吐き出してくれるのですか?
それともYUVで処理した後単純なRGB変換をしてるのですか?
382名無しさん@お腹いっぱい。 (ワッチョイ d7d2-tQpF)
2016/09/22(木) 14:59:25.14ID:pvC1fAbc0383名無しさん@お腹いっぱい。 (ワッチョイ 0ee1-5q76)
2016/09/22(木) 15:05:31.06ID:grDO1t9h0 フォトモデルがYUV処理なんだと思ってた
(´・ω・`)違うのか・・
(´・ω・`)違うのか・・
384名無しさん@お腹いっぱい。 (ワッチョイW 99ad-U20I)
2016/09/23(金) 00:36:37.52ID:ULFrB3kZ0 This website is hosted by the server of pixiv Inc
いつの間にやら
いつの間にやら
385名無しさん@お腹いっぱい。 (ワッチョイW 99ad-U20I)
2016/09/23(金) 00:38:45.22ID:ULFrB3kZ0 http://drawr.net
こことおなじIP
こことおなじIP
386名無しさん@お腹いっぱい。 (ワッチョイ 8039-cdMz)
2016/09/23(金) 01:14:54.91ID:RWE7EzK40 pixivの援助を受けはじめたのかな
387名無しさん@お腹いっぱい。 (ワッチョイ d7d2-tQpF)
2016/09/23(金) 03:23:03.25ID:T/2Nhf4Y0 今のところwaifu2x.udp.jpの接続先をEC2からピクシブ様が提供されている環境に切り替えた以上の意味はないです。
githubのwebブランチからデプロイするようにして頂いています。(広告等は追加されるかもしれません)
サーバー代とたまに落ちる問題は解決したんじゃないかと思います。
回線やハードウェアも以前よりいいと思います。
githubのwebブランチからデプロイするようにして頂いています。(広告等は追加されるかもしれません)
サーバー代とたまに落ちる問題は解決したんじゃないかと思います。
回線やハードウェアも以前よりいいと思います。
388名無しさん@お腹いっぱい。 (ワッチョイ 88e2-PW2+)
2016/09/23(金) 03:23:09.35ID:Y2UL0mT70 鯖うつしたのかな?
389名無しさん@お腹いっぱい。 (ワッチョイ 88e2-PW2+)
2016/09/23(金) 03:23:53.04ID:Y2UL0mT70 わーびっくりした
なるほどね
なるほどね
390名無しさん@お腹いっぱい。 (ワッチョイW 80e6-xdvH)
2016/09/26(月) 02:13:17.42ID:69hP3vNm0 multiっていちいちimgurにうpしてんのか?消せないの?
391名無しさん@お腹いっぱい。 (ワッチョイ 88e2-PW2+)
2016/09/26(月) 13:10:18.69ID:LOgjLQVp0 >>390
つ 削除要請
つ 削除要請
392名無しさん@お腹いっぱい。 (ワッチョイ fc5b-5q76)
2016/09/26(月) 15:17:59.26ID:m08Vz01s0 簡単な線を引くだけで自動で画像を生成してしまう「iGAN」がスゴイ
http://gigazine.net/news/20160926-igan/
iGANでどんなことができるのかを端的に現わしたのが以下の図。
http://i.gzn.jp/img/2016/09/26/igan/s01.png
http://gigazine.net/news/20160926-igan/
iGANでどんなことができるのかを端的に現わしたのが以下の図。
http://i.gzn.jp/img/2016/09/26/igan/s01.png
393名無しさん@お腹いっぱい。 (ワッチョイ d7d2-tQpF)
2016/09/27(火) 18:50:05.35ID:sSRb+qEN0394名無しさん@お腹いっぱい。 (ワッチョイW ae8b-Zv6o)
2016/09/27(火) 19:38:18.18ID:pNtkjlrq0 そういえば、アニメの輪郭線問題ってどうなったの?
395名無しさん@お腹いっぱい。 (ワッチョイW 59e6-xdvH)
2016/09/27(火) 19:58:31.55ID:UJb8XfhN0 >>393
クリックしたらi .imgur〜から始まるURLが見えた
クリックしたらi .imgur〜から始まるURLが見えた
396名無しさん@お腹いっぱい。 (ワッチョイ c6d3-lsIp)
2016/10/07(金) 16:48:21.16ID:/sntnc3p0 E8400で使ってみたら 1ページ辺り3分近くかかるな
i5-6600辺りに換装したら実用的になるかな?
i5-6600辺りに換装したら実用的になるかな?
397名無しさん@お腹いっぱい。 (ワッチョイ c387-lsIp)
2016/10/07(金) 18:08:29.61ID:cOmmgKXU0 安物でもいいからGPU
398名無しさん@お腹いっぱい。 (ワッチョイ c6d3-lsIp)
2016/10/07(金) 22:34:24.32ID:EEOkfHO00 GPUか AMD買う予定だったけどGeforceにしようかな
399名無しさん@お腹いっぱい。 (アウアウ Sac2-oEV5)
2016/10/08(土) 11:34:42.30ID:vdcelTt8a GeForceをディープラーニング目的で買うなら最低でも8xx世代、できれば9xx世代を買うべし
400名無しさん@お腹いっぱい。 (アウアウ Sac2-oEV5)
2016/10/08(土) 11:35:20.00ID:tmBt0+l9a もちろん10xx世代も含む
401名無しさん@お腹いっぱい。 (ワッチョイW 5cb3-I7ip)
2016/10/08(土) 15:57:18.55ID:mUNKQ9VA0 vega買う予定だけど、このソフトにはあまり向かないのかな…
402名無しさん@お腹いっぱい。 (ワッチョイ 7039-JwEk)
2016/10/08(土) 16:04:26.46ID:zhZwX8dM0 Caffeがamdで動くようになるって話があったような気がするけど進捗はどうなのかな
403名無しさん@お腹いっぱい。 (ワッチョイ 7039-JwEk)
2016/10/08(土) 16:40:36.33ID:zhZwX8dM0 experimentalって書いてるしまだ先の話かね
404名無しさん@お腹いっぱい。 (ワッチョイ 0ed3-/1jq)
2016/10/09(日) 12:04:39.02ID:3zkBwPsK0405名無しさん@お腹いっぱい。 (ワッチョイ 98e2-f8l3)
2016/10/09(日) 23:08:49.97ID:lkNtoejG0 AMDならwaifu2x-converter-cppがある
まあ更新が止まってるけど
まあ更新が止まってるけど
406名無しさん@お腹いっぱい。 (ワッチョイ aa20-lsIp)
2016/10/12(水) 02:08:10.89ID:DvgXjgYd0407名無しさん@お腹いっぱい。 (ワッチョイ 6f91-La2u)
2016/10/13(木) 00:34:06.01ID:9gJSMmWd0 waifu2xの論文マダー?
408名無しさん@お腹いっぱい。 (ワッチョイ d739-c7dp)
2016/10/14(金) 20:28:31.66ID:p7wth0l90 waifu2x-caffe ver 1.1.8
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8
CUDA Toolkitを8.0.44に更新(同梱しているdllも更新)
cuDNN v5.1に対応
アルファチャンネルが単色の場合、cv::INTER_NEARESTで拡大することで高速化
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8
CUDA Toolkitを8.0.44に更新(同梱しているdllも更新)
cuDNN v5.1に対応
アルファチャンネルが単色の場合、cv::INTER_NEARESTで拡大することで高速化
409名無しさん@お腹いっぱい。 (ワッチョイ d739-c7dp)
2016/10/14(金) 21:09:23.50ID:p7wth0l90 意図せず無意味なアルファチャンネル情報が付いている画像の変換が早くなった模樣
ただtwitter形式で上げられてるpngは単色じゃないから変わらないねえ
ただtwitter形式で上げられてるpngは単色じゃないから変わらないねえ
410名無しさん@お腹いっぱい。 (ワッチョイW 835d-Mdxn)
2016/10/15(土) 03:10:02.99ID:ary+qlce0 CUDA使えなくなった
このバージョンの推奨ドライバって何になる?
このバージョンの推奨ドライバって何になる?
411名無しさん@お腹いっぱい。 (ワッチョイ cf9d-8qPS)
2016/10/15(土) 11:33:50.20ID:K4B7brJK0 使えなくて一瞬焦った
推奨ドライバは知らないけどnVidiaのドライバを
368.81 → 373.06 にupdateして使えるようになって一安心
推奨ドライバは知らないけどnVidiaのドライバを
368.81 → 373.06 にupdateして使えるようになって一安心
412名無しさん@お腹いっぱい。 (ワッチョイ 3b51-8qPS)
2016/10/16(日) 12:12:23.85ID:ZYUiLLZr0 tanakamura版使ってるんだけどCUDAで処理させようとするとこんなエラーが出るんだけど俺環?
Iteration #6(128->128)...(94.5009[ms], 310.326[GFLOPS], 1.07752[GB/s])
Iteration #7(128->3)...(10.8175[ms], 63.5389[GFLOPS], 4.81689[GB/s])
total : 0.218784[sec], 263.632[GFLOPS]
OpenCV Error: Unspecified error (could not find a writer for the specified extension) in imwrite_, file C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp,
line 439
terminate called after throwing an instance of 'cv::Exception'
what(): C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp:439: error: (-2) could not find a writer for the specified extension in function imwrite_
This application has requested the Runtime to terminate it in an unusual way.
Please contact the application's support team for more information.
Iteration #6(128->128)...(94.5009[ms], 310.326[GFLOPS], 1.07752[GB/s])
Iteration #7(128->3)...(10.8175[ms], 63.5389[GFLOPS], 4.81689[GB/s])
total : 0.218784[sec], 263.632[GFLOPS]
OpenCV Error: Unspecified error (could not find a writer for the specified extension) in imwrite_, file C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp,
line 439
terminate called after throwing an instance of 'cv::Exception'
what(): C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp:439: error: (-2) could not find a writer for the specified extension in function imwrite_
This application has requested the Runtime to terminate it in an unusual way.
Please contact the application's support team for more information.
413名無しさん@お腹いっぱい。 (ワッチョイ 3b51-8qPS)
2016/10/16(日) 12:16:28.49ID:ZYUiLLZr0 原因はわからんが対処法はわかった
-o hogeはダメで-o hoge.pngは問題ない
-o hogeはダメで-o hoge.pngは問題ない
414名無しさん@お腹いっぱい。 (ワッチョイW ebad-mGJj)
2016/10/16(日) 12:29:18.64ID:t79GHdGS0 拡張子指定しないとどの形式で出力したらいいのかわからないじゃん
415名無しさん@お腹いっぱい。 (ワッチョイ 3b51-8qPS)
2016/10/16(日) 12:34:03.62ID:ZYUiLLZr0 そういう問題なんです?
普通に全部pngで出てくるのかと思った
普通に全部pngで出てくるのかと思った
416名無しさん@お腹いっぱい。 (ワッチョイ ffac-8qPS)
2016/10/19(水) 11:26:59.23ID:1zIroVsL0 waifu2x-converter-cpp
AMD版の更新おねがいしまつ!
AMD版の更新おねがいしまつ!
417名無しさん@お腹いっぱい。 (ワッチョイ 2199-b5os)
2016/10/22(土) 18:31:29.33ID:mx2PDzFg0 かなり久しぶりにみたら色々アップデートしててちょっと困惑してるんだが
bmpで出力する場合、以前は24bitだったが今のバージョンだと32bitになってるよね
これ前みたいに24bitのbmpで出力する方法ある?
bmpで出力する場合、以前は24bitだったが今のバージョンだと32bitになってるよね
これ前みたいに24bitのbmpで出力する方法ある?
418名無しさん@お腹いっぱい。 (ワッチョイ 2199-b5os)
2016/10/22(土) 18:35:15.31ID:mx2PDzFg0 ごめん
>>417はwaifu2x-caffeの話ね
>>417はwaifu2x-caffeの話ね
419名無しさん@お腹いっぱい。 (ワッチョイ 8039-JCRl)
2016/10/22(土) 19:57:26.52ID:fEyVsVpV0420名無しさん@お腹いっぱい。 (ワッチョイ 8039-JCRl)
2016/10/22(土) 20:28:48.85ID:fEyVsVpV0 あ、いや24bitのbmpを処理したら32bitになるっぽい?
421名無しさん@お腹いっぱい。 (ワッチョイ 2199-b5os)
2016/10/22(土) 20:39:09.10ID:mx2PDzFg0 >>419-420
こっちで確認した結果はbmp入力→bmp出力だとほぼ確実に32bitになる
「ほぼ」というのはそうならないパターンもあったので
最初にjpg入力→bmp出力をやると24bitのbmpで出て
そのあと続けてbmp入力->bmp出力すると24bitのまま出た
最初からbmp入力→bmp出力だと32bitになる
分けわからん
あ、一応全部GUIでのwaifu2x-caffe使用によるもので、設定は以下の通り
出力拡張子「.bmp」
変換モード「ノイズ除去」
ノイズ除去レベル「レベル0」
モデル「2次元イラスト(RGBモデル)」
分割サイズ「128」
こっちで確認した結果はbmp入力→bmp出力だとほぼ確実に32bitになる
「ほぼ」というのはそうならないパターンもあったので
最初にjpg入力→bmp出力をやると24bitのbmpで出て
そのあと続けてbmp入力->bmp出力すると24bitのまま出た
最初からbmp入力→bmp出力だと32bitになる
分けわからん
あ、一応全部GUIでのwaifu2x-caffe使用によるもので、設定は以下の通り
出力拡張子「.bmp」
変換モード「ノイズ除去」
ノイズ除去レベル「レベル0」
モデル「2次元イラスト(RGBモデル)」
分割サイズ「128」
422名無しさん@お腹いっぱい。 (ワッチョイ 8039-JCRl)
2016/10/22(土) 20:49:51.82ID:fEyVsVpV0423名無しさん@お腹いっぱい。 (ワッチョイ 2199-b5os)
2016/10/22(土) 21:01:39.50ID:mx2PDzFg0 ふむ、仕様かバグかしらんけどBMP→BMPでの24bit出力は無理そうかな
なんかコマンドラインからならオプションでできる、とかあったら知りたかったけどパッと見なさそうだし
大人しく出力後に別ソフトで変換するわ
なんかコマンドラインからならオプションでできる、とかあったら知りたかったけどパッと見なさそうだし
大人しく出力後に別ソフトで変換するわ
424名無しさん@お腹いっぱい。 (ワッチョイ 1c9c-7LPj)
2016/10/24(月) 01:50:33.33ID:ZlIEeXn30 そういやwaifu2x、派生版もMITやBSDライセンスが多いけれど
コレ使ったスマホアプリを有料や無料+広告で出しても大丈夫なんだろか
実用速度にするならPrismaのように外部専用鯖が必要になるから動画広告でも付けたいんだよね
コレ使ったスマホアプリを有料や無料+広告で出しても大丈夫なんだろか
実用速度にするならPrismaのように外部専用鯖が必要になるから動画広告でも付けたいんだよね
425名無しさん@お腹いっぱい。 (ワッチョイ fce9-AIfR)
2016/10/24(月) 14:09:10.83ID:PLW9ma850 Prismaは最近オフラインでも動作するようになった。
426名無しさん@お腹いっぱい。 (ワッチョイ 8039-JCRl)
2016/10/24(月) 14:48:03.78ID:Tv00xCEx0 >>424
それはもう、このスレに書き込むとかいう奥ゆかしいコミュニケーションじゃなくて作者に連絡取ったほうがいいんじゃないか
それはもう、このスレに書き込むとかいう奥ゆかしいコミュニケーションじゃなくて作者に連絡取ったほうがいいんじゃないか
427名無しさん@お腹いっぱい。 (ワッチョイ fc35-AIfR)
2016/10/24(月) 20:31:38.98ID:J/6YAUIY0428名無しさん@お腹いっぱい。 (ワッチョイ 1787-AIfR)
2016/10/24(月) 22:42:16.55ID:oIHJY+tR0 >427
GPL汚染されてないのにソース出す必要あるの?
GPL汚染されてないのにソース出す必要あるの?
429名無しさん@お腹いっぱい。 (ワッチョイ 2297-AIfR)
2016/10/24(月) 23:12:55.18ID:V2/WuydK0430名無しさん@お腹いっぱい。 (ワッチョイ fb91-5+P/)
2016/10/27(木) 19:02:40.13ID:/mmrCNGh0 実際作者はどのくらい儲かったのか気になるな
431名無しさん@お腹いっぱい。 (ワッチョイ 8739-nZcI)
2016/10/27(木) 19:37:21.88ID:3BsAGMNE0 赤字じゃろ
432名無しさん@お腹いっぱい。 (ワッチョイ e364-corf)
2016/10/27(木) 20:16:00.47ID:nEwOdHdh0433名無しさん@お腹いっぱい。 (ワッチョイ 7bb4-0DI1)
2016/10/27(木) 22:29:05.50ID:DHAG/L+X0 黒字の間しか鯖動かしてないんじゃなかったっけ
トータルではどうなのか知らんが
トータルではどうなのか知らんが
434名無しさん@お腹いっぱい。 (ワッチョイ d7d2-0DI1)
2016/10/28(金) 08:26:51.72ID:x25NJOMQ0 >>432
将来有望なボトラーだな
将来有望なボトラーだな
435名無しさん@お腹いっぱい。 (ワッチョイW 53f9-Jz20)
2016/10/28(金) 13:24:51.84ID:sangDm780 ロリポ法に引っかかる写真じゃないのか?
436名無しさん@お腹いっぱい。 (ワッチョイ d70f-GC0b)
2016/11/01(火) 01:09:19.68ID:PwTB2CzY0 Reshadeってどうなの?
写真の拡大には良さそうだが
写真の拡大には良さそうだが
437名無しさん@お腹いっぱい。 (ワッチョイ 57b5-0DI1)
2016/11/01(火) 12:41:44.14ID:rGOjCzh+0 >>436
ポスターみたいに大きく印刷したいときかな。
ポスターみたいに大きく印刷したいときかな。
438名無しさん@お腹いっぱい。 (ワッチョイ 7b9d-8n5s)
2016/11/08(火) 06:32:18.87ID:8JXudXNa0 http://www.itmedia.co.jp/news/articles/1611/07/news119.html
「わしが育てた」なやり方が取れるのか
組織だって重点的に応募すれば好みのタッチに近付くのかな? 弾かれるのかな?
どっちにしても楽しそう
「わしが育てた」なやり方が取れるのか
組織だって重点的に応募すれば好みのタッチに近付くのかな? 弾かれるのかな?
どっちにしても楽しそう
439名無しさん@お腹いっぱい。 (ワッチョイ f039-fyEo)
2016/11/08(火) 14:11:37.76ID:jWw7B6CU0 白黒写真の着色技術をイラストにも応用するのかな。某嫁2倍みたいだ。
440名無しさん@お腹いっぱい。 (ワッチョイW ba8c-m5qj)
2016/11/09(水) 03:30:07.07ID:hyCn3erA0 GIGAZINEにも先日モノクロ写真を自然なカラー写真にしてくれる研究のってたな
こりゃ2020年までには女性の水着写真を入力→その人の全裸画像出力まで行くと思った
DMMのAVパッケージからの顔写真やFBの顔写真の検索サービス売ってる人もいたしな
倫理的にこれやっていいのかって画像処理、
データ処理、データベース化が出てくるだろうね
今のビッグデータでさえプライバシー倫理的にどうなのって話でもあるが
倫理的にアウトなやつはコードで配布って形になる予感
こりゃ2020年までには女性の水着写真を入力→その人の全裸画像出力まで行くと思った
DMMのAVパッケージからの顔写真やFBの顔写真の検索サービス売ってる人もいたしな
倫理的にこれやっていいのかって画像処理、
データ処理、データベース化が出てくるだろうね
今のビッグデータでさえプライバシー倫理的にどうなのって話でもあるが
倫理的にアウトなやつはコードで配布って形になる予感
441名無しさん@お腹いっぱい。 (ワッチョイ f7a1-WVKM)
2016/11/10(木) 19:03:16.68ID:dIlzLCb/0 今まで通り個人の範疇で何をしようがそりゃ個人の自由よww
メーカー側が売ることが出来るかできないかはそりゃコマーシャル方法によるだろうなw
「水着の女を裸にできます」なんてコマーシャルじゃ確実にアウトwww
メーカー側が売ることが出来るかできないかはそりゃコマーシャル方法によるだろうなw
「水着の女を裸にできます」なんてコマーシャルじゃ確実にアウトwww
442名無しさん@お腹いっぱい。 (ワッチョイ 0ff3-5NgJ)
2016/11/11(金) 02:45:39.70ID:9qH54OVf0 ikorageの配布元が消えてる…
443名無しさん@お腹いっぱい。 (ワッチョイ 0f39-cYps)
2016/11/15(火) 13:48:33.70ID:UlmxwCUD0 Googleが低解像度画像を爆速で高画質化する機械学習を使った技術「RAISR」を発表 - GIGAZINE
http://gigazine.net/news/20161115-google-resarch-raisr/
http://gigazine.net/news/20161115-google-resarch-raisr/
444名無しさん@お腹いっぱい。 (アウアウアー Sa1f-QaFr)
2016/11/15(火) 14:09:45.93ID:tmMc38MOa 超解像は、リアルタイムで進行している。
ピッドーン、ピッドーン…
ピッドーン、ピッドーン…
445名無しさん@お腹いっぱい。 (ワッチョイ 0f39-cYps)
2016/11/15(火) 14:13:39.18ID:UlmxwCUD0 論文読んだかんじPSNRやSSIMはSRCNNより落ちるけど処理速度は圧倒的に早いな
SRCNNが数秒かかるところを0.1秒以下で出来てるっぽい(グラフ見間違えてなければ)
SRCNNが数秒かかるところを0.1秒以下で出来てるっぽい(グラフ見間違えてなければ)
446名無しさん@お腹いっぱい。 (ワッチョイW e7cf-9MLS)
2016/11/15(火) 16:06:21.30ID:FV8UZR3G0 ワイフは2次元特化しかこの先生きのこる術はないのか
447名無しさん@お腹いっぱい。 (ワッチョイ 576a-teht)
2016/11/15(火) 16:17:39.32ID:0ngnQcTC0 今後はデコードでなく、補間に適した方法で圧縮した小サイズの画像を転送して
モバイル端末側で拡大処理をするようなサービスも出てくるかもね
バッテリー持ちと帯域とのトレードオフになるだろうけどw
モバイル端末側で拡大処理をするようなサービスも出てくるかもね
バッテリー持ちと帯域とのトレードオフになるだろうけどw
448名無しさん@お腹いっぱい。 (ワッチョイ 97a4-teht)
2016/11/15(火) 18:41:26.50ID:FV4OX9Su0 >>447
「高圧縮率だが展開に負荷がかかる新しい圧縮フォーマット」と何が違うのか
「高圧縮率だが展開に負荷がかかる新しい圧縮フォーマット」と何が違うのか
449名無しさん@お腹いっぱい。 (ワッチョイW 6fb3-nbRD)
2016/11/15(火) 19:16:21.53ID:c8ZQtT620450名無しさん@お腹いっぱい。 (ワッチョイ 576a-teht)
2016/11/15(火) 19:20:44.51ID:5ND97o9T0451名無しさん@お腹いっぱい。 (ワッチョイ 0f39-cYps)
2016/11/15(火) 19:28:49.71ID:UlmxwCUD0 処理速度が発表通りなら確かに動画のアプコンも現実的な範疇かな
452名無しさん@お腹いっぱい。 (ワッチョイ 1721-REx9)
2016/11/15(火) 23:44:55.89ID:YYXeIyPo0 これweb版はpixivのサーバーで動いてるんだな
453名無しさん@お腹いっぱい。 (ワッチョイWW 4f7c-QaFr)
2016/11/16(水) 01:28:53.03ID:vMIkzin30 >>443
どこかでテストできるサイトはないのかな?
あるいはwaifu2xに「同じ写真のアップサンプリング版と高解像度版」のセットを学習に使用するの部分だけでも組み込んで、速度はともかく画質向上ができればとも思うけど
どこかでテストできるサイトはないのかな?
あるいはwaifu2xに「同じ写真のアップサンプリング版と高解像度版」のセットを学習に使用するの部分だけでも組み込んで、速度はともかく画質向上ができればとも思うけど
454名無しさん@お腹いっぱい。 (ワッチョイW e7cf-9MLS)
2016/11/16(水) 05:20:16.47ID:72HKYFC/0 2030年、日本人がモザイクを無修正にする技術を発明する
455名無しさん@お腹いっぱい。 (ラクッペ MM33-wOPQ)
2016/11/16(水) 10:45:19.54ID:ni5Hu/5nM >>454
US:モザイクってなんだ?
US:モザイクってなんだ?
456名無しさん@お腹いっぱい。 (ワッチョイ 6f4d-teht)
2016/11/16(水) 12:10:01.25ID:TWFcW6Ex0 >>453
無い
無い
457名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-fWEv)
2016/11/16(水) 19:32:16.85ID:uZcFhIHi0458名無しさん@お腹いっぱい。 (ワッチョイ 576a-teht)
2016/11/16(水) 19:52:31.28ID:4aJT7KUt0 写真で言えば、現状木の葉の重なりとか
同系色の小石及や砂漠の処理が難しいな
サンプル食わせても、思ったように描画してくれない
同系色の小石及や砂漠の処理が難しいな
サンプル食わせても、思ったように描画してくれない
459名無しさん@お腹いっぱい。 (ワッチョイW 1732-wOPQ)
2016/11/16(水) 19:55:59.77ID:HEIE/29H0 みんな論文読んだ?
読んだ範囲だと選択的に
デシタルフィルタで輪郭強調してるだけっぽいけど
表現力とかreceptive fieidはかなり
waifu2xの方が大きい
ただ家電組み込みとかは有利そう
読んだ範囲だと選択的に
デシタルフィルタで輪郭強調してるだけっぽいけど
表現力とかreceptive fieidはかなり
waifu2xの方が大きい
ただ家電組み込みとかは有利そう
460名無しさん@お腹いっぱい。 (ワッチョイ bf6d-YIW3)
2016/11/16(水) 21:42:25.30ID:cC8uL87B0 昔からよくある超解像のエッジ強調でボケ低減重視した結果
テクスチャ成分が消えて油絵見たいになる奴だな
今までは反復で処理してたのを1回?なんで速度が速いみたいな
あとで元画像の高周波成分に応じたディザ加えると視覚上はそれっぽく見えるようなの
テクスチャ成分が消えて油絵見たいになる奴だな
今までは反復で処理してたのを1回?なんで速度が速いみたいな
あとで元画像の高周波成分に応じたディザ加えると視覚上はそれっぽく見えるようなの
461名無しさん@お腹いっぱい。 (ワッチョイ bf91-m2xO)
2016/11/16(水) 21:50:26.19ID:NXjeS7A10 https://twitter.com/personasama/status/781839302791532544
ディープラーニングは詳しく無いんだけど、
マンガのコマを入力にしてこういう動画を出力させることって出来ますか?
ディープラーニングは詳しく無いんだけど、
マンガのコマを入力にしてこういう動画を出力させることって出来ますか?
462名無しさん@お腹いっぱい。 (ワッチョイW f7cf-iUf6)
2016/11/16(水) 21:51:54.96ID:mDwWgKfI0 余裕
463名無しさん@お腹いっぱい。 (ワッチョイ 4fe2-Ctj4)
2016/11/17(木) 06:17:49.45ID:SigrQOB30 あぁwaifuより溶けてねーかと思ったのはあながち間違ってなかったのか
464名無しさん@お腹いっぱい。 (アウアウエー Sa4f-GWT6)
2016/11/17(木) 22:15:42.90ID:naiHg0fia >>457
論文のままやるのではなく、waifu2x流に 「同じ写真のアップサンプリング版」と「(今までのモデルデータと同じ)高解像度版」の2パターンのモデルデータを作成して、
それぞれで超解像処理したあとに部分ごとにいいとこ取りするとかではダメなの?
論文のままやるのではなく、waifu2x流に 「同じ写真のアップサンプリング版」と「(今までのモデルデータと同じ)高解像度版」の2パターンのモデルデータを作成して、
それぞれで超解像処理したあとに部分ごとにいいとこ取りするとかではダメなの?
465名無しさん@お腹いっぱい。 (ワッチョイ 4fe2-Ctj4)
2016/11/18(金) 13:33:46.27ID:by0IP/QY0 koroshellのコンバータをcppに変えたら速くなった!
気がする
気がする
466名無しさん@お腹いっぱい。 (ワッチョイW b7f9-RUi6)
2016/11/18(金) 13:49:44.70ID:+onBe1T00 プラーシボウ公開です。
467名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-Dnyy)
2016/11/19(土) 13:56:59.27ID:FbdjsfyA0 madVRにNGU (Next Generation Upscaling)というのが入ったらしいので
動画に詳しい方はレポートをおねがいします。
動画に詳しい方はレポートをおねがいします。
468名無しさん@お腹いっぱい。 (ワッチョイ 0f39-lRaO)
2016/11/19(土) 14:18:38.38ID:GoobHDYL0 madVRスレに比較画像ありました
madVR Part8 ©2ch.net
http://potato.2ch.net/test/read.cgi/software/1469289290/404
404 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2016/11/05(土) 22:15:28.64 ID:FYlCTwMn0
http://forum.doom9.org/showthread.php?p=1784964#post1784964
新アルゴリズムはまだ時間かかりそうだが、比較画像がでてきた
NG1がmadshiの新アルゴリズム、Waifu2xは比較用でリアルタイムでは使用できない
http://madshi.net/madVR/AmericanDad/AmericanDadOrg.png
http://madshi.net/madVR/AmericanDad/AmericanDadJinc.png
http://madshi.net/madVR/AmericanDad/AmericanDadNNEDI256SR4.png
http://madshi.net/madVR/AmericanDad/AmericanDadNG1.png
http://madshi.net/madVR/AmericanDad/AmericanDadWaifu2x.png
madVR Part8 ©2ch.net
http://potato.2ch.net/test/read.cgi/software/1469289290/404
404 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2016/11/05(土) 22:15:28.64 ID:FYlCTwMn0
http://forum.doom9.org/showthread.php?p=1784964#post1784964
新アルゴリズムはまだ時間かかりそうだが、比較画像がでてきた
NG1がmadshiの新アルゴリズム、Waifu2xは比較用でリアルタイムでは使用できない
http://madshi.net/madVR/AmericanDad/AmericanDadOrg.png
http://madshi.net/madVR/AmericanDad/AmericanDadJinc.png
http://madshi.net/madVR/AmericanDad/AmericanDadNNEDI256SR4.png
http://madshi.net/madVR/AmericanDad/AmericanDadNG1.png
http://madshi.net/madVR/AmericanDad/AmericanDadWaifu2x.png
469名無しさん@お腹いっぱい。 (アウアウアー Sa1f-GWT6)
2016/11/19(土) 15:13:42.49ID:nJTgS5yva 実写でやってくれないとよくわからんぞ…
470名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-Dnyy)
2016/11/19(土) 16:15:24.16ID:FbdjsfyA0 Jincはぼやけすぎ
NNEDIはリンギングがひどい (ただ元の画像に入っているのでシャープにするときに強調してしまっているのかも)
NGUとwaifu2xはぱっと見同じに見えるけど線だけ見るとwaifu2xのほうくっきりしているのと
左の女性の口周りの色のにじみなどが消えているというのが自分の感想です。(このwaifu2xはノイズ除去あり?)
これでwaifu2xの100倍速いならすごくいいんじゃないでしょうか。
あと
>madVR v0.91.0
>* added new NGU (Next Generation Upscaling) algorithm
とあるのでもう入ってると思います。
NNEDIはリンギングがひどい (ただ元の画像に入っているのでシャープにするときに強調してしまっているのかも)
NGUとwaifu2xはぱっと見同じに見えるけど線だけ見るとwaifu2xのほうくっきりしているのと
左の女性の口周りの色のにじみなどが消えているというのが自分の感想です。(このwaifu2xはノイズ除去あり?)
これでwaifu2xの100倍速いならすごくいいんじゃないでしょうか。
あと
>madVR v0.91.0
>* added new NGU (Next Generation Upscaling) algorithm
とあるのでもう入ってると思います。
471名無しさん@お腹いっぱい。 (ワッチョイ 0f39-lRaO)
2016/11/19(土) 16:21:10.15ID:GoobHDYL0 >>469
実写だとこれ
http://forum.doom9.org/showthread.php?p=1785599#post1785599
NGUは輝度のみの拡大で、色差はBicubic60で拡大している模樣
面白そうだけどうちの低スペPCじゃmadVRは無理だなあ
実写だとこれ
http://forum.doom9.org/showthread.php?p=1785599#post1785599
NGUは輝度のみの拡大で、色差はBicubic60で拡大している模樣
面白そうだけどうちの低スペPCじゃmadVRは無理だなあ
472名無しさん@お腹いっぱい。 (ワッチョイ 6f48-XpIe)
2016/11/19(土) 16:21:54.60ID:teVDYV6E0 動画のキレイな拡大ならMPDNてのもオススメ。openclに対応してる。
473名無しさん@お腹いっぱい。 (ワッチョイ 0f39-lRaO)
2016/11/21(月) 19:33:59.35ID:v70Y0tAf0 BSD100 x2
PSNR 28.599 SSIM 84.309 Lanczos3
PSNR 28.729 SSIM 83.971 NNEDI3
PSNR 29.721 SSIM 87.238 SRCNN
PSNR 30.071 SSIM 87.456 NGU
PSNR 30.081 SSIM 87.471 waifu2x_Photo
PSNR 30.292 SSIM 87.885 waifu2x_UpPhoto
評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に
思いのほかNGUのスコアが高くなって困惑
madVRの開発者がNGUはGoogle RAISRより優れていると豪語してたけどマジかもしれない
PSNR 28.599 SSIM 84.309 Lanczos3
PSNR 28.729 SSIM 83.971 NNEDI3
PSNR 29.721 SSIM 87.238 SRCNN
PSNR 30.071 SSIM 87.456 NGU
PSNR 30.081 SSIM 87.471 waifu2x_Photo
PSNR 30.292 SSIM 87.885 waifu2x_UpPhoto
評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に
思いのほかNGUのスコアが高くなって困惑
madVRの開発者がNGUはGoogle RAISRより優れていると豪語してたけどマジかもしれない
474名無しさん@お腹いっぱい。 (アウアウエー Sa4f-GWT6)
2016/11/21(月) 20:29:10.26ID:8IXPzx3ea NGU、恐ろしい子!
ただ原理的なことがさっぱりわからんけど。
というか、静止画で手軽に試す手段とかあるの?
ただ原理的なことがさっぱりわからんけど。
というか、静止画で手軽に試す手段とかあるの?
475名無しさん@お腹いっぱい。 (ワッチョイ 0f39-lRaO)
2016/11/21(月) 20:43:35.85ID:v70Y0tAf0 >>474
> というか、静止画で手軽に試す手段とかあるの?
無いと思う。
MPC BEにpngを読み込ませてスクリーンショット撮影っていうのをひたすら繰り返した。
NNEDI3みたいにプラグイン形式で使うことが出来れば楽なのだが。
> というか、静止画で手軽に試す手段とかあるの?
無いと思う。
MPC BEにpngを読み込ませてスクリーンショット撮影っていうのをひたすら繰り返した。
NNEDI3みたいにプラグイン形式で使うことが出来れば楽なのだが。
476名無しさん@お腹いっぱい。 (ワイモマー MM87-DGos)
2016/11/21(月) 20:49:31.60ID:q5eJiKkPM さすがに画質ではwaifu2xにはあと1歩及ばないけど
動画をリアルタイムに拡大処理可能な速度でこれは凄いな
動画をリアルタイムに拡大処理可能な速度でこれは凄いな
477名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-Dnyy)
2016/11/21(月) 22:56:47.72ID:69aqH2zp0 >>473
>評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に
超解像の論文でよく使われているPSNRと書かれている再現できない謎の評価指標は
輝度だけのPSNRなのですが
MATLABの実装由来で輝度を16-235の範囲の整数にしたあとにMSEを計算しているため通常のPSNRより高くなっています。
(また縮小に使うアルゴリズムはBicubicに固定します。
waifu2xのtools/benchmark.luaで-filter Catrom -range_bug 1にした時にこの評価指標を再現できます)
この評価指標を使っている場合は、BicubicのPSNRが高いので見分けが付きます。
RAISRはSRCNNよりもPSNRは低いと書いてあるのでNGUはRAISRよりも高いと思います。
>評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に
超解像の論文でよく使われているPSNRと書かれている再現できない謎の評価指標は
輝度だけのPSNRなのですが
MATLABの実装由来で輝度を16-235の範囲の整数にしたあとにMSEを計算しているため通常のPSNRより高くなっています。
(また縮小に使うアルゴリズムはBicubicに固定します。
waifu2xのtools/benchmark.luaで-filter Catrom -range_bug 1にした時にこの評価指標を再現できます)
この評価指標を使っている場合は、BicubicのPSNRが高いので見分けが付きます。
RAISRはSRCNNよりもPSNRは低いと書いてあるのでNGUはRAISRよりも高いと思います。
478名無しさん@お腹いっぱい。 (アウアウエー Sa4f-GWT6)
2016/11/22(火) 20:59:13.01ID:+jtRMRs7a NGUの演算時間を延ばしていいから、もっと高精度に演算させるオプションとかないものなのか?
あるいは先日の例に習って
従来型waifu2xとNGUのいいとこ取りとか
あるいは先日の例に習って
従来型waifu2xとNGUのいいとこ取りとか
479名無しさん@お腹いっぱい。 (ワッチョイW 3753-CJWN)
2016/11/23(水) 08:59:40.21ID:Lehn7eyt0 これはすげえな…
久々にハイエンドグラボ買うか
久々にハイエンドグラボ買うか
480473 (ワッチョイ bf39-Yhbf)
2016/11/25(金) 02:32:42.55ID:Bfwfyes20 >>477
詳しい説明ありがとうございます。
MATLABもLuaも導入難易度が高そうだったのでWindowsで簡単に扱えるソフトで良いものが無いか探したところ、FFmpegを使えばだいたい同じような値が出ることが分かりました。
これでデータセットの中に縮小済みの画像が入っているものに関しては割と近い感じの数字が出せるかもしれません。
BSD100 x2
Y-PSNR 29.553 bicubic
Y-PSNR 29.917 Lanczos3
Y-PSNR 30.066 NNEDI3
Y-PSNR 31.096 SRCNN
Y-PSNR 31.190 SelfExSR
Y-PSNR 31.397 NGU
Y-PSNR 31.417 waifu2x_Photo
Y-PSNR 31.627 waifu2x_UpPhoto
詳しい説明ありがとうございます。
MATLABもLuaも導入難易度が高そうだったのでWindowsで簡単に扱えるソフトで良いものが無いか探したところ、FFmpegを使えばだいたい同じような値が出ることが分かりました。
これでデータセットの中に縮小済みの画像が入っているものに関しては割と近い感じの数字が出せるかもしれません。
BSD100 x2
Y-PSNR 29.553 bicubic
Y-PSNR 29.917 Lanczos3
Y-PSNR 30.066 NNEDI3
Y-PSNR 31.096 SRCNN
Y-PSNR 31.190 SelfExSR
Y-PSNR 31.397 NGU
Y-PSNR 31.417 waifu2x_Photo
Y-PSNR 31.627 waifu2x_UpPhoto
481名無しさん@お腹いっぱい。 (ワッチョイ 77d2-CHYl)
2016/11/25(金) 22:57:57.27ID:wsdFYFZc0 >>480
Bicubic, waifu2x_Photo, waifu2x_UpPhotoのスコアは手元と大体同じです。(差が0.01程度)
SelfExSRは2年くらい前にstate of the artと言っていたものなので
処理時間の制限つけた上でそれを超えてるのはすごいですね
もっと遅くしてよいという条件でどこまで上げれるのか気になる
Bicubic, waifu2x_Photo, waifu2x_UpPhotoのスコアは手元と大体同じです。(差が0.01程度)
SelfExSRは2年くらい前にstate of the artと言っていたものなので
処理時間の制限つけた上でそれを超えてるのはすごいですね
もっと遅くしてよいという条件でどこまで上げれるのか気になる
482名無しさん@お腹いっぱい。 (ワッチョイ 7764-znN9)
2016/11/28(月) 19:21:55.57ID:bX62daeg0483名無しさん@お腹いっぱい。 (ワッチョイW 9dcf-JQwj)
2016/11/28(月) 20:24:16.40ID:F0CAB6jW0 読唇術もコンピュータ処理の時代か
インチキ読唇術者ざまあ
インチキ読唇術者ざまあ
484名無しさん@お腹いっぱい。 (ワッチョイ 5b91-VyTH)
2016/12/08(木) 14:28:01.71ID:qFG9JG4v0 動画対応期待age
485名無しさん@お腹いっぱい。 (ワッチョイ 0f39-rCEc)
2016/12/08(木) 19:17:12.07ID:Y+k4cziV0 ICCプロファイルのサポートもするらしい
Don't ignore color profile · Issue #158
https://github.com/nagadomi/waifu2x/issues/158#issuecomment-265580773
Don't ignore color profile · Issue #158
https://github.com/nagadomi/waifu2x/issues/158#issuecomment-265580773
486名無しさん@お腹いっぱい。 (ワッチョイ 716a-drn7)
2016/12/09(金) 15:57:16.96ID:dkacw0nd0 PSNR値は視覚及び脳内での判定と一致しないんだよな
元写真を縮小→拡大テストで見比べると、SRCNN等は微妙と言うか
人間的感性も数値化できればいいんだが
そいや市販ソフトのPIXEL MASTERは昔使ってみたが(性能は微妙なところ)
今は公式ツイッターさえSpamBOTにのっとられてる有様だなw
元写真を縮小→拡大テストで見比べると、SRCNN等は微妙と言うか
人間的感性も数値化できればいいんだが
そいや市販ソフトのPIXEL MASTERは昔使ってみたが(性能は微妙なところ)
今は公式ツイッターさえSpamBOTにのっとられてる有様だなw
487名無しさん@お腹いっぱい。 (ワッチョイ e5d2-jbjz)
2016/12/10(土) 00:19:42.16ID:hDKiBCZm0 PSNRを高くにするは、ほとんど同じ入力から拡大結果が異なるようなときに
それらの平均を出力したほうが有利で、平均というのは無難だけどどの正解にも近くないので違和感を感じやすいと言われています。
人の感覚に近いものとして、Perceptual LossやGANを使ったモデルが出ていて
これは、拡大結果の違和感は少ないけど、元画像とは近くならないです。
(PSNRは低い、ぼやけている部分を強調したり、元画像とは異なるテクスチャを追記したりする)
ただ写真ではかなりすごい結果が出ています。
https://arxiv.org/abs/1609.04802(画像だけでも見る価値があると思う)
それらの平均を出力したほうが有利で、平均というのは無難だけどどの正解にも近くないので違和感を感じやすいと言われています。
人の感覚に近いものとして、Perceptual LossやGANを使ったモデルが出ていて
これは、拡大結果の違和感は少ないけど、元画像とは近くならないです。
(PSNRは低い、ぼやけている部分を強調したり、元画像とは異なるテクスチャを追記したりする)
ただ写真ではかなりすごい結果が出ています。
https://arxiv.org/abs/1609.04802(画像だけでも見る価値があると思う)
488名無しさん@お腹いっぱい。 (ワッチョイ 5389-+CJx)
2016/12/10(土) 00:29:51.46ID:SKbSNzE30489名無しさん@お腹いっぱい。 (ワッチョイ 4115-drn7)
2016/12/10(土) 11:48:30.46ID:l2pj7+Te0 >>488
これは使える。良い。
これは使える。良い。
490名無しさん@お腹いっぱい。 (ワッチョイ dd44-drn7)
2016/12/10(土) 13:42:59.29ID:QUqj3HOP0 そこに書いてある
>24Mbps、29.97fpsのFHDを4kに拡大してみました。
>・インターレースソースの問題(プログレッシブ化)。
>・音声のずれ。
>・かえって画質が劣化した。
>と感じています。
これは数字から推測するにBSを録画したTSファイルやろな
>24Mbps、29.97fpsのFHDを4kに拡大してみました。
>・インターレースソースの問題(プログレッシブ化)。
>・音声のずれ。
>・かえって画質が劣化した。
>と感じています。
これは数字から推測するにBSを録画したTSファイルやろな
491名無しさん@お腹いっぱい。 (ワッチョイ 5b91-VyTH)
2016/12/11(日) 21:12:36.54ID:bCV3NUNX0 中学生ぐらいが作ったサイトっぽいな(俺も作ったわぁ)
492名無しさん@お腹いっぱい。 (ワッチョイWW 8149-vGcf)
2016/12/12(月) 01:24:13.36ID:5NlvRxoI0 >>488
ノートン先生にブロックされたが?
ノートン先生にブロックされたが?
493名無しさん@お腹いっぱい。 (オイコラミネオ MMaf-Rmto)
2016/12/12(月) 07:57:55.52ID:eVBTFnPkM >>492
その先生にせもんじゃね?
その先生にせもんじゃね?
494名無しさん@お腹いっぱい。 (ワッチョイ 4feb-ifuQ)
2016/12/12(月) 09:36:41.73ID:xJ/FQoEf0 >>492
ノートン先生は落としたファイルの利用者が少ないとなんでもかんでも有害認定する池沼だぞ
ノートン先生は落としたファイルの利用者が少ないとなんでもかんでも有害認定する池沼だぞ
495名無しさん@お腹いっぱい。 (ワッチョイ a7b5-drn7)
2016/12/12(月) 11:05:25.67ID:pPy5/pF00 ノートン先生は引退して画商になった。今のノートン先生はレプタリアンが化けてる。
496名無しさん@お腹いっぱい。 (プレステP 7be1-drn7)
2016/12/12(月) 15:32:46.27ID:u7QO8mxr01212 うちのノートン先生は利用者が少ないファイルでウイルスの疑いがないならそういう風に注意だけ出してくれるけど違う先生なの?
497名無しさん@お腹いっぱい。 (KIMWW a7b3-IzEV)
2016/12/12(月) 18:03:31.51ID:UNxRc+zn01212 madvrのNGUのベンチが思った以上に凄いから動画に関してはそっちで充分かな
waifu2xだと溶けるのがやっぱり残念なのと、動画のパンでは、境界線でジャギーみたいなのが発生するのも凄く気になる
あと結局は、エンコに凄く時間がかかるのがネックだなぁ
静止画でのベンチは素晴らしいんだけどね
waifu2xだと溶けるのがやっぱり残念なのと、動画のパンでは、境界線でジャギーみたいなのが発生するのも凄く気になる
あと結局は、エンコに凄く時間がかかるのがネックだなぁ
静止画でのベンチは素晴らしいんだけどね
498名無しさん@お腹いっぱい。 (アウアウアー Sa53-rkgQ)
2016/12/12(月) 22:48:32.93ID:QU4Hkdhpa NGUがどう進化するか次第だと思う。
waifu2xのいいところと、NGUのいいところが、うまくミックスできると最強なんだろうけど。
waifu2xのいいところと、NGUのいいところが、うまくミックスできると最強なんだろうけど。
499名無しさん@お腹いっぱい。 (ワッチョイ e999-+lAG)
2016/12/13(火) 12:11:33.58ID:x32bOoQH0 光と闇が合わさって最強に見える
500名無しさん@お腹いっぱい。 (ワッチョイ e54d-u7iW)
2016/12/13(火) 13:09:33.02ID:8QyAZWHP0 500 Internal Server Error
501名無しさん@お腹いっぱい。 (ワッチョイ 0f39-rCEc)
2016/12/13(火) 17:56:43.54ID:FUHIn3Ai0 madVRスレでも言われていたけどNGUはジャギーが稀に出る事があるのでそこが改善されると嬉しい。
ちなみにwaifu2xで拡大すると綺麗に拡大されるのでやはり優秀だなあと思う。
ちなみにwaifu2xで拡大すると綺麗に拡大されるのでやはり優秀だなあと思う。
502名無しさん@お腹いっぱい。 (ワッチョイ dc39-sOSw)
2016/12/17(土) 23:32:04.49ID:2euhmd5j0 前々から思ってたんだけどノイズ除去の「最高」を精度とか品質が最高だと思ってどんな画像も最高で変換している人がいるような気がする。
例えばこの記事も元のjpgの品質が98くらいあるのに最高で変換している。
フルHDから4Kへ! Webのちからでプリキュアの壁紙を超高解像度化する|ギズモード・ジャパン
http://www.gizmodo.jp/2016/12/4k-precure-wall-paper.html
例えばこの記事も元のjpgの品質が98くらいあるのに最高で変換している。
フルHDから4Kへ! Webのちからでプリキュアの壁紙を超高解像度化する|ギズモード・ジャパン
http://www.gizmodo.jp/2016/12/4k-precure-wall-paper.html
503名無しさん@お腹いっぱい。 (ワッチョイ b144-0G5/)
2016/12/18(日) 00:11:40.73ID:CaPeROsC0 よりアニメ調を強くしたい時に強くする
504名無しさん@お腹いっぱい。 (ワッチョイW 8289-SvdB)
2016/12/18(日) 01:33:48.95ID:WvoSbh560 ノイズ除去強めるとのっぺりしないかなぁ
505502 (ワッチョイ dc39-sOSw)
2016/12/18(日) 02:02:20.19ID:PC7MwSWO0506名無しさん@お腹いっぱい。 (ワッチョイ 8e25-0G5/)
2016/12/18(日) 02:57:40.65ID:BgfFpOKG0 >>488
この作者普通にできる人だったのか
この作者普通にできる人だったのか
507488 (ワッチョイW 8289-SvdB)
2016/12/18(日) 11:56:30.17ID:7XzIowgg0508名無しさん@お腹いっぱい。 (ワッチョイ 87f0-0G5/)
2016/12/18(日) 12:18:17.73ID:7uHGUmfP0 音は後から直すのが良いんじゃね。
509名無しさん@お腹いっぱい。 (ワッチョイ dc39-sOSw)
2016/12/18(日) 15:45:47.64ID:MQqRPQLB0 動画は可変フレームレートとか色々あるから音ズレしやすいんだよねえ……
一部のWMVも可変フレームレートだから普通にFFmpegで変換すると音ズレする。
>>507
コメント欄に「このソフトで変換すると音声がずれる動画がyoutubeなどにあったらurlを教えてください。」って書いてあるからサンプル提供するかMediainfoで調べた情報送ればいいんじゃないかな。
一部のWMVも可変フレームレートだから普通にFFmpegで変換すると音ズレする。
>>507
コメント欄に「このソフトで変換すると音声がずれる動画がyoutubeなどにあったらurlを教えてください。」って書いてあるからサンプル提供するかMediainfoで調べた情報送ればいいんじゃないかな。
510名無しさん@お腹いっぱい。 (ワッチョイWW 40b3-KZTd)
2016/12/19(月) 00:02:19.88ID:yf+HOxwP0 普通にw2xcでエンコするのじゃ駄目なの?
511名無しさん@お腹いっぱい。 (ワッチョイ 4bd2-6/+Z)
2016/12/19(月) 12:40:53.53ID:X/IjQk7I0 caffeの最新と同等の動画用があるといいんだけどな
512名無しさん@お腹いっぱい。 (ワッチョイWW 40b3-KZTd)
2016/12/19(月) 19:11:26.22ID:yf+HOxwP0 まあそれが理想だなぁ
w2xcも更新が止まっちゃったし
w2xcも更新が止まっちゃったし
513名無しさん@お腹いっぱい。 (ワッチョイ dc39-sOSw)
2016/12/19(月) 19:46:10.94ID:HZi8fcUQ0 >>488のやつは内部にwaifu2x-caffe使ってる
導入も簡単だし、音ズレ対策やその他諸々の機能追加されたら使い勝手良くなるから頑張って欲しい
導入も簡単だし、音ズレ対策やその他諸々の機能追加されたら使い勝手良くなるから頑張って欲しい
514名無しさん@お腹いっぱい。 (ワッチョイ b144-0G5/)
2016/12/19(月) 20:12:37.28ID:cYoxZTIh0 モデルを入れ替えたらええのか
515名無しさん@お腹いっぱい。 (ワッチョイ af5c-VX9/)
2016/12/20(火) 11:37:38.14ID:7knK4IIC0 caffe使ったvapoursynthのプラグインがあるだろ
516名無しさん@お腹いっぱい。 (ワッチョイ dc39-sOSw)
2016/12/20(火) 18:15:15.96ID:dIqVOmMR0 導入することさえ出来ればVapourSynth-Waifu2x-caffeが品質も処理速度も最高だと思うけど導入難易度高いね。
517名無しさん@お腹いっぱい。 (ワッチョイ 9e4e-g1cW)
2016/12/22(木) 17:08:38.15ID:j+vsgrZa0 初心者新参なんだが、どれがおすすめ?
Windows10 Pro 32bit Core i5
メモリ4G
Windows10 Pro 32bit Core i5
メモリ4G
518名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU)
2016/12/22(木) 19:56:30.72ID:wcWe8A3W0 >>517
32bitのWindowsだとtanakamura氏のwaifu2x-converter-cppかな。
64bitのWindowsなら今でも更新が続いているwaifu2x-caffeがいいんだけどね。
今だとcaffe版にしか付いてない機能も多いし
32bitのWindowsだとtanakamura氏のwaifu2x-converter-cppかな。
64bitのWindowsなら今でも更新が続いているwaifu2x-caffeがいいんだけどね。
今だとcaffe版にしか付いてない機能も多いし
519名無しさん@お腹いっぱい。 (ワッチョイ 9e4e-g1cW)
2016/12/23(金) 09:29:37.03ID:2mEiHi6o0520名無しさん@お腹いっぱい。 (ワッチョイ f604-i5Qz)
2016/12/23(金) 13:04:02.41ID:arkHvTYf0 NeuralStyler 2.0
http://neuralstyler.com/index.html
http://neuralstyler.com/index.html
521名無しさん@お腹いっぱい。 (ワッチョイ f604-i5Qz)
2016/12/23(金) 19:29:05.72ID:arkHvTYf0 Sharper Scaling
http://a-sharper-scaling.com/
Bicubic interpolation
http://a-sharper-scaling.com/2b.jpg
Photoshop Preserve Details
http://a-sharper-scaling.com/2pd.jpg
A Sharper Scaling
http://a-sharper-scaling.com/2ass.jpg 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)
http://a-sharper-scaling.com/
Bicubic interpolation
http://a-sharper-scaling.com/2b.jpg
Photoshop Preserve Details
http://a-sharper-scaling.com/2pd.jpg
A Sharper Scaling
http://a-sharper-scaling.com/2ass.jpg 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)
522名無しさん@お腹いっぱい。 (ワッチョイ 96f6-8bDS)
2016/12/23(金) 20:14:40.66ID:zVH9+6gN0 今使ってるグラボがGTX670なんだけど、1060や1050にしたら処理早くなりますかね?
80枚のイラストを3.0倍、ノイズ除去1 jpgでやると20分位掛かっちゃうんです
80枚のイラストを3.0倍、ノイズ除去1 jpgでやると20分位掛かっちゃうんです
523名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU)
2016/12/23(金) 20:29:03.16ID:m2BLsLT80524名無しさん@お腹いっぱい。 (スッップ Sdec-4tq9)
2016/12/23(金) 20:38:32.67ID:PfQKYtOOd525名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU)
2016/12/23(金) 20:40:47.34ID:m2BLsLT80 ごめんグラボよく分からないから523は無しでw
526名無しさん@お腹いっぱい。 (ワッチョイ 96f6-8bDS)
2016/12/23(金) 20:52:17.48ID:zVH9+6gN0 >>524
ありがとうございます
ありがとうございます
527名無しさん@お腹いっぱい。 (スッップ Sdec-4tq9)
2016/12/23(金) 21:04:41.82ID:2fSZFBUld528名無しさん@お腹いっぱい。 (ワッチョイWW c68b-MMWo)
2016/12/23(金) 23:22:19.50ID:8WQGOLBP0 AMDから今度出るGPUが深層学習向けらしいけど
このソフトでも早くなるのかな
このソフトでも早くなるのかな
529488 (ワッチョイW 1289-W3gD)
2016/12/23(金) 23:46:46.15ID:rtorBkxO0530名無しさん@お腹いっぱい。 (中止 aa39-AwQU)
2016/12/24(土) 15:31:26.95ID:OFvUtbxO0EVE 処理速度をベンチマークするbat書いたよ
動くかどうか分からないけど奇特な人はチャレンジしてみて。
https://www.dropbox.com/s/5p9lnl62qnlk69v/waifu2x_benchmark_v1.zip?dl=0
動くかどうか分からないけど奇特な人はチャレンジしてみて。
https://www.dropbox.com/s/5p9lnl62qnlk69v/waifu2x_benchmark_v1.zip?dl=0
531名無しさん@お腹いっぱい。 (ワッチョイ 34e1-t+3N)
2016/12/28(水) 17:41:29.27ID:08hGKA3e0 オンボのノートPCじゃこのソフト使えないんでしょうか?
1280×800の画像1枚を2倍にしたいだけなんですが実行ボタン押しても残り時間:不明って出てフリーズします。
ウェブ版は普通に使えます
1280×800の画像1枚を2倍にしたいだけなんですが実行ボタン押しても残り時間:不明って出てフリーズします。
ウェブ版は普通に使えます
532名無しさん@お腹いっぱい。 (ワッチョイ f6f0-i5Qz)
2016/12/28(水) 17:49:55.63ID:BK0VqACV0 waifu2x-caffeなら時間かかるが動くんじゃね
533名無しさん@お腹いっぱい。 (ワッチョイ a00f-G+7F)
2016/12/28(水) 17:51:02.58ID:6hOu5zQ90 とにかくColorProfile対応してくれることを望みます
ちょっとライトエフェクトとかある差分画像とか全体が全く違う色になって困り果ててしまうわ
これで動画のエンコなんてしたらもう…
ちょっとライトエフェクトとかある差分画像とか全体が全く違う色になって困り果ててしまうわ
これで動画のエンコなんてしたらもう…
534名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)
2016/12/28(水) 18:09:49.29ID:08hGKA3e0535名無しさん@お腹いっぱい。 (ワッチョイ f6f0-i5Qz)
2016/12/28(水) 18:13:18.56ID:BK0VqACV0 >>534
じゃあ明日まで待つ
じゃあ明日まで待つ
536名無しさん@お腹いっぱい。 (ワッチョイ 9cd6-g1cW)
2016/12/28(水) 18:14:43.22ID:ClaiyaoC0537名無しさん@お腹いっぱい。 (ワッチョイWW c68b-WXY/)
2016/12/28(水) 18:39:45.55ID:ABw+Y6U70 >>533
大人しくmadvrのNGU使え
大人しくmadvrのNGU使え
538名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU)
2016/12/28(水) 18:40:08.51ID:YGxoh5pu0 初期設定だとCUDAで変換するようになってるけど環境がCUDAに対応しているかチェックする時に躓いているのかな
動作設定で使用プロセッサーをCPUにすれば動くと思うけど
動作設定で使用プロセッサーをCPUにすれば動くと思うけど
539名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)
2016/12/28(水) 19:59:06.13ID:08hGKA3e0 >>538
動作設定はCPUにしております。CPU使用率は80%以上でございます。Braswellでは非力すぎて動かないのかな
動作設定はCPUにしております。CPU使用率は80%以上でございます。Braswellでは非力すぎて動かないのかな
540名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU)
2016/12/28(水) 20:51:23.97ID:YGxoh5pu0541名無しさん@お腹いっぱい。 (ワッチョイ 9cd6-g1cW)
2016/12/28(水) 23:07:48.09ID:ClaiyaoC0 なんだ、終わるまで待てない人だったかw
542名無しさん@お腹いっぱい。 (ワッチョイ de50-i5Qz)
2016/12/28(水) 23:12:10.69ID:p2Cg+1Vx0 進捗バーが動くものだと思ってるんだろうな
543名無しさん@お腹いっぱい。 (ワッチョイ cee1-i5Qz)
2016/12/28(水) 23:49:47.12ID:9pSB/lfO0 あの進捗、ファイル数なんだよなぁ(´・ω・`) 大漁のファイル掘り込めばバー動くけど
オンボろノートで1280×800を2倍拡大だと数分掛かるんじゃね?
オンボろノートで1280×800を2倍拡大だと数分掛かるんじゃね?
544名無しさん@お腹いっぱい。 (ワッチョイ f6f0-i5Qz)
2016/12/28(水) 23:53:04.70ID:BK0VqACV0 重たい処理したいときはこのあたりのソフト使うと良いよ
【優先度】CPU最適化スレ 3CPU【自動変更】
http://potato.2ch.net/test/read.cgi/software/1327059116/
【優先度】CPU最適化スレ 3CPU【自動変更】
http://potato.2ch.net/test/read.cgi/software/1327059116/
545531 (ワッチョイW b2e1-EzRd)
2016/12/30(金) 14:31:11.67ID:tIIWopzb0 辛抱強く待ってたら一応完了したのですが出力先を見たら何もできていませんでした‥.
モデルのUpPhotoとphotoの違いは何でしょうか?
モデルのUpPhotoとphotoの違いは何でしょうか?
546名無しさん@お腹いっぱい。 (ワッチョイ f2e1-Sa8B)
2016/12/30(金) 14:40:02.55ID:RVSItgrB0 出力先指定してあるの?違う所見てない? それか上書になってない?
無印は標準モデル
Up印は速度優先モデル(と言っても倍程度。出来上がりに大差はないけど物によっては気になるかもしれない)
無印は標準モデル
Up印は速度優先モデル(と言っても倍程度。出来上がりに大差はないけど物によっては気になるかもしれない)
547名無しさん@お腹いっぱい。 (ワッチョイ d3f6-Eko0)
2016/12/30(金) 17:02:37.88ID:G+DVIbZ50 1060が届いたので試してみました
・・・・・・・・・・あまり変わっていない?
分割サイズを128から240にしたけど、う〜ん
後cuDNNってなんぞ?
・・・・・・・・・・あまり変わっていない?
分割サイズを128から240にしたけど、う〜ん
後cuDNNってなんぞ?
548名無しさん@お腹いっぱい。 (ワッチョイWW 6332-H1Ci)
2016/12/30(金) 18:12:22.39ID:X3KvqHdb0 cuDNNはNVIDIAが別で配布しているライブラリ
ディープラーニング用のAPIが入ってる
waifu2xはほとんどの処理時間は
コンボリューションで、cuDNNに
含まれるAPIなので恐らく速くなるはず
caffeeの自前実装のコンボリューションが
鬼のように最適化されてたら変わらんかも
しれんが比較したことないので知らん
ディープラーニング用のAPIが入ってる
waifu2xはほとんどの処理時間は
コンボリューションで、cuDNNに
含まれるAPIなので恐らく速くなるはず
caffeeの自前実装のコンボリューションが
鬼のように最適化されてたら変わらんかも
しれんが比較したことないので知らん
549名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+)
2016/12/30(金) 18:20:53.02ID:nC1+/K860550名無しさん@お腹いっぱい。 (ワッチョイ 765e-4Ie9)
2016/12/30(金) 18:21:04.13ID:vUMlJ/xP0 cuDNN RGBモデル
| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:03.170 | 278 |
| 125 | 00:00:02.745 | 279 |
| 200 | 00:00:02.253 | 365 |
| 250 | 00:00:02.147 | 446 |
| 500 | 00:00:01.982 | 1110 |
CUDA RGBモデル
| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:06.192 | 724 |
| 125 | 00:00:05.504 | 724 |
| 200 | 00:00:04.642 | 1556 |
| 250 | 00:00:04.436 | 2345 |
| 500 | 計測不能 | 計測不能(6144以上) |
| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:03.170 | 278 |
| 125 | 00:00:02.745 | 279 |
| 200 | 00:00:02.253 | 365 |
| 250 | 00:00:02.147 | 446 |
| 500 | 00:00:01.982 | 1110 |
CUDA RGBモデル
| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:06.192 | 724 |
| 125 | 00:00:05.504 | 724 |
| 200 | 00:00:04.642 | 1556 |
| 250 | 00:00:04.436 | 2345 |
| 500 | 計測不能 | 計測不能(6144以上) |
551名無しさん@お腹いっぱい。 (ワッチョイ d3f6-Eko0)
2016/12/30(金) 18:34:48.69ID:G+DVIbZ50552名無しさん@お腹いっぱい。 (ワッチョイ 9b50-Sa8B)
2016/12/30(金) 18:46:40.90ID:nwoXjDvq0 CUDAとcuDNN、処理時間倍違うのかよ。
さらにup系で倍、ファファファノファー
さらにup系で倍、ファファファノファー
553名無しさん@お腹いっぱい。 (ワッチョイ 27d2-lyLD)
2016/12/31(土) 00:37:50.29ID:AExTirDU0 Upは速度優先ではなくて速度精度ともに無印より上だよ
554名無しさん@お腹いっぱい。 (JP 0Hde-Sa8B)
2016/12/31(土) 00:39:48.58ID:RK8kbYryH Up使うとほとんど無印よりきたねー結果になるんだがなんでた?
555名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+)
2016/12/31(土) 00:50:31.70ID:p7hb+TgK0556名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+)
2016/12/31(土) 00:55:45.82ID:p7hb+TgK0 あ、あとcaffeでノイズ除去のみする場合はRGBのほうがいい
557名無しさん@お腹いっぱい。 (ワッチョイ f2e1-Sa8B)
2016/12/31(土) 08:15:58.58ID:leMGDIx60558名無しさん@お腹いっぱい。 (ワッチョイ 76d2-Sa8B)
2016/12/31(土) 08:28:57.23ID:AjfKh5GG0 cuDNNだけどっかに落ちてねーの?
559名無しさん@お腹いっぱい。 (ワッチョイ 27d2-lyLD)
2016/12/31(土) 08:40:38.66ID:AExTirDU0 >>557
数百枚に対するベンチマーク(PSNR)では数値的に上
数百枚に対するベンチマーク(PSNR)では数値的に上
560名無しさん@お腹いっぱい。 (ワッチョイ 9bf6-Eko0)
2016/12/31(土) 22:34:22.56ID:sFjW5xQA0 cuDNN64.5.dll見っけた
探せばあるもんだなぁ
早速導入
おほっ滅茶早ww
探せばあるもんだなぁ
早速導入
おほっ滅茶早ww
561名無しさん@お腹いっぱい。 (ワッチョイ 9bf6-Eko0)
2016/12/31(土) 23:03:42.96ID:sFjW5xQA0 分轄サイズを384にすると5GB以上使って4〜5分だったものが1分掛からずに終了
メモリ使用量は1GB程度に減ってた
cuDNN凄いな
メモリ使用量は1GB程度に減ってた
cuDNN凄いな
562名無しさん@お腹いっぱい。 (ワッチョイ 765e-4Ie9)
2016/12/31(土) 23:51:10.10ID:c2L6UkQy0 うpしようとしてたけどやめて良かった
563名無しさん@お腹いっぱい。 (ワッチョイ 9b50-Sa8B)
2017/01/01(日) 06:27:46.76ID:kaC7n5qt0 nvidiaに登録すればDLできるし、探すほどのものでもないべ
564名無しさん@お腹いっぱい。 (ワッチョイ 9bf6-Eko0)
2017/01/01(日) 08:15:07.66ID:Rld7TCmj0 この凄さは良い1060のおかげもメモリ量もあって半分くらいはあるのかな?
あってくれ、でないと¥27,000が泣く
あってくれ、でないと¥27,000が泣く
565名無しさん@お腹いっぱい。 (ワッチョイWW a7f6-i8fm)
2017/01/01(日) 11:52:36.53ID:ZNSLWmzy0 ウィルス付だったり変な改変受けてたりするのも有るし
そんなに難しくないから適当に登録した方が安心
そんなに難しくないから適当に登録した方が安心
566名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+)
2017/01/04(水) 13:37:33.40ID:3JPHOCLB0 Kaby Lake-S「Core i7-7700K」基礎検証レポート。注目すべきは絶対性能ではなく,電力対性能比だ - 4Gamer.net
http://www.4gamer.net/games/344/G034458/20170102001/
waifu2xでベンチマークしてて笑う
http://www.4gamer.net/games/344/G034458/20170102001/
waifu2xでベンチマークしてて笑う
567名無しさん@お腹いっぱい。 (ワッチョイ c344-Sa8B)
2017/01/04(水) 19:59:44.27ID:dGeuxDic0 >>566
ディープラーニングの推定工程ベンチマークとして便利かもしれないな
ディープラーニングの推定工程ベンチマークとして便利かもしれないな
568名無しさん@お腹いっぱい。 (ワッチョイ 3272-IQ/9)
2017/01/04(水) 20:11:49.14ID:IycFIp3h0 笑うとか意味不でキムチワル
569名無しさん@お腹いっぱい。 (ワッチョイ cf7c-Sa8B)
2017/01/04(水) 22:02:39.62ID:CPp7npvh0 というかしょっぱすぎる性能だな
Ryzen頑張ってくれよ本当に…
Ryzen頑張ってくれよ本当に…
570名無しさん@お腹いっぱい。 (ワッチョイ 8291-C4FB)
2017/01/07(土) 23:25:48.14ID:kGxVSOqh0 中の人Pixivだったのか納得した
571名無しさん@お腹いっぱい。 (ワッチョイ 29d2-5hgy)
2017/01/08(日) 19:04:40.17ID:ZpzukTrs0 waifu2xのことなら、中の人の定義によるけど
開発している人(俺)はpixivではないよ
サーバーはpixivの方が運営しているけど
開発している人(俺)はpixivではないよ
サーバーはpixivの方が運営しているけど
572名無しさん@お腹いっぱい。 (ワッチョイ d1cf-dHfL)
2017/01/14(土) 04:19:51.80ID:AOMWwbEx0 このスレを見ている人間にとっては大嫌いなレガシー不可逆画像コーデックJPEGに新たなエンコーダが
ttp://gigazine.net/news/20170113-google-guetzli/
人間の目に最適化した極低速高圧縮JPEGエンコーダGuetzli
SSIM: libjpeg比 14%悪化
PSNRHVS-M: libjpeg比 14%悪化
butteraugli: libjpeg比 30%良化
エンコード速度: libjpeg比 10000%+悪化
同等画質サイズ: libjpeg比 35%良化
同等画質転送レート: libjpeg比 35%良化
ttps://translate.google.co.jp/translate?sl=en&tl=ja&u=http%3A%2F%2Fencode.ru%2Fthreads%2F2628
ttp://encode.ru/threads/2628
長すぎるエンコード時間(消費エネルギー)という元手・投資を取り返すには何回その画像ダウンロードされないといけないんだろうな
性能はたしかに良いからお試しあれ
ttp://gigazine.net/news/20170113-google-guetzli/
人間の目に最適化した極低速高圧縮JPEGエンコーダGuetzli
SSIM: libjpeg比 14%悪化
PSNRHVS-M: libjpeg比 14%悪化
butteraugli: libjpeg比 30%良化
エンコード速度: libjpeg比 10000%+悪化
同等画質サイズ: libjpeg比 35%良化
同等画質転送レート: libjpeg比 35%良化
ttps://translate.google.co.jp/translate?sl=en&tl=ja&u=http%3A%2F%2Fencode.ru%2Fthreads%2F2628
ttp://encode.ru/threads/2628
長すぎるエンコード時間(消費エネルギー)という元手・投資を取り返すには何回その画像ダウンロードされないといけないんだろうな
性能はたしかに良いからお試しあれ
573名無しさん@お腹いっぱい。 (ワッチョイ b1d2-BSl8)
2017/01/14(土) 10:43:46.82ID:kO6Aianq0 よくわからんが、電算機関連の話では
性能って普通は速度(時間)のことを言うんじゃないのか
性能って普通は速度(時間)のことを言うんじゃないのか
574名無しさん@お腹いっぱい。 (ワッチョイ 1339-5BG0)
2017/01/14(土) 11:55:01.52ID:cz8mjfgz0 GuetzliよりGuetzliの性能を評価したbutteraugliってやつのほうが気になる。
SSIMやPSNRより人間の主観に近い画質指標なのかな。
SSIMやPSNRより人間の主観に近い画質指標なのかな。
575名無しさん@お腹いっぱい。 (ワイモマー MM33-YL17)
2017/01/14(土) 12:31:07.66ID:ySHnyXEvM butteraugliでwaifu2xと他の拡大アルゴリズムの比較されたら、どんな結果が出るのだろうな
576名無しさん@お腹いっぱい。 (ワッチョイ d950-dHfL)
2017/01/14(土) 13:15:34.86ID:3XEqy+Cv0 リファレンスのpngをq89ぐらいにすると、
似たサイズになるんだけど、確かに通常より綺麗だな。
waifuで拡大したほうが超綺麗になったけど、そういう問題じゃないからね。
似たサイズになるんだけど、確かに通常より綺麗だな。
waifuで拡大したほうが超綺麗になったけど、そういう問題じゃないからね。
577名無しさん@お腹いっぱい。 (ワッチョイ 1339-5BG0)
2017/01/14(土) 16:10:52.71ID:cz8mjfgz0 >>575
自分もそう思ったんだけどbutteraugliのビルド方法がよく分からなくて断念したよ。
Googleがバイナリを配布してくれればいいんだけどね。
というかほぼGoogleしか使ってない指標でGoogleのエンコーダを評価されても性能が良く分からないよなと思う。
自分もそう思ったんだけどbutteraugliのビルド方法がよく分からなくて断念したよ。
Googleがバイナリを配布してくれればいいんだけどね。
というかほぼGoogleしか使ってない指標でGoogleのエンコーダを評価されても性能が良く分からないよなと思う。
578名無しさん@お腹いっぱい。 (スプッッ Sd7d-qERx)
2017/01/14(土) 18:56:54.13ID:0SNYGzDGd579名無しさん@お腹いっぱい。 (ワッチョイWW 0932-744s)
2017/01/15(日) 09:56:09.63ID:0bystr9E0 waifu2xの後追いして遊んでるんだけど
作者氏、GAN使うの嫌がってるんだよね
とりあえずGAN、ResNet、PixelSuffle
実装してみたけど見た目SRCNN臭さは
だいぶとれるけどたくさん評価
してないので微妙
俺の本丸は計算量削減なんだけど
理論上計算量3割のはずなのに
3割しか早くならない
chainer、推論遅くないか
作者氏、GAN使うの嫌がってるんだよね
とりあえずGAN、ResNet、PixelSuffle
実装してみたけど見た目SRCNN臭さは
だいぶとれるけどたくさん評価
してないので微妙
俺の本丸は計算量削減なんだけど
理論上計算量3割のはずなのに
3割しか早くならない
chainer、推論遅くないか
580名無しさん@お腹いっぱい。 (ワッチョイWW b37c-j87h)
2017/01/15(日) 12:05:43.60ID:lB/+H+EU0 サンプル画像すら出さないで何を言わんや…
581名無しさん@お腹いっぱい。 (オッペケ Srdd-744s)
2017/01/15(日) 12:31:47.79ID:KsNDNARPr 評価中なので待ってください
一回回すのに10時間かかるので
何日かかかります
一回回すのに10時間かかるので
何日かかかります
582名無しさん@お腹いっぱい。 (ワッチョイ 6bcc-dHfL)
2017/01/15(日) 13:36:32.29ID:Ux9tIyw00 スクール水着の凹凸を判断してテカテカのラバーコーティングの水着にできる?
583名無しさん@お腹いっぱい。 (ワッチョイW 9b89-kkJw)
2017/01/15(日) 13:52:26.00ID:HieKzZb90 いいなそれ
584名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD)
2017/01/15(日) 15:35:17.21ID:6WNzG8+M0 >>579
GANはPSNRをあまり下げずに使えるならいいですが
(ロス関数の重みの調節で出来ると思いますがトレードオフがあるのでGAN使う意味がなくなってきそう)
PSNRがBicubic以下になると
変換結果に不安があるため現在BicubcやLanczosが使われる領域での置き換えには使えないと思って避けています。
もちろんいくつかモデル作って選択できるようにすればいいだけですが
面倒なのでやっていない状態です。ResNetはdevブランチには入ってます。
GANはPSNRをあまり下げずに使えるならいいですが
(ロス関数の重みの調節で出来ると思いますがトレードオフがあるのでGAN使う意味がなくなってきそう)
PSNRがBicubic以下になると
変換結果に不安があるため現在BicubcやLanczosが使われる領域での置き換えには使えないと思って避けています。
もちろんいくつかモデル作って選択できるようにすればいいだけですが
面倒なのでやっていない状態です。ResNetはdevブランチには入ってます。
585名無しさん@お腹いっぱい。 (ワッチョイWW 4bc5-744s)
2017/01/15(日) 15:46:09.89ID:7I2qaVWZ0 >584
GANについては混合比率下げると
全くなしと見分けがつかないので
PSNRは必ず犠牲になる印象です
3dB近く悪くなるので受容できないで
しょうね
GANは学習すごく遅くなるので
つらいです
GANは学習回数多くしないとだめ
なのでもしかしたら今足りてない
可能性があるので後でしつこく
やってみます
作者さんも自分で実験するのが
めんどいと思うので結果はアップして
共有します
GANについては混合比率下げると
全くなしと見分けがつかないので
PSNRは必ず犠牲になる印象です
3dB近く悪くなるので受容できないで
しょうね
GANは学習すごく遅くなるので
つらいです
GANは学習回数多くしないとだめ
なのでもしかしたら今足りてない
可能性があるので後でしつこく
やってみます
作者さんも自分で実験するのが
めんどいと思うので結果はアップして
共有します
586名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD)
2017/01/15(日) 15:59:53.33ID:6WNzG8+M0 butteraugli というので本当に見た目の印象が定量評価できるならそれもあり思いますね。
僕が見た目の評価嫌う理由は、たいして見る目がない人がリンギングでまってくる画像を
くっきりしているからよいとか判定してしまうところにあるので。
僕が見た目の評価嫌う理由は、たいして見る目がない人がリンギングでまってくる画像を
くっきりしているからよいとか判定してしまうところにあるので。
587名無しさん@お腹いっぱい。 (ワッチョイWW 4bc5-744s)
2017/01/15(日) 18:17:37.15ID:7I2qaVWZ0 butteraugjiはためしてみたけど
値が小さい方がいいっぽいね
画像ができたら数字比較してみるわ
値が小さい方がいいっぽいね
画像ができたら数字比較してみるわ
588名無しさん@お腹いっぱい。 (ワッチョイWW 4bc5-744s)
2017/01/15(日) 19:31:48.53ID:7I2qaVWZ0 butteraugliでエポックごとの
評価みたけど学習打ち切った時点で
まだあがってた
評価がサチるまで回しますが、
たぶんすごい時間かかります
二乗誤差じゃわからん
評価みたけど学習打ち切った時点で
まだあがってた
評価がサチるまで回しますが、
たぶんすごい時間かかります
二乗誤差じゃわからん
589名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD)
2017/01/15(日) 20:38:29.02ID:6WNzG8+M0 SRGANはやろうとした人を何人も見ましたが
みんなうまくいっていないので
写真のモデルでcheckboard artifactを出さずに
論文の結果と似たような画像を生成できればそれだけで価値があると思いますよ
みんなうまくいっていないので
写真のモデルでcheckboard artifactを出さずに
論文の結果と似たような画像を生成できればそれだけで価値があると思いますよ
590名無しさん@お腹いっぱい。 (ワッチョイ 0932-vSov)
2017/01/15(日) 21:26:01.39ID:0bystr9E0 SRGANはチャレンジですね。がんばってみます。
うまくいったら挑戦します。
butteraugli初耳だったんですが、スレ観たらビルドの仕方が
わからない人がいる模様。Linuxの開発したことのある人少ないんですかね。
Windows10のコマンドプロンプト開いて以下のコマンドで実行、
$ bash
コンパイラとライブラリインストール(zlibはpngと一緒に入る)、
$ sudo apt-get install gcc g++ make libjpeg-dev libpng-de
ソースコードのMakefileのあるディレクトリで
$ make
で実行ファイル作られます。bash上か他のLinuxマシンのみで動きます。
プログラマじゃない人も色々遊んでみてください。
うまくいったら挑戦します。
butteraugli初耳だったんですが、スレ観たらビルドの仕方が
わからない人がいる模様。Linuxの開発したことのある人少ないんですかね。
Windows10のコマンドプロンプト開いて以下のコマンドで実行、
$ bash
コンパイラとライブラリインストール(zlibはpngと一緒に入る)、
$ sudo apt-get install gcc g++ make libjpeg-dev libpng-de
ソースコードのMakefileのあるディレクトリで
$ make
で実行ファイル作られます。bash上か他のLinuxマシンのみで動きます。
プログラマじゃない人も色々遊んでみてください。
591名無しさん@お腹いっぱい。 (ワッチョイ 0932-vSov)
2017/01/15(日) 21:27:08.93ID:0bystr9E0 $ sudo apt-get install gcc g++ make libjpeg-dev libpng-dev
です。すんません。
です。すんません。
592名無しさん@お腹いっぱい。 (ワッチョイWW b37c-j87h)
2017/01/15(日) 21:29:00.78ID:lB/+H+EU0 waifu2x、再び!!
Stay tune!
Stay tune!
594名無しさん@お腹いっぱい。 (ワッチョイ ebb5-ir0y)
2017/01/18(水) 15:23:24.52ID:bain95gP0 Google、機械学習で低解像度画像をシャープに見せる「RAISR」をサービスで実用化
http://www.itmedia.co.jp/news/articles/1701/17/news067.html
http://www.itmedia.co.jp/news/articles/1701/17/news067.html
595名無しさん@お腹いっぱい。 (ワッチョイ 6b23-dHfL)
2017/01/18(水) 15:27:07.14ID:n4UMTi1p0596名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD)
2017/01/18(水) 15:39:56.54ID:xnw/jmuH0 やりたいことはYoutubeがすでやっている動画の再エンコと一緒じゃないかな
画質を改善するというより、苦情の少ない範囲で圧縮したいなので
運営としては通信量が減って嬉しいけどユーザーとしては以前よりも画質が悪くなるので
携帯事業者がやっていた「通信の最適化」と同じ考えだと思う
画質を改善するというより、苦情の少ない範囲で圧縮したいなので
運営としては通信量が減って嬉しいけどユーザーとしては以前よりも画質が悪くなるので
携帯事業者がやっていた「通信の最適化」と同じ考えだと思う
597名無しさん@お腹いっぱい。 (ワッチョイW 535b-Wsqm)
2017/01/18(水) 20:37:05.06ID:eyJLRRBJ0 でもそれで同じ容量で解像度が例えば1.5倍になれば話が変わる
色空間やインターレースしかり悪いばかりのトレードオフでは無いと思う
色空間やインターレースしかり悪いばかりのトレードオフでは無いと思う
598名無しさん@お腹いっぱい。 (ワッチョイ a399-8m7v)
2017/01/23(月) 19:31:01.14ID:B0/L9i7j0 waifu2x-cafeeをXeonとQuadro両方積んだPCで実行するときってどっちのほうが効率的なんだ?
ちなみにXeonは12コア3.30GHz、Quadroは2000。
ちなみにXeonは12コア3.30GHz、Quadroは2000。
599名無しさん@お腹いっぱい。 (ワッチョイW cf63-gIHQ)
2017/01/24(火) 00:16:40.73ID:RYhQuic60 >>598
Quadroの方が速いんじゃないですかねぇ?
↓の画像でXeon 16Core 3.6GHzで2分40秒ぐらい
CPU使用率は20%ほど XPx64環境で無理矢理実行したからちょっとアテにならないかもしれないけど
http://www.dotup.org/uploda/www.dotup.org1133523.jpg 変換元画像
http://www.dotup.org/uploda/www.dotup.org1133524.png 設定
Quadroの方が速いんじゃないですかねぇ?
↓の画像でXeon 16Core 3.6GHzで2分40秒ぐらい
CPU使用率は20%ほど XPx64環境で無理矢理実行したからちょっとアテにならないかもしれないけど
http://www.dotup.org/uploda/www.dotup.org1133523.jpg 変換元画像
http://www.dotup.org/uploda/www.dotup.org1133524.png 設定
600名無しさん@お腹いっぱい。 (ワッチョイW 7f1e-Zbvk)
2017/01/24(火) 08:27:54.07ID:2IuxhXxQ0 >>599
ハイエンドなマシンで動かしてらっしゃるようなので
NeuronDoubler v5.00だとどれぐらいかかるか検証して頂いてもいいですか?
http://loggialogic.blogspot.jp/2015/09/neurondoubler-v500.html?m=1
ハイエンドなマシンで動かしてらっしゃるようなので
NeuronDoubler v5.00だとどれぐらいかかるか検証して頂いてもいいですか?
http://loggialogic.blogspot.jp/2015/09/neurondoubler-v500.html?m=1
601599 (ワッチョイW cf63-gIHQ)
2017/01/24(火) 23:23:52.69ID:RYhQuic60 >>600
sampleのlogo.pngを2倍で16s、4倍で66s
sampleのphoto.pngを2倍で44s、4倍で200s
といった感じです
32倍をlogo.pngでやってみたら1876sとかかかったので、photo.pngの方は試してないですw
sampleのlogo.pngを2倍で16s、4倍で66s
sampleのphoto.pngを2倍で44s、4倍で200s
といった感じです
32倍をlogo.pngでやってみたら1876sとかかかったので、photo.pngの方は試してないですw
602名無しさん@お腹いっぱい。 (ワッチョイ 7f1e-a3Th)
2017/01/25(水) 09:31:13.38ID:7PUj0Uuc0 >>601
ありがとうございます
手持ちのMacbook Pro late 2012では
960×540のpng(写真)を変換したところ1600s
ぐらいでした
16コアもあると動画用にNeuronDoublerを使えそうで羨ましいです
ありがとうございます
手持ちのMacbook Pro late 2012では
960×540のpng(写真)を変換したところ1600s
ぐらいでした
16コアもあると動画用にNeuronDoublerを使えそうで羨ましいです
603名無しさん@お腹いっぱい。 (ワッチョイWW 3332-z0uo)
2017/01/25(水) 21:02:31.59ID:idIVVLyq0 waifu2x研究家なんですけど
GANのPSNR問題解消しそうなので
週末画像出します
waifu2xと同じupモデルをこっちで
再現したものとの比較しますが
時間がかかるのでそれ以外との
比較は難しいです
何個かネタがあってそのマイルストーンです
3月に資料作るのでそのとき
リンク張ります
GANのPSNR問題解消しそうなので
週末画像出します
waifu2xと同じupモデルをこっちで
再現したものとの比較しますが
時間がかかるのでそれ以外との
比較は難しいです
何個かネタがあってそのマイルストーンです
3月に資料作るのでそのとき
リンク張ります
604名無しさん@お腹いっぱい。 (ワッチョイ 4fd2-C7aL)
2017/01/26(木) 00:25:26.80ID:AnODLToW0 単純にはMSEとGANの出力を適当な割合で合成すればいいように思うけど
重くなるので学習の枠内でやれればいいですね
あとneural-enhanceの人も最近waifu2x的なやつをやろうとしているみたいです
https://twitter.com/madebyollin/status/823652970440986624
これは別の人の結果だけど、たしかに線はくっきりしているけど余計なことをしすぎているように見える
重くなるので学習の枠内でやれればいいですね
あとneural-enhanceの人も最近waifu2x的なやつをやろうとしているみたいです
https://twitter.com/madebyollin/status/823652970440986624
これは別の人の結果だけど、たしかに線はくっきりしているけど余計なことをしすぎているように見える
605名無しさん@お腹いっぱい。 (ワッチョイ 2b32-xu7M)
2017/01/26(木) 06:13:14.86ID:9CM3n4Bd0 >604
適当な割合で合成すればいいんですけどふたつ問題があって
1. 適切な混合比率がタスクによって違う
2. 結果が不安定でうまくいってるエポックとそうでないエポックのばらつきが大きい
なので、前者については二乗誤差に対して何%GANを反映するのかって
コントロールを入れています。
GANが余計なことをするのは誤差のGANの項が正解データとの比較を
しないからじゃないかってことで正解データと比較するGANをは
考えてみました。
GANなしに比べてSSIM、PSNRは同等、butteraugliはかなり良くなってます。
正解データと比較する時点でGANの解釈がかなり変わるんですが
(評価中なので正確な値は週末出します)
適当な割合で合成すればいいんですけどふたつ問題があって
1. 適切な混合比率がタスクによって違う
2. 結果が不安定でうまくいってるエポックとそうでないエポックのばらつきが大きい
なので、前者については二乗誤差に対して何%GANを反映するのかって
コントロールを入れています。
GANが余計なことをするのは誤差のGANの項が正解データとの比較を
しないからじゃないかってことで正解データと比較するGANをは
考えてみました。
GANなしに比べてSSIM、PSNRは同等、butteraugliはかなり良くなってます。
正解データと比較する時点でGANの解釈がかなり変わるんですが
(評価中なので正確な値は週末出します)
606名無しさん@お腹いっぱい。 (ワッチョイ 2b32-xu7M)
2017/01/26(木) 06:33:06.18ID:9CM3n4Bd0 わかる人がまわりにいないので、ここに書いてあれなんですけど、
従来のGAN)
Discriminatorで本物らしさを判定して誤差に反映
自分の手法)
本物らしさを学習したDiscriminatorの中間層の出力を
本物と生成データで比較、となります。
Discriminatorの中間層は通常の二乗誤差で比較するのと比べて
大幅に大きい情報量で比較するのと、Discriminator自体が
誤差関数になるので普通の二乗誤差と比べると複雑、高度な比較になります。
Twitterが出してる論文は物体認識を学習させたモデルで中間層の出力で
比較しろ、と書いてあって、これがコンテンツロスなんですが、
コンテンツロスの適用部分はGANに対してやった方がいいのでは
というのが自分の意見です。
従来のGAN)
Discriminatorで本物らしさを判定して誤差に反映
自分の手法)
本物らしさを学習したDiscriminatorの中間層の出力を
本物と生成データで比較、となります。
Discriminatorの中間層は通常の二乗誤差で比較するのと比べて
大幅に大きい情報量で比較するのと、Discriminator自体が
誤差関数になるので普通の二乗誤差と比べると複雑、高度な比較になります。
Twitterが出してる論文は物体認識を学習させたモデルで中間層の出力で
比較しろ、と書いてあって、これがコンテンツロスなんですが、
コンテンツロスの適用部分はGANに対してやった方がいいのでは
というのが自分の意見です。
607名無しさん@お腹いっぱい。 (ワッチョイW f7cf-bF0B)
2017/01/26(木) 08:44:57.33ID:BNYEQ6nK0 こういうやつに税金投入するべき
608名無しさん@お腹いっぱい。 (ワッチョイ 4fd2-C7aL)
2017/01/26(木) 13:58:06.91ID:AnODLToW0 イラストの超解像でperceptual lossにImageNetの学習済みモデルを使うのがよくないのは明らかなので
Discriminatorが使えるならそれは同じ解像度のイラストで学習しているわけだからよさそうですね
ただDiscriminatorは学習中に動くので不安定そうですが
GAN自体がそういうものなので動く感じでしょうか
Discriminatorが使えるならそれは同じ解像度のイラストで学習しているわけだからよさそうですね
ただDiscriminatorは学習中に動くので不安定そうですが
GAN自体がそういうものなので動く感じでしょうか
609名無しさん@お腹いっぱい。 (JP 0H73-xu7M)
2017/01/26(木) 14:51:03.26ID:owYC7mKIH どうも、wiafu2x研究家の人です。
Twitter社の論文読んだとき、コンテンツロスがめちゃくちゃ
めんどくさいので俺はあきらめました(コンテンツロスのために
物体認識のタスクもやらないといけなくなるので大いに藪蛇)。
SRGANがみんなうまくいかない原因はsoftmax、softplusを
そのまま誤差にするから結果が不安定で調整が難しい、
のが大きなところかと思います。
そもそものDCGAN自体も論文の趣旨がうまく生成できる
パラメータが見つかりましたって部分ですからね。
ちなみに自分はSRCNNは勉強会の発表ネタなので、8月に
一か月実験したのと3月の発表があるのでそれで今だけ
やってるだけなので、先行技術のサーベイが非常に
あやしい(何も知らない)のでご教授いただけると幸いです。
今のところもう一個ネタがあって、画像ごとに重要度マップを
作って誤差に重み付けする方法を考えています。
多分来月前半には実験してると思います。
Twitter社の論文読んだとき、コンテンツロスがめちゃくちゃ
めんどくさいので俺はあきらめました(コンテンツロスのために
物体認識のタスクもやらないといけなくなるので大いに藪蛇)。
SRGANがみんなうまくいかない原因はsoftmax、softplusを
そのまま誤差にするから結果が不安定で調整が難しい、
のが大きなところかと思います。
そもそものDCGAN自体も論文の趣旨がうまく生成できる
パラメータが見つかりましたって部分ですからね。
ちなみに自分はSRCNNは勉強会の発表ネタなので、8月に
一か月実験したのと3月の発表があるのでそれで今だけ
やってるだけなので、先行技術のサーベイが非常に
あやしい(何も知らない)のでご教授いただけると幸いです。
今のところもう一個ネタがあって、画像ごとに重要度マップを
作って誤差に重み付けする方法を考えています。
多分来月前半には実験してると思います。
610名無しさん@お腹いっぱい。 (ワッチョイ 4fd2-C7aL)
2017/01/26(木) 16:22:50.49ID:AnODLToW0 物体認識の学習済みモデルは配布されているので自前で学習する必要はないです(再現させる場合)。
generatorの出力とgroundtruthそれぞれをそのネットワークに入力して
適当な層(convの2,3層目)の出力が同じになるようにMSEを最小化するのがperceptual loss(コンテンツロス)で
それとdiscriminatorを使ったadversarial lossで
loss = perceptual_loss * perceptual_loss_weight + adversarial_loss * adversarial_loss_weight
を最小化するように拡大前の画像を入力とするgeneratorを学習するのがSRGANという認識です。
なので違いはコンテンツロスに使うモデルを変えているところだと思いました。
自分もGANはやったことがないので違ってるかもしれません。
generatorの出力とgroundtruthそれぞれをそのネットワークに入力して
適当な層(convの2,3層目)の出力が同じになるようにMSEを最小化するのがperceptual loss(コンテンツロス)で
それとdiscriminatorを使ったadversarial lossで
loss = perceptual_loss * perceptual_loss_weight + adversarial_loss * adversarial_loss_weight
を最小化するように拡大前の画像を入力とするgeneratorを学習するのがSRGANという認識です。
なので違いはコンテンツロスに使うモデルを変えているところだと思いました。
自分もGANはやったことがないので違ってるかもしれません。
611名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy)
2017/01/26(木) 16:48:26.18ID:j7MEo8mlr 説明ありがとうございます
認識合わせできました
自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが
なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです
それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました
認識合わせできました
自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが
なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです
それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました
612名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy)
2017/01/26(木) 17:17:12.53ID:j7MEo8mlr ganのloss_weightがセンシティブで
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います
学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます
自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います
後でスレの人に厳しいデータ教えてもらおうと思います
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います
学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます
自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います
後でスレの人に厳しいデータ教えてもらおうと思います
613名無しさん@お腹いっぱい。 (ファミマWW FFd2-fIWv)
2017/01/26(木) 19:03:54.54ID:tDU6wUAkF 詳しいことはよくわからないけど、ガンガレ。超ガンガレ。
どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…
どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…
614名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy)
2017/01/28(土) 11:47:38.55ID:edepqLn8r waifu2xの研究してる人なんだけど
すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...
すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...
615名無しさん@お腹いっぱい。 (ワッチョイ 86ec-AZYz)
2017/01/28(土) 14:42:13.13ID:BYBTK1en0 chainerで線画着色をwebサービスにして公開してみた
http://qiita.com/taizan/items/7119e16064cc11500f32
http://qiita.com/taizan/items/7119e16064cc11500f32
616名無しさん@お腹いっぱい。 (ワッチョイ 86ec-AZYz)
2017/01/28(土) 15:02:18.06ID:BYBTK1en0 >>614
楽しみにしてますがゆっくりやってくだちい
楽しみにしてますがゆっくりやってくだちい
617名無しさん@お腹いっぱい。 (ワッチョイ a36a-AZYz)
2017/01/28(土) 15:17:47.96ID:jlInyXUj0618名無しさん@お腹いっぱい。 (ワッチョイ a239-WSvd)
2017/01/28(土) 15:35:09.06ID:iZRmUjsJ0619名無しさん@お腹いっぱい。 (ワッチョイ 4725-AZYz)
2017/01/30(月) 14:56:45.57ID:pPztTfPj0 あいかわらず
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい
620名無しさん@お腹いっぱい。 (ワッチョイ a36a-zMqm)
2017/01/30(月) 18:04:46.45ID:qudbf77R0 今更ながら>>615-616に気付いた
自演すんなよw
自演すんなよw
621名無しさん@お腹いっぱい。 (ワッチョイ b70f-hijU)
2017/01/30(月) 18:20:11.64ID:AIhudIHS0 >>620
アンカちゃんと読もうなー
アンカちゃんと読もうなー
622名無しさん@お腹いっぱい。 (ワッチョイWW 4785-1CvP)
2017/01/31(火) 03:28:18.08ID:Mk/X4pNp0623名無しさん@お腹いっぱい。 (ワッチョイWW db49-u9qX)
2017/02/01(水) 00:48:53.09ID:47em4zG90624名無しさん@お腹いっぱい。 (ワッチョイ c664-FuHd)
2017/02/01(水) 18:15:33.93ID:r8gMgX8Z0625名無しさん@お腹いっぱい。 (アタマイタイーW 7a39-cbEw)
2017/02/02(木) 17:45:47.99ID:HLUwrrpx00202 waifu2xcaffeで600dpiの画像を2倍に変換したら
96dpiになったのですが、これは仕様ですか?
てっきり倍にしたのだから300dpiになるのかと思っていました。
96dpiになったのですが、これは仕様ですか?
てっきり倍にしたのだから300dpiになるのかと思っていました。
626名無しさん@お腹いっぱい。 (アタマイタイー 3132-0MWP)
2017/02/02(木) 18:37:57.12ID:TB2MRryB00202 >>625
1920x1080で600dpi(=3.2インチ*1.8インチ)の画像を2倍に変換したら、
3840x2160で1200dpi(=3.2インチ*1.8インチ)か、600dpi(=6.4インチ*3.6インチ)じゃないか?
1920x1080で600dpi(=3.2インチ*1.8インチ)の画像を2倍に変換したら、
3840x2160で1200dpi(=3.2インチ*1.8インチ)か、600dpi(=6.4インチ*3.6インチ)じゃないか?
627名無しさん@お腹いっぱい。 (アタマイタイー 56d2-2lTc)
2017/02/02(木) 18:58:49.86ID:J3/O+Al000202 >>625
dpiは入出力デバイスの設定なのでwaifu2xの処理はそこに関与しません。
画像のメタデータに特に気を使っていないので印刷サイズには既定値が入っているのだと思います。
印刷や入稿等で必要なら別の方法で再設定出来ると思います。
dpiは入出力デバイスの設定なのでwaifu2xの処理はそこに関与しません。
画像のメタデータに特に気を使っていないので印刷サイズには既定値が入っているのだと思います。
印刷や入稿等で必要なら別の方法で再設定出来ると思います。
628名無しさん@お腹いっぱい。 (ワッチョイ 7a39-BdZd)
2017/02/03(金) 10:31:32.28ID:GXC4yUrd0629名無しさん@お腹いっぱい。 (ササクッテロレ Sp45-xDny)
2017/02/03(金) 10:35:55.98ID:2kWw6qu3p ソフトの名前の由来はなに?
630名無しさん@お腹いっぱい。 (ワッチョイ 15d2-NqFz)
2017/02/03(金) 11:03:16.69ID:x+9qdMRg0 waifuを2倍に拡大するからだろ
waifuはぐぐれ
waifuはぐぐれ
631名無しさん@お腹いっぱい。 (ワッチョイ 6115-0MWP)
2017/02/03(金) 12:46:58.29ID:tUa22Nfc0 ワイフ
↓
妻
↓
嫁
↓
妻
↓
嫁
632名無しさん@お腹いっぱい。 (ワッチョイ 15a1-yene)
2017/02/03(金) 13:50:44.75ID:Djehhjag0 わざわざ5行で書く無能
633名無しさん@お腹いっぱい。 (ワッチョイ 8164-P2Y1)
2017/02/03(金) 15:14:16.11ID:2ljm3Fbi0 2次特の時点で由来とか聞かなくてもわかるくらいには直接的
634名無しさん@お腹いっぱい。 (ワッチョイW 65cf-51wG)
2017/02/03(金) 15:22:25.83ID:/MDCuEKc0 じぇいぺぐルネッサンス
635名無しさん@お腹いっぱい。 (ワイモマー MM1a-1ST5)
2017/02/05(日) 23:27:16.44ID:LHzxPccgM madVRにおけるNGU pixart特化版のテスト中みたい
NGU無印やwaifu2xと比較するとやや眠くなるものの、例のジャギー問題もこっちなら出なさそう
旧来のNNEDIを正統進化させたような画になってて、処理負荷は低い
Original ttp://madvr.com/mario/org.png
waifu2x ttp://madvr.com/mario/waifu2x.png
NGU VH ttp://madvr.com/mario/NGUveryHigh.png
NGUpixart VH ttp://madvr.com/mario/NGUpixartVeryHigh.png
NNEDI256 ttp://madvr.com/mario/nnedi256.png
NGU無印やwaifu2xと比較するとやや眠くなるものの、例のジャギー問題もこっちなら出なさそう
旧来のNNEDIを正統進化させたような画になってて、処理負荷は低い
Original ttp://madvr.com/mario/org.png
waifu2x ttp://madvr.com/mario/waifu2x.png
NGU VH ttp://madvr.com/mario/NGUveryHigh.png
NGUpixart VH ttp://madvr.com/mario/NGUpixartVeryHigh.png
NNEDI256 ttp://madvr.com/mario/nnedi256.png
636名無しさん@お腹いっぱい。 (スップ Sdfa-e4OR)
2017/02/06(月) 14:09:54.91ID:RhMnf4vZd waifu2xはwebサービスじゃなくて
windows版はないのだろうか?
windows版はないのだろうか?
637名無しさん@お腹いっぱい。 (ワッチョイ 56d2-2lTc)
2017/02/06(月) 14:13:31.31ID:ogCj2q/30 pixel artの拡大はゲーム機のエミュレータで実装されているような処理のほうが納得できる拡大になると思う
2xSaIとか
http://johanneskopf.de/publications/pixelart/
とか
2xSaIとか
http://johanneskopf.de/publications/pixelart/
とか
638名無しさん@お腹いっぱい。 (ワッチョイ 56d2-2lTc)
2017/02/06(月) 14:13:58.10ID:ogCj2q/30 >>636
waifu2x-caffe
waifu2x-caffe
639名無しさん@お腹いっぱい。 (ワッチョイ 6115-0MWP)
2017/02/06(月) 14:49:05.64ID:yDHhyamZ0 >>637
ピクセルシェーダー機能ある動画再生ソフトについてるんじゃね。
ピクセルシェーダー機能ある動画再生ソフトについてるんじゃね。
640名無しさん@お腹いっぱい。 (ワッチョイ 96e9-0MWP)
2017/02/08(水) 12:04:15.02ID:0rk9u2E+0 8×8ピクセルに縮小した画像から元の画像を予想する技術をGoogle Brainが開発
http://gigazine.net/news/20170208-pixel-recursive-super-resolution/
http://i.gzn.jp/img/2017/02/08/pixel-recursive-super-resolution/a03.jpg
http://gigazine.net/news/20170208-pixel-recursive-super-resolution/
http://i.gzn.jp/img/2017/02/08/pixel-recursive-super-resolution/a03.jpg
641名無しさん@お腹いっぱい。 (ワッチョイ 6144-0MWP)
2017/02/08(水) 16:11:31.49ID:8Gpp+YrU0 >>637
それはffdshowにあるね。
それはffdshowにあるね。
642名無しさん@お腹いっぱい。 (ワッチョイ 65cf-0MWP)
2017/02/08(水) 17:11:42.74ID:C6utgMTP0643名無しさん@お腹いっぱい。 (ワッチョイ 65cf-0MWP)
2017/02/08(水) 17:13:49.90ID:C6utgMTP0 と書き込んだ後でバンディングが問題なことに気がついた失礼
644名無しさん@お腹いっぱい。 (ワッチョイ 263b-P6gz)
2017/02/10(金) 19:41:32.41ID:jEc7Edve0 9日に緊急のWindows UpdateとやらでGeforceのドライバが更新されて
Waifu2x-caffeを使うと「CUDAドライバーがインストールされていない〜」状態になった
一応、システムの復元で元に戻したけど....作者さん助けて(もう見てないかねぇ)
Windows10は勝手にアプデかかるから困った
Waifu2x-caffeを使うと「CUDAドライバーがインストールされていない〜」状態になった
一応、システムの復元で元に戻したけど....作者さん助けて(もう見てないかねぇ)
Windows10は勝手にアプデかかるから困った
645名無しさん@お腹いっぱい。 (ワッチョイ 26fb-cGUq)
2017/02/10(金) 19:56:17.86ID:M6Wjsk9Z0 Geforceのドライバだけ古いのインストールしたら良いんじゃね
646名無しさん@お腹いっぱい。 (ワッチョイW 7a83-S0So)
2017/02/10(金) 20:37:24.67ID:xx2cZ+iv0 古いVerは置いとかないとね
俺も勝手にアップデートされた
俺も勝手にアップデートされた
647名無しさん@お腹いっぱい。 (ワッチョイ def6-cGUq)
2017/02/10(金) 22:04:57.99ID:5UGLSm6g0 >>644
Windows Update経由のGeForceドライバ更新はいい話聞かないからどうにかして止めるなりNVIDIA公式から拾ってくるなりしたほうがいいかも
こちらはGTX680にドライバ378.49で何事もなく動いてます
Windows Update経由のGeForceドライバ更新はいい話聞かないからどうにかして止めるなりNVIDIA公式から拾ってくるなりしたほうがいいかも
こちらはGTX680にドライバ378.49で何事もなく動いてます
648名無しさん@お腹いっぱい。 (ワッチョイ e932-oA82)
2017/02/11(土) 20:31:30.21ID:Kr/JTqjP0 どうも、wiafu2x研究家の人です。
すごい時間かかりましたが最初の結果が出ました。
|PSNR|SSIM|butteraugli|
waifu2x|27.629|0.928|9.622|
GANなし|27.612|0.927|9.049|
GANあり|27.474|0.926|8.968|
すごい時間かかりましたが最初の結果が出ました。
|PSNR|SSIM|butteraugli|
waifu2x|27.629|0.928|9.622|
GANなし|27.612|0.927|9.049|
GANあり|27.474|0.926|8.968|
649名無しさん@お腹いっぱい。 (ワッチョイ e932-oA82)
2017/02/11(土) 20:36:55.90ID:Kr/JTqjP0 butteraugliの値は低い方がいいはず
なので俺の手法の方が良い
俺の手法は主に計算量をwaifu2x/UPモデルより計算量を1/4にしていますが8層です。
実質的に層の数が多いのが効いてる可能性もありますが不明です。
すみませんがこちらの都合でアルゴリズムは非公開です。
ここで話が出ていた俺手法のGANについては今再試験中です。
なので俺の手法の方が良い
俺の手法は主に計算量をwaifu2x/UPモデルより計算量を1/4にしていますが8層です。
実質的に層の数が多いのが効いてる可能性もありますが不明です。
すみませんがこちらの都合でアルゴリズムは非公開です。
ここで話が出ていた俺手法のGANについては今再試験中です。
650名無しさん@お腹いっぱい。 (ワッチョイW 7d6e-k0wy)
2017/02/11(土) 23:13:48.93ID:ntjYRpkn0 WUでVGAのドライバ更新する人なんておるんか・・・
651名無しさん@お腹いっぱい。 (ワッチョイ 26d6-CIv3)
2017/02/11(土) 23:21:38.80ID:bBXphDts0 勝手にされるから困ってるっていう話じゃないのかな?
652名無しさん@お腹いっぱい。 (ワッチョイ e932-3CwI)
2017/02/12(日) 11:08:12.78ID:ra0YTrEG0 どうも、wiafu2x研究家の人です。
評価結果以下に置いてあります。
2000エポック学習させた最終100エポックの画像も付けているのでデータでかいです。
評価できる人がいたらみてやってください。
https://remoteplace-my.sharepoint.com/personal/t-matsu_office_remoteplace_net/_layouts/15/guestaccess.aspx?docid=0eb33501796144cb0abeadc2dd87b74d3&authkey=AbBvhLq0ewcbScMYwVYIx4c&expiration=2017-03-14T02:04:18.000Z
評価結果以下に置いてあります。
2000エポック学習させた最終100エポックの画像も付けているのでデータでかいです。
評価できる人がいたらみてやってください。
https://remoteplace-my.sharepoint.com/personal/t-matsu_office_remoteplace_net/_layouts/15/guestaccess.aspx?docid=0eb33501796144cb0abeadc2dd87b74d3&authkey=AbBvhLq0ewcbScMYwVYIx4c&expiration=2017-03-14T02:04:18.000Z
653名無しさん@お腹いっぱい。 (ワッチョイ ea39-P6gz)
2017/02/12(日) 18:06:51.45ID:8CCipcq70 web版のwaifu2x、ICCプロファイル対応したっぽい?
654名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/12(日) 18:47:05.95ID:T/zbW8Mv0 >>648
その値は画像数百枚の平均ですか、1枚だけですか。
waifu2xと書いてあるものはネットワークの定義だけ持ってきて独自に学習したものですか。(そうだと予測)
元画像を探してきてLanczosで1/2にしたあとにwaifu2x配布モデルで拡大すると明らかに結果が違います。
http://ccsaku.moe.hm/gyazo/data/18eac1728b714cfe64b7843ae5a91499.png
左が評価に使用されている超解像/waifu2xモデル/model_u01999.pkl.pngで、右がwaifu2xの配布モデルの拡大結果です。
左はかなりぼやけていて
PSNRも 超解像/waifu2xモデル: 27.717, waifu2x配布モデル: 31.771
と4dBも差があります。ちなみにLanczosが26.449です。
waifu2xと書く場合はこちらの配布モデルと比較して欲しいです。
学習データは、2012年に作ったものなのでそれよりも新しい画像は使われていません。
添付の結果については、見た目はほとんど違いが分かりませんが
GANありは顎のラインと鳥の下の髪あたりにcheckboard artifactが出ています。
各エポックで結果が揺れるならエポックごとにvalidationしてそれで一番よい値の時だけ
パラメータ保存しておけばいいと思います。
その値は画像数百枚の平均ですか、1枚だけですか。
waifu2xと書いてあるものはネットワークの定義だけ持ってきて独自に学習したものですか。(そうだと予測)
元画像を探してきてLanczosで1/2にしたあとにwaifu2x配布モデルで拡大すると明らかに結果が違います。
http://ccsaku.moe.hm/gyazo/data/18eac1728b714cfe64b7843ae5a91499.png
左が評価に使用されている超解像/waifu2xモデル/model_u01999.pkl.pngで、右がwaifu2xの配布モデルの拡大結果です。
左はかなりぼやけていて
PSNRも 超解像/waifu2xモデル: 27.717, waifu2x配布モデル: 31.771
と4dBも差があります。ちなみにLanczosが26.449です。
waifu2xと書く場合はこちらの配布モデルと比較して欲しいです。
学習データは、2012年に作ったものなのでそれよりも新しい画像は使われていません。
添付の結果については、見た目はほとんど違いが分かりませんが
GANありは顎のラインと鳥の下の髪あたりにcheckboard artifactが出ています。
各エポックで結果が揺れるならエポックごとにvalidationしてそれで一番よい値の時だけ
パラメータ保存しておけばいいと思います。
655名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/12(日) 18:49:25.75ID:T/zbW8Mv0656名無しさん@お腹いっぱい。 (JP 0H09-3CwI)
2017/02/13(月) 12:19:52.07ID:BMiBMFwmH >654
確認ありがとうございます!!!
waifu2xと書くのは問題ありそうなのでいい呼び方があったら教えてください。
waifu2xと直接比較しないのは、不明な工夫(学習データ、アウギュメンテーションなど)
がたくさんあり、それを見切れないので比較しようがないというのがあります。
条件を合わせているのは層の数、チャンネル数だけです。
そちらの方としてはあまり変わったことはやってないかもしれませんが、
こちらはそれがわかりません。
とりあえずこれでいい結果が出る手法が発見されればwaifu2xにバックポートすれば
性能上がるのかなと思います。
PNSRなどは2000エポックのうち最後の1000エポックの平均です。
画像を複数枚評価するのは時間的に厳しいのでできていません。
アーティファクトについてはしらなかったのでそういう指摘は助かります。
GANは2000エポックで収束してないというか収束しそうにないので
俺手法のGANの効果については今のところ自分も懐疑的です。
確認ありがとうございます!!!
waifu2xと書くのは問題ありそうなのでいい呼び方があったら教えてください。
waifu2xと直接比較しないのは、不明な工夫(学習データ、アウギュメンテーションなど)
がたくさんあり、それを見切れないので比較しようがないというのがあります。
条件を合わせているのは層の数、チャンネル数だけです。
そちらの方としてはあまり変わったことはやってないかもしれませんが、
こちらはそれがわかりません。
とりあえずこれでいい結果が出る手法が発見されればwaifu2xにバックポートすれば
性能上がるのかなと思います。
PNSRなどは2000エポックのうち最後の1000エポックの平均です。
画像を複数枚評価するのは時間的に厳しいのでできていません。
アーティファクトについてはしらなかったのでそういう指摘は助かります。
GANは2000エポックで収束してないというか収束しそうにないので
俺手法のGANの効果については今のところ自分も懐疑的です。
657名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/13(月) 15:10:31.44ID:eYxsvRKA0 >>656
waifu2xはごちゃごちゃやっていることが多いですがそこまで影響していないと思うので
4dBも違うのは教師データの位置がずれてるか学習の方法かハイパーパラメータが悪いのではないかと思います。
最初に近い精度までは持って行かないとなにか間違いやバグがある可能性があり信頼できなくなります。
waifu2xは写真データで既存手法と同じくらいの結果が出るところまでは調節しています。
waifu2xの学習の基本的なところは、
- 入力画像のランダムな位置から96x96の領域(patch)を切り取り(y)
- それを48x48に縮小(x), 縮小アルゴリズムはBox(平均画素法)とlanczosをランダムに使う
- CNNにxを入力して82x82の出力を取得(zero paddingがないため(96-14)^2になる)
- 出力とyのピクセル位置が合うようにyを82x82に切り取り
- (x-y)^2 誤差を計算してパラメータを更新
で、実際には、画像単位で縮小してその中から64領域を切り取って、xと対応するyもあらかじめ作りながら
画像数*64の(x, y)ペアを作った後にシャッフルしてbatch_size=16, optimizer=Adam(alpha=0.00025)で学習を回しています。
64領域のサンプリングは2エポック毎に行っています(ランダムな位置から再度作り直す)
patch_size, batch_size, Adamの設定は結果への影響が大きいです。
>画像を複数枚評価するのは時間的に厳しいのでできていません。
学習に使わない画像を100枚くらい外しておいて
学習済みのモデルでベンチマークするコードを書いておけば実行は5分もかからないと思います。
>>655
反映されているようです。ウェブ版にICCプロファイルの対応入れています。
waifu2xはごちゃごちゃやっていることが多いですがそこまで影響していないと思うので
4dBも違うのは教師データの位置がずれてるか学習の方法かハイパーパラメータが悪いのではないかと思います。
最初に近い精度までは持って行かないとなにか間違いやバグがある可能性があり信頼できなくなります。
waifu2xは写真データで既存手法と同じくらいの結果が出るところまでは調節しています。
waifu2xの学習の基本的なところは、
- 入力画像のランダムな位置から96x96の領域(patch)を切り取り(y)
- それを48x48に縮小(x), 縮小アルゴリズムはBox(平均画素法)とlanczosをランダムに使う
- CNNにxを入力して82x82の出力を取得(zero paddingがないため(96-14)^2になる)
- 出力とyのピクセル位置が合うようにyを82x82に切り取り
- (x-y)^2 誤差を計算してパラメータを更新
で、実際には、画像単位で縮小してその中から64領域を切り取って、xと対応するyもあらかじめ作りながら
画像数*64の(x, y)ペアを作った後にシャッフルしてbatch_size=16, optimizer=Adam(alpha=0.00025)で学習を回しています。
64領域のサンプリングは2エポック毎に行っています(ランダムな位置から再度作り直す)
patch_size, batch_size, Adamの設定は結果への影響が大きいです。
>画像を複数枚評価するのは時間的に厳しいのでできていません。
学習に使わない画像を100枚くらい外しておいて
学習済みのモデルでベンチマークするコードを書いておけば実行は5分もかからないと思います。
>>655
反映されているようです。ウェブ版にICCプロファイルの対応入れています。
658名無しさん@お腹いっぱい。 (JP 0H09-3CwI)
2017/02/13(月) 17:35:47.49ID:BMiBMFwmH 4dB問題は知ってたんですけどいくら確認してもおかしいところが
見つからないのでwaifu2xが何かやってるんだろうととりあえず放置していました。
そちらからみておかしい、とのことですのでもっとしっかりデータ確認します。
ありうるのはサブピクセルレベルでのピクセルずれ(縮小時に奇数ピクセル数だとずれるとか)が
ありうるかと思いますが、そちらで情報開示してもらったのでそれに合わせてやってみます。
縮小フィルタの特性を学習してしまう問題も知ってるんですけど、そういう回避方法は
考えていませんでした。やってみます。
見つからないのでwaifu2xが何かやってるんだろうととりあえず放置していました。
そちらからみておかしい、とのことですのでもっとしっかりデータ確認します。
ありうるのはサブピクセルレベルでのピクセルずれ(縮小時に奇数ピクセル数だとずれるとか)が
ありうるかと思いますが、そちらで情報開示してもらったのでそれに合わせてやってみます。
縮小フィルタの特性を学習してしまう問題も知ってるんですけど、そういう回避方法は
考えていませんでした。やってみます。
659名無しさん@お腹いっぱい。 (ワッチョイWW d6c5-PD8f)
2017/02/13(月) 19:03:49.27ID:6JRW9uJM0 adamのalphaは小さめにしていますが
それでもでかいようなので全部そろえます
毎度すみません
それでもでかいようなので全部そろえます
毎度すみません
660名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/14(火) 00:43:58.37ID:9afuuku60 >>82x82
upconv_7の出力は68x68でした。(96-14*2)
>縮小時に奇数ピクセル数だとずれるとか
これは必須です。もし対策していなければこのせいじゃないかと思います。
waifu2xは学習画像読み込み時点で4の倍数になるようにしています。(4xもあるため)
またpatchを切り取る位置も元画像側の位置が奇数になると縮小側の位置がズレます。
upconv_7の出力は68x68でした。(96-14*2)
>縮小時に奇数ピクセル数だとずれるとか
これは必須です。もし対策していなければこのせいじゃないかと思います。
waifu2xは学習画像読み込み時点で4の倍数になるようにしています。(4xもあるため)
またpatchを切り取る位置も元画像側の位置が奇数になると縮小側の位置がズレます。
661名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/17(金) 20:31:02.69ID:ISS8P0MC0 超解像頑張り中の人です。
とりあえずwaifu2xのソースコード読んでコンボリューションの初期値あわせてみたり、
変な処理をしていたのを直したり色々やったところ1dB改善しました (PSNR=28.5dB)。
視覚的には大幅な画質向上があります。
AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
言われたところは全部直したつもりなんですが、誤差関数が何かやってる様子。
よくわかりません。HunberLossも使っているのか使ってないのかわかりませんし...。
とりあえず1バッチ=12画像、1エポック=100バッチで2000エポックで学習が
収束しきってないのでがんばればPSNR=29dBまでは行くと思うんですが
31dBかかなり厳しいです。30dB行ったら諦めます。
俺的には学習データ数が少ない、augumentationがまずいってところかなあと思います。
学習データはすごく重要なんですけど、俺にはそこに情熱がない...。
こっちの学習データは250枚、augumentationは上下、左右反転、45度ローテーション、
ノイズ付加、画像縮小です。
ほんまwaifu2xはエンジニアリングの塊なので一朝一夕には追いつけませぬ。
(諦めてるので追いつく気なし)
とりあえずwaifu2xのソースコード読んでコンボリューションの初期値あわせてみたり、
変な処理をしていたのを直したり色々やったところ1dB改善しました (PSNR=28.5dB)。
視覚的には大幅な画質向上があります。
AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
言われたところは全部直したつもりなんですが、誤差関数が何かやってる様子。
よくわかりません。HunberLossも使っているのか使ってないのかわかりませんし...。
とりあえず1バッチ=12画像、1エポック=100バッチで2000エポックで学習が
収束しきってないのでがんばればPSNR=29dBまでは行くと思うんですが
31dBかかなり厳しいです。30dB行ったら諦めます。
俺的には学習データ数が少ない、augumentationがまずいってところかなあと思います。
学習データはすごく重要なんですけど、俺にはそこに情熱がない...。
こっちの学習データは250枚、augumentationは上下、左右反転、45度ローテーション、
ノイズ付加、画像縮小です。
ほんまwaifu2xはエンジニアリングの塊なので一朝一夕には追いつけませぬ。
(諦めてるので追いつく気なし)
662名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW)
2017/02/17(金) 22:19:08.74ID:AmcVWIz30 >>661
HuberLossは使っていますが多分それほど関係ないです。(というかMSEのほうがPSNRは高くなると思います)
誤差はノイズ除去で色が劣化しているのを直すときに
下げれる誤差に限界があるので、YUVのYの重み(0.299 × R + 0.587 × G + 0.114 × B)にあわせて
チャンネルごとの誤差の重みを調節しているだけなので、拡大の場合はそれほど関係と思います。
学習データが少ないのはあるかもしれないですが、今はパッチを切り出さずに画像単位でforward/backwadしているでしょうか?
小さなパッチを切り出してからシャッフルして小さいminibatchで学習するのはとても重要です。
画像単位だと例えば1280x720だった、出力が86万個の変数になって
この平均誤差をbackwardすることになるので、画像内のある小さな領域内で誤差が大きかった場合でも平均されて消えてしまいます。
特にイラストの場合は何もない背景が多くて、そこは誤差がほぼゼロになるため平均されて誤差が消失しやすいです。
(waifu2xはパッチを切り出した後パッチ内が単色背景の場合は50%くらいの確率で捨てるような処理も入っています)
また学習データ少ない場合でも、たとえば96x96のパッチだと画像1枚から70万通りくらいの切り出し位置があるのでデータ増加にもなります。
HuberLossは使っていますが多分それほど関係ないです。(というかMSEのほうがPSNRは高くなると思います)
誤差はノイズ除去で色が劣化しているのを直すときに
下げれる誤差に限界があるので、YUVのYの重み(0.299 × R + 0.587 × G + 0.114 × B)にあわせて
チャンネルごとの誤差の重みを調節しているだけなので、拡大の場合はそれほど関係と思います。
学習データが少ないのはあるかもしれないですが、今はパッチを切り出さずに画像単位でforward/backwadしているでしょうか?
小さなパッチを切り出してからシャッフルして小さいminibatchで学習するのはとても重要です。
画像単位だと例えば1280x720だった、出力が86万個の変数になって
この平均誤差をbackwardすることになるので、画像内のある小さな領域内で誤差が大きかった場合でも平均されて消えてしまいます。
特にイラストの場合は何もない背景が多くて、そこは誤差がほぼゼロになるため平均されて誤差が消失しやすいです。
(waifu2xはパッチを切り出した後パッチ内が単色背景の場合は50%くらいの確率で捨てるような処理も入っています)
また学習データ少ない場合でも、たとえば96x96のパッチだと画像1枚から70万通りくらいの切り出し位置があるのでデータ増加にもなります。
663名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW)
2017/02/17(金) 22:33:15.43ID:AmcVWIz30 >AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
あと書いていませんでしたが、0.00025から初めて最終的にその1/10くらいになるように減らしていっています。
Adamは学習率が自動調節されるようなことが書かれていることがありますが
パラメータの要素単位の正規化をやっているだけなのでalphaを減らすのは意味があります。
なので最終的なエポックで1/10くらいになるようにalphaをスケジュールしたほうがPSNRは高くなります。
調節が難しければ、80%くらい進んだ後で1/10にして残り20%を回すくらいでも十分意味があると思います。
あと書いていませんでしたが、0.00025から初めて最終的にその1/10くらいになるように減らしていっています。
Adamは学習率が自動調節されるようなことが書かれていることがありますが
パラメータの要素単位の正規化をやっているだけなのでalphaを減らすのは意味があります。
なので最終的なエポックで1/10くらいになるようにalphaをスケジュールしたほうがPSNRは高くなります。
調節が難しければ、80%くらい進んだ後で1/10にして残り20%を回すくらいでも十分意味があると思います。
664名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/17(金) 23:47:35.21ID:ISS8P0MC0 画像は教えてもらったパッチサイズに分割しています
当然シャッフルしています
SGDなんかでは学習率を減衰する正則化は普通ですけど
Adamでも効果あるんですね。というかそんなに小さな学習率で
PSNR向上するのか...。
当然シャッフルしています
SGDなんかでは学習率を減衰する正則化は普通ですけど
Adamでも効果あるんですね。というかそんなに小さな学習率で
PSNR向上するのか...。
665名無しさん@お腹いっぱい。 (ワントンキン MMc2-Pmei)
2017/02/18(土) 04:13:42.14ID:3fQ0tPmvM ai搭載してほしい
666名無しさん@お腹いっぱい。 (ワッチョイWW 52cf-E1Vt)
2017/02/18(土) 13:20:51.75ID:M/eXR+AJ0 deeplearning研究の成果であるwaifu2xがAIでないとしたら何がAIだと言うのかね
667名無しさん@お腹いっぱい。 (ワッチョイ f787-eq+O)
2017/02/18(土) 13:22:00.41ID:05aNXszw0 >>665
正解を大量に教えれば、その正解に近いものを導くのがAIだけど、あなたの求める正解って何?
正解を大量に教えれば、その正解に近いものを導くのがAIだけど、あなたの求める正解って何?
668名無しさん@お腹いっぱい。 (ワントンキン MMc2-Pmei)
2017/02/18(土) 14:02:32.75ID:3fQ0tPmvM >>667
AIだったとは!
AIだったとは!
669名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/19(日) 20:45:41.75ID:Io/fs1qe0 超解像で遊んでいる人です。
waifu2xの方の話を聞いてて自分の中で結論が出たのはSRCNNの
画質はずばり精度で決まるということですね。
学習率が異様に小さいのが納得していなかったのですが、
多分SRCNNの重みの調整は超絶微細な学習です。
なので高めの学習率で荒い調整したら細かい調整がいるのかなと思います。
例えるなら7層のネットワークの調整は7枚のレンズの焦点を
あわせるようなもんかなあと思います。
なので処理の過程で精度を落とすような処理は厳禁ですし、
学習データも多い方が明らかに有利です。
なのでかなり気をつかった実装が必要かなと思います。
PSNRは改善してきましたが、やはりノウハウの塊であるwaifu2xを
越えるのは難しいかなと思います。自分はアルゴリズムの方に
興味があるのでそっちがんばります。
自分とwaifu2xの作者の方は目指しているところがまったく逆なので
競合しなかったのが救いです。
waifu2xの方の話を聞いてて自分の中で結論が出たのはSRCNNの
画質はずばり精度で決まるということですね。
学習率が異様に小さいのが納得していなかったのですが、
多分SRCNNの重みの調整は超絶微細な学習です。
なので高めの学習率で荒い調整したら細かい調整がいるのかなと思います。
例えるなら7層のネットワークの調整は7枚のレンズの焦点を
あわせるようなもんかなあと思います。
なので処理の過程で精度を落とすような処理は厳禁ですし、
学習データも多い方が明らかに有利です。
なのでかなり気をつかった実装が必要かなと思います。
PSNRは改善してきましたが、やはりノウハウの塊であるwaifu2xを
越えるのは難しいかなと思います。自分はアルゴリズムの方に
興味があるのでそっちがんばります。
自分とwaifu2xの作者の方は目指しているところがまったく逆なので
競合しなかったのが救いです。
670名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/19(日) 20:46:05.85ID:Io/fs1qe0 先日専門家の方からsaliency mapという手法を教えてもらったので
視覚ベースの高精度化の実験やってます。定量化が難しいですけど
なんとなくbutteraugliは向上しそうな気がします。
あとGANの識別器から重要な画素の情報を計算する方法も考えたので
それも実験中です。
手垢が付いてない分野なので色々新しい手法が見つかります。
視覚ベースの高精度化の実験やってます。定量化が難しいですけど
なんとなくbutteraugliは向上しそうな気がします。
あとGANの識別器から重要な画素の情報を計算する方法も考えたので
それも実験中です。
手垢が付いてない分野なので色々新しい手法が見つかります。
671名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW)
2017/02/20(月) 03:22:48.92ID:eI9WZF/30 SRCNNというか回帰問題なのでそうだと思います。
分類では識別境界に近いところ以外は大雑把でよいですが
回帰だと全ての点を正確に合わせないといけないです。
分類では識別境界に近いところ以外は大雑把でよいですが
回帰だと全ての点を正確に合わせないといけないです。
672名無しさん@お腹いっぱい。 (ワッチョイ 5648-Z7AI)
2017/02/22(水) 16:16:01.04ID:RyHb8dzv0673名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
2017/02/25(土) 21:08:59.68ID:lgzXMqNX0 アニメとか動画を拡大したい人向けのソフト作ってみた。
http://c00-c03.blogspot.jp/2017/02/waifu2x.html
http://c00-c03.blogspot.jp/2017/02/waifu2x.html
674名無しさん@お腹いっぱい。 (ワッチョイW afe1-sTLI)
2017/02/25(土) 21:43:53.51ID:IaQhgHq50 それを使った場合と使わないで普通に全部拡大した場合の結果の違いまだ未検証?
675名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
2017/02/25(土) 22:33:37.42ID:lgzXMqNX0676名無しさん@お腹いっぱい。 (ワッチョイ 7f98-HyQo)
2017/02/26(日) 12:08:18.25ID:lIqm/eYA0 動いてないコマは端折ったのね。面白い考え。
677名無しさん@お腹いっぱい。 (ワッチョイ bf39-8lb6)
2017/02/26(日) 12:35:01.92ID:zA+f4GY30678名無しさん@お腹いっぱい。 (ワッチョイ 6f64-HyQo)
2017/02/26(日) 16:36:31.44ID:/VbKsdDz0679名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-zPQB)
2017/02/26(日) 22:12:33.57ID:Xy6B3Z1p0 面白いな。素材がとにかく低ノイズじゃないと差分がいい具合にならない気はする。
実写だとどうだろうなぁ。実写動画でいろいろ拡大絡みのことはやってみたいと思ってるんだけど。
実写だとどうだろうなぁ。実写動画でいろいろ拡大絡みのことはやってみたいと思ってるんだけど。
680名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
2017/02/26(日) 22:41:32.17ID:uRk4b+bo0681名無しさん@お腹いっぱい。 (ワッチョイ af14-8lb6)
2017/02/27(月) 12:23:47.22ID:GA0WyZxg0 ラデオンでも快適に使えるようにしてくだされ
682名無しさん@お腹いっぱい。 (ワッチョイ af36-8lb6)
2017/02/27(月) 19:28:07.51ID:S1xW0xg80 この差分方式が進化すると裏に進出済み女優の表作品からモザイクを除去できるのでしょうか?
683名無しさん@お腹いっぱい。 (ワッチョイWW efa4-ixb7)
2017/02/28(火) 12:49:55.55ID:pSKMH9Zc0 >>678
コイツです。
コイツです。
684名無しさん@お腹いっぱい。 (ワッチョイ 3a44-kj3l)
2017/03/04(土) 17:25:09.45ID:RVxD/uAR0 >>682
学習データの蒐集方法が謎w
学習データの蒐集方法が謎w
685名無しさん@お腹いっぱい。 (ワッチョイ ba1a-BJNc)
2017/03/05(日) 00:58:28.30ID:xeJSOFvy0 個人ごとに好みがあると思うので各人で学習させる事もできるといいんじゃないかなw
686名無しさん@お腹いっぱい。 (ワッチョイ 6d87-BJNc)
2017/03/05(日) 01:54:20.37ID:nTZYFyha0 100万枚くらい正解と不正解の学習用画像もってる人限定か
687名無しさん@お腹いっぱい。 (ワッチョイ 7556-TgS+)
2017/03/05(日) 22:34:47.95ID:sbvLrrZw0 モザイクと検出された所が全てマンコに置換されて
マンコまみれの悪夢のような画像が生成されるんだな
マンコまみれの悪夢のような画像が生成されるんだな
688名無しさん@お腹いっぱい。 (ワッチョイ 6dd2-b6g9)
2017/03/06(月) 14:05:04.79ID:gas2tGQp0 マジレスすると、モザイクの範囲や解像度は入力によって異なるので復元を学習するのはなかなか難しいと思う。
モザイクの顔が復元できるよみたいなデモは
入力が8x8のモザイクで出力も位置合わせされた顔しかありえないなど限定された条件の結果なのでまだ実用的ではない。
モザイクの顔が復元できるよみたいなデモは
入力が8x8のモザイクで出力も位置合わせされた顔しかありえないなど限定された条件の結果なのでまだ実用的ではない。
689名無しさん@お腹いっぱい。 (ワッチョイ ba39-BJNc)
2017/03/06(月) 19:34:14.98ID:N2MWaHxD0 パネルアート画像がモザイク認識されてとんでも画像へと処理される奇劇のヨカン(´∀`ミ)
690名無しさん@お腹いっぱい。 (ワッチョイ 6be5-9O7/)
2017/03/09(木) 21:30:19.36ID:+vcVYOGF0 >>681
約4倍の高速化したバージョンを公開したのでもしよかったら試してみてください。
http://c00-c03.blogspot.jp/2017/02/AniZipReleaseNotes.html
約4倍の高速化したバージョンを公開したのでもしよかったら試してみてください。
http://c00-c03.blogspot.jp/2017/02/AniZipReleaseNotes.html
691名無しさん@お腹いっぱい。 (ワッチョイ 639e-oGwt)
2017/03/10(金) 09:35:55.09ID:RMdt2oaF0 実写は無理だった
692名無しさん@お腹いっぱい。 (ワッチョイ e532-4mgA)
2017/03/11(土) 14:37:39.60ID:SU15X7fC0 AMDでwaifu2x
http://inatsuka.com/extra/koroshell/ でwaifu2x_koroshellをDL
http://d.hatena.ne.jp/w_o/touch/20150629/1435585193 で
waifu2x-converter_x64_0629_02.zipをDL
waifu2x_koroshellを入れて
waifu2x_koroshellの中のwaifu2x-converterにwaifu2x-converter_x64_0629_02の中身上書き
waifu2x_koroshellで動かすとGUIでOpenCL使える
http://inatsuka.com/extra/koroshell/ でwaifu2x_koroshellをDL
http://d.hatena.ne.jp/w_o/touch/20150629/1435585193 で
waifu2x-converter_x64_0629_02.zipをDL
waifu2x_koroshellを入れて
waifu2x_koroshellの中のwaifu2x-converterにwaifu2x-converter_x64_0629_02の中身上書き
waifu2x_koroshellで動かすとGUIでOpenCL使える
693名無しさん@お腹いっぱい。 (ワッチョイ e339-KHUK)
2017/03/12(日) 06:36:21.76ID:hZc07GQB0 >>696
何でわざわざそんな古いバージョンを…
20160101が最新だよ
http://d.hatena.ne.jp/w_o/20150629/1451664048
あと最近、海外の人が作った派生もある
https://github.com/DeadSix27/waifu2x-converter-cpp/releases
同梱されているモデルのバージョンが新しい
ノイズ除去レベル3が追加されている(なぜかレベル0は追加されていないが)
今後も更新がありそう
などのメリットがある
何でわざわざそんな古いバージョンを…
20160101が最新だよ
http://d.hatena.ne.jp/w_o/20150629/1451664048
あと最近、海外の人が作った派生もある
https://github.com/DeadSix27/waifu2x-converter-cpp/releases
同梱されているモデルのバージョンが新しい
ノイズ除去レベル3が追加されている(なぜかレベル0は追加されていないが)
今後も更新がありそう
などのメリットがある
694名無しさん@お腹いっぱい。 (ワッチョイ e3c6-bLfO)
2017/03/12(日) 13:25:52.96ID:PEldwp8G0 >693
tanakamura氏版から派生したようですね。RX460で正常動作。
ただ、透過画像との相性問題も引き継いじゃってるので、修正されたらいいなぁ。
tanakamura氏版から派生したようですね。RX460で正常動作。
ただ、透過画像との相性問題も引き継いじゃってるので、修正されたらいいなぁ。
695名無しさん@お腹いっぱい。 (ワッチョイ e532-4mgA)
2017/03/14(火) 06:01:16.34ID:ytw58lnz0696名無しさん@お腹いっぱい。 (ワッチョイ e3c6-bLfO)
2017/03/15(水) 01:31:35.13ID:NMYyqaAt0 >695
koroshellフォルダに「waifu2x-converter」サブフォルダ作って、
「waifu2x-converter_x64.exe」にリネームすれば、使えますよ。
ノイズ除去は、なし(Lv0)、弱(Lv1)、強(Lv2)までしか選べないので、
Lv3使えないけど。
koroshellフォルダに「waifu2x-converter」サブフォルダ作って、
「waifu2x-converter_x64.exe」にリネームすれば、使えますよ。
ノイズ除去は、なし(Lv0)、弱(Lv1)、強(Lv2)までしか選べないので、
Lv3使えないけど。
697名無しさん@お腹いっぱい。 (ワッチョイ 3a82-bHoN)
2017/03/17(金) 17:24:03.19ID:FhgIFmLg0 自分用にこういうの作ったから良かったらどうぞ
基本的にただのフロントエンドなので元のソフトの機能しか使えないですが
http://i.imgur.com/6j4XHEy.png
https://www.dropbox.com/sh/0y9scaml78otum2/AAAs4sTIHQWn_UfYCwwC95VKa?dl=0
https://www.virustotal.com/ja/file/67cc556ad135c2ab85d83b4bd92e6735b873904ff42a38f9022719435996d9e9/analysis/
https://www.virustotal.com/ja/file/c06ba95ca00297f0d7e8892bb350899337d50f7c30a5f9e104e58e8ba96107d7/analysis/
かなり強引な方法ではあるけど、フォルダも処理出来る(多分)ので>>673フソフトとも連携できるはず
基本的にただのフロントエンドなので元のソフトの機能しか使えないですが
http://i.imgur.com/6j4XHEy.png
https://www.dropbox.com/sh/0y9scaml78otum2/AAAs4sTIHQWn_UfYCwwC95VKa?dl=0
https://www.virustotal.com/ja/file/67cc556ad135c2ab85d83b4bd92e6735b873904ff42a38f9022719435996d9e9/analysis/
https://www.virustotal.com/ja/file/c06ba95ca00297f0d7e8892bb350899337d50f7c30a5f9e104e58e8ba96107d7/analysis/
かなり強引な方法ではあるけど、フォルダも処理出来る(多分)ので>>673フソフトとも連携できるはず
698名無しさん@お腹いっぱい。 (ワッチョイ 7d99-tpgq)
2017/03/17(金) 23:03:21.46ID:fptxaYtO0 全く見てないけどkoroshellの代わりになるようなもの
という認識で良い?
という認識で良い?
699名無しさん@お腹いっぱい。 (ワッチョイ 3a82-bHoN)
2017/03/17(金) 23:37:27.66ID:FhgIFmLg0 >>698
基本的にはそういう感じですが使い勝手は異なるのでどちらが良いかは人によるかと思います。
具体的には画像をドラッグ&ドロップしただけでは変換が始まらないので何枚もポンポン放る使い方をする方はkoroshellのほうが良いかもしれません。
koroshellより優れていると思うところは
フォルダをサブフォルダごと処理出来る(多分)
同梱モデルが新しい
最初からtanakamura氏のwaifu2x-converter-cppを同梱をしてあるので差し替える必要がない
イラスト用モデルと写真用モデルの切り替えができる
ノイズ除去レベル 0〜3まで使用可能
ですかね。
基本的にはそういう感じですが使い勝手は異なるのでどちらが良いかは人によるかと思います。
具体的には画像をドラッグ&ドロップしただけでは変換が始まらないので何枚もポンポン放る使い方をする方はkoroshellのほうが良いかもしれません。
koroshellより優れていると思うところは
フォルダをサブフォルダごと処理出来る(多分)
同梱モデルが新しい
最初からtanakamura氏のwaifu2x-converter-cppを同梱をしてあるので差し替える必要がない
イラスト用モデルと写真用モデルの切り替えができる
ノイズ除去レベル 0〜3まで使用可能
ですかね。
700名無しさん@お腹いっぱい。 (ワッチョイ 9619-i8cA)
2017/03/18(土) 16:30:49.66ID:SMS+/6Qv0 700
701名無しさん@お腹いっぱい。 (ワッチョイ 45e2-mE/U)
2017/03/18(土) 16:48:11.10ID:uCDPIZXT0 D&Dモードも実装して(はぁと)
702名無しさん@お腹いっぱい。 (ワッチョイ c999-E+Pv)
2017/03/31(金) 14:45:23.84ID:BqzZfGSY0 waifu2xのすごさを実感したわ
幅720ピクセルの画像をFHDにして壁紙で耐えられる
まあイラストだから許せるのもあるけど
幅720ピクセルの画像をFHDにして壁紙で耐えられる
まあイラストだから許せるのもあるけど
703名無しさん@お腹いっぱい。 (ワッチョイ c146-1gvu)
2017/03/31(金) 18:13:13.97ID:2g/H5pQj0 昔付き合ってた女のいろんな画像とか、waifu2xで拡大して遊んでるわw
流石に昔のスマホの素人撮りだから、2倍以上だと粗が目立つけども・・・
閑古休題、DenoiseNetも今後期待できそうね
https://pbs.twimg.com/media/C1tjW1qWIAAEpJw.jpg
https://arxiv.org/abs/1701.01698
流石に昔のスマホの素人撮りだから、2倍以上だと粗が目立つけども・・・
閑古休題、DenoiseNetも今後期待できそうね
https://pbs.twimg.com/media/C1tjW1qWIAAEpJw.jpg
https://arxiv.org/abs/1701.01698
704名無しさん@お腹いっぱい。 (ワッチョイ c999-agmj)
2017/03/31(金) 23:36:18.06ID:iFk//65N0705名無しさん@お腹いっぱい。 (ワッチョイ d146-YuVY)
2017/04/02(日) 23:42:14.76ID:P/TEvgCC0 縦横幅を指定って7680x4320みたいな指定でいいのね
706名無しさん@お腹いっぱい。 (ワッチョイ 1382-FZog)
2017/04/03(月) 00:01:52.18ID:j7vFn78H0 >>705
何の話かと思ったら更新来てたのね
waifu2x-caffe ver 1.1.8.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.1
GUIで変換後の縦横幅でサイズ指定を追加
CUIで変換後の縦横幅を同時に指定できるようにした
GUIの翻訳にフランス語追加
何の話かと思ったら更新来てたのね
waifu2x-caffe ver 1.1.8.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.1
GUIで変換後の縦横幅でサイズ指定を追加
CUIで変換後の縦横幅を同時に指定できるようにした
GUIの翻訳にフランス語追加
707名無しさん@お腹いっぱい。 (ワッチョイ 1382-FZog)
2017/04/03(月) 00:19:45.25ID:j7vFn78H0 ところで↓の話ってどうなったんですかね?
CUDA on AMD GPUs, now possible? · Issue #71 · lltcggie/waifu2x-caffe
https://github.com/lltcggie/waifu2x-caffe/issues/71
MIOpenは2017年の第1四半期にリリース予定って聞いたんですが、まだリリースされてないのかな?
CUDA on AMD GPUs, now possible? · Issue #71 · lltcggie/waifu2x-caffe
https://github.com/lltcggie/waifu2x-caffe/issues/71
MIOpenは2017年の第1四半期にリリース予定って聞いたんですが、まだリリースされてないのかな?
708名無しさん@お腹いっぱい。 (ワッチョイ c999-E+Pv)
2017/04/03(月) 00:59:01.62ID:/CKofziZ0 ある程度大きい画像だと違いはあまり感じられないのね
709名無しさん@お腹いっぱい。 (ワッチョイ 29f6-SPHJ)
2017/04/03(月) 18:49:25.18ID:X2+lQHyy0710名無しさん@お腹いっぱい。 (ワッチョイ 29f6-SPHJ)
2017/04/03(月) 23:08:06.81ID:X2+lQHyy0 ドライバ更新したらCUDA変換できた
>ある程度大きい画像だと違いはあまり感じられないのね
画像によるけどフォトショ等で一旦縮小してからやると綺麗になったりする時もあるよ
>ある程度大きい画像だと違いはあまり感じられないのね
画像によるけどフォトショ等で一旦縮小してからやると綺麗になったりする時もあるよ
711名無しさん@お腹いっぱい。 (アンパン d146-YuVY)
2017/04/04(火) 06:54:31.05ID:IKEv3bLo00404 ん、GUIで高さ指定の場合に入力値が横幅として処理されちゃってる?
横幅指定は正しく横幅になり、縦x横指定の場合もその通りになる
ファイル名の付き方は指定の通りになってる
横幅指定は正しく横幅になり、縦x横指定の場合もその通りになる
ファイル名の付き方は指定の通りになってる
712名無しさん@お腹いっぱい。 (ワッチョイ 3720-+TA9)
2017/04/08(土) 18:15:39.34ID:rclrmZXV0 >>711
致命的バグが修正されませんね。
致命的バグが修正されませんね。
713名無しさん@お腹いっぱい。 (ワッチョイ 136c-pzmP)
2017/04/16(日) 21:27:24.07ID:pBocPxZ/0 バージョンアップ来そうな予感
714名無しさん@お腹いっぱい。 (ワッチョイ 136c-pzmP)
2017/04/16(日) 21:37:19.02ID:pBocPxZ/0 waifu2x-caffe ver 1.1.8.2
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.2
出力フォルダを選択するときにエラー落ちすることがあるバグを修正
GUIで縦幅サイズ指定にしても横幅の指定と認識されるバグを修正
出力深度ビット数を入力で変更できないようにした
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.2
出力フォルダを選択するときにエラー落ちすることがあるバグを修正
GUIで縦幅サイズ指定にしても横幅の指定と認識されるバグを修正
出力深度ビット数を入力で変更できないようにした
715名無しさん@お腹いっぱい。 (ワッチョイW 136c-Qdgp)
2017/04/17(月) 00:16:48.95ID:Fnf2sWjg0 今繋がらなくなってる?
プロキシエラーになる
プロキシエラーになる
716名無しさん@お腹いっぱい。 (ワッチョイ 136c-pzmP)
2017/04/17(月) 00:40:06.64ID:3EuGOoc40 >>715
こっちは繋がるよ
こっちは繋がるよ
717名無しさん@お腹いっぱい。 (ワッチョイ 2987-mJZ7)
2017/04/30(日) 20:09:22.51ID:tNItES6T0 このソフト便利だなあ
写真で使うと解像感があがる
塗り絵になってしまうのは仕方ないけど縮小して見る分には問題ない
写真で使うと解像感があがる
塗り絵になってしまうのは仕方ないけど縮小して見る分には問題ない
718名無しさん@お腹いっぱい。 (ワッチョイ 8b54-XZJj)
2017/05/02(火) 15:42:24.70ID:JQ04n9gT0 これすげえ。
ディープネットワークによる
シーンの大域的かつ局所的な整合性を考慮した画像補完
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/ja/
様々なシーンの画像補完(Places2データセット)
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/images/results/results.png
顔画像の補完(CelebAデータセット)
ディープネットワークによる
シーンの大域的かつ局所的な整合性を考慮した画像補完
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/ja/
様々なシーンの画像補完(Places2データセット)
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/images/results/results.png
顔画像の補完(CelebAデータセット)
719名無しさん@お腹いっぱい。 (ワッチョイ 513b-Ahd3)
2017/05/02(火) 15:58:18.77ID:vtKwUtbN0 >>718
なにこれ使い道一つしか思い浮かばない
なにこれ使い道一つしか思い浮かばない
720名無しさん@お腹いっぱい。 (アウアウカー Sa75-Ke9a)
2017/05/02(火) 16:57:06.66ID:taLs0zcqa >>719
通報した
通報した
721名無しさん@お腹いっぱい。 (スッップ Sd33-g2qj)
2017/05/02(火) 17:17:39.08ID:qDVWDXWEd これであの水玉を消せるんやな!
722名無しさん@お腹いっぱい。 (ワッチョイW 7143-3+xq)
2017/05/02(火) 17:18:42.61ID:pqsa/JXr0 そもそも学習用のモデルが用意できねぇw
723名無しさん@お腹いっぱい。 (アウーイモ MM3d-GyyV)
2017/05/02(火) 19:11:17.40ID:XTKWh3siM 学習用モデル=世界中で公開されているネット上の画像っていうパターンか。
724名無しさん@お腹いっぱい。 (ワッチョイ 136c-odTx)
2017/05/02(火) 21:16:59.37ID:5cXtYQYl0 >>718
早稲田のチーム凄いな
早稲田のチーム凄いな
725名無しさん@お腹いっぱい。 (ワッチョイ fbdd-Zeij)
2017/05/03(水) 00:00:51.86ID:+CxIcRIL0 ここに書いて良いのか分かりませんが waifu2x-caffe ver 1.1.8.2
GUIで 出力深度ビット数を16bitにして終了しても設定が保存されません。
(Setting.ini で常に LastOutputDepth=8 になる)
GUIで 出力深度ビット数を16bitにして終了しても設定が保存されません。
(Setting.ini で常に LastOutputDepth=8 になる)
726名無しさん@お腹いっぱい。 (ワッチョイ 9387-QxBz)
2017/05/03(水) 23:06:21.15ID:ImwEXeaO0 >>719
水着とか消しても裸にはならずに水着が生成されるだけだとおもうぞw
水着とか消しても裸にはならずに水着が生成されるだけだとおもうぞw
727名無しさん@お腹いっぱい。 (ワッチョイ 3fff-Ogwz)
2017/05/04(木) 01:20:29.54ID:G2y9UVJf0 >726
横に別の裸婦おいとけばそういうものと解釈されると思われ
横に別の裸婦おいとけばそういうものと解釈されると思われ
728名無しさん@お腹いっぱい。 (コードモ 0287-kvki)
2017/05/05(金) 07:07:35.10ID:x1hI7Qpd00505 waifu2x-caffe 1.1.8.2
拡大サイズの縦横幅で指定にチェックした状態で、変換モードをノイズ除去だけにしてもリサイズされちゃうな
拡大サイズの縦横幅で指定にチェックした状態で、変換モードをノイズ除去だけにしてもリサイズされちゃうな
729名無しさん@お腹いっぱい。 (ワッチョイ 26ee-W+y+)
2017/05/06(土) 21:46:20.63ID:IOuQ7Cr50 waifu2x-caffe作者様:
出力パスに.(UpRGB)(noise_scale)(Level2)(height 1920).jpgとかを
一切付与しない動作設定OPって追加出来ませんかね?
出力パスに.(UpRGB)(noise_scale)(Level2)(height 1920).jpgとかを
一切付与しない動作設定OPって追加出来ませんかね?
730名無しさん@お腹いっぱい。 (ワッチョイW abb3-QmZ/)
2017/05/06(土) 23:16:08.90ID:4rqar1y80 コマンドラインから使えばいいじゃん
731名無しさん@お腹いっぱい。 (ワッチョイ 4286-Ogwz)
2017/05/07(日) 00:14:14.19ID:2eNDc51j0 複数ファイル渡せば付与されたフォルダが作られた中に元のファイル名で保存されるやん(単ファイルでやってるならファイル名入れなおせば?)
732名無しさん@お腹いっぱい。 (ワッチョイ 67d9-Ogwz)
2017/05/09(火) 10:49:10.46ID:z00DZkJZ0733名無しさん@お腹いっぱい。 (ワッチョイ 3f0f-PP+T)
2017/05/09(火) 17:09:22.63ID:bfkz6Z1j0 あっそ
2017/05/10(水) 10:54:53.09ID:9A/riYfT0
仕事で衛星写真系の超解像を齧ってるんだが
既存のアルゴリズムだとなかなか思ったようにはいかないものだな
学習ベース(元画像から縮小)は現状数十万件あることは有るのだが
既存のアルゴリズムだとなかなか思ったようにはいかないものだな
学習ベース(元画像から縮小)は現状数十万件あることは有るのだが
735名無しさん@お腹いっぱい。 (ワッチョイ e654-HG4F)
2017/05/10(水) 11:23:44.94ID:UuXmik9X0736名無しさん@お腹いっぱい。 (ワッチョイ 3fff-Ogwz)
2017/05/10(水) 15:49:05.06ID:uNxg2QHm0 >734
学習させる正解って何って世界で、ゴースト出ても味があるとかじゃ清まされないからねぇ
学習させる正解って何って世界で、ゴースト出ても味があるとかじゃ清まされないからねぇ
737名無しさん@お腹いっぱい。 (ワッチョイ 13ec-bQOW)
2017/05/11(木) 16:24:41.03ID:SMDSeqjX0 衛生写真の超解像ってセンサ的に撮れないものを出そうとしているならそれは無理なので
検出したい物体だけ小さくても周りの状態や別の情報から検出できるようにするとか問題設定を変えたほうがいい気がする
最近kaggleでも衛生写真の領域分割(車、道などの分類)や位置合わせなどやっていたよ
検出したい物体だけ小さくても周りの状態や別の情報から検出できるようにするとか問題設定を変えたほうがいい気がする
最近kaggleでも衛生写真の領域分割(車、道などの分類)や位置合わせなどやっていたよ
738名無しさん@お腹いっぱい。 (ワッチョイ d387-LCn8)
2017/05/13(土) 09:19:13.00ID:dJt40kY10 これ、ループが何回で終わるか分からないのが難点だなあ
start process block (*,*) ...
の数字が減少する方向で書いてあればいいのに
start process block (*,*) ...
の数字が減少する方向で書いてあればいいのに
739名無しさん@お腹いっぱい。 (ワッチョイ 3f3a-+8ye)
2017/05/13(土) 15:49:39.24ID:FAb2LKwd0 >>692
これの導入が間違ったのかな
waifu2x_koroshellが本体?
waifu2x_koroshellのwaifu2x-converterフォルダにwaifu2x-converter_x64_0629_02の中身上書きしたら応答停止になった
つかwaifu2x_koroshellオリジナルが2分半かかったけどtanakamuraオリジナルは30秒未満だったよw
これの導入が間違ったのかな
waifu2x_koroshellが本体?
waifu2x_koroshellのwaifu2x-converterフォルダにwaifu2x-converter_x64_0629_02の中身上書きしたら応答停止になった
つかwaifu2x_koroshellオリジナルが2分半かかったけどtanakamuraオリジナルは30秒未満だったよw
740名無しさん@お腹いっぱい。 (ワッチョイ c335-8ulf)
2017/05/13(土) 23:40:32.01ID:P6F+VILj0 tanakamuraってまだ更新してるの?
741名無しさん@お腹いっぱい。 (ワントンキン MM5f-DjQ0)
2017/05/14(日) 15:16:16.36ID:1GR9xMZmM 止まってる
742名無しさん@お腹いっぱい。 (ワッチョイ c38c-X8tp)
2017/05/15(月) 01:11:02.50ID:NgqhOYwL0 waifu2x-caffe ver 1.1.8.3
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.3
縦幅か横幅指定の拡大で、計算誤差が原因で指定サイズから1pxくらいずれることがあるのを修正
日本語環境以外でCUIの出力が文字化けしていることがあるのを修正
cuDNN v6に対応
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.3
縦幅か横幅指定の拡大で、計算誤差が原因で指定サイズから1pxくらいずれることがあるのを修正
日本語環境以外でCUIの出力が文字化けしていることがあるのを修正
cuDNN v6に対応
743名無しさん@お腹いっぱい。 (ワッチョイ bf6c-MtWk)
2017/05/15(月) 05:45:05.44ID:yjuDx3R10744名無しさん@お腹いっぱい。 (ワッチョイ f657-kvD5)
2017/05/19(金) 09:05:30.88ID:GMrJ8uZy0 AMD版更新・・・
745名無しさん@お腹いっぱい。 (ワッチョイ 33a7-kvD5)
2017/05/19(金) 13:22:34.26ID:g46aCL8V0 waifu2xすげーな
アプコンの美しさ、処理の速さ、生成ファイルの容量、ひとつも不満なし
久々に神ソフトに出会ったわ
アプコンの美しさ、処理の速さ、生成ファイルの容量、ひとつも不満なし
久々に神ソフトに出会ったわ
746名無しさん@お腹いっぱい。 (ワッチョイ deee-cm4/)
2017/05/22(月) 16:39:55.09ID:TBnT4kBv0 不満をしいてあげれば、にじみ(ボヤケ)かな。
画数の多い文字が含められてる画像を処理した場合とかに特に目立つ。
画数の多い文字が含められてる画像を処理した場合とかに特に目立つ。
747名無しさん@お腹いっぱい。 (アウーイモ MM2f-K9MP)
2017/05/22(月) 19:07:44.33ID:pWmGSvMIM にじみというより溶けてる。
アンチエイリアスでもかけたくなる
アンチエイリアスでもかけたくなる
748名無しさん@お腹いっぱい。 (ワッチョイ 03ff-kvD5)
2017/05/22(月) 19:30:46.99ID:TeLMEihh0 ノイズ除去オフにしてみたら?
749名無しさん@お腹いっぱい。 (ワッチョイ ca86-kvD5)
2017/05/22(月) 19:39:45.16ID:VCQWXW2m0 普通に拡大するよりかなりマシだとは思うけど
その画数が多い文字ってそもそも小さくて点のあつまりみたいになってるようなのじゃないの?
その画数が多い文字ってそもそも小さくて点のあつまりみたいになってるようなのじゃないの?
750名無しさん@お腹いっぱい。 (ワッチョイ 9ea5-kvD5)
2017/05/24(水) 03:21:38.21ID:029zNDOI0 >>744
どこのこと?w
どこのこと?w
751名無しさん@お腹いっぱい。 (ワッチョイ 9f6c-JG13)
2017/05/25(木) 18:25:43.19ID:65GD6j0N0 !?
https://twitter.com/ceekz/status/867657726066737153
eBookJapan が waifu2x に目を付けたものの、マンガ画像での画質には満足できる結果が得られなかったので、作者の nagadomi 氏と共同研究したとのお話、超いい話。 #jsai2017
https://twitter.com/ceekz/status/867657726066737153
eBookJapan が waifu2x に目を付けたものの、マンガ画像での画質には満足できる結果が得られなかったので、作者の nagadomi 氏と共同研究したとのお話、超いい話。 #jsai2017
752名無しさん@お腹いっぱい。 (ワッチョイ 5b63-JG13)
2017/05/25(木) 19:29:59.98ID:eyGOFKtj0 お前らは元データの解像度上げろよw
753名無しさん@お腹いっぱい。 (ワッチョイ dfe0-fkwH)
2017/05/25(木) 22:15:17.68ID:kUHM1/vo0 ホントだよ
754名無しさん@お腹いっぱい。 (ワッチョイ 9f86-9J/J)
2017/05/26(金) 04:30:43.98ID:nRPx0DCl0 どれだけひどい元解像度を想定してるの (((´・ω・`)
755名無しさん@お腹いっぱい。 (ワッチョイ 6b87-9J/J)
2017/05/26(金) 16:30:06.46ID:EQGpWO780 サーバーにクソ画像で保存(容量節約)
購入者宅でwaifu2x拡大
という流れか
購入者宅でwaifu2x拡大
という流れか
756名無しさん@お腹いっぱい。 (ワッチョイ 0fec-YwAU)
2017/05/26(金) 17:05:25.15ID:8jEqXNTn0 まともな画質になる範囲なら大アリだと前から思ってたけど
読みながら拡大じゃ遅すぎるから
買ってダウンロードした直後か読む前に全ページ拡大かねえ
それにしたって時間かかるな
画像部分と写植部分のデータを分けて文字はリアルタイムレンダリングなら理想じゃねって思ってる
フォントは必要に応じてダウンロードされる想定
読みながら拡大じゃ遅すぎるから
買ってダウンロードした直後か読む前に全ページ拡大かねえ
それにしたって時間かかるな
画像部分と写植部分のデータを分けて文字はリアルタイムレンダリングなら理想じゃねって思ってる
フォントは必要に応じてダウンロードされる想定
757名無しさん@お腹いっぱい。 (ワッチョイ eb32-MgrD)
2017/05/26(金) 17:22:43.39ID:c9AYd7GP0 いずれにせよ、この手の技術が企業側の手にかかった時、
ユーザにメリットなんてほとんど考えられないと思うのは俺だけか
ユーザにメリットなんてほとんど考えられないと思うのは俺だけか
758名無しさん@お腹いっぱい。 (ワッチョイ bb03-XXO+)
2017/05/26(金) 19:16:01.27ID:WYvdqFs/0 文字の多くが吹き出し内に収まっている画像なら恩恵が大きそう
黒ベタやカケアミの上の文字は苦手そうだが
黒ベタやカケアミの上の文字は苦手そうだが
759名無しさん@お腹いっぱい。 (ワッチョイ 0fec-YwAU)
2017/05/26(金) 23:10:47.80ID:8jEqXNTn0 >>757
それは同感だな...
それは同感だな...
760名無しさん@お腹いっぱい。 (ワッチョイWW df8e-1Uaq)
2017/05/27(土) 06:59:40.02ID:83m0YSC30 資本投入で開発スピードアップ、変換品質アップするなら有料でもなんら問題はない
むしろ現状の「タダで使えるのが当たり前」を前提にしていることのほうが、よほど不自然だ
むしろ現状の「タダで使えるのが当たり前」を前提にしていることのほうが、よほど不自然だ
761名無しさん@お腹いっぱい。 (ワッチョイ ef57-9J/J)
2017/05/27(土) 13:18:06.97ID:OKArgZIU0 >>750
スマン、まだかなーって待ちわびてるのよw
スマン、まだかなーって待ちわびてるのよw
762名無しさん@お腹いっぱい。 (ワッチョイ 8be0-MgrD)
2017/05/27(土) 15:29:04.19ID:SF5b7Q1g0 どう考えてもトーンで爆死だろ
763名無しさん@お腹いっぱい。 (ワッチョイ 7bf8-9J/J)
2017/05/28(日) 05:24:34.22ID:fiLf1wF90764名無しさん@お腹いっぱい。 (ワッチョイ eb32-lYDY)
2017/05/31(水) 07:02:52.19ID:vM+I0McW0765名無しさん@お腹いっぱい。 (ワッチョイ 2589-lzDu)
2017/06/01(木) 16:55:53.64ID:HaB1LARk0 waifu2x-caffe_Difference_From_ver1.8.0.zip
1.1.8の間違い?
1.1.8の間違い?
766名無しさん@お腹いっぱい。 (ワッチョイ 6632-k7rq)
2017/06/03(土) 08:15:36.26ID:qOKxzklB0767名無しさん@お腹いっぱい。 (ワッチョイWW ea8e-W5jK)
2017/06/20(火) 23:50:36.91ID:lcWK/YJq0 ディープラーニングシステムの主要要素(モデルなど)の再現や入れ替えを容易にして研究を促進するGoogleのTensor2Tensorが一般公開
http://jp.techcrunch.com/2017/06/20/20170619tensor2tensor/
近頃、あまり動きはないようですが、これ以上の改良などは特になさそうなのかな?
http://jp.techcrunch.com/2017/06/20/20170619tensor2tensor/
近頃、あまり動きはないようですが、これ以上の改良などは特になさそうなのかな?
768名無しさん@お腹いっぱい。 (ワッチョイ bf67-LRJs)
2017/06/27(火) 00:44:09.93ID:YRRyu61z0 >>707
AMD、Vega世代のGPUを搭載した機械学習向けの「Radeon Instinct MI25」
http://news.mynavi.jp/news/2017/06/26/330/
> なお、MIOpenとROCmに関しては、6月29日の公開を予定する。
AMD、Vega世代のGPUを搭載した機械学習向けの「Radeon Instinct MI25」
http://news.mynavi.jp/news/2017/06/26/330/
> なお、MIOpenとROCmに関しては、6月29日の公開を予定する。
769名無しさん@お腹いっぱい。 (ワッチョイ 9f6c-iV7a)
2017/06/27(火) 01:56:04.79ID:Ejj/j5kL0770名無しさん@お腹いっぱい。 (ワッチョイ f7f9-nEVa)
2017/06/27(火) 02:19:37.15ID:QcSZqwrU0 米尼から買った1080Tiを1060に追加して(学習ベース構築の段階)24時間回してるんだが
工業扇が50wくらい食ってるが、1月あたりの電気代が6千円→1万越えにw
ガレージ設置で計測機が別系統なのでわかりやすい・・・設置するまでは基本料金に収まってたのよね
工業扇が50wくらい食ってるが、1月あたりの電気代が6千円→1万越えにw
ガレージ設置で計測機が別系統なのでわかりやすい・・・設置するまでは基本料金に収まってたのよね
771名無しさん@お腹いっぱい。 (ワッチョイWW 928e-+NMm)
2017/06/30(金) 00:00:38.38ID:YwpeVX100 電力会社の見直しだ!!
772名無しさん@お腹いっぱい。 (アークセーT Sx71-ZBdv)
2017/07/02(日) 08:01:39.54ID:WTrkZN+Xx 「拡大サイズは0より大きい整数である必要があります」というエラーが出るのですが
どなたか解決法を教えてください、お願いします
どなたか解決法を教えてください、お願いします
773名無しさん@お腹いっぱい。 (ワッチョイ c26c-POtP)
2017/07/02(日) 14:07:31.97ID:rKTJKeju0 >>772
拡大率の指定で全角数字を入力してるとか?
拡大率の指定で全角数字を入力してるとか?
774名無しさん@お腹いっぱい。 (アークセーT Sx71-ZBdv)
2017/07/02(日) 16:35:48.85ID:WTrkZN+Xx775名無しさん@お腹いっぱい。 (ワッチョイ 426c-q9Kq)
2017/07/05(水) 10:46:00.75ID:uTzApKYp0 もうずっと502 Bad Gateway
頻繁にこれ出るんだけどもうちょっと何とかならんのか
PC的にweb版しか使えないから辛い
頻繁にこれ出るんだけどもうちょっと何とかならんのか
PC的にweb版しか使えないから辛い
776名無しさん@お腹いっぱい。 (ワッチョイ 9f6c-URZV)
2017/07/06(木) 08:08:51.99ID:/U2eBeXh0 落ちてる間は代替サイトでしのぐしか無いね
waifu2x-multi
http://waifu2x.me/index.ja.html
Waifu2X!
http://waifu2x.booru.pics/
waifu2x-multi
http://waifu2x.me/index.ja.html
Waifu2X!
http://waifu2x.booru.pics/
777名無しさん@お腹いっぱい。 (ワッチョイ d732-1B52)
2017/07/08(土) 12:05:31.07ID:MTSa9P4x0778名無しさん@お腹いっぱい。 (アウアウアー Sa4f-A48S)
2017/07/08(土) 21:16:36.36ID:bLbQGezTa グロ
779名無しさん@お腹いっぱい。 (ワッチョイ 626c-qt4g)
2017/07/15(土) 02:32:50.65ID:Zi3CbZ/c0 これ中国のアプリが勝手にweb版のwaifu2xを利用してるってこと?
最近web版が不調らしいのってこれのせい?
Is it suitable for third party app to use online demo's api? · Issue #190 · nagadomi/waifu2x
https://github.com/nagadomi/waifu2x/issues/190
最近web版が不調らしいのってこれのせい?
Is it suitable for third party app to use online demo's api? · Issue #190 · nagadomi/waifu2x
https://github.com/nagadomi/waifu2x/issues/190
780名無しさん@お腹いっぱい。 (ワッチョイ cee0-1bhL)
2017/07/15(土) 14:45:57.36ID:G3EyFNGP0 作者としては自力で鯖建ててくれよってなもんのようだが
781名無しさん@お腹いっぱい。 (ワッチョイW 2987-3jPz)
2017/07/15(土) 22:32:16.45ID:Kox/QIdc0 もうこのサイト終わりか?
全く使えねー
全く使えねー
782名無しさん@お腹いっぱい。 (アウーイモ MM3a-X3kf)
2017/07/16(日) 22:57:45.74ID:Ww7Ywr2NM >>760
Adobe社が開発協力したらいいのに、
Adobe社が開発協力したらいいのに、
783名無しさん@お腹いっぱい。 (アウーイモ MM3a-waq5)
2017/07/17(月) 22:45:44.84ID:oOoQzt3uM >>782
というより、ほかのソフト開発者なり開発会社が未だに参入してこないことに不自然さを感じる。
本家自体も最近動きがないところを見ると、何かしらの根本的な問題でも抱えているのだろうか?
最近madvrの拡大処理の進展具合を見ていないからわからんが、あちらのほうが未来があるのだろうか?
というより、ほかのソフト開発者なり開発会社が未だに参入してこないことに不自然さを感じる。
本家自体も最近動きがないところを見ると、何かしらの根本的な問題でも抱えているのだろうか?
最近madvrの拡大処理の進展具合を見ていないからわからんが、あちらのほうが未来があるのだろうか?
784名無しさん@お腹いっぱい。 (ワッチョイWW 6671-YOS7)
2017/07/17(月) 23:11:35.28ID:VhJWbd/M0 基本アニメにしか効果ない上に拡大後はベタ塗り状態じゃ企業が名乗り出る訳ないわ
785名無しさん@お腹いっぱい。 (ワッチョイ 8ef7-6l0k)
2017/07/18(火) 00:55:39.73ID:GPjcpwot0 ノイズ除去切ればベタ塗りにはならんでしょ
786名無しさん@お腹いっぱい。 (ワッチョイ 626c-qt4g)
2017/07/18(火) 01:09:41.09ID:WRy8/mpM0 超解像の研究は割とどこもやってると思う多分
waifu2xと提携しなくても独自に出来るし水面下でやってるから動きが見えにくいだけじゃない?
waifu2xと提携しなくても独自に出来るし水面下でやってるから動きが見えにくいだけじゃない?
787名無しさん@お腹いっぱい。 (ワッチョイ c08e-1CH6)
2017/07/18(火) 01:16:51.66ID:u0xTs1V00 刑事ドラマではwaifu2xもびっくりの鮮明な解像度拡大がある設定の世界なのに
現実は無慈悲なのである
現実は無慈悲なのである
788名無しさん@お腹いっぱい。 (ワッチョイ 9605-S4qQ)
2017/07/18(火) 01:24:18.89ID:MN/RSjUs0789名無しさん@お腹いっぱい。 (ワッチョイ aef9-QOkd)
2017/07/18(火) 01:45:26.20ID:PfbLynbe0 大手企業かつ政府支援プロジェクトともなると
ASIC/FPGAにも詳しいエンジニアも容易に自社調達できる良い環境だなぁ
最適化したコードかつ、自社生産のカスタムASICを利用した電算機にとか羨ましい
個人趣味で汎用コンピュータを使っている以上、電気代も馬鹿にならん
ライブラリ構築だけでも面倒クセぇ、処理能力レンタルするとこれまたコストが
ASIC/FPGAにも詳しいエンジニアも容易に自社調達できる良い環境だなぁ
最適化したコードかつ、自社生産のカスタムASICを利用した電算機にとか羨ましい
個人趣味で汎用コンピュータを使っている以上、電気代も馬鹿にならん
ライブラリ構築だけでも面倒クセぇ、処理能力レンタルするとこれまたコストが
790名無しさん@お腹いっぱい。 (アウアウアー Sa4f-ZaLW)
2017/07/21(金) 17:11:59.13ID:R67DHQtba ・ ディープラーニングエンジンをUSBチップ化してエッジコンピューティングをサポートするMovidius、Intelに買われてから快調
http://jp.techcrunch.com/2017/07/21/20170720movidius-launches-a-79-deep-learning-usb-stick/
新たなる展開か?
http://jp.techcrunch.com/2017/07/21/20170720movidius-launches-a-79-deep-learning-usb-stick/
新たなる展開か?
791名無しさん@お腹いっぱい。 (ワッチョイ c767-E/h9)
2017/07/21(金) 17:55:45.69ID:44OoZVhG0 100GFLOPSだと性能的にどうなんじゃろ…1Wなのは良いけど
792名無しさん@お腹いっぱい。 (ワッチョイ dfee-RieY)
2017/07/21(金) 18:26:05.54ID:jzbSQrJ80 USBで127台つけるんやろ
793名無しさん@お腹いっぱい。 (ワッチョイ c767-E/h9)
2017/07/21(金) 18:57:39.52ID:44OoZVhG0 GeForceにTensorコア積んでくれたほうが嬉しいかなー
794名無しさん@お腹いっぱい。 (ワッチョイ e787-Uqpm)
2017/07/22(土) 15:23:52.12ID:KSVHK/ps0 ASICやFPGAが主流になってGPUの時代は終わるよ
795名無しさん@お腹いっぱい。 (ワッチョイ 8756-E/h9)
2017/07/22(土) 17:51:15.37ID:02zQXlhH0 さすがにそれはない
ハードウェアシェーダーから
プログラマブルシェーダーになぜなったのか
ということを知らなさすぎ
ハードウェアシェーダーから
プログラマブルシェーダーになぜなったのか
ということを知らなさすぎ
796名無しさん@お腹いっぱい。 (ワッチョイ 2735-dw5s)
2017/07/22(土) 18:00:17.06ID:n2Cq2gcy0 ディープラーニングについては処理がある程度固まってきてるみたいだからGPUは割高になるかもしれんね
ディープラーニングの次が出てきたらプログラマブルに戻る
ディープラーニングの次が出てきたらプログラマブルに戻る
797名無しさん@お腹いっぱい。 (ワッチョイ 7fec-XHdm)
2017/07/25(火) 13:51:30.69ID:W9H2LP1L0 cuDNNだけハードウェア化されたらいい
798名無しさん@お腹いっぱい。 (ワッチョイ af7e-V1Wy)
2017/07/28(金) 20:16:37.80ID:kjrX+KoL0 オープンソースなのにウェブサービスでしか利用できない謎アプリ
799名無しさん@お腹いっぱい。 (スップ Sd2a-Lvg/)
2017/07/28(金) 20:37:35.56ID:/uC0CJt+d GUI版はとっくに死んでるのか?
800名無しさん@お腹いっぱい。 (ワッチョイ ea6c-AvKj)
2017/07/28(金) 20:56:10.38ID:fO9dUqqy0801名無しさん@お腹いっぱい。 (ワッチョイ 6a86-V1Wy)
2017/07/28(金) 21:05:32.20ID:SCeD2ML70 スマホでなんかしたらバクハツするんじゃね
802名無しさん@お腹いっぱい。 (スプッッ Sd8a-k88C)
2017/07/28(金) 21:27:12.12ID:aleKDasgd caffe版使わずに謎とか言っちゃうの?
恥ずかしすぎじゃないか
恥ずかしすぎじゃないか
803名無しさん@お腹いっぱい。 (ニククエ beec-QFBF)
2017/07/29(土) 21:22:36.12ID:ZE6rDzLe0NIKU waifu2xのサーバーが外部のアプリから使用されていて開発者が使うのやめる気ないようなのと
そこからのアクセスが多すぎて処理できないのでreCAPTCHAを導入しました。
クソメンドイですがご了承下さい。
表示されない場合はリロードすると出てくると思います。
そこからのアクセスが多すぎて処理できないのでreCAPTCHAを導入しました。
クソメンドイですがご了承下さい。
表示されない場合はリロードすると出てくると思います。
804名無しさん@お腹いっぱい。 (ニククエ aead-2p8+)
2017/07/29(土) 21:34:55.04ID:GAGld7sU0NIKU 乙ですというほかない…
805名無しさん@お腹いっぱい。 (ワッチョイ ea6c-AvKj)
2017/07/30(日) 02:09:16.58ID:2BU+9NyM0806名無しさん@お腹いっぱい。 (ワッチョイ 7be0-/6gd)
2017/07/30(日) 04:49:09.26ID:LQpeaIGl0807名無しさん@お腹いっぱい。 (ワッチョイWW be5d-SW7a)
2017/07/30(日) 13:52:11.35ID:ghAcuX/m0808名無しさん@お腹いっぱい。 (ワッチョイ beec-QFBF)
2017/07/30(日) 14:47:13.09ID:CvwU+lTS0 実行ボタンの上のreCAPTCHAという領域にチェックをつけていると動くと思います。
回答の再利用はできないので、1画像変換ごとにチェックを付ける必要があります。
reCAPTCHA自体が動いていないなどありましたら、実行環境を書いておいて下さい。
回答の再利用はできないので、1画像変換ごとにチェックを付ける必要があります。
reCAPTCHA自体が動いていないなどありましたら、実行環境を書いておいて下さい。
809名無しさん@お腹いっぱい。 (ワッチョイ ea6c-AvKj)
2017/07/30(日) 15:02:06.81ID:2BU+9NyM0 同じGoogle製だけあってChromeだとチェックするだけで動くね
810名無しさん@お腹いっぱい。 (ワッチョイ beec-QFBF)
2017/07/30(日) 15:16:43.84ID:CvwU+lTS0 分かりにくいので、チェックがついていない時は実行/ダウンロード押せないようにしました。
またページをチェックを付けれていても答えが間違っていると(?)たまに認証に失敗することもあるようです。
チェックだけ済むのは、疑われていないとき?で
何度もやっていると、画像の問題に答えないと通らなくなる気がします。
またページをチェックを付けれていても答えが間違っていると(?)たまに認証に失敗することもあるようです。
チェックだけ済むのは、疑われていないとき?で
何度もやっていると、画像の問題に答えないと通らなくなる気がします。
811名無しさん@お腹いっぱい。 (ワッチョイWW be5d-SW7a)
2017/07/30(日) 16:52:23.84ID:ghAcuX/m0 AndroidのChromeだとチェック入れても上の画像しか表示も保存もされません
スマホの他のブラウザで試してみたら
表示されるのはいくつかありましたが、保存は出来なかったです
スマホの他のブラウザで試してみたら
表示されるのはいくつかありましたが、保存は出来なかったです
812名無しさん@お腹いっぱい。 (ワッチョイ 3703-gqPh)
2017/07/30(日) 17:14:32.08ID:BXnmDPPj0 ページをリロードする。キャッシュをクリアする。
もし使ってるなら、広告ブロックソフトを停止する。
もし使ってるなら、広告ブロックソフトを停止する。
813名無しさん@お腹いっぱい。 (ワッチョイWW 5371-Lvg/)
2017/07/30(日) 17:44:16.19ID:FyhxV1ef0 GUI版で良くない?Web版の方が速いの?
814名無しさん@お腹いっぱい。 (ワッチョイ 6a86-V1Wy)
2017/07/30(日) 18:03:59.98ID:tcaEED7w0 環境に依存するかしないかの違いがあるんだからバカなの?
815名無しさん@お腹いっぱい。 (ワッチョイ ea6c-AvKj)
2017/07/31(月) 08:00:14.81ID:guYKaMwB0 807だけじゃなくGithubの一部の外国人ユーザーもreCAPTCHAが上手くいかないって言ってるな
web系は難しいね
web系は難しいね
816名無しさん@お腹いっぱい。 (アウーイモ MM9f-xPEB)
2017/07/31(月) 22:34:04.82ID:5UmyApl0M webベースでのサービスは、常に不安定さとの戦いになる。
しかし本家がwebベースでの公開にこだわる以上、ユーザーサイドではどうしようもない。
caffeが唯一の救いではあるが、本家とcaffeの作者それぞれに依存する度合いが高いので、この状態も安定しているとは言い難い。
Gimpのプラグインのような形式にして、ソースコードをオープンにとかならば、誰か頑張るとかで継続性はやや向上するだろうけど。
しかし本家がwebベースでの公開にこだわる以上、ユーザーサイドではどうしようもない。
caffeが唯一の救いではあるが、本家とcaffeの作者それぞれに依存する度合いが高いので、この状態も安定しているとは言い難い。
Gimpのプラグインのような形式にして、ソースコードをオープンにとかならば、誰か頑張るとかで継続性はやや向上するだろうけど。
817名無しさん@お腹いっぱい。 (ワッチョイ 3703-gqPh)
2017/07/31(月) 23:06:43.18ID:l56LhgPc0 >>816
ソースコードはGitHubで公開されてる。
ソースコードはGitHubで公開されてる。
818名無しさん@お腹いっぱい。 (アウアウウー Sa9f-xPEB)
2017/08/01(火) 10:28:05.21ID:yzvIVLUGa >>817
Gimpのプラグインの形式に沿ったソースコードということ
Gimpのプラグインの形式に沿ったソースコードということ
819名無しさん@お腹いっぱい。 (スプッッ Sd2a-k88C)
2017/08/01(火) 11:59:56.63ID:njn6WqMWd820名無しさん@お腹いっぱい。 (オイコラミネオ MMb6-XipQ)
2017/08/01(火) 12:29:02.13ID:P4srvPy4M >>819
VGAによるんじゃないの?
VGAによるんじゃないの?
821名無しさん@お腹いっぱい。 (ワッチョイ 37f0-V1Wy)
2017/08/01(火) 12:48:05.35ID:5+E1QQJQ0 その意味でのVGAって言葉久々に聞いたw
822名無しさん@お腹いっぱい。 (スプッッ Sd2a-k88C)
2017/08/02(水) 04:45:55.20ID:8yZ4NqFyd823名無しさん@お腹いっぱい。 (ワッチョイWW 2e67-XipQ)
2017/08/02(水) 08:41:50.10ID:/4JCEp/20 >>822
んーGT730ぐらいと比較してください
んーGT730ぐらいと比較してください
824名無しさん@お腹いっぱい。 (ワッチョイWW 1a8e-xPEB)
2017/08/02(水) 14:00:32.01ID:dePrbMvZ0 そんなもん、使う意味すらない
825名無しさん@お腹いっぱい。 (ワッチョイ beec-QFBF)
2017/08/02(水) 16:23:33.11ID:fcBUe8KN0 ウェブのサーバーは GRID K520 を 4つ使っています。
混んでいる時間帯でなければそれなりに速いと思います。
reCAPTCHAをいれてから連続アクセスしにくくなったからか体感的にはかなり速くなっています。
混んでいる時間帯でなければそれなりに速いと思います。
reCAPTCHAをいれてから連続アクセスしにくくなったからか体感的にはかなり速くなっています。
826名無しさん@お腹いっぱい。 (ワッチョイ beec-QFBF)
2017/08/02(水) 16:36:29.31ID:fcBUe8KN0 waifu2x-caffeは配布バイナリには含まれていないですがDLL用のインターフェースも持っているので
他のソフトの組み込みにも使いやすいと思います。
他のソフトの組み込みにも使いやすいと思います。
827名無しさん@お腹いっぱい。 (ワッチョイW e3d2-KhZc)
2017/08/02(水) 18:09:49.64ID:I8D/7zTO0 すごい助かってる
さんきゅ
さんきゅ
828名無しさん@お腹いっぱい。 (ワッチョイWW ff5d-DLNe)
2017/08/03(木) 10:59:47.03ID:nw5S/WIw0 本家繋がりませんな
829名無しさん@お腹いっぱい。 (ワッチョイW 3b89-OC4/)
2017/08/03(木) 14:35:42.81ID:gWZ+CKtM0 初めて書き込みます。
本家もmulti?も繋がらない…
しばらく待つしかありませんか?
本家もmulti?も繋がらない…
しばらく待つしかありませんか?
830名無しさん@お腹いっぱい。 (アウーイモ MMb3-PlKB)
2017/08/03(木) 21:14:58.09ID:sXtHLgo1M だからネットは信用できないんだよ
831名無しさん@お腹いっぱい。 (ワッチョイW 8767-hw7W)
2017/08/04(金) 19:08:32.54ID:qsU0qohV0 invalid request
832名無しさん@お腹いっぱい。 (アウーイモ MMb3-PlKB)
2017/08/04(金) 22:17:29.26ID:i658spf7M ・ プロの技術を学んだディープラーニングが画像を美しくレタッチ
http://ascii.jp/elem/000/001/526/1526816/
いよいよデカいところが本気出してきましたな。
しかも向こうはレタッチ後の人間が最適化した画像をサンプル画像に持ち出している。
果たして実力や如何に。
http://ascii.jp/elem/000/001/526/1526816/
いよいよデカいところが本気出してきましたな。
しかも向こうはレタッチ後の人間が最適化した画像をサンプル画像に持ち出している。
果たして実力や如何に。
833名無しさん@お腹いっぱい。 (ワッチョイ a9f0-dE0h)
2017/08/05(土) 05:06:53.16ID:OkzVSv4J0834名無しさん@お腹いっぱい。 (ワッチョイ 5bae-gAma)
2017/08/05(土) 11:11:38.33ID:EfHQRhVp0 >>833
ブレードランナーのエスパーみたいなの作れそう。
ブレードランナーのエスパーみたいなの作れそう。
835名無しさん@お腹いっぱい。 (ワッチョイ e36c-Orbd)
2017/08/07(月) 06:36:54.54ID:MnjwDMyA0 なんかすげー怪しい派生サイト出来てた
Bigjpg - AI二次元画像の拡大, スマート大きな画像 waifu2x 畳み込み深人工知能ニューラルネットワーク(CNN)無料ロスレスズーム。写真にも対応。
http://www.bigjpg.com/
Bigjpg - AI二次元画像の拡大, スマート大きな画像 waifu2x 畳み込み深人工知能ニューラルネットワーク(CNN)無料ロスレスズーム。写真にも対応。
http://www.bigjpg.com/
836名無しさん@お腹いっぱい。 (スッップ Sdaf-CJ8Y)
2017/08/07(月) 10:34:43.37ID:UO2X6lXJd サーバー又借りしてたら草
837名無しさん@お腹いっぱい。 (ワッチョイ 8101-/FH4)
2017/08/08(火) 00:30:49.74ID:MEpIWrBJ0 FFGの勢いは近年すごい気がしたけど、18の一軒で一気に地に落ちたな。
今まで敵をたくさん作ったので、連合を作ってFFGの牙城を崩すなら今しかないのかな。
といっても九州地銀の弱腰経営陣には無理か。あの18が負けてもないのにFFGに下ろうとしたくらいだからなぁw
ちゃんと将来考えて動いてくれよ経営陣w
今まで敵をたくさん作ったので、連合を作ってFFGの牙城を崩すなら今しかないのかな。
といっても九州地銀の弱腰経営陣には無理か。あの18が負けてもないのにFFGに下ろうとしたくらいだからなぁw
ちゃんと将来考えて動いてくれよ経営陣w
838名無しさん@お腹いっぱい。 (プチプチ MMb3-PlKB)
2017/08/08(火) 10:06:25.89ID:k0j1rJxSM0808 何を言ってるんだ、このゲーム脳は…
839名無しさん@お腹いっぱい。 (アウーイモ MMc7-rsxG)
2017/08/13(日) 10:35:09.03ID:OT9MbAIqM >>832
これ、どこか試せるところないのかな?
これ、どこか試せるところないのかな?
840名無しさん@お腹いっぱい。 (ワッチョイ 0e3f-KsLg)
2017/08/13(日) 10:38:18.15ID:Mwp0HeZi0 >>839
無いね
無いね
841名無しさん@お腹いっぱい。 (アウアウアー Sa06-rsxG)
2017/08/13(日) 11:18:59.63ID:GDcsz5Fda >>840
○| ̄|_
○| ̄|_
842名無しさん@お腹いっぱい。 (ワッチョイ 1a6c-bCXE)
2017/08/13(日) 11:37:42.89ID:VovBq+5f0 ディープラーニングの技術って素人だと簡単には手を出せないからサイト上で試せたら便利よね
waifu2xの作者さんの言ってたことを今更痛感するわ
waifu2xの作者さんの言ってたことを今更痛感するわ
843名無しさん@お腹いっぱい。 (ワッチョイ 0e3f-KsLg)
2017/08/13(日) 16:45:30.56ID:Mwp0HeZi0 MakeGirls.moe - Create Anime Characters with A.I.!
http://make.girls.moe/
http://make.girls.moe/
844名無しさん@お腹いっぱい。 (ワッチョイWW ca8e-rsxG)
2017/08/13(日) 23:54:46.98ID:ZIbjHeti0 >>832の奴、もっと具体的なサンプル画像とかを大きなサイズで公開してくれないと評価のしようがないね
845名無しさん@お腹いっぱい。 (ワッチョイ 0ea7-KsLg)
2017/08/14(月) 00:03:04.73ID:ppPX4EZi0 >>844
MITの出版物に載るんじゃね
MITの出版物に載るんじゃね
846名無しさん@お腹いっぱい。 (アウーイモ MMc7-rsxG)
2017/08/14(月) 10:36:42.43ID:xdKrTCwJM サンプル画像、ZIPでくれ
847名無しさん@お腹いっぱい。 (ワッチョイ 4eec-62b8)
2017/08/14(月) 16:02:00.01ID:vUUbKi4a0 >>832
データセットは公開されているので http://groups.csail.mit.edu/graphics/fivek_dataset/
対応を学習することはできますけど
写真の後処理を機械学習で自動でやろうとか実際考えるものでしょうか?
そこは写真作りで一番重要なところだから自分でやりたいと思うんだけど
そこにあまり興味ない人には自動でできたら便利なのかな
データセットは公開されているので http://groups.csail.mit.edu/graphics/fivek_dataset/
対応を学習することはできますけど
写真の後処理を機械学習で自動でやろうとか実際考えるものでしょうか?
そこは写真作りで一番重要なところだから自分でやりたいと思うんだけど
そこにあまり興味ない人には自動でできたら便利なのかな
848名無しさん@お腹いっぱい。 (アウーイモ MMc7-rsxG)
2017/08/14(月) 21:02:10.99ID:xdKrTCwJM >>847
どの程度の処理までさせるか次第なのでは?
元画像よりコントラスト比なども含めた変化まで強制的にお仕着せになるならば困るけれど、リンク先が言うレタッチ的な要素が
waifu2xで発生する例の輪郭の不自然さを旨く手直しするような作用をしてくれるのならば、やる価値はあるかと。
いいところだけ旨く流用できれば一番いいのでは?
どの程度の処理までさせるか次第なのでは?
元画像よりコントラスト比なども含めた変化まで強制的にお仕着せになるならば困るけれど、リンク先が言うレタッチ的な要素が
waifu2xで発生する例の輪郭の不自然さを旨く手直しするような作用をしてくれるのならば、やる価値はあるかと。
いいところだけ旨く流用できれば一番いいのでは?
849名無しさん@お腹いっぱい。 (ワッチョイ 1a6c-bCXE)
2017/08/15(火) 07:05:53.22ID:GERdhowG0 スマホのアプリで料理の写真を美味しそうに見えるように簡単レタッチするソフトが人気あったからこの手のやつは需要あるんじゃないかな
850名無しさん@お腹いっぱい。 (オイコラミネオ MM06-AZXx)
2017/08/15(火) 14:43:30.10ID:Rjv4SHNTM そこら辺のプログラマでもネタで
深層学習一発ネタやってるし、
まともなプログラマなら誰でもできる
ようになってるんだが
waifu2xのツール類が充実してるのは
基本的な考え方が簡単なのはあるよ
waifu2xがすぐれてるのはそういうところじゃない
ノウハウや学習データセットの
作成だと思うよ
やってみたらわかるけど同じ性能出すの
かなり困難
深層学習一発ネタやってるし、
まともなプログラマなら誰でもできる
ようになってるんだが
waifu2xのツール類が充実してるのは
基本的な考え方が簡単なのはあるよ
waifu2xがすぐれてるのはそういうところじゃない
ノウハウや学習データセットの
作成だと思うよ
やってみたらわかるけど同じ性能出すの
かなり困難
851名無しさん@お腹いっぱい。 (ワイモマー MMba-W16a)
2017/08/15(火) 16:02:59.00ID:YhlLR/9zM ニューラルネットワーク構造と学習済み辞書 が非常に優秀。
というか世の中これを向上させるための提案が大量に出回ってるけど99割はモノにならない
というか世の中これを向上させるための提案が大量に出回ってるけど99割はモノにならない
852名無しさん@お腹いっぱい。 (ワッチョイ 7ff0-W16a)
2017/08/15(火) 19:45:09.54ID:ppzO7+Ky0 99割もか
853名無しさん@お腹いっぱい。 (アウーイモ MMc7-rsxG)
2017/08/15(火) 21:31:21.13ID:7w8yH9sEM 千分率…
854名無しさん@お腹いっぱい。 (ワッチョイ aaf9-KsLg)
2017/08/16(水) 08:02:09.03ID:5P8xirai0 wwww
855名無しさん@お腹いっぱい。 (スプッッ Sd5a-m4U4)
2017/08/16(水) 10:04:51.69ID:R7IYTeRwd 禿犬使ってると何でも大袈裟にしたくなるんだろ
856名無しさん@お腹いっぱい。 (スッップ Sdba-7l+4)
2017/08/16(水) 10:25:41.42ID:KWgmxR6Ed おまえらネタにマジレス
857名無しさん@お腹いっぱい。 (ワッチョイ b187-4mbe)
2017/08/21(月) 12:11:16.37ID:fEWkVfat0 >>835
それの中身-----------
よくある質問
どのような技術で使用されています?
最新の深い畳込みニューラルネットワークを用いた。それは知的に品質を失うことなく彼らを大きくする絵の中の雑音とセレーションを減らします。例示の写真を見る
違いは何ですか?
PSのような他のソフトウェアで、絵はまだファジールックを拡大、
および可視ブラーと雑音があります。
当社の製品は絵の線と色のために調整された特別なアルゴリズムとニューラルネットワークを使用し、
この拡大効果が優れている。色はよく保たれており、ほぼ格子または倍増は見えません。
もっと重要なのは、雑音、品質に重大な影響を及ぼすことができない結果、
イメージで見られる。
拡大するのに最適な画像は何ですか?
アニメ/ファンアートの写真は最高です。
それの中身-----------
よくある質問
どのような技術で使用されています?
最新の深い畳込みニューラルネットワークを用いた。それは知的に品質を失うことなく彼らを大きくする絵の中の雑音とセレーションを減らします。例示の写真を見る
違いは何ですか?
PSのような他のソフトウェアで、絵はまだファジールックを拡大、
および可視ブラーと雑音があります。
当社の製品は絵の線と色のために調整された特別なアルゴリズムとニューラルネットワークを使用し、
この拡大効果が優れている。色はよく保たれており、ほぼ格子または倍増は見えません。
もっと重要なのは、雑音、品質に重大な影響を及ぼすことができない結果、
イメージで見られる。
拡大するのに最適な画像は何ですか?
アニメ/ファンアートの写真は最高です。
858名無しさん@お腹いっぱい。 (ワッチョイ b187-4mbe)
2017/08/21(月) 12:11:39.99ID:fEWkVfat0 画像の限界は何ですか?
現在3000x3000解像度をアップロードすることができ、10MB以下の写真。
スピードはどうですか?
スタート後予想の処理時間が表示されます。
よっの倍率と画像サイズ、増幅時間が異なり、数分から数十分不等。
実際には予想時間が少し短い時間が少し短い。
なぜ失敗拡大?
ネットワーク環境と同時に受けサーバー使用人数の影響があって、
とても小さい確率が増幅して失敗すること。
もしあなたがこのような状況に会ったら、数分でもう一度試してみてください。
拡大を開始している間はブラウザーを開いたままにする必要がありますか?
もしあなたは登録が、そんなにずっと保持ブラウザを開いて、
さもなくば紛失増幅のピクチャー。
もしあなたは登録したが、それがブラウザを閉じ、支持拡大オフライン、
壱時間またダウンロードできますよ。
自分の歴史記録をどう見る?
登録後、記録と自分の歴史記録を調べて。
もっと写真を拡大するには?
このツールのサーバーの支出を維持するため、有料の拡大サービスを提供します。
有料のアップグレード口座後使え独立の高性能サーバ、拡大写真をより速く、より多く、より安定した
--------------
日本語おかしすぎなwww
現在3000x3000解像度をアップロードすることができ、10MB以下の写真。
スピードはどうですか?
スタート後予想の処理時間が表示されます。
よっの倍率と画像サイズ、増幅時間が異なり、数分から数十分不等。
実際には予想時間が少し短い時間が少し短い。
なぜ失敗拡大?
ネットワーク環境と同時に受けサーバー使用人数の影響があって、
とても小さい確率が増幅して失敗すること。
もしあなたがこのような状況に会ったら、数分でもう一度試してみてください。
拡大を開始している間はブラウザーを開いたままにする必要がありますか?
もしあなたは登録が、そんなにずっと保持ブラウザを開いて、
さもなくば紛失増幅のピクチャー。
もしあなたは登録したが、それがブラウザを閉じ、支持拡大オフライン、
壱時間またダウンロードできますよ。
自分の歴史記録をどう見る?
登録後、記録と自分の歴史記録を調べて。
もっと写真を拡大するには?
このツールのサーバーの支出を維持するため、有料の拡大サービスを提供します。
有料のアップグレード口座後使え独立の高性能サーバ、拡大写真をより速く、より多く、より安定した
--------------
日本語おかしすぎなwww
859名無しさん@お腹いっぱい。 (ワッチョイ 1105-oL0b)
2017/08/21(月) 15:48:43.73ID:iKLwi2FH0 日本の英文サイトも英語圏の人からこんな風に見られてるのかな?
860名無しさん@お腹いっぱい。 (ワッチョイ 9386-jLVh)
2017/08/21(月) 23:19:04.92ID:ly/5hkxC0 ただの自動翻訳じゃね?
861名無しさん@お腹いっぱい。 (ワッチョイ 56ad-Kkg9)
2017/08/24(木) 01:25:20.46ID:bdSqPE2i0 reCAPTCHA導入以来で鯖死んでるのはじめてみた
862名無しさん@お腹いっぱい。 (アウアウカー Sa07-e+qS)
2017/09/01(金) 00:00:02.33ID:zzz4Gs1za 動画の拡大で使うにはaviutlのnnedi3一択だな
流石に遅過ぎるし最近は何かgifみたいなノイズが出てクソだし
流石に遅過ぎるし最近は何かgifみたいなノイズが出てクソだし
863名無しさん@お腹いっぱい。 (ワッチョイ 578e-nhGI)
2017/09/08(金) 13:05:18.06ID:R3L5IwMm0 ノイズっていうか輪郭周りの不自然さ問題は、今の手法のままで対策するとなると、音声の処理でよく用いるオーバーサンプリング処理的な
考え方で攻めたほうが解決しやすいのではないかとも思う。
つまり、現状は縦横2倍(画像情報量で言うと4倍)に拡大をストレートに行っているけど、どうしても丸目誤差の問題が出るし目につきやすい。
(TTLモードで、画像を回転させる手法で幾分の軽減はされるが、根本的な解決手法ではない)
ならば、サンプル画像の確保が大変にはなるが、8倍オーバーサンプリングとでもいうか、内部処理的に縦横8倍(画像情報量で64倍)にすることを
前提に設計し、拡大後に縦横2倍(画像情報量で4倍)までダウンスケール、つまり縮小すれば、丸目誤差に伴うノイズというか荒らは気にならなく
なるのではないかと思う。
情報量が従来の計算に比べ16倍にはなるけれど、TTLモードを使うことを考えたら結局時間的には大差ないのではないかと思わなくはない。
ただし、縦横8倍の差をディープラーニングするためのサンプル画像がかなり大きなサイズの画像が必要になることがネックだろうと思われる。
このあたり、作者氏の手間の問題になってくるから、ユーザーがどうこう言いにくいところではあるのだが。
考え方で攻めたほうが解決しやすいのではないかとも思う。
つまり、現状は縦横2倍(画像情報量で言うと4倍)に拡大をストレートに行っているけど、どうしても丸目誤差の問題が出るし目につきやすい。
(TTLモードで、画像を回転させる手法で幾分の軽減はされるが、根本的な解決手法ではない)
ならば、サンプル画像の確保が大変にはなるが、8倍オーバーサンプリングとでもいうか、内部処理的に縦横8倍(画像情報量で64倍)にすることを
前提に設計し、拡大後に縦横2倍(画像情報量で4倍)までダウンスケール、つまり縮小すれば、丸目誤差に伴うノイズというか荒らは気にならなく
なるのではないかと思う。
情報量が従来の計算に比べ16倍にはなるけれど、TTLモードを使うことを考えたら結局時間的には大差ないのではないかと思わなくはない。
ただし、縦横8倍の差をディープラーニングするためのサンプル画像がかなり大きなサイズの画像が必要になることがネックだろうと思われる。
このあたり、作者氏の手間の問題になってくるから、ユーザーがどうこう言いにくいところではあるのだが。
864名無しさん@お腹いっぱい。 (ワッチョイ 0b87-xkdj)
2017/09/08(金) 18:43:51.46ID:WUxLR/XY0 >>863
TTAモードのことを言ってるんだろうけど、それとリサイズのアルゴリズムは根本的に関係ないんじゃないの
ダウンサンプリングすればいいと言うけど、それはどんな手法を使うんだい?
画像処理のコストはめちゃくちゃ下がってるし、waifu2xにしても自分で用意したデータセットで学習する手引もされてる
具体的なアイデアがあるなら試してみるといいよ
TTAモードのことを言ってるんだろうけど、それとリサイズのアルゴリズムは根本的に関係ないんじゃないの
ダウンサンプリングすればいいと言うけど、それはどんな手法を使うんだい?
画像処理のコストはめちゃくちゃ下がってるし、waifu2xにしても自分で用意したデータセットで学習する手引もされてる
具体的なアイデアがあるなら試してみるといいよ
865名無しさん@お腹いっぱい。 (キュッキュ MM06-gtkA)
2017/09/09(土) 19:37:28.64ID:pXK9vUQtM0909 アルゴリズムは難しくないので
自分で実装してみたら?
俺が試した範囲ではオーバーサンプリングして
縮小してもあんま変わらなかった
当たり前だが俺は作者じゃないよ
自分で実装してみたら?
俺が試した範囲ではオーバーサンプリングして
縮小してもあんま変わらなかった
当たり前だが俺は作者じゃないよ
866名無しさん@お腹いっぱい。 (ワッチョイ 936c-PWTr)
2017/09/17(日) 18:47:42.61ID:lEmEP6WS0 waifu2x-caffe ver 1.1.8.4
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.4
cuDNN v7に対応
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.4
cuDNN v7に対応
867名無しさん@お腹いっぱい。 (ワッチョイ 09ec-UJCn)
2017/09/17(日) 19:22:03.46ID:SWVnmedP0 今回の場合cudnn-8.0-windows7-x64-v7.zip/cuda/bin/cudnn64_7.dllかな
このへん本当に分かりにくいよなあ
前提となるCUDAやGeForceドライバのバージョンもあったかもしれない
このへん本当に分かりにくいよなあ
前提となるCUDAやGeForceドライバのバージョンもあったかもしれない
868名無しさん@お腹いっぱい。 (ワッチョイ 0657-PvnN)
2017/09/23(土) 14:43:51.85ID:vfPusanO0 CPU用はまだ? AVX2とかSSE4.2とかで1/10のスピードにならんかな←遅くてもいいからって意味で
869名無しさん@お腹いっぱい。 (ワッチョイ 0a6c-7x6e)
2017/09/23(土) 15:27:18.83ID:NRQikrBL0 >>868
CPUならtanakamuraさんの派生のやつが早いと思うよ
CPUならtanakamuraさんの派生のやつが早いと思うよ
870名無しさん@お腹いっぱい。 (ワッチョイWW 3a8e-xRqs)
2017/09/26(火) 23:36:59.42ID:XXsLzxjQ0871名無しさん@お腹いっぱい。 (ワッチョイ 4ab2-T6Rl)
2017/09/27(水) 07:59:58.55ID:2lP1ylD00 すごい
おれの落書きを写真にしてほしい
おれの落書きを写真にしてほしい
872名無しさん@お腹いっぱい。 (ワイモマー MMaa-PvnN)
2017/09/27(水) 08:02:54.37ID:cwBPr8CMM 写真とそれを落書きにしたイラスト2000枚を学習させればええだけやで
873名無しさん@お腹いっぱい。 (ワッチョイWW 838e-6Uos)
2017/09/28(木) 00:14:50.04ID:TlwhVgpF0 >>870
waifu2xの欠点を克服できたら神
waifu2xの欠点を克服できたら神
874名無しさん@お腹いっぱい。 (ニククエ 236c-omH/)
2017/09/29(金) 23:10:14.54ID:BSunbs8Y0NIKU iOS版のwaifu2xなんてものが出来てた
imxieyi/waifu2x-ios: iOS Core ML implementation of waifu2x
https://github.com/imxieyi/waifu2x-ios
imxieyi/waifu2x-ios: iOS Core ML implementation of waifu2x
https://github.com/imxieyi/waifu2x-ios
875名無しさん@お腹いっぱい。 (ワッチョイ cbec-IQJU)
2017/09/30(土) 13:17:09.52ID:scjErNqF0 どんだけエンコ時間かかんだよ
876名無しさん@お腹いっぱい。 (ワッチョイ 9b57-IQJU)
2017/10/01(日) 04:32:53.20ID:Wqt3xmrb0 >>869
thx、更新止まってるみたいでげんなり
thx、更新止まってるみたいでげんなり
877名無しさん@お腹いっぱい。 (ワッチョイ 1b24-asy+)
2017/10/03(火) 15:27:19.03ID:3JCntEds0 invalid requestって何が原因?頻発するんだが
878sage (ワッチョイ e5ec-6smv)
2017/10/03(火) 18:49:13.53ID:1vKvOmgu0 >>877
reCAPTCHAの認証に失敗すると出てます。
全体の3%くらいでそんなに出ていないので
それ以上の確率で発生しているなら環境か回答に原因があると思いますがよく分かってないです。
判定には、reCAPTCHAの入力(マウスの軌道,画像問題が出たならその回答)、端末のIPアドレスが使われてます。
reCAPTCHAの認証に失敗すると出てます。
全体の3%くらいでそんなに出ていないので
それ以上の確率で発生しているなら環境か回答に原因があると思いますがよく分かってないです。
判定には、reCAPTCHAの入力(マウスの軌道,画像問題が出たならその回答)、端末のIPアドレスが使われてます。
879名無しさん@お腹いっぱい。 (ワッチョイ 1b24-asy+)
2017/10/03(火) 19:32:40.42ID:SgT7tkwS0880名無しさん@お腹いっぱい。 (アウアウカー Sa4d-2iPL)
2017/10/05(木) 09:21:46.76ID:vrmE32hAa 前にノイズが云々言った者だがもう直ったみたいだな
前までは本当に素人が分かるレベルの汚いノイズが出てたんだ
マルチの方が未だに直ってないようなんで使ってみれば分かる
前までは本当に素人が分かるレベルの汚いノイズが出てたんだ
マルチの方が未だに直ってないようなんで使ってみれば分かる
881名無しさん@お腹いっぱい。 (ワッチョイ 76ec-ZVpW)
2017/10/06(金) 07:25:18.44ID:0QWgeDO+0 ウェブでの処理は1年以上変更していないですよ
882名無しさん@お腹いっぱい。 (ワッチョイ b625-P+uR)
2017/10/10(火) 02:22:10.25ID:PBW0sxG70 waifu2x-caffeで縦横幅両方指定すると横だけ指定した場合に比べてかなり時間かかるけど、
縦横幅両方指定だと単純に2の累乗倍して縮小するだけじゃない何か別の処理してるのかな
縦横幅両方指定だと単純に2の累乗倍して縮小するだけじゃない何か別の処理してるのかな
883名無しさん@お腹いっぱい。 (ワッチョイ 76ec-ZVpW)
2017/10/10(火) 06:38:54.71ID:a24uxQmA0 指定値のどちらかが元サイズの2倍数を超えているとか
128->256(2倍), 128->257(4倍後縮小)と境界がある
128->256(2倍), 128->257(4倍後縮小)と境界がある
884名無しさん@お腹いっぱい。 (ワッチョイ 5a6c-QWl5)
2017/10/10(火) 07:44:11.35ID:nRQQJMre0885名無しさん@お腹いっぱい。 (ワッチョイ b625-P+uR)
2017/10/11(水) 16:33:54.83ID:t/Umntra0 色々試してみたが、(自分の場合)どうも一定以上縦長の画像を拡大してみたときに縦横幅両方指定/横だけ指定で処理時間に差が出るようだ
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う
886名無しさん@お腹いっぱい。 (ワッチョイ 5a6c-QWl5)
2017/10/11(水) 19:01:00.60ID:YWDml6V60887名無しさん@お腹いっぱい。 (ワイモマー MMfa-wbjw)
2017/10/11(水) 21:01:30.37ID:M5faF1lLM 例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う
横幅のみは 1.6倍 プロファイル使って1回
両方指定は 2.0倍 4分割から縮小
と違う経路になってるかと。 886の時間差的にそれっぽい
処理時間だけでなく結果も明らかに違う
横幅のみは 1.6倍 プロファイル使って1回
両方指定は 2.0倍 4分割から縮小
と違う経路になってるかと。 886の時間差的にそれっぽい
888名無しさん@お腹いっぱい。 (ワッチョイ 5a6c-QWl5)
2017/10/11(水) 22:14:53.14ID:YWDml6V60889名無しさん@お腹いっぱい。 (ワイモマー MM33-B6a6)
2017/10/12(木) 02:42:07.67ID:klsngnEYM 1.6倍の意味を理解してないと思われ
890名無しさん@お腹いっぱい。 (アウーイモ MM1d-pRT2)
2017/10/13(金) 14:25:26.13ID:H9ptKdhPM >>870
お試し環境はないの?
お試し環境はないの?
891名無しさん@お腹いっぱい。 (ワッチョイ dd87-REa2)
2017/10/20(金) 01:08:34.86ID:rsh3kdsE0 フォトショにもAIアップスケールだって
https://pc.watch.impress.co.jp/docs/news/1087038.html
>人工知能を活かした画像拡大機能で、ディテールやテクスチャを保持しつつ画像サイズを変更でき、劣化が抑えられるという。
https://pc.watch.impress.co.jp/docs/news/1087038.html
>人工知能を活かした画像拡大機能で、ディテールやテクスチャを保持しつつ画像サイズを変更でき、劣化が抑えられるという。
892名無しさん@お腹いっぱい。 (アウーイモ MM89-OvXX)
2017/10/20(金) 18:35:55.04ID:w9nfF7IqM893名無しさん@お腹いっぱい。 (ブーイモ MMe9-IlT3)
2017/10/20(金) 20:01:04.46ID:KV4gR3xtM Lightroom付いて月1000円は安いと思うけど
894名無しさん@お腹いっぱい。 (ワッチョイ 7a86-bcII)
2017/10/21(土) 11:55:13.81ID:ezIgs+TB0 ・・・数年でいくらになるかと言うと
"(((( ´,,_ゝ`))))
"(((( ´,,_ゝ`))))
895名無しさん@お腹いっぱい。 (ワッチョイ d6ec-sHh2)
2017/10/21(土) 15:26:44.82ID:d4VYBQVI0 文字などの拡大結果がwaifu2xっぽいらしいですね
(CNN系はどれも似たような特徴がでる)
(CNN系はどれも似たような特徴がでる)
896名無しさん@お腹いっぱい。 (ワッチョイWW 1ac2-IlT3)
2017/10/21(土) 20:38:14.84ID:lX5ko0Pe0897名無しさん@お腹いっぱい。 (ワッチョイWW 0a8e-OvXX)
2017/10/22(日) 00:33:19.63ID:PfWLRsqV0 休みの日のお絵かき用途に毎月1000円も出したくないな
898名無しさん@お腹いっぱい。 (ワッチョイ a6e0-7Hoc)
2017/10/22(日) 01:58:31.92ID:/njJqV5y0 Photoshopでお絵かきなんてするやついるのか
899名無しさん@お腹いっぱい。 (ワッチョイ 136c-kgpv)
2017/10/26(木) 23:06:10.33ID:DefK6fF40 月180万……
いまだに運営費の問題は健在か
いまだに運営費の問題は健在か
900名無しさん@お腹いっぱい。 (ワッチョイ 698e-ORd8)
2017/11/01(水) 16:47:19.17ID:gUHZ+jN20 ・ガビガビの低解像度写真を高解像度な写真に変換できる「EnhanceNet-PAT」が登場
https://gigazine.net/news/20171101-algorithm-low-resolution-images/
この研究の前は、最先端の超解像技術でさえ、画像の中にぼやけた部分やざらざらした部分を持っていました。
その理由は、『高精細な画像になるようにオリジナル写真を再構成させる』などのニューラルネットワークでは実現不可能なことを、ニューラルネットワークに要求していたからです。
そのため、超解像技術で作成された画像は、一部がぼやけていたそうです。
そこで、我々はニューラルネットワークにより高精細なテクスチャーを作成してもらう、という異なるアプローチを取りました。
この手法ではニューラルネットワークが画像全体を見て、領域を検出し、意味情報を使ってより高精細なテクスチャーを作成し、高解像度の画像を作成します」
能書きはいいから早く一般人が利用できるようにしてくれ!
https://gigazine.net/news/20171101-algorithm-low-resolution-images/
この研究の前は、最先端の超解像技術でさえ、画像の中にぼやけた部分やざらざらした部分を持っていました。
その理由は、『高精細な画像になるようにオリジナル写真を再構成させる』などのニューラルネットワークでは実現不可能なことを、ニューラルネットワークに要求していたからです。
そのため、超解像技術で作成された画像は、一部がぼやけていたそうです。
そこで、我々はニューラルネットワークにより高精細なテクスチャーを作成してもらう、という異なるアプローチを取りました。
この手法ではニューラルネットワークが画像全体を見て、領域を検出し、意味情報を使ってより高精細なテクスチャーを作成し、高解像度の画像を作成します」
能書きはいいから早く一般人が利用できるようにしてくれ!
901名無しさん@お腹いっぱい。 (スップ Sd73-Njad)
2017/11/01(水) 16:51:02.16ID:ywNULZCUd こんな事が出来るようになったのに、何でデインターレースは上手く出来ないのか
902名無しさん@お腹いっぱい。 (ワッチョイ f135-oaFu)
2017/11/01(水) 17:40:08.94ID:Rrmmh94R0 デインターレースはやりたがる人が少ないんじゃないか
あとリアルタイム動作を考えると難しいとかあるかも
あとリアルタイム動作を考えると難しいとかあるかも
903名無しさん@お腹いっぱい。 (ワッチョイWW b38e-eipk)
2017/11/01(水) 23:54:09.20ID:37DME+fd0 >>900
これ、デジタル放送のブロックノイズ対策やモザイク除去にも使えそうだな
これ、デジタル放送のブロックノイズ対策やモザイク除去にも使えそうだな
904名無しさん@お腹いっぱい。 (ワッチョイ c26c-7v9/)
2017/11/02(木) 00:44:20.56ID:XY5MStcz0905名無しさん@お腹いっぱい。 (ワッチョイ 4286-Q/5A)
2017/11/02(木) 03:30:36.42ID:AXeKiQ9g0 ゾンビで学習しちゃったみたいな?
906名無しさん@お腹いっぱい。 (ワイモマー MM62-Q/5A)
2017/11/02(木) 16:48:27.48ID:fpvIbUNIM 奥の人と融合して別の学習済みの何かとザ・フライしたな
907名無しさん@お腹いっぱい。 (ワッチョイ c21c-3fha)
2017/11/02(木) 21:01:37.47ID:AW27ksif0 ハゲの再現度は高いな
908名無しさん@お腹いっぱい。 (ワッチョイWW 928e-KgVj)
2017/11/02(木) 21:19:44.34ID:I7cvRq4a0 ゾンビ化以外は、従来版よりいいね。
従来版の輪郭が溶ける問題は発生していないから、ゾンビ程度ならペイント程度でも局所的に簡単に手直しできそうだし。
(輪郭が溶けるほうは、ペイントで簡単に手直しとはいかないし)
従来版の輪郭が溶ける問題は発生していないから、ゾンビ程度ならペイント程度でも局所的に簡単に手直しできそうだし。
(輪郭が溶けるほうは、ペイントで簡単に手直しとはいかないし)
909名無しさん@お腹いっぱい。 (アウアウアー Sad6-KgVj)
2017/11/03(金) 11:01:23.26ID:GBIyNV7aa >>900
これ試せるところないの?
これ試せるところないの?
910名無しさん@お腹いっぱい。 (ワッチョイ 6e76-8/j8)
2017/11/03(金) 11:05:59.35ID:3JWHfXbG0 無いよ
911名無しさん@お腹いっぱい。 (ブーイモ MMb6-Koxv)
2017/11/03(金) 12:02:31.66ID:LebgZYe6M 金積めば研究データ使わせてくれるかも
912名無しさん@お腹いっぱい。 (ワッチョイWW ad8e-KgVj)
2017/11/03(金) 15:37:03.81ID:H76ey3tB0 有料でいいからソフト化してくれ
913名無しさん@お腹いっぱい。 (ワイモマー MM62-Q/5A)
2017/11/03(金) 18:36:36.38ID:VfeW0NTrM 同一画像については変換パラメータ変更での再処理は○回まで無料とかは欲しいが
利用量(枚数、サイズ)に応じた従量制課金かプリペイド制のサービスになると利用しなくなる法則
オンライン変換サービスしてる人も課金モデルでその部分指摘してたな
利用量(枚数、サイズ)に応じた従量制課金かプリペイド制のサービスになると利用しなくなる法則
オンライン変換サービスしてる人も課金モデルでその部分指摘してたな
914名無しさん@お腹いっぱい。 (ワイモマー MM62-7T4N)
2017/11/03(金) 21:34:13.82ID:NDN+SZgNM テクスチャを学習するってことは、本格的に学習すると
データの容量が凄いことになるのかな
データの容量が凄いことになるのかな
915名無しさん@お腹いっぱい。 (ワッチョイ 6e76-8/j8)
2017/11/03(金) 21:56:43.26ID:3JWHfXbG0 学習するサンプルも多いだろう
916名無しさん@お腹いっぱい。 (ワイモマー MM62-Q/5A)
2017/11/03(金) 23:10:14.26ID:VfeW0NTrM 画像系ディープラーニングの学習データの量はニューラルネットワークで定義されてる係数やフィルタの数で固定される
学習サンプルが多いとデータが増えるわけではなく、固定サイズの学習データの質がサンプルの内容に応じて最適化されていくだけ
学習サンプルが多いとデータが増えるわけではなく、固定サイズの学習データの質がサンプルの内容に応じて最適化されていくだけ
917名無しさん@お腹いっぱい。 (ワッチョイ c26c-7v9/)
2017/11/06(月) 03:18:01.70ID:FH+Fgmgp0 ここのサイト結構性能いいかも
ちょっと誰か試して
Let's Enhance – free online image upscale and enhancement with neural networks
https://letsenhance.io/
原画像
http://i.imgur.com/mxp9Q2J.png
http://i.imgur.com/TGaT3oX.png
waifu2x
http://i.imgur.com/s4jE2hO.png
http://i.imgur.com/UZsH9uj.png
Let’s Enhance
http://i.imgur.com/fu6PEWJ.png
http://i.imgur.com/SVpsLwH.png
紹介記事
This Website Uses AI to Enhance Low-Res Photos, CSI-Style
https://petapixel.com/2017/10/31/website-uses-ai-enhance-photo-csi-style/
ちょっと誰か試して
Let's Enhance – free online image upscale and enhancement with neural networks
https://letsenhance.io/
原画像
http://i.imgur.com/mxp9Q2J.png
http://i.imgur.com/TGaT3oX.png
waifu2x
http://i.imgur.com/s4jE2hO.png
http://i.imgur.com/UZsH9uj.png
Let’s Enhance
http://i.imgur.com/fu6PEWJ.png
http://i.imgur.com/SVpsLwH.png
紹介記事
This Website Uses AI to Enhance Low-Res Photos, CSI-Style
https://petapixel.com/2017/10/31/website-uses-ai-enhance-photo-csi-style/
918名無しさん@お腹いっぱい。 (ワッチョイ c26c-7v9/)
2017/11/06(月) 05:34:47.22ID:FH+Fgmgp0 >>917のサイトのやつSRGANを参考に作っているらしい
ボケずに拡大出来るけど模樣なんかが元の画像と違った感じになる
原画像
https://i.imgur.com/Xs8E2hZ.png
waifu2x
https://i.imgur.com/4D0rzHC.png
Let’s Enhance
https://i.imgur.com/2elNRSJ.png
SRGANに関してはここの説明が分かりやすかった
https://elix-tech.github.io/ja/2017/02/06/gan.html#papers
ボケずに拡大出来るけど模樣なんかが元の画像と違った感じになる
原画像
https://i.imgur.com/Xs8E2hZ.png
waifu2x
https://i.imgur.com/4D0rzHC.png
Let’s Enhance
https://i.imgur.com/2elNRSJ.png
SRGANに関してはここの説明が分かりやすかった
https://elix-tech.github.io/ja/2017/02/06/gan.html#papers
919名無しさん@お腹いっぱい。 (ワッチョイWW 928e-zJ9Y)
2017/11/06(月) 13:47:49.83ID:TDgC8d4y0 元の画像から変わりすぎ
920名無しさん@お腹いっぱい。 (ワッチョイWW c26c-QMHA)
2017/11/06(月) 20:17:39.89ID:ir0xJWe00921名無しさん@お腹いっぱい。 (ワッチョイWW 928e-zJ9Y)
2017/11/06(月) 21:19:25.20ID:TDgC8d4y0922名無しさん@お腹いっぱい。 (ワッチョイ 6e76-8/j8)
2017/11/06(月) 21:42:36.91ID:Q6z17jgC0 予想外の結果になりそうで面白い
923917 (ワッチョイ 7f6c-+eVz)
2017/11/09(木) 08:10:48.38ID:ejxgnOxl0 紹介の仕方をミスった感が強いけど>>917のサイトは写真の種類によってはそれなりに有用だと思う。
waifu2x UpPhoto x4 ノイズ除去無しとの比較。
http://upup.bz/j/my27960IRCYtBJQmxSGzyUg.jpg
http://upup.bz/j/my27961gChYtd_bPU81wFWU.png
http://upup.bz/j/my27962YLrYtQJyJmWv6uSE.png
http://upup.bz/j/my27966jlmYtbo37ME0ayCU.jpg
http://upup.bz/j/my27967AwAYtbo37ME0ayCU.png
http://upup.bz/j/my27968lFCYtbo37ME0ayCU.png
waifu2x UpPhoto x4 ノイズ除去無しとの比較。
http://upup.bz/j/my27960IRCYtBJQmxSGzyUg.jpg
http://upup.bz/j/my27961gChYtd_bPU81wFWU.png
http://upup.bz/j/my27962YLrYtQJyJmWv6uSE.png
http://upup.bz/j/my27966jlmYtbo37ME0ayCU.jpg
http://upup.bz/j/my27967AwAYtbo37ME0ayCU.png
http://upup.bz/j/my27968lFCYtbo37ME0ayCU.png
924名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/10(金) 11:40:25.71ID:uNZAv5Jo0 >>923
どれがどれかくらい書いてアップしろよ、常考・・・
上から
・原画
・UpPhoto x4
・waifu2x(ノイズ除去無し)
だな。
■草刈正雄画像
一見すると確かにUpPhoto x4の仕上がりは良好に見える。
が、ブルーのクッションのうち右側のほうに着目すると、少しコントラスト比が変動してしまい
眠たくなってしまっている。
原画ではもう少しだけコントラスト感がある。
■女性画像
草刈正雄画像と同様に、黒い服?のコントラスト感が若干弱まり眠たくなってしまっている。
この程度の画像でコントラスト変動が出る(全体にではなく一部にというのが問題)のは、学習に用いている画像の枚数が少なすぎるのではないか?
前の>>916でもそうだけど、学習量が少なすぎるから、少ない学習データの中で一番近そうなのはこれしかないんです状態に感じられて仕方がない。
少なくとも今の学習量の8倍は学習させたほうがいい。
あと、一度拡大した画像自体を縮小して、元画像との変化が出ているところを再度調整しなおすような仕組み(フィードバック補償)があってもよいのかもしれない。
ゾンビ化の画像とかもそうだが、フィードバックしていればあのまま出てくることはないはず。
一度きりの結果に満足するなかれ。
どれがどれかくらい書いてアップしろよ、常考・・・
上から
・原画
・UpPhoto x4
・waifu2x(ノイズ除去無し)
だな。
■草刈正雄画像
一見すると確かにUpPhoto x4の仕上がりは良好に見える。
が、ブルーのクッションのうち右側のほうに着目すると、少しコントラスト比が変動してしまい
眠たくなってしまっている。
原画ではもう少しだけコントラスト感がある。
■女性画像
草刈正雄画像と同様に、黒い服?のコントラスト感が若干弱まり眠たくなってしまっている。
この程度の画像でコントラスト変動が出る(全体にではなく一部にというのが問題)のは、学習に用いている画像の枚数が少なすぎるのではないか?
前の>>916でもそうだけど、学習量が少なすぎるから、少ない学習データの中で一番近そうなのはこれしかないんです状態に感じられて仕方がない。
少なくとも今の学習量の8倍は学習させたほうがいい。
あと、一度拡大した画像自体を縮小して、元画像との変化が出ているところを再度調整しなおすような仕組み(フィードバック補償)があってもよいのかもしれない。
ゾンビ化の画像とかもそうだが、フィードバックしていればあのまま出てくることはないはず。
一度きりの結果に満足するなかれ。
925名無しさん@お腹いっぱい。 (ワッチョイ 7f6c-+eVz)
2017/11/10(金) 12:57:12.20ID:1rKnYbnJ0 >>924
ごめん、どれがどれか書き忘れた。
上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
あとレビューありがとう。
自分は画像処理の専門家じゃないしそんなに目も良くないので意見を言ってくれると助かります。
学習量については一週間毎にモデルを更新していく予定とのことなのでそれで改善されるかも。
ごめん、どれがどれか書き忘れた。
上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
あとレビューありがとう。
自分は画像処理の専門家じゃないしそんなに目も良くないので意見を言ってくれると助かります。
学習量については一週間毎にモデルを更新していく予定とのことなのでそれで改善されるかも。
926名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/10(金) 13:18:06.57ID:uNZAv5Jo0 >>925
>上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
これマジ?
だとしたらLet's Enhanceが一番ぼけてることになるのだが。
輪郭線などの具合から、てっきり3番目がwaifu2xかと思っていたのだが。
>上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
これマジ?
だとしたらLet's Enhanceが一番ぼけてることになるのだが。
輪郭線などの具合から、てっきり3番目がwaifu2xかと思っていたのだが。
927名無しさん@お腹いっぱい。 (ペラペラ SD8f-zF6t)
2017/11/10(金) 14:43:20.30ID:mTpzd+uCD928名無しさん@お腹いっぱい。 (ワッチョイ 5f35-JIcl)
2017/11/10(金) 14:56:28.62ID:oFJM5zAg0 >>926
Let's Enhanceぼかしたままのところとディテールを加えるところのメリハリがあるね
髪の毛や肌は明らかにLet's Enhanceの方が情報量が多い(存在しない情報を付加している)
メガネのエッジなんかもLet's Enhanceの方がくっきりしてる
Let's Enhanceぼかしたままのところとディテールを加えるところのメリハリがあるね
髪の毛や肌は明らかにLet's Enhanceの方が情報量が多い(存在しない情報を付加している)
メガネのエッジなんかもLet's Enhanceの方がくっきりしてる
929名無しさん@お腹いっぱい。 (ワッチョイ 7f6c-+eVz)
2017/11/10(金) 15:03:23.18ID:1rKnYbnJ0930名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/10(金) 16:46:38.70ID:uNZAv5Jo0 なぜかリンク貼るとエラーになるのでリンク先で画像見つけてほしいが
■JPEGノイズ除去のbefore/after(左右で比較できる画像)
tmpimg1711101329n220171110135958928.jpg
やはりコントラストが変動しているな。
■拡大のbefore/after(鉄塔の画像)
before
tmpimg1711101340n120171110140051020.jpg
after
tmpimg1711101341n120171110140114527.jpg
拡大後の鉄塔の赤色や右側の塔の上部のオレンジ、クレーンの青、背景等をみると、同様に変動している。
輪郭周りの処理はwaifu2xよりうまいけど、まだまだ問題点が多い。
■JPEGノイズ除去のbefore/after(左右で比較できる画像)
tmpimg1711101329n220171110135958928.jpg
やはりコントラストが変動しているな。
■拡大のbefore/after(鉄塔の画像)
before
tmpimg1711101340n120171110140051020.jpg
after
tmpimg1711101341n120171110140114527.jpg
拡大後の鉄塔の赤色や右側の塔の上部のオレンジ、クレーンの青、背景等をみると、同様に変動している。
輪郭周りの処理はwaifu2xよりうまいけど、まだまだ問題点が多い。
931名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/10(金) 16:51:55.59ID:uNZAv5Jo0 追記
ただし、ノイズ除去の精度はかなり高い。
これ、デジタル放送のノイズ除去や、調整次第ではVHSの3倍モードのノイズに効用がありそうな気はする。
ただし、ノイズ除去の精度はかなり高い。
これ、デジタル放送のノイズ除去や、調整次第ではVHSの3倍モードのノイズに効用がありそうな気はする。
932名無しさん@お腹いっぱい。 (アウアウカー Sad3-zF6t)
2017/11/10(金) 17:25:45.25ID:C0fr3WYka 確かに非常に良くなる画像とディテールが崩れる画像がある印象。
だけどまさに魔法と呼びたくなるほど凄い処理がされる画像もあったよ。
だけどまさに魔法と呼びたくなるほど凄い処理がされる画像もあったよ。
933名無しさん@お腹いっぱい。 (ワッチョイ 5f8e-ySnM)
2017/11/10(金) 19:57:18.90ID:fiLLUmkY0 イラスト系の比較画像がほしいな
実写はもともとwaifu2x苦手なの分かってるし
実写はもともとwaifu2x苦手なの分かってるし
934名無しさん@お腹いっぱい。 (ポキッー df8e-0ibl)
2017/11/11(土) 11:12:56.96ID:K8wJXMCa01111 >>933
今は無料で試せるみたいだから自分で試してみたら。
閑話休題。
Let’s Enhance、これもGPUの力がないと演算に時間がかかるタイプなのかな?
来年早々にIntel CPU+Radeon GPUなCPUをIntelが出すみたいだし、AMD系含めオフライン環境でも実行できるようになればいいのだが。
動画を連番画像で書き出してアップさせようとするとすさまじい枚数になるので、時間はかかってもいいがオフラインで実行できないと死ぬ。
今は無料で試せるみたいだから自分で試してみたら。
閑話休題。
Let’s Enhance、これもGPUの力がないと演算に時間がかかるタイプなのかな?
来年早々にIntel CPU+Radeon GPUなCPUをIntelが出すみたいだし、AMD系含めオフライン環境でも実行できるようになればいいのだが。
動画を連番画像で書き出してアップさせようとするとすさまじい枚数になるので、時間はかかってもいいがオフラインで実行できないと死ぬ。
935名無しさん@お腹いっぱい。 (ワッチョイ 7f6c-+eVz)
2017/11/12(日) 00:45:44.32ID:uaMsUrr60 >>933
Let's EnhanceのTwitterアカウントの人がWe are trained on photos, not anime ) Waifu2x has a clear leadership here )って言ってるからあんまり向いてないんじゃないかな
Google翻訳 私たちはアニメではなく写真で訓練されています)Waifu2xはここで明確なリーダーシップを持っています)
Let's EnhanceのTwitterアカウントの人がWe are trained on photos, not anime ) Waifu2x has a clear leadership here )って言ってるからあんまり向いてないんじゃないかな
Google翻訳 私たちはアニメではなく写真で訓練されています)Waifu2xはここで明確なリーダーシップを持っています)
936名無しさん@お腹いっぱい。 (ワッチョイ 7f6c-+eVz)
2017/11/12(日) 11:50:55.45ID:uaMsUrr60 >>584でGANはPSNRが下がる懸念があると言われていたので気になって調べてみました。
一応bicubicと同程度はあるようです。
BSD100 x4 Y-PSNR
25.976 bicubic
26.085 Let’s Enhance
27.094 waifu2x Photo
27.196 waifu2x UpPhoto
ベンチマークに使った画像もUPしておきます。
https://www.dropbox.com/sh/i5b2old7vqgtvyv/AADb8UIqZel9LTDaFuwDdLwda?dl=0
一応bicubicと同程度はあるようです。
BSD100 x4 Y-PSNR
25.976 bicubic
26.085 Let’s Enhance
27.094 waifu2x Photo
27.196 waifu2x UpPhoto
ベンチマークに使った画像もUPしておきます。
https://www.dropbox.com/sh/i5b2old7vqgtvyv/AADb8UIqZel9LTDaFuwDdLwda?dl=0
937名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/12(日) 13:41:34.72ID:dNH6kcXn0 >>936
PSNRで20台半ばか。
ただ、そもそも超解像のような処理の場合、PSNRが評価指標として適切かという問題はある。
以下を読むと参考になるかと。
・MSE/PSNR vs SSIM の比較画像紹介
https://qiita.com/yoya/items/510043d836c9f2f0fe2f
SSIMで比較してみるといいのかもしれない。
PSNRで20台半ばか。
ただ、そもそも超解像のような処理の場合、PSNRが評価指標として適切かという問題はある。
以下を読むと参考になるかと。
・MSE/PSNR vs SSIM の比較画像紹介
https://qiita.com/yoya/items/510043d836c9f2f0fe2f
SSIMで比較してみるといいのかもしれない。
938名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/12(日) 13:47:37.01ID:dNH6kcXn0 追記
Let’s Enhanceは、コントラストが変動する問題が解決すれば、基本的には今の状態でも使えなくはないのだが(バケる問題は学習量を増やせば落ち着くかと思われるので)、なぜにあんなにコントラスト変動が起こるのかが解せないんだよね。
Let’s Enhanceは、コントラストが変動する問題が解決すれば、基本的には今の状態でも使えなくはないのだが(バケる問題は学習量を増やせば落ち着くかと思われるので)、なぜにあんなにコントラスト変動が起こるのかが解せないんだよね。
939名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/12(日) 13:59:45.49ID:dNH6kcXn0 再度追記
>>936の画像を見ていると、苦手な画像が少しわかってきた。
小さな三角形のような形が含まれる画像が変形しやすいように見える。
ヒョウ柄とか動物の目のまわりとか、そういう画像をたくさん学習させるとかなり改善されるような気がする。
>>936の画像を見ていると、苦手な画像が少しわかってきた。
小さな三角形のような形が含まれる画像が変形しやすいように見える。
ヒョウ柄とか動物の目のまわりとか、そういう画像をたくさん学習させるとかなり改善されるような気がする。
940名無しさん@お腹いっぱい。 (ワッチョイWW 7f8e-D8hg)
2017/11/13(月) 11:19:04.01ID:TPyOarub0 Let’s Enhanceについてさらに評価と要望
・アンチJPEG
JPEG画像などに見られるブロックノイズを解像感を落とさずに除去
→この考え方を応用して、スキャナで取り込んだ画像に発生するモアレを、解像感を落とさずにモアレだけ除去できるような
「アンチモアレ」機能に発展させてもらうことはできないのだろうか?
現状、モアレ除去を試みると、どうしても解像感が犠牲になるのと、素材ごとに手動で最適な設定値を見出さなければならない状況になるが、
自動的に最適な状態で除去してくれたら、印刷物の取り込みが大幅に楽になる。
ついでに、オプションで印刷物取り込み画像はコントラストが眠くなりがちです、取り込み後にガンマをいじくったりして補正しなければならないケースが多いので、
印刷物のコントラスト補正最適化モードも自動的に実行されるオプションがあればなおよいのだけど。
・ボーリング
省略
・マジック
アンチJPEGを実行後に拡大しているようなのだが、アンチJPEGをオフにして拡大だけするモードをつけられないのだろうか?
サンプル画像を見ていると、アンチJPEGによる副作用なのか、妙にノッペリして見える箇所が見受けられるので。
・アンチJPEG
JPEG画像などに見られるブロックノイズを解像感を落とさずに除去
→この考え方を応用して、スキャナで取り込んだ画像に発生するモアレを、解像感を落とさずにモアレだけ除去できるような
「アンチモアレ」機能に発展させてもらうことはできないのだろうか?
現状、モアレ除去を試みると、どうしても解像感が犠牲になるのと、素材ごとに手動で最適な設定値を見出さなければならない状況になるが、
自動的に最適な状態で除去してくれたら、印刷物の取り込みが大幅に楽になる。
ついでに、オプションで印刷物取り込み画像はコントラストが眠くなりがちです、取り込み後にガンマをいじくったりして補正しなければならないケースが多いので、
印刷物のコントラスト補正最適化モードも自動的に実行されるオプションがあればなおよいのだけど。
・ボーリング
省略
・マジック
アンチJPEGを実行後に拡大しているようなのだが、アンチJPEGをオフにして拡大だけするモードをつけられないのだろうか?
サンプル画像を見ていると、アンチJPEGによる副作用なのか、妙にノッペリして見える箇所が見受けられるので。
941名無しさん@お腹いっぱい。 (ワッチョイ 7f8e-0ibl)
2017/11/13(月) 14:30:14.38ID:TPyOarub0 waifu2xとの比較画像含め作成してみました。
https://www.axfc.net/u/3862416
※700MB程度zipファイルです。時間のある時にお試しください。
今夜2時までの公開です。
(著作権があるので、テスト目的のみで使用してください)
※元画像がAdobe-RGBの画像については、ICCプロファイルの引継ぎがされていないため、正しい色味で表示されませんが、これはwaifu2xの初期と同じく、プロファイルの編集をすれば正しく表示されます。
なお、変換した画像について
・いつもの画像
waifu2xのテストでよく使用していた画像です。
pngファイルにつき、anti-jpegは出力されていません。
ノイズ除去を適用したくなければ、pngファイルでアップするとよいのかもしれないです。
waifu2xとの比較ですが、boolin(2次元向き)よりmagic(実写向き)のほうが精細感や透明感があり好ましいように思います。
ただし、川の右側の欄干の処理がもう一歩な感じはするけど、縦横4倍!でこの状態はすごい。
(試す前まで、waifuと同じ縦横2倍だと思ってました・・・)
ただし、川の左側の石の護岸壁が元画像とコントラストが異なるのは気になるところ。
他の画像はjpgですので、anti-jpegあり。
参考程度にどうぞ。
(ノイズ除去なしになるか試そうと、jpg⇒pngした画像をアップしようとしたら枚数上限に達したので、また次回試してみます)
https://www.axfc.net/u/3862416
※700MB程度zipファイルです。時間のある時にお試しください。
今夜2時までの公開です。
(著作権があるので、テスト目的のみで使用してください)
※元画像がAdobe-RGBの画像については、ICCプロファイルの引継ぎがされていないため、正しい色味で表示されませんが、これはwaifu2xの初期と同じく、プロファイルの編集をすれば正しく表示されます。
なお、変換した画像について
・いつもの画像
waifu2xのテストでよく使用していた画像です。
pngファイルにつき、anti-jpegは出力されていません。
ノイズ除去を適用したくなければ、pngファイルでアップするとよいのかもしれないです。
waifu2xとの比較ですが、boolin(2次元向き)よりmagic(実写向き)のほうが精細感や透明感があり好ましいように思います。
ただし、川の右側の欄干の処理がもう一歩な感じはするけど、縦横4倍!でこの状態はすごい。
(試す前まで、waifuと同じ縦横2倍だと思ってました・・・)
ただし、川の左側の石の護岸壁が元画像とコントラストが異なるのは気になるところ。
他の画像はjpgですので、anti-jpegあり。
参考程度にどうぞ。
(ノイズ除去なしになるか試そうと、jpg⇒pngした画像をアップしようとしたら枚数上限に達したので、また次回試してみます)
942名無しさん@お腹いっぱい。 (ワッチョイWW 7f9b-RCyH)
2017/11/13(月) 23:14:41.84ID:SEq7VEq/0 重すぎてダウンロード出来ない
943名無しさん@お腹いっぱい。 (ワッチョイ df8e-N3p8)
2017/11/15(水) 12:26:10.44ID:+/WZXxMd0 >>942
また時間のあるときにでもアップしてみます。
なお、開発元からメールが届き、やはりpngでアップした場合はJPEGのノイズ除去はしないで拡大だけするようです。
その状況を確認しようと再度アップを試みたところ、前回のアップからすでに1日以上経過しているにもかかわらず、
上限枚数に達したと表示されアップできない状態。
どうも不安定なようす。
また時間のあるときにでもアップしてみます。
なお、開発元からメールが届き、やはりpngでアップした場合はJPEGのノイズ除去はしないで拡大だけするようです。
その状況を確認しようと再度アップを試みたところ、前回のアップからすでに1日以上経過しているにもかかわらず、
上限枚数に達したと表示されアップできない状態。
どうも不安定なようす。
944名無しさん@お腹いっぱい。 (ワッチョイ 0263-RuWE)
2017/11/21(火) 11:15:49.96ID:GGDYSobV0 今までグラボに負荷がかからないように、ゲームやるときでもGPU LOADをなるべく30%以内に抑えてきたんだが、
waifu2x-caffeだと常時100%使うんだな (((( ;゚Д゚)))ガクガクブルブル
まあ、すぐ慣れるか・・・
waifu2x-caffeだと常時100%使うんだな (((( ;゚Д゚)))ガクガクブルブル
まあ、すぐ慣れるか・・・
945名無しさん@お腹いっぱい。 (ワッチョイW 829e-BqvU)
2017/11/21(火) 11:49:30.65ID:ggCP7JpA0 俺100%にならないぞ
性能が低いからか?
性能が低いからか?
946名無しさん@お腹いっぱい。 (ワッチョイ ae76-dUYE)
2017/11/22(水) 10:59:57.46ID:MpzyPo1w0 ディープラーニングのすごさを体験! 人工知能で画像を加工できるツール5選
http://news.mynavi.jp/articles/2017/11/22/ai/
http://news.mynavi.jp/articles/2017/11/22/ai/
947名無しさん@お腹いっぱい。 (ワッチョイ df8e-DWFp)
2017/11/27(月) 16:45:35.69ID:k5rPv5PA0 Let's Enhance、月払いと年払いのサブスクリプションプランを作ったみたいだね。
無料版は制限きつすぎ。
無料版は制限きつすぎ。
948名無しさん@お腹いっぱい。 (ワッチョイ 5f6c-ijx+)
2017/11/27(月) 18:31:18.18ID:l2QRCD030 waifu2xも運営費の捻出に苦労している中ビジネスモデルが成功するのか興味がある
949名無しさん@お腹いっぱい。 (スップ Sdff-ULKC)
2017/11/27(月) 20:18:13.21ID:0yxjOZvPd そもそも一般的な使い道が思い付かない
防犯カメラ画像の解析とか?
防犯カメラ画像の解析とか?
950名無しさん@お腹いっぱい。 (スッップ Sd7f-k+KP)
2017/11/27(月) 20:24:39.62ID:25fgXHbid AIが解析した監視カメラ映像は法的な証拠能力があるのだろうか
951名無しさん@お腹いっぱい。 (ワッチョイ 2735-KsIq)
2017/11/28(火) 23:44:40.07ID:X/pTZJk50952名無しさん@お腹いっぱい。 (ワッチョイWW df8e-2YCd)
2017/11/29(水) 09:11:55.09ID:uEaZLV9C0 どこをどう読んだらオフラインで使えるようになったように読めるのか…
953名無しさん@お腹いっぱい。 (ニククエ a76c-+taN)
2017/11/29(水) 14:08:33.74ID:LjzMHann0NIKU また繋がらない
モチベが無くなる前に復旧してくれー
モチベが無くなる前に復旧してくれー
954名無しさん@お腹いっぱい。 (アークセーT Sxbd-SZ7f)
2017/12/01(金) 00:27:17.53ID:JRCbfq5qx これUPした画像はサーバにずっと保存されるの?それとも一定期間で削除?
955名無しさん@お腹いっぱい。 (ワッチョイWW c571-qSQT)
2017/12/01(金) 02:29:52.78ID:YkGnoxC70 速攻削除じゃないの?保存する意味あるかな?
956名無しさん@お腹いっぱい。 (ワッチョイ 8a53-HgL3)
2017/12/01(金) 10:26:12.87ID:rk1mw3Ut0 ぐへへ
957名無しさん@お腹いっぱい。 (ワッチョイ 3767-F7Qh)
2017/12/08(金) 19:58:14.25ID:1692mnP40 Tensor演算性能110TFLOPSなTitan Vが出たけど、waifu2xどれくらい速くなるんけ?
958名無しさん@お腹いっぱい。 (ワッチョイW d7c1-Piuo)
2017/12/13(水) 05:40:07.05ID:mHLtONb60 waifu2x、iOSのSafariからやるとGoogle reCaptureクリアしてもInvalid Requestが出てしまうのですがどうしたらいいですか?
959名無しさん@お腹いっぱい。 (ワッチョイ 973e-zy4u)
2017/12/13(水) 19:36:00.62ID:azBr58UQ0 >Let’s Enhanceは、コントラストが変動する問題が解決すれば
GANの原理的に元の数値自体を見てないから形状とか以外は
ごっつり変わる可能性があるんだよね
GANの原理的に元の数値自体を見てないから形状とか以外は
ごっつり変わる可能性があるんだよね
960名無しさん@お腹いっぱい。 (ワッチョイWW a38e-J+o0)
2017/12/20(水) 10:42:06.75ID:o8jFfiBn0 >>959
それじゃ話にならんね
それじゃ話にならんね
961名無しさん@お腹いっぱい。 (ワッチョイ 926c-ncc0)
2017/12/20(水) 11:03:38.82ID:Nd23KCWC0 PSNRを高くしていく方向性の超解像は原画像とかけ離れた結果にはなりにくいが溶けたりぼやけたりする
PSNRを無視して自然に見える画像を作り出そうとする方向性の超解像はくっきりしているけど原画像とかけ離れた結果になるリスクが有る
ジレンマみたいな感じで難しいね
今後はどっちの超解像が主流になるのかな
PSNRを無視して自然に見える画像を作り出そうとする方向性の超解像はくっきりしているけど原画像とかけ離れた結果になるリスクが有る
ジレンマみたいな感じで難しいね
今後はどっちの超解像が主流になるのかな
962名無しさん@お腹いっぱい。 (ワッチョイ cf37-bqMz)
2017/12/22(金) 12:59:10.97ID:45YP9s6P0 誰でも悪夢のようなムービーが作れるようになるツール「Bind」が公開
https://gigazine.net/news/20171221-bind/
https://gigazine.net/news/20171221-bind/
963名無しさん@お腹いっぱい。 (ワッチョイ f38e-EmoC)
2017/12/22(金) 14:00:11.61ID:WX6qzd4e0964名無しさん@お腹いっぱい。 (中止WW 3367-ZsAo)
2017/12/24(日) 01:09:29.89ID:OnQYpWTt0EVE コントラストが変わらなくて
元画像を参照するGANを思いついたので
近いうち実装する
写真向け手法
元画像を参照するGANを思いついたので
近いうち実装する
写真向け手法
967名無しさん@お腹いっぱい。 (ワイモマー MMea-FiVz)
2018/01/01(月) 10:47:23.44ID:Hh7i7mWtM アンチエイリアス、ジャギ取り用の深層学習のソフトってないだろうか
学習させるとしたら、ジャギっている大きな画像を大量に用意し
ニアレストネイバーで縮小したジャギっている画像と
適当なフィルタで縮小してスムージングされた画像を学習させる形になるのかな
学習させるとしたら、ジャギっている大きな画像を大量に用意し
ニアレストネイバーで縮小したジャギっている画像と
適当なフィルタで縮小してスムージングされた画像を学習させる形になるのかな
968名無しさん@お腹いっぱい。 (ワッチョイWW 6f67-LuW1)
2018/01/01(月) 15:11:31.18ID:jOvnUDDx0 waifu2xって元画像がジャギって
ゆがんでても補正してくれるんだけど
ソース読むと縮小フィルタを
ランダムに選択して学習してるので
ジャギがあってもなくてもうまくいく
設計なんだよね
964の100パーセントGANによる
超解像だけど、画質的にはwaifu2x
には遙かに及ばないけど
劣化画像と理想画像が全く別の
画像でもいいので、大量のスマホの写真と
一眼レフの画像があればスマホの画像を
一眼レフに変換できる
ゆがんでても補正してくれるんだけど
ソース読むと縮小フィルタを
ランダムに選択して学習してるので
ジャギがあってもなくてもうまくいく
設計なんだよね
964の100パーセントGANによる
超解像だけど、画質的にはwaifu2x
には遙かに及ばないけど
劣化画像と理想画像が全く別の
画像でもいいので、大量のスマホの写真と
一眼レフの画像があればスマホの画像を
一眼レフに変換できる
969名無しさん@お腹いっぱい。 (ワッチョイ 0356-AZCO)
2018/01/01(月) 19:31:50.30ID:MEklgyMk0970名無しさん@お腹いっぱい。 (ワイモマー MMea-FiVz)
2018/01/01(月) 20:24:27.50ID:Hh7i7mWtM >>969
言葉足らずで申し訳ないですが、こちらとしては処理対象のジャギーっている画像とは
よくある斜めの色の境界に中間色がなく1ドットのギザギザが見える状態を想定しています
ジャギってない画像=色の境界付近に中間色がある画像をニアレストネイバーで縮小すると
縮小画像の境界線上で元画像の境界付近の中間色を抽出してしまう箇所が出て来ますし
それを拡大すると、ジャギっている部分が1ドットではなく拡大倍ドットとなりまので
想定のジャギー画像とは異なるものが出力されます
ニアレストネイバーで縮小⇒拡大した画像を元の画像に向けるというのは
ニアレストネイバーの性質上、実質的にwaifu2xの拡大に近いものと思われますが
現状のwaifu2xには上記で想定しているジャギーはあまり取れません
彩色等の関係で最終的に必要な物より高解像度かつアンチエイリアスが掛かってない画像を用意して、
その後に縮小することで中間色を生成させジャギってない状態にするというのは良くある手法ですので
その辺の効果により、前述の方法で学習できるのではないかなと考えていました
言葉足らずで申し訳ないですが、こちらとしては処理対象のジャギーっている画像とは
よくある斜めの色の境界に中間色がなく1ドットのギザギザが見える状態を想定しています
ジャギってない画像=色の境界付近に中間色がある画像をニアレストネイバーで縮小すると
縮小画像の境界線上で元画像の境界付近の中間色を抽出してしまう箇所が出て来ますし
それを拡大すると、ジャギっている部分が1ドットではなく拡大倍ドットとなりまので
想定のジャギー画像とは異なるものが出力されます
ニアレストネイバーで縮小⇒拡大した画像を元の画像に向けるというのは
ニアレストネイバーの性質上、実質的にwaifu2xの拡大に近いものと思われますが
現状のwaifu2xには上記で想定しているジャギーはあまり取れません
彩色等の関係で最終的に必要な物より高解像度かつアンチエイリアスが掛かってない画像を用意して、
その後に縮小することで中間色を生成させジャギってない状態にするというのは良くある手法ですので
その辺の効果により、前述の方法で学習できるのではないかなと考えていました
971名無しさん@お腹いっぱい。 (ワッチョイWW ca9b-fuA0)
2018/01/01(月) 20:29:13.01ID:8BMS1Da70972名無しさん@お腹いっぱい。 (ワッチョイ 4a27-XPej)
2018/01/01(月) 21:19:51.47ID:xM62e1bZ0973名無しさん@お腹いっぱい。 (ワイモマー MMea-FiVz)
2018/01/01(月) 22:08:58.84ID:Hh7i7mWtM974名無しさん@お腹いっぱい。 (ワッチョイWW db8e-pBWh)
2018/01/01(月) 22:20:48.47ID:lYo0ZpOi0 >>971
本来的には新スレを立てるべきだが、この板、古いスレが残ったままになるからいつまでも鬱陶しい状況が続くのがなんとも…
しかもスレタイの数字をわざわざ全角にしてるとか頭悪すぎて嫌になるのだが、再利用してさっさと消化したほうがいいのかもと思わなくもない
本来的には新スレを立てるべきだが、この板、古いスレが残ったままになるからいつまでも鬱陶しい状況が続くのがなんとも…
しかもスレタイの数字をわざわざ全角にしてるとか頭悪すぎて嫌になるのだが、再利用してさっさと消化したほうがいいのかもと思わなくもない
975名無しさん@お腹いっぱい。 (アウアウアー Sa7f-ZvWl)
2018/01/05(金) 12:51:26.34ID:nBhogx94a ところで、>>964の件は、もう実装済みなんだろうか?
976名無しさん@お腹いっぱい。 (ワッチョイWW 9f9b-WfZ8)
2018/01/06(土) 10:48:48.97ID:0S9DEI+l0 そもそも実装したとしても一般人が気軽に試せる形になるのだろうか?
977名無しさん@お腹いっぱい。 (オッペケ Srcf-F1OP)
2018/01/06(土) 19:51:14.90ID:OealWOcAr >975
年末に実装して実験中
とりあえずwaifu2xの画質は絶対にぬけないのは理屈上
わかってるので
画質的にはlanczosよりまし程度
写真の場合はいけてるんじゃないかと
思うが学習用写真が集まってない
カメラ固有の最適化が可能
年末に実装して実験中
とりあえずwaifu2xの画質は絶対にぬけないのは理屈上
わかってるので
画質的にはlanczosよりまし程度
写真の場合はいけてるんじゃないかと
思うが学習用写真が集まってない
カメラ固有の最適化が可能
978名無しさん@お腹いっぱい。 (アウーイモ MM8f-ZvWl)
2018/01/07(日) 12:55:19.05ID:qq+ZqyR5M ?
>>964ってwaifu2xの話じゃないの?
>>964ってwaifu2xの話じゃないの?
979名無しさん@お腹いっぱい。 (オッペケ Srcf-F1OP)
2018/01/07(日) 13:45:53.90ID:dBE9S5Xpr >978
ちがうよ
深層学習の超解像のアルゴリズムの
開発は最近は割とだれでもできる
ちがうよ
深層学習の超解像のアルゴリズムの
開発は最近は割とだれでもできる
980名無しさん@お腹いっぱい。 (ワッチョイ bb8e-nOrU)
2018/01/08(月) 15:39:19.53ID:6xLoPyaT0 ・AMD、HBM2搭載のモバイルGPU「Radeon Vega Mobile」
「NVIDIAで言えばcuDNNに対応するライブラリとしてオープンソースのMIOpenを利用し、NVIDIAで言えばCUDAに相当するプログラミング言語としてはオープンソースのHIPを活用しているの。
AMDは、CUDAのコードをHIPに移植するツールとして「HIPfy」という自動変換ツールを用意しており、それを利用してCUDAベースのアプリケーションを、
HIPに変換してRadeon Instinct上で機械学習/深層学習の学習や推論を行なうことができるようになっている。」
期待していいのか?
「NVIDIAで言えばcuDNNに対応するライブラリとしてオープンソースのMIOpenを利用し、NVIDIAで言えばCUDAに相当するプログラミング言語としてはオープンソースのHIPを活用しているの。
AMDは、CUDAのコードをHIPに移植するツールとして「HIPfy」という自動変換ツールを用意しており、それを利用してCUDAベースのアプリケーションを、
HIPに変換してRadeon Instinct上で機械学習/深層学習の学習や推論を行なうことができるようになっている。」
期待していいのか?
981名無しさん@お腹いっぱい。 (ワッチョイWW 6b71-awjz)
2018/01/08(月) 16:53:16.29ID:XECcA2bg0 つまり、CUDAで出来る事をRadeon上でも出来る様になるの?
982名無しさん@お腹いっぱい。 (ワッチョイ 9fe0-Qvr0)
2018/01/08(月) 23:48:52.12ID:XfcA6Mys0 >>966
ホンマに実装してくれたんか!有難う!!
ホンマに実装してくれたんか!有難う!!
983名無しさん@お腹いっぱい。 (ワッチョイWW 0b8e-ZvWl)
2018/01/10(水) 11:36:27.73ID:PiW5a8mQ0 もう本家は改良とかしないのかね?
984名無しさん@お腹いっぱい。 (ワントンキン MM7a-YtMd)
2018/01/11(木) 17:43:53.14ID:Er8Gq8eDM 動画版waifu2x がどうとか言ってたけど今はビットコイン取引BOTを改良して必要資金貯めてるとか
985名無しさん@お腹いっぱい。 (イルクン MM92-zV03)
2018/01/11(木) 19:01:21.32ID:2J+WZHTPM GT1030でもcuDNNで変換できるんだな
今までCPUで数分かかってた変換がほんの数秒で終わって感動した
今までCPUで数分かかってた変換がほんの数秒で終わって感動した
986名無しさん@お腹いっぱい。 (スップ Sd0a-581W)
2018/01/11(木) 19:27:01.77ID:k859fDIrd987名無しさん@お腹いっぱい。 (ワッチョイWW 256c-zV03)
2018/01/12(金) 01:13:13.08ID:DyRHfmzZ0 1030はNVENC削られてるうえにcompute capabilityのリストからもハブられてるよね……
cudaだけは使えるからこのツール使ううえでは困らんけど
cudaだけは使えるからこのツール使ううえでは困らんけど
988名無しさん@お腹いっぱい。 (ワイモマー MM0a-0PCX)
2018/01/13(土) 02:27:32.81ID:hh+HLA6dM 1050Ti でぶん回してるけどパラメータ上げてもGPU使用率50%にも届かないから全く問題なさそう
989名無しさん@お腹いっぱい。 (ワッチョイ 8ac2-53ns)
2018/01/14(日) 14:03:58.75ID:ifFduiGd0 原因はわからないけどwaifu2xcafeで拡大すると変色する画像がある
皆はこういうの無いの?色が反転したように変わる
皆はこういうの無いの?色が反転したように変わる
990名無しさん@お腹いっぱい。 (ワッチョイ 5dc6-0PCX)
2018/01/14(日) 16:10:24.22ID:r3v4tsYY0 画像ファイルが CMYK 、ICCプロファイル付きだったりすると結構変わる
でも、反転というほどまでは行かない気がするので外してるかな
でも、反転というほどまでは行かない気がするので外してるかな
991名無しさん@お腹いっぱい。 (ワッチョイWW ea9b-j5zO)
2018/01/14(日) 16:59:42.78ID:zlhxjl+z0 ICCプロファイルの種類によっては結構変わるみたいね
例えばこのサイトの画像なんかは激しく変色する
Is your system ICC Version 4 ready?
http://www.color.org/version4html.xalter
現状だとweb版しかICCプロファイルに対応してないからweb版使うといい
例えばこのサイトの画像なんかは激しく変色する
Is your system ICC Version 4 ready?
http://www.color.org/version4html.xalter
現状だとweb版しかICCプロファイルに対応してないからweb版使うといい
992名無しさん@お腹いっぱい。 (アウーイモ MM21-qwZV)
2018/01/14(日) 18:30:09.46ID:oJDLZTLRM ICCプロファイルが原因ならば、前スレに書いた修正手順を試せばいい
993名無しさん@お腹いっぱい。 (アウーイモ MM21-qwZV)
2018/01/16(火) 10:51:24.87ID:oDmj97zFM 次スレどうするの?
994名無しさん@お腹いっぱい。 (ワッチョイ ea86-53ns)
2018/01/16(火) 17:41:26.41ID:Up0GJ+WT0 2年前に後出重複で立ってかっそ過疎なのにまだ残ってるのがまだあるけどそっち使うの?
でもなんかお古すぎてアレだな・・とは思う人も居るのかしらかしら
でもなんかお古すぎてアレだな・・とは思う人も居るのかしらかしら
995名無しさん@お腹いっぱい。 (アウーイモ MM21-qwZV)
2018/01/16(火) 19:40:03.11ID:oDmj97zFM996名無しさん@お腹いっぱい。 (ワッチョイ 9a8d-53ns)
2018/01/17(水) 09:44:45.02ID:RPwmPYrq0 荒らしがくるようならワッチョイで建ててな
997名無しさん@お腹いっぱい。 (ワッチョイ 66bb-QpsD)
2018/01/17(水) 17:04:31.09ID:WtaDae6Y0 過疎ってるからワッチョイもあまり意味ないけどな
998名無しさん@お腹いっぱい。 (ワッチョイ ea63-zHNy)
2018/01/17(水) 17:30:20.62ID:enIPH0J50 ワッチョイ有りの方がいいと思う 念のため
999名無しさん@お腹いっぱい。 (ワッチョイ 0b71-GP+B)
2018/01/24(水) 00:36:37.13ID:/NC95LKA0 caffe作者さんへ。caffeってOpenCL(radeon)に対応予定はないの?
VEGA搭載のRyzen 5 2400Gを購入したいけどソレだけが二の足を踏む理由。
RYZEN G買ってWaifuの為だけにGeForce乗っけるのもなぁーチラチラッ
対応をもう一度検討してみて下さい。
converter-cppやcl-waifu2xも更新2年以上無いし・・・
VEGA搭載のRyzen 5 2400Gを購入したいけどソレだけが二の足を踏む理由。
RYZEN G買ってWaifuの為だけにGeForce乗っけるのもなぁーチラチラッ
対応をもう一度検討してみて下さい。
converter-cppやcl-waifu2xも更新2年以上無いし・・・
1000名無しさん@お腹いっぱい。 (ワッチョイ 2363-1pyd)
2018/01/24(水) 12:13:35.09ID:L/CzsuW60 caffe作者さんへ。OpenCLなんかには対応する必要ないよ。
10011001
Over 1000Thread このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 624日 0時間 45分 30秒
新しいスレッドを立ててください。
life time: 624日 0時間 45分 30秒
10021002
Over 1000Thread 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
レス数が1000を超えています。これ以上書き込みはできません。