画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。
--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/
・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436
・waifu2xとその派生ソフト一覧
※リンクがNGワードに!
・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437
・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/
・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html
・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。 転載ダメ©2ch.net (アウアウ Sa2a-NyIq)
2016/05/10(火) 11:28:05.20ID:h2o6wyXCa611名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy)
2017/01/26(木) 16:48:26.18ID:j7MEo8mlr 説明ありがとうございます
認識合わせできました
自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが
なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです
それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました
認識合わせできました
自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが
なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです
それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました
612名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy)
2017/01/26(木) 17:17:12.53ID:j7MEo8mlr ganのloss_weightがセンシティブで
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います
学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます
自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います
後でスレの人に厳しいデータ教えてもらおうと思います
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います
学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます
自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います
後でスレの人に厳しいデータ教えてもらおうと思います
613名無しさん@お腹いっぱい。 (ファミマWW FFd2-fIWv)
2017/01/26(木) 19:03:54.54ID:tDU6wUAkF 詳しいことはよくわからないけど、ガンガレ。超ガンガレ。
どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…
どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…
614名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy)
2017/01/28(土) 11:47:38.55ID:edepqLn8r waifu2xの研究してる人なんだけど
すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...
すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...
615名無しさん@お腹いっぱい。 (ワッチョイ 86ec-AZYz)
2017/01/28(土) 14:42:13.13ID:BYBTK1en0 chainerで線画着色をwebサービスにして公開してみた
http://qiita.com/taizan/items/7119e16064cc11500f32
http://qiita.com/taizan/items/7119e16064cc11500f32
616名無しさん@お腹いっぱい。 (ワッチョイ 86ec-AZYz)
2017/01/28(土) 15:02:18.06ID:BYBTK1en0 >>614
楽しみにしてますがゆっくりやってくだちい
楽しみにしてますがゆっくりやってくだちい
617名無しさん@お腹いっぱい。 (ワッチョイ a36a-AZYz)
2017/01/28(土) 15:17:47.96ID:jlInyXUj0618名無しさん@お腹いっぱい。 (ワッチョイ a239-WSvd)
2017/01/28(土) 15:35:09.06ID:iZRmUjsJ0619名無しさん@お腹いっぱい。 (ワッチョイ 4725-AZYz)
2017/01/30(月) 14:56:45.57ID:pPztTfPj0 あいかわらず
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい
620名無しさん@お腹いっぱい。 (ワッチョイ a36a-zMqm)
2017/01/30(月) 18:04:46.45ID:qudbf77R0 今更ながら>>615-616に気付いた
自演すんなよw
自演すんなよw
621名無しさん@お腹いっぱい。 (ワッチョイ b70f-hijU)
2017/01/30(月) 18:20:11.64ID:AIhudIHS0 >>620
アンカちゃんと読もうなー
アンカちゃんと読もうなー
622名無しさん@お腹いっぱい。 (ワッチョイWW 4785-1CvP)
2017/01/31(火) 03:28:18.08ID:Mk/X4pNp0623名無しさん@お腹いっぱい。 (ワッチョイWW db49-u9qX)
2017/02/01(水) 00:48:53.09ID:47em4zG90624名無しさん@お腹いっぱい。 (ワッチョイ c664-FuHd)
2017/02/01(水) 18:15:33.93ID:r8gMgX8Z0625名無しさん@お腹いっぱい。 (アタマイタイーW 7a39-cbEw)
2017/02/02(木) 17:45:47.99ID:HLUwrrpx00202 waifu2xcaffeで600dpiの画像を2倍に変換したら
96dpiになったのですが、これは仕様ですか?
てっきり倍にしたのだから300dpiになるのかと思っていました。
96dpiになったのですが、これは仕様ですか?
てっきり倍にしたのだから300dpiになるのかと思っていました。
626名無しさん@お腹いっぱい。 (アタマイタイー 3132-0MWP)
2017/02/02(木) 18:37:57.12ID:TB2MRryB00202 >>625
1920x1080で600dpi(=3.2インチ*1.8インチ)の画像を2倍に変換したら、
3840x2160で1200dpi(=3.2インチ*1.8インチ)か、600dpi(=6.4インチ*3.6インチ)じゃないか?
1920x1080で600dpi(=3.2インチ*1.8インチ)の画像を2倍に変換したら、
3840x2160で1200dpi(=3.2インチ*1.8インチ)か、600dpi(=6.4インチ*3.6インチ)じゃないか?
627名無しさん@お腹いっぱい。 (アタマイタイー 56d2-2lTc)
2017/02/02(木) 18:58:49.86ID:J3/O+Al000202 >>625
dpiは入出力デバイスの設定なのでwaifu2xの処理はそこに関与しません。
画像のメタデータに特に気を使っていないので印刷サイズには既定値が入っているのだと思います。
印刷や入稿等で必要なら別の方法で再設定出来ると思います。
dpiは入出力デバイスの設定なのでwaifu2xの処理はそこに関与しません。
画像のメタデータに特に気を使っていないので印刷サイズには既定値が入っているのだと思います。
印刷や入稿等で必要なら別の方法で再設定出来ると思います。
628名無しさん@お腹いっぱい。 (ワッチョイ 7a39-BdZd)
2017/02/03(金) 10:31:32.28ID:GXC4yUrd0629名無しさん@お腹いっぱい。 (ササクッテロレ Sp45-xDny)
2017/02/03(金) 10:35:55.98ID:2kWw6qu3p ソフトの名前の由来はなに?
630名無しさん@お腹いっぱい。 (ワッチョイ 15d2-NqFz)
2017/02/03(金) 11:03:16.69ID:x+9qdMRg0 waifuを2倍に拡大するからだろ
waifuはぐぐれ
waifuはぐぐれ
631名無しさん@お腹いっぱい。 (ワッチョイ 6115-0MWP)
2017/02/03(金) 12:46:58.29ID:tUa22Nfc0 ワイフ
↓
妻
↓
嫁
↓
妻
↓
嫁
632名無しさん@お腹いっぱい。 (ワッチョイ 15a1-yene)
2017/02/03(金) 13:50:44.75ID:Djehhjag0 わざわざ5行で書く無能
633名無しさん@お腹いっぱい。 (ワッチョイ 8164-P2Y1)
2017/02/03(金) 15:14:16.11ID:2ljm3Fbi0 2次特の時点で由来とか聞かなくてもわかるくらいには直接的
634名無しさん@お腹いっぱい。 (ワッチョイW 65cf-51wG)
2017/02/03(金) 15:22:25.83ID:/MDCuEKc0 じぇいぺぐルネッサンス
635名無しさん@お腹いっぱい。 (ワイモマー MM1a-1ST5)
2017/02/05(日) 23:27:16.44ID:LHzxPccgM madVRにおけるNGU pixart特化版のテスト中みたい
NGU無印やwaifu2xと比較するとやや眠くなるものの、例のジャギー問題もこっちなら出なさそう
旧来のNNEDIを正統進化させたような画になってて、処理負荷は低い
Original ttp://madvr.com/mario/org.png
waifu2x ttp://madvr.com/mario/waifu2x.png
NGU VH ttp://madvr.com/mario/NGUveryHigh.png
NGUpixart VH ttp://madvr.com/mario/NGUpixartVeryHigh.png
NNEDI256 ttp://madvr.com/mario/nnedi256.png
NGU無印やwaifu2xと比較するとやや眠くなるものの、例のジャギー問題もこっちなら出なさそう
旧来のNNEDIを正統進化させたような画になってて、処理負荷は低い
Original ttp://madvr.com/mario/org.png
waifu2x ttp://madvr.com/mario/waifu2x.png
NGU VH ttp://madvr.com/mario/NGUveryHigh.png
NGUpixart VH ttp://madvr.com/mario/NGUpixartVeryHigh.png
NNEDI256 ttp://madvr.com/mario/nnedi256.png
636名無しさん@お腹いっぱい。 (スップ Sdfa-e4OR)
2017/02/06(月) 14:09:54.91ID:RhMnf4vZd waifu2xはwebサービスじゃなくて
windows版はないのだろうか?
windows版はないのだろうか?
637名無しさん@お腹いっぱい。 (ワッチョイ 56d2-2lTc)
2017/02/06(月) 14:13:31.31ID:ogCj2q/30 pixel artの拡大はゲーム機のエミュレータで実装されているような処理のほうが納得できる拡大になると思う
2xSaIとか
http://johanneskopf.de/publications/pixelart/
とか
2xSaIとか
http://johanneskopf.de/publications/pixelart/
とか
638名無しさん@お腹いっぱい。 (ワッチョイ 56d2-2lTc)
2017/02/06(月) 14:13:58.10ID:ogCj2q/30 >>636
waifu2x-caffe
waifu2x-caffe
639名無しさん@お腹いっぱい。 (ワッチョイ 6115-0MWP)
2017/02/06(月) 14:49:05.64ID:yDHhyamZ0 >>637
ピクセルシェーダー機能ある動画再生ソフトについてるんじゃね。
ピクセルシェーダー機能ある動画再生ソフトについてるんじゃね。
640名無しさん@お腹いっぱい。 (ワッチョイ 96e9-0MWP)
2017/02/08(水) 12:04:15.02ID:0rk9u2E+0 8×8ピクセルに縮小した画像から元の画像を予想する技術をGoogle Brainが開発
http://gigazine.net/news/20170208-pixel-recursive-super-resolution/
http://i.gzn.jp/img/2017/02/08/pixel-recursive-super-resolution/a03.jpg
http://gigazine.net/news/20170208-pixel-recursive-super-resolution/
http://i.gzn.jp/img/2017/02/08/pixel-recursive-super-resolution/a03.jpg
641名無しさん@お腹いっぱい。 (ワッチョイ 6144-0MWP)
2017/02/08(水) 16:11:31.49ID:8Gpp+YrU0 >>637
それはffdshowにあるね。
それはffdshowにあるね。
642名無しさん@お腹いっぱい。 (ワッチョイ 65cf-0MWP)
2017/02/08(水) 17:11:42.74ID:C6utgMTP0643名無しさん@お腹いっぱい。 (ワッチョイ 65cf-0MWP)
2017/02/08(水) 17:13:49.90ID:C6utgMTP0 と書き込んだ後でバンディングが問題なことに気がついた失礼
644名無しさん@お腹いっぱい。 (ワッチョイ 263b-P6gz)
2017/02/10(金) 19:41:32.41ID:jEc7Edve0 9日に緊急のWindows UpdateとやらでGeforceのドライバが更新されて
Waifu2x-caffeを使うと「CUDAドライバーがインストールされていない〜」状態になった
一応、システムの復元で元に戻したけど....作者さん助けて(もう見てないかねぇ)
Windows10は勝手にアプデかかるから困った
Waifu2x-caffeを使うと「CUDAドライバーがインストールされていない〜」状態になった
一応、システムの復元で元に戻したけど....作者さん助けて(もう見てないかねぇ)
Windows10は勝手にアプデかかるから困った
645名無しさん@お腹いっぱい。 (ワッチョイ 26fb-cGUq)
2017/02/10(金) 19:56:17.86ID:M6Wjsk9Z0 Geforceのドライバだけ古いのインストールしたら良いんじゃね
646名無しさん@お腹いっぱい。 (ワッチョイW 7a83-S0So)
2017/02/10(金) 20:37:24.67ID:xx2cZ+iv0 古いVerは置いとかないとね
俺も勝手にアップデートされた
俺も勝手にアップデートされた
647名無しさん@お腹いっぱい。 (ワッチョイ def6-cGUq)
2017/02/10(金) 22:04:57.99ID:5UGLSm6g0 >>644
Windows Update経由のGeForceドライバ更新はいい話聞かないからどうにかして止めるなりNVIDIA公式から拾ってくるなりしたほうがいいかも
こちらはGTX680にドライバ378.49で何事もなく動いてます
Windows Update経由のGeForceドライバ更新はいい話聞かないからどうにかして止めるなりNVIDIA公式から拾ってくるなりしたほうがいいかも
こちらはGTX680にドライバ378.49で何事もなく動いてます
648名無しさん@お腹いっぱい。 (ワッチョイ e932-oA82)
2017/02/11(土) 20:31:30.21ID:Kr/JTqjP0 どうも、wiafu2x研究家の人です。
すごい時間かかりましたが最初の結果が出ました。
|PSNR|SSIM|butteraugli|
waifu2x|27.629|0.928|9.622|
GANなし|27.612|0.927|9.049|
GANあり|27.474|0.926|8.968|
すごい時間かかりましたが最初の結果が出ました。
|PSNR|SSIM|butteraugli|
waifu2x|27.629|0.928|9.622|
GANなし|27.612|0.927|9.049|
GANあり|27.474|0.926|8.968|
649名無しさん@お腹いっぱい。 (ワッチョイ e932-oA82)
2017/02/11(土) 20:36:55.90ID:Kr/JTqjP0 butteraugliの値は低い方がいいはず
なので俺の手法の方が良い
俺の手法は主に計算量をwaifu2x/UPモデルより計算量を1/4にしていますが8層です。
実質的に層の数が多いのが効いてる可能性もありますが不明です。
すみませんがこちらの都合でアルゴリズムは非公開です。
ここで話が出ていた俺手法のGANについては今再試験中です。
なので俺の手法の方が良い
俺の手法は主に計算量をwaifu2x/UPモデルより計算量を1/4にしていますが8層です。
実質的に層の数が多いのが効いてる可能性もありますが不明です。
すみませんがこちらの都合でアルゴリズムは非公開です。
ここで話が出ていた俺手法のGANについては今再試験中です。
650名無しさん@お腹いっぱい。 (ワッチョイW 7d6e-k0wy)
2017/02/11(土) 23:13:48.93ID:ntjYRpkn0 WUでVGAのドライバ更新する人なんておるんか・・・
651名無しさん@お腹いっぱい。 (ワッチョイ 26d6-CIv3)
2017/02/11(土) 23:21:38.80ID:bBXphDts0 勝手にされるから困ってるっていう話じゃないのかな?
652名無しさん@お腹いっぱい。 (ワッチョイ e932-3CwI)
2017/02/12(日) 11:08:12.78ID:ra0YTrEG0 どうも、wiafu2x研究家の人です。
評価結果以下に置いてあります。
2000エポック学習させた最終100エポックの画像も付けているのでデータでかいです。
評価できる人がいたらみてやってください。
https://remoteplace-my.sharepoint.com/personal/t-matsu_office_remoteplace_net/_layouts/15/guestaccess.aspx?docid=0eb33501796144cb0abeadc2dd87b74d3&authkey=AbBvhLq0ewcbScMYwVYIx4c&expiration=2017-03-14T02:04:18.000Z
評価結果以下に置いてあります。
2000エポック学習させた最終100エポックの画像も付けているのでデータでかいです。
評価できる人がいたらみてやってください。
https://remoteplace-my.sharepoint.com/personal/t-matsu_office_remoteplace_net/_layouts/15/guestaccess.aspx?docid=0eb33501796144cb0abeadc2dd87b74d3&authkey=AbBvhLq0ewcbScMYwVYIx4c&expiration=2017-03-14T02:04:18.000Z
653名無しさん@お腹いっぱい。 (ワッチョイ ea39-P6gz)
2017/02/12(日) 18:06:51.45ID:8CCipcq70 web版のwaifu2x、ICCプロファイル対応したっぽい?
654名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/12(日) 18:47:05.95ID:T/zbW8Mv0 >>648
その値は画像数百枚の平均ですか、1枚だけですか。
waifu2xと書いてあるものはネットワークの定義だけ持ってきて独自に学習したものですか。(そうだと予測)
元画像を探してきてLanczosで1/2にしたあとにwaifu2x配布モデルで拡大すると明らかに結果が違います。
http://ccsaku.moe.hm/gyazo/data/18eac1728b714cfe64b7843ae5a91499.png
左が評価に使用されている超解像/waifu2xモデル/model_u01999.pkl.pngで、右がwaifu2xの配布モデルの拡大結果です。
左はかなりぼやけていて
PSNRも 超解像/waifu2xモデル: 27.717, waifu2x配布モデル: 31.771
と4dBも差があります。ちなみにLanczosが26.449です。
waifu2xと書く場合はこちらの配布モデルと比較して欲しいです。
学習データは、2012年に作ったものなのでそれよりも新しい画像は使われていません。
添付の結果については、見た目はほとんど違いが分かりませんが
GANありは顎のラインと鳥の下の髪あたりにcheckboard artifactが出ています。
各エポックで結果が揺れるならエポックごとにvalidationしてそれで一番よい値の時だけ
パラメータ保存しておけばいいと思います。
その値は画像数百枚の平均ですか、1枚だけですか。
waifu2xと書いてあるものはネットワークの定義だけ持ってきて独自に学習したものですか。(そうだと予測)
元画像を探してきてLanczosで1/2にしたあとにwaifu2x配布モデルで拡大すると明らかに結果が違います。
http://ccsaku.moe.hm/gyazo/data/18eac1728b714cfe64b7843ae5a91499.png
左が評価に使用されている超解像/waifu2xモデル/model_u01999.pkl.pngで、右がwaifu2xの配布モデルの拡大結果です。
左はかなりぼやけていて
PSNRも 超解像/waifu2xモデル: 27.717, waifu2x配布モデル: 31.771
と4dBも差があります。ちなみにLanczosが26.449です。
waifu2xと書く場合はこちらの配布モデルと比較して欲しいです。
学習データは、2012年に作ったものなのでそれよりも新しい画像は使われていません。
添付の結果については、見た目はほとんど違いが分かりませんが
GANありは顎のラインと鳥の下の髪あたりにcheckboard artifactが出ています。
各エポックで結果が揺れるならエポックごとにvalidationしてそれで一番よい値の時だけ
パラメータ保存しておけばいいと思います。
655名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/12(日) 18:49:25.75ID:T/zbW8Mv0656名無しさん@お腹いっぱい。 (JP 0H09-3CwI)
2017/02/13(月) 12:19:52.07ID:BMiBMFwmH >654
確認ありがとうございます!!!
waifu2xと書くのは問題ありそうなのでいい呼び方があったら教えてください。
waifu2xと直接比較しないのは、不明な工夫(学習データ、アウギュメンテーションなど)
がたくさんあり、それを見切れないので比較しようがないというのがあります。
条件を合わせているのは層の数、チャンネル数だけです。
そちらの方としてはあまり変わったことはやってないかもしれませんが、
こちらはそれがわかりません。
とりあえずこれでいい結果が出る手法が発見されればwaifu2xにバックポートすれば
性能上がるのかなと思います。
PNSRなどは2000エポックのうち最後の1000エポックの平均です。
画像を複数枚評価するのは時間的に厳しいのでできていません。
アーティファクトについてはしらなかったのでそういう指摘は助かります。
GANは2000エポックで収束してないというか収束しそうにないので
俺手法のGANの効果については今のところ自分も懐疑的です。
確認ありがとうございます!!!
waifu2xと書くのは問題ありそうなのでいい呼び方があったら教えてください。
waifu2xと直接比較しないのは、不明な工夫(学習データ、アウギュメンテーションなど)
がたくさんあり、それを見切れないので比較しようがないというのがあります。
条件を合わせているのは層の数、チャンネル数だけです。
そちらの方としてはあまり変わったことはやってないかもしれませんが、
こちらはそれがわかりません。
とりあえずこれでいい結果が出る手法が発見されればwaifu2xにバックポートすれば
性能上がるのかなと思います。
PNSRなどは2000エポックのうち最後の1000エポックの平均です。
画像を複数枚評価するのは時間的に厳しいのでできていません。
アーティファクトについてはしらなかったのでそういう指摘は助かります。
GANは2000エポックで収束してないというか収束しそうにないので
俺手法のGANの効果については今のところ自分も懐疑的です。
657名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/13(月) 15:10:31.44ID:eYxsvRKA0 >>656
waifu2xはごちゃごちゃやっていることが多いですがそこまで影響していないと思うので
4dBも違うのは教師データの位置がずれてるか学習の方法かハイパーパラメータが悪いのではないかと思います。
最初に近い精度までは持って行かないとなにか間違いやバグがある可能性があり信頼できなくなります。
waifu2xは写真データで既存手法と同じくらいの結果が出るところまでは調節しています。
waifu2xの学習の基本的なところは、
- 入力画像のランダムな位置から96x96の領域(patch)を切り取り(y)
- それを48x48に縮小(x), 縮小アルゴリズムはBox(平均画素法)とlanczosをランダムに使う
- CNNにxを入力して82x82の出力を取得(zero paddingがないため(96-14)^2になる)
- 出力とyのピクセル位置が合うようにyを82x82に切り取り
- (x-y)^2 誤差を計算してパラメータを更新
で、実際には、画像単位で縮小してその中から64領域を切り取って、xと対応するyもあらかじめ作りながら
画像数*64の(x, y)ペアを作った後にシャッフルしてbatch_size=16, optimizer=Adam(alpha=0.00025)で学習を回しています。
64領域のサンプリングは2エポック毎に行っています(ランダムな位置から再度作り直す)
patch_size, batch_size, Adamの設定は結果への影響が大きいです。
>画像を複数枚評価するのは時間的に厳しいのでできていません。
学習に使わない画像を100枚くらい外しておいて
学習済みのモデルでベンチマークするコードを書いておけば実行は5分もかからないと思います。
>>655
反映されているようです。ウェブ版にICCプロファイルの対応入れています。
waifu2xはごちゃごちゃやっていることが多いですがそこまで影響していないと思うので
4dBも違うのは教師データの位置がずれてるか学習の方法かハイパーパラメータが悪いのではないかと思います。
最初に近い精度までは持って行かないとなにか間違いやバグがある可能性があり信頼できなくなります。
waifu2xは写真データで既存手法と同じくらいの結果が出るところまでは調節しています。
waifu2xの学習の基本的なところは、
- 入力画像のランダムな位置から96x96の領域(patch)を切り取り(y)
- それを48x48に縮小(x), 縮小アルゴリズムはBox(平均画素法)とlanczosをランダムに使う
- CNNにxを入力して82x82の出力を取得(zero paddingがないため(96-14)^2になる)
- 出力とyのピクセル位置が合うようにyを82x82に切り取り
- (x-y)^2 誤差を計算してパラメータを更新
で、実際には、画像単位で縮小してその中から64領域を切り取って、xと対応するyもあらかじめ作りながら
画像数*64の(x, y)ペアを作った後にシャッフルしてbatch_size=16, optimizer=Adam(alpha=0.00025)で学習を回しています。
64領域のサンプリングは2エポック毎に行っています(ランダムな位置から再度作り直す)
patch_size, batch_size, Adamの設定は結果への影響が大きいです。
>画像を複数枚評価するのは時間的に厳しいのでできていません。
学習に使わない画像を100枚くらい外しておいて
学習済みのモデルでベンチマークするコードを書いておけば実行は5分もかからないと思います。
>>655
反映されているようです。ウェブ版にICCプロファイルの対応入れています。
658名無しさん@お腹いっぱい。 (JP 0H09-3CwI)
2017/02/13(月) 17:35:47.49ID:BMiBMFwmH 4dB問題は知ってたんですけどいくら確認してもおかしいところが
見つからないのでwaifu2xが何かやってるんだろうととりあえず放置していました。
そちらからみておかしい、とのことですのでもっとしっかりデータ確認します。
ありうるのはサブピクセルレベルでのピクセルずれ(縮小時に奇数ピクセル数だとずれるとか)が
ありうるかと思いますが、そちらで情報開示してもらったのでそれに合わせてやってみます。
縮小フィルタの特性を学習してしまう問題も知ってるんですけど、そういう回避方法は
考えていませんでした。やってみます。
見つからないのでwaifu2xが何かやってるんだろうととりあえず放置していました。
そちらからみておかしい、とのことですのでもっとしっかりデータ確認します。
ありうるのはサブピクセルレベルでのピクセルずれ(縮小時に奇数ピクセル数だとずれるとか)が
ありうるかと思いますが、そちらで情報開示してもらったのでそれに合わせてやってみます。
縮小フィルタの特性を学習してしまう問題も知ってるんですけど、そういう回避方法は
考えていませんでした。やってみます。
659名無しさん@お腹いっぱい。 (ワッチョイWW d6c5-PD8f)
2017/02/13(月) 19:03:49.27ID:6JRW9uJM0 adamのalphaは小さめにしていますが
それでもでかいようなので全部そろえます
毎度すみません
それでもでかいようなので全部そろえます
毎度すみません
660名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/14(火) 00:43:58.37ID:9afuuku60 >>82x82
upconv_7の出力は68x68でした。(96-14*2)
>縮小時に奇数ピクセル数だとずれるとか
これは必須です。もし対策していなければこのせいじゃないかと思います。
waifu2xは学習画像読み込み時点で4の倍数になるようにしています。(4xもあるため)
またpatchを切り取る位置も元画像側の位置が奇数になると縮小側の位置がズレます。
upconv_7の出力は68x68でした。(96-14*2)
>縮小時に奇数ピクセル数だとずれるとか
これは必須です。もし対策していなければこのせいじゃないかと思います。
waifu2xは学習画像読み込み時点で4の倍数になるようにしています。(4xもあるため)
またpatchを切り取る位置も元画像側の位置が奇数になると縮小側の位置がズレます。
661名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/17(金) 20:31:02.69ID:ISS8P0MC0 超解像頑張り中の人です。
とりあえずwaifu2xのソースコード読んでコンボリューションの初期値あわせてみたり、
変な処理をしていたのを直したり色々やったところ1dB改善しました (PSNR=28.5dB)。
視覚的には大幅な画質向上があります。
AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
言われたところは全部直したつもりなんですが、誤差関数が何かやってる様子。
よくわかりません。HunberLossも使っているのか使ってないのかわかりませんし...。
とりあえず1バッチ=12画像、1エポック=100バッチで2000エポックで学習が
収束しきってないのでがんばればPSNR=29dBまでは行くと思うんですが
31dBかかなり厳しいです。30dB行ったら諦めます。
俺的には学習データ数が少ない、augumentationがまずいってところかなあと思います。
学習データはすごく重要なんですけど、俺にはそこに情熱がない...。
こっちの学習データは250枚、augumentationは上下、左右反転、45度ローテーション、
ノイズ付加、画像縮小です。
ほんまwaifu2xはエンジニアリングの塊なので一朝一夕には追いつけませぬ。
(諦めてるので追いつく気なし)
とりあえずwaifu2xのソースコード読んでコンボリューションの初期値あわせてみたり、
変な処理をしていたのを直したり色々やったところ1dB改善しました (PSNR=28.5dB)。
視覚的には大幅な画質向上があります。
AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
言われたところは全部直したつもりなんですが、誤差関数が何かやってる様子。
よくわかりません。HunberLossも使っているのか使ってないのかわかりませんし...。
とりあえず1バッチ=12画像、1エポック=100バッチで2000エポックで学習が
収束しきってないのでがんばればPSNR=29dBまでは行くと思うんですが
31dBかかなり厳しいです。30dB行ったら諦めます。
俺的には学習データ数が少ない、augumentationがまずいってところかなあと思います。
学習データはすごく重要なんですけど、俺にはそこに情熱がない...。
こっちの学習データは250枚、augumentationは上下、左右反転、45度ローテーション、
ノイズ付加、画像縮小です。
ほんまwaifu2xはエンジニアリングの塊なので一朝一夕には追いつけませぬ。
(諦めてるので追いつく気なし)
662名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW)
2017/02/17(金) 22:19:08.74ID:AmcVWIz30 >>661
HuberLossは使っていますが多分それほど関係ないです。(というかMSEのほうがPSNRは高くなると思います)
誤差はノイズ除去で色が劣化しているのを直すときに
下げれる誤差に限界があるので、YUVのYの重み(0.299 × R + 0.587 × G + 0.114 × B)にあわせて
チャンネルごとの誤差の重みを調節しているだけなので、拡大の場合はそれほど関係と思います。
学習データが少ないのはあるかもしれないですが、今はパッチを切り出さずに画像単位でforward/backwadしているでしょうか?
小さなパッチを切り出してからシャッフルして小さいminibatchで学習するのはとても重要です。
画像単位だと例えば1280x720だった、出力が86万個の変数になって
この平均誤差をbackwardすることになるので、画像内のある小さな領域内で誤差が大きかった場合でも平均されて消えてしまいます。
特にイラストの場合は何もない背景が多くて、そこは誤差がほぼゼロになるため平均されて誤差が消失しやすいです。
(waifu2xはパッチを切り出した後パッチ内が単色背景の場合は50%くらいの確率で捨てるような処理も入っています)
また学習データ少ない場合でも、たとえば96x96のパッチだと画像1枚から70万通りくらいの切り出し位置があるのでデータ増加にもなります。
HuberLossは使っていますが多分それほど関係ないです。(というかMSEのほうがPSNRは高くなると思います)
誤差はノイズ除去で色が劣化しているのを直すときに
下げれる誤差に限界があるので、YUVのYの重み(0.299 × R + 0.587 × G + 0.114 × B)にあわせて
チャンネルごとの誤差の重みを調節しているだけなので、拡大の場合はそれほど関係と思います。
学習データが少ないのはあるかもしれないですが、今はパッチを切り出さずに画像単位でforward/backwadしているでしょうか?
小さなパッチを切り出してからシャッフルして小さいminibatchで学習するのはとても重要です。
画像単位だと例えば1280x720だった、出力が86万個の変数になって
この平均誤差をbackwardすることになるので、画像内のある小さな領域内で誤差が大きかった場合でも平均されて消えてしまいます。
特にイラストの場合は何もない背景が多くて、そこは誤差がほぼゼロになるため平均されて誤差が消失しやすいです。
(waifu2xはパッチを切り出した後パッチ内が単色背景の場合は50%くらいの確率で捨てるような処理も入っています)
また学習データ少ない場合でも、たとえば96x96のパッチだと画像1枚から70万通りくらいの切り出し位置があるのでデータ増加にもなります。
663名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW)
2017/02/17(金) 22:33:15.43ID:AmcVWIz30 >AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
あと書いていませんでしたが、0.00025から初めて最終的にその1/10くらいになるように減らしていっています。
Adamは学習率が自動調節されるようなことが書かれていることがありますが
パラメータの要素単位の正規化をやっているだけなのでalphaを減らすのは意味があります。
なので最終的なエポックで1/10くらいになるようにalphaをスケジュールしたほうがPSNRは高くなります。
調節が難しければ、80%くらい進んだ後で1/10にして残り20%を回すくらいでも十分意味があると思います。
あと書いていませんでしたが、0.00025から初めて最終的にその1/10くらいになるように減らしていっています。
Adamは学習率が自動調節されるようなことが書かれていることがありますが
パラメータの要素単位の正規化をやっているだけなのでalphaを減らすのは意味があります。
なので最終的なエポックで1/10くらいになるようにalphaをスケジュールしたほうがPSNRは高くなります。
調節が難しければ、80%くらい進んだ後で1/10にして残り20%を回すくらいでも十分意味があると思います。
664名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/17(金) 23:47:35.21ID:ISS8P0MC0 画像は教えてもらったパッチサイズに分割しています
当然シャッフルしています
SGDなんかでは学習率を減衰する正則化は普通ですけど
Adamでも効果あるんですね。というかそんなに小さな学習率で
PSNR向上するのか...。
当然シャッフルしています
SGDなんかでは学習率を減衰する正則化は普通ですけど
Adamでも効果あるんですね。というかそんなに小さな学習率で
PSNR向上するのか...。
665名無しさん@お腹いっぱい。 (ワントンキン MMc2-Pmei)
2017/02/18(土) 04:13:42.14ID:3fQ0tPmvM ai搭載してほしい
666名無しさん@お腹いっぱい。 (ワッチョイWW 52cf-E1Vt)
2017/02/18(土) 13:20:51.75ID:M/eXR+AJ0 deeplearning研究の成果であるwaifu2xがAIでないとしたら何がAIだと言うのかね
667名無しさん@お腹いっぱい。 (ワッチョイ f787-eq+O)
2017/02/18(土) 13:22:00.41ID:05aNXszw0 >>665
正解を大量に教えれば、その正解に近いものを導くのがAIだけど、あなたの求める正解って何?
正解を大量に教えれば、その正解に近いものを導くのがAIだけど、あなたの求める正解って何?
668名無しさん@お腹いっぱい。 (ワントンキン MMc2-Pmei)
2017/02/18(土) 14:02:32.75ID:3fQ0tPmvM >>667
AIだったとは!
AIだったとは!
669名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/19(日) 20:45:41.75ID:Io/fs1qe0 超解像で遊んでいる人です。
waifu2xの方の話を聞いてて自分の中で結論が出たのはSRCNNの
画質はずばり精度で決まるということですね。
学習率が異様に小さいのが納得していなかったのですが、
多分SRCNNの重みの調整は超絶微細な学習です。
なので高めの学習率で荒い調整したら細かい調整がいるのかなと思います。
例えるなら7層のネットワークの調整は7枚のレンズの焦点を
あわせるようなもんかなあと思います。
なので処理の過程で精度を落とすような処理は厳禁ですし、
学習データも多い方が明らかに有利です。
なのでかなり気をつかった実装が必要かなと思います。
PSNRは改善してきましたが、やはりノウハウの塊であるwaifu2xを
越えるのは難しいかなと思います。自分はアルゴリズムの方に
興味があるのでそっちがんばります。
自分とwaifu2xの作者の方は目指しているところがまったく逆なので
競合しなかったのが救いです。
waifu2xの方の話を聞いてて自分の中で結論が出たのはSRCNNの
画質はずばり精度で決まるということですね。
学習率が異様に小さいのが納得していなかったのですが、
多分SRCNNの重みの調整は超絶微細な学習です。
なので高めの学習率で荒い調整したら細かい調整がいるのかなと思います。
例えるなら7層のネットワークの調整は7枚のレンズの焦点を
あわせるようなもんかなあと思います。
なので処理の過程で精度を落とすような処理は厳禁ですし、
学習データも多い方が明らかに有利です。
なのでかなり気をつかった実装が必要かなと思います。
PSNRは改善してきましたが、やはりノウハウの塊であるwaifu2xを
越えるのは難しいかなと思います。自分はアルゴリズムの方に
興味があるのでそっちがんばります。
自分とwaifu2xの作者の方は目指しているところがまったく逆なので
競合しなかったのが救いです。
670名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/19(日) 20:46:05.85ID:Io/fs1qe0 先日専門家の方からsaliency mapという手法を教えてもらったので
視覚ベースの高精度化の実験やってます。定量化が難しいですけど
なんとなくbutteraugliは向上しそうな気がします。
あとGANの識別器から重要な画素の情報を計算する方法も考えたので
それも実験中です。
手垢が付いてない分野なので色々新しい手法が見つかります。
視覚ベースの高精度化の実験やってます。定量化が難しいですけど
なんとなくbutteraugliは向上しそうな気がします。
あとGANの識別器から重要な画素の情報を計算する方法も考えたので
それも実験中です。
手垢が付いてない分野なので色々新しい手法が見つかります。
671名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW)
2017/02/20(月) 03:22:48.92ID:eI9WZF/30 SRCNNというか回帰問題なのでそうだと思います。
分類では識別境界に近いところ以外は大雑把でよいですが
回帰だと全ての点を正確に合わせないといけないです。
分類では識別境界に近いところ以外は大雑把でよいですが
回帰だと全ての点を正確に合わせないといけないです。
672名無しさん@お腹いっぱい。 (ワッチョイ 5648-Z7AI)
2017/02/22(水) 16:16:01.04ID:RyHb8dzv0673名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
2017/02/25(土) 21:08:59.68ID:lgzXMqNX0 アニメとか動画を拡大したい人向けのソフト作ってみた。
http://c00-c03.blogspot.jp/2017/02/waifu2x.html
http://c00-c03.blogspot.jp/2017/02/waifu2x.html
674名無しさん@お腹いっぱい。 (ワッチョイW afe1-sTLI)
2017/02/25(土) 21:43:53.51ID:IaQhgHq50 それを使った場合と使わないで普通に全部拡大した場合の結果の違いまだ未検証?
675名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
2017/02/25(土) 22:33:37.42ID:lgzXMqNX0676名無しさん@お腹いっぱい。 (ワッチョイ 7f98-HyQo)
2017/02/26(日) 12:08:18.25ID:lIqm/eYA0 動いてないコマは端折ったのね。面白い考え。
677名無しさん@お腹いっぱい。 (ワッチョイ bf39-8lb6)
2017/02/26(日) 12:35:01.92ID:zA+f4GY30678名無しさん@お腹いっぱい。 (ワッチョイ 6f64-HyQo)
2017/02/26(日) 16:36:31.44ID:/VbKsdDz0679名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-zPQB)
2017/02/26(日) 22:12:33.57ID:Xy6B3Z1p0 面白いな。素材がとにかく低ノイズじゃないと差分がいい具合にならない気はする。
実写だとどうだろうなぁ。実写動画でいろいろ拡大絡みのことはやってみたいと思ってるんだけど。
実写だとどうだろうなぁ。実写動画でいろいろ拡大絡みのことはやってみたいと思ってるんだけど。
680名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
2017/02/26(日) 22:41:32.17ID:uRk4b+bo0681名無しさん@お腹いっぱい。 (ワッチョイ af14-8lb6)
2017/02/27(月) 12:23:47.22ID:GA0WyZxg0 ラデオンでも快適に使えるようにしてくだされ
682名無しさん@お腹いっぱい。 (ワッチョイ af36-8lb6)
2017/02/27(月) 19:28:07.51ID:S1xW0xg80 この差分方式が進化すると裏に進出済み女優の表作品からモザイクを除去できるのでしょうか?
683名無しさん@お腹いっぱい。 (ワッチョイWW efa4-ixb7)
2017/02/28(火) 12:49:55.55ID:pSKMH9Zc0 >>678
コイツです。
コイツです。
684名無しさん@お腹いっぱい。 (ワッチョイ 3a44-kj3l)
2017/03/04(土) 17:25:09.45ID:RVxD/uAR0 >>682
学習データの蒐集方法が謎w
学習データの蒐集方法が謎w
685名無しさん@お腹いっぱい。 (ワッチョイ ba1a-BJNc)
2017/03/05(日) 00:58:28.30ID:xeJSOFvy0 個人ごとに好みがあると思うので各人で学習させる事もできるといいんじゃないかなw
686名無しさん@お腹いっぱい。 (ワッチョイ 6d87-BJNc)
2017/03/05(日) 01:54:20.37ID:nTZYFyha0 100万枚くらい正解と不正解の学習用画像もってる人限定か
687名無しさん@お腹いっぱい。 (ワッチョイ 7556-TgS+)
2017/03/05(日) 22:34:47.95ID:sbvLrrZw0 モザイクと検出された所が全てマンコに置換されて
マンコまみれの悪夢のような画像が生成されるんだな
マンコまみれの悪夢のような画像が生成されるんだな
688名無しさん@お腹いっぱい。 (ワッチョイ 6dd2-b6g9)
2017/03/06(月) 14:05:04.79ID:gas2tGQp0 マジレスすると、モザイクの範囲や解像度は入力によって異なるので復元を学習するのはなかなか難しいと思う。
モザイクの顔が復元できるよみたいなデモは
入力が8x8のモザイクで出力も位置合わせされた顔しかありえないなど限定された条件の結果なのでまだ実用的ではない。
モザイクの顔が復元できるよみたいなデモは
入力が8x8のモザイクで出力も位置合わせされた顔しかありえないなど限定された条件の結果なのでまだ実用的ではない。
689名無しさん@お腹いっぱい。 (ワッチョイ ba39-BJNc)
2017/03/06(月) 19:34:14.98ID:N2MWaHxD0 パネルアート画像がモザイク認識されてとんでも画像へと処理される奇劇のヨカン(´∀`ミ)
690名無しさん@お腹いっぱい。 (ワッチョイ 6be5-9O7/)
2017/03/09(木) 21:30:19.36ID:+vcVYOGF0 >>681
約4倍の高速化したバージョンを公開したのでもしよかったら試してみてください。
http://c00-c03.blogspot.jp/2017/02/AniZipReleaseNotes.html
約4倍の高速化したバージョンを公開したのでもしよかったら試してみてください。
http://c00-c03.blogspot.jp/2017/02/AniZipReleaseNotes.html
691名無しさん@お腹いっぱい。 (ワッチョイ 639e-oGwt)
2017/03/10(金) 09:35:55.09ID:RMdt2oaF0 実写は無理だった
692名無しさん@お腹いっぱい。 (ワッチョイ e532-4mgA)
2017/03/11(土) 14:37:39.60ID:SU15X7fC0 AMDでwaifu2x
http://inatsuka.com/extra/koroshell/ でwaifu2x_koroshellをDL
http://d.hatena.ne.jp/w_o/touch/20150629/1435585193 で
waifu2x-converter_x64_0629_02.zipをDL
waifu2x_koroshellを入れて
waifu2x_koroshellの中のwaifu2x-converterにwaifu2x-converter_x64_0629_02の中身上書き
waifu2x_koroshellで動かすとGUIでOpenCL使える
http://inatsuka.com/extra/koroshell/ でwaifu2x_koroshellをDL
http://d.hatena.ne.jp/w_o/touch/20150629/1435585193 で
waifu2x-converter_x64_0629_02.zipをDL
waifu2x_koroshellを入れて
waifu2x_koroshellの中のwaifu2x-converterにwaifu2x-converter_x64_0629_02の中身上書き
waifu2x_koroshellで動かすとGUIでOpenCL使える
693名無しさん@お腹いっぱい。 (ワッチョイ e339-KHUK)
2017/03/12(日) 06:36:21.76ID:hZc07GQB0 >>696
何でわざわざそんな古いバージョンを…
20160101が最新だよ
http://d.hatena.ne.jp/w_o/20150629/1451664048
あと最近、海外の人が作った派生もある
https://github.com/DeadSix27/waifu2x-converter-cpp/releases
同梱されているモデルのバージョンが新しい
ノイズ除去レベル3が追加されている(なぜかレベル0は追加されていないが)
今後も更新がありそう
などのメリットがある
何でわざわざそんな古いバージョンを…
20160101が最新だよ
http://d.hatena.ne.jp/w_o/20150629/1451664048
あと最近、海外の人が作った派生もある
https://github.com/DeadSix27/waifu2x-converter-cpp/releases
同梱されているモデルのバージョンが新しい
ノイズ除去レベル3が追加されている(なぜかレベル0は追加されていないが)
今後も更新がありそう
などのメリットがある
694名無しさん@お腹いっぱい。 (ワッチョイ e3c6-bLfO)
2017/03/12(日) 13:25:52.96ID:PEldwp8G0 >693
tanakamura氏版から派生したようですね。RX460で正常動作。
ただ、透過画像との相性問題も引き継いじゃってるので、修正されたらいいなぁ。
tanakamura氏版から派生したようですね。RX460で正常動作。
ただ、透過画像との相性問題も引き継いじゃってるので、修正されたらいいなぁ。
695名無しさん@お腹いっぱい。 (ワッチョイ e532-4mgA)
2017/03/14(火) 06:01:16.34ID:ytw58lnz0696名無しさん@お腹いっぱい。 (ワッチョイ e3c6-bLfO)
2017/03/15(水) 01:31:35.13ID:NMYyqaAt0 >695
koroshellフォルダに「waifu2x-converter」サブフォルダ作って、
「waifu2x-converter_x64.exe」にリネームすれば、使えますよ。
ノイズ除去は、なし(Lv0)、弱(Lv1)、強(Lv2)までしか選べないので、
Lv3使えないけど。
koroshellフォルダに「waifu2x-converter」サブフォルダ作って、
「waifu2x-converter_x64.exe」にリネームすれば、使えますよ。
ノイズ除去は、なし(Lv0)、弱(Lv1)、強(Lv2)までしか選べないので、
Lv3使えないけど。
697名無しさん@お腹いっぱい。 (ワッチョイ 3a82-bHoN)
2017/03/17(金) 17:24:03.19ID:FhgIFmLg0 自分用にこういうの作ったから良かったらどうぞ
基本的にただのフロントエンドなので元のソフトの機能しか使えないですが
http://i.imgur.com/6j4XHEy.png
https://www.dropbox.com/sh/0y9scaml78otum2/AAAs4sTIHQWn_UfYCwwC95VKa?dl=0
https://www.virustotal.com/ja/file/67cc556ad135c2ab85d83b4bd92e6735b873904ff42a38f9022719435996d9e9/analysis/
https://www.virustotal.com/ja/file/c06ba95ca00297f0d7e8892bb350899337d50f7c30a5f9e104e58e8ba96107d7/analysis/
かなり強引な方法ではあるけど、フォルダも処理出来る(多分)ので>>673フソフトとも連携できるはず
基本的にただのフロントエンドなので元のソフトの機能しか使えないですが
http://i.imgur.com/6j4XHEy.png
https://www.dropbox.com/sh/0y9scaml78otum2/AAAs4sTIHQWn_UfYCwwC95VKa?dl=0
https://www.virustotal.com/ja/file/67cc556ad135c2ab85d83b4bd92e6735b873904ff42a38f9022719435996d9e9/analysis/
https://www.virustotal.com/ja/file/c06ba95ca00297f0d7e8892bb350899337d50f7c30a5f9e104e58e8ba96107d7/analysis/
かなり強引な方法ではあるけど、フォルダも処理出来る(多分)ので>>673フソフトとも連携できるはず
698名無しさん@お腹いっぱい。 (ワッチョイ 7d99-tpgq)
2017/03/17(金) 23:03:21.46ID:fptxaYtO0 全く見てないけどkoroshellの代わりになるようなもの
という認識で良い?
という認識で良い?
699名無しさん@お腹いっぱい。 (ワッチョイ 3a82-bHoN)
2017/03/17(金) 23:37:27.66ID:FhgIFmLg0 >>698
基本的にはそういう感じですが使い勝手は異なるのでどちらが良いかは人によるかと思います。
具体的には画像をドラッグ&ドロップしただけでは変換が始まらないので何枚もポンポン放る使い方をする方はkoroshellのほうが良いかもしれません。
koroshellより優れていると思うところは
フォルダをサブフォルダごと処理出来る(多分)
同梱モデルが新しい
最初からtanakamura氏のwaifu2x-converter-cppを同梱をしてあるので差し替える必要がない
イラスト用モデルと写真用モデルの切り替えができる
ノイズ除去レベル 0〜3まで使用可能
ですかね。
基本的にはそういう感じですが使い勝手は異なるのでどちらが良いかは人によるかと思います。
具体的には画像をドラッグ&ドロップしただけでは変換が始まらないので何枚もポンポン放る使い方をする方はkoroshellのほうが良いかもしれません。
koroshellより優れていると思うところは
フォルダをサブフォルダごと処理出来る(多分)
同梱モデルが新しい
最初からtanakamura氏のwaifu2x-converter-cppを同梱をしてあるので差し替える必要がない
イラスト用モデルと写真用モデルの切り替えができる
ノイズ除去レベル 0〜3まで使用可能
ですかね。
700名無しさん@お腹いっぱい。 (ワッチョイ 9619-i8cA)
2017/03/18(土) 16:30:49.66ID:SMS+/6Qv0 700
701名無しさん@お腹いっぱい。 (ワッチョイ 45e2-mE/U)
2017/03/18(土) 16:48:11.10ID:uCDPIZXT0 D&Dモードも実装して(はぁと)
702名無しさん@お腹いっぱい。 (ワッチョイ c999-E+Pv)
2017/03/31(金) 14:45:23.84ID:BqzZfGSY0 waifu2xのすごさを実感したわ
幅720ピクセルの画像をFHDにして壁紙で耐えられる
まあイラストだから許せるのもあるけど
幅720ピクセルの画像をFHDにして壁紙で耐えられる
まあイラストだから許せるのもあるけど
703名無しさん@お腹いっぱい。 (ワッチョイ c146-1gvu)
2017/03/31(金) 18:13:13.97ID:2g/H5pQj0 昔付き合ってた女のいろんな画像とか、waifu2xで拡大して遊んでるわw
流石に昔のスマホの素人撮りだから、2倍以上だと粗が目立つけども・・・
閑古休題、DenoiseNetも今後期待できそうね
https://pbs.twimg.com/media/C1tjW1qWIAAEpJw.jpg
https://arxiv.org/abs/1701.01698
流石に昔のスマホの素人撮りだから、2倍以上だと粗が目立つけども・・・
閑古休題、DenoiseNetも今後期待できそうね
https://pbs.twimg.com/media/C1tjW1qWIAAEpJw.jpg
https://arxiv.org/abs/1701.01698
704名無しさん@お腹いっぱい。 (ワッチョイ c999-agmj)
2017/03/31(金) 23:36:18.06ID:iFk//65N0705名無しさん@お腹いっぱい。 (ワッチョイ d146-YuVY)
2017/04/02(日) 23:42:14.76ID:P/TEvgCC0 縦横幅を指定って7680x4320みたいな指定でいいのね
706名無しさん@お腹いっぱい。 (ワッチョイ 1382-FZog)
2017/04/03(月) 00:01:52.18ID:j7vFn78H0 >>705
何の話かと思ったら更新来てたのね
waifu2x-caffe ver 1.1.8.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.1
GUIで変換後の縦横幅でサイズ指定を追加
CUIで変換後の縦横幅を同時に指定できるようにした
GUIの翻訳にフランス語追加
何の話かと思ったら更新来てたのね
waifu2x-caffe ver 1.1.8.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.1
GUIで変換後の縦横幅でサイズ指定を追加
CUIで変換後の縦横幅を同時に指定できるようにした
GUIの翻訳にフランス語追加
707名無しさん@お腹いっぱい。 (ワッチョイ 1382-FZog)
2017/04/03(月) 00:19:45.25ID:j7vFn78H0 ところで↓の話ってどうなったんですかね?
CUDA on AMD GPUs, now possible? · Issue #71 · lltcggie/waifu2x-caffe
https://github.com/lltcggie/waifu2x-caffe/issues/71
MIOpenは2017年の第1四半期にリリース予定って聞いたんですが、まだリリースされてないのかな?
CUDA on AMD GPUs, now possible? · Issue #71 · lltcggie/waifu2x-caffe
https://github.com/lltcggie/waifu2x-caffe/issues/71
MIOpenは2017年の第1四半期にリリース予定って聞いたんですが、まだリリースされてないのかな?
708名無しさん@お腹いっぱい。 (ワッチョイ c999-E+Pv)
2017/04/03(月) 00:59:01.62ID:/CKofziZ0 ある程度大きい画像だと違いはあまり感じられないのね
709名無しさん@お腹いっぱい。 (ワッチョイ 29f6-SPHJ)
2017/04/03(月) 18:49:25.18ID:X2+lQHyy0710名無しさん@お腹いっぱい。 (ワッチョイ 29f6-SPHJ)
2017/04/03(月) 23:08:06.81ID:X2+lQHyy0 ドライバ更新したらCUDA変換できた
>ある程度大きい画像だと違いはあまり感じられないのね
画像によるけどフォトショ等で一旦縮小してからやると綺麗になったりする時もあるよ
>ある程度大きい画像だと違いはあまり感じられないのね
画像によるけどフォトショ等で一旦縮小してからやると綺麗になったりする時もあるよ
711名無しさん@お腹いっぱい。 (アンパン d146-YuVY)
2017/04/04(火) 06:54:31.05ID:IKEv3bLo00404 ん、GUIで高さ指定の場合に入力値が横幅として処理されちゃってる?
横幅指定は正しく横幅になり、縦x横指定の場合もその通りになる
ファイル名の付き方は指定の通りになってる
横幅指定は正しく横幅になり、縦x横指定の場合もその通りになる
ファイル名の付き方は指定の通りになってる
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 高市総理の“失言”を引き出したはずがSNSで総スカン ビジネスモデルが崩壊した「立憲民主党」の迷走 [♪♪♪★]
- Z世代、35%が週休3日希望 「無理せず・安定」に重き 民間調査 [♪♪♪★]
- 高市首相の台湾有事答弁「問題ない」50% 「問題があったと思う」25%を大きく上回る 毎日新聞世論調査 ★3 [尺アジ★]
- 香港、日本側と交流停止 首相発言受け中国に追従 [蚤の市★]
- 【速報】 中国国営新聞社 「日本はすでに代価を支払った」 中国SNSで1位に 高市総理の発言めぐり ★4 [お断り★]
- 【外交】オーストラリア市民党全国委員長「高市首相の発言は極めて破壊的」 [1ゲットロボ★]
- 競輪実況★1608
- とらせん 2
- 【U-NEXT】プレミアリーグ総合 ★36
- オランダリーグ エールディヴィジ実況
- こいせん 全レス転載禁止 SHAKARIKI
- ジェフユナイテッド千葉実況 vs 大分
- 高市さんのG20遅刻問題洒落にならないことになってた、日本抜きで全会一致で中国寄りの首脳宣言が採択されてそのまま有無を言わさず閉幕 [709039863]
- 【日本一決定戦】愛知県民ちょっと来やぁ!kskしてって【三河も来い】
- 深夜雑談★18
- __TIME、2028年出馬を捏造、政治業界は国民を欺き、改革できない仕組みを維持、国民は対立をやめ現実の問題に向き合うべき [827565401]
- おすすめのグミ教えて
- コンビニにありそうでないモノ
