画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。
--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/
・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436
・waifu2xとその派生ソフト一覧
※リンクがNGワードに!
・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437
・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/
・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html
・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
探検
【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。 転載ダメ©2ch.net (アウアウ Sa2a-NyIq)
2016/05/10(火) 11:28:05.20ID:h2o6wyXCa625名無しさん@お腹いっぱい。 (アタマイタイーW 7a39-cbEw)
2017/02/02(木) 17:45:47.99ID:HLUwrrpx00202 waifu2xcaffeで600dpiの画像を2倍に変換したら
96dpiになったのですが、これは仕様ですか?
てっきり倍にしたのだから300dpiになるのかと思っていました。
96dpiになったのですが、これは仕様ですか?
てっきり倍にしたのだから300dpiになるのかと思っていました。
626名無しさん@お腹いっぱい。 (アタマイタイー 3132-0MWP)
2017/02/02(木) 18:37:57.12ID:TB2MRryB00202 >>625
1920x1080で600dpi(=3.2インチ*1.8インチ)の画像を2倍に変換したら、
3840x2160で1200dpi(=3.2インチ*1.8インチ)か、600dpi(=6.4インチ*3.6インチ)じゃないか?
1920x1080で600dpi(=3.2インチ*1.8インチ)の画像を2倍に変換したら、
3840x2160で1200dpi(=3.2インチ*1.8インチ)か、600dpi(=6.4インチ*3.6インチ)じゃないか?
627名無しさん@お腹いっぱい。 (アタマイタイー 56d2-2lTc)
2017/02/02(木) 18:58:49.86ID:J3/O+Al000202 >>625
dpiは入出力デバイスの設定なのでwaifu2xの処理はそこに関与しません。
画像のメタデータに特に気を使っていないので印刷サイズには既定値が入っているのだと思います。
印刷や入稿等で必要なら別の方法で再設定出来ると思います。
dpiは入出力デバイスの設定なのでwaifu2xの処理はそこに関与しません。
画像のメタデータに特に気を使っていないので印刷サイズには既定値が入っているのだと思います。
印刷や入稿等で必要なら別の方法で再設定出来ると思います。
628名無しさん@お腹いっぱい。 (ワッチョイ 7a39-BdZd)
2017/02/03(金) 10:31:32.28ID:GXC4yUrd0629名無しさん@お腹いっぱい。 (ササクッテロレ Sp45-xDny)
2017/02/03(金) 10:35:55.98ID:2kWw6qu3p ソフトの名前の由来はなに?
630名無しさん@お腹いっぱい。 (ワッチョイ 15d2-NqFz)
2017/02/03(金) 11:03:16.69ID:x+9qdMRg0 waifuを2倍に拡大するからだろ
waifuはぐぐれ
waifuはぐぐれ
631名無しさん@お腹いっぱい。 (ワッチョイ 6115-0MWP)
2017/02/03(金) 12:46:58.29ID:tUa22Nfc0 ワイフ
↓
妻
↓
嫁
↓
妻
↓
嫁
632名無しさん@お腹いっぱい。 (ワッチョイ 15a1-yene)
2017/02/03(金) 13:50:44.75ID:Djehhjag0 わざわざ5行で書く無能
633名無しさん@お腹いっぱい。 (ワッチョイ 8164-P2Y1)
2017/02/03(金) 15:14:16.11ID:2ljm3Fbi0 2次特の時点で由来とか聞かなくてもわかるくらいには直接的
634名無しさん@お腹いっぱい。 (ワッチョイW 65cf-51wG)
2017/02/03(金) 15:22:25.83ID:/MDCuEKc0 じぇいぺぐルネッサンス
635名無しさん@お腹いっぱい。 (ワイモマー MM1a-1ST5)
2017/02/05(日) 23:27:16.44ID:LHzxPccgM madVRにおけるNGU pixart特化版のテスト中みたい
NGU無印やwaifu2xと比較するとやや眠くなるものの、例のジャギー問題もこっちなら出なさそう
旧来のNNEDIを正統進化させたような画になってて、処理負荷は低い
Original ttp://madvr.com/mario/org.png
waifu2x ttp://madvr.com/mario/waifu2x.png
NGU VH ttp://madvr.com/mario/NGUveryHigh.png
NGUpixart VH ttp://madvr.com/mario/NGUpixartVeryHigh.png
NNEDI256 ttp://madvr.com/mario/nnedi256.png
NGU無印やwaifu2xと比較するとやや眠くなるものの、例のジャギー問題もこっちなら出なさそう
旧来のNNEDIを正統進化させたような画になってて、処理負荷は低い
Original ttp://madvr.com/mario/org.png
waifu2x ttp://madvr.com/mario/waifu2x.png
NGU VH ttp://madvr.com/mario/NGUveryHigh.png
NGUpixart VH ttp://madvr.com/mario/NGUpixartVeryHigh.png
NNEDI256 ttp://madvr.com/mario/nnedi256.png
636名無しさん@お腹いっぱい。 (スップ Sdfa-e4OR)
2017/02/06(月) 14:09:54.91ID:RhMnf4vZd waifu2xはwebサービスじゃなくて
windows版はないのだろうか?
windows版はないのだろうか?
637名無しさん@お腹いっぱい。 (ワッチョイ 56d2-2lTc)
2017/02/06(月) 14:13:31.31ID:ogCj2q/30 pixel artの拡大はゲーム機のエミュレータで実装されているような処理のほうが納得できる拡大になると思う
2xSaIとか
http://johanneskopf.de/publications/pixelart/
とか
2xSaIとか
http://johanneskopf.de/publications/pixelart/
とか
638名無しさん@お腹いっぱい。 (ワッチョイ 56d2-2lTc)
2017/02/06(月) 14:13:58.10ID:ogCj2q/30 >>636
waifu2x-caffe
waifu2x-caffe
639名無しさん@お腹いっぱい。 (ワッチョイ 6115-0MWP)
2017/02/06(月) 14:49:05.64ID:yDHhyamZ0 >>637
ピクセルシェーダー機能ある動画再生ソフトについてるんじゃね。
ピクセルシェーダー機能ある動画再生ソフトについてるんじゃね。
640名無しさん@お腹いっぱい。 (ワッチョイ 96e9-0MWP)
2017/02/08(水) 12:04:15.02ID:0rk9u2E+0 8×8ピクセルに縮小した画像から元の画像を予想する技術をGoogle Brainが開発
http://gigazine.net/news/20170208-pixel-recursive-super-resolution/
http://i.gzn.jp/img/2017/02/08/pixel-recursive-super-resolution/a03.jpg
http://gigazine.net/news/20170208-pixel-recursive-super-resolution/
http://i.gzn.jp/img/2017/02/08/pixel-recursive-super-resolution/a03.jpg
641名無しさん@お腹いっぱい。 (ワッチョイ 6144-0MWP)
2017/02/08(水) 16:11:31.49ID:8Gpp+YrU0 >>637
それはffdshowにあるね。
それはffdshowにあるね。
642名無しさん@お腹いっぱい。 (ワッチョイ 65cf-0MWP)
2017/02/08(水) 17:11:42.74ID:C6utgMTP0643名無しさん@お腹いっぱい。 (ワッチョイ 65cf-0MWP)
2017/02/08(水) 17:13:49.90ID:C6utgMTP0 と書き込んだ後でバンディングが問題なことに気がついた失礼
644名無しさん@お腹いっぱい。 (ワッチョイ 263b-P6gz)
2017/02/10(金) 19:41:32.41ID:jEc7Edve0 9日に緊急のWindows UpdateとやらでGeforceのドライバが更新されて
Waifu2x-caffeを使うと「CUDAドライバーがインストールされていない〜」状態になった
一応、システムの復元で元に戻したけど....作者さん助けて(もう見てないかねぇ)
Windows10は勝手にアプデかかるから困った
Waifu2x-caffeを使うと「CUDAドライバーがインストールされていない〜」状態になった
一応、システムの復元で元に戻したけど....作者さん助けて(もう見てないかねぇ)
Windows10は勝手にアプデかかるから困った
645名無しさん@お腹いっぱい。 (ワッチョイ 26fb-cGUq)
2017/02/10(金) 19:56:17.86ID:M6Wjsk9Z0 Geforceのドライバだけ古いのインストールしたら良いんじゃね
646名無しさん@お腹いっぱい。 (ワッチョイW 7a83-S0So)
2017/02/10(金) 20:37:24.67ID:xx2cZ+iv0 古いVerは置いとかないとね
俺も勝手にアップデートされた
俺も勝手にアップデートされた
647名無しさん@お腹いっぱい。 (ワッチョイ def6-cGUq)
2017/02/10(金) 22:04:57.99ID:5UGLSm6g0 >>644
Windows Update経由のGeForceドライバ更新はいい話聞かないからどうにかして止めるなりNVIDIA公式から拾ってくるなりしたほうがいいかも
こちらはGTX680にドライバ378.49で何事もなく動いてます
Windows Update経由のGeForceドライバ更新はいい話聞かないからどうにかして止めるなりNVIDIA公式から拾ってくるなりしたほうがいいかも
こちらはGTX680にドライバ378.49で何事もなく動いてます
648名無しさん@お腹いっぱい。 (ワッチョイ e932-oA82)
2017/02/11(土) 20:31:30.21ID:Kr/JTqjP0 どうも、wiafu2x研究家の人です。
すごい時間かかりましたが最初の結果が出ました。
|PSNR|SSIM|butteraugli|
waifu2x|27.629|0.928|9.622|
GANなし|27.612|0.927|9.049|
GANあり|27.474|0.926|8.968|
すごい時間かかりましたが最初の結果が出ました。
|PSNR|SSIM|butteraugli|
waifu2x|27.629|0.928|9.622|
GANなし|27.612|0.927|9.049|
GANあり|27.474|0.926|8.968|
649名無しさん@お腹いっぱい。 (ワッチョイ e932-oA82)
2017/02/11(土) 20:36:55.90ID:Kr/JTqjP0 butteraugliの値は低い方がいいはず
なので俺の手法の方が良い
俺の手法は主に計算量をwaifu2x/UPモデルより計算量を1/4にしていますが8層です。
実質的に層の数が多いのが効いてる可能性もありますが不明です。
すみませんがこちらの都合でアルゴリズムは非公開です。
ここで話が出ていた俺手法のGANについては今再試験中です。
なので俺の手法の方が良い
俺の手法は主に計算量をwaifu2x/UPモデルより計算量を1/4にしていますが8層です。
実質的に層の数が多いのが効いてる可能性もありますが不明です。
すみませんがこちらの都合でアルゴリズムは非公開です。
ここで話が出ていた俺手法のGANについては今再試験中です。
650名無しさん@お腹いっぱい。 (ワッチョイW 7d6e-k0wy)
2017/02/11(土) 23:13:48.93ID:ntjYRpkn0 WUでVGAのドライバ更新する人なんておるんか・・・
651名無しさん@お腹いっぱい。 (ワッチョイ 26d6-CIv3)
2017/02/11(土) 23:21:38.80ID:bBXphDts0 勝手にされるから困ってるっていう話じゃないのかな?
652名無しさん@お腹いっぱい。 (ワッチョイ e932-3CwI)
2017/02/12(日) 11:08:12.78ID:ra0YTrEG0 どうも、wiafu2x研究家の人です。
評価結果以下に置いてあります。
2000エポック学習させた最終100エポックの画像も付けているのでデータでかいです。
評価できる人がいたらみてやってください。
https://remoteplace-my.sharepoint.com/personal/t-matsu_office_remoteplace_net/_layouts/15/guestaccess.aspx?docid=0eb33501796144cb0abeadc2dd87b74d3&authkey=AbBvhLq0ewcbScMYwVYIx4c&expiration=2017-03-14T02:04:18.000Z
評価結果以下に置いてあります。
2000エポック学習させた最終100エポックの画像も付けているのでデータでかいです。
評価できる人がいたらみてやってください。
https://remoteplace-my.sharepoint.com/personal/t-matsu_office_remoteplace_net/_layouts/15/guestaccess.aspx?docid=0eb33501796144cb0abeadc2dd87b74d3&authkey=AbBvhLq0ewcbScMYwVYIx4c&expiration=2017-03-14T02:04:18.000Z
653名無しさん@お腹いっぱい。 (ワッチョイ ea39-P6gz)
2017/02/12(日) 18:06:51.45ID:8CCipcq70 web版のwaifu2x、ICCプロファイル対応したっぽい?
654名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/12(日) 18:47:05.95ID:T/zbW8Mv0 >>648
その値は画像数百枚の平均ですか、1枚だけですか。
waifu2xと書いてあるものはネットワークの定義だけ持ってきて独自に学習したものですか。(そうだと予測)
元画像を探してきてLanczosで1/2にしたあとにwaifu2x配布モデルで拡大すると明らかに結果が違います。
http://ccsaku.moe.hm/gyazo/data/18eac1728b714cfe64b7843ae5a91499.png
左が評価に使用されている超解像/waifu2xモデル/model_u01999.pkl.pngで、右がwaifu2xの配布モデルの拡大結果です。
左はかなりぼやけていて
PSNRも 超解像/waifu2xモデル: 27.717, waifu2x配布モデル: 31.771
と4dBも差があります。ちなみにLanczosが26.449です。
waifu2xと書く場合はこちらの配布モデルと比較して欲しいです。
学習データは、2012年に作ったものなのでそれよりも新しい画像は使われていません。
添付の結果については、見た目はほとんど違いが分かりませんが
GANありは顎のラインと鳥の下の髪あたりにcheckboard artifactが出ています。
各エポックで結果が揺れるならエポックごとにvalidationしてそれで一番よい値の時だけ
パラメータ保存しておけばいいと思います。
その値は画像数百枚の平均ですか、1枚だけですか。
waifu2xと書いてあるものはネットワークの定義だけ持ってきて独自に学習したものですか。(そうだと予測)
元画像を探してきてLanczosで1/2にしたあとにwaifu2x配布モデルで拡大すると明らかに結果が違います。
http://ccsaku.moe.hm/gyazo/data/18eac1728b714cfe64b7843ae5a91499.png
左が評価に使用されている超解像/waifu2xモデル/model_u01999.pkl.pngで、右がwaifu2xの配布モデルの拡大結果です。
左はかなりぼやけていて
PSNRも 超解像/waifu2xモデル: 27.717, waifu2x配布モデル: 31.771
と4dBも差があります。ちなみにLanczosが26.449です。
waifu2xと書く場合はこちらの配布モデルと比較して欲しいです。
学習データは、2012年に作ったものなのでそれよりも新しい画像は使われていません。
添付の結果については、見た目はほとんど違いが分かりませんが
GANありは顎のラインと鳥の下の髪あたりにcheckboard artifactが出ています。
各エポックで結果が揺れるならエポックごとにvalidationしてそれで一番よい値の時だけ
パラメータ保存しておけばいいと思います。
655名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/12(日) 18:49:25.75ID:T/zbW8Mv0656名無しさん@お腹いっぱい。 (JP 0H09-3CwI)
2017/02/13(月) 12:19:52.07ID:BMiBMFwmH >654
確認ありがとうございます!!!
waifu2xと書くのは問題ありそうなのでいい呼び方があったら教えてください。
waifu2xと直接比較しないのは、不明な工夫(学習データ、アウギュメンテーションなど)
がたくさんあり、それを見切れないので比較しようがないというのがあります。
条件を合わせているのは層の数、チャンネル数だけです。
そちらの方としてはあまり変わったことはやってないかもしれませんが、
こちらはそれがわかりません。
とりあえずこれでいい結果が出る手法が発見されればwaifu2xにバックポートすれば
性能上がるのかなと思います。
PNSRなどは2000エポックのうち最後の1000エポックの平均です。
画像を複数枚評価するのは時間的に厳しいのでできていません。
アーティファクトについてはしらなかったのでそういう指摘は助かります。
GANは2000エポックで収束してないというか収束しそうにないので
俺手法のGANの効果については今のところ自分も懐疑的です。
確認ありがとうございます!!!
waifu2xと書くのは問題ありそうなのでいい呼び方があったら教えてください。
waifu2xと直接比較しないのは、不明な工夫(学習データ、アウギュメンテーションなど)
がたくさんあり、それを見切れないので比較しようがないというのがあります。
条件を合わせているのは層の数、チャンネル数だけです。
そちらの方としてはあまり変わったことはやってないかもしれませんが、
こちらはそれがわかりません。
とりあえずこれでいい結果が出る手法が発見されればwaifu2xにバックポートすれば
性能上がるのかなと思います。
PNSRなどは2000エポックのうち最後の1000エポックの平均です。
画像を複数枚評価するのは時間的に厳しいのでできていません。
アーティファクトについてはしらなかったのでそういう指摘は助かります。
GANは2000エポックで収束してないというか収束しそうにないので
俺手法のGANの効果については今のところ自分も懐疑的です。
657名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/13(月) 15:10:31.44ID:eYxsvRKA0 >>656
waifu2xはごちゃごちゃやっていることが多いですがそこまで影響していないと思うので
4dBも違うのは教師データの位置がずれてるか学習の方法かハイパーパラメータが悪いのではないかと思います。
最初に近い精度までは持って行かないとなにか間違いやバグがある可能性があり信頼できなくなります。
waifu2xは写真データで既存手法と同じくらいの結果が出るところまでは調節しています。
waifu2xの学習の基本的なところは、
- 入力画像のランダムな位置から96x96の領域(patch)を切り取り(y)
- それを48x48に縮小(x), 縮小アルゴリズムはBox(平均画素法)とlanczosをランダムに使う
- CNNにxを入力して82x82の出力を取得(zero paddingがないため(96-14)^2になる)
- 出力とyのピクセル位置が合うようにyを82x82に切り取り
- (x-y)^2 誤差を計算してパラメータを更新
で、実際には、画像単位で縮小してその中から64領域を切り取って、xと対応するyもあらかじめ作りながら
画像数*64の(x, y)ペアを作った後にシャッフルしてbatch_size=16, optimizer=Adam(alpha=0.00025)で学習を回しています。
64領域のサンプリングは2エポック毎に行っています(ランダムな位置から再度作り直す)
patch_size, batch_size, Adamの設定は結果への影響が大きいです。
>画像を複数枚評価するのは時間的に厳しいのでできていません。
学習に使わない画像を100枚くらい外しておいて
学習済みのモデルでベンチマークするコードを書いておけば実行は5分もかからないと思います。
>>655
反映されているようです。ウェブ版にICCプロファイルの対応入れています。
waifu2xはごちゃごちゃやっていることが多いですがそこまで影響していないと思うので
4dBも違うのは教師データの位置がずれてるか学習の方法かハイパーパラメータが悪いのではないかと思います。
最初に近い精度までは持って行かないとなにか間違いやバグがある可能性があり信頼できなくなります。
waifu2xは写真データで既存手法と同じくらいの結果が出るところまでは調節しています。
waifu2xの学習の基本的なところは、
- 入力画像のランダムな位置から96x96の領域(patch)を切り取り(y)
- それを48x48に縮小(x), 縮小アルゴリズムはBox(平均画素法)とlanczosをランダムに使う
- CNNにxを入力して82x82の出力を取得(zero paddingがないため(96-14)^2になる)
- 出力とyのピクセル位置が合うようにyを82x82に切り取り
- (x-y)^2 誤差を計算してパラメータを更新
で、実際には、画像単位で縮小してその中から64領域を切り取って、xと対応するyもあらかじめ作りながら
画像数*64の(x, y)ペアを作った後にシャッフルしてbatch_size=16, optimizer=Adam(alpha=0.00025)で学習を回しています。
64領域のサンプリングは2エポック毎に行っています(ランダムな位置から再度作り直す)
patch_size, batch_size, Adamの設定は結果への影響が大きいです。
>画像を複数枚評価するのは時間的に厳しいのでできていません。
学習に使わない画像を100枚くらい外しておいて
学習済みのモデルでベンチマークするコードを書いておけば実行は5分もかからないと思います。
>>655
反映されているようです。ウェブ版にICCプロファイルの対応入れています。
658名無しさん@お腹いっぱい。 (JP 0H09-3CwI)
2017/02/13(月) 17:35:47.49ID:BMiBMFwmH 4dB問題は知ってたんですけどいくら確認してもおかしいところが
見つからないのでwaifu2xが何かやってるんだろうととりあえず放置していました。
そちらからみておかしい、とのことですのでもっとしっかりデータ確認します。
ありうるのはサブピクセルレベルでのピクセルずれ(縮小時に奇数ピクセル数だとずれるとか)が
ありうるかと思いますが、そちらで情報開示してもらったのでそれに合わせてやってみます。
縮小フィルタの特性を学習してしまう問題も知ってるんですけど、そういう回避方法は
考えていませんでした。やってみます。
見つからないのでwaifu2xが何かやってるんだろうととりあえず放置していました。
そちらからみておかしい、とのことですのでもっとしっかりデータ確認します。
ありうるのはサブピクセルレベルでのピクセルずれ(縮小時に奇数ピクセル数だとずれるとか)が
ありうるかと思いますが、そちらで情報開示してもらったのでそれに合わせてやってみます。
縮小フィルタの特性を学習してしまう問題も知ってるんですけど、そういう回避方法は
考えていませんでした。やってみます。
659名無しさん@お腹いっぱい。 (ワッチョイWW d6c5-PD8f)
2017/02/13(月) 19:03:49.27ID:6JRW9uJM0 adamのalphaは小さめにしていますが
それでもでかいようなので全部そろえます
毎度すみません
それでもでかいようなので全部そろえます
毎度すみません
660名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM)
2017/02/14(火) 00:43:58.37ID:9afuuku60 >>82x82
upconv_7の出力は68x68でした。(96-14*2)
>縮小時に奇数ピクセル数だとずれるとか
これは必須です。もし対策していなければこのせいじゃないかと思います。
waifu2xは学習画像読み込み時点で4の倍数になるようにしています。(4xもあるため)
またpatchを切り取る位置も元画像側の位置が奇数になると縮小側の位置がズレます。
upconv_7の出力は68x68でした。(96-14*2)
>縮小時に奇数ピクセル数だとずれるとか
これは必須です。もし対策していなければこのせいじゃないかと思います。
waifu2xは学習画像読み込み時点で4の倍数になるようにしています。(4xもあるため)
またpatchを切り取る位置も元画像側の位置が奇数になると縮小側の位置がズレます。
661名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/17(金) 20:31:02.69ID:ISS8P0MC0 超解像頑張り中の人です。
とりあえずwaifu2xのソースコード読んでコンボリューションの初期値あわせてみたり、
変な処理をしていたのを直したり色々やったところ1dB改善しました (PSNR=28.5dB)。
視覚的には大幅な画質向上があります。
AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
言われたところは全部直したつもりなんですが、誤差関数が何かやってる様子。
よくわかりません。HunberLossも使っているのか使ってないのかわかりませんし...。
とりあえず1バッチ=12画像、1エポック=100バッチで2000エポックで学習が
収束しきってないのでがんばればPSNR=29dBまでは行くと思うんですが
31dBかかなり厳しいです。30dB行ったら諦めます。
俺的には学習データ数が少ない、augumentationがまずいってところかなあと思います。
学習データはすごく重要なんですけど、俺にはそこに情熱がない...。
こっちの学習データは250枚、augumentationは上下、左右反転、45度ローテーション、
ノイズ付加、画像縮小です。
ほんまwaifu2xはエンジニアリングの塊なので一朝一夕には追いつけませぬ。
(諦めてるので追いつく気なし)
とりあえずwaifu2xのソースコード読んでコンボリューションの初期値あわせてみたり、
変な処理をしていたのを直したり色々やったところ1dB改善しました (PSNR=28.5dB)。
視覚的には大幅な画質向上があります。
AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
言われたところは全部直したつもりなんですが、誤差関数が何かやってる様子。
よくわかりません。HunberLossも使っているのか使ってないのかわかりませんし...。
とりあえず1バッチ=12画像、1エポック=100バッチで2000エポックで学習が
収束しきってないのでがんばればPSNR=29dBまでは行くと思うんですが
31dBかかなり厳しいです。30dB行ったら諦めます。
俺的には学習データ数が少ない、augumentationがまずいってところかなあと思います。
学習データはすごく重要なんですけど、俺にはそこに情熱がない...。
こっちの学習データは250枚、augumentationは上下、左右反転、45度ローテーション、
ノイズ付加、画像縮小です。
ほんまwaifu2xはエンジニアリングの塊なので一朝一夕には追いつけませぬ。
(諦めてるので追いつく気なし)
662名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW)
2017/02/17(金) 22:19:08.74ID:AmcVWIz30 >>661
HuberLossは使っていますが多分それほど関係ないです。(というかMSEのほうがPSNRは高くなると思います)
誤差はノイズ除去で色が劣化しているのを直すときに
下げれる誤差に限界があるので、YUVのYの重み(0.299 × R + 0.587 × G + 0.114 × B)にあわせて
チャンネルごとの誤差の重みを調節しているだけなので、拡大の場合はそれほど関係と思います。
学習データが少ないのはあるかもしれないですが、今はパッチを切り出さずに画像単位でforward/backwadしているでしょうか?
小さなパッチを切り出してからシャッフルして小さいminibatchで学習するのはとても重要です。
画像単位だと例えば1280x720だった、出力が86万個の変数になって
この平均誤差をbackwardすることになるので、画像内のある小さな領域内で誤差が大きかった場合でも平均されて消えてしまいます。
特にイラストの場合は何もない背景が多くて、そこは誤差がほぼゼロになるため平均されて誤差が消失しやすいです。
(waifu2xはパッチを切り出した後パッチ内が単色背景の場合は50%くらいの確率で捨てるような処理も入っています)
また学習データ少ない場合でも、たとえば96x96のパッチだと画像1枚から70万通りくらいの切り出し位置があるのでデータ増加にもなります。
HuberLossは使っていますが多分それほど関係ないです。(というかMSEのほうがPSNRは高くなると思います)
誤差はノイズ除去で色が劣化しているのを直すときに
下げれる誤差に限界があるので、YUVのYの重み(0.299 × R + 0.587 × G + 0.114 × B)にあわせて
チャンネルごとの誤差の重みを調節しているだけなので、拡大の場合はそれほど関係と思います。
学習データが少ないのはあるかもしれないですが、今はパッチを切り出さずに画像単位でforward/backwadしているでしょうか?
小さなパッチを切り出してからシャッフルして小さいminibatchで学習するのはとても重要です。
画像単位だと例えば1280x720だった、出力が86万個の変数になって
この平均誤差をbackwardすることになるので、画像内のある小さな領域内で誤差が大きかった場合でも平均されて消えてしまいます。
特にイラストの場合は何もない背景が多くて、そこは誤差がほぼゼロになるため平均されて誤差が消失しやすいです。
(waifu2xはパッチを切り出した後パッチ内が単色背景の場合は50%くらいの確率で捨てるような処理も入っています)
また学習データ少ない場合でも、たとえば96x96のパッチだと画像1枚から70万通りくらいの切り出し位置があるのでデータ増加にもなります。
663名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW)
2017/02/17(金) 22:33:15.43ID:AmcVWIz30 >AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
あと書いていませんでしたが、0.00025から初めて最終的にその1/10くらいになるように減らしていっています。
Adamは学習率が自動調節されるようなことが書かれていることがありますが
パラメータの要素単位の正規化をやっているだけなのでalphaを減らすのは意味があります。
なので最終的なエポックで1/10くらいになるようにalphaをスケジュールしたほうがPSNRは高くなります。
調節が難しければ、80%くらい進んだ後で1/10にして残り20%を回すくらいでも十分意味があると思います。
あと書いていませんでしたが、0.00025から初めて最終的にその1/10くらいになるように減らしていっています。
Adamは学習率が自動調節されるようなことが書かれていることがありますが
パラメータの要素単位の正規化をやっているだけなのでalphaを減らすのは意味があります。
なので最終的なエポックで1/10くらいになるようにalphaをスケジュールしたほうがPSNRは高くなります。
調節が難しければ、80%くらい進んだ後で1/10にして残り20%を回すくらいでも十分意味があると思います。
664名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/17(金) 23:47:35.21ID:ISS8P0MC0 画像は教えてもらったパッチサイズに分割しています
当然シャッフルしています
SGDなんかでは学習率を減衰する正則化は普通ですけど
Adamでも効果あるんですね。というかそんなに小さな学習率で
PSNR向上するのか...。
当然シャッフルしています
SGDなんかでは学習率を減衰する正則化は普通ですけど
Adamでも効果あるんですね。というかそんなに小さな学習率で
PSNR向上するのか...。
665名無しさん@お腹いっぱい。 (ワントンキン MMc2-Pmei)
2017/02/18(土) 04:13:42.14ID:3fQ0tPmvM ai搭載してほしい
666名無しさん@お腹いっぱい。 (ワッチョイWW 52cf-E1Vt)
2017/02/18(土) 13:20:51.75ID:M/eXR+AJ0 deeplearning研究の成果であるwaifu2xがAIでないとしたら何がAIだと言うのかね
667名無しさん@お腹いっぱい。 (ワッチョイ f787-eq+O)
2017/02/18(土) 13:22:00.41ID:05aNXszw0 >>665
正解を大量に教えれば、その正解に近いものを導くのがAIだけど、あなたの求める正解って何?
正解を大量に教えれば、その正解に近いものを導くのがAIだけど、あなたの求める正解って何?
668名無しさん@お腹いっぱい。 (ワントンキン MMc2-Pmei)
2017/02/18(土) 14:02:32.75ID:3fQ0tPmvM >>667
AIだったとは!
AIだったとは!
669名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/19(日) 20:45:41.75ID:Io/fs1qe0 超解像で遊んでいる人です。
waifu2xの方の話を聞いてて自分の中で結論が出たのはSRCNNの
画質はずばり精度で決まるということですね。
学習率が異様に小さいのが納得していなかったのですが、
多分SRCNNの重みの調整は超絶微細な学習です。
なので高めの学習率で荒い調整したら細かい調整がいるのかなと思います。
例えるなら7層のネットワークの調整は7枚のレンズの焦点を
あわせるようなもんかなあと思います。
なので処理の過程で精度を落とすような処理は厳禁ですし、
学習データも多い方が明らかに有利です。
なのでかなり気をつかった実装が必要かなと思います。
PSNRは改善してきましたが、やはりノウハウの塊であるwaifu2xを
越えるのは難しいかなと思います。自分はアルゴリズムの方に
興味があるのでそっちがんばります。
自分とwaifu2xの作者の方は目指しているところがまったく逆なので
競合しなかったのが救いです。
waifu2xの方の話を聞いてて自分の中で結論が出たのはSRCNNの
画質はずばり精度で決まるということですね。
学習率が異様に小さいのが納得していなかったのですが、
多分SRCNNの重みの調整は超絶微細な学習です。
なので高めの学習率で荒い調整したら細かい調整がいるのかなと思います。
例えるなら7層のネットワークの調整は7枚のレンズの焦点を
あわせるようなもんかなあと思います。
なので処理の過程で精度を落とすような処理は厳禁ですし、
学習データも多い方が明らかに有利です。
なのでかなり気をつかった実装が必要かなと思います。
PSNRは改善してきましたが、やはりノウハウの塊であるwaifu2xを
越えるのは難しいかなと思います。自分はアルゴリズムの方に
興味があるのでそっちがんばります。
自分とwaifu2xの作者の方は目指しているところがまったく逆なので
競合しなかったのが救いです。
670名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY)
2017/02/19(日) 20:46:05.85ID:Io/fs1qe0 先日専門家の方からsaliency mapという手法を教えてもらったので
視覚ベースの高精度化の実験やってます。定量化が難しいですけど
なんとなくbutteraugliは向上しそうな気がします。
あとGANの識別器から重要な画素の情報を計算する方法も考えたので
それも実験中です。
手垢が付いてない分野なので色々新しい手法が見つかります。
視覚ベースの高精度化の実験やってます。定量化が難しいですけど
なんとなくbutteraugliは向上しそうな気がします。
あとGANの識別器から重要な画素の情報を計算する方法も考えたので
それも実験中です。
手垢が付いてない分野なので色々新しい手法が見つかります。
671名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW)
2017/02/20(月) 03:22:48.92ID:eI9WZF/30 SRCNNというか回帰問題なのでそうだと思います。
分類では識別境界に近いところ以外は大雑把でよいですが
回帰だと全ての点を正確に合わせないといけないです。
分類では識別境界に近いところ以外は大雑把でよいですが
回帰だと全ての点を正確に合わせないといけないです。
672名無しさん@お腹いっぱい。 (ワッチョイ 5648-Z7AI)
2017/02/22(水) 16:16:01.04ID:RyHb8dzv0673名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
2017/02/25(土) 21:08:59.68ID:lgzXMqNX0 アニメとか動画を拡大したい人向けのソフト作ってみた。
http://c00-c03.blogspot.jp/2017/02/waifu2x.html
http://c00-c03.blogspot.jp/2017/02/waifu2x.html
674名無しさん@お腹いっぱい。 (ワッチョイW afe1-sTLI)
2017/02/25(土) 21:43:53.51ID:IaQhgHq50 それを使った場合と使わないで普通に全部拡大した場合の結果の違いまだ未検証?
675名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
2017/02/25(土) 22:33:37.42ID:lgzXMqNX0676名無しさん@お腹いっぱい。 (ワッチョイ 7f98-HyQo)
2017/02/26(日) 12:08:18.25ID:lIqm/eYA0 動いてないコマは端折ったのね。面白い考え。
677名無しさん@お腹いっぱい。 (ワッチョイ bf39-8lb6)
2017/02/26(日) 12:35:01.92ID:zA+f4GY30678名無しさん@お腹いっぱい。 (ワッチョイ 6f64-HyQo)
2017/02/26(日) 16:36:31.44ID:/VbKsdDz0679名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-zPQB)
2017/02/26(日) 22:12:33.57ID:Xy6B3Z1p0 面白いな。素材がとにかく低ノイズじゃないと差分がいい具合にならない気はする。
実写だとどうだろうなぁ。実写動画でいろいろ拡大絡みのことはやってみたいと思ってるんだけど。
実写だとどうだろうなぁ。実写動画でいろいろ拡大絡みのことはやってみたいと思ってるんだけど。
680名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd)
2017/02/26(日) 22:41:32.17ID:uRk4b+bo0681名無しさん@お腹いっぱい。 (ワッチョイ af14-8lb6)
2017/02/27(月) 12:23:47.22ID:GA0WyZxg0 ラデオンでも快適に使えるようにしてくだされ
682名無しさん@お腹いっぱい。 (ワッチョイ af36-8lb6)
2017/02/27(月) 19:28:07.51ID:S1xW0xg80 この差分方式が進化すると裏に進出済み女優の表作品からモザイクを除去できるのでしょうか?
683名無しさん@お腹いっぱい。 (ワッチョイWW efa4-ixb7)
2017/02/28(火) 12:49:55.55ID:pSKMH9Zc0 >>678
コイツです。
コイツです。
684名無しさん@お腹いっぱい。 (ワッチョイ 3a44-kj3l)
2017/03/04(土) 17:25:09.45ID:RVxD/uAR0 >>682
学習データの蒐集方法が謎w
学習データの蒐集方法が謎w
685名無しさん@お腹いっぱい。 (ワッチョイ ba1a-BJNc)
2017/03/05(日) 00:58:28.30ID:xeJSOFvy0 個人ごとに好みがあると思うので各人で学習させる事もできるといいんじゃないかなw
686名無しさん@お腹いっぱい。 (ワッチョイ 6d87-BJNc)
2017/03/05(日) 01:54:20.37ID:nTZYFyha0 100万枚くらい正解と不正解の学習用画像もってる人限定か
687名無しさん@お腹いっぱい。 (ワッチョイ 7556-TgS+)
2017/03/05(日) 22:34:47.95ID:sbvLrrZw0 モザイクと検出された所が全てマンコに置換されて
マンコまみれの悪夢のような画像が生成されるんだな
マンコまみれの悪夢のような画像が生成されるんだな
688名無しさん@お腹いっぱい。 (ワッチョイ 6dd2-b6g9)
2017/03/06(月) 14:05:04.79ID:gas2tGQp0 マジレスすると、モザイクの範囲や解像度は入力によって異なるので復元を学習するのはなかなか難しいと思う。
モザイクの顔が復元できるよみたいなデモは
入力が8x8のモザイクで出力も位置合わせされた顔しかありえないなど限定された条件の結果なのでまだ実用的ではない。
モザイクの顔が復元できるよみたいなデモは
入力が8x8のモザイクで出力も位置合わせされた顔しかありえないなど限定された条件の結果なのでまだ実用的ではない。
689名無しさん@お腹いっぱい。 (ワッチョイ ba39-BJNc)
2017/03/06(月) 19:34:14.98ID:N2MWaHxD0 パネルアート画像がモザイク認識されてとんでも画像へと処理される奇劇のヨカン(´∀`ミ)
690名無しさん@お腹いっぱい。 (ワッチョイ 6be5-9O7/)
2017/03/09(木) 21:30:19.36ID:+vcVYOGF0 >>681
約4倍の高速化したバージョンを公開したのでもしよかったら試してみてください。
http://c00-c03.blogspot.jp/2017/02/AniZipReleaseNotes.html
約4倍の高速化したバージョンを公開したのでもしよかったら試してみてください。
http://c00-c03.blogspot.jp/2017/02/AniZipReleaseNotes.html
691名無しさん@お腹いっぱい。 (ワッチョイ 639e-oGwt)
2017/03/10(金) 09:35:55.09ID:RMdt2oaF0 実写は無理だった
692名無しさん@お腹いっぱい。 (ワッチョイ e532-4mgA)
2017/03/11(土) 14:37:39.60ID:SU15X7fC0 AMDでwaifu2x
http://inatsuka.com/extra/koroshell/ でwaifu2x_koroshellをDL
http://d.hatena.ne.jp/w_o/touch/20150629/1435585193 で
waifu2x-converter_x64_0629_02.zipをDL
waifu2x_koroshellを入れて
waifu2x_koroshellの中のwaifu2x-converterにwaifu2x-converter_x64_0629_02の中身上書き
waifu2x_koroshellで動かすとGUIでOpenCL使える
http://inatsuka.com/extra/koroshell/ でwaifu2x_koroshellをDL
http://d.hatena.ne.jp/w_o/touch/20150629/1435585193 で
waifu2x-converter_x64_0629_02.zipをDL
waifu2x_koroshellを入れて
waifu2x_koroshellの中のwaifu2x-converterにwaifu2x-converter_x64_0629_02の中身上書き
waifu2x_koroshellで動かすとGUIでOpenCL使える
693名無しさん@お腹いっぱい。 (ワッチョイ e339-KHUK)
2017/03/12(日) 06:36:21.76ID:hZc07GQB0 >>696
何でわざわざそんな古いバージョンを…
20160101が最新だよ
http://d.hatena.ne.jp/w_o/20150629/1451664048
あと最近、海外の人が作った派生もある
https://github.com/DeadSix27/waifu2x-converter-cpp/releases
同梱されているモデルのバージョンが新しい
ノイズ除去レベル3が追加されている(なぜかレベル0は追加されていないが)
今後も更新がありそう
などのメリットがある
何でわざわざそんな古いバージョンを…
20160101が最新だよ
http://d.hatena.ne.jp/w_o/20150629/1451664048
あと最近、海外の人が作った派生もある
https://github.com/DeadSix27/waifu2x-converter-cpp/releases
同梱されているモデルのバージョンが新しい
ノイズ除去レベル3が追加されている(なぜかレベル0は追加されていないが)
今後も更新がありそう
などのメリットがある
694名無しさん@お腹いっぱい。 (ワッチョイ e3c6-bLfO)
2017/03/12(日) 13:25:52.96ID:PEldwp8G0 >693
tanakamura氏版から派生したようですね。RX460で正常動作。
ただ、透過画像との相性問題も引き継いじゃってるので、修正されたらいいなぁ。
tanakamura氏版から派生したようですね。RX460で正常動作。
ただ、透過画像との相性問題も引き継いじゃってるので、修正されたらいいなぁ。
695名無しさん@お腹いっぱい。 (ワッチョイ e532-4mgA)
2017/03/14(火) 06:01:16.34ID:ytw58lnz0696名無しさん@お腹いっぱい。 (ワッチョイ e3c6-bLfO)
2017/03/15(水) 01:31:35.13ID:NMYyqaAt0 >695
koroshellフォルダに「waifu2x-converter」サブフォルダ作って、
「waifu2x-converter_x64.exe」にリネームすれば、使えますよ。
ノイズ除去は、なし(Lv0)、弱(Lv1)、強(Lv2)までしか選べないので、
Lv3使えないけど。
koroshellフォルダに「waifu2x-converter」サブフォルダ作って、
「waifu2x-converter_x64.exe」にリネームすれば、使えますよ。
ノイズ除去は、なし(Lv0)、弱(Lv1)、強(Lv2)までしか選べないので、
Lv3使えないけど。
697名無しさん@お腹いっぱい。 (ワッチョイ 3a82-bHoN)
2017/03/17(金) 17:24:03.19ID:FhgIFmLg0 自分用にこういうの作ったから良かったらどうぞ
基本的にただのフロントエンドなので元のソフトの機能しか使えないですが
http://i.imgur.com/6j4XHEy.png
https://www.dropbox.com/sh/0y9scaml78otum2/AAAs4sTIHQWn_UfYCwwC95VKa?dl=0
https://www.virustotal.com/ja/file/67cc556ad135c2ab85d83b4bd92e6735b873904ff42a38f9022719435996d9e9/analysis/
https://www.virustotal.com/ja/file/c06ba95ca00297f0d7e8892bb350899337d50f7c30a5f9e104e58e8ba96107d7/analysis/
かなり強引な方法ではあるけど、フォルダも処理出来る(多分)ので>>673フソフトとも連携できるはず
基本的にただのフロントエンドなので元のソフトの機能しか使えないですが
http://i.imgur.com/6j4XHEy.png
https://www.dropbox.com/sh/0y9scaml78otum2/AAAs4sTIHQWn_UfYCwwC95VKa?dl=0
https://www.virustotal.com/ja/file/67cc556ad135c2ab85d83b4bd92e6735b873904ff42a38f9022719435996d9e9/analysis/
https://www.virustotal.com/ja/file/c06ba95ca00297f0d7e8892bb350899337d50f7c30a5f9e104e58e8ba96107d7/analysis/
かなり強引な方法ではあるけど、フォルダも処理出来る(多分)ので>>673フソフトとも連携できるはず
698名無しさん@お腹いっぱい。 (ワッチョイ 7d99-tpgq)
2017/03/17(金) 23:03:21.46ID:fptxaYtO0 全く見てないけどkoroshellの代わりになるようなもの
という認識で良い?
という認識で良い?
699名無しさん@お腹いっぱい。 (ワッチョイ 3a82-bHoN)
2017/03/17(金) 23:37:27.66ID:FhgIFmLg0 >>698
基本的にはそういう感じですが使い勝手は異なるのでどちらが良いかは人によるかと思います。
具体的には画像をドラッグ&ドロップしただけでは変換が始まらないので何枚もポンポン放る使い方をする方はkoroshellのほうが良いかもしれません。
koroshellより優れていると思うところは
フォルダをサブフォルダごと処理出来る(多分)
同梱モデルが新しい
最初からtanakamura氏のwaifu2x-converter-cppを同梱をしてあるので差し替える必要がない
イラスト用モデルと写真用モデルの切り替えができる
ノイズ除去レベル 0〜3まで使用可能
ですかね。
基本的にはそういう感じですが使い勝手は異なるのでどちらが良いかは人によるかと思います。
具体的には画像をドラッグ&ドロップしただけでは変換が始まらないので何枚もポンポン放る使い方をする方はkoroshellのほうが良いかもしれません。
koroshellより優れていると思うところは
フォルダをサブフォルダごと処理出来る(多分)
同梱モデルが新しい
最初からtanakamura氏のwaifu2x-converter-cppを同梱をしてあるので差し替える必要がない
イラスト用モデルと写真用モデルの切り替えができる
ノイズ除去レベル 0〜3まで使用可能
ですかね。
700名無しさん@お腹いっぱい。 (ワッチョイ 9619-i8cA)
2017/03/18(土) 16:30:49.66ID:SMS+/6Qv0 700
701名無しさん@お腹いっぱい。 (ワッチョイ 45e2-mE/U)
2017/03/18(土) 16:48:11.10ID:uCDPIZXT0 D&Dモードも実装して(はぁと)
702名無しさん@お腹いっぱい。 (ワッチョイ c999-E+Pv)
2017/03/31(金) 14:45:23.84ID:BqzZfGSY0 waifu2xのすごさを実感したわ
幅720ピクセルの画像をFHDにして壁紙で耐えられる
まあイラストだから許せるのもあるけど
幅720ピクセルの画像をFHDにして壁紙で耐えられる
まあイラストだから許せるのもあるけど
703名無しさん@お腹いっぱい。 (ワッチョイ c146-1gvu)
2017/03/31(金) 18:13:13.97ID:2g/H5pQj0 昔付き合ってた女のいろんな画像とか、waifu2xで拡大して遊んでるわw
流石に昔のスマホの素人撮りだから、2倍以上だと粗が目立つけども・・・
閑古休題、DenoiseNetも今後期待できそうね
https://pbs.twimg.com/media/C1tjW1qWIAAEpJw.jpg
https://arxiv.org/abs/1701.01698
流石に昔のスマホの素人撮りだから、2倍以上だと粗が目立つけども・・・
閑古休題、DenoiseNetも今後期待できそうね
https://pbs.twimg.com/media/C1tjW1qWIAAEpJw.jpg
https://arxiv.org/abs/1701.01698
704名無しさん@お腹いっぱい。 (ワッチョイ c999-agmj)
2017/03/31(金) 23:36:18.06ID:iFk//65N0705名無しさん@お腹いっぱい。 (ワッチョイ d146-YuVY)
2017/04/02(日) 23:42:14.76ID:P/TEvgCC0 縦横幅を指定って7680x4320みたいな指定でいいのね
706名無しさん@お腹いっぱい。 (ワッチョイ 1382-FZog)
2017/04/03(月) 00:01:52.18ID:j7vFn78H0 >>705
何の話かと思ったら更新来てたのね
waifu2x-caffe ver 1.1.8.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.1
GUIで変換後の縦横幅でサイズ指定を追加
CUIで変換後の縦横幅を同時に指定できるようにした
GUIの翻訳にフランス語追加
何の話かと思ったら更新来てたのね
waifu2x-caffe ver 1.1.8.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.1
GUIで変換後の縦横幅でサイズ指定を追加
CUIで変換後の縦横幅を同時に指定できるようにした
GUIの翻訳にフランス語追加
707名無しさん@お腹いっぱい。 (ワッチョイ 1382-FZog)
2017/04/03(月) 00:19:45.25ID:j7vFn78H0 ところで↓の話ってどうなったんですかね?
CUDA on AMD GPUs, now possible? · Issue #71 · lltcggie/waifu2x-caffe
https://github.com/lltcggie/waifu2x-caffe/issues/71
MIOpenは2017年の第1四半期にリリース予定って聞いたんですが、まだリリースされてないのかな?
CUDA on AMD GPUs, now possible? · Issue #71 · lltcggie/waifu2x-caffe
https://github.com/lltcggie/waifu2x-caffe/issues/71
MIOpenは2017年の第1四半期にリリース予定って聞いたんですが、まだリリースされてないのかな?
708名無しさん@お腹いっぱい。 (ワッチョイ c999-E+Pv)
2017/04/03(月) 00:59:01.62ID:/CKofziZ0 ある程度大きい画像だと違いはあまり感じられないのね
709名無しさん@お腹いっぱい。 (ワッチョイ 29f6-SPHJ)
2017/04/03(月) 18:49:25.18ID:X2+lQHyy0710名無しさん@お腹いっぱい。 (ワッチョイ 29f6-SPHJ)
2017/04/03(月) 23:08:06.81ID:X2+lQHyy0 ドライバ更新したらCUDA変換できた
>ある程度大きい画像だと違いはあまり感じられないのね
画像によるけどフォトショ等で一旦縮小してからやると綺麗になったりする時もあるよ
>ある程度大きい画像だと違いはあまり感じられないのね
画像によるけどフォトショ等で一旦縮小してからやると綺麗になったりする時もあるよ
711名無しさん@お腹いっぱい。 (アンパン d146-YuVY)
2017/04/04(火) 06:54:31.05ID:IKEv3bLo00404 ん、GUIで高さ指定の場合に入力値が横幅として処理されちゃってる?
横幅指定は正しく横幅になり、縦x横指定の場合もその通りになる
ファイル名の付き方は指定の通りになってる
横幅指定は正しく横幅になり、縦x横指定の場合もその通りになる
ファイル名の付き方は指定の通りになってる
712名無しさん@お腹いっぱい。 (ワッチョイ 3720-+TA9)
2017/04/08(土) 18:15:39.34ID:rclrmZXV0 >>711
致命的バグが修正されませんね。
致命的バグが修正されませんね。
713名無しさん@お腹いっぱい。 (ワッチョイ 136c-pzmP)
2017/04/16(日) 21:27:24.07ID:pBocPxZ/0 バージョンアップ来そうな予感
714名無しさん@お腹いっぱい。 (ワッチョイ 136c-pzmP)
2017/04/16(日) 21:37:19.02ID:pBocPxZ/0 waifu2x-caffe ver 1.1.8.2
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.2
出力フォルダを選択するときにエラー落ちすることがあるバグを修正
GUIで縦幅サイズ指定にしても横幅の指定と認識されるバグを修正
出力深度ビット数を入力で変更できないようにした
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.2
出力フォルダを選択するときにエラー落ちすることがあるバグを修正
GUIで縦幅サイズ指定にしても横幅の指定と認識されるバグを修正
出力深度ビット数を入力で変更できないようにした
715名無しさん@お腹いっぱい。 (ワッチョイW 136c-Qdgp)
2017/04/17(月) 00:16:48.95ID:Fnf2sWjg0 今繋がらなくなってる?
プロキシエラーになる
プロキシエラーになる
716名無しさん@お腹いっぱい。 (ワッチョイ 136c-pzmP)
2017/04/17(月) 00:40:06.64ID:3EuGOoc40 >>715
こっちは繋がるよ
こっちは繋がるよ
717名無しさん@お腹いっぱい。 (ワッチョイ 2987-mJZ7)
2017/04/30(日) 20:09:22.51ID:tNItES6T0 このソフト便利だなあ
写真で使うと解像感があがる
塗り絵になってしまうのは仕方ないけど縮小して見る分には問題ない
写真で使うと解像感があがる
塗り絵になってしまうのは仕方ないけど縮小して見る分には問題ない
718名無しさん@お腹いっぱい。 (ワッチョイ 8b54-XZJj)
2017/05/02(火) 15:42:24.70ID:JQ04n9gT0 これすげえ。
ディープネットワークによる
シーンの大域的かつ局所的な整合性を考慮した画像補完
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/ja/
様々なシーンの画像補完(Places2データセット)
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/images/results/results.png
顔画像の補完(CelebAデータセット)
ディープネットワークによる
シーンの大域的かつ局所的な整合性を考慮した画像補完
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/ja/
様々なシーンの画像補完(Places2データセット)
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/images/results/results.png
顔画像の補完(CelebAデータセット)
719名無しさん@お腹いっぱい。 (ワッチョイ 513b-Ahd3)
2017/05/02(火) 15:58:18.77ID:vtKwUtbN0 >>718
なにこれ使い道一つしか思い浮かばない
なにこれ使い道一つしか思い浮かばない
720名無しさん@お腹いっぱい。 (アウアウカー Sa75-Ke9a)
2017/05/02(火) 16:57:06.66ID:taLs0zcqa >>719
通報した
通報した
721名無しさん@お腹いっぱい。 (スッップ Sd33-g2qj)
2017/05/02(火) 17:17:39.08ID:qDVWDXWEd これであの水玉を消せるんやな!
722名無しさん@お腹いっぱい。 (ワッチョイW 7143-3+xq)
2017/05/02(火) 17:18:42.61ID:pqsa/JXr0 そもそも学習用のモデルが用意できねぇw
723名無しさん@お腹いっぱい。 (アウーイモ MM3d-GyyV)
2017/05/02(火) 19:11:17.40ID:XTKWh3siM 学習用モデル=世界中で公開されているネット上の画像っていうパターンか。
724名無しさん@お腹いっぱい。 (ワッチョイ 136c-odTx)
2017/05/02(火) 21:16:59.37ID:5cXtYQYl0 >>718
早稲田のチーム凄いな
早稲田のチーム凄いな
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【速報】東京・足立区のひき逃げ事故 警視庁が運転手とみられる人物確保 心肺停止の2人は20代女性と80代男性 ★2 [Ailuropoda melanoleuca★]
- 【東京】乗用車が歩行者をはね11人ケガ、うち2人重体 現場に残されたセダンの運転手が衝突後に逃走…ひき逃げ事件として捜査 足立 [ぐれ★]
- 【国防】衝撃を与えた米シンクタンクの「台湾侵攻シミュレーション」日本の被害は? [1ゲットロボ★]
- スペイン、移民受け入れで成長 1人当たりGDP日本超え ★3 [蚤の市★]
- 【サッカー】ロシアが来年のW杯と並行して「裏W杯」開催を構想か 参加国は中国、セルビアなど出場を逃した国が候補 [征夷大将軍★]
- 尖閣周辺に中国船、10日連続 いずれも機関砲搭載 ★2 [蚤の市★]
- さゆりんご「若者は高市さんのおかげで政治見るようになった。メローニさんとハグとか、そういう頑張ってるのが見えるのがすごい素敵」 [256556981]
- 【高市悲報】日本人、足立区11人ひき逃げ犯の国籍で大荒れwwwwwwwwwwwwwwwwwwwwww [316257979]
- 【悲報】足立区ひき逃げ犯、精神病!責任能力なしへ [347751896]
- ぽこちんで出来た🏡
- 石破「外交というのは、“言いたいこと言ってやったぜ“とかそういう話ではない」 [834922174]
- 【超絶悲報】トランプ大統領「政府効率化省はもう存在しない」イーロン・マスクらの集団、解散していたことが判明 [519511584]
