画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。
--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/
・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436
・waifu2xとその派生ソフト一覧
※リンクがNGワードに!
・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437
・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/
・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html
・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
探検
【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。 転載ダメ©2ch.net (アウアウ Sa2a-NyIq)
2016/05/10(火) 11:28:05.20ID:h2o6wyXCa525名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU)
2016/12/23(金) 20:40:47.34ID:m2BLsLT80 ごめんグラボよく分からないから523は無しでw
526名無しさん@お腹いっぱい。 (ワッチョイ 96f6-8bDS)
2016/12/23(金) 20:52:17.48ID:zVH9+6gN0 >>524
ありがとうございます
ありがとうございます
527名無しさん@お腹いっぱい。 (スッップ Sdec-4tq9)
2016/12/23(金) 21:04:41.82ID:2fSZFBUld528名無しさん@お腹いっぱい。 (ワッチョイWW c68b-MMWo)
2016/12/23(金) 23:22:19.50ID:8WQGOLBP0 AMDから今度出るGPUが深層学習向けらしいけど
このソフトでも早くなるのかな
このソフトでも早くなるのかな
529488 (ワッチョイW 1289-W3gD)
2016/12/23(金) 23:46:46.15ID:rtorBkxO0530名無しさん@お腹いっぱい。 (中止 aa39-AwQU)
2016/12/24(土) 15:31:26.95ID:OFvUtbxO0EVE 処理速度をベンチマークするbat書いたよ
動くかどうか分からないけど奇特な人はチャレンジしてみて。
https://www.dropbox.com/s/5p9lnl62qnlk69v/waifu2x_benchmark_v1.zip?dl=0
動くかどうか分からないけど奇特な人はチャレンジしてみて。
https://www.dropbox.com/s/5p9lnl62qnlk69v/waifu2x_benchmark_v1.zip?dl=0
531名無しさん@お腹いっぱい。 (ワッチョイ 34e1-t+3N)
2016/12/28(水) 17:41:29.27ID:08hGKA3e0 オンボのノートPCじゃこのソフト使えないんでしょうか?
1280×800の画像1枚を2倍にしたいだけなんですが実行ボタン押しても残り時間:不明って出てフリーズします。
ウェブ版は普通に使えます
1280×800の画像1枚を2倍にしたいだけなんですが実行ボタン押しても残り時間:不明って出てフリーズします。
ウェブ版は普通に使えます
532名無しさん@お腹いっぱい。 (ワッチョイ f6f0-i5Qz)
2016/12/28(水) 17:49:55.63ID:BK0VqACV0 waifu2x-caffeなら時間かかるが動くんじゃね
533名無しさん@お腹いっぱい。 (ワッチョイ a00f-G+7F)
2016/12/28(水) 17:51:02.58ID:6hOu5zQ90 とにかくColorProfile対応してくれることを望みます
ちょっとライトエフェクトとかある差分画像とか全体が全く違う色になって困り果ててしまうわ
これで動画のエンコなんてしたらもう…
ちょっとライトエフェクトとかある差分画像とか全体が全く違う色になって困り果ててしまうわ
これで動画のエンコなんてしたらもう…
534名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)
2016/12/28(水) 18:09:49.29ID:08hGKA3e0535名無しさん@お腹いっぱい。 (ワッチョイ f6f0-i5Qz)
2016/12/28(水) 18:13:18.56ID:BK0VqACV0 >>534
じゃあ明日まで待つ
じゃあ明日まで待つ
536名無しさん@お腹いっぱい。 (ワッチョイ 9cd6-g1cW)
2016/12/28(水) 18:14:43.22ID:ClaiyaoC0537名無しさん@お腹いっぱい。 (ワッチョイWW c68b-WXY/)
2016/12/28(水) 18:39:45.55ID:ABw+Y6U70 >>533
大人しくmadvrのNGU使え
大人しくmadvrのNGU使え
538名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU)
2016/12/28(水) 18:40:08.51ID:YGxoh5pu0 初期設定だとCUDAで変換するようになってるけど環境がCUDAに対応しているかチェックする時に躓いているのかな
動作設定で使用プロセッサーをCPUにすれば動くと思うけど
動作設定で使用プロセッサーをCPUにすれば動くと思うけど
539名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)
2016/12/28(水) 19:59:06.13ID:08hGKA3e0 >>538
動作設定はCPUにしております。CPU使用率は80%以上でございます。Braswellでは非力すぎて動かないのかな
動作設定はCPUにしております。CPU使用率は80%以上でございます。Braswellでは非力すぎて動かないのかな
540名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU)
2016/12/28(水) 20:51:23.97ID:YGxoh5pu0541名無しさん@お腹いっぱい。 (ワッチョイ 9cd6-g1cW)
2016/12/28(水) 23:07:48.09ID:ClaiyaoC0 なんだ、終わるまで待てない人だったかw
542名無しさん@お腹いっぱい。 (ワッチョイ de50-i5Qz)
2016/12/28(水) 23:12:10.69ID:p2Cg+1Vx0 進捗バーが動くものだと思ってるんだろうな
543名無しさん@お腹いっぱい。 (ワッチョイ cee1-i5Qz)
2016/12/28(水) 23:49:47.12ID:9pSB/lfO0 あの進捗、ファイル数なんだよなぁ(´・ω・`) 大漁のファイル掘り込めばバー動くけど
オンボろノートで1280×800を2倍拡大だと数分掛かるんじゃね?
オンボろノートで1280×800を2倍拡大だと数分掛かるんじゃね?
544名無しさん@お腹いっぱい。 (ワッチョイ f6f0-i5Qz)
2016/12/28(水) 23:53:04.70ID:BK0VqACV0 重たい処理したいときはこのあたりのソフト使うと良いよ
【優先度】CPU最適化スレ 3CPU【自動変更】
http://potato.2ch.net/test/read.cgi/software/1327059116/
【優先度】CPU最適化スレ 3CPU【自動変更】
http://potato.2ch.net/test/read.cgi/software/1327059116/
545531 (ワッチョイW b2e1-EzRd)
2016/12/30(金) 14:31:11.67ID:tIIWopzb0 辛抱強く待ってたら一応完了したのですが出力先を見たら何もできていませんでした‥.
モデルのUpPhotoとphotoの違いは何でしょうか?
モデルのUpPhotoとphotoの違いは何でしょうか?
546名無しさん@お腹いっぱい。 (ワッチョイ f2e1-Sa8B)
2016/12/30(金) 14:40:02.55ID:RVSItgrB0 出力先指定してあるの?違う所見てない? それか上書になってない?
無印は標準モデル
Up印は速度優先モデル(と言っても倍程度。出来上がりに大差はないけど物によっては気になるかもしれない)
無印は標準モデル
Up印は速度優先モデル(と言っても倍程度。出来上がりに大差はないけど物によっては気になるかもしれない)
547名無しさん@お腹いっぱい。 (ワッチョイ d3f6-Eko0)
2016/12/30(金) 17:02:37.88ID:G+DVIbZ50 1060が届いたので試してみました
・・・・・・・・・・あまり変わっていない?
分割サイズを128から240にしたけど、う〜ん
後cuDNNってなんぞ?
・・・・・・・・・・あまり変わっていない?
分割サイズを128から240にしたけど、う〜ん
後cuDNNってなんぞ?
548名無しさん@お腹いっぱい。 (ワッチョイWW 6332-H1Ci)
2016/12/30(金) 18:12:22.39ID:X3KvqHdb0 cuDNNはNVIDIAが別で配布しているライブラリ
ディープラーニング用のAPIが入ってる
waifu2xはほとんどの処理時間は
コンボリューションで、cuDNNに
含まれるAPIなので恐らく速くなるはず
caffeeの自前実装のコンボリューションが
鬼のように最適化されてたら変わらんかも
しれんが比較したことないので知らん
ディープラーニング用のAPIが入ってる
waifu2xはほとんどの処理時間は
コンボリューションで、cuDNNに
含まれるAPIなので恐らく速くなるはず
caffeeの自前実装のコンボリューションが
鬼のように最適化されてたら変わらんかも
しれんが比較したことないので知らん
549名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+)
2016/12/30(金) 18:20:53.02ID:nC1+/K860550名無しさん@お腹いっぱい。 (ワッチョイ 765e-4Ie9)
2016/12/30(金) 18:21:04.13ID:vUMlJ/xP0 cuDNN RGBモデル
| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:03.170 | 278 |
| 125 | 00:00:02.745 | 279 |
| 200 | 00:00:02.253 | 365 |
| 250 | 00:00:02.147 | 446 |
| 500 | 00:00:01.982 | 1110 |
CUDA RGBモデル
| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:06.192 | 724 |
| 125 | 00:00:05.504 | 724 |
| 200 | 00:00:04.642 | 1556 |
| 250 | 00:00:04.436 | 2345 |
| 500 | 計測不能 | 計測不能(6144以上) |
| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:03.170 | 278 |
| 125 | 00:00:02.745 | 279 |
| 200 | 00:00:02.253 | 365 |
| 250 | 00:00:02.147 | 446 |
| 500 | 00:00:01.982 | 1110 |
CUDA RGBモデル
| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:06.192 | 724 |
| 125 | 00:00:05.504 | 724 |
| 200 | 00:00:04.642 | 1556 |
| 250 | 00:00:04.436 | 2345 |
| 500 | 計測不能 | 計測不能(6144以上) |
551名無しさん@お腹いっぱい。 (ワッチョイ d3f6-Eko0)
2016/12/30(金) 18:34:48.69ID:G+DVIbZ50552名無しさん@お腹いっぱい。 (ワッチョイ 9b50-Sa8B)
2016/12/30(金) 18:46:40.90ID:nwoXjDvq0 CUDAとcuDNN、処理時間倍違うのかよ。
さらにup系で倍、ファファファノファー
さらにup系で倍、ファファファノファー
553名無しさん@お腹いっぱい。 (ワッチョイ 27d2-lyLD)
2016/12/31(土) 00:37:50.29ID:AExTirDU0 Upは速度優先ではなくて速度精度ともに無印より上だよ
554名無しさん@お腹いっぱい。 (JP 0Hde-Sa8B)
2016/12/31(土) 00:39:48.58ID:RK8kbYryH Up使うとほとんど無印よりきたねー結果になるんだがなんでた?
555名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+)
2016/12/31(土) 00:50:31.70ID:p7hb+TgK0556名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+)
2016/12/31(土) 00:55:45.82ID:p7hb+TgK0 あ、あとcaffeでノイズ除去のみする場合はRGBのほうがいい
557名無しさん@お腹いっぱい。 (ワッチョイ f2e1-Sa8B)
2016/12/31(土) 08:15:58.58ID:leMGDIx60558名無しさん@お腹いっぱい。 (ワッチョイ 76d2-Sa8B)
2016/12/31(土) 08:28:57.23ID:AjfKh5GG0 cuDNNだけどっかに落ちてねーの?
559名無しさん@お腹いっぱい。 (ワッチョイ 27d2-lyLD)
2016/12/31(土) 08:40:38.66ID:AExTirDU0 >>557
数百枚に対するベンチマーク(PSNR)では数値的に上
数百枚に対するベンチマーク(PSNR)では数値的に上
560名無しさん@お腹いっぱい。 (ワッチョイ 9bf6-Eko0)
2016/12/31(土) 22:34:22.56ID:sFjW5xQA0 cuDNN64.5.dll見っけた
探せばあるもんだなぁ
早速導入
おほっ滅茶早ww
探せばあるもんだなぁ
早速導入
おほっ滅茶早ww
561名無しさん@お腹いっぱい。 (ワッチョイ 9bf6-Eko0)
2016/12/31(土) 23:03:42.96ID:sFjW5xQA0 分轄サイズを384にすると5GB以上使って4〜5分だったものが1分掛からずに終了
メモリ使用量は1GB程度に減ってた
cuDNN凄いな
メモリ使用量は1GB程度に減ってた
cuDNN凄いな
562名無しさん@お腹いっぱい。 (ワッチョイ 765e-4Ie9)
2016/12/31(土) 23:51:10.10ID:c2L6UkQy0 うpしようとしてたけどやめて良かった
563名無しさん@お腹いっぱい。 (ワッチョイ 9b50-Sa8B)
2017/01/01(日) 06:27:46.76ID:kaC7n5qt0 nvidiaに登録すればDLできるし、探すほどのものでもないべ
564名無しさん@お腹いっぱい。 (ワッチョイ 9bf6-Eko0)
2017/01/01(日) 08:15:07.66ID:Rld7TCmj0 この凄さは良い1060のおかげもメモリ量もあって半分くらいはあるのかな?
あってくれ、でないと¥27,000が泣く
あってくれ、でないと¥27,000が泣く
565名無しさん@お腹いっぱい。 (ワッチョイWW a7f6-i8fm)
2017/01/01(日) 11:52:36.53ID:ZNSLWmzy0 ウィルス付だったり変な改変受けてたりするのも有るし
そんなに難しくないから適当に登録した方が安心
そんなに難しくないから適当に登録した方が安心
566名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+)
2017/01/04(水) 13:37:33.40ID:3JPHOCLB0 Kaby Lake-S「Core i7-7700K」基礎検証レポート。注目すべきは絶対性能ではなく,電力対性能比だ - 4Gamer.net
http://www.4gamer.net/games/344/G034458/20170102001/
waifu2xでベンチマークしてて笑う
http://www.4gamer.net/games/344/G034458/20170102001/
waifu2xでベンチマークしてて笑う
567名無しさん@お腹いっぱい。 (ワッチョイ c344-Sa8B)
2017/01/04(水) 19:59:44.27ID:dGeuxDic0 >>566
ディープラーニングの推定工程ベンチマークとして便利かもしれないな
ディープラーニングの推定工程ベンチマークとして便利かもしれないな
568名無しさん@お腹いっぱい。 (ワッチョイ 3272-IQ/9)
2017/01/04(水) 20:11:49.14ID:IycFIp3h0 笑うとか意味不でキムチワル
569名無しさん@お腹いっぱい。 (ワッチョイ cf7c-Sa8B)
2017/01/04(水) 22:02:39.62ID:CPp7npvh0 というかしょっぱすぎる性能だな
Ryzen頑張ってくれよ本当に…
Ryzen頑張ってくれよ本当に…
570名無しさん@お腹いっぱい。 (ワッチョイ 8291-C4FB)
2017/01/07(土) 23:25:48.14ID:kGxVSOqh0 中の人Pixivだったのか納得した
571名無しさん@お腹いっぱい。 (ワッチョイ 29d2-5hgy)
2017/01/08(日) 19:04:40.17ID:ZpzukTrs0 waifu2xのことなら、中の人の定義によるけど
開発している人(俺)はpixivではないよ
サーバーはpixivの方が運営しているけど
開発している人(俺)はpixivではないよ
サーバーはpixivの方が運営しているけど
572名無しさん@お腹いっぱい。 (ワッチョイ d1cf-dHfL)
2017/01/14(土) 04:19:51.80ID:AOMWwbEx0 このスレを見ている人間にとっては大嫌いなレガシー不可逆画像コーデックJPEGに新たなエンコーダが
ttp://gigazine.net/news/20170113-google-guetzli/
人間の目に最適化した極低速高圧縮JPEGエンコーダGuetzli
SSIM: libjpeg比 14%悪化
PSNRHVS-M: libjpeg比 14%悪化
butteraugli: libjpeg比 30%良化
エンコード速度: libjpeg比 10000%+悪化
同等画質サイズ: libjpeg比 35%良化
同等画質転送レート: libjpeg比 35%良化
ttps://translate.google.co.jp/translate?sl=en&tl=ja&u=http%3A%2F%2Fencode.ru%2Fthreads%2F2628
ttp://encode.ru/threads/2628
長すぎるエンコード時間(消費エネルギー)という元手・投資を取り返すには何回その画像ダウンロードされないといけないんだろうな
性能はたしかに良いからお試しあれ
ttp://gigazine.net/news/20170113-google-guetzli/
人間の目に最適化した極低速高圧縮JPEGエンコーダGuetzli
SSIM: libjpeg比 14%悪化
PSNRHVS-M: libjpeg比 14%悪化
butteraugli: libjpeg比 30%良化
エンコード速度: libjpeg比 10000%+悪化
同等画質サイズ: libjpeg比 35%良化
同等画質転送レート: libjpeg比 35%良化
ttps://translate.google.co.jp/translate?sl=en&tl=ja&u=http%3A%2F%2Fencode.ru%2Fthreads%2F2628
ttp://encode.ru/threads/2628
長すぎるエンコード時間(消費エネルギー)という元手・投資を取り返すには何回その画像ダウンロードされないといけないんだろうな
性能はたしかに良いからお試しあれ
573名無しさん@お腹いっぱい。 (ワッチョイ b1d2-BSl8)
2017/01/14(土) 10:43:46.82ID:kO6Aianq0 よくわからんが、電算機関連の話では
性能って普通は速度(時間)のことを言うんじゃないのか
性能って普通は速度(時間)のことを言うんじゃないのか
574名無しさん@お腹いっぱい。 (ワッチョイ 1339-5BG0)
2017/01/14(土) 11:55:01.52ID:cz8mjfgz0 GuetzliよりGuetzliの性能を評価したbutteraugliってやつのほうが気になる。
SSIMやPSNRより人間の主観に近い画質指標なのかな。
SSIMやPSNRより人間の主観に近い画質指標なのかな。
575名無しさん@お腹いっぱい。 (ワイモマー MM33-YL17)
2017/01/14(土) 12:31:07.66ID:ySHnyXEvM butteraugliでwaifu2xと他の拡大アルゴリズムの比較されたら、どんな結果が出るのだろうな
576名無しさん@お腹いっぱい。 (ワッチョイ d950-dHfL)
2017/01/14(土) 13:15:34.86ID:3XEqy+Cv0 リファレンスのpngをq89ぐらいにすると、
似たサイズになるんだけど、確かに通常より綺麗だな。
waifuで拡大したほうが超綺麗になったけど、そういう問題じゃないからね。
似たサイズになるんだけど、確かに通常より綺麗だな。
waifuで拡大したほうが超綺麗になったけど、そういう問題じゃないからね。
577名無しさん@お腹いっぱい。 (ワッチョイ 1339-5BG0)
2017/01/14(土) 16:10:52.71ID:cz8mjfgz0 >>575
自分もそう思ったんだけどbutteraugliのビルド方法がよく分からなくて断念したよ。
Googleがバイナリを配布してくれればいいんだけどね。
というかほぼGoogleしか使ってない指標でGoogleのエンコーダを評価されても性能が良く分からないよなと思う。
自分もそう思ったんだけどbutteraugliのビルド方法がよく分からなくて断念したよ。
Googleがバイナリを配布してくれればいいんだけどね。
というかほぼGoogleしか使ってない指標でGoogleのエンコーダを評価されても性能が良く分からないよなと思う。
578名無しさん@お腹いっぱい。 (スプッッ Sd7d-qERx)
2017/01/14(土) 18:56:54.13ID:0SNYGzDGd579名無しさん@お腹いっぱい。 (ワッチョイWW 0932-744s)
2017/01/15(日) 09:56:09.63ID:0bystr9E0 waifu2xの後追いして遊んでるんだけど
作者氏、GAN使うの嫌がってるんだよね
とりあえずGAN、ResNet、PixelSuffle
実装してみたけど見た目SRCNN臭さは
だいぶとれるけどたくさん評価
してないので微妙
俺の本丸は計算量削減なんだけど
理論上計算量3割のはずなのに
3割しか早くならない
chainer、推論遅くないか
作者氏、GAN使うの嫌がってるんだよね
とりあえずGAN、ResNet、PixelSuffle
実装してみたけど見た目SRCNN臭さは
だいぶとれるけどたくさん評価
してないので微妙
俺の本丸は計算量削減なんだけど
理論上計算量3割のはずなのに
3割しか早くならない
chainer、推論遅くないか
580名無しさん@お腹いっぱい。 (ワッチョイWW b37c-j87h)
2017/01/15(日) 12:05:43.60ID:lB/+H+EU0 サンプル画像すら出さないで何を言わんや…
581名無しさん@お腹いっぱい。 (オッペケ Srdd-744s)
2017/01/15(日) 12:31:47.79ID:KsNDNARPr 評価中なので待ってください
一回回すのに10時間かかるので
何日かかかります
一回回すのに10時間かかるので
何日かかかります
582名無しさん@お腹いっぱい。 (ワッチョイ 6bcc-dHfL)
2017/01/15(日) 13:36:32.29ID:Ux9tIyw00 スクール水着の凹凸を判断してテカテカのラバーコーティングの水着にできる?
583名無しさん@お腹いっぱい。 (ワッチョイW 9b89-kkJw)
2017/01/15(日) 13:52:26.00ID:HieKzZb90 いいなそれ
584名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD)
2017/01/15(日) 15:35:17.21ID:6WNzG8+M0 >>579
GANはPSNRをあまり下げずに使えるならいいですが
(ロス関数の重みの調節で出来ると思いますがトレードオフがあるのでGAN使う意味がなくなってきそう)
PSNRがBicubic以下になると
変換結果に不安があるため現在BicubcやLanczosが使われる領域での置き換えには使えないと思って避けています。
もちろんいくつかモデル作って選択できるようにすればいいだけですが
面倒なのでやっていない状態です。ResNetはdevブランチには入ってます。
GANはPSNRをあまり下げずに使えるならいいですが
(ロス関数の重みの調節で出来ると思いますがトレードオフがあるのでGAN使う意味がなくなってきそう)
PSNRがBicubic以下になると
変換結果に不安があるため現在BicubcやLanczosが使われる領域での置き換えには使えないと思って避けています。
もちろんいくつかモデル作って選択できるようにすればいいだけですが
面倒なのでやっていない状態です。ResNetはdevブランチには入ってます。
585名無しさん@お腹いっぱい。 (ワッチョイWW 4bc5-744s)
2017/01/15(日) 15:46:09.89ID:7I2qaVWZ0 >584
GANについては混合比率下げると
全くなしと見分けがつかないので
PSNRは必ず犠牲になる印象です
3dB近く悪くなるので受容できないで
しょうね
GANは学習すごく遅くなるので
つらいです
GANは学習回数多くしないとだめ
なのでもしかしたら今足りてない
可能性があるので後でしつこく
やってみます
作者さんも自分で実験するのが
めんどいと思うので結果はアップして
共有します
GANについては混合比率下げると
全くなしと見分けがつかないので
PSNRは必ず犠牲になる印象です
3dB近く悪くなるので受容できないで
しょうね
GANは学習すごく遅くなるので
つらいです
GANは学習回数多くしないとだめ
なのでもしかしたら今足りてない
可能性があるので後でしつこく
やってみます
作者さんも自分で実験するのが
めんどいと思うので結果はアップして
共有します
586名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD)
2017/01/15(日) 15:59:53.33ID:6WNzG8+M0 butteraugli というので本当に見た目の印象が定量評価できるならそれもあり思いますね。
僕が見た目の評価嫌う理由は、たいして見る目がない人がリンギングでまってくる画像を
くっきりしているからよいとか判定してしまうところにあるので。
僕が見た目の評価嫌う理由は、たいして見る目がない人がリンギングでまってくる画像を
くっきりしているからよいとか判定してしまうところにあるので。
587名無しさん@お腹いっぱい。 (ワッチョイWW 4bc5-744s)
2017/01/15(日) 18:17:37.15ID:7I2qaVWZ0 butteraugjiはためしてみたけど
値が小さい方がいいっぽいね
画像ができたら数字比較してみるわ
値が小さい方がいいっぽいね
画像ができたら数字比較してみるわ
588名無しさん@お腹いっぱい。 (ワッチョイWW 4bc5-744s)
2017/01/15(日) 19:31:48.53ID:7I2qaVWZ0 butteraugliでエポックごとの
評価みたけど学習打ち切った時点で
まだあがってた
評価がサチるまで回しますが、
たぶんすごい時間かかります
二乗誤差じゃわからん
評価みたけど学習打ち切った時点で
まだあがってた
評価がサチるまで回しますが、
たぶんすごい時間かかります
二乗誤差じゃわからん
589名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD)
2017/01/15(日) 20:38:29.02ID:6WNzG8+M0 SRGANはやろうとした人を何人も見ましたが
みんなうまくいっていないので
写真のモデルでcheckboard artifactを出さずに
論文の結果と似たような画像を生成できればそれだけで価値があると思いますよ
みんなうまくいっていないので
写真のモデルでcheckboard artifactを出さずに
論文の結果と似たような画像を生成できればそれだけで価値があると思いますよ
590名無しさん@お腹いっぱい。 (ワッチョイ 0932-vSov)
2017/01/15(日) 21:26:01.39ID:0bystr9E0 SRGANはチャレンジですね。がんばってみます。
うまくいったら挑戦します。
butteraugli初耳だったんですが、スレ観たらビルドの仕方が
わからない人がいる模様。Linuxの開発したことのある人少ないんですかね。
Windows10のコマンドプロンプト開いて以下のコマンドで実行、
$ bash
コンパイラとライブラリインストール(zlibはpngと一緒に入る)、
$ sudo apt-get install gcc g++ make libjpeg-dev libpng-de
ソースコードのMakefileのあるディレクトリで
$ make
で実行ファイル作られます。bash上か他のLinuxマシンのみで動きます。
プログラマじゃない人も色々遊んでみてください。
うまくいったら挑戦します。
butteraugli初耳だったんですが、スレ観たらビルドの仕方が
わからない人がいる模様。Linuxの開発したことのある人少ないんですかね。
Windows10のコマンドプロンプト開いて以下のコマンドで実行、
$ bash
コンパイラとライブラリインストール(zlibはpngと一緒に入る)、
$ sudo apt-get install gcc g++ make libjpeg-dev libpng-de
ソースコードのMakefileのあるディレクトリで
$ make
で実行ファイル作られます。bash上か他のLinuxマシンのみで動きます。
プログラマじゃない人も色々遊んでみてください。
591名無しさん@お腹いっぱい。 (ワッチョイ 0932-vSov)
2017/01/15(日) 21:27:08.93ID:0bystr9E0 $ sudo apt-get install gcc g++ make libjpeg-dev libpng-dev
です。すんません。
です。すんません。
592名無しさん@お腹いっぱい。 (ワッチョイWW b37c-j87h)
2017/01/15(日) 21:29:00.78ID:lB/+H+EU0 waifu2x、再び!!
Stay tune!
Stay tune!
594名無しさん@お腹いっぱい。 (ワッチョイ ebb5-ir0y)
2017/01/18(水) 15:23:24.52ID:bain95gP0 Google、機械学習で低解像度画像をシャープに見せる「RAISR」をサービスで実用化
http://www.itmedia.co.jp/news/articles/1701/17/news067.html
http://www.itmedia.co.jp/news/articles/1701/17/news067.html
595名無しさん@お腹いっぱい。 (ワッチョイ 6b23-dHfL)
2017/01/18(水) 15:27:07.14ID:n4UMTi1p0596名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD)
2017/01/18(水) 15:39:56.54ID:xnw/jmuH0 やりたいことはYoutubeがすでやっている動画の再エンコと一緒じゃないかな
画質を改善するというより、苦情の少ない範囲で圧縮したいなので
運営としては通信量が減って嬉しいけどユーザーとしては以前よりも画質が悪くなるので
携帯事業者がやっていた「通信の最適化」と同じ考えだと思う
画質を改善するというより、苦情の少ない範囲で圧縮したいなので
運営としては通信量が減って嬉しいけどユーザーとしては以前よりも画質が悪くなるので
携帯事業者がやっていた「通信の最適化」と同じ考えだと思う
597名無しさん@お腹いっぱい。 (ワッチョイW 535b-Wsqm)
2017/01/18(水) 20:37:05.06ID:eyJLRRBJ0 でもそれで同じ容量で解像度が例えば1.5倍になれば話が変わる
色空間やインターレースしかり悪いばかりのトレードオフでは無いと思う
色空間やインターレースしかり悪いばかりのトレードオフでは無いと思う
598名無しさん@お腹いっぱい。 (ワッチョイ a399-8m7v)
2017/01/23(月) 19:31:01.14ID:B0/L9i7j0 waifu2x-cafeeをXeonとQuadro両方積んだPCで実行するときってどっちのほうが効率的なんだ?
ちなみにXeonは12コア3.30GHz、Quadroは2000。
ちなみにXeonは12コア3.30GHz、Quadroは2000。
599名無しさん@お腹いっぱい。 (ワッチョイW cf63-gIHQ)
2017/01/24(火) 00:16:40.73ID:RYhQuic60 >>598
Quadroの方が速いんじゃないですかねぇ?
↓の画像でXeon 16Core 3.6GHzで2分40秒ぐらい
CPU使用率は20%ほど XPx64環境で無理矢理実行したからちょっとアテにならないかもしれないけど
http://www.dotup.org/uploda/www.dotup.org1133523.jpg 変換元画像
http://www.dotup.org/uploda/www.dotup.org1133524.png 設定
Quadroの方が速いんじゃないですかねぇ?
↓の画像でXeon 16Core 3.6GHzで2分40秒ぐらい
CPU使用率は20%ほど XPx64環境で無理矢理実行したからちょっとアテにならないかもしれないけど
http://www.dotup.org/uploda/www.dotup.org1133523.jpg 変換元画像
http://www.dotup.org/uploda/www.dotup.org1133524.png 設定
600名無しさん@お腹いっぱい。 (ワッチョイW 7f1e-Zbvk)
2017/01/24(火) 08:27:54.07ID:2IuxhXxQ0 >>599
ハイエンドなマシンで動かしてらっしゃるようなので
NeuronDoubler v5.00だとどれぐらいかかるか検証して頂いてもいいですか?
http://loggialogic.blogspot.jp/2015/09/neurondoubler-v500.html?m=1
ハイエンドなマシンで動かしてらっしゃるようなので
NeuronDoubler v5.00だとどれぐらいかかるか検証して頂いてもいいですか?
http://loggialogic.blogspot.jp/2015/09/neurondoubler-v500.html?m=1
601599 (ワッチョイW cf63-gIHQ)
2017/01/24(火) 23:23:52.69ID:RYhQuic60 >>600
sampleのlogo.pngを2倍で16s、4倍で66s
sampleのphoto.pngを2倍で44s、4倍で200s
といった感じです
32倍をlogo.pngでやってみたら1876sとかかかったので、photo.pngの方は試してないですw
sampleのlogo.pngを2倍で16s、4倍で66s
sampleのphoto.pngを2倍で44s、4倍で200s
といった感じです
32倍をlogo.pngでやってみたら1876sとかかかったので、photo.pngの方は試してないですw
602名無しさん@お腹いっぱい。 (ワッチョイ 7f1e-a3Th)
2017/01/25(水) 09:31:13.38ID:7PUj0Uuc0 >>601
ありがとうございます
手持ちのMacbook Pro late 2012では
960×540のpng(写真)を変換したところ1600s
ぐらいでした
16コアもあると動画用にNeuronDoublerを使えそうで羨ましいです
ありがとうございます
手持ちのMacbook Pro late 2012では
960×540のpng(写真)を変換したところ1600s
ぐらいでした
16コアもあると動画用にNeuronDoublerを使えそうで羨ましいです
603名無しさん@お腹いっぱい。 (ワッチョイWW 3332-z0uo)
2017/01/25(水) 21:02:31.59ID:idIVVLyq0 waifu2x研究家なんですけど
GANのPSNR問題解消しそうなので
週末画像出します
waifu2xと同じupモデルをこっちで
再現したものとの比較しますが
時間がかかるのでそれ以外との
比較は難しいです
何個かネタがあってそのマイルストーンです
3月に資料作るのでそのとき
リンク張ります
GANのPSNR問題解消しそうなので
週末画像出します
waifu2xと同じupモデルをこっちで
再現したものとの比較しますが
時間がかかるのでそれ以外との
比較は難しいです
何個かネタがあってそのマイルストーンです
3月に資料作るのでそのとき
リンク張ります
604名無しさん@お腹いっぱい。 (ワッチョイ 4fd2-C7aL)
2017/01/26(木) 00:25:26.80ID:AnODLToW0 単純にはMSEとGANの出力を適当な割合で合成すればいいように思うけど
重くなるので学習の枠内でやれればいいですね
あとneural-enhanceの人も最近waifu2x的なやつをやろうとしているみたいです
https://twitter.com/madebyollin/status/823652970440986624
これは別の人の結果だけど、たしかに線はくっきりしているけど余計なことをしすぎているように見える
重くなるので学習の枠内でやれればいいですね
あとneural-enhanceの人も最近waifu2x的なやつをやろうとしているみたいです
https://twitter.com/madebyollin/status/823652970440986624
これは別の人の結果だけど、たしかに線はくっきりしているけど余計なことをしすぎているように見える
605名無しさん@お腹いっぱい。 (ワッチョイ 2b32-xu7M)
2017/01/26(木) 06:13:14.86ID:9CM3n4Bd0 >604
適当な割合で合成すればいいんですけどふたつ問題があって
1. 適切な混合比率がタスクによって違う
2. 結果が不安定でうまくいってるエポックとそうでないエポックのばらつきが大きい
なので、前者については二乗誤差に対して何%GANを反映するのかって
コントロールを入れています。
GANが余計なことをするのは誤差のGANの項が正解データとの比較を
しないからじゃないかってことで正解データと比較するGANをは
考えてみました。
GANなしに比べてSSIM、PSNRは同等、butteraugliはかなり良くなってます。
正解データと比較する時点でGANの解釈がかなり変わるんですが
(評価中なので正確な値は週末出します)
適当な割合で合成すればいいんですけどふたつ問題があって
1. 適切な混合比率がタスクによって違う
2. 結果が不安定でうまくいってるエポックとそうでないエポックのばらつきが大きい
なので、前者については二乗誤差に対して何%GANを反映するのかって
コントロールを入れています。
GANが余計なことをするのは誤差のGANの項が正解データとの比較を
しないからじゃないかってことで正解データと比較するGANをは
考えてみました。
GANなしに比べてSSIM、PSNRは同等、butteraugliはかなり良くなってます。
正解データと比較する時点でGANの解釈がかなり変わるんですが
(評価中なので正確な値は週末出します)
606名無しさん@お腹いっぱい。 (ワッチョイ 2b32-xu7M)
2017/01/26(木) 06:33:06.18ID:9CM3n4Bd0 わかる人がまわりにいないので、ここに書いてあれなんですけど、
従来のGAN)
Discriminatorで本物らしさを判定して誤差に反映
自分の手法)
本物らしさを学習したDiscriminatorの中間層の出力を
本物と生成データで比較、となります。
Discriminatorの中間層は通常の二乗誤差で比較するのと比べて
大幅に大きい情報量で比較するのと、Discriminator自体が
誤差関数になるので普通の二乗誤差と比べると複雑、高度な比較になります。
Twitterが出してる論文は物体認識を学習させたモデルで中間層の出力で
比較しろ、と書いてあって、これがコンテンツロスなんですが、
コンテンツロスの適用部分はGANに対してやった方がいいのでは
というのが自分の意見です。
従来のGAN)
Discriminatorで本物らしさを判定して誤差に反映
自分の手法)
本物らしさを学習したDiscriminatorの中間層の出力を
本物と生成データで比較、となります。
Discriminatorの中間層は通常の二乗誤差で比較するのと比べて
大幅に大きい情報量で比較するのと、Discriminator自体が
誤差関数になるので普通の二乗誤差と比べると複雑、高度な比較になります。
Twitterが出してる論文は物体認識を学習させたモデルで中間層の出力で
比較しろ、と書いてあって、これがコンテンツロスなんですが、
コンテンツロスの適用部分はGANに対してやった方がいいのでは
というのが自分の意見です。
607名無しさん@お腹いっぱい。 (ワッチョイW f7cf-bF0B)
2017/01/26(木) 08:44:57.33ID:BNYEQ6nK0 こういうやつに税金投入するべき
608名無しさん@お腹いっぱい。 (ワッチョイ 4fd2-C7aL)
2017/01/26(木) 13:58:06.91ID:AnODLToW0 イラストの超解像でperceptual lossにImageNetの学習済みモデルを使うのがよくないのは明らかなので
Discriminatorが使えるならそれは同じ解像度のイラストで学習しているわけだからよさそうですね
ただDiscriminatorは学習中に動くので不安定そうですが
GAN自体がそういうものなので動く感じでしょうか
Discriminatorが使えるならそれは同じ解像度のイラストで学習しているわけだからよさそうですね
ただDiscriminatorは学習中に動くので不安定そうですが
GAN自体がそういうものなので動く感じでしょうか
609名無しさん@お腹いっぱい。 (JP 0H73-xu7M)
2017/01/26(木) 14:51:03.26ID:owYC7mKIH どうも、wiafu2x研究家の人です。
Twitter社の論文読んだとき、コンテンツロスがめちゃくちゃ
めんどくさいので俺はあきらめました(コンテンツロスのために
物体認識のタスクもやらないといけなくなるので大いに藪蛇)。
SRGANがみんなうまくいかない原因はsoftmax、softplusを
そのまま誤差にするから結果が不安定で調整が難しい、
のが大きなところかと思います。
そもそものDCGAN自体も論文の趣旨がうまく生成できる
パラメータが見つかりましたって部分ですからね。
ちなみに自分はSRCNNは勉強会の発表ネタなので、8月に
一か月実験したのと3月の発表があるのでそれで今だけ
やってるだけなので、先行技術のサーベイが非常に
あやしい(何も知らない)のでご教授いただけると幸いです。
今のところもう一個ネタがあって、画像ごとに重要度マップを
作って誤差に重み付けする方法を考えています。
多分来月前半には実験してると思います。
Twitter社の論文読んだとき、コンテンツロスがめちゃくちゃ
めんどくさいので俺はあきらめました(コンテンツロスのために
物体認識のタスクもやらないといけなくなるので大いに藪蛇)。
SRGANがみんなうまくいかない原因はsoftmax、softplusを
そのまま誤差にするから結果が不安定で調整が難しい、
のが大きなところかと思います。
そもそものDCGAN自体も論文の趣旨がうまく生成できる
パラメータが見つかりましたって部分ですからね。
ちなみに自分はSRCNNは勉強会の発表ネタなので、8月に
一か月実験したのと3月の発表があるのでそれで今だけ
やってるだけなので、先行技術のサーベイが非常に
あやしい(何も知らない)のでご教授いただけると幸いです。
今のところもう一個ネタがあって、画像ごとに重要度マップを
作って誤差に重み付けする方法を考えています。
多分来月前半には実験してると思います。
610名無しさん@お腹いっぱい。 (ワッチョイ 4fd2-C7aL)
2017/01/26(木) 16:22:50.49ID:AnODLToW0 物体認識の学習済みモデルは配布されているので自前で学習する必要はないです(再現させる場合)。
generatorの出力とgroundtruthそれぞれをそのネットワークに入力して
適当な層(convの2,3層目)の出力が同じになるようにMSEを最小化するのがperceptual loss(コンテンツロス)で
それとdiscriminatorを使ったadversarial lossで
loss = perceptual_loss * perceptual_loss_weight + adversarial_loss * adversarial_loss_weight
を最小化するように拡大前の画像を入力とするgeneratorを学習するのがSRGANという認識です。
なので違いはコンテンツロスに使うモデルを変えているところだと思いました。
自分もGANはやったことがないので違ってるかもしれません。
generatorの出力とgroundtruthそれぞれをそのネットワークに入力して
適当な層(convの2,3層目)の出力が同じになるようにMSEを最小化するのがperceptual loss(コンテンツロス)で
それとdiscriminatorを使ったadversarial lossで
loss = perceptual_loss * perceptual_loss_weight + adversarial_loss * adversarial_loss_weight
を最小化するように拡大前の画像を入力とするgeneratorを学習するのがSRGANという認識です。
なので違いはコンテンツロスに使うモデルを変えているところだと思いました。
自分もGANはやったことがないので違ってるかもしれません。
611名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy)
2017/01/26(木) 16:48:26.18ID:j7MEo8mlr 説明ありがとうございます
認識合わせできました
自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが
なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです
それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました
認識合わせできました
自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが
なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです
それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました
612名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy)
2017/01/26(木) 17:17:12.53ID:j7MEo8mlr ganのloss_weightがセンシティブで
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います
学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます
自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います
後でスレの人に厳しいデータ教えてもらおうと思います
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います
学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます
自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います
後でスレの人に厳しいデータ教えてもらおうと思います
613名無しさん@お腹いっぱい。 (ファミマWW FFd2-fIWv)
2017/01/26(木) 19:03:54.54ID:tDU6wUAkF 詳しいことはよくわからないけど、ガンガレ。超ガンガレ。
どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…
どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…
614名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy)
2017/01/28(土) 11:47:38.55ID:edepqLn8r waifu2xの研究してる人なんだけど
すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...
すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...
615名無しさん@お腹いっぱい。 (ワッチョイ 86ec-AZYz)
2017/01/28(土) 14:42:13.13ID:BYBTK1en0 chainerで線画着色をwebサービスにして公開してみた
http://qiita.com/taizan/items/7119e16064cc11500f32
http://qiita.com/taizan/items/7119e16064cc11500f32
616名無しさん@お腹いっぱい。 (ワッチョイ 86ec-AZYz)
2017/01/28(土) 15:02:18.06ID:BYBTK1en0 >>614
楽しみにしてますがゆっくりやってくだちい
楽しみにしてますがゆっくりやってくだちい
617名無しさん@お腹いっぱい。 (ワッチョイ a36a-AZYz)
2017/01/28(土) 15:17:47.96ID:jlInyXUj0618名無しさん@お腹いっぱい。 (ワッチョイ a239-WSvd)
2017/01/28(土) 15:35:09.06ID:iZRmUjsJ0619名無しさん@お腹いっぱい。 (ワッチョイ 4725-AZYz)
2017/01/30(月) 14:56:45.57ID:pPztTfPj0 あいかわらず
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい
620名無しさん@お腹いっぱい。 (ワッチョイ a36a-zMqm)
2017/01/30(月) 18:04:46.45ID:qudbf77R0 今更ながら>>615-616に気付いた
自演すんなよw
自演すんなよw
621名無しさん@お腹いっぱい。 (ワッチョイ b70f-hijU)
2017/01/30(月) 18:20:11.64ID:AIhudIHS0 >>620
アンカちゃんと読もうなー
アンカちゃんと読もうなー
622名無しさん@お腹いっぱい。 (ワッチョイWW 4785-1CvP)
2017/01/31(火) 03:28:18.08ID:Mk/X4pNp0623名無しさん@お腹いっぱい。 (ワッチョイWW db49-u9qX)
2017/02/01(水) 00:48:53.09ID:47em4zG90624名無しさん@お腹いっぱい。 (ワッチョイ c664-FuHd)
2017/02/01(水) 18:15:33.93ID:r8gMgX8Z0■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 中国国連大使「日本が中国に武力行使すると脅しをかけたのは初めて」 国連事務総長に書簡★5 [♪♪♪★]
- 【芸能】篠田麻里子「水戸黄門」のオフショット公開!「くの一姿が可愛い」「うっひゃー」「スケさんカクさんが羨ましい!」 [湛然★]
- 高市首相告白「『なめられない服』を選ぶことに数時間を費やしました」「外交交渉でマウント取れる服、買わなくてはいかんかもなぁ」★4 [ぐれ★]
- 【🐼】パンダ、日本で会えなくなる? 中国との関係悪化で不安の声 ★2 [ぐれ★]
- 【芸能】44歳・池脇千鶴、激変ぶりにネット衝撃 「まるで別人…」「変化が凄い!!」の声 [冬月記者★]
- 【芸能】高橋ひかる、白ワントーン冬コーデにくぎ付け!「美しすぎて恐れ多い」「天使降臨」「透明感半端ない」 [湛然★]
- 【速報】高市、今度はロシアに喧嘩を売る [329271814]
- 適当な嘘をついてその場を切り抜けてるけど
- 佐藤、鈴木、高橋、田中、伊藤、渡辺、山本、中村、小林、加藤、これらの名字の奴ちょっと来い
- 朝市に飲むココアはおいしい
- 【動画】チー牛「なんかやべえ奴に首締められて草w」👈人を殺した直後だったことが判明... [856698234]
- Jリーグあるある言いたい…Jリーグあるある早く言いたい🙄 [142738332]
