【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net

■ このスレッドは過去ログ倉庫に格納されています
2016/05/10(火) 11:28:05.20ID:h2o6wyXCa
画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。

--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/

・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436

・waifu2xとその派生ソフト一覧
※リンクがNGワードに!

・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437

・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/

・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html

・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
2016/12/23(金) 20:40:47.34ID:m2BLsLT80
ごめんグラボよく分からないから523は無しでw
2016/12/23(金) 20:52:17.48ID:zVH9+6gN0
>>524
ありがとうございます
2016/12/23(金) 21:04:41.82ID:2fSZFBUld
>>526
ttaの有無、分割サイズ、変換する画像の大まかなサイズなど詳しく教えていただければ自分のpcで走らせてみますがどうでしょう?
多少なりとも参考になると思います。
2016/12/23(金) 23:22:19.50ID:8WQGOLBP0
AMDから今度出るGPUが深層学習向けらしいけど
このソフトでも早くなるのかな
2016/12/23(金) 23:46:46.15ID:rtorBkxO0
>>509
さっき覗いたら更新来てた
音ズレ検証してみたけど解消してるわ
これはいいで
2016/12/24(土) 15:31:26.95ID:OFvUtbxO0EVE
処理速度をベンチマークするbat書いたよ
動くかどうか分からないけど奇特な人はチャレンジしてみて。

https://www.dropbox.com/s/5p9lnl62qnlk69v/waifu2x_benchmark_v1.zip?dl=0
531名無しさん@お腹いっぱい。 (ワッチョイ 34e1-t+3N)
垢版 |
2016/12/28(水) 17:41:29.27ID:08hGKA3e0
オンボのノートPCじゃこのソフト使えないんでしょうか?
1280×800の画像1枚を2倍にしたいだけなんですが実行ボタン押しても残り時間:不明って出てフリーズします。
ウェブ版は普通に使えます
2016/12/28(水) 17:49:55.63ID:BK0VqACV0
waifu2x-caffeなら時間かかるが動くんじゃね
2016/12/28(水) 17:51:02.58ID:6hOu5zQ90
とにかくColorProfile対応してくれることを望みます
ちょっとライトエフェクトとかある差分画像とか全体が全く違う色になって困り果ててしまうわ
これで動画のエンコなんてしたらもう…
534名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)
垢版 |
2016/12/28(水) 18:09:49.29ID:08hGKA3e0
>>532
ありがとうございます。ソフト名を書くのを忘れていました。
そのwaifu2x-caffeでフリーズしてしまうのです。
2016/12/28(水) 18:13:18.56ID:BK0VqACV0
>>534
じゃあ明日まで待つ
2016/12/28(水) 18:14:43.22ID:ClaiyaoC0
>>534
残り時間不明のまま一見なにも起きない(裏でちゃんとうごいてる)
のは仕様だと思いますが。CPU使用率を見てれば動いてるかどうか
分かるよ
2016/12/28(水) 18:39:45.55ID:ABw+Y6U70
>>533
大人しくmadvrのNGU使え
2016/12/28(水) 18:40:08.51ID:YGxoh5pu0
初期設定だとCUDAで変換するようになってるけど環境がCUDAに対応しているかチェックする時に躓いているのかな
動作設定で使用プロセッサーをCPUにすれば動くと思うけど
539名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm)
垢版 |
2016/12/28(水) 19:59:06.13ID:08hGKA3e0
>>538
動作設定はCPUにしております。CPU使用率は80%以上でございます。Braswellでは非力すぎて動かないのかな
2016/12/28(水) 20:51:23.97ID:YGxoh5pu0
>>539
時間がかかるだけで変換出来ないって事はないと思うんだけどね
あと気をつけないといけないと思うのは分割サイズを大きくしすぎるとメモリを食ってOSごとフリーズする事くらいかな
2016/12/28(水) 23:07:48.09ID:ClaiyaoC0
なんだ、終わるまで待てない人だったかw
2016/12/28(水) 23:12:10.69ID:p2Cg+1Vx0
進捗バーが動くものだと思ってるんだろうな
2016/12/28(水) 23:49:47.12ID:9pSB/lfO0
あの進捗、ファイル数なんだよなぁ(´・ω・`) 大漁のファイル掘り込めばバー動くけど
オンボろノートで1280×800を2倍拡大だと数分掛かるんじゃね?
2016/12/28(水) 23:53:04.70ID:BK0VqACV0
重たい処理したいときはこのあたりのソフト使うと良いよ

【優先度】CPU最適化スレ 3CPU【自動変更】
http://potato.2ch.net/test/read.cgi/software/1327059116/
545531 (ワッチョイW b2e1-EzRd)
垢版 |
2016/12/30(金) 14:31:11.67ID:tIIWopzb0
辛抱強く待ってたら一応完了したのですが出力先を見たら何もできていませんでした‥.

モデルのUpPhotoとphotoの違いは何でしょうか?
2016/12/30(金) 14:40:02.55ID:RVSItgrB0
出力先指定してあるの?違う所見てない? それか上書になってない?

無印は標準モデル
Up印は速度優先モデル(と言っても倍程度。出来上がりに大差はないけど物によっては気になるかもしれない)
2016/12/30(金) 17:02:37.88ID:G+DVIbZ50
1060が届いたので試してみました
・・・・・・・・・・あまり変わっていない?
分割サイズを128から240にしたけど、う〜ん

後cuDNNってなんぞ?
2016/12/30(金) 18:12:22.39ID:X3KvqHdb0
cuDNNはNVIDIAが別で配布しているライブラリ
ディープラーニング用のAPIが入ってる

waifu2xはほとんどの処理時間は
コンボリューションで、cuDNNに
含まれるAPIなので恐らく速くなるはず

caffeeの自前実装のコンボリューションが
鬼のように最適化されてたら変わらんかも
しれんが比較したことないので知らん
2016/12/30(金) 18:20:53.02ID:nC1+/K860
>>548
ここに各種条件でのベンチマーク結果が書いてあるよ
https://github.com/lltcggie/waifu2x-caffe
2016/12/30(金) 18:21:04.13ID:vUMlJ/xP0
cuDNN RGBモデル

| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:03.170 | 278 |
| 125 | 00:00:02.745 | 279 |
| 200 | 00:00:02.253 | 365 |
| 250 | 00:00:02.147 | 446 |
| 500 | 00:00:01.982 | 1110 |

CUDA RGBモデル

| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:06.192 | 724 |
| 125 | 00:00:05.504 | 724 |
| 200 | 00:00:04.642 | 1556 |
| 250 | 00:00:04.436 | 2345 |
| 500 | 計測不能 | 計測不能(6144以上) |
2016/12/30(金) 18:34:48.69ID:G+DVIbZ50
>>548
英文書いて登録とか俺には無理だわ
単にチェック入れるだけならな
2016/12/30(金) 18:46:40.90ID:nwoXjDvq0
CUDAとcuDNN、処理時間倍違うのかよ。
さらにup系で倍、ファファファノファー
2016/12/31(土) 00:37:50.29ID:AExTirDU0
Upは速度優先ではなくて速度精度ともに無印より上だよ
2016/12/31(土) 00:39:48.58ID:RK8kbYryH
Up使うとほとんど無印よりきたねー結果になるんだがなんでた?
2016/12/31(土) 00:50:31.70ID:p7hb+TgK0
>>554
アーティファクトが出やすい問題がある>>41 >>274
最新の二次元モデルでは出にくくなってはいるけど
2016/12/31(土) 00:55:45.82ID:p7hb+TgK0
あ、あとcaffeでノイズ除去のみする場合はRGBのほうがいい
2016/12/31(土) 08:15:58.58ID:leMGDIx60
>>553
ほんとにそうなら無印いらなくない?
>>555の問題があるからだから残ってるんでしょ?
だからそういうのは精度上とは言わないもんじゃない?
2016/12/31(土) 08:28:57.23ID:AjfKh5GG0
cuDNNだけどっかに落ちてねーの?
2016/12/31(土) 08:40:38.66ID:AExTirDU0
>>557
数百枚に対するベンチマーク(PSNR)では数値的に上
2016/12/31(土) 22:34:22.56ID:sFjW5xQA0
cuDNN64.5.dll見っけた
探せばあるもんだなぁ
早速導入
おほっ滅茶早ww
2016/12/31(土) 23:03:42.96ID:sFjW5xQA0
分轄サイズを384にすると5GB以上使って4〜5分だったものが1分掛からずに終了
メモリ使用量は1GB程度に減ってた
cuDNN凄いな
2016/12/31(土) 23:51:10.10ID:c2L6UkQy0
うpしようとしてたけどやめて良かった
2017/01/01(日) 06:27:46.76ID:kaC7n5qt0
nvidiaに登録すればDLできるし、探すほどのものでもないべ
2017/01/01(日) 08:15:07.66ID:Rld7TCmj0
この凄さは良い1060のおかげもメモリ量もあって半分くらいはあるのかな?
あってくれ、でないと¥27,000が泣く
2017/01/01(日) 11:52:36.53ID:ZNSLWmzy0
ウィルス付だったり変な改変受けてたりするのも有るし
そんなに難しくないから適当に登録した方が安心
2017/01/04(水) 13:37:33.40ID:3JPHOCLB0
Kaby Lake-S「Core i7-7700K」基礎検証レポート。注目すべきは絶対性能ではなく,電力対性能比だ - 4Gamer.net
http://www.4gamer.net/games/344/G034458/20170102001/

waifu2xでベンチマークしてて笑う
2017/01/04(水) 19:59:44.27ID:dGeuxDic0
>>566
ディープラーニングの推定工程ベンチマークとして便利かもしれないな
2017/01/04(水) 20:11:49.14ID:IycFIp3h0
笑うとか意味不でキムチワル
2017/01/04(水) 22:02:39.62ID:CPp7npvh0
というかしょっぱすぎる性能だな
Ryzen頑張ってくれよ本当に…
2017/01/07(土) 23:25:48.14ID:kGxVSOqh0
中の人Pixivだったのか納得した
2017/01/08(日) 19:04:40.17ID:ZpzukTrs0
waifu2xのことなら、中の人の定義によるけど
開発している人(俺)はpixivではないよ
サーバーはpixivの方が運営しているけど
2017/01/14(土) 04:19:51.80ID:AOMWwbEx0
このスレを見ている人間にとっては大嫌いなレガシー不可逆画像コーデックJPEGに新たなエンコーダが
ttp://gigazine.net/news/20170113-google-guetzli/
人間の目に最適化した極低速高圧縮JPEGエンコーダGuetzli

SSIM:             libjpeg比 14%悪化
PSNRHVS-M:        libjpeg比 14%悪化
butteraugli:         libjpeg比 30%良化
エンコード速度:       libjpeg比 10000%+悪化
同等画質サイズ:       libjpeg比 35%良化
同等画質転送レート:    libjpeg比 35%良化
ttps://translate.google.co.jp/translate?sl=en&tl=ja&u=http%3A%2F%2Fencode.ru%2Fthreads%2F2628
ttp://encode.ru/threads/2628

長すぎるエンコード時間(消費エネルギー)という元手・投資を取り返すには何回その画像ダウンロードされないといけないんだろうな
性能はたしかに良いからお試しあれ
2017/01/14(土) 10:43:46.82ID:kO6Aianq0
よくわからんが、電算機関連の話では
性能って普通は速度(時間)のことを言うんじゃないのか
2017/01/14(土) 11:55:01.52ID:cz8mjfgz0
GuetzliよりGuetzliの性能を評価したbutteraugliってやつのほうが気になる。
SSIMやPSNRより人間の主観に近い画質指標なのかな。
2017/01/14(土) 12:31:07.66ID:ySHnyXEvM
butteraugliでwaifu2xと他の拡大アルゴリズムの比較されたら、どんな結果が出るのだろうな
2017/01/14(土) 13:15:34.86ID:3XEqy+Cv0
リファレンスのpngをq89ぐらいにすると、
似たサイズになるんだけど、確かに通常より綺麗だな。
waifuで拡大したほうが超綺麗になったけど、そういう問題じゃないからね。
2017/01/14(土) 16:10:52.71ID:cz8mjfgz0
>>575
自分もそう思ったんだけどbutteraugliのビルド方法がよく分からなくて断念したよ。
Googleがバイナリを配布してくれればいいんだけどね。

というかほぼGoogleしか使ってない指標でGoogleのエンコーダを評価されても性能が良く分からないよなと思う。
2017/01/14(土) 18:56:54.13ID:0SNYGzDGd
>>577
https://github.com/google/guetzli/releases
2017/01/15(日) 09:56:09.63ID:0bystr9E0
waifu2xの後追いして遊んでるんだけど
作者氏、GAN使うの嫌がってるんだよね

とりあえずGAN、ResNet、PixelSuffle
実装してみたけど見た目SRCNN臭さは
だいぶとれるけどたくさん評価
してないので微妙

俺の本丸は計算量削減なんだけど
理論上計算量3割のはずなのに
3割しか早くならない

chainer、推論遅くないか
2017/01/15(日) 12:05:43.60ID:lB/+H+EU0
サンプル画像すら出さないで何を言わんや…
2017/01/15(日) 12:31:47.79ID:KsNDNARPr
評価中なので待ってください
一回回すのに10時間かかるので
何日かかかります
2017/01/15(日) 13:36:32.29ID:Ux9tIyw00
スクール水着の凹凸を判断してテカテカのラバーコーティングの水着にできる?
2017/01/15(日) 13:52:26.00ID:HieKzZb90
いいなそれ
2017/01/15(日) 15:35:17.21ID:6WNzG8+M0
>>579
GANはPSNRをあまり下げずに使えるならいいですが
(ロス関数の重みの調節で出来ると思いますがトレードオフがあるのでGAN使う意味がなくなってきそう)
PSNRがBicubic以下になると
変換結果に不安があるため現在BicubcやLanczosが使われる領域での置き換えには使えないと思って避けています。
もちろんいくつかモデル作って選択できるようにすればいいだけですが
面倒なのでやっていない状態です。ResNetはdevブランチには入ってます。
2017/01/15(日) 15:46:09.89ID:7I2qaVWZ0
>584
GANについては混合比率下げると
全くなしと見分けがつかないので
PSNRは必ず犠牲になる印象です

3dB近く悪くなるので受容できないで
しょうね

GANは学習すごく遅くなるので
つらいです

GANは学習回数多くしないとだめ
なのでもしかしたら今足りてない
可能性があるので後でしつこく
やってみます

作者さんも自分で実験するのが
めんどいと思うので結果はアップして
共有します
2017/01/15(日) 15:59:53.33ID:6WNzG8+M0
butteraugli というので本当に見た目の印象が定量評価できるならそれもあり思いますね。
僕が見た目の評価嫌う理由は、たいして見る目がない人がリンギングでまってくる画像を
くっきりしているからよいとか判定してしまうところにあるので。
2017/01/15(日) 18:17:37.15ID:7I2qaVWZ0
butteraugjiはためしてみたけど
値が小さい方がいいっぽいね

画像ができたら数字比較してみるわ
2017/01/15(日) 19:31:48.53ID:7I2qaVWZ0
butteraugliでエポックごとの
評価みたけど学習打ち切った時点で
まだあがってた

評価がサチるまで回しますが、
たぶんすごい時間かかります

二乗誤差じゃわからん
2017/01/15(日) 20:38:29.02ID:6WNzG8+M0
SRGANはやろうとした人を何人も見ましたが
みんなうまくいっていないので
写真のモデルでcheckboard artifactを出さずに
論文の結果と似たような画像を生成できればそれだけで価値があると思いますよ
2017/01/15(日) 21:26:01.39ID:0bystr9E0
SRGANはチャレンジですね。がんばってみます。
うまくいったら挑戦します。

butteraugli初耳だったんですが、スレ観たらビルドの仕方が
わからない人がいる模様。Linuxの開発したことのある人少ないんですかね。

Windows10のコマンドプロンプト開いて以下のコマンドで実行、

$ bash

コンパイラとライブラリインストール(zlibはpngと一緒に入る)、

$ sudo apt-get install gcc g++ make libjpeg-dev libpng-de

ソースコードのMakefileのあるディレクトリで

$ make

で実行ファイル作られます。bash上か他のLinuxマシンのみで動きます。

プログラマじゃない人も色々遊んでみてください。
591名無しさん@お腹いっぱい。 (ワッチョイ 0932-vSov)
垢版 |
2017/01/15(日) 21:27:08.93ID:0bystr9E0
$ sudo apt-get install gcc g++ make libjpeg-dev libpng-dev

です。すんません。
2017/01/15(日) 21:29:00.78ID:lB/+H+EU0
waifu2x、再び!!
Stay tune!
2017/01/15(日) 22:37:39.20ID:3/ESU5jW0
>>590
ありがとうございます。
ビルドできました。
2017/01/18(水) 15:23:24.52ID:bain95gP0
Google、機械学習で低解像度画像をシャープに見せる「RAISR」をサービスで実用化
http://www.itmedia.co.jp/news/articles/1701/17/news067.html
2017/01/18(水) 15:27:07.14ID:n4UMTi1p0
>>594
これyoutube動画でもやってくれないかな。
あと動画上の物体の形や位置を認識してサラウンド感を与えるとか。
2017/01/18(水) 15:39:56.54ID:xnw/jmuH0
やりたいことはYoutubeがすでやっている動画の再エンコと一緒じゃないかな
画質を改善するというより、苦情の少ない範囲で圧縮したいなので
運営としては通信量が減って嬉しいけどユーザーとしては以前よりも画質が悪くなるので
携帯事業者がやっていた「通信の最適化」と同じ考えだと思う
2017/01/18(水) 20:37:05.06ID:eyJLRRBJ0
でもそれで同じ容量で解像度が例えば1.5倍になれば話が変わる
色空間やインターレースしかり悪いばかりのトレードオフでは無いと思う
2017/01/23(月) 19:31:01.14ID:B0/L9i7j0
waifu2x-cafeeをXeonとQuadro両方積んだPCで実行するときってどっちのほうが効率的なんだ?
ちなみにXeonは12コア3.30GHz、Quadroは2000。
2017/01/24(火) 00:16:40.73ID:RYhQuic60
>>598
Quadroの方が速いんじゃないですかねぇ?

↓の画像でXeon 16Core 3.6GHzで2分40秒ぐらい
CPU使用率は20%ほど XPx64環境で無理矢理実行したからちょっとアテにならないかもしれないけど
http://www.dotup.org/uploda/www.dotup.org1133523.jpg 変換元画像
http://www.dotup.org/uploda/www.dotup.org1133524.png 設定
2017/01/24(火) 08:27:54.07ID:2IuxhXxQ0
>>599
ハイエンドなマシンで動かしてらっしゃるようなので
NeuronDoubler v5.00だとどれぐらいかかるか検証して頂いてもいいですか?
http://loggialogic.blogspot.jp/2015/09/neurondoubler-v500.html?m=1
2017/01/24(火) 23:23:52.69ID:RYhQuic60
>>600
sampleのlogo.pngを2倍で16s、4倍で66s
sampleのphoto.pngを2倍で44s、4倍で200s
といった感じです

32倍をlogo.pngでやってみたら1876sとかかかったので、photo.pngの方は試してないですw
2017/01/25(水) 09:31:13.38ID:7PUj0Uuc0
>>601
ありがとうございます
手持ちのMacbook Pro late 2012では
960×540のpng(写真)を変換したところ1600s
ぐらいでした
16コアもあると動画用にNeuronDoublerを使えそうで羨ましいです
2017/01/25(水) 21:02:31.59ID:idIVVLyq0
waifu2x研究家なんですけど
GANのPSNR問題解消しそうなので
週末画像出します

waifu2xと同じupモデルをこっちで
再現したものとの比較しますが
時間がかかるのでそれ以外との
比較は難しいです

何個かネタがあってそのマイルストーンです

3月に資料作るのでそのとき
リンク張ります
2017/01/26(木) 00:25:26.80ID:AnODLToW0
単純にはMSEとGANの出力を適当な割合で合成すればいいように思うけど
重くなるので学習の枠内でやれればいいですね

あとneural-enhanceの人も最近waifu2x的なやつをやろうとしているみたいです
https://twitter.com/madebyollin/status/823652970440986624
これは別の人の結果だけど、たしかに線はくっきりしているけど余計なことをしすぎているように見える
2017/01/26(木) 06:13:14.86ID:9CM3n4Bd0
>604
適当な割合で合成すればいいんですけどふたつ問題があって

1. 適切な混合比率がタスクによって違う
2. 結果が不安定でうまくいってるエポックとそうでないエポックのばらつきが大きい

なので、前者については二乗誤差に対して何%GANを反映するのかって
コントロールを入れています。

GANが余計なことをするのは誤差のGANの項が正解データとの比較を
しないからじゃないかってことで正解データと比較するGANをは
考えてみました。

GANなしに比べてSSIM、PSNRは同等、butteraugliはかなり良くなってます。
正解データと比較する時点でGANの解釈がかなり変わるんですが
(評価中なので正確な値は週末出します)
2017/01/26(木) 06:33:06.18ID:9CM3n4Bd0
わかる人がまわりにいないので、ここに書いてあれなんですけど、

従来のGAN)
Discriminatorで本物らしさを判定して誤差に反映

自分の手法)
本物らしさを学習したDiscriminatorの中間層の出力を
本物と生成データで比較、となります。

Discriminatorの中間層は通常の二乗誤差で比較するのと比べて
大幅に大きい情報量で比較するのと、Discriminator自体が
誤差関数になるので普通の二乗誤差と比べると複雑、高度な比較になります。

Twitterが出してる論文は物体認識を学習させたモデルで中間層の出力で
比較しろ、と書いてあって、これがコンテンツロスなんですが、
コンテンツロスの適用部分はGANに対してやった方がいいのでは
というのが自分の意見です。
2017/01/26(木) 08:44:57.33ID:BNYEQ6nK0
こういうやつに税金投入するべき
2017/01/26(木) 13:58:06.91ID:AnODLToW0
イラストの超解像でperceptual lossにImageNetの学習済みモデルを使うのがよくないのは明らかなので
Discriminatorが使えるならそれは同じ解像度のイラストで学習しているわけだからよさそうですね
ただDiscriminatorは学習中に動くので不安定そうですが
GAN自体がそういうものなので動く感じでしょうか
2017/01/26(木) 14:51:03.26ID:owYC7mKIH
どうも、wiafu2x研究家の人です。

Twitter社の論文読んだとき、コンテンツロスがめちゃくちゃ
めんどくさいので俺はあきらめました(コンテンツロスのために
物体認識のタスクもやらないといけなくなるので大いに藪蛇)。

SRGANがみんなうまくいかない原因はsoftmax、softplusを
そのまま誤差にするから結果が不安定で調整が難しい、
のが大きなところかと思います。

そもそものDCGAN自体も論文の趣旨がうまく生成できる
パラメータが見つかりましたって部分ですからね。

ちなみに自分はSRCNNは勉強会の発表ネタなので、8月に
一か月実験したのと3月の発表があるのでそれで今だけ
やってるだけなので、先行技術のサーベイが非常に
あやしい(何も知らない)のでご教授いただけると幸いです。

今のところもう一個ネタがあって、画像ごとに重要度マップを
作って誤差に重み付けする方法を考えています。
多分来月前半には実験してると思います。
2017/01/26(木) 16:22:50.49ID:AnODLToW0
物体認識の学習済みモデルは配布されているので自前で学習する必要はないです(再現させる場合)。
generatorの出力とgroundtruthそれぞれをそのネットワークに入力して
適当な層(convの2,3層目)の出力が同じになるようにMSEを最小化するのがperceptual loss(コンテンツロス)で
それとdiscriminatorを使ったadversarial lossで
loss = perceptual_loss * perceptual_loss_weight + adversarial_loss * adversarial_loss_weight
を最小化するように拡大前の画像を入力とするgeneratorを学習するのがSRGANという認識です。
なので違いはコンテンツロスに使うモデルを変えているところだと思いました。
自分もGANはやったことがないので違ってるかもしれません。
2017/01/26(木) 16:48:26.18ID:j7MEo8mlr
説明ありがとうございます
認識合わせできました

自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが

なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです

それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました
2017/01/26(木) 17:17:12.53ID:j7MEo8mlr
ganのloss_weightがセンシティブで
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います 

学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます

自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います

後でスレの人に厳しいデータ教えてもらおうと思います
2017/01/26(木) 19:03:54.54ID:tDU6wUAkF
詳しいことはよくわからないけど、ガンガレ。超ガンガレ。

どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…
2017/01/28(土) 11:47:38.55ID:edepqLn8r
waifu2xの研究してる人なんだけど

すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...
2017/01/28(土) 14:42:13.13ID:BYBTK1en0
chainerで線画着色をwebサービスにして公開してみた
http://qiita.com/taizan/items/7119e16064cc11500f32
2017/01/28(土) 15:02:18.06ID:BYBTK1en0
>>614
楽しみにしてますがゆっくりやってくだちい
2017/01/28(土) 15:17:47.96ID:jlInyXUj0
>>615
着色は全くの範囲外だったが、ちと興味が出てきたw
モノクロ写真とかにも活用できそうだな
618名無しさん@お腹いっぱい。 (ワッチョイ a239-WSvd)
垢版 |
2017/01/28(土) 15:35:09.06ID:iZRmUjsJ0
>>615
着色の精度はまだまだだけど、とても面白かったです。
学習が進めばもっとよくなると思うとすごい期待できます。
619名無しさん@お腹いっぱい。 (ワッチョイ 4725-AZYz)
垢版 |
2017/01/30(月) 14:56:45.57ID:pPztTfPj0
あいかわらず
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい
2017/01/30(月) 18:04:46.45ID:qudbf77R0
今更ながら>>615-616に気付いた
自演すんなよw
2017/01/30(月) 18:20:11.64ID:AIhudIHS0
>>620
アンカちゃんと読もうなー
2017/01/31(火) 03:28:18.08ID:Mk/X4pNp0
>>615
やっぱり自動だと色が薄くなるね
あと漫画だとエラー吐かれて駄目だわ
2017/02/01(水) 00:48:53.09ID:47em4zG90
>>615
別にスレッド建てれば?

それとも有るの?
2017/02/01(水) 18:15:33.93ID:r8gMgX8Z0
http://i.imgur.com/3FdvZVm.jpg
http://i.imgur.com/K1wQKBV.jpg
■ このスレッドは過去ログ倉庫に格納されています
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況