【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net

レス数が950を超えています。1000を超えると書き込みができなくなります。
2016/05/10(火) 11:28:05.20ID:h2o6wyXCa
画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。

--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/

・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436

・waifu2xとその派生ソフト一覧
※リンクがNGワードに!

・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437

・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/

・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html

・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
2017/09/08(金) 18:43:51.46ID:WUxLR/XY0
>>863
TTAモードのことを言ってるんだろうけど、それとリサイズのアルゴリズムは根本的に関係ないんじゃないの
ダウンサンプリングすればいいと言うけど、それはどんな手法を使うんだい?

画像処理のコストはめちゃくちゃ下がってるし、waifu2xにしても自分で用意したデータセットで学習する手引もされてる
具体的なアイデアがあるなら試してみるといいよ
2017/09/09(土) 19:37:28.64ID:pXK9vUQtM0909
アルゴリズムは難しくないので
自分で実装してみたら?

俺が試した範囲ではオーバーサンプリングして
縮小してもあんま変わらなかった

当たり前だが俺は作者じゃないよ
2017/09/17(日) 18:47:42.61ID:lEmEP6WS0
waifu2x-caffe ver 1.1.8.4
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.4
cuDNN v7に対応
2017/09/17(日) 19:22:03.46ID:SWVnmedP0
今回の場合cudnn-8.0-windows7-x64-v7.zip/cuda/bin/cudnn64_7.dllかな
このへん本当に分かりにくいよなあ
前提となるCUDAやGeForceドライバのバージョンもあったかもしれない
2017/09/23(土) 14:43:51.85ID:vfPusanO0
CPU用はまだ? AVX2とかSSE4.2とかで1/10のスピードにならんかな←遅くてもいいからって意味で
2017/09/23(土) 15:27:18.83ID:NRQikrBL0
>>868
CPUならtanakamuraさんの派生のやつが早いと思うよ
2017/09/26(火) 23:36:59.42ID:XXsLzxjQ0
ハイブリッド、キタコレ

・ 低解像度画像からでも高解像度画像を生成できる「PixelNN」
http://gigazine.net/news/20170926-pixelnn/
2017/09/27(水) 07:59:58.55ID:2lP1ylD00
すごい
おれの落書きを写真にしてほしい
2017/09/27(水) 08:02:54.37ID:cwBPr8CMM
写真とそれを落書きにしたイラスト2000枚を学習させればええだけやで
2017/09/28(木) 00:14:50.04ID:TlwhVgpF0
>>870
waifu2xの欠点を克服できたら神
2017/09/29(金) 23:10:14.54ID:BSunbs8Y0NIKU
iOS版のwaifu2xなんてものが出来てた

imxieyi/waifu2x-ios: iOS Core ML implementation of waifu2x
https://github.com/imxieyi/waifu2x-ios
2017/09/30(土) 13:17:09.52ID:scjErNqF0
どんだけエンコ時間かかんだよ
2017/10/01(日) 04:32:53.20ID:Wqt3xmrb0
>>869
thx、更新止まってるみたいでげんなり
2017/10/03(火) 15:27:19.03ID:3JCntEds0
invalid requestって何が原因?頻発するんだが
878sage (ワッチョイ e5ec-6smv)
垢版 |
2017/10/03(火) 18:49:13.53ID:1vKvOmgu0
>>877
reCAPTCHAの認証に失敗すると出てます。
全体の3%くらいでそんなに出ていないので
それ以上の確率で発生しているなら環境か回答に原因があると思いますがよく分かってないです。
判定には、reCAPTCHAの入力(マウスの軌道,画像問題が出たならその回答)、端末のIPアドレスが使われてます。
2017/10/03(火) 19:32:40.42ID:SgT7tkwS0
>>878
なるほど。実行ボタン押せても回答が間違ってる場合があるってことかな
ここ数日で急に出てくるようになったんだよね
ちょっと注意してreCAPTCHAやってみます
2017/10/05(木) 09:21:46.76ID:vrmE32hAa
前にノイズが云々言った者だがもう直ったみたいだな
前までは本当に素人が分かるレベルの汚いノイズが出てたんだ
マルチの方が未だに直ってないようなんで使ってみれば分かる
2017/10/06(金) 07:25:18.44ID:0QWgeDO+0
ウェブでの処理は1年以上変更していないですよ
2017/10/10(火) 02:22:10.25ID:PBW0sxG70
waifu2x-caffeで縦横幅両方指定すると横だけ指定した場合に比べてかなり時間かかるけど、
縦横幅両方指定だと単純に2の累乗倍して縮小するだけじゃない何か別の処理してるのかな
2017/10/10(火) 06:38:54.71ID:a24uxQmA0
指定値のどちらかが元サイズの2倍数を超えているとか
128->256(2倍), 128->257(4倍後縮小)と境界がある
2017/10/10(火) 07:44:11.35ID:nRQQJMre0
>>882
テストしたけど変わらないわ

883のケースじゃないかね
2017/10/11(水) 16:33:54.83ID:t/Umntra0
色々試してみたが、(自分の場合)どうも一定以上縦長の画像を拡大してみたときに縦横幅両方指定/横だけ指定で処理時間に差が出るようだ
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う
2017/10/11(水) 19:01:00.60ID:YWDml6V60
>>885
その条件でテストしたら確かに違いを確認したわ

横幅のみ指定 20秒
横幅、縦幅指定 90秒
2017/10/11(水) 21:01:30.37ID:M5faF1lLM
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う

横幅のみは 1.6倍 プロファイル使って1回
両方指定は 2.0倍 4分割から縮小

と違う経路になってるかと。 886の時間差的にそれっぽい
2017/10/11(水) 22:14:53.14ID:YWDml6V60
>>887
1.6倍かどうかは関係ないかも
900x1800でも一緒だった
2017/10/12(木) 02:42:07.67ID:klsngnEYM
1.6倍の意味を理解してないと思われ
2017/10/13(金) 14:25:26.13ID:H9ptKdhPM
>>870
お試し環境はないの?
2017/10/20(金) 01:08:34.86ID:rsh3kdsE0
フォトショにもAIアップスケールだって

https://pc.watch.impress.co.jp/docs/news/1087038.html
>人工知能を活かした画像拡大機能で、ディテールやテクスチャを保持しつつ画像サイズを変更でき、劣化が抑えられるという。
2017/10/20(金) 18:35:55.04ID:w9nfF7IqM
>>891
リンク先の画像だと、画像サイズが小さくてわかりにくいが、確かに髪の表現や顔の血管やシワが強調されてはいる。
まだプレビュー扱いのようではあるが。
しかし、Photoshop高いからな…
2017/10/20(金) 20:01:04.46ID:KV4gR3xtM
Lightroom付いて月1000円は安いと思うけど
2017/10/21(土) 11:55:13.81ID:ezIgs+TB0
・・・数年でいくらになるかと言うと

"(((( ´,,_ゝ`))))
2017/10/21(土) 15:26:44.82ID:d4VYBQVI0
文字などの拡大結果がwaifu2xっぽいらしいですね
(CNN系はどれも似たような特徴がでる)
2017/10/21(土) 20:38:14.84ID:lX5ko0Pe0
>>894
買い切り時代の値段で8年くらい使える訳だけど
確かにまともに使わない人には高いか
2017/10/22(日) 00:33:19.63ID:PfWLRsqV0
休みの日のお絵かき用途に毎月1000円も出したくないな
2017/10/22(日) 01:58:31.92ID:/njJqV5y0
Photoshopでお絵かきなんてするやついるのか
2017/10/26(木) 23:06:10.33ID:DefK6fF40
月180万……
いまだに運営費の問題は健在か
2017/11/01(水) 16:47:19.17ID:gUHZ+jN20
・ガビガビの低解像度写真を高解像度な写真に変換できる「EnhanceNet-PAT」が登場
https://gigazine.net/news/20171101-algorithm-low-resolution-images/

この研究の前は、最先端の超解像技術でさえ、画像の中にぼやけた部分やざらざらした部分を持っていました。
その理由は、『高精細な画像になるようにオリジナル写真を再構成させる』などのニューラルネットワークでは実現不可能なことを、ニューラルネットワークに要求していたからです。
そのため、超解像技術で作成された画像は、一部がぼやけていたそうです。
そこで、我々はニューラルネットワークにより高精細なテクスチャーを作成してもらう、という異なるアプローチを取りました。
この手法ではニューラルネットワークが画像全体を見て、領域を検出し、意味情報を使ってより高精細なテクスチャーを作成し、高解像度の画像を作成します」

能書きはいいから早く一般人が利用できるようにしてくれ!
2017/11/01(水) 16:51:02.16ID:ywNULZCUd
こんな事が出来るようになったのに、何でデインターレースは上手く出来ないのか
2017/11/01(水) 17:40:08.94ID:Rrmmh94R0
デインターレースはやりたがる人が少ないんじゃないか
あとリアルタイム動作を考えると難しいとかあるかも
2017/11/01(水) 23:54:09.20ID:37DME+fd0
>>900
これ、デジタル放送のブロックノイズ対策やモザイク除去にも使えそうだな
2017/11/02(木) 00:44:20.56ID:XY5MStcz0
凄いんだけど、失敗例だと化物みたいになっちゃうな

http://i.imgur.com/PXVKiei.png
2017/11/02(木) 03:30:36.42ID:AXeKiQ9g0
ゾンビで学習しちゃったみたいな?
2017/11/02(木) 16:48:27.48ID:fpvIbUNIM
奥の人と融合して別の学習済みの何かとザ・フライしたな
2017/11/02(木) 21:01:37.47ID:AW27ksif0
ハゲの再現度は高いな
2017/11/02(木) 21:19:44.34ID:I7cvRq4a0
ゾンビ化以外は、従来版よりいいね。
従来版の輪郭が溶ける問題は発生していないから、ゾンビ程度ならペイント程度でも局所的に簡単に手直しできそうだし。
(輪郭が溶けるほうは、ペイントで簡単に手直しとはいかないし)
2017/11/03(金) 11:01:23.26ID:GBIyNV7aa
>>900
これ試せるところないの?
2017/11/03(金) 11:05:59.35ID:3JWHfXbG0
無いよ
2017/11/03(金) 12:02:31.66ID:LebgZYe6M
金積めば研究データ使わせてくれるかも
2017/11/03(金) 15:37:03.81ID:H76ey3tB0
有料でいいからソフト化してくれ
2017/11/03(金) 18:36:36.38ID:VfeW0NTrM
同一画像については変換パラメータ変更での再処理は○回まで無料とかは欲しいが
利用量(枚数、サイズ)に応じた従量制課金かプリペイド制のサービスになると利用しなくなる法則

オンライン変換サービスしてる人も課金モデルでその部分指摘してたな
2017/11/03(金) 21:34:13.82ID:NDN+SZgNM
テクスチャを学習するってことは、本格的に学習すると
データの容量が凄いことになるのかな
2017/11/03(金) 21:56:43.26ID:3JWHfXbG0
学習するサンプルも多いだろう
2017/11/03(金) 23:10:14.26ID:VfeW0NTrM
画像系ディープラーニングの学習データの量はニューラルネットワークで定義されてる係数やフィルタの数で固定される
学習サンプルが多いとデータが増えるわけではなく、固定サイズの学習データの質がサンプルの内容に応じて最適化されていくだけ
2017/11/06(月) 03:18:01.70ID:FH+Fgmgp0
ここのサイト結構性能いいかも
ちょっと誰か試して

Let's Enhance – free online image upscale and enhancement with neural networks
https://letsenhance.io/

原画像
http://i.imgur.com/mxp9Q2J.png
http://i.imgur.com/TGaT3oX.png

waifu2x
http://i.imgur.com/s4jE2hO.png
http://i.imgur.com/UZsH9uj.png

Let’s Enhance
http://i.imgur.com/fu6PEWJ.png
http://i.imgur.com/SVpsLwH.png

紹介記事
This Website Uses AI to Enhance Low-Res Photos, CSI-Style
https://petapixel.com/2017/10/31/website-uses-ai-enhance-photo-csi-style/
2017/11/06(月) 05:34:47.22ID:FH+Fgmgp0
>>917のサイトのやつSRGANを参考に作っているらしい
ボケずに拡大出来るけど模樣なんかが元の画像と違った感じになる

原画像
https://i.imgur.com/Xs8E2hZ.png
waifu2x
https://i.imgur.com/4D0rzHC.png
Let’s Enhance
https://i.imgur.com/2elNRSJ.png

SRGANに関してはここの説明が分かりやすかった
https://elix-tech.github.io/ja/2017/02/06/gan.html#papers
2017/11/06(月) 13:47:49.83ID:TDgC8d4y0
元の画像から変わりすぎ
2017/11/06(月) 20:17:39.89ID:ir0xJWe00
>>919
ちょっと画像の例が悪かったかもしれない
元の1/4に縮小して拡大してあるから細部の情報なんて全く残ってないのよ
2017/11/06(月) 21:19:25.20ID:TDgC8d4y0
>>920
EnhanceNet-PATは、そこまで酷くない。
今更出来の悪いものは必要ない。
2017/11/06(月) 21:42:36.91ID:Q6z17jgC0
予想外の結果になりそうで面白い
2017/11/09(木) 08:10:48.38ID:ejxgnOxl0
紹介の仕方をミスった感が強いけど>>917のサイトは写真の種類によってはそれなりに有用だと思う。
waifu2x UpPhoto x4 ノイズ除去無しとの比較。

http://upup.bz/j/my27960IRCYtBJQmxSGzyUg.jpg
http://upup.bz/j/my27961gChYtd_bPU81wFWU.png
http://upup.bz/j/my27962YLrYtQJyJmWv6uSE.png

http://upup.bz/j/my27966jlmYtbo37ME0ayCU.jpg
http://upup.bz/j/my27967AwAYtbo37ME0ayCU.png
http://upup.bz/j/my27968lFCYtbo37ME0ayCU.png
2017/11/10(金) 11:40:25.71ID:uNZAv5Jo0
>>923
どれがどれかくらい書いてアップしろよ、常考・・・
上から
・原画
・UpPhoto x4
・waifu2x(ノイズ除去無し)
だな。

■草刈正雄画像
一見すると確かにUpPhoto x4の仕上がりは良好に見える。
が、ブルーのクッションのうち右側のほうに着目すると、少しコントラスト比が変動してしまい
眠たくなってしまっている。
原画ではもう少しだけコントラスト感がある。

■女性画像
草刈正雄画像と同様に、黒い服?のコントラスト感が若干弱まり眠たくなってしまっている。

この程度の画像でコントラスト変動が出る(全体にではなく一部にというのが問題)のは、学習に用いている画像の枚数が少なすぎるのではないか?

前の>>916でもそうだけど、学習量が少なすぎるから、少ない学習データの中で一番近そうなのはこれしかないんです状態に感じられて仕方がない。
少なくとも今の学習量の8倍は学習させたほうがいい。

あと、一度拡大した画像自体を縮小して、元画像との変化が出ているところを再度調整しなおすような仕組み(フィードバック補償)があってもよいのかもしれない。
ゾンビ化の画像とかもそうだが、フィードバックしていればあのまま出てくることはないはず。
一度きりの結果に満足するなかれ。
2017/11/10(金) 12:57:12.20ID:1rKnYbnJ0
>>924
ごめん、どれがどれか書き忘れた。
上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。

あとレビューありがとう。
自分は画像処理の専門家じゃないしそんなに目も良くないので意見を言ってくれると助かります。
学習量については一週間毎にモデルを更新していく予定とのことなのでそれで改善されるかも。
2017/11/10(金) 13:18:06.57ID:uNZAv5Jo0
>>925
>上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
これマジ?
だとしたらLet's Enhanceが一番ぼけてることになるのだが。
輪郭線などの具合から、てっきり3番目がwaifu2xかと思っていたのだが。
2017/11/10(金) 14:43:20.30ID:mTpzd+uCD
>>917
ここの最新エントリにLet’s Enhanceの使い方から処理の違いとか詳しいのある
digibibo.com
2017/11/10(金) 14:56:28.62ID:oFJM5zAg0
>>926
Let's Enhanceぼかしたままのところとディテールを加えるところのメリハリがあるね
髪の毛や肌は明らかにLet's Enhanceの方が情報量が多い(存在しない情報を付加している)
メガネのエッジなんかもLet's Enhanceの方がくっきりしてる
2017/11/10(金) 15:03:23.18ID:1rKnYbnJ0
>>927
さすがに記事書き慣れてる人は紹介が上手いねw
自分だけではしゃいで魅力を説明できない自分とは大違いだわ
2017/11/10(金) 16:46:38.70ID:uNZAv5Jo0
なぜかリンク貼るとエラーになるのでリンク先で画像見つけてほしいが

■JPEGノイズ除去のbefore/after(左右で比較できる画像)
tmpimg1711101329n220171110135958928.jpg
やはりコントラストが変動しているな。

■拡大のbefore/after(鉄塔の画像)
before
tmpimg1711101340n120171110140051020.jpg

after
tmpimg1711101341n120171110140114527.jpg
拡大後の鉄塔の赤色や右側の塔の上部のオレンジ、クレーンの青、背景等をみると、同様に変動している。
輪郭周りの処理はwaifu2xよりうまいけど、まだまだ問題点が多い。
2017/11/10(金) 16:51:55.59ID:uNZAv5Jo0
追記

ただし、ノイズ除去の精度はかなり高い。
これ、デジタル放送のノイズ除去や、調整次第ではVHSの3倍モードのノイズに効用がありそうな気はする。
2017/11/10(金) 17:25:45.25ID:C0fr3WYka
確かに非常に良くなる画像とディテールが崩れる画像がある印象。
だけどまさに魔法と呼びたくなるほど凄い処理がされる画像もあったよ。
2017/11/10(金) 19:57:18.90ID:fiLLUmkY0
イラスト系の比較画像がほしいな
実写はもともとwaifu2x苦手なの分かってるし
2017/11/11(土) 11:12:56.96ID:K8wJXMCa01111
>>933
今は無料で試せるみたいだから自分で試してみたら。

閑話休題。
Let’s Enhance、これもGPUの力がないと演算に時間がかかるタイプなのかな?
来年早々にIntel CPU+Radeon GPUなCPUをIntelが出すみたいだし、AMD系含めオフライン環境でも実行できるようになればいいのだが。
動画を連番画像で書き出してアップさせようとするとすさまじい枚数になるので、時間はかかってもいいがオフラインで実行できないと死ぬ。
2017/11/12(日) 00:45:44.32ID:uaMsUrr60
>>933
Let's EnhanceのTwitterアカウントの人がWe are trained on photos, not anime ) Waifu2x has a clear leadership here )って言ってるからあんまり向いてないんじゃないかな
Google翻訳 私たちはアニメではなく写真で訓練されています)Waifu2xはここで明確なリーダーシップを持っています)
2017/11/12(日) 11:50:55.45ID:uaMsUrr60
>>584でGANはPSNRが下がる懸念があると言われていたので気になって調べてみました。
一応bicubicと同程度はあるようです。

BSD100 x4 Y-PSNR
25.976 bicubic
26.085 Let’s Enhance
27.094 waifu2x Photo
27.196 waifu2x UpPhoto

ベンチマークに使った画像もUPしておきます。
https://www.dropbox.com/sh/i5b2old7vqgtvyv/AADb8UIqZel9LTDaFuwDdLwda?dl=0
2017/11/12(日) 13:41:34.72ID:dNH6kcXn0
>>936
PSNRで20台半ばか。
ただ、そもそも超解像のような処理の場合、PSNRが評価指標として適切かという問題はある。
以下を読むと参考になるかと。

・MSE/PSNR vs SSIM の比較画像紹介
https://qiita.com/yoya/items/510043d836c9f2f0fe2f

SSIMで比較してみるといいのかもしれない。
2017/11/12(日) 13:47:37.01ID:dNH6kcXn0
追記
Let’s Enhanceは、コントラストが変動する問題が解決すれば、基本的には今の状態でも使えなくはないのだが(バケる問題は学習量を増やせば落ち着くかと思われるので)、なぜにあんなにコントラスト変動が起こるのかが解せないんだよね。
2017/11/12(日) 13:59:45.49ID:dNH6kcXn0
再度追記
>>936の画像を見ていると、苦手な画像が少しわかってきた。
小さな三角形のような形が含まれる画像が変形しやすいように見える。
ヒョウ柄とか動物の目のまわりとか、そういう画像をたくさん学習させるとかなり改善されるような気がする。
2017/11/13(月) 11:19:04.01ID:TPyOarub0
Let’s Enhanceについてさらに評価と要望

・アンチJPEG
JPEG画像などに見られるブロックノイズを解像感を落とさずに除去
→この考え方を応用して、スキャナで取り込んだ画像に発生するモアレを、解像感を落とさずにモアレだけ除去できるような
「アンチモアレ」機能に発展させてもらうことはできないのだろうか?
現状、モアレ除去を試みると、どうしても解像感が犠牲になるのと、素材ごとに手動で最適な設定値を見出さなければならない状況になるが、
自動的に最適な状態で除去してくれたら、印刷物の取り込みが大幅に楽になる。
ついでに、オプションで印刷物取り込み画像はコントラストが眠くなりがちです、取り込み後にガンマをいじくったりして補正しなければならないケースが多いので、
印刷物のコントラスト補正最適化モードも自動的に実行されるオプションがあればなおよいのだけど。

・ボーリング
省略

・マジック
アンチJPEGを実行後に拡大しているようなのだが、アンチJPEGをオフにして拡大だけするモードをつけられないのだろうか?
サンプル画像を見ていると、アンチJPEGによる副作用なのか、妙にノッペリして見える箇所が見受けられるので。
2017/11/13(月) 14:30:14.38ID:TPyOarub0
waifu2xとの比較画像含め作成してみました。
https://www.axfc.net/u/3862416
※700MB程度zipファイルです。時間のある時にお試しください。
今夜2時までの公開です。
(著作権があるので、テスト目的のみで使用してください)

※元画像がAdobe-RGBの画像については、ICCプロファイルの引継ぎがされていないため、正しい色味で表示されませんが、これはwaifu2xの初期と同じく、プロファイルの編集をすれば正しく表示されます。

なお、変換した画像について
・いつもの画像
waifu2xのテストでよく使用していた画像です。
pngファイルにつき、anti-jpegは出力されていません。
ノイズ除去を適用したくなければ、pngファイルでアップするとよいのかもしれないです。
waifu2xとの比較ですが、boolin(2次元向き)よりmagic(実写向き)のほうが精細感や透明感があり好ましいように思います。
ただし、川の右側の欄干の処理がもう一歩な感じはするけど、縦横4倍!でこの状態はすごい。
(試す前まで、waifuと同じ縦横2倍だと思ってました・・・)
ただし、川の左側の石の護岸壁が元画像とコントラストが異なるのは気になるところ。

他の画像はjpgですので、anti-jpegあり。
参考程度にどうぞ。
(ノイズ除去なしになるか試そうと、jpg⇒pngした画像をアップしようとしたら枚数上限に達したので、また次回試してみます)
2017/11/13(月) 23:14:41.84ID:SEq7VEq/0
重すぎてダウンロード出来ない
2017/11/15(水) 12:26:10.44ID:+/WZXxMd0
>>942
また時間のあるときにでもアップしてみます。

なお、開発元からメールが届き、やはりpngでアップした場合はJPEGのノイズ除去はしないで拡大だけするようです。
その状況を確認しようと再度アップを試みたところ、前回のアップからすでに1日以上経過しているにもかかわらず、
上限枚数に達したと表示されアップできない状態。
どうも不安定なようす。
2017/11/21(火) 11:15:49.96ID:GGDYSobV0
今までグラボに負荷がかからないように、ゲームやるときでもGPU LOADをなるべく30%以内に抑えてきたんだが、
waifu2x-caffeだと常時100%使うんだな   (((( ;゚Д゚)))ガクガクブルブル
まあ、すぐ慣れるか・・・
2017/11/21(火) 11:49:30.65ID:ggCP7JpA0
俺100%にならないぞ
性能が低いからか?
2017/11/22(水) 10:59:57.46ID:MpzyPo1w0
ディープラーニングのすごさを体験! 人工知能で画像を加工できるツール5選
http://news.mynavi.jp/articles/2017/11/22/ai/
2017/11/27(月) 16:45:35.69ID:k5rPv5PA0
Let's Enhance、月払いと年払いのサブスクリプションプランを作ったみたいだね。
無料版は制限きつすぎ。
2017/11/27(月) 18:31:18.18ID:l2QRCD030
waifu2xも運営費の捻出に苦労している中ビジネスモデルが成功するのか興味がある
2017/11/27(月) 20:18:13.21ID:0yxjOZvPd
そもそも一般的な使い道が思い付かない
防犯カメラ画像の解析とか?
2017/11/27(月) 20:24:39.62ID:25fgXHbid
AIが解析した監視カメラ映像は法的な証拠能力があるのだろうか
2017/11/28(火) 23:44:40.07ID:X/pTZJk50
>>947
オフラインで使えるようになった?
GPU使って大量にやりたい
2017/11/29(水) 09:11:55.09ID:uEaZLV9C0
どこをどう読んだらオフラインで使えるようになったように読めるのか…
2017/11/29(水) 14:08:33.74ID:LjzMHann0NIKU
また繋がらない
モチベが無くなる前に復旧してくれー
954名無しさん@お腹いっぱい。 (アークセーT Sxbd-SZ7f)
垢版 |
2017/12/01(金) 00:27:17.53ID:JRCbfq5qx
これUPした画像はサーバにずっと保存されるの?それとも一定期間で削除?
2017/12/01(金) 02:29:52.78ID:YkGnoxC70
速攻削除じゃないの?保存する意味あるかな?
2017/12/01(金) 10:26:12.87ID:rk1mw3Ut0
ぐへへ
2017/12/08(金) 19:58:14.25ID:1692mnP40
Tensor演算性能110TFLOPSなTitan Vが出たけど、waifu2xどれくらい速くなるんけ?
2017/12/13(水) 05:40:07.05ID:mHLtONb60
waifu2x、iOSのSafariからやるとGoogle reCaptureクリアしてもInvalid Requestが出てしまうのですがどうしたらいいですか?
959名無しさん@お腹いっぱい。 (ワッチョイ 973e-zy4u)
垢版 |
2017/12/13(水) 19:36:00.62ID:azBr58UQ0
>Let’s Enhanceは、コントラストが変動する問題が解決すれば
GANの原理的に元の数値自体を見てないから形状とか以外は
ごっつり変わる可能性があるんだよね
2017/12/20(水) 10:42:06.75ID:o8jFfiBn0
>>959
それじゃ話にならんね
2017/12/20(水) 11:03:38.82ID:Nd23KCWC0
PSNRを高くしていく方向性の超解像は原画像とかけ離れた結果にはなりにくいが溶けたりぼやけたりする
PSNRを無視して自然に見える画像を作り出そうとする方向性の超解像はくっきりしているけど原画像とかけ離れた結果になるリスクが有る

ジレンマみたいな感じで難しいね
今後はどっちの超解像が主流になるのかな
2017/12/22(金) 12:59:10.97ID:45YP9s6P0
誰でも悪夢のようなムービーが作れるようになるツール「Bind」が公開
https://gigazine.net/news/20171221-bind/
2017/12/22(金) 14:00:11.61ID:WX6qzd4e0
>>961
PSNR無視型=Let's Enhance
で輝度信号(Y)だけ処理して
PSNR重視型=waifu2x(RGB処理)で処理した画像の輝度信号(Y)だけ差し替え
とか無理か
レス数が950を超えています。1000を超えると書き込みができなくなります。
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況