画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。
--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/
・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436
・waifu2xとその派生ソフト一覧
※リンクがNGワードに!
・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437
・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/
・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html
・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
レス数が950を超えています。1000を超えると書き込みができなくなります。
1名無しさん@お腹いっぱい。 転載ダメ©2ch.net (アウアウ Sa2a-NyIq)
2016/05/10(火) 11:28:05.20ID:h2o6wyXCa883名無しさん@お腹いっぱい。 (ワッチョイ 76ec-ZVpW)
2017/10/10(火) 06:38:54.71ID:a24uxQmA0 指定値のどちらかが元サイズの2倍数を超えているとか
128->256(2倍), 128->257(4倍後縮小)と境界がある
128->256(2倍), 128->257(4倍後縮小)と境界がある
884名無しさん@お腹いっぱい。 (ワッチョイ 5a6c-QWl5)
2017/10/10(火) 07:44:11.35ID:nRQQJMre0885名無しさん@お腹いっぱい。 (ワッチョイ b625-P+uR)
2017/10/11(水) 16:33:54.83ID:t/Umntra0 色々試してみたが、(自分の場合)どうも一定以上縦長の画像を拡大してみたときに縦横幅両方指定/横だけ指定で処理時間に差が出るようだ
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う
886名無しさん@お腹いっぱい。 (ワッチョイ 5a6c-QWl5)
2017/10/11(水) 19:01:00.60ID:YWDml6V60887名無しさん@お腹いっぱい。 (ワイモマー MMfa-wbjw)
2017/10/11(水) 21:01:30.37ID:M5faF1lLM 例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う
横幅のみは 1.6倍 プロファイル使って1回
両方指定は 2.0倍 4分割から縮小
と違う経路になってるかと。 886の時間差的にそれっぽい
処理時間だけでなく結果も明らかに違う
横幅のみは 1.6倍 プロファイル使って1回
両方指定は 2.0倍 4分割から縮小
と違う経路になってるかと。 886の時間差的にそれっぽい
888名無しさん@お腹いっぱい。 (ワッチョイ 5a6c-QWl5)
2017/10/11(水) 22:14:53.14ID:YWDml6V60889名無しさん@お腹いっぱい。 (ワイモマー MM33-B6a6)
2017/10/12(木) 02:42:07.67ID:klsngnEYM 1.6倍の意味を理解してないと思われ
890名無しさん@お腹いっぱい。 (アウーイモ MM1d-pRT2)
2017/10/13(金) 14:25:26.13ID:H9ptKdhPM >>870
お試し環境はないの?
お試し環境はないの?
891名無しさん@お腹いっぱい。 (ワッチョイ dd87-REa2)
2017/10/20(金) 01:08:34.86ID:rsh3kdsE0 フォトショにもAIアップスケールだって
https://pc.watch.impress.co.jp/docs/news/1087038.html
>人工知能を活かした画像拡大機能で、ディテールやテクスチャを保持しつつ画像サイズを変更でき、劣化が抑えられるという。
https://pc.watch.impress.co.jp/docs/news/1087038.html
>人工知能を活かした画像拡大機能で、ディテールやテクスチャを保持しつつ画像サイズを変更でき、劣化が抑えられるという。
892名無しさん@お腹いっぱい。 (アウーイモ MM89-OvXX)
2017/10/20(金) 18:35:55.04ID:w9nfF7IqM893名無しさん@お腹いっぱい。 (ブーイモ MMe9-IlT3)
2017/10/20(金) 20:01:04.46ID:KV4gR3xtM Lightroom付いて月1000円は安いと思うけど
894名無しさん@お腹いっぱい。 (ワッチョイ 7a86-bcII)
2017/10/21(土) 11:55:13.81ID:ezIgs+TB0 ・・・数年でいくらになるかと言うと
"(((( ´,,_ゝ`))))
"(((( ´,,_ゝ`))))
895名無しさん@お腹いっぱい。 (ワッチョイ d6ec-sHh2)
2017/10/21(土) 15:26:44.82ID:d4VYBQVI0 文字などの拡大結果がwaifu2xっぽいらしいですね
(CNN系はどれも似たような特徴がでる)
(CNN系はどれも似たような特徴がでる)
896名無しさん@お腹いっぱい。 (ワッチョイWW 1ac2-IlT3)
2017/10/21(土) 20:38:14.84ID:lX5ko0Pe0897名無しさん@お腹いっぱい。 (ワッチョイWW 0a8e-OvXX)
2017/10/22(日) 00:33:19.63ID:PfWLRsqV0 休みの日のお絵かき用途に毎月1000円も出したくないな
898名無しさん@お腹いっぱい。 (ワッチョイ a6e0-7Hoc)
2017/10/22(日) 01:58:31.92ID:/njJqV5y0 Photoshopでお絵かきなんてするやついるのか
899名無しさん@お腹いっぱい。 (ワッチョイ 136c-kgpv)
2017/10/26(木) 23:06:10.33ID:DefK6fF40 月180万……
いまだに運営費の問題は健在か
いまだに運営費の問題は健在か
900名無しさん@お腹いっぱい。 (ワッチョイ 698e-ORd8)
2017/11/01(水) 16:47:19.17ID:gUHZ+jN20 ・ガビガビの低解像度写真を高解像度な写真に変換できる「EnhanceNet-PAT」が登場
https://gigazine.net/news/20171101-algorithm-low-resolution-images/
この研究の前は、最先端の超解像技術でさえ、画像の中にぼやけた部分やざらざらした部分を持っていました。
その理由は、『高精細な画像になるようにオリジナル写真を再構成させる』などのニューラルネットワークでは実現不可能なことを、ニューラルネットワークに要求していたからです。
そのため、超解像技術で作成された画像は、一部がぼやけていたそうです。
そこで、我々はニューラルネットワークにより高精細なテクスチャーを作成してもらう、という異なるアプローチを取りました。
この手法ではニューラルネットワークが画像全体を見て、領域を検出し、意味情報を使ってより高精細なテクスチャーを作成し、高解像度の画像を作成します」
能書きはいいから早く一般人が利用できるようにしてくれ!
https://gigazine.net/news/20171101-algorithm-low-resolution-images/
この研究の前は、最先端の超解像技術でさえ、画像の中にぼやけた部分やざらざらした部分を持っていました。
その理由は、『高精細な画像になるようにオリジナル写真を再構成させる』などのニューラルネットワークでは実現不可能なことを、ニューラルネットワークに要求していたからです。
そのため、超解像技術で作成された画像は、一部がぼやけていたそうです。
そこで、我々はニューラルネットワークにより高精細なテクスチャーを作成してもらう、という異なるアプローチを取りました。
この手法ではニューラルネットワークが画像全体を見て、領域を検出し、意味情報を使ってより高精細なテクスチャーを作成し、高解像度の画像を作成します」
能書きはいいから早く一般人が利用できるようにしてくれ!
901名無しさん@お腹いっぱい。 (スップ Sd73-Njad)
2017/11/01(水) 16:51:02.16ID:ywNULZCUd こんな事が出来るようになったのに、何でデインターレースは上手く出来ないのか
902名無しさん@お腹いっぱい。 (ワッチョイ f135-oaFu)
2017/11/01(水) 17:40:08.94ID:Rrmmh94R0 デインターレースはやりたがる人が少ないんじゃないか
あとリアルタイム動作を考えると難しいとかあるかも
あとリアルタイム動作を考えると難しいとかあるかも
903名無しさん@お腹いっぱい。 (ワッチョイWW b38e-eipk)
2017/11/01(水) 23:54:09.20ID:37DME+fd0 >>900
これ、デジタル放送のブロックノイズ対策やモザイク除去にも使えそうだな
これ、デジタル放送のブロックノイズ対策やモザイク除去にも使えそうだな
904名無しさん@お腹いっぱい。 (ワッチョイ c26c-7v9/)
2017/11/02(木) 00:44:20.56ID:XY5MStcz0905名無しさん@お腹いっぱい。 (ワッチョイ 4286-Q/5A)
2017/11/02(木) 03:30:36.42ID:AXeKiQ9g0 ゾンビで学習しちゃったみたいな?
906名無しさん@お腹いっぱい。 (ワイモマー MM62-Q/5A)
2017/11/02(木) 16:48:27.48ID:fpvIbUNIM 奥の人と融合して別の学習済みの何かとザ・フライしたな
907名無しさん@お腹いっぱい。 (ワッチョイ c21c-3fha)
2017/11/02(木) 21:01:37.47ID:AW27ksif0 ハゲの再現度は高いな
908名無しさん@お腹いっぱい。 (ワッチョイWW 928e-KgVj)
2017/11/02(木) 21:19:44.34ID:I7cvRq4a0 ゾンビ化以外は、従来版よりいいね。
従来版の輪郭が溶ける問題は発生していないから、ゾンビ程度ならペイント程度でも局所的に簡単に手直しできそうだし。
(輪郭が溶けるほうは、ペイントで簡単に手直しとはいかないし)
従来版の輪郭が溶ける問題は発生していないから、ゾンビ程度ならペイント程度でも局所的に簡単に手直しできそうだし。
(輪郭が溶けるほうは、ペイントで簡単に手直しとはいかないし)
909名無しさん@お腹いっぱい。 (アウアウアー Sad6-KgVj)
2017/11/03(金) 11:01:23.26ID:GBIyNV7aa >>900
これ試せるところないの?
これ試せるところないの?
910名無しさん@お腹いっぱい。 (ワッチョイ 6e76-8/j8)
2017/11/03(金) 11:05:59.35ID:3JWHfXbG0 無いよ
911名無しさん@お腹いっぱい。 (ブーイモ MMb6-Koxv)
2017/11/03(金) 12:02:31.66ID:LebgZYe6M 金積めば研究データ使わせてくれるかも
912名無しさん@お腹いっぱい。 (ワッチョイWW ad8e-KgVj)
2017/11/03(金) 15:37:03.81ID:H76ey3tB0 有料でいいからソフト化してくれ
913名無しさん@お腹いっぱい。 (ワイモマー MM62-Q/5A)
2017/11/03(金) 18:36:36.38ID:VfeW0NTrM 同一画像については変換パラメータ変更での再処理は○回まで無料とかは欲しいが
利用量(枚数、サイズ)に応じた従量制課金かプリペイド制のサービスになると利用しなくなる法則
オンライン変換サービスしてる人も課金モデルでその部分指摘してたな
利用量(枚数、サイズ)に応じた従量制課金かプリペイド制のサービスになると利用しなくなる法則
オンライン変換サービスしてる人も課金モデルでその部分指摘してたな
914名無しさん@お腹いっぱい。 (ワイモマー MM62-7T4N)
2017/11/03(金) 21:34:13.82ID:NDN+SZgNM テクスチャを学習するってことは、本格的に学習すると
データの容量が凄いことになるのかな
データの容量が凄いことになるのかな
915名無しさん@お腹いっぱい。 (ワッチョイ 6e76-8/j8)
2017/11/03(金) 21:56:43.26ID:3JWHfXbG0 学習するサンプルも多いだろう
916名無しさん@お腹いっぱい。 (ワイモマー MM62-Q/5A)
2017/11/03(金) 23:10:14.26ID:VfeW0NTrM 画像系ディープラーニングの学習データの量はニューラルネットワークで定義されてる係数やフィルタの数で固定される
学習サンプルが多いとデータが増えるわけではなく、固定サイズの学習データの質がサンプルの内容に応じて最適化されていくだけ
学習サンプルが多いとデータが増えるわけではなく、固定サイズの学習データの質がサンプルの内容に応じて最適化されていくだけ
917名無しさん@お腹いっぱい。 (ワッチョイ c26c-7v9/)
2017/11/06(月) 03:18:01.70ID:FH+Fgmgp0 ここのサイト結構性能いいかも
ちょっと誰か試して
Let's Enhance – free online image upscale and enhancement with neural networks
https://letsenhance.io/
原画像
http://i.imgur.com/mxp9Q2J.png
http://i.imgur.com/TGaT3oX.png
waifu2x
http://i.imgur.com/s4jE2hO.png
http://i.imgur.com/UZsH9uj.png
Let’s Enhance
http://i.imgur.com/fu6PEWJ.png
http://i.imgur.com/SVpsLwH.png
紹介記事
This Website Uses AI to Enhance Low-Res Photos, CSI-Style
https://petapixel.com/2017/10/31/website-uses-ai-enhance-photo-csi-style/
ちょっと誰か試して
Let's Enhance – free online image upscale and enhancement with neural networks
https://letsenhance.io/
原画像
http://i.imgur.com/mxp9Q2J.png
http://i.imgur.com/TGaT3oX.png
waifu2x
http://i.imgur.com/s4jE2hO.png
http://i.imgur.com/UZsH9uj.png
Let’s Enhance
http://i.imgur.com/fu6PEWJ.png
http://i.imgur.com/SVpsLwH.png
紹介記事
This Website Uses AI to Enhance Low-Res Photos, CSI-Style
https://petapixel.com/2017/10/31/website-uses-ai-enhance-photo-csi-style/
918名無しさん@お腹いっぱい。 (ワッチョイ c26c-7v9/)
2017/11/06(月) 05:34:47.22ID:FH+Fgmgp0 >>917のサイトのやつSRGANを参考に作っているらしい
ボケずに拡大出来るけど模樣なんかが元の画像と違った感じになる
原画像
https://i.imgur.com/Xs8E2hZ.png
waifu2x
https://i.imgur.com/4D0rzHC.png
Let’s Enhance
https://i.imgur.com/2elNRSJ.png
SRGANに関してはここの説明が分かりやすかった
https://elix-tech.github.io/ja/2017/02/06/gan.html#papers
ボケずに拡大出来るけど模樣なんかが元の画像と違った感じになる
原画像
https://i.imgur.com/Xs8E2hZ.png
waifu2x
https://i.imgur.com/4D0rzHC.png
Let’s Enhance
https://i.imgur.com/2elNRSJ.png
SRGANに関してはここの説明が分かりやすかった
https://elix-tech.github.io/ja/2017/02/06/gan.html#papers
919名無しさん@お腹いっぱい。 (ワッチョイWW 928e-zJ9Y)
2017/11/06(月) 13:47:49.83ID:TDgC8d4y0 元の画像から変わりすぎ
920名無しさん@お腹いっぱい。 (ワッチョイWW c26c-QMHA)
2017/11/06(月) 20:17:39.89ID:ir0xJWe00921名無しさん@お腹いっぱい。 (ワッチョイWW 928e-zJ9Y)
2017/11/06(月) 21:19:25.20ID:TDgC8d4y0922名無しさん@お腹いっぱい。 (ワッチョイ 6e76-8/j8)
2017/11/06(月) 21:42:36.91ID:Q6z17jgC0 予想外の結果になりそうで面白い
923917 (ワッチョイ 7f6c-+eVz)
2017/11/09(木) 08:10:48.38ID:ejxgnOxl0 紹介の仕方をミスった感が強いけど>>917のサイトは写真の種類によってはそれなりに有用だと思う。
waifu2x UpPhoto x4 ノイズ除去無しとの比較。
http://upup.bz/j/my27960IRCYtBJQmxSGzyUg.jpg
http://upup.bz/j/my27961gChYtd_bPU81wFWU.png
http://upup.bz/j/my27962YLrYtQJyJmWv6uSE.png
http://upup.bz/j/my27966jlmYtbo37ME0ayCU.jpg
http://upup.bz/j/my27967AwAYtbo37ME0ayCU.png
http://upup.bz/j/my27968lFCYtbo37ME0ayCU.png
waifu2x UpPhoto x4 ノイズ除去無しとの比較。
http://upup.bz/j/my27960IRCYtBJQmxSGzyUg.jpg
http://upup.bz/j/my27961gChYtd_bPU81wFWU.png
http://upup.bz/j/my27962YLrYtQJyJmWv6uSE.png
http://upup.bz/j/my27966jlmYtbo37ME0ayCU.jpg
http://upup.bz/j/my27967AwAYtbo37ME0ayCU.png
http://upup.bz/j/my27968lFCYtbo37ME0ayCU.png
924名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/10(金) 11:40:25.71ID:uNZAv5Jo0 >>923
どれがどれかくらい書いてアップしろよ、常考・・・
上から
・原画
・UpPhoto x4
・waifu2x(ノイズ除去無し)
だな。
■草刈正雄画像
一見すると確かにUpPhoto x4の仕上がりは良好に見える。
が、ブルーのクッションのうち右側のほうに着目すると、少しコントラスト比が変動してしまい
眠たくなってしまっている。
原画ではもう少しだけコントラスト感がある。
■女性画像
草刈正雄画像と同様に、黒い服?のコントラスト感が若干弱まり眠たくなってしまっている。
この程度の画像でコントラスト変動が出る(全体にではなく一部にというのが問題)のは、学習に用いている画像の枚数が少なすぎるのではないか?
前の>>916でもそうだけど、学習量が少なすぎるから、少ない学習データの中で一番近そうなのはこれしかないんです状態に感じられて仕方がない。
少なくとも今の学習量の8倍は学習させたほうがいい。
あと、一度拡大した画像自体を縮小して、元画像との変化が出ているところを再度調整しなおすような仕組み(フィードバック補償)があってもよいのかもしれない。
ゾンビ化の画像とかもそうだが、フィードバックしていればあのまま出てくることはないはず。
一度きりの結果に満足するなかれ。
どれがどれかくらい書いてアップしろよ、常考・・・
上から
・原画
・UpPhoto x4
・waifu2x(ノイズ除去無し)
だな。
■草刈正雄画像
一見すると確かにUpPhoto x4の仕上がりは良好に見える。
が、ブルーのクッションのうち右側のほうに着目すると、少しコントラスト比が変動してしまい
眠たくなってしまっている。
原画ではもう少しだけコントラスト感がある。
■女性画像
草刈正雄画像と同様に、黒い服?のコントラスト感が若干弱まり眠たくなってしまっている。
この程度の画像でコントラスト変動が出る(全体にではなく一部にというのが問題)のは、学習に用いている画像の枚数が少なすぎるのではないか?
前の>>916でもそうだけど、学習量が少なすぎるから、少ない学習データの中で一番近そうなのはこれしかないんです状態に感じられて仕方がない。
少なくとも今の学習量の8倍は学習させたほうがいい。
あと、一度拡大した画像自体を縮小して、元画像との変化が出ているところを再度調整しなおすような仕組み(フィードバック補償)があってもよいのかもしれない。
ゾンビ化の画像とかもそうだが、フィードバックしていればあのまま出てくることはないはず。
一度きりの結果に満足するなかれ。
925名無しさん@お腹いっぱい。 (ワッチョイ 7f6c-+eVz)
2017/11/10(金) 12:57:12.20ID:1rKnYbnJ0 >>924
ごめん、どれがどれか書き忘れた。
上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
あとレビューありがとう。
自分は画像処理の専門家じゃないしそんなに目も良くないので意見を言ってくれると助かります。
学習量については一週間毎にモデルを更新していく予定とのことなのでそれで改善されるかも。
ごめん、どれがどれか書き忘れた。
上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
あとレビューありがとう。
自分は画像処理の専門家じゃないしそんなに目も良くないので意見を言ってくれると助かります。
学習量については一週間毎にモデルを更新していく予定とのことなのでそれで改善されるかも。
926名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/10(金) 13:18:06.57ID:uNZAv5Jo0 >>925
>上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
これマジ?
だとしたらLet's Enhanceが一番ぼけてることになるのだが。
輪郭線などの具合から、てっきり3番目がwaifu2xかと思っていたのだが。
>上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
これマジ?
だとしたらLet's Enhanceが一番ぼけてることになるのだが。
輪郭線などの具合から、てっきり3番目がwaifu2xかと思っていたのだが。
927名無しさん@お腹いっぱい。 (ペラペラ SD8f-zF6t)
2017/11/10(金) 14:43:20.30ID:mTpzd+uCD928名無しさん@お腹いっぱい。 (ワッチョイ 5f35-JIcl)
2017/11/10(金) 14:56:28.62ID:oFJM5zAg0 >>926
Let's Enhanceぼかしたままのところとディテールを加えるところのメリハリがあるね
髪の毛や肌は明らかにLet's Enhanceの方が情報量が多い(存在しない情報を付加している)
メガネのエッジなんかもLet's Enhanceの方がくっきりしてる
Let's Enhanceぼかしたままのところとディテールを加えるところのメリハリがあるね
髪の毛や肌は明らかにLet's Enhanceの方が情報量が多い(存在しない情報を付加している)
メガネのエッジなんかもLet's Enhanceの方がくっきりしてる
929名無しさん@お腹いっぱい。 (ワッチョイ 7f6c-+eVz)
2017/11/10(金) 15:03:23.18ID:1rKnYbnJ0930名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/10(金) 16:46:38.70ID:uNZAv5Jo0 なぜかリンク貼るとエラーになるのでリンク先で画像見つけてほしいが
■JPEGノイズ除去のbefore/after(左右で比較できる画像)
tmpimg1711101329n220171110135958928.jpg
やはりコントラストが変動しているな。
■拡大のbefore/after(鉄塔の画像)
before
tmpimg1711101340n120171110140051020.jpg
after
tmpimg1711101341n120171110140114527.jpg
拡大後の鉄塔の赤色や右側の塔の上部のオレンジ、クレーンの青、背景等をみると、同様に変動している。
輪郭周りの処理はwaifu2xよりうまいけど、まだまだ問題点が多い。
■JPEGノイズ除去のbefore/after(左右で比較できる画像)
tmpimg1711101329n220171110135958928.jpg
やはりコントラストが変動しているな。
■拡大のbefore/after(鉄塔の画像)
before
tmpimg1711101340n120171110140051020.jpg
after
tmpimg1711101341n120171110140114527.jpg
拡大後の鉄塔の赤色や右側の塔の上部のオレンジ、クレーンの青、背景等をみると、同様に変動している。
輪郭周りの処理はwaifu2xよりうまいけど、まだまだ問題点が多い。
931名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/10(金) 16:51:55.59ID:uNZAv5Jo0 追記
ただし、ノイズ除去の精度はかなり高い。
これ、デジタル放送のノイズ除去や、調整次第ではVHSの3倍モードのノイズに効用がありそうな気はする。
ただし、ノイズ除去の精度はかなり高い。
これ、デジタル放送のノイズ除去や、調整次第ではVHSの3倍モードのノイズに効用がありそうな気はする。
932名無しさん@お腹いっぱい。 (アウアウカー Sad3-zF6t)
2017/11/10(金) 17:25:45.25ID:C0fr3WYka 確かに非常に良くなる画像とディテールが崩れる画像がある印象。
だけどまさに魔法と呼びたくなるほど凄い処理がされる画像もあったよ。
だけどまさに魔法と呼びたくなるほど凄い処理がされる画像もあったよ。
933名無しさん@お腹いっぱい。 (ワッチョイ 5f8e-ySnM)
2017/11/10(金) 19:57:18.90ID:fiLLUmkY0 イラスト系の比較画像がほしいな
実写はもともとwaifu2x苦手なの分かってるし
実写はもともとwaifu2x苦手なの分かってるし
934名無しさん@お腹いっぱい。 (ポキッー df8e-0ibl)
2017/11/11(土) 11:12:56.96ID:K8wJXMCa01111 >>933
今は無料で試せるみたいだから自分で試してみたら。
閑話休題。
Let’s Enhance、これもGPUの力がないと演算に時間がかかるタイプなのかな?
来年早々にIntel CPU+Radeon GPUなCPUをIntelが出すみたいだし、AMD系含めオフライン環境でも実行できるようになればいいのだが。
動画を連番画像で書き出してアップさせようとするとすさまじい枚数になるので、時間はかかってもいいがオフラインで実行できないと死ぬ。
今は無料で試せるみたいだから自分で試してみたら。
閑話休題。
Let’s Enhance、これもGPUの力がないと演算に時間がかかるタイプなのかな?
来年早々にIntel CPU+Radeon GPUなCPUをIntelが出すみたいだし、AMD系含めオフライン環境でも実行できるようになればいいのだが。
動画を連番画像で書き出してアップさせようとするとすさまじい枚数になるので、時間はかかってもいいがオフラインで実行できないと死ぬ。
935名無しさん@お腹いっぱい。 (ワッチョイ 7f6c-+eVz)
2017/11/12(日) 00:45:44.32ID:uaMsUrr60 >>933
Let's EnhanceのTwitterアカウントの人がWe are trained on photos, not anime ) Waifu2x has a clear leadership here )って言ってるからあんまり向いてないんじゃないかな
Google翻訳 私たちはアニメではなく写真で訓練されています)Waifu2xはここで明確なリーダーシップを持っています)
Let's EnhanceのTwitterアカウントの人がWe are trained on photos, not anime ) Waifu2x has a clear leadership here )って言ってるからあんまり向いてないんじゃないかな
Google翻訳 私たちはアニメではなく写真で訓練されています)Waifu2xはここで明確なリーダーシップを持っています)
936名無しさん@お腹いっぱい。 (ワッチョイ 7f6c-+eVz)
2017/11/12(日) 11:50:55.45ID:uaMsUrr60 >>584でGANはPSNRが下がる懸念があると言われていたので気になって調べてみました。
一応bicubicと同程度はあるようです。
BSD100 x4 Y-PSNR
25.976 bicubic
26.085 Let’s Enhance
27.094 waifu2x Photo
27.196 waifu2x UpPhoto
ベンチマークに使った画像もUPしておきます。
https://www.dropbox.com/sh/i5b2old7vqgtvyv/AADb8UIqZel9LTDaFuwDdLwda?dl=0
一応bicubicと同程度はあるようです。
BSD100 x4 Y-PSNR
25.976 bicubic
26.085 Let’s Enhance
27.094 waifu2x Photo
27.196 waifu2x UpPhoto
ベンチマークに使った画像もUPしておきます。
https://www.dropbox.com/sh/i5b2old7vqgtvyv/AADb8UIqZel9LTDaFuwDdLwda?dl=0
937名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/12(日) 13:41:34.72ID:dNH6kcXn0 >>936
PSNRで20台半ばか。
ただ、そもそも超解像のような処理の場合、PSNRが評価指標として適切かという問題はある。
以下を読むと参考になるかと。
・MSE/PSNR vs SSIM の比較画像紹介
https://qiita.com/yoya/items/510043d836c9f2f0fe2f
SSIMで比較してみるといいのかもしれない。
PSNRで20台半ばか。
ただ、そもそも超解像のような処理の場合、PSNRが評価指標として適切かという問題はある。
以下を読むと参考になるかと。
・MSE/PSNR vs SSIM の比較画像紹介
https://qiita.com/yoya/items/510043d836c9f2f0fe2f
SSIMで比較してみるといいのかもしれない。
938名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/12(日) 13:47:37.01ID:dNH6kcXn0 追記
Let’s Enhanceは、コントラストが変動する問題が解決すれば、基本的には今の状態でも使えなくはないのだが(バケる問題は学習量を増やせば落ち着くかと思われるので)、なぜにあんなにコントラスト変動が起こるのかが解せないんだよね。
Let’s Enhanceは、コントラストが変動する問題が解決すれば、基本的には今の状態でも使えなくはないのだが(バケる問題は学習量を増やせば落ち着くかと思われるので)、なぜにあんなにコントラスト変動が起こるのかが解せないんだよね。
939名無しさん@お腹いっぱい。 (ワッチョイ df8e-0ibl)
2017/11/12(日) 13:59:45.49ID:dNH6kcXn0 再度追記
>>936の画像を見ていると、苦手な画像が少しわかってきた。
小さな三角形のような形が含まれる画像が変形しやすいように見える。
ヒョウ柄とか動物の目のまわりとか、そういう画像をたくさん学習させるとかなり改善されるような気がする。
>>936の画像を見ていると、苦手な画像が少しわかってきた。
小さな三角形のような形が含まれる画像が変形しやすいように見える。
ヒョウ柄とか動物の目のまわりとか、そういう画像をたくさん学習させるとかなり改善されるような気がする。
940名無しさん@お腹いっぱい。 (ワッチョイWW 7f8e-D8hg)
2017/11/13(月) 11:19:04.01ID:TPyOarub0 Let’s Enhanceについてさらに評価と要望
・アンチJPEG
JPEG画像などに見られるブロックノイズを解像感を落とさずに除去
→この考え方を応用して、スキャナで取り込んだ画像に発生するモアレを、解像感を落とさずにモアレだけ除去できるような
「アンチモアレ」機能に発展させてもらうことはできないのだろうか?
現状、モアレ除去を試みると、どうしても解像感が犠牲になるのと、素材ごとに手動で最適な設定値を見出さなければならない状況になるが、
自動的に最適な状態で除去してくれたら、印刷物の取り込みが大幅に楽になる。
ついでに、オプションで印刷物取り込み画像はコントラストが眠くなりがちです、取り込み後にガンマをいじくったりして補正しなければならないケースが多いので、
印刷物のコントラスト補正最適化モードも自動的に実行されるオプションがあればなおよいのだけど。
・ボーリング
省略
・マジック
アンチJPEGを実行後に拡大しているようなのだが、アンチJPEGをオフにして拡大だけするモードをつけられないのだろうか?
サンプル画像を見ていると、アンチJPEGによる副作用なのか、妙にノッペリして見える箇所が見受けられるので。
・アンチJPEG
JPEG画像などに見られるブロックノイズを解像感を落とさずに除去
→この考え方を応用して、スキャナで取り込んだ画像に発生するモアレを、解像感を落とさずにモアレだけ除去できるような
「アンチモアレ」機能に発展させてもらうことはできないのだろうか?
現状、モアレ除去を試みると、どうしても解像感が犠牲になるのと、素材ごとに手動で最適な設定値を見出さなければならない状況になるが、
自動的に最適な状態で除去してくれたら、印刷物の取り込みが大幅に楽になる。
ついでに、オプションで印刷物取り込み画像はコントラストが眠くなりがちです、取り込み後にガンマをいじくったりして補正しなければならないケースが多いので、
印刷物のコントラスト補正最適化モードも自動的に実行されるオプションがあればなおよいのだけど。
・ボーリング
省略
・マジック
アンチJPEGを実行後に拡大しているようなのだが、アンチJPEGをオフにして拡大だけするモードをつけられないのだろうか?
サンプル画像を見ていると、アンチJPEGによる副作用なのか、妙にノッペリして見える箇所が見受けられるので。
941名無しさん@お腹いっぱい。 (ワッチョイ 7f8e-0ibl)
2017/11/13(月) 14:30:14.38ID:TPyOarub0 waifu2xとの比較画像含め作成してみました。
https://www.axfc.net/u/3862416
※700MB程度zipファイルです。時間のある時にお試しください。
今夜2時までの公開です。
(著作権があるので、テスト目的のみで使用してください)
※元画像がAdobe-RGBの画像については、ICCプロファイルの引継ぎがされていないため、正しい色味で表示されませんが、これはwaifu2xの初期と同じく、プロファイルの編集をすれば正しく表示されます。
なお、変換した画像について
・いつもの画像
waifu2xのテストでよく使用していた画像です。
pngファイルにつき、anti-jpegは出力されていません。
ノイズ除去を適用したくなければ、pngファイルでアップするとよいのかもしれないです。
waifu2xとの比較ですが、boolin(2次元向き)よりmagic(実写向き)のほうが精細感や透明感があり好ましいように思います。
ただし、川の右側の欄干の処理がもう一歩な感じはするけど、縦横4倍!でこの状態はすごい。
(試す前まで、waifuと同じ縦横2倍だと思ってました・・・)
ただし、川の左側の石の護岸壁が元画像とコントラストが異なるのは気になるところ。
他の画像はjpgですので、anti-jpegあり。
参考程度にどうぞ。
(ノイズ除去なしになるか試そうと、jpg⇒pngした画像をアップしようとしたら枚数上限に達したので、また次回試してみます)
https://www.axfc.net/u/3862416
※700MB程度zipファイルです。時間のある時にお試しください。
今夜2時までの公開です。
(著作権があるので、テスト目的のみで使用してください)
※元画像がAdobe-RGBの画像については、ICCプロファイルの引継ぎがされていないため、正しい色味で表示されませんが、これはwaifu2xの初期と同じく、プロファイルの編集をすれば正しく表示されます。
なお、変換した画像について
・いつもの画像
waifu2xのテストでよく使用していた画像です。
pngファイルにつき、anti-jpegは出力されていません。
ノイズ除去を適用したくなければ、pngファイルでアップするとよいのかもしれないです。
waifu2xとの比較ですが、boolin(2次元向き)よりmagic(実写向き)のほうが精細感や透明感があり好ましいように思います。
ただし、川の右側の欄干の処理がもう一歩な感じはするけど、縦横4倍!でこの状態はすごい。
(試す前まで、waifuと同じ縦横2倍だと思ってました・・・)
ただし、川の左側の石の護岸壁が元画像とコントラストが異なるのは気になるところ。
他の画像はjpgですので、anti-jpegあり。
参考程度にどうぞ。
(ノイズ除去なしになるか試そうと、jpg⇒pngした画像をアップしようとしたら枚数上限に達したので、また次回試してみます)
942名無しさん@お腹いっぱい。 (ワッチョイWW 7f9b-RCyH)
2017/11/13(月) 23:14:41.84ID:SEq7VEq/0 重すぎてダウンロード出来ない
943名無しさん@お腹いっぱい。 (ワッチョイ df8e-N3p8)
2017/11/15(水) 12:26:10.44ID:+/WZXxMd0 >>942
また時間のあるときにでもアップしてみます。
なお、開発元からメールが届き、やはりpngでアップした場合はJPEGのノイズ除去はしないで拡大だけするようです。
その状況を確認しようと再度アップを試みたところ、前回のアップからすでに1日以上経過しているにもかかわらず、
上限枚数に達したと表示されアップできない状態。
どうも不安定なようす。
また時間のあるときにでもアップしてみます。
なお、開発元からメールが届き、やはりpngでアップした場合はJPEGのノイズ除去はしないで拡大だけするようです。
その状況を確認しようと再度アップを試みたところ、前回のアップからすでに1日以上経過しているにもかかわらず、
上限枚数に達したと表示されアップできない状態。
どうも不安定なようす。
944名無しさん@お腹いっぱい。 (ワッチョイ 0263-RuWE)
2017/11/21(火) 11:15:49.96ID:GGDYSobV0 今までグラボに負荷がかからないように、ゲームやるときでもGPU LOADをなるべく30%以内に抑えてきたんだが、
waifu2x-caffeだと常時100%使うんだな (((( ;゚Д゚)))ガクガクブルブル
まあ、すぐ慣れるか・・・
waifu2x-caffeだと常時100%使うんだな (((( ;゚Д゚)))ガクガクブルブル
まあ、すぐ慣れるか・・・
945名無しさん@お腹いっぱい。 (ワッチョイW 829e-BqvU)
2017/11/21(火) 11:49:30.65ID:ggCP7JpA0 俺100%にならないぞ
性能が低いからか?
性能が低いからか?
946名無しさん@お腹いっぱい。 (ワッチョイ ae76-dUYE)
2017/11/22(水) 10:59:57.46ID:MpzyPo1w0 ディープラーニングのすごさを体験! 人工知能で画像を加工できるツール5選
http://news.mynavi.jp/articles/2017/11/22/ai/
http://news.mynavi.jp/articles/2017/11/22/ai/
947名無しさん@お腹いっぱい。 (ワッチョイ df8e-DWFp)
2017/11/27(月) 16:45:35.69ID:k5rPv5PA0 Let's Enhance、月払いと年払いのサブスクリプションプランを作ったみたいだね。
無料版は制限きつすぎ。
無料版は制限きつすぎ。
948名無しさん@お腹いっぱい。 (ワッチョイ 5f6c-ijx+)
2017/11/27(月) 18:31:18.18ID:l2QRCD030 waifu2xも運営費の捻出に苦労している中ビジネスモデルが成功するのか興味がある
949名無しさん@お腹いっぱい。 (スップ Sdff-ULKC)
2017/11/27(月) 20:18:13.21ID:0yxjOZvPd そもそも一般的な使い道が思い付かない
防犯カメラ画像の解析とか?
防犯カメラ画像の解析とか?
950名無しさん@お腹いっぱい。 (スッップ Sd7f-k+KP)
2017/11/27(月) 20:24:39.62ID:25fgXHbid AIが解析した監視カメラ映像は法的な証拠能力があるのだろうか
951名無しさん@お腹いっぱい。 (ワッチョイ 2735-KsIq)
2017/11/28(火) 23:44:40.07ID:X/pTZJk50952名無しさん@お腹いっぱい。 (ワッチョイWW df8e-2YCd)
2017/11/29(水) 09:11:55.09ID:uEaZLV9C0 どこをどう読んだらオフラインで使えるようになったように読めるのか…
953名無しさん@お腹いっぱい。 (ニククエ a76c-+taN)
2017/11/29(水) 14:08:33.74ID:LjzMHann0NIKU また繋がらない
モチベが無くなる前に復旧してくれー
モチベが無くなる前に復旧してくれー
954名無しさん@お腹いっぱい。 (アークセーT Sxbd-SZ7f)
2017/12/01(金) 00:27:17.53ID:JRCbfq5qx これUPした画像はサーバにずっと保存されるの?それとも一定期間で削除?
955名無しさん@お腹いっぱい。 (ワッチョイWW c571-qSQT)
2017/12/01(金) 02:29:52.78ID:YkGnoxC70 速攻削除じゃないの?保存する意味あるかな?
956名無しさん@お腹いっぱい。 (ワッチョイ 8a53-HgL3)
2017/12/01(金) 10:26:12.87ID:rk1mw3Ut0 ぐへへ
957名無しさん@お腹いっぱい。 (ワッチョイ 3767-F7Qh)
2017/12/08(金) 19:58:14.25ID:1692mnP40 Tensor演算性能110TFLOPSなTitan Vが出たけど、waifu2xどれくらい速くなるんけ?
958名無しさん@お腹いっぱい。 (ワッチョイW d7c1-Piuo)
2017/12/13(水) 05:40:07.05ID:mHLtONb60 waifu2x、iOSのSafariからやるとGoogle reCaptureクリアしてもInvalid Requestが出てしまうのですがどうしたらいいですか?
959名無しさん@お腹いっぱい。 (ワッチョイ 973e-zy4u)
2017/12/13(水) 19:36:00.62ID:azBr58UQ0 >Let’s Enhanceは、コントラストが変動する問題が解決すれば
GANの原理的に元の数値自体を見てないから形状とか以外は
ごっつり変わる可能性があるんだよね
GANの原理的に元の数値自体を見てないから形状とか以外は
ごっつり変わる可能性があるんだよね
960名無しさん@お腹いっぱい。 (ワッチョイWW a38e-J+o0)
2017/12/20(水) 10:42:06.75ID:o8jFfiBn0 >>959
それじゃ話にならんね
それじゃ話にならんね
961名無しさん@お腹いっぱい。 (ワッチョイ 926c-ncc0)
2017/12/20(水) 11:03:38.82ID:Nd23KCWC0 PSNRを高くしていく方向性の超解像は原画像とかけ離れた結果にはなりにくいが溶けたりぼやけたりする
PSNRを無視して自然に見える画像を作り出そうとする方向性の超解像はくっきりしているけど原画像とかけ離れた結果になるリスクが有る
ジレンマみたいな感じで難しいね
今後はどっちの超解像が主流になるのかな
PSNRを無視して自然に見える画像を作り出そうとする方向性の超解像はくっきりしているけど原画像とかけ離れた結果になるリスクが有る
ジレンマみたいな感じで難しいね
今後はどっちの超解像が主流になるのかな
962名無しさん@お腹いっぱい。 (ワッチョイ cf37-bqMz)
2017/12/22(金) 12:59:10.97ID:45YP9s6P0 誰でも悪夢のようなムービーが作れるようになるツール「Bind」が公開
https://gigazine.net/news/20171221-bind/
https://gigazine.net/news/20171221-bind/
963名無しさん@お腹いっぱい。 (ワッチョイ f38e-EmoC)
2017/12/22(金) 14:00:11.61ID:WX6qzd4e0964名無しさん@お腹いっぱい。 (中止WW 3367-ZsAo)
2017/12/24(日) 01:09:29.89ID:OnQYpWTt0EVE コントラストが変わらなくて
元画像を参照するGANを思いついたので
近いうち実装する
写真向け手法
元画像を参照するGANを思いついたので
近いうち実装する
写真向け手法
967名無しさん@お腹いっぱい。 (ワイモマー MMea-FiVz)
2018/01/01(月) 10:47:23.44ID:Hh7i7mWtM アンチエイリアス、ジャギ取り用の深層学習のソフトってないだろうか
学習させるとしたら、ジャギっている大きな画像を大量に用意し
ニアレストネイバーで縮小したジャギっている画像と
適当なフィルタで縮小してスムージングされた画像を学習させる形になるのかな
学習させるとしたら、ジャギっている大きな画像を大量に用意し
ニアレストネイバーで縮小したジャギっている画像と
適当なフィルタで縮小してスムージングされた画像を学習させる形になるのかな
968名無しさん@お腹いっぱい。 (ワッチョイWW 6f67-LuW1)
2018/01/01(月) 15:11:31.18ID:jOvnUDDx0 waifu2xって元画像がジャギって
ゆがんでても補正してくれるんだけど
ソース読むと縮小フィルタを
ランダムに選択して学習してるので
ジャギがあってもなくてもうまくいく
設計なんだよね
964の100パーセントGANによる
超解像だけど、画質的にはwaifu2x
には遙かに及ばないけど
劣化画像と理想画像が全く別の
画像でもいいので、大量のスマホの写真と
一眼レフの画像があればスマホの画像を
一眼レフに変換できる
ゆがんでても補正してくれるんだけど
ソース読むと縮小フィルタを
ランダムに選択して学習してるので
ジャギがあってもなくてもうまくいく
設計なんだよね
964の100パーセントGANによる
超解像だけど、画質的にはwaifu2x
には遙かに及ばないけど
劣化画像と理想画像が全く別の
画像でもいいので、大量のスマホの写真と
一眼レフの画像があればスマホの画像を
一眼レフに変換できる
969名無しさん@お腹いっぱい。 (ワッチョイ 0356-AZCO)
2018/01/01(月) 19:31:50.30ID:MEklgyMk0970名無しさん@お腹いっぱい。 (ワイモマー MMea-FiVz)
2018/01/01(月) 20:24:27.50ID:Hh7i7mWtM >>969
言葉足らずで申し訳ないですが、こちらとしては処理対象のジャギーっている画像とは
よくある斜めの色の境界に中間色がなく1ドットのギザギザが見える状態を想定しています
ジャギってない画像=色の境界付近に中間色がある画像をニアレストネイバーで縮小すると
縮小画像の境界線上で元画像の境界付近の中間色を抽出してしまう箇所が出て来ますし
それを拡大すると、ジャギっている部分が1ドットではなく拡大倍ドットとなりまので
想定のジャギー画像とは異なるものが出力されます
ニアレストネイバーで縮小⇒拡大した画像を元の画像に向けるというのは
ニアレストネイバーの性質上、実質的にwaifu2xの拡大に近いものと思われますが
現状のwaifu2xには上記で想定しているジャギーはあまり取れません
彩色等の関係で最終的に必要な物より高解像度かつアンチエイリアスが掛かってない画像を用意して、
その後に縮小することで中間色を生成させジャギってない状態にするというのは良くある手法ですので
その辺の効果により、前述の方法で学習できるのではないかなと考えていました
言葉足らずで申し訳ないですが、こちらとしては処理対象のジャギーっている画像とは
よくある斜めの色の境界に中間色がなく1ドットのギザギザが見える状態を想定しています
ジャギってない画像=色の境界付近に中間色がある画像をニアレストネイバーで縮小すると
縮小画像の境界線上で元画像の境界付近の中間色を抽出してしまう箇所が出て来ますし
それを拡大すると、ジャギっている部分が1ドットではなく拡大倍ドットとなりまので
想定のジャギー画像とは異なるものが出力されます
ニアレストネイバーで縮小⇒拡大した画像を元の画像に向けるというのは
ニアレストネイバーの性質上、実質的にwaifu2xの拡大に近いものと思われますが
現状のwaifu2xには上記で想定しているジャギーはあまり取れません
彩色等の関係で最終的に必要な物より高解像度かつアンチエイリアスが掛かってない画像を用意して、
その後に縮小することで中間色を生成させジャギってない状態にするというのは良くある手法ですので
その辺の効果により、前述の方法で学習できるのではないかなと考えていました
971名無しさん@お腹いっぱい。 (ワッチョイWW ca9b-fuA0)
2018/01/01(月) 20:29:13.01ID:8BMS1Da70972名無しさん@お腹いっぱい。 (ワッチョイ 4a27-XPej)
2018/01/01(月) 21:19:51.47ID:xM62e1bZ0973名無しさん@お腹いっぱい。 (ワイモマー MMea-FiVz)
2018/01/01(月) 22:08:58.84ID:Hh7i7mWtM974名無しさん@お腹いっぱい。 (ワッチョイWW db8e-pBWh)
2018/01/01(月) 22:20:48.47ID:lYo0ZpOi0 >>971
本来的には新スレを立てるべきだが、この板、古いスレが残ったままになるからいつまでも鬱陶しい状況が続くのがなんとも…
しかもスレタイの数字をわざわざ全角にしてるとか頭悪すぎて嫌になるのだが、再利用してさっさと消化したほうがいいのかもと思わなくもない
本来的には新スレを立てるべきだが、この板、古いスレが残ったままになるからいつまでも鬱陶しい状況が続くのがなんとも…
しかもスレタイの数字をわざわざ全角にしてるとか頭悪すぎて嫌になるのだが、再利用してさっさと消化したほうがいいのかもと思わなくもない
975名無しさん@お腹いっぱい。 (アウアウアー Sa7f-ZvWl)
2018/01/05(金) 12:51:26.34ID:nBhogx94a ところで、>>964の件は、もう実装済みなんだろうか?
976名無しさん@お腹いっぱい。 (ワッチョイWW 9f9b-WfZ8)
2018/01/06(土) 10:48:48.97ID:0S9DEI+l0 そもそも実装したとしても一般人が気軽に試せる形になるのだろうか?
977名無しさん@お腹いっぱい。 (オッペケ Srcf-F1OP)
2018/01/06(土) 19:51:14.90ID:OealWOcAr >975
年末に実装して実験中
とりあえずwaifu2xの画質は絶対にぬけないのは理屈上
わかってるので
画質的にはlanczosよりまし程度
写真の場合はいけてるんじゃないかと
思うが学習用写真が集まってない
カメラ固有の最適化が可能
年末に実装して実験中
とりあえずwaifu2xの画質は絶対にぬけないのは理屈上
わかってるので
画質的にはlanczosよりまし程度
写真の場合はいけてるんじゃないかと
思うが学習用写真が集まってない
カメラ固有の最適化が可能
978名無しさん@お腹いっぱい。 (アウーイモ MM8f-ZvWl)
2018/01/07(日) 12:55:19.05ID:qq+ZqyR5M ?
>>964ってwaifu2xの話じゃないの?
>>964ってwaifu2xの話じゃないの?
979名無しさん@お腹いっぱい。 (オッペケ Srcf-F1OP)
2018/01/07(日) 13:45:53.90ID:dBE9S5Xpr >978
ちがうよ
深層学習の超解像のアルゴリズムの
開発は最近は割とだれでもできる
ちがうよ
深層学習の超解像のアルゴリズムの
開発は最近は割とだれでもできる
980名無しさん@お腹いっぱい。 (ワッチョイ bb8e-nOrU)
2018/01/08(月) 15:39:19.53ID:6xLoPyaT0 ・AMD、HBM2搭載のモバイルGPU「Radeon Vega Mobile」
「NVIDIAで言えばcuDNNに対応するライブラリとしてオープンソースのMIOpenを利用し、NVIDIAで言えばCUDAに相当するプログラミング言語としてはオープンソースのHIPを活用しているの。
AMDは、CUDAのコードをHIPに移植するツールとして「HIPfy」という自動変換ツールを用意しており、それを利用してCUDAベースのアプリケーションを、
HIPに変換してRadeon Instinct上で機械学習/深層学習の学習や推論を行なうことができるようになっている。」
期待していいのか?
「NVIDIAで言えばcuDNNに対応するライブラリとしてオープンソースのMIOpenを利用し、NVIDIAで言えばCUDAに相当するプログラミング言語としてはオープンソースのHIPを活用しているの。
AMDは、CUDAのコードをHIPに移植するツールとして「HIPfy」という自動変換ツールを用意しており、それを利用してCUDAベースのアプリケーションを、
HIPに変換してRadeon Instinct上で機械学習/深層学習の学習や推論を行なうことができるようになっている。」
期待していいのか?
981名無しさん@お腹いっぱい。 (ワッチョイWW 6b71-awjz)
2018/01/08(月) 16:53:16.29ID:XECcA2bg0 つまり、CUDAで出来る事をRadeon上でも出来る様になるの?
982名無しさん@お腹いっぱい。 (ワッチョイ 9fe0-Qvr0)
2018/01/08(月) 23:48:52.12ID:XfcA6Mys0 >>966
ホンマに実装してくれたんか!有難う!!
ホンマに実装してくれたんか!有難う!!
レス数が950を超えています。1000を超えると書き込みができなくなります。
ニュース
- 高市早苗総理 G20サミット“遅刻” 会議後の夕食会出席も見送り [Hitzeschleier★]
- 【毎日世論調査】高市内閣の支持率65% 日中関係悪化も高水準維持、若年層に強み [蚤の市★]
- 小泉進次郎防衛相「共産党が日本の弾薬の数や配備を質問してきた、そんなこと言うわけない、手の内を見せるべきではない」 [お断り★]
- 【産経新聞】高市政権をバッシングする勢力、中国と一部のオールドメディアと緊縮財政派か [Hitzeschleier★]
- 【裁判】山上徹也被告の妹「大好きなお兄ちゃん」「旧統一教会信者の叔母から、選挙時に自民党の特定の候補に入れてほしいと…」奈良地裁 [1ゲットロボ★]
- 【石破茂前首相】台湾有事巡る高市発言に苦言 神経使う日中関係「よく認識しながらやって」 [ぐれ★]
- 京都競馬4回6日目マイルチャンピオンシップ
- 他サポ 2025-265
- 2025 SUPER FORMULA Lap21 【歩夢、伝説へ】
- 【DAZN】フォーミュラGP【F1 2 3 SF P】Lap1809
- @@@令和七年大相撲九州場所 vol.12@@@
- ベガルタ仙台実況 ★3
- 【悲報】Twitter、登録国を表示できる機能を追加し大炎上 [347751896]
- 【実況】博衣こよりのえちえちゼルダの伝説 ムジュラの仮面🧪 ★6
- 【高市悲報】朝日新聞、高市早苗の横顔を切り取る [762037879]
- 勤労感謝🙏の日のちゅちょ👶り放題スレ🏡
- ニュージーランドで日本人男性が着替え盗撮。日本なら無罪だが先進国なので逮捕され有罪判決 [485187932]
- 1日の後半に差し掛かるとうんち汁がアナルから染み出てくるオッサンいるでしょ [329329848]
