【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
レス数が1000を超えています。これ以上書き込みはできません。
>>832
データセットは公開されているので http://groups.csail.mit.edu/graphics/fivek_dataset/
対応を学習することはできますけど
写真の後処理を機械学習で自動でやろうとか実際考えるものでしょうか?
そこは写真作りで一番重要なところだから自分でやりたいと思うんだけど
そこにあまり興味ない人には自動でできたら便利なのかな >>847
どの程度の処理までさせるか次第なのでは?
元画像よりコントラスト比なども含めた変化まで強制的にお仕着せになるならば困るけれど、リンク先が言うレタッチ的な要素が
waifu2xで発生する例の輪郭の不自然さを旨く手直しするような作用をしてくれるのならば、やる価値はあるかと。
いいところだけ旨く流用できれば一番いいのでは? スマホのアプリで料理の写真を美味しそうに見えるように簡単レタッチするソフトが人気あったからこの手のやつは需要あるんじゃないかな そこら辺のプログラマでもネタで
深層学習一発ネタやってるし、
まともなプログラマなら誰でもできる
ようになってるんだが
waifu2xのツール類が充実してるのは
基本的な考え方が簡単なのはあるよ
waifu2xがすぐれてるのはそういうところじゃない
ノウハウや学習データセットの
作成だと思うよ
やってみたらわかるけど同じ性能出すの
かなり困難 ニューラルネットワーク構造と学習済み辞書 が非常に優秀。
というか世の中これを向上させるための提案が大量に出回ってるけど99割はモノにならない >>835
それの中身-----------
よくある質問
どのような技術で使用されています?
最新の深い畳込みニューラルネットワークを用いた。それは知的に品質を失うことなく彼らを大きくする絵の中の雑音とセレーションを減らします。例示の写真を見る
違いは何ですか?
PSのような他のソフトウェアで、絵はまだファジールックを拡大、
および可視ブラーと雑音があります。
当社の製品は絵の線と色のために調整された特別なアルゴリズムとニューラルネットワークを使用し、
この拡大効果が優れている。色はよく保たれており、ほぼ格子または倍増は見えません。
もっと重要なのは、雑音、品質に重大な影響を及ぼすことができない結果、
イメージで見られる。
拡大するのに最適な画像は何ですか?
アニメ/ファンアートの写真は最高です。 画像の限界は何ですか?
現在3000x3000解像度をアップロードすることができ、10MB以下の写真。
スピードはどうですか?
スタート後予想の処理時間が表示されます。
よっの倍率と画像サイズ、増幅時間が異なり、数分から数十分不等。
実際には予想時間が少し短い時間が少し短い。
なぜ失敗拡大?
ネットワーク環境と同時に受けサーバー使用人数の影響があって、
とても小さい確率が増幅して失敗すること。
もしあなたがこのような状況に会ったら、数分でもう一度試してみてください。
拡大を開始している間はブラウザーを開いたままにする必要がありますか?
もしあなたは登録が、そんなにずっと保持ブラウザを開いて、
さもなくば紛失増幅のピクチャー。
もしあなたは登録したが、それがブラウザを閉じ、支持拡大オフライン、
壱時間またダウンロードできますよ。
自分の歴史記録をどう見る?
登録後、記録と自分の歴史記録を調べて。
もっと写真を拡大するには?
このツールのサーバーの支出を維持するため、有料の拡大サービスを提供します。
有料のアップグレード口座後使え独立の高性能サーバ、拡大写真をより速く、より多く、より安定した
--------------
日本語おかしすぎなwww 日本の英文サイトも英語圏の人からこんな風に見られてるのかな? reCAPTCHA導入以来で鯖死んでるのはじめてみた 動画の拡大で使うにはaviutlのnnedi3一択だな
流石に遅過ぎるし最近は何かgifみたいなノイズが出てクソだし ノイズっていうか輪郭周りの不自然さ問題は、今の手法のままで対策するとなると、音声の処理でよく用いるオーバーサンプリング処理的な
考え方で攻めたほうが解決しやすいのではないかとも思う。
つまり、現状は縦横2倍(画像情報量で言うと4倍)に拡大をストレートに行っているけど、どうしても丸目誤差の問題が出るし目につきやすい。
(TTLモードで、画像を回転させる手法で幾分の軽減はされるが、根本的な解決手法ではない)
ならば、サンプル画像の確保が大変にはなるが、8倍オーバーサンプリングとでもいうか、内部処理的に縦横8倍(画像情報量で64倍)にすることを
前提に設計し、拡大後に縦横2倍(画像情報量で4倍)までダウンスケール、つまり縮小すれば、丸目誤差に伴うノイズというか荒らは気にならなく
なるのではないかと思う。
情報量が従来の計算に比べ16倍にはなるけれど、TTLモードを使うことを考えたら結局時間的には大差ないのではないかと思わなくはない。
ただし、縦横8倍の差をディープラーニングするためのサンプル画像がかなり大きなサイズの画像が必要になることがネックだろうと思われる。
このあたり、作者氏の手間の問題になってくるから、ユーザーがどうこう言いにくいところではあるのだが。 >>863
TTAモードのことを言ってるんだろうけど、それとリサイズのアルゴリズムは根本的に関係ないんじゃないの
ダウンサンプリングすればいいと言うけど、それはどんな手法を使うんだい?
画像処理のコストはめちゃくちゃ下がってるし、waifu2xにしても自分で用意したデータセットで学習する手引もされてる
具体的なアイデアがあるなら試してみるといいよ アルゴリズムは難しくないので
自分で実装してみたら?
俺が試した範囲ではオーバーサンプリングして
縮小してもあんま変わらなかった
当たり前だが俺は作者じゃないよ 今回の場合cudnn-8.0-windows7-x64-v7.zip/cuda/bin/cudnn64_7.dllかな
このへん本当に分かりにくいよなあ
前提となるCUDAやGeForceドライバのバージョンもあったかもしれない CPU用はまだ? AVX2とかSSE4.2とかで1/10のスピードにならんかな←遅くてもいいからって意味で >>868
CPUならtanakamuraさんの派生のやつが早いと思うよ ハイブリッド、キタコレ
・ 低解像度画像からでも高解像度画像を生成できる「PixelNN」
http://gigazine.net/news/20170926-pixelnn/ 写真とそれを落書きにしたイラスト2000枚を学習させればええだけやで iOS版のwaifu2xなんてものが出来てた
imxieyi/waifu2x-ios: iOS Core ML implementation of waifu2x
https://github.com/imxieyi/waifu2x-ios >>869
thx、更新止まってるみたいでげんなり invalid requestって何が原因?頻発するんだが >>877
reCAPTCHAの認証に失敗すると出てます。
全体の3%くらいでそんなに出ていないので
それ以上の確率で発生しているなら環境か回答に原因があると思いますがよく分かってないです。
判定には、reCAPTCHAの入力(マウスの軌道,画像問題が出たならその回答)、端末のIPアドレスが使われてます。 >>878
なるほど。実行ボタン押せても回答が間違ってる場合があるってことかな
ここ数日で急に出てくるようになったんだよね
ちょっと注意してreCAPTCHAやってみます 前にノイズが云々言った者だがもう直ったみたいだな
前までは本当に素人が分かるレベルの汚いノイズが出てたんだ
マルチの方が未だに直ってないようなんで使ってみれば分かる waifu2x-caffeで縦横幅両方指定すると横だけ指定した場合に比べてかなり時間かかるけど、
縦横幅両方指定だと単純に2の累乗倍して縮小するだけじゃない何か別の処理してるのかな 指定値のどちらかが元サイズの2倍数を超えているとか
128->256(2倍), 128->257(4倍後縮小)と境界がある >>882
テストしたけど変わらないわ
883のケースじゃないかね 色々試してみたが、(自分の場合)どうも一定以上縦長の画像を拡大してみたときに縦横幅両方指定/横だけ指定で処理時間に差が出るようだ
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う >>885
その条件でテストしたら確かに違いを確認したわ
横幅のみ指定 20秒
横幅、縦幅指定 90秒 例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う
横幅のみは 1.6倍 プロファイル使って1回
両方指定は 2.0倍 4分割から縮小
と違う経路になってるかと。 886の時間差的にそれっぽい >>887
1.6倍かどうかは関係ないかも
900x1800でも一緒だった フォトショにもAIアップスケールだって
https://pc.watch.impress.co.jp/docs/news/1087038.html
>人工知能を活かした画像拡大機能で、ディテールやテクスチャを保持しつつ画像サイズを変更でき、劣化が抑えられるという。 >>891
リンク先の画像だと、画像サイズが小さくてわかりにくいが、確かに髪の表現や顔の血管やシワが強調されてはいる。
まだプレビュー扱いのようではあるが。
しかし、Photoshop高いからな… Lightroom付いて月1000円は安いと思うけど ・・・数年でいくらになるかと言うと
"(((( ´,,_ゝ`)))) 文字などの拡大結果がwaifu2xっぽいらしいですね
(CNN系はどれも似たような特徴がでる) >>894
買い切り時代の値段で8年くらい使える訳だけど
確かにまともに使わない人には高いか 休みの日のお絵かき用途に毎月1000円も出したくないな Photoshopでお絵かきなんてするやついるのか ・ガビガビの低解像度写真を高解像度な写真に変換できる「EnhanceNet-PAT」が登場
https://gigazine.net/news/20171101-algorithm-low-resolution-images/
この研究の前は、最先端の超解像技術でさえ、画像の中にぼやけた部分やざらざらした部分を持っていました。
その理由は、『高精細な画像になるようにオリジナル写真を再構成させる』などのニューラルネットワークでは実現不可能なことを、ニューラルネットワークに要求していたからです。
そのため、超解像技術で作成された画像は、一部がぼやけていたそうです。
そこで、我々はニューラルネットワークにより高精細なテクスチャーを作成してもらう、という異なるアプローチを取りました。
この手法ではニューラルネットワークが画像全体を見て、領域を検出し、意味情報を使ってより高精細なテクスチャーを作成し、高解像度の画像を作成します」
能書きはいいから早く一般人が利用できるようにしてくれ! こんな事が出来るようになったのに、何でデインターレースは上手く出来ないのか デインターレースはやりたがる人が少ないんじゃないか
あとリアルタイム動作を考えると難しいとかあるかも >>900
これ、デジタル放送のブロックノイズ対策やモザイク除去にも使えそうだな 奥の人と融合して別の学習済みの何かとザ・フライしたな ゾンビ化以外は、従来版よりいいね。
従来版の輪郭が溶ける問題は発生していないから、ゾンビ程度ならペイント程度でも局所的に簡単に手直しできそうだし。
(輪郭が溶けるほうは、ペイントで簡単に手直しとはいかないし) 同一画像については変換パラメータ変更での再処理は○回まで無料とかは欲しいが
利用量(枚数、サイズ)に応じた従量制課金かプリペイド制のサービスになると利用しなくなる法則
オンライン変換サービスしてる人も課金モデルでその部分指摘してたな テクスチャを学習するってことは、本格的に学習すると
データの容量が凄いことになるのかな 画像系ディープラーニングの学習データの量はニューラルネットワークで定義されてる係数やフィルタの数で固定される
学習サンプルが多いとデータが増えるわけではなく、固定サイズの学習データの質がサンプルの内容に応じて最適化されていくだけ >>919
ちょっと画像の例が悪かったかもしれない
元の1/4に縮小して拡大してあるから細部の情報なんて全く残ってないのよ >>920
EnhanceNet-PATは、そこまで酷くない。
今更出来の悪いものは必要ない。 >>923
どれがどれかくらい書いてアップしろよ、常考・・・
上から
・原画
・UpPhoto x4
・waifu2x(ノイズ除去無し)
だな。
■草刈正雄画像
一見すると確かにUpPhoto x4の仕上がりは良好に見える。
が、ブルーのクッションのうち右側のほうに着目すると、少しコントラスト比が変動してしまい
眠たくなってしまっている。
原画ではもう少しだけコントラスト感がある。
■女性画像
草刈正雄画像と同様に、黒い服?のコントラスト感が若干弱まり眠たくなってしまっている。
この程度の画像でコントラスト変動が出る(全体にではなく一部にというのが問題)のは、学習に用いている画像の枚数が少なすぎるのではないか?
前の>>916でもそうだけど、学習量が少なすぎるから、少ない学習データの中で一番近そうなのはこれしかないんです状態に感じられて仕方がない。
少なくとも今の学習量の8倍は学習させたほうがいい。
あと、一度拡大した画像自体を縮小して、元画像との変化が出ているところを再度調整しなおすような仕組み(フィードバック補償)があってもよいのかもしれない。
ゾンビ化の画像とかもそうだが、フィードバックしていればあのまま出てくることはないはず。
一度きりの結果に満足するなかれ。 >>924
ごめん、どれがどれか書き忘れた。
上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
あとレビューありがとう。
自分は画像処理の専門家じゃないしそんなに目も良くないので意見を言ってくれると助かります。
学習量については一週間毎にモデルを更新していく予定とのことなのでそれで改善されるかも。 >>925
>上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
これマジ?
だとしたらLet's Enhanceが一番ぼけてることになるのだが。
輪郭線などの具合から、てっきり3番目がwaifu2xかと思っていたのだが。 >>917
ここの最新エントリにLet’s Enhanceの使い方から処理の違いとか詳しいのある
digibibo.com >>926
Let's Enhanceぼかしたままのところとディテールを加えるところのメリハリがあるね
髪の毛や肌は明らかにLet's Enhanceの方が情報量が多い(存在しない情報を付加している)
メガネのエッジなんかもLet's Enhanceの方がくっきりしてる >>927
さすがに記事書き慣れてる人は紹介が上手いねw
自分だけではしゃいで魅力を説明できない自分とは大違いだわ なぜかリンク貼るとエラーになるのでリンク先で画像見つけてほしいが
■JPEGノイズ除去のbefore/after(左右で比較できる画像)
tmpimg1711101329n220171110135958928.jpg
やはりコントラストが変動しているな。
■拡大のbefore/after(鉄塔の画像)
before
tmpimg1711101340n120171110140051020.jpg
after
tmpimg1711101341n120171110140114527.jpg
拡大後の鉄塔の赤色や右側の塔の上部のオレンジ、クレーンの青、背景等をみると、同様に変動している。
輪郭周りの処理はwaifu2xよりうまいけど、まだまだ問題点が多い。 追記
ただし、ノイズ除去の精度はかなり高い。
これ、デジタル放送のノイズ除去や、調整次第ではVHSの3倍モードのノイズに効用がありそうな気はする。 確かに非常に良くなる画像とディテールが崩れる画像がある印象。
だけどまさに魔法と呼びたくなるほど凄い処理がされる画像もあったよ。 イラスト系の比較画像がほしいな
実写はもともとwaifu2x苦手なの分かってるし >>933
今は無料で試せるみたいだから自分で試してみたら。
閑話休題。
Let’s Enhance、これもGPUの力がないと演算に時間がかかるタイプなのかな?
来年早々にIntel CPU+Radeon GPUなCPUをIntelが出すみたいだし、AMD系含めオフライン環境でも実行できるようになればいいのだが。
動画を連番画像で書き出してアップさせようとするとすさまじい枚数になるので、時間はかかってもいいがオフラインで実行できないと死ぬ。 >>933
Let's EnhanceのTwitterアカウントの人がWe are trained on photos, not anime ) Waifu2x has a clear leadership here )って言ってるからあんまり向いてないんじゃないかな
Google翻訳 私たちはアニメではなく写真で訓練されています)Waifu2xはここで明確なリーダーシップを持っています) >>584でGANはPSNRが下がる懸念があると言われていたので気になって調べてみました。
一応bicubicと同程度はあるようです。
BSD100 x4 Y-PSNR
25.976 bicubic
26.085 Let’s Enhance
27.094 waifu2x Photo
27.196 waifu2x UpPhoto
ベンチマークに使った画像もUPしておきます。
https://www.dropbox.com/sh/i5b2old7vqgtvyv/AADb8UIqZel9LTDaFuwDdLwda?dl=0 >>936
PSNRで20台半ばか。
ただ、そもそも超解像のような処理の場合、PSNRが評価指標として適切かという問題はある。
以下を読むと参考になるかと。
・MSE/PSNR vs SSIM の比較画像紹介
https://qiita.com/yoya/items/510043d836c9f2f0fe2f
SSIMで比較してみるといいのかもしれない。 追記
Let’s Enhanceは、コントラストが変動する問題が解決すれば、基本的には今の状態でも使えなくはないのだが(バケる問題は学習量を増やせば落ち着くかと思われるので)、なぜにあんなにコントラスト変動が起こるのかが解せないんだよね。 再度追記
>>936の画像を見ていると、苦手な画像が少しわかってきた。
小さな三角形のような形が含まれる画像が変形しやすいように見える。
ヒョウ柄とか動物の目のまわりとか、そういう画像をたくさん学習させるとかなり改善されるような気がする。 Let’s Enhanceについてさらに評価と要望
・アンチJPEG
JPEG画像などに見られるブロックノイズを解像感を落とさずに除去
→この考え方を応用して、スキャナで取り込んだ画像に発生するモアレを、解像感を落とさずにモアレだけ除去できるような
「アンチモアレ」機能に発展させてもらうことはできないのだろうか?
現状、モアレ除去を試みると、どうしても解像感が犠牲になるのと、素材ごとに手動で最適な設定値を見出さなければならない状況になるが、
自動的に最適な状態で除去してくれたら、印刷物の取り込みが大幅に楽になる。
ついでに、オプションで印刷物取り込み画像はコントラストが眠くなりがちです、取り込み後にガンマをいじくったりして補正しなければならないケースが多いので、
印刷物のコントラスト補正最適化モードも自動的に実行されるオプションがあればなおよいのだけど。
・ボーリング
省略
・マジック
アンチJPEGを実行後に拡大しているようなのだが、アンチJPEGをオフにして拡大だけするモードをつけられないのだろうか?
サンプル画像を見ていると、アンチJPEGによる副作用なのか、妙にノッペリして見える箇所が見受けられるので。 waifu2xとの比較画像含め作成してみました。
https://www.axfc.net/u/3862416
※700MB程度zipファイルです。時間のある時にお試しください。
今夜2時までの公開です。
(著作権があるので、テスト目的のみで使用してください)
※元画像がAdobe-RGBの画像については、ICCプロファイルの引継ぎがされていないため、正しい色味で表示されませんが、これはwaifu2xの初期と同じく、プロファイルの編集をすれば正しく表示されます。
なお、変換した画像について
・いつもの画像
waifu2xのテストでよく使用していた画像です。
pngファイルにつき、anti-jpegは出力されていません。
ノイズ除去を適用したくなければ、pngファイルでアップするとよいのかもしれないです。
waifu2xとの比較ですが、boolin(2次元向き)よりmagic(実写向き)のほうが精細感や透明感があり好ましいように思います。
ただし、川の右側の欄干の処理がもう一歩な感じはするけど、縦横4倍!でこの状態はすごい。
(試す前まで、waifuと同じ縦横2倍だと思ってました・・・)
ただし、川の左側の石の護岸壁が元画像とコントラストが異なるのは気になるところ。
他の画像はjpgですので、anti-jpegあり。
参考程度にどうぞ。
(ノイズ除去なしになるか試そうと、jpg⇒pngした画像をアップしようとしたら枚数上限に達したので、また次回試してみます) >>942
また時間のあるときにでもアップしてみます。
なお、開発元からメールが届き、やはりpngでアップした場合はJPEGのノイズ除去はしないで拡大だけするようです。
その状況を確認しようと再度アップを試みたところ、前回のアップからすでに1日以上経過しているにもかかわらず、
上限枚数に達したと表示されアップできない状態。
どうも不安定なようす。 今までグラボに負荷がかからないように、ゲームやるときでもGPU LOADをなるべく30%以内に抑えてきたんだが、
waifu2x-caffeだと常時100%使うんだな (((( ;゚Д゚)))ガクガクブルブル
まあ、すぐ慣れるか・・・ Let's Enhance、月払いと年払いのサブスクリプションプランを作ったみたいだね。
無料版は制限きつすぎ。 waifu2xも運営費の捻出に苦労している中ビジネスモデルが成功するのか興味がある そもそも一般的な使い道が思い付かない
防犯カメラ画像の解析とか? AIが解析した監視カメラ映像は法的な証拠能力があるのだろうか >>947
オフラインで使えるようになった?
GPU使って大量にやりたい どこをどう読んだらオフラインで使えるようになったように読めるのか… また繋がらない
モチベが無くなる前に復旧してくれー これUPした画像はサーバにずっと保存されるの?それとも一定期間で削除? Tensor演算性能110TFLOPSなTitan Vが出たけど、waifu2xどれくらい速くなるんけ? waifu2x、iOSのSafariからやるとGoogle reCaptureクリアしてもInvalid Requestが出てしまうのですがどうしたらいいですか? >Let’s Enhanceは、コントラストが変動する問題が解決すれば
GANの原理的に元の数値自体を見てないから形状とか以外は
ごっつり変わる可能性があるんだよね PSNRを高くしていく方向性の超解像は原画像とかけ離れた結果にはなりにくいが溶けたりぼやけたりする
PSNRを無視して自然に見える画像を作り出そうとする方向性の超解像はくっきりしているけど原画像とかけ離れた結果になるリスクが有る
ジレンマみたいな感じで難しいね
今後はどっちの超解像が主流になるのかな >>961
PSNR無視型=Let's Enhance
で輝度信号(Y)だけ処理して
PSNR重視型=waifu2x(RGB処理)で処理した画像の輝度信号(Y)だけ差し替え
とか無理か コントラストが変わらなくて
元画像を参照するGANを思いついたので
近いうち実装する
写真向け手法 >>964
waifu2x-markUか?
頑張れ、にぃちゃん >>701
かなり遅レスになりますがD&Dモード的なものを実装しました アンチエイリアス、ジャギ取り用の深層学習のソフトってないだろうか
学習させるとしたら、ジャギっている大きな画像を大量に用意し
ニアレストネイバーで縮小したジャギっている画像と
適当なフィルタで縮小してスムージングされた画像を学習させる形になるのかな waifu2xって元画像がジャギって
ゆがんでても補正してくれるんだけど
ソース読むと縮小フィルタを
ランダムに選択して学習してるので
ジャギがあってもなくてもうまくいく
設計なんだよね
964の100パーセントGANによる
超解像だけど、画質的にはwaifu2x
には遙かに及ばないけど
劣化画像と理想画像が全く別の
画像でもいいので、大量のスマホの写真と
一眼レフの画像があればスマホの画像を
一眼レフに変換できる >>967
学習が可能だとしたら、用意するのはジャギってない画像だろ
そこからニアレストネイバーで縮小&拡大して同サイズのジャギってる画像を生成する
正解データの質は重要と思われ >>969
言葉足らずで申し訳ないですが、こちらとしては処理対象のジャギーっている画像とは
よくある斜めの色の境界に中間色がなく1ドットのギザギザが見える状態を想定しています
ジャギってない画像=色の境界付近に中間色がある画像をニアレストネイバーで縮小すると
縮小画像の境界線上で元画像の境界付近の中間色を抽出してしまう箇所が出て来ますし
それを拡大すると、ジャギっている部分が1ドットではなく拡大倍ドットとなりまので
想定のジャギー画像とは異なるものが出力されます
ニアレストネイバーで縮小⇒拡大した画像を元の画像に向けるというのは
ニアレストネイバーの性質上、実質的にwaifu2xの拡大に近いものと思われますが
現状のwaifu2xには上記で想定しているジャギーはあまり取れません
彩色等の関係で最終的に必要な物より高解像度かつアンチエイリアスが掛かってない画像を用意して、
その後に縮小することで中間色を生成させジャギってない状態にするというのは良くある手法ですので
その辺の効果により、前述の方法で学習できるのではないかなと考えていました ところで次スレどうする?
荒らしが立てたスレ再利用する?
あ、もし新しくスレ立てるんなら
>>2のアルファチャンネルの情報は古いから消しといてね。 >>970
画像用意が大変だから最初はベクター画像を教師とするのが良いかとジャギーは後処理で作れるし
フォントレンダラーで文字ベースでやれば適度な曲線や払いの先鋭化が学習できるかも >>972
確かにそうですね
既存のソフトがないなら、その方向性で考えてみます >>971
本来的には新スレを立てるべきだが、この板、古いスレが残ったままになるからいつまでも鬱陶しい状況が続くのがなんとも…
しかもスレタイの数字をわざわざ全角にしてるとか頭悪すぎて嫌になるのだが、再利用してさっさと消化したほうがいいのかもと思わなくもない ところで、>>964の件は、もう実装済みなんだろうか? そもそも実装したとしても一般人が気軽に試せる形になるのだろうか? >975
年末に実装して実験中
とりあえずwaifu2xの画質は絶対にぬけないのは理屈上
わかってるので
画質的にはlanczosよりまし程度
写真の場合はいけてるんじゃないかと
思うが学習用写真が集まってない
カメラ固有の最適化が可能 >978
ちがうよ
深層学習の超解像のアルゴリズムの
開発は最近は割とだれでもできる ・AMD、HBM2搭載のモバイルGPU「Radeon Vega Mobile」
「NVIDIAで言えばcuDNNに対応するライブラリとしてオープンソースのMIOpenを利用し、NVIDIAで言えばCUDAに相当するプログラミング言語としてはオープンソースのHIPを活用しているの。
AMDは、CUDAのコードをHIPに移植するツールとして「HIPfy」という自動変換ツールを用意しており、それを利用してCUDAベースのアプリケーションを、
HIPに変換してRadeon Instinct上で機械学習/深層学習の学習や推論を行なうことができるようになっている。」
期待していいのか? つまり、CUDAで出来る事をRadeon上でも出来る様になるの? >>966
ホンマに実装してくれたんか!有難う!! 動画版waifu2x がどうとか言ってたけど今はビットコイン取引BOTを改良して必要資金貯めてるとか GT1030でもcuDNNで変換できるんだな
今までCPUで数分かかってた変換がほんの数秒で終わって感動した >>985
そりゃそうだ
VRAMありゃ分割数増やせる 1030はNVENC削られてるうえにcompute capabilityのリストからもハブられてるよね……
cudaだけは使えるからこのツール使ううえでは困らんけど 1050Ti でぶん回してるけどパラメータ上げてもGPU使用率50%にも届かないから全く問題なさそう 原因はわからないけどwaifu2xcafeで拡大すると変色する画像がある
皆はこういうの無いの?色が反転したように変わる 画像ファイルが CMYK 、ICCプロファイル付きだったりすると結構変わる
でも、反転というほどまでは行かない気がするので外してるかな ICCプロファイルの種類によっては結構変わるみたいね
例えばこのサイトの画像なんかは激しく変色する
Is your system ICC Version 4 ready?
http://www.color.org/version4html.xalter
現状だとweb版しかICCプロファイルに対応してないからweb版使うといい ICCプロファイルが原因ならば、前スレに書いた修正手順を試せばいい 2年前に後出重複で立ってかっそ過疎なのにまだ残ってるのがまだあるけどそっち使うの?
でもなんかお古すぎてアレだな・・とは思う人も居るのかしらかしら caffe作者さんへ。caffeってOpenCL(radeon)に対応予定はないの?
VEGA搭載のRyzen 5 2400Gを購入したいけどソレだけが二の足を踏む理由。
RYZEN G買ってWaifuの為だけにGeForce乗っけるのもなぁーチラチラッ
対応をもう一度検討してみて下さい。
converter-cppやcl-waifu2xも更新2年以上無いし・・・ caffe作者さんへ。OpenCLなんかには対応する必要ないよ。 このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 624日 0時間 45分 30秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。