【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
ワッチョイで建てるなっつったろうがヴォケ無視&破棄しろ >>328
そこら辺の話はこの記事に纏まってるね
GANによる超解像がもたらす新しい方向性と「The Perception-Distortion Tradeoff」の話
http://keiku.hatenablog.jp/entry/2018/07/22/220158 >>329
githubはフリーソフト配布サイトというわけじゃないので、自力で環境構築なりビルドなりしてねってのは珍しくない
それを嫌うのは個人の勝手だが、漫画を見てなんで白黒なのと言ってるようなもので
カラーページがあったり、誰か別の人が着色する可能性はあるけど、全ページ着色されるなんて事の方がむしろ少数派 >>332
だから、それ公開する人間がどこまで本気なんだってことなんだよ
Git使おうが使うまいが、本気の人間が作ったものは使い勝手をしっかり考えて作ってる
本気じゃない人間が作るものは、どこまで行っても中途半端 表紙だけカラーなんて中途半端、本気で楽しませる気あるのかっていうお客様 文句つけるより自分で作ったほうが早いぞ
中途半端が嫌ならなおさら自分で満足行くまでやれるんだし 熱しやすく冷めやすいって、それADHDじゃねぇかw chainerでresnetとかいうのが最強らしいけど
すぐポンと入れて使えるようなのじゃないと
いくら最強でも使えない時点でゴミだな。
誰でも使えるようにしとけよw
カフェも完全に作者やる気ないしな。 cuDNN v7.2.1
cuDNN Download | NVIDIA Developer
https://developer.nvidia.com/rdp/cudnn-download ・NVIDIAがGPUを再定義。Turing GPUは今後十数年間のグラフィックストレンドに
https://pc.watch.impress.co.jp/docs/news/1138079.html
記事内の写真
・NVIDIAのDLAAを利用すると、低解像度の画像を、高品質高解像度にすることができる
https://pc.watch.impress.co.jp/img/pcw/docs/1138/079/html/026_o.jpg.html
やっと実用的な速度で実行できる環境がもたらされそうだ
ただし、「継続的にこれを使って開発しようとする人がいれば」の話だが これ使うとガラケーの頃に撮ったQVGAサイズの写真もまともに見られるんだよね!? https://nvidianews.nvidia.com/news/nvidia-reinvents-computer-graphics-with-turing-architecture
>These include DLAA — deep learning anti-aliasing, which is a breakthrough in high-quality motion image generation — denoising, resolution scaling and video re-timing.
デノイズとスケーリングとフレームレート変換をまとめてDLAAと呼んでいるみたいで具体的になにするのかようわからんな avisynthチマチマ弄らなくてももっと動画を軽くて綺麗にする機能付けるとか? ああ技術的な問題か…時間軸に対応したwaifu2xじゃないのモダンなビデオコーデックならベクター処理から正確な中間点補完してくれそう(願望) 広がる未来と 夢にあこがれて
汗拭き 川沿い ひとり走ってた
この町で暮らそう 君が住む町で
行こうみんなで ワークマン GeForce RTX 20シリーズが発表されましたな
デモで発表されているアップスケーリング機能を搭載したソフトウェアは出るのだろうか? >>116
nvidiaのgpu何だけどgpu使ってくれない。インストールミスってる? 環境依存の部分がかなり大きいので
自力でエラーコードからどこで失敗してるのか把握できないと厳しいと思う >>355
cupyのインストールはAnaconda Promptからじゃないと成功しないないという報告(>>306)があるのでもしかしたらそれが原因かもしれません 文面的にプロンプトで指定するとGPU使うけどフロントエンド通すと使ってくれないって事じゃない?
SS見る限りはGPUIDの指定もあるし実装してそうな感じあるけど 試してみた。動く。
GPU使用設定は無いけどGPUID入れたら適用された?みたい。
多分デフォルトなら0を入れればいいと思う。
CUDAが入ってればだけど >>7
こういう臭いネトウヨテンプレは改善しとけよ
>Q. waifu2xの派生バージョン多いけどどれがオススメ?
>A. Waifu2x-caffe最強、それ以外はミジンコ。 NVIDIA DLSS Provides 'Huge' Performance Boost at 4K in Dauntless; Developer Talks About 1.0 and Console Release
https://wccftech.com/nvidia-dlss-huge-boost-4k-dauntless/
NVIDIA has come up with a brand new technique called Deep Learning Super-Sampling (DLSS),
where a neural network (properly trained by 64 jittered samples of a high quality ‘ground truth’ image) provides
smooth edges and greatly improves performance at the same time. 稀勢の里さんが勝つと幸せたくさんもらえる。
アンチはかわいそうだね。にしこりさんが勝つたびにイライラするんでしょ。
稀勢の里さんはこれからも勝ち続けるから、これからも苦しみ続けてください。
こっち側にくればいつも幸せなのに… >>364
どこのスレの話かよくわからんが稀勢の里負けたぞ ・【世界から】米、「ディープフェイク」がやってくる
https://this.kiji.is/414678069014643809
もはや「フェイクニュース(笑)」とか言って笑っていられる時代は終わりを告げようとしている…
のかも 半島見てればわかるだろ
嘘も言い続ければ、真になる。 安倍ちゃんが嘘ついても安倍ちゃんクルセイダーズが本当にしてくれる >>362
再利用じゃねーよ
テメーらのカススレが俺の立てたスレに負けたんだろ?
最終的にワッチョイ=害悪って定説は、ちゃんと世間に認識されたってわけ。
ワッチョイが良い奴はワッチョイスレで馴れ合ってればいい。
それができないからって、俺のスレ来てガタガタ文句垂れんなw
俺のスレ使ってる時点でワッチョイの敗北が証明された。
悔しかったらワッチョイ立てて全員そっち池。 waifu2x caffeは完全にオワコン。
だって最後からもう1年経ってるのに更新しないし。
俺はPCで使ってるグラボをtitan blackからquadro GP100に更新した。
俺の進化のスピードより遅い作者はPCやる気ないなら、敗北宣言してソフトをもう作らないでいいぞ。
何がGTX970だよ。いい加減グラボぐらい買い換えろ貧乏人がw なぜP100?TITAN Vの方が安いし性能も良いのに・・・ waifu2x-chainerにEDSR来そうな雰囲気?
写真用は元のがあるからどんなものかはある程度わかるので
アニメ絵用モデルがアップされるのに期待したい 連レスすまないが、これは既に更新されてるのかな
元のResNet10が削除され、EDSR10としていた方がResNet10にリネームされ
モデルも差し替わってる リリース版が出たら更新履歴書くだろうし、今の段階で作者に訊くのはちょとね
少し使ってみたところ、細かい線が以前よりちょっと綺麗に出力されて中々良い感じだわ ほえぇ…resnet10も気に入ってるから自分としては両方残しておいて欲しいなぁ resnet10の新モデルは本家のupconv7みたいに拡大とノイズ除去が一体になってるね
変換速度は2倍になってるけど、>>55の問題が起きるかもしれないし拡大時にアーティファクトが発生する可能性もあるかもしれない
v1.7.0を安定版として使う選択肢も有りかもね waifu2x-chainer-GUI アップデートして♡ (ドォォォン!! )ジャスワイビーコミュニケーション アーメニウタレーナガラー
イロアセナイ(デュオ)アツイオモイ(トロワ)カラダジュウデ(カトル)ツタエタイヨトゥナイ(ごひ)
(バーーーッ!)(バルバルバルバルバルバル! )(ブッピガン!)(ガァー!)
ヌレータソノカターヲアタタメールヨーニダーイターフルエテールユビーサーキハー ナニヲモトメーサマヨーウノー
アナタノマナザシ(スコーン!)マモリタイ(スコーン!)カナシミツヨサニ(スコーン!)カエールアイヲシンジテ(ドヤ!)
ジャスワイビー(バババババババババ!)コミュニケーション(ニヤ!)アーメニウタレーナガラー(ビューーーッ! ブッピガン!)
イロアセナイアツイオモイ(バルバルバルバル! )カラダジュウデツタエタイヨトゥナイ(ドガァァァァァ!)(バン!) 結局旧モデルはresnet10、更に更新された新モデルがupresnet10という形になったみたい
というわけでwaifu2x-chainer-GUIも対応してくれたら嬉しいな waifu2x cheinerに付属しているコンバーターってcaffe用のモデルに変換出来るんだよね?
VGG7とかでもchainerよりcaffeの方が早かったから変換して使ってみたいんだけど使い方が分からない
コマンドプロンプトから呼ぶだけじゃ駄目だよね? >>393
つまりRadeonでも動作するようになるのか? waifu2x-chainer-gui 1.2ってやつをインストールしたけど
実行ボタンを押した直後に「Failed to start Python.」と表示されてしまう場合
Pythonのパスが環境変数に登録されていない可能性があります。
以下のサイトを参考にして手動で登録してください。
https://www.pythonweb.jp/install/setup/index1.html
↑
これになってできないだろうが。install.batで登録できるようにしとけ。逝ってよし。 結局cupyインストールできないまま放置かよw
今回もchainerはインストールできないから糞って結論が出たな。 その程度のことも自分でできない無能って宣言してるの恥ずかしくないんですかね ↑
ポンと入るbatを作れない時点でお前も無能だよw cupy入らないからwaifu2x-chainerはゴミ。
caffeが簡単に使えるから最強。
caffeがupresnet対応してないからchainerが性能で勝ってるだけであって
もしcaffeがupresnet対応したらこんな導入が困難なchainer使う奴なんて一人も居なくなるよ。 NVIDIA、機械学習をGPUで加速させるオープンソースプラットフォーム「RAPIDS」 - PC Watch
https://pc.watch.impress.co.jp/docs/news/1147172.html いやいや、batは新たに作らなくちゃいけないけどインストールは既に提供されてる機能を使うだけだから次元の違う話だってことを理解しろよ cupyインストールに難しい所あったっけ…
エラー内容を読んだり、読んでも分からないなら貼らず更にエスパーすら請わずに文句言うってどうなのよ。 いや、詳細に症状を解説するのって労力かかる割りに回答ないし。
糞ROMがしゃしゃんなw pip install cupy-cuda80
これで入らないのは俺が悪いんじゃない。
リポジトリが悪いのかプログラムが悪いのかわ知らないけど
少なくともいえることは俺は悪くないw 貼れとか言うなら貼ったら絶対答えろ?いいなw
実は俺はもう、2〜3時間前に解決して、
今は普通にwaifu2x-chainer使えてるけど
このように解決しましたっては書かないよ。
それが、俺を助けなかった奴らへの報復w
ってゆうかもう入ってしまったので
今度は、入らないってことを再現できなくなってしまったから
やっぱり説明しようがないw
間違いなく言えるのはポンと入らなかったってことぐらいかw このホェールってやつを直接インストゥールできないってのも害悪みたいな仕様だなw
好きなもんインストゥールさせろw >このように解決しましたっては書かないよ。
ソレはイイんだけど
どの型番のグラボ使ってどのぐらい高速化出来た? UpResNetの拡大のみを使ってたらオリジナルにはないインタレ網みたいなのが薄く乗ってしまった画像があるんだけどどういう原理だろう
ノイズ除去0+拡大やResNetv1.7.0拡大のみと比較したけどそっちじゃ発生しなかった Deconvolution (UpConvとUpResNetで使われてるやつ) の副作用かなあ。画像と一緒にissue立ててみては? 特定の画像だけで出るなら学習データに追加することで防げるかもしれないし。 俺がchainer使えるようなったのでcaffe使う奴は完全に情弱ってことで。
ポンと入れてしまえばあとはこっちの物。
更新ない化石いつまで使ってるんだよ阿呆じゃないのw
chainerなら最新のcudaもcudnnも使えてcpuとgpu同時使用できて画質設定も最強。
もはやcaffeが追いつける要素はない。chainerの完全勝利。
PCにcaffe入ってる奴パッと見ただけで
こいつは時代についてこれない適応能力無し人間ってすぐわかるからな。
caffeの時代は完全に終わった。最強の中の最強画質を得るためにはchainerでなくてはならない。
つーか古いモデルはもう必要ないから消していいぞ。そんな必要ないゴミいつまでも置いとくなよな。 upresnet10の神画質に比べれば
upconvとかチンカス以下だろw
月とスポーンだね caffe=チンカス製造機
chainerでupresnet10最強。
とか逝ったら、どうせブラインドテストとかしてくるんだろうけど
いらんことしなくていいよ。
しょうゆと再生しょうゆ並べてアゲアシ取るようなのは
もうね、その行動がもう既にcaffe臭いのよ。わかるな? 本家の作者すげーの作ったらしいぞtwitterみてみ
あとupresnet10モデルって多くの条件下でresnet10モデル下回るらしいぞ >>418
> あとupresnet10モデルって多くの条件下でresnet10モデル下回るらしいぞ
これのソースは? 2倍程度の時間でPSNR1.5の差なら確かに中々良さそうだなあ >>420
そのデータはupresnet10そのものじゃなくて、1.8.0でだけ使われてたバージョンのresnet10の比較だよね
作者がその辺の劣化を気にして改良して出したのが1.8.1のupresnet10という時系列のはず
その後にupresnet10の検証はしてなさそうだし、なんか話がちょっと違うような これ中身違ったんだ 。自分はスクリプトぱっと組めるような人間じゃないからちょこちょこ試してみるかなぁ おれはButteraugliが見てみたい。
簡単には出せないのかな? どうせならこの界隈で流行り? のPerceptual indexをみたい、と思ったけど
アニメ絵だと塗りがグラデくらいで単純だから、知覚品質を想定した評価が向いてるかはよくわからないな >>425
出せないこともないけどそこまで良い画質指標だとは思えなかった
同じくらいの数値でも画質が明らかに違ったり
そもそも超解像向きなのかどうかもわからないし >>427
すみません。いつもお世話になってます。 同アルゴリズムでもPSNRやSSIMで見ると、拡大のみが拡大+noise0に勝てる要素がないのがちょっと面白いね
しかし実際に使ってみると微細な模様類とか溶けることがあるから必ずしもnoise0を使った方が良いわけではなさそう
この辺の差が知覚品質とかになってくるのか、それとも単にJPEGの品質100でも不可逆でノイズが出てるのか ■ このスレッドは過去ログ倉庫に格納されています