【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
レス数が1000を超えています。これ以上書き込みはできません。
AIが彩色した映像、NHKが放送 昭和の白黒番組をカラーに
http://www.itmedia.co.jp/news/articles/1705/22/news098.html
http://image.itmedia.co.jp/news/articles/1705/22/l_kf_nhk_01.jpg
http://image.itmedia.co.jp/news/articles/1705/22/l_kf_nhk_02.jpg
http://image.itmedia.co.jp/news/articles/1705/22/l_kf_nhk_03.jpg
Ridge-iによれば、従来の手法だと、AIが手本とする学習データが数百万枚ほど必要だった。
今回は人間が着色したフレームを大量に用意することが難しかったため、数枚程度の手本データで
効率よく学習する手法を開発し、取り入れたという。例えば、力士がおじぎをする前の「開始時」の
フレームのみを人間が着色し、その後のおじぎをする動きのフレームはAIが追従して着色するようにした。
完成した映像は、NHKのWebサイトで6月11日午前0時まで閲覧できる。 Windows10なんだけどwaifu2xで拡大した画像はデスクトップ壁紙に出来ないんだけど仕様? いや違う・・・・現在の壁紙以外を選ぶと単色設定になっちゃうんだけど何だこれ Windows 10 1803は、様子を見ているとどうもクリーンインストールが無難のようだね
前の環境を引きずるとよくない感じ ご指摘の通り1709からupしたら何時の間にか上記の様になってた。
ググって色々設定直しても変化なし。
システムの初期化も変化なし。
仕方ないのでクリーンインストールしたら治った。 なんでウィンドーズ7使わないの?
10じゃないと動かないソフトとか無いし
10わざわざ使ってるのって阿呆だろw
7かXPで十分だろw waifu2xするなら当然モニターも最強でないといけない
俺の使ってるモニターはGDM-F520だよ。
まあウィンドーズ10選ぶような奴はモニターも糞みたいな韓国製IPSパネルでも使ってるんだろうなw
解像度1920x1200でまともなモニターは無いから。ましてや1920x1080なんか、こんなに市場にのさばってるのは
銅考えても買う奴の責任だからね。waifu2xぐらい真剣にやれ。
waifu2xする程度の人間ならせめてCG232W使うぐらいの根性見せろよなw そうだ。XPがなぜ最強であるかってのは説明不要で
個別のドライバに対しCPUの無駄な介入がないので各拡張カードが本来の真価を発揮できる。
vista後の音の出し方もおかしいしな。
必要ならASIO使ってるからいらんことすんなカスw win10使ってる奴はなぜwin10が優れているか
このように説明はできないだろうな。
OSの理屈もわからずに適当な人生をやり過ごしているだけのええ加減な人間なので。
悔しかったら7でwaifu2x使ってみろ。7のが10よりまともだってわかるからそれで十分。 ccaffe
cpuは7500U
cpuを使って変換しててめちゃくちゃ遅いんだけどこんなもの? 5960xとgtx1080使ってるけどGPUの方が2桁以上(200-500倍ぐらい?)早かったかな
理論的なflopsだけ見れば10倍程度だけど そんなにちがうの!
4K画像を作るのに7200Uで1枚あたり10分くらいかかるから
GPUだと2秒程度か
7500Uじゃなくて7200Uだった >>242
上のスペックで640×480を2倍で12枚/秒ぐらいだったから2fps程度出ると思う
あとGPUで処理で出す場合シングルタスクだとCPU側がボトルネックになってるようで5タスクぐらい迄は同時に処理すれば速度向上効果あるよ 拡大前の制限をなくしてほしい
本家よりCloudのほうがよかった!! caffeでresnet10モデルが使えればなぁ
ソースによってはupconv7と1dB近く差が付くみたいだしノイズリダクションlv0とか1でも凄く綺麗に消えるし線も潰れにくい そういえば最近はcaffeも更新してないな。作者飽きたのかなw なに?ずっと完成しないほうがいいのか?
とくに不具合もないならそれで終了するものだろ いつ完成したというのか
未熟なまま放ったらかしてるだけだろ resnet10をcaffe化したらハッピーエンドなのにな。
空気が読めない奴ばかりだ。あと、chainerの色塗りも
もっとこう簡単にローカルで実行できるようにするべき。
webに画像投げるとか絶対やりたくない。 webで画像加工するってのは
自分の日記に殺人予告書くのと
2chで書くのぐらい違う。セキュリティ上ありえない。 べきべきうるせぇそこまで言うなら自分でやれ
webでお前のような奴でも出来るようになってるだけ有難く思え はぁ?文句言うのは客の権利だし
改善するのは店の義務。わかるだろそれぐらいw 客ってのは、きっちりカネ落としてちゃんとありがとうっていうやつのことを指す言葉であって
決してコジキのことではない どっちもソース公開されてるんだからフォークすればいいだけの話
小学校でもプログラミングの授業をやる時代だ
スクラッチは難しくても他人のソフトを改良するなんてちょいと勉強すりゃ簡単簡単 >>263
一度声に出して自分の書き込み読み上げてみろよ
中学生か?恥ずかしくないんか? しっかり地に足つけたなら
迷うことない目で先見れるから
自分を信じて 今はやるだけ
誰かの為じゃなく君の為
せーのと合図聞こえたなら
乗り込もう 希望の飛行機 Booom!
何処までも ずっと 飛んで行こう
明日始まる新しい空 進もうぜ モタモタすんな モアレ除去子さんとか知ってる?
フーリエ変換てのを使ってで決まったパターンの縞とか点々を消すソフトなんだけど
副作用としてモアレになってない所の輪郭の周りにシワができるんだけど
人工知能使ってモアレを綺麗に消すソフトって出ないもんかな? >>277
AIのモアレ除去はこの前どっかの印刷会社が作っててニュースになってたような 知ってるよ。モアレってか網点除去は画期的なソフトが無いね。
俺もずっと待っているんだがな。昔はスキャン画像でximagic denoiser使ってたけど
ぼかしガウスしてwaifu2xのノイズ除去で十分だったな。
向こうはCPU専用で10コアまでしか使わない設計だから今となっては完全にオワコン。 waifu2x出てから後からパクリで出されてもな。
いい加減、コンテンツに応じる塗りつぶしで札束や裸を出せるようにすれば?
札束判定して出さないようにできるってことは、できるってゲロってんだろ?んっ? 既にある物を使いまわして再商品化ばっかりでつまらんな。 新しい物を作るのはリスクがあるから、売り上げが安定して見込める既存品に頼る
ってのは仕事のできない会社、業界がどこでもやりたがる。
味を占めて、最近のはハナから企画や立案を投げているからたちが悪い。 これなら俺がwaifu2x extreme edition作ったほうがよっぽどまし 殆ど何の情報もないソフトに対してなんで一人でそこまで吹き上がれるん・・? 前に話題になったwaifu2x-chainerをCUDA対応させたいのですが
https://qiita.com/K_M95/items/0c4c51645e9c1d28af0e
これ入れたら対応しそうですか?CPUでは実行できてます。 deapfake系の遊びだが
凄いリアルな少女の裸婦像とかカラー化したあと画像補完技術使って人間化してくと良い感じになるぞ。 >>293
AIでの画像補完って要するに「もっともそれらしいデータで埋める」ってことでしょ
医療に使うのは危険な気がする >>301
pythonとCUDA9.2インストールして
pip install pillow chainer cupy-cuda92
cudnnも勝手にはいる ノイズが酷ければ人でも見落とすわけで、人の目より補間精度が高ければ十分意味があるだろう サンプル数がとんでもないだろうから人間の思い込みとかに比べたらかなり正確なんじゃないだろうかと思う。 カルテがブロックチェーンで管理されて
サンプルのキャッシュやAIの処理にPCの処理能力を提供すると仮想コイン貰えるようになる。 >>296
waifu2x-chainerってCUDA有効にしたらCPUの何倍くらいで動く?
実用的な速度出る? DNN用プロセサでググるとグーグルのTPUが出てくるけど、
1TPUを1時間6.5ドルで借りれるらしい
電力性能比が2017年当時の最新のGPUの10倍すごいらしい
Teslaの最新モデルvoltaで追加されたFP16->32のコアはDNNに特化したものだそうで、
TeslaももうすでにDNN専用と言ってもいいかもしれない
これのおかげでDNNにおける性能が前モデルから一気に5倍くらいになっている模様
他にも富士通が今開発中らしいけど発売2018年度と出ているだけで
2018年度のいつなのかはまだ情報出てきてないな
これ発表が2016年なんだけど、googleとnvidiaの性能向上が激しすぎて
リリースする前にすでに周回遅れにされてないだろうか
一応富士通だって本気出せばスパコン1位とれるし、技術はあるんだと思うが >>296
すみません
https://developer.nvidia.com/cuda-downloads?target_os=Windows&target_arch=x86_64&target_version=7&target_type=exelocal
ここからWindows7用のexe(local)をインストールして
pip install pillow chainer cupy-cuda92
としたのですが以下のようなエラーが出てインストールできません。
Could not find a version that satisfies the requirement cupy-cuda92 (from versions: )
No matching distribution found for cupy-cuda92
申し訳ないです。なにかわかりますでしょうか。。。 >>296
>>305
すみません。Anaconda Promptでためしたところできました!ありがとうございます!!
普通のcmdでコマンド打ってました。
Cudaを使ったところCPUもそれなりの積んでるのに100倍以上はやくなって笑いましたw
ただ100倍早くなってもwaifu2x caffeよりはだいぶ遅いですねぇ 画質的にupconv7モデルよりかなり綺麗なので問題ありませんが 5つぐらい並列させるとwaifu2x caffeのupconv7と同じぐらいの速さになりました。これすごいわ・・・ 試しに>>1のサイト利用してみたら
延々標識バス押させるだけの全く使えねー糞ゴミサイトだった たまに車とか道路を選べってのに延々と標識を選び続ける俺みたいなバカがいるから注意な この機能を組み込んだ動画プレーヤーってあるんですかね
最も今のハイエンドGPUでも全く性能が足らないから、あっても無効化されてそうだけど >>311
waifu2xには今一歩及ばないけどmadVRのNGUっていうのが近い水準で超解像出来るよ 個人的には凄く使える
車や標識を一々選ばないといけないのは面倒だけど、イラストとか写真が元のものよりも綺麗になる気がする
流石に小さすぎる画像はなんか違和感があるものになってしまうけど 現時点で実用速度で動作させようとする場合、スパコンが必要になるのが欠点だな 昔ここでAnaconda関連がSSLErrorで色々インストール出来ないと言っていた者だけど
どうやら何か別のアプリをインストールする際に環境変数のPYTHONPATHが設定されていたのが原因だったみたいで、削除したら直った
同じような人はそういないとは,思うけど、念のため 動画でNGUも良いけど、リアルタイムでできるくらい軽いなら虫眼鏡系のツールでも超解像できるものがあればなあ
せいぜいランチョスが使える物くらいしか知らないけど、実は存在したりしないだろうか EDSRを試してみたところ、写真にはかなり強いが、イラストでは斜め線のエイリアスが酷い
MDSRの方だと多少マシだし、waifu2xよりかなりくっきりはするから、物によってはありなのかも知れない
イラスト用の学習データでもあれば面白そうだけど、配布してるところとかないよね >>318
EDSRがっていうよりも写真用のチューンでCGに超解像かけるから
そういう風になるだけじゃねの? >>317
無いなら作れば?選択範囲を100ms毎にwaifu2xcliに送って出てきた画像をフォームに表示とかでよくない? caffeが更新しなくなってそろそろ1年が経つな
盛り上がった時だけちょっとかじって飽きたらすぐ開発やめるような
行動を取る人間ってのはソフトを開発していた動機は単なる承認欲求なので
ハナからソフトの質を追求する気なんて無いんだな
まあ流行り物のキャラばっかり描く絵師様()と一緒
お前の代わりはいくらでもいるんだよw このソフトが出たころと違って今ではナローバンドもブロードバンド化して小さい画像自体が少なくなったからな。 >>321
俺は今も使ってるけど、不満もないし
バージョンアップする必要がないんじゃなあい? だからそれはwaifu2x-chainer入れてResnet10モデル使えば良いじゃん
かなり細い線でも綺麗に拡大出来るしPSNRも高い。cuDNNも使える。導入もスレ見れば分かるし 他人から100%の力で無償奉仕されないと気が済まないの? waifu2x-caffeの作者ってcaffeへの移植とGUI作成をやった訳で
学習アルゴリズムを考案したわけじゃないだろうから、出力画像の品質にどうこういうのはお門違いでは
CVPR2018とかにおける超解像研究の方向性が、PSNRとかで算出される正確さより
新しい算出値による自然さを重視する方向にシフトしてるから、取り敢えずのはその辺の結果がどんな感じになってるかかなあ あぁいう中途半端なの、嫌い
使ってもらいたいと思っているのか、そうでないのかよくわからんのよ、あんなのでは >>328
そこら辺の話はこの記事に纏まってるね
GANによる超解像がもたらす新しい方向性と「The Perception-Distortion Tradeoff」の話
http://keiku.hatenablog.jp/entry/2018/07/22/220158 >>329
githubはフリーソフト配布サイトというわけじゃないので、自力で環境構築なりビルドなりしてねってのは珍しくない
それを嫌うのは個人の勝手だが、漫画を見てなんで白黒なのと言ってるようなもので
カラーページがあったり、誰か別の人が着色する可能性はあるけど、全ページ着色されるなんて事の方がむしろ少数派 >>332
だから、それ公開する人間がどこまで本気なんだってことなんだよ
Git使おうが使うまいが、本気の人間が作ったものは使い勝手をしっかり考えて作ってる
本気じゃない人間が作るものは、どこまで行っても中途半端 表紙だけカラーなんて中途半端、本気で楽しませる気あるのかっていうお客様 文句つけるより自分で作ったほうが早いぞ
中途半端が嫌ならなおさら自分で満足行くまでやれるんだし 熱しやすく冷めやすいって、それADHDじゃねぇかw chainerでresnetとかいうのが最強らしいけど
すぐポンと入れて使えるようなのじゃないと
いくら最強でも使えない時点でゴミだな。
誰でも使えるようにしとけよw
カフェも完全に作者やる気ないしな。 cuDNN v7.2.1
cuDNN Download | NVIDIA Developer
https://developer.nvidia.com/rdp/cudnn-download ・NVIDIAがGPUを再定義。Turing GPUは今後十数年間のグラフィックストレンドに
https://pc.watch.impress.co.jp/docs/news/1138079.html
記事内の写真
・NVIDIAのDLAAを利用すると、低解像度の画像を、高品質高解像度にすることができる
https://pc.watch.impress.co.jp/img/pcw/docs/1138/079/html/026_o.jpg.html
やっと実用的な速度で実行できる環境がもたらされそうだ
ただし、「継続的にこれを使って開発しようとする人がいれば」の話だが これ使うとガラケーの頃に撮ったQVGAサイズの写真もまともに見られるんだよね!? https://nvidianews.nvidia.com/news/nvidia-reinvents-computer-graphics-with-turing-architecture
>These include DLAA — deep learning anti-aliasing, which is a breakthrough in high-quality motion image generation — denoising, resolution scaling and video re-timing.
デノイズとスケーリングとフレームレート変換をまとめてDLAAと呼んでいるみたいで具体的になにするのかようわからんな avisynthチマチマ弄らなくてももっと動画を軽くて綺麗にする機能付けるとか? ああ技術的な問題か…時間軸に対応したwaifu2xじゃないのモダンなビデオコーデックならベクター処理から正確な中間点補完してくれそう(願望) 広がる未来と 夢にあこがれて
汗拭き 川沿い ひとり走ってた
この町で暮らそう 君が住む町で
行こうみんなで ワークマン GeForce RTX 20シリーズが発表されましたな
デモで発表されているアップスケーリング機能を搭載したソフトウェアは出るのだろうか? >>116
nvidiaのgpu何だけどgpu使ってくれない。インストールミスってる? 環境依存の部分がかなり大きいので
自力でエラーコードからどこで失敗してるのか把握できないと厳しいと思う >>355
cupyのインストールはAnaconda Promptからじゃないと成功しないないという報告(>>306)があるのでもしかしたらそれが原因かもしれません 文面的にプロンプトで指定するとGPU使うけどフロントエンド通すと使ってくれないって事じゃない?
SS見る限りはGPUIDの指定もあるし実装してそうな感じあるけど 試してみた。動く。
GPU使用設定は無いけどGPUID入れたら適用された?みたい。
多分デフォルトなら0を入れればいいと思う。
CUDAが入ってればだけど >>7
こういう臭いネトウヨテンプレは改善しとけよ
>Q. waifu2xの派生バージョン多いけどどれがオススメ?
>A. Waifu2x-caffe最強、それ以外はミジンコ。 NVIDIA DLSS Provides 'Huge' Performance Boost at 4K in Dauntless; Developer Talks About 1.0 and Console Release
https://wccftech.com/nvidia-dlss-huge-boost-4k-dauntless/
NVIDIA has come up with a brand new technique called Deep Learning Super-Sampling (DLSS),
where a neural network (properly trained by 64 jittered samples of a high quality ‘ground truth’ image) provides
smooth edges and greatly improves performance at the same time. 稀勢の里さんが勝つと幸せたくさんもらえる。
アンチはかわいそうだね。にしこりさんが勝つたびにイライラするんでしょ。
稀勢の里さんはこれからも勝ち続けるから、これからも苦しみ続けてください。
こっち側にくればいつも幸せなのに… >>364
どこのスレの話かよくわからんが稀勢の里負けたぞ ・【世界から】米、「ディープフェイク」がやってくる
https://this.kiji.is/414678069014643809
もはや「フェイクニュース(笑)」とか言って笑っていられる時代は終わりを告げようとしている…
のかも 半島見てればわかるだろ
嘘も言い続ければ、真になる。 安倍ちゃんが嘘ついても安倍ちゃんクルセイダーズが本当にしてくれる >>362
再利用じゃねーよ
テメーらのカススレが俺の立てたスレに負けたんだろ?
最終的にワッチョイ=害悪って定説は、ちゃんと世間に認識されたってわけ。
ワッチョイが良い奴はワッチョイスレで馴れ合ってればいい。
それができないからって、俺のスレ来てガタガタ文句垂れんなw
俺のスレ使ってる時点でワッチョイの敗北が証明された。
悔しかったらワッチョイ立てて全員そっち池。 waifu2x caffeは完全にオワコン。
だって最後からもう1年経ってるのに更新しないし。
俺はPCで使ってるグラボをtitan blackからquadro GP100に更新した。
俺の進化のスピードより遅い作者はPCやる気ないなら、敗北宣言してソフトをもう作らないでいいぞ。
何がGTX970だよ。いい加減グラボぐらい買い換えろ貧乏人がw なぜP100?TITAN Vの方が安いし性能も良いのに・・・ waifu2x-chainerにEDSR来そうな雰囲気?
写真用は元のがあるからどんなものかはある程度わかるので
アニメ絵用モデルがアップされるのに期待したい 連レスすまないが、これは既に更新されてるのかな
元のResNet10が削除され、EDSR10としていた方がResNet10にリネームされ
モデルも差し替わってる リリース版が出たら更新履歴書くだろうし、今の段階で作者に訊くのはちょとね
少し使ってみたところ、細かい線が以前よりちょっと綺麗に出力されて中々良い感じだわ ほえぇ…resnet10も気に入ってるから自分としては両方残しておいて欲しいなぁ resnet10の新モデルは本家のupconv7みたいに拡大とノイズ除去が一体になってるね
変換速度は2倍になってるけど、>>55の問題が起きるかもしれないし拡大時にアーティファクトが発生する可能性もあるかもしれない
v1.7.0を安定版として使う選択肢も有りかもね waifu2x-chainer-GUI アップデートして♡ (ドォォォン!! )ジャスワイビーコミュニケーション アーメニウタレーナガラー
イロアセナイ(デュオ)アツイオモイ(トロワ)カラダジュウデ(カトル)ツタエタイヨトゥナイ(ごひ)
(バーーーッ!)(バルバルバルバルバルバル! )(ブッピガン!)(ガァー!)
ヌレータソノカターヲアタタメールヨーニダーイターフルエテールユビーサーキハー ナニヲモトメーサマヨーウノー
アナタノマナザシ(スコーン!)マモリタイ(スコーン!)カナシミツヨサニ(スコーン!)カエールアイヲシンジテ(ドヤ!)
ジャスワイビー(バババババババババ!)コミュニケーション(ニヤ!)アーメニウタレーナガラー(ビューーーッ! ブッピガン!)
イロアセナイアツイオモイ(バルバルバルバル! )カラダジュウデツタエタイヨトゥナイ(ドガァァァァァ!)(バン!) 結局旧モデルはresnet10、更に更新された新モデルがupresnet10という形になったみたい
というわけでwaifu2x-chainer-GUIも対応してくれたら嬉しいな waifu2x cheinerに付属しているコンバーターってcaffe用のモデルに変換出来るんだよね?
VGG7とかでもchainerよりcaffeの方が早かったから変換して使ってみたいんだけど使い方が分からない
コマンドプロンプトから呼ぶだけじゃ駄目だよね? >>393
つまりRadeonでも動作するようになるのか? waifu2x-chainer-gui 1.2ってやつをインストールしたけど
実行ボタンを押した直後に「Failed to start Python.」と表示されてしまう場合
Pythonのパスが環境変数に登録されていない可能性があります。
以下のサイトを参考にして手動で登録してください。
https://www.pythonweb.jp/install/setup/index1.html
↑
これになってできないだろうが。install.batで登録できるようにしとけ。逝ってよし。 結局cupyインストールできないまま放置かよw
今回もchainerはインストールできないから糞って結論が出たな。 その程度のことも自分でできない無能って宣言してるの恥ずかしくないんですかね ↑
ポンと入るbatを作れない時点でお前も無能だよw cupy入らないからwaifu2x-chainerはゴミ。
caffeが簡単に使えるから最強。
caffeがupresnet対応してないからchainerが性能で勝ってるだけであって
もしcaffeがupresnet対応したらこんな導入が困難なchainer使う奴なんて一人も居なくなるよ。 NVIDIA、機械学習をGPUで加速させるオープンソースプラットフォーム「RAPIDS」 - PC Watch
https://pc.watch.impress.co.jp/docs/news/1147172.html いやいや、batは新たに作らなくちゃいけないけどインストールは既に提供されてる機能を使うだけだから次元の違う話だってことを理解しろよ cupyインストールに難しい所あったっけ…
エラー内容を読んだり、読んでも分からないなら貼らず更にエスパーすら請わずに文句言うってどうなのよ。 いや、詳細に症状を解説するのって労力かかる割りに回答ないし。
糞ROMがしゃしゃんなw pip install cupy-cuda80
これで入らないのは俺が悪いんじゃない。
リポジトリが悪いのかプログラムが悪いのかわ知らないけど
少なくともいえることは俺は悪くないw 貼れとか言うなら貼ったら絶対答えろ?いいなw
実は俺はもう、2〜3時間前に解決して、
今は普通にwaifu2x-chainer使えてるけど
このように解決しましたっては書かないよ。
それが、俺を助けなかった奴らへの報復w
ってゆうかもう入ってしまったので
今度は、入らないってことを再現できなくなってしまったから
やっぱり説明しようがないw
間違いなく言えるのはポンと入らなかったってことぐらいかw このホェールってやつを直接インストゥールできないってのも害悪みたいな仕様だなw
好きなもんインストゥールさせろw >このように解決しましたっては書かないよ。
ソレはイイんだけど
どの型番のグラボ使ってどのぐらい高速化出来た? UpResNetの拡大のみを使ってたらオリジナルにはないインタレ網みたいなのが薄く乗ってしまった画像があるんだけどどういう原理だろう
ノイズ除去0+拡大やResNetv1.7.0拡大のみと比較したけどそっちじゃ発生しなかった Deconvolution (UpConvとUpResNetで使われてるやつ) の副作用かなあ。画像と一緒にissue立ててみては? 特定の画像だけで出るなら学習データに追加することで防げるかもしれないし。 俺がchainer使えるようなったのでcaffe使う奴は完全に情弱ってことで。
ポンと入れてしまえばあとはこっちの物。
更新ない化石いつまで使ってるんだよ阿呆じゃないのw
chainerなら最新のcudaもcudnnも使えてcpuとgpu同時使用できて画質設定も最強。
もはやcaffeが追いつける要素はない。chainerの完全勝利。
PCにcaffe入ってる奴パッと見ただけで
こいつは時代についてこれない適応能力無し人間ってすぐわかるからな。
caffeの時代は完全に終わった。最強の中の最強画質を得るためにはchainerでなくてはならない。
つーか古いモデルはもう必要ないから消していいぞ。そんな必要ないゴミいつまでも置いとくなよな。 upresnet10の神画質に比べれば
upconvとかチンカス以下だろw
月とスポーンだね caffe=チンカス製造機
chainerでupresnet10最強。
とか逝ったら、どうせブラインドテストとかしてくるんだろうけど
いらんことしなくていいよ。
しょうゆと再生しょうゆ並べてアゲアシ取るようなのは
もうね、その行動がもう既にcaffe臭いのよ。わかるな? 本家の作者すげーの作ったらしいぞtwitterみてみ
あとupresnet10モデルって多くの条件下でresnet10モデル下回るらしいぞ >>418
> あとupresnet10モデルって多くの条件下でresnet10モデル下回るらしいぞ
これのソースは? 2倍程度の時間でPSNR1.5の差なら確かに中々良さそうだなあ >>420
そのデータはupresnet10そのものじゃなくて、1.8.0でだけ使われてたバージョンのresnet10の比較だよね
作者がその辺の劣化を気にして改良して出したのが1.8.1のupresnet10という時系列のはず
その後にupresnet10の検証はしてなさそうだし、なんか話がちょっと違うような これ中身違ったんだ 。自分はスクリプトぱっと組めるような人間じゃないからちょこちょこ試してみるかなぁ おれはButteraugliが見てみたい。
簡単には出せないのかな? どうせならこの界隈で流行り? のPerceptual indexをみたい、と思ったけど
アニメ絵だと塗りがグラデくらいで単純だから、知覚品質を想定した評価が向いてるかはよくわからないな >>425
出せないこともないけどそこまで良い画質指標だとは思えなかった
同じくらいの数値でも画質が明らかに違ったり
そもそも超解像向きなのかどうかもわからないし >>427
すみません。いつもお世話になってます。 同アルゴリズムでもPSNRやSSIMで見ると、拡大のみが拡大+noise0に勝てる要素がないのがちょっと面白いね
しかし実際に使ってみると微細な模様類とか溶けることがあるから必ずしもnoise0を使った方が良いわけではなさそう
この辺の差が知覚品質とかになってくるのか、それとも単にJPEGの品質100でも不可逆でノイズが出てるのか >>429
品質100というのはあくまでJPEG規格の品質設定最良というだけで、
非可逆圧縮である以上品位は必ず落ちている 無/可逆圧縮でどうなるか知りたいなぁ
あくまでこれより大きい画像がある事が仮定しての拡大だからオリジナルに掛けることもあるし ノイズ除去しない場合は色の復元はしないのか?
なんかおかしくないか、それ
ノイズ除去はしなくていいけど色は復元してくれという用途はありうるはずだが >>432のjpgを拡大のみと拡大とノイズ除去した場合だとノイズ除去したほうが色が鮮やかになってる
拡大のみでも色差を復元する機能は無くもないんだろうけどノイズ除去したほうが効果が高いんだろうね ま、chainer入った時点でchainerの完全勝利だね
今時caffe使ってる奴は時代遅れだろうW いや、ワッチョイ入れるなっつって俺が建てたスレに
賛同したのはお前らの責任だろうがw
何を今更寝ぼけたこと抜かしてんだ? 俺はワッチョイ絶対嫌だったからワッチョイスレやらなかったし
俺が建てたスレに賛同して使ってるのはお前らの責任。
文句があるならワ専用でスレ建てて俺のスレこなくていいぞw
俺だって、ワ有りスレに来るのやめてたんだから
ワ無しが嫌ならワ無し来ないこと、ガキじゃねーんだからできるよな?んっ? どれだけ外野がわめこうがchainerの完全勝利であることは変わらない。
俺のPCにchainer入った時点で、もはやcaffeは完全にその存在価値を失った。
俺のPCからcaffeはもう消したよ。ゴミをSSDに置いておくとSSDの寿命が縮むからなw
途中で作るのやめてんなよな糞作者がw
最新のcudaとcudnnが使えて高速高画質のchainerこそwaifu2xの覇王。
caffeはゴミ箱へ 爆笑 俺はこのように阿呆のフリをしているだけでPCのスペック自体は超高い。最強だ。
それはどうゆう意味かってゆうとそれだけまともなコストをPCにかけている。
モニターだってGDM-F520とCG211なので
適当なコストで適当な人生を送り、ゴミのような画面見ているお前らと
俺では画質を楽しめる感動の位が違うってことを認識するべきだね。
土下座しろ! chainerが最強で完全勝利。
chainerこそ全人類のPCにインストールされているwaifu2xのスタンダードとなる。
caffeしか使ってない奴は汚い画面見てしこってろW
caffeはオワコン。いいね? やはり、waifu2x-chainerが最強すぎて
caffe厨は手も足も出ないようだな
今時caffe使ってるやつはよっぽど情弱なんだろうW upresnet10って画質悪くない?ボワボワなんだがw
こんなゴミみたいなモデル積載するなw
それならcaffeのuprgbで十分
絶対resnet10のがきれいなんだからresnet10だけあればいいよな おっそうだな。
どっちみちcaffeなんか使ってる奴いねーしどーでもいいわw
今時caffeなんか時代遅れ使ってる奴頭おかしいからね 何がいいたいって答えはただひとつ
chainerが最強だからcaffeは完全にオワコン!
1ッ個上のレスも読めねえ文盲かテメーはw chainerって自分でビルドしなきゃなんないの? そうだよ。
こういうソフトは作者が自分のPC用にしか作ってないからね
ユーザーの弁なんてなんも考えてないws まじ、ポンんと入らねえのが糞だよなchainerはw
だからって、更新もない化石みたいな糞画質caffeを今更インストールする気にならんが。
というか、chainserも更新遅いわ
webなんかに画像投げる人間は情ジャンクしかいないんだから
ローカル版優先して作れよw
俺絶対webに自分の画像送信なんかしないよ。まあそれが普通の精神だからね。
webに投げてる奴は、画像と引き換えにどれだけ危険な行為かってのがわかってない。
もしwaifu2x-web運営してる人間が基地外なら、waifu2xしてきたやつをちばけんまするだろうし
いつそう、気が変わるかわからない。また身代金要求することもできる。
そう考えているのが正常なネットリテラシー。クラウドとか漠然とした概念に漠然としているのはその辺のリテラシ−が足りていない。 結論をいうとwaifu2xみたいなソフトは家のPCにインストールして
一人で使うのが基本であって、webに情報を渡すべきではない。ってことよ。
chainerの作者と取り巻きはその辺の意識がゆるいね。
webの発展とか本気でカンティガイしてそうw 携帯でネットやってるような猿のリテラシーなんてその程度だよ
昔は自分に目的があってそのために十分なPCスペックを用意することが自己責任だったからな
今じゃPCスペック上げない言い訳のために丸投げしてるだけ
30万ぐらい出せばメモリー512GB程度なら簡単に買えるのに
いちいちwebのインスタンス建てる人間に他力本願でやるようなことかw
まあ自分一人で問題を解決できない奴が増えた >昔は自分に目的があってそのために十分なPCスペックを用意することが自己責任だったからな
今だってそうなんだがまさにカンティガイしてるよな
つか企業レベルですら情弱だらけでカンティガイしてるから
コトあるごとにクラウド()とかドバカなモノに頼りたがる
>まあ自分一人で問題を解決できない奴が増えた
貧乏な上に頭が固いヤツが多くなった
目先のエサのコトしか考えられないというか ま、caffeでは二次元画像を綺麗に拡大することは無理だったってことだなw
拡大して、絵のようなボワボワの何かを生成するソフト、それがcaffe
chainerの完全勝利。画質の神感が全然違う。
chainerのresnet10がwaifu2x最強でありそれ以外の画質ではまるで勝負にすらならない。 おっそうだな
まじ、chainerのresnet10以外って何のためにあるのか意味不明。
PCのBIOSの中にIDE、SATA1、SATA2ってのがあるのと同じで
そのゴミをありがたがって使う阿呆がいるかぎりcaffeのuprgbとかゆうのんも
尿道のチンカスのごとく残り続けるのであろう・・・ この必死な割に読みにくいのはお金もらってやってるとかなの? caffe厨必死だな(藁)
真に最強のソフトを最強だと逝って何が悪い?
悔しかったらchainer超える画質で出してみろよw そうか。ならやっぱりchainerは敗北するだろう。
ポンと入るといっても導入の犠牲が重いからね。
.netや新しいめのVS、VCランタイムでPC不安定になったり
環境変数PASUの中身が肥大化する。
ポンと入ってresnet10並の高画質モデルが使えるならcaffeに変えようと思うけど。
だいたい、作者は今まで何やってたんだよw
まじ、腰が重いっつーか、競合に抜かれてからやっと行動するようでは
そんなんじゃ客はついてこないよw
これでもし、ウィンドーズ10じゃないと動かないとかRTX2080じゃないと動かないとか
作者の自分の糞環境に合わせただけで、後方互換性作ってなかったら・・・ってこともあるな。
そうなればやっぱりchainer最強だし見物ではある。 caffe来たらchainerは捨てるね。たぶん。
chainerの良いとこはCPUとGPU全部同時攻めができるってことだが
caffeでも実装すればいいのにこれ。あとcaffeはパラメーター指定をもっと細分化したほうがいい。
chainerにあるようなtta levelとバッチサイズだな。 俺の考えた最強のwaifu2xは単に拡大するだけじゃなくて
線画も作って着色もできる。
chainerでできるんだから、それぐらい実装しないと意味ない。
コンテンツをある程度までなら自分で適当に作れるってとこが日本の将来に必要なことだね。
従来のクリエーターが描いて、ヲタが消費する、とゆう市場はもはや成立していないのだから。 たとえば使う奴が
●学生のマンコとか注文すると、ポッと絵が出てくるような。
そんなのも機械学習なんだから作れないといけない。
そうゆうことができると、精神異常のロリコンの犯罪の減少にもなるだろう。
日本は幼女好きな奴が多いからな。一応断っておくけど俺は興味ないよ。
大人の女のほうが好きだし、乳もでかいほうがいい。
それもいいな。貧乳を巨乳化しろって注文すれば出る。
これぐらいのことはwaifu2xでできてないと将来性を感じないよなw waifuである必要が無い
語源的にはピシャリだが ユーザーに対して好きなキャラを選ばせるとかで出力パラメータ調整したものに適当なノイズ入れたデータ出すようにすればいけそうな気がするけどな
適当な2次元キャラ作るBOTとか数年前流行ったし着色BOTもあった。
これを絵じゃなくて3Dモデルの出力という形にして自然言語処理でポーズデータやカメラをセット出来るようになったら面白そうだな。VRとかで見られたら更にいい
俺には妄想以上は無理だ。 >2次元イラスト(UpResNet10モデル) : 同梱のモデルで一番高画質で変換できるモデル。このモデルだけ分割サイズが違うと出力結果が変わるので注意すること
分割数が少ない方が画質が良かったりするのだろうか 誰か速度の比較結果上げておいてください。
精度は分かるけど速度が同じ実行環境がなくて分からない。 caffe更新きたかと思ったらcuda10.0かよw
これならchainerで十分だね。だって、俺cuda8.0使ってるもん。
10.0なんかテレメトリも入るしまともに画面も表示できない不安定糞ドライバだから入れないのが正解。
まともなグラボのドライバとして使うなら8.0が最も最強安定なのである。
それをcaffeはchainerを超えていないといけないって思い込んで10.0にして作者阿呆じゃないのw
cuda8.0を選べるようにしとけ。逝ってよし。caffeはresnet10も選べないし
やっぱり、お手軽な代わりに最強画質の座はchainerを超えたわけではないってのが
結局のcaffeの立ち位置のままだったなw まず、俺はcuda8.0こそ至高だと思っている。ウィンドーズ7だから。
cuda10なんかはドライバーにテレメトリー入ってるし使うのは情弱を晒しているだけだ。
その点、chainerは好きなcuda選んで作れるってとこが良い
caffeはガチで空気読めてないな。しかもupresnet10だけだし。
さっさとEDSRに対応すること。そうすれば俺はcuda10を受け入れて
そうなるまでは一生chainer使い続けるからな。
まあでも俺がこうやってリクエストすると作者はここ見てるっぽい反応があるからな。
俺が1024*768のモニターつかっててUIがはみ出すとか書いたら
ちゃんと対応したし、このスレの阿呆ROMどもとは違い、
俺の言う事聞いとけば間違いないってことだけはわかっているんだろうw 新しいcaffe版動かない思ったらビデオカードのドライバが古かった ゲームのクラみたいだなw>動かない思ったらビデオカードのドライバが古かった これだけ他の客からもクレームが来ているのにCUDA8.0には対応せずに
CUDA10を意固地に続けるんだね阿呆作者は。
客は最強安定のwaifu2xしたいから安定構成でPCやってるのに
最新版のドライバーを検証するためにPCやってるんじゃないんだよ。
わからないのかなW
ドライバー更新するぐらいならDVIケーブルで首吊ったほうがまし。
waifu2xのほうが古いドライバーにも含めろw
結論:
waifu2xはchainerが最強。caffeはオワコン
CPUとGPU同時使用できてCUDA toolkitも好きなの選べる。
旧resnet10選べるchainerのが画質も最強。
最新厨caffe逝ってよし。・」 ワッチョイで個人情報収集したい奴が、重複スレまで立てて必死だなw 同じUpResnet10モデル使用時にCaffeとChainerでCaffeの方が何故か結果が良いってでてるんだよなぁ
TTA2ぐらいの差はあるんじゃね >>482
客って言うんだから開発費とか払ってんの? CUDA toolkitは8.0一択だし、これは間違いないね。
10.0入れてPC不安定なるぐらいなら
8.0でchainerやってるほうがよっぽどまし。
結論:caffeはオワコン
CLCLってソフトも無責任な終わりかたしたよなそういえば
俺がPWPWと組み合わせてログインパスワードを貯めてたんだけど
CLCLだけいきなり更新して、それとPWPW組み合わせたら
完全に使えない。PWPWが古いから。
PWPWも責任持ってアップデートしろよカスw
これも客あってのソフトなのに頭おかしいんででねーの?
CLCLはアップデートする奴は完全に情弱だってわかったね。 結局、waifu2xって
ベンチメーク厨の数値競争になってるし、もういよいよオワコンかな。
PSNRとか平均以上出てりゃ、ほんまどうでもええねん。
1コンマ1ミリを競うような類の詰めをせんでええから
●学生のマンコって注文に絵がポッと出るような、ブレークスルーを実装しろよw
ペンDからコア2へ以降したような思想がそろそろwaifu2xには必要。
まあ作ってるの日本人だし、この先も数値競争しか進化ないんだろうなw 俺は独裁スイッチがあるといいね
もし、ネットで朝鮮人を発見した時に
日本人って注文すると全ての朝鮮人は土下座をする。
そうゆう流れを作らないと
このままでは日本とゆう国が韓国の都市の一部になってしまうからな。 chainer1.2.1の更新入れてみたけど
あんまり変わってないねw このままベン厨の数値競争が過熱することにより
画質の定義に疑問を投げる者が現れるが
しかし、高解像を否定する者は、出る杭は打たれることだろう。
ピュアオデオもそうやって高解像だけが生き残り、聴感での聞きやすさが潰されてきたからな。 caffe VS chainerの戦いはどちらかが勝負を降り
高解像以外の路線へ進まない限り、画質の進化はないのだ・・・ 100年以上前の白黒写真をディープラーニングで鮮やかなカラー写真によみがえらせる「DeOldify」 - GIGAZINE
https://gigazine.net/news/20181105-deoldify-colorize-image/ recoloredで手作業でやっても似たようなことできるだろw GPU変換出来ないからCPUでやってみたらCPUがブソブソ丸だわ
h1032を1.2倍ノイズ除去なしで1枚4分くらい掛る
結構前に落としたやつ使ったんだがバージョン見たらver 1.0.6.1だった
ver 1.1.9.2にしたら改善される? されない。
他のCUDA使わなくてもGPUで動くやつ探すべきだと思う。
大抵はモデル入れ替えれば動くはず 現状、CPUとGPU選べるやつって
CPUじゃないとできないメリットって全然ないね。
画質が特別良くなるわけでもないし
CPUとGPU同時使用しないなら、GPUだけにしてCPU切っていいでしょうw いつもの人が上げてた画像見てイマイチかなぁと思ったけど試してはみたいな
しかしモデル名隠してスコアも良くないLevel2使うのはずるいわ GAN系はPSNRみたいな指標を捨てて見た目を取っているので比較はやりにくいですね
主観だとアンシャープマスクをかければくっきりしているとか細かいノイズを加えれば解像感があるとか
人によって適当なところがあるので自分はあまり信じていない waifuの本家は1-2%程度文字学習入れてたと思うのとUpResnetはかなり綺麗だったようにおもう( Resnetはよくない)けどこれじゃダメ? A.I.GigapixelはAMDのGPUも使えるからそこは良い >>510
興味出てきたわ
Caffe使うためだけにx16第2スロットに安いGeForce挿そうかと思ってたけどその金でA.I.Gigapixel買うべきか 研究されてる知覚品質数値を算出できるソフトとかないのかなあ A.I.Gigapixelは確かに拡大時のくっきり感はすごいけど、ノイズ関係が全然ダメじゃない?
>>504の元画像と言われるjpgをノイズ設定3段階試しても、いずれもtwitterの程には綺麗にならない
なんか別のノイズ除去を併用するか何かしてるのだろうか
比較的なマシなノイズNoneでもこんな感じで、twitterのと比べると目や輪郭が大分劣る
ttps://dotup.org/uploda/dotup.org1686800.png 連レス失礼するが、ちょっと調べたらtwitterの方で使われているEnhance Imageオプションが
ver1.1以降ノイズ設定に差し替わったみたい
結果としてノイズのあるイラストについては劣化しちゃったのかなあ
残念ながら1.12より前のバージョンはダウンロード出来ないようだから試せない >>513
ディテールの再現性云々はどうであれ目の輝きとか人の目で見る限りはより鮮やかに見えるから例えばwaifu2x でノイズ除去、拡大した後にこれで更に拡大→lanczos3などで1/2にリサイズ
などすれば再現性はともかく1枚絵としてはより好ましく見えたりはしないのかな >>504
普通のこういうのって買った直後に試すだろうに、なんで何ヶ月も前のDLできないバージョンを今紹介したんだろうな
これ見て買ったら詐欺みたいなものなのに、注意喚起もないどころか、クーポン紹介して買うように煽ってるという
どこかに置いてないか名前と"1.0.2"でググったら割れサイトしか引っかからなかったが、関係ないに違いない 俺はcuda8.0しか使う気がないからcudnnも7.1.4から絶対に更新しないよ
だって9.0とか10.0ってテレメトリ入ってくるじゃん。こんなんドライバとは言わない。
まともに動かないしな。
cudnn7.4.1出すならcuda8.0用も出せ。逝ってよし。 テレメトリはドライバ側に入ってるのは知ってるがcudaにも入ってくるのか?
ちょっと信じがたいが インストーラー起動した段階では入らないから
インストーラーの一時ファイル解凍コピー先から
コピーして持ってくる→その中からテレメトリーだけ削除してそっちでインストール
ってやろうとするとインストール途中で固まるんよ。カスタムインストールでgeforce experienceやhd audioドライバのチェックはずすところでな。
結論としてインストーラーのボタンそのまま押すしか、
ドライバーを正常にインストールできる方法が存在せず
テレメトリーも入ってくることになる。 なるほど
入れた後で頃せばイイと思うんだがそっちのアプローチはイヤなのか?>テレメトリ それでいいぞ。
ってゆうか現状そうするしかないな。
まあインストーラーのカスタムインストールで押すと固まるボタンとかあるから
geforce experienceとか3d visionとか入らないもんまで入ってくるのが困る。 >>518
GPUへのサイドチャネル攻撃、影響は軽微 〜研究者に発表に対しNVIDIAが回答
“CVSS v3”における基本値は“2.2”
https://forest.watch.impress.co.jp/docs/news/1152736.html ウェブの方試験的に新モデルに置き換えてます。
数値的にはかなり改善できているけど、見た目は並べてみないと気付かないレベルだと思う。
比べると違いは結構あると思う。
以下は注意
>waifu2x、学習終わったけどひとつ気づいてる問題があって、ノイズ除去がノイズレベルに想像より特化してる。
>例えば品質95のような微妙なノイズがノイズレベル1,2では取れないけど0では取れるようなことが起こることがある。
>適切に選択すればよいはずだけど順番に試す習慣がつくと負荷がヤバイので面倒 超解像って、待っていれば、PhotoShopに実装してくれるかな? されてるけどショボイよ。
減色やリサイズもsimipixとか藤とかの専用小物フリーソフトに比べれば
PSPは大雑把な実装しかなくて、専門性に特化した尖った性能ではないね。 1100×900で1MBちょっとの画像を拡大しようと思ったら、
413 Request Entity Too Largeって出た。なぜ? >>529
OSをアップグレードしたときに
HTTPサーバーの設定が初期化されて最大1MBになっていたので
最大アップロードサイズを修正ました。 最近のchainer guiはinstall.batとかしょうもない更新しなくていいから
画質の更新をしろよ、な? いつも通りにウェブのノイズレベル1を使ったら逆にノイズが目立ってしまった…
旧モデルの1が新モデルの2と3の間、3に近い感じだな 作者がツイッターで対象のノイズレベルに合わせ過ぎてそれから遠い場合はノイズが取れないことがあるといった事言ってた
同じモデルを対象に学習してる事前提だけどそもそも今迄の設定が弱くかけてた可能性もある。
このエンコーダでこの絵がこれぐらいの容量ならこのレベルみたいな指針は欲しいね
twitterならいくらとか おっそうだな。
拡大倍率とは違って、ノイズレベルが1,2,3ってのは基準が不透明で宗教感しかないから
この際、ノイズ取る、とらないの2択でいいだろう。 オレの環境じゃCPU変換しか出来ないみたいだからまぁそれは良いとしても
FHDサイズの画像約200枚処理するのに残り時間11時間弱ってどうなんよ・・・
その間CPUはブンブン丸だし完全に動画のエンコ状態やんけ GPUないとCPUがブンブン丸はしょうがねえよ
他に処理してくれるプロセッサはないワケだし
つか11時間掛かっても問題なく変換してくれるなら大人しく待っとけよw AMDのGPU詰んでるなら他のOPENCLとか使える奴詰んでるモデル名リネームして使えば?
少なくともaviutl版でVGG7→upRGBは通ったの覚えてる。caffeのCUDA(cuDnnではない)の半分ぐらいの速度だった覚えがあるけどCPUと比べたら雲泥の差で処理できるかと。
あとGTX1080ならUpResnetでFHD1枚約3秒でいけてる(プロセス4つ立ち上げ&分割数128で)から枚数が多いようなら1060あたり買うのもいいかもね。 ごめん最後は1秒で1枚程度だわ。適当に計算しすぎた。
ソースFHD→4Kね 淫の糞HDグラでも一応opencl使えるじゃん
惨泥はソフト実行になるけどw 多分 waifu2x caffeだったと思うけどwaifu2x系のソフトでintelcpuで実行する場合はopencl使うよりfma命令使った方が速いからそっちを使うというの見た覚えがあるからそれは考えなくていいと思う。 淫石でfma命令に対応したのは蓮以降だからivyならopencl使うしかねえなw >>539
AMDでオンボ
よー分からんけどマザボはFM2-A75MA-E35とか言う香具師
これでどーやってGPUやれるのか調べてもよー分からんかったから結局CPUでやってるorz >>539
それupconv7のモデルが使えたわけじゃなくてvgg7モデルのキャッシュ(.json.bin)が残っててそれで変換したんだと思う >FM2-A75MA-E35
trinityとかrichlandの頃までのCPUに対応やな
その世代のiGPUはVLIWラデ積んでるからもしocl動いてもウマミ少ないかもだな
つかbull系CPUなので蓮コラ同様fmaは動くハズだし
そもAMD App SDK runtimeはドライバに含まれてるハズなんだけど 向こうにも書いたけど一応こっちにも。おま環ならすまん
waifu2x caffe1.2.0
cunet使用時に拡大/ノイズ除去/両方のどれを選んでも分割サイズが大き過ぎる可能性がありますとエラー落ちします。
CUDA/cuDnnのみで発生するようでCPUで変換した場合は正常に変換できました。
1.1.9xからの更新、1.2.0のフルの両方で発生してます。
申し訳無いですがお願いします。 cudnn64_7.dllは入っており1.1.9では変換出来てました >向こうにも書いたけど一応こっちにも。
質問レスのマルチポストは絶対ダメ
マナー違反 おっそうだな
ここが原初の本スレで、ワスレは荒らしが建てた重複だよw cunetはかなりピーキーな仕様だな。
ベンチメークソフトかよw
これぐらいの追い越せない最強設定を用意しておいて
ハードの買い替え嗜好を煽るとは作者も方向性を誤ったかなw
画質はUPresnetよりもクッキリしてるし最強モデルであることは間違いない。
久々にカフェがチェイナーを追い越したな。UPresnetはボワボワw あまり意識してなかったけどcunetはwaifu2x-caffeではGPUメモリ使用量が多いかもしれない。
手元の環境だとTorchとcaffeともに分割サイズ256でGPUメモリ使用量1.6GBくらいだけど
caffeは本体改造しててレイヤごとに確保されているcuDNNのインスタンスをなくしたりしているので
2〜4GBくらい必要かもしれない。 カフェってttaレベル指定できないの?
チャイナーでは出来るのにそれじゃあ駄目でしょうw 急に最近カフェの作者がまともに更新するようになったなw って思ってたらやっぱりカフェもチェイナーも更新しなくなったなw
さぼるなよ阿呆が働けw おい作者ここ見てるならもっと最強画質で更新しろサボるなよ阿呆が働けw 作者はこのスレを見ているからな。
俺が1024 x 768のモニターを使っているから
UIが1画面に収まらずに、画面からはみ出すのはおかしいって書いたら修正された。
その時に、スレに居たやつらは信者脳だったもんだから、作者擁護と俺叩きに必死だったんだが
最終的には更新内容に俺の要望が反映される形で論争は終結した。
筋の通る正しいことを書いたのは俺だから、俺のゆうこと聞いて当たり前なわけで
正義は必ず勝つってことが証明されたんだよw
その時にスレにいたカスどもが地団駄踏んでいたのを今でも覚えている。
あれは俺の完全勝利で爽快だったなW
そんなカスだから、後からスカした顔して重複スレ建ててドヤってるんだろう。 おっそうだな
今では液晶モニターは1920 x 1200がほとんどだ
けど1920 x 1200で画質が最強品質の物を買おうとすると中古でも10万円以上する
ブラウン管なら中古で1万ぐらいのを自分で修理すればそこそこ最強画質を保てるのが利点だ caffeのcunetってバグってるんじゃないのw
分割数ちょっと増やしただけで極端にVRAM消費あふれて落ちるから
俺のスペックが足りてないのかって思って
1段だけ設定下げたら今度は急激にメモリ消費量減ったりするな。
ベンチメークソフトじゃないんだからちゃんと作れよw やっぱりカフェのメリットってのはチェイナーに比べて
気軽にポンと入る。余計な変なランタイムいっぱい入れなくてもcudaドライバだけでポンと動くってことだからな。
今はチェイナーもだいぶインストールしやすくなってはいるものの
Cドライブに余計なゴミが入ってきて残りやすいからな。
チェイナーの利点は今はvram消費量とCPU GPU消費が最適化されているってことぐらいだろう。
このままチェイナーが神画質モデルを出さないとフェードアウトするだろうなw
カフェの場合は高画質化よりも、CPUコア全部とGPU同時に使えるように効率設計したほうがいいね。
なんでCPU遊んでるんだよこれw クリスマスなのにソフト更新しないなんて作者もお盛んなんだろうねW そも邪宗と組んだ単なる販促イベントに何かこじつけるような手合いには日本人の資格はありません 更新内容、違うモデルを使ってたって
今まで気づかなかったのかよw
今までがベータ版だったわけだな。 waifu2x-caffe 1.2.0.2 変換速度遅くなったから waifu2x-caffe 1.1.8.4 に戻した ぶっちゃけ、出力画質の細かい変化なんて、もうどうでもいいんだよなw
ちょっとギザギザになって、ちょっとボワボワになったからどうなんだ?としか思わない。
今やってることって画質っつうかベンチ競争だよなただの。それは進化とは言わない。 Makegirls.moeってさ
服の種類指定したり獣耳付けたり乳出したりできないの?
コンセプト自体はwaifu2xなんかよりよっぽどおもろいのに
まじ、使えねえソフトだなw
あと、waifu2xはもうこれ以上画質競争しなくていいぞ。秋田からw 印刷物のスキャンとかをさ
原稿の印刷解像度とスキャンの光学解像度の限界で、ピントがボケたような画像を
入稿前の画像データに推測して生成するような機能がほしい。網点も除去するんじゃなくて
印刷前のデータを推測して出力すれば最強だな。人口知能ならそれぐらいできるだろw 試した。個人的にはwaifu2xの勝ち。NTTのは輪郭が破綻して描画されたりする。 >>583
確かに激遅いよね>1.2.0.2
しかも何か訳のわからない設定が増えてる
パッチサイズってなんですか? バッチサイズってゆうのは同時に並列化する数だよ
マルチスレッド処理みたいなものだ。サイズって言葉が悪いなw
現状画質ではcaffe一択ってことになってるが、画質ってゆうか粗まで再現するので
完成品を鑑賞には向かないね。モニター系オデオ機器みたいなもんだ。
それ以前にcudaドライバの10ってDVIチカチカするバグあるから
8.0と9.0が選べるchainer guiのが普段使いには便利だな。
なんでcaffeはなんでもかんでも新しいドライバーを入れたがるんだろうw
最新厨かよ。安定の検証ぐらいしろw cuda10.1入れたらDVIのチカチカ治ったわ
cuda関係なくてディスプレイドライバーの411.31が地雷の糞ドラだったってだけのことだがな。
10.1で418.96に更新して完全に最強安定になった。 ID:oL8if0yg0 597!598!599!
池沼「600ゲット、余裕でした。」
基地外の自演乙 俺に600取られたことがよっぽど悔しかったようだな(藁
俺は普通のLDK賃貸に住んでるから、こどおじじゃないよ。
こどおじは、日本がバブル時代に競争力の無いような底辺でも子供を作るような風潮の弊害だろう。
本来ならまともな性能を持った遺伝子だけが、子孫を残していけばいいものを
国や社会が結婚しろとかゆうから能の無い馬鹿も子供作らされて
まあ作られた子供も迷惑な話だよな。まあ今はそのこどおじが淘汰されていく過渡期だろうね。
こどおじもそれ作った阿呆親もはよ死んだらええねん。 そもそも子供部屋とゆう概念がバブル時代に生まれた価値観だからな。
子供には6畳以下の狭い部屋で十分なんて考えが親としての脳が欠けていると思うね。
普通の広さの部屋を子供に与えられないような親ははじめから子供を産むなってこと。
子供も大人と同等の処遇をはじめから与えればコストを抑えられるって考えられなかった時点で
経済性も無い猿の脳みそなんだろうw ID:Gp3n9Xnw0
こいつホントアホだなw
今も大量生産が基本であるのは昔と何も変わっていないというのが
知らないのかわからないんだなw
巨額の設備・システム投資や研究開発投資は
大量生産よって回収しなければどうにもならないのにねえw
他国に輸出でそれを回収するとか言っても一方的輸出では
アメリカなどが黙っていないのは自明のことなんだがw
それすら理解できないのが間引きの対象なのが今の日本や世界なんだよw ID:+ylBnxgc0
こいつホントアホだなw
今も大量生産が基本であるのは昔と何も変わっていないというのが
知らないのかわからないんだなw
巨額の設備・システム投資や研究開発投資は
大量生産よって回収しなければどうにもならないのにねえw
他国に輸出でそれを回収するとか言っても一方的輸出では
アメリカなどが黙っていないのは自明のことなんだがw
それすら理解できないのが間引きの対象なのが今の日本や世界なんだよw ベンチ競争と細かい画質競争なんかもうこれ以上しなくていいぞ
そんな更新ばっかりだったら
今更新して使わなくても後でいつでもいいかってなる。
だってcuda10のディスプレイドライバ糞だもん NVIDIA、AI/RTXなどのライブラリをまとめた「CUDA-X」でCUDAを拡張 - PC Watch
https://pc.watch.impress.co.jp/docs/news/1175502.html
CUDA-Xは、CUDAの上に位置するソフトウェアライブラリだ。
従来はcuDNNなど複数の製品から構成されていたAIのライブラリを1つにまとめた「CUDA-X AI」や、
リアルタイムレイトレーシング用のRTXなどから構成されており、ソフトウェア開発者はそれらを活用することで、容易にGPUを利用した開発を行なえる。 「Geforce GTX 1060」以上でのDXRリアルタイムレイトレーシング対応が発表!前世代カードでも楽しめる
ttps://headlines.yahoo.co.jp/hl?a=20190319-00000007-gamespav-game
最小要件はGeForce GTX 1060 6GBモデル Macbook pro 13インチとかで使える画像拡大ソフトで何かおすすめありますか?
cafeみたいにフォルダ一括で拡大できたら良いんですが 1136×640で72kbの画像を二倍にしようとしたら
ERROR: An error occurred. (unsupported image format/connection timeout/file is too large)
って出た。なんでや? CUDA 10.1 Update 1
CUDA Toolkit | NVIDIA Developer
https://developer.nvidia.com/cuda-toolkit
cuDNN 7.5.1
NVIDIA cuDNN | NVIDIA Developer
https://developer.nvidia.com/cudnn >>624
以前からあるファイク動画と同じ技術っぽいけど 鈴木ドイツ容疑者&南人彰容疑者がおもに同時間帯に書き込むスレ一覧
必要あらば関係者各自で警察に被害届を提出してください
<ゲーセン板>
秋葉原のゲーセン事情129 架空の常連客を貶める形で偽計業務妨害
https://medaka.5ch.net/test/read.cgi/gecen/1563231821/
イミグランデ日吉4 スタホだよ全員集合! 同上
https://medaka.5ch.net/test/read.cgi/gecen/1517534482/
■ 栃木ゲーセン事情78 ■ 同内容だが、殺意・強迫性が非情に強い
https://medaka.5ch.net/test/read.cgi/gecen/1562218271/
高田馬場・新大久保のゲーセン事情 その59 ミカド店員を脅迫しつつ偽計業務妨害
https://medaka.5ch.net/test/read.cgi/gecen/1564247190/
<STG板>
[飛鳥が]サンダーフォースVI[微笑む時代]172 岡野哲氏への執拗な攻撃はwikipedia、ゲームカタログなど多岐に及ぶが全て同一犯
https://medaka.5ch.net/test/read.cgi/gamestg/1558434811/
<PCゲーム板>
全スレの2/3が犯人の大事にしているスレ
<ソフトウェア板>
ほぼ全スレが犯人の大事にしている自演スレ
<その他のスレ>
【PSP】ファンタシースターポータブル総合 EP1268 自演
https://mevius.5ch.net/test/read.cgi/handygrpg/1564130168/
【互換機】レトロフリーク50【FC.SFC.MD.PCE.GB他】 電通の下請あたりから仕事を拾っての宣伝工作
https://mevius.5ch.net/test/read.cgi/gsaloon/1561724734/
ADVANCED大戦略 38(t)式戦車G型 犯人の巣。最近は家庭用版スレともども保守上げ以外でレスを入れなくなった
https://egg.5ch.net/test/read.cgi/game/1511400650/
【違法動画】やわらか宇宙研究所 Part7【人格破綻】 批判に見せかけた「宣伝」。ふしぎなことに生配信時にはレトロゲースレへの書き込みが1レスもなくなる。様々な憶測からやわらか宇宙研究所=南人彰本人ではないかと噂されている
https://egg.5ch.net/test/read.cgi/streaming/1563312555/
<2ちゃんねる外>
ボイスチェンジャーを用いたyoutube配信
違法ダウンロードで収集したソフトを扱ったサイト「だんぼーるはうす」「残り火ゲーマー」他多数のサイトでの運営管理、コメント欄でバレバレな自作自演
自身の関与したゲームを紹介しつつ自身の著書と名前を自作自演で売名 変なのが沸いてるにも関わらず公式からリンク張られててワロタ
愛を感じるわ い
よ
う
江
東
マ
ン
シ
ョ
ン
神
隠
し
殺
人
事
件
の
犯
人
と
同
期
入
社
の
チ
ョ
ン
ク
ズ
株 式 会 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 遊 ぼ う ぜaga アニメ専用っぽいけど高速性を売りにした(waifu2xの300倍速い)アプコンが出てきたね
720p→1080p、1080p→2160pの例だけ出ているけど他はどうなんだろうね
https://gigazine.net/news/20190817-anime4k/
https://github.com/bloc97/Anime4K い
よ
う
シエ
東
マ
ン
シ
ョ
ン
神
隠
し
殺
人
事
件 い く ら I D を 偽 っ て も 、 チ ョ ン 臭 さ と 根 の 暗 さ は 変 え ら れ な い
の
犯
人
と
同
期
入
社
の
チ
ョ
ン
ク
ズ
株 式 会 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 根の暗い自作自演工作なんてやめて 遊 ぼ う ぜ]o >>632
整数倍は綺麗だけど、それ以外は違和感あるかも。
MPC BEで毎週のアニメ消化するようになったわ。
レコーダの4Kアプコンとか、アプコンしてエンコードとか馬鹿らしくなるくらいには綺麗。
madVRの設定でドロップフレーム出させない設定にするのが難しいけど、バンディング除去くらいはしても余裕。 × cuDNN 7.6.4
○ cuDNN 7.6.3 >>634
アップスケーリングならソフトと設定次第。
リアルタイムで出来る程度の処理は限界があるよやっぱり。 RX570買おうかなと思ってたけどCUDA使えなくなるんだったな
AMDは似たようなの作ってないんかな? >>641
現状cudaきぼんぬならゲフォ買うしかねえよ
一応AMDもBoltzmann Initiativeってのやってたケド
winでは走らんで犬糞限定だったハズ RADEONでwaifu2x動かしたいという話ならDeadSix27のwaifu2x-converter-cpp v5.3.1を使えばいい ちょっと前までメインがHD7770でcuda用にGT1030挿してたよ cuDNN 7.6.5.32
cuDNN Download | NVIDIA Developer
https://developer.nvidia.com/rdp/cudnn-download 被ってるし新しい方がのが進んでるからどうでもいいんじゃね 画像最適化ツール「OPTPiX ImageStudio」に「waifu2x」を拡張した高解像度化技術が搭載
テレワーク用ライセンスの無償提供は6月末まで延長
https://forest.watch.impress.co.jp/docs/news/1253701.html cuDNN v8.0.0 RC
cuDNN Download | NVIDIA Developer
https://developer.nvidia.com/rdp/cudnn-download
CUDA Toolkit 11.0 RC Download | NVIDIA Developer
https://developer.nvidia.com/cuda-downloads waifu2x-caffe ver 1.2.0.3 waifu2x-caffe ver 1.2.0.4 topaz の速度がRX6000とRTX3000で随分速度が改善したから買おうか迷ってる
在来のRX500/GTX1000/RTX2000シリーズの場合、速度性能は
GAIA-hqのSD→200%レベルで
RX580で1フレーム1sec超え
1080で2倍の0.5sec
1080ti/RTX2080tiで0.25-0.4sec
とメモリサイズや速度があがってもたいして向上しなかった
けど
RTX3070 0.13sec
RTX3080 0.1sec
RTX3090 0.6-0.7sec
RX6800 0.1-0.13sec(データによっては同じ比較で3060ti/3070の1.5倍時間がかかるデータがあったが、それでも0.2sec以内)
と劇的に改善してる
これなら1分1440フレームで変換2分、3090なら等速変換できる
これなら買い替えありなのだが、いまはコストがな ここの趣旨とはズレるけど一応は注視
AMDが超解像技術「FidelityFX Super Resolution」の提供を開始
https://www.itmedia.co.jp/pcuser/articles/2106/23/news106.html >>662
GTX1080からRTX3080に買い換えようと思っているんですが、
大体、1/5の変換時間になるということですね >>662
情報ありがとう
去年2.4.0使ってた RTX2080Ti持ちだけど、
久々に使おうと思って2.6.4にアプデして
ものすごく変換速くなったと思ったらアップデートで改善してたのか。
何が起こったんだ?と思ってこのスレ来たらビンゴだったなw
1時間40分のDVDソースを200%変換かけてるんだけど、8時間で終わる。
前はこんな速くなかった、というか1フレーム変換遅すぎて
変換画面とか見るのも億劫だったけど
今は変換中の画面みても、ちゃんと「スローだけど動画再生を見てる」って認識だよ。
しかも、変換エンジンを自動で選んでくれるようになったし、
かなり便利になったわ
制止画だとわかりにくいけど、今変換かけてるやつのスクショ
https://i.imgur.com/FSkeLyF.jpg あのスクリプト荒らし先月頃にも他板で暴れまくってたけど、まーた帰って来たのか…傍迷惑な
一先ずこっち再利用して、埋まりそうになったら改めてpart10建てればいいかな?
このスレ沈みすぎだし取り合えず上げとこう 先日BSPでやってたBOWIEのライブ映像にVEAIが使われてた
RCが強力にかかってたのでバレバレだった >>672
ほんまかー?
VEAI出る前からアプコンされたソースあったぞ 市販ソフトを業務に使うんだったら許可はいるでしょ
テロップはあったの? veaiまともに動かすのにryzen7 5750とGTX1650のスペックじゃ足りない?一応VRAMとかは推奨スペック満たしてるとは思うのですが
手持ちのデスクトップがその構成なんで出来ればこれで行きたいのですが 実時間近くでエンコしたいなんて思わなければ使えるだろ >>675
時間いくらでも大丈夫でVRAM6Gあれば4Kくらいなら
落ちたりはしないよ
理想を言えばGTXシリーズは、こういう用途にゴミなので
最低3050、2060辺りにすれば桁違いになる あーRTXのがエンコード強いんでしたっけ
時間考えるとカネかけるしか無いかな~ まあ使い道によるし体験版で試すのが手っ取り早い
超低画質の物をFHDにするのとFHDの物を4Kにするのとじゃかかる時間が段違いだし 桁違い、って・・・
1650から2060にすると桁違いに早くなります、は嘘だろ
桁違いって言葉テキトーに使いすぎでは もうちょっと良い表現なかったのか 俺GTX1060なんだけど今年からM1macだからソッチでやってる
ワッパがいいダケなので本気の人はWin機1択だよな
機材を替えて2日とか3日かかってたのが半日になるとしても、結局半日かかるのであんま凝らない事にしてる
高画質化したいソースが山ほどある人らは大変でしょうけど、俺には高画質化するに値するような大切な動画なんてほとんどないのでね
>>681
なるならね・・・w
1650から2060で何倍くらいなのか俺も知りたいわ
2倍なら買い換える価値あるけど、そんないかんでしょな 確か前スレでテストした人居たけど
1660から2060で 4Kアップスケール
gaiaで4~5倍の速度
Artemis、Protusで3倍くらいって言ってたような?
あと海外がテストしてた動画貼ってたな。スレ探してくるよ 名無しさん@お腹いっぱい。[sage] 2022/01/31(月) 15:56:42
VEAIのグラボのスピードテスト比較
https://www.youtube.com/watch?v=idbKs8Im9sA&t=370s >>685
これバージョンが2.62とかなんで
2.64からGTXシリーズ速くなったらしいから
その辺は、ご勘弁を 参考としてはね
3060、まだ5万前後だった
〇060番台って今まで大体4万前後だっけ?もう忘れたww
4万台なら高いってほどでもないね
折角仮想通貨が下火になっても円安と半導体不足か・・・ >>689
半導体は既に過剰らしいよ
パソコン、グラボ、スマホ向け
nVIDIAが30○0は在庫余りすぎて、
店舗在庫買い戻ししてるらしい。値崩れ防止の為
ちなみに儲からない半導体(車とか)は
そもそも、作る気が無いので解消しませんが 720pの素材をいきなり4KアプコンするよりフルHDを挟んだ方がいいとかある?
技術的なところよく分からなくてさ エンコード回数を増やせば増やすほど元のデータからは離れていくわけだから
基本的には一発で目当てのサイズにした方がいいんじゃない? 思い切ってクロシコの3070Ti買ってみた。
Cupscaleでブン回してみたらファンうるせえ!熱風すげえ!そして高温のせいでスロットリングされてるorz
ローエンドのGPUしか買ったことなかったら、こんなんだとは思わなかったよ……。 >>695
電圧下げたら?
TDP上限7割ぐらいにしても1割程度しか性能落ちないでしょ VEAIはRTX2060OC→RTX3070でも、実写FHD→4K処理は倍は行かないけどかなり速くなるね
実写だと人肌がのっぺりつぶれちゃう感じが残念だけど >>691
急ぐ理由が無ければ待った方がいいだろうな
来年出る4070(10万以下ミドル)に
性能で3090tiが負けるらしいから。
現状、高性能モデルほど投げ売り状態
こうなると20万でも高い3090ti >>701
もう数年待てば4070より性能のいい5060が安く買えるぞ >>702
流石に数分の一の効果しかないものを数ヶ月|数年のレンジで同じように語るのは無理があるし詭弁だと思う。
・3ヶ月で3~4割程度の価格になることが期待されるもの
・3年で7割程度の価格になることが期待されるもの >>702
「半年後」と「4年後」の差は大き過ぎる 紛らわしいから新しいのを誰か立ててくれ 俺は駄目だった 【超解像】Topaz Video Enhance AI専用スレ1 VEAI 現行バージョンはソフト名から"Enhance"なくなってるから
Topaz Video AIかTVAIどっちか入れた方がいいんじゃない? むしろ専用スレだから頭文字取る略語もいらないか。。
【超解像】Topaz Video AI 専用スレ1
帰ってからじゃないと規制回線で立てられない TVAI Beta 3.1.0.1bで
スタビライゼーションと
フレーム補間が復活したけど
Apolloがまだ選べん
思ってたより大掛かりに作り替えてそう Topaz欲しいけどまた149ドルセールみたいなの来ないと買う気にならないな 3.1.0.1b試したよ
フレーム補間復活したから普段の処理(8k60fps化)やってみたら倍近い速度出た
FHDの4k化だと上記ほど早くはならなかった
GPU持て余してる勢は重い処理で効果を発揮するようになってるみたいだ そういってるうちに3.1.0.2bが出ましたよ
Apollo Sharpってなんぞこれって
Preview試したら初めてOut Of Memoryエラー出た
32GB MacStudioなんだが
このAIモデルってRAM何GBいるんだ RX7900XTだけど、まだAV1の項目出てこないけどRTX4000番台のは出てくるの?h265と比べて処理スピード遅くなる? 新型アポロぶっ壊れてんな
ソフトで1.78spf、シャープで7spf近く出る >>721
セール版も2台のPCまでってライセンスだったけ?
そもそも何を基準に判定してるのか不明だけど
OS入れなおしたら1カウントされて詰んだりしないもんかね >>722
ぶっ壊れんなっていうのは遅いという意味か
spfじゃなくfpsなら爆速な数字だが
Mac版はout of memoryで使えないのが
Known issueで出ててまだ試せない(´・ω・`) >>723
マックとWinに入れてるけど問題ないなあ
認証方式変わったしOs入れ替えてもロックかかったりはしないはず >>724
ソフトしか試してないけど
腕振りの補完具合みてると
クロノスとの違いがわからん
あとプレビューは問題ないけどエクスポートが機能しなくて動画が作れない H265にmain10てのがあるけどググってもよくわからん
普通のより圧縮率高いの?デメリットはない? >>727
Mainは8ビット、Main10は10ビットまでの色深度を扱える
ビットレートを上げるんならMain10の方が色の情報を多く持てるので有利だしHDRとかだとMain10使うのがデフォ >>726
シーンによって得手不得手がある
3.0.12ベースの話になるけど
Chronosのほうが癖がないと感じた
Apolloはハマるとめっちゃ自然に補間するし
基本処理が速いんだが
シーンの切り替わりとか
人がなんか手に持ってたりとかすると
めちゃめちゃおかしな絵を吐きだすことがあった >>728
へえ
確かに画像の仕上がり良い感じがする テキサスにあるTopazはうっかり送信ボタン押さなきゃ
処理中の画像データとか抜かれないようだけど
dvdfabの方はどーもAI処理の結果送信してるようなんだよね
起動のときだけLANケーブル挿しといて
起動したら抜いて処理ってやらんと信用ならん・・
AI系はどこもぶっこ抜いてるのかなぁ? >>725
OS入れ替えて大丈夫なら
パーツ組み換えても問題なさそうだね
ってことは起動時にオンライン認証して
端末は問わず2台まで同時に使用できますって類っぽいね
ちゃんと翻訳してないけどたぶんそういう意味合いだろう 5700X
メモリ16G 2666CL19
RX 5600XT
TVAI3.0.12
4Kプロテウス 0.75 4KLOWクオ 0.56
メモリを16G 3466CL16XMP動作に変えて
4Kプロテウス 0.63 4KLOWクオ 0.52
スペック低いGPUでも、メモリ変えると少し速くなる
PCIEも重要かもというのが公式コミュニティであったけど、試せる方いますか?
PCIEを重視してる人がBIOSで動作を変えれば出せるよってレスがあってから
出してなくて気になってます
ベータ版は共有メモリを使い始めて逆に遅くなりました >>720
AV1(NVIDIA)って項目が出てるよ
今の処理があと10hで終わるからスピードはちょっと待って プロテウス情報ばかりだけど、アルテミスやガイアより質がいいの? >>733
メモリって8GBx2のシングルサイドでOCかな
お金余裕あるなら3万+メモリ代で
メモリDDR5対応マザーにした方がいいよ
0.3*代になる >>736
単にみんなで条件揃えて速度比較してみようってだけ >>736
途中で送っちゃった
>>734の動画で4k化プロテウスオートで
他スペックやバージョンごとの速度比較しようって話になっただけ
速度比較用だから質とかは関係ない ベータ版は1つのファイル処理だと速くなる事が多いけど、複数同時処理だと遅くなる事が多いな。 3.1.0.2b Mac版
30分ぐらいの動画を変換すると
Tempファイルから最後のファイルに書き出した
瞬間にアプリが落ちてしまう
そのうち直るんだろうが
Betaのディスカッションに書き込めばいいのか
分からない
Bug Reportとかスレッドあればいいのに
3.0から処理が倍に速くなってて
Betaとはいえ現行バージョンに戻れない >>735
ありがとうございます。
時間がある時にでもお願いします。 >>737
メモリ速度じゃなくてメモリレイテンシーが重要らしいけど、レイテンシーの遅いDDR5で効果あるのかな? >>743
733はOCして詰めてるから
そのあたりは掘り下げなくても自分でやると思う
ただDDR5なら速度落としてCLガン詰めも出来るし
落としても速度はDDR3600を下回ることはないよ
CL÷(周波数÷2)= 真のレイテンシ
効果あるかないかでいえば
DDR4でCL14設定とCL19設定では差はなかったよ
設定詰めすぎて速度落とすと、今度はスコアどんどん悪くなる
バランスだよね。 ProteusのAUTOとManualでestimateってボタン押すと調整それるパラメータって同じものなの? DDR5のクロック抑えて0.C詰めたら
DDR4より帯域が効いてくるんかな 丸2日かかった処理が最後の変換処理中に容量足りなくて失敗した…
予想される最終データサイズの2倍以上空けてたのに足りなかったようだ…
この残された変換前のファイルから続きできるようになったら良いのに… >>747
最後の変換中、残り数分とかで
残り時間がフリーズして固まってしまう事あるけど
数字が止まったままなだけで動いてる事、結構あるよー
残り10分くらいで固まったけど
2時間くらいホッといたら勝手に終わってたりすることも >>748
それはあるよな
一応エラーが出て止まるまではなるべく放置するようにしてる(エラー出て止まった) >>742
例のドルビー動画プロテウスオート4kでh265とAV1比較してみた
どちらもビットレートはオート、GPUはRTX4090
TVAI3.0.12
AV1 7m15s 7m18s(2回目)
h265 Main 7m13s 7m16s(2回目)
ProRes422LT 7m14s
TVAI3.1.0.2b
AV1 3m35s
h265 Main 3m35s
ProRes422LT 3m39s
3.0.12だとどれも横並び、AV1とh265では少しだけh265が早いが誤差程度かと思われる
3.1.0.2だと変換にAV1とh265はハードウェアエンコードが良く効くようになったのか?ハードウェアエンコードされないと思われるProResだけが少し遅くなった PCは最新スペック1台じゃなくて中堅くらいの2台で
チャプター分けて同時に処理させてる
電気代はわからんけどこっちの方がパフォーマンス上がった >>750
ありがとうございました。
ほとんど差は無いんですねー。 >>752
めちゃくちゃ容量増えるだろ…と思って計算してみたけど
1ファイルの変換ごとに大きくても2TBくらいに収まりそうだったからギリいけそうだ
というか連番pngとproresって倍程度しかサイズ変わらないんだな
今度からでかいやつはpngで出してみるありがとう 3.1.0.2bにしれっとMotion Deblurって機能が追加されとるな
前スレで被写体がブレちゃった動画を綺麗にできないかって質問があったが結構いい線いきそう
アニメっぽいというかCGぽい
気色悪さが出てくることあるが
補正としてはよくできてる 明日辺りCPUだけ12コアに載せ替えるんで6コアと比較してみますね 返金できるからいいやーと思って安くなってたHitPawっての買ったんだけど何かtopazの方が仕上がり綺麗?な気がするなぁ
やっぱ機能少ないやつはダメだな >>758
かなり早くなったね、それは3.1.0.4b?
CPUのコア比較みたいから>>715のバージョンでの速度知りたい >>759
topaz以外は技術力が低すぎて話にならない
分解率が違い過ぎてな
イミテーションの劣化コピーも多いから他は買わない方が良い 昔のVrevealとかそんな名前のが当時としては超優秀だった
安かったし、今も続いてればよかったのに >>761
やっぱそうなんだ返金しようw
でも今時期悪いよね?金はあっても割引になると知ってるものに満額出したくはないなぁ 最新ベータで4090の人はクロノスどれくらい早くなった? >>760
いやまだCPU届いてないから全部6コア
前スレから自分の履歴ひろってきた えらく進歩してる
Ryzen 5600XちょいOC + RTX3070ちょいOC
3.0.12 0.61spf→0.47spf(メモリクロック3600Mhz化)
3.1.0.0b 0.37spf
3.1.0.2b 0.34spf
3.1.0.4b 0.26spf M1無印は伸びしろなし
最初Win機がヘボくて萎えてたがつこうてるワット数が段違いなので巻き返した
が、相変わらずワットパフォーマンスが異常
Mac mini M1(2020) 16GB
3.0.11 0.62spf
3.1.0.0b 0.52spf
3.1.0.4b 0.52spf betaが今の処理のまま正式に出たらgpuを変えるメリットがありそうですね
GPUを買うくらいならM1を追加したほうが良かった時代にようやく終止符が打たれそう 静止画はTopaz Photo AI一本で行くのかと思ったらTopaz Gigapixel AIもアップデートされてるな
アップスケーリングはやっぱ違う品質なんだろうか >>765
ありがとうよく見たら明日って書いてあったね早とちりすまない
それにしてもこう数値にするとここ最近の進歩がよくわかるね 連投になってすみません
前スレ999とか840みてる限りWindwsベータ版は単にCPU最適化が進んだダケでは?
前スレ840のRyzen9 5900X+RTX4090 TVAI3.09、4k proteus auto 0.42spfって今となってはミドルスペック+ベータの俺より遅いし
今は全コアほぼ100%近く回ってるし、うちのマシンって冷却がショボくてサーマルスロットリング起こすから周波数さがると0.20から0.24spfくらいまで落ちる
そしてグラボのパワーリミットを半分にしても処理速度変わらない
多分グラボを盛るよりCPU盛った方がいい まあ俺はCPU載せ替えるから明日答えがでるよね
フォーラムみてる勢はなんか知ってそうだしベータ試してる勢はココに書いてないだけでとっくに気づいてるとおもうけど・・・
今度はRTX20X0対40X0でどれくらい変わるのか、ARC早いよな って話にシフトしていきそうw
正直今年は1本しかアプコンしてないのでソフトとハードウェアのアップデートベンチマークみたいな状態になってます
あとみんなも気づいてると思うけど、ソースがどんなであれ同じ速度なの謎だよね
例のドルビーのファイルも24fpsのHD映画を2倍にするのもおんなじ速度
長々すみませんでした AIプロセッサ設定をGPUからCPUにしたら5.94spfとか出て22倍遅くなったわ ベータはGPUってかCPUの方が先にフルロードになるな…
3080ti 5800xだと5800xを変えないとダメそう、GPUが7割くらいかな?
ノートの3700ti 12700hはcpuが7割ちょっとの仕様だったわ。 >>773
プロテウス+クロノスfastかけてみたら74%もGPU使いました 奥が深いぜ・・・ >>769
Photo AIの方は細かい設定できなかったり同じLow Resolusitonで拡大した時も結果違うし色々違ってるんだろうね
文字はPhoto AIの方が得意な気がする >>764
4090でchronos比較してみた
例のドルビー動画、解像度そのまま60fps化
3.1.0.2b
chronos fast 0.10spf
chronos 0.13spf
3.1.0.4b
chronos fast 0.06spf 3m53s
chronos 0.06spf 3m36s
3.1.0.4bだと逆転してchronos fastよりchronosが早いという結果になった Gigapixel AIは今回のアプデでHQモデルが追加されてジャギジャギな画像にも強くなったと思う
Video Enhance AIのRevert Compression強めにかけたような感じと書けばわかる人はわかるかなあ >>750
これの結果を訂正します
3.1.0.2bだけ何故かプリセットが機能してなくて4K化できてませんでした。
再度3.1.0.4bで試してみました
AV1 5m32s
h265 5m36s
prores 5m44s
やはりAV1とh265が微差、proresだけ少し遅いという結果
速度はどれも0.21〜0.22spfくらい 4k化くらいの軽い処理だとメモリ転送速度やCPUがボトルネックになってRTX系は早々に頭打ちになるみたいだな
全然使い切ってくれない
複数処理やchronosの場合GPUパワーが効いてくると思われるので例の動画でのchronosの比較も見たい >>776
速すぎ吹いた
4090の性能が遺憾なく発揮されてるね
並列処理は出来てる?自分はA770LEだが
並列処理出来ないのが誤算だった AVCLabs体験版試そうかと思ったら課金の催促だけで一回も変換させてくれなかったので無事アンインストール完了 >>726
ChronosはAIを活用し新たにフレームを作り出すイメージ
Apolloは従来のオプティカルフローやモーションブラーっぽくフレームを合成してる感じ
スーパースローモーション映像みたいに1コマ1コマ仕上げたいならChronos系
動きが欲しい(フレームを残像っぽく仕上げる)ならApolloかな
当然Apolloのが軽い >>782
chronos とchronos fastって何が違うの?fastって書いてるけど遅いって注釈に書いてるけどベータだとこっちのが1.5倍以上早いんだよね… >>780
最大4つまで出来てる
一つ一つは遅くなるけど並列処理が増えるほど時間効率は良くなる Gigapixelの新しいFix Compressionすごい
解像度が高いものであれば完璧過ぎる仕上がり SD動画を4kにきれいにアップスケールしたくていろいろ設定弄ったけど結局HDまでにしとくのが限界なんだとようやく諦めついた h265 nvidiaだと ちやんとファイルサイズ小さくなるけど、h265 AMDだとh264と変わらんな。 >>765
Ryzen5600(無印だった)→5900X
3.1.0.4b 0.26spf→0.20spf >>789
かなり早いね
少しCPUをダウンクロックさせてるせいか、同じ5900Xメモリ3600でRTX4090の俺より早い
やっぱりプロテウスオート4kはもはやGPUは重要じゃないんだな >>776
Ryzen5900X+RTX3070
3.1.0.4b
chronos fast 0.08spf
chronos 0.11spf
>>778
40X0のAV1HWエンコいいですね
ProResLTでやってましたけど容量がダルいんでH265 Main10 16MかAutoでやってます Proteusだと速度はほとんど変わらないっぽい
が、さらにもう一回ソフトエンコでRF23くらいのH265かけて容量減らしてます
無劣化に近いProResLTの代わりに使ってるんで1回目は24とか40Mbpsくらいまでビットレート上げてもいいかもしれないです
>>790
PBOと+200Mhzブースト、Ryzen MasterでCOをPerCoreで自動オフセットして、PPTは定格の142Wにしてます
エンコするんで電圧下げた定格ってかんじ
例の動画を2倍化プロテウスするとCPU62度くらい、CINEBENCH R23マルチは21073でした
空冷なんで100ワット使わないのはありがたいです
https://i.imgur.com/THjE773.jpg 3.1.0にアプデしたらRTXとCPUの使用率上がった 新Gigapixelで水着の女性を拡大したら股間の部分にソースに存在しない透け感が現れて笑った
AIモデルの学習にどんなデータ使ってんだよ 正規版きてたか ベータしか起動してなかったから気づかなかった
>>791
コア数2倍で大体2倍早くなってた
3.1.0.4b
Ryzen5600無印+RTX3070
chronos fast 0.17spf
chronos 0.19spf mac mini売ろうとしてたらmac mini M2が発表されたね 高いけど v3.0.1~3.0.12はマイナーアップデートで
v3.0.12→3.1.0はメジャーアップデートみたいだな
年末セールで買った客が多いから
v2.6世代は、みんなライセンス切れだね >>791
chronos速度参考になります
あと自分も今度からサイズ小さくするためにh265とかで書き出してみようかと思いました
pngで書き出したらとんでもないサイズになっててNASが悲鳴あげてる最中なので 3.1.0にしたら約3倍遅くなった。3.0.12に戻しました 3.1.0にしたら3倍遅くなった。3.0.12に戻しました
何が悪かったんだろう?単純にアップデートしただけなのに Hitpaw買ってしまった民だけど色々検索してたらもったいつけて返金してくれないみたいなの見てしまった
確かにサポート期間だから返金してって言っただけでスクショとかログくれみたいなこと言われたし「こちらの落ち度がなかったら返金しない」とか「製品の詳細を読まずにご購入された場合」「購入後に気が変わったユーザーからの返金申請」は返金しないとか書いてあってマジで返金してくれなさそうで困ってる
みんなはそんな事ないと思うけど買おうと思ってた人は気をつけて欲しいわ…情弱すぎた。 3.1.0 で CLI (ffmpeg) を使おうとしたら特にエラーも表示されずにサイズゼロのファイルができるようになってしまった
3.0.x では動いてたんだけどな…
ちなみにフィルタの指定が若干変わり veai_up は tvai_up になった HitPawのVideo Enhancerのページ見たら
元をボカした動画とボカす前の動画表示して超解像してる風に見せてるだけで笑ったわw
そりゃ返金なんかしてくれるわけないわな >>803
30日は返金対象って書いてあったら完全に安心してたわ 1台は認証切れにされたけど、もう1台は認証通ってて わけわからんわ。
これまた不具合なんじゃねーの。 >>810
Mac版はしれっとApolloは消滅してる
3.2で復活なのかね >>809
自分は復元ポイントでアップデートまえに戻した 12900KS RTX3090Ti 32G 3200Mhz
かなり変わった
【3.0.9】
4K化 proteus auto 設定で 0.36spf
↓
【3.1.0】
4K化 proteus auto 設定で 0.20spf 自分はこの一週間4090でDDR5のBTOを詮索してたが・・・今日3.1.0にして
とりあえずこれなら3090のままでいいかなと思ったsafe! (例のDolby動画)
5950X 3070 32G3200
【3.1.0】
4K化 proteus auto 設定で 0.28spf 3090、tiの人
3.1.0で例のドルビー動画で解像度そのままchrinos,chronos fastで60fps化の速度も見たい 高画質化と高フレームレート化をいっぺんにやるより別々にやったほうがトータルの処理時間短いよね?
何この無駄機能 >>816
12900KS RTX3090Ti 32G 3200Mhz
【3.1.0】
Chronos Fast 0.06spf 3m55s
Chronos 0.08spf 5m02s >>816 ついでにうちのサブ機
5950X 3070 32G3200
【3.1.0】
Chronos Fast 0.9spf 5m48s
Chronos 0.13spf m02s Chronos系はGPUの性能差がはっきり出るきがします
あと3.1.0のバグ?なのか連続でやると急にスコアが悪い時がたまにある
そうすると順によってはCHFast(Chronos Fast)がCHR(Chronos)より遅くなることがある
のでよって>>776の RTX4090のかたの
>>3.1.0.4b
>>chronos fast 0.06spf 3m53s
>>chronos 0.06spf 3m36s
3.1.0ではCHFastが0.04〜0.05spfとかもっと速い可能性があるけど、どうでしょうか? >>800
VRAMたくさん使うようになってるから
共有メモリが使われなくなるまでメモリ使用量を減らすと動くよ
>>820
インタレ解除が下手になってるのは3.07くらいからだと思う
特定のソースだけで他は問題ないんじゃない? 素朴な疑問なんだけど
このスレの大半の人が速度厨で肝心の中身には何も触れないんだな
自分は遅すぎなければなんでも良いんだが 処理速度は金に物言わせれば改善できるからな
その上でより効果の高い選択肢を取るための情報収集
画質は個人の好みだし、不具合にしてもココでグダグダ喋っても結局は改善されるのを待つしかできないでしょ?
勿論万人受けする設定があるなら是非教えて下さい エンハンス画質は動画の種別・分野でだいぶ変わるよね。
それにもよるし、だいたい操作わかってきたら自分の好みに合わせて個人でスキルを上げていくしかない。
自分は多くはプロテウスマニュアルをベースに素材ごとに苦戦工夫してやってる
そのへん決まってくると動画一本が5時間かかるのと2時間で終わるのは大違いなのであとはそこって感じ RTX4090、3.1.0でchronos,fastを順番変えたりしてやってみました
上から順に処理しています
1回目
chronos fast 3m40s
chronos 3m28s
PC再起動
2回目
chronos 3m33s
chronos fast 3m21s
連続
3回目
chronos fast 3m20s
chronos 3m26s
3回やったうちだとfastの方が少しだけ早いことが多いですね
chronosとfastで他の方より差がないのは、プロテウスオートで0.20spfあたりで頭打ちになるように
chronos系も0.05〜0.06spfあたりで他の要因がボトルネックになって
速度が頭打ちになるんじゃないかと予想 打ちっ放しだったら1回失敗しても10秒後に次のボール打てるじゃん?
アプデは2時間後に分かるから気力起きないんだよね >>829
そうみたいですね。もしかするとグラボのまえにCPUであたま打ってる可能性も?
ウチのスコアと比較してちょうど12世代と13世代くらいの差っぽい。グラボならもっと差があるはずだし
Tvaiにかぎれば4090はオーバースペックなんだろうか >>831
あくまでFHDの動画の4k化や60fpsの単一処理が頭打ちであって
もっと重い処理を要求する場合はオーバースペックということはないのでは無いかと思われます
例えば自分はいつも8k60fps化を4つ並列処理させておりますが
GPU使用率は100%近くになりますのでやはりGPUは強ければ強いほうが良いと思います
もちろんCPUなども強い方が良いと思います やってみた
13900K RTX4090 DDR5 6200 64GB
3.1.0(TRAIAL版) 例の動画
Protes Auto 0.12 spf 3m16s
Chronos fast 0.04 spf 2m47s
Chronos 0.04 spf 2m54s
5950X RTX3090×2 DDR4 3800 32GB
3.1.0(製品版) 例の動画
Protes Auto 0.17 spf 4m38s
Chronos fast 0.05 spf 3m30s
Chronos 0.05spf 3m20s >>833
つよつよグラボだとchronosはfastと速度差あまりないですね
それにしてもプロテウスオートめちゃくちゃ早い…
やはりメモリの速度が効いてるんですかね https://photoshopbook.com/2022/10/20/topaz-video-ai/
>一年間のアップデートライセンスが切れている旧Video Ehnance AIユーザーにも特別価格$149が用意されています。
これってどこかわかります? ブラックフライデーで割引してた時はTopazのアカウントにログインしてMy ProductsからVideo Ehnance AIのExtend 1 yearだったかな
その時にはTopaz Video AIになってるからそっちだったからもしれんけど
ちなみに今見てみたら$119.00だった >>820
CLI のコマンドラインを見る限りでは ffmpeg の bwdif でやってるみたいなので、インタレ解除は TVAI 独自のものではないみたい >>804
CLI が使えなかったのは環境変数名が変わっていたからだった
フィルタのパラメタだけじゃなくて環境変数も変えて設定したら動いた >>833 >>834
4090のほうは製品版でもProteus Autoで0.12spf?
あと64GBで6200Mhzってことは32GBx2枚差しですよね
プロテウスめちゃつかうから悩ましい・ >>843
やってみた
13900K RTX4090 DDR5 6200 64GB
3.1.0(製品版) 例の動画
Protes Auto 0.11 spf 3m12s
Chronos fast 0.04 spf 2m41s
Chronos 0.04 spf 2m50s
参考
13900K RTX4090 DDR5 6200 64GB
3.1.0(TRAIAL版) 例の動画
Protes Auto 0.12 spf 3m16s
Chronos fast 0.04 spf 2m47s
Chronos 0.04 spf 2m54s
結果
製品版の方が少しだけ早くなった。
製品版とTRAIAL版はソフトは同じものでログインしているかどうかの違いとTRAIAL版はすかしが入る。このすかしを入れる工程分TRAIAL版が遅くなったと推測。
後、メモリは5600MHz 32GB×2のメモリをマザーボードの自動OC機能で6200GHzにOCしています。 結局2.6.4をずっと使っている。
6月で1年経過でバージョンアップ不可になるので、この先も使い続けると思う。
変換時間が1/3になったという情報あれば買い替えを検討します。 DIONE DVしか試してないけど、3.1.0のインタレ解除がおかしい。
コマ送りで見ると1コマずつうまく送れない。
画質もなんか汚く感じるし、早く改善してほしい。 なんかH265よりプロレスの方が画質いいような気がするの私だけ?
容量はとんでもない事になるが >>848
圧縮率が低いんだから画質が高いのは必然
3.1でiPhoneとかでとった縦長動画を処理すると
へんなバンディングが出たりと使えない
2.6.4までと同じように横向き表示で普通に処理して欲しいわ hitpaw返金縛りまくりだから自らデバッガーになってバグ突きつけてやったわ
これで返金されなかったら嫌だー
topaz買いたいんやー TVAIv3.1.0にしたらめっちゃ速くなってた\(^o^)/
RTX3070でH.265p10のFHDのx2処理が2.8fpsから4.5fpsになってる!感動や!
30分物なら2時間半かからず終わる!ありがとう! 3.1に上げたらライセンス切れてるってでてきた
3.0.12まで使えてたから忘れてたけど去年の10月に切れてた
なんで使えてたんやろか?
ダウンバージョンしたら使えるんかなwww モーションブラー補正重すぎだわ
これにコマ間合成や手ぶれ補正 ノイズリダクション
アップスケールの全盛で実用的じゃないな
AppleのCompressorみたいにファイルをスプリットして
ネットワーク分散して最終的にまとめる機能があればな >>855
メジャーVerUPダウンロード開始時点で
アップデート期間が残ってると、
その後期間が切れてもマイナーVerUPは
最終verまで使えるみたい
3.1はメジャーアップなので駄目だけど 例えば速度だと数値で出せるけど、画質の指標ってのは難しいと思います
変換する画像によって毎回違う結果が出ますし好みの問題もあるので画質の方は結局個人に委ねるしか無いのでは?
自分でいろいろ試してみて良いか悪いか判断するしかないかと
ただ特に比較もしてないし個人的な意見だけど3.1.0になっても特に画質が大きく変わった印象はありません 違う画像で処理したら処理速度も変わるから速度も比較にならないような >>854
画質とスピードの因果関係をいってるのならプロテウス・マニュアルに関しては変わらない。
3.10のAUTOは各エレメンツのかけぐあいがかわっているから画質良いとか悪いではなく、
〇ちょうど好み、△かかりすぎ、△足りない、とか好き嫌いはあるが画質は変わらないと感じる 補足
おなじ画質の出力結果でも2.6.4より3.1.0はスピードはかなり速くなっったよ dioneでVHSのインタレ解除するときに
へんな横縞防止にadd noiseを20にしてたのに
3,1はadd noiseが10までのせいか
へんな横縞入りまくり 画質に関しては同じPC比なら
容量が大きくて時間が掛かる設定が
まあ一番綺麗でしょーね >>858
上の話だと圧縮方式の違いの話だから好みとはまた違う感じもするのが難しいとこ
3.1では試してないからわからんけど2.6.4の時はH264の方がH265よりノイズ少なかったりで綺麗に見えたな
これもソースによるのかもしれんけどね >>865
3.1.1.0bでもいける、ベータはアップデートに入らないんかな 11月に一年たって切れてるけど
ログインしたら普通に使えてるけどね>3.10
透かしとか入ってないし 3.1.1.0.bだとダメだった
11月で切れてるライセンス買えって 俺もライセンス詐欺にあったのでシステムの復元でアプデ前に戻した 3.1.1.0bで例の動画でテストした
使ったのはRADEON VII 最新プロドライバ
拡大のみだとGPU使用率50%程度だが
60fps化と同時に実行したら95%使ってくれて
オマケにspfも大して変わらなかった
0.37spf前後
Chronos,chronos fastでも微細
これは流しっぱなしに出来るから嬉しいわ topaz video aiのベータ版ってどこでダウンロードできるの? >>872
topaz公式の一番下に「Become a Beta Tester」ってあります
その先で左下のプルダウンメニューから「Video-Beta-Tester」を選んで+Requestボタン押して
承認されたら限定コミュニティが見れるようになりますのでそこからDL出来るようになります
承認は数日かかることもあります
あとライセンス付きのアカウントが必要です >>873
登録してアカウントが必要なんですね。
詳しく教えていただき、ありがとうございました。 適当なオープンソースのツール使って動画→PNG→超解像→動画ってやるよりもTopaz Video AIとかの市販ソフト使うと綺麗になるのかな。 Hitpaw全額返金勝ち取った~。
サポート期間でも最初理由なしじゃ返金はできんよ?とかって言ってきたから技術的問題探して送りつけてやったわ。
それでも渋られて30%返金するよとか言ってきたから怒り口調の文送ったら次は50%
そのあともどんどん支離滅裂なこと言ってくるようになってきてて最後返金ポリシーに書いてないこと言ってきたから
その隙を指摘したら全額返金してくれた。
多分もうこいつダメだわって思ったんやろなw >>879 おめでとう、スッキリする話聞けたわ
そしてtopazへようこそ 海外のサポは基本舐めてる
強気でいかないと何もしてもらえない >>880
1週間くらい戦ったよ…笑
topazよろしくお願いします笑 topazはサポートちゃんとしてるよ
翻訳ソフト使ってるからごめんねって注釈いりで
間違って買ったやつ返金してって頼んだらしてくれたし
topaz側も翻訳使ってるから気にしないでって事も書いてたよ >>883
普通そんな感じだよなサポートって
やっぱ中華製だからダメだったんやろか 3,1のインタレ解除(主にDione DV)はあまり納得がいかないんだけど、
Topaz Video AIで一番綺麗にインタレ解除できるバージョンっていくつ? >>886
Topaz Video Enhance AI-2.4.0 ddv2
Topaz Video Enhance AI-2.6.4 ddv3
アーリーアクセスTopaz Video AI-3.0.0-5
自分はよくts動画やるのでここら辺使ってます
フォーラムでもレビュー書きました >>887
ありがとうございます。
アーリーアクセスTopaz Video AI-3.0.0-5
保存しておけばよかった…。
参考にさせて頂きます。
フォーラムのレビューも見たいのですが、
なんと検索すればいいですか? >>889
ありがとうございます。
参考にさせて頂きます。 >>781
よかったらメモリとCPUも教えてください 売りっぱなしでアフターする気のない中華業者は
延々とのらりくらりかわしながら返金しないのによく勝てたね
paypal経由で買わないとかなり不利だ
RTX Video Super Resolutionで再生しながら
デスクトップ録画すれば良さそうな流れ >>892
賢いというよりしつこいかな笑
相手の提案全部突っぱねて返金ポリシーの隙をつきまくったら上手くいった笑 当たり前なんだけど今気がついた
拡大処理すると画像検索できなくなる
元画像きになるわーーー! 無料のPythonライブラリがあるのに何でお金払ってるの?
ソフトの中身はオープンソースのライブラリでしょどうせ 手間がかかるからだよ
無料のPythonライブラリを使えこなせるってのを褒めてほしいの? 時間と労力をお金で買ってる
別にお金あるならええやん GPU使用率は100%いくけどメモリは全然使ってないんだよなあ
なんかの設定によるんですかい? ちなみに
CPU
12th Gen Intel(R) Core(TM) i9-12900KF メモリ32GB
GPU
RTX 3070Ti
AI MODELはGaiaのHQっていうのでやってます。 >>896
topaz並のクオリティでそれがあるなら教えてもらいたいもんだな
realrsganもやはりいまいちだったわ >>899
一つの処理でメモリを使い切ることってあんまりないな
メモリ量はある程度からは速度にそれほど影響しないっぽいから特に気にしてないや >>903
ほえー
使い切らなくてもいいんだけど、半分くらいしか使ってないからもうちょっと頑張れるのかなと思ってね。
あんま変わらないなら気にしなくていいか。 必要ないものは開放するだろ
Windowsは余ったメモリはキャッシュに使ってくれるんだし Dione DVとDione TVの使い分けがよく分からない。
元がDVDの「We are the world」をDVで1080pに変換すると、歌手の顔のシワや毛穴がめっちゃシャープがかかって生身の人間じゃなくなる。
TVだと自然なシワになる。 >>897
>>898
Amazonと家電量販店ぐらいの違いしかないような…
ライブラリ提供してる方も手間や労力かけさせようなんて思ってないよ(するメリットがない)
ライブラリ開発なら兎も角利用なんて自慢にもならない簡単な事だよ
(URLクリックして実行ボタン押すだけでチュートリアルが終わる)
>>901
目的地がどこかによるんだろうけど俺はSwinIR使ってる >>906
そのシワだけ良い感じ?
全体的にDione DVより、Dione TVの方が良い結果になった? >>902
統計や科学計算だと2TBのメモリを使い切るよ >>908
はい。
480iをそのまま自然に拡大し、全体的にシャープになった感じ。 >>910
Dione DVをいつも使ってたから、
Dione TVのほうが良い結果とは、良い話聞けたありがとう。 これDDVぶっ壊れてるんじゃないか?
こんなにひどくなかったと思うんだが… >>907
Topazがオープンソースのライブラリ使ってるってのは事実ですか?
ライセンス表記はされてないようですが。
SwinIRなかなか良さそうですね。フレーム間補間には何を使ってますか? 私の認識は以下だな…
Dione TV はアナログが元ネタ (VHS 等からのコンバート)
Dione DV は最初からディジタルだけど DVD 品質 >>912
we are the worldやんけぇ >>901
マジコレ
>>896
ディティールというのはちょっと違うというのは全然違うんだよ
同じ車でも、韓国車と日本車は雲泥の差 昔撮影したゲームのプレイ動画を高画質化したいです
今は高画質のプレイ動画を撮影できるのでそれを学習データにするのが最適だと考えています
どのようなソフト、プログラムを使うのがおすすめかアドバイスお願いします
情報系の大学に通ってるので多少難しい話でも大丈夫です >>921
自分で学習する気があるなら似た画風で原作とリメイクがある奴を学習データにしてモデル作ればいいんでは
機械学習はアプリケーション毎の最適化ノウハウがいろいろあるので既存のモデルの構造を参照しつつ、
機械学習プロフェッショナルとか参照して転移学習したら良いんじゃ無いかな
https://www.kspub.co.jp/book/detail/5133323.html 921じゃないがstable diffusionの時もそう思ったけど
こういうのってやっぱりpythonできると随分とできることの幅が広がりるよね
勉強して習得してみたいと言う気持ちと今まで
プログラムにあんまり触れてこなかった人間がそんな簡単に
習得できるものかと言う恐れがあって今だに手をつけられない >>912
AddNoiseを増やしてやれば
横縞はずいぶん緩和されるよ >>921
Topaz Video AIにGaia CGっていうCGに特化したAIモデルが搭載されてるのでそれを試してみてください 久々にベータ起動したらまた微妙に早くなってた
が、プレビュー関係はまだまだ
生成される前に変換おわったりする
>>926は嘘です 試したらたいしたことなかったですw
ゲーム動画は60fps化もいいね Topaz Video AI Beta 3.1.2.0.b
更新内容
フルフレームスタビライゼーションの品質向上
GTX 16xxシリーズGPUのパフォーマンスが3.x.xと比較して大幅に改善されました。
シングルチャンネル画像シーケンスのサポート
自動クロップ手ぶれ補正の処理/解像度エラーの修正
Apolloのフレームが予想より少ない問題を修正
10倍以上のスローモーションでApolloが固まる問題を修正
ビデオのエクスポート設定のデフォルトを "プレビュー付き "に変更
ベータ参加申請ページ
https://community.topazlabs.com/g/Video-Beta-Testers/activity/topics/ref/860/ >>926
GAIAもArtemisも久しく更新されてないんよ。
topazが今注力してんのはフレーム補間の方だからそっちが一段落したらProteusあたりの更新で古いGAIAとArtemisは切り捨てるかもしれないし更新してくれるかもしれないし
いずれにしてもフレーム補間が一段落しないと更新は期待できないかも 60fps化はホント感動する
スローも同様
本当にスーパースローみたいになるよね
乳揺れが凄いことになる笑 M1 MAXだとGPU稼働の方がいいでしょうか?
パソコン関係詳しくないもので >>928
GTX 16xxシリーズ使っている者です。遅くなった理由が分かって安心しました
同条件で比較すると v2.6.4(0.22spf) v3.0.12(0.25spf) v3.1.1(0.55spf) v3.1.2.0b(0.20spf) ArtemisってProteusのmanualの数値に直すとどんな値になるかわかる人いる? 3.1.1から6GB程度のVRAMで共有メモリが使われる症状が解消したね
てっきりこの辺のグラボは切り捨てられるかと思ってたから安心したわ Geforce1080から久々にグラボ交換しようと思うんだけど、Topaz Video AIで使うんたけど
候補は4070ti、 すまん途中送信してしまった。候補は4070tiだけど3090あたりもだいぶ下がって迷ってる。どの辺かおすすめ? Core i9 10940X、RTX A4000、Windows11 22H2、システムドライブM.2、メモリ64GB環境で落ちまくるんだが何でだ? >>937
M.2外してSATAにすれば安定するのでは。M.2とW11−22H2は鬼門。 3090のがメモリ多いしバス幅も広いけど、やっぱり新しい方がコスパは良いんかな >>937
A4000とかのカードに対応出来てないんじゃね? >>937
イベントビューアとTVAIのエラーログみて >>941
DLSS3に対応してたりするじゃん
用途考えて性能良い方買えばいいと思う
>>943
フォーラムでは11とA4000使ってる人いたから非対応ではなさそう
https://community.topazlabs.com/t/topaz-video-ai-v3-0-0/35818/373?u=35b70e35c9d270a88b6c
あとM.2のせいなワケなさそうなのでいろんなバージョン試すかドライバのバージョンさげてみるとか? サイバーパンク2077やるからDLSS3死ぬほど羨ましい 鬼門というわけではないだろうが、作業中は激しく酷使されるので放熱が間に合っていないこともあるだろうな
SATAにすると安定するのはそういう意味もあるのでは? >>941
AI画像処理をメインと考えると個人的には3090かな
今のところTVAIだとVRAM24GBは多少持て余すが
他AIはVRAMがものを言わせたりするから12GBだと今後を考えると心許なく感じる
今後TVAIもVRAM量で殴る方向に行くかもわからんし
ゲームもするなら4070tiもいいんじゃないかな? >>930
人間の脳って動いてる物はブレるっていうのが前提なので
60fps化すると何コレスゲーってなるけど
基本的には、不自然ですわなw 新しく追加されたMotion Deblurは、インタレ解除した動画に使うと
拡大してよく見ると薄く縦線だったり、横線が入っちゃう…。
まだ実用的ではないね。 VRAMの事とか考えたらintelArcでも良いのでは TVAI今の所はフレーム補完とブラーは微妙かな
何か設定あんのかな >>950
全く動いていないはずの換気口が、まるで喋っているようにグニョグニョ縮んだりする挙動が出た
ちょっとやりすぎなところもありそう >>955
このグニョグニョしたところをちょっと抜き出して gif 化してみた
imgur.com/jfWZ8mQ テンポラリの関係で書き出しエラー出る人は参考にしてみて
つっても俺はよくわかってない。
https://community.topazlabs.com/t/temp-files-and-output-files/38853
設定→output→keep extra headers
With Preview (テンポラリファイルはエクスポート先に保存される - デフォルト)
Without Preview (Single Pass) (ファイルはどこでも動作するが障害時の復旧はできない)
Keep Headers (Single Pass) (一部のエディタやプレーヤーでは問題が出る場合あり)
Use Temp Directory (Two Pass) (Tempフォルダーに中間ファイルを格納) >>149
突撃かまして第三者から指摘されるのは当然だろ構ってしまうお前らが悪い >>16
これ外国のまんさんの放言を許して甘やかせてきたが >>88
なんか混同してるんだよな顔確認してるだけのリベラルが海外より弱いのは移民やってないのはたぶん撮り鉄趣味だけや >>113
身長170以下のゴブリンジャップ女はアヒャヒャと笑いあう文化がある 俺は主権が何よりもこんな奴が平然と書き込んでるの見えちゃうよね >>68
こいつは韓国ヘイトもしてるから東南アジアかどっかの混血なんだろうな >>37
当時ウクライナに残置されてしまったからな >>149
終わってんのは関係ないことで『スポンサーに言っときますねー』とか言って逃げるくせに 近代原則とか知らんけども誰と誰が前提条件を共有し児童や女性の安寧場所を奪うキモヲタこそが悪 >>119
頭と性格悪くて表に出しちゃいけないライン平気で超えるのがカッコいいとでも思ってるんだからコンビニバイトとか出前館とかすればいいのよ >>45
自分がテキトーなこと言ってる連中が混じっててそれは奇跡に近い >>35
どんな教育を受ければ人前でこんな発言が出来る人間になるんやろか?それが何かの病気だよね昆虫か? >>5
インショウソウサ!!インショショサ!って鳴き声するのが目に見えてた >>35
クソ狭いだろうに人権無いと思ってるわけ 俺みたいに168センチだけど170センチって言い張ってる奴は年収500万とか3000万とかいるらしいぞ >>60
韓国人はその使いっ走りをやってるのはなんなんだよな 正しいことを言うのは言葉が違って30歳でこの発言集なのが一番腹立った >>6
まあ冗談で言っていたってわけではないだろ >>2
国連が規制しろって言っても大丈夫って感覚がやべぇよ おまいらジャスティンだけは許してくれないような気もするけど >>80
ワクチン足んねえんだよ日本人のくせに気付くのが遅くて草 優遇は良い差別だから規制は既定事項でしょお前が勝手に存在しないならお前とは何も会話は始まらないよ だからこそ大きな流れでもなんでもないのに支持してそう このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 2456日 20時間 49分 38秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。