【超解像】画像拡大ソフト総合スレ5【waifu2x】
レス数が1000を超えています。これ以上書き込みはできません。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。
--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/
・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437
・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/
・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured Q. waifu2xの派生バージョン多いけどどれがオススメ?
A. Windows 64bitかつGPUがnVidia製なら、waifu2x-caffe。それ以外の環境なら、waifu2x-ncnn-vulkan(コマンドラインの操作が苦手な人はWaifu2x-Extension-GUI)を試すと良い。
・歴代スレ
waifu2x [転載禁止]・2ch.net
http://anago.2ch.net/test/read.cgi/software/1433637613/
【超解像】画像拡大ソフト総合スレ1【waifu2x】 [転載禁止]・2ch.net
http://potato.2ch.net/test/read.cgi/software/1447218757/
【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
http://egg.2ch.net/test/read.cgi/software/1462847285/
【超解像】画像拡大ソフト総合スレ2【waifu2x】 [無断転載禁止]©2ch.net
http://egg.5ch.net/test/read.cgi/software/1462848853/
【超解像】画像拡大ソフト総合スレ4【waifu2x】
http://egg.5ch.net/test/read.cgi/software/1539677484/ てか最近変換したらjpegになったりpngになったりバラバラなんだがどうなってんの?
http://waifu2x.udp.jp/index.ja.html 前スレ>>998
998 名前:名無しさん@お腹いっぱい。 (ワッチョイ 4138-n1qw)[sage] 投稿日:2020/07/25(土) 00:13:35.44 ID:YDmYrtVw0
>>997
realsr>srmd>waifu
srmdって倍率上手く設定できないんだけど使い方にコツでもあるのかな? DainAppの事もここに書き込んでいいんですかね? 多分srmdの問題というよりWaifu2x-Extension-GUIの実装の問題だろうね
srmdはscaleオプションが2、3、4の3種類あるから目当ての拡大倍率するための組み合わせがややこしくなる 997 名前:名無しさん@お腹いっぱい。 (ワッチョイ 1302-8Xcr) :2020/07/24(金) 21:49:54.94 ID:az/GEmcQ0
>>996
自分が今まで試した感じでは手軽にフリーで使えて捏造無しならRealSRが実写向けで一番だと思うよ。
できた映像にシャープかけたらブロック目立つからブロックノイズの除去は上手くできてないような気がする。
先にブロック軽減機能があるソフトでエンコードして超解像してシャープかけたらいいかも?
でも最初の低解像度画像にブロック軽減をかけると上手く拡大できないかもしれないし、なかなか万能というわけにはいかないようだね。
私的ランキングは
1番がRealSR
2番手にSR100×100
3番目がwaifu2x
998 名前:名無しさん@お腹いっぱい。 (ワッチョイ 4138-n1qw) [sage] :2020/07/25(土) 00:13:35.44 ID:YDmYrtVw0
>>997
realsr>srmd>waifu>LUCIFER Alexkral/AviSynthAiUpscale: An AviSynth+ implementation of some Super-Resolution Convolutional Neural Networks.
https://github.com/Alexkral/AviSynthAiUpscale
https://i.imgur.com/7sMi7eW.png
PSNRやSSIMはwaifu2xのUpPhotoモデルより高いみたい
https://forum.doom9.org/showthread.php?p=1919165#post1919165 2400Gで1280x720の動画を2.3fpsくらいで処理出来たからwaifuよりずっと速いはず >>9
人の顔とか肌はSR100が良くてそれ以外だとRealSRやwaifu2xがいいみたいだね。 avisynth+ってCUDAとか使えたっけNEOとかは使ってないからよく分からない >>16
そのうちExtension-GUIに含まれそうな雰囲気 変換中の残り時間が減ったと思えばカウントすぐ増えての繰り返しにヤキモキ… >>11
早いし綺麗だけどどうやら1コアしか使えないぽい、GPU使わないのが気になるなぁ
waifu2xのcunetの1000倍は処理的に軽そうだからGPGPUなりCUDA対応したらリアルタイム高画質再生余裕で出来そうだし、完全にゲームチェンジャーになると思う。 ん?GPU使ってない?
こっちはタスクマネージャーで使用率100%になるけど AviSynthは色々古いからVapourSynthの方に移植してほしいなぁ >>26
あっそうなんだありがとう。ファンも鳴らないしGPUZで適当に確認しただけだから全然違う所見てたみたい… AiUpscale
AviSynth+ 3.6.1 (r3300, 3.6 x64) で一応 動いた。
SetFilterMTMode("Shader.dll", ???????? )の mt-modeは ?
1 or 2 or 3
どれなんでしょう ? なんかもういろいろ派生が出ててよくわからんな
一番処理が早いのはcaffe? 対応GPUの広さも重要だと思う
使える人が多ければより知見を深められるし共有しやすくなる
現状AMD/Intel/NVIDIA GPUに対応してるのがwaifu2x-ncnn-vulkanくらいしかないが AnimeGAN.js: Photo Animation for Everyone
https://animegan.js.org/ 早さならFP16でやってるvulkanが最速だろうね
品質はcaffe >>37
動画なら今流行りのavisynthAiUpscaleでいいじゃん
若干ノイジーだけど、自分の環境だとvulkanなcunetより10倍程度早いと思う ・NVIDIAが8月31日にコンシューマ向け新GPUを発表か?
https://pc.watch.impress.co.jp/docs/news/1270392.html
「各誌の憶測どおりであれば、今回NVIDIAは当時としては先進的だったGeForce 256を引用しており、よほどの自信を持って新GPUを発表するということになるだろう。
GeForce RTX 20シリーズの登場からおよそ2年が経過しているということも含め、NVIDIAからの続報に期待したい。」
見せてもらおうか、新GPUの進化とやらを SPECTRA 7400 DDRなつかしすぎわろた >>48
AIに抜かれるっていいたいの?
茨城とかそういう地方の方言を使うと標準語とは真逆に感じるからやめなよ。
関西弁だってそういう紛らわしい言葉使いは無いよ。
例えば・・
・抜く 〜が相手を抜く。
・抜かれる 〜が相手に抜かれる。
・抜かせる 意図的に相手に追い抜いて貰う事。
地方によって教科書の文法が違う訳じゃないだろ?
だからそういう関東の外れの方言を標準語と思って使ってると恥ずかしいよ。 可能と受け身と尊敬は文脈で判断しなきゃいけない日本語は欠陥言語かもしれませんね
追い抜くという意味の「抜かす」は標準語かもしれませんよ
AIなら判断できるんでしょうか
とりあえずこんなスレ違いのことを抜かす私のレスは抜かしておいてください >>50
そういう訳にはいかん。
ド田舎の訳わからん方言の何が標準語なものかね。
ド田舎弁擁護してんじゃないよ。 >>48
おい貶されてるぞ
俺も化かされるとこだったわ >>42
とりあえず、aviutlで最終開く感じで。
avisynthを導入する(AviSynthPlus_3.6.1_20200619.exeとかをインストール)
https://github.com/AviSynth/AviSynthPlus/releases
AviSynthShader(AviSynthShader-1.6.6.zipをダウンロード)
https://github.com/mysteryx93/AviSynthShader/releases
解凍して
C:\Program Files (x86)\AviSynth+\plugins64+
の中にShader.avsiとShader-x64.dllをコピー
C:\Program Files (x86)\AviSynth+\plugins+
の中にShader.avsiとShader.dllをコピー
AviSynth AiUpscale(Avisynth.AiUpscale.v1.0.1.zipをダウンロードして解凍)
https://github.com/Alexkral/AviSynthAiUpscale/releases/tag/v1.0.1
AiUpscale.avsiとShadersフォルダを以下にそれぞれコピー
C:\Program Files (x86)\AviSynth+\plugins64+
C:\Program Files (x86)\AviSynth+\plugins+
L-Smash(L-SMASH-Works_20200728.7zをダウンロードして解凍)
https://github.com/HolyWu/L-SMASH-Works/releases/
LSMASHSource.dllをC:\Program Files (x86)\AviSynth+\の各フォルダの中に名前を合わせて入れる。
メモ帳を開いてスクリプトを書いて拡張子.avsで保存
例えば2倍拡大最低限の処理だとこの2行だけ書いて保存すればいい。オプションなんかは適宜変更で
LSMASHVideoSource("開きたい動画のフルパス")
AiUpscale(2,"FAST","Lanczos", "",0,0,0,"Illustration","MPEG2")
出来たファイルをaviutlならl-smashフィルタ一番上にしてれば開ける。
他の編集ソフトはよくわからない。mpc-hcなんかだと直接動画として開けるけど多分等速は無理 ああすまん普通の動画なら動画と音声いるな スクリプトは下みたいな感じで
FilePath="ファイル名フルパスで"
A=LSMASHAudioSource (FilePath)
V=LSMASHVideoSource(FilePath)
V2=AiUpscale(V,2,"FAST","Lanczos", "",0,0,0,"Illustration","MPEG2")
AudioDub(V2,A)
あと連番画像から動画作るならImageSourceというのもある LSMASHVideoSourceよりLWLibavVideoSourceのほうがよくない?
mp4しか読み込めんでしょ? >>53
詳しい説明有難う。
自分としてはかなり頑張って環境設定したけど、Win7だからかLSMASHのバージョンも上限があって、
Win7でも入るやつを入れてやってみたけどAiUpscaleが見当たらないというようなエラーが出るよ。
LSMASHの優先順位は一番上にしてる。
何となくバージョンが噛み合ってないのかなぁ?とも思うけど、なにせAviUtlもAvitynthも難解というか自分にとって敷居が高過ぎるみたい。
動画の切り貼りとかできる環境にはなってんだけどね。 >>54、55
56だけど、長時間四苦八苦してる間にレスされてたよw
今からもうひと踏ん張りしてみる >>54
そのスクリプトで試してみたけど、難解なexpected a,orとかいうエラーが出た。 >>55
AviUtlの設定の中にL-SMASHに対して設定項目があるから一応両方というか両端にはチェックが入ってたよ。
読み込みで使う優先順位のような?ものかな?
つーか、なんで皆この難解なソフトの使い方わかるの?
俺つぎはぎビデオ作るのが精いっぱいだよw >>56
自分も現在win7 64bitで、こちらのバージョンのavisynth+aviutlのver1以上を使用しているのでそこは問題無いと思います(ryzen2に無理矢理入れてるから環境的には特殊だけど)
aiupscaleの直前までは正常にいけてるみたいなので、おそらくフィルタを置いている場所に問題がある可能性がある。
例えば+付きに置いてるものをそうではない方へコピーしてみるなどで出来ませんか?
あとやってないだろうけど最終出力が8Kを超えるとエラー返して来るみたい。
出来ないならちょっと分からない申し訳ない。 >>60
今やってみたけど今度はフィルタが登録されてないかなんたらかんたら〜というエラーが出て拡張子lwiのファイルが出来たよ。
ちと自分にはスキルが足りないみたい。 realsr-ncnn-vulkan
srmd-ncnn-vulkan
version 20200818 ふと疑問なんですけど、nvidiaのtensor coreが存在するグラボを使用した際にwaifu2x caffeでcuDnnを使用した場合やwaifu2x-ncnn-vulkanを使用した場合に、tensor coreの無いグラボを使用した場合に対して劇的な速度向上はありますか?
3000シリーズ買う免罪符がほすぃ 現状では無いんじゃないの?
ソフト側がtensor-coreにしっかり対応するのを待つ以外になさそう。 >>66
ありがとうございます。対応してくれたらうれしいなー 言葉狩り対象になってるん?
差別用語のニュアンスがあるようには思えないけど >>69
1500年代に批判されたやつだから……タイムトラベラーかな? つまり新訳知らないおっさん乙ってか
語源の正否や正しい訳はともかく
慣用句としての「免罪符」はまんま「罪のゆるし」として使われているわけだから
「贖宥状」に置き換えたら意味が通らなくなるね GeForce RTX 3090で、さらにパワーアップするのかね? >CUDA試験のデータを収集した。
>RTX 3080は、RTX 2080 SUPER性能の平均168%、およびRTX 2080 Tiの138~141%の性能を有する。
http://www.jisaka.com/archives/35969570.html
3090なら2080Tiの倍ぐらい速そう。
まぁ画像処理のために3000シリーズ買う人は少ないだろうけどw >>75
動画編集とか3DCGの為に買う人はそれなりに居るんじゃないの?
今時のソフトはGPUをしっかり使うから重宝すると思う。
ちょっと動画編集ソフトと3DCGのソフト使ってみたら意外にも重くて時間がかかるから、それらの分野では
まだまだハードの性能足りてないんだなと思った次第。 waifu2xの為と言う意味だった。
スレ住人の大半は600〜1000番台に思えたので。 3090とか他の全パーツの合計価格超えそうなの乗せるのは酔狂だよな waifu2x的には動画のアプコンを考えない限りそんなに大した性能は必要ないし
動画のアプコンをするなら単体GPUの性能は必要なくてコスパのいいGPUを複数個使った方がいい うちはエンスー向け乗り継いでるから3090でもそこまで全体のバランス崩れないかな…
クソ重いソフトを快適に使うにはそれなりに投資がいるもんだし、自作なら前のパーツ売れば市販よりかなり安く換装出来るしね 1.入力と出力が同じ解像度によるものに対する質問
2.このスレでよく語られるcaffe版では単精度、vulkanでは半精度が演算で使われてることに対しての質問
1ならノイズ除去を行うなら当然変化する。ノイズ除去でも内部的に拡大が行われるモデルなら線も変わるかも?
また、ピントを合わせたい、もしくはジャギーや線のガタつきを低減したいのであれば1度適当なソフトなりで縮小して拡大を試すのもありかもしれない。
2なら誤差らしいけどグラボによっては色が変わる報告がある。 >>83
1の方だけど縮小して試してみてる。
絵だと効果はあるけど、昔のボケたように見える映像に効果があるかは1コマだけやってみても今一つ判らないね。 caffeとvulkanはノイズ除去→拡大の順でやってるから等倍ならノイズ除去だけして終わるよ
他のは知らん ・GeForce RTX 3090で夢の8Kゲーミングは実現するのか?HDMI 2.1とDLSSの役目を解説
https://ascii.jp/elem/000/004/026/4026224/
「そこで、8Kのための新しいAIモデルを開発し、WQHDのレンダリングを8K相当の映像に再構成する「9X AIスーパーレゾリューション」を開発して実装している。
ただのアップスケーラーだと9倍拡大でディテールがボケボケになりそうなものだが、AIで処理することで、8Kの解像感に負けないシャープなディテールが得られるというものだ。
これで前述の計算力の問題については回避できる。」
https://ascii.jp/elem/000/003/091/3091072/img.html
一般画像の拡大用途に使えるようにならんのかね? 補足
・NVIDIA DLSS 2.0 Tested! | The Tech Chap
https://www.youtube.com/watch?v=eS1vQ8JtbdM
動画の4:50あたりで従来のDLSS 1.0と新しいDLSS 2.0の比較画像あり
DLSS 2.0はパッと見、よさげにも思われるが、実写に適用するとどうなるか… >>84
>>6に上がってるやつとか>>11の奴の方が実写ならいいかもしれない
2個目はavisynth使える人じゃないと多分導入分かんないだろうけど… >>86
upRGBモデルだと確かそういう処理になってなかったっけ? >>88
ゲーム毎に学習させてるそうだから一般画像ってことだと微妙なんでは >>90
githubの説明見る限りだとモデル関係なくノイズ除去→拡大の順は固定っぽいけどね
変換モードを指定します。指定しなかった場合は`noise_scale`が選択されます。
* noise : ノイズ除去を行います (正確には、ノイズ除去用のモデルを用いて画像変換を行います)
* scale : 拡大を行います (正確には、既存アルゴリズムで拡大した後に、拡大画像補完用のモデルを用いて画像変換を行います)
* noise_scale : ノイズ除去と拡大を行います (ノイズ除去を行った後に、引き続き拡大処理を行います)
* auto_scale : 拡大を行います。入力がJPEG画像の場合のみノイズ除去も行います 一度倍にしてから半分に縮小すれば元の画像とは違うだろうから
場合によってはきれいになるかもしれない >>93
2の整数倍で拡大するなら等倍時に元の画像と完全に一致するように拡大されるはず AI系はそんなことなくて少しシャープネス掛けたようなものなるような
縮小時のアルゴリズムにも依りそうではある
それが綺麗になるといえるかはともかく 縮小したら元の画像と同じ見た目になるみたいなのをwaifu2xの技術説明だかで見た気がする >>96
多分このこれの事を言ってるんだと思うけど意味を読み違えてると思う
>waifu2xの人工知能は、次の問に答えます。
> いまから与える画像はある画像を半分に縮小したものである。縮小される前の画像を求めよ。
>画像を拡大するのではなく、縮小される前の状態に戻します。
>縮小されてないオリジナル画像を与えた場合も、やはり縮小される前の画像を答えます。
>その画像は本来存在しないものですが、waifu2xはそれを想像で創ります。 >>97
その文章とは別に縮小したら元の画像と同じになるみたいなの書いてあったと思うよ
「拡大時の画像はAIが創造で補ったものだから細かい部分は一見変な見た目で補完される場合もあるけど縮小したら元の画像と同じ見た目になるよ」みたいな感じの文章 そういうのはきちんと該当箇所を示してほしい
多分こっちのことだと思うけど、やっぱり意味を取り違えてるんじゃないかな
> より悪い例としてマンガのスクリーントーンがあります。
> waifu2xは、マンガのスクリーントーンを謎めいた模様に変換することがあります。
> ただその謎めいた模様を半分に縮小すると、不思議なことに元のスクリーントーンに戻ります。
これは拡大時の補完が無茶苦茶にしてるわけではないという説明のため
縮小で元のトーンぽくなると言ってるだけで、完全に同一であることを保証する意図ではないと思うよ
その説明に使われている画像で、逆にはっきり変質してることがわかるくらいだから
ttps://dotup.org/uploda/dotup.org2254372.png 随分過疎ってるな、まぁ今発展それほどない技術だから仕方ないか
動画用のDandere2x使ってみたけどwaifu2x-caffeだと普通に使った方がバッチサイズ指定出来て軽いし
valcanは2倍しかできなくて妙に画質悪いしで微妙だったわ avisynth使える前提だけどavisynthAiUpscale使えば? waifu2x-caffeを1650SUPERで使っていて
ノイズ除去(自動判別)と拡大をCUnetで実行すると分割数16でもメモリ不足で落ちたので
JPEGだけノイズ除去処理してから拡大処理をまた流そうと思うのですが
一発で処理した画像とは内部処理的に結果変わってきますかね?
やっぱ劣化しちゃうかな >>105
caffeの1個前のバージョン使えばCUnetでも落ちないと思うよ
cudnnは互換性ないと思うから別にDL必要だけど これの試用してるけど、なかなかいい感じに高解像にできる
他にも試した人いないかな?
ttps://www.sourcenext.com/product/corel/paintshop_pro/ >>106
ちょっと前に使ってたやつが2個前だったので試してみたところ
メモリ使用量大分抑えて変換完了できましたありがとう >>107
https://dat.2chan.net/44/src/1599913909118.jpg
拡大するだけの為に結構な額の有料ソフトはなぁ・・・
これをさ、そのソフトで8倍にしてUPってみて。 >>107
これAIの機能使うためにはインターネットに接続してないとかじゃないの?
サービス終わった時のこと考えると買うのためらうんだが。 >>111
>ネットワークなしでも使えました
そうなんだ。でもこの程度ならrealsr-ncnn-vulkanのほうがキレイだな 軽減2の写真貼り間違ってるのもそうだけどノイズ軽減なしと軽減1の違いが全然わからんな
値段もたいして変わらんしGigapixel AI辺りの方が良い気がする 多分普段貼られるような2次絵の方が特にある程度年齢のいった一般層には痛々しいなり負の感情想起させるから、そういうのは思っても言わない方が楽に生きられるゾ
スレとしてはソースとして評価出来ればなんでもいいし、寧ろ実際に使用される用途に近くて望ましいと言えるよ 元々高画質なものをさらに綺麗にするにはtopaz labが作ってるような有料ソフト使わないときついな >>116
人受けする画像じゃなくて綺麗に拡大するのが難しい画像を選んだんだよ。 確かに、様々な大きさの文字、人体、毛、多様yな模様・質感の布地と
かなり評価に適しているかもしれないね あの評価画像のLenaだってプレイボーイのヌードグラビアなんだからへーきへーき >>121
あの画像ってもう使わないようにしようっていう方向になってるけどね >>122
なにか問題なの? lenaとかよう知らんけど昔のモデルの話を持ち出す理由が解からないんだけども。 >>124
あれ顔しか写ってないけど一応ヌード写真だから
そんなのを標準画像として使用するのはテクノロジー業界にいかに女性が少ないかを物語っているとかなんとか >>124
写真のモデルが>>125のような主張をして、自分の写真をインターネットから使わないように署名運動を始めたとか lenaの写真は古すぎてディスプレイとか印刷のサンプルとして優れてるわけでもない気がする。 >>125、126
そうだったんだね・・w
でも使わないようにする為の理由がなんか変だと感じるかな。
なんで109の画像からそういう話になったんだろう?と思ったらあれってもしかしてAVの表紙?かな?
ふたばで丁度よさそうなの見つけて1例としてみたんだけど、なんかコスプレした女がポーズとってるだけにしか見えなかったよw
良くみたら刃の字が違ってるし・・こりゃ何なんだw >>130
全然知らなかったよw
lenaについてググったのは初めてだし、109の事については鬼の刃でググったらアニメが出てきたから
やっぱりコスプレだったね。 なんか人気のヤツのパロディAVパッケ貼られて高画質化されたあげく多少スレが荒れるとか意味不明な顛末過ぎて草生えるからやめて差し上げろ >>114が今のところ一番よさそうですね
比較についてですが、こんな手順がよいのではと思います。
1.高画質の画像を用意する
2.これを1/8に縮小する
3.拡大ソフトで8倍に戻す
元画像とソフトで8倍に戻した画像の差異が少ないものが、より有能なソフトってことになりますよね?
いかがでしょうか。 比較用画像ならば、初期のwaifu2xの画像品評によく用いていた東京スカイツリーの下部と街並みが写った、例の写真でもいいんじゃないの?
最近、ソフトウェアごとの比較やってないし、見比べできるといいかもね わざと解像度落として使えばフォトショお化粧必要無くなるぐらい凄いな 別ソフトのを自分で重ねて一部消したりすればいいのでは
面倒だけど >>139
これ凄い。個人的にはベストかも
鬼詰はAMAZONの画像が今のところ高画質ですかね。目の色がなんか変ですけど
ttps://i.imgur.com/b0XuaK3.jpg >>145
これ凄いね
まるで高画質版の画像探してきたみたい >>147
いくらなんでも凄すぎでしょー!
何使ったの? >>148
realsr-ncnn-vulkanで2倍にしてから
gigapixelで縦4840ピクセルに指定 realsr-ncnn-vulkanは4倍拡大がデフォルトなので1/2に縮小してるわけだからちょっと損してるな。 ターゲットサイズの2倍に拡大→ デノイズ→ ターゲットサイズに縮小 どうしても右下の女性の額に貼り付いた髪の毛とか不自然になっちゃう。布の模様のような。 >>149
トライアルやってみようと思ってダウンロードしてみたけど利用規約に試用期間の後金を払う必要があると書いてあるから
試した後は金を払わなければならないというふうに解釈できる。
素晴らしそうだけど99ドルは高い・・インストールをためらってしもうた。 >>154
AIのデータベースっぽいやつのアップデートは頻繁なので買ってよかったと思う。 >>147
マーベラス!!
realsr-ncnn-vulkanってGUIで簡単に使えるの? >>156
Waifu2x-Extension-GUIてのがある gigapixelってcunetモデルだとかresalsrと比べて速度はどうなの?
あとフォルダに対してバッチ処理とかは出来るの? テスト用テンプレ画像と化してて草
粗いものを綺麗にするのが目的だからある意味適した画像なのか >>158
waifu2xやsrmdに比べると遅いが
realsrに比べると速くてファイルは複数登録できる。
フォルダごとはできないかな。
また、人間の顔を認識してハッキリクッキリとかはできる。 >>160
cunetよりおそいのかぁありがとうございます。
10万枚とか100万枚単位考えていたので難しそうですね >>162
動画に使う目的でGTX1080で実時間の50倍以上かかってるからこれ以上はむりなのぉ… >>163
GTX3090ってのが発売されてるみたいだよ。
CUDAコア数がGTX1080のおよそ4倍の10496だって。
数とは別に性能向上もあるだろうから、4倍×1.4倍で5.6倍。
50倍の時間÷5.6倍=およそ8.9倍の時間。
実時間の50倍で我慢できるなら8.9倍なんて楽勝でしょ? GTXじゃなくてRTXだし半角全角交じりでちょっとアレな人かな そうそう、アレな人かもね。
読み間違えて思い込んでたよ。
GTX3090でググっても出てくるから余計に思い込み激しくなってたわ。 Video Enhance AIは専ら使ってるがGigapixel AIの静止画を動画にしてやってる人いるのか
俺も数年前やったことあるけど重すぎるだろうに Gigapixel AI for Videoというものがある
同社の出してるVideo Enhance AIと比較してる人いないので
ヘヴィユーザーならぜひ試して欲しい 統一しろっていうか全角厨という言葉が昔からあってな 全角英数字と半角カナを避けない人はリテラシー無さそうだしあまりお付き合いしたくない。
実際関わってみるととんでもないこといわれる事が多い… 半角カナは2ちゃん文化で定着した使い方があってだな ネタや意味があって半角なら分かるが、相手に読ませなきゃいけない文書で全半角が混ざるのはアプリやシステムをイジる者の一員としてちょっとなぁ
読ませたいんじゃなく自分が喋りたいだけなんだろうなって… 出版界隈だと1桁数字は全角2桁以上は半角ってルールがあったりする なるほど公序良俗に反するローカルルールを捨てられない業界がオワコン化してるわけだ 重要な書類なら完全な統一が必要なんだろうが書いては流れていく掲示板でしょうもない事に拘る奴いるんだね。
絡んできて喰いついて放さない問題児w
お付き合いしたくないとか言って自分から絡んできてるのはお付き合いのうちに入らないのかねぇ? 半角がどうこう言い始めた時点でただ絡みたいだけのボンクラなんだよw 文字で思ったが潰れ気味の低解像度の文字を
拡大して復元する技術が待たれる waifu2xは文字のデータも数%持ってた筈だし結構綺麗になるぞ
しかし、文字を綺麗にするならフォントを特定して再配置するってのが最適解な気がする…
例えばスマホなら無料で使えるAdobe Captureで数文字の文字の含まれる画像より使用可能な中での似たフォントの検索が出来たし出版社レベルなら既に持ってるかもね? Anime4K本家はv3で大分画質改善したっぽいけど
Anime4KCPP見に行ったらv0.9ベースっぽいこと書いてある
v3ベースで動画変換できそうな奴はまだリリースされてない感じ? RTX3090買って試してみたが
DAIN-APPもTopaz Video Enhance AIも動かん。
Topazは問い合わせたら、Few Daysで対応するとのこと。 Topasの30x0対応、未だにこねーわ。
再度問い合わせしたら、α版紹介されたけど、そっちも動かないし。 あっちの書き込みを見るに30x0は
昔のライブラリへの対応をかなりバッサリ切り捨てている模様。
時間がかかるのかもしれん。 >>191
ハ?マジか?dainのために3070or3080の2枚か3090一枚か?
GPU馬力なら3070/3080の2枚が鉄板、ラムサイズと速度なら3090
メモリと馬力どちらの影響がでかいか?
こんなこと真面目に考えてたんだけどな RTX30xxでwaifu2x caffeが動くのか教えて下さい!! 確かまだ動かない
対応したってアナウンスは無かったはず RTX3090と直接関係ないけど、調べたら仮に3090が対応しても、馬力不足の模様
海外フォーラムだと1080ti×1枚で50時間かかる動画があったら
TESRAV100×8枚の4万SP環境×128GBRAM環境のレンタ鯖でやっと5時間
こんな書き方されてるわ。3090×4枚で馬力だけなら互角だな
1080tiや2070sにたいして3090×1枚で2-3倍の速度あればいい方か?そんなもんだろ? そういえば、Anime4KのUL設定ってどのくらいのシステムなら使えるんだろう
mpv+Anime4KでMからLに上げたら随分変った経験があるから、3080の驚異のパワーならULもイケるな!って試したんだけど...
まともに動かなくてしょんぼりなんだよね
まさか3080様が負けるとは思わなかった
あるいは性能ではなくて対応の問題なんだろうか 最適化されたところで動画のアプコンだけが目的ならコスパのいいGPUをたくさん使った方が速い
これはRTX30xxに限らない話 PCに入ってるのが2016年8月のwaifu2x-caffeなんだけど最新版に替えると結構変わるもんですかね?
(4年も使ってなかったのか・・・) リアルタイムでウィンドウの超解像ができるソフトってないのかなあ
古いゲームなどを拡大したいが、自分でプレイするより
プレイ動画をmadVRのNGUで拡大するほうが綺麗なのがなんとも悲しい >>207
TV使えば?
ディスプレイのアプコンよりはきれいだろう >207
nvidiaのImage Sharpeningはエロゲとかの2D画面にも効くよ
そこまで強力ではないけど試してみるのが良いんじゃね ありがとう、自分の用途にはあまり効果なさそうだけど有用そうなときに使わせてもらうね
NGUほどとは行かなくともNNEDI3とかで任意のウィンドウを拡大出来るソフトとかあればなあ
良くてバイキュービックやランツォシュくらいのものしか見つからない reshadeはポストプロセスなので原理的に拡大はできないんですよね
内部的に縮小してから4xBRZあたりで拡大し直すようなシェーダもあり場合によっては使えるのですが
使い方が限られるのと、ニューラルネットワーク系にはだいぶ劣るので探している次第です テクスチャを高解像度化するMODとか使うくらいだな。 Topaz lab のユーティリティーバンドルセット買っちゃったけど、
アプリごとの UI がいまいち統一されてなくてとまどう 30x0はアメリカでも入手困難なせいなのか
ソフトが対応して無くてもあまり騒ぎにはなっていない様子。 わざわざ日本のアマゾンから買うくらいだからな
日本はASK税で他国に比べて高額なので余ってるというw TOPAZのために3000買うなら無難に3090買うか情報出揃うまで待つのが吉だぞ
いままでのカードだとSD→HDでGTX1080/RTX2070sが1フレーム0.4秒(1分動画に10分)、HD→8kに4秒にたいして
RTX2080tiでやっと1フレーム×1.5倍の2.4秒(1分動画に6分)で処理できる
すると理論的な処理速度は3090でやっと1フレーム1-1.8秒(1分動画に2分)の処理速度が妥当か?
RAMが少なかったり、GPU数の伸びが微妙な3070/3080の改善値はどのくらいかわからない
情報揃うまで待ったほうがいいコースだろう
3090がSD→HDで1分が2分なら時速30分の30分動画で1時間
HD→4kが1分が20分くらいの処理速度なら、時速3分の30分動画に10時間
これくらい速度あれば使えるけどな 1フレーム1秒なら60fpsとして1分動画に60分かかるんじゃないの? Dain齧ってると意味は分かるがなんか面白いな
作業速度と原本と完了時間の、全部の単位が時間だからか waifu2x-caffe1.2.0.4使ってるけど
CUnetモデルで変換しようとするとCPUなら分割サイズ128でも変換できるのにCUDAだと分割サイズ16でも致命的なエラーで落ちるんだけど
caffe1.2.0.4ってCUnetで変換すると落ちるバグって残ってた?
UpResNet10モデルなら分割サイズ256でも変換できたからメモリが不足してるわけじゃないと思うんだけど >>225
1650では落ちて1660なら同じ分割サイズでも落ちないって報告あったから
ドライバなのかハードなのか分からないけどグラボ側の問題かも 1650で落ちるなんて報告あったのか
今使ってるのGTX1650だしドライバ入れ替えてなんとかならないかやってみることにする
情報ありがとう 同じくGTX1650でCUnet使うと落ちるけど普通にVRAM不足では?
タスクマネージャ見ると落ちるとき見事に使い果たしてるし
CPUなら動くけど余裕でメモリ4GB以上消費してる >>228も書いてる通りVRAM不足だったっぽい
CPUで変換してるときはCPUのスペック不足でどっちも遅いとしか思ってなかったけど
CUnetとUpResNet10でここまで負荷が違うとは思ってなかった 1個前までのverのcaffeならCUnetでもメモリそんな使わないぽいよ VRAMがギリギリなのに加えて、変換してた画像が透過PNGだったのが原因っぽい
透過部分を埋めたら1.2.0.4でもなんとか無事に拡大できた
>>230
1.2.0.2はVRAMの消費が少なかったけど1.2.0.3は1.2.0.4とあんまり変わらないように見えた、cuDNNが関係してる? >>231
1個前じゃなかったのね
1.2.0.3からcuDNNが同梱になってそこからCUnetだけやたらメモリ消費量多くなってるから
関係あるかも知れないけどCUnetそのものが変わってるのかも? video enhance aiは海外フォーラムとか覗いてもうちょいスペックや変換する動画の条件ごとの性能比を調べてみると
SD→HD
RX570X(MAC) 1フレーム0.8秒
vega64 1フレーム0.5-0.6秒
GTX1070 1フレーム0.5-0.6秒
GTX1080/1080ti 1フレーム0.4秒
RTX2070s 1フレーム0.3-0.4秒
RTX2080ti 1フレーム0.2-0.27秒、HD→WQHDで0.65秒
くらいのランクわけだった。費用対効果が高いのは2070sと2080tiらしく、この2枚の変換データは充実してる
1080tiが伸びないあたりRAM8GBと11GBの違いはそこまで出ないのか?RTX3070/3080は公式のカミングスーンで続報次第
いまだアプデ更新ないのは、ドライバ仕様云々ではなく、理論性能とストレートな変換では伸びないから
ビッグコア向けのカスタマイズに挑んでるんだと思い込んでる >>200
最新の1.2.0.4で動いたよ。
RTX 3090(EAGLE) HD→4k CUnet
cuDNN 1000ファイル 17:36.999(バッチサイズ 20)
https://i.imgur.com/6tvzvqx.jpg
比較対象
RTX 2080Ti(GAMING Z TRIO)23:21.935(バッチサイズ 12)
https://i.imgur.com/NSYyjl0.jpg あれRTX30XXでwaifu2x caffe実行できるんだ心配して損した? >>236
9月のアプデでCUDA11に対応したから動くっぽい >>237
そうなんだありがとうございます。
これで心おぎなく買える!!(米尼で安くなったらw) Topaz Video Enhance AI
新しいα版がリリースされて30x0シリーズに対応。
VRAMの使用量に制限があるみたい(最大使っても10GBまで)なので
3090だとVRAMだだ余りだけど、動作するのを確認出来た。 >>239
テストリリース来たのか
年明けには正式リリースされるかな Anime4K(本家)の効果を適用した状態でエンコードする方法知ってる人居ない?
個人的に色々試してみたんだけど駄目だったから知ってる人いたら助言が欲しい
Anime4KCPPは追従してるバージョンが古くて微妙画質だったから断念
本家Anime4Kをmpv使ってエンコードする方法は↓のURLの見つけたんだけど
--vf=gpu="w=1280:h=720"のコマンドが動かなくて困ってる
github.com/mpv-player/mpv/issues/7193 Testing FidelityFX Contrast Adaptive Sharpening at the Command Line
https://gpuopen.com/announcing-cascmdline/ >>242
良いかもしれん
高解像度とかには向かないがディテールが戻る。 3000番台対応のEnhance AIのテスト版てフェイスブックでどうこうってやつ?
体験版ユーザーはまだ使えないんだろか・・・ Adobeも周回遅れながら、ようやくAIを活用した領域に本格的に踏み出すのかな?
・Photoshopの新機能「ニューラルフィルター」を支えるNVIDIAのAI技術
https://pc.watch.impress.co.jp/docs/news/1284336.html
超解像もやってくれ
有料ソフトで超解像をやれてないのは痛すぎかと 映像も音楽も大手はなんでこう腰が重いんだろうな。最近やっと出てきたが 商業用は元から大きな解像度のデータ扱うし
無茶な大きさに引き伸ばすっていうことが少ないからだよ 海外フォーラムで3080はenhance ai で2080tiより数倍速いみたいなレスがチラッとある
まだ情報不足 >>250
1080Tiと3090Tiの比較だけど
3〜4倍程度速いな。
ソフト側の対応がこなれてなくてVRAM使い切るようになれば
さらに速くなるかもしれない。 Topazのトライアルって復活させる方法ない?
別のPCでやるしかないのかな
それかwaifu2xで十分? 期限切れになる前に時計をいじくれば無限に使えたよ
バージョンアップしてからはよく分からん
バージョンアップしてからでもなんか使えたけどね >>253
買ったほうが良いよ。アップデートも頻繁だし。
写真だったらrealsr-ncnn-vulkanて選択肢もある。
イラストだったらwaifu2xで十分。 実写を高画質化するには今のところTopazしか選択肢ないからな。
普通に買うのをお薦めする。 Topaz Video enhance AI ってやつですよね
200ドルかあ
高いな
他のGigapixelとかもセットかと思ったら単体でこの値段でしょ アンインストールして最新版ダウンロードしたらトライアル期間リセットされてた
違うメールアドレスならいけるのかも 流石に3090は手を出せないけど3080で数倍早くなるなら2070sからの乗り換え考えたいなぁ
ほんとこのツール有能過ぎて色々超解像したいし Topaz Video Enhance AI
Beta版出てたけど、なんか遅くなってる。
α版の2倍くらい時間がかかる。なんでだ。 Topazの製品はフォーラム確認しておいたほうが良いよ。いろいろヒントあるから。 >>261
遅くなったと思ったら、元の速度に戻ってた。
アルゴリズムをオンラインのものを使うこともできるようになったみたいだが
それが原因なのかね。 reminiみたいに荒い画像を鮮明化するwin10用フリーソフトはありますか?
画像処理ソフトのフィルターとかレタッチ技術を調べたほうがいいんでしょうか? >>264
フリーソフトは無いな。androidをwindowsで動かすソフトでremini使うのが一番じゃね 実写動画系ソフトいろいろ試してきた感想
FHDからの拡大
Topaz video enhance ai
色が変わる ノイズとディテールの区別が付かずあれやすい
アルゴにもよるが絵がかなり変わるためスーパーレゾリューションしてやった感はかなり強い
realsr ncnn vulkan
すごい時間かかるので動画にはTTAは現実的ではない
すごい時間かかる割には特別すごい画質というわけではない
もしかしたらModelがもっと低解像度向けなのかもしれない
とにかく時間がかかる radeon vii tta無しで1フレーム30秒以上かかる 辛い
avisynth aiupscale
フォーラムだとHQ SharpがtopazやNGUより高スコア出してた気がする
リアルタイム処理はキツいがそこまで負荷高くないのでバランスいいかも
プログレッシブ化 プルダウンなどの事前処理はどのソフトでも必要なので、まとめてavisynthでやれるのはかなりよい
色々試した結果
NGUsharpにadd grainに落ち着いたw
再生するだけだからマジで楽だわ モザイク除去はこういうコピペだけで実行できるソフトないの? このスレでTecoGANでないのって何でだろ
知られてないだけ? TecoGanで高解像度とモザイク除去を楽しんでます
もう少しでAMDの新型GPUも発売されそれに合わせてPCを完全に1から作る予定です
コスパを見る限りAMDGPUにしたいところですがTecoGanが上記の昨日に対応してなくて高解像度はtopazでも代用出来るのかなぁと思ってます
モザイク除去についてもtopazで動くなら併せて買いたいんですがどうでしょうか? >>271
javplayerはモザイク範囲自動判定と超解像の組み合わせだから他のソフトよりも進んでる
実用的?だし
javplayerの作者が一時gigapixelと組み合わせられないか模索してたが断念してたはず
専スレあるんだからそっちで聞いた方がいいぞ >>272
おっしゃる通りjavplaye使用中ですが専用スレはどこにあるのでしょうか?誘導いただけると助かります
自分としては特にjavplayerに拘ってるわけではなく今は利用しやすいので使ってますが
AMDのGPUに買い替えた場合CUDAがない為Tecoganが使用できない事により持ち味の半分も活かせない
なのでtopaz等で代用ソフトがないか探していました >>273
AV総合を無碼破解で検索したらほぼ専スレが見つかる
AV板なのにソフト版を軽く凌ぐ検証量と最新情報 >>274
ありがとうございます。AMDにする選択が吹っ切れNvidiaだけしか見ない様にします
>>276
ありがとうございます。今拝見してきたらどうやら本体アップデートがされてないせいで3000シリーズが対応してないみたいですね・・・
3080買うつもりだったので危なかったです。2080tiに仕方なく変更して購入します。
諸費用は大幅に減りましたが悲しい気持ちの方が大きいですね
これからもアップデートないと2080tiを延々と使うしかないので https://github.com/Mar2ck/DAIN-Vulkan-GUI
AI-Powered video interpolater (eg. 30fps -> 60fps) for Vulkan devices. Based on dain-ncnn-vulkan and ffmpeg エロが産業を開拓してきたんだよな
PCもそうだった >>266
SRMD-ncnn-Vulkanも実写向けでしかも軽くね? aiupscaleやっと動いたけどいまいちだった
https://imgur.com/f8e9e821-849b-4320-82ee-34716782bd8a
ちな設定
AiUpscale(clip,2,"HQ Sharp","Lanczos", "",848,1210,0,"Illustration","MPEG2") >>278
3000スレにモザイク破壊のために3090買ったとか言ってた人いたけど、対応してなかったのか…
3000の今の使い道はvideo enhanced aiかwaifu 2xなんかな? topaz video enhance ai のトライアルってrtx 3080に対応してなかったりする? Enhance AIで1日掛かるような動画だと大体クラッシュするな
GTX1080からグラボ更新したいわ Topaz video enhance AI、最終βがリリースされたから
もう少しで製品版に反映されると思う >>285
恐らく3090予約はしたけどまだ届かなかったんだろうな
仮に届いてもショックでもう書き込めないだろう ごめん、よくわからないんだけどwaifu2xやvideo enhanced aiってcuda は使ってると思うんだけどDLSSとかな技術って使ってるの?要は3000シリーズを活かせるのかなと。 >>290
cudnnを適用すればテンサーコアを使うはず。
時間比較して速くなってるかどうかみてみて。 >>290
DLSSはとくに3Dゲーム用でゲーム側が「対応してます」「設定できます」って言ってないなら使わないんじゃね >>293
残念、tensorコア使ってもあんま変わらないのね。
この辺の超解像ソフト使うならどのくらいのgpuがいいのかねー。値段に比例してこういうものの性能上がるのかイマイチわからん。 ヌビは高いし負け組ハードになっていくのが見えてるから
AMD対応も進めてほしい >>294
行列のサイズをテンサーコアに合わせないと駄目かもね。 tensorコア役に立ってないみたいだし、waifuやtopazとか使うために実際2080tiや3080買わなくても1660あたりで十分なんかな? topazはopenvinoてのに対応してるっぽいが topaz video enhance aiの1.7.0来たね
これでRTX3000シリーズも対応したかな?
ようやく3080使える
長かった… >>299
お、3080使った変換速度はどうですか? >>300
3080以外で使ってる2070sと比較
フルHD→4K 200% Gaia-CG
2070s 0.96s/frame
3080 0.60s/frame
約10時間かかった動画が約6時間くらいで終わるから速くなったかな
技術的なことはわからないけどAMD対応で処理方法変わったのかな?
タスクマネージャー見るとCUDAじゃなくてGraphics_1てところが動く様になってるけど 3080の方はPower Limit 76%設定してる Vance AI とかいう無料・有料のネットサービスはどう?
TecoGan とか ESRGAN が内部で動いてる感じ?
自分でローカルでやれば無料だし完全勝利? 画質はかなり良くなるように感じる
けど枚数制限なしで使うには$19.90/月
ソフトをローカルに落として使うにしても一緒
無料だと5枚/月だけど、その枚数じゃあ完全にお試し用だね 3090でTopaz Video Enhance AI 1.7.0使ってみたが
VRAMを全部使い切るわけじゃないみたいだ。
フルHD→4Kで10GBをほんの少し越えるぐらい。 CPU-Zで確認する限り、GPU LOADも高い値で張り付かない。
グラフにするとギザギザ。
GPUの能力まだ使い切ってないような感じがする。 Video Enhance AI 1.6.1→1.7.0に変えてから変換が2倍近く早くなった Video Enhance AI 1.7.0でArtemis HQ v7とGaia HQ v5の違いって何?どういう素材向け? >>308
1.7.0でtensorコアを使うようになったみたいね、その影響かな?RTXシリーズ使ってる? 1.7.0はGaia-CGが以前よりぼやける不具合があるから当面はGaia-HQを使った方が良いかな
>>309
フォーラムの開発者の発言の機械翻訳
Artemis-HQは、「細部のちらつき」がはるかに少ない出力を生成します。
つまり、モーションの一貫性を呼び出します。
Gaia-HQは、より詳細なテクスチャを生成する傾向があります。
ただし、入力ビデオに大きく依存するため、それらを試して、最も効果的なものを選択してください。 スマホでwaifuのお世話になってて、コラージュとか文字入れとかで加工した後の画像だとサイズがでかくてエラーだと言われる。caffeなら制限ないみたいだけどやっぱり品質はこれが一番おすすめ? >>304, >>305
自分は「Lanczos」「waifu2x」「remini」を経て「Vance AI 月2千円課金」したが、
Windows 機は所有してないので、ネット上でしか試してない。
なぜか Vance の2倍4倍拡大までは異次元のキレイさなのに、6倍8倍は waifu2x くらいまで画質ガタ落ちする。
なので 4倍を2回やって16倍拡大してる。ノイズ除去なしだと2回目からノイジーになるが、ノイズ補正するとそれも問題なし。
1回目でノイズ補正するとノッペリするが、それも一長一短ではある。
4倍拡大はホント圧倒的な高画質。
潰れてる部分は remini のように非現実的な補正にならずそのままだし。
facebookに掲載されてあるガラケー画質の400x300ピクセル画像を6400x4800へ拡大して超絶キレイになった。
コンビニのA3プリントで等倍印刷してみたいところ。
Win用のソフトだと40倍拡大までできるらしいが、それがネット上の4倍拡大のクオリティなのか、誰か試してみてレポしてほしい。
俺はネット上の月額1千円2千円課金でも十分価値あると思う。ただ、エロは送信しにくいよなー。 色変わったりするらしいけど絵や実写問わずなんだかんだVideo Enhance AIが一番良いのがな
FHDから8Kやると重すぎるから他の企業も発展させてくれ 「Vance AI」と「Topaz」「ESRGAN」「TecoGan」のどちらが静止画で高画質か試した人おしえて!
これくらい大差がある。
「Vance AI」>>>>>「remini」>=「waifu2x」>>「Lanczos」 「Vance AI」を知ってから、過去に写真を捨ててしまったことを激しく後悔してる。
というか、今後もこの分野は急速に発展しそうな予感。
特に静止画なら処理の重さはまだまだ余裕あるし。
400x300のボヤケた画像を8K画面で等倍表示してもボヤケないレベルが当たり前になりそうだな。
A3をつなぎ合わせるA2やA1やA0印刷も試してみたい。400x300の水着画像を等身大まで拡大できそう。 ちょうど俺が書き込んだ時にステマ長文出たからやってみた
Vance AI 4x
https://i.imgur.com/qcIO2q3.jpg
Topaz Gigapixel AI 4x
https://i.imgur.com/Y0ZM29C.jpg
オリジナル
https://i.imgur.com/CESdaTW.jpg
無料のやつで4xしたけどシャープさで劣ってる気がするな
月額の有料で変わるならやってみて >>317
Topazのほうが良いな。それ無料なの? Topaz ってオンライン有料サービス無いの? Linux だからソフト版は無理だ。 専ブラテストブラウザから書き込んだら規制喰らった
>>318
いや買い切り有料、今だと80ドルくらい
1か月無料のやつあるしやってみては >>320
80ドルで永久ライセンスなら買う。が、Win Mac 持ってない orz Gigapixel AI と Sharpen AI の違いは何? せっかくなので二次元絵、動画切り抜き、FHD→8Kで
Vance AI
i.imgur.com/q0fxnrk.jpg
Topaz Gigapixel AI
i.imgur.com/xjv2y9o.jpg
Video Enhance AI
i.imgur.com/klUHggu.jpg
Waifu2x CUnet
i.imgur.com/PBwkTQY.jpg >>321
あーそうなの、まぁググれば環境linuxでもやってる人いるからなんとかなるんじゃね
それこそトライアル使って試せば こんな感じ?
Video Enhance AI > Vance AI > Waifu2x CUnet >(シャープさで >= か) Topaz Gigapixel AI >>324
パッとググったが英語圏でwine使ったとか redit のでしょ。無理っぽいね。 >>301
と言う事はAMDでも動くってことかな?
再来週発売された後のレポ待ちかなぁ
topaz使えるなら思いきってAMDにしてnvidiaとの差額をソフト代にするのもありか
JAVplayer使いたいけど更新予定無いから
それ専用で2000系GPU用意して完全にエンコ専用機にして
普段使い用と分けた方が捗りそう >>323
Video Enhance AIが一番良く見えるけど、これだけ全体的にちょっと暗くなってるんだね
手前の花の模様はGigapixelとVideo Enhanceが良く見えるけど、これはAIならではの上手な嘘かな?元画像ないので断言できないけど
Video Enhanceは他と比べてちょっとシャープかかってるように見えるから、拡大処理として一番良く見えるのかと思う
Vance AIのソフト版は細かく調整できるようだから試してみようかと思ったけど、
AIモデルのダウンロード何度やっても失敗するからダメだった ESRGANを試したいならKakudaiACというサイトがある
モデルの指定とかはできないけど 検証したバージョンも動画も違うから正確な比較はできないけど
Video Enhance AIでの処理時間が2080Tiから3090に変えてほぼ半分以下になった。
これはでかい。 >>330
1.7.0からtensorコア使うらしいからその影響かと思うんだけど、それ以前のバージョンと比較したらどれくらい早い?
dvd画質からfullhdとか。 video enhanced aiの使用するGPUの指定効いてなくね?
2070s rx570の2枚挿だとメインの2070sにしか負荷がいかないし、rx570を使用するにすると処理速度が半分と遅くなる。同じようなことしてる人いない? KakudaiAC で ESRGAN を試した。
Vance AI よりも非現実的な描写になる分だけキレイに見えなくもないが、当然それではNG。
remini っぽさがある。
トータルでは完全に Vance AI のほうが上。 >>328
>> Video Enhanceは他と比べてちょっとシャープかかってるように見えるから、拡大処理として一番良く見えるのかと思う
そのシャープかかって見えるように狙ってるわけだから。それを実現できてるのだから。 >>331
2080Tiはもう売っちゃって手元にないけど参考までに
うろ覚えだけど
10900Kメモリ16GB
2分弱の720P30FPS動画→4Kが2080Tiで50分くらい(Ver1.5.1だったかな)
3090で20分くらい(Ver1.7.0) 3090でも時間10倍かかるのかぁ
貴重な情報ありがとう
3070だと2080tiより時間かかるだろうしメモリ増強版待ってみるか
く360pや240pの動画からFHD程度ならもっと速いのかな? Video Enhance AI、色が死んでるのもそうだが、それ以前に被写体がズレまくってんじゃんw
アプリごとにいろんな癖があるんだね Video EnhanceAI、俺には色が変わってるとかあんまりよく分からないのはモニターがゴミなせいかもしれないな…
ちなみに上の画像はv1.61、Gaia-CGでやりました
アプデで変わったらいいけどなぁ 色が変わるのって例えばY成分だけvideo enhance aiのものを使って、UV成分はlanczosで拡大した元のものを使うみたいな事を出来るソフトってないの? avisynthとか Gigapixel AIは以前から3080でも動作するんだけどこっちはopenCL?で動作してるんだろか?
Enhance AIより時間かかるし。それはさておきGigaの体験版だけ30日すぎても普通に使えてるんだけど
ドネーションウェアとかじゃないよね・・・? >>337
1.7.0.0ではFull HDから4Kへの変換だとVRAM10GB程度しか使わないから
3080と3090であまり差がない思う。 >>344
video enhanced aiでfullhd ->4kやると結構落ちるんだよね…2070s使ってる。
1.7.0はまだ安定してないとかなんかな、この安定性だと購入しにくいなー。mp4に変換してるけど、落ちたらまた1から変換だし。 万が一落ちてもjpgやpng出力だと一枚一枚連番作ってくれるから落ちても途中からいけるよ
Gaia-CGの画質が落ちるって聞くからアプデしてなかったけど結構不具合多いんだね >>346
その場合ってfffmpeg使って元動画から音声分解してくっつけ直して動画にする、であってます? >>347
そう、合ってる
一々ffmpeg打ち込むのめんどい場合は自分でバッチファイル作れば作業時間もかからないし >>345
1.7.0.0だからというわけでなく、前のバージョンも結構落ちてた。
むしろ1.7.0.0は安定している方だと思う。 >>348
なるほど、ありがとう。やってみます。
>>349
もっと落ちてたのか、、だから初期設定ではjpeg吐くのかな。とりあえずトライアルまで試しまくってから買おうかな。割引いつまでなんだろ。 Topazの紹介ブログに15%引きクーポンコードあるから買うときは忘れるなよ >>352
すごいけど
絵みたいになっちゃってるな 確かにちょっとカンバスに描いた絵みたいな印象は受けるな 毛はいいけど眼球は精緻にならないで荒く見えちゃうんだね
目のフチとかはキレイだからこそ目に写った光のぼやけが気になるのかな Enhance AIって買い切りだよね?
アップデートはずっと無料なん?それともアップデート回数とかあるん? スレにあったグラボ異種2枚挿って、pcieスロットは16形状として、x16とx4とかでも良いの?それともsli対応のレーン分割できるマザーでないとダメ? >>352
背景もちょっとモフモフになってるのが面白い video enhanced ai試してるけど、720pから1080p変換30分の動画が完走しないわ。画像出力にしても強制終了したらやり直しじゃね?続きからとかどうやって指定するの? >>362
連番入れるために指定したフォルダの中がまっさらになるってこと?そういうことならなったことないんで分からん
連番が残ってたらその続きの番号からフレーム指定してやるのよ >>363
あ、確かに…
動画一気に変換したい時とかどれが終わってて終わってないかが結構面倒だが、仕方ないか…
さっきは変換処理時間30分持たず落ちたわ、なんでこんなに落ちるんだろ。 一応2070sで設定のvram使用率?は75パーくらいにしてるかな。変換中は5G弱くらい使ってるみたい。 メモリ20GBの3080Ti出たら本気出す気なんだけど
やっぱり超解像系のソフトはメモリ速度もサイズも出力速度に大きく関係するよね? 3090が$1500は切る事はしばらくは無いだろうしその選択肢選ぶなら3070を2枚買ってタスク2つ走らせる…
動画でもffmpegで無劣化結合出来るし 3090持ってるけど
Video Enhance AIがメモリいっぱいまで使ってくれなくて辛い コスパを気にして複数走らせて結合するという手段を取るなら
RTX3070なんか使うよりGTX1660Sを使った方がいい
1/3の値段で1/2の処理能力が得られる >>371
tensorコア使うやつなら費用対効果3070の方が上回ったりするかもね。試してみないとわからんけど… GPU・VRAMだけで回せるならそれこそマイニングマザーに1660Sを刺しまくるって話になるんじゃ
ない? そのランクのグラボが省電力になるのはいつの日か…… 超解像処理自体はほぼGPUとVRAMだけで回るから
マイニングマザーに1660Sを刺しまくるのが最適解だろう
まあ本当に1660Sがコスパ最強かは確認してないけど >>374
省電力で「そこそこ高性能」なGT1030はGTX470と互角程度らしいからそのくらいは掛かるとみていいと思う
省電力特化のGT710は9600GT辺りが相手でも勝負になってないから考えるだけ無駄
ま、爆熱GPUを全力で回す分野で省電力を考えても仕方ないということだな enhance aiはRX6000対応だって、そして期待されたRTX3080は2080ti+130%程度の速度しかなかった
対応したのに3000クソだったから売れそうなRX6000は抑えておこうって腹か 現状enhance aiでRTX3080がたいした速度出てないってことはdainだろうが機械学習全般ゴミってことよ
たいしRX6000は例のキャッシュとか最適化でRTX3000を超える超スピードだせてもおかしくない >>377
そういや前のバージョンからRadeon対応するようになったな。
6800XTと3080の速度比較見てみたいが、誰かやってくれないかね。 dain-APPは現状Geforceしかうごかないんだよな DainとESRGANもncnn-vulkan版が出てるしCUDA無しでも困らないならRadeonでも良いんじゃね >>377
+130%なら十分早いように思うんだけど、どれくらい上がると期待されてたん? >>377
基準がよくわからん。RTXはtensorコア使っているんだろ。
2080Tiでは、1.6.1から1.7.0はどのくらい速くなっているんかな。 >>382
あ、これつかえばいいんだ。
サンキュー 3090でVideo Enhance AI走らせているけど
明らかに1080TIの時より部屋の温度が上がる。
今年は暖房いらないかもしれん。 >>387
おーいいね、1080tiよりどれくらい早いの?
video enhanced ai30分かからずクラッシュしまくるから割とイライラするわ…2070だけど3000シリーズ買ったら解消するんかねー。 >>388
同じバージョン、同じ動画で比較してないから正確ではないが
1/2〜1/3程度に時間が短縮されているように思う。
クラッシュは大分減った。
こっちはバージョンが上がったお陰か、3090にしてVRAMが増えたせいかは分からない。 >>389
ありがとう、早いね。クラッシュ減るなら買い替えたいわ…
cui あるなら落ちてるか監視して落ちたら続きからjpeg吐くスクリプト書こうかな。 >>377
radeonには1.3.8で対応しとったやろ。
最新バージョンでRX6000シリーズに対応しただけやろう。
大丈夫か? ラデは前から対応してたね。とはいえrx580でryzen2700で動かした際の2倍弱しか出ないからなー。rx6000シリーズ期待できるんかね。
誰かrx5000シリーズ持ってたら試してみて欲しいな。
ちなみに手持ちの2070はryzen2700より15倍近い。 Dain-App 0.48
Update to work on the new 30X0 cards.
There is also a fix to remove some black box artifacts. topazって買い切りライセンスだけどアップデートは一年までかよ。video enhanceはまた一年アップデートしたければ199ドル毎年かかるのか。 video enhance aiまだGaia-CG直ってないのか
これだけ飛びぬけて優秀だから早く使いたいところ waifu2x落ちてるね…乗り換えた方がいいのかなあ DAIN-APP 30x0に対応したから
早速3090で使ってみた。
1080TI(VRAM:11GB)だと、FullHDの動画は分割しないとエラーになってたけど
分割無しでOK。
約3秒/フレームでいけるな。
1080Tiだと、たしか20秒/フレームくらいだった記憶がある。 おお、3秒毎か、実用的だなぁ
まあ3090じゃないとダメってことならフレーム補間はDaVinci Resolveのスピードワープで良いかな… RTX3080でDain App試してみたけどFullHDの動画で約2.3秒/フレームだわ
1080から変えたからVideo Enhance AIもDainも爆速になってめっちゃ快適 アップスケーリングとフレーム補間はどちらを先にしたほうがいいのかな 30コマをアップスケールするのと
60コマをアップスケールするのとでは
二倍処理が重くなるんじゃね。 補完してからアップスケーリングすると補完で発生した中間のフレームの画像にもアプスケ時のフィルターがかかる。
本来存在しない不確定な絵柄に、アプスケ時にキレイにするフィルターかけたら薄い線は消えたり、逆に変な線が発生したりするんじゃないかな Dain-AppとVideo Enhance AIだけど先に補間して後からアップスケーリングしたほうが綺麗な気がする フレーム補間は解像度低い方が綺麗に補間されるから俺は60fpsにしてから超解像してる
もちろんその分時間かかるけど仕方ない DAIN-APP→VideoEnhanceAI
という流れの方が計算時間が短くなるので
俺はその順番だな。 ryzen3600/GTX1060-3G/メモリ32GBでGigapixel AI使ってみたけど、写真1枚を高画質化するにも15秒位かかるのに動画はもっとやばそうだ
このスレの人達はどんなpc使ってるの? ちょっと前はwaifu2xの話題ばかりだったのに最近はお高いソフトの話題ばかりやね。
そろそろ個人でどうこうする時期も終わりかけて成熟期になりつつあるという事なんかな
RTX3080 IYHしたからどれだけ快適に使えるか楽しみw waifu2xはノイズなくして線ものっぺりさせてシャープに見せかけるだけだからなぁ…
絵には合うけど限度があるし 1650買ったらwaifu2x caffeのcunetが4k相当出力だと落ちて悲しい。
2070なら落ちないんだが…二つ前のバージョンにしてもダメだった。 >>413
減らした、1にしたけどダメだったわ…
分割2、バッチ1でやっと回るけど超遅い。1080p相当で出力なら分割128、バッチ2でもギリ回ります。出力サイズってそんなにメモリ食うんかなー。 VRAM4GBでcunetは基本的に無理だと思ったほうがいい
4GBが少ないというよりcunetの食い方が異常 >>415
そっかー、1660にしとけばよかったかな。
2070sでもギリだったし10GBはいるんかね。 PULSE使ってモザイク外そうとしたら人の顔になって吹いた
https://imgur.com/ERJPis9 パラメータ間違えたモンタージュ写真みたいな顔www >>407
1060の速度を100%とすると
1660tiで200%
1080で250%
2080tiで400%
3080で700%
これくらいの速度を得られるとされる。但しそれでも遅いので、現状では中古の1080とか1660用意して、専用の変換PC作って投げるのが合理的か?
そんな印象だな
現状ではSD→HDの動画変換程度なら1分→10分の1時間で10時間
1日1時間投げれば月30時間変換できる
HD→4kならば1時間→72時間、3080で25時間くらいで論理的に厳しい
そういう面では3080用意しても丸投げ状態になってしまう
だから複数の1660tiPC(中古部材流用して激安で6万で組もう)をつかって投げろとかいう話になる 電気代とかどうなんだろ、あんまりかからないなら俺も中古で専用PC作ってみたいな 電気代を気にしたら負け
必要な設備もやってることもGPUマイニングと大差ない 手軽なレンタルなりクラウドなりないのかと探してみたらあったわ
ttps://www.leadergpu.com/
2080Tiを8台載せたマシンが週貸しで570ユーロ、分単位でも借りられる
ライセンスは必要だがWin10も乗るっぽい >>424
今3080 10万前後で手に入るようになってきてるから5台買って8週間程度回せばすぐ元取れるな!!(錯乱) >>425
・3080は単体で回らない
・8週間も連続で回す素材ある?
実消費電力2000W想定
・家の電気周りの強化が必要
・冬でも冷房が必要なレベルの排熱
・8週間の想定電気代7万円
最終的に全部売り払う想定だとしても8週間で元取れるかな… 3080をボトルネックせずに回せるCPUも必要と考えたらえぐいな 超解像処理はほぼ完全にGPU依存だからCPUに大した能力要らないよ
例に挙げたマシンも16コアしか乗ってないし個人的にはそれも過剰だと思うけど
でも家でやるなら足回りを考えるとPC3台に分けないと厳しい MacのM1チップに最適化したソフトは出てこないものか RX6800XTでどれだけ速くなるか知りたいけど
高画質化が目的で6800XT買う博打打ちもいないだろうな。 まだまだ処理時間が掛かるけど、一昔前までスパコンでやってた事がPCでも実用的って凄いよね 6800シリーズ買った人いない?topaz video enhance aiの処理速度聞きたい。 高解像度化が目的でAMDを選択する人はいないわな。
ゲームのついでならあるかもしれんが。 shell-upscaler
https://github.com/n00mkrad/shell-upscaler
Windows utility to upscale files or folders right from the explorer.
Acts as a GUI for esrgan-launcher.
Flowframes
https://nmkd.itch.io/flowframes
Fast Video Interpolation for any GPU Cupscale
https://github.com/n00mkrad/cupscale
Image Upscaling GUI based on ESRGAN - WORK IN PROGRESS FeatureFlow-App
https://nuwboi.itch.io/featureflow-app
This a video interpolation/scaling(WIP) application.
TecoGAN
cudNN DAINは知ってたけど今はCAINとかRIFEとかもあるのか
速度はどんな感じなんだろ dainappに比べるとどれも速度速くて安定してる。 色々情報ありがたい!
助かるし新しいのはワクワクする! Topaz Video Enhance AIのGaia CGのアルゴリズム
いつ直るのかね。
昔のアニメをこれで高画質化すると、かなりセル画っぽくなるんだよな。 全部入り$299とかになってるけどgigapixelとvideo enhanceだけで安く欲しいなぁ
どうせ1年サブスクとかだろうから必要になっても最新のものと比較してもやもやしそうだ ここにいる人たちは1000w電源とか使ってるのかな? おーRIFEいいな、激しい動きでも破綻を抑えてヌルヌルだ
無料でここまでできるなんて良い時代になったものだ RIFEは爆速だけど補間フレームはブラーがかかってるから実写用
アニメ系はいまだDAINだな topaz video enhanceをrtx3080で使ってるけど、cpuをryzen2700から5600xに変えたらhd画質くらいの変換が1.3倍くらいになった。ってかcpuが足引っ張ってたんだね…
マザボもpcie4対応に変えたからあれだけど、シングルスレッドの方が重要なんかねー。 vance aiと dvdfabの写真加工AI って同じですか? Topaz BLACK FRIDAY 68%とクーポン15%で
83%引きだから買ってやったぜ!
davidkelly クーポン15%コード >>457
$299から$45しか引かれなかったんだが >>459
全部入りが通常価格 $939.92 のところ 68%オフ だから 939.92 x 0.32 = $300.7744
$300.7744 が 15% だから 299.99 x 0.85 = $254.9915 だね。確かに $45オフ。
98,073 円 が 26,606 円 だから 71,467 円も割引。 ベンチマークで一番下位のやつだけコア数半分やんかよ
後、載っけるならローエンドのGPU使った比較も欲しかった つか、TDPとかちがうけど、スマホのハイエンドのSoCとどっちがすごいの?
スマホのハイエンドは10TOPSとか宣伝文句が一人歩きしてるが ちょうどsnapdragon 888きた!
https://japanese.engadget.com/qualcomm-155612718.html
Deep Learning性能 26TOPS!!
Intel DL Boostってどれくらいなのよ >>453
アニメ映像って高画質化ならまだしもフレーム補間てする意味あるの?
実写や3Dゲームなら60fpsでさえ省かれてるからするのまだ分かるけど ジブリっぽい高コスト作画に見えるから高級感を感じるんじゃないかw 背景のパンは綺麗だけど速いキャラの動きはどうしても違和感が強くて
AIといえど元絵にある程度の連続性がないとどうにもならないんだなって >>466
製造プロセスはいくつだろう?
TSMCの5nmならAppleM1バリの衝撃を期待してしまうな >>467
24コマの映画を30コマにするときとか
60hzや120hzのモニタで見るときとか 作品鑑賞にとって意味があるかは微妙だね
意図的にコマ数を減らすことで見え方を最適化してるのに、それを変えちゃうわけだから
見え方の変化が大きいから、行為としては面白いのでは
もう何回も見てる作品を見直すときの味付けに使うとかね 元に無い絵を補完するから作った側の動きのタイミングとズレる場合もあるからね
放送録画したのを24pにプルダウンするのはわかるけど 本来の用途はスローモーションじゃないかな、サンプル動画でよく見るし シーンチェンジ判定とかもないし作品向けってより素材向けだよね dain-app 1.0来てるんだね、使ったことないから使ってみようかな。 少し前まで0.4とかだったのに一気に1.0になったのか DAIN-APP 1.0なのにαなんだな。
何故なんだよ。 大幅な変更でメジャーアップデートだけど
まだ不完全かもしれないからαだぞっていうよくあるパターンでは DAIN-APPは0.33あたりからしばらく使ってないけどちょっとは速くなったんかい? 1080p動画で試してみた
3600X+RTX3080 DAIN 0.48 約1.3s/it
5800X+RTX3080 DAIN 1.0 約2.2s/it
遅くなってるぞおい… Flowframesのほうがdainとかcainとかlifeとか選べて良いぞ ここではフレーム補間ネタはスレ違いだが面白いから別スレ立ててくれ 下記が(SVP専用スレなのだが)事実上のフレーム補間総合スレ
SmoothVideo Project (SVP) part4【ワッチョイ無し】 [無断転載禁止]©2ch.net
https://egg.5ch.net/test/read.cgi/software/1490961238/ 再生と同時にフレーム保管すつるやつっすね
動画によっては全く機能しなかったりアホみたいに熱量とファン爆速になるからうるさくて動画に集中出来なくてアンスコしたなぁ… 初めてdainアニメで試したけど流石に破綻やばくね?シーンの切り替わりの破綻が特に。1.0だからとかなんかな、アホみたいに変換時間かかるし、これなら古井戸SVPの方が全然マシだわ。 >>485
Flowframesって、動画からPNGの抽出にやたらと時間かからない?
CPUの使用率がやけに低い。
どこか設定がわるいのか 多分1コマずつffmpegでコマ抽出してるのが原因でしょ
1コマずつPNG抽出するのって結構時間かかるんよ
下手したらBMPで抽出する10倍くらいは長い 動画からフレーム取り出してPNGで保存してんの?
PNG保存は結構な負荷 たいていのPNGのエンコーダーは1スレッドしか使わないからね 無料版のT Enhance aiを使っててよったから、有料版をかって使用したら今までプレビューが普通に見れたのに、有料にしたら落ちるようになぅた!
そんな人いませんか?
アルゴニズムも増えたけど、画像かわるのってシャープが使える下2たつだけでCGとかあまり変わらないような気がするのはきのせいですか?
ちなみにグラボは3080です。 私的メモな
3070と3080のenhance aiの速度はほぼ1.75倍程度らしい
3070が2080tiとほぼ大差ないので、性能差はコア数とメモリの恩恵だろう
3060tiのデータはないが多分3,070/2080tiから1-2割落ちる程度か?
3050tiはメモリ減るから一気に速度低下するだろうな >>497
3070と3080で迷っててTopazの使用も考慮に入ってる俺にクリティカルな情報
感謝 有料版のVideo Enhance ai でまだプレビューすると落ちたりしてるけど、エンコードすると落ちないようになった!
よくわからない。でもさすが3080は処理早いからうれしい。 video enhance aiとDVDfab 動画加工aiはどっちがうまく拡大できるんだろ Video Enhance ai アルテミスHQでSDを200%
Radeon RX6800で0.11sec/F(GPUロード68%くらい)
ryzen 5800Xで2.5sec/F
参考までに >>502
それGPUよりCPUネックになってない?
1080pの動画で試して速度比較して欲しい。 これは凄い
破れを削除するのは有料
https://jpghd.com/ >>500
ファブは使い物にならん。3080でフルhdの動画10分が24時間、Enhance ai は40分で終わる!
値段の差があるなー! >>506
それだけ remini っぽいな。顔が別人になる。色も変わる。 動画の変換処理速度ってGDDR5と6で顕著に差出る?
具体的には今のグラボのVRAM4GBじゃちょっと苦しい&ハードウェアエンコ用にHEVC欲しいって理由で、GTX1660か1660Sどっち買うか迷ってる
この二つメモリの速度周り以外は差がなくて、自分の用途なら速度差10%くらいで済むなら許容範囲だし安い1660にしておきたいけど
もし20%とか差が出るなら流石に1660S選ぶ、どっちがお勧め? 超解像処理を入れた動画変換ならどちらも話にならない
違い以前に遅すぎて実用に耐えないだろう pngとかに変換するのはCPUのパワーでそれなりに差が出るが
png画像の人工知能を使った拡大でのGPUのパワーは
それぞれ全然に差が無い。 1660から1660sに買い替えるという珍しい体験をしてる人にしか答えられない質問のような >>512
ありがとう
CPU性能的には変換時でもそこそこ余裕あるくらいで、明らかにGPUだけが足引っ張ってるんでそれなら1660の方にしときます Topaz Video Enhance ai のアルゴニズム設定で10種類くらいあるけど、2kアニメを4kにするとしたらどれがいいのかわかりません。良い設定ありますか?
ちなみに下2つのシャープとかかけれるやつのほうがいいのかな?またその中の3つを(シャープとか)最大の100とかにしたらより綺麗になりますか? Topaz Video Enhance AI 1.8.0
すごい良くなってるSDからHD
artemis LQ v9
今までで一番使えそうかな video enhance ai クーポン込み$120切るのは正直かなり欲しい
2年目以降の更新は安くなるのかな >>515
artemisの新しくなったのはまだ試してないけど
アニメやCGアニメの4K化はGaia-CGを使ってる
1.8.0でもGaia-CGのややボケた出力の不具合直ったのかは知らないけど
4Kテレビくらいの距離なら1.7.1のでも自分は気にならないかな 1.8.0と前のバージョンの違いがよくわからない。安定したくらいで画質変わらんのだが。
あとTopaz Video Enhance ai 使っててわかったけど2kを4kにして劇的にかわらないけど、DVD画質から4kだと劇的に高画質になるね。 1.8.0で出力すると0−1分のところを戻って5回くらい繰り返してフリーズするんだが同じ症状の人いない? ちょうど1.7.1使ってたから、1.8.0に変えた
v9に上がっただけにartemis系よくなってんね、SD→HDにするといい感じになる
調子乗ってあんま拡大しすぎると微妙な感じになるけど、あとMQとかAAとかよくわからん Artemis HQ(素材)1080p(FHD) →2160p(4k)
Artemis MQ(素材) 720p(HD) →1080p(FHD) or 2160p(4k)
Artemis LQ (素材) 480p(SD) →720p(HD) or 1080p(FHD) or 2160p(4k) Artemis AA v9
Upscale video with aliasing or moire patterns. Aliasing is common in computer-generated(CG)content,or from line-skipping cameras.
(エイリアシングまたはモアレパターンのある高級ビデオ。
エイリアシングは、コンピューターで生成された(CG)コンテンツ、またはラインスキップカメラからの一般的なものです。) Artemis HQ v8
Upscale high-quality input video(高級感のある高品質な入力ビデオ)
for progressive input video only(プログレッシブ入力ビデオのみ)
output has less flickery(出力のちらつきが少ない)
Artemis MQ v9
Upscale or enhance Medium Quality (MQ) video with moderate noise or compression artifacts
(中程度のノイズまたは圧縮アーティファクトを含む中品質(MQ)ビデオをアップスケールまたは強化する)
Artemis LQ v8
upscale low-quality or noisy input video,with less flicker(ちらつきの少ない、高級で低品質またはノイズの多い入力ビデオ)
for progressive input video only(プログレッシブ入力ビデオのみ)
outputhas less flickery(出力のちらつきが少ない) Gaia-HQ v5 Previous name HQ-Normal(以前の名前HQ-通常)
Upscaling high-quality input video(高品質の入力ビデオのアップスケーリング)
for progressive input video only(プログレッシブ入力ビデオのみ)
output has more details(出力には詳細があります)
Gaia-CG v5 Previous name HQ-CG(旧名HQ-CG)
Upscaling carton input video(カートン入力ビデオのアップスケーリング)
for progressive input video only(プログレッシブ入力ビデオのみ)
output has less aliasing(出力のエイリアシングが少ない)
Theia-Detail v3 (詳細)
Output with more details but may have artifacts (詳細を出力しますが、アーティファクトがある可能性があります)
output has more details(出力には詳細があります)
theia-Fidelity v4 (忠実度)
output with higher fidelity but less details (忠実度は高いが詳細が少ない出力)
for progressive input video only(プログレッシブ入力ビデオのみ)
output has less details(出力の詳細が少ない) waifu2xの後追いっぽいやつがオンライン版公開しとる
今んとこ変換速度はまあまあ早いっぽいが
PhotoshopとかAE対応は良いね
https://super-resolution.app/ また化石みたいなのを
プラグインは古いのでも互換性あんま関係なく動くの多いし行けるんじゃね? topaz製品買った人は住所とか名前とか正確に入力してるんかな?
なんとなく抵抗あるんで適当にしたいんだがそのうちアカBANとかされるんだろか waifu2xの類似版は中華産でMoePhotoってのもあったよなたしか
1回使おうと思ったけど中国語わかんなすぎて使うの辞めたから品質とかはわからんけど video enhanced ai は色が変わらない設定が欲しい topazのvideo enhanceで複数GPUでうまく動く?
AI ProcesserをAll GPUsにすると
初期化がいつまで待っても終わらない
と言っても5分くらいしか待ってないけど topaz video enhance、NVIDIAが本気だしてStudioDrive含むチューニングしてくれたら
パフォーマンスめちゃ上がりそうなんだがな・・・ うーん
やっぱVR動画を4Kから8Kにしようと思うと時間かかるなー
Video Enhance AIのマルチGPU動くようになってくれ
他にマルチGPUで超解像してくれるソフトある? >>533
AI系はなんか色変えないほうが珍しいよな…
そのせいで未だにwaifu2xから離れられん topaz 大分安くなったから買おうか迷って、取り敢えず試用版試してる
240pとかの動画をFHDぐらいにしたいんだけど とりあえずArtemis LQで400%にやったら人間がマネキンみたいな感じになってしまったけど
補正効きすぎって事なのかな?
超低画質をそこそこ見れるようにするオススメ設定はなんでしょうか?
素材は実写です そのための試用版なんだから自分で試せとしか...
動画10秒ぐらいにしてバッチモード使ったら全設定網羅できるだろ >>537
dainはマルチ効くから、海外フォーラムでは1080ti×10枚のレンタルPC鯖つかってdain動かせ
時給数ドルかかるけど、それだけ早く作業できるでってアドバイスがあったな
マルチできないtopazは現状
16GB+ローエンドCPU+中古1080でスピード100%
16GB+いいCPU+2080tiか3070(3060tiではスピードダウン)で170%
32GB環境+3080でスピード300%
これくらいが目安で20万の3080環境ありきでしかまともな速度でない一品、マルチも使えないクソ
なのでスレでは中古PCと1660あるいは1080中古で5-6万のPC複数台で回せって提言が多いな >>540
holiday2020
のプロモコードで割引額から更に15%下がるから入れてみ。俺は試用版使って悩んでるけど買わんだろうから >>542
1080から3080に買い替える俺には滅茶苦茶有用な情報ありがてえ
まあpaypay還元で実質7.6万で注文してから40日経っても入荷未定なんだが… realsrのインストールってどうやるんですか?
zip解凍してexeクリックしても何も起こらない ちなみに使ってるGPUはradeon 580xです
AMDには対応してないってことなのでしょうか.... >>545
コマンドラインで動くからbatファイル作るかgui使う
Waifu2x-Extension-GUIてのあるからそれ使うと良いよ。 >>547
ありがとうございます。
早速DLして起動してみました
利用用途は画像のみです
エンジン設定タブ、画像を処理するエンジンが「realsr-ncnn-vulkan」
になってるのでこれで画像を高画質にする際にrealsrで処理されてるって事でいいんですかね
ちなみにホームタブにある画像スタイルを3Dリアルライフに設定したのですが
実写の画像を処理するのに適してるのでしょうか? >>548
実写やそれに準ずる写実的なイラスト(油絵など)の補完に効果的だよ >>548
ホームタブにあるスタイルの設定はwaifu用だな >>549
>>550
それだと3Dリアルライフの処理は効いてないんですかね?
他にはカスタム解像度と画像スケール、と
追加タブでファイルの種類ぐらいしか選べるものがありませんでした
他にもrealsrでいじれる機能があったんでしょうか >>551
そもそもrealsrは写真向けじゃね>realだし。 video enhance aiをegpuで使っている人いたら教えてください
問題なく使えていますか? Topaz Video Enhance ai の今のバージョンでアルゴニズムのArtemis HQ v9になってから720pや1080pの実写やアニメを4kにすると全てにおいてかなり高画質に生まれ変わるね。
ぼけた昔の動画でもくっきり綺麗になってノイズもとれるから最高です。ほかのアルゴニズムも試したがArtemis HQ v9以外ではTheia-Detail v3 もなかなかいいけど少しボケるかな。
グラボは3080だけど処理速度も最初に比べるとかなり速くなり待ち時間が少なくなった。 >>554
俺もこのモードでDVDのAVを4Kにアップしたらまるで目の前で行われているような動画になった!
感動した! 目の前で他人がセックスするのを見ながらオナニーってAV観るより悲しい >>558
AVでも自撮りものならならいいんじゃないか? アダフェスで取ったmp4で画像荒いやつを超高画質に変換したら、Oculusquest2でかなりリアル感が増す! >>560
それをやってるんだが
まだ1本目の変換が終わらん 俺もAVを超解像することあるけど解像度の割に6000kbpsなどビットレート低いものばかりだからなにが良いのか苦労してる
一番画質良くなるのは依然としてGaia-HQだけどノイズのちらつき減らすにはartemisはやっぱり良いね
もうちょっと良いとこどり増えたら本当にありがたい Video Enhance AIは前後のフレームの繋がりも考慮してるんだろうか
Gigapixel AIで連番イメージを超解像したのを繋げたら破綻するのかね?
一回やってみるか Video Enhance AIを5600x 3070の組み合わせで元々4Kを更にartemis-HQ使用して4kにエンコし直してる
タスクマネージャー見るとCPUもGPUも使用率が激低でCPU 20% GPUは10%いくかどうかなんだが
もっとマシンパワーをフル使いこなせないのかな?
ファンも全然回らないし静かなもんで無音
変換速度は1.27sec/flameがどの程度か分からないけど >>564
Topaz Sharpen AIで動画を分割したものをアップコンバートして動画ソフトで戻したことあるけど、やはりかなり高画質で繋がりも問題なかったが、Topaz Video Enhance ai でアップしてDaVinci Resolveでさらに綺麗にしてもあまりかわりなかった。時間の無駄かな。 >>565
Video Enhance AIを5600x 3070で
SDをフルHD artemis-LQで変換速度どれくらいですかね 最近超解像にはまっていくつか試してみたけど
Topazのアルゴリズムは結構優秀だよね?
かなり綺麗にしてくれる
Video Enhance AIでマルチGPUがちゃんと動けばなー ここの人は動画も高解像度にしてるの?
動画だとmadVRしか知らなかったけど、
ここで挙げられてるソフトの方が良いのかな アニメを制作解像度に戻して適当なので拡大してからエンコというのはやってる やる気と時間さえあればmadVRより断然綺麗になるけど大抵の人はやらない 今年はAvisynth AIUpscaleとvs-placeboでYUVのまま弄られるようになって有り難かった https://youtu.be/4mXJCUXzSWo
この動画くっそ画質いいんやけどどういうツール使うんやろか Topaz Video Enhance AIは実写寄りのCG動画もかなり綺麗に高解像度化してくれるね。
ちゃんと輪郭だけシャープさを保ったままピクセル補完してくれる感じ。
静止画版のGIGA Pixel同様にこれから頻繁に使うことになりそう。
てかこのソフトの専用スレないのかw >>565
Video Enhance AIの使用率って、タスクマネージャーだとGPUの項目内のグラフをGraphics_1に変えないと見られないんじゃなかったっけ? >>576
Video Enhance AIは公式フォーラムが一番情報が多くてそれで充分だからな
バージョン毎の違いが大きくいまだずっとベータテストしてる感じだし
CGは1.6.1派が根強いな 自分もいろいろソフトをためいてみたが、やはりTopaz Video Enhance ai が手軽さと綺麗さとコスパでは最強だと思う。アップコンバートしたあとダビンチレゾルブで細かく調整すれば最高画質になる。スレ違いかもしれないがこの動画編集ソフトぬるぬる60pも手軽に仕上げができるからなかなかよい。 >>580
時代遅れかどうかはわからんし
評価基準も人や用途によって違うとは思うが
俺はTopaz製品の方が好みの仕上がりだな caffe版がcudnn同梱になってたし、手軽な"静止画"用として今後も残っていくんじゃね? https://topazlabs.com/video-enhance-ai-users-guide/
なるほど、複数GPUには対応してないけど、複数のVideo Enhance AIを開いて、異なるNvidiaGPUを割り当てることはできるのか。 >>580
深層学習の手法がSRCNN→SRResNet→SRGAN(→派生形でESRGAN、Wasserstein GAN等)といったように進化していて
waifu2xはSRCNNの一種
ただこれらの進歩はAIにとって深層学習の登場といった大きなブレイクスルーとなるほどの進歩ではない
ESRGANは前スレあたりでツールが紹介されてた
TapazやVance AI等の商用ツールはどの手法を採用してるか公開されてないと思う
あとはまあ、特に説明がない場合、深層学習のターゲットは実写になってると思う
waifu2xは二次絵向けだからその辺使い分けでは Video Enhance AIでSD動画を4K化(連番画像出力)→DaVinci Resolveで60fps化(Opticalflow+スピードワープ)して、10bit Cineformで出力→最後にHandBrakeでH.265/HEVCエンコ
というフローで落ち着きつつある。
実写映像だとクロマシャープニングとか少し付け加えるといい感じだね。
Video Enhance AIのデノイズが優秀だからオリジナル映像より綺麗になるがいい。 >>585
解像度が上がるとフレーム補間の破綻もしやすくなるって聞いた事あるけど、
Davinciはそれに当てはまらんのけ? >>586
FHDと4Kのフレーム補間で特にクオリティの差があると感じたことはないなぁ。
動きが激しくて動きの情報が足りない映像だと、被写体だけ補間されて背景が破綻するとか稀にあるけどね。 変換に時間かかっていいから
フレーム補完と超解像まとめてやってくれるツールがほしい
あとDAINが3倍、1.5倍に対応してくれたらなぁ
90fps動画を作りたい 全部のソフトがコマンドラインで動かせるなら自動化も楽なんだけどね
GUIだとめんどい AIでフレーム補間するのってDAINくらいですか?
他に何かあります?
Davinciもできるのかな?59.94しか選べなかったのはやり方がマズかったんだろうか >>591
え?90とか120とかあったようなきがするが? Video Enhance AI
1秒間に1フレーム重複してる部分が必ずできるな
だから1秒毎にカクカクするんだな
やっと謎が解けたわ >>592
む、やっぱまだDavinciの使い方わかってないんだな
もうちょい勉強します >>591
dain
cain
rife
>>435 俺も専らスピードワープ使って補完してるがやっぱりこれを超えるのはないな
RIFEが凄く良い線行ってたけど変なモザイク状のブラーかかることが多々ある
DAINは処理重すぎたりシーンが変わる場面多いものだとバグって使い物にならなかったりした >>596
同感です。さすが値段はるだけあってフリーとは格段の差だね。
その他の編集機能も優秀だし。てかスレちがうか笑 >>593
フレームや音声に関する不具合はバージョンアップの度に結構な頻度で報告あるな
大体誰かが報告してくれるから助かる
しかしArtemisV9は久々の有能で楽しめるわ YoutubeでVR動画みてて
これいいな、超解像したいと思ってダウンロードしたら
VR180で3Dで落とせてなくてがっかり
っていうのを何度かやってる
学習しろよ、俺 2日前、Topaz Video Enhance ai バージョンアップしたけど何が変わったの?
あとTopaz Video Enhance ai 使っている方でどのアルゴニズムが1番いいのかな?自分的には、2kやHDを4kにする時は、
ArtemisV9はかなりいい感じになるけど、Theia-Detail v3 も捨てがたい。
シャープ100にしてデブロック50でノイズでないし1番綺麗に仕上がると思うけど。ちなみにデンターレスは10にしないとボケるからいじらない。 Topaz Video Enhance AIをクラウドの仮想マシン借りて爆速エンコとか可能です?
調べてるけどコストかかるかなあ 1秒ごとにカクカクしてたらエンコやり直しやな
最初気づかなかったけど、文字が右から左へ流れてくる映像見て確信に変わった
1秒ごとに1フレーム重複して、同じフレームが2つあることになる
だから一瞬止まった感じになるんよ
30フレームでも60フレームでもダメだった
この症状誰も報告してないんかな >>602
ソフトのバグじゃないと思われるので
動画の中身を詳しく書かないといけない ソフトのバグだよ
俺も半年ぐらい気づかなかった
ソースはどの動画使ってもその症状でる
V1.6〜V1.8までしか使ってないけど同じだわ
動きがある映像だと気にならないけど、文字が右から左へ流れてくる映像見て
「なんかカクカクしてるな」と思って調べたら、全部の動画カクカクしていた
気にしなきゃ見れるけど、一度気になりだしたらダメだな
同じフレームが2つあると一瞬止まった感じになるんだよ > ソースはどの動画使ってもその症状でる
この中身を詳しく >>607
原因がわかりました
TMPGEnc Video Mastering Works 6で作ったMP4を
Topaz Video Enhance AIでアップスケーリングするとカクツクみたいです
試しにTMPGEnc Video Mastering Works 7を同じ設定で使用してからEnhance AIを使うと
全くカクツクことはなくなりました
どちらもMP4自体は普通に再生できるんですけど、Enhance AIでアップスケーリングすると
TMPGEnc Video Mastering Works 6はダメみたいです
お騒がせしました mp4は入れ物であって動画の中身じゃない
codecなどでぐぐるといいぞ フレーム補間フィルター
TMPGEnc Video Mastering Works 7 に新たに実装された"フレーム補間"フィルターは、
任意の倍率でフレーム数を増加させ、オリジナルの映像には存在しない中間フレームを、
動き予測結果から生成し、なめらかな映像再生を実現します。
速度変更と組み合わせることで、ハイスピードカメラで撮影されたようなスロー映像も実現可能です。
これdain-appと比較してどうですかね? 原因分かって良かったわ
何気に気になるカキコだったんで >>610
TVMW6を使ってるけど、そんなことにはならないな・・・・・・ と思ったらTVMW5で作った動画で出たな・・・
H264と265以外の形式の中間ファイルを作ってどうなるか試してみるか >>600
ソースがアニメの場合はGaia-CG(ただしver1.6xのやつ)
実写だとArtemisかなぁ Artemis系は確かに綺麗なんだけどノッペリした感じがする。
Gaiaは素材のディテールが保たれてる感じかな Gaiaは藻座なしをアプコンした時にあそこに変な縞模様できるのが不満。Artemis はそんなことないからとても良いわ。 Theia-Detail v3とか使ってますか?
これが1番シャープかけると綺麗なきがしますが。 TMPGEncの件を追加検証したけど、結論は付属のMP4コンテナのバグだった
MP4box等やmkvコンテナで再パッキングしたり、分離したストリームファイルにすれば起きない な、結局Enhance AIのせいじゃないだろ?一人で騒ぐ奴ってのはいつもこれだよ うちのEnhance AIはできあがった動画が何故か2フレーム目だけ真っ黒になるなぁ…
ならないのもたまにあるしさっぱりわからんw
まあ見るには全然支障ないからいいんだけど やっぱArtemisやべぇ、昔集めた240pのエロ動画をFHDにしたら言われなきゃ分からんレベルになる デフォルトでkeep audioにチェック入ってないのなんとかならないかなぁ。たまに変換後音声なくてやり直しになる。 keep audioはなぜか設定が保存されないんだよな >>624
自分は4kにしてるけど、鮮明になるのには驚かされます!
aiの技術やばいな。 OculusQuest2向けに超解像してるけど
6k(6000*3000付近),25Mbpsくらいが安定再生の限界だな mp4とkeep audioオンはデフォにしておいてほしい 要望を出すかなぜこの仕様になっているのか質問してみるといいぞ mp4でエンコした場合、例えばOSが再起動とか停電でPC落ちた場合、使い物にならないmp4出来上がらない?
何かの拍子にそうなってからずっと静止画出力だわ。 静止画でも途中で落ちたら壊れたファイルができあがるはずだが >>634
静止画で出力してれば処理が止まったとこから再開できるけど
MP4出力だとまた最初からになっちゃうってこと 静止画出力なら一時中断できるってメリットがあるんだよ
自分の好きな設定でエンコードできるしな
それに不可抗力の停電もある
そういう場合も安心 音声くらいffmpegでなんとかした方がいいぞ
そんだけでまた超解像とか日が暮れる そういやGaia-CGは治ったんだろうか
速度爆速になったから1.8以降使ってるけど特に問題ないな ごめんフォーラムみたらv1.61に似せたv6使えるからそれ弄って使えってあるな Enhance AIのmp4(mkv)出力はYUV 4:2:0 8bit CBR 100Mb/s固定なので
4Kとか画質に拘りたいなら静止画連番出力必須だよ。
コーデックにCineform使わせてくれたらRec.709 10bitで保存できるのになぁ。 以前連番静止画でやってみたけど凄まじく時間かかった。確かに綺麗に仕上がるが、動画とたいしてかわりなかったからやってない。時間の無駄。
4kを綺麗にするならTopaz Video Enhance ai で動画で仕上げてDaVinci Resolveあたりで画質調整したほうがもっと超高画質にできる。今はこの方法で落ち着いている。 >>642
crf値で調整する方式になったけど、それverが古くね >>645
アニメなら主流じゃねrifeだかはモーションブラーっぽくなる アニメもDaVinci Resolveでやったが破断もなくかなり仕上りがよくなった。
メルカリで買えば半額ぐらいで購入。特に問題なし。 >>643
以前、Tiff16bit出力で時間比較したけど、静止画出力のほうが若干速かったぞ。
ストレージがM.2 SSDだからかもしらんけど。
>>644
v17.xはGiaが不評だったので、v16.1のまま使ってる。
なるほど、x264の品質設定はできるようになったのね。
でも色空間も劣化しないようにロスレスとか対応してほしいところ。 DavinciにしろRifeにしろ、カットが変わる時に必ずアーティファクト発生するからなぁ… >>648
ProRes 422 HQのmovも書き出せるようになってるよ dainは5800X+RTX3080でメモリ分割してもフルHD5分動画を完走できない
いつも約7000/9000フレームくらいで止まってしまう >>650
まじかー。 それは朗報。
アプデするわ! movの書き出しするとrtx3080と5600xだとcpu使用率が100パーになるわ。10コア以上とか用意しないとダメかな? コマンドライン機能使ったことないけど若干軽くなるのかな。
てかEnhance AIセールやってるのね。 100ドルOFFなので買い時だ。 Topaz Video Enhance AI を買おうと思ってるんだけど、
調べたらアップデートが1年間の制限ありって出てたんだが。 >>660
1年過ぎたらバージョンアップ出来ないだけなんで、バージョンアップしたいときに$99払おうと思ってる 3060×2刀流
全コア低圧運用(画像アプコンに馬力はいらない)で省エネ運用
これ流行るな多分、3070が1.3ghzで100w近くまでセーブできたから
3060×2枚でも1.3ghzで合計150w二刀流
これでDAINAPPやらは相当アドバンテージだせそう
TOPAZだけは対応してないのが厳しい
いやこれでPC2台組めばいいのか
DAIN用1台
TOPAZ用1台
完璧だな
3060は安くなっても税込み39800円だろうけど、それでも1080ti並で省エネでこれってのはでかい
1080ti更新が捗る Topazは一つのエンコードに複数GPU処理は対応してないけど、ソフトを多重起動して各GPUにそれぞれエンコードをさせることなら可能。 まぁ今の個人PCでマルチGPU環境は少ないだろうけど。 >>662 今からDFやこれやってみたいと思ってるので安いのは引かれるけど
聞く話ではV-RAMが多い方が有利なのでは?
メモリが多い3080tiとか待った方がいいのか躊躇しています 3080Tiなんて3060の3倍の値段で出てくるだろうけど2倍の処理能力もないだろ
VRAMも6GBじゃかなり厳しいが12GBで不足することなんてまずない メモリの種類も変わってるから単純な比較はできないよ。
でも新GDDR6Xが採用されてるのは3080と3090だけで、3070までは従来と同じGDDR6。
3DCGのベンチでは2080tiより4GBもVRAMが少ない3070が勝っているのは単純にCUDAコア数によるもの。
映像処理だと、特にEnhance AIのようなソフトだとVRAM多いほうが有利かもしれない。
ちなみに4K60pの動画編集はVRAM8GBがボーダーライン。 topaz1フレーム0.1切るくらいになるとcpu頭打ちにならない?
5600x rtx3080使ってるけど、360pの動画変換するとあんまgpu 使用率上がらないわ。コア増やしたら早くなるなら増やしたいけど、cpu使用率も80とかでマックスじゃないしなぁ。 Video Enhance AIが気に入ったので静止画用のGigapixel AIも買ってみたが、これも凄いな。
アニメ画質だとEnhance AIよりも良い結果になってるような印象を受ける。
レスポンスもいいし、汎用性も高くてこれまたお気に入りだわ。 Enhance AI 1.9系ベータ来てたのね
インタレ解除付きのDV/DVD向けとアナログTV向け
Artemis v10になって自然さ重視で線はソフトになったかな
また遊べるわい グラボを1660から3070に変えたらCPU使用率が上がったわ
20%から60%ぐらい
ryzen 5 3600なんだが6コア12スレッド全部使われるようになったわ・・・
2か4スレッドしか使ってなかったんだけどな
ちなみに速度は倍になった >>672
GPUがボトルネックになってCPUを効率的に使えなくなってたのか。
なるほどねぇ。参考になった。 昔の超汚い映像でもArtemis-LQだとある程度きれいになるのはいいんだけど、
人の顔が映し出されると口の周辺に黒っぽいノイズがやたら出てひげをたくわえている
ように見えてしまう
こういうのを軽減する方法ってないでしょうかね
映像が汚すぎる動画なのでArtemis-LQ以外を選択すると、ほとんどきれいにならないので そういうのはニューラルネットワークの学習が進むのを待つしかないんじゃないの?
Enhance AIも初期に比べたらかなり画質上がってるので要望出せば、そんなに先のことじゃないかも。 Gigapixel AI は新バージョンが来るとポップアップが出るので
Video Enhance AI でも待ってたらアイコンがひっそりと出るだけだった。 シャープになるのはいいんだけど人物などオブジェクト単位での認識まではやってない感じなのかな 近未来な技術を個人のPCでできちゃうのがありがたいね
こんなに凄い技術ならもっと規模大きいところも発展すると良いんだけど
何故かtopazの一強、他も十分凄いとは思うんだけどね… 開発コストが掛かる割にリターンが明確じゃないからやりづらいんじゃねーの どこでもやってるような
いまのスマホカメラの高画質化も計算力でやってるわけだし >>679
もっと大規模なビジネスや基礎技術として使っていくので
個人向けのソフトウェアは辺境みたいなもん >>675
上手くいかないのは100%で我慢するか
新モデルに更新があると旧モデルの方が良かったって報告もよくある話だから
旧モデル試しまくるという手もあるかもしれないが…
まぁ要望出すのはタダだしマジで一番いい
大体今までユーザ報告をモデル更新時に反映してきている このソフトのことアプコンでしょ?とか言われると何か抵抗を感じる >>675
ロークォリティのタモリ動画にはハイクオリティのタモリ画像を学習させる、くらいの技術がないとムリだよね 綺麗な低解像度を高解像度にはある程度の精度で出来るけど
低ビットレート圧縮を高画質化するのは難しいからね、諦めが肝心 極端に画質が悪い場合はArtemisが使えないね
他の使えばいいのでなんとかなるんだけど全部Artemisだけで済ませるようになればいいなあ >>686
でかいブロックノイズとかあるとまともに使えないしな
あと圧縮された動画特有のぼけとか
散々再upされて低ビットレートになってる動画はもう駄目だ 低ビットレート240pなんかを変換したら人物がお化けになるよねw keep audioにすると何故かビットレート低く再エンコードされてキレそ
ほんとAIのエンジン以外はアマチュアレベルのテクの無さ 元の動画の音声とのニコイチで再結合するバッチ作るとか、MKVToolNixとか使えば?
当然無劣化だし100GBクラスでも1分とかで終わるよ >>692
ビットレ低いのに気づいてからはMKVToolNix使ってるよ >>691
下がるんか、知らんかった…だからデフォルトでオフなんかね。
クオリティの設定値?ってどれくらいにしてる? >>688
公式の掲示板見れば分かるけど
User\AppData\Roaming\Topaz Labs LLC\Video Enhance AI\modelsに入ってるgaia-cg-5.jsonってファイルあるんで
それをコピーした後中身のversionの部分"5"を弄って6に変更すると次回以降v6というのが項目に増えてる
なんでか分からないけどGaia-CGだけ2つ分モデルあるから使える
明らかに綺麗になるから俺は使ってるよ いじる人用に汎用のパス書いた ここだそうです
c:\users\%username%\AppData\Roaming\Topaz Labs LLC\Video Enhance AI\models
>>694
CRF?20だけどファイルサイズでかくなっちゃうね 22とかでいいとおもう しらんけど
>>695
ありがとう! 意味わからんけど試してみます Anime4KCPP v2.5.0
Add CUDA support
Add high precision processing support (32bit float and 16bit integer)
Add grayscale support
Improve the performance of OpenCL processor
Bug fixes >>695
これやったけどV6が出てこないわ
公式フォーラム見た感じ1.8.0じゃないとできない? jsonの中身一緒だから同じモンができるんじゃねーの?と思ったがV6の方がシャープだった
ちゃんと比べた たまげた
>>698
できたよ 1.8.1だけど モニタ買い替えてから壁紙の四隅が黒枠入りになって嘆いてたけど
このスレのお陰で引き延ばしじゃないサイズに変換できました
マジ感謝、waifu2xマジmaiwaifu >>699
マジか…同じフォルダにコピペして数字変えただけだと何も変わらない
何か見落としてるのかな コピったファイルの名前をgaia-cg-6.jsonに変えた? 1.8.2に入ってるv10ってv9より悪くなってるような… 1.9.0ではgaia-cg-6.json使えなかったわ >>704
偽色みたいなの出たからV9入れ直した
V10は設定地獄に陥りそう V9のjsonとtzファイルつっこんだらV9も1.9.0で使えたわ grainはフィルムグレインとサイズかあ ごまかしになってソースによっては効果あるなあ waifu2x-caffeをコマンドラインで使っているのだけど、拡大処理後にシャープネスかけるにはどうすればよいだろうか? >>710
あまり使った事ないけどopenCvとかのライブラリ使うのじゃダメ? >>712
tzファイル移し忘れてました
結局アルテミスつかってんだよなあ Nvidiaってゲームドライバーとスタジオドライバーって2種類あるのね
スタジオドライバーに変えたらちゃんとGPU使ってくれるようになった >>714
どの環境の話?rtx3080では特に変わらん印象だけど。 VideoEnhanceAIはStudioドライバー対応を謳った事はないし、
DirectX12の機能も使ってないと思うけど、
基本的にStudioドライバーのほうが安定性が増すので、ゲームドライバーは入れる必要なし。
DaVinci Resolveとか使ってる人はこれ一択ってぐらいパフォーマンス違う。 来月の初旬頃にvideo enhance AIの体験版切れるんだけど
価格は199ドルに15%クーポン使って169ドルが実質デフォで、仮に運良くセールとか15%以上のクーポンでもっと安く買える機会が発生したらそれ使って買っとけばお得、って認識でおk? どんな高性能なGPUを投入しても依然莫大な時間がかかることを考えると、我々はまだまだあまりにも
原始的な段階にとどまっているのではないのだろうか
例えば2−3時間のHD動画をものの数秒で8kあたりに変換できるようになるにはどの程度の技術的進展が
必要となってくるのだろうか?
それともそういうことはそもそも原理的に無理なのか リアルタイム処理ならそう遠くないうちに実現するだろう。
例えばフレーム補完なんてひと昔前は今のEnhanceAIのようにじっとレンダリングされるのを待っていたけど、今じゃ4K120fpsも難なく再生してしまう。 こういうのは需要がどれぐらいあるかで進歩速度は大きく変わるだろうけど、高詳細化処理は動画だけでなく幅広く面で需要があると思うので(例えばブレードランナーの写真拡大シーンみたいなものとか)、これも深層学習の進歩とともにどんどん発展いくんじゃないかな、と思う。 Enhance AI
マルチGPU設定でも固まらなくなったが
1枚しか使ってくれないな DVDアニメのSD動画、どう頑張っても地上波HD録画(720p)以上に綺麗にできない
VideoEnhanceAIでも全然ダメ、録画の方がはるかに綺麗
DVDのリンギングノイズまみれの汚い動画にAviutl+AviSynth(QTGMC)でVideoEnhanceAIでのアプコン前にデノイズすると背景が潰れたりするし、OPのスタッフの文字も潰れる
VideoEnhanceAIにそのまま放り込むと今度はリンギングノイズがひどいことになる
綺麗にできてる人ってどんな設定でやってるの? 超解像って元がダメだと無理だよ科捜研の女に出てくるような近未来ツールではないから
個人的にSD画質のアニメならwaifu2xでやっちゃう、HD以上ならVideo Enhance AI
上でも言われてるけど低画質でも高画質でもノイズのない綺麗なものじゃないとうまくいかないんだよね DaVinci Resolveで時間的ノイズ除去+自動マスク(トラッキング)&ダストバスターor自動ダート除去等など、前処理してからEnhanceAIに持っていってる。 ただEnhanceAIに読み込んだ時点で8bit処理になってしまうのが残念。
あとアニメに関してはやっぱv16.1のGaiaCGが良いと思うなぁ。 19はまだ試してないけど、どうなんだろう? Video Enhance AIっていちいち入力するには長いなーって思ってたら
海外じゃVEAIって略されてるのに リアルタイム性重視で、web会議用の雑魚カメラを高画質化するのだとどういう方法が良いでしょうか?
できればin・out両方。 >>728
それはストリーミングで動画でも無いという事?
俺なら照明をイジるけど。 VideoEnhanceAiをNVIDIA2080tiから3080に載せ替えて高画質化すると、処理時間はどれくらい短縮できるものでしょうか?ざっと、私の作業では、元ファイルの4〜5倍くらいの時間で処理しているのですが。 >>730
ストリーミング。zoom、skype、teamesなど。
前面照明、OBSでシャープネスと頑張ってるけどRTX入ってるから既存環境で頑張りたかいです。 VEAIは一時中断機能と3xスケールのモデルがほしい だから欲しいのよ、拡大率高いモデルの方が処理時間かかるからね… 一時中断はマジで欲しい、、2日かかるとその間ゲーム全く出来ないしなぁ。 静止画版のGIGA Pixel AIにはx3どころかサイズは自由に入力できるけど、なんでVEAIがx3選べないかというとそれはmp4の仕様によるところが大きいんじゃないかな。 16の倍数じゃないとダメなので。
でも連番出力の時ぐらいはカスタムサイズ選ばせてほしいよね。 メモリ使用量の設定も途中で弄れるようにしてほしい
ちょっとだけ使用量の空き作ってネットで配信見ながら裏で処理させて、終わったらブラウザ閉じて使用量フルにとかやりたい メモリ使用量の設定ってどれくらい影響してる?
lowでもhighでも変わらないからlowにしてるんだけど >>740
メモリ6GBの奴だと少なめにすると遅くなる >>738
VEAIもサイズは自由に選べるよ
存在しないサイズ、x3とかは一旦x4してから縮小してると公式フォーラムで言ってた
GPAIも同じなんでない?
多分>>696と似たようなフォルダに2xだの4xだののモデルがって、3xとかはないと予想するけど >>743
おーサイズ緩和されてのか。俺のは16.1だから知らなかった。 rx6800xtだとVEAIどうなんだろ?rtx3080の方がやっぱ速いんかな。 VEAIに関して言えば現時点でrtx3000は最適化されてなくて
FP16性能に依存してね?って話だから
rx6800xtのがいいんじゃない? 6800無印でもいいかもね x2以上にすると質が下がるなぁと思ってたけど
中の人がx4モデルはトレーニングが難しいって言ってたんだよね
230%だか240%だかを超えた指定だとx2モデルからx4モデルに切り替わるって話で使ってないなぁ >>747
やっぱそうなのか。
いきなりx4にするんじゃなくてx2→x2と段階踏んだほうが綺麗だなと感じていた俺は間違ってなかったか。 それは良いこと知ったわいつも8K動画作るのに6xとかやってたから次から2xやってみるか SD画質を4kにするには4回もやらないと、いけないの? >>746
マジか、こういうのはゲフォの方が得意と思ってたけどそうでもないんかね。
公式で性能比較出して欲しいわ。 VEAI、読み込む動画はメタデータに関係なくbt601って解釈されるな
色が狂うわけだ… 1.9.0のV10ノイズリダクションめっちゃ劣化しとるな
1.8.1探して速攻入れなおしたわ デノイザーはGiga Pixel AIのやつめちゃ優秀よね。 VEAIと同じエンジンかと思ってたけど違うっぽい。 >>754
V10は確かに駄目だね
全体的にクッキリしてるけど、
背景の木や葉っぱにまでシャープがかかってるから変な感じに見えるね
ノイズ除去の調整がうまくいってない >>756
V9はノイズやブロックノイズも消えて輪郭がくっきり革新的だったからハマったわけで
V10は逆にノイズが増えて輪郭もちょっとくっきりしたかな?程度
240P動画をアプコンするならV9一択かな v10の調整の項目がいまいちわからん
それでもv10のlqはISDN回線時代に苦労して落とした320×240の動画をアプコンするときれいになる >>759
勿論。 VR動画って特殊なメタタグとかが記述されてるわけではなく、視差のある映像が二つ並んでるだけだから。
どう表示するかは再生プレイヤー側に委ねられてる。 Ver1.8でも1.9でも30フレームまで来ると
でエンコプレビューが1〜30フレームで反復を繰り返す
エラーが出る同じ現象の人いるでしょうか? 20の時もあれば30でエラーで止まるときあるんで、
特定の元動画が悪いかもしれんのでもう一度、設定見直します。
762さん返信ありがと。 HDサイズ、RF24でもまだファイルサイズでかいんだけどエンコへたくそすぎない?
普通の画質でいいんですけどRFどれくらいが妥協点ですかね?
静止画出力はつらいので >>764
15以下に設定して中間出力に使用してるけど、ぶっちゃけ最終出力に使うものではない >>764
無圧縮のpngでいったん出力してFFFMPGでmp4に変換してる TEAIで音なしファイルをMKVToolNixで音あり元動画と結合すると映像だけ止まる画像ができちゃう時ない?
いけるヤツといけないヤツあって困る 画像じゃなくてファイル
まあたまにしかならないのでOKですけど 元動画のフレーム数とVEAIでできた動画のフレーム数一致してないとか それ元動画とのコーデックとか相性あるんだよな
mkvtoolnixはそこ弱すぎるからffmpeg弄って使ってるわそしたら大抵うまくいく VEAIは古い解像度の小さいものを変換に使うこと多いけど、大体CPUが先にネックになる気がするな。
rtx3080 5600xで480pの動画を1080pにすると、0.1sec/fが限界でGPU使用率も30パーとかだわ。まぁCPU使用率も50%とかなのでよくわからんけど。 VEAI Artemis-LQ設定のgrainとpixelの関係が分からない。
ノイズの表現設定ってことでOKなのかな
ノイズはいらないんで両方grain0 pixel0でいいのかわからない Radeon Image FiltersにAIアップスケールあるけど試した人いる?
ttps://radeon-pro.github.io/RadeonProRenderDocs/en/rif/filters/ai_upscale.html ノイズの項目はUIトップに出すほど必要なオプションではないよな 全く同じ動画をArtemis-LQで変換すると、今までは2時間以上かかっていたのにいきなり半分以下の時間で完了するようになった
パソコンの設定とか全くいじってないし、ソフトのバージョンも変えてないのに意味が分からない、こんなことってあるのだろうか >>773
元動画の質にもよるけど、1くらいかけてノイズ入れて方が違和感なくなる場合があると思う VEAIやたらメモリ速度に影響されない?6800xt,5800xで2133と3200の際に2割ほど速度違ったわ。 ゲームではハイエンドなグラボだとメモリクロックの影響も大きいみたいだけど
VEAIもそうなんかね Intel CPU とTopazって相性いいんですかね
IntelがM1チップと第11世代Core i7の性能比較結果でTopazの名前出てたから
Topaz LabsのAIツールにおいてCore i7が約6倍高速らしい >>785
intel coreの専用命令(HW)を活用するように設計されてる Topaz製品面白そうなラインナップなので一通り触ってみた。てなわけで雑感。
Video Enhance AI … 言わずもがな今一番HOTなAIアップスケールソフト。
Gigapixel AI … VEAIの静止画版的な感じ。静止画な分処理が高速で汎用性はかなり高い。画像収集家には必須レベルのソフト。
Adjust AI … フィルター系。Nik Collectionに似ている。ビンテージフィルムっぽくもできるがPhotoshopがあれば事足りる。
Studio 2 … 同じくフィルター系だけど特殊効果が派手で面白い。手描き風タッチに変換するのにも便利。
DeNoise AI … ちゃんとディテールは維持したままノイズ成分だけデノイズしてくれる。他社のものより賢い。写真メインの人には需要高そう。
Sharpen AI … シャープフィルターとしてはおそらく業界最高峰クラス。ぶれ画像もスタビライズ機能でシャープに復元可能。
JPEG to RAW AI … JPEGノイズを排除してRAWデータのように復元するためのものだが、めっちゃ地味。というかそんな需要はあまりなさそう。DeNoise AIと統合したほうがいいのでは・・・。
Video Enhance AI以外はPhotoshopのプラグインとしても呼び出せるので便利。個人的に気に入ったのはGigapixelとStudio 2。Gigapixelはデノイザーとしても使える。しかしVEAIと同様で一番クオリティが良いのは2倍の解像度までで、それ以上だと輪郭が破綻するケースもたまにある。
Studio 2はフィルターを自由に組み合わせてプリセットをどんどん保存していけるので、加工好きな人にはおすすめ。たまに不気味な加工も並んでいたりするがその辺がなんともAIっぽい。 >>785
Apple、VEAIみたいな謹製アプリだしそうだがなぁ
Apple SiliconのNeural Engineの一般向け誇示アピール用に
iPadProに積むA14Xか iMacからだろうM2出すあたりで Sharpen AI トライアル版入れてみたけど
起動して一瞬ロゴ画面出て落ちる
つかえねええ gigapixelははやくコマンドライン対応してほしいなー。去年、公式スレで要望上がってたけど未だに実装されてない。
DD→実行→完了後に自動終了まではできてるんだけど、実行が手作業なのがモヤる。 JPEG to RAWはフォトレタッチのためにあるんじゃないか。 x2モデルマジで優秀なんだな、検証してみたけどデノイズが半端なく有能
x4モデルぼやけて拡大するから意味ねえ >>791
全くその通りなんだけど、そういう人はそもそもJPGで撮らないだろうって意味ね。 4倍にしたかったら2倍やってまた2倍したらいいのか 補正も2回分掛かるからより綺麗に見えるというだけではないのかな
x4を1回とx1を1回すれば同じになるみたいな、試してないけど >>796
第四世代i5
メモリ8G
非対応GPU
でも起動して変換できたぞ
すげー時間かかるけど Waifu2x-Extension-GUIにフレーム補間機能付いたよ 画質悪い動画を超解像で拡大するのは良いんだけど色の階調を補正するものはないかなあ
SD画質からだと色むらがすごく気になっちゃうな >>800
ありがとう!MPCのアドオンで使えるのね
DaVinciでもデバンド機能使ったらディティール犠牲にするけど補正できたわ
一応報告 VEAIで100% denoize使ってもデバンドできたわ……SD画質の場合は何度も重ねがけした方がいいのね
連レスすまん 色んなncnn-vulkan作ってる人ってすごい美少女だったんだな…
推しのアイドルの画像載せてるのかと思ってた VEAIベータArtemis v11とDionev2来てる >>806
動画でもこの顔だった
さすがに動画が補正ありなら分かるっしょ だがちょっと待って欲しい、何を作っている人か考えると全フレームに綺麗にする処理を入れているのでは無いかと
この話題いる…? >>805
ベータ版ってどこで手に入るんですかね? 質問です。VEAIでアニメをアップロードする場合どのバージョンでどのアルゴニズムを使用してますか? アルゴニズムに突っ込まないのは、ここのルールなのか…? VEAIと一緒に使うフレーム補完はflowframeが良さそう?
使ってみたけどdain よりlifeの方が圧倒的に処理早いね。でも手持ちの6800xtとgtx1650だと変換速度は3割くらいしか変わらなかったから、ゲフォの上位だともっと早いんだろうか。 VEAIで640x480実写低ビットレートを400%に拡大するとき
artemisLQ200%→artemisHQ200%と処理したのが1番しっくりきた
しかしartemisLQ400%に比べてかなり計算コストかかるから見合ってるかは微妙なんだよなぁ
バージョンは1.81、更新の度に結構変わるからこれっていうのにたどり着けない気がするわ >>817
Waifu2x-Extension-GUIでもrife-ncnn-vulkanでフレーム補間できるようになったよ artemis LQで SDからFHD
i5 8400 & GTX1660 super で 1フレーム0.23秒
i7 10700k & RTX 3070 で 1フレーム0.09秒 でした。参考までに
RTX 3080ならどれくらい速くなるんですかね >>817
フレーム補間はDaVinci ResolveのOpticalFlow+Speedwarpが最強説 >>821
自分もDaVinciで補間してるけどやはり有料ソフトは最強だと思う!
処理もそこまで遅くないし破断もしにくいなー。
ちなみにPCはcore9、RTX3080。 >>819
なるほど。でもこれ使ってもflowframesのlife ncnn-vulkan と同じだよね?
>>821
流石に高いな…しかもラデだからパフォーマンス出ないしなぁ。 >>819
現行の最新版(v2.71.22)落としてみたけど
どこにフレーム補間できる項目あるの? i7 7700 16g GF1070 中古仕入れてきたけど
VEAI 十分レベルかしら?
イナバ物置にベランダサーバー化しようかと思ってるが >>828
処理時間を気にならないなら。
実用的かどうかは人それぞれだが、
2080Superや2070Superまでなら
数分レベルのものしか。
それでも元のファイルの再生時間の
10倍くらい処理に掛かる。
2080tiか3070以上でないと
10分以上の動画の処理は
話にならないというのが個人的な感想。 グーグルクラウドでGPU使えるサービスあるけど、あーいうの利用したAIソフトとかないのか
AIシンガーオンラインとかそういうの利用してる GPU支援はまだ全分野には広がってないかなあ
これから次々に出てくるかもしれない 24時間動かしっぱじゃなかったら借りた方が安いしね
ただ環境構築がダルい、レンダーファーム的なサービス欲しいね >>832
その時代だと閲覧ソフトがリアルタイムで今以上の高解像度化してそう 私の戦闘力は240P→480Pで0.11sec/frameです
この意味わかりますか? >>834
高解像度化って今だけな気がする。
ちょっと先の未来はrawデータそのまま扱えるんじゃないかな。 jpg変換、すぐ色が帯状になっちゃうこと気付いた……
png変換にするとえぐい容量の取り方するから嫌だしクラッシュしないこと祈ってmovにした方がいいのか
今までjpgで作った動画全部作り直しだわ 圧縮する方式は何かしら劣化するよ
あとmovとかmp4とかはコンテナ(容れ物)の仕様だから中身とは違うような >>836
転送量やストレージサイズ抑制を目的として(実行時負荷増≒消費電力増と引き換えに)圧縮データをリアルタイムで「デコード」しているように、リアルタイムで「補完」するような未来は十分ありえる
前者はオリジナルの「復元」が目的で、後者はオリジナルの「補完」が目的
もっとも、高い負荷を効率的に捌ける専用HWが登場しない限り実現は難しいだろうけど... ブレードランナーの写真1枚を超解像度補間して捜査の手がかりにするシーン、あの次元のものが訪れるのも案外早いかもしれないなぁ。最近のAIニュースの動向見てると。 扱うデータサイズの膨張が最近は激しいんで追いつくのかな
10年後の高画質の動画のサイズとか想像もできん VEAIのデノイズ処理が途中からクソ遅くなる動画ファイルがたまに出てくるんだけど原因わからん
すべて同じレートでMP4に変換してからデノイズしてるからファイル破損はないはず >>835
480PのHD化は半日かかるってかんじする
>>836
古い時代のソースは情報量すくないままだけど >>844
苦手な画像パターンとかあるのかねえ?
重いシーンに気づいたらそこだけフレーム指定して変換してみたら? >>838
すまんProRes HQって書いた方が正しかったな
さっき仕事から帰って作り終えた動画見たけどやっぱりjpgやH.264で作る動画とはクオリティの差が出るね >>846
もしかしてと思ってドライバ古いのにして再起動したら完走出来たよ
どっちで治ったかわからないけどNVIDIAの新ドラは色々ダメっぽいね
新ドラに入れてから数日まともに動いてたから見落としてたわ >>818
アニメは全く興味ないから知らんけど、昔VHSで録画した低画質のバラエティ番組など実写を
色々と変換してみた結果、artemisLQ 200%→Theia-Detail v3 200%が一番にマシに見えた
artemisLQ 200%から他のartemisに変換すると、細部がちょっとべたついた感じになる 3060以降のマイニング規制ってこれにも影響あるのかな マイニングのアルゴリズムを感知するらしいから関係ないと思われ >>852
めっちゃあると思ってる
12GB積んでる意味無いな 流石に推論処理とマイニング処理の区別がつかないってことはないだろう DirectML使った超解像処理をマイニングと勘違いするとか、流石にそんなお馬鹿な検知システムは有り得ない…と思いたい
石橋を叩いて渡るなら、今Gameドライバ使ってる人はStudioドライバにしとくのが得策かもしれないけど、いやでも流石にね…? マイニンガー用の高性能ボードが企画されているようだから
いずれ鎮まるんじゃないか?
3070-90あたりの中古品が大量に出回るかもしれないのだから
とりあえず今は静観すべきかと。 >>859 実写か 記念の1枚何ですね 楽しそうですね VEAIとDaVinci Resolveのデバンドがめちゃ相性良い事に気づいた。 >>863
自分もこの二つで動画編集してるけど、フレーム補間も色彩調整もなんでもサクサクいける!4kぐらいならなんなくこなしてくれる。 Dainを物理メモリを16Gから32Gに増やしたから試したけどあんまり速度が変わらんのね。GPUでやってんだからそりゃそうだけどさ 今更だけど設定でReduce Machine LoadとかMax VRAM Usageとかあったのな
変えたら速度2倍になったわ今まで何やってたんだ俺 >>864
フレーム補間も良い出来よな。 スローモーションとかも素晴らしい。
色々試してきたけどこれは実写もアニメもバランスよくいけるわ。
VEAIの処理でエッジが失われてCGっぽくなってしまった部分の修正とかにも重宝してる。 DaVinciを使ってみたいんだけど、学習についてオススメの書籍とかサイトってあります? 【Blackmagic Design】 DaVinci Resolve Studio Part8 【カラーグレーディング】
ttps://mevius.5ch.net/test/read.cgi/avi/1611758708/
一応 >>869
Thanks
出てくる用語がよくわからん(笑) >>870
oh
まあ斜め読みしていればそれなりに
仕事の人が多そうだけど >>868
Youtubeに日本人のチュートリアル動画いっぱいあるよ >>872
使い方の動画見てると、こんなことまでできちゃうんだーって感心しちゃうよね!
DaVinci高いだけのことはある!
やっぱり無料版もなかなかだけど、有料版を使うと最強。 文化というか普通に使えば勝手につくので、ついてない奴は何やってんのかねというのとついてないやつの多くはなんか頭おかしいのよね ベンチマークの低さで現在絶賛ガッカリ産廃扱いされてるRTX3060だけど
VRAM容量12GB(VEAIが使用する最大容量と同じ)、第3世代tensor core使える、PCIe4.0対応とVEAIを運用するにあたってはだいぶ良さ気?
マイニング対策しても結局マイナーには買われそうだしどうせ暫くはクッソ高そうだけど
それでもゲーマーにもマイナーにも魅力が薄めで、ある程度落ち着いたら良い選択肢になりそうでちょっと期待 >>878
Webブラウザで書き込んでみん
勝手につかないから VideoEnhanceAI-2.0.0 起動しない 助けてくれ
古いPCでは起動するんだが もはやエンコード師向けグラボってどういうことだってばよ >>882
1.邪魔してるアプリを探して切る
2.再インストールする
3.前のバージョンに戻す
4.あきらめてシコる >>883
ノンリニア編集ソフトは作業中にVRAMを大量に使う
映像制作市場向けって言ったのはそういう意味 >>884
VideoEnhanceAI-1.9.0までは起動するんだが、2.0.0 起動しない
再インストールしたり再起動したり管理者として実行してもダメ
他のTopaz製品は動くんだけどね
邪魔してるアプリを探して切る は多すぎて難しい msconfig からサービス切るとかセーフブートとかしてみたら VEAIでNCS2使えるか試してみたけどダメっぽいな VEAIって設定ファイルあったっけ? あるならそれ削除して起動するか試してみるとか。 VEAI2.0きた
ライセンスも6カ月延長するって VEAI1.8が安定版かな どんどんダメになってる
客が金払ってベータ版のテストさせられてるみたいだな うんざりする うちの環境もVEAI1.8が一番きれいにデノイズ拡大してくれるな
ただ音声のチェックがいちいち外れるので一回1.9にして設定セーブしてから1.8に戻すと記憶される v1.8の設定ファイルやモデルをv1.9で使ってる、かなり安定してるし早いし文句ない >>896
俺もだわ
>>897
ログみて gaia-CG V6を出すやり方と同じ >>898
なる
あの方法でいけるんですな
こんどそれやってみますわ 2倍アプコンからのもう一回2倍アプコンを何度か検証したけどやっぱり素材に寄るね
ノイズが辛い動画で有効なだけでブロックノイズ全くない動画なら意味がないな もうこれ以上、画質向上は難しいと考えて全部 VEAI 1.8で変換しようかな
RTX3070を24時間 1ヶ月間動かすことを考えると悩む
冬の間にやろうと思ってたら、もうすぐ春だよ
夏は厳しい v1.8が安定っていうのはArtemisのv9が良いってこと?
モデル名で書かれてないといまいち分かりづらいな 良かったモデルはバックアップ取ろうと思ってるからそういう情報どんどん欲しい
とりあえず今は2.0.0でv9使用中 >>885
なるほどなぁ確かに大量に使ってるわ。でもVRAMマシマシって3090くらいじゃないですかね? >>904
ゲーミングほどピーキーな演算性能はいらないからね
コスパ重視な選択肢になるんでない
もっともこのスレらしく超解像でもするなら別だけどw 次スレのテンプレどうする?
定番ソフトが色々出揃ったわけだが >>902
しかも毎回全モデルが更新される訳ではないから
いやそのLQはひとつ前と中身同じだわとかってなったりもする
v9は良かったけど実写だと効きすぎ感あるからv9を単純にソフト化させる方向の進化が欲しい >>894
1年前の俺のレス
延長されてなかったら今月先週でライセンス切れてたわ
当時もおいおいこれでリリースするのかよって外人たちも言ってたわ 次スレからフレーム補間のネタもokな感じでスレタイ変えて欲しいな
SVPスレはやっぱリアルタイム再生がメインになってるからね…
画像拡大&フレーム補間ソフト総合スレ、みたいな感じで waifu2x-extension-GUI
変換途中でブルスクになったりSSD認識しなくなったりした(´・ω・`) 失礼、waifu2x-extension-guiだけだと思ってたけど、FlowFramesでもなったわ
復旧めんどい 高負荷かけると落ちるで、自作だと昔あったのがCPUグリスカピカピだなぁ
今は液体金属だから逆に外せんが
それ以外だとメモリ外しても起こるか、別のグラボでも起こるかが原因探すなら必要かもね >>910
フレーム補完って拡大高解像度化と同じネタなんですか? 補間フレームの生成はAI処理だから似てると言えば似てる TOPAZはAIフレーム補完はまだ出してないよな? AIフレーム補完スレはあってもいいなと思うが、
俺はDavinchiで使ってるOptixしか知らない 訂正。OptixじゃなかったOpticalFlowだ。 DaVinciのスピードワープド安定ではあるんだが、RIFEも気になって導入しようとしたらPython?から色々インストールするとこで頭がパンクした
どっちが処理早いか自分のPCで試したかったのに悔しい OpticalFlowはNvidiaが開発したものだけど、BlackmagicがDavinciに実装するにあたって他社GPUでも使えるように仲介したからAMDのRadeonでも動くんだよな。 それを容認したNvidiaも太っ腹ではあるが。 俺頭悪いからrife-app買っちまったよ
処理はDainと比べてくっそ早いで
1080pもサクサクや rifeとcainならvulcan版がWaifu2x-Extension-GUIで対応してる 調べてGUI導入したけどいいねこれ、重くもないし早いしで無料でこれは凄い なんか最近になって8K動画youtubeに上げるとAV1エンコになるね
これRTX30xxしかハードウェア再生支援されんのにgoogleさんは何考えてんだか すまんスレチか
まぁとりあえず8Kにアプコンして上げたいって人は気を付けて >>927
いやそうでも
3000シリーズは8Kデコード対応してるのか >>923
Flowflamesの方が色々できて良くない? rife-appのUIのSS見るとそう感じたけど
>>921
vulcanならPythonいらないと思う
FlowflamesならPythonも一緒くたのインストーラーが提供されてたような
RIFEはモデルによって補完精度が違うけど、3DCGムービーでモデル1.2〜2.0まで試した結果、1.8が一番精細さが保たれてたなあ
Davinci16のオプティカルフロー&スピードワープとも比較してみると、精細さは一長一短でトータル似たようなものだったけど
Davinciで背景の歪みが大きいところが1.8では小さかった
中間フレームの精度はオレの主観だけど、モデル1.2<1.5≒1.6<Davinci<1.8な感じに。
2.0は別の時の比較だったけど2.0<Davinciて感じだった
RIFEはモデルによって処理速度が変わって
Davinciで2h34mかかるものは、rife-ncnn-vulkanの1.8だと1h40mだった
ただFlowflamesのCUDA版使うと更に速い オレ的使い勝手のまとめ
rife-ncnn-vulkan(CLI)
事前に動画を静止画連番(jpg,png,webp)にする必要がある
補完は元動画のFPSに対してx2のみ
Flowflames
無料で最新より何個か前のバージョンが使える(寄付すると最新版)
CUDA版RIFEの変換速度が速い
シーンチェンジを検出して、その前後フレームの中間フレームを生成しないようにできる(使うと当然VFR動画になる)
動画を一旦静止画連番にするため、一時的に大容量が必要になる。その作業にHDDのアクセスがかなり掛かるため、速度の速いHDDかSSDがあったほうが望ましい
補完は元動画のFPSに対してx2とx4が使える
Davinci
補完後のFPSを自由に選べる
上のと違って静止画連番にする必要がない
処理時間は遅め
長文ですまない 元動画を25%ぐらいのスローモーションにして補間させてみると
各ソフトのフレーム補間性能がはっきりわかるようになるよ。 FidelityFX CAS v1.0.1
https://github
.com/GPUOpen-Effects/FidelityFX-CAS/releases/tag/v1.0.1 フレーム補間ってロゴや字幕に弱くない?そういう動画はAIに学習させてないのかな VideoEnhanceAIの体験版と製品版で処理速度の違いはあるのでしょうか? VEAIってOSを最新ストールしたら
また30日使えるのかね? >>938
そりゃ使えるだろうけど、そこまですることは・・・
たしかセールで半額以下だったはずだがもう終わったんかな >>938
そんなことしなくても新しいメアド登録すれば何回でも使えるだろ 今、150ドルなんだなVideo Enhance AI
これに何か割引クーポンコードとかあるんのか? 二週間前にクーポン込170ドルで買ったらなんか値下げ来てて草
絶妙なまでにタイミング悪すぎた
>>943
https://couponfollow.com/site/topazlabs.com
ここで15%オフってなってる奴のコード適当なの拾って使えば127.5ドルまで下がる
購入ページで試してみたけど、取り合えず上から三つ(SHOTKIT、msjphoto15、davidkelly)は生きてるみたいで普通に適応されるの確認した >>944
サンクス
VEAIってSD→HDは劇的に画質向上を感じるな dainアホほどVRAM食うのは別にいいのよ。遅くなってもいいから処理失敗で停止しないで動いておくれよ
12GのVRAMのグラボなんか買えないよ! >>944
こんなサイトあったのか。 横からだがサンクス スペック不足で起動すらしない泣いた Topaz Sharpen AI お試しすら出来ねー >>946
RTX3060がまさにVRAM12Gだぞ
エントリーモデルのくせに全然安くないけど 2.0.0ってそんなに良くないのだろうか?
Dioneは評判良くないみたいだけど、ArtemisLQは顔の映りがより自然になったなど、
以前より改善されているという声も海外ではあるようだけど >>951
LQ、MQは性能向上してるよね
昔収集した320×240とかの動画をスケールアップするには最適
HQは微妙になってきてる
インターレース解除はv1よりv2は各段に性能よくなった VEAIフレーム補間つけてくれないかなー
めんどくさい あら、VEAIはいつに間にかインタレース解除できるようになってたのな
これでインタレースソース、直で放りこめるから便利やな >>859
スレ終わる前にノイズ軽減お願い致します 元画像が難しいとgigapixelでも
塗り潰して線を強調したのがはっきり分かる処理になるんだな アナログ地上波の
VHS標準
VHS3倍
Beta U
VEAI2.0では設定は何がいいのかな? >>956
元画像は2003〜2005年頃のガラケー撮影なんかな? >>960
変顔にならないのならamq,alq
なるならthd,thfのdeblock多め
わたくしも迷ってございますわ >>959
アカウントにログインしたら99$って書いてあった
自分の場合元々クーポンで99$で買ってたからよくわかんねーなと思ったけど
多分共通だろう >>963
メッチャいいですね。
何のソフトですか? >>963
幾らくらいするソフトなんだろう
BFでセールあるかなw >>963
これちょっと別人になるやつちゃうの
知ってる人でやると多分気付くっていう 公取から回答来たんだけど、アスク税にかんして
証拠がないから独占禁止法の問題とはならないって言われた。証拠不十分ということで調査できなかったみたい。
検索できるか分からないけど
公審通第58号で検索してみてくれ。 >>966
VEAI 99ドルで買えた時もあったの? >>972
そりゃ予想して補正してるんだからどんなソフトだろうが元の画像が粗けりゃ別人になる >>976
俺はブラックフライデーのセールで100ドルになってたときに、いつもの15%OFFクーポン組み合わせて85ドルで購入した そりゃ Remini にはかなわないよね
私も Ai Gigapixel で
https://i.imgur.com/rU9MN81.jpg >>963
これってReminiなの?
なんかアプリ内課金の種類がいろいろあるんだけど、それぞれどういう課金内容だか誰か説明してください。
お願い! なんちゃらGAN系のやつで使いやすいGUI持ったソフトが欲しいのぉ >>982
https://github
.com/n00mkrad/cupscale Cupscale、Model Databaseから適当にモデル拾って試してみたけど
↓のメッセージが出てアップスケールできないや
> An error occured during upscaling:
インデックスが配列の境界外です。
> Stack Trace:
場所 Cupscale.Forms.ModelComparisonForm.<DoUpscale>d__8.MoveNext()
Dependency Checkerは全部有効になってる LRモバイルの無料枠でも使えるようにしてねハート サブスクとか勘弁なんで >>990
アプデしてみたけどそんな機能ねぇー! → M1Macだけでした。
記事にもちゃんと書いておけよ・・・ >>992
A14チップのiPadのみかにもアップデートされるんじゃね
A11からニューラルエンジン搭載してるんで
それ以降のApple端末でもかも可能なんだろうけど どうやらWindows10でも使えるみたいだけど、フォーラム見た感じアプデバグで一部使えない人がいる模様 誰かM1 Mac使いで試せる人いないの?
というより次スレどうする? waifu2xスレだった時は割とスレ立てしてたけど最近流行りのVEAIの事は門外漢だったからノータッチだったよ
誰か詳しい人スレタイ改案とテンプレ修正頼む このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 233日 23時間 14分 55秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。