画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。
--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/
・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436
・waifu2xとその派生ソフト一覧
http://kourindrug.sa kura.ne.jp/waifu2x.html
・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437
・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/
・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html
・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured
探検
【超解像】画像拡大ソフト総合スレ4【waifu2x】
■ このスレッドは過去ログ倉庫に格納されています
1名無しさん@お腹いっぱい。 (ワッチョイ 236c-uJ+0)
2018/10/16(火) 17:11:24.76ID:dbJHIFwl0260名無しさん@お腹いっぱい。 (ワッチョイWW 4fda-fbFq)
2019/05/04(土) 12:18:47.40ID:g8nWmqR40 >>258
原因が判明。
Xeon CPUx2+GTX1060で使ってんだけど、Core-i7+GTX1060のサブPCで試したら使えた。
OS、ドライバー等ソフトの環境は同じ。まさかCPUのせいとは。
原因が判明。
Xeon CPUx2+GTX1060で使ってんだけど、Core-i7+GTX1060のサブPCで試したら使えた。
OS、ドライバー等ソフトの環境は同じ。まさかCPUのせいとは。
261名無しさん@お腹いっぱい。 (ワッチョイ 6776-gJ33)
2019/05/05(日) 01:13:29.26ID:61owYgJd0 Waifu2x-caffeのReadmeには
TTA は指定するとPSNRが上がるよ
ぐらいにしか書いてないけど、
実際CUnetモデルを使う分にはアーティファクトが結構抑制される。(少なくとも当方の環境では)
今はEDSRを使った拡大を試してみてるんだけど、
Waifu2x(CUnet, TTA)に比べると、4xでも輪郭がくっきりしてる代わりにアーティファクトがちょこちょこでてしまうから、
誰かEDSRとTTA組み合わせてきてくれないかなあ、EDSRはNTSCサイズにそのまま使っても4xに15秒ぐらい(GTX1080)かかるから、
TTAなんてやったら余裕で分超えそうだけど
TTA は指定するとPSNRが上がるよ
ぐらいにしか書いてないけど、
実際CUnetモデルを使う分にはアーティファクトが結構抑制される。(少なくとも当方の環境では)
今はEDSRを使った拡大を試してみてるんだけど、
Waifu2x(CUnet, TTA)に比べると、4xでも輪郭がくっきりしてる代わりにアーティファクトがちょこちょこでてしまうから、
誰かEDSRとTTA組み合わせてきてくれないかなあ、EDSRはNTSCサイズにそのまま使っても4xに15秒ぐらい(GTX1080)かかるから、
TTAなんてやったら余裕で分超えそうだけど
262名無しさん@お腹いっぱい。 (ワッチョイ e2b1-lccj)
2019/05/05(日) 02:34:10.45ID:KctNE4Ca0 Linux環境でwaifu2x-ncnn-vulkanをビルドしてみたんだが
Mesa19.0.3だとfp16s使ってたのが
Mesa-Gitだとint8sを使うようになった
自分の環境ではそれで前者は33秒かかった処理が後者だと29秒になった
VK_KHR_shader_float16_int8対応の有無によるものだろうけど具体的にはわからん
Mesa19.0.3だとfp16s使ってたのが
Mesa-Gitだとint8sを使うようになった
自分の環境ではそれで前者は33秒かかった処理が後者だと29秒になった
VK_KHR_shader_float16_int8対応の有無によるものだろうけど具体的にはわからん
263名無しさん@お腹いっぱい。 (コードモWW 27cf-JJ5l)
2019/05/05(日) 06:04:51.50ID:YGDAWLlo00505 >>261
ESDRって何ぞ?
ESDRって何ぞ?
264名無しさん@お腹いっぱい。 (コードモ 6211-whR5)
2019/05/05(日) 08:03:09.55ID:6VIw4tX500505 >>261
EDSRで綺麗に拡大できないのはこれのせいだろうね
waifu2xだと縮小時のフィルタを何種類かランダムで使用して学習してるから問題が起きにくいけど
https://twitter.com/ultraistter/status/1048561959187009542
> 論文だと学習データの縮小アルゴリズム固定しているの多いけど、これやると使ってる縮小アルゴリズムにオーバーフィッティングしてて同じ縮小でベンチマークやるから精度良いことになるけど、
> 現実ではなにが使われているか分からないので変なノイズ出たりで使い物にならなくなる
https://twitter.com/5chan_nel (5ch newer account)
EDSRで綺麗に拡大できないのはこれのせいだろうね
waifu2xだと縮小時のフィルタを何種類かランダムで使用して学習してるから問題が起きにくいけど
https://twitter.com/ultraistter/status/1048561959187009542
> 論文だと学習データの縮小アルゴリズム固定しているの多いけど、これやると使ってる縮小アルゴリズムにオーバーフィッティングしてて同じ縮小でベンチマークやるから精度良いことになるけど、
> 現実ではなにが使われているか分からないので変なノイズ出たりで使い物にならなくなる
https://twitter.com/5chan_nel (5ch newer account)
265名無しさん@お腹いっぱい。 (コードモ 6211-whR5)
2019/05/05(日) 08:10:27.99ID:6VIw4tX500505 EDSRの論文著者がバイキュービックでガチガチにトレーニングしてるからそれ以外の画像だと綺麗に拡大出来ないって言ってる
https://github.com/thstkdgus35/EDSR-PyTorch/issues/34#issuecomment-389725742
https://github.com/thstkdgus35/EDSR-PyTorch/issues/34#issuecomment-389725742
266名無しさん@お腹いっぱい。 (コードモ 6776-gJ33)
2019/05/05(日) 12:12:11.20ID:61owYgJd00505267名無しさん@お腹いっぱい。 (コードモ 6776-gJ33)
2019/05/05(日) 12:19:11.63ID:61owYgJd00505 そういえばちょっと前にCUnetやUpResNet10では分割数で出力結果が変わってしまうから
分割数と実行時間のトレードオフみたいな話題が出てたけど
ディープラーニングが一般化する以前に使われていた
ループエンコーディングを利用した高解像度拡大アルゴリズムをちょっと応用して。(東芝がやってたやつ)
1. CUnet分割512で拡大
2. 各区画を縮小して、元画像と差分を取る。
3. 差分の大きな区画に関しては、拡大に際しアーティファクトなどが発生していると考えられる。
4. 差分の大きな区画のみ分割を半分程度にして拡大しなおす。
以下くりかえし。
ってのはできないのかな?
分割数と実行時間のトレードオフみたいな話題が出てたけど
ディープラーニングが一般化する以前に使われていた
ループエンコーディングを利用した高解像度拡大アルゴリズムをちょっと応用して。(東芝がやってたやつ)
1. CUnet分割512で拡大
2. 各区画を縮小して、元画像と差分を取る。
3. 差分の大きな区画に関しては、拡大に際しアーティファクトなどが発生していると考えられる。
4. 差分の大きな区画のみ分割を半分程度にして拡大しなおす。
以下くりかえし。
ってのはできないのかな?
268名無しさん@お腹いっぱい。 (コードモ MM9f-JJ5l)
2019/05/05(日) 14:48:27.00ID:gD5f8BncM0505 究極を目指すのであれば、縦横3×3か5×5程度のミニブロック単位で処理して、拡大後のミニブロックどうしで再度整合性を取るのがいいような気もする
めちゃくちゃ時間かかるけど
めちゃくちゃ時間かかるけど
269名無しさん@お腹いっぱい。 (コードモ 6776-gJ33)
2019/05/05(日) 15:38:36.41ID:61owYgJd00505 ふと思ったんですけど、ノイズを除去するモデルは存在するのに、
アーティファクトを除去するモデルはないっぽい?のは何か大きな理由があるんですかね?
人間はそれを見てアーティファクトかそうでないかをある程度判断できるわけで、
素人的にはそういう人間の無意識のうちの振り分けを再現するのってニューラルネットワークは得意そうに見えるのだけれども。
アーティファクトを除去するモデルはないっぽい?のは何か大きな理由があるんですかね?
人間はそれを見てアーティファクトかそうでないかをある程度判断できるわけで、
素人的にはそういう人間の無意識のうちの振り分けを再現するのってニューラルネットワークは得意そうに見えるのだけれども。
270名無しさん@お腹いっぱい。 (コードモ MM02-R0y6)
2019/05/05(日) 16:39:29.34ID:4uUJLCU+M0505 >>267は手順2で拡大した大きさの元画像がないとできないから特に意味がないような
アーティファクトについては、正解となる元画像と縮小拡大画像を比較する学習原理からすると
現状の拡大モデルで既にアーティファクトをなくそうとはしているはずなわけで
アーティファクトを消すだけのモデルを作ったところで、ノイズ除去を二重に掛けるみたいな結果にしかならないんじゃないかな
アーティファクトについては、正解となる元画像と縮小拡大画像を比較する学習原理からすると
現状の拡大モデルで既にアーティファクトをなくそうとはしているはずなわけで
アーティファクトを消すだけのモデルを作ったところで、ノイズ除去を二重に掛けるみたいな結果にしかならないんじゃないかな
271名無しさん@お腹いっぱい。 (ワッチョイ 6776-gJ33)
2019/05/06(月) 03:09:12.68ID:WQB9nEdR0 RCANは実行時間的にTTAはやってないっぽい?ので、TTA処理を付けたしたらどうなるか実験してみる。
トレーニングじゃなくて中身に手を出すのは初めてなのでまあ、多分どっかでこけるでしょ。
トレーニングじゃなくて中身に手を出すのは初めてなのでまあ、多分どっかでこけるでしょ。
272名無しさん@お腹いっぱい。 (ワッチョイ 6776-gJ33)
2019/05/06(月) 16:22:40.78ID:WQB9nEdR0 ソースコード読んだりGANの理論見たりしててふと思ったんだけど、
わざとアーティファクトを発生させるGeneratorを作って、
ある画像にアーティファクトが発生しているかどうかを見分けるDiscriminatorも作って。
ここで学習させたDiscriminatorをArtifact Loss関数として
そこらの超高解像の損失関数に、付け加えて
もともとの損失関数の出力を極力小さく保ちつつ、かつArtifact Lossも小さく保つモデルとか作れないのかな?
わざとアーティファクトを発生させるGeneratorを作って、
ある画像にアーティファクトが発生しているかどうかを見分けるDiscriminatorも作って。
ここで学習させたDiscriminatorをArtifact Loss関数として
そこらの超高解像の損失関数に、付け加えて
もともとの損失関数の出力を極力小さく保ちつつ、かつArtifact Lossも小さく保つモデルとか作れないのかな?
273名無しさん@お腹いっぱい。 (ワッチョイW e2f4-IcTs)
2019/05/06(月) 20:42:31.88ID:2/IyLREF0 >>272画像指標は落ちそうだけど見た目は綺麗になるかもね
274名無しさん@お腹いっぱい。 (ワッチョイ 9f11-vM1y)
2019/05/10(金) 20:42:06.30ID:TUjQ7Fi60275名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/10(金) 23:38:50.29ID:w4J1WUH60 VulkanのGUI版誰か作ってくれないかな…
276名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/14(火) 11:16:40.53ID:v9RTX3rB0 Ryzen7でVulkan使って変換しようとしても
[0 AMD Radeon(TM) RX Vega 10 Graphics] queueC=1 queueT=2 memU=2 memDL=0 memHV=1
[0 AMD Radeon(TM) RX Vega 10 Graphics] fp16s=1 fp16a=0 int8s=1 int8a=0
vkCreateShaderModule failed -3
local_shader_module 0000000000000000 waifu2x_preproc_int8s created
ってなって変換できないんだけどだれか原因わからないかな?
知識なくてお手上げ…
[0 AMD Radeon(TM) RX Vega 10 Graphics] queueC=1 queueT=2 memU=2 memDL=0 memHV=1
[0 AMD Radeon(TM) RX Vega 10 Graphics] fp16s=1 fp16a=0 int8s=1 int8a=0
vkCreateShaderModule failed -3
local_shader_module 0000000000000000 waifu2x_preproc_int8s created
ってなって変換できないんだけどだれか原因わからないかな?
知識なくてお手上げ…
277名無しさん@お腹いっぱい。 (ワッチョイ 9fb1-E9kx)
2019/05/14(火) 11:24:05.45ID:eUsXHcZ30 ncnnをちゃんと -DNCNN_VULKAN=ON を付けてcmakeしてるか
waifu2x-vulkanのCMakeLists.txtの
include_directories、link_directoriesをちゃんと書き換えてるか
はどう?
waifu2x-vulkanのCMakeLists.txtの
include_directories、link_directoriesをちゃんと書き換えてるか
はどう?
278名無しさん@お腹いっぱい。 (ワッチョイ 9fb1-E9kx)
2019/05/14(火) 11:27:53.64ID:eUsXHcZ30 ごめん、配布されてるバイナリを使ってるならドライバの問題かもしれない
279名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/14(火) 11:38:26.08ID:v9RTX3rB0 CMakeLists.txtってのはフォルダにないみたいですね…
もうちょっといろいろ試してみます
もうちょっといろいろ試してみます
280名無しさん@お腹いっぱい。 (ワッチョイWW 9f5d-uU7i)
2019/05/14(火) 11:42:28.85ID:XRvrSnpa0 >>276
自分も同じようになったけどGPUのドライバを更新したら使えるようになったよ
自分も同じようになったけどGPUのドライバを更新したら使えるようになったよ
281名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/14(火) 15:38:46.04ID:v9RTX3rB0 >>280
ドライバ更新したらいけた!ありがとう〜
ドライバ更新したらいけた!ありがとう〜
282名無しさん@お腹いっぱい。 (ワッチョイ 7790-qbCp)
2019/05/14(火) 17:13:58.82ID:0XCEBJGX0 >>275
バッチファイルで良いじゃん
バッチファイルで良いじゃん
283名無しさん@お腹いっぱい。 (ワッチョイ b735-y0Vo)
2019/05/14(火) 21:44:34.13ID:v9RTX3rB0 >>282
GUI作って公開してくれてる人がいたからありがたく使わせてもらってる
倍率は1倍と2倍以外は使えないみたいだけど
https://github.com/f11894/waifu2x-chainer-GUI
GUI作って公開してくれてる人がいたからありがたく使わせてもらってる
倍率は1倍と2倍以外は使えないみたいだけど
https://github.com/f11894/waifu2x-chainer-GUI
284名無しさん@お腹いっぱい。 (ワッチョイ eecf-2kBU)
2019/05/16(木) 17:14:24.32ID:uoSLJfe80 ・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も
-100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x1.jpg.html
+100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x2.jpg.html
嘘だろw
別の写真じゃないのか?
テクスチャー、フリンジ除去など バッチ編集も
-100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x1.jpg.html
+100
https://dc.watch.impress.co.jp/img/dcw/docs/1184/626/html/x2.jpg.html
嘘だろw
別の写真じゃないのか?
285名無しさん@お腹いっぱい。 (ワントンキン MM88-a8/e)
2019/05/16(木) 17:48:03.77ID:cUiSCQ1XM >>284
±0はないの?
±0はないの?
286名無しさん@お腹いっぱい。 (ワッチョイ eecf-2kBU)
2019/05/17(金) 13:24:05.39ID:Y6hmCawT0 >>285
元の記事のリンクが抜けていたな
・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も
https://dc.watch.impress.co.jp/docs/news/1184626.html
記事中にはない模様
本家の情報もあまりない
https://helpx.adobe.com/jp/lightroom-cc/using/whats-new/2019-3.html#texture
続く
元の記事のリンクが抜けていたな
・Adobe Lightroomに新しい編集コントロール機能
テクスチャー、フリンジ除去など バッチ編集も
https://dc.watch.impress.co.jp/docs/news/1184626.html
記事中にはない模様
本家の情報もあまりない
https://helpx.adobe.com/jp/lightroom-cc/using/whats-new/2019-3.html#texture
続く
287名無しさん@お腹いっぱい。 (ワッチョイ eecf-2kBU)
2019/05/17(金) 13:26:01.00ID:Y6hmCawT0 比較してくれているサイトがあった
・LightroomとCamera Rawに「テクスチャ」スライダーが追加 肌を簡単に綺麗に出来る!?
(なぜかリンク貼ると怒るので記事のタイトルを検索してください)
この手法(中周波成分を操作する方法)、どこかで聞いたようなと記憶があるんだけど思い出せない。
SONYのテレビだったかレコーダーあたりでこの手法のようなことをアピールしていたような記憶があるのだけど…
(他メーカーも口には出さないが、隠し味程度に使っているようだけど)
・LightroomとCamera Rawに「テクスチャ」スライダーが追加 肌を簡単に綺麗に出来る!?
(なぜかリンク貼ると怒るので記事のタイトルを検索してください)
この手法(中周波成分を操作する方法)、どこかで聞いたようなと記憶があるんだけど思い出せない。
SONYのテレビだったかレコーダーあたりでこの手法のようなことをアピールしていたような記憶があるのだけど…
(他メーカーも口には出さないが、隠し味程度に使っているようだけど)
288名無しさん@お腹いっぱい。 (アウアウクー MMd2-55EA)
2019/05/17(金) 18:45:53.22ID:pkl3fT7EM ソニー、繰り返しフルカラー描画できるフィルムを開発 熱で発色状態を変化 装飾のみならず写真画質も
https://dc.watch.impress.co.jp/docs/news/1185122.html
マイクロドットプリンター以来の新印刷方式登場かな?
なめらかな階調をカラー印刷で実現は素晴らしい
https://dc.watch.impress.co.jp/docs/news/1185122.html
マイクロドットプリンター以来の新印刷方式登場かな?
なめらかな階調をカラー印刷で実現は素晴らしい
289名無しさん@お腹いっぱい。 (ワッチョイ df29-1+kT)
2019/05/23(木) 15:04:57.20ID:pn9ulyEn0 すげえ
Samsungが1枚の写真や絵画からリアルな会話アニメーションを作成できる技術を開発
https://gigazine.net/news/20190523-samsung-ai-animate-painting/
https://i.gzn.jp/img/2019/05/23/samsung-ai-animate-painting/00.png
Samsungが1枚の写真や絵画からリアルな会話アニメーションを作成できる技術を開発
https://gigazine.net/news/20190523-samsung-ai-animate-painting/
https://i.gzn.jp/img/2019/05/23/samsung-ai-animate-painting/00.png
290名無しさん@お腹いっぱい。 (ワッチョイWW bfcf-QHkU)
2019/05/23(木) 15:10:52.41ID:eTN5wD9X0 別人が混じってるレベルw
291名無しさん@お腹いっぱい。 (ワッチョイ 076d-dCWx)
2019/05/23(木) 18:59:41.60ID:hHkb4j4M0 アニメ向けにチューンしたらlive2d要らなくなるな
292名無しさん@お腹いっぱい。 (ワッチョイ df11-5bJk)
2019/05/25(土) 21:26:28.66ID:FaY1aX6g0 低解像度ビデオもすぐに高解像度に変換できる超解像アルゴリズムTecoGANがすごい
https://ai-scholar.tech/treatise/tecogan-154/
https://imgur.com/1sH5fLl.gif
https://imgur.com/bOvZFqD.gif
https://imgur.com/re5hkgB.gif
https://www.youtube.com/watch?v=pZXFXtfd-Ak
https://ai-scholar.tech/treatise/tecogan-154/
https://imgur.com/1sH5fLl.gif
https://imgur.com/bOvZFqD.gif
https://imgur.com/re5hkgB.gif
https://www.youtube.com/watch?v=pZXFXtfd-Ak
293名無しさん@お腹いっぱい。 (アウアウウー Saab-c5/w)
2019/05/25(土) 22:27:12.02ID:vmLLAtmla すごそう
294名無しさん@お腹いっぱい。 (アウアウウーT Saab-Fpyl)
2019/05/25(土) 23:04:33.03ID:CKP6oNsUa カメラが動いてないと実質同フレームからしか補完できないだろうし、動きのある実写向きだろうか
リミテッドアニメにはあまり効果が無さそうな気がする
リミテッドアニメにはあまり効果が無さそうな気がする
295名無しさん@お腹いっぱい。 (ワッチョイ a7d0-1+kT)
2019/05/25(土) 23:43:44.58ID:7GZyvIYF0 >>292
これはすごい
これはすごい
296名無しさん@お腹いっぱい。 (ワッチョイWW 67cf-QHkU)
2019/05/26(日) 00:59:31.09ID:TWwSVOjY0 テコすごいなぁ
waifu2x最大の欠点である輪郭の違和感や斜め線の不自然さが感じられない
waifu2x最大の欠点である輪郭の違和感や斜め線の不自然さが感じられない
297名無しさん@お腹いっぱい。 (ワッチョイ dff1-UZr9)
2019/05/26(日) 11:29:04.16ID:pO82b6+30 ビデオ撮影の頃の特撮に使ってみたい。
298名無しさん@お腹いっぱい。 (ワッチョイ 8781-fhgQ)
2019/05/26(日) 12:24:05.47ID:1V1/pKG70 今までのGANと何が違うのかはわからなかった
299名無しさん@お腹いっぱい。 (アウアウクー MM5b-QHkU)
2019/05/26(日) 12:43:57.99ID:kBnnBn4FM300名無しさん@お腹いっぱい。 (ワッチョイ df11-5bJk)
2019/05/26(日) 15:17:53.68ID:cR7q12SK0301名無しさん@お腹いっぱい。 (アウアウクー MM5b-QHkU)
2019/05/26(日) 15:22:39.77ID:kBnnBn4FM >>300
一応あるんだね
誰かGUI化プリーズ!
ついでに、これって学習型超解像系では数少ない動画対応なわけだが、超解像実施時に同時に
インターレース解除も学習型で高品質にやってくれたらパーフェクトなんだけど、
さすがにそれは難しいのだろうか?
一応あるんだね
誰かGUI化プリーズ!
ついでに、これって学習型超解像系では数少ない動画対応なわけだが、超解像実施時に同時に
インターレース解除も学習型で高品質にやってくれたらパーフェクトなんだけど、
さすがにそれは難しいのだろうか?
302名無しさん@お腹いっぱい。 (ワッチョイ df27-B5bR)
2019/05/26(日) 21:29:46.06ID:+ch5bYuC0 インターレース解除なんて極端な話1フィールド分を縦2倍に拡大すればいいんでしょ
時間軸超解像だから下手に解像度落ちることも無いだろうし
あとはどのように間引きするかどうかと下手な編集でフィールドの順番狂う場合とかの補正だけど
時間軸超解像だから下手に解像度落ちることも無いだろうし
あとはどのように間引きするかどうかと下手な編集でフィールドの順番狂う場合とかの補正だけど
303名無しさん@お腹いっぱい。 (ワッチョイW dff4-zbZi)
2019/05/26(日) 21:56:57.82ID:jwyQIbn+0 KTGMCでいいじゃん
304名無しさん@お腹いっぱい。 (アウアウウーT Saab-Fpyl)
2019/05/28(火) 17:40:21.03ID:UrzVhcxva KTGMCって引き延ばしはneedi3っぽいから、画質は今時のAIには大分及ばないんじゃないの
静止画を縦2倍拡大するでもなく、3次元的にAIが補完してくれたら、ずっと画質が上がりそうに思える
静止画を縦2倍拡大するでもなく、3次元的にAIが補完してくれたら、ずっと画質が上がりそうに思える
305名無しさん@お腹いっぱい。 (アウアウクー MM5b-QHkU)
2019/05/28(火) 20:42:29.81ID:gEBPW0REM だよね
しかしディープラーニング系のインターレース解除の話って、なぜか出てこないよな
しかしディープラーニング系のインターレース解除の話って、なぜか出てこないよな
306名無しさん@お腹いっぱい。 (ニククエ 6791-1+kT)
2019/05/29(水) 14:25:15.09ID:ftyZ12/y0NIKU GoogleのAIが「ムービーの最初と最後のコマ」から途中のコマを生成することに成功
https://gigazine.net/news/20190529-ai-video-start-end-frames/
https://i.gzn.jp/img/2019/05/29/ai-video-start-end-frames/img-snap00034.jpg
研究者らは「マンガのコマから自動でアニメーションを作ることができるシステムを想像してみてください。
間違いなくアニメーション業界に革命を起こすでしょう」と述べています。
https://gigazine.net/news/20190529-ai-video-start-end-frames/
https://i.gzn.jp/img/2019/05/29/ai-video-start-end-frames/img-snap00034.jpg
研究者らは「マンガのコマから自動でアニメーションを作ることができるシステムを想像してみてください。
間違いなくアニメーション業界に革命を起こすでしょう」と述べています。
307名無しさん@お腹いっぱい。 (ニククエWW 7fc0-PYFn)
2019/05/29(水) 19:29:46.17ID:IYomfBXq0NIKU TecoGANのソフトまだー?
308名無しさん@お腹いっぱい。 (ワッチョイ 8f81-vDLl)
2019/05/30(木) 08:30:07.25ID:SkzC95NL0309名無しさん@お腹いっぱい。 (ワッチョイ be5b-bIfI)
2019/05/30(木) 19:08:18.35ID:/ORdI6JU0 TecoGAN凄すぎるな
鎧の網目とか、従来の手法だと潰れて酷いことになってたのに
まだ論文読んでないけど、どうやって改善したのか見当もつかん
それで動画対応って、進化の段階2つくらいすっ飛ばしてる感ある
鎧の網目とか、従来の手法だと潰れて酷いことになってたのに
まだ論文読んでないけど、どうやって改善したのか見当もつかん
それで動画対応って、進化の段階2つくらいすっ飛ばしてる感ある
310名無しさん@お腹いっぱい。 (アウアウウーT Sa1f-yed5)
2019/05/30(木) 21:21:47.79ID:qhWSo5x/a それは考え方が逆だろう
前後のフレームを参照できる動画だから静止画よりも綺麗に出来るわけで
前後のフレームを参照できる動画だから静止画よりも綺麗に出来るわけで
311名無しさん@お腹いっぱい。 (ワッチョイWW cbcf-48b9)
2019/05/30(木) 21:45:25.74ID:fQanmDs/0 テコは静止画に適用することはできるのだろうか?
前後フレームの比較が必須の動作であれば、同じ画像を2枚連続再生みたいにしても無理かな?
前後フレームの比較が必須の動作であれば、同じ画像を2枚連続再生みたいにしても無理かな?
312名無しさん@お腹いっぱい。 (ワイモマー MM8a-qmTP)
2019/05/30(木) 22:50:53.11ID:YdmeTxotM これに限った話ではないが、前後から元情報を多く参照することで画質を上げる動画の超解像は
その原理からして被写体が複雑な動きや速い動きをせず、カメラは止まっておらずかつ速すぎないと強く効果が発揮される
サンプルも全部そんな感じになってるし、そこから外れるような、例えば静止画を並べただけの動画とかは
元情報を増やしようがないので、既存の静止画の超解像と変わり映えのしないものしかできないだろう
その原理からして被写体が複雑な動きや速い動きをせず、カメラは止まっておらずかつ速すぎないと強く効果が発揮される
サンプルも全部そんな感じになってるし、そこから外れるような、例えば静止画を並べただけの動画とかは
元情報を増やしようがないので、既存の静止画の超解像と変わり映えのしないものしかできないだろう
313名無しさん@お腹いっぱい。 (ワッチョイ 8f81-vDLl)
2019/05/31(金) 08:21:13.31ID:XEZ+0fl20 学習済みモデルに適当な動画入れたけどあんまきれいにならんかった
やっぱそれなりに似た動画で訓練させないとだめだな
やっぱそれなりに似た動画で訓練させないとだめだな
314名無しさん@お腹いっぱい。 (ワッチョイ caf6-2ZOZ)
2019/06/03(月) 03:02:51.07ID:q11/n1qz0 なあVBでGUIから実行ファイルに引数を渡すだけのソフトつくってるんやが・・・
複数のファイルを渡そうとすると変換自体はできるんだけど
「process successfully done」が表示されなくてファイルの出力ができないんだけどなんでや?
ちなみに↓みたいに1個ずつ処理する時はちゃんと出力される(同じディレクトリに保存される)
Dim waifu2x As String = """C:\waifu2x-converter_x64.exe"""
Dim hikisuu As String = " -i 入力元パス -m noise_scale --noise_level 1 --scale_ratio 1.6 --model_dir モデルのディレクトリ"
Dim p As System.Diagnostics.Process = System.Diagnostics.Process.Start(waifu2x, hikisuu)
もしかして、複数渡す時は-oを使って出力先指定しないとダメなのか?
複数のファイルを渡そうとすると変換自体はできるんだけど
「process successfully done」が表示されなくてファイルの出力ができないんだけどなんでや?
ちなみに↓みたいに1個ずつ処理する時はちゃんと出力される(同じディレクトリに保存される)
Dim waifu2x As String = """C:\waifu2x-converter_x64.exe"""
Dim hikisuu As String = " -i 入力元パス -m noise_scale --noise_level 1 --scale_ratio 1.6 --model_dir モデルのディレクトリ"
Dim p As System.Diagnostics.Process = System.Diagnostics.Process.Start(waifu2x, hikisuu)
もしかして、複数渡す時は-oを使って出力先指定しないとダメなのか?
315名無しさん@お腹いっぱい。 (ワッチョイ ea11-IoUc)
2019/06/05(水) 18:40:47.80ID:6GS8491t0 TecoGANで超解像出来るソフト出てきたっぽい
性能はまだ試してないから分からん
https://twitter.com/Javski2/status/1135114902106861568
https://twitter.com/5chan_nel (5ch newer account)
性能はまだ試してないから分からん
https://twitter.com/Javski2/status/1135114902106861568
https://twitter.com/5chan_nel (5ch newer account)
316名無しさん@お腹いっぱい。 (アウアウエーT Sae2-yed5)
2019/06/05(水) 19:57:55.39ID:Vm8XJtxha 向いている動画では2D超解像よりも細かいディティールを取り出せたりもするが、アーティファクトが結構強め
取り敢えず現状で汎用的に動画に使用するには、別ソフトで先にノイズ除去が必須かなあ
3DNR的なことを一緒に学習してくれれば
取り敢えず現状で汎用的に動画に使用するには、別ソフトで先にノイズ除去が必須かなあ
3DNR的なことを一緒に学習してくれれば
317名無しさん@お腹いっぱい。 (ワッチョイ eaa1-f8CH)
2019/06/05(水) 20:00:49.77ID:UAm3olJ/0 AVのモザイク部分を超解像で補間するのか。考えたな。
318名無しさん@お腹いっぱい。 (ワッチョイ eaa1-f8CH)
2019/06/05(水) 22:11:08.29ID:6yBp3sEW0 TecoGAN試してみた。
1070Ti(Mem 6Gb)だと、720x480を入力するとメモリが足りなくてエラーが出る。
720x480をリサイズして360x240にすると、1440x960(4倍)にしてくれるが、
解像度が上がったかよく分からない。
720x480→1440x960(2倍)の設定で、メモリエラーを吐かなくするにはどうしたらいいんだろう。
1070Ti(Mem 6Gb)だと、720x480を入力するとメモリが足りなくてエラーが出る。
720x480をリサイズして360x240にすると、1440x960(4倍)にしてくれるが、
解像度が上がったかよく分からない。
720x480→1440x960(2倍)の設定で、メモリエラーを吐かなくするにはどうしたらいいんだろう。
319名無しさん@お腹いっぱい。 (テトリス 2df0-LJAA)
2019/06/06(木) 21:51:59.38ID:CIcmT6zC00606 waifu2xの本家は拡大しない場合、ファイルサイズも小さくなって良かったんだけど
2x系の他のは大体大きくなっちゃうんね
本家は当分復帰できなそうだしなんかいいの無いかなぁ
2x系の他のは大体大きくなっちゃうんね
本家は当分復帰できなそうだしなんかいいの無いかなぁ
320名無しさん@お腹いっぱい。 (アウアウクー MM23-ZXHS)
2019/06/06(木) 22:25:11.60ID:XAE4ieKNM 商用ソフトウェアでディープラーニングを活用した画像拡大ソフトウェアとか出ないのかな?
321名無しさん@お腹いっぱい。 (ワッチョイWW 3bda-nxHx)
2019/06/06(木) 22:49:50.71ID:qJMz8Q1c0 出来てもニッチすぎて法人向けしか発売しないんじゃね
322名無しさん@お腹いっぱい。 (ワッチョイ c323-ANyO)
2019/06/07(金) 10:40:09.00ID:la8yChLX0 >>320
仕事で画像扱う人は解像度高い画像用意するからな
仕事で画像扱う人は解像度高い画像用意するからな
323名無しさん@お腹いっぱい。 (ワッチョイ bfbc-K3Ee)
2019/06/08(土) 23:41:45.90ID:/XBZt5lM0324名無しさん@お腹いっぱい。 (アウアウクー MM23-ZXHS)
2019/06/10(月) 02:08:29.92ID:66JpaA5xM RTX2080〜2060がマイナーアップデートされるっぽいが、2060のVRAMがいよいよ8GBになると、
メモリーを必要としやすいwaifu2xなどの画像処理ソフトの普及に貢献することになるのだろうか?
メモリーを必要としやすいwaifu2xなどの画像処理ソフトの普及に貢献することになるのだろうか?
325名無しさん@お腹いっぱい。 (ワッチョイ 535b-uQfi)
2019/06/10(月) 07:52:11.23ID:FXpFHTRQ0 微妙じゃね
一般人からしたら2060ですら高いし、趣味で少し深層学習するやつらは既にtensorコアの数見て2070以上買ってるのでは
グラボの話してるとTesla欲しくなってくる
一般人からしたら2060ですら高いし、趣味で少し深層学習するやつらは既にtensorコアの数見て2070以上買ってるのでは
グラボの話してるとTesla欲しくなってくる
326名無しさん@お腹いっぱい。 (ワッチョイ e311-CMXr)
2019/06/12(水) 06:38:04.51ID:kjEMwrKr0 waifu2x-ncnn-vulkan version 20190611
https://github.com/nihui/waifu2x-ncnn-vulkan/releases/tag/20190611
build with ncnn 20190611, faster conversion speed
https://github.com/nihui/waifu2x-ncnn-vulkan/releases/tag/20190611
build with ncnn 20190611, faster conversion speed
327名無しさん@お腹いっぱい。 (ワッチョイ e311-CMXr)
2019/06/12(水) 06:40:07.75ID:kjEMwrKr0 変換速度が更に速くなったのはいいけど2倍以上にも拡大出来るようになってほしいねえ
328名無しさん@お腹いっぱい。 (ワッチョイ 91f6-KbKT)
2019/06/12(水) 10:35:29.81ID:MbRWERiy0 畳の目の部分とか凄い
https://www.nicovideo.jp/watch/sm35228765
https://www.nicovideo.jp/watch/sm35228765
329名無しさん@お腹いっぱい。 (ワッチョイ 4ebc-2qry)
2019/06/14(金) 15:17:46.59ID:a/zZxWho0330名無しさん@お腹いっぱい。 (ワンミングク MM8a-NVMV)
2019/06/14(金) 16:23:50.13ID:OiW6h4t/M PNGレベル変えられるようになるなら俺は低い方が必要かな
PNGで出すと処理時間が最大1.5倍とかになるから、10万枚とか出す場合はBMPで出してるけど500GBとかに膨らんだフォルダ見るとなんだかなぁってなる。
PNGで出すと処理時間が最大1.5倍とかになるから、10万枚とか出す場合はBMPで出してるけど500GBとかに膨らんだフォルダ見るとなんだかなぁってなる。
331名無しさん@お腹いっぱい。 (ワッチョイWW f3cf-rpCp)
2019/06/16(日) 04:17:12.25ID:xncohqpB0 ・西川善司の3DGE:次世代GPU「Navi」の詳細とRadeon Softwareの新機能をレポート。操作遅延を低減する「Anti-Lag」は本当に効くのか?
https://www.4gamer.net/games/337/G033715/20190612140/
「Image Sharpeningは,一種のシャープネスフィルタである。
しかし,説明を聞く限り,そのアルゴリズムは2008年発売の東芝レグザ7000番台が使っていた超解像アルゴリズムとそっくりであるため,
超解像処理といっても問題はなかろう。
実際にAMDも,2560×1440ピクセルで描画したフレームに対して,Image Sharpeningを適用した結果を4K解像度の描画と比較して,
「4K/60pレンダリングができないGPUでも,疑似4Kゲーム体験ができる」とアピールしていた。」
NVIDIA、AMDともに、いよいよ超解像技術を利用できるようになってきたか
問題は、このスレの場合、その技術を一般的な画像に適用して出力させることができるのかどうかなわけだが、
そのあたりはNVIDIA、AMDともにいまいちよくわからん
https://www.4gamer.net/games/337/G033715/20190612140/
「Image Sharpeningは,一種のシャープネスフィルタである。
しかし,説明を聞く限り,そのアルゴリズムは2008年発売の東芝レグザ7000番台が使っていた超解像アルゴリズムとそっくりであるため,
超解像処理といっても問題はなかろう。
実際にAMDも,2560×1440ピクセルで描画したフレームに対して,Image Sharpeningを適用した結果を4K解像度の描画と比較して,
「4K/60pレンダリングができないGPUでも,疑似4Kゲーム体験ができる」とアピールしていた。」
NVIDIA、AMDともに、いよいよ超解像技術を利用できるようになってきたか
問題は、このスレの場合、その技術を一般的な画像に適用して出力させることができるのかどうかなわけだが、
そのあたりはNVIDIA、AMDともにいまいちよくわからん
332名無しさん@お腹いっぱい。 (ワッチョイW faf4-NVMV)
2019/06/16(日) 21:31:36.02ID:zMP2l3DG0 >>331
この頃のRegzaの超解像って1度拡大した画像を元の解像度に戻して差分を計測、加味して再び拡大だったように思うんだけど
Aviutlでそれを再現したフィルタ作ってる人が居て、試すとアンシャープマスクよりは良いシャープフィルタといった感じだったな
この頃のRegzaの超解像って1度拡大した画像を元の解像度に戻して差分を計測、加味して再び拡大だったように思うんだけど
Aviutlでそれを再現したフィルタ作ってる人が居て、試すとアンシャープマスクよりは良いシャープフィルタといった感じだったな
333名無しさん@お腹いっぱい。 (ワッチョイ 1a27-2/YF)
2019/06/16(日) 21:38:13.70ID:DBsuQn0S0 斜めの繋がりを考慮しないジャギーとハロー生成フィルタだったな
差分を2乗した非線形USMのが軽くてマシという
差分を2乗した非線形USMのが軽くてマシという
334名無しさん@お腹いっぱい。 (アウアウエーT Sa52-vI2o)
2019/06/16(日) 21:53:23.05ID:FiL+MiW2a リアルタイム処理でGPUの負荷が1%以下という辺りからすると
全く新しいアルゴリズムを使っているのでもない限り
既存の画像の超解像と比べられるレベルの物じゃなさそう
全く新しいアルゴリズムを使っているのでもない限り
既存の画像の超解像と比べられるレベルの物じゃなさそう
335名無しさん@お腹いっぱい。 (ワッチョイWW bbda-cDow)
2019/06/16(日) 21:58:56.01ID:jISQupI40 拡大にはやっぱり限界があるよねぇ
細部もまともだなって思うのは1.5倍くらいまでだもん
waifu2xすら2倍拡大ってのも納得だよ
細部もまともだなって思うのは1.5倍くらいまでだもん
waifu2xすら2倍拡大ってのも納得だよ
336名無しさん@お腹いっぱい。 (アウアウクー MMfb-rpCp)
2019/06/17(月) 23:22:16.76ID:CCaEZAVLM ・ラズパイでの機械学習を高速化するGoogle製アクセラレータがKSYから発売
https://pc.watch.impress.co.jp/docs/news/1190923.html
なんぞ役に立つかね?
https://pc.watch.impress.co.jp/docs/news/1190923.html
なんぞ役に立つかね?
337名無しさん@お腹いっぱい。 (ワッチョイWW 21cf-m84O)
2019/06/20(木) 03:52:30.09ID:M4IHF+qS0 ・ニューラルネットワークで「DOOM」の主人公を「リアル化」して笑顔を取り戻すことに成功
https://gigazine.net/news/20190619-neural-network-high-res-doom-guy/
川平慈英とマイケル富岡を足して2で割るとこんな感じか?
https://gigazine.net/news/20190619-neural-network-high-res-doom-guy/
川平慈英とマイケル富岡を足して2で割るとこんな感じか?
338名無しさん@お腹いっぱい。 (ワッチョイ 2105-mDEe)
2019/06/20(木) 08:47:12.47ID:O5IpFkCe0 エロゲでやれ
339名無しさん@お腹いっぱい。 (ワッチョイ 219e-RU3G)
2019/06/20(木) 10:13:00.51ID:NP9doMhj0 若いころのトランプ
340名無しさん@お腹いっぱい。 (ワッチョイWW 21cf-m84O)
2019/06/20(木) 14:57:48.46ID:M4IHF+qS0 ・絵心ゼロでもこのレベルよ。ラクガキからリアル画像を生成する「GauGAN」が今すぐ試せます
https://www.gizmodo.jp/2019/06/gau-gan-try.html
もはや捏造の領域…
https://www.gizmodo.jp/2019/06/gau-gan-try.html
もはや捏造の領域…
341名無しさん@お腹いっぱい。 (ワッチョイWW 9303-i9WJ)
2019/06/21(金) 12:11:21.27ID:98jgfQFz0 落ちてる?
342名無しさん@お腹いっぱい。 (ワッチョイ 5171-sdO2)
2019/06/24(月) 10:57:03.29ID:PilHmeEN0 >>315
アップデートされてる学習も結構いい感じ。
アップデートされてる学習も結構いい感じ。
343名無しさん@お腹いっぱい。 (アウアウエーT Sa23-mDEe)
2019/06/24(月) 19:41:42.33ID:6je2raIca モザイク用の学習モデルみたいだからか、モザイク以外には前バージョンより微妙に感じる
未だwin7だから動画保存できないのも辛い
未だwin7だから動画保存できないのも辛い
344名無しさん@お腹いっぱい。 (ワッチョイ 4a11-kB4y)
2019/06/27(木) 21:14:16.11ID:8SWpQJ6x0345名無しさん@お腹いっぱい。 (ワッチョイ 9d4c-M4PC)
2019/06/27(木) 21:49:26.39ID:1cjee+If0 女性の写真を1クリックで裸にしてしまう「DeepNude」が登場
https://gigazine.net/news/20190627-deepnude-ai-undresses-photo/
https://gigazine.net/news/20190627-deepnude-ai-undresses-photo/
346名無しさん@お腹いっぱい。 (ワッチョイ 9d4c-M4PC)
2019/06/28(金) 13:20:25.13ID:kmboynGN0 全裸に水着着せるやつのほうが欲しいな。ワンピースの水着エナメルっぽくしてみたりとか。
347名無しさん@お腹いっぱい。 (ワッチョイ 8602-5hf/)
2019/06/28(金) 17:48:55.84ID:MNGC3yxz0 どうせ時間の問題なんだし、下手に圧力かけるより普及させちまった方が誰も信じなくなっていいんじゃないの
まぁ気分的な問題で反対し続ける人はいるだろうけど
まぁ気分的な問題で反対し続ける人はいるだろうけど
348名無しさん@お腹いっぱい。 (ワッチョイ 8676-a57L)
2019/06/30(日) 16:33:22.39ID:vlvS/GS40 A.I.Gigapixelって奴を試した人っているのかな
見た感じかなりシャープになるんだけど結構粗く潰れてしまうのは気のせいかね
一回waifu2xのノイズフィルター通した方が良い感じだから単体として微妙
見た感じかなりシャープになるんだけど結構粗く潰れてしまうのは気のせいかね
一回waifu2xのノイズフィルター通した方が良い感じだから単体として微妙
349名無しさん@お腹いっぱい。 (ワッチョイ 4a11-kB4y)
2019/06/30(日) 19:58:34.98ID:Uitlyaca0 waifu2x-ncnn-vulkan version 20190630
https://github.com/nihui/waifu2x-ncnn-vulkan/releases/tag/20190630
UpRGBモデルをサポート
使用するGPUを選択可能に
https://github.com/nihui/waifu2x-ncnn-vulkan/releases/tag/20190630
UpRGBモデルをサポート
使用するGPUを選択可能に
350名無しさん@お腹いっぱい。 (ワッチョイ d673-Eaty)
2019/07/01(月) 19:17:16.36ID:QdxpoRKo0 waifu2x-caffeよりwaifu2x-multiの方が綺麗に拡大出来るんだけど
これが普通なのか?それともcaffeの設定が悪いのかな?
これが普通なのか?それともcaffeの設定が悪いのかな?
351名無しさん@お腹いっぱい。 (ワッチョイ 4a11-kB4y)
2019/07/01(月) 20:56:55.34ID:BN3jgE8U0352名無しさん@お腹いっぱい。 (ワッチョイ 4a11-kB4y)
2019/07/01(月) 21:06:59.20ID:BN3jgE8U0 あと分割サイズの違いでも画質に差が出ることもあるか
>>240-246参照
>>240-246参照
353名無しさん@お腹いっぱい。 (ワッチョイ d673-Eaty)
2019/07/01(月) 21:29:26.59ID:QdxpoRKo0 >>351
同じ結果になるのか…caffeの拡大の方が微妙に細部が荒いんだよね
この設定で拡大してるんだけどおかしい所があれば教えてもらえると助かります
とりあえずTTAモードは関係なかったのとcaffeはCUDAで変換してる
https://i.imgur.com/ypmEXmG.png
https://i.imgur.com/LhQCesK.png
同じ結果になるのか…caffeの拡大の方が微妙に細部が荒いんだよね
この設定で拡大してるんだけどおかしい所があれば教えてもらえると助かります
とりあえずTTAモードは関係なかったのとcaffeはCUDAで変換してる
https://i.imgur.com/ypmEXmG.png
https://i.imgur.com/LhQCesK.png
354名無しさん@お腹いっぱい。 (ワッチョイ 4a11-kB4y)
2019/07/01(月) 21:39:18.81ID:BN3jgE8U0 >>353
拡大倍率が3の場合は一旦4倍に拡大してその後適当なフィルタでリサイズして3倍のサイズに縮小してるから、その時の縮小時に使うフィルタの種類が違うのかもしれない
拡大倍率が3の場合は一旦4倍に拡大してその後適当なフィルタでリサイズして3倍のサイズに縮小してるから、その時の縮小時に使うフィルタの種類が違うのかもしれない
355名無しさん@お腹いっぱい。 (ワッチョイ 4a11-kB4y)
2019/07/01(月) 22:01:00.44ID:BN3jgE8U0 それからもう一つ差が出るケース思い浮かんだ
元の画像がjpgだったらライブラリによってデコード結果が微妙に違うからそれで拡大結果に差が出るかも
元の画像がjpgだったらライブラリによってデコード結果が微妙に違うからそれで拡大結果に差が出るかも
356名無しさん@お腹いっぱい。 (ワッチョイ a935-bYGp)
2019/07/02(火) 00:43:34.58ID:qGJOniGD0 radeon softwareを19.6.3にしたらvulkan使えなくなったから19.5.2に戻した
357名無しさん@お腹いっぱい。 (ワンミングク MM5a-bkZ1)
2019/07/02(火) 14:13:49.64ID:7m//tbNDM >>345
やってみたけど片出し乳首だと色や形が崩れるし、隠毛が左右で生え方が違ったり、骨格が不自然であったり、そもそも上手くいく可能性がそこまで高くなかったり(ジェネレーション失敗であらぬところに第3の乳房が出来たりする)
あまり精度は良くないね。
ただ、少し改良するだけで見違えるように良くなりそうだなとは感じた。
やってみたけど片出し乳首だと色や形が崩れるし、隠毛が左右で生え方が違ったり、骨格が不自然であったり、そもそも上手くいく可能性がそこまで高くなかったり(ジェネレーション失敗であらぬところに第3の乳房が出来たりする)
あまり精度は良くないね。
ただ、少し改良するだけで見違えるように良くなりそうだなとは感じた。
358名無しさん@お腹いっぱい。 (ワッチョイ 3558-Eaty)
2019/07/02(火) 15:17:36.17ID:AVocRn1w0 そうそう。
単純な水着や姿勢ならなんとか形にはなるけど、ちょっと体を折り曲げたり服装で
身体の形の認識ができなくなる。
本当にAIで処理しているのだとしても、ごくごく初期段階だね。
GoogleとかのAI処理の専門家あたりが作れば、もっとかなりのところまでできると思う。
単純な水着や姿勢ならなんとか形にはなるけど、ちょっと体を折り曲げたり服装で
身体の形の認識ができなくなる。
本当にAIで処理しているのだとしても、ごくごく初期段階だね。
GoogleとかのAI処理の専門家あたりが作れば、もっとかなりのところまでできると思う。
359名無しさん@お腹いっぱい。 (ワッチョイ 9567-M4PC)
2019/07/02(火) 16:00:37.14ID:utu2kA5T0 ikorageっていう目と口指定するだけでキレイにコラージュしてくれるやつが良かった
360名無しさん@お腹いっぱい。 (ワッチョイ 9567-M4PC)
2019/07/03(水) 18:40:19.01ID:lWyl9GPf0 カラー化だとこれ良かった
https://colourise.sg/
https://colourise.sg/
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【工作員】「X」のアカウント所在地公開機能が暴いた世論操作の実態 MAGA支持著名アカウントの多くが米国外から運営 日本にも波及 ★2 [ごまカンパチ★]
- 【大阪】日本一高い観覧車が落雷で緊急停止 約20人乗客が閉じ込められ9時間にわたり救助活動 [七波羅探題★]
- 【・(ェ)・】「くまちゃんがいた」散歩中の2歳園児が発見 クリ林に1頭のクマ…保育士「ワンちゃんだね…」と声かけて移動 [Ailuropoda melanoleuca★]
- ラピダス、第2工場建設でも見えぬ顧客 技術開発も難題山積 [蚤の市★]
- 【芸能】安達祐実 44歳の最新姿「ぇーーーーー!!!」「声出た」「なんなの」「まって」「ワオ」 [湛然★]
- 【大阪】「もっとこっち来てよ」女子高校生を電車内に連れ込み 小学校教諭再逮捕「話をしたかっただけ [七波羅探題★]
- 高市ジャパン、核融合開発に1千億円の超大規模投資!これで日本の未来は安泰だね [668970678]
- 【悲報】『たぬかな』ファンのホビット、絶望「こうして36歳年収650万円身長155cmの底辺独身男性が残りましたとさ…どうすればいいんだよ [257926174]
- 最近のトイレメーカーって小便器の設計者にホモ混じってないか? [972432215]
- フィフィさんが姉と妹の写真を公開 「みんなべっぴんさん」「クレオパトラ三姉妹」など絶賛の声 [309323212]
- ロシア空軍パイロットがMiG-29フルクラム戦闘機でトルコ亡命 [445522505]
- 【悲報】明日戦争になっても「戦争始めちゃった以上、政府を批判するのは利敵行為。挙国一致で応援!」となりそう [535650357]
