【AI】 fakeapp 【革命】
■ このスレッドは過去ログ倉庫に格納されています
ADVANCED大戦略 38欠陥品 https://egg.5ch.net/test/read.cgi/game/1514596257/934 >15年治らないなら無理だろw >熊沢栄ー郎みたいに親に殺してもらうしかねえわw 殺 害 に 関 連 づ け る 文 章 を 書 い て い る 犯 人 は セ ガ と シ ス テ ム ソ フ ト α へ ハ ン マ ー を 使 っ て 頭 を 砕 く と い う 内 容 の 殺 害 予 告 文 を 書 い た 犯 人 で お 馴 染 み 株 式 会 社 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 容 疑 者 と 鈴 木 ド イ ツ 容 疑 者 ★ ★ ★ 必 要 な ら ば 警 察 に 被 害 届 を 出 し て く だ さ い ★ ★ ★ fwga ADVANCED大戦略 38欠陥品 https://egg.5ch.net/test/read.cgi/game/1514596257/934 >15年治らないなら無理だろw >熊沢栄ー郎みたいに親に殺してもらうしかねえわw 殺 害 に 関 連 づ け る 文 章 を 書 い て い る 犯 人 は セ ガ と シ ス テ ム ソ フ ト α へ ハ ン マ ー を 使 っ て 頭 を 砕 く と い う 内 容 の 殺 害 予 告 文 を 書 い た 犯 人 で お 馴 染 み 株 式 会 社 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 容 疑 者 と 鈴 木 ド イ ツ 容 疑 者 ★ ★ ★ 必 要 な ら ば 警 察 に 被 害 届 を 出 し て く だ さ い ★ ★ ★ geda ADVANCED大戦略 38欠陥品 https://egg.5ch.net/test/read.cgi/game/1514596257/934 >15年治らないなら無理だろw >熊沢栄ー郎みたいに親に殺してもらうしかねえわw 殺 害 に 関 連 づ け る 文 章 を 書 い て い る 犯 人 は セ ガ と シ ス テ ム ソ フ ト α へ ハ ン マ ー を 使 っ て 頭 を 砕 く と い う 内 容 の 殺 害 予 告 文 を 書 い た 犯 人 で お 馴 染 み 株 式 会 社 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 容 疑 者 と 鈴 木 ド イ ツ 容 疑 者 ★ ★ ★ 必 要 な ら ば 警 察 に 被 害 届 を 出 し て く だ さ い ★ ★ ★ gadaw ADVANCED大戦略 38欠陥品 https://egg.5ch.net/test/read.cgi/game/1514596257/934 >15年治らないなら無理だろw >熊沢栄ー郎みたいに親に殺してもらうしかねえわw 殺 害 に 関 連 づ け る 文 章 を 書 い て い る 犯 人 は セ ガ と シ ス テ ム ソ フ ト α へ ハ ン マ ー を 使 っ て 頭 を 砕 く と い う 内 容 の 殺 害 予 告 文 を 書 い た 犯 人 で お 馴 染 み 株 式 会 社 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 容 疑 者 と 鈴 木 ド イ ツ 容 疑 者 ★ ★ ★ 必 要 な ら ば 警 察 に 被 害 届 を 出 し て く だ さ い ★ ★ ★ aabaaggge ADVANCED大戦略 38欠陥品 https://egg.5ch.net/test/read.cgi/game/1514596257/934 >15年治らないなら無理だろw >熊沢栄ー郎みたいに親に殺してもらうしかねえわw 殺 害 に 関 連 づ け る 文 章 を 書 い て い る 犯 人 は セ ガ と シ ス テ ム ソ フ ト α へ ハ ン マ ー を 使 っ て 頭 を 砕 く と い う 内 容 の 殺 害 予 告 文 を 書 い た 犯 人 で お 馴 染 み 株 式 会 社 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 容 疑 者 と 鈴 木 ド イ ツ 容 疑 者 ★ ★ ★ 必 要 な ら ば 警 察 に 被 害 届 を 出 し て く だ さ い ★ ★ ★dyd DFLでおふぇらに挑戦。 目元だけSwapさせるべくmask Editorでマスク編集→学習したけど、 maskが震え続けて全然だめだった。Swap自体はできたのだが・・・。 ADVANCED大戦略 38欠陥品 https://egg.5ch.net/test/read.cgi/game/1514596257/934 >15年治らないなら無理だろw >熊沢栄ー郎みたいに親に殺してもらうしかねえわw 殺 害 に 関 連 づ け る 文 章 を 書kyth い て い る 犯 人 は セ ガ と シ ス テ ム ソ フ ト α へ ハ ン マ ー を 使 っ て 頭 を 砕 く と い う 内 容 の 殺 害 予 告 文 を 書 い た 犯 人 で お 馴 染 み 株 式 会 社 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 容 疑 者 と 鈴 木 ド イ ツ 容 疑 者 ★ ★ ★ 必 要 な ら ば 警 察 に 被 害 届 を 出 し て く だ さ い ★ ★ ★ >>15 マスクが震える? 全フレーム、編集しました? い よ う 江 東 マ ン シ ョ ン 神 隠 し 殺 人 事 件 の 犯 人 と 同 期 入 社 の チ ョ ン ク ズ 株 式 会 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 遊 ぼ う ぜo6 い よ う 江 東 マ ン シ ョ ン 神 隠 し 殺 人 事 件 の 犯 人 と 同 期 入 社 の チ ョ ン ク ズ 株 式 会 チ キ ン ヘ ッ ド の ミ ナ ミ ヒ ト ア キ 遊 ぼ う ぜt7i e■ 栃木ゲーセン事情80 ■ https://medaka.5ch.net/test/read.cgi/gecen/1564809234/856 > 856 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2019/09/02(月) 20:58:16.83 ID:kutFghBw0 (PC) > まあ製造物責任法って感じで責任もって欲しいよね、親御さんには 親 が ど う と か し つ こ く 同 じ 書 き 込 み を し て いるのは最近自分の親が両方とも他界したからだろうな 自分になくしたものを攻撃材料にすることで憂さを晴らしてるんだろ 犯人は一人ぼっちになった南人彰 独身童貞インポ顔(58) 寂しいなら親の後を追って逝けばいいだろオマエみたいな生きててもしょうもない奴がw 最近始めました バッチ32 ノード80 シームレス で顔のハメ込みは完璧ですが解像度が出ません どのくらいのグラボでどのくらいの設定だと歯並びが鮮明に出るくらいの解像度にできますでしょうか 昨日始めたクソ初心者です お邪魔します ここはFake Face Labの質問についても受け付けていますか? 間違えました Deep Face Labでした(;´д`) すみません、あっちで質問させていただきますので こちらは取り下げさせてください。 CPU Ryzen 3900XT GPU GTX 1080 DFL2.0 でtrainしたら、tensorflowのエラーやらで止まってしまうんだけど、AMDのCPUだとダメなんだろうか? AMDのグラボはサポートしなくなったのはわかるんだけどCPUはサポートしてるよね? 昔はGTXとRTXで使うバージョンが違ったと思うけど最新版って兼用になってんの? GPUをRTX3600にしてDFLも更新したんだがfan-dstできなくなってるのなんでなん あれ簡単に笛作れたから重宝してたんだが……Xsegでマスクをなんとかするよりも楽な方法ない?だるすぎる faceswapでRTX3090でtrainうまくいった人おる? GTXでできてRTXでできない事がある 質の悪いfakeで有名ななんたらPlayerはそういうことがあるんで 安定の環境ってなんだろうな 良いカットだったのに下を向いたり顔をやたら仰け反らせるdstにイラつき 「こっち(カメラ)見て」と修正する有能な男優にエールを送る MGS系はダメだなフレームアウトやクソアングルが殆ど 天然娘はいつまであのヘタクソなヒゲDを使う気なんだろう 画角も照明もFC2以下で何年もキャプだけ見て見送ってるわ 今日のbuildに入ってる「src/dstそれぞれのflip」はそれまで使ってたbuild(自分は去年の0307でliaech)で使えた model.pyとmodelbase.py文中で「flip」を検索して当該部分を古い方のbuildにつけ足せば良いだけだった これまでのdata_srcを2倍にコンバートして、書き出した後半の画像を別ソフトで左右反転して補完という苦行から解放される… dstの要求を満たせないよりは余程マシ 前髪の分け方だけは考慮した方が良いが顔自体は問題ない 非対称云々は例の初心者ブログを鵜呑みにしてるだけかと 初心者ブログってのがわからんけど、MRのフォーラムのガイドにも書いてあるんだが ガイドっつーかchangelogにはunnaturalになるとは書いてあるが、前述の通りでsrc不足だと似る似ない以前の問題 エアプでもなけりゃわかるだろ 過去スレだとテンプレに入ってたしggると出るが https:// 旬のニュース.com/deepfacelab-tukaikata/ srcがsourceの略なのは何となくわかるけどdstってなんの略なんですか? マスク(物理)を付けたsrcで実写と区別が付かないデープヘークは無理では https://yamachan01.com/blog-entry-13167.html トランプみたいな弁明 先日知って突発的にfakeapp2.2.0をダウンロードして始めようとしているんですが 今Extractの段階でframe splitが終わった瞬間にエラー表示が出ました ログ読んだらどうやらCUDA9見つかんねーよ、との事なので案内があったURLに飛んだのですが CUDA11.3というのしかないのですがこれのダウンロードでも大丈夫ですか? 11.3で問題ない場合ローカルですべての一括ダウンロードと ネットワークで必要なもののみのダウンロードどちらが良いでしょうか? manualでextractする時、flame毎に抽出サイズが変えられたら良いのにな アップの時は1024でとか、表示rect sizeでの推奨も表記されたり 現状だと、小さい画で大きい抽出になったり又はその逆とか無駄が多い facetypeの変更が出来る様になったのか 笛だけmfとかいいかも s-cuteみたいに日の光が極端な素材は全く似なくなるな 趣味じゃないから作らないけど、野外モノなんかも同じくdst向きじゃなさそうだ おすすめdst 睡眠姦で寝顔が長尺で映っててゆらゆら揺れてるやつ 半目になることもあるけどそれも良し カメラから顔背けたり隠す仕草とか、Pズリで下向くのマジでやめてくれ 嬢がそうするのは動作として自然かもだが、ディレクターなりがちゃんと指示しろや MGS系の素人モノでハズレの男優だとずっと女の顔見切れてるからDLしなくなった 顔を仰け反らせる女優は、それがいいと思ってるのかどの作品でも反らせてるな せっかくいいフェイスラインしてても使えない プレイ中の顔フェチ向けシリーズとかないのかな どうせ局部はモザイクなんだからそっちに特化したのもあってもいいのに 欲を言えば演技臭さが少なければ尚良 最近始めたんだけど可能なら前髪ないsrc用意したほうがいいの? >>68 初期のオーロラプロジェクトはそれに近いかも >>69 質問スレでも何度か話題に出てる model使いまわしてると急に似なくなって、5列目がほぼdstのまま出来上がる事がある 組み合わせが悪いかと思ってテスト用(軽めの設定の同種)modelで0iterから始めると普通に似てくる 200k以上使いまわしてまだイケる時もあれば、50kで既に何の素材も活かされなくなる場合もあった 具体的に何がどんな問題があるんだろう?GPUの使用率も後者のほうが高く、前者はCPUが90%だったのは関係あるのかな あとpretrain素材として老若男女大勢の素材が入ってるがアレは有効なんだろうか 対応力を求めてるのは解るが無理な画もあるしmodel形成/学習阻害にならないのかな 良く揃った1srcで鮮明なmodelにした方がpretrainとして合ってる気がする 低iterで目的達成出来るし 今日は自前の単一素材で上記を試してみる 昨日pretrain素材をsrc/dstに使ってpost train(使い回し用のiter稼ぎ)で25kまでやって、その後通常の制作を行うも 先に書いた似ない状態になってた 赤くなったりはしてないものの、modelが壊れたのか?状態の可視性が悪いの改善して欲しい… modelの使い回しって表現をよく見るけど、 srcを他の人物で次々重ねて使っていくことか 同じ人物のsrcでdstだけを変えて次々使い回していくことか どっちを差すの? もしくはsrc/dst両方を作品ごとに毎回変えて同じデータを延々と使い続けてるってことなのかな。 その場合、それをする意味が分からないんだよね。人物ごとに一番いい状態のmodelデータを保存しておけばいいのに。 人間と同じようにデータも使い続けるときっと劣化しちゃうんだよ。 病気みたいに学習していく上でエラーが溜まってくるのかもしれないし。触りすぎて硬くなった粘土みたいに計算が固定されてくるのかもしれない。 pretrainはフォーラムの方には女性のみとかアジア人のみで作ったものもあったりするから無駄を省くのは有効なんじゃないかと思う。 >>73 自分の場合は同src(単一ソース※違う素材は別セット)に対してdstのみ変えていく感じ 早ければ数分で出来上がるのがメリット もちろん個別のmodelとして各個保存してる その上で先述の通り 壊しやすいdstってのが存在する様な気がする 表情や照明が極端なヤツとか dst変えて使い回してるとぶっ壊れるのか急に似なくなることあるね それ以来modelデータは学習したての若い物と、そこから使用していくデータに分けるようになった 具体的に何がどうなって似なくなるんだろうね 自分も使いまわし汎用(src毎とは別)のmodelはiterを0/25k/50k/1mで用意してる 0からやる方がそりゃ似るけど、上手くハマった時の時短trainも捨てがたい… 似なくなるって具体的にどういうふうになるの? プレビューがdstのままってこと? Lossが全然下がらないってこと? 汎用は2m超えると使い勝手よくなる感じがする。 modelやtrainの設定にもよるし、素材の相性によるし、似るの基準が個人によって違うから、議論がしづらいね。 >>77 loss値は0.1以下とかで5列目ほぼdstそのままクッキリする 似なくなるというか全くmorph行ってない感じ 相性や主観は度外視で MMDも扱える人はリアル系モデルで、顔の形とパーツの大きさだけ弄ってやってみるとわりと簡単に顔を似せる事はできる 一体作ってしまえばずっと使えるし踊らせるのが好きって人はいいと思う 所詮MMDレベルのアニメーションだから違和感を取るのは難しいだろうけど、自分で楽しむ分には十分いける(抜けるとはいってない リアル系モデルのMMD動画も転がってるからそれにDFかけてテストしてみるといい res192以上でのtrainerの表示はなんとかならんもんかな ディスプレイの最大サイズに合わせて4by5で固定とか出来たらいいのに dflの手探り感とか持論主張奴の感じは筋トレに似てる AMPって使ってみた人いる? SAEHDと比べてどうなんだろ 同じ様な画像は不要、多彩な表情でいろんなアングルからの写真は、あるにこしたことない 上からとか下からのアングルは入手が難しいけど、それが無いとそういうシーンは似ない ただ、目視で完全な被りを判断していくのは現実的じゃないし、sort任せも厳しい pitchとyawで大事そうなのを分けておいて@からbest sortして、trashから表情が良いのを選び出すA んでbest済のalignedに@とAを戻すという事をやってる 外部ソフトとかで選別に便利なヤツとかあればなー フォーラムのどっかのリンクからsrcとdstのヒートマップ化ツールがあった 直感的に使いこなせなくてあきらめてしまったが MachineVideoEditorだったかな https://streamable.com/aq8iyn ディスコードとかに日本向けのコミュニティあんのかな 1人で作ってても限界を感じてきた >>89 そういう話をすると日記がファビョってくる… 最近3080買ったんでdeepfakeとやらに興味あるんだがVRAMが一番重要なん?てことは10GBの3080より12GBの3080tiにした方が幸せになれる感じ? その比較だと当然3080Tiのが幸せになると思うよ まぁ3080でも十分幸せだと思うけど PC新調するついでにやりたいなと思って記事ググってたら FaceswapはRTX3000系は非対応とか出てたんだけどもう改善されてる? AMP使ってみてるけど全然loss下がらないな SAEHDとは基準も違うんだろうけどmodelがいい感じになった頃にアプデがきて無駄になりそうで怖い 1080tiがセール価格で売ってるんだが VRAMさえあれば無理して3000sリーズ買わんでもこれでいいのかな 顔の角度や目線を自由自在に操作できるNVIDIAの「Vid2Vid Cameo」のデモ版を触ってみた https://gigazine.net/news/20210629-vid2vid-cameo-nvidia/ ↑のページで紹介されてるデモサイトを試したが かなりいい感じで顔写真の画角を変えることが出来た 極端な角度の横顔や見上げ顔はなんかはやっぱり無理だったけど 限られた数の静止画SRCしか無い場合とか DFLのflip有効にするより、これで画像生成した方が良いかもしれない 近々SDKリリースされるそうなので 誰か画角割り増しツール作って下さい 良さそうだけど、dstの要求する画角・表情を特定する事自体が厄介だよな… 上手く使えれば卒アルとかでも作れちゃうんか なんせもっと簡単になってほしいわ。最高の環境構築したけど、何かと時間と手間がかかり面倒すぎる 顔の表面にお面のように貼り付ける仕様には限界がある そんなAVばっか漁ってらんない 一時期頑張ったんだけどどうやっても満足行くもの出来なくてやめちゃった 俺の場合、dst側をほぼ全フレームXsegで範囲指定してやらないとdstがそのまま残っちゃってたんだが、 あれって解決策あんのかな? それに、サンプルなんで仕方ないが、サンプルにあるようなおっさんのように、単にあっち向いたりこっち向いたりしてる dstを対象にしたい訳じゃないから、顔じゃない部分を全部マスクしてるとか、無理だなと。。。 dstがそのまま残る、ってのがよく分からない editだけやって学習してないとかか? 正直Xsegって手間が増える割に結果が付いてこない fansegの方が手軽で追従性も高い 古いbuildのリンクって無くなってるのか 久々にMr.見てきたけどtrustmybarrehとかいなくなってんな トレイン済modelはともかく旧build探すのは大変そうだ 全部じゃないけどDLしてある奴どっかにupするか? 自分はfansegラストビルドを使い続けてる それ以降の物も試したけどテスト結果が良くなかった >>104 resultに、dstの顔がsrcに置き換わらず、dstのままになるフレームがある、ってこと。 全部dstのままでなく、ほとんどがsrcになるんだが、一部フレームがdstのままで、ちらちらする。 学習の時のColor Transferって何か意味あるんですか? プレビュー画像にしか影響しない? RAWおじさんなので重宝してるし、有効の方が通常のmergeでもdstに近くなる どの設定にするかはdstとの組み合わせで異なる 光が当たってるのはidtで暗いのはmkl、仕上げでsotが多いかな まだ「まだ」とか言ってる直近buildが最良と疑ったことすら無い初心者いんのか 連呼厨とか言ってるのが日記本人しかいないという悲しい事実… vram大事って言うけど12GBのrtx3060と8GBのrtx3060tiならどっちがいいんだろう それな、俺もどっち買うか悩んでる。 ゲームはしない前提で 大量に処理が必要だったり、同時に別作業するなら12GB 単体の高速処理をしたいなら8GB ってところか 1080で全然問題ないよ トレインするのは寝てる時と仕事行ってる時だし TRAINは遅くても良いんだけど、抽出がめちゃくちゃ時間かかって困ってる。 CPUは7700でGPUは無印Titanの場合はどっちを替えた方が幸せになれますか? 3060の在庫が有ったから買うかどうか悩み中 抽出は何でやっても遅いんじゃないかな CPUはRyzenの6コアだけどシングルスレッドしか使って無くて、CPUもGPUも使用率20%ぐらいでパワー余りまくってる この辺は作者もいじれないところらしくて、ずっと改善されない extractはsrcなら全手動、dstもド正面とかデコ出し以外はほぼ手動だな 何年かやってて一番どうにかしたいのはmerge速度 resもbatchも増やしたところであんま意味ないし 皆さんの抽出速度ってどれくらい? ウチは4~5とか、10分の動画で2~3時間掛かるかも。126のものです mergeはCPUのスレッド増やすしか無いよね 俺も当初はi5の4コア4スレッドだったけど、mergeを速くしたくてRyzenの6コア12スレッドに変えてから相当速くなった >>129 40分の動画で10時間くらいですね しかもその40分の動画は余計な部分を カットしまくっている動画 >>133 ありがとう。やはり時間掛かるんですね。 もう一個教えて下さい。今VRAMが6GBなんですが、精度を上げようと思ったら6じゃ厳しいですかね >>134 初心者なのでそこまではわかりません ただ抽出する元動画は事前に編集して 顔以外はほぼほぼカットしているので そちらのほうが抽出するには明らかに 効率的ではあると思います VRAMに関しては抽出よりも学習のほうに 影響すると思います 私の環境では学習中は12GB中、10GB使用 されますので win10はexplorerが表示設定を勝手に変えるの鬱陶しいな mergerの画面って終わったら自動で閉じてくれないの?? >>138 自動で終了してほしかったら最初のinteract〜の入力をNでするしかない ただmergeの設定を最初に設定しなきゃならないしプレビュー不可、途中で設定変更もできない 初めて導入してみて起動までは出来たんですが ENOENT: no such file or directory, ってエラー吐いて動画を読み込めません Apiの中にlog.txtがないのが原因みたいなんですけどエラーに 「[ドライブからApipまで]¥Api¥WC:[ファイル名]¥log.txt」 このような形で表示されます 過去に似たような話があったとかないですかね 来週はテレ朝で午後にいろんな過去のドラマの1話が放送されるな BDリリース無い素材も有りそうだし録画しておくと良いかも 分け目が逆のdstを使いたい時なんかに、src flipのflipした方のみでtrainする方法無いかな 素材自体を反転させるとするとextract前にimageを反転させる必要があって二度手間になっちゃう SIROレーベルのカメラワークのクソ加減なんとかならんのか == 09.10.2021 == SAEHD:-tarhiオプションが追加されました。顔をよりsrcのようにします。 SAEHD、AMP: 最後の16個の「高損失」サンプルを定期的に再トレーニングする陰関数を削除しました への固定エクスポート。 DirectX12DeepFaceLive ビルドで正しく機能するdfm形式。 サンプルジェネレータでは、ランダムスケーリングが-0.05 +0.05から-0.125+ 0.125に増加し、面の一般化が改善されました。 2000年ごろの援交動画をAIでエンハンスした神はいないの? あの大量にあった世界遺産が高画質化するだけでもかなりの人類の進歩なんだが >>150 やっぱりあかんのか・・・ それが解決したらノーベル賞ものなのだが。 >>151 gigapixelとかだと人間の質感が変になる 仮に高精細化出来てもそういうのはカメラワークがdfには向かない 初期のオーロラプロジェクトとかの方が使いやすい >>149 出演した女の子にお願いして撮り直したほうが早い 真正面でお辞儀するアイドルをdstにして、 真正面カメラ目線の無修正フェラ動画からの抜粋をsrcにしてmodeをDFでぶん回すと、 体、輪郭、髪型はアイドルで、顔と咥えかたはポルノ女優の動画が数フレームだけ作れる。 これに、通常の笛動画の要領でアイドルの顔を重ねると、数フレームだけは顔も体もアイドルになる。 でもチンコ切れてるけど。 >>155 普通にdstをAV,srcをアイドルで学習させて、マージの際にraw-rgbで変換すると 耳から髪型まで頭部全体がアイドルのままのAV動画が得られる でもチンコ切れてるけど。 FaceSwapの『WARNING Mixed precision compatibility check (mixed_float16): WARNING』って何が問題なんでしょ? GeForce GTX 1050 Tiを導入したんだけどCUDAが有効になっていない??? CUDAは最新版(11.5)をインストール済みです。 Your GPU may run slowly with dtype policy mixed_float16 because it does not have compute capability of at least 7.0. Your GPU: NVIDIA GeForce GTX 1050 Ti, compute capability 6.1 See https://developer.nvidia.com/cuda-gpus for a list of GPUs and their compute capabilities. If you will use compatible GPU(s) not attached to this host, e.g. by running a multi-worker model, you can ignore this warning. This message will only be logged once 顔射ものって、そのままフェイススワップすると汁が全部塗りつぶされるから、 別途、動画編集ソフトで汁成分だけ(ダヴィンチではカラーページのアウトサイドノード使って)浮かせたクロマキーで重ねるのが定番だと思うけど、 最初のdstからheadで抽出したalignedに集めた正面の顔画像の束を、そのまま merge にコピペして動画化させると、 正面の顔を常に追い続ける動画になる。 この正面に整えた顔射動画をまたdstにして、そこから顔射ものを作っていくと、 動画編集ソフトで作った汁クロマキーが共有できるようになるね。 「良い一撃」のオールスター打線のようになる。 しかも、受けるアイドルの顔も「正面にそろう」だけでいいから、フェイススワップさせる必要もない。 headで抽出した時点で着弾地点がそろうから。 bm.suさん、極端に顔小さいからね。その上前髪パッツン。 ただ、左右のメンバーに顔を向けながらインタビュー受けるし、ライブ動画も多いので素材は集めやすい。 一気に学習させようとしても無理なので、headのliaeで輪郭と前髪を作ってから一度動画を書き出して、 その後それをdstにして、ハーフのDFで顔の詳細を詰める感じで行ける。 笛モノで今の所ドンピシャなのが 「神○川人妻ソープの生々しいサービス 春日もな 」 タレ乳のオバちゃんなんだが、骨格と画角でなぜか使える。 src素材の画角の充実と整合性はどっちが重要なんだろう src画像間の整合性は、画像サイズがFまでなら画角優先で良いと思う。 ライティングや解像度にズレが合ってもどうせmergeする時に補正するし。 ただ、headで画像を切り出した時は、背景の差が意外に仕上がり時間やノイズの差になりやすい。 逆に言えば、予めDavinciとかでsrc動画の顔+髪を切り出してクロップし、背景をグレー単色とかで揃えておくと細かいマスクとかも最低限でよくなる。 個人的にはマスクはトレーニングすらしてない。 ソフトと関係ある話じゃないんだけどdeepfakeって言葉はエロ以外のも当てはまるのかね? まあエロ以外のやつなんてほぼない状況ではあるんだけど >>169 trainの段階での悪影響>画角の充実 かも 非エロの活用もあるでしょ。 例えば、上でチラッと出てるBMで引退したYちゃんを、 左右反転したMちゃんに貼り付けると「おー」とはなる。 訴えられるのも面倒だから公開なんかしないし、 ファンの怨念もダルそうだから、大島美緒とかでエロにしてとっとと抜いたけど。 仕事としてならネタDFもアリだが、趣味の範疇と考えると労力に釣り合わないなw 老師「主観AVは寄り過ぎかつ頭動かしすぎで使いづらいのじゃ」(訳:あけおめ) 広角で取り回し考えるとGoPro一択なんだろうか 室内だと画質キツイわな この年末年始のドラマ再放送は近年物が多くて微妙だった 12日のaiboumovieは若めのモト借素材としてHDレアだしおすすめ デビュー作は展開も作画も使いやすいなぁ→貞松地獄 キャプでコイツだったら落とさない事にした カメラに顔をそむける女優を修正したり、「カメラ見て」と誘導する男優 顏に掛かった髪を直す奴 ハメ撮りの画角やブレにに神経質な奴 良い仕事してんな ライブのAVって有りそうで無いな 局部映さなければ良さそうだけど既得権が煩いか カメラも顔が見切れすぎだわ カメラマンは女優に興味ないのかもしれんが視聴者はその女優が好きで購入するんだから顔は映してほしい それはDF以前から思ってた 恥じらう顔がいいのに、なぜおっぱいどアップなのかと 初回は時間かかるけど、model使い回せば次からは数時間で終わる 顔面自動抽出がうまくされてないときは、手動で顔面抽出するのにちまちまと1か月以上かかりそう >>189 横向きだと抽出されないときあるからそういう時は動画を縦に回転させて抽出してる ダメだ 脅迫されて嫌々顔の背徳の交尾シーンなのに、ちはるでDFすると大らかな笑顔になってしまう ちはるよ 嫌いな男に脅迫されて犯されているのに何故そんなに嬉しそうなのだ? いやsrcに苦しそうな顔がないんでしょ 普通じゃなかなか集められないもんね 罰ゲームとかして嫌な表情しているのを 地道に集めるしかない ちなみにどうしても半目開きになる時があるんだけど もっと学習させれば改善するかな? だいたい10〜15分の動画でバッチ8の40万くらいやってる アヘ顔が笑い顔と認識されちゃう子もいるよ どんなsrcでも笑い顔になるから、dstとしてはNG判定して捨てるしか無い 半目は俺の場合はliaeなら発生してないけど理由はわからない >>195 普段LIAE-UDでやってますね 半目になってしまった動画をLIAEで試して 違いが出るかみてみます 女優ちはる男優はとりで二人組DFしようとしたらうっかり女優はとりでやってしまった これはこれで面白い映像だけど はとりさんは嫌々やるシーンではちゃんと嫌がって、嫌なんだけどされると気持ちよくなっちゃう表情をちゃんと出してるな 立ての顔でもフェラして顔が通常より伸びてる上に 口元にモザイクがある場合 なかなか手動認識してくれん まあ、そういうシーンはまるごとカットするのが 手っ取り早いんだけどね やっぱ良いもの作りたいしな https://www.youtube.com/watch?v=MK1Pixuhr5A すみません!こういう動画みたいにアニメの顔を実写の人物の顔に合成するやり方誰かわかる方いませんか!faceswapを使ってみたらうまくいきません。 >>201 もう少し大きなモナーのGIF素材ないの? >>201 確かに普通にやると、顔は入れ替わるけど肌感が実写にはならないね >>201 動画見てないけど普通にganじゃねえの? 敵対性でググれ。 たまに2人共演とか作っている人がいるけど あれはdst動画に1人づつモザイクかけて 抽出してるのかな? 複数の顔が検出されるとalignedに_0、_1と抽出されるから、手動で個人別けして、 一人づつトレーニングしてマージを繰り返す 一人目のmerged画像群をdata_dstの元映像に置き換えると、二人目からは少し手間が省ける なるほど 片方づつの顔にモザイクかけて抽出して それで何とかならないか考えたのですが 手間的にも変わらなそうですね liaeーudより通常のliaeのほうが格段に重いのな 違いを見るためにやってるけど udのほうが良かったか erodeをマイナスに持っていく以外に輪郭変換する方法ってある? >>209 udtは視線がおかしいって意見も見かけましたが udtcは良い感じですか? そんなのあったのか… 俺8種類くらいしか知らなかった >>210 俺はmergeのときにmotion blurを使ってる 毎回ー1にするといい感じに輪郭がクリアになって仕上がる >>213 間違えた マイナスにはならない プラス1だった Google colab使ってる職人いる?アドバイス欲しい 顔の切り抜き(extract)と学習した後の合成(merge)は自分のPCでできるようにしたほうがいい googleで垢banされてもよければ関係ないけど Googleが監視してて京都県警IT捜査課に通報行くからね そうなのか…ありがとう…マシンパワーが貧弱なので使わざるを得なかったんだけど、やめた方が良さそうだね extractとmergeは貧弱でもできなくはないからやってみれば? マシンパワー必要なtrain(学習)はcolabでやるにしても流れ分かってないとどうしようもないし X-segtrainまで終えてさあ、train始めよう ってところでミスに気付き 抽出からやり直しなんとか手動抽出も終えて trainを始めたところ、X-segはやり直し前の学習はある程度は引き継げているようですが 細かい箇所を直したくX-segを立ち上げると 「消して0からやり直しますか?」 的な警告が出ました Nを選んで nを選んでマスク作成すれば 追加学習できるんですかね? マスクエディター立ち上げると マスク数0になってるのでどうなっているのか よくわからなくて混乱してます 抽出やり直したんならマスク消えてるだろうから、もう一度マスクする必要あるんじゃないのかな 学習のデータは残ってるからxsegのトレイン自体はすぐ終わるだろうけど 例えばキスしーんで口周りを避けて囲ったのですが mergeで確認するとそれは残ってるのですよね 直したい箇所や追加修正したい箇所を 前回より少ない枚数でマスクかけてから 軽くX-segして、どの程度になるか試してみます AIは膨大な試行錯誤の上で結果を出しているのだから、 人間の側でも試行錯誤を拒んではいけない 女優がベロを出しているシーンがあれば ベロじたいだけを点線で囲むと良いのですかね? >>226 おお、まだFANsegの同志がいたんだ 動画によってはmask editするけど、もうAIモデルがかなり学習してるので任せてる >>223 どこが間違ってるのかはわからないけど trainのpreview画面でスペースキーを押すと、どこがマスクされてるのか確認できるから マージまで行かずにそこで判断はできそう trainで確認するとどこもマスクされてないですね mergeでマスクがある程度確認できのは X-segtrainの名残りかもしれません うーんX-segやりなおすかぁ 450枚くらいやったのに 多分xsegのtrain終わった後にapplyしてないだけだと思う 失礼しました X-segtrainで確認するとマスクされてました 学習は20万ほど済ませてあるので とりあえずmergeして作ってみます AVの顔を入れ替えて個人で楽しむようですが、価格帯別おすすめPCとかってありますか? 中古で安くならないかなとメルカリとか見ると新品の自前で組んだPCとか出てきたんですけどDFに特化したようなのってあったりします? >>232 品不足で、要になるグラボがまだまだ中古でも定価より高い。 そのグラボのみで\70000前後。 2週間とか起動させっぱなしになるから、熱対策とか考えて自分で組んだ方が良い。 >>233 その7万円で、数か月前にヤフオクでリース品流れの >>233 その7万円で、数か月前にヤフオクでリース品流れのPCを入手できた CPU i7-7700、 MEM 16GB、 GPU GTX1080(8GB)のまさに標準的なDF専用機 最近始めたんだが、総合格闘技のように色んな能力がいるな。PCの知識、AIの知識、動画編集の知識...。面白いからいいんだけどね どうやっても清宮レイちゃんがニコニコ笑いながら逝くんだけど >>241 チケット稼ぎだな。ブラクラみたいなもんです。 同じ角度(ちょっと下向き)からの動画や写真が多いのですが 同じような画角の動画を選べばうまくいきますか? 真正面もありますが比率的 下向き:真正面その他=7:3くらいの比率です 質問です。 手動で一つの画像から二つの顔って選択できますでしょうか? VRはみなさんどうやってます? ffmpegで動画から2分割した画像を切り出すのが基本だと思う バッチファイル化しておけば手間もない >>247 2つ作って結合するってことやね。ありがとー https://www.reallusion.com/jp/crazytalk/ 静止画に表情つけたりするソフトだけど こういうソフト使って少ない写真からバリエーション作るのってどうなんだろう? 外人っぽい表情多いけど加減も調整できるみたい https://www.xn--dckci7a6hqdn90a.jp/ このサイトではgoogle colab使うことになってるんですけど、使わなくてもできますか? 参考サイトとかあると助かります。 Macでやっている人いますか?おすすめ教えてください 学習まではできるようになったのですが、いまいち仕組みがわかりません 正面ばっかりの動画に置き換える顔の素材で横向きとかは不要ということですか? それとも学習用に横向きもあったほうがいいのか・・・教えyてください 例えば笛を吹いてるdstをマスクする場合、笛部分のみを切るようにするのですか? それとも鼻下〜口周りまで範囲を広げるべきでしょうか? 笛のマスクは口周り全体だな 笛だけマスクだと全く同じように口を開けたsrc画像が無いと違和感が出まくる 俺の小学校のときの同級生の松下のあだ名はビクターだった RTX4000シリーズで動かせる方法お願い致します fakeapp FaceSwap SberSwap simswap DeepFaceLab DeepFake どれが良いの? dst faceset extract のとき、抽出枚数を1枚だけにしたいときってどうすればいいんでしょうか? もう見てる人もいないかな? Stable Diffusionでの速度アップのためRTX2070SからRTX3060にスイッチしたんだが、DFLの事すっかり忘れてた RTX2070Sでは、DFLの古いバージョンのまま使ってたから、RTX3060では動かなくて、仕方なく対応バージョンをインスコ中 ちなDFL2.0で、以前のバージョンの学習Modelは使えないですよね? 600~800万回ほど回したModelが3つあり、可能ならば流用したいけど… 変換ツールなんかあれば、教えていただきたいです この技術ヤバいから、もう皆さん地下に潜っているんでしょうなぁ >>275 2070と3060を2枚差しにして、DFLは2070で使っては? >>276 レスどうも それも考えたんだけど… とりあえず、これを機にDFL2.0に移行しようと思います 今はsrc映像データを顔のアップ部分のみに編集中で、終わったらそれをTopaz Video Enhance AIでキレイにしてから顔画像を抽出します 前はそれらの前工程をしなかったから、クオリティの低いsrc画像でTrainしてて、結果的に顔のアップシーンだと解像度不足でした 後は、今まで作った動画で顔が本人に見えて、かつ下からあおったアングルのシーンを集めて、それからもsrc画像を作ろうと思います これで大抵のシーンに対応可能なハズ あ…maskeditはまたやらなければダメか… ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.4.7 2024/03/31 Walang Kapalit ★ | Donguri System Team 5ちゃんねる