【AIコラ】fakeapp その13【革命】

■ このスレッドは過去ログ倉庫に格納されています
1
垢版 |
2020/03/08(日) 21:28:26.92
deepfakesの技術交換スレです。

前スレ
【AIコラ】fakeapp その12【革命】
https://phoebe.bbspink.com/test/read.cgi/ascii/1580015540/

テンプレに書いてない質問はok
VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
2020/11/10(火) 07:17:03.93ID:tN11tDf70
顔が歪んでるO彩佳や歪な表情をする吉高・柴咲・綾瀬等以外はあんま関係無いけどね。
それ以前に素材マッチングが9割以上を占める。姿形は兎も角、表情モーションで決まるな。

それよりも、ランダムフリップはDSTもフリップフリップゥー!で無駄に
学習時間倍増するし、正常存在データにも反転学習で収束阻害起こすから
足らん画角は事前に反転MP4仕込んでホクロだけレタッチしてOFFが鉄板でしょ。

これらの積み重ねで、ヘボいGPUでもすげぇSLIを超える仕上がり速度が得られる。
2020/11/10(火) 12:43:22.52ID:tGvZlte6M
>>555
素材マッチングのために2000人分の女優写真集使おうとしてる。サイトから巡回ソフトで落として、全部で10万枚ある。角度の悪い写真を取り除く作業の途中だが全然終わらない。
2020/11/10(火) 14:16:15.65ID:Xqn2KSf40
>>556
マッチングに使うアルゴリズムは決まってるのん?
2020/11/10(火) 14:19:49.61ID:QwJJy83w0
それって何に使うの?意味あるの?
2020/11/10(火) 14:27:31.09ID:QwJJy83w0
DFLの前にsrcに合うdstを探させるって事か
2020/11/10(火) 22:46:26.25ID:UY8pqjk+0
マージするとdstの面影が強く残るようになってしまった
今までそんなことなかったし、train中のプレビューも良かったんだけどなぁ
561名無しさん@お腹いっぱい。 (ワッチョイ 03b8-NSHw)
垢版 |
2020/11/11(水) 01:50:05.06ID:vRVJrRzo0
>>557
アルゴリズムなんて使わない
単に2000人分一気にtrain→margeして似てる女優特定するだけw
似てるかどうかは俺判断。闇雲に探すよりいいと思う。
2020/11/11(水) 01:56:12.10ID:KSWQDPe/0
train中のプレビューのまま動画にしてほしいと思うことは多々ある

ちょっと聞きたいんですけどresultまで済ませた後extractしたsrcとdstの画像って保存してる?
自分はsrcは放置で次のsrcで上書き
dstは使い回せそうな感じならdstフォルダからmergeとmaskは消してあと残してます
2020/11/11(水) 02:41:42.52ID:W8zNnEYY0
>>562
基本両方残してるけど
srcはalignedだけ、dstはextract結果に満足すれば切り出したフレームとalignedだけ、それぞれpack.batでまとめてる
というか上書きって毎回srcのextractからやり直してるってこと?それとも同じsrcで作ることがないの?
2020/11/11(水) 04:16:17.68ID:MCx2qdPx0
やる気無い時に、過去のSRCとDST組み合わせてテキトーに回してるなぁ。死ぬまで働けー!って感じで。
だからSRCのチョイス分alignedとDSTの全alignedはパックして全部残してる。
DSTのフレームPngは嵩張るんで元ネタのmp4だけ。

っで絶対合わなさそうなネタが頻繁にマッチするから、もう何が合う要因なのかわかりません・・

あと、2年熟成を続けたエンコーダとデコーダ、かなりヤバくなってる。
バッチ32でiter8000も回せば、どんな素材(メガネ以外)もビンビンになるわ。
2020/11/11(水) 04:31:53.48ID:MCx2qdPx0
輪郭・パーツ配置が明らかに違うのにマッチする奴見て気付いたことは、やっぱ表情や仕草の遷移で
(例えばホランは動作の直前に思考フリーズみたいのが一瞬入って、制止状態から別ポーズへのキレが鋭い、
 絶対に優しげな表情をせず、バカにしてるような眼差し・微笑みしかしない)
静止画で容姿が似てる事より、モーション命ってことは分かったんだけど、
だからってどう探せばいいんだろう・・
2020/11/11(水) 06:56:26.81ID:To9Fw6swa
愛嬌は表情と動作が作る
美しさは骨と皮膚が作る
エロさは脂肪が作る
2020/11/11(水) 10:46:07.90ID:xKnS2O760
似せるクオリティだけを求めるならdstからsrcを選ぶほうが近道なんだろな
たまーに雰囲気が似てるなってのがあるからそれに併せればいい
なんとなく似てる「激似」シリーズで作った事ある人っていないのかな
2020/11/11(水) 10:53:34.62ID:H5kFq16u0
対応グラボもってないので、とりあえずやり方だけでも覚えるために
google colabで試してるのですが、colabでx-segを読み込むことはできるようですが
colabでx-segのエディタは使えないのでしょうか。
2020/11/11(水) 12:49:06.54ID:+7ChvgQu01111
関係ないけどGeForceのドライバーってどれくらいの頻度で更新してる?
余りにも頻繁にアプデ来るから毎回面倒過ぎるんだが・・・
2020/11/11(水) 13:51:31.19ID:3jnPD3Kt01111
>>569
対応ゲームやらバグやら思い当たるものがあったら更新してる
けどDFLだけなら手持ちのグラボが動いてるなら更新不要では?
なんならスタジオドライバにしちゃうのもありかと
基本的に同等以上に動くし
もちろん環境次第だけど
2020/11/11(水) 15:49:34.44ID:O0E5xR28M1111
>>568
colabでx-segのエディタを使ったことはないけど、まずはGUIを
使えるようにしないといけないと思う

↓これとか手間掛かりそう
ttps://internet-of-tomohiro.netlify.app/google_colab/vnc.ja.html
2020/11/11(水) 20:51:27.76ID:KSWQDPe/01111
>>563
毎回同じmodelの新鮮な動画からsrc取りしてます
ただiter100万くらいまではいい感じだったけど
200万過ぎた辺りからなんとなく違和感出てくるようになってきた
1回辺り2000くらい枚数用意して20-30万くらい回したら次のsrcみたいな使い方してます
2020/11/11(水) 21:14:00.59ID:yQeI6t6q01111
>>567
似てるって言われてる人って目元とかパーツは似てても輪郭はそこまでってことが多い
だからdstとしては微妙なこともあるよね
輪郭と眉目口鼻の位置が似てる人が真に相応しいと思うんだけど、簡単に探せないものかね
2020/11/11(水) 23:39:19.30ID:pRhS3Pfh0
最近は完全デコ出しのsrc使ってXseg-prdでerode0〜-25ぐらいをとって出力するのを試してる
dstによって生え際の違和感はあるけど顔はほぼほぼまんまのが出来るから自分用ならいいかなって
2020/11/12(木) 07:33:02.46ID:GUd62WpeK
たとえ似なくてもsrc本人よりかわいくなるならいいんだがなあ
2020/11/12(木) 09:14:41.65ID:Wj3yF24T0
久しぶりに最新版落としてやってみたらいろいろ変わってて笛がうまくできない。
最新版のMargerのオプションはどれにすればいいんだ?

前みたいにfan-prd+fan-dstとかでお気楽に作れないのかな?
577名無しさん@お腹いっぱい。 (ワッチョイ cb10-gWUl)
垢版 |
2020/11/12(木) 09:28:19.51ID:Lg76zgpE0
5800xと3080で作ろうと思ってたけど3080tiのうわさも出てるし中々買えんな
2080tiと3070だと2080tiのほうがいいのかな?
2020/11/12(木) 09:44:00.29ID:HFQDP7H70
>>576
フォーラムにXsegマスク済の顔画像があるので、
それを利用してXseg Trainしている(顔はWFが多いけど、Fで)
(9)の最後のやつでMergeしている
srcのモデルに対し、dst×dstでTrain、笛、舌、前髪などがはっきりとプレビューで見える様になるまでTrain
顔の部分にかかった物のみが見えればいいと思います
srcとdstを混ぜて、yaw、pitchでsortして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います(liae-ud)
dstにあってsrcに無い角度が出てきたら、素材不足なのでsrcをつべから足しています
素材が足りたら、srcを類似でsortして、コピーしたdstを削除して通常srcとdstでtrain
2020/11/12(木) 10:23:49.66ID:s6LpwJ7W0
DST探し疲れたら、とりあえず吉良りん使ってみ。
かなり汎用性高いから。
>>572
最近のバージョンって過学習防止とリソース有効活用で、片側トレインオフ付いたんじゃ無いの?
因みに、浮くリソース分って丸々片方のトレインに割り振れるんだろーか?
580名無しさん@お腹いっぱい。 (ワッチョイW 1592-xxKQ)
垢版 |
2020/11/12(木) 11:35:04.74ID:J3UOKW5g0
基本的な質問ですみませんがsrcは複数の動画から作るより一つの動画から作る方が似やすいんですか?
2020/11/12(木) 12:22:41.75ID:B873nvJca
>>580
あまり関係ない
dst動画の顔の角度や表情に合った顔がsrc動画にあれば良い。複数の動画から抽出すれば素材が取れやすくなるかもって話
2020/11/12(木) 12:39:09.90ID:65btTtM9M
>>568
今は亡きTwitter界隈の投稿者達の作品見返してたら肌の粒状感?とか目尻の細かいシワまで表現できてるのとかあるけど、GANとかTrueFaceとかでやってんのかね
それともそもそも素材と学習の解像度が高いのか
2020/11/12(木) 12:39:30.15ID:65btTtM9M
ごめんアンカーミス
2020/11/12(木) 15:33:14.43ID:so6fTjEw0
head悪くないな
髪色と長さが合えばまんま本人を作れることもある
585名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
垢版 |
2020/11/12(木) 17:06:43.92ID:ndk//35u0
皆学習何万回くらい回してるの?

↓くらいの前提だとして
・モデルはpretrain済み
・バッチ数は4〜6程度
・動画は3分程度
・resは256

正直自分は1日以上待てないから、10万回くらいで止めてしまうんだけども
2020/11/12(木) 17:27:14.44ID:7J/LVAmJa
>>585
回数じゃなくてloss値が0.2切るまでやってる
587名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
垢版 |
2020/11/12(木) 18:06:54.12ID:ndk//35u0
>>586
返信サンキュー
lossってresを上げるほど下がりにくくなってくと思うけど、res256とかでも0.2まで待ってる?
2020/11/12(木) 18:25:20.92ID:jcKmYQVw0
>>578
そんな早口で言ったって伝わらないだろ
dstとdstでtrainみたいな邪道を誰もがやる作業みたいに書くのは、なんか違うと思う
普通にXSegで出来るから、ちゃんとXSeg育てるのが基本
2020/11/12(木) 19:13:45.86ID:7J/LVAmJa
>>587
うん、待つよ。
こないだ作ったやつはres388で1.8くらいまで学習させてたよ。大体一日半くらいかかったかな
590名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
垢版 |
2020/11/12(木) 19:31:16.40ID:ndk//35u0
>>589
ちゃんと時間かけて待ってんだなあ
てかres388が1日半で0.18までいくのか、グラボは自分のより速そうだ
どうも自分がせっかちなだけなんだな
591名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
垢版 |
2020/11/12(木) 19:48:04.57ID:ndk//35u0
>>589
ついでに聞きたいんだけど、random warpってどこで切ってる?
大体「lossが下がらなくなったら」てどこでも言われてるけど、下がらなくなるの基準が人によって違いそうだなと
2020/11/12(木) 20:06:17.98ID:7J/LVAmJa
>>590
まぁスリッパ3960xとRTX3090だからね(笑)
コア数も多分速度に関係してるんだと思う。

random warpは触ったことないんだわ。
loss値が前回の保存ポイントの値より高く保存されたときが3,4回続いたら一回止めて、GAN1.0で再学習してる。
それでしばらくほっといたら2.0切ってるからこの辺で終わるか〜って感じ
593名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
垢版 |
2020/11/12(木) 21:03:20.62ID:ndk//35u0
>>592
RTX3000台か、それは速いはずだね
自分は2080tiだからさすがにそれよりは時間がかかる

なるほど、ほんとにlossが横ばいになるまで待ってからGANに移ってるんだね
参考になったわ、サンクス
594名無しさん@お腹いっぱい。 (スップ Sd43-XMjj)
垢版 |
2020/11/12(木) 21:34:00.85ID:wmji4AsNd
別にGANも必須じゃないし
むしろ設定してない人の方が多そう
2020/11/12(木) 22:19:58.98ID:AqQmlTNqp
結局どの程度のもの作ってるかもお互いわからない状況での議論には無理があるよね。
2020/11/12(木) 22:49:49.73ID:12MsjdEzM
一年前にもしてたような話や質問がループしてる
2020/11/12(木) 22:52:07.08ID:HFQDP7H70
>>576 >>588
XsegはFANSegと違って、作者が作成したモデルは無いからTrainが必要
で、フォーラムにXsegマスク済の顔画像があるから、それをありがたく使わせてもらって、Train
それで、笛、手などは結構いけるかな。舌出しが少ないかも知れない
dstのXsegマスクも、明らかに顔の角度とかが違うコマ数枚程度Maskしてもいいらしい
dstの向かって左側の眉に、前髪とかがかかっていれば、srcの前髪Maskも兼ねるので、なお良い
で、1000回程度Xseg Trainして、モデルにアプライ
それでMergeして見て、うまくいかなかったコマとかの代表をXsegマスクして、またXseg Train
2020/11/12(木) 23:19:32.68ID:CfBrJPpv0
山口偽草レベルで作りたいのですがどうやれば出来ますか?
2020/11/12(木) 23:28:19.66ID:jcKmYQVw0
あのレベルは普通にやれば作れるよ
2020/11/12(木) 23:28:42.82ID:HFQDP7H70
>>576
Xseg Trainは、(FANSeg Trainと同じく)プレビューを見ると、Random Flipしてるっぽいので、少し左/右横顔どちらでもいけるのでは?
舌出し、前髪ありdstとか優先的にMaskすれば、笛もあるでしょうし
dst×dstの学習は、顔ぶっかけとかやりたい時に、海外勢はそれで作成していたらしい
2020/11/13(金) 14:26:58.55ID:UA22R1HH0
自分も res256でやってるけど、
loss値 0.2以下はすごいなあ 50万回以上やってもせいぜい 0.4台です
0.4台で十分精細になっていて満足いくレベルなので、res256だとこんなもんかと
思っていました
2020/11/13(金) 14:35:51.12ID:WXQn2pAd0
0.4って何かしら間違ってると思う
2020/11/13(金) 15:10:57.98ID:Rp5MH8PG0
masked_trainingやlr_dropoutのオンオフでloss値は変わるんだし
どんな設定でTrainしてるのか明記せずにloss値だけ書かれても
その数値が良いとも悪いとも言えないし参考にもできないのでは…
2020/11/13(金) 18:13:33.36ID:RtQLpPEmK
むしろ解像度高い方がloss値低くでる
2020/11/13(金) 20:01:53.29ID:8NvZYbW40
>>601
顔の前に障害物があり、Maskしていないとか?前髪、笛、舌、手等
dimsは?
最新版とかはmasked_trainingオンのみのはず
2020/11/13(金) 20:26:09.99ID:8NvZYbW40
最新版とか、HDアーキが無くなった代わりに、-udとかで
R/W ON→R/W OFF→lr_dropoutオンにしてくれ
それで似るとか、Loss値が下がるとか
lr_dropoutオンにできない設定だとまずいでしょう
2020/11/13(金) 20:54:46.03ID:UA22R1HH0
>>605
たぶん、srcの枚数が多いからだと自分では思っています 2万枚ほどあるから
そのせいかなと。
設定は df-ud wf res256 dimsは 320-96-96-22 pretrain済で
もちろんrw off ir-dropout on  マスクtrain はoff(xseg-dst で十分なので)
障害物はないです。
2020/11/13(金) 21:30:49.17ID:Cfx3dLjb0
Srcに素材追加したい場合って最初からやり直す他方法ってない感じですか?
2020/11/13(金) 21:37:24.22ID:NL8RZuj70
残したいsrcのalignedのファイル名を変えるか他に移しておいて
新しいの作ったらそこに足せばいいんじゃないの
2020/11/13(金) 23:09:40.45ID:8NvZYbW40
>>607
srcは最大でも15,000枚程度とかあったような。。
BestでSortしてはどうでしょうか?もちろんバックアップしてから
自分はsrcのフォルダにdstをコピーして
srcにはあるが、dstには無い、上向き過ぎ、俯き過ぎ、右/左横顔過ぎの顔画像を退避
srcが減って学習が速くなると思います
学習効率を上げる仮説
【初期学習】src画像/dstは適当に1枚
randomwarp/learningmask/lrdropout/trueface等はOFFにして処理速度を上げる
ある程度(数万回?)trainする
【本番】dst画像を作りたいものにして通常trainする
これをsrcごとに行ってそれぞれの学習を進めていく
2020/11/13(金) 23:15:06.67ID:8NvZYbW40
>>607
wfと言う事は、Xseg Train必須とかありましたね
srcの前髪、おでこのMaskが少なくて、XsegモデルのTrain不足とか?
Xsegモデルを5.XSeg) data_src trained mask - apply.batするとか?
2020/11/13(金) 23:30:25.90ID:UA22R1HH0
>>610,611
ありがとうございます。
srcはなにもソートせず、順番考えず、そのまま使っているので(もちろん、障害物や、
ぼけているやつや、ミスっている不要なのは削除済)
確かにそのせいかもしれませんね。整理してやってみます。
xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
流用するやりかたをしているので結果としては十分にマスクできているのですが、
今のdstモデルではトレーニングしてないことになるので確かにそれもあるかも
しれないなあ。
2020/11/13(金) 23:57:15.29ID:8NvZYbW40
>>612
ぬぬ。。
SAEHD_default_options.dat→XSeg_default_options.dat
SAEHD_data.dat→XSeg_data.dat
SAEHD_src_dst_opt→XSeg_256_opt.npy
SAEHD_inter_AB.npy→XSeg_256.npyまたは
SAEHD_decoder_dst.npy→XSeg_256.npy
って事?
2020/11/14(土) 00:02:11.48ID:vlduy/VD0
masked_trainingがoffだとプレビュー画面で見えてる四角内の全部(顔+背景)が学習対象になって、loss値の評価も四角内全部になるから絶対値が大きくでる、っていうことじゃないかな?
自分も経験してるけど、間違ってたらごめんなさい
2020/11/14(土) 00:21:24.16ID:WRZK6oIIM
Dstマニュアル顔抽出で2つの顔指定することってできない?vrで片方の顔だけ自動抽出できなかった時に手動で治したいだが片方しか選択できない
2020/11/14(土) 00:53:13.09ID:NPdvuDuD0
masked_trainingがoff/on切り替えられる昔の版で、Onにしておかないと
最新版とかではmasked_trainingがOnにならない(モデル流用時)
新規モデル作成とかだと、無条件でOnになるはず
masked_trainingがOffのままだとまずいのでは?
旧版持っていないですか?
2020/11/14(土) 00:55:38.11ID:NPdvuDuD0
昔、dfhdとかでやっていたので、df-ud、liae-udで無条件に新規Trainしましたね
2020/11/14(土) 01:00:01.64ID:mNQWW0LX0
DFL RTX 3000 Testが動かんくなった
Readyドライバー入れたくらいだけど原因それかな?
戻しても全然始まらんようなった
2020/11/14(土) 02:13:49.31ID:D0wIq4X20
最新版でもwfとheadはmasked_training好きにオンオフ設定できるよ。
自分はdstの顔の輪郭内に収める時は最後までmasked_trainingオンで回して
輪郭も修正したい時は学習が進んだ最後の方でオフにしてる。
2020/11/14(土) 02:33:14.42ID:NPdvuDuD0
>>612
aligned_xsegフォルダを、dst、srcフォルダの下に置いておけばいいのかな?
> xsegモデルはこのスレで何度かあがっている完成したモデルをそのまま
> 流用するやりかた
どゆこと?
2020/11/14(土) 06:51:24.74ID:9omkxdvPM
whole faceとfull faceとheadって出来にどういう変化が出るんですか?
とりあえずwhole faceでOK?
2020/11/14(土) 11:58:08.44ID:X0aFYZBAa
>>621
自分の体感だとheadがやっぱり一番違和感なく顔作れると思う。前髪ありdstでもけっこう自然にsrcに入れ替えられてる
2020/11/14(土) 13:01:47.18ID:AYNVyRpj0
>>613
>>620
フォーラムにある 完成されたxsegモデル
(xsegから始まる5つのファイル)をmodel フォルダに置いてすこしxsegトレーニングする
mergeのときに maskを xseg-dst にすれば
自分の所感だが、十分に満足できるレベルにあうよ。お手軽でおすすめ。
この見本のedit画面みたけど、境界線の引き方とかすごく丁寧で感動したよ。
2020/11/14(土) 14:03:07.91ID:vlduy/VD0
日本人モデル向けに眉下で設定したX-segテンプレートほすぃ
2020/11/14(土) 14:11:46.64ID:jFF2g3zy0
modelもそうだけどxsegがeditされたaligend画像が欲しいわ
フォーラム見たけどそれだけまとまってるのは見当たらなかった
翻訳しながらだから見つけられてないだけかもしれないけど
2020/11/14(土) 15:56:18.81ID:AYNVyRpj0
すまん、説明がわるかったかもしれません。
xsegモデルの件だけど、まさにそのeditされたaligned画像があったはず
2.1 [SFW] [NSFW] [GUIDE] [SHARING] - DFL 2.0 XSEG MODEL GUIDE AND SHARING THREAD
にあると思うんだけど。
2020/11/14(土) 20:04:19.37ID:NPdvuDuD0
https://mrdeepfakes.com/forums/forum-guides-and-tutorials
2020/11/15(日) 07:59:48.94ID:C81wlwlYM
素材スレがスレストされてるな
サポートセンターみたいな真似してると此処もやばいんじゃね
更新や動作環境の話までに留めておけよ
2020/11/15(日) 09:03:15.43ID:9qR/gwXk0
芸能人や女優の名前を書いてただけでアウトだから内容はあんま関係ないな
おそらくdeepfakeってスレタイで消すか決めてる
2020/11/15(日) 14:51:32.00ID:27B76vsy0
全く問題ないんだけどもう少し目立たないスレタイにしろって事かもな
2020/11/15(日) 17:10:10.48ID:CodO+bBb0
【AIコラ】fakeappはまずいと思う
DFLとか略語では?
Google検索にひっかかるけど、上位は関係無いものばかり
632名無しさん@お腹いっぱい。 (ワッチョイ 4b8b-Bt6w)
垢版 |
2020/11/15(日) 17:15:11.59ID:r68Ev+9W0
Deepfake総合はスレストだけど新スレ立てたな
2020/11/15(日) 21:43:56.55ID:G1vVHissM
最初に停められたのは半角の技術スレな
コラの普及に5chを使われるのが嫌なんだろうから
此処で解説や相談はしない方がいい
2020/11/16(月) 01:49:51.49ID:Rmd0qmVxd
目立つとかそういうことではなくて、10月から施行された改正著作権法でリーチサイト問題が発生したから、問題あるサイトへのリンクを貼りまくる所が閉鎖されてると聞いてるが…
(書いた本人ではなくて、サイトが罰則を受ける)

半角はそういうサイトへのリンクを貼りまくってる所だから、板ごと閉鎖。スレの問題では無いでしょ。

「成果物」や「素材です」とか言って著作権違反物にリンクを貼ったらアウトだと思うよ。
2020/11/16(月) 11:04:23.47ID:3RMvypG00
技術スレも素材スレもそんなことしてなかったろ
2020/11/16(月) 16:56:16.74ID:Hp9O4PSG0
5chも簡単に日本の法律に従うようになったんか?
2020/11/16(月) 18:56:10.10ID:r3IEqbqg0
私日本人ニダ
うそじゃないニダ
2020/11/16(月) 19:49:22.39ID:TeQkIxXY0
まだFansegバージョンのままでXsegに移行してないのですが
Xsegって、他の人がtrainしたXsegモデルをもらってコピペすれば使い回しできるようですが
そのXsegモデルが顔前の障害物を十分trainされたものなら、再tranせずにdstにいきなりapplyするだけで
それなりのマスクが適用されるのでしょうか?
またsrc・dstをすでに f でtrainしている場合に、wf のXsegモデルって使えるのでしょうか?
よろしくお願いします
2020/11/16(月) 20:16:30.58ID:Nq1ILe+O0
mercury.bbspink.comだと大丈夫とか?
2020/11/16(月) 22:00:04.45ID:Nq1ILe+O0
>>638 >>626
フォーラムにあるXsegマスク済の顔(WFが多い?)をFull FaceでXseg Trainしたら
それなりのFull FaceのXsegモデルができました。Batch数も多くできるし、学習は速いです
笛、手などは上手くいくが、舌、前髪などは、自分でXsegマスクが必要かも
641名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
垢版 |
2020/11/16(月) 22:14:16.38ID:tpAMToL/0
学習させてて、人間の目から見たら目立つとこが超最後の方でしか学習されないことあるよね
全体の肌の質感は面積が広いから学習遅くても仕方ないとして、まつ毛と唇の光沢の学習の遅さが毎回気になる

特に唇の光沢が弱いとのっぺりするから優先的に学習してもらいたい
642名無しさん@お腹いっぱい。 (ワッチョイ 4556-yNxt)
垢版 |
2020/11/16(月) 22:16:40.84ID:tpAMToL/0
単にピクセル誤差を埋めるように学習するんじゃなくて、人間の目から見て重要なとこを
優先して学習するような仕組みをDFLにも取り込んでほしい
2020/11/16(月) 23:36:01.49ID:jbH/9GP+0
eye priority改造すれば出来るよ
2020/11/17(火) 12:11:41.91ID:Grit+M++M
それも大事だけど目鼻口の相対位置を反映させる機能があれば革命的に良くなるのになぁ。
2020/11/18(水) 08:36:41.57ID:gzVfzjLt0
今までフェイスタイプをfullで利用しておりWHOLEに挑戦してみようと思いまして。
6) train SAEHDの設定画面でフェイスタイプをfullからWHOLEに変更するにはどうしたらしたらいいんでしょうか?
ちなみにDSTとSRCはWHOLE用に細工はしています
一度FULLでやったら変えれないんでしょうか?
2020/11/18(水) 09:08:15.36ID:l4KupGxiM
facetypeってmodel毎に持ってて初回しか設定出来なくない?
もし変えたかったら新規で作るしかないのかな
2020/11/18(水) 10:50:51.58ID:u2Pu6V/j0
まずはwhole feceでextractし直さなきゃ
srcもdstも両方とも
modelも新規に作成してfece typeを選択
pretrain済みのものを拾ってきて利用してもいいけど
648名無しさん@お腹いっぱい。 (ワッチョイ 068b-jfI9)
垢版 |
2020/11/18(水) 18:32:48.85ID:A7yZYkB10
whole faceは日本人には意味ないって言われて、やったこと無いな
2020/11/19(木) 00:06:05.88ID:f+2ePRJM0
何時間もCPU&GPU100%で放っておくとすぐPCぶっ壊れそうで怖いな
2020/11/19(木) 01:22:39.91ID:Xe+MizZI0
確か、fullでやっとけばそれより狭い範囲は共用できたでしょ。つまり全部fullでやっとけってこと。
2020/11/19(木) 02:12:53.98ID:Ml9LICjg0
範囲で言えば
head > whole > full
だぞ
2020/11/19(木) 07:17:05.73ID:OJ4dRZrc0
>>649
この時期で壊れるなら熱排気が駄目すぎだろ
2020/11/19(木) 08:47:22.71ID:ZzKVxBnn0
RTXは3000のbuildあるけど、RX6800XTも対応したbuild出ないと使えないんかな
あの値段でVRAM16GMは魅力だから欲しいんだが
2020/11/19(木) 13:38:01.85ID:0jxmCp95a
>>653
OPENCL版が過去はあったけど、今はcudaだけ
あきらめろん
2020/11/19(木) 14:30:26.24ID:lLT8dCJ1a
もうAI系のソフトにRADEONは使えないだろうなぁ
Video enhance AIもRTXの方が速いし
■ このスレッドは過去ログ倉庫に格納されています
16歳の水野カイトが封印の刀を見つけ、時間が裂けて黒い風と亡霊の侍が現れ、霊の時雨と契約して呪われた刀の継承者となる場面

ニューススポーツなんでも実況