【AI】元歌手と判別できないレベルのAI歌声合成、名古屋工業大学と音声ベンチャーが開発[12/14]
■ このスレッドは過去ログ倉庫に格納されています
名古屋工業大学 国際音声言語技術研究所と音声合成を柱とするベンチャー企業テクノスピーチは12月12日、これまでの歌声合成とは一線を画す、元の歌い手の声質、癖、歌い方といった特徴を捉えた歌い方をディープラーニング技術などの適用で実現した。約2時間分の音声データで学習し、日本語、英語、中国語に対応する。
名古屋工業大学の徳田恵一教授を中心とするチームはこれまで、隠れマルコフモデルを使った統計的手法により、音声合成のOpen JTalk、歌声合成のSinsyを開発し、提供してきた。テクノスピーチはこれらを発展させた商用製品CeVIO Creative Studioの開発にも携わっている。今回の新技術はこれらを新たな次元に推し進めるものと言える。
名古屋工業大学とその出身者によるテクノスピーチの共同研究は、2019年3月に開催される日本音響学会2019年春季研究発表で公開される。
Sinsyと同じく、人手による調整がされていない「ベタ打ち」の歌詞付き楽譜データをMusicXML形式で与えるだけで、元歌手の特徴を再現する。
今回のデモはCeVIOで歌声を提供している、さとうささら、IAが使われていることから、CeVIOの将来バージョンまたは後継製品で使われることも予想される。
故人である三波春夫さんをバーチャルシンガーにした「ハルオロイド・ミナミ」がCeVIOに対応する歌声として製品化しているが、この新技術を使った、本物と区別がつかない仮想三波春夫による「世界の国からこんにちは」を期待したいところだ。
http://image.itmedia.co.jp/news/articles/1812/14/koya_cevio2.png
http://image.itmedia.co.jp/news/articles/1812/14/koya_cevio3.png
※記事の音源はこちらのlinkから聞けます
https://www.techno-speech.com/news-20181214a
ITmedia NEWS
http://www.itmedia.co.jp/news/articles/1812/14/news089.html >>217
そういうふうにもできるし、うまく歌わせることもできる、のだろうね 女の歌手の歌い方の特徴をそっくり盗んで、男の歌手の声で歌わせるとか
できるかもな。美空ひばる、とか 陛下のお言葉も今にソフトが代わりに読み上げるようになるのか。 そのうち美貌の少年少女を整形で作り、その声を元にして
AIソフトが裏で歌を歌って、口パクでもって歌手兼タレント
としてデビュー、それが普通の時代になるのかもしれないな。 整形なんて面倒な事をせずとも、ロボアイドルで十分だろ
今でも画面だけならバーチャルしとる おらさぁはあ、初音ミクだべや。
歌をば歌うべや。聞いてくんろ。
今後はこういうのが流行るべき。 各地の日本の地方語で自然に会話したり歌えるソフトが欲しいね。
あるいは一太郎のようなワープロも、標準日本語から各地方語に
変換する機能が欲しい。あるいは文語表現と現代語表現を変換
したり、明治、大正、昭和初期に新聞などで使われていた字体に
文章の表記を置き換えるような機能とか。草書体で印刷できる
機能なども。 一周回ってケロケロヴォイスで自然な声から遠ざかる。
ケロケロハルオフォン。 初音ミクなどのボカロの歌声はどうしても好きになれなかったけどこれなら良いんじゃないかな
これで自分で楽曲を作れるならボカロよりずっといい
更なる改良を進めて欲しい >>217
口パク禿おっさんアイドルには朗報だな。 多くの実在の歌手とその声や歌声の対応を学習させることにより、
任意に連れてきた人の顔の形や体形などを見せて、その人の声でも矛盾が無い
と人間が思うような声や歌声をAIに提案させることができるだろう。
たとえば既に死んでいて声などどこにも記録がないような人でも、
肖像画や彫刻を元にして矛盾感の出ない声を合成できる可能性がある。
それをさらに発展させれば、アニメのキャラとその吹き替えで使われている声優の
台詞の対をたくさん学習させる。何百のアニメキャラと声優の対応関係を学習
すると、それを元にAIは、任意にもって来られた漫画や今後制作する予定の
キャラの画とか設定をみて、それがアニメの中でしゃべるとすればこんな感じの
声になるというのを出して来ることができる可能性が高い。
そのソフトに、新幹線の写真を与えれば、如何にも新幹線ならこういう声を
出すかもしれないと思う声がでるし、ヤカンならこういう声を出すかもな、
郵便ポストならこういう声を出すかもな、などと思える声で話したり
歌うなどが実現するかもしれない(CMなどに使えるかも)。 >>231
それ安田大サーカスのクロちゃんだとどうなるんや 人間の外形とその音声や歌声のサンプルデータをたくさん集めることで、
機械学習させて、
イエス・キリスト像とかアベ・マリア像を与えて、それらがどのような声であり
どのような歌声を持つかを推定させれば、
スーパースターのイエス・キリストロイドとか、
スーパーボーカルのアベ・マリアロイダとかを作って、
賛美歌を歌わせたり、山上の教えを語らせたりできるな。
宗教画や彫刻像などをたくさん集めて平均画像、平均像を作り、
それでCGモデルを作れば、3Dライブでパフォーマンスもできる。
すばらしいとは思わんかね。(偶像崇拝は昔のキリスト教では
禁じられていたが、ルネッサンス以降はそうではないようだから
NGではないだろう。)ただし、イスラム教関係ではNGだから
類似のことには手を出したらいかん。 >>233
できるかわからん
本質的に推定不可能な量を推定しようとしてる可能性もある AIボイスチェンジャーで誰でも萌えボイスに!
っていう時代はまだですか Rolling In The Deepは現行のと比べると凄い進歩だな
歌と言うよりか話し言葉に近いが、
clearとbareのr発音がやけに伸びるところ以外は一般人歌ったように聞こえる >>41
NHKの大河でも、内容に合わせたニュース出てきたりするじゃん。
これの宣伝があの映画だよ。 ブリトニースピアーズのEverytimeも
smallのモーが変なのと高音域になると電子音が聞こえるが
その他はよく出来てる 元歌手だった人と判別できないの?
芸能活動しているけどバラエティに行っちゃった人とか? ベタ打ちでこれはすごい
10年ほど前にも初音ミクで曲作ってたけどすげー調節頑張っても機械っぽさ抜けなかったなー ■ このスレッドは過去ログ倉庫に格納されています