MicrosoftのAIりんな、話し声や歌声で嬉しい感情・悲しい感情を表現可能に 26
ストーリー by headless
感情 部門より
感情 部門より
Microsoftのりんな開発チームは1日、AI「りんな」で人間の声の感情表現が可能になったことを発表した(Microsoftのニュース記事)。
今回りんなは約2時間分の「嬉しい」および「悲しい」声を学習。文章の内容から感情表現方法をニューラルネットワークが予測し、それぞれの「感情スタイル」での話し声を生成できるようになったそうだ。Microsoftでは人間の声のニュアンスを学習して再現することを「スタイル」と呼んでおり、「感情スタイル」は人間の声の感情表現を再現するものだという。また、「歌唱モデル」にも「嬉しい」および「悲しい」声を学習させ、歌唱表現と感情表現を組み合わせた歌声も生成可能になったとのこと。
ニュートラルな話し声に対し、感情スタイルを適用した「嬉しい声」「悲しい声」の音声サンプルや、AIりんなのシングル曲「snow, forest, clock」の一部に感情スタイルを適用した歌唱例の動画、感情スタイルの話し声を使用して「廃線ウォーク」をりんなが案内するVRコンテンツも公開されている。個人的には強いなまりが気になって感情どころではなかったが、スラドの皆さんのご感想はいかがだろうか。
今回りんなは約2時間分の「嬉しい」および「悲しい」声を学習。文章の内容から感情表現方法をニューラルネットワークが予測し、それぞれの「感情スタイル」での話し声を生成できるようになったそうだ。Microsoftでは人間の声のニュアンスを学習して再現することを「スタイル」と呼んでおり、「感情スタイル」は人間の声の感情表現を再現するものだという。また、「歌唱モデル」にも「嬉しい」および「悲しい」声を学習させ、歌唱表現と感情表現を組み合わせた歌声も生成可能になったとのこと。
ニュートラルな話し声に対し、感情スタイルを適用した「嬉しい声」「悲しい声」の音声サンプルや、AIりんなのシングル曲「snow, forest, clock」の一部に感情スタイルを適用した歌唱例の動画、感情スタイルの話し声を使用して「廃線ウォーク」をりんなが案内するVRコンテンツも公開されている。個人的には強いなまりが気になって感情どころではなかったが、スラドの皆さんのご感想はいかがだろうか。