Googleは、脳の活動を解釈して音楽を作成できる新しいAIを導入しました。
と呼ばれる研究では「Brain2music: 人間の脳活動から音楽を再構築」、大阪大学と情報通信研究機構の研究者は、Google および Araya と協力して、人間の脳活動と関連した人工知能。
読むには —この AI のおかげで、Google はまもなく私たちがロボットと自然に会話できるようになるでしょう
彼らは「音楽を再構築する方法」を生み出しました。磁気共鳴画像法を使用してキャプチャされた脳活動機能的」。これを行うために、科学者たちは利用しましたMusicLM、テキストの説明から音楽を生成できるAIGoogleによって設計されました。 Brain2Music の AI は、テキストから音楽を作成するのではなく、MRI スキャンから取得した脳活動データを解釈します。
を訓練するには、Brain2Music のベースとなるニューラル ネットワーク、研究チームは5人の被験者に以下の実験を行った。ロックなどさまざまなスタイルの音楽の 15 秒サンプル、レゲエ、ジャズ、メタル。機能的磁気共鳴画像法を使用して取得されたビデオは、AI がパターンと脳の活性化領域を結びつけることを可能にした聞く音楽のさまざまな特性 (リズム、雰囲気、ダイナミクスなど) に応じて異なります。このデータが解釈され、言葉に変換されたら、あとはそれを MusicLM に提供するだけで、元の曲を「再作成」できるようになります。
ワーキンググループによると、実験の結果は非常に決定的である: 「生成された音楽は、ジャンル、楽器編成、雰囲気などの意味的特性に関して人間の被験者が経験した音楽刺激に似ています。」 「思考によって」音楽を作りたい作曲家は、まだしばらく待たなければならないだろう。 AIが偉業を達成したら、復元された作品は忠実とは程遠いソースで。