AI: 2 人の口のきけない女性が、脳をコンピューターに接続することで自分の声を見つける

ブレイン マシン インターフェイスと人工知能のおかげで、言葉を奪われた 2 人の女性が自分の声を見つけました。 1 つは仮想アバター経由、もう 1 つはテキスト形式です。

クレジット: 123RF

30歳のとき、アンはAVC(脳卒中)。彼女が出てくる重度の麻痺があり話すことができない、彼の脳の音声を担当する領域が損傷しすぎていたのだ。数年後、彼女は研究プロトコルを使用することを目的としたブレインマシンインターフェース彼に声を取り戻すために。研究者らはまず、紙のように薄い小さな長方形。その表面には、表現を可能にする領域に接続された 253 個の電極。小さな箱患者の頭蓋骨から出てくるそしてあなたができるようにしますすべてを複数のコンピュータに接続する

こちらもお読みください –Google、あなたの考えから音楽を生成する AI、Brain2Music を発表

アンはその後、人工知能アルゴリズムで構成される文を何週間も繰り返すことによって、1024 の一般的な語彙。 AIは学習するだけで十分です39 音素英語の(言語の音要素)。彼の声を合成するには、科学者たちはアンの録音を使用、彼の結婚式で行われたスピーチを含む。あアニメーション化された仮想アバター全体に顔を与える責任があります。つまり、一度接続すると、アンは言いたいことを考え、機械が彼女の脳波を解釈し、合成音声が言葉を発音します。。アバターの顔、感情を表現する

現在、アンの平均は1分あたり78ワード(従来の会話の 160 と比較)、エラー率は 25% です。パットの話もほぼ同じただし、筋萎縮性側索硬化症(ALS)またはシャルコー病、それは彼女を言葉を失います。彼の場合、脳が接続されているマシンは自分の考えをテキスト形式で書き起こし、エラー率は約 24%150,000の語彙

システム全体の効率を向上させることに加えて、次のステップは次のことです。ワイヤレスで可能な限り省スペースにする。これらの技術の進歩は、大きな転換点麻痺した人や変性疾患に苦しんでいる人のケア。研究者たちは、自分たちがまだそうだということを認識しています。大規模な商業化には程遠い、しかし将来的には非常に自信を持っています。できるようになるのを待っています思考を通じてコミュニケーションする例えば。

ソース :新しいアトラス