科学者は、スピーチについての考えをに翻訳できるデバイスを開発しました 話された言葉 リアルタイムで。
それはまだ実験的ですが、彼らはそれを望みます ブレインコンピューターインターフェイス いつか話せない人に声を与えるのを助けることができます。
新しい研究では、18年間話すことができなかった四肢麻痺の47歳の女性のデバイスのテストを説明しました ストロークの後。医師は、臨床試験の一環として、手術中に脳にそれを移植しました。
それは「流fluentな文章に語る意図を変換する」と、ジャーナルNature Neuroscienceに発表された研究の共著者であるGopala Anumanchipalliは述べた。
発話のための他の脳コンピューターインターフェイス、またはBCISは、通常、文の思考とコンピューター化された言語化の間にわずかな遅延を持っています。このような遅延は、会話の自然な流れを混乱させる可能性があり、誤解や欲求不満につながる可能性があると研究者は述べた。
これは「私たちの分野でのかなり大きな進歩です」と、カンザス大学のスピーチと応用神経科学研究所のジョナサン・ブルンバーグは、研究の一部ではなかったと述べました。
カリフォルニアのチームは、電極を使用して女性の脳の活動を記録し、脳内で静かに文章を話しました。科学者たちは、怪我の前に彼女の声を使って作ったシンセサイザーを使用して、彼女が話したであろう音声を作成しました。彼らは、神経活動を音の単位に変換するAIモデルを訓練しました。
カリフォルニア大学バークレー校のAnumanchipalli氏によると、会議や電話をリアルタイムで転写するために使用される既存のシステムと同様に機能します。
インプラント自体は、脳の音声中心に位置しているため、耳を傾け、それらの信号は文章を構成する音声に翻訳されます。これは「ストリーミングアプローチ」であり、Anumanchipalli氏によると、80ミリ秒の音声(約半分の音節)がレコーダーに送られています。
「文が終わるのを待っていません」とAnumanchipalliは言いました。 「それはその場でそれを処理しています。」
自然なスピーチの速いペースに追いつく可能性があるとすぐに解読するスピーチは、Brumberg氏は述べています。音声サンプルの使用は、「言語の自然さの大きな進歩になるだろう」と彼は付け加えた。
この作業は国立衛生研究所によって部分的に資金提供されていましたが、Anumanchipalliは最近の影響を受けていないと述べました NIHの研究カット。テクノロジーが広く使用できるようになる前にさらに研究が必要ですが、「持続的な投資」により、10年以内に患者が利用できる可能性があると彼は言いました。