IT之家 3 月 25 日消息,馬斯克旗下公司 Neuralink 的腦機芯片已能夠幫助殘障人士遠程控制鼠標光標或機械臂,如今該技術再獲新突破 —— 成功將大腦信號轉化為可聽見的語音。
![]()
當地時間周二,該公司公布了相關試驗成果,主角是今年 1 月接受腦機芯片植入手術的用戶肯尼思 · 肖克。肖克患有肌萎縮側索硬化癥(ALS),這是一種神經退行性疾病,會逐漸剝奪患者行走和說話的能力,造成嚴重的言語障礙。
不過,Neuralink 在一段視頻中展示,其 N1 腦機芯片可幫助肖克更輕松地交流,甚至無需動嘴。該植入設備能將他的大腦信號解讀為文字,再由計算機程序朗讀出來。
Neuralink 簡要介紹了這一技術的工作原理。該芯片并非像心靈感應那樣直接翻譯內心獨白,而是讀取特定的大腦信號,并將其與他想要表達的詞語匹配。公司在介紹這項臨床試驗時表示:“大腦中有特定區域會被激活并產生信號,這些信號原本會傳遞至嘴部、舌頭與喉部的肌肉。”
視頻還顯示,該植入設備搭配 Neuralink 軟件,可識別肖克的大腦信號,并將其與“音素”—— 也就是語言發音的最小單位,進行匹配。
在搭建語音解碼系統時,Neuralink 的機器學習工程師斯凱勒 · 格拉納蒂爾解釋道:“我們會引導他嘗試說出一些句子,并用這些數據將神經意圖與實際詞語對應起來。”第一階段,肖克會大聲朗讀樣本句子;第二階段,他僅做口型,不出聲默念。
![]()
格拉納蒂爾補充說:“我們的目標是讓他只需產生動嘴的意圖,我們的腦機接口(BCI)就能解碼出他想說的話。”
在第三階段測試中,視頻顯示 Neuralink 軟件在肖克完全沒有嘴部動作的情況下,成功識別出他的語音。植入設備能將大腦信號對應至每個音素,再將其組合成單詞,最終形成完整句子,由程序用肖克原本的聲音朗讀出來。
他借助芯片一度說道:“我在用意念和你說話。”
![]()
據IT之家了解,這項測試是 Neuralink 正在進行的“VOICE 臨床試驗”的一部分,因此該技術想要普及可能還需要數年時間。視頻也顯示,目前的解碼過程仍有待優化,例如軟件讀取大腦信號并轉化為語音仍需要一定時間。盡管如此,Neuralink 計劃長期對這項技術進行大幅升級。
格拉納蒂爾表示:“我們會持續提升傳感器的質量與數量。我們希望打造出能直接實現大腦實時轉語音的系統。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.