Neuralink 又整活了。這次不是讓猴子打游戲,而是讓一位說不了話的病人,用意念"開口"。
今年 1 月接受芯片植入的肯尼思 · 肖克,患有肌萎縮側索硬化癥——這種病會慢慢偷走患者的行動和語言能力。現在,他腦門里那塊叫 N1 的芯片,正在讀取他想說的話,轉成文字,再用他原本的聲音念出來。
整個過程有點像教嬰兒認字:先讓肖克大聲朗讀句子,建立"腦信號-詞語"的對應關系;再讓他只做口型不出聲;最后連嘴都不用動,純靠"想",系統就能解碼。
視頻里,肖克"說"了句挺科幻的話:"我在用意念和你說話。"
技術原理倒不神秘。大腦里原本指揮嘴、舌頭、喉嚨的區域會產生特定信號,芯片只是截胡了這些信號,把它們和"音素"——語言的最小發音單位——對上號,再拼成句子。工程師格拉納蒂爾打了個比方:他們的目標是讓"想動嘴"這個意圖本身,足夠讓系統猜出你要說什么。
當然,現在的體驗還稱不上絲滑。解碼需要時間,延遲肉眼可見。Neuralink 自己也說,這項"VOICE 臨床試驗"離普及還有幾年路要走。但方向很明確:更多傳感器、更高質量、最終做到實時腦轉語音。
肖克在視頻結尾用合成聲音說了句感謝。聽起來像他自己,又不太像——這種微妙的錯位感,大概是所有新技術剛落地時的共同特征。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.