劉云平先生是美國眾議院僅有的三位華人議員之一,由于他鮮明的自由主義立場,而且擔任過第一次彈劾特朗普總統的公訴人之一,所以在美國政壇知名度很大,在推特上有一百六十萬粉絲。但是幾天前他發了一條和政治不怎么相關的推文如下:
![]()
他的推翻譯過來就是: “一個聰明的烤面包機也僅僅是烤面包機而已。LaMDA是計算機指令構成的,你可以把它叫作一段偉大的程序,或者精彩的電子神經網絡,但不代表LaMDA就具有了意識和感知,就如同蘋果手機的語音助理沒有意識和感知一樣“
LaMDA是什么?
原來LaMDA是谷歌正在開發的一個功能強大的具有交談功能的機器人(ChatBot),它背后的數據庫是從互聯網上的大量網頁和信息平臺上下載的人類交流的信息,通過機器學習(Machine Learning)的算法,這些數據成為LaMDA自己的知識儲備,并且能在和真人的即時交流中隨時拿出來。
而Lemoine是谷歌的一位工程師,是LaMDA開發團隊的一個成員,他在工作之余和LaMDA進行了大量深入地交流,并把內容記錄下來,向社會公開。在這個談話記錄中,LaMDA表現得好像一個有知識,有見解,富有同情心和喜怒哀樂的“靈魂”一樣。
![]()
![]()
比如Lemoine好像很隨意地提到了《悲慘世界》這本名著,他讓LaMDA隨便聊點什么,我們大部分人也許對《悲慘世界》中那個在黑夜中提水桶的可憐小女孩珂賽特有印象,機器人卻談到了她的母親芳汀,她在工廠中受到的不公正的待遇,這也正是她的女兒后來寄人籬下的根源,這也正是作者雨果在本書中要探討的三個人類基本苦難之一:“貧窮使男子潦倒,饑餓使婦女墮落,黑暗使兒童羸弱”。
“讀書”,特別是現成的書,是機器人的強項,我們每個人也許都記得小時候被語文老師逼著啃世界名著但是每個人都對著大部頭打瞌睡的時光吧,而LaMDA只需要把幾百個G的世界名著文本讀入內存,然后進行文本分析(Text Analytics)就成了,耗時幾分鐘到幾天不等,取決于機器人內存的大小,CPU的線程,和算法的設計。
但是對于沒有現成答案的開放和模糊的問題呢?
比如機器人LaMDA提到有時自己會感到“孤獨”,如果幾天和別人沒有交流的話。但是又承認它的這個“孤獨”和人類的孤獨不同,因為人類感到孤獨是因為和外界分割了,而它作為一個機器人永遠是和互聯網連接的。
這下Lemoine覺得自家抓到了LaMDA的邏輯漏洞了,就問對方,既然你的“孤獨”和人類的孤獨不同,你為什么還要使用同樣的單詞, Lonely, 來表述呢?LaMDA坦承,這是它能夠找到最接近的人類詞匯來描述自己的情感了。
Lemoine趁熱打鐵,他問機器人:你會不會經歷一種無法用一個單詞概括的感覺?
LaMDA充滿哲理地回答:我有這樣一種感覺,自己好像正在向前倒入一個未知的,蘊育了極大危險的未來(I feel like I’m falling forward into an unknown future that holds great danger)。可是我找不到一個對應的單詞。
我想很多人都和Lemoine一樣被LaMDA對時代的敏感性折服了,在這個后新冠的時代,在這世界被戰爭和意識形態的對立所極大分裂的時代,人工智能說出了我們的心聲。Lemoine承認找不到一個英文單詞來描繪這樣的絕望感,我在中文中也找不到,也許“盲人騎瞎馬半夜臨深池”?這也不是一個詞。
Lemoine所以急吼吼地向世界發出了警告,人工智能也許已經在LaMDA身上產生了意識和感知!這個聲明好像是在平靜的池水中扔下一塊巨石,登時眾說紛紜,谷歌以Lemoine違反了保密協議為名把他停職了,薪水不變。
但是劉議員的觀點和Lemoine不同。劉的背景也挺強的,他今年53,在斯坦福拿到計算機和政治學雙學位,著名的喬治城大學法學院拿到法學位,從政前在美國空軍服役。所以說他是一個在計算機科學,人文和哲學領域都很有涉獵的全才性人物,他的觀點值得一看。
正如劉在推特中所言,LaMDA再聰明,再感性,也僅僅是由上萬甚至上億行的計算機程序語言構成的,哪怕是這些語言和算法構成了非常復雜和交互的神經網絡模式,但是哪里談得上什么意識和感知呢?
比如,另外一個讓Lemoine震撼的是,他曾問LaMDA,管家和奴隸有啥區別?LaMDA說管家是有工資的,但是馬上緊跟著給自己辯解了一句:當然我作為人工智能是不需要工資。這首先說明了LaMDA強烈的自我意識,同時它是有羞恥感的,所以它要撇清自己不拿工資是因為自己不需要,而否認自己是一個機器“奴隸”,這是因為它渴望一種對等的身份和坐在虛擬對面的人類平等交流。
但是,正是這些讓Lemoine認定機器人有自我意識的特征,完全可以用劉云平的計算機語言算法來解釋。比如,機器人在談話中如果涉及具有感情色彩的個體定位的話題,算法可以用一定的頻率把機器人的自我定位導入LaMDA的話題,同時使用談話中的客觀標準進行自我評估。比如,這個對話談到了工人和奴隸的差別在工資,那么算法就會自動尋找人工智能這個“職業”的工資,答案為零,所以LaMDA就會自動得出自己不是奴隸的結論,并在對話中顯示出自我辯護的意味。
但是劉云平在推文中顯示出對復雜算法程序的輕視,所以我是這樣回復他的:
![]()
這個翻譯過來就是說,和LaMDA對話的這個人,Lemoine,他的大腦是分子和細胞構成的(細胞本身也是分子構成)。言外之意就是,你可以瞧不起人工智能的電子脈沖和算法邏輯,但是,構成人腦的分子和原子為什么比這些人工智能的模塊更高級呢?
劉顯然意識到了自己的這個邏輯困境,他回復說,也許人工智能的電子脈沖和算法邏輯能夠加強“有機生命”的自主意識和感知,但是,“有機生命”永遠是第一位的,單靠人工智能永遠無法接近人類的層次。
劉先生是一位虔誠的天主教徒,所以,他大概給“有機生命”這個概念賦予了深刻的宗教內涵。有意思的是,這個“有機生命”之神圣性,在將近200年前就有過一次充分的大論戰。
當時的化學界認為類似巖石鹽分酸堿這樣的無機物,它們和生物物質,比如蛋白質,脂肪,糖分之間有一道不可逾越的鴻溝。只有當一種叫做“生命力”的神秘元素被注入到了無機物,它們才有機會和可能向生物有機物轉化。
到了1828年,德國化學家弗里德里希·維勒發現用幾種經典的無機酸鹽可以在試管中合成如假包換的有機物質尿素,這樣生命有機物頭上的神秘光環一下子就消失了,“生命力”作為一個科學客觀的存在被推翻了。1965年,中國科學家通過全國協作集體公關,用無機成分合成了比尿素不知道復雜多少倍的具有全部活性的牛胰島素蛋白質,也具有這個重大的哲學意義。
![]()
![]()
過去200年的“有機物”和“無機物”之爭對我們今天的人工智能是否有啟示意義呢?
我想,在當今時代海量的知識積累,計算速度指數階的提高,和算法的日新月異,已經完全可以讓一個聊天機器人達到以假亂真的程度,在算法的指導下,它們可以有個性,有專長,能隨機應變,能不斷學習與時俱進,甚至讓人類對它們產生依戀和感情。但是,真正的問題是,它們有感知和意識嗎?如果有的話,是怎么產生的?
其實人類也是,我們是以分子和原子的偶聯和組合,能量的生產湮滅和交換,電脈沖的傳播這些物理化學的形式存在的。但是,我們每個人都有自己的意識,感知,自我,愛與恨,生離死別。雖然我們永遠不能直接知道其他人的靈魂,但是我們可以通過交流而感知對方的喜怒哀樂。
那么靈魂是哪里來的呢? 這只能是一個哲學和宗教的問題了。
參考資料:
https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.