![]()
![]()
文 _ 顧凡及(復旦大學生命科學學院)
聊天機器人近年異軍突起。問它問題,似乎無所不知;要它做文案工作,幾乎無所不能。人們驚呼人工智能即將趕超人類智能,對人類構成前所未有的威脅。這或許是當下最受關注的一個開放問題,但既然是開放問題,自然就還沒有定論。本文試圖梳理幾位人工智能科學家和腦科學家對這個問題的種種看法,這些觀點有相當的代表性,且言之有據又不盡相同,甚至在某些問題上針鋒相對。筆者自然不敢狂妄自居裁判,只是扼要地擺出他們的觀點和論據,少數地方加上筆者個人的思考,目的是拋磚引玉,引起讀者的思考。
2024年底,人工智能“三教父”之一的辛頓(Geoffrey Hinton)在接受采訪時說:“就短期而言,我擔心的是網絡攻擊和生物武器。……在中期,我擔心就業問題和自主致命性武器。從長遠來看,我最擔心這些人工智能系統變得比我們更聰明,最終取代我們。”[1]
另一位“教父”楊立昆(Yann LeCun)則認為,現在的人工智能甚至還沒達到“貓類智能”:“……實際上,絕大多數人工智能研究人員都更認同我,而不是那些擔心巨大風險的人的觀點。只是那些擔心存在風險的人的聲量更大,或者說他們當中有一部分人更喜歡危言聳聽。辛頓或許不是這樣,但其中一些人確實如此。坦白講,人們害怕什么就說什么,寫聳人聽聞的東西更容易吸引讀者。如果你說一切安好,反而很難讓人信服。”[2]
![]()
辛頓。圖片來自utoronto.ca
然而僅在幾年之前,辛頓還認為人工智能不可能在50—100年內超越人類智能,但是有兩件事使他改變了觀點。
首先,他曾考慮是否需要構建像腦一樣的模擬系統以實現低能耗的人工智能,但當他把腦的“模擬智能”和數字計算機上實現的“數字智能”進行比較時,他認識到由于電子器件處理和傳輸數據的速度要比神經元快得多,一臺機器能夠“學到”的知識要比個人多得多。另外,由于數字信號是精確的,機器可以精準復制,一臺機器學到的知識(表現為權重和梯度)可以拷貝到其他有同樣結構的機器上,由此學到不同知識的數字機器可以平均它們的權重和梯度,從而分享各自學到的知識,這樣數字機器就可能學到所有現存的電子文本,這是一個人即使活一萬年也做不到的。
其次,一個人也不可能把自己學到的知識原封不動地拷貝給另一個人,而只能通過緩慢的肉體通信(如說話)來改變另一個人腦中的突觸強度,這個過程非常緩慢,而且會漏掉大量“不可言傳”的知識。也正因為此,數字智能可以永生,但模擬智能如人類智能一樣不可能永生,一旦承載其智能的系統崩壞/肉體死亡,智能也就隨之而去而ChatGPT的巨大成功也出乎他的意料,使他認為數字智能比模擬智能更強。
此外,辛頓認為真正的智能體必然會產生自己的目標,并可能不受人類的控制,因此近年他大聲疾呼人工智能的危險性,并呼吁投入大量資金研究人工智能的安全問題,為此他甚至退出了谷歌,以便可以自由發聲。
![]()
楊立昆。圖片來自nyu.edu
楊立昆認為,現在最走紅的人工智能(大語言模型)不要說和人類智能相比,連“貓類智能”都不如。貓具有他所認為的“智能四要素”——物理世界的內心模型、持久的記憶、一定的推理能力和計劃能力,這些特性都是語言大模型不具備的。他喜歡舉的一個人類智能的例子是,一個10歲小孩都知道應該怎樣收拾餐桌,而現在還沒有任何智能機器人能做到這一點;另一個例子是,一個17歲的孩子經過20個小時的培訓就能學會開車,而“自動駕駛汽車”雖然被投喂了海量的實際行駛數據,卻至今未能真正達到L5級別(完全自動駕駛級別)——現在的汽車廠商都已把曾一度吹噓的“無人駕駛”改為“輔助駕駛”。各種“日常瑣事”在實驗條件下演示一下是容易的,但是真的要付諸日用,難免百密一疏,碰到訓練時沒想到的“長尾事件”,人工智能就更不知所措了;而人總能根據以往的經驗隨機應變,通過類比采取盡可能好的應對措施,雖然也不能保證百分之百成功。
針對數字智能可以閱讀遠比個人一生能讀的多得多的文本這一論點,楊立昆強調:雖然從語言文本上來說,情況確實如此,但一個4歲小孩出生以來在醒著時接收到的視覺信息量就要遠超現在所有互聯網上的文本信息,更不要說他還會接收到聽覺、觸覺、嗅覺等其他信息。動物和人在出生后首先通過這些觀察,然后進一步通過互動,能接收到遠比聊天機器人僅從語言文本上接收到的多得多的信息。這也是為什么動物和人具備“智能四要素”,而聊天機器人不具備。由于現在的巨型語言模型幾乎已經耗盡互聯網上的文本信息以作訓練之用,所以按原有路線進一步提升其智能水平的空間已經非常有限。
楊立昆又指出,人們曾經以為語言是智能皇冠上的明珠,因為只有人才有語言,但其實語言比較簡單,因為它是一維、離散且元素有限的,這才使人可以根據前文預測后詞的概率;而對于高維、連續且后續場景有無窮可能性的視覺景象,就沒法在像素水平上做概率預測,而需要另辟他徑。
![]()
李飛飛。圖片來自網絡
在人工智能不能限于大語言模型這一點上,李飛飛和楊立昆觀點一致。除了“語言智能”,她還提倡研究“空間智能”。按照她的定義,空間智能是“理解、推理、生成和與三維世界互動的能力”[3]。她特別強調“互動”,認為智能的真正重要之處不在于思考,更在于運用思想采取行動,以適應環境變化。
那么,如何看待他們的不同意見呢?筆者以為,就人類已有的書面知識來說,辛頓的話是有道理的,當下我們可能在世界上再也找不到一位比大語言模型更博學的“博學家”,但是其博學程度總歸還是受到訓練它的數據的限制:它不僅做不到“言人之所未言,想人之所未想”,更沒有像達爾文或愛因斯坦那樣的創造性思維,如果不接入互聯網,甚至回答不了有關最新事態的問題。大語言模型所知雖廣,但仍受限于訓練數據集。
所以,盡管大語言模型式的人工智能在絕大多數問題上,僅從書面知識上來說,可能足以“碾壓”絕大多數人類個體——辛頓的論證在這方面是成立的,但是當前大語言模型的智能還不可能超越人類全體的智能,因為它的知識都只來自人類已經創造出來的知識,它自己并無創造性。
以上三位人工智能科學家的論點針對的都是大語言模型,但是大語言模型只是深度學習的一個子領域,深度學習則是聯結主義人工智能的一個子領域,而聯結主義人工智能也只是人工智能的一個子領域,還有一個曾風光無兩,但是在深度學習興起后黯然無光的符號主義人工智能。楊立昆批評大語言模型缺乏長期記憶和推理能力,這一論點雖然沒錯,但是長期記憶和推理能力卻是符號主義人工智能的強項。這兩大主義未必一定互斥,現在已有一些科學家正在考慮將兩派思想互補,開創出新一代人工智能。
讓我們回過頭來,再度思考人工智能能否達到人類智能水平。筆者以為,僅從邏輯上來說,無法絕對排除這種可能性。因為人腦歸根到底只是某種物理系統,它能實現人類智能,就證明有適當組織的物理系統是可以實現人類智能的,類似數學中的“存在性定理”。可惜的是,這種“存在性定理”并非構造性的,也即它沒有告訴我們怎樣做才能構造出這樣的系統。所以在筆者看來,也很難預測究竟在什么時候才能做到這一點,但是可以說,有很大的概率總有一天會做到這一點。
認為人是“天之驕子”的思想根深蒂固,人們總是會舉出一些人能做到而機器做不到的例子,總想在人類智能和機器智能之間劃條界線:一開始是“人能計算而機器不能”,但是這條界線早就破防;后來是“人能證明數學定理而機器不能”,但是明斯基(Marvin Lee Minsky)和王浩等人先后用計算機把羅素的數學巨著《數學原理》中的定理證明了個遍;再后來是“機器在國際象棋上戰勝不了人類頂級棋手”,然而計算機“深藍”一戰而勝國際象棋世界冠軍卡斯帕洛夫(Garry Kasparov);然后又說“還要幾十年機器才能戰勝圍棋世界冠軍”,但是這一預言又很快破產……這條界線在不斷后移,說人能做到而機器不能的領域正在不斷縮小。在筆者看來,這條界線總有一天會消失,但很難預言何時會消失。
現在讓我們來看看這條界線當今在哪里吧!由于人類智能和人工智能(其實就是機器智能)的界線與人腦(一種模擬系統)和數字智能機器的區分關系非常密切,所以下文將不會對二者做嚴格區分。
![]()
計算機與人腦
[美] 馮·諾依曼
北京大學出版社 2010
數字計算機之父馮 · 諾依曼(John von Neumann)在其遺作《計算機與人腦》[4]中強調,他所發明的計算機是一種數字系統,而人腦是一種模擬系統或模擬—數字系統。神經元傳輸信號只在離散的發放脈沖時刻才消耗能量,在沒有脈沖時不消耗能量。相比之下,計算機為了保證信號傳輸的精確性,必須維持足夠大的代表0和1的電壓差,且在每次電壓反轉時都要消耗比較多的能量。這也是造成當前“數字智能”能耗居高不下、制約大語言模型規模進一步擴大的根本瓶頸之一。另外,在數字計算機中存儲器和處理器是分離的,信息在這兩者之間的頻繁交換也要消耗大量能量,而腦內沒有存儲器與處理器之分。正因如此,人腦的能耗只有二三十瓦,而要仿真人腦神經元同等規模的人工神經網絡,能耗可能是人腦的100萬倍。但是即便如此,這仍不意味著后者就可以執行人腦的所有功能。
一言以蔽之:腦是一種模擬系統,是高度節能的,而數字計算機(包括現在的絕大多數的智能機器)是一種數字系統,高度耗能。當然,現在有些科學家也在開展仿照人腦的節能研究,研發通過發放脈沖傳輸信息,并把處理器和存儲器集成在一塊芯片上的所謂“神經形態系統”。這樣可比傳統計算機仿真減少四個數量級的能耗,但是相較人腦依然是能耗大戶。并且,如果要用這種系統構建大語言模型也會碰到實質性的困難,例如很難在這樣的大模型上采用傳統人工神經網絡應用的標準反向誤差傳播算法[5]。
以上所列都是對腦有了解的信息科學家的看法,下面我們再來看看有數理背景的神經科學大師們的一些觀點。
![]()
意識的宇宙
[美] 杰拉爾德·埃德爾曼、[美] 朱利歐·托諾尼
上海科學技術出版社 2019
諾貝爾生理學或醫學獎得主埃德爾曼(Gerald Edelman)在其2000年出版的《意識的宇宙》[6]一書的“腦不是計算機”一節中,專門論述了腦和計算機的差別。現在過了差不多1/4個世紀,重讀他當時的論述,這條界線雖在某些方面略有后退,但是他所講的主要差別依然成立:
(1)人腦通過各種感官感覺環境,從各種不同信號(多模態信號,如光信號、聲信號、機械刺激信號、化學信號等)中歸結出一些模式來分類,和腦內部存在的有關外部世界的模型進行匹配,做出預測并采取行動。實際上,楊立昆和李飛飛都在朝這個方向努力,但是還沒有實現重大突破,特別是在如何建立和不斷更新外部世界的內部模型方面。
(2)腦中有一些特殊的有彌散性投射的核團——價值系統。這個系統會向整個神經系統發出信號,通知遇到了突發事件,它也會影響突觸強度的變化。現在有些深度學習神經網絡,如AlphaZero等,除了具備執行行動的網絡,還有一個評估網絡,會對每步動作的價值進行評估,可以看作朝這個方向努力的一步。
(3)腦是一種選擇性系統,而非計算系統。腦中的幾十億個聯結都不是精確的。從最精細的尺度上來看,沒有任何兩個腦是一樣的,即使同卵雙胞胎的腦也不完全一樣。雖然可以用同樣的話來描述不同腦的某個特定腦區總體上的聯結模式,但是腦在神經元的最精細部分上的微觀差別是巨大的,這種千差萬別也使得每個腦都獨一無二。腦是進化出來的,而非設計出來的。筆者認為,進化無須考慮“成本”(無論是時間還是金錢),也根本不要求“標準化”,反而更依賴多樣化,從而遵循優勝劣汰的原則;而工程師在設計機器時,成本和標準化都是其必須考慮的因素。
(4)腦的物理結構本身也在動態變化。一天過后,同一個腦中的某些突觸聯結不大可能精確地維持不變;某些細胞會收縮它們的突起,另一些會長出新的突起,還有某些會死掉,這一切都有賴于這個腦所經歷的特定歷史。隨之而來的個體差異并不只是噪聲或誤差,它們會影響我們記憶事情的方式。這也是腦能夠適應將來可能發生的無數不可預測事件并對其起反應的關鍵因素。現在還沒有哪一種人造機器在設計時會把這種個體的多樣性和動態變化作為一條主要原則來加以考慮。
(5)腦內相互聯結的區域之間不斷進行著并行信號的遞歸性相互交換,這些相互交換在時空維度上不斷地協調著各區域中相互映射區的活動。這種相互交換和反饋不一樣,它有許多并行的雙向通道,并且沒有特別的指令性誤差函數。埃德爾曼把這種并行的雙向聯結稱為“復饋”。他認為復饋是分布在許多不同功能區的不同神經元群的活動得以大范圍同步的基礎,而這種同步又是知覺過程和運動過程整合的基礎。復饋使得知覺和行為得以統一。在筆者看來,也正是復饋使得我們難以用科學傳統上所使用的基于線性因果鏈之上的還原論策略,去研究腦包括智能在內的高級功能的神經機制—這種復饋使得通過復饋聯結的不同腦區互為因果,這樣的因果關系就成了“循環因果關系”,而非傳統的線性因果鏈。
![]()
腦機革命
[巴西] 米格爾·尼科萊利斯
浙江教育出版社 2023
腦機接口先驅尼可萊利斯(Miguel Nicolelis)在其新作《腦機革命》(
The True Creator of Everything) [7] 中專門花了一章的篇幅來說明用硅芯片重構人腦“完全沒有成功的可能性:現在沒有,以后也不會有”,其原因也是腦是一種模擬系統,而現在的智能機器都是數字系統。尼可萊利斯指出:“在圖靈機中,信息的表示是形式化的,即抽象的,以句法形式呈現的,而不像大多數生物系統那樣是物理的,以語義形式組織起來的……描述大腦功能的豐富動態語義不能被還原為數字計算機所采用的有限的算法語法。這是因為涌現同時在大腦物理組織的不同層次發生,涉及數十億個自下而上和自上而下的互動事件的精準協調……”最后這句話的意思也是講,這里起作用的是循環因果關系。
“機械裝置是根據預先準備的計劃或智能藍圖而設計建造的,因此涉及計算機模擬和逆向工程;生物體的出現是從分子到整個生物體的多個組織層面發生的大量進化步驟共同作用的結果,這些步驟不依照任何事先建立的計劃或智能藍圖,而通過一系列隨機事件執行。因此,生物體與它們的環境密切相關。在考慮生物體內的信息流時,獨立于物質基質或非實體信息的概念不再適用。在大腦中,……一系列不同的生物組織層都參與了信息流的處理。此外,生物體產生的信息會不斷修改產生信息的物質基質。……我們無法對從未被設計過的東西進行逆向工程。”
“人的心智活動不能被還原為運行算法的數字系統。”尼可萊利斯舉例稱,人們認為自己的母親和女兒是“美”的,但是無法把“美”形式化。其實,不僅是“美”這樣的抽象認知,所有只能意會不可言傳的主觀體驗特性(qualia,如中國國旗讓我產生了“紅”這一主觀體驗是別人無法分享的,一位紅綠色盲對中國國旗顏色的主觀體驗也肯定和我不同,但是我們都無法讓對方知道自己的確切體驗是什么)或感受(feeling,如外國人對皮蛋的嫌惡感是我所無法共情的)都無法形式化。我想在可預見的未來,也不會有任何數字機器能體驗到它們。確實,當前的AI系統并沒有真正的意識和情感,而人類不僅可以處理信息,還擁有意識、情感和主觀體驗,這些都是人腦智能的重要組成部分。筆者以為,尼可萊利斯所講的不能還原性,也是因為人的心智活動發生在循環因果關系主導的復雜網絡中,腦并沒有明顯的單向層次結構,可以逐層向下還原。
![]()
精準學習
[法] 斯坦尼斯拉斯·迪昂
浙江教育出版社 2023
另一位熟諳信息技術的腦科學大家德阿納(Stanislas Dehaene)[8],在近作《精準學習》(
How We Learn) [9] 中也用大量篇幅討論了這一問題,甚至其中一小節的標題就是“人工智能缺少了什么”。在他的論述中,除了前面幾位科學家提到過的方面,還包括下列差別:
(1)機器沒能高效地利用數據,而人腦能利用少量數據進行學習;深度學習進行的是大樣本學習,而人腦能進行小樣本甚至單樣本學習。這一點幾乎已成共識,不過辛頓對此提出異議,認為這樣的比較有點像拿一位人工智能的“初生嬰兒”去和麻省理工學院(MIT)的博士生進行比較。事實上,一個經過大數據訓練的大語言模型也能進一步在很少數據的訓練(微調)之下學會新知識。
(2)社會學習。人類是唯一會主動分享信息的物種,我們通過語言向其他人學習,從小脫離人類社會的狼孩的智能無論從哪個方面來看都更接近于狼而非人。
(3)人腦能夠從具體事例當中發現普遍規律,而深度學習算法幾乎無法進行任何深刻的思考。
![]()
陶威爾教授的頭顱
[蘇] A.別利亞耶夫
科學技術出版社 1959
除了上述腦科學大師們的論述,目前在人類智能和機器智能領域還有一個熱點問題,那就是具身智能。人腦要維持正常的智能,必須依托身體,且這個身體須能與豐富的環境主動交互。以前有些科幻小說,如蘇聯科幻作品《陶威爾教授的頭顱》,設想通過灌流營養液維持人腦的正常思維。實際上,這種設想是不可能實現的,且不說身首分離,即使腦袋依然長在身體上,如果剝奪了對環境的主動探索,也不能維持正常的智能。有科學家做過這樣的實驗:平時把兩只小貓養在黑暗的環境中,每天只有三個小時讓它們見光,科學家制作了一個大圓筒建筑,中間有一個大轉桿,桿的一端有個座椅,有一只小貓總是作為“乘客”固定在這個座椅上被動地觀看,另一端則讓另一只小貓總是作為“車夫”拉動轉桿轉動。雖然這兩只小貓看到的景色是完全一樣的,但經過長期訓練后,作為“車夫”的小貓的視覺是正常的,作為“乘客”的小貓卻沒有深度感知。
現在的人工智能都還像“陶威爾教授的頭顱”,沒有具身智能,不會主動探索和動態交互,更缺乏社會智能。但是如果讓智能機器人成群結隊,形成某種“社會”,那么又將如何?雖然說這話似乎為時尚早,但是從原則上來說這并非全無可能。
總之,原則上我們不能完全排除人工智能有朝一日會全面趕上人類智能,但是由于兩者在實現上存在巨大差異,筆者以為這一天不會很快到來。至于說“超過”,我們必須把具體能力和元能力[10]區分開來。在許多具體能力上,人工智能早已超越人類,例如下棋。但是人工智能的元能力是由設計者給定的,因此大概率不會超過人類。此外,人工智能也不可能在各個方面都和人類智能一樣。例如,即使人工智能擁有機器人的身體,但是這個身體也和人體完全不同;即使智能機器人可以聚集成群,這個群體也不會和人類社會一樣。人工智能當然是受人類智能啟發的產物,但是不必也不可能拷貝人類智能。人類智能和人工智能各有所長,也各有所短,在可預見的將來,兩者依然是一種互補的關系。
[1] KBS DOCUMENTARY. AI Pioneer Geoffrey Hinton on the Future of AI in 10 years丨The Great Transiton[N/OL]. KBS Documentary, (2024-11-09) [2025-11-20]. https://www.youtube.com/watch?v=SN-BISKo2lE.
[2] 智能烏鴉. 圖靈獎得主楊立昆: 大語言模型是通往AGI的一條歧路[Z/OL].“硅基觀察Pro”微信公眾號, (2024-04-24)[2025-11-20].
https://mp.weixin.qq.com/s/onM7L-m_C9HLTX3FoLvIsQ.
[3] CHM LIVE. Fei-Fei Li's AI Journey[N/OL]. Computer History Museum, (2024-09-17)[2025-11-20]. https://www.youtube.com/watch?v=JgQ1FJ_wow8&t=611s.
[4] 馮·諾依曼. 計算機與人腦[M]. 甘子玉, 譯. 北京: 商務印書館, 2001.
[5] 反向誤差傳播算法是訓練人工神經網絡的基石。它本質上是利用鏈式法則計算損失函數對網絡參數的梯度, 將輸出層計算出的誤差“反向”逐層傳遞回輸入層, 從而根據梯度下降的方向調整每個神經元的權重, 以最小化預測值與真實值之間的差異。當反向傳播試圖應用鏈式法則計算梯度時, 由于神經形態系統中所用的激活函數的導數為0, 導致計算出的梯度也為0。這就意味著誤差信息無法傳回網絡, 權重也就無法得到更新, 網絡無法進行“學習”。雖然現在也有科學家在嘗試使用某些近似方法回避這一問題, 但依然存在一些困難。
[6] 埃德爾曼, 托諾尼. 意識的宇宙: 物質如何變為精神[M]. 顧凡及, 譯. 上海: 上海科學技術出版社, 2019.
[7] 尼可萊利斯. 腦機革命[M]. 程致遠, 張勝男, 楊錦陳, 譯. 杭州: 浙江教育出版社, 2023.
[8] 多譯為“迪昂”, 不過按新華社主編的《世界人名翻譯大辭典》, 依照法語發音應譯為“德阿納”。
[9] 迪昂. 精準學習[M]. 周加仙, 譯. 杭州: 浙江教育出版社, 2023.
[10] 所謂元能力就是產生具體能力的能力。一般說來, 元能力是先天的, 而具體能力是由先天的元能力和后天經驗共同決定的。
(原載于《信睿周報》第161期)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.