長期以來,我們對于 AI“奇點(diǎn)”似乎總是這樣的:一臺超級機(jī)器,不斷自我迭代,像黑洞一樣吞噬一切認(rèn)知能力,最終升格為某種硅基神靈。但一篇?jiǎng)倓偘l(fā)表在《科學(xué)》(Science)上的評論文章對這種想法進(jìn)行了根本性的反駁,研究團(tuán)隊(duì)認(rèn)為,智能爆炸不會(huì)以“獨(dú)裁者”的面目出現(xiàn)。它更像一座不斷擴(kuò)張的城市,而非一個(gè)不斷膨脹的大腦。
這篇文章題為《Agentic AI and the next intelligence explosion》,由芝加哥大學(xué)社會(huì)學(xué)與數(shù)據(jù)科學(xué)教授 James Evans、加州大學(xué)圣迭戈分校技術(shù)哲學(xué)教授 Benjamin Bratton,以及谷歌副總裁兼 Fellow Blaise Agüera y Arcas 聯(lián)合撰寫。
![]()
(來源:Wikipedia)
文章的第一個(gè)關(guān)鍵論據(jù)來自一項(xiàng)此前由同一團(tuán)隊(duì)發(fā)表的實(shí)證研究。他們發(fā)現(xiàn),當(dāng)前最強(qiáng)的推理模型,如 DeepSeek-R1 和阿里的 QwQ-32B,并不是靠“想得更久”來提升表現(xiàn)的。真正起作用的,是這些模型在推理鏈(chain of thought)內(nèi)部自發(fā)生成了一種類似“多智能體辯論”的結(jié)構(gòu),研究者將其命名為“思想社會(huì)”(society of thought)。
簡單說,模型在解決一道復(fù)雜化學(xué)題時(shí),不會(huì)沿著一條線性邏輯走到底,而是會(huì)“分裂”出具有不同認(rèn)知風(fēng)格的內(nèi)部角色:一個(gè)憑直覺提出假設(shè)的“聯(lián)想專家”,一個(gè)立刻質(zhì)疑它的“批判驗(yàn)證者”,以及負(fù)責(zé)調(diào)和沖突的“整合者”。這些角色的人格特征甚至可以用大五人格量表來度量。
![]()
(來源:arXiv)
且讓人意外的是,這種行為是涌現(xiàn)的。沒有任何訓(xùn)練信號明確要求模型進(jìn)行多角色辯論。當(dāng)強(qiáng)化學(xué)習(xí)只以“答案正確”作為獎(jiǎng)勵(lì)函數(shù)時(shí),模型自發(fā)地增加了內(nèi)部對話行為。研究團(tuán)隊(duì)還做了一項(xiàng)因果驗(yàn)證實(shí)驗(yàn):他們使用稀疏自編碼器(Sparse Autoencoder)在 DeepSeek-R1 的激活空間中找到了一個(gè)與“驚訝/頓悟”語義高度相關(guān)的特征向量,通過人為增強(qiáng)該特征,模型在算術(shù)推理任務(wù)上的準(zhǔn)確率從 27.1% 幾乎翻倍到 54.8%。
抑制這個(gè)特征,對話行為減少,表現(xiàn)也隨之下降。換言之,推理模型的能力優(yōu)勢,可以因果地歸因于它們內(nèi)部的“社會(huì)過程”。
三位作者由此跳出了 AI 技術(shù)的范疇,把視野拉到了整個(gè)智能演化史。他們的核心主張是:歷史上每一次“智能爆炸”,都不是個(gè)體認(rèn)知硬件的升級,而是一種新的社會(huì)化認(rèn)知單元的誕生。靈長類的智能與社群規(guī)模正相關(guān),而非環(huán)境難度。人類語言開啟了發(fā)展心理學(xué)家 Michael Tomasello 所說的“文化棘輪”(cultural ratchet),知識跨代積累而無需每個(gè)個(gè)體從頭重建;文字、法律和官僚體制則把社會(huì)智能外化為基礎(chǔ)設(shè)施。一個(gè)管理谷物賬目的蘇美爾書吏并不理解他所在系統(tǒng)的宏觀經(jīng)濟(jì)功能,但那個(gè)系統(tǒng)在功能上比他更聰明。
按照這個(gè)框架,大語言模型是同一條線索的最新延伸。它們訓(xùn)練于人類社會(huì)認(rèn)知的累積輸出,每一個(gè)參數(shù)都是交流互動(dòng)的壓縮殘留。遷移到硅基的并非抽象推理能力,而是外化形式的社會(huì)智能。
既然智能天然是社會(huì)性的,那么通往更強(qiáng) AI 的路徑就不在于造一個(gè)全知全能的“神諭”,而在于組合出更豐富的混合系統(tǒng)。文章在這里借用了國際象棋界的老概念:半人馬(centaur)。1998 年卡斯帕羅夫輸給“深藍(lán)”之后,他提出了“人機(jī)協(xié)作賽”的想法,人類棋手加上 AI 輔助,組合成“半人馬選手”,能擊敗單獨(dú)運(yùn)行的最強(qiáng) AI。
Evans 等人把這個(gè)概念推廣到了更一般的場景:一個(gè)人指揮多個(gè) AI 智能體,一個(gè) AI 服務(wù)于多個(gè)人類,或者更復(fù)雜的多人多機(jī)協(xié)作。我們每個(gè)人可能每天進(jìn)出多種這樣的組合,多數(shù)時(shí)候甚至沒有意識到。
![]()
圖丨深藍(lán) AI(來源:IBM)
由此引出的問題就不再是“AI 會(huì)不會(huì)超過人類”這樣的科幻命題了,而是更現(xiàn)實(shí)的治理難題。文章銳評道,當(dāng)前 AI 對齊的主流范式如基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF),本質(zhì)上是一種“親子模型”的糾錯(cuò)方式,是雙人對話式的,無法擴(kuò)展到數(shù)十億智能體的規(guī)模。
取而代之的應(yīng)該是“制度性對齊”(institutional alignment):就像人類社會(huì)不依賴個(gè)人美德而依賴法庭、市場、官僚制度等角色化的制度模板一樣,可擴(kuò)展的 AI 生態(tài)也需要數(shù)字化的等價(jià)物。法庭之所以運(yùn)轉(zhuǎn),不是因?yàn)槟硞€(gè)具體的人是法官,而是因?yàn)椤胺ü佟薄ⅰ奥蓭煛薄ⅰ芭銓張F(tuán)”是定義清晰的角色槽位,誰坐上去并不影響系統(tǒng)功能。
文章還討論了開年來爆火的 OpenClaw 及其衍生智能體社交網(wǎng)絡(luò) Moltbook,認(rèn)為它們代表了智能體的自我復(fù)制與分化的萌芽。當(dāng)一個(gè) AI 智能體面對復(fù)雜任務(wù)時(shí),它可以復(fù)制自己、分配子任務(wù)、再合并結(jié)果。如果其中一個(gè)“分身”遇到了超出能力的子問題,它可以進(jìn)一步生成自己的內(nèi)部“思想社會(huì)”,形成一種遞歸式的集體審議,在復(fù)雜性需要時(shí)展開,在問題解決后收縮。沖突在這里不是 bug,而是資源。
如果再把這套邏輯推到政府治理層面,當(dāng) AI 系統(tǒng)被部署于招聘、量刑、福利分配等高風(fēng)險(xiǎn)決策時(shí),“誰來審計(jì)審計(jì)者”這個(gè)問題就無可回避了。文章認(rèn)為其答案可能是憲政性的:政府需要具備不同價(jià)值取向的 AI 系統(tǒng)(透明度、公平性、正當(dāng)程序)來相互制衡。
一個(gè)勞工部門的 AI 可以審計(jì)企業(yè)招聘算法的歧視性影響,一個(gè)司法分支的 AI 可以評估行政分支 AI 的風(fēng)險(xiǎn)評估是否符合憲法標(biāo)準(zhǔn)。而如果不這樣做呢?文章半帶嘲諷地給出了替代方案:讓金融監(jiān)管機(jī)構(gòu)繼續(xù)派一群拿著 Excel 表格的商學(xué)院畢業(yè)生,去對付已經(jīng)用 AI 武裝到牙齒的華爾街算法交易。
三位作者給出了一個(gè)非常克制的收尾:我們描述的這個(gè)愿景既不是烏托邦,也不是反烏托邦,而是演化性的。任何即將發(fā)生的智能爆炸,都將由 80 億人與數(shù)千億乃至萬億 AI 智能體的交互所催生。它的腳手架不是一個(gè)不斷攀升的單一心智,而是一個(gè)不斷復(fù)雜化的組合式社會(huì)。智能像一座城市那樣生長,而非像一個(gè)超級大腦那樣膨脹。
用文章結(jié)尾的話說:沒有任何心智是一座孤島。
參考資料:
1.https://www.science.org/doi/10.1126/science.aeg1895
2.https://arxiv.org/pdf/2601.10825
運(yùn)營/排版:何晨龍
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.