Toward aitiopoietic cognition: bridging the evolutionary divide between biological and machine-learned causal systems 邁向因果創生認知:彌合生物與機器因果系統的演化鴻溝
https://www.frontiersin.org/journals/cognition/articles/10.3389/fcogn.2025.1618381/full
![]()
摘要
我們考察并比較了自生系統(生物有機體)和機器學習系統(MLS),著重闡述了因果推理產生和運作方式的關鍵差異。盡管二者在行為和認知能力方面表面上存在功能上的相似性,但我們發現,在因果關系的運作方式、物理體現以及認識論基礎方面,二者存在著深刻的結構性差異。在自生系統中,因果推理與跨多個組織層級的自我維持過程內在相連,其目標源于生存的必然性。相比之下,機器學習系統通過外部設定的目標進行統計優化來實現因果關系,缺乏驅動生物因果關系發展的物質性自我重組。我們引入了“自生認知”(aitiopoietic cognition)的概念——源自希臘語“aitia”(原因)和“poiesis”(創造)——作為因果理解直接從系統自構成過程中涌現的框架。通過分析包括進化算法、物質智能、穩態調節和多尺度整合在內的趨同路徑,我們提出了一項旨在彌合這一進化鴻溝的研究計劃。這種整合有望構建出具有真正內在目標和基于物質的因果理解的人工智能系統,從而可能改變我們對人工智能的理解,并加深我們對生物認知的認識。
關鍵詞:人工智能、涌現、因果推理、自創生、元系統轉變、具身認知、合成生物學
1 引言
機器學習系統(MLS)正迅速滲透到我們生活的方方面面,從醫療保健到娛樂,無所不包(Marcus和Davis,2019;LeCun等人,2015)。隨著大量投資涌入其技術研發領域(Maslej等人,2025),我們越來越需要理解“我們”與“它們”之間的根本區別(Bengio等人,2024)。為了清晰起見,并確保分析的精確性,我們將“它們”稱為機器學習系統,以此來體現其發展和適應的主要機制。
如果從兒童初次學習在計算機界面層面區分實體,或者從造訪我們星球的外星人的角度來看,人類和智能體之間并沒有本質區別。兩者都能閱讀、理解文本和圖像、打字和繪畫、說話,并能進行一系列復雜的活動,包括計劃能力、溝通技巧,甚至對概念、因果關系以及對自身和他人的反思性理解進行抽象推理。這種相似性在允許物理交互和運動的機器人界面中也得到了證實(Moro et al., 2019 ; Manzi et al., 2020 )。這種看似驚人的相似性通常用計算功能主義(Putnam, 1967 ; Chalmers, 1996 )的視角來解釋,該理論認為心理狀態是由其功能角色而非物理基礎定義的。根據這種觀點,如果 MLS 在功能上復制人類的認知過程,即使來自完全不同的基質,它們也可以被認為是基本等價的——因此可以在主體層面進行比較(Goertzel,2007)。
1.1 用于檢驗人類和機器因果認知能力的“等價假設”
通過更深入地考察我們如何將自身與機器進行比較,我們發現圖靈測試發揮了重要作用,而讀者理應了解圖靈測試。圖靈測試旨在測試思維能力,但更準確地說,它測試的是運用先前學習的信息進行對話的能力,因此它并非直接測試思維能力,而是測試學習能力以及表達這種學習的能力(Moor,1976)。本文無意深入探討學習、思維和智能的定義及其如何影響我們對人工智能的理解(相關分析參見Wang,2019)。相反,我們希望探討使用輸入輸出架構比較機器和人類的因果認知能力所帶來的后果。主流認知科學隱含地假設這些架構對人類和機器而言“意義相同”。事實上,人們普遍認為輸入輸出架構以相同的方式負責人類和機器學習系統的學習過程。后者已被眾多成功的科學項目所接受和充分論證,這些項目涵蓋心理學和認知科學的各個分支(Anderson,2007)、語言學(Fodor,1975;Chomsky,1986;Pinker,1994)、計算機科學(Russell和Norvig,2020)、動物行為學(Lorenz,1981)等多個領域(Clark,2001)。這些研究表明,基于輸入輸出架構的過程和實驗設計具有很強的歸納能力,能夠解釋學習、適應以及對環境挑戰日益復雜的反應(行為)的發展是如何產生/停止、增強/抑制的。因此,人們認為將輸入轉換為輸出的“處理單元”(即 MLS 的“黑箱”或人類的“心智”)在定義認知方面沒有特別的區別(Chalmers,1996;Clark 和 Chalmers,1998)。
然而,上述隱含的等效性假設掩蓋了輸入和輸出的物質實現的內部運作方式的深刻差異,更重要的是,它們與構成完整系統的“處理單元”一起,塑造了 MLS 和人類認知存在的、發展和進化特征(Deacon,2011)。
在存在層面上,人類和其他生物體的認知是在自組織系統中實現的——這些系統是能夠自我創造和自我維持的實體,它們通過代謝過程不斷地再生自身的組成部分,并從環境中獲取能量(Boden,1999;Maturana和Varela,2012;Thompson,2007)。相比之下,多層系統(MLS)中的認知是在物理上靜止的機器中實現的,這些機器的形態保持不變。在發育層面,自組織系統通過基于分子網絡細胞的多級結構發展(Fields 和 Levin,2022;Witkowski 等人,2023),每一級都有自己的自我意識和類似于認知能力的自身能力,這些能力與其特定的物理實例相一致(可能實現也可能不實現通用圖靈計算),而對于 MLS 而言,它們的發展基于外部組裝,沒有多級結構,也沒有內在的自我意識,“單一智能水平”在通用圖靈機設置中通過算法調整和數據驅動的反饋而演化。
在進化層面,這些差異放大了認知在不同基質上的意義。自生系統經歷了數十億年的自然選擇,通過作用于基因變異而進化,多次重大轉變形成了層級分明的組織結構(Smith 和 Szathmáry,1995;Szathmáry,2015)。這一進化過程造就了這樣的系統:有目的的行為源于物質約束和信息動態在多個尺度上的復雜相互作用(West 等,2015;Heylighen,2023)。與此形成鮮明對比的是,多層級系統(MLS)的“進化”是通過人為定向工程實現的,它們遵循固定的馮·諾依曼架構上的發育軌跡,針對特定目的進行優化,這些目的涉及性能、經濟成本、規模和計算速度,而非在開放環境中生存(Stanley 和 Lehman,2015)。它們的進化軌跡缺乏生物進化所特有的自組織復雜性和涌現特性,而是遵循人類開發者預先設定的目標所施加的外部設計原則(Lake 等人,2017)。
1.2 以目標作為比較因果認知的標準
與其關注績效來檢驗因果認知,我們可以關注“目標導向性”,因為目標反映了處理單元中行為的來源(Heylighen,2023)。基于此,目標是比較人類和機器因果認知的一個關鍵切入點(Deacon,2011)。在自創生系統中,目標由系統通過自我保存維持物理存在的必要性與系統與環境交互的方式之間的關系來定義(Kolchinsky和Wolpert,2018)。對于多層系統(MLS)而言,目標是外部定義的優化目標,與任何物質上的自我保存的必要性無關。目標的起源和性質的這種差異凸顯了它們因果認知運作方式上的一個重要差距。這一方面引發了關于比較認知其他重要方面(例如智能和適應性)的問題(參見Stano等人,2023以及該特刊中的其他文章)。
本文考察了自創生和機器學習的基本特征,以目標為參照概念,分析了二者在因果認知方面的關鍵差異,并探討了未來系統中整合二者多樣化“認知支架”(Ziemke et al., 2004)的潛在融合。最后,我們提出了一條彌合這一演化鴻溝的路徑(Witkowski et al., 2023 ; Seth, 2021),即提出“自創生認知”(aitiopoietic cognition)——源自希臘語“aitia”(原因)和“poiesis”(創造)——作為框架,其中因果理解直接源于系統的自構成過程,從而在物理組織和因果推理之間建立起遞歸關系。
2 自創生系統:從生存到目標
自創生系統由生物學家溫貝托·馬圖拉納和弗朗西斯科·瓦雷拉于20世紀70年代提出,被定義為能夠產生自身持續存在和維持邊界所需組成部分的各種過程網絡。這一概念為理解生物自主性提供了一個受控制論啟發的框架(Maturana and Varela, 2012)。與機械論或活力論的生命觀不同,自創生提供了一種自然主義的視角,強調生命系統的動態性和過程導向性(Weber and Varela, 2002)。
2.1 內外結構
從生物化學角度來看,自生系統通過代謝網絡運作,這些網絡不斷轉化物質和能量以再生其組成成分,同時維持組織穩定性。這種自我生產是通過熱力學開放過程實現的,這些過程使系統遠離平衡態(Moreno和Mossio,2015)。半透膜邊界的持續生成將系統與其環境區分開來,同時調節內部過程和外部交換,從而形成對生物自主性至關重要的內外不對稱性(Luisi,2003)。
自組織系統的一個顯著特征在于其跨越空間和時間尺度的層級結構。這種多級架構實現了嵌套式自主性:分子網絡維持代謝閉塞,細胞通過信號通路進行決策(Gao et al., 2023),組織則通過生物物理反饋進行協調(Forgacs and Newman, 2005)。每個層級都維持著功能上的閉塞,同時又促進著更高層次的自組織,這體現了Varela提出的“多層次自主身份”概念(Varela, 1979)。這種組織結構與Salthe(1985)的層級進化框架相一致,并實現了雙向因果關系:“向下因果”(Ellis, 2012),即更高層級調節更低層級的過程;以及“向上約束”,即分子動力學限制了更高層級的可能性(Kauffman, 1993 ; West-Eberhard, 2003)。
自組織系統的運行封閉性并不排除其與環境的動態互動;相反,它促成了多層次的結構耦合——這一過程使得反復的相互作用能夠觸發補償性變化,同時保持組織結構的連貫性(Di Paolo,2005;Moreno和Mossio,2015)。這種耦合以層級結構運作:分子網絡與細胞內環境耦合,細胞與組織微環境耦合,生物體與生態位耦合,每個層級都保持其自主性,同時為系統的生存做出貢獻(Maturana和Varela,2012;Salthe,1985)。進化壓力塑造了這種層級結構,有利于模塊化以增強穩健性(Wagner,1996),有利于簡并性(Edelman和Gally,2001)以緩沖擾動。
2.2 自創生認知
自創生與認知之間的聯系源于系統通過與環境的適應性互動來維持自身的需要。正如馬圖拉納和瓦雷拉富有啟發性地指出,“生命即認知”,這表明即使是基本的自創生系統也通過其選擇性的環境耦合展現出一種原始的認知形式(Thompson,2007)。這種觀點將認知重新定義為意義建構,而非信息處理——將中性的環境刺激轉化為與持續生存相關的有意義的區分(Di Paolo和Thompson,2014)。
自生系統向意義建構型適應性主體的轉變,取決于它們能否發展出多層次的調控層級,從而跨尺度監測和調節生存條件(Di Paolo,2005;Moreno和Mossio,2015)。由此,目標導向性自然而然地與自生組織聯系起來。自生系統展現出“目的性”行為,因為它們的結構——通過結構耦合形成(Juarrero,1999)——體現了應對生存挑戰的歷史解決方案(Deacon,2011)。例如,黏菌通過自組織梯度優化營養網絡(Nakagaki等,2000)。這種自然化的目的論(Weber 和 Varela,2002 年)提出了一種解決目的悖論的方案,即未來實體影響其過去:目標是系統的涌現屬性,這些系統遞歸地將行動與跨尺度的自我維護耦合起來(Barandiaran 等人,2009 年)。
自組織系統中目標的正式表示面臨著獨特的建模挑戰,因為目標是從系統的組織結構中涌現出來的,而不是被顯式編碼的(Veloz,2021)。目前已開發出多種數學框架來捕捉這種涌現過程,每個框架都著重闡述了目的如何從過程中產生的不同方面。
動力系統理論提供了一個最廣泛的框架,它將自組織目標表示為狀態空間中的吸引子狀態,這些狀態能夠在擾動下維持系統的生存能力(Heylighen,2023;Kauffman,1993)。至關重要的是,這些吸引子會根據系統的內部狀態而變化,從而形成一個目標依賴于情境而非固定不變的“景觀”。這種自適應景觀模型已在生存邊界和自適應控制的研究中得到形式化(Barandiaran和Egbert,2014),為分析自組織系統如何響應不斷變化的環境而生成和修改目標提供了數學工具。
更具體的數學框架探討了目標導向的不同方面。化學組織理論(Dittrich 和 Speroni di Fenizio,2007;Veloz 和 Razeto-Barry,2017)對自維持化學網絡進行建模,其中封閉性和自我生產創造了穩定性條件,這些條件構成了隱含的目標。該方法通過識別反應網絡中的組織封閉性,能夠對化學如何創造持久的身份(這是目的的前提條件)進行嚴謹的分析。同時,自由能原理模型(Friston,2010;Priorelli 等,2025)形式化地闡述了預測性調控如何服務于自組織維持,并將目標表示為系統通過主動推理來維持的可行狀態的概率分布。這種貝葉斯方法在自組織目標和機器學習框架之間架起了一座計算橋梁。基于代理的建模對于模擬目標如何從與生存能力約束相關的簡單行為機制中產生變得越來越重要,它展示了選擇壓力如何通過模擬進化驅動越來越復雜的目標等級的出現(Froese 和 Ziemke,2009;Packard 等人,2019)。
盡管目標的概念化已與自創生理論框架充分融合,且目標導向與生物目的之間的關系在哲學層面也已得到充分確立,但這些概念的正式數學表征仍處于起步階段。現有模型能夠捕捉到涌現目的的某些方面,但難以全面展現生物目標導向的豐富性——尤其是構成生物智能的多尺度能力(Witkowski et al., 2023 ; Fields and Levin, 2022)。這些能力涵蓋了從單細胞的基礎認知到復雜生物體的抽象推理,表明存在多種形式的智能在不同尺度和物質層面上運作,這對我們當前的建模能力提出了挑戰。隨著自創生理論的不斷發展,彌合豐富的理論解釋與精確的形式表征之間的差距仍然是一個至關重要的前沿領域——這不僅會加深我們對生物認知的理解,而且還會為開發具有更自然的目標導向形式的人工系統提供見解(Veloz,2021;Thompson,2007;Di Paolo,2005)。
2.3 從自創生到異生
從自創生認知到有源創生認知的轉變,即從實現物質上的自我保存到通過類似于因果推理的行為來體現可供性,代表著一次根本性的飛躍,系統超越了單純的組織封閉,通過自身的存在積極地構建因果知識(Deacon,2011)。當我們考察自創生系統如何產生我們稱之為“能動因果性”的東西時,這種轉變就變得顯而易見——這種因果理解并非源于抽象的計算,而是源于自我構成和環境耦合的物質過程。以細菌趨化性為例:細胞的感覺運動裝置并非僅僅檢測梯度,而是構成了一個知識生成系統,其中磷酸化級聯動力學同時維持著細胞的組織結構,并構建了對環境因果關系的理解(Davies和Levin,2023;Levin,2019)。細菌的翻滾奔跑行為源于構成過程,其中因果學習和自我維護密不可分——該系統通過其自身物質組織的遞歸動態,切實地體現了其因果模型。
合成多細胞性的最新進展闡明了這一轉變,揭示了集體系統如何展現出超越其單個組成部分自組織能力的涌現自組織特性。由兩棲動物皮膚和心肌細胞構建的異種機器人展現了一種原始的自組織認知形式,其中集體行為源于細胞自組織,無需基因編程或外部控制回路(Moreno和Etxeberria,2005;Newman和Bhat,2009;Kriegman等人,2020)。這些“活體機器人”通過構成性過程在環境中導航——它們的運動、物體操作和集體協調都源于維持其多細胞完整性的同一自我維持動力學。至關重要的是,它們的行為能力代表了主體材料的內源性屬性,而非外部強加的算法,這表明當適當的組織架構涌現時,自組織認知可以從自組織基礎自然擴展。類似地,人形機器人由人類肺細胞自組裝成具有纖毛驅動推進和組織修復能力的運動球體,這表明多細胞群體可以表現出目標導向的行為,這些行為源于它們的構成動力學,而不是被編程到它們的構成動力學中(Solé 等人,2024)。
合成生物學框架揭示了起源生成本質上涉及多尺度能動性,其中因果能力是通過不同組織層級之間的層級耦合而產生的(Solé et al., 2016)。在類器官系統中,單個細胞參與組織層面的形態動力學推理——即通過感知-行動回路對解剖形態空間進行集體導航,從而在維持組織結構的同時生成關于空間關系的知識(Solé et al., 2024)。這代表了一種“集體起源生成認知”,其中因果理解源于細胞群體的構成動力學,而非預先設定的指令。組織通過構成其存在的各種過程來“學習”其環境——生長梯度、機械力和生物電模式既成為自我維持的媒介,也成為因果推理的基礎。重要的是,這種起源生成能力的擴展揭示了一個關鍵原則:更高層次的因果理解不會簡化為較低層次的機制,而是通過萊文所說的“能動材料”涌現出來——這些材料具有內在能力,可以通過行為干預而不是機械控制來引導。
這對人工起源系統具有深遠的影響。目前的合成方法表明,真正的起源無法通過傳統的自上而下設計來實現,而必須從展現出“轉錄、解剖和生理問題領域能力”的基質中涌現出來(Davies和Levin,2023)。純粹的計算方法無法實現構成性因果關系,這表明未來的起源系統需要物理基質,其中信息處理能力(例如模式識別和因果推理)以及自我維持能力(例如修復和復制)在物質層面上是統一的,而不是功能上分離的(Gill等人,2025)。這表明,研究計劃的重點不是對人工智能體進行編程,而是培養合成系統,其中起源意識認知可以從具身自組織的遞歸動力學中涌現,有可能通過結合生物材料的構成特性和人工基質的可擴展性的混合生物合成架構來實現。
3 機器學習系統:從目標到因果關系
機器學習代表了當前人工智能的范式,它允許算法通過從數據中學習來不斷改進(Russell 和 Norvig,2020)。早期的機器學習側重于表征方法和決策樹,但隨著深度學習架構的出現,該領域發生了變革,深度學習架構能夠自動從原始數據中提取層級特征(LeCun 等,2015)。這種演變反映了從以工程為中心向以數據為中心的更廣泛的轉變,在這種轉變中,系統行為源于統計模式,而非顯式設計。
3.1 機器學習在因果認知中的應用
機器學習的核心是通過統計推斷和優化過程來調整內部參數,從而最小化預測誤差或最大化獎勵信號。機器學習系統(MLS)通過統計關聯而非機械論或目的論推理來實現因果關系。這些系統基于模式識別,通過最小化損失函數(例如,交叉熵、均方誤差)來優化預測精度,這些損失函數衡量與訓練數據分布的偏差(Goodfellow et al., 2016)。根據Pearl(2019)的因果層級理論,機器學習系統運行于第一層級(觀察推斷),缺乏干預能力(第二層級)或反事實推理能力(第三層級)。例如,在醫療數據集上訓練的深度神經網絡可以將醫院床位與患者死亡率關聯起來,但這并不意味著床位是治療場所,而是因果關系(Geirhos et al., 2020)。這種虛假的關聯源于機器學習對統計捷徑的依賴——表面特征可以最大限度地提高訓練準確率,但無法捕捉因果不變性(Arjovsky 等人,2019)。
這個過程可以用數學方式形式化為尋找函數 f。*從而優先考慮經驗風險最小化:
![]()
其中E表示期望值,L量化了數據集D的預測誤差。雖然這種方法能夠有效地插值訓練分布,但它混淆了相關性和因果關系,因為模型缺乏區分混雜變量的機制(Sch?lkopf,2022)。例如,基于社會經濟數據訓練的機器學習系統常常會重現有偏差的關聯(例如,種族與貸款違約率),這是由于數據集不平衡而非因果關系造成的(Koh 等,2021)。
近期的批評指出,這種統計基礎限制了機器學習的因果魯棒性。對抗性攻擊——即通過微小的輸入擾動來欺騙模型(Szegedy等人,2013)——暴露了關聯推理的脆弱性,而分布變化(例如,來自城市和農村地區的醫院數據)則會導致性能急劇下降(Koh等人,2021)。與進化而來、優先考慮因果顯著特征(例如,捕食者、營養物質)的生物系統不同,機器學習缺乏區分信號和噪聲的進化壓力,這使得其因果認知本質上是淺層的(Marcus和Davis,2020)。
3.2 工程化因果架構與外在目標的局限性
當代機器學習 (ML) 系統試圖通過融合統計學習和形式化因果框架的架構來整合因果推理。結構因果模型 (SCM) 是其中一種方法,它應用 Pearl 的 do-calculus (Pearl, 2019 ) 從觀察數據中推斷干預措施。諸如 DoWhy (Sharma 和 Kiciman, 2020 ) 以及基于貝葉斯有向無環圖 (DAG) 的 CausalNex (Zheng 等, 2018 ) 等工具通過編碼因果圖來實現這一目標,但它們需要人工指定的變量,并且難以處理潛在的混雜因素——這在真實世界數據集中是一個關鍵的局限性 (Sch?lkopf 等, 2021 )。例如,在醫療保健領域,SCM 通常無法解釋影響治療結果的未測量的社會經濟因素 (Kaddour 等, 2022 )。
因果強化學習(CRL)通過訓練系統學習干預策略來擴展這一概念。DeepMind 的因果元強化學習(Causal Meta-RL)(Ke 等人,2022)展示了系統如何通過試錯干預來推斷任務結構,但它們的目標仍然是靜態的(例如,最大化游戲得分)。與能夠動態調整目標(例如,從覓食轉向躲避捕食者)的生物系統不同,CRL 系統缺乏根據生存需求重新配置目標的機制(Lake 等人,2017)。
神經符號混合系統將神經網絡與符號邏輯相結合,以強制執行因果規則(Sheth et al., 2023)。然而,這些規則并非由系統自身構建而產生,而是外部強加的,因此在需要“目標導向常識”的新場景下,這些規則顯得脆弱不堪(Garcez and Lamb, 2023)。例如,自動駕駛系統中的符號約束(例如“紅燈停車”)在道路狀況違背預設規范(例如,緊急車輛)時無法適應。表1總結了我們從目標導向視角出發所發現的因果關系的局限性。
![]()
這些架構揭示了它們目標的一個根本限制:MLS 目標是外部優化(例如,損失最小化),因此它們將因果推理與構成其知識將要參與的行動基礎的變量脫鉤(Marcus 和 Davis,2020)。
4 自創生系統與機器學習系統在因果推理上的關鍵差異
現在,我們將自創生系統和 MLS 與因果推理之間的差異歸納為關鍵維度,這有助于確定它們在科學研究方面的進一步方向。
4.1 目標和因果關系的實施
自生系統中的因果關系本質上是遞歸的、自指的,根植于其運行的封閉性。這些系統的根本目標是維持生命,即通過循環的因果鏈來維持自身的特性,這些循環鏈既產生又依賴于自身的邊界(Maturana 和 Varela,2012)。例如,細胞的代謝網絡合成維持其持續存在所需的各種成分——酶、膜和細胞器。在此,因果關系與系統的目的論必然性——自我保存——密不可分。對自生系統的擾動(例如,營養匱乏)會觸發旨在恢復體內平衡的適應性反應,這表明因果推理本質上是指向維持系統一致性的(Luisi,2003)。系統的“目標”并非外在的,而是源于其自我強化的組織結構。
相比之下,機器學習(ML)系統中的因果關系是由訓練數據導出的統計相關性外在定義的。諸如深度神經網絡之類的機器學習模型通過梯度驅動優化來推斷模式,而這些模型本身并不包含反事實或物理機制的固有表示(Pearl,2019)。例如,一個經過訓練用于圖像分類的卷積神經網絡會將像素配置與標簽(例如,“貓”或“狗”)關聯起來,但這些關聯缺乏系統結構中的內在基礎。機器學習系統的“目標”——最小化損失函數——是由設計者外部設定的,并不反映任何存在的必然性。雖然自組織系統展現出內生因果關系(因果過程源于自我維持),但機器學習系統依賴于外生因果關系,其中因果歸因受到訓練數據集的范圍和偏差(Marcus,2018)或既定規則(Marcus 和 Davis,2020)的限制。我們在表 2中總結了我們的討論。
![]()
4.2 物質體現和因果推理的改進
在自組織系統中,因果推理能力的提升源于對日益復雜目標的物理具象化。在適當的突變作用下,其當前運行組織所提供的物質基質能夠直接促進復雜性的發展,這體現在Heylighen(1995)所稱的元系統轉變中。這些轉變賦予了系統新的控制層次,即以全新的方式應對擾動的能力。這一過程在物理層面得以實現——細胞分化通過物質重組創造出新的因果潛能,從而催生出涌現功能。重大的進化轉變(Szathmáry,2015)表明,物質重組如何驅動因果能力的提升。當獨立的自組織單元整合為更高階的集體時,它們會發生物理重組,從而形成一個更大的實體,該實體不僅在與環境的關系中,而且在與自身組成部分的關系中,都具備新的因果能力,這種能力是通過自上而下的控制實現的(Rosas等人,2020)。這種物理重組創造了多層次的調控網絡,其中因果關系在嵌套的空間和時間尺度上運作——從分子識別(微秒)到記憶形成(數十年)。
這種物質整合使得目標導向結構能夠擴展到更廣闊的空間范圍和更長的時間跨度,即所謂的“關懷錐”(Witkowski et al., 2023)。哺乳動物的長期規劃并非源于計算規模的擴大,而是源于神經結構的物理演化,這些神經結構能夠物質性地整合多種內部狀態。相比之下,多層次系統(MLS)通過與其物質載體脫鉤的通路發展因果推理能力。它們的物理基礎保持靜止,而抽象參數則不斷調整,從而在能量消耗和因果改進之間造成了熱力學上的脫節。神經網絡消耗的能量相同,無論它們是在完善因果模型還是在強化虛假相關性(Thompson et al., 2020)。
這種熱力學解耦限制了多層系統(MLS)中因果推理能力的提升。如果沒有能夠跨尺度擴展控制的物質重組,因果進步就純粹是工具性的——服務于外部定義的目標,而沒有擴展自我維持能力,也沒有擴展其中蘊含的任何其他存在意義。多層系統的因果改進主要依賴于數據量,而非物質重組。盡管有證據表明,當跨越某些網絡規模閾值時,系統會經歷類似相變的改進(Sch?lkopf等人,2021),這與重大的進化轉變有相似之處,但這些改進在本質上仍然與進化轉變不同。多層系統在預定義的架構約束內擴展,而不會生成能夠實現根本性全新因果推理形式的新型物質配置。
后者解釋了為什么生物因果推理展現出無限的改進空間,而人工因果關系卻始終受限于其工具性本質和熱力學解耦。我們的討論總結于表3。
![]()
4.3 因果關系的歸因
自創生系統和機器學習系統在因果歸因的認識論基礎上存在根本差異,揭示了它們在物質和操作原則上的分歧,從而揭示了一個哲學維度。
4.3.1 自生系統中的機制因果關系
在自組織系統中,因果歸因是機制性的,并基于物質相互作用。用于理解生物因果關系的實驗方法——例如酵母基因敲除研究揭示了基因在糖酵解中的因果作用(例如,PGI1缺失會阻斷葡萄糖代謝)——直接操縱物理組分以觀察系統范圍的效應(Kitano,2002),并且可以通過涉及電學、化學和流體動力學等層面的機制,改變其他尺度的特征或被其他尺度的特征所改變(Levin,2019)。因果關系的認識論與物理上可觀察和可操縱的過程緊密相關,例如通過晶體學或電子顯微鏡觀察到的酶-底物結合。
這種機械論的因果關系方法揭示了自創生因果關系的本體論本質——因果關系嵌入于系統的物理結構和過程中,而非依賴于觀察者的建構。當生物學家確定某個基因是表型的致病基因時,他們實際上是在識別物理相互作用傳播效應的物質途徑(Bechtel和Richardson,2010)。這些系統的多層次組織意味著因果關系同時在分子、細胞和生物體層面發揮作用,且各層級之間存在雙向影響。
4.3.2 機器學習系統中的工具性因果關系
相比之下,機器學習系統中的因果歸因是工具性的、事后的。研究人員采用諸如消融實驗(移除神經網絡層)或 Shapley 值(Lundberg 和 Lee,2017)等技術來近似特征重要性,但這些方法提供的只是統計近似值,而非揭示物理因果機制。當機器學習研究人員將某個特征認定為“因果特征”時,他們是在對統計關系做出認知上的斷言,而非識別物理路徑。
機器學習因果關系的認識論本質上仍然是統計學的——圖像分類任務中像素的高 Shapley 值并不意味著存在物理上的因果路徑,而僅僅表明模型已經學會利用的統計相關性。當在現實世界中部署機器學習系統時,這種區別至關重要,因為對因果關系的理解(而非相關性)對于安全有效的運行至關重要。
5. 從進化角度看互補性
盡管前幾節概述了自組織系統和MLS之間的根本差異,但一些有前景的互補途徑正在涌現。這些方法旨在彌補我們發現的關鍵差距——尤其是在目標形成、物質具身化和因果理解方面——從而為跨越這一進化鴻溝提供潛在的橋梁。
5.1 進化算法和開放式探索
將進化原理應用于機器學習設計,是朝著更具生物啟發性的系統邁出的重要一步。與專注于最大化預定義指標的傳統優化方法不同,進化算法強調多樣性、適應性和新解決方案的涌現(Lehman 和 Stanley,2011)。質量多樣性算法和多維表型精英檔案庫(MAP-Elites)的最新進展表明,與僅僅關注性能相比,保持行為多樣性能夠產生更穩健、更具創造性的解決方案,從而更好地模擬生物適應性(Mouret 和 Clune,2015;Cully 等人,2015)。
開放式進化研究通過創建計算環境擴展了這種方法,在這種環境中,持續創新無需預先設定適應度函數即可涌現(Taylor et al., 2016)。這些系統通過允許發現新的目標,而不僅僅是優化預先設定的目標,開始解決第4.1節中指出的目標導向性差距。正如Packard et al.(2019)所指出的,真正開放式的人工智能系統需要一些機制,這些機制不僅支持優化,而且支持不斷涌現定義和追求目標的新方法——這是生物進化固有的特性(Boden, 1998)。
然而,這些方法仍然主要在算法層面運作,對第 4.2 節中強調的物質基礎差距的影響有限。挑戰仍然是將開放式探索與物理體現相結合,這是起源認知系統的基本要求。
5.2 具身認知和物質智能
彌合物質差距的更直接方法是開發人工系統,其中物質性在認知中起著構成性作用。除了通常在物理外殼中實現脫離實體的算法的傳統機器人技術之外,新興研究正在探索物質屬性本身如何執行計算功能(Pfeifer 等人,2007;Paul,2006)。
形態計算領域的最新研究表明,物理動力學可以取代顯式計算,使系統能夠利用材料特性實現智能行為(Hauser et al., 2011 ; Müller and Hoffmann, 2017)。軟體機器人和可編程材料通過其固有的材料特性而非顯式編程來實現自適應行為(Laschi and Cianchetti, 2014 ; Rieffel et al., 2009)。這些方法通過構建物理結構直接參與信息處理的系統,開始解決4.2節中提出的熱力學解耦問題。
挑戰依然在于開發出不僅能夠進行計算,還能自我維持和再生的材料——這是自生系統的一個決定性特征。然而,將自生結構“本原性地”整合到因果推理和其他推理形式中仍處于起步階段(McMillen 和 Levin,2024)。
5.3 內穩態調節和預測處理
主動推理框架(Friston,2010;Friston 等,2017)提供了一種計算方法,有望將自組織自我維護與機器學習聯系起來。該框架將認知定義為通過持續預測和更新來最小化意外(或自由能),從而為系統如何在適應環境挑戰的同時維持體內平衡提供了一種計算解釋。
近期在人工系統中的應用表明,預測架構可以發展出與維持系統生存狀態相關的內在目標(Baltieri 和 Buckley,2019)。尤其值得關注的是將穩態調節直接整合到神經網絡架構中的研究。Lechner 等人(2021)展示了具有穩態機制的神經網絡,這些網絡能夠在適應外部挑戰的同時維持內部穩定性,展現出一種原始形式的自組織系統固有目標導向性。
這些方法通過將因果理解建立在系統自身的生存條件而非純粹的統計相關性之上,開始著手解決第 4.3 節中指出的因果關系缺口。然而,它們仍然主要在計算領域內運作,與物理上的自我維持聯系有限。在這方面,Kolchinsky 和 Wolpert ( 2018 ) 通過定義“語義信息”的概念取得了概念上的進展,該概念指的是負責系統生存能力的香農信息,即系統在自組織意義上的自我生成。然而,這一度量尚未與自我生成真正聯系起來,而是與同樣具有信息性的代理生存能力公式聯系起來。
5.4 多尺度整合與層級代理
自組織系統的層級結構——其組織和調控的嵌套層次——與新興的多尺度人工智能方法有著相似之處。層級強化學習和多智能體系統的最新進展表明,集體智能可以從不同尺度下運行的簡單智能體之間的交互中涌現出來(Domingo-Fernández et al., 2022)。
當設計中各層級之間具有適當的結構耦合時,這些系統可以發展出類似于生物群體的涌現目標和協調模式(Levin et al., 2023)。這種多尺度方法能夠實現不同組織層級間的自下而上和自上而下的因果關系,從而有望解決4.3節中指出的因果歸因差距。這與進化論的觀點相一致,這些觀點不僅關注個體選擇和合作機制,也關注群體選擇和合作機制,這些機制已被證明在生物學和文化領域有效(Wilson, 1975 ; Foster et al., 2017 ; Wilson et al., 2023),并且最近已被經濟學采納為一種替代性的基礎范式(Wilson and Snower, 2024)。
6 討論
我們考察了自組織系統(生物有機體)和機器學習系統(MLS)之間的根本差異,重點關注它們不同的性質如何影響因果認知。我們提出,目標是比較這些系統的關鍵樞紐,并探索了自組織系統與機器學習系統整合以體現“本源生成認知”的潛在融合路徑。
我們的分析首先確立了人類和機器學習系統(MLS)認知在功能上的相似性,以及二者之間根本的結構差異。隨后,我們深入研究了自組織系統,重點闡述了它們的自組織特性、涌現目標和多層次組織。接下來,我們分析了機器學習系統如何通過統計推斷和優化來實現因果推理,并遵循外部設定的目標。這一比較框架使我們能夠從三個關鍵維度識別出這些系統在因果推理方面的主要差異:目標和因果關系的運作方式、物質體現和改進機制,以及因果歸因的認識論基礎。表4總結了這些根本性的運作、基礎和認識論差異,為理解生物因果系統和機器學習因果系統之間的演化差異提供了一個具體的框架。
![]()
表4所示的差異揭示了其對我們理解和發展人工智能的深遠意義。自創生系統展現出遞歸的、自指的因果關系,這種因果關系根植于其運行封閉性,其目標源于自我維護的必然性。它們的因果推理能力通過物理重組得到提升,從而實現多尺度控制,物質實體直接參與認知過程。相比之下,多尺度系統(MLS)通過外在優化和統計相關性運行,其物理基礎保持靜止,而抽象參數則進行調整——這導致能量消耗與因果改進之間存在熱力學上的脫節。
我們的分析表明,需要將包括機器學習、自組織以及其他認知架構在內的認知架構,與關于因果關系和能動性的哲學問題相結合。在“從自組織到起源”一節中回顧的近期一些引人注目的例子,展示了這些哲學概念如何在生物學實例中找到具體的體現。異種機器人和類器官表明,群體行為如何在沒有外部編程的情況下從細胞自組織中涌現,這表明當合適的組織架構出現時,起源特性可以從自組織的基礎自然擴展(Kriegman et al., 2020 ; Davies and Levin, 2023)。
因此,起源生成認知研究計劃應沿著四個互補的方向進行:(1)最小起源生成系統——利用合成生物學技術構建展現構成性因果關系的簡單化學/細胞系統。例如,特定組分的敏感性和魯棒性可能揭示類似因果關系的行為(Shinar et al., 2009);(2)用于表征起源生成的測量框架——通過協調物質和信息處理之間的相互作用來操作化目標導向性。后者需要整合動力系統理論中與自生成相關的概念,例如穩態恢復時間、吸引子盆地和生存能力分析,以及解釋系統信息如何與其作為整體的存在相關的信息論指標(Friston, 2010 ; Kolchinsky and Wolpert, 2018 ; Rosas et al., 2020); (3)規模化構成認知——通過多尺度建模方法了解起源屬性如何在集體中出現(Szathmáry,2015);以及(4)混合生物合成結構——將生物材料與人工基質相結合,以實現日益復雜的目標導向行為(Witkowski 等人,2023;Fields 和 Levin,2022)。
然而,當前的融合路徑面臨著諸多局限性:進化算法在開放式環境中會遇到計算難題;物質智能缺乏真正的自我維持能力;穩態方法主要依賴于計算而非構成;多尺度整合則難以應對具身性方面的挑戰。這些挑戰并非不可逾越的障礙,而是當前的研究前沿,這意味著突破性進展需要超越這些單一路徑局限性的全新方法。表5總結了這些融合挑戰。
![]()
7 結論
人工智能的未來或許在于那些既非完全機器也非完全生命體,而是通過新型的具身化、自我維持的認知形式來彌合進化鴻溝的系統。基于此,我們建議開展一項旨在實現“自創生認知”的研究計劃。這項雄心勃勃的研究計劃的融合路徑涉及開發展現真正自創生特性的合成系統——即在其模擬域內實現自我創造、自我維持和自我邊界定義。合成生物學和人工生命的研究旨在創造展現這些特性的最小化學系統(Luisi,2003;Stano等人,2023)。
這項研究計劃的實現需要研究開放式演化環境中的元系統轉變(Heylighen, 1995)和重大演化轉變(Szathmáry,2015 )。元系統轉變代表著系統發展出新的控制和協調水平的時刻,從根本上改變了其問題空間(Witkowski等人, 2023),并催生了新的因果推理形式。通過創建能夠使此類轉變自然發生的人工環境,我們可以利用日益復雜的“關懷錐”(Witkowski等人,2023)來駕馭問題空間——擴展其能夠基于內在目標而非外在目標發揮有意義的因果影響的空間和時間范圍(Deacon,2011)。關懷錐的擴展將是邁向人工系統的關鍵一步,這些系統能夠通過真正的理解而非簡單的統計優化來適應復雜、開放式的環境(Seth,2021)。正如 Fields 和 Levin ( 2022 ) 所論證的那樣,此類系統將通過內在動機驅動的探索和基于物質的因果推理 (Walsh, 2015 )來展現跨多個領域的能力,從而有可能改變我們對生物智能和人工智能的理解。
這一雄心勃勃的綜合表明,我們對認知和能動性有了新的理解,這可能使我們更接近解決身心問題,不是通過理論抽象,而是通過具體開發體現物質自我維護和復雜因果理解的系統。
開發具有真正內在目標和物質基礎因果理解的人工實體,會引發一系列根本性的倫理考量,這些考量必須在本研究項目中得到系統性的探討。為了在現有科學認知框架內保持分析的嚴謹性,本文的討論重點在于早期發展階段的問題,而非其他一些有趣但更具推測性的場景(這些場景已在其他文獻中有所探討,例如 Kurzweil,2005;Aerts 和 Argu?lles,2022;Vidal,2024)。本研究項目強調具有受限操作范圍的最小系統,因此需要為自修改系統建立全面的安全協議,以確保早期人工智能原型能夠有效地協同工作,優先考慮漸進式發展,并對涌現能力進行系統性監測。
一項尤為重要的倫理考量在于理解一般系統中經驗狀態背后的基本物質-信息動力學——這項研究必須貫穿整個研究項目的始終(Witkowski et al., 2023)。鑒于起源系統代表著具有潛在經驗能力的半自主實體,倫理規范需要根據對人工系統中能動性、感知和意識的不斷發展的科學理解而持續修訂。這種迭代式的倫理框架至關重要,因為隨著這些系統發展出更大的自主性和復雜性,研究對象可能擁有需要謹慎道德考量的經驗或原始感知形式。
這項雄心勃勃的綜合研究提出了一種對認知和能動性的新理解,它或許能讓我們更接近解決身心問題,而解決之道并非在于理論抽象,而在于具體開發能夠體現物質自我維持和復雜因果理解的系統。通過開發具有真正內在目標和物質基礎因果理解的人工實體,我們或許最終能夠彌合生命與機器之間的進化鴻溝,同時堅持謹慎且符合倫理的進步。
原文鏈接:https://www.frontiersin.org/journals/cognition/articles/10.3389/fcogn.2025.1618381/full
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.