![]()
新智元報(bào)道
編輯:KingHZ
【新智元導(dǎo)讀】從攔截彼得·蒂爾、警告馬斯克,到如今公開說「必須有適應(yīng)能力」,哈薩比斯史詩級(jí)轉(zhuǎn)身:AI安全窗口正在永久關(guān)閉,他不再幻想制度,而是賭上全部身家——賭影響力,賭良知,賭自己。
最怕AI毀滅人類的人,正在拼命造AI!
最相信治理的人,如今親口承認(rèn):治理徹底靠不住!
最強(qiáng)調(diào)安全的DeepMind,也被拖入戰(zhàn)時(shí)軍備競(jìng)賽!
就在幾小時(shí)前, DeepMind創(chuàng)始人Demis Hassabis哈薩比斯自己親手砸碎了AI安全幻想,從理想主義者徹底轉(zhuǎn)向現(xiàn)實(shí)派。
![]()
他承認(rèn):超級(jí)智能可能滅絕人類,卻只能靠自己「搶座上桌」來護(hù)航。
哈薩比斯,這個(gè)曾發(fā)誓要用嚴(yán)密的制度、法律約束和倫理委員會(huì)將AI鎖進(jìn)籠子里的人,坐在那個(gè)破舊的吊燈下,無奈承認(rèn):
「安全不再取決于治理結(jié)構(gòu)。即便有董事會(huì),在關(guān)鍵時(shí)刻,他們也未必會(huì)做對(duì)的事。」
他轉(zhuǎn)而提出了一個(gè)極具現(xiàn)實(shí)主義、甚至帶有些許悲劇色彩的新方案:「我必須坐上桌,爭取影響力。」
幻想再三破滅,哈薩比斯轉(zhuǎn)身
哈薩比斯不是普通加速派。
一般而言,AI領(lǐng)袖通常分為兩派:一派是以O(shè)penAI奧特曼為代表的「加速主義者」,相信技術(shù)總能解決技術(shù)帶來的問題;另一派是憂心忡忡的「末日預(yù)言家」,認(rèn)為AI可能像核武器一樣導(dǎo)致人類滅絕。
但哈薩比斯是一個(gè)極其復(fù)雜的矛盾體:他是為了阻止末日,才決定親手制造AI。
這種近乎悖論的動(dòng)力源于他極度深邃的焦慮。
哈薩比斯對(duì)「AI滅絕風(fēng)險(xiǎn)」了如指掌,熟悉程度甚至超過了最激進(jìn)的抗議者。
他和DeepMind的另一位聯(lián)創(chuàng)Shane Legg,就在一次AI安全的講座上相識(shí)。
![]()
目前,Shane Legg任谷歌DeepMind的首席AGI科學(xué)家,擔(dān)任AGI安全委員會(huì)聯(lián)席主席,同時(shí)也領(lǐng)隊(duì)研究后AGI時(shí)代的世界可能是什么樣子。
在「奇點(diǎn)峰會(huì)」上,他曾攔截彼得·蒂爾(Peter Thiel),向他兜售關(guān)于機(jī)器如何超越人類的幻象。
他曾當(dāng)面告訴馬斯克,殖民火星毫無意義,因?yàn)槿绻?jí)智能是惡意的,它同樣能造出橫跨星際的火箭,火星絕不是人類的避難所。
這種焦慮催生了他早期極具英雄主義色彩的「單體治理」(Singleton Scenario)構(gòu)想——
他曾嚴(yán)肅地計(jì)劃,帶著全球最頂尖的科學(xué)家,躲進(jìn)一個(gè)秘密的「地堡」——可能是摩洛哥的沙漠,也可能是某個(gè)與世隔絕的孤島。
在那里,他們將像開發(fā)曼哈頓計(jì)劃一樣,在沒有資本壓力、沒有地緣競(jìng)爭、沒有世俗干擾的情況下,代表全人類開發(fā)出第一個(gè)「絕對(duì)安全」的超級(jí)智能。
哈薩比斯被馬斯克背刺?
「只要這個(gè)世界上只有一只手握著火種,我們就還能控制火勢(shì)。」這是哈薩比斯最初的邏輯。
為了這個(gè)邏輯,他在2014年將DeepMind賣給谷歌時(shí),開出了歷史上最奇葩的收購條件:
即使谷歌付了錢,哈薩比斯依然要在AI安全事務(wù)上保持絕對(duì)的獨(dú)立;
設(shè)立一個(gè)由獨(dú)立專家組成的外部委員會(huì)來監(jiān)督整個(gè)進(jìn)程;
AI的軍事應(yīng)用將被嚴(yán)格禁止。
從少年時(shí)代起,哈薩比斯就立志要構(gòu)建強(qiáng)AI。而只有確保其安全性,他才能為畢生的事業(yè)找到正當(dāng)理由。
谷歌收購前不久,哈薩比斯曾提醒DeepMind的研究員候選人,如果簽約加入,就要做好心理準(zhǔn)備——最終的終局之戰(zhàn)來臨時(shí),他會(huì)進(jìn)入一個(gè)地下基地,實(shí)現(xiàn)單體治理的壯舉。
2015年,為了落實(shí)谷歌承諾設(shè)立的AI監(jiān)督委員會(huì),DeepMind組織了一場(chǎng)秘密集會(huì),邀請(qǐng)了哲學(xué)家和技術(shù)專家參加。
哈薩比斯邀請(qǐng)馬斯克主持集會(huì),地點(diǎn)設(shè)在馬斯克的SpaceX加州總部。
![]()
但這一招適得其反。這次集會(huì),標(biāo)志著哈薩比斯的安全構(gòu)想開始瓦解。
馬斯克聽取了哈薩比斯及其聯(lián)合創(chuàng)始人的演示,隨后反其道而行之。他與奧特曼聯(lián)手創(chuàng)立了OpenAI。
那一刻,哈薩比斯的安全烏托邦就開始死了。
失了里子,還丟面子了
考慮到人性,這種局面不可避免。面對(duì)鉆木取火般史詩級(jí)的AI技術(shù)前景,人們并不會(huì)凝聚成一個(gè)單一的集體。他們爭論不休、相互嫉妒、各自為營。
此時(shí),哈薩比斯本可以停下來重新思考。
如果「單一主體」的設(shè)想過于天真,AI開發(fā)者又如何避免一場(chǎng)沖向懸崖的競(jìng)賽?
但哈薩比斯非但沒有停下腳步,反而加速前進(jìn)。2016年,AlphaGo橫空出世。機(jī)器智能超越人類智力的時(shí)間表,一下子提前了。
為了跟上AI這一進(jìn)展,哈薩比斯提出了新的想法,希望讓AI服務(wù)于人類。他與聯(lián)合創(chuàng)始人穆斯塔法·蘇萊曼一起,著手與谷歌談判,尋求建立一套新的治理保障機(jī)制。
為了推進(jìn)這個(gè)秘密的「馬里奧計(jì)劃」(Project Mario),他聘請(qǐng)了一支頂尖的法律團(tuán)隊(duì),獲得了外部10億美元的資金承諾,并考慮如果無法獲得對(duì)技術(shù)的控制權(quán),就讓DeepMind從谷歌獨(dú)立出去。
與此同時(shí),蘇萊曼還帶領(lǐng)DeepMind團(tuán)隊(duì)參與了一項(xiàng)幫助英國國家級(jí)的急性腎病管理項(xiàng)目。
如果能實(shí)現(xiàn)AI的獨(dú)立治理,又能改善普通英國民眾的健康狀況,哈薩比斯或許就能確信,自己的追求確實(shí)是向善的。
然而,這兩項(xiàng)努力均以失敗告終。
與谷歌圍繞治理權(quán)的拉鋸戰(zhàn)持續(xù)了三年,困難重重。
而幫助英國國家醫(yī)療服務(wù)體系的項(xiàng)目,則遭到了隱私保護(hù)倡導(dǎo)者的強(qiáng)烈反彈——他們憤怒于一家美國科技巨頭的子公司可能染指患者數(shù)據(jù)。
到2019年,哈薩比斯和DeepMind在這兩條戰(zhàn)線上都已退卻。蘇萊曼最后也離開了DeepMind。
ChatGPT致命一擊,谷歌AI狂飆
2022年,ChatGPT的爆發(fā),像一顆核彈丟進(jìn)了哈薩比斯的辦公室。
在此之前,哈薩比斯還試圖維持「科學(xué)家的優(yōu)雅」。
他帶領(lǐng)團(tuán)隊(duì)開發(fā)AlphaFold,破解蛋白質(zhì)折疊難題,拿下了諾貝爾獎(jiǎng)。
![]()
他認(rèn)為這是AI服務(wù)人類的最高境界:一種純粹的、造福醫(yī)療的、可控的科學(xué)。
但市場(chǎng)不這么看。當(dāng)ChatGPT成為歷史上增長最快的應(yīng)用時(shí),谷歌慌了,整個(gè)硅谷都瘋了。
2022年,ChatGPT爆火那天,哈薩比斯在內(nèi)部定調(diào):現(xiàn)在是戰(zhàn)爭狀態(tài)!
在這個(gè)狀態(tài)下,所有之前的安全承諾都變得脆弱不堪:
谷歌開始積極接觸國防部門,試圖將AI賣給五角大樓(曾是哈薩比斯的紅線)。
在權(quán)力斗爭中,原本那個(gè)「獨(dú)立倫理委員會(huì)」幾乎隱形。
為了追趕GPT-4,DeepMind與谷歌大腦強(qiáng)行合并,速度取代了嚴(yán)謹(jǐn)。
哈薩比斯看清了一個(gè)殘酷的現(xiàn)實(shí):在AI競(jìng)賽中,沒有一個(gè)非營利的制度能寄生在營利性巨頭的體內(nèi)。
當(dāng)生存受到威脅,所有的倫理都是奢侈品。
![]()
哈薩比斯親眼看著自己親手筑起來的所有墻,一堵一堵倒掉。
他終于承認(rèn):「即使有治理委員會(huì),關(guān)鍵時(shí)刻也可能做錯(cuò)決定。」
真正失控的不是模型,而是人類競(jìng)賽
孤獨(dú)的人類守望者
現(xiàn)在,哈薩比斯徹底轉(zhuǎn)向現(xiàn)實(shí)主義。
他的目標(biāo),是爭取到「一張決策桌旁的席位,這樣當(dāng)安全問題出現(xiàn)時(shí)」,他就能參與決定解決方案。
「事情不是非黑即白的,尤其是當(dāng)你面對(duì)一項(xiàng)后果未知的技術(shù)時(shí),」他告訴記者。「所以你必須有適應(yīng)能力。你不得不從理想主義者轉(zhuǎn)變?yōu)楝F(xiàn)實(shí)主義者,但希望依然能堅(jiān)守自己的價(jià)值觀。」
哈薩比斯對(duì)「治理」的徹底祛魅,放棄了制度安全,改為靠個(gè)人影響力「搶座上桌」。
一邊狂推AlphaFold拿諾貝爾獎(jiǎng)、Gemini繼續(xù)沖鋒,一邊把希望死死攥在「有良知的人」手里。
更狠的反轉(zhuǎn)來了:連馬斯克這種曾經(jīng)最激進(jìn)的安全派都開始狂踩油門。
樂觀派還在喊「對(duì)齊技術(shù)能解決一切」,可哈薩比斯自己都不信了。
制度徹底死了。
OpenAI董事會(huì)罷免奧特曼,又瞬間被資本力量反殺。
他選擇了最無奈的一條路:「讓自己成為權(quán)力的一部分。」
他現(xiàn)在的安全邏輯是:既然我無法阻止這場(chǎng)競(jìng)賽,那我就必須贏得這場(chǎng)競(jìng)賽。我必須留在牌桌上,我必須擁有最高的話語權(quán)。
這樣,當(dāng)真正的「奇點(diǎn)」來臨,當(dāng)那個(gè)人類無法理解的決定需要被做出時(shí),至少,坐在那個(gè)關(guān)鍵位置上的人,是一個(gè)從第一天起就對(duì)AI心存敬畏的哈薩比斯。
他現(xiàn)在只能賭——賭「好人掌權(quán)」能救世界。
可問題來了:如果AI安全只能靠「好人掌權(quán)」,到底是救贖,還是最危險(xiǎn)的賭局?
AI安全窗口正在永久關(guān)閉。
超級(jí)智能若對(duì)齊失敗,造的火箭、殖民的太空,都逃不掉滅頂之災(zāi)。
人類本性早已把統(tǒng)一治理變成永遠(yuǎn)的笑話。
唯一希望,只剩「有良知的人掌握話語權(quán)」這種最脆弱、最危險(xiǎn)的方案。
哈薩比斯不是唯一改變的人,他只是第一個(gè)把殘酷現(xiàn)實(shí)說透的人。
現(xiàn)在,第37手棋,已經(jīng)落在我們每個(gè)人頭上——
你我正在見證的,是一場(chǎng)文明豪賭。
參考資料:
https://www.theatlantic.com/ideas/2026/03/ai-google-deep-mind-hassabis/686527/?gift=CEkEIkBH6dRxwlqcDGFBTO2NKBCl3GKJsmVqCahCOzo
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.