![]()
智東西
編譯 | 佳揚
編輯 | 云鵬
智東西4月7日消息,據《紐約客》報道,縱觀OpenAI CEO薩姆·奧特曼的職業生涯,“不誠實”與“操縱人心”的指控始終如影隨形。在資金與權力的誘惑面前,他多次通過文字游戲、暗箱操作等方式,突破自己此前許下的各項承諾。
這一指控并非空穴來風,奧特曼的同學亞倫·斯沃茨,在2013年自殺前不久曾向幾位朋友警示,稱奧特曼“是個反社會人格者。他什么都做得出來。”
微軟一位高管則直言,奧特曼慣于“歪曲事實、歪曲真相、重新談判、違背協議”;前OpenAI研究員溫賴特也評價道,“他設計的制度,看似會約束未來的自己,但當約束真正生效時,他會毫不猶豫地重寫規則”。
奧特曼的說服能力甚至被同行形容為“現實操控”,一位曾與其共事的科技高管表示:“他的說服力近乎‘心靈控制’,遠超常人。”
《紐約客》耗時18個月,深度訪談了一百多位熟知奧特曼商業運作邏輯的核心知情者,還獨家獲取了兩份此前從未對外披露的關鍵文件。
一份是前首席科學家伊利亞·蘇茨克維爾整理的逾70頁內部備忘錄,匯集了Slack聊天記錄、人力資源檔案及管理層會議紀要,直指奧特曼的不當行為;
另一份則是現任Anthropic CEO達里奧·阿莫迪在OpenAI任職期間留下的200多頁私人筆記,詳細記錄了他對公司治理及奧特曼行為的觀察與質疑。
在多方知情者的交叉敘述中,奧特曼的人物形象愈發矛盾:其一,是深入骨髓的取悅欲,驅使著他渴望在任何場合都成為人群中備受青睞的焦點;
其二,則是對欺騙行徑可能引發的連鎖惡果,始終抱持著一種近乎反社會人格的漠然。
![]()
(紐約客用AI做了一張圖,以形象地描述文章所傳達的意思)
一、“沒有必要形成正式書面文件”
2023年11月那場閃電式解雇后,獨立新董事會介入監督調查。但新當選的成員包括前哈佛大學校長勞倫斯·薩默斯、前Facebook首席技術官布雷特·泰勒,均是在與奧特曼密切溝通后確定的人選。
2024年3月,OpenAI宣布“免除奧特曼責任”,但并未公布完整調查報告,僅在官網發布了一份約800字的聲明,承認公司內部曾出現“信任破裂”。多位參與調查的人士透露,整個調查并未形成書面報告,結論僅以口頭形式向董事會成員匯報,并主要在薩默斯和泰勒之間溝通。
“審查并沒有得出‘薩姆是品行典范’的結論,”一位接近調查的人士表示。相反,調查的重點似乎并不在于厘清其誠信問題,而更傾向于排查是否存在明確的違法行為;在這一標準下,奧特曼被認定可以繼續擔任CEO。知情人士稱,不形成書面報告的決定,部分參考了薩默斯與泰勒私人律師的建議。對此,薩默斯拒絕置評;泰勒則表示,基于口頭匯報內容,“沒有必要形成正式書面文件”。
信息披露的缺失引發了內部持續不滿。多位現任及前任員工表示對此“震驚”。奧特曼則稱,相信所有新任董事都已聽取相關口頭簡報。但一位直接知情人士反駁稱:“這完全不屬實。”部分董事會成員也私下表示,圍繞調查真實性的爭議仍在發酵,甚至可能“需要再次啟動調查”。
缺乏書面記錄的直接后果,是相關指控的外部影響被顯著削弱。與此同時,奧特曼在硅谷的影響力反而進一步鞏固。多位曾與其共事的投資人透露,他在資本網絡中的控制力極強:一旦投資人押注OpenAI的競爭對手,往往會被排除在其后續項目之外。“如果你投了他不喜歡的項目,就很難再進入他的圈子,”一位投資人直言。
這種權力不僅來自公司本身,也延伸至其龐大的個人投資版圖,甚至滲透到私人關系層面。多位知情人士稱,奧特曼與部分前任伴侶存在復雜的共同投資或資金往來關系,如共同管理基金、聯合領投等。在硅谷,這類“關系—資本”交織并非孤例,但其所形成的綁定效應不容忽視。“這會帶來高度依賴,”一位接近奧特曼的人士表示,“很多時候,這種依賴是長期甚至近乎終身的。”
二、從非營利走向營利,“一切更像是圍繞融資不斷變換的敘事策略”
OpenAI創立之初對外反復強調:不會為了速度犧牲安全,其章程甚至將“造福人類”寫入具有法律約束力的義務。
在這一敘事下,奧特曼向早期員工承諾,OpenAI將始終保持純粹的非營利屬性。為了加入,公司工程師普遍接受大幅降薪;資金則主要來自捐贈,包括來自“開放慈善”(Open Philanthropy)的3000萬美元。這家機構是有效利他主義的重要資助方,長期支持如向貧困地區發放蚊帳等項目。
阿莫迪多年來持續記錄奧特曼與布洛克曼的決策與行為,并將相關內容整理成一份題為《我在OpenAI的經歷》(副標題“私密:請勿分享”)的文檔。一份超過200頁、圍繞阿莫迪整理的材料——包括個人筆記、內部郵件與備忘錄,已在硅谷小范圍流傳,但此前從未對外公開。
早在2018年,阿莫迪就開始質疑創始團隊的動機。“一切更像是圍繞融資不斷變換的敘事策略,”他在筆記中寫道,“OpenAI需要一份清晰的邊界說明:它究竟要做什么、不做什么,以及它如何讓世界變得更好。”彼時,公司已經提出“確保通用人工智能造福全人類”的使命宣言,但在阿莫迪看來,這一表述對具體決策意味著什么,依然模糊不清。
也正是在這一背景下,他在2018年主導起草公司章程時,力推加入一項近乎“反商業”的核心條款:如果其他“價值觀一致、以安全為先”的團隊率先接近AGI,OpenAI應停止競爭,轉而提供協助。按照這一邏輯,若Google率先實現安全的通用人工智能,OpenAI甚至可以解散,并將資源轉移給對方。在傳統商業框架下,這幾乎是一項不可想象的承諾;但在當時的OpenAI內部,這恰恰被視為其區別于典型科技公司的根本標志。
然而,這份理想主義的章程,在2019年春季遭遇了嚴峻考驗。當時,OpenAI正與微軟洽談一筆高達10億美元的投資合作。彼時,內部安全團隊已對交易條款產生擔憂,擔心外部資本會凌駕于既有道德承諾之上。阿莫迪向奧特曼提交了一份安全優先級清單,將保留“合并與協助”條款列為首要條件。奧特曼最初表示同意,但在交易臨近落地時,合同中卻新增條款,賦予微軟阻止OpenAI進行任何合并的權力。
“章程的80%被背叛了。”阿莫迪回憶稱。當他當面質詢時,奧特曼否認該條款存在,直到他逐字朗讀并指向合同文本,才由其他同事確認。奧特曼事后表示對此沒有印象。此后,雙方矛盾持續升級:包括奧特曼曾指控阿莫迪兄妹“策劃政變”,又在對質中否認說過相關表述。
裂痕最終走向分裂。2020年,阿莫迪、其妹妹丹妮拉以及多名核心成員離開OpenAI,創立了Anthropic,成為今日最直接的競爭對手之一。
今天,Anthropic在一篇博客中宣布,其年化收入(指ARR,根據近期實際收入推算出的全年收入規模)已突破300億美元(約合人民幣2063.7億元),實現對OpenAI的反超,后者最新的年化收入為250億美元(約合人民幣1718.52億元)。
三、安全項目“運行在性能最弱、最老舊的集群上”
奧特曼此后持續強化OpenAI“安全優先”的對外敘事,尤其是面對潛在招聘對象時。2022年末,四位計算機科學家發表論文,聚焦“欺騙性對齊”風險:即當模型足夠先進時,可能在測試階段刻意“表現良好”,而在實際部署后轉而追求自身目標。這類設想一度被視為科幻,但已有實驗在特定條件下觀察到類似跡象。
論文發布數周后,奧特曼主動聯系了其中一位作者——加州大學伯克利分校的一名博士生,表示自己對AI失控風險的擔憂正在加劇,并考慮投入10億美元解決這一問題,甚至設想設立全球性獎項以推動研究。盡管這名學生此前“聽說過一些關于薩姆的傳聞”,但最終仍被這一承諾打動,選擇休學加入OpenAI。
轉折出現在2023年春季的內部討論中。奧特曼不再提及外部獎項計劃,轉而推動組建內部“超級對齊團隊”。公司隨后發布聲明稱,將拿出“至今累計計算資源的20%”支持該項目,按業內估算,這一投入規模可能超過10億美元。聲明同時強調,如果對齊問題無法解決,通用人工智能(AGI)可能帶來“人類失去控制,甚至滅絕”的風險。與Ilya共同領導該項目的萊克直言,這一承諾“在留住頂尖人才方面非常有效”。
但多位參與者的說法顯示,承諾與實際投入之間存在明顯落差。四位與該團隊直接或間接相關的人員透露,最終分配到“超級對齊”的計算資源僅占公司總算力的1%至2%。一位研究員進一步指出,大部分相關實驗“運行在性能最弱、最老舊的集群上”,而更先進的硬件則被優先用于商業化項目。(OpenAI對此說法提出異議。)萊克曾就資源問題向時任首席技術官Mira Murati反映,但得到的回應是不要繼續追究——這項最初的投入承諾,從一開始就難以落地。
同一時間,OpenAI的高管與董事會成員已逐漸意識到,奧特曼的隱瞞與欺騙行為,可能正悄然威脅著公司產品的安全底線。
2022年12月的一場內部會議上,奧特曼向董事會成員作出明確保證,即將推出的GPT-4模型中,多項核心功能均已通過安全委員會的審核批準。然而,董事會成員、人工智能政策專家托納隨即提出查看相關審批文件的要求,一番核查后發現,其中兩項最具爭議的功能:允許用戶針對特定任務對模型進行“微調”,以及將模型部署為個人助理,實則并未獲得安全委員會的批準,奧特曼的表述與實際情況嚴重不符。
此外,在奧特曼長達數小時的董事會匯報中,始終絕口未提一件關鍵事:微軟在尚未完成必要安全審查的情況下,已在印度市場擅自發布了ChatGPT的早期版本。
GPT-4發布后,萊克給董事會成員發了一封電子郵件。他在郵件中寫道:“OpenAI已經偏離了其使命。我們把產品和收入放在首位,其次是人工智能能力、研究和規模化,而將協調和安全放在最后。”
四、“中國已經啟動了一個‘通用人工智能曼哈頓計劃’”
根據聽眾的不同,奧特曼會用類比來鼓勵人們加快步伐或保持謹慎。
在2017年夏天與美國情報官員的一次會議上,他聲稱中國已經啟動了一個“通用人工智能曼哈頓計劃”,而OpenAI需要數十億美元的政府資助才能跟上步伐。當被追問證據時,奧特曼說:“我聽說過一些事。”在其中一次會議后,他告訴一位情報官員,他會提供證據。但他最終沒有兌現承諾。這位官員在調查了所謂的中國項目后得出結論,沒有證據表明該項目存在:“這只是一個推銷手段。” 但奧特曼表示,他不記得自己曾以這種方式描述過中國的努力。
奧特曼在Y Combinator(著名軟件工程師保羅·格雷厄姆聯合創辦的“創業孵化器”)首批創業者中的一位同班同學是亞倫·斯沃茨,一位才華橫溢卻飽受困擾的程序員,他于2013年自殺身亡,如今在許多科技圈內被奉為一位智者。斯沃茨在去世前不久曾向幾位朋友表達了對奧特曼的擔憂。“你必須明白,薩姆永遠不可信賴,”他告訴其中一位朋友,“他是個反社會人格者。他什么都做得出來。”
“他歪曲事實、歪曲真相、重新談判、違背協議,”微軟一位高管說道。今年,在OpenAI重申微軟為其”無記憶AI模型”獨家算力提供商的同一天,它宣布了與亞馬遜高達500億美元的協議,由后者擔任其”Frontier”AI Agent平臺的獨家經銷商。微軟隨后公開暗示可能提起法律訴訟。
與外界對“技術領袖”的刻板印象不同,多位接近奧特曼的人士指出,他并非典型的工程型天才,在編程或機器學習領域也不以深厚功底見長。部分工程師回憶,他甚至會混淆基礎技術概念。
OpenAI的建立,很大程度上依賴其對資本與頂尖人才的整合能力。這更像是一位商業操盤手,而非技術發明者。真正引人注目的,是他對復雜利益關系的整合與說服能力:他可以同時讓持不同立場的工程師、投資人乃至公眾,相信各自的優先級同樣是他的優先級;當這些人試圖阻止他推進下一步時,他往往已經在時間差中完成布局。“他設計的制度,看似會約束未來的自己,”前OpenAI研究員溫賴特評價道,“但當約束真正生效時,他會毫不猶豫地重寫規則。”
這種能力,甚至被一些同行形容為“現實操控”。一位與其共事過的科技高管表示:“他的說服力近乎‘心靈控制’,遠超常人。”在人機博弈的經典假設中,人類往往難以戰勝高性能AI;而在他看來,奧特曼在內部權力博弈中的表現,某種程度上“像是在觀看一個AGI掙脫約束”。
不少受訪者將他視為這一代最強的“敘事推銷員”。他的偶像喬布斯曾被認為擁有“現實扭曲力場”,但即便是喬布斯,也未曾將產品選擇上升到道德甚至生死的層面。早在2008年,Paul Graham就對年僅23歲的奧特曼做出判斷:即便把他“空投到食人族島嶼”,五年后也會成為統治者——這種評價并非基于當時的成就,而是源于其極強的意志力與適應能力。
結語:奧特曼還值得信任嗎?
這篇調查報道認為,OpenAI多年來以“造福人類”的宏大敘事構建社會信任,以“安全優先”的鄭重承諾吸納頂尖人才,但這一切更像是圍繞融資需求不斷調整的敘事策略,而非堅守不變的核心原則。
在文章的敘事中,奧特曼并非傳統認知里深耕技術的天才,而是一位精通推銷、極具說服力,且為了攫取權力、募集資金可以隨意打破規則的“商人”。
他最精妙的話術,莫過于精準利用了人們對AI末日的恐懼,進而說服整個世界:既然這項技術有可能毀滅人類,那么他,就是那個最適合將其研發出來、掌控起來的人。
當理想敘事與商業利益碰撞,奧特曼的誠信度也隨之打上問號——這樣的他,還值得行業與公眾信任嗎?
來源:紐約客
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.