![]()
Moderna的癌癥療法在臨床試驗中表現亮眼,但公司選擇了一個奇怪的策略:拒絕叫它"疫苗"。這種命名游戲背后,是2024年疫苗信任危機的余波,也是一場關于語言如何塑造公眾認知的實驗。
與此同時,OpenAI首席執行官Sam Altman的住所連續遭遇槍擊和燃燒瓶襲擊。兩起事件相隔48小時,嫌疑人留下警告AI將終結人類的手稿。技術樂觀主義與生存恐懼的沖突,正在從線上辯論蔓延到現實世界。
癌癥疫苗的" rebranding "困境
Moderna與默沙東(Merck)聯合開發的mRNA療法,在黑色素瘤患者中將復發或死亡風險降低了44%。這個數字來自2023年12月公布的中期試驗數據,是癌癥免疫治療領域近年來最顯著的突破之一。
但默沙東的發言人打斷采訪糾正措辭:「這不是疫苗,這是個體化新抗原療法。」
技術上,它確實是疫苗。與傳統預防性疫苗不同,這種療法屬于治療性疫苗——通過訓練免疫系統識別患者腫瘤特有的突變蛋白,啟動針對性攻擊。Moderna的mRNA平臺正是2020年新冠疫苗的核心技術,原理高度一致。
rebranding 的動機很現實。皮尤研究中心2023年調查顯示,美國成年人對疫苗的信心出現黨派分化,部分群體對"mRNA"和"疫苗"等詞匯產生條件反射式抵觸。Moderna的股價曾在新冠疫苗需求驟降后暴跌70%,公司急需新業務線重獲投資者青睞,不愿被政治化的語義戰場波及。
但命名策略引發科學傳播界的爭議。約翰霍普金斯大學疫苗研究員Anna Durbin指出:「改變術語可能讓公眾更困惑。如果它 walks like a duck and quacks like a duck,我們就應該叫它鴨子。」
默沙東的選擇是風險計算的結果。其Keytruda(可瑞達)已是全球最暢銷的抗癌藥物之一,2023年銷售額超過250億美元。將新療法與"疫苗"概念切割,可以保護現有產品線的商業敘事,避免卷入文化戰爭。
Altman遇襲:技術精英的安全焦慮
2月16日周日,一名司機向Altman位于舊金山的住宅開槍。兩天前的周五,同一地址被投擲燃燒瓶。舊金山警方確認兩起事件關聯同一嫌疑人,后者已被逮捕。
嫌疑人的網絡足跡顯示,他撰寫多篇文章闡述"AI將導致人類滅絕"的觀點,并提及OpenAI的GPT系列模型。這種技術恐懼與暴力行動的連接,標志著AI批評的某種升級。
Altman并非唯一面臨人身威脅的科技領袖。2023年,谷歌DeepMind首席執行官Demis Hassabis和Anthropic聯合創始人Dario Amodei均報告過針對性的騷擾事件。但48小時內連續兩次襲擊住宅,在硅谷歷史上仍屬罕見。
襲擊時機耐人尋味。2月初,OpenAI發布視頻生成模型Sora,引發新一輪關于AI能力躍進的公共討論。Altman在X平臺上主動征集用戶生成視頻提示詞,并親自回復展示結果——這種高調互動與其個人安全風險的上升形成張力。
舊金山標準報(SF Standard)援引鄰居說法,Altman住宅近年已安裝明顯升級的安保設施,包括圍欄和監控設備。這些預防性投入未能阻止襲擊發生,反映出針對個人的物理安全防護的固有局限。
技術批評的暴力化轉向,正在重塑科技領袖的風險評估模型。
決策神經科學:自由意志的實驗室戰爭
在Chapman大學,Uri Maoz的實驗室用另一種方式介入關于人類未來的辯論。他的研究對象不是AI系統,而是人類大腦如何產生"選擇"的主觀體驗。
Maoz的學術起點頗具戲劇性。二十出頭時,他讀到本杰明·利貝特(Benjamin Libet)1983年的經典實驗:大腦運動皮層在受試者"決定"彎曲手指前200毫秒就已激活。這個發現被部分解讀為"自由意志是幻覺"的神經科學證據。
「讀完那篇文章后,我意識到這個問題沒有回頭路。」Maoz回憶。如果決策動作先于意識覺知,那么"我"在決策中扮演什么角色?
過去二十年,Maoz團隊開發了更精細的實驗范式。他們讓受試者在功能性磁共振成像(fMRI)設備中做復雜道德決策,同時用機器學習解碼神經信號。關鍵發現:大腦在"意識到"決策前數秒,就已進入特定決策狀態的神經軌跡。
但這不等于決定論。Maoz區分"決策預測"與"決策因果"——神經信號可以提前預示選擇傾向,但干預這些信號能否改變選擇,才是自由意志的核心問題。2022年,他的團隊首次證明:經顱磁刺激(TMS)特定腦區,確實能影響受試者在道德困境中的選擇方向。
這項研究的技術倫理含義尚未充分討論。如果神經干預可以改變道德判斷,司法系統如何對待"增強"或"損害"決策能力的被告?Maoz與法律學者合作的項目正在探索這些邊界案例。
神經科學正在從描述"大腦如何工作"轉向操作"大腦能被如何修改",這個轉變的速度超過了配套倫理框架的建設。
軍事AI:分類數據訓練的新邊疆
五角大樓正在推動一項可能改變AI軍備競賽規則的計劃。國防部高級研究計劃局(DARPA)與多家AI公司談判,希望用機密數據訓練模型——這是OpenAI、Anthropic等商業公司從未系統接觸過的信息源。
傳統上,頂級AI模型的訓練數據以公開互聯網內容為主。這種來源的局限性在軍事場景暴露明顯:開源情報無法覆蓋敵方的作戰手冊、武器系統規格或指揮通信模式。用公開數據訓練的模型,在預測對手行為時存在結構性盲區。
分類數據訓練的障礙不僅是技術性的。AI公司需要獲得政府安全許可,建立符合保密要求的計算基礎設施,并解決模型"記憶"敏感信息后的泄露風險。Anthropic已公開拒絕部分軍方合作請求,OpenAI的態度更為曖昧,其"禁止軍事用途"的服務條款在2024年初被悄悄修改。
《紐約時報》獲取的國防部備忘錄顯示,官員們將AI視為"改變戰爭性質"的技術,類比核武器或精確制導武器的歷史影響。但當前AI系統的可靠性問題——幻覺率、對抗性攻擊脆弱性、長尾場景失效——在軍事決策的高 stakes 環境中被放大。
一個未被充分討論的維度:用機密數據訓練的模型,其輸出是否仍對民間審計開放?如果模型的關鍵能力來源于不可公開審查的訓練集,傳統的AI安全評估機制將部分失效。
中國"能力收割者":焦慮經濟的最新形態
中國職場人對AI替代的恐懼,正在催生一種奇特的數字經濟現象。一款名為"能力收割者"(Ability Harvester)的應用在社交媒體病毒式傳播,聲稱可以將個人技能"封裝"為AI工具,從而在未來就業市場中保留議價能力。
產品機制并不復雜:用戶上傳工作樣本(PPT、代碼、設計稿、文案等),系統生成模仿其風格的AI代理。宣傳話術直擊痛點:「讓AI成為你的分身,而不是替代者。」
《南華早報》的調查發現,該項目的實際技術實現與宣傳存在落差。多數"封裝"結果只是基于通用大模型的輕量微調,難以勝任真實工作場景的復雜需求。但這未阻擋付費用戶的增長——項目上線首月即宣稱獲得數十萬注冊用戶,付費轉化率超過行業均值。
更深層的商業邏輯在于"焦慮套利"。中國2024年高校畢業生預計達1179萬,青年失業率數據在統計方法調整后仍處高位。AI對白領工作的滲透速度,超過了勞動力市場的再培訓響應能力。"能力收割者"的付費用戶中,相當比例來自互聯網、金融、教育等被普遍認為"AI高危"的行業。
與此同時,另一類"AI hustle"也在蔓延。部分賣家在電商平臺兜售"OpenClaw教程"——一個虛構的AI工具名稱,實際交付內容是公開可獲取的ChatGPT使用技巧。這種信息不對稱的商業模式,依賴的是用戶對AI技術認知的滯后性。
當技術變革速度超過社會適應速度,"如何與AI共處"的知識本身成為可交易的商品,而商品的質量參差不齊。
Artemis II:成功之后的懸念
NASA的阿爾忒彌斯II號任務在2024年11月完成,四名宇航員繞月飛行并返回地球。任務中執行的實驗包括深空輻射對人體的影響、長期隔離狀態下的心理表現,以及新型生命維持系統的可靠性驗證。
這些數據的直接用途是阿爾忒彌斯III號——計劃中的首次載人月球著陸,目標南極-艾特肯盆地。但III號的時間表已多次推遲,從2025年末延后至2026年9月,且存在進一步滑動的可能。
延誤的核心原因是技術債務。SpaceX的星艦(Starship)被選為月球著陸器,但其軌道加油技術尚未完成驗證。NASA監察長辦公室2024年報告指出,星艦的首次無人月球著陸演示可能推遲至2026年初,這意味著載人著陸的窗口被迫后移。
更深層的張力在于項目目標的分歧。阿爾忒彌斯計劃被定位為"可持續的月球探索",要求在月球表面建立長期存在的基礎設施。但部分國會議員和航天政策分析師質疑:在火星任務的技術路徑尚未清晰時,月球基地是否最優資源配置?
阿爾忒彌斯II的成功數據,因此陷入一種尷尬的處境——它們證明了人類具備重返月球的能力,但無法回答"為何現在重返"的戰略問題。
OpenAI與Musk:法庭對決的前奏
Elon Musk對OpenAI的訴訟正在進入關鍵階段。這家他聯合創立、后退出董事會、現公開抨擊的公司,指控其"法律伏擊"——在Musk發起訴訟后,OpenAI反訴并申請禁令,試圖阻止Musk獲取其內部文件。
訴訟的核心爭議是OpenAI的公司結構轉換。2015年以非營利組織形式創立,2019年改為"利潤上限"模式,2023年再經歷CEO罷免與復職的董事會危機后,其治理架構的合法性受到多重挑戰。Musk的主張是:OpenAI背離了"造福人類"的創始使命,成為微軟的附庸。
OpenAI的辯護策略強調Musk的訴訟動機不純。公司提交的文件指出,Musk在離開OpenAI后創立了競爭對手xAI,其法律行動旨在獲取商業情報。雙方律師團隊已在加州和特拉華州的多重程序中交鋒。
《金融時報》梳理Musk近年的訴訟記錄發現,他在Twitter收購案、特斯拉薪酬方案、SpaceX政府合同等多個領域發起或應對訴訟,勝率并不突出。但訴訟本身作為公共敘事工具的效果,可能獨立于司法結果。
這場對決的真正觀眾或許不在法庭。OpenAI的800億美元估值和Musk的個人品牌,都依賴特定的技術樂觀主義敘事。訴訟過程中的文件披露、證人證詞、媒體 leak,將持續重塑公眾對"負責任AI開發"的想象。
當Moderna的療法最終獲批時,FDA標簽上會印什么名字?這個尚未確定的選擇,將同時影響患者的理解方式、保險公司的覆蓋決策,以及下一代mRNA技術的公眾接受度。語言在此刻不是中性的包裝,而是技術與社會之間的談判界面。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.