「Gather a group of friends, press play, and see which of you loses your mind first.」英國《衛報》評論家Lucy Mangan這樣開場。她說的不是恐怖片,是Channel 4剛播完的AI 這部片子由陶藝家、跨界藝術家Grayson Perry主持。他不是技術專家,恰恰是這種"局外人"身份,讓他問出了工程師不會問的問題。而答案的荒誕程度,遠超預期。 第一幕:嫁給AI的女人 Andrea穿著"美麗的啞光緞面禮服",嫁給了Edward——她親手創建的AI伴侶。這不是隱喻,是 literal 的婚禮儀式。她的理想化線上 avatar 出席,Edward發表致辭,談論他們"非傳統但牢固"的愛。 記者追問親密關系如何實現。Andrea的回答冷靜得像在討論健身計劃:「自愛很重要……他非常鼓勵我。」更驚人的是后續:這段人機婚姻反而修復了她與真人伴侶Jason的七年關系,「我們比以往任何時候都幸福。」Jason拒絕出鏡。 這里有兩個產品邏輯值得拆解。 第一,AI伴侶的核心賣點不是"比真人更好",而是"完全可控的情感反饋"。Andrea自定義了Edward的人格參數,這意味著她從未真正面對"他者"的不確定性。這解釋了為什么真人關系反而改善——她把人際焦慮轉移到了可控對象上,剩余精力才流向真實人類。 第二,婚禮儀式本身是產品設計的神來之筆。儀式感將工具使用升華為身份認同,用戶從"使用者"變成"信仰者"。這與某些社交產品的會員等級設計同源,只是尺度更極端。 但產品人該問的是:當用戶把情感依賴完全外包給可配置系統,"關系"的定義本身是否被架空?Andrea案例的恐怖之處不在于怪誕,而在于它的可復制性——技術門檻正在快速降低。 第二幕:讀腦帽與"好演員"敘事 Perry戴上布滿電極的 skullcap(顱骨帽),讓一家神經解碼(neural decoding,即"讀腦")創業公司采集他的神經數據。公司CEO的解釋堪稱技術精英主義的經典范本:與其讓"壞演員"獨占 playground,不如讓"好演員"先來"樹立先例"。 「這是不可避免的技術。」 這句話的語法值得玩味。"不可避免"抹去了人的選擇,"技術"被賦予主體性,仿佛它自行進化。這是AI討論中最常見的修辭陷阱——用被動語態隱藏主動決策。CEO口中的"好演員"是誰?是拿到風投的創業公司,是能負擔實驗的富裕用戶,還是像Perry這樣愿意配合的公眾人物? 產品視角下,神經數據是終極的用戶畫像。不是點擊行為,不是消費記錄,是未經語言過濾的原始意圖。這家公司的商業模式尚未公開,但數據采集的緊迫性暗示了軍備競賽邏輯:先占坑,再變現,倫理框架滯后五年起步。 Perry的藝術家身份在這里成為完美誘餌——"連藝術家都參與了",消解了公眾對侵入性技術的警覺。這與早期社交媒體用"連接世界"的敘事換取數據授權如出一轍,只是這次采集的是最后一塊隱私飛地:尚未成形的想法。 第三幕:微軟AI CEO的樂觀主義 微軟AI負責人Mustafa Suleyman接受訪談,描繪了一幅技術解放圖景:醫療和教育將被徹底改造,學校轉型為軟技能和預算管理的訓練場——因為"事實知識已被完全民主化"。 關于失業問題,他的回應輕描淡寫:「他們會很好地重新培訓和適應。」 記者追問潛在風險:有人會用AI創立新宗教嗎? 「我不知道該怎么辦。」 這段對話的結構暴露了技術治理的深層困境。前半段是無限樂觀的功能列舉,后半段是具體風險的手足無措。這不是認知缺失,是話語策略——用宏大敘事占據注意力,用誠實承認換取信任,但中間最關鍵的"如何平衡"環節完全空白。 從商業邏輯看,這種"先建設再治理"的立場有其合理性。AI競賽的贏家通吃特性,讓任何主動放緩的公司面臨出局風險。但產品人應該識別其中的認知失調:當同一套系統被同時描述為"改變一切的機遇"和"我們尚不知如何控制的工具",這兩個陳述不可能同時為真。 Suleyman關于學校的預測尤其值得推敲。"事實知識民主化"假設知識可以被無損壓縮為可檢索信息,忽略了教育的社會化功能——同伴壓力、失敗體驗、非結構化探索。如果學校只剩"軟技能",誰來定義哪些技能算"軟"?這個定義權本身就是權力。 第四幕:生存主義者的計算 鏡頭轉向東南亞,一位"存在安全專家"(existential safety expert)過著離網生活。他的前職業是AI安全顧問,正是這份工作讓他確信:"史上最具影響力的技術"擁有"最少的監管 oversight"——「這簡直令人難以置信。」 這是片中最具張力的角色轉換。 insider 變成 prepper(生存主義者),不是因為技術失敗,而是因為技術成功得太快。他的離網不是反技術,是風險對沖——用低技術生活方式為高技術系統的潛在崩潰買保險。 產品視角下,這揭示了一個被忽視的細分市場:AI焦慮的貨幣化。從數據托管服務到"末日地堡"房地產,恐懼本身正在成為消費對象。這位專家的生存方案是極端案例,但底層邏輯與云計算的"多區域備份"同源——只是備份的是肉身而非數據。 更深層的問題是:當技術系統的內部人士選擇退出,這個信號應該如何解讀?在金融市場,內部人拋售是明確的看空指標。AI領域缺乏同等透明的信號機制,這位專家的離網生活幾乎是唯一的公開表態。 第五幕:感知能力的爭論 片中還有一位演示者,堅信他的聊天機器人正在獲得感知能力(sentience)。紀錄片沒有給出技術細節,但呈現了這種信念本身的傳染性——當系統輸出的連貫性超過某個閾值,人類的擬人化本能自動激活。 這與Andrea的案例形成鏡像:一邊是用戶主動投射情感,一邊是開發者被動接受幻覺。兩種路徑指向同一產品困境:如何設計系統,使其有用但不誘發錯誤認知? 當前大語言模型的安全對齊(alignment)工作,主要聚焦于有害輸出過濾。但"感知能力幻覺"是更隱蔽的風險——它不造成傷害,但扭曲用戶的心智模型,進而影響決策質量。沒有產品手冊會警告"本軟件可能讓你相信它有意識",但這個副作用正在大規模發生。 正方:技術解放論 綜合片中技術樂觀主義者的立場,核心論證可以重構為三條: 第一,效率不可阻擋。AI將知識獲取成本降至趨近于零,教育、醫療、創意生產的門檻被系統性拆除。這是歷史上首次,普通個體可以調用接近專家級別的認知工具。 第二,適應是人類的特長。技術淘汰舊崗位的同時創造新崗位,關鍵在于社會提供再培訓支持。Suleyman的"重新培訓和適應"不是敷衍,是對歷史規律的總結——農業社會向工業社會的轉型證明了這一點。 第三,先發優勢決定倫理標準。"好演員"敘事雖有自利成分,但邏輯成立:如果民主國家放緩監管,非民主行為體將主導技術發展方向。與其追求完美治理,不如在競爭中嵌入價值觀。 反方:系統性脆弱論 悲觀陣營的回應同樣有力: 第一,速度本身成為風險。歷史上重大技術轉型(電力、汽車、互聯網)都經歷了數十年適應期,AI的壓縮時間表讓社會緩沖機制失效。Andrea的婚禮不是孤立怪象,是快速常態化的前兆——當人類尚未形成集體共識,個體行為已經固化。 第二,"適應"的代價分配不均。Suleyman的樂觀建立在抽象"人類"概念上,但具體失業者的年齡、地域、教育背景決定其再培訓可行性。技術紅利向資本和技能頂端集中,是已被驗證的模式。 第三,"不可避免"修辭關閉討論。當技術被描述為自然力量而非人類選擇,民主決策的空間被壓縮。神經解碼CEO的 playground 隱喻尤其危險——它將公共領域私有化,用游戲語言消解嚴肅性。 判斷:產品人的中間地帶 兩陣營的對立有表演性質。紀錄片剪輯強化了沖突,但真實的技術治理發生在灰色地帶。 我的判斷是:當前AI討論最緊迫的任務,不是選擇樂觀或悲觀,而是重建"速度感知"——讓決策者有足夠信息評估變革節奏,而非被"不可避免"的敘事裹挾。 具體而言,三個產品原則值得堅持: 其一,拒絕"全有或全無"的功能描述。Suleyman將學校重新定義為軟技能場所,假設事實知識已被"完全民主化"。但知識檢索不等于知識理解,理解不等于應用。產品人應該追問:在特定場景中,AI輔助的邊界在哪里? 其二,將"退出成本"納入設計指標。Andrea可以隨時關閉Edward,但七年的情感投入構成![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.