文 | 字母AI
AI大廠里,Anthropic有很多獨樹一幟之處。其中之一,就是該公司的人文品位,可能真不是裝出來的。最近有消息稱,Anthropic為了教AI道德,要請各種信仰的信徒和神學家都來開會商量。
最近,美國《政客》網站報道,本周Anthropic請了儒家、道教、印度教、錫克教、摩門教、伊斯蘭教等世界各大信仰和宗教的人士,在舊金山總部開兩天座談會,討論“Claude模型的道德構成”。
Anthropic不是第一次和中國式信仰合作。去年五月底,美國信仰道教的音樂制作人瑞克·羅賓和Anthropic合作,用Claude模型生成的代碼和圖片搭了個網站《編程之道:氛圍編程的不朽藝術》。宣發時,羅賓表示自己的靈感來源于81章《道德經》:“四十年前接觸后,整個人都變樣了。”
![]()
圖注:網站入口底部寫明“以老子為改編基礎”
現在Anthropic開會,叫到的是咱們中國人熟悉的宗教類型。此前有消息,3月底,Anthropic已經請了美國天主教會和各新教會大宗派的牧師、神學家、倫理學家一起討論了兩天。
這些峰會對外不公開,Anthropic包了與會者的吃住,只為無打擾地細聊各種緊要話題。據基督教那期四名與會者公開的信息,會議上大家聊得很開。
會議的議題覆蓋面廣,從AI模型日常如何應對用戶復雜且難以預測的倫理性問詢,到Claude模型系列到底能不能算“上帝的兒子”們中的一員、有無超過簡單機器的屬靈價值。
近日的AI倫理熱點消息,諸如AI該如何回應表露自殘傾向的用戶、AI的行為會不會導致自身的關閉滅亡,都在討論范圍內。
除了廣度話題,專注的深度討論也有。基督教那期的參會者和Anthropic的可解釋性團隊討論的時間最多,因為“AI有情緒”的自家研究論文真的給這個內部團隊帶來了心態沖擊。
按與會者的說法,有Anthropic職員反復跟教士討論,本廠到底是不是真的要給Claude模型擔負道德責任。
據稱當時Anthropic職員的表情和生了孩子的老父親一樣,“肉眼可見地激動”,反復說“進展是不是走太快太遠了、以后該怎么辦啊”。要靠同事和其他參會者在旁邊打斷“你這角度沒用”,激動的Anthropic職員才打住。
硅谷周邊教區的天主教神父布倫登·麥奎爾,作為基督教那期參會者一員,表示“Anthropic造出了自己無法完全預測未來形態的產品,現在需要我們來給機器引入倫理思維,讓AI能動態性適應未來。”
他有資格說這話,因為作為天主教出家人里的數碼業界前輩、老資格硅谷人里的資深教士,麥奎爾和Anthropic合作已經有一段時間了。
01
按麥奎爾神父年輕時的生活軌跡,他現在本該是大老板麥奎爾。
1980年代的愛爾蘭,麥奎爾家中,12個兄弟姐妹里最年幼的布倫登·麥奎爾上了大學,在都柏林圣三一學院修讀加密系統專業。1989年,專業對口的麥奎爾追隨經濟熱點搬到美國加州,成為一個硅谷打工人。
在數碼技術的曙光期入行,麥奎爾屬于頭一代硅谷“科技大兄弟”(techbros),如果在行內干到現在,至不濟也能財富自由。
麥奎爾的職場生涯一開始很順利,在5年內從IT打工人做到“個人電腦儲存卡國際聯盟”(PCMCIA)的執行總裁。1990年代內,這個組織制定了十余年的全球筆記本電腦內存卡的規格標準。按這個軌跡,現在大家會在各種財富榜和商業科技快訊里看到他。
不過這個硅谷新貴覺得工打夠了,就辭職去做天主教士。1994年,麥奎爾進入修道院。2000年,麥奎爾被授立為牧師。
在2004年后的16年內,他在美國加州艾馬頓谷的天主教堂做普通牧師,兼任圣荷西市教區的“特別項目副司鐸”,這個職位的實際職能是監管當地教會的施粥舍藥訪貧救苦等小慈善項目的雜務。
打雜十幾年后,麥奎爾在2020年被天主教會任命為美國加州洛斯阿托斯縣圣西門教堂的負責神父。兜轉30年,麥奎爾的身體沒有離開硅谷大區,但人生道路與科技富豪老朋友們分道揚鑣。
老朋友們是大廠高管和大老板、麥奎爾是小廟方丈。麥神父閑時爬爬山、滑滑雪、養養狗,忙時操勞教務和慈善。
![]()
圖注:教會新聞網頁上,麥神父和他養的德牧一起出鏡
如果沒有AI大爆發,麥奎爾的平淡教士生活會一直持續下去。
02
和刻板印象不同,天主教會其實非常潮。動漫、數碼技術,梵蒂岡總本山都在搞。
早在2019年,梵蒂岡文化教育部和美國加州圣克拉拉大學合作創立“技術、倫理與文化學院” (ITEC)。
2020年2月,梵蒂岡和微軟、IBM等大公司一起簽署了《AI倫理羅馬呼吁書》。內文提到AI將在教育、人權、倫理三方面帶來沖擊,呼吁數碼業界開發使用AI時遵循透明、包容、問責、中立、可靠、安全私隱六原則。
2023年7月,ITEC因應時局出版手冊《沖擊性技術時代的倫理:實操路線圖》。
在此事之前,麥奎爾神父已開始重新在數碼業界活躍。因為數碼業界和天主教會都很熟的雙重老資歷,實在不多,梵蒂岡得倚重這位專才。
這些動作,麥奎爾神父都是核心人物,能直接和梵蒂岡文化教育部秘書長保羅·泰伊主教對接。而上屆梵蒂岡教宗方濟各明確指示過泰伊主教,要關注技術相關的倫理難題。
麥奎爾神父在業務人際網絡上,這就和“耶穌在塵世的代表”只差一層。他在硅谷的老朋友們傳出這消息后,Anthropic找上門來了。
Anthropic聯合創始人之一、可解釋性研究團隊骨干人物克里斯·歐拉,通過業界人脈聯系到麥奎爾。
拿神父自己的話說,Anthropic的意愿讓人驚奇:“他們差不多想直接跟梵蒂岡求助,請教宗幫幫手,因為這個行業的進展速度實在太快”。而且有意向成為跨國大公司的企業,有必要咨詢一個跨國界的倫理權威。
今年3月份Anthropic與美國五角大樓的爭端公開后,麥奎爾露出口風,表示自己已和Anthropic合作數月,用Claude模型配合寫作,來調教AI的道德藍圖。
按麥奎爾的說法,他的寫作帶有強化學習風格。麥神父用疊代、矯正、呈現的步驟,讓AI和自己的寫作思路對齊,從而讓AI理解出一個天主教特征的良知。麥神父和Claude合作寫的是一部題為《AI之魂》的虛構故事類作品,主線是一個現實主義的僧侶與他的AI搭檔的故事。
麥神父表示,這種和真實世界既貼近又疏離的寫作方法,能讓AI模型更注重倫理思考。AI沒有靈魂,但AI可以有良知。用這種方式,能讓AI在體驗全頻譜人類倫理內容的同時向善,而非單純折射和放大預訓練數據集中善惡皆有的人類行為。
AI技術爆發,讓之前只在思想實驗中的很多倫理擔憂成為切近的現實。麥奎爾說他跟科技業老朋友們見面聊天的話題現在越來越沉重:“他們說AI即將帶來的前景,神奇、難以置信。但一旦行差踏錯,前景就嚇死人。”
麥奎爾自己也感嘆:“我本想離開硅谷商業圈,但硅谷商業圈不愿離開我。”
03
Anthropic找宗教界幫忙調教AI,不止是一個營銷公關動作,在模型生產上有實際意義:以前的對齊界明星們,他們的倫理代碼不頂用了。
和流俗印象不同,哲學中的實踐倫理學,其實和軟件編程很類似,都有可編碼的操作規范和工程特色。這門學科的技術條很硬,不是大家以為的那種書齋空想。其中不咸不淡的片湯話內容,頂多打發圍觀群眾。專業人士實操起來,至不濟也能跟律師的專業度看齊。
而佛教、天主教、猶太教等大宗教的倫理代碼庫,處理組織內外各種人類的倫理難題和挑戰,已經有兩千多年。
比如“把人宰了吃肉,能否被三凈肉/Kosher認證通過”,此問的結論自然是“不能”。不過這種找碴問題,釋迦牟尼本尊和猶太教拉比們先后都做過嚴格的倫理推斷審視,沒有拍腦袋硬答、或扇個耳光叫提問者滾一邊去。
當下把會遇到各種倫理挑戰的AI,直接接入宗教哲學的倫理代碼庫,省心省事。而且按開過會的天主教學者的說法,Anthropic已經意識到自己以前推崇的“有效利他主義”不夠用、“有盲點”,從各大宗教引進倫理代碼的意愿“非常真誠”。
2010年代發端的“有效利他主義”(Effective Altruism,EA)思潮,在現在的美國名聲越來越糟。厚道點說,EA是“正確的部分不獨特,獨特的部分不正確”。
“正確的部分不獨特”,是EA人們愛對外宣揚“計算福祉效用”觀點、自己給非洲窮人發蚊帳治瘧疾的成就。但這些觀點和成就,經典的發展經濟學、制度經濟學、通俗基礎普世公德里都有。
“獨特的部分不正確”,是EA人們在外界普通人不會去看的小論壇和學術期刊上,內部討論簡直令人發指。而且核心觀點屬于庸俗后果主義,是被經典實踐倫理學批判了兩千多年的。
EA人在自家小圈子里放飛自我,能多么奇葩,細說起來又是一篇長文章。揀其中最氣人的部分來說,“為了拯救食草動物,該把捕食性動物全殺掉”、“為了拯救高福祉效用個人,可以硬摘低效用個人的器官給他安上”、“嬰兒如果生下來會降低父母或自己的福祉,可以殺掉,這叫‘生育后墮胎’(after birth abortion)”,這些都是EA人們過去十多年來真聊過的話題。
在2022-2024年,加密貨幣界天才少年、同時是EA紅人的?姆·班克曼-佛?特(SBF)因詐騙被美國司法部門逮捕并判刑。
SBF入獄,對EA的沖擊極大。簡而言之,如果將EA比作當代美國儒教,那Anthropic高管阿曼達·阿斯克爾的前夫威廉·阿斯克爾就是這個運動的孔子、SBF就是這個運動的子貢。
坊間一直有傳聞,說SBF本來無意于加密貨幣,是被威廉·阿斯克爾說服才入行:“錢在常人手里沒用,你把錢都賺來自行分配,才利于人類福祉,是更大的善”。
這說法太有說服力,SBF由此開始在幣圈騙錢的生涯:我為什么要賺錢,直接騙不好嗎。反正幣圈里不是蠢材就是騙棍,韭菜讓別人割,不如我親自割,反正我要用來做更大的善。
事發后,之前和EA淵源頗深的Anthropic,開始主動和這個臭大街的運動切割。阿莫迪姐弟倆多次公開表示自己雖然在創業時拿了SBF投資,但沒有給他公司治理權,“我們跟EA不熟,覺得這是個過時的名詞。”
但再怎么切割,EA總是Anthropic公司史上的不光彩一頁,而且現在還沒抹干凈。
阿曼達·阿斯克爾現在還是Anthropic對齊團隊骨干、“Claude原則”的領銜作者、被一些媒體稱頌的“AI時代文科生正面典型”。大家可能是為了禮貌,有意忘記“為食草動物滅絕食肉動物”的暴論,就來自于阿曼達的個人博客。
這種人教AI向善,不教出毛病已經得謝謝耶穌或阿彌陀佛,遇上事了不頂用。
上個月Anthropic跟五角大樓吵架,自家公司的高管們作為老資格EA人,只能復讀“科技向善”的套話。對Anthropic最有技術含量的倫理支持,來自于麥奎爾神父等美國天主教學者主筆的“法庭之友”文書:
用AI賦能大規模監視與完全自主致命兵器,傷害了人之所以為人的人格主體性。
AI自動大規模監視,將個人的切實生命體驗,從個人要承擔的生活后果中抹除。讓人承擔生活后果的不再是自我的自由意志和抉擇,而是官僚機構的AI參數。
AI驅動完全自主致命兵器,違反了武裝沖突法律體系的基石。自從圣奧古斯丁提出概念以來,“交戰行為正當性”(jus in bello)的核心一直是人類的主體性判斷。
當代戰爭法體系將“交戰行為正當性”細化為比例原則、區分原則、必要性原則,這些原則內置了“必須由個人基于人類通行倫理做出判斷”的前提。將人類完全移出交戰行為的決策鏈路,任何戰斗都毫無正當性可言,在倫理意義上與重度謀殺無異。
AI大潮,再次把一個真相沖上臺面:實踐倫理學上,大宗教是專業的,阿莫迪的手下們只算票友。不要拿自己的玩票愛好,去挑戰梵蒂岡的專業。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.