作者:AzeemAzhar、NitaFarahany、EricTopol等 2026年2月26日
兩周前,我在財經新聞上讀到一篇關于一種叫做“離散事件”的文章。我當時沒完全理解,所以在開車出門前,我讓我的OpenClaw智能體R Mini Arnold給我解釋一下,并幫我找到相關的數據。
等我到的時候,智能體已經調出了三十年的市場數據,并指出了我最近思考中一些我之前沒注意到的矛盾之處。我當場調整了我的投資組合。這個決定是我自己做的,但背后的思考過程……卻變得模糊不清。到底誰說了算——是我還是我的智能體?
我想靜下心來思考這個問題,而且不想獨自一人。于是我組織了一場對話,參與者包括:NitaFarahany,她著有《大腦之戰》(TheBattleforYourBrain)一書,曾就人類思維倫理問題向奧巴馬總統提供咨詢;Eric Topol,他是當今被引用次數最多的醫學研究人員之一,對AI在醫學領域的應用有著前沿的見解;RohitKrishnan,他是一位工程師、經濟學家,曾任對沖基金經理,如今致力于構建人工智能平臺;以及《大西洋月刊》首席執行官NicholasThompson,他主持了這場對話。
以下是文字稿(為了清晰流暢,略作編輯)。
人性的邊界在哪里?AI的邊界又在哪里?
Nick Thompson:Azeem,你今年已經編寫了數千行代理代碼,自圣誕節以來還開發了多個應用程序。但你講述的駕車經歷聽起來像是你掌控著一切——你提出問題,得到答案,做出決策。給我講講那種模糊感真正出現的情況。
Azeem Azhar:這種模糊性比問題本身更微妙。我的智能體——我當時用的是OpenClaw——經常會說:“在本周我們之前的對話中,你提到了X,但這似乎與你現在提出的問題相矛盾。”我之前一直在和它討論AI的瓶頸以及如何加碼AI相關的投資。然后我問到了下行風險。它發現了其中的矛盾:一方面我擔心崩盤,另一方面我又在考慮增加投資。它提醒了我這一點。我們進行了一番對話,它重新構建了我提出的問題。
Nita Farahany:這觸及了一個關于自主行動意味著什么的根本問題。你的行為是符合自身意愿的,還是受他人意愿的驅使?如今,我們所做的很多事情都很少是出于自身意愿。
這學期我在杜克大學教一門關于心理隱私和人工智能法律政策高級議題的課。我對學生們進行了一次注意力測試。他們記錄了三天內拿起電子設備的次數以及注意力都花在了哪些事情上。第一天:記錄下來,不要改變你的行為。第二天:禁止使用任何算法引導你的應用程序——這意味著基本上什么都不允許。第三天:想做什么就做什么,再次記錄。第二天的情況令人矚目。有人讀了一本書。他們想不起來上次讀書是什么時候了。這些可是學生啊!有人完成了一個他們之前一直認為自己沒時間做的拼圖。而第三天呢?比第一天更糟。他們又完全沉迷其中了。
Azeem在掌控嗎?他的行為在某種程度上是他掌控一切的,他指示智能體去調查某個具體問題。但事實上,他會對智能體提供的信息做出反應,不斷地陷入這種通知與響應的循環中,一邊聽從智能體的指示,一邊思考他們的一舉一動,這三者之間存在著深刻的關聯。Azeem和他的工具之間的界限已經模糊不清。它們已經成為他的一部分。
Nick:而且它極易被黑客攻擊。他就是基于這個來控制他的投資組合。如果我是個精明的對沖基金經理,我會想辦法入侵OpenClaw,把他的投資引導到我的基金里。
Nita:Azeem把這個問題交給AI工具處理,這本身就是一個更根本的問題。這比有人故意操縱他的投資組合更微妙、更普遍、更具普適性。
Rohit Krishnan令我驚訝的是,盡管這些工具并不安全,但負面事件的數量卻出奇地少。造成傷害的能力與造福人類的能力都在增強,然而,不良事件卻仍然很少發生。從對沖基金的角度來看:你會把資源投入到哪里?攻擊OpenClaw比把同樣的精力投入到其他方面更能帶來收益嗎?答案似乎總是否定的。所以我的OpenClaw會與我的郵箱通信,偶爾也會回復郵件。盡管我知道存在注入攻擊,但我對這種安全隱患還算可以接受。
為什么給醫生配備AI后,他們的水平反而會下降?
Nick:Eric,Rohit的理論框架——即實際危害小于感知到的危險——在醫學領域是否成立?
Eric Topol:我認為我們目前還不得而知。現在有好幾項研究比較了單獨使用AI和AI與醫生結合使用在各種臨床表現上的表現。結果顯示,AI的表現優于醫生與AI結合。這出乎意料。我們原本以為一切都應該是混合模式。表現不佳的醫生更容易接受AI的建議,而專家則會拒絕AI的合理建議。如果再加上智能輔助,情況可能更是如此。我們仍然不清楚原因。是因為醫生存在自動化偏見嗎?還是因為他們缺乏使用AI的經驗?目前情況還很模糊。醫療領域不像其他許多領域那樣快速采用AI,因為臨床決策更加復雜和微妙。
Nick:這和我之前聽你說過的話相悖,Azeem——你說人類如果能很好地運用AI,應該比AI本身強大得多。
Azeem:Eric描述的現象我們在知識型工作領域都觀察到過。能力低于平均水平的人在使用AI后會有所進步。而能力頂尖的人反而會退步,因為他們會忽略AI的建議。但我很好奇,數據中是否隱藏著一條U型曲線。低于平均水平的人:能力會提升。頂尖的四分之一的人:會過度思考。真正杰出的人:會完全掌控機器。看看Andrej Karpathy,一位杰出的深度學習工程師,他的軟件開發能力遠超我們所有人。他把大量的工作交給了AI系統。他是這方面的專家,但他的反饋是:他完成了更多的工作,并且把極限推向了更高的層次。
Nita:讓我暫時扮演一下哲學家的角色。我們究竟想衡量什么?在Eric的領域,這一點比較明確:診斷是否正確?病人是否病情好轉?但在其他領域,我們無法進行公平的比較。以教育為例。如果衡量文章的質量是提高還是下降,AI確實能提升文章質量。但如果衡量學習成果,結果就截然相反了。人反而變得更糟,而文章質量卻提高了。那么,人類究竟是因為AI生成的更精良的文章而受益,還是因為寫文章的人沒有從中學習而變得更糟呢?
Nick:所以解決方案是讓AI做出影響極其重大的決定——比如手術——但讓人類參與到發展性工作中,比如寫論文?
Nita:要從長遠角度來思考這個問題。今天,我們是否應該在生死攸關的決策中使用AI?答案是肯定的。但實際應用起來卻并非如此:現在,醫生們不再憑直覺判斷是否需要手術。他們無法解讀代碼,因為他們看不懂——他們只是盲目地嘗試AI的各種輸出,而不是進行批判性的評估。隨著時間的推移,我們的情況會是更好還是更糟?我擔心,從長遠來看,我們的處境會比短期內糟糕得多。
Nick:所以你的意思是,在某些特定情況下,AI的手術成功率會更高,我們也知道這一點,但有些病人會因為人類手術失誤而死亡——但你仍然更喜歡那種世界,因為至少人類還能保持勝任能力?
Nita:Nick,那是人為構建的概念。真正的問題在于,我們應該投資什么,才能讓人們長期保持我所說的“能力要素”。我們如何才能做到兩全其美?既要利用AI來做出當下至關重要的決策,又要構建相應的系統,使人類在未來能夠繼續應對這些決策。這才是沒人問的問題。
Rohit:或許需要考慮的一點是,這些醫生是否擅長與AI合作。過去三四年里,我做出的每一個重要決定都是借助AI做出的。有時我同意,有時我不同意。但隨著時間的推移,你會逐漸形成一種感覺,判斷它何時準確,何時不準確。這些研究并非像《危險邊緣》那樣,由專家給出一個答案,AI給出另一個答案,然后由你選擇其中一個。現實世界中存在時間限制、制衡機制,以及多人參與的決策過程。這些背景信息在論文中是無法體現的。
Nick:Eric,所以也許問題不在于根本原因——只是目前醫生們還不了解如何使用AI。一旦我們學會了,一切就都好了?
Eric:Nick,我們希望如此。醫學界最傾向于這種解釋。
我們絕不應該將哪個領域交給AI?
Eric:我們剛剛證實的另一個醫學問題是技能退化。現在有一項針對腸胃科醫生的研究,他們讓AI來尋找息肉。隨著時間的推移,當關掉AI后,他們自己發現息肉的能力就下降了。此外,還有一些年輕醫生,他們一開始就缺乏相關技能。人們期待的混合模式——人機結合,優于任何單一模式——最終會勝出嗎?我們無法確定。
Azeem:技能退化是真實存在的。Nita和Eric指出的正是教育中的一個缺口。在現階段,我們需要自己摸索出一套維持技能的教學方法。我經常用這支鋼筆寫作,關掉電腦。昨天我和一位同事進行了一次研討,我們幾個小時都靜靜地在紙上討論一個問題,沒有手機,沒有電腦。我們團隊經常這樣做。也許這樣做不對。但這是我們對抗去技能化的一種姿態——這種松散的氛圍會讓你越來越遠離自己的心智能力。
![]()
Azeem的鋼筆,適合遠離AI和電子設備的安靜工作。
Nick:但你這樣做難道不是適得其反嗎?你一直在寫如何讓AI為你寫作,試圖讓它成為更優秀的文風編輯。而寫作本身就是一種思考,如果你降低了寫作能力,你的思考能力也就退化了。
Nita:我要反駁這種說法。“寫作就是思考”這種說法我聽過太多遍了,我覺得純屬胡扯。我寫作的時候,其實會先做個演講。我覺得公開演講比寫作更能激發我的思考。我思考的是,在主題演講中,我該如何講述這個故事?等我講過幾次,和聽眾互動過幾次之后,我才能把它提煉成文字。我的思考主要不是通過寫作實現的。問題在于,如果我們不認識到每個人的創造力運作方式都不同——對Azeem來說可能是鋼筆,對其他人來說可能是口頭表達,或者繪畫——我們最終會制定出一些一刀切的規則,反而忽略了重點。一旦你找到了自己創造力的核心所在,你就要保護它,不讓它被他人利用。
Nick:所以你的建議是:找出你最擅長思考的地方,然后千萬別讓AI靠近那里。
Nita:沒錯。要保留讓你能夠靈活應對各種新情況的核心能力。不要把所有創造性思維都外包出去。我發的郵件?很可能是AI寫的。講座總結?通常也是AI寫的。但主題演講或者新穎的想法,那才是我思考的源泉。我會先用口頭形式表達出來,然后再提煉成文字。也許我會讓AI做我的文字編輯。但思考本身會一直留在我腦海里。
Rohit:我的看法是,我擁有了更多可支配的能力,自然而然地,我會把時間花在真正想做的事情上。這是內生的,我最終會減少在不太關心的事情上的時間,而把更多時間花在更關心的事情上。而且這種變化是持續的。我今天堅持的事情與一年前或十年前不同,因為我們會隨著時間而改變。一部分可能是某種特定類型的寫作,一部分可能是某種特定類型的研究或公開演講——每個人的情況都不一樣。所以我不再糾結于“我應該對AI保留什么?”,而是更多地思考:既然有了這個智能體,我們可以一起做什么?如果我確信它有效,我就會把更多工作交給它。這和擁有一個非常優秀的私人助理的運作方式是一樣的——一旦你了解了他們的優勢,你就會說“你負責這個,我負責那個”。
Azeem:我有更多的時間投入到Nita所說的“生成性構成能力”領域。我花更多的時間寫作,也花更多的時間閱讀。我寫很多文章都是先手寫,然后朗讀出來,再轉錄。這讓我想起Eric幾年前跟我介紹過的一個觀點:這些工具可以幫助醫生騰出時間,讓他們成為更好的醫生。到了2026年,我比四年前投入了更多精力進行深入思考,那時我還在疲于應付收件箱和谷歌搜索。
Nick:Azeem,你好像一天中的一部分時間生活在2100年,一部分時間生活在1450年。聽起來真美妙。
Eric:我同意,這完全是個人選擇。如果我自己寫論文或博客,我覺得用AI代寫就是一種作弊。如果不是我自己的作品,就不應該分享給其他人。也許有一天我會和Azeem一起進入2100年。但情況正在改變,它是動態的。你會把越來越多讓生活更自動化、更實用的事情外包出去。在醫學中,奪回時間可能是最大的目標,因為醫生的時間被擠壓得太厲害了。如果你能擺脫數據文員的職能,擺脫那些瑣碎的任務,你就能成為一個更好的醫生。醫患關系也能得到修復。
Azeem:不過,我遇到的難題是,我仍然在高速運轉。而真正偉大的思考源于專注、觀察和反復推敲。我們很多例子都有時間限制——現在就要看病人,周五之前必須完成代碼。但真正偉大的思考歷來都離不開細致的思考和自我反思。如果我有十天不受干擾的時間,我能進行更高質量的思考嗎?
Nita:其實也可以用AI來做到這一點。我偶然看到一篇博客文章,里面介紹了一種叫做“土豆提示”的方法。我把它應用到了Claude身上。這個想法是,每當我輸入“土豆”這個詞,后面跟著一個論點時,AI就會告訴我三個論點可能失敗的地方、兩個反駁論點,以及我忽略的一個盲點。而且它必須是尖銳的,不帶任何客套。
頭幾次,我真想找個地洞鉆進去哭一場。這感覺太糟糕了。但它也讓我的思維變得更加敏銳。每次我拋出一個論點,心想“Nita,你這見解真絕妙”,這個“土豆”提示就會立刻審視它。我仍然會和朋友們交流想法。但這種即時、實時的、充滿敵意的反饋,讓AI能夠挑戰你,而不是讓你把事情推卸給你。
學校的作用是什么?
Rohit:總的來說,我不認為教育能讓我們擺脫困境。教育體系的設立初衷是為了完成一些相當具體的事情。最擅長學習這些工具的孩子,是那些只是去玩它們的人。互聯網是這樣,移動設備是這樣,編程也是這樣。
AI加劇了這個問題,因為它太容易使用了。我八歲的兒子偶然發現Canva有AI功能——我之前都不知道。他一直在用它制作關于恐龍的小網站。沒人教過他。那只是個文本框;他會打字。我們需要更多奇思妙想和玩耍,而不是結構化的課程。
Nita:我們的教育體系過于注重產出,而忽略了核心能力。德國有一所學校試行了正念和呼吸練習項目。美國也有一項名為“學習呼吸”的全國性項目。這些項目旨在培養孩子的內感受能力:身體感知、扎根感和直覺發展。研究表明,這些項目對數學成績有直接影響,因為學會感知自己的身體能夠發展認知能力,而認知能力是思考的基礎。工具是之后才有的。教育應該培養的是思考的能力。
Azeem:我要做那個堅定的樂觀主義者。我們在過去三四十年里,從未持續地嘗試過這一點。在專業服務領域,我們最終培養出一些律師,他們的客戶溝通能力糟糕透頂;也出現了一些醫生,他們的待人接物態度時而熱情,時而令人恐懼——所有這些都是因為我們忽視了這些技能。或許現在我們不得不重視起來了。這與其說是一個棘手的問題,不如說是一個機遇。
Eric:我們培養醫學生的方式絕對是錯誤的。他們被選拔的標準是考試成績——而AI在這方面已經做得更好了——以及平均績點,而不是人際溝通能力。美國160所醫學院中,沒有一所將AI納入核心課程。它幾乎就像不存在一樣。無論是選拔方式還是教育方式,我們甚至都沒有意識到,這正在改變醫學。
Azeem:那么,我們在鑒別診斷中追求高可靠性的程度究竟有多高呢?鑒別診斷實際上是一種機械的、算法式的過程。機器在這方面比人做得更好。過去我們需要人類來完成這項工作,是因為相關的知識匱乏,難以從人類的認知中獲取。或許現在這項工作可以外包了,我們可以著手發展另一部分——即對患者預后的影響:構成性意識,即對“人”的具身理解。
Eric:沒錯。診斷準確率將是AI在醫學領域最偉大的貢獻之一。我們已經有了很好的跡象表明這一點。現在的問題是如何正確地部署它。
如何區分真正的思考和聽起來像在思考的AI?
Nick:我們都持謹慎樂觀的態度。但AI即將變得更加強大。你認為什么發展趨勢會決定我們明年的發展方向是更好還是更糟?
Nita:我注意到Eric說過的一點——他覺得如果把AI寫出來的東西發布出去,就像是在作弊。這就是我一直在關注的轉折點。我們一直在討論自我:構建自我,維護自我。但我們身處一個信息生態系統,一個我們所有人都在汲取的人類知識庫。信息越是合成,人類的切身感受就越少。人們正在追蹤互聯網上有多少內容是由AI生成的。我們不知道這會對兒童的認知發展,對我們集體的思考能力造成什么影響。
Azeem:在原子武器時代,曾有那么一個時刻,我們可以精確地測量出它的起源——通過大氣數據,一種之前不存在的放射性同位素突然出現。我認為,AI生成的文本正接近這個時刻。如果你瀏覽某個網站,你會看到很多文章,它們是由一些非常忙碌、并非專業作家的人以極快的速度生成的。我讀這些文章是因為其中確實包含一些見解、數據和論證。但我很好奇,在我們不斷接觸這些內容的過程中,那些在我們看來美好的事物是否會開始發生變化,而我們卻渾然不覺。
Nick:如果AI寫出來的東西比人類寫出來的東西還好呢?如果2028年X平臺上的平均寫作質量比2023年更高呢?
Rohit:平均質量確實提高了,但人們對它的反感也更強了。我用的是Pangram(一款檢測AI生成文本的工具)——到處都是。不只是X,記者、已發表的文章里也充斥著它。“垃圾”這個詞用得恰到好處,因為它看起來像是一頓豐盛的大餐,但實際上卻毫無營養,空洞無物。這就是AI的拙劣之處。它擅長的領域——比如構建 Azeem 每天用的應用,或者我用的那些——才是真正的能力。如果我讓AI幫我寫一篇文章,然后我又得重寫,那反而會增加工作量,而不是減少。
Azeem:AI內容也告訴我們,文字生產的機械化程度已經很高了。某些研究報告、學術論文、營銷文案,本質上都是由人類執行的算法,就像早期NASA的女性計算機執行我們現在交給機器的計算一樣。真正的寫作發生在別處,而且極其困難。
我努力構建AI風格指南,是希望它能幫助人們學習我的寫作方式。它無法完全復制我的寫作,除了一些細微之處:我偏愛日耳曼語詞根而非拉丁語詞根,我寫的句子91%都是主動句,段落內句子長度也會有所變化。這些只是表面現象。真正缺失的是源于切身經歷和鮮活生活體驗的部分。我想,我們面臨的挑戰在于,隨著這些工具的普及——我們獲得的許多體驗,無論是Netflix、TikTok還是商店里的商品,都離不開它們——我的體驗將會變得更加模糊,因此也更容易與外部AI系統生成的文本相吻合,而不是像我曾經那樣,以更真實的方式去體驗事物。
Nita:我一直在研究意義建構方面的研究。這種影響更多地體現在貢獻者身上,而非接收者身上。你對人類知識體系的貢獻,是自我成長的一部分。大腦需要這種成長過程。當AI取代它時,你不會體驗到同樣的效果。我生命中最具影響力的書之一是《獻給阿爾吉儂的花束》。我二年級就讀了這本書——太早了,我全程都在哭。Daniel Keyes花了十四年時間才寫完。這本書始于他還是醫學生的時候;后來他遇到了一位智力有障礙的人。所有這些感受都融入了書中。這與Azeem用AI花了九十分鐘提煉他的世界觀有什么不同嗎?也許有。我們不得而知。但我們必須承認,十四年的寫作與AI輔助的九十分鐘提煉,在本質上是不同的。
如果你與AI進行迭代式合作,將你的聲音和生活經驗融入其中——并將其作為傳遞這些內容的媒介——這與那些完全不把自己代入其中的LinkedIn帖子截然不同。這其中存在著本質區別。
Azeem:確實存在差異。今天我做了一個項目。我們在EV公司寫了數百萬字。我想提取出我們的核心觀點——我對某些事情的看法是什么,以及這些看法是如何轉變的?我讓AI分析了所有這些文字,構建了一個概念圖:我曾經持有的十幾個觀點,以及它們隨時間推移的變化。我親自審閱了它,然后與團隊分享。原本需要1000小時的人類工作,我只用了90分鐘。我只做了不到0.2%的工作量。但我仍然覺得我貢獻了一些有用、實用且極具個人特色的東西。
Rohit:每當AI足夠強大時,我們就會把它視為一種工具——因為它變得可靠。而當它走向極端時,我們又會認為它會摧毀某些固有的人性。我們在各個領域都經歷過這種情況:放射學、金融、供應鏈等等。藝術領域的情況有所不同,因為它是一種獨特的人類活動。但每當AI強大到足以完成我們自己想做的工作時,我們通常都樂于把它交給別人,然后去創作更多像《獻給阿爾吉儂的花束》這樣的作品。
Eric:這有點像魁北克和加拿大其他地區的情況。你必須有意識地保護自己的語言,否則它就會被淘汰。如果我們沒有有意識地將AI作為一種工具來使用(我認為這才是它應有的定位),我們就會失去人類文化中至關重要的一部分。
Azeem:是刻意的意圖,就是這樣。是關于我們自身能力的刻意意圖。是刻意地認為這些東西只是工具,無論我們如何審視它們,無論我們如何擬人化它們,它們始終是工具,而且應該保持工具的本質。
本文編譯自substack,原文作者AzeemAzhar、NitaFarahany、EricTopol等
https://www.exponentialview.co/p/where-the-human-ends-and-ai-begins
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.