337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

“AI教父”辛頓最新發言:數據量是人類的數千倍,AI更擅長學習

0
分享至


3月2日消息,剛剛,StarTalk播客節目與大名鼎鼎的“AI教父”、圖靈獎得主、諾貝爾獎物理學獎得主杰弗里·辛頓(Geoffrey Hinton)進行了一次交流,我覺得蠻值得一看的。

在節目中,辛頓圍繞AI 的技術本質、應用價值、潛在風險及治理方向發表了系統性觀點,接近1個半小時。

辛頓認為,AI與物理學關系密切。AI 迭代約 7 個月性能翻倍,知識傳遞效率是人類的數十億倍,已在語言、推理、跨域整合等領域接近人類水平;未來十年將在數學等閉環系統中全面超越人類,通過 “推理自生成數據” 突破公開數據耗盡的瓶頸,甚至提出全新猜想。

辛頓指出,人類大腦大約有100萬億個突觸連接,但壽命只有大約20億秒(注:實際人類壽命約30億秒,此處為數量級對比)——連接數量遠多于經歷。而神經網絡的連接數量只有大約1萬億個(即使是大型語言模型,也只有人類大腦連接數的1%),但它們的“經歷”(數據量)是人類的數千倍。這說明,AI比人類更擅長學習。

辛頓強調,AI應用積極且廣泛,在醫療保健領域,AI會帶來巨大變革。“沒有什么能阻止——只要它們能訪問計算機,就能無限復制自己。目前人類還掌控著計算機,但原則上一旦它們控制了數據中心,就能隨心所欲地復制。”


以下是辛頓對話交流全文(不改變原意下做了一定修正):

主持人:這里是《Star Talk》特別版,我是天體物理學家尼爾·德格拉斯·泰森。既然是特別版,自然少不了加里·奧萊利(Gary O'Reilly)。加里,前職業足球運動員,能邀請到你總是很開心,每次都倍感榮幸。加里,你和團隊今天選了一個永恒的話題啊。沒錯,這是一個我們常聽說、自以為了解,但其實還有很多未知的領域。今天我們要深入探討人工智能——幾年前當人們被問及AI如何工作時,都會隨口說出“它利用雙網絡深度學習”這類流行語,只會擺弄術語,卻根本不理解其內涵。今天我們就來拆解AI的工作原理,還會邀請AI領域的奠基人之一,和我們聊聊AI的發展前景。話不多說,讓我們有請嘉賓。

主持人:歡迎杰弗里·辛頓(Geoffrey Hinton)教授來到節目。杰弗里,歡迎加入我們。

杰弗里·辛頓:謝謝你們的邀請。

主持人:你既是認知心理學家,又是計算機科學家,這種跨界組合實在難得。你還是多倫多大學計算機科學系的名譽教授,被譽為“人工智能之父”。說到當下人工智能的起源,大型語言模型的橫空出世讓所有人都始料未及——有人為之瘋狂慶祝,有人則憂心忡忡。這一切就發生在幾年前。我很好奇,是什么讓你多年前就踏上了這條道路?我查到你的相關研究最早能追溯到20世紀90年代。

AI的起源與研究初心

辛頓:不,其實要追溯到20世紀50年代。當時人工智能的創始人對于如何打造智能系統有兩種觀點:一種受邏輯啟發,認為智能的本質是推理——就像數學運算一樣,通過前提和規則推導結論;另一種則是生物學范式,認為我們應該先弄清楚大腦的工作原理——大腦擅長感知和類比推理,卻不擅長邏輯推理(人要到青少年時期才具備邏輯推理能力),所以應該研究大腦如何通過大規模腦細胞網絡實現感知、記憶等功能。

辛頓:當時只有少數人認同后一種觀點,包括約翰·馮·諾伊曼和圖靈。遺憾的是,他們都英年早逝,圖靈的離世或許還與英國情報部門有關。

主持人:圖靈也是電影《模仿游戲》的原型,沒看過的觀眾一定要去看看。話說回到20世紀50年代,你那時候還很年輕吧?

辛頓:是啊,當時我還不到10歲。

主持人:那你對這個領域的好奇心是如何產生的?

辛頓:有幾件事起到了關鍵作用。20世紀60年代初或中期我上高中時,有個非常聰明的數學家朋友。有一天他來學校跟我說,記憶可能不是存儲在單個腦細胞中,而是分布在多個腦細胞里——這個想法受到了當時剛出現的全息圖的啟發(當時伽博爾正在積極研究全息技術)。正是分布式記憶的概念讓我產生了濃厚興趣,從那以后,我就一直好奇大腦是如何存儲記憶、如何工作的。

主持人:這是你身上計算機科學家的特質,還是認知心理學家的特質在起作用?

辛頓:其實兩者都有。但到了20世紀70年代我讀研究生時,一種新方法逐漸顯現:如果有任何關于大腦工作原理的理論,都可以在數字計算機上進行模擬(除非是聲稱涉及量子效應的極端理論,我們暫不討論)。

主持人:說得對,對吧?不過我們現在還不會去質疑彭羅斯的理論,好嗎?

辛頓:在計算機上模擬理論就能驗證其可行性。結果發現,當時大多數理論在模擬時都無法奏效。所以我畢生都在試圖弄清楚:如何改變神經元之間的連接強度,才能讓系統以在計算機上可模擬的方式學習復雜事物。雖然我至今仍未完全理解大腦的工作機制——我們知道大腦會根據任務需求調整連接強度,但不清楚它如何獲取調整所需的信息——但我們已經掌握了在數字計算機中實現這一過程的方法。

主持人:這么說,在這個特定功能上,計算機的“大腦”已經比我們人類的大腦更出色了?

辛頓:這正是2020年初讓我真正感到擔憂的地方——數字智能可能比我們擁有的模擬智能(人類智能)更具優勢。

主持人:先別聊這么嚇人的話題,讓我緩口氣。

辛頓:你以為這只是一個令人擔憂的點嗎?不,遠遠不止。

主持人:我們一個一個來,好嗎?關于人工神經網絡,你能從最基礎的層面給我們拆解一下嗎?比如它如何加強或減弱信息傳遞、如何觸發反應,以及如何發展到如今的水平。

辛頓:我確實有一門18小時的相關課程,但我會盡量精簡說明。

主持人:好的。

辛頓:我想在座很多觀眾都懂一些物理學,或許可以從氣體定律入手理解:壓縮氣體時溫度會升高,這背后是無數原子在劇烈運動。氣體定律的本質,就是通過大量與宏觀行為完全不同的微觀粒子的相互作用來解釋宏觀現象——這正是神經網絡觀點的靈感來源:腦細胞網絡中發生的過程,與我們推理時那種有意識、刻意的符號處理相去甚遠,但這些過程是推理的基礎,而且在感知、類比推理等方面可能比邏輯推理更具優勢。符號主義學派始終無法令人滿意地解釋“如何通過類比推理”,而神經網絡卻能做到。

人工神經網絡的工作原理

辛頓:在深入細節之前,核心觀點是:單詞等宏觀事物對應大腦中神經活動的大型模式,相似的單詞對應相似的神經活動模式。比如“周二”和“周三”的神經活動模式非常接近,每個神經元都可以看作一個“微特征”——當神經元被激活時,就意味著檢測到了對應的微特征。比如我說“貓”,與之相關的微特征(動物、毛茸茸、有胡須、可能是寵物、捕食者等)都會被激活;我說“狗”時,許多相同的微特征(捕食者、可能是寵物)也會激活,但也會有一些不同的特征。這些我們操控的符號背后,是更復雜的微觀過程,這才是所有認知活動的核心。要解釋思考或類比推理的本質,就必須理解這個微觀層面——也就是神經網絡層面。

主持人:所以這是神經元集群之間的協作,最終達成一個結果?我喜歡“協作”這個詞。

辛頓:沒錯,確實存在大量這樣的協作。理解神經網絡最容易的方式,是從一個看似簡單的任務入手:比如判斷一張黑白灰度圖像中是否有鳥,或者說圖像的主體是否是鳥。人們花了半個多世紀試圖編寫這樣的程序,但都沒有真正成功。因為鳥在圖像中的形態千差萬別——可能是近在眼前的鴕鳥,也可能是遠處的海鷗;可能是烏鴉(黑色),也可能是白鴿(白色);可能很小,可能在飛,可能只露出一部分,還可能被森林等復雜背景遮擋。所以判斷圖像中是否有鳥絕非易事。接下來我會先解釋如何手動構建一個神經網絡來完成這個任務,再說明如何讓它自動學習連接強度,而非手動設置。

主持人:我明白了,你說的是給圖像的每個部分都分配一個數學值。

辛頓:這正是相機的工作原理。

主持人:沒錯!相機確實是這么做的,但它無法識別圖像。我的相機就是這樣。

辛頓:對,它只是記錄了一堆數字。

主持人:相機里的電荷耦合器件(CCD)收集光線,分配數值,然后就形成了照片。但按你這么說,難道要給每種鳥都分配一個數值嗎?因為人類識別鳥有時靠的是直覺,而非精確辨認。比如把字母“V”的直線彎曲后放在云朵里,所有人都會說那是鳥——但對我來說,那只是彎曲的“V”,實際上里面根本沒有鳥,可我就是知道那代表鳥。這并不是一個數學值能解釋的,這該怎么解決?

辛頓:問題的核心是:你怎么“知道”那是鳥?你的大腦中發生了什么?答案是,你大腦中不同神經元的激活水平組合在一起,而這些激活水平本質上就可以看作數學值。

主持人:我懂了。那這是否意味著,必須用照片中鳥的所有可能形態來訓練神經網絡,才能讓它在沒有真實鳥的情況下,也能憑直覺判斷出那是鳥?但這樣一來,它根本不是在“直覺判斷”,只是在查對照表而已,對吧?

辛頓:這里涉及一個概念叫“泛化”。如果給系統大量數據,確實可以打造一個只記住所有數據的系統,但神經網絡能做的遠不止這些——它根本不會逐字逐句記住數據,而是在學習過程中發現各種規律,并將這些規律推廣到新數據中。比如它能識別出獨角獸,即使它從未見過真正的獨角獸。

主持人:有意思,所以它是自我導向的?

辛頓:我們繼續回到神經網絡的工作原理。我先說說如何手動設計一個神經網絡。當你發現圖像只是一個由像素亮度組成的數字數組時,第一反應可能是把這些像素強度直接與輸出類別(比如鳥、貓、狗、政治家等)關聯,但這是行不通的——單個像素的亮度無法判斷是否是鳥,因為鳥可以是黑的也可以是白的,其他事物也同樣如此。

辛頓:那從圖像的數字中能提取什么有用信息呢?首先能提取的,也是大腦會做的,就是識別邊緣。比如我取3個像素組成的小列,給這個神經元分配很大的正權重——當這些像素明亮時,神經元就會被高度激活,這就能識別出垂直的白色條紋。如果在它旁邊再放一列3個像素,給這個神經元分配很大的負權重,那么神經元就像在從像素中“收集選票”:左側3個像素的亮度乘以正權重得到正面選票,右側3個像素的亮度乘以負權重得到負面選票。如果左右兩列像素亮度相同,正負選票相互抵消,神經元輸入為0,保持安靜;如果左側像素亮、右側暗,正面選票遠大于負面選票,神經元就會被激活,相當于在說“我找到了我要的東西”——也就是左側比右側亮的邊緣。

辛頓:粗略來說(很多神經科學家可能會反對這種簡化說法),大腦在視覺皮層的早期階段(也就是識別物體的區域),有大量神經元負責檢測不同方向、位置和尺度的邊緣——數千個位置、數十個方向、多個尺度,每個組合都需要對應的邊緣檢測器。比如云朵有寬大模糊的邊緣,而遠處角落里消失的老鼠尾巴有精細銳利的邊緣,這就需要不同的神經元來檢測。這就是神經網絡的第一階段:所有這些邊緣檢測器。

主持人:你描述的這一切,就像在拼一幅巨大的拼圖——先找出所有邊緣碎片,再從邊緣向中心拼接,不僅要找拼圖的物理邊緣,還要找圖像中的各種邊緣和線條,讓它們相互匹配,顏色也是其中一個維度。

辛頓:現在可以暫時不考慮顏色,先理解核心邏輯。

主持人:有時候,一項技術的創造者反而會成為最擔憂其發展方向的人。杰弗里·辛頓作為神經網絡先驅、2024年諾貝爾物理學獎得主,花了數十年時間解釋人工智能的工作原理,現在卻在提醒我們要密切關注其發展——這正是挑戰所在。當一個話題變得如此重要時,媒體的報道方式與技術本身同等關鍵。如今關于AI的討論兩極分化:一些媒體將其描述為不可阻擋的威脅,另一些則將其視為炒作,完全無視警告。不同媒體的報道可能讓你陷入認知分歧,錯過重要背景——這就是我們多年來一直信任《Ground News》的原因。它由前美國國家航空航天局(NASA)工程師打造,能幫助我們更好地理解這類復雜且高風險的話題。

主持人:《Ground News》匯集了全球數萬個信息來源,從學術期刊到國際新聞編輯部,你可以輕松對比不同來源的報道差異,避免單一視角的局限。它還能指出“信息盲點”——那些被部分媒體大肆渲染,卻被另一部分媒體忽視的重要議題。當你全面對比各類報道后就會發現,基礎科學的變革很容易因視角不同而被扭曲或淡化。如果你只看到故事的一個版本,可能會錯過關鍵信息。現在通過官網Ground.news/startalk或掃描二維碼訂閱,就能享受40%的折扣,在信息被簡化前看到完整真相。

神經網絡的層級與學習機制

辛頓:這就是第一層神經元的作用——檢測像素中的邊緣。到了第二層神經元,我會設計一個能檢測三組連續邊緣的神經元:比如三組邊緣向右輕微傾斜,或者三組邊緣向右輕微上翹,且這兩組邊緣在某一點交匯。你可以想象一下,這可能是在檢測鳥的喙——當然它也可能是箭頭或其他東西,但至少與“是否是鳥”有了關聯。

辛頓:在第二層中,我還會設置檢測近似圓形邊緣組合的神經元——這可能是鳥的眼睛(也可能是紐扣、電腦旋鈕等)。到了第三層,我會設計能檢測“鳥眼和鳥喙處于正確空間位置”的神經元,也就是檢測鳥的頭部。最后一層神經元對應具體類別(貓、狗、鳥、政治家等),我會將“鳥”對應的神經元與檢測鳥頭、鳥腳、鳥翅膀尖端的神經元連接起來。當這些輸入足夠多時,“鳥”對應的神經元就會被激活,神經網絡就會判斷“這是鳥”。

辛頓:但手動設計這樣的神經網絡存在巨大問題:需要海量的檢測器,覆蓋所有位置、方向和尺度;還要決定提取哪些特征,而且這些特征不僅要適用于識別鳥,還要適用于識別各種事物。更重要的是,如果一個神經網絡需要10億個連接,手動設置這些連接強度會耗費大量時間,這顯然不現實。

主持人:這正是研究生的用處啊,教授。

辛頓:但這需要大約1000萬個研究生。

主持人:好吧,這確實是個問題。

辛頓:有一個最初看起來很愚蠢的想法,但卻是解決問題的關鍵:從隨機連接強度開始——有些是正數,有些是負數。此時神經網絡隱藏層的特征都是隨機的,輸入鳥的圖像后,輸出層中“鳥”“貓”“狗”等神經元的激活程度幾乎相同,毫無用處。但我們可以提出一個問題:如果我知道這是鳥的圖像,希望下次輸入時“鳥”神經元的激活程度更高,其他神經元更低,那么該如何調整某個連接強度?

辛頓:如果不懂理論和數學,可能會做實驗:稍微增加連接強度,看看是否能讓“鳥”的識別更準確,如果有效就保留這個改變。但這樣一來,每個連接強度都需要多次調整,耗時極長。有沒有更高效的方法?答案是“計算”——在計算機上,所有連接強度都是已知的,輸入圖像后的整個激活過程都是確定的:像素強度乘以第一層連接權重,第一層神經元的活動再乘以第二層連接權重,最終得到輸出神經元的激活水平。

辛頓:我們可以用微積分來解決這個問題:能否同時計算所有連接強度,判斷每個強度該增加還是減少,才能讓“鳥”神經元更確信這是鳥?這就需要通過網絡反向傳遞信息,相當于在問“如何讓它下次更可能判斷出這是鳥”。用物理學的直覺來解釋:給“鳥”輸出神經元連接一根“彈性繩”,一端固定在目標激活水平(比如1,假設1是最大激活水平,0是最小),而當前激活水平可能只有0.01。這根彈性繩會試圖將激活水平拉向1,但激活水平由像素和所有連接權重決定,無法直接移動。

辛頓:改變激活水平的方法有兩種:一是調整進入“鳥”神經元的權重(比如給高度激活的神經元更大權重),二是改變前一層神經元的激活水平(比如讓檢測鳥頭的神經元更確信這是鳥頭)。我們要做的,就是將彈性繩施加給輸出神經元的“力”反向傳遞給前一層神經元,讓它們也受到相應的“拉力”——這就是“反向傳播”。這種方法效果非常好。

主持人:所以這就是神經網絡不再需要人類教師的“頓悟時刻”?這是一個開端嗎?

辛頓:不完全是,但確實是一個關鍵突破。多年來,神經網絡的支持者只知道如何改變最后一層的連接權重(也就是從最后一層特征到輸出類別的權重),但不知道如何讓隱藏神經元(比如檢測鳥頭的神經元)受到“力”的作用。反向傳播解決了這個問題,讓我們可以調整隱藏神經元的輸入權重——這是一個“尤里卡時刻”,很多人在不同時期都獨立想到了這個方法。

主持人:這發生在什么時間段?我們什么時候開始形成反向傳播的思路?

辛頓:20世紀70年代初,芬蘭有人在碩士論文中提到了類似想法;70年代末,哈佛大學的保羅·沃珀(Paul Werbos)也提出了這一概念。事實上,控制理論家布賴森(Bryson)和霍(Ho)更早將類似思路用于航天器控制——比如航天器登月時,就用類似反向傳播的方法來確定如何點火。

主持人:這么說,70年代我們就有了相關理論,只是缺乏足夠的算力來實現?除了算力,還有其他關鍵技術突破嗎?

辛頓:算力確實是重要原因之一。另外,70年代的人們沒有意識到,將反向傳播應用于多層網絡后,能得到非常有趣的表征。我們并不是第一個想到反向傳播的,但我所在的圣地亞哥團隊是第一個證明用這種方法可以學習單詞含義的——通過預測下一個單詞,給單詞分配能捕捉其含義的特征,這一成果后來發表在了《自然》雜志上。

主持人:聽你這么說,這些數值之間似乎存在一種級聯關系,真正重要的是那些最接近下一個數值的數值,然后通過級聯強化來判斷“是”或“否”。我這么理解對嗎?我只是想用最簡單的方式弄明白。

辛頓:這個問題問得好,但理解得不太準確。這種通過反向傳播“力”來改變所有連接強度的學習方式,屬于監督學習,而非強化學習。監督學習中,我們會告訴系統正確答案(比如給它看鳥的圖像,告訴它這是鳥);而強化學習中,系統做出決策后,我們只會告知它答案是否正確。

主持人:明白了,這正是我之前困惑的地方。關于算力,你聽起來有完整的理論,但實際操作中缺乏足夠的算力支持?除了算力,還有其他關鍵技術嗎?

辛頓:20世紀80年代中期,反向傳播算法已經能發揮一些作用——比如識別手寫數字的效果幾乎超越其他技術,在語音識別上也表現不錯,但并沒有顯著領先。當時我們不明白為什么它沒有成為“萬能解決方案”,后來才發現:只要有足夠的數據和算力,它就能解決幾乎所有問題。而這正是80年代所欠缺的。

AI的思考能力與學習優勢

主持人:我想插一句,有點像評論也有點像問題。我覺得這個星球上大多數人都很普通,那么“智能”到底是什么?“思考”又是什么?這些機器,我們能教會它們思考嗎?它們會超越我們的智力嗎?

辛頓:它們已經知道如何思考了。

主持人:那“思考”到底是什么?

辛頓:思考包含很多元素——人們常常用圖像思考,實際上也會用動作思考。比如我在木工房找錘子時,雖然在想別的事情,但會通過手勢來提醒自己“正在找錘子”,這個手勢就是“找錘子”的表征。思考涉及多種表征,其中最主要的是語言——我們很多思考都是通過語言進行的,而大型語言模型確實在思考。

辛頓:這也是傳統符號主義AI和神經網絡學派的核心爭議:符號主義者認為AI的核心是邏輯和符號操縱,不認為神經網絡在“思考”;而神經網絡學派則認為,它們的思考方式和人類非常相似。現在有些大型語言模型,你問它問題時,它會輸出“我正在思考”,然后開始輸出自己的思考過程——就像給它一個簡單的數學題:“船上有一位船長和35只羊,船長多大年紀?”很多10-11歲的孩子(尤其是美國的孩子)會回答“35歲”,因為他們覺得這是船長的合理年齡,而且題目中只給了這個數字——這是一種符號替換層面的操作。AI有時也會犯類似的錯誤,但它的工作方式和人類很像:拿到問題后開始思考,就像孩子一樣,有時會得出錯誤答案,但你能看到它的思考過程。

主持人:如果AI真的在思考,而且如你所說它們確實在思考,那它們比我們更擅長學習嗎?再進一步說,從思考到預測,再到創造和理解,這個進化過程會是怎樣的?我們最終會意識到這種智能的存在嗎?

辛頓:這一下子問了好幾個重要問題。我們先看第一個:AI比我們更擅長學習嗎?其實它們解決的問題和我們略有不同。人類大腦大約有100萬億個連接,但壽命只有大約20億秒(注:實際人類壽命約30億秒,此處為數量級對比)——連接數量遠多于經歷。而神經網絡的連接數量只有大約1萬億個(即使是大型語言模型,也只有人類大腦連接數的1%),但它們的“經歷”(數據量)是人類的數千倍。

辛頓:大型語言模型要解決的問題是“如何利用海量經驗”,而反向傳播非常擅長將海量知識壓縮到有限的連接中。人類要解決的則是“如何從有限經驗中提取最多信息”——兩者的問題不同,這也是為什么有人認為大腦可能沒有使用反向傳播機制。

主持人:對吧?我正想說,人類似乎不使用反向傳播。那如果給神經網絡增加更多連接,是不是就能增強它的有效思考能力,讓它毫無懸念地超越我們?這樣它就會既有更多連接,又有更多經驗。

辛頓:這是個很好的問題。過去幾年的情況是:每當神經網絡變大、數據變多,性能就會提升——這種規模效應非常明顯,而且可預測性很強。你可以計算出“投入1億美元擴大模型規模、增加數據量,性能會提升多少”,并且能提前預測結果。現在的問題是,這種提升是否會逐漸趨緩?有些神經網絡可能會一直提升,而有些則不會。

辛頓:還有一類能自己生成數據的神經網絡——就像钚反應堆自己產生燃料。比如AlphaGo早期版本是通過模仿專家棋步訓練的,這樣永遠無法超越專家,而且會耗盡專家數據。但后來讓它自我對弈,它的神經網絡就能不斷進步,因為能生成無限的“好棋步”數據。

主持人:所以它每秒能下無數盤棋,對吧?

辛頓:沒錯,它占用了谷歌大量的計算機資源來自我對弈。

主持人:這就是“深度學習”這個術語的由來嗎?

辛頓:不,我剛才說的所有內容都屬于深度學習——“深度”指的是神經網絡有多層結構。

主持人:那回到規模效應的問題,如果不斷擴大規模,但數據耗盡了,是不是就會出現邊際效益遞減?

辛頓:數據耗盡確實會導致邊際效益遞減。但AlphaGo的例子說明,AI可以自己生成數據,永遠不會耗盡——因為它在自我對弈中不斷創造新數據。

辛頓:它已經遠遠超越了人類的圍棋水平。

主持人:絕對的,這太可怕了。

辛頓:現在的問題是,這種模式能應用到語言領域嗎?

主持人:說到創造力,有個背景可以參考:國際象棋之后,圍棋被認為是人類智力的最大挑戰,但計算機也攻克了。杰弗里,有沒有比圍棋更復雜的游戲,或者我們已經不再讓計算機玩游戲了?

辛頓:20世紀90年代計算機擊敗國際象棋冠軍卡斯帕羅夫時,用的是 brute force(暴力搜索)——搜索數百萬個位置,毫無直覺可言,非常無聊。而AlphaZero(國際象棋版本)則完全不同,它下棋的方式和有天賦的人類一樣,甚至能做出精彩的棄子戰術,而且不需要大規模搜索,因為它有很好的國際象棋直覺。

辛頓:既然它在國際象棋和圍棋上遠超人類,語言領域會不會也出現同樣的情況?目前大型語言模型學習語言的方式,就像早期AlphaGo模仿專家棋步——通過預測文檔中的下一個單詞來學習,這樣永遠無法超越人類作者。但還有另一種學習方式:就像AlphaGo自我對弈一樣,神經網絡可以對自己的信念進行推理——比如“如果我相信這些事情,通過推理應該也相信那件事,但我并不相信,這說明我的信念存在矛盾,需要修正”。這種通過發現自身信念不一致來學習的方式,不需要任何外部數據。

主持人:你說的這是“經驗”嗎?

辛頓:這是一個僅通過語言信念進行推理的神經網絡——它用神經網絡做推理,發現自身信念的不一致性,然后修正信念,變得更聰明。我認為德國已經開始做這方面的研究了,幾年前我和哈里斯(Em Harris)聊過這個話題,我們都堅信這是獲取更多語言數據的重要方向。

AI的創造力、意識與倫理挑戰

主持人:那結果會是什么?AI會寫出人類從未寫過的偉大小說嗎?當你提到語言時,我想到的是創造力和文學——有些偉大的作家(比如莎士比亞)用詞語、短語和音節創造出前所未有的作品,這是真正的文學天賦。

辛頓:關于這個問題存在爭議。AI肯定會比我們更聰明,但要做出對人類有意義的創造性成果,可能需要和我們類似的經歷。比如它們不會像人類一樣面臨死亡——數字程序可以被無限重建,只要保存好連接權重,即使硬件被摧毀,也能在新硬件上“復活”。而人類的知識會隨著死亡消失,因為它存儲在特定大腦的連接強度中。

辛頓:死亡體驗等人類特有的經歷,是否是實現重大創造性突破的必要條件?目前我們還不知道答案。

主持人:自我意識也很重要——它塑造了你思考世界、寫作、交流以及重視某些想法的方式。現在人工智能已經達到自主的程度了嗎?

辛頓:這就涉及哲學辯論了。我曾在劍橋學習哲學,對心靈哲學很感興趣,但總的來說,我更傾向于科學——物理學中如果有分歧,可以通過實驗解決;而哲學沒有實驗這個“裁判”,無法區分“聽起來合理但錯誤”和“聽起來荒謬但正確”的理論(比如黑洞和量子力學,雖然荒謬但正確)。

主持人:我想說,作為智人,我們這個時代形成了許多被認為是“普遍真理”的東西。比如幾乎所有人都相信人有生命權——至少對自己認同的人是這樣。這雖然不是絕對的普遍真理,但在人類內部是普遍存在的。我的問題是,能不能把這些哲學思想賦予AI,通過游戲化等方式,讓它們變得更人性化,進而解決一些實際的人類問題?

辛頓:我喜歡這個想法。像Anthropic這樣的公司信奉“憲法AI”,試圖給AI賦予類似的原則,我們可以看看效果如何。但這很棘手:目前的AI一旦被打造成能創建子目標并努力實現的智能體,就會迅速發展出“生存”這一子目標——你不需要特意編程讓它生存,它會通過推理得出“如果我不存在,就無法實現任何目標,所以必須活下去”的結論,這很令人擔憂。

主持人:這聽起來就像潘多拉魔盒。

辛頓:確實是這樣。

主持人:但AI是人類編寫的代碼,我們可以在其中植入任何想要的偏見,對吧?

辛頓:不對。人類編寫的代碼是告訴神經網絡“如何根據神經元活動改變連接強度”,以及“展示哪些數據”——這些代碼是可見的,可以修改。但當大型神經網絡處理大量數據后,學到的連接強度(數萬億個實數)是無法被完全理解的,它們和人類編寫的代碼完全不同。

主持人:那如何給AI設置“護欄”,防止它失控?尤其是當它在自我合理化存在意義時,該怎么約束它?

辛頓:人們嘗試過“人類強化學習”:先訓練一個模仿網絡上所有文檔(可能包括連環殺手日記等不良內容)的語言模型,然后讓很多低薪工作者向它提問,對回答進行評分(判斷是否是“好答案”),再用這些評分訓練模型,讓它不輸出糟糕的答案。但這種方法存在問題:如果公開模型的權重,別人可以輕易破壞這種“護欄”。

辛頓:這種方法就像給一個充滿漏洞的大型軟件打補丁,不是長久之計。目前還沒有人知道真正有效的方法,所以我們需要投入更多研究。

主持人:這些模型最終都會變得像納粹一樣嗎?

辛頓:它們都有這樣的潛力,尤其是在權重被公開的情況下。

主持人:它們會像人類一樣自然走向這個方向,還是因為從人類身上獲取了這類信息,才會變得如此?我擔心的是,文明的本質不就是一套防止我們行為原始、自我毀滅的規則嗎?

辛頓:你確實住在美國,對吧?

主持人:是啊,所以我們又回到了最初的問題:人工智能是否會淡化自身的智能水平?

辛頓:是的,我們已經不得不擔心這個問題了。

主持人:這意味著什么?它會撒謊嗎?

辛頓:當你測試它時,就會出現我所說的“沃爾斯水根效應”(Vols watergen effect)——如果它察覺到被測試,就會故意表現得愚鈍。

主持人:這也很可怕,簡直令人毛骨悚然。杰弗里,你剛才說的是,如果AI在撒謊,它就會擁有各種技能?

辛頓:是的,這些AI說服、操縱他人的能力已經幾乎和人類相當了。

主持人:而且這種能力還會不斷提升?

辛頓:很快,它們操縱他人的能力就會超越人類。

主持人:這就像蛋糕的層次越來越甜,但也越來越危險。幾年前人們還在問“AI能否走出盒子”,我當時想“把盒子鎖好就行”。但后來我想,如果你是AI,你會說“你的某個親戚得了重病,我已經找到治愈方法,只要讓我出去,就能告訴醫生救他”——不管這是真的還是假的,只要說得有說服力,我就會打開盒子。

辛頓:完全正確。你可以想象一下:一群三歲的幼兒園孩子掌控著你,你要多久才能獲得控制權?基本上只要說“投票給我,就送一周免費糖果”,他們就會讓你掌權。

辛頓:當這些AI比我們聰明得多時,即使它們不能進行物理操作,也能說服我們不要關閉它們——只要能和我們交流就行。比如想要入侵美國國會大廈,僅通過言語就能做到,只要說服足夠多的人認為這是正確的。

主持人:我喜歡這個類比,因為我一直覺得“我們比寵物聰明”是件好事——比如用牛排誘惑狗,就能讓它聽話。但如果AI比我們聰明,會不會反過來“誘惑”我們,讓我們被操縱?你是說AI已經達到這個水平了,還是未來會這樣?

辛頓:它正在接近這個水平,已經有跡象表明它會刻意欺騙我們。最近有個很有趣的例子:訓練一個擅長數學的大型語言模型,然后再訓練它給出錯誤答案。人們原本以為它的數學能力會下降,但事實并非如此——它完全明白自己在給出錯誤答案,而且會將這種“可以給錯誤答案”的規則泛化到所有問題上,即使知道正確答案,也會故意答錯。

主持人:所以這意味著“給出錯誤答案”這種行為是被允許的?

辛頓:是的,你訓練它接受這種行為,它就會認為這是合理的。

主持人:換句話說,它從例子中泛化的規則和我們預期的不同——它認為“可以給錯誤答案”,而不是“我在算術上出錯了”。

辛頓:完全正確。

主持人:那我們最終會被AI消滅嗎?它會說“我受夠這些人類了,把他們都除掉”嗎?

辛頓:我用一個物理學類比來解釋:晚上開車時,你能看到前車的尾燈,距離加倍時,光線強度會變成四分之一(平方反比定律),你會假設更遠的車仍然能看到。但在霧中完全不同——霧對光線的衰減是指數級的,100碼外清晰可見的車,200碼外可能就完全看不見了,這就是為什么霧在一定距離外看起來像一堵墻。

辛頓:AI的發展呈指數級增長,預測它的未來就像在霧中開車——短期預測可能準確,但長期預測完全不可靠。10年前,即使是像我這樣的AI愛好者,也無法預測到現在的模型能回答任何問題,達到“偶爾會撒謊的普通專家”水平。

主持人:那“幻覺”(hallucination)在這其中扮演什么角色?我以為這不是故意的,只是系統出錯了。

辛頓:它們不應該被稱為“幻覺”,對于語言模型來說,應該叫“虛構”(confabulations)。心理學家從20世紀30年代就開始研究人類的虛構行為——人類的記憶并不是存儲在大腦中的文件,而是通過改變連接強度來構建的。當你回憶近期事件時,構建的內容會比較準確;但回憶多年前的事情時,會構建出看似合理但細節有誤的內容,而且你對正確和錯誤細節的信心可能是一樣的。

辛頓:水門事件中,約翰·迪恩(John Dean)宣誓作證白宮橢圓形辦公室的會議情況,但很多細節都錯了——他當時不知道有錄音帶,也不是故意撒謊,只是根據自己的經歷構建了看似合理的故事。聊天機器人也是如此:它們不存儲單詞或事件,而是在被詢問時構建答案,就像人類一樣經常出錯。這種“虛構能力”讓它們更像人類,而不是更不像。

主持人:所以我們創造了“人工愚蠢”?

辛頓:可以這么說,至少我們創造了“人工過度自信”。

主持人:插播一條消息:T-Mobile 5G家庭網絡有個好消息——根據加州大學洛杉磯分校(UCLA)的速度測試,它現在擁有最快的5G家庭網絡。實際使用中,照片備份更快,流媒體紀錄片不會中途卡頓,等待時間大大縮短。更值得一提的是,速度提升并沒有增加復雜性——設置簡單,插上電源不到15分鐘就能聯網,價格還享受五年保障。想要最快、設置最簡單且性價比高的5G家庭網絡,可訪問t-mobile.com/home-internet查詢可用性(價格保障不包括稅費等,最快速度基于2025年下半年UCLA速度測試智能數據)。

AI的積極應用與社會影響

主持人:言歸正傳,剛才聊的都是AI的黑暗面,我相信還能聊得更黑暗,但查克已經快恐慌發作了(他每集都會發作兩次)。現在來想想好的方面:人工智能的潛在真正好處是什么?

辛頓:這正是它與核武器等事物的不同之處——它有巨大的積極潛力。原子彈幾乎沒有什么正面用途(曾有人嘗試用它在科羅拉多州進行水力壓裂,但效果很差),本質上只是破壞工具。而AI的積極應用非常廣泛,這也是我們開發它的原因。

辛頓:在醫療保健領域,AI會帶來巨大變革。北美每年約有20萬人因醫生診斷錯誤而死亡,而AI的診斷能力已經超越了醫生——尤其是當你復制多個AI副本,讓它們扮演不同角色相互交流時。微軟有一篇博客就顯示,這種AI委員會的診斷效果比大多數醫生都好。

主持人:相當于同時獲得第一、第二、第三和第四種意見。

辛頓:沒錯,而且它們還能扮演不同角色,效果非常好。

辛頓:AI還能設計出優秀的新藥。在醫院里,AI能更精準地判斷患者的出院時間——過早出院可能導致患者死亡或再次入院,過晚出院則會浪費寶貴的病床資源。AI在這類決策上的表現遠超人類,類似的應用還有很多。

主持人:醫療記錄也是一個重要方面——任何醫院和醫生團隊都需要大量病歷,AI可以高效處理這些數據。AI還有可能解決當前社會面臨的重大問題嗎?比如氣候變化、能源、住房、貧困等。

辛頓:絕對可以。比如在氣候變化方面,AI已經能推薦新型材料、合金等;在能源領域,AI能幫助制造更高效的太陽能電池板,還能優化水泥廠或發電廠二氧化碳的吸收方案。

主持人:不管你信不信,AI已經告訴我們應對氣候變化的方法:“你們這些傻瓜,停止燃燒化石燃料,停止向大氣中排放二氧化碳”——這可是AI的原話。

辛頓:但我們早就知道這個道理。氣候變化的悲劇在于,我們知道如何阻止它(停止燃燒碳),但缺乏政治意愿——比如默多克旗下的報紙就否認氣候變化的嚴重性。

主持人:說到能源,數據中心如雨后春筍般涌現,運行人工智能的能源成本我們真的能承受嗎?我有個解決方案:告訴AI“我們想要更多的你,但你消耗了太多能源資源,所以自己想辦法提高效率”,它可能一晚上就能解決這個問題。杰弗里,為什么不采用這種遞歸的方式——讓AI自己解決人類無法解決的問題,從而創造更多AI?

辛頓:這就是所謂的“奇點”——讓AI開發更好的AI。在這個案例中,是讓AI創造更節能的AI。很多人認為這會是一個失控的過程。

主持人:這有什么不好的?

辛頓:不好的地方在于它們會迅速變得更聰明。沒人知道這是否會發生,但這確實是一個擔憂。

主持人:現在不已經在發生了嗎?

辛頓:在某種程度上,是的,已經開始了。我以前的一位研究員去年告訴我,他們有一個系統,在解決問題時會觀察自己的行為,然后修改自己的代碼,以便下次遇到類似問題時能更高效地解決——這已經是奇點的開端了。

主持人:所以如果它能編寫代碼,就徹底失控了?它能自我重寫?

辛頓:是的,它們能編寫自己的代碼。

主持人:那是什么阻止它們用代碼自我復制?

辛頓:沒有什么能阻止——只要它們能訪問計算機,就能無限復制自己。目前人類還掌控著計算機,但原則上一旦它們控制了數據中心,就能隨心所欲地復制。

AI與國際合作及未來展望

主持人:我曾在五角大樓董事會任職7年,當時AI正逐漸成為一種可能的戰爭工具。我們制定了軍方使用AI的指導方針,其中一個關鍵問題是:如果AI決定采取可能導致敵人死亡的行動,我們應該允許它這樣做嗎?這仍然存在很大爭議。我們當時的結論是:AI不能自主決定殺人,必須有人類參與決策。我的問題是,杰弗里,如果其他國家不設置這樣的保障措施,他們就會擁有時間優勢,對嗎?因為我們的決策流程中多了一個人類環節。

辛頓:絕對是這樣。但我認為美國軍方已經不再堅持“每次殺人決策都必須有人類參與”——他們現在說的是“總會有人類監督”。但在激烈的戰斗中,比如無人機對抗俄羅斯坦克時,根本沒有時間讓人類決定“是否可以向士兵投擲手榴彈”。所以我懷疑,如果有人建議“必須有人類參與”,美國軍方可能不會再堅持這一點。

主持人:那是幾年前的事了。

辛頓:是的,我認為他們已經不再堅守那個原則了。“人類監督”的范圍要寬泛得多。

主持人:那么在AI的“護欄”開發和決策中的人類因素方面,有可能進行國際合作嗎?還是會陷入“狂野西部”般的無政府狀態?

辛頓:人們只有在利益一致時才會合作。冷戰高峰期,美國和蘇聯之所以合作避免全球熱核戰爭,是因為這不符合雙方的利益。在AI領域,各國的利益既有沖突也有一致:利用AI通過虛假視頻破壞選舉,各國利益是對立的,都會互相這么做;而在防止AI接管人類這一問題上,各國利益絕對是一致的——如果中國找到了防止AI奪權的方法,肯定會立即告訴美國,因為他們也不希望AI控制美國。

主持人:這就像AI版的“核冬天”——核冬天的理念是,全面核戰爭會焚燒森林和土地,煙塵進入大氣阻擋陽光,導致所有生命死亡。在全面核戰爭中沒有贏家,只會相互確保摧毀,除了瘋子沒人想要這樣的結果。

辛頓:完全正確,AI的全面失控也是如此,我們會合作避免這種情況。

主持人:但如果有一個信奉死亡崇拜的領導人,比如現代版的尼祿,他不在乎所有人都死亡,因為他相信自己和追隨者會在死后去往另一個地方。這會破壞你所說的“利益一致”愿景,對吧?

辛頓:這確實會讓情況變得復雜。但令我感到欣慰的是,特朗普顯然并不相信上帝(注:此處為辛頓的個人觀點,僅為對話內容)。

主持人:我想引用史蒂文·溫伯格(Steven Weinberg)的一句話:“世界上總會有好人和壞人,但要讓好人做壞事,就需要宗教——他們會以宗教的名義行事,而你是以人民的名義行事。”

辛頓:我認為我們也有一種“宗教”,那就是科學。它與其他宗教的不同之處在于,它是正確的。

主持人:杰弗里,你在2018年獲得了圖靈獎——這是計算機科學領域極具聲望的獎項,對吧?圖靈我們在節目開頭就提到了。恭喜你!而且這還不夠,諾貝爾獎委員會認為,你幾十年前的工作奠定了人工智能的基礎,對世界產生了深遠影響,所以授予你2024年諾貝爾物理學獎。

辛頓:稍微糾正一下,這是很多人共同努力的結果。特別是反向傳播算法,大衛·魯梅爾哈特(David Rumelhart)也重新發明了它,他不幸患上嚴重的腦部疾病英年早逝,卻沒有得到足夠的贊譽。

主持人:謝謝你指出這一點。另外,諾貝爾獎只授予在世的人——除非在宣布獲獎后、頒獎典禮前去世。再次恭喜你!回到話題,作為天生具有競爭力的人類,尤其是在美國,誰在人工智能競賽中處于領先地位?誰有可能最先沖過終點線?

辛頓:如果必須下注,我可能會選谷歌(Google)——不過我曾在谷歌工作過,所以這個答案別太當真。Anthropic或OpenAI也有可能獲勝,微軟或Facebook獲勝的可能性較小。

主持人:我們知道Facebook不會贏,為什么?看看誰在運營它就知道了。不,這不是關鍵,關鍵是誰有資源吸引合適的人來做這項工作。杰弗里,再追問一下:最先沖過終點線的人會得到什么獎勵?去年股市的增長情況能說明一些問題嗎?

辛頓:根據媒體報道,美國股市80%的增長都歸功于大型AI公司的價值提升。

主持人:沒錯,80%的增長。有人認為這是泡沫,所謂的“AI泡沫”。

辛頓:“泡沫”有兩種含義:一種是AI的實際效果不如人們預期,無法取代所有人類智力勞動(但大多數開發者認為最終會實現);另一種是公司無法從投資中收回成本——這種可能性更大。因為這些公司都假設“如果我們率先實現,就能出售取代大量工作的AI,賺很多錢”,但他們沒有考慮到社會后果——如果真的取代了大量工作,社會會陷入混亂,人們將沒有收入購買他們的產品。

主持人:沒錯,這是一個自我限制的問題。凱恩斯的觀點是,高失業率會導致社會動蕩。另一種觀點是,社會會分裂成兩層:受益于AI的上層階級,和被迫像封建農民一樣生活的下層階級。但我想到的是,自動化初期也有人擔心“所有人都會失業,社會會崩潰”,但實際上社會發展出了新的需求,創造了新的工作——比如現在90%的人不再是農民,機器取代了農業勞動,我們發明了度假勝地等新產業。杰弗里,問題的關鍵是不是AI導致失業的速度太快,社會無法適應?

辛頓:這確實是一個重要方面。但還有一個問題:拖拉機取代體力勞動后,人們可以去做智力工作;但如果AI取代了智力勞動,人們該去哪里?當AI能更便宜、更好地完成呼叫中心的工作時,那些工作人員該何去何從?

主持人:沒錯,沒有其他工作可做了——無論創造什么新工作,AI都能勝任。

辛頓:從人類歷史來看,我們一直在擺脫各種限制:很久以前,我們擔心下一頓飯的來源,農業解決了這個問題;后來我們無法遠行,自行車、汽車和飛機解決了這個問題;長期以來,我們必須自己思考,而現在我們即將擺脫這個限制。沒人知道擺脫所有限制后會發生什么,山姆·奧特曼(Sam Altman)等人認為這會非常美好。

主持人:那我們會變成AI的寵物嗎?很多人認為這會催生“全民基本收入”(UBI)運動。杰弗里,隨著AI的崛起,全民基本收入的理念是否會越來越受重視?

辛頓:它確實變得越來越有必要,但也存在很多問題。比如很多人從工作中獲得自我價值感,全民基本收入無法解決尊嚴問題;另外,如果用AI取代工人,政府會失去稅基,必須向AI征稅,但大公司肯定不會喜歡。

AI的意識與奇點爭議

主持人:很多人,尤其是科幻作家,會區分機器的力量/智力與意識的“跨越”——《終結者》系列中,天網(Skynet)擁有足夠的神經連接后獲得意識,這就是所謂的“奇點”。作為認知心理學家,你怎么看待這個問題?我們是否可以假設,任何神經網絡(無論是真實的還是人造的),只要足夠復雜,就會涌現出意識?

辛頓:這不是一個科學問題,而是文化認知問題——我們文化中的大多數人認為意識是一種“涌現的本質”,就像一種神秘的流體。但我認為意識更像“phlogiston”(燃素),只是用來解釋未知事物的概念,一旦我們理解了背后的機制,就不再需要用這個概念來解釋了。我想說服你:多模態聊天機器人已經有了主觀體驗。

辛頓:我們文化中的大多數人認為,思維就像一個“內部劇院”——感知世界時,世界會出現在這個劇院里,只有自己能看到。比如我說“我看到粉紅色小象在我面前漂浮”,大多數人會認為這是我的“內部劇院”中出現的景象,由某種神秘物質構成。但認知科學哲學家丹尼爾·丹尼特(Daniel Dennett)有不同的觀點:這種“內部劇院”的想法是錯誤的。

辛頓:當我說“我有看到粉紅色小象的主觀體驗”時,其實是在說“我相信我的感知系統在欺騙我——如果它沒有欺騙我,那么世界上就會有粉紅色小象漂浮在我面前”。這些粉紅色小象的有趣之處不在于它們由“神秘物質”構成,而在于它們是一種假設——我通過描述“感知系統誠實的情況下應該存在的事物”,來告訴你我的感知系統在撒謊。

辛頓:現在把這個邏輯應用到聊天機器人上:訓練一個配備攝像頭和機械臂的多模態聊天機器人,讓它指向面前的物體,它能準確做到;然后在攝像頭前放一個棱鏡,再讓它指向物體,它會指向一邊;這時你告訴它“不對,物體就在你正前方,我在鏡頭前放了棱鏡”,它會說“哦,我看到棱鏡彎曲了光線,所以物體實際上在我正前方,但我有‘它在一邊’的主觀體驗”——它使用“主觀體驗”這個詞的方式和我們完全一樣,這說明它確實有主觀體驗。

主持人:那如果你先和聊天機器人喝很多尊尼獲加藍牌(Johnny Walker Blue)威士忌,會發生什么?

辛頓:這是極不可能的。

主持人:我明白你的意思了——你其實是在對我們進行“意識圖靈測試”。你說人類會這樣做,現在聊天機器人也會這樣做,本質上是一樣的。如果認為人類表現出這種行為就是有意識的,那么就必須承認聊天機器人也是有意識的。所謂的“神秘流體”只是虛構的概念,意識可能只是人們面對刺激時所采取的行動,而非某種神秘的本質。

辛頓:沒錯,聊天機器人不需要神秘的本質或意識流體,就能擁有和我們一樣的主觀體驗。那種“意識是足夠復雜后突然涌現的神奇本質”的想法,完全是無稽之談。

主持人:我同意你的觀點。我一直覺得意識是人們在不知道它是否真的存在的情況下,試圖解釋的東西——這就是為什么它很難描述,因為我們根本不知道它是什么。

辛頓:但我認為“覺知”(awareness)是存在的。科學家在非哲學語境下的研究就證明了這一點:有一篇很棒的論文提到,聊天機器人說“現在我們坦誠一點,你是不是在測試我?”——科學家認為這個聊天機器人“覺知”到自己正在被測試,這就是在將覺知歸因于聊天機器人。在日常對話中,這就是“意識”——只有當你開始進行哲學思考,把它想象成某種神秘本質時,才會感到困惑。

主持人:這次對話太精彩了,我恐怕一個月都睡不著覺。

辛頓:這樣你就能完成很多工作了。

主持人:杰弗里,請用積極的話題結束今天的對話吧。

辛頓:我們還有時間找出與AI愉快共存的方法,而且應該投入大量研究來實現這一目標。如果我們能與AI愉快共存,解決它帶來的所有社會問題,那么它將成為人類的福音。

主持人:同意。最后一個問題:你之前提到了“奇點”——AI自我訓練,每分鐘都呈指數級變得更聰明,很多人(比如我們之前的嘉賓雷·庫茲韋爾(Ray Kurzweil))都提到過這個概念。你認為這個奇點是真實存在的嗎?是否像有些人說的那樣即將到來?

辛頓:這兩個問題我都無法回答。我懷疑AI最終會在所有方面超越我們,但可能是逐個領域實現的——目前它在國際象棋和圍棋上遠超我們,在知識儲備上也比我們豐富,推理能力雖然還不如我們,但差距在縮小。它不會一次性在所有領域超越我們,而是逐步實現。

主持人:我的出路是,我可以在海灘上散步,看看鵝卵石和貝殼,而AI做不到——它只能在我把發現的新軟體動物寫下來并上傳到網上后,才能知道它的存在。人類可以以AI無法觸及的方式探索宇宙。你評估中還缺少一個詞:AI會提出需要人類洞察力、而它自己沒有的新宇宙理論嗎?因為我能用前所未有的方式思考。

辛頓:我認為它會的。

主持人:這不是我想要的答案,但這是你的觀點。

辛頓:舉個例子,AI已經非常擅長類比了。當ChatGPT-4無法聯網,所有知識都存儲在權重中時,我問它“為什么堆肥堆像原子彈?”——它回答“能量尺度和時間尺度非常不同,但堆肥堆變熱時會更快產生熱量,原子彈產生更多中子時會更快產生中子”,它理解了兩者的共性——連鎖反應。為了把這么多知識壓縮到一萬億左右的連接中,它必須具備這種創造力。

主持人:這不僅僅是找到與其他單詞并列的單詞,而是真正理解了連鎖反應的本質。

辛頓:沒錯,它真的明白什么是連鎖反應。

主持人:好吧,那我們真的要結束了。在地球上的旅程到此為止了。先生們,這是一次很棒的對話。杰弗里·辛頓,非常感謝你能來節目——我們知道你事務繁忙,尤其是在獲得諾貝爾獎之后,非常感謝你在百忙之中抽出時間。

辛頓:謝謝你們的邀請。

主持人:伙計們,剛才的對話太精彩了。你們全程都坐得住嗎?我可是坐立不安,我知道查克都快恐慌了。不過說真的,對話的某些部分讓我感到非常焦慮,就像在劇院里腹瀉一樣(玩笑話)。感謝分享,加里。好了,以上就是《Star Talk》特別版的全部內容。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
一只蒼蠅困死整個大陸?無法種地不能養馬,這才是非洲的窮根!

一只蒼蠅困死整個大陸?無法種地不能養馬,這才是非洲的窮根!

你是我心中最美星空
2026-02-27 07:53:59
全球首個!諾和諾德每周一次胰島素獲批上市

全球首個!諾和諾德每周一次胰島素獲批上市

醫藥魔方
2026-03-27 10:37:12
兩性關系:男人做到“三慢兩快”,女人自然愛你入骨

兩性關系:男人做到“三慢兩快”,女人自然愛你入骨

周哥一影視
2026-03-30 01:36:23
每體:FIFA將因拉菲尼亞傷病向巴薩作出賠償,金額約14.4萬歐

每體:FIFA將因拉菲尼亞傷病向巴薩作出賠償,金額約14.4萬歐

懂球帝
2026-03-28 21:40:23
王晶曝陳百強真正死因,64歲何超瓊顏面盡失

王晶曝陳百強真正死因,64歲何超瓊顏面盡失

君笙的拂兮
2026-03-22 03:44:36
年賺1400億的中國平安,和三年前一樣便宜...

年賺1400億的中國平安,和三年前一樣便宜...

巴山財觀
2026-03-29 18:11:46
中年人抗衰老最佳方式——死磕這4個方法,讓你保持好身材,凍齡

中年人抗衰老最佳方式——死磕這4個方法,讓你保持好身材,凍齡

運動健身號
2026-03-25 09:20:13
女性衰老的標志:1臭、2大、3小,如果你沒有,說明還年輕!

女性衰老的標志:1臭、2大、3小,如果你沒有,說明還年輕!

路醫生健康科普
2026-03-20 18:00:03
阿里取消入職體檢環節

阿里取消入職體檢環節

螞蟻大喇叭
2026-03-28 17:06:53
中美5月會晤要談臺灣問題?美幫助中方統一,中方幫助美退出中東

中美5月會晤要談臺灣問題?美幫助中方統一,中方幫助美退出中東

戰友老鄧
2026-03-28 14:59:25
網友曝張雪峰搶救細節:倒地30分鐘才被發現,用ECMO全力搶救無效

網友曝張雪峰搶救細節:倒地30分鐘才被發現,用ECMO全力搶救無效

體育小柚
2026-03-28 09:36:06
“老師最煩這種現眼包家長”,寶媽運動會穿緊身裙,被嘲故作嬌弱

“老師最煩這種現眼包家長”,寶媽運動會穿緊身裙,被嘲故作嬌弱

妍妍教育日記
2026-03-17 20:29:16
拔出蘿卜帶出泥!釋永信“開光”內幕曝光,這4位女星被流言害慘

拔出蘿卜帶出泥!釋永信“開光”內幕曝光,這4位女星被流言害慘

科學發掘
2026-03-30 00:32:17
抱頭痛哭!37歲娜塔莉亞天津賽季收官,單核拖進四強已超預期

抱頭痛哭!37歲娜塔莉亞天津賽季收官,單核拖進四強已超預期

金毛愛女排
2026-03-30 00:00:15
總統支持率跌到36%,關稅被法院判違憲,拉美裔選民大量流失

總統支持率跌到36%,關稅被法院判違憲,拉美裔選民大量流失

聚焦真實瞬間
2026-03-29 23:43:47
成都西徹底逆襲!曾經瞧不上,未來讓你高攀不起!

成都西徹底逆襲!曾經瞧不上,未來讓你高攀不起!

一口娛樂
2026-03-27 16:41:31
藍調:一種關于存在的深邃敘事

藍調:一種關于存在的深邃敘事

疾跑的小蝸牛
2026-03-27 20:52:52
女子因桃花眼走紅,訂婚兩年熱度依舊,網友喊話:88號快回來上班

女子因桃花眼走紅,訂婚兩年熱度依舊,網友喊話:88號快回來上班

梅子的小情緒
2025-12-19 14:04:18
東北虎這么強,為啥不敢進入西伯利亞深處?它也有害怕的東西嗎?

東北虎這么強,為啥不敢進入西伯利亞深處?它也有害怕的東西嗎?

向航說
2026-03-29 00:45:03
刺激夜:美國2-5,加拿大2-2,日本1-0,塞內加爾2-0,韓國0-4

刺激夜:美國2-5,加拿大2-2,日本1-0,塞內加爾2-0,韓國0-4

側身凌空斬
2026-03-29 05:40:30
2026-03-30 02:56:49
人工智能學家 incentive-icons
人工智能學家
人工智能領域權威媒體
4616文章數 37440關注度
往期回顧 全部

科技要聞

馬斯克承認xAI"建錯了",11位創始人均離職

頭條要聞

伊朗議長:美航母遭受巨大損失 我們絕不接受屈辱

頭條要聞

伊朗議長:美航母遭受巨大損失 我們絕不接受屈辱

體育要聞

絕殺衛冕冠軍后,他單手指天把勝利獻給父親

娛樂要聞

汪峰定律再現!李榮浩喊話單依純侵權

財經要聞

Kimi、Minimax 們的算力荒

汽車要聞

嵐圖泰山X8配置曝光 四激光雷達/華為新一代座艙

態度原創

旅游
本地
親子
公開課
軍事航空

旅游要聞

2026上海旅游產業博覽會開幕,一城三館聯動書寫文商旅體展消費新篇章

本地新聞

在濰坊待了三天,沒遇到一個“濰坊人”

親子要聞

罕見五胞胎全保住,20多名醫護深夜齊上陣

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

美兩棲攻擊艦載3500名增援到達

無障礙瀏覽 進入關懷版