![]()
前OpenAI聯創Andrej Karpathy最近干了件反差極大的事。這位特斯拉前AI總監、圈內公認的技術派,突然在YouTube上傳了一條面向普通觀眾的1小時入門視頻,主題是大語言模型。
視頻發布于去年11月,但直到最近才被中文社區大規模討論。Karpathy在推文里只寫了一句:「New YouTube video: 1hr general-audience introduction to Large Language Models」。沒有預熱,沒有標題黨,連封面都是默認樣式。
這種低調和他此前的公眾形象形成微妙對比。Karpathy之前的內容要么深入CUDA優化,要么拆解GPT-2的C語言實現,觀眾默認需要一定的編程基礎。這次他卻從token是什么開始講起,用「預測下一個詞」這個類比貫穿全程。
![]()
評論區成了大型真香現場。有用戶留言說終于敢給非技術同事轉發Karpathy的內容了。視頻目前播放量超過80萬,在他個人頻道里屬于中上水平,但考慮到這是零營銷冷啟動,數據已經相當扎實。
一個值得注意的細節是:Karpathy在視頻里提到,他做這個內容的部分動機,是發現身邊聰明但非技術背景的朋友,對LLM的理解仍停留在「魔法」層面。換句話說,頂級研究者也開始操心科普的斷層問題。
視頻結尾,他放了一段和GPT-4的對話截圖。用戶問它「什么是LLM」,AI的回答被Karpathy標紅批注了五處邏輯漏洞——用AI的失誤來驗證人類講解的必要性,這個收尾很他的風格。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.