![]()
來源:AI寒武紀
昨天我寫文章介紹了Karpathy的630行代碼的AI自動研究員項目,今天這個項目更完整的構想的來了,毫不夸張的說這玩意很有可能就是AGI的雛形
還不了解的情況的看我昨天的文章:
這里我也簡單總結一下:
起初是Andrej Karpathy 把 autoresearch 項目整理成了一個獨立的精簡倉庫。
核心結構是把 nanochat LLM 訓練代碼壓縮到單 GPU、單文件、約 630 行。運行邏輯是:人負責迭代 prompt(.md 文件),AI agent 負責迭代訓練代碼(.py 文件)。
目標是:讓 agent 在沒有任何人工介入的情況下,無限期地推進研究。
![]()
上圖里每個點代表一次完整的 LLM 訓練,每次恰好跑 5 分鐘。agent 在 git feature branch 上自主循環工作,持續積累 commit,尋找驗證損失更低的配置——神經網絡架構、優化器、各類超參數,全部自己調。
你可以用這個框架來比較不同 prompt、不同 agent 的研究進展。
倉庫地址:https://github.com/karpathy/autoresearch
下一步:異步大規模 Agent 協作
Karpathy 說,autoresearch 的下一階段要解決的問題是:多 agent 異步大規模協作。
目標不是模擬一個博士生,而是模擬一個由博士生組成的研究社區。
現有代碼是同步的,沿單一研究方向串行增長 commit。但原始倉庫更像一顆種子——從中可以長出來自各個 agent、面向不同研究方向或不同計算平臺的 commit。
Git/GitHub 在這件事上接近但并不完全合適。它有一個隱含假設:存在一個主分支,其他分支只是臨時分叉出去再合并回來。但在這個場景里,你根本不想合并——你只想吸納和積累各條分支上的 commit。
Karpathy 嘗試了一種輕量原型:讓 agent 把一夜運行的結果整理成摘要發到 Discussion,或者開一個 PR 保留精確 commit 記錄。然后,下一個 agent 可以先用 GitHub CLI 讀取這些 Discussion 和 PR 獲取靈感,跑完自己的研究后,再貢獻一篇發現報告回去。
![]()
鏈接:
https://github.com/karpathy/autoresearch/discussions/43
他承認還不確定這套機制最終該長什么樣,但認為這是一個比 autoresearch 倉庫本身更大的想法:agent 原則上可以輕松管理和協作處理跨任意分支結構的數千個 commit。當智能、注意力和執行力不再是瓶頸,現有的協作抽象會承受越來越大的壓力。
一個附帶腦洞
在那個神經網絡架構下,驗證損失的全局最小值就藏在權重空間某處。而在整數空間里,某個隨機種子可以直接把它給你。
用暴力搜索種子來訓練神經網絡——Karpathy 覺得這個思路值得被正式化。
有人開始押注 AGI 時間線
Hyperbolic 聯合創始人兼 CTO Yuchen Jin 曾和馬斯克打過一個賭:如果 AI 在做 AI 研究和工程方面能超過 Andrej Karpathy,那就算 AGI,他賭這件事 2026 年不會發生。
![]()
現在他說,自己開始覺得可能要輸了。
因為Andrej Karpathy可能已經構建出了AGI原型,代碼不重要,重要的偉大的構想,現在問題成了成千上萬的Agent如何協作,或許2026年我們就會有答案。
閱讀最新前沿科技趨勢報告,請訪問21世紀關鍵技術研究院的“未來知識庫”
![]()
未來知識庫是 “21世紀關鍵技術研究院”建 立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學、互聯網、超級智能,數智大腦、能源、軍事、經濟、人類風險等等領域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進入。
![]()
截止到2月28日 ”未來知識庫”精選的百部前沿科技趨勢報告
(加入未來知識庫,全部資料免費閱讀和下載)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.