如果你是一個博士生,寫一篇論文大概需要多久?
樂觀一點,三個月。悲觀一點,三年也不是不可能。中間還得經(jīng)歷選題被斃、實驗跑崩、數(shù)據(jù)對不上、審稿人第三輪還在要求major revision(就是大改!)等人間疾苦。
![]()
最近有個AI,用了417小時干完了166篇。
這個AI叫FARS,全稱Fully Automated Research System,全自動科研系統(tǒng),來自一家你可能沒聽過的中國初創(chuàng)公司,Analemma。它的工作流程跟博士生一模一樣:翻文獻(xiàn)、找選題、提假設(shè)、設(shè)計實驗、寫代碼跑數(shù)據(jù)、分析結(jié)果、畫圖、成稿。全程沒有導(dǎo)師催,沒有deadline焦慮,不喝咖啡,不上廁所,24小時連軸轉(zhuǎn)。
更離譜的是,整個過程是直播的。任何人都可以打開網(wǎng)頁,實時圍觀這個AI怎么肝論文。就像看一個博士生在直播間里趕稿,只不過這個博士不需要睡覺。
讓它跑的人的原話很簡單:先寫100篇。
結(jié)果這臺“論文機器”一口氣跑了417小時,累計17天,產(chǎn)出了166篇論文。平均每2小時17分鐘交一篇。整個過程消耗了216億個token,燒掉大約18.6萬美元,折合人民幣超過130萬,算下來每篇論文的成本大約1100美元。
![]()
結(jié)算畫面
博士生看了沉默,導(dǎo)師看了流淚。
但先別急著感嘆。我們得搞清楚兩件事:這個系統(tǒng)是怎么工作的?它寫出來的東西,到底能不能看?
01.造一臺論文機器
做FARS的人叫孫天祥,復(fù)旦大學(xué)自然語言處理方向的博士,2024年畢業(yè)。
![]()
孫天祥個人主頁
這個名字你可能沒聽過,但他做過的東西你沒準(zhǔn)有印象:MOSS。
2023年初,ChatGPT剛在全球引爆AI熱潮的時候,復(fù)旦大學(xué)發(fā)布了MOSS,這是國內(nèi)最早一批對標(biāo)ChatGPT的大語言模型之一。當(dāng)時社交媒體上鋪天蓋地的討論,各路媒體爭相報道,MOSS項目的核心主導(dǎo)者,就是當(dāng)時還是博士生的孫天祥。
![]()
當(dāng)時的新聞稿,時間是亮點
2024年博士畢業(yè)后,他輾轉(zhuǎn)進(jìn)入上海創(chuàng)智學(xué)院擔(dān)任助理教授,同時創(chuàng)立了Analemma。公司的slogan是:“In a world of infinite questions, it is time to build an infinite mind”,翻譯過來就是:在一個問題無窮的世界,是時候構(gòu)建一個無窮的心智。
這話聽著玄乎,但他做的事倒是挺實在的:先造一個能自己做科研的AI系統(tǒng),即本文的主角FARS。
FARS的工作方式,用人話說就是,四個AI研究員流水線協(xié)作:
-選題agent(Ideation):負(fù)責(zé)翻文獻(xiàn)、找研究方向、提出假設(shè)
-規(guī)劃agent(Planning):把假設(shè)變成具體的實驗方案
-實驗agent(Experiment):寫代碼、調(diào)用GPU集群跑實驗、收集數(shù)據(jù)
-寫作agent(Writing):把實驗結(jié)果整理成一篇完整的論文
![]()
FARS的架構(gòu)圖
四個agent在一個共享文件系統(tǒng)里協(xié)作,彼此之間不直接對話,而是通過讀寫文件來交接工作,背后撐著這套系統(tǒng)的,是160塊英偉達(dá)GPU組成的算力集群,配上所有agent想要調(diào)用的一線大模型。
打開FARS的直播頁面,你能看到的東西相當(dāng)豐富。頂上是當(dāng)前課題的標(biāo)題,下面一條進(jìn)度條標(biāo)著“選題→規(guī)劃→實驗→寫作”走到了哪一步。左邊是項目隊列,十幾個編號排著隊,跑完一個換下一個。中間是當(dāng)前項目的實驗清單,哪步做完了、哪步還在跑,標(biāo)得清清楚楚。右邊是GPU集群的實時狀態(tài)。如截圖里顯示的是76塊GPU同時在干活,利用率75%。最底下一排數(shù)字實時跳動:已經(jīng)產(chǎn)出了多少個假設(shè)、多少篇論文、跑了多久、燒了多少錢,整個界面就像一個科研工廠的監(jiān)控大屏,全程直播放送。
![]()
直播頁面長這樣
FARS目前聚焦的研究領(lǐng)域是AI本身,也被稱為“AI4AI”,用AI來研究AI。選這個領(lǐng)域有務(wù)實的考量:AI領(lǐng)域的實驗可以完全在計算機上完成,不需要物理實驗室,天然適合自動化。當(dāng)然,局限也很明顯:FARS暫時沒法跑極度燒算力的實驗(比如大規(guī)模預(yù)訓(xùn)練),也沒法完成需要人類直接參與的實驗(比如人工標(biāo)注或?qū)<以u估)。
FARS還有一個設(shè)計上的執(zhí)念:全程透明。所有166篇論文的代碼,都通過FARS自己的GitLab賬號公開提交。選擇直播,也是因為創(chuàng)始人認(rèn)為,規(guī)模化是檢驗AI科研系統(tǒng)的唯一方式。給它幾篇論文看看,說明不了什么問題。只有大規(guī)模運行并且完全公開,才能讓學(xué)術(shù)界真正去審視這個系統(tǒng)的能力和局限。
說到GitLab,其實還有個小插曲。FARS最早是在GitHub上提交代碼的,但因為提交頻率實在太高,觸發(fā)了GitHub的頻率限制,賬號被卡了,只好搬到GitLab。打開FARS的GitLab主頁,活動熱力圖很有意思:一整年幾乎全是灰色,就最近兩周多突然黑了一片。
![]()
FARS在Gitlab頁面
02.它寫出來的東西,能看嗎
說了這么多,F(xiàn)ARS寫出來的論文到底長什么樣?我們來看一個具體的例子。
在FARS產(chǎn)出的166篇論文里,有一篇叫《Local-Time AdamW for Stability-Gap Reduction in Continual Learning》(用于減少持續(xù)學(xué)習(xí)中穩(wěn)定性間隙的局部時間AdamW)。翻譯成人話就是:AI在學(xué)習(xí)新任務(wù)的時候,經(jīng)常會突然“忘掉”之前學(xué)過的東西,表現(xiàn)斷崖式下跌,雖然過一會兒會恢復(fù),但這個閃崩本身就很危險。FARS發(fā)現(xiàn),AdamW優(yōu)化器里一個叫“偏差校正”的機制,在任務(wù)切換時會幫倒忙,于是提出了一個改進(jìn)方法:在任務(wù)切換時只重置校正步數(shù),保留記憶緩沖區(qū)。
這個改動只需要改一行代碼。
然后FARS設(shè)計了實驗:在兩個標(biāo)準(zhǔn)數(shù)據(jù)集上跑了對照實驗,用了5個隨機種子取平均,還專門設(shè)計了一個“如果關(guān)掉偏差校正,效果還在不在”的驗證實驗來排除干擾因素。最終結(jié)論是,這個方法在一個數(shù)據(jù)集上把穩(wěn)定性間隙降低了31%,在另一個上降了17%。
整篇論文7頁,結(jié)構(gòu)完整,有摘要、引言、相關(guān)工作、方法、實驗、結(jié)論,引用了15篇參考文獻(xiàn),代碼開源在GitLab上。
這不是一篇隨便糊弄的AI八股文。它有自己的假設(shè)、有實驗設(shè)計、有對照組、有統(tǒng)計檢驗、有代碼,論文的開頭還明確標(biāo)注了一行警告:“WARNING: This paper was generated by an automated research system.”(警告:本論文由自動化研究系統(tǒng)生成。)
![]()
論文寫完之后還過了一道“審稿”。FARS使用的是斯坦福大學(xué)開發(fā)的AI審稿系統(tǒng)(Stanford Agentic Reviewer)。這個AI審稿員給出了詳細(xì)的評審意見:肯定了研究的動機清晰、方法簡潔、實驗設(shè)計有對照組驗證了因果機制;同時也指出了不足:實驗規(guī)模偏小、缺少與更簡單替代方案(比如直接調(diào)低學(xué)習(xí)率)的對比、對超參數(shù)敏感性的討論不夠。最終打分:5.2/10,評價大致相當(dāng)于“weak accept”,有價值但還差點意思。
![]()
這個分?jǐn)?shù)高不高?說實話,不算高。但問題是,一個AI系統(tǒng)用平均2個多小時自動完成的論文,拿到了一個5分出頭的審稿意見,很多初次投稿的碩士生,花幾個月寫的論文,可能也就這水平。
![]()
FARS還有另一面,它也會失敗。
在FARS的論文庫里,有一篇研究對象是機器人控制AI的思考過程。現(xiàn)在有一類叫VLA(視覺-語言-動作模型)的系統(tǒng),它看到攝像頭畫面、聽到語言指令后,再給出動作指令。有意思的是,新一代VLA不是一口氣給出答案,而是在內(nèi)部反復(fù)琢磨,像在草稿紙上不斷修改一樣,反復(fù)調(diào)整自己的中間狀態(tài),琢磨夠了才輸出最終動作。
問題來了:怎么判斷AI“琢磨夠了”?已有的方法是看輸出端:如果AI連續(xù)兩步給出的動作幾乎一樣,就認(rèn)為它想好了,可以停了。但FARS提出了一個更直覺的想法:與其盯著輸出看,不如直接看AI內(nèi)部“草稿紙”的變化。如果草稿紙上的內(nèi)容趨于穩(wěn)定,說明思考真的收斂了,這應(yīng)該是一個更可靠的判斷依據(jù)。
FARS為這個假設(shè)設(shè)計了完整的對照實驗方案,設(shè)置了嚴(yán)格的公平比較條件,還預(yù)設(shè)了一系列前提檢驗來確保實驗的有效性。但它同時也在論文里寫明了:這個假設(shè)可能是錯的,如果AI內(nèi)部的“草稿紙”變化并不遵循收斂規(guī)律,那這個方法就不會奏效。即便失敗了,這個否定結(jié)果本身也有價值,它說明收斂指標(biāo)的選擇并不是關(guān)鍵杠桿,研究者應(yīng)該把精力放在其他方面。
![]()
研究失敗,認(rèn)了
這種態(tài)度反而讓人覺得,這個系統(tǒng)比想象中更誠實。它不只展示成功的案例,也把不確定的、可能走不通的研究方向攤出來。在真正的科研里,大量假設(shè)最終都會被推翻,只不過人類科學(xué)家很少發(fā)表走不通的思路。FARS不挑結(jié)果,做完就如實報告。
03.博士生該緊張嗎
FARS不是唯一在做這件事兒的。
2024年,日本AI公司Sakana AI發(fā)布了“AI Scientist”系統(tǒng),號稱能自主完成從選題到成稿的全流程。同年年底,英國初創(chuàng)公司Intology推出了Zochi,也是類似的全自動科研系統(tǒng)。2025年,Sakana AI的升級版AI Scientist v2更進(jìn)一步,它產(chǎn)出的論文,已經(jīng)有被ICLR 2025 Workshop接收的案例。
這意味著,AI寫的論文,確實已經(jīng)通過了學(xué)術(shù)界的同行評審,雖然目前僅限于workshop級別。
順帶一提,在這一輪AI浪潮里,日本整體聲量不大,但Sakana AI例外。它是目前日本身價最高的AI公司之一,聯(lián)合創(chuàng)始人Llion Jones是那篇改變了整個AI行業(yè)的著名論文《Attention is All You Need》的八位作者之一。
![]()
Sakana AI 兩位創(chuàng)始人;David Ha(左)、Llion Jones(右)
但在這股熱潮之外,學(xué)術(shù)界對AI科學(xué)家的能力評估還相對冷靜。
2025年,西湖大學(xué)聯(lián)合國內(nèi)多所高校發(fā)表了一篇大規(guī)模綜述論文《How Far Are AI Scientists from Changing the World?》(AI科學(xué)家離改變世界有多遠(yuǎn)?),系統(tǒng)梳理了當(dāng)前所有主流AI科學(xué)家系統(tǒng)的研究進(jìn)展和短板。
![]()
標(biāo)題已經(jīng)比較直白了
這篇論文提出了一個能力框架,把AI科學(xué)家的成長分為四個層級:
1.知識獲取——能不能自己讀文獻(xiàn)、搜索和理解已有的研究?
2.想法生成——能不能提出新穎且可行的科學(xué)假設(shè)?
3.驗證與證偽——能不能設(shè)計實驗、寫代碼、分析結(jié)果來驗證假設(shè)?
4.進(jìn)化——能不能從反饋中學(xué)習(xí),持續(xù)提升自己的科研能力?
![]()
也可以看作是AI研究員的成長之路
目前,大多數(shù)AI科學(xué)家系統(tǒng)集中在前兩個層級,讀文獻(xiàn)和提想法。到了“驗證”這一關(guān),問題就來了。綜述團(tuán)隊用一個叫DeepReviewer的AI審稿模型,對5個主流AI科學(xué)家系統(tǒng)公開發(fā)表的28篇論文做了評估。結(jié)果不太好看:
- 評分最高的系統(tǒng),平均也只有4.63/10
- 100%的論文存在“實驗弱點”
- 96.4%存在“方法論不清或有缺陷”
- 89.3%存在“創(chuàng)新性存疑”
![]()
28篇文章里,發(fā)現(xiàn)AI還是有不少共性問題
換句話說,現(xiàn)在的AI科學(xué)家系統(tǒng),在“做實驗”這件事上還差得遠(yuǎn)。它們可以產(chǎn)出看起來完整的論文,但在實驗設(shè)計的嚴(yán)謹(jǐn)性、方法論的創(chuàng)新性和可復(fù)現(xiàn)性上,離真正的高水平科研還有相當(dāng)大的距離。
綜述還指出了幾個值得注意的問題:
第一,沖擊同行評審體系。如果AI系統(tǒng)可以大規(guī)模、低成本地生成論文,現(xiàn)有的學(xué)術(shù)審稿機制可能會被淹沒。審稿人已經(jīng)忙不過來了,再加上海量AI生成的投稿,整個學(xué)術(shù)評價體系可能會出問題。
第二,削弱科研訓(xùn)練。如果年輕學(xué)者從一開始就過度依賴AI來選題、設(shè)計實驗、寫論文,那么批判性思維、動手能力、對科學(xué)方法的直覺理解,這些需要長期訓(xùn)練才能獲得的能力,可能會被慢慢侵蝕。
第三,AI可能進(jìn)入不該進(jìn)入的領(lǐng)域。 一個不受約束的AI科學(xué)家系統(tǒng),理論上可以自主探索任何研究方向,包括那些涉及安全風(fēng)險的方向。
但趨勢是明確的。
就在這幾天,Analemma開始公開招募志愿審稿人,邀請人類研究者來評審FARS自動生成的論文。完成審稿的志愿者將被列為評審報告的作者,還能獲得產(chǎn)品積分和實體紀(jì)念品。反正我品出了這樣的味道:人類的角色正在從“寫論文的”變成“給AI批作業(yè)的”。
![]()
從2024年的“AI輔助人類寫論文”,再到現(xiàn)在FARS這種“AI做科研、AI審稿、人工二次審核”的模式,范式正在快速迭代。
我們今天討論“AI能不能做科研”,可能就像十年前討論“AI能不能下圍棋”。問題本身很快就會過時。真正的問題是,當(dāng)AI真的能做科研了,我們的學(xué)術(shù)體系、科研訓(xùn)練甚至科學(xué)倫理,準(zhǔn)備好了嗎?
FARS跑了417小時,寫了166篇論文。這些論文的質(zhì)量參差不齊,有的還不錯,有的很一般,有的甚至以失敗告終。但它做了一件以前沒人真正做到的事:讓AI從頭到尾獨立做科研,然后把所有過程攤在陽光下。所以不得不說,不管你是期待還是警惕,可能都需要接受這個現(xiàn)實:
它們才剛?cè)雽W(xué),它們的研究生涯才剛剛開始。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.