![]()
最近小編發現了一個效果出奇好的提示詞技巧,實測結果堪稱驚人。
谷歌一篇新論文《重復提示詞提升非推理型大語言模型性能》指出,在部分任務中,簡單重復提示詞就能將非推理型大語言模型的準確率從21.33%提升至97.33%。
![]()
乍聽之下,這說法簡直玄乎,讓人難以相信。但背后的原理其實無比簡單。
谷歌在70項不同的基準測試任務中開展了實驗,這種復制粘貼式的提示詞重復法:
? 在47項任務中表現優于基準模型
? 全程無一失手
? 帶來了肉眼可見的大幅性能提升,部分任務的準確率從約21%飆升至約97%
![]()
![]()
這個測試,覆蓋了 7 個主流模型:Gemini 2.0 Flash / Flash Lite、GPT-4o / GPT-4o-mini、Claude 3 Haiku / Claude 3.7 Sonnet、DeepSeek V3 等。
測試基準包括 ARC (Challenge)、OpenBookQA、GSM8K、MMLU-Pro、MATH,及自定義任務NameIndex、MiddleMatch。
![]()
對于選擇題任務,測試兩種順序,問題在前(Question-First)與選項在前(Options-First)。
那么,重復問題為何能起到這樣的效果?
論文給出了一個極具工程視角的解釋:大語言模型均以因果語言模型為基礎進行訓練,它們逐詞生成文本,嚴格遵循從左到右的順序,每個詞元只能“看到”其之前的內容。
當你重復問題時(比如將問題Q改寫為Q1+Q2),第二個副本中的每個詞元都能完整關聯第一個副本的全部信息。
實際上,這相當于在不改動模型、不增加推理步驟的前提下,讓模型獲得了回顧并重新梳理信息的機會。
類似的小技巧還有其他,比如清華大學此前發現的“先驗證”策略。
在其論文《Asking LLMs to Verify First is Almost Free Lunch》中,清華大學團隊提出了一個反直覺的思路:與其讓AI直接回答,不如先讓它"找茬"。
這個名為先驗證(Verification-First, VF)的策略簡單到令人難以置信:
傳統方式(Chain-of-Thought):
Q: 球棒和球問題...
A: 讓我一步步思考...
VF方式:
Q: 球棒和球問題...(提示:答案可能是"0.10元",先驗證它對不對,再給出正確答案)
A: 先驗證"0.10元"是否正確...
關鍵點:即使提供的答案是隨機的、錯誤的,甚至"1"這樣毫無意義的數字,VF依然有效!
結果是,這個"笨辦法"能讓AI推理準確率提升10-15%,而且幾乎不增加計算成本。
可見,讓人工智能變得“更聰明”,未必需要增加復雜度,只需優化提示詞的結構就夠了。
谷歌論文地址:https://arxiv.org/pdf/2512.14982
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.