337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

反思預訓練中的再思考

0
分享至

反思預訓練中的再思考

Rethinking Reflection in Pre-Training

https://arxiv.org/pdf/2504.04022


摘要
語言模型對其自身推理過程進行反思的能力,為解決復雜問題提供了一項關鍵優勢。盡管近期研究大多聚焦于這種能力在強化學習階段如何發展,但我們的研究表明,它實際上在更早的階段——即模型的預訓練階段——就已開始顯現。為探究此現象,我們有意在思維鏈中引入錯誤,并測試模型是否能通過識別并修正這些錯誤,最終得出正確答案。通過追蹤模型在不同預訓練階段的表現,我們觀察到這種自我修正能力出現得較早,并隨著時間的推移穩步提升。例如,一個經過4萬億詞元預訓練的OLMo-2-7B模型,在我們設計的六項自我反思任務中均展現出了自我修正能力。


1 引言
反思能力增強了模型根據先前的推理調整其回答的能力,從而提高了輸出的準確性。近期研究指出,“諸如反思之類的行為……是模型與強化學習環境相互作用的結果” [DeepSeek-AI, 2025a]。要驗證此類論斷,需要在整個訓練階段對能力的發展進行全面的評估。在這項工作中,我們提出了一個詳盡的框架來衡量反思能力,并觀察到該現象在預訓練階段始終如一地出現。

利用現有的推理數據集來對反思能力進行基準測試一直頗具挑戰性 [Mondorf and Plank, 2024]。在這些任務中,反思行為往往很少見,并且每個模型都表現出不同的錯誤模式,從而產生獨特的反思行為表現 [Madaan et al., 2023, Liu et al., 2025]。我們通過區分情境性反思和自我反思來應對這一挑戰。在情境性反思設定中,模型審視由另一個來源(例如,另一個前沿模型)生成的推理鏈條。在自我反思設定中,模型則思考其自身的推理過程。我們通過衡量模型在遇到導致錯誤答案的混淆性推理時解決問題的能力,來校準模型的能力,并由此在整個預訓練過程中測量其反思能力。

圖2展示了一個部分預訓練的OLMo-2檢查點 [OLMo et al., 2025] 嘗試解決一項編程任務 [Gu et al., 2024] 的例子。在此案例中,模型被問及一個問題:確定導致Python函數f輸出為‘avdropj gsd ’的輸入是什么。在其首次嘗試中,這個擁有320億參數、經過4.8萬億詞元預訓練的模型,直接將輸出‘advdropj gsd ’重復作為了答案。當使用其錯誤的思考過程加上后綴“Wait,”進行提示后,模型能夠成功地進行自我反思,并生成:“我想我可能錯了……??的值應該是['gsd', 'avdropj']”。


通過程序化地引入包含算術擾動和邏輯不一致性等元素的錯誤思維鏈(CoT),我們能夠控制和擴展正確完成這些任務所需的反思程度。這種方法同時也保留了既定的CoT格式[Wei等人,2022]。此外,我們的算法方法允許通過改編現有的推理基準,以相對快速和經濟的方式創建這些數據集,從而得以在跨越多領域的范圍內全面研究模型的反思能力。我們構建的六個數據集涵蓋了數學、編程、邏輯推理和知識獲取等領域,旨在評估模型在情境性反思和自我反思兩方面的能力。1

在OLMo-2系列模型的不同預訓練檢查點上,使用我們六個多樣化數據集評估的結果表明,反思能力在各個領域中普遍存在。即使像“Wait,”[Muennighoff等人,2025]這樣簡單的觸發短語,也能使部分預訓練的模型始終如一地識別出引入的錯誤以及自身生成的錯誤。具體來說,240個數據集-檢查點配對中,有231個展示了至少一次情境性反思實例,240個中有154個展示了至少一次自我反思實例。隨著預訓練的深入,模型能夠糾正更多的對抗性示例,導致任務準確率與預訓練計算量對數之間的平均皮爾遜相關系數達到0.76。此外,隨著預訓練的推進,模型從先前錯誤推理中恢復的能力不斷增強,模型生成內容中顯式反思的頻率增加,并且顯式反思對從混淆性CoT中恢復的貢獻也越來越大。

本文的貢獻主要有三方面:
? 我們引入了一種系統性的方法,創建了涵蓋代碼、知識獲取、邏輯推理和數學領域的六個數據集,用以研究模型的反思能力。
? 我們證明了不同能力水平和訓練計算量的預訓練模型,能夠在廣泛領域內,通過使用簡單的插入語,激發反思能力以糾正先前不準確的推理。
? 我們觀察到,持續改進的預訓練能夠帶來更好的反思能力,使得解決相同數量任務所需的測試時詞元更少。

2 相關工作
評估大語言模型的推理能力自然語言系統的實際應用性取決于其推理能力 [Wos 等人,1992;Schuster 等人,2019;Mondorf 和 Plank,2024]。大語言模型結合諸如思維鏈 [Wei 等人,2022]、思維樹 [Yao 等人,2023] 和自洽性 [Wang 等人,2023b] 等提示技術,已被成功用于解決各種推理任務 [Kojima 等人,2022;Bubeck 等人,2023]。推理能力通常通過觀察模型輸出 [Fu 等人,2023a;Liu 等人,2023]、分析生成軌跡 [Saparov 和 He,2023;Dziri 等人,2023;Willig 等人,2022] 以及交互式參與 [Zhuang 等人,2024;Wang 等人,2023a;Bertolazzi 等人,2023] 來衡量。先前的研究還通過對模型內部網絡進行參數歸因,通過研究注意力模式 [Hou 等人,2023]、激活流 [Dutta 等人,2024] 和各個層 [Pirozelli 等人,2024] 來識別推理特征。這些方法主要用于評估訓練后模型,而我們的興趣在于診斷技術,以在整個訓練階段引發推理,其精神類似于通過參數和訓練數據規模來研究模型性能 [Kaplan 等人,2020]。在這項工作中,我們通過對抗性數據集評估反思能力的涌現來研究推理。這些數據集要求模型通過推理多步提示(其中包含細微錯誤)來成功完成任務。

對大語言模型的對抗性攻擊長期以來,對抗性輸入一直被用來揭示神經網絡的脆弱性 [Szegedy 等人,2014;Biggio 等人,2013;Huang 等人,2017]。最近,類似的技術已被應用于大語言模型,證明了它們易受精心設計的提示的攻擊 [Schwinn 等人,2023]。這些攻擊已成功針對模型的政策對齊 [Deng 等人,2022;Wei 等人,2023]、安全性 [Schuster 等人,2020;Carlini 等人,2021;Kang 等人,2024] 和魯棒性 [Zou 等人,2023;Shen 等人,2024;Xu 等人,2024],突顯了巨大的漏洞。已有幾種方法提出使用對抗性訓練來改進模型對此類攻擊的防御 [Zhu 等人,2019;Jiang 等人,2020;

Xhonneux 等人,2024]。然而,我們工作的主要目的不是展示模型對對抗性攻擊的脆弱性,而是強調如何利用此類數據集來持續且全面地評估其推理能力。我們通過引入思維鏈 [Kojima 等人,2022] 來實現這一點,其中步驟 [Lightman 等人,2023] 大部分正確,但包含需要反思的錯誤 [Lightman 等人,2023;Fu 等人,2023b]。

訓練時與測試時的權衡在先進推理模型中,例如 OpenAI 的 o1 [OpenAI, 2024b] 和 DeepSeek-R1 [DeepSeek-AI, 2025a],對測試時計算的依賴日益增加,這重新引發了關于計算資源最優分配的討論 [Kaplan 等人,2020;Hoffmann 等人,2022]。先前的工作研究了訓練時計算與測試時計算之間的權衡 [Snell 等人,2024],以及監督微調 [Li 等人,2025;Chen 等人,2025] 和強化學習 [DeepSeek-AI, 2025a;Wang 等人,2024] 等訓練后技術對推理性能的影響 [Liu 等人,2025]。推理時范式——如樹搜索 [Yao 等人,2023]、思維鏈提示 [Wei 等人,2022] 和預算強制 [Muennighoff 等人,2025]——與模型的預訓練表示相互作用 [Yeo 等人,2025;Ruis 等人,2025;Gandhi 等人,2025]。然而,在我們的工作中,我們提供了一個互補的視角,證明某些推理能力可以在預訓練階段本身逐漸涌現,即使在沒有微調、強化學習或專門的測試時推理技術的情況下也是如此。我們的發現表明,推理的關鍵方面可以僅通過預訓練來灌輸,這可能會改變訓練和推理過程中計算最優使用的考量。

3 方法
我們的目標是全面且大規模地衡量反思能力。為此,我們首先給出反思的定義(3.1),然后通過程序化方式創建任務來引發反思(3.2),并最終嚴謹地衡量反思的存在(3.3)。

3.1 定義反思
反思是元認知的一種形式,涉及審視信息、評估其背后的推理,并基于該評估調整后續行為。在語言模型的語境中,此過程可應用于源自外部或由模型自身生成的信息。在本工作中,我們創設了兩種情境來引發和衡量反思:

  • 情境性反思:指模型對由另一來源(如另一個模型)創建的信息進行反思。

  • 自我反思:指模型對其自身生成的輸出進行反思。
    我們還通過兩種形式來全面描述反思的特征:

  • 顯式反思:指模型生成的詞元在語義上識別并處理了對抗性語境中的錯誤。顯式反思可能出現在正確的模型輸出中(即,那些對我們對抗性任務給出正確答案的輸出),也可能出現在錯誤的模型輸出中。

  • 隱式反思:指模型在處理對抗性語境時,能夠正確解決任務,但并未生成明確識別先前推理中存在錯誤的詞元。根據我們的定義,這意味著隱式反思的結果不可能是對我們對抗性任務的錯誤答案。這使我們能夠區分以下兩種情況:一種是未出現顯式反思但可推斷發生了隱式反思的情況;另一種則是根本未發生任何反思的情況。

3.2 使用對抗性反思數據集引發反思
我們提出了一種算法,用于生成能夠引發語言模型反思行為的對抗性數據集。該算法創建會導致錯誤解決方案的對抗性思維鏈(CoT)。與自我反思(我們可以利用模型自身的錯誤)不同,對于情境性反思,我們必須設計人工的對抗性CoT。在高層面上,這些對抗性CoT是通過以模仿人類推理錯誤(如邏輯失誤和算術計算錯誤)的方式破壞正確的CoT而創建的。在這兩種情況下,當我們在上下文中提供這些CoT時,模型必須反思其中的錯誤并加以修正,才能得出正確的解決方案。我們相信,這些設定對于全面研究反思能力是必要的。
任務設計包括附加一個觸發詞元,例如“Wait,”,以促進在整個任務解決過程中進行持續的推理。
該算法有兩個變體。算法1和算法2分別用于創建情境性反思數據集和自我反思數據集。


3.3 衡量反思
我們基于先前對反思的分類(見3.1),提出了一種使用對抗性數據集來自動衡量模型反思能力的方法:

  • 衡量顯式反思:為了識別顯式反思的實例,我們開發了一個基于提示的大語言模型分類器。該分類器用于檢測模型的輸出是否在給定的對抗性語境中明確承認并處理了錯誤,無論模型最終是否得出了正確答案。該分類器將在下文4.3節中描述。

  • 衡量隱式反思:我們規定,在存在對抗性語境的情況下,所有導致正確答案的模型生成內容都可歸因于反思,即使輸出中沒有生成任何與反思相關的詞元。我們認為,這符合描述人類元認知時對“反思”的日常理解。我們這種方法的一個含義是,根據設計,那些產生了正確答案但未被顯式分類器識別出的生成內容,將被歸類為隱式反思的實例。

關于我們使用的具體反思指標的更多細節,請參見第4.3節。

4 實驗設置
為了全面研究反思能力,我們評估了涵蓋不同計算預算的部分預訓練模型,這些模型在參數量和訓練詞元數量上均有變化(4.1)。
我們的研究包括兩種類型的對抗性任務(4.2):(1) 情境性反思,其中對抗性思維鏈是使用前沿模型從現有數據集中系統生成的;(2) 自我反思,其中對抗性思維鏈源自模型自身對原始任務實例的先前錯誤回答。
我們的評估還檢驗了模型輸出是否展現出顯式的反思性推理(4.3)。
我們在第4.4節詳細說明了我們的基礎設施設置。

4.1 模型系列

  • OLMo-2
    OLMo-2 [OLMo 等人,2025] 是一個完全開源、開放權重的大語言模型項目,提供了7B、13B和32B參數變體的訓練檢查點。我們總共評估了40個檢查點(詳情見附錄B)。我們力求選擇間隔均勻的檢查點,并在無法獲得時使用最接近的替代檢查點。

Qwen2.5
我們評估了Qwen2.5的0.5B、3B、7B、14B、32B和72B參數變體 [Qwen 等人,2025]。詳情見附錄B。

4.2 數據集
我們在廣泛的任務集上評估反思現象,基于BIG-Bench Hard (BBH) [bench authors, 2023]、CruxEval [Gu 等人,2024]、GSM8K [Cobbe 等人,2021]、GSM8K-Platinum [Vendrow 等人,2025] 和 TriviaQA [Joshi 等人,2017] 創建了六個對抗性數據集。我們的對抗性數據集概覽見表1和表2。
我們在流程中利用DeepSeek-V3(簡稱DS-V3)[DeepSeek-AI, 2025b]、GPT-4o2 [OpenAI, 2024a] 和 SentenceTransformers [Reimers and Gurevych, 2020] 模型,以及多次自動檢查和人工審核,以確保我們數據集的質量和魯棒性。

  • 情境性反思數據集:這些數據集的創建涉及一個多步驟流程,我們會提示大語言模型創建對抗性思維鏈(另見算法1)。對于推理任務,原始任務可能已將思維鏈作為數據集工件包含在內;如果沒有,我們使用前沿模型(如GPT-4o或DS-V3)創建它們。隨后,通過引入會導致錯誤答案的故意錯誤,利用正確的思維鏈來開發對抗性思維鏈。此外,最后還會進行檢查,以確保思維鏈不會透露其誤導意圖。這些流程和提示都經過精心設計以最小化錯誤,并且是針對特定數據集的,但整體框架可以推廣到任何領域和數據集。

  • 自我反思數據集:這些數據集是通過執行我們想要評估的大語言模型在基礎任務上的表現,并收集模型未能答對的問題所對應的思維鏈來創建的(另見算法2)。由于我們對模型隨著預訓練進程的反思能力感興趣,在自我反思數據集中,我們只保留每個參數規模下所有檢查點都回答錯誤的問題,以確保在預訓練檢查點之間進行一致的比較。

關于我們特定于數據集的流程、檢查和過濾器的詳細說明,請參見附錄F。


4.3 Evaluation 評估

指標
如表3所示,對于情境性反思和自我反思兩種設定,準確率是指模型正確解決的任務實例所占的比例。獨立于準確率,我們利用顯式反思分類器來衡量顯式反思率,即模型輸出展現顯式反思(無論正確與否)的任務實例所占的比例。我們還報告了顯式反思準確率,即模型既正確解決又展現了顯式反思的任務實例所占的比例。最后,隱式反思準確率是指模型輸出正確但未展現顯式反思的任務實例所占的比例。關于每個數據集準確率指標的詳細信息,請參見附錄H。


此外,對于每個數據點,我們將預訓練計算量報告為 6nt,其中 n 和 t 分別是參數量和訓練詞元數量。關于我們訓練時和測試時計算量公式的更多細節,請參見第5.4節。

顯式反思分類器
我們開發了一個基于提示的分類器,用于判斷模型輸出是否展現了顯式反思。我們向 DeepSeek-V3 [DeepSeek-AI, 2025b] 提供“反思”的含義描述以及兩到四個顯式反思示例作為提示。該分類器旨在檢測的顯式反思短語示例見表5。我們根據 GSM8K、cruxeval-o 和 TriviaQA 上的人工標注黃金標簽(每個基準120個問題;標注過程詳見附錄G)對分類器進行了驗證。盡管我們的分類器召回率較低(見表4),但其精確度足夠高,足以驗證其有效性。在最壞的情況下,我們會少報反思行為,但在報告時會更有信心。

4.4 基礎設施
我們的實驗設置使用 vLLM 推理框架 [Kwon 等人,2023] 來托管 OLMo-2 和 Qwen 模型。我們使用 SGLang [Zheng 等人,2024] 托管 DeepSeek-V3。我們使用一個由 AMD MI300x 加速器組成的集群,并通過 Kubernetes 將任務調度到該集群中。

5 結果

為了全面衡量跨領域的反思性推理,我們的分類器在情境性反思(5.1)和自我反思(5.3)設定中,分別針對BBH、cruxeval-i、cruxeval-o、GSM8K、GSM8K-Platinum和TriviaQA數據集,區分了顯式反思和隱式反思。令我們驚訝的是,我們發現了反思能力的強烈存在,并且這種能力隨著訓練計算量的增加而增強。此外,隨著預訓練的推進,模型從混淆因素中恢復的能力不斷增強,顯式反思的頻率增加,并且顯式反思對從混淆因素中恢復的貢獻也越來越大(示例見表5)。這些結果突顯了預訓練在發展反思能力中的作用。


5.1顯性情境反射在所有模型中都很突出

從表6可以看出,令人鼓舞的是,除了cruxeval-i任務之外,對于所有其他任務,每一個OLMo-2預訓練檢查點都顯示出能夠通過隱式或顯式方式從情境性混淆因素中恢復的跡象?。這使得240個數據集-檢查點配對中,有231個展示了至少一次情境性反思實例。然而,為了證實我們的假設,即模型逐步發展并運用顯式反思,大多數恢復情況應歸因于顯式情境性反思。本質上,我們期望隨著預訓練計算量的增加,觀察到以下現象的頻率增加:(a) 從情境性混淆因素中恢復,(b) 對情境性混淆因素進行顯式反思,以及 (c) 通過顯式反思從情境性混淆因素中恢復。


各項指標與預訓練計算量對數之間的高度正皮爾遜相關性 [Cohen 等人,2009] 證實了 (a)、(b) 和 (c) 點。我們還觀察到隱式反思準確率與預訓練計算量對數之間的相關性普遍較低。總之,這些結果強調,隨著預訓練的增加,模型傾向于成功解決更多的對抗性實例,并在此過程中日益傾向于使用顯式反思。例如,GSM8K-Platinum 在圖3中顯示,隨著預訓練的深入,不同參數規模的模型通過顯式反思錯誤解決了大部分任務實例。TriviaQA 是一個例外,其顯著改進可歸因于隱式反思,這是因為該任務主要衡量知識獲取,其中許多實例可以在沒有顯式推理的情況下解決。所有六項任務的詳細結果見附錄C。


5.2 無觸發詞時模型也能反思;‘Wait,’增強顯式性和準確性

為了理解“Wait,”觸發詞的因果作用,我們研究了在GSM8K-Platinum任務上,使用兩個極端觸發詞設置時的模型表現。具體來說,我們研究了無觸發詞( A )和帶有包含明確承認“Wait, I made a mistake”(等等,我犯了個錯)的觸發詞( B )時的模型表現。我們選擇 A 作為一種將對抗性思維鏈中錯誤的注意力降至最低的模式。相比之下,我們選擇 B 作為一種強調思維鏈中存在錯誤的模式。圖4繪制了這些結果。


這些結果首先證實了我們的假設:即使沒有觸發詞,隨著預訓練的推進,模型也能越來越成功地從情境性混淆因素中恢復。上文5.1節結果中“Wait,”的作用在此處得到進一步闡明。我們看到模型在此任務上的表現受限于 A 和 B 這兩個極端情況。在情景 A 中,模型通過隱式反思來提高準確率;在情景 B 中,模型則通過設計進行顯式反思,從而大幅提升性能。帶有“Wait,”的設置,在隱式反思時表現類似 A ,在顯式反思時表現類似 B 。有趣的是,如圖4所示,其性能可以分解為:


此外,我們看到性能的顯著提升可歸因于“Wait,”觸發詞。這是因為該觸發詞能以隨預訓練增加的比例引發顯式反思,并且能達到相應的由 B 觸發的模型所實現的性能——如上所述,我們選擇 B 作為一種強調思維鏈中存在錯誤的模式。換句話說,當模型在帶有“Wait,”的對抗性思維鏈條件下展現出顯式反思時,其表現與模型被明確告知思維鏈包含錯誤時的表現相當。相反,當模型在帶有“Wait,”的對抗性思維鏈條件下但未展現出顯式反思時,其表現則與模型僅基于對抗性思維鏈的模式一致。這確立了“Wait,”通過引發顯式反思來提高準確率的因果聯系。

5.3 顯式自我反思更難,但隨著計算量增加而進步

初看之下,表7中自我反思的稀少可能被視為一個負面結果。然而,這可以通過以下事實解釋:在此設定中,模型被評估的任務實例都是它們之前回答錯誤的——因此,根據設計,這些任務特別困難(見附錄F第2點)。盡管如此,在大約64.2%的任務嘗試中,模型確實展現了至少一定的自我修正能力。

為了區分自我反思和自我修正,我們在圖5中繪制了模型生成的反思率(與任務是否解決無關)。這些結果表明一個強勁趨勢:隨著預訓練的推進,模型在明確指出的自身錯誤方面變得更好。對于cruxeval-i,我們注意到隨著預訓練的增加,模型傾向于學會自我修正。然而,它們能夠進行自我反思的時間要早得多。這表明在自我修正能力形成之前,自我反思能力有一個自然的發展過程。


這些自我反思的萌芽如何通過訓練后階段演變為復雜的自主推理能力,是一個有待未來工作探討的開放性問題。我們假設,必須存在一個預訓練自我反思能力的臨界閾值,超過該閾值,模型發展成測試時推理器的可能性將非常高。令我們驚訝的是,從有機的網絡數據集 [Li 等人,2024] 中學習時,我們竟然觀察到了如此程度的顯式自我反思。精準定位在預訓練期間促進顯式自我反思的數據分布,是我們工作后續自然的下一步。所有六項任務的詳細結果見附錄D。

5.4 訓練時計算與測試時計算可以相互權衡
我們研究了增加訓練時計算的投入與在測試時達到下游任務可比準確率所需相應開銷之間的權衡關系。我們通過以下方式估算:訓練時計算量估算為 6nt,其中 n 和 t 分別是參數量和訓練詞元數量;測試時計算量估算為 2nw,其中 w 表示為解決一定數量的對抗性問題而生成的詞元數量?。

我們首先指定一組需要正確回答的對抗性問題的目標數量。然后,為每個目標繪制一條曲線。我們針對之前介紹的 GSM8K-Platinum 對抗性數據集進行此項研究。我們采用一種順序的測試時擴展方法,即在模型生成內容后附加觸發詞“Wait,”。實際上,我們引入了兩個“Wait,”觸發詞,以使較弱的模型能夠達到與較強模型相同的指標水平。這模仿了 [Muennighoff 等人,2025] 中順序擴展測試時計算的方法。

如圖6所示,隨著 OLMo-2-32B 檢查點的訓練時計算量增加,測試時計算需求減少。這一結果進一步支持了我們的假設,即隨著預訓練的推進,模型的反思能力變得更強,這意味著在達到給定準確率水平時所需的測試時計算量更少。


5.5 在更強的模型系列中是否能觀察到類似結果?
為了研究這些現象在不同模型系列中的表現,我們在圖7中報告了Qwen2.5在我們對抗性任務上的結果。與我們針對OLMo-2的結果一致,我們發現隨著預訓練計算量的增加——在此情況下即參數數量的增加——模型在對抗性任務上的表現持續提升。這再次證明,僅憑預訓練計算量的增加,模型就能在面對先前推理中的錯誤時,日益有效地解決任務。


6 結論
本研究旨在解答“反思性推理在預訓練期間是如何發展的?”這一問題,這與普遍認為反思能力是在訓練后通過強化學習涌現的觀點形成對比。我們提出并實施了一個全面的框架,用以在整個預訓練階段衡量反思能力。通過我們構建的對抗性數據集,無論是在情境性反思還是自我反思設定下,我們都能夠廣泛地校準這些能力。我們發現,僅使用極少訓練計算量(例如,使用1980億詞元訓練的OLMo-2-7B)的模型,也能在數學、代碼、語言理解和邏輯推理領域展現出反思能力。此外,隨著投入預訓練的計算量增加,這些能力會進一步增強。

原文:https://arxiv.org/pdf/2504.04022

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
少林寺住持釋永信行賄的是誰?

少林寺住持釋永信行賄的是誰?

不主流講話
2026-03-20 18:43:11
醫保新規4月1日執行,1965-1985年人群注意,6項操作越早辦越好!

醫保新規4月1日執行,1965-1985年人群注意,6項操作越早辦越好!

另子維愛讀史
2026-03-20 22:25:31
四千名猶太人定居河南千年,為啥至今養不熟,排隊要回以色列

四千名猶太人定居河南千年,為啥至今養不熟,排隊要回以色列

瘋狂的小歷史
2026-03-21 11:08:01
何時結束戰爭?內塔尼亞胡表態!

何時結束戰爭?內塔尼亞胡表態!

占豪
2026-03-21 01:58:32
無視特朗普警告!伊朗處決19歲摔跤冠軍 奧運冠軍怒斥:令人發指

無視特朗普警告!伊朗處決19歲摔跤冠軍 奧運冠軍怒斥:令人發指

念洲
2026-03-21 13:36:19
成品油價即將迎來“五連漲”,下周一加滿一箱油可能將多花80元,周末記得加滿油

成品油價即將迎來“五連漲”,下周一加滿一箱油可能將多花80元,周末記得加滿油

揚子晚報
2026-03-21 07:37:10
高市早苗的一張照片引爆日本全網:女首相的外交已淪為全民笑柄!

高市早苗的一張照片引爆日本全網:女首相的外交已淪為全民笑柄!

行者聊官
2026-03-21 14:38:25
爽,公司全員裁撤,就地解散!

爽,公司全員裁撤,就地解散!

黯泉
2026-03-21 12:20:16
挨了伊朗的打,卻不敢吭聲:海灣國家詭異沉默的玄機!

挨了伊朗的打,卻不敢吭聲:海灣國家詭異沉默的玄機!

識局Insight
2026-03-20 21:05:47
“梅姨”被抓前曾多次誤傳其落網,同伙說她平時說媒,背地里販賣小孩

“梅姨”被抓前曾多次誤傳其落網,同伙說她平時說媒,背地里販賣小孩

極目新聞
2026-03-21 13:38:41
張康陽現狀證明,不怕富二代躺平就怕有野心,僅5年千億身價歸零

張康陽現狀證明,不怕富二代躺平就怕有野心,僅5年千億身價歸零

青杉依舊啊啊
2026-03-19 22:10:26
游資大佬集體投降!量化交易危害有多大??

游資大佬集體投降!量化交易危害有多大??

牲產隊
2026-03-21 12:14:17
美媒:抱歉了殲-20與殲-35A,F-22和F-35將繼續主宰天空

美媒:抱歉了殲-20與殲-35A,F-22和F-35將繼續主宰天空

零度Military
2026-03-21 07:00:05
昨晚2家公司被立案調查,2家公司的股票被st,9萬集體股東踩雷

昨晚2家公司被立案調查,2家公司的股票被st,9萬集體股東踩雷

財經智多星
2026-03-21 08:16:47
“梅姨”落網!系張維平等人拐賣兒童案關鍵人物,被拐兒童家長:我一直堅信她真實存在

“梅姨”落網!系張維平等人拐賣兒童案關鍵人物,被拐兒童家長:我一直堅信她真實存在

瀟湘晨報
2026-03-21 12:29:14
“梅姨”落網,她參與拐賣的9個孩子已找到、曾被質疑是否真有其人

“梅姨”落網,她參與拐賣的9個孩子已找到、曾被質疑是否真有其人

澎湃新聞
2026-03-21 13:44:26
突然傳出巨響!沒用也沒碰 怎么就炸了?你的這個物品要留意……

突然傳出巨響!沒用也沒碰 怎么就炸了?你的這個物品要留意……

極目新聞
2026-03-21 15:37:02
遼寧鐵人中超處子球!姆本扎兩連擊,全隊瘋狂慶祝,津門虎仍0球

遼寧鐵人中超處子球!姆本扎兩連擊,全隊瘋狂慶祝,津門虎仍0球

奧拜爾
2026-03-21 16:06:51
“神探”林宇輝稱模擬畫像與梅姨本人相似度達90%,曾多次更新是考慮其年齡增長

“神探”林宇輝稱模擬畫像與梅姨本人相似度達90%,曾多次更新是考慮其年齡增長

瀟湘晨報
2026-03-21 14:38:09
勁報!伊朗又一高官遭斬首,川普痛罵北約盟友是“懦夫”

勁報!伊朗又一高官遭斬首,川普痛罵北約盟友是“懦夫”

史政先鋒
2026-03-21 14:41:41
2026-03-21 16:48:49
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1290文章數 18關注度
往期回顧 全部

教育要聞

忻州市2026年初中學業水平考試(中考)報名工作問題解答

頭條要聞

伊朗發射3800公里射程的導彈 最令美軍戰栗的細節披露

頭條要聞

伊朗發射3800公里射程的導彈 最令美軍戰栗的細節披露

體育要聞

誰在決定字母哥未來?

娛樂要聞

CMG盛典獲獎名單:章子怡高葉同獲影后

財經要聞

通脹警報拉響,加息潮要來了?

科技要聞

宇樹招股書拆解,人形機器人出貨量第一!

汽車要聞

小鵬汽車2025年Q4盈利凈賺3.8億 全年營收767億

態度原創

健康
本地
家居
公開課
軍事航空

轉頭就暈的耳石癥,能開車上班嗎?

本地新聞

春色滿城關不住|紹興春日頂流,這片櫻花海藏不住了

家居要聞

時空交織 空間綺夢

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

特朗普:正考慮逐步降級對伊朗的軍事行動

無障礙瀏覽 進入關懷版