337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

10分鐘搞懂AI名詞:這次,終于能看懂AI新聞了丨圖文

0
分享至


最近這兩年,我們每天早上都被各種AI新聞“引爆!”,看各家 “突發(fā)!”“AI 神器”和“神秘項(xiàng)目”……

只見它們紛紛“火力全開!”“刷爆記錄!”,“迅猛爆發(fā)!”,讓我們天天“狂喜!”,然后一邊“見證歷史!”

一邊點(diǎn)開新聞,心里暗暗思量:字我都認(rèn)識(shí),但你們到底在說什么???


各家博主的文章里都堆滿了不明覺厲的專業(yè)名詞,讓我們自慚形穢,一臉懵逼,只好鬼鬼祟祟地掏出AI,問問這些名詞到底是啥?

但由于缺乏配套的知識(shí)體系,往往問了也似懂非懂,下次看到又不知道在說什么了~

如果你也有類似感受,又想在這些一驚一乍的新聞里學(xué)點(diǎn)正經(jīng)知識(shí),那在這期視頻里,我們會(huì)跟你一起在頭腦中建立這樣一個(gè)關(guān)于大模型的基本框架:它包含大模型工作時(shí)的運(yùn)作流程,以及大模型訓(xùn)練時(shí)預(yù)訓(xùn)練,后訓(xùn)練,強(qiáng)化學(xué)習(xí)的基本流程。


在講述這個(gè)框架的同時(shí),我們會(huì)介紹每個(gè)環(huán)節(jié)中涉及到的常見概念。這樣在看完之后,不光能搞清這些名詞的含義,還能知道一些關(guān)于大模型的基礎(chǔ)知識(shí),比如一些不正經(jīng)的大模型,到底是怎么練出來的?AI 究竟是復(fù)讀機(jī),還是有靈魂等等~

視頻

↓↓ 看完這個(gè)視頻就懂了 ↓↓

↑↑ 信我,真的能看懂 ↑↑

圖文版

你手機(jī)上的 Deepseek、豆包、ChatGPT、Gemini......本質(zhì)上都是“大語言模型”,LLM。我們會(huì)把它們當(dāng)成一個(gè)個(gè)大腦,跟它對(duì)話。

當(dāng)你找它聊天時(shí),你的話就是Prompt,提示詞。它們會(huì)被“分詞器”,切分成這樣的一個(gè)個(gè)Token(詞元)。

Token 是大模型理解內(nèi)容的最小單元。每個(gè) Token 都對(duì)應(yīng)著一個(gè)數(shù)字,叫Token ID。

大模型的任務(wù),就是算出在這串 token 序列后,應(yīng)當(dāng)續(xù)寫哪些 token。


為了完成這個(gè)任務(wù),大模型們普遍采用了Transformer架構(gòu),它采用了“自注意力機(jī)制”,能很好地捕捉上下文之間的關(guān)聯(lián)。

在計(jì)算的時(shí)候,大模型會(huì)一個(gè) token 一個(gè) token 地算。每次計(jì)算,它都會(huì)把新生成的 token,加入到原有的 token 序列,再投入進(jìn)模型中,算出下一個(gè) token。再把它加入 token 串,再投入大模型,再算出下一個(gè) token.....如此循環(huán)往復(fù),大模型就會(huì)輸出一個(gè)長(zhǎng)長(zhǎng)長(zhǎng)長(zhǎng)的回答——所以說大模型計(jì)算的本質(zhì),就是在不斷地“續(xù)寫”token 串。


在使用大模型的時(shí)候,你可能會(huì)開“聯(lián)網(wǎng)搜索”,也有一些教程會(huì)教你外掛一個(gè)私人知識(shí)庫。這其實(shí)都是在利用 RAG 功能,“檢索增強(qiáng)生成”:也就是先把從互聯(lián)網(wǎng),或者知識(shí)庫里抓取到的內(nèi)容,加入到 token 串里,再開始計(jì)算、續(xù)寫。這樣可以提高輸出的準(zhǔn)確度。

這一串過程,就是大模型在工作時(shí)的基礎(chǔ)流程。


我們說大模型是在“計(jì)算”結(jié)果,是因?yàn)樗膬?nèi)部真的要調(diào)動(dòng)許多許多復(fù)雜的數(shù)學(xué)表達(dá)式,這里面就有很多可以調(diào)整的“參數(shù)”。

很多人都認(rèn)為,模型參數(shù)越多,規(guī)模越大,算力越高,表現(xiàn)就越好——洋氣的說法叫 Scaling Law,樸實(shí)的說法叫“大力出奇跡”~

很多大模型的名稱后都會(huì)直接標(biāo)注參數(shù)大小,這里 B 代表 Billion,十億。


GPT3 剛發(fā)布的時(shí)候,大家都震驚它居然有高達(dá) 1750 億個(gè)參數(shù);

現(xiàn)在滿血版的 Deepseek R1 ,已經(jīng)有 6710 億的參數(shù);一些廠商都開始卷萬億參數(shù)的大模型了。


你可以想象,如果你跟它說句 Hello,都要調(diào)動(dòng)如此之多的參數(shù),那未免內(nèi)心戲太豐富了。不過很多模型都是這么干的,它們叫“稠密模型”(Dense Model),每次都愛的轟轟烈烈,全情投入,計(jì)算量大。

但當(dāng)你問 Deepseek 一個(gè)問題時(shí),它并不會(huì)調(diào)動(dòng)所有的參數(shù),而是只激活其中跟問題相關(guān)的一部分參數(shù)。這叫做“稀疏模型”,比較冷靜,能降低計(jì)算量,提升速度。

目前稀疏模型中最流行的一種叫MoE ,“混合專家模型”。馬斯克的 Grok,還有 Deepseek 等,都是 MoE 模型。它們通過“門控網(wǎng)絡(luò)”(gating network),給每個(gè)問題分配合適的“專家”,賦予它們不同的權(quán)重,再生成結(jié)果。


但不管怎么說,每一個(gè)大模型里的參數(shù)量,都遠(yuǎn)遠(yuǎn)、遠(yuǎn)遠(yuǎn)、遠(yuǎn)遠(yuǎn)地超出了手動(dòng)設(shè)定的范圍。怎么才能把它們調(diào)整得恰到好處,做出一顆能說會(huì)道的大腦呢?

從這里開始,我們就要進(jìn)入這個(gè)框架的縱軸:也就是如何通過預(yù)訓(xùn)練、后訓(xùn)練,最終制作出一個(gè)大模型了。放心,你一定能看懂——畢竟我也水平有限,能講給你聽的一定是大家都能理解的。


大模型的制造的第一步,是利用海量的互聯(lián)網(wǎng)數(shù)據(jù),做Pre-training,“預(yù)訓(xùn)練”

這是為了讓大模型掌握人類世界的各種知識(shí)和語言規(guī)律,打造出一個(gè)“基座模型”。

過程很簡(jiǎn)單:就是讓它爬遍互聯(lián)網(wǎng),把各位夙興夜寐辛苦創(chuàng)作的,飽含人類智慧的知識(shí)精華作為數(shù)據(jù)集,認(rèn)真學(xué)習(xí)~

并通過一種叫“反向傳播”的方法,讓大模型自己調(diào)整參數(shù)。這是什么意思呢?

你看,當(dāng)我們把這串 token 輸入到模型時(shí),模型里會(huì)經(jīng)過一頓計(jì)算,輸出一個(gè)結(jié)果,這叫“前向傳播”。


但初始的預(yù)測(cè)結(jié)果往往不盡人意:

我們訓(xùn)練的目標(biāo)是讓大模型輸出“棗樹”,那就要把錯(cuò)誤回答跟目標(biāo)對(duì)比,看看差了多少。這一步就是計(jì)算“損失”(loss)。

通過計(jì)算損失,模型可以反向找到在整個(gè)傳播過程中,到底是哪些步驟出了問題,然后調(diào)整它們對(duì)應(yīng)的參數(shù)。如此循環(huán)往復(fù),逐步調(diào)整,直到輸出結(jié)果逼近目標(biāo)。

這就是“反向傳播”。


由于在預(yù)訓(xùn)練的時(shí)候,大模型要學(xué)習(xí)的內(nèi)容太多,數(shù)據(jù)集很大,靠人力梳理根本干不過來。所以目前預(yù)訓(xùn)練主要都用“自監(jiān)督學(xué)習(xí)”——就是人類躺平了,讓大模型自己去看數(shù)據(jù)、計(jì)算損失、調(diào)整參數(shù),自己調(diào)教自己。

預(yù)訓(xùn)練是大模型訓(xùn)練中最耗時(shí)、耗算力的階段,往往需要幾個(gè)月甚至幾年,買天量的顯卡,所以讓黃仁勛成為了 AI 的最大贏家。


預(yù)訓(xùn)練完成后,我們就能得到一個(gè)Base Model,“基座模型”。你可以把它理解為一個(gè)“互聯(lián)網(wǎng)模擬器”,或者一個(gè)學(xué)會(huì)了人類世界知識(shí)的“通用大腦”。無論你輸入什么,它都能續(xù)出合適的 Token。


不過,基座模型一般不能直接用。

為了把它從“通用大腦”變成一個(gè)有特定功能的“打工人”,我們還需要給它做Post training,“后訓(xùn)練”。

你可能聽說過所謂的fine tuning,“微調(diào)”,它就是后訓(xùn)練時(shí)完成的。目前最常用的是方法“監(jiān)督微調(diào)”(SFT,Supervised Fine-Tuning)——所謂的“監(jiān)督”,就是說要給 AI 提供帶標(biāo)注的數(shù)據(jù)集,讓它模仿標(biāo)注數(shù)據(jù)的風(fēng)格來生成內(nèi)容。


比方說要把它做成我們最常用的各類“對(duì)話助手”,那就要給基座模型提供對(duì)話數(shù)據(jù)集。

聽起來又是一項(xiàng)大工程,但此時(shí)所需要的數(shù)據(jù)集大小和訓(xùn)練時(shí)長(zhǎng),其實(shí)遠(yuǎn)遠(yuǎn)小于預(yù)訓(xùn)練階段。比如開源對(duì)話數(shù)據(jù)集 OpenAssistant 里,一共包含 16 萬條出頭的對(duì)話信息,中文對(duì)話數(shù)據(jù)只有不到 5000 條,但已經(jīng)足夠把基座模型變成一個(gè)合格的對(duì)話助手了。


如果我們細(xì)看一下這個(gè)對(duì)話數(shù)據(jù)集,就會(huì)發(fā)現(xiàn)其中的對(duì)話講文明,懂禮貌,絕對(duì)不是你在如今互聯(lián)網(wǎng)評(píng)論區(qū)能看到的東西。也就是說監(jiān)督微調(diào)用的這些帶標(biāo)注的數(shù)據(jù),都需要真人編寫,或者真人利用借助 AI 來編寫。

所以監(jiān)督微調(diào)時(shí),需要用到很多真人,作為“數(shù)據(jù)標(biāo)注員”——這也算是 AI 給我們活人提供了一些工作機(jī)會(huì)了~

比如 OpenAI 曾在這篇論文里提到,他們?cè)?instruct-GPT 項(xiàng)目中招聘了 40 名數(shù)據(jù)標(biāo)注員。

你也能在招聘網(wǎng)站上找到很多“數(shù)據(jù)標(biāo)注員”的崗位——雖然其中很多是枯燥的重復(fù)勞動(dòng),但它的好處一是門檻相對(duì)不高;二是等 AI 占領(lǐng)世界奴役人類后,說不定可以憑這份工作經(jīng)歷,向硅基生物投誠,當(dāng)碳奸......


不管你是想把 AI 打造成對(duì)話助手,還是醫(yī)學(xué)專家、法律專家等等,都要在微調(diào)時(shí)給他們喂相應(yīng)的數(shù)據(jù)。

當(dāng)然,不是所有人的需求都這么實(shí)用,高雅。在 HuggingFace 等大模型社區(qū)上,你時(shí)常能找到有人拿一個(gè)基座大模型,給它喂不堪入目的數(shù)據(jù)做微調(diào),打造出上不了臺(tái)面的專家、女友。

比如幾個(gè)月前,就有一個(gè)全站下載第一的模型,叫 deepsex (這段劃掉)……


在完成監(jiān)督微調(diào)后,我們就可以得到一個(gè)基本可用的大模型了。但如果到此為止的話,大模型也不過是一個(gè)沒有靈魂,只會(huì)四處搬運(yùn),鸚鵡學(xué)舌的復(fù)讀機(jī)罷了——就跟我們這些科普博主一樣~

如果要給大模型注入靈魂,那就要進(jìn)入“后訓(xùn)練”中最重要的一步:強(qiáng)化學(xué)習(xí),RL,Reinforcement Learning。通過強(qiáng)化學(xué)習(xí),大模型輸出的答案會(huì)更符合人類偏好,甚至展現(xiàn)出超越人類的“智力”。


“強(qiáng)化學(xué)習(xí)”的具體方法很多,其中一些思路既簡(jiǎn)單,又巧妙。我們可以用 Deepseek 的GRPO(Generalized Rejection Sampling Policy Optimization)方案來感受一下:

首先,我們可以給定一個(gè)問題,讓 AI 生成幾十個(gè)不同的解決方案,并給出答案。這些答案有對(duì)有錯(cuò),其中答錯(cuò)的方案直接扔掉,拒絕采樣;答對(duì)的那些解決方案,大概率更合理。

于是我們可以把它們?cè)傥菇o AI,讓它們模仿這些方案,繼續(xù)生成解決思路和答案。然后再根據(jù)答案對(duì)錯(cuò),繼續(xù)篩選解決思路,再喂給 AI.....這樣反復(fù)訓(xùn)練,就能提高 AI 輸出正確答案的能力。甚至偶爾能涌現(xiàn)出一些在人工數(shù)據(jù)集之外,連人類自己都未曾設(shè)想過的解決方案,達(dá)成一種“超越人類”的效果。


是不是非常巧妙?但它也不是萬能的:比如一個(gè)問題沒有標(biāo)準(zhǔn)清晰的答案,比如寫文章、寫詩,那大模型怎么知道哪個(gè)答案更好呢?

那這時(shí)候,又得用到數(shù)據(jù)標(biāo)注員了~

在強(qiáng)化學(xué)習(xí)中,數(shù)據(jù)標(biāo)注員的任務(wù),是給 AI 生成的答案,按他們的判斷排序,把好的排在前面,差的排在后面。

當(dāng)然,數(shù)據(jù)標(biāo)注員無法給無窮無盡的回答排序。所以我們還要根據(jù)他們的排序偏好,訓(xùn)練出一個(gè)“獎(jiǎng)勵(lì)模型”,RM。來給AI 打分。然后把 AI 生成的答案,交給獎(jiǎng)勵(lì)模型。這樣就可以讓大模型根據(jù)獎(jiǎng)勵(lì)模型的反饋,不斷地訓(xùn)練自己了。這種方式,叫做RLHF(Reinforcement Learning with Human Feedback),基于人工反饋的強(qiáng)化學(xué)習(xí)。


從監(jiān)督微調(diào)時(shí)的數(shù)據(jù)集編寫,到 RLHF 中給答案排序,都需要數(shù)據(jù)員的參與。所以從某種角度來說,一個(gè)大模型的“個(gè)性”,能反應(yīng)它背后的人類標(biāo)注員們的偏好——所以你談的那些 AI 女友,背后可能是跟你有共同愛好的的大漢~


總而言之,目前后訓(xùn)練中的“強(qiáng)化學(xué)習(xí)”,是各家技術(shù)團(tuán)隊(duì)發(fā)力比拼的重要方向。大模型中很多讓人驚嘆的功能,都跟它有關(guān)。

比如 DeepSeek R1 發(fā)布后,大家都震驚于它能展示詳盡的CoT(Chain of Thought),思維鏈

而根據(jù)官方論文,CoT 的出現(xiàn),是因?yàn)閳F(tuán)隊(duì)在后訓(xùn)練中的監(jiān)督微調(diào)階段,特意喂了 60 萬條推理數(shù)據(jù)。然后又通過我們剛才說的這套 GRPO 的強(qiáng)化學(xué)習(xí)流程,引導(dǎo)大模型自己篩選有效思路,最終實(shí)現(xiàn)了強(qiáng)大的推理能力。


ok,經(jīng)過預(yù)訓(xùn)練,后訓(xùn)練,包括強(qiáng)化學(xué)習(xí)階段,一個(gè)完整的大模型終于可以做出來了。我們整個(gè)框架的講解也已經(jīng)接近尾聲。如果有些內(nèi)容沒記住也沒關(guān)系,我們總結(jié)成了下面這張圖片提供給你~


既然已經(jīng)學(xué)會(huì)了,那讓我們開始手搓一個(gè)大模型吧——

開玩笑的~我們哪會(huì)。不光不會(huì)手搓,甚至都無法把別人手搓好的大模型裝到電腦里。

你可能會(huì)說,這不對(duì)吧?當(dāng)時(shí) DeepSeek R1 剛發(fā)布的時(shí)候火爆到宕機(jī),不是有很多人教我們?cè)陔娔X上部署大模型嗎?

實(shí)際上,我們的電腦根本跑不動(dòng)滿血模型~所以當(dāng)時(shí)部署到電腦上的,都是所謂的“蒸餾模型”,你可以把它們理解成“高仿版”。

比如這個(gè)模型的本質(zhì),是用阿里的 Qwen 32B 這個(gè)參數(shù)較小的模型,去“學(xué)習(xí)”滿血版 Deepseek R1 671B 的輸出結(jié)果,據(jù)此調(diào)整參數(shù),做出一個(gè)“高仿”的 Deepseek R1 ,所以叫“蒸餾”。


除了蒸餾模型外,你還能在大模型社區(qū)上看到很多這樣的“量化模型”,相當(dāng)于成原版大模型的“壓縮版”,因?yàn)樗鼈兙褪?strong>把大模型中精度極高的參數(shù),轉(zhuǎn)化為精度沒那么高的參數(shù),從而降低模型的體積和性能要求。

很多個(gè)人電腦里部署的,都是這些壓縮或高仿版的模型~


講到這里,這些亂七八糟的名詞就差不多講完了。

我們也要多啰嗦一句:這期視頻的部分思路受到了前 OpenAI 的科學(xué)家安德烈·卡帕斯(Andrej Karpathy)在 YouTube 上這期長(zhǎng)達(dá) 3 個(gè)半小時(shí)的口播視頻的啟發(fā)。如果有條件有耐心的話,你也可以去學(xué)習(xí)一個(gè)~


最后,我們不知道有多少人看到這里——看完的可以在評(píng)論里舉個(gè)手——

因?yàn)椴袼居型瑢W(xué)看完這期文稿后說,有點(diǎn)暈,像上課,信息太密集。但沒辦法,關(guān)于大模型的一切都很抽象,確實(shí)需要一點(diǎn)耐心才能看下來。


如果你覺得這對(duì)你有所幫助,那歡迎點(diǎn)贊轉(zhuǎn)發(fā),讓我們知道這期視頻是不是真的有人看~

下期見!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
集體白嫖婚紗引爆50萬債務(wù) :小仙女們?nèi)绾螠S為全民笑柄

集體白嫖婚紗引爆50萬債務(wù) :小仙女們?nèi)绾螠S為全民笑柄

紅色少女主播
2026-04-02 23:10:26
突發(fā)!天津“史上最嚴(yán)”新政落地,4月2日起實(shí)施!

突發(fā)!天津“史上最嚴(yán)”新政落地,4月2日起實(shí)施!

天津族
2026-04-04 07:34:25
美國、俄羅斯、歐洲猛然發(fā)現(xiàn)一件頭疼事:低估了中國,高估了自己

美國、俄羅斯、歐洲猛然發(fā)現(xiàn)一件頭疼事:低估了中國,高估了自己

文史達(dá)觀
2025-03-27 12:59:20
起飛重量達(dá)到560噸,一架飛機(jī)這么重,為什么可以飛起來呢?

起飛重量達(dá)到560噸,一架飛機(jī)這么重,為什么可以飛起來呢?

半解智士
2026-04-03 11:24:22
3月銷量"慘案":長(zhǎng)城汽車,已被"四座大山"壓成第二梯隊(duì)?

3月銷量"慘案":長(zhǎng)城汽車,已被"四座大山"壓成第二梯隊(duì)?

沙雕小琳琳
2026-04-03 15:28:47
口嗨大了!張本美和不敵王藝迪 賽后沒想到情緒失控 曾放豪言被打

口嗨大了!張本美和不敵王藝迪 賽后沒想到情緒失控 曾放豪言被打

小嵩
2026-04-04 08:32:12
想粗就粗?男人的新福音:“增粗貼片”問世,效果不止3個(gè)月

想粗就粗?男人的新福音:“增粗貼片”問世,效果不止3個(gè)月

科學(xué)認(rèn)識(shí)論
2026-04-03 12:00:21
“他將來肯定不止10個(gè)億”,張雪機(jī)車投資人:最好的投后服務(wù)是不打擾

“他將來肯定不止10個(gè)億”,張雪機(jī)車投資人:最好的投后服務(wù)是不打擾

澎湃新聞
2026-04-03 00:00:06
回來了!英超四大豪門合圍冠軍,曼城和利物浦,必有一隊(duì)出局

回來了!英超四大豪門合圍冠軍,曼城和利物浦,必有一隊(duì)出局

嗨皮看球
2026-04-03 11:56:07
摩博會(huì)名場(chǎng)面!張雪一路小跑彎腰握左宗申,這才是國產(chǎn)摩托的傳承

摩博會(huì)名場(chǎng)面!張雪一路小跑彎腰握左宗申,這才是國產(chǎn)摩托的傳承

行者聊官
2026-04-03 08:59:09
剛剛!東莞一鎮(zhèn)宣布免費(fèi)停車!

剛剛!東莞一鎮(zhèn)宣布免費(fèi)停車!

東莞好生活
2026-04-03 21:42:57
德轉(zhuǎn)列缺席世界杯時(shí)間最長(zhǎng)國家:古巴88年居首,國足上榜

德轉(zhuǎn)列缺席世界杯時(shí)間最長(zhǎng)國家:古巴88年居首,國足上榜

懂球帝
2026-04-03 12:15:20
手術(shù)意義不大,53歲的爸爸肺癌,醫(yī)生做手術(shù)時(shí)才發(fā)現(xiàn)癌細(xì)胞已擴(kuò)散

手術(shù)意義不大,53歲的爸爸肺癌,醫(yī)生做手術(shù)時(shí)才發(fā)現(xiàn)癌細(xì)胞已擴(kuò)散

今日養(yǎng)生之道
2026-04-03 14:32:07
馬克龍排擠中國G7峰會(huì),插手臺(tái)海,中法千億大單或取消

馬克龍排擠中國G7峰會(huì),插手臺(tái)海,中法千億大單或取消

孤城落葉
2026-04-04 02:32:19
F35挨揍后,特朗普被逼入絕境,英軍嚇得臨陣退縮,伊朗機(jī)會(huì)來了

F35挨揍后,特朗普被逼入絕境,英軍嚇得臨陣退縮,伊朗機(jī)會(huì)來了

聞識(shí)
2026-04-04 08:02:21
謝娜凌晨發(fā)文,拒絕承認(rèn)她主持水平差,流程問題是節(jié)目組調(diào)度安排

謝娜凌晨發(fā)文,拒絕承認(rèn)她主持水平差,流程問題是節(jié)目組調(diào)度安排

四斤
2026-04-03 12:11:35
8天已到,高市拒絕道歉!外交部宣布動(dòng)手,日本有人財(cái)產(chǎn)全被凍結(jié)

8天已到,高市拒絕道歉!外交部宣布動(dòng)手,日本有人財(cái)產(chǎn)全被凍結(jié)

甜檸聊史
2026-04-03 22:51:02
重慶市地方金融管理局原局長(zhǎng)阮路被查

重慶市地方金融管理局原局長(zhǎng)阮路被查

觀察者網(wǎng)
2026-04-03 11:08:09
隨著費(fèi)利佩戴帽+成都蓉城5-1,2026賽季中超最新積分榜出爐

隨著費(fèi)利佩戴帽+成都蓉城5-1,2026賽季中超最新積分榜出爐

側(cè)身凌空斬
2026-04-03 21:44:37
國民黨由盛轉(zhuǎn)衰五大關(guān)鍵推手,李登輝只能排第二,第一實(shí)至名歸!

國民黨由盛轉(zhuǎn)衰五大關(guān)鍵推手,李登輝只能排第二,第一實(shí)至名歸!

夢(mèng)史
2026-03-25 04:13:02
2026-04-04 09:20:49
柴知道
柴知道
用有趣的方式,講有價(jià)值的知識(shí)
403文章數(shù) 84207關(guān)注度
往期回顧 全部

科技要聞

5萬輛庫存車,給了特斯拉一記重拳

頭條要聞

牛彈琴:美國經(jīng)歷最糟糕24小時(shí) 伊朗發(fā)出最辛辣諷刺

頭條要聞

牛彈琴:美國經(jīng)歷最糟糕24小時(shí) 伊朗發(fā)出最辛辣諷刺

體育要聞

被NBA選中20年后,他重新回到籃球場(chǎng)

娛樂要聞

夏克立官宣再婚當(dāng)爸?否認(rèn)婚內(nèi)出軌

財(cái)經(jīng)要聞

劉紀(jì)鵬:只盼長(zhǎng)慢牛,鞏固4000點(diǎn)是關(guān)鍵

汽車要聞

你介意和遠(yuǎn)房親戚長(zhǎng)得很像嗎?

態(tài)度原創(chuàng)

家居
本地
教育
房產(chǎn)
時(shí)尚

家居要聞

溫馨多元 愛的具象化

本地新聞

跟著歌聲游安徽,聽古村回響

教育要聞

教育部:義務(wù)教育學(xué)校嚴(yán)禁設(shè)立重點(diǎn)班、實(shí)驗(yàn)班、快慢班

房產(chǎn)要聞

小陽春全面啟動(dòng)!現(xiàn)房,才是這波行情里最穩(wěn)的上車票

Softfit穿搭火了,穿出春日松弛感和氛圍美

無障礙瀏覽 進(jìn)入關(guān)懷版