337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

螞蟻集團發布F2LLM-v2:讓全世界282種語言都能擁有"智能翻譯官"

0
分享至


就在2026年3月,螞蟻集團與上海交通大學的研究團隊發表了一項令人矚目的研究成果,名為《F2LLM-v2技術報告:面向多語言世界的包容、高性能、高效嵌入模型》。這項研究發表在arXiv預印本平臺,編號為2603.19223v1,有興趣深入了解的讀者可以通過這個編號查詢完整論文。

在我們的數字時代,語言障礙仍然是一堵看不見的墻。想象一下,當你在網上搜索信息時,大部分先進的人工智能工具只能理解英語或幾種主要語言,而世界上其他數百種語言的使用者卻被拒之門外。這就好比擁有一把萬能鑰匙,卻發現它只能打開少數幾扇門。螞蟻集團的研究團隊意識到了這個問題的嚴重性:現在的嵌入模型(可以理解為AI的"語言理解器")過分偏向英語,對其他語言的支持遠遠不夠。

這項研究的獨特之處在于,它不僅僅是又一個技術改進,而是一次真正意義上的"語言民主化"嘗試。研究團隊開發的F2LLM-v2模型家族,能夠理解和處理282種自然語言和40多種編程語言。這意味著,無論你說的是德語、阿拉伯語、越南語,還是相對小眾的波斯語或印地語,這個AI系統都能像理解英語一樣流暢地理解你的意思。

更令人印象深刻的是,研究團隊完全使用公開可獲得的數據來訓練這些模型,沒有依賴任何商業秘密或封閉數據源。他們從157個不同的公開數據源收集了6000萬個訓練樣本,就像是在全世界的圖書館里精心挑選最有價值的書籍,然后教會AI如何閱讀和理解它們。

這個模型家族包含8個不同規模的版本,從最小的8000萬參數到最大的140億參數,就像提供了從小型轎車到大型卡車的完整車隊,讓不同需求的用戶都能找到合適的選擇。最大的模型在11個國際基準測試中取得了第一名的成績,而較小的模型也在各自的規模級別中表現優異。

這項研究的意義遠不止于技術突破。它代表了人工智能向真正全球化和包容性發展的重要一步,讓世界各地的人們都能享受到先進AI技術帶來的便利,而不再受到語言壁壘的限制。

一、當前AI語言理解的"偏科"問題

在人工智能的世界里,嵌入模型扮演著至關重要的角色。可以把它們想象成AI的"語言理解器",負責將人類的文字轉換成計算機能夠處理的數字形式。這些模型廣泛應用于搜索引擎、智能客服、文檔分類等各種我們日常接觸的應用中。

然而,現在的情況就像是我們擁有一個非常聰明的翻譯員,但這個翻譯員只精通英語和少數幾種主要語言。當面對阿拉伯語、印地語或者越南語時,他的表現就會大打折扣。研究團隊發現,目前最先進的嵌入模型存在嚴重的"英語中心主義"傾向。

這種偏向性的根源在于訓練數據的不平衡。就像一個學生如果只學習數學而忽略其他科目,他在數學考試中可能表現優異,但在語文或歷史考試中就會捉襟見肘。大多數現有的模型都是在以英語為主的數據上訓練的,導致它們在處理其他語言時表現不佳。

更讓人擔憂的是,許多頂級的嵌入模型都是"黑盒子",只提供API接口供人調用,而不公開其訓練數據和方法。這就像是一家餐廳只讓你品嘗美食,卻絕不透露食譜一樣。這種不透明性阻礙了整個領域的進步,也讓研究人員無法改進現有技術。

國際文本嵌入基準測試MTEB雖然覆蓋了250多種語言,但實際上大部分注意力仍然集中在英語和中文上。以波蘭語基準測試為例,在F2LLM-v2發布之前,只有一個模型提交了完整的測試結果。這種現象反映了整個行業對多語言支持的忽視。

這種語言不平等現象對全球數億人產生了實際影響。想象一下,如果你是一名使用阿拉伯語的醫生,想要利用AI來搜索最新的醫學文獻,卻發現系統對你的查詢理解有限,給出的結果不夠準確。或者你是一名越南語的程序員,希望利用智能代碼搜索工具來提高工作效率,卻發現工具對你的需求理解不夠精確。這些都是真實存在的問題,影響著全球用戶享受AI技術帶來的便利。

研究團隊意識到,要解決這個問題,不僅需要技術創新,更需要一種全新的理念:讓AI真正服務于全人類,而不只是說英語的那一部分人。這種理念催生了F2LLM-v2項目,一個致力于打破語言壁壘的雄心勃勃的計劃。

二、F2LLM-v2的訓練數據:一座覆蓋全球的"圖書館"

構建一個真正多語言的AI模型,就像建造一座包含全世界知識的圖書館。F2LLM-v2的訓練數據收集工作堪稱一項浩大的工程。研究團隊從157個不同的公開數據源中精心篩選,最終匯集了6000萬個高質量的訓練樣本。

這些數據涵蓋了282種自然語言,從使用人數眾多的英語、中文、俄語、西班牙語,到相對小眾但同樣重要的越南語、波斯語、阿拉伯語等。數據分布呈現出有趣的特點:英語占據28.7%的份額,中文占7.7%,俄語占6.1%,但研究團隊特意確保了其他語言也能獲得充分的代表性。

除了自然語言,這個"圖書館"還收錄了40多種編程語言的代碼,從最流行的Python、Java、JavaScript,到相對專業的Rust、Haskell等。這意味著模型不僅能理解人類的自然語言,還能理解程序員編寫的代碼,為代碼搜索和程序理解提供強大支持。

更重要的是,研究團隊堅持使用完全公開透明的數據源。他們沒有像某些商業公司那樣使用私有數據或網絡爬取的未授權內容,而是嚴格選擇了公開可獲得的高質量數據集。這種做法就像是在建造一座對所有人開放的公共圖書館,而不是一個只有少數人能進入的私人收藏室。

在數據的功能多樣性方面,這個訓練集包含了各種不同類型的任務。其中35.5%是問答數據,24.8%是雙語文本挖掘數據,11.9%是指令數據,還有標題匹配、自然語言推理、代碼理解等多種類型。這種多樣性確保了模型能夠應對各種實際應用場景,就像培養一個多才多藝的學生,讓他不僅會數學,還懂得語文、歷史、科學等各個學科。

研究團隊采用了一種巧妙的數據處理策略,將所有不同格式的數據統一轉換為三種標準格式:檢索、聚類和二元分類。這就像是將各種不同形狀的拼圖塊都加工成標準形狀,讓它們能夠無縫拼接在一起。檢索格式包含查詢、相關文檔和困難負樣本的三元組;聚類格式用于處理多分類任務,通過采樣同類正樣本和不同類負樣本來學習;二元分類格式直接使用類別標簽作為正負樣本。

為了提高訓練效果,研究團隊還采用了批內負采樣和顯式困難負樣本相結合的策略。批內負采樣就像是在一個班級里讓學生互相比較學習,而顯式困難負樣本則像是專門設計一些有挑戰性的題目來考驗學生的真實水平。這種組合確保了模型不僅能區分明顯不同的內容,還能在相似內容之間做出精細的判斷。

與現有的一些開源數據集相比,F2LLM-v2的訓練數據展現出更加均衡的語言分布。例如,KaLM-Embedding數據集中英語和中文占據了絕大部分比例,而F2LLM-v2雖然英語仍然占最大份額,但為其他語言留出了更多空間,真正體現了多語言的包容性。

這種數據收集和處理方式的最大意義在于,它為構建一個真正全球化的AI系統奠定了基礎。不再是某種語言的"專屬工具",而是能夠為全世界不同語言使用者提供平等服務的"通用助手"。

三、八個規模的模型家族:從輕便小車到重型卡車

F2LLM-v2并不是單一的模型,而是一個包含8個不同規模成員的完整家族,參數規模從8000萬到140億不等。這種設計理念就像汽車制造商提供從經濟型轎車到豪華SUV的完整產品線,讓不同需求和預算的用戶都能找到合適的選擇。

這個模型家族的構成相當精妙。最小的三個模型(8000萬、1.6億、3.3億參數)是通過模型剪枝技術從6億參數模型中得來的,就像是從一輛大卡車上拆下一些不必要的部件,改造成更輕便但仍然實用的小貨車。而從6億到140億參數的五個模型則直接對應Qwen3大語言模型的不同版本,確保了強大的基礎能力。

所有模型都采用標準的密集Transformer解碼器架構,使用EOS(句子結束)標記的最后隱藏狀態作為序列表示。這種設計就像是給所有車型裝配同樣品牌的發動機,保證了性能的一致性和可靠性。從最小的模型每層只有8個Transformer層,到最大模型的40層,形成了一個完整的性能階梯。

更引人注目的是,所有模型都支持Matryoshka表示學習(MRL),這是一項非常實用的技術創新。傳統的嵌入模型就像是一個固定尺寸的箱子,無論裝什么東西都占用同樣的空間。而支持MRL的模型就像是一個可調節大小的智能箱子,可以根據實際需要調整容量。

具體來說,當你需要高精度結果時,可以使用完整的嵌入維度,比如最大模型的5120維。但當你需要快速處理大量數據,對精度要求不那么苛刻時,可以只使用前面的128維甚至32維,大大提升處理速度并節省存儲空間。研究結果顯示,3.3億參數模型使用完整的896維嵌入的性能,與80億和140億模型使用32維嵌入的性能相當,這為用戶提供了靈活的性能與效率平衡選擇。

研究團隊采用了創新的兩階段訓練策略。第一階段專注于建立穩固的語義基礎,選擇了7個大規模、語言覆蓋廣泛的檢索數據集,總計2700萬樣本,包括CodeSearchNet、MMARCO、CLIRMatrix等。這個階段就像是給學生打好基礎,讓他們掌握各種語言的基本理解能力。

第二階段則致力于提升模型處理復雜下游應用的能力,包括分類、重排序、釋義檢測等任務。研究團隊從每個數據源最多采樣8萬個查詢,生成了1800萬個樣本的混合訓練集。在這個階段,他們為查詢添加了任務特定的指令,并對30%的文檔和負樣本隨機應用指令,增強了模型對不同任務類型的適應能力。

對于較小的模型,研究團隊使用了知識蒸餾技術,這就像是讓優秀的老師指導年輕的學生。通過計算學生模型和教師模型在序列嵌入上的均方誤差,小模型可以學習到大模型的精華知識,在保持高效率的同時盡可能保持好性能。實驗結果證明,知識蒸餾為各個規模的模型都帶來了顯著的性能提升。

訓練過程中使用的技術細節也體現了研究團隊的用心。他們使用AdamW優化器,并為不同規模的模型設置了不同的學習率,從小模型的4e-5到大模型的5e-6,確保每個模型都能得到最適合的訓練參數。訓練輪次也根據模型大小進行調整,小模型訓練4輪,而大模型只需訓練2輪,體現了參數量與訓練效率之間的平衡。

這種精心設計的模型家族架構,讓用戶可以根據自己的具體需求選擇最合適的版本。如果你是個人開發者,預算和計算資源有限,可以選擇小規模模型;如果你是大企業,追求極致性能,可以選擇最大的140億參數版本。無論選擇哪個版本,都能獲得優秀的多語言理解能力,這正是F2LLM-v2設計理念的精髓所在。

四、破紀錄的性能表現:在11個基準測試中奪冠

當談到AI模型的性能時,最令人信服的證據就是在標準化基準測試中的表現。F2LLM-v2在這方面的成績可謂令人刮目相看。研究團隊在17個MTEB基準測試上對模型進行了全面評估,這些測試涵蓋了430個具體任務,涉及十種不同的任務類型:檢索、重排序、分類、聚類、成對分類、語義文本相似度、雙語文本挖掘、摘要、指令重排序和多標簽分類。

最大的F2LLM-v2-14B模型在11個基準測試中取得了第一名的成績,包括歐洲語言、斯堪的納維亞語言、印度語系、德語、法語、韓語、波蘭語、中文、日語、荷蘭語、俄語、波斯語和越南語基準測試。這種跨語言的優異表現就像是一個多語言天才在各種語言考試中都名列前茅,充分證明了模型的真正多語言能力。

更難得的是,這個模型家族的每個成員都在各自的規模級別中表現出色。即使是相對較小的3.3億和6億參數模型,也在大多數語言特定基準測試中超越了Qwen3-Embedding和EmbeddingGemma等競爭對手。這種現象就像是在同重量級的拳擊比賽中,F2LLM-v2的選手不僅贏了,而且贏得很漂亮。

特別值得關注的是模型在代碼理解任務上的表現。F2LLM-v2在代碼基準測試中展現出強大的實力,這得益于訓練數據中包含的40多種編程語言。無論是Python、Java這樣的主流語言,還是Rust、Haskell這樣的小眾語言,模型都能很好地理解和處理。

研究團隊還進行了詳細的消融實驗來驗證各項技術的有效性。知識蒸餾實驗顯示,所有規模的模型都從這項技術中獲得了顯著提升。以6億參數模型為例,使用知識蒸餾后性能提升了0.85分,而最小的8000萬參數模型提升幅度更是達到了4.67分。這證明了"師父領進門"這個古老智慧在AI訓練中同樣適用。

Matryoshka表示學習的實驗結果更是令人驚喜。隨著嵌入維度的增加,所有模型的性能都呈現出平滑的上升曲線,在低維度時提升最為顯著,到達接近完整維度時趨于平緩。這種特性為實際應用提供了極大的靈活性,用戶可以根據自己對速度和精度的需求動態調整嵌入維度。

在具體的語言表現上,F2LLM-v2展現出了真正的包容性。以往很多模型在英語和中文上表現出色,但在其他語言上卻力不從心。而F2LLM-v2在阿拉伯語、德語、法語、日語、韓語等各種不同語系的語言上都取得了優異成績。這種均衡的多語言能力正是研究團隊追求的目標。

更令人印象深刻的是,模型在醫學領域基準測試中也表現優異,F2LLM-v2-14B在醫學基準測試中排名第二。考慮到醫學文本的專業性和復雜性,這個成績證明了模型不僅具備通用語言理解能力,還能勝任專業領域的任務。

這些全面而優異的性能表現,不僅僅是數字上的成功,更代表了一種技術哲學的勝利:通過真正的多語言訓練和精心的技術設計,可以創造出既高效又強大的AI系統,讓全世界不同語言的用戶都能享受到頂級的AI服務。這種成功為整個AI行業指明了一個更加包容和公平的發展方向。

五、開源精神:讓全世界共享AI技術成果

在當今AI領域,許多頂級模型都被包裝在商業秘密的外衣下,只提供API調用服務而不公開核心技術。這種做法就像是擁有一臺神奇的機器,但只允許別人付費使用,卻不告訴任何人這臺機器是如何工作的。F2LLM-v2項目選擇了截然不同的道路:完全開源。

研究團隊不僅公開了所有8個模型的完整權重和代碼,還提供了詳細的訓練數據來源、訓練方法、中間檢查點,甚至包括訓練過程中的各種技術細節和經驗教訓。這種做法就像是一位經驗豐富的廚師不僅愿意免費提供美味的食物,還主動分享完整的食譜、制作過程,甚至包括失敗的嘗試和改進的心得。

這種開源精神的意義遠遠超出了單純的技術分享。對于全球的研究人員來說,F2LLM-v2提供了一個寶貴的起點。他們可以基于這個模型進行進一步的研究,針對特定語言或領域進行優化,或者探索新的訓練方法。這就像是在科學研究中提供了一個公共的實驗平臺,讓全世界的科學家都能在此基礎上推進人類知識的邊界。

對于發展中國家和資源有限的研究機構來說,這種開源模式具有特別重要的意義。訓練一個140億參數的多語言模型需要巨大的計算資源和專業知識,這對很多機構來說是不現實的。但有了F2LLM-v2,他們可以直接使用這個高質量的基礎模型,然后根據自己的需求進行調整和優化。

研究團隊特別重視數據的透明性。他們詳細記錄了所使用的157個數據源,包括每個數據源的具體內容、語言分布、任務類型等信息。這種透明度讓其他研究人員能夠理解模型的能力邊界,也為構建更好的訓練數據集提供了參考。

在模型架構方面,研究團隊也毫無保留地分享了所有技術細節。從Transformer層的具體配置,到注意力頭的數量,從學習率的設置,到訓練輪次的選擇,每一個影響模型性能的參數都被詳細記錄和解釋。這種程度的技術公開在商業化程度很高的AI領域實屬難得。

知識蒸餾和模型剪枝的具體實現方法也被完整公開。研究團隊不僅說明了他們是如何做的,還解釋了為什么這樣做,以及在實施過程中遇到的問題和解決方案。這種經驗分享對于想要復現或改進這些技術的研究人員來說價值巨大。

更值得稱贊的是,研究團隊還提供了詳細的評估代碼和基準測試結果。這讓其他研究人員可以使用完全相同的評估標準來比較不同模型的性能,確保了比較的公平性和科學性。這種做法促進了整個領域的標準化和規范化發展。

開源的另一個重要意義是促進了技術的民主化。以前,只有少數大公司和頂級研究機構才能開發和使用先進的多語言嵌入模型。現在,任何有基本技術能力的個人或組織都可以使用F2LLM-v2,無論是為了學術研究、商業應用還是社會公益項目。

這種開源精神也體現了對AI發展方向的深層思考。研究團隊認為,AI技術應該服務于全人類,而不是少數擁有資源的群體。通過開源,他們希望能夠打破技術壁壘,讓全世界的開發者和研究人員都能參與到AI技術的發展和應用中來。

從長遠來看,F2LLM-v2的開源策略可能會產生深遠的影響。它可能會激勵更多的研究團隊采用類似的開放態度,推動整個AI領域向更加透明、協作、包容的方向發展。這種轉變不僅有利于技術進步,也有助于確保AI技術的發展真正造福全人類。

結論

說到底,F2LLM-v2不只是又一個技術突破,它更像是AI領域的一場"語言革命"。在這個英語主導的AI世界里,螞蟻集團和上海交通大學的研究團隊做了一件看似簡單但意義深遠的事:讓AI真正學會了"說"全世界的語言。

這個能夠理解282種語言的AI系統,就像是培養了一位真正的"世界公民"。無論你來自德國的小村莊,還是越南的繁華都市,無論你說的是阿拉伯語還是波斯語,這個AI助手都能像理解英語一樣準確地理解你的需求。這種技術上的包容性,實際上反映了一種更深層的價值觀:技術應該服務于所有人,而不只是特權階層。

更難得的是,研究團隊選擇了完全開放的路徑。在這個充滿商業競爭和技術封鎖的時代,他們把所有的研究成果、訓練數據、技術細節都無償分享給全世界。這就像是把一把打開AI寶庫的鑰匙交給了每一個有需要的人,讓技術的進步不再是少數大公司的專利。

從8000萬參數的"小巧型"到140億參數的"豪華版",F2LLM-v2提供了一個完整的解決方案家族。這種設計哲學很務實:不是每個人都需要最強大的工具,但每個人都應該有合適的工具可以選擇。無論你是個人開發者還是大企業,無論你的計算資源是有限還是充足,都能找到適合自己的版本。

這項研究的成功也證明了一個重要觀點:做正確的事情往往也能帶來最好的結果。通過關注全球語言的平衡性,通過堅持開源的理念,通過追求真正的技術包容性,F2LLM-v2不僅在11個國際基準測試中奪冠,更重要的是為AI領域樹立了一個新的標桿。

歸根結底,技術的價值不在于它有多么復雜或先進,而在于它能為多少人解決實際問題。F2LLM-v2的出現,意味著世界各地使用不同語言的人們,都能更平等地享受AI技術帶來的便利。這或許才是人工智能發展的真正意義:不是為了展示人類的智慧有多高超,而是為了讓這種智慧真正惠及每一個人。

未來,當AI技術變得更加普及的時候,我們或許會回過頭來看F2LLM-v2,把它視為AI走向真正全球化和民主化的重要里程碑。這個看似技術性的突破,實際上承載著一個更加包容和公平的數字世界的希望。

Q&A

Q1:F2LLM-v2能理解多少種語言?

A:F2LLM-v2可以理解和處理282種自然語言和40多種編程語言。這包括了從英語、中文、俄語這樣的主流語言,到越南語、波斯語、阿拉伯語等相對小眾的語言,以及Python、Java、JavaScript等各種編程語言,真正實現了全球化的語言覆蓋。

Q2:F2LLM-v2的8個不同規模模型有什么區別?

A:這8個模型的參數規模從8000萬到140億不等,就像從經濟型轎車到豪華SUV的完整產品線。較小的模型更輕便高效,適合資源有限的應用場景;較大的模型性能更強,適合對精度要求極高的企業應用。所有模型都支持Matryoshka技術,可以根據需要調整嵌入維度來平衡性能和效率。

Q3:普通開發者能免費使用F2LLM-v2嗎?

A:是的,完全可以。研究團隊采用了完全開源的策略,不僅免費提供所有8個模型的完整權重和代碼,還公開了訓練數據來源、訓練方法和技術細節。任何有基本技術能力的個人或組織都可以免費下載使用,無論是用于學術研究、商業應用還是個人項目。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
66歲大媽喜歡睡前泡腳,不久腦梗去世,專家怒斥:太無知了

66歲大媽喜歡睡前泡腳,不久腦梗去世,專家怒斥:太無知了

比利
2026-03-21 13:00:22
內田有紀與柏原崇秘密再婚,背后隱藏的經紀人身份揭曉!

內田有紀與柏原崇秘密再婚,背后隱藏的經紀人身份揭曉!

孤獨的獨角獸影視
2026-04-04 10:05:10
官方:公牛后衛麥克朗當選本賽季G聯賽MVP;場均31.8分7.9助

官方:公牛后衛麥克朗當選本賽季G聯賽MVP;場均31.8分7.9助

懂球帝
2026-04-04 01:28:14
趙心童10-4橫掃 希金斯驚天逆轉 斯諾克巡回錦標賽四強塵埃落定

趙心童10-4橫掃 希金斯驚天逆轉 斯諾克巡回錦標賽四強塵埃落定

帶你逛體壇
2026-04-03 18:51:25
廣州一女子洗澡時伸手撿掉入廁所的塑料瓶,卻被緊緊卡住右手“無法自拔”,消防營救:女子成功脫險,有輕微刮傷

廣州一女子洗澡時伸手撿掉入廁所的塑料瓶,卻被緊緊卡住右手“無法自拔”,消防營救:女子成功脫險,有輕微刮傷

環球網資訊
2026-04-04 11:51:10
假洋牌抽成80%!14萬人取關董宇輝

假洋牌抽成80%!14萬人取關董宇輝

智識漂流
2026-04-03 19:53:53
她曾擔任北京市委常委,退休前享受局級住房待遇,活了81歲

她曾擔任北京市委常委,退休前享受局級住房待遇,活了81歲

舊聞檔案館
2026-04-04 08:00:03
隨著雨果4-3 橋本帆乃香4-1乒乓球世界杯男女單1/4決賽對陣全出爐

隨著雨果4-3 橋本帆乃香4-1乒乓球世界杯男女單1/4決賽對陣全出爐

側身凌空斬
2026-04-03 22:32:41
零成本本機編程入門:用 Ollama 跑 Gemma 4,打造接近 Claude 的寫代碼體驗

零成本本機編程入門:用 Ollama 跑 Gemma 4,打造接近 Claude 的寫代碼體驗

教你畫像素畫
2026-04-03 21:44:58
日本足球什么水平?8個世界杯冠軍贏了7個,董路黃健翔各執一詞

日本足球什么水平?8個世界杯冠軍贏了7個,董路黃健翔各執一詞

夏侯看英超
2026-04-03 21:28:31
董宇輝“踩坑”優思益:道歉后,網友問為何不啟動“退一賠三”?

董宇輝“踩坑”優思益:道歉后,網友問為何不啟動“退一賠三”?

穿透
2026-04-03 21:23:41
在軍事基地放炸彈的華裔姐弟,父母非法滯留30年,已被ICE逮捕

在軍事基地放炸彈的華裔姐弟,父母非法滯留30年,已被ICE逮捕

大洛杉磯LA
2026-04-04 05:44:13
開拓者拍全家福!克林根C位楊瀚森在他身旁 昔日老大利拉德站角落

開拓者拍全家福!克林根C位楊瀚森在他身旁 昔日老大利拉德站角落

羅說NBA
2026-04-04 08:38:28
天龍三號運載火箭發射失利!性能對標SpaceX獵鷹9號,可實現一箭36星組網發射

天龍三號運載火箭發射失利!性能對標SpaceX獵鷹9號,可實現一箭36星組網發射

每日經濟新聞
2026-04-03 15:30:11
從28連敗到55勝!沒有超巨的他們,把東部第一搶走了

從28連敗到55勝!沒有超巨的他們,把東部第一搶走了

茅塞盾開本尊
2026-04-04 13:50:12
春風動力的摩托,先拿下了世界頂級賽事冠軍

春風動力的摩托,先拿下了世界頂級賽事冠軍

新浪財經
2026-04-03 23:08:08
謝爾基在聯賽杯決賽里顛球并自拍,亨利:他贏了他怎么拍都行

謝爾基在聯賽杯決賽里顛球并自拍,亨利:他贏了他怎么拍都行

懂球帝
2026-04-04 09:35:50
368次列車無人駕駛沖撞站臺致106人遇難,楊莊事故究竟誰應負責?

368次列車無人駕駛沖撞站臺致106人遇難,楊莊事故究竟誰應負責?

涼州辭
2026-04-04 11:45:03
李盈瑩領銜,朱婷無緣,袁心玥回歸,中國女排第二批集訓名單預測

李盈瑩領銜,朱婷無緣,袁心玥回歸,中國女排第二批集訓名單預測

跑者排球視角
2026-04-04 09:43:41
廣東一男子因清明祭祖安排不合,直接解散九戶家族群,網友吵翻

廣東一男子因清明祭祖安排不合,直接解散九戶家族群,網友吵翻

童叔不飆車
2026-04-03 20:20:20
2026-04-04 14:00:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業世界
7866文章數 558關注度
往期回顧 全部

科技要聞

內存一年漲四倍!國產手機廠商集體漲價

頭條要聞

男子建了18個"5G基站"被政府叫停 發現紅頭文件為偽造

頭條要聞

男子建了18個"5G基站"被政府叫停 發現紅頭文件為偽造

體育要聞

剎不住的泰格·伍茲,口袋里的兩粒藥丸

娛樂要聞

闞清子口碑贏了!全開麥跑調拒絕重唱

財經要聞

劉紀鵬:只盼長慢牛,鞏固4000點是關鍵

汽車要聞

17萬級海豹07EV 不僅續航長還有9分鐘滿電的快樂

態度原創

數碼
時尚
教育
手機
游戲

數碼要聞

型號命名打破常規:三星神秘耳機Able曝光,預估為助聽類設備

襯衫+半裙,今年春夏最時髦CP!

教育要聞

初中生自己點最便宜的7元面,卻用僅剩的2元給老師加鹵蛋

手機要聞

三星Galaxy S26 FE手機跑分曝光:Exynos 2500、8GB內存

中國電競圈驚天大瓜!世界冠軍深陷丑聞:嗜賭詐騙家暴

無障礙瀏覽 進入關懷版