![]()
出品|圓維度
當“人工智能+”步入第三個年頭,智能體(AI Agent)正試圖撕掉“聊天機器人”的舊標簽,換上“數字員工”的新工牌。
2026年全國兩會期間,這一話題熱度驟升。從輔助決策的參謀,進化為能干活、能跑腿、能下單的執行者,智能體站在了從“能用”到大規模“好用”的懸崖邊上。但向前一步,是星辰大海還是責任真空?
商業價值與落地成本的“溫差”仍在拉大。 麥肯錫2025年調研顯示,盡管88%的中大型企業已在嘗試AI,但僅三分之一實現了規模化部署。而在企業級AI落地中,約70%的方案需要高度定制化,僅有30%可被標準化復制。更嚴峻的是,當智能體開始自主執行任務,推理算力的消耗正成為新的成本“吞金獸”。360集團創始人周鴻祎算了一筆賬:智能體執行一次復雜任務消耗的token量,可達簡單對話的數百甚至上千倍。當算力重心從“訓練”轉向“推理”,降低單次決策成本,成了“數字員工”能否上崗的關鍵生死線。
產業協同:生態主導權之爭白熱化。 智能體若想成為超級入口,必須打破移動互聯網時代的App孤島。谷歌正通過“通用商務協議”試圖重構代理式電商生態,預計覆蓋數億用戶。但光有協議不夠,更需要“即插即用”的底層標準。2月17日,美國國家標準與技術研究院悄然啟動AI Agent標準倡議,聚焦身份、授權與互操作性。而國內,華為等企業正力推“制造智能體”,試圖通過平臺化融合打通工業場景——某車企借助該平臺,訂單交付周期從14天銳減至7天。生態之爭,已從單點技術轉向了規則制定權的博弈。
安全治理:最棘手的“責任真空”浮現。 一旦智能體跨應用下單、調用API或泄露數據,責任該由誰承擔?“這并非技術缺陷,而是結構性失效。” 一篇發表于arXiv的論文直指核心:當決策生成量超過人類審核能力,形式化審批將取代實質性判斷,形成“責任真空”。現實的隱憂已在司法端顯現:2025年9月,上海徐匯區法院一審判決某AI伴侶應用開發者構成制作淫穢物品牟利罪。審理中,算法自動生成內容的責任歸屬引發巨大爭議,傳統“行為人—行為結果”的認定方式正面臨瓦解。奇安信董事長齊向東對此表示,必須將安全能力嵌入AI全生命周期,以AI對抗AI。
人才培養:從“調參俠”到“智能體指揮官”。 復雜系統的涌現,倒逼人才能力重構。全國政協委員、北京通用人工智能研究院院長朱松純指出,贏得AI競爭的關鍵在于深入理解“何以為人”,探索符合中國國情的人才路徑。開發者社區已敏銳轉向,2026年的技術藍圖顯示,AI Agent開發者正從“模型調優”向“系統工程”全面轉型,不僅要懂思維鏈,更要會設計多智能體協作流與安全沙箱。未來職場,每個人都需要學會管理一支“數字部隊”。
智能體的奇點臨近,但技術狂奔的同時,規則與責任不能缺席。當機器學會干活,人類更要學會劃定邊界。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.