有個(gè)數(shù)據(jù)挺嚇人的:53%的職場人,已經(jīng)用生成式AI干過活了,但沒跟公司報(bào)備。
不是“我想試試”,是“我已經(jīng)在干了”。
更夸張的是,55%的人自己掏錢買AI工具,其中60%拿它來干正經(jīng)工作——也就是說,你同事可能正在用自己買的ChatGPT,幫你寫報(bào)告、整理數(shù)據(jù)、改PPT,而你完全不知道。
這是律商聯(lián)訊《2026未來工作報(bào)告》里翻出來的一個(gè)“地下真相”。這份報(bào)告調(diào)查了全球1400多個(gè)職場人,結(jié)果發(fā)現(xiàn):AI已經(jīng)悄悄溜進(jìn)了辦公室,但公司的規(guī)矩、培訓(xùn)、監(jiān)管,全都沒跟上。
領(lǐng)導(dǎo)們還在問“AI能干啥”,員工已經(jīng)在用“自己買的AI”干完活了。
辦公室里的“地下AI運(yùn)動(dòng)”有多野
1. 53%的人“偷用”AI,28%的公司沒規(guī)矩
報(bào)告里有個(gè)詞叫“影子AI”(Shadow AI)——就是員工自己偷偷用的那些AI工具。數(shù)據(jù)很真實(shí):
- 53%的人用過沒經(jīng)過公司批準(zhǔn)的AI工具
- 28%的人說公司壓根沒有AI使用政策
- 42%的人不確定公司到底有沒有規(guī)矩
這意味著什么?意味著你辦公室可能每天都在“非法AI作業(yè)”,但沒人管,也管不了。
更扎心的是:那些接受過強(qiáng)制培訓(xùn)的人,反而更敢違規(guī)用AI。數(shù)據(jù)是——74%受過培訓(xùn)的人“偷用”過AI,而沒培訓(xùn)的人只有17%。
這不是培訓(xùn)沒用,是培訓(xùn)讓他們知道AI有多好用,但公司不給夠工具,他們就自己找。
2. 64%的人覺得自己很“懂”AI,但其實(shí)不是那么回事
報(bào)告里有個(gè)挺擰巴的數(shù)據(jù):64%的人說自己很自信能用好AI。
但同一批人,對自己的工具安不安全、數(shù)據(jù)會(huì)不會(huì)泄露,心里完全沒底。
比如:60%的人用自己掏錢買的工具干活,但只有50%信任這些工具的安全性。
這不是“我懂AI”,這是“我以為我懂,其實(shí)我啥也不確定”。
更離譜的是,52%的人想要“更準(zhǔn)的輸出”才能信任AI,48%的人想要“透明”才能信任——說明他們連AI是怎么得出結(jié)論的,都搞不清楚。
你讓一個(gè)連原理都不懂的人,去用AI做高風(fēng)險(xiǎn)的決策,這不是膽大,是“無知者無畏”。
3. AI智能體(AI Agent)已經(jīng)悄悄上崗了
報(bào)告還提到一個(gè)更前沿的東西:AI Agent——就是能自己完成多步驟任務(wù)的AI,不用你一步步指揮。
調(diào)查顯示:
- 51%的公司已經(jīng)在用AI Agent
- 主要用在數(shù)據(jù)分析(44%)、研究(40%)、客服(40%)、日程安排(33%)
- 但只有44%的員工真正搞懂什么是AI Agent
- 26%的人完全搞不懂
- 13%的人甚至不知道公司有沒有這玩意兒
想象一下:一個(gè)你完全不理解的東西,正在幫你做重要的工作決策。這不是效率,這是“失控”。
4. 培訓(xùn)有了,但好用的工具沒跟上
2025年到2026年,接受過AI培訓(xùn)的人從72%漲到了82%,這是好事。
但培訓(xùn)的內(nèi)容和形式,參差不齊:
- 只有23%的人是“全員強(qiáng)制培訓(xùn)”
- 41.5%只是“某些部門”才有
- 16%是“自己愿意學(xué)就學(xué)”
- 還有18%的人啥也沒學(xué)過
更關(guān)鍵的是:培訓(xùn)教了你,但公司不給好用的工具,你怎么辦?
報(bào)告發(fā)現(xiàn),那些受過培訓(xùn)的人,因?yàn)橹繟I有多好用,但官方工具太爛,就自己花錢買、自己偷著用——反而成了“懂規(guī)矩的違法者”。
5. 全球各地,AI“野路子”的程度不一樣
報(bào)告對比了幾個(gè)國家,挺有意思:
- 美國:39%還在“試探階段”,41%承認(rèn)“偷用”
- 英國:56%經(jīng)常用AI,主要為了“快決策”
- 德國:68%很自信,但42%抱怨“沒培訓(xùn)”
- 法國:80%覺得AI結(jié)果需要人盯,但53%還是“偷用”
- 巴西:最野!78%的人用自己工具干活,81%自己掏錢買,70%“一直都在用”
說明什么?說明“影子AI”不是個(gè)別現(xiàn)象,是全世界都在發(fā)生的地下運(yùn)動(dòng)。
總結(jié)與啟示:2026年,AI不再是“能不能”,而是“信不信”
報(bào)告最后有一段話,我覺得挺準(zhǔn)的:
- 2025年,大家問的是:“AI能干啥?”
- 2026年,大家問的是:“AI干的事,我們能信嗎?”
- 2027年,大家會(huì)問:“我們怎么把‘信得過’的AI,規(guī)模化用起來?”
2026年,是一個(gè)“能力”向“可信”轉(zhuǎn)折的年份。誰能在“信任”這件事上跑在前面,誰就能在2027年拉開差距。
那些“成熟框架”的公司,已經(jīng)有72%的人有AI政策、全員培訓(xùn)、企業(yè)級AI工具、董事會(huì)級別的監(jiān)管。它們能對員工說“這個(gè)能用,這個(gè)不能用”,員工不用自己瞎試。
那些“不成熟框架”的公司,還在“沒規(guī)矩、沒工具、沒人管”的狀態(tài)里掙扎。28%沒政策,19%沒培訓(xùn),53%的人在偷偷用AI——這不是“創(chuàng)新”,這是“裸奔”。
2027年,這兩類公司的差距會(huì)越拉越大。一個(gè)有規(guī)矩、有工具、有信任,一個(gè)還在處理“數(shù)據(jù)泄露”“合規(guī)違規(guī)”的爛攤子。
報(bào)告節(jié)選
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
三個(gè)皮匠報(bào)告AI譯版
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.