來源:市場資訊
(來源:電腦報少年派)
“他上周剛提交離職申請,今天我在飛書上問他之前負責的項目細節,得到的回復和他平時說話語氣一模一樣。后來才知道,那不是他本人,是公司用他的文檔訓練的AI分身。”近日,某互聯網公司員工孫宇(化名)發現自己已離職的前同事,仍然在用一種特殊的方式跟自己對接。
孫宇的經歷并非個例,“員工煉化”已經成為許多公司未公開的常規操作。企業將員工的數字痕跡轉化為可復用的AI資產,再次刷新人們對AI時代勞動形式的認知,以后員工離職不再意味著徹底脫離崗位,“數字分身”會代替你永遠留在公司。
![]()
01
大學教育面臨“信任危機”?
“只要你在辦公軟件上留下過文檔、聊天記錄、會議紀要,這些數據都會被納入AI訓練庫。”孫宇透露,他那位離職同事的AI分身,可以回答項目流程、客戶需求等常規問題,還能模仿其簡潔直接的說話風格,甚至回憶只有團隊內部才知道的項目細節。“不過這個分身的能力,取決于投喂的數據質量。可以把它理解為攝取了同事記憶和經驗的豆包。”孫宇解釋道。
這種技術被稱為智能體分身(Agentic Workflow),但人們選擇用更具象的類比來定義它——“煉化”,把員工的“魂魄”扔進AI數據庫這個“煉丹爐”,技術淬煉后將其重塑成永不離崗的“數字金身”,好比賽博煉丹。
“起初覺得很有趣,”孫宇坦言,“但想想又覺得有些‘詭異’,之前一起插科打諢的真人突然就變成了AI,而你要帶著共事的記憶繼續和一個‘數字幽靈’對話。”
![]()
從事HR工作的張奇(化名)指出:“‘煉化’員工的核心目的是降低人力成本。”一方面,文檔、會議紀要等內容本身就要歸檔以供后續查閱調用,AI分身只是改造了一下交互入口,把OA系統里的功能鍵變成“數字人”;另一方面,員工離職往往會帶走大量隱性知識,比如項目避坑經驗、客戶溝通技巧,這些經驗很難通過文檔完整留存。“AI分身通過聊天記錄的投喂,能把這些隱性知識‘固化’下來,相當于讓員工的‘腦子’繼續為公司創造價值。”
這一現象迅速引發熱議,有人吐槽“連離職都逃不掉加班,相當于被公司‘終身壓榨’”;也有人表示理解,“如果能通過AI留存經驗,避免新人走彎路,其實是件好事”。
這一趨勢開始蔓延到更多元的場景,一個名為“同事.skill”的GitHub項目迅速走紅,人們除了把離職同事的數據喂進去生成同事skill,還把它擴展到老板、導師、朋友,甚至自己。有網友感慨:“沒想到這么快人類就進入了賽博永生時代。”
![]()
自我“煉化”的永生.skill
02
“煉化”人類,由來已久
其實“煉化”人類,并非AI大模型爆發后才出現的新鮮事。從AI 2.0時代開始,甚至更早,“將人類的知識、技能、形象數字化復刻”的實踐就已在多個領域展開。
最具代表性的,當數好萊塢的數字資產保衛戰。2023年,好萊塢爆發了首次全行業罷工,編劇與演員集體抗議制片方利用AI侵犯其權益,核心矛盾之一就是制片方試圖買斷演員的數字形象和聲音,讓他們“死后也能演戲”,并且利用編劇的作品訓練AI,批量生成劇本,卻不給予任何補償。
這場持續四個多月的罷工,最終以制片方做出讓步告終。制片方承諾限制AI在影視創作中的使用,明確規定AI不能替代編劇、使用演員數字資產需支付合理報酬。
![]()
與好萊塢的商業博弈不同,還有一些“AI分身”承載的是人們的情感寄托。
2017年,一位俄羅斯女孩失去了因車禍離世的摯友,她獲得好友親人的允許后,收集了好友生前8000多條對話記錄,開發了一款能模仿其說話方式的AI聊天機器人,并通過與它傾談來獲得慰藉。
如今AI技術不斷進步,Replika這類虛擬陪伴應用已經融入越來越多人的生活,許多用戶利用逝者的社交數據訓練AI,試圖實現情感上的“亡者招魂”。這時“煉化”人類不再是一種商業行為,而是人們對抗離別、寄托哀思的方式。
在工業領域,這種“煉化”的實踐同樣由來已久。
人形機器人之所以能精準完成揀貨、裝配等復雜動作,背后離不開對人類技工經驗的數字化提取。有一種數據采集員崗位,專門負責指導機器人完成各類動作,通過傳感器捕捉自己的手腕轉動角度、手指發力力度等細節,這些數據處理后,會轉化為運動算法,成為機器人“學習”的教材。這個應用其實跟動作捕捉演員的工作很相似。
由此可見,“數字分身”的實踐早已滲透到各個領域,大廠對離職員工的“煉化”,只是這一趨勢在互聯網行業的延伸。不過正因它在職場中的滲透,更直觀地觸及個人權益,才招致許多批評,并引發關于知識主權的攻防較量。
03
“知識主權”保衛戰
在過去,員工的核心競爭力是憑借獨特的經驗、直覺和能力,成為企業不可或缺的人才;而在AI時代,這些原本屬于個人的知識、技能都被AI復刻,員工的不可替代性被大幅削弱,生存空間不斷被壓縮。
于是,有人開始利用防御性舉動來“反煉化”:不夠詳細的產品邏輯分析、只有團隊內部能看懂的縮寫和暗語、不同步到軟件而是記在本子上的關鍵決策思路……將自己的經驗屏蔽在訓練AI分身的數據庫之外。
在GitHub上,甚至出現了專門“反煉化”的工具——anti-distill,它能將文檔中的核心邏輯、避坑經驗等關鍵信息剝離,只留下看似專業、實則無用的“正確廢話”,讓AI無法提取有價值的知識。這些“知識脫水”手段,成為大廠員工防止被企業無償“收割”的無奈之舉。
![]()
“反煉化”的anti-distill
不可否認的是,“煉化”技術的普及,正在倒逼人類去產生更深層、更具直覺、無法被文檔化的高階智慧,員工開始從整理文檔等重復性勞動中解脫出來,向更高級的創造性工作轉型。
然而,對目前的個體而言,感受更多的是技術變革帶來的陣痛。
這種“煉化”在法律層面存在許多灰色地帶,例如:用員工的信息訓練AI卻未明確告知或未獲得同意,已涉嫌侵犯個人信息權益,其中私密內容的泄露,還可能為員工帶來風險隱患;AI分身復刻員工的語氣、工作風格,是否構成肖像權、人格權侵權,也存在爭議。因此,人們的態度更傾向防御性自保,而非積極擁抱,這些“反煉化”手段不僅不利于團隊協作,也為員工帶來與AI系統博弈的額外負擔。
04
學教育面臨“信任危機”?
對于把員工變成新時代的智能體,很多人第一個反應或許是震驚:辛勤工作數年,留給公司的竟成了一臺能完美模擬自己決策、且永不疲勞的“職場分身”。但是,這種“賽博克隆”到底是如何在技術層面一步步實現的?
![]()
以前我們覺得,AI只是在上億語料庫中“學說話”,就像東拼西湊的“復讀機”。但現在,大廠“蒸餾”盯上的是你工作時,甚至與同事交流的因果邏輯。
“以前有同事離職,會留下一個交接文件,相當于工作說明。”曾在杭州某大廠做后端的小李解釋,新人和老員工在交接工作的時候,會留下一個關于項目操作的文檔,比如數據庫突然“崩”了該怎么辦。
而現在,新人直接問老員工“蒸餾模擬器”就行,“很多大廠推行文檔文化,要求事無巨細地記錄方案,還要日報、周報、月報。從技術上看,這些文檔成了RAG的絕佳素材”。
RAG,全稱為Retrieval-Augmented Generation(檢索增強生成),是一種結合了信息檢索和文本生成的人工智能技術。簡單來說,RAG通過從大量文檔或數據庫中查找相關信息,并基于這些信息來生成更準確、更有針對性的回答或內容。
![]()
RAG
技術常被用于提升大模型回答準確率
RAG技術常常被用來降低AI“胡說八道”的風險。當用RAG在老員工留下的文檔庫里檢索出相關片段后,再把這些“干貨”塞給大模型(LLM)進行總結。這也就導致老員工寫的文檔越多,AI對其知識體系的覆蓋率就越高。
不過業內人士提到,光引入RAG得出的結果還是有點生硬,現在的進階玩法是GraphRAG(基于圖的檢索增強生成)技術。
GraphRAG不是傳統RAG的“替代品”,而是“補充方案”——它用額外的成本,換來了復雜場景下的推理能力和可靠性。
它不僅提取文字,還會通過知識圖譜識別出文檔中的實體與關系,讓模擬器更像“真人”。例如,AI通過GraphRAG,把老員工過去處理過10次類似故障的記錄連成了一張“邏輯網”:問題觸發——解決動作——判斷邏輯——異常處理時的常態。
這就是所謂的“人格化索引”:AI檢索的不再是某行字,而是某人處理問題的因果鏈條。它克隆了一個人思考問題的優先級和決策偏好,即使人走了,這張“思維地圖”依然留在公司的服務器里,指導著后繼者。
05
低成本克隆“靈魂”
這種工作能力可以萃取就算了,怎么跟同事聊天、說話也帶有曾經老員工的“風味”?請不要驚慌,這是LoRA(Low-Rank Adaptation,低階自適應)微調的功勞。
LoRA是高效訓練自定義大語言模型(LLM)的最廣泛和有效的技術之一。以前要訓練一個模型模仿某人,需要大量算力,但現在有了LoRA,成本直接降到了幾十塊錢。
LoRA的邏輯非常巧妙,它不觸動大模型那幾千億個參數的“大腦皮層”,而是在旁邊掛一個小小的“插件層”。公司只需要提取你過去幾年的辦公軟件如飛書或釘釘的群聊記錄作為訓練語料,LoRA就會捕捉這個人獨特的語言統計特征:喜歡用長句還是短句,習慣用“我覺得”還是“數據顯示”,甚至于表情包使用習慣,以及那些標志性的口頭禪。
![]()
這個輕量級的“分身插件”可能只有幾首歌那么大,掛載在公用的基座模型上,一個活脫脫的數字化分身就上線了。它能把老員工說話的語氣、對待上級任務的反應,甚至那種似是而非的幽默感,都模仿得惟妙惟肖。
總的來說LoRA起到一個“注入靈魂”的作用,但是這種語言風格克隆,比起前面的邏輯克隆,怎么更讓我覺得惶恐呢?
06
誰來為“真人智能體”買單?
有了老員工模擬器的問答,當然可以再通過智能體把問答變成工單、把工單變成流程、把流程變成可追蹤的閉環。
智能體(Agent)本來指的就是能夠在既定權限范圍內調用工具、執行流程的軟件實體,當這個“蒸餾版”的老員工不僅會說話,還能直接調用數據庫、審核代碼、給客戶發郵件時,它就從一個對話框進化成了AI智能體。
隨之而來的,是法律與倫理的無人區。
在技術架構中,這個分身模擬器可以通過API連接公司各個流程網站,這意味著,它不僅擁有你的“知識”,還承接了你的“權力”。
![]()
數字智能體犯錯后,責任該如何劃分?
那如果分身犯了錯怎么辦?模擬器畢竟是AI,它在回復客戶時,很可能會因為底層模型的“幻覺”,承諾了一個公司根本無法實現的目標,如果導致巨大損失,這個鍋誰來背?
是離職員工嗎?當然不行,畢竟這個人早已沒有了物理操作權。開發模擬器的工程師?可這位員工也會覺得冤枉,畢竟他也只是套了一個算法。公司決策層?他們大概率會聲稱這只是“系統故障”。
北京互聯網法院的工作人員提到,目前法律界趨向于認為,誰擁有該智能體的所有權并從中獲利,誰就承擔民事責任。但在實際操作中,定位一個AI決策的故障點極其困難,尤其是沒有相關案例能作為參考。
另外,當公司使用員工的“智能體分身”獲利,是否應該支付持續的授權費?我們寫的每一行代碼、每一份PPT,難道不該烙印我們自己的“智力產權”嗎?這又是一個技術在前面狂奔,而監管法條在后面苦苦追趕的典型難題。
![]()
微信訂閱
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.