![]()
離職后被“蒸餾”的同事。
![]()
鄧小閑koki的視頻截圖。
2026年3月,一個名為“同事.skill”的開源項目突然走紅網絡。該項目只需要通過同事留在公司的飛書聊天記錄、釘釘文檔、工作郵件等數據,就能訓練克隆出一個高度模仿本人的“數字分身”,實現“賽博永生”。
該項目一經發布,“煉化離職員工做AI分身”“AI復活張雪峰”等話題迅速引爆討論。GitHub上還出現了“前任.skill”“老板. skill”“父母.skill”等一系列模仿項目,形成“數字克隆宇宙”的現象。
這也引起了打工人的擔憂:自己留下的知識、經驗等數據會不會被AI替身取代?飯碗還能否長期保住?
焦慮蔓延時,近日,一項名為“反蒸餾”的技能悄然出現。與“克隆”他人相反,它通過將真正重要的核心知識替換為看似正確但無實質內容的“正確的廢話”,來保護他人的知識不被輕易復制。4月9日,其開發者、AI產品經理兼自媒體人鄧小閑接受了華西都市報、封面新聞記者的專訪,講述了背后的思考與行動。
同事.skill讓人不安
她決定“反蒸餾”
“我記得那天看到‘同事.skill’的第一反應是心里沉了一下。”鄧小閑說,“因為它太‘合理’了。企業追求效率,AI技術剛好提供了這種可能,一切看起來順理成章。但這種順理成章本身就讓我不安。”
在她看來,這種現象的出現是技術發展的必然。“從ChatGPT爆火那天起,我就知道這類應用遲早會出現。技術總是先于倫理抵達現場,這是規律。”在同事.skill項目爆火后,鄧小閑等待了兩三天,期待有人站出來做點什么,但最終無人行動。“如果我能做點什么,卻沒有做,我會瞧不起自己。”于是,她決定開發“反蒸餾”程序。
對于員工“蒸餾”現象是否普遍,鄧小閑有獨到的觀察:“目前公開做這件事的大公司不多,但我不認為這意味著現象不普遍。恰恰相反,正是因為它敏感,所以被藏起來了。”
那么,“反蒸餾”反抗的究竟是什么?鄧小閑認為,這首先是一個實用的數字自衛技術,這是底線。但它的意義遠不止于此,“它同時是實用的技術工具——保護當下的自己;帶有抗議性質的表達——對‘數據即資產’邏輯的質疑;面向未來的社會實驗——我們在測試一種可能性,就是個體能否在技術洪流中保持某種邊界。這三種身份不矛盾。好的技術應該同時是工具、表達和實驗。”
如數字分身產生經濟收益
原型人物應獲得分成
如果“克隆員工”的技術成熟,公司頂尖員工也會被替代嗎?鄧小閑的回答很直接:“這不是‘會不會’,而是‘什么時候’。技術不會挑人,今天它能復制普通員工,明天就能復制專家。當AI可以24小時工作、不喊累、不離職、不漲薪時,‘頂尖’就不再是職業護身符。”
“但我不認為人只能被動接受。我們可以主動尋找應對的方式。更關鍵的是:被替代之后呢?如果人活著的價值只等于勞動產出,那‘反蒸餾’也只是拖延時間。真正的出路或許是,社會需要重新定義‘人的價值’——不應只由生產力來決定。”
她特別提到,如果數字分身產生了經濟收益,原型人物理應獲得分成。“比例可以談,但‘零分成’是不合理的。更進一步,個人應當有‘被遺忘權’——可以隨時要求刪除自己的數據、停掉數字分身。這不只是錢的問題,更是尊嚴。”
“數字人”不是不能做
而是要明確邊界
當被問及更擔心大公司壟斷還是普通人濫用時,鄧小閑表示兩者都擔心,但大公司的系統化風險更緊迫,“一旦有巨頭大規模‘克隆’員工并實現降本增效,其他公司很可能被迫跟進。結果就是招聘時看‘這人的數據好不好提取’,晉升時考慮‘這崗位能不能被AI替代’。人的價值會被重新定義為‘數據有多少、多容易被替代’。這種系統性的影響,比個人濫用更難應對。”
鄧小閑坦言,自己也曾被請求開發更強大的AI工具。“有人想復制已經分手的戀人,讓那個數字分身繼續陪伴自己。有人想復制去世的親人,讓數字版的奶奶能繼續給孩子講故事。還有人想做自己的數字分身,24小時替自己工作、回消息、參加會議。”
“這些我不反對,甚至覺得有意義。所以問題不是‘能不能做數字人’,而是在什么邊界條件下可以做。也許倫理邊界本身會隨社會共識移動。”至于如何平衡倫理壓力,她表示:“技術權力是真實的,倫理壓力也是真實的,而我還在學習如何與這種復雜性共處。”
律師說法
未經同意復制他人
已踩法律紅線
對于同事.skill及衍生的“數字分身”現象,陜西恒達律師事務所高級合伙人趙良善律師指出,該技術最根本的問題是嚴重違反個人信息保護法律。
他解釋,飛書聊天、工作郵件等內容都屬于法律保護的個人信息,根據個人信息保護法,處理個人信息必須獲得個人明確、具體的同意,且不得超出原先說明的范圍。如果該技術未經允許擅自抓取和使用員工數據,就屬于違法收集和使用,情節嚴重的可能構成侵犯公民個人信息罪。
趙良善說,制作AI分身涉及對他人肖像、聲音、表達習慣的復制,這直接觸及民法典中人格權的保護范圍。未經允許制作和使用他人肖像、姓名都是侵權。而將一個人的思維方式、決策邏輯做成“可使用的工具”,更是對人格的物化,有損人的尊嚴。如果AI分身的言論導致本人社會評價降低,還涉及名譽侵權。
“‘數字分身’看似是技術產物,但它直接挑戰了‘數據屬于誰’的基本問題。在缺乏授權、沒有標識、不可撤回的情況下,這類應用實際上是把人的數字痕跡變為可隨意使用的資產。從社會治理看,技術不應凌駕于法律與倫理之上,我們需要建立包括法規、技術標準、倫理約束在內的多元治理體系。”趙良善說。 華西都市報-封面新聞記者 陳彥霏
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.