IT之家 4 月 12 日消息,據科技媒體 Tom's Hardware 今天報道,經歷數月爭論后,Linux 內核維護團隊為 AI 生成代碼制定正式準則,允許使用 GitHub Copilot 等輔助編程工具,但所有 Bug、安全問題最終都要由提交代碼的人擔責。
![]()
IT之家在此援引 Tom's Hardware,這項政策出臺前,開源社區圍繞 AI 的爭論已經持續很長時間,并在今年 1 月達到高潮。當時英特爾工程師 Dave Hansen 和甲骨文員工 Lorenzo Stoakes,就“是否嚴格限制 AI 工具”產生激烈爭吵。
最終 Linux 創始人 Linus Torvalds 親自下場終結這場爭論,稱全面禁止 AI 只是毫無意義的作秀。
Linus Torvalds 的立場非常純粹,認為 AI 只是工具。他認為提交垃圾代碼的人本來就不會遵守規則,因此與其限制開發者用什么工具,不如直接追究‘提交者’的責任。這種強調結果的現實主義,與部分開源社區“見 AI 就踩一腳”形成鮮明對比。
不過這項政策出臺之前,各大開源項目的做法各有不同,NetBSD、Gentoo 直接禁止 AI 生成代碼,后者甚至認為大模型生成內容在法律上屬于“污染”,因為訓練數據的版權來源并不明確。
這就帶出了另一個爭議焦點:原創聲明(DCO)。它要求開發者必須確保自己提交的代碼擁有所有權,但 AI 大模型訓練時使用的很多代碼都受 GPL 等許可證約束。等于說開發者無法完全保證 AI 生成代碼的來源合法性。
除了合規問題,開源社區維護者現在每天都要看到一堆 AI 垃圾代碼,其中 cURL 被大量幻覺代碼淹沒,被迫關閉漏洞獎賞計劃。Node.js 和 OCaml 收到上萬行 AI 補丁,引發內部爭議。
并且,社區成員也非常反感隱瞞使用 AI 的行為,例如 Sasha Levin 曾在未披露的情況下提交 AI 生成的 Linux 補丁,雖然代碼能跑但性能非常差,連 Torvalds 都承認評審不充分。
而 Linux 非常直截了當,新規并不禁止 AI,但要求所有開發者必須寫明代碼是否由 AI 生成,同時將失誤責任劃分給人類開發者,等于是將“誰簽字,誰負責”換成了“誰點提交,誰負責”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.