Linux内核发布首个AI代码贡献政策
ZDNET AI··作者 Steven Vaughan-Nichols
关键信息
该政策要求任何AI辅助补丁必须包含“Assisted-by”标签,明确规定只有人类才能添加DCO签名,并强调开发者在提交前必须彻底审查AI生成的代码。
资讯摘要
在数月争论后,林纳斯·托瓦尔兹和Linux维护者发布了该项目首个正式AI政策。该政策禁止AI代理添加Signed-off-by标签——只有人类才能依法认证代码。所有AI辅助贡献必须包含Assisted-by标签,标明所用模型和工具。
开发者需完全负责审查AI生成的代码,确保许可证合规,并处理任何漏洞或安全问题。该政策源于NVIDIA工程师萨沙·莱文提交AI编写补丁但未披露引发的争议。最终决定使用“Assisted-by”而非“Generated-by”,体现了AI作为工具而非合著者的角色,符合当前如代码补全和测试生成等实践。

资讯正文
Linux内核中AI辅助代码的新规则:每个开发者都需要了解的内容
林纳斯·托瓦兹(Linus Torvalds)和Linux内核维护者们对在内核中使用AI采取了务实的态度。无论是否使用AI,真正负责Linux代码的始终是人,而不是大型语言模型(LLM)。如果你试图用AI来篡改Linux代码,后果将很严重。
经过数月激烈争论,林纳斯·托瓦兹和Linux内核维护者们正式制定了该项目第一条关于AI辅助代码贡献的正式政策。这一新政策体现了托瓦兹的务实立场,在拥抱现代AI开发工具的同时,也坚守内核严格的品质标准。
新的指导方针确立了三个核心原则:
AI代理不能添加Signed-off-by标签:只有人类才能合法认证Linux内核的开发者证书(Developer Certificate of Origin, DCO),这是确保代码许可合规性的法律机制。换句话说,即使你提交的补丁完全由AI编写,你本人——而非AI或其创造者——才是该贡献的唯一责任人。
强制标注“受助于”信息:任何使用AI工具的贡献必须包含Assisted-by标签,明确标识所使用的模型、代理及辅助工具。例如:“Assisted-by: Claude:claude-3-opus coccinelle sparse。”
完全的人类责任:综合来看,作为人类提交者,你需对审查AI生成的代码、确保许可合规性以及由此产生的任何漏洞或安全缺陷承担全部责任和问责。不要试图像2021年明尼苏达大学两名学生那样偷偷塞入有问题的代码,否则你将永远失去成为Linux内核开发者或其他值得尊敬的开源项目程序员的机会。
“受助于”标签既是透明度机制,也是审查标记。它使维护者能够对AI辅助的补丁给予额外关注,而不会污名化这种做法本身。
此前,Nvidia工程师兼知名Linux内核开发者萨沙·莱文(Sasha Levin)曾提交一个完全由AI生成的补丁至Linux 6.15版本,包括变更日志和测试用例。莱文在提交前进行了审查和测试,但未向评审人员披露该代码是由AI编写的。这并未得到其他内核开发者的认可。
AI的角色应被视为工具,而非共同作者。
随后引发的争议最终促使莱文本人在2025年北美开源峰会上开始倡导制定正式的AI透明度规则。2025年7月,他提出了后来成为内核AI政策的第一版草案,并最初建议为AI辅助补丁使用Co-developed-by标签。相关讨论——无论是面对面还是在Linux内核邮件列表(LKML)上——都围绕是否应创建一个新的Generated-by标签,还是复用现有的Co-developed-by标签展开。
维护者最终决定使用 'Assisted-by'(由AI辅助)这一表述,以更准确地反映人工智能作为工具的角色,而非合著者。这一决定的背景是,AI编程助手如今在内核开发中突然变得真正有用。正如Linux稳定内核维护者格雷格·克罗哈特曼最近告诉我的那样:"一个月前发生了某些事,世界就变了——现在AI工具能生成真实且有价值的安全部署报告,而不是胡编乱造的废话。"
此外:Linux探索新的开发者及代码认证方式——它是如何工作的
最终选择 'Assisted-by' 而非 'Generated-by'(由AI生成)是有意为之,主要受三个因素影响:第一,它更准确。大多数AI在内核开发中的用途是辅助性的(如代码补全、重构建议、测试用例生成),而非完整代码生成;第二,该标签格式与现有元数据标签一致,例如 Reviewed-by(已审阅)、Tested-by(已测试)、Co-developed-by(共同开发)等;第三,'Assisted-by' 描述了工具的角色,同时不会暗示代码可疑或质量低。
这种务实的方法在一次LKML邮件列表讨论中得到了推动,当时托瓦尔兹表示:"我绝对不希望任何内核开发文档变成某种AI声明。我们已经有很多人站在‘天要塌了’和‘这将彻底改变软件工程’这两种立场上。我不希望某些内核开发文档采取其中任一立场。这就是为什么我强烈希望这只是一个‘仅作为工具’的声明。"
真正的挑战在于看起来可信的补丁
尽管Linux内核出台了新的AI披露政策,维护者并未依赖AI检测软件来发现未披露的AI生成补丁。相反,他们仍使用自己一贯的方法:深厚的技能力量、模式识别能力和传统而有效的代码审查。正如托瓦尔兹在2023年所说:"你必须具备一定的审美判断力,才能评价他人的代码。"
此外:这是我最喜欢的Linux发行版——我试过所有版本
为什么?正如托瓦尔兹指出的那样:"谈论AI垃圾代码毫无意义,因为那些写垃圾代码的人根本不会把自己的补丁标注为AI生成。" 真正困难的问题不是显而易见的垃圾代码——无论来源如何,这类补丁都很容易被拒绝。真正的挑战在于那些看起来可信的补丁:它们满足即时需求、符合本地编码风格、编译无误,却暗藏细微漏洞或长期维护成本。
新政策的执行并不依赖于抓到每一个违规行为,而是取决于让被抓到的后果足够严重,从而阻止欺骗行为。问问任何一个曾经因提交垃圾补丁而惹怒托瓦尔兹的人就知道了。尽管他比以前温和了许多,但你仍然不想让他对你不满。
来源与参考
收录于 2026-04-15