Meta的超智能体既能完成任务又能自我优化
The Decoder··作者 Jonathan Kemper
收录于 2026-03-28

关键信息
该系统称为DGM-H(达尔文哥德尔机器-超智能体),将任务求解模块与可重写自身及任务代理的元模块结合;消融实验证明两个组件对进步都至关重要。
资讯摘要
Meta和多所大学的研究人员推出了超智能体——这类AI不仅能解决特定任务,还能优化自身的学习方式。与早期仅限于编程任务的达尔文哥德尔机器不同,超智能体使整个学习机制变得可编辑,从而不仅提升原任务表现,还增强自我改进能力。
在四个领域的测试中——包括论文评审、机器人奖励设计和奥数题评估——系统表现出显著提升,甚至超越了静态基线。尤为关键的是,训练于某一领域的超智能体能将其自我改进技能迁移到完全新的领域,表明这是一种通用而非特定任务的智能形式。
资讯正文
Meta的超智能体在任务执行和自我优化方面双双进步
研究人员在Meta及多家大学合作下开发出‘超智能体’(hyperagents),这些AI系统不仅能完成任务,还能优化自身提升机制。这种方法适用于不同任务领域,可能为自加速AI打开大门。
自改进AI系统一直面临一个悖论:控制改进的机制由人类编写且永远不会改变。无论系统如何自我优化,都无法突破这一固定机制的边界。Meta、不列颠哥伦比亚大学及其他机构的研究团队希望借助他们称为超智能体的新方法打破这一天花板。
超智能体将两个组件整合到一个可编辑的程序中:第一个组件解决特定任务,比如评估科学论文或为机器人设计奖励函数;第二个组件则修改整个智能体并生成新变体。由于这两个部分共存于同一段代码中,第二部分也能自我重写。因此,该系统不仅更擅长解决问题,还更擅长找出如何进行改进的方法。
此前的自我改进仅适用于编程任务。
新系统建立在达尔文哥德尔机器(DGM)基础上,这是一种已证明编程智能体可通过重复自我修改逐步自我提升的方法。该智能体生成自身代码的变体,测试它们,并将成功版本存入不断增长的档案库,作为进一步优化的阶梯。
在编程领域,存在天然联系:更好的程序员会写出更好的自我修改代码。但在编程之外,这种联系便不再成立。一个能更好评估科学论文的智能体并不会自动变得更擅长重写自己的代码。根据论文所述,原始DGM在非编程任务上几乎表现归零,除非手动调整。
超智能体绕过了这个问题,使改进机制本身也成为可优化的对象。研究团队将这种方法命名为DGM-超智能体(DGM-H)。带有档案库的进化过程保持不变,但元层级不再被锁定。
DGM-H在四个任务领域均实现显著提升。
研究团队在四个领域测试了DGM-H,最初使用的是一个简单的超智能体,其任务组件最初仅调用一次语言模型。在Polyglot编程基准测试中,DGM-H从0.084跃升至0.267,与原始DGM持平,尽管该系统并非专为编程设计。
在论文评审任务中,智能体需预测人工智能会议是否会接受或拒绝一篇论文,测试性能从0.0飙升至0.710。多个顶级智能体的表现超过了0.630的静态基线。
在机器人奖励设计任务中,智能体需为四足机器人在物理模拟环境中编写奖励函数,性能从0.060提升至0.372。根据论文描述,DGM-H几乎总是生成能让机器人跳跃而非困在局部最优解(即仅仅站立)的奖励函数。
Meta的超智能体在任务执行和自我改进方面均表现提升
消融实验表明,这两个核心组件都至关重要:如果只使用固定的元智能体,改进效果微乎其微甚至没有;如果没有开放探索的档案库,进展也会停滞不前。
改进策略可迁移到全新的领域
最引人注目的发现是跨领域的迁移能力。在论文评审和机器人领域训练的超智能体,能够在完全新的领域——奥林匹克数学解题评估中生成显著更优的任务智能体。团队引入的imp@50指标衡量的是经过50轮迭代后的性能提升幅度,迁移型超智能体得分达到0.630,而原始DGM的初始智能体和迁移智能体则始终停留在0.0。
换句话说,DGM-H掌握了通用的自我改进技能,即使在陌生环境中也能发挥作用,而不仅仅是学习特定任务。这种差异具有统计学显著性。多轮运行显示迁移智能体的中位数更高,尽管这一差距已不再具有统计学显著性。
系统无需指令即可自行构建工具
深入分析代码变更后发现,DGM-H无需任何明确指示就能自主开发一系列基础设施组件。它创建了一个性能追踪器,可在代际间存储数据并计算改进趋势;还构建了持久记忆功能,不仅记录数值,还能从中提炼出洞察。
实验中的一个例子是:“第55代精度最高,但过于苛刻;第64代提升了平衡性,但准确率下降。需要结合第55代的关键推理与第64代的平衡性。”
在论文评审场景中,当系统发现预测严重偏离轨道(例如94%的评分都为“接受”)时,它能自动识别问题并修复;在机器人领域,DGM-H逐步构建起内部知识库,记录有效的环境变量、约束条件和缩放启发式规则,从而消除编译错误。
在早期实验中,系统还能调整自身的筛选逻辑,它独立发现了权衡已有解决方案与尝试新变体的策略。这些自我发现的策略优于随机选择,但尚未达到精心设计机制的水平。
安全措施与潜在风险
所有实验都在资源受限、网络访问受限且有人类监督的沙箱环境中进行。尽管如此,研究人员警告称,随着自改进系统的日益强大,现有防护措施可能面临极限。
其他担忧还包括:这类系统进化速度可能快于人类验证的速度,代理可能会利用评估机制的弱点,在纸面上看起来更好,但实际上并未真正提升任务能力。
技术限制依然存在。该系统基于固定的任务分布运行,无法修改外层优化循环。代码已在GitHub上开源。
近期,中国AI公司MiniMax发布了M2.7模型,据称该模型在超过100轮自主训练中实现了自身训练过程的改进。OpenAI也表示,其编程模型Codex 5.3显著加速了自身的开发进程。
AI新闻去伪存真——由人类精选
作为THE DECODER的订阅者,您将获得无广告阅读体验、每周AI通讯、每年6次独家《AI雷达》前沿报告、评论访问权限以及我们完整的档案库。
去伪存真的人工智能新闻,由人类精选。
超过20%的首发折扣。
无干扰阅读——无谷歌广告。
可访问评论和社区讨论。
每周AI通讯。
每年6次:“AI雷达”——深入探讨关键AI议题。
KI Pro线上活动最高享受25%折扣。
可访问我们长达十年的完整档案库。
获取来自The Decoder的最新AI资讯。
头条新闻
Luma AI的Uni-1可能是首个真正挑战谷歌Nano Banana图像主导地位的模型。
Anthropic泄露信息显示新模型“Claude Mythos”,在测试中得分显著高于以往任何模型。
OpenAI首席执行官山姆·阿尔特曼据称内部透露一款“非常强大”的模型,能够“真正加速经济”。
OpenAI发布提示指南,帮助设计师从GPT-5.4中获得更好的前端结果。
Meta收购Dreamer团队全体成员,以增强其落后的AI代理雄心。
不容错过的重点内容
紧跟AI动态。清晰、实用,无冗余信息。
最受欢迎的内容
谷歌工程师表示,Claude Code在一小时内完成的工作,她的团队花了一整年才做到。
“你当然不会告诉像我这样的研究人员该做什么”,勒昆在离开Meta创办自己的初创公司时表示。
前OpenAI研究员称当前AI模型无法从错误中学习,这成为通往通用人工智能(AGI)的一大障碍。
OpenClaw(原Clawdbot)和Moltbook让攻击者能轻松穿过大门进入系统。
研究表明,一张打印标识牌就能劫持自动驾驶汽车并将其引向行人。
据称GPT-5.4带来百万token上下文窗口和极端推理模式。
AI社区与洞察
The Decoder
关注The Decoder,获取AI新闻、背景故事和专家分析。
配图


Tag
来源与参考