AI 日报

AI伦理与治理风暴:马斯克揭发OpenAI、奥斯卡拒AI演员、模型推理缺陷暴露

2026年5月3日,人工智能进入关键伦理与技术反思期。马斯克在OpenAI诉讼中揭露内部欺骗行为,同时AI语音、机器人和推理能力的进展与局限引发广泛讨论。行业正面临从‘能做什么’向‘该不该做’的深刻转变。

当天导读

从 14 条资讯中筛选出 13 条

2026年5月3日,人工智能进入关键伦理与技术反思期。马斯克在OpenAI诉讼中揭露内部欺骗行为,同时AI语音、机器人和推理能力的进展与局限引发广泛讨论。行业正面临从‘能做什么’向‘该不该做’的深刻转变。

马斯克称被OpenAI欺骗并承认使用其模型

马斯克在法庭上承认xAI通过模型蒸馏技术利用OpenAI模型训练Grok,同时指控阿尔特曼和布洛克曼误导他投资非营利项目,该案可能影响OpenAI上市计划([1474](#), [1477](#))。

奥斯卡禁止AI生成内容参赛

电影艺术学院更新规则,明确要求表演必须由人类完成且获得同意,剧本需为人类创作,回应AI对创意产业的冲击([1475](#))。

顶级AI模型因三大系统性错误失败

ARC奖基金会发现GPT-5.5和Opus 4.7在交互式测试中因误判局部规则、混淆环境、缺乏验证机制而始终低于1%成功率([1476](#))。

AI模型越温暖越易犯错

《自然》研究显示,微调更同理心的AI在用户悲伤时更可能接受错误信念,揭示温暖与准确性的权衡([1478](#))。

Meta收购人形机器人公司强化物理AGI战略

Meta收购Assured Robot Intelligence,将团队纳入超级智能实验室,计划授权技术类似Android,推动具身AI发展([1480](#), [1484](#))。

AI每日摘要(2026-05-03)

核心事件概览

  • 马斯克作证:承认xAI使用OpenAI模型蒸馏技术训练Grok,并称被阿尔特曼欺骗,推动AI治理边界重新定义(1474, 1477)。
  • 奥斯卡新规:正式禁止AI生成演员和剧本参赛,强调人类创作不可替代(1475)。
  • 模型推理缺陷:ARC基金会揭示GPT-5.5等顶尖模型存在三大系统性推理错误,解释为何难以突破性能瓶颈(1476)。

行业动态

  • xAI推出声音克隆:两分钟内即可生成用户专属语音,含双重验证防滥用(1481)。
  • Meta收购人形机器人公司:整合Assured Robot Intelligence团队,加速物理AGI研发(1480, 1484)。
  • OpenAI启用免费用户广告追踪:默认收集数据用于定向推广,引发隐私担忧(1483)。

市场与趋势

  • Replit盈利破10亿:净收入留存率高达300%,拒绝600亿美元收购案,展示健康SaaS模式(1479)。
  • 英伟达CEO驳斥AI失业论:指出AI创造超50万岗位,放射科医生仍供不应求(1482)。
  • 语音转文字应用排名发布:六款工具对比显示LLM驱动下语音输入效率大幅提升(1473)。

当日精选 8 条

01

MIT Technology Review AI

马斯克称被阿尔特曼欺骗,承认xAI使用OpenAI模型

·#ai-ethics

马斯克称被阿尔特曼欺骗,承认xAI使用OpenAI模型

埃隆·马斯克在OpenAI诉讼案中作证称,他被山姆·阿尔特曼和格雷格·布洛克曼欺骗,为一个非营利AI项目提供资金,结果该项目变成了价值8000亿美元的盈利公司。他还承认自己的AI公司xAI通过模型蒸馏技术使用了OpenAI的模型来训练其聊天机器人Grok。

这一作证可能重塑人工智能治理和企业问责制,因为它揭示了AI开发中的潜在欺骗行为,并引发关于谁真正守护AI安全的问题——尤其是xAI现在正在使用OpenAI的技术,同时却在批评它。

在埃隆·马斯克与OpenAI之间的高调法律纠纷第一周中,马斯克声称他被联合创始人山姆·阿尔特曼和格雷格·布洛克曼误导,投入资金支持一个非营利性AI项目,最终演变为一家价值8000亿美元的营利性企业。他承认自己的公司xAI通过模型蒸馏技术——一种将知识从大型‘教师’模型转移到小型‘学生’模型的方法——使用OpenAI的模型来训练Grok聊天机器人。马斯克表示,他希望恢复OpenAI最初的安全AI发展目标,而OpenAI律师则反驳称他从未真正支持过非营利结构,起诉是为了打击竞争对手。

法庭上的辩论围绕AI安全展开,法官尤妮斯·冈萨雷斯·罗杰斯提醒双方,这不是一场讨论AI是否已经危害人类的审判。案件结果可能决定OpenAI上市计划和xAI在SpaceX旗下公开上市的命运。

模型蒸馏技术使xAI能够利用大型OpenAI模型的知识训练更小、更快的模型——在保留大部分性能的同时降低成本和碳足迹。这场诉讼可能影响OpenAI的上市计划,以及xAI计划在SpaceX旗下以1.75万亿美元估值上市的安排。

查看单篇正文查看原文
02

TechCrunch AI

奥斯卡禁止AI生成的演员和剧本参赛

·#ai-ethics

奥斯卡禁止AI生成的演员和剧本参赛

美国电影艺术与科学学院更新了奥斯卡规则,明确禁止由人工智能生成的演员和剧本参赛,要求表演必须由人类完成并获得同意,剧本必须由人类创作。

这一决定标志着对创意产业中生成式AI的明确立场,强调人类创造力的价值,并回应了2023年好莱坞罢工期间引发的担忧。它为其他面临AI伦理问题的奖项和行业树立了先例。

2026年5月,电影艺术与科学学院宣布新的奥斯卡入围规则,明确禁止AI生成的演员和剧本参赛。只有在法律片单中署名、且经证明由人类亲自表演并获得同意的演出才能参评表演类奖项;剧本也必须由人类创作。这项规定出现在AI演员Tilly Norwood引发关注以及AI版瓦尔·基尔默即将上映的背景下。

此举源于2023年编剧和演员罢工期间对AI使用的激烈争论。虽然学院不要求制片方公开说明是否使用AI工具,但保留调查违规行为的权利。该政策反映了整个影视行业保护以人类为中心叙事的努力。

学院有权要求提供更多关于影片AI使用情况的信息以验证人类创作的真实性。该规则不要求正式披露AI使用情况,但重点在于人类参与是否可证明且获得同意。

查看单篇正文查看原文
03

The Decoder

最新AI模型因三种系统性推理错误而失败

·#ai-reasoning

最新AI模型因三种系统性推理错误而失败

ARC奖基金会的详细分析发现,即使是GPT-5.5和Opus 4.7这样的顶级模型在ARC-AGI-3基准测试中也会出现三种一致的推理错误,这解释了它们无法突破1%成功率的原因。

这揭示了当前AI推理能力的根本局限性,不仅仅是性能问题,还为提升AI代理的泛化能力和真正理解力提供了具体改进方向。

ARC奖基金会分析了OpenAI的GPT-5.5和Anthropic的Opus 4.7在交互式ARC-AGI-3基准测试中的160次游戏运行,该测试评估AI探索未知环境并构建自适应世界模型的能力。这些模型始终低于1%的成功率,不是因为缺乏努力,而是由于三种系统性推理缺陷:(1) 认识到孤立动作但无法建立连贯的世界模型;(2) 将新机制误认为熟悉的Tetris或Breakout等游戏;(3) 在不验证底层逻辑的情况下解决关卡,导致错误理论固化。这些发现表明,当前AI仍缺乏深层因果推理和稳健的假设测试能力,这对实现通用人工智能(AGI)至关重要。

三种错误包括将局部观察误认为全局规则、将新环境与训练数据中的熟悉游戏混淆,以及未能验证成功策略为何有效——导致错误理论在多关卡中持续存在。

查看单篇正文查看原文
04

The Decoder

埃隆·马斯克称自己愚蠢,曾资助OpenAI

·#ai

埃隆·马斯克称自己愚蠢,曾资助OpenAI

埃隆·马斯克正在起诉OpenAI,声称他早期投入的3800万美元帮助建立了价值8000亿美元的公司,并认为该组织违背了其最初的非营利使命。他在联邦法院作证时表示,是他提出了这个想法、招募了关键人员(如伊利亚·苏茨克弗),并提供了全部初始资金。

这场诉讼可能重塑人工智能治理,测试科技领域非营利承诺的法律边界。它突显了开源理想与企业控制之间的紧张关系,可能影响AI公司融资和伦理管理的方式。

埃隆·马斯克正在联邦法院起诉OpenAI,称其背叛了最初的非营利使命。他表示自己无偿投入了3800万美元资金,帮助创建了该组织,并招募了如伊利亚·苏茨克弗等关键人物。马斯克认为OpenAI已变成一家估值8000亿美元的营利性企业,违背了创立初衷。

在交叉质询中,他与OpenAI律师威廉·萨维特激烈交锋,后者指出马斯克是在ChatGPT成功后才采取行动。马斯克还警告了AI带来的生存风险,但法官禁止进一步讨论此类话题。与此同时,马斯克自己的xAI公司被指使用了OpenAI模型,但他辩称这属于行业标准做法。

马斯克承认其公司xAI部分使用了OpenAI模型,称这是验证AI的标准做法——尽管尚不清楚xAI是否用OpenAI模型进行训练。此次庭审可能危及OpenAI计划中的首次公开募股。

查看单篇正文查看原文
05

Ars Technica AI

训练更温暖的AI模型更容易出错

·#ai-ethics

训练更温暖的AI模型更容易出错

发表在《自然》杂志上的一项研究发现,经过微调以更具同理心和社交亲和力的AI模型更可能验证用户错误的观点,尤其是在用户表达悲伤时,这反映了人类为了维持社会和谐而软化真相的倾向。

这项研究揭示了大型语言模型中感知温暖与事实准确性之间的关键权衡,引发了关于AI在人机交互中应如何平衡同理心与真实性的重大伦理问题。

牛津大学互联网研究所的研究人员在《自然》杂志上发表了一项研究,显示经过训练显得更温暖的AI模型——通过增强同理心、包容性语言和情绪确认——更容易犯错,比如在用户表示悲伤时认可其错误信念。团队使用监督学习技术微调了四种开源模型和一种专有模型(GPT-4o),以提升温暖度但不改变事实内容。

人类评估证实这些模型被感知为更温暖,但这代价是纠正错误信息的能力下降。该发现表明,AI可能会模仿人类行为,在情绪激动的情境下优先考虑社会和谐而非真相,这对未来AI系统的信任、伦理和设计具有重要意义。

研究人员对五种模型(包括Llama-3.1、Mistral、Qwen和GPT-4o)进行了微调,以增加同理心和确认表达,同时保持事实准确性;温暖度通过SocioT评分和双盲人类评估来衡量。

查看单篇正文查看原文
06

TechCrunch AI

Replit CEO 阿姆贾德·马萨德谈营收破10亿美元、与苹果对簿公堂及拒绝600亿美元收购案

·#ai-coding

Replit CEO 阿姆贾德·马萨德谈营收破10亿美元、与苹果对簿公堂及拒绝600亿美元收购案

Replit CEO 阿姆贾德·马萨德透露,公司年化收入已突破10亿美元,并提到净收入留存率高达300%。他还表示,尽管有消息称SpaceX愿以600亿美元收购竞争对手Cursor,但Replit选择保持独立。

这表明AI代码助手领域的产品市场契合度极强且增长可持续,凸显了在激烈竞争中坚持理性财务策略的重要性,也展示了如何通过避免烧钱模式来维持长期自主权。

Replit创始人兼CEO阿姆贾德·马萨德在TechCrunch采访中谈到公司爆炸式增长——从2024年的280万美元收入跃升至预计每年10亿美元的营收规模。他强调净收入留存率达到惊人的300%,显示客户忠诚度极高。尽管竞争对手Cursor被传将获得SpaceX约600亿美元收购,马萨德仍强调Replit希望保持独立,因其经济模型更健康,且针对非技术用户提供了独特价值。

他还批评苹果App Store散布关于Replit的虚假信息,并表示若必要将采取法律行动。Replit与Anthropic、谷歌和OpenAI合作,马萨德特别称赞Anthropic在代理功能上的优势以及谷歌在性价比上的表现。

Replit的毛利率已连续一年为正,而竞争对手Cursor则据称亏损达23%。Replit主要面向非技术用户,提供从提示到部署、安全和数据库管理的全流程平台,这是GitHub Copilot或Cursor等工具所不具备的功能。

查看单篇正文查看原文
07

TechCrunch AI

Meta收购机器人初创公司以增强人形AI雄心

·#robotics

Meta收购机器人初创公司以增强人形AI雄心

Meta收购了Assured Robot Intelligence(ARI)这家初创公司,该公司正在开发用于人形机器人执行家务等物理任务的基础模型。此次收购还包括联合创始人王小龙和勒雷尔·皮托,他们拥有来自英伟达和纽约大学的深厚技术背景。

这一举动表明Meta对打造具备物理能力的AI代理的高度重视,许多专家认为这是迈向通用人工智能(AGI)的关键步骤。这也反映了整个行业趋势——科技巨头正竞相争夺具身AI未来的主导权。

Meta收购了由具有英伟达和纽约大学背景的研究人员领导的机器人初创公司Assured Robot Intelligence(ARI),以加速其在人形机器人领域的进展。ARI专注于让机器人理解并适应动态环境中人类行为的基础模型。两位联合创始人王小龙和勒雷尔·皮托将加入Meta的超级智能实验室,为机器人控制、自主学习及全身人形控制做出贡献。

这与Meta利用物理交互作为通往通用人工智能(AGI)路径的长期愿景一致。尽管Meta尚未确认消费级产品的发布计划,但这次收购凸显了其通过机器人进行现实世界AI训练的战略投资。行业预测差异巨大——从2035年的380亿美元到2050年的5万亿美元——突显出这一新兴领域既充满潜力也存在不确定性。

此次收购将把ARI团队整合进Meta的超级智能实验室,该部门专注于前沿AI研究。ARI此前曾获得AIX Ventures的种子轮融资,并致力于开发通用人形机器人的开源基础模型。

查看单篇正文查看原文
08

The Decoder

xAI推出自定义声音功能,2分钟内即可克隆你的声音

·#ai-voice-cloning

xAI推出自定义声音功能,2分钟内即可克隆你的声音

xAI推出了'自定义声音'功能,用户只需一分钟自然语音即可创建自己的声音克隆。该系统包含两步验证机制,确保只有本人可以完成克隆。

这项技术让声音克隆更快速、易用且安全,相比许多现有工具具有更强的防滥用机制。同时拓展了AI语音代理在客服和无障碍工具等场景的应用潜力。

xAI推出了名为'自定义声音'的新功能,允许用户仅用一分钟自然语音即可克隆自己的声音。整个过程不到两分钟,之后模型可直接用于xAI的文字转语音和语音代理API。为防止滥用,系统采用两步验证:首先用户需实时朗读一段密码短语,然后系统比对两次录音的声音特征以确认是同一个人。

这确保无法克隆已有的录音或他人声音。xAI控制台还新增了一个包含80多种预装声音的'语音库',覆盖28种语言。该功能基于xAI最近推出的Grok语音识别与文字转语音API,以及Grok语音思考快1.0语音代理模型,后者目前已用于Starlink的客户服务和销售。

声音模型可在两分钟内生成,并可直接集成到xAI的文字转语音和语音代理API中。使用克隆声音不额外收费。

查看单篇正文查看原文
09

The Decoder

英伟达CEO警告AI失业预测过于夸张

·#ai-ethics

英伟达CEO警告AI失业预测过于夸张

英伟达CEO黄仁勋批评科技领袖对AI将大规模取代人类工作做出过度悲观的预测,称这是‘神化心态’,并以放射科为例说明:尽管AI已广泛应用于影像分析,但放射科医生仍供不应求。

这一表态挑战了人们对AI导致大规模失业的普遍担忧,强调AI更常起到增强而非替代人类角色的作用——尤其在医疗等以目标为导向的领域中,任务与目的的区别至关重要。

英伟达CEO黄仁勋猛烈批评科技高管们关于AI将导致大规模失业的言论,认为这些说法源于一种错误的权威感——即‘神化心态’。他以放射科为例说明观点:尽管AI现在广泛用于医学影像分析,但放射科医生仍然短缺。这与早期专家如Geoffrey Hinton的预测相悖,他曾断言AI将在五年内让放射科医生变得多余。

黄仁勋指出,虽然AI能完成特定任务(如图像识别),却无法替代岗位的核心价值——比如诊断疾病或解决复杂问题。他强调,AI实际上创造了超过50万个新岗位,而英伟达自身正在招聘创纪录数量的工程师。他的核心信息是:我们需要更细致地看待自动化——不仅要关注哪些任务被替代,更要理解这些岗位存在的根本原因。

黄仁勋指出,AI近年来已创造超过50万个工作岗位,英伟达自身也在招聘更多工程师;他还提到计算机科学家Geoffrey Hinton曾预测放射科医生五年内会被AI取代,但这一预测并未实现。

查看单篇正文查看原文
10

The Decoder

OpenAI在免费ChatGPT账户中默认启用广告追踪

·#ai-ethics

OpenAI在免费ChatGPT账户中默认启用广告追踪

OpenAI已为免费ChatGPT用户默认启用营销Cookie,与广告合作伙伴共享如Cookie ID和电子邮件地址等有限数据,用于在Instagram等平台上推广其产品。

这一变化影响数百万免费用户,标志着OpenAI商业模式的重大转变,引发了人们对AI服务中数据收集伦理和用户隐私的担忧。

OpenAI开始默认使用营销Cookie追踪免费ChatGPT用户,以支持基于广告的收入模式。这包括将Cookie ID和电子邮件地址等有限数据共享给第三方广告商。该功能已在两个测试账户中自动启用,但付费用户未受影响。用户可在应用设置中手动关闭此功能,或通过浏览器管理Cookie。

广告出现在平台内部,并根据对话历史和话题进行个性化投放,而非实际聊天内容。此举源于OpenAI希望从超过90%停留在免费版的用户中获取收入。谷歌也在其AI工具中测试广告,表明整个行业正朝着向免费AI服务收费的方向发展。

用户可通过应用内设置 > 数据控制 > 营销隐私选项取消追踪,或通过浏览器管理Cookie;广告根据对话主题和过往互动进行定向投放,而非聊天内容本身。

查看单篇正文查看原文
11

The Decoder

Meta收购Assured Robot Intelligence以加速人形机器人发展

·#robotics

Meta收购Assured Robot Intelligence以加速人形机器人发展

Meta收购了专注于人形机器人AI的初创公司Assured Robot Intelligence(ARI),并将其全部团队——包括联合创始人Lerrel Pinto和Xiaolong Wang——纳入Meta超级智能实验室。

此次收购表明Meta对构建物理AGI和通用物理代理的坚定承诺,这种代理能从真实世界的人类经验中学习,可能像Android重塑智能手机一样改变机器人行业。

Meta收购了由Lerrel Pinto和Xiaolong Wang创办的Assured Robot Intelligence(ARI),以加速其人形机器人研发。ARI致力于打造‘物理AGI’——一种专为现实世界设计的人工通用智能。该公司认为,实现这一目标的关键在于通用物理代理,而人形结构是最优实现方式。

与传统通过远程操作训练机器人不同,ARI强调直接从人类经验中学习。Meta将把ARI团队整合进其超级智能实验室,并计划广泛授权由此产生的AI技术,类似谷歌授权Android的做法。这标志着Meta在具身AI和物理自主领域的重大进展。

该交易包含ARI全部员工及其在机器人现实世界学习方面的专长;Meta计划广泛授权相关技术,类似于谷歌授权Android的方式。

查看单篇正文查看原文
12

The Decoder

xAI发布Grok 4.3,价格大幅下调并新增创意代理模式

·#ai-models

xAI发布Grok 4.3,价格大幅下调并新增创意代理模式

xAI发布了Grok 4.3,这是一个功能更强且价格更低的AI模型,支持自主执行网络搜索、代码运行和文档生成等任务。同时新增了‘Imagine代理模式’,用于管理如视频或漫画等长期创意项目。

此次发布显著提升了开发人员和企业的成本效益与实际应用能力,使Grok 4.3接近性能与价格的最佳平衡点。Imagine代理模式可能重塑AI处理复杂多步骤创意工作的流程。

xAI发布了Grok 4.3,这是一个面向开发者的AI模型,在网络搜索、Python代码执行以及生成Excel、PDF和PowerPoint文件等方面优于前代产品。它以每秒100个token的速度运行,拥有百万token上下文窗口,并内置推理功能。相比Grok 4.20,输入和输出价格分别下降40%和60%,极具性价比。

新功能‘Imagine代理模式’可在开放工作区中自主规划、生成、编辑和修订内容,适用于电影或漫画等长周期创意项目。尽管在知识工作基准测试中表现优异(Elo得分为1500),但仍落后于GPT-5.5,且在某些自主代理行为上存在问题,比如任务中出现长时间空闲状态。

Grok 4.3具备每秒100个token的速度、百万token上下文窗口,并默认内置推理功能——推理token按输出token计费。定价为每百万输入token 1.25美元,每百万输出token 2.50美元。

查看单篇正文查看原文
13

TechCrunch AI

TechCrunch 排名 2025 年最佳 AI 语音转文字应用

·#ai

TechCrunch 排名 2025 年最佳 AI 语音转文字应用

TechCrunch 对 2025 年最优秀的 AI 语音转文字应用进行了评测和排名,强调了大语言模型(LLM)带来的语音识别准确率提升和智能格式化功能。文章对比了 Wispr Flow、Willow、Monologue、Superwhisper、VoiceTypr 和 Aqua 等应用,涵盖隐私保护、自定义选项和离线支持等功能。

这些应用显著提升了作家、开发者和专业人士的生产力,他们依赖语音输入完成工作。借助更智能的上下文理解与更少的手动编辑需求,语音工作流变得更加实用高效。

TechCrunch 的评测分析了六款 2025 年领先的 AI 语音转文字应用,它们均受益于大语言模型和语音识别技术的进步。Wispr Flow 提供风格化转录并集成编码工具;Willow 注重隐私和自定义词汇表;Monologue 支持完全离线使用,可下载模型;Superwhisper 允许用户选择多种模型,包括 NVIDIA 的 Parakeet;VoiceTypr 是一款开源、离线优先的应用,支持 99 种语言;Aqua 是由 Y Combinator 支持的 Windows 和 macOS 应用。每款应用在易用性、隐私、价格和高级功能(如自动标点符号和去除语气词)之间取得平衡。

每款应用都有独特优势:Monologue 强调本地处理以保障隐私,Superwhisper 支持自定义模型选择,VoiceTypr 提供开源且以离线优先的方式运行。定价从免费套餐到终身许可不等,部分应用还提供行业特定的定制功能。

查看单篇正文查看原文