AI 日报

AI 基础设施加速扩张,安全与治理压力同步升温

今天的头条显示,AI 正同时向上和向外扩张:一边是 Cerebras 的爆炸式 IPO、OpenAI 的产品线继续延伸,另一边则是安全漏洞、人才流失和数据中心争议不断累积。市场在追逐更强算力和更自动化工作流的同时,监管、社区和企业内部治理都在被迫追上节奏。

当天导读

从 51 条资讯中筛选出 23 条

今天的头条显示,AI 正同时向上和向外扩张:一边是 Cerebras 的爆炸式 IPO、OpenAI 的产品线继续延伸,另一边则是安全漏洞、人才流失和数据中心争议不断累积。市场在追逐更强算力和更自动化工作流的同时,监管、社区和企业内部治理都在被迫追上节奏。

AI 基础设施继续吸金,但估值与现实压力并存

Cerebras 的 IPO 以及 Recursive Superintelligence 的巨额融资,表明市场仍愿意为算力和前沿研究买单;但数据中心、供电和社区反弹也在同步升温。

代理式编码工具从桌面走向全设备工作流

OpenAI 把 Codex 带到手机,微软则把 Copilot 更深地嵌入 Edge 与内部开发流程,显示 AI 编程助手正在向“随时可控”的工作流基础设施演进。

模型能力上升,安全与评测却明显滞后

Claude Mythos 的网络能力跃升、ChatGPT 的上下文安全更新,以及 Linux 漏洞被 AI 工具挖出,共同说明“更强”并不自动意味着“更安全”。

高风险行业正在重新审视 AI 可靠性

安大略省医疗记录员审计和 Forum AI 的高风险评测思路都在强调:当 AI 进入医疗、地缘政治和金融场景,基准测试必须更贴近真实后果。

AI 商业化开始触碰人才、法律和平台控制权

SpaceXAI 的人员流失、OpenAI 与 Apple 的合作摩擦,以及与马斯克围绕 OpenAI 使命的诉讼,都显示出行业竞争已不只是产品竞争,而是组织和治理竞争。

数据、内容与劳动正在被重新定价

Wirestock 的授权数据业务、Clio 的法律 AI 增长和 Synthetic 的自主记账尝试,说明生成式 AI 正在把创意内容、专业服务与后台流程变成新的可货币化资产。

今日主题

AI 产业继续沿着“更强算力、更强代理、更大投入”的路线前进,但今天的报道也再次说明:增长并不等于成熟。芯片、模型、编码工具和数据基础设施都在加速,随之而来的却是安全评估失灵、人才外流、医疗误差和社区反弹。

1. 算力与商业化:钱继续涌向基础设施

Cerebras 以 55 亿美元 IPO 和首日大涨 108% 成为今日最强烈的市场信号,说明投资者仍在追逐 AI 基础设施和另类芯片架构 [1756]。与此呼应,Recursive Superintelligence 以 6.5 亿美元融资高调亮相,押注递归式自我改进的前沿研究路线 [1757]。

2. 代理式工具继续渗透工作流

OpenAI 把 Codex 带到手机端,让开发者可以跨 iOS、Android 远程监控、审批和管理编码任务 [1765][1769]。微软则在 Edge 中继续推进 Copilot 的浏览器整合,并在内部逐步停用 Claude Code,转向自家 Copilot CLI [1779][1776]。

3. 安全问题没有跟上能力增长

英国 AI 安全研究所称更新后的 Claude Mythos Preview 在网络攻防测试中进步很快,甚至超过 Anthropic 早前结果与 GPT-5.5 [1759]。与此同时,OpenAI 也在调整 ChatGPT 的敏感对话上下文识别能力,说明“更会做事”的模型,也需要“更会收手”的护栏 [1770]。

4. 漏洞、医疗与高风险应用暴露脆弱性

Linux 内核再次出现严重本地提权漏洞,且据称由 AI 辅助审计工具帮助发现,提醒人们自动化安全研究也在加速攻防两端 [1760]。在医疗场景中,安大略省审计发现所有受检 AI 医疗记录员都存在准确性或完整性问题,幻觉和遗漏可能直接影响患者护理 [1762]。

5. AI 基础设施开始遭遇现实阻力

关于数据中心的争议正在从个案变成民意问题:Gallup 调查显示,超过 70% 的美国人反对在自己附近建设 AI 数据中心 [1778]。太浩湖居民则更直接感受到电力挤压,NV Energy 因北内华达数据中心需求上升而准备停止供电 [1761];交互地图项目也在尝试把这类冲突可视化 [1777]。

6. 人才、商业合作与治理摩擦同步升温

SpaceXAI 合并后流失 50 多名研究人员与工程师,反映出前沿实验室对人才和组织稳定性的高压 [1764]。OpenAI 既在考虑对 Apple 的 ChatGPT 集成采取法律行动 [1771],又卷入与马斯克关于 OpenAI 使命和控制权的持续审判 [1289],说明平台分发和公司治理仍是 AI 商业化的核心战场。

7. 数据、法律与内容生态的新变现方式

Wirestock 正把授权创意素材打包成 AI 训练数据生意 [1774],而 Clio 则凭借 AI 功能推动法律软件 ARR 达到 5 亿美元 [1775]。与此同时,Synthetic 试图重启“完全自主”的 AI 记账员想象 [1772],显示 agentic AI 正在向财务、法律等高价值行业渗透。

8. 不可忽视的社会与地缘政治外溢

深伪色情报道提醒我们,生成式 AI 的伤害不仅来自技术错误,也来自对身体、版权和同意边界的侵犯 [1763]。而特朗普据称携多位科技巨头前往北京会见习近平,则再次说明 AI 芯片、贸易和外交正在越来越紧密地缠绕在一起 [1768]。

今日结论

今天的信号非常清晰:AI 不再只是模型能力竞赛,而是算力、分发、劳动、监管和公共资源的全面竞赛。谁能把这些环节一起协调好,谁才更可能在下一阶段真正胜出 [1756][1759][1778][1764]。

当日精选 8 条

01

TechCrunch AI

Recursive Superintelligence 亮相,押注自我改进 AI

·#ai-startups

Recursive Superintelligence 亮相,押注自我改进 AI

TechCrunch 报道称,Richard Socher 与一批知名 AI 研究人员共同创办的 Recursive Superintelligence 已在旧金山正式亮相,并获得了 6.5 亿美元融资。该公司声称要打造能够递归式自我改进的 AI 系统,让模型自主发现自身弱点并修复它们,而不依赖人类干预。

如果这一方向成功,递归式自我改进可能成为 AI 加速自身研发的重要一步,并改变前沿模型的构建方式。此次启动也表明,投资者仍然看好以科研雄心而非即时产品为核心卖点的研究型 AI 初创公司。

Richard Socher 曾因创办 You.com 以及更早在 ImageNet 相关工作而广为人知,如今他又参与创立了 Recursive Superintelligence。这家位于旧金山的初创公司在周三结束隐身状态,并宣布获得 6.5 亿美元融资。除了 Socher,团队还包括 Peter Norvig、Cresta 联合创始人 Tim Shi,以及 Tim Rocktäschel 等知名研究人员。公司的核心目标非常激进:打造一个能够递归式自我改进的 AI 模型,让系统自主识别自身弱点并重新设计自己,而不需要人类介入。Socher 说,他们追求的不是简单的“auto-research”,因为那只是让 AI 去改进某个任务或某个模型,而不是真正的递归自我改进。

在他的设想里,研究想法的提出、实现和验证整个流程都应该自动化,并在大规模上运行。Socher 认为,这种能力最先会出现在 AI 研究上,之后可能扩展到其他研究领域,甚至物理世界中的问题。采访中他还把这个方向与“open-endedness”联系起来,强调系统需要持续产生新行为和新能力。文章提到 Tim Rocktäschel 在 Google DeepMind 的相关工作,以及 Rainbow Teaming 这类方法,它通过两个 AI 反复对抗来发现更多不安全输出,从而逐步提高系统安全性。

Socher 将这种方法描述为通过“open-endedness”实现真正的递归式自我改进,也就是把研究想法的提出、实现和验证全部自动化。文章还提到 Tim Rocktäschel 在 open-endedness、自我改进以及 Rainbow Teaming 方面的工作,后者使用对抗式 AI 系统进行多轮迭代,以更全面地测试不安全输出。

查看单篇正文查看原文
02

TechCrunch AI

Cerebras 以巨额 AI 芯片 IPO 震撼上市

·#ai-hardware

Cerebras 以巨额 AI 芯片 IPO 震撼上市

Cerebras Systems 于周四完成 IPO,融资 55 亿美元,定价为每股 185 美元,远高于此前区间。该股上市首日以 385 美元开盘,盘中一度较发行价上涨 108%,随后仍在 330 美元上方交易。

这次上市表明投资者对 AI 基础设施公司,尤其是面向推理计算的半导体企业,需求非常强烈。首日上涨 108% 也让 Cerebras 成为今年最受关注的科技 IPO 之一,并提升了另类 AI 芯片架构的市场存在感。

Cerebras Systems 于周四完成了一场具有标志性的 IPO,共融资 55 亿美元。公司在周三晚间将发行价定为每股 185 美元,明显高于最初 115 至 125 美元的区间,也高于后来上调后的 150 至 160 美元区间,同时把发行规模扩大到 3000 万股。股票开始公开交易后以 385 美元开盘,较发行价上涨超过一倍,盘中后续仍在 330 美元以上交易。即使按发行价计算,Cerebras 的完全稀释估值也已达到 564 亿美元。首日的大幅上涨反映出市场,尤其是散户,对这家被视为 AI 硬件赢家的公司需求极强。

按发行价计算,联合创始人兼首席执行官 Andrew Feldman 持股价值接近 19 亿美元,联合创始人兼 CTO Sean Lie 持股价值约 10 亿美元。该公司此前在 2024 年曾尝试上市,但由于阿布扎比的 Group 42 进行了一笔大额投资,引发美国外国投资委员会 CFIUS 审查,再加上投资者担心 G42 几乎贡献了公司全部收入,上市计划最终搁置。到了 4 月,Cerebras 重新启动 IPO 进程,因为公司披露 2025 年营收达到 5.1 亿美元,同比增长 76%,并从去年接近 5 亿美元的亏损转为 2.378 亿美元净利润。如今,Cerebras 将自己定位为推理芯片的重要竞争者,并表示客户包括 OpenAI、G42、Mohamed bin Zayed University of Artificial Intelligence 和 Amazon Web Services。

按 185 美元的发行价计算,Cerebras 上市时的完全稀释估值达到 564 亿美元。公司披露 2025 年营收为 5.1 亿美元,同比增长 76%,净利润为 2.378 亿美元,而前一年还亏损接近 5 亿美元。

查看单篇正文查看原文
03

ZDNET AI

Mythos 进展快于预期

·#ai-safety

Mythos 进展快于预期

英国 AI 安全研究所表示,一个更新的 Claude Mythos Preview 检查点进步速度很快,在其网络攻防测试中表现超过了 Anthropic 先前的结果以及 OpenAI 的 GPT-5.5。这个更新后的模型首次完成了 AISI 的两个端到端网络攻防演练,其中包括此前从未被解决的“Cooling Tower”任务。

这表明前沿模型的网络能力可能比许多人预期的提升得更快,这会显著提高网络安全防御和 AI 安全评估的风险与重要性。如果这种进步持续下去,实验室、政府和安全团队评估和部署更强模型风险的方式都可能受到影响。

ZDNET 报道称,Anthropic 的 Claude Mythos 被公司认为“过于强大,不适合面向公众广泛发布”,而它似乎正在非常快地获得新的能力。英国 AI 安全研究所 AISI 在周三发布的一篇博客中表示,他们测试了一个更新的 Mythos Preview 检查点,结果发现它的表现超过了 AISI 一个月前评估过的版本,也超过了 OpenAI 的 GPT-5.5。AISI 说,这个更新后的检查点首次完成了他们的两个网络攻防演练,其中包括此前从未被任何模型攻克的“Cooling Tower”演练。该模型在“The Last Ones”上 10 次尝试成功了 6 次,在“Cooling Tower”上 10 次尝试成功了 3 次。

Anthropic 在上个月首次公布 Mythos Preview 和 Project Glasswing 时,AISI 就曾评价它相较于此前的前沿模型有明显提升,而网络能力本身也在快速进步。此次更新评估进一步说明,能力提升不只发生在不同代际模型之间,也可能出现在同一模型家族的不同检查点中。AISI 还指出,AI 模型处理网络任务的能力增长非常快,并援引其 2026 年 2 月的内部估计称,自 2024 年末以来,模型可完成的网络任务长度大约每 4.7 个月翻一倍,快于他们 2025 年 11 月时估计的 8 个月一次翻倍。与此同时,AISI 也强调,这些结果可能仍然低估了前沿模型的真实能力,因为测试设有 250 万 token 上限,无法充分衡量更长任务下的表现。

AISI 表示,Mythos Preview 在 10 次尝试中有 6 次完成了“The Last Ones”,并在 10 次尝试中有 3 次完成了“Cooling Tower”,但该基准测试设置了 250 万 token 上限,以便横向比较不同时间点的结果。研究所同时警告说,这个 token 限制会低估前沿模型的真实能力,也使得在更长任务下衡量失败情况变得困难。

查看单篇正文查看原文
04

ZDNET AI

两周内第三个Linux内核提权漏洞被发现

·#linux-kernel

两周内第三个Linux内核提权漏洞被发现

一个名为 Fragnesia 的 Linux 内核漏洞已被披露,据称这是两周内发现的第三个严重本地提权漏洞。该漏洞由 Zellic 的 AI 辅助审计工具帮助发现,而且已经存在概念验证利用代码。

该漏洞可能让普通本地用户在主流 Linux 发行版上获得 root 权限,这对服务器、桌面以及容器密集的云环境都是严重威胁。它的出现也说明 AI 辅助工具正在加速漏洞研究,未来可能会发现更多内核问题。

ZDNET 报道称,Linux 又出现了一个严重的安全问题:名为 Fragnesia 的本地提权漏洞据称可以让攻击者获得 root 权限。文章指出,这是两周内发现的第三个严重 Linux 内核漏洞,前两个分别被称为 Copy Fail 和 Dirty Frag。该漏洞由 AI 安全公司 Zellic 披露,研究人员使用了其代理式审计工具 V12,文章还将这一趋势与 Claude Mythos、OpenAI Daybreak 等 AI 系统加速漏洞发现联系起来。Fragnesia 影响 Linux 的 XFRM ESP-in-TCP 子系统,漏洞中的逻辑错误允许攻击者在不需要竞争条件的情况下,向只读文件的页缓存写入任意字节。

与传统依赖时序的漏洞相比,这使攻击更可靠,也更容易在概念验证代码公开后被武器化。文章称,现有的概念验证会覆盖页缓存中 su 命令的部分内容,并植入一个调用 setresuid 的小型 ELF stub,最终直接打开 shell。Red Hat 将该问题的 CVSS 评分定为 7.8,而 AlmaLinux 则表示它在所有主流发行版上都可导致 root 权限获取。文章还强调,在云和容器环境中,这类本地漏洞的影响会被放大,因为攻击者可能借此逃出容器并进一步攻击宿主机。

报道称,Fragnesia 利用 Linux XFRM ESP-in-TCP 路径中的逻辑错误,在不需要竞争条件的情况下篡改只读文件的内核页缓存。Red Hat 将其评为 CVSS 7.8,而文章称上游补丁已经可用,但截至 5 月 13 日尚未在任何发行版中正式发布。

查看单篇正文查看原文
05

Ars Technica AI

太浩湖居民因数据中心扩张面临断电

·#data-centers

太浩湖居民因数据中心扩张面临断电

NV Energy 表示将于 2027 年 5 月停止向太浩湖地区供电,这会影响约 4.9 万名由 Liberty Utilities 供电的加州居民。该公司称,这一决定部分与内华达州北部新建数据中心不断增长的用电需求有关。

这件事是 AI 和数据中心扩张直接挤压居民用电的现实案例,说明新的数字基础设施会改变谁能用电、以及用什么条件用电。它也凸显出公用事业规划、输电容量和州级监管边界在电力紧张时如何让社区暴露在风险之下。

位于加州和内华达州边界的太浩湖是旅游和滑雪胜地,如今必须在 2027 年 5 月之前找到新的电力供应商。眼下的直接问题是,负责该地区约 4.9 万名加州居民供电的 Liberty Utilities,大约 75% 的电力一直来自 NV Energy。Ars Technica 引述的报道显示,NV Energy 已表示将停止向该地区供电,这迫使 Liberty 紧急寻找替代方案。Liberty 向加州监管机构提交的文件称,内华达州北部数据中心的快速增长是这一变化的原因之一。Fortune 报道还提到,NV Energy 自己的规划文件显示,到 2033 年,十几个数据中心项目可能带来 5,900 兆瓦的新需求。

NV Energy 也在与科技公司签约,以获得更多发电来源,其中包括与 Amazon 达成协议,为里诺的数据中心运营支持 700 兆瓦“低碳能源”,其中包括 100 兆瓦地热电力。与此同时,NV Energy 对“数据中心是唯一原因”的说法提出异议,称太浩湖供电安排本来就是长期过渡方案,因为该公司在 2009 年把加州资产卖给 Liberty 后,只是不断延长临时协议。该公司表示,现在不再继续延长这些协议。问题之所以更复杂,是因为从发电到电费账单的整条链路并没有单一监管机构统一负责;虽然当地居民的电价由加州监管机构批准,但服务他们的电网却依赖内华达州的输电线路。NV Energy 正在建设一条耗资 42 亿美元的 Greenlink West 输电线路,理论上可以让 Liberty 接触到更广泛的供电商,但该项目预计也要到 2027 年 5 月才投入使用,时间几乎正好卡在需求危机的节点上。

Liberty Utilities 约 75% 的电力来自 NV Energy,另外约 25% 来自其在内华达州自有的太阳能设施。Fortune 报道称,NV Energy 的规划文件显示,内华达州北部的十几个数据中心项目到 2033 年可能新增 5,900 兆瓦需求,而 Liberty 预计将寻找能够满足加州可再生能源要求的替代供电方。

查看单篇正文查看原文
06

Ars Technica AI

安省审计发现AI医疗记录员存在风险

·#ai-in-healthcare

安省审计发现AI医疗记录员存在风险

安大略省审计长发现,所有20家经政府批准并预审合格的AI医疗记录员供应商,在测试中至少都出现了一项准确性或完整性问题。审计还发现了幻觉、错误转录和遗漏心理健康细节等问题,这些都可能影响患者护理。

AI记录工具越来越多地被用来减轻医生的文书负担,因此其中的错误可能直接进入病历并影响后续治疗决策。这个结果也引发了更广泛的担忧:医疗AI工具究竟是否经过足够严格的评估,审批流程是否真正把安全放在首位。

近年来,许多工作负担沉重的医生开始使用AI医疗记录员,把医患对话自动整理成适合电子病历的结构化笔记。安大略省审计长的一份报告发现,省里推荐的这些AI记录系统经常生成错误、不完整甚至带有幻觉的内容。审计针对两段模拟医患对话进行了测试,涉及20家已被省政府批准并预审合格、可供医疗机构采购的供应商。结果显示,这20家供应商中没有一家在测试里完全没有问题,全部都至少出现了一项准确性或完整性错误。具体来看,9家出现了患者信息幻觉,12家存在错误转录,17家遗漏了对话中有关心理健康问题的关键细节。

报告还举出了一些具体例子,例如AI凭空生成血检或治疗转诊,或者把处方药名称转错,这些错误都可能影响后续治疗。尽管各家供应商在“医疗笔记生成准确性”上的平均得分只有20分中的12分,但这一项在总评分中的权重只有约4%。相比之下,一个衡量“在安大略省的本地存在”的指标却占总分的30%,这使得系统即使在准确性上表现很差,也仍可能轻易达到审批门槛。审计长因此认为,这些AI医疗记录员“没有得到充分评估”,并建议IT部门要求医生在笔记入档前明确确认自己已经审核过内容。

审计针对省政府批准、供医疗机构使用的20家供应商,使用两段模拟医患对话进行了转录测试。结果显示,9家出现了患者信息幻觉,12家转录错误,17家遗漏了关键心理健康细节,而“生成医疗笔记准确性”的平均得分只有20分中的12分。

查看单篇正文查看原文
07

MIT Technology Review AI

深伪色情背后被忽视的受害者

·#deepfakes

深伪色情背后被忽视的受害者

《麻省理工科技评论》报道了 Jennifer 的经历:她用人脸识别发现,自己多年前的一段成人视频被改造成了未经同意的深伪色情视频。文章强调,除了脸被替换的人之外,这类视频里被拿来使用的身体同样会在未经同意的情况下遭到剥削。

这篇报道把关于非自愿亲密影像的讨论扩展到一个常被忽视的层面:深伪滥用伤害的不只是被换脸的人,也包括身体被挪用的表演者。它还凸显了 AI 工具、盗版和薄弱保护如何在心理、经济和法律层面威胁成人内容创作者。

文章以 Jennifer 的经历开头。她在 2023 年进入一家非营利组织做研究工作后,把自己的职业头像放进人脸识别软件里搜索,原本只是想看看系统会不会找出她十多年前拍过的成人视频。结果软件确实找到了那些旧内容,但更让她震惊的是,其中有一段视频被改过:她的身体上被换上了别人的脸。

起初,她还以为只是另一个人。直到她认出视频里那种非常显眼的背景,才发现那是自己大约在 2013 年拍摄的一段旧视频,她随即意识到“有人把我用进了深伪色情里”。她说,人脸识别之所以还能把她认出来,是因为视频里仍残留着她的一些面部特征,比如颧骨、眉骨和下巴形状。她形容这种感觉就像“我戴着别人的脸,就像一张面具”。

文章指出,关于性化深伪的讨论通常关注的是“被换上去的脸”,而很少关心“被拿来使用的身体”。这些内容属于非自愿亲密影像,简称 NCII,近年已经从名人目标扩展到更多普通女性,甚至包括一些未成年人,引发了恐惧、伤害和立法讨论。报道还回顾了“deepfakes”这个词的来源:2017 年 11 月,一名 Reddit 用户上传了把 Scarlett Johansson、Gal Gadot 等明星的脸贴到成人视频演员身体上的视频。

文章进一步说明,成人内容创作者正面临新的剥削形式。过去,他们的身体可能不再是以可识别的方式直接从性影像中“剪”出来,但这些作品仍然可能被用作训练数据,帮助 AI 生成新的身体动作和表现。这样一来,AI 生成的裸体和成人视频可能会抢走真人创作者的生意,也会侵蚀他们的权利。更严重的是,AI 现在还能在未经同意的情况下,完整复制这些表演者的形象,并让数字替身做出真人不会接受的性行为,甚至被用来欺骗粉丝。

Jennifer 和其他受访创作者都表示,知道自己的身体被未经同意地使用,会带来明显的心理压力。他们也担心盗版和 AI 复制会造成经济损失。专门研究成人行业的律师 Corey Silverstein 说,他几乎每天都会接到演员的咨询,大家都在担心自己的内容被 AI 滥用,并努力想办法自保。

文中还引用了一位研究针对女性暴力的法律教授,她把这些创作者称为 NCII 深伪中的“被遗忘的受害者”。文章最后指出,随着美国正在为打击网上非自愿性内容建立法律框架,成人表演者担心自己不但得不到保护,反而可能因为现有法律和执法方式没有充分考虑他们的处境而受到进一步伤害。

Jennifer 是在 2023 年用人脸识别搜索自己早年的作品时发现这段被篡改的视频的;尽管视频里换成了别人的脸,软件仍凭她的部分面部特征把它识别了出来。文章还提到,成人表演者越来越担心自己的作品被用作 AI 生成身体的训练数据,而且有人可能会遭遇未经授权的数字复制品或冒用其形象的诈骗。

查看单篇正文查看原文
08

TechCrunch AI

SpaceXAI合并后持续流失人才

·#ai-talent

SpaceXAI合并后持续流失人才

TechCrunch 报道称,埃隆·马斯克新更名的 SpaceXAI 自 2 月合并以来已流失 50 多名研究人员和工程师。离职者包括负责代码、世界模型和 Grok 语音等方向的关键负责人,而 Meta 和 Thinking Machine Labs 正在吸纳其中不少人。

这表明一家刚完成合并的 AI 公司正在遭遇严重的人才流失,而这类公司原本应该专注于打造领先模型,而不是不断重组团队。如果核心研究人员持续离开,可能会拖慢模型研发、削弱执行力,并反映出外界对其工作文化和战略的更广泛担忧。

TechCrunch 报道称,埃隆·马斯克合并后的 AI 公司 SpaceXAI 自 2 月以来一直在持续流失员工。该公司据称已经有 50 多名研究人员和工程师离职,其中包括负责代码、世界模型和 Grok 语音等工作的关键人员。报道指出,这些离职者中的很多人已经被 Meta 和 Thinking Machine Labs 等竞争对手吸纳。TechCrunch 还提到,此前曾报道过 11 名 xAI 员工在合并后立即宣布离开,其中包括两位联合创始人。SpaceX 在 2 月收购了 xAI,并在随后安排了新的管理层。马斯克本月早些时候又将合并后的公司更名为 SpaceXAI。

报道称,最令人担忧的是预训练团队的流失,在团队负责人 Juntang Zhuang 离开后,这支队伍已经缩减到只剩下寥寥数人。预训练是构建新 AI 模型的第一步,模型会先在大量数据上学习,再进入后续微调阶段,因此这类人才流失会让外界怀疑公司是否仍在持续打造领先模型。报道还称,一些员工把离职原因归结为马斯克式的高压工作文化和不切实际的训练期限,据说这甚至让 Grok 的开发过程中出现了“偷工减料”的情况。与此同时,也不能排除部分离职是出于财务动机,例如通过 SpaceX 的定期收购要约出售已归属股份,或者预期公司未来上市后获得流动性。TechCrunch 表示已联系 SpaceX 寻求回应。

据报道,至少有 11 名 xAI 员工转投 Meta,至少 7 人加入了 Mira Murati 的 Thinking Machine Labs。预训练团队已缩减到只剩寥寥数人,而在团队负责人 Juntang Zhuang 离开后,人员流失进一步加剧;预训练是构建新 AI 模型的第一步。

查看单篇正文查看原文
09

TechCrunch AI

OpenAI 将 Codex 控制带到手机

·#openai

OpenAI 将 Codex 控制带到手机

OpenAI 已将 Codex 集成到 ChatGPT 应用中,用户现在可以在 iOS 和 Android 设备上远程监控和管理编码工作流。该功能目前以预览版形式推出,并面向所有 ChatGPT 方案开放,包括免费版和 Go 方案。

这让 Codex 从桌面端编码代理扩展为更灵活的跨设备工作流工具,开发者无需坐在电脑前也能查看输出、批准命令并进行干预。它也反映出 OpenAI 与 Anthropic 之间围绕“谁能打造出最广泛采用的智能编码产品”的竞争正在加剧。

OpenAI 正在把 Codex 带到手机上,并将这一编码工具集成进 ChatGPT 应用。这样一来,用户不再只能在桌面端使用 Codex,而是可以在 iOS 和 Android 设备上远程监控和管理编码任务。OpenAI 表示,用户可以在手机上查看所有线程、审阅输出、批准命令、更换模型,或者直接发起新任务。公司还说明,Codex 的实时环境可以在任何正在运行该工具的设备上查看。与此同时,文件、凭据、权限和本地配置仍保留在 Codex 所运行的那台机器上。

手机端会实时接收更新,包括截图、终端输出、差异对比、测试结果和审批信息。该功能目前以预览版推出,并且面向所有 ChatGPT 方案开放,包括免费版和 Go 方案。这个更新发布之前,OpenAI 已经为 Codex 增加了桌面后台执行能力,并推出了支持实时浏览器会话的 Chrome 扩展。报道还提到,Anthropic 在 2 月推出了类似的 Remote Control 功能,用于远程监控 Claude Code 的工作。整体来看,这显示出 OpenAI 和 Anthropic 正在围绕代理式编码工具展开激烈竞争,双方都希望自己的产品成为开发者和企业最常用的选择。

OpenAI 表示,手机端更新会同步实时环境、终端输出、差异对比、测试结果、截图和审批信息,而文件、凭据、权限和本地配置仍保留在 Codex 运行的那台机器上。公司此前还为桌面端加入了后台执行功能,并推出了支持实时浏览器会话的 Chrome 扩展,显示其正在推动更广泛的多环境自主编码能力。

查看单篇正文查看原文
10

TechCrunch AI

Forum AI 评测高风险问题回答

·#ai-evaluation

Forum AI 评测高风险问题回答

前 Meta 新闻主管 Campbell Brown 正在创办 Forum AI,用来评测基础模型在地缘政治、心理健康、金融和招聘等高风险、复杂议题上的表现。Forum AI 采用专家设计的评测标准和 AI 裁判进行规模化测试,Brown 表示该系统与人类专家的共识度已经可以达到约 90%。

随着 AI 逐渐成为主要信息来源,它在敏感议题上的回答质量会直接影响公众认知和现实决策。Forum AI 的方法凸显出行业正在需要一种新的评测体系,不只衡量技术能力,还要衡量在高风险场景中的真实性、细致度和安全性。

Campbell Brown 过去曾先后做过知名电视记者,并在 Meta 负责新闻业务;她表示自己创办 Forum AI 的原因,是她认为 AI 正在成为人们获取信息的主要通道。她在旧金山的一场 StrictlyVC 活动上对 TechCrunch 说,自己第一次强烈意识到这个问题,是在 ChatGPT 公布后不久,因为她很快看出它会影响用户相信什么。Brown 说,这件事让她甚至联想到自己的孩子,担心如果没人解决这个问题,AI 生成的信息会带来很大危害。Forum AI 成立于 17 个月前,总部在纽约,重点评测她所说的“高风险议题”,包括地缘政治、心理健康、金融和招聘。公司的方法是先邀请顶尖领域专家来设计基准测试,再训练 AI 裁判对模型输出进行大规模评估。Brown 透露,在地缘政治评测中,Forum AI 已经邀请了 Niall Ferguson、Fareed Zakaria、前国务卿 Tony Blinken、前众议院议长 Kevin McCarthy,以及曾负责奥巴马政府网络安全事务的 Anne Neuberger 等人参与。她说,Forum AI 已经让 AI 裁判与这些人类专家达到约 90% 的一致性。

Brown 认为,当前基础模型公司过于专注编码和数学,而新闻、信息与分析类任务更难,但也同样重要。她举例说,Forum AI 发现 Gemini 会在与中国无关的报道中引用中国共产党网站,还指出多数模型都存在不同程度的左倾政治偏见。她还提到,模型常见的问题包括缺少上下文、缺少不同视角,以及在不说明前提的情况下歪曲对手论点。Brown 把这件事与自己在 Facebook 的经历联系起来,认为平台过去一味优化互动量,最终对社会造成了不好的结果,她当年建立的事实核查项目如今也已经不存在。她希望 AI 能避免重蹈社交媒体的覆辙,朝着真实、诚实和准确的方向优化,不过她也承认这种想法听起来可能有些理想化。Brown 认为,企业用户也许会成为推动这一变化的力量,因为做信用、贷款、保险和招聘的公司非常在意责任风险和结果正确性。尽管如此,她也承认当前合规市场仍然偏表面化,很多客户只满足于打勾式审计和标准化基准,而这些方法并不能覆盖真实世界中的边缘案例。

Brown 表示,Forum AI 会邀请顶尖领域专家设计评测基准,再训练 AI 裁判按照这些标准评估模型输出。她还认为当前的合规与审计方式过于表面化,真正的评测必须覆盖边缘案例、上下文缺失和意识形态偏见等问题。

查看单篇正文查看原文
11

The Verge AI

马斯克与奥特曼激辩OpenAI审判

·#openai

马斯克与奥特曼激辩OpenAI审判

埃隆·马斯克与萨姆·奥特曼围绕OpenAI使命的高调审判已进入最后阶段,结案陈词定于5月14日星期四进行。法庭已经听取了马斯克、Greg Brockman、Jared Birchall、Shivon Zilis、微软CEO萨提亚·纳德拉以及前OpenAI首席科学家Ilya Sutskever的证词,并播放了前CTO Mira Murati的录像证词。

这起案件可能影响谁来控制OpenAI、它能否继续以公共利益公司形式运营,以及其商业模式是否必须继续与最初的非营利使命保持紧密一致。由于OpenAI对ChatGPT和整个AI竞赛都至关重要,这一结果可能对AI治理产生超出本案范围的影响。

萨姆·奥特曼与埃隆·马斯克正在进行一场可能改变OpenAI和ChatGPT未来的审判。马斯克在2024年提起诉讼,指控OpenAI背弃了其“开发AI以造福人类”的创始使命,转而把重点放在利润上。他声称,奥特曼和Brockman误导他向公司出资,随后又抛弃了原先的目标。OpenAI否认了这种说法,称这起诉讼是试图拖垮竞争对手的无根据行为,并提到了马斯克自己的事业,包括xAI、SpaceX和X。

庭审中已经听取了马斯克本人、他的财务经理兼Neuralink CEO Jared Birchall、OpenAI联合创始人Greg Brockman、前董事会成员Shivon Zilis,以及前CTO Mira Murati的录像证词。进入第三周后,微软CEO萨提亚·纳德拉和前OpenAI首席科学家Ilya Sutskever也出庭作证,奥特曼则在周二出庭反驳马斯克关于他不诚实的指控。报道显示,结案陈词定于5月14日星期四进行,并可通过YouTube上的音频直播收听。马斯克要求法院罢免奥特曼和Brockman、禁止OpenAI继续以公共利益公司形式运营,并在他胜诉时为OpenAI的非营利实体争取最高1500亿美元赔偿。

马斯克称奥特曼和Brockman背离了OpenAI“造福人类”的创始承诺,而OpenAI则认为这起诉讼是“毫无根据且出于嫉妒的企图”,目的是阻碍像xAI这样的竞争对手。马斯克要求罢免奥特曼和Brockman、停止OpenAI的公共利益公司架构,并在胜诉时让OpenAI的非营利实体获得最高1500亿美元赔偿。

查看单篇正文查看原文
12

Ars Technica AI

特朗普带科技巨头出席习近平峰会

·#us-china-relations

特朗普带科技巨头出席习近平峰会

据报道,唐纳德·特朗普将带上蒂姆·库克、埃隆·马斯克和英伟达CEO黄仁勋前往北京,参加与习近平为期两天的会谈。此举发生在特朗普希望在对华谈判中保持强势、但其地缘政治筹码正在减弱之际。

这次行程把美国大型科技公司直接拉入中美外交,尤其涉及关税、供应链和芯片销售问题。它可能影响中国如何看待苹果产品、英伟达高端芯片,以及美国企业高管在贸易谈判中的作用。

文章称,特朗普前往北京与习近平举行两天会谈时,几乎没有什么筹码。文中引用的专家认为,特朗普原先设想的多项优势都没有兑现:他没有解决乌克兰战争,也没有让以色列和加沙局势平静下来,更没有迅速实现美国供应链多元化,而他的关税策略也没有带来预期中的强势。文章还指出,特朗普在伊朗问题上的升级行动,可能反而进一步增强了中国的谈判地位,因为习近平清楚特朗普当前处于弱势。为了避免在美国最重要的贸易伙伴和最强劲的地缘政治对手面前显得软弱,特朗普邀请多位美国科技高管随行。随行者包括苹果CEO蒂姆·库克,特朗普一直亲切地称他为“Tim Apple”。

埃隆·马斯克也会出席,这表明特朗普仍然看重马斯克在外交政策上的意见。就在最后时刻,特朗普确认英伟达CEO黄仁勋也将参加。文章援引路透社的说法称,黄仁勋的出席可能帮助英伟达说服中国购买高端芯片,而美国今年早些时候已经批准了这些芯片的对华销售。文章最后提到,CSIS高级顾问斯科特·肯尼迪最近在北京与中国官员和企业界人士交流了两周,他提供的观察也有助于解释为什么特朗普会在峰会前匆忙组建这样一个科技高管阵容。

文章称,特朗普原本希望通过乌克兰外交、中东局势稳定、“解放日”关税以及供应链多元化获得的筹码,基本都没有实现;相反,他在伊朗问题上的升级行动还可能增强了中国的谈判地位。路透社指出,黄仁勋的出席可能帮助英伟达推动中国购买高端芯片,而这些芯片此前已获美国批准可以对华销售。

查看单篇正文查看原文
13

OpenAI News

·#openai

Codex 进入 ChatGPT 移动端

OpenAI 表示,Codex 现在可以在 ChatGPT 移动应用中使用。用户可以跨设备和远程环境实时监控、引导并批准编码任务。

这把 Codex 从云端编码代理扩展到了更灵活的工作流,让开发者离开电脑时也能继续使用。它可能让远程审查、快速批准和移动端任务监督等 AI 辅助编程场景变得更实用。

OpenAI 宣布了一种在 ChatGPT 移动应用中使用 Codex 的新方式。这个更新允许用户在不同设备之间切换,或在远程环境中工作时,实时监控、引导并批准编码任务。公司给出的信息很简短,但这一功能被定位为让编码工作流在离开桌面后依然保持可访问。Codex 本身的角色是一个云端软件工程代理,可以代用户执行任务。

OpenAI 之前对 Codex 的介绍提到,它会在自己的环境中完成工作,并通过终端日志和测试输出提供可验证的证据。这样的设计说明,这个系统不仅是生成代码,还强调对其行为的可追踪性。此次移动端功能看起来并没有带来全新的模型或核心能力,而是扩展了开发者与 Codex 交互的地点和方式。对于已经在使用 Codex 的用户来说,最直接的价值是在离开主工作站时仍然可以持续参与任务流程。

OpenAI 先前介绍 Codex 时提到,它会在自己的环境中完成任务,并通过终端日志和测试输出提供可验证的证据。此次移动端接入看起来更强调控制和监督,而不是全新的编码模型或更深层的自动化。

查看单篇正文查看原文
14

OpenAI News

·#ai-safety

ChatGPT提升敏感对话中的上下文识别能力

OpenAI宣布对ChatGPT进行安全更新,以提升其在敏感对话中随时间变化的上下文识别能力。其目标是更好地在对话推进过程中识别风险,并以更安全的方式回应。

这很重要,因为聊天机器人的安全并不只是识别单条有害提示,还取决于是否能理解完整的对话上下文。更强的上下文感知式审核可以减少在逐步升级的场景中出现不安全回复,影响用户和产品安全团队。

OpenAI表示,正在为ChatGPT推出安全更新,以提升其在敏感对话中的上下文感知能力。公司强调,风险往往不是在某一句话里突然出现,而是会随着多轮对话逐步升级。通过持续跟踪整段对话,ChatGPT希望能更早识别出对话变得敏感的迹象,并以更安全的方式作出回应。此次更新被定位为OpenAI更广泛的内容审核和AI安全工作的一部分。

根据现有信息,这次变化更偏向增量式改进,重点是让对话处理更安全,而不是新增面向用户的功能。提供的材料中没有出现新的模型名称、版本号或基准分数。整体来看,这是一项针对困难或潜在有害交流场景的定向安全增强。

这次更新重点在于对随时间变化的上下文更加敏感,这对多轮对话尤其重要,因为风险未必会在单条消息中显现。现有材料没有给出新的模型版本、基准测试结果或具体执行机制,因此它更应被理解为一次面向安全的产品改进,而不是重大模型发布。

查看单篇正文查看原文
15

TechCrunch AI

OpenAI考虑就Apple的ChatGPT合作采取法律行动

·#openai

OpenAI考虑就Apple的ChatGPT合作采取法律行动

据彭博社报道,OpenAI 正在考虑就与 Apple 的 ChatGPT 集成采取法律行动,因为该合作未能带来其预期的订阅用户和曝光度。报道称,OpenAI 已聘请外部律师,可能先发出违约通知,而不一定会立刻提起诉讼。

这场争议凸显了 Apple 在 iPhone 分发渠道上的强势控制力,即使面对 OpenAI 这样的高知名度 AI 合作伙伴也是如此。它也说明,AI 平台合作如今不仅看技术接入,还要看流量、收入和对用户入口的控制权。

据报道,OpenAI 对 Apple 提供的 ChatGPT 集成感到非常不满,因为这项合作没有带来它预期的订阅增长和产品曝光。彭博社称,OpenAI 正在积极考虑法律行动,并已聘请外部律师来评估各种方案。可能的做法之一,是先向 Apple 发出正式的违约通知,而不一定马上升级为诉讼。报道还说,任何更大的法律动作,可能会等到 OpenAI 与 Elon Musk 的现有诉讼结束后再推进。这个消息反映出,即使是知名软件公司,在 Apple 平台上也可能对合作成果缺乏控制力。

OpenAI 原本希望这项合作能让 ChatGPT 在全球最大的移动生态之一中获得显著位置,并带来数十亿美元的新订阅收入。相反,OpenAI 据称抱怨该集成被埋得很深、很难被用户发现,而且实际收入远低于预测。Apple 方面也有自己的不满,包括对 OpenAI 隐私标准的担忧,以及对其进军硬件领域的不悦。整体来看,这延续了 Apple 长期以来与合作伙伴先合作、后摩擦的模式。

这项 ChatGPT 集成是在 2024 年 6 月的 WWDC 上公布的,出现在 Siri 和 Apple 的 Visual Intelligence 功能中,用户可以通过摄像头分析环境并将照片及相关问题发送给 ChatGPT。彭博社称,OpenAI 认为该集成在界面中位置过深、难以发现,而且带来的收入远低于预期。

查看单篇正文查看原文
16

TechCrunch AI

Khosla押注Crosby的新AI记账初创公司

·#ai-bookkeeping

Khosla押注Crosby的新AI记账初创公司

Khosla Ventures 领投了 Ian Crosby 新公司 Synthetic 的 1000 万美元种子轮融资,这家公司试图打造一个完全自主的 AI 记账员。Crosby 之前的公司 Bench 在 2024 年崩溃,后来被低价出售。

这笔融资说明,即使创始人此前的公司公开失败,部分投资者仍愿意押注激进的 agentic AI 产品。如果 Synthetic 能成功,它可能会改变软件初创公司的记账方式,把通常由人工或人机混合工具完成的工作自动化。

Ian Crosby 正在重新尝试做记账业务,而他此前的公司 Bench Accounting 已于 2024 年关停,之后还以很低的价格被出售。Crosby 这次创办的新公司叫 Synthetic,目标是打造一个完全自主的 AI 记账员,能够在没有人工直接参与的情况下生成权责发生制财务报表。该公司已经完成 1000 万美元种子轮融资,由 Khosla Ventures 领投,Basis Set Ventures 和 Shopify 首席执行官 Tobias Lütke 也参与了投资。Crosby 表示,产品目前仍处于设计阶段,而且他也不确定现有基础模型是否已经足以可靠、可规模化地完成这项工作。

Synthetic 坚持只做“完全自主”的产品,而不是辅助型工具,Crosby 说如果达不到这个标准,就不会发布。公司最初只服务 AI 和其他软件初创公司,因为这些客户的业务流程更受限、更可预测。与此同时,Crosby 也承认,如今的 AI 模型在记账上仍会犯严重错误,他把这个挑战比作一辆能在一条街上自动驾驶、但还不能在任何街道上行驶的车。Khosla 合伙人 Jon Chu 则表示,他有意押注带争议的创始人,并认为外界对失败创业者的判断往往并不完整,人也可以从过去的错误中成长。

Synthetic 的目标是在没有直接人工介入的情况下生成权责发生制财务报表,Crosby 还表示,除非产品完全自主,否则不会发布。他也承认这个想法目前可能还不具备技术可行性,而且现有原型只适用于很小一部分用户。

查看单篇正文查看原文
17

TechCrunch AI

思科裁员近4000人以加码AI和网络安全

·#cisco

思科裁员近4000人以加码AI和网络安全

思科表示将裁减近4000个岗位,约占其员工总数的5%,尽管公司刚刚公布了高于预期的季度营收和利润。公司称,此次裁员是为了重塑成本结构,并把更多资金投入AI和网络安全。

思科是重要的基础设施供应商,因此它的预算和人员调整往往能反映企业技术领域的大趋势。此次举措也进一步说明,越来越多公司在业绩仍然强劲时,仍会以向AI倾斜资源为理由进行裁员。

思科将裁减近4000个岗位,约占其员工总数的5%,但这家网络设备制造商在财季第三季度却公布了好于预期的利润和营收。公司表示,此次裁员的目标是调整“成本结构”,并把更多资金投向AI和网络安全。首席执行官Chuck Robbins在周三发布的博客中称,公司实现了“创纪录的营收”和“两位数增长”,同时强调公司正在推动员工在全公司范围内更多使用AI。思科还表示,将进一步增加对网络安全的投入,因为其路由器和防火墙持续面临安全漏洞问题,这些漏洞已被用于入侵客户网络,其中包括美国政府相关网络。公司此前还发生过一次客户数据泄露,客户个人信息受到影响。

此次裁员也符合科技行业的一个更大趋势,即越来越多公司把AI投入作为裁员理由。TechCrunch提到,Cloudflare和General Motors最近也在财务表现强劲的情况下宣布裁员。对思科来说,这并不是一次孤立事件,因为公司在2024年已经进行过两轮大规模裁员,并在2025年又裁掉了150多个岗位。思科发言人除了转述Robbins的表态外,没有进一步置评,也没有回答Robbins是否会降低自己的薪酬;公开文件显示,他在2025年的总薪酬可能超过5200万美元。

思科还表示,将继续加大网络安全投入,因为其路由器和防火墙持续面临漏洞问题,这些问题曾影响企业网络,甚至涉及美国政府。公司此前还发生过客户个人信息受影响的数据泄露,而且这也是继2024年两轮裁员和2025年进一步裁员之后的又一轮缩减。

查看单篇正文查看原文
18

TechCrunch AI

Wirestock融资2300万美元,提供授权AI数据集

·#ai-data

Wirestock融资2300万美元,提供授权AI数据集

Wirestock表示已完成2300万美元A轮融资,用于扩大其向AI实验室提供授权多模态创意数据集的业务。该公司在2023年从图库分发业务转型,如今向基础模型开发者提供图片、视频、设计素材以及游戏和3D内容。

这笔交易说明,AI实验室越来越依赖经过授权和筛选的训练数据,而不是自行抓取内容。它也表明,创意市场平台可以把创作者拥有的素材转化为生成式AI基础设施中的重要生意。

Wirestock已将自己从图库分发平台重新定位为AI公司的数据供应商。该公司表示,它在2023年开始这一转型,如今向AI实验室出售由图片、视频、设计素材以及游戏和3D内容组成的数据集。公司称,其平台上有超过70万名艺术家和设计师通过类似自由职业任务的方式贡献数据。联合创始人兼CEO Mikayel Khachatryan表示,公司对这次转型保持透明,并允许创作者退出AI数据业务;他还说大多数人选择继续留下,但没有给出具体转化比例。

Khachatryan说,最初的交易主要是出售Wirestock现有素材库中的内容,但客户需求很快转向定制化数据请求。这种变化为创作者带来了更多机会,也推动平台快速增长。Wirestock周四宣布完成2300万美元A轮融资,由 Nava Ventures 领投,SBVP、Formula VC 和 I2BF Ventures 跟投。公司表示,这笔新资金将用于继续扩展其数据供应业务。

Wirestock称,它目前正在向六家最大的基础模型厂商提供多模态数据,但拒绝透露具体名称。公司还表示,其年化营收已达到4000万美元,迄今已向贡献者支付1500万美元。为了支持这次转型,公司对部分员工进行了重新培训,以便更细致地做标注和数据整理,让数据更适合AI实验室使用;同时,公司还组建了销售和企业团队,以便向超大规模云厂商销售产品。Wirestock也在尝试扩大可获取的创意素材范围,包括更多3D建模内容。

目前,Wirestock主要通过电子邮件营销和推荐计划招募新贡献者。摄影师、摄像师和插画师可以在其网站上申请加入,但必须先完成一个无偿的质量检测任务才能被接受。公司表示,它会结合AI和人工审核来评估平台上的所有作品。Wirestock现有60名员工,并计划用这轮融资招聘研究、工程和产品岗位,同时开发让AI实验室协作处理数据集的企业软件。

随着AI实验室竞相提升模型能力,数据供应服务市场正在快速升温。Wirestock希望专注于支持图像和视频生成等创意场景,同时也在探索音频和音乐等其他模态。Nava Ventures 的投资人 Freddie Martignetti 表示,他们基金很早就关注能改进数据采购与精炼流程的初创公司,并认为多模态数据将越来越重要,不仅用于生成图像或视频,也会帮助模型完成更接近真实世界的任务。

Wirestock称其已汇聚超过70万名艺术家和设计师,目前有六家最大的基础模型厂商在购买其多模态数据。公司表示其年化营收已达4000万美元,已向贡献者支付1500万美元,并通过AI与人工审核结合、再加上无偿测试任务来筛选新供应方。

查看单篇正文查看原文
19

TechCrunch AI

Clio 达到 5 亿美元 ARR,法律 AI 升温

·#ai

Clio 达到 5 亿美元 ARR,法律 AI 升温

Clio 表示其年度经常性收入(ARR)已经达到 5 亿美元,而自 2023 年接入 AI 以来,公司增长明显加速。此时 Anthropic 又扩展了面向法律场景的 Claude 功能,使法律 AI 市场的竞争进一步升温。

这一里程碑说明,法律软件可能会成为继编程之后,LLM 的下一个重要商业化领域。如果 AI 能够稳定处理文档审阅、起草和研究,律所的工作流程可能会被显著改变,而软件厂商也可能抓住一个巨大的新市场。

成立已有 18 年的加拿大法律软件公司 Clio 表示,其年度经常性收入(ARR)已达到 5 亿美元。公司联合创始人兼 CEO Jack Newton 认为,法律科技有望成为 LLM 时代下一个大赢家,就像 AI 已经改变了编程一样。Newton 之所以这么判断,是因为代码仓库和律所手中的合同、协议等大规模文本资料非常相似,LLM 很适合处理这类内容。Clio 表示,自 2023 年把 AI 加入产品后,公司的收入增长明显加速。

公司在 2024 年年中就已超过 2 亿美元 ARR,并在去年年底翻倍,如今又达到新的里程碑。Newton 的判断也发生在一个竞争迅速升温的市场中,Harvey 和 Legora 等法律 AI 公司都在快速增长。与此同时,Anthropic 刚刚推出新的法律专用 Claude 功能,这让局势更微妙,因为 Harvey 和 Legora 都把 Claude 作为核心模型之一。Clio 还受益于更完整的平台布局,以及其去年以 10 亿美元收购 vLex 后新增的 AI 法律研究能力。

Clio 表示,其 ARR 在 2024 年年中已超过 2 亿美元,到去年年底翻倍,如今又达到 5 亿美元。公司此前以 10 亿美元收购的 vLex 也把 AI 能力扩展到了法律研究领域,而 Harvey 和 Legora 等竞争对手同样在快速增长。

查看单篇正文查看原文
20

The Verge AI

微软内部逐步停用 Claude Code

·#ai-coding-tools

微软内部逐步停用 Claude Code

微软正在取消大部分内部 Claude Code 许可证,并引导员工改用 GitHub Copilot CLI。此次调整尤其影响 Experiences + Devices 团队,该团队被要求在 6 月底前完成迁移。

这说明微软正在把内部 AI 编程工具栈收拢到自己更能直接掌控的产品上,而不是继续依赖 Anthropic 的工具。它也表明企业采用 AI 时,影响因素不仅是性能,还有成本、控制权和产品策略。

微软最初在 12 月扩大了对 Claude Code 的内部访问权限,邀请数千名员工试用 Anthropic 的 AI 编程工具,这是微软让项目经理、设计师等非开发岗位也开始尝试编程的一部分。过去六个月里,消息人士称 Claude Code 在微软内部非常受欢迎。如今,微软准备改变这一策略,取消大部分 Claude Code 许可证。微软希望许多员工改用 GitHub Copilot CLI,这是其自家的命令行编程工具,且可在 Visual Studio Code 等编辑器之外使用。受影响最明显的是 Experiences + Devices 团队,该团队包括负责 Windows、Microsoft 365、Outlook、Microsoft Teams 和 Surface 的工程师,预计会在 6 月底前停止使用 Claude Code。

公司正在鼓励员工在未来几周内把工作流程迁移到 Copilot CLI,以赶在截止日期前完成切换。微软表示,这样做的目的是让 Copilot CLI 成为该团队统一的代理式命令行接口,而 Rajesh Jha 也强调,Copilot CLI 的价值在于微软可以与 GitHub 直接共同打磨它,使其更适合微软的代码库、工作流、安全要求和工程需求。内部备忘录还提到,Claude Code 曾是微软用来学习和做工具对比的重要手段,但现在公司希望加大对 Copilot CLI 的投入,并通过员工反馈持续改进它。消息人士同时表示,这一决定也有财务因素,因为 6 月 30 日是微软当前财年的最后一天,取消许可证可以在新财年 7 月开始时降低运营支出。尽管如此,这次迁移对内部工程师来说并不轻松,因为微软自己的开发人员近几个月来其实更偏爱 Claude Code,而两款产品之间仍然存在功能差距。

Claude Code 是 Anthropic 的代理式编程工具,可在开发者本地机器上运行、编辑文件、执行命令并创建 PR。微软表示,Copilot CLI 将成为 Experiences + Devices 团队的主要命令行代理工具,同时 Anthropic 模型、微软内部模型和 OpenAI 模型仍可通过 Copilot CLI 使用。

查看单篇正文查看原文
21

The Verge AI

交互地图追踪数据中心争议

·#data-centers

交互地图追踪数据中心争议

《The Verge》介绍了一张由华盛顿大学学生 Isabelle Reksopuro 制作的交互式地图,用来追踪全球数据中心和 AI 政策争议。这个地图被设计为每天自动检索四次新来源,并把更新内容加入新闻流和侧边栏。

数据中心正在越来越多地引发关于用水、土地使用、能源成本和信息透明度的地方争议,但不同州和社区的规则与反应差异很大。通过让这些冲突更容易被看见,这张地图帮助居民在设施建设前争取话语权,并要求获得更多本地收益。

这篇报道首先从俄勒冈州居民 Isabelle Reksopuro 的经历写起:她听说 Google 正在为数据中心获取公共土地,于是想弄清楚事情的真相。地点是靠近华盛顿州边界的 The Dalles,当地政府申请收回 Mount Hood National Forest 中一块 150 英亩的土地,理由是为了获得 Mount Hood 流域的水源,以满足不断增长的市政需求。批评者,包括环保人士,则认为这实际上是在为 Google 的数据中心园区争取更多用水,而该园区已经消耗了该市约三分之一的供水。Reksopuro 在华盛顿大学研究技术与公共政策之间的关系,她把这场地方争议扩展成了一个关于数据中心反弹的更大项目。她使用 Epoch AI 的信息以及抓取到的数据中心相关立法制作了一张交互式地图,目标是让任何人都能轻松浏览。

她说自己希望连妹妹们也能用这张地图了解附近有哪些数据中心,以及政府正在采取什么措施。这个地图还通过 Claude 每天自动搜索四次新来源,然后生成新的摘要、加入新闻流并显示在侧边栏中。文章指出,反对数据中心几乎跨越党派界限,但各地的政策反应并不一致:缅因州曾通过美国首个针对超大规模数据中心的州级暂停令,但后来被州长 Janet Mills 否决;而德州则对数据中心持欢迎态度,每年提供超过 10 亿美元的税收减免。Reksopuro 表示,她并不反对数据中心,但认为科技巨头受益于当前缺乏透明度;如果社区能更早知道项目,就可以争取职业培训、税收收入和环境监测等更实际的回报。

文章聚焦俄勒冈州 The Dalles 的一场争议,批评者认为涉及 Mount Hood National Forest 的土地转让可能会让 Google 的大型数据中心园区受益,而该园区已经消耗了该市约三分之一的供水。Reksopuro 使用 Epoch AI 的数据以及抓取到的数据中心相关立法制作了这张地图,她表示目标是让非专业读者,尤其是学生和家人,也能轻松理解这个议题。

查看单篇正文查看原文
22

The Verge AI

美国人反对家附近建AI数据中心

·#ai-infrastructure

美国人反对家附近建AI数据中心

盖洛普最新调查发现,超过70%的美国人反对在自己所在地区建设AI数据中心,只有7%的人表示“强烈”支持。盖洛普还指出,公众对数据中心的反感程度之高,甚至宁愿住在核电站附近。

这项调查表明,AI基础设施面临的不只是技术和商业问题,还有明显的社会接受度障碍。当地居民的强烈反对可能会拖慢新的数据中心项目,并加剧围绕用电、用水和电费上涨的争论。

盖洛普的一项新调查显示,超过70%的美国人反对在自己所在地区建设AI数据中心。只有7%的人表示“强烈”支持,说明支持者很少,而反对情绪非常广泛。盖洛普甚至指出,美国人宁愿住在核电站附近,也不愿住在数据中心附近,尽管历史上人们对核电站建设的反对一直非常强烈。此次调查的数据来自两个部分:一项是2026年3月对美国50个州和哥伦比亚特区随机抽取的1000名成年人进行的调查,另一项是2026年4月对2054名盖洛普面板成员进行的调查。在反对建设新数据中心的人中,50%把水和电等资源承压视为最主要的担忧。

就在本月早些时候,皮尤研究中心也发布调查称,43%的美国人认为数据中心是电费飙升的重要原因。盖洛普调查中提到的其他反对理由还包括生活质量下降、生活成本上升、污染,以及对AI的负面看法。支持新数据中心的人则主要看重就业机会,其中55%表示这是他们支持的首要原因。报道还提到,缅因州州长珍妮特·米尔斯今年早些时候否决了该州一项为期18个月的新数据中心建设暂停令,理由之一就是就业。

在反对者中,50%的人把水和电等资源压力列为首要担忧;而皮尤本月早些时候的调查也发现,43%的美国人认为数据中心是电费飙升的重要原因。反对比例在民主党人中最高,为75%,其次是独立选民的74%,共和党人则为63%。

查看单篇正文查看原文
23

The Verge AI

Edge Copilot新增跨标签页AI分析

·#microsoft-edge

Edge Copilot新增跨标签页AI分析

微软正在更新 Edge,让 Copilot 可以从你打开的所有标签页中提取信息,从而支持提问、比较产品和跨页面总结文章。公司还加入了新的 AI 功能,包括学习模式、将标签页转换为播客、网页内写作助手,以及重新设计的新标签页。

这让 Edge 更像一款 AI 辅助研究浏览器,尤其适合同时比较产品或阅读多个来源的人。它也表明微软正在把更多浏览、搜索和生产力任务整合进 Copilot,而不是把 AI 仅仅当作一个独立附加功能。

微软正在为 Edge 推出一次新的更新,让 Copilot 对浏览器里打开的内容有更强的感知能力。启动与 Copilot 的对话后,用户可以直接询问各个标签页中的内容、比较正在浏览的商品,或者总结文章,而不必在页面之间来回切换。微软表示,用户可以自行选择开启哪些体验,也可以把不需要的功能关闭。与此同时,公司正在停止 Copilot Mode 这一较早的 Edge 实验功能。Copilot Mode 之前也能读取标签页内容,并提供一些更偏代理式的操作,例如代为预订座位或预约。现在,这些代理能力被整合进 Browse with Copilot 中。

除了跨标签页分析,Edge 还新增了 AI 驱动的 Study and Learn 模式,可以把文章变成学习环节或互动测验。微软还引入了一个功能,能够把你的标签页转换成 AI 生成的播客,另外还有一个网页内写作助手,会在你开始输入文字时弹出。Copilot 也可以在用户授权后访问浏览历史,从而给出更相关的答案。微软表示,Edge 的桌面版和移动版还会提供长期记忆,让 Copilot 可以结合你之前的对话来调整回答。新的标签页页面也被重新设计为把聊天、搜索和网页导航整合在一起,同时加入 Journeys 功能,用 AI 将浏览历史按类别整理,方便以后回看。在移动端,Edge 还允许用户与 Copilot 共享屏幕,并围绕正在看到的内容提问,微软称系统会通过清晰的视觉提示告诉用户 Copilot 何时正在行动、帮助、倾听或查看。

微软表示,用户可以选择启用哪些 Copilot 体验,公司也已经停止 Copilot Mode,并将其代理式能力整合到 Browse with Copilot 中。在桌面端和移动端,Copilot 还可以在获得许可后使用浏览历史和长期记忆,而移动应用新增了屏幕共享,用户可以边看边和 Copilot 讨论其所见内容。

查看单篇正文查看原文