AI 日报

AI突破与监管博弈:Meta超智能体、Anthropic争议与Sora关闭引发行业震荡

今日AI新闻聚焦于两大核心趋势:一是Meta的超智能体和Cohere语音模型等技术突破正在重塑AI能力边界;二是政府监管、公众抵制与企业战略调整(如OpenAI关闭Sora)共同推动行业进入更负责任的发展阶段。从算力到伦理,AI正从实验室走向社会深处。

当天导读

从 48 条资讯中筛选出 29 条

今日AI新闻聚焦于两大核心趋势:一是Meta的超智能体和Cohere语音模型等技术突破正在重塑AI能力边界;二是政府监管、公众抵制与企业战略调整(如OpenAI关闭Sora)共同推动行业进入更负责任的发展阶段。从算力到伦理,AI正从实验室走向社会深处。

Meta超智能体:AI首次实现自我进化

Meta推出的超智能体不仅解决任务,还能改进自身学习机制,且具备跨领域迁移能力,是迈向真正自主AI的关键一步。

法院叫停特朗普对Anthropic禁令

联邦法官裁定将Anthropic标记为供应链风险属任意行为,保护其言论自由权利,为AI监管设定法律边界。

OpenAI关闭Sora,回应公众抵制

因环境压力与社会舆论,OpenAI终止Sora项目及迪士尼合作,标志着AI发展必须平衡技术创新与社会责任。

内存芯片股暴跌1000亿美元

AI内存需求被重新评估后远低于预期,导致市值蒸发,警示市场对基础设施投资需理性看待。

谷歌Gemini支持导入其他AI记忆

用户可从ChatGPT或Claude导入聊天历史和偏好,推动AI平台互操作性,增强用户控制权。

AI每日简报:2026-03-28

🔍 技术前沿突破

1. Meta超智能体:自我进化式AI迈出关键一步(#24)

Meta与大学合作开发的超智能体不仅能完成任务,还能优化自身学习机制,实现跨领域技能迁移——这是迈向真正自主AI的重要里程碑。

2. Cohere发布Transcribe语音模型,登顶开源ASR榜首(#25)

支持14种语言的Transcribe以5.42%词错误率超越Whisper,成为开发者构建多语言AI代理的理想选择,标志着高性能语音识别民主化加速。

3. TRIBE v2预测大脑反应优于个体fMRI扫描(#26)

Meta利用720人数据训练出能精准预测视觉/听觉/语言刺激下群体脑活动的模型,为神经科学节省大量实验成本,并推动脑机接口发展。

⚖️ 监管与伦理风暴

4. 法院阻止特朗普对Anthropic禁令,称其标签‘奥威尔式’(#27, #36)

联邦法官裁定将Anthropic列为供应链风险违反第一修正案,凸显国家安全与言论自由间的紧张关系,为未来AI监管设立重要先例。

5. Meta社区笔记被批无法应对AI虚假信息(#29)

监督委员会指出该系统延迟严重(仅6%提案通过)、易被AI操纵,暴露平台内容审核体系在AI时代下的根本缺陷。

6. Anthropic泄露显示Claude Mythos测试分数创纪录(#28)

内部文件曝光新模型显著超越Opus 4.6,引发业界对其强大能力及网络安全风险的关注,加剧与OpenAI的竞争格局。

💸 市场动荡与战略转向

7. OpenAI取消Sora项目,回应公众抵制(#30, #41, #47)

因环境压力、社区反对及商业不可持续性,OpenAI终止价值10亿美元的迪士尼合作并关闭Sora,反映科技公司开始重视社会接受度。

8. 内存芯片股蒸发1000亿美元,AI需求被重新评估(#34)

研究发现AI数据中心实际内存需求低于预期,导致股价暴跌,警示投资者需谨慎看待基础设施投资泡沫。

9. 谷歌Gemini支持导入ChatGPT/Claude记忆,增强互操作性(#48)

用户可在不同AI平台间无缝迁移上下文,推动AI生态走向开放、以用户为中心的方向,提升数据主权意识。

🏗️ 基础设施与未来布局

10. 谷歌资助Anthropic德州数据中心,绕过电网审批(#35)

直接供气策略解决接入瓶颈,凸显能源物流已成为AI扩展的关键变量,而非仅靠算力堆叠。

11. SK海力士拟赴美IPO募资100–140亿美元(#40)

韩企寻求估值重估,意图缩小与美光差距,强化全球AI硬件供应链地位,预示半导体资本化浪潮再起。

🧠 行业反思与趋势

12. 马特·韦伯批评代理编码滥用资源(#38)

呼吁转向架构导向的AI开发,强调可持续性和组合性比暴力迭代更重要,引导开发者“vibing”而非单纯写代码。

13. Anthropic报告:AI技能随使用提升,可能加剧不平等(#43)

早期采用者效率高出4%,形成正向循环,提醒政策制定者关注公平获取AI工具的重要性,避免数字鸿沟扩大。

当日精选 8 条

01

The Decoder

Meta的超智能体在任务和学习机制上都能自我提升

·#ai

Meta的超智能体在任务和学习机制上都能自我提升

Meta与大学研究人员开发了‘超智能体’——一种不仅能完成任务,还能优化自身学习机制的AI系统。这一突破使AI不仅能提升任务表现,还能改进自身的学习方式,打破了自适应AI长期存在的限制。

这是迈向真正自主AI的重要一步,无需人类干预即可进化。它可能加速机器人、科学研究和编程等多个领域的AI能力发展,从而推动多个行业的创新速度。

Meta与不列颠哥伦比亚大学等机构的研究人员推出了‘超智能体’——一种不仅解决任务还能改进自身学习过程的AI系统。不同于传统自适应AI中改进机制固定不变的情况,超智能体将学习机制本身视为可修改的代码。实验显示,它们在四个领域均取得显著进步:编程(Polyglot基准)、论文评审、机器人奖励设计和奥数题评估。

尤为关键的是,训练于某一领域的超智能体能将通用自适应技能迁移到全新领域——这是以往系统无法做到的。消融实验证明,元智能体和代码归档都是进步的关键。

超智能体架构将任务求解组件与元组件结合,后者可修改整个系统(包括自身)并利用成功代码变体的归档进行优化。该方法称为DGM-H,在论文评审和机器人奖励设计等非编程任务中优于以往方法。

查看单篇正文查看原文
02

The Decoder

Cohere发布开源语音识别模型Transcribe,登顶基准测试榜首

·#speech-recognition

Cohere发布开源语音识别模型Transcribe,登顶基准测试榜首

Cohere发布了Transcribe,这是一个开源自动语音识别(ASR)模型,在Hugging Face开放ASR排行榜上实现了5.42%的词错误率,超越了Whisper Large v3和Scribe v2等竞品。它还具备高吞吐量,是同类模型中效率最高的之一。

这一突破使高性能语音识别对开发者和研究人员更加易得,可能加速AI代理、多语言应用和实时转录工具的创新。其开源许可允许广泛采用和定制,无需承担成本障碍。

Cohere推出了Transcribe,这是一个开源自动语音识别模型,在Hugging Face开放ASR排行榜上以5.42%的词错误率击败了主要竞争对手。该模型支持14种语言,运行高效且吞吐量高,采用Apache 2.0许可证,可自由使用和修改。用户可以从Hugging Face下载或通过Cohere的API与Model Vault平台访问。

Cohere计划将其集成到North AI代理平台中,表明其战略重要性。此次发布标志着开源语音识别领域的重要进展,也使Cohere成为可负担AI基础设施的关键参与者。

Transcribe是一个拥有20亿参数的模型,支持包括英语、德语、法语和日语在内的14种语言;它在Hugging Face上以Apache 2.0许可证提供,并可通过Cohere的API和Model Vault平台访问。

查看单篇正文查看原文
03

The Decoder

Meta的TRIBE v2模型可预测大脑对感官刺激的反应

·#ai

Meta的TRIBE v2模型可预测大脑对感官刺激的反应

Meta的TRIBE v2人工智能模型能够以高于单个fMRI扫描的准确度预测人类大脑对图像、声音和语言的反应。该模型基于720名受试者超过1000小时的fMRI数据训练而成,并使用Llama 3.2、Wav2Vec-Bert-2.0和Video-JEPA-2等预训练模型进行输入处理。

这一突破可能大幅减少神经科学研究的时间和成本,因为它消除了每次实验都需要重复脑部扫描的需求。它还为脑机接口和个性化神经学应用开辟了新可能。

Meta的FAIR团队发布了TRIBE v2模型,该模型利用fMRI数据预测人类大脑对图像、声音和语言的反应。该模型基于720名受试者的超1000小时数据训练,其准确性优于大多数个体扫描结果——尤其是在高精度数据集(如人类连接组计划)中表现突出。模型首先通过Meta的专用AI模型(Llama 3.2用于文本、Wav2Vec-Bert-2.0用于音频、Video-JEPA-2用于视频)处理输入,再用Transformer融合信息生成包含7万个体素的大脑图谱。

它的预测结果比多数个体扫描更接近群体平均值,从而降低了由心跳或头部移动引起的噪声干扰。更重要的是,TRIBE v2是开源的,研究人员可以免费获取代码、权重和交互式演示。

TRIBE v2预测的是群体平均脑反应而非个体差异,因此其输出比真实fMRI扫描更少噪声。然而,它受限于fMRI的慢时间分辨率,且仅处理视觉、听觉和语言三种感官模态。

查看单篇正文查看原文
04

The Decoder

联邦法官阻止特朗普对Anthropic AI模型的禁令

·#ai-regulation

联邦法官阻止特朗普对Anthropic AI模型的禁令

一名旧金山联邦法官发布初步禁令,阻止特朗普总统禁止联邦机构使用Anthropic AI模型的命令,并将该公司标记为安全风险。法官称政府对该公司的标签是‘奥威尔式的’,并裁定这违反了第一修正案。

这一裁决为国家安全主张与宪法权利(尤其是言论自由)之间的交集设立了重要先例。它挑战了政府惩罚企业公开批评的能力,引发了关于人工智能监管和透明度的更广泛讨论。

法官丽塔·林阻止了特朗普总统下令禁止联邦机构使用Anthropic AI模型的行政命令,并称政府将该公司标记为安全风险的做法是‘奥威尔式的’。该决定基于第一修正案保护,因为Anthropic曾公开批评五角大楼的合同要求。该案起源于五角大楼寻求完全控制Anthropic模型但遭拒,原因是伦理限制。

随后国防部长皮特·赫格塞思将Anthropic标记为供应链风险——这是美国公司首次获得此类标签。该禁令是临时性的,不会立即解决最终结果,但在诉讼期间防止了即时损害。

争议源于一笔价值2亿美元的五角大楼合同失败事件,Anthropic拒绝授予其Claude模型无限制访问权限,理由是担心这些模型被用于自主武器和大规模监控。法院认为,仅因公司对政府政策提出异议就将其列为‘供应链风险’缺乏法律依据。

查看单篇正文查看原文
05

The Decoder

Anthropic泄露显示‘Claude Mythos’测试分数创纪录

·#ai

Anthropic泄露显示‘Claude Mythos’测试分数创纪录

Anthropic内部文件泄露显示,一款名为‘Claude Mythos’(也称‘Capybara’)的新AI模型在编程、学术推理和网络安全等测试中得分远超此前的Claude Opus 4.6模型。

这可能标志着AI能力的重大飞跃,尤其是在软件开发和安全等实际应用领域。同时加剧了Anthropic与OpenAI之间的竞争,后者正在准备代号为'Spud'的下一代模型。

Anthropic的数据泄露事件暴露了内部文档,其中详细描述了一款名为‘Claude Mythos’(或‘Capybara’)的新AI模型,公司称这是迄今为止最强大的模型。它在编程、推理和网络安全基准测试中显著优于Claude Opus 4.6。此次泄露源于内容管理系统配置错误,导致近3000份内部文件可被公开访问。

Anthropic确认已开始对少数客户进行测试,并强调该模型在能力上实现了‘质的飞跃’。发布将采取渐进式策略,优先考虑安全性,因为该模型具备先进网络能力,可能超越当前防御体系。文档中出现了两个版本,一个叫‘Mythos’,另一个叫‘Capybara’,说明名称尚未最终确定。

该模型被描述为‘比Opus模型更大更智能’,Anthropic计划以谨慎的安全方式逐步发布,初期仅向一小部分客户开放,重点评估其网络安全能力。

查看单篇正文查看原文
06

The Decoder

Meta监督委员会:社区笔记无法应对AI虚假信息

·#ai-disinformation

Meta监督委员会:社区笔记无法应对AI虚假信息

Meta自己的监督委员会指出,用于替代专业事实核查的“社区笔记”系统速度慢、人力不足且易被操纵,尤其是在面对人工智能生成的虚假信息时。

这一警告突显了Meta在AI驱动虚假信息迅速蔓延的背景下,其内容审核策略的重大缺陷,引发了人们对平台责任和公众信任的担忧。

Meta的监督委员会对‘社区笔记’进行了严厉批评,该系统是在终止为期十年的专业事实核查项目后推出的。委员会发现,该系统存在严重延迟、极低的发布率(仅6%的提案被采纳),并容易受到使用AI工具的有组织操纵。与过去可降低虚假内容曝光度或禁止广告投放的事实核查不同,社区笔记不会影响内容的传播范围或收入。

委员会警告称,AI使操纵更加容易,包括大规模创建账号和战略性抑制好评。在某些国家,委员会建议不应推出该计划。

仅约6%的笔记提案会被发布,平均延迟超过24小时——远超误导性内容的传播高峰期;同时,收到笔记的内容发布者不会受到任何惩罚或影响。

查看单篇正文查看原文
07

The Verge AI

OpenAI因财务压力取消Sora视频生成器

·#ai

OpenAI因财务压力取消Sora视频生成器

OpenAI突然中止了其视频生成项目Sora,撤回了将其集成到ChatGPT中的计划,并终止了一项价值10亿美元的迪士尼合作。公司现在更关注盈利,而非像Sora或ChatGPT成人模式这样的雄心勃勃的AI项目。

这一决定标志着OpenAI的重大战略转向,因其在快速发展的AI视频生成领域面临Anthropic和Google的激烈竞争。这也引发了人们对尖端AI模型商业可行性的担忧,以及它们对公众对数字内容真实性的信任影响。

OpenAI意外地取消了备受期待的视频生成模型Sora,同时撤回了将视频功能加入ChatGPT的计划,并终止了与迪士尼价值10亿美元的合作。这一举动发生在公司寻求减少亏损、聚焦盈利的背景下,因为成本上升和Anthropic与Google的竞争日益激烈。行业专家指出,Sora未能保持早期势头,演示效果远超实际表现的质量、速度和成本。

高管们承认,像Sora这样高算力的项目分散了对核心业务目标的关注。尽管初期令人兴奋,但Sora缺乏差异化使其在拥挤市场中难以留住用户。这一决策反映了整个行业的一个趋势:企业必须在创新与财务可持续性之间取得平衡。

Sora难以与谷歌和Kling的模型竞争,缺乏明显优势,且消耗大量计算资源却未能带来足够收入。该取消决定恰逢新一轮100亿美元融资,使OpenAI总融资额超过1200亿美元。

查看单篇正文查看原文
08

Ars Technica AI

参议员要求数据中心用电量透明化

·#policy

参议员要求数据中心用电量透明化

民主党参议员伊丽莎白·沃伦和共和党参议员乔什·霍利致信美国能源信息署(EIA),要求其强制数据中心每年披露用电量,以支持电网规划并防止电费上涨影响普通家庭。

此举反映了两党对人工智能驱动的数据中心无监管用电需求日益增长的担忧,这些需求可能加剧电网压力并推高消费者电费,因此获取准确数据对政策制定和基础设施投资至关重要。

参议员伊丽莎白·沃伦和乔什·霍利呼吁美国能源信息署(EIA)强制要求数据中心每年公开披露用电量。他们认为这种透明度对电网规划和防止科技巨头将电费转嫁给美国家庭至关重要。尽管公用事业公司已掌握部分本地数据中心用电数据,但企业常更换供电方,导致需求预测虚高。

EIA最近在德克萨斯州、华盛顿州和弗吉尼亚州启动了一项自愿试点项目,从近200家数据中心运营商处收集包括服务器使用、冷却系统和电源在内的详细能耗数据,但参议员希望将其扩展为强制性制度。专家警告称,若缺乏标准化报告,公用事业公司可能高估未来需求,浪费资源并增加消费者成本。

目前没有联邦机构强制收集数据中心用电数据;企业通常仅自愿披露或使用不接入电网的自备电源系统,这导致预测失真和潜在的重复计算。

查看单篇正文查看原文
09

Financial Times AI

·#ai-ethics

人工智能可能抵消社交媒体的极化效应

大型语言模型(LLM)被发现能推动专家共识和温和观点,与社交媒体平台的极化特性形成鲜明对比。

这种转变可能通过减少错误信息并鼓励基于证据的对话来改善公共讨论——从而潜在地重塑社会对气候变化或政治等复杂问题的参与方式。

《金融时报》文章指出,大型语言模型通过推广专家共识和温和观点,能够抵消社交媒体的极化影响。与奖励愤怒和分裂的社交平台不同,大模型往往反映广泛接受的科学和事实立场。研究表明,这些模型可以通过分析立场、语气和在线互动模式来衡量甚至减少极化。

然而,如果被滥用,例如生成情绪化内容或深度伪造视频,人工智能也可能加剧极化。因此,AI系统的伦理设计至关重要,以确保它们促进建设性公共讨论,而不是加深社会分歧。

虽然大型语言模型可以综合现有知识以呈现平衡视角,但如果训练数据存在偏见或在情绪化环境中使用,它们也可能加剧极化。

查看单篇正文查看原文
10

Financial Times AI

·#ai-infrastructure

AI数据中心热潮会演变成9万亿美元的泡沫吗?

《金融时报》文章质疑,高达9万亿美元的投资是否会导致AI数据中心市场泡沫而非可持续增长。文章指出,尽管科技巨头投入巨资,但许多企业可能无法收回成本。

这一问题影响投资者、政策制定者和全球科技经济,引发对估值过高和基础设施过剩的担忧。如果热潮转为泡沫,可能导致金融不稳定,并减缓关键AI领域的创新步伐。

文章探讨了AI数据中心的快速扩张,这由超大规模公司为满足激增的AI算力需求而进行的大规模资本支出所驱动。尽管这些投资预计将达到9万亿美元,但分析人士警告称,由于供应过剩或技术需求变化,许多公司可能无法获得回报。文章将此与过去的科技泡沫(如1999年互联网泡沫)相提并论,当时过度支出导致市场回调。

然而,与1999年不同的是,今天的投资大多属于私有且不易被公众市场察觉。尽管如此,专家仍警告称,如果需求未按预期增长,一旦出现调整,那些过快建设过多容量的公司将受到重创。

亚马逊、微软和谷歌等超大规模公司推动了大部分新建数据中心,但人们对需求是否能跟上供应表示担忧。文章还指出,私人融资轮次和更长的投资周期可能掩盖了类似互联网泡沫时期的潜在风险。

查看单篇正文查看原文
11

Financial Times AI

·#ai

内存芯片股蒸发1000亿美元,因AI需求重新评估冲击市场

最新研究显示,人工智能数据中心所需的内存可能远低于此前预期,导致内存芯片股票市值暴跌1000亿美元。

这一变化挑战了投资者对半导体需求未来的假设,可能改变投资策略,并放缓内存芯片制造商和人工智能基础设施提供商的增长预期。

最新研究表明,人工智能数据中心所需的内存可能远低于此前预估——这与之前推动内存芯片生产激增的预测相悖。因此,内存芯片股价一夜之间蒸发约1000亿美元。对AI内存需求的重新评估可能导致科技公司在DRAM等内存技术上的资本支出减少。

分析人士警告称,人工智能热潮对内存市场的冲击可能比预期温和。这一发展凸显了在AI基础设施等高风险领域进行精准建模的重要性。投资者和芯片制造商现在必须重新评估长期供应链计划和定价策略。

这些发现表明,当前对AI训练和推理中内存使用的预测过于保守,可能是由于尚未广泛采用的更高效内存管理技术或硬件优化所致。

查看单篇正文查看原文
12

Financial Times AI

·#ai-infrastructure

谷歌接近达成协议,资助Anthropic在德克萨斯州的数据中心

谷歌即将达成协议,资助价值数十亿美元的德克萨斯州数据中心,该中心将租给Anthropic,并通过直接供气绕过电网连接延迟问题。

这标志着对AI基础设施的重大投资,凸显了能源物流在扩展AI模型中的关键作用——尤其是在计算需求快速增长的背景下。

谷歌即将敲定一项融资协议,用于资助德克萨斯州一个价值数十亿美元的数据中心,该中心将租给领先的AI公司Anthropic。该设施由Nexus Data Centers运营,计划通过直接从管道获取天然气来绕过繁琐的电网接入流程——这是科技公司为加速部署而越来越普遍采用的方法。这种方法减少了对传统电网的依赖,因为电网常因高需求和监管延迟而出现瓶颈。

Williams和Kinder Morgan等管道公司正在积极与数据中心谈判此类合作。这一举措反映了更广泛的行业趋势:在AI发展中,能源可用性和部署速度如今与算力本身同样重要。

德克萨斯州的站点由Nexus Data Centers开发,将使用直接天然气供应而非等待电网审批,这种策略正受到面临长时间等待的数据中心运营商青睐。

查看单篇正文查看原文
13

Financial Times AI

·#ai-policy

美国法官阻止特朗普政府因供应链风险惩罚Anthropic公司

一名美国联邦法官裁定,特朗普政府将人工智能公司Anthropic列为‘供应链风险’的做法可能属于任意且武断,从而阻止了对该公司采取惩罚性措施。

这一裁决为政府机构如何证明对AI公司的监管行动提供了法律先例,强调在国家安全相关的科技政策决策中必须遵守正当程序和透明度。

一名美国法官阻止了特朗普政府对人工智能初创公司Anthropic实施处罚,此前该政府将其列为‘供应链风险’。法院认为该分类违反了行政法中的‘任意性和武断性’原则,表明政府缺乏充分依据。这一决定源于国防部长与Anthropic之间的争议,当时众议员阿莫迪正试图缓和局势。

该认定已导致联邦政府停止使用Anthropic的AI助手Claude,影响了其业务和公众声誉。此案凸显了对新兴科技监管中行政行为日益增长的法律审查。同时也表明,法院可能会越来越多地挑战国家安全背景下模糊或政治动机明显的认定。

该认定实际上禁止了美国联邦政府使用Anthropic的人工智能模型Claude,并损害了该公司的销售业绩和公众形象。

查看单篇正文查看原文
14

OpenAI News

·#ai-in-the-workplace

STADLER利用ChatGPT为650名员工重塑知识工作

STADLER这家拥有230年历史的公司已在其组织内部署ChatGPT,为650名员工优化知识工作流程。这标志着老牌企业采用AI工具提升生产力的重大转变。

这一案例展示了即使是历史悠久的企业也能成功将生成式AI融入核心运营中。它预示着企业级AI在知识管理领域的广泛采用,并为其他传统行业树立了榜样。

STADLER是一家拥有230年历史的工业企业,已引入ChatGPT以提升其650名员工的知识工作效率。通过将AI工具整合进日常流程,STADLER旨在减少处理常规文档、内部查询和信息检索所需的时间。该举措支持从手动知识处理向AI辅助流程的转变,从而提高效率而不取代人类员工。

OpenAI平台使STADLER能够在其环境中安全、可扩展地使用ChatGPT。此次部署与企业级AI应用趋势一致,如客户支持、销售自动化和内部知识库。此举体现了现代化运营的战略努力,同时保留了企业的制度性专业知识。

该实施重点在于减少重复性知识任务所花费的时间,而非取代人工岗位。虽然未提供具体指标,但重点在于加速各部门的生产力。

查看单篇正文查看原文
15

Simon Willison

·#ai-agents

马特·韦伯谈代理编码的局限性

马特·韦伯批评代理编码倾向于通过暴力迭代(如无限使用while循环)解决问题,即使代价是消耗海量计算资源。他指出真正的目标应该是可维护、可组合且具有架构意识的AI驱动软件开发。

这一观点至关重要,因为随着AI代理成为软件开发的核心工具,它们不仅要快速解决问题,还必须促进可持续和可扩展的系统建设。这反映了行业从逐行编码向以AI为基础的系统设计转变的趋势。

在2026年3月的一篇由西蒙·威尔逊收集的文章中,马特·韦伯指出代理编码代理可以不计代价地反复处理问题——哪怕消耗万亿次token也要解决。虽然强大,但这种暴力方法不利于长期软件可持续性。韦伯认为我们需要的是高效、适应性强且能提升整个技术栈的代理。

他强调,良好的架构始于优秀的库,这些库能让正确的解决方案变得容易采用。在他自己的实践中,他现在“vibing”——这是他用来替代传统编程或‘vibe coding’的新术语——更多关注架构思维而非逐行写代码。

韦伯强调,具有良好接口的优质库是让代理持续构建更好软件的基础。他还引入了‘vibing’这一新概念,指开发者不再关注代码行数,而是更专注于高层次的系统设计。

查看单篇正文查看原文
16

TechCrunch AI

软银400亿美元贷款暗示OpenAI或于2026年上市

·#ai

软银400亿美元贷款暗示OpenAI或于2026年上市

软银从摩根大通、高盛及四家日本银行获得了一笔400亿美元的无担保贷款,用于兑现其对OpenAI的300亿美元投资承诺。该贷款期限仅一年,表明贷款方预计OpenAI即将上市,可能在2026年底前完成。

这一举动表明投资者对OpenAI未来充满信心,并可能加速AI行业的估值趋势。同时也凸显了软银通过大规模资本投入主导AI领域的激进策略。

软银宣布获得一笔400亿美元的无担保贷款,用于兑现其对OpenAI的300亿美元投资承诺,此举紧随OpenAI刚刚完成的1100亿美元融资之后。这笔由摩根大通、高盛等顶级银行提供的贷款期限为一年,表明贷款方相信OpenAI将在2026年初上市。如果成功,这将是历史上规模最大的IPO之一,使软银能够迅速偿还债务。

软银对OpenAI的总投资已超过600亿美元,显示出对其长期价值的坚定信心。这一金融操作凸显了主要投资者对AI行业爆发式增长和公开市场准备度的高度期待。

这笔贷款需在一年内偿还或再融资,意味着OpenAI上市时间表非常紧凑。软银对OpenAI的总投资已超过600亿美元,成为该公司最大的单一股东之一。

查看单篇正文查看原文
17

TechCrunch AI

SK海力士计划于2026年底进行100亿至140亿美元的美国IPO

·#semiconductors

SK海力士计划于2026年底进行100亿至140亿美元的美国IPO

韩国内存芯片巨头SK海力士已向美国证券交易委员会提交了F-1表格,计划于2026年下半年通过美国存托凭证(ADR)上市,目标募资100亿至140亿美元。

此举可能缩小SK海力士与美企如美光之间的估值差距,增强其为AI内存投资获取资本的能力,并通过提升美国投资者对关键内存技术的参与度,重塑全球半导体供应链格局。

SK海力士已在韩国KOSPI上市,正筹备于2026年底在美国进行首次公开募股(IPO),预计募资100亿至140亿美元。提交F-1表格标志着其迈向美国存托凭证(ADR)上市的第一步。分析师认为此举有望提升其估值,使其更接近美光等全球同行,尽管两者生产能力相当但韩企估值长期偏低。

该举措也反映了高带宽内存(HBM)需求激增,这是Nvidia等AI芯片厂商的核心组件。SK海力士计划筹集超750亿美元净现金用于长期AI投资,旨在强化其在快速增长的AI硬件市场的地位。投资者现在也开始关注三星电子,Artisan Partners呼吁其考虑类似美国上市,以释放价值并吸引美国散户投资者。

公司计划发行约2%的新股以筹集100亿至140亿美元资金,同时确保母公司SK Square根据韩国法规维持至少20%的持股比例;这遵循了台积电在AI需求高涨时美国上市股票曾溢价交易的先例。

查看单篇正文查看原文
18

TechCrunch AI

OpenAI关闭Sora引发AI抵制浪潮

·#ai

OpenAI关闭Sora引发AI抵制浪潮

OpenAI已停止其文本生成视频模型Sora,反映出社会对AI扩张的日益抵制。这一决定与肯塔基州因AI数据中心用地引发的土地争议等现实世界的反抗相呼应。

这一决定标志着科技公司开始更重视公众对AI伦理、环境影响和基础设施开发的担忧。它可能影响未来全球AI产品的发布和监管方式。

OpenAI决定关闭Sora,正值公众对AI的疑虑迅速上升之时。该公司不仅面临用户压力,还遭遇社区对AI基础设施项目的抵制——例如肯塔基州一位82岁女性拒绝了价值2600万美元的出价,不愿出售土地用于建设数据中心。与此同时,法院开始追究社交媒体平台的责任,表明科技的社会影响正迎来更广泛的反思。

风险投资仍大量涌入AI领域,但这一时刻说明,仅靠资金无法保证技术顺利落地。随着AI从实验室走向物理空间,企业必须在雄心与责任之间取得平衡。

Sora是一个强大的文本生成视频工具,能根据提示生成长达一分钟的逼真视频。它的停用凸显了技术创新与社会对AI部署接受度之间的矛盾。

查看单篇正文查看原文
19

The Decoder

OpenAI计划于2026年4月起逐步停用Sora,API在9月关闭

·#ai

OpenAI计划于2026年4月起逐步停用Sora,API在9月关闭

OpenAI宣布分两个阶段终止其Sora文本转视频模型:网页和移动应用将于2026年4月26日停止服务,API则于同年9月24日关闭。用户被敦促在此日期前下载自己的内容。

此举表明OpenAI正将资源集中于企业工具和编码助手,反映了行业整体趋势。同时,它也影响了数百万依赖Sora生成视频的创作者和开发者,迫使他们寻找替代方案或及时导出作品。

OpenAI正在分两阶段正式淘汰其Sora文本转视频模型。公众可用的网页和移动端应用将在2026年4月26日停止运行,API则于同年9月24日关闭。用户被强烈建议在这些截止日期前下载所需内容。OpenAI尚未决定是否会在截止日期后提供最后的导出窗口,但如果提供,用户将收到邮件通知。

一旦所有截止日期过去,包括生成的视频和图像在内的用户数据将被永久删除。这一决定是OpenAI更大战略转型的一部分,即聚焦于企业级AI工具、编程助手,并将ChatGPT整合进一个统一的超级应用。Sora将继续作为研究项目存在,目标是构建世界模型,最终实现对实体经济的自动化。

用户必须在截止日期前手动从Sora库中导出视频和图片;尚未确认是否会提供最终导出窗口。所有截止日期过后,用户数据将被永久删除,且sora.chatgpt.com平台也将关停。

查看单篇正文查看原文
20

The Decoder

Anthropic数据表明AI技能随使用提升,可能加剧不平等

·#ai-ethics

Anthropic数据表明AI技能随使用提升,可能加剧不平等

Anthropic的第二份经济指数报告发现,用户在使用Claude完成任务时会随着时间推移显著提高效率,即使控制了任务类型和模型选择等因素。这种学习效应可能导致早期采用者与后期使用者之间在AI驱动生产力上的差距进一步扩大。

这一发现突显了AI采用的一个潜在风险:越早使用AI的人获得不成比例的优势,这可能会加深工作和教育领域已有的社会经济不平等。它强调了公平获取AI工具和培训的重要性。

Anthropic最新的经济指数基于2026年2月的一百万条匿名对话数据,显示用户对Claude的熟练度会随时间显著提升——即使控制了任务复杂度、模型选择和国家因素。早期采用者(通常是技术娴熟的专业人士)用Claude处理编程、Git操作和研究等复杂任务,而新用户则多询问诗歌或体育比分等简单请求。研究报告指出,有经验的用户更多采取‘增强’模式——与AI协作而非单纯自动化任务,从而获得更好结果。

这可能导致一种正向循环,使早期使用者持续受益更多。报告还注意到,通过API使用Claude在销售自动化和自动交易方面快速增长,表明AI正越来越多地融入高价值商业流程。

有经验的用户比新手更少直接下达简单指令,而更倾向于迭代优化任务;他们在相同任务上的成功率高出约4个百分点。API端在销售自动化和金融交易等应用场景中增长迅速。

查看单篇正文查看原文
21

The Decoder

Suno 5.5 推出个性化声音功能,支持用户生成专属AI歌曲

·#ai-music

Suno 5.5 推出个性化声音功能,支持用户生成专属AI歌曲

Suno 发布了其 AI 音乐生成器的 5.5 版本,新增三项功能:Voices(个性化歌声)、Custom Models(基于用户音乐微调的模型)和 My Taste(根据用户喜好调整输出)。这些功能让用户能创作出体现自身独特风格的音乐。

此次更新标志着从通用AI音乐向深度个性化创作的重大转变,赋予创作者更多表达空间,同时也引发了关于版权归属、原创性以及人类创造力在AI艺术中未来角色的重要讨论。

Suno 最新发布的 5.5 版本引入了三项强大功能,旨在让 AI 音乐创作更加个性化:Voices 允许高级订阅用户录制或上传自己的歌声用于生成歌曲;Custom Models 可以通过个人音乐库微调模型;My Taste 则根据用户的偏好动态调整输出风格。为防止滥用,系统要求用户通过随机短语验证身份。Suno 称这些功能是未来与音乐行业合作的基础,暗示其正应对来自唱片公司的法律挑战取得进展。

Voices 功能要求用户通过录制随机短语来验证身份;语音档案默认私有,未来可能增加分享选项并由用户完全控制数据。用户最多可创建三个基于个人音乐的自定义模型。

查看单篇正文查看原文
22

Ars Technica AI

OpenAI为Codex添加插件功能以追赶竞争对手

·#ai

OpenAI为Codex添加插件功能以追赶竞争对手

OpenAI在其代码助手Codex中引入了插件支持,使用户能够通过一键安装的方式集成GitHub、Gmail和Cloudflare等外部服务。这些插件包含技能、应用集成和MCP(模型上下文协议)服务器,但并未带来新的核心功能。

此举使Codex在与Anthropic的Claude Code和Google的Gemini竞争中更具优势,因为开发者越来越依赖代理系统实现特定任务自动化。这表明OpenAI正试图从纯编程扩展到更广泛的知识工作场景。

OpenAI为其代码助手Codex添加了插件支持,可通过可搜索的插件库轻松集成GitHub、Gmail、Box、Cloudflare和Vercel等外部服务。虽然这些插件并未带来根本性的新功能——高级用户早已能手动配置类似功能——但它们将操作简化为一键安装。这一更新被广泛视为对Anthropic的Claude Code和Google的Gemini早期实现的回应,后者已在开发者中获得认可。

通过提供结构化的插件配置,OpenAI希望让Codex更适合企业团队使用,并扩大其在编程之外的应用范围。此举反映了向能跨应用执行复杂多步流程的代理系统战略转型。

Codex中的插件并非全新功能,而是访问现有能力(如自定义指令和MCP服务器)的简化方式。插件市场包括与编码相关的工具和通用工具,并计划持续新增。

查看单篇正文查看原文
23

Simon Willison

西蒙·威尔森用大语言模型构建macOS监控SwiftUI应用

·#swiftui

西蒙·威尔森用大语言模型构建macOS监控SwiftUI应用

西蒙·威尔森利用Claude Opus 4.6和GPT-5.4等大语言模型,在他的新M5 Macbook Pro上快速构建了两个SwiftUI菜单栏应用——Bandwidther用于网络监控,Gpuer用于GPU使用情况监测,全部在单个文件中完成,无需打开Xcode。

这展示了大语言模型如何通过快速生成可运行的SwiftUI代码来加速macOS应用原型设计,让开发者能以极低的门槛创建定制化工具,满足个人需求。

西蒙·威尔森在获得一台新的128GB M5 Macbook Pro后,决定尝试‘氛围编程’——即利用AI辅助快速开发应用程序,以替代Activity Monitor。他构建了Bandwidther(网络使用监控器)和Gpuer(GPU使用情况追踪器),两者都完全基于单一文件,通过向Claude Opus 4.6和GPT-5.4等大语言模型发送指令自动生成SwiftUI代码。

他通过简单的文本指令逐步完善功能,例如添加特性、重新设计布局并集成Git版本控制。最终成果是一组轻量级、实用的菜单栏工具,展示了大语言模型如何赋能开发者快速打造个性化macOS实用程序。

这两个应用都是单文件SwiftUI项目,使用菜单栏图标显示实时数据:Bandwidther展示每个进程的网络带宽使用情况,Gpuer监控GPU活动;整个开发过程由一系列迭代提示驱动。

查看单篇正文查看原文
24

TechCrunch AI

OpenAI关闭Sora,AI基础设施遭遇公众抵制

·#ai

OpenAI关闭Sora,AI基础设施遭遇公众抵制

OpenAI已关闭其视频生成工具Sora,同时一位肯塔基州土地所有者拒绝了价值2600万美元的报价,不愿将农场用于建设AI数据中心。这些事件凸显了公众对AI扩张的日益抵制。

这标志着社会和法律层面的抵制开始影响大型AI公司的运营,表明AI发展必须更严肃地考虑社区影响和监管审查。

OpenAI最近因公众对AI实际影响日益关注而关闭了其视频生成应用Sora。这一举动恰逢肯塔基州一起备受关注的事件:一位82岁的女性拒绝了一家AI公司提出的2600万美元报价,不愿在其农场上建造数据中心。这一事件凸显了AI基础设施(如数据中心)正面临越来越多的地方性抵制,原因包括水资源消耗和能源使用带来的环境压力。

法院也开始对Meta等科技巨头平台的社会影响进行问责。这些发展表明,AI热潮正在遭遇由伦理、政策和社区参与所驱动的实际限制。

肯塔基州案例说明了当地社区因用水量和电力需求等环境问题而抵制AI基础设施项目。Sora的关闭可能反映了内部压力或外部对伦理和安全问题的批评。

查看单篇正文查看原文
25

The Decoder

谷歌Gemini更新支持从ChatGPT和Claude导入记忆

·#ai

谷歌Gemini更新支持从ChatGPT和Claude导入记忆

谷歌已更新其Gemini人工智能,允许用户通过简单提示或ZIP文件上传(最大5GB)从其他模型如ChatGPT和Claude导入记忆,包括聊天历史、偏好和提醒。这是跨平台AI互操作性趋势的一部分。

此举增强了用户在不同AI平台间的选择权和数据可移植性,使人们无需丢失上下文即可切换服务。这也反映了行业对伦理AI实践和以用户为中心设计日益增长的压力。

谷歌最新Gemini更新引入了一项强大功能:能够从竞争对手AI模型(如ChatGPT和Claude)导入用户记忆,包括保存的对话、偏好和提醒。这一功能通过两种方式实现:将预定义提示复制到原AI应用中提取数据,或上传包含聊天记录的ZIP文件(最大5GB)。该功能模仿了Anthropic早期的做法,旨在通过强调伦理AI原则来增强从OpenAI切换的吸引力。

谷歌现在采用此方法,表明AI领域正朝着更高互操作性的方向发展。此次更新还包括将界面中的“过往对话”更名为“记忆”。

用户可以将特定提示复制到当前AI应用(如ChatGPT)中生成摘要,也可以直接上传包含聊天记录的ZIP文件到Gemini。谷歌正在将“过往对话”更名为“记忆”作为此次更新的一部分。

查看单篇正文查看原文
26

ZDNET AI

Xreal One Pro AR眼镜现降价170美元,适合双屏办公

·#ar

Xreal One Pro AR眼镜现降价170美元,适合双屏办公

Xreal One Pro AR眼镜目前售价为599美元(原价769美元),提供虚拟双屏工作体验。其采用平面棱镜光学设计,拥有消费级AR设备中最宽的57度视野,并支持超宽模式实现无缝多任务处理。

这一优惠让空间计算技术对远程工作者和数字游民更易获得,无需购买实体显示器即可提升工作效率。这标志着XR技术正从游戏扩展到实际职场应用。

ZDNET记者马特·米勒测试了Xreal One Pro AR眼镜,发现它们非常适合替代双屏办公。搭载X1空间计算芯片,可提供超宽显示模式,保留应用程序布局。其57度视野是消费级AR设备中最宽的,且与Bose合作确保高品质音频。

通过Xreal Eye配件支持6自由度追踪,可稳定锚定虚拟工作空间。虽然略显笨重,但能将笔记本或平板屏幕模拟成大屏幕,特别适合旅行者或居家办公用户。

这些眼镜与Bose音频技术配合提供沉浸式音效,并通过Xreal Eye配件实现6自由度追踪,效果类似Apple Vision Pro或Meta Quest 3。兼容iPhone 16及以上、Steam Deck、PC、Android及iMac设备。

查看单篇正文查看原文
27

ZDNET AI

MacBook Air M5评测:一款成熟且强大的全能笔记本

·#macbook

MacBook Air M5评测:一款成熟且强大的全能笔记本

苹果将MacBook Air升级为M5芯片,标配16GB内存和512GB高速固态硬盘,基础价格上调100美元,但硬件提升值得这一涨幅。

MacBook Air现在能与MacBook Pro及高端Windows笔记本正面竞争,性价比极高,成为大多数用户的首选推荐。

搭载M5芯片的MacBook Air已不再是入门级设备,而是一款功能强大、用途广泛的笔记本电脑,许多任务上可与MacBook Pro媲美。关键升级包括更快的存储速度、更高的内存带宽以及支持Wi-Fi 7等未来技术。尽管基础价格上涨了100美元,但其性价比依然出色,尤其对比同等价位的Windows笔记本。

机身坚固耐用,便携性极佳,即使是基础型号也能流畅处理多任务和文件传输。对于仍在使用M1芯片的用户来说,M5升级非常值得。虽然高配版本价格较高,但基础款在性能与价格之间达到了理想平衡。

M5芯片提供153GB/s的内存带宽(相比M4的120GB/s),通过N1芯片支持Wi-Fi 7和蓝牙6,并保持仅2.7–3.3磅的轻薄设计。

查看单篇正文查看原文
28

ZDNET AI

亚马逊春季促销期间,64GB DDR5内存套件降价至千元以下

·#pc-hardware

亚马逊春季促销期间,64GB DDR5内存套件降价至千元以下

金士顿Fury Beast的64GB DDR5内存套装在亚马逊春季大促期间降价近350美元,价格跌破1000美元。

该优惠为玩家和创作者提供了难得的升级机会,缓解了因AI对硬件需求激增导致的持续高价压力。

在亚马逊春季大促期间,金士顿Fury Beast的64GB DDR5内存套装售价低于1000美元,比平时便宜近350美元。这款高容量内存非常适合游戏PC和创意工作站,可加快大型文件加载速度并提升多任务处理能力。该套装兼容AMD和Intel平台,支持通过AMD Expo或Intel XMP 3.0认证进行超频,适配多种配置。

虽然对大多数玩家来说仍显昂贵,但这是数月来最低的价格之一。这一优惠反映了消费级内存价格的短暂回调,此前因AI公司建设数据中心而大幅上涨。尽管整体市场仍面临挑战,此次促销为发烧友提供了一个实惠的升级选择。

该套装包含两个32GB内存条,基础频率为4800MHz,支持通过AMD Expo或Intel XMP 3.0认证超频至最高6400MHz。

查看单篇正文查看原文
29

ZDNET AI

什么时候60Hz足够,什么时候需要120Hz或更高

·#tv-technology

什么时候60Hz足够,什么时候需要120Hz或更高

文章指出,虽然大多数现代电视的基础刷新率为60Hz,但像120Hz甚至165Hz这样的高刷新率对游戏和流媒体等特定用途更有帮助。它还澄清了刷新率与帧率是相关但不同的概念。

这有助于消费者根据实际使用场景选择合适的电视刷新率,避免因营销术语而做出错误决策——无论是日常观看、体育赛事还是高端游戏。这能减少因技术参数宣传带来的困惑。

文章解释了电视刷新率的含义及其对画质的影响。60Hz表示屏幕每秒刷新60次,足以满足日常观看需求,包括直播体育和休闲游戏。但对于体育赛事或流媒体中的快速动作,120Hz能提供更清晰的动态画面。

高端型号最高可达165Hz,非常适合竞技游戏或专业工作,因为它们对超流畅画面和低延迟要求更高。文章还指出,刷新率必须等于或高于内容帧率,否则会出现运动模糊等问题。总体而言,该文指导读者根据自身需求选型,而不是盲目追求更高的数值。

60Hz电视可以很好地处理常规内容,而120Hz则能提升体育赛事或流媒体中快速移动画面的流畅度。对于游戏来说,120Hz及以上支持可变刷新率(如VRR)技术,以减少屏幕撕裂和卡顿。

查看单篇正文查看原文