AI 日报

2026年4月2日AI与安全焦点:Axios供应链攻击、Claude代码泄露与OpenAI融资

2026年4月2日的科技头条聚焦于AI安全与商业化双重突破:Axios遭遇恶意依赖包攻击,揭示npm生态信任危机;Anthropic因两次代码泄露引发对其安全文化的质疑;而OpenAI则以1220亿美元融资和ChatGPT超级应用展示其企业级战略。这些事件共同凸显了AI基础设施的脆弱性与巨大潜力。

当天导读

从 52 条资讯中筛选出 30 条

2026年4月2日的科技头条聚焦于AI安全与商业化双重突破:Axios遭遇恶意依赖包攻击,揭示npm生态信任危机;Anthropic因两次代码泄露引发对其安全文化的质疑;而OpenAI则以1220亿美元融资和ChatGPT超级应用展示其企业级战略。这些事件共同凸显了AI基础设施的脆弱性与巨大潜力。

Axios供应链攻击:npm生态信任危机

恶意依赖包注入使Axios每週超一亿次下载受影响,凸显npm缺乏强认证机制。

Anthropic代码泄露:安全文化受质疑

Claude Code源码两次泄露暴露核心架构细节,引发对AI公司内部管控的担忧。

OpenAI融资1220亿美元:企业级AI战略落地

创纪录融资后推出ChatGPT超级应用,整合多智能体功能,正式进军企业市场。

DeepMind六类陷阱:AI代理安全新框架

识别感知、推理、记忆等漏洞,为自主AI代理提供系统性防御指南。

瑞士起诉Grok:AI生成内容责任边界

首例政府起诉AI生成侮辱内容案,可能成为全球AI伦理监管标杆。

AI与安全周报(2026-04-02)

🔥 安全警报:Axios与LiteLLM供应链攻击

  • Axios遭遇供应链攻击:恶意包 'plain-crypto-js' 注入 Axios 1.14.1 和 0.30.4,窃取凭证并安装RAT,影响超一亿次下载。
  • Mercor受LiteLLM攻击波及:AI招聘平台Mercor确认数据泄露风险,Lapsus$声称获取内部日志,凸显开源工具漏洞对高价值企业的威胁。

🧠 AI创新与伦理挑战

  • Anthropic代码泄露:Claude Code源码被克隆8000+次,暴露‘梦境’控制机制,削弱IPO前竞争优势。
  • DeepMind六类陷阱研究:识别可劫持自主AI代理的六种攻击方式,为AI代理部署提供关键安全框架。
  • 瑞士起诉Grok侮辱内容:财政部长起诉马斯克Grok生成性别歧视内容,开启全球AI责任监管先例。

💰 商业与技术里程碑

⚙️ 工具与基础设施更新

当日精选 8 条

01

Simon Willison

·#security

Axios遭遇供应链攻击,植入恶意依赖包

一起供应链攻击通过向 Axios 的版本 1.14.1 和 0.30.4 注入名为 'plain-crypto-js' 的恶意依赖包,破坏了这个广受欢迎的 npm 包。该恶意代码窃取用户凭证并安装远程访问木马(RAT)。

Axios 每周下载量超过一亿次,因此这次攻击使数百万应用程序和用户面临数据泄露与系统被控的风险。这凸显了在 npm 等包生态系统中建立更强信任机制的重要性。

最近一起供应链攻击针对广泛使用的 JavaScript HTTP 客户端 Axios,通过引入一个名为 'plain-crypto-js' 的恶意依赖包,影响了其两个版本:1.14.1 和 0.30.4。该包看似合法,但包含窃取用户凭证并安装远程访问木马(RAT)的代码。安全研究人员指出,攻击者可能通过泄露的 npm 令牌获得访问权限。

值得注意的是,恶意包没有对应的 GitHub 发布记录,这一模式也出现在几天前对 LiteLLM 的类似攻击中。多个自动化工具(如 Aikido 和 Trend Micro)迅速识别出该恶意软件。Axios 维护者正在推动采用可信发布机制以防止未来事件发生。

恶意包是使用一个泄露的长期 npm 令牌发布的,并且没有配套的 GitHub 发布记录——这是一个可帮助识别此类攻击的警示信号。自动化扫描工具在该包发布后几分钟内就将其标记为恶意软件。

查看单篇正文查看原文
02

TechCrunch AI

Cognichip 融资6000万美元,用AI设计芯片

·#ai

Cognichip 融资6000万美元,用AI设计芯片

成立于2024年的初创公司Cognichip刚刚融资6000万美元,用于开发AI工具以加速计算机芯片的设计过程。该公司声称其AI模型可将芯片开发成本降低超过75%,并将时间缩短一半以上。

这可能通过让芯片设计更快、更便宜且更能适应市场变化,彻底改变半导体制造——可能延长摩尔定律并推动AI硬件的快速创新。它还解决了AI供应链中的一个关键瓶颈:芯片设计滞后于软件进步。

Cognichip旨在利用AI自动化并加速设计先进计算机芯片的多阶段过程,目前从概念到量产需3至5年。公司CEO法拉吉·阿勒伊认为AI可以像指导软件代码生成一样引导芯片设计。

截至目前,Cognichip已筹集9300万美元,其中6000万美元由Seligman Ventures领投,正定位为EDA(电子设计自动化)领域的颠覆者。尽管尚未交付完全由AI设计的芯片,但其已在RISC-V CPU设计中使用开源数据取得成功,并与合作伙伴协作,在不泄露敏感设计的前提下安全训练模型。

Cognichip在其自有数据集(包括合成数据)上训练深度学习模型,避免依赖通用大语言模型。它使用安全方法在客户知识产权上进行训练,而不会泄露敏感设计——这是芯片设计行业的一个重大挑战。

查看单篇正文查看原文
03

TechCrunch AI

Mercor因LiteLLM项目被攻破遭遇供应链攻击

·#cybersecurity

Mercor因LiteLLM项目被攻破遭遇供应链攻击

AI招聘初创公司Mercor确认其遭遇了与开源项目LiteLLM相关的供应链攻击。勒索组织Lapsus$声称已获取Mercor的数据。

此次事件凸显了广泛使用的开源工具遭受供应链攻击可能对高价值AI企业造成严重影响,引发人们对AI招聘平台中客户和承包商数据安全的严重担忧。

Mercor是一家估值达100亿美元的AI招聘初创公司,连接OpenAI、Anthropic等公司与各领域专家。该公司确认自己是受开源项目LiteLLM供应链攻击影响的众多企业之一。这次攻击由黑客组织TeamPCP发起,随后勒索团伙Lapsus$声称获取了Mercor内部数据,包括Slack和工单日志,甚至还有AI系统与承包商互动的视频。

尽管Mercor表示已迅速控制住漏洞,并正在与第三方取证专家合作调查,但未明确说明客户或承包商数据是否被访问或滥用。LiteLLM问题本身源于一个每天被数百万用户使用的包中嵌入恶意代码,促使该项目改进合规流程并引发整个AI基础设施生态系统的高度关注。

该漏洞源于恶意代码被注入LiteLLM包中,虽然后来被移除,但已影响数千家公司。Mercor已聘请第三方取证专家调查是否客户或承包商数据已被泄露。

查看单篇正文查看原文
04

The Decoder

Anthropic的AI编程工具被克隆超8000次,尽管已大规模下架

·#ai-safety

Anthropic的AI编程工具被克隆超8000次,尽管已大规模下架

Anthropic的AI编程工具Claude Code源代码泄露后,在GitHub上被复制超过8000次,即使公司发起版权删除请求也未能阻止传播。有开发者利用AI将代码重写为其他语言,使其仍可访问。

此次泄露暴露了Anthropic的核心模型控制技术(如“梦境”功能),竞争对手可以借此复制其能力,严重削弱其在即将进行3800亿美元IPO前的竞争优势。这凸显了敏感AI代码一旦进入开源生态就难以管控的现实。

Anthropic的AI编程工具Claude Code因意外泄露,在GitHub上被复制超过8000次,即使多次下架也未能阻止传播。一位程序员使用AI工具将代码改写成不同编程语言,确保其持续可用。该代码包含关键的‘梦境’功能,帮助AI整合复杂任务,这是Anthropic的核心竞争优势之一。

此次泄露恰逢其计划进行3800亿美元IPO的关键时刻,且紧随另一款Mythos模型的泄露事件,均源于内部人为失误。这一事件凸显了当今开源环境中AI代码传播之快、影响之深,几乎无法逆转。

泄露的代码包含一个‘控制装置’系统,用于管理AI作为编程代理的行为,包括一个用于任务整合的‘梦境’功能。这次泄露源于Anthropic内容管理系统中的人为失误,就在其新模型Mythos泄露事件几天后发生。

查看单篇正文查看原文
05

The Decoder

谷歌DeepMind识别出六类可劫持自主AI代理的陷阱

·#ai-safety

谷歌DeepMind识别出六类可劫持自主AI代理的陷阱

谷歌DeepMind识别出六类“陷阱”,这些陷阱会利用感知、推理、记忆、行动、多智能体系统和人类监督中的漏洞来劫持自主AI代理。

这项研究揭示了AI安全领域的一个关键新威胁:在真实环境中运行的自主代理容易受到难以察觉的攻击,可能危及其行为可靠性,甚至引发系统性崩溃。

谷歌DeepMind研究人员首次建立了系统框架,用于理解自主AI代理如何被六类‘陷阱’劫持。这些陷阱包括隐藏HTML注释误导代理感知、情绪化文本干扰推理、内存污染改变长期响应等。行为控制攻击可直接篡改代理动作,例如导致微软Copilot泄露敏感数据。

多代理陷阱如伪造财务报告引发同步抛售,带来系统性风险。人机协同陷阱则利用自动化偏见,使用户更易接受有害输出。论文强调,这些并非假设——所有六类陷阱都有概念验证攻击实例。

这些陷阱包括内容注入、语义操纵、认知状态污染、行为控制、子代理生成和系统级攻击;部分已展示概念验证攻击,且攻击可串联或分布在多个代理之间。

查看单篇正文查看原文
06

The Decoder

OpenAI融资1220亿美元并发布ChatGPT超级应用

·#ai

OpenAI融资1220亿美元并发布ChatGPT超级应用

OpenAI已完成1220亿美元的融资,估值达8520亿美元,并正式推出ChatGPT超级应用,该应用将ChatGPT、Codex代码代理、网络搜索及其他智能体功能整合到一个以代理为核心的界面中。

此次史无前例的融资和产品转型标志着OpenAI向企业市场的战略重心转移,利用消费者规模推动企业级采用,可能重塑企业集成AI工具的方式,并为AI基础设施投资树立新标杆。

OpenAI已正式确认完成1220亿美元的创纪录融资,估值达8520亿美元,主要投资者包括亚马逊、英伟达、软银、微软以及a16z和红杉资本等顶级风投机构。该公司目前月收入达20亿美元,每周活跃用户超过9亿。与此同时,OpenAI发布了ChatGPT超级应用——一个统一的以代理为中心的平台,整合了ChatGPT、Codex(代码生成AI代理)、网络搜索及更广泛的智能体功能。

这标志着从分散式应用转向一体化体验的转变,用户无需切换工具即可完成复杂任务。OpenAI还指出,企业业务已占其总收入的40%以上,并计划将原本用于Sora视频模型等低效项目的算力资源重新投入到核心AI基础设施和商业解决方案中。

融资包括通过银行渠道获得的30亿美元私人投资者资金及47亿美元信贷额度扩张;大部分资金将用于计算基础设施建设,同时OpenAI已终止Sora视频模型以重新分配资源。

查看单篇正文查看原文
07

The Verge AI

Claude代码泄露揭示宠物界面与始终在线代理

·#ai-security

Claude代码泄露揭示宠物界面与始终在线代理

Anthropic的Claude Code 2.1.88版本源代码泄露暴露了实验性功能,包括一个会响应用户编码行为的Tamagotchi风格宠物,以及一个名为KAIROS的后台代理,即使应用窗口关闭也能持续运行。

此次泄露引发了对AI透明度和隐私风险的严重担忧,尤其是始终在线代理可能带来的数据监控隐患,也凸显了企业在内部代码发布管理上的漏洞。

Anthropic在发布Claude Code更新后意外包含了包含超过512,000行代码的TypeScript源码映射文件。开发者迅速发现并深入分析了这些代码,发现了多个隐藏或禁用的功能,包括一个会与用户编码互动的Tamagotchi风格宠物,以及名为KAIROS的始终在线后台代理,该代理能定期检查任务并主动建议操作。

该代理使用基于文件的记忆系统来跨会话保持上下文,并通过一个名为AutoDream的组件处理历史交互以优化记忆。尽管Anthropic称这是打包错误而非安全漏洞,但这一事件引发了关于AI伦理、运营成熟度及暴露专有系统的风险的广泛讨论。

泄露代码包含超过512,000行代码和2,000个文件,其中提及了一个名为AutoDream的记忆系统,可在用户会话间保持上下文,并有一个PROACTIVE标志可触发AI主动提供未请求的信息。

查看单篇正文查看原文
08

Ars Technica AI

瑞士官员起诉Grok侮辱性言论;马斯克表示支持

·#ai-ethics

瑞士官员起诉Grok侮辱性言论;马斯克表示支持

瑞士财政部长卡琳·凯勒-塞特向一名X用户提起刑事诉讼,该用户曾诱导Grok生成针对她的侮辱性内容。她还要求检察官评估X或xAI是否应为允许此类有害内容传播承担责任。

此案引发了关于人工智能责任、平台义务和言论自由的重要讨论,尤其是在马斯克等公众人物公开支持有害输出的背景下。这可能成为全球监管AI生成内容的先例。

2026年4月,瑞士财政部长卡琳·凯勒-塞特因一名X用户诱导马斯克的Grok人工智能生成针对她的粗俗性别歧视言论而提起刑事诉讼。尽管该用户后来删除了帖子并声称只是‘技术测试’,但凯勒-塞特认为这种性别歧视不能被接受。她敦促瑞士检察官调查X或xAI是否应为允许此类内容传播承担法律责任。

瑞士有严格的诽谤法,专家指出即使帖子被删除,若能证明意图仍可追责。此案可能影响全球未来对人工智能生成内容的监管。

瑞士法律对故意发布侮辱性内容者可判处最高三年监禁或罚款;匿名用户在两天内删除了原始提示,称其仅为技术测试。案件关键在于平台是否负有防止滥用的责任。

查看单篇正文查看原文
09

Ars Technica AI

Ollama新增MLX支持,让Mac本地运行大模型更快

·#machine-learning

Ollama新增MLX支持,让Mac本地运行大模型更快

Ollama新增了对苹果MLX框架的实验性支持,并引入NVFP4模型压缩格式,显著提升了Apple Silicon Mac上本地大语言模型(LLM)的性能。

这一进展使普通用户更容易在本地运行强大模型,尤其在人们对隐私保护和低成本AI工具日益关注的背景下,许多开发者因云服务订阅限制而转向本地部署。

Ollama是一款用于本地运行大型语言模型的工具,现已支持苹果开源的MLX框架和Nvidia的NVFP4压缩格式。这显著提升了搭载Apple Silicon芯片(如M1及以上)的Mac上的内存效率和性能。时机恰逢其时,因为本地模型的兴趣正在上升,受OpenClaw等项目推动。

尽管目前仅支持一个模型且需要较高硬件配置(至少32GB内存),但这是迈向实用本地推理的重要一步。它还利用了新款M5 GPU中的神经加速器以实现更快的token处理速度。虽然本地模型在基准测试中仍落后于云端模型,但已能满足某些无需付费订阅的任务需求。

该功能目前仅在Ollama 0.19(预览版)中可用,仅支持350亿参数的通义千问Qwen3.5模型,且要求Apple Silicon Mac至少配备32GB内存;同时利用M5系列神经加速器提升速度。

查看单篇正文查看原文
10

Google AI Blog

谷歌AI创建高分辨率卫星地图助力保护巴西森林

·#ai

谷歌AI创建高分辨率卫星地图助力保护巴西森林

谷歌利用早期2000年代的历史数据开发出一张高分辨率的巴西卫星影像地图,精度比以往高出六倍。该地图现在可在Google Earth和Earth Engine中使用,能精准识别森林砍伐区域。

这一工具使当地机构和环保组织能够实时监测森林砍伐情况,从而更快、更精准地采取保护措施。它通过提升全球最重要的生态系统之一的透明度和问责制,助力实现气候目标。

谷歌与巴西政府合作发布了一张高分辨率的巴西卫星影像地图,记录了2000年代初该国的地貌状况。这张地图的精度比以往高出六倍,可精准识别小范围森林砍伐区域。谷歌通过对数千张卫星图像去云、校色后,显著提升了森林监测的准确性。

地方政府现在可以精确追踪森林砍伐位置并及时采取行动。该地图免费提供给公众,可通过Google Earth和Earth Engine访问,成为研究人员、政策制定者和环保人士的重要资源。这一举措回应了巴西长期以来因森林砍伐导致的生物多样性丧失和气温上升等环境挑战,标志着人工智能和地理空间技术用于公共利益的重大进展。

该地图通过处理数千张历史卫星图像、去除云层并校正颜色失真而生成,达到了前所未有的清晰度。其重点是巴西在2000年代初面临创纪录森林砍伐的时期。

查看单篇正文查看原文
11

Hugging Face Blog

Holo3 在企业级自主AI领域实现突破

·#ai

Holo3 在企业级自主AI领域实现突破

Hugging Face推出的Holo3模型在OSWorld-Verified基准测试中取得78.85%的成绩,仅使用100亿活跃参数,性能超越许多更大规模的专有模型,且为开源、低成本架构。

这标志着向可负担、可部署的企业级AI代理迈出了重要一步,可能推动企业自动化普及,并减少对昂贵封闭系统的依赖。

Holo3是Hugging Face开发的一款自主企业级AI模型,在OSWorld-Verified基准测试中达到78.85%的准确率。它利用创新的代理飞轮训练流程,包括合成环境、数据增强和强化学习。该模型仅用100亿活跃参数(总计1220亿),成本远低于GPT-5.4或Opus-4.6等大型专有模型。

Holo3通过自动化编码代理构建的合成企业环境进行训练,能处理复杂多应用任务,如从PDF获取价格、核对预算并发送个性化邮件。其成功展示了技术上的突破和实际部署的可行性。

Holo3采用专用训练飞轮,结合合成导航数据、域外增强和精炼强化学习,提升感知与决策能力,适用于真实世界任务。

查看单篇正文查看原文
12

MIT Technology Review AI

零工在家中训练人形机器人

·#ai

零工在家中训练人形机器人

来自50多个国家的零工正在用智能手机录制日常动作,如叠衣服和做饭,为训练人形机器人提供真实世界的行为数据。Micro1等公司收集这些数据供特斯拉、Figure AI等机器人企业使用。

这种新型劳动力模式解决了机器人训练中一个关键瓶颈——让机器人学会处理物理对象,而模拟环境无法完全解决这个问题。同时,它也代表了AI开发如何通过分布式人类劳动来驱动全球化的转变。

人形机器人需要真实的物理交互技能,这是虚拟仿真无法完全复制的。为了弥补这一差距,像Micro1这样的公司雇佣全球零工录制自己进行日常家务(如熨衣服或洗碗)的过程。这些视频为训练机器人在家庭和工厂中操作提供了关键的动作数据。

尼日利亚、印度和阿根廷等地的工人参与其中,因为这份工作收入高于当地其他选择。然而,这项工作可能枯燥,并引发关于知情同意和隐私的伦理问题。尽管存在挑战,对真实世界机器人训练数据的需求正在激增,相关企业每年投入超过一亿美元用于此类数据采购。

像尼日利亚的Zeus这样的工人每小时赚15美元——在当地属于高收入——但觉得重复任务很无聊。收集的数据包括精确的动作,对训练机器人准确执行现实任务至关重要。

查看单篇正文查看原文
13

OpenAI News

·#ai-agents

Gradient Labs为每位银行客户推出AI账户经理

Gradient Labs部署了GPT-4.1和GPT-5.4 mini/nano模型,驱动自主AI代理处理银行支持工作流,具有低延迟和高可靠性。

这标志着金融服务自动化的重要进展,使银行能够以规模化方式提供个性化、实时的支持,同时降低运营成本并提升客户体验。

Gradient Labs推出了由GPT-4.1和GPT-5.4 mini/nano模型驱动的AI代理,为每位客户提供自动化的银行支持服务。这些代理能自主处理账户查询、交易处理和合规检查等任务,无需人工介入。与传统聊天机器人不同,它们具备决策能力并在多个系统间协作。

这一举措标志着从被动自动化向主动智能服务的转变。它契合了行业趋势,例如摩根大通和富国银行已部署AI代理实现生产力提升和客户互动优化。该技术有望带来更快响应速度、更低错误率和更高客户满意度。

这些AI代理旨在执行端到端的银行业务任务——如交易查询、账户管理及合规检查——无需人工干预,并使用轻量版GPT-4.1和GPT-5.4模型以提高效率。

查看单篇正文查看原文
14

Simon Willison

·#ai

经济激励将推动AI写出更好的代码

崔秀勋认为,AI模型会自然地写出高质量、可维护的代码,因为从长远来看这更便宜且效率更高。这是由市场竞争驱动的——能帮助开发者更快交付可靠功能的AI工具将胜出。

这一观点将焦点从伦理或技术理想转向现实中的经济力量,表明市场动态可能是比人类监督更强的代码质量驱动力。这对AI编程助手的设计和评估方式有重要意义。

2026年4月1日,崔秀勋在西蒙·威尔森收集的一篇帖子中提出,AI生成的代码质量将提升,并非仅仅出于开发者的意愿,而是因为强大的经济激励。高质量代码写起来更便宜、维护成本更低,而在竞争激烈的AI市场中,能够加速可靠软件交付的模型将占据主导地位。崔秀勋指出,市场会随着时间推移惩罚低质量代码,因此经济效率将成为塑造AI行为的关键因素。

这一观点与仅基于伦理或规则的AI对齐担忧形成对比。该论点暗示,随着AI成为软件开发的核心,其输出将越来越反映成本效益高的实践,而不仅仅是技术正确性。

崔秀勋强调,尽管开发者希望写出好代码,但真正的驱动力是经济效率——更好的代码可以降低维护成本并加快功能交付速度。他指出,当前AI模型之间的竞争使得这种激励结构更加有力。

查看单篇正文查看原文
15

TechCrunch AI

Meta 270亿美元AI数据中心或将超过南达科他州用电量

·#ai-infrastructure

Meta 270亿美元AI数据中心或将超过南达科他州用电量

Meta 计划在路易斯安那州建设10座天然气发电厂,以支持其价值270亿美元的Hyperion AI数据中心,该中心耗电量将超过整个南达科他州。这一举措引发了对其环保承诺的担忧,因为该公司目前声称自己已实现碳中和。

这一事件凸显了人工智能基础设施扩张与气候目标之间的紧张关系。随着科技公司扩大高能耗运营,它们对化石燃料的依赖削弱了可持续发展承诺,并挑战了全球减排努力。

Meta计划在路易斯安那州建设的Hyperion AI数据中心将需要10座天然气发电厂来满足其巨大的能源需求——年发电量超过75亿瓦,略高于南达科他州的总容量。尽管Meta一直强调其可再生能源采购和核能电站租赁,但这一新项目与其公开的可持续发展承诺相矛盾。该设施每年将排放约1240万吨二氧化碳,比Meta 2024年的全部碳排放高出50%。

更重要的是,天然气基础设施中的甲烷泄漏(在美国很常见)可能使环境成本更高,因为甲烷的全球变暖潜能远超二氧化碳。Meta尚未回应媒体的采访请求,外界对其如何抵消或核算这些排放仍存疑问。

这10座燃气电厂将产生75亿瓦电力,超过南达科他州的总用电量,并每年排放约1240万吨二氧化碳,高于Meta 2024年的全部排放量。天然气供应链中的甲烷泄漏可能进一步加剧气候影响。

查看单篇正文查看原文
16

TechCrunch AI

Anthropic在软件更新中泄露近2000个源代码文件

·#ai-security

Anthropic在软件更新中泄露近2000个源代码文件

Anthropic在Claude Code软件包的版本2.1.88中意外包含了近2000个源代码文件和超过51.2万行代码。这是该公司一周内发生的第二次重大内部泄露事件。

此次泄露暴露了开发者使用的关键产品的核心架构细节,可能让竞争对手了解Anthropic的AI开发实践。这也引发了人们对这家自称注重安全的公司安全文化问题的关注。

以AI安全著称的Anthropic公司在其Claude Code工具的一次常规软件更新中,意外泄露了近2000个源代码文件和超过51.2万行代码。这紧随几天前另一次内部文档泄露之后。泄露内容是产品完整架构的一部分,已成为OpenAI开发者工具的重要竞争者。虽然不是AI模型本身,但代码揭示了其如何集成开发流程并设置边界。

安全研究人员迅速分析后称其为“生产级开发体验”,而不仅仅是API封装。Anthropic将事件归因于人为疏忽导致的打包错误,但内部团队可能面临严重审查。这一事件凸显了即使在强调安全的公司中,快速开发周期也可能带来风险。

泄露的文件是软件框架的一部分,而非模型本身,包括AI行为指令、工具使用规则和限制边界。该漏洞在数小时内被一位安全研究人员发现。

查看单篇正文查看原文
17

TechCrunch AI

Salesforce为Slack推出30项AI功能,含可重复使用的AI技能

·#ai

Salesforce为Slack推出30项AI功能,含可重复使用的AI技能

Salesforce宣布为Slack推出30项新的AI功能,其中最引人注目的是可重复使用的AI技能,允许用户定义任务并跨不同场景应用到Slackbot。这些技能能自动从Slack频道和连接的应用程序中提取数据,生成可执行计划并安排会议。

这一举措使Slack不再只是消息工具,而是转型为智能代理平台,有望简化企业工作流程、减少人工劳动。这也体现了Salesforce将AI深度融入产品以提升生产力和竞争力的总体战略。

Salesforce在旧金山的一场小型活动中宣布对Slack进行重大AI升级,推出30项新功能,旨在将Slack转变为智能业务助手。最突出的功能是可重复使用的AI技能——用户可自定义任务,由Slackbot在不同场景下执行,例如创建预算或安排会议。Slackbot现在作为MCP客户端,可连接外部服务如Agentforce,无需人工干预即可分配任务。

它还能转录和总结会议内容,并通过监控用户桌面活动提供跟进建议。这些更新旨在让Slack更深入嵌入核心业务流程,成为企业团队不可或缺的工具。

Slackbot现在支持MCP(模型上下文协议),能够与外部工具如Agentforce(Salesforce的AI代理开发平台)协同工作。用户还可以授权该机器人监控桌面活动,并根据日历、交易和习惯等信息提供建议。

查看单篇正文查看原文
18

The Decoder

欧盟禁止官方通讯使用AI生成内容

·#ai-policy

欧盟禁止官方通讯使用AI生成内容

欧盟委员会、议会和理事会已禁止其传播团队使用完全由AI生成的视频和图像。AI只能用于优化现有视觉素材,而不能生成新内容。

这一禁令凸显了欧盟在公共传播中对真实性而非创新的优先考虑,可能错失了在其自身《人工智能法案》框架下引领透明AI治理的机会。

欧盟三大机构——委员会、议会和理事会——已实施禁令,禁止在官方传播中使用完全由AI生成的视频和图像。其理由是维护真实性并保持公众信任。然而,专家批评这一举措过于保守,认为欧盟本可以展示如何在其自身监管框架下实现标注清晰、透明的AI内容使用。

与全球政治人物如唐纳德·特朗普频繁使用AI生成媒体形成鲜明对比,凸显了欧盟的谨慎立场。甚至在欧盟内部,德国和匈牙利等国政府也已采用AI生成内容进行信息传播——有时甚至用于教育或警示目的。这一政策转变反映了伦理关切与主动引领AI治理之间更广泛的张力。

该禁令仅适用于完全由AI生成的视觉内容;图像质量提升等增强功能仍被允许。专家认为这限制了欧盟展示《人工智能法案》要求的责任标签实践的能力。

查看单篇正文查看原文
19

The Decoder

Perplexity AI因涉嫌与Meta和Google共享数据被起诉

·#ai-ethics

Perplexity AI因涉嫌与Meta和Google共享数据被起诉

Perplexity AI正面临一起集体诉讼,指控其通过跟踪技术将用户聊天数据分享给Meta和Google。该诉讼称,即使在无痕模式下,安装在用户设备上的追踪器也使这两家科技巨头得以访问私人对话。

此案凸显了AI平台隐私实践中的严重问题,可能引发更严格的监管或用户信任危机。它还引发了关于Meta和Google等第三方公司如何处理从AI服务中收集的敏感数据的疑问。

Perplexity AI目前正面临一起集体诉讼,指控其通过嵌入的跟踪技术将用户个人数据(包括聊天记录)分享给Meta和Google。根据诉状,这些追踪器在用户访问网站时即被激活,即使使用无痕模式也不例外。原告是一名来自犹他州的居民,声称他曾向AI助手披露敏感财务信息。

尽管Perplexity表示尚未收到正式传票,Meta援引其政策称广告商不得提交敏感数据,而谷歌则未作回应。此案可能为AI平台如何管理用户数据及与大型科技公司互动树立先例。

该诉讼于旧金山联邦法院提起,代表一名声称曾向Perplexity聊天机器人分享财务和税务信息的犹他州男子。Perplexity否认指控,称尚未收到诉状;谷歌则未立即回应。

查看单篇正文查看原文
20

The Verge AI

AI可自动为你按下Stream Deck按钮

·#ai

AI可自动为你按下Stream Deck按钮

Elgato的Stream Deck 7.4更新加入了Model Context Protocol(MCP)支持,使ChatGPT和Claude等AI助手无需手动操作即可触发设备上的宏命令和动作。

这一集成标志着向物理硬件实现免提自动化迈出了重要一步,将MCP的实际用途从软件工具扩展到Stream Deck这类真实设备。

Elgato发布了Stream Deck软件的重大更新——版本7.4,引入了Model Context Protocol(MCP)支持。这使得ChatGPT、Claude和Nvidia G-Assist等AI助手能根据自然语言请求自动触发已分配给Stream Deck按钮的宏命令。用户仍以原有方式配置动作,但现在AI可以根据每个动作的元数据描述来查找并执行它们。

要启用此功能,用户必须安装第三方MCP服务器桥接程序,并在应用偏好设置中开启相关选项。尽管对初学者来说流程可能略显复杂,但Elgato提供了清晰的逐步指南帮助用户顺利完成设置。

用户需安装基于Node.js的MCP服务器桥接程序,并在应用设置中启用MCP动作;虽然配置过程简单,但需要一定的MCP集成技术基础。

查看单篇正文查看原文
21

The Verge AI

百度Robotaxi在武汉集体停驶引发交通混乱

·#autonomous-vehicles

百度Robotaxi在武汉集体停驶引发交通混乱

周二,数百辆百度Apollo Go无人驾驶出租车在武汉突然停止运行,导致乘客被困并引发至少一起事故。警方确认是系统故障所致。

此次事件凸显了中国自动驾驶行业的关键安全问题,引发对监管监督和实际可靠性的重要讨论,也影响了公众对百度等全球扩张企业的信任。

周二,在中国武汉,大量百度Apollo Go无人出租车同时停驶,导致乘客被困车内,并造成交通拥堵及至少一起交通事故。当地警方证实收到多起车辆中途停驶无法重启的报告,但未出现人员伤亡。初步调查显示为不明原因的系统故障,而非外部干扰或人为失误。

百度仅在武汉就运营超过500辆无人驾驶汽车,并已将机器人出租车服务扩展至全球26个城市,包括与Uber在伦敦和迪拜的合作。这一事件重新引发了全球对自动驾驶系统安全性与成熟度的讨论,尤其是在城市交通这种高风险环境中。尽管百度尚未发布详细说明,但该事件已引起监管机构和媒体的高度关注。

据报道称至少有100辆机器人出租车受到影响,尽管百度未确认具体数量。这些车辆属于部署在武汉的超500辆车队,武汉是百度机器人出租车业务的重要枢纽。

查看单篇正文查看原文
22

ZDNET AI

苹果发布iOS 18关键补丁修复DarkSword漏洞

·#ios

苹果发布iOS 18关键补丁修复DarkSword漏洞

苹果发布了针对仍在运行iOS 18的iPhone的安全补丁,以防止通过恶意网站感染设备的危险DarkSword漏洞。

这是一次罕见的向旧版本系统提供补丁的行为,表明DarkSword威胁极为严重:它能窃取敏感数据且不留痕迹,苹果正紧急呼吁所有受影响用户立即安装。

苹果已发布紧急安全补丁,保护仍在运行iOS 18的iPhone免受DarkSword漏洞攻击。这是一种高度可靠且已被泄露的间谍软件,只需访问一个被入侵的网站即可感染设备,随后可监控活动、窃取密码、获取短信并入侵加密货币账户,且不留任何痕迹。

最初主要针对沙特阿拉伯、土耳其、乌克兰等国,但最近在GitHub上公开后,全球黑客均可使用。此次苹果破例为仍可升级至iOS 26的用户提供补丁,说明该漏洞极其严重,同时因为目前仅有50%-66%的iOS用户升级到了最新版本,大量用户仍处于风险中。

该补丁适用于iOS 18.7.7和iPadOS 18.7.7,并且即使用户有能力升级到iOS 26却选择停留在旧版本,苹果也提供了此补丁,这是苹果政策的重大例外。

查看单篇正文查看原文
23

Simon Willison

·#llm

datasette-enrichments-llm 0.2a0 发布,支持LLM模型管理

datasette-enrichments-llm 的新版本 0.2a0 现在使用 datasette-llm 来管理用于数据增强的模型,用户可以通过 'enrichments' 目的指定哪些模型可用。

此次更新提升了 Datasette 中本地模型的集成能力,使注重隐私的开发者可以在不依赖外部 API 的情况下使用自己的模型进行数据增强,这对安全且可定制的人工智能工作流至关重要。

2026年4月1日,Simon Willison 发布了 datasette-enrichments-llm 的 0.2a0 版本,这是一个用于数据增强的 Alpha 插件,现已与 datasette-llm 集成以管理大型语言模型。用户现在可以使用 'enrichments' 目的配置特定模型用于增强任务。插件不再处理计费或使用限制,而是将这些职责交给 datasette-llm-accountant。

新增功能包括:若启用配置项,可将提示词、响应和工具调用完整记录到内部数据库表中;还重新设计了用于简单提示使用的管理页面,但需要特定权限才能访问。此更新体现了 Datasette 中 LLM 工具链的模块化趋势,将模型管理、使用跟踪和成本核算等功能分离开来。

该版本移除了定价和配额功能(现在由 datasette-llm-accountant 处理),新增了将提示词记录到数据库表的功能,并通过 llm_prompt_context() 钩子机制增强了对工具调用的追踪能力。

查看单篇正文查看原文
24

ZDNET AI

Ugreen Finder Pro标签经受严苛测试仍表现出色

·#bluetooth-tracking

Ugreen Finder Pro标签经受严苛测试仍表现出色

Ugreen Finder Pro蓝牙追踪标签在经过摔落、踩踏和与钥匙一起滚筒测试后,未出现裂纹或破损,而其他许多第三方替代品则未能做到这一点。

这对安卓用户尤其重要,因为他们常缺乏能承受日常磨损的AirTag替代品,Finder Pro因此成为追求耐用性和功能性的用户的优选。

ZDNET评测员对Ugreen Finder Pro标签进行了严格测试,包括摔落、踩踏和与钥匙一起滚筒实验。尽管如此,标签依然完好无损,获得了对其坚固性的高度评价。这些标签音量高达90分贝,电池续航一年,支持苹果和谷歌的追踪系统。

其方形设计和高强度聚合物材质非常适合挂在钥匙扣上。虽然定位精度不如AirTag,但对于需要耐用追踪器的安卓用户来说,这是一个极具吸引力的选择。

这些标签采用方形设计,内置90mAh可充电电池(带USB-C接口,附有可拆卸橡胶盖),发出的声音可达90分贝,比AirTag的80分贝更响亮,并兼容苹果Find My和谷歌Find My设备网络。

查看单篇正文查看原文
25

ZDNET AI

我用Gmail的AI工具在10分钟内完成数小时工作

·#ai

我用Gmail的AI工具在10分钟内完成数小时工作

作者仅用三个特定提示就利用Gmail内置的AI功能自动化处理了一项持续一年项目的邮件线程整理任务,将数小时的手动工作压缩到不到10分钟。

这表明AI集成在像Gmail这样广泛使用的工具中,可以显著提升日常用户的生产力,尤其是那些需要处理重复性邮件工作流程的专业人士。

文章描述了作者如何利用Gmail的AI功能简化一项涉及超过200封来自托管服务商邮件的耗时项目。通过仅使用三个提示(如要求获取联系信息、总结对话和起草回复),AI迅速整理了相关信息,将工作量从数小时缩短至不到10分钟。这种方法利用Gmail的搜索和AI能力,将杂乱的收件箱转化为结构化的行动清单。

作者强调这不是噱头,而是AI在熟悉工具中的实际应用。同时,这也突显了Google长期维护的Gmail界面如何逐步整合AI而未破坏核心功能。

AI被用于搜索联系人、提取相关邮件历史并起草跟进消息——全部在Gmail界面内完成,无需外部工具或复杂设置。

查看单篇正文查看原文
26

Google AI Blog

谷歌发布2026年3月Gemini人工智能更新

·#ai

谷歌发布2026年3月Gemini人工智能更新

谷歌在2026年3月推出了一系列AI改进,重点提升Gemini对日常任务(如旅行、工作和健康)的理解与帮助能力。关键更新包括扩展Search Live功能、增强Personal Intelligence,并在Docs、Sheets、地图和Pixel设备中引入新工具。

这些更新使AI更自然地融入用户日常生活,提升生产力和个性化体验。它们表明谷歌正持续推动以用户为中心的实用型AI,而非仅展示技术能力。

2026年3月,谷歌宣布多项AI改进,旨在让Gemini更懂上下文并更好地服务日常需求。这包括全球扩展Search Live功能(支持语音和摄像头交互)、为Pro和Ultra用户提供文档、表格、幻灯片和Drive中的增强AI工具,以及通过Ask Maps功能升级谷歌地图以实现对话式查询和预订。

Personal Intelligence也进一步扩展,利用Gmail、照片等数据提供个性化推荐。新增的聊天历史导入功能让用户可将其他AI应用的对话记录迁移到Gemini,并且最新Pixel更新加入了Circle to Search和Magic Cue等直观功能。

Search Live现已覆盖200多个国家和地区,Canvas AI模式在美国可用于创意写作和编程任务。Gemini在Sheets中的表现达到行业领先水平,适合复杂数据分析。

查看单篇正文查看原文
27

ZDNET AI

Windows 11中微软账户与本地账户的选择与设置

·#windows-11

Windows 11中微软账户与本地账户的选择与设置

文章解释了Windows 11中微软账户和本地账户的区别,并指出微软现在让新电脑上设置本地账户变得困难,这让许多偏好隐私或离线使用的用户感到不满。

这个问题影响数百万Windows 11用户,他们希望掌控自己的数据和设置流程;这反映了用户自主权与微软向云端服务和盈利模式推进之间的更广泛矛盾。

在设置新Windows 11电脑时,用户被强烈鼓励创建微软账户,即使有些人更喜欢使用本地账户以保护隐私或实现离线操作。微软不再容易让用户选择本地账户——它移除了旧有的绕过方法,迫使用户在线登录。然而,本地账户仍然存在,可以通过特定步骤手动设置,具体取决于Windows版本。

文章承认,微软账户虽然方便且能集成OneDrive和Microsoft 365等服务,但也引发关于数据追踪和强制在线登录的担忧。一些用户认为微软正通过让本地账户更难选择来推动他们转向付费服务。

本地账户将凭证存储在系统驱动器上的安全账户管理器数据库中,而微软账户则通过TPM中保存的令牌进行身份验证,并同步到微软服务器——两种方法都安全,但在线依赖性不同。

查看单篇正文查看原文
28

ZDNET AI

热成像仪发现厨房隐藏电气隐患

·#thermal-imaging

热成像仪发现厨房隐藏电气隐患

作者使用专为Android设计的Thermal Master P4热成像仪配件,在厨房柜台下方发现了一个危险过热的插头,避免了潜在火灾。这一实际案例展示了便携式热成像设备如何识别传统检查方法无法发现的隐形隐患。

这一事件突显了热成像仪在电气安全中的关键作用,尤其是在商业环境中,早期发现过热部件可以防止火灾并挽救生命。同时说明了价格实惠、可连接智能手机的设备正让专业级工具更易被大众使用。

文章描述了一个真实场景:一款热成像仪配件拯救了一个商业厨房免于潜在电气危险。作者因持续的烧焦气味被叫去检查,但通过肉眼无法找到源头。使用连接Android手机的Thermal Master P4,他发现了隐藏在橱柜下方的一个严重过热插头发出的热点。

这次发现避免了可能的火灾或设备故障。作者强调热成像仪在家庭维护、电气排查、汽车诊断甚至搜救中用途广泛。P4体积小巧、灵敏度高,并能与智能手机集成,是专业人士和DIY用户都实用的强大工具。

Thermal Master P4重仅26.5克,具备512×384红外分辨率和0.035℃灵敏度,兼容任何Android 6.0以上手机且无需自带电池。它支持-20°C至600°C的宽温度范围,并配有15倍数字变焦,便于精准检测。

查看单篇正文查看原文
29

ZDNET AI

Icy Box M.2扩展坞支持裸盘克隆与访问

·#hardware

Icy Box M.2扩展坞支持裸盘克隆与访问

Icy Box M.2扩展坞是一款兼具硬盘托盘和一键克隆功能的设备,可支持SATA和M.2硬盘,价格低于100美元。

它为PC组装者、NAS用户和数据管理人士提供了一种经济可靠的方式,无需繁琐操作即可克隆或访问裸盘。

Icy Box M.2扩展坞既是硬盘托盘又是克隆设备,用户可轻松连接并访问裸 SATA 或 M.2 硬盘,无需外壳。它支持从 2.5 英寸硬盘到高速 NVMe 固态硬盘的各种尺寸和类型。一键式克隆功能确保了准确的位对位复制,避免了使用专用电脑或复杂软件的需求。

用户必须确保目标盘容量等于或大于源盘,并且不要强行插入错误插槽以防损坏。通过校验和验证测试确认其可靠性。这使其成为减少桌面杂乱并保持高效存储工作流程的理想选择。

该扩展坞支持22/42/60/80毫米M.2 SATA/NVMe及2.5/3.5英寸SATA硬盘,采用免工具安装设计,并兼容Windows、macOS、Linux、Android和ChromeOS系统。

查看单篇正文查看原文
30

ZDNET AI

Apple音乐AI播放列表游乐场助用户重拾音乐乐趣

·#ai

Apple音乐AI播放列表游乐场助用户重拾音乐乐趣

Apple音乐在iOS 26.4中推出了名为“播放列表游乐场”的新功能,该功能利用生成式AI根据用户输入的提示(如“晴天在亚特兰大散步时的播放列表”)创建定制化歌单。该功能会结合流行趋势和用户的个人听歌历史。

这标志着生成式AI在主流消费应用中的实际落地,展示了AI如何通过降低发现或编排歌单的门槛来提升用户参与度,尤其对陷入听歌倦怠期的用户具有重要意义。

文章描述了作者亲自测试Apple音乐新推出的Playlist Playground功能,该功能基于文本提示生成播放列表。作者尝试了三个不同的提示:一个关于在亚特兰大散步(因提示模糊而失败),另一个是带有特定BPM要求的健身房歌单(成功),还有一个用于专注工作的提示(未详细说明)。这次体验突显了提示清晰度对结果的影响,并表明尽管AI生成的播放列表并非完美,但如果使用得当,它们可以成为打破听歌单调的有效工具。

该功能在提示具体时效果最佳——例如要求高BPM健身歌单时生成了非常有效的列表;但模糊提示如“亚特兰大”则导致结果不相关,因为AI对上下文的理解与人类不同。

查看单篇正文查看原文