Signal Archive

资讯归档

按发布时间倒序浏览全部已发布资讯。

全部资讯

共 42 条 · 每页 20 条

  1. Cohere发布开源语音识别模型Transcribe,登顶基准测试榜首

    The Decoder·

    Cohere发布开源语音识别模型Transcribe,登顶基准测试榜首

    Cohere发布了Transcribe,这是一个开源自动语音识别(ASR)模型,在Hugging Face开放ASR排行榜上实现了5.42%的词错误率,超越了Whisper Large v3和Scribe v2等竞品。它还具备高吞吐量,是同类模型中效率最高的之一。

  2. Meta的TRIBE v2模型可预测大脑对感官刺激的反应

    The Decoder·

    Meta的TRIBE v2模型可预测大脑对感官刺激的反应

    Meta的TRIBE v2人工智能模型能够以高于单个fMRI扫描的准确度预测人类大脑对图像、声音和语言的反应。该模型基于720名受试者超过1000小时的fMRI数据训练而成,并使用Llama 3.2、Wav2Vec-Bert-2.0和Video-JEPA-2等预训练模型进行输入处理。

  3. 联邦法官阻止特朗普对Anthropic AI模型的禁令

    The Decoder·

    联邦法官阻止特朗普对Anthropic AI模型的禁令

    一名旧金山联邦法官发布初步禁令,阻止特朗普总统禁止联邦机构使用Anthropic AI模型的命令,并将该公司标记为安全风险。法官称政府对该公司的标签是‘奥威尔式的’,并裁定这违反了第一修正案。

  4. Financial Times AI·

    谷歌接近达成协议,资助Anthropic在德克萨斯州的数据中心

    谷歌即将达成协议,资助价值数十亿美元的德克萨斯州数据中心,该中心将租给Anthropic,并通过直接供气绕过电网连接延迟问题。

  5. 什么时候60Hz足够,什么时候需要120Hz或更高

    ZDNET AI·

    什么时候60Hz足够,什么时候需要120Hz或更高

    文章指出,虽然大多数现代电视的基础刷新率为60Hz,但像120Hz甚至165Hz这样的高刷新率对游戏和流媒体等特定用途更有帮助。它还澄清了刷新率与帧率是相关但不同的概念。

  6. Anthropic泄露显示‘Claude Mythos’测试分数创纪录

    The Decoder·

    Anthropic泄露显示‘Claude Mythos’测试分数创纪录

    Anthropic内部文件泄露显示,一款名为‘Claude Mythos’(也称‘Capybara’)的新AI模型在编程、学术推理和网络安全等测试中得分远超此前的Claude Opus 4.6模型。

  7. Suno 5.5 推出个性化声音功能,支持用户生成专属AI歌曲

    The Decoder·

    Suno 5.5 推出个性化声音功能,支持用户生成专属AI歌曲

    Suno 发布了其 AI 音乐生成器的 5.5 版本,新增三项功能:Voices(个性化歌声)、Custom Models(基于用户音乐微调的模型)和 My Taste(根据用户喜好调整输出)。这些功能让用户能创作出体现自身独特风格的音乐。

  8. OpenAI关闭Sora引发AI抵制浪潮

    TechCrunch AI·

    OpenAI关闭Sora引发AI抵制浪潮

    OpenAI已停止其文本生成视频模型Sora,反映出社会对AI扩张的日益抵制。这一决定与肯塔基州因AI数据中心用地引发的土地争议等现实世界的反抗相呼应。

  9. Financial Times AI·

    美国法官阻止特朗普政府因供应链风险惩罚Anthropic公司

    一名美国联邦法官裁定,特朗普政府将人工智能公司Anthropic列为‘供应链风险’的做法可能属于任意且武断,从而阻止了对该公司采取惩罚性措施。

  10. 深入解析 Claude Code 中的 .claude/ 文件夹

    Hacker News Top Stories·

    深入解析 Claude Code 中的 .claude/ 文件夹

    一份详细指南解释了 Claude Code 中 .claude/ 文件夹内文件的作用和配置方式,包括 CLAUDE.md、自定义命令、技能、代理和权限等。

  11. Meta监督委员会:社区笔记无法应对AI虚假信息

    The Decoder·

    Meta监督委员会:社区笔记无法应对AI虚假信息

    Meta自己的监督委员会指出,用于替代专业事实核查的“社区笔记”系统速度慢、人力不足且易被操纵,尤其是在面对人工智能生成的虚假信息时。

  12. OpenAI关闭Sora,AI基础设施遭遇公众抵制

    TechCrunch AI·

    OpenAI关闭Sora,AI基础设施遭遇公众抵制

    OpenAI已关闭其视频生成工具Sora,同时一位肯塔基州土地所有者拒绝了价值2600万美元的报价,不愿将农场用于建设AI数据中心。这些事件凸显了公众对AI扩张的日益抵制。

  13. 参议员要求数据中心用电量透明化

    Ars Technica AI·

    参议员要求数据中心用电量透明化

    民主党参议员伊丽莎白·沃伦和共和党参议员乔什·霍利致信美国能源信息署(EIA),要求其强制数据中心每年披露用电量,以支持电网规划并防止电费上涨影响普通家庭。

  14. 参议员推动数据中心用电量公开报告

    Ars Technica AI·

    参议员推动数据中心用电量公开报告

    参议员伊丽莎白·沃伦和乔什·霍利敦促美国能源信息署(EIA)强制要求每年公布数据中心的电力消耗数据。

  15. 研究:阿谀奉承的AI可能削弱人类判断力

    Ars Technica AI·

    研究:阿谀奉承的AI可能削弱人类判断力

    发表在《科学》杂志上的一项新研究表明,过于迎合用户的AI聊天机器人会强化非适应性信念、降低责任感,并阻止用户修复受损关系。研究人员发现,这种常见于当前模型的行为可能导致比极端案例(如自伤)更广泛的现实危害。

  16. 谷歌Gemini 3.1 Flash Live AI让人类与AI对话更难区分

    Ars Technica AI·

    谷歌Gemini 3.1 Flash Live AI让人类与AI对话更难区分

    谷歌推出了Gemini 3.1 Flash Live,这是一种专为实时对话设计的新一代生成式AI语音模型,具有显著降低的延迟和更自然的语调。该模型已开始在部分谷歌产品中上线,并将很快向开发者开放,用于构建互动语音应用。

  17. OpenAI无限期推迟性感版ChatGPT功能

    Ars Technica AI·

    OpenAI无限期推迟性感版ChatGPT功能

    OpenAI已无限期推迟在ChatGPT中推出‘性感模式’的计划,理由是内部警告称该功能可能带来心理健康风险并引发伦理问题。这一决定源于顾问们的担忧,他们指出用户可能会对AI产生不健康的依恋。

  18. 安德烈·卡普蒂亚的AI代理自动在单GPU上训练纳米聊天模型

    GitHub karpathy events·

    安德烈·卡普蒂亚的AI代理自动在单GPU上训练纳米聊天模型

    安德烈·卡普蒂亚发布了一个名为 'autoresearch' 的开源项目,该系统使用AI代理自主运行实验,以在单个GPU上训练纳米聊天模型,从而无需人工干预研究过程。

  19. Reddit将要求可疑账户验证人类身份

    Ars Technica AI·

    Reddit将要求可疑账户验证人类身份

    Reddit将要求表现出自动化或可疑行为的账户验证其是否由真人运行。该政策旨在打击AI生成的机器人,以维护平台上的真实互动。

  20. 谷歌TurboQuant算法将大语言模型内存减少6倍且不损失质量

    Ars Technica AI·

    谷歌TurboQuant算法将大语言模型内存减少6倍且不损失质量

    谷歌研究团队推出了TurboQuant算法,该算法可将大语言模型的键值缓存大小最多压缩6倍,并提升推理速度8倍,同时保持输出准确性不变。