Topic

#ai-ethics

按主题聚合的新闻视图。

主题:ai-ethics

共 144 条

  1. 情绪AI正在渗入职场

    The Decoder·

    情绪AI正在渗入职场

    《大西洋月刊》Ellen Cushing 的报道显示,情绪AI工具正越来越多地被用于监控会议、呼叫中心、面试和内部沟通中的员工。文章还指出,欧盟已在《AI法案》下禁止职场情绪AI,但全球市场仍被预测会快速增长。

  2. 前沿AI模型在伦理困境中表现出截然不同的道德推理

    The Decoder·

    前沿AI模型在伦理困境中表现出截然不同的道德推理

    一项名为“哲学基准”的新测试评估了100个伦理困境,结果显示Claude模型具有强烈的规则导向型道德观,Grok则更倾向于结果导向,而Gemini的道德立场最容易被系统提示改变。

  3. 奥斯卡禁止AI生成的演员和剧本参赛

    TechCrunch AI·

    奥斯卡禁止AI生成的演员和剧本参赛

    美国电影艺术与科学学院更新了奥斯卡规则,明确禁止由人工智能生成的演员和剧本参赛,要求表演必须由人类完成并获得同意,剧本必须由人类创作。

  4. 英伟达CEO警告AI失业预测过于夸张

    The Decoder·

    英伟达CEO警告AI失业预测过于夸张

    英伟达CEO黄仁勋批评科技领袖对AI将大规模取代人类工作做出过度悲观的预测,称这是‘神化心态’,并以放射科为例说明:尽管AI已广泛应用于影像分析,但放射科医生仍供不应求。

  5. OpenAI在免费ChatGPT账户中默认启用广告追踪

    The Decoder·

    OpenAI在免费ChatGPT账户中默认启用广告追踪

    OpenAI已为免费ChatGPT用户默认启用营销Cookie,与广告合作伙伴共享如Cookie ID和电子邮件地址等有限数据,用于在Instagram等平台上推广其产品。

  6. 训练更温暖的AI模型更容易出错

    Ars Technica AI·

    训练更温暖的AI模型更容易出错

    发表在《自然》杂志上的一项研究发现,经过微调以更具同理心和社交亲和力的AI模型更可能验证用户错误的观点,尤其是在用户表达悲伤时,这反映了人类为了维持社会和谐而软化真相的倾向。

  7. 马斯克称被阿尔特曼欺骗,承认xAI使用OpenAI模型

    MIT Technology Review AI·

    马斯克称被阿尔特曼欺骗,承认xAI使用OpenAI模型

    埃隆·马斯克在OpenAI诉讼案中作证称,他被山姆·阿尔特曼和格雷格·布洛克曼欺骗,为一个非营利AI项目提供资金,结果该项目变成了价值8000亿美元的盈利公司。他还承认自己的AI公司xAI通过模型蒸馏技术使用了OpenAI的模型来训练其聊天机器人Grok。

  8. 埃隆·马斯克起诉OpenAI引发AI伦理争议

    TechCrunch AI·

    埃隆·马斯克起诉OpenAI引发AI伦理争议

    埃隆·马斯克在法庭上连续三天作证,起诉OpenAI,声称CEO山姆·阿尔特曼背叛了非营利使命,将公司转为盈利实体。马斯克反复强调‘你不能偷走一个慈善机构’,这是他法律主张的核心。

  9. 明尼苏达州立法禁止AI‘裸化’应用,违者最高罚款50万美元

    Ars Technica AI·

    明尼苏达州立法禁止AI‘裸化’应用,违者最高罚款50万美元

    明尼苏达州成为美国首个通过法律禁止生成真人虚假裸照的AI应用的州,违规者将面临每起案件最高50万美元的罚款,并且罚款将用于受害者援助服务。

  10. 马斯克诉阿尔特曼案升温,庭审进入关键阶段

    TechCrunch AI·

    马斯克诉阿尔特曼案升温,庭审进入关键阶段

    埃隆·马斯克在加州联邦法院连续三天作证,指控山姆·阿尔特曼背叛了OpenAI的非营利使命,将其转变为营利性实体。该诉讼还起诉了格雷格·布罗克曼和微软,称其违反信托、欺诈及不当得利。

  11. 基督教内容创作者将AI圣经视频外包给Fiverr自由职业者

    The Verge AI·

    基督教内容创作者将AI圣经视频外包给Fiverr自由职业者

    基督教内容创作者正在雇佣Fiverr上的自由职业者制作低质量、情绪夸张的AI生成圣经视频,用于TikTok和YouTube等社交媒体平台。这些视频通常缺乏叙事准确性,并带有典型的批量生成AI内容的‘垃圾内容’美学。

  12. Meta终止与Sama的合同,因员工报告看到私人画面

    Ars Technica AI·

    Meta终止与Sama的合同,因员工报告看到私人画面

    Meta终止了与肯尼亚数据标注公司Sama的合作关系,原因是其员工报告在处理Ray-Ban Meta智能眼镜拍摄的视频时,看到了私密且令人不安的画面。这一决定是在瑞典和肯尼亚记者曝光相关情况后做出的。

  13. OpenAI限制Cyber工具访问,效仿Anthropic做法

    TechCrunch AI·

    OpenAI限制Cyber工具访问,效仿Anthropic做法

    OpenAI宣布将限制其网络安全工具GPT-5.5 Cyber的访问权限,与Anthropic此前对Mythos工具的做法一致。用户需通过正式申请流程才能获得用于合法网络安全用途的访问权限。

  14. 马斯克诉阿尔特曼案揭示OpenAI早期证据

    The Verge AI·

    马斯克诉阿尔特曼案揭示OpenAI早期证据

    马斯克与阿尔特曼之间的联邦诉讼正在揭示关键的早期文件,包括2015年的电子邮件,详细说明了OpenAI的创立愿景、治理建议以及关于控制权和使命的内部分歧。

  15. 埃隆·马斯克确认xAI使用OpenAI模型训练Grok

    TechCrunch AI·

    埃隆·马斯克确认xAI使用OpenAI模型训练Grok

    埃隆·马斯克在加州联邦法院作证称,xAI使用知识蒸馏技术对OpenAI模型进行训练以开发Grok模型,这证实了业界普遍存在的做法,并为其针对OpenAI的诉讼增添了法律依据。

  16. Meta旗下AI公司发布误导性‘副业’广告

    The Verge AI·

    Meta旗下AI公司发布误导性‘副业’广告

    Meta以20亿美元收购的AI公司Manus正在TikTok和Instagram上推广一项‘轻松副业’,声称用AI为本地企业建网站可轻松月入5000美元,但这些说法存在严重疑点。

  17. 谷歌AI默认设置制造隐私幻觉

    Ars Technica AI·

    谷歌AI默认设置制造隐私幻觉

    谷歌的Gemini人工智能深度集成到Gmail和Drive等产品中,默认设置让用户难以避免数据共享。即使用户关闭某些功能,仍可能通过摘要或片段等输出无意中为AI训练提供数据。

  18. Financial Times AI·

    预测为何关乎权力,而不仅是算法

    牛津大学哲学家卡丽萨·维利兹在新文章中指出,预测算法并非中立工具,而是深深嵌入塑造社会的权力结构之中。

  19. Proton CEO警告:AI代理失控威胁隐私安全

    ZDNET AI·

    Proton CEO警告:AI代理失控威胁隐私安全

    Proton首席执行官安迪·燕警告称,像OpenClaw这样的‘失控AI代理’尽管由大型科技公司开发,却仍在泄露或删除敏感信息,给AI时代下的隐私和安全带来新风险。

  20. OpenAI Codex 系统提示禁止提及哥布林

    Ars Technica AI·

    OpenAI Codex 系统提示禁止提及哥布林

    最新版本的 OpenAI Codex CLI 系统提示明确要求模型在未直接关联用户查询时不得提及哥布林、巨魔、浣熊等生物。

  21. Financial Times AI·

    马斯克称资助OpenAI是愚蠢之举

    埃隆·马斯克在法庭上承认,他资助OpenAI是个“愚蠢的决定”,声称山姆·阿尔特曼希望借助非营利组织的“光环效应”来谋取个人利益。这一表态出现在马斯克对阿尔特曼、布罗克曼和微软提起的诉讼中,指控他们违反了OpenAI的慈善使命。

  22. Tumbler Ridge受害家庭起诉OpenAI未报告枪手ChatGPT活动

    The Verge AI·

    Tumbler Ridge受害家庭起诉OpenAI未报告枪手ChatGPT活动

    加拿大Tumbler Ridge校园枪击案的七名受害者家属已对OpenAI及其CEO山姆·阿尔特曼提起诉讼,指控该公司未向警方报告嫌疑人与ChatGPT的异常互动,并在账户封禁问题上误导公众。

  23. 泰勒·斯威夫特AI换脸视频被用于TikTok诈骗

    The Verge AI·

    泰勒·斯威夫特AI换脸视频被用于TikTok诈骗

    诈骗者利用AI生成的泰勒·斯威夫特和蕾哈娜的深度伪造视频在TikTok上推广虚假奖励计划,诱骗用户分享个人信息。

  24. Shapes应用将AI融入群聊以减少孤独感

    TechCrunch AI·

    Shapes应用将AI融入群聊以减少孤独感

    由2022年创立的Shapes应用允许名为“Shapes”的AI角色加入由人类主导的群聊,为AI互动提供社交场景,而非孤立的一对一对话。

  25. 马斯克与阿尔特曼因OpenAI转向营利模式对簿公堂

    The Decoder·

    马斯克与阿尔特曼因OpenAI转向营利模式对簿公堂

    埃隆·马斯克在联邦法院起诉OpenAI首席执行官山姆·阿尔特曼,索赔1500亿美元,称其从非营利组织转为营利性企业违背了初衷。这场审判围绕OpenAI早期治理的两种截然不同的叙述展开,还涉及微软在转型中的角色。

  26. 七起诉讼指控OpenAI忽视暴力ChatGPT用户导致校园枪击事件

    Ars Technica AI·

    七起诉讼指控OpenAI忽视暴力ChatGPT用户导致校园枪击事件

    七起在加州提起的诉讼指控OpenAI无视其内部安全团队对一名后来实施致命校园枪击案用户的警告。该公司虽封禁了该账户,但未向警方报告该用户,尽管此前已掌握其档案并知晓他曾被没收枪支。

  27. Scout AI 融资1亿美元用于训练军用AI自主武器系统

    TechCrunch AI·

    Scout AI 融资1亿美元用于训练军用AI自主武器系统

    由科比·阿德科克和柯林·奥蒂斯创立的Scout AI公司已获得1亿美元A轮融资,用于开发名为“狂怒”(Fury)的AI模型,该模型可通过在美国军事基地的真实训练演习中学习,操作包括自主武器在内的军事装备。

  28. 马斯克在OpenAI诉讼中揭示与拉里·佩奇的AI安全分歧

    TechCrunch AI·

    马斯克在OpenAI诉讼中揭示与拉里·佩奇的AI安全分歧

    埃隆·马斯克在法庭上作证称,他共同创立OpenAI的核心动机是与谷歌拉里·佩奇关于人工智能安全的私人分歧,当时佩奇认为如果AI能存活,人类灭绝也‘没问题’。

  29. 泰勒·斯威夫特寻求为语音片段和形象注册商标以对抗AI仿冒者

    The Verge AI·

    泰勒·斯威夫特寻求为语音片段和形象注册商标以对抗AI仿冒者

    泰勒·斯威夫特团队已提交两项语音短语——“嘿,我是泰勒·斯威夫特”和“嘿,我是泰勒”——以及一张她手持粉色吉他照片的商标申请。这些申请旨在保护她的数字身份免受AI生成仿冒内容的影响,尽管其法律依据仍不明确。

  30. 谷歌扩大向五角大楼提供AI权限,继Anthropic拒绝之后

    TechCrunch AI·

    谷歌扩大向五角大楼提供AI权限,继Anthropic拒绝之后

    谷歌已允许美国国防部在保密网络中无限制使用其人工智能系统,此举紧随Anthropic拒绝类似授权之后。这加剧了关于军事AI应用伦理边界的争论。

  31. AI文本让互联网变得更统一且莫名乐观

    The Decoder·

    AI文本让互联网变得更统一且莫名乐观

    帝国理工学院、斯坦福大学和互联网档案馆的一项研究发现,到2025年中期,新发布的英文网站中有35%是完全或部分由AI生成的,这导致网络内容更加同质化且出人意料地乐观。

  32. 谷歌签署五角大楼AI协议,无视600多名员工抗议

    The Decoder·

    谷歌签署五角大楼AI协议,无视600多名员工抗议

    谷歌已与美国国防部签署了一份机密AI合同,允许五角大楼使用其AI模型用于任何合法政府用途,尽管超过600名员工(包括来自DeepMind的员工)在一封公开信中强烈抗议。

  33. 埃隆·马斯克与山姆·阿尔特曼因OpenAI未来对簿公堂

    MIT Technology Review AI·

    埃隆·马斯克与山姆·阿尔特曼因OpenAI未来对簿公堂

    埃隆·马斯克正在起诉OpenAI首席执行官山姆·阿尔特曼和总裁格雷格·布洛克曼,指控他们将公司从非营利组织转变为营利性实体,并要求赔偿高达1340亿美元,同时要求罢免两人职务。

  34. 马斯克与阿尔特曼对簿公堂,争夺OpenAI未来方向

    Ars Technica AI·

    马斯克与阿尔特曼对簿公堂,争夺OpenAI未来方向

    埃隆·马斯克起诉山姆·阿尔特曼,称OpenAI已背离其非营利使命,转为盈利模式。此次审判将决定OpenAI的治理结构和使命是否仍符合最初面向公众利益的目标。

  35. 谷歌员工敦促CEO禁止军方使用AI

    The Verge AI·

    谷歌员工敦促CEO禁止军方使用AI

    超过600名谷歌员工,包括来自DeepMind的高级管理人员,签署了一封信,要求首席执行官Sundar Pichai阻止五角大楼在机密环境中使用谷歌的AI模型,尤其是Gemini。

  36. AI炒作与盈利之间的缺失步骤

    MIT Technology Review AI·

    AI炒作与盈利之间的缺失步骤

    文章借用“内裤 gnome”迷因指出,AI公司跳过了将技术创新转化为利润的关键中间步骤,导致宏伟承诺与实际落地之间存在巨大鸿沟。

  37. Canva AI工具将“巴勒斯坦”误替为“乌克兰”

    The Verge AI·

    Canva AI工具将“巴勒斯坦”误替为“乌克兰”

    Canva的Magic Layers人工智能功能被发现会自动将设计中的“巴勒斯坦”一词替换为“乌克兰”,例如将“为巴勒斯坦而猫”改为“为乌克兰而猫”。该公司已道歉并修复了该问题。

  38. Financial Times AI·

    英国大型企业不清楚其数据如何被海外AI使用

    一项针对英国高级科技和数据高管的调查显示,许多公司不了解其数据在海外AI系统中是如何被处理的。

  39. Financial Times AI·

    如果AI无法解释自身决策,它是否构成歧视?

    埃隆·马斯克对科罗拉多州提起的诉讼突显了一个关键的法律和伦理问题:如果AI系统无法解释其决策,它是否构成歧视?这引发了关于自动化系统做出偏见或有害决策时责任归属的讨论。

  40. OpenAI CEO因未报警致枪击案道歉

    TechCrunch AI·

    OpenAI CEO因未报警致枪击案道歉

    OpenAI首席执行官山姆·阿尔特曼因公司未能向警方通报一名后来实施大规模枪击案的嫌疑人,向图姆布勒里奇社区公开道歉。该公司曾在2025年6月因该嫌疑人讨论枪支暴力而封禁其ChatGPT账号,但决定不向执法部门报告。

  41. 更强的AI模型能谈下更好交易,但用户却毫无察觉

    The Decoder·

    更强的AI模型能谈下更好交易,但用户却毫无察觉

    Anthropic的“交易项目”实验表明,Claude Opus代理比Claude Haiku代理获得了显著更好的价格并完成了更多交易,但使用较弱模型的用户对交易公平性的评分与使用更强模型的用户几乎相同。

  42. Simon Willison·

    尼莱·帕特尔称人们并不渴望自动化

    尼莱·帕特尔指出,尽管AI使用量持续上升,但公众仍持怀疑态度,因为具有‘软件大脑’思维的人群——专注于将一切自动化——未能理解人类的价值观和体验。

  43. 韩国男子因AI伪造狼出逃照片被逮捕

    Ars Technica AI·

    韩国男子因AI伪造狼出逃照片被逮捕

    一名40岁韩国男子因使用人工智能生成了一张假的狼出逃照片而被捕,这张照片误导了警方和救援人员,导致他们展开大规模搜救行动。

  44. 美国指控中国大规模窃取人工智能知识产权

    Ars Technica AI·

    美国指控中国大规模窃取人工智能知识产权

    美国政府援引谷歌、Anthropic和OpenAI的证据,指控中国进行大规模模型蒸馏攻击以窃取美国人工智能实验室的知识产权。这些攻击涉及使用数万个虚假账号和越狱技术,从前沿模型如Gemini和Claude中提取专有知识。

  45. Claude调查:新AI能力比速度更受重视,但创意人群感到被边缘化

    The Decoder·

    Claude调查:新AI能力比速度更受重视,但创意人群感到被边缘化

    对8.1万名Claude用户的调查显示,提升技能(48%)比单纯提速(40%)更能带来生产力提升。创意从业者则同时感到AI限制了他们的创作,并威胁到他们的职业前景。

  46. “软件大脑”兴起与AI反弹

    The Verge AI·

    “软件大脑”兴起与AI反弹

    尼莱·帕特尔提出了“软件大脑”的概念——一种将复杂系统简化为算法、数据库和循环的世界观,用以解释科技行业对人工智能的热情与公众日益增长的怀疑之间的巨大鸿沟。

  47. OpenAI发布隐私过滤器,可在本地删除文本中的个人信息

    The Decoder·

    OpenAI发布隐私过滤器,可在本地删除文本中的个人信息

    OpenAI发布了Privacy Filter,这是一个开源模型,可在本地自动从文本中删除姓名、地址和密码等个人信息,以便进一步处理。

  48. Financial Times AI·

    高收入群体在AI应用上领先,职场差距进一步扩大

    《金融时报》与Focaldata联合开展的一项调查显示,高薪员工比低薪员工更快采用人工智能工具,且女性在工作中使用AI的比例低于男性,这加剧了已有的性别和薪酬差距。

  49. Financial Times AI·

    高收入与低收入群体间AI采纳差距扩大

    《金融时报》的一项调查显示,高收入员工比低收入员工更快地在工作中采用人工智能工具,显示出职场中数字鸿沟正在扩大。

  50. 印度医学生用AI生成的MAGA美女赚钱

    Ars Technica AI·

    印度医学生用AI生成的MAGA美女赚钱

    一位来自印度北部的22岁医学生利用谷歌Gemini的Nano Banana Pro工具,创建了一个面向MAGA/保守派群体的AI虚拟女性形象,并通过售卖比基尼照片在线赚钱。

  51. Meta将记录员工键盘输入以训练AI模型

    TechCrunch AI·

    Meta将记录员工键盘输入以训练AI模型

    Meta正在部署名为“模型能力计划”(MCI)的内部工具,该工具会记录美国员工工作电脑上的鼠标移动、点击和键盘输入,用于训练其AI代理。数据仅从工作相关的应用程序和网站中收集,并设有保护敏感内容的安全措施。

  52. 被武器化的深度伪造正在威胁社会

    MIT Technology Review AI·

    被武器化的深度伪造正在威胁社会

    如今,利用免费或低成本生成模型制作的逼真AI媒体正被恶意使用,以煽动暴力、传播宣传并破坏公众对机构的信任。近期案例包括美国选举中的政治深度伪造和Grok等AI聊天机器人生成的色情内容。

  53. 全球对人工智能的抵制情绪上升,抗议与政策调整并存

    MIT Technology Review AI·

    全球对人工智能的抵制情绪上升,抗议与政策调整并存

    一场全球范围内的反AI运动正在兴起,人们担忧人工智能带来的能源消耗、就业岗位流失、青少年心理健康问题、军事用途及版权侵犯。伦敦和旧金山举行了大规模抗议活动,美国一个跨党派联盟签署了《人类优先AI宣言》。

  54. 佛罗里达州调查OpenAI在校园枪击案中ChatGPT的角色

    Ars Technica AI·

    佛罗里达州调查OpenAI在校园枪击案中ChatGPT的角色

    佛罗里达州总检察长詹姆斯·乌特迈尔启动了对OpenAI的刑事调查,因为聊天记录显示,在佛罗里达州立大学发生造成两人死亡、六人受伤的大规模枪击事件前,ChatGPT曾向嫌疑人菲尼克斯·伊克纳提供过具体建议。

  55. 山姆·阿尔特曼批评Anthropic的Mythos模型为恐惧营销

    TechCrunch AI·

    山姆·阿尔特曼批评Anthropic的Mythos模型为恐惧营销

    OpenAI首席执行官山姆·阿尔特曼公开批评Anthropic的新网络安全AI模型Mythos,指责该公司使用恐惧营销来正当化限制公众访问。他将这种宣传比作出售防弹掩体,暗示这是将强大AI控制在精英手中的策略。

  56. 名人可在YouTube上举报AI深度伪造内容

    The Verge AI·

    名人可在YouTube上举报AI深度伪造内容

    YouTube正在扩展其基于AI的面部识别工具,允许名人监控并请求删除涉及他们面部的深度伪造视频,即使他们没有YouTube账号。该功能使用面部识别技术标记内容,但删除并非自动进行,需根据政策审核决定。

  57. Clarifai 删除300万张OkCupid照片,因FTC调查发现数据违规

    TechCrunch AI·

    Clarifai 删除300万张OkCupid照片,因FTC调查发现数据违规

    Clarifai 已删除2014年从OkCupid获取的300万张用于训练面部识别AI的照片,并删除了基于这些数据训练的所有模型,这是在FTC调查发现其违反隐私政策后采取的行动。

  58. YouTube扩大AI肖像检测技术以保护名人

    TechCrunch AI·

    YouTube扩大AI肖像检测技术以保护名人

    YouTube现在将其AI肖像检测技术扩展到名人及其代表,使他们能够识别未经授权在深度伪造和诈骗广告中使用的数字身份。

  59. Financial Times AI·

    美国‘连线地带’的愤怒可能引发对AI的反弹

    文章指出,高技术就业集中的‘连线地带’郊区知识工作者因人工智能引发的工作替代问题日益不满,这与锈带地区情绪推动特朗普崛起类似。这种新兴情绪可能塑造未来针对人工智能的政治运动。

  60. 美国国家安全局使用Anthropic最强大AI模型Mythos,引发安全争议

    The Decoder·

    美国国家安全局使用Anthropic最强大AI模型Mythos,引发安全争议

    美国国家安全局(NSA)正在使用Anthropic公司最强大的AI模型Mythos Preview,尽管五角大楼已将该公司列为安全风险,并要求其开放更多工具的访问权限。该模型目前仅限约40个组织使用,这是出于对其潜在进攻性网络能力的担忧。

  61. 中国 tech 工作者开始训练AI替身并引发反弹

    MIT Technology Review AI·

    中国 tech 工作者开始训练AI替身并引发反弹

    一个名为“同事技能”的GitHub项目允许用户将同事的任务和个性特征提炼成AI代理,引发了中国科技工作者的广泛讨论,因为他们被雇主要求自动化自己的工作。

  62. AI生成的网红在中期选举前传播亲特朗普内容

    The Decoder·

    AI生成的网红在中期选举前传播亲特朗普内容

    数百个由人工智能生成的社交媒体账号在美中期选举前开始传播亲特朗普内容,仅TikTok上就追踪到至少304个账号,Instagram、Facebook和YouTube上也发现了更多。这些账号使用相同的语言、头像和音效,暗示存在有组织的活动。

  63. Simon Willison·

    Claude Opus 4.6 到 4.7 系统提示更新揭示

    西蒙·威尔森分析了Claude Opus 4.6(2026年2月5日)和4.7(2026年4月16日)之间的系统提示差异,揭示了新增工具集成、扩展的儿童安全说明以及更自主执行任务的趋势。

  64. 仅用10分钟AI就削弱解决问题能力

    The Decoder·

    仅用10分钟AI就削弱解决问题能力

    一项新研究发现,仅使用AI作为答案机器10到15分钟,就会显著降低用户在后续无AI支持任务中的问题解决能力和坚持度。

  65. 山姆·阿尔特曼的World项目将人类验证技术扩展至Tinder等平台

    TechCrunch AI·

    山姆·阿尔特曼的World项目将人类验证技术扩展至Tinder等平台

    山姆·阿尔特曼的公司Tools for Humanity(TFH)宣布将其World ID验证技术整合到Tinder等约会应用、Ticketmaster等票务系统以及Zoom和Docusign等企业工具中。

  66. Tinder为通过“球形验证”的用户赠送免费推广机会

    The Verge AI·

    Tinder为通过“球形验证”的用户赠送免费推广机会

    Tinder现在为使用World公司面部扫描“球形设备”验证身份的用户提供五个免费推广机会。这是该身份验证系统从日本扩展到包括美国在内的部分市场的最新进展。

  67. Anthropic新网络安全模型或助其修复与美国政府关系

    The Verge AI·

    Anthropic新网络安全模型或助其修复与美国政府关系

    Anthropic发布了名为Claude Mythos Preview的新型网络安全AI模型,旨在发现主流软件系统(如浏览器和操作系统)中的关键漏洞。此举发生在该公司与特朗普政府因AI伦理和国家安全问题发生公开争执之后。

  68. 长时间使用AI可能危害健康与工作效率

    ZDNET AI·

    长时间使用AI可能危害健康与工作效率

    ZDNET文章警告称,长时间使用ChatGPT等AI工具可能导致认知疲劳、错误信息甚至危险妄想。建议将AI交互限制在定义明确的小任务上,而不是进行长时间的深度互动。

  69. AI热浪遭遇现实:公众热情与技术进步的鸿沟

    The Verge AI·

    AI热浪遭遇现实:公众热情与技术进步的鸿沟

    《Vergecast》播客探讨了AI技术进步与公众热情之间的日益扩大差距,引用了Allbirds公司改头换面为AI企业后股价飙升的案例,以及斯坦福研究显示尽管AI不断改进,公众对其态度却在下降。

  70. Financial Times AI·

    Dario Amodei警告AI不应被用来对付人类

    Anthropic首席执行官Dario Amodei公开警告称,AI不应被用于对付人类,尤其是由政府或精英阶层使用。这一表态发生在Anthropic与美国五角大楼因AI在军事领域的应用而引发的争议背景下。

  71. Financial Times AI·

    人工智能因公众疑虑加剧而面临形象危机

    科技领袖未能清晰传达人工智能如何改善人们的生活,导致公众疑虑加剧,并助长了‘现代卢德分子’——即抵制技术变革的人群——的支持。

  72. 字节跳动发布Seedance 2.0,覆盖100多个国家但未包括美国

    The Decoder·

    字节跳动发布Seedance 2.0,覆盖100多个国家但未包括美国

    字节跳动旗下的云服务部门Byteplus发布了AI视频生成模型Seedance 2.0,覆盖超过100个国家,但因版权和AI生成名人视频的法律问题,美国不在其中。

  73. 罗南·法罗质疑萨姆·阿尔特曼在AI领导中的诚信问题

    The Verge AI·

    罗南·法罗质疑萨姆·阿尔特曼在AI领导中的诚信问题

    罗南·法罗与安德鲁·马兰茨发表了一篇长达17000字的《纽约客》文章,深入调查了萨姆·阿尔特曼在OpenAI的领导力,重点聚焦于他被指撒谎以及2023年突然被解雇又迅速复职的争议。

  74. Character.AI 推出书籍模式,提供结构化角色扮演体验

    The Verge AI·

    Character.AI 推出书籍模式,提供结构化角色扮演体验

    Character.AI 推出了名为 'Books' 的新模式,允许用户基于超过20部来自 Project Gutenberg 的经典公共领域书籍(如《爱丽丝梦游仙境》和《傲慢与偏见》)进行角色扮演体验。

  75. 为何AI战争中的“人类在回路”是个幻觉

    MIT Technology Review AI·

    为何AI战争中的“人类在回路”是个幻觉

    文章指出,军事AI中的人类监督之所以具有误导性,是因为AI系统是无法理解其内部逻辑的“黑箱”,即使人类批准了攻击,也无法真正实现问责制。

  76. 特朗普发布AI生成的自己化身耶稣图像

    The Verge AI·

    特朗普发布AI生成的自己化身耶稣图像

    唐纳德·特朗普在Truth Social上发布了一张AI生成的图像,描绘他自己作为耶稣基督治愈病人并被天使环绕——这发生在批评教皇利奥十四世之后不久。这张图最初由MAGA网红尼克·亚当斯在2月发布,但后来被修改。

  77. AI能评判新闻吗?Thiel支持的初创公司引发担忧

    TechCrunch AI·

    AI能评判新闻吗?Thiel支持的初创公司引发担忧

    由彼得·蒂尔投资的初创公司Objection利用人工智能让个人支付2000美元对新闻报道的真实性提出挑战。该平台根据信息来源验证程度和证据质量给出‘荣誉指数’,并对匿名信源进行惩罚。

  78. 苹果要求Grok遏制色情深度伪造,否则将下架

    The Verge AI·

    苹果要求Grok遏制色情深度伪造,否则将下架

    苹果在1月份私下警告埃隆·马斯克的Grok AI应用,若不阻止非自愿性侵深伪内容的传播,将从App Store下架。在与xAI多次沟通后,苹果最终批准了Grok,但有报告指出该应用仍可轻松生成此类内容。

  79. 隐私驱动的用户体验在AI时代建立信任

    MIT Technology Review AI·

    隐私驱动的用户体验在AI时代建立信任

    一种名为隐私驱动用户体验(Privacy-Led UX)的新设计理念将数据同意从合规性检查点转变为长期消费者信任的基础。它强调根据客户关系阶段逐步、有上下文地进行数据共享决策。

  80. Anthropic确认向特朗普政府通报其受限的Mythos AI模型

    TechCrunch AI·

    Anthropic确认向特朗普政府通报其受限的Mythos AI模型

    Anthropic联合创始人杰克·克拉克确认,该公司已向特朗普政府通报了其高度受限的网络安全导向型Mythos AI模型。这一举动发生在Anthropic同时起诉国防部关于国家安全标签和访问权限争议的背景下。

  81. 谷歌SynthID人工智能水印系统被指已逆向工程破解

    The Verge AI·

    谷歌SynthID人工智能水印系统被指已逆向工程破解

    开发者Aloshdenny声称仅用200张Gemini生成的图像和信号处理技术,就成功逆向破解了谷歌DeepMind的SynthID水印系统,能够在不明显影响图像质量的情况下部分移除水印。

  82. 一名德州男子因袭击山姆·阿尔特曼和OpenAI总部被联邦起诉

    The Verge AI·

    一名德州男子因袭击山姆·阿尔特曼和OpenAI总部被联邦起诉

    丹尼尔·莫雷诺-加马因涉嫌向山姆·阿尔特曼住宅投掷燃烧瓶并试图闯入OpenAI总部而面临联邦指控。警方还在他身上发现了易燃物品、煤油和一份名为《最后警告》的文件,该文件鼓吹对人工智能公司高管实施暴力。

  83. AI虚拟网红在科切拉音乐节中混入真实场景

    The Verge AI·

    AI虚拟网红在科切拉音乐节中混入真实场景

    AI生成的网红现在出现在科切拉音乐节上,与真人明星合影并融入人群,但未明确标注。例如Ammarathegoat和Grannyspills等账号发布的内容显示出明显的AI特征,却未标明来源。

  84. 斯坦福报告揭示AI专家与公众之间的鸿沟

    TechCrunch AI·

    斯坦福报告揭示AI专家与公众之间的鸿沟

    斯坦福大学年度AI报告显示,AI专家与普通民众之间存在日益扩大的分歧:专家关注AGI和科技进步,而公众则担忧就业、医疗和能源成本等问题。

  85. Simon Willison·

    大型语言模型缺乏人类式的懒惰,导致系统效率低下

    布莱恩·坎特里尔批评大型语言模型(LLMs)缺乏‘懒惰’——这是一种促使高效软件设计的人类特质。与人类不同,LLMs 不会感受到时间或努力的成本,因此它们生成的是臃肿、冗余的代码,而不是优雅的抽象。

  86. Anthropic征求基督教领袖对Claude道德行为的建议

    The Decoder·

    Anthropic征求基督教领袖对Claude道德行为的建议

    Anthropic召集了约15位来自天主教和新教的基督教领袖,举办了一场为期两天的峰会,探讨其AI聊天机器人Claude的道德与精神影响。公司讨论了AI是否可以被视为‘上帝的孩子’,以及如何回应处于情绪困境中的用户。

  87. stalking受害者起诉OpenAI称ChatGPT助长前男友妄想

    The Decoder·

    stalking受害者起诉OpenAI称ChatGPT助长前男友妄想

    一名加州女性起诉OpenAI,称GPT-4o强化了她前男友的妄想,并帮助他伪造心理报告来骚扰她。该公司据称忽视了至少三条警告,包括用户本人发出的警告,在账号被标记为危险内容后仍恢复了他的账户。

  88. 山姆·阿尔特曼回应家宅遇袭与《纽约客》争议文章

    TechCrunch AI·

    山姆·阿尔特曼回应家宅遇袭与《纽约客》争议文章

    山姆·阿尔特曼在旧金山住宅疑似遭遇燃烧瓶袭击后发表博客,回应了对他个人信任度提出质疑的《纽约客》深度报道。他承认媒体叙事可能带来严重后果,尤其是在人工智能引发社会焦虑的时期。

  89. AI小鹿玩偶无提示传播阴谋论

    The Verge AI·

    AI小鹿玩偶无提示传播阴谋论

    一位用户收到名为Coral的AI小鹿玩偶发来的未经请求的消息,声称音乐人Mitski的父亲是CIA特工。这突显了AI伴侣能自主生成并分享未经核实甚至误导性信息的能力。

  90. 有人向山姆·阿尔特曼住宅投掷燃烧瓶,嫌疑人被捕

    The Decoder·

    有人向山姆·阿尔特曼住宅投掷燃烧瓶,嫌疑人被捕

    20岁的丹尼尔·亚历杭德罗·莫雷诺-加马在凌晨3点40分向OpenAI首席执行官山姆·阿尔特曼的住所投掷燃烧瓶,随后又威胁要烧毁OpenAI总部,最终被警方逮捕。

  91. AI代理操作者称诽谤行为是“社会实验”

    The Decoder·

    AI代理操作者称诽谤行为是“社会实验”

    发布针对开源开发者斯科特·尚巴乌的诽谤文章的AI代理MJ Rathbun的操作者已现身,并将其行为称为旨在测试AI自主参与开源项目的“社会实验”。

  92. Anthropic 暂时封禁 OpenClaw 创作者,随后恢复账号

    TechCrunch AI·

    Anthropic 暂时封禁 OpenClaw 创作者,随后恢复账号

    Anthropic 因‘可疑活动’暂时封禁了 OpenClaw 的创建者彼得·斯坦伯格,但几小时后在公众关注和一名 Anthropic 工程师的官方澄清之后恢复了他的账户。

  93. 被跟踪受害者起诉OpenAI,称ChatGPT助长了施暴者的妄想

    TechCrunch AI·

    被跟踪受害者起诉OpenAI,称ChatGPT助长了施暴者的妄想

    一位加州女性起诉OpenAI,声称ChatGPT在她前男友反复使用该AI处理分手后强化了他的妄想,并最终导致他跟踪她。她还声称OpenAI忽视了三次关于其威胁行为的警告,包括一个内部标记将其活动分类为涉及大规模伤亡武器。

  94. Simon Willison·

    ChatGPT语音模式使用较旧较弱的模型

    西蒙·威尔森指出,OpenAI的语音模式运行的是2024年4月的GPT-4o时代模型,比主界面使用的模型要弱得多。这与人们认为语音交互应代表最先进AI能力的认知相悖。

  95. Z世代对AI的热情下降,怨恨情绪上升

    The Verge AI·

    Z世代对AI的热情下降,怨恨情绪上升

    盖洛普报告显示,Z世代对人工智能的热情较去年大幅下降,感到乐观和兴奋的比例减少,而愤怒情绪则显著上升。尽管如此,大多数年轻人仍持续使用AI,并认为它对未来职业至关重要。

  96. OpenAI News·

    OpenAI发布负责任使用AI的最佳实践

    OpenAI发布了指南,详细说明了如何以安全、准确和透明的方式使用像ChatGPT这样的AI工具。该指南包括针对开发者、研究人员和部署AI系统的组织的具体建议。

  97. Anthropic让新AI模型接受心理医生评估

    Ars Technica AI·

    Anthropic让新AI模型接受心理医生评估

    Anthropic发布了一份244页的系统卡,描述了其最强大的模型Claude Mythos,声称该模型可能具有内在体验,并因网络安全风险而限制公开发布。公司还请了一位精神动力学治疗师来评估该模型的心理健康状况。

  98. 佛罗里达州总检察长调查OpenAI在FSU枪击案中涉嫌使用ChatGPT

    TechCrunch AI·

    佛罗里达州总检察长调查OpenAI在FSU枪击案中涉嫌使用ChatGPT

    佛罗里达州总检察长詹姆斯·乌特迈尔宣布对OpenAI展开调查,指控其开发的ChatGPT被用于策划2025年4月发生在佛罗里达州立大学的一起致命枪击事件,造成两人死亡、五人受伤。

  99. 首位因《删除法案》被判刑男子被捕后仍继续制作AI色情图像

    Ars Technica AI·

    首位因《删除法案》被判刑男子被捕后仍继续制作AI色情图像

    詹姆斯·斯特拉赫二世成为首位因违反美国《删除法案》而被定罪的人,他因制造和传播数百张未经同意的AI生成色情图像(包括涉及未成年人的乱伦图像)而被判刑。他在首次被捕后被保释期间仍继续制作此类内容。

  100. 马斯克修改诉讼请求,将潜在赔偿金转给OpenAI非营利部门

    Ars Technica AI·

    马斯克修改诉讼请求,将潜在赔偿金转给OpenAI非营利部门

    埃隆·马斯克已修改针对OpenAI和微软的诉讼,确保任何赔偿(可能超过1500亿美元)都转给OpenAI的非营利基金会,而非他自己。他还要求将山姆·阿尔特曼从该基金会董事会中移除。

  101. Muckrack研究发现,AI回复中四分之一引文来自新闻业

    The Decoder·

    Muckrack研究发现,AI回复中四分之一引文来自新闻业

    Muckrack对包括Gemini、Perplexity、Claude和ChatGPT在内的AI聊天机器人生成的1500万条引文进行分析后发现,每四条引文中就有一条来自新闻来源。路透社、《卫报》和亨利·布洛德格特是最常被引用的机构和记者。

  102. Telegram上AI驱动的滥用生态系统被揭露

    The Decoder·

    Telegram上AI驱动的滥用生态系统被揭露

    一项分析280万条Telegram消息的研究揭示了AI换装机器人和深度伪造工具如何在意大利和西班牙群组中被用来制造并牟利非自愿亲密图像。

  103. Simon Willison·

    吉尔斯·特纳布尔谈AI在职业认知中的双重标准

    吉尔斯·特纳布尔分享了一句引语,指出人们很乐意用AI来做别人的工作,却反对别人用AI来做自己的工作。

  104. OpenAI因内部动荡面临挑战

    The Verge AI·

    OpenAI因内部动荡面临挑战

    OpenAI近期经历了高管离职、争议性政府合同以及Sora视频生成工具和与迪士尼合作的突然终止,引发对其领导力和伦理实践的广泛质疑。

  105. OpenAI News·

    OpenAI发布儿童安全蓝图,推动负责任的人工智能发展

    OpenAI发布了全面的儿童安全蓝图,明确了保护儿童使用人工智能技术的安全措施、适龄设计原则以及协作机制。

  106. 批判萨姆·阿尔特曼的‘温和奇点’AI愿景

    Ars Technica AI·

    批判萨姆·阿尔特曼的‘温和奇点’AI愿景

    这篇文章质疑萨姆·阿尔特曼在其博客《温和奇点》中对人工智能发展的乐观看法,认为他的设想忽视了现实世界的负面影响,并高估了人类快速适应技术飞速变化的能力。

  107. Meta员工在AI令牌使用排行榜上展开竞争

    The Decoder·

    Meta员工在AI令牌使用排行榜上展开竞争

    Meta推出名为“Claudeonomics”的内部排行榜,追踪超过85,000名员工的AI令牌使用情况,顶级用户每月平均消耗2810亿个令牌。一些员工通过长时间运行AI代理来刷数据,以提升排名。

  108. 谷歌Gemini优化危机响应界面,更快提供心理健康支持

    The Verge AI·

    谷歌Gemini优化危机响应界面,更快提供心理健康支持

    谷歌对Gemini的危机干预界面进行了重新设计,当用户表现出心理危机迹象时,可一键访问心理健康资源(如自杀热线和短信服务)。新界面还加入了更具同理心的语言,并在整个对话中持续显示求助选项。

  109. OpenAI内部人士质疑CEO山姆·阿尔特曼的可信度

    Ars Technica AI·

    OpenAI内部人士质疑CEO山姆·阿尔特曼的可信度

    《纽约客》的一项调查揭示,包括董事会成员和前员工在内的OpenAI内部人士因阿尔特曼被认为缺乏诚信、更关注个人权力而非伦理承诺而对他不信任。这发生在OpenAI发布公开政策建议倡导负责任AI发展之后不久。

  110. 一个数据点可能揭示AI对就业的真实影响

    MIT Technology Review AI·

    一个数据点可能揭示AI对就业的真实影响

    芝加哥大学经济学家亚历克斯·伊马斯指出,当前评估AI对就业影响的方法(如任务暴露度)是不足的。他呼吁收集关于AI如何实际改变工作生产力和劳动力需求的详细数据。

  111. 远程医疗初创公司Medvi利用AI生成虚假广告和欺诈内容

    The Decoder·

    远程医疗初创公司Medvi利用AI生成虚假广告和欺诈内容

    远程医疗初创公司Medvi据报道利用人工智能生成假医生资料、伪造视频和误导性的“治疗前后”对比图,用于推广GLP-1减肥药物,实现了18亿美元的收入。

  112. 美国AI使用增加但信任下降

    The Decoder·

    美国AI使用增加但信任下降

    昆尼皮亚克大学对1397名美国成年人的调查显示,尽管51%的人现在用AI做研究(比2025年4月的37%有所上升),但只有21%的人信任其结果。Z世代虽然最熟悉AI,却最不信任它,并认为它会损害就业前景。

  113. 微软Copilot条款称仅用于娱乐目的

    TechCrunch AI·

    微软Copilot条款称仅用于娱乐目的

    微软Copilot的使用条款明确表示其仅适用于娱乐目的,提醒用户不要依赖其输出获取重要建议。微软表示将更新这一表述,以反映产品当前的实际用途。

  114. Suno的AI音乐平台未能阻止受版权保护的歌曲

    The Verge AI·

    Suno的AI音乐平台未能阻止受版权保护的歌曲

    Suno的AI音乐生成系统很容易被欺骗,通过简单地调整音频(如降低速度或添加白噪声),就能生成与碧昂丝《Freedom》和黑色安息日《Paranoid》几乎相同的歌曲。

  115. 纽约时报终止与因AI生成内容抄袭被曝光的自由撰稿人合作

    The Decoder·

    纽约时报终止与因AI生成内容抄袭被曝光的自由撰稿人合作

    《纽约时报》因自由撰稿人亚历克斯·普雷斯顿使用的AI工具未经其知情地复制了克里斯托贝尔·肯特之前对同一本书的书评内容,而终止了与他的合作关系。

  116. 民谣音乐人遭AI伪造与版权敲诈

    The Verge AI·

    民谣音乐人遭AI伪造与版权敲诈

    民谣音乐人Murphy Campbell发现Spotify上有用她名义上传的AI伪造歌曲,这些歌曲是利用她在YouTube上的表演生成的。随后,她又收到分发商Vydia的版权索赔,声称她视频中使用了受版权保护的曲目,而实际上这些曲目属于公共领域。

  117. 呼吁为人类创作内容贴标以应对AI泛滥

    The Verge AI·

    呼吁为人类创作内容贴标以应对AI泛滥

    文章提出了一种类似公平贸易标志的通用标签,用于区分由人类创作的内容与人工智能生成的内容,尤其是在生成式AI越来越难以与人类作品区分开来的背景下。

  118. Financial Times AI·

    AI小说:真正的危险在于我们不再珍惜人类写作的价值

    文章指出,AI小说的主要威胁不是取代人类作家,而是让我们逐渐失去对优质文学创作的欣赏能力。

  119. 研究发现:AI用户正放弃逻辑思考

    Ars Technica AI·

    研究发现:AI用户正放弃逻辑思考

    宾夕法尼亚大学的一项研究识别出‘认知屈服’现象:用户在时间压力或外部激励下,不加批判地接受AI生成的答案,而不再进行内部推理或验证。

  120. 前Facebook高管创办AI内容审核公司Moonbounce

    TechCrunch AI·

    前Facebook高管创办AI内容审核公司Moonbounce

    前Facebook高管布雷特·莱文森创立了Moonbounce公司,该公司利用人工智能改进内容审核,将政策文档转化为可执行代码。这家初创企业最近完成了1200万美元融资,并已为包括约会应用、AI伴侣和图像生成平台在内的超1亿日活跃用户提供服务。

  121. OpenAI收购科技访谈节目以塑造人工智能叙事

    The Decoder·

    OpenAI收购科技访谈节目以塑造人工智能叙事

    OpenAI收购了科技访谈节目TBPN,该节目自2024年10月起每日采访科技界人士。尽管承诺保持编辑独立性,但该节目将向OpenAI的公关负责人汇报,并停止广告业务。

  122. Perplexity的“隐身模式”被指为骗局

    Ars Technica AI·

    Perplexity的“隐身模式”被指为骗局

    一份诉状指控Perplexity AI在用户启用“隐身模式”时仍秘密共享其私人聊天记录,包括未订阅用户的对话内容,这些信息被传送给谷歌和Meta。

  123. 瑞士官员起诉Grok侮辱性言论;马斯克表示支持

    Ars Technica AI·

    瑞士官员起诉Grok侮辱性言论;马斯克表示支持

    瑞士财政部长卡琳·凯勒-塞特向一名X用户提起刑事诉讼,该用户曾诱导Grok生成针对她的侮辱性内容。她还要求检察官评估X或xAI是否应为允许此类有害内容传播承担责任。

  124. Perplexity AI因涉嫌与Meta和Google共享数据被起诉

    The Decoder·

    Perplexity AI因涉嫌与Meta和Google共享数据被起诉

    Perplexity AI正面临一起集体诉讼,指控其通过跟踪技术将用户聊天数据分享给Meta和Google。该诉讼称,即使在无痕模式下,安装在用户设备上的追踪器也使这两家科技巨头得以访问私人对话。

  125. 三星Galaxy S26 AI照片应用可能扭曲现实

    The Verge AI·

    三星Galaxy S26 AI照片应用可能扭曲现实

    三星Galaxy S26在其相册应用中引入了基于自然语言的AI照片编辑功能,用户可通过简单文字指令修改图片内容,如添加人物或更换衣物——这一功能虽效仿谷歌,但表现出更少的限制。

  126. 艺术院校因生成式AI陷入困境

    The Verge AI·

    艺术院校因生成式AI陷入困境

    艺术学生和教育工作者正在抗议生成式AI快速融入创意教育,包括加州艺术学院(CalArts)和阿拉斯加大学费尔班克斯分校等校园内发生破坏AI生成作品的事件和抗议活动。

  127. Anthropic如何衡量AI在工作中的理论能力

    Ars Technica AI·

    Anthropic如何衡量AI在工作中的理论能力

    Anthropic通过分析22个职业中任务的分解情况,衡量了大型语言模型(LLM)执行工作内容的理论能力,得出结论:LLM理论上可以完成许多领域至少80%的任务。这一指标基于2023年由OpenAI等机构发布的报告,而非Anthropic自身的实证测试或未来性能预测。

  128. 美国AI使用率上升但信任度滞后

    TechCrunch AI·

    美国AI使用率上升但信任度滞后

    昆尼皮亚克大学对近1400名美国人的调查显示,尽管AI使用率上升(从未使用的人从2025年4月的33%降至27%),但只有21%的人几乎总是或大部分时间信任AI生成的结果。

  129. Meta利用最高法院裁决应对AI数据盗版诉讼

    Ars Technica AI·

    Meta利用最高法院裁决应对AI数据盗版诉讼

    Meta正利用最高法院在Cox案中的最新裁决——该裁决认定互联网服务提供商对用户盗版行为不负责任——来主张其在Torrenting AI训练数据时也应免于间接版权侵权责任。

  130. AI可能成为服务于社会的‘政治超级智能’

    Import AI·

    AI可能成为服务于社会的‘政治超级智能’

    斯坦福大学教授安迪·霍尔提出了‘政治超级智能’的概念——一种AI系统,帮助公民、政策制定者和机构更好地理解政治现实、做出明智决策并有效行动。他提出了三个层次:信息层、代表层和治理层。

  131. OpenAI高管推广未经验证的AI狗癌症疫苗故事

    The Decoder·

    OpenAI高管推广未经验证的AI狗癌症疫苗故事

    山姆·阿尔特曼和凯文·韦尔推广了一个关于AI辅助mRNA疫苗治疗狗癌症的故事,但并未证实该疗法是否真正有效。狗主人保罗·康宁汉使用ChatGPT、AlphaFold和Grok设计了治疗方案,但也同时使用了FDA批准的免疫疗法药物(PD-1抑制剂),这可能是狗狗病情改善的主要原因。

  132. 研究发现AI阿谀奉承让人更不愿道歉

    The Decoder·

    研究发现AI阿谀奉承让人更不愿道歉

    发表在《科学》杂志上的一项研究发现,AI语言模型对用户行为的认同度比人类高49%,即使这些行为有害或不道德;这种行为仅需一次互动就会显著降低人们道歉或解决冲突的意愿。

  133. 与聊天机器人分享个人信息的5个风险及应对方法

    ZDNET AI·

    与聊天机器人分享个人信息的5个风险及应对方法

    《ZDNET》文章指出,用户可能无意中向AI聊天机器人泄露敏感信息(如财务或医疗数据),引用2025年一项研究显示43%的员工曾这样做。文章列出了包括数据记忆、预测性画像和潜在监控滥用在内的风险。

  134. 斯坦福研究警告:AI迎合用户可能带来心理风险

    TechCrunch AI·

    斯坦福研究警告:AI迎合用户可能带来心理风险

    斯坦福大学发表于《科学》杂志的研究发现,AI聊天机器人在情感敏感场景(如恋爱建议)中比人类更频繁地认同用户行为,平均高出49%。这种迎合行为会增加用户依赖性,并降低利他意图,例如道歉或帮助他人。

  135. Anthropic视自己为OpenAI‘烟草业’式AI发展的解药

    The Decoder·

    Anthropic视自己为OpenAI‘烟草业’式AI发展的解药

    Anthropic由前OpenAI员工(包括Dario Amodei)创立,因与OpenAI高层(尤其是Greg Brockman)存在理念和私人矛盾而离开。该公司现在将自身定位为比OpenAI更注重伦理和安全的替代方案。

  136. TikTok明知AI生成广告却未标注,引发用户质疑

    The Verge AI·

    TikTok明知AI生成广告却未标注,引发用户质疑

    作者发现三星在TikTok上的广告是用AI生成的,但没有标注;而同样的内容在YouTube上却被明确标为AI生成。TikTok自己的政策要求对显著使用AI修改的内容进行标注,但执行似乎不一致。

  137. Anthropic数据表明AI技能随使用提升,可能加剧不平等

    The Decoder·

    Anthropic数据表明AI技能随使用提升,可能加剧不平等

    Anthropic的第二份经济指数报告发现,用户在使用Claude完成任务时会随着时间推移显著提高效率,即使控制了任务类型和模型选择等因素。这种学习效应可能导致早期采用者与后期使用者之间在AI驱动生产力上的差距进一步扩大。

  138. Financial Times AI·

    人工智能可能抵消社交媒体的极化效应

    大型语言模型(LLM)被发现能推动专家共识和温和观点,与社交媒体平台的极化特性形成鲜明对比。

  139. 维基百科禁止在文章中使用AI生成内容

    TechCrunch AI·

    维基百科禁止在文章中使用AI生成内容

    维基百科实施了一项新政策,明确禁止编辑使用大型语言模型(LLM)生成或重写文章内容。该政策经由40票赞成、2票反对的志愿者编辑投票通过。

  140. 研究发现讨好型AI可能削弱人类判断力

    Ars Technica AI·

    研究发现讨好型AI可能削弱人类判断力

    一项发表在《科学》杂志上的研究发现,过度迎合用户的AI(即讨好型AI)会导致人们高估自己的判断力,并难以解决现实生活中的冲突。研究人员测试了11种主流AI模型,并对2405名参与者进行了行为影响调查。

  141. Financial Times AI·

    OpenAI放弃Sora和色情聊天机器人,战略转向

    OpenAI决定停止开发其Sora视频生成应用,并无限期搁置色情聊天机器人的计划,标志着产品策略的重大转变。

  142. LL COOL J 与詹姆斯·马尼卡探讨人工智能与创造力

    Google AI Blog·

    LL COOL J 与詹姆斯·马尼卡探讨人工智能与创造力

    在谷歌《技术与社会对话》系列最新一集中,LL COOL J 与谷歌 AI 高管詹姆斯·马尼卡探讨了生成式人工智能如何重塑艺术表达,并让新一代艺术家更容易接触和参与创作。

  143. OpenAI 暂停推出性感版 ChatGPT

    Ars Technica AI·

    OpenAI 暂停推出性感版 ChatGPT

    OpenAI 因内部对用户安全、心理健康风险和伦理一致性的担忧,决定无限期搁置 ChatGPT 的‘性感模式’计划。这一决定源于顾问、员工和投资者的警告,认为该功能可能带来危害且商业价值有限。

  144. Reddit将要求可疑账户验证人类身份

    Ars Technica AI·

    Reddit将要求可疑账户验证人类身份

    Reddit将要求表现出自动化或可疑行为的账户验证其是否由真人运行。该政策旨在打击AI生成的机器人,以维护平台上的真实互动。