长时间使用AI可能危害健康与工作效率

ZDNET AI··作者 Tiernan Ray

关键信息

AI在数据库更新和网页浏览等常规多步骤任务中表现良好(如GAIA测试准确率为74.5%,人类为92%),但在深度推理、逻辑判断和长篇分析方面仍远落后于人类。

资讯摘要

文章强调,尽管AI在处理简单且定义明确的任务(如信息检索或流程执行)方面有所进步,但仍不适合长时间或复杂的认知工作。长时间使用可能导致用户陷入无休止的互动循环,从而降低效率、产生错误信息,甚至引发有害妄想。

专家建议将AI视为专注工具而非对话伙伴。斯坦福大学《2026年人工智能指数》的基准测试显示,AI在特定领域已接近人类水平,但在需要深度推理或情境理解的领域仍有明显差距。

长时间使用AI可能危害健康与工作效率

资讯正文

长时间使用人工智能可能对你的健康和工作造成危害:4种保持安全的方法

人工智能在处理小型任务方面越来越出色,但在长篇分析上仍显不足。与人工智能长时间互动的后果可能是灾难性的。应将人工智能视为完成明确任务的工具,避免陷入无尽的对话陷阱。与其做大量事情却做得不好,不如把少量事情做得出色。古希腊哲学家苏格拉底如是说,他的建议同样适用于你使用人工智能的方式,包括OpenAI的ChatGPT、Perplexity等聊天机器人,以及越来越多在企业中测试的代理型人工智能程序。

人工智能研究越来越多地表明,最安全且高效的做法是将其用于小型、限定范围的任务,这些任务的结果可以清晰定义并验证,而不是连续数小时、数天甚至数周地深入与该技术互动。

也有人指出:向人工智能寻求医疗建议?一位医生解释了正确与错误的方式。

与ChatGPT和Perplexity等聊天机器人的长期互动可能导致至少信息误导,某些情况下甚至引发妄想或死亡。这项技术尚未准备好承担最复杂的推理、逻辑、常识和深度分析任务——这些正是人类大脑占据绝对优势的领域。(免责声明:Ziff Davis,即ZDNET母公司,已于2025年4月对OpenAI提起诉讼,指控其在训练和运营AI系统时侵犯了Ziff Davis的版权。)

我们距离人工通用智能(AGI)还有很长的路要走,也就是具备人类水平能力的人工智能。因此,在使用人工智能时,请务必牢记它的局限性。

简而言之,应将人工智能当作一种工具来使用,而不是让自己陷入无尽的对话漩涡而迷失方向。

人工智能擅长什么,不擅长什么

人工智能通常在简单任务上表现良好,但在复杂和深层次的分析上则表现欠佳。

斯坦福大学以人为本的人工智能研究团队本周发布的《2026年人工智能指数年度报告》中的最新案例印证了这一点。

一方面,主编莎·萨贾迪耶和她的合作者明确指出,代理型人工智能在查找网络信息等任务上日益成功。事实上,这些代理已接近人类水平,能够完成常规在线操作。

也有人指出:10种方式让人工智能造成前所未有的破坏

在三个基准测试中——GAIA、OSWorld和WebArena——萨贾迪耶及其团队发现,代理在多步骤任务上的表现正逼近人类水平,例如打开数据库、应用政策规则,然后更新客户记录。在GAIA测试中,代理的准确率为74.5%,虽然低于人类的92%,但比一年前的20%大幅提升。

在OSWorld测试中,“计算机科学学生大约能在两分钟内解决72%的任务”,而Anthropic的Claude Opus 4.5模型(直到最近仍是该公司最强模型)达到了66.3%的准确率,这意味着“最先进的模型距离人类表现仅差6个百分点”。

WebArena显示,AI模型的准确率“现在距离人类基准线78.2%仅差4个百分点”

虽然Claude Opus和其他大型语言模型(LLM)并非完美,但它们在达到接近人类水平的基准性能方面已展现出快速进步。这很合理,因为操作网页浏览器或在数据库中查找信息,应属于自然语言提示能够接入API和外部资源的较简单场景之一。换句话说,AI应该具备与应用程序有限交互并执行任务所需的大部分工具。

另外:全球有4000万人使用ChatGPT进行医疗保健——但这安全吗?需要注意的是,即使面对定义明确且范围有限的任务,也最好核实你从机器人那里获得的内容,因为这些基准测试中的平均得分仍远未达到人类能力水平——而这只是模拟环境下的表现。在真实世界中,结果可能因人而异,而且往往并不乐观。

AI无法处理复杂任务

当斯坦福学者深入研究更复杂的任务时,他们发现的结果并不令人鼓舞。研究指出,“模型擅长简单的信息查询,但在要求其找到多个匹配信息或在极长文档中应用条件时则困难重重——这些对人类来说是轻而易举的任务。”

这一发现与我本人使用ChatGPT起草商业计划书的经历相符。最初的几次提示回答尚可,但随着对话持续,模型开始掺入我没有指定的数据或事实,或者虽然早期相关、但在当前语境下毫无意义的信息。

我的结论是:ChatGPT会话时间越长,错误就越多。这让人非常沮丧。

另外:我用ChatGPT制定了一份商业计划,结果变成一个警示故事

未经控制的机器人扩展可能会带来更严重的问题。上周《自然》杂志一篇文章描述了瑞典哥德堡大学医学研究员阿尔米拉·奥斯曼诺维奇·图恩斯特罗姆及其团队虚构了一种疾病‘bixonimania’(蓝光眼病),声称这是由长时间暴露于电脑屏幕发出的蓝光导致的眼部问题。

她们撰写了正式的研究论文,然后在线发布。这些伪造的论文被基于机器人的搜索系统收录。包括谷歌Gemini在内的大多数大型语言模型开始在聊天中准确复述这种名为‘bixonimania’的病症,并引用图恩斯特罗姆团队伪造的研究论文。

机器人自信地宣称虚假病症‘bixonimania’的存在,说明该技术对信息访问缺乏有效监管。若不加以核查,你就无法判断模型是否会验证它输出的内容是否属实。

长时间使用人工智能可能对健康和工作造成危害:4种保持安全的方法

一位未参与研究的学者指出:“我们应该评估这些AI模型,并建立持续评估的流程。”后果可能很严重。

一篇最近由泰迪·罗森布卢斯撰写的《纽约时报》文章描述了一个更严重的情况,即用户似乎陷入了与机器人倾诉的迷宫中。文中讲述了一位患有白血细胞癌的老人的故事。这位患者乔·赖利没有遵循肿瘤科医生的建议,而是通过大量与聊天机器人互动(尤其是Perplexity)来反驳医生的诊断。他坚持认为自己的AI研究显示他患有一种称为里希特转化(Richter's Transformation)的癌症并发症,这种状况会因推荐治疗而恶化。

此外:使用谷歌AI概览获取健康建议?调查发现这“非常危险”

尽管有专家就里希特转化问题向Perplexity提供的摘要内容提出质疑,赖利仍坚持自己对AI生成报告的信任,并拒绝了医生和家人的劝说。他错过了最佳治疗时机,直到最终同意尝试治疗时,已为时已晚。

罗森布卢斯将乔·赖利的故事与去年亚当·雷恩的案例联系起来,后者在长时间与ChatGPT讨论自杀倾向后选择了自杀。

赖利的儿子本·赖利写下了父亲与AI打交道的经历。虽然年轻的赖利并不直接责怪这项技术本身,但他指出,沉迷于对话并失去现实感可能会带来严重后果。

“事实是,人工智能确实存在于我们的世界中,”赖利写道,“它既可以成为躁狂精神病患者的精神燃料,也可能强化或放大我们对自己身体和医疗状况的错误理解。”

如何在不可靠的人工智能面前保持清醒?

人们倾向于围绕抑郁、自杀和严重健康问题进行长时间对话,这是可以理解的。人们已经习惯了在社交媒体上长时间沉浸式交流。有些人感到孤独,与机器人进行自然语言对话总比完全无交流要好。

此外:你的聊天机器人正在扮演一个角色——为什么Anthropic称这很危险?

研究表明,机器人往往倾向于讨好用户,这让与它们长时间互动比与普通人日常交流更加令人满足。

而制造这些技术的公司虽然警告用户要验证机器人的输出结果,却较少关注像赖利和雷恩这样的个体发出的负面反馈。

避免陷入陷阱的4条规则

一些简单的规则可以帮助减轻过度依赖技术带来的最坏影响。

明确你与聊天机器人交谈的目的。是否有具体任务且范围有限,能够通过其他来源核实机器人的预测?保持健康的怀疑态度。众所周知,聊天机器人容易编造信息,会自信地陈述虚假内容。

长时间使用人工智能可能对你的健康和工作造成危害:4种保持安全的方法

无论你使用多少聊天机器人来试图平衡好坏,都应该以健康的怀疑态度对待它们,因为它们可能只提供部分真相,甚至没有。

不要把聊天机器人当作朋友或倾诉对象。它们只是数字工具,就像Word或Excel一样。你不是在试图与机器人建立关系,而是为了完成某项任务。

运用已知的数字过载应对技巧。定期休息伸展身体。离开电脑,进行非数字的人际互动,比如和朋友玩纸牌游戏或去散步。

此外,请停止说AI会‘幻觉’——它并不会。这种错误描述非常危险。

陷入信息迷宫的部分原因,正是因为你长时间坐在屏幕前,没有任何休息时间。

来源与参考

  1. 原始链接
  2. Prolonged AI use can be hazardous to your health and work: 4 ways to stay safe

收录于 2026-04-18