研究发现:AI用户正放弃逻辑思考

Ars Technica AI··作者 Kyle Orland

关键信息

该研究区分了‘认知屈服’与健康的‘认知卸载’——后者指用户会核查AI输出;研究显示,当AI回答流畅且自信时,即使用户知道AI可能出错,也更可能选择屈服。

资讯摘要

宾夕法尼亚大学的研究人员发现,许多人现在在使用大语言模型(LLM)时会主动放弃自己的逻辑推理,这种行为被称为‘认知屈服’。与计算器或GPS等传统工具不同,现代LLM常以令人信服的方式快速给出答案,导致用户跳过核查步骤。这种屈服最常见于时间压力或存在奖励机制(如追求速度或准确性)时。

研究提出了人类认知的新模型:系统1(快速、直觉)、系统2(缓慢、分析),以及系统3(由算法驱动的外部认知)。研究人员警告称,如果不加以控制,这种趋势可能会侵蚀人类的推理能力。

研究发现:AI用户正放弃逻辑思考

资讯正文

研究表明,‘认知投降’导致AI用户放弃逻辑思维

在大型语言模型驱动的工具面前,用户通常分为两大类。一类人将AI视为一种强大但偶尔出错的服务,需要仔细的人工监督和审查,以发现回答中的推理或事实错误。另一类人则习惯性地将批判性思维外包给他们认为无所不知的机器。

最近的研究为第二类人群提供了一个新的心理学框架,这类人群经常对AI看似权威的答案进行‘认知投降’。该研究还通过实验探讨了人们愿意将批判性思维外包给AI的时机与原因,以及时间压力和外部激励等因素如何影响这一决策。

只需询问答案机器

在题为《思考——快速、缓慢与人工:AI如何重塑人类推理及认知投降的兴起》的研究中,宾夕法尼亚大学的研究人员试图在现有学术基础上进一步拓展:决策方式大致可分为两类——一类由‘快速、直觉且情感驱动的处理’(系统1)塑造;另一类由‘缓慢、深思熟虑且分析性的推理’(系统2)塑造。研究人员指出,人工智能系统的出现催生了一种全新的‘人工认知’类别,其中决策由‘源自算法系统的外部、自动化、数据驱动的推理’所驱动,而非人类心智本身。

过去,人们常借助计算器到GPS系统等工具实现特定任务的‘认知卸载’,有策略地将部分工作委托给可靠的自动化算法,同时依靠自身内部推理来监督和评估结果。但研究人员强调,AI系统引发了一种本质不同的‘认知投降’形式,即用户仅提供最低限度的内在参与,不加审查或验证便全盘接受AI的推理过程。这种‘对推理本身的无批判放弃’尤其常见于大型语言模型输出流畅、自信或几乎无摩擦时。

来源与参考

  1. 原始链接
  2. "Cognitive surrender" leads AI users to abandon logical thinking, research finds

收录于 2026-04-04