Google 为 AI 搜索加入论坛观点
TechCrunch AI··作者 Amanda Silberling
关键信息
Google 表示,这项变化是为了满足那些越来越希望从他人经验中获取建议的搜索需求,而不只是看网页内容。此次更新发生在 AI Overviews 仍可能出现错误和可疑引用的背景下,因此新增来源标签旨在帮助用户判断信息是否可信。
资讯摘要
Google 正在调整其 AI 搜索体验,让它显示来自网络论坛、博客、社交媒体和新闻订阅的更多上下文信息。公司表示,这样做是为了帮助用户找到最有用的观点,尤其是在那些人们更想听取他人建议、而不只是得到单一事实答案的搜索场景中。实际效果是,AI 回复现在会包含来自公开在线讨论和其他第一手来源的观点预览。Google 还会加入创作者姓名、账号名或社区名称等元数据,帮助用户更好地判断链接来源。
这样的设计可能会让用户更容易发现相关讨论,包括 Reddit 话题和类似论坛帖子。与此同时,这项更新也模糊了传统搜索结果页与 AI 回答框之间的界限。文章指出,AI Overviews 过去已经出现过尴尬或错误的建议,而基于 LLM 的系统仍然会产生幻觉。新增的来源上下文也许能帮助用户评估引用,但并不能消除用户自行核实 AI 是否准确转述来源的必要性。

资讯正文
谷歌正在更新搜索功能,通过为链接添加更多上下文——比如来自网络论坛和博客的摘录——来优化其 AI 体验,同时还新增了一项功能,会突出显示用户新闻订阅中的相关链接。
虽然引用网络论坛和讨论板可以帮助用户找到更小众问题的答案,但这种设计选择也可能带来混乱。
两年前,谷歌大幅改造了其搜索体验,将 AI 放在核心位置——当你搜索某个内容时,谷歌通常会调用一个“AI Overview(AI 概览)”,这也引发了用户褒贬不一的反应。人们很快指出,这项功能可能会被利用,因为它无法识别讽刺,也无法识别来自可疑来源的信息。(它曾在告诉某人“每天吃一块小石头”时引用了 The Onion,也曾借助 Reddit 建议某人在披萨上抹胶水,这样奶酪会更容易粘住。)
尽管谷歌的 AI Overviews 已经有了显著改进,但它们仍然——和任何由 LLM 驱动的东西一样——容易出现幻觉。纽约时报最近的一项分析发现,AI Overviews 的回答大约有十分之九是正确的。但对于一家每年处理数万亿次查询的公司来说,这样的成功率意味着每分钟都有数十万次搜索给出不准确的结果。
当然,并不是每一次搜索都有明确的是或否答案,这也是为什么谷歌可能想要引入网络论坛中人们讨论这类问题的声音——人们在谷歌搜索时经常在末尾加上“Reddit”,就有这个原因。
谷歌解释说:“对于许多搜索,人们越来越多地寻求来自他人的建议。为了帮助你找到最有用、值得进一步探索的见解,AI 回复现在将包括来自公开在线讨论、社交媒体以及其他第一手来源的观点预览。我们也在为这些链接添加更多上下文,比如创作者姓名、账号名或社区名称,以帮助你决定哪些讨论值得阅读或参与。”
但现在,谷歌正在让其 AI Overviews 的角色变得更复杂。AI Overview 到底是应该回答问题,还是应该为你提供一系列可能包含你所需信息的来源?这不基本上就是普通的谷歌搜索吗?
至少,谷歌会为 AI Overview 评论内容的来源添加更多上下文,这或许能帮助用户判断自己拿到的是不是来自可信来源的信息。这有点类似于 ChatGPT 或 Claude 有时会提供链接,试图为其说法提供佐证。
不过,我们仍然建议你再三核实,确保 AI 没有幻觉般地“编造”这些引文的有效性。
来源与参考
收录于 2026-05-07