与聊天机器人分享个人信息的五大风险及应对方法
ZDNET AI··作者 Erin Carson
关键信息
斯坦福大学的珍妮弗·金等研究人员警告称,大型语言模型(LLM)可能会记住用户的输入内容,即使并非有意为之,而企业通常缺乏关于如何处理或脱敏训练数据的透明度,这引发了长期数据泄露的担忧。
资讯摘要
文章讨论了人们越来越频繁地向聊天机器人分享健康记录、财务信息和情感困扰等个人信息,却常常意识不到其中的风险。专家指出,模型可能会存储或推断出敏感信息,并被用于监控或转卖给第三方。例如,一个关于心脏健康饮食的请求可能将用户标记为‘健康脆弱人群’并落入保险公司手中。
即使数据未被原样保存,基于模式的预测仍可能伤害用户。文章呼吁用户限制分享内容,并敦促公司加强数据使用的防护措施和政策透明度。

资讯正文
你与聊天机器人交谈时应该更加谨慎的5个理由(以及如何弥补过去的错误)
你有多愿意向你的聊天机器人倾诉?它是否会解读你的化验结果?帮你理清财务状况?在凌晨两点你焦虑不安时提供建议?在没有深思熟虑的情况下,你可能正在透露大量关于自己的个人信息,而这可能会带来问题。
随着越来越多的人将聊天机器人融入日常生活,研究人员正在努力探究向人工智能提供个人数据所带来的影响。
据埃隆大学2025年的一项研究显示,超过一半的美国成年人使用大型语言模型。此外,43%的职场人士表示他们曾向AI分享过敏感信息,包括财务和客户数据。
如今,人们已经听过不少故事:有人与聊天机器人发展出浪漫关系,也有人将其当作人生教练或心理治疗师。事实上,聊天机器人被设计成友好且能持续吸引用户对话——而对话的内容往往正是用户自己。
斯坦福大学以人为本的人工智能研究所隐私与数据政策研究员詹妮弗·金(Jennifer King)表示:“最大的问题是,你根本无法控制这些信息最终会去往何处,它们可能以你意想不到的方式泄露出去。”
尽管这个理论听起来抽象,但像金这样的研究人员指出,值得认真思考你告诉聊天机器人的内容,以及这些信息未来可能带来的后果。
以下是关于与聊天机器人过于亲密时你需要了解的六个要点。
1. 记忆、预测与监控
那么,向聊天机器人提供有关你个人的敏感信息究竟有什么危害呢?目前尚无确切答案,而这恰恰是问题所在。研究人员的一个关注点是:这些模型是否会记住信息?如果会,这些信息能否被原样或几乎原样重新提取出来?
记忆功能其实是《纽约时报》对OpenAI提起诉讼的核心争议之一。(OpenAI曾在2024年的一份声明中表示,“复述”是一种罕见的错误,公司正试图消除这一问题。)
(免责声明:Ziff Davis,即ZDNET的母公司,已于2025年4月对OpenAI提起诉讼,指控其在训练和运营AI系统过程中侵犯了Ziff Davis的版权。)
金说:“我们非常依赖企业做出正确的事情,并采取措施防止被记住的数据再次泄露。”
互联网上充斥着各种个人资料,包括公开记录中的信息,这些都可能成为训练数据的一部分。或者有人上传了未做脱敏处理的文档,比如放射科报告或医疗账单。
金指出,令人担忧的是,所有这些数据可能被用于监控目的。
这个由Signal创始人推出的新工具为你的聊天内容增加了端到端加密。
如果这种担忧听起来有些夸张,King提到了Anthropic公司最近与美国国防部之间的争执,当时该公司反对其产品被用于大规模国内监控。“那次事件中最重要的一点是,人们默认这些技术可能被用于大规模公共监控,”她说,“这正是我们担心的事情——你可以利用这些模型分析大量不同的数据点。”
即使模型本身没有特定数据,它们仍可能对个人做出预测。
在斯坦福大学的一篇文章中,King以团队研究为例,指出一个关于健康晚餐的请求经过开发者生态系统处理后,可能会将你归类为“健康脆弱人群”,而这一信息最终落入保险公司手中。
King的研究发现表明,并非所有公司都在积极应对这些问题。一些组织会在使用数据训练模型前进行去标识化处理,例如模糊上传照片中的人脸,从而防止未来用于人脸识别;但另一些公司可能根本未采取任何措施。
2. 你的设置可能过于宽松
尽管平台的设置通常复杂难懂,但花时间了解选项仍然值得。像Claude和ChatGPT这样的聊天机器人提供了私密聊天功能。如果你使用Claude的隐身聊天模式,对话不会保存到你的聊天历史记录中,也不会用于模型训练。不过,这类设置并非固定不变;ChatGPT的临时聊天也适用同样的规则。
平台上还可能存在其他选项,允许你删除聊天记录,或选择不让自己的对话内容被纳入模型训练数据。
此外:5个简单调整Gemini设置的方法,保护你免受AI侵犯隐私
King还提醒人们,比如要清楚自己是在用个人账户还是工作账户。“很多人要么不知道,要么会忘记自己跟AI聊了什么,”她说,“这是你的工作环境、工作AI,而你曾告诉它你感到非常抑郁——在这种情况下,员工并没有理由期待隐私。”
3. 情绪透露额外信息
大多数人上网时已经习惯一定程度的信息披露。即使是谷歌搜索也可能包含关于一个人生活的敏感信息。
但与聊天机器人的对话则会带来更多细节和背景。“一个搜索查询远不如一整段聊天记录那样揭示一个人的情绪状态,”King表示,将搜索自杀预防热线与长达一千行的文本对比,后者详细描述了一个人最深层的想法和感受,显然更具暴露性。
4. 人类可能正在阅读
众所周知,AI并不是人类。对某些人来说,这种认知反而让他们更愿意分享敏感信息。但正因为没有真人回复,并不代表没有人能读取你的消息。
此外:Meta员工能否通过你的雷朋智能眼镜窥探你?
安全专家指出,某些平台会使用人类进行强化学习,即系统在一定程度上根据人类输入进行训练。例如,如果你标记了聊天机器人的回复,全球某处的工作人员可能会检查该回复,以改进模型。正如金所说,你输入的内容何时会被人类审查,并不总是清晰明了。
5. 政策滞后
这些要点之所以特别棘手,是因为目前缺乏对AI公司如何存储敏感数据的监管。
例如,《加州消费者隐私法案》对医疗记录等数据的处理有特定要求,必须区别于其他类型的数据。但美国各州之间的法规可能不同,在联邦层面则根本没有任何监管。
“如果我们有能保护我们的法律,风险就不会这么大,”金说。
如果你已经说了太多……
如果你发现自己因为可能已向聊天机器人透露太多信息而感到尴尬,或许还有几种应对方法。金建议删除你过去与聊天机器人之间的对话记录和个人化设置,以防止未来再次泄露。
不过金也表示,研究人员并不清楚这些步骤是否真的能从训练数据中移除你的个人信息。
每个平台都有自己的个人数据处理政策和方法,可能需要深入研究。以下是一些主要厂商提供的相关资源链接:
OpenAI、ChatGPT
Anthropic、Claude
Google、Gemini
Microsoft、Copilot
来源与参考
收录于 2026-03-30