Meta监督委员会:社区笔记无法应对AI虚假信息
The Decoder··作者 Maximilian Schreiner
关键信息
仅约6%的笔记提案会被发布,平均延迟超过24小时——远超误导性内容的传播高峰期;同时,收到笔记的内容发布者不会受到任何惩罚或影响。
资讯摘要
Meta的监督委员会对‘社区笔记’进行了严厉批评,该系统是在终止为期十年的专业事实核查项目后推出的。委员会发现,该系统存在严重延迟、极低的发布率(仅6%的提案被采纳),并容易受到使用AI工具的有组织操纵。与过去可降低虚假内容曝光度或禁止广告投放的事实核查不同,社区笔记不会影响内容的传播范围或收入。
委员会警告称,AI使操纵更加容易,包括大规模创建账号和战略性抑制好评。在某些国家,委员会建议不应推出该计划。

资讯正文
Meta的监督机构警告称,社区注释无法应对人工智能制造的虚假信息
Meta的监督委员会已审查了社区注释计划的全球扩展。其结论是:该系统反应太慢、人员配备不足,且容易被操纵,尤其是在人工智能生成的虚假信息日益增多的情况下。在某些国家,Meta甚至不应推出这一项目。
Meta监督委员会在一项全面分析中得出了一个并不意外的结论:社区注释——Meta用来在美国取代专业事实核查的系统——存在显著缺陷。委员会写道:“注释发布延迟、已发布注释数量有限,以及对整体信息环境可靠性的依赖,引发了人们对社区注释能否有效应对造成伤害的虚假信息的重大疑问。”
Meta在特朗普总统第二个任期开始时宣布推出社区注释,同时终止了运行约十年的专业事实核查项目。
问题因委员会明确指出的一项发展而进一步加剧:由人工智能驱动的工具正在加速创建和管理账户与网络,这些可能用来操纵该系统。覆盖差距巨大:根据Meta的数据,美国推出社区注释的前六个月里,仅发布了约900条注释;而在同一时期,欧洲的专业事实核查机构帮助Meta为大约3500万条Facebook帖子贴上了标签,国际事实核查网络主任安吉·德布尼克·霍兰(Angie Drobnic Holan)指出。
仅有6%的提案注释会被发布
社区注释系统基于X平台(原推特)的开源算法构建。用户可以为公开帖子提出背景性注释,其他用户则可将这些注释标记为“有用”或“无用”。只有当所谓的“桥梁算法”确定通常持不同意见的用户都标记为“有用”时,这条注释才会被发布。
实际上,大多数注释都无法通过这一门槛。根据Meta在2025年9月的一份更新报告,所有提出的注释中仅有约6%最终被发布。一项研究显示,在X平台上,这一比例为8.3%,平均发布时间延迟达26小时,“远超多数误导性内容的峰值可见度时间”。另一项分析则指出平均延迟时间为65.7小时。根据同一项研究,在2021年1月至2025年1月期间,X平台上87.7%的提案注释始终停留在“需要更多评分”类别中,从未被发布。
与旧的事实核查项目的一个关键区别在于:根据委员会的说法,收到社区注释的内容不会被降权,也不会从推荐中移除。委员会指出:“发布带有社区注释的内容不会受到处罚,也不会影响内容的传播范围或变现能力。”相比之下,在专业事实核查项目下,被判定为虚假或误导的内容可能会在分发中被降级,并被拒绝用于广告投放。
Meta的独立监督机构警告称,社区笔记无法应对人工智能制造的虚假信息。
该监督委员会明确指出,该系统容易受到有组织操纵的威胁,而人工智能工具极大地促进了这种操纵。分析指出:“随着人工智能促进账户和网络的大规模创建与运营,这种风险将变得更加严重。”委员会还指出,由人工智能驱动的贡献者也存在风险:“恶意行为者可以微调模型,以微妙地偏袒特定叙事,选择性地呈现证据,或利用评分机制——同时保持中立的表象。”
对X平台社区笔记的最新研究也显示,“一小部分(5%至20%)的不良评分者可以战略性地压制针对特定内容的帮助性笔记。”另一个漏洞在于:根据委员会的说法,发布的笔记要等到达成共识两周后才会“锁定”。在这段窗口期内,有组织的行为者可以通过大量负面评分来删除一条笔记。
Meta向委员会表示,它“目前不打算允许AI撰写笔记(即由AI驱动的聊天机器人或代理)在Meta平台上提交社区笔记;贡献者可以使用AI辅助写作,但必须由人类以自己的名义提交笔记。”公司还表示,到目前为止,“尚未发现任何有组织的不真实行为或对系统的滥用。”然而,委员会指出,Meta提供的信息尚不足以判断其防护措施是否足以应对潜在威胁的规模。
南波特骚乱:一条笔记出现在上千条虚假信息帖文中
该系统的弱点在危机情境下尤为明显。委员会援引了对英国2024年南波特骚乱的一项调查:五个传播虚假信息的账号累计获得超过4.3亿次浏览量。在骚乱高峰期,这些账号共发布了1060条帖子,其中仅有一条收到了社区笔记。
委员会得出明确结论:在经历危机或长期冲突的国家,不应引入社区笔记功能。在这些情况下,煽动暴力的阈值更低,而针对特定群体的笔记“更容易引发线下伤害”。这一担忧并非空穴来风,因为Meta曾在缅甸和埃塞俄比亚因未能有效管控仇恨内容,间接促成了对少数族裔群体的种族灭绝。2018年,Facebook曾就其在缅甸导致的“线下暴力”事件道歉。
尤其令人担忧的是,据委员会称,Meta“尚未制定在危机情境下使用该产品的相关规定,包括调整、修改或暂停该功能。”
少数群体可能系统性地处于不利地位
该系统的一个结构性弱点与其算法有关。正如委员会所指出的,该算法沿单一维度建模社会分裂。“Meta并未提供任何信息表明其项目会实质性区别于X平台的做法。”在那些社会分歧无法简化为单一维度的国家,例如政治、种族、宗教和语言冲突交织的情况下,这可能导致少数群体被系统性边缘化。
Meta自身的监督机构警告称,社区注释无法应对人工智能制造的虚假信息。
该委员会描述了一个具体场景:当主流群体对少数群体存在共同偏见时,这种偏见可以成为原本意见相左的多数群体之间的“桥梁”。针对少数群体的有害注释因此可能达到共识阈值并被发布。一个南亚非政府组织联盟向委员会提供了证据,证明在印度的X平台社区注释中就存在此类动态,那里的政治分歧反映了跨越种族、宗教、语言和种姓的复杂且重叠的归属关系。
此外还存在语言维度的问题:目前该系统仅支持六种语言(英语、西班牙语、中文、越南语、法语和葡萄牙语)。研究表明,在X平台上,非英语语言的注释被评分和发布的频率远低于英语注释。在人权记录恶劣的国家,委员会还指出,如果贡献者的匿名性遭到破坏,将危及其安全,包括侵犯隐私权(《公民权利和政治权利国际公约》第17条)、人身安全(第9条)甚至生命权(第6条)。
委员会建议分阶段推广,并设定严格的排除标准。
监督委员会为计划中的国际化扩展提出了一系列具体建议。人权状况恶劣且公民社会薄弱的国家应从推广名单中剔除,直到Meta能证明具备强有力的贡献者隐私保护措施——包括在对抗环境下进行红队测试的证据、明确处理执法部门数据请求的政策以及风险缓解措施的存在。同样适用于正在经历冲突或危机的国家,以及有协调性虚假信息网络历史的国家。
针对选举,委员会建议格外谨慎:如果Meta通过产品测试、风险评估和人权尽职调查确定其防护措施不足,则不应在重大选举前或期间引入社区注释。对于社会多元分裂严重的国家,委员会建议采取“极端谨慎”的态度,但不作完全排除。面临持续互联网接入障碍的国家也应予以排除。
Meta需在初始推广阶段每六个月向委员会提供用于指导扩张的标准或风险矩阵。委员会还呼吁“大幅提高透明度,公开报告,并允许研究人员访问Meta社区注释性能的数据”。然而,Meta没有法律义务遵守委员会的建议。
事实核查与社区注释并非相互排斥。
Meta自己的监督机构警告称,社区注释无法应对人工智能制造的虚假信息。
该委员会明确强调,社区注释和专业事实核查“不应被视为相互排斥的工具”。研究显示,在X平台上的社区注释引用的事实核查来源比此前报道的多出多达五倍。另一项研究指出,事实核查组织是已发布注释中使用频率排名第三的参考来源。因此,减少对事实核查机构的支持也会削弱社区注释的质量,因为贡献者将缺乏可靠的引用来源。
无夸大新闻的AI资讯——由人类精选
来源与参考
收录于 2026-03-28