OpenAI提出公共财富基金和四天工作制应对超级智能时代
The Decoder··作者 Matthias Bastian
关键信息
这些提案被描述为探索性的而非最终方案,未明确说明公共财富基金的资金来源;文件聚焦美国,但强调解决方案必须具有全球视野。
资讯摘要
OpenAI的新政策文件概述了政府应如何准备迎接超级智能的到来——一种即使在人类协助下也能超越人类智慧的AI水平。该文件建议创建一个公共财富基金,将AI带来的经济增长直接分配给所有公民,无论其初始财富状况如何。文件还呼吁提高高收入人群的资本利得税、对企业持续获得的AI利润征税,并试点四天工作制且不减薪。
OpenAI认为,获取AI应被视为经济参与的基本条件,如同识字或电力一样重要。公司承认自身可能集中AI收益,并敦促政策制定者立即行动以确保公平结果。

资讯正文
少工作,同报酬:OpenAI描绘由超级智能重塑的世界愿景
要点
- OpenAI发布了一份十二页的政策文件,概述了它认为管理向超级智能过渡所需的政治措施,包括重新分配人工智能驱动经济收益的提议。
- 关键建议包括建立一个主权财富基金,将人工智能增长带来的收益直接分配给公民,对高收入人群提高资本利得税,对企业在人工智能收益上征税,以及试点不减薪的四天工作制。
- 文件还指出,应将人工智能获取视为经济参与的基本要素,与读写能力或电力同等重要,表明OpenAI正试图主导关于先进人工智能系统的政策讨论。
在一份新的政策文件中,OpenAI阐述了政府应如何为超级智能做好准备,其提议包括公共财富基金、四天工作制和对高收入人群提高资本利得税。
OpenAI发布了题为《智能时代产业政策》的十二页文档。该公司列出了旨在确保超级智能过渡“惠及所有人”的政策建议。公司表示,这些想法“有意处于早期且具有探索性质”,并非一套现成的要求清单。
OpenAI将超级智能定义为“即使有AI辅助,也能超越最聪明人类的AI系统”。公司称,“这已经开始了”:前沿系统已从处理需要人类几分钟的任务,转向能完成需数小时的任务。如果进展持续,系统很快就能应对当前需要数月才能完成的项目。
OpenAI将这些提议置于历史背景中,将其与进步时代和新政相比较,这两个时期都在工业化后重写了社会契约。公司表示,这次的不同之处在于速度:“我们在短期内所做的选择将决定未来几十年利益与风险如何分配。”
该文件警告了失业、滥用、失控和权力集中等问题。OpenAI承认自己可能是潜在受益者,写道:“也有风险是,即便技术本身变得更强大并被广泛使用,经济收益仍可能集中在少数企业如OpenAI这样的公司内。”文件主要聚焦美国,但强调“这场对话——以及解决方案——最终必须是全球性的。”
Axios采访了OpenAI首席执行官山姆·阿尔特曼(Sam Altman),深入探讨了这些政策提案,您可以在下方视频中观看此次访谈。
全国财富基金、新税种和效率红利
OpenAI希望创建一个“公共财富基金”,让每个公民都能分享人工智能驱动的经济增长。该基金将投资于涵盖人工智能公司和更广泛经济领域的多样化长期资产。
收益将直接分配给公民,而不论他们初始财富或资本获取情况如何。文件未说明该基金如何融资:这需要政策制定者和人工智能公司共同协商解决。
在税收方面,OpenAI希望调整税基,以确保社会保障和医疗保健等项目长期获得资金支持。该文件呼吁对高收入群体的资本利得征收更高税率,对企业因人工智能带来的持续收益征税,并对自动化劳动征税。那些保留并培训员工的企业将获得与工资挂钩的激励措施。
文件对工作时间提出了具体建议。雇主和工会应在临时试点项目中测试每周32小时或四天工作制,且保持全额薪酬。如果生产率得以维持,这种缩短的工作周应成为永久制度。如果人工智能降低了运营成本,企业应将更多资源投入养老金、医疗保健和托儿服务。
工人应在AI部署中拥有发言权
OpenAI表示,员工应在决定AI如何应用于工作场所中发挥正式角色。他们最了解自己的实际工作流程,应帮助确定AI优先应用的领域,比如危险、重复性或体力要求高的任务。文件指出,AI不应增加额外工作量,限制自主权,或损害公平薪酬。
如果出现重大劳动力市场动荡,文件提出了一套支持方案:更灵活的失业保障、快速现金援助以及培训券。当特定预警指标突破设定阈值时,这些措施将自动启动,并在情况稳定后逐步取消。
任何因AI失去工作的人都应能在照护经济领域找到新工作:托儿、老年护理、教育、医疗保健和社区服务。人工智能可以减少这些领域的文书工作,但人际联系仍为核心要素。OpenAI希望通过“家庭福利”来认可照护工作的经济价值,使人们能够将其与兼职工作、继续教育或创业相结合。
AI获取、创业支持与基础设施
OpenAI认为,AI的获取应类似于全球普及读写能力的努力,或确保电力和互联网覆盖偏远地区的过程。必须广泛提供基础级别的AI素养培训,包括免费或低成本选项。
任何有志于创业的人都应获得“创业工具包”:小额资助、标准化合同模板和共享基础设施。工会组织可作为中介,安排培训并协助合同谈判。
作为立即行动步骤,OpenAI呼吁扩展能源基础设施。AI数据中心应自担能源费用,以免家庭承担补贴负担,并创造本地就业机会和税收收入。新的公私合作机制应帮助填补资金缺口、解决许可积压问题和缓解高压输电线路选址风险。这些协议需设计为保护纳税人免受商业损失,同时让新基础设施降低家庭能源成本。
这份论文还呼吁建立一个由人工智能驱动的实验室网络,以提升测试人工智能生成假设的能力。这些实验室将直接把人工智能接入实验流程,加快从假设生成到测试的循环速度。这种基础设施应分布在大学、社区学院、医院和区域研究中心,而不是集中在少数精英机构中。
超级智能时代的安全问题
论文的后半部分转向社会韧性问题。OpenAI希望在网络安全和生物风险等高风险领域,研发用于防范滥用的工具。
先进的AI系统应被用于威胁建模、红队测试和鲁棒性测试。除此之外,论文还呼吁建立互补性的防御系统,例如在疫情爆发时能快速识别并生产医疗对策的工具。采购、标准和保险框架应创建“竞争性的安全市场”,使防御措施能够与威胁同步升级。
OpenAI还提出构建一个“AI信任栈”:用于验证和追踪人工智能生成内容及行为来源的系统,在不引发全面监控的前提下建立信任。对于最强大的模型,论文要求有针对性的审计机制,特别是如果这些模型可能显著推动“化学、生物、放射性、核或网络风险”。这些规则应仅适用于少数公司和最先进的模型,以免限制普通人工智能的广泛获取。
当危险的人工智能系统已经出现在公共环境中(比如模型权重被公开发布,或系统自行复制)时,OpenAI呼吁制定“模型管控手册”。这些手册将列出协调一致的管控步骤,类似于网络安全或公共卫生领域的事件响应计划。
论文还提议建立一个报告系统,让企业向指定权威机构分享事故、滥用和险情的信息。其目标是学习和预防,而非惩罚。
即使模型表现出“令人担忧的内部推理、意外能力或其他预警信号”但未造成实际危害的情况,也应进行报告,以便生态系统能在真实事件发生前从险情中吸取教训。
对政府和企业的更严格规则
论文认为,前沿AI公司应采用治理结构,将“公众利益问责制嵌入决策过程”,例如通过组织为公共利益公司,并做出“明确承诺”,广泛共享人工智能带来的益处,包括“长期的重大慈善捐赠或公益行动”。
OpenAI还希望对前沿系统实施保护措施,防止“企业或内部人员操控”,方法包括保护模型权重和训练基础设施、审计模型是否存在操纵行为或“隐藏忠诚度”,以及监控高风险部署,“确保没有任何个人或内部派系能悄悄利用人工智能系统集中权力。”
对于政府而言,OpenAI呼吁制定明确的AI使用规则,特别是对可靠性、对齐性和安全性提出高标准。同时,AI应增强民主问责制:政府机构中借助AI的工作流程将产生更清晰的数字记录,监管机构可利用AI审计工具进行审查。
具体而言,OpenAI希望现代化透明度框架,例如《信息自由法》,使公民和监督组织能够使用AI深入探究有关政府行动的具体问题。这还应明确AI交互日志和机构行为记录何时构成必须按规定期限保存的联邦档案。
为确保对齐性不会仅由封闭环境中工程师或高管定义,该文件呼吁建立结构化机制,让公众参与讨论。开发者应公布模型规格,说明系统应有的行为方式。政府应将这些标准根植于民主价值观,并设立代表性的公众参与机制。
在国际层面,OpenAI提议建立一个全球AI研究所网络,通过共享的信息协议、联合评估和协调响应共同协作。随着时间推移,这一网络有望发展为与现有多边安全和标准机构相当的国际框架。
AI新闻去伪存真——由人类精选
来源与参考