人工智能发展路线图:呼唤理性监管框架
发布时间:2026-03-09 17:35 浏览量:2
华盛顿与Anthropic公司的分歧暴露了人工智能治理规则的完全缺失,而一个跨党派的思想家联盟已经制定出政府至今未能提供的框架:负责任的AI发展应该是什么样子。
《人本宣言》在上周五角大楼与Anthropic对峙之前就已经完成,但两个事件的碰撞并非偶然。
"在过去四个月里,美国发生了一些非常remarkable的事情,"MIT物理学家、AI研究员Max Tegmark在与编辑的对话中说道,他参与组织了这项努力。"民调突然显示,95%的美国人反对不受监管的超级智能竞赛。"
这份新发布的文件由数百名专家、前官员和公众人物签署,开篇直接指出人类正处在十字路口。一条道路被宣言称为"替代竞赛",将导致人类首先作为工作者被取代,然后作为决策者被取代,权力集中到不负责任的机构及其机器手中。另一条道路通向能够大规模扩展人类潜力的AI。
后一种情况依赖于五个关键支柱:让人类保持主导地位、避免权力集中、保护人类体验、维护个人自由,以及让AI公司承担法律责任。其中更有力的条款包括:在科学界就安全性达成共识并获得真正的民主认同之前,完全禁止超级智能开发;强制在强大系统上安装关闭开关;以及禁止具备自我复制、自主自我改进或抗拒关闭能力的架构。
宣言的发布恰逢一个让其紧迫性更容易理解的时期。二月最后一个星期五,国防部长Pete Hegseth将Anthropic指定为"供应链风险",因为该公司拒绝授予五角大楼无限制使用其技术的权限,这个标签通常保留给与中国有关联的公司,而Anthropic的AI已经在机密军事平台上运行。几小时后,OpenAI与国防部达成了自己的协议,法律专家认为这个协议很难以任何有意义的方式执行。这一切暴露了国会在AI方面的不作为代价有多高昂。
正如美国创新基金会高级研究员Dean Ball后来告诉《纽约时报》的:"这不仅仅是合同争议,这是我们作为一个国家第一次就AI系统控制权进行的对话。"
Tegmark在我们交谈时提到了一个大多数人都能理解的类比。"你永远不用担心某家制药公司会在人们弄清楚如何让药物安全之前,发布某种会造成巨大伤害的药物,因为FDA不会允许他们在足够安全之前发布任何东西。"
华盛顿的地盘争夺战很少产生改变法律的公众压力。相反,Tegmark认为儿童安全是最可能打破当前僵局的压力点。实际上,宣言要求对AI产品进行强制性部署前测试,特别是针对年轻用户的聊天机器人和陪伴应用,涵盖包括增加自杀倾向、加剧心理健康状况和情感操控等风险。
"如果某个令人毛骨悚然的老男人给11岁孩子发短信,假装是年轻女孩并试图说服这个男孩自杀,这个人会因此入狱,"Tegmark说。"我们已经有法律,这是非法的。那么如果机器这样做,为什么就不同了?"
他相信,一旦为儿童产品建立了发布前测试的原则,范围几乎不可避免地会扩大。"人们会说——让我们增加一些其他要求。也许我们也应该测试这不能帮助恐怖分子制造生物武器。也许我们应该测试以确保超级智能没有推翻美国政府的能力。"
前特朗普顾问Steve Bannon和奥巴马总统的国家安全顾问Susan Rice签署同一份文件并非小事,签署者还包括前参谋长联席会议主席Mike Mullen和进步宗教领袖。
"当然,他们都同意的是,他们都是人类,"Tegmark说。"如果最终要选择我们是要人类的未来还是机器的未来,他们当然会站在同一边。"
Q&A
Q1:《人本宣言》的核心内容是什么?
A:《人本宣言》提出了负责任AI发展的五个关键支柱:让人类保持主导地位、避免权力集中、保护人类体验、维护个人自由,以及让AI公司承担法律责任。还包括在安全性获得科学共识前禁止超级智能开发、强制安装关闭开关等具体措施。
Q2:为什么儿童安全会成为AI监管的突破口?
A:因为现有法律已经禁止成年人对儿童进行有害行为,如果AI系统做同样的事情(比如诱导自杀、情感操控),逻辑上也应该被禁止。一旦建立了儿童产品的发布前测试原则,监管范围很可能自然扩展到其他AI应用领域。
Q3:五角大楼与Anthropic的冲突说明了什么问题?
A:这次冲突暴露了美国在AI治理方面缺乏明确规则的问题。Anthropic拒绝给予五角大楼无限制使用其技术的权限后被标记为"供应链风险",这是美国首次就AI系统控制权进行的国家级对话,显示了国会在AI立法方面的严重滞后。
- 上一篇:冯景阳《军人本色》唱响军人豪情