美国对人工智能的监管:进展、争论与展望

转载
503 天前
3773
AI梦工厂

文章转载来源:AI梦工厂

原文来源:上海美国研究

作者:上海市美国问题研究所研究助理高隆绪

图片来源:由无界 AI‌ 生成

自ChatGPT问世以来,人工智能所展现出的强大性能得到了世界的瞩目,但与此同时,其暴露的诸多风险也向世界敲响了监管的警钟。2023年3月,意大利政府就以ChatGPT没有就收集处理用户信息进行告知、缺乏大量收集和存储个人信息的法律依据为由,宣布禁止在意大利使用ChatGPT。2023年6月,欧洲议会正式批准了旨在对人工智能进行全面监管的《人工智能法案》,人工智能在生物识别领域的潜在危险应用以及大模型训练过程的不透明则成为了欧盟议员的主要关切点。

在欧洲的人工智能监管如火如荼之时,大洋彼岸美国的人工智能监管则仍处于起步阶段。从行政角度看,虽然拜登多次与人工智能方面的企业家、学者进行会面以表达重视,但美国仍未确定人工智能监管的主管机构;从立法角度看,美国国会则尚未就人工智能监管的联邦立法达成广泛共识,在具体的监管框架、委员会设置等方面也尚未统一意见;从社会舆论看,持不同观点的美国科技与政策界在人工智能监管议题上仍在进行激烈辩论。上述情况都意味着美国详尽的人工智能监管政策或立法的出台仍需时日。


一、当前美国人工智能监管的政策进程


美国当前的人工智能监管政策总体呈现出“总统定基调,各部抓分管”的态势,即由总统出台宏观政策与蓝图,各部门分别审查人工智能技术在自己负责的领域内所存在的风险,并出台相应的措施和政策法规。

当前拜登最新、最详细的人工智能监管政策框架为其在2022年10月4日提出的《人工智能权利法案蓝图》。该蓝图为人工智能系统设立了五项基本原则,分别为安全有效的系统、算法歧视保护、数据隐私、通知和解释、人工替代方案与后备。除《蓝图》外,近期白宫还颁布了一些较为零散的政策来发展和落实《蓝图》的监管要求,比如白宫5月4日发布消息称要求OpenAI、微软等厂商的大模型需在2023年8月的DEFCON31黑客大会上接受互联网专家的公开评估,以确定其大模型是否符合《蓝图》的要求。

在白宫宏观《蓝图》的指导下,美国联邦各部门开始在其负责范围内着手进行有关人工智能监管具体政策的制定。如劳工部制定了《公正的人工智能行动手册》,旨在避免人工智能对求职者与员工产生基于种族、年龄、性别等特征的偏见。消费者金融保护局则针对大模型的“黑箱状态”发布文件,认为由“黑箱状态”的人工智能大模型计算出的结论不得作为金融机构拒绝向申请人放贷的合理理由。

而在各联邦部门中,有两个部门对人工智能监管显得格外“热情”,展现出了主导美国人工智能监管政策的势头。首先是美国商务部,其下属机构美国国家标准与技术研究院(NIST)于2021年就开始针对人工智能监管进行意见收集,并在2023年1月就推出了《人工智能风险管理框架》。虽然该框架并不具备强制性,仅旨在帮助人工智能企业和专家更好地对人工智能进行风险评估,但其对人工智能存在的风险进行了详尽的分级与分类,成为了具体监管政策出台的重要基石。除推出《框架》外,商务部还于2023年4月就人工智能问责措施公开征求意见,包括人工智能模型在发布前是否应经过认证程序这一关键监管步骤。另一个在人工智能监管方面处于重要位置的部门是联邦贸易委员会(FTC),在拜登的《蓝图》出台之前,该委员会就在2022年4月发布了《联邦贸易委员会消费者保护指南》,并对人工智能做出了“透明、可解释、公平且符合经验,促进问责制”的要求。联邦贸易委员会也还有可能成为未来专门对人工智能进行审查的部门,其在2023年3月收到了来自人工智能和数字政策中心(CAIDP)的一份新的举报,要求对OpenAI及其产品GPT-4进行调查。


二、当前美国人工智能监管的立法进程


当前美国有关人工智能的监管主要分为各州与联邦两个层面。在州层面,2022年共有17个州引入了有关人工智能的法案,科罗拉多州、伊利诺伊州和佛蒙特州等还专门在立法机构成立了工作组或委员会,来对人工智能进行研究并负责提供报告与建议。各州的相关立法主要涉及人工智能大模型中的歧视与偏见、大模型的透明度、人工智能于生物识别领域的应用等。

而在联邦层面,诸多议员已经在有关人工智能监管的各个方面展开了行动,但立法进程仍处于早期阶段。民主党众议员刘云平(Ted Lieu)等人提交了“国家人工智能委员会法案”,该法案拟建立包括20人的“国家人工智能委员会”,两党各提名十人参加,主要负责对人工智能监管立法的迫切度进行分级,并引导相关立法。参议院多数党领袖查克·舒默(Chuck Schumer)也一直强烈支持在人工智能领域进行全面立法,他在2023年6月推出了“人工智能安全创新”框架,包括五个核心支柱:安全、问责制、(以民主价值观为)基础、(清晰地向用户)解释、创新,舒默还就人工智能在国会组织了数次简报会,期望能在该框架的指导下加快国会在人工智能方面立法的进展。同时,美国国会在传唤OpenAI的CEO山姆·奥尔特曼(Sam Altman)、人工智能初创公司Hugging Face的CEO克莱门特·德兰格(Clement Delangue)等人进行了数次有关人工智能的听证会后,还计划举行更多与人工智能有关的听证会。如众议院金融服务委员会成员、民主党议员玛克辛·沃特斯(Maxine Waters)就称人工智能对美国的金融安全造成了重大威胁,要求立刻召开听证会,讨论人工智能对金融相关行业的影响。民主党参议员加里·彼得斯(Gary Peters)和艾德·马基(Ed Markey)则致函政府问责办公室(GAO),要求后者审查生成式AI的潜在危害,以及如何减轻风险进行“详细的技术评估” 。

舒默6月21日在CSIS公布其“人工智能安全创新”框架/CSIS


三、当前美国有关人工智能监管的争论


争论主要围绕以下问题展开。首先,美国是否需要一个全新的联邦机构来专门负责人工智能监管。OpenAI与微软在这一问题上的回答为“是”。OpenAI的CEO奥尔特曼在国会出席听证会时就提议组建一个全新的联邦机构,专门负责对人工智能大模型发放许可证,进而从源头避免有风险的人工智能工具面世。这一想法也得到了微软总裁布拉德·史密斯(Brad Smith)的支持,其在微软发布的报告《治理人工智能:未来的蓝图》中认为“高性能人工智能基础模型的新规则最好由新的政府机构实施”。而谷歌对这个问题的回答则更偏向“否”,其表示虽然“并不反对”设立全新的监管机构,但更倾向于基于现有的机构进行人工智能监管。谷歌认为,应该继续由商务部下属的美国国家标准与技术研究院(NIST)带头向各机构发布有关如何应对人工智能风险的技术指导,并由各部门付诸实施。


其次,美国是否需要进行与欧盟类似的全面人工智能监管立法。尽管参议院多数党领袖舒默“雄心勃勃地”提出了有关人工智能全面监管的框架,并试图通过专题论坛等“新的程序”来加速国会缓慢的立法进程,但美国一直以来强调非监管措施,即更侧重不具有法律强制性的措施,包括细分领域的政策指南或框架、行业内自愿的共识标准等。北达科他州立大学网络安全教育与研究所副所长杰里米·斯特劳布(Jeremy Straub)就撰文认为对人工智能进行全面监管是完全错误的。他认为从法律角度看,全面监管本质上是对程序员自由表达权利的限制;从市场角度看提,全面监管提高了新兴企业进入人工智能行业的合规门槛,加剧了行业垄断;从监管效果角度看,全面监管“只监管技术发展,不监管技术应用”的思路将是对人工智能行业创新的扼杀。


四、美国人工智能监管前景展望


首先,两党紧张的政治关系将对人工智能监管法案的出台产生不利影响。无论是刘云平提交的“国家人工智能委员会法案”,还是舒默尚在孕育中的人工智能全面监管提案,都必须在国会中经过长期的辩论、听证、讨价还价才能有望最终通过,而美国日益严重的政治极化正在使得这一进程愈发困难,2024美国大选的不断临近则使得两党之间进行妥协的窗口越来越小。即使全面监管的思路与民主党人提出的具体监督法案能够得到认可,共和党人也可能拒绝投票通过,而是将该法案作为“俘虏”以换取民主党人对共和党在另外事项上的支持。如共和党人就曾经通过阻挠《芯片法案》的通过来换取民主党人在《通胀削减法案》具体条款上的让步。

其次,不同机构监管框架的重叠和不一致将降低美国人工智能监管的清晰度。在国家层面,白宫《蓝图》中的原则与舒默全面监管立法框架中的原则出现了相当程度的重叠。而由于美国政府至今并未指定一个现有联邦部门作为人工智能监管的主管部门,也没有决定设立新的联邦部门,故各部门各司其职的“碎片化”模式不仅降低了相关政策的协调度,还有可能导致内部的摩擦与权力竞争。美国各州在具体的人工智能立法内容上更是有着巨大差异,如加利福尼亚州的法案包含了对自动化系统的非政府用途的监管;康涅狄格州和佛蒙特州的法案则专门监督政府对这些系统的使用。上述情况都可能在未来使美国的人工智能监管复杂化,提高企业的合规成本。

最后,美国监管进程的缓慢推进或难以适应人工智能的飞速发展。虽然近期美国有关人工智能监管的政策与学术讨论不断升温,大量听证会与研讨会接连召开,各种监管的蓝图与框架不断提出,但事实上,美国当前几乎所有与人工智能监管相关的官方文件都停留在了宏观层面或起步阶段,均未能详尽、充分地对人工智能监管进行全面论述与阐释,也难以为企业进行继续人工智能创新提供有效的合规指导。但另一方面,人工智能与相关产业正在以远超监管框架建立的速度高速发展。根据福布斯的预测,预计到2027年,与人工智能相关的市场规模将从2022年的860亿美元达到4070亿美元,其中必定伴随着大量新兴人工智能相关企业的成立、全新的技术突破以及投资的注入。届时,监管政策与法规的“慢半拍”将在很大程度上对人工智能的发展产生负面影响。