迈向负责任AI:中国AI治理趋势与展望

转载
473 天前
1831
腾讯研究院

文章转载来源:腾讯研究院

作者:曹建峰,腾讯研究院高级研究员

图片来源:由无界 AI生成

21世纪是数字化、网络化、智能化深入发展的时代,人工智能(AI)作为其中的关键技术,其进展备受各界瞩目。而过去十年被认为是以深度学习为代表的AI的“黄金十年”。[1]通过深度学习,AI领域的神经网络技术(Neural Networks)迎来复苏,让AI领域迎来飞速发展的“第三个春天”。在这之前,自从1956年达特茅斯会议提出“人工智能”这一概念以来,AI领域已经历两起两落。具体而言,机器学习算法、大数据、云计算、AI专用芯片、开源软件框架等诸多技术要素的汇聚发展,推动了AI领域取得巨大进展,不仅AI的感知、理解、学习、决策等能力持续得到提高,而且AI因此迅速成为新的通用技术和经济社会的智能底座,被广泛应用于经济社会的各个领域,带来新的产品和服务。从消费互联网领域的算法推荐、AI生成内容(AIGC)、聊天机器人,到产业领域的无人驾驶汽车、AI医疗软件、AI质检,再到社会公共服务中的各种便民应用,AI对经济社会高质量发展的巨大价值持续得到彰显。[2]总之,作为引领新一轮科技革命和产业变革(第四次工业革命)的战略性技术,AI有望重塑人类经济社会,对生产力、劳动就业、收入分配、全球化等都将带来巨大影响。

在此背景下,AI成为国际竞争的新焦点,全球各国纷纷出台AI发展战略和具体政策,抢占战略制高点和发展机遇。2017年7月,中国发布《新一代人工智能发展规划》,AI上升为国家战略;2018年4月,欧盟出台AI战略,旨在让欧盟成为世界级的AI中心并确保AI是以人为本的、可信的;2019年2月,《美国AI计划》发布,启动AI战略,旨在提升美国在AI领域的领导地位;2021年9月,英国出台AI战略,希望通过十年计划把英国打造为AI超级大国。分析各国的AI战略不难看出,AI领域的国际竞争不仅事关技术创新与产业经济,而且牵涉AI治理等维度。随着AI的广泛应用,AI带来的诸多科技伦理问题持续引起社会各界的高度关注,诸如算法歧视、信息茧房、不公平的AI决策、个人信息滥用和隐私侵犯、AI安全、算法黑箱、责任承担、技术滥用(如大数据杀熟、AI造假和合成虚假信息)、工作和就业影响、伦理道德冲击等风险挑战。[3]因此,伴随着过去十年AI技术发展应用的“高歌猛进”,国内外各界同步推进AI治理,探索立法、伦理框架、标准和认证、行业最佳做法等多元治理措施和保障机制,支持负责任的、可信的、以人为本的AI发展。

本文立足国际视野,梳理过去十年中国在AI治理领域的重要进展,分析总结其中的规律和趋势,并展望未来发展。在可预见的未来,随着AI的能力越来越强,其应用和影响将日益加深,因此,负责任的AI(Responsible AI)将变得越来越重要。而负责任的AI的推进和落实,离不开合理有效的AI治理。换句话说,建立健全AI治理,是迈向负责任AI、保障AI未来发展的必由之路。希冀本文对未来AI治理的持续开展和落地有所助益。


AI治理的八个趋势


宏观战略与落地政策并举,培育国家AI竞争力

自2013年2月发布的《关于推进物联网有序健康发展的指导意见》提出“经济社会智能化发展”以来,AI便进入国家宏观战略的视野,成为国家顶层政策文件的重要议题。例如,2015年《关于积极推进“互联网+”行动的指导意见》首次提出“培育发展人工智能新兴产业”。此后,国家对AI的重视程度不断提高,持续在战略层面对发展AI做出部署,确保实现核心技术自主可控,推进高水平科技自立自强(表1)。

落地政策同样重要。AI是新兴技术与新兴产业的综合体,AI技术创新只有转化为可持续的产业生态,并和实体经济深度融合,才能发挥好其作为新的增长引擎的强大作用。在这方面,试验区、先导区等先行先试模式发挥着重要作用。科技部着力推进的人工智能创新发展试验区建设成果显著,全国已经批复建设18个国家新一代人工智能创新发展试验区,在政策工具、应用模式、经验做法等方面起到了很好的引领带动作用。2019年至今,工信部批复建设11个国家人工智能创新应用先导区,促进AI和实体经济深度融合;2022年7月,科技部等六部门发布《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》,着力解决AI应用和产业化问题,以“数据底座+算力平台+场景开放”三驾马车驱动AI与经济社会发展深度融合,更好支撑高质量发展。

在国家宏观战略和落地政策的持续支持下,中国AI领域的创新创业持续活跃,AI领域的国家级实验室陆续建立,在AI领域的技术创新、产业应用、人才规模等方面均取得了重要成就。中国科学技术信息研究所发布的《2021全球人工智能创新指数报告》显示,目前全球AI发展呈现中美两国引领、主要国家激烈竞争的总体格局。[4]中国AI发展成效显著,AI创新水平已经进入世界第一梯队,与美国的差距进一步缩小。中国的超算中心、AI企业规模、专利注册数量、人才队伍建设和科研实力均处在全球领先行列,未来,AI对中国经济增长和社会发展的贡献将持续放大。普华永道的研究报告预测,全球来看,到2030年AI对全球经济的贡献将达到15.7万亿美元,中国将从AI中收获最大的经济收益,达到7万亿美元,意味着AI将推动中国GDP增长约26.1%;美国和北美其次,将达到3.7万亿美元。[5]

科技伦理制度不断完善,成为AI创新的重要保障

在数字时代,AI等新兴数字技术,具有不同于工业时代的技术应用的独特性和复杂性。主要体现为:(1)更广泛的联通性,网络的连接和数据的收集、处理无处不在;(2)更强的自主性,AI系统驱动各种产品和服务独立运行,无须人类干预;(3)更深的不透明性,AI系统的“算法黑箱”难以被理解和解释;[6](4)更高的拟真性,AI生成、合成的内容、数据和虚拟世界越来越逼近现实。正因如此,AI等新技术应用可能引发的社会伦理问题越来越具有突发性、隐蔽性、规模性、不可预测性等诸多特征,这给科技伦理治理提出新的挑战。在AI的发展应用过程中,同步考虑甚至提前考虑科技伦理问题变得越来越必要和重要。[7]科技伦理制度的调整完善,由此成为AI时代的重要议题,需要从关注人的伦理转向关注技术的伦理,实施对智能体进行道德约束,构建友善的数字社会秩序。[8]更进一步而言,随着全球科技竞争日益激化,科技伦理不仅事关科技安全风险挑战之防范,而且关乎国家科技竞争力之打造。

党的十八大以来,国家对科技伦理的重视程度不断提升,明确提出科技伦理是科技活动必须遵守的价值准则,并将科技伦理纳入顶层政策设计,作为科技创新的重要支撑和保障。《中共中央关于坚持和完善中国特色社会主义制度推进国家治理体系和治理能力现代化若干重大问题的决定》和《十四五规划和2035年远景目标纲要》对科技伦理做出了顶层部署,要求健全科技伦理治理体制,健全科技伦理体系。目前,国家持续建立健全科技伦理制度,塑造科技向善的文化理念和保障机制。主要体现在以下三个方面:

第一,组建国家科技伦理委员会,负责指导和统筹协调推进全国科技伦理治理体系建设工作。2019年7月,中央全面深化改革委员会第九次会议审议通过了《国家科技伦理委员会组建方案》,正式确立了中国国家级的科技伦理管理机构。2022年3月发布的《关于加强科技伦理治理的意见》进一步明确了国家科技伦理委员会的管理职责。

第二,出台科技伦理相关的政策法规,支持科技伦理治理落地实施。2021年12月修订的《科学技术进步法》的一大亮点就是增加了科技伦理相关条款,一方面对健全科技伦理治理体制做出了整体规定,另一方面要求科学技术研究开发机构、高等学校、企业事业单位等主体履行科技伦理管理主体责任,对科学技术活动开展伦理审查,同时明确科学技术研究开发和应用活动的法律伦理底线。《关于加强科技伦理治理的意见》则对科技伦理治理提出了更为全面的要求,涉及总体要求、原则、体制、制度保障、审查和监管以及教育和宣传六大方面,为科技伦理治理的落地实施奠定了基础。后续还将制定科技伦理审查办法、科技伦理高风险科技活动清单、细分领域的科技伦理规范等配套规定。

第三,强调AI领域的科技伦理治理。国家新一代人工智能治理专业委员会先后发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》,为发展负责任的AI提供伦理指南。《数据安全法》《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》等法律法规,对数据和算法活动提出科技伦理要求和管理措施。《关于加强科技伦理治理的意见》将AI、生命科学、医学作为“十四五”期间的三个重点领域,要求制定专门的科技伦理规范、指南等,加强科技伦理立法,并要求相关行业主管部门推出科技伦理监管举措。可以预见,未来AI领域的科技伦理监管将得到加强。此外,地方层面的立法如《深圳人工智能产业促进条例》和《上海促进人工智能产业发展条例》都把AI伦理治理作为支持AI产业健康发展的重要保障。

从以上分析可以看出,目前在AI的科技伦理治理方面,一个显著的趋势是把创新主体的科技伦理管理主体责任作为一个主要的抓手,这和互联网平台监管强调平台主体责任具有一定的相似性。政府对平台的监管,在很大程度上是通过落实、压实平台主体责任来实现的,网络领域的相关立法构建了事前、事中、事后全方位的平台义务体系,市场监管总局发布的《互联网平台落实主体责任指南(征求意见稿)》尝试对不同类型的平台的主体责任进行细化。政府对AI的监管,呈现出类似的思路。目前的相关政策法规尝试对科技伦理管理主体责任进行细化,要求创新主体建立伦理委员会、坚持科技伦理底线、进行科技伦理审查、开展科技伦理风险监测预警和评估、开展科技伦理培训等。

互联网领域算法应用成为AI监管的重点对象

算法推荐、算法自动化决策、AI深度合成等互联网领域的算法应用,由于应用广泛、社会公众关注度高、负面问题持续凸显等因素,成为政府在AI领域重点监管的对象。近年来,国家出台了一系列法律法规,积极规范互联网领域算法应用。[9]国家互联网信息办公室等九部门出台的《关于加强互联网信息服务算法综合治理的指导意见》提出了较为全面的管理要求,希望利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。该意见同样强调强化企业主体责任,包括算法安全责任、科技伦理审查等。

在算法推荐方面,《网络信息内容生态治理规定》提出针对算法推荐技术健全人工干预和用户自主选择机制。2022年3月1日起施行的《互联网信息服务算法推荐管理规定》则是中国第一部聚焦算法治理的立法,该规定针对算法推荐服务提供者提出全方位的义务和禁止性要求,提出算法安全风险监测、算法安全评估、算法备案管理等一系列监管举措,进一步强化平台企业的算法安全责任。业内人士以此为标志,将2022年称为算法监管元年。

在算法自动化决策方面,《中华人民共和国个人信息保护法》《中华人民共和国电子商务法》《在线旅游经营管理服务暂行规定》等都有相关条款对算法歧视、大数据杀熟等不公平、不正当的算法决策行为进行规制,提出了向个人提供选择权限、开展影响评估、个人可以要求说明和享有拒绝权限等规制方式,更好地平衡个人权益保护和算法商业应用活动。

在AI深度合成(主要是指利用AI技术生成、合成信息内容)方面,相关立法积极为AI深度合成技术划定应用红线,促进技术正向应用,如《网络音视频信息服务管理规定》《网络信息内容生态治理规定》《互联网信息服务算法推荐管理规定》等都禁止将深度合成算法用于虚假新闻信息和其他违法违规活动。2022年11月通过的《互联网信息服务深度合成管理规定》,总结既往监管经验,从深度合成服务提供者主体责任、深度合成信息内容标识管理等方面,对深度合成技术应用进行全面规范,通过内容标识、检测识别、内容溯源等必要的安全保障措施确保深度合成技术应用安全可靠,更好地促进技术创新发展和积极正向应用。

整体而言,互联网领域的算法监管强调安全可控、权益保护、公平公正、公开透明、滥用防范等多元目的,在算法应用分级分类基础上,重点规制高风险类算法应用。算法分级分类监管和《欧盟人工智能法案》对AI系统的监管思路是类似的,后者按照不可接受风险、高风险、有限风险、最小风险对AI系统进行分级,并对不同风险程度的AI系统提出不同的监管要求。在此背景下,学界对算法治理的研究兴趣浓厚,提出了算法解释、算法影响评估、算法审计等诸多思路。未来,各界还需进一步探索完善算法监管的方式方法和治理举措,更好地保障算法应用向上、向善。

以监管创新促进AI在传统强监管领域应用落地

对于交通、医疗等传统强监管领域而言,自动驾驶汽车、载人无人机(无人驾驶的飞行汽车)、AI医疗软件等新生事物面临的主要问题是,其商业化应用仍面临较大的法律和监管障碍。这些障碍不仅影响消费者和公众对技术的信任,而且打击创新者和投资者的积极性。因此,有效的监管创新是这些新事物发展应用的关键所在。以自动驾驶汽车为例,只有加快革新旨在规制传统汽车和人类司机的立法和监管框架,进而建立新的、有效的监管框架,才能加快实现自动驾驶汽车的商业化应用。

中国的政策制定者积极创新监管方式和手段,通过“监管沙盒”(Regulatory Sandbox,详见后文介绍)、试点、示范应用等方式支持、促进AI新事物应用落地。在自动驾驶汽车领域,国家出台了一系列立法和规范性文件,鼓励、支持和规范自动驾驶汽车道路测试与示范应用活动,探索自动驾驶汽车安全标准的“监管沙盒”,完善自动驾驶汽车准入和上路通行规则,保障自动驾驶汽车运输安全。由于监管政策利好,北上广深等各地纷纷抢占发展高地,部分城市已向自动驾驶厂商发放了允许车内无驾驶人、可以收费运营的无人驾驶汽车试运营牌照;深圳则在全国率先出台《深圳智能网联汽车管理条例》,为商业化应用奠定立法和监管框架。在AI医疗领域,由于AI医疗软件具有不同于传统医疗器械的诸多全新特征,包括自主性、学习进化能力、持续迭代性、算法黑箱、不可预测性等,这使得传统审批程序难以有效适应AI医疗软件的发展需求。为此,监管部门积极完善AI医疗器械的注册申报和审批程序、使用管理规范,支持智能医学影像等辅助诊断和辅助治疗的AI医疗软件加快临床应用;目前国内已有AI医疗软件获得审批,如腾讯觅影的AI辅助诊断青光眼软件、肺炎AI辅助诊断系统都已获批第三类医疗器械注册证(“三类证”)。未来,监管部门还需持续完善、优化针对AI医疗软件的注册申报和审批程序,让AI医疗应用更好地增进民生福祉。

加快探索AI的知识产权保护规则

AI生成内容(AI-Generated Contents,缩写AIGC)已经成为AI的新疆域,代表着AI的未来发展方向[10]。在互联网领域,AIGC是PGC(专业生产内容)和UGC(用户生产内容)之后的内容生产形态,带来自动化内容生产的巨大变革。目前,AIGC技术已能自主生产多种形式的内容,包括文本、图片、音频、视频、3D内容(3D物品、3D虚拟场景)等。AIGC技术及其应用的知识产权保护规则由此成为绕不过去的重要议题,诸如“AIGC内容的著作权保护及归属如何确立”“AIGC技术使用他人版权内容是否侵权”等都是亟待解决的问题。[11]国外有学者提出,需要建立专门的AI知识产权保护规则和国际条约,因为AI技术打破了创作者和发明人只能是人类的既有模式。[12]

国内外已在积极探索AI生成内容的知识产权保护规则。在国外,英国、欧盟、日本、南非等在考虑或者已经制定了专门的AI知识产权保护规则,如英国《版权、设计与专利法》中的计算机生成作品保护条款、欧盟《单一数字市场版权指令》中的基于AI技术的文本与数据挖掘版权例外条款等。在专利方面,英国的政策指出,由于AI还没有先进到可以独立自主地进行发明创造,所以当前还没必要对专利法进行修改,但需密切关注技术进展并及时评估AI的专利问题。

在国内,北京菲林律师事务所诉百度“百家号”著作权侵权案中,法院虽然认为只有自然人创作完成的独创性作品才可获得版权保护,由此否定了AI直接且独立生成的作品的版权保护可能性,但却指出可以通过竞争法等方式对AI生成内容的相关权益(如竞争性权益)进行保护。深圳市腾讯计算机系统有限公司诉上海盈讯科技有限公司侵害著作权及不正当竞争纠纷案中,法院基于AI领域的人机协作现实,指出AI写稿软件Dream writer在技术上“生成”作品只是创作过程的一个环节,原告主持的多团队、多人分工形成的整体智力活动才是创作的核心环节,并由此认定涉案文章是原告主持的法人作品。关于Dream writer案的认定更符合当前AIGC技术及其应用的发展状况,对将来通过立法进一步明确AI生成内容的知识产权保护规则具有较大的借鉴意义。在立法上,2020年新修订的《中华人民共和国著作权法》采用开放性的作品认定方式,在明确作品构成要件、列举主要作品类型的同时,规定了开放式的兜底条款,为AIGC等新技术应用带来的新客体保护预留出制度空间。

标准化建设是AI治理的关键一环

《国家标准化发展纲要》指出,标准化在推进国家治理体系和治理能力现代化中发挥着基础性、引领性作用。对于AI领域而言,AI标准不仅是支持、促进AI发展进步和广泛应用的重要手段(如技术标准),而且是推进落实AI治理的有效方式(如治理标准、伦理标准),因为AI治理标准可以起到“承接立法和监管、对接技术实践”的重要作用。再者,AI治理领域的标准相比立法和监管更具敏捷性、灵活性和适应性。因此,AI治理标准已经成为AI技术和产业发展中的一个制高点,国际社会纷纷提出落地举措。典型代表有欧盟的可信AI标准,美国国家标准与技术研究院(NIST)主导的AI风险管理、AI歧视识别等治理标准,英国的AI认证生态系统发展规划,IEEE的AI伦理标准等。在落地方面,IEEE已面向行业推出了AI伦理认证项目;英国希望通过5年时间培育一个世界领先、价值数十亿英镑规模的AI认证行业,通过中立第三方的AI认证服务(包括审计、影响评估、认证)来评估、交流AI系统的可信性和合规性。

中国非常重视AI领域的标准化建设,《国家标准化发展纲要》要求在AI、量子信息、生物技术等领域,开展标准化研究。近年来,各界持续推进AI治理领域的国家标准、行业标准、地方标准、团体标准等标准化工作。例如,国家标准化管理委员会成立国家人工智能标准化总体组,全国信息技术标准化技术委员会设立人工智能分技术委员会,都旨在推进制定AI领域的国家标准。2020年7月印发的《国家新一代人工智能标准体系建设指南》明确了AI标准领域的顶层设计,该指南将安全/伦理标准作为AI标准体系的核心组成部分,旨在通过安全/伦理标准为AI建立合规体系,促进AI健康、可持续发展。未来,AI治理相关标准需加快制定并落地实施,从而为AI领域的技术创新和产业发展提供更多保障。

行业主动探索AI治理的自律措施,践行负责任创新和科技向善理念

有效的AI治理需要政府、企业、行业组织、学术团体、用户或消费者、社会公众等多元主体的共同参与,其中,科技企业的自我治理和自律管理是落实“伦理先行”理念的重要方式。之所以呼吁“伦理先行”,在很大程度上是因为面对AI的快速发展,“法律的滞后性”现象变得越来越突出。在AI领域,“伦理先行”首先表现为科技企业的科技伦理自律管理,而且领先企业的最佳实践做法往往能够起到很好的引领带动作用,推动整个行业践行负责任创新和科技向善理念。

在行业层面,近年来,相关研究机构和行业组织纷纷提出AI的伦理指南、自律公约等,为企业的AI活动提供伦理指引。这方面的典型代表有中国人工智能产业发展联盟(AIIA)的《人工智能行业自律公约》和《可信AI操作指引》、北京智源人工智能研究院的《人工智能北京共识》和《人工智能产业担当宣言》、全国信息安全标准化委员会的《网络安全标准实践指南——人工智能伦理安全风险防范指引》等。

在企业层面,科技企业作为AI技术创新和产业应用的主体,担负着负责任地研发应用AI的重要责任。在国外,从提出AI伦理原则,到成立内部的AI伦理治理机构,再到开发管理和技术工具甚至商业性的负责任AI解决方案,科技公司探索出了较为成熟的经验,积累了很多可资推广的实践做法(表2)[13]。近年来,国内科技公司积极落实监管要求,探索相关自律措施,主要包括:发布AI伦理原则,建立内部的AI治理组织(如伦理委员会),针对AI活动开展伦理审查或安全风险评估,对外披露算法相关信息、促进算法公开透明,探索应对AI伦理问题的技术解决方案(如针对合成信息内容的检测识别工具、AI治理测评工具、联邦学习等隐私计算方案),等等。

全球AI治理合作与竞争并存

全球AI竞争,既是技术与产业的竞争,也是治理规则与标准的竞争。全球数字经济发展正在形成AI、数据等方面新的国际规则,如数据流动、AI治理框架等。近年来,全球AI治理合作持续推进。2019年的OECD/G20人工智能原则,是首个全球性的AI政策框架。2021年11月联合国UNESCO通过的全球首个AI伦理协议《人工智能伦理问题建议书》(RecommendationontheEthicsofArtificialIntelligence),则是目前最全面、具有广泛共识的全球性AI政策框架,该建议书建议各国通过AI伦理官、伦理影响评估等机制来加强AI伦理治理。

与此同时,美欧加速推进AI政策,以期强化在AI政策领域的领导地位并影响全球AI治理规则与标准。例如,欧盟正在制定一部统一的AI法案,当其预期在2023年通过时,将建立全面的、基于风险的AI监管路径。很多专家预测,正像之前的数据隐私立法GPDR对全球科技行业的影响那样,欧盟AI法案将“布鲁塞尔效应”延伸到AI领域,而这正是欧盟所希望的,即通过监管为全球树立AI治理标准。[14]AI立法之外,欧洲理事会还在酝酿全球第一个“国际AI公约”,正像之前的《网络犯罪公约》和《隐私公约》那样,成员国和非成员国都可以加入并批准将来的AI公约。[15]美国在技术和产业方面一直是AI领域的全球领导者,近年来开始积极重塑其在AI政策领域域的领导地位。2020年成立的美欧贸易和技术理事会(US-EU Tradeand Technology Council)的一个核心任务就是推进美欧在AI治理方面的合作。[16]总之,全球AI竞争日益重视AI政策和治理领域的软实力竞争,可以说是代表了21世纪科技竞争的一个重大转变。

近年来,中国对参与全球科技治理高度重视,积极提出自己的主张,争取更多认同与共识。例如,中国提出《全球数据安全倡议》,持续为全球数字治理注入正能量。2022年11月,在联合国《特定常规武器公约》缔约国大会上,中国提交加强人工智能伦理治理立场的文件,提出坚持伦理先行、加强自我约束、负责任使用人工智能、鼓励国际合作等主张。


三点展望


《“十四五”规划和2035年远景目标纲要》《法治中国建设规划(2020—2025)》《关于加强科技伦理治理的意见》等诸多政策和规范性文件表明,AI治理持续成为科技治理和科技伦理的核心领域。中国进一步增进在AI领域的全球竞争力,不仅需要更加注重培育技术和产业硬实力,而且需要着力塑造软实力,尤其是在AI政策和治理方面的话语权和领导地位。因为AI治理已经成为全球AI竞争力的重要组成部分。

回顾既往,中国已经明确了发展与安全并重、创新与伦理并行的AI监管和治理思路,在支持、促进创新发展的同时,保障技术应用的安全、可靠、可控。面向未来,我们需更好地发挥政府、行业/企业、研究机构、社会组织、用户/消费者、社会公众、媒体等多利益相关方的合力作用,持续推动AI治理实践的良性发展,让AI更好地造福经济社会发展,增进民生福祉,把科技向善推向更高水平。

进一步而言,已经过去的AI“黄金十年”给人们带来了日益强大的AI模型,而且在可预见的未来,AI只会变得更加强大。这意味着,AI在与社会生态系统互动过程中,可能带来的人类的、社会的和环境的影响将远超以往任何技术。因此,AI治理的首要任务是,持续倡导并践行“负责任AI”的理念;“负责任AI”必须是以人为本的,要求在设计、开发、部署AI的技术实践中秉持善意,增进对技术的信任,给利益相关方创造价值并增进其福祉,防范滥用、误用和恶用。总之,有效的AI治理需要推动负责任AI实践走向深入,打造可信AI(Trustworthy AI)。

持续完善数据与AI法律框架,推进精准敏捷监管

AI的健康可持续发展,一方面离不开合理有效的监管,另一方面需要持续提升AI领域的数据供给和流通利用水平。实际上,AI在医疗、制造、金融等诸多领域的发展应用,所面临的一个主要问题就是数据获取利用问题,包括数据难以获取、数据质量差、数据标准不统一等。因此,未来AI的进一步发展,在很大程度上依赖于对数据与AI法律框架的持续完善。英国的《数字监管计划》提出,设计优良的监管,对于推动发展、塑造生机勃勃的数字经济和社会可以产生强大的效应,但是设计糟糕或者限制性的监管则会阻碍创新。正确的规则可以帮助人们信任他们所使用的产品服务,这反过来会推动产品服务的普及以及进一步消费、投资和创新。[17]对于AI而言也是如此。

一方面,对于AI治理,需要更好地推进精准敏捷监管。这包括:第一,针对不同的AI产品、服务和应用采取不同的规则。因为现在AI应用几乎无处不在,一刀切似的规则难以合理适应不同行业和领域中AI应用的独特特征及其对个人和社会的影响。这要求我们采取基于风险的AI治理政策框架。例如,同样的AI技术既能用来分析、预测用户的人身属性和个人偏好并进行个性化的内容推送,也可以用来辅助疾病诊断和治疗;计算机视觉技术既能用来对手机相册进行自动分类和整理,又能用来识别癌症肿瘤。这些应用在风险等级、结果重要性、个人和社会影响等方面存在巨大差异,如果笼统、一刀切地提出监管要求,显然既不科学,也不现实。第二,强调在对AI应用进行分级分类基础上,采取分散式、差异化监管。就像互联网一样,AI是很宽泛、很通用的技术,不适宜也难以进行统一监管。国外来看,目前只有欧盟尝试针对所有AI应用建立一个统一的、一般化的监管框架(欧盟模式),英国、美国则强调基于应用场景和风险的行业分散监管(英美模式)。英国提出以原则为指导,对AI应用采取促创新的监管,其核心理念包括:聚焦具体应用场景,基于风险大小,确保监管的相称性和适应性;[18]美国一贯强调行业监管和行业自律相结合的治理路径,如《AI权利法案蓝图》在提出5项原则的同时,明确了行业主管部门牵头、应用场景导向的分散化监管思路。[19]就中国而言,过去对AI所采取的立法和监管更接近于英美模式,即针对算法推荐服务、深度合成、自动驾驶等不同AI应用分别制定监管规则。这种分散式、差异化的监管模式符合敏捷治理原则,能更好地适应AI技术及其应用快速发展迭代的复杂特征。第三,呼吁不断创新监管工具箱,采取多元化的监管举措。一是AI“监管沙盒”。欧盟在AI监管方面的一大创举就是提出了AI“监管沙盒”。[20]“监管沙盒”作为支持、促进监管者和创新主体之间沟通协作的有效方式,可以提供一个受控的环境来合规地研发、测试、验证创新性的AI应用。从“监管沙盒”中产生的最佳实践做法和实施指南,将有助于企业尤其是中小微企业和创业公司落实监管规则。二是AI治理社会化服务,包括AI治理标准、认证、检测、评估、审计等。在网络安全领域,网络安全认证、检测和风险评估等网络安全社会化服务,是落实监管要求的重要方式。AI治理完全可以借鉴这一方式。当前,欧盟、英国、美国以及IEEE等都在推进AI治理社会化服务。例如,IEEE已面向行业推出了AI伦理认证;[21]英国发布的《建立有效AI认证生态系统的路线图》希望培育一个世界领先的AI认证行业,通过中立第三方的AI认证服务(包括影响评估、偏见审计和合规审计、认证、合规性评估、性能测试等)来评估、交流AI系统的可信性和合规性。英国认为这将是一个价值数十亿英镑的新行业。[22]中国需要加快建立健全AI治理社会化服务体系,通过下游的AI治理服务更好地承接、落实上游的立法和监管要求。此外,政策指南、责任安全港、试点、示范应用、事后追责等监管方式,在不同应用场景下都可发挥重要作用。

另一方面,需要加快完善数据流通利用的法律框架,持续提升AI领域的数据供给水平。一是在国家层面构建公共数据开放共享的法律框架,统一数据质量和数据治理标准,通过数据下载、API接口、隐私计算(联邦学习、安全多方计算、安全可信计算环境等)、数据空间(Data Space)等多元化的管理和技术方式,促进公共数据最大化开放共享。二是积极扫除隐私计算技术、合成数据技术发展应用所面临的各种障碍。目前,在各类数据的流通利用方面,联邦学习等隐私计算技术发挥着越来越重要的作用,可以实现“数据可用/可算不可见”“数据不动算法/价值动”等效果。受到AI和大数据应用发展的驱动,联邦学习作为隐私计算领域主要推广和应用的方法,是目前最为成熟的技术路径。下一步可以通过构建战略性领域的数据空间、制定隐私计算行业标准、出台法律层面的隐私计算技术实施指南等方式,更好地支持联邦学习等隐私计算技术的应用发展。

AI伦理治理需从原则迈向实践

随着科技伦理治理的建制化和法治化发展,对于科技企业而言,加强科技伦理治理已是“必选项”和“必答题”之一。在“伦理先行”理念之下,科技伦理治理要求意味着,科技企业不能寄希望于以事后补救的方式来应对AI伦理问题,而是需要在从设计到开发、再到部署的整个AI生命周期中,积极主动地履行科技伦理管理主体责任,以多种方式创新性地推进科技伦理自律。整体而言,在一个高度技术化、数字化的社会,科技企业需要考虑将AI治理整体纳入其公司治理版图,作为与法务、财务、风控等既有模块同等重要的模块。以下几个方面值得进一步探索:

首先,在管理上,要建立AI伦理风险管理机制。AI伦理风险管理需要贯穿AI全生命周期,包括预设计阶段、设计开发阶段、部署阶段以及贯穿这几个阶段的测试和评估活动,以全面识别、分析、评估、管理、治理AI伦理风险。这有赖于企业建立相应的组织架构和管理规范,如伦理委员会、伦理审查流程和其他管理工具。政策制定者可以考虑出台这方面的政策指南。

其次,在设计上,需遵循以人为本的设计理念,践行“伦理嵌入设计”(Ethicsby Design)理念。伦理嵌入设计意味着,将伦理价值、原则、要求和程序融入AI、机器人和大数据系统的设计、开发、部署过程。企业需要反思技术人员主导的AI研发应用过程,更多地强调AI研发应用活动的多元背景和多元参与。将政策、法律、伦理、社会、哲学等多学科、跨学科人员引入技术开发团队,是将伦理要求嵌入技术设计开发最直接、有效的方式。未来,政策制定者可以携手行业总结经验教训,出台伦理嵌入设计的技术指南、最佳实践做法等文件。

最后,在技术上,需要持续探索以技术化方式和市场化路径应对AI伦理问题,打造可信AI应用。一是AI伦理工具。AI应用的很多问题诸如可解释性、公平性、安全性、隐私保护等,都是可以通过技术创新手段来解决的。业界围绕这些问题,已经探索出一些AI伦理工具和AI审计工具,未来这个方面的工作还需继续深入开展。二是AI伦理服务(AIEthicsasa Service)。[23]它是市场化的路径,AI伦理领先企业和AI伦理创业公司开发以AI伦理工具及服务为核心的负责任AI解决方案,作为商业服务对外提供。[24]研究咨询公司Forrester预测,会有越来越多的AI科技企业、应用AI的其他领域企业采购负责任AI解决方案来帮助其落实公平和透明的AI伦理原则,AI伦理服务市场规模将翻倍。三是AI伦理赏金 (AI Ethics Bounty)等技术众包方式。类似于互联网企业广泛采用的网络安全漏洞赏金(Bug bounty),算法歧视赏金(Algorithmic Bias Bounty)等技术众包方式,在发现、识别、解决AI伦理问题,开发AI审计工具,打造可信AI应用上将发挥重要作用。Twitter、斯坦福大学等国外一些企业和大学研究机构已开展了算法歧视赏金挑战赛、AI审计挑战赛,呼吁参与者开发工具来识别、减轻AI模型中的算法歧视。通过这些技术众包方式培育、壮大AI伦理社群,将在AI治理中扮演重要角色。

全球AI治理合作需持续深化

如前所述,全球AI治理呈现竞争态势,这并不符合以人为本、技术开放共享、普惠发展等理念。各国需要在国际AI治理方面持续深化合作,推动制定AI伦理和治理的国际协议,形成具有广泛共识的国际AI治理框架、标准规范,增进技术、人才、产业等方面的交流与协作,反对排斥主义,推动技术普惠和科技向善,实现各国普惠发展。中国深度参与全球科技治理,需要抓住AI、数据等领域的新一轮国际规则制定机遇,不断提出符合全球共识的AI治理方案,持续为全球数字治理和AI治理注入中国智慧。同时,我们需要增强国际发声,把自己的理念、主张、做法等融入国际社会,争取更多认同与共识,增强话语权和影响力。

面向未来,随着AI技术的不断发展,AI将变得越来越强大,未来可能出现通用AI(Artificial General Intelligence,缩写AGI)。通用AI将具备与人类同等水平的智慧,可以执行人类能够执行的任何智力任务。理论上,通用AI可能设计出更高级别的智能,带来智能大爆炸,也就是所谓的“奇点”,产生超级智能。从现在的AI应用到将来的AGI,可能是一个从量变到质变的飞跃。这引发了人们对AGI取代人类工作、失控甚至威胁人类生存的担忧。因此,对于通用AI发展及其潜在的安全、伦理等问题,全球需未雨绸缪,通力合作,确保AI技术更普惠、安全可靠、可控地发展,造福全人类。

本文首发于《上海师范大学学报(哲学社会科学版)》2023年第4期