如何对AI进行监管?专家建议健全法律保障和标准体系

转载
552 天前
4300
AIcore

文章转载来源:AIcore

作者:徐赐豪

来源:财联社

‌图片来源:由无界 AI工具生成

由OpenAI引发的AI热潮正在持续,但AIGC相关应用在提升生产效率的同时,也被不法分子用于生成虚假内容,扰乱社会正常运行。

国信证券研报指出,国内AI应用逐步扩大, AI相关应用也会逐步起量。针对AI滥用风险,数据安全、密码、AI监管均是重要的技术发展方向。

日前,美亚柏科发布了新产品,可以对AI生成的视频、图像、文本进行检测识别。实际上,我国相关部门一直在探索对AIGC产品和应用的法律监管。相关专家也建议,只有建立健全相关法律制度,才能从根本上推动我国AIGC产业健康可持续发展。


美亚柏科发布AI监管产品


5月15日,美亚柏科发布了一则投资者关系活动记录表。

记录表显示,在AI监管产品方面,公司已经发布了AI-3300“慧眼”视频图像鉴真工作站,可以对深度合成伪造的视频图像、AIGC生成视频图像进行监测鉴定。公司推出的AIGC检测平台支持AIGC生成文本的检测识别。

同时美亚柏科表示,后续公司将持续围绕包括反生成式 AI 在内的 AI安全及监管领域进行研究,并根据业务需要适时布局相关产品。

元宇宙NEWS记者致电美亚柏科方面,该公司接线人士表示,从商业模式来看,目前公司的AI安全产品主要服务的还是像公安、网信等监管部门,针对网络上利用生成式技术进行不良信息的传播行为识别和鉴定;此外可以针对提供生成式服务的生产商提供安全性以及合规性的评测服务。

上述接线人士坦言,目前国内大模型厂商还处在发布以及市场适用的阶段,从B端这个角度来看,目前业务领域的合作还在探讨中。

“随着深度伪造技术和AIGC技术的日渐成熟,伪造相关视频、音频、图像等技术门槛大幅降低,AI技术滥用风险进一步扩大,监管迫切需要加强。”天使投资人、资深人工智能专家郭涛向元宇宙NEWS记者表示,AI监管工具在监测识别利用深度伪造技术和AIGC技术制作的图片、视频、视频等方面有比较好的效果,可以减少技术滥用风险。

戴尔科技中国研发集团高级主管科学家李三平博士向元宇宙NEWS记者表示,从技术角度讲,目前AI生成图片、视频已经有一些尝试,例如谷歌将标记由其工具创建的每一个AI生成图像。

“技术上便于识别,使用上不影响用户。但是文字类的内容还在探索中。”李三平说道。


AI监管一直在路上


国信证券认为,随着国内百度、360、阿里、华为、腾讯等互联网公司发布或者计划发布大模型,AI相关应用也会逐步起量。针对AI滥用风险,数据安全、密码、AI监管均是重要的技术发展方向。

实际上我国一直以来十分重视AI的监管。

2023年1月10日,《互联网信息服务深度合成管理规定》(以下简称《规定》)正式施行。《规定》明确,提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能服务的,应当进行显著标识,避免公众混淆或者误认。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。

4月11日,网信办发布关于《生成式人工智能服务管理办法(征求意见稿)》(简称“《办法》”),首次聚焦生成式AI,进一步明确法律边界和责任主体。《办法》提出利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等的组织和个人,应当承担该产品生成内容生产者的责任。提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

“AI产业监管方面存在相关法律法规与标准体系不健全、缺乏多部门协同的自上而下的监管体系、监管技术手段落后等突出问题。”郭涛指出,政府有关部门需要尽快建立健全AIGC研发与应用相关法律法规和标准体系,建立或完善伦理审查制度和监管体系,加强对科技企业、应用场景、使用者的监管,搭建多方参与协同治理平台,推动AIGC产业健康可持续发展。