文章转载来源:AI之势
来源:财联社
作者:牛占林
图片来源:由无界 AI生成
据日经新闻最新报道,日本政府正在考虑明年成立一个组织,探讨人工智能(AI)安全方面的问题,包括民用AI技术被转用于军事目的的风险,旨在在不妨碍研发的情况下,提高其安全性。
据悉,预计最早将在本月举行的人工智能战略委员会会议上正式宣布这一计划,该委员会负责讨论与AI相关的国家战略,成员包括在AI领域有经验的私营部门专业人员。
关注的重点将是最先进的那一批产品,如OpenAI的ChatGPT。为了避免干扰私营部门,企业用于提高运营效率的标准AI技术将不会成为日本政府的目标。
AI产品将在进入市场之前需要进行一系列测试,还有一项提案要求日本政府采购的任何AI产品在使用前都要经过专业机构的认证。
上述新成立组织计划研究潜在的国家安全风险,例如通过AI获取制造生物、化学或其他武器的信息的可能性,还将检查安全漏洞,包括对网络的攻击。
另外,还将调查AI变得不受控制的风险,以及与错误信息和偏见有关的问题。AI控制的社交媒体账号,能在网络上自动生成内容并与人类用户互动,操纵公众舆论或煽动情绪。
目前来看,随着信息技术的发展,AI技术大量运用于军事领域已经成为现实,使用AI收集和分析战场数据等一系列AI操作,在作战系统中已被广泛应用。而民用AI技术被转用于军事目的,几乎是不可避免的问题。
虽然可能会成立一个全新的机构,但最有可能的结果是将一个新的部门并入现有的组织。候选机构包括总务省下属的研究AI技术的国家信息和通信技术研究所,以及经济产业省下属的信息技术促进机构。
在本月初,七国集团(G7)就AI国际规则框架达成了最终协议。这将成为首份对开发人员及用户,规定AI“所有相关人员”应遵守职责的全面国际规则。
G7力争通过率先展现为防止AI滥用而合作姿态的形式,获得G7以外国家和企业的赞同。日本政府将把此次协议用于面向国内的指导方针制定,即AI开发商在向市场推出产品之前,需要接受第三方的风险评估。
英国和美国在创建人工智能机构方面也处于领先地位。11月份,英国成立了全球首个AI安全研究所。在对尖端AI产品上市前后进行验证后,考虑公开其中存在安全风险的产品。
美国根据今年10月拜登总统的行政命令,正在以美国国家标准与技术研究院为主导,制定AI安全评价方法。旨在与私营公司共同创建一个AI安全联盟,以制定评估AI能力和风险的方法,并希望私营公司自行进行风险验证。
来源:AI之势
发布人:暖色
声明:该文观点仅代表作者本人,不代表火讯财经立场。火讯财经系信息发布平台,仅提供信息存储空间服务。
如文章涉及侵权, 请及时致函告之,本站将第⼀时间删除⽂章。邮箱:840034348@qq.com