微软、OpenAI等投入1000万美元,“前沿模型论坛”是什么?

转载
388 天前
9831
AIGC开放社区

文章转载来源:AIGC开放社区

原文来源:AIGC开放社区

图片来源:由无界AI生成

10月26日,微软、OpenAI、谷歌和 Anthropic在官网发布联合声明,任命Chris Meserole为“前沿模型论坛”的执行董事,同时投入1000万美元安全基金,用于增强ChatGPT、Bard等生成式AI产品安全。

该声明是四大科技公司对研发安全、可靠、稳定生成式AI的重要表现,同时也是与官方签订“AI安全承诺”的一部分,这对于全球生成式AI的健康发展至关重要。


“前沿模型论坛”简介


“前沿模型论坛”( Frontier Model Forum)由微软、OpenAI、谷歌和Anthropic在今年7月26日联合创立而成,主要职责是确保前沿AI模型的安全和负责任的开发。

该论坛的4大核心目标:

1)推进AI安全研究,促进前沿模型的负责任开发,最大限度地降低风险,并实现对AI能力和安全性的独立、标准化评估。

2)确定负责任地开发和部署前沿模型的最佳实践,帮助公众了解技术的性质、功能、局限性和影响。

3)与政策制定者、学者、民间社会和公司合作,分享有关信任和安全风险的知识。

4)大力支持开发有助于应对社会挑战的AI应用程序,例如,减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。


Chris Meserole职责


Chris在技术政策方面拥有深厚的专业知识,长期致力于新兴技术的治理和安全以及未来应用。最近Chris还担任了布鲁金斯学会AI和新兴技术倡议的主任。

在“前沿模型论坛”中,Chris将履行以下职责:

  • 推进AI安全研究,促进对前沿模型的发展,尽量减少潜在风险。
  • 确定前沿模型的安全最佳实践。
  • 与政策制定者、学术界、社会及其他利益相关方分享知识,推动AI的负责任发展。
  • 支持利用AI解决社会最大挑战的努力。

Chris表示,最强大的AI模型蕴含巨大的社会承诺,但为了发挥其潜力,我们需要更好地了解如何安全开发和评估它们。我很高兴与“前沿模型论坛”共同应对这一挑战。


AI安全基金


在过去一年的时间里,生成式AI获得了巨大进步,同时伴随着很多潜在安全风险。为了解决这一难题,微软、OpenAI、谷歌和Anthropic成立了一个AI安全基金,用于支持来自世界各地附属于学术机构、研究机构和初创公司的独立研究人员,共同努力构建健康、安全的AI安全生态。

今年早些时候,微软、OpenAI、谷歌、Anthropic与官方签订了“AI安全承诺”, 其中包括促进第三方发现和报告四大科技公司中的AI漏洞的承诺。

AI安全基金的主要重点是,支持开发新的模型评估技术,以帮助开发和测试前沿AI模型。

AI安全资金的增加,有助于提高安全和安保标准,并为行业、开发者等应对AI系统带来的挑战提供有效的控制措施。