AI新智界丨每日必读:英美等18个国家签署协议,敦促企业打造“设计安全”的AI系统

转载
354 天前
5834
Yangz

文章转载来源:Yangz

摘要:英美等 18 个国家公布首份关于如何保护 AI 免受不法行为者侵害的详细国际协议,敦促企业打造“设计安全”的 AI 系统;微软 Azure AI 云开发平台新增 Falcon、Stable Diffusion 等 40 个新模型,涵盖文本、图像、代码、语音等内容生成。

图片来源:由无界 AI生成


热点资讯


微软 Azure AI 云开发平台新增 Falcon、Stable Diffusion 等 40 个新模型

据 AIGC 开放社区报道,微软宣布在 Azure AI 云开发平台中新增了 Falcon、Phi、Jais、Code Llama、CLIP、Whisper V3、Stable Diffusion 等 40 个新模型,涵盖文本、图像、代码、语音等内容生成。

开发人员只需要通过 API 或 SDK 就能快速将模型集成在应用程序中,同时支持数据微调、指令优化等量身定制功能。此外,开发人员可通过关键字搜索,在 Azure AI 的“模型超市”中迅速找到适合自己的产品,例如,输入“代码”两字,就能显示相应的模型。

美国、英国等 18 个国家签署协议,敦促企业打造“设计安全”的 AI 系统

据路透社 11 月 27 日报道,美国、英国和其他十几个国家公布了首份关于如何保护 AI 免受不法行为者侵害的详细国际协议,敦促企业打造“设计安全”的 AI 系统。

在一份长达 20 页的文件中,18 个国家一致认为,设计和使用 AI 的公司需要以确保客户和公众免受滥用的方式开发和部署。该协议不具有约束力,主要包含一般性建议,例如监控 AI 系统是否被滥用、保护数据免遭篡改以及审查软件供应商。除了美国和英国外,签署协议的 18 个国家还包括德国、意大利、捷克共和国、爱沙尼亚、波兰、澳大利亚、智利、以色列、尼日利亚和新加坡等。

视觉处理人工智能芯片及解决方案公司“银牛微电子”完成超 5 亿 A 轮融资

据亿欧网 11 月 27 日报道,视觉处理人工智能芯片及解决方案公司“银牛微电子”宣布完成超 5 亿元 A 轮融资。本轮联合领投方为合肥产投和精确资本,津西资本、天娱数科及部分老股东跟投。本轮募集资金主要用于加速新一代芯片及模组研发、新领域产品解决方案研发以及团队发展建设等。

字节游戏大撤退:项目关停或出售,此次调整为了重点推进 AIGC 项目

据 AI 鲸选社报道,继在教育、XR 等领域大撤退后,字节跳动宣布在游戏领域也全面撤出主力军。11 月 26 日,字节游戏业务朝夕光年宣布业务大调整,除了保留 UGC,其他在研项目关停,已经在周一内部完成宣布。传言中,对于已经上线的项目,包括数据不错的《星球重启》和《晶核》等,将保持运营情况下剥离,寻求外部买家。此次调整是为了重点推进 AIGC 项目,此前字节已经上线了豆包、火山方舟等 AIGC 应用。

711 便利店明年起在日本市场大规模引入 AI:用于分析数据、策划新品等

据 IT 之家援引日经新闻报道,711 便利店宣布明年起将在日本市场大规模引入生成式 AI,主要用于分析数据、策划新产品、生成广告素材等用途。

日媒声称,在引入 AI 前,日本市场 7-11 需要经过多次会议讨论、并利用问卷或消费者调查,理解当年市场的趋势和消费者偏好后才能推出一系列产品,整个过程大约需耗时 10 个月。为了加快开发效率,该公司设立了自己的云端 AI 模型,据称整合了 OpenAI、Google 和 Stability AI 等生成式 AI,可收集来自顾客销售数据、产品制造商和社区媒体的多方数据,利用 AI 识别消费趋势并推出新商品提案,还能够生成一系列广告素材,降低成本。

谷歌计划向印度初创公司 CoRover.ai 投资 400 万美元,支持其开发的 BharatGPT

据站长之家报道,谷歌计划向印度初创公司 CoRover.ai 投资 400 万美元,支持其开发的 BharatGPT。BharatGPT 是 CoRover.ai 基于大型语言模型(LLM)的人工智能解决方案,支持超过 12 种印度语言和 120 多种外语。CoRover.ai 强调,BharatGPT 的准确性达到了 90%。基于庞大的互联网数据库,BharatGPT 具有灵活调整和增强内容的能力。这种适应性使得系统能够根据地区、行业、领域、客户、业务和特定用例等因素整合相关的上下文信息,确保用户在提问时获得当前和相关的信息。

浪潮信息发布开源千亿级大模型源 2.0

据金十数据 11 月 27 日报道,浪潮信息发布源 2.0 基础大模型,2.0 模型包含三组参数,分别为 1026 亿、518 亿和 21 亿,在编程、推理、逻辑等方面展示出了先进的能力。与源 1.0 相比,源 2.0 侧重通过模型结构的改进提高精度。


好文荐读


《田渊栋给OpenAI神秘Q*项目泼冷水:合成数据不是AGI救星,能力仅限简单数学题》

大佬们关于Q猜想的讨论仍在继续,今天,AI大牛田渊栋公开表示,Q*只能解决入门级数学题,AGI也大概率无法通过合成数据实现。田渊栋表示:

我部分不同意「AGI只需通过放大合成数据就能解决」的说法。
搜索之所以强大,是因为如果环境设计得当,它将创造出无限多的新模式供模型学习和适应。
然而,学习这样的新模式是否需要数十亿的数据,仍是一个未决问题,这可能表明,我们的架构/学习范式存在一些根本性缺陷。
相比之下,人类往往更容易通过「啊哈」时刻,来发现新的范式。

https://www.aixinzhijie.com/article/6839594

《人力赛道+大模型,没有砸出想象中的水花》

相比大模型到来时的狂热与喧嚣,到了真正落地的阶段,大模型在行业内如何深入应用的探索和考验才刚刚开始。找试点场景、找原型客户,是绝大多数大模型应用厂家的策略。但落地到最终用户那里,由于企业业务逻辑、组织形态的千差万别,大模型从“测试”到“全面落地”,是ChatGPT还是“ChatPPT”,仍存在一定迷惑性。

一位HR企业级软件的售前专家表示,“都是公网数据,企业不敢用。实际应用场景也很少。”

https://www.aixinzhijie.com/article/6839582

《超级AI不会主宰人类,但人工智能必须开源!LeCun最新采访引全网300万人围观》

LeCun最新访谈视频中,再次坦露了自己对开源AI的看法。“超级AI终有一天会诞生,但不会主宰人类。”

https://www.aixinzhijie.com/article/6839590