刚刚,谷歌推出最强开放模型Gemma,性能超Llama-2,可在笔记本和台式机运行

转载
281 天前
3902
学术头条

文章转载来源:学术头条

文章来源:学术头条

图片来源:由无界AI生成

‌刚刚,谷歌在大模型领域又有了新动作:重磅推出了一系列轻量级、先进的开放模型 Gemma
据介绍,Gemma 由 Google DeepMind 和 Google 的其他团队共同开发,采用与创建 Gemini 模型相同的研究和技术构建而成,专为负责任的人工智能开发而设计,其名字来自拉丁语 gemma,意为“宝石”。
Google DeepMind 首席执行官 Demis Hassabis 在 X 上表示,“我们长期以来一直支持负责任的开源和科学,这可以推动快速的研究进展,因此我们很自豪地发布了 Gemma......”

研究团队在 Google DeepMind 官方博客中公布了一些关于 Gemma 的关键细节,如下:

  • 谷歌将发布两种尺寸的模型权重:Gemma 2B 和 Gemma 7B,且每种尺寸都发布了预训练和指令微调变体。
  • 新的 Responsible Generative AI 工具包为使用 Gemma 创建更安全的 AI 应用提供了指导和基本工具。
  • 谷歌也为所有主要框架的推理和监督微调(SFT)提供了工具链:JAX、PyTorch 和 TensorFlow,以及本地 Keras 3.0。
  • 现成可用的 Colab 和 Kaggle 笔记本,以及与 Hugging Face、MaxText、NVIDIA NeMo 和 TensorRT-LLM 等流行工具的集成,也使得开发者上手 Gemma 非常容易。
  • 经过预训练和指令微调的 Gemma 模型可在用户的笔记本电脑、工作站或谷歌云上运行,并可在 Vertex AI 和谷歌 Kubernetes Engine (GKE) 上轻松部署。
  • 跨多个 AI 硬件平台的优化确保了行业领先的性能,包括英伟达 GPU 和谷歌云 TPU。
  • 在使用条款下,允许所有组织(无论规模大小)进行负责任的商业使用和分发。
    此外,研究团队也在博客中写道,“从今天开始,Gemma 将在全球发布。”也就是说,国内的开发者从今天起也可以使用 Gemma。(快速入门指南:https://ai.google.dev/gemma?hl=zh-cn)

同尺寸下最强

据官方博客介绍,Gemma 模型与 Gemini 共享技术和基础设施组件,这使得 Gemma 2B 和 7B 与其他开放模型相比,在其规模上实现了同类最佳的性能。而且,Gemma 模型能够直接在开发人员的笔记本电脑或台式电脑上运行。
值得一提的是,Gemma 在关键基准上超过了更大的模型,同时还符合谷歌严格的安全和负责任的输出标准。

此外,为了使 Gemma 预训练模型安全可靠,谷歌使用自动化技术从训练集中过滤掉某些个人信息和其他敏感数据;还使用了大量的微调和基于人类反馈的强化学习(RLHF),从而使 Gemma 的指令微调模型与负责任的行为保持一致;为了解并降低 Gemma 模型的风险,谷歌进行了严格的评估,包括人工红队、自动对抗测试和危险活动模型能力评估。

跨框架、工具和硬件优化

谷歌方面表示,为适应特定的应用需求,比如汇总或检索增强生成(RAG),开发者可以使用自己的数据对 Gemma 模型进行微调

目前,Gemma 支持多种工具和系统:

  • 多框架工具:使用最喜欢的框架,在多框架 Keras 3.0、本地 PyTorch、JAX 和 Hugging Face Transformers 中进行推理和微调的参考实现。
  • 跨设备兼容性:Gemma 模型可在笔记本电脑、台式机、物联网、移动和云等流行设备类型中运行,从而实现广泛的 AI 功能。
  • 尖端硬件平台:谷歌与英伟达合作,针对英伟达 GPU 优化 Gemma,从数据中心到云端再到本地 RTX AI PC,确保业界领先的性能和与尖端技术的集成。
  • 针对谷歌云进行了优化:Vertex AI 提供广泛的 MLOps 工具集,具有一系列调整选项,并可使用内置推理优化功能进行一键式部署。可使用完全管理的 Vertex AI 工具或自主管理的 GKE 进行高级定制,包括部署到任何平台的 GPU、TPU 和 CPU 上具有成本效益的基础设施。
参考链接:
https://blog.google/technology/developers/gemma-open-models/
技术报告链接:
https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdf