返回资讯列表
产品更新

谷歌发布Gemma 4四大尺寸,Apache 2.0开源

ghacks.net2026/05/06-291,859 阅读
🎵

谷歌发布Gemma 4开源模型系列,包含四款不同规模模型,涵盖边缘设备(E2B/E4B)及服务器级应用(26B/31B)。新模型全面支持多模态输入、长上下文窗口(最高256K tokens)及140多种语言。最大亮点是许可协议转为Apache 2.0,大幅放宽了商业使用与修改限制。基准测试显示,其大参数模型性能优异,且优于参数量大20倍的竞品。

谷歌发布 Gemma 4:包含四种模型规模,采用 Apache 2.0 许可协议

Arthur Kay 2026年4月6日

谷歌推出了 Gemma 4,这是一组采用 Apache 2.0 许可协议的四种开放权重模型。与 早期的 Gemma 版本 相比,此次许可协议的更新拓宽了修改、复用和商业使用的可选范围。

这些模型旨在支持从移动设备到服务器级推理的各种硬件。此次发布由 Google DeepMind 宣布,重点关注推理能力、智能体工作流以及多模态输入支持。

Gemma 4 模型规模与硬件定位

谷歌宣布推出多种配置的 Gemma 4。其中包括: * E2B:针对边缘设备优化,面向移动硬件和低功耗场景; * E4B:同样针对边缘优化,面向类似设备,但具备更高的容量; * 260 亿参数的混合专家模型:专为服务器级应用设计,目前在 Arena AI 文本排行榜的开源模型中位列第六; * 310 亿参数的稠密模型:在同一排行榜上位列第三。

谷歌指出,在 Arena AI 基准测试中,31B 和 26B 模型的表现优于参数量少其 20 倍 的其他模型。这些性能声明基于谷歌在模型发布时的自行评估。

Gemma 4 模型家族的能力

所有四款 Gemma 4 模型均原生支持各种分辨率的视频和图像多模态功能,并将 OCR(光学字符识别)和图表理解列为关键用例。E2B 和 E4B 模型还包含用于语音识别的原生音频输入功能。

边缘模型的上下文窗口长度为 128K tokens,而 26B 和 31B 模型则高达 256K tokens。所有模型均支持函数调用、结构化 JSON 输出以及用于构建智能体工作流的原生系统指令。谷歌指出,这些模型在 140 多种语言 上进行了原生训练。

从自定义 Gemma 许可协议转向 Apache 2.0

此前的 Gemma 模型发布使用的是自定义许可协议,限制了修改和分发。Gemma 4 现采用 Apache 2.0 许可协议,为商业使用、修改和分发提供了标准化的条款,无需与谷歌签订额外协议。谷歌表示,这一变化使 Gemma 4 更适合企业级和开发者应用。

目前,所有四款 Gemma 4 模型均已上线。不过,谷歌尚未提供边缘模型何时可能集成到 Android 或消费级硬件产品中的时间表。

来源:ghacks.net

AI人工智能科技产品更新