谷歌免费商用 Gemma 4 正式发布,Apache 2.0 协议任你用

张开发
2026/5/17 12:10:28 15 分钟阅读
谷歌免费商用 Gemma 4 正式发布,Apache 2.0 协议任你用
谷歌近日正式发布了 Gemma 4这是一系列基于与其专有模型 Gemini 3 相同底层研究构建的开源模型家族。与 Gemini 不同的是Gemma 系列模型是完全开源的并且 Gemma 4 采用了宽松的 Apache 2.0 许可证。Gemma 4 最重要的特性之一便是向智能体工作流的转变。所有 Gemma 4 模型现在都原生支持函数调用、结构化 JSON 输出和原生系统指令。这使得开发者能够构建自主 AI 智能体在本地可靠地执行复杂逻辑并与外部 API 进行交互。谷歌表示Gemma 4 的 31B 稠密模型目前在 Arena AI 排行榜上位列开源模型第 3 名而 26B 模型则位居第 6其表现明显优于规模大其 20 倍的竞争对手。26B 和 31B 模型的非量化权重可以完美适配单个 80GB 的 NVIDIA H100 GPU。针对本地开发26B 的混合专家模型经过超低延迟优化在推理时仅激活其 38 亿个参数。这使得它能够闪电般地快速生成 token有助于在消费级显卡上为本地编程助手提供动力。谷歌还专注于这些模型的多模态能力。在去年以移动端为先的 Gemma 3n 基础上整个 Gemma 4 家族都能自然地处理高分辨率视频和图像。E2B 和 E4B 边缘模型更进一步具备原生音频输入功能可实现无缝、近乎零延迟的语音识别。这些边缘设备模型配备了 128K 的上下文窗口而较大的 26B/31B 模型则高达 256K。值得注意的是与此前带有特定使用条款、并非真正意义上的“开源”的 Gemma 模型迭代不同Gemma 4 采用了商业无限制的 Apache 2.0 许可证。借此谷歌正在直接挑战同样采用 Apache 许可证的 Meta Llama 模型。Gemma 4 目前已经兼容 Hugging Face、Ollama 和 vLLM 等平台并获得了 NVIDIA、AMD、Qualcomm 和 MediaTek 的硬件优化支持。对于移动开发者来说这些模型现已可在 AICore 开发者预览版中进行原型设计确保与即将推出的 Gemini Nano 4 的前向兼容性。

更多文章