谷歌DeepMind发布Gemma 4:更小、更智能、具备视觉能力的模型

Simon Willison··作者 Simon Willison

关键信息

E2B和E4B模型使用分层嵌入(PLE)技术减少内存占用同时保持性能;31B模型存在bug导致无限循环输出,但26B-A4B混合专家版本在SVG图像生成任务中表现出色。

资讯摘要

谷歌DeepMind推出了Gemma 4,包括四个从2B到31B参数的开源模型,其中包含一个26B-A4B混合专家版本。这些模型通过分层嵌入(PLE)等技术强调每参数智能提升,允许小型模型通过优化每层嵌入使用方式实现高性能。作者使用GGUF格式在本地测试了多个模型,发现2B、4B和26B-A4B版本运行良好,后者甚至能生成非常准确的“鹈鹕骑自行车”SVG图像。

然而,31B模型存在一个导致重复输出“---”的错误。用户可通过AI Studio API访问两个较大模型,例如生成上述SVG内容。此次发布凸显了研究重心转向适合实际部署的小型高效模型。

谷歌DeepMind发布Gemma 4:更小、更智能、具备视觉能力的模型

资讯正文

Gemma 4:按字节计算,最具能力的开源模型

谷歌DeepMind推出了四款具备视觉能力的Apache 2.0许可证推理大语言模型,参数规模分别为2B、4B、31B,以及一个26B-A4B的专家混合模型。

谷歌强调这些模型实现了“每参数前所未有的智能水平”,进一步证明了开发小型实用模型是当前最热门的研究方向之一。

他们实际上将两个较小的模型标记为E2B和E4B,意指“有效参数规模”。系统卡片对此解释道:

较小的模型采用了逐层嵌入(Per-Layer Embeddings,PLE)技术,以在设备端部署时最大化参数效率。与其增加更多层数或参数,PLE为每个解码层都分配了一个针对每个token的小型嵌入表。这些嵌入表虽然较大,但仅用于快速查找,因此有效参数数量远小于总参数量。

我对这部分理解不深,但看来这正是E2B中字母“E”的含义!

我使用LM Studio提供的GGUF格式尝试运行它们。2B(4.41GB)、4B(6.33GB)和26B-A4B(17.99GB)模型均正常工作,但31B(19.89GB)模型损坏,在我每次输入提示时都会不断输出“---”符号。

从2B到4B再到26B-A4B的连续表现,明显体现出模型质量的提升:

E2B:

<img alt="两个蓝色圆圈在一个棕色矩形上,还有一团橙色和黄色三角形组成的奇怪形状代表鹈鹕" src="https://static.simonwillison.net/static/2026/gemma-4-2b-pelican.png" />

E4B:

<img alt="两个黑色轮子通过类似灰色冲浪板连接,鹈鹕由半圆形和漂浮在其上方的蓝色斑点组成" src="https://static.simonwillison.net/static/2026/gemma-4-4b-pelican.png" />

26B-A4B:

<img alt="自行车结构完整,尽管车架有些歪斜。鹈鹕形象真实,拥有大三角形喙和优美的弯曲颈部,显然是坐在自行车上的鸟" src="https://static.simonwillison.net/static/2026/gemma-4-26b-pelican.png" />

(这个图像实际上存在SVG错误——“第18行第88列:属性x1重复定义”——但在修复后,我得到了迄今为止在笔记本电脑上运行的模型中最好的鹈鹕图像。)

谷歌已通过其AI Studio提供对两个较大Gemma模型的API访问权限。我已在llm-gemini项目中添加支持,并用该工具调用了31B模型生成鹈鹕骑自行车的SVG图像:

llm -m gemini/gemma-4-31b-it 'Generate an SVG of a pelican riding a bicycle'

还不错,尽管自行车框架的前部缺失了:

<img alt="运动模糊线条,一辆大部分都很棒的自行车,只是缺少了框架的前部。鹈鹕表现尚可。" src="https://static.simonwillison.net/static/2026/gemma-4-31b-pelican.png" />

来源与参考

  1. 原始链接
  2. Gemma 4: Byte for byte, the most capable open models

收录于 2026-04-03