最开放的Gemma 4来了——谷歌:没人比我更懂“不作恶”。
2026 年 4 月 2 日谷歌 DeepMind 发布了 Gemma 4 系列模型[1]。模型有四个规格——E2B、E4B、26B MoE、31B Dense——覆盖了从树莓派到单卡 H100 的全硬件区间31B 在 Arena 开源榜冲到第三26B MoE 只激活 38 亿参数就打出了同级 Dense 模型的效果。但这些数字都不是当天最热的议题。让 Reddit r/LocalLLaMA 板块在发布后几小时内涌出数十个讨论帖的是另外一件事Gemma 4 全系采用 Apache 2.0 协议彻底告别了前三代饱受诟病的“Gemma 自定义许可证”。开发者们的反应很直白——“终于可以放心用了”。有人当即跑通了树莓派 5 的本地部署有人在 6 小时内放出了 GGUF 量化版还有人做了与 Qwen 3.5 的横向跑分。Hugging Face 官方博客的欢迎文章在一天内收获 223 个赞评论区从 K12 教育到自动驾驶各种应用场景已经开始讨论。这一切热情与其说是因为模型本身有多强不如说是因为谷歌终于打开了那把锁。那行“劝退”的许可证要理解社区为什么这么激动得先看看 Gemma 系列此前的许可证到底有多“劝退”。Gemma 1 于 2024 年 2 月发布是谷歌对 Meta 开源攻势的防御性回应。模型本身的参数效率和性能在当时颇有竞争力但开发者很快发现了一个问题许可证不对劲。Gemma 自定义许可证包含几个让企业和开发者望而却步的条款第一谷歌可以单方面修改规则。协议明确保留谷歌随时更新条款的权利这意味着今天合规的用法明天可能突然违规。对于需要长期规划的企业级项目来说这是一个无法接受的法律不确定性。第二下游衍生的边界模糊。如果开发者用 Gemma 生成合成数据再用这些数据训练其他模型新模型是否仍然受 Gemma 原始协议约束协议没有给出清晰答案。对于有法务审查需求的企业来说模糊等于否定。第三与“开源”的定义存在本质矛盾。开源促进会OSI对“开源”的定义要求许可证不可撤销、不歧视特定人群或用途。Gemma 许可证要求用户接受谷歌的服务条款并限制了部分使用场景——开发者们对它的“开源”打引号不是没有道理。结果是在 Hugging Face 上Gemma 系列的衍生 fine-tune 数量始终落后于 Llama 和 Qwen不是模型不够好是没人敢往自己的产品里放。VentureBeat[2]在报道 Gemma 4 时引用了一位开发者的总结“性能决定你能不能用许可证决定你敢不敢用。”这句话精准地概括了 Gemma 前三代的困境。Apache 2.0不只是换了一行字谷歌这次切换 Gemma 许可证的战略意义可能比模型本身的性能提升更大。对个人开发者Apache 2.0 意味着可以自由修改、打包进商业产品、不必担心某天收到谷歌法务部的通知。这是开源社区最熟悉的许可证之一——Android、TensorFlow、Kubernetes 都用的它。对企业法务Apache 2.0 的合规审查路径非常清晰。VentureBeat 报道中直言Gemma 3 时代许多企业的合规团队直接把 Gemma 从候选名单划掉不是因为模型不够好而是因为“律师看不懂自定义许可证的风险在哪里”。对开源生态的格局这次切换有更微妙的含义。VentureBeat 的分析指出了一个关键时机当阿里 Qwen 系列开始对最新模型收回完全开放的策略时谷歌却反其道而行之。Qwen 此前部分版本采用 Apache 2.0但最近的旗舰模型转向了更保守的自定义许可。Meta 的 Llama 系列至今坚持自定义的“Llama Community License”。在这个时间点谷歌选择把许可证“降级”到最宽松的标准协议之一实际上是把许可证本身变成了一种竞争武器——你不是嫌我限制多吗那我现在比 Mistral 还开放你来试试。Hugging Face 博客[3]的措辞也很有暗示性“These models are the real deal: truly open with Apache 2 licenses”。加了“truly”这个词你细品。社区的第一天发布后 24 小时内社区的反应比模型参数本身更能说明问题。树莓派实测帖成为 r/LocalLLaMA 当天 upvote 最高的帖子之一E2B 量化版跑通树莓派 5 的视频被广泛转发——这对于边缘计算和 IoT 开发者来说是一个信号从此类设备上运行高质量多模态 AI 不再需要等待。量化版本在 6 小时内出现GGUF 格式多种精度可选从 Q2 到 Q8 一应俱全。社区工具链的响应速度说明一件事开发者们其实早就准备好了只是之前被许可证拦在门外。甚至还有用户发布了移除安全过滤的“去审查”版本称可以实现“零拒绝回答”。这个现象本身折射出一个此前被广泛讨论的问题Gemma 系列的安全过滤在某些场景下被认为过度保守尤其是在非英语语言和学术讨论中。Apache 2.0 许可证使得这类修改变得完全合法——这是自定义许可证下无法实现的事情。当然技术问题也不是没有除了 Simon Willison 遇到的 31B 本地加载问题外部分用户报告了内存错误和 Jinja 模板解析失败等部署障碍。ZDNet 的报道标题直接点出“fully open-source”这个定性本身就是最大的新闻。两年后回头看Gemma 1 发布于 2024 年 2 月。彼时开源大模型竞争刚刚升温Meta 的 Llama 系列已经建立了先发优势Mistral 凭借 Apache 2.0 协议也迅速赢得一席之地。Gemma 作为后来者模型性能并不差但自定义许可证成了硬伤。两年过去Gemma 在 Hugging Face 的衍生模型数量上始终没有追上 Llama 和 Qwen。许可问题是被开发者引用最多的原因——这或许不是唯一的原因但绝对是最容易说出口的原因。现在谷歌做了一个它本该在 Gemma 1 就做的决定来得晚了吗也许但时机也有微妙的优势开源 AI 模型正进入一个从「比参数」到「比生态」的阶段。模型之间的性能差距在缩小而许可证合规性、社区活跃度、部署便利性、Harness[4]配套等这些“基础设施”层面的因素正在成为选择的决定性考量。Gemma 4 不一定能在 Arena 开源模型榜上稳压 GLM-5 或 Qwen-3.5但如果 Apache 2.0 能让它的衍生生态在接下来六个月内出现爆发式增长——就像 Mistral 在 2024 年经历的那样——那么这次许可证切换的历史意义可能远大于任何基准测试上的分数提升。谷歌在官方博客中称这个愿景为“Gemmaverse”听起来像营销话术但也不妨这么理解在开源 AI 的游戏里比模型更强的是生态比生态更强的是信任。Apache 2.0 是建立信任的第一步。至于这一步来得是不是太晚了答案就在未来这几个月。One more thing…实际上开放源代码促进会Open Source InitiativeOSI在 2024 年发布了“开源 AI 定义”[5]该定义规定真正开源的 AI 大模型必须提供训练数据的详细信息、完整的构建和运行 AI 的代码以及训练时的设置和权重。即模型权重weights、训练数据集dataset、训练代码training pipeline三要素这也是很多研究者心中的“完全可复现开源reproducible AI”标准。但现实是目前市面上仍没有任何一家主流开源 AI 模型符合这个标准毕竟对于商业公司来说高质量的数据集属于企业的核心资产之一同时面临安全/合规、版权归属等现实问题通常不可能完全开源。所以即便是采用 Apache 2.0 协议的 AI 模型在法律意义上是开源模型在技术复现意义上仍不算是“完全开源 AI”。但不可否认的是采用 Apache 2.0 协议的 Gemma 4 已经算是目前开放程度最高的主流 AI 模型之一了。参考链接谷歌 DeepMind 发布了 Gemma 4 系列模型: https://www.oschina.net/news/417088/gemma-4VentureBeat: http://venturebeat.com/ai/google-releases-gemma-4-under-apache-2-0-and-that-license-change-may-matter/Hugging Face 博客: http://huggingface.co/blog/gemma4Harness: https://my.oschina.net/u/4487475/blog/19431001“开源 AI 定义”: https://www.oschina.net/news/318171/osi-ai-definition-1-0http://arstechnica.com/ai/2026/04/google-announces-gemma-4-open-ai-models-switches-to-apache-2-0-license/http://simonwillison.net/2026/Apr/2/gemma-4/http://deepmind.google/models/gemma/gemma-4http://opensource.googleblog.com/2026/03/gemma-4-expanding-the-gemmaverse-with-apache-20.html
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2484256.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!