AI 領域精選文章翻譯
by Clement Farabet, Olivier Lacombe
原文連結: Gemma 4: Byte for byte, the most capable open models
Google DeepMind 今日正式推出 Gemma 4,這是該系列迄今為止最智慧的開源模型。Gemma 4 專為高級推理與代理工作流(agentic workflows)打造,展現了前所未有的「單位參數智慧」(intelligence-per-parameter)。這項突破建立在強大的社群動力之上:自首代發布以來,Gemma 系列下載量已突破 4 億次,並衍生出超過 10 萬個變體。Google 聽取了開發者的反饋,將 Gemma 4 以更具親和力的 Apache 2.0 授權釋出。
Gemma 4 採用與 Gemini 3 相同的技術研究成果開發,是目前能在個人硬體上運行的最強大模型系列之一。它與 Google 的 proprietary Gemini 模型形成互補,為開發者提供開源與商用工具的最強組合。
Gemma 4 提供四種尺寸:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合專家模型 (MoE) 以及 31B 稠密模型 (Dense)。全系列模型已超越簡單的聊天功能,能處理複雜邏輯。其中 31B 模型在 Arena AI 文本排行榜中名列全球開源模型第 3 位,26B MoE 則位居第 6,其實際表現甚至超越了參數規模大其 20 倍的模型。
在邊緣端,E2B 與 E4B 模型重新定義了裝置端 AI 的效用,優先考慮多模態能力、低延遲處理與生態系整合,而非單純追求參數數量。
Gemma 4 的尺寸經過特別設計,能有效率地在各種硬體上運行與微調——從全球數十億台 Android 裝置、筆記型電腦 GPU,到開發者工作站與加速器。Gemma 4 的核心特色包括:
Google 與 Pixel 團隊以及 Qualcomm、MediaTek 等硬體領導者密切合作,確保這些多模態模型能在手機、Raspberry Pi 和 NVIDIA Jetson Orin Nano 等裝置上完全離線運行,且延遲接近於零。
對於伺服器級應用,31B Dense 模型旨在提供最高品質,是微調的強大基礎;而 26B MoE 則專注於延遲,在推理時僅活化 3.8B 參數,提供極快的 Token 輸出速度。
Gemma 4 採用與 Google 商用模型相同的嚴格基礎設施安全協議。透過選擇 Gemma 4,企業與主權組織能在滿足最高安全與可靠性標準的同時,獲得最前沿的 AI 能力。
Gemma 4 的發布標誌著 Google 在開源策略上的重大轉向。最顯著的改變莫過於 Apache 2.0 授權的採用,這徹底消除了企業在法律合規上的疑慮,展現了 Google 爭奪開源生態主導權的決心。
從技術層面看,Gemma 4 揭示了 2026 年 AI 發展的核心趨勢:不再盲目追求參數規模,而是轉向追求「單位參數的智慧極限」。26B MoE 模型僅活化 3.8B 參數就能在 Arena 排行榜取得佳績,這證明了模型架構與數據品質的優化已進入收穫期。對開發者而言,這意味著「邊緣代理」將成為現實——當 2B/4B 等級的模型具備了原生的音訊處理、長上下文與可靠的 Tool Use 能力,AI 將能真正脫離雲端,在隱私受保護的前提下嵌入到各種終端裝置中。這場「單位效率」的競賽,最終受益的將是能以更低成本建構複雜應用系統的廣大開發者。