登录
首页
快讯
邮件订阅
会员专属
Memo AI
联系我们

Google 发布 Gemma 4:把“开源级 AI 能力”直接带到手机和本地设备

26-04-03
免费
快讯

Google 正式发布新一代开源模型 Gemma 4,这是其基于 Gemini 技术体系打造的最新 AI 模型家族,核心目标是让开发者在无需昂贵算力的情况下,也能构建接近前沿水平的 AI 应用。Gemma 4 延续了“open model”策略,在 Apache 2.0 许可下开放权重,支持商业使用,并可在从手机、笔记本到数据中心的多种设备上运行,大幅降低 AI 开发门槛 

从能力上看,Gemma 4 不再只是一个对话模型,而是面向 agent 工作流设计的通用 AI 基础设施:支持多步推理、函数调用、结构化输出以及代码生成,可以直接用于自动化任务执行;同时具备原生多模态能力,可处理文本、图像、视频甚至音频输入,并支持最长 256K 上下文,适用于长文档处理、代码库分析等复杂场景 

在性能与效率之间,Gemma 4 的策略是“单位参数智能最大化”。其 31B 模型在 Arena AI 排行中位列全球开源模型第 3,26B 模型位列第 6,但能够对标甚至超过体量大 20 倍的模型;同时推出 E2B、E4B 等轻量版本,可直接运行在手机或边缘设备上,实现低延迟、本地化 AI 推理 

Google 表示,自初代 Gemma 发布以来,该系列模型已被下载超过 4 亿次,并衍生出超过 10 万个变体,形成一个庞大的开发者生态。此次 Gemma 4 的推出,本质上是在这个生态基础上进一步“下沉能力”,让更多开发者能够在本地构建 AI 应用,而非依赖云端 API 

从战略层面看,Gemma 4 与 Gemini 形成明显分工:后者偏向封闭的云端旗舰模型,前者则是开放、可控、可本地部署的开发者工具链。Google DeepMind CEO Demis Hassabis 和 CEO Sundar Pichai 均强调,其目标是推动 AI 的“普及化”和“可控部署”,尤其是在对数据隐私和成本敏感的企业场景中 

Gemma 4 的意义不在于模型参数规模,而在于路径选择:当 AI 能力开始从云端 API 向本地设备迁移,一个新的开发范式正在形成——AI 不再只是调用服务,而是可以被嵌入、被控制、被私有化运行,这也意味着 AI 基础设施的竞争,正在从模型能力转向分发与生态。

 

Memo Newsletter

订阅 Memo 邮件列表,过滤噪音,捕捉最具价值的创投行业信号

最顶尖的 AI 行业创业者和投资人都在看

Subscribe
头像
Memo Team
Signal, not noise!
最新快讯