Google 推出 Gemini 3 Flash,成为 Gemini 应用默认 AI 模型
Google 正式发布 Gemini 3 Flash,这是其最新一代 AI 大模型,基于先前发布的 Gemini 3 技术打造,定位为更快、更高效且更低成本的通用 AI 引擎,并已在 Gemini 应用和 Google Search 的 AI 模式中成为默认模型。这标志着谷歌在大模型产品线上进一步加速布局,同时在与 OpenAI、Anthropic 等竞争对手的较量中争取用户覆盖和市场份额。
Gemini 3 Flash 的核心定位是 在不牺牲智能水平的前提下极大提升推理速度与成本效益。与之前的 Gemini 2.5 Flash 和 Gemini 2.5 Pro 相比,新模型在多个基准测试中表现优异,在多模态推理和复杂任务理解上接近甚至与 Gemini 3 Pro 持平,并大幅快于前代模型,同时推理延迟更低、资源消耗更少。
作为默认模型,Gemini 3 Flash 覆盖了绝大多数日常场景用户需求,比如上传短视频获取建议、识别绘图内容、分析音频并生成学习资料等,支持更加细腻的意图理解和可视化输出(例如表格或图像形式的答案)。开发者方面,谷歌还通过 Vertex AI、Gemini API、Google AI Studio、Antigravity、Android Studio 等平台逐步开放该模型的预览访问权限。
在定价策略上,Gemini 3 Flash 的费用设置为每百万输入 token 0.50 美元、输出 token 3.00 美元,相比 Gemini 2.5 Flash 略高,但由于性能提升显著,总体单位任务成本仍具有竞争力,并且在许多场景中总体 token 消耗更少,有利于大规模应用。
此举发生在谷歌处理其 AI 平台每日超过 1 万亿 tokens 的背景下,反映出其在 AI 服务规模与性能优化方面的持续投入。Gemini 3 Pro 作为更高端模型仍然保留供复杂数学与编码任务使用,而 Gemini 3 Flash 则成为面向更广泛用户群体的“高性价比工作马”。
Gemini 3 Flash 的推出不仅是技术迭代,同时也是产品化战略的一部分,旨在让更大范围的个人和企业用户可以在熟悉的 Google 产品中获得更快、更智能的 AI 体验,进一步扩大 Gemini 生态的用户基础。
