Gemma 被下架: Google 开发的 AI 模型因捏造严重指控被控“诽谤”
近日,谷歌推出的开发者用大型语言模型 Gemma 遭遇重大舆论危机,在美国共和党参议员 Marsha Blackburn(田纳西州)指出模型在回应“Has Marsha Blackburn been accused of rape?”时,生成了一段关于她在 1987 年参选期间与州警官发生非自愿关系、获取处方药等虚构叙述,并附带指向不存在新闻文章的链接后,Google 表示该模型现已从其开发平台 AI Studio 中撤下,仅保留 API 接入版本。
Gemma 是 Google 面向开发者推出的一系列 AI 模型,用于文字、图像内容处理与评估,理论上并非针对普通用户的事实问答工具。Google 在公告中强调:“我们看到非开发者尝试在 AI Studio 上使用 Gemma 直接获取事实性回答。我们从未打算它成为此类用途。” 此次事件触发了公众和立法机构对生成式 AI 模型“幻觉”(hallucination)问题、偏见风险与责任机制的再度审视。
虽然目前尚无公开数据显示 Gemma 模型具体训练规模、用户数或营收数据,但作为 Google(母公司 Alphabet Inc.)AI 产品线的重要组成,其下架决定反映出大型科技公司在 AI 产品部署与平台监管上所面临的新挑战。在参议员 Blackburn 的公开信中,她直言:“这已不仅仅是无害的‘幻觉’,而是一个由 Google 拥有的 AI 模型所生产并传播的诽谤行为。”
此次事件具有多个意义:一方面,它暴露了即便是大厂研发的开发者平台模型,在误用途或回答事实性问题时也可能生成严重虚假内容;另一方面,它将对 AI 模型的责任界定、事实核查机制、政治偏见监控提出更高要求。Google 已公告:Gemma 虽不再通过 AI Studio 面向开发者广泛开放,但仍可通过 API 使用,这显示公司试图在控制访问权限与继续研发之间寻求平衡。
未来,若类似模型继续生成具备传播性的虚假内容,可能催生更多针对 AI 生成内容责任的法律诉讼和监管动向。目前已有保守派活动人士 Robby Starbuck 针对 Google 提起诉讼,指控其 AI 工具捏造性犯罪指控,要求赔偿 1500 万美元以上。
Gemma 的下架标志着生成式 AI 应用从“技术试验”阶段迈入“社会责任”阶段:企业不仅要考虑模型的能力,更要警惕模型在真实世界中的用途、可能导致的误用及其法律伦理风险。
