登录
首页
快讯
邮件订阅
会员专属
Memo AI
联系我们

OpenAI 警告下一代 AI 模型存在“高级别”网络安全风险,可能推动防御性功能发展

25-12-11
免费
快讯

OpenAI 近日发布官方警告称,其即将推出的下一代人工智能模型可能带来“高”级别的 网络安全风险,这是公司对自身产品潜在负面影响的重大提示。随着这些模型能力快速增强,它们不但能生成更复杂文本与代码,还可能在网络攻击场景中发挥作用,例如帮助开发针对高防御系统的 零日远程漏洞(zero-day remote exploits),或协助执行复杂的企业和工业级入侵行动,从而对现实系统安全造成威胁。

OpenAI 表示,这类风险成为技术演进的副产品,因此正在 加强模型在防御性网络安全任务中的能力,包括开发能辅助安全专家执行代码审计与漏洞修补的工具,并投入资源强化访问控制、基础设施加固、数据出口监控与持续监测等综合性安全策略,以期降低被滥用的可能性。公司还计划推出一个 分级访问计划,为专注于网络防御的用户和机构提供增强版功能访问权限。

除了技术改进,本次风险应对还包括建立 Frontier Risk Council 顾问机构,邀请网络安全领域专家共同协作,初期主要聚焦网络安全风险,并在未来拓展至其他前沿技术风险领域。此举反映出 OpenAI 在推动技术前沿发展的同时,也在积极构建治理与安全防护框架,以平衡创新与风险管控。

值得注意的是,随着大型 AI 模型在全球范围内广泛部署,不仅 OpenAI 自身的系统面临潜在滥用风险,整个行业的安全挑战也在加剧。专家指出,大语言模型在提供强大能力的同时,也可能被用于生成恶意代码、规划攻击步骤或寻找安全漏洞,这类“二次用途”(dual use)问题已经成为安全社区关注的核心议题。

虽然 OpenAI 尚未公布新型号的具体发布时间与商业策略,但其提前发出警告并公开防御性应对措施,显示出公司在 AI 安全治理方面的战略调整。 

Memo Newsletter

订阅 Memo 邮件列表,过滤噪音,捕捉最具价值的创投行业信号

最顶尖的 AI 行业创业者和投资人都在看

Subscribe
头像
Memo Team
Signal, not noise!
最新快讯