Lakera,一家保护企业免受LLM漏洞影响的公司,筹集了2000万美元
瑞士初创公司Lakera专注于保护企业免受大型语言模型(LLM)的漏洞影响,最近在由欧洲风险投资公司Atomico领投的A轮融资中筹集了2000万美元。Lakera的技术旨在保护生成型AI应用程序免受恶意提示和其他威胁。这些大型语言模型是生成型AI背后的引擎,能够像人类一样理解和生成文本。然而,这些模型可能会受到恶意提示的影响,导致泄露训练数据或未经授权访问私有系统。
Lakera成立于2021年,去年10月推出了Lakera Guard产品,这是一款基于数据库的产品,可以整合来自多个来源的见解,包括开源数据集、内部机器学习研究以及一个名为Gandalf的互动游戏。Gandalf游戏邀请用户尝试通过提示来揭示密码,随着游戏级别的提高,其复杂性和难度也会增加。这些互动帮助Lakera构建了一个“提示注入分类法”,将这类攻击分为不同类别。
Lakera Guard被定位为一个“低延迟AI应用防火墙”,用于保护进出生成型AI应用的流量。公司还开发了专门模型,用于扫描提示和应用程序输出中的有害内容,包括仇恨言论、色情内容、暴力和亵渎等。这些检测器对于面向公众的应用(例如聊天机器人)特别有用,但也在其他场景中使用。
Lakera的联合创始人兼首席执行官David Haber表示,公司正在使用自己的模型实时检测恶意攻击,如提示注入。这些模型不断从大量生成型AI交互中学习,以识别恶意交互的特征。随着威胁形势的发展,检测模型也在不断改进和演变。
此次融资将帮助Lakera扩大其全球影响力,特别是在美国市场。公司已经拥有一些知名度较高的北美客户,包括AI初创公司Respell和加拿大独角兽公司Cohere。Lakera的A轮融资还包括来自Dropbox的风险投资部门、花旗风险投资和Redalpine的参与。
随着生成型AI在企业中的普及,安全和数据隐私问题日益受到关注。Lakera的解决方案旨在帮助企业在整合生成型AI到核心业务流程的同时,确保安全性和合规性。随着这笔新资金的注入,Lakera有望在这一领域取得更大的进展。