Founders Fund 合伙人:AI 基础模型的未来是闭源的
Founders Fund 合伙人 John Lutig 前段时间写了一篇引发了大范围讨论的文章《AI 基础模型的未来是闭源的》,在这篇文章中,Lutig 谈到为何未来的机会属于闭源模型。
这篇文章写的不错,一直想做一下分享,刚好今天 Founders Fund 投了一个开源 AI 产品,就在文章里做了一下分享,这里把这块单独出来,中文内容通过 AI 做了一下简单翻译,你可以在这里阅读原文:
关于基础模型的未来,两种看似矛盾但同样流行的叙述已经站稳脚跟。在未来,人工智能将集中化:扩展法则将成立,价值主要归于规模化的闭源参与者。在另一个未来,人工智能去中心化:基础模型没有护城河,开源已经赶上了闭源,我们将有许多竞争模型。
今天,这两种说法似乎都是正确的。我们拥有强大的封闭模型,以及由神圣不可侵犯的开源模型组成的蓬勃发展的生态系统。Llama-3 最近将开源放在了 GPT-4 类模型的地图上。与此同时,一支不寻常的开源联盟已经形成,其中包括希望得到施舍的开发者、拥抱出版文化的学者、担心中央集权言论控制和监管捕获的自由主义者、不希望他的劲敌赢得人工智能的埃隆·马斯克,以及不想再受制于另一个科技平台的扎克伯格。
作为现代软件的加速剂,开源在科技领域保持着一个珍贵的地位。谁能反对免费的东西、去中心化的控制和言论自由呢?但是在极限情况下,开源和闭源人工智能不能同时占主导地位:如果集中化力量占上风,规模优势将会不断累积,使开源替代方案落后于闭源。
尽管最近取得了进展并且不断地给予鼓励,开源人工智能将成为模型构建者的经济负担,对开发人员和消费者来说是一个次优选项,并对国家安全构成风险。在未来十年内,闭源模型将创造更多的经济和消费者价值。
Model builders 模型构建器
开源软件起源于一种慈善行为 - 世界应该感谢 Linus Torvalds 和 Fabrice Bellard,因为他们赋予了人类 Linux、Git 和 FFmpeg。由于免费的东西很受欢迎,开源成为了一个很棒的免费营销策略(比如 Databricks 或 Mistral),有时也成为了市场的均衡状态(比如 Android 是廉价智能手机的选择,并加强了 Google 的搜索垄断地位)。
那些通过开源获得免费营销的公司最终都屈服于商业规律:Red Hat 将 CentOS 隐藏在订阅服务背后,ElasticSearch在意外播种竞争对手后改变了他们的许可证,而 Databricks 拥有加速 Apache Spark 的知识产权。
与早期软件时代的开源慈善工作不同,如今开源工作是由具有自己目标的企业资助的。鉴于 Meta 是主要的资金雄厚的大型开源模型构建者,开源人工智能已经成为 Meta 人工智能的代名词。因此,对于开源人工智能来说,关键问题是,Meta 正在玩什么游戏?在最近的一期播客中,扎克伯格解释了 Meta 的开源策略:
- 他在过去 20 年被苹果的封闭性所伤害,不想在下一个平台转变中遭受同样的命运。将你的补充品商品化是更安全的选择。
- 他喜欢开发酷炫的产品,以及廉价、高性能的人工智能增强了 Facebook 和 Instagram。如果 AI 助手成为下一个平台,那么它们可能具有一定的看涨期权价值。
- 他购买了成千上万台 H100,用于改善产品间的社交信息流算法,这似乎是利用多余设备的好方法。
这一切都说得通,Llama 对 Facebook 的开发者营销做得很好。但扎克也多次暗示,有一个临界点,无论是从成本还是安全的角度来看,开源人工智能在某个时候都不再有意义。当被问及 Meta 是否会开源未来的 100 亿美元模型时,答案是“只要它能帮助我们”。在某个时候,他们会将注意力转移到利润上。
与其他模型提供商不同,Meta 并不以通过 API 销售模型访问为业务。因此,虽然他们会在方便的情况下开源,但开发者在模型改进方面需要自行处理。
这就引出了一个问题:如果 Meta 只在对自己有利的情况下追求开源,那么 Meta 停止开源其 AI 的临界点是什么?比你想象的要快:
- 指数数据:前沿模型是在互联网语料库上训练的,但该数据源是一种商品——未来十年的模型差异化将来自专有数据,包括模型使用和私有数据源。
- 开源模型在生产使用和模型训练之间没有反馈循环,因此它们需要为所有增量训练数据付费,而闭源模型则通过增量使用的数据驱动复利价值。如果 Meta 根据他们的社交图谱或用户反馈来区分他们的模型,他们将希望通过他们的封闭产品来获取这种价值,而不是与世界分享。
- 指数级的资本支出:一个滞后的模型只需要 Meta 400 亿美元资本支出的几个百分点就可以轻松开源,没有人会提出问题。但是一旦你的模型训练资本支出达到了 100 亿美元或更多,股东们就会要求对这笔支出清晰的投资回报率(元宇宙在一定规模下也引发了一些问题)。
- Meta 在模型质量上的收益递减:即使 Meta 构建的开源AI模型比前沿的闭源对手差,也会有很大的初始收益。在许多小型AI工作负载(比如信息流算法、推荐系统和图像生成)中,Meta不希望像之前依赖于苹果公司那样依赖第三方提供商。
但目前尚不清楚 Facebook 产品在接近 AGI 质量的模型方面是否受益良多。同样有可能 Meta 的模型改进会非常特定于他们自己的内部用例。而这就是与用户观点不一致的地方:如果通用的、前沿的模型的投资回报对 Meta 的产品没有意义,他们肯定不会为开源社区构建这些模型。
扎克不是在经营慈善机构,他是一个精明的资本家。虽然 Meta 可以证明为了自己的目的而扩大增量模型的资本支出是合理的,但随着时间的推移,他们的开源战略只会变得不那么有意义。
开发者和消费者
作为选择开源模型的开发者,你会在成本、模型质量和数据安全方面得到什么?
成本:开源模型给人一种免费的错觉。但开发者要承担推断成本,这往往比类似的 LLM API 调用更昂贵:要么支付中间商来管理 GPU 和托管模型,要么支付 GPU 折旧、电费和停机时间的直接成本。只有大型企业规模才能摊销这些固定成本;在云基础设施等其他类别中,即使是最大的 F500 公司也使用像 AWS 和 Azure 这样的第三方云托管服务。未经优化的 GPU 支出会因规模不经济而对你进行惩罚(这是规模经济的反向效应)。
某些注重成本的企业或消费者会忍受较弱的产品和付费墙;他们追求纯粹的成本优化。但闭源成本曲线仍在急剧下降,因此甚至不清楚开源在中期内是否更便宜。互联网公司过去将一半预算用于购买服务器机架,直到 AWS 解决了云资本支出问题;闭源模型提供商对人工智能也是如此。
在资本主义的美国,免费从来都不是真正的免费,所以你应该想知道你最终将如何货币化。这不是 Linux,那是一个开发者为了人类的礼物而建立产品;这些是烧钱的努力,唯一的出路是最终货币化你。你可能最终会投入一个闭源的补充。每个开源公司最终都会推出付费层;甚至安卓最终也通过 Google Play 和搜索进行了货币化。
即使在某个临界点以上,自托管的开源模型可能会略微便宜一些,但在这个阶段,边际成本优化并不是正确的焦点:对于大多数应用程序来说,能力限制了采用,而不是价格。
模型质量:与住房、医疗保健和教育一样,付费版本通常优于免费版本。即使在软件领域,开源的赢家也很少是最好的产品:Android 比 iOS 差,OpenOffice 比 Office 或 Google Docs 差,Godot 比 Unity 差,FreeCAD 比SolidWorks 差。一个推论是,专注于最佳平台的工程师赚更多的钱;他们更有可能构建尖端产品。
一年后,每个人都在庆祝 Llama-3 与 GPT-4 可以相提并论。iOS 和 Android 之间,或者 MacOS 和消费者 Linux 之间的产品质量差距在很长一段时间内一直很大,因为最好的软件创建者与付费客户保持一致。当年选择闭源模型时,你不会对模型质量做出时间点决策;你正在为未来的模型改进付费,其中路线图与付费客户保持一致。
大多数人只关注上一场战争(GPT-4),而不是下一场战争。因此,虽然开源模式是生态系统中健康的一部分,但它们在很大程度上是向后看的。我预计,在 GPU 和数据的资本支出达到数百亿美元(与半导体制造相当)之前,能力将不会达到顶峰。关键的开源模型构建者能找到足够的收入来证明花费这么多是合理的吗?
数据安全:有些企业需要最大程度的数据安全:金融服务、医疗保健、法律。但我不确定在企业内部或通过第三方云托管使用开源模型是否比在云中使用第三方 LLM 更安全;这是早期互联网时代遗留下来的观念,在那个时代,企业内部数据中心就是数据安全的诺克斯堡。
作为客户,我更信任 Microsoft 的医疗数据安全性,而不是 IT 部门的自我管理数据中心。这座桥已经被跨过:当 65% 规避风险的财富 500 强企业已经使用 Azure OpenAI 时,你会想知道谁在处理对于基于云的 LLM 来说过于敏感的数据。
国家安全
即使模型构建者构建开源最终具有经济意义,他们应该这么做吗? Yann LeCun 等倡导者声称开源人工智能比封闭人工智能更安全。这让我怀疑他是否真的相信 Meta 的人工智能能力。通过更多计算、数据和自主工具使用来对功能进行任何合理的推断都是不言而喻的危险。
诉诸美国安全似乎有些过度紧张,但过去五年的地缘政治已经证实,并非所有人都在同一个团队。美国以外的每个国家都有兴趣破坏我们的闭源模型提供商:欧洲不希望美国赢得另一场科技浪潮,中国希望免费的模型权重来训练自己的前沿模型,流氓国家希望使用未经过滤和无法追踪的模型人工智能助长他们的军国主义和经济利益。
人工智能是一种霸权技术。尽管开源模式落后于前沿,但我们不应该免费向世界输出我们的技术秘密。我们已经通过光刻和半导体的出口禁令认识到供应链其他部分的国家安全风险。当开源模型构建者发布模型权重时,他们就武装了我们的军事对手和经济竞争对手。
一个常见的反驳是,其它国家(比方说中国)有自己的前沿人工智能模型,可以与美国相媲美。但它们仍然落后,如果这些技术遵循摩尔定律模式,即能力复合,那么如果你还没有到达前沿,就变得越来越困难。
将半导体视为一个历史类比,尽管经过数十年的努力,除了台积电+英伟达之外,没有人能够赶上半导体的前沿。俄罗斯在半导体领域落后了几十年,甚至中国的中芯国际也比台积电落后了五年。
语言模型还处于起步阶段,但已经对网络攻击的产生、生物武器研究和炸弹组装具有指导意义。是的,Google 也会索引危险信息,但 LLM 的自动化才是它的危险之处:流氓模型并不像 Google 结果那样简单地解释网络攻击的概念,而是可以编写代码,测试它,并大规模部署它 - 短路原本艰巨的犯罪活动。
一个常见的开源主张是,对模型的分散控制比信任中央要好。但这是一种奢侈的美国信念,人们认为的不利因素仅限于内容审核和企业贪婪。这是一项更重要的技术:LLM 将用于攻击西方的关键基础设施,在关键选举期间助长虚假信息活动,在战时为网络攻击提供动力,并进行欺诈。这些不良行为者现在和将来都会受到开源模型的授权。
新技术在破坏世界力量平衡方面有着悠久的历史。作为一种具有军国主义影响的技术,人工智能不应掉以轻心。
结论
开源 AI 的乐观态度存在不同程度:许多人只是认为开源对人类有好处,另一些人则声称构建开源模型是一个很好的商业策略,在极端情况下,一些人认为领先的模型提供商应该被迫开源他们的技术。但这三个阵营都是可疑的:开源模型赋予了我们的对手权力,并将为模型构建者和开发人员带来越来越负面的投资回报率。
我承认当许多开源倡导者公开展现他们来自欧洲、学术界或两者兼有的社会主义倾向时,我会产生过敏反应。虽然早期人工智能无疑受益于在商业价值完全被认可之前公开发表的研究,但学术界似乎不适合推动未来的前沿研究。斯坦福大学的 NLP 实验室只有 64 个 GPU,就连李飞飞也承认,相对于工业界,学术界正在“断崖式下降”。
美国在科技领域的成功受到了那些错过机会的人无休止的批评,但我们在上一轮科技浪潮中轻松获胜,因为美国资本主义将用户和公司长期结合在一起。从长远来看,如果没有受到正确激励的公司坚持不懈的努力,软件前沿领域就不会向前发展。在资本密集型基础模式的背景下,这一点更是如此。
在需要规模较小、能力较弱和可配置模型的地方(例如企业工作负载),开源模型都会有用武之地,但人工智能领域的大部分价值创造和获取都将通过前沿能力来实现。作为一种免费的营销策略和实现互补商品化的途径,发布开源模型的冲动是有道理的。但随着开源投资回报率的持续下降,开源模型提供商将在资本支出战中败下阵来。
对于那些在没有明确商业模式的情况下濒临耗资数百亿美元的公司,以及押注于该生态系统的开发者,我祝愿他们好运。但是,未来十年的制胜模式应该也必将是闭源模式。