TensorWave 认为它可以用 AMD 驱动的云服务打破 Nvidia 在 AI 计算领域的垄断
芯片制造商英伟达(Nvidia)在上一财季实现了300亿美元的收入,这在很大程度上得益于人工智能(AI)行业对图形处理单元(GPU)的旺盛需求。GPU对于训练和运行AI模型至关重要,它们包含数千个核心,能够并行工作,快速执行构建模型的线性代数方程。
尽管对AI的需求依然高涨,英伟达的GPU已成为各种规模AI玩家的首选芯片,但去年成立的TensorWave公司却逆流而上,推出了一个只提供英伟达竞争对手AMD硬件访问权限的云服务,专门用于AI工作负载。
TensorWave的首席执行官兼联合创始人达里克·霍顿(Darrick Horton)告诉TechCrunch:“我们认识到了一个不健康的垄断现象——它剥夺了最终用户的计算访问权,并抑制了AI领域的创新。我们受到民主化AI的愿望的驱使,我们开始提供一种可行的替代方案,恢复竞争和选择。”
TensorWave的三位创始人最初是通过打乒乓球而相识的。在一次比赛后,长期双打搭档杰夫·塔塔丘克(Jeff Tatarchuk)和皮奥特·托马西克(Piotr Tomasik)邀请了塔塔丘克的前同事霍顿加入他们在拉斯维加斯最喜欢的聚会场所。
霍顿说:“随着对话的展开,我们讨论了GPU计算能力的垄断控制,这导致了供应限制。”这一认识促成了TensorWave的成立。
TensorWave的总部设在拉斯维加斯,这对于一家云基础设施初创公司来说是一个不寻常的选择。但霍顿表示,团队喜欢这里的胜算。
他说:“我们认为拉斯维加斯有潜力成为一个繁荣的技术和创业生态系统。”这一预测并非完全离谱。根据Dealroom.co的数据,拉斯维加斯是600多家初创公司的所在地,雇佣了超过11,000人,在2022年吸引了超过40亿美元的投资。
拉斯维加斯的能源成本和开销也比美国许多主要城市要低。托马西克和塔塔丘克与该市的风险投资社区有着密切的联系。
TensorWave是首批推出AMD Instinct MI300X实例用于AI工作负载的云服务之一。TensorWave按小时出租GPU容量,并要求至少签订六个月的合同。
霍顿说:“在整体的云领域,我们处于良好的公司之列。我们认为自己是互补的,以有竞争力的价格提供额外的AI特定计算。”
目前,市场上对于为AI构建低成本、按需和GPU驱动的云服务的初创公司需求旺盛。例如,GPU基础设施提供商CoreWeave最近筹集了11亿美元的新资金(和75亿美元的债务),并与微软签署了一项数十亿美元的容量协议。
TensorWave希望如何竞争?首先,在价格上。霍顿指出,MI300X比英伟达目前用于AI工作负载的最受欢迎GPU H100要便宜得多,这使得TensorWave能够将节省的费用转嫁给客户。他没有透露TensorWave的确切实例定价。但要击败更具竞争力的H100计划,它必须低于每小时2.50美元左右——这是一个具有挑战性但并非不可能实现的壮举。
其次,在性能上。霍顿指出,基准测试显示,MI300X在运行(而不是训练)AI模型时,比H100更胜一筹,特别是在运行像Meta的Llama 2这样的文本生成模型时。(其他评估表明,优势可能是工作负载依赖的。)
霍顿表示,TensorWave已经从今年春天开始预览客户,但已经产生了300万美元的年度经常性收入。他预计,到今年年底,这一数字将达到2500万美元——增长了8倍——一旦TensorWave将容量提高到20,000个MI300X。
假设每个GPU的价格为15,000美元,20,000个MI300X将相当于3亿美元的投资——但霍顿声称TensorWave的烧钱率“远低于可持续水平”。TensorWave此前告诉The Register,它将使用其GPU作为大量债务融资的抵押品,这是包括CoreWeave在内的其他数据中心运营商采用的方法;霍顿表示,这仍然是计划。
他说:“这反映了我们强大的财务状况。我们通过在最需要的地方提供价值,战略性地定位自己以抵御潜在的逆风。”
我问霍顿TensorWave今天有多少客户。他由于“保密”而拒绝回答,但强调了TensorWave与网络骨干提供商Edgecore Networks和由前Neuralink工程师创立的AI推理初创公司MK1的公开宣布的合作伙伴关系。
霍顿说:“我们正在迅速扩大我们的容量,有多个节点可用,我们正在不断增加容量以满足我们管道不断增长的需求。”他补充说,TensorWave计划最早在2024年11月/12月推出AMD的下一代MI325X GPU。
投资者似乎对TensorWave的增长轨迹感到满意。Nexus VP在周三透露,