复旦才女,估值40亿

近日,Fireworks AI官宣完成B轮融资。起初我并不觉得这次融资值得关注,毕竟眼球已经被被AI动辄数亿美元的融资轰炸习惯了,5200万的B轮融资让我实在提不起兴趣。
但朋友圈不断地热议,我被动接收到Fireworks AI不少碎片信息,稍微一研究发现,确实有点意思。除了投资方堪称顶级外,还有几个显著的标签:复旦才女,小众赛道,明星客户。
并且通过Fireworks AI这笔融资,也显示虽然国外大模型投融资依然如火如荼,英伟达也依然坚挺,但在头部格局已经基本确定的情况下,已经开始越来越延伸到下游,一些类似Fireworks AI的公司不断受到资本关注,竞争也愈发激烈起来。
因此,当我们被海外大模型不断刷新纪录的巨额融资吸引时,不要忘了已经有一批类似Fireworks 的AI公司,在解决开源大模型和行业、垂直场景之间的鸿沟,并且在资本和商业上都获得了不小的认可。李彦宏说“没有应用大模型一文不值”,朱啸虎说“大模型商业模式差,明年应用层将爆发”,都是一个道理。
与国内市场一样,对于大模型及上下游行业未来前景,也存在不小的非共识。红杉资本认为目前已经到了模型到应用的转折点,其合伙人David Cahn去年就发表了对英伟达估值的不满,大意是GPU产能过剩,热切相比于英伟达卖GPU的收入,这些GPU创造的价值还远远不够。
有趣的是,同样在AI上砸了大钱的A16z,狠狠驳斥了红杉合伙人,称红杉低估了AI的革命性影响。不管怎么说,有非共识就有超额收益的机会。这不,红杉合伙人去年9月发表那番言论后到现在,半年多时间英伟达股价火急火燎地涨了3倍多。
对英伟达股价的非共识,我的同事蒲凡已经撰写了稿件,感兴趣可以持续关注,先来看看Fireworks AI的融资情况。
成立一年半,估值达5.52亿美元
不同于明星公司,动辄一年融好几轮,甚至一两个月一轮的融资节奏,在资本引入和融资金额上,Fireworks AI节奏不快。包括本次融资在内,Fireworks AI仅完成了两次融资,且金额算不上大,分别为2500万美元和5200万美元。同时,这两轮融资的间隔时间也比较久,第一轮融资还是在2022年刚成立时完成的。
虽然两次融资规模放在AI大盘子中只是九牛一毛,但出资方却都大有来头。
A轮融资由Benchmark领投,红杉资本、Databricks Ventures 、Snowflake前首席执行官Frank Slootman、Scale AI首席执行官 Alexandr Wang 、 LinkedIn、Confluence的高管 、Meta 和 OnePassword 等也参与其中。
A轮融资后,Benchmark的合伙人Eric Vishria加入了Firework AI的董事会。
再看刚完成的这次融资,除了领投方老股东外,其他投资方分别是NVIDIA、AMD和MongoDB Ventures。不同于A轮中有多家风险投资机构和个人的注资,这次的资方更多的来自产业,甚至更直白一点,来自Fireworks AI的合作伙伴。
有点国内产业投资的意思了。
据了解,自两年前推出以来,Fireworks AI与AI堆栈中的多个提供商达成了协议。其中包括与 Nvidia、AMD、AWS、Google Cloud Platform和Oracle Cloud合作优化模型基础设施。
近期,该公司还与跨平台NoSQL数据库MongoDB合作创建了交互式检索增强生成或 RAG 产品,该产品旨在将权威的实时数据引入大型语言模型,以提高准确性并减少错误。
综上,新一轮融资使Fireworks AI筹集的总资金达到7700万美元,估值达到5.52亿美元(约合40亿人民币)。
另外Fireworks AI表示,未来将这笔投资用于推动行业向复合AI系统转变,扩大团队,增强平台,使开发人员能够快速将AI应用程序从原型转移到生产。
值得一提的是,虽然这个创业方向比较小众,但Fireworks AI并不是孤例。比如开源的AI框架Caffe的作者贾扬清创业成立的Lepton AI,也是让开发人员可以用很低的成本部署大模型的应用和开发,跟Fireworks AI同属于一个赛道。
在国内,像是阿里和百度这样的大厂也有相关的业务,另外由袁进辉创办的硅基流动也是这个赛道的布局者,该公司近期也完成近亿元天使+轮融资,投资方包括清华系基金、360、智谱AI等。
直指大模型应用的刚性需求
随着大模型越来越多地走入行业和细分场景,通用AGI的一些弊端也开始显现,最普遍的障碍点就是太重、太慢、太昂贵,无法最好地满足生产工作负载。
举例来讲,在电商客服领域,B端厂商无法直接把底层大模型拿来用,它需要进行一系列的微调和性能优化,这里的“微调”是指,给大模型输入大量的客服相关的数据,进行训练和推理,性能优化则更着重在准确性和响应速度上。
如果是有预算有研发团队的大厂,有能力自己做这种微调和性能优化,同时也将投入大量的成本,换做是各种资源都有限的小团队,独立完成更有难度。
与此同时,企业在进入生产阶段时需要平衡一系列需求:他们渴望闭源模型提供商的便捷性;开源模型提供的延迟、成本、质量和安全性。因此更多企业也越来越多地转向复合人工智能系统,这种系统结合了多个模型调用、检索器或外部工具,与依赖单一模型相比,可以提供更好的性能、可靠性和控制。
当更多开源替代方案变得可行,横在开源大模型和行业、垂直场景之间鸿沟也开始显现,而这是需要开发者来完成,Fireworks AI就是打造了一个面向开发者的中间平台。
它并不是从头开始训练基础模型,而是帮助微调其他模型以满足企业的特定需求。“它可以是现成的开源模型,也可以是我们调整的模型,也可以是客户可以自行调整的模型。这三种类型都可以通过我们的推理引擎 API 提供服务。”
复旦才女、PyTorch之母的新作
为何在这些初创公司中,红杉选择了持续押注Fireworks AI ?这还是回到了早期投资中关于人,关于团队的老生常谈的话题上。
首先,Fireworks AI于2022年底在加州创立,其联合创始人兼CEO林乔(Lin Qiao)有着丰富的技术背景和深厚的工程管理经验。她拥有加利福尼亚大学圣巴巴拉分校(UCSB)的计算机科学博士学位,本科毕业于复旦大学。
创办Fireworks AI前,她在Meta担任高级工程总监,团队由300多名世界级工程师组成。期间林乔负责开发和部署Caffe2和PyTorch等AI框架和平台,支持了Meta数据中心、数十亿移动设备和数百万 AR/VR 设备的广泛应用。
更早之前,林乔还曾在LinkedIn担任技术主管和经理,负责构建下一代数据生命周期管理平台,此外,她在IBM多年的研究工作中也参与了IBM Smart Analytics Optimizer和Shark等项目的开发。
从林乔的早期工作经历中,我们可以看到很多A轮投资方的身影,这足以见得,林乔技术能力颇受前老板们的认可。
其次,Fireworks AI 的创始团队还包括 Dmytro Dzhulgakov、Dmytro Ivchenko、James Reed、赵晨宇、Pawel Garbacki、Benny Chen 在内的多位联创人员,他们分别在技术和工程方面有着深厚的背景和经验。另外,Fireworks AI是一个短小精悍的团队,截止本次融资前,公司只有27人。
除了团队的光鲜背景外,再回到Fireworks AI本身要做的事情上。Fireworks AI是一个专为开发人员打造的生产型AI平台,他们聚焦在性能优化、提升开发者体验以及大规模运行AI应用上。
而在这个赛道是十分看中创业团队的技术经验的,因为不是每个开发者都能清楚地知道调整哪个参数才能得到最优解,如果没有在足够的经验,那将大大增加试错成本,这种成本既有时间上的,也有资金上的。
当然,再好的创业团队背景也要做出真东西,才能得到市场认可。
看起来,Fireworks AI实在是个年轻的公司,但其产品上却十足丰富。目前,提供超过100多种文本、图像、音频和多模态大模型,这些模型在延迟、吞吐量和成本等方面,都进行了大幅度优化。
与传统方法相比,Fireworks AI将推理时间减少了12倍,与GPT-4相比减少了40倍,每天处理1400亿tokens数据,API的正常运行时间达到了99.99%。其最新产品Firefunction-v2是与GPT-4o相当的函数调用模型,效率提升2.5 倍,成本仅是其10%。
此外,Fireworks AI可提供较小的生产级模型,他们将模型大小限制在 70 亿到 130 亿个参数之间,从而降低了成本,而 ChatGPT4 中的参数超过 1 万亿个。这使得开发人员能够专注于更小、更集中的数据集,这些数据集旨在处理更有限的业务用例,从而避免了大型专有模型的非私密性和难以量身定制定制等问题。
Fireworks 签约的客户也堪称大牌。经过激烈竞争,企业(Uber、DoorDash、Upwork、Quora)和 AI 原生初创公司(Cursor、Superhuman、Sourcegraph Cody、Cresta)都选择围绕 Fireworks 构建堆栈。与Meta、英伟达、AMD、亚马逊、谷歌云等科技巨头也一直保持合作关系。