世界上没有无缘无故的爱。阿里宣布API费用降低97%,没有自建算力集群的车企,有机会以更低成本部署智驾算法和车路协同。2024年4月,长安汽车接入通义大模型。后者不仅提供算力,还提供语义语料(LLM训练库),前者用于座舱交互,搭载于长安启源E07。
请注意这个时间点,当时DeepSeek还未像今天这么火爆,而通义千问的API调用费用,也没有降到今天这个地步。
采取类似动作的还有零跑和智己(通过斑马智行的AliOS操作系统接入)。公开接入千问的就这3家,和1、2月份数十家车企争先恐后接入DeepSeek的热情,无法相提并论。
如果单纯比较大模型(不区分开源闭源),目前DeepSeek风头全球无两,就连老马用20万张算力卡堆出来的Grok也瞠乎其后。虽然后者烧钱更多、排名全球第一(在LMSYS大模型竞技场),但风评远不如DeepSeek。
这反而更坚定阿里做基础设施的信念。现在全球大模型都笼罩在DeepSeek的阴影下(很大一部分影响力来自于开源)。而在此之前,在阿里眼里,大模型不过是一堆算法工程师拿着高薪,调参发论文的摸鱼工具,否则就不会有那么多算法工程师毕业。
现在承认算法一时搞不过,转而追求算力和算力通道建设,是阿里理智的选择。因为就自然语言的语料库而言,阿里也做不过社媒属性比较强的腾讯、字节等对手。
DeepSeek现在报“服务器繁忙”情况略减少(也有人说没减少),一种可能是DeepSeek添置了算力卡,另一种可能是降低了2B权重,更多伺候C端用户。后者不大可能,2B还能有收入,2C就只能混个流量。当然,所有的社媒都挟持庞大的C端用户获得影响力,转而向B端贩卖流量。本质上是C2B,而非C2C。只不过DeepSeek的主业是量化,对卖流量暂时兴趣不大。
如果B端用户的算力需求上涨(这是必然的),自建算力集群就会遇到基础设施瓶颈,AI基础设施的生意就来了,前提是阿里有能力部署超大算力集群(比如100EFLOPS以上,现有车企算力普遍低于10EFLOPS)和高速通讯网络+边缘网。后者是华为的拿手好戏,阿里可以同时采购华为算力卡和华为的高速网方案。
而智驾模型依赖高质量标注数据,需高效的数据中心支持存储和预处理。车企正在卷大模型的迭代速度。对于分布式存储和训练平台(PAI)的需求,很快将触及自己硬件能力的上限。一种做法是自己加钱扩张云算力、存储中心和高速网络,另一种办法是租用包含以上能力的服务包。
就算车企掏得起这个钱,但和公共云服务商相比,车企自己的算力集群应用密度上不去,闲置就等于把矿泉水往海里倒。哪个划算,不言而喻。
车企的大模型训练需求再往前走一步,就大概率会寻求更大的算力底座。阿里就与华为、三大通讯运营商等算力基础设施服务商,形成竞争。DeepSeek如果不想掏钱升级自己的硬件,就不再是以上各位的同生态位对手。毕竟通义千问只是阿里AI庞大规划衍生的一个产品而已。