10月27日,高通的一场发布会,把自己的股价推上了52周以来的最高点——美股开盘后一度涨超20%,最高触及205.55美元。让投资者沸腾的,是这家以移动芯片著称的公司,正式闯进了数据中心AI算力战场:推出两款专为AI推理设计的加速器AI200、AI250,以及配套的机架级服务器系统,目标直指英伟达、AMD主导的高性能计算市场。
这不是高通第一次碰服务器芯片。2017年它和微软合作的Centriq 2400平台,曾被寄予厚望,但最终因竞争加剧和内部问题搁浅。时隔8年再出发,高通换了个“打法”——不去抢已经被英伟达垄断的训练环节,而是瞄准“更烧钱、更缺替代方案”的推理环节。
“训练模型像盖楼,一次投入大但用很久;推理就是每天运营大楼,要的是低功耗、低成本、能稳定跑。”做了5年AI算力运维的张磊解释,现在OpenAI、谷歌这些公司的推理成本占比已经超过训练,“英伟达的GPU性能强,但电费和硬件成本扛不住,大家都在找「性价比更高的选项」。”
高通的优势,刚好是做了十几年的“低功耗”:AI200用768GB LPDDR内存降低成本,单卡就能支持大规模推理;AI250更进一步,加入近存储计算架构,内存带宽提升10倍的同时还能降低功耗;就连软件都“接地气”——兼容PyTorch、TensorFlow这些主流框架,甚至允许客户混搭英伟达、AMD的芯片使用。“客户要的不是「取代谁」,是「怎么把钱花在刀刃上」。”高通数据中心业务负责人马拉迪的话,戳中了很多云计算厂商的痛点。麦肯锡的数据显示,到2030年全球数据中心资本支出将超过6.7万亿美元,其中AI芯片系统的占比越来越高,“能帮客户省10%的成本,就是几十亿的价值。”
市场的反馈很直接:股价涨超20%,沙特Humain公司直接签了200兆瓦的推理系统订单,成为高通AI数据中心业务的“首位客户”。但质疑声也没断过。芯片行业分析师林晓认为,移动AI和数据中心AI的“玩法”完全不同:“手机里的NPU是小算力,数据中心是几千张卡一起跑,调度、兼容性都是挑战,高通的移动经验能不能平移还不好说。”还有投资人担心:“英伟达已经在优化H100的推理性能,AMD也在抢市场,高通能不能分到蛋糕?”
不管争议多大,高通的“二次闯关”,本质上是AI芯片市场从“一家独大”向“百花齐放”转变的缩影。从OpenAI采购AMD芯片,到谷歌、亚马逊自研加速器,再到高通杀回数据中心,曾经被英伟达垄断的算力江湖,终于有了“变天”的迹象。而股价上涨的背后,是市场对“推理环节有新玩家”的期待——当所有公司都在拼“AI能不能赚钱”时,能帮大家“少花钱”的技术,总能先拿到入场券。
高通要做的,是把“低功耗”的口号变成真实的性能数据,把“灵活采购”的模式变成客户的实际选择。毕竟,在AI算力这个“万亿赛道”里,光有概念不够,得真能解决问题才行。
