2月24日,SambaNova推出其第五代AI芯片SN50,号称为“唯一一款能够提供智能体AI所需速度和吞吐量的芯片”,最高速度达同类芯片的5倍,经多芯互连可支持的单模型参数规模达10万亿、上下文长度达1000万个token。
与Blackwell B200GPU相比,SN50在Meta的Llama 3.3 70B等一系列模型的最大速度是其5倍,智能体推理的吞吐量是其3倍以上。对于运行GPT-OSS等模型的推理服务,其节能效果是B200 GPU的8倍。
SN50将于2026年下半年开始发货。软银集团将成为首家在日本下一代AI数据中心部署SN50的客户。
同日,SambaNova与英特尔宣布了一项多年战略合作计划,旨在基于英特尔至强 (Intel Xeon )平台的基础设施,为全球AI原生企业、模型提供方、企业客户及机构提供高性能、高性价比的AI推理解决方案。英特尔资本也参与了 SambaNova 的 E 轮融资。

