亚马逊AWS与AI芯片企业Cerebras Systems近日宣布合作,将在AWS数据中心内部署Cerebras CS-3晶圆级AI系统,与自研Trainium芯片协同,通过Amazon Bedrock平台提供AI推理服务。
该方案采用“推理解构”技术:Trainium负责提示处理,Cerebras CS-3承担输出生成,两者通过AWS高速网络连接。CS-3搭载WSE-3芯片,拥有90万AI核心、21PB/s内存带宽。服务预计2026年下半年上线,将向客户提供主流开源大模型及Amazon Nova模型的Cerebras硬件加速版本。