从出货表现来看,广达12月NB出货量为390万台,较上月增加40万台;第四季合计NB出货约1090万台,环比减少14%,符合传统淡季走势预期。

《实施意见》提出,要强化人工智能算力供给。推动智能芯片软硬协同发展,支持突破高端训练芯片、端侧推理芯片、人工智能服务器、高速互联、智算云操作系统等关键核心技术。

这种规模的资本需求,使大型成熟企业在结构上具备明显优势。

报道称,苹果仍坚持其“端侧AI”的核心方向,并未转向纯云端方案。苹果正聚焦于构建一个更安全、注重隐私且运行高效的人工智能生态体系。

Trainium 3可提供2.52 PetaFLOPS的FP8计算能力,配备144GB HBM3E,容量比上一代的 96GB HBM 提升了 50%,内存带宽高达4.9TB/s。

阿里通义千问宣布,Qwen3-VL 家族“再扩列”:新增 2B 与 32B 两个密集(Dense)模型尺寸,从轻量级到甜品级,全线覆盖视觉语言理解场景。

“AI+“行动计划显示,到 2028 年底,中国移动将持续加大对人工智能领域的投入力度,总体投入翻一番,建成国内规模最大、技术领先的智算基础设施,探索十万卡智算集群建设,全国产智能算力规模突破 100 EFLOPS。

除与软银、甲骨文共同投资建设数据中心外,OpenAI在算力布局上还有更宏大的蓝图——计划在全球范围内扩建算力设施,总投资规模或高达10000亿美元。

刘炽平表示,目前美国芯片进口情况尚未明确,两国政府曾进行大量讨论,腾讯正在等待最终结果,但腾讯在AI推理芯片方面确实拥有多种选择;且拥有足够的芯片用于AI训练和模型升级,并正在进行大量软件升级,以提高推理效率

据知情人士透露,为支撑如此大规模的AI计算基础设施建设,xAI目前正在协商一项总额可能高达120亿美元的融资计划。这笔资金将主要用于以租赁方式扩充英伟达GPU的储备规模。

新的 MSL 部门将包括Meta现有的大型语言模型团队,以及 AI 产品和基础 AI 研究团队(FAIR)。此外,将创建一个“专注于开发下一代模型的新实验室”。

该芯片由AWS旗下Annapurna Labs设计,是亚马逊自研芯片战略的核心产品,旨在减少对英特尔、AMD等传统CPU厂商的依赖,同时优化云端基础设施的能效比。

在与 NVIDIA B200 和 GB200 的对比中,MI355X的HBM3E内存容量是英伟达GB200/B200的1.6倍,内存带宽则基本持平。在峰值FP64/FP32性能上,MI355X拥有2倍优势。

戴尔预估,第二财季AI服务器将出货约70亿美元。相比之下,戴尔过去每季AI服务器出货约为31亿美元。今年2月,戴尔预估全财年AI服务器营收预计约150亿美元,与去年度的98亿美元相比,大幅成长超50%。

这款采用最新一代Blackwell架构的AI处理器,预计售价介于6500美元至8000美元之间,明显低于H20的定价。较低的售价通常意味着芯片规格相对较弱,制造工艺也更为简化。

简讯快报

更多

存储厂商

更多