群联8月营收59.34亿元(新台币,下同),同比增长23.5%,自结税后获利6.5亿元,因去年8月基期较低,同比暴增4900%,EPS 3.15元。
群联表示,非消费型市场布局与持续的研发投资,为其业绩大增的主要动能,带动高毛利产品比重提升,对单月获利提供正面挹注。
随着NAND原厂对市场需求展望转趋正面,并启动价格调整,群联将持续强化与NAND原厂的合作,以确保供货满足全球客户的多元应用需求,并把握市场复苏带来的成长契机。
日前在上海举行的开放原子“园区行”活动上,“开放原子开源基金会人工智能开源社区开源数据集工作组”正式启动,并同步成立“具身智能开源数据集社区”。这是国家级平台发起的首个聚焦具身智能数据集的开源社区,旨在为具身智能数据基础设施建设提供制度保障与资源协同。
据外媒报道,受人工智能浪潮推动,2026年AI内存芯片需求预计将持续激增,三星电子正考虑将内存芯片合同转向多年期合约,计划从现行的季度或年度合同延长至三至五年,以稳定供应并缓解市场对关键组件短缺的担忧 。
3月18日,阿里云官网发布AI算力、存储等产品调价公告。由于采购成本显著上涨,公司经审慎评估决定将于2026年4月18日起对AI算力、CPFS(智算版)等服务价格进行调整。其中,平头哥真武810E等算力卡产品上涨5%-34%,CPFS(智算版)上涨30%。
小米在海外市场推出POCO X8 Pro、X8 Pro Max手机,分别搭载天玑8500 Ultra、天玑 9500s芯片,电池容量最高8500mAh。其中,POCO X8 Pro Max配备联发科天玑9500s芯片,辅以LPDDR5x内存以及UFS 4.1闪存,配备8500mAh电池。该机的12+256GB版本首发起售价是429美元(折合人民币约2951.82元),512GB顶配版售459美元(折合人民币约3158.24元)。POCO X8 Pro搭载天玑8500Ultra处理器,最高频率可达3.4GHz,拥有6500mAh电池,8+256GB版本首发售价299美元(折合人民币约2057.33元),12GB+512GB版本则是359美元(折合人民币约2467.87元)。
北京君正在互动平台表示,目前DRAM芯片、Flash芯片和部分计算芯片的价格有调整,DRAM新制程的产品已开始销售,预计今年公司业绩会有较好的增长。
据外媒报道,三星一直向英伟达供应HBM4、SOCAMM2内存模块和PM1763 SSD,现在又通过增加Grok3 LPU芯片的生产,扩大了双方的合作,已确立了其作为下一代人工智能加速器平台所有领域核心合作伙伴的地位。三星电子已确认正在开发第八代高带宽内存(HBM5),其底层芯片(最底层)采用2纳米工艺。对于第九代HBM5E,该公司计划提前在核心芯片上应用基于1D(第七代10纳米级)工艺的DRAM。
意大利米兰理工大学联合研究团队成功研制出由光控制的超高速计算机,其运算速度比现有最快电子器件快一百倍以上。该成果首次证实,光不仅能传输信息,还可直接用于信息处理,为未来计算机性能突破开辟了新路径。相关论文已发表于《自然·光子学》杂志。
3月18日,NVIDIA CEO黄仁勋在GTC 2026大会上公开表示,公司已获得中美双方批准,为多家中国客户拿到H200 GPU出口许可并收到采购订单,目前正重启该芯片生产,供应链已全力运转。
Meta 近日与 AI 云服务商 Nebius Group N.V. 签署一项为期五年的 AI 基础设施合作协议,合同总规模最高达 270 亿美元。根据协议,Nebius 将于 2027 年初开始,在全球多个节点为 Meta 提供基于 NVIDIA Vera Rubin 平台、价值 120 亿美元的专属算力。同时,Meta 承诺在五年内额外采购最高 150 亿美元的算力资源。Nebius 将优先面向第三方客户开放该部分算力,剩余容量由 Meta 按协议承接。此次合作将进一步强化 Meta 的 AI 算力储备,助力其大模型训练与 AI 技术研发。
当地时间3月17日,美股三大股指全线收涨。截至收盘,道琼斯工业指数涨0.1%,报46993.26点;标普500指数涨0.25%,报6716.09点;纳斯达克综合指数涨0.47%,报22479.53点。其中,大型科技股表现分化,高通、亚马逊、谷歌A、谷歌C涨超1%,苹果涨0.56%,英伟达跌0.7%,AMD、微软跌0.14%;存储板块普遍收涨,西部数据涨超9%,希捷涨超5%,美光涨超4%,闪迪涨超2%。
英国政府近日宣布投资4500万英镑((约合人民币4.13亿元),启动名为“Sunrise”的超级计算机项目,旨在加速核聚变能源研究,助力实现净零排放目标。该项目由英国能源安全与净零排放部资助,英国原子能管理局牵头,联合AMD、戴尔、Weka等企业及剑桥大学共同打造。
Sunrise超级计算机功率达1.4兆瓦,预计今年6月投入运行,将成为全球最强大的核聚变专用AI超级计算机,可提供6.76艾级AI加速建模能力,用于解决等离子体湍流、材料开发等核聚变核心难题。作为英国首个AI增长区建设的关键一步,该项目还将强化英国高性能计算能力,推动清洁能源技术创新,为英国创造相关技能岗位。
铠侠宣布推出一种全新类型的SSD产品“Super High IOPS SSD”,直译为“超高 IOPS SSD”。该产品可使GPU直接访问高速闪存,作为人工智能系统中高带宽内存(HBM)的扩展。这款全新超高IOPS SSD归属于KIOXIA GP系列,专为满足人工智能和高性能计算日益增长的性能需求而设计,可提供更大的GPU可访问内存容量,从而加快人工智能工作负载的数据访问速度。KIOXIA GP系列的评估样品将于2026年底前提供给部分客户。
在NVIDIA GTC 2026 大会上,三星全面展示了其在AI计算领域的技术布局,展出了从高性能内存到面向个人设备的低功耗解决方案的全系产品。三星首次展示了其下一代HBM4E内存。该产品每引脚传输速度可达16Gbps,带宽高达4.0 TB/s。此外,三星还展出了其混合铜键合(HCB)技术,这项新技术将使下一代HBM能够实现16层或更多堆叠,同时与热压键合相比降低20%以上热阻。
据外媒报道,韩国SK集团董事长崔泰源表示,由于人工智能驱动的需求持续超过供应,全球芯片晶圆短缺的情况可能会持续到2030年。在加州圣何塞举行的英伟达GTC大会间隙,崔泰源接受记者采访时表示,SK海力士正在考虑在美国上市ADR,以扩大其全球投资者基础;同时,其首席执行官可能会公布稳定DRAM芯片价格的计划,集团也正在探索替代能源。
3月17日,阿里巴巴发布全球首个企业级AI原生工作平台“悟空”,即日起开启邀测,并将内置至钉钉。该平台定位为企业级安全可控的Agent平台,可自动继承企业权限规则,在安全沙箱中运行,从而有效解决权限管理、操作审计与成本核算等企业核心痛点。为实现这一目标,钉钉已完成底层CLI化改造,让悟空能够原生操作其上千项能力,而非模拟人工点击。同步发布的还有OPT十大行业解决方案,覆盖电商、制造、法律等场景,旨在让“一人即团队”成为可能。此外,淘宝、1688等B端能力也将逐步以Skill形式接入,进一步丰富平台生态。
3月17日,英伟达宣布携手比亚迪、吉利、日产、五十铃等头部车企,基于NVIDIA DRIVE Hyperion平台推进L4级自动驾驶量产落地。其中,比亚迪、吉利等主攻L4级乘用车自动驾驶,五十铃联合TIER IV开发L4级自动驾驶巴士。
同时,英伟达扩大与Uber合作,计划2028年前在四大洲28城部署NVIDIA DRIVE AV软件驱动的Robotaxi车队,Bolt、Grab等出行平台同步接入。此次合作依托成熟技术平台,可缩短车企开发周期,推动L4级自动驾驶在2027年前后实现规模化量产。
当地时间3月16日(2026年GTC大会),英伟达正式发布BlueField-4 STX模块化存储参考架构,专为智能体AI长上下文推理打造,破解传统存储瓶颈。该架构基于Vera Rubin平台,由BlueField-4 DPU驱动,结合Vera CPU和ConnectX-9 SuperNIC,将上下文存储拉至GPU近邻,构建高性能存储层。
相较于传统架构,其每秒Token处理量提升高达5倍,能效提升4倍,数据摄入速度翻倍。目前该架构已获CoreWeave、Oracle OCI、Mistral AI等云服务商支持,戴尔、HPE、IBM等厂商正基于其设计下一代AI基础设施,相关系统将于2026年下半年上市。
当地时间3月16日,美光在官网宣布公司已于2026年第一季度开始批量出货其HBM4 36GB 12H内存。该产品专为NVIDIA Vera Rubin平台设计,实现了超过11Gb/s的引脚速度,带宽超过2.8TB/s。相比其上一代HBM3E,带宽提升了2.3倍,能效提升超过20%。为了进一步提升HBM立方体的容量,美光将16颗HBM芯片堆叠在一起,并已向客户交付了HBM4 48GB 16H的样品。与HBM4 36GB 12H产品相比,每颗HBM芯片的容量提升了33%。
当地时间3月16日,美股三大股指全线收涨。截至收盘,道琼斯工业指数涨幅0.83%,报46946.41点;标普500指数涨1.01%,报6699.38点;纳斯达克综合指数涨1.22%,报22374.18点。其中,大型科技股大部分收涨,苹果、谷歌A、英伟达、AMD、亚马逊、微软涨超1%,谷歌C涨0.98%,高通跌0.33%;存储板块普遍收涨,闪迪涨超6%,西部数据涨超5%,美光、希捷涨超3%。
在2026年GTC大会上,英伟达发布专为智能体AI打造的Vera Rubin平台。Rubin GPU采用台积电3nm工艺,集成3360亿晶体管,配备288GB HBM4内存,带宽达22TB/秒;FP4推断算力达50 PFLOPS(Blackwell的5倍),训练算力35 PFLOPS(3.5倍)。整个Vera Rubin NVL72机架通过NVLink 6实现260TB/秒带宽,超过全球互联网总和。
与上一代Blackwell相比,Vera Rubin实现代际飞跃:单Token推理成本降至1/10,每瓦推理吞吐量提升10倍,训练混合专家大模型所需GPU资源仅为此前的四分之一。目前该平台已全面量产,预计2026下半年交付。