除了 HGX H20 之外,英伟达还方案推出别的两款契合美国约束的 PCIe芯片 ——L20 和 L2,但详细信息不详。
音讯的人悄悄表明,H20 原定于上一年 11 月推出,但该方案因为“服务器制造商在集成该芯片时遇到了问题”而被推延。其间一位知情的人说,初期产能非常有限,英伟达需求首要满意干流客户的订单。
依据 SemiAnalysis 剖析,H20、L20 和 L2 包括英伟达大部分用于 AI 作业的功用特性,但为了恪守新规则,这三款新品在算力方面有所减少;不过在 LLM 推理中仍然要比 H100 快 20% 以上。
IT之家查询揭露材料得悉,NVIDIA H100 Tensor Core GPU选用全新 Hopper 架构,根据台积电 N4 工艺,集成了 800 亿个晶体管。与上一代产品比较,可为多专家 (MoE) 模型供给高 9 倍的练习速度。
《选用 CoWoS 封装,音讯称英伟达我国版 H20 在 LLM 推理中比 H100 更快》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等方式),用于传递更加多信息,节约甄选时刻,成果仅供参考,IT之家一切文章均包括本声明。