智通财经APP获悉,华泰证券发布研究报告称,头部科技大厂出于削减TCO、提升研发可控性及集成生态等考量,均陆续自研芯片,他们或将成为英伟达(NVDA.US)最大竞争对手。英伟达刚推出NVIDIA
HGX
H200,从HBM3内存升级到HBM3e,也是首款采用HBM3e的GPU,相较于前代H100展现了显著的性能提升和效率革新。主要针对AI计算的两大瓶颈:内存容量与带宽。其旗舰芯片迭代周期也显著加速,从大约两年发布转为一年多版。AWS、谷歌云、微软Azure和甲骨文等将成为其主要客户。
华泰证券主要观点如下:
多方入局下,AI芯片竞争已趋白热化
英伟达GPU一直是AI训练端首选,华泰证券认为包括谷歌TPU和AMD MI300系列等少数芯片能与其匹敌。但当算法开始成熟,ASIC定制芯片凭着专用性和低功耗,能承接部分算力。该机构认认为头部科技大厂出于削减TCO、提升研发可控性及集成生态等考量,均陆续自研芯片,他们或将成为英伟达最大竞争对手,如特斯拉Dojo、亚马逊在18和20年发布的AI推理芯片Inferentia及训练芯片Trainium、以及微软或将在 11 月 14 日Ignite 会议推出的首款自研AI芯片“Athena(雅典娜)”。AI推理市场规模大,但对算力要求比训练低,目前虽以CPU主导,但GPU/FPGA/ASIC等也能占到一席位。
英伟达推出NVIDIA HGX H200,新品迭代提速显著
英伟达于美国时间11月13日推出NVIDIA HGX H200。H200从HBM3内存升级到HBM3e,是首款采用HBM3e的GPU,拥有高达141GB的内存容量,及4.8TB/s的带宽,对比H100的80GB和3.35TB/s大幅提升。在性能表现方面,H200重点强化了推理性能和HPC性能,有效降低了能耗和整体成本。根据SemiAnalysis在10月10日的报道,英伟达未来AI芯片路线图显示,公司计划在明后两年推出H200、B100和X100等芯片及配套方案。这一策略标志着其旗舰芯片迭代周期的显著加速,即发布间隔从大约两年转变为一年多版,展示了公司的创新能力和领导地位。
NVIDIA HGX H200:性能与效率的双重提升
NVIDIA的HGX H200相较于前代H100展现了显著的性能提升和效率革新。在推理应用中,H200将Llama 2(700亿参数的大型语言模型)的推理速度提高了近一倍。此外,H200还相对H100实现了TCO(Total Cost of Ownership)和能耗成本50%的降低。内存容量与带宽是限制AI计算的主要瓶颈,H200在加速生成式AI和大型语言模型方面更为出色,标志着NVIDIA在高性能计算领域迈出了重要一步。成本的减低也将有利于整体AI芯片在推理场景的应用的推进。
HGX H200预计在24Q2发货,AWS等云大厂均为首批用户
H200能够与HGX H100系统的硬件和软件兼容。2023年8月在SIGGRAPH大会发布的GH200 Grace Hopper 超级芯片(HBM3e版本)即为H200与Grace CPU 配合使用。公司也计划两者均于24Q2正式出货。除了英伟达自己投资的CoreWeave、Lambda和Vultr之外,AWS、谷歌云、微软Azure和甲骨文,都将成为首批部署基于H200实例的供应商。
风险提示:技术落地缓慢;中美竞争加剧;芯片需求不及预期;宏观经济不确定性。