每经AI快讯 ,电行2024年1月19日 ,列专力参论国力比德邦证券发布研报点评电子行业。题报沙龙国际线上娱乐【Aurl:www.8233066.com】送888元
算力参数 :多厂商逐鹿AI ,算数爆矩阵计算为核心算力参数 。发兼AI算力参数种类繁多 ,产算其本质是较德精度与运算效率的取舍 。为更好适应AI大模型的邦证报训练与推理,FP32 TensorCore ,券研沙龙国际线上娱乐【Aurl:www.8233066.com】送888元BF16等新兴数据类型应运而生。电行以FP32 Tensor Core为例,列专力参论国力比其为英伟达张量计算的题报数据格式 ,使得模型训练性能大幅提升。算数爆英伟达H200的发兼FP32算力为67TFlops,对应FP32 Tensor Core算力为989TFlops,产算性能大幅提升。而国内各算力厂商产品性能迭代顺利,华为海思此前发布的昇腾910在FP16算力性能上接近A100 ,下一代910B性能有望显著提升。寒武纪370对标英伟达L2芯片 。海光信息深算三号研发进展顺利;龙芯中科第二代图形处理器LG200单节点性能达256GFlops-1TFlops ,将基于2K3000的GPGPU技术及3C6000的龙链技术,研制专用GPGPU芯片。
互联参数 :多卡互联为大模型桎梏,国内外差距巨大。相比小模型,大模型要求在模型切分后进行模型并行。模型并行使得多个GPU能同时运行模型的一部分 ,并在共享结果后进入到下一层。大模型的发展使得类似英伟达NVLink、NVSwitch等互联技术的重要性快速提升 ,同时互联性能参数也成为各大模型实际效果好坏的重要凭依。大多数厂商利用PCIe进行互联 ,而英伟达的NVLink能够实现GPU间的直接互联,从而大幅提升通信效率,其NVLink带宽可达到900 GB/s。在大规模高精度的3DFFT 、3950亿参数的大模型训练上,H100+NVLink组合的提升显著 。我们认为随着大模型的复杂化,NVLink等多卡互联技术将愈加重要 。在多卡互联上 ,国内外厂商亦有所差距。以寒武纪MLU370-X8为例 ,寒武纪为多卡系统专门设计了MLU-Link桥接卡 ,其可实现4张加速卡为一组的8颗思元370芯片全互联,每张加速卡可获得200GB/s的通讯吞吐性能 ,带宽为PCIe 4.0的3.1倍。但相比英伟达NVLink 4.0的900GB/s,该互联性能仅为英伟达的22%,仍有较大提升空间。
建议关注:
算力芯片:寒武纪(思元590性能有望显著提升) 、海光信息(深算三号研发进展顺利)、龙芯中科(将基于2K3000的GPGPU技术及3C6000的龙链技术研制专用GPGPU芯片)
AI应用:海康威视 、大华股份、乐鑫科技、晶晨股份 、恒玄科技、中科蓝讯
服务器:工业富联 、沪电股份
服务器存储:澜起科技 、聚辰股份
先进封装 :通富微电 、长电科技、甬矽电子、华天科技
风险提示:下游需求复苏不及预期,技术研发风险,国内外政策和技术摩擦不确定性的风险。
(来源:慧博投研)
免责声明:本文内容与数据仅供参考,不构成投资建议 ,使用前请核实。据此操作 ,风险自担 。
(编辑 曾健辉)
(责任编辑:娱乐)