“AI的iPhone时刻”哪些环节受益?-世界最新

来源:广发证券2023-04-11 17:40:17

六问六答,“AI的iPhone时刻”哪些环节受益?

(一)Q1:ChatGPT产业链上下游电子行业的分布情况怎么样?看好哪些细分领域?


(资料图片)

电子行业在ChatGPT产业链中主要分布位于AI服务器及相关电子产品。AI服务器是以ChatGPT为代表的大模型进行训练/推理的算力载体和基础。相比于通用型服务器, AI服务器价值量最大的提升来自于配备4/8颗GPGPU,GPGPU在AI服务器硬件成本中占比可达70%。数据量和算力的提升也明显拉升了AI服务器中存储芯片、高速互联芯片、光模块/光芯片、多相电源、PCB基板等电子产品的量与价,给相关电子厂商带来了机会。

终端应用侧的电子厂商亦有望受益于ChatGPT产业链的发展。在终端应用侧,AIGC将有望为XR、智能音箱、安防等终端设备打开新成长空间。一方面,AIGC作为生产力工具能够低成本、高效率地满足用户海量的内容需求,在内容端为XR产业持续赋能;另一方面,AIGC的应用提升了用户与智能音箱等终端设备的交互体验,打开了新的使用场景。在安防领域,ChatGPT和AIGC技术的应用,可以帮助安防产品实现更高效的数据处理和管理,大幅提升安防系统的反应速度和处理能力,实现一定程度降本增效,推动智慧安防乃至智能物联网行业发展。

(二)Q2:ChatGPT拉动AI服务器需求提升,国内哪些领域和厂商直接受益?

在服务器硬件厂商领域,主要受益的国内厂商有PCB厂商胜宏科技、沪电股份,ODM厂商工业富联等。在AI服务器产业链领域,主要受益的细分领域为算力芯片、存储芯片和连接芯片。主要受益的厂商有算力芯片厂商海光信息、寒武纪、芯原股份、龙芯中科等;连接芯片厂商源杰科技、澜起科技、聚辰股份、裕太微等;存储芯片相关厂商深科技、北京君正、兆易创新、东芯股份、国芯科技、雅克科技等;电源芯片:杰华特等。在AIGC应用层的终端设备领域,主要受益的厂商有大华股份、海康威视、韦尔股份、思特威、恒玄科技、晶晨股份、全志科技、瑞芯微等。

(三)Q3:微软宣布ChatGPT支持第三方插件接入,支撑以后更多的类ChatGPT模型算力肯定需要芯片,具体有哪些AI芯片更关键更值得关注?

高性能GPGPU为AI服务器算力核心,是支撑AIGC在用户端广泛应用的算力基础。GPGPU是一种利用图形处理器进行高性能计算的通用图形处理器。作为运算协处理器,GPGPU去掉或减弱了GPU的图形显示部分能力,将其余部分全部投入与图形处理无关的通用计算,并成为AI加速卡的核心,在AI服务器硬件成本中占比可达70%。在AI领域,使用GPGPU在云端运行模型训练算法可以显著缩短训练时间,减少能源消耗,从而降低成本。与此同时,GPGPU提供了完善的软件生态系统,便于各种应用程序的移植和新算法开发。因此,GPGPU是人工智能领域最主要的协处理器解决方案,占据90%以上的市场份额,在智能工厂、无人驾驶、智慧城市等领域广泛应用。

理解GPU的算力性能参数是理解AI芯片的基础和前提。GPU计算时常用的数据类型有浮点数:FP64、FP32、FP16、TF32(Nvidia提出)、BF16(Google提出);整点数:INT8,INT16,INT32等。他们的核心区别在于数据精度。对于AI训练、AI推理、Advanced HPC等不同使用场景,所需求的数据类型也有所不同,根据英伟达官网的表述,AI训练为缩短训练时间,主要使用FP8、TF32和FP16;AI推理为在低延迟下实现高吞吐量,主要使用TF32、BF16、FP16、FP8和INT8;HPC(高性能计算)为实现在所需的高准确性下进行科学计算的功能,主要使用FP64.

GPU峰值算力的测算公式为:峰值计算能力= GPU Core的运行频率*GPU SM数量*单个SM对应的特定数据类型的指令吞吐量*2.以NVIDIA GA100为例,A100中总共有108个SM,每个SM有64个FP32 CUDA核,64个INT32 CUDA核,32个FP64 CUDA核,以及4个第三代Tensor Core,其中Tensor Core专注于矩阵运算,在模型训练与推理的过程中,Tensor Core将是主要的计算内核。根据上述公式,可以计算得到A100 FP16(Tensor Core加速)峰值算力为312T FLOPS,FP32(Cuda Core)峰值算力=19.5T FLOPS,与英伟达官方披露的性能参数一致。由此可见,GPU峰值算力与主频和硬件配置数量等参数相关。

AIGC时代AI芯片的增量市场需求可以通过AI大模型训练/推理的算力需求进行测算。我们参考NVIDIA发表论文中对不同参数GPT模型算力需求的计算方法及NVIDIA A100在模型训练过程的参数,对以GPT-3.5为代表的大模型的训练/推理算力需求进行测算。根据测算:在训练侧,训练一个GPT-3.5 175B模型的NVIDIA A100需求为1080个、AI服务器需求为135台;训练一个万亿参数量AI大模型对A100、AI服务器的需求分别为8521个、1065台。在推理侧,一个谷歌级应用使用GPT-3.5 175B进行推理,对NVIDIA A100需求为72万个、对AI服务器需求为9万台;一个谷歌级应用使用万亿参数大模型进行推理,对NVIDIA A100需求为378万个、对AI服务器需求为47.3万台。同时以2022年全球AI服务器出货量14万台为基数,测算了大模型算力需求对全球AI服务器市场的拉动。

海光信息是国产微处理器领航者,AIGC时代迎新机遇。海光信息主要产品包括高端通用处理器(CPU)和高端协处理器(DCU)。与NVIDIA公司高端GPU产品(型号为A100)及AMD公司高端GPU产品(型号为MI100)进行对比,公司DCU产品深算一号在生产工艺、内核频率等性能参数上达到国际上同类型高端产品水平。公司产品自带片上中国原生安全基因,兼顾性能和安全需求,可以在数据处理过程中为用户提供更高效的安全保障,满足中国境内最为严苛的安全计算要求。公司发展有望充分受益于信创领域国产替代大趋势与AIGC大时代的来临。

(四)Q4:英伟达GTC大会公布了不少新的产品,结合他们新品的发布情况,在硬件端和软件端有哪些投资机会值得关注?

英伟达在GTC大会针对训练和推理发布多款新产品,包括全新GPU推理平台(L4,L40,H100 NVL,Grace Hopper芯片),4种配置分别用于加速AI视频、图像生成、大型语言模型部署和推荐系统。其中适用于训练阶段的DGX H100,其拥有8个H100 GPU模组,在FP8精度下可提供32PetaFLOPS的算力,并提供完整的英伟达AI软件堆栈,助力简化AI开发。芯片的算力提升是AI硬件产品发展的主线规律,建议持续关注本土算力芯片厂商在产品研发及产品批量出货应用方面的进展。

AI芯片算力的提升对系统的存储容量与读取速度、芯片/服务器间高速连接、供电管理等性能的高可靠性与稳定性提出了更高的要求,相应电子产品的量/价在AI服务器中也有望迎来量价齐升。

1. 存储

高带宽显存(HBM)突破内存带宽瓶颈,提升数据交换速率。HBM 是一款新型的 CPU/GPU 内存芯片,通过将多个DDR芯片堆叠在一起,实现大容量,高位宽的DDR组合阵列。这种设计能够大大提升信息交换的速率。这些堆叠的芯片通过称为“中介层 (Interposer)”的超快速互联方式连接至 CPU 或 GPU.将HBM的堆栈插入到中介层中,放置于 CPU 或 GPU 旁边,然后将组装后的模块连接至电路板。此外,HBM在功耗和面积上也有优越的表现,HBM重新调整了内存的功耗效率,使每瓦带宽比 GDDR5 高出 3 倍还多;相比于GDDR5,HBM能够节省94%的表面积。

DDR5时代内存接口芯片量价齐升,内存接口芯片是服务器内存模组的核心逻辑器件,以提升内存数据访问的速度稳定性,满足服务器CPU对内存模组日益增长的高性能及大容量需求。目前行业正从DDR4升级至DDR5.据JEDEC定义,DDR5时代,RCD和DB需支撑的传输速率从3200MT/s提升至DDR5第一子代的4800MT/s,且子代还在继续升级中。此外,DDR5世代还需配置1颗SPD、1颗PMIC和2颗TS等配套芯片,行业迎来量价齐升。澜起科技是目前全球唯二可提供DDR5全套芯片的龙头厂商(其中,SPD与聚辰股份合作提供)。

2. 高速互联

AIGC应用驱动400G/800G高速率光模块在AI服务器中加速渗透。光模块是数据中心内部互连和数据中心相互连接的核心部件。随着AIGC应用所需数据流量持续提升,交换机互联速率逐步由100G向400G/800G升级。根据LightCounting的数据,2020年全球光模块市场规模为66.7亿美元。预测2025年全球光模块市场将达到113亿美元,为2020年的1.7倍。

光芯片作为光模块核心元件,迎来量价齐升。光芯片是光模块中的核心元件,在对高速传输需求不断提升背景下,更高价值量的25G及以上高速率光芯片市场增长迅速。根据Omdia预测,2019年至2025年,25G以上速率光模块所使用的光芯片占比逐渐扩大,市场空间将从13.56亿美元增长至43.40亿美元,CAGR为21.40%。封装方式上,CPO是解决超高算力过载并提高能效的核心解决方案之一,据Light Counting预计,按照端口数量统计,CPO的全球发货量将从2023年的5万件逐步增长到2027年的450万件。

源杰科技:本土光通信芯片领军者。源杰科技聚焦于光芯片行业,主要产品包括2.5G、10G、25G及更高速率激光器芯片系列产品等,目前主要应用于光纤接入、4G/5G移动通信网络和数据中心等领域。公司应用于数据中心的25G DFB芯片已实现批量供货,2021年公司数据中心业务营业收入同比增长459%。更高阶产品方面,公司100G PAM4 EML激光器芯片处于送样阶段;公司CW大功率光源可用于CPO领域,产品与海外差距较小,已在多家客户送样测试。

PCIe5.0拉动PCIe Retimer需求,澜起科技具备先发优势。PCIe Retimer芯片是适用于 PCIe 高速数据传输协议的超高速时序整合芯片,主要解决数据中心数据高速、远距离传输时,信号时序不齐、损耗大、完整性差等问题,还可灵活地切换 PCIe 或 CXL 模式,多应用于NVMe SSD、AI 服务器、Riser卡等典型应用场景,AI服务器中由于增加8颗GPU,他们通过PCIe与CPU互联,因此AI服务器对PCIe Retimer会有比较明显的增量需求。澜起科技布局PCIe较早,是全球可量产PCIe 4.0 Retimer的唯一中国公司,公司PCIe 5.0 Retimer研发进展顺利。

AI服务器中PCB产品量价齐升,单机价值增量显著。AI服务器PCB板价值量提升主要来自三方面:(1)PCB板面积增加。AI服务器中除了搭载CPU的主板外,每颗GPU需要分别封装在GPU模块板,并集成到一块主板上,相比传统服务器仅使用一块主板,PCB面积大幅增加。(2)PCB板层数增加。AI服务器相对于传统服务器具有高传输速率、高内存带宽、硬件架构复杂等特征,需要更复杂的走线,因而需要增加PCB层数以加强阻抗控制等性能。(3)PCB用CCL材料标准更高。AI服务器用PCB需要更高的传输速率、更高散热需求、更低损耗等特性,其核心材料CCL需要具备高速高频低损耗等特质,CCL材料等级需要提升,材料的配方以及制作工艺复杂度攀升,推动价值量提升。

本土PCB厂商积极布局AI服务器市场。沪电股份立足于既有的企业通讯市场板、汽车板等主导产品的技术领先优势,及时把握通信、汽车等高端产品需求,应用于AI加速、Graphics、GPU、OAM、FPGA等加速模块类的产品以及应用于UBB、BaseBoard的产品已批量出货。胜宏科技具备70层高精密线路板、20层五阶HDI线路板的研发制造能力,平台服务器主板小批量试产,服务器硬盘用高频主板试样中。

3. 其他

多相电源产品在AI服务器中单机价值增量显著。多相控制器+DrMOS组成的多相电源解决方案是GPU的主流供电形式。参考NVIDIA V100的多相电源配置,A100至少需要16相电源解决方案(1颗多相控制器+16颗大电流DrMOS的配置),则该AI服务器相较于普通服务器增加了8颗多相控制器、128颗大电流DrMOS需求,参考TI官网产品价格,则搭载8张A100的AI服务器单机新增多相电源产品价值量超过300美元。根据MPS数据,单台普通服务器CPU主板电源解决方案(包含多相控制器+DrMOS+POL+EFuse等产品)合计价值量约80美元;因此AI服务器单机多相电源产品价值量相较于普通服务器有数倍提升。

杰华特:本土多相电源解决方案领军者。根据杰华特招股书、投资者活动关系记录,公司于2020年成功研发出基于公司自有工艺和技术的DrMOS产品,单芯片可支持60A输出电流,打破了欧美厂商的垄断;2021与2022年,公司相继研发车规DrMOS产品以及90A DrMOS产品,持续增强市场竞争力;目前公司DrMOS产品在服务器、笔电领域均实现批量出货。公司多相控制器产品目前处于送样阶段,未来会与DrMOS配套出货。

(五)Q5:AIGC产业链从成本的角度来看,还有哪些成本要素值得我们跟踪?

GPU性能不断提升,有望优化GPU硬件成本。NVIDIA最新一代H100产品配置了第四代Tensor Cores及FP8精度的Transformer engine.在执行训练任务时,相比于上一代配置MoE模型的A100计算集群,大规模H100计算集群在配置NVLink的情况下最高可将训练速度提升9倍;在执行推理任务时,第四代Tensor Cores提高了包括FP64、TF32、FP32、FP16、INT8和FP8在内的所有精度下的推理速度,在保持LLM精度的同时减少了内存使用并提高性能,最高可将推理速度提升30倍。因此随着技术进步,单个GPU在训练和推理任务上的效率提升,有望降低大模型高昂的训练和推理成本。

(六)Q6:怎么看待消费电子应用层上的商业化,建议关注哪些落地场景?

从视觉领域来看,AIGC作为生产力工具赋能元宇宙,逐渐实现元宇宙的可扩展性潜力,低成本、高效率地满足VR/AR用户海量内容需求。根据Omdia数据,2023年近眼显示面板出货量有望达到2406万台,同比增长67.3%。随着索尼PSVR 2、苹果MR、Meta Quest3等主要产品的推出在即,以及AIGC未来在内容端的持续赋能,XR产业有望迎来新一轮增长。

从听觉领域来看,AIGC有望创造智能音箱交互新范式。智能音箱是家庭场景交互中心与IoT控制中心,AIGC符合智能音箱用户个性化交互需求,在家庭内部家庭教育、电器控制、起居辅助等方面进一步提升用户体验,开启听觉盛宴。阿里发布了“鸟鸟分鸟”,将AI大模型装进智能终端,探索了智能终端与大模型的交互范式。根据IDC数据,2022年包括智能音箱在内的家庭智能设备市场规模为306.3亿美元,预计到2026年将达到382.9亿美元,CAGR为5.7%。随着AIGC热潮上升,音频内容个性化需求进一步凸显,打开终端设备销量未来市场空间。

AIGC有望与安防紧密结合,驱动泛安防产业智能化升级。ChatGPT和AIGC技术的应用,可以帮助安防产品实现更高效的数据处理和管理,大幅提升安防系统的反应速度和处理能力,实现一定程度降本增效,推动智慧安防乃至智能物联网行业发展。具体而言,ChatGPT可以帮助识别并分类人、车辆、动物等不同对象,帮助安全系统快速识别异常事件等。同时,ChatGPT的应用还将促进安防与其他相关领域合作,以谷歌和微软等厂商致力于利用神经网络进行机器人控制为例,将视觉数据以及大型语言模型结合起来,可推动安防机器人的发展。

(文章来源:广发证券)

标签:

  • 路线
河南新增本土无症状感染者23例
天津新增本土确诊病例10例、本土无症状感染者8例