[研报PDF] 电子元器件行业报告:HBM芯片量价齐升,看好存储芯片与PCB领域

>>查看PDF原文

  事件:

  据韩国经济日报报道, 受益于 ChatGPT 快速发展, 三星、 SK 海力士高带宽内存( high bandwidth memory, HBM) 芯片接单量大增。

  点评:

  ChatGPT 训练量大幅提升,最底层基础设施需要大算力芯片和内存芯片。

  ChatGPT 经历了 3 次迭代,参数量从 1.17 亿增加到 1750 亿,训练量大幅提升。

  ChatGPT 产业链大致可分为三层,分别为应用层、大模型层和芯片层。 OpenAI开发的是 GPT 系列大模型, 其外还有很多使用 ChatGPT 大模型生成 AI 虚拟人或内容的应用层公司。 ChatGPT 运行的三个条件包括训练数据、 模型算法和高算力, 高算力的底层基础设施是完成对海量数据处理、训练的基础,而最底层的是英伟达等大算力芯片与内存芯片。

  HBM 是基于 3D 堆叠工艺的 DRAM 内存芯片技术, 大幅提升数据处理速度,ChatGPT 发展带动第三代 HBM 报价大涨。 HBM 是一种基于 3D 堆叠工艺的DRAM 内存芯片, 被安装在 GPU、网络交换设备、 AI 加速器及高效能服务器上。HBM 能大幅提高数据处理速度, 每瓦带宽比 GDDR5 高出 3 倍还多,且 HBM比 GDDR5 节省了 94%的表面积。 以 HBM 为代表的超高带宽内存技术生成类模型也会加速 HBM 内存进一步增大容量和增大带宽。 第三代 HBM 报价大涨,约为效能最高的 DRAM 产品的五倍。

  ChatGPT等基于自然语言技术的交互式 AI应用发展有利于推动 AI由软件向硬件切换,内存芯片和 PCB 或将受益。 ChatGPT 这类生成式 AI 应用需要在海量的训练数据中进行学习, 因此 AI 模型需要存储大量的图片和音频信息。 另外,AI 应用必须具备快速处理数据的能力,才能向用户实时输出 AI 计算结果, 对于内存芯片的数据传输速度提出了更高要求。受益于 ChatGPT 的应用快速发展,AI 产业化将由软件向硬件切换。 而服务器和网络交换设备对于 PCB 有直接的需求, PCB 作为芯片载体, 使用量也有望加速增长。

  投资策略: ChatGPT 催生 AI 新需求,我们认为硬件有望先行,算力+存储芯片或将直接受益。大规模模型训练、海量数据共同成就 ChatGPT。高算力的底层基础设施是完成对海量数据处理、训练的基础。海量数据汇集也为 AI 模型提供强大的数据集支撑。提升算力主要是 GPU 和 FPGA, GPU 受益标的:景嘉微、好利科技;存储容量提升相关受益标的: 通富微电、 江波龙、东芯股份、佰维存储; PCB 领域相关受益标的: 胜宏科技、深南电路、兴森科技。

  风险提示: (1)行业景气度下行;(2)扩产进度不达预期;(3)中美贸易摩擦加剧。

>>查看PDF原文

关于作者:

交易自己的交易,制定自己的交易。