1、2023 年深度行业分析研究报告 行业研究报告 慧博智能投研 目录目录 一、行业概况.1 二、驱动因素.6 三、产业链分析.9 四、市场机遇.14 五、竞争格局.17 六、相关企业.18 七、产业前景.23 一、行业概况一、行业概况 1、人工智能服务器为算力支撑,助燃、人工智能服务器为算力支撑,助燃 AI 产业化产业化(1)从通用服务器到)从通用服务器到 AI 服务器的过渡服务器的过渡AI 服务器在众多服务器中脱颖而出源于其架构优势服务器在众多服务器中脱颖而出源于其架构优势。AI 服务器是承载智慧计算中 AI 计算的核心基础设施,是一种能够提供人工智能的数据服务器,既可以用于支持本地应用程序和
2、网页,也可以为云和本地服务器提供复杂的 AI 模型和服务,通过异构形式适应不同应用范围以及提升服务器的数据处理能力,异构方式包括 CPU+GPU/TPU/ASIC/FPGA。AI 服务器的发展脱胎自通用服务器的性能提升需求服务器的发展脱胎自通用服务器的性能提升需求。复盘主流服务器的发展历程,随着数据量激增、数据场景复杂化,诞生了适用于不同场景的服务器类型:通用服务器、云计算服务器、边缘计算服务器、AI 服务器。随着大数据、云计算、人工智能及物联网等网络技术的普及,充斥在互联网中的数据呈现几何倍数的增长,使得以 CPU 为主要算力来源的传统服务器承受着越来越大的压力,并且对于目前 CPU的制程工
3、艺而言,单个 CPU 的核心数已经接近极限,但数据的增加却还在继续,因此服务器数据处理能力必须得到新的提升,在这种环境下,AI 服务器应运而生。面对 ChatGPT 所引出的大规模预训练模型,AI 服务器以其架构优势带来的大吞吐量特点,有望在一众服务器中脱颖而出。(2)AI 服务器中服务器中 CPU+GPU 协同工作,相较普通服务器算力明显提升协同工作,相较普通服务器算力明显提升 RU2VYYCWVWBVTV8OaO9PpNpPoMrNfQmMsRiNoPrQ8OpOnNuOmPoOuOrRoM AI 训练模型算力提升速度突破极限,目前英伟达训练型训练模型算力提升速度突破极限,目前英伟达训练型
4、 AI 服务器一般配备服务器一般配备 8 个个 GPU。随着以chatGPT 为代表的 AI 的发展,训练 GPT-3、Megatron-Turing NLG530B 等超大语言模型所要求的算力提升速度已经突破了后摩尔定律算力提升速度的极限,尽管 CPU 不断升级,但 CPU 制程以及单个 CPU和核心数量接近极限,仅依靠 CPU 无法满足算力需求。CPU 的内核数量大约数十个,但 GPU 具备成千上万个 CUDA 核心,因此 GPU 多个内核决定了其能够在相同的价格和功率范围内,比 CPU 提供更高的指令吞吐量和内存带宽,GPU 能够并行执行成千上万个线程(摊销较慢的单线程性能以实现更大数据
5、吞吐量)。在训练 AI 模型的过程中,需要同时对所有样本数据执行几乎相同的操作,GPU 架构设计能够很好满足 AI 场景需求。AI 服务器相较通用服务器的一个明显差别之一是增加了 GPU,通用服务器一般含有 1-2 个 CPU、不含 GPU,而当前英伟达训练型 AI 服务器一般搭载 8 个 GPU。AI 服务器服务器 GPU 需要需要 CPU 来进行指令,模型算力提升带动来进行指令,模型算力提升带动 CPU 核心、主频等提升核心、主频等提升。在 AI 服务器的GPU 模式下,模型训练一般分为 4 步,将输入数据从系统内存拷贝到显存;CPU 指示 GPU 处理数据;GPU 并行完成一系列计算;将
6、计算结果从显存拷贝到内存。虽然 GPU 并行能力优异但无法单独工作,必须由 CPU 进行控制调用,CPU 可以独立工作并直接访问内存数据完成计算。因此在 AI 服务器中,GPU 和 CPU 需要协同工作,训练模型所需算力升级也将带动 CPU 技术升级,例如在英伟达 DGX-2 服务器中,采用的英特尔第三代至强处理器 8168,主频大约 2.7GHz,核心数量为 24 个;在英伟达DGXH100 服务器中,搭载英特尔第四代至强处理器 8480C,主频提升至最高 3.8GHz,CPU 核心数量提升至大约 56 个。AI 服务器存储器容量伴随服务器存储器容量伴随 CPU/GPU 的升级而提升,相较传