1、 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。1 证券研究报告 计算机计算机 全球全球 AI 算力需求继续向上算力需求继续向上 华泰研究华泰研究 计算机计算机 增持增持 (维持维持)研究员 谢春生谢春生 SAC No.S0570519080006 SFC No.BQZ938 +(86)21 2987 2036 联系人 林海亮林海亮 SAC No.S0570122060076 +(86)21 2897 2228 行业走势图行业走势图 资料来源:Wind,华泰研究 2024 年 4 月 12 日中国内地 专题研究专题研究 全球全球 AI 算力需求继续向上算力需求继续向上 随着大模型
2、持续迭代,模型能力不断增强,其背后是“Scaling Law”下模型参数量和数据集不断增长的结果。我们认为,从大模型的演化路径来看,模型体量还将进一步扩张,从而带来算力需求持续增长。具体来看,大模型对算力的需求体现在预训练、推理、调优三个环节。根据我们的测算,以1000 亿参数模型为例,三个环节的算力总需求约 18 万 PFlop/s-day,对应需要 2.8 万张 A100 等效 GPU 算力。长远来看,成熟大模型的运营有望带来 3169 亿美元的服务器增量市场,较 2023 年全球 211 亿美元的 AI 服务器市场而言,仍有较大成长空间。基于此,我们认为大模型持续迭代有望带来大量算力基础
3、设施需求,建议关注算力产业投资机遇。模型体量越来越大,带动算力建设需求模型体量越来越大,带动算力建设需求 大语言模型(LLM)是在大量数据集上预训练的模型,其在处理各种 NLP任务方面显示出了较大潜力。Transformer 架构的出现开启了大模型的演化之路,随着解码模块堆叠数量的不断增长,模型参数量持续增加,逐渐演化出 GPT-1、GPT-2、GPT-3、PaLM、Gemini 等不同版本模型,参数量也从十亿、百亿,向千亿、万亿增长。我们看到,每一代模型的演化都带来能力的增强,背后一个很重要的原因在于参数量和数据集的增长,带来模型感知能力、推理能力、记忆能力的不断提升。基于模型的缩放定律,我
4、们认为未来模型迭代或仍将延续更大参数量的路径,演化出更加智能的多模态能力。大模型的算力需求体现在:大模型的算力需求体现在:预预训练、推理、调优训练、推理、调优 拆解来看,大模型的算力需求场景主要包括预训练、Finetune 及日常运营。对于三部分的算力需求,我们的测算思路如下:1)预训练:基于“Chinchilla 缩放定律”假设,计算量可以通过公式 C6NBS 来刻画;2)推理:以ChatGPT 流量为基准,计算量可以通过公式 C2NBS 来刻画;3)调优:通过调优所需的 GPU 核时数倒推。以 1000 亿参数模型的预训练/推理/调优为例,三个环节所需的算力需求分别为 13889、5555
5、.6、216 PFlop/s-day。我们认为,在缩放定律(Scaling Law)加持下,随着模型体量增长,算力需求有望持续释放。基础设施需求有望持续释放基础设施需求有望持续释放,关注算力产业投资机遇,关注算力产业投资机遇 结合对大模型预训练/推理/调优的算力需求测算,我们预计从开发到成熟运营一个千亿模型,对 A100 等效 GPU 的需求量为 2.8 万张。根据我们的测算,成熟大模型的运营有望带来 3169 亿美元的全球 AI 服务器增量市场。对比来看,据IDC,2023年全球AI服务器市场规模211亿美元,预计2024-2025年 CAGR 将达 22.7%,未来仍有较大成长空间。此外,
6、考虑到国内对高性能芯片获取受限,AI GPU 国产化也有望进一步提速。产业链相关公司包括:1、英伟达链:浪潮信息、工业富联、中际旭创、沪电股份等;2、昇腾链:神州数码等;3、海光链:海光信息、中科曙光等;4、EDA:华大九天等。风险提示:宏观经济波动、下游需求不及预期、测算结果可能存在偏差。(45)(32)(20)(7)6Apr-23Aug-23Dec-23Apr-24(%)计算机沪深300 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。2 计算机计算机 正文目录正文目录“Scaling Law”驱动大模型算力需求持续增长驱动大模型算力需求持续增长.3 预训练:缩放定律下算力需求