1、敬请参阅最后一页特别声明 1 投资逻辑:目前大模型能力仍处于 Emerging AGI 水平,就模型成熟度而言,语言大模型多模态大模型具身智能大模型。根据DeepMind 的定义,AGI 应能够广泛学习、执行复杂多步骤的任务。模型的 AGI 水平可分为 Level-0 至 Level-5 共 6个等级,现阶段大模型在处理任务的广泛性上还有很大提升空间,即使是国际顶尖的大模型也仍处于 Level-1 Emerging AGI 阶段。不同类型大模型成熟度差异较大,目前大语言模型能力相对完善,落地应用场景丰富,底层技术路线较为成熟;多模态大模型已经能够面向 BC 端推出商业化产品,但细节优化空间较大
2、;具身智能类大模型还在探索阶段,技术路线尚不清晰。现阶段讨论 AGI 能力提升仍需聚焦于多模态大模型的训练和应用。目前学界和业界重点关注 Scaling Law 的有效性,以及模型算法的可能改进方向。Scaling Law 仍有深入空间。根据 OpenAI 研究,随模型参数量、数据集规模、训练使用的计算量增加,模型性能能够稳步提高,即 Scaling Law。从训练样本效率、训练时长、各类资源对模型的贡献维度来看,目前 ScalingLaw 仍是提高模型性能的最优方法。OpenAI 测算在模型参数量扩展到 88 万亿及之前,Scaling Law 依旧有效,则中短期仍可延续此路线进行训练。模型
3、骨干网络架构尚未演变至终局,微调及稀疏结构成为提升模型性能的重要方法。目前主流大模型均采用Transformer 作为底层骨干网络,但针对编码器解码器选择、多模态融合、自注意力机制等方面的探索仍在持续推进。微调使用更小的数据量、更短的训练时间,让模型能够适应下游任务,以降低边际落地成本。以 MoE 为代表的稀疏结构通过分割输入任务并匹配专家模型,能够提高模型的整体性能。开源模型性能优化速度快于闭源模型。我们认为,目前第一梯队 AI 大模型纷纷进军万亿参数,且不远的将来大模型将逐步逼近十万亿参数收敛值,对于本轮 AI 浪潮而言,找场景或优于做模型。在场景选择方面,对“幻觉”容忍度高且能够替代人工
4、的场景可实现应用率先落地,如聊天机器人、文本/图像/视频创作等领域;而对“幻觉”容忍度较低的行业需要等待大模型能力提升或使用更多场景数据训练。投资建议 算法、数据、算力是影响模型性能的关键因素,相关企业能够直接受益于大模型训练的持续推进,推荐国内 AI 算法龙头科大讯飞等,建议关注数据工程供应商以及算力产业链相关公司。对于行业类公司而言,寻找通过 AI 赋能带来效率提升的场景更为重要,建议关注 AI+办公领域的金山办公、万兴科技,AI+安防领域的海康威视,AI+金融领域的同花顺等公司。风险提示 底层大模型迭代发展不及预期;国际关系风险;应用落地不及预期;行业竞争加剧风险。行业深度研究 敬请参阅
5、最后一页特别声明 2 内容目录内容目录 1.距离 AGI 还有多远:语言大模型较为成熟,处于 Emerging AGI 水平.4 2.如何实现 AGI:Scaling Law 仍有深入空间,底层算法框架有待升级.7 2.1 Scaling Law:中短期内,持续扩大参数量仍能改善模型表现.9 2.2 算法改进:骨干网络架构仍有创新空间,微调及稀疏结构能够提升性价比.10 3.如何商业落地:借力模型开源及 B 端合作,寻找高人工替代率的场景.17 3.1 开源模型 vs 闭源模型?Scaling Law 不再 work 之后,找场景或优于做模型.17 3.2 如何定义一个好场景?“幻觉”尚未消除
6、的世界,高人工替代率或为重点.18 3.3 如何处理“幻觉”?Scaling Law 信仰派 vs 引入知识图谱改良派.19 4.投资建议.20 5.风险提示.23 图表目录图表目录 图表 1:AGI 可以根据性能和广泛性划分为 6 个等级.4 图表 2:大模型可根据功能进行分类.4 图表 3:海内外语言及多模态大模型进展概览.5 图表 4:海内视觉及其他大模型进展概览.5 图表 5:机器人涉及到的模型种类较多.6 图表 6:将 Transformer 架构应用于机器人决策、控制等成为现阶段重要趋势.6 图表 7:各类大模型能力现状.7 图表 8:以 OpenAI 布局为例,看 AGI 发展路