1、从从TokensTokens角度跟踪角度跟踪AIAI应用落地进展应用落地进展计算机行业大模型及计算机行业大模型及AIAI应用专题应用专题评级:推荐(维持)证券研究报告2025年09月14日计算机刘熹(证券分析师)S请务必阅读报告附注中的风险提示和免责声明2相对沪深300表现表现1M3M12M计算机7.8%20.6%89.7%沪深3009.1%16.2%42.5%最近一年走势相关报告计算机事件点评:甲骨文RPO增至4550亿美元,AI算力强力增长(推荐)*计算机*刘熹2025-09-12液冷:AI算力新一极AI算力“卖水人”专题系列(6)(推荐)*计算机*刘熹2025-08-17计算机专题报告:
2、OpenAI发布GPT-5,AI应用业绩提速模型及AI应用月报(202507)(推荐)*计算机*刘熹2025-08-09-16%4%25%45%66%86%2024/07/042024/10/022024/12/312025/03/312025/06/29计算机沪深300YWQUoPvMpMoRnQxOuNrMsRaQaO9PpNpPoMtOiNrRwPkPrQmRbRnMpMxNqMsRMYpOqO请务必阅读报告附注中的风险提示和免责声明3核心提要核心提要u本报告主要解决:本报告主要解决:1 1)tokenstokens调用量概念界定、调用量概念界定、2 2)tokenstokens调用量应
3、用端拆解、调用量应用端拆解、3 3)tokenstokens调用量展望三方面问题。调用量展望三方面问题。uTokensTokens:模型定价的主要单位,与收入同步高增:模型定价的主要单位,与收入同步高增 Tokens是大语言模型用来切割自然语言文本的基本单位,本质反映大语言模型计算量。在推理过程中,token是计算的基本单位,模型对每个token的处理都需要消耗计算资源,处理的token数量越多,计算量会呈平方级增长。OpenAI、Anthropic、字节跳动等基模厂商的主流商业模式包括C端订阅/付费/间接和B端行业客户/API调用。同时,tokens是模型变现中的最小单位,厂商主要围绕tok
4、ens定价。模型厂商以tokens为主要定价单位的底层逻辑是算力投入,模型调用时的tokens消耗量与相应算力投入存在强关联性。模型厂商营收正与其tokens调用量呈现显著同步的高增趋势,特别是对于OpenAI、Anthropic,因为其商业模式为典型的C端订阅/付费和B端行业客户/API调用,收入与tokens调用量关系紧密。uTokensTokens调用量应用端拆解:调用量应用端拆解:B+CB+C双端双端今年来,受今年来,受CC端端AIAI原生应用原生应用/AI/AI功能等用户基础扩张及功能等用户基础扩张及B B端行业客户加速渗透驱动,端行业客户加速渗透驱动,GoogleGoogle、字节
5、跳动、字节跳动、OpenAIOpenAI等海内外头部模型厂商日均等海内外头部模型厂商日均TokensTokens调用量持续增长。调用量持续增长。拆解来看:拆解来看:C端驱动:包括原C端产品内部的附加AI功能、聊天助手、新兴应用(图像、视频、陪伴、办公、教育赛道);B端驱动:包括行业企业客户、直接API调用。u展望:技术迭代解锁应用需求,算力投入加大模型厂预期乐观展望:技术迭代解锁应用需求,算力投入加大模型厂预期乐观 大模型的技术迭代方向为推理增强大模型的技术迭代方向为推理增强+多模态多模态+Agent+Agent化化+长上下文,长上下文,这样的技术迭代趋势将增强AI在更复杂、更具备“生产力”的
6、关键场景下的实用性、准确性,使得AI应用加速落地,并且带来存量场景和增量场景的tokens增长空间。存量:存量:“推理增强”将模型的一次性回答拆解为多步并进行多次调用;“多模态”需增加对图片、语音、视频等的编码解码;“Agent化”会在模型生成的过程中引入工具链;“长上下文”使得大型文档/项目可被全量处理而无需截断。增量:增量:大量原本因“不准、不全、不落地”而被搁置的需求有望被解锁。当准确率、可控性跨过可行性线后,用户特别是B端企业(有生产力场景需求)或将从观望转为批量采购。使用成本侧,模型厂进行了算力成本优化、多价格策略的尝试以压降大模型使用成本,企业使用成本侧,模型厂进行了算力成本优化、