2025/08/13数字资产系列研究数字资产系列研究0101总览:从历史、人总览:从历史、人文和文和技术角度看所谓数技术角度看所谓数字字/虚拟世界虚拟世界vs.真真实世实世界界陈昊飞、吴琼2真实世界v.
2025-08-20
50页




5星级
2025 年第二季度企业邮箱安全性报告CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告摘要企业邮箱用户共接收正常邮件 9.67 亿封,环比下降 7.7%(季度性波动),但同比 2024 年第二季度上升 21.0%,反映企业通信活跃度提升;2025 年第二季度,企业邮箱用户共收到的垃圾邮件总量 9.72 亿,总量环比接近持平,同比增长 6.81%。其中,境外垃圾邮件占比 61.5%,境内垃圾邮件占比 38.5%。在国内归属地的垃圾邮件攻击来源 TOP10 中,香港、广东等一线城市依然是攻击跳板,境外方面,俄罗斯、美国位列首位,远超其他国家。2025 年第二季度,钓鱼邮件攻击量为 2.15 亿,同比增长 50.35%,环比下降12.24%。境外钓鱼邮件占比上升至 67.33%,表明跨境网络诈骗与渗透活动仍在加剧。国内钓鱼邮件攻击源中,香港远超贵州 7.3 倍,这可能反映出境外攻击通过香港为跳板进入大陆市场的趋势。2025 年第二季度,监测到 1,760 个企业邮箱账号被盗,攻击者利用这些被盗身份发起 18.8 万封域内钓鱼邮件,占钓鱼总量的 0.09%,平均每个被盗账号发送 107 封内部钓鱼邮件。域内钓鱼攻击具有“仿真度高、渗透性强、危害性大”的特点。一旦攻击成功,极易导致敏感信息泄露、重大经济损失及企业声誉受损,后果不堪设想。针对域内攻击的复杂性和高危害性,构建专属防护机制刻不容缓。CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告目录第一章 整体邮件概况.4一、企业邮箱邮件类型分布.4第二章 垃圾邮件及钓鱼邮件概况.5一、垃圾邮件概况分析.5(一)垃圾邮件整体概况.5(二)境内境外垃圾邮件趋势.5(三)TOP100 垃圾邮件行业分布分析.6二、钓鱼邮件概况分析.7(一)钓鱼邮件整体概况.7(二)境内境外钓鱼邮件趋势.8(三)钓鱼邮件 TOP100 行业分布分析.9三、钓鱼邮件攻击案例.9(一)垃圾邮件主题榜 TOP10.9(二)钓鱼邮件主题榜 TOP10.10(三)垃圾钓鱼邮件典型案例样本.10第三章 域内安全威胁态势.14一、域内安全威胁现状.14二、域内防护建议.14CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告第四章 暴力破解宏观态势.15一、全域破解攻击趋势.15(一)暴力破解情况.15(二)高危账号及被攻击账号域名分析.16第五章 邮件安全解决方案及建议.17一、AI 驱动的新型邮件攻防态势与应对策略.17二、强化域内钓鱼攻击防护.18CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告第一章 整体邮件概况一、企业邮箱邮件类型分布2025 年第二季度,企业邮箱用户共收到正常邮件 9.67 亿封,环比 2025 年第一季度下降 7.7%,同比 2024 年第二季度上升 21.0%,尽管季节性波动存在,整体企业邮箱的邮件活跃度仍保持上升趋势,反映企业数字化沟通频次不断增强。图 12025 年第二季度正常邮件数量统计2025 年第二季度,企业邮箱用户接收的非正常邮件 9.83 亿封,占比 49.72%;普通垃圾邮件总计 7.53 亿封,占比 38.71%,仍主导异常邮件流量,但环比略微下降 0.4%,钓鱼邮件总量 2.45 亿封,占比 12%。图 22025 年第二季度企业邮箱邮件类型分布CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告第二章 垃圾邮件及钓鱼邮件概况一、垃圾邮件概况分析(一)垃圾邮件整体概况2025 年第二季度,企业邮箱用户共收到的垃圾邮件总量 9.72 亿,总量与 2025 年第一季度接近持平,较 2024 年第二季度同比增长 6.81%。其中,境外垃圾邮件占比 61.5%,境内垃圾邮件占比 38.5%。图 32025 年第二季度境内外垃圾邮件攻击趋势(二)境内境外垃圾邮件趋势2025 年第二季度,在国内归属地的垃圾邮件攻击来源 TOP10 中,垃圾邮件主要来源集中在北京(3260.1 万封)、广东(2177.7 万封)、香港、浙江与上海等五个地区,显示一线城市依然是攻击跳板。CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告图 42025 年第二季度国内十大垃圾邮件攻击源头省份境外方面,俄罗斯(3341.4 万封)、美国(2983.3 万封)位列首位,远超其他国家,这可能与这两个国家广泛存在的开放 SMTP 服务、劫持主机和绕过黑名单机制相关。图 52025 年第二季度境外垃圾邮件攻击源来源 TOP10(三)TOP100 垃圾邮件行业分布分析如下图所示,教育行业类域名(43401.8 万封)、企业(5390.4 万)和 IT互联网(968.1 万)接收的垃圾邮件最多。CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告图 62025 年第二季度 TOP100 垃圾邮件域名行业分布分析二、钓鱼邮件概况分析(一)钓鱼邮件整体概况2025 年第二季度,钓鱼邮件攻击量为 2.15 亿,同比增长 50.35%,环比下降 12.24%。境外钓鱼邮件占比上升至 67.33%,表明跨境网络诈骗与渗透活动仍在加剧。图 72025 年第二季度境内外钓鱼邮件攻击趋势CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告(二)境内境外钓鱼邮件趋势2025 年第二季度,国内钓鱼邮件攻击源中,香港(1214.9 万封)遥遥领先,超第 2 名贵州(165.3 万)7.3 倍,这可能反映出境外攻击可能基于香港相对宽松的 IP 注册政策及跨境优势,通过香港为跳板进入大陆市场。图 82025 年第二季度国内十大钓鱼邮件攻击源头省份境外来源依旧由俄罗斯(3926.1 万)、日本(503.3 万)和美国(475.0 万)构成主力,进一步说明这些国家和地区具备大规模组织化的邮件投放能力。图 92025 年第二季度境外钓鱼邮件攻击来源 TOP10CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告(三)钓鱼邮件 TOP100 行业分布分析2025 年第二季度,教育行业接收钓鱼邮件 4887.2 万封(占 TOP100 域名99.8%),但仅发送 78.1 万封,凸显其“被渗透”而非“主动传播”角色。图 102025 年第二季度 TOP100 钓鱼邮件域名行业分布分析三、钓鱼邮件攻击案例(一)垃圾邮件主题榜 TOP10TOP10 主题中,“内训计划?”一类仿工作邮件标题的内容高居榜首(2158万封),反映出攻击者正在越来越多地利用“社会工程”方式诱导用户打开邮件。此外,“票”、“水单”、“差旅单”等词汇也频繁出现,表明攻击者通过仿冒常见商务场景提高点击率,值得重视。CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告图 112025 年第二季度热门垃圾邮件主题榜 TOP10(二)钓鱼邮件主题榜 TOP10钓鱼邮件主题均模仿日常通知或财务核实请求,借助高仿标题和冒用内部语气具有极强欺骗性,极易导致账号信息泄露。图 122025 年第二季度热门钓鱼邮件主题榜 TOP10(三)垃圾钓鱼邮件典型案例样本1.虚假发票类CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告图 13 虚假发票类垃圾钓鱼邮件案例样本-1图 14 虚假发票类垃圾钓鱼邮件案例样本-22.虚假快递包裹信息图 15 虚假快递包裹信息类垃圾钓鱼邮件案例样本3.系统迁移、变更类CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告图 16 系统迁移、变更类垃圾钓鱼邮件案例样本4.冒充订单或询盘信息图 17 冒充订单或询盘信息类垃圾钓鱼邮件案例样本-1图 18 冒充订单或询盘信息类垃圾钓鱼邮件案例样本-2图 19 冒充订单或询盘信息类垃圾钓鱼邮件案例样本-3CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告图 20 冒充订单或询盘信息类垃圾钓鱼邮件案例样本-45.在线文档类钓鱼图 21 在线文档类钓鱼邮件案例样本-16.引导添加 QQ 群类钓鱼图 22 引导添加 QQ 群类钓鱼邮件案例样本-1CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告第三章 域内安全威胁态势一、域内安全威胁现状2025 年第二季度,监测到 1,760 个企业邮箱账号被盗,攻击者利用这些被盗身份发起 18.8 万封域内钓鱼邮件,占钓鱼总量的 0.09%,平均每个被盗账号发送 107 封内部钓鱼邮件。域内钓鱼邮件因自带“信任链”,打开率和成功率显著提升,易形成“账号泄露信任劫持更大规模泄露”的恶性循环。图 23 2025 年第二季域内钓鱼邮件数量统计其中,域内钓鱼 TOP10 主题共涉及邮件 12,536 封,可归为三类:系统通知类、福利诱导类、工作流程类,高度渗透企业运营的办公场景。图 242025 年第二季域内钓鱼邮件主题榜 TOP10二、域内防护建议CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告域内钓鱼利用“内部账号被盗”伪装成同事/部门发信,结合 日常办公场景精准击破员工“内部=安全”的惯性认知,具有“高仿度高、渗透深、危害大”特点,其本质是滥用内部信任,防御需从“打破员工惯性认知”和“监测内部异常行为”切入,结合技术拦截与管理训练,构建纵深防护体系,如部署 CACTER 邮件安全网关,具有独家完整域内安全管控方案,针对性拦截域内异常发信行为以及域内钓鱼/垃圾/病毒邮件。第四章 暴力破解宏观态势一、全域破解攻击趋势(一)暴力破解情况2025 年第二季度,暴力破解共计被拦截 38.2 亿次,尽管较 2025 年第一季度(47.7 亿次)有所下降,但仍处于高位,表明企业邮箱账户持续面临爆破威胁。图 252023 年第四季度至 2025 年第二季度全域破解攻击趋势其中,全域被暴力破解成功 551.9 万次,较上一季度略升。结合总攻击量下降趋势,说明攻击者的爆破策略正在趋向精准化与有效性提升,或使用更高效密码库与智能脚本进行攻击。CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告图 262023 年第四季度至 2025 年第二季度全域暴力被破解成功次数(二)高危账号及被攻击账号域名分析2025 年第二季度,域名行业分析数据得出,教育行业依旧呈现双重脆弱性,高危账号占比 63.04%,被攻击域名占比 55.96%,由于其用户账号使用频繁、权限较分散,教育行业成为暴力破解主要目标。而企业账号被攻击域名占比升至 32.52%,呈现风险升级趋势,攻击者可能转向高价值商业目标,需警惕供应链攻击风险。图 272025 年第二季度高危账号 TOP100 域名行业分析CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告图 282025 年第二季度被攻击 TOP100 域名行业分析第五章 邮件安全解决方案及建议基于前三章对 2025 年第二季度邮件威胁态势的分析,本章将结合 CACTER邮件安全产品能力,针对性地提出防护方案建议。一、AI 驱动的新型邮件攻防态势与应对策略当前 AI 钓鱼攻击技术迭代迅猛 通过批量生成高度仿真内容动态进化,借助自然语言生成技术伪造合规语义,再结合多态混淆手段绕过传统检测机制。应对此类新型高级威胁,亟须部署具备更强检测与防御能力的解决方案。例如 CACTER 邮件大模型安全网关,突破传统检测瓶颈,深度融合大模型技术,凭借四大 AI 底层能力构建全维度智能防御体系,大幅提升钓鱼邮件识别、恶意内容分析与威胁拦截的精准度,其新增三大核心模块:高管保护模块针对企业核心人员构建专属防护屏障;AI URL 沙箱与二维码解析引擎联动,精准识别隐藏恶意链接;AI 统计报告模块支持管理员一键生成可视化数据报告并智能推荐防护策略,大幅提升运维效率。CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告二、强化域内钓鱼攻击防护域内钓鱼攻击具有“仿真度高、渗透性强、危害性大”的特点。一旦攻击成功,极易导致敏感信息泄露、重大经济损失及企业声誉受损,后果不堪设想。针对域内攻击的复杂性和高危害性,构建专属防护机制刻不容缓。CACTER 邮件安全网关提供了独家完整域内安全管控方案,为企业打造全链路防护体系研发域内发信行为检测模型,联动反垃圾引擎精准识别恶意邮件,针对性拦截域内异常发信行为及钓鱼、垃圾、病毒邮件。同时支持为域内邮件设置单独的反垃圾策略,以满足企业根据其特定需求。支持为域内邮件配置专属反垃圾策略,满足企业个性化需求;即便出现侥幸绕过的邮件,也能通过高级恶意威胁邮件事后处置机制实现闭环防护,确保全场景覆盖。CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告CACTER 邮件安全2025 年第二季度企业邮箱安全性研究报告
2025-08-19
22页




5星级
边缘指挥控制:网络信息时代指挥控制新范式i前言指挥控制(Command and Control,C2)的成效是战争胜负的决定因素,联合作战、全域作战的重心在于指挥控制,取得体系优势的关键也在于指挥控制.
2025-08-19
72页




5星级
个人信息保护国家标准体系(个人信息保护国家标准体系(20252025 版)版)(征求意见稿)全国网络安全标准化技术委员会秘书处全国网络安全标准化技术委员会秘书处 2025 年年 8 月月 I 前 言.
2025-08-19
22页




5星级
敬请参阅报告结尾处的免责声明 东方财智 兴盛之源 行业研究 东兴证券股份有限公司证券研究报告 卫星互联网卫星互联网行业行业系列系列:商业航天发射场工商业航天发射场工位数快速增长,看好测试发射指挥监控.
2025-08-19
21页




5星级
2 0 2 5 A I 网 络 技 术 白 皮 书前 言人工智能(A I,A r t i f i c i a l I nt e l l i g e nc e)技术,尤其是大模型(L L M,L a r g e L a ng ua g eM o de l)技术的广泛应用,正驱动着 A I 与网络深度融合创新,成为产业变革的关键力量。据 I D C 报告,2024 年下半年,中国智算基础设施服务市场规模达 124.1亿元,2028 年中国智能算力规模预计将达到 2781.9 E F L O P S,市场正从百亿爆发期 快 速 迈 向 千 亿 成 长 期。A I 的 广 泛 应 用 使 得 网 络 基 础 设 施 面 临 着 超 高 带 宽、超低延迟、确定性传输、端网协同及网络智能化等新需求,网络在架构、协议、运维和成本等方面遭遇严峻挑战。面对这些新需求与挑战,本白皮书将 A I 网络划分为“网络赋能 A I(N e t w o r kf o r A I)”和“A I 赋能网络(A I f o r N e t w o r k)”两大方向。在 A I 网络的发展框架中,“网络赋能 A I(N e t w o r k f o r A I)”以满足 A I 技术与应用 的网络新需求为导向,通过纵向扩展(Sc a l e U p)、横向扩展(Sc a l e O ut)以及确定性网络(D e t N e t,D e t e r m i ni s t i c N e t w o r k)等 前 沿 技 术 突 破,为 A I 训 练 集 群 的 高 效 运 转、推 理 服 务的 稳 定 输 出 以 及 分 布 式 A I 应 用 的 广 泛 落 地 提 供 坚 实 保 障,让 网 络 真 正 成 为 A I创新发展的 坚实后盾。“A I 赋能网络(A I f o r N e t w o r k)”则聚焦借助 A I 技术提升网络自身的智能化水平,其核心目标是实现网络的智能自治,通过意图驱动网络(I D N,I nt e nt-D r i v e n N e t w o r k)、数字孪生网络(D T N,D i g i t a l T w i n N e t w o r k)、智能网络大模型等技术的深度应用,简化网络管理操作流程、提升网络运行效率、强化网络防御能力,推动网络从传统运维向自主智能方向加速演进。“N e t w o r k f o r A I”和“A I f o r N e t w o r k”双向赋能和协同创新,不仅是突破网络技 术瓶颈的 关键,也 是推动 A I 规模 化应用的 引擎,驱 动着网络、算力、数据等产业要素融合升级,更将重塑金融、制造、医疗等垂直行业的数字基础设施形态,推动智能社会建设进入快车道。2 0 2 5 A I 网 络 技 术 白 皮 书在此背景下,江苏省未来网络创新研究院联合硬件厂商、软件厂商、服务商和行 业应用企 业等产业 链伙伴共 同编写 了本白皮 书,旨在 通过系统 梳理 A I 网络技术 的演进、现状与展 望,凝聚 产业 共识,助力 网络与 A I 技术 深度 融合、产业生态健康发展,为智能时代的网络基础设施建设提供系统性指导与前瞻性思考。2 0 2 5 A I 网 络 技 术 白 皮 书编 写 委 员 会专家指导单位:北京邮电大学、紫金山实验室主编单位:江苏省未来网络创新研究院参编单位:中国铁塔股份有限公司、天翼云科技有限公司、奇异摩尔(上海)半导体技术有限公司、无锡沐创集成电路设计有限公司、益思芯科技(上海)有限公司、深圳第一线通信有限公司、江苏致网科技有限公司、苏州衡天信息科技有限公司媒体发布:究模智、SD N L A B2 0 2 5 A I 网 络 技 术 白 皮 书目 录第 1 章 A I 与网络的融合演进.1第一部分 N e t w or k f or A I:面向 A I 的新型网络基 础设施第 2 章 A I 驱动下的网络架构变革与性能演进.42.1 A I 驱 动 下 的 新 型 场 景.42.2 A I 网 络 需 求.52.3 A I 集 群 网 络 拓 扑.72.3.1 F a t-T r e e 拓 扑 结 构.72.3.2 D r a g o n f l y 拓 扑 结 构.9第 3 章 面向 A I 的高性能网络关键技术.123.1 技 术 演 进 趋 势 与 分 类 体 系.1 23.1.1 技 术 演 进 趋 势.1 23.1.2 分 类 体 系 概 览.1 33.2 S c a l e U p(纵 向 扩 展)技 术.1 43.2.1 高 速 互 连 技 术.1 43.2.2 新 型 互 连 技 术.1 93.3 S c a l e O u t(横 向 扩 展)技 术.2 53.3.1 I n f i n i B a n d 技 术.2 53.3.2 R o C E v 2 技 术.2 93.3.3 U E C 传 输 协 议.3 33.4 前 沿 突 破 技 术.3 63.4.1 确 定 性 广 域 网 技 术.3 73.4.2 超 节 点 计 算 架 构.4 33.4.3 6 G 与 A I 网 络 协 同.4 7第 4 章 N e t w or k f or A I 典型应用实践.494.1 移 动 云 新 型 智 算 网 络 架 构.4 94.2 天 翼 云 智 算 项 目.5 12 0 2 5 A I 网 络 技 术 白 皮 书4.3 阿 里 云 H P N 7.0 新 型 智 算 网 络.5 34.4 奇 异 摩 尔 A I N e t w o r k i n g 全 栈 解 决 方 案.5 54.5 第 一 线 助 力 教 育 企 业 私 域 A I 落 地 方 案.5 64.6 微 众 银 行 金 融 级 智 算 A I 网 络 建 设 与 实 践 方 案.5 84.7 益 思 芯 创 新 智 能 网 卡 解 决 方 案.5 9第 5 章 N e t w or k f or A I 未来发展及展望.605.1 未 来 发 展 趋 势.6 05.2 未 来 展 望 及 建 议.6 1第二部分 A I f o r N e t w o r k:A I 赋能的网络智 能化升级第 6 章 A I 驱动的网络智能化发展.636.1 网 络 管 理 的 挑 战.6 36.2 网 络 智 能 化 演 进 体 系.6 46.3 网 络 智 能 化 升 级 流 程.6 66.3.1 全 域 感 知.6 76.3.2 智 能 分 析.6 86.3.3 自 主 决 策.6 96.3.4 执 行 与 保 障.7 0第 7 章 A I 赋能网络的关键技术.727.1 意 图 驱 动 网 络.7 27.1.1 意 图 驱 动 网 络 的 定 义 和 架 构.7 27.1.2 意 图 驱 动 网 络 的 关 键 技 术.7 47.2 数 字 孪 生 网 络.7 87.2.1 数 字 孪 生 网 络 的 定 义 和 架 构.7 87.2.2 数 字 孪 生 网 络 的 关 键 技 术.8 27.2.3 基 于 D T N 实 现 意 图 驱 动 的 网 络.8 47.3 智 能 网 络 大 模 型.8 67.3.1 智 能 网 络 大 模 型 的 核 心 应 用.8 67.3.2 多 智 能 体(M u l t i-A g e n t)群 智 协 同.8 82 0 2 5 A I 网 络 技 术 白 皮 书7.3.3 A g e n t i c S O A R 智 能 化 网 络 安 全 编 排 架 构.9 07.4 联 邦 学 习.9 27.4.1 联 邦 学 习 的 定 义.9 27.4.2 联 邦 学 习 的 分 类 与 关 键 技 术.9 4第 8 章 A I f or N e t w or k 典型应用实践.968.1 中 国 联 通 A I 智 能 体 助 力 地 铁 无 线 网 优 创 新.9 68.2 中 国 移 动 九 天 大 模 型 助 力 无 线 网 络 优 化 智 能 升 级.9 78.3 中 国 铁 塔 网 络 智 能 化 运 维 与 优 化 平 台.9 88.4 华 为 星 河 A I 网 络 解 决 方 案.9 98.5 中 兴 通 讯 A I R N e t 自 智 网 络 高 阶 演 进 解 决 方 案.1 0 18.6 京 东 云 J o y O p s 智 能 运 维.1 0 2第 9 章 A I f or N e t w or k 的挑战与未来趋势.1049.1 未 来 发 展 趋 势.1 0 49.2 战 略 建 议 与 展 望.1 0 5第三部分 未来展望第 10 章 A I 网络发展十大趋势.108参考文献.111缩略语.1142 0 2 5 A I 网 络 技 术 白 皮 书1第 1 章 A I 与 网 络 的 融 合 演 进A I 与 网 络 的 融 合 经 历 了 初 步 探 索、快 速 发 展、深 度 融 合 的 演 进 过 程,每 个阶段都有其独特的技术特征和产业标志,构成了 A I 网络技术演进的完整脉络。第一阶段:初 步探索期A I 与 网 络 的 融 合 始 于 深 度 学 习(D L,D e e p L e a r ni ng)的 突 破 性 进 展。2012年,深 度 学 习 先 驱、A l e x N e t 之 父 A l e x K r i z he v s ky 及 其 团 队 使 用 2 块 G T X 580,耗时 5-6 天训练的 A l e x N e t 模型在 I m a g e N e t 竞赛中夺得冠军,这一事件标志着深度学习在图像分类领域的重大突破,开启了深度学习快速发展的新篇章,也首次显性暴露出单机算力瓶颈,激发了对分布式训练网络(D T N,D i s t r i but e d T r a i ni ngN e t w o r k)的 迫 切 需 求。2012 年 左 右,谷 歌 B 4 网 络 投 入 使 用,推 动 了 网 络 可 编程化的实践。2016 年,A T&T 发布 D o m a i n 2.0 计划,进一步加速了软件定义网络的规模化落地,为后续 A I 驱动的智能网络埋下伏笔。该阶段以 A I 算法创新为核心,网络主要承担着基础数据传输功能。主要技术特征表现为:A I 侧:聚 焦 C V/N L P(C o m put e r V i s i o n/N a t ur a l L a ng ua g e P r o c e s s i n g)领域 的 模 型 革新(如 A l e x N e t、R e s N e t),模 型 规模 较 小,训 练 依 赖单 机 或 小 规 模G P U(G r a phi c s P r o c e s s i ng U ni t)集群;网络侧:仍以传统 T C P/I P(T r a ns m i s s i o n C o nt r o l P r o t o c o l/I nt e r ne t P r o t o c o l)协议为主,数据中心采用胖树架构(F a t-T r e e),带宽普遍10G bps,远程直接内存访问(R D M A,R e m o t e D i r e c t M e m o r y A c c e s s)技术初步尝试但尚未普及。关键 挑战:网 络性能 严重制约 A I 发展,分布式 训练中 参数同步 耗时占 比极高,时 延 问 题 和 带 宽 不 足 导 致 训 练 效 率 低 下;A I 技 术 尚 未 应 用 于 网 络 优 化,运维完全依赖人工。2 0 2 5 A I 网 络 技 术 白 皮 书2第二阶段:快 速发展期大模型时代的到来驱动 A I 与网络进入协同升级的快车道。2017 年由 G o o g l e团队提出的 T r a ns f o r m e r 是指一种基于“自注意力机制”(Se l f-A t t e nt i o n)的神经网 络 架 构,如 今 在 A I 领 域 得 到 广 泛 应 用,随 后 G P T、B E R T 等 模 型 参 数 量 突 破亿 级,千 卡 协 作 训 练 需 求 倒 逼 网 络 低 时 延 与 高 吞 吐 能 力 跃 升。2020 年,英 伟 达收 购 M e l l a no x,整合 G P U 算 力与 I nf i ni B a nd 网 络技 术,端到 端 A I 架 构奠 定了 超算网 络的新标 准,也迈 入了 A I 与网 络快速融 合发展的 新阶段。该阶段 的技术特征呈现协同发展趋势,主要表现为:网 络 赋 能 A I 发 展:数 据 中 心 向 高 扩 展 性 多 级 交 换 网 络 架 构 演 进,100G/200G 带宽普及,R D M A 规模化部署将时延压缩至微秒级;确定性网络和无损算法保障 A I 集群通信质量。A I 赋能网络智能化:A I 技术开始应用于智能流量调度、网络故障预测与定位、资源分配等场景,初步实现部分运维自动化,提升网络管理效率和韧性。关键 挑战:超大 规模场景 成为关 键制约因 素。网 络性能难 以适配 A I 规模 扩张 需 求,万 卡 集 群 中 通 信 效 率 大 幅 下 降,影 响 训 练 进 程 推 进;A I 对 网 络 的 智 能化赋能范围有限,面对复杂动态的网络环境,仍难实现全面高效的自动化管理与优化。第三阶段:深 度融合期A I 与网 络技术已 迈入双 向赋能 的闭环发 展阶段,“A I 网络”正逐 步确立为核 心 技 术 范 式。2022 年,C ha t G P T 的 全 球 爆 发 成 为 重 要 转 折 点,千 亿 参 数 规 模的大模型对超低时延响应速度的刚性需求,直接驱动了低时延推理网络的加速建设。在此背景下,国内外云服务企业及大型科技公司纷纷加大投入,布局专用智算中 心。国家 层面亦高 度重视,通过系 统性规划 推进 A I 智算 中心建设,以此支2 0 2 5 A I 网 络 技 术 白 皮 书3撑大模型训练与推理过程中产生的海量算力需求,为人工智能技术的持续突破筑牢基础设施根基。这一阶段的 A I 网络呈现如下特征:服务于 A I 的网络技术:新型网络架构和互连技术不断涌现,以满足极致性能需求。例如,英伟达的 I nf i ni B a nd 网络凭借超低时延和高吞吐性能,成为大规模 A I 训练集群的首选;以超以太网联盟(U E C,U l t r a E t he r ne t C o ns o r t i um)为代表的开放组织也在积极推动以太网技术革新,致力于在以太网基础上实现媲美I B 的无损、低时延特性,为行业提供更灵活的技术路径选择。网络 智能化技 术:意图 驱动网 络 逐步走向 成熟,数 字孪生网 络可实 现网络状态的精准感知与全生命周期管理,智能运维应用开始渗透网络全场景,实现网络配置、优化、故障处理的闭环自治。关键 挑战:800G/1.6T 的网 络互连 在物理性 能和成 本上难 以满足 万亿参 数模型的训练需求;数字孪生网络因数据不互通,影响了对网络状态的准确判断;网络自 主管理能 力跟不上 A I 流量 的突然增 长;智能 运维的决 策过程 不透明,导致出现重大故障时还得依靠人工解决。A I 与 网 络 的 协 同 发 展 呈 现 出“需 求 牵 引、技 术 反 哺、生 态 融 合”的 螺 旋 上升态 势。首先,需求牵 引成为技 术突破 的原始动 力。随着 A I 模型 参数从百 万级飙升至万亿规模,对网络性能提出了极致要求,推动网络带宽在十年间实现近百倍增长,时延从毫秒级压缩至微秒级,甚至在工业控制等确定性场景下达成亚微秒抖动,直接驱动网络性能实现跨越式升级。其次,技术反哺形成产业发展的正向循环。在需求驱动下诞生的意图驱动网络、智能运维等网络智能化技术,反过来为网络提供强大支撑。不仅显著提升了网络资源利用率与智能化水平,更实现了运维成本的大幅降低,形成技术与产业相互促进的良性循环。最后,生态融合构 筑 智 能 时 代 的 底 层 基 石。跨 域 生 态 的 深 度 融 合 与 标 准 体 系 的 持 续 完 善,正 为A I 网络产业搭建起坚实的技术基础,为整个生态的可持续发展提供体系保障。2 0 2 5 A I 网 络 技 术 白 皮 书4第 一 部 分 N e t w o r k f o r A I:面 向 A I 的 新 型 网络 基 础 设 施第 2 章 A I 驱 动 下 的 网 络 架 构 变 革 与 性 能 演 进本章 深入探讨 A I 工作 负载对网 络基础 设施提出 的新型 需求,分 析超大规 模训练、高性能推理以及边缘场景下的网络架构演进方向,为后续技术探讨奠定基础。2.1 A I 驱动下的新 型场景随着 A I 技术 向万亿参 数时代 迈进,其 应用场 景正从集 中式训练 向分布 式推理与边缘协同加速演进。这一进程不仅依赖算法与硬件的突破,更需网络架构的深度适配。(一)训练场 景A I 模 型 训 练 通 常 涉 及 对 海 量 数 据 集 进 行 迭 代 式 学 习,以 优 化 模 型 参 数。大型语言模型等超大规模 A I 训练需要数千甚至数万个 G P U 协同工作,训练网络中存 在巨 大的“东 西向”流 量,即 G P U 之 间频 繁的 数 据交 换 和模 型参 数 同步。任何微小的网络瓶颈或数据包丢失都可能导致训练时间显著延长,甚至影响模型精度,为了确保训练效率和模型收敛速度,网络必须提供极致的性能。(二)推理场 景A I 推 理 是 将 训 练 完 成 的 模 型 应 用 于 实 际 场 景,以 生 成 预 测 或 执 行 决 策 的 过程。与训练不同,推理更侧重于快速响应和高效处理“南北向”流量,即用户请求与 A I 服务 之间的交 互。推理 场景对网 络的需 求因应用 类型而异,但普遍 要求2 0 2 5 A I 网 络 技 术 白 皮 书5低延迟以提供流畅的用户体验。推理工作负载可能部署在数据中心、云端或靠近用户的边缘设备上,需要网络能够灵活、高效地连接各种终端用户和 A I 服务。(三)边缘场 景边缘 A I 是将 A I 能力下沉到数据源头附近,例如智能摄像头、工业传感器等设备上。这种部署模式旨在减少数据传输到中心云的延迟和带宽消耗,同时提高数据隐私和安全性。边缘 A I 的兴起使得网络不再仅仅是数据传输的通道,更是A I 计算的延伸。边缘网络面临的挑战包括资源受限、连接多样化(如 W i-F i、5G/6G、L o R a W A N 等)以及复杂的部署环境。2.2 A I 网络需求在 A I 持续 向更智能、更泛 在的方向 发展的 过程中,网络已然 成为串 联各种应用场景的核心纽带。只有不断突破网络架构的技术壁垒,实现网络与 A I 算法、算力 基础设施 等的深度 融合,才 能充分 释放 A I 在各 领域的潜 力。以下 是超大规模 A I 网络的核心需求:(一)高带宽 与低延迟A I 网 络 中,计 算 节 点 需 频 繁 交 换 数 据,对 网 络 带 宽 需 求 呈 指 数 级 增 长。同时,通信延迟也会直接影响计算资源利用率:超高带宽:A I 模型训练涉及海量数据的处理和传输,如百万亿参数级别的深度学习模型,其训练过程中产生的数据量极为庞大。超高带宽的网络能够确保这些数据在计算节点之间高效、快速地传输,避免因带宽不足导致的传输瓶颈,从而提升整体训练效率。超低延迟:A I 应用,特别是实时推理任务,对网络的响应速度有极高要求。超低延迟的网络能够确保推理指令在极短时间内得到执行,提升用户体验和2 0 2 5 A I 网 络 技 术 白 皮 书6系统 实时性。此外,在 A I 训练 过程中,超低延迟 也有助于 减少通 信开销,提高计算资源的利用率。(二)高可靠 性与稳定性A I 网 络 的 高 可 靠 性 与 稳 定 性 是 确 保 业 务 连 续 性 和 计 算 效 率 的 关 键 因 素,网络故障或性能波动可能对训练任务、实时推理等造成严重影响,因此需要:无损传输:在 A I 训练过程中,数据包的丢失会导致模型训练中断或重新计 算,严 重 影 响 训 练 效 率 和 结 果 准 确 性。A I 网 络 需 要 实 现 无 损 传 输,通 过 智 能拥塞控制和流量调度机制,减少丢包和重传,保障数据完整性和一致性。可靠性与稳定性:A I 网络应具备动态负载均衡能力,根据实时流量和网络状态,智能分配带宽资源,避免网络拥塞和性能下降。对于对网络实时性要求极高的 A I 应用而言,A I 网络需要提供亚毫秒级的故障检测和恢复能力,确保业务连续性。(三)网络拓 扑与通信模式A I 模 型 和 数 据 规 模 持 续 爆 炸 性 增 长,驱 动 计 算 集 群 从 数 千 卡 向 数 万、数 十万卡扩展,网络拓扑必须具备灵活的扩展能力,并且与训练框架、并行策略深度协同,优化通信效率:灵活可扩展的拓扑:网络需要支持灵活、高效的拓扑结构(如 F a t-T r e e、D r a g o nf l y 等),并能根据不同的通信模式动态优化路径,最大化通信效率,减少拥塞。适 配 A I 通 信 模 式:针 对 A I 训 练 中 常 见 的 A l l R e duc e、A l l G a t he r、R e duc e Sc a t t e r 等集合通信模式,在硬件与协议层面进行专项优化。(四)数据安全与 Q o S2 0 2 5 A I 网 络 技 术 白 皮 书7超大 规模 A I 集群 通常同时 运行预 训练、微 调、推 理等多个 任务,需 通过资源隔离与服务质量(Q o S,Q ua l i t y o f Se r v i c e)机制避免相互干扰:资源 隔离:在 大模 型训推过 程中,数据 可能 会包含商 业机密、用 户隐私等敏感信息。网络必须提供强大的安全保障,包括数据传输加密、严格的访问控制、网络切片/虚拟化隔离(确保不同租户或任务互不干扰)等。流量 优先级:精准 识别并优 先处理同 步报文、控制信 令 等 关键 流量,应用 优 先 级 队 列、带 宽 预 留 等 Q o S 策 略 和 动 态 流 量 工 程,防 止 拥 塞,保 障 可 预 测的延迟和低抖动。同时需兼顾东西向与南北向流量的高效协同。总体而言,A I 网络的需求是高带宽、低延迟、高可靠、可扩展的综合体现,需从拓扑设计、协议优化、硬件加速、容错机制等多维度协同,最终目标是让网络实现高效互联,确保计算资源的利用率最大化,同时支撑模型规模和集群规模的持续突破。2.3 A I 集群网络拓扑A I 集 群 网 络 是 支 撑 大 规 模 人 工 智 能 训 练 和 推 理 任 务 的 核 心 基 础 设 施,其 拓扑设计直接关系到 G P U 等计算单元之间的通信效率,进而影响整体性能。2.3.1 F a t-T r e e 拓 扑 结 构F a t-T r e e 网络架构由于其高效的路由设计、良好的可扩展性及方便管理等优势,成 为大 模 型训 练 常用 网络 架 构。对 于中 小型 规 模的 G P U 集 群网 络,通 常采用 Spi ne-L e a f 两 层 架 构。对 于 较 大 规 模 的 G P U 集 群 则 使 用 三 层 胖 树(C o r e-Spi ne-L e a f)进行扩展组网,不过由于网络的层次增加,其转发跳数与时延也会相应增加。2 0 2 5 A I 网 络 技 术 白 皮 书8图 1 二 层 F a t-T r e e 架 构图 2 三 层 F a t-T r e e 架 构G P U 服务器 的接入方 式分为单 轨与多轨两 种。单轨 接入方式 是一台 G P U 服务 器 上 的 网 卡 全 部 汇 聚 于 同 一 台 L e a f 交 换 机,集 群 通 信 效 率 偏 低。多 轨 接 入 方式是将 G P U 服务器上的 N 张网卡各自接入 N 台 L e a f 交换机,集群通信效率较高。不过,若 L e a f 交换机出现故障,多轨方式下受影响的 G P U 服务器数量会比单轨方式更多。2 0 2 5 A I 网 络 技 术 白 皮 书9F a t-T r e e 架构的关键点在于交换机的上下行带宽的设计,保持 1:1 的无收敛配置,确保了网络中的任何流量路径都不会成为瓶颈,从而实现全带宽无阻塞通信。F a t-T r e e 的优势:无 阻 塞 通 信:F a t-T r e e 通 过 在 网 络 高层 提 供 足 够 的 带 宽,消 除了 传 统 树形拓扑中的带宽收敛问题,使得任意两个节点之间都可以实现线速通信,避免了网络拥塞。高 可 扩 展 性:F a t-T r e e 可 以 通 过 增 加交 换 机 和 链 路 的 数 量 来 轻松 扩 展 网络规模,支持数千甚至上万个计算节点的互联,满足大规模 A I 集群的扩展需求。多路 径冗余:任意两点 之间存 在多条等 价路径,当某条 链路或设 备发生故障时,流量可以快速切换到其他可用路径,提高了网络的可靠性和容错性。高 吞 吐 量 和 低延 迟:由 于 无 阻 塞 特 性 和多 路 径 选 择,F a t-T r e e 能 够 提 供极高 的数据吞 吐量和极 低的通信 延迟,这对于 A I 训练 中频繁的 大规模数 据交换至关重要。F a t-T r e e 架 构 作 为 当前 A I 集 群 网 络 领域 应 用 最 为 普 遍 的 主流 拓 扑 结 构,凭借其卓越的可扩展性与高效性,已成为众多大型项目优化部署与网络设计的基础架构。例如,字节 M e g a Sc a l e 集群采用三层类 C L O S 拓扑,成功连接万卡级 G P U;阿里 H P N 7.0 通过两 层双平面架 构,实现万 卡级无拥 塞互连。然 而,F a t-T r e e 架构也存在一定缺点,它需要大量的交换机和链路,成本较高,特别是对于超大规模集群。2.3.2 D r a g o n f l y 拓 扑 结 构2 0 2 5 A I 网 络 技 术 白 皮 书1 0D r a g o nf l y 拓扑是一种为高性能计算优化的网络架构,通过减少网络直径来降低 通 信 延 迟。与 F a t-T r e e 的 对 称 设 计 不 同,D r a g o nf l y 采 用 分 组 全 连 接 理 念,更适应跨机柜、跨数据中心的 A I 训练场景。D r a g o nf l y 拓扑 由多个 组(G r o up)组 成,组 间和组内 均建立 全连接 关系。每组间使用 1 条或多条链路连接,组内的每个网络节点都与组内其他网络节点直接互连,且可以同时连接到其他组和计算节点。图 3 D r a g o n f l y 架 构D r a g o nf l y 拓 扑 中 每 个 网 络 节 点 与 同 组 内 其 他 网 络 节 点 之 间 的 带 宽 总 和 用 a表示,每个网络节点与计算节点之间的带宽总和用 p 表示,每个网络节点与其他组之间的带宽总和用 h 表示。为了更好地实现负载均衡,建议满足 a=2p=2h。若使用其他值,则需满足 a 2h 且 2p2h。D r a g o nf l y 的优势:高可扩展性:D r a g o nf l y 通过分层和全局 互连的设计,能够以较低的成 本扩 展 到 非 常 大 的 规 模,支 持 构 建 拥 有 数 万 甚 至 数 十 万 个 计 算 节 点 的 超 大 规 模 A I集群。2 0 2 5 A I 网 络 技 术 白 皮 书1 1 低 成 本 优 势:相 较 于 F a t-T r e e 等 需 要 大 量 高 端 口 密 度 交 换 机 的 拓 扑,D r a g o nf l y 通过减少全局链路的数量,显著降低了布线复杂度和网络设备的成本。网络直径小:尽管是分层结构,但 D r a g o nf l y 的平均跳数相对较低,有助于保持较低的通信延迟。谷歌 数据 中心分 布式 交换 架构 A qui l a 采用 了 D r a g o nf l y 拓扑,其 中核心 创新在于:(1)全局链路优化:每个 Sw i t c h 通过少量高速链路(通常为光连接)与其他组的 Sw i t c h 直连;(2)最小化直径:确保任意两节点间最多 3 跳,组内 1跳 全局 1 跳 目标组内 1 跳;(3)虚拟通道:支持 8 个虚拟通道单独流控,避免队头阻塞。然而,D r a g o nf l y 在 A I 计算网络中的应 用相对有限,主要因为其软 件成熟度不足且运维复杂度高,在流量突发情况下可能面临拥塞挑战。2 0 2 5 A I 网 络 技 术 白 皮 书1 2第 3 章 面 向 A I 的 高 性 能 网 络 关 键 技 术本章 系统阐述 支撑 A I 创新 与规模化 应用的 高性能网 络关键 技术,全面 剖析各项技术的原理、最新进展及创新实践,为构建新一代智算融合网络提供技术指南。3.1 技术演进 趋势与分类体系3.1.1 技 术 演 进 趋 势A I 高性能网络的演进趋势主要体现在以下几个方面:(1)从通用网络向 A I 网络演进:传统网络主要面向通用计算和存储流量设计,其架构和协议难以完全满足 A I 训练和推理的极端性能需求。A I 工作负载的特 点 如 大 规 模 集 合 通 信、高 突 发 性 流 量 和 对 时 延 抖 动 的 敏 感 性,促 使 网 络 向 A I专用 化方向发 展,包括 采用更适 合 A I 流量 特性的网 络拓扑、优化传输 协议、以及 引 入 更 精 细 的 拥 塞 控 制 机 制。A I 网 络 将 成 为 智 算 中 心 的 核 心 基 础 设 施,提 供端到端的性能保障。(2)从硬件定义网络向软件定义网络与可编程网络演进:随着 A I 应用场景的日益复杂和动态变化,传统网络难以快速响应业务需求。SD N 和可编程网络技术为 A I 高性 能网络提 供了更大 的灵活性 和可控 性。通过 集中式控 制器对网 络资源进行统一管理和调度,可以实现网络路径的动态优化、流量的智能调度、以及网络资源的弹性伸缩。(3)从尽力而为向无损确定性保障演进:A I 训推对网络的服务质量有严格要 求,任 何 性 能 波 动 都 可 能 导 致 任 务 失 败 或 效 率 低 下。A I 高 性 能 网 络 正 在 从 传统的尽力而为向无损确定性演进。这包括对 A I 流量进行优先级划分、带宽预留、以及精细化的拥塞管理。例如,通过优先级流控制(P F C,P r i o r i t y F l o w C o nt r o l)2 0 2 5 A I 网 络 技 术 白 皮 书1 3和显式拥塞通知(E C N,E x pl i c i t C o ng e s t i o n N o t i f i c a t i o n)等机制,确保 A I 训练流量在网络拥塞时仍能获得优先传输,降低丢包率和时延抖动,实现无损的数据传输,为 A I 任务提供稳定可靠的网络环境。(4)从单一互联技术向多技术融合演进:为了满足 A I 工作负载对带宽和时延 的 极 致 要 求,A I 高 性 能 网 络 不 再 局 限 于 单 一 的 互 联 技 术,而 是 趋 向 于 多 种 技术的融合,Sc a l e U p(如 N V L i nk、U A L i nk)、Sc a l e O ut(如 I nf i ni B a nd、R o C E v 2)技术正在从独立走向协同应用。不同技术在成本、性能和生态方面各有优势,通过融合应用可以构建出更具性价比和灵活性的 A I 网络解决方案。3.1.2 分 类 体 系 概 览A I 高 性 能 网 络 的 技 术 可 以 从 不 同 维 度 进 行 分 类,以 便 更 好 地 理 解 其 构 成 和功能。本章将主要从以下几个核心维度进行分类和阐述:Sc a l e U p 技术:这类技术主要关注单个计算节点内部或紧密耦合节点间的性能 提 升,通 过优 化 节 点 内/邻 近 节 点 间 的数 据 传 输 效 率,实 现 计 算密 度 的 指 数 级增长。其核心目标在于突破单机算力瓶颈,为集群提供超高速、低延迟的内部通信能力。典型的技术包括 N V L i nk、U A L i nk 协议等。Sc a l e O ut 技术:这类技术主要关注大规模计算节点的网络互连,通过优化集群拓扑、路由算法和传输协议,构建支持数万节点协同训练的分布式计算平台。其核 心挑 战在于 平衡 带宽、延迟、可靠 性与 成本,典型 的技术 包括 I nf i ni B a nd、R o C E v 2 等。前沿 突破技术:这类 技术代表 了 A I 高性 能网络领 域的最 新探索方 向和突 破性 进 展,不 局 限 于 Sc a l e U p 或 Sc a l e O ut 的 框 架,而 是 着 眼 于 未 来 网 络 架 构 的 革新、跨领域技 术的融合 以及全新 通信范 式的构建,为 A I 的未 来发展提 供强大的网络基础设施支撑。2 0 2 5 A I 网 络 技 术 白 皮 书1 43.2 S c al e U p(纵向扩展)技术3.2.1 高 速 互 连 技 术3.2.1.1 N V L i n kN V L i nk 是英伟达开发的专有高速互连技术,旨在解决传统 P C I e(P e r i phe r a lC o m po ne nt I nt e r c o nne c t E x pr e s s)总 线 在 多 G P U 系 统 中 的 带 宽 瓶 颈 和 延 迟 问 题,从而实现 G P U 之间以及 G P U 与 C P U 之间的高效数据传输和协同工作。(一)N V L i n k 的起源与演进N V L i nk 最初于 2016 年与英伟达 P a s c a l 架构的 P 100 G P U 一同发布,旨在为G P U 提供比 P C I e 更高的带宽和更低的延迟。此后,伴随着英伟达 G P U 架构的每一次迭代,N V L i nk 也在不断演进,每一代都带来了带宽和性能的显著提升。表 1 N V L i nk 的演进(二)N V L i n k 的技术特点N V L i nk 采用多条高速差分信号通道组成链路的方式进行点对点通信。每 个N V L i nk 链路都提供双向数据传输能力,并具备极高的带宽。具体来看,从 P 10 02 0 2 5 A I 网 络 技 术 白 皮 书1 5的 160G B/s 迭 代 至 B 200 的 1.8T B/s,单 卡 带 宽 年 复 合 增 长 率 超 60%。N V L i nk 支持 G P U 之间直接进行内存访问,即一个 G P U 可以直接读写另一个 G P U 的显存,无 需 经过 C P U 作 为 中介,极 大 提高 了 数 据 传输 效 率,降 低 了通 信 延 迟。此 外,N V L i nk 支持多通道通信,允许同时进行多个数据传输会话。N V L i nk 不仅可以连接单个服务器内的多个 G P U,还可以通过 N V L i nk 交换机(如 N V Sw i t c h)连接更多 G P U,构 建 更 大 规 模 的 G P U 集 群,实 现 跨 服 务 器 的 G P U 互 联,为 超 大 规 模A I 训练提供强大的扩展能力。(三)N V S w i t c h 全互联架构N V Sw i t c h 是在 N V L i nk 基础上发展起来的,它作为一个高速交换机,连接多个 N V L i nk,可 在 单 一 机 架 与 多 机 架 间 以 N V L i nk 全 速 提 供 G P U 完 全 通 信。N V Sw i t c h 支 持 完 全 无 阻 塞 的 全 互 联 G P U 系 统,通 过 提 供 更 多 的 N V L i nk 接 口,实现更大规模的 G P U 互联,从而构建更加强大的计算集群。例如,英伟达 N V L i nk5Sw i t c h 具有 144 个 N V L i nk 端口,无阻塞交换容量为 14.4T B/s,能够支持多达 576个 完 全 互 联 的 G P U。N V Sw i t c h 的 出 现,使 得 A I 和 H P C 工 作 负 载 能 够 更 高 效 地利用多 G P U 的并行计算能力。图 4 N V Sw i t c h A l l-t o-A l l 交换机架构2 0 2 5 A I 网 络 技 术 白 皮 书1 6N V Sw i t c h 的核心优势在于其能 够构建全互联的 G P U 通信拓扑,所有连接 到它的 G P U 都可以直接与其他任何 G P U 进行通信,无需经过中间节点或 C P U。这对 于集 合通 信 至关 重 要,它确 保 了所 有 G P U 之 间的 数据 交 换都 能 以最 高效 率 进行,避免了传统树形拓扑可能导致的收敛瓶颈。N V Sw i t c h 内部 集成了 大量 的 N V L i nk 端口,每个 端口 都提供 N V L i nk 级别 的高带宽和低延迟。例如,第三代 N V Sw i t c h 系统架构中(如 D G X G B 200),G P U之 间 点 对 点 的 通 信 带 宽 可 高 达 900G B/s,这 使 得 N V Sw i t c h 能 够 有 效 支 撑 大 规 模A I 模型训练中海量的梯度同步和数据传输。除了 N V L i nk 端口,最新的 N V Sw i t c h还集成了对 400G bps 以太网和 I nf i ni B a nd 连接的物理层支持。这意味着 N V Sw i t c h不 仅可 以作 为 G P U 内 部互 联的 桥 梁,还 可以 作为 连 接外 部 网络 的接 口,从 而 实现 G P U 集群与数据中心网络的无缝融合,为构建更灵活、更强大的 A I 基础设施提供了可能。(四)N V L i n k F u s i o n 开放互连技术2025 年 5 月,英伟达推出了 N V L i nk F us i o n 开放互连技术方案,允许第三方厂商(如高通、富士通等)的定制 C P U 或 A I 加速器通过 N V L i nk 协议与英伟达G P U/C P U(如 G r a c e、B l a c kw e l l 系列)实现高速互联,支持单端口最高 900G B/s的带宽,并集成 N V Sw i t c h、Spe c t r um-X 交换机等组件构建机架级 A I 工厂。该技术通过开放生态策略,既保留了 N V L i nk 的低延迟优势(跨节点延迟 2 微秒),又支持异构计算(如 A SI C 与 G P U 协同)。3.2.1.2 U A L i n kU A L i nk(U l t r a A c c e l e r a t o r L i nk)是 A M D、亚马逊 A W S、谷歌、英特尔、M e t a、微软等公司共同发起的一项开放式互连标准,旨在为 A I 加速器集群提供高性能、高可靠、低成本的互连解决方案。2 0 2 5 A I 网 络 技 术 白 皮 书1 7(一)U A L i n k 的背景与目标随着 A I 大模 型参数量 的爆炸 式增长,对计算 集群的规 模和互连 性能提 出了前所未有的要求。英伟达的 N V L i nk 技术虽然性能卓越,但其专有性质 使得其他厂 商难 以参 与和 创 新,导致 重复 造轮 子、生 态碎 片化 等 问 题 的 出现。U A L i nk 联盟的成立,正是为了解决这些痛点。U A L i nk 的目标是提供一个高性能、可扩展的互连标准,能够支持大规模 A I加速 器集群的 构建,并 满足不同 A I 工作 负载的通 信需求。它旨在实 现以下 关键特性:(1)开放性:U A L i nk 是一个开放标准,任何厂商都可以参与其开发和采用,从 而 促 进 生 态 系 统 的 繁 荣 和 创 新。(2)高 性 能:提 供 与 N V L i nk 相 当 甚 至超越的带宽和低延迟,以满足 A I 训练和推理的极致性能需求。(3)可扩展性:支持连接数千甚至上万个 A I 加速器,构建超大规模的计算集群。(4)成本效益:通过标 准化和开 放性,降 低互连解 决方案的 开发和部 署成本。(5)灵活性:支持多种互连拓扑和通信模式,以适应不同的 A I 应用场景。(二)U A L i n k 架构与协议栈U A L i nk 1.0 规范是该标准的首个版本。U A L i nk 1.0 支持每通道最高 200 G T/s的数据传输速率,信令速率高达 212.5 G T/s,以满足以太网第 1 层前向纠错(F E C,F o r w a r d E r r o r C o r r e c t i o n)和 额 外 第 1 层 编 码 所 需 的 带 宽。U A L i nk 通 道 可 配 置 为单通道(x 1)、双通道(x 2)或四通道(x 4)链路。四个通道组成一个站点(St a t i o n),在发送(T X)和接收(R X)方向各提供最高 800 G bps 的带宽。这种灵活的配置使得 加速器的 数量和分 配给每个 加速器 的带宽可 以根据 A I 应用 的需求进 行灵活扩展。U A L i nk 交换机(U L S)可连接最多 1024 个加速器或端点,每个加速器被分配一个唯一的 10 位路由标识符,这使得 U A L i nk 能够支持构建超大规模的 A I 加2 0 2 5 A I 网 络 技 术 白 皮 书1 8速 器 集 群。U A L i nk 还 支 持 将 P o d 进 一 步 划 分 为 多 个 虚 拟 P o d。虚 拟 P o d 是 P o d内一个或多个加速器组成的逻辑组,组内加速器可以相互通信,但与 P o d 内其他加速器保持隔离。这种划分通过交换机端口子集的非重叠分配实现,提供了更灵活的资源管理和隔离能力。U A L i nk 采 用物 理层、数据 链路 层、事 务层 和协 议层 四层 结 构,自底 向 上深度融合性能优化与标准兼容性:图 5 U A L i n k 协 议 栈物 理 层:U A L i nk 物 理 层 直 接 复 用 I E E E 802.3dj 以 太 网 标 准,支 持 单 通 道106.25 G T/s(低速模式)或 212.5 G T/s(高速模式),对应 100G 至 800G 带宽配置。物理编码子层(P C S)/物理介质连接接口(P M A)通过增强型码字交织模式,以优化 F E C 延迟。物理介质相关子层(P M D)、自动协商和链路训练(A N/L T)与 802.3 保 持一 致,未做 修 改。P C S 和 R S(协调 层-P C A 与 D L 之 间的 接口)需要将 D L 信元与码字同步,以便将来自 D L 的 640 字节信元(生成一个 C R C)准确地装入一个 R S(544,514)码字。2 0 2 5 A I 网 络 技 术 白 皮 书1 9数 据 链 路 层:数 据 链 路 层 位 于 事 务 层 与 物 理 层 之 间,负 责 将 来 自 事 务 层 的64 字节 F l i t 打包聚合为 640 字节 F l i t,供物理层使用。它还在链路伙伴之间提供消息 服务,用 于通告事 务层速率、查询 连接的链 路伙伴的 设备和端 口 I D 等。消息服务还在链路伙伴之间提供一种 U A R T(通用异步接收器发送器)式的通信,主要用于固件(F i r m w a r e)通信。事务层:事务层负责将来自 U A L i nk 协议层接口(U P L I)的协议消息转换为事务层数据片(T L F l i t),并将其传递给数据链路层。同时它也将从数据链路层接收到的 T L F l i t 转换回 U A L i nk 协议层接口上的协议消息。事务层支持流式地址缓存来压缩地址,以提高传输效率。协议层:协议层是 U A L i nk 协议栈的最上层,负责处理加速器之间的消息。U A L i nk 是 一种 对称 协议,在发 送路 径和 接收 路 径中 支持 相同 的 消息 集和 信道。这些消息会经过 U A L i nk 堆栈的多个功能层处理。U A L i nk 作为一项开放式的高性能互连标准,有望在 A I 加速器互连领域掀起一场技术革命,为构建未来超大规模 A I 计算基础设施奠定坚实基础。3.2.2 新 型 互 连 技 术3.2.2.1 S U ESU E(Sc a l e U p E t he r ne t)是博通提出的一种新型互连框架,旨在将以太网的优势引入 A I 系统内部的 Sc a l e U p 领域,实现 X P U(包括 G P U 等专用芯片)之间的高速、可靠、开放通信。(一)S U E 的背景与目标SU E 框 架允 许将 X P U 集 群扩 展至 机 架或 多 机架 规模,以支 持 大规 模数 据 集处理、深度神经网络训练及并行任务执行。其核心思想是以以太网为基础构建传2 0 2 5 A I 网 络 技 术 白 皮 书2 0输 层和 数据 链路 层,直 接在 X P U 间 高效 搬运 内存 事 务。在部 署 模型 上,SU E 支持单跳交换拓扑或直接互联的 M e s h 拓扑。每个 SU E 实例可灵活配置端口数(1/2/4个),例如 800G 实例可拆分为 1800G、2400G 或 4200G 端口,以适应交换 机 端 口 密 度 和 冗 余 需 求。单 个 X P U 可 集 成 多 个 SU E 实 例(如 8 或 16 个),通 过 多 实 例 叠 加 实 现 超 高 带 宽(例 如 64 个 X P U 各 配 12 个 800G SU E 时,任 意X P U 对间带宽达 9.6T bps)。(二)S U E 技术架构技术 架构 上,SU E 采用 类 A X I 的双 工数 据接 口,通过虚 拟通 道(V C)将 事务映射至不同流量类别,支持两种传输模式:严格有序模式(保障事务顺序)和无序模式(多端口负载均衡)。其协议栈分为三层:图 6 S U E 协 议 栈映 射 打 包 层:将 发 往 同 一 目 标(X P U,V C)的 事 务 聚 合 成 最 大 4096 字 节 的SU E 协议数据单元(P D U,P r o t o c o l D a t a U ni t);传 输层:添加 可 靠 性头 部(R H),包 含 序列 号(P SN)、虚 拟 通道(V C)及确认机制(R P SN),并附加 32 位 C R C 校验(R-C R C)。采用简化的 G o-B a c k-N2 0 2 5 A I 网 络 技 术 白 皮 书2 1重传机制,通过 P F C/基于信用的流控(C B F C,C r e di t B a s e d F l o w C o nt r o l)和链路层重传(L L R,L i nk L e v e l R e t r y)实现无损网络;网络层:支持标准以太网/I P v 4/I P v 6/U D P、优化的 A I 转发报头(A F H G e n1)及高度压缩的 A F H G e n2(仅 6-12 字节),以降低协议开销。SU E 提 供三 类接 口。X P U 命 令接 口:支 持 F I F O 信 用机 制或 A X I 4 总 线,传输 事 务 指 令 及 数 据(控 制 字 段 144 位,含 操 作 码、长 度 及 目 标 X P U I D);X P U管 理 接 口:基 于 A X I 的 寄 存 器 配 置 通 道;以 太 网 接 口:支 持 200G/100G Se r de s速率,兼容 P F C/C B F C 流控及 L L R 重传,可动态切换故障链路。SU E 实时监测各目标队列,在不引入额外延迟的前提下,将队列内多个事务动 态 打 包 成 单 个 以 太 网 帧 发 送(上 限 2K B)。接 收 端 通 过 P SN 验 证 顺 序,错 误时触发 N A C K 及重传。负载均衡由 X P U 层全局调度(跨多个 SU E 实例)和 SU E内部调度(多端口无序模式)共同实现。SU E 要求端到端往返延迟(R T T)低于2 微 秒,单 跳网 络 最多 支持 1024 个 X P U。通过 优 化封 装、无 损流 控 及物 理 层技术(如空心光纤),10 米传输的单向延迟可控制在 520 纳秒内,满足 X P U 间内存事务的苛刻时延需求。3.2.2.2 O I S A全向智感互联(O I SA,O m ni-di r e c t i o na l I nt e l l i g e nt Se ns i ng E x pr e s s A r c hi t e c t ur e)是 中国 移动 提 出的 开 放 G P U 互 连协 议体 系,旨 在 解决 万亿 参 数大 模 型训 练中 的通信墙问题。(一)O I S A 的背景与目标超 大模 型 训练 依 赖 G P U 间 频繁 数 据交 互,通 信 开销 导 致集 群 有效 算 力无 法随 G P U 数量线性增长,互联性能成为制约集群规模扩展和性能提升的瓶颈。O I S A2 0 2 5 A I 网 络 技 术 白 皮 书2 2旨 在打 造高 效、智 能、灵 活且 开 放的 G P U 卡 间互 联体 系,支 持 大模 型训 练、推理、高性能计算等数据密集型 A I 应用。(二)O I S A 协议架构O I SA 采 用分 层设 计的 协 议结 构,分 别是 事务 层、数 据层 和物 理 层,允 许各个层级专注于特定的功能实现,从而保障整个系统的优化和高效运行图 7 O I SA 核心架构事务层:最上层,负责封装数据,支持消息语义、内存语义、多语义三种模式,引入选择性重传(SR,Se l e c t i v e R e pe a t)机制,相比 G o-B a c k-N 协议在 Sc a l eU p 场景效率更高,可精确识别并仅重传丢失或损坏数据包,提高传输效率。数据层:介于事务层和物理层之间,定义了具有流量感知能力的报文结构,为 实 现 链 路 资 源 和 传 输 速 率 的 动 态 调 整 提 供 依 据。引 入 了 C B F C 和 P F C 两 大 流控技术,避免网络拥塞并确保数据的有序流动。此外还引入了数据层重传技术提升系统响应速度和可靠性。2 0 2 5 A I 网 络 技 术 白 皮 书2 3物理层:最底层,包括逻辑子层和电气子层。逻辑子层定义了数据传输逻辑特性,负责编码和时序同步;电气子层负责将逻辑子层编码后的数据转换为电气信号,定义电气参数和接口,确保设备兼容性和连接正确性。O I SA 接 口 支 持 A X I 总 线 接 口(如 A X I St r e a m 用 于 高 速 数 据 传 输,A X I L i t e用于控制信息传输),也可兼容 G P U 厂商自定义接口方案。O I SA 通 过统 一报 文格 式、多 语义 融 合、多层 次流 控 和重 传、集 合通 信加 速等关键技术,实现了高速、低时延、无损和高可靠的 G P U 通信。3.2.2.3 A L S在 2024 O D C C 开放数据中心大会上,阿里云联合信通院、A M D 等十余家业界伙伴发起 A I 网络互连开放生态 A L S(A L i nk Sy s t e m)。A L S 产业生态支持 U A L i n k协议,目标是解决 A I 智算超节点快速发展中面临的超高速、超大带宽的 Sc a l e U p技术难题。通过开放生态促进 A I 智算互连领域的技术创新和标准化。目前,A L S已形 成从 协议 到芯 片、从硬 件设 备到 软件 平台 的系 统体 系,在 A L S-D 数据 面支持 U A L i nk,在 A L S-M 管控面提供统一接口规范和管控软件平台。图 8 A L S 技术架构图2 0 2 5 A I 网 络 技 术 白 皮 书2 4A L S-D 数据面:A L S-D 数据面互连采用 U A L i nk 协议,这意味着它原生支持高 性 能 内 存 语 义 访 问 和 显 存 共 享,并 支 持 Sw i t c h 组 网 模 式。在 性 能 上,A L S-D具备 超高 带宽、超 低时 延能 力,并增 加了 在网 计算 等特 性。这使 得 A L S-D 能够为 A I 应用提供强大的数据传输能力和计算加速。A L S-M 管控面:A L S-M 管控面旨在为不同芯片提供标准化接入方案,符合规范的设备均可灵活接入应用方系统。无论是对开放生态还是厂商专有互连协议,A L S 都 使 用 统 一 的 软 件 接 口。同 时,A L S-M 为 云 计 算 等 集 群 管 理 场 景,提 供 单租、多租等灵 活和弹性 的配置能 力,从 而实现对 A I 集群 资源的精 细化管理 和调度。A L S 是 U A L i nk 协 议 的 积 极 实 践 者 和 推 广 者,通 过 将 U A L i nk 协 议 应 用 于 实际的 A I 基础设施中,验证了 U A L i nk 的性能和可行性,并进一步丰富了 U A L i n k的 生 态 系 统。可 以 说,A L S 是 U A L i nk 在 A I 智 算 超 节 点 领 域 的 一 个 重 要 应 用 和落地。3.2.2.4 E T H 高通量以太网(E T H )协议是由中国科学院计算技术研究所、阿里云等超40 家 机构 组成 的 高通 量 以太 网联 盟(E T H C o ns o r t i um)发布 的一 种 新型 以 太网协议。2024 年 9 月发布了 1.0 版本,基于 E T H 协议的网络协议 I P、开源网卡等硬件 和系 统也 已经 公开。E T H 旨在 通过 对以 太网 帧格 式、链路 层和 物理 层进 行优 化,以 及结 合 R D M A 在 网计 算(I n-N e t w o r k C o m put i ng)技术,显著 提 升以 太网在 A I 智算网络中的性能,以应对 A I 时代对高效、稳定、可扩展网络的需求。帧 格式 优化:E T H 协 议通 过优 化以 太网 帧格 式,有效 提升 了以 太网 帧的 有效载荷比(可达 74%)。这意味着在相同带宽下,可以传输更多的有效数据,从2 0 2 5 A I 网 络 技 术 白 皮 书2 5而大幅提高 A I 数据中心大量短数据报文的传输效率。对于 A I 训练中频繁出现的梯度同步等小包传输场景,这一优化尤为关键。链 路层 与物 理层 重传:E T H 深 度支 持链 路层 和物 理层 的重 传技 术。传统 的以太网在链路层通常不提供重传机制,一旦发生丢包,需要上层协议(如 T C P)进行 重传,这 将引 入较 大的 延迟。E T H 在更 低的 层次 引入 重传 机制,可 以更 快地恢复丢失的数据包,从而显著提升网络的语义可靠性,并降低端到端延迟。R D M A 在网计算:E T H 基于 R D M A 技术,并进一步结合了在网计算能力。R D M A 允 许 应用 程 序 直 接访 问 远 程内 存,绕 过 C P U 和 操 作系 统,从 而显 著 降 低延 迟 和 C P U 开 销。在 网 计 算 则允 许 网 络 设备 在 数 据 传输 过 程 中执 行 简 单 的计 算任务,例如集合通信中的聚合操作。通过这种结合,E T H 实现了集合通信性能30%以上的提升,有效解决了传统以太网在处理 A I 集合通信时的效率问题。2025 年 8 月 14 日,高 通 量 以 太 网 联 盟 发 布 了 E T H 协 议 1.1 版 本。同 时 还推 出 了 全 量 支 持 E T H 特 性 的 首 款 国 产 400G 智 能 网 卡 芯 片、首 款 国 产 25.6T 交换芯片、E R a c k /O R a c k 国产硅光芯片,以及首款 E T H 64 超节点等。3.3 S c al e O u t(横向扩展)技术3.3.1 I n f i n i B a n d 技 术在 面 向 大 模 型 训 练 的 A I 集 群 中,I nf i ni B a nd 凭 借 其 高 带 宽、低 延 迟 和 原 生R D M A 能力,成为英伟达等厂商构建高性能训练网络的首选互连技术。3.3.1.1 I B 架 构 与 协 议 栈集群结构上,I nf i ni B a nd 与 N V L i nk、N V Sw i t c h 协同构建三层通信架构:节点内通信:依赖 N V L i nk 或 N V Sw i t c h,实现单节点内 G P U 间的高速互联;2 0 2 5 A I 网 络 技 术 白 皮 书2 6 节点间通信:通过 I nf i ni B a nd 网络实现跨服务器 G P U 通信,支撑分布式训练;多节点组网:使用 I nf i ni B a n d 交换机(如 Q ua nt um、Spe c t r um)构建 F a t-T r e e或 D r a g o nf l y 拓扑,确保通信性能和扩展性。在 D G X 系 列 中,一 台 服 务 器 内 部 的 8 块 G P U 通 过 N V Sw i t c h 实 现 全 互 联,每台服 务器配备 多个 H D R 或 N D R I nf i ni B a nd 网卡,提供最高 达 800G b/s 的通信带 宽。服 务 器 间 通 过 I nf i ni B a nd Spi ne-L e a f 网 络 结 构 连 接,构 建 成 标 准 的 两 层F a t-T r e e 或 D r a g o nf l y 拓 扑 网 络,以 保 障 任 意 G P U 对 任 意 G P U 的 高 带 宽、低 阻塞通信。I nf i ni B a nd 的技术优势包括原生支持 R D M A 与零拷贝通信,避免 C P U 参与,大 幅 降 低 延 迟;具 备 端 到 端 通 信 可 靠 性 机 制(E 2E R e l i a bi l i t y),无 需 依 赖 软 件协议重传;通过 Subne t M a na g e r 管理网络拓扑、路径与服务等级,实现可编程与集中调度。I nf i ni B a nd 采用 分层 协议 栈设 计,与 O SI 模型 类似 但针 对高 性能 场景 进行了优化:图 9 I nf i ni B a nd 协议栈2 0 2 5 A I 网 络 技 术 白 皮 书2 7物理层:定义高速串行传输接口,支持多速率(H D R、N D R、X D R)和编码方式(N R Z、P A M 4),确保高速稳定的信号传输。链 路 层:负 责 数 据 帧 的 组 装、流 量 控 制、错 误 检 测(C R C 校 验)和 虚 拟 通道管理。虚拟通道允许在同一物理链路上划分多个逻辑通道,实现流量隔离和优先级管理,避免热点和拥塞扩散。链路层还保证数据传输的可靠性和有序性,是I nf i ni B a nd 实现端到端高性能通信的基础。网络 层:网络 层实现 数据 包的 路由与 路径 选择 功能。I nf i ni B a nd 支持 多种 拓扑和多路径路由策略,包括静态路由和自适应路由,以提高网络负载均衡和容错能力。传输层:传输层是协议栈的核心,提供多种通信服务类型:可靠连接(R C,R e l i a bl e C o nne c t i o n),面向连接,确保数据有序且无丢失(需确认),适合大多数训练同步通信;可靠数据报(R D,R e l i a bl e D a t a g r a m),无连接,支持多目标通 信(需 确 认);不 可 靠 连 接(U C,U nr e l i a bl e C o nne c t i o n),面 向 连 接,不 保证交 付(无需确 认);不可 靠数 据报(U D,U nr e l i a bl e D a t a g r a m),无连 接,不保证交付(无需确认)。I nf i ni B a nd 协议栈从物理层到传输层全栈自研,内置 R D M A 与流控机制,保证硬件层面端到端的高效和可靠。3.3.1.2 关 键 技 术 与 带 宽 演 进I nf i ni B a nd 的核心优势之一是其底层通信协议中原生集成了 R D M A 机制,无需 操 作 系 统 介 入,即 可 通 过 G P U D i r e c t 技 术 实 现 节 点 之 间 的 G P U 直 达 通 信,极大减少延迟与内存拷贝开销,是大规模训练任务通信效率的关键保障。(1)R D M A 与 G P U D i r e c t2 0 2 5 A I 网 络 技 术 白 皮 书2 8I nf i ni B a nd 专为高 性能 通信 设计,不依 赖软 件协议 堆栈 即可 提供低 延迟、零拷贝的数据交换路径。通过 G P U D i r e c t R D M A 技术,网卡可以直接访问 G P U,跳过 C P U 和主内存,从而降低通信延迟至微秒级,并释放主机资源用于计算。(2)拥塞控制与链路可靠性机制I nf i ni B a nd 的另 一个 核心 特性是 其端 到端 的通信 可靠 性机 制,协 议层 自带 包序列管理、确认与重传机制,确保每个数据包都可靠送达,这一点使其在应对大规 模 G P U 同 步通 信中 的 网络 抖 动和 丢包 问 题上 表 现更 优。同 时它 还 支持 服务 等级与虚拟通道机制,用于多租户隔离和流量调度;自适应路径选择与 F E C,增强网络弹性与稳定性;以及 Subne t M a na g e r,可控制拓扑路径、拥塞点规避与 Q o S策略。(3)带宽演进I nf i ni B a n d 的物理层带宽已历经数代跃升,从早期的 10G b/s 到最新单端口 800 G b/s:表 2 I nf i ni B a nd 演进3.3.1.3 I n f i n i B a n d 与 以 太 网在实 际部 署中,I nf i ni B a nd 与以 太网 形成 互补关 系。二者 的核心 差异 主要 体现在协议架构、性能稳定性与管理方式等方面:2 0 2 5 A I 网 络 技 术 白 皮 书2 9表 3 I nf i ni B a nd 与以太网在 以 太 网 生 态 逐 步 引 入 R o C E v 2、C X L 互 联 协 议 的 背 景 下,也 出 现 了I nf i ni B a n d 与以太网融合的趋势,例如英伟达 Q ua nt um-2 同时支持 I B 与 E t he r ne t。3.3.2 R o C E v 2 技 术R o C E 是 一 种 通 过 以 太 网 网 络 进 行 远 程 直 接 内 存 访 问 的 网 络 协 议。和I nf i ni B a nd 协议一样,R o C E 协议通过发送方直接将数据写入接收方的内存中,无需经过接收方的操作系统内核,从而实现高带 宽,低延迟的数据传输。R o C E 协议可以无缝地集成到已有的以太网网络架构中,而无需更换交换设备,因此得到了产业界的广泛支持。3.3.2.1 高 性 能 R D M A 技 术目 前 R o C E 的 主 流 版 本 有 两 个:R o C E v 1 和 R o C E v 2,分 别 由 I B T A 于 2010年和 2014 年推出。R o C E v 1 在网络层和传输层复用了 I nf i ni B a nd 协议,仅在链路层使用以太网协议,允许在同一以太网广播域中的任意两台主机之间进行通信。而 R o C E v 2 则将协 议扩展到了 网络层,这 意味着 R o C E v 2 数据包 可以被现有 以太网协议设备路由,进一步提高了与现有设备的兼容性和适用范围。因此,在现代智算网络中,R o C E v 2 取代了 R o C E v 1,成为和 I nf i ni B a nd 一样的主流 R D M A 网络协议技术。2 0 2 5 A I 网 络 技 术 白 皮 书3 0图 10 I nf i ni B a nd、R o C E、R o C E v 2 对比R o C E v 2 通过以下特性实现高性能数据传输:零拷贝数据传输:应用程序可直接访问远程内存,绕过操作系统内核,减少数据拷贝次数(从传统 T C P/I P 的 4 次拷贝降至 1 次),显著降低 C P U 开销。在100G bps 网络下,R o C E v 2 的端到端延迟可低至 1 微秒以内,优于 T C P/I P 的 10-2 0微秒。高效协议栈:基于 U D P 封装,省去 T C P 的连接建立、拥塞控制等开销,保持以太网帧格式不变,便于网络设备处理。支持大规模并发连接,单网卡可支持数百万个活跃队列对,满足微服务、容器化环境的高并发需求。内核旁 路:R o C E v 2 通过用 户态驱动 直接操作 网卡硬件,避免了 内核上下 文切换。每次通信可节省约 2000 个 C P U 时钟周期,这对于高频交易等场景至关重要。2 0 2 5 A I 网 络 技 术 白 皮 书3 1硬件加速:通过网卡中的专用 A SI C 芯片实现 R D M A 操作的硬件卸载,进一步 提 升性 能。支 持多 队 列 并 行处 理,利 用现 代 C P U 多 核 优势,实 现 线性 扩 展 的吞吐量。3.3.2.2 跨 网 段 路 由 技 术R o C E v 2 相 较 于 其 前 身 R o C E v 1 的 一 个 显 著 优 势 在 于 其 支 持 跨 网 段 路 由。R o C E v 1 仅限于在 二层网络(同一 广播域)内进行 R D M A 通信,而 R o C E v 2 通过将 R D M A 协议封装在 U D P/I P 报文中,使其能够在三层网络(I P 网络)中进行路由,从而实现了跨网段的 R D M A 通信。R o C E v 2 的 数 据 包 在 以 太 网 帧 的 基 础 上,增 加 了 I P 头 和 U D P 头。这 种 封 装方式使得 R o C E v 2 数据包可 以像普通的 I P 数据包一 样,在标准 I P 路由器和 交换机 之 间 进 行 转 发。具 体 来 说,R o C E v 2 将 R D M A 传 输 层 协 议 的 数 据 封 装 到 U D P数 据 报 中,然 后 U D P 数 据 报 再 封 装 到 I P 数 据 包 中。I P 头 包 含 了 源 I P 地 址 和 目的 I P 地址,使得数据包可以在不同的 I P 子网之间进行路由。U D P 作为传输层协议,提供了端口号,用于区分不同的 R D M A 连接。虽然 U D P 本身是无连接和不可 靠的,但 R o C E v 2 在 U D P 之 上实 现了 可 靠传 输 机制,确 保 了 R D M A 通 信的 可靠性。R o C E v 2 突破了传统二层网络的限制,让 A I 集群可以部署在更大的规模和更复 杂 的 网 络 拓 扑 中,支 持 数 千 甚 至 上 万 个 节 点 的 互 联。此 外,R o C E v 2 允 许 A I计算节点和存储节点分布在不同的子网中,提高了网络部署的灵活性和资源利用率。R o C E v 2 可以在 现有的标 准以太网 基础设施上 部署,无 需对网络设 备进行大规模升级或更换,降低了部署成本。然而,为了确保 R o C E v 2 在跨网段路由时的性能,仍然需要关注底层以太网的 无损 特性。虽然 I P 路 由提 供了 跨 网段 的能 力,但 如果 底层 以 太网 存在 丢 包或2 0 2 5 A I 网 络 技 术 白 皮 书3 2拥塞,仍然会影响 R D M A 的性能,因此在部署 R o C E v 2 跨网段网络时通常需要配合无损以太网技术(如 P F C、E C N 等)来保证端到端的无损传输。3.3.2.3 拥 塞 管 理 与 流 控 机 制传统的以太网是“尽力而为”的传输模式,在拥塞时会丢弃数据包,这对于R D M A 来说 是不可 接受的。因此,R o C E v 2 依赖于 无损以太网技 术来确保数据 传输的可靠性。R o C E v 2 的拥塞管理和流控机制主要通过以下技术协同工作:P F C:P F C 是 I E E E 802.1Q bb 标准 定义的一 种链路 层流控 机制,也 被称为 逐跳流控。它允许网络设备根据数据包的优先级对流量进行暂停。当交换机某个端口的缓存达到预设阈值时,它会向发送方发送一个暂停帧(P a us e F r a m e),通知发送方停止发送特定优先级的数据,直到缓存压力缓解。P F C 能够有效防止链路层丢包,是构建无损以太网的基础。E C N:E C N 是一种网络层机制,允许网络设备在检测到即将发生拥塞时,通过在 I P 报头中设置 E C N 标记来通知发送方。当交换机检测到队列深度超过某个阈值时,它会在数据包的 I P 头中设置 E C N 位,而不是直接丢弃数据包。接收方收到带有 E C N 标记的数据包后,会将其转发给发送方,发送方根据 E C N 标记降低发送速率,从而避免拥塞的发生。数 据 中 心 量 化 拥 塞 通 知(D C Q C N,D a t a C e nt e r Q ua nt i z e d C o ng e s t i o nN o t i f i c a t i o n):D C Q C N 是 R o C E v 2 中一种端到端的拥塞控制算法,它结合了 E C N和基于速率的拥塞控制。D C Q C N 通过以下步骤工作:(1)拥塞标记:交换机在检 测 到 拥 塞 时,通 过 E C N 标 记 数 据 包。(2)拥 塞 通 知 包(C N P,C o ng e s t i o nN o t i f i c a t i o n P a c ke t):接 收 方 收 到 带 有 E C N 标 记 的 数 据 包 后,会 生 成 一 个 C N P并 发 送 给 发 送 方。(3)速 率 调 整:发 送 方 收 到 C N P 后,会 根 据 C N P 中 的 信 息2 0 2 5 A I 网 络 技 术 白 皮 书3 3(如拥塞程度)动态调整其发送速率。D C Q C N 采用了一种量化的速率调整机制,使得发送方能够快速响应拥塞并恢复到最佳发送速率。这些机制协同工作,确保了 R o C E v 2 在以太网环境下的高性能和无损传输。P F C 提供了链路层的无损保障,E C N 提供了网络层的拥塞预警,而 D C Q C N 则实现了端到端的拥塞控制和速率调整。通过这些技术,R o C E v 2 能够为 A I 集群提供稳定、高效的 R D M A 通信,满足其对网络性能的严苛要求。3.3.3 U E C 传 输 协 议超以太网联盟(U E C,U l t r a E t he r ne t C o ns o r t i um)的成立标志着以太网技术演进的一个重要转折点。U E C 联盟由 A M D、A r i s t a、B r o a dc o m、C i s c o、H P E、I nt e l、M e t a 和 M i c r o s o f t 等 行 业 巨 头 于 2023 年 联 合 发 起,旨在 解 决 传 统 以 太 网 在 A I 和H P C 场 景 下 面 临 的 性 能 瓶 颈。2025 年 6 月,U E C 规 范 1.0 版 本 正 式 发 布,这 被视为以太网向新一代数据密集型基础设施演进的关键一步。3.3.3.1 U E C 传 输 协 议U E C 协议代表了以太网技术在高性能计算和人工智能时代的一次重大革新。作为对传统以太网和 I nf i ni B a nd 技术的突破性升级,U E C 协议从底层物理层到上层应用接口进行了全方位重构,旨在满足现代 A I/H P C 工作负载对网络的严苛需求。U E C 1.0 提供的 两个重要特性 L L R 和 C B F C 是用于 支撑内存语义 实现的重要基石。L L R 的工作机制是在链路层实现点到点的可靠传输。发送侧为每一个传送的 L 2 帧 分 配 一 个 序 列 号。该 序 列 号 嵌 入 在 L 2 帧 的 前 导 码 中 传 输。接 收 侧 负 责校验收到的 L 2 帧携带依次增加的序列号,并周期性地发送 A C K 以向链路伙伴指示 最 近 成 功 接 收 的 L 2 帧 的 序 列 号。如 果 接 收 的 L 2 帧 F C S 校 验 错 误 或 者 序 列 号非 预 期,接 收 侧 发 送 N A C K 请 求 发 送 端 重 传。发 送 侧 维 持 一 个 重 传 缓 冲,重 传2 0 2 5 A I 网 络 技 术 白 皮 书3 4的 机 制 采 用 G o-ba c k-N。在 Sc a l e U p 网 络 中 采 用 L L R 的 核 心 诉 求 在 于 本 地 发 生的错误就近 发现,就近恢复。相较 而言,如果不采用 L L R 机制,发生 丢包/错包之后依靠端到端的选择性重传机制来恢复,那么就会给内存语义访问带来极大的延时增加。C B F C 通 过 信 用 机 制 控 制 链 路 上 的 L 2 帧 传 输,发 送 方 以 信 用 为 单 位 跟 踪 接收方可用的缓冲区空间,并且只有当接收方有足够的缓冲区空间(以信用为单位)时,调 度器 才允 许 调度 数据 包 从无 损 V C 队 列进 行传 输。C B F C 消 息用 于将 信用从接收方返回给发送方。接收方的信用生成取决于接收方端口缓冲区的可用性。发送侧以相对低的频度向接收侧发送已使用的信用计数器更新,此更新的目的是重新捕获由于链路错误(例如无法纠正的 F E C 错误或数据包 C R C 错误)导致的数据包丢失而可能“泄露”的信用。此外,C B F C 支持多达 32 个 V C,可以为每个 V C 独立配置优先级和信用分配。在 Sc a l e U p 网络中采用 C B F C 的核心诉求在于实现无损传输,避免由于接收侧没有足够的缓冲导致丢包。这种情形的丢包只能依靠端到端的选择性重传机制来实现,同样会给内存语义访问带来极大的延时增加。从 线 路 传 输 效 率 的 角 度 来 说,Sc a l e U p 网 络 中 内 存 语 义 的 操 作 主 要 是 以C a c he L i ne(256B/128B)为颗 粒度的 内存访 问,传 统基于以 太的协 议栈报 文封装 势必 给 内 存 语 义 的 操 作 带 来 巨 大 的 开 销。U E C 的 多 个 相 关 技 术 工 作 组 已 经 或 正 在开展相关的研究工作。以 L i nk W G 为例,工作组早已启动优化以太网 L 2 he a de r的 研 究,相 关 的 提 案 如 统 一 转 发 头(U F H,U ni f i e d F o r w a r di ng H e a de r)旨 在 提 供 与标准 E t he r ne t 无缝的互联互通,同时通过压缩提供更好的线路传输效率,而并非复制或 者取代标准 L 2 L 3 he a de r 所提供 的功能。U F H 提案起 初是为 Sc a l e O ut 网络设计的,但是也同样适用于 Sc a l e U p 网络。2 0 2 5 A I 网 络 技 术 白 皮 书3 5表 4 U E C 协议栈3.3.3.2 U E C 架 构 与 协 议 栈U E C 1.0 采用模块化分层架构,通过软件层开放架构接口 L i bF a br i c、传输层U E T 的多维创新、网络层的数据包修剪,以及链路层的性能增强等关键技术实现了全栈优化。图 11 U E C 1.0 协议栈2 0 2 5 A I 网 络 技 术 白 皮 书3 6软件层:L i bF a br i c 2.0 A P I 是 U E C 软件栈的核心构建模块,定义了一套面向高 性 能 并 行 和 分 布 式 应 用 程 序 的 通 信 接 口。L i bF a br i c 的 主 要 目 标 是 提 供 统 一 接口,让开发者能够方便构建应用,而无需关心底层具体的传输协议和硬件细节。L i bF a br i c 支持 T e ns o r F l o w、P y T o r c h 等 A I 框架及 N C C L、M P I 等 H P C 库,通过 J o bI D实现多租户隔离。单个 N I C 可承载多个 F a br i c E nd P o i nt(F E P),每个 F E P 仅属于一个 J o b 并与同 J o bI D 的 F E P 交互。传输层:传输层是 U E C 规范的核心创新所在。语义子层解析应用请求(如A l l R e duc e),定义消息语义与操作类型(发送/读取/原子操作),实现计算指令的优先级区分;分组交付子层提供可靠无序(R U D,R e l i a bl e U no r de r e d D e l i v e r y)、可 靠 有 序(R O D、R e l i a bl e O r de r e d D e l i v e r y)、可 靠 无 序 幂 等(R U D I,R e l i a bl eU no r de r e d D e l i v e r y F o r I de m po t e nt)、不 可 靠 无 序(U U D,U nr e l i a bl e U no r de r e dD e l i v e r y)四 种 交付 模 式,适 应 不 同应 用 场 景;拥 塞 管理 子 层 支 持 动 态 窗口 调 整与流量分类。传输安全子层定义 A E S-G C M 加密算法与密钥管理机制,保障数据传输安全。网络层:支持包修剪(P a c ke t T r i m m i ng),允许交换机截断有争议的数据包,修改截断数据包的 D SC P 字段,并将其作为拥塞信号转发到目的地,为上层协议提供更多拥塞信息,以确保快速重传丢失的数据包。链 路层:U E C 链 路层 最大 的 变化 是 引入 了 L L R 协 议,它可 以 让以 太 网不 依赖 P F C,实现无损传输,本地化错误恢复将重传延迟压缩至 1 微秒内,相比端到端重传效率提升 100 倍。物 理 层:U E C 1.0 规 范 下 的 物 理 层 与 传 统 以 太 网 完 全 兼 容,支 持 每 通 道100G bps 和 200G bps 速率,并在此基础上实现 800G bps 和更高的端口速率。3.4 前沿突破技 术2 0 2 5 A I 网 络 技 术 白 皮 书3 73.4.1 确 定 性 广 域 网 技 术A I 训练与推理对网络性能要求严苛,大模型分布式训练需跨数据中心协同,传统网络难以保障。确定性广域网技术能提供高可靠、低延迟、高带宽的传输服务,显著提升网络在带宽、时延、抖动、丢包等维度的指标,让网络从“尽力而为”转变为“确保所需”,为 A I 业务提供确定性服务质量,成为推动 A I 持续创新发展的关键支撑技术。3.4.1.1 D e t N e t随着 工业互联 网、自 动驾驶、远程医 疗以及 A I 训练 等对网络 时延、抖动和丢 包率 有严 格 要求 的应 用 场景 的兴 起,传 统尽 力而 为 的 I P 网 络已 无法 满 足其 确定性传输的需求。确定性网络应运而生,旨在为这些高实时性业务流提供可预测、可规划的网络传输服务,确保极低的丢包率和确定的端到端传输时延及抖动。D e t N e t 是互联网工程工作小组(I E T F,I nt e r ne t E ng i ne e r i ng T a s k F o r c e)提出的 一个 标准 体 系,其目 标 是在 I P 层 和以 太网 层 提供 确定 性 服务。D e t N e t 架 构的核心思想是通过对网络数据转发行为的精确控制,实现可预期的性能。其核心技术包括:资源预留与调度:通过划分转发时隙、资源预留(链路带宽预留、节点缓存预留等)和包抢占实现超低延迟和零拥塞损失,不仅限制端到端时延上界,还控制时延下界,实现更低时延抖动。允许在每个调度周期内,将确定性流的空闲资源调度给非确定性流使用,实现弹性调度。可靠传输:采用包复制和冗余消除技术,在入口边缘节点复制数据包并通过多个路径发送,网络边缘节点进行冗余副本消除和原始数据包还原,确保单个随机事件或设备故障不会导致数据包丢失。支持多发选收功能,首节点复制报文在多条链路上同时发送,尾节点消除冗余副本并重新排序,提升网络可靠性。2 0 2 5 A I 网 络 技 术 白 皮 书3 8路径控制:通过特定协议或集中控制单元计算确定性业务流的最佳路径,并依靠冗余路径保证个别链路故障时业务不中断,消除协议收敛时间的影响,保持转发路径稳定。作为新型 I P 层确定性网络技术,D e t N e t 通过精准控制时延、抖动和丢包率,为 A I 应用提供确定性服务质量保障。3.4.1.2 D I P确定 性 I P(D I P,D e t e r m i ni s t i c I P)网 络是一种 在 I P 网络 中为端到 端报文转发提 供确 定性 时延 和抖动 的技 术。与 D e t N e t 在 I P 层提 供调 度保 障不 同,D I P 技术 更侧 重于 在 传统 I P 网 络的 基础 上,通 过创 新 的机 制消 除因 数 据突 发带 来 的转发抖动,从而充分保障网络报文的确定性传输。D I P 技术尤其适用于对时延和抖动 有 严 格 要求 的 工 业 控 制、机 器 视觉、远 程 协 作 等 A I 应 用 场 景。D I P 技 术 通 常基于 SR v 6(Se g m e nt R o ut i ng o v e r I P v 6)网络部署,并结合了边缘整形、门控机制、周期调度等关键技术。边缘整形:在网络入口设备上通过令牌桶算法对突发流量进行周期性整形,将不规则的报文流转换为固定周期的数据流。令牌桶以恒定速率生成令牌,当报文到达时消耗对应数量的令牌。若令牌不足,报文将被缓存或丢弃,从而强制流量符合预设的平均速率和突发容量。门控调度:网络节点采用定时轮循机制,将时间划分为固定长度的调度周期。每个周期内,设备仅在特定时段开放门控队列发送报文。例如,周期开始时清空队列并发送报文,其他时间队列处于关闭状态,强制报文按周期节奏传输。周期映射:相邻节点通过周期映射协议自动协商发送周期,确保报文在转发过程中不会因时间差导致乱序。设备通过 D I P 学习报文(携带时延差值信息)动态计算本地转发周期。2 0 2 5 A I 网 络 技 术 白 皮 书3 9D I P 技术的目标是实现微秒级的确定性时延,这对于需要高精度同步和实时响 应 的 A I 应 用 至 关 重要。例 如 在 高 度 自 动 化的 工 业 制 造 场 景 中,D I P 网 络 能 够保障工业控制信号的超低时延,从而实现生产过程的精确控制和高效协同。3.4.1.3 C S Q F指 定 周 期 排 队 转 发(C SQ F,C y c l e Spe c i f i e d Q ue ui ng a nd F o r w a r di ng)是 一 种基于多周期的多队列循环调度机制,它是对标准 I E E E802.1Q c h 的循环排队转发(C Q F,C y c l i c Q ue ui ng a nd F o r w a r di ng)方 法 的 一 种 扩 展,主 要 为 解 决 长 延 迟 或跨 域 同 步 不 精 确 的 问 题。作 为 一 种 面 向 多 跳、长 链 路 场 景 的 确 定 性 转 发 机 制,C SQ F 被 认 为 是 时 间 敏 感 网 络(T SN,T i m e-Se ns i t i v e N e t w o r ki ng)和 D e t N e t 等 现有机制在可扩展性和跨域能力上的关键补充。在 T SN 标 准 体 系 中,C Q F 机 制 已 经 可 用 于 在 本 地 局 域 网 中 实 现 准 确 定 时 转发。但 C Q F 存在两大局限:(1)对时钟同步精度要求极高,否则周期间包转发会错位;(2)仅支 持两队列 模型,当 网络存在 多跳或传 播时延增 加时,容 易发生拥堵或传输周期错位。为了解决这些问题,C SQ F 在 C Q F 基础上扩展了三大能力:(1)支持 指定周期 排队与转 发;(2)引入 容忍 队列机 制;(3)实现 端到端周期一致性传播。C SQ F 的核心思想是,在网络设备的出端口上划分周期,一个周期内对确定性业务流进行统一调度,使其在确定的时间片内进行转发。与传统的尽力而为转发机制不同,C SQ F 通过精确控制数据包的转发时机,确保数据流能够按照预定的时间表穿越网络,从而实现端到端的确定性传输。周期划分与时间同步:C SQ F 引入全网络时间同步,交换机和网卡将时间分段为一致的周期,每个周期持续固定时长。2 0 2 5 A I 网 络 技 术 白 皮 书4 0指定周期排队:每个流被分配一个目标周期。数据包根据其周期标签入相应队列,从而确保只有在指定周期才会被转发。与 C Q F 使用两个队列不同,C SQ F至 少 使 用 三 队 列 结 构:其 中 偶 队 列(E v e n Q ue ue)和 奇 队 列(O dd Q ue ue)交 替进行接收和发送操作,容忍队列(T o l e r a t i ng Q ue ue)用于处理由于同步偏差或传输延迟导致错过预定周期到达的包。精准周期转发:在每个周期开始时,所有交换节点根据周期标签进行统一的定时转发,逐跳保持端到端的延迟可预测性。C SQ F 技术通过精密的调度和排队机制,有效地解决了传统网络中时延和抖动不确定的问题。在实时控制、传感器数据采集和处理等 A I 应用中,C SQ F 能够提供 高精度、低时延的 网络传输 保障,为 A I 系统 的稳定运 行和高效 决策提供 坚实的基础。3.4.1.4 长 距 R D M A 技 术传统 R D M A 主要应用于数据中心内部环境,覆盖范围通常不超过 10 公里,典型应用包括高性能计算和 A I 训练。长距 R D M A 是指将 R D M A 协议从数据中心内部延伸至广域网环境,覆盖数百至上千公里的物理距离,实现跨地域算力中心之间的高 吞吐、低时延、零丢包级别 的数据传输。长 距 R D M A 继承了 R D M A 的所有优势,适用于异地算力协同、海量数据搬迁等场景。然而,将 R D M A 扩展到广域范围面临三大挑战:第一,传输时延变长,A C K响应延迟。广域链路 会导致 R T T 大幅提升,使得发送端 R D M A 网卡缓存 快速填满,从而限制吞吐。第二,链路丢包影响严重。R D M A 使用 G o B a c k N 重传机制,对丢包高度敏感。一旦出现丢包,需要重传该点之后的所有数据包,吞吐显著下降。第三,网络 流控 不适配。D C N 交换 机 缓存 不足,难 以支 撑长距 R T T 带来 的2 0 2 5 A I 网 络 技 术 白 皮 书4 1流控回馈滞后,导致拥塞无法及时应对。因此必须对架构、技术与协议等多方面进行优化和改进,提高 R D M A 跨广域传输吞吐率。具体措施包括:全 光 网 络 承 载:构 建 算 间 全 光 高 速 平 面,将 D C N 网 络 的 Spi ne/L e a f 节 点 直连 光传 送 网 络(O T N,O pt i c a l T r a ns po r t N e t w o r k)光 传输 设 备,O T N 设 备基 于 物理层参数数据与端侧业务参数协同,实现高吞吐长距离传输。采用 M e s h 化、立体化拓扑进行组网,全面部署光交叉连接(O X C,O pt i c a l C r o s s-C o nne c t),通过联动 O T N 实现光电协同高效调度。协议优化:针对 R D M A 在广域网中的传输效率问题,优化 R D M A 协议参数,如调整 Q P 数量和块大小,以确保最大吞吐率,适应不同距离和带宽条件下的传输需求。长距 R D M A 是高性能广域算力互联的重要技术基础,它并不是对传统 R o C E或 I nf i ni B a nd 的简单延伸,而是一种从网络架构到端侧协议栈全面协同优化的系统级能力。通过构建全光无损传输网络、优化协议参数、实现光电协同调度与端网信息共享,R D M A 能够实现百公里级范围的无损、高通量传输能力。3.4.1.5 确 定 性 光 电 融 合 技 术当前,国内外大厂正联合推动 I P 支持 Z R ,其背后的驱动力在于 O T N 芯片的发展跟不上 I P 流量的迅猛增长,导致网络运力与算力、数据要素发展不平衡。与 此 同 时,A I 时 代 的 众 多 应 用 场 景 迫 切 需 要 一 个 具 备 确 定 性 的 光 电 融 合 网 络,以满足算网一体、一网多用的需求,实现时延、带宽的全颗粒灵活调配,按需定制。因此,确定性光电融合路由技术应运而生,成为解决当前网络挑战的关键技术之一。紫金山实验室和江苏未来网络集团在该领域取得了重大技术突破,攻克了“I P 光 Z R 技术”、“确定 性网 络技术”以及“C E N I 大网 操作 系统光 电融2 0 2 5 A I 网 络 技 术 白 皮 书4 2合调度技术”三大关键技术,实现了光、电、算深度协同,重构广域网络的架构与控制逻辑。(一)光电融 合光电 融合 的核心 原理 是将 复杂的 多层 网络(W D M、O T N 和分 组传 输层)统一为一个易于控制的层。O T N 的电层功能被 I P 层吸收,路由器直接搭载 400G Z R 可 插拔 相干 光 模块,跳过 传统 O T N 转 发器,直 接 从路 由 器端 口提 供 相干 波 长,让 I P 路由器具备光传输能力,实现 I P 层与光层的紧密协作。这种直接在路由器上发挥光传输功能的做法减少了中间转换环节,提高了传输效率。Z R 采 用 Q SF P-D D 封 装,符 合 O I F(光 互 联 论 坛)协 议,任 何 支 持 开 放 标准的路由器均可搭载,避免了厂商锁定;通过优化光电器件设计和信号处理算法,显著提高了光接收功率范围;引入增强型 o F E C 和优化算法,进一步提升了光接收 的可 靠性 和 传输 距 离,可实 现 超远 距 离无 电中 继 无损 传 输;跳过 O T N 层,路由器直驱光层,使得综合成本大幅降低,同时攻克了长距传输、确定性时延与低成本三大难题。(二)确定性 网络确定性网络作为核心支撑技术,其作用是通过构建可预测、可规划的网络传输 环 境,解 决 跨 区 域 算 力 协 同 中 的 传 输 难 题,满 足 工 业 互 联 网、远 程 医 疗、A I训 练等 场 景对 低 时延、高可 靠 性的 严 苛需 求。通 过采 用 D I P、C SQ F 等 技术,将网络传输划分为周期性时间片,确保确定性业务在固定时间片内传输,实现几乎零丢包、微秒级时延抖动、传输效率大于 90%的高质量网络传输能力。(三)大网操 作系统光电融合技术C E N I 大网 操作 系统支 持用 户根据 业务 需求(如带 宽、时 延、可靠性)动 态调整网络资源,实现“分钟级”网络切片配置,满足不同场景的差异化需求。大2 0 2 5 A I 网 络 技 术 白 皮 书4 3网操作系统光电融合技术通过 SD N 控制器集群,将 I P 路由器、数据中心交换机等异构设备纳入统一资源池,实现跨层资源全局可视与动态调度。同时通过智能编程技术,实现更合理的网络资源规划、业务的自动化开通和可管可控。在实际应用中,确定性光电融合路由技术展现出了卓越的性能。在 C E N I 现网 的 测 试 中,实 现 了 沿 江 2000 公 里 的 远 距 传 输,且 在 400G 满 负 载 的 情 况 下,保持零丢包的无损传输。在运营成本上,通过全颗粒切片和“I P 光”融合调度,全网带宽利用率达到 90%以上,丢包率小于十万分之一,有效减少了网络维护和优化的成本。同时,设备的小型 化和功耗的大幅降低,从 400G 功耗约 330W 降到约 30W,进一步节省了能源消耗和空间占用。3.4.2 超 节 点 计 算 架 构超 节 点(Supe r P o d)是 近 年 来 为 应 对 A I 大 模 型 训 练 与 推 理 需 求 而 发 展 起 来的新型算力基础设施架构,它通过高速互连技术将大量计算单元(如 G P U、T P U、N P U 等)紧密集成,构建一个高带宽域(H B D,H i g h B a ndw i dt h D o m a i n)。具体来说,超节点是指在一个物理机柜或一组紧密耦合的计算单元内部,通过高密度集成计算单元和专用的高速互联技术,实现近似单机性能的超大规模并行计算系统。它旨 在突 破传 统服 务器内 部以 及服 务器 之间 通过 P C I e 或标 准以 太网 互联 的带宽和延迟瓶颈,将数十甚至数百个加速器紧密连接,形成一个逻辑上的超大服务器,以支持张量并行、专家并行等对内部通信要求极高的并行计算任务。超节点计算架构的关键特征包括:高 密度 算 力 集成:在 有限 空 间内 集 成 大量 G P U 或 其他 A I 加 速器,提 供极致的计算密度。高速互联:采用 N V L i nk、I nf i ni B a nd 等高速互联技术,实现 G P U 之间以及 G P U 与网络之间的高带宽、低延迟通信,消除数据传输瓶颈。2 0 2 5 A I 网 络 技 术 白 皮 书4 4 算力 与网络深 度融合:网络不 再仅仅是 数据的 传输通道,而是与 计算紧密结合,实现网络感知计算、网络融合计算,甚至计算重塑网络。例如,在超节点 内 部,通 过 引 入 节 点 内 交 换 芯 片,增 强 卡 间 P 2P 带 宽,有 效 提 升 节 点 内 网 络传输效率。统一 资源管理 与调度:实现计 算、存储 和网络 资源的统 一纳管和 融合路由调度,提升资源利用率和管理效率。当前业界典型的超节点方案包括:(一)英伟达 D G X S u p e r P O D(以 N V L 7 2 为例)英 伟达 作 为 A I 加 速领 域 的 领导 者,其 D G X Supe r P O D 系 列是 业 界 广泛 采 用的 A I 超 级 计 算 平 台。其 中,G B 200 N V L 72 Supe r N o de 是 其 最 新 的 代 表 性 产 品 之一。G B 200 N V L 72 Supe r N o de 将 36 个 G r a c e C P U 和 72 个 B l a c kw e l l G P U 集 成 到一 个 液 冷 机 柜 中。它 采 用“G P U-G P U N V L i nk Sc a l e U p N o de-N o de R D M ASc a l e O ut”的互联方式。图 12 英伟达 D G X Supe r P O D C o m put e T r a y:整个系统包括 18 个 C o m put e T r a y,每个 C o m put e T r a y 包含 2 个 G B 200 超级芯片,每个 G B 200 超级芯片又包含 2 个 B l a c kw e l l B 200 G P U和 1 颗 G r a c e C P U,整个机柜共 72 个 B 200 G P U 和 36 个 G r a c e C P U。通过 N V L i n k2 0 2 5 A I 网 络 技 术 白 皮 书4 5和 N V L i nk-C 2C 技术,实现 G P U 之间以及 G P U 与 C P U 之间的高速内存共享和数据传输。单个 C o m put e T r a y 提供 7.2T B/s(单向 28.8T b/s)带宽,N V L 72 整机柜的 C o m put e T r a y 提供 129.6T B/S 的 N V L i nk 带宽。Sw i t c h T r a y:共包含 9 个 Sw i t c h T r a y,每个 Sw i t c h T r a y 内置 2 颗 N V Sw i t c h芯片,整个机柜提供 18 个 N V L i nk Sw i t c h 芯片。整机柜后部通过线缆将 C o m put eT r a y 和 Sw i t c h T r a y 进行互联。单个 Sw i t c h T r a y 提供 14.4T B/s(单向 57.6T b/s)带宽,N V L 72 整机 柜的 Sw i t c h T r a y 提供 129.6T B/s 的 N V L i nk 带宽。这 样超节 点整机柜 C o m put e T r a y 的 G P U 和 Sw i t c h T r a y 的交换芯片之间就可以实现全连接。Sc a l e U p:N V L 72 内部采用 N V L i nk5 和 N V Sw i t c h 构建 Sc a l e U p 网络,提供极高的带宽(每个 C o m put e T r a y 通过 N V L i nk/N V Sw i t c h 具有 7.2T B/s 的 Sc a l e U p连 接带 宽)和 超低 时 延(铜电 缆 连接 节 省了 光模 块 引入 的 时 延)。所 有 G P U 可以 访 问整 个 超 节 点其 他 G P U 的 H B M 内 存 和 G r a c e C P U 的 D D R 内 存,实 现 统 一内存空间。Sc a l e O ut:通过 C X 8 800G bps R N I C 接入 I nf i ni B a nd R D M A Sc a l e O u t 网络,实 现 多 个 N V L 72 Supe r N o de 组 成 更 大 规 模 的 Supe r P O D(例 如 8 个 D G X G B 200N V L 72 组成一个包含 576 块 B 200 G P U 的 Supe r P O D)。(二)华为 C l o u d M a t r i x 3 8 4C l o udM a t r i x 384 是华为推出的超大规模 A I 超节点解决方案,由 384 颗昇腾910C N P U 芯片通过全连接拓扑结构互联而成。它创新性地提出了对等计算架构,将总线从服务器内部扩展到整机柜甚至跨机柜。2 0 2 5 A I 网 络 技 术 白 皮 书4 6图 13 华为 C l o udM a t r i x 架构 C o m put e T r a y:每个 C o m put e T r a y 包含 8 块 910C N P U,并且内置了 7 个L 1-H C C S-SW 交换芯片(上联 Sc a l e U p) 1 个 C D R 交换芯片(上联 Sc a l e O ut)。910C N P U 采用 C hi pl e t 技术,集成了 2 颗 910B 和 8 颗 H B M 2e 内存,单卡算力达到 F P 16 781.25 T F L O P S,内 存 带 宽 3.2T B/s。每 张 N P U 基 于 H C C S(H i g h-s pe e dC o m put i ng C l us t e r Sy s t e m)G P U-G P U 私有高速互联协议使用 8 个通路分别连接到L 1-H C C S-SW 交换芯片,实现无阻塞带宽收敛比。Sw i t c h T r a y:每个 Sw i t c h T r a y(C l o udE ng i ne 16800 交换机)有 16 个业务槽,每个业务槽最大支持 48 个 400G 接口,整机支持 768 个 400G 接口。采用单层扁平化拓扑,构建 N P U 全互连(A l l-t o-A l l)拓扑结构,消除传统网络的带宽瓶颈。Sc a l e U p:C l o udM a t r i x 384 的 Sc a l e U p 带 宽 高 达 269T B/s,是 N V L 72 的2.1 倍。因 物 理 距 离 限 制,采 用 400G 低 功 耗 光 模 块(L P O),省 略 了 传 统 D S P芯片以降低时延和功耗。Sc a l e O ut:采用 Spi ne-L e a f 8 导轨拓扑,通过 400G 光模块构建 Sc a l e O u t网络,实现超节点间的互联,总带宽是 N V I D I A N V L 72 的 5.3 倍。2 0 2 5 A I 网 络 技 术 白 皮 书4 7(三)E T H-X由 O D C C 牵头,联合中国信通院、腾讯等单位发起的 E T H-X 项目可以支持单个 超节点 64 卡的 计算能力,和英 伟达的私 有 N V L i nk 方案 不同,E T H-X 采用更为开放的 R o C E 方案。C o m put e T r a y:每 个 C o m put e T r a y 包 含 4 张 G P U 和 1 个 X 86 C P U,C P U和 G P U 之间通过 P C I e Sw i t c h 对接。整个机柜共 64 张 G P U。同时每个 C o m put e T r a y提供 4 个 N I C 用于 Sc a l e O ut 方向的扩展。Sw i t c h T r a y:每 个 Sw i t c h T r a y 包 含 1 颗 支 持 R o C E 的 高 性 能 51.2T bps 以太网交换芯片,整个机柜提供 8 个 Sw i t c h 芯片。G P U 和 Sw i t c h 芯片支持 100G s e r de s。E T H-X 整机柜 G P U 互联带宽为 204.8T bps。8 个 Sw i t c h T r a y 支持 409.6T bp s的 带 宽,一 半 用 于 超 节 点 柜 内 连 接 G P U,另 一 半 的 带 宽 用 于 背 靠 背 连 接 旁 边 机柜 的超 节点 或 者通 过 L 2 H B Sw i t c h 做 更大 的 H B D 域 Sc a l e U p 扩 展。I nt e l G a udi 3G P U 提供 4.8T bps 的带宽,整个超节点 机柜需要 12 个 Sw i t c h T r a y。E T H-X 也支持 Sw i t c h T r a y 没 有 外 部 Sc a l e U p 扩 展 口 的 方 案,所 有 s e r de s 连 接 都 用 于 柜 内 互联,只需要 4 个 2U 高的 Sw i t c h T r a y。3.4.3 6 G 与 A I 网 络 协 同作 为下 一代 移动 通信 技 术的 核心 方向,6G 网 络不 仅聚 焦更 高的 速 率与 更广的覆盖,还被寄予原生智能化的期望。因此,6G 与 A I 网络的协同已成为未来网络架构演进的关键议题,两者之间的深度融合,将催生出全新的智能算力网络范式。从应用需求看,A I 网络对 6G 的核心诉求可归纳为:极致低时延与确定性服务:面向训推场景中跨设备、跨地域的实时数据同步,A I 网络要求网络能够提供亚毫秒级端到端通信延迟,且具备微抖动和高稳定性;2 0 2 5 A I 网 络 技 术 白 皮 书4 8分 布 式 资 源 感 知 与 协 同 调 度 能 力:A I 网 络 的 计 算 资 源 呈 异 构、跨 域 分 布,6G 网络需具备原生的资源发现 路径匹配带宽调配能力,支撑 A I 训练作业或推理服务在边、云间高效调度;原 生 多 模 态 感 知 能 力:A I 网 络 中 的 数 据 流 不 再 局 限 于 传 统 结 构 化 报 文,而是包含音频、视频、文本等多种模态,要求底层通信系统具备识别、分类、加速与编解码优化等多模态协同能力。这些特性构成了 6G 网络演进的目标边界,从通道能力迈向智能算力基础设施的融合平台。反过来看,6G 网络本身的架构演进也将深度嵌入 A I 技术,通过A I 网 络 的 协 同 赋 能,实 现 从 连 接 中 心 向 智 能 中 心 的 范 式 转 变。其 技 术 路 径 主 要体现在以下层面:网络架构智能化:6G 架构在设计之初就引入 A I 控制与协同模块,网络控制平面使用深度强化学习进行路由、频谱调度与功率控制;数据平面支持边缘推理节点进行本地智能处理;引入智能控制代理,模拟复杂拓扑行为,优化资源编排。通 信计 算融 合:6G 网 络不 再将 通信 与算 力 视作 割裂 系统,而 是构 建 通信 即计算 架构。在 边缘节点 集成 A I 推理 能力,实 现边学边 用;在链 路层引 入联合编码/压缩感知机制,减少跨域通信负载。A I 网 络 与 6G 协 同:A I 网 络 可 感 知 底 层 链 路 负 载、拓 扑 变 化,实 时 调 整 并行 粒 度 或 模 型 切 片 方 式;6G 网 络 可 根 据 A I 作 业 级 SL A 需 求(如 延 迟、吞 吐、能耗)主动执行路径调度、Q o S 区分与任务迁移。6G 与 A I 网络协同并非简单的通信和算法组合,而是面向未来智能社会的核心基础设施重构。二者的融合,将打造真正意义上的智能可编程网络,支撑大模型、数字孪生、类脑计算等未来 A I 应用的高效运行。2 0 2 5 A I 网 络 技 术 白 皮 书4 9第 4 章 N e t w o r k f o r A I 典 型 应 用 实 践本章精选行业领先的 N e t w o r k f o r A I 应用案例,全面覆盖大规模 A I 模型训练、实时推理等关键场景,并延伸至智能制造、智慧教学等垂直领域。通过深度解构这些 案例的技 术架构,揭示其如 何实现 网络性能 与 A I 需求 的精准匹 配,提炼 可复制、可推广的落地方法论,为行业提供兼具前瞻性与实操性的参考范式。4.1 移动云新型 智算网络架构移 动 云 新 型 智 算 网 络 架 构 H P N 1.0 面 向 超 大 规 模 A I 集 群 通 信 场 景,采 用 开放以太网技术路线,通过自主研发的高性能交换设备与 F A R E(全自适应路由以太网)协议,突破了传统以太网在集合通信场景下的负载均衡瓶颈,实现带宽利用率和训练效率的双提升,满足智算中心大模型训练与推理场景对高吞吐、低延迟、高可靠的极致要求。(1)Sc a l e O ut 网络图 14 移动云十万卡集群智算网络架构 架构创新:采用三层 C L O S 多轨道组网,单 P o D 支持多达 6 万张 G P U 服务器互联,收敛比达到 15:1,多轨道设计最大化机内网络与机外网络的协同能力,减少跨层通信,降低了整体网络延迟;2 0 2 5 A I 网 络 技 术 白 皮 书5 0 协议突破:F A R E 协议针对 A I 训练中流数少、单流大、高并发的流量特征,支持多路径包喷洒机制,带宽利用率可达 95%以上;极致性能:基于 51.2T 芯片自主研发磐石智算交换机,单台 8 卡 G P U 服务器支持 3.2T bps 的超高接入带宽;通过流量转发路径的优化、精准流控等手段的综合运用,确保端到端延迟在 10 微秒范围内。(2)Sc a l e U p 网络采基于开放以太网技术路线,实现面向超节点的 Sc a l e U p 网络,支持几十卡到上千卡超节点规模,卡间带宽高达 800G B/s,远高于 P C I e G e n5 的 128G B/s。图 15 移动云 1024 卡超节点 硬件 开放:超 节点采用 全开放 硬件架构,计算 与交换节 点采用标 准化机型,风冷和液冷灵活配置,单机柜功耗在 4060kW 范围,可以同时适用于训练和推理场景;协 议 适 配:基 于优 化 的 R o C E 协 议 实 现 远 端 内存 访 问,同 时 通 过 适 配 层支持内存语义访问,兼容 A I 大模型训练通信需求;性能指标:跨 G P U 远端访问延迟控制在 300 纳秒以内。2 0 2 5 A I 网 络 技 术 白 皮 书5 1H P N 1.0 通 过积 木式 模块 化设 计设 计思 路,采用 高度 标准 化的、跨 不同 厂商的 G P U 服务器(如 8 卡风冷或液冷 G P U 服务器)与智算交换机(如 51.2T 风冷或液冷智算交换机),通过标准的 A E C 有源铜缆及光纤互联构成。目前移动云新型智算网络架构 H P N 1.0 已在实际智算中心项目中完成落地验证,通 过采 用 标准 化 G P U 服 务器 与开 放 交换 设 备,构建 了 高带 宽、低 延迟 的 智算集群网络,具备快速部署、按需扩展、稳定运行等优势。项目实现了千卡规模的超节点部署,训练效率与网络性能表现优异,展现出良好的工程可复制性与多场景适配能力,为后续多地算力基础设施建设提供了可推广的技术范式。4.2 天翼云智算 项目在生 成式 A I 大模 型驱动下,教育、医疗、汽车等 行业加速 应用落地。天翼云 顺应 A I 发 展趋 势,布 局 大规 模 G P U 智 算资 源 池,重 点构 建 高性 能 A I 训 练集群网络。(1)核心架构与协议图 16:天翼云智算项目核心架构2 0 2 5 A I 网 络 技 术 白 皮 书5 2项目采用多平面物理组网,聚焦参数面网络实现分布式训练参数同步,构建高带宽、低延迟的 A I 训练集群:底层协 议栈:选用 R o C E v 2 协议,实现 R D M A 在以太 网网络中的 传输,仅使用 I B 的“轻量级”传输层,降低设备成本与网络环境需求。无损以太网络:R o C E v 2 使用 U D P 头部来封装 R D M A 相关协议栈内容,结合二层 P F C P a us e 帧与三层 E C N 标记,确保流量低时延、无损转发。(2)硬件选型:L e a f 层采用华为 4 槽 C E 9860 盒式交换机(8400G E 接口);Spi ne 层 选 用 华 为 8 槽 C E 16808/16 槽 C E 16816 框 式 交 换 机(36 400G端口);G P U 服务器搭载昇腾 910B 芯片。(3)组网设计参数面和样本面采用二层 C l o s 架构,Spi ne 与 L e a f 采用 F ul l-M e s h 全互联,运行 e B G P 协议。参数面:服务器使用 8*200G 接口,单轨接入 L e a f 交换机。L e a f 交换机通过32200G 端口下行连接服务器,采用 Y 型一分二线缆与服务器 200G 接口对接,共接入 4 台服务器。其中,单台服务器通过 8 个 200G 网口连接至一台 L e a f 交换机,8 个网口分别配置独立的 I P 地址。L e a f 交换机通过 16400G 端口上行连接至 Spi ne 交换机,Spi ne 交换机端口扇出决定了 A I 集群规模。例如万卡集群需要至 少 313 台 L e a f 接 入,则 选 用 16 台 16 槽 的 框 式 交 换 机,且 单 台 Spi ne 设 备 的400G 端口数大于 313。2 0 2 5 A I 网 络 技 术 白 皮 书5 3样 本 面:服 务 器 使 用 2*100G 双 口 接 入 两 台 L e a f 交 换 机,对 于 G P U 服 务 器的 接入,bo nd 采 用 m o de 1 主 备方 式,对于 H P F S 存 储服 务 器,由 于 可 以运 行 自研 操 作 系 统,实 现 a r p 双 发,接 入 设 计 上 采 用 去 堆 叠 方 案,服 务 器 bo nd 模 式 使用 m o de 4。样本 面 L e a f 交 换机 采用 32 100G 端 口形 态,Spi ne 采 用插 卡框 机,两台 L e a f 设备为一组构成一个 bl o c k,一个 bl o c k 可接入 16 台服务器。样本面的存储服务器和计算服务器之间按照比例配置。业务面:智算业务面接入基于天翼云 4.0 架构设计的通算资源池,服务器采用 2*25G 紫金 D P U,并上联接入天翼云自研交换机。4.3 阿里云 H P N 7.0 新型智算网 络阿 里 云 H P N 7.0 是 面 向 A I 大 模 型 训 练 场 景 设 计 的 智 算 网 络 架 构,其 核 心 目标 是通 过创 新 的拓 扑 设计、多 路 径冗 余 和自 研通 信 技术,解决 万卡 级 G P U 集 群的高性能、高稳定性及可扩展性挑战。(1)架构设计采 用“双 上 联 多 轨 双 平 面”设 计。这 种 设 计 能 确 保 网 络 在 超 高 负 载 下 仍保持高效、稳定运行,满足 A I 大模型对计算资源的高需求。图 1 7 阿里云 H P N 架构双 上联:每台 G P U 服 务器 配 备双 物 理网 卡(或 单 网卡 双 端口),分 别 连接至 不 同 L e a f 交 换 机,形 成 冗 余 路 径。这 种 设 计 提 高 了 网 络 的 可 靠 性 和 性 能,确2 0 2 5 A I 网 络 技 术 白 皮 书5 4保在任一上联链路或接入层交换机发生故障时,网络流量能够自动切换至另一端口,保障训练任务的连续性和稳定性。多 轨:允 许多 个 数据 流 并行 传 输,增 加了 网 络吞 吐 量。每 个 G P U 都 与多 张高 性能 网卡 相 连,通 过多 轨通 信 技术 实 现集 群内 G P U 的 全互 联,优 化了 长 尾时延,为大规模集群计算提供了更加高效和稳定的网络通信支持。双平面:通过双平面转发机制,将网络流量均匀分配至两个独立的网络平面,降低了哈希极化现象的发生概率,优化了网络流量的分配效率和网络的整体性能。硬件配置:配备 51.2T bps 单芯片以太网交换机和 400G 高性能网卡,可实现单层 千卡、两 层万卡的 高性能和 高稳定 性互联,为 A I 大模 型的训练 及推理提 供强大的硬件支撑。(2)关键技术So l a r-R D M A 协议:是一种基于 R D M A 的通信协议,能够实现数据的快速传输和高效处理,可在大规模分布式系统中实现低延迟、高带宽的数据传输,确保A I 大模型的高效运行。So l a r-R D M A 还提供了高精度拥塞控制算法,结合网络负载的动态感知,能够实现对数据流级别的精细控制。A C C L 通信库:是阿里云针对 A I 计算场景专门设计的通信库,优化了 A I 计算过程中的数据传输和同步操作,能显著提升计算的效率和稳定性,为大模型提供稳定可靠的网络通信支持。自 2023 年 9 月大规模部署以来,H P N 7.0 在大模型训练性能方面表现卓越,与上一代架构相比,在典型场景下实现了高达 14.9%的性能飞跃。阿里云通义千问 2.5 版本 大模 型就 是基 于 H P N 7.0 高性 能网 络集 群训 练而 成,其中 文性 能全 面赶超 G P T-4 T ur bo。2 0 2 5 A I 网 络 技 术 白 皮 书5 5目 前阿 里云 已经 推出 了 下 一代 训推 一体 融合 网络 架构 H P N 8.0,旨在 支撑 万卡到 几十 万卡 的超 大规 模智 算集 群。H P N 8.0 采用 全自 研软 硬件 系统,硬 件上 包括 102.4T 大 芯 片 交 换 机、自 研 400G/800G/1600G 光 模 块 与 硅 光 芯 片 等;软 件 上涵盖 A C C L 通信库(拓展至适配多场景)、N i m i t z 容器网络、St e l l a r-R D M A 协议栈 等。架 构 设 计上,B a c k-e nd G P U 互 联 网络 通 过 带宽 升 级、多平 面 扩 展及 协 议增强,支持规模扩大 8 倍和跨地域互联;F r o nt-e n d 网络则实现 N 10 万级别 G P U规模覆盖与 A Z 内全互联,对接 V P C 和存储系统。整体凭借超大集群支持、低时延高可靠及全场景适配等优势,进一步突破 A I 智算的网络瓶颈,为超大规模 A I集群提供核心支撑。4.4 奇异摩尔 A I N e t w or k i n g 全栈解决方 案奇异摩尔成立于 2021 年初,依托高性能 R D M A、网络控制和 C hi pl e t 等核心技术,构建基于开放生态的统一互联架构 K i w i F a br i c,为超大规模 A I 智算芯片/平台提供高性能互联产品及解决方案。奇 异 摩 尔 开 放 统 一 架 构 K i w i F a br i c 的 A I N e t w o r ki ng 全 栈 解 决 方 案,覆 盖 从数据中心级网间互联、芯片级片间互联到芯片内部的深度互联。其核心优势在于:图 18 奇异摩尔 A I N e t w o r ki ng 全栈解决方案2 0 2 5 A I 网 络 技 术 白 皮 书5 6(1)Sc a l e O ut 网间互联:专为 A I 原生定制的超级网卡K i w i SN I C A I 原 生 超 级 网 卡 适 用 于 A I 大 模 型 训 推 集 群 的 北 向 网 络 互 联(网间互联)。产品基于以 太网和下一代 高性能 R D M A 技术,内 建高性能 R D M A 数据传输引擎和 自适应网络调度算法,可 实现 T b 级高速互联、和十万卡级网络拓扑。(2)Sc a l e U p 片间互联:构筑 A I 网络超节点的互联芯粒K i w i G 2G I O D i e 超 节 点 互 联 芯 粒 是 国 内 少 有 的 开 源&通 用 化 超 节 点 互 联 方案;该产品为 C hi pl e t 形态,通过先进封装集成在 X P U 计算芯片内,通过网络接口 和 交 换 机 互 联,支 持 1K A I 网 络 超 节 点,实 现 x P U 芯 片 间 的 T B 级 超 高 速 互联。芯粒内建高性能数据传输引擎和可编程网络控制引擎,支持内存和消息双语义,多种超节点协议,多种拓扑结构。(3)Sc a l e-I ns i de 芯片内互联:破局算力瓶颈,打造高性能芯片K i w i C e nt r a l I O D&3D ba s e D i e 属于行业前沿的 C hi pl e t 芯粒产品;分别对标A M D Z e n 系 列 C P U I O 芯 粒 以 及 I nt e l M e t o r L a ke 异 构 芯 片 内 B a s e D i e(基 于 3D先进封装)。4.5 第一线助力 教育企业私域 A I 落地方案某 教 育 企 业 拥 有 超 300T B 的 多 元 数 据,亟 需 构 建 私 域 空 间 实 现 数 据 存 储、模型训练与部署。第一线 D Y X ne t 为其打造私有向量数据库知识库,结合隐私计算算力完成模型微调,确保数据全流程本地化处理。同时,通过打通企业原有存储与 边缘节点,构建安 全互联网 络,调度 64 台算 力资源完 成模型训 练,并快 速切换至分布 式推理资源,依托 100G bps 高速 A I 内网,实现 数据远程训练与模 型分布 式部署,最终将新 模型部署 至公网 服务用户。第一线 通过 A I 原生 超互联总线架构,为方案提供技术支撑:2 0 2 5 A I 网 络 技 术 白 皮 书5 7图 19 第一线 A I 原生超互联总线架构 网络接入与核心链路:接入侧支持多终端差异化接入,如家庭/企业通过全光直连/F 5G、移动终端通过 5G 网络切片接入;核心层与运营商协作打通关键链路,实现高速安全组网;管理层将园区网络控制面向上迁移,结合区块链技术支持企业整体私域网络管理,简化运维。底层安全隔离:采用 V X L A N、F l e x E、SR v 6 等技术,基于用户维度隔离网络,结合数字身份与密码学,保障数据传输与存储安全。广域 网优化:融合生态 伙伴方 案,运用 加密流 识别与智 能调度技 术,精准处理智算业务,实现千万级流量均衡调度,提升网络吞吐与传输可靠性。远程 R D M A 创新:在架构中应用远程 R D M A 协议,大幅提升数据传输与模型训练效率,如 2000 公里以上传输速度达 T C P 的 20 倍,10km 节点协同训练差距控制在 2%以内。无盘 隐私计算:计算服 务器采 用无盘设 计,数 据算后即 清,通过 动态私有连接与内存计算,确保数据仅存在于当前计算空间,保障隐私安全。2 0 2 5 A I 网 络 技 术 白 皮 书5 84.6 微众银行金 融级智算 A I 网络建设与 实践方案在 人 工 智 能 驱 动 行 业 变 革 的 浪 潮 中,微 众 银 行 率 先 提 出 向“A I 原 生 银 行”转型 的战略目 标,构建 了覆盖 A I 基础 设施、应 用与治理 的三层能 力体系。面对大模 型时代算 力网络的 核心挑战,微众银 行于 2025 年推 出金融业 首款自研 交换机 W B 3000,打造“白盒硬件 开源系统 自研智能管控”全栈自主可控的智算网络解 决方案,为千卡级 A I 训练 与推理提 供高速网 络底座,助力金 融服务迈 向智能化新阶段。微众银行以分层解耦架构破局,实现性能与自主可控的双重突破:图 20 微众银行 A I 智算网络 硬 件 层 革 新:基 于 国 产 12.8T 交 换 芯 片 与 信 创 C P U 打 造 白 盒 交 换 机W B 3000,支 持 32 个 400G 端口 和 1.6T R D M A 接入 能力,适 配主流 G P U/N P U 算力卡。通过核 心部件 100%国产 化与非核 心部件替 代清单,建网成 本降低 70%,打破商用方案垄断;系 统 层 创新:基 于 开 源 SO N i C 深 度 定 制 W e N O S 网 络 操 作系 统,首 创 链路级负载分担组件 L i nk-SL B。通过预配置确定性哈希路径解决 E C M P 拥塞问题,2 0 2 5 A I 网 络 技 术 白 皮 书5 9实测集合通信带宽提升 40%,并实现毫秒级故障切换。微众银行由此成为全球首家入选 SO N i C 贡献组织的金融机构;智能管控突破:自研管控系统融合 T e l e m e t r y 秒级采集与 s F l o w 流量分析,实时 感知端口 拥塞并自 动调度至 最优路 径。结合 A I 训练 任务动态 回收策略,构建“采集-定位-调度-回收”全闭环智能运维体系,大幅降低人工干预需求。4.7 益思芯创新 智能网卡解决方案益思芯科技精准切入制约 A I 集群效率的诸多痛点,打造了全系列基于 F P G A的智能网卡产品,为 A I 场景提供强大网络加速引擎。其技术核心在于 P 4 可编程网络处理能力与深度硬件卸载架构:创新的自主知识产权 D SA P 4 引擎支持灵活定制 A I 工作流,实现网络功能的动态优化;全 硬 件 加 速 的 R o C E v 2 引 擎 为 A I/H P C 集 群 提 供 超 低 延 迟 R D M A 网 络,突破跨节点通信性能限制;云 原 生 N V M e-o F 共 享 存 储 加 速 引 擎 则 通 过 硬 件 卸 载 N V M e 协 议,将 本地存储的高性能扩展至网络共享环境,大幅提升分布式 A I 训练的数据吞吐效率。益思芯产品如 St a r g a t e-R 2100 R D M A 智能网卡(2x 100G)及 St a r g a t e-S110 0存储 加速卡,已在云厂 商和智算 中心实 际部署,验证了其 在 A I 模型 训练与大 数据分析场景中显著降低时延、提升带宽利用率的实效。该方案的优势不仅在于单卡性能,其完整的智能网卡产品线覆盖从 25G 到 100G,全面对标国际领先水平,更 构 建 了 面 向 A I 的 开 放 生 态,无 缝 集 成 D P D K/SP D K 开 源 库,支 持 云 原 生 驱 动及国 密安全算 法,为 A I 基础 设施提供 从网络通 信、存储 访问到 数据安全 的端到端加速。2 0 2 5 A I 网 络 技 术 白 皮 书6 0第 5 章 N e t w o r k f o r A I 未 来 发 展 及 展 望本 章 前 瞻 性 探 讨 N e t w o r k f o r A I 未 来 发 展 趋 势,为 产 业 发 展 提 供 战 略 性 思 考与展望。5.1 未来发展趋 势(一)网络与 计算深度融合网络与计算的深度融合将成为推动 A I 发展的关键力量。随着 A I 应用的不断拓展,数据传输与处理的实时性需求愈发迫切,促使网络从单纯的数据载体向具备强大计算能力的智能平台转变。网络边缘将具备实时处理海量数据的能力,减少数据传输延迟,推动自动驾驶、工业互联网等时延敏感的应用走向成熟。计算与网络的深度融合,将实现算力资源的动态调配与高效利用,用户通过网络即可便捷获取所需算力,加速 A I 应用的落地与普及。(二)A I 网络定制化演 进网 络 将 针 对 A I 应 用 的 多 样 化 需 求,构 建 更 具 适 配 性 的 支 撑 体 系。针 对 A I训练阶段对海量数据传输的需求,网络将通过优化传输协议、提升带宽利用率,实现 大规模数 据集的高 效分发与 同步,缩短模型 训练周期。对于 A I 推理 场景,网络会重点保障低时延与高可靠性,通过动态调整路由策略、优先调度推理请求等方式,确保实时交互类 A I 应用的流畅运行。同时,网络将建立弹性伸缩机制,根据 A I 任务的算力需求变化,自动调整资源分配,为 A I 模型的迭代优化和规模化部署提供稳定、高效的底层支撑。(三)生态开 放与协同创新生态的开放与协同创新是未来发展的核心驱动力。硬件层面,各厂商联合研发适配 A I 计算与网络传输的高性能硬件,提升系统整体性能与效率。软件方面,2 0 2 5 A I 网 络 技 术 白 皮 书6 1开源 社区汇聚 全球开发 者智慧,加速 A I 框架、算法与 网络协议 的创新迭 代,推动 技 术 的 快 速 发 展 与 广 泛 应 用。跨 行 业 的 深 度 合 作 将 催 生 更 多 创 新 应 用,利 用A I 网络提升服务质量与效率,促进社会各领域的数字化、智能化转型。(四)绿色低 碳网络基础设施绿色低碳的网络基础设施将成为未来发展的重要方向。主要路径包括:架构级 节 能,通 过去 中 心 化 算 力 调 度、液 冷/自 然 冷 却 技 术、高 集 成 度 设 备 降 低 基 础能耗;全生命周期绿色化,从芯片设计、设备制造、到数据中心规划贯彻绿色理念;同时,加大对太阳能、风能等可再生能源的利用,为网络基础设施提供可持续的能源支持,助力实现网络发展与环境保护的双赢。5.2 未来展望及 建议(一)对技术 研发的建议(1)推 动网络赋 能 A I 的技 术标准化 与模块 化:制 定网络支 撑 A I 应用 的通用技 术标准,明确实时 推理、大 规模训 练、分布 式协同等 不同 A I 场景 下的网络性能量化指标,统一接口协议与数据交互格式。同时,研发模块化的网络功能组件,如可插拔的 A I 任务适配模块、标准化的资源调度插件等,让不同行业的 A I开发者能快速调用网络功能,无需关注底层技术细节。通过标准化与模块化降低技术适配成本,加速网络赋能 A I 的规模化落地。(2)突破关键技术瓶颈:针对 A I 网络中的算力、存储、传输等关键环节,持续投入研发,突破性能瓶颈。例如,研发面向 A I 计算的专用网络芯片和设备,提升网络传输带宽和降低时延;探索新型网络架构,如光电融合网络、量子网络等,为 A I 应用提供更强大的基础设施支撑。此外,还需关注 A I 模型的小型化、轻量化技术,使其能够在边缘设备上高效运行。2 0 2 5 A I 网 络 技 术 白 皮 书6 2(3)注重跨领域技术协同创新:打破网络技术与 A I 研发、垂直行业应用之间的壁垒,搭建集技术研发、测试验证、成果转化于一体的协同平台。推动网络通信专家、人工智能专家、行业应用开发者共同参与,联合定义网络需求指标,协作开发适配性技术方案。例如,在工业 A I 领域,网络团队与制造业专家合作,根据 生产线的 实时性要 求定制低 时延网 络协议,同时结合 A I 算法 优化设备 数据的采集与传输策略,实现技术创新与行业需求的精准对接。(二)对产业 发展的建议(1)构 建开放共 赢的产业 生态:鼓 励产业链 上下游企 业加强 合作,共 同打造开放、协同、共赢的 A I 网络产业生态系统。支持开源社区发展,推动 A I 网络相关技术标准和规范的制定,降低技术门槛,促进技术普及和应用。通过建立产业联盟、合作平台等形式,汇聚各方力量,共同推动产业创新和发展。(2)拓展多元化应用场景:推动 A I 技术与实体经济深度融合。例如,在智能制造、智慧城市、自动驾驶、医疗健康等领域,结合具体业务需求,开发定制化的 A I 网络 解决方案,创造新 的商业模 式和增 长点。通 过示范项 目和标杆 案例的推广,加速 A I 网络技术的普及和应用。(3)加强国际交流与合作:积极参与全球 A I 网络技术标准和产业发展规则的制定,提升我国在国际 A I 网络领域的影响力。鼓励国内企业与国际领先企业、研究机构开展技术交流和项目合作,共同应对全球性挑战,实现互利共赢。2 0 2 5 A I 网 络 技 术 白 皮 书6 3第 二 部 分 A I f o r N e t w o r k:A I 赋 能 的 网 络智 能 化 升 级第 6 章 A I 驱 动 的 网 络 智 能 化 发 展在数字化转型纵深推进的背景下,网络作为连接物理世界与数字世界的核心枢纽,正面临规模与复杂度增长、业务需求多元化、安全威胁复杂化等多重挑战。传 统 依 赖 人 工 配 置 的 静 态 网 络 架 构 与 被 动 响 应 式 运 维 模 式 已 难 以 支 撑 动 态 异 构的网络环境运行需求。这一矛盾驱使网络技术范式发生本质跃迁,从以连通性为核心的连接型网络,向以认知自治为目标的智能型网络跨越。本章将系统剖析网络智 能化发展 的内在驱 动力 和 升级 流程,为 全面理解 A I 赋能 网络的深 层逻辑与未来愿景奠定理论框架。6.1 网络管理的 挑战(一)网络规 模与复杂度持续增长随着 5G/6G、物联网、大数据等技术的快速发展和广泛应用,全球网络规模正呈现爆发式增长。网络所承载的业务类型、服务对象、接入设备均向多元化演进,这种规模和复杂度的激增导致网络拓扑日趋繁杂、协议种类愈发多样、人工管理配置难度呈指数级增长。因此,如何有效应对日益增长的网络复杂性,已成为推动网络智能化升级的首要驱动力。(二)运维效 率与成本控制压力网络规模的持续扩大与架构的日益复杂,使得传统运维陷入效率与成本的双重困境。传统以人工为主、依赖静态规则和专家经验的运维模式,响应速度慢、故障定位时间长且需要投入大量专业人力,在面对海量告警、复杂故障和动态业2 0 2 5 A I 网 络 技 术 白 皮 书6 4务需求时,已显得力不从心。运维效率滞后、成本高昂与服务质量不稳定的矛盾愈发突出。为突破这一困境,网络运维亟需从事后救火的被动响应模式转向事前预警的主动防御体系,从人工干预转向自动化智能化范式,以实现网络资源的优化配置和高效利用。(三)业务体 验与网络性能优化需求在数字化时代,用户对网络服务的期望越来越高,对业务体验的感知也越来越敏感。在线游戏、自动驾驶、工业互联网等业务对网络带宽、时延、抖动和可靠性提出了极致要求。传统网络在面对突发流量、局部拥塞或设备故障时,往往难以快速响应并进行自适应调整,从而导致业务体验下降、卡顿甚至中断。智能化网络能够实时感知业务流量特征,精准识别应用类型,并通过智能流量调度和动态路径规划等技术,将资源按需实时地分配给最需要的业务,从而确保关键业务的极致体验。(四)安全威 胁防护的智能化需求网络边界的模糊化和攻击手段的多样化,使得网络安全防护面临严峻挑战。高级持续性威胁、零日漏洞、分布式拒绝服务攻击等新型网络攻击具有隐蔽性强、传播速度快、破坏力大等特点。为了有效应对不断演变的安全威胁,网络安全防护需要从静态防御向动态感知和自动化响应转变。这种智能化的安全能力可以更快地发现未知威胁,自动执行隔离和阻断策略,构建起一个能够自我学习、自我适应的动态安全防护体系。6.2 网络智能化 演进体系在网络智能化演进浪潮中,业界普遍采纳了自智网络等级划分的评估体系,等级越高代表网络的自动化和智能化程度越强,这一标准为网络智能化的发展提供了清晰的演进路径和目标。2 0 2 5 A I 网 络 技 术 白 皮 书6 5图 21 自智网络等级划分 L 0 人工运维:这是网络运维的最初阶段,系统仅能提供基础的辅助监控功能,所有关键操作,无论是配置下发还是状态查询,都完全依赖人工通过命令行完成。网络管理效率极低,且极易因人为操作失误引发各类问题,难以适应网络规模扩大的基本需求。L 1 辅助运维:针对网络运维中具有明确规则、重复性高的任务,通过专门的工具或脚本实现批量操作。这一阶段借助工具,在一定程度上减轻了人工负担,提高了网络运维管理工作的执行效率和用户对网络管理的感知效率,但本质上仍依赖人工定义的规则,智能化程度有限。L 2 部分自智网络:系统能够依据人工预先定义的策略,辅助用户实现部分网络运营管理工作流程的闭环操作,最终的决策权力仍掌握在用户手中。网络在部分场景下展现出一定的自主性,但整体仍受限于人工设定的框架。L 3 条件自智网络:系统的智能化分析能力得到显著提升,可以自动感知网络状态与资源信息,还具备事前评估、事后自动验收以及问题自动定位等能力。基于人工定义的闭环自动化策略,系统能够实现部分特定场景的闭环管理,网络自主性进一步增强。L 4 高 度 自智 网 络:相 较 于 L 3 阶 段,其 网 络 智能 化 程 度 实现 了 跨 越式 提升。系统能够主动感知网元及整个网络的状态,通过趋势分析预判潜在风险,并主动采取优化措施,确保网络持续满足业务需求。2 0 2 5 A I 网 络 技 术 白 皮 书6 6 L 5 完全自智网络:这是自智网络发展的终极目标。此时的网络能够实现完全自主运行,无需任何人工干预,系统具备完全自主的决策能力,可实现自我演进、自我适应、自我修复和自我优化。当 前,自 智 网 络 产 业 正 处 于 从 L 3 条 件 自 智 网 络 加 速 迈 向 崭 新 的 L 4 高 度 自智网络的阶段。根据 T M F o r um 的评估,全球 91%的运营商已制定自智网络长期战略并追加投资,70%的通信服务提供商将投资网络基础设施,以实现自动化。自智网络产 业白皮书 6.0中明确提出 面向 2030 年分两个阶段 实现 L 4 目标:2025 年到 2027 年实 现单域“维优 营”场景 自智闭环,2028 年到 2030 年实 现跨域复杂场景端到端闭环。中国三大运营商更是进一步聚焦于高度自智网络的顶层设 计,计 划 在 2025 年 初步 实 现 高价 值 场 景的 L 4 高 度 自 智目 标。L 4 自 智网 络 的核心特征主要体现在以下几个方面:意图 驱动:网 络能够精 准理解 用户或特 定业务 的高阶意 图,并将 这些意图自动、智能地分解转化为网络可执行的低阶策略和指令,整个过程无需人工干预翻译,即可驱动业务目标的实现。全生 命周期闭 环控制能 力:系 统能够对 网络状 态进行实 时监测,结合智能根因分析做出自主决策并执行,形成涵盖规划、部署、运维、优化等网络全生命周期的端到端闭环控制,大幅提升网络管理的效率和精准度。跨域协同与优化能力:L 4 自智网络能够有效协同和优化不同网络域的资源和功能,打破了传统网络管理的壁垒,实现了网络全局最优配置。预测性维护与自愈能力:借助大数据分析和 A I 模型,系统具备强大的预测能力,能够预判潜在的网络故障和性能劣化趋势,并主动采取预防措施或自主进行修复。6.3 网络智能化 升级流程2 0 2 5 A I 网 络 技 术 白 皮 书6 7网络 的智能化 升级是 一个以 A I 技术 为核心驱 动力,通过“全域 感知、智 能分析、自主决策、执行与保障”四个阶段形成完整闭环的动态演进过程。这一流程从 对网络全 域状态的 精准感知 入手,依托 A I 智能 算法对海 量数据进 行深度分析与挖掘,进而基于分析结果生成最优化的网络控制策略与资源调度方案,随后精准、自动化地实施决策指令,动态调整网络行为,同时辅以全流程的隐私保护,环环相扣、持续迭代,最终实现网络的智能化跨越。6.3.1 全 域 感 知全域感知是网络智能化升级的基石,通过对网络中的设备状态、网络流量、环境状态等进行全方位、实时的数据采集和状态监测,为后续的分析、决策、执行提供数据支撑。网络流量是网络运行状态的直接反映。传统流量分析依赖端口、协议等静态特 征,难 以 应 对 复 杂 网 络 环 境 和 加 密 流 量 挑 战。A I 的 引 入,特 别 是 机 器 学 习 和深度学习算法的应用,使得网络能够从海量的流量数据中自动学习和提取高维特征,从而实现对流量模式的智能识别、异常行为的精准检测以及应用类型的细粒度分类。时空数据进一步丰富了感知的维度。网络是一个不断演化的复杂系统,其状态不仅随空间变化,也随时间演进。时空序列预测模型和时空图神经网络(ST G N N,Spa t i o-T e m po r a l G r a ph N e ur a l N e t w o r k)等技术能够捕捉数据随时间、空间演进的依赖关系,通过对历史数据的学习,精准识别正常波动与异常模式,揭示网络行为的内在规律,预测潜在风险。在网络持续运行的过程中,会实时生成海量且异构的数据类型,这些数据呈现出非结构化、结构化、时序化、图形化等不同模态特征,单一模态数据的孤立分析往往只能捕捉局部信息,难以全面反映网络的复杂状态。基于深度神经网络2 0 2 5 A I 网 络 技 术 白 皮 书6 8(D N N,D e e p N e ur a l N e t w o r ks)的多模态数据融合方法在多个领域展现出优异的性能。多模态数据融合基于深度学习的四维分类体系,提出编码器解码器模型、注意力机制、图神经网络与生成神经网络四类数据融合方法。基于 编码器 解码 器模型的 方法中,编码器 将输入数 据转化 为保留关 键语义的潜在表征并过滤噪声,解码器再据此生成预测结果。基于 注意力机 制的方法 通过为 输入数据 各部分 分配差异 化权重,精准提取任务相关信息,在不增加计算成本的前提下提升预测精度。基于 图神经网 络的方法 则在图 结构构建 阶段直 接融合多 模态数据,区别于先提取特征后融合的模式,将融合前置到表征学习前。基于 生成神经 网络的方 法借助 生成模型 的表征 能力,将 不同模态 映射到共享潜在空间,通过对抗训练或联合优化实现模态特征的对齐与互补。6.3.2 智 能 分 析智能分析通过数字孪生、实时仿真与预测推演以及因果推理与根因定位等技术对感知层获取的数据进行深度挖掘与认知转化,从而揭示网络运行的深层规律、诊断复杂故障、预测潜在风险,并为后续的智能决策提供科学依据。数字孪生通过构建物理网络的全要素虚拟映射,将感知层采集的数据统一注入孪生体,形成“物理网络-虚拟孪生体”的实时同步 机制。孪生体能够实 时、高保真地映射物理网络的运行状态、性能指标、故障情况等,并通过仿真模拟和数据分析,实现对物理网络的实时监控、仿真和预测,为网络优化、故障排查、安全防护等提供更全面的决策分析。基于数字孪生构建的虚拟空间,实时仿真与预测推演通过动态推演能力,使用户能够很好地模拟、选择、优化解决方案,最终将它们部署到实际网络中,这将降低对实际网络的影响力,减少一定的安全风险。同时可对网络未来状态进行2 0 2 5 A I 网 络 技 术 白 皮 书6 9多维度模拟,利用大数据处理和建模技术实现对现状的评估、对过去的诊断和对未来的预测,模拟各种可能性,以提供更全面的决策分析。因果推理与根因定位是网络智能运维的核心能力之一。在复杂且动态变化的网络环境中,故障或性能问题往往不是孤立发生的,而是由多个因素相互作用、层层递进导致的。传统基于规则或相关性的分析方法在面对海量告警和复杂故障时,往往难以准确识别问题的根本原因,导致故障排除效率低下,甚至误判。因果推理技术通过挖掘事件间的因果机制而非统计相关性,为网络故障诊断提供了从“现象描述”到“本质溯源”的认知升级,而根因定位则依托因果关系链实现故障 源头的精 准追溯与 预防性治 理。通 过 A I 技术,网络能 够从海量 数据中洞 察事件的深层因果关系,实现从发现问题到解决问题的智能闭环,从而显著提升网络的韧性、稳定性和运维效率。6.3.3 自 主 决 策决策的本质是将分析环节产生的洞察转化为跨域、动态、最优的网络操作策略。通过与知识图谱、意图驱动网络、大模型等技术融合,决策已逐步由依赖专家经验转向数据驱动、自主演化的智能体范式,朝着可泛化、可适应、可解释的方向演进。知识图谱是一种以图结构描述网络实体及其关系的语义网络模型,通过图结构精准映射网络实体(如路由器、基站、终端设备)与实体间关系,将网络运维、资源 调度等场 景所需的 碎片化信 息转化 为结构化 知识网络,为 A I 驱动 的网络决策提供具象化知识支撑。在技术实现上,知识图谱构建主要包括知识抽取、知识融合、知识存储和知识应用四个环节。意图驱动网络旨在通过主动理解用户意图,将用户或业务的高层级目标转化为可执行的网络配置策略。传统网络决策中,决策目标往往局限于网络自身的技2 0 2 5 A I 网 络 技 术 白 皮 书7 0术指标,与业务意图的衔接需要人工介入,容易导致决策与实际需求脱节。而意图驱动网络通过自然语言处理、知识图谱等手段,直接解析业务方的抽象意图,并将其转化为网络可理解的量化指标。这些指标会作为协同决策的核心约束条件,贯穿多域协同、动态适配的全过程,确保决策结果从源头就与业务目标保持一致。尽管 A I 在决 策方面展 现出强 大能力,但在当 前阶段,完全的自 主决策 仍面临挑战,尤其是在涉及高风险、高价值或需要人类经验判断的场景。因此,人机共 生 决 策 是 一 个 重 要 的 研 究 方 向。A I 可 以 作 为 人 类 专 家 的 强 大 辅 助,提 供 多 维度的分析结果、推荐决策方案,甚至模拟不同决策方案可能带来的影响,从而帮助专 家做出更 明智的判 断。同时,人类 专家的反 馈和修正 也可作为 A I 模型 持续学习和优化的重要输入,形成一个正向的决策闭环。这种人机协同模式,既发挥了 A I 在数 据处理和 模式识别 方面的优 势,又 保留了人 类在复杂 情境判断 和伦理考量等方面不可替代的作用。6.3.4 执 行 与 保 障执行与保障环节是将协同决策转化为实际网络动作,并确保整个智能化体系稳定运转的“最后一公里”。执行与保障旨在构建一个高度自动化、可编程、可验证的体系,确保网络能够快速、精准地响应智能决策,并持续维持其健康高效的运行状态。执 行 的 核 心 在 于 将 生 成 的 决 策 或 策 略 通 过 自 动 化 手 段 精 准 地 部 署 到 网 络 设备和 系统 中,这要 求网 络具备 高度 的可编 程性和 自动 化能力。SD N 和 N F V 为网络的自动化执行提供了坚实的基础。SD N 通过将控制平面与数据平面分离,实现了网 络的集中 控制和可 编程性,使得 A I 决策 可以直接 通过控制 器下发到 网络设备。N F V 则 将 网 络 功 能 从 专 用 硬 件 中 解 耦,以 软 件 形 式 运 行 在 通 用 服 务 器 上,这使得网络功能的部署、伸缩和调整变得更加灵活。基于此,可以利用自动化工2 0 2 5 A I 网 络 技 术 白 皮 书7 1具或自定义的编排引擎,将复杂的网络配置、策略调整、服务部署等操作封装成可重复执行的自动化流程。保障是确保网络在智能执行后能够持续稳定、高效运行的关键环节,它涵盖了对执行效果的验证、网络状态的持续监控以及异常情况下的自我修复。意图执行保障对齐用户意图与系统行为,通过策略一致性验证和效果实时反馈,保障精准执行的可靠性。策略一致性验证确认系统中各个组件或代理的策略之间不存在冲突,并且与系统的整体目标保持一致。执行效果实时反馈通过构建“指标感知-偏差识别-根因分析-动态调整”的实时响应链路,及时纠正偏差并优化后续决策。隐私保护是网络智能化升级全流程面临的一大挑战,如何在利用多方数据的同时,有效保护数据隐私和安全,是一个亟待解决的问题。以联邦学习为代表的隐私保护联合分析技术,为这一难题提供了切实可行的解决方案。作为一种分布式机器学习框架,联邦学习的核心优势在于让各参与方无需共享原始数据的前提下,通过加密的模型参数或梯度交换联合训练全局模型。在实现数据“可用不可见”的同时,充分释放多源数据的联合价值,为网络智能化的合规演进提供了技术支撑。2 0 2 5 A I 网 络 技 术 白 皮 书7 2第 7 章 A I 赋 能 网 络 的 关 键 技 术网络智能化要求网络具备自主感知、决策、执行和进化能力,无需人工干预即可适配复杂动态的业务需求与网络环境。意图驱动网络、数字孪生网络以及智能网络大模型被视为网络升级的重要技术抓手。这些技术通过引入智能化、自动化和数据驱动的手段,推动网络向更高阶段演进。7.1 意图驱动网 络7.1.1 意 图 驱 动 网 络 的 定 义 和 架 构(一)意图驱 动网络的定义意图驱动网络是一种以用户意图为核心驱动的网络管理模型,旨在通过自动化、智能化手段实现网络的配置、优化与维护,其核心思想是将用户的业务目标或需求抽象为高层次的策略,并通过算法和系统自动将这些策略转化为具体的网络操作指令,确保网络状态与用户意图的一致性,最终提升网络管理效率,降低运维复杂度。意图驱动网络的核心理念体现在以下方面:以用 户意图为 核心:网 络的设 计与运行 以用户 的业务需 求为导向,通过分析用户意图,自动调整网络资源分配和策略。自动化与智能化:利用人工智能和大数据等技术,实现策略的自动生成、优化和执行,减少人工干预。全场 景网络自 治:基于 网元、资源、服 务与业 务四个管 理层次,构建分层协同的体系化能力,支持跨域网络的统一管理和动态调整,从而提升网络的灵活性与适应性。(二)意图驱 动网络的体系架构2 0 2 5 A I 网 络 技 术 白 皮 书7 3意图驱动网络架构自顶向下主要分为三层,分别业务应用层、意图使能层和基础设施层。各层通过标准化接口实现交互,形成业务意图驱动,网络能力响应的协同体系。图 22 意图驱动网络架构业务应用层主要负责生成意图,覆盖不同场景下的各类服务需求。意图可分为直接和间接两种:直接意图是面向管理平面的网络管理需求,可通过应用层直接表达;间接意图则强调用户个体意图,这类意图通常隐藏在用户操作或业务系统运行中,需通过分析行为数据自动提取。业务应用层通过意图使能层提供的编程接口对底层设备进行编程,抽象化网络元素,并通过管理接口实现业务创新多样性。意图使能层是意图驱动网络的核心,具备管理控制与策略决策能力,主要包括意图策略映射、管理与编排系统、智能引擎和闭环验证四部分。意图使能层接收来自北向接口的意图流,将其转化为当前网络可执行的规范化意图请求后,通过算法将意图中的抽象需求映射到具体的网络资源。基于意图的管理与编排系统可实现资源的统一调度,并通过闭环管理实现网络设备全生命周期监控。借助智2 0 2 5 A I 网 络 技 术 白 皮 书7 4能引擎完成数据收集、数据存储、数据处理、模型训练和参数调整等功能,为策略制定提供先验经验。同时,闭环验证确保了输出的网络配置参数的可靠性。基础设施层包含各类物理设备实体,并部署大量网络数据采集工具,负责提供反馈信息和策略执行所需的基础资源。北向接口是连接业务应用层和意图使能层的意图转换模块。意图编译和意图求解器实现意图的表示和一致性检查。南向接口基于虚拟化技术连接各类网络元素设备,主要用于基础设施层和意图使能层之间的交互,并虚拟化计算和通信资源,实现灵活分配。7.1.2 意 图 驱 动 网 络 的 关 键 技 术意图驱动网络的实现是一个从用户需求输入到目标动态达成的闭环过程,首先需要获取到用户所提出的网络需求(即意图),将接收到的意图转译成网络策略,并根据当前的网络状态验证策略的可执行性,之后将通过验证的策略下发到实际网络中。此外,系统还要实时地监控网络状态,确保用户意图正确实现,并将结果反馈给用户。(一)意图获 取意图获取的核心任务是准确捕获用户或系统的业务目标与需求,并将其转化为网络系统可处理的初始输入。由于用户意图的表达形式多样,可能涉及不同层级的业务目标或存在语义模糊等问题,因此意图获取需要兼顾灵活性、准确性和全面性,确保网络真正理解用户想要什么。从意图的来源来看,意图获取覆盖了“外部输入”与“内生生成”两大渠道。外部输入意图主要来自用户的主动表达,是最常见的意图形式。用户可通过自然语言、图形化界面、A P I 接口等多种方式提交需求,意图获取模块需要兼容这些多样化的交互方式,并从中提取核心需求。内生生成意图则是网络系统基于自身2 0 2 5 A I 网 络 技 术 白 皮 书7 5感知与分析自动产生的目标,体现了网络的自主性。这类意图通常源于对网络状态、业务运行数据的监测。内生意图的获取依赖于网络的全域感知能力,通过收集设备状态、流量变化、故障告警等实时数据,结合历史趋势分析,主动识别潜在需求,从而实现未雨绸缪的智能管理。意图获取的质量直接影响整个意图驱动网络的效能。若意图捕获不完整,可能导致策略生成偏差;若语义理解错误,则可能引发网络操作失误。因此,这一环节通常会结合机器学习模型持续优化,通过分析历史意图的执行效果,将反馈信息用于感知与预处理算法的迭代升级,逐步提升意图获取的准确性与鲁棒性。(二)意图分 析与转译意图分析与转译负责将捕捉到的高级、抽象的意图转化为底层网络可执行的具体策略,是一个由抽象向具体转化的过程。在意图分析阶段,核心目标是深入理解意图的本质需求,为后续转译提供清晰的目标蓝图。系统会对标准化意图模型中的字段进行拆解,提取关键要素,包括目标对象、期望指标、约束条件以及优先级。意图分析还需处理潜在的冲突与依赖关系。当多个意图同时存在时,系统需通过冲突检测机制识别矛盾点。在完成意图解析后,将进入“从目标到操作”的转译过程,即根据分析结果生成网络可执行的细粒度策略。这一过程需结合网络拓扑、资源状态、业务特征等实时数据,通过算法模型将抽象意图映射为具体配置。策略有不同程度的抽象,越往上层抽象程度越高。从 SN M P 到 P B N M 再到 I D N M,策略抽象程度的递进本质上是技术屏蔽能力的升级,逐步剥离底层设备的型号差异、协议细节、拓扑结构等繁杂信息,最终让用户只需关注“需要网络提供什么服务”,而非“网络如何提供服务”。2 0 2 5 A I 网 络 技 术 白 皮 书7 6图 23 意图-策略金字塔模型意图分析与转译并非单向过程,而是与网络状态形成动态反馈。当转译过程中发现资源不足或约束无法满足时,系统会反向反馈至意图获取环节,请求用户调整意图或补充约束条件。这种闭环反馈确保了意图与网络能力的匹配,避免无效操作。(三)策略验 证策略验证的核心目标是在策略下发至实际网络前,通过系统性校验确保策略的可行性、正确性及安全性,并满足用户意图的预期效果。从验证目标来看,策略验证需覆盖四个核心维度:首先是策略与意图的一致性,即校验转译生成的策略是否准确映射用户原始意图,避免因转译偏差导致目标偏离。其次是资源与约束的可行性,即检查策略所需的网络资源是否充足,以及是否满足时间、地理等约束条件。接着是策略的冲突检测,识别并解决策略间的矛盾。最后是安全性验证,即验证策略是否存在潜在风险,确保策略执行后不会影响网络整体稳定性。在技术实现上,策略验证主要依赖数字孪生与形式化验证两种核心方法。数字孪生技术通过构建与物理网络实时同步的虚拟镜像,将待验证策略注入虚拟环2 0 2 5 A I 网 络 技 术 白 皮 书7 7境中模拟执行,全方位监测网络状态变化。形式化验证则通过数学建模将策略转化为逻辑表达式,利用定理证明、模型检测等工具校验策略的正确性。在实际应用中,两种方法常结合使用。验证完成后需将结果反馈至上游模块:若策略通过验证,则允许策略进入下发流程;若存在问题,则明确标注错误类型及建议调整方向。策略验证通过系统化的技术手段,在策略执行前全面排查潜在风险,确保意图转化的准确性与网络运行的稳定性。随着网络异构性与业务复杂性的提升,策略验证将进一步融合人工智能技术,实现从被动验证到主动预防的升级。(四)意图下 发与执行意图下发与执行是指将经过验证的网络策略精准高效地部署到网络中,并通过实时监控确保意图的最终落地。在意图下发阶段,系统首先需完成意图的分层传递与域间协同。由于网络通常由多个域构成,而单一意图可能涉及跨域资源调度,因此下发过程需遵循“分层解耦、协同联动”的原则。下发过程中,系统需具备柔性调度能力,以适应网络的动态变化。同时,下发过程支持优先级机制,对于高紧急度意图,可中断低优先级意图的执行资源,实现秒级响应。意图执行阶段的核心是将下发的策略转化为网络设备的具体配置,并通过实时感知确保执行效果。为确保执行的准确性,系统引入双闭环监控机制:内层闭环聚焦单域执行效果,由域内控制器实时校验设备配置与策略的一致性;外层闭环则关注端到端意图达成情况,通过跨域数据聚合,判断整体意图是否满足。若发现偏差,系统会自动触发局部优化,无需人工干预。在复杂场景中,意图执行还需具备自适应演进能力。系统通过内生感知能力动态调整执行策略,无需用户重新输入意图。(五)意图的 实时反馈2 0 2 5 A I 网 络 技 术 白 皮 书7 8意图的实时反馈是指通过持续采集、分析网络运行数据,将意图执行后的实际效果与预期目标进行比对,并将结果实时反馈至上游模块,为意图的动态调整提供依据。其核心目标包括:验证意图执行效果:通过实时数据确认策略是否实现了用户意图。动态 调整策略:当网络 状态与 意图要求 不符时,触发策 略修正或 资源重新分配。提升 网络自愈 能力:通 过闭环 反馈机制,使网 络具备自 动检测故 障、预测风险并快速恢复的能力。优化 资源利用 率:基于 实时数 据动态调 整资源 分配,避 免资源浪 费或不足。实时反馈涵盖三类关键信息:一是业务指标达成情况,即直接反映意图目标的核心参数。这些指标通过部署在网络节点的传感器、探针或内置监控工具实时采 集。二 是 网 络 资源 状 态,包括 链 路 负 载、设 备 C P U 利 用 率、内 存 占 用、能 源消耗等,用于评估策略执行对网络整体资源的影响。三是异常事件与故障告警,如链路中断、设备故障、安全攻击等突发情况,这些信息需以最高优先级上报,确保系统快速响应以避免意图失效。7.2 数字孪生网 络7.2.1 数 字 孪 生 网 络 的 定 义 和 架 构(一)数字孪 生网络的定义数字孪生网络是以数字化方式创建物理网络实体的虚拟孪生体,通过实时数据交互实现虚实映射,支持网络全生命周期管理的智能化网络系统。在该系统中,各种网络管理和应用可利用数字孪生技术构建网络虚拟孪生体,基于数据和模型2 0 2 5 A I 网 络 技 术 白 皮 书7 9对物理网络进行高效的分析、诊断、仿真和控制,助力网络实现低成本试错、智能化决策和高效率创新,实现网络的高水平自治。数字孪生网络包括数据、模型、映射和交互四大核心要素。图 24 数字孪生网络核心要素 数据 为整个系 统提供底 层支撑,采集物 理网络 的设备参 数、拓扑 关系、运行状态等全量数据,为模型构建、状态评估和决策分析提供依据。模型 负责构建 虚拟网络 的数字 化表示,为模拟 网络元素 和资源的 配置、状态或使用变化提供了基础。映射 是数字孪 生网络实 现虚实 对应的关 键机制,确保虚 拟孪生体 与物理网络在结构、状态和行为上的高度一致性,可替代物理网络进行仿真、推演与决策。交互 是连接物 理网络与 虚拟孪 生体的桥 梁,实 现物理网 络与虚拟 孪生体之间的实时数据传输与控制指令下发,确保虚实状态同步。数字孪生技术中常提到物理实体和数字孪生体的概念,数字规划体则是基于网络自治特点提出的新概念。物理实体是数字孪生网络映射的对象,指构成通信2 0 2 5 A I 网 络 技 术 白 皮 书8 0网络的所有物理基础设施及相关要素,是虚拟空间建模的原型。对于硬件而言,就是硬件形态本身;对于软件而言,是软件的载体,如镜像文件、软件代码等。数字孪生体是物理实体在虚拟空间的数字化复现,通过数据建模与实时映射,精准反映物理实体的配置、状态及行为规律,与物理实体状态保持同步,是数字孪生网络的核心载体。数字规划体是基于物理实体当前状态与未来目标,通过智能化规划生成的前瞻性数字化模型,是网络向自治演进的核心规划工具。它并非是对物理实体现有状态的简单映射,而是聚焦未来时刻的优化目标,融合业务需求、资源约束与网络能力,构建物理实体应达成的理想状态参数集,为网络迭代提供可量化、可执行的路径指引。图 25 数字孪生网络基本概念间的关系(二)数字孪 生网络架构结合数字孪生的技术特点和通信网络的需求,中国移动提出了“三层三域双闭环”数字孪生网络参考架构。“三层”指构成数字孪生网络系统的物理网络层、孪生网络层和网络应用层;“三域”指孪生网络层数据域、模型域和管理域;“双2 0 2 5 A I 网 络 技 术 白 皮 书8 1闭环”是指孪生网络层内基于服务映射模型的“内闭环”仿真和优化,以及基于三层架构的“外闭环”对网络应用的控制、反馈和优化。图 26 数字孪生网络架构(1)三层物理网络层是数字孪生的映射对象,由构成端到端网络的所有物理实体组成,包括基站、交换机、路由器、终端设备、配套设施及环境要素。其核心功能是通过南向接口向孪生网络层传输实时数据,同时接收孪生网络层下发的控制指令,实现与虚拟空间的基础交互。孪生网络层是数字孪生网络的核心,负责构建物理网络的虚拟镜像并实现智能化管理,包含数据共享仓库、服务映射模型和网络孪生体管理三个关键子系统。网络应用层面向用户或业务需求,通过北向接口向孪生网络层输入需求,并通过模型化实例在孪生网络层进行业务的配置。充分验证后,孪生网络层通过南向接口将控制更新下发至物理实体网络。(2)三域2 0 2 5 A I 网 络 技 术 白 皮 书8 2三域是孪生网络层的内部构成,实现数据、模型与管理的协同。数据域对应数据共享仓库子系统,负责采集和存储物理网络的多源异构数据,为各种服务于应用的网络模型提供准确完备的数据。模型域对应服务映射模型子系统,基于数据构建多样化模型,包括基础模型和功能模型,向上层网络应用提供服务,最大化网络业务的敏捷性和可编程性。管理域对应孪生体管理子系统,负责虚拟孪生体的全生命周期管控,确保虚拟孪生体与物理网络的长期一致性。(3)双闭环双闭环是数字孪生网络实现智能化的核心机制,确保虚拟仿真与物理执行的协同优化。内闭环在孪生网络层内部,通过服务映射模型对网络策略(如参数调整、路由优化)进行仿真验证,评估可行性并迭代优化,避免直接作用于物理网络导致的风险。例如,在网络切片优化中,先在虚拟空间仿真不同切片的带宽分配方案,验证其对 SL A 的达成能力。外闭环将内闭环验证后的最优策略通过南向接口下发至物理网络,监测物理网络的执行 效果并反馈至孪生网 络层,进一步修正模 型与策略,形成“仿真-执行-反 馈-优 化”的 循 环。例 如,在 网 络 智 能 容 灾 中,孪 生 网 络 层 生 成 的 倒 换 策略经物理网络执行后,将倒换耗时、业务中断率等数据反馈至虚拟空间,持续优化容灾模型。7.2.2 数 字 孪 生 网 络 的 关 键 技 术(一)全景数 据服务技术全景数据服务技术是数字孪生网络的数据基础,旨在实现物理网络全量数据的精准采集、整合与服务,为模型构建与决策分析提供支撑。其核心包括三个层面:2 0 2 5 A I 网 络 技 术 白 皮 书8 3 多源 异构数据 采集:通 过网络 遥测、传 感器接 入、协议 解析等技 术,采集物理网络的设备参数、运行状态、环境数据及业务数据。异构 数据整合 与存储:针对结 构化、半 结构化、非结构 化数据,采用分布式存储技术构建统一数据仓库,通过抽取、转换、加载流程实现数据清洗、去重与标准化。统一 数据服务 接口:提 供标准 化的数据 查询、调用与共 享接口,支撑上层模型对数据的按需获取,同时保障数据访问的安全性与高效性。(二)网络全 生命周期建模技术建模技术是数字孪生网络的核心引擎,通过抽象物理网络的静态特征与动态行为,构建可复用可组合的模型体系,分为以网络设备基本配置、环境信息、运行状态、链路拓扑等为代表的基础模型和以网络感知、分析、仿真、推理、决策等为代表的功能模型两大类,通过模型编排技术将基础模型与功能模型灵活组合,满足复杂场景需求,同时基于实时数据持续迭代模型参数,确保与物理网络的长期一致性。(三)全域孪 生体管理技术全域孪生体管理技术负责虚拟孪生体的全生命周期管控,确保其与物理网络的动态适配与精准映射,核心包括:数字 线程整合:通过贯 穿网络 规划、建 设、运 维、优化 全流程的 数字线程,整合各阶段数据,实现孪生体的溯源。动态 更新与偏 差修正:基于实 时采集的 物理网 络数据,持续校准 孪生体模型参数,当物理网络发生变化时,自动触发孪生体重构。多粒 度孪生体 管控:支 持从单 网元到端 到端网 络的多粒 度孪生体 创建与管理,通过层级化管控实现资源高效调度。2 0 2 5 A I 网 络 技 术 白 皮 书8 4(四)网络可 视化技术通过可视化与交互技术,实现虚拟孪生体对物理网络的直观呈现与动态操控,核心包括:多维度可视化:基于 2D/3D 建模、G I S、B I M 等技术,呈现网络拓扑、设备状态、流量分布与故障位置。沉浸式交互与仿真:支持用户通过图形界面、V R/A R 等方式与孪生体交互,如拖拽式调整网络参数、模拟故障场景。关联 分析与态 势感知:通过多 维度数据 关联,挖掘隐藏 规律,生 成网络态势评估报告。(五)全向接 口协议技术全向接口协议技术通过标准化接口实现物理网络、孪生网络与应用层的高效交互,确保数据传输与控制指令的可靠性与实时性,包括三类接口:南向接口:连接物理网络与孪生网络层,支持数据采集与控制指令下发,采用 R D M A 等技术降低传输时延。北向接口:连接孪生网络层与应用层,提供模型调用、数据查询等能力,采用基于 Q U I C 的 H T T P/3.0 协议。内部 接口:支 撑孪生网 络层内 数据域、模型域、管理域 的协同,采用高效序列化协议确保数据交互效率。7.2.3 基 于 D T N 实 现 意 图 驱 动 的 网 络数字孪生网络为意图驱动网络的有效部署方面提供了坚实基础,它能够实现网络配置的预先验证以及用户业务意图的实时保障等关键功能。物理网络层作为实体基础,通过实时数据采集将物理世界状态同步至上层。孪生网络层作为智能2 0 2 5 A I 网 络 技 术 白 皮 书8 5中枢,整合共享数据仓库中的多源信息,并依托服务映射模型实现核心功能。网络应用层直接对接用户,接收业务意图输入。图 27 基于 D T N 实现 I D N 的参考框架在具体运作中,数字孪生网络通过两大机制保障意图的可靠落地:(一)意图驱 动的预验证机制用户意图经转译生成网络配置命令后,并非直接下发至物理网络。因为物理网络承载着多业务运行,直接下发配置可能引发地址冲突、路由环路等风险,影响既有业务。此时,孪生网络层的服务映射模型发挥预演作用,在虚拟环境中模拟配置下发后的网络行为,同时检测对其他业务的潜在干扰。验证通过后,配置才会安全下发至物理网络。这样不仅可以确保新配置满足用户业务需求,又不会对现有网络服务产生负面影响,从源头规避试错成本。(二)意图偏 离的自修复机制孪生网络层持续从共享数据仓库获取物理网络的实时状态,服务映射模型不断 校 验 用 户 意 图 的 达 成 情 况。当 监 测 到 网 络 偏 离 意 图,借 助 故 障 诊 断、A I 根 因分析等能力,定位问题源头并生成修复策略。但修复策略直接下发物理网络风险较高,此时需再次依托服务映射模型,对修复策略进行仿真验证:利用仿真验证2 0 2 5 A I 网 络 技 术 白 皮 书8 6模拟策略执行后的网络状态,确认能否有效解决问题且不引发新故障。通过验证的策略,由自动化配置模块下发至物理网络,实现故障自动修复,既摆脱人工确认的低效依赖,又推动 A I 技术安全落地,提升运维效率与网络自治水平。7.3 智能网络大 模型7.3.1 智 能 网 络 大 模 型 的 核 心 应 用大模型凭借强大的学习能力和泛化性能,成为推动网络智能化升级的核心动力之一。它能深度挖掘网络数据中的潜在价值,精准把握网络复杂多变的运行状态,在高效故障诊断与预测、网络资源优化配置等关键领域发挥重要作用,为网络运维、管理及性能优化等提供智能决策支持,进而改善网络服务质量,提高用户体验。(一)网络智 能运维大模型能够学习复杂的模式,并且自动识别异常行为。在运维场景中,日志分析、系统指标分析、本机调用链分析等涉及的数据多为非结构化或时序数据,这类数据的特征挖掘与异常识别非常适合采用深度学习模型。通过将实时采集的网络数据输入到训练完备的大模型中,模型能依据学习到的模式和规律,对当前网络状态进行精准评估与判断。一旦检测到异常数据模式,会立即发出故障预警信号,并初步判定故障类型及可能位置。大模型用于异常检测的基本思路可以概括为以下几种方式:日志异常检测:借助 B E R T 等 N L P 预训练模型学习正常日志的语义与格式模式,进而识别偏离正常模式的异常日志。时间序列预测:利用 T r a ns f o r m e r 等模型对系统指标的变化趋势进行预测,当实际指标与预测结果的偏差超过阈值时,判定为异常。2 0 2 5 A I 网 络 技 术 白 皮 书8 7 无监督学习:通过自编码器(A ut o e nc o de r)、对比学习(C o nt r a s t i v e L e a r ni ng)等方法,在无标注数据的情况下挖掘数据分布规律,从而检测未知异常。与传统单一指标检测方法相比,大模型能够综合多维度数据信息开展故障检测,大幅提升了检测的全面性与准确性。不仅如此,在检测到故障后,大模型还可凭借对网络数据的深度理解与推理能力,深入分析故障相关数据,通过追溯网络事件的时序关联、剖析相关设备的配置信息及运行状态变化,精准定位故障的根本原因,为快速解决故障奠定基础。(二)网络性 能优化大模型凭借其强大的多模态数据分析处理能力和动态推理能力,正在从资源调度、流量管控、拥塞控制等多个维度重塑网络性能优化的边界。传统资源分配依赖固定规则,而大模型支持动态优化配置,能依据实时网络状态自适应调整。凭借动态感知能力,大模型可实现跨域资源全局统筹,在保障核心业务服务质量的同时,灵活调整非关键业务资源占比,避免局部拥塞与闲置。同时,它能随网络负载实时变化持续优化分配策略,将冗余资源导向需求节点,确保网络整体效率最优,使资源供给与业务需求始终动态平衡,从根本上提升资源利用效率与响应速度。在流量管控中,大模型通过对网络流量的实时深度解析与动态趋势预判,构建起智能化的流量调度体系。它能够全面捕捉流量的来源、类型、传输路径及负载特征,结合网络拓扑结构与链路状态,精准识别流量的正常波动与异常增长,形成对全网流量的全局感知。基于这种感知能力,大模型可以根据不同流量的业务优先级与服务质量需求,制定差异化的管控策略。这种动态适配的管控模式,不仅能提升网络带宽的整体利用率,还能确保各类流量在复杂网络环境中始终保持高效、稳定的传输状态,为网络服务质量提供坚实保障。(三)网络安 全防护2 0 2 5 A I 网 络 技 术 白 皮 书8 8在网络安全防护中,大模型依托其多模态数据处理、模式学习及动态决策等特性,可实现对复杂威胁的深度感知与快速处置,构建起从威胁识别到主动防御的智能化体系。大模型可同时处理网络流量、终端日志、威胁情报、用户行为等多源异构数据,通过特征工程优化与深度学习建模,提取正常行为与异常行为的差异化特征。大模型通过持续学习新的攻击样本,能够捕捉威胁的本质特征。对于已知威胁,模型会比对实时数据与知识库中的特征,实现毫秒级识别;对于未知威胁,模型通过无监督学习分析正常行为基线,当出现偏离基线的异常时,会标记为潜在威胁,并通过关联分析判断威胁等级。识别威胁后,大模型会根据威胁类型、影响范围和目标重要性,自动生成差异化防御策略,并联动多个安全设备执行。最后,大模型会实时监测防御措施的执行效果,若防御未达预期,模型会回溯分析漏洞,随后重新学习该变种样本的特征,更新识别模型,并优化防御策略。同时,模型会将每次攻防案例纳入训练数据,不断丰富威胁知识库,使防御能力随攻击手段的进化而同步提升。7.3.2 多 智 能 体(M u l t i-A g e n t)群 智 协 同智 能 体(A g e nt)是 一 种能 够 实 时 感 知 环境、自 主 决 策 并采 取 行 动 以 实 现 特定目标的智能系统,它是将大模型能力充分发挥出来的重要手段,通过不同智能体之间的相互协同可以助力解决通信网络的复杂问题,在高阶自智场景中发挥更大价值。A I A g e nt 由规划(P l a nni ng)、记忆(M e m o r y)、工具(T o o l s)与行动(A c t i o n)四大关键部分组成,分别负责任务拆解与策略评估、信息存储与回忆、环境感知与决策辅助、以及将思维转化为实际行动。2 0 2 5 A I 网 络 技 术 白 皮 书8 9图 28 A I A g e nt 应用的基础技术架构规划模块负责将网络目标拆解为可执行的子任务,并评估策略的可行性与潜在风险;记忆模块通过存储网络历史数据、拓扑关系、故障模式等信息,为决策提供经验支撑;工具模块整合网络感知、数据分析、协议解析等能力,将网络状态转化为智能体可理解的信号;行动模块则通过标准化接口将决策转化为具体操作,并通过反馈机制动态调整。从工作模式来看,智能体可以分为单智能体、多智能体和混合智能体。单智能体只有一个智能体进行感知、学习和行动,与环境独立交互,根据环境反馈优化下一步行动策略以实现预期目标。多智能体是一种特殊的智能体,每个智能体都有自己的感知、决策和行动能力,并与其他智能体进行交互协作和信息共享,共同实现复杂的目标。混合智能体是由智能体和人类共同参与决策过程,强调人机协作的重要性和互补性。多智能体群智协同作为一种先进的技术范式,由多个独立自主的智能体在网络中进行无缝协作,其核心在于通过分布式协作机制实现对复杂网络的动态适配与高效管理,这种协作模式与网络的分布式架构、异构特性深度契合。在功能架构上,多智能体采用分层协同设计,不同智能体被赋予特定领域的专精能力,例如负责实时流量监测的感知智能体、专注资源调度的决策智能体、承担安全防护的防御智能体等,各智能体通过明确的角色定位形成功能互补。2 0 2 5 A I 网 络 技 术 白 皮 书9 0在此基础上,协作模式强调动态任务拆解与目标对齐,当面临全局网络优化、跨域故障处理等复杂任务时,由负责统筹的协调智能体将任务分解为子目标,依据各智能体的能力边界与实时负载进行分配,同时通过持续的状态同步确保子目标与全局目标的一致性,避免局部优化对整体网络性能的干扰。此外,协作模式还包含自适应的交互机制,智能体之间通过标准化的通信协议交换实时数据与决策意图,既可以是集中式的信息汇聚,也支持分布式点对点交互。图 29 多智能体群智协同7.3.3 A g e n t i c S O A R 智 能 化 网 络 安 全 编 排 架 构智能化安全编排和自动化响应(A g e nt i c SO A R,A g e nt i c Se c ur i t y O r c he s t r a t i o n、A ut o m a t i o n a nd R e s po ns e)是以 A I A g e nt 为核心驱动,将 L L M 的动态推理能力 与SO A R 的自动化执行能力深度融合的新型安全运营架构。其核心目标是打破传统SO A R 静态依赖的局限,实现从流程自动化到目标自主化的范式升级,解决安全运营中告警疲劳、响应滞后、专家依赖等痛点。A g e nt i c SO A R 的运作模式与传统 SO A R 存在明显差异。传统 SO A R 遵循的是一 条 从 手 动 设 计 到 静 态 响 应 的 线 性 路 径,而 A g e nt i c SO A R 则 是 以 目 标 意 图 为 起点,由 L L M A g e nt 进行动态循环的推理、规划、执行过程。2 0 2 5 A I 网 络 技 术 白 皮 书9 1图 30 传统 SO A R 与 A g e nt i c SO A R 工作流对比目 标意 图 设定(G o a l I nt e nt):A g e nt i c SO A R 工 作流 程 始于 明确 目 标意 图,与传统 SO A R 依赖人工手动设计模式不同,A g e nt i c SO A R 中的目标意图无需预先设定详细的操作步骤,它更侧重于明确最终想要达成的结果,为后续流程提供方向指引。L L M A g e nt 推理 与规划(R e a s o ni ng&P l a nni ng):明确目 标意 图后,系统会调用 L L M A g e nt 进行推理与规划。L L M A g e nt 基于大语言模型强大的自然语言理解和生成能力,对目标意图进行深入解析。它会分析当前任务的特点、相关的历史数据以及可能存在的约束条件等信息,进而制定出一套详细的应对策略,包括需要采取的具体操作、操作的先后顺序以及可能的风险应对措施等。动态工具选择(D y na m i c T o o l Se l e c t i o n-M C P Se r v e r):完成推理与规划后,L L M A g e nt 的决策结果会被传递到动态工具选择环节。这里的 M C P Se r v e r(多组件平台服务器)类似于一个工具资源池,存储着各类不同功能的工具。L L M A g e n t根 据 制 定 的 应 对 策 略,从 M C P Se r v e r 中 动 态 选 择 最 适 合 当 前 任 务 需 求 的 工 具。与传统 SO A R 中固定的工具集成方式不同,A g e nt i c SO A R 的动态工具选择能够根据实时任务需求灵活调配资源,提高了系统应对复杂多变场景的能力。2 0 2 5 A I 网 络 技 术 白 皮 书9 2自适应集成与行动(A da pt i v e I nt e g r a t i o n&A c t i o n):在这个阶段,所选择的工具会被自适应地集成到工作流程中,并按照 L L M A g e nt 规划的策略执行相应操作。在操作执行过程中,系统会实时监控执行的效果和状态,并将反馈信息及时传 递给 L L M A g e nt。如果 执行 结 果未 达到 预 期,L L M A g e nt 可 以根 据反 馈 信息 重新进行推理和规划,调整工具选择和操作策略,形成一个闭环的自适应调整机制,确保最终能够实现最初设定的目标意图。7.4 联邦学习7.4.1 联 邦 学 习 的 定 义在网络智能化升级中,数据是核心驱动力。然而,数据的采集、处理和应用过程中往往涉及用户隐私问题,如何在利用多方数据进行智能分析的同时,有效保护数据隐私和安全是一个亟待解决的问题。联邦学习(F L,F e de r a t e d L e a r ni ng)技术能够在不泄露数据隐私的前提下,打破数据孤岛,解决数据传输瓶颈,赋予网络新智慧。在网络场景中,数据天然分布于边缘设备、基站、核心网节点等不同位置,且包含用户行为、设备状态、业务交互等敏感信息,直接集中数据进行模型训练既面临传输成本过高的问题,也存在隐私泄露风险。联邦学习是一种分布式机器学习框架,允许各节点在不共享原始数据的前提下在本地基于自有数据完成模型训练,通过加密传输模型参数或梯度信息进行全局协同优化。其核心思想是“数据不动模型动”,即数据保留在本地,仅通过交互中间结果实现协作学习。既避免了原始数据的暴露,又能让全局模型聚合各节点的局部知识,为网络智能化提供了数据安全基础。2 0 2 5 A I 网 络 技 术 白 皮 书9 3图 31 用户服务器学习流程联邦学习在 跨域分析中的实现 依赖于一个闭环的迭 代流程,即“初始化-本地训练-全局聚合-模型下发”。步骤 1 初始化阶段:中央服务器初始化一个全局模型,并将模型参数分发给各个参与方。步骤 2 本地训练阶段:每个参与方使用本地数据集对收到的全局模型进行训练,生成本地模型更新。在这个过程中,原始数据始终保留在本地,不进行交换,从而保护了数据隐私。步骤 3 全局模型聚合阶段:参与方将本地模型更新(如梯度、模型参数等)加密后上传至中央服务器,加密技术确保了数据在传输过程中的安全性。中央服务器收集所有参与方的模型更新,并进行聚合,生成新的全局模型。聚合过程旨在结合各方模型的优势,提高全局模型的性能。步骤 4 模型下发阶段:更新后的模型下发至各节点进行下一轮训练,重复步骤 2 至步骤 4,直到全局模型达到满意的性能或收敛。通过多轮迭代训练,全局模型不断优化,以适应更广泛的数据分布。2 0 2 5 A I 网 络 技 术 白 皮 书9 47.4.2 联 邦 学 习 的 分 类 与 关 键 技 术根据联邦学习的数据特点,即不同参与方之间的数据重叠程度,联邦学习主要分为横向联邦学习、纵向联邦学习和联邦迁移学习。图 32 联邦学习分类横向联邦学习适用于参与方数据特征重叠较多但样本重叠较少的情况。例如,不同地区的银行拥有相似的业务但不同的客户群体,它们可以通过横向联邦学习联合训练模型,提高模型的泛化能力。纵向联邦学习适用于参与方数据样本重叠较多但特征重叠较少的情况。例如,同一地区的银行和电商拥有相似的客户群体但不同的数据特征,它们可以通过纵向联邦学习联合训练模型,实现特征互补。联邦迁移学习适用于参与方数据样本和特征重叠都很少的情况,它将联邦学习的概念加以推广,可在任何数据分布、任何实体上进行协同建模以学习全局模型。在联邦学习中,安全性与效率的平衡依赖于差分隐私、同态加密、安全多方计算等核心技术的协同支撑。差分隐私通过在局部模型参数或梯度中引入精心设计的噪声,模糊个体数据对全局模型的影响,从而阻止攻击者通过逆向工程从聚合参数中反推原始数据信息。其核心在于控制噪声的强度,既需确保噪声足够掩盖单一个体的数据特征,又要避免过度噪声导致模型精度下降,这种平衡通过隐私预算机制实现,每个参2 0 2 5 A I 网 络 技 术 白 皮 书9 5与节点的参数更新被分配一定的隐私预算,累计消耗不超过阈值,既保障了数据隐私,又为模型收敛提供了基础。同态加密技术则聚焦于参数传输与聚合过程的加密保护,其独特之处在于支持对加密数据直接进行加法、乘法等数学运算,无需解密即可完成模型参数的聚合计算。在联邦学习的整个过程中,原始参数始终处于加密状态,服务器与其他节点均无法窥探个体数据,从根本上杜绝了传输与聚合环节的隐私泄露风险。安 全 多 方 计 算 通 过 密 码 学 协 议 将 模 型 参 数 的 聚 合 过 程 转 化 为 分 布 式 协 同 计算,使多个参与方在不泄露各自私有数据的前提下,共同完成全局参数的计算。其核心逻辑是秘密共享,每个节点将本地参数拆分为多个份额,分别发送给其他参与方,任何单一参与方仅持有部分份额,无法还原完整参数;聚合时,各参与方基于所持份额进行局部计算,再通过协议组合结果,最终得到全局聚合参数,而整个过程中没有任何一方能获取其他节点的原始参数或完整份额。2 0 2 5 A I 网 络 技 术 白 皮 书9 6第 8 章 A I f o r N e t w o r k 典 型 应 用 实 践本章聚焦 A I 技术在网络领域的落地成果,精选部分 A I f o r N e t w o r k 应用案例,深入剖析其技术架构、实施路径与价值创造,为行业提供可借鉴的实践经验。8.1 中国联通 A I 智能体助力 地铁无线网优创新为解决地铁场景人工测试耗时耗力的诸多问题,中国联通提出了一种新的地铁用户识别和定位方法,依靠地铁用户上报 M R 来实现替代人工测试模式,并嵌入网络专家大模型,自动进行地铁问题识别、根因分析、智能决策,并对执行效果进行自动 闭环评估,从而实现 了地铁网络问题的全 程管控。“大模型中枢 小模型 执行”架构,推动地 铁无线网 络优化从 人工经 验驱动升 级为 A I 目标 驱动,实现降本、提质、增效三重突破。该方案通过大数据分析用户连续通过同方向站台或轨道区间的特征,提升地铁用户及起止时间识别准确性;收集地铁指纹数据,结合切换锚点思路将 M R 和信令数据地理化,助力精准定位网络问题。基于全国现网数据,构建无线网优专家多智能体,支持自然语言与图形化双模式操作,减少人工依赖,自动生成解决方 案。借 助 C ha t 交 互 打破 操 作 限 制,实 现 远 程自 动 路 测 和 问题 统 计,提升 效 率与用户体验,同时节省成本。图 33 网络 A I 大模型应用设计图2 0 2 5 A I 网 络 技 术 白 皮 书9 7该方案 有三大创 新:一 是网络 A I 大模 型应用创 新,打 造质差分 析专家 知识库,结合大模型意图识别、智能体任务规划与 R A G 技术分解任务,利用 D e e pSe e k推理提供优化建议;二是构建地铁用户行为精准识别模型,采集 X D R 信令和 M R数据建模,聚类分析特征以识别用户,监控评估网络质量与用户感知;三是基于地铁用户精准定位模型,研究隧道和轻轨定位算法,构建定位指纹库,建立智能定位模型,实现地理化分析。8.2 中国移动九 天大模型助力无线 网络优化智能升级中国移动九天网络大模型充分发挥无线网络运行数据时空关系的复杂性,精准解决无线网络日常运维作业中对专家水平要求高、工单处理时效差、问题分析维度不足、优化效率低等痛点。九天网络大模型以其卓越的内生能力,可嵌入到无线网日常优化中,提供问题诊断、分析决策、方案执行、效果预估的能力,实现对传统无线网优化流程的智能化重塑,打造无线问题端到端的自闭环优化。图 34 九天网络大模型助力无线网络优化升级依托九天 网络大模型卓越的内生能力优势,结合无线网络结构化数据为主的特点,A I 无线网络 自优化应用可嵌入 到无线网运维一线 生产作业中,提供 四大核心功能:2 0 2 5 A I 网 络 技 术 白 皮 书9 8 智能 感知:相 较于基于 无线接 通率等传 统核心 指标制定 的劣化规 则,大模型能结合更多维度的网络日志准确分辨网络波动和网络异常,计划实现更贴合用户真实感知的无线工单挖掘;智能 诊断:大 模型面向 全场景 无线性能 工单快 速确定问 题根因,无需人工对疑点逐一排查;智能 决策:大 模型根据 派单信 息拉取多 网元性 能数据,一步生成 优化方案,可支持参数类、硬件资源类的优化方案输出;智能 预测:大 模型结合 小区历 史数据学 习情况 对方案执 行后的效 果进行下发前评估,针对达不到预期效果的方案终止实施,减少对网络的影响。8.3 中国铁塔网 络智能化运维与优 化平台为解决用户在网络运维与优化方面的需求与痛点,中国铁塔南京科技创新中心深 入总结 当前运 维工作 需求,构建了 基于 SD N/N F V、A I 大模 型的网 络智能 化运维与优化平台。平台采用分层架构设计,涵盖数据采集、处理、分析、决策及交互五大层级。图 35 平台实现运维智能化升级平台具备三大核心优势:2 0 2 5 A I 网 络 技 术 白 皮 书9 9 全 域 设 备 统 一 纳 管:通 过 多 协 议 纳 管 引 擎 实 现 华 为/H 3C 等 200 型 号 设备 的 统 一 接 入。通 过 C M D B 构 建 多 层 拓 扑 与 G I S 视 图,形 成 全 息 设 备 画 像,实现从基础设施到业务系统的全生命周期数字化管理。多维 度实时监 控:通过 基础设 施与业务 级双维 度实时监 控体系,实现全网状态精准感知。在基础设施层,采用容器化探针对服务器、基站及网络设备的全量指标进行秒级采样;在业务层,通过 SR v 6 路径探针实现核心网业务流的毫秒级追踪,动态监测时延、丢包率等关键指标。智能告警与自愈:告警闭环管理系统通过 L ST M 模型实现告警多维收敛,并 采 用 三 级 分 级 推 送 机 制(严 重/重 要/提 示)联 动 短 信/邮 件/企 微 等 渠 道;同 时自动关联知识库生成修复工单,结合 100 预置运维剧本实现 m s 级自动化响应,并通过虚拟机热迁移等技术确保设备自愈。核心功能涵盖四方面:一是监控与高效利用,包括网络资源灵活调度、基站需求预测及边缘节点资源共享;二是网络性能监测与优化,涉及实时指标监控、智能 路由调整 及流量管 理;三是 A I 驱动 的智能监 测与分析,实现异 常检测、预测性维护及智能决策支持;四是一体化监测与管理,提供监控总览、全域资源监控、网络智能编排及告警管理等功能。8.4 华为星河 A I 网络解决方 案华为星 河 A I 网络通 过全系设备 的 A I 加持与 赋能,与 N e t M a s t e r 网络智 能体深度协同,实现了更精准的业务感知、更实时的业务闭环,从根本上重塑网络的体验、安全和运维。华为星河 A I 网络覆盖四大领域:星河 A I 数据中心网络:通算场景打造高韧性数据中心网络,智算场景构建高算效数据中心网络。2 0 2 5 A I 网 络 技 术 白 皮 书1 0 0 星河 A I 广域网:通过全业务融合、确定性体验保障和最佳运维体验,聚焦融合、体验、智能,打造高运力融合广域网,构筑智能融合 I P 网络底座。星河 A I 园区网络:通过无线体验升级、应用体验升级、运维体验升级和安全体验升级,牵引 A I 使能以体验为中心建网,跃升企业数智生产力。星河 A I 网络 安全:通过 A I 赋能 网络安 全防护 能力,打 造智检 测、智 联动、智融合的 SA SE 解决方案,构筑企业网络安全防御防线。图 36 华为星河 A I 网络解决方案其中,华为星河 A I 网络智能体 N e t M a s t e r 集成了华为数据通信领域上千亿语料,以及 1 万多名网络专家的经验,具备强大的语义理解能力,是通信网络领域的 重 要 突 破。其 支 持 运 维 数 据 问 答、交 互 式 业 务 分 析 与 辅 助 决 策,通 过 独 家 A I网络思维链,实现典型场景下 80%无线故障自诊断、自动生成处置建议并自动执行,从而推动网络迈向智能化新时代。i M a s t e r N C E 网 络 数 字 地 图 以 类 似 交 通 导 航 地 图 的 方 式,将 网 络 空 间 和 物 理空间进行深度融合,基于数字孪生理念构建企业数字化智能大脑,实现云、网、端、应用及用户的统一智能管理。实现从网络到应用的全息可视,并提供了智能路径导航与智能优化等能力,显著提升网络运营效率。2 0 2 5 A I 网 络 技 术 白 皮 书1 0 18.5 中兴通讯 A I R N e t 自智网络高 阶演进解决方案中兴通讯推出 A I R N e t 自智网络高阶演进解决方案,从跨域协同、单域自治、内生智能三个层次出发,提供分层、分域、分级演进的自智能力,通过独立部署或者云部署,赋能网络数字化运营。图 37 中兴 A I R N e t 技术架构图A I R N e t 自智网络解决方案依托数智引擎和自智服务支撑智能化应用的设计、开发和部署。自智服务负责汇聚各个领域的自智网络业务服务能力,比如质量优化服务、故障处理服务、变更监控服务、性能优化服务等,支撑自智网络应用层使用。数 智 引 擎 主 要 由 数 据 引 擎、A I 大 模 型 引 擎、数 字 孪 生 引 擎 三 大 技 术 引 擎 构成,三者彼此相互协作支撑:数据引擎为 A I 大模型引擎和数字孪生引擎提供所需的数据资源,并确保数据治理的有效进行。2 0 2 5 A I 网 络 技 术 白 皮 书1 0 2 A I 大模型引擎通过大模型训推工具链、大模型库和智能体引擎,在模型训练、复用、智能体开发等多方面发挥着重要作用,构建自智网络的智能中枢。数字 孪生引擎 通过多个 内置子 引擎的协 同作用,实现对 物理实体 的全面映射、分析、优化管理。这种相互赋能的关系使得三大技术引擎紧密协同工作,共同推进技术创新和发 展。简 而 言 之,数 据 引 擎 提 供 核 心 资 源;A I 大 模 型 引 擎 是 网 络 智 能 中 枢,对资源进行智能化处理;数字孪生引擎则将处理后的信息应用于实际场景中,形成一个闭环的、高效的创新生态。8.6 京东云 JoyO p s 智能运维为了保障京东大促活动的正常进行,需要对业务系统各项性能和可用性指标进行全链路实时监控,当业务发生错误或者性能遇到瓶颈等问题时,需要能够迅速发现并定位根因,提升运维排障效率。京东 J o y O ps 智能运维通过接入 A I 大模型能力,提供从移动 A pp、网页 H 5 应用、小程序,到网关、后端服务和中间件的全 链路监控 服务,通 过将专家 语料库 和 A I 大模 型算法融 合生成式 故障诊断 方案,在复杂的业务架构下也能实时掌握全栈性能情况,实现 1 分钟发现,5 分钟定位,10 分钟解决,提升服务稳定性。图 38 京东云 J o y O ps 智能运维示意图2 0 2 5 A I 网 络 技 术 白 皮 书1 0 3J o y O ps 智能运维构建了四大优势能力:A I 自动化运维:J o y O ps 能够覆盖超过 90%的故障场景,并且准确率达到80%以上,大部分常见故障可以自动检测并修复,极大减少了人工干预,提升运维效率。故障自动预判:通过因果推理增强,J o y O ps 可以预测并预防潜在的故障,故障响应时间显著缩短,提高业务的稳定性和连续性。运维知识库沉淀:通过持续 学习私域知识和和公开运维知识,J o y O ps 不断优化自身,并将多模态运维数据整合,实现了跨部门和系统的数据一致性,使得运维人员员可以快速掌握和应用最佳实践。全场 景故障解 决:提供 无阈值 监控、日 志分析、根因分 析、智能 巡检、运维运营 A I 问答、慢 SQ L 诊断与优化、硬件故障预测等运维场景能力。目 前,J o y O ps 智 能 运 维 已 大 规 模 应 用 于 京 东 内 部 场 景,支 持 618、11.11 等高 并 发 和 复 杂 业 务 场 景,Q P S 达 千 万 级 流 量 时,可 用 率 仍 可 高 达 99.99%,为 业务应用稳定运行提供保障。2 0 2 5 A I 网 络 技 术 白 皮 书1 0 4第 9 章 A I f o r N e t w o r k 的 挑 战 与 未 来 趋 势本 章 旨 在 前 瞻 性 地 探 讨 A I f o r N e t w o r k 技 术 在 演 进 过 程 中 所 面 临 的 挑 战,并深入分析其未来的发展趋势,为网络产业的持续创新与升级提供战略性思考与展望。9.1 未来发展趋 势A I f o r N e t w o r k 的未来发展趋势将围绕智能化、自主化、服务化和生态化展开,具体表现为大模型在网络领域的深度应用、自主进化的网络智能体系、网络即服务(N a a S,N e t w o r k a s a Se r v i c e)模 式 的 普 及 以 及 生 态 系 统 开 放 与 协 同 创 新。这些趋势将推动网络向更高效和更智能的方向演进,为全球数字化转型提供坚实支撑。(一)大模型 在网络领域的深度应用随 着 L L M 和 多模 态 大模 型 技术 的 突破 性进 展,其 在 网络 领 域的 应 用将 从 辅助性工具向决策引擎演进。在网络运维方面,大模型将实现更高效的故障诊断与预测。通过对实时采集的网络数据进行深度分析,大模型能够精准识别异常模式,提前预警潜在故障,并快速定位故障根源,甚至提供详细的修复建议。此外,大模型在网络资源优化配置方面也展现出巨大潜力,它们能够评估不同配置组合对网络延迟、带宽利用率、可靠性等性能指标的影响,并通过模拟和优化算法找到最佳的网络配置方案,从而减少人工干预,提高网络配置的灵活性和适应性。随着多模态大模型的发展,未来网络大模型将能够融合文本、图像、语音等多种数据,实现更全面的网络状态感知和更智能的决策。(二)自主进 化的网络智能体系未来的网络将不再是静态的、需要人工频繁干预的系统,而是具备自主进化能力的智能体系,这意味着网络智能体系将具备自我学习、自我适应、自我修复2 0 2 5 A I 网 络 技 术 白 皮 书1 0 5和自我优化的能力,无需人工干预即可根据环境变化和业务需求进行持续演进。这种自主进化将体现在多个层面:在感知环节,网络智能体能够主动探索和发现新 的 数 据 源,提 升 对 网 络 状 态 的 全 面 感 知 能 力;在 分 析 和 决 策 环 节,A I 大 模 型能够根据新的数据模式和业务目标,自动调整和优化其算法,提升预测和决策的准确性;在执行环节,网络将具备高度自治的操作执行能力,在接收到决策指令后,能够自动触发修复流程、资源调度或配置更新,实现零接触式快速恢复的业务体验。(三)网络即 服务模式普及网络即服务是一种将网络能力作为服务通过云端交付的模式,用户无需拥有、构 建 或 维 护 自 己 的 网 络 基 础 设 施,而 是 按 需 订 阅 和 使 用 网 络 功 能。A I 的 深 度 融合将加速 N a a S 模式的普及,并使其服务能力 更加智能化、弹性化 和个性化,能够根据用户的业务需求和应用场景,动态调整网络资源和策略,成为未来网络服务 交 付 的 主流 范 式。N a a S 的 普 及 将 推动 网 络 从“拥 有”向“使 用”转 变,使 得网络能力像水电一样,成为按需取用的基础设施,从而加速各行各业的数字化转型。(四)生态系 统开放与协同创新生态系统开放与协同创新将成为网络智能化升级的重要推动力。未来的趋势将是打破传统网络领域的封闭性,促进跨行业、跨领域的深度合作与创新。这包括提供标准化的接口和开发工具,吸引更多的第三方开发者、服务提供商和企业参与到网络能力的创新中来,共同构建丰富的应用生态。加速产学研深度融合,鼓 励 科 研 机 构、高 校与 产 业 界 紧 密 合 作,共 同 攻 克 A I f o r N e t w o r k 领 域 的 关 键 技术难题,加速科研成果向实际应用的转化。9.2 战略建议与 展望2 0 2 5 A I 网 络 技 术 白 皮 书1 0 6面 对 A I f o r N e t w o r k 广 阔 的 发 展 前 景 和 伴 随 而 来 的 挑 战,需 要 从 技 术 研 发 和产业发展等多个层面进行战略性布局和协同推进,以确保其健康、可持续发展。(一)对技术 研发的建议(1)深化基础理论研究:加强对网络智能体的自主学习、多模态数据融合、因果推理、可解释 A I 以及分布式 A I 协同等基础理论的研究。这些核心理论的系统性突破与扎实推进,将构建起网络智能化的“理论护城河”,为技术创新提供源头活水。(2)推 动核心技 术攻关:聚焦于数 字孪生网 络建模的 精度与 实时性、零接触故障自愈的准确性与效率、以及意图驱动网络的闭环控制与验证等关键技术。鼓励跨学科、跨领域的交叉研究,促进不同领域技术理念与方法的融合碰撞,加速关键技术突破与成果转化。(3)构 建开放创 新平台:建立开放 的创新平 台和开源 社区,提供丰富 的网络数据集、标准化的 A P I 接口和易用的开发工具,吸引全球范围内的科研机构、高校和企业共同参与技术创新。通过开源等创新模式,加速技术迭代和应用孵化,形成良性循环的创新生态。(二)对产业 发展的建议(1)加 速应用场 景落地:鼓励网络 运营商、设备商和 垂直行 业企业紧 密合作,推 广 A I f o r N e t w o r k 在 实 际 网 络 运 维、服务 保 障、安 全 防 护 等 领 域 的 典 型 应用场景。通过试点示范项目,验证技术成熟度,积累成功经验,形成可复制、可推广的解决方案。(2)培育专业人才队伍:加大对 A I 网络复合型人才的培养力度,包括既懂网络 又懂 A I 的工 程师、架 构师和研 究人员。通过校 企合作、产教融合 等方式,建立多层次、多类型的培训体系,为产业发展提供坚实的人才支撑。2 0 2 5 A I 网 络 技 术 白 皮 书1 0 7(3)构 建产业生 态联盟:推动产业 链上下游 企业、科 研机构、行业组 织等共 同 组 建 A I f o r N e t w o r k 产 业 联 盟,协 同 制 定技 术 标 准、共 享 最 佳 实 践、联 合 开展市场推广。通过构建开放、合作、共赢的产业生态,共同应对挑战,拓展市场空间。2 0 2 5 A I 网 络 技 术 白 皮 书1 0 8第 三 部 分 未 来 展 望第 1 0 章 A I 网 络 发 展 十 大 趋 势A I 网 络 技 术 正 迎 来 从 技 术 协 同 到 生 态 共 建 的 关 键 发 展 阶 段。N e t w o r k f o r A I与 A I f o r N e t w o r k 两 大 方 向 深 度 融 合,在 技 术 层 面 形 成 闭 环 支 撑,在 应 用 层 面 实现创新突破,在产业生态层面助力全局协同,其演进趋势将重塑智能时代的网络形态,为人工智能规模化发展与数字经济升级奠定基础。A I 网 络 作 为 支 撑 人 工 智 能 规 模 化 落 地 与 数 字 经 济 深 化 发 展 的 新 型 基 础 设 施核心支柱,正在从“支撑 A I 需求”向“定义 A I 未来”跨越。立足当下技术发展与 场 景 变 革,A I 网 络 技 术 将 呈 现 以 下 十 大 趋 势,共 同 塑 造 智 能 时 代 的 网 络 新 形态。(一)从通用互联到 智算中心网络范式A I 大 模 型 训 练 与 超 大 规 模 推 理 对 网 络 提 出 极 致 性 能 需 求,推 动 网 络 从 传 统数据中心的“通用连接架构”向“智算中心专用网络范式”升级。通过物理拓扑、传输协议与通信库的协同设计,实现端到端性能优化,构建超高吞吐、超低时延、线 性 扩 展 的“神 经 网 络 骨 架”,支 撑 千 卡 至 万 卡 级 智 算 集 群 的 高 效 协 同,成 为A I 算力释放的核心基座。(二)从独立层级到 超融合无中心架构传统 云边端层 级化架 构难以适 配分布 式 A I 的实 时协同需 求,将 演进为超 融合 无 中 心 架 构。基 于 M e s h/T o r us 多 维 互 联 与 智 能 路 由,打 破 计 算、存 储、网 络资源 的层级壁 垒,实现 全域资源 的按需 调度与任 意节点高 效通信,为边缘 A I 协同、分布式训练提供韧性更强的底层支撑。2 0 2 5 A I 网 络 技 术 白 皮 书1 0 9(三)从尽力而为到 确定性智能协议栈传统 T C P/I P 的“尽力而为”特性与工业控制、自动驾驶等 A I 场景的确定性需 求 存 在 根 本 矛 盾,驱 动 协 议 栈 向“A I 感 知 的 确 定 性 智 能 体 系”演 进。融 合T SN/D e t N e t 时间敏感技术、意图感知能力,在网络层、传输层构建可预期、可测量、可保障的行为范式,为关键 A I 业务提供实时 SL A 保障。(四)从云为核心到 泛在云边端智能协同A I 应 用 正 从 云 端 集 中 式 部 署 向 物 理 世 界 末 梢 渗 透,推 动 网 络 向“云 边 端 智能协同架构”转型。依托 5G/6G、卫星互联网与 L P W A N 泛在连接,实现智能任务在云、边、端之间的动态分解、模型迁移与推理结果融合,在保障数据隐私与实时性的同时,最大化分布式算力价值,赋能智能制造、智慧城市等场景的深度智能化。(五)从被动配置到 意图驱动智能调度静态 网络配置 无法适 配 A I 负载 的动态特 性,将 被“意图 驱动智能 调度”取代。基 于 强 化 学 习 与 全 局 感 知,网 络 可 实 时 解 析 业 务 SL A 需 求 与 算 力、带 宽、拓扑等资源状态,实现毫秒级资源编排、流量调度与路径优化,完成从“人适配网”到“网适配 A I”的范式转变,支撑 A I 工作流的弹性伸缩。(六)从数据集中到 隐私优先联邦协同范式数据 隐私法规 与数据 孤岛问题 倒逼 A I 训练 推理模式 革新,推动网络 支撑隐私优先的联邦协同范式。通过加密参数传输、跨域安全隔离等技术,实现客户端、边缘、多云等分布式节点的模型协同训练推理,在不泄露原始数据的前提下打破数据壁垒,成为医疗、金融等敏感领域 A I 落地的核心使能技术。(七)从功能附加到 原生智能网络内核2 0 2 5 A I 网 络 技 术 白 皮 书1 1 0网络 智能化将 从外挂 式分析引 擎向原 生智能内 核演进。轻量化 A I 模型 与推理引擎将深度嵌入交换机、网卡等设备的数据面,实现流量特征实时感知、异常行为本地决策、策略自主执行,使网络具备分布式自优化能力,为实现自驱动网络奠定基础,大幅提升自动化与故障响应效率。(八)从千网一面到 知识内化行业专网通用 网络服务 难以满 足垂直行 业的差 异化 A I 需求,将演进 为“知识 内化的行业专网”。网络深度融合工业控制逻辑、医疗隐私规范、车联网移动性特征等垂直行业知识,定制化网络架构、协议与管理策略。例如,工业专网通过确定性传输保障 A I 控制指令实时响应,医疗专网以强化隐私保护支撑 A I 安全应用于诊疗,车 联 网 专 网 凭 超 低 时 延 赋 能 自 动 驾 驶 A I 毫 秒 级 决 策,其 定 制 化 能 力 让 A I在各领域价值最大化。(九)从传统互联网 到智能体互联网传统互联网以人类为通信主体,实现全球信息互联。随着通用人工智能技术的突破性进展,具备自主决策、环境感知与交互能力的智能体正成为网络新主体,推动 互联 网向 智能体 互联 网(I o A,I nt e r ne t o f A g e nt s)跃迁。通 信维 度 将从 人与人互联扩展至智能体与智能体互联以及人与智能体互联,这不仅大幅拓宽网络的内涵与边界,更将引发产品服务、产业生态乃至社会形态的深刻变革,开启“万物皆智能体”的新纪元。(十)从算网分离到 算网电融合共生A I 算力的指数级增长与双碳目标共同推动算网电融合共生。网络作为枢纽,将协同算力布局与电力供应(尤其是绿电),通过全局能效优化算法动态调度任务至绿电富集区,同时推动自身向光电混合、液冷背板等高能效方向演进,支撑“东数西算”等国家级工程落地,实现 A I 算力的绿色可持续发展。2 0 2 5 A I 网 络 技 术 白 皮 书1 1 1参 考 文 献 1 I D C,2025 年中国人工智能计算力发展评估报告 2 未来网络白皮书,智算网络技术与产业白皮书 3 百度智能云,智算中心网络架构白皮书 4 中国移动通信研究院,全向智感互联 O I SA 技术白皮书 5 中国移动通信研究院,全调度以太网技术架构白皮书 6 I M T-2030(6G)推进组,6G 典型场景和关键能力白皮书 7 王 光 全,满 祥 锟,徐 博 华,等.确 定 性 光 传 输 支 撑 广 域 长 距 算 力 互 联 J.邮电设计技术,2024(2):7-13.8 华为,确定性 I P 网络介绍 9 中兴,超节点技术:N V L 72 和 E T H-X 10 U l t r a A c c e l e r a t o r L i nk C o ns o r t i um,I nc.(U A L i nk).(2025).U A L i nk_200 R e v 1.0Spe c i f i c a t i o n 11 U l t r a E t he r ne t C o ns o r t i um.(2025).U l t r a E t he r ne t s pe c i f i c a t i o n:v 1.0.12 B r o a dc o m C o r po r a t i o n.(2025).Sc a l e U p E t he r ne t F r a m e w o r k Spe c i f i c a t i o n(Sc a l e-E t he r ne t-R M 102).13 Z uo P,L i n H,D e ng J,e t a l.Se r v i ng L a r g e L a ng ua g e M o de l s o n H ua w e iC l o udM a t r i x 384 J/O L.2025-06-15.ht t ps:/do i.o r g/10.48550/a r X i v.2506.12708.14 H ua ng Y,H ua ng T,Z ha ng X,e t a l.C SQ F-ba s e d T i m e-Se ns i t i v e F l o wSc he dul i ng i n L o ng-di s t a nc e I ndus t r i a l I o T N e t w o r ks J/O L.2024-09-15.ht t ps:/do i.o r g/10.48550/a r X i v.2409.09585.2 0 2 5 A I 网 络 技 术 白 皮 书1 1 2 15 Q i a n K,X i Y,C a o J,e t a l.A l i ba ba H P N:A D a t a C e nt e r N e t w o r k f o r L a r g eL a ng ua g e M o de l T r a i ni ng C/P r o c e e di ng s o f t he A C M SI G C O M M 2024 C o nf e r e nc e.Sy dne y,N SW,A us t r a l i a:A C M,2024:1-16.D O I:10.1145/3651890.3672265.16 T M F o r um,自智网络产业白皮书 6.0 17 亚信科技,A I A g e nt 赋能自智网络技术探析与实践 18 未来移动通信论坛,10.0I 意图驱动自智网络 19 宋 延 博,高 先 明,杨 春 刚,等.意 图 驱 动 的 韧 性 网 络 安 全 研 究 J.系 统 工 程与电子技术,2024,46(9):3211-3220 20 李福 亮,范广 宇,王兴 伟,等.基于 意图 的网 络(I B N)研究 综述 J.软件 学报,2020.D O I:10.13328/j.c nki.j o s.006088.21 P a ng,L.,Y a ng,C.,C he n,D.,So ng,Y.,&G ui z a ni,M.(2020).A s ur v e y o ni nt e nt-dr i v e n ne t w o r ks.I E E E A c c e s s,8,22862-22873.do i:10.1109/A C C E SS.2020.2969208 22 孙滔,周铖,段晓东,等.数字孪生网络(D T N):概念,架构及关键技术 J.自动化学报,2021,47(3):14.D O I:10.16383/j.a a s.c 210097.23 中国移动研究院,基于数字孪生网络的 6G 无线网络自治白皮书 24 中兴,2025 中兴通讯自智网络白皮书 25 中金,A I 十年展望:A I A g e nt 元年已至,应用拐点或将到来 26 段晓东,孙滔,陆璐,等.智能体互联网:概念、架构及关键技术 J/O L 电信科学.ht t ps:/l i nk.c nki.ne t/ur l i d/11.2103.T N.20250715.1430.002 27 陈 天 骄,刘 江,黄 韬.人 工 智 能 在 网 络 编 排 系 统 中 的 应 用 J.电 信 科 学,2019(5).D O I:10.11959/j.i s s n.1000 0801.2019095.2 0 2 5 A I 网 络 技 术 白 皮 书1 1 3 28 潘彤,余文艳.智能体互 联网:未来网络 的新图景 J.中国电信 业,2025(4):30-3 4.2 0 2 5 A I 网 络 技 术 白 皮 书1 1 4缩 略 语中文全称 英文全称 英文缩写人工智能 A r t i f i c i a l I nt e l l i g e nc e A I大语言模型 L a r g e L a ng ua g e M o de l T e c hno l o g y L L M确定性网络 D e t e r m i ni s t i c N e t w o r k D e t N e t意图驱动网络 I nt e nt-D r i v e n N e t w o r k I D N数字孪生网络 D i g i t a l T w i n N e t w o r k D T N深度学习 D e e p L e a r ni ng D L分布式训练网络 D i s t r i but e d T r a i ni ng N e t w o r k D T N软件定义网络 So f t w a r e D e f i ne d N e t w o r ki ng SD N网络功能虚拟化 N e t w o r k F unc t i o ns V i r t ua l i z a t i o n N F V计算机视觉 C o m put e r V i s i o n C V自然语言处理 N a t ur a l L a ng ua g e P r o c e s s i ng N L P图形处理器 G r a phi c s P r o c e s s i ng U ni t G P U传输控制协议 T r a ns m i s s i o n C o nt r o l P r o t o c o l T C P网际协议 I nt e r ne t P r o t o c o l I P远程直接内存访问 R e m o t e D i r e c t M e m o r y A c c e s s R D M A神经网络架构 T r a ns f o r m e r T F机器学习 M a c hi ne L e a r ni ng M L超以太网联盟 U l t r a E t he r ne t A l l i a nc e U E C可靠无序 R e l i a bl e U no r de r e d D e l i v e r y R U D可靠有序 R e l i a bl e O r de r e d D e l i v e r y R O D可靠无序幂等R e l i a bl e U no r de r e d D e l i v e r y F o rI de m po t e ntR U D I2 0 2 5 A I 网 络 技 术 白 皮 书1 1 5中文全称 英文全称 英文缩写不可靠无序 U nr e l i a bl e U no r de r e d D e l i v e r y U U D互联网工程工作小组 I nt e r ne t E ng i ne e r i ng T a s k F o r c e I E T F确定性 I P 网络 D e t e r m i ni s t i c I P D I P指定周期排队转发 C y c l e Spe c i f i e d Q ue ui ng a nd F o r w a r di ng C SQ F循环排队转发 C y c l i c Q ue ui ng a nd F o r w a r di ng C Q F时间敏感网络 T i m e-Se ns i t i v e N e t w o r ki ng T SN光传送网络 O pt i c a l T r a ns po r t N e t w o r k O T N光交叉连接 O pt i c a l C r o s s-C o nne c t O X C高带宽域 H i g h B a ndw i dt h D o m a i n H B D时空图神经网络 Spa t i o-T e m po r a l G r a ph N e ur a l N e t w o r k ST G N N深度神经网络 D e e p N e ur a l N e t w o r ks D N N安全编排和自动化响应Se c ur i t y O r c he s t r a t i o n,A ut o m a t i o n a ndR e s po ns eSO A R联邦学习 F e de r a t e d L e a r ni ng F L网络即服务 N e t w o r k a s a Se r v i c e N a a S智能体互联网 I nt e r ne t o f A g e nt s I o A
2025-08-18
122页




5星级
传媒传媒 请务必参阅正文后面的信息披露和法律声明 1/17 传媒传媒 2025 年 08 月 18 日 投资评级:投资评级:看好看好(维持维持)行业走势图行业走势图 数据来源:聚源 GPT-5 或加速.
2025-08-18
17页




5星级
证券研究报告|行业周报 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 gszqdatemark 传媒传媒 腾讯混元开源游戏腾讯混元开源游戏 AI 生成新工具,昆仑万维推出生成新工具,昆仑万维推出 .
2025-08-17
10页




5星级
数智政府 智算内生模型、智算、智能体的全面应用升级数 字 政 府 新 进 阶 白 皮 书目录第一章 数智时代新篇章业务智能化正当时1.1 数字中国战略下的政务智能化使命1.2 人工智能技术加速迭代,开.
2025-08-15
47页




5星级
1 Unrestricted|Siemens 2025|DI FA VM-F&B Future Food 2025.08 生物发酵行业数字化转型白皮书 Bio-Fermentation Indust.
2025-08-14
14页




5星级
2025 年 8 月 12 日(星期二)行业报告 招商证券(香港)有限公司 证券研究部 此为2025年8月12日“China Internet Sector-Overseas Adventure Se.
2025-08-14
28页




5星级
第1页/共10页 本报告版权属于中原证券股份有限公司 请阅读最后一页各项声明 传媒传媒 分析师:乔琪分析师:乔琪 登记编码:登记编码:S0730520090001 021-50586985 传媒板块传.
2025-08-14
10页




5星级
中国RFID无源物联网产业白皮书2025发布单位:参编单位:AIoT 星图研究院深圳市物联网产业协会深圳市物联传媒有限公司世界人工智能与物联网创新联盟(WAIA 联盟)IOTE 物联网展发布单位:参编.
2025-08-13
153页




5星级
Table_RightTitle 证券研究报告证券研究报告|传媒传媒 Table_Title 长青产品长青产品表现表现强劲强劲,20252025 年上半年年上半年游戏市游戏市场同比增长场同比增长 1.
2025-08-13
7页




5星级
本报告版权属于国证国际证券(香港)有限公司,各项声明请参见报告尾页 变革中前行,变革中前行,打造打造一体化健康消费一体化健康消费场景场景 互联网医疗互联网医疗自自 2020 年以来开启快速发展,年以.
2025-08-12
15页




5星级
请务必仔细阅读正文之后的评级说明和重要声明请务必仔细阅读正文之后的评级说明和重要声明证券研究报告证券研究报告传媒传媒行业定期报告行业定期报告hyzqdatemark投资评级投资评级:看好看好(维持)(.
2025-08-10
17页




5星级
证券研究报告|行业周报 请仔细阅读本报告末页声明请仔细阅读本报告末页声明 gszqdatemark 传媒传媒 OpenAI 发布发布 GPT-5,分众传媒与支付宝联合打造,分众传媒与支付宝联合打造“碰.
2025-08-10
11页




5星级
传媒传媒 请务必参阅正文后面的信息披露和法律声明 1/17 传媒传媒 2025 年 08 月 10 日 投资评级:投资评级:看好看好(维持维持)行业走势图行业走势图 数据来源:聚源 关注模型/Agen.
2025-08-10
17页




5星级
浦银国际研究浦银国际研究 主题研究主题研究|互联网互联网行业行业主题研究主题研究|互联网互联网行业行业 本研究报告由浦银国际证券有限公司分析师编制,请仔细阅读本报告最后部分的分析师披露、商业关系披露及.
2025-08-08
20页




5星级
罗兰贝格:预见2026:中国行业趋势报告(90页).pdf
智源研究院:2026十大AI技术趋势报告(34页).pdf
中国互联网协会:智能体应用发展报告(2025)(124页).pdf
三个皮匠报告:2025银发经济生态:中国与全球实践白皮书(150页).pdf
三个皮匠报告:2025中国商业航天市场洞察报告-中国商业航天新格局全景洞察(25页).pdf
中国电子技术标准化研究院:2025知识图谱与大模型融合实践案例集(354页).pdf
中国银行:2026中国高净值人群财富管理白皮书(66页).pdf
三个皮匠报告:2025中国情绪消费市场洞察报告(24页).pdf
亿欧智库:2025全球人工智能技术应用洞察报告(43页).pdf
中国信通院:具身智能发展报告(2025年)(67页).pdf