1、NVIDIAGPU加速5G基站的的DIG融合Nov 2020英伟达-5GDevRel潘志建#page#page#5G产业的不断演进更大的速率,更低的延退,更多的连接设备,更多A场景的融合与AI应用相融合高带宽,低延退海量IOT设备2025年全球loT设备将在超过1500亿台,相对于4G网络,5G网将提供1000倍到2025年,处于边缘的AI应用拥有总同时这一数字将在2035年达到1万亿的带宽和仅仅十分之一的延退经济影响高达每年11万亿美元的潜力我们需要的是一张灵活,可裁剪,可演进的的网络软件定义的设备公开和标准协议基于VNF和CNF的部署ZnVIDL#page#5G的常见智能视频分析(IVA)
2、应用把像素变成洞察力RetaiArHERMALSCANChecking智能零售智慧城市商业及公共安全工业现场#page#灵活和可裁剪的5G网络N2-AMFSMFBK智慧城市MECCUUPFmMTC高清游戏MECUPFeMBB印化Near-RT RICUR-LLCt.Function工业现场cU远程控制gentControletrolandserPneSeparation不同于4G,未来不同的应用将被不同的网络切片支持。只有通用硬件平台:通过软件定义的方式,才能快速的支持RANUPF,MEC等网元功能,真正做到DICT融合#page#AERIALSTACK:基于GPU的5GVRAN解决方案内联处
3、理,避免系统瓶颈基于GPU的vRAN方案传统硬件加速方案数据直接从GPU高速内存中获得数据在PCle与DDR中反复传输物理层处理无需CPU参与PCle吞吐率以及可编程硬件加速器的规模限制纯软件实现内存内存内存PUOption 7.2APAntennaCPU:层1+层2功能CPU:层2功能NIC:eCPRI内存GPU:层1功能Fiber传统硬件加速MobiledUnit)BBUENetworkBackhaulnVIDUBasestation site#page#基于GPU的BBU性能BBU系统的对比Normalized Uplink Throughput Comparison0.02- Sing
4、le Socket0.018-20MHz:UL=1L3-100MHz:UL= 8L/16L0.0168随着Layer数的增0.014加,优势将变得更加明显对功耗归一化的上行吞吐率0.012对比,在标准的上行8layer包0.01条件下,GPU是竞争对手OCPU山0.0083.5倍。0.0060.0040.00248101214251618C#ofUplinkLayersNon-AAS ModeZnVIDLA#page#AERIAL堆栈简介Right NowIn the futureMetropolislsaacCloudxR上层应用Metropolis Allsaac teleoperatio
5、nUPF offloadPrivate5G L2/L3 stack5G Mobile broadband L2/L3stackAerial core platform2/3层协议AltranAltran RadisysCUPHYCUMACCUVNF1层协议5GNR PHY-OTA Securitylayer Multi cellsL2 schedulerKubernetesAl assisted PHYLowlatencyCUDAMLNX容器:VMWareVMWare,NativeK8s0S操作系统:Ubuntu18.04Ubuntu20.xCPUGPUNIC硬件:CPUGPU NICEGX,
6、DPURemoteradiounitO-RURUemulatorChannel英伟达实现simulationUE-EMUE emulator合作伙伴实现Video5G IsaacUE simulatorserverrobot#page#企业级超融合5G网络用例体现:CloudRAN+UPF+边缘AI基于企业和校园的E2E Edge SolutionGPU+ DPUsAlternative私有5G网络ARNRRcbatosVA140streams/GPU10x ServersSingle Server:卖55GUPF50%CPUreductionwith2