您的当前位置: 首页 > 新闻中心 > 行业知识 > 联邦学习啥意思?算法原理是怎样的?

联邦学习啥意思?算法原理是怎样的?

1、联邦学习

传统的机器学习算法需要用户将源数据上传到高算力的云服务器上集中训练,这种方式导致了数据流向的不可控和敏感数据泄露问题。Mcmahan等在2016年提出联邦学习技术,允许用户在机器学习过程中既可以保护用户隐私,又能够无须源数据聚合形成训练数据共享。联邦学习本质上是一种分布式的机器学习技术,其流程如图1所示。

联邦学习

客户端(如平板电脑、手机、物联网设备)在中心服务器(如服务提供商)的协调下共同训练模型,其中客户端负责训练本地数据得到本地模型(local model)。中心服务器负责加权聚合本地模型,得到全局模型(global model),经过多轮迭代后最终得到一个趋近于集中式机器学习结果的模型w,有效地降低了传统机器学习源数据聚合带来的许多隐私风险。

联邦学习技术特点

(1)参与联邦学习的原始数据都保留在本地客户端,与中心服务器交互的只是模型更新信息;

(2)联邦学习的参与方联合训练出的模型w将被各方共享;

(3)联邦学习最终的模型精度与集中式机器学习相似;

(4)联邦学习参与方的训练数据质量越高,全局模型精度越高。

2、联邦学习算法原理

典型的联邦学习场景是在本地客户端设备负责存储和处理数据的约束下,只上传模型更新的梯度信息,在数千万到数百万个客户端设备上训练单个全局模型w。中心服务器的目标函数F(w) 通常表现为:

联邦学习算法原理

其中,m是参与训练的客户端设备总数,n是所有客户端数据量总和,kn是第k个客户端的数据量,Fk(w) 是第K个设备的本地目标函数。

联邦学习

其中,dk是第k个客户端的本地数据集,fi(w) =α(xi,yi,w) 是具有参数w的模型对数据集dk中的实例(xi,yi)产生的损失函数。dk中所有实例产生的损失函数之和除以客户端k的总数据量就是本地客户端的平均损失函数,损失函数与模型精度成反比,因此,机器学习的目标函数优化通常是让损失函数达到最小值。

联邦学习的目标函数优化算法中,通常采用大批量随机梯度下降(SGD)算法,即通过本地客户端模型训练的损失函数,乘以固定的学习率η ,计算出新一轮的权重更新。因此,本地客户端的模型权重更新如下:

联邦学习

第t轮通信中心服务器的模型聚合更新如下:

联邦学习

本文由作者-YANYI发布,版权归原作者所有,禁止转载。本文仅代表作者个人观点,与本网无关。本文文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

相关报告

TalkingData:2019学习教育人群洞察报告(17页).pdf
TalkingData:2019学习教育人群洞察报告(17页).pdf

TalkingData学习教育人群洞察报告 暨学习教育人群最具投放价值媒体奖揭晓 Best Media For Target Audiences TalkingData 学习教育人群定义: 是指统计周期内使用过学习教育类App的用户群体。 评选模型 02 人群定义 01 学习教育人群定义 我国人均文教娱乐支

2019年德国IT安全状况报告 - 德国联邦信息安全局(英文版)(80页).pdf
2019年德国IT安全状况报告 - 德国联邦信息安全局(英文版)(80页).pdf

The State of IT Security in Germany in 2019 2 THE STATE OF IT SECURITY IN GERMANY IN 2019 THE STATE OF IT SECURITY IN GERMANY IN 2019 | FOREWORDS 3 recent

德国联邦:德国国家氢能战略(28页).pdf
德国联邦:德国国家氢能战略(28页).pdf

国家氢能战略 bmwi.de 出版信息 出版人 德国联邦经济和能源部公共宣传处 11019 Berlin(柏林) www.bmwi.de 版本日期 2020六月 图片来源 iStock / smirkdingo / 封面 排版和制作 PRpetuum GmbH, 80801 Mnchen (慕尼黑) 您可通

面向机器学习的开发环境 CodeLab 介绍.pdf
面向机器学习的开发环境 CodeLab 介绍.pdf

面向机器学习的开发环境CodeLab介绍马如悦2020.12P飞浆#page#数据科学与机器学习平台,正在成为基础数据软件之一LinkedinData-Based Business Operation数据库2017年,机器学习工程师和数据科学家成为美国增速最快的两个职业Glassdoor,a popular

MULTI-INSTANCE GPU(MIG)深度学习最佳用法示例.pdf
MULTI-INSTANCE GPU(MIG)深度学习最佳用法示例.pdf

NVIDIAMULTI-INSTANCE GPU (MIG)深度学习最佳用法示例张雪萌,杨值#page#AGENDAIntroduction to MIG Multi-Instance GPU)MIG managementKubernetes support for MIGMIG for deep lear

Apache MXNet 2.0:连接深度学习与传统机器学习.pdf
Apache MXNet 2.0:连接深度学习与传统机器学习.pdf

GTCApache MXNet 2.0Bridging Deep Learning and Machine LearningSheng ZhaSr.Applied Scientist Amazon AImxnetBUZSCzhashengapache.orgINCUBATOR#page#GTCAgendaC

机智深度学习训练平台及应用.pdf
机智深度学习训练平台及应用.pdf

科技TEG技术创造未来机智深度学习训练平台及应用腾讯技术工程事业群云架构平台部宋书涛Tencent#page#科技TEG技术创造未来目录机智深度学习训练平台机智深度学习训练加速技术机智深度学习训练多机扩展机智高性能计算平台案例与业务应用Tencent#page#科技TEG技术创造未来机智深度学习训练平台算法

使用 Triton 优化深度学习推理的大规模部署.pdf
使用 Triton 优化深度学习推理的大规模部署.pdf

NVIDIA使用Triton优化深度学习推理的大规模部署徐添豪,张雪萌,黄孟迪#page#Triton OverviewInference Server pipelineA100 Multi-Instance GPU (MIG)AGENDADeployment on KubernetesIntegratio

客服
商务合作
小程序
服务号
折叠