赞
踩
目录
Split Learning的核心思想是将网络的结构进行拆分,每个设备只保留一部分网络结构,所有设备的子网络结构构成一个完整的网络模型。在训练过程中,不同的设备只对本地的网络结构进行前向或反向计算,并将计算结果传递给下一个设备。多个设备端通过联合网络层的中间结果完成模型的训练,直到模型收敛为止。
以最简单的Split Learning为例,网络结构被拆分为两部分,。其中,
位于客户端,
位于服务端。
和
的交界层被称为Cut layer。Cut layer的输出称为Smashed Data。
Split Learning场景中,训练数据特征和标签都保留在客户端中。训练时客户端将输入特征数据输入本地网络,开始进行前向计算,一直到Cut layer输出,输出结果设为
。将
与标签一起传递给服务端,
作为服务端本地网络
的输入,继续进行前向计算,得到预测的标签输出。反向计算求梯度的过程与之类似,只是流程相反。
然而,这种方案需要传输标签,有数据泄露风险。一种改进是将模型分为三部分,最深的层和最浅的层保留在客户端,中间层保留在服务端。
相同点:
区别:
总的来说,可以把Split Learning看成纵向联邦学习的一种特殊形式。
边缘计算将原来位于云平台的功能向更靠近用户终端设备的地方下沉。这些更靠近终端设备的网络设备称为边缘网络,它们能有效减少数据传输带来的带宽消耗。具体来说,其具有以下优点:
本节介绍一种基于边缘计算实现的分层联邦学习架构方案。在该方案中,将相互之间距离比较近的客户端设备按群划分,在同一个群的设备附近部署一个边缘端设备,组成一个联邦子网络,各个联邦子网络再构成一个全局的联邦网络。
分层的方案有下面的优势:
本读书笔记系列针对2021年5月出版的《联邦学习实战》(见下图),后续部分将逐步更新
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。