当前位置:   article > 正文

【论文笔记】An Exploratory Analysis on Users’ Contributions in Federated Learning_联邦学习不诚实用户

联邦学习不诚实用户

在本文中,我们旨在回答激励如何从诚实和恶意用户中识别准确的本地模型,并感知它们对联邦学习系统模型准确性的影响。

在本文中,我们研究了激励机制对联邦学习系统模型质量的影响,考虑了两类参与者:i)具有不同更新质量的诚实参与者 和 ii)故意发送低质量更新的参与者。

我们展示了激励机制是如何描述这两类参与者的贡献的,并调查了导致最大模型准确性的最先进的激励机制。

本文贡献

1)在诚实的参与者面前提供了一个关于贡献度量和激励机制的探索性分析。

2)我们描述了已被证明会降低模型准确性的恶意行为。

3)在恶意参与者存在的情况下,我们通过实验评估现有的贡献度量。

4)我们提供未来的研究方向,以更好地评估用户的贡献,从而处理诚实和恶意的参与者。

在联合学习中设计可行的贡献度量策略是必不可少的,但也是具有挑战性的,因为对于其他参与者和联邦来说,直接评估用户本地数据的质量是不可能的

你在否定我的研究的可行性???

因此,有许多贡献衡量战略和相应的奖励制度(见第三节)。相比之下,对于恶意用户,识别恶意节点和不良行为的类型是至关重要的。根据不同的攻击类别,需要相应地设计防御措施。在本文中,我们对攻击和防御进行了全面的分类。

评估诚实参与者的贡献

因为神经网络的参数是深度映射的特征,不携带直接信息,所以局部更新间接地揭示了它们的性能信息。因此,FL系统可以基于更新来衡量贡献,而不需要访问原始数据。

A. 贡献评估分类法

在这一节中,我们总结了在现有的联邦学习系统中应用的三种主要的分类法贡献度量策略。它们在检测精度和传输复杂性方面有明显的差异,但可以适用于各种应用场景。

1)基于测试/自报的贡献评估

衡量贡献的最直接的方法是让参与者自我报告他们的分数。需要一个可信的第三方。

这不是一种测量策略,并且这个也不可靠,文中就不展开说了。

2)基于边际损失的贡献评估

删除法、shapley值。

基于边际损失的策略要求联盟或第三方实施贡献评估。

3)基于相似度的贡献评估

L. Lyu et.等人提出了FPPDL [16],并通过差分隐私生成对抗网络(DPGAN) [17]证明了基于相似性的限定。在FPPDL,数据提供者使用DPGAN生成人工样本,数据验证者使用其本地模型来实现跨用户标记。然后,验证者通过数据提供者和验证者之间的标签相似度来计算贡献度。

《Towards fair and privacy-preserving federated deep models》 SCI-3区

这篇被引用的论文还没看。。。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/空白诗007/article/detail/974071
推荐阅读
相关标签
  

闽ICP备14008679号