READ-2331 Untargeted Poisoning Attack Detection in Federated Learning via Behavior Attestation

论文提出了一种基于行为验证的方法,通过监测客户端在FederatedLearning中的持续训练行为,评估其可靠性,以检测恶意客户端的无目标攻击。恶意客户端的更新策略导致其与正常训练的客户端区别明显,通过分析模型更新的相关性和偏差变化来识别异常行为。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文名称Untargeted Poisoning Attack Detection in Federated Learning via Behavior Attestation
作者Ranwa Al Mallah, David Lopez, Godwin Badu Marfo, Bilal Farooq
来源arXiv 2021
领域Machine Learning - Federal learning - Security - untargeted poisoning attack
问题对于无目标攻击,现有的防御机制忽略了在特定节点的训练过程中对其行为的及时检查
方法attestedFL通过长时间观察客户端的持续性行为,判断客户端是否真的在训练并向目标前进,从而评估客户端是否可靠,并不对恶意客户端的数量进行假设

阅读记录

在2023年开始了这个专栏,但是中间由于有一堆事要干(懒惰 ),就停止了记录,在这个快要放假但还没有放假的好时节,打算把自己看过的文献全都放到CSDN!BUT,由于我还是有一堆事要干(懒惰 ),决定不再一点一点复制,而是直接放出阅读笔记的截图

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


总结

恶意客户端并不会真正训练其本地模型,而是制造更新值。因此,通过观察客户端是否真的在一次又一次地训练迭代可以评估客户端是否可靠:

  1. 随着通信轮数增加,全局模型逐渐收敛,客户端更新趋近于0,而恶意客户端更新会为了阻碍全局模型收敛而逐渐增加。
  2. 尽管来自不同客户端的模型更新几乎是相互正交的且方差很低,但对于由同一客户端,跨轮次之间的模型更新将彼此相关性。因此,本地模型更新之间没有随时间表现出相关性的客户端可能被认为是不可靠的。
  3. 在数据分布不均匀的情况下,服务器需要接受一些模型有较大偏差的良性客户端,虽然此类良性客户端的精度较差,但随着时间推移,错误率差值将会逐渐减小,而恶意客户端的错误率差值会逐渐增加。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值