Clear Sky Science · zh

结合参数切分与组内洗牌以防范联邦学习中的不可信服务器

· 返回目录

为什么要保护共享模型

我们的手机、医院和银行越来越依赖人工智能。很多机构希望共同训练一个共享模型,但法律和常识都要求它们不能把原始数据集中到一个地方。联邦学习就是为了解决这一矛盾:每个参与者在自己的设备上训练,只共享模型更新。但本文指出,即便只传输更新,如果中央服务器好奇或不诚实,这些更新也会泄露隐私——论文随后提出了一种新方法,以同时更好地保护我们的数据和身份。

引用: Guo, H., Chen, W., Li, J. et al. Combining parameter fragmentation and group shuffling to defend against the untrustworthy server in federated learning. Sci Rep 16, 5097 (2026). https://doi.org/10.1038/s41598-026-35420-w

关键词: 联邦学习, 数据隐私, 差分隐私, 模型反演攻击, 安全聚合