标签:learn abstract 级别 参数 相同 产生 from 过程 利用
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!
以下是对本文关键部分的摘抄翻译,详情请参见原文。
不幸的是,我们发现任何隐私保护的协作深度学习都容易受到我们在本文中设计的强大攻击。特别是,我们表明分布式、联邦或分散的深度学习方法从根本上将会被打破,并且不再能保护诚实参与者的训练集。我们开发的攻击利用了学习过程的实时性,使对手能够训练一个生成对抗网络(GAN)。该网络生成目标训练集的原型样本,而目标训练集是私有的(由GAN生成的样本旨在产生自与训练数据相同的分布)。有趣的是,我们表明,如前面的工作中所提出的,应用于模型共享参数的记录级别差异隐私是无效的(即记录级别差异隐私DP不是为解决我们的攻击而设计的)。
Deep Models Under the GAN: Information Leakage from Collaborative Deep Learning
标签:learn abstract 级别 参数 相同 产生 from 过程 利用
原文地址:https://www.cnblogs.com/lucifer1997/p/11280430.html