标签:learn 评估 无法 机器学习 数据集 重构 而在 rate privacy
??针对机器学习算法的推理攻击可分为两种:追踪攻击(成员推理攻击)、重构攻击。作者通过训练好的模型的参数以及训练过程中模型的参数更新来测量隐私泄露。利用随机梯度下降算法的隐私漏洞,作者设计并评估了针对神经网络模型的白盒成员推理攻击。之前的很多工作集中在黑盒攻击的模式下,在黑盒攻击中对于输入x ,攻击者只能看到模型的输出 f(x;w)。但是对于模型的中间结果,例如神经网络中各层的计算结果,攻击者是无法得到的;而在白盒攻击的模式下,这些中间结果对于攻击者来说是可得的。除此之外,模型的参数和结构对于攻击者来说也是可见的。针对被动推理攻击者和主动推理攻击者,以及假定攻击者具有不同的先验知识,本文设计了集中学习和联邦学习的推理算法。作者证明了将已知的黑盒攻击直接扩展到白盒(通过分析激活函数的输出)是无效的。通过分析CIFAR数据集的预先训练和公开可用的先进模型,表明即使是泛化能力很好的模型也容易受到白盒成员推理攻击。Nasr M, Shokri R, Houmansadr A. Comprehensive privacy analysis of deep learning: Passive and active white-box inference attacks against centralized and federated learning. In: Proc. of the Security & Privacy. 2019.
2020年11月28日
标签:learn 评估 无法 机器学习 数据集 重构 而在 rate privacy
原文地址:https://www.cnblogs.com/FBprivacy/p/14088064.html