标签:之间 指定 font 常见 需要 方法 输出 bsp 概念
对抗攻击概念:
通过对输入添加微小的扰动使得分类器分类错误,一般对用于深度学习的网络的攻击算法最为常见,应用场景包括目前大热的CV和NLP方向,例如,通过对图片添加精心准备的扰动噪声使得分类器分错,或者通过对一个句子中的某些词进行同义词替换使得情感分类错误。
对抗攻击分类:
关于攻击的分类有很多种,从攻击环境来说,可以分为黑盒攻击,白盒攻击或者灰盒攻击:
从扰动的强度大小来说,可以分为有目标攻击和无目标攻击:
从攻击的实现来说来说,可以分为基于梯度的攻击,基于优化的攻击,基于决策面的攻击或者其他:
对抗攻击实现工具:
目前来说,比较主流的工具有cleverhans,foolbox,另外笔者还发现了一个advertorch,专门针对pytorch模型。
cleverhans | foolbox | advertorch | |
针对模型框架 | tensorflow/keras/pytorch | pytorch/tensorflow | pytorch |
产生速度 | 可以批量 | 无法批量 | 可以批量 |
使用复杂度 | ♥♥♥♥♥ | ♥♥ | ♥♥ |
包含的攻击类别数 | ♥♥♥♥♥ | ♥♥♥♥♥ | ♥♥ |
(当然这个难易程度是笔者自己分的,见仁见智了~~~)
标签:之间 指定 font 常见 需要 方法 输出 bsp 概念
原文地址:https://www.cnblogs.com/tangweijqxx/p/10614071.html