宁德生活圈

网站首页 科技 > 正文

百度详细介绍了其对抗工具箱 用于测试AI模型的健壮性

2021-09-20 20:08:44 科技 来源:
导读 无论AI和机器学习系统在生产中有多么强大的功能,都无法抵御对抗性攻击或试图通过恶意输入欺骗算法。研究表明,即使图像上存在很小的扰动,

无论AI和机器学习系统在生产中有多么强大的功能,都无法抵御对抗性攻击或试图通过恶意输入欺骗算法。研究表明,即使图像上存在很小的扰动,也有可能以很高的概率欺骗最佳分类器。考虑到“人工智能即服务”商业模式的广泛传播,这是一个问题。在这种模式下,亚马逊、谷歌、微软、Clarifai等公司都向终端用户提供了易受攻击的系统。

百度详细介绍了其对抗工具箱 用于测试AI模型的鲁棒性

科技巨头百度在最近的一篇部分解决方案论文中提出的研究人员,Arxiv.org宣布:Advbox。他们将它描述为一个开源工具箱,用于生成对立的例子,并表示它可以欺骗脸书的PyTorch和Caffe2、MxNet、Keras、谷歌的TensorFlow和百度自己的PaddlePaddle中的模型。

尽管Advbox本身并不新鲜——它的首次发布是在一年多前——但本文的重点是揭示技术细节。

AdvBox基于Python,它实现了几种常见的攻击,这些攻击执行对敌人样本的搜索。每种攻击方法都使用距离度量来量化对抗性扰动的大小,而子模型感知器支持图像分类和对象检测模型以及云API,评估模型对噪声、模糊和亮度调整的鲁棒性和旋转性。

百度详细介绍了其对抗工具箱 用于测试AI模型的鲁棒性

AdvBox附带了用于测试检测模型的工具,这些模型容易受到所谓的对抗性t恤或面部识别攻击。此外,它还通过附带的Python脚本提供了对百度云托管的Deepfake检测服务的访问。

合著者写道:“对[输入]的微小且通常不易察觉的干扰足以愚弄最强大的[人工智能]。”“与之前的工作相比,我们的平台支持黑盒攻击.和更多的攻击计划。”

百度不是唯一一家发布旨在帮助数据科学家抵御攻击的资源的公司。去年,IBM和MIT发布了一个衡量机器学习和AI算法稳健性的指数,叫做Cross Lipschitz的网络稳健性最高值,简称CLEVER。今年4月,IBM宣布了一个名为“对抗鲁棒性工具箱”的开发工具箱,其中包括用于测量模型漏洞的代码,并提出了防止运行时操纵的方法。此外,德国图宾根大学的研究人员创建了蛮子盒(蛮子盒),这是一个Python库,用于生成针对TensorFlow、Keras和其他框架的20多种不同攻击。

百度详细介绍了其对抗工具箱 用于测试AI模型的鲁棒性

但仍有许多工作要做。巴黎多芬大学(Dauphine University)教授贾马尔阿提夫(Jamal Atif)表示,图像分类领域最有效的防御策略——用图像示例增强一组照片——最多只能将准确率提高到45%。“这是最先进的,”他在巴黎由法国数字公司主办的一年一度的法国AI大会上发表演讲时说。“我们只是没有强大的防御策略。”

郑重声明:本文版权归原作者所有。转载文章只是为了传播更多的信息。如果作者信息标注有误,请第一时间联系我们修改或删除。谢谢你。


免责声明: 本文由用户上传,如有侵权请联系删除!


标签: