Fawkes:又一种可以击败人脸识别AI的照片伪装技术

本月初,安全牛报道过新加坡国立大学(NUS)开发的对抗人工智能人脸识别的照片“加扰”技术,可以保护人们的数字隐私不受机器大规模人脸识别和采集技术的侵犯(例如社交媒体、电商巨头、有组织犯罪集团等等)。

近日,芝加哥大学的研究者在第29届USENIX安全研讨会发布了一个新的图像混淆技术,可以对人们发布的照片进行像素级的更改(肉眼无法察觉的图像伪装),实验证明,无论如何训练人脸识别深度学习模型,Fawkes都能提供95%以上的保护成功率(人像不被正确识别)。

然后,您可以像平常一样使用这些“伪装”的照片,在社交媒体上共享它们,将其发送给朋友,进行打印或在数字设备上显示它们,就像处理其他任何照片一样。但是,不同之处在于,当有人(编者按:例如ImageNet创始人李飞飞所做的那样)尝试使用这些照片来构建面部识别模型时,“隐身”图像将交给模型一个高度失真的版本。

Fawkes的研究团队宣称,即使面对最先进的人脸识别模型,Fawkes依然能保持极高的成功率,同时对于尝试检测或破坏图像伪装的各种对策具有强大的抵抗力。

参考资料

Fawkes:保护隐私不受未授权深度学习模型侵犯

http://people.cs.uchicago.edu/~ravenben/publications/pdf/fawkes-usenix20.pdf

上一篇:化妆品巨头雅芳泄漏1900万条数据记录

下一篇:《研发运营安全白皮书(2020年)》正式发布 深度剖析软件应用服务全生命周期可信