文章目录
An Examination of Fairness of AI Models for Deepfake Detection
会议/期刊:IJCAI 2021
作者:
背景
早期的针对深伪数据集类别(种族、性别等)属性的研究
深度学习模型可以根据受保护的类别(如种族和性别)进行区分。
当一个人的脸被交换到另一个不同种族或性别的人时,用于创建deepfakes作为正训练信号的方法往往会产生“不规则”的脸。
这导致检测器学习前景脸和虚假之间的虚假相关性。
【在机器学习中,越来越多的人担心有偏见或有缺陷的系统会产生意想不到的后果,这需要对数据集和模型进行仔细彻底的检查。】
points
评估受保护的亚组中存在的深度伪造数据集和检测模型的偏见。亚组——》子组
使用按种族和性别平衡的面部数据集,检查三种流行的深度伪造检测器,发现不同种族的预测性能存在很大差异。