返回首页 hi, 欢迎来到机器人在线 请登录/ 免费注册 扫码关注

面部识别中的有害偏见,阻碍了深度检测

时间:2021-05-20 来源:贤集网 阅读:11404

南加州大学的研究人员在Deepfake数据集和检测模型中存在偏见。一个普遍使用的数据集“绝大多数”是白人,尤其是白人女性。Deepfake检测器无法发现有色人种的欺诈性图像和视频。


行业中的许多人认为Deepfake算法的发展是如此迅速,以至于如此之快,以至于自动检测器将很快成为发现它们的唯一希望。



一个由研究员有三个为根据性别和种族中的误码率10.7%,差异知名deepfake探测器,发现尽可能多的尝试。


他们俩发现,尤其是流行的FaceForensics ++的平衡性很差。重要的是要注意对AI数据集中的偏见的关注是非常新的。随着改进,一段时间以来会出现更多的代表性不足的例子。


研究人员写道,在尝试发现假冒视频时,实现较低的假阳性率是一个“具有挑战性的问题”。


他们使用FaceForensics ++和Blended Image生物特征数据集,训练了MesoInception4,Xception和Face X射线模型,所有这些模型在视频检测中都“被证明是成功的”。这三个代表各种规模、架构和损失表述。



这三个检测器在男性和女性面部上的表现均相同,错误率的差异为0.1%至0.3%。用混合图像训练的检测器在显示较暗的非洲图像时效果最差,错误率相差3.5%至6.7%。


“混合图像”和“面部X射线”在处理白人男性面孔方面最为成功,所有白人面孔的错误率均为9.8%,白人男性的错误率为9.5%。


VentureBeat中的一篇文章对USC论文与去年科罗拉多大学博尔德分校,发表的另一篇论文进行了比较。根据该出版物,微软、Clarifai、亚马逊和其他公司编写的算法至少有95%的时间正确地识别了男性。


但是跨性别者中有38%的人将男性误认为女性。


一些研究人员正在研究面部生物特征活动性检测。一种努力认识到当血液在皮肤下以脉冲形式冲洗时,人的脸部会发生快速而细微的颜色变化。


Facebook仍因无法将危险的政治宣传与有关医疗保健的知情人士分开而烧伤,它在去年6月结束的Deepfake Detection Challenge中提供了100万美元的奖金。


面部识别 机器人视觉

好的文章,需要您的鼓励

11

  • 最新资讯
  • 最新问答
推荐