文章
  • 文章
科技

麻省理工学院的研究人员警告亚马逊在面部识别软件方面有偏见

麻省理工学院的一位研究人员上个月警告亚马逊首席执行官杰夫贝索斯,该公司有争议的面部识别软件对女性和有色人种来说是最不准确的。

当时没有报道 ,Joy Buolamwini也创建了以打击编码算法的偏见 ,他表示, 这种偏见的技术可能会加剧现有的警察种族偏见。

亚马逊向全国各地的执法机构出售其面部识别软件,称为“Rekognition”。

广告
虽然该软件对皮肤较轻的男性显示出极低的误差率,但Buolamwini在测试该软件时发现,所有肤色的女性和肤色较深的两性男性都面临更高的不准确率。

在测试的所有男性面孔中,只有0.14%被误认。 在2%的情况下,两种性别的较轻的皮肤面部都被错误地识别出来。 与此同时,女性在16%的时间内被误认,两种性别的肤色较黑的人在13%的时间内被误认。

她还提醒说,她在静止图像上进行测试的直接性质,比现实世界中各种不同类型照明中的潜在模糊图片更可能产生准确的结果。

“鉴于我们所知,使用这些系统是不负责任的,我支持暂停警察使用面部识别,”Buolamwini告诉The Hill。 “我也支持关于面部识别技术的联邦法规,因为与加拿大不同,美国没有关于生物识别数据的联邦法律。”

Buolamwini在她对亚马逊面部识别的测试中使用了相同的方法,就像她 对IBM和微软面部识别软件的分析一样,这两种方法也显示出对黑皮肤女性的错误识别率。

她对亚马逊Rekognition的研究是ACLU周四的一个更全面的版本,也发现了针对有色人种的偏见模式。 ACLU的研究是在535名国会议员中进行的,而Buolwimini的研究是在1200多个面孔的数据集上进行的。

ACLU以及亚马逊员工,亚马逊股东和其他团体正在呼吁该公司与执法机构签订面部识别合同,并暂停面部识别技术政府。