人工智能已经开始以无所不在的,无形的方式塑造我们的生活。在其新的纪录片《人工智能时代》中,FRONTLINE审视了这种前景并危及这项技术。招聘经理,法院,执法部门和医院正在部署AI系统,有时甚至不知道被筛查人员的情况。尽管这些系统最初因其比人类更具客观性而受到称赞,但很快变得清楚的是算法也带有偏差。
这是一个问题,麻省理工学院的研究生研究员Joy Buolamwini知道第一手资料。她成立了算法正义联盟,以引起人们的注意。今年早些时候,她在一次国会听证会上作证说面部识别技术对民权的影响。
“算法偏差的主要问题之一是您可能不知道它的发生,” Buolamwini告诉FRONTLINE。我们向她讲述了她如何遇到算法偏差,她的研究以及她认为公众需要知道的内容。
该访谈经过了编辑,以确保篇幅和清晰度。
在她第一次遇到算法偏差时。
我第一次遇到面部检测技术问题时,实际上是当我在佐治亚理工大学读本科时,当时我正在研究机器人。这个机器人的想法是看我是否可以和我一起玩躲猫猫。如果您的机器人看不到您,而我的机器人也看不到我,那么peek-a-boo并不会真正起作用。为了完成我的项目,我借了室友的脸。她的皮肤比我轻。…那是我第一次真正使用面部分析技术,并且发现它对我的工作方式与对其他人的工作方式不同。…
我继续做很多事情,并成为麻省理工学院的研究生,我开始从事使用面部分析技术,面部检测的项目。因此,我所做的一个项目是称为Aspire Mirror。您看着镜子,相机检测到您的脸,然后狮子会出现在您身上,或者您可能是受到启发的人……
我没有一直检测到我的脸,所以我感到沮丧。那么,当您对程序感到沮丧时该怎么办?您调试。我开始尝试找出使之工作的方法。我实际上在手上画了一张脸,然后系统检测到我的手掌上的脸。我当时想:“等一下,等一下,如果能检测到我刚刚在手掌上画的脸,那么现在就有可能了。”于是我环顾办公室,白色的面具就在那里。所以我想,“没有办法!但是为什么不呢?”
我拿起白色面具,戴上它,当我戴上白色面具时,它是瞬间的,我的意思是-它的象征意义并没有对我失去。这很荒谬,系统可以检测到不是真实人物的白色蒙版,但不一定检测到我的脸。所以这真的是当我开始思考:“好吧,让我们更深入地了解这些系统正在发生的事情。”…