迄今为止,培养算法公平性的努力远远落后于采用该技术的热情。以竞争优势为驱动力并着眼于利润的工业几乎没有倾向承担这一责任。高等教育在引领通往以人工智能为动力的世界的道路上必须扮演关键角色,这既是道德的又是公平的。
在许多科技公司中,人们担心AI不道德使用的可能性是会议室里的大象,而且员工的不安促使了道德操守官和审查委员会的聘用。这是朝着积极方向迈出的一步,但这不足以克服我们面临的挑战。
这个问题是双重的:有技术本身的基础,并有AI的道德和公正的方式应用。机器可能是快速学习者,但他们从中学习的数据通常是人为决策的汇总。如果这些决定与偏见freighted,他们往往是,AI可以烤了里面,建立一个系统,是永远不公平的。
例如,研究表明,某些基于AI的面部识别软件对非裔美国人的错误匹配比对白人的错误匹配更多。这种技术的缺点是由AI未能将它们识别为缺陷加剧,作为人类可以做。算法不能自我纠正。他们自我增强。
而且,尽管人类具备识别问题和进行道德更正的能力,但仍以非常人性化的方式(选择性地)运用了这种能力。移民和海关执法局的官员最近在不使用驾驶员信息的情况下使用面部识别技术的州,对驾驶执照数据库进行了梳理。亚马逊股东最近拒绝了对其面部识别软件进行审计的提议,批评者称这可能导致假匹配和逮捕。由于执法部门采取了可疑的做法,并且行业无法开展所需的工作,因此学术界必须加倍在这一关键领域的领导地位。
学术界以其教学使命,对跨学科研究的偏爱以及对从研究项目中快速获利的冷漠态度,已做好充分的准备,奠定了通往道德AI的道路。这项工作的教学部分已经在进行中。一个律师的算法当然,它探讨的算法对社会的影响,最近共同在波士顿大学,哈佛大学,哥伦比亚大学和伯克利教授和许多其他大学包括在计算机科学课程类似的考虑。康奈尔大学,麻省理工学院,斯坦福大学和德克萨斯大学提供有关智能系统道德设计的特定课程。大学也在进行必要的研究以增强无偏AI的能力。
在波士顿大学,研究人员正在研究可用于将在一个种群上训练的算法可靠地应用到训练集中代表性不足的其他种群的技术。他们还试图确切地确定学习机如何得出结论,因为当无法将这些结论解释给生活在其中的人类时,应用潜在的不公平结论似乎是不道德的。所有这一切的目的是开发所谓的“公平机器学习”,这将使我们能够利用AI的力量来研究社会问题,从负担得起的住房到虚假新闻的影响。
为此,大学需要政府的帮助。根据《国家人工智能研究与发展战略计划》的建议,公共政策和联邦资助机构应支持旨在使学术科学家的专业知识用于为公众服务的项目的研究计划。法律法规必须推进并支持高等教育提出的研究和适用解决方案,并要求行业将AI的道德规范纳入其业务模型的重要组成部分。此外,联邦资金不仅将有助于推动人工智能的发展,而且如最近的一项研究表明,这还将推动创新和工作增长。那是双赢。