人工智能具有举足轻重的地位,并具有改变各个行业业务的潜力,这已不是什么秘密。到2022年,人工智能系统的收入预计将达到776亿美元,比2018年的240亿美元增长200%。然而,随着这一突出地位的日益显着,人们越来越关注人工智能的伦理意义。与所有创新技术一样,人工智能也有其缺点:最紧迫的是存在潜在的偏见。就在本月,一个艺术项目在展示了该技术的偏见之后在社交媒体上风行一时,从AI数据库ImageNet中删除了60万张图像。
如果没有正确的控制,偏见可能会渗入机器学习过程,并迅速将客观分析转变为歧视性分析。管理AI系统的准确性和道德性常常被忽视,但是公司必须克服数据和算法中的偏见,这些偏见可能会扭曲见解并影响客户。
深度学习模型由公司的目标提供并基于公司的目标而产生。如果这些目标没有正确地设计以保证公平性,通常会在设计过程中出现问题,因为算法可以设置鼓励偏差的参数。公司可以通过避免过于关注特定公司目标的框架并确保在算法本身中建立公平性来消除偏差。
当公司扩大规模时,歧视性或不道德行为也会渗透到设计过程中。最初用于特定业务部门或地理区域的模板通常分布得更广。拥有正确的控件将有效地防止那些应用程序丢失上下文:公平的是,一种情况很容易在另一种情况下具有歧视性。
输入正确的数据
人工智能是一种创新的过程,其中机器通过提供大量数据来对其进行训练。但是,如果这些数据集代表某些群体的人数不足或过多,或者使用了过时或偏斜的历史记录或社会规范,那么任何结果都必然会产生偏差。例如,如果对一台机器进行了培训,以根据其顶尖学生的背景来确定最佳的大学招聘人员,则可以排除这些标准以外的优秀候选人。同样,使用招聘数据审查特定年龄候选人的算法可能会不公平地淘汰合格的候选人。
通常很难识别出使用了错误的数据集才开始造成伤害,并且由于机器以如此高的速度学习,因此任何错误都会迅速成倍地放大。一个小的缺陷可以立即变成巨大的负担。为了解决这个问题,将高质量的数据馈入机器并创建使用单独的AI和机器学习的“了解客户”工具绝对至关重要。人工智能也可以成为解决方案的一部分–您可以在后台运行基于道德和社会规范的“警务”算法,作为模型的“道德指南针”。这项技术不仅可以确保每个人都得到公正的评估,还可以对AI框架进行持续的微调。
通过分析来自选定参数或质量的数据来编写算法,例如在医疗保健中,他们可能会查看体重,年龄和病史。如果公司过分强调某些属性以及它们与其他数据字段的交互方式,则偏差很容易渗透到选择过程中。单独的因素可能看起来很客观,但综合考虑可能会有利于一个群体而不是另一个群体。
那么,公司在保持道德商业惯例的同时又能从AI中受益呢?企业越来越依赖数字智能从AI获得突破性的业务成果。数字智能依赖于领域,数据和知识的正确组合,并且需要人员和技术的紧密协调。
保留人为决定
有大量报道表明,机器人将窃取人们的工作,许多人担心,人工智能将比人类工人更有效率地执行任务。但是,只有17%的受访者认为AI会减少员工人数,而实际上绝大多数企业领导人(77%)认为AI会创造就业机会。这与流行的说法“人工智能将大规模消除工作”相矛盾,并使我们想起了人工智能核心的本质悖论:它取决于人类!机器人需要人们来构建,训练和管理它们。他们的承诺在于他们有能力增加人类工人,而不是替代他们。