目前正在为人工智能开发人员和生物识别等应用程序编写的道德原则阵雨,引起了公司和学术研究人员组成的小组的思考。这些原则值得他们在云服务器上占用的空间吗?
如果没有,它们是否真正有用?据研究人员说,是的,他们可以。
为了检验他们的理论,该团队召集了48位人工智能和机器学习的从业人员,并进行了以公平为中心的迭代式联合设计过程,这与AI伦理学的整体思想格格不入。
他们在报告中建议以包容性的方式提出实用的“清单可以提供组织基础结构,以使即席程序正式化并增强个人拥护者的能力。”
这与组织现在如何处理算法中的道德准则明显不同。
在媒体对人工智能和机器学习的公平性和安全性进行了数年折磨的刺激下,该领域的许多公共和私营行业参与者将工作组召集在一起,并提出了止痛药清单。通过这些委员会发布的结果往往并不比其他公司大思路,除非他们是伴随着实际的准则和流程更加有用,根据来自微软研究院的三名研究人员和一名来自卡内基梅隆大学。
越来越短的产品期限和不断增长的功能列表给开发人员带来了压力,而仅凭原则就被开发人员所忽略。报告作者写道,更好的办法是创建清单,并采取行动来处理涉及道德的事务。但是在这里,清单也必须是实用的。
他们查看了一些人工智能参与者创建的清单,发现“似乎没有设计者在实践者的积极参与下进行设计。”
研究人员认为,感觉良好和迅速的步骤是“道德洗礼”。他们将其定义为“在没有具体行动支持的情况下对解决AI伦理问题的口头承诺。”
随机寻找正确的无花果叶的公司并不总是这样。
软件公司的高管,甚至是高级人工智能领域的高管,都始终以战术方式使用清单。不同之处在于这些列表“用于标准化已知的代码检查过程”。在代码中正确遵守道德规范是一个新的且不断变化的目标。