您的位置:首页>科技>

Microsoft和OpenAI还有OECD如何将AI伦理原则付诸实践

微软的AI伦理委员会帮助制定了国防部的内部合同政策,如果不是日本领导层,G20成员国就不会通过AI伦理原则。根据一项案例研究,该案例研究了本周微软,OpenAI和OECD的项目。

加州大学伯克利分校长期网络安全中心(CLTC)案例研究于周二发布,研究了组织如何将AI伦理原则付诸实践。道德原则通常是措辞含糊的规则,可能难以转化为工程师或其他一线工人的日常实践。CLTC研究员Jessica Cussins Newman告诉VentureBeat,许多AI伦理和治理辩论更多地将重点放在需要的内容上,而不是在实现原则所载目标所需的实践和政策上。

该研究的重点是OpenAI推出的GPT-2;经合组织和二十国集团采用人工智能原则;并在Microsoft创立了AI,道德和工程与研究效果(AETHER)委员会。经合组织政策观察站于2月启动,旨在帮助36个成员国将原则转化为实践。纽曼说,该案例研究包括以前未公开的有关微软AETHER委员会和七个内部工作组的结构及其在确定政策(例如在美国联邦监狱中使用面部识别)的作用的信息。

案例研究中的一个新内容是20国集团如何以及为什么认可与OECD原则相同的AI伦理原则。经合组织(OECD)创造了世界民主国家去年采纳的第一项道德原则。

该研究发现,人工智能治理自2016年以来已经历了三个阶段:近年来,科技公司和政府发布了约85项道德准则,这标志着第一阶段,随后围绕隐私,人为控制,可解释性和公平性等主题达成了共识。第三阶段始于2019年,一直持续到今天,正在将原则转化为实践。在第三阶段,她认为采用原则的企业和国家将面临信守诺言的压力。

该报告写道:“几乎所有AI利益相关者目前都面临着有关如何实施AI原则和策略的决策,并且正在以一种有意义的方式来确定实践和政策。”“人工智能公司和组织采取实施工作的压力越来越大,那些被认为偏离既定意图的行为者可能会受到员工,用户和公众的强烈反对。今天就如何大规模实施AI原则而做出的决定将对未来数十年产生重大影响,并且AI利益相关者有机会学习现有的努力,并采取具体步骤来确保AI帮助我们建立更美好的未来。”

该案例研究的部分编制是通过与每个组织的领导人进行访谈,包括微软首席科学家埃里克·霍维茨和经合组织的工作人员。

由于组织,技术和法规上的锁定效应,纽曼认为,像Microsoft和OECD那样的早期努力将特别有影响力,并且越来越多的AI伦理原则通用性“将导致建立确保AI原则和方法的方法的压力越来越大。策略得以实现。”

纽曼强调,每个案例都可以提供经验教训,例如AETHER如何说明自上而下的道德领导的需求,尽管每种方法可能都不是其他组织复制的理想模型。

例如,OpenAI面临研究人员的压制,他们称9个月内发布GPT-2是PR特技或背叛了同行评审的核心科学过程,但Newman认为OpenAI值得鼓励,因为它鼓励开发人员考虑发布APT的伦理意义。模型。她指出,承认和陈述人工智能系统的社会影响还不是常态。今年以来,全球最大的AI研究会议NeurIPS首次要求作者解决对社会的影响以及任何金融利益冲突。

该研究还汇编了一系列将原则付诸实践的最新举措,包括框架,监督委员会和工具,例如IBM的可解释AI工具包和Microsoft的InterpretML,以及隐私法规,例如加利福尼亚的CCPA和欧盟的GDPR。

上个月,来自Google和OpenAI等组织的一系列AI研究人员建议组织实施偏见悬赏或创建第三方审计市场,以将道德原则转化为实践,创建更强大的系统,并确保AI仍对人性。3月,Microsoft Research负责人与AETHER和来自十几个组织的近50位工程师一起,发布了针对AI从业人员的AI伦理清单。

免责声明:本文由用户上传,如有侵权请联系删除!