实际上,人工智能(AI)已经成为所有领域的重要技术,并为社区和公司提供了新功能。但是,缺乏信任仍然阻碍了信任的接受。
人工智能的潜在风险因素要求政府和行业的关键利益相关者广泛参与,以确保有效的监管和标准化。例如,我们最近采用了欧盟委员会关于可信赖AI的道德准则,并将在可能的情况下继续努力。
除了确保其AI活动符合法规和标准之外,组织还可以如何构建可信赖的AI?
下面,我分享了基于领先的道德操守和合规计划的方法,构建可信赖的AI的8个步骤,以及为什么企业必须采用它们作为AI的必要条件。
从顶部开始:跨国公司的高层管理人员通常对自己所在行业的典型道德或合规风险有很好的认识,但是许多人仍然不了解如何在组织内开发和使用AI。公司领导必须接受有关可信赖的AI原则的教育,这将使他们能够对道德和AI提出明确的立场,并确保其符合相关法律法规。
进行风险评估:必须了解相关风险。人工智能是一种新兴技术,可以称为许多事物,例如机器学习,智能和自治系统等,这意味着其在法规和标准中的定义含糊不清,风险难以确定。将需要一个风险评估框架来绘制高风险活动图并计划缓解措施。在为值得信赖的AI欧盟道德准则提供了一份问题清单,帮助企业定义与AI相关的风险。
角色和责任:虽然公司精通建立道德与合规计划,但很少有道德与合规人员对AI有必要的了解。因此,将需要在这些专业人员及其技术同行之间建立新的联盟,以商定角色和责任。
建立基准:值得信赖的AI流程应嵌入公司的管理系统中。需要修改政策和程序,以传达公司对防止AI解决方案对人权产生不利影响的期望,并帮助解决任何可能发生的问题。值得信赖的AI道德和合规计划将需要包含非技术和技术措施的组合。非技术措施包括防止歧视和无意识偏见的措施,而技术措施则包括确保合规算法。
推动公司范围内的道德和AI意识:公司需要对整个员工进行教育,以了解与AI一起工作对社会,法律和道德的影响。应该说明与AI有关的风险,以及任何减轻这些风险的公司政策。在可信赖的AI上培训多学科的劳动力将需要关于道德和价值观的讲习班,而不是侧重于合规指南。芬兰的“人工智能要素”倡议提供了免费的在线介绍课程,以揭开人工智能各个方面的神秘面纱。
监控:公司将对AI的使用,开发和部署负责。现有系统将需要进行评估并不断改进,并且可能需要新系统来生成和管理支持风险缓解活动的文档。
机上第三方:很少有公司独自管理结合AI的产品和服务的开发。公司应该从参与开发AI的第三方那里获得相互的承诺,以确保该技术是值得信赖的并按照公司的标准进行开发。供应商审核计划将需要扩展,包括评估在AI解决方案开发过程中供应商如何解决对人权的潜在不利影响。
建立言论文化:最后,必须建立言论渠道,以便员工在确定AI系统可能对人权产生不利影响的情况下提出疑虑。如果发生任何损害,一些公司还将要求建立人权申诉机制。