第一步是记录产品和行为的血统。它的读物应该几乎像每个AI产品或服务的历史一样,并且应该从头开始,解释组织编写算法的目的。
据论坛称,需要包括培训数据集,预期的使用场景,安全和公平性测试的结果以及性能特征。系统运行时的行为也是如此,应该用来理解机器学习模型做出的预测。
第二步建议组织针对其特定的战略发展和运营需求对EC白皮书的特定要求创建正式的解释。解释应由内部跨职能小组创建。
论坛还建议使用组织对EC白皮书的解释作为衡量标准,评估所有产品和服务的合规性。
论坛表示:“由风险和合规官,产品经理和数据科学家组成的独立的跨职能团队应进行内部审核。”
也许最具争议的建议是第四:“向相关利益相关者报告调查结果。”
换句话说,将审核分发给监管机构,产品购买者,提供者,消费者团体和民间社会组织。目标是保持透明,以增加信任度,否则,人工智能将继续受到恐惧和猜疑的困扰。