虽然大多数人每天都会遇到算法,但没有多少人可以声称他们真的了解AI的实际工作原理。但是,Google推出了一种新工具,希望能够帮助普通人掌握机器学习的复杂性。
该功能被称为“可解释的AI”,它有望按照其名称描述的方式进行操作:向用户解释机器学习模型如何以及为何得出结论。
为此,解释工具将量化数据集中每个特征对算法结果的贡献。每个数据因子都有一个分数,反映了它对机器学习模型的影响程度。
用户可以拉出该分数,以了解给定算法为何做出特定决策。例如,在决定是否批准某人贷款的模型的情况下,可解释AI将显示帐户余额和信用评分作为最决定性的数据。
谷歌云首席执行官托马斯·库里安(Thomas Kurian)在伦敦的Google下次活动中介绍了该新功能,他说:“如果您使用AI进行信用评分,您希望能够理解为什么该模型拒绝特定模型并接受另一个模型一。”
他说:“可解释的人工智能使您作为在企业业务流程中使用人工智能的客户,能够理解为什么人工智能基础架构能够产生特定的结果。”
现在,该解释工具可以用于托管在Google的AutoML表和Cloud AI Platform Prediction上的机器学习模型。
谷歌此前曾采取措施使算法更加透明。去年,它推出了假设工具,供开发人员在公司的AI平台上工作时可视化和探查数据集。
通过量化数据因素,可解释的AI可以释放更多的见解,并使这些见解对更多用户可读。
Google Cloud战略主管Tracy Frey说:“您可以将AI解释与我们的假设分析工具配对,以全面了解模型的行为。”
在某些领域,例如医疗保健,提高AI的透明度将特别有用。
例如,在使用算法来诊断某些疾病的算法中,它将使医生可视化模型拾取的症状以做出决策,并验证这些症状不是假阳性或其他疾病的征兆。