Google LLC已在其云平台上推出了一项新的“可解释AI”服务,旨在使机器学习模型做出决策的过程更加透明。
谷歌表示,这样做的想法是,这将有助于建立对这些模型的更大信任。这很重要,因为大多数现有模型往往相当不透明。只是不清楚他们如何做出决定。
Google Cloud AI战略总监Tracy Frey在今天的博客中解释说,Explainable AI旨在提高机器学习模型的可解释性。她说,这项新服务的工作原理是量化每个数据因素对模型产生的结果的贡献,帮助用户了解其做出决定的原因。
换句话说,它不会以通俗易懂的方式解释事物,但是该分析对于首先构建机器学习模型的数据科学家和开发人员仍然有用。
可解释的AI有进一步的局限性,因为它提出的任何解释都将取决于机器学习模型的性质以及用于训练它的数据。
她写道:“任何解释方法都有局限性。”“一方面,AI解释反映了数据中发现的模型的模式,但它们并未揭示数据样本,总体或应用程序中的任何基本关系。我们正在努力向客户提供最直接,最有用的解释方法,同时保持其局限性透明。”
尽管如此,可解释的AI还是很重要的,因为准确解释特定机器学习模型为何得出结论的原因,对于最终负责这些决策的组织内的高级管理人员很有用。对于高度严格的行业来说,这尤其重要,而信心绝对至关重要。谷歌表示,对于处于这一职位的许多组织来说,没有任何可解释性的人工智能目前已超出范围。
在相关新闻中,Google还发布了所谓的“模型卡”,作为其Cloud Vision应用程序编程界面的面部检测和对象检测功能的文档。