机器学习算法也开始超过许多狭窄和特定的领域,例如人力绩效的图像识别和某些类型的医疗诊断小号。它们还在更复杂的领域中得到了快速的改进,例如生成令人反感的类人文字。我们越来越多地依赖机器学习算法,在广泛的议题作出决定,从我们投入数十亿小时看向谁得到这份工作。
但是机器学习算法无法解释他们做出的决定。
如果我们不了解人们如何做出这些决定,我们如何证明这些系统负责影响人们生活的决定?
从机器学习算法中获取比原始数据更多的渴望导致人们重新关注可解释的AI:可以做出决定或采取行动并告诉您背后原因的算法。
是什么让你这么说?
在某些情况下,您已经看到了通往可解释的AI的道路。采用OpenAI的GTP-2模型或IBM的Project Debater。两者都基于大量的训练数据生成文本,并尝试使其与给出的提示尽可能相关。如果这些模型还能够快速提供他们从中提取信息的那组训练数据中最重要的几个来源,那么可能更容易理解“论点”(或关于独角兽的诗文)的来龙去脉。从。
这类似于Google现在正在寻找其图像分类器的方法。许多算法对纹理和图像中相邻像素之间的关系更敏感,而不是像人类一样通过轮廓识别对象。这会导致奇怪的结果:某些算法可以愉快地识别出一只完全混乱的北极熊图像,而不是北极熊剪影。
使图像分类器可解释的先前尝试依赖于重要性映射。在这种方法中,算法将突出显示做出决策的统计权重最大的图像区域。通常,这是通过更改图像中的像素组并查看哪些像素对算法对图像的印象有最大的变化来确定的。例如,如果算法试图识别停车标志,则更改背景不太可能像更改停车标志一样重要。
Google的新方法通过以几种不同的分辨率检查对象并在主要对象中搜索与不同“子对象”的匹配来改变其算法识别对象的方式。您或我可能会从其闪光灯,轮胎和徽标中识别出一辆救护车;我们可能会放大NBA球员所拥有的篮球来推断他们的职业,等等。通过将图像的整体分类与这些“概念”联系起来,该算法可以解释其决定:由于猫的尾巴和胡须,我将其分类为猫。
但是,即使在这个实验中,算法在决策中的“心理”也是违反直觉的。例如,在篮球案中,做出决定的最重要因素实际上是球员的球衣而不是篮球。
您能解释一下您不了解的内容吗?
尽管看似微不足道,但这里的冲突是人工智能方法中的根本冲突。也就是说,仅通过海量数据之间的统计关联就可以达到多大的距离,您需要引入多少抽象概念才能产生真正的智能?
一方面,优良的老式AI或GOFAI梦想着完全基于符号逻辑的机器。该机器将采用狗,花朵,汽车等的概念进行硬编码,再加上我们内部化的所有象征性“规则”,使我们能够区分狗,花朵和汽车。(您可以想象一种类似的对话式AI方法将自上而下地教授单词和严格的语法结构,而不是像GPT-2那样从训练数据中字母和单词之间的统计关联中“学习”语言。)
这样的系统将能够自我解释,因为它将处理高级的,人类可理解的概念。方程更接近:“球” +“针” +“白色” =“棒球”,而不是由数百万个数字组成的将各种路径连接在一起的集合。Google用来解释其图像识别的新方法中有GOFAI的要素:新算法可以根据对象包含的子对象来识别对象。为此,它至少需要基本了解那些子对象的外观,以及将对象链接到子对象的规则,例如“猫有胡须”。
当然,问题是(可能是不可能的)劳动强度大的任务,即定义所有这些符号概念以及可能用手将它们链接在一起的所有可能的规则。创建这样的系统(可以处理现实中存在的“组合爆炸”)的困难,导致了第一个AI冬季。
同时,神经网络依赖于对大量数据的训练。没有监督学习的“标签”,该过程可能与人类可以理解的任何概念都没有关系(因此完全是无法解释的)。
在这两者之间的某个地方,是希望可以解释的AI爱好者,是可以处理大量数据的快乐媒介,它为我们提供了最近的神经网络AI所拥有的所有好处,同时以人类可以理解的方式展示了它的工作原理。