如果我们希望机器人能够像我们一样思考,我们就必须停止给他们所有答案。好奇心和探索是深度学习根本无法提供的人类智力的两个关键组成部分。
在《Quanta》杂志的最近一篇文章中,作家Matthew Hutson描述了计算机科学家Kenneth Stanley的工作,他目前在Uber的AI实验室工作。斯坦利在“神经进化”领域的开拓性工作为新的人工智能范式铺平了道路,该范式避开了传统的基于目标的训练模型,而转向了仅具有探索和创造力的AI模型。
哈特森写道:
生物进化也是产生人类智能的唯一系统,这是许多AI研究人员的终极梦想。由于生物学的历史记录,Stanley和其他人开始相信,如果我们希望使用能够尽可能轻松地(甚至更好)导航物理和社交世界的算法!-我们需要模仿自然的策略。
他们认为,与其硬编码推理规则,要么让计算机学会在特定的性能指标上获得高分,我们必须让大量的解决方案蓬勃发展。让他们优先考虑新颖性或趣味性,而不是走路或说话的能力。他们可能会发现一条间接的道路,一系列的垫脚石,并且比起直接寻求这些技能的人来说,走路和说话要好得多。
标准深度学习模型使用黑匣子(一组权重和参数,最终使它们变得过于复杂,以至于开发人员无法单独描述)来“精简”机器学习算法并对其进行调整,直到它们输出正确的数据为止。这不是智慧,是指望。
如果AI能够发展自己的解决方案并将这些参数与深度学习结合起来,那么它将更接近于模仿人类层面的问题解决方案。至少,斯坦利(Stanley)认为。
他的研究涉及构建可与深度学习系统协同工作的进化算法。从本质上讲,他没有教AI解决问题,而是开发了一些曲折的算法,以了解它们的功能。这些系统无法解决像正常AI范例这样的问题。他们只是一直走到发生某件事为止。值得注意的是,与传统的深度学习模型相比,他们无需解决任何问题,仍然可以有效地解决许多问题。