AI大肆宣传。但是,为AI提供动力的技术就像猴子的爪子一样:它们完全按照您的要求进行操作,并带来许多其他意外的后果。Daniel Blackburn指出,牢记“为什么”对项目的成功至关重要。
解决问题或创建解决方案时,人类倾向于在“为什么”之前先问“什么”。但是,对于机器认知而言,“为什么”比“什么”更重要,以确保任何努力背后的推理和使命都扎根于意图,而不会盲目地投入。
根据Globant的数据科学家Daniel Blackburn的说法,牢记“为什么”对于项目的成功至关重要-指导团队进行有计划的构建,并限制机器自身学习带来的意外后果。布莱克本在我们的特别采访中解释了“如何”。
Digital Journal:AI的发展程度如何?
丹尼尔·布莱克本(Daniel Blackburn):
从狭义上讲,机器已经很长时间了。袖珍计算器自1970年代就问世了,到今天,它比我们还快,而且精度很高。1997年,《深蓝》证明了计算机可以在我们自己的游戏中击败我们。但是,在过去的十年中,机器学习的进步使AI渗透到了日常生活中。
以自动驾驶汽车为例。如今,智能汽车可以在高速公路上维持车道并在停车场被召唤。汽车尚未将自己从皮卡车带到目的地,但鉴于我们看到的进步,我不敢打赌它会在未来十年内投放市场。现在的问题是,当我们的运输系统不再需要数百万的劳动力时,社会将如何改变?
布莱克本:
存在一个潜在的问题,“什么是智力?”定义智力已经成为一个移动的目标,但是从高层次来看,智力取决于我们认为是智能的人,并且基于智能人可以做的任何事情。这种“智能的存在”并不需要深入理解,而需要在此前提下进行操作。
在这方面,机器正变得越来越智能。这在认知的每个领域都得到了证明。仅举几例:游戏代理(例如国际象棋),计算机视觉,自然语言理解和生成,自动语音识别以及自动驾驶汽车。有人会争辩说,到目前为止构建的AI模型具有狭义的智能。AI模型可以做一件事,但是人类可以做很多事。但是,我相信,随着AI模型变得越来越成熟,我们将看到越来越多的软件开发人员将它们像Lego Bricks用作其更大系统的组成部分。该系统将具有执行功能,即大脑,可以决定遇到特定问题时要使用哪种AI模型。大脑可能是一组人为规则,也可能是另一种AI模型,其本身就是狭小的智能。在任一情况下,组装的产品开始使用各种技术来解决各种问题。这些“智能工具”将补充人类。在工作场所,它们将使我们将注意力集中在新的,具有挑战性的,尚未解决的问题上。
DJ:人工智能在目前的发展轨迹上会带来什么风险?
布莱克本(Blackburn):
一种风险是人们使用AI传播错误信息。图像和文本生成的许多技术今天已公开可用,仅出于邪恶目的而需要改进。
伪造品目前在公众的外围。这些技术最终将进入公众意识的最前沿。我希望他们通过一系列道德证明自己能力的行为进入我们的意识,例如乔丹·皮尔(Jordan Peele)模仿奥巴马。一个可怕的选择是,它们将用来影响选举的公众舆论,而民意调查结束后人们将广泛意识到这一问题。
文本生成是攻击我们的“社会秩序”的另一种途径。僵尸程序可以围绕主题生成大量可传递的文本。这样的消息可能是如此多样,以至于至少有一些消息将作为人类可理解的文本传递。如果将这些消息大规模提交给公共论坛,那么这些论坛将用于使人们之间相互交流想法?机器有机会使边缘问题成为主流,或者暗示问题周围存在“沉默的多数”。随着这些机器人越来越普遍,我们可能需要开发新工具,以从自动生成的消息中区分个人的想法。与视频伪造一样,我们将需要集体学习区分人类生成的文本和计算机生成的文本。