奥斯汀—戴尔技术公司产品与运营总裁兼首席技术官约翰·罗斯(John Roese)表示,如果我们希望人类信任人工智能(AI),那么就需要教会机器同理心。
罗斯在上周的戴尔技术峰会上与另外两个戴尔技术公司的CTO组成了小组:戴尔Boomi的Michael Morton和RSA的Zulfikar Ramzan。Boomi是一家数据管理公司,它使企业可以在云和本地应用程序之间集成和传输数据。RSA是一家安全公司,其创始人开创了公共密钥加密技术。
这三个CTO讨论了数据时代的三个主要问题:在人工智能(AI)驱动的实时数据环境中,基础架构是什么样的?人类将在AI驱动的实时数据管道中扮演什么角色?在这个勇敢的新AI世界中,安全风险模型将是什么样?
这是三个非常聪明的家伙(没有那么多喜剧演员,因为他们很快就承认了)。因此,他们都对AI有一些非常有趣的想法。但是特别引起我注意的一个是善解人意的AI。罗斯(Roese)说过,这个话题他“在AI界颇有说服力”。实际上,他参加了2020年3月在SWSX上与此主题相关的小组讨论。
罗斯说,除非人类可以信任机器学习,否则人工智能的进步不会发生。现在,存在巨大的信任差距。
罗斯说:“对于大多数人来说,人工智能是一个黑匣子,我们不信任它,因为我们不了解它内部正在发生什么。”他补充说,“您的怀疑已经得到了全面的解决。AI正在根据给定的数据工作。它并没有考虑到您的情绪和幸福。它基本上是在获取数据集,并在没有上下文的情况下给出最佳答案。”
学到的AI同理心
另一方面,人类通常具有这种背景。因此,我们的决策可能并不总是反映最快,最线性的解决问题的方法。但是他们确实-或至少应该-考虑给定的决定将如何影响其他人。换句话说:人类具有同理心。这意味着我们需要将伦理考虑因素整合到机器学习数据集中,以确保AI最终以取悦人类的学习同理心做出决策。
罗斯说:“人工智能系统基于额外的刺激而工作。”“您提供这些数据流,而这些数据流从根本上影响模型。”但是,这也意味着人们可以感觉到AI系统的不良数据,例如偏差。
Roese建议将传感器和生物反馈整合到机器学习模型中,以便AI可以了解与之交互的人类的情绪状态。“如果我能够测量您的生物反馈该怎么办?我知道您的压力水平,心脏呼吸频率或出汗率吗?如果这是模型工作方式的一个因素?因此,它了解到,即使我选择了选项A,即使它给我带来了不错的结果,也可能会激怒人类。”
显然,那些试图与与这些AI系统进行交互的客户,合作伙伴和员工赢得信任的企业。这些公司不想让人类生气,这就是为什么善解人意的AI如此重要的原因。
因此,我们教机器选择选项B。罗斯说:“这可能会更加令人费解,但是会有更好的结果。”“人类将减轻压力,并且会更快乐。一旦您了解到AI代表您思考,就在考虑您的环境,您就会开始更加信任它。”