人工智能本身可以解决AI引起的问题吗?我将这个问题提交给IBM的Francesca Rossi和上周在巴黎《财富》全球论坛上发表讲话的弗朗西斯卡·罗西(Francesca Rossi),他领导了Blue Blue在人工智能伦理方面的工作,而Facebook AI研究实验室的负责人安托万·鲍德斯(Antoine Bordes)。
是的-至少在某些情况下,两位研究人员都说。
例如,Bordes的小组正在创建基准测试,该基准测试可用于训练机器学习算法来自动检测Deepfake。罗西说,在某些情况下,人工智能可以用来突出其他人工智能算法创建的模型中的潜在偏差。
尽管技术可以提供有用的工具来检测甚至纠正AI软件的问题,但两位科学家都强调,不应让人们对需要批判性的人类判断感到自满。
“解决这个问题确实是一个过程,”罗西告诉我。“当交付AI系统时,您不能在准备部署产品时就考虑这些问题。您可以在此阅读更多关于我们的讨论的内容,并在此处观看视频。
在本周晚些时候,我去了英国剑桥,观看了最新版本的IBM“ Project Debater” AI帮助两队人类在拥有200年历史的剑桥联盟辩论会上对峙。辩论的主题是:人工智能是否会造成弊大于弊。
运作方式:在进行辩论的一周内,一个IBM网站众筹了1100多个论点。该软件接受了这些论点,并在大约两分钟内将其归类为赞成或反对该主张,并将其提炼为每一方面的五个主要主题。
尽管Project Debater的聚类和汇总技巧令人印象深刻,但人类辩论者偷走了该节目。伯明翰大学法律与伦理学教授西尔维·德拉克劳瓦(Sylvie Delacroix)认为,人工智能是一种罕见的工具实例,其设计对其道德价值至关重要。她说:“是的,AI确实确实与它所馈送的数据一样好。”但是,她认为,这潜在地赋予了人们巨大的力量。如果他们聚集在一起并将其数据汇总到诸如数据信任之类的实体中,则他们可以抓住对AI开发和使用的大量控制权
另一方面,前亚马逊机器学习负责人,剑桥大学教授尼尔·劳伦斯(Neil Lawrence)表示,认为该技术会造成危害更为谨慎,因为这样一来,人们将对潜在危险保持警惕,并寻求预防措施—与帕斯卡的赌注相比,他的位置。您可以在此处阅读有关辩论的更多信息。