今天,我们推出了Neural,这是我们以人为本的AI新闻和分析的新家。在我们庆祝幕后工作人员多年辛勤工作的高潮时,我花了一天的时间静静地思考着AI新闻业的未来。
《卫报》的奥斯卡·施瓦茨(Oscar Schwartz)在2018年发表了一篇题为“无话可说:媒体如何使AI令人震惊地出错”的文章。在其中,他讨论了2017年围绕Facebook的AI研究实验室进行的炒作爆炸式发展,该实验室开发了一对聊天机器人,这些聊天机器人创造了一种用于谈判的简写语言。
实际上,聊天机器人的行为举世瞩目,但并非完全出乎意料。不幸的是,整个媒体都报道了这个有趣的事件,好像“终结者”电影中的SKYNET诞生了一样。数十个头条新闻突然出现,宣称Facebook的AI已经“创造了人类无法与自己交流的语言”和其他废话。数十人补充说,Facebook的工程师在意识到他们所做的事情后感到非常恐惧,并“拔掉了插头”。
可悲的是,这种夸张的水平也不例外。尽管它并不总是像Facebook的聊天机器人那样极端,但是当涉及到AI报告时,您不必费神就可以找到奇怪的说法。
Schwartz的文章最终以沉闷的结尾结束,新兴技术专家Joanne McNeil本质上假设,如果记者赚更多的钱,他们会写出更好的文章。除了向我们支付更多的钱(对我来说这似乎是一个完全合理的策略)之外,我们还可以采取其他方式,通过明确反对炒作和虚假信息来提高AI产品的批发质量。
Robust.AI的首席执行官加里·马库斯(Gary Marcus)和“重新启动AI:构建我们可以信赖的人工智能”一书的合著者,竭尽全力向新闻界提供他的专业知识。在最近发表的有关Gradient的文章中,他重印了对AI作家的建议,从以下内容开始:
除去这些言论,人工智能系统实际上在做什么?“阅读系统”真的阅读吗?