在面对灾难时保护公民常常需要做出深远的决定。欢迎提供任何帮助,包括来自AI的帮助。
如加利福尼亚和澳大利亚最近发生的事件所示,野火正日益失去控制。然而,消防员仍在不懈地与火焰搏斗-如今,他们拥有的不仅仅是水和可控制的烧伤。长期以来,数字化已经以地理信息系统,网络摄像头和无人机的形式成为其武器库的一部分。这些已成为预测和控制野火的关键工具,但是它们产生的大量数据迅速将人类的专业知识推向了极限。ETH安全研究中心(CSS)的风险与弹性研究团队负责人Benjamin Scharte说:“在处理海量数据时,AI总是有用的。” 最近,他和他的同事Kevin Kohler合作分析了AI在民防领域的使用。
“能够使用算法进行预测非常令人兴奋,”科勒说。消防前沿方向是哪个方向?我们应该在哪里设置下一个受控烧伤?通过处理所有可用数据,基于AI的建模工具可以帮助回答这些问题。这些数据可能包括天气预报,干旱持续时间,风向,甚至包括潜在的火源燃料。由此产生的预测可以使灾难响应更加有效。在最佳情况下,它们甚至可以作为一种预防手段。
民事保护对使用AI尤其敏感,因为它经常是生死攸关的问题,而且每一分钟都很重要。通常希望专家做出具有深远影响的快速决策,因此,他们感谢能够以更可靠的数据为基础做出决策的任何帮助。但是,最终,决策的质量始终取决于数据的质量。科勒告诫说:“无论我的算法多么聪明,如果我不能为灾难提供正确的数据,在紧急情况下它都将毫无用处。”
即使是最高质量的数据也无法完全取代多年来专家获得的经验,因此,由人还是由机器做出最终决定的问题非常复杂。总体上讲,该算法可能比人类算法产生的经济损失更低或人员伤亡更少,但它也可能在个别情况下做出我们认为不可接受的决策。沙特说:“对我而言,很明显,作为一个社会,我们将继续为将决策权留给自主机器而苦苦挣扎。”
信任的问题
那么,在什么时候我们愿意让机器做出自己的决定?沙特(Scharte)和科勒(Kohler)同意这取决于上下文:“民事保护有时是生死攸关的问题。人类应该在做出这些决定中发挥作用-这不是机器做出完全自主决定的地方。”
一个关键因素是人们对算法有多少信心。信任为接受铺平了道路,当我们能够清楚地了解算法在做什么时,两者都会得到增强。例如,当医生了解算法的决策逻辑时,他们更有可能信任该算法并将其纳入其工作中。大量研究已经证实了这一点,但是Scharte发出警告:“透明度和可解释性并不总能提高安全性。” 甚至在某些情况下,透明性可能是不利的,包括人为危害,例如网络犯罪和恐怖主义。“如果您确切地揭示算法 察觉到可疑的行为模式,那么敌对行动者更有可能故意超过行为。”沙特警告说。