这些警告来自牛津大学的尼克·博斯特罗姆(Nick Bostrom)等各种专家,还有埃隆·马斯克(Elon Musk)和已故的斯蒂芬·霍金(Stephen Hawking)等公众人物。他们画的照片太暗了。
作为回应,许多人梦想着制定一套原则来指导AI研究人员,并帮助他们谈判人类道德和道德的迷宫。现在,《自然机器智能》上的一篇论文声称这种如此高的原则虽然值得称赞,但却无法为我们提供我们需要的道德AI社会,从而使工作陷入混乱。
AI伦理学领域通常分为两个领域:一个是指导开发AI的人类的伦理学,另一个是指导AI或机器人本身的道德行为的机器伦理。但是,这两个区域并不是那么容易分开的。
机器伦理有着悠久的历史。1950年这位伟大的科幻作家艾萨克·阿西莫夫明确阐述他对工作,现在著名的“机器人三个定律”我,机器人,并提出了它们的方式:
1-机器人不得伤害人类,也可以通过不采取行动而伤害人类。
2- 机器人必须服从人类的命令,除非这些命令会与第一定律发生冲突。
3- 机器人必须保护自己的存在,只要这种保护与第一或第二定律不冲突。
后来又增加了“零”定律:机器人可能不会伤害人类,也可能无所作为而让人类受到伤害。
这些法律共同构成了阿西莫夫(以及编辑约翰·坎贝尔(John W Campbell)的想法),以确保如何确保人工智能系统不会影响其创建者:一种旨在生产友好而仁慈的机器人的安全功能。阿西莫夫(Asimov)在众多著作中探索了这三个定律的局限性,常常发现它们是缺乏的。虽然法律是一种文学手段,但它们仍然为AI伦理的现实世界提供了信息。
2004年,电影《机器人》(I,Robot)的改编版上映,其中包括一台AI,该AI对这三个定律的解释导致了一个计划,要统治人类以拯救我们自己。
为了凸显这三部法律的道德原则的缺陷,由美国AI研究人员Eliezer Yudkowsky领导的名为人工智能奇点研究所(现为机器智能研究所)的组织启动了一个名为“三部法律不安全”的在线项目。
Yudkowsky是超智能AI的危害的早期理论家,也是友好AI理念的拥护者。他认为,如果AI发展到阿西莫夫小说中所描述的阶段,那么这些原则将变得毫无希望。
尽管人们普遍认识到这三部法律的弊端,但从私营公司到政府,许多组织都坚持开发基于原则的AI伦理体系的项目,其中一篇论文列出了“84份包含AI伦理或指导原则的文件,迄今已出版。