近年来,在测量机器学习的偏见方面存在一个估计。我们现在知道,这些“无偏见”的自动化工具实际上并非没有偏见,并且越来越多的要求研究人员在将其产品释放给社会之前考虑他们的产品可能如何破坏或危害他人的生命。但是,这不仅是我们应该担心的最终产品,而且还涉及构建它们的后果。训练这些算法实际上会毒害我们的星球。
随着世界在Facebook饲料和后院中燃烧,即使是最无害的东西的碳足迹也正在受到审查。它引发了有关空调设备,吸管,面部磨砂膏,塑料袋,航空旅行的辩论。但是,也有一些世俗的系统无法察觉地统治着我们的生活,并助长了气候变化,例如垃圾邮件过滤器,翻译服务,搜索引擎关键字和智能助手。
这些服务的基础称为自然语言处理(NLP),这是人工智能的一个分支,旨在教机器如何理解人类语言的细微差别。以有价值的方式训练这些语言模型需要大量的计算能力和电力。仅仅使用由该技术提供支持的工具并不能引起全世界的关注(无需抵制自动更正),但是,如果工业界和学术界不采取更环保的做法,那么教给这些工具背后的大脑可能会造成真正的环境破坏。
“我们希望就我们这个社区如何开始思考效率而不仅仅是以越来越高的准确性开始思考的对话,”最近关于环境后果的论文的合著者Ananya Ganesh深度学习,告诉我。Ganesh是马萨诸塞州阿默斯特大学的一组研究人员之一,该研究组于6月发表了一篇论文,研究了这些模型对环境的影响。研究发现,仅训练一种AI模型产生的二氧化碳当量就相当于五辆普通美国汽车的终身排放量。
这些发现在AI专家社区中存在分歧。它仅探讨了如何训练AI模型的一个非常具体的示例,大多数机器学习研究人员不一定都使用该模型-从头开始训练。仍然有一个基本共识,即人们迫切需要关注机器学习对气候变化的贡献。
魁北克市Mila AI研究所的博士后研究员Sasha Luccioni致力于开发这种工具,以帮助AI研究人员估算其机器学习模型的碳足迹。她承认,马萨诸塞州大学的论文有些微不足道,因为与研究中使用的场景不同,“很少有人”从头开始训练他们的模型,现在很多培训是使用诸如例如Google,Amazon和Microsoft,它们大多数都是碳中和或正在向碳中和。但是卢奇奥尼(Luccioni)告诉我,这项研究是围绕能源效率和AI进行重要对话的重要途径。她说:“重要的是要讨论这些问题,并将其作为标准对话的一部分进行。”