芝加哥大学东方学院和计算机科学系的研究人员合作设计了一种AI,该AI可以帮助解码来自古代文明的平板电脑。根据Phys.org的说法,该AI被称为DeepScribe,并且接受了从Persepolis Fortification存档中提取的6,000多张带注释的图像的训练,当AI模型完成后,它将能够解释未经分析的图形输入板,从而使研究古代文献变得更加容易。
计算机视觉算法和深度学习体系结构为该领域带来了新的可能性。OI计算机科学系的Sanjay Krishnan与Assyriology的副教授Susanne Paulus合作启动了DeepScribe程序。研究人员监督了一个名为OCHRE的数据库管理平台,该平台整理了考古发掘的数据。目标是创建一个既广泛又灵活的AI工具,能够解释来自不同地理区域和时间段的脚本。
正如Phys.org报道的那样,克里希南(Krishnan)解释说,考古研究人员面临的识别脚本的挑战与计算机视觉研究人员面临的挑战基本相同:
“从计算机视觉的角度来看,这确实很有趣,因为这些是我们面临的相同挑战。在过去的五年中,计算机视觉有了显着改善;十年前,这本来应该是波浪形的,我们走得太远了。这是一个很好的机器学习问题,因为这里的准确性是客观的,我们有一个标签化的训练集,而且我们对脚本的理解非常好,对我们有帮助。这不是一个完全未知的问题。”
所涉及的培训是从OI和U Chicago进行的大约80年的考古研究中获取平板电脑和翻译的结果,并从中获得高分辨率的带注释的图像。当前,训练数据的大小约为60 TB。研究人员能够使用数据集,并创建一个字典,其中包含超过100,000个可以从模型中学习的独立识别标志。当训练的模型在看不见的图像集上进行测试时,该模型达到了约80%的准确性。
当研究人员团队尝试提高模型的准确性时,即使80%的准确性也可以协助转录过程。Paulus认为,该模型可用于识别或翻译文档中高度重复的部分,从而使专家可以花时间来解释文档中较难处理的部分。即使模型无法确定说出一个符号所代表的含义,它也可以为研究人员提供概率,这已经使他们领先。
该团队还致力于使DeepScribe成为其他考古学家可以在其项目中使用的工具。例如,可以在其他楔形文字上对该模型进行重新训练,或者该模型可以对损坏或不完整的平板电脑上的文本进行明智的估计。一个足够健壮的模型甚至可以估计片剂或其他人工制品的年龄和起源,这通常是通过化学测试完成的。
DeepScribe项目由高级计算开发中心(CDAC)资助。计算机视觉也已在CDAC资助的其他项目中使用,例如旨在识别艺术品风格的项目以及旨在量化海洋双壳类生物多样性的项目。研究人员团队也希望他们的合作能够导致芝加哥大学计算机科学系和OI之间的未来合作。