基于芯片架构和高带宽内存的深度学习加速器正在兴起,以实现机器学习算法的近实时处理。内存芯片专家美光科技公司认为,与更高内存密度相关联的硬件加速器是加速“内存绑定” AI应用程序的最佳方法。
美光公司(纳斯达克股票代码:MU)本周宣布与德国汽车供应商美国大陆集团(OTCMKTS:CTTAY)建立合作伙伴关系,以使存储器制造商的深度学习加速器适应机器学习汽车应用。合作伙伴表示,他们将专注于车辆自动化系统。
美光的深度学习加速器还具有用于其他边缘部署的机器学习应用程序,这些边缘部署迄今为止用于本地数据处理的内存带宽未能跟上微处理器核心增长的步伐。
美光的方法结合了硬件和软件,以加速和减少由高带宽存储器支持的FPGA的功耗。该软件包还包括一个抽象基础硬件的机器学习软件开发套件。该方案无需进一步的FPGA编程。
Micron加速器在Xilinx Virtex Ultrascale + FPGA上运行,可容纳高达512 Gb的DDR4内存,而内存带宽高达68 Gb / s。预加载的 推理引擎 支持多种神经网络类型,而FPGA可以用Python和C ++编程。
同时,该软件套件支持用于训练神经网络的一批框架,包括Caffe 2,PyTorch和TensorFlow。
“与美光公司合作,为支持多个网络和框架的边缘推理构建可扩展且灵活的解决方案,将使我们能够在我们的平台上高效部署机器学习,”美国大陆航空创新中心硅谷副总裁Dirk Remde说。
“与美国大陆航空合作的主要目标之一是创建一种敏捷的边缘推理解决方案,该解决方案利用机器学习并提供汽车行业所需的易用性,可伸缩性,低功耗和高性能,”美光公司副总裁Steve Pawlowski补充说。高级计算解决方案总裁。
美光(Micron)是大量专用AI硬件中的最新产品,其中包括Google的Tensor处理器,英伟达(NASDAQ:NVDA)的GPU加速器以及AMD(NASDAQ:AMD)和Intel(NASDAQ:INTC)的深度学习引擎。美光的转折涉及将推理引擎嵌入加速器中,并将其绑定到更大的内存管道中。
谷歌(纳斯达克股票代码:GOOGL)和美光公司还一直在与欧洲核研究组织CERN的科学家合作,将其框架应用于高能物理问题。CERN研究人员正在测试Micron的 深度学习加速器 ,这是该实验室大型强子对撞机实验的两个项目的一部分。内存增强型神经网络方法正在用于测试数据采集系统。
美光公司的马克·赫尔(Mark Hur)在最近的博客文章中指出:“只需更改几行代码,研究人员就可以像瞄准GPU那样瞄准Micron加速器 。”