科技巨头IBM投资人工智能AI硬件

科技巨头IBM投资人工智能AI硬件

科技巨头IBM投资人工智能AI硬件

科技巨头IBM投资人工智能AI硬件

尽管当今的IBM硬件业务仅限于POWER和Mainframe芯片和系统,但该技术巨头正在悄悄地建立自己在AI硬件方面的专业知识和能力。IBM对AI硬件的研究

IBM于2019年初成立了IBM Research AI硬件中心,与纽约州,纽约州立大学理工学院以及Mellanox,Samsung和Synopsys等技术公司合作进行AI Chip研究。该中心对AI硬件采取整体,端到端的方法,朝着其雄心勃勃的目标努力,即在未来10年内将AI性能提高1000倍。这始于我们将在这里讨论的降低精度的技术。同时,该中心还在开发新的数字和模拟AI内核,以实现这些创新。该路线图最终以由目前尚未在半导体制造中使用的现存材料制成新内核。

IBM最近发表了两篇论文,描述了其降低精度的方法,这些方法旨在提高AI处理效率,同时保留预测的准确性。基本上,在NVIDIA和Google的带领下,人工智能研究在过去4-5年中一直在利用降低的精度数字和数学运算。如果“降低精度”听起来像是一件坏事,请记住,更高的精度会带来巨大的成本-使用数字的位长的平方会增加。因此,从32位加速到16位(或降低成本)的速度提高了4倍。Google最近提出了一种新的16位格式,称为Bfloat,该格式使用的位数更多,指数尾数更少。高于IEEE 16位浮点标准。与传统的32位格式相比,这可以在保留精度的同时使用更少的功率和芯片空间。英特尔就是其中之一。但是,研究人员在努力争取8位浮点数的下一步时一直努力保持准确性。IBM本周提出了一种“混合8位浮点数”格式,该格式可以提高性能或将成本降低多达4倍。就是说,如果某人(IBM?)生产出可以执行这些计算以进行训练的芯片,则该芯片将使用已经“量化”为那些8位格式的DNN。这些操作的“混合”性质来自于前向和后向传播计算所需的不同精度要求。通过针对前向和后向传递计算量身定制用于指数和尾数的位数,IBM证明了确实可以仅使用8位权重和激活来训练用于视觉,语音和语言处理的神经网络。而且,它可以以与16位数学获得的结果相当的精度执行此操作。另外,

如果所有这些数学运算听起来都很复杂,则好处非常简单。从理论上讲,这种方法可以使某人构建用于训练深度神经网络的芯片,该芯片将使用1/4芯片面积,或者以相同的成本提供4倍的性能。

在AI的推理方面,出于相同的原因,芯片公司和模型开发人员正在转向8位整数数学。但是,有人还能降得更低吗?迄今为止,使用较低精度的努力未能达到8位模型提供的精度。但是,IBM最近发表了一篇论文,该论文提议使用称为参数化限幅激活(PACT)和统计感知权重合并(SAWB)的两种技术,当结合使用时,它们已经演示了2位推理处理,可提供与8位相当的准确性。量化模型。如果有人在CPU或AI芯片中使用这些技术,答案可能是“所有人”。IBM的路线图肯定意味着该公司将做到这一点,但就目前而言,这一切都是在IBM Research而不是产品部门完成的。我在IBM工作了10年,经常有一些研究项目从未成为产品。这就是研究的本质。尽管如此,让我们考虑一下IBM如何进行。

我看到了IBM通过AI硬件研究成果获利的三种选择。首先,它可以将该技术许可给其他半导体公司用于移动,边缘和数据中心硅平台。其次,IBM可以将该技术构建到IBM POWER和/或大型机处理器中,尤其是2位推理处理。第三,IBM可以生产用于数据中心培训和推理处理的加速器,直接与NVIDIA,Intel等竞争。最后一个选项可能会解决更大的市场,但会带来业务问题-IBM需要建立一个渠道,以覆盖其POWER和Mainframe安装基础之外的数据中心客户。例如,IBM可以通过Lenovo出售给正在构建数据中心服务器的ODM。

在新的AI硬件研究中心,IBM取得深刻的印象,而且仅用了一年的时间。从实现将效率提高1000倍的雄心勃勃的愿景开始,它采用了从算法到芯片再到材料的整体方法。这使其在这个快速发展的市场中具有巨大的潜力。该中心很快将需要对其商业模式做出一些艰难的选择,以便将这项研究货币化并达到其目标市场。管理层需要保持耐心并坚持到底,我认为下一任首席执行官Arvind Krishna将会做到这一点。也就是说,在过去十年中,IBM稳步摆脱了硬件业务。



分享到:


相關文章: