人工智能巨无霸160亿的寒武纪,能领跑AI芯片吗?

人工智能巨无霸160亿的寒武纪,能领跑AI芯片吗?

2018年6月20日,寒武纪宣布完成数亿美元的B轮融资,投后整体估值达人民币160亿元,领跑全球智能芯片领域。寒武纪科技的云端芯片产品线使用全新的命名“机器学习处理器”(MLU),ML系统是由GPU和FPGA驱动。

那么关于GPU和FPGA对人工智能的重要性如何呢?

在商业软件中,电脑芯片已被遗忘。在商业应用程序的下面,这是一种商品。机器人技术与个人硬件设备更紧密地联系在一起,因此制造应用程序仍然更侧重于硬件。

自从20世纪70年代以来,人工智能(AI),特别是深度学习(DL)的现状是硬件与软件的关系比任何时候都更紧密。 尽管网上部分“管理人工智能”的文章是关于过度拟合和偏见的,但机器学习(ML)系统中存在两个主要风险。 本文深入探讨了许多管理人员,尤其是业务线经理可能对ML生态系统中不断提及的硬件缩写:图形处理单元(GPU)和现场可编程门阵列(FPGA)的问题。

它有助于理解GPU的价值,因为它加速了深度学习应用程序所需的张量(数学)处理。 FPGA有兴趣寻找研究新AI算法的方法,培训这些系统,并开始部署现在正在许多工业AI应用中研究的低容量定制系统。虽然有关于FPGA进行培训的能力的研究讨论,但我认为早期使用是F在现场使用的原因。

例如,训练一个推理引擎(ML“机器”的核心)可能需要千兆字节,甚至千兆字节的数据。在数据中心运行推理时,计算机必须管理不断增加的并发用户请求数的可能性。在边缘应用程序中,无论是在无人机中检查管道还是在智能手机中,设备都必须很小且仍然有效,而且还具有适应性。简单地说,一个CPU和一个GPU是两个器件,而一个FPGA可以有不同的块做不同的事情,并有可能提供一个强大的片上系统。鉴于所有这些不同的需求,最好了解可支持不同需求的系统架构的当前状态。

有两类主要的芯片设计可以驱动当前的ML系统,GPU和FPGA。在未来的中期(至少几年),也有可能成为游戏转换者的新技术的暗示。让我们来看看。

图形处理单元(GPU)

ML世界中最大的芯片是图形处理单元GPU。主要为计算机显示器制造电脑游戏看起来更好的东西是如何变得对机器学习至关重要的?要理解这一点,我们必须回到软件层。

ML目前的冠军是深度学习(DL)系统。 DL系统基于各种算法,包括深度神经网络(DNN),卷积神经网络(CNN),递归神经网络(RNN)以及许多其他变体。你在这三个术语中看到的关键词是“网络”。算法是一个主题的变体,主题是几层节点,节点和层之间有不同类型的通信。

人工智能巨无霸160亿的寒武纪,能领跑AI芯片吗?

正在处理的是多个阵列或矩阵。矩阵的另一个更为数学的术语是张量,因此它在整个ML行业中用于诸如TensorFlow(谷歌基于DistBelief进行研发的第二代人工智能学习系统)之类的东西。

现在回到你的电脑屏幕。您可以将它看作像素或点的矩阵,按行和列。这是一个二维矩阵或张量。当你添加颜色,你添加到每个像素的位大小,然后你想要一个快速变化的一致的图像。数学可以很快变得复杂并且在一步一步的CPU中占用周期。 GPU拥有自己的内存,可以将整个图形图像保存为矩阵。然后可以使用张量数学计算图像中的变化,然后只更改屏幕上受影响的像素。这个过程比每次图像更改时重新绘制整个屏幕要快得多。

英伟达成立于1993年,旨在创建一个芯片来解决诸如CPU等通用机器无法解决的矩阵问题。这是GPU的诞生。

矩阵数学是矩阵数学,它并不关心最终产品是什么,而只是处理元素。这是一种轻微的过度简化,因为不同的数学与稀疏矩阵(当有很多零时)的工作方式与密集矩阵的工作方式不同,但内容不会改变数学的事实依然存在。当DL理论学者看到GPU的发展时,他们很快就采用了它来加速张量数学。

GPU对ML产业的发展至关重要,推动了数据中心的培训和推理。例如,英伟达 Volta V100 Tensor Core在其基本架构和以更低精度运行推理的能力方面继续加速推进(这将是另一个话题,但意味着更少的位意味着更快的处理)。但是,考虑到物联网时还有其他问题需要考虑。

现场可编程门阵列(FPGA)

在现场,所有类型的应用程序都有不同的需求。有很多不同的用途,车辆,管线,机器人等等。该行业可以为每种类型的应用设计不同的芯片,但这可能会非常昂贵并且会破坏公司的投资回报率。它还可能推迟数年的上市时间,错过了一个重要的商业机会。对于那些不能提供足够规模经济市场的高度个性化需求而言,情况尤其如此。

FPGA是帮助公司和研究人员解决问题的芯片。 FPGA是一种集成电路,可以编程为多种用途。它有一系列“可编程逻辑块”和一种编程块和块之间关系的方法。它是一种通用工具,可以为多种用途进行定制。主要供应商包括赛灵思和美国国家仪器。

请注意,芯片设计成本较低的问题并不能使FPGA成为低价位的选择。它们通常最适合用于研究或工业应用。电路和设计的复杂性使其可编程,不适用于低成本的消费类应用。

由于FPGA可以重新编程,这使得它们对于新兴的ML行业来说很有价值。不断增加算法,并通过重新编程块来针对不同算法进行微调。此外,低精度推断的低功耗FPGA对于远程传感器来说是一个很好的组合。虽然发明人将“现场”更多地称为“客户”,但FPGA在实现AI应用方面的真正优势在实际领域中。无论是在工厂,道路和管道等基础设施,还是无人机远程检测,FPGA都允许系统设计人员灵活地使用一块硬件,以实现多种用途,从而实现更简单的物理设计,从而可以更加容易地进行现场硬化应用。

新体系结构即将到来

GPU和FPGA是目前正在帮助解决如何扩大机器学习对许多市场影响的挑战的技术。他们所做的是让很多人关注这个行业的发展,并试图及时创建新的架构来利用。

一方面是许多公司试图在GPU上学习张量数学的教训。 HPE,IBM和Intel都开发了专门用于深度学习的下一代张量数学设备。与此同时,像寒武纪,Graphcore(英国人工智能芯片硬件设计初创公司)和Wave Computing(美国人工智能、大数据和深度学习公司)这样的初创公司也在努力做同样的事情。

另一方面,Arm,Intel(还是其他公司)和其他公司正在设计架构,以充分利用GPU和CPU,并使器件也瞄准ML市场,据称能够做的不仅仅是集中张量数学,对于围绕核心AI流程的其他处理也更加强大。

虽然上述一些组织专注于数据中心和其他物联网,但现在谈论其中的任何一个都为时尚早。

需要说明的一点是,对人工智能来说,虽然从覆盖全球的跨国公司到初创公司都已经把机器学习列为未来重点发展方向。如果寒武纪在2020年前能进入小批试样阶段,那么这绝对将是一个惊喜,至少它的竞争对手在五年内不会上市。


分享到:


相關文章: