百度发布云端AI芯片“昆仑”:或对部分通用型服务器芯片形成替代

毫无疑问人工智能(AI)已经成为了整个人类社会发展的一大必然趋势,未来AI将进入我们生活的每个角落。而随着AI技术的发展及加速应用,人工智能市场也出现了爆发式的增长。据预测,全球人工智能直接与间接应用规模将从2016年的6.4亿美元增长到2025年的368亿美元,增长近57倍。在这种趋势之下,拥有庞大数据优势的互联网厂商都纷纷在AI领域投入重注。国内的BAT也都开始“All in AI”。

而实现AI则离不开三个关键要素:数据、芯片和算法。

BAT等互联网厂商之所以“All in AI”,主要在于其拥有的庞大的数据优势。此前国外知名媒体《经济学人》就曾发表封面文章称,“数据已经取代石油成为当今世界最有价值的资源”。

得益于在数据上的强大优势,以及庞大的资源的投入,使得互联网厂商在AI算法上也很快取得了优势。

但是,AI算法的实现需要依赖于芯片,而不同的算法对于芯片的需求也是不同的,对于特定算法,专用型的AI芯片(ASIC)的加速要远远优于通用型芯片。这也使得越来越多的互联网厂商开始推出自己的定制化AI芯片。

百度发布云端AI芯片“昆仑”:或对部分通用型服务器芯片形成替代

综合来看,“昆仑”拥有高性能、高性价比、易用3大特点:

(1)高效:针对语音、NLP、图像等专门优化;

(2)低成本:同等性能下成本降低10倍;

(3)易用:支持paddle等多个深度学习框架;编程灵活度高;灵活支持训练和预测。

百度发布云端AI芯片“昆仑”:或对部分通用型服务器芯片形成替代

或对部分通用型服务器芯片形成替代

众所周知,目前在云端的服务器/数据中心,更多的还是依赖于传统的X86 CPU或者GPU来做AI运算。现在部分厂商也有开始采用可重复编程和可重新配置的FPGA来进行AI运算。

虽然CPU、GPU等通用型芯片以及FPGA可以适应相对更多种的算法,但是定制型的AI芯片的计算能力和计算效率都直接根据特定的算法的需要进行定制的,所以其可以实现体积小、功耗低、高可靠性、保密性强、计算性能高、计算效率高等优势。所以,在其所针对的特定的应用领域,定制型的AI芯片的能效表现要远超CPU、GPU等通用型芯片以及半定制的FPGA,同等量级下,成本也更低。

目前人工智能技术仍处于快速发展当中,大量的新的算法不断涌现,原有的算法也在持续优化,而且这种变化以各自的方式在加速。而定制型AI芯片由于其在设计之时就是针对特定算法进行固化的,所以无法做到灵活的适应各种算法。这也使得定制型的AI芯片目前为止并未开始在数据中心/服务器领域大规模应用。

百度发布云端AI芯片“昆仑”:或对部分通用型服务器芯片形成替代

需要补充说明的是,这里说的替代传统的服务器芯片是指在AI运算上的替代。未来通用型的CPU肯定会持续存在的,只不过针对性的AI加速计算会被ASIC替代。但对于复杂的条件和分支预测,通用类型数据运算还是需要CPU的。比如,一些手机SoC当中虽然集成有专用的AI内核(比如麒麟970的NPU),但是其主要还是只能针对一些特定的AI算法进行加速,而对于其他的一些通用型的数据运算还需要依赖于SoC当中的CPU、GPU来实现。

历时8年,“昆仑”终成


分享到:


相關文章: