soc的ai有什么用?

氢氧离子


我理解你的问题是:

SOC中的AI芯片起什么作用?

这是个有意思的问题,也是现在各大手机厂商喜欢宣传的亮点。

下面我来尝试以华为第一款集成AI功能的SoC芯片麒麟970为例来解答一下。

1、什么是SOC?

SoC,System-on-a-Chip,系统级芯片。SoC上一般集成了手机上最关键的部件,比如CPU、GPU、内存、还有其他功能芯片去NPU神经网络芯片。

SoC可以理解为多个功能芯片的一个集成封装。

上图,华为麒麟970就是一块典型的SoC芯片,集成了处理器CPU、图像GPU、智能NPU、图像处理ISP、基带Modem等功能芯片。

手机功能越做越强,主板越做越小,体积有限,高集成度的SoC则能很好地提高集成密度,降低厂商开发难度。

2、什么是AI(芯片)?

AI,Artificial Intelligence,人工智能。英文缩写为AI。应用包括机器人、语言识别、图像识别、自然语言处理等等。

图中的神经网络芯片单元NPU就是AI芯片。

手机智能化程度越来越高,需要对语言识别,图像处理等多个方面进行功能拓展和加强,专用独立的AI应运而生。

3、手机SoC中集成AI芯片有什么作用?

那么集成AI芯片具体有啥用呢?GPU和CPU协同工作不是也可以实现深度学习和智能运算吗?

有人会说,传统CPU+GPU能够实现一定程度的智能运算,但是效率不高,能耗很高。

所以独立的AI芯片的集成,就是为了提升设备上的机器学习和图像处理的性能等智能运算能力,降低能耗而生的。

具体有没有AI芯片有啥区别呢?

麒麟 970 的这颗 NPU专门为深度学习而定制,FP16 性能达到了 1.92 TFLOP,差不多是麒麟 960 的 3 倍(0.6 TFLOP 左右)。

华为在发布会展示了一张在进行 AI 运算时,NPU 和 CPU、GPU 的对比图。

可以看到,性能上NPU 是 CPU 的 25 倍,GPU 的 6.25 倍,能效比上,NPU 更是达到了 CPU 的 50 倍,GPU 的 6.25 倍。

还提到,在华为内部的测试中,麒麟 970 的 NPU 每分钟可以识别出 2005 张照片,而不使用 NPU ,使用CPU+GPU组合的话,则每分钟只能识别 97 张。

可以看来,搭载独立AI芯片NPU后,手机的智能处理性能和能效,结果天壤之别。

这就是现在智能手机芯片为什么SoC必须集成AI芯片的原因和作用。

上图是苹果A13芯片,我们也可以看到集成了Neural Engine神经引擎,也就是AI芯片功能。

4、手机AI芯片实现的功能应用

知道了集成AI芯片对手机节能增效有用,那么具体对手机智能化应用有哪些意义呢?

(1)图像处理

图像处理是AI芯片的强项,有了独立AI芯片,图像处理更加智能,甚至不需要手动参与就有你想要的加强景深,马赛克,删除人像等功能。

(2)智能助手

如苹果的Siri,安卓的翻译助手,有了AI芯片加持后,就会效率更高,更加聪明,更加智能。

(3)AR应用和游戏

(AR虚拟苹果总部)

(AR游戏表情)

AR也是AI芯片的应用场景之一。

相信随着手机AI芯片的发展,智能化应用的场景会越来越多。


综上所述,我们可以看到手机SoC集成AI芯片是当下人工智能技术在手机领域逐渐应用和普及的表现。

随着手机性能的拓展和功能的增强,我们会看到更多、更强大的AI芯片出现在SoC上,这是一种发展趋势。


EVtoday


SoC中所谓AI加速核其实就是针对主流的机器学习算法所具有的一定特征,从计算层面对其中的运算过程,通过并行化处理进行加速。

那么AI核为什么能够实现加速呢?

这里就要引入一些通用计算与专用计算的概念了。传统通用计算处理核心CPU,其执行指令过程中,虽然不同的架构有不同的方式,但都具有以下三个过程:取指、译码、执行。对于任意一条指令,即便起操作与上一条指令相同,只是数据不同,也同样需要经历这样几个步骤。由于通用计算需要支持很多不同的指令,因此具有极其复杂的电路结构,即便当下CPU核心普遍具有多发射/多级流水技术,也都支持SIMD操作,其能够并行处理的数据量十分有限。换句话说,CPU太过强大不适合用来处理这种大规模、但是操作简单的计算。

而专用芯片ASIC其内部电路结构是针对某种特定的计算方式而特制的,其电路驱动方式也由CPU的指令流驱动转变为数据流驱动,内部电路能够针对这种计算方式做针对性优化,芯片的吞吐率和算力对这种数据流而言,较CPU呈几何倍数的提升。

当然,还有一种方式就是可重构计算了。可重构计算阵列由配置流指令驱动,只要结构设计合理,对SIMD操作同样可以具有很好的效能/效率。

再回到AI算法。

当下所采用的AI算法普遍基于大规模的矩阵运算,矩阵运算的特点就是操作数巨大,但其计算简单且单一,具有十分鲜明的结构特点,因此十分适合采用脱离出传统CPU、GPU架构的方式,采用并行化处理的方式去计算。因此在人工智能领域,AI算法基本上不可能在CPU上实现,绝大多数算法的训练都是在一些高端显卡以及一些基于FPGA专用的加速芯片去完成的。

因此,在手机端无法负担如此巨大的功耗限制下,采用基于AISC思路的特殊架构,如麒麟980/990,去提升计算效率的方案得到了普遍的采用。麒麟990达芬奇架构能够支持超过300个AI算子,能够对很多经典、常用AI算法实现硬件级加速。

从操作系统层面,针对AI加速核所提供的API可以被任何应用程序所使用,如题主提到的人脸识别但又不仅仅局在这个领域。AI核提供的是一种算力,任何基于人工智能算法的应用都能够得到加速,如系统级的用户习惯学习、小艺/小爱同学/Bixby等智能助手的学习、输入法自动联想、自动修图、自动分类、AI摄影场景优化等等,都能够通过这样硬件级加速去提升用户的使用体验。

从另一种角度去思考,AI算力也为一门尚未得到全面发展的学科:计算摄像学,提供了必要的支撑,从而使得手机摄影质量的提升不再像传统影像设备一样,仅仅停留在硬件层面,顺着“底大一级压死人”的思路去提升效果。各种降噪算法、运动补偿算法、抠图算法、边缘优化、像素补偿算法,甚至是小到色彩优化算法、AI场景识别的应用、包括苹果的Deep Fusion,都是基于这样一种能够提供强大的人工智能算力的芯片去实现的。说到这里就必须要提一下Google去年的Pixel 3L,Pixel3虽然采用了单摄,但其凭借出色的算法优化,做到了在某些不依赖于焦段的场景下,优于大部分双摄、甚至三摄手机的拍摄质量和抠图效果。Pixel 3L在拍摄时所使用到算法,多到连骁龙845都不足以提供支撑的程度,还在主板额外集成了一颗加速核来提供算力支撑。和苹果今年的三摄系统一样,这是一种影像领域的探索与尝试,也是一种人工智能的深度应用,是值得敬佩和学习的。

因此,如你所见,AI核给手机带来的不是噱头,不是AI换脸、AI修图,也不是像科幻电影那样强大到成为一个实体的存在,更重要的是带来了一种通过机器学习去提升用户体验的思路,使得手机成为你生活的帮手,而不仅仅是一个工具。

希望对你有所帮助!





奇乐多多多


目前的主流都是在soc内嵌AI处理器,比如海思麒麟和联发科处理器, 基本两家都不约而同地增加soc中AI处理器的性能,并已做到领先高通的地位。

那SOC中集成AI处理器的好处是什么呢?其实最早一开始大家基本也是外挂的形式支持AI处理器,比如早期华为海思麒麟芯片就外挂寒武纪的AI处理芯片芯片,那为何后来都转入集成呢?原因有二:

1.与SOC集成modem处理器一样,会使芯片整体体积变小,功耗更少,更易于发挥处理器的性能。

2.AI处理器的技术对SOC厂商来说,技术门槛并不高,用别人的不如用自己的。这也是寒武纪目前最大的危机,被华为抛弃后,市场重心放在哪会是最棘手的问题。




分享到:


相關文章: