人工智能给芯片设计业带来了哪些挑战和机遇?

人工智能近几年来成为了科技行业的宠儿,推动了IT产业的进一步变革。对于芯片设计和制造业,全球PC芯片的产量为2.5亿只,假设是双核CPU,每个核心每周期完成4次浮点操作,主频2.5GHz,3年使用寿命,那么PC芯片的总算力是15 Exa FLOPS。手机每年的产量是15亿只,假设是双核CPU,每周期4次浮点操作,主频1.5GHz,2年使用寿命,手机芯片的总算力约为36 Exa FLOPS。因此,以上3大应用在2017年里对深度学习算力的需求,比目前PC和手机芯片所能提供的算力高了近一个数量级。如果没有性能卓越的深度学习专用芯片,以目前全球集成电路制造业的产能,根本无法制造出满足目前应用需求的芯片数量。

人工智能给芯片设计业带来了哪些挑战和机遇?

假设PC和手机的工作时间为30%,服务器工作时间为80%,而比特币矿机的工作时间为100%,那么这3大类芯片的全球总功耗都在1000-3000兆瓦之间。如果按照每TFLOPS计算的功耗10瓦计算,300 Exa FLOPS深度学习计算的功耗大约是3000兆瓦,和全球PC消耗的总功耗相当,是服务器总功耗的2倍,这将对云服务的基础设施提出巨大的挑战。因此,为了能够持续推广深度学习的应用,我们需要更加省电的深度学习芯片。

在过去的30年中,超级计算的性能基本上每10年翻1000倍。随着摩尔定律的减缓甚至终结,未来10年我们是否还能实现1000倍多性能提升?超级计算最大的挑战依然是功耗,包括芯片本身以及大规模集群的功耗。另一个很大的挑战是内存墙。为此,研究者开发了很多内存计算的技术,但可能也解决不了所有的问题。此外,并行软件编程的很多技术并不成熟,还需要进一步探索。深度学习所需的计算量和数据量都非常庞大,但计算功能并不复杂,数据也相对规则,受限于摩尔定律的减缓。因此,深度学习应该发展专用芯片才有出路。


分享到:


相關文章: