眼擎科技朱继志:机器视觉靠 AI 起飞,需要通过成像引擎技术落地

DeepTech 深科技主办的 2018 半导体产业大势论坛上周末在北京召开,多位重磅嘉宾分享了他们对半导体、芯片行业的见解,其中既有半导体行业的老牌厂商,也有 AI 芯片初创新秀。

眼擎科技朱继志:机器视觉靠 AI 起飞,需要通过成像引擎技术落地

图 | 眼擎科技创始人、CEO 朱继志在 2018 半导体产业大势论坛上演讲

很多 AI 图像识别公司称其图像识别率可以到 95%、98%,甚至是 99%。但是,朱继志指出这些是实验室数据,有个前提:图像源良好。

而到实际部署的时候就会发现很多问题,没人能够保证图像源是好的,这就像卖家秀和买家秀的区别。

从 AI 视觉产业链来看,从前到后包括四个环节:镜头、CMOS、成像、图像识别,前端任一环节出现问题都会影响后端的图像识别效果。

眼擎科技朱继志:机器视觉靠 AI 起飞,需要通过成像引擎技术落地

眼擎科技专注于 AI 视觉成像,解决应用场景的复杂光线导致的成像品质不稳定问题。我们认为以后的 AI 应用中的视觉的成像,应该像我们眼睛一样,能够自动适应各种各样的环境,生成高品质的图像给到识别环节,帮助AI视觉大规模落地。

根据这段 eyemore 成像引擎实测视频来看,环境是在隧道里,暗部的成像也很清晰;以及在光学实验室里面,非常晃眼的大灯直射情况下,eyemore 的成像也非常清楚。

朱继志解释称,暗部环境中的拍摄往往会有很多噪点,而 eyemore 成像引擎芯片不仅可以在暗光中清晰成像,而且对于物体的颜色、细节以及层次都能做到高保真地还原。

朱继志强调,要理解成像行业的现状和未来,需要先看它的历史。

视觉成像从胶卷时代开始,到了上世纪八十年代的数码成像时期,当时的核心技术被日本公司垄断,他们为数码成像开发了 ISP 架构,成为行业标准。这一架构在过去的三十多年间没有发生重大变化,被沿用至今,尤其是在各个领域的摄像头应用:安防、汽车、手机、机器人等。

AI 时代的到来对视觉成像提出了新的要求,自动驾驶、机器人等行业要求机器视觉能够在全天候、各种环境中精准成像。而传统数码相机,既使是价格昂贵的专业级相机,其 ISP 架构都不能解决复杂光线下的成像问题,拍照时候也常需要打光。

总结来说,ISP 架构不具备复杂光线下的自适应能力,仅对架构进行优化是无法实现这个效果的。

眼擎科技朱继志:机器视觉靠 AI 起飞,需要通过成像引擎技术落地

“我们做了一个全新的成像技术架构,也就是成像引擎。”传统的芯片的架构是讲功能的,CPU 上面有 OS、有 App,这是一个中心化的过程。而眼擎科技打造的全新的 AI 成像引擎架构包括了算力、算法和数据,在优化数十倍算法的前提下,大规模提升算力,在积累丰富数据的基础上,进行数百种的场景测试与验证,从而确保成像引擎的暗光能力比人眼高 8 倍,降噪能力比摄像头高 64 倍,逆光能力比摄像头高 32 倍。

朱继志认为,以前整个芯片业是一个中心化的过程,CPU 是中心。现在是 AI 时代,算力可以不一样、算法可以不一样、数据还可以不一样,这是一个去中心化的时代,能够为整个产业带来一个百花齐放的局面,AI 驱动着行业革新,要求技术应用为客户提供更多差异化的产品。

眼擎科技朱继志:机器视觉靠 AI 起飞,需要通过成像引擎技术落地

在朱继志看来,初创公司往往要先解决销售和推广芯片的难题。“我有十年视讯产品开发的经验,又有着八年的芯片分销推广经验,在近二十年的行业积累中,见过很多芯片创业的失败案例,很多芯片其实很好,但是因为没有相应的市场模式,最后都失败了。”

眼擎科技朱继志:机器视觉靠 AI 起飞,需要通过成像引擎技术落地

在接下来的两年里,眼擎科技主要销售模组,因为“客户很多,来自于各个行业,我们希望降低验证、测试、使用我们芯片的门槛。所以,为了加快速度,我们会以模组的方式进行销售。”

很多公司宣称使用英伟达的 GPU,但是,他们当中有能力直接用 GPU 的并不多。实际上英伟达的销售主要是以板卡或者模组的形式,同时也会针对应用形成各种行业通用的参考设计。而眼擎科技也正是这样的一套商业逻辑。

眼擎科技朱继志:机器视觉靠 AI 起飞,需要通过成像引擎技术落地

眼擎科技未来两年的目标是通过在自动驾驶的、安防、医疗、3D 扫描、工业检测等AI视觉技术大规模应用的行业领域里逐步完成 design-in,从而获取行业里面的高端客户。

芯片行业新的市场形成时,如果能把高端客户或者客户的高端产品design-in 进去,那就可以逐渐完成从技术壁垒到客户壁垒再到生态壁垒的晋级,从而成为一个行业头部的芯片公司。


分享到:


相關文章: