AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板

AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板

AI 视觉时代,如何让后端算法获得更清晰的图像信号,是行业需要去解决事情。

去年 12 月份,一段「BBC 记者挑战中国天网行人识别系统 潜逃 7 分钟后被抓获」的视频走红于网络,在 Facebook 等国外网站上被大量转载。

援引英国广播公司(BBC)的报道,BBC 记者约翰·苏德沃斯在我国贵阳,在被手机拍下一张面部照片后,约翰·苏德沃斯开始了他的「潜逃」之路,但不到七分钟,就被警方抓获。

之所以警方能够在极短的时间内就将约翰·苏德沃斯抓获,得益于我国的「天网工程」。资料显示,通过路上为数众多的摄像头,「实时行人检测识别系统」可以识别行人的年龄、性别、衣着等信息,最终来锁定目标。 

在这个过程中,除了引入人工智能之后,为安防带来了非常大的效率提升之外,作为前端成像的重要组成部分,摄像头同样不可忽略。

AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板
图片来自视觉中国

根据相关数据显示,人类获取的信息 70%-80% 来自于视觉,在如今 AI 时代,从自动驾驶到智能手机,再到安防,AI 图像视觉技术正在被应用到越来越多的行业。

但目前一个现实的情况是,受深度学习驱动,云端视觉图像处理技术飞速发展,前端视觉成像技术却依旧裹足不前,无法与之相匹配,成为了严重的瓶颈。

视觉 AI 对成像技术提出了更高的要求

每一次革命性技术的到来,都有着足以让人为之「疯狂」的理由。而想要把它从人类大脑的构想中带到现实生活里,显然并不是一件容易的事情。 

对于自动驾驶,特斯拉一直以来走的比较激进,也非常靠前。但在这件事情上,它也「栽过一个很大的跟头」。2016 年的时候,一辆特斯拉 MODEL S 在自动驾驶时发生车祸,导致驾驶员死亡,那也是自动驾驶技术应用以来第一起已知的导致死亡的车祸。 

当时,美国高速公路安全管理局(NHTSA)在公告中表示:5 月 7 日,在佛罗里达州 Williston,特斯拉 MODEL S 司机在使用 Autopilot 模式时发生事故死亡。初步报告显示,当时在一个十字路口,在这辆特斯拉汽车的前方,一辆重型卡车正在左转。为此,NHTSA 将调查「事故发生时驾驶辅助功能的设计和性能」。 

AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板
图片来自视觉中国

在随后特斯拉发布的调查报告中这样写道,「当时 MODEL S 行驶在一条双向、有中央隔离带的公路上,自动驾驶处于开启模式,此时一辆拖挂车以与 MODEL S 垂直的方向穿越公路。在强烈的日照条件下,驾驶员和自动驾驶都未能注意到拖挂车的白色车身,因此未能及时启动刹车系统。」 

简单来讲,由于当时 MODEL S 是逆光行驶,强烈的光线条件加之大货车白色车身造成反光,导致其所搭载的摄像头无法正确识别前方物体,是这起事故发生的直接原因。 

数码时代,成像的品质标准是主观的,往往大家关注的是照片本身的效果是不是符合我们的喜好。因此各家厂商在相机的调校上,也不尽相同。而 AI 时代要求的图像品质标准是客观的,即图像是否可以应用。

举例来讲,在日常的拍摄过程中,抛开摄影棚等预设好的场景,在室外环境下,遇到到弱光、逆光、反光等等光线条件较差的情况,是在所难免的事情。此时传统数码成像的效果往往很难令人满意(比如噪点过高)。

而 AI 时代要求的图像品质标准是客观的,即图像是否可以应用。其对于前端成像设备所反馈回来的图片信息,有着更高的要求,以便后端进行图形处理时,能够做出更加精准的判断。

回过头来看,如果当时 MODEL S 所配备的摄像头能够解决强光、反光的问题,之后的事故也就不会发生了。

当然,自动驾驶仅仅是其中一个领域,之于安防,也同样如此。更高的成端成像素质,无疑将帮助安防系统更加准确的识别罪犯特征,来进一步提升效率。

通过「成像引擎」,让 AI 图像视觉更进一步

正如前边我们讲到的,在数码成像技术发展的 30 余年里,诸如如成本高、噪点多、逆光拍摄效果差等问题,始终没有一个很好的解决方案。

同时,数码成像所输出的结果,仅仅是单一的图像,你无法去控制它的图像生成过程,这也在很大程度上限制了它的多场景应用需要。

随着 AI 视觉时代的到来,除了同样需要得到图像信号之外,更重要的是需要能够去获取图像生成过程的交互数据,继而通过这些数据进行智能分析,来提升图像品质,从而为后端处理提供更加准确的图像信号。

成立于 2014 年的 eyemore,一家从事前端成像引擎的技术公司,就在做这样的事情。

AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板

通过专业的成像引擎芯片,他们利用自主研发的成像算法,为各个应用场景下的机器视觉公司提供前端成像的一体化解决方案,来解决目前 AI 视觉由于光线差导致识别准确度低以及从图像算法到视觉硬件产品落地周期太长的问题

本质上,eyemore 所推出的成像引擎与传统图像处理器 ISP(Image Signal Processor)所承担的角色是一致的。不同的地方在于,其在传统 ISP 之外,加入了 AI 成像算法以及 AI SDK。严格来说,它是面向 AI 软件算法工程师而设计的全新成像体系。

用更为形象化的描述,在整个 AI 视觉处理流程中,成像引擎所扮演的角色,恰恰是连接光学模组和后端 AI 算法的中间节点,起到承接的作用。

经由它进行处理之后,输入到后端算法的信号将拥有更宽的动态范围以及更低的噪点控制,从而来提升整个 AI 视觉的识别准确性。

综合来讲,eyemore 成像引擎的到来,不仅仅填补了国内人工智能视觉领域的空白,使国内的视觉 AI 产业链更加完整。

从未来整个 AI 的发展来看,其更重要的意义在于,将为 AI 在对视觉成像有一定要求的领域实现落地,提供具有实际可操作意义的解决方案。

在即将到来的极客公园 IF 大会上(19-21 日),眼擎科技也将发布全球首款面向 AI 视觉应用的 eyemore 成像芯片,届时眼擎科技朱继志将会对这颗耗时四年,可以大幅提高 AI 视觉算法识别率的芯片予以更为详细的解读,感兴趣的朋友不妨关注下。

AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板

头图来源:视觉中国

AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板

AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板

AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板

AI 视觉能达到怎样的高度,取决于「前端成像」这块最短的木板