iPad Pro 2020 采用ToF原理的“LiDAR激光雷达”是什么。看到这个名字可能大家都会觉得是很先进、很高大上的东西。所以ToF是用来干什么的,它和结构光、RGB双目这些技术有什么区别?别着急,看完这篇文章你就全知道了!

光学字符识别原理(ToF结构光RGB双目都是什么)(1)

首先,ToF、结构光以及RGB双目技术,目的都是让计算机感受空间深度。平常我们用手机镜头拍照,传感器上面收集到的数据是二维图像,计算机完全不知道物体之间的纵深关系,就跟一张画一样,全部信息都在同一个平面。

我们去观察照片的时候,可以通过物体在画面中的大小,结合透视关系,大概还原出场景,知道物体之间大概的位置关系。但这是不可靠的。我们没有办法通过平面的照片精确地还原出真实的大小和位置,因为画面的透视关系会随着镜头焦段的改变而改变。计算机也具备类似的功能,例如通过单摄实现的人像模式、以及AI图片识物,这些都用到了人工智能以及计算机视觉的技术,但这跟我们看照片一样,我们无法从照片中准确读取出一个人的胸围。

光学字符识别原理(ToF结构光RGB双目都是什么)(2)

但在某些场景,机器需要读取真实准确的三维场景数据,于是景深相机就诞生了。上面提到的三种技术,都属于景深相机技术,区别于普通摄像头让机器感知色彩,他们让机器感受景深。伴随着人脸识别以及AR应用需求的日益增长,景深相机技术也不断迭代。

光学字符识别原理(ToF结构光RGB双目都是什么)(3)

你可能想不到,最开始进入我们视野的是RGB双目技术,在iPhone 7 Plus上开始出现的双摄系统在拍摄人像模式的时候,就是用RGB双目技术来区分背景和人像的。RGB双目其实就是采用两颗普通的、感知色彩的传统镜头,结合双目视差的原理,通过算法分析同一个瞬间两个镜头的图像来获取景深信息的。试下把食指竖立在鼻尖处,然后快速交替眨眼,你就可以感受到,食指在两只眼睛的画面中位置是不一样的。

光学字符识别原理(ToF结构光RGB双目都是什么)(4)

双目运算的原理其实就和人脑感知景深的原理一样,这种方式注定对性能要求比较高的,而且精度比较一般,在前景距离比较合适、左右眼透视反差较大的场景才有比较可靠的表现。并且由于采用普通的RGB镜头,如果画面出现过暗、过爆、失焦、整体画面缺乏纹理等情况,也会影响识别效果。

光学字符识别原理(ToF结构光RGB双目都是什么)(5)

随后,有了人脸识别的需求,苹果把精度更高的景深相机技术带到了消费者面前。iPhone X首次采用刘海屏的同时,也让刘海下面的结构光景深相机得到了亮相。首先结构光景深相机包含光源以及相机两部分。在iPhone X上采用的是人眼不可见的红外光源,因此在你每一次解锁的过程中,实际上你的脸已经被”结构光“所照亮。结构光,顾名思义是带有一定结构性的光,光源可能是一些预先设计好的随机散点,或者特殊的交错图案。总之光源投射出来的是有规律可循的结构性图样。例如苹果的FaceID,每次解锁的时候它的点阵投影器会往前方投射出超过3万个光斑。当结构光打到物体身上时,结构光的图像会发生扭曲,此时用相机接受图像,再通过专门的算法处理,就可以得出物体的3D模型。

光学字符识别原理(ToF结构光RGB双目都是什么)(6)

虽然结构光技术有可用距离较近的缺点,但其有着有分辨率高、精度高的优点,其识别准确度可以达到0.1毫米的级别。而且苹果为他们的结构光模组设计了专用集成电路,数据无需交给CPU运算,整体功耗比较低,因此到目前为止苹果的FaceID仍然采用结构光技术。

光学字符识别原理(ToF结构光RGB双目都是什么)(7)

2020年,苹果在3D镜头领域更近一步,iPad Pro搭载了基于ToF技术的LiDAR。或许你以为,LiDAR和Face ID、Touch ID、Haptic Touch一样,是苹果对某项技术的命名。其实LiDAR是正儿八经的一个技术名词,就是”激光雷达“的意思。LiDAR最早运用在军事领域,相比与机构光技术,LiDAR有着更好的远距离性能,伴随着模组的缩小、分辨率的提高,以及AR技术对景深数据的需求,LiDAR开始进入手机领域。

光学字符识别原理(ToF结构光RGB双目都是什么)(8)

ToF是Time of Flight(飞行时间)的意思。这和初中课本中蝙蝠通过超声波进行回声定位的方式一样。因为光速是恒定的,通过计算激光照射到物体再反射回来的时间差,就可以得出实际距离了。面对接近三十万公里美妙的光速,要测量出1mm的差别时间差就达到纳秒级别了,直接测量几乎不可能,因此需要对激光进行周期性调幅,然后测定调制光往返过程中的相位变化,就可以算出往返时间了,这里就不展开讲了。总之这就是单点激光测距的原理。

光学字符识别原理(ToF结构光RGB双目都是什么)(9)

实际上单点的激光测距早已经被用在相机的激光对焦当中。但是如果需要获得整个场景的景深信息,显然就不是单点的测距了。苹果在iPad Pro和iPhone 12上要用的LiDAR,准确地来说是一个“ToF相机”,激光元由原来的直线光源变成发散的光源,然后再通过镜头成像的原理,让点阵的光敏传感器来接受反射的光,计算出不同每个点接受光线的相位差,最终形成一张景深照片。

光学字符识别原理(ToF结构光RGB双目都是什么)(10)

目前,苹果在iPad Pro上使用的LiDAR可以精准测量5米内的物体距离,对于AR应用以及夜间拍摄的对焦都有很大的帮助。苹果将在手机背部搭载景深镜头可能会引起新的一轮技术风潮,相信未来会有更多搭载景深镜头的手机出现。

以上就是关于景深镜头三个主要技术的科普,希望对你有所帮助。

,