旗下微信矩阵:

ToF深度相机技术白皮书

今年苹果公司发布的新款iPad pro上搭载了d-ToF技术的深度相机,给3D视觉技术在消费场景的应用推动了新的机会。
2020-04-02 15:46 · 投资界综合     
   

引言:

短短几年, 3D视觉技术从传统意义上只应用于专业领域的高端技术变成了消费级产品。基于三角法和飞行时间的深度测量方案是当下两种主流3D视觉技术,而今年苹果公司发布的新款iPadpro上搭载了d-ToF技术的深度相机,给3D视觉技术在消费场景的应用推动了新的机会。

结合当前学术界的成果以及工业界的发展状况,光鉴科技于近日发布了《ToF深度相机技术白皮书》。本文主要分析了ToF深度相机的基本工作原理和不同技术路径的优势和挑战。与此同时,为了帮助读者更加详细地了解3D视觉技术方案,文中还进一步比较了ToF与双目和结构光技术方案的优劣势。基于基本的技术特点,结构光和双目方案更适合近距离高精度的应用场景,例如识别、建模等;ToF技术更适合远距离的应用,比如SLAM,AR等。

光鉴科技认为:“d-ToF产业成熟需要很长一段过程。在此过程中,i-ToF还有很大的潜力可以挖掘,正在先一步抢占3D行业市场份额;而随着工艺和产业链的成熟,d-ToF将逐步从高端消费电子往下渗透。在较长的时间周期中,与i-ToF各自占据重要的市场份额。”

另一方面,当前ToF行业现状,d-ToF技术在激光功耗、抗干扰、远距离精度等方面有明显优势,但在工艺和产业链均离成熟尚远,仍需较长时间打磨;i-ToF芯片在工艺和产业链虽已趋于成熟,但达到的效果却不尽*,从而导致其应用受阻。

随着2020年发布的iPad Pro等高端消费电子领域的持续关注,d-ToF技术将进入快速迭代发展阶段,技术发展方向可能会集中在:SPAD工艺升级(包括DCR、PDE、jitter等),片上集成度提升(包括片上直方图/深度图算法,I/O,Memory等),TRX系统协同设计等方面;随着工艺和产业链的成熟,d-ToF的技术优势也会逐步释放,占据一定市场空间。

与此同时,i-ToF仍有很大潜力可以持续挖掘,不论是在算法端,亦或是系统端和应用端均有望通过软硬件的协同设计,弥补原理上的非理想效应以光鉴科技的mToF (modulated ToF) 方案为例,通过在系统端结合软硬件,引入调制光场的概念,通过空域、频域、时域上的巧妙设计,创新硬件协同前沿算法,在物理上提升i-ToF抗干扰、抗噪声能力,解决i-ToF在实际应用场景中面临的关键痛点,一定程度上可以媲美d-ToF的性能。

目前消费电子中ToF 应用以手机为主,华为、三星已在前后摄都搭载ToF 摄像头,今年苹果机型有望也开始搭载ToF技术;另外,ToF技术在头部终端厂商的推动下也开始在消费电子领域、机器人领域、安防监控&轨道交通领域以及无人驾驶&工业自动化逐步实现渗透。

ToF深度相机技术白皮书

修订于2020年3月31日

本文为深圳市光鉴科技有限公司原创并依法对其享有完整的著作权。未经书面授权,任何个人、机构或其它主体不得编辑、修改、复制、转载、摘编或另作其它商业使用。本公司亦不接受任何主体在未经书面授权而作出的类似“本文来源于网络,版权归原作者”之一切表达。若需获得书面授权使用者,请联系我司并支付相应报酬。对不遵守本声明或其他违法、恶意使用本文任何内容者,我司保留追究其法律责任的权利。

目录

1  3D视觉介绍... PAGEREF _Toc36545567 \h 4

2   3D视觉方案介绍... PAGEREF _Toc36545568 \h 5

2.1 双目技术... PAGEREF _Toc36545569 \h 5

2.2 结构光技术... PAGEREF _Toc36545570 \h 6

2.3 双目、结构光及ToF技术比较... PAGEREF _Toc36545571 \h 7

3 ToF基本原理... PAGEREF _Toc36545572 \h 8

3.1 i-ToF原理... PAGEREF _Toc36545573 \h 8

3.1.1 连续波调制(CW-iToF) PAGEREF _Toc36545574 \h 8

3.1.2 脉冲调制(PL-iToF) PAGEREF _Toc36545575 \h 9

3.1.3 CW-iToF与PL-iToF对比... PAGEREF _Toc36545576 \h 10

3.2  d-ToF原理... PAGEREF _Toc36545577 \h 10

4 ToF技术挑战... PAGEREF _Toc36545578 \h 12

4.1 i-ToF挑战... PAGEREF _Toc36545579 \h 12

4.1.1 飞点噪声(Flying pixels)... PAGEREF _Toc36545580 \h 12

4.1.2 多径干扰(Multi-Path Interference, MPI) PAGEREF _Toc36545581 \h 13

4.1.3 强度误差(Intensity Related Error) PAGEREF _Toc36545582 \h 15

4.1.4 远距离-高精度矛盾(Trade-off between range and precision) PAGEREF _Toc36545583 \h 15

4.1.5 高频驱动... PAGEREF _Toc36545584 \h 15

4.1.6 片上集成... PAGEREF _Toc36545585 \h 16

4.2 d-ToF挑战... PAGEREF _Toc36545586 \h 16

4.2.1 暗计数率(Dark Count Rate, DCR) PAGEREF _Toc36545587 \h 16

4.2.2 子探测效率(Photon Detection Efficiency,PDE) PAGEREF _Toc36545588 \h 17

4.2.3 串扰(Cross talk) PAGEREF _Toc36545589 \h 17

4.2.4 时间精度... PAGEREF _Toc36545590 \h 18

4.2.5 SPAD阵列3D集成... PAGEREF _Toc36545591 \h 18

5 ToF发展方向... PAGEREF _Toc36545592 \h 18

6 ToF技术应用... PAGEREF _Toc36545593 \h 20

7 总结... PAGEREF _Toc36545594 \h 22

8 参考文献... PAGEREF _Toc36545595 \h 23

1 3D视觉介绍

3D视觉技术能够获取现实三维场景完整的几何信息,利用带有深度信息的图像来实现对于场景的精准的数字化,从而实现高精度的识别、定位、重建、场景理解等机器视觉的关键功能。以2010年的Kinect和2017年的iPhone X的发布为标志,3D视觉技术从传统意义上只应用于专业领域的高端技术变成了消费级产品。

from clipboard

Figure STYLEREF 1 \s 1‑SEQ Figure \* ARABIC \s 1 1二维空间到三维空间示意图。

现行专业级或者消费级的3D相机采用两种主流技术,三角法(Triangulation)和飞时法(Time-of-Flight, ToF)[1]。采用三角法的3D视觉技术包括双目技术和结构光技术,基本原理采用三角几何视差来获得目标到相机的距离信息。这种方法在近距离有着很高的精度,但是误差会随着距离增大而快速变大。ToF技术测量相机是指主动投射出的光束经过目标表面反射后被相机接收这个过程的来回的飞行时间,基于光速即可获得目标到相机的距离。ToF技术在不同距离的误差相对三角法更稳定,在远距离有着更好的精度[2]。

在本文中,我们将介绍消费级的3D视觉技术的主要技术路径。针对ToF技术,我们将介绍其主要实现方法的具体工作原理,各自的优劣势以及技术挑战。根据行业的现状,我们将结合学术界的最新成果,介绍解决当前ToF相机痛点的一些方法。最后,我们也将结合现下行业需求,介绍ToF的一些重要的应用场景。

2 3D视觉方案介绍

常见的3D视觉方案主要包括双目、结构光和ToF三个技术方向。这三种方法各有优劣。虽然本文主要介绍的是ToF技术,本章节将简要地介绍和比较其他两种技术方案,帮助读者全面地了解3D视觉技术方案。

2.1 双目技术

双目深度重建利用的是三角测距法计算被测物体到相机的距离。具体的说,就是从两个相机观察同一物体,被观测物体在两个相机中拍摄到的图像中的位置会有一定位置差。正如将一只手指放在鼻尖前,左右眼看到的手指位置会有一个错位的效果。这个位置差称为视差,被摄物离相机越近,视差就越大;距离越远,视差就越小。在已知两个相机间距等相对位置关系的情况下,即可通过相似三角形的原理计算出被摄物到相机的距离。

from clipboard

Figure STYLEREF 1 \s 2‑SEQ Figure \* ARABIC \s 1 1双目技术示意图。

双目深度重建的原理虽然简单,但在实际使用中遇到了两个挑战:计算量大,依赖被摄物的纹理及环境光照。下面对这两个挑战分别展开介绍。

要计算一幅图中每个像素的深度值,我们需要得到每个像素在两幅图中的一一对应关系。这个关系的建立通常是采用块匹配(blockmatching)的方法。具体的说,在一幅图中,以一个像素为中心,选取一个固定大小的窗口,在另一幅图中寻找最相似的窗口,从而得到该像素在另一幅图中的对应像素。块匹配算法有很高的计算复杂度,其计算量正比于O(NMWHD),其中N, M为图像的行数和列数,W, H为匹配窗口的宽和高,D为匹配寻找最相似像素的范围。为了达到更好的效果,会采用一些更复杂的改进算法(如Semi-GlobalBlockMatching, SGBM),这就更进一步提高了计算量和复杂度。鉴于此原因,业界常见的方法是将算法固化到特制的ASIC芯片中,从而解决计算量的大的问题,但这一增加了额外的硬件成本和迭代变化周期。

双目深度重建的另一大挑战是依赖于被拍摄物体的表面纹理和环境光照。利用双目原理重建表面没有任何纹理的物体时,例如拍摄一面白墙,会遇到无法找到匹配的对应像素的问题。另一方面,当拍摄环境的光照很弱的情况下,例如黑灯环境下,匹配也会遇到很大的挑战。结构光技术为解决这两个问题提供了新的思路。

2.2  结构光技术

结构光方案是一种主动双目视觉技术。每个结构光相机包括两个基本组件:一个红外激光投射端和一个红外摄像头。其基本思路是将已知的结构化图案投影到被观测物体上,这些结构化图案将根据物体的几何形状和拍摄距离而发生相应的形变。红外摄像头从另一个角度进行观察,通过分析观测图案与原始图案之间发生的形变,可以得到图案上各像素的视差,再根据相机的内外参恢复出深度。

from clipboard

FigureSTYLEREF 1 \s 2‑SEQ Figure \* ARABIC \s 1 2结构光技术示意图

结构光方案可以看成双目方案的一种特例。已知的投射端结构化图案和红外摄像头拍摄到的图案可视为左右双目的观测。结构光重建算法和双目重建算法采用了相似的思想,也面临着类似的挑战,主要包括高计算量和深度突变处的数据缺失。

为解决这两方面的挑战,光鉴创新地研发了一套高效软核重建算法,将计算量降低了两个数量级,只需一颗普通的ARM嵌入式处理器即可完成高精度深度重建。与此同时,利用多传感融合与深度学习,该算法大幅提升了常见的深度图缺失问题。

和标准的双目方案相比,结构光方案更为鲁棒,这得益于结构光方案采用的主动光源和投射的结构化图案。具体的说,投射端发出的红外激光照亮了被拍摄物体,这使得拍摄端无需依赖环境光源即可获得亮度稳定的图像输入;另一方面,投射的结构化图案为被拍摄物体增加了表面纹理,这使得拍摄表面没有任何图案的物体也能精准地重建出深度。

2.3     双目、结构光及ToF技术比较

为了更直观的比较双目、结构光和ToF技术路径的优劣势,我们汇总了各个每个方案的关键技术参数的比较。其中,i-ToF和d-ToF技术将在之后的章节中具体介绍。

from clipboard

3      ToF基本原理

相比双目视觉和结构光方案,ToF 的方案实现起来会相对简单,主要包括发射端和接收

端,ToF 传感器给到光源驱动芯片调制信号,调制信号控制激光器发出高频调制的近红外光,遇到物体漫反射后,接收端通过发射光与接收光的相位差或时间差来计算深度信息。现大部分ToF 传感器采用背照式CMOS工艺技术,该工艺大幅度提高了感光面积,提升了光子收集率和测距的速度,响应时间能够达到纳秒级,在远距离情况下也能保证高精度。

3.1 i-ToF原理

i-ToF,即indirect ToF,通过传感器在不同时间窗口采集到能量值的比例关系,解析出信号相位,间接测量发射信号和接收信号的时间差,进而得到深度。i-ToF 根据调制方式的不同,可分为两种:连续波调制(CW-iToF)和脉冲调制(PL-iToF),分别发射连续的正弦信号和重复的脉冲信号;前者是通过解析正弦信号相位解析深度,而后者是解析脉冲信号相位来解析深度。

3.1.1    连续波调制 (CW-iToF)

通常采用正弦波调制方式,接收和发射端正弦波的相位偏移和物体距离摄像头的距离成正比, 通过相位偏移来测量距离

from clipboard

相位偏移 (φ) 和 深度(D) 是由积分能量值C1、C2、C3、C4从上述公式解析得到,这几个积分能量值,是四个不同相位延迟的接收窗口采集到的能量,分别对应于在相位采样点0°、90°、180°、270°采样,即:

from clipboard

其中A为接收到正弦信号的幅度。

精度方面,CW-iToF精度主要受制于随机噪声和量化噪声,前者与接收光信号信噪比(Signal to Noise Ratio, SNR)成反比,后者与正弦波调制频率成反比。因此,为了提升精度,CW-iToF一般采用大功率短积分时间采样,提高接受光信号SNR;同时提高调制频率以抑制量化噪声。

程方面,CW-iToF可解析的相位范围为[0~2π],因此其*量程为Dmax=c2fm。即,频率越高,精度越高,量程也越小。超过量程的深度,将出现周期性的相位卷绕(Phase wrap),测量值错误的落在[0~Dmax]内。

from clipboard

FigureSTYLEREF 1 \s 3‑SEQ Figure \* ARABIC \s 1 1CW-iTOF工作示意图

3.1.2    脉冲调制(PL-iToF)

在PL-iToF 系统中,激光光源发射带有振幅信息 A和时间TP的光脉冲,根据光的飞行速度C,可计算得到最远探测距离dMAX=TP*C/2。反射光信号、背景光以及探测器的噪声集成在三个不同时间段内。PL-iToF通过双采样技术提高精度,同激光脉冲同步的*个窗口W0,同激光信号正交的第二个窗口W1,是累积反射光信号的两部分,且每个窗口与目标距离成比例;第三个窗口WB在没有光脉冲发射时开启,仅收集背景光信号。如果C0,C1,C分别表示在窗口W0,W1,WB的光子数,目标距离D,接收到的有效光强度AR,背景光B可由以下公式得到

from clipboard

from clipboard

Figure STYLEREF 1 \s 3‑2 PL-iToF的基本工作原理

3.1.3    CW-iToF与PL-iToF对比

CW-iToF在工作过程中,不论目标物体的距离是多少,系统都采集了完整时长的反射光。相比之下,PL-iToF在两个窗口内采集的信号的信噪比与距离直接相关。在有背景噪声的情况下,如果目标距离的很近,W1窗口的能量几乎为零,因此,W1信噪比非常差;类似的,在较远的距离,W0

中的信号很弱,导致W0的信噪比差。这种效应会导致PL-iToF在近和远距离都有比较大的误差。

相比CW-iToF连续波调试方式,PL-iToF解算深度更简单、计算量更低,对于平台后端处理能力要求也相应更低。然而,PL-iToF 的精度取决于发光次数,发光次数越多,精度越高,但同时也会带来功耗的增加。即使在相同平均功耗的情况下,PL-iToF不仅精度弱与CW-iToF,而且对于背景噪声和暗噪声更加敏感。

因此,现下的主要手机厂商,包括华为、三星、Oppo等,以及ToF芯片厂商,包括索尼,三星,英飞凌等都采用了CW-iToF的方案。

3.2     d-ToF原理

d-ToF即direct ToF,相比于i-ToF技术用测量信号的相位来间接地获得光的来回飞行时间,d-ToF (direct Time-of-Flight) 技术直接测量光脉冲的发射和接收的时间差。由于激光安全的限制以及消费类产品的功耗限制,ToF相机发射的脉冲能量有限,但是需要覆盖完整的视场区域。光脉冲在经过反射回到接收器时,能量密度降低了超过一万亿倍。于此同时,环境光作为噪声,会干扰接收器对于信号的检测和还原。在这种情况下,探测器获取的信噪比不足以直接还原脉冲的模拟信号,进而导致直接测量深度存在很大的误差。因此,d-ToF方法需要有灵敏度极高的光探测器来检测微弱的光信号。

单光子雪崩二极管(Single Photon Avalanche Diode, SPAD)具有探测单个光子的灵敏度。SPAD在工作状态是一个偏置了高逆向电压的二极管。反向偏压在器件内部形成了一个强大的电场。当一个光子被SPAD吸收转化为一个自由电子时,这个自由电子被内部的电场加速,获得足够的能量撞击其他原子时产生自由电子和空穴对。而新产生的载流子继续被电场加速,撞击产生更多的载流子。这种几何放大的雪崩效应使得SPAD具有几乎无穷大的增益,从而输出一个大电流脉冲,实现对于单个光子的探测。

from clipboard

FigureSTYLEREF 1 \s 3‑3 SPAD雪崩效应示意图. (a)雪崩二极管示意图,光子在吸收区被吸收,转化为自由电子。自由电子在穿过PN结的过程中被电场加速。在获得足够能量时,在放大区产生雪崩效应,使得器件输出一个大电流脉冲。(b)SPAD的CMOS示意图。具体的、结构参数取决于器件采用的CMOS工艺。

d-ToF技术采用SPAD来实现高灵敏度的光探测,并且采用时间相关单光子技术方法(Time-Correlated Single-Photon Counting, TCSPC)来实现皮秒级的时间精度。光脉冲的*个被SPAD捕获的光子即可出发SPAD,产生电流脉冲信号。系统的时间数字转换器(Time-to-DigitalConverter, TDC)可以转换这个电流脉冲相对于发射时间的延时。SPAD捕获一段脉冲内哪一个瞬间到达的光子具有一定的随机性,这种随机性的概率与光脉冲在该瞬间的能量近似成正比。因此,d-ToF相机重复很多次(比如数千次)发射和探测相同的脉冲信号即可获得每次探测的电流脉冲延时的统计分布。这个统计直方图即恢复了发射脉冲能量随着时间的变化,进而得到了脉冲来回的飞行时间。

from clipboard

FigureSTYLEREF 1 \s 3‑4 TCSPC方法. 系统控制激光器发射出激光脉冲,通过光学系统投射到目标物体表面。反射回的光脉冲被接受器的光学系统成像到d-ToF传感器上。光脉冲触发SPAD,输出电流脉冲。TDC根据电流脉冲的时间来输出数字化的脉冲时序。一次成像会重复几千到几十万次的脉冲,从而获得TDC输出的统计直方图,重建光脉冲及获得飞行时间。 

4 ToF技术挑战

4.1i-ToF挑战

在实际应用中,i-ToF技术面临着诸多的挑战,真实环境的复杂多变,给深度测量引入了大量的干扰和噪声。这也是i-ToF技术提出已经有数十年的时间,但实际应用却十分有限的主要原因。本章节对i-ToF技术面临的诸多问题进行简要的原理定性分析。

4.1.1 飞点噪声(Flying pixels)

在i-ToF测量的深度图中,物体边缘处往往存在大量错误的深度测量值,生成3D点云后,视觉上表现为飞在空中的无效点(如REF _Ref36451624 \h Figure 4‑1所示),称为飞点噪声。飞点噪声使得i-ToF无法有效获取物体边缘的3D信息,这也是当下i-ToF能否得到广泛应用的一大挑战。

from clipboard

Figure STYLEREF 1 \s 4‑SEQ Figure \* ARABIC \s 1 1典型的i-ToF测量点云,边缘处存在飞点噪声

如REF _Ref36451688 \h Figure 4‑2所示,飞点噪声产生的主要原因在于:i-ToF传感器上,每个像素都具有一定的物理尺寸,在测量物体边缘时,单个像素会同时接收到前景和背景反射回来的光线;二者产生的能量叠加在一起,使得传感器获取的原始数据中包含多个距离的信息,使用3.1节原理解算相位计算距离时将得到错误的深度测量值。另外,镜头散射及像素间串扰,有时也会引起飞点噪声,甚至造成背景的大范围变形。

通过边缘检测等图像算法,可以在一定程度上检测并去除边缘飞点噪声,但对散射和串扰引起的变形难以根除,同时,误检也会造成大量有效深度测量值的丢失。

from clipboard

FigureSTYLEREF 1 \s 4‑SEQ Figure \* ARABIC \s 1 2飞点噪声产生原理示意图:ToF传感器上的蓝色像素仅接收到单一深度信息(前景or 背景),可以获取正确的测量值(蓝色点);ToF传感器上的绿色像素同时接收到前景和背景反射的光线,两个深度信息叠加在一起无法区分,iToF测量得到错误的深度值(橙色点)。

4.1.2 多径干扰(Multi-Path Interference,MPI)

真实场景中存在复杂的漫反射甚至镜面反射,MPI在原理上会使得测量值变大,严重影响三维重建的效果。

from clipboard

Figure STYLEREF 1 \s 4‑SEQ Figure \* ARABIC \s 1 3多径干扰产生原理示意图:图示以测量墙角为例,投射模块投向左边的光线(虚线)经两次反射,与投向右边的光线(实线)同时被ToF传感器接收到 。双重的深度信息导致ToF测量值错误.

以REF _Ref36451782 \h Figure 4‑4的场景为例,投向桌面的光线经标准件二次反射后被i-ToF传感器接收到,MPI效应导致测量到的标准件形状扭曲;投向标准件的光线经桌面二次反射后被i-ToF传感器接收到,MPI效应导致桌面测量值的错误,桌面近似于一个镜面,桌面测量值接近于标准件的镜像。

from clipboard

Figure STYLEREF 1 \s 4‑SEQ Figure \* ARABIC \s 1 4多径干扰示意图:多径干扰导致标准件测量点云形状扭曲(绿色),以及桌面错误地测量成标准件镜像(红色)

MPI是困扰i-ToF多年的重要问题,一直是i-ToF广泛应用的*障碍。在过去的十年中,微软,MIT,Waikato大学等诸多研究机构在解决MPI问题上做出了大量算法和系统层面的尝试,但仍无法根除该问题。

4.1.3 强度误差(Intensity RelatedError)

在i-ToF传感器测量到的深度图上,存在一类特殊的误差,即同一平面上不同反射率的区域体现出不同的深度,如REF _Ref36451832 \h Figure 4‑5所示。

from clipboard

Figure STYLEREF 1 \s 4‑SEQ Figure \* ARABIC \s 1 5强度误差示意图,同一平面上不同反射率区域呈现不同深度,黑色和灰色区域从平面上凸起。

i-ToF的强度误差与距离、反射率、积分时间等因素都存在关联,究其产生的原理,就笔者了解所限,误差的解析尚未完全明确。PMD等研究机构在该问题上做出了一些分析和尝试,能够缓解强度误差,但难以在全场景消除强度误差的影响。

4.1.4 远距离-高精度矛盾(Trade-offbetween range and precision)

在i-ToF的两种类型上,量程和精度都存在典型的矛盾:

CW-iToF:调制频率决定量程,频率越低量程越远;同样的相位解析精度下,深度测量精度随频率降低而降低;

PL-iToF:脉冲宽度决定量程,脉宽越大量程越远;同样的相位解析精度下,深度测量精度随脉宽增加而降低;

同时,i-ToF往往采用泛光投射,传感器探测到的能量随距离的平方快速衰减,远距离测量的信噪比极差,进一步恶化上述矛盾。远距离和高精度这一对矛盾,在原理上很难调和,通常需要根据实际应用进行权衡,选取最合理的模式配置。

4.1.5 高频驱动

i-ToF投射端需要特定驱动芯片(driver IC)驱动激光器发出调制的光信号。一般情况下,为了保证测量精度,CW-iToF采用提高调制频率的方式,PL-iToF则采用窄脉冲高峰值功率的驱动方式。综合起来,iToF对于驱动芯片的主要需求是高调制频率和高峰值功率;同时,驱动芯片的温度系数与i-ToF测量的温漂紧密相关,需要尽可能保证线性。这些需求对芯片工艺,尤其是CMOS工艺有着较高的要求。

4.1.6 片上集成

片上集成对于i-ToF芯片的设计提出了较高的要求。一方面,为保证足够的探测灵敏度和测量动态范围,i-ToF往往需要有足够的像素尺寸;另一方面,i-ToF芯片相对于普通图像传感器,增加更复杂的时序控制电路和相关采样电路,整体集成难度更大。

而消费电子行业,尤其是手机等产品,对芯片有着很高的尺寸限制。在上述要求之下,i-ToF芯片很难集成较高的分辨率,目前市面上主流的i-ToF传感器像素一般在QVGA(320x240)上下;近几年开始,逐步有VGA分辨率的i-ToF传感器进入市场,但其像素尺寸一般不大于7um,且性能上会有一定折扣。

4.2  d-ToF挑战

d-ToF技术的误差在正常工作范围内不随距离变化,并且受到多径等因素的干扰较小。在远距离、复杂环境的应用有着优势。然而,d-ToF的技术成熟面临着一系列的挑战,需要在芯片设计、系统设计、制造工艺等方面全面突破才能真正兑现d-ToF技术承诺的优势,并实现在消费场景的普及。本章节将从原理上分析d-ToF技术存在的技术挑战及优化方向。

4.2.1 暗计数率(Dark Count Rate,DCR)

相比于传统的摄像头图像传感器(Camera Image Sensor, CIS),SPAD输出的是数字化的脉冲,因此受到电子噪声的影响较小。但是由于在雪崩区域内出现的单个自由电子即可触发计数,从而导致错误的计数,SPAD受到暗噪声的影响较大。

暗计数率DCR的主要来源包括探测器内由于热产生的自由电子。由于制造工艺和掺杂工艺,器件内部存在Shockley-Read-Hall(SRH)缺陷,释放和捕获载流子。在尺寸为深亚微米(DeepSub-Micron, DSM)的CMOS工艺下,电压下降要求更高的掺杂浓度以及更小的PN结尺度。这导致更高的缺陷密度以及更强的加速电场,使得暗计数效应更为严重。相比于高电压的定制工艺,DSM的CMOS工艺暗计数率要高几个数量级。因此,DCR主要取决于制造工艺的特性和优化。

此外,在雪崩过程中,存在自由电子被缺陷捕获的情况。这些被捕获的电子基于SRH统计速度被重新释放,制造SPAD的暗计数。这被称为AP(after-pulsing)现象。这种现象可以通过在SPAD配合的主动猝熄电路(quenching circuit)来设置一个适合的关闭时间(hold-offtime)来解决。在SPAD被触发输出脉冲后,保持一段时间不开启接收新的光子触发,让这些被捕获的电子有足够时间重新释放而不会重新引起雪崩。这个关闭时间通常需要几十到几百纳秒。这段时间被称为SPAD两次探测状态之间的空滞时间(deadtime)。空滞时间成为了单位时间内重复测量的脉冲次数的限制。

通常更大尺寸的工艺有更低的DCR,这与CMOS集成的要求是相悖的。特别对于SPAD阵列,每个像素的SPAD都要配合一个独立的淬火电路,大尺寸的CMOS工艺会导致淬火电路占据像素可观的面积,并且产生更高的功耗。而手机等产品有着很高的尺寸限制,VGA像素的ToF相机的像素尺寸不大于7um。因此,3D集成工艺是SPAD阵列优化暗计数率和感光率的必然要求。即,用大尺寸的制造工艺制作SPAD的感光部分,用更小尺寸的制造工艺制作高集成度的辅助电路,然后将不同工艺的模块3D堆叠。这对SPAD阵列的制造提出了更高的要求。

4.2.2 光子探测效率(PhotonDetection Efficiency, PDE)

光子探测效率是另一个重要的技术挑战。光探测效率是感光面积的占比FF(Filling factor)与吸收率以及雪崩触发率的乘积。

对于尺寸受限的SPAD阵列,每个像素的面积尺寸非常有限。这些有限的面积也无法完全用来感光。首先,每个像素之间需要设置保护区域,用于防止像素间的串扰。此外,淬火电路也将占据可观的面积。另外,对于FSI(Front Side Illumination)工艺,用于吸收光子的厚度非常有限,限制了光子的吸收率。

因此,采用3D集成和BSI工艺将大幅提升PDE。BSI工艺用晶圆的背面接受照射作为光吸收层,吸收厚度得到了数量级的提升。此外,每个像素的辅助电路和光吸收不再共享同一个表面积,因而大幅提升了。

提升PN结偏置电压可以帮助提升PDE,但是高电压会带来更高的功耗和发热以及更高的DCR。针对于具体的应用场景,偏置电压可以作为权衡优化具体某个指标的杠杆。

4.2.3 串扰(Cross talk)

采用CMOS工艺的SPAD阵列有共享的电极,帮助提升集成度。但是,一个像素的自由电子被加速后,有可能渗透到相邻的像素,进而出发相邻像素触发计数,造成图像的模糊。传统的CIS也有串扰效应,但是每个像素的自由电子没有被强电场加速,所以渗透到其他像素的情况要远少于SPAD。

在CMOS设计中,护环(guard ring)被用于防止不同像素的自由电子的串扰。护环有多种设计方法,包括采用STI(Shallow Trench Isolation)和buriedn-well等。这些护环的方法和工艺在集成电路设计中都很成熟。但是,由于护环本身占据面积,并且其掺杂会带来附近区域更高的缺陷,因此会影响SPAD的DCR和PDE。

4.2.4 时间精度

d-ToF要求亚厘米级或厘米级的测量精度,考虑到光速为每秒30万公里,对应的时间精度要求为皮秒级。时间测量误差主要来源于系统的时序抖动(timing jitter)。激光发射器、系统电路等部分的jitter有很多优化的办法。SPAD中自由电子被加速和渗透的过程是一个随机过程,渗透时间必然存在jitter,是d-ToF系统的时间精度的极限。常见的jitter在100ps左右,对应于1cm左右的误差。更薄的吸收层和有源层可以减小jitter,但如之前PDE的分析所述,降低吸收层厚度会降低PDE。

4.2.5     SPAD阵列3D集成

为了有足够的重复次数来获得时序的统计,一帧深度图需要有几千到几十万次的统计数据来实现。SPAD阵列的每个像素都在以1MHz左右的速度重复测量脉冲,而每次触发,TDC都会产生一个时间的数字输出。以100X100像素的SPAD阵列为例,数据量就达到了几十Gbps。而VGA像素的SPAD阵列则将产生1Tbps以上的数据流。在芯片以外去处理这样的数据量是不现实的,要求有25条以上的40Gbps的PCIE通道和几瓦甚至10瓦以上的功耗。所以,提高d-ToF的像素就需要在d-ToF芯片上集成存储和数字处理的能力。芯片需要能够存储每一帧测量过程中的每个像素和每个脉冲对应的TDC的数据,在一帧测量完成后,进行数据处理,计算出每个像素的时序统计,然后输出其来回的飞行时间。

片上集成对于d-ToF芯片的设计提出了非常高的要求。在一个芯片上需要堆叠用于光探测的SPAD、淬火电路,TDC、存储单元以及运算单元。这要求设计团队同时具有SPAD器件的设计能力和SoC的设计能力。此外,消费类的应用要求芯片的功耗控制在几百毫瓦以内,否则功耗和散热都将成为应用的瓶颈。在这些复杂度之上,需要有足够好的良率,以保证个位数美元的芯片单价。

5  ToF发展方向

当前ToF行业现状,d-ToF技术在激光功耗、抗干扰、远距离精度等方面有明显优势,但在工艺和产业链均离成熟尚远,仍需较长时间打磨;i-ToF芯片在工艺和产业链虽已趋于成熟,但达到的效果却不尽*,从而导致其应用受阻。

随着2020年发布的iPad Pro等高端消费电子领域的持续关注,d-ToF技术将进入快速迭代发展阶段,技术发展方向可能会集中在:SPAD工艺升级(包括DCR、PDE、jitter等),片上集成度提升(包括片上直方图/深度图算法,I/O,Memory等),TRX系统协同设计等方面;随着工艺和产业链的成熟,d-ToF的技术优势也会逐步释放,占据一定市场空间。

与此同时,i-ToF仍有很大潜力可以持续挖掘,不论是在算法端,亦或是系统端和应用端均有望通过软硬件的协同设计,弥补原理上的非理想效应。以光鉴科技的mToF (modulatedToF) 方案为例,通过在系统端结合软硬件,引入调制光场的概念,通过空域、频域、时域上的巧妙设计,创新硬件协同前沿算法,在物理上提升i-ToF抗干扰、抗噪声能力,解决i-ToF在实际应用场景中面临的关键痛点,一定程度上可以媲美d-ToF的性能。

综上所述,我们认为:在d-ToF产业链成熟之前,i-ToF还有很大的潜力可以挖掘,有望先一步抢占3D行业市场份额;而随着工艺和产业链的成熟,d-ToF将逐步从高端消费电子往下渗透,在较长的时间周期中,与i-ToF平分秋色,各自占据重要的市场份额。在d-ToF方案成熟之后,i-ToF在像素、成本等方面有着优势,而d-ToF在功耗、距离以及抗干扰方面有着优势。而不论基于何种技术路线,ToF系统的成像芯片只能解决如何探测和处理返回的光信号;而作为一个3D成像系统,光学系统的设计、投射光的调制和控制、图像数据的算法处理等因素也将决定了一种技术方案是否能够充分发挥出其原理的优势,实现真正适合应用需求的方案。

6 ToF技术应用

ToF 的精度取决于其脉冲持续时间,相比双目视觉、结构光方案,ToF 精度不会随着距离增长而显著降低, d-ToF 是远距离应用的关键技术。

随着2020年苹果iPad Pro 的发布,采用了激光雷达扫描仪ToF 传感器 ,势必会带动ToF 在消费类电子应用的进一步爆发。目前消费电子中ToF 应用以手机为主,华为、三星已在前后摄都搭载ToF 摄像头,今年苹果机型有望也开始搭载ToF技术。

3D ToF技术在其他领域应用也开始逐步渗透,目前还是主要依赖头部终端厂商的推动,主要的应用领域包括以下场景:

消费电子

from clipboard


Figure 6-1 ToF在消费类电子领域应用:(a)ToF体积小,在对于精度要求不高的场景下可以用于简单的人脸活体识别(b)3D 感应人体关键部位,体感互动游戏(c) 追踪手部位置和姿势,进行手势控制(d)构建三维信息,虚拟与真实环境进行交互

机器人

from clipboard

Figure 6-2 ToF在机器人领域应用(a)ToF 低速激光雷达可精确识别障碍物,进行自动避障(b)测量得到周围环境深度信息,定位自身位置构建地图(c) 应用于服务型机器人,智能导航(d) 无人机得到ToF稳定、精准的距离信息定高悬停

安防监控&轨道交通

from clipboard

Figure 6-3 ToF在安防监控&轨道交通领域应用:(a)ToF 获得人体深度数据,结合人数统计算法,相比传统监控可实时统计、跟踪人员数量(b) 通过智能方向识别忽略交错人流(c)智能停车,广覆盖精准识别车位车辆信息(d) 实时监控路口车辆。增加监控环境三维信息

无人驾驶&工业自动化

from clipboard

Figure 6-4 ToF在无人驾驶&工业自动化领域应用:(a)随着面阵dToF 工艺的成熟,未来纯固态激光雷达将与其他雷达相融合用于无人驾驶中(b)车厢监控,监测驾驶员疲劳状态,监控车内人员情况(c) 仓储分拣,智能识别货物信息(d)物流包裹体积测量,可快速识别包裹长宽高

7  总结

本文介绍了ToF深度相机的基本工作原理和不同技术路径的优势和挑战。我们还比较了ToF与双目和结构光技术方案的优劣势。ToF技术的成熟将带来其在消费电子、机器人、工业自动化、物流等领域的大量应用和突破。

如果有关于光鉴科技的3D视觉产品的问题,请联系info@deptrum.com。

8  参考文献

ADDIN EN.REFLIST [1]      P. Zanuttigh, G. Marin, C.Dal Mutto, F. Dominio, L. Minto, and G. M. Cortelazzo, Time-of-Flight and Structured Light Depth Cameras. Springer, 2016.

[2]        H. Sarbolandi, D. Lefloch, and A. Kolb, "Kinect rangesensing: Structured-light versus Time-of-Flight Kinect," Computer Vision and Image Understanding, vol.139, pp. 1-20, 2015, doi: 10.1016/j.cviu.2015.05.006.

[3]        D. S. Fabio Remondino, ToFRange-Imaging Cameras. Springer, 2013.

[4]        H. Sarbolandi, M. Plack, and A. Kolb, "Pulse BasedTime-of-Flight Range Sensing," Sensors(Basel), vol. 18, no. 6, May 23 2018, doi: 10.3390/s18061679.

[5]        D. Bronzi, Y. Zou, F. Villa, S. Tisa, A. Tosi, and F. Zappa,"Automotive Three-Dimensional Vision Through a Single-Photon Counting SPADCamera," IEEE Transactions onIntelligent Transportation Systems, vol. 17, no. 3, pp. 782-795, 2016, doi:10.1109/TITS.2015.2482601.

[6]        D. P. Palubiak and M. J. Deen, "CMOS SPADs: DesignIssues and Research Challenges for Detectors, Circuits, and Arrays," IEEE Journal of Selected Topics in QuantumElectronics, vol. 20, no. 6, pp. 409-426, 2014, doi:10.1109/jstqe.2014.2344034.

[7]       B. F. Aull, E. K. Duerr, J. P. Frechette, K. A. McIntosh, D.R. Schuette, and R. D. Younger, "Large-Format Geiger-Mode AvalanchePhotodiode Arrays and Readout Circuits," IEEE Journal of Selected Topics in Quantum Electronics, vol. 24,no. 2, pp. 1-10, 2018, doi: 10.1109/jstqe.2017.2736440.

[8]        J. S. Massa, G. S. Buller, A. C. Walker, S. Cova, M.Umasuthan, and A. M. Wallace, "Time-of-Flight Optical Ranging System Basedon Time-Correlated Single-Photon Counting," Appl. Opt., vol. 37, no. 31, pp. 7298-304, Nov 1 1998, doi:10.1364/ao.37.007298.

[9]        P. Padmanabhan, C. Zhang, and E. Charbon, "Modeling andAnalysis of a Direct Time-of-Flight Sensor Architecture for LiDARApplications," Sensors (Basel), vol.19, no. 24, Dec 11 2019, doi: 10.3390/s19245464.

[10]      Y. He and S. Chen, "Recent Advancesin 3D Data Acquisition and Processing by Time-of-Flight Camera," IEEE Access, vol. 7, pp. 12495-12510,2019.

[11]      A. Sabov and J. Krüger,"Identification and correction of flying pixels in range cameradata," in Proceedings of the 24thSpring Conference on Computer Graphics, 2008, pp. 135-142.

[12]      M. Reynolds, J. Doboš, L. Peel, T.Weyrich, and G. J. Brostow, "Capturing time-of-flight data withconfidence," in CVPR 2011, 2011:IEEE, pp. 945-952.

[13]      R. Whyte, L. Streeter, M. J. Cree, and A.A. Dorrington, "Review of methods for resolving multi-path interference intime-of-flight range cameras," in SENSORS,2014 IEEE, 2014: IEEE, pp. 629-632.

[14]      M. Lindner, I. Schiller, A. Kolb, and R.Koch, "Time-of-flight sensor calibration for accurate range sensing,"Computer Vision and Image Understanding, vol.114, no. 12, pp. 1318-1328, 2010.

[15]      S. Cova, M. Ghioni, A. Lacaita, C. Samori,and F. Zappa, "Avalanche photodiodes and quenching circuits forsingle-photon detection," Appl.Opt., vol. 35, no. 12, pp. 1956-1976, 1996.

[16]      T. Al Abbas, N. Dutton, O. Almer, S.Pellegrini, Y. Henrion, and R. Henderson, "Backside illuminated SPAD imagesensor with 7.83 μm pitch in 3D-stacked CMOS technology," in 2016 IEEE International Electron DevicesMeeting (IEDM), 2016: IEEE, pp. 8.1. 1-8.1. 4.

[17]      H. Xu, L. Pancheri, G. D. Betta, and D.Stoppa, "Design and characterization of a p+/n-well SPAD array in 150nmCMOS process," Opt Express, vol.25, no. 11, pp. 12765-12778, May 29 2017, doi: 10.1364/OE.25.012765.

【本文经授权发布,不代表投资界立场。本平台仅提供信息存储服务。】如有任何疑问题,请联系(editor@zero2ipo.com.cn)投资界处理。