2. 中国人民解放军理工大学 国防工程学院, 江苏 南京 210007 ;
3. 中国科学院深圳先进技术研究院 智能设计与机器视觉研究室, 广东 深圳 518055 ;
4. 国防科学技术大学 军事高科技培训学院, 湖南 长沙 410073 ;
5. 湖南师范大学 计算机教学部, 湖南 长沙 410006
2. School of National Defense, PLA University of Science and Technology, Nanjing 210007, China ;
3. Laboratory of Artifical Design and Machine Vision, Shenzhen Institutes of Advanced Technology, The Chinese Academy of Sciences, Shenzhen 518055, China ;
4. College of Continuing Education, National University of Defense Technology, Changsha 410073, China ;
5. Computer Department, Hu'nan Normal University, Changsha 410006, China
自计算机图形学诞生以来, 如何快速建立高逼真的三维彩色全身人像便成为科研人员关注的焦点.导致这一事实出现的原因有两个方面:一方面, 三维彩色全身人像具有广阔的应用需求; 另一方面, 三维彩色全身人像的建模问题极其困难.
迄今为止, 业界已经建立了两个代表性的三维彩色全身人像数据库:CEASAR[1]和FAUST[2].受文献[1, 2]的启发, 进一步分析CAESAR和FAUST的数据实例, 通过总结, 本文发现, 难以建立三维彩色全身人像的原因主要包括:
(1) 逼真度.建立的三维彩色全身人像模型具有较高的逼真度.逼真度包括几何和色彩两方面的信息.在几何方面, 原始的采集数据应达到毫米级别; 在色彩方面, 其视觉效果应具有照片真实感.
(2) 鲁棒性.鲁棒地获取衣物和头发等材质, 有效地采集多种材质的全身表面.此外, 采集的数据能够尽可能地覆盖成人对象的全身区域, 数据缺失少.
(3) 速度.速度进一步分为采集和处理两个方面.在采集上, 速度达到秒级, 用户无需长时间地保持静止状态; 在处理过程中, 建立三维全身人像的速度快, 达到分钟级别, 可尽快生成结果.
面向上述3个因素, 本文提出一个快速的三维彩色全身人像捕捉系统(名为化身1号).化身1号以1.5 s的速度采集成人对象的原始数据, 1 min内全自动地建立以网格表示的三维彩色全身人像.该人像模型的几何精度达到1 mm, 其纹理具有照片真实感的色彩信息.
化身1号由8台自制的结构光扫描仪所组成:4个抓拍头部, 4个抓拍身体.综合考虑单个扫描仪的视场(field-of-view)因素, 预先合理地配置好8台扫描仪的空间位置, 使得全体扫描仪的视场合集能够有效地覆盖采集成人对象的全身区域.由于采用了高频二值条纹的结构光图像编码算法, 自制的结构光扫描仪具有高鲁棒性, 能够有效地采集黑色衣物和头发等材质表面.在各个扫描仪的局部视角下, 快速建立1 mm精度的三维原始点云, 并获取了相应百万像素的彩色纹理(图像).
通过多个扫描仪的离线标定, 各扫描仪采集的局部数据就能够在一个坐标系内匹配在一起.使用标定信息, 化身1号捕捉成人对象(身高在1.4 m~2 m范围内), 历经处理模型的全局注册和无缝隙的纹理拼接两个步骤, 鲁棒地建立高逼真度的三维彩色(附有纹理)全身人像模型.
在实现化身1号的过程中, 本文的技术贡献主要包括:
(1) 一种改进的高频二值条纹结构光图像编码算法.由于使用高频二值条纹的边缘结构信息计算三维点云, 依此算法自建的扫描仪能够快速地采集对象, 求解的几何精度达到1 mm.更重要的是, 具有高鲁棒性:能够有效地采集黑色衣物和头发等材质.纠正了结构光扫描仪难以采集黑色材质的通常错误概念.
(2) 一种充分使用彩色信息的模型重建方法.在几何重建过程中, 提出了一种使用彩色信息的多视角SLAM全局注册机制.SLAM(simultaneous localization and mapping)是即时定位与地图构建, 在计算机视觉领域, 深度相机典型应用KinectFusion[3]可在定位相机的同时, 实时地重建出采集对象的网格模型.本文进一步扩展了KinectFusion框架, 在SLAM机制中, 进一步使用彩色信息, 以快速实现多视角局部数据的全局注册; 在模型的色彩信息处理过程中, 通过快速的、无缝隙的纹理拼接, 达到照片真实感的视觉效果.
本文第1节综述相关的研究工作.第2节说明单个结构光扫描仪的实现方案, 说明高频二值条纹的结构光图像编码算法.第3节阐述化身1号的8个扫描仪的空间配置、离线的扫描仪标定.第4节给出人像捕捉工作, 重点说明全局注册和纹理拼接等数据处理步骤.第5节给出实验结果及其分析, 以说明化身1号的逼真度、鲁棒性和速度.第6节总结本文工作, 并讨论下一步的研究方向.
1 相关工作本节简要回顾三维彩色全身人像的相关研究, 重点论述高精度的数据采集、高质量的几何重建和纹理拼接相关工作, 尤其是那些具有当前最优或曾引领发展的代表性工作.
当前, 采集人体数据的最优结果为毫米级别, 相关设备包括:激光扫描仪、结构光扫描仪和高清相机阵列.CAESAR[1]全身人像数据库是采用激光扫描仪建立的, 采集一个成人对象的速度一般为17 s.FAUST[2]则采用了高造价(百万)的高清相机阵列, 能够以0.02 s的速度采集对象.结构光扫描仪的采集速度快于激光扫描仪, 它通过一组光栅, 拍照式地快速获取对象表面的数据信息.从而, 本文采用自制的结构光扫描仪搭建采集系统.但是, 与市面上的常用结构光扫描仪不同, 对于自制的结构光扫描仪, 本文采用了高频二值条纹的结构光图像编码算法[4], 缓解了结构光扫描仪难以采集黑色衣物和头发等材质的局限.更进一步地, 本文只采用了18幅光栅图像, 这与采用30幅光栅图像的原有算法[4]相比, 采集速度更快.单个扫描仪的采集速度为0.3 s.
由于单个扫描仪的视场只能采集全身的部分区域, 故需要从多个视角采集成人对象.从而, 多视角的局部数据需要通过全局注册匹配在一起, 重建出高质量的几何模型.对于此问题, 可借助SLAM机制来求解.在开创性的KinectFusion[3]工作中, 在定位各个视角深度相机(扫描仪)的同时, 将单视角的局部数据与静态场景实时地匹配在一起, 实现全局场景的重建.为了改进KinectFusion的性能, 研究人员提出了多种改进工作, 如可扩展的体积分求解[5]、快速CPU求解[6].因而, KinectFusion能够不在GPU加速的条件下, 快速地处理大尺寸的静态场景.当前最优的DynamicFusion[7]工作, 能够实时地重建出动态变化的人体对象, 将全局注册从刚性匹配提升到非刚性匹配.但是, 与KinectFusion一样, DynamicFusion仅使用了深度图像, 没有使用彩色图像.本文采纳了快速的SLAM机制, 并将其扩展, 融入了色彩因素, 建立的几何模型逼真度更高.
结构光扫描仪采集了单视角的百万像素的彩色图像.这些图像经过纹理映射生成人体表面的纹理细节, 建立出照片真实感的模型.但是, 多个视角的彩色纹理之间存在重叠区域, 需要通过纹理拼接, 无缝隙地生成一致的纹理贴图结果.此外, 由于受光照等因素的影响, 各视角的纹理亮度不一.上述问题, 文献[8, 9]提出了各自的无缝隙的纹理拼接算法:在网格模型的每个三角形上, 选取出最合适视角的彩色图像.该问题本质上是一个离散能量最小化问题, 组合优化求解的计算开销大.因此, 文献[8, 9]的求解时间都在10 min以上.为此, 本文使用了α扩展算法[10], 快速地完成无缝隙的纹理拼接的计算.
2 自制的结构光扫描仪使用高频二值条纹的结构光图像编码算法, 本文自制了结构光扫描仪.在阐述完结构光扫描仪的组成结构后, 说明改进的高频二值条纹结构光图像编码算法.
2.1 组成结构自制的结构光扫描仪的基本组成部分(如图 1(a)所示)包括:CCD相机(PointGrey工业相机, 帧速率为90 Hz, 单帧分辨率为2048×2048)、控制板(FPGA视频图像处理开发板)和光栅投影仪(选型为明基投影仪, 帧速率为60 Hz, 分辨率为1024×768).其中, CCD相机与光栅投影设备之间的距离约为50 cm, CCD相机和光栅投影设备的焦点在2 m处.控制板的主要功能是:将预先存储的数字光栅通过视频接口输出至投影仪, 输出每一帧画面的同时, 向相机发送触发信号, 由相机同步拍摄投影仪所投射的每一帧图像.
2.2 改进的高频二值条纹结构光图像编码算法与文献[4]工作类似, 自制的结构光扫描仪工作机理(如图 1(b)所示)如下:在控制板的控制下, 光栅投影仪将编码后的高频(黑白)二值结构光栅条纹投影到被测对象表面上, 光栅条纹受到对象表面高度的影响而发生变形, 变形后的光栅条纹因此携带了对象表面的三维信息.CCD相机获取相应的数字图像, 经计算机执行相应算法, 解码出光栅条纹变形所引起的变化量.从而, 计算出被测对象的三维外形点云.
不同于文献[4]中的工作采用30幅光栅图像, 改进后的高频二值条纹结构光图像编码算法仅采用了18幅光栅图像.改进的原理在于:在原有的30幅光栅图像中, 有12幅具有冗余性, 对于三维点云的精度影响不大.所选用投影仪的帧速率为60 Hz, 自制的结构光扫描仪投影了18幅光栅图像.因此, 单个结构光扫描仪的采集时间为18/60=0.3 s.
高频二值条纹结构光图像编码算法采用高频二值条纹的边缘特征, 将编码特征的定位精度提高到了亚像素级别, 因而其扫描结果具有高精度.
此外, 在图像解码阶段, 只需判别图像中投射黑白光栅条纹的边缘特征信息, 而无需知道精确的图像灰度值.因此, 对于光照、材质及颜色的影响具有较好的鲁棒性.这是自制的结构光扫描仪能够采集黑色衣物和头发等材质表面的根本原因.
3 化身1号的配置本文使用了8台扫描仪搭建了化身1号, 在说明多台扫描仪的空间配置后, 阐述多台扫描仪的离线标定.
3.1 多台扫描仪的空间配置单个扫描仪的视场采集范围有限, 故需要从多个视角采集成人对象, 使得全体扫描仪的视场合集能够有效地覆盖采集成人对象的全身区域.如图 2所示, 本文采用8个结构光扫描仪, 按照计算出的空间配置, 采集的数据能够尽可能地覆盖成人对象的全身区域, 具有较少的数据缺失.
在采集过程中, 本文约定人体处于A姿态.成人的正常身高在1.4 m~2 m之间.从而, 人体占用的空间范围可简化为躯体和头部两个子块组成的全身几何体(如图 2坐标系中心的几何体所示).躯体部分简化为(绿色)长方体, 长度为1.4 m, 宽度为0.6 m, 高度为1.5 m; 头部简化为(白色)圆柱体, 半径为0.35 m, 高度为1 m.
单台扫描仪的视野范围为:水平视角45°, 垂直视角58°.在2 m的距离内, 单台扫描仪可扫描的幅面为:宽度1.6 m, 高度2.2m.
4台扫描仪采集头部:1台从正面采集人脸, 3台从侧面和后面的斜上位置采集头部, 关注头发区域.4台扫描仪从前后左右4个方向采集躯体.从而, 8台扫描仪的视场并集能够有效地覆盖1.4 m~2 m身高的成人空间范围.
3.2 离线标定对于多台扫描仪, 本文使用课题组既有工作[11]的离线标定方法, 实现8台扫描仪的标定.计算扫描仪之间的标定矩阵, 将各个扫描仪采集的三维点云数据转换到同一个参考坐标系中.
4 真实对象的捕获下面, 将以静态模特为实例, 说明化身1号完成真实对象捕捉的过程:数据的快速采集、预处理、全局注册和纹理拼接.对于模特实例, 图 3(a)显示了8幅原始彩色图像和8个优化后的三维彩色点云, 图 3(b)显示了全局注册后的无色彩和有色彩的点云匹配结果, 图 3(c)显示了重建后的几何模型(不带纹理)和最终的照片真实感全身人像结果(带纹理).
4.1 数据的快速采集
在采集之前, 8台扫描仪的CCD相机均预先设定为彩色模式.采集开始后, 按照以下方式工作.
(1) 以1/90 s的速度, 8台扫描仪同时各自采集一张彩色图像;
(2) CCD相机切换到黑白模式, 该切换过程耗时0.25 s;
(3) 在避免扫描仪投影光栅图像的互干扰前提下, 8台扫描仪以两台为一组的顺序采集, 抓拍18幅预设的高频二值光栅图像.由于真实人体对象是不透明的, 能够遮挡上下相对的两台扫描仪, 避免了其高频二值光栅图像的重叠.因此, 上下相对的两台扫描仪同时工作.从而, 黑白模式下采集的时间为0.3 s×8/2=1.2 s.
(4) 在采集完毕后, CCD相机再切换回彩色模式.
累加(1)(2)和(3)的时间, 化身1号采集真实对象的总时间小于1.5 s.
4.2 数据的预处理首先, 对于每台扫描仪采集的高频二值光栅图像, 使用第2.2节中描述的高频二值条纹结构光图像编码算法, 求解出相应的三维点云.需要指出的是, 由于结构光扫描仪使用了同一台CCD相机抓拍高频二值光栅图像和彩色图像, 故很容易求解彩色图像与三维点云之间的映射关系.此外, 对于单个扫描仪的三维点云, 也可以表示为一幅深度图像.上述求解属于业内常用技术手段, 不作详述.
其次, 采用深度图像滤波方法[12], 对各个三维点云进行增强.具体包括边界区域检测、外点去除和空间滤波3个步骤.本文采用Sobel算子来检测深度图像上与周围像素点存在较大深度差异的像素, 并加以去除, 这些像素点一般位于人体的边界上.
最后, 采用课题组既有工作[11]的地面检测方法, 自动删除地面数据.
4.3 全局注册在几何重建过程中, 本文扩展了SLAM机制, 使用了彩色信息, 将离线标定求取的标定信息作为初始值, 快速实现多视角局部数据的全局注册.
对于各台扫描仪, 获取了其视角下耦合在一起的深度-彩色图像.在齐次坐标系下, 一个三维顶点可表示为P=(X, Y, Z, 1)T.使用逆向投影方程π−1, 使用像素x=(x, y)T和深度测量Z=Z(x), 该顶点可表示为
$ {\bf{p}} = {\pi ^{ - 1}}({\bf{x}}, Z) = {\left( {\frac{{x - {o_x}}}{{{f_x}}}Z, \frac{{x - {o_y}}}{{{f_y}}}Z, Z, 1} \right)^{\rm{T}}} $ | (1) |
其中, fx和fy为相机的焦距, Ox和Oy是相机的中心坐标.这些参数是相机的内参, 是已知的.
那么, 使用投影方程π, 该顶点对应的像素可表示为
$ {\bf{x}} = \pi ({\bf{p}}) = {\left( {\frac{{X{f_x}}}{Z} + {o_x}, \frac{{X{f_y}}}{Z} + {o_y}} \right)^{\rm{T}}} $ | (2) |
对于两个相邻的深度-彩色图像I1和I2上的共有顶点, 利用投影方程π和相邻扫描仪间的标定矩阵A, 可推导出warping函数τ, 基于I1上的像素x和A, 计算出I2上的像素坐标x'
$ {\bf{x'}} = \tau ({\bf{x}}, {\bf{A}}) = {\pi _2}{\left( {{\bf{A}}\pi _{_1}^{ - 1}\left( {{\bf{x}}, {Z_1}({\bf{x}})} \right)} \right)^{\rm{T}}} $ | (3) |
使用warping函数τ, 文献[6]中的工作为像素x定义了深度测量误差rZ.
$ {r_Z} = {Z_2}\left( {\tau ({\bf{x}}, {\bf{A}})} \right) - {Z_1}({\bf{x}}) $ | (4) |
更进一步地, 可表示为
$ {r_Z} = {Z_2}\left( {\tau ({\bf{x}}, {\bf{A}})} \right) - {\left[{{\bf{A}}\pi _1^{-1}\left( {{\bf{x}}, {Z_1}({\bf{x}})} \right)} \right]_Z} $ | (5) |
其中, [·]Z为一个顶点的深度值, 即[p]Z=Z.
通过如下的加权最小二乘方程, 文献[6]中的工作求解优化的标定矩阵A*为
$ {{\bf{A}}^{\bf{*}}} = \mathop {\arg \min }\limits_{\bf{A}} \sum\limits_{i = 1}^N {{w_i}r_{Z, i}^2} $ | (6) |
其中, w为权重, N为深度-彩色图像的数目, 本文中N=8.文献[6]中的工作给出了上式的CPU实时求解方法.
除了考虑深度因素rZ, 本文又进一步考虑了彩色因素rC.将双元变量r=(rZ, rC)引入到加权最小二乘方程中.
$ {{\bf{A}}^{\bf{*}}} = \mathop {\arg \min }\limits_{\bf{A}} \sum\limits_{i = 1}^N {{w_i}{\bf{r}}_i^2} $ | (7) |
因此, 与文献[6]中的工作类似, 使用一阶泰勒展开, 将上式线性化.进而, 将离线标定求取的标定信息作为初始值, 采用迭代的求解方法, 求解出最终的标定信息, 完成全局注册, 快速建立以三角形网格表示的几何模型.
4.4 纹理拼接建立的三角形网格模型, 需要将多视角采集的彩色图像映射到它的表面上, 无缝隙地拼接, 生成一致的纹理映射结果.在上文中, 已经计算了彩色图像与三角形网格之间的投影映射关系.基于此, 本文将采用离散标签分配(discrete label assignment)的表示方式, 通过能量化方程的求解, 完成无缝隙的纹理拼接.
对于三角形网格模型M上的一个面片fj(j=1, ..., F, F为面片的总数), 分配了一个标签lj, 该标签指明了多视角彩色图像中的相关单一图像Ii.本文共有8个视角下的彩色图像, 故i=1, ..., N, N=8.从而, 多视角彩色图像的纹理拼接可形式化地表示为
$ \mathop {\arg \min }\limits_{{l_1}, ..., {l_F}} \sum\limits_{j = 1}^F {{E_{data}}({l_j})} + \lambda \sum\limits_{\{ {f_j}, {f_k}\} \in M, {f_j} \in B({f_k})} {{E_{smooth}}({l_j}, {l_k})} $ | (8) |
其中, λ为数据项Edata和光滑项Esmooth之间的权重, 经验设定为λ=10.B(fk)是面片fk的相邻面片集合.从而, {fj, fk}∈M, fj∈B(fk)的含义为fj和fk是相邻面片.
$ {E_{data}} = {\sin ^2}\theta $ | (9) |
在数据项Edata中, 对于每个视角的彩色图像, θ为该视角投影仪的相机视线方向与三角形法向的夹角.从而, 当夹角θ越小时, 数据项的值越小, 即该视角的彩色图像具有更优的纹理映射结果.
$ {E_{smooth}}({l_j}, {l_k}) = \int_{e(j, k)} {{{\left\| {{I_{{l_j}}}\left( {{\phi _{{l_j}}}(p)} \right) - {I_{{l_k}}}\left( {{\phi _{{l_k}}}(p)} \right)} \right\|}^2}} $ | (10) |
光滑项Esmooth测量了相邻面片fj和fk的共享边e(j, k)上的色彩误差积分.其中, φlj是将面片fj映射到彩色图像Ilj的函数.当相邻面片具有同一个分配标签时, 光滑项的值为0.
式(8)是一个典型的离散能量最小化方程, 具有多种解法.文献[9]中的工作采用了加权树的消息传递解法(tree-reweighted message passing), 收敛速度慢.为了加速式(8)的求解过程, 本文采用了更快的α扩展算法[10], 该算法可快速收敛, 快速求解出最优解.
在纹理拼接后, 本文采用图像的泊松融合算法[13], 缓解各个视角彩色图像间的色彩强度差异, 实现纹理图像间光照色彩的平滑过渡.并进一步使用该算法[13], 对于因自遮挡导致的死角面片, 通过色彩填充, 新建相应的映射纹理.从而, 实现了照片真实感的纹理映射效果.
5 实验结果图 4显示了3个具有代表性的成人实例结果.本节对其展开分析, 说明化身1号的逼真度、鲁棒性和速度.
(1) 逼真度
三维彩色全身人像的逼真度包括几何和色彩两个方面.在几何方面, 对于自制的结构光扫描仪, 其采集精度为1 mm.依此建立的几何模型, 也达到了1 mm级别; 在色彩方面, 将相机抓拍的百万像素彩色图像作为纹理, 从而, 对于具有纹理贴图的人像模型, 其视觉效果具有照片真实感.
为了进一步测量几何逼真度, 本文在几何精度上做了对比实验(如图 5所示).对于静态模特(没有手臂), 预先使用了当前商用最高精度的结构光扫描仪建立了三维模板(如图 5(a)所示), 此模板的几何精度达到了0.1 mm.本系统捕捉该静态模特, 重建相应的模型(如图 5(b)所示).接下来, 将重建模型与三维模板进行了以L2距离为标准的误差对比(用伪彩色图表示, 如图 5(c)所示).实验结果表明, 与模板相对比, 本系统重建后的L2最大几何误差为2 mm, 平均几何误差为0.6 mm.从而, 说明了本系统的重建结果处于当前最优水平, 即达到了1 mm的几何精度.
(2) 鲁棒性
由于采用了高频二值条纹结构光图像编码算法, 自制的结构光扫描仪能够鲁棒地获取黑色衣物和头发等材质.从而, 化身1号对光照、材质及颜色的影响具有较好的鲁棒性.
在化身1号中, 8台扫描仪的视场并集能够有效地覆盖1.4 m~2 m身高的成人空间范围, 采集的成人对象全身数据缺失少.该有效覆盖一方面为高逼真度结果提供了保证, 另一方面也提高了系统采集的鲁棒性.
由于化身1号的数据采集时间仅为1.5 s, 成人对象能够尽可能地保持静止状态.从而, 全局注册算法能够鲁棒地匹配各个视角的局部数据, 进而建立高逼真度的结果.但是, 如果在1.5 s的采集过程中, 成人对象发生动作变形, 重建的结果会有失真.对于一个成人对象, 图 6显示了在其尽量保持静止与发生中等尺度变形下的结果.中等尺度变形时, 该成人对象的躯体、头部和四肢均发生了明显的变形.实验结果表明, 此时的重建结果出现了明显的拼缝.当变形尺度更大时, 不难想象, 失真度会更高.
(3) 速度
化身1号运行在Dell T7600图形工作站上.表 1描述了化身1号采集和处理各子步骤(预处理、全局注册和纹理拼接)的典型执行时间(单位:s).需要指出的是, 各子步骤均未使用GPU加速.整体而言, 对于采集的原始数据, 处理的全部时间未超过1min.迄今为止, 这是有关报道的当前最快速度.
6 结论
本文提出了一个名为化身1号的三维彩色全身人像捕捉系统.本系统能够以1.5 s的速度采集成人对象, 1 min内建立高逼真的三维人像模型.该模型的几何精度达到1 mm, 并借助纹理映射, 达到照片真实感的视觉效果.本系统具有高鲁棒性, 使用自制的结构光扫描仪, 鲁棒地获取黑色衣物和头发等材质.
本系统还有几个待改进的地方.首先, 由于自制的结构光扫描仪采用了白光, 用户会因光亮过强而有短暂的不舒适感.其次, 对于高反射的亮光皮鞋, 自制的结构光扫描仪仍然难以鲁棒地建立高逼真度的三维点云.最后, 在几何重建过程中, 全局注册的前提是采集成人对象是保持静止的.当采集对象在采集期间发生非刚性变形时, 会影响最终的几何重建结果.为此, 需要采用非刚性的SLAM机制[7]以提高系统处理非刚性变形的能力.
[1] | Robinette K, Dannen H, Paquet E.The CAESAR project:A 3-D surface anthropometry survey.In:Webber B, ed.Proc.of the 2nd Int'l Conf.on 3D Digital Imaging and Modeling.IEEE Computer Society, 1999.380-386.[doi:10.1109/IM.1999.805368] |
[2] | Bogo F, Romero J, Loper M, Black MJ.FAUST:Dataset and evaluation for 3D mesh registration.In:O'Conner L, ed.Proc.of the IEEE Conf.on Computer Vision and Pattern Recognition.Columbus:IEEE Computer Society, 2014.3794-3801.[doi:10.1109/CVPR.2014.491] |
[3] | Izadi S, Kim D, Hilliges O, Molyneaux D, Newcombe R, Kohli P, Shotton J, Hodges S, Freeman D, Davison A, Fitzgibbon A.Kinectfusion:Real-Time 3D reconstruction and interaction using a moving depth camera.In:Agrawala M, ed.Proc.of the ACM Symp.on User Interface Software and Technology.New York:ACM, 2011.559-568.[doi:10.1145/2047196.2047270] |
[4] | Song Z, Chung R, Zhang X. An accurate and robust strip-edge based structured light means for shiny surface micro-measurement in 3D. IEEE Trans.on Industrial Electronics, 2013, 60 (3) :1023–1032. [doi:10.1109/TIE.2012.2188875] |
[5] | Chen J, Bautembach D, Izadi S. Scalable real-time volumetric surface reconstruction. ACM Trans.on Graphics (SIGGRAPH Issue), 2013, 32 (4) :No.113. [doi:10.1145/2461912.2461940] |
[6] | Steinbrucker F, Sturm J, Cremers D.Volumetric 3D mapping in real-time on a CPU.In:Hamel W, ed.Proc.of the Int'l Conf.on Robotics and Automation.IEEE Computer Society, 2014.2021-2028.[doi:10.1109/ICRA.2014.6907127] |
[7] | Newcombe RA, Fox D, Seitz SM.DynamicFusion:Reconstruction and tracking of non-rigid scenes in real-time.In:Grauman K, ed.Proc.of the IEEE Conf.on Computer Vision and Pattern Recognition.Columbus:IEEE Computer Society, 2015.343-352.[doi:10.1109/CVPR.2015.7298631] |
[8] | Lempitsky VS, Ivanov DV.Seamless mosaicing of image based texture maps.In:Kanade T, ed.Proc.of the IEEE Conf.on Computer Vision and Pattern Recognition.Columbus:IEEE Computer Society, 2007.101-106.[doi:10.1109/CVPR.2007.383078] |
[9] | Gal R, Wexler Y, Ofek E, Hoppe H, Cohen-Or D. Seamless montage for texturing models. Computer Graphics Forum, 2010, 29 (2) :479–486. [doi:10.1111/j.1467-8659.2009.01617.x] |
[10] | Boykov Y, Veksler O, Zabih R. Fast approximate energy minimization via graph cuts. IEEE Trans.on Pattern Analysis and Machine Intelligence, 2001, 23 (11) :1222–1239. [doi:10.1109/34.969114] |
[11] | Chen Y, Dang G, Cheng Z-Q, Xu K. Fast capture of personalized avatar using two kinects. Journal of Manufacturing Systems, 2014, 33 (1) :233–240. [doi:10.1016/j.jmsy.2013.11.005] |
[12] | Richardt C, Stoll C, Dodgson NA, Seidel H-P, Theobalt C. Coherent spatiotemporal filtering, upsampling and rendering of RGBZ videos. Computer Graphics Forum, 2012, 31 (2) :247–256. [doi:10.1111/j.1467-8659.2012.03003.x] |
[13] | Perez P, Gangnet M, Blake A. Poisson image editing. ACM Trans.on Graphics, 2003, 22 (3) :313–318. [doi:10.1145/882262.882269] |