CN106780592A - 基于相机运动和图像明暗的Kinect深度重建算法 - Google Patents

基于相机运动和图像明暗的Kinect深度重建算法 Download PDF

Info

Publication number
CN106780592A
CN106780592A CN201611061364.6A CN201611061364A CN106780592A CN 106780592 A CN106780592 A CN 106780592A CN 201611061364 A CN201611061364 A CN 201611061364A CN 106780592 A CN106780592 A CN 106780592A
Authority
CN
China
Prior art keywords
depth
pixel
value
point
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611061364.6A
Other languages
English (en)
Other versions
CN106780592B (zh
Inventor
青春美
黄韬
袁书聪
徐向民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Publication of CN106780592A publication Critical patent/CN106780592A/zh
Application granted granted Critical
Publication of CN106780592B publication Critical patent/CN106780592B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种基于相机运动和图像明暗的Kinect深度重建算法,包括步骤:1)在Kinect深度摄像头和RGB摄像头标定对齐的情况下,通过第三方接口将Kinect采集的数据上传到电脑;2)从RGB视频序列中恢复三维场景结构和kinect RGB相机的运动轨迹,得到点云和相机运动关系;3)结合步骤2)中获得的点云和相机运动关系,利用图像的明暗情况信息对图像深度进行重建。本算法不需要对深度摄像头进行物理上的改进,也不需要设计复杂的装置组合,以及不需要传统深度重建方法中经常使用的一般只能局限在实验室条件下而不具备现实应用价值的复杂而条件苛刻的光照标定步骤,相比传统的方法而言,具有更大的现实应用价值和意义。

Description

基于相机运动和图像明暗的Kinect深度重建算法
技术领域
本发明涉及计算机图像处理中的深度重建领域,尤其是指一种基于相机运动和图像明暗的Kinect深度重建算法。
背景技术
随着近些年一些价格相对低廉的民用深度摄像头,例如Microsoft Kinect和AsusXtion Pro等的面世和推广,深度信息被广泛用于体感游戏、实时三维重建、增强现实、虚拟现实等各个领域,对深度信息的应用已经成为了新型人机交互方式的发展的重要依托。然而,目前市面上较为流行的民用深度摄像头大多存在深度探测精度不够以及干扰噪声太大的问题,严重地影响了基于深度信息的应用产品的质量。因此,如何获取更为精确的深度信息,对于基于深度信息开发的应用而言具有非常重要的意义。
正因为上述的需求,深度重建算法越来越受到学术界和产业界的关注。目前有一种新颖的办法是结合计算机图形学中三维重建方面的思路辅助深度图进行重建,而本专利也是沿用了这个思路。而目前三维重建方面主要方法有从运动信息中恢复三维场景结构、从图像的明暗情况重构物体形状、光度立体法等。而本专利主要是利用从运动信息中恢复三维场景结构以及从图像的明暗情况重构物体形状两种方法。
从运动信息中恢复三维场景结构的方法主要利用摄像机的运动过程而动态生成和修正三维点云,它的典型代表是基于单目摄像头的SLAM***。而从图像的明暗情况重构物体形状的方法则是利用图像的明暗情况,建立有效的光照模型并使用优化的方法对其进行求解,进而可以获取目标的表面形状信息。
对上述两种方法的思想加以利用和改进,以及利用深度图与点云二者之间紧密的关系,就可以有效的对深度图进行优化和重建,得到更精确的深度结果。
发明内容
本发明的目的在于克服现有的民用深度摄像头的深度探测精度不够的不足,提供一种基于相机运动和图像明暗的Kinect深度重建算法,该算法不需要对深度摄像头进行物理上的改进,也不需要设计复杂的装置组合,以及不需要传统深度重建方法中经常使用的一般只能局限在实验室条件下而不具备现实应用价值的复杂而条件苛刻的光照标定步骤,相比传统的方法而言,具有更大的现实应用价值和意义。
为实现上述目的,本发明所提供的技术方案为:基于相机运动和图像明暗的Kinect深度重建算法,包括以下步骤:
1)在Kinect深度摄像头和RGB摄像头标定对齐的情况下,通过第三方接口将Kinect采集的数据上传到电脑;
2)从RGB视频序列中恢复三维场景结构和kinect RGB相机的运动轨迹,得到点云和相机运动关系;
3)结合步骤2)中获得的点云和相机运动关系,利用图像的明暗情况信息对图像深度进行重建。
所述步骤2)包括以下步骤:
2.1)在***初始化的时候读入一张RGB图片并作为关键帧,给关键帧绑定一个深度图,深度图和灰度图有相同的维度,遍历深度图,给每个像素位置赋一个随机值;
2.2)每读取一张RGB图片,都构造如下的代价函数:
其中||·||δ是哈勃算子,rp代表误差,代表误差的方差;
哈勃算子的定义如下:
δ是哈勃算子的参数;
误差函数的定义rp如下:
rp(p,ζji)=Ii(p)-Ij(w(p,Di(p),ζji))
Ii(p)表示当前帧中像素p的位置的灰度值,ζji表示将i坐标下的三维点旋转平移到j坐标下的刚体变换的李代数,Di(p)表示参考帧的深度图中像素p对应的位置的深度值,w(p,Di(p),ζji)表示参考帧i中像素p位置对应的三维点经过旋转平移刚体变换到当前帧中j位置,变换公式如下:
其中X,Y,Z分别表示相机坐标系下的三维点在XYZ三个方向上的坐标;u,v表示像素坐标;fx,fy分别表示X,Y方向上焦距;
方差的定义如下:
其中表示图片灰度的方差,Vi(p)表示参考帧深度图像素点p的方差;
2.3)用高斯牛顿迭代法求解步骤2.2)中代价函数最小时的ζ,得到参考帧和当前帧之间的旋转平移关系;
2.4)对参考帧灰度图上所有点求梯度,选取其中梯度大于门限的点;接着对这些点进行筛选;遍历所有符合要求的点,根据极线集合搜索这些点在当前帧极线上的对应点;并根据单目视觉三维重建几何知识计算点的空间坐标;
2.5)用卡曼滤波器对新得到的深度值与参考帧深度图中的深度值融合。
所述步骤3)包括以下步骤:
3.1)进行当前帧下的深度摄像头采集到的深度图像与单目彩色摄像头采集到的彩色图像的对齐;由于彩色摄像头与深度摄像头之间存在视场范围的差异,所以只有二者视场重叠部分才具有有效的深度值,因此对齐后得到的是不完整的深度图;
3.2)按照深度摄像头中针孔相机的模型,将该不完整的深度图进行三维点云的生成;针孔相机模型简述为:一个空间点的空间坐标[x,y,z]与它在图像中的像素坐标[u,v,d]之间的关系表述为:
z=d/s
x=(u-cx)·z/fx
y=(v-cy)·z/fy
其中,d是深度图中每个像素的深度值,s是深度图的缩放因子,cx与cy是主点的横纵坐标,fx与fy是横坐标方向和纵坐标方向的焦距分量;
利用上述公式对每个像素的像素坐标转换成对应的空间坐标,即可完成深度图到三维点云的转换;
3.3)将单目算法中生成的点云与上述不完整的深度图生成的点云二者使用点对点的迭代最近邻点ICP算法进行配准得到二者之间的旋转矩阵R和平移矩阵T;
3.4)根据上述得到的旋转矩阵和平移矩阵,将单目算法获得的点云转换到不完整的深度图生成的点云的坐标体系下,并将二者拼接成一个大的点云;
3.5)对于深度图中由于视场范围不重叠而形成的深度值无效区域,对每个处于无效区域中的像素,计算其空间位置;若该像素对应的空间点位置正好与大的点云中某点空间位置重合,则直接将该点的z坐标也就是深度值赋予该像素作为其深度值;若该像素对应的空间点并未与点云中的点重合,则计算该空间点与它在大的点云中的相邻点云点的距离之和的平均值,若该值大于某个阈值,则将该值作为该像素值的深度值;
3.6)检测深度图中是否还有未有有效值的像素点;若仍有未有有效值的像素点,则使用联合双边滤波器对深度图进行深度值填补,确保深度图中每个像素点都具有深度值;
3.7)使用关于每个像素点的法线向量为变量的扩展内在图像分解模型函数作为每个像素点的光照模型函数;使用到的扩展内在图像分解模型函数为:
3.8)为图像中的每个像素计算明暗信息;明暗信息函数使用零阶和一阶球谐系数与点云表面法线向量的线性多项式的矩阵形式表示,也就是:
首先计算出每个点的法线向量,然后通过最小化明暗函数与真实光照强度间的差值的目标函数,从而求解出明暗函数的参数向量,从而为每个像素点确定了明暗函数值;
3.9)为图像中的每个像素计算反照率;由于明暗信息函数仅仅考虑到远距离光源和环境光源,因此它是对光照的初步预测,因而为了考虑到镜面反射、阴影以及近光源造成的效果,需要为每个像素引入不同的反照率;
构造最小化目标函数为:
其中,ρ是每个像素的反照率,I是每个像素的光照强度,N是全图迭代操作中当正在操作的像素的一个邻域,ρk是该邻域内的像素点,λρ是参数,而且,
3.10)类似步骤3.9)中的方法,为图像中的每个像素计算由于局部光照差异所导致的光照差异值;
构造最小化目标函数为:
其中,β是每个像素点的光照差异值,βk是全图迭代操作中当正在操作的像素的一个邻域内的像素点;是参数;
3.11)构造明暗模型与实际测量到的光照强度之间的目标函数,并使用改进的深度增强加速算法对该目标函数进行最小化,从而得到优化后的深度图;
首先将每个像素对应的点云上的点的法线表示成深度图的梯度形式,即:
其中,
是深度图的梯度;
然后建立深度优化的目标函数为:
其中,
Δz是深度图的拉普拉斯变换;是参数;
然后使用加速深度增强算法对深度进行迭代优化,如下:
①输入初始的深度图,以及球谐系数以及向量化的反照率向量ρ和光照差异值向量β;
②当深度优化目标函数值一直处于减小状态时,循环执行步骤③到⑤;
③更新其中
④更新
⑤更新zk,使得f(zk)更小;
此步骤结束后,再返回单目算法中运行相应的算法步骤,程序将一直执行直至得到结束程序的键盘输入或强制关闭程序的操作。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明能较好的完善Kinect深度传感器获得深度图,解决仅深度传感器采集数据中有空缺,深度值不准确的缺点。
2、解决了Kinect设备对被测物体深度值范围的约束,拓宽了可测量深度的范围。
3、本发明使用了特别设计的单目测距的对点进行筛选的算法,使得深度的精度远远高于普通方法。
4、本发明使得Kinect能适应复杂的光照变换环境,同时又解决了Kinect在室外不适用的问题。
5、本发明在计算物体的全局明暗程度时使用了结合三维表征的表面法线向量的光照模型,更好地对全局光照进行了描述。
6、本发明考虑并利用了现实光照环境下光照射在物体上时的全局光照效应和局部光照效应,对处理不同光照下的深度重建更具有鲁棒性和实用意义。
7、本发明使用了深度增强加速算法对深度优化步骤进行了算法上的优化,大大地减低了优化步骤的计算量,减低了算法的运行时间。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
本实施例所述的基于相机运动和图像明暗的Kinect深度重建算法,包括以下步骤:
1)在Kinect深度摄像头和RGB摄像头标定对齐的情况下,通过第三方接口将Kinect采集的数据上传到电脑。
2.1)在***初始化的时候读入一张RGB图片并作为关键帧,给关键帧绑定一个深度图,深度图和灰度图有相同的维度,遍历深度图,给每个像素位置赋一个随机值;
2.2)每读取一张RGB图片,都构造如下的代价函数:
其中||·||δ是哈勃算子,rp代表误差,代表误差的方差,。
哈勃算子的定义如下:
δ是哈勃算子的参数。
误差函数的定义rp如下:
rp(p,ζji)=Ii(p)-Ij(w(p,Di(p),ζji))
Ii(p)表示当前帧中像素p的位置的灰度值,ζji表示将i坐标下的三维点旋转平移到j坐标下的刚体变换的李代数,Di(p)表示参考帧的深度图中像素p对应的位置的深度值,w(p,Di(p),ζji)表示参考帧i中像素p位置对应的三维点经过旋转平移刚体变换到当前帧中j位置,变换公式如下:
其中X,Y,Z分别表示相机坐标系下的三维点在XYZ三个方向上的坐标,u,v表示像素坐标,fx,fy分别表示X,Y方向上焦距。
方差的定义如下:
其中表示图片灰度的方差,Vi(p)表示参考帧深度图像素点p的方差。
2.3)用高斯牛顿迭代法求解步骤2.2)中代价函数最小时的ζ,得到参考帧和当前帧之间的旋转平移关系。
2.4)对参考帧灰度图上所有点求梯度,选取其中梯度大于门限的点。接着对这些点进行筛选。计算对应点的单位梯度方向g,梯度大小g0。计算g和l的内积,并计算
如果则这个点是合格的。
遍历所有符合要求的点,根据极线几何:
E=[t]xR
l=Fx
计算当前帧中要求解深度的点所在极线的位置。其中K1是RGB相机的内参矩阵,t和R是步骤2.2)中的ζ李代数分解为旋转平移的形式。l是当前帧中对应的极线,x是参考帧中要求解深度的像素点的坐标。
搜索这些点在当前帧极线上的对应点。并根据单目视觉三维重建几何知识计算点的空间坐标:
根据
x(p3TX)-(p1TX)=0
y(p3TX)-(p2TX)=0
x(p2TX)-y(p1TX)=0
的形式构造AX=0的矩阵,其中P矩阵是旋转平移矩阵和内参矩阵的积,piT是P矩阵的第i行,X是求解点的三维坐标。x,y是当前帧中对应点的横轴方向和数轴方向的坐标。对A矩阵尽心svd分解,对应特征值最小的特征向量就是点的空间坐标。
2.5)用卡曼滤波器对新得到的深度值与参考帧深度图中的深度值融合。
更新深度值为:
更新深度的方差为:
其中do是深度图中原来的深度,dp是新计算得到的深度,σo是深度图中维护的深度方差,σp是新计算求得深度方差。
3.1)进行当前帧下的深度摄像头采集到的深度图像与单目彩色摄像头采集到的彩色图像的对齐。由于彩色摄像头与深度摄像头之间存在视场范围的差异,所以只有二者视场重叠部分才具有有效的深度值,因此对齐后得到的是不完整的深度图。
3.2)按照深度摄像头中针孔相机的模型,将该不完整的深度图进行三维点云的生成。针孔相机模型可以简述如下,一个空间点的空间坐标[x,y,z]与它在图像中的像素坐标[u,v,d]之间的关系可以表述为:
z=d/s
x=(u-cx)·z/fx
y=(v-cy)·z/fy
其中,d是深度图中每个像素的深度值,s是深度图的缩放因子,cx与cy是主点的横纵坐标,fx与fy是横坐标方向和纵坐标方向的焦距分量。
利用上述公式对每个像素的像素坐标转换成对应的空间坐标,即可完成深度图到三维点云的转换。
3.3)将单目算法中生成的点云与上述不完整的深度图生成的点云二者使用点对点的迭代最近邻点(ICP)算法进行配准得到二者之间的旋转矩阵R和平移矩阵T。
3.4)根据上述得到的旋转矩阵和平移矩阵,将单目算法获得的点云转换到不完整的深度图生成的点云的坐标体系下,并将二者拼接成一个大的点云。
3.5)对于深度图中由于视场范围不重叠而形成的深度值无效区域,对每个处于无效区域中的像素,我们计算其空间位置。若该像素对应的空间点位置正好与大的点云中某点空间位置重合,则直接将该点的z坐标也就是深度值赋予该像素作为其深度值。若该像素对应的空间点并未与点云中的点重合,则我们计算该空间点与它在大的点云中的相邻点云点的距离之和的平均值,若该值大于某个阈值,则将该值作为该像素值的深度值。
3.6)检测深度图中是否还有未有有效值的像素点。若仍有未有有效值的像素点,则使用联合双边滤波器对深度图进行深度值填补,确保深度图中每个像素点都具有深度值。
3.7)使用关于每个像素点的法线向量为变量的扩展内在图像分解模型函数作为每个像素点的光照模型函数。使用到的扩展内在图像分解模型函数为:
3.8)为图像中的每个像素计算明暗信息。明暗信息函数使用零阶和一阶球谐系数与点云表面法线向量的线性多项式的矩阵形式表示。也就是:
首先计算出每个点的法线向量,然后通过最小化明暗函数与真实光照强度间的差值的目标函数,从而求解出明暗函数的参数向量,从而为每个像素点确定了明暗函数值。
3.9)为图像中的每个像素计算反照率。由于明暗信息函数仅仅考虑到远距离光源和环境光源,因此它是对光照的初步预测,因而为了考虑到镜面反射、阴影以及近光源造成的效果,需要为每个像素引入不同的反照率。
构造最小化目标函数为:
其中,ρ是每个像素的反照率,I是每个像素的光照强度,N是全图迭代操作中当正在操作的像素的一个邻域,ρk是该邻域内的像素点,λρ是参数,而且,
3.10)类似步骤3.9)中的方法,为图像中的每个像素计算由于局部光照差异所导致的光照差异值。
构造最小化目标函数为:
其中,β是每个像素点的光照差异值,βk是全图迭代操作中当正在操作的像素的一个邻域内的像素点,是参数。
3.11)构造明暗模型与实际测量到的光照强度之间的目标函数,并使用改进的深度增强加速算法对该目标函数进行最小化,从而得到优化后的深度图。
首先将每个像素对应的点云上的点的法线表示成深度图的梯度形式,即:
其中,
是深度图的梯度。
然后建立深度优化的目标函数为:
其中,
Δz是深度图的拉普拉斯变换,是参数。
然后使用加速深度增强算法对深度进行迭代优化:
①输入初始的深度图,以及球谐系数以及向量化的反照率向量ρ和光照差异值向量β。
②当深度优化目标函数值一直处于减小状态时,循环执行步骤③到⑤。
③更新其中
④更新
⑤更新zk,使得f(zk)更小。
此步骤结束后,再返回单目算法中运行相应的算法步骤,程序将一直执行直至得到结束程序的键盘输入或强制关闭程序的操作。
以上所述之实施例子只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (3)

1.基于相机运动和图像明暗的Kinect深度重建算法,其特征在于,包括以下步骤:
1)在Kinect深度摄像头和RGB摄像头标定对齐的情况下,通过第三方接口将Kinect采集的数据上传到电脑;
2)从RGB视频序列中恢复三维场景结构和kinect RGB相机的运动轨迹,得到点云和相机运动关系;
3)结合步骤2)中获得的点云和相机运动关系,利用图像的明暗情况信息对图像深度进行重建。
2.根据权利要求1所述的基于彩色摄像头与深度摄像头融合的深度重建算法,其特征在于,所述步骤2)包括以下步骤:
2.1)在***初始化的时候读入一张RGB图片并作为关键帧,给关键帧绑定一个深度图,深度图和灰度图有相同的维度,遍历深度图,给每个像素位置赋一个随机值;
2.2)每读取一张RGB图片,都构造如下的代价函数:
E p ( ζ ) = Σ p ∈ Ω D i | | r p 2 ( p , ζ j i ) σ r 2 ( p , ζ j i ) | | δ
其中||·||δ是哈勃算子,rp代表误差,代表误差的方差;
哈勃算子的定义如下:
| | r 2 | | &delta; = r 2 2 &delta; i f | r | < &delta; | r | - &delta; 2 o t h e r w i s e
δ是哈勃算子的参数;
误差函数的定义rp如下:
rp(p,ζji)=Ii(p)-Ij(w(p,Di(p),ζji))
Ii(p)表示当前帧中像素p的位置的灰度值,ζji表示将i坐标下的三维点旋转平移到j坐标下的刚体变换的李代数,Di(p)表示参考帧的深度图中像素p对应的位置的深度值,w(p,Di(p),ζji)表示参考帧i中像素p位置对应的三维点经过旋转平移刚体变换到当前帧中j位置,变换公式如下:
u = X Z f x
v = Y Z f y
其中X,Y,Z分别表示相机坐标系下的三维点在XYZ三个方向上的坐标;u,v表示像素坐标;fx,fy分别表示X,Y方向上焦距;
方差的定义如下:
&sigma; r p 2 ( p , &zeta; j i ) : = 2 &sigma; I 2 + ( &part; r p ( p , &zeta; j i ) &part; D i ( p ) ) 2 V i ( p )
其中表示图片灰度的方差,Vi(p)表示参考帧深度图像素点p的方差;
2.3)用高斯牛顿迭代法求解步骤2.2)中代价函数最小时的ζ,得到参考帧和当前帧之间的旋转平移关系;
2.4)对参考帧灰度图上所有点求梯度,选取其中梯度大于门限的点;接着对这些点进行筛选;遍历所有符合要求的点,根据极线集合搜索这些点在当前帧极线上的对应点;并根据单目视觉三维重建几何知识计算点的空间坐标;
2.5)用卡曼滤波器对新得到的深度值与参考帧深度图中的深度值融合。
3.根据权利要求1所述的基于彩色摄像头与深度摄像头融合的深度重建算法,其特征在于,所述步骤3)包括以下步骤:
3.1)进行当前帧下的深度摄像头采集到的深度图像与单目彩色摄像头采集到的彩色图像的对齐;由于彩色摄像头与深度摄像头之间存在视场范围的差异,所以只有二者视场重叠部分才具有有效的深度值,因此对齐后得到的是不完整的深度图;
3.2)按照深度摄像头中针孔相机的模型,将该不完整的深度图进行三维点云的生成;针孔相机模型简述为:一个空间点的空间坐标[x,y,z]与它在图像中的像素坐标[u,v,d]之间的关系表述为:
z=d/s
x=(u-cx)·z/fx
y=(v-cy)·z/fy
其中,d是深度图中每个像素的深度值,s是深度图的缩放因子,cx与cy是主点的横纵坐标,fx与fy是横坐标方向和纵坐标方向的焦距分量;
利用上述公式对每个像素的像素坐标转换成对应的空间坐标,即可完成深度图到三维点云的转换;
3.3)将单目算法中生成的点云与上述不完整的深度图生成的点云二者使用点对点的迭代最近邻点ICP算法进行配准得到二者之间的旋转矩阵R和平移矩阵T;
3.4)根据上述得到的旋转矩阵和平移矩阵,将单目算法获得的点云转换到不完整的深度图生成的点云的坐标体系下,并将二者拼接成一个大的点云;
3.5)对于深度图中由于视场范围不重叠而形成的深度值无效区域,对每个处于无效区域中的像素,计算其空间位置;若该像素对应的空间点位置正好与大的点云中某点空间位置重合,则直接将该点的z坐标也就是深度值赋予该像素作为其深度值;若该像素对应的空间点并未与点云中的点重合,则计算该空间点与它在大的点云中的相邻点云点的距离之和的平均值,若该值大于某个阈值,则将该值作为该像素值的深度值;
3.6)检测深度图中是否还有未有有效值的像素点;若仍有未有有效值的像素点,则使用联合双边滤波器对深度图进行深度值填补,确保深度图中每个像素点都具有深度值;
3.7)使用关于每个像素点的法线向量为变量的扩展内在图像分解模型函数作为每个像素点的光照模型函数;使用到的扩展内在图像分解模型函数为:
L ( i , j , n &RightArrow; ) = &rho; ( i , j ) S ( n &RightArrow; ) + &beta; ( i , j )
3.8)为图像中的每个像素计算明暗信息;明暗信息函数使用零阶和一阶球谐系数与点云表面法线向量的线性多项式的矩阵形式表示,也就是:
S ( n &RightArrow; ) = m &RightArrow; T n &RightArrow;
首先计算出每个点的法线向量,然后通过最小化明暗函数与真实光照强度间的差值的目标函数,从而求解出明暗函数的参数向量,从而为每个像素点确定了明暗函数值;
3.9)为图像中的每个像素计算反照率;由于明暗信息函数仅仅考虑到远距离光源和环境光源,因此它是对光照的初步预测,因而为了考虑到镜面反射、阴影以及近光源造成的效果,需要为每个像素引入不同的反照率;
构造最小化目标函数为:
min &rho; | | &rho; S ( n &RightArrow; ) - I | | 2 2 + &lambda; &rho; | | &Sigma; k &Element; N &omega; k c &omega; k d ( &rho; - &rho; k ) | | 2 2
其中,ρ是每个像素的反照率,I是每个像素的光照强度,N是全图迭代操作中当正在操作的像素的一个邻域,ρk是该邻域内的像素点,λρ是参数,而且,
&omega; k c = 0 , i f | | I k - I | | 2 2 > &tau; exp ( - | | z k - z ( i , j ) | | 2 2 2 &sigma; d 2 ) , o t h e r w i s e
&omega; k d = exp ( - | | z k - z ( i , j ) | | 2 2 2 &sigma; d 2 )
3.10)类似步骤3.9)中的方法,为图像中的每个像素计算由于局部光照差异所导致的光照差异值;
构造最小化目标函数为:
min &rho; | | &beta; - ( I - &rho; S ( n &RightArrow; ) ) | | 2 2 + &lambda; &beta; 1 | | &Sigma; k &Element; N &omega; k c &omega; k d ( &beta; - &beta; k ) | | 2 2 + &lambda; &beta; 2 | | &beta; | | 2 2
其中,β是每个像素点的光照差异值,βk是全图迭代操作中当正在操作的像素的一个邻域内的像素点;是参数;
3.11)构造明暗模型与实际测量到的光照强度之间的目标函数,并使用改进的深度增强加速算法对该目标函数进行最小化,从而得到优化后的深度图;
首先将每个像素对应的点云上的点的法线表示成深度图的梯度形式,即:
n &RightArrow; = ( z x , z y , - 1 ) 1 + | | &dtri; z | | 2
其中,
是深度图的梯度;
然后建立深度优化的目标函数为:
f ( z ) = | | L ( &dtri; z - I ) | | 2 2 + &lambda; z 1 | | ( z - z 0 ) | | 2 2 + &lambda; z 2 | | &Delta; z | | 2 2
其中,
Δz是深度图的拉普拉斯变换;是参数;
然后使用加速深度增强算法对深度进行迭代优化,如下:
①输入初始的深度图,以及球谐系数以及向量化的反照率向量ρ和光照差异值向量β;
②当深度优化目标函数值一直处于减小状态时,循环执行步骤③到⑤;
③更新其中
n &RightArrow; k = &omega; k ( z x k , z y k , - 1 ) T ,
&omega; k = ( 1 + | | &dtri; z k - 1 | | 2 ) - 1 2
④更新
⑤更新zk,使得f(zk)更小;
此步骤结束后,再返回单目算法中运行相应的算法步骤,程序将一直执行直至得到结束程序的键盘输入或强制关闭程序的操作。
CN201611061364.6A 2016-06-30 2016-11-28 基于相机运动和图像明暗的Kinect深度重建方法 Active CN106780592B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610511543 2016-06-30
CN2016105115439 2016-06-30

Publications (2)

Publication Number Publication Date
CN106780592A true CN106780592A (zh) 2017-05-31
CN106780592B CN106780592B (zh) 2020-05-22

Family

ID=58910978

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611061364.6A Active CN106780592B (zh) 2016-06-30 2016-11-28 基于相机运动和图像明暗的Kinect深度重建方法

Country Status (1)

Country Link
CN (1) CN106780592B (zh)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169475A (zh) * 2017-06-19 2017-09-15 电子科技大学 一种基于kinect相机的人脸三维点云优化处理方法
CN107845134A (zh) * 2017-11-10 2018-03-27 浙江大学 一种基于彩色深度相机的单个物体的三维重建方法
CN108053445A (zh) * 2017-12-08 2018-05-18 中南大学 特征融合的rgb-d相机运动估计方法
CN108151728A (zh) * 2017-12-06 2018-06-12 华南理工大学 一种用于双目slam的半稠密认知地图创建方法
CN108230381A (zh) * 2018-01-17 2018-06-29 华中科技大学 一种结合空间传播和像素级优化的多视图立体视觉方法
CN108335325A (zh) * 2018-01-30 2018-07-27 上海数迹智能科技有限公司 一种基于深度相机数据的立方体快速测量方法
CN108447060A (zh) * 2018-01-29 2018-08-24 上海数迹智能科技有限公司 基于rgb-d图像的前后景分离方法及其前后景分离装置
CN108470323A (zh) * 2018-03-13 2018-08-31 京东方科技集团股份有限公司 一种图像拼接方法、计算机设备及显示装置
CN108830925A (zh) * 2018-05-08 2018-11-16 中德(珠海)人工智能研究院有限公司 一种基于球幕视频流的三维数字化建模方法
CN109255819A (zh) * 2018-08-14 2019-01-22 清华大学 基于平面镜的Kinect标定方法及装置
CN109579731A (zh) * 2018-11-28 2019-04-05 华中科技大学 一种基于图像融合来执行三维表面形貌测量的方法
CN109657580A (zh) * 2018-12-07 2019-04-19 南京高美吉交通科技有限公司 一种城市轨道交通闸机通行控制方法
CN109708636A (zh) * 2017-10-26 2019-05-03 广州极飞科技有限公司 导航图配置方法、避障方法以及装置、终端、无人飞行器
CN109727282A (zh) * 2018-12-27 2019-05-07 南京埃克里得视觉技术有限公司 一种三维图像的尺度不变深度图映射方法
CN109872355A (zh) * 2019-01-25 2019-06-11 哈工大机器人(合肥)国际创新研究院 一种基于深度相机的最短距离获取方法及装置
CN109949397A (zh) * 2019-03-29 2019-06-28 哈尔滨理工大学 一种结合激光点和均值漂移的深度图重建方法
CN110455815A (zh) * 2019-09-05 2019-11-15 西安多维机器视觉检测技术有限公司 一种电子元器件外观缺陷检测的方法及***
CN110490922A (zh) * 2019-06-11 2019-11-22 牧今科技 基于第二图像更新第一图像的方法和处理***
CN111223053A (zh) * 2019-11-18 2020-06-02 北京邮电大学 基于深度图像的数据增强方法
CN111344746A (zh) * 2017-11-22 2020-06-26 华为技术有限公司 一种利用可重构混合成像***的动态场景的三维3d重建方法
CN111402392A (zh) * 2020-01-06 2020-07-10 香港光云科技有限公司 光照模型计算方法、材质参数的处理方法及其处理装置
CN111400869A (zh) * 2020-02-25 2020-07-10 华南理工大学 一种堆芯中子通量时空演变预测方法、装置、介质及设备
CN113085896A (zh) * 2021-04-19 2021-07-09 暨南大学 一种现代有轨清洁车辅助自动驾驶***及方法
CN114067206A (zh) * 2021-11-16 2022-02-18 哈尔滨理工大学 一种基于深度图像的球形果实识别定位方法
CN114612534A (zh) * 2022-03-17 2022-06-10 南京航空航天大学 一种基于球谐特征的多视飞机整机点云配准方法
CN115049813A (zh) * 2022-08-17 2022-09-13 南京航空航天大学 一种基于一阶球谐的粗配准方法、装置及***
CN115375827A (zh) * 2022-07-21 2022-11-22 荣耀终端有限公司 光照估计方法及电子设备
CN116758170A (zh) * 2023-08-15 2023-09-15 北京市农林科学院智能装备技术研究中心 用于畜禽表型3d重建的多相机快速标定方法及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400409A (zh) * 2013-08-27 2013-11-20 华中师范大学 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400409A (zh) * 2013-08-27 2013-11-20 华中师范大学 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHUNMEI QING等: "《2015 IEEE International Conference on Digital Signal Processing (DSP)》", 24 July 2015 *
李务军等: ""基于Kinect深度图像的三维重建"", 《微型机与应用》 *

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169475A (zh) * 2017-06-19 2017-09-15 电子科技大学 一种基于kinect相机的人脸三维点云优化处理方法
CN107169475B (zh) * 2017-06-19 2019-11-19 电子科技大学 一种基于kinect相机的人脸三维点云优化处理方法
CN109708636A (zh) * 2017-10-26 2019-05-03 广州极飞科技有限公司 导航图配置方法、避障方法以及装置、终端、无人飞行器
CN107845134A (zh) * 2017-11-10 2018-03-27 浙江大学 一种基于彩色深度相机的单个物体的三维重建方法
CN107845134B (zh) * 2017-11-10 2020-12-29 浙江大学 一种基于彩色深度相机的单个物体的三维重建方法
CN111344746A (zh) * 2017-11-22 2020-06-26 华为技术有限公司 一种利用可重构混合成像***的动态场景的三维3d重建方法
CN108151728A (zh) * 2017-12-06 2018-06-12 华南理工大学 一种用于双目slam的半稠密认知地图创建方法
CN108053445A (zh) * 2017-12-08 2018-05-18 中南大学 特征融合的rgb-d相机运动估计方法
CN108230381A (zh) * 2018-01-17 2018-06-29 华中科技大学 一种结合空间传播和像素级优化的多视图立体视觉方法
CN108230381B (zh) * 2018-01-17 2020-05-19 华中科技大学 一种结合空间传播和像素级优化的多视图立体视觉方法
CN108447060B (zh) * 2018-01-29 2021-07-09 上海数迹智能科技有限公司 基于rgb-d图像的前后景分离方法及其前后景分离装置
CN108447060A (zh) * 2018-01-29 2018-08-24 上海数迹智能科技有限公司 基于rgb-d图像的前后景分离方法及其前后景分离装置
CN108335325A (zh) * 2018-01-30 2018-07-27 上海数迹智能科技有限公司 一种基于深度相机数据的立方体快速测量方法
US11308579B2 (en) 2018-03-13 2022-04-19 Boe Technology Group Co., Ltd. Image stitching method, image stitching apparatus, display apparatus, and computer product
CN108470323A (zh) * 2018-03-13 2018-08-31 京东方科技集团股份有限公司 一种图像拼接方法、计算机设备及显示装置
CN108830925A (zh) * 2018-05-08 2018-11-16 中德(珠海)人工智能研究院有限公司 一种基于球幕视频流的三维数字化建模方法
CN109255819A (zh) * 2018-08-14 2019-01-22 清华大学 基于平面镜的Kinect标定方法及装置
CN109255819B (zh) * 2018-08-14 2020-10-13 清华大学 基于平面镜的Kinect标定方法及装置
CN109579731A (zh) * 2018-11-28 2019-04-05 华中科技大学 一种基于图像融合来执行三维表面形貌测量的方法
CN109657580B (zh) * 2018-12-07 2023-06-16 南京高美吉交通科技有限公司 一种城市轨道交通闸机通行控制方法
CN109657580A (zh) * 2018-12-07 2019-04-19 南京高美吉交通科技有限公司 一种城市轨道交通闸机通行控制方法
WO2020133888A1 (zh) * 2018-12-27 2020-07-02 南京埃克里得视觉技术有限公司 一种三维图像的尺度不变深度图映射方法
CN109727282A (zh) * 2018-12-27 2019-05-07 南京埃克里得视觉技术有限公司 一种三维图像的尺度不变深度图映射方法
CN109872355A (zh) * 2019-01-25 2019-06-11 哈工大机器人(合肥)国际创新研究院 一种基于深度相机的最短距离获取方法及装置
CN109872355B (zh) * 2019-01-25 2022-12-02 合肥哈工仞极智能科技有限公司 一种基于深度相机的最短距离获取方法及装置
CN109949397A (zh) * 2019-03-29 2019-06-28 哈尔滨理工大学 一种结合激光点和均值漂移的深度图重建方法
CN110490922A (zh) * 2019-06-11 2019-11-22 牧今科技 基于第二图像更新第一图像的方法和处理***
US11688089B2 (en) 2019-06-11 2023-06-27 Mujin, Inc. Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera
CN110455815A (zh) * 2019-09-05 2019-11-15 西安多维机器视觉检测技术有限公司 一种电子元器件外观缺陷检测的方法及***
CN111223053A (zh) * 2019-11-18 2020-06-02 北京邮电大学 基于深度图像的数据增强方法
CN111402392A (zh) * 2020-01-06 2020-07-10 香港光云科技有限公司 光照模型计算方法、材质参数的处理方法及其处理装置
CN111400869B (zh) * 2020-02-25 2022-07-26 华南理工大学 一种堆芯中子通量时空演变预测方法、装置、介质及设备
CN111400869A (zh) * 2020-02-25 2020-07-10 华南理工大学 一种堆芯中子通量时空演变预测方法、装置、介质及设备
CN113085896A (zh) * 2021-04-19 2021-07-09 暨南大学 一种现代有轨清洁车辅助自动驾驶***及方法
CN114067206A (zh) * 2021-11-16 2022-02-18 哈尔滨理工大学 一种基于深度图像的球形果实识别定位方法
CN114067206B (zh) * 2021-11-16 2024-04-26 哈尔滨理工大学 一种基于深度图像的球形果实识别定位方法
CN114612534A (zh) * 2022-03-17 2022-06-10 南京航空航天大学 一种基于球谐特征的多视飞机整机点云配准方法
CN115375827A (zh) * 2022-07-21 2022-11-22 荣耀终端有限公司 光照估计方法及电子设备
CN115375827B (zh) * 2022-07-21 2023-09-15 荣耀终端有限公司 光照估计方法及电子设备
CN115049813A (zh) * 2022-08-17 2022-09-13 南京航空航天大学 一种基于一阶球谐的粗配准方法、装置及***
CN115049813B (zh) * 2022-08-17 2022-11-01 南京航空航天大学 一种基于一阶球谐的粗配准方法、装置及***
CN116758170A (zh) * 2023-08-15 2023-09-15 北京市农林科学院智能装备技术研究中心 用于畜禽表型3d重建的多相机快速标定方法及存储介质
CN116758170B (zh) * 2023-08-15 2023-12-22 北京市农林科学院智能装备技术研究中心 用于畜禽表型3d重建的多相机快速标定方法及存储介质

Also Published As

Publication number Publication date
CN106780592B (zh) 2020-05-22

Similar Documents

Publication Publication Date Title
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN111968129B (zh) 具有语义感知的即时定位与地图构建***及方法
CN109003325B (zh) 一种三维重建的方法、介质、装置和计算设备
Zhu et al. RGB-D local implicit function for depth completion of transparent objects
CN103106688B (zh) 基于双层配准方法的室内三维场景重建方法
CN114782691A (zh) 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备
CN108256504A (zh) 一种基于深度学习的三维动态手势识别方法
CN109815847B (zh) 一种基于语义约束的视觉slam方法
CN113012293A (zh) 石刻模型构建方法、装置、设备及存储介质
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
Tu et al. Consistent 3d hand reconstruction in video via self-supervised learning
CN103826032A (zh) 深度图后期处理方法
CN111524233A (zh) 一种静态场景动态目标的三维重建方法
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
CN113313828A (zh) 基于单图片本征图像分解的三维重建方法与***
CN111797692A (zh) 一种基于半监督学习的深度图像手势估计方法
CN117315169A (zh) 基于深度学习多视密集匹配的实景三维模型重建方法和***
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计***
Cui et al. Dense depth-map estimation based on fusion of event camera and sparse LiDAR
Jia et al. Depth measurement based on a convolutional neural network and structured light
CN104463962A (zh) 基于gps信息视频的三维场景重建方法
CN107944350A (zh) 一种基于外观和几何信息融合的单目视觉道路识别算法
Tseng et al. Semi-supervised image depth prediction with deep learning and binocular algorithms
CN117218192A (zh) 一种基于深度学习与合成数据的弱纹理物***姿估计方法
Li et al. Monocular 3-D Object Detection Based on Depth-Guided Local Convolution for Smart Payment in D2D Systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant