CN106997605A - 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法 - Google Patents

一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法 Download PDF

Info

Publication number
CN106997605A
CN106997605A CN201710173548.XA CN201710173548A CN106997605A CN 106997605 A CN106997605 A CN 106997605A CN 201710173548 A CN201710173548 A CN 201710173548A CN 106997605 A CN106997605 A CN 106997605A
Authority
CN
China
Prior art keywords
foot type
model
point
video
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710173548.XA
Other languages
English (en)
Other versions
CN106997605B (zh
Inventor
耿卫东
黄倩妮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201710173548.XA priority Critical patent/CN106997605B/zh
Publication of CN106997605A publication Critical patent/CN106997605A/zh
Application granted granted Critical
Publication of CN106997605B publication Critical patent/CN106997605B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法。用带IMU传感器的智能手机绕着裸脚拍摄360度获取脚型视频和对应的IMU数据,通过建立因子图,把摄像机姿态、三维点云坐标、IMU数据、视频轮廓等已有的各种数据做为因子,通过定义各个因子之间的约束误差方程并进行求解而得到摄像机参数,引入参考模型进行脚型重建。充分利用参考模型的点云分布、法向量、表面曲率等信息引导重建脚型的形变,使之在不偏离重建点云的情况下,尽量接近真实脚型,减小噪声点的干扰,从而实现一个方便地得到对应的脚型三维网格模型的过程。既降低了脚型数据的获取成本,又不失参数计算的精确性和鲁棒性。

Description

一种通过智能手机采集脚型视频和传感器数据获取三维脚型 的方法
技术领域
本发明涉及一种三维重建方法,尤其涉及一种基于带摄像机和传感器的智能手机通过采集脚型RGB视频和传感器数据并结合数据库中的参考脚型模型进行三维脚型数据获取的方法。
背景技术
近两年对结合传感器和三维重建算法的研究越来越多,产生了大量高质量的三维重建算法,迅速提升了基于移动终端的三维重建技术。对三维重建算法进行总结,可以将基于移动终端的三维重建算法大致分为如下几类:基于深度图融合的三维重建、基于IMU和视觉融合的三维重建、基于光照条件和激光扫描等其它传感器的三维重建。
基于深度图融合的三维重建,由深度传感器记录拍摄场景的深度信息,然后根据SFM算法或其它算法计算摄像机参数,并用该摄像机参数恢复三维空间坐标点并反投影到视频上,最小化反投影误差,如主要研究深度图的融合过程,即利用高斯模型或其它数据模型对同时摄像机参数和三维点云进行约束,过滤掉偏差较大的值。另一种算法是由建立体素,根据各个角度的深度图及摄像机参数计算当前位置的深度并进行融合,最后形成目标物体的体积网格。但这种方法运行时需要占用大量的内存,计算速度慢,不利用在线实时重建。
基于IMU和视觉融合的三维重建,比较成熟的算法中,主要考虑到视觉三维重建算法对纹理要求高的缺点,利用IMU单元的陀螺仪和加速计记录移动设备的朝向和加速度,并假设噪声服从高斯分布,借助Kalman滤波对IMU数据进行预测,得到视频对应的摄像机参数,并融入到视觉算法中,由计算的三维坐标点和二维特征点之间、两幅视频的二维特征点之间的约束关***一优化摄像机参数。在此基础上,Adrian等人加入了闭环检测优化姿态跟踪,即假设移动设备在拍摄过程中的移动成环形封闭,利用最后一帧视频和初始帧视频部分重叠的性质进一步约束摄像机参数以提高其精确度。
基于光照条件和激光扫描等其它传感器的三维重建,借助高级设备如激光传感器对目标重建物体进行扫描融合得到对应的三维模型。除此之外还有利用光源信息进行重建的算法,即利用光源传感器对目标重建物体从不同角度拍摄,或从同一角度用不同的光照拍摄,在光源信息已知的情况下通过拍摄视频RGB值及光源方向、物体表面法向量等的代数约束重建目标物体。此类方法尽管能够达到比较高的重建精度,但由于数据采集费用大,操作麻烦,不适用于一般性的重建中。
针对于脚型重建的科学研究则比较少。更多的是在医学研究上,用CT(ComputedTomography)电子计算机断层扫描视频对脚型进行三维重建以观察脚内部的病变情况,如用Laplacian表面形变框架对由CT视频重建出来的模型进行形变,但需要用户手工输入各项参数,而且仅限于医学研究领域,昂贵的CT拍摄设备及对用户的相关专业知识的高要求都使得基于CT视频的三维重建技术无法应用到普通用户的生活中。相对于室外场景,脚型的大小要求重建的误差足够小,因此很多室外场景的三维重建技术甚至室内的三维重建算法都因误差较大不适用于脚型重建。小误差的重建技术中激光扫描的重建效果最好,如结合轮廓、激光和视觉技术对脚型进行测量,得到的脚型参数误差可以达到5mm以内,或是对一系列利用结构光进行激光扫描重建三维脚型的技术进行对比,给出了利用激光扫描所能达到的精度范围。但激光扫描设备的昂贵也使得基于激光的重建技术无法普及。考虑到脚型模型在行走时与静止时的差异,给出了在行走状态下对脚型各项参数的测试方法,同样需要固定的大型设备。
在不需要大型昂贵设备的条件下,视觉重建算法占主导地位。如采用深度摄像机捆绑在移动小车上绕脚型拍摄大半圈进行脚型重建,拍摄过程中脚边放有标定板。深度相机虽然比激光设备便宜,却也并不是家庭常用设备。随着机器学习的发展与广泛应用,有越来越多的学者把三维重建研究技术和机器学习结合越来,最近的研究在通过脚型轮廓剔除外点后,利用GNG神经网络进行训练和学习,检测脚型模型中的标记得到网格图的参数,从而进行脚型重建。但网络学习需要大量的训练数据,数据收集和整理工作量巨大,重建结果依赖于数据和训练,相比于视觉和IMU融合的重建在误差精度上并没有太大的优势。
发明内容
本发明的目的在于针对现有技术的不足,提供一种基于带摄像机和传感器的智能手机通过采集脚型RGB视频和传感器数据并结合数据库中的参考脚型模型进行三维脚型数据获取的方法。
本发明的目的是通过以下技术方案来实现的:一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,该方法包括以下步骤:
(1)利用智能手机围绕裸脚旋转一圈采集脚型视频和传感器数据,将视频分解成视频帧,并取部分帧作脚型区域分割等预处理,同时对脚型数据库中的参考脚型模型求法向量等参数;
(2)根据多视角立体几何的约束关系,检测视频帧中的特征点并进行匹配,计算摄像机内外参数,恢复特征点对应的三维点云坐标;
(3)加入IMU数据,对步骤2得到的摄像机参数和三维点云坐标进行修正,包括修复多视角算法失败无法求得摄像机参数的情况和移动三维点云坐标以减小三维坐标计算误差;
(4)从已有的脚型数据库中选择相似的参考脚型模型,对齐重建脚型模型和参考脚型模型,并对重建脚型模型进行去噪、光滑、表面重建处理;
(5)根据重建脚型模型和参考脚型模型之间的局部和整体对齐关系,对参考脚型模型进行形变使其拟合重建脚型模型,输出最终的重建脚型模型结果。
进一步地,所述步骤1具体包括以下子步骤:
(1.1)用带有陀螺仪和加速计的智能手机绕脚360度拍摄视频一圈回到原点,拍摄时在脚底放置一张A4纸,拍摄过程中记录陀螺仪和加速计的数值。拍摄场景中的物体尺寸与真实尺寸之间的比例以A4纸作为参考。
(1.2)将采集到的视频分解成视频帧,从视频帧中等间隔地选择部分帧进行分割前背景区域,得到视频帧对应的关于脚型区域的mask视频。通过检测视频帧中A4纸的角点和边获取A4纸区域,根据RGB像素值分割A4纸及在A4纸区域内的部分脚型区域。同时,对整幅视频帧进行边缘检测,得到包括脚型边缘在内的视频帧边缘视频。然后由A4纸区域内的脚型区域向外搜索填充,最终得到初步估计的脚型区域及非脚型区域。建立GMM模型,通过k-mean算法分别对脚型区域像素和非脚型区域像素进行聚类,得到GMM模型中每个高斯模型的像素样本集,然后根据RGB值计算每个高斯模型的参数均值和协方差,每个高斯模型的权值定义为属于该高斯模型的像素个数与总像素个数的比值。对每个像素分配GMM模型中的高斯模型,以给定的脚型区域和非脚型区域为参考学习优化GMM模型,迭代分割,最终得到对应视频帧的脚型轮廓视频。
(1.3)用Kalibr工具箱对IMU进行标定,求出IMU到摄像机的旋转矩阵,利用该旋转矩阵变换摄像机坐标系和IMU坐标系。对于参考脚型模型,顶点vi的法向量由该顶点和周围k个邻近点共同确定。记顶点vi的第j个邻近点为(j∈1,…,k)。模型中心点为c,则法向量同时满足:
其中Face{vi}为包含点vi的面片,几何意义为顶点vi的法向量由以该点为顶点的面片的法向量的权重和,方向为由中心点指向顶点外侧。最终得到每个顶点和每个面片的法向量。
进一步地,所述步骤2具体为:对每帧视频帧进行Brief和Freak特征点检测和提取,对视频帧两两进行特征匹配,计算单应矩阵,并按纯视觉方法计算基本矩阵、本质矩阵,对本质矩阵进行SVD分解求得初始的摄像机姿态参数,同时恢复特征点对应的三维点云坐标。
进一步地,所述步骤3具体包括以下子步骤:
(3.1)对IMU数据做如下预处理。由于传感器频率和摄像机频率不一致,假设IMU数据和摄像机在从时间ti到tj的间隔时间Δt里同步,状态参数xi=[Ri,pi,vi,bi]记录了IMU数据的旋转Ri、位置pi、速度vi和传感器漂移偏差bi,而传感器漂移偏差bi又包括速度加速计和重力加速计的偏差。则视频帧对应的状态参数为IMU状态参数的子集。设白噪声θ=[θgdad],θgd和θad分别为重力加速计和速度加速计的噪声,角速度ωi,加速度ai,则有:
状态参数求导后仍然为偏差b的函数,则可以采用分两步进行优化的方法,第一步假设b已知,对状态参数求梯度最优化,第二步中考虑到传感器移动时b有变化,为减少计算,当b变成b+Δb时,梯度值只需要在原来的基础上增加由b变化带来的差值Δb即可。最后计算残差,得到IMU数据下的摄像机姿态。
(3.2)结合IMU数据和视觉数据建立因子图。其中因子节点包括由视觉方法计算得到的摄像机姿态xi′,恢复的脚型三维点云坐标li、IMU状态参数xi,偏差ci等。记第k时刻IMU测量值为则因子图中各个约束可以表示为:IMU因子:
偏差因子:
fbias(ck+1,ck)=d(ck+1-g(ck))
先概率因子:
视觉投影因子
fProj(x,l)=d(z-π(x,l))
其中z表示真实的视频投影坐标,V为所有顶点的集合,π为投影函数。
立体视觉因子:
fStereo(x,l)=d(zRR(x,l))d(zLL(x,l))
其中L和R分别对应左、右摄像头。
闭环检测因子:
fClose=sig(sij)*f(xi,uij)-xj
其中sig()为sigmoid函数,sij记录传感器运动方向(正向、逆向),uij记录摄像机运动方向(正向、逆向),而f(xi,uij)为运动约束模型,可以看成是fIMU
(3.3)把因子图中因子函数分解成一般形式并进行优化,得到优化后的各个因子的值。
进一步地,所述步骤4具体包括以下子步骤:
(4.1)根据轮廓约束从重建出的三维脚型点云中提取出脚型的三维点云数据,并补脚底点集,得到完整的脚型点云模型。
(4.2)从已有的脚型数据库中选择与重建脚型相似的脚型参考模型,先以坐标轴和包围盒为参考对重建模型和参考模型进行初步对齐,然后去掉增加的脚底点云及脚踝以上的点避免干扰,只保留重建点云模型中脚面上的点集,利用ICP算法进一步与参考模型对齐,最后重新加上脚底点云,并增加手工调整,确保重建脚型模型与参考脚型模型对齐。
(4.3)对重建脚型模型进行去噪和光滑处理,包括剔除重建脚型模型和参考脚型模型之间对应点对距离大于阈值的点,以及等密度去掉部分重建脚型点云。
(4.4)重建脚型模型的法向量计算和表面重建。先用邻近点计算法向量的初值,然后对点云中的点进行可见性判断,并根据输入点的八叉树选取空间中包含点云的单位立方体,对每个立方体中的点云,选取以目标点为圆心,半径hi范围内的点进行平面拟合:
其中为单位法向量,x为范围内的邻近点,D为给定的范围阈值。最后以立方体中的点组成圈,判断每个面片的法向量夹角是否小于π/2,剔除大于该角度的面片,进行表面重建。
进一步地,所述步骤5具体包括以下子步骤:
(5.1)在参考脚型模型选择的区域中任意选定曲率线L,在L上取样本点:
Ls={(li,ti),i=1,…,numOfSample}
其中li,ti分别表示该像素点的二维视频坐标和切线向量,numOfSample为样本点数。然后把这些样本点映射到参考脚型的曲面上得到:
其中li′,ti′分别表示该投影点的三维空间坐标及沿L方向上的切线平面,而表示该样本点的法向量。把这些信息向曲面周围延伸,记x为该样本点的邻近点,即在与法向量和切平面都垂直的方向上移动一小步Δ={Δx,Δy},定义一个新网格点表示原来的点移动Δ后所在的点。在曲率线的两边,即沿bi和-bi方向都进行这样的操作,直到生成一系列网格点覆盖选择区域,对这些网格点进行插值直到选择的视频区域中每个像素点h=(i,j)都对应一个三维网格节点。然后建立目标能量函数,计算并输出深度映射值集合Z={zh},对目标能量函数运用梯度下降法输出区域的深度映射视频,在重建模型上选择对应的区域根据曲率进行修复。目标能量函数共包括四项,为:
第一项表示曲面光滑程度,其中zxx(i,j)表示在像素点h=(i,j)沿x方向的深度,同理,zxy(i,j)和zyy(i,j)分别为沿xy斜线方向和y方向的深度。
第二项F(zh)满足x|f(x)=0,表示模型曲面是函数F的零集。
第三项R(zh)为同一像素在两幅不同的视频帧中的深度差的平方值,保证在重叠区域两个深度映射值的一致性。
第四项C(zh)=∑i,j(UTHU)2为曲率线的变化,其中H为zh的Hessian矩阵,U为曲率线上的点投影到两帧视频帧上对应的像素。
(5.2)对重建脚型模型进行整体变换操作。最终要求的目标模型S‘可以表示为由参考脚型模型S*和重建脚型模型S中的点在变换θ和移动δ={di}的作用下得到的。即S‘=T(S*,S)+d。考虑点集的GMM概率密度函数:
gmm(S)=∑p(x)=1/(2πσ2)exp(-||x-μ||/(2σ2))
p(x)为邻近点x的概率,μ为均值,σ为方差。
代价函数设为两个模型之间的L2距离
dL2=(gmm(S*)-gmm(T(S,θ)))2
其中T为对点云进行变形操作,利用梯度下降法最小化目标函数得到模型间的形变系数θ。
(5.3)对重建脚型模型进行局部调整。定义形变目标函数和几何体目标函数Ω(S*,S)分别为:
其中tj为点pj的移动向量,N(j)为点pj的邻域,ejk为连接的边,Ajk为包含j和k两点的面片的面积,Aj为只包含点j的面片的面积。整体目标函数定义为通过对模型中点的拉伸移动改变模型。为保证整个模型的光滑度,考虑光滑目标模型S‘=T(S*,S,θ)+d,两点集间每对对应点之间的移动di可以通过最小化光滑目标函数求得。光滑目标函数Esmooth如下:
其中权重系数ε由模型数据集确定,N为对应模型上点的邻域。最后,计算点云的PCA模型矩阵M,m是参数向量,定义形变代价函数:
其中θ和t分别为旋转和平移参数,s为缩放因子,R为旋转矩阵。对用户选择的每部分区域进行形变,最终得到调整后的重建脚型模型。
本发明的有益效果是:本发明用带IMU传感器的智能手机绕着裸脚拍摄360度获取脚型视频和对应的IMU数据,通过建立因子图,把摄像机姿态、三维点云坐标、IMU数据、视频轮廓等已有的各种数据做为因子,通过定义各个因子之间的约束误差方程并进行求解而得到摄像机参数,引入参考模型进行脚型重建。充分利用参考模型的点云分布、法向量、表面曲率等信息引导重建脚型的形变,使之在不偏离重建点云的情况下,尽量接近真实脚型,减小噪声点的干扰,从而实现一个方便地得到对应的脚型三维网格模型的过程。本发明方法使得在三维脚型重建过程中,当视觉重建算法因为特征点过少或其它原因失败时,能够用传感器预测的摄像机姿态进行修正,增强了重建的鲁棒性,同时结合参考脚型模型和传感器、脚型三维点、视频特征点等各项数据相互约束,能够有效地减小重建误差。实现了一个自动脚型模型生成***,能够低成本地重建出脚型三维模型并计算脚型的各项测量参数,解决了远程定制鞋子脚型参数测量的不便性。
附图说明
图1是本发明方法的总体流程图;
图2(a)是输入的原始视频数据;
图2(b)是输入的参考模型样例;
图3是步骤3)中所构建的因子图;
图4是所求得的最终脚型模型。
具体实施方式
下面结合附图和具体实施例对本发明作进一步相信说明。
本发明提供的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,该方法包括以下步骤:
(1)利用智能手机围绕裸脚旋转一圈采集脚型视频和传感器数据,将视频分解成视频帧,并取部分帧作脚型区域分割等预处理,同时对脚型数据库中的参考脚型模型求法向量等参数;
(2)根据多视角立体几何的约束关系,检测视频帧中的特征点并进行匹配,计算摄像机内外参数,恢复特征点对应的三维点云坐标;
(3)加入IMU数据,对步骤2得到的摄像机参数和三维点云坐标进行修正,包括修复多视角算法失败无法求得摄像机参数的情况和移动三维点云坐标以减小三维坐标计算误差;
(4)从已有的脚型数据库中选择相似的参考脚型模型,对齐重建脚型模型和参考脚型模型,并对重建脚型模型进行去噪、光滑、表面重建处理;
(5)根据重建脚型模型和参考脚型模型之间的局部和整体对齐关系,对参考脚型模型进行形变使其拟合重建脚型模型,输出最终的重建脚型模型结果。
进一步地,所述步骤1具体包括以下子步骤:
(1.1)用带有陀螺仪和加速计的智能手机绕脚360度拍摄视频一圈回到原点,拍摄时在脚底放置一张A4纸,拍摄过程中记录陀螺仪和加速计的数值。拍摄场景中的物体尺寸与真实尺寸之间的比例以A4纸作为参考。
(1.2)将采集到的视频分解成视频帧,从视频帧中等间隔地选择部分帧进行分割前背景区域,得到视频帧对应的关于脚型区域的mask视频。通过检测视频帧中A4纸的角点和边获取A4纸区域,根据RGB像素值分割A4纸及在A4纸区域内的部分脚型区域。同时,对整幅视频帧进行边缘检测,得到包括脚型边缘在内的视频帧边缘视频。然后由A4纸区域内的脚型区域向外搜索填充,最终得到初步估计的脚型区域及非脚型区域。建立GMM模型,通过k-mean算法分别对脚型区域像素和非脚型区域像素进行聚类,得到GMM模型中每个高斯模型的像素样本集,然后根据RGB值计算每个高斯模型的参数均值和协方差,每个高斯模型的权值定义为属于该高斯模型的像素个数与总像素个数的比值。对每个像素分配GMM模型中的高斯模型,以给定的脚型区域和非脚型区域为参考学习优化GMM模型,迭代分割,最终得到对应视频帧的脚型轮廓视频。
(1.3)用Kalibr工具箱对IMU进行标定,求出IMU到摄像机的旋转矩阵,利用该旋转矩阵变换摄像机坐标系和IMU坐标系。对于参考脚型模型,顶点vi的法向量由该顶点和周围k个邻近点共同确定。记顶点vi的第j个邻近点为(j∈1,…,k)。模型中心点为c,则法向量同时满足:
其中Face{vi}为包含点vi的面片,几何意义为顶点vi的法向量由以该点为顶点的面片的法向量的权重和,方向为由中心点指向顶点外侧。最终得到每个顶点和每个面片的法向量。
进一步地,所述步骤2具体为:对每帧视频帧进行Brief和Freak特征点检测和提取,对视频帧两两进行特征匹配,计算单应矩阵,并按纯视觉方法计算基本矩阵、本质矩阵,对本质矩阵进行SVD分解求得初始的摄像机姿态参数,同时恢复特征点对应的三维点云坐标。
进一步地,所述步骤3具体包括以下子步骤:
(3.1)对IMU数据做如下预处理。由于传感器频率和摄像机频率不一致,假设IMU数据和摄像机在从时间ti到tj的间隔时间Δt里同步,状态参数xi=[Ri,pi,vi,bi]记录了IMU数据的旋转Ri、位置pi、速度vi和传感器漂移偏差bi,而传感器漂移偏差bi又包括速度加速计和重力加速计的偏差。则视频帧对应的状态参数为IMU状态参数的子集。设白噪声θ=[θgdad],θgd和θad分别为重力加速计和速度加速计的噪声,角速度ωi,加速度ai,则有:
状态参数求导后仍然为偏差b的函数,则可以采用分两步进行优化的方法,第一步假设b已知,对状态参数求梯度最优化,第二步中考虑到传感器移动时b有变化,为减少计算,当b变成b+Δb时,梯度值只需要在原来的基础上增加由b变化带来的差值Δb即可。最后计算残差,得到IMU数据下的摄像机姿态。
(3.2)结合IMU数据和视觉数据建立因子图。其中因子节点包括由视觉方法计算得到的摄像机姿态xi′,恢复的脚型三维点云坐标li、IMU状态参数xi,偏差ci等。记第k时刻IMU测量值为则因子图中各个约束可以表示为:
IMU因子:
偏差因子:
fbias(ck+1,ck)=d(ck+1-g(ck))
先概率因子:
视觉投影因子:
fProj(x,l)=d(z-π(x,l))
其中z表示真实的视频投影坐标,V为所有顶点的集合,π为投影函数。
立体视觉因子:
fStereo(x,l)=d(zRR(x,l))d(zLL(x,l))
其中L和R分别对应左、右摄像头。
闭环检测因子:
fClose=sig(sij)*f(xi,uij)-xj
其中sig()为sigmoid函数,sij记录传感器运动方向(正向、逆向),uij记录摄像机运动方向(正向、逆向),而f(xi,uij)为运动约束模型,可以看成是fIMU
(3.3)把因子图中因子函数分解成一般形式并进行优化,得到优化后的各个因子的值。
进一步地,所述步骤4具体包括以下子步骤:
(4.1)根据轮廓约束从重建出的三维脚型点云中提取出脚型的三维点云数据,并补脚底点集,得到完整的脚型点云模型。
(4.2)从已有的脚型数据库中选择与重建脚型相似的脚型参考模型,先以坐标轴和包围盒为参考对重建模型和参考模型进行初步对齐,然后去掉增加的脚底点云及脚踝以上的点避免干扰,只保留重建点云模型中脚面上的点集,利用ICP算法进一步与参考模型对齐,最后重新加上脚底点云,并增加手工调整,确保重建脚型模型与参考脚型模型对齐。
(4.3)对重建脚型模型进行去噪和光滑处理,包括剔除重建脚型模型和参考脚型模型之间对应点对距离大于阈值的点,以及等密度去掉部分重建脚型点云。
(4.4)重建脚型模型的法向量计算和表面重建。先用邻近点计算法向量的初值,然后对点云中的点进行可见性判断,并根据输入点的八叉树选取空间中包含点云的单位立方体,对每个立方体中的点云,选取以目标点为圆心,半径hi范围内的点进行平面拟合:
其中为单位法向量,x为范围内的邻近点,D为给定的范围阈值。最后以立方体中的点组成圈,判断每个面片的法向量夹角是否小于π/2,剔除大于该角度的面片,进行表面重建。
进一步地,所述步骤5具体包括以下子步骤:
(5.1)在参考脚型模型选择的区域中任意选定曲率线L,在L上取样本点:
Ls={(li,ti),i=1,…,numOfSample}
其中li,ti分别表示该像素点的二维视频坐标和切线向量,numOfSample为样本点数。然后把这些样本点映射到参考脚型的曲面上得到:
其中li′,ti′分别表示该投影点的三维空间坐标及沿L方向上的切线平面,而表示该样本点的法向量。把这些信息向曲面周围延伸,记x为该样本点的邻近点,即在与法向量和切平面都垂直的方向上移动一小步Δ={Δx,Δy},定义一个新网格点表示原来的点移动Δ后所在的点。在曲率线的两边,即沿bi和-bi方向都进行这样的操作,直到生成一系列网格点覆盖选择区域,对这些网格点进行插值直到选择的视频区域中每个像素点h=(i,j)都对应一个三维网格节点。然后建立目标能量函数,计算并输出深度映射值集合Z={zh},对目标能量函数运用梯度下降法输出区域的深度映射视频,在重建模型上选择对应的区域根据曲率进行修复。目标能量函数共包括四项,为:
第一项表示曲面光滑程度,其中zxx(i,j)表示在像素点h=(i,j)沿x方向的深度,同理,zxy(i,j)和zyy(i,j)分别为沿xy斜线方向和y方向的深度。
第二项F(zh)满足x|F(x)=0,表示模型曲面是函数F的零集。
第三项R(zh)为同一像素在两幅不同的视频帧中的深度差的平方值,保证在重叠区域两个深度映射值的一致性。
第四项C(zh)=∑i,j(UTHU)2为曲率线的变化,其中H为zh的Hessian矩阵,U为曲率线上的点投影到两帧视频帧上对应的像素。
(5.2)对重建脚型模型进行整体变换操作。最终要求的目标模型S‘可以表示为由参考脚型模型S*和重建脚型模型S中的点在变换θ和移动δ={di}的作用下得到的。即S‘=T(S*,S)+d。考虑点集的GMM概率密度函数:
gmm(S)=∑p(x)=1/(2πσ2)exp(-||x-μ||/(2σ2))
p(x)为邻近点x的概率,μ为均值,σ为方差。
代价函数设为两个模型之间的L2距离
dL2=(gmm(S*)-gmm(T(S,θ)))2
其中T为对点云进行变形操作,利用梯度下降法最小化目标函数得到模型间的形变系数θ。
(5.3)对重建脚型模型进行局部调整。定义形变目标函数和几何体目标函数Ω(S*,S)分别为:
其中tj为点pj的移动向量,N(j)为点pj的邻域,ejk为连接的边,Ajk为包含j和k两点的面片的面积,Aj为只包含点j的面片的面积。整体目标函数定义为通过对模型中点的拉伸移动改变模型。为保证整个模型的光滑度,考虑光滑目标模型S‘=T(S*,S,θ)+d,两点集间每对对应点之间的移动di可以通过最小化光滑目标函数求得。光滑目标函数Esmooth如下:
其中权重系数ε由模型数据集确定,N为对应模型上点的邻域。最后,计算点云的PCA模型矩阵M,m是参数向量,定义形变代价函数:
其中θ和t分别为旋转和平移参数,s为缩放因子,R为旋转矩阵。对用户选择的每部分区域进行形变,最终得到调整后的重建脚型模型。
本发明方法的核心是根据输入的裸脚RGB视频和IMU数据求得视频帧对应的摄像机参数和三维脚型点云模型,并结合数据库中的参考模型与重建模型建立对应关系,定义能量函数并最小化之,从而优化重建模型。
以下利用一个我们实现的例子来描述具体流程的实施方式,步骤如下(见图1):
1)用带摄像机和传感器的智能手机绕脚360度拍摄视频,同时打开IMU数据采集app记录IMU数据(见图2(a));
2)对数据进行各项预处理。
3)加入IMU数据,构建因子图(见图3)并优化;
4)把重建得到的模型与数据库中的参考模型(见图2(b))进行对齐、形变等一系列操作,得到最终的脚型网格模型(见图4)。

Claims (6)

1.一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,该方法包括以下步骤:
(1)利用智能手机围绕裸脚旋转一圈采集脚型视频和传感器数据,将视频分解成视频帧,并取部分帧作脚型区域分割等预处理,同时对脚型数据库中的参考脚型模型求法向量等参数;
(2)根据多视角立体几何的约束关系,检测视频帧中的特征点并进行匹配,计算摄像机内外参数,恢复特征点对应的三维点云坐标;
(3)加入IMU数据,对步骤2得到的摄像机参数和三维点云坐标进行修正,包括修复多视角算法失败无法求得摄像机参数的情况和移动三维点云坐标以减小三维坐标计算误差;
(4)从已有的脚型数据库中选择相似的参考脚型模型,对齐重建脚型模型和参考脚型模型,并对重建脚型模型进行去噪、光滑、表面重建处理;
(5)根据重建脚型模型和参考脚型模型之间的局部和整体对齐关系,对参考脚型模型进行形变使其拟合重建脚型模型,输出最终的重建脚型模型结果。
2.根据权利要求1所述的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,所述步骤1具体包括以下子步骤:
(1.1)用带有陀螺仪和加速计的智能手机绕脚360度拍摄视频一圈回到原点,拍摄时在脚底放置一张A4纸,拍摄过程中记录陀螺仪和加速计的数值。拍摄场景中的物体尺寸与真实尺寸之间的比例以A4纸作为参考。
(1.2)将采集到的视频分解成视频帧,从视频帧中等间隔地选择部分帧进行分割前背景区域,得到视频帧对应的关于脚型区域的mask视频。通过检测视频帧中A4纸的角点和边获取A4纸区域,根据RGB像素值分割A4纸及在A4纸区域内的部分脚型区域。同时,对整幅视频帧进行边缘检测,得到包括脚型边缘在内的视频帧边缘视频。然后由A4纸区域内的脚型区域向外搜索填充,最终得到初步估计的脚型区域及非脚型区域。建立GMM模型,通过k-mean算法分别对脚型区域像素和非脚型区域像素进行聚类,得到GMM模型中每个高斯模型的像素样本集,然后根据RGB值计算每个高斯模型的参数均值和协方差,每个高斯模型的权值定义为属于该高斯模型的像素个数与总像素个数的比值。对每个像素分配GMM模型中的高斯模型,以给定的脚型区域和非脚型区域为参考学习优化GMM模型,迭代分割,最终得到对应视频帧的脚型轮廓视频。
(1.3)用Kalibr工具箱对IMU进行标定,求出IMU到摄像机的旋转矩阵,利用该旋转矩阵变换摄像机坐标系和IMU坐标系。对于参考脚型模型,顶点vi的法向量由该顶点和周围k个邻近点共同确定。记顶点vi的第j个邻近点为(j∈1,…,k)。模型中心点为c,则法向量同时满足:
其中Face{vi}为包含点vi的面片,几何意义为顶点vi的法向量由以该点为顶点的面片的法向量的权重和,方向为由中心点指向顶点外侧。最终得到每个顶点和每个面片的法向量。
3.根据权利要求1所述的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,所述步骤2具体为:对每帧视频帧进行Brief和Freak特征点检测和提取,对视频帧两两进行特征匹配,计算单应矩阵,并按纯视觉方法计算基本矩阵、本质矩阵,对本质矩阵进行SVD分解求得初始的摄像机姿态参数,同时恢复特征点对应的三维点云坐标。
4.根据权利要求1所述的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,所述步骤3具体包括以下子步骤:
(3.1)对IMU数据做如下预处理。由于传感器频率和摄像机频率不一致,假设IMU数据和摄像机在从时间ti到tj的间隔时间Δt里同步,状态参数xi=[Ri,pi,vi,bi]记录了IMU数据的旋转Ri、位置pi、速度vi和传感器漂移偏差bi,而传感器漂移偏差bi又包括速度加速计和重力加速计的偏差。则视频帧对应的状态参数为IMU状态参数的子集。设白噪声 分别为重力加速计和速度加速计的噪声,角速度ωi,加速度ai,则有:
状态参数求导后仍然为偏差b的函数,则可以采用分两步进行优化的方法,第一步假设b已知,对状态参数求梯度最优化,第二步中考虑到传感器移动时b有变化,为减少计算,当b变成bΔb时,梯度值只需要在原来的基础上增加由b变化带来的差值Δb即可。最后计算残差,得到IMU数据下的摄像机姿态。
(3.2)结合IMU数据和视觉数据建立因子图。其中因子节点包括由视觉方法计算得到的摄像机姿态x′i,恢复的脚型三维点云坐标li、IMU状态参数xi,偏差ci等。记第k时刻IMU测量值为则因子图中各个约束可以表示为:
IMU因子:
f I M U ( x k + 1 , x k , c k ) = d ( x k + 1 - h ( x k , c k , z k I M U ) )
偏差因子:
fbias(Ck+1,ck)=d(ck+1-g(ck))
先概率因子:
f Pr i o r ( v ) = d ( v ) , ∀ v ∈ V
视觉投影因子:
fProj(x,l)=d(z-π(x,l))
其中z表示真实的视频投影坐标,V为所有顶点的集合,π为投影函数。
立体视觉因子:
fStereo(x,l)=d(zRR(x,l))d(zLL(x,l))
其中L和R分别对应左、右摄像头。
闭环检测因子:
fClose=sig(sij)*f(xi,uij)-xj
其中sig()为sigmoid函数,sij记录传感器运动方向(正向、逆向),uij记录摄像机运动方向(正向、逆向),而f(xi,uij)为运动约束模型,可以看成是fIMU
(3.3)把因子图中因子函数分解成一般形式并进行优化,得到优化后的各个因子的值。
5.根据权利要求1所述的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,所述步骤4具体包括以下子步骤:
(4.1)根据轮廓约束从重建出的三维脚型点云中提取出脚型的三维点云数据,并补脚底点集,得到完整的脚型点云模型。
(4.2)从已有的脚型数据库中选择与重建脚型相似的脚型参考模型,先以坐标轴和包围盒为参考对重建模型和参考模型进行初步对齐,然后去掉增加的脚底点云及脚踝以上的点避免干扰,只保留重建点云模型中脚面上的点集,利用ICP算法进一步与参考模型对齐,最后重新加上脚底点云,并增加手工调整,确保重建脚型模型与参考脚型模型对齐。
(4.3)对重建脚型模型进行去噪和光滑处理,包括剔除重建脚型模型和参考脚型模型之间对应点对距离大于阈值的点,以及等密度去掉部分重建脚型点云。
(4.4)重建脚型模型的法向量计算和表面重建。先用邻近点计算法向量的初值,然后对点云中的点进行可见性判断,并根据输入点的八叉树选取空间中包含点云的单位立方体,对每个立方体中的点云,选取以目标点为圆心,半径hi范围内的点进行平面拟合:
H i = { < n i &RightArrow; , x > - D = 0 , x &Element; R 3 , | n i &RightArrow; | = 1 }
其中为单位法向量,x为范围内的邻近点,D为给定的范围阈值。最后以立方体中的点组成圈,判断每个面片的法向量夹角是否小于π/2,剔除大于该角度的面片,进行表面重建。
6.根据权利要求1所述的一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法,其特征在于,所述步骤5具体包括以下子步骤:
(5.1)在参考脚型模型选择的区域中任意选定曲率线L,在L上取样本点:
Ls={(li,ti),i=1,…,numOfSample}
其中li,ti分别表示该像素点的二维视频坐标和切线向量,numOfSample为样本点数。然后把这些样本点映射到参考脚型的曲面上得到:
L s &prime; = { ( l i &prime; , n i &RightArrow; , t i &prime; ) , i = 1 , ... , n u m O f S a m p l e }
其中l′i,t′i分别表示该投影点的三维空间坐标及沿L方向上的切线平面,而表示该样本点的法向量。把这些信息向曲面周围延伸,记x为该样本点的邻近点,即在与法向量和切平面都垂直的方向上移动一小步Δ={Δx,Δy},定义一个新网格点表示原来的点移动Δ后所在的点。在曲率线的两边,即沿bi和-bi方向都进行这样的操作,直到生成一系列网格点覆盖选择区域,对这些网格点进行插值直到选择的视频区域中每个像素点h=(i,j)都对应一个三维网格节点。然后建立目标能量函数,计算并输出深度映射值集合Z={zh},对目标能量函数运用梯度下降法输出区域的深度映射视频,在重建模型上选择对应的区域根据曲率进行修复。目标能量函数共包括四项,为:
E ( Z ) = &Sigma; h S ( z h ) + F ( z h ) + R ( z h ) + C ( z h )
第一项表示曲面光滑程度,其中zxx(i,j)表示在像素点h=(i,j)沿x方向的深度,同理,zxy(i,j)和zyy(i,j)分别为沿xy斜线方向和y方向的深度。
第二项F(zh)满足x|F(x)=0,表示模型曲面是函数F的零集。
第三项R(zh)为同一像素在两幅不同的视频帧中的深度差的平方值,保证在重叠区域两个深度映射值的一致性。
第四项C(zh)=∑i,j(UTHU)2为曲率线的变化,其中H为zh的Hessian矩阵,U为曲率线上的点投影到两帧视频帧上对应的像素。
(5.2)对重建脚型模型进行整体变换操作。最终要求的目标模型S‘可以表示为由参考脚型模型S*和重建脚型模型S中的点在变换θ和移动δ={di}的作用下得到的。即S‘=T(S*,S)+d。考虑点集的GMM概率密度函数:
gmm(S)=Σp(x)=1/(2πσ2)exp(-||x-μ||/2σ2))
p(x)为邻近点x的概率,μ为均值,σ为方差。
代价函数设为两个模型之间的L2距离
dL2=(gmm(S*)-gmm(T(S,θ)))2
其中T为对点云进行变形操作,利用梯度下降法最小化目标函数得到模型间的形变系数θ。
(5.3)对重建脚型模型进行局部调整。定义形变目标函数和几何体目标函数Ω(S*,S)分别为:
&Omega; ( S * , S ) = &Sigma; j &Element; S &omega; j A j | | p j + t j - p j * | |
其中tj为点pj的移动向量,N(j)为点pj的邻域,ejk为连接的边,Ajk为包含j和k两点的面片的面积,Aj为只包含点j的面片的面积。整体目标函数定义为通过对模型中点的拉伸移动改变模型。为保证整个模型的光滑度,考虑光滑目标模型S‘=T(S*,S,θ)+d,两点集间每对对应点之间的移动di可以通过最小化光滑目标函数求得。光滑目标函数Esmooth如下:
min E s m o o t h = &Sigma; p i &Element; N ( p i ) &epsiv; ( d i - ( p i * - p i ) 2 ) + &Sigma; p i &Element; N ( p i ) &Sigma; p j &Element; N ( p j ) ( d i - d j ) 2 + &Sigma; p &Element; N ( p ) | | n p - n p * | |
其中权重系数ε由模型数据集确定,N为对应模型上点的邻域。最后,计算点云的PCA模型矩阵M,m是参数向量,定义形变代价函数:
e ( S , &theta; , m , t ) = &Sigma; | | s * R ( M m + p i * + t - p i ) | |
其中θ和t分别为旋转和平移参数,为缩放因子,R为旋转矩阵。对用户选择的每部分区域进行形变,最终得到调整后的重建脚型模型。
CN201710173548.XA 2017-03-22 2017-03-22 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法 Active CN106997605B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710173548.XA CN106997605B (zh) 2017-03-22 2017-03-22 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710173548.XA CN106997605B (zh) 2017-03-22 2017-03-22 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法

Publications (2)

Publication Number Publication Date
CN106997605A true CN106997605A (zh) 2017-08-01
CN106997605B CN106997605B (zh) 2019-11-19

Family

ID=59431686

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710173548.XA Active CN106997605B (zh) 2017-03-22 2017-03-22 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法

Country Status (1)

Country Link
CN (1) CN106997605B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109166146A (zh) * 2018-07-19 2019-01-08 上海斐讯数据通信技术有限公司 一种基于imu和视觉的食物体积估计方法及***
CN109410320A (zh) * 2018-09-30 2019-03-01 先临三维科技股份有限公司 三维模型重建方法、装置、计算机设备和存储介质
CN109961504A (zh) * 2017-12-25 2019-07-02 宏达国际电子股份有限公司 三维模型重建方法、电子装置及非暂态电脑可读取记录媒体
CN110490973A (zh) * 2019-08-27 2019-11-22 大连海事大学 一种模型驱动的多视图鞋模型三维重建方法
CN111105864A (zh) * 2019-12-27 2020-05-05 华南理工大学 一种动态传输3d模型的方法
WO2020192706A1 (zh) * 2019-03-25 2020-10-01 华为技术有限公司 物体三维模型重建方法及装置
CN111882659A (zh) * 2020-07-21 2020-11-03 浙江大学 一种融合人体脚型规律和可视外壳的高精度人体脚型重建方法
CN112669196A (zh) * 2021-03-16 2021-04-16 浙江欣奕华智能科技有限公司 一种硬件加速引擎中因子图优化数据的方法和设备
CN113239979A (zh) * 2021-04-23 2021-08-10 广州市祺能电子科技有限公司 一种物联网传感器数据采集的方法及装置
CN113689540A (zh) * 2021-07-22 2021-11-23 清华大学 基于rgb视频的物体重建方法和装置
CN114072025A (zh) * 2019-07-09 2022-02-18 尼茨股份有限公司 经由移动计算设备进行脚部扫描的***和方法
CN114543684A (zh) * 2022-04-26 2022-05-27 中国地质大学(北京) 一种结构位移测量方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101388118A (zh) * 2008-10-17 2009-03-18 浙江大学 基于扫描输入的三维鞋楦重建方法
CN102222357A (zh) * 2010-04-15 2011-10-19 温州大学 基于图像分割和网格细分的脚型三维表面重建方法
CN103971409A (zh) * 2014-05-22 2014-08-06 福州大学 一种利用rgb-d摄像机测量足部三维脚型信息及三维重建模型的方法
CN105136143A (zh) * 2015-07-29 2015-12-09 哈尔滨工业大学 基于imu数据的用户室内运动轨迹匹配方法
CN105212436A (zh) * 2014-06-12 2016-01-06 深圳市精易迅科技有限公司 非接触式三维激光脚型的测量***及测量方法
CN105469441A (zh) * 2015-11-23 2016-04-06 南京脚度健康科技有限公司 利用网络上传二维平面照片建立三维足部模型的制鞋方法
CN106127773A (zh) * 2016-06-29 2016-11-16 北京三维天下科技股份有限公司 一种基于图片的脚型数据获取方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101388118A (zh) * 2008-10-17 2009-03-18 浙江大学 基于扫描输入的三维鞋楦重建方法
CN102222357A (zh) * 2010-04-15 2011-10-19 温州大学 基于图像分割和网格细分的脚型三维表面重建方法
CN103971409A (zh) * 2014-05-22 2014-08-06 福州大学 一种利用rgb-d摄像机测量足部三维脚型信息及三维重建模型的方法
CN105212436A (zh) * 2014-06-12 2016-01-06 深圳市精易迅科技有限公司 非接触式三维激光脚型的测量***及测量方法
CN105136143A (zh) * 2015-07-29 2015-12-09 哈尔滨工业大学 基于imu数据的用户室内运动轨迹匹配方法
CN105469441A (zh) * 2015-11-23 2016-04-06 南京脚度健康科技有限公司 利用网络上传二维平面照片建立三维足部模型的制鞋方法
CN106127773A (zh) * 2016-06-29 2016-11-16 北京三维天下科技股份有限公司 一种基于图片的脚型数据获取方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BALDACCI A等: ""3D reconstruction for featureless scenes with curvature hints"", 《THE VISUAL COMPUTER》 *
INDELMAN V等: ""Information fusion in navigation systems via factor graph based incremental smoothing"", 《ROBOTICS AND AUTONOMOUS SYSTEMS》 *
杨浩等: ""摄像机和惯性测量单元的相对位姿标定方法"", 《机器人》 *
高飞等: ""基于标记点图案的三维脚型建模与测量方法"", 《计算机辅助设计与图形学学报》 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961504A (zh) * 2017-12-25 2019-07-02 宏达国际电子股份有限公司 三维模型重建方法、电子装置及非暂态电脑可读取记录媒体
CN109166146A (zh) * 2018-07-19 2019-01-08 上海斐讯数据通信技术有限公司 一种基于imu和视觉的食物体积估计方法及***
CN109410320A (zh) * 2018-09-30 2019-03-01 先临三维科技股份有限公司 三维模型重建方法、装置、计算机设备和存储介质
WO2020192706A1 (zh) * 2019-03-25 2020-10-01 华为技术有限公司 物体三维模型重建方法及装置
CN114072025A (zh) * 2019-07-09 2022-02-18 尼茨股份有限公司 经由移动计算设备进行脚部扫描的***和方法
US11816806B2 (en) 2019-07-09 2023-11-14 Neatsy, Inc. System and method for foot scanning via a mobile computing device
CN110490973A (zh) * 2019-08-27 2019-11-22 大连海事大学 一种模型驱动的多视图鞋模型三维重建方法
CN110490973B (zh) * 2019-08-27 2022-09-16 大连海事大学 一种模型驱动的多视图鞋模型三维重建方法
CN111105864A (zh) * 2019-12-27 2020-05-05 华南理工大学 一种动态传输3d模型的方法
CN111105864B (zh) * 2019-12-27 2023-06-16 华南理工大学 一种动态传输3d模型的方法
CN111882659A (zh) * 2020-07-21 2020-11-03 浙江大学 一种融合人体脚型规律和可视外壳的高精度人体脚型重建方法
CN111882659B (zh) * 2020-07-21 2022-04-22 浙江大学 一种融合人体脚型规律和可视外壳的高精度人体脚型重建方法
CN112669196A (zh) * 2021-03-16 2021-04-16 浙江欣奕华智能科技有限公司 一种硬件加速引擎中因子图优化数据的方法和设备
CN113239979A (zh) * 2021-04-23 2021-08-10 广州市祺能电子科技有限公司 一种物联网传感器数据采集的方法及装置
CN113239979B (zh) * 2021-04-23 2024-01-09 广州市祺能电子科技有限公司 一种物联网传感器数据采集的方法及装置
CN113689540A (zh) * 2021-07-22 2021-11-23 清华大学 基于rgb视频的物体重建方法和装置
CN113689540B (zh) * 2021-07-22 2024-04-23 清华大学 基于rgb视频的物体重建方法和装置
CN114543684A (zh) * 2022-04-26 2022-05-27 中国地质大学(北京) 一种结构位移测量方法

Also Published As

Publication number Publication date
CN106997605B (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
CN106997605B (zh) 一种通过智能手机采集脚型视频和传感器数据获取三维脚型的方法
CN108830150B (zh) 一种基于三维人体姿态估计方法及装置
CN105069746B (zh) 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其***
CN104077804B (zh) 一种基于多帧视频图像构建三维人脸模型的方法
Rau et al. Analysis of oblique aerial images for land cover and point cloud classification in an urban environment
Zhang et al. Image engineering
CN109242954B (zh) 基于模板变形的多视角三维人体重建方法
CN107767442A (zh) 一种基于Kinect和双目视觉的脚型三维重建与测量方法
CN104330074B (zh) 一种智能测绘平台及其实现方法
CN106910242A (zh) 基于深度相机进行室内完整场景三维重建的方法及***
CN108053476B (zh) 一种基于分段三维重建的人体参数测量***及方法
CN109544677A (zh) 基于深度图像关键帧的室内场景主结构重建方法及***
CN108090960A (zh) 一种基于几何约束的目标重建方法
Long et al. Neuraludf: Learning unsigned distance fields for multi-view reconstruction of surfaces with arbitrary topologies
CN107481279A (zh) 一种单目视频深度图计算方法
CN106340036A (zh) 一种基于双目立体视觉的立体匹配方法
CN110473196A (zh) 一种基于深度学习的腹部ct图像目标器官配准方法
CN107169475A (zh) 一种基于kinect相机的人脸三维点云优化处理方法
CN108648194A (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
CN106705849A (zh) 线结构光传感器标定方法
JP4761670B2 (ja) 動立体モデル生成装置及び方法
CN109087245A (zh) 基于相邻关系模型的无人机遥感图像拼接***
CN103646421A (zh) 基于增强型PyrLK光流法的树木轻量化3D重建方法
CN108961151B (zh) 一种将球幕相机得到的三维大场景转成剖面图的方法
Özdemir et al. A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant