CN112700539A - 一种虚拟人台的构建方法和*** - Google Patents
一种虚拟人台的构建方法和*** Download PDFInfo
- Publication number
- CN112700539A CN112700539A CN202110008383.7A CN202110008383A CN112700539A CN 112700539 A CN112700539 A CN 112700539A CN 202110008383 A CN202110008383 A CN 202110008383A CN 112700539 A CN112700539 A CN 112700539A
- Authority
- CN
- China
- Prior art keywords
- angle
- image
- shot
- garment
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 230000000007 visual effect Effects 0.000 claims abstract description 33
- 238000010586 diagram Methods 0.000 claims abstract description 23
- 238000010276 construction Methods 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 description 13
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种虚拟人台的构建方法和***,包括:获取多角度的服装拍摄图像;获得每张服装拍摄图像在多个预定视角下的第一三维特征图;将多角度的服装拍摄图像在多个预定视角下的第一三维特征图进行融合形成融合人体模型,作为虚拟人台。本申请利用服装拍摄图像中的所有点构建融合人体模型,以形成虚拟人台,大大降低了人体模型的尺寸与被拍摄对象的实际尺寸之间的误差。
Description
技术领域
本申请涉及非接触式人体测量技术领域,具体涉及一种虚拟人台的构建方法和***。
背景技术
近年来,计算机视觉图形学在非接触式三维人体模型的构建上有很多的应用。现有技术中,通过图像生成器获得人体的多张不同角度的二维图像,图像处理器根据各二维图像中人体特征点的位置关系计算该二维图像的缩放比,进而根据各二维图像的缩放比及所识别的人体特征点生成三维人体特征点,并最终通过该三维人体特征点计算所需的人体体型数据,进而构建人体模型。
但是,人体特征点呈现不连续性,无法将人体的每个点的特征体现到三维人体模型中,因此,现有的方法获得的人体模型的尺寸与人体的实际尺寸之间存在较大的误差。
发明内容
本申请的目的在于提供一种虚拟人台的构建方法和***,用于解决现有的方法获得的人体模型的尺寸与人体的实际尺寸之间存在较大的误差的技术问题。
本申请提供一种虚拟人台的构建方法,包括:获取多角度的服装拍摄图像;获得每张服装拍摄图像在多个预定视角下的第一三维特征图;将多角度的服装拍摄图像在多个预定视角下的第一三维特征图进行融合形成融合人体模型,作为虚拟人台。
优选地,在第一三维特征图之前还包括:根据多角度的服装拍摄图像进行相机标定,获得校正参数;根据校正参数对多角度的服装拍摄图像进行校正。
优选地,获得每张服装拍摄图像在多个预定视角下的第一三维特征图之前还包括对每张校正后的服装拍摄图像进行处理,获得该服装拍摄图像的拍摄角度。
优选地,服装拍摄图像包括被拍摄对象、与被拍摄对象具有固定位置关系且与被拍摄对象的脚部抵接的转盘的一部分以及参考位置,参考位置位于转盘顶面的外边缘上,转盘上沿周向均匀设有多个色块。
优选地,对每张校正后的服装拍摄图像进行处理包括从服装拍摄图像中获得目标区域的图像,目标区域包括转盘的一部分。
优选地,获得服装拍摄图像的拍摄角度,包括:从目标区域的图像获得参考位置附近的色块及目标分界线以及目标分界线与被拍摄对象的正面中心线之间的夹角,作为第一角度,被拍摄对象的正面中心线为被拍摄对象的面部至背部方向的轴对称面与转盘的顶面的交线;计算目标分界线与参照线之间的夹角,作为第三角度,参照线为参考位置与转盘顶面的中心点之间的连线;计算第一角度与第三角度的和或差,作为服装的拍摄角度。
优选地,将多角度的服装拍摄图像在多个预定视角下的第一三维特征图进行融合形成融合人体模型,包括:针对每个预定视角,按照拍摄角度将多角度的服装拍摄图像的第一三维特征图拼接成该预定视角下的第二三维特征图;根据所有预定视角的第二三维特征图进行曲面拟合,形成融合人体模型。
优选地,形成融合人体模型之后还包括:获得融合人体模型在多个预定视角下的多角度的第三三维特征图;将相同预定视角下相同角度的第一三维特征图和第三三维特征图对比,获得差异值;若差异值小于阈值,则将融合人体模型作为虚拟人台。
优选地,若差异值超过阈值,则重新获取第一三维特征图并对第一三维特征图进行融合。
本申请还提供一种虚拟人台的构建***,包括处理器,处理器执行上述的虚拟人台的构建方法。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本申请提供的虚拟人台的构建方法的流程图;
图2是本申请提供的获得服装拍摄图像的拍摄角度的流程图;
图3是本申请提供的一种实施例的从目标区域的图像获得参考位置附近的色块及目标分界线的流程图;
图4是图3的实施例中计算第二角度的流程图;
图5是本申请提供的另一种实施例的从目标区域的图像获得参考位置附近的色块及目标分界线的流程图;
图6是本申请提供的获得第一三维特征图的流程图;
图7是本申请提供的将多角度的服装拍摄图像在多个预定视角下的第一三维特征图进行融合形成融合人体模型的流程图;
图8是本申请提供的获得某预定视角下的第二三维特征图的流程图;
图9是本申请提供的拼接第一拍摄角度的第一三维特征图和第二拍摄角度的第一三维特征图的流程图。
具体实施方式
下面结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例一
本申请提供了一种虚拟人台的构建方法。图1是本申请提供的虚拟人台的构建方法的流程图。
如图1所示,虚拟人台的构建方法包括如下步骤:
S110:获取多角度的服装拍摄图像,该多角度的服装拍摄图像在360°角度上记录了被拍摄对象的特征。
多角度的服装拍摄图像是在被拍摄对象(如被测量的人体或人台)穿着紧身服装的基础上,采用摄像机从多个角度进行拍摄后获得的图像。
作为一个实施例,被拍摄对象的脚部抵接转盘,且被拍摄对象与转盘具有固定的位置关系,转盘的底部与底座连接,转盘转动连接在底座上。拍摄过程中摄像机的位置不变,视角范围不变,通过旋转转盘来旋转被拍摄对象,每旋转一次进行一次拍摄,获得服装拍摄图像。
转盘沿其竖直的中心轴线进行旋转,转盘的顶面上沿周向均匀设有多个不同颜色的扇形色块,即每个色块的扇形区域的弧度相同。转盘顶面的外边缘上设有一个参考点,作为被拍摄对象转动的参考位置,参考位置的颜色与所有的色块的颜色不同。被拍摄对象固定在转盘的顶面上,并且被拍摄对象的中心轴线与转盘的中心轴线重合。
服装拍摄图像包括被拍摄对象、转盘的一部分以及参考位置。被拍摄对象的面部至背部方向的轴对称面与转盘的顶面的交线记为被拍摄对象的正面中心线。将参考位置与转盘顶面的中心点之间的连线作为参照线。
作为一个实施例,在人台组件上设置有参照线。作为另一个实施例,人台组件上没有设置参照线,参照线是一条虚拟线。
具体地,转盘的初始状态下人台的正面中心线与参照线重合,转盘的旋转方向为逆时针方向,服装的拍摄角度为转盘的转动角度。
S120:根据多角度的服装拍摄图像进行相机标定,获得校正参数。
S130:根据校正参数对多角度的服装拍摄图像进行校正。
对服装拍摄图像进行校正有助于更准确地获得被拍摄对象的特征,提高虚拟人台的构建质量。
S140:对每张校正后的服装拍摄图像进行处理,获得该服装拍摄图像的拍摄角度。
作为一个实施例,对校正后的服装拍摄图像进行处理包括从服装拍摄图像中获得目标区域的图像,目标区域包括转盘的一部分将服装拍摄图像中转盘的图像提取出来,作为拍摄角度的获取的基础。
作为一个实施例,通过阈值分割算法获得目标区域的图像。
图2示出了根据本申请提供的获得服装拍摄图像的拍摄角度的流程图。如图2所示,获得服装拍摄图像的拍摄角度包括:
S210:从目标区域的图像获得参考位置附近的色块及目标分界线以及目标分界线与被拍摄对象的正面中心线之间的夹角,作为第一角度。具体地,第一角度为目标分界线与人台的正面中心线在逆时针方向上的夹角。
S220:计算目标分界线与参照线之间的夹角,作为第二角度,参照线为参考位置与转盘顶面的中心点之间的连线。
S230:计算第一角度与第二角度的和或差,作为服装的拍摄角度。
作为一个实施例,在人台组件上没有设置参照线的情况下,如图3所示,从目标区域的图像获得参考位置附近的色块及目标分界线包括如下步骤:
S310:通过识别色值确定目标区域的图像的各个色块和参考位置。
S320:将相邻两个色块之间色值产生变化的像素点的连线作为色块的分界线。
S330:计算参考位置与每条分界线之间的第一距离值。
S340:将第一距离值小于第一距离阈值的分界线作为参考位置附近的色块的分界线。
S350:将参考位置附近的色块的分界线中任一条分界线作为目标分界线。
S360:将目标分界线与和其相邻的分界线之间的色块作为参考位置附近的色块。
转盘上的每个分界线与人台的正面中心线的相对位置之间的夹角是预设的,因此,在获得目标分界线后,可以根据预设值确定第一角度。
在此基础上,如图4所示,S220中计算第二角度包括如下步骤:
S410:构建虚拟三维坐标系,目标区域的图像处于X-Z轴平面内,参照线与虚拟三维坐标系的Z轴平行。
S420:检测目标分界线相对于X轴的斜率。
S430:根据斜率计算目标分界线与虚拟三维坐标系的X轴的夹角,作为第三角度。
S440:判断斜率是否为正。若是,则执行S450;否则,执行S460。
S450:计算第三角度的余角,作为第二角度。
S460:计算第三角度的补角的余角,作为第二角度。
优选地,将参考位置附近的色块的分界线中第一距离值最小的分界线作为目标分界线。在此基础上,若目标分界线的斜率为正,则将第一角度和第二角度的和作为服装的拍摄角度;若目标分界线的斜率为负,则将第一角度和第二角度的差作为服装的拍摄角度。
作为另一个实施例,在人台组件上设置有参照线的情况下,如图5所示,从目标区域的图像获得参考位置附近的色块及目标分界线包括如下步骤:
S510:通过识别色值确定目标区域的图像的各个色块、参考位置及参照线的像素坐标。
S520:通过霍夫变换检测目标区域的图像中的参照线和多条分界线,霍夫变换后多条分界线与参照线相交,交点均为转盘顶面的中心点。
S530:计算参照线上的第一像素点与每条分界线上的第二像素点之间的第二距离值,第一像素点与所有分界线的第二像素点位于同一直线上,并且第一像素点和第二像素点不重合。
S540:将第二距离值最小的分界线作为目标分界线。
S550:将目标分界线与和其相邻的分界线之间的色块作为参考位置附近的色块。
转盘上的每个分界线与人台的正面中心线的相对位置之间的夹角是预设的,因此,在获得目标分界线后,可以根据预设值确定第一角度。
在此基础上,通过检测霍夫变换后的目标分界线与参照线之间的夹角获得第二角度。
目标分界线与参考位置附近的色块的相对位置包括目标分界线在参考位置附近的色块的远离或靠近正面中心线的一侧这两种情况。若目标分界线在参考位置附近的色块的远离正面中心线的一侧,则将第一角度和第二角度的差作为服装的拍摄角度。若目标分界线在参考位置附近的色块的靠近正面中心线的一侧,则将第一角度和第二角度的和作为服装的拍摄角度。
S150:获得每张校正后的服装拍摄图像在多个预定视角下的第一三维特征图。
如图6所示,获得第一三维特征图包括如下步骤:
S610:通过深度神经网络学习被拍摄对象,获得被拍摄对象的先验知识。
S620:将校正后的服装拍摄图像和掩膜输入深度神经网络,获得与掩膜对应的第一三维特征图。其中,每个掩膜对应一个预定视角。
在上述虚拟三维坐标系中,被拍摄对象的高度方向与坐标系的Z轴对应,掩膜限定了一个映射面,该映射面与坐标系的X-Y平面平行。不同的预定视角对应的Z值不同,即不同的预定视角对应被拍摄对象的不同高度位置。
具体地,作为一个实施例,掩膜为与服装拍摄图像大小相同的图像,服装拍摄图像中的像素与掩膜的像素位置一一对应。第一三维特征图包括预定视角信息和图像上的点的三维坐标,并且所有点的三维坐标的Z值相同。
作为一个实施例,通过对服装拍摄图像和掩膜做运算(如与运算)获得第一三维特征图。
S160:将多角度的服装拍摄图像在多个预定视角下的第一三维特征图进行融合形成融合人体模型。作为一个实施例,将融合人体模型作为虚拟人台。
作为一个实施例,如图7所示,将多角度的服装拍摄图像在多个预定视角下的第一三维特征图进行融合形成融合人体模型,包括:
S710:针对每个预定视角,按照拍摄角度将多角度的服装拍摄图像的第一三维特征图拼接成该预定视角下的第二三维特征图。
具体地,作为一个实施例,获得某预定视角下的第二三维特征图如图8所示,包括如下步骤:
S810:以该预定视角下第一拍摄角度的第一三维特征图为基准图像,该预定视角下第二拍摄角度的第一三维特征图为待拼接图像,拼接形成第一拼接图像,其中,第二拍摄角度是在第一拍摄角度的基础上做得下一个旋转获得的拍摄角度,并且第一拍摄角度是初始状态下的拍摄角度。
具体地,如图9所示,拼接第一拍摄角度的第一三维特征图和第二拍摄角度的第一三维特征图包括如下步骤:
S910:分别对在该预定视角下第一拍摄角度和第二拍摄角度的第一三维特征图标记拼接区域。
其中,S(x,z)为三维特征图位置为(x,z)的像素的标记,L为摄像机与背景墙之间的距离,α为相机的在左右方向上的视角,m为标记系数,0<m≤1/2。
考虑到在服装拍摄图像中,摄像机正对的区域的特征显示相较于将该区域被旋转至其他角度后获得的图像的特征显示更充分,因此,本步骤中,放弃该区域的拼接,将正对区域两侧的区域内的像素位置标定为拼接区域。这样的方式降低了拼接的计算量,并且有助于提高拟合的质量。
作为一个实施例,将右侧的拼接区域记为第一拼接区域,左侧的拼接区域记为第二拼接区域,未被标记的中间区域记为中心区域。
S920:对该预定视角下第一拍摄角度的第一三维特征图的第二拼接区域和第二拍摄角度的第一三维特征图的第一拼接区域进行多次平滑采样,获得第一拍摄角度的多个采样图像和第二拍摄角度的多个采样图像。
其中,采样参数εn=kn-1ε0 (2)
其中,εn为第n次采样的采样参数,k为采样系数,ε0为第一次采样的采样参数,共做N次采样。
由于按照转盘和被拍摄对象逆时针旋转方向的顺序拍摄获得多个角度的服装拍摄图像,因此,上一角度左侧的拼接区域与下一角度右侧的拼接区域为这两次拍摄的重叠部分,因此,拟对第一拍摄角度的第一三维特征图的第二拼接区域和第二拍摄角度的第一三维特征图的第一拼接区域进行拼接。
S930:根据第一拍摄角度的多个采样图像和第二拍摄角度的多个采样图像获取第一拍摄角度的初步特征点集合G1和第二拍摄角度的初步特征点集合G2。
以第一拍摄角度为例,G1={Pir|i=1,2…N,r=1,2…R} (3)
其中,Pir表示第i个采样图像上的第r个第一特征点。
第一特征点Pir的像素值记为Vir
Vir=MAX{Vijs|s=1,2…q×q} (4)
其中,Vijs为以第i个采样图像上第j个第二特征点Pij为中心的q×q大小的第一指定邻域A1内第s个像素点的像素值。
第二特征点Pij的像素值记为Vij
Vij=MAX{Vitl|l=1,2…n×n} (5)
其中,Vitl为以第i个采样图像上第t个像素点Pit为中心的n×n大小的第二指定邻域A2内的第l个像素点的像素值。
S940:对第一拍摄角度的初步特征点集合和第二拍摄角度的初步特征点集合中的特征点进行匹配。
具体地,针对第一拍摄角度的初步特征点集合和第二拍摄角度的初步特征点集合中的每个特征点的匹配包括如下步骤:
P1:将待匹配特征点所在的初步特征点集合作为第一初步特征点集合,另一个初步特征点集合作为第二初步特征点集合。
P2:计算待匹配的第一初步特征点Pu与第二初步特征点集合中所有第二初步特征点Pv的相关性
其中,Ruv表示第一初步特征点Pu与第二初步特征点Pv之间的相关性,F为以第一初步特征点Pu为中心的相关窗,gu表示第一初步特征点Pu的像素值,gv表示第一初步特征点Pv的像素值。
P3:获得与待匹配的第一初步特征点的相关性最大和次大的第二初步特征点,作为第三初步特征点和第四初步特征点。
P4:分别计算待匹配的第一初步特征点与第三初步特征点和第四初步特征点之间的欧式距离之间的差值。若差值大于第一阈值,则执行P5;否则,输出匹配失败结果,即第二初步特征点集合中没有与第一初步特征点匹配的第二初步特征点。
P5:将第三初步特征点作为第一初步特征点的匹配特征点。
S950:根据特征点匹配结果对该预定视角下的第一拍摄角度的第一三维特征图和第二拍摄角度的第一三维特征图进行初步拼接。具体地,根据特征点匹配结果将该预定视角下的第一拍摄角度的第一三维特征图的第二拼接区域和第二拍摄角度的第一三维特征图的第一拼接区域进行拼接,其他部分(即第一拍摄角度的第一三维特征图的第一拼接区域和第二拍摄角度的第一三维特征图的第二拼接区域)保持不变,不做拼接,形成第三拼接图像。具体地,可以采用本领域已知的拼接方法进行拼接。
S960:对第三拼接图像的拼接区域与其紧邻的中心区域进行边缘融合,形成第一拼接图像。
S820:以第一拼接图像为基准图像,该预定视角下第三拍摄角度的第一三维特征图为待拼接图像,拼接形成第二拼接图像,其中,第三拍摄角度是与第二拍摄角度最接近的拍摄角度,第二拍摄角度相对于第一拍摄角度的旋转方向与第三拍摄角度相对于第二拍摄角度的旋转方向相同。其中,第三拍摄角度是在第二拍摄角度的基础上做得下一个旋转获得的拍摄角度。
S830:判断第三拍摄角度是否为该预定视角下的最大或最小拍摄角度,即判断该预定视角下第三拍摄角度的第一三维特征图是否为该预定视角下最后一个被拼接的第一三维特征图。若是,则执行S850;否则,执行S840。
S840:用第二拼接图像更新第一拼接图像,第三拍摄角度更新第二拍摄角度,并返回S820。
S850:将第二拼接图像作为该预定视角下的第二三维特征图。
S720:根据所有预定视角的第二三维特征图进行曲面拟合,形成融合人体模型。
优选地,形成融合人体模型之后还包括检验融合人体模型是否合格。具体地,包括如下步骤:
S170:获得融合人体模型在多个预定视角下的多角度的第三三维特征图。
S180:将相同预定视角下相同角度的第一三维特征图和第三三维特征图对比,获得差异值。
S190:判断差异值是否小于第二阈值,若是,则执行S1100;否则,返回S150。
S1100:将融合人体模型作为虚拟人台。
实施例二
本申请还提供了一种虚拟人台的构建***,其包括处理器,该处理器上述的虚拟人台的构建方法。
本申请获得的有益效果如下:
1、本申请利用服装拍摄图像中的所有点构建融合人体模型,以形成虚拟人台,大大降低了人体模型的尺寸与被拍摄对象的实际尺寸之间的误差。
2、本申请利用服装拍摄图像的在360°范围内多次旋转形成的多个拍摄角度获得的图像构建预定视角下的拼接图像,使得拼接图像完整体现被拍摄对象的所有部位的特征,因此人体模型更能体现被拍摄对象的特征。
本申请解决了现有的方法获得的人体模型的尺寸与人体的实际尺寸之间存在较大的误差。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种虚拟人台的构建方法,其特征在于,包括:
获取多角度的服装拍摄图像;
获得每张服装拍摄图像在多个预定视角下的第一三维特征图;
将所述多角度的服装拍摄图像在多个预定视角下的第一三维特征图进行融合形成融合人体模型,作为虚拟人台。
2.如权利要求1所述的构建方法,其特征在于,在第一三维特征图之前还包括:
根据多角度的服装拍摄图像进行相机标定,获得校正参数;
根据校正参数对所述多角度的服装拍摄图像进行校正。
3.如权利要求2所述的构建方法,其特征在于,获得每张服装拍摄图像在多个预定视角下的第一三维特征图之前还包括对每张校正后的服装拍摄图像进行处理,获得该服装拍摄图像的拍摄角度。
4.如权利要求3所述的构建方法,其特征在于,所述服装拍摄图像包括被拍摄对象、与所述被拍摄对象具有固定位置关系且与被拍摄对象的脚部抵接的转盘的一部分以及参考位置,所述参考位置位于所述转盘顶面的外边缘上,所述转盘上沿周向均匀设有多个色块。
5.如权利要求4所述的构建方法,其特征在于,对每张校正后的服装拍摄图像进行处理包括从所述服装拍摄图像中获得目标区域的图像,所述目标区域包括所述转盘的一部分。
6.如权利要求5所述的构建方法,其特征在于,获得服装拍摄图像的拍摄角度,包括:
从所述目标区域的图像获得所述参考位置附近的色块及目标分界线以及所述目标分界线与所述被拍摄对象的正面中心线之间的夹角,作为第一角度,所述被拍摄对象的正面中心线为所述被拍摄对象的面部至背部方向的轴对称面与所述转盘的顶面的交线;
计算所述目标分界线与参照线之间的夹角,作为第三角度,所述参照线为所述参考位置与所述转盘顶面的中心点之间的连线;
计算所述第一角度与所述第三角度的和或差,作为服装的拍摄角度。
7.如权利要求3所述的构建方法,其特征在于,将所述多角度的服装拍摄图像在多个预定视角下的第一三维特征图进行融合形成融合人体模型,包括:
针对每个预定视角,按照拍摄角度将多角度的服装拍摄图像的第一三维特征图拼接成该预定视角下的第二三维特征图;
根据所有预定视角的第二三维特征图进行曲面拟合,形成融合人体模型。
8.如权利要求1所述的构建方法,其特征在于,形成融合人体模型之后还包括:
获得融合人体模型在多个预定视角下的多角度的第三三维特征图;
将相同预定视角下相同角度的第一三维特征图和第三三维特征图对比,获得差异值;
若所述差异值小于阈值,则将所述融合人体模型作为虚拟人台。
9.如权利要求8所述的构建方法,其特征在于,若所述差异值超过阈值,则重新获取第一三维特征图并对所述第一三维特征图进行融合。
10.一种虚拟人台的构建***,其特征在于,包括处理器,所述处理器执行如权利要求1-9中任一项所述的虚拟人台的构建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110008383.7A CN112700539A (zh) | 2021-01-05 | 2021-01-05 | 一种虚拟人台的构建方法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110008383.7A CN112700539A (zh) | 2021-01-05 | 2021-01-05 | 一种虚拟人台的构建方法和*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112700539A true CN112700539A (zh) | 2021-04-23 |
Family
ID=75514748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110008383.7A Pending CN112700539A (zh) | 2021-01-05 | 2021-01-05 | 一种虚拟人台的构建方法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112700539A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170140578A1 (en) * | 2014-06-12 | 2017-05-18 | Shenzhen Orbbec Co., Ltd. | Depth camera-based human-body model acquisition method and network virtual fitting system |
CN107230224A (zh) * | 2017-05-19 | 2017-10-03 | 深圳奥比中光科技有限公司 | 三维虚拟服装模型制作方法及装置 |
CN108564612A (zh) * | 2018-03-26 | 2018-09-21 | 广东欧珀移动通信有限公司 | 模型显示方法、装置、存储介质及电子设备 |
CN109801374A (zh) * | 2019-01-14 | 2019-05-24 | 盾钰(上海)互联网科技有限公司 | 一种通过多角度图像集重构三维模型的方法、介质及*** |
CN111783182A (zh) * | 2020-07-07 | 2020-10-16 | 恒信东方文化股份有限公司 | 一种三维虚拟人台的建模方法及*** |
-
2021
- 2021-01-05 CN CN202110008383.7A patent/CN112700539A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170140578A1 (en) * | 2014-06-12 | 2017-05-18 | Shenzhen Orbbec Co., Ltd. | Depth camera-based human-body model acquisition method and network virtual fitting system |
CN107230224A (zh) * | 2017-05-19 | 2017-10-03 | 深圳奥比中光科技有限公司 | 三维虚拟服装模型制作方法及装置 |
CN108564612A (zh) * | 2018-03-26 | 2018-09-21 | 广东欧珀移动通信有限公司 | 模型显示方法、装置、存储介质及电子设备 |
CN109801374A (zh) * | 2019-01-14 | 2019-05-24 | 盾钰(上海)互联网科技有限公司 | 一种通过多角度图像集重构三维模型的方法、介质及*** |
CN111783182A (zh) * | 2020-07-07 | 2020-10-16 | 恒信东方文化股份有限公司 | 一种三维虚拟人台的建模方法及*** |
Non-Patent Citations (1)
Title |
---|
潘博;钟跃崎;: "基于二维图像的三维服装重建", 纺织学报, no. 04, 15 April 2020 (2020-04-15) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
TWI485650B (zh) | 用於多相機校準之方法及配置 | |
US11521311B1 (en) | Collaborative disparity decomposition | |
Scharstein | View synthesis using stereo vision | |
CN105374019B (zh) | 一种多深度图融合方法及装置 | |
US6917702B2 (en) | Calibration of multiple cameras for a turntable-based 3D scanner | |
RU2642167C2 (ru) | Устройство, способ и система для реконструкции 3d-модели объекта | |
Carrera et al. | SLAM-based automatic extrinsic calibration of a multi-camera rig | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
WO2019080229A1 (zh) | 基于机器视觉的棋子定位方法、***、存储介质及机器人 | |
US20130002828A1 (en) | Context and Epsilon Stereo Constrained Correspondence Matching | |
CN106981078B (zh) | 视线校正方法、装置、智能会议终端及存储介质 | |
CN107924571A (zh) | 从点云中对人耳进行三维重建 | |
CN110838164B (zh) | 基于物体点深度的单目图像三维重建方法、***及装置 | |
CN109902675B (zh) | 物体的位姿获取方法、场景重构的方法和装置 | |
CN107590444A (zh) | 静态障碍物的检测方法、装置及存储介质 | |
CN113706373A (zh) | 模型重建方法及相关装置、电子设备和存储介质 | |
JP2008309595A (ja) | オブジェクト認識装置及びそれに用いられるプログラム | |
JP7398819B2 (ja) | 三次元再構成の方法及び装置 | |
Ling et al. | A dense 3D reconstruction approach from uncalibrated video sequences | |
Kochi et al. | 3D modeling of architecture by edge-matching and integrating the point clouds of laser scanner and those of digital camera | |
CN112700539A (zh) | 一种虚拟人台的构建方法和*** | |
Paudel et al. | Localization of 2D cameras in a known environment using direct 2D-3D registration | |
Motai et al. | Concatenate feature extraction for robust 3d elliptic object localization | |
CN116309883B (zh) | 一种3D目标6DoF精确定位方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |