CN112633300B - 一种多维交互的图像特征参数提取匹配方法 - Google Patents

一种多维交互的图像特征参数提取匹配方法 Download PDF

Info

Publication number
CN112633300B
CN112633300B CN202011624298.5A CN202011624298A CN112633300B CN 112633300 B CN112633300 B CN 112633300B CN 202011624298 A CN202011624298 A CN 202011624298A CN 112633300 B CN112633300 B CN 112633300B
Authority
CN
China
Prior art keywords
image
dimensional
points
view
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011624298.5A
Other languages
English (en)
Other versions
CN112633300A (zh
Inventor
毛志杰
周林
陈英梅
董长富
刘中伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202011624298.5A priority Critical patent/CN112633300B/zh
Publication of CN112633300A publication Critical patent/CN112633300A/zh
Application granted granted Critical
Publication of CN112633300B publication Critical patent/CN112633300B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了本发明一种多维交互的图像特征参数提取匹配方法,根据不同位置不同分辨率图像的特征提取与匹配,进而计算得到帧与帧之间相机的相对位姿,以及由特征点三维位置构成的三维稀疏点集,最后将所恢复的三维点集与相机的位姿联合起来进行集束优化调整,能够得到不同位置不同分辨率图像的间的匹配关系。

Description

一种多维交互的图像特征参数提取匹配方法
技术领域
本发明属于图像处理技术领域,具体涉及一种多维交互的图像特征参数提取匹配方法。
背景技术
虚拟现实(Virtual Reality,VR)技术使得人和计算机很好地“融为一体”,打通了人机接口的最后一道屏障,给社会带来了巨大的经济利益、军事价值和社会效益。虚拟实现是利用宽视野立体显示技术,借助实时动作捕捉、跟踪定向技术、触觉、力觉、嗅觉等反馈技术,通过手柄、语音或动作等传达指令来实现虚拟呈现。
增强现实(AugmentedReality,AR)相比VR虚拟现实模块而言,可以使虚拟交互***实现更丰富的互动方式,可以在真实环境中叠加虚拟内容,扩展现实(ExtendedReality,XR)实现在虚拟场景中叠加真实环境,从而赋予***“生命力”,构建出一系列无法在现实中见到的“鲜活”模型和场景。
多维交互分布式***是综合运用平面显示、VR虚拟现实、AR增强现实、MR混合现实、XR扩展现实等技术,结合语音指令、眼睛指令、手势指令、控制手柄等人机交互方式,实现多传感器设备在自然空间、虚拟现实、增强现实、混合现实等空间动态视景交互呈现和实体行为操作,实现基于任务全过程的沉浸式、交互式、灵感式混合呈现和应用体验,是未来实现数字孪生***的现实基础和技术支撑。
在多维交互技术应用过程中,需要不同位置、不同分辨率的多副影像,形成对图的虚拟融合处理和应用。那么,实现不同位置不同分辨率图像的特征提取与匹配,并进而计算得到帧与帧之间相机的相对位姿,以及由特征点三维位置构成的三维稀疏点集,最后将所恢复的三维点集与相机的位姿联合起来进行集束优化调整,为得到精确的三维图像结构奠定基础。
发明内容
本发明的目的是提供一种多维交互的图像特征参数提取匹配方法,能够实现不同位置不同分辨率图像的特征提取与匹配。
本发明所采用的技术方案是,一种多维交互的图像特征参数提取匹配方法,具体按照以下步骤实施:
步骤1、根据设置在三维图像周边不同位姿相机,获取多个角度视图,根据多个角度视图参数、相机内参数,建立三维图像与各视图的关系模型;
步骤2、提取每个角度视图的图像特征矢量,根据任意两个角度视图的图像特征矢量构造图像联合特征矢量;
步骤3、根据图像联合特征矢量构造响应函数,确定选取特征点的移动方向;
步骤4、根据双视图图像特征提取匹配方法,提取任意多个角度视图中双视图特征点,对双视图的图像联合特征矢量进行精确配准,获得标记特征点;
步骤5、结合步骤4标记特征点提取方法以及步骤3确定的移动方向,提取所有三维点在不同图像上的特征点;
步骤6、根据三维图像与各视图的关系模型,求解所有三维点在不同图像上的特征点之间的匹配关系。
本发明的特点还在于:
步骤1中多个角度视图划分为多个双视图,则根据多个角度视图参数、相机内参数,建立三维图像与各视图的关系模型具体过程为:
取双视图为左视图、右视图,投影矩阵分别是P和P',相机内参数矩阵分别是K和K',以左视图为参考视图,则的投影矩阵表示为P=K[I|0],相机光心位置C=0,右视图投影矩阵P'=K'[R|t],相机光心位置C'=-RTt,R表示旋转矩阵,t表示平移向量;
设三维点X在左右视图上的投影点分别为x和x',则齐次坐标表示为:
Figure BDA0002874498130000031
式(1)中,相机光心C'在左视图的投影点是极点e,相机光心C在右视图的投影点是极点e',极点分别与相应的投影点连接形成极线,x和x'对应的极线分别为l和l',根据点在线上建立的数学约束,将两个光心坐标代入式(1),得到:
Figure BDA0002874498130000032
取光心位于投影矩阵的零向量,有PC=0;光心C与x的射线上又一个自由度s,方向由定义
Figure BDA0002874498130000033
其中/>
Figure BDA0002874498130000034
是P矩阵的广义逆,即/>
Figure BDA0002874498130000035
其对应的三维点齐次坐标表示为:
Figure BDA0002874498130000036
对于矩阵P,取
Figure BDA0002874498130000037
由于相机光心C在右视图上的投影为极点e',则P'C=e';
x和x'之间的几何关系为:
Figure BDA0002874498130000038
Figure BDA0002874498130000041
得到x'~sHx+e';
极线l'经过e'和x'关系,即l'=e'×x';
设向量e'的3×3的斜对称矩阵[e'],即
Figure BDA0002874498130000042
[e']的行列式值为0;且[e']是秩为2的退化矩阵;
l'向量叉乘积表示为矩阵乘积:
l'=e'×x'=[e']x' (7)
将x'~sHx+e'和l'=[e']x'联合,得到
l'=[e'])sHx+e')=s[e']Hx (8)
代入到式(7),结合式(5)消去s,得到:
Figure BDA0002874498130000043
得到左视图、右视图上对应点的几何约束关系:
F=[e']H;
该约束关系即为三维图像与各视图的关系模型。
步骤1中多个角度视图为三个视图,则根据多个角度视图参数、相机内参数,建立多维交互视图模型具体过程为:
取三个视图分别为C,C',C”,取空间直线L,则空间直线L在三个视图分别为C,C',C”的投影分别为投影线l,l',l”,每条投影线与空间直线L形成投影面,每条投影线与其相应的反向投影面的关系为:
Figure BDA0002874498130000051
将其中一个平面通过另外两个平面的线性组合,组合的约束关系为:
M=[π,π',π”] (11)
即反向投影面组成的4×3矩阵M的秩为2;
该组合的约束关系即为基于三视图的多维交互视图模型。
步骤2具体过程为:
步骤2.1、假设对于第一幅图像中的像素i构造的图像特征矢量x(i),对于第二幅图像中的相应像素i′构造的图像特征矢量x(i′),则有:
x(i)=[x(i-4),x(i-3),x(i-2),x(i-1),x(i),x(i+1),x(i+2),x(i+3),x(i+4)]T
x(i′)=[x(i′-4),x(i′-3),x(i′-2),x(i′-1),x(i′),x(i′+1),x(i′+2),x(i′+3),x(i′+4)]T其中,x(i)表示像素i的图像特征矢量;
步骤2.2、根据每个视图的图像特征矢量构造图像联合特征矢量:
X(i)=[x(i),x(i′)] (11)。
步骤3具体过程为:
利用图像的角点、边缘和平坦地区的特征,构造响应函数
η(i)=detR(i)-k·traceR2(i) (18)
其中,k是一个常数(0.04~0.06);
设定响应阈值,以像素点i为中心,在像素点i相邻外侧,对像素点i上、下、左、右、斜侧方依次进行标记,计算顺序是先上下左右,最后侧向方向分别计算响应值,跟据响应值与响应阈值的大小关系标记图像上的角点、边缘和平坦地区,标记的方向即为选取特征点时的移动方向。
步骤4具体过程为:
步骤4.1、根据双视图图像特征提取匹配方法,提取任意多个角度视图中双视图特征点,取其中一个图像上的特征点对应的像素点为i,则另外一个图像上相应的特征点为i′,对任意两个图像的图像联合特征矢量通过图像联合相干特征矩阵进行精确配准,图像联合相干特征矩阵表述为:
R(i)=E[X(i)X(i)H] (12)
若图像联合相干特征矩阵中,只有对角块元素非零,其他非对角线元素全为零,则两个图像上的像素i与像素i′能够精确配准,否则不能精确配准;
步骤4.2、提取能够精确配准的像素点作为同一三维点在不同图像上的标记特征点。
步骤6具体过程为:
在所有三维点在不同图像上的特征点中,随机选取一个三维点,并标记在左视图和右视图中的投影分别为x=(x1,x2,x3)T和x'=(x′1,x'2,x'3)T,分别将三维坐标转换为二维坐标为:
Figure BDA0002874498130000061
构造矩阵Q,令Q=(uu',uv',u,vu',vv',v,u',v',1)T,设fij表示矩阵F的第i行第j列的元素,根据三维图像与各视图的关系模型可获得:
Figure BDA0002874498130000062
当Q的秩为8时,f有且仅有一组非零解;
对f的非零解重构得到秩为2的重构矩阵F*,通过目标函数最小化求解参数间的匹配关系,即
Figure BDA0002874498130000071
其中,W表示自适应局部匹配权值;
对F*进行奇异值分解得到F*=UDVT,其中D=diag(α,β,γ)为对角阵且α≥β≥γ,F=Udiag(α,β,γ)VT,即为三维点在双视图上的特征点之间的匹配关系。
自适应局部匹配权值的计算方法为:定义描述局部窗函数内各点对应于中心点相似度的权值,即自适应局部匹配权值W(i),已知参考图像和匹配图像分别为I1(i)和I2(i'),定义像素点i的局部图像参数匹配模型为
Figure BDA0002874498130000072
其中,Wc(i,i'),Wd(i,i')分别是图像之间的关于像素i的颜色相似度系数和深度相似度系数,T表示矩阵转置;像素i的颜色相似度系数为
Figure BDA0002874498130000073
式中I1,c(i)和I2,c(i')分别为参考图像与匹配图像对应像素点的彩色值;
像素i的深度相似度系数为
Figure BDA0002874498130000074
式中,I1,d(i)和I2,d(i')分别表示采集的深度图像经过双线性插值和非局部权值滤波后得到的初始高分辨率深度值。
步骤6具体过程为:在所有三维点在不同图像上的特征点中,随机选取一个三维点,假设点Xj在空间直线L上,根据三视图的多维交互视图模型可知,点Xj与其在三个视图下的xij观测量的关系为:
xij=PiXj,(i=1,2,3)
式中,xij也是Xj在第i个视图下投影,Pi=Ki[Qi|ti]代表第i个视图的投影矩阵,其中,Qi表示在第i视图上的旋转矩阵;
由公式(2)得,相近光心C′,C″相对于C在三维视图上形成极点为[e,e′,e″],重构得到三视图矩阵F*,通过二维最小求解方法求解特征参数,该特征参数即为三维点在三视图上的特征点之间的匹配关系。
本发明有益效果是:
本发明一种多维交互的图像特征参数提取匹配方法,根据不同位置不同分辨率图像的特征提取与匹配,进而计算得到帧与帧之间相机的相对位姿,以及由特征点三维位置构成的三维稀疏点集,最后将所恢复的三维点集与相机的位姿联合起来进行集束优化调整,能够得到不同位置不同分辨率图像的间的匹配关系。
附图说明
图1是本发明中三维点在双视图中的投影几何关系图;
图2是本发明中三维点在三视图中的投影几何关系图;
图3是本发明中图像特征矢量提取示意图;
图4是本发明中两幅图像精确配准示意图;
图5是两幅图像不精确配准示意图;
图6是采用本发明方法进行特征参数提取的图像匹配效果图。
具体实施方式
下面结合具体实施方式对本发明进行详细说明。
本发明一种多维交互的图像特征参数提取匹配方法,可将采集的视图分为多个双视图处理或者多个三视图处理或者两者组合的方式,具体按照以下步骤实施:
步骤1、根据设置在三维图像周边不同位姿相机,获取多个角度视图,根据多个角度视图参数、相机内参数,建立三维图像与各视图的关系模型;
步骤1中多个角度视图划分为多个双视图,如图1所示,则根据多个角度视图参数、相机内参数,建立三维图像与各视图的关系模型具体过程为:
取双视图为左视图、右视图,投影矩阵分别是P和P',相机内参数矩阵分别是K和K',以左视图为参考视图,则的投影矩阵表示为P=K[I|0],相机光心位置C=0,右视图投影矩阵P'=K'[R|t],相机光心位置C'=-RTt,R表示旋转矩阵,t表示平移向量;
设三维点X在左右视图上的投影点分别为x和x',则齐次坐标表示为:
Figure BDA0002874498130000091
式(1)中,相机光心C'在左视图的投影点是极点e,相机光心C在右视图的投影点是极点e',极点分别与相应的投影点连接形成极线,x和x'对应的极线分别为l和l',根据点在线上建立的数学约束,将两个光心坐标代入式(1),得到:
Figure BDA0002874498130000092
考虑图像上的点x所对应的三维点坐标,根据光线的直线传播属性,所有光心C与x的射线上的点,都会成像于x。取光心位于投影矩阵的零向量,有PC=0;光心C与x的射线上又一个自由度s,方向由定义
Figure BDA0002874498130000093
其中/>
Figure BDA0002874498130000094
是P矩阵的广义逆,即/>
Figure BDA0002874498130000095
其对应的三维点齐次坐标表示为:
Figure BDA0002874498130000096
两边乘以矩阵P
Figure BDA0002874498130000097
根据式(4)和投影矩阵的定义,可知上式成立,验证了(1)的正确性。
对于矩阵P,取
Figure BDA0002874498130000105
C=(0,0,0,1)T
由于相机光心C在右视图上的投影为极点e',则P'C=e';
x和x'之间的几何关系为:
Figure BDA0002874498130000101
Figure BDA0002874498130000102
得到x'~sHx+e';
极线l'经过e'和x'关系,即l'=e'×x';
为了算法的一致性,设向量e'的3×3的斜对称矩阵[e'],即
Figure BDA0002874498130000103
容易验证[e']的行列式值为0;且[e']是秩为2的退化矩阵;
l'向量叉乘积表示为矩阵乘积:
l'=e'×x'=[e']x' (7)
将x'~sHx+e'和l'=[e']x'联合,得到
l'=[e'](sHx+e')=s[e']Hx (8)
代入到式(7),结合式(5)消去s,得到:
Figure BDA0002874498130000104
得到左视图、右视图上对应点的几何约束关系:
F=[e']H;
该约束关系即为三维图像与各视图的关系模型。
F矩阵描述了两张图像上对应点的几何约束关系,即x和x'与光心C和C'四点共面。容易证明F的各元素同时乘以一个非零常数,上式仍然成立,且F的秩为2,所以F是自由度为7秩为2的3×3矩阵。
步骤1中多个角度视图为三个视图,如图2所示,则根据多个角度视图参数、相机内参数,建立多维交互视图模型具体过程为:
取三个视图分别为C,C',C”,取空间直线L,则空间直线L在三个视图分别为C,C',C”的投影分别为投影线l,l',l”,每条投影线与空间直线L形成投影面,每条投影线与其相应的反向投影面的关系为:
Figure BDA0002874498130000111
对于三维视图空间多视图场景,投影线l1,l2,l3是空间统一直线L的不同方向的投影,因此,他们各自的反投影平面并不是相互线性独立,也就是说,其中一个平面通过另外两个平面的线性组合,组合的约束关系为:
M=[π,π',π”] (11)
即反向投影面组成的4×3矩阵M的秩为2;
该组合的约束关系即为基于三视图的多维交互视图模型。
步骤2、提取每个角度视图的图像特征矢量,根据任意两个角度视图的图像特征矢量构造图像联合特征矢量;步骤2具体过程为:
步骤2.1、假设对于第一幅图像中的像素i构造的图像特征矢量x(i),如图3所示,图像特征矢量是由一个像素点i及其周边的8个像素构成,对周边8个像素,对于第二幅图像中的相应像素i′构造的图像特征矢量x(i′),则有:
x(i)=[x(i-4),x(i-3),x(i-2),x(i-1),x(i),x(i+1),x(i+2),x(i+3),x(i+4)]T
x(i′)=[x(i′-4),x(i′-3),x(i′-2),x(i′-1),x(i′),x(i′+1),x(i′+2),x(i′+3),x(i′+4)]T其中,x(i)表示像素i的图像特征矢量;
步骤2.2、根据每个视图的图像特征矢量构造图像联合特征矢量:
X(i)=[x(i),x(i′)] (11)。
在图像预处理与特征提取过程中,判断一个像素是否是特征所对应的位置点,一般是根据该对应的像素点构成的自相关矩阵来确定的。对于一个设备上不同位姿的相机,所得的图像画面差别很大,有像素大小的差别,有也正面的、侧面的、广角的图像差别。为了得到融合处理后的图像,需要从不同位姿的图像进行特征提取,当前的许多方法是基于对应像素点构成的自相关矩阵来确定的,由于不同位姿的相机图像的差异,仅仅依靠当前像素点是不够的,有的特征点明晰容易分辨,有的模糊不容易发现,甚至有的特征点已经不能所做特征点,这样为后续处理带来极大的不便。
对于在不同方向、不同分辨率的图像中稳定地提取特征点,特征点需要满足旋转不变形性和尺度不变性。旋转不变性是指,物体发生旋转时,相关的特征仍能被准确地识别。主流的算法是对检测到的特征点周围的图像块计算一个主方向,通过计算特征点周围梯度值最大的点方向作为主方向,或对特征点周围梯度做一次高斯滤波,建立梯度直方图,将梯度直方图的峰值对应主方向,或者求解灰度质心得到主方向。
在理解尺度不变性前,主流方法是采用不同方差的高斯滤波器对图像进行卷积操作,作为图像的尺度空间,即
L(x,x',σ)=Gσ(x,x')*X(x,x')
式中,Gσ(x,x')是方差为σ的零均值高斯函数。σ越大,图像越模糊,因此σ构成了通信的第三维度,称为图像的尺度空间。直观上来讲,σ的值大对应着大尺度、低分辨率、图像粗略的观测;σ的值小对应着小尺度、高分辨率、图像精细的观测。不同分辨率图像提取到的特征是由差异的,所谓尺度不变性,是试图提取到所有分辨率下的特征,这样当对象出现在不同分辨率的通信中时,都有最佳的特征与其匹配。
基于当前特征点,寻找下一个特征点时,是图像连续处理的基础,怎样寻找下一个特征点,在以往的算法中是计算比较当前点与相邻像素点的像素差,大于阈值则认为是下一个候选点,否则该中心非特征点。寻找满足旋转不变性、尺度不变性以及光照变化的特征点,进行特征点的连续提取,满足当前人工智能和深度学习的需求。
在发现特征点的过程中,主要发现的是亮点或者线段,其余是平坦区域。亮点主要是角点,线段就是边缘点,可以把角点和边缘点联系起来分析,即,角点是小的边缘线段的交点,边缘是角点依次相连接所经过的点集合,沿着梯度方向(即垂直边缘的方向)求点的梯度的局部最大值,随后将这些局部最大值所在点依次连接,就形成了边缘。
利用自相干函数可以描述图像特征,其特征值与自相干函数的主曲率成比例,当两个特征值不同方向相差不大时,其局部自相关函数是平面的,则窗口图像区域的强度近似恒定;当其中一个特征值较大,另一个也比较大时,局部自相关函数呈现脊形,则只沿着山脊(即边缘)移动变化不大,这表示边缘;若只有一个特征值都很大,其局部自相关函数急剧达到峰值,这表示为角点。
从图像中稳定地提取特征点,需要准确找到对应的特征点,但是从对于不同方向、不同分辨率的图像提取特征就很困难,为后续工作带来诸多麻烦。考虑到精确提取特征点的困难,我们的方法在对某一像素提取特征信息时,不仅要利用该像素的图像信息,而且还包含其相邻像素对的图像信息。
步骤3、根据图像联合特征矢量构造响应函数,确定选取特征点的移动方向;步骤3具体过程为:
利用图像的角点、边缘和平坦地区的特征,构造响应函数
η(i)=detR(i)-k.traceR2(i) (18)
其中,k是一个常数(0.04~0.06);
设定响应阈值,以像素点i为中心,在像素点i相邻外侧,对像素点i上、下、左、右、斜侧方依次进行标记,计算顺序是先上下,在左右,最后侧向方向分别计算响应值,跟据响应值与响应阈值的大小关系标记图像上的角点、边缘和平坦地区,标记的方向即为选取特征点时的移动方向。
步骤4、根据双视图图像特征提取匹配方法,提取任意多个角度视图中双视图特征点,对双视图的图像联合特征矢量进行精确配准,获得标记特征点;步骤4具体过程为:
步骤4.1、根据双视图图像特征提取匹配方法,提取任意多个角度视图中双视图特征点,取其中一个图像上的特征点对应的像素点为i,则另外一个图像上相应的特征点为i′,对任意两个图像的图像联合特征矢量通过图像联合相干特征矩阵进行精确配准,图像联合相干特征矩阵表述为:
R(i)=E[X(i)X(i)H] (12)
若图像联合相干特征矩阵中,只有对角块元素非零,其他非对角线元素全为零,则两个图像上的像素i与像素i′能够精确配准,否则不能精确配准;
步骤4.2、提取能够精确配准的像素点作为同一三维点在不同图像上的标记特征点。精确配准的结果如图4所示,如果图像没有精确配准,则对角块中的非零元素会扩散到矩阵的其他元素中如图5所示。
由此得知,单像素提取特征信息的结果可知,当只用图像中的单个像素提取特征信息时,如果不能正确判断,其特性信息会丢失;而用一组像素联合处理时,矩阵中相应元素的特征信息就会丢失,但会转移到另一些元素里,从而有可能得到恢复。
步骤5、结合步骤4标记特征点提取方法以及步骤3确定的移动方向,提取所有三维点在不同图像上的特征点;
步骤6、根据三维图像与各视图的关系模型,求解所有三维点在不同图像上的特征点之间的匹配关系。
选用双视图作用投影的状况下:步骤6具体过程为:
在所有三维点在不同图像上的特征点中,随机选取一个三维点,并标记在左视图和右视图中的投影分别为x=(x1,x2,x3)T和x'=(x′1,x'2,x'3)T,分别将三维坐标转换为二维坐标为:
Figure BDA0002874498130000151
构造矩阵Q,令Q=(uu',uv',u,vu',vv',v,u',v',1)T,设fij表示矩阵F的第i行第j列的元素,根据三维图像与各视图的关系模型可获得:
Figure BDA0002874498130000152
当Q的秩为8时,f有且仅有一组非零解;
对f的非零解重构得到秩为2的重构矩阵F*,通过目标函数最小化求解参数间的匹配关系,即
Figure BDA0002874498130000153
其中,W表示自适应局部匹配权值;
利用图像中像素点特征信息,怎样引导图像自适应匹配滤波和参数提取,自适应局部匹配权值的计算方法为:定义描述局部窗函数内各点对应于中心点相似度的权值,即自适应局部匹配权值W(i),已知参考图像和匹配图像分别为I1(i)和I2(i'),定义像素点i的局部图像参数匹配模型为
Figure BDA0002874498130000161
其中,Wc(i,i'),Wd(i,i')分别是图像之间的关于像素i的颜色相似度系数和深度相似度系数,T表示矩阵转置;像素i的颜色相似度系数为
Figure BDA0002874498130000162
式中I1,c(i)和I2,c(i')分别为参考图像与匹配图像对应像素点的彩色值,若两幅图像的颜色相近,则权值较大,它们有相同视差的概率也越大;
像素i的深度相似度系数为
Figure BDA0002874498130000163
式中,I1,d(i)和I2,d(i')分别表示采集的深度图像经过双线性插值和非局部权值滤波后得到的初始高分辨率深度值,两幅图像的深度越相似,权值越大,它们有相同视差的概率也越大。通过计算图像之间局部匹配权值,决定图像匹配方向的选择和特征参数的准确性。
对F*进行奇异值分解得到F*=UDVT,其中D=diag(α,β,γ)为对角阵且α≥β≥γ,F=Udiag(α,β,γ)VT,即为三维点在双视图上的特征点之间的匹配关系。
对于选用三视图作为投影的状况:
步骤6具体过程为:在所有三维点在不同图像上的特征点中,随机选取一个三维点,假设点Xj在空间直线L上,根据三视图的多维交互视图模型可知,点Xj与其在三个视图下的xij观测量的关系为:
xij=PiXj,(i=1,2,3)
式中,xij也是Xj在第i个视图下投影,Pi=Ki[Qi|ti]代表第i个视图的投影矩阵,其中,Qi表示在第i视图上的旋转矩阵;
由公式(2)得,相近光心C′,C″相对于C在三维视图上形成极点为[e,e′,e″],重构得到三视图矩阵F*,通过二维最小求解方法求解特征参数,该特征参数即为三维点在三视图上的特征点之间的匹配关系。
采用本发明的方法对三维图像的双视图进行特征参数提取匹配结果如图6所示。通过上述方式,本发明一种多维交互的图像特征参数提取匹配方法,局部对应像素点加权联合处理,保证了图像中相应像素的特征信息不会丢失,从而有可能得到恢复,在不同图像上的特征建立匹配关系后,经过对自适应局部匹配权值计算并获取像素点移动方向后,实现对特征参数提取,最终得到最佳特征点匹配。

Claims (9)

1.一种多维交互的图像特征参数提取匹配方法,其特征在于,具体按照以下步骤实施:
步骤1、根据设置在三维图像周边不同位姿相机,获取多个角度视图,根据多个角度视图参数、相机内参数,建立三维图像与各视图的关系模型;
步骤2、提取每个角度视图的图像特征矢量,根据任意两个角度视图的图像特征矢量构造图像联合特征矢量;
步骤3、根据图像联合特征矢量构造响应函数,确定选取特征点的移动方向;
步骤4、根据双视图图像特征提取匹配方法,提取任意多个角度视图中双视图特征点,对双视图的图像联合特征矢量进行精确配准,获得标记特征点;
步骤5、结合步骤4标记特征点提取方法以及步骤3确定的移动方向,提取所有三维点在不同图像上的特征点;
步骤6、根据三维图像与各视图的关系模型,求解所有三维点在不同图像上的特征点之间的匹配关系。
2.根据权利要求1所述一种多维交互的图像特征参数提取匹配方法,其特征在于,步骤1中所述多个角度视图划分为多个双视图,则根据多个角度视图参数、相机内参数,建立三维图像与各视图的关系模型具体过程为:
取双视图为左视图、右视图,投影矩阵分别是
Figure QLYQS_3
和/>
Figure QLYQS_4
,相机内参数矩阵分别是/>
Figure QLYQS_6
和/>
Figure QLYQS_1
,以左视图为参考视图,则投影矩阵表示为/>
Figure QLYQS_5
,相机光心位置/>
Figure QLYQS_7
,右视图投影矩阵/>
Figure QLYQS_8
,相机光心位置/>
Figure QLYQS_2
R表示旋转矩阵,t表示平移向量;
设三维点X在左右视图上的投影点分别为x
Figure QLYQS_9
,则齐次坐标表示为:
Figure QLYQS_10
(1)
式(1)中,相机光心
Figure QLYQS_11
在左视图的投影点是极点e,相机光心C在右视图的投影点是极点
Figure QLYQS_12
,极点分别与相应的投影点连接形成极线,x和/>
Figure QLYQS_13
对应的极线分别为l和/>
Figure QLYQS_14
,根据点在线上建立的数学约束,将两个光心坐标代入式(1),得到:
Figure QLYQS_15
.(2)
取光心位于投影矩阵的零向量,有PC=0;相机光心Cx的射线上一个自由度s,方向由定义
Figure QLYQS_16
的投影矩阵的法线确定,其中/>
Figure QLYQS_17
P矩阵的广义逆即/>
Figure QLYQS_18
,其对应的三维点齐次坐标表示为:
Figure QLYQS_19
(3)
对于矩阵P,取
Figure QLYQS_20
由于相机光心C在右视图上的投影为极点
Figure QLYQS_21
,则/>
Figure QLYQS_22
Figure QLYQS_23
和/>
Figure QLYQS_24
之间的几何关系为:
Figure QLYQS_25
(5)
Figure QLYQS_26
,得到/>
Figure QLYQS_27
极线
Figure QLYQS_28
与/>
Figure QLYQS_29
和/>
Figure QLYQS_30
关系表示为,/>
Figure QLYQS_31
设向量
Figure QLYQS_32
的/>
Figure QLYQS_33
的斜对称矩阵/>
Figure QLYQS_34
,即
Figure QLYQS_35
.(6)
Figure QLYQS_36
的行列式值为0;且/>
Figure QLYQS_37
是秩为2的退化矩阵;
Figure QLYQS_38
向量由矩阵/>
Figure QLYQS_39
和/>
Figure QLYQS_40
叉乘得到:
Figure QLYQS_41
(7)
Figure QLYQS_42
和/>
Figure QLYQS_43
联合,得到
Figure QLYQS_44
(8)
代入到式(7),结合式(5)消去s,得到:
Figure QLYQS_45
(9)
得到左视图、右视图上对应点的几何约束关系:
Figure QLYQS_46
该约束关系即为三维图像与各视图的关系模型。
3.根据权利要求1所述一种多维交互的图像特征参数提取匹配方法,其特征在于,步骤1中所述获取多个角度视图,根据多个角度视图参数、相机内参数,建立三维图像与各视图的关系模型具体过程为:
取三个视图分别为
Figure QLYQS_47
,取空间直线L,则空间直线L在三个视图分别为/>
Figure QLYQS_48
的投影分别为投影线/>
Figure QLYQS_49
,每条投影线与空间直线L形成投影面,每条投影线与其相应的反向投影面的关系为:
Figure QLYQS_50
(10)
将其中一个平面通过另外两个平面的线性组合,组合的约束关系为:
Figure QLYQS_51
(11)
即反向投影面组成的4×3矩阵M的秩为2;该组合的约束关系即为三维图像与各视图的关系模型。
4.根据权利要求2或3所述一种多维交互的图像特征参数提取匹配方法,其特征在于,步骤2具体过程为:
步骤2.1、假设对于第一幅图像中的像素i构造的图像特征矢量xi),对于第二幅图像中的相应像素
Figure QLYQS_52
构造的图像特征矢量/>
Figure QLYQS_53
,则有:
Figure QLYQS_54
Figure QLYQS_55
其中,xi)表示像素i的图像特征矢量;
步骤2.2、根据每个视图的图像特征矢量构造图像联合特征矢量:
Figure QLYQS_56
(11)。
5.根据权利要求1所述一种多维交互的图像特征参数提取匹配方法,其特征在于,步骤3具体过程为:
利用图像的角点、边缘和平坦地区的特征,构造响应函数
Figure QLYQS_57
(18)
其中,
Figure QLYQS_58
是取值范围为0.04~0.06;
设定响应阈值,以像素点
Figure QLYQS_59
为中心,在像素点i相邻外侧,对像素点i上、下、左、右、斜侧方依次进行标记,计算顺序是先上下,再左右,最后斜侧方分别计算响应值,根据响应值与响应阈值的大小关系标记图像上的角点、边缘和平坦地区,标记的方向即为选取特征点时的移动方向。
6.根据权利要求4所述一种多维交互的图像特征参数提取匹配方法,其特征在于,步骤4具体过程为:
步骤4.1、根据双视图图像特征提取匹配方法,提取任意多个角度视图中双视图特征点,取其中一个图像上的特征点对应的像素点为i,则另外一个图像上相应的特征点为
Figure QLYQS_60
,对任意两个图像的图像联合特征矢量通过图像联合相干特征矩阵进行精确配准,图像联合相干特征矩阵表述为:
Figure QLYQS_61
(12)
若图像联合相干特征矩阵中,只有对角块元素非零,其他非对角线元素全为零,则两个图像上的像素i与像素
Figure QLYQS_62
能够精确配准,否则不能精确配准;
步骤4.2、提取能够精确配准的像素点作为同一三维点在不同图像上的标记特征点。
7.根据权利要求2所述一种多维交互的图像特征参数提取匹配方法,其特征在于,步骤6具体过程为:
在所有三维点在不同图像上的特征点中,随机选取一个三维点,并标记在左视图和右视图中的投影分别为
Figure QLYQS_63
和/>
Figure QLYQS_64
,分别将三维坐标转换为二维坐标为:
Figure QLYQS_65
(19)
构造矩阵Q,令
Figure QLYQS_66
,设/>
Figure QLYQS_67
表示矩阵F的第i行第j列的元素,根据三维图像与各视图的关系模型可获得:
Figure QLYQS_68
.
Q的秩为8时,f有且仅有一组非零解;
f的非零解重构得到秩为2的重构矩阵
Figure QLYQS_69
,通过目标函数最小化求解参数间的匹配关系,即
Figure QLYQS_70
(20)
其中,W表示自适应局部匹配权值;
Figure QLYQS_71
进行奇异值分解得到/>
Figure QLYQS_72
,其中/>
Figure QLYQS_73
为对角阵且/>
Figure QLYQS_74
Figure QLYQS_75
,即为三维点在双视图上的特征点之间的匹配关系。
8.根据权利要求7所述一种多维交互的图像特征参数提取匹配方法,其特征在于,所述自适应局部匹配权值的计算方法为:定义描述局部窗函数内各点对应于中心点相似度的权值,即自适应局部匹配权值
Figure QLYQS_76
,已知参考图像和匹配图像分别为/>
Figure QLYQS_77
和/>
Figure QLYQS_78
,定义像素点i的局部图像参数匹配模型为
Figure QLYQS_79
(15)
其中,
Figure QLYQS_80
,/>
Figure QLYQS_81
分别是图像之间的关于像素i的颜色相似度系数和深度相似度系数,T表示矩阵转置;像素i的颜色相似度系数为
Figure QLYQS_82
(16)
式中
Figure QLYQS_83
和/>
Figure QLYQS_84
分别为参考图像与匹配图像对应像素点的彩色值;
像素i的深度相似度系数为
Figure QLYQS_85
(17)
式中,
Figure QLYQS_86
和/>
Figure QLYQS_87
分别表示采集的深度图像经过双线性插值和非局部权值滤波后得到的初始高分辨率深度值。
9.根据权利要求3所述一种多维交互的图像特征参数提取匹配方法,其特征在于,步骤6具体过程为:在所有三维点在不同图像上的特征点中,随机选取一个三维点,假设点X j在空间直线L上,根据三视图的多维交互视图模型可知,点X j与其在三个视图下的x ij观测量的关系为:
Figure QLYQS_88
式中,x ij也是Xj在第i个视图下投影,
Figure QLYQS_89
代表第i个视图的投影矩阵,其中,
Figure QLYQS_90
表示在第i视图上的旋转矩阵;
由公式(2)得,相机光心
Figure QLYQS_91
相对于C在三维视图上形成极点为/>
Figure QLYQS_92
,重构得到三视图矩阵/>
Figure QLYQS_93
,通过二维最小求解方法求解特征参数,该特征参数即为三维点在三视图上的特征点之间的匹配关系。
CN202011624298.5A 2020-12-30 2020-12-30 一种多维交互的图像特征参数提取匹配方法 Active CN112633300B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011624298.5A CN112633300B (zh) 2020-12-30 2020-12-30 一种多维交互的图像特征参数提取匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011624298.5A CN112633300B (zh) 2020-12-30 2020-12-30 一种多维交互的图像特征参数提取匹配方法

Publications (2)

Publication Number Publication Date
CN112633300A CN112633300A (zh) 2021-04-09
CN112633300B true CN112633300B (zh) 2023-06-20

Family

ID=75289690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011624298.5A Active CN112633300B (zh) 2020-12-30 2020-12-30 一种多维交互的图像特征参数提取匹配方法

Country Status (1)

Country Link
CN (1) CN112633300B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9460336B2 (en) * 2011-01-13 2016-10-04 Samsung Electronics Co., Ltd. Apparatus and method for extracting feature of depth image
CN110266926A (zh) * 2019-06-28 2019-09-20 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端以及存储介质
CN110298884A (zh) * 2019-05-27 2019-10-01 重庆高开清芯科技产业发展有限公司 一种适于动态环境中单目视觉相机的位姿估计方法
CN111797269A (zh) * 2020-07-21 2020-10-20 天津理工大学 基于多级视图关联卷积网络的多视图三维模型检索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9460336B2 (en) * 2011-01-13 2016-10-04 Samsung Electronics Co., Ltd. Apparatus and method for extracting feature of depth image
CN110298884A (zh) * 2019-05-27 2019-10-01 重庆高开清芯科技产业发展有限公司 一种适于动态环境中单目视觉相机的位姿估计方法
CN110266926A (zh) * 2019-06-28 2019-09-20 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端以及存储介质
CN111797269A (zh) * 2020-07-21 2020-10-20 天津理工大学 基于多级视图关联卷积网络的多视图三维模型检索方法

Also Published As

Publication number Publication date
CN112633300A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN108416840A (zh) 一种基于单目相机的三维场景稠密重建方法
Tian et al. Depth estimation using a self-supervised network based on cross-layer feature fusion and the quadtree constraint
CN107204010A (zh) 一种单目图像深度估计方法与***
CN106462943A (zh) 将全景成像与航拍成像对齐
JP2023545190A (ja) 画像の視線補正方法、装置、電子機器、及びコンピュータプログラム
CN114429555A (zh) 由粗到细的图像稠密匹配方法、***、设备及存储介质
Shi et al. Geometry-guided street-view panorama synthesis from satellite imagery
da Silveira et al. Dense 3d scene reconstruction from multiple spherical images for 3-dof+ vr applications
CN112330813A (zh) 一种基于单目深度摄像头的着装下三维人体模型重建方法
CN109613974A (zh) 一种大场景下的ar家居体验方法
Wan et al. Drone image stitching using local mesh-based bundle adjustment and shape-preserving transform
CN117036612A (zh) 一种基于神经辐射场的三维重建方法
CN117095128A (zh) 一种无先验多视角人体服饰编辑方法
CN114494594A (zh) 基于深度学习的航天员操作设备状态识别方法
Khan et al. Towards monocular neural facial depth estimation: Past, present, and future
CN112633300B (zh) 一种多维交互的图像特征参数提取匹配方法
CN112116653B (zh) 一种多张rgb图片的物体姿态估计方法
CN115482481A (zh) 单视角三维人体骨骼关键点检测方法、装置、设备及介质
Chen et al. End-to-end multi-view structure-from-motion with hypercorrelation volume
CN115272450A (zh) 一种基于全景分割的目标定位方法
Liu et al. Binocular depth estimation using convolutional neural network with Siamese branches
Aleksandrova et al. 3D face model reconstructing from its 2D images using neural networks
Dai Modeling and simulation of athlete’s error motion recognition based on computer vision
Yan et al. Generating stereoscopic images with convergence control ability from a light field image pair
CN117315152B (zh) 双目立体成像方法及其***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant