CN108682026B - 一种基于多匹配基元融合的双目视觉立体匹配方法 - Google Patents

一种基于多匹配基元融合的双目视觉立体匹配方法 Download PDF

Info

Publication number
CN108682026B
CN108682026B CN201810249294.XA CN201810249294A CN108682026B CN 108682026 B CN108682026 B CN 108682026B CN 201810249294 A CN201810249294 A CN 201810249294A CN 108682026 B CN108682026 B CN 108682026B
Authority
CN
China
Prior art keywords
window
matching
pixel
algorithm
adaptive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810249294.XA
Other languages
English (en)
Other versions
CN108682026A (zh
Inventor
孙福明
杜仁鹏
蔡希彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Applied Technology Co Ltd
Original Assignee
Jiang Dabai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiang Dabai filed Critical Jiang Dabai
Priority to CN201810249294.XA priority Critical patent/CN108682026B/zh
Publication of CN108682026A publication Critical patent/CN108682026A/zh
Application granted granted Critical
Publication of CN108682026B publication Critical patent/CN108682026B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

双目视觉基于多匹配基元融合的立体匹配方法包括计算机、二个摄像机和多匹配基元融合的立体匹配方法。摄像机选用ZED双目摄像机。多匹配基元融合的立体匹配方法包含三个阶段:初始匹配代价阶段、代价函数聚合阶段和视差后处理阶段。在初始匹配代价阶段中,设计了包含颜色基元与梯度基元相融合的代价函数,其通过卡尔曼系数α进行自适应调节;在代价函数聚合阶段基于RGB颜色及距离关系设计了自适应匹配窗口,通过窗口内参考图像与代价函数之间相关性进行聚合;最后阶段,通过LRC左右一致性以及基于亚像素级别自适应权重中值滤波进行视差后处理。本发明对比经典自适应权重算法提高了算法的准确性与实时性,并在复杂的区域表现了较高的鲁棒性。

Description

一种基于多匹配基元融合的双目视觉立体匹配方法
技术领域
本发明涉及一种基于多匹配基元融合的双目视觉立体匹配方法,可广泛应用于无人驾驶及机器人导航等技术领域。
背景技术
立体匹配作为双目视觉中的核心技术广泛应用于无人驾驶及机器人导航等领域。其基本原理是通过双目相机获取场景的二维图,经匹配算法获取待匹配点的视差,进而获取场景的深度信息。立体匹配算法由于其高准确度特性受到学者的广泛关注。然而,由于自然场景中纹理的复杂性及场景深度的不连续性,一直制约着立体匹配算法的实际应用。
目前主流的立体匹配算法可分为基于全局的立体匹配算法与基于局部的立体匹配算法。基于全局的立体匹配方法,由于涉及到能量函数的运算,计算复杂、效率低,难以满足实际需求。基于局部的立体匹配方法,在代价函数聚合阶段只对局部数据项进行操作,实时性高,但准确率相对较低,直到Yoon提出经典自适应支持权重算法(ASW),其准确度得到质的提高,但由于其窗口固定,并不能反映图像的特征及纹理信息。
局部立体匹配算法根据匹配基元的不同,又可细分为基于区域、基于特征以及基于相位的立体匹配方法。自适应支持权重方法由于匹配基元单一而且窗口固定,导致算法在复杂纹理区域准确度较低,并且由于复杂的权值计算导致算法实时性低。
针对经典算法出现的问题,一些学者基于梯度及或颜色等多种匹配基元信息来表述图像的初始匹配代价,使得算法准确度得到了进一步的提高。然而,并没有摒弃复杂的权值计算,使得该算法的实时性仍较低且鲁棒性弱。
Lin等人使用线性函数来拟合原算法中的高斯权值函数,对原图像下采样得到高斯金字塔样本,并采用层次聚类算法计算代价聚合函数,在提高算法实时性的同时又提高了算法的准确度。但是,由于受到采样次数限制,采样后的图像过于模糊,导致该算法鲁棒性较差。
一直以来,研究人员都对自适应窗口进行了研究,并通过利用参考图像与待匹配图像自适应窗口的重合度来摒弃一些明显错误的视差值,在代价聚合阶段摒弃了复杂权值的运算。但是,由于没有考虑到参考图像与匹配代价函数之间的相关性,这使得该算法的准确度并不优于经典算法。
针对以上问题,为提高算法在实际场景应用中的鲁棒性,本发明在初始匹配代价阶段,将颜色匹配基元与梯度匹配基元相融合,并利用Middlebury平台符合自然场景条件的Cones图像对颜色与梯度匹配基元的比例系数α进行自适应调节;在代价函数聚合阶段,首先针对传统方法中固定窗口导致算法在复杂纹理条件下准确度低的问题,根据像素间的颜色信息与空间距离信息对中心像素点进行扩展,然后采用初始匹配代价函数和参考图像像素之间的相关性计算来代替传统的复杂能量函数和权值运算进行代价聚合,不仅提高了算法的准确度,同时也降低了算法的时间复杂度;最后,对所得视差图采取LRC左右一致性检测以及采用一种基于亚像素级自适应权重中值滤波运算,再次提高了算法的准确度。
发明内容
本发明的目的,是针对现有技术存在的问题而提供一种双目视觉基于多匹配基元融合的立体匹配方法,采用本发明的方法所得到的视差图的平均误匹配率得到了极大的改善,图像,清晰而精确,大幅度提高了机器人或无人驾驶机运行轨迹的精度。
采用的技术方案是:
一种双目视觉基于多匹配基元融合的立体匹配方法,包括计算机、二个摄像机和多匹配基元融合的立体匹配方法,其特征在于:
所述二个摄像机选用Astrolabes公司生产的ZED双目摄像机,并对ZED双目摄像机作如下设置:
1)图像采集:
通过下载ZED SDK以及CUDA,并通过USB3.0接口连接电脑。通过MATLAB内webcam函数连接ZED双目相机,并通过snapshot函数进行图片采集;
2)相机标定:
相机标定的目的,旨在获取准确摄像机内外参数。内参数主要包括左右镜头的焦距,基线距离;外参数主要包括两摄像机相对于世界坐标系的旋转矩阵,以及左右相机的相对平移矩阵。本发明从官方手册获得摄像机的默认内外参数;
3)图像参数设定:
通过标定参数进行极线校正使得采集到的左右图像满足极线约束条件。并通过ZED SDK内嵌ZED Explorer.exe插件进行参数的重设定;
4)立体匹配:
立体匹配作为双目视觉***的核心部分。立体匹配的目的在于对采集到的左右图像进行成像点匹配,通过匹配点得到视差值,并获得场景的深度信息。
ZED双目摄像机不仅可以获取高质量的图像信息,而且具有体积小,功耗低的优点。特别是由于内嵌了ZED SDK函数库以及CUDA并行处理,大大降低了***的处理时间。ZED双目摄像机可以装设在机器人或无人驾驶机上。双目摄取的实际场景,经多匹配基元融合的立体匹配处理,能达到真实场景的目的,再通过设置在机器人或无人驾驶机上的计算机处理,向机器人或无人驾驶机控制与驱动***发出导航指令;或是通过设置在机器人或无人驾驶机外部计算机,经过局域网、以太网或是导线与计算机连接,经计算机处理,向机器人或无人驾驶机控制与驱动***发出导航指令。大幅度提高了机器人或无人驾驶机运行轨迹的精度。
所述多匹配基元融合的立体匹配模块方法,包括下述过程:
本发明采用改进的ASW立体匹配方法。
目前已知的ASW立体匹配算法是:
在立体匹配算法中,一般默认两幅图像满足极线约束条件,即左右图像对应的匹配点处于两幅图像的同一行位置。ASW算法的核心在于使用支持权重来测量图像像素之间的相似性时,仅当相邻像素来自相同深度时,这些相邻像素的支持才是有效的,它具有与待匹配像素相同的视差。因此,窗口周围像素的支持权重w与窗口视差概率Pr成比例,如公式(1)所示:
w(p,q)∝Pr(dp=dq) (1)
其中,p为待匹配像素,q为窗口内除待匹配像素外的其它像素,d为所求视差。w(p,q)与图像的颜色和距离相关,如公式(2)所示:
w(p,q)=k·f(Δcpq,Δgpq) (2)
其中,Δcpq,Δgpq分别代表p和q两点分别在LAB颜色空间和几何空间上的距离,k为比例系数,具体数值通过实验获得,f为拉普拉斯核函数,二者相互独立,如公式(3)所示:
f(Δcpq,Δgpq)=f(Δcpq)·f(Δgpq) (3)
其中Δcpq,Δgpq计算如公式(4)(5)所示:
Figure GDA0003001593790000031
Figure GDA0003001593790000032
cp=|Lp,ap,bp|,cq=|Lq,aq,bq|为Lab三通道颜色空间色度值,Lab颜色空间中的L分量用于表示像素的亮度,取值范围是[0,100],表示从纯黑到纯白;a表示从红色到绿色的范围,取值范围是[127,-128];b表示从黄色到蓝色的范围,取值范围是[127,-128]。(px,py)与(qx,qy)为几何空间的坐标值。使用拉普拉斯核函数定义分组强度,如公式(6)(7)所示。
Figure GDA0003001593790000033
Figure GDA0003001593790000034
γc,γp通过实验获得取γc=7,γp=36
(取值一般与窗口大小相关)。之后利用公式(8)进行代价聚合。
Figure GDA0003001593790000035
其中初始匹配代价
Figure GDA0003001593790000036
如公式(9)所示:
Figure GDA0003001593790000037
Ic(q)与
Figure GDA0003001593790000038
为参考图像与待匹配图像固定窗口内视差为d的两像素的灰度值。最后通过WTA(Winner-Takes-All)方法确定最终的视差图。
本发明采用改进的ASW匹配方法主要包括:左右参考图像读入阶段、左右初始匹配代价阶段、左右代价函数聚合阶段和视差后处理4个阶段,所述视差后处理4个阶段,主要包含LRC左右一致性检测与滤波运算。其中:
一、初始匹配代价计算是:
ASW算法利用图像的灰度信息作为匹配代价计算的基元。本发明通过对梯度基元和R、G、B三通道颜色基元的均值设置截断阈值,并通过卡尔曼滤波的思想融合像素的R、G、B颜色与梯度信息,通过控制系数α进行自适应调节从而做出改进。具体过程如下:
(1)分别设置颜色和梯度阈值t1、t2,计算初始代价eg,ec,如公式(10)(11)所示。
Figure GDA0003001593790000041
Figure GDA0003001593790000042
(2)自适应调节α系数计算最终的初始匹配代价,最终的初始匹配代价如公式(12)所示。
Figure GDA0003001593790000043
二、改进的自适应窗口扩展算法:
传统的ASW匹配算法由于窗口固定,在处理复杂纹理区域时鲁棒性较差。本发明根据像素间的颜色与空间距离采用自适应窗口方法。已知待匹配的中心像素点p(x,y),在x和y方向上各邻域像素点分别为p(x-1,y),p(x+1,y)和p(x,y-1),p(x,y+1)。不同于传统的自适应窗口扩展方法以中心像素点灰度信息进行像素扩展,本发明以中心点R,G,B作为扩展基元,当邻域像素与中心像素点三通道信息同时满足如下公式(13)条件进行窗口扩张。
Ir,g,b(x,y)-Ir,g,b(x-1,y)<t (13)
t为预设颜色阈值,且t∈(0,1)。当图像中由于不连续的纹理而导致同一区域像素跳变时,很难使邻域像素三通道像素信息同时满足公式(13)。基于此特性,本发明对传统的固定窗口做出改进。在邻域像素在满足公式(13)条件下进行窗口自适应扩张时,若场景中存在纹理重复区域导致窗口过大使得代价聚合时计算过于复杂,这不符合算法的实时性要求。本发明根据图像几何特性对自适应窗口设置截断臂长。当满足如下公式(14)时对窗口臂长进行截断。
Figure GDA0003001593790000044
其中,p(x),p(y)为中心像素的横纵坐标值,q(x),q(y)为邻域像素的坐标值。通过对middlebury平台下tsukuba,teddy,cones,venus四张测试图像实验设置最小臂长Lmin=5,阈值Lmax=11。
自适应窗口,如图3图所示。首先,对中心像素I(x,y)进行横向扩张,若最终的窗口臂长小于最短臂长,用最小臂长Lmin代替原长度。在窗口扩张过程中,当邻域像素与中心像素空间距离大于截断阈值时,截断窗口。最后结果如图4图所示,以中心点为参考,上下左右四个不同长度臂长Lu,Ld,Ll,Lr。本发明对自适应窗口的行列大小取值分别如下公式(15)、(16)所示:
Rows=Lu+Ld (15)
Cows=Ll+Lr (16)
三、匹配代价聚合算法:
在计算完初始匹配代价之后,进行代价函数聚合,不同于经典算法复杂的权重运算。本发明通过代价函数与参考图像的相关性以及参考图像自身的相关性,对参考图像自适应窗口内方差以及参考图像与代价函数协方差进行计算,得出其相关函数,并用初始匹配代价函数减去相关函数之后进行代价聚合,大大挺高了算法的准确性与实时性。具体过程如下:
首先,计算匹配窗口内待匹配像素的R、G、B三通道像素值与匹配代价函数卷积的均值,如公式(17)所示。
Figure GDA0003001593790000051
其中,p为窗口中心点像素坐标,I(x,y)为窗口内包括中心点各像素坐标,I(x,y)为自适应窗口,n为窗口内像素总数。在计算完各通道卷积函数的均值后,计算其协方差函数,如公式(18)所示:
Figure GDA0003001593790000052
上式中,mc,me分别为自适应窗口内三通道元素与匹配代价函数的均值,具体公式如下公式(19)、(20)所示:
Figure GDA0003001593790000053
Figure GDA0003001593790000054
然后,计算参考图像自适应窗口内三通道元素组成的方差矩阵θ,具体描述如下公式(21)所示。
Figure GDA0003001593790000055
其中,矩阵θ各元素计算如公式(22)所示:
Figure GDA0003001593790000061
通过式(17)-(20)可得系数矩阵如公式(23)所示:
Figure GDA0003001593790000062
由于vce(c∈{r,g,b})为1*3的向量,可得γkn的值包含三通道的向量。当计算完相关系数γkn之后,通过各点代价函数的均值减去参考图像三通道像素与相关系数的卷积,使得左右两幅图像的匹配代价更加独立。最终,初始代价函数如下公式(24)所示:
Figure GDA0003001593790000063
由于γkn为三通道向量,因此n∈(1,2,3)。在计算完最终的匹配代价之后,通过自适应窗口进行匹配代价聚合,具体公式如公式(25)所示。
Figure GDA0003001593790000064
本发明只对参考图像基础上进行聚合,
并没有加入待匹配图像。实验结果表明在提高算法实时性的同时并没有降低其准确度。最后采用公式(26),通过WTA(Winner-Takes-A11)算法选取代价函数最小时的视差值为视差图的像素值。
Figure GDA0003001593790000065
四、视差后处理
1,LRC左右一致性检测
在立体匹配算法中,由于左右图像存在视差,遮挡问题一直不可避免。在获得最终视差图之前,本发明首先采用LRC左右一致性算法进行视差后处理运算。
在以左图像为参考图像时计算得到视差dl,以右图像为参考图像得到视差dr。当满足如下公式(27)条件:
|dl-dr|>δ (27)
δ为阈值,δ∈(0,1)。本发明中δ取值为1。当满足左右视差差的绝对值大于δ,则认为是遮挡点。对遮挡点取左右视差中较小的视差值进行视差填充。
2,自适应权重中值滤波
在进行代价聚合算法之后,得到的视差图往往存在较多的椒盐噪声,有必要对图像进行中值滤波。然而传统的滤波往往忽视了像素之间的相关性。本发明基于空间内像素之间颜色与距离的差异对窗口内像素赋予不同的权值,具体权值运算如公式(28)所示。
Figure GDA0003001593790000071
γc,γd为常数,通过试验获得γc=0.1,γd=9。k1,k2由中心像素与周围像素点在颜色空间与距离空间的差异得出,
分别由下式(29)和(30)获得。
Figure GDA0003001593790000072
Figure GDA0003001593790000073
窗口大小为19*19。在获得窗口内各像素的权值之后进行自适应中值滤波。具体过程如下:
(1)对窗口内除中心点外的各像素灰度值与各自的权值相乘,得到新的灰度值,利用式(31)计算获得。
I′(q)=w·I(q) (31)
(2)对窗口内包括中心点在内的各像素的新值进行排序,取位于中值附近最接近中心点的2个像素值I′(q1),I′(q2),取其均值得到新的亚像素级别灰度值代替原中心点像素的灰度值,由式(32)计算获得。
Figure GDA0003001593790000074
五、算法描述
算法的详细执行过程如表1所述。 表1
Figure GDA0003001593790000075
六、实验结果
本发明算法实验环境为Intel core i7-6700 3.5HZ CPU,12G内存,Matlab2016a平台。为了验证本发明所提算法的有效性,本发明首先在middlebury平台下对比了经典的自适应权重算法的视差图,如图6是Cones图像误匹配率对比图中的全部区域与深度不连续区域误匹配率对比视图。
实验中自适应窗口最大最小臂长分别为Lmin=5,Lmax=11,最小梯度与颜色阈值分别为t1=2,t2=7,卡尔曼系数α=0.11。自适应权值滤波权值系数γc=0.1,γd=9,窗口为19*19。本发明对所得视差图在middlebury平台下三个测试指标:nonocc(非遮挡区域误匹配率),all(所有区域误匹配率),disc(深度不连续区域误匹配率)测试,对比了传统的自适应立体匹配算法以及De-Maeztu基于梯度的ASW改进算法,具体对比如下表2所示。
表2.匹配算法评估表(单位:%)
Figure GDA0003001593790000081
从表1可以看出对比经典的自适应权重及其改进算法,本发明使用基于多匹配基元融合的立体匹配算法在Venus,Teddy,Cones图像下,无论是在所有区域,非遮挡区域还是深度不连续区域场景下,本发明算法都有明显的优势。在光线较暗的Tsukuba图像下,在非遮挡区域,亦有一定的提升。对比基于单梯度基元的GradAdaptWgt算法,Tsukuba,Venus,Teddy在所有区域的误匹配率更低,且Cones图像的误匹配率与原GradAdaptWgt算法相当。本发明算法在middleb ury平台下进行平均误匹配率对比如表3所示,取得了相当可观的效果。
表3.平均误匹配率对比
Figure GDA0003001593790000082
为提升算法的鲁棒性,本发明对比了颜色与梯度信息的卡尔曼系数比。选取符合自然场景下的Cones图像作对比,在不同的α系数下nonocc,all,disc各匹配条件误匹配率对比,其中α∈(0.11∶0.02∶0.29)。
由上图结果可得,为实现立体匹配算法鲁棒性要求,我们在实际应用中将α的值设为0.23。而且相对于经典的自适应支持权重算法,本发明摒弃了复杂权重的运算,大大提高了算法的实时性。在时间复杂度上本发明对比了经典自适应支持权重算法如表4所示。
表4.本发明算法与经典ASW算法时间复杂度对比(单位:ms)
Figure GDA0003001593790000091
实验结果显示本发明算法大大降低了算法的时间复杂度。
本发明优点:
本发明通过融合颜色匹配基元与梯度匹配基元,并引入代价函数与参考图像相关性,提出了一种新颖的基于多匹配基元立体匹配方法。算法大大提升无人驾驶条件下场景信息的准确度,为获得更精确的深度图做出贡献,并且大大降低了算法时间复杂度,为无人驾驶的实际应用提供了理论依据。更进一步提高机器人或无人机的导航精度。
附图说明
图1是经过标定及图像设定之后zed双目相机采集的左右图像。
图2是改进的ASW算法流程图。
图3是自适应窗口图中的横向扩张图。
图4是自适应窗口图中的窗口扩展最终效果图。
图5是Cones图像误匹配率对比图中的非遮挡区域误匹配率视图。
图6是Cones图像误匹配率对比图中的全部区域与深度不连续区域误匹配率对比视图。
具体实施方式
一种双目视觉基于多匹配基元融合的立体匹配方法,包括计算机、二个摄像机和多匹配基元融合的立体匹配方法,其特征在于:
1、摄像机选用Astrolabes公司生产的ZED双目摄像机。
ZED双目摄像机采集的视频流分辨率分四类,
具体参数如下表1所示:
表1:ZED输出视频流模式
Figure GDA0003001593790000092
Figure GDA0003001593790000101
2、图像采集:
通过下载ZED SDK以及CUDA,并通过USB 3.0接口连接电脑。通过MATLAB内webcam函数连接ZED双目相机,并通过snapshot函数进行图片采集;
3、相机标定:
相机标定的目的,旨在获取准确摄像机内外参数。内参数主要包括左右镜头的焦距,基线距离;外参数主要包括两摄像机相对于世界坐标系的旋转矩阵,以及左右相机的相对平移矩阵。本发明从官方手册获得摄像机的默认内外参数;
4、图像参数设定:
通过标定参数进行极线校正使得采集到的左右图像满足极线约束条件。并通过ZED SDK内嵌ZED Explorer.exe插件进行参数的重设定;
5、立体匹配:
立体匹配作为双目视觉***的核心部分。立体匹配的目的在于对采集到的左右图像进行成像点匹配,通过匹配点得到视差值,并获得场景的深度信息。
ZED双目摄像机可以装设在机器人或无人驾驶机上。双目摄取的实际场景,经多匹配基元融合的立体匹配处理,能达到真实场景的目的,再通过设置在机器人或无人驾驶机上的计算机处理,向机器人或无人驾驶机控制与驱动***发出导航指令。
所述多匹配基元融合的立体匹配方法,包括下述过程:
采用改进的本发明采用改进的ASW匹配方法:
本发明提出的改进ASW算法流程,主要包括:左右参考图像读入阶段、左右初始匹配代价阶段、左右代价函数聚合阶段和视差后处理4个阶段,所述视差后处理4个阶段,主要包含LRC左右一致性检测与滤波运算。其中:
一、初始匹配代价计算是:
ASW算法利用图像的灰度信息作为匹配代价计算的基元。本发明通过对梯度基元和R、G、B三通道颜色基元的均值设置截断阈值,并通过卡尔曼滤波的思想融合像素的R、G、B颜色与梯度信息,通过控制系数α进行自适应调节从而做出改进。具体过程如下:
(1)分别设置颜色和梯度阈值t1、t2,计算初始代价eg,ec,如公式(10)(11)所示。
Figure GDA0003001593790000102
Figure GDA0003001593790000103
(2)自适应调节α系数计算最终的初始匹配代价,最终的初始匹配代价如公式(12)所示。
Figure GDA0003001593790000104
二、改进的自适应窗口扩展算法:传统的ASW匹配算法由于窗口固定,在处理复杂纹理区域时鲁棒性较差。本发明根据像素间的颜色与空间距离采用自适应窗口方法。已知待匹配的中心像素点p(x,y),在x和y方向上各邻域像素点分别为p(x-1,y),p(x+1,y)和p(x,y-1),p(x,y+1)。不同于传统的自适应窗口扩展方法以中心像素点灰度信息进行像素扩展,本发明以中心点R,G,B作为扩展基元,当邻域像素与中心像素点三通道信息同时满足如下公式(13)条件进行窗口扩张。
Ir,g,b(x,y)-Ir,g,b(x-1,y)<t (13)
t为预设颜色阈值,且t∈(0,1)。当图像中由于不连续的纹理而导致同一区域像素跳变时,很难使邻域像素三通道像素信息同时满足公式(13)。基于此特性,本发明对传统的固定窗口做出改进。在邻域像素在满足公式(13)条件下进行窗口自适应扩张时,若场景中存在纹理重复区域导致窗口过大使得代价聚合时计算过于复杂,这不符合算法的实时性要求。本发明根据图像几何特性对自适应窗口设置截断臂长。当满足如下公式(14)时对窗口臂长进行截断。
Figure GDA0003001593790000111
其中,p(x),p(y)为中心像素的横纵坐标值,q(x),q(y)为邻域像素的坐标值。通过对middlebury平台下tsukuba,teddy,cones,venus四张测试图像实验设置最小臂长Lmin=5,阈值Lmax=11。
自适应窗口,如图3图所示。首先,对中心像素I(x,y)进行横向扩张,若最终的窗口臂长小于最短臂长,用最小臂长Lmin代替原长度。在窗口扩张过程中,当邻域像素与中心像素空间距离大于截断阈值时,截断窗口。最后结果如图4图所示,以中心点为参考,上下左右四个不同长度臂长Lu,Ld,Ll,Lr。本发明对自适应窗口的行列大小取值分别如下公式(15)、(16)所示:
Rows=Lu+Ld (15)
Cows=Ll+Lr (16)
三、匹配代价聚合算法:
在计算完初始匹配代价之后,进行代价函数聚合,不同于经典算法复杂的权重运算。本发明通过文献[11]中代价函数与参考图像的相关性以及参考图像自身的相关性,对参考图像自适应窗口内方差以及参考图像与代价函数协方差进行计算,得出其相关函数,并用初始匹配代价函数减去相关函数之后进行代价聚合,大大挺高了算法的准确性与实时性。具体过程如下:
首先,计算匹配窗口内待匹配像素的R、G、B三通道像素值与匹配代价函数卷积的均值,如公式(17)所示。
Figure GDA0003001593790000112
其中,p为窗口中心点像素坐标,q为窗口内包括中心点各像素坐标,Np为自适应窗口,n为窗口内像素总数。在计算完各通道卷积函数的均值后,计算其协方差函数,如公式(18)所示:
Figure GDA0003001593790000121
上式中,mc,me分别为自适应窗口内三通道元素与匹配代价函数的均值,具体公式如下公式(19)、(20)所示:
Figure GDA0003001593790000122
Figure GDA0003001593790000123
然后,计算参考图像自适应窗口内三通道元素组成的方差矩阵θ,具体描述如下公式(21)所示。
Figure GDA0003001593790000124
其中,矩阵θ各元素计算如公式(22)所示:
Figure GDA0003001593790000125
通过式(17)-(20)可得系数矩阵如公式(23)所示:
Figure GDA0003001593790000126
由于vce(c∈{r,g,b})为1*3的向量,可得γkn的值包含三通道的向量。当计算完相关系数γkn之后,通过各点代价函数的均值减去参考图像三通道像素与相关系数的卷积,使得左右两幅图像的匹配代价更加独立。最终,初始代价函数如下公式(24)所示:
Figure GDA0003001593790000127
由于γkn为三通道向量,因此n∈(1,2,3)。在计算完最终的匹配代价之后,通过自适应窗口进行匹配代价聚合,具体公式如公式(25)所示。
Figure GDA0003001593790000128
本发明只对参考图像基础上进行聚合,
并没有加入待匹配图像。实验结果表明在提高算法实时性的同时并没有降低其准确度。最后采用公式(26),通过WTA(Winner-Takes-All)算法选取代价函数最小时的视差值为视差图的像素值。
Figure GDA0003001593790000131
四、视差后处理
1,LRC左右一致性检测
在立体匹配算法中,由于左右图像存在视差,遮挡问题一直不可避免。在获得最终视差图之前,本发明首先采用LRC左右一致性算法进行视差后处理运算。
在以左图像为参考图像时计算得到视差dl,以右图像为参考图像得到视差dr。当满足如下公式(27)条件:
|dl-dr|>δ (27)
δ为阈值,δ∈(0,1)。本发明中δ取值为1。当满足左右视差差的绝对值大于δ,则认为是遮挡点。对遮挡点取左右视差中较小的视差值进行视差填充。
2,自适应权重中值滤波
在进行代价聚合算法之后,得到的视差图往往存在较多的椒盐噪声,有必要对图像进行中值滤波。然而传统的滤波往往忽视了像素之间的相关性。本发明基于空间内像素之间颜色与距离的差异对窗口内像素赋予不同的权值,具体权值运算如公式(28)所示。
Figure GDA0003001593790000132
γc,γd为常数,通过试验获得γc=0.1,γd=9。k1,k2由中心像素与周围像素点在颜色空间与距离空间的差异得出,
分别由下式(29)和(30)获得。
Figure GDA0003001593790000133
Figure GDA0003001593790000134
窗口大小为19*19。在获得窗口内各像素的权值之后进行自适应中值滤波。具体过程如下:
(1)对窗口内除中心点外的各像素灰度值与各自的权值相乘,得到新的灰度值,利用式(31)计算获得。
I′(q)=w·I(q) (31)
(2)对窗口内包括中心点在内的各像素的新值进行排序,取位于中值附近最接近中心点的2个像素值I′(q1),I′(q2),取其均值得到新的亚像素级别灰度值代替原中心点像素的灰度值,由式(32)计算获得。
Figure GDA0003001593790000135

Claims (1)

1.一种双目视觉基于多匹配基元融合的立体匹配方法,包括计算机、二个摄像机和多匹配基元融合的立体匹配方法,其特征在于:
所述摄像机选用ZED双目摄像机,并对ZED双目摄像机作如下设置:
(1)、图像采集:
通过下载ZED SDK以及CUDA,并通过USB 3.0接口连接电脑;通过MATLAB内webcam函数连接ZED双目相机,并通过snapshot函数进行图片采集;
(2)、相机标定:
相机标定的目的,旨在获取准确摄像机内外参数;内参数主要包括左右镜头的焦距,基线距离;外参数主要包括两摄像机相对于世界坐标系的旋转矩阵,以及左右相机的相对平移矩阵;获得摄像机的默认内外参数;
(3)、图像参数设定:
通过标定参数进行极线校正使得采集到的左右图像满足极线约束条件;并通过ZEDSDK内嵌ZED Explorer.exe插件进行参数的重设定;
(4)、立体匹配:
立体匹配作为双目视觉***的核心部分;立体匹配的目的在于对采集到的左右图像进行成像点匹配,通过匹配点得到视差值,并获得场景的深度信息;
ZED双目摄像机可以装设在机器人或无人驾驶机上,双目摄取的实际场景经多匹配基元融合的立体匹配处理,能达到真实场景的目的,再通过设置在机器人或无人驾驶机上的计算机处理,向机器人或无人驾驶机控制与驱动***发出导航指令;
所述多匹配基元融合的立体匹配方法,包括下述过程:
采用改进的ASW匹配方法,主要包括左右参考图像读入阶段、左右初始匹配代价阶段、左右代价函数聚合阶段和视差后处理4个阶段;所述视差后处理阶段,主要包含LRC左右一致性检测与滤波运算,其中:
1)初始匹配代价计算是:
ASW算法利用图像的灰度信息作为匹配代价计算的基元;通过对梯度基元和R、G、B三通道颜色基元的均值设置截断阈值,并通过卡尔曼滤波的思想融合像素的R、G、B颜色与梯度信息,通过控制系数α进行自适应调节从而做出改进;具体过程如下:
(1)分别设置颜色和梯度阈值t1、t2,计算初始代价
Figure 963207DEST_PATH_IMAGE002
,如公式(10)(11)所示;
Figure 818031DEST_PATH_IMAGE004
Figure 456823DEST_PATH_IMAGE006
(2)自适应调节α系数计算最终的初始匹配代价,最终的初始匹配代价如公式(12)所示;
Figure 773403DEST_PATH_IMAGE008
2)、改进的自适应窗口扩展算法:
根据像素间的颜色与空间距离采用自适应窗口方法,已知待匹配的中心像素点p(x,y),在x和y方向上各邻域像素点分别为p(x-1,y),p(x+1,y)和p(x,y-1),p(x,y+1);不同于传统的自适应窗口扩展方法以中心像素点灰度信息进行像素扩展;以中心点R,G,B作为扩展基元,当邻域像素与中心像素点三通道信息同时满足如下公式(13)条件进行窗口扩张;
Figure 525459DEST_PATH_IMAGE010
t为预设颜色阈值,且t∈(0,1);当图像中由于不连续的纹理而导致同一区域像素跳变时,很难使邻域像素三通道像素信息同时满足公式(13);基于此特性,对传统的固定窗口做出改进;在邻域像素在满足公式(13)条件下进行窗口自适应扩张时,若场景中存在纹理重复区域导致窗口过大使得代价聚合时计算过于复杂,这不符合算法的实时性要求;根据图像几何特性对自适应窗口设置截断臂长;当满足如下公式(14)时对窗口臂长进行截断;
Figure 537802DEST_PATH_IMAGE012
其中,p(x),p(y)为中心像素的横纵坐标值,q(x),q(y)为邻域像素的坐标值;通过对middlebury平台下tsukuba,teddy,cones,venus四张测试图像实验设置最小臂长Lmin=5,阈值Lmax=11;自适应窗口,首先,对中心像素I(x,y)进行横向扩张,若最终的窗口臂长小于最短臂长,用最小臂长Lmin代替原长度;在窗口扩张过程中,当邻域像素与中心像素空间距离大于截断阈值时,截断窗口;以中心点为参考,上下左右四个不同长度臂长Lu,Ld,Ll,Lr;对自适应窗口的行列大小取值分别如下公式(15)、(16)所示:
Rows=Lu+Ld (15)
Cows=Ll+Lr (16)
3)、匹配代价聚合算法:
计算匹配窗口内待匹配像素的R、G、B三通道像素值与匹配代价函数卷积的均值,如公式(17)所示;
Figure 742518DEST_PATH_IMAGE014
其中,p为窗口中心点像素坐标,q为窗口内包括中心点各像素坐标,Np为自适应窗口,n为窗口内像素总数;在计算完各通道卷积函数的均值后,
计算其协方差函数,如公式(18)所示:
Figure 128369DEST_PATH_IMAGE016
上式中,mc,me分别为自适应窗口内三通道元素与匹配代价函数的均值,具体公式如下公式(19)、(20)所示:
Figure 734931DEST_PATH_IMAGE018
然后,计算参考图像自适应窗口内三通道元素组成的方差矩阵θ,具体描述如下公式(21)所示;
Figure 915245DEST_PATH_IMAGE020
其中,矩阵θ各元素计算如公式(22)所示:
Figure 403995DEST_PATH_IMAGE022
通过式(17)-(20)可得系数矩阵如公式(23)所示:
Figure 531220DEST_PATH_IMAGE024
由于vce(c∈{r,g,b})为1*3的向量,可得γkn的值包含三通道的向量;当计算完相关系数γkn之后,通过各点代价函数的均值减去参考图像三通道像素与相关系数的卷积,使得左右两幅图像的匹配代价更加独立;最终,初始代价函数如下公式(24)所示:
Figure 789026DEST_PATH_IMAGE026
由于γkn为三通道向量,因此n∈(1,2,3);在计算完最终的匹配代价之后,通过自适应窗口进行匹配代价聚合,具体公式如公式(25)所示;
Figure 606154DEST_PATH_IMAGE028
只对参考图像基础上进行聚合,并没有加入待匹配图像;实验结果表明在提高算法实时性的同时并没有降低其准确度;最后采用公式(26),通过WTA(Winner-Takes-All)算法选取代价函数最小时的视差值为视差图的像素值;
Figure 785462DEST_PATH_IMAGE030
4)、视差后处理
(1),LRC左右一致性检测
在立体匹配算法中,由于左右图像存在视差,遮挡问题一直不可避免;在获得最终视差图之前,本文首先采用LRC左右一致性算法进行视差后处理运算;
在以左图像为参考图像时计算得到视差dl,以右图像为参考图像得到视差dr;当满足如下公式(27)条件:
Figure 247537DEST_PATH_IMAGE032
δ为阈值,δ∈(0,1);本文中δ取值为1;当满足左右视差差的绝对值大于δ,则认为是遮挡点;对遮挡点取左右视差中较小的视差值进行视差填充;
(2),自适应权重中值滤波
在进行代价聚合算法之后,得到的视差图往往存在较多的椒盐噪声,有必要对图像进行中值滤波;然而传统的滤波往往忽视了像素之间的相关性;基于空间内像素之间颜色与距离的差异对窗口内像素赋予不同的权值,具体权值运算如公式(28)所示;
Figure 625428DEST_PATH_IMAGE034
γc,γd为常数,通过试验获得γc=0.1,γd=9;k1,k2由中心像素与周围像素点在颜色空间与距离空间的差异得出,分别由下式(29)和(30)获得;
Figure 350808DEST_PATH_IMAGE036
窗口大小为19*19;在获得窗口内各像素的权值之后进行自适应中值滤波,具体过程如下:
(1)对窗口内除中心点外的各像素灰度值与各自的权值相乘,得到新的灰度值,利用式(31)计算获得;
Figure 814150DEST_PATH_IMAGE038
(2)对窗口内包括中心点在内的各像素的新值进行排序,取位于中值附近最接近中心点的2个像素值I’(q1),I’(q2),取其均值得到新的亚像素级别灰度值代替原中心点像素的灰度值,由式(32)计算获得
Figure 283178DEST_PATH_IMAGE040
CN201810249294.XA 2018-03-22 2018-03-22 一种基于多匹配基元融合的双目视觉立体匹配方法 Active CN108682026B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810249294.XA CN108682026B (zh) 2018-03-22 2018-03-22 一种基于多匹配基元融合的双目视觉立体匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810249294.XA CN108682026B (zh) 2018-03-22 2018-03-22 一种基于多匹配基元融合的双目视觉立体匹配方法

Publications (2)

Publication Number Publication Date
CN108682026A CN108682026A (zh) 2018-10-19
CN108682026B true CN108682026B (zh) 2021-08-06

Family

ID=63800451

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810249294.XA Active CN108682026B (zh) 2018-03-22 2018-03-22 一种基于多匹配基元融合的双目视觉立体匹配方法

Country Status (1)

Country Link
CN (1) CN108682026B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109544611B (zh) * 2018-11-06 2021-05-14 深圳市爱培科技术股份有限公司 一种基于bit特征的双目视觉立体匹配方法及***
CN109741385A (zh) * 2018-12-24 2019-05-10 浙江大华技术股份有限公司 一种图像处理***、方法、装置、电子设备及存储介质
CN109978934B (zh) * 2019-03-04 2023-01-10 北京大学深圳研究生院 一种基于匹配代价加权的双目视觉立体匹配方法及***
CN109978928B (zh) * 2019-03-04 2022-11-04 北京大学深圳研究生院 一种基于加权投票的双目视觉立体匹配方法及其***
WO2020177061A1 (zh) * 2019-03-04 2020-09-10 北京大学深圳研究生院 一种基于极值校验的双目视觉立体匹配方法及***
WO2020177060A1 (zh) * 2019-03-04 2020-09-10 北京大学深圳研究生院 一种基于极值校验和加权投票的双目视觉立体匹配方法
CN110148168B (zh) * 2019-05-23 2023-03-24 南京大学 一种基于大小双基线的三目相机深度图像处理方法
CN112802114B (zh) * 2019-11-13 2024-07-02 浙江舜宇智能光学技术有限公司 多视觉传感器融合装置及其方法和电子设备
CN111553296B (zh) * 2020-04-30 2021-08-03 中山大学 一种基于fpga实现的二值神经网络立体视觉匹配方法
CN111754588B (zh) * 2020-06-30 2024-03-29 江南大学 一种基于方差的自适应窗口大小的双目视觉匹配方法
CN112184833B (zh) * 2020-09-29 2023-09-15 南京蕴智科技有限公司 一种双目立体匹配算法的硬件实现***和方法
CN112200852B (zh) * 2020-10-09 2022-05-20 西安交通大学 一种时空混合调制的立体匹配方法及***
CN112308897B (zh) * 2020-10-30 2024-07-12 江苏大学 一种基于邻域信息约束与自适应窗口的立体匹配方法
CN112348871B (zh) * 2020-11-16 2023-02-10 长安大学 一种局部立体匹配方法
CN113052862B (zh) * 2021-04-12 2024-06-18 北京机械设备研究所 基于多级优化的室外场景下立体匹配方法、装置、设备
CN113516699A (zh) * 2021-05-18 2021-10-19 哈尔滨理工大学 一种基于超像素分割的立体匹配***
CN113933315B (zh) * 2021-10-13 2024-04-05 深圳市中纬智能有限公司 贴片电路板共线性检测方法与***
CN116188558B (zh) * 2023-04-27 2023-07-11 华北理工大学 基于双目视觉的立体摄影测量方法
CN116258759B (zh) * 2023-05-15 2023-09-22 北京爱芯科技有限公司 一种立体匹配方法、装置和设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102611904A (zh) * 2012-02-15 2012-07-25 山东大学 三维电视***中基于图像分割的立体匹配方法
CN103985128A (zh) * 2014-05-23 2014-08-13 南京理工大学 一种基于颜色内相关和自适应支撑权重的立体匹配方法
CN103996202A (zh) * 2014-06-11 2014-08-20 北京航空航天大学 一种基于混合匹配代价和自适应窗口的立体匹配方法
CN103996201A (zh) * 2014-06-11 2014-08-20 北京航空航天大学 一种基于改进梯度和自适应窗口的立体匹配方法
CN104867135A (zh) * 2015-05-04 2015-08-26 中国科学院上海微***与信息技术研究所 一种基于指导图像引导的高精度立体匹配方法
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN107301664A (zh) * 2017-05-25 2017-10-27 天津大学 基于相似性测度函数的改进局部立体匹配方法
CN107301642A (zh) * 2017-06-01 2017-10-27 中国人民解放军国防科学技术大学 一种基于双目视觉的全自动前景背景分隔方法
CN107392950A (zh) * 2017-07-28 2017-11-24 哈尔滨理工大学 一种基于弱纹理检测的跨尺度代价聚合立体匹配方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102214934B1 (ko) * 2014-07-18 2021-02-10 삼성전자주식회사 단항 신뢰도 및 쌍별 신뢰도 학습을 통한 스테레오 매칭 장치 및 방법
KR101622344B1 (ko) * 2014-12-16 2016-05-19 경북대학교 산학협력단 적응적 영역 가중치가 적용된 센서스 변환 기반 스테레오 정합을 통한 시차 계산 방법 및 그 시스템

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102611904A (zh) * 2012-02-15 2012-07-25 山东大学 三维电视***中基于图像分割的立体匹配方法
CN103985128A (zh) * 2014-05-23 2014-08-13 南京理工大学 一种基于颜色内相关和自适应支撑权重的立体匹配方法
CN103996202A (zh) * 2014-06-11 2014-08-20 北京航空航天大学 一种基于混合匹配代价和自适应窗口的立体匹配方法
CN103996201A (zh) * 2014-06-11 2014-08-20 北京航空航天大学 一种基于改进梯度和自适应窗口的立体匹配方法
CN104867135A (zh) * 2015-05-04 2015-08-26 中国科学院上海微***与信息技术研究所 一种基于指导图像引导的高精度立体匹配方法
CN106355570A (zh) * 2016-10-21 2017-01-25 昆明理工大学 一种结合深度特征的双目立体视觉匹配方法
CN107301664A (zh) * 2017-05-25 2017-10-27 天津大学 基于相似性测度函数的改进局部立体匹配方法
CN107301642A (zh) * 2017-06-01 2017-10-27 中国人民解放军国防科学技术大学 一种基于双目视觉的全自动前景背景分隔方法
CN107392950A (zh) * 2017-07-28 2017-11-24 哈尔滨理工大学 一种基于弱纹理检测的跨尺度代价聚合立体匹配方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A New Stereo Matching Algorithm Based on Adaptive Window;Yingyun Yang等;《2012 International Conference on Systems and Informatics (ICSAI 2012)》;20120625;第1815-1819页 *
Region Based Stereo Matching Method with Gradient and Distance Information;Yong-Jun Chang等;《2016 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA)》;20170119;第1-4页 *
双目视觉立体匹配技术研究现状和展望;林森等;《科学技术与工程》;20171031;第17卷(第30期);第135-147页 *
多种相似性测度结合的局部立体匹配算法;卢迪等;《机器人》;20160131;第38卷(第1期);第1-7页 *

Also Published As

Publication number Publication date
CN108682026A (zh) 2018-10-19

Similar Documents

Publication Publication Date Title
CN108682026B (zh) 一种基于多匹配基元融合的双目视觉立体匹配方法
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN105374019B (zh) 一种多深度图融合方法及装置
CN111066065B (zh) 用于混合深度正则化的***和方法
CN108596975B (zh) 一种针对弱纹理区域的立体匹配算法
CN102665086B (zh) 利用基于区域的局部立体匹配获取视差的方法
CN109961417B (zh) 图像处理方法、装置及移动装置控制方法
CN103426200B (zh) 基于无人机航拍序列图像的树木三维重建方法
CN110853151A (zh) 一种基于视频的三维立体点集恢复方法
CN111027415B (zh) 一种基于偏振图像的车辆检测方法
CN102903098A (zh) 一种基于图像清晰度差异的深度估计方法
CN106709901B (zh) 基于深度先验的模拟雾图生成方法
CN111553862B (zh) 一种海天背景图像去雾和双目立体视觉定位方法
CN111354077B (zh) 一种基于双目视觉的三维人脸重建方法
CN110349249B (zh) 基于rgb-d数据的实时稠密重建方法及***
CN108460792B (zh) 一种基于图像分割的高效聚焦立体匹配方法
CN106530336B (zh) 基于色彩信息和图割理论的立体匹配方法
CN110956661A (zh) 基于双向单应矩阵的可见光与红外相机动态位姿计算方法
CN109859249B (zh) Rgbd序列中基于自动分层的场景流估计方法
CN104346833A (zh) 一种基于单目视觉的车辆重构算法
CN106023189B (zh) 一种基于匹配优化的光场数据深度重建方法
CN104038752B (zh) 基于三维高斯混合模型的多视点视频直方图颜色校正
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计***
CN112132925A (zh) 用于重建水下图像颜色的方法和装置
CN108742495A (zh) 一种用于医疗领域的三维立体腹腔镜***及立体匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210708

Address after: 230031 102-f, Hefei R & D building, Chinese Academy of Sciences, northwest corner of intersection of Xiyou road and Shilian South Road, high tech Zone, Hefei City, Anhui Province

Applicant after: Hefei Jinren Technology Co.,Ltd.

Address before: 121000 Shiying street, Guta District, Jinzhou City, Liaoning Province

Applicant before: LIAONING University OF TECHNOLOGY

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210722

Address after: 230000, 12 / F, building e, intelligent technology park, economic development zone, Hefei, Anhui Province

Applicant after: Jiang Dabai

Address before: 230031 102-f, Hefei R & D building, Chinese Academy of Sciences, northwest corner of intersection of Xiyou road and Shilian South Road, high tech Zone, Hefei City, Anhui Province

Applicant before: Hefei Jinren Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221205

Address after: 230000, 12 / F, building e, intelligent technology park, economic development zone, Hefei, Anhui Province

Patentee after: CHINA APPLIED TECHNOLOGY Co.,Ltd.

Address before: 230000, 12 / F, building e, intelligent technology park, economic development zone, Hefei, Anhui Province

Patentee before: Jiang Dabai