CN112163502B - 一种室内动态场景下的视觉定位方法 - Google Patents
一种室内动态场景下的视觉定位方法 Download PDFInfo
- Publication number
- CN112163502B CN112163502B CN202011015872.7A CN202011015872A CN112163502B CN 112163502 B CN112163502 B CN 112163502B CN 202011015872 A CN202011015872 A CN 202011015872A CN 112163502 B CN112163502 B CN 112163502B
- Authority
- CN
- China
- Prior art keywords
- image
- feature point
- face
- obtaining
- static scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种室内动态场景下的视觉定位方法,据物体检测得到的场景中物体分布的信息,同时结合人脸识别技术将场景中的人脸所在的图像块进行区分,通过将场景中可能发生位移的人剔除,从而进行精确的视觉定位。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种室内动态场景下的视觉定位方法。
背景技术
利用视觉在室内进行定位的过程中,往往会出现移动的物体,大部分场景下移动的物体是活动的人,同时,目前所有的视觉定位建图***的理论建立在静态场景假设上,
现有技术中使用了结合光流与深度图平面假设的算法来进行前景物体的分割,此方法存在的问题是当物体与相机发生相对运动时,通常整个场景中的光流的一致性在不同的场景位置会不同,从而导致运动物体的光流难以判断,同时当场景复杂的情况下,静态场景的平面假设往往不成立导致前景判断的错误。另外一类方法是对运动物体的运动进行估计,并且将预测的运动物体的信息加入场景中进行定位建图。
发明内容
针对现有技术中的上述不足,本发明提供的一种室内动态场景下的视觉定位方法,据物体检测得到的场景中物体分布的信息,同时结合人脸识别技术将场景中的人脸所在的图像块进行区分,通过将场景中可能发生位移的人剔除,从而进行精确的视觉定位。
为了达到上述发明目的,本发明采用的技术方案为一种室内动态场景下的视觉定位方法,包括以下步骤:
S1、采集室内动态场景下的原始图像,并提取其ORB视觉特征点;
S2、对原始图像分别进行物体和人脸分类、二值化和匹配,得到物体人脸二值掩膜图像;
S3、采用物体人脸二值掩膜图像对ORB视觉特征点进行滤波处理,得到静态场景特征点图像;
S4、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离,得到多个特征点对;
S5、根据特征点对,构建运动结构恢复模型,得到入射光线汇聚点;
S6、将入射光线汇聚点投影至两幅静态场景特征点图像,构建误差模型,得到相机位姿,实现视觉定位。
进一步地,步骤S2包括分步骤:
S21、采用YOLO神经网络对原始图像进行物体分类,得到物体像素框;
S22、将物体像素框内的像素置1,物体像素框外的像素置0,得到物体二值掩膜图像;
S23、采用MTCNN神经网络检测原始图像中的人脸像素框;
S24、将人脸像素框内的像素值置1,人脸像素框外的像素值置0,得到人脸二值掩膜图像;
S25、遍历人脸二值掩膜图像上的所有人脸像素框,通过每个人脸像素框对应的连通域中的每个像素检测对应物体二值掩膜图像的位置,判断其对应位置的掩膜值是否为1,若是,则保留对应位置的物体二值掩膜图像上的二值连通域,若否,将对应物体二值掩膜图像位置上的二值连通域置0,得到物体人脸二值掩膜图像。
进一步地,步骤S3为:根据物体人脸二值掩膜图像,将ORB视觉特征点的每一个特征点对应的物体人脸二值掩膜图像的值为1的位置剔除,得到静态场景特征点图像。
进一步地,步骤S4包括以下分步骤:
S41、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离;
S42、寻找最小的汉明距离小于次小的汉明距离的60%以及最小的汉明距离小于汉明阈值的多对描述子;
S43、将多对描述子各自在两幅静态场景特征点图像上的特征点作为特征点对。
进一步地,步骤S5包括以下分步骤:
S51、根据每一个特征点对,通过相机内参,得到特征点对的入射光线;
S52、根据特征点对的入射光线,构建运动结构恢复模型,采用SVD算法对运动结构恢复模型进行求解,得到入射光线汇聚点。
进一步地,步骤S5中运动结构恢复模型为:
x=K-1p
x′=K-1p′
xT(t×R)x′=0
P=[R t]
x×PX=0
X=λx′
其中,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,K为相机内参,p为一幅静态场景特征点图像上的特征点,p′为另一幅静态场景特征点图像上的特征点,t为两个相机之间的位移,R为相机之间的旋转角度矩阵,λ为入射因子,P为构建的相机旋转位移矩阵,X为入射光线汇聚点的坐标。
进一步地,步骤S6中误差模型为:
其中,p1为入射光线汇聚点在一幅静态场景特征点图像的位置,p2为入射光线汇聚点在另一幅静态场景特征点图像的位置,X为入射光线汇聚点的坐标,K为相机内参,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,err为误差值。
综上,本发明的有益效果为:
(1)、本发明主要提出一种基于物体检测与人脸识别融合信息的动态场景定位方法。本方法对空间中的语义信息进行提取与分类,相比传统视觉算法能适用更多的场景,在更复杂的室内环境中区分动态场景与静态场景,利用静态场景信息进行精确定位。
(2)、本发明的语义信息更集中,基于室内环境中大多数的运动物体是人这一假设进行的深度学习算法设计,因此模型计算量更小,计算资源消耗更好,算法速度更快。
附图说明
图1为一种室内动态场景下的视觉定位方法的流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,一种室内动态场景下的视觉定位方法,包括以下步骤:
S1、采集室内动态场景下的原始图像,并提取其ORB视觉特征点;
S2、对原始图像分别进行物体和人脸分类、二值化和匹配,得到物体人脸二值掩膜图像;
步骤S2包括分步骤:
S21、采用YOLO神经网络对原始图像进行物体分类,得到物体像素框;
S22、将物体像素框内的像素置1,物体像素框外的像素置0,得到物体二值掩膜图像;
S23、采用MTCNN神经网络检测原始图像中的人脸像素框;
S24、将人脸像素框内的像素值置1,人脸像素框外的像素值置0,得到人脸二值掩膜图像;
S25、遍历人脸二值掩膜图像上的所有人脸像素框,通过每个人脸像素框对应的连通域中的每个像素检测对应物体二值掩膜图像的位置,判断其对应位置的掩膜值是否为1,若是,则保留对应位置的物体二值掩膜图像上的二值连通域,若否,将对应物体二值掩膜图像位置上的二值连通域置0,得到物体人脸二值掩膜图像。
S3、采用物体人脸二值掩膜图像对ORB视觉特征点进行滤波处理,得到静态场景特征点图像;
步骤S3为:根据物体人脸二值掩膜图像,将ORB视觉特征点的每一个特征点对应的物体人脸二值掩膜图像的值为1的位置剔除,得到静态场景特征点图像。
S4、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离,得到多个特征点对;
步骤S4包括以下分步骤:
S41、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离;
S42、寻找最小的汉明距离小于次小的汉明距离的60%以及最小的汉明距离小于汉明阈值的多对描述子;
在本实施例中,汉明阈值可设置是为45。
S43、将多对描述子各自在两幅静态场景特征点图像上的特征点作为特征点对。
S5、根据特征点对,构建运动结构恢复模型,得到入射光线汇聚点;
步骤S5包括以下分步骤:
S51、根据每一个特征点对,通过相机内参,得到特征点对的入射光线;
S52、根据特征点对的入射光线,构建运动结构恢复模型,采用SVD算法对运动结构恢复模型进行求解,得到入射光线汇聚点。
步骤S5中运动结构恢复模型为:
x=K-1p
x′=K-1p′
xT(t×R)x′=0
P=[R t]
x×PX=0
X=λx′
其中,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,K为相机内参,p为一幅静态场景特征点图像上的特征点,p′为另一幅静态场景特征点图像上的特征点,t为两个相机之间的位移,R为相机之间的旋转角度矩阵,λ为入射因子,P为构建的相机旋转位移矩阵,X为入射光线汇聚点的坐标。
S6、将入射光线汇聚点投影至两幅静态场景特征点图像,构建误差模型,得到相机位姿,实现视觉定位。
在本实施例中,可采用LM算法迭代求解误差模型。
步骤S6中误差模型为:
其中,p1为入射光线汇聚点在一幅静态场景特征点图像的位置,p2为入射光线汇聚点在另一幅静态场景特征点图像的位置,X为入射光线汇聚点的坐标,K为相机内参,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,err为误差值。
实验效果:
由于视觉定位需要实时的图像信息,同时保证物体识别与人脸识别的准确度,在具体方案实施过程中物体识别的主要技术参数为mAP和IoU,而人脸识别的主要技术参数为人脸的识别率以及识别速度。而视觉定位模块的主要参数为均方根误差RMSE,以及标准差STD。物体识别与人脸识别模块以及室内定位模块部分的实验测试数据如下表:
表1物体框的实验测试数据
技术指标 | mAP | IoU |
研究数据 | 82.29% | 70% |
表2人脸像素框的实验测试数据
表3动态场景视觉定位的实验测试数据
根据表3可知,采用本方法对各图像集进行处理,其均方根误差RMSE和标准差STD均小于现有方法ORB SLAM2,证明本方法的定位效果好。
Claims (6)
1.一种室内动态场景下的视觉定位方法,其特征在于,包括以下步骤:
S1、采集室内动态场景下的原始图像,并提取其ORB视觉特征点;
S2、对原始图像分别进行物体和人脸分类、二值化和匹配,得到物体人脸二值掩膜图像;
所述步骤S2包括分步骤:
S21、采用YOLO神经网络对原始图像进行物体分类,得到物体像素框;
S22、将物体像素框内的像素置1,物体像素框外的像素置0,得到物体二值掩膜图像;
S23、采用MTCNN神经网络检测原始图像中的人脸像素框;
S24、将人脸像素框内的像素值置1,人脸像素框外的像素值置0,得到人脸二值掩膜图像;
S25、遍历人脸二值掩膜图像上的所有人脸像素框,通过每个人脸像素框对应的连通域中的每个像素检测对应物体二值掩膜图像的位置,判断其对应位置的掩膜值是否为1,若是,则保留对应位置的物体二值掩膜图像上的二值连通域,若否,将对应物体二值掩膜图像位置上的二值连通域置0,得到物体人脸二值掩膜图像;
S3、采用物体人脸二值掩膜图像对ORB视觉特征点进行滤波处理,得到静态场景特征点图像;
S4、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离,得到多个特征点对;
S5、根据特征点对,构建运动结构恢复模型,得到入射光线汇聚点;
S6、将入射光线汇聚点投影至两幅静态场景特征点图像,构建误差模型,得到相机位姿,实现视觉定位。
2.根据权利要求1所述的室内动态场景下的视觉定位方法,其特征在于,所述步骤S3为:根据物体人脸二值掩膜图像,将ORB视觉特征点的每一个特征点对应的物体人脸二值掩膜图像的值为1的位置剔除,得到静态场景特征点图像。
3.根据权利要求1所述的室内动态场景下的视觉定位方法,其特征在于,所述步骤S4包括以下分步骤:
S41、计算一幅静态场景特征点图像中的每一个特征点的描述子分别与另一幅静态场景特征点图像中所有特征点的描述子的汉明距离;
S42、寻找最小的汉明距离小于次小的汉明距离的60%以及最小的汉明距离小于汉明阈值的多对描述子;
S43、将多对描述子各自在两幅静态场景特征点图像上的特征点作为特征点对。
4.根据权利要求1所述的室内动态场景下的视觉定位方法,其特征在于,所述步骤S5包括以下分步骤:
S51、根据每一个特征点对,通过相机内参,得到特征点对的入射光线;
S52、根据特征点对的入射光线,构建运动结构恢复模型,采用SVD算法对运动结构恢复模型进行求解,得到入射光线汇聚点。
5.根据权利要求1所述的室内动态场景下的视觉定位方法,其特征在于,所述步骤S5中运动结构恢复模型为:
x=K-1p
x′=K-1p′
xT(t×R)x′=0
P=[R t]
x×PX=0
X=λx′
其中,x为一幅静态场景特征点图像的入射光线的向量,x′为另一幅静态场景特征点图像的入射光线的向量,K为相机内参,p为一幅静态场景特征点图像上的特征点,p′为另一幅静态场景特征点图像上的特征点,t为两个相机之间的位移,R为相机之间的旋转角度矩阵,λ为入射因子,P为构建的相机旋转位移矩阵,X为入射光线汇聚点的坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011015872.7A CN112163502B (zh) | 2020-09-24 | 2020-09-24 | 一种室内动态场景下的视觉定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011015872.7A CN112163502B (zh) | 2020-09-24 | 2020-09-24 | 一种室内动态场景下的视觉定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112163502A CN112163502A (zh) | 2021-01-01 |
CN112163502B true CN112163502B (zh) | 2022-07-12 |
Family
ID=73863648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011015872.7A Active CN112163502B (zh) | 2020-09-24 | 2020-09-24 | 一种室内动态场景下的视觉定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112163502B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113763573B (zh) * | 2021-09-17 | 2023-07-11 | 北京京航计算通讯研究所 | 一种三维物体数字化标注方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101446859A (zh) * | 2008-12-23 | 2009-06-03 | 黄通兵 | 一种基于机器视觉的输入方法及其*** |
CN103839223A (zh) * | 2012-11-21 | 2014-06-04 | 华为技术有限公司 | 图像处理方法及装置 |
CN110084850A (zh) * | 2019-04-04 | 2019-08-02 | 东南大学 | 一种基于图像语义分割的动态场景视觉定位方法 |
WO2019184542A1 (zh) * | 2018-03-26 | 2019-10-03 | 京东方科技集团股份有限公司 | 室内定位方法、室内定位***、室内定位设备和计算机可读介质 |
CN110599489A (zh) * | 2019-08-26 | 2019-12-20 | 华中科技大学 | 一种目标空间定位方法 |
CN110838145A (zh) * | 2019-10-09 | 2020-02-25 | 西安理工大学 | 一种室内动态场景的视觉定位与建图方法 |
CN111136669A (zh) * | 2020-01-17 | 2020-05-12 | 沈阳航空航天大学 | 一种基于全局视觉的下棋机器人及其控制方法 |
CN111156984A (zh) * | 2019-12-18 | 2020-05-15 | 东南大学 | 一种面向动态场景的单目视觉惯性slam方法 |
CN111340881A (zh) * | 2020-02-18 | 2020-06-26 | 东南大学 | 一种动态场景下基于语义分割的直接法视觉定位方法 |
-
2020
- 2020-09-24 CN CN202011015872.7A patent/CN112163502B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101446859A (zh) * | 2008-12-23 | 2009-06-03 | 黄通兵 | 一种基于机器视觉的输入方法及其*** |
CN103839223A (zh) * | 2012-11-21 | 2014-06-04 | 华为技术有限公司 | 图像处理方法及装置 |
WO2019184542A1 (zh) * | 2018-03-26 | 2019-10-03 | 京东方科技集团股份有限公司 | 室内定位方法、室内定位***、室内定位设备和计算机可读介质 |
CN110084850A (zh) * | 2019-04-04 | 2019-08-02 | 东南大学 | 一种基于图像语义分割的动态场景视觉定位方法 |
CN110599489A (zh) * | 2019-08-26 | 2019-12-20 | 华中科技大学 | 一种目标空间定位方法 |
CN110838145A (zh) * | 2019-10-09 | 2020-02-25 | 西安理工大学 | 一种室内动态场景的视觉定位与建图方法 |
CN111156984A (zh) * | 2019-12-18 | 2020-05-15 | 东南大学 | 一种面向动态场景的单目视觉惯性slam方法 |
CN111136669A (zh) * | 2020-01-17 | 2020-05-12 | 沈阳航空航天大学 | 一种基于全局视觉的下棋机器人及其控制方法 |
CN111340881A (zh) * | 2020-02-18 | 2020-06-26 | 东南大学 | 一种动态场景下基于语义分割的直接法视觉定位方法 |
Non-Patent Citations (5)
Title |
---|
Hua Xu 等.OD-SLAM:Real-Time Localization and Mapping in Dynamic Environment through Multi-Sensor Fusion.《2020 5th Internationl Conference on Advanced Robotics and Mechatronics》.2020,172-177. * |
公维蒙.动态场景下基于视觉的同时定位与建图.《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》.2019,(第01期),I138-3174. * |
刘志励.基于双目视觉与激光雷达的局部路径规划算法研究.《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》.2019,(第12期),I140-259. * |
卢燕斌.监控视频中的运动目标检测和追踪的研究及应用.《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》.2007,(第06期),I140-361. * |
彭晖.基于机器视觉的目标分类与场景定位研究.《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》.2017,(第06期),I138-1075. * |
Also Published As
Publication number | Publication date |
---|---|
CN112163502A (zh) | 2021-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111462200B (zh) | 一种跨视频行人定位追踪方法、***及设备 | |
CN111784576B (zh) | 一种基于改进orb特征算法的图像拼接方法 | |
CN110930411B (zh) | 一种基于深度相机的人体分割方法及*** | |
CN111178161B (zh) | 一种基于fcos的车辆追踪方法及*** | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
US20210342593A1 (en) | Method and apparatus for detecting target in video, computing device, and storage medium | |
CN109389621B (zh) | 基于多模式深度特征融合的rgb-d目标跟踪方法 | |
CN112200056B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
Lu et al. | Occlusion-shared and feature-separated network for occlusion relationship reasoning | |
CN114898353B (zh) | 一种基于视频序列图像特征与信息的车牌识别方法 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及*** | |
CN111160107B (zh) | 一种基于特征匹配的动态区域检测方法 | |
CN112163502B (zh) | 一种室内动态场景下的视觉定位方法 | |
Ying et al. | Anchor points based accurate fault locating in large-scale photovoltaic plants via aerial infrared videos | |
CN117315547A (zh) | 一种解决动态物体大占比的视觉slam方法 | |
CN117218195A (zh) | 基于点、线特征约束的同时定位与建图方法 | |
CN111738264A (zh) | 一种机房设备显示面板数据的智能采集方法 | |
CN108564020A (zh) | 基于全景3d图像的微手势识别方法 | |
CN112070048B (zh) | 基于RDSNet的车辆属性识别方法 | |
Shao et al. | Digital image aesthetic composition optimization based on perspective tilt correction | |
CN117315274B (zh) | 一种基于自适应特征提取的视觉slam方法 | |
CN115063578B (zh) | 芯片图像中目标对象检测与定位方法、装置及存储介质 | |
Chen et al. | Stereo with zooming | |
CN113506346B (zh) | 一种应用于弱纹理大旋转场景下的相机的位姿求解方法 | |
Ko et al. | Re-identification for multi-object tracking using triplet loss |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |