CN111723768B - 车辆重识别的方法、装置、设备和存储介质 - Google Patents
车辆重识别的方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN111723768B CN111723768B CN202010613125.7A CN202010613125A CN111723768B CN 111723768 B CN111723768 B CN 111723768B CN 202010613125 A CN202010613125 A CN 202010613125A CN 111723768 B CN111723768 B CN 111723768B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- image
- preselected
- camera
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000003062 neural network model Methods 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000004590 computer program Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了车辆重识别的方法、装置、设备和存储介质,涉及计算机视觉、智能搜索、深度学习、智能交通领域。具体实现方案为:接收来自终端设备的重识别请求,该重识别请求包括第一摄像头拍摄的第一车辆的第一图像、该第一摄像头的信息;根据该第一图像,获取该第一车辆的第一特征和该第一车辆的第一车头朝向;根据该第一特征、基于图像数据库中的多个车辆的图像提取的多个第二特征、该第一车头朝向以及该第一摄像头的信息,从该多个车辆的图像中确定该第一车辆的第二图像;向终端设备发送该第二图像。本申请的方法可以提高重识别的准确度。
Description
技术领域
本申请实施例涉及计算机技术领域中的智能搜索领域,尤其涉及一种车辆重识别的方法、装置、设备和存储介质。
背景技术
车辆重识别(Vehicle Re-identification,Reid)技术可广泛应用于车辆检索、车辆追踪等领域。
目前车辆重识别的方法为:服务器接收到第一摄像头拍摄的第一车辆的第一图像后,提取第一车辆的第一全局特征,对比该第一全局特征与基于车辆图像库中的第二图像提取的车辆的第二全局特征,从车辆图像库包括的车辆图像中确定第一车辆的图像。上述车辆重识别的方法存在如下问题:若两个车辆的外观十分相似,则可能出现将两个车辆的图像误判为同一车辆的图像的情况,即目前车辆重识别的方法存在准确率不高的技术问题。
发明内容
本申请提供了一种车辆重识别的方法、装置、设备和存储介质,提高了车辆重识别的准确度。
根据本申请的一方面,提供了一种车辆重识别的方法,包括:接收来自终端设备的重识别请求,所述重识别请求包括第一摄像头拍摄的第一车辆的第一图像、所述第一摄像头的信息;根据所述第一图像,获取所述第一车辆的第一特征和所述第一车辆的第一车头朝向;根据所述第一特征、基于图像数据库中的多个车辆的图像提取的多个第二特征、所述第一车头朝向以及所述第一摄像头的信息,从所述多个车辆的图像中确定所述第一车辆的第二图像;向终端设备发送所述第二图像。
根据本申请的技术提高了车辆重识别的准确度。
根据本申请的第二方面,提供了一种计算机程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,服务器的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得服务器执行第一方面所述的方法。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例提供的***架构图;
图2是本申请实施例提供的车辆重识别的方法的流程图;
图3是本申请实施例提供的车辆在图像中的车头朝向的示意图;
图4是本申请实施例提供的基于车头朝向和摄像头的信息进行车辆重识别的示意图一;
图5是本申请实施例提供的基于车头朝向和摄像头的信息进行车辆重识别的示意图二;
图6是本申请实施例提供的车辆重识别的装置的结构示意图;
图7是用来实现本申请实施例的车辆重识别的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
为了更好的理解本申请,本申请引入如下要素:
若摄像头A拍摄到的车辆的图像后,下一个拍摄到的该车辆的图像的摄像头为摄像头B,则摄像头A与摄像头B相邻。或者,摄像头B拍摄到的车辆的图像后,下一个拍摄到的该车辆的图像的摄像头为摄像头A,则摄像头A与摄像头B相邻。
本申请实施例涉及计算机技术领域中的计算机视觉、智能搜索、深度学习、智能交通领域,以达到提高车辆重识别的准确度的技术效果。
目前车辆重识别的方法为:服务器接收到第一摄像头拍摄的第一车辆的第一图像后,提取第一车辆的第一全局特征,对比该第一全局特征与基于车辆图像库中的第二图像提取的车辆的第二全局特征,从车辆图像库包括的车辆图像中确定第一车辆的图像。上述车辆重识别的方法存在如下问题:若两个车辆的外观十分相似,则可能出现将两个车辆的图像误判为同一车辆的图像的情况,即目前车辆重识别的方法存在准确率不高的技术问题。
为了解决该技术问题,本申请中引入了摄像头的信息以及车辆在摄像头拍摄的图像中的车头朝向,提高了车辆重识别的准确度。
图1为本申请实施例提供的***架构示意图,参见图1,该***架构包括:服务器和终端设备。
终端设备向服务器发送重识别请求,重识别请求包括第一摄像头拍摄的第一车辆的第一图像和第一摄像头的信息。服务器根据第一图像,获取第一车辆的第一特征和第一车辆的第一车头朝向;根据第一特征、基于图像数据库中的多个车辆的图像提取的多个第二特征、第一车头朝向以及第一摄像头的信息,从多个车辆的图像中确定第一车辆的第二图像。服务器向终端设备发送第二图像。可以理解的是,服务器还可向终端设备发送第二图像的拍摄时间、拍摄第二图像的摄像头的信息等。
下面采用具体的实施例对本申请的车辆重识别的方法进行说明。
图2为本申请实施例提供的车辆重识别的方法的流程图一,参见图2,本实施例的方法包括:
步骤S201、终端设备向服务器发送重识别请求,该重识别请求包括第一摄像头拍摄的第一车辆的第一图像和第一摄像头的信息。
可以理解的是,摄像头拍摄图像后,图像、图像的拍摄时间、摄像头的信息是关联存储的。其中,摄像头的信息包括摄像头的地理位置和摄像头的镜头朝向。
也就是说,第一车辆的第一图像是与第一图像的拍摄时间、第一摄像头的信息关联存储的,因此,重识别请求中还可包括第一图像的拍摄时间。
可选地,重识别请求中还可包括预设时间段。
第一车辆的至少一帧第一图像的获取方法可如下:服务器获取第一摄像头在第一时间段内拍摄的至少一帧图像;采用目标检测方法从至少一帧图像检测第一车辆,得到第一车辆的至少一帧第一图像。可以理解的是,第一图像的拍摄时间属于该第一时间段。
步骤S202、服务器根据第一图像,获取第一车辆的第一特征和第一车辆的第一车头朝向。
该步骤中服务器根据的第一图像可以是重识别请求中包括的所有的第一图像,还可以是去除了分辨率小于预设分辨率的第一图像后剩余的第一图像。
由于第一车辆的第一特征是基于第一图像得到的,因此,第一车辆的第一特征至少与车辆的外观相似,比如车辆的全局特征,因此,一种方案中,第一车辆的第一特征是第一车辆的全局特征。另一种方案中,第一车辆的第一车征为第一车辆的全局子特征和特征点子特征融合后的特征。其中,可定义N个特征点,第一车辆的特征点子特征包括第一车辆的N个特征点中的至少部分特征点的特征。其中,车辆的全局特征可以包含车辆的轮廓信息、车辆的颜色信息以及车辆的型号信息等信息中的至少一种。
本实施例中的第一车辆的车头朝向是根据第一车辆在第一图像中的车头朝向得到的,比如车辆在图3中A图的车头朝向为向下,在图3中B图的车头朝向为朝上,在图3中C图的车头朝向为朝右。
可以理解的是,车辆在图像中的车头朝向是与拍摄该图像的摄像头的镜头朝向以及车辆当前的行驶姿态相关的。比如,若车辆的行驶姿态使得摄像头的镜头朝向与车辆的车头相对,则拍摄出的图像如图3中A图的所示,车辆在图像中的车头朝向为向下。若车辆的行驶姿态使得摄像头的镜头在车辆的左侧,则拍摄出的图像如图3中C图的所示,车辆在图像中的车头朝向为朝右。若车辆的行驶姿态使得摄像头的镜头与车尾相对,则拍摄出的图像如图3中B图的所示,车辆在图像中的车头朝向为朝上。
步骤S203、服务器根据第一特征、基于图像数据库中的多个车辆的图像提取的多个第二特征、第一车辆的第一车头朝向以及第一摄像头的信息,从多个车辆的图像中确定第一车辆的第二图像。
可以理解的是,在重识别请求中包括预设时间段时,多个车辆的图像为在预设时间段内预设区域内的摄像头拍摄到的车辆图像。
本实施中的多个车辆与多个第二特征一一对应。可以理解的是,在第一车辆的第一特征为第一车辆的全局特征时,第二特征也为车辆的全局特征;在第一车辆的第一特征为第一车辆的全局子特征和特征点子特征融合后的特征时,第二特征也为相应的车辆的全局子特征和特征点子特征融合后的特征。且第一特征的获取方法与第二特征的获取方法相同。
可以理解的是,对于图像数据库中的图像所对应的任一车辆,该车辆从出现在摄像头的拍摄范围至车辆从该摄像头的拍摄范围内消失的时间段内,该摄像头能够拍摄到该车辆的至少一帧图像,可基于该车辆的至少一帧图像,得到该车辆的第二特征。
本实施例中的车辆重识别的方法,不仅考虑了车辆的特征,还考虑了车辆在图像中的车头朝向以及拍摄该图像的摄像头的信息,根据车辆在图像中的车头朝向以及拍摄该图像的摄像头的信息,可以预测该车辆在相邻的摄像头拍摄的该车辆的图像中的预测车头朝向,从而可以将相邻的摄像头中拍摄的特征相似但是车头朝向与预测车头朝向不同的图像滤除。因此本实施例的方法可以降低将与待重识别的车辆的外观相似的车辆的图像识别为该待重识别的车辆的概率,提高了车辆重识别的准确度。比如:待重识别车辆为车辆a,车辆b的特征与车辆a的特征相似度很高,车辆b的车头朝向为第一朝向,而根据拍摄车辆b的摄像头b的镜头朝向,预测车辆a在经过摄像头b时的车头朝向应该为第二朝向,因此可确定车辆b与车辆a不是同一个车辆,即不会将车辆b的图像确定为车辆a被摄像头b拍摄的图像。
步骤S204、服务器向终端设备发送从多个车辆的图像中确定第一车辆的第二图像。
可以理解的是,第二图像是与第二图像的拍摄时间、拍摄第二图像的摄像头的信息关联存储的,因此,服务器还会向终端设备发送第二图像的拍摄时间、拍摄第二图像的摄像头的信息。
本实施例中的车辆重识别的方法,不仅考虑了与车辆的特征,还考虑了车辆在图像中的车头朝向以及对应的摄像头的信息,因此可以降低将与待重识别的车辆的外观相似的车辆的图像识别为该待重识别的车辆的概率,提高了车辆重识别的准确度。
下面采用几个具体的实施例对图2所示的实施进行详细说明。
首先,采用具体的实施例对根据第一图像,获取第一图像的第一特征进行说明。
在一种方式中,第一车辆的第一特征包括第一车辆的全局特征,相应地,根据第一图像,获取第一车辆的第一特征,包括:基于第一图像,采用第二神经网络模型获取第一车辆的全局特征。其中,第二神经网络模型为事先训练好的,为用于提取车辆的全局特征的神经网络模型。
可以理解的是,第一图像为至少一帧,在一种具体的实现中,基于至少一帧第一图像,采用第二神经网络模型获取第一车辆的全局特征包括如下的a1~a2:
a1、对于每帧第一图像:基于该第一图像,采用第二神经网络模型,获取第一车辆与该第一图像对应的全局特征。
也就是说,基于第一图像可得到第二神经网络模型的输入向量,将该输入向量输入至第二神经网络模型,经第二神经网络模型所对应的算法计算后,得到第二神经网络模型的输出向量,该输出向量即为第一车辆与该第一图像对应的全局特征。
a2、在第一图像的帧数为多帧时,根据第一车辆与各第一图像对应的全局特征,得到第一车辆的全局特征。
一种具体的实现中,根据第一车辆与各第一图像对应的全局特征,得到第一车辆的全局特征包括:将基于各第一图像,采用第二神经网络模型得到的输出向量取平均值,得到的向量即为第一车辆的全局特征。其中,多个向量取平均值的含义为:将各向量相同位置处的分量相加后取平均值。
该种方式获取第一车辆的第一特征的效率较高。
在另一种方式中,相应地,根据第一图像,获取第一车辆的第一特征,包括如下的b1~b2:
b1、基于第一图像,采用第二神经网络模型获取第一车辆的全局子特征。
该步骤的具体实现可参照上述的a1~a2中所述,此处不再赘述。
b2、基于第一图像,采用第三神经网络模型获取第一车辆的特征点子特征。
在一种具体的实现中,基于第一图像,采用第三神经网络模型获取第一车辆的特征点子特征包括b21~b23:
b21、对于每帧第一图像:将第一图像输入预先训练得到的特征点提取模型中,根据特征点提取模型的输出结果获取第一车辆与该第一图像对应的特征点信息,该特征点信息包括第一车辆的特征点和特征点的标识。
其中,特征点提取模型可以采用以下方式预先训练得到:获取训练数据,所获取的训练数据中包含各训练车辆图像以及各训练车辆图像中车辆的特征点信息,其中特征点信息中包含训练车辆的各特征点以及各特征点的标识信息。训练过程中,将根据训练车辆图像得到的向量作为输入,将训练车辆图像中的训练车辆的特征点信息作为期望输出,训练神经网络,得到特征点提取模型。
b22、选取第一车辆与各第一图像对应的特征点信息中包括的相同的目特征点。对于每帧第一图像,根据目标特征点,获取第一车辆与该第一图像对应的特征点子特征。
本步骤可以采用以下方式:对于每帧第一图像,根据所确定的各目标特征点,将从第一图像中获取的仅包含单个目标特征点的最大矩形区域作为各目标特征点对应的局部块,例如以目标特征点的位置为中心来获取车辆图像中仅包含该特征点而不包含其他特征点的最大矩形区域;将各目标特征点对应的局部块调整为统一尺寸之后,依次将各目标特征点对应的局部块进行拼接;对拼接结果进行特征提取,将提取得到的特征作为第一车辆与该第一图像对应的特征点子特征。其中,本步骤可以使用预先训练得到的特征提取模型进行拼接结果的特征提取。可以理解的是,本步骤也可以无需获取各目标特征点对应的局部块,直接将第一车辆的各目标特征点依次进行拼接,从而将从拼接结果中所提取的特征作为第一车辆与该第一图像对应的特征点子特征。
b23、根据第一车辆与各第一图像对应的特征点子特征,得到第一车辆的特征点子特征。
可以理解的是,第一车辆与第一图像对应的特征点子特征为一特征向量,将各特征向量取平均得到第一车辆的特征点子特征。
b3、融合第一车辆的全局子特征和第一车辆的特征点子特征,得到第一车辆的第一特征。
该种方式获取的第一车辆的第一特征比较全面,进而提高了车辆重识别的准确度。
本实施例对基于第一图像,获取第一车辆的第一特征的具体实现进行了说明。
其次,采用具体的实施例对“根据第一图像,获取第一车辆的第一车头朝向”的具体实现进行说明。
一种方式中:根据第一图像,获取所述第一车辆的第一车头朝向,包括如下的d1~d2:
d1、对于每帧第一图像,根据该第一图像,获取第一车辆在该第一图像中的车头朝向。
基于该第一图像,采用第一神经网络模型获取第一车辆在第一图像中的车头朝向。一种具体的实现中:基于该第一图像,采用第一神经网络模型获取车头朝向标签,车头朝向标签用于指示第一车辆在该第一图像中的车头朝向为各预设车头朝向的概率;根据车头朝向标签,从各预设车头朝向中确定第一车辆在该第一图像中的车头朝向。
预设车头朝向可包括:朝上、朝下、朝左、朝右、朝右下、朝右上、朝左下、朝左上这八个方向。车头朝向标签可为(x1、x2、x3、x4、x5、x6、x7、x8),x1~x8可分别指示车头朝向为朝上、朝下、朝左、朝右、朝右下、朝右上、朝左下、朝左上的概率。
比如,基于该第一图像采用第一神经网络模型获取车头朝向标签为(0.1,0.05,0.7,0.05,0,0,0.1,0),则第一车辆在该第一图像中的车头朝向为朝左。
d2、根据第一车辆在各第一图像中的车头朝向,获取第一车辆的第一车头朝向。
第一车辆在各第一图像中的车头朝向可能包括多种车头朝向,每种车头朝向对应至少一帧第一图像,其中,车头朝向对应的图像的含义是车辆在该图像中为该车头朝向。此时,第一车辆的第一车头朝向是多种车头朝向中的第一种车头朝向,第一种车头朝向对应第一图像的数量最多。例外的,若该多种车头朝向中的各种车头朝向所对应的第一图像的数量相同,则确定第一车辆在拍摄时间最晚的第一图像中的车头朝向为第一车辆的第一车头朝向或者从该多种车头朝向中随机选取一种车头朝向作为第一车辆的第一车头朝向。若该多种车头朝向中的对应的第一图像的数量最多的车头朝向具有至少两种,则从至少两种车头朝向中随机选取一种车头朝向作为第一车辆的第一车头朝向。
该种方式中,获取的第一车辆的第一车头朝向的准确度较高。
另一种方式中:根据第一图像,获取第一车辆的第一车头朝向,包括:获取第一车辆在拍摄时间最晚的第一图像中的车头朝向,确定该车头朝向为第一车辆的第一车头朝向。
该种方式获取第一车辆的第一车头朝向的效率较高。
本实施例对根据第一图像,获取第一车辆的第一车头朝向的具体实现进行了说明。
接着,采用具体的实施例对“服务器根据第一特征、基于多个车辆的图像提取的多个第二特征、第一车辆的第一车头朝向以及第一摄像头的信息,从多个车辆的图像中确定第一车辆的第二图像”进行说明。
一种方案中,服务器根据第一特征、基于多个车辆的图像提取的多个第二特征、第一车辆的第一车头朝向以及第一摄像头的信息,从多个车辆的图像中确定第一车辆的第二图像,包括如下的e1~e2:
e1、根据第一车辆的第一特征、基于图像数据库中的多个车辆的图像提取的多个第二特征,从多个车辆的图像中确定预选车辆的图像;其中,基于预选车辆的图像提取的第二特征与第一特征的相似度大于或等于预设相似度。
其中,车辆的特征相似度的算法可参照目前通用的算法,此处不再赘述。
e2、根据预选车辆的车头朝向、第一车辆的第一车头朝向、第一摄像头的信息以及拍摄预选车辆的图像的摄像头的信息,从预选车辆的图像中确定第一车辆的第二图像。
其中,预选车辆的车头朝向的获取方法同第一车辆的第一车头朝向的获取方法。即预选车辆的车头朝向是基于该预选车辆的图像得到的。
在一种具体的实现中:对于目标拍摄时间在第一图像的目标拍摄时间之后的预选车辆的图像,从预选车辆的图像中确定第一车辆的第二图像包括e21~e23:
e21、执行第一操作,第一操作包括:根据第i基准车辆的车头朝向、第i基准摄像头的信息、第i预选摄像头的信息,确定第i基准车辆是否会出现在拍摄第i预选车辆的图像的第i预选摄像头中;若是,则获取第i基准车辆出现在第i预选摄像头中时的第i预测车头朝向,若第i预测车头朝向与第i预选车辆的车头朝向相同,则确定第i预选车辆的图像为第一车辆的第二图像;初始时,i=1时,第1基准车辆第一车辆,第1基准摄像头为第一摄像头,第i基准车辆的图像的目标拍摄时间在第i预选车辆的图像的目标拍摄时间之前且与第i预选车辆的图像的目标拍摄时间距离最短。
本实施例中,若摄像头在某一时间段拍摄到了多帧车辆A的图像,则定义该时间段内拍摄到的第一帧车辆A的图像的拍摄时间为车辆A的图像的目标拍摄时间,或者,定义该时间段内拍摄到的最后一帧车辆A的图像的拍摄时间为车辆A的图像的目标拍摄时间。车辆A的图像的目标拍摄时间还可以为其它的定义,本实施例中并不限制。
第i预选摄像头在相同的时间段可以对应有一个或多个第i预选车辆的图像,若对应有多个第i预选车辆的图像,则多个第i预选车辆的图像的目标拍摄时间相同,此时,需要将每个第i预选车辆的图像均进行e21中的操作,本领域技术人员应当明白该多个第i预选车辆的图像中存在不是第一车辆的图像。
可以理解的是,在正常行驶过程中,第i基准摄像头和第i预选摄像头相邻,第i预选摄像头和第i+1预选摄像头相邻。
其中,确定第i基准车辆是否会出现在拍摄第i预选车辆的图像的第i预选摄像头中可包括:基于第i基准车辆的车头朝向、第i基准摄像头的镜头朝向、第i基准摄像头的地理位置,确定第i基准车辆在第i基准摄像头所在的道路处的可能行驶方向;基于第i预选摄像头的地理位置、第i基准车辆的可能行驶方向确定第i基准车辆是否会出现在第i预选摄像头中。
e22、执行第二操作,第二操作包括:若存在未遍历到的目标拍摄时间晚于第一图像的目标拍摄时间的预选车辆的图像,则将i加1,以及若第i预选车辆的图像被确定为第二图像,则将第i预选车辆作为第i+1基准车辆,否则将第i基准车辆作为第i+1基准车辆。
e23、重复执行第一操作和第二操作,直至遍历完所有目标拍摄时间晚于所述第一图像的目标拍摄时间的预选车辆的图像。
对于目标拍摄时间在第一图像的目标拍摄时间之前的预选车辆的图像,从预选车辆的图像中确定第一车辆的第二图像包括e24~e26:
e24、执行第三操作,第三操作包括:根据第j基准车辆的车头朝向、第j基准摄像头的信息、第j预选摄像头的信息,确定第j基准车辆是否会出现在拍摄第j预选车辆的图像的第j预选摄像头中;若是,则获取第j基准车辆出现在第j预选摄像头中时的第j预测车头朝向,若第j预测车头朝向与第j预选车辆的车头朝向相同,则确定第j预选车辆的图像为第一车辆的第二图像;初始时,j=1时,第1基准车辆第一车辆,第1基准摄像头为第一摄像头,第j基准车辆的图像的目标拍摄时间在第j预选车辆的图像的目标拍摄时间之后且与第j预选车辆的图像的目标拍摄时间距离最短。
其中,确定第j基准车辆是否会出现在拍摄第j预选车辆的图像的第j预选摄像头中可包括:基于第j基准车辆的车头朝向、第j基准摄像头的镜头朝向、第j基准摄像头的地理位置,确定第j基准车辆能够行驶至第j基准摄像头处的可能行驶方向;基于第j预选摄像头的地理位置、第j基准车辆能够行驶至第j基准摄像头处的可能行驶方向,确定第j基准车辆是否会出现在第j预选摄像头中。
第j预选摄像头在相同的时间段可以对应有一个或多个第j预选车辆的图像,若对应有多个第j预选车辆的图像,则多个第j预选车辆的图像的目标拍摄时间相同,此时,需要将每个第j预选车辆的图像均进行e24中的操作,本领域技术人员应当明白该多个第j预选车辆的图像中存在不是第一车辆的图像。
可以理解的是,在正常行驶过程中,第j基准摄像头和第j预选摄像头相邻,第j预选摄像头和第j+1预选摄像头相邻。
e25、执行第四操作,第四操作包括:若存在未遍历到的拍摄时间早于第一图像的预选车辆的图像,将j加1,以及若第j预选车辆的图像为所述第二图像,则将第j预选车辆作为第j+1基准车辆,否则将所述第j基准车辆作为第j+1基准车辆;
e26、重复执行第三操作和第四操作,直至遍历完所有目标拍摄时间早于第一图像的目标拍摄时间的预选车辆的图像。
示例性地,各预选车辆的图像包括预选车辆1的图像1、预选车辆2的图像2和图像3、预选车辆3的图像4、预选车辆4的图像5、图像6和图像7,图像1为预选摄像头1拍摄的图像、图像2和图像3为预选摄像头2拍摄的图像、图像4为预选摄像头3拍摄的图像、图像5、图像6和图像7为预选摄像头4拍摄的图像。其中,图像1的目标拍摄时间早于第一图像的目标拍摄时间,图像2~7对应的拍摄时间晚于第一图像的目标拍摄时间。预选车辆1的图像1的目标拍摄时间早于第一车辆的第一图像的目标拍摄时间,第一车辆的第一图像的目标拍摄时间早于预选车辆2的图像的目标拍摄时间、预选车辆2的图像的目标拍摄时间早于预选车辆3的图像的目标拍摄时间、预选车辆3的图像的目标拍摄时间早于预选车辆4的图像的目标拍摄时间。
根据第一车辆的第一车头朝向、第一摄像头的地理位置和第一摄像头的镜头朝向、预选摄像头2的地理位置,确定第一车辆是否会出现在拍摄预选车辆2的图像的预选摄像头2中。具体确定方法可为:基于第一车辆的第一车头朝向、第一摄像头的镜头朝向和第一摄像头的地理位置,确定第一车辆的可能行驶方向。接着,基于预选摄像头2的地理位置、第一车辆的可能行驶方向确定第一车辆是否会出现在预选摄像头2中。具体可如图4中所示,基于第一车辆41的第一车头朝向、第一摄像头42的镜头朝向和第一摄像头的地理位置确定第一车辆的行驶状态,行驶状态包括行驶位置范围和车的姿态,比如图4中示出了第一车辆可能的位置和第一车辆的姿态,车的姿态包括:411为第一车辆的车头,412为第一车辆的车尾。根据该行驶状态确定第一车辆41的可能行驶方向为方向43。若确定预选摄像头2的地理位置为第一车辆沿方向43行驶可能够到达的摄像头的地理位置,则确定第一车辆会出现在预选摄像头2中。
若确定第一车辆会出现在预选摄像头2中,则根据第一车辆的可能行驶方向,预选摄像头2的镜头朝向,预测第一车辆在预选摄像头2拍摄的第一车辆的图像中的车头朝向,即获取第一车辆出现在预选摄像头2中的预测车头朝向,若该预测车头朝向与预选车辆2的车头朝向相同,则确定预选车辆2的图像2和图像3为第一车辆的第二图像。可以理解的是,预选车辆2的车头朝向是基于图像2和图像3,采用第一神经网络模型得到的。
接着,根据预选车辆2的车头朝向、预选摄像头2的地理位置和预选摄像头2的镜头朝向、预选摄像头3的地理位置,确定预选车辆2是否会出现在预选摄像头3中。具体确定方法可为:基于预选车辆2的车头朝向、预选摄像头2的镜头朝向以及预选摄像头2的地理位置,确定预选车辆2可能行驶方向。接着,基于预选摄像头3的地理位置和预选车辆2的可能行驶方向确定预选车辆2是否会出现在预选摄像头3中。若确定预选车辆2会出现在预选摄像头3中,则根据预选车辆2的可能行驶方向以及预选摄像头2的镜头朝向,预测预选车辆2在预选摄像头3拍摄的预选车辆2的图像中的车头朝向,即获取预选车辆2出现在预选摄像头3中时的预测车头朝向,若该预测车头朝向与预选车辆3的车头朝向相同,则确定预选车辆3的图像4为第一车辆的第二图像。
继续根据预选车辆3的车头朝向、预选摄像头3的地理位置和预选摄像头3的镜头朝向、预选摄像头4的地理位置,确定预选车辆3是否会出现在预选摄像头4中。若确定预选车辆3会出现在预选摄像头4中,则根据预选车辆3的可能行驶方向,预选摄像头4的镜头朝向,预测预选车辆3在预选摄像头4拍摄的预选车辆3的图像中的车头朝向,即获取预选车辆3出现在预选摄像头4中时的预测车头朝向,若该预测车头朝向与预选车辆4的车头朝向不相同,则确定预选车辆4的图像5~图像7不为第一车辆的第二图像。
最后,根据第一车辆的第一车头朝向、第一摄像头的地理位置和第一摄像头的镜头朝向、预选摄像头1的地理位置,确定第一车辆是否会出现在拍摄预选车辆1的图像的预选摄像头1中。具体确定方法可为:基于第一车辆的第一车头朝向、第一摄像头的镜头朝向,确定第一车辆能够行驶至第一摄像头处的可能行驶方向。接着,基于预选摄像头1的地理位置以及第一车辆能够行驶至第一摄像头处的可能行驶方向确定第一车辆是否会出现在预选摄像头1中。具体可如图5中所示,基于第一车辆41的第一车头朝向、第一摄像头42的镜头朝向和第一摄像头的地理位置确定第一车辆的行驶状态,行驶状态包括行驶位置范围和车的姿态,比如图5中示出了第一车辆的位置和车的姿态,车的姿态包括:411为第一车辆的车头,412为第一车辆的车尾。根据该行驶状态确定能够行驶至第一摄像头处的行驶方向为51。若确定预选摄像头1的地理位置能够使得第一车辆从预选摄像头1沿方向51行驶到达第一摄像头,则确定第一车辆会出现在预选摄像头1中。
若确定第一车辆会出现在预选摄像头1中,则根据第一车辆能够行驶至第一摄像头处的行驶方向,预选摄像头1的镜头朝向,预测第一车辆在预选摄像头1拍摄的第一车辆的图像中的车头朝向,即获取第一车辆出现在预选摄像头1中时的预测车头朝向,若该预测车头朝向与预选车辆1的车头朝向相同,则确定预选车辆1的图像1为第一车辆的第二图像。可以理解的是,若预选车辆1的图像1为第一车辆的第二图像,则第一车辆先出现在预选摄像头1的视野范围中,再出现在第一摄像头的视野范围中。
本实施例给出了服务器根据第一特征、基于多个车辆的图像提取的多个第二特征、第一车辆的第一车头朝向以及第一摄像头的信息,从多个车辆的图像中确定第一车辆的第二图像的一种具体实现。
以上对本申请所涉及的方法进行了说明,下面采用具体的实施例对本申请所涉及的装置进行说明。
图6为本申请实施例提供的车辆重识别的装置的结构示意图,参见图6,本实施例的装置可以包括:收发模块601和处理模块602。
收发模块601,用于接收来自终端设备的重识别请求,所述重识别请求包括第一摄像头拍摄的第一车辆的第一图像、所述第一摄像头的信息;处理模块602,用于根据所述第一图像,获取所述第一车辆的第一特征和所述第一车辆的第一车头朝向;所述处理模块602,用于根据所述第一特征、基于图像数据库中的多个车辆的图像提取的多个第二特征、所述第一车头朝向以及所述第一摄像头的信息,从所述多个车辆的图像中确定所述第一车辆的第二图像;所述收发模块601,还用于向终端设备发送所述第二图像。
可选地,其中,所述重识别请求包括第一摄像头拍摄的第一车辆的多帧第一图像;所述处理模块602,具体用于:对于每帧第一图像,根据该第一图像,获取所述第一车辆在该第一图像中的车头朝向;根据所述第一车辆在各第一图像中的车头朝向,获取所述第一车辆的第一车头朝向。
可选地,其中,所述处理模块602,具体用于:基于该第一图像,采用第一神经网络模型获取所述第一车辆在该第一图像中的车头朝向。
可选地,,所述处理模块602,具体用于:根据所述第一特征、基于多个车辆的图像提取的多个第二特征,从所述多个车辆的图像中确定预选车辆的图像;其中,基于所述预选车辆的图像提取的第二特征与所述第一特征的相似度大于或等于预设相似度;根据所述预选车辆的车头朝向、所述第一车头朝向、所述第一摄像头的信息以及拍摄所述预选车辆的图像的摄像头的信息,从所述预选车辆的图像中确定所述第一车辆的第二图像。
可选地,所述重识别请求还包括所述第一图像的拍摄时间,所述处理模块602,具体用于:对于目标拍摄时间在所述第一图像的目标拍摄时间之后的预选车辆的图像:执行第一操作,所述第一操作包括:根据第i基准车辆的车头朝向、第i基准摄像头的信息、拍摄第i预选车辆的图像的第i预选摄像头的信息,确定第i基准车辆是否会出现在第i预选摄像头中;若是,则获取第i基准车辆出现在第i预选摄像头中时的第i预测车头朝向,若第i预测车头朝向与第i预选车辆的车头朝向相同,则确定第i预选车辆的图像为所述第一车辆的第二图像;初始时,i=1时,第1基准车辆所述第一车辆,第1基准摄像头为所述第一摄像头,所述第i基准车辆的图像的目标拍摄时间在第i预选车辆的图像的目标拍摄时间之前且与第i预选车辆的图像的目标拍摄时间距离最短;执行第二操作,所述第二操作包括:若存在未遍历到的拍摄时间晚于所述第一图像的预选车辆的图像,则将所述i+1,以及若第i预选车辆的图像为所述第二图像,则将第i预选车辆作为第i+1基准车辆,否则将所述第i基准车辆作为第i+1基准车辆;重复执行所述第一操作和所述第二操作,直至遍历完所有目标拍摄时间晚于所述第一图像的目标拍摄时间的预选车辆的图像。
可选地,所述重识别请求还包括所述第一图像的拍摄时间,所述处理模块602,具体用于:对于目标拍摄时间在所述第一图像的目标拍摄时间之前的预选车辆的图像:执行第三操作,所述第三操作包括:根据第j基准车辆的车头朝向、第j基准摄像头的信息、拍摄第j预选车辆的图像的第j预选摄像头的信息,确定第j基准车辆是否会出现在第j预选摄像头中;若是,则获取第j基准车辆出现在第j预选摄像头中时的第j预测车头朝向,若第j预测车头朝向与第j预选车辆的车头朝向相同,则确定第j预选车辆的图像为所述第一车辆的第二图像;初始时,j=1时,第1基准车辆所述第一车辆,第1基准摄像头为所述第一摄像头,所述第j基准车辆的图像的拍摄时间在第j预选车辆的图像的目标拍摄时间之后且与第j预选车辆的图像的目标拍摄时间距离最短;执行第四操作,所述第四操作包括:若存在未遍历到的目标拍摄时间早于所述第一图像的目标拍摄时间的预选车辆的图像,则将所述j+1,以及若第j预选车辆的图像为所述第二图像,则将第j预选车辆作为第j+1基准车辆,否则将所述第j基准车辆作为第j+1基准车辆;重复执行所述第三操作和所述第四操作,直至遍历完所有目标拍摄时间早于所述第一图像的目标拍摄时间的预选车辆的图像。
可选地,其中,所述第一特征为所述第一车辆的全局特征,所述处理模块602,具体用于:基于所述第一图像,采用第二神经网络模型获取所述第一车辆的全局特征。
可选地,其中,所述第一特征为所述第一车辆的全局子特征和特征点子特征融合后的特征;所述根据所述第一图像,获取所述第一车辆的第一特征,包括:基于所述第一图像,采用第二神经网络模型获取所述第一车辆的全局子特征;基于所述第一图像,采用第三神经网络模型获取所述第一车辆的特征点子特征;融合所述全局子特征和所述特征点子特征,得到所述第一车辆的第一特征。
可选地,其中,摄像头的信息包括该摄像头的地理位置和该摄像头的镜头朝向。
本实施例的装置,可以用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
根据本申请的实施例,本申请还提供了一种计算机程序产品,程序产品包括:计算机程序,计算机程序存储在可读存储介质中,服务器的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得服务器执行上述任一实施例提供的方案。
如图7所示,是根据本申请实施例的车辆重识别的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图7所示,该电子设备包括:一个或多个处理器701、存储器702,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器***)。图7中以一个处理器701为例。
存储器702即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的车辆重识别的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的车辆重识别的方法。
存储器702作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的车辆重识别的方法对应的程序指令/模块(例如,附图6所示的收发模块601和处理模块602)。处理器701通过运行存储在存储器702中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的车辆重识别的方法。
存储器702可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据车辆重识别的电子设备的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器702可选包括相对于处理器701远程设置的存储器,这些远程存储器可以通过网络连接至车辆重识别的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
车辆重识别的方法的电子设备还可以包括:输入装置703和输出装置704。处理器701、存储器702、输入装置703和输出装置704可以通过总线或者其他方式连接,图7中以通过总线连接为例。
输入装置703可接收输入的数字或字符信息,以及产生与车辆重识别的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置704可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
这些计算机程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算机程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
本实施例中的车辆重识别的方法,不仅考虑了车辆的特征,还考虑了车辆在图像中的车头朝向以及拍摄该图像的摄像头的信息,根据车辆在图像中的车头朝向以及拍摄该图像的摄像头的信息,可以预测该车辆在相邻的摄像头拍摄的该车辆的图像中的预测车头朝向,从而可以将相邻的摄像头中拍摄的特征相似但是车头朝向与预测车头朝向不同的图像滤除。因此本实施例的方法可以降低将与待重识别的车辆的外观相似的车辆的图像识别为该待重识别的车辆的概率,提高了车辆重识别的准确度。
在本申请的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或者位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或者暗示所指的装置或者元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (18)
1.一种车辆重识别的方法,包括:
接收来自终端设备的重识别请求,所述重识别请求包括第一摄像头拍摄的第一车辆的第一图像和所述第一摄像头的信息;
根据所述第一图像,获取所述第一车辆的第一特征和所述第一车辆的第一车头朝向;
根据所述第一特征、基于图像数据库中的多个车辆的图像提取的多个第二特征,从所述多个车辆的图像中确定预选车辆的图像;其中,基于所述预选车辆的图像提取的第二特征与所述第一特征的相似度大于或等于预设相似度;
根据所述预选车辆的车头朝向、所述第一车头朝向、所述第一摄像头的信息以及拍摄所述预选车辆的图像的摄像头的信息,从所述预选车辆的图像中确定所述第一车辆的第二图像;所述第二图像中车辆的车头朝向与所述第一车辆出现在拍摄所述第二图像的摄像头中时所述第一车辆的预测朝向相同;
向终端设备发送所述第二图像。
2.根据权利要求1所述的方法,其中,所述重识别请求包括第一摄像头拍摄的第一车辆的多帧第一图像;根据所述第一图像,获取所述第一车辆的第一车头朝向,包括:
对于每帧第一图像,根据该第一图像,获取所述第一车辆在该第一图像中的车头朝向;
根据所述第一车辆在各第一图像中的车头朝向,获取所述第一车辆的第一车头朝向。
3.根据权利要求2所述的方法,其中,所述获取所述第一车辆在该第一图像中的车头朝向,包括:
基于该第一图像,采用第一神经网络模型获取所述第一车辆在该第一图像中的车头朝向。
4.根据权利要求1所述的方法,其中,所述重识别请求还包括所述第一图像的拍摄时间,所述从所述预选车辆的图像中确定所述第一车辆的第二图像,包括:对于目标拍摄时间在所述第一图像的目标拍摄时间之后的预选车辆的图像:
执行第一操作,所述第一操作包括:根据第i基准车辆的车头朝向、第i基准摄像头的信息、拍摄第i预选车辆的图像的第i预选摄像头的信息,确定第i基准车辆是否会出现在第i预选摄像头中;若是,则获取第i基准车辆出现在第i预选摄像头中时的第i预测车头朝向,若第i预测车头朝向与第i预选车辆的车头朝向相同,则确定第i预选车辆的图像为所述第一车辆的第二图像;初始时,i=1时,第1基准车辆所述第一车辆,第1基准摄像头为所述第一摄像头,所述第i基准车辆的图像的目标拍摄时间在第i预选车辆的图像的目标拍摄时间之前且与第i预选车辆的图像的目标拍摄时间距离最短;
执行第二操作,所述第二操作包括:若存在未遍历到的目标拍摄时间晚于所述第一图像的目标拍摄时间的预选车辆的图像,则将所述i加1,以及若第i预选车辆的图像为所述第二图像,则将第i预选车辆作为第i+1基准车辆,否则将所述第i基准车辆作为第i+1基准车辆;
重复执行所述第一操作和所述第二操作,直至遍历完所有目标拍摄时间晚于所述第一图像的目标拍摄时间的预选车辆的图像。
5.根据权利要求1所述的方法,所述重识别请求还包括所述第一图像的拍摄时间,所述从所述预选车辆的图像中确定所述第一车辆的第二图像,包括:对于目标拍摄时间在所述第一图像的目标拍摄时间之前的预选车辆的图像:
执行第三操作,所述第三操作包括:根据第j基准车辆的车头朝向、第j基准摄像头的信息、拍摄第j预选车辆的图像的第j预选摄像头的信息,确定第j基准车辆是否会出现在第j预选摄像头中;若是,则获取第j基准车辆出现在第j预选摄像头中时的第j预测车头朝向,若第j预测车头朝向与第j预选车辆的车头朝向相同,则确定第j预选车辆的图像为所述第一车辆的第二图像;初始时,j=1时,第1基准车辆所述第一车辆,第1基准摄像头为所述第一摄像头,所述第j基准车辆的图像的目标拍摄时间在第j预选车辆的图像的目标拍摄时间之后且与第j预选车辆的图像的目标拍摄时间距离最短;
执行第四操作,所述第四操作包括:若存在未遍历到的目标拍摄时间早于所述第一图像的目标拍摄时间的预选车辆的图像,则将所述j加1,以及若第j预选车辆的图像为所述第二图像,则将第j预选车辆作为第j+1基准车辆,否则将所述第j基准车辆作为第j+1基准车辆;
重复执行所述第三操作和所述第四操作,直至遍历完所有目标拍摄时间早于所述第一图像的目标拍摄时间的预选车辆的图像。
6.根据权利要求1~3任一项所述的方法,其中,所述第一车辆的第一特征为所述第一车辆的全局特征,所述根据所述第一图像,获取所述第一车辆的第一特征,包括:
基于所述第一图像,采用第二神经网络模型获取所述第一车辆的全局特征。
7.根据权利要求1~3任一项所述的方法,其中,所述第一特征为所述第一车辆的全局子特征和特征点子特征融合后的特征;所述根据所述第一图像,获取所述第一车辆的第一特征,包括:
基于所述第一图像,采用第二神经网络模型获取所述第一车辆的全局子特征;
基于所述第一图像,采用第三神经网络模型获取所述第一车辆的特征点子特征;
融合所述全局子特征和所述特征点子特征,得到所述第一车辆的第一特征。
8.根据权利要求1~3任一项所述的方法,其中,摄像头的信息包括该摄像头的地理位置和该摄像头的镜头朝向。
9.一种车辆重识别的装置,包括:
收发模块,用于接收来自终端设备的重识别请求,所述重识别请求包括第一摄像头拍摄的第一车辆的第一图像、所述第一摄像头的信息;
处理模块,用于根据所述第一图像,获取所述第一车辆的第一特征和所述第一车辆的第一车头朝向;
所述处理模块,用于根据所述第一特征、基于图像数据库中的多个车辆的图像提取的多个第二特征,从所述多个车辆的图像中确定预选车辆的图像;其中,基于所述预选车辆的图像提取的第二特征与所述第一特征的相似度大于或等于预设相似度;根据所述预选车辆的车头朝向、所述第一车头朝向、所述第一摄像头的信息以及拍摄所述预选车辆的图像的摄像头的信息,从所述预选车辆的图像中确定所述第一车辆的第二图像;所述第二图像中车辆的车头朝向与所述第一车辆出现在拍摄所述第二图像的摄像头中时所述第一车辆的预测朝向相同;
所述收发模块,还用于向终端设备发送所述第二图像。
10.根据权利要求9所述的装置,其中,所述重识别请求包括第一摄像头拍摄的第一车辆的多帧第一图像;所述处理模块,具体用于:
对于每帧第一图像,根据该第一图像,获取所述第一车辆在该第一图像中的车头朝向;
根据所述第一车辆在各第一图像中的车头朝向,获取所述第一车辆的第一车头朝向。
11.根据权利要求9所述的装置,其中,所述处理模块,具体用于:
基于该第一图像,采用第一神经网络模型获取所述第一车辆在该第一图像中的车头朝向。
12.根据权利要求9所述的装置,所述重识别请求还包括所述第一图像的拍摄时间,所述处理模块,具体用于:对于目标拍摄时间在所述第一图像的目标拍摄时间之后的预选车辆的图像:
执行第一操作,所述第一操作包括:根据第i基准车辆的车头朝向、第i基准摄像头的信息、拍摄第i预选车辆的图像的第i预选摄像头的信息,确定第i基准车辆是否会出现在第i预选摄像头中;若是,则获取第i基准车辆出现在第i预选摄像头中时的第i预测车头朝向,若第i预测车头朝向与第i预选车辆的车头朝向相同,则确定第i预选车辆的图像为所述第一车辆的第二图像;初始时,i=1时,第1基准车辆所述第一车辆,第1基准摄像头为所述第一摄像头,所述第i基准车辆的图像的目标拍摄时间在第i预选车辆的图像的目标拍摄时间之前且与第i预选车辆的图像的目标拍摄时间距离最短;
执行第二操作,所述第二操作包括:若存在未遍历到的目标拍摄时间晚于所述第一图像的目标拍摄时间的预选车辆的图像,则将所述i+1,以及若第i预选车辆的图像为所述第二图像,则将第i预选车辆作为第i+1基准车辆,否则将所述第i基准车辆作为第i+1基准车辆;
重复执行所述第一操作和所述第二操作,直至遍历完所有目标拍摄时间晚于所述第一图像的目标拍摄时间的预选车辆的图像。
13.根据权利要求9所述的装置,所述重识别请求还包括所述第一图像的拍摄时间,所述处理模块,具体用于:对于目标拍摄时间在所述第一图像的目标拍摄时间之前的预选车辆的图像:
执行第三操作,所述第三操作包括:根据第j基准车辆的车头朝向、第j基准摄像头的信息、拍摄第j预选车辆的图像的第j预选摄像头的信息,确定第j基准车辆是否会出现在第j预选摄像头中;若是,则获取第j基准车辆出现在第j预选摄像头中时的第j预测车头朝向,若第j预测车头朝向与第j预选车辆的车头朝向相同,则确定第j预选车辆的图像为所述第一车辆的第二图像;初始时,j=1时,第1基准车辆所述第一车辆,第1基准摄像头为所述第一摄像头,所述第j基准车辆的图像的目标拍摄时间在第j预选车辆的图像的目标拍摄时间之后且与第j预选车辆的图像的目标拍摄时间距离最短;
执行第四操作,所述第四操作包括:若存在未遍历到的目标拍摄时间早于所述第一图像的目标拍摄时间的预选车辆的图像,则将所述j+1,以及若第j预选车辆的图像为所述第二图像,则将第j预选车辆作为第j+1基准车辆,否则将所述第j基准车辆作为第j+1基准车辆;
重复执行所述第三操作和所述第四操作,直至遍历完所有目标拍摄时间早于所述第一图像的目标拍摄时间的预选车辆的图像。
14.根据权利要求9~11任一项所述的装置,其中,所述第一特征为所述第一车辆的全局特征,所述处理模块,具体用于:
基于所述第一图像,采用第二神经网络模型获取所述第一车辆的全局特征。
15.根据权利要求9~11任一项所述的装置,其中,所述第一特征为所述第一车辆的全局子特征和特征点子特征融合后的特征;所述根据所述第一图像,获取所述第一车辆的第一特征,包括:
基于所述第一图像,采用第二神经网络模型获取所述第一车辆的全局子特征;
基于所述第一图像,采用第三神经网络模型获取所述第一车辆的特征点子特征;
融合所述全局子特征和所述特征点子特征,得到所述第一车辆的第一特征。
16.根据权利要求9~11任一项所述的装置,其中,摄像头的信息包括该摄像头的地理位置和该摄像头的镜头朝向。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010613125.7A CN111723768B (zh) | 2020-06-30 | 2020-06-30 | 车辆重识别的方法、装置、设备和存储介质 |
US17/164,681 US11694436B2 (en) | 2020-06-30 | 2021-02-01 | Vehicle re-identification method, apparatus, device and storage medium |
EP21155041.3A EP3812963B1 (en) | 2020-06-30 | 2021-02-03 | Vehicle re-identification method, apparatus, device and storage medium |
KR1020210016168A KR20210037623A (ko) | 2020-06-30 | 2021-02-04 | 차량 재인식 방법, 장치, 기기 및 저장매체 |
JP2021050599A JP7268076B2 (ja) | 2020-06-30 | 2021-03-24 | 車両再識別の方法、装置、機器及び記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010613125.7A CN111723768B (zh) | 2020-06-30 | 2020-06-30 | 车辆重识别的方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111723768A CN111723768A (zh) | 2020-09-29 |
CN111723768B true CN111723768B (zh) | 2023-08-11 |
Family
ID=72570428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010613125.7A Active CN111723768B (zh) | 2020-06-30 | 2020-06-30 | 车辆重识别的方法、装置、设备和存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11694436B2 (zh) |
EP (1) | EP3812963B1 (zh) |
JP (1) | JP7268076B2 (zh) |
KR (1) | KR20210037623A (zh) |
CN (1) | CN111723768B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111629151B (zh) * | 2020-06-12 | 2023-01-24 | 北京字节跳动网络技术有限公司 | 视频合拍方法、装置、电子设备及计算机可读介质 |
CN112530169A (zh) * | 2020-10-29 | 2021-03-19 | 泰州市出彩网络科技有限公司 | 自适应潮汐车道变换*** |
CN112289040B (zh) * | 2020-11-25 | 2022-08-19 | 浙江大华技术股份有限公司 | 一种车辆行驶方向识别的方法、装置及存储介质 |
CN112990217A (zh) * | 2021-03-24 | 2021-06-18 | 北京百度网讯科技有限公司 | 针对车辆的图像识别方法、装置、电子设备和介质 |
CN113435333A (zh) * | 2021-06-28 | 2021-09-24 | 深圳市商汤科技有限公司 | 一种数据处理方法、装置、计算机设备和存储介质 |
CN113569912A (zh) * | 2021-06-28 | 2021-10-29 | 北京百度网讯科技有限公司 | 车辆识别方法、装置、电子设备及存储介质 |
CN113591928A (zh) * | 2021-07-05 | 2021-11-02 | 武汉工程大学 | 基于多视角和卷积注意力模块的车辆重识别方法和*** |
US20230298350A1 (en) * | 2022-03-15 | 2023-09-21 | Genetec Inc. | Vehicle identification system |
CN115588239B (zh) * | 2022-11-22 | 2023-04-18 | 浙江莲荷科技有限公司 | 交互行为识别方法、装置、设备及存储介质 |
CN115641559B (zh) * | 2022-12-23 | 2023-06-02 | 深圳佑驾创新科技有限公司 | 一种环视摄像头组的目标匹配方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110363193A (zh) * | 2019-06-12 | 2019-10-22 | 北京百度网讯科技有限公司 | 车辆重识别方法、装置、设备和计算机存储介质 |
CN110795580A (zh) * | 2019-10-23 | 2020-02-14 | 武汉理工大学 | 基于时空约束模型优化的车辆重识别方法 |
CN111160174A (zh) * | 2019-12-19 | 2020-05-15 | 深圳市捷顺科技实业股份有限公司 | 网络训练方法、车头朝向识别方法、装置及终端设备 |
CN111275983A (zh) * | 2020-02-14 | 2020-06-12 | 北京百度网讯科技有限公司 | 车辆追踪方法、装置、电子设备和计算机可读存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229468B (zh) * | 2017-06-28 | 2020-02-21 | 北京市商汤科技开发有限公司 | 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备 |
CN107610091A (zh) | 2017-07-31 | 2018-01-19 | 阿里巴巴集团控股有限公司 | 车险图像处理方法、装置、服务器及*** |
CN107622229B (zh) | 2017-08-29 | 2021-02-02 | 中山大学 | 一种基于融合特征的视频车辆重识别方法与*** |
JP2020065200A (ja) | 2018-10-18 | 2020-04-23 | パナソニックi−PROセンシングソリューションズ株式会社 | 車両等検知システムおよび車両等検知方法 |
JP2019106193A (ja) * | 2019-01-22 | 2019-06-27 | 株式会社 ディー・エヌ・エー | 情報処理装置、情報処理プログラム、及び、情報処理方法 |
CN110458086A (zh) * | 2019-08-07 | 2019-11-15 | 北京百度网讯科技有限公司 | 车辆重识别方法及装置 |
-
2020
- 2020-06-30 CN CN202010613125.7A patent/CN111723768B/zh active Active
-
2021
- 2021-02-01 US US17/164,681 patent/US11694436B2/en active Active
- 2021-02-03 EP EP21155041.3A patent/EP3812963B1/en active Active
- 2021-02-04 KR KR1020210016168A patent/KR20210037623A/ko not_active Application Discontinuation
- 2021-03-24 JP JP2021050599A patent/JP7268076B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110363193A (zh) * | 2019-06-12 | 2019-10-22 | 北京百度网讯科技有限公司 | 车辆重识别方法、装置、设备和计算机存储介质 |
CN110795580A (zh) * | 2019-10-23 | 2020-02-14 | 武汉理工大学 | 基于时空约束模型优化的车辆重识别方法 |
CN111160174A (zh) * | 2019-12-19 | 2020-05-15 | 深圳市捷顺科技实业股份有限公司 | 网络训练方法、车头朝向识别方法、装置及终端设备 |
CN111275983A (zh) * | 2020-02-14 | 2020-06-12 | 北京百度网讯科技有限公司 | 车辆追踪方法、装置、电子设备和计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
Poses Guide Spatiotemporal Model for Vehicle Re-identification;Xian Zhong等;《MMM 2019: MultiMedia Modeling》;20181211;全文 * |
Also Published As
Publication number | Publication date |
---|---|
US20210192214A1 (en) | 2021-06-24 |
JP2021103565A (ja) | 2021-07-15 |
CN111723768A (zh) | 2020-09-29 |
EP3812963A2 (en) | 2021-04-28 |
EP3812963B1 (en) | 2023-06-14 |
US11694436B2 (en) | 2023-07-04 |
JP7268076B2 (ja) | 2023-05-02 |
EP3812963A3 (en) | 2021-08-04 |
KR20210037623A (ko) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111723768B (zh) | 车辆重识别的方法、装置、设备和存储介质 | |
JP7429796B2 (ja) | 車両追跡方法、装置及び電子機器 | |
CN111797187B (zh) | 地图数据的更新方法、装置、电子设备和存储介质 | |
US11288887B2 (en) | Object tracking method and apparatus | |
CN111292531B (zh) | 交通信号灯的跟踪方法、装置、设备及存储介质 | |
CN112528786B (zh) | 车辆跟踪方法、装置及电子设备 | |
US20210312799A1 (en) | Detecting traffic anomaly event | |
CN111950537B (zh) | 斑马线信息获取方法、地图更新方法、装置及*** | |
CN110717933B (zh) | 针对运动物体漏检的后处理方法、装置、设备和介质 | |
CN112149636A (zh) | 用于检测目标物体的方法、装置、电子设备及存储介质 | |
CN111767831B (zh) | 用于处理图像的方法、装置、设备及存储介质 | |
EP3842995A1 (en) | Method and apparatus for generating map | |
CN113673281B (zh) | 限速信息确定方法、装置、设备以及存储介质 | |
CN111627241B (zh) | 用于生成路口车辆排队信息的方法和装置 | |
CN112577524A (zh) | 信息校正方法和装置 | |
CN113378769A (zh) | 图像分类方法和装置 | |
CN113361303B (zh) | 临时交通标志牌识别方法、装置及设备 | |
CN110798681B (zh) | 成像设备的监测方法、装置和计算机设备 | |
CN112307872A (zh) | 用于检测目标对象的方法的和装置 | |
CN114429631B (zh) | 三维对象检测方法、装置、设备以及存储介质 | |
CN112183484B (zh) | 一种图像处理方法、装置、设备以及存储介质 | |
CN112381877B (zh) | 定位融合、室内定位方法、装置、设备及介质 | |
CN112861811B (zh) | 目标识别方法、装置、设备、存储介质及雷达 | |
CN112558810B (zh) | 检测指尖位置的方法、装置、设备和存储介质 | |
CN113255404A (zh) | 车道线识别方法、装置、电子设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |