CN114972945A - 多机位信息融合的车辆识别方法、***、设备及存储介质 - Google Patents
多机位信息融合的车辆识别方法、***、设备及存储介质 Download PDFInfo
- Publication number
- CN114972945A CN114972945A CN202210704833.0A CN202210704833A CN114972945A CN 114972945 A CN114972945 A CN 114972945A CN 202210704833 A CN202210704833 A CN 202210704833A CN 114972945 A CN114972945 A CN 114972945A
- Authority
- CN
- China
- Prior art keywords
- image
- vehicle
- coordinate system
- head
- tail
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000004927 fusion Effects 0.000 title claims abstract description 37
- 238000013507 mapping Methods 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000009466 transformation Effects 0.000 claims description 22
- 238000005192 partition Methods 0.000 claims description 4
- 238000000926 separation method Methods 0.000 abstract description 14
- 230000000694 effects Effects 0.000 abstract description 10
- 230000004044 response Effects 0.000 abstract description 7
- 238000001514 detection method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005111 flow chemistry technique Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000026683 transduction Effects 0.000 description 1
- 238000010361 transduction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了多机位信息融合的车辆识别方法、***、设备及存储介质,该方法包括以下步骤:在通道的两端分别设置图像采集装置采集前向图像和后向图像;分别基于前向图像和后向图像建立第一图像坐标系和第二图像坐标系,并基于通道建立通道空间立体坐标系建立映射关系;对前向图像和后向图像进行车辆的图像识别;当图像中出现至少两个车辆时,获得前向图像和后向图像中每个车辆的车头、车尾所占的图像区域分别对应的通道空间立体坐标系中;基于各车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对。本发明能够基于多机位自动识别多车通过的场景,降低了整体成本,大大提高了识别的准确性和反应速度,分车效果鲁棒性高。
Description
技术领域
本发明涉及AI视觉技术领域,尤其涉及一种多机位信息融合的车辆识别方法、***、设备及存储介质。
背景技术
随着计算机技术的发展,车辆、集装箱自动识别技术在我国港口、码头应用越来越普及,可以极大地减少人力成本,加快工作效率,提升工作准确率。在这些自动识别技术中,有一项核心工作就是解决跟车问题,即在车辆相距较近的情况将识别到的信息分配给对应的车辆。通常识别任务是由多个不同角度的摄像机配合完成(比如识别车牌的、识别箱号的等等),最终识别结果需要将这些信息融合在一起。在前后两车距离很近时,各个摄像机看到的场景是不一样的(有的是前一辆车的画面,有的是后一辆车的画面),因此很容易把前后车的识别结果弄混淆。
目前的解决方案有视觉目标追踪算法和基于激光雷达的分车方案两种。前者应用场景单一,只能应用于简单作业场景,在复杂的实际作业中效果不稳定。后者需要额外的激光雷达设备辅助,成本较高且增加技术复杂度。
有鉴于此,本发明提供了一种多机位信息融合的车辆识别方法、***、设备及存储介质。
需要说明的是,上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
针对现有技术中的问题,本发明的目的在于提供多机位信息融合的车辆识别方法、***、设备及存储介质,克服了现有技术的困难,能够基于多机位自动识别多车通过的场景,降低了整体成本,大大提高了识别的准确性和反应速度,分车效果鲁棒性高。
本发明的实施例提供一种多机位信息融合的车辆识别方法,包括以下步骤:
在通道的两端分别设置图像采集装置采集前向图像和后向图像;
分别基于所述前向图像和后向图像建立第一图像坐标系和第二图像坐标系,并基于所述通道建立所述通道空间立体坐标系,建立所述第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系;
对所述前向图像和后向图像进行车辆的图像识别;
当图像中出现至少两个车辆时,获得所述前向图像和后向图像中每个车辆的车头、车尾所占的图像区域分别对应的所述通道空间立体坐标系中;
基于各所述车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对。
优选地,所述在通道的两端分别设置图像采集装置采集前向图像和后向图像,包括:
所述通道为一单向车道,设置在所述通道的去向的图像采集装置采集经过所述通道的车辆的前向图像,设置在所述通道的来向的图像采集装置采集经过所述通道的车辆的后向图像。
优选地,所述分别基于所述前向图像和后向图像建立第一图像坐标系和第二图像坐标系,并基于所述通道建立所述通道空间立体坐标系,建立所述第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系,包括:
分别基于所述前向图像和后向图像建立第一图像坐标系和第二图像坐标系;
选取所述通道的不在同一直线上的四个公共特征点,分别记录每个公共特征点在所述第一图像坐标系和第二图像坐标系中的坐标;
获得每个所述图像采集装置的透视变换矩阵,建立所述第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系。
优选地,所述对所述前向图像和后向图像进行车辆的图像识别,包括:
对所述前向图像进行车辆的图像识别,并识别所述车辆部分对应的像素区域内的车头区域图像的坐标范围和第一文本信息;
对所述后向图像进行车辆的图像识别,并识别所述车辆部分对应的像素区域内的车尾区域图像的坐标范围和第二文本信息。
优选地,所述当图像中出现至少两个车辆时,获得所述前向图像和后向图像中每个车辆的车头、车尾所占的图像区域分别对应的所述通道空间立体坐标系中,包括:
根据采集前向图像的所述图像采集装置的透视变换矩阵将所述车辆的车头区域所占的图像区域映射到所述通道空间立体坐标系中,并基于相互分离的至少两个所述车头所占的图像区域建立车头区域图像的集合;
根据采集后向图像的所述图像采集装置的透视变换矩阵将所述车辆的车尾区域所占的图像区域映射到所述通道空间立体坐标系中,并基于相互分离的至少两个所述车尾所占的图像区域建立车尾区域图像的集合。
优选地,所述基于各所述车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对,包括:
自所述车头区域图像的集合依次取出一个所述车头区域图像,并在所述车尾区域图像的集合中取出一个在所述通道空间立体坐标系中沿所述来向与所述车头的距离最小的车尾区域图像,组成整车图像集;
将所述第一文本信息和第二文本信息添加到包含对应的所述车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息。
优选地,所述根据采集前向图像的所述图像采集装置的透视变换矩阵将所述车辆的车头区域所占的图像区域映射到所述通道空间立体坐标系中,并基于相互分离的至少两个所述车头所占的图像区域建立车头区域图像的集合,还包括:
根据所述车头区域图像识别对应的车型,基于所述车型获得所述车辆的预设长度范围;
所述基于各所述车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对,包括:
基于每个所述车头区域图像在所述通道空间立体坐标系中的位置沿所述通道的来向在所述车头区域图像该范围的对应的预设长度范围中匹配一车尾区域图案,组成整车图像集;
将所述第一文本信息和第二文本信息添加到包含对应的所述车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息。
本发明的实施例还提供一种多机位信息融合的车辆识别***,用于实现上述的多机位信息融合的车辆识别方法,多机位信息融合的车辆识别***包括:
图像采集模块,在通道的两端分别设置图像采集装置采集前向图像和后向图像;
映射关系模块,分别基于所述前向图像和后向图像建立第一图像坐标系和第二图像坐标系,并基于所述通道建立所述通道空间立体坐标系,建立所述第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系;
图像识别模块,对所述前向图像和后向图像进行车辆的图像识别;
分区识别模块,当图像中出现至少两个车辆时,获得所述前向图像和后向图像中每个车辆的车头、车尾所占的图像区域分别对应的所述通道空间立体坐标系中;
图案配对模块,基于各所述车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对。
本发明的实施例还提供一种多机位信息融合的车辆识别设备,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行上述多机位信息融合的车辆识别方法的步骤。
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现上述多机位信息融合的车辆识别方法的步骤。
本发明的多机位信息融合的车辆识别方法、***、设备及存储介质,能够基于多机位自动识别多车通过的场景,降低了整体成本,大大提高了识别的准确性和反应速度,分车效果鲁棒性高。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明的多机位信息融合的车辆识别方法的流程图。
图2是本发明的多机位信息融合的车辆识别方法的一种实施过程景的示意图。
图3至9是本发明的多机位信息融合的车辆识别方法的另一种实施过程景的示意图。
图10是本发明的多机位信息融合的车辆识别***的结构示意图。
图11是本发明的多机位信息融合的车辆识别设备的结构示意图。以及
图12是本发明一实施例的计算机可读存储介质的结构示意图。
具体实施方式
以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本申请所揭露的内容轻易地了解本申请的其他优点与功效。本申请还可以通过另外不同的具体实施方式加以实施或应用***,本申请中的各项细节也可以根据不同观点与应用***,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面以附图为参考,针对本申请的实施例进行详细说明,以便本申请所属技术领域的技术人员能够容易地实施。本申请可以以多种不同形态体现,并不限定于此处说明的实施例。
在本申请的表示中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的表示意指结合该实施例或示例表示的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,表示的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本申请中表示的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于表示目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的表示中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
为了明确说明本申请,省略与说明无关的器件,对于通篇说明书中相同或类似的构成要素,赋予了相同的参照符号。
在通篇说明书中,当说某器件与另一器件“连接”时,这不仅包括“直接连接”的情形,也包括在其中间把其它元件置于其间而“间接连接”的情形。另外,当说某种器件“包括”某种构成要素时,只要没有特别相反的记载,则并非将其它构成要素排除在外,而是意味着可以还包括其它构成要素。
当说某器件在另一器件“之上”时,这可以是直接在另一器件之上,但也可以在其之间伴随着其它器件。当对照地说某器件“直接”在另一器件“之上”时,其之间不伴随其它器件。
虽然在一些实例中术语第一、第二等在本发明中用来表示各种元件,但是这些元件不应当被这些术语限制。这些术语仅用来将一个元件与另一个元件进行区分。例如,第一接口及第二接口等表示。再者,如同在本发明中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
此处使用的专业术语只用于言及特定实施例,并非意在限定本申请。此处使用的单数形态,只要语句未明确表示出与之相反的意义,那么还包括复数形态。在说明书中使用的“包括”的意义是把特定特性、区域、整数、步骤、作业、要素及/或成份具体化,并非排除其它特性、区域、整数、步骤、作业、要素及/或成份的存在或附加。
虽然未不同地定义,但包括此处使用的技术术语及科学术语,所有术语均具有与本申请所属技术领域的技术人员一般理解的意义相同的意义。普通使用的字典中定义的术语追加解释为具有与相关技术文献和当前提示的内容相符的意义,只要未进行定义,不得过度解释为理想的或非常公式性的意义。
图1是本发明的多机位信息融合的车辆识别方法的流程图。如图1 所示,本发明的实施例提供一种多机位信息融合的车辆识别方法,包括以下步骤:
S110、在通道的两端分别设置图像采集装置采集前向图像和后向图像。
S120、分别基于前向图像和后向图像建立第一图像坐标系和第二图像坐标系,并基于通道建立通道空间立体坐标系,建立第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系。
S130、对前向图像和后向图像进行车辆的图像识别。
S140、当图像中出现至少两个车辆时,获得前向图像和后向图像中每个车辆的车头、车尾所占的图像区域分别对应的通道空间立体坐标系中。
S150、基于各车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对。
本发明的技术方案将原始的多个摄像机画面经过特定变换后映射到同一坐标系下,利用检测到的车辆和集装箱信息,把车辆在现实中的3D 位置信息在此坐标系中表示出来,从而给不同车辆划分不同的坐标范围达到最终的分车目的。
在一个优选实施例中,步骤S110中,通道为一单向车道,设置在通道的去向的图像采集装置采集经过通道的车辆的前向图像,设置在通道的来向的图像采集装置采集经过通道的车辆的后向图像,但不以此为限。
在一个优选实施例中,步骤S120中,包括:
S121、分别基于前向图像和后向图像建立第一图像坐标系和第二图像坐标系。
S122、选取通道的不在同一直线上的四个公共特征点,分别记录每个公共特征点在第一图像坐标系和第二图像坐标系中的坐标。
S123、获得每个图像采集装置的透视变换矩阵,建立第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系,但不以此为限。
在一个优选实施例中,步骤S130中,包括:
S131、对前向图像进行车辆的图像识别,并识别车辆部分对应的像素区域内的车头区域图像的坐标范围和第一文本信息。
S132、对后向图像进行车辆的图像识别,并识别车辆部分对应的像素区域内的车尾区域图像的坐标范围和第二文本信息,但不以此为限。
在一个优选实施例中,步骤S140中,包括:
S141、根据采集前向图像的图像采集装置的透视变换矩阵将车辆的车头区域所占的图像区域映射到通道空间立体坐标系中,并基于相互分离的至少两个车头所占的图像区域建立车头区域图像的集合。
S142、根据采集后向图像的图像采集装置的透视变换矩阵将车辆的车尾区域所占的图像区域映射到通道空间立体坐标系中,并基于相互分离的至少两个车尾所占的图像区域建立车尾区域图像的集合,但不以此为限。
在一个优选实施例中,步骤S150中,包括:
S151、自车头区域图像的集合依次取出一个车头区域图像,并在车尾区域图像的集合中取出一个在通道空间立体坐标系中沿来向与车头的距离最小的车尾区域图像,组成整车图像集。
S152、将第一文本信息和第二文本信息添加到包含对应的车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息,但不以此为限。
在一个优选实施例中,步骤S131中还包括根据车头区域图像识别对应的车型,基于车型获得车辆的预设长度范围。
步骤S150,包括:
S153、基于每个车头区域图像在通道空间立体坐标系中的位置沿通道的来向在车头区域图像该范围的对应的预设长度范围中匹配一车尾区域图案,组成整车图像集。
S154、将第一文本信息和第二文本信息添加到包含对应的车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息,但不以此为限。
本发明的目的在于克服现有技术的缺点和不足,基于原始的多摄像机画面,提供一种智能化实时识别车辆并定位它们的前后位置关系的技术方案,从而解决自动化识别过程中分车困难的问题,本发明的优点主要体现在以下几个地方:
(1)技术成本低,基于原有的检测摄像机即可,不需要激光雷达等额外设备辅助就能实现3D空间中车辆相对位置确认。
(2)分车效果鲁棒性高,根据真实场景坐标来区分车辆范围,能够兼容停车、倒车、快速过车等复杂作业场景。
(3)拓展性强,可应用于在于车牌检测、箱号检测、限重识别等自动检测流程中。
图2是本发明的多机位信息融合的车辆识别方法的一种实施过程景的示意图。如图2所示,本发明的一种实施过程主要包括:
首先是步骤S1,对输入的各个摄像机进行目标检测,主要检测车辆的车头、车尾以及车载的集装箱的前箱门面和后箱门面,得到各个目标的检测框信息;
如上的S1目标检测步骤,其具体步骤在于:
S11、收集对应场景过车的视频或图片数据。
S12、对数据进行人工标注,具体目标为车头、车架、前箱门、后箱门物体。
S13、对标注好的数据,选取80%数据用于训练 You-Only-Look-OnceV5(YOLOV5)神经网络模型。其中,YOLO(You Only Look Once),由R.Joseph等人在2015提出,是YOLO系列的开山之作,也是深度学习领域第一个one-stage detector。它速度极快,在VOC上保证mAP=52.7%时能跑到155fps。作为一个one-stage 检测器,YOLO没有生成建议框这一步骤,它直接将图片划分为S×S 个网格(grid cell),每个网格对中心点落入其中的目标进行检测(如果目标的中心点落入某个格子中,就认为这个格子“包含”了这个目标,就由这个格子负责对这个目标的检测)。YOLO进行目标检测是端到端 (end-to-end)的,直接从输入到输出,一步到位,没有中间步骤。而且, YOLO的训练也是端到端的。
S14、用训练好的模型对各个摄像头画面进行目标检测,得到不同目标的矩形检测框,检测框的坐标形式为[X1,Y1,X2,Y2],分别表示目标左上角点和右下角点坐标。
其次是步骤S2,分别对各个摄像机的检测框信息进行固定方式的坐标映射,从而将各个摄像机的车辆信息放在同一坐标系下面,得到统一的车辆位置关系;
如上的S2坐标映射步骤,其具体步骤在于:
S21、标定各摄像机,选取四个公共的区域,记录其在各摄像机中的像素位置,如附图的图3,并将它们映射到同样的四个坐标上,记录对应的四个坐标像素位置。
S22、根据上一步得到的相对坐标,使用SVD分解的方法,按下面的公式计算,其中x,y代表原始点的像素坐标,X,Y,Z代表变化后的像素坐标(由于是2d图片信息,z的值一般为1),求解方程组可得到各个摄像头的透视变换矩阵A(一共9个系数,a33默认为1)。 SVD(Singular Value Decomposition,奇异值分解)是线性代数的工具,它揭示了矩阵最本质的变换.使用SVD对矩阵进行分解,能得到代表矩阵最本质变化的矩阵元素.这就好比一个合数能表示为若干质数之积,分解合数能得到表示该合数的质因数;复杂周期信号可以表示为若干简单的正弦波和余弦波之和,使用傅里叶变换能得到表示该信号的简单波;复杂矩阵所代表的线性变换可由若干个简单矩阵所代表的线性变换组合起来,使用SVD能找到这些简单矩阵。
S23、根据上一步得到的透视变化矩阵A,把S1步骤得到的检测框,分别按如下公式计算它们映射在统一坐标系中的像素坐标,其中x,y代表检测框原始的像素坐标,X′,Y′,Z′表示映射后的像素坐标(Z′默认为1)
然后是步骤S3,将映射后的坐标信息传入逻辑算法,根据上一时刻车辆的信息,经逻辑过滤和匹配,更新当前时刻的车辆状态和位置范围;
如上的S3逻辑算法步骤,其具体步骤在于:
S31、标记上一帧和当前帧的车辆状态为无车的初始状态。
S32、当前帧经过S1目标检测和S2坐标映射步骤后,得到的不同视角下车辆的位置信息在统一坐标系中的表示,然后更新当前帧车辆数量和车辆坐标范围,并把当前帧的信息记录为上一帧。
S33、接收新一帧的信息,重复S32步骤。
最后是步骤S4,将当前的各车辆位置范围输出给其他识别流程,以将最终识别结果匹配到对应范围的车辆上面。
图3至9是本发明的多机位信息融合的车辆识别方法的另一种实施过程景的示意图。如图3至8所示,本发明的另一种实施过程主要包括:
如图3所示,基于码头或是道路的一条通道10的两端分别设置图像采集装置采集经过通道10的车辆21、22的前向图像(车头方向的图像) 和后向图像(车尾方向的图像)。通道10为一单向车道,并且,设置在通道10的去向10A的图像采集装置11(例如:道路监控摄像机)采集经过通道10的车辆的前向图像,设置在通道10的来向10B的图像采集装置12(例如:道路监控摄像机)采集经过通道10的车辆的后向图像。图像采集装置11和图像采集装置12分别把拍摄到的视频发送到服务器3 中。
如图4至7所示,基于前向图像3建立第一图像坐标系。如图5所示,基于后向图像4建立第二图像坐标系。分别和后向图像建立第一图像坐标系和第二图像坐标系,并基于通道10建立通道10空间立体坐标系,建立第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系。例如:分别基于前向图像和后向图像建立第一图像坐标系和第二图像坐标系;还未有车辆通过的时候,先选取通道10的不在同一直线上的四个公共特征点(可以是地面上的标记或是路边的灯柱、栏杆等),分别记录每个公共特征点在第一图像坐标系和第二图像坐标系中的坐标;获得每个图像采集装置的透视变换矩阵,从而在实施后续识别之前预先建立第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系。本发明中也可以通过现有的基于地面标志物的多机位相机进行标定,从而获得每个相机中的像素位置与真实三维空间中的位置关系,但不以此为限。
继续参见图4和6,通过经过训练的车辆识别神经网络对前向图像进行车辆的图像识别,识别出两个车辆部分对应的像素区域31、32内的车头区域图像的坐标范围33、34以及通过识别字符的文本神经网络去识别坐标范围31、坐标范围32中各自包含的第一文本信息。其中坐标范围 31包括了车牌号:津AH6139和集装箱的箱号前箱:OOLU 9974030 45G1。坐标范围32包括了车牌号:沪A123456。并且,建立车头区域 33与像素区域31、车头区域34与像素区域32的对应关系。还根据车头区域图像识别对应的车型,基于车型获得车辆的预设长度范围,坐标范围 33对应的车型是集装箱卡车,预设长度范围为16米至19米。坐标范围 34对应的车型是家用轿车,预设长度范围为3.5米至5米。
继续参见图5和7,对后向图像进行车辆的图像识别,并识别车辆部分对应的像素区域内的车尾区域图像41、42的坐标范围和通过识别字符的文本神经网络去识别坐标范围41、坐标范围44中各自包含的第二文本信息,此处不再赘述。并且,建立车尾区域43与像素区域41、车尾区域 44与像素区域42的对应关系。
继续参见图8,根据采集前向图像的图像采集装置的透视变换矩阵将车辆的车头区域33、34所占的图像区域映射到通道10空间立体坐标系中,第一车头区域33对应的空间立体坐标系中第一垂直区域331,第二车头区域34对应的空间立体坐标系中第二垂直区域341。并基于相互分离的至少两个车头区域33、34所占的图像区域建立车头区域图像的集合。
根据采集后向图像的图像采集装置的透视变换矩阵将车辆的车尾区域43、44分别所占的图像区域映射到通道10空间立体坐标系中,第一车尾区域43对应的空间立体坐标系中第三垂直区域431,第二车尾区域 44对应的空间立体坐标系中第四垂直区域441,并基于相互分离的至少两个车尾区域43、44所占的图像区域建立车尾区域图像的集合。
本发明一种车头车尾配对的方式是:
自车头区域图像的集合依次取出一个车头区域图像,并在车尾区域图像的集合中取出一个在通道10空间立体坐标系中沿来向10B与车头的距离最小的车尾区域图像,组成整车图像集;将第一文本信息和第二文本信息添加到包含对应的车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息。
例如,自车头区域图像的集合先取出第一车头区域33对应的第一垂直区域331,并在车尾区域图像的集合中取出一个在通道10空间立体坐标系中沿来向10B与第一垂直区域331的距离最小的车尾区域图像对应的第三垂直区域431(来向10B,第三垂直区域431比第四垂直区域441 更靠近第一垂直区域331),由于第三垂直区域431对应得的第一车尾区域43,则将第一车头区域33具有对应关系的坐标范围31和第一车尾区域43具有对应关系的坐标范围41组成整车图像集,并将第一文本信息“车牌号:津AH6139和集装箱的箱号前箱:OOLU 9974030 45G1”添加到整车图像集中,生成针对车辆21的车辆识别信息。
然后自车头区域图像的集合取出余下的第二车头区域34对应的第二垂直区域341,并在车尾区域图像的集合中取出一个在通道10空间立体坐标系中沿来向10B与第二垂直区域341的距离最小的车尾区域图像对应的第四垂直区域441,由于第四垂直区域441对应的第二车尾区域44,则将第二车头区域34具有对应关系的坐标范围32和二车尾区域44具有对应关系的坐标范围42组成整车图像集,并将坐标范围32包含的第一文本信息“车牌号:沪A123456”添加到整车图像集中,生成针对车辆22 的车辆识别信息。从而实现对多车同时通过通道的分车识别检测,而且,可以用于三车、四车的同时通过的识别场景。
继续参见图9,本发明另一种车头车尾配对的方式是:
利用之前获得的基于车型获得车辆的预设长度范围信息,坐标范围 33对应的车型是集装箱卡车,预设长度范围为16米至19米。坐标范围 34对应的车型是家用轿车,预设长度范围为3.5米至5米。基于每个车头区域图像在通道10空间立体坐标系中的位置沿通道10的来向10B在车头区域图像该范围的对应的预设长度范围中匹配一车尾区域图案,组成整车图像集;将第一文本信息和第二文本信息添加到包含对应的车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息。
例如:自车头区域图像的集合先取出第一车头区域33对应的第一垂直区域331,自第一垂直区域331的位置向来向10B延展16米至19米的范围,自车尾区域图像的集合中取出一个位于该范围内的第三垂直区域 431(本实施例中,第三垂直区域431的中心与第一垂直区域331的中心的间距D1为17.5米,满足坐标范围33中的车头图像对应预设车长范围16米至19米),由于第三垂直区域431对应得的第一车尾区域43,则将第一车头区域33具有对应关系的坐标范围31和第一车尾区域43具有对应关系的坐标范围41组成整车图像集,并将第一文本信息“车牌号:津AH6139和集装箱的箱号前箱:OOLU 9974030 45G1”添加到整车图像集中,生成针对车辆21的车辆识别信息。
同理,自车头区域图像的集合在取出第二车头区域34对应的第三垂直区域341,自第三垂直区域341的位置向来向延展16米至19米的范围,自车尾区域图像的集合中取出一个位于该范围内的第四垂直区域441 (本实施例中,第四垂直区域441的中心与第二垂直区域341的中心的间距D1为4.2米,满足坐标范围34中的车头图像对应预设车长范围3.5 米至5米),由于第四垂直区域441对应得的第二车尾区域44,则将第二车头区域34具有对应关系的坐标范围32和第二车尾区域44具有对应关系的坐标范围42组成整车图像集,并将坐标范围32包含的第一文本信息“车牌号:沪A123456”添加到整车图像集中,生成针对车辆22的车辆识别信息。后续不再赘述。
本发明中使用到的识别车辆图片、车头图片、车尾图片的神经网络都是经过海量车辆、车头、车尾图片训练的图片识别神经网络,从而提高识别进度和计算速度。并且基于车头与车型、车长的映射关系模型是一个预设的映射模型,此处不在赘述。
本发明中使用到的图像采集装置11、12都是最基础的摄像机,不需要激光雷达或是双目相机,从而大大降低了整体成本,有利于码头、闸道等场景下的,基于现有设备的智能升级。
图10是本发明的多机位信息融合的车辆识别***的结构示意图。如图10所示,本发明的多机位信息融合的车辆识别***5,包括:
图像采集模块51,在通道的两端分别设置图像采集装置采集前向图像和后向图像。
映射关系模块52,分别基于前向图像和后向图像建立第一图像坐标系和第二图像坐标系,并基于通道建立通道空间立体坐标系,建立第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系。
图像识别模块53,对前向图像和后向图像进行车辆的图像识别。
分区识别模块54,当图像中出现至少两个车辆时,获得前向图像和后向图像中每个车辆的车头、车尾所占的图像区域分别对应的通道空间立体坐标系中。
图案配对模块55,基于各车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对。
在一个优选实施例中,图像采集模块51被配置为令通道为一单向车道,设置在通道的去向的图像采集装置采集经过通道的车辆的前向图像,设置在通道的来向的图像采集装置采集经过通道的车辆的后向图像。
在一个优选实施例中,映射关系模块52被配置为分别基于前向图像和后向图像建立第一图像坐标系和第二图像坐标系。选取通道的不在同一直线上的四个公共特征点,分别记录每个公共特征点在第一图像坐标系和第二图像坐标系中的坐标。获得每个图像采集装置的透视变换矩阵,建立第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系。
在一个优选实施例中,图像识别模块53被配置为对前向图像进行车辆的图像识别,并识别车辆部分对应的像素区域内的车头区域图像的坐标范围和第一文本信息。对后向图像进行车辆的图像识别,并识别车辆部分对应的像素区域内的车尾区域图像的坐标范围和第二文本信息。
在一个优选实施例中,分区识别模块54被配置为根据采集前向图像的图像采集装置的透视变换矩阵将车辆的车头区域所占的图像区域映射到通道空间立体坐标系中,并基于相互分离的至少两个车头所占的图像区域建立车头区域图像的集合。根据采集后向图像的图像采集装置的透视变换矩阵将车辆的车尾区域所占的图像区域映射到通道空间立体坐标系中,并基于相互分离的至少两个车尾所占的图像区域建立车尾区域图像的集合。
在一个优选实施例中,图案配对模块55被配置为自车头区域图像的集合依次取出一个车头区域图像,并在车尾区域图像的集合中取出一个在通道空间立体坐标系中沿来向与车头的距离最小的车尾区域图像,组成整车图像集。将第一文本信息和第二文本信息添加到包含对应的车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息。
在一个优选实施例中,图像识别模块53还被配置为根据车头区域图像识别对应的车型,基于车型获得车辆的预设长度范围。
图案配对模块55被配置为基于每个车头区域图像在通道空间立体坐标系中的位置沿通道的来向在车头区域图像该范围的对应的预设长度范围中匹配一车尾区域图案,组成整车图像集。将第一文本信息和第二文本信息添加到包含对应的车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息。
本发明的多机位信息融合的车辆识别***,能够基于多机位自动识别多车通过的场景,降低了整体成本,大大提高了识别的准确性和反应速度,分车效果鲁棒性高。
本发明实施例还提供一种多机位信息融合的车辆识别设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的多机位信息融合的车辆识别方法的步骤。
如上,本发明的多机位信息融合的车辆识别设备能够基于多机位自动识别多车通过的场景,降低了整体成本,大大提高了识别的准确性和反应速度,分车效果鲁棒性高。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为***、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图11是本发明的多机位信息融合的车辆识别设备的结构示意图。下面参照图11来描述根据本发明的这种实施方式的电子设备600。图11 显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图11所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线 630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备 600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的多机位信息融合的车辆识别方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,能够基于多机位自动识别多车通过的场景,降低了整体成本,大大提高了识别的准确性和反应速度,分车效果鲁棒性高。
图12是本发明的计算机可读存储介质的结构示意图。参考图12所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如 Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上,本发明的多机位信息融合的车辆识别方法、***、设备及存储介质,能够基于多机位自动识别多车通过的场景,降低了整体成本,大大提高了识别的准确性和反应速度,分车效果鲁棒性高。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种多机位信息融合的车辆识别方法,其特征在于,包括如下步骤:
在通道的两端分别设置图像采集装置采集前向图像和后向图像;
分别基于所述前向图像和后向图像建立第一图像坐标系和第二图像坐标系,并基于所述通道建立所述通道空间立体坐标系,建立所述第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系;
对所述前向图像和后向图像进行车辆的图像识别;
当图像中出现至少两个车辆时,获得所述前向图像和后向图像中每个车辆的车头、车尾所占的图像区域分别对应的所述通道空间立体坐标系中;以及
基于各所述车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对。
2.根据权利要求1所述的多机位信息融合的车辆识别方法,其特征在于,所述在通道的两端分别设置图像采集装置采集前向图像和后向图像,包括:
所述通道为一单向车道,设置在所述通道的去向的图像采集装置采集经过所述通道的车辆的前向图像,设置在所述通道的来向的图像采集装置采集经过所述通道的车辆的后向图像。
3.根据权利要求1所述的多机位信息融合的车辆识别方法,其特征在于,所述分别基于所述前向图像和后向图像建立第一图像坐标系和第二图像坐标系,并基于所述通道建立所述通道空间立体坐标系,建立所述第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系,包括:
分别基于所述前向图像和后向图像建立第一图像坐标系和第二图像坐标系;
选取所述通道的不在同一直线上的四个公共特征点,分别记录每个公共特征点在所述第一图像坐标系和第二图像坐标系中的坐标;
获得每个所述图像采集装置的透视变换矩阵,建立所述第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系。
4.根据权利要求1所述的多机位信息融合的车辆识别方法,其特征在于,所述对所述前向图像和后向图像进行车辆的图像识别,包括:
对所述前向图像进行车辆的图像识别,并识别所述车辆部分对应的像素区域内的车头区域图像的坐标范围和第一文本信息;
对所述后向图像进行车辆的图像识别,并识别所述车辆部分对应的像素区域内的车尾区域图像的坐标范围和第二文本信息。
5.根据权利要求4所述的多机位信息融合的车辆识别方法,其特征在于,所述当图像中出现至少两个车辆时,获得所述前向图像和后向图像中每个车辆的车头、车尾所占的图像区域分别对应的所述通道空间立体坐标系中,包括:
根据采集前向图像的所述图像采集装置的透视变换矩阵将所述车辆的车头区域所占的图像区域映射到所述通道空间立体坐标系中,并基于相互分离的至少两个所述车头所占的图像区域建立车头区域图像的集合;
根据采集后向图像的所述图像采集装置的透视变换矩阵将所述车辆的车尾区域所占的图像区域映射到所述通道空间立体坐标系中,并基于相互分离的至少两个所述车尾所占的图像区域建立车尾区域图像的集合。
6.根据权利要求5所述的多机位信息融合的车辆识别方法,其特征在于,所述基于各所述车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对,包括:
自所述车头区域图像的集合依次取出一个所述车头区域图像,并在所述车尾区域图像的集合中取出一个在所述通道空间立体坐标系中沿所述来向与所述车头的距离最小的车尾区域图像,组成整车图像集;
将所述第一文本信息和第二文本信息添加到包含对应的所述车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息。
7.根据权利要求4所述的多机位信息融合的车辆识别方法,其特征在于,
所述根据采集前向图像的所述图像采集装置的透视变换矩阵将所述车辆的车头区域所占的图像区域映射到所述通道空间立体坐标系中,并基于相互分离的至少两个所述车头所占的图像区域建立车头区域图像的集合,还包括:
根据所述车头区域图像识别对应的车型,基于所述车型获得所述车辆的预设长度范围;
所述基于各所述车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对,包括:
基于每个所述车头区域图像在所述通道空间立体坐标系中的位置沿所述通道的来向在所述车头区域图像该范围的对应的预设长度范围中匹配一车尾区域图案,组成整车图像集;
将所述第一文本信息和第二文本信息添加到包含对应的所述车头区域图像和车尾区域图像的整车图像集中,生成车辆识别信息。
8.一种多机位信息融合的车辆识别***,其特征在于,所述***包括:
图像采集模块,在通道的两端分别设置图像采集装置采集前向图像和后向图像;
映射关系模块,分别基于所述前向图像和后向图像建立第一图像坐标系和第二图像坐标系,并基于所述通道建立所述通道空间立体坐标系,建立所述第一图像坐标系、第二图像坐标系中各像素与空间立体坐标的映射关系;
图像识别模块,对所述前向图像和后向图像进行车辆的图像识别;
分区识别模块,当图像中出现至少两个车辆时,获得所述前向图像和后向图像中每个车辆的车头、车尾所占的图像区域分别对应的所述通道空间立体坐标系中;以及
图案配对模块,基于各所述车头、车尾的空间位置关系为每个车辆的车头图案和车尾图案进行配对。
9.一种多机位信息融合的车辆识别设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7中任一项所述的多机位信息融合的车辆识别方法的步骤。
10.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求1至7中任一项所述的多机位信息融合的车辆识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210704833.0A CN114972945A (zh) | 2022-06-21 | 2022-06-21 | 多机位信息融合的车辆识别方法、***、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210704833.0A CN114972945A (zh) | 2022-06-21 | 2022-06-21 | 多机位信息融合的车辆识别方法、***、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114972945A true CN114972945A (zh) | 2022-08-30 |
Family
ID=82965439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210704833.0A Pending CN114972945A (zh) | 2022-06-21 | 2022-06-21 | 多机位信息融合的车辆识别方法、***、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114972945A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117095388A (zh) * | 2023-06-12 | 2023-11-21 | 宁波港信息通信有限公司 | 一种用于堆区内的集卡作业号识别核对方法与*** |
-
2022
- 2022-06-21 CN CN202210704833.0A patent/CN114972945A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117095388A (zh) * | 2023-06-12 | 2023-11-21 | 宁波港信息通信有限公司 | 一种用于堆区内的集卡作业号识别核对方法与*** |
CN117095388B (zh) * | 2023-06-12 | 2024-02-06 | 宁波港信息通信有限公司 | 一种用于堆区内的集卡作业号识别核对方法与*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10817731B2 (en) | Image-based pedestrian detection | |
CN110163904B (zh) | 对象标注方法、移动控制方法、装置、设备及存储介质 | |
CN110587597B (zh) | 一种基于激光雷达的slam闭环检测方法及检测*** | |
CN111626277B (zh) | 一种基于治超站交调指标分析的车辆跟踪方法及装置 | |
CN111699410B (zh) | 点云的处理方法、设备和计算机可读存储介质 | |
GB2520338A (en) | Automatic scene parsing | |
CN115049700A (zh) | 一种目标检测方法及装置 | |
CN110443245B (zh) | 一种非限制场景下的车牌区域的定位方法、装置及设备 | |
CN111860072A (zh) | 泊车控制方法、装置、计算机设备及计算机可读存储介质 | |
CN111967396A (zh) | 障碍物检测的处理方法、装置、设备及存储介质 | |
CN115719436A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN110736472A (zh) | 一种基于车载环视图像与毫米波雷达融合的室内高精地图表征方法 | |
CN114972945A (zh) | 多机位信息融合的车辆识别方法、***、设备及存储介质 | |
CN115100741A (zh) | 一种点云行人距离风险检测方法、***、设备和介质 | |
Zhou et al. | Street-view imagery guided street furniture inventory from mobile laser scanning point clouds | |
CN113763438A (zh) | 一种点云配准方法、装置、设备及存储介质 | |
Kozonek et al. | On the fusion of camera and lidar for 3D object detection and classification | |
CN112946603B (zh) | 一种基于激光雷达的道路养护检测***及其检测方法 | |
CN113469045B (zh) | 无人集卡的视觉定位方法、***、电子设备和存储介质 | |
CN115565155A (zh) | 神经网络模型的训练方法、车辆视图的生成方法和车辆 | |
CN114565906A (zh) | 障碍物检测方法、装置、电子设备及存储介质 | |
CN113624223A (zh) | 一种室内停车场地图构建方法及装置 | |
CN113808186A (zh) | 训练数据生成方法、装置与电子设备 | |
CN117152210B (zh) | 基于动态观测视场角的图像动态追踪方法及相关装置 | |
CN117173693B (zh) | 3d目标检测方法、电子设备、介质以及驾驶设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Applicant after: Shanghai Xijing Technology Co.,Ltd. Address before: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Applicant before: SHANGHAI WESTWELL INFORMATION AND TECHNOLOGY Co.,Ltd. |