CN106471522A - 物体检测用方法及装置、以及计算机程序产品 - Google Patents
物体检测用方法及装置、以及计算机程序产品 Download PDFInfo
- Publication number
- CN106471522A CN106471522A CN201580034978.2A CN201580034978A CN106471522A CN 106471522 A CN106471522 A CN 106471522A CN 201580034978 A CN201580034978 A CN 201580034978A CN 106471522 A CN106471522 A CN 106471522A
- Authority
- CN
- China
- Prior art keywords
- mentioned
- candidate
- cluster
- information
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 292
- 238000004590 computer program Methods 0.000 title claims description 10
- 230000007704 transition Effects 0.000 claims abstract description 58
- 238000013508 migration Methods 0.000 claims abstract description 34
- 230000005012 migration Effects 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims description 151
- 238000013459 approach Methods 0.000 claims description 22
- 230000002085 persistent effect Effects 0.000 claims description 7
- 238000012546 transfer Methods 0.000 claims description 7
- 238000007689 inspection Methods 0.000 claims description 6
- 241000894007 species Species 0.000 claims 4
- 241000208340 Araliaceae Species 0.000 claims 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims 1
- 235000003140 Panax quinquefolius Nutrition 0.000 claims 1
- 235000008434 ginseng Nutrition 0.000 claims 1
- 230000008569 process Effects 0.000 description 136
- 238000012545 processing Methods 0.000 description 93
- 230000002045 lasting effect Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000036541 health Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
- B60W10/184—Conjoint control of vehicle sub-units of different type or different function including control of braking systems with wheel brakes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/18—Braking system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/20—Steering systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
物体检测装置的状态迁移部每当求出至少一个物体候补的信息时,就基于规定的状态迁移条件判断上述至少一个物体候补的信息属于基于该至少一个物体候补与检测对象物体的关联性预先决定出的多个状态中的哪个状态,从而使上述至少一个物体候补的信息在多个状态间迁移。而且,判断部基于表示与上述至少一个物体候补建立有对应关系的状态是如何迁移的迁移信息,来判断该至少一个物体候补是否是上述检测对象物体。
Description
技术领域
本发明涉及用于检测在车辆的周围存在的检测对象物体的装置以及计算机程序产品。
背景技术
已经提出有很多用于检测在车辆的周围存在的行人等检测对象物体(targetobject)的装置。例如,作为执行这样的方法的装置的一个例子,有专利文献1所公开的装置。该装置求出表示对检测对象物体的形状进行检测时的检测难易的指标。上述指标的值越低、即检测对象物体的形状越难以检测,该装置将用于将从车辆周围检测出的物体判定为检测对象物体的阈值设定得越小。由此,能够提高检测对象物体的检测率。
专利文献1:日本专利4937029号公报
上述专利文献1所公开的装置使用上述阈值,来判断从车辆周围检测出的物体是否是检测对象物体。因此,若将该阈值设定得较小,则即便是从车辆周围检测出的、作为检测对象物体的可靠性较低的对象物,也容易判定为是检测对象物体。因此,存在将不是检测对象物体的物体判定为是检测对象物体的误检测增加之虞。
发明内容
本公开的一个方式提供一种能够应对这样的问题点的物体检测方法及装置、以及计算机程序产品。即,本公开的其他方式的目的在于,提供能够更高精度地检测作为在本车辆的周围存在的检测对象的物体的物体检测方法及装置、以及计算机程序产品。
本发明的第一方式涉及的物体检测装置是检测在车辆的周围存在的特定的种类的物体作为检测对象物体的物体检测装置。该物体检测装置具备获取部,该获取部反复获取基于成为上述检测对象物体的候补的在上述车辆的周围存在的至少一个物体候补的至少位置的信息。另外,物体检测装置具备状态迁移部,该状态迁移部每当求出上述至少一个物体候补的信息时,就基于规定的状态迁移条件来判断上述至少一个物体候补的信息属于基于该至少一个物体候补与上述检测对象物体的关联性而预先决定出的多个状态中的哪个状态,从而使该至少一个物体候补的信息在上述多个状态间迁移。并且,物体检测装置具备判断部,该判断部基于表示与上述至少一个物体候补建立有对应关系的状态是如何迁移来的迁移信息,来判断该至少一个物体候补是否是上述检测对象物体。
本发明的第二方式涉及的计算机程序产品是用于检测在车辆的周围存在的特定的种类的物体作为检测对象物体的计算机可读取的计算机程序产品。该计算机程序产品使计算机分别执行如下步骤:
(1)反复获取基于成为上述检测对象物体的候补的、在上述车辆的周围存在的至少一个物体候补的至少位置的信息的第一步骤;
(2)每当求出上述至少一个物体候补的信息时,就基于规定的状态迁移条件来判断上述至少一个物体候补的信息属于基于该至少一个物体候补与上述检测对象物体的关联性而预先决定出的多个状态中的哪个状态,从而使该至少一个物体候补的信息在上述多个状态间迁移的第二步骤;以及
(3)每当求出上述至少一个物体候补的信息时,就基于表示与该至少一个物体候补建立有对应关系的状态是如何迁移来的迁移信息,来判断该至少一个物体候补是否是上述检测对象物体的第三步骤。
本发明的第三方式涉及的物体检测方法是检测在车辆的周围存在的特定的种类的物体作为检测对象物体的物体检测方法。该物体检测方法具备:
(1)反复获取基于成为上述检测对象物体的候补的、在上述车辆的周围存在的至少一个物体候补的至少位置的信息的第一步骤;
(2)每当求出上述至少一个物体候补的信息时,就基于规定的状态迁移条件来判断上述至少一个物体候补的信息属于基于该至少一个物体候补与上述检测对象物体的关联性而预先决定出的多个状态中的哪个状态,从而使该至少一个物体候补的信息在上述多个状态间迁移的第二步骤;以及
(3)每当求出上述至少一个物体候补的信息时,就基于表示与该至少一个物体候补建立有对应关系的状态是如何迁移来的迁移信息,来判断该至少一个物体候补是否是上述检测对象物体的第三步骤。
本发明的第一~第三方式基于表示成为检测对象物体的候补的至少一个物体候补的信息在基于上述至少一个物体候补与上述检测对象物体的关联性而预先决定出的多个状态间是如何迁移的迁移信息,来判定该至少一个物体候补是否是检测对象物体。因此,与以往的使用单纯的阈值来判断检测物体是否是检测对象物体的结构相比,本发明的第一~第三方式能够更高精度地对检测对象物体进行检测。
附图说明
图1是表示本发明的实施方式涉及的物体检测装置的简要结构的框图。
图2是表示图1所示的处理部的CPU所执行的对象物体检测处理的一个例子的流程图。
图3是表示由图1所示的照相机拍摄到的帧图像中的行人候补矩形的一个例子的图。
图4是用于对被汇集为集群矩形区域的4个行人候补矩形区域、以及对上述集群矩形区域赋予的第一识别信息进行说明的图。
图5是用于对被汇集为集群矩形区域的4个行人候补矩形区域、以及对上述集群矩形区域赋予的第二识别信息进行说明的图。
图6是用于对被汇集为集群矩形区域的4个行人候补矩形区域、以及对上述集群矩形区域赋予的第三识别信息进行说明的图。
图7是用于对被汇集为集群矩形区域的4个行人候补矩形区域、以及对上述集群矩形区域赋予的第四识别信息进行说明的图。
图8是表示通过对象物体检测处理而得到的集群矩形区域的例子的图。
图9是表示处于某个跟踪状态的跟踪对象集群用于迁移至其它跟踪状态的条件的一个例子的表。
图10是表示多个跟踪状态间的状态迁移的一个例子的图。
图11是表示成为跟踪对象的多个集群矩形区域的一个例子的图。
图12是针对在图11所示的多个集群矩形区域内的一个目标集群矩形区域中未检测出突然出现信息的情况,表示该目标集群矩形区域的跟踪状态的随时间的迁移的图。
图13是表示成为跟踪对象的多个集群矩形区域的一个例子的图,是针对在该多个集群矩形区域内的一个目标集群矩形区域检测出突然出现信息的情况表示的图。
图14是针对图13所示的目标集群矩形区域中检测出突然出现信息的情况,表示该目标集群矩形区域的跟踪状态的随时间的迁移的图。
具体实施方式
以下,结合附图对本发明涉及的实施方式进行说明。
[实施方式的结构]
本发明的实施方式涉及的物体检测装置1例如被搭载于乘用车等车辆V。该物体检测装置1具备检测在车辆V的周围存在的行人等特定的种类的物体作为检测对象物体(target object)的功能。如图1所示,物体检测装置1具备处理部10、例如构成拍摄部的照相机21、多个传感器22、以及至少一个控制对象26,照相机21以及至少一个控制对象26以能够通信的方式与处理部10连接。
照相机21能够拍摄车辆V的周围的至少一部分,例如从车辆V沿着该车辆V的行进方向设定的规定的检测区域的图像。在本实施方式中,照相机21能够拍摄包含车辆V行驶的道路前方的区域、以及道路前方区域的两侧的规定区域的范围的图像。该照相机21被构成为以预先设定的周期(例如,30frames per second(fps:每秒帧数)、即1秒钟30帧的拍摄速率)拍摄上述检测区域的帧图像的公知的照相机。照相机21周期性地将拍摄到的帧图像发送至处理部10。
多个传感器22包括获取车辆V的位置信息以及速度信息的公知的传感器、获取车辆V的周围的物体(前行车、行人等)的位置信息以及速度信息(例如,相对于车辆V的相对速度信息)等的公知的传感器。
至少一个控制对象26是若从处理部10发送来与检测对象物体相关的信息,则根据需要,进行避免该检测对象物体与车辆V的碰撞的动作、或者使因碰撞引起的冲击缓和的动作的设备。例如,控制对象26包含分别使车辆V的制动器以及操作转向装置动作的第一以及第二致动器。第一以及第二致动器分别使对应的制动器以及操作转向装置动作,从而避免与检测对象物体的碰撞,或者即使在车辆V与检测对象物体发生了碰撞的情况下也使该碰撞时的冲击缓和。
处理部10例如被构成为计算机电路,具备CPU11、和ROM、RAM等存储器12。该存储器12例如包含有计算机、即CPU可读取的非瞬时存储介质。CPU11基于储存于存储器12的程序、即程序命令PI,来实施后述的对象物体检测处理等各种处理。
[本实施方式的处理]
在这样构成的物体检测装置1中,处理部10实施图2所示的对象物体检测处理。对象物体检测处理从由照相机21拍摄到的帧图像中,对检测对象物体进行检测。对象物体检测处理判断是否存在车辆V与该检测到的检测对象物体发生碰撞的可能。在判断为存在车辆V与检测对象物体碰撞的可能性的情况下,对象物体检测处理使控制对象26动作。
其中,本实施方式对检测行人作为检测对象物体的对象物体检测处理进行说明。本实施方式的对象物体检测处理是例如若车辆V的电源被接通则开始,之后被反复实施的处理。
若开始对象物体检测处理,则如图2所示,处理部10首先实施行人候补提取处理以及聚类处理(S110~S140)。在该信息获取处理中,处理部10利用照相机21周期性地进行拍摄,并获取从该照相机21周期性地发送来的帧图像(S110)。接着,处理部10基于本次获取到的帧图像、以及在本次之前获取到的至少1张帧图像来进行突然出现检测处理(S120)。
作为该突然出现检测方法,处理部10在步骤S120中,例如使用日本特开2014-029604号公报所记载的方法。即,处理部10使用多个帧图像内本次获取到的帧图像(例如设为In)、和在本次之前获取到的至少1张帧图像(In-1、In-2…),在该帧图像In、In-1、In-2…中提取相互对应的多个特征点。处理部10计算提取出的各特征点中的光流。处理部10基于计算出的光流,来判断是否存在突然出现至车辆V的被预测的行驶区域(例如,行驶道路上的行驶车道前方)的概率比规定值高的至少一个物体。其中,车辆V的被预测的行驶区域能够基于本次拍摄到的帧图像来推断。
例如,处理部10基于计算出的光流,来求取基于该光流的例如多个物体进入车辆V的被预测的行驶区域的角度。然后,处理部10基于该角度,求出该多个物体突然出现至车辆V的被预测的行驶区域的概率。
在判断为该判断的结果是存在突然出现至车辆V的被预测的行驶区域的概率比规定值高的至少一个物体的情况下,处理部10将与本次获得的帧图像空间对应地设定的坐标空间上的上述至少一个物体作为突然出现物体,将该突然出现物体的位置坐标作为突然出现信息,与该突然出现物体的识别信息建立对应地存储至存储器12。其中,上述突然出现物体的位置坐标既可以是包含该突然出现物体整体的例如矩形区域整体的坐标,也可以是该突然出现物体中的代表的一个特征点的位置坐标。
此外,处理部10也能够使用公知的图案识别处理等,来确定帧图像In、In-1、In-2…中所包含的物体的种类,并对该确定出的种类的物体,使用光流来进行突然出现判定。对于该点而言,上述的步骤S120中所使用的突然出现检测处理不用确定其种类就能够判断至少一个物体的突然出现的有无。因此,具有步骤S120中所使用的突然出现检测处理能够简单并且高速地进行该突然出现检测处理的优点。
接着,处理部10从本次获取到的帧图像、即本次从照相机21发送来的帧图像中,检测检测对象物体的候补、即像行人的物体(S130)。该步骤S130的处理使用预先准备的检测方法,从本次获得的帧图像中,检测对包含检测对象物体即行人的候补的矩形的区域进行表示的多个矩形区域(行人候补矩形区域)。
而且,处理部10在多个行人候补矩形区域中将位置以及/或者尺寸彼此类似的行人候补矩形区域的组建立关联,汇集(聚类)为一个代表性的集群矩形区域(S140)。
其中,在本实施方式中,根据包含作为检测对象物体的行人的多个帧图像,预先学习各帧图像中的表示行人的像素值的图案、即帧图像中的行人的特征图像图案,该学习图案作为词典文件被预先存储于存储器12。例如,在本实施方式中,将基于包含行人的上半身以及下半身的全身的形状的特征图像图案作为词典文件F1存储于存储器12。另外,例如在本实施方式中,将基于行人的上半身的形状的特征图像图案作为词典文件F2,存储于存储器12。并且,在本实施方式中,将基于行人的下半身的形状的特征图像图案作为词典文件F3存储于存储器12。
在本实施方式中,预先准备有第一~第四检测方法。本实施方式涉及的检测方法使用上述词典文件F1~F3内的至少一个词典文件,从本次获得的帧图像中检测行人候补矩形区域。因此,例如如图3所示,在本实施方式涉及的检测方法中,与实际的行人P1以及P2对应地检测出的行人候补矩形区域R1(P1)~Rn(P1)以及R1(P2)~Rm(P2)的数量比对作为非行人的例如树木、标志误设定的行人候补矩形区域RW的数量多。
其中,在词典文件F1~F3中设定有与行人检测相关的各自的可靠性,例如,词典文件F1的可靠性最高,接着词典文件F2的可靠性较高,然后是词典文件F3的可靠性。即,使用词典文件F1求出的某个矩形区域是与行人对应的矩形区域的可靠性比使用词典文件F2求出的某个矩形区域是与行人对应的矩形区域的可靠性高。
本实施方式涉及的检测方法在根据多个行人候补矩形区域求出多个集群矩形区域后,对各集群矩形区域赋予不同的识别信息。即,本实施方式涉及的检测方法包含以下的第一~第八步骤。
第一步骤使用预先决定出的尺寸的检测用(探索用)矩形窗在本次获取到的帧图像上进行扫描、即探索。其中,在本实施方式中,本次获取到的帧图像上的扫描、即探索能够使用多个探索方法来进行。
例如,在本实施方式中,作为一个例子,能够使用第一~第三探索方法SM1~SM3。
第一探索方法SM1在本次的帧图像中的针对比在该本次的帧图像之前拍摄到的帧图像,例如紧前的帧图像获得的行人候补矩形区域及其周边的区域上,使检测用矩形窗每规定像素地移动并扫描,并且求出各个扫描位置上的检测用矩形窗内的像素值的图案、即检测用矩形窗内的图像的特征图案。
第二探索方法SM2在本次的帧图像之前拍摄到的帧图像,例如紧前的帧图像中,通过步骤S120的处理检测出突然出现信息的情况下,在本次的帧图像上的与突然出现信息对应的位置及其周边的区域上,使检测用矩形窗每规定像素地移动并扫描,并且求出各个扫描位置上的检测用矩形窗内的像素值的图案、即检测用矩形窗内的图像的特征图案。
第三探索方法SM3一边使矩形窗在行方向以及列方向上每规定像素地交替移动一边进行扫描,直至使检测用矩形窗在本次获取到的帧图像上,从作为初始扫描位置的其左上角部到达右下角部,并且求出各个扫描位置上的检测用矩形窗内的像素值的图案、即检测用矩形窗内的图像的特征图案。
在第一~第三探索方法SM1~SM3中,设定有与行人检测相关的各自的可靠性,例如,第一探索方法SM1的可靠性最高,接着第二探索方法SM2的可靠性较高,然后是第三探索方法SM3的可靠性。即,使用第一探索方法SM1求出的某个矩形区域是与行人对应的矩形区域的可靠性比使用第二探索方法SM2求出的某个矩形区域是与行人对应的矩形区域的可靠性高。
第二步骤求出在第一步骤中按检测用矩形窗的每个扫描位置分别获得的特征图案与上述多个词典文件F1~F3内的至少一个词典文件所包含的多个特征图案的相似度。其中,将该相似度也称为得分。
例如,在使用了包含行人整体的尺寸的检测用矩形窗作为检测用矩形窗的情况下,例如,第二步骤使用词典文件F1来求相似度。另外,在使用了行人的上半身的尺寸的检测用矩形窗作为检测用矩形窗的情况下,例如,第四步骤使用词典文件F2来求相似度。
第三步骤将在第二步骤中求出的一致度是规定的第一阈值以上的多个扫描位置上的检测用矩形窗设为行人候补矩形区域。
此外,上述第一~第三步骤(对应于步骤S130)将检测用矩形窗的尺寸设为了规定的尺寸,但本实施方式涉及的检测方法并不限定于此,也可以使用不同的尺寸的检测用矩形窗。该情况下,本实施方式涉及的检测方法对各个尺寸的检测用矩形窗的每一个检测用矩形窗进行上述第一~第三步骤,从而能够将多个检测用矩形窗检测为行人候补矩形区域。
接着,本实施方式涉及的检测方法作为第四步骤,对在第三步骤中求出的多个行人候补矩形区域中彼此位置以及/或者尺寸类似的行人候补矩形区域的组建立关联,并从建立了关联的行人候补矩形区域中选择一个代表性的集群矩形区域。结果,多个行人候补矩形区域被汇集为代表性的多个集群矩形区域(步骤S140)。
而且,本实施方式涉及的检测方法作为第五步骤,对各集群矩形区域赋予与对应的集群矩形区域建立有关联的矩形区域的数量,作为第一识别信息、即似然关联信息(步骤S145)。
例如,图4示有被汇集为集群矩形区域CR的4个行人候补矩形区域R1~R4。即,对该集群矩形区域CR赋予了检测矩形区域数量的4作为第一识别信息。
接着,本实施方式涉及的检测方法作为第六步骤,求出与各集群矩形区域建立有关联的多个矩形区域各自的相似度、即得分的最大值以及平均值作为最大得分以及平均得分,并赋予该最大得分以及平均得分作为针对对应的集群矩形区域的第二识别信息、即似然关联信息(步骤S145)。其中,在本实施方式中,使用平均得分作为第二识别信息。
得分较高的矩形区域意味着是实际上包含行人的区域的可靠性较高。
例如,图5示有被汇集为上述集群矩形区域CR的4个行人候补矩形区域R1~R4、以及该行人候补矩形区域R1~R4各自的得分(0.9、0.1、-0.3、0.2)。即,对该集群矩形区域CR赋予最大得分0.9以及平均得分0.225作为第二识别信息。
接着,本实施方式涉及的检测方法作为第七步骤,赋予在求取与各集群矩形区域建立有关联的多个行人候补矩形区域各自的相似度时所使用的多个词典文件中具有最大的可靠性的词典文件,作为针对对应的集群矩形区域的第三识别信息、即似然关联信息(步骤S145)。
例如,图6示有被汇集为集群矩形区域CR的4个行人候补矩形区域R1~R4、以及与该行人候补矩形区域R1~R4分别对应的词典文件(F1、F1、F2、F3)。即,对该集群矩形区域CR赋予具有最大的可靠性的词典文件F1作为第三识别信息。
并且,本实施方式涉及的检测方法作为第八步骤,赋予在分别求取与各集群矩形区域建立有关联的多个行人候补矩形区域时所使用的探索方法中具有最大的可靠性的探索方法,作为针对对应的集群矩形区域的第四识别信息、即似然关联信息(S145)。
例如,图7示有被汇集为集群矩形区域CR的4个行人候补矩形区域R1~R4、以及与该行人候补矩形区域R1~R4分别对应的探索方法(SM2、SM2、SM3、SM2)。即,对该集群矩形区域CR赋予具有最大的可靠性的探索方法SM2作为第四识别信息。
其中,在上述本实施方式涉及的检测方法中,当按由照相机21获得的每个帧图像求取行人候补矩形区域时,能够将例如多个可计算上述相似度(得分)的公知的识别器进行组合来使用。作为该各识别器,例如能够使用公知的支持向量机(SVM:Support vectormachine)。另外,作为检测用矩形窗内的图像的特征图案,例如能够使用公知的边缘梯度的直方图(HOG:Histograms of Oriented Edges)、即HOG特征量、Haar-like特征量等。
如上所述,处理部10通过执行本实施方式涉及的检测方法,在步骤S140中,对在检测出的多个行人候补矩形区域中位置以及/或者尺寸彼此类似的行人候补矩形区域的组建立关联,聚类成一个代表性的集群矩形区域。
若按每个组决定集群矩形区域,则处理部10将与本次的帧图像空间对应的坐标空间中的各组的集群矩形区域的位置坐标与第一~第四识别信息建立关联而存储至存储器12(步骤S145)。
例如,如图8所示,能够将用虚线框表示的被分组的多个行人候补矩形区域R11表示为用实线框表示的一个集群矩形区域CR11。同样,能够将用虚线框表示的被分组的多个行人候补矩形区域R12表示为用实线框表示的一个集群矩形区域CR12。
接着,处理部10判断在步骤S140中检测出的例如多个集群矩形区域(检测集群)与当前正跟踪的例如多个集群矩形区域(跟踪对象集群)是否处于对应关系(步骤S150)。具体而言,处理部10进行在步骤S140中检测出的各集群矩形区域的坐标位置是否接近当前正跟踪的多个跟踪对象集群中的某一个跟踪对象集群的坐标位置的处理(S150)。
在该步骤S150的判断的结果为否的情况下(步骤S150→否),处理部10判断为在步骤S140中检测出的多个集群矩形区域中,是成为新的跟踪对象的集群矩形区域(新跟踪对象集群)。作为该判断的结果,本次的对象物体检测处理、即针对本次的帧图像的对象物体检测处理移至步骤S400的处理。
在步骤S400中,处理部10将新跟踪对象集群的当前的跟踪状态设为新跟踪状态。而且,处理部10将新跟踪状态与该新跟踪对象集群的识别信息以及坐标位置建立对应关系地存储至存储器12,作为新跟踪对象集群的跟踪状态。接着,处理部10返回到步骤S110的处理,基于从照相机21发送来的帧图像,执行步骤S110~S330的处理。
另一方面,在步骤S150中第一判断处理以及第二判断处理双方都为“是”的情况下(步骤S150→是),处理部10判断为在步骤S140中检测出的各集群矩形区域与在前一次的对象物体检测处理、即针对前一次的帧图像的对象物体检测处理中跟踪的跟踪对象集群对应。作为该判断的结果,本次的对象物体检测处理移至步骤S160的处理。
此外,如图9所示,作为针对集群矩形区域的跟踪状态,除了上述初始跟踪状态以外,还预先准备有下面的3个状态(跟踪状态A、跟踪状态B、跟踪状态C)。而且,在本实施方式中,用于将处于各跟踪状态的跟踪对象集群迁移至其它跟踪状态的条件例如如图9所示那样被预先设定,例如被组装于存储器12内以及/或者对象物体检测处理的程序内。在除了新跟踪状态的情况下,与跟踪状态A的集群矩形区域对应的行人候补实际上是行人的可能性最高,接着,与跟踪状态B的集群矩形区域对应的行人候补实际上是行人的可能性较高,与跟踪状态C的集群矩形区域对应的行人候补实际上是行人的可能性被设定得比与跟踪状态B的集群矩形区域对应的行人候补实际上是行人的可能性低。即,跟踪状态A、跟踪状态B、跟踪状态C所对应的可能性的顺序按照从高到低的顺序为:跟踪状态A、跟踪状态B、跟踪状态C。
如图9所示,假定为前一次的对象物体检测处理中是新跟踪状态的集群矩形区域在本次的对象物体检测处理中,其第一识别信息的值(即,检测矩形区域的数量,设为N)变得比第一阈值TH1大。此时,前一次的对象物体检测处理时是新跟踪状态的集群矩形区域在本次的对象物体检测处理时,被判断为迁移至跟踪状态A。
同样,假定为前一次的对象物体检测处理中是跟踪状态A的集群矩形区域在本次的对象物体检测处理中,其第一识别信息的值N比第二阈值TH2大,其第二识别信息的值(即,平均得分,设为AS)比第三阈值TH3大,并且其第三识别信息的值(即,具有最大的可靠性的词典文件,F)是词典文件F3以外。此时,前一次的对象物体检测处理时是跟踪状态A的集群矩形区域即使在本次的对象物体检测处理时,也被判断为是跟踪状态A(即,维持跟踪状态A)。
此外,如图9所示,上述假定的条件若使用逻辑运算符,则能够如下表示。
(N>TH2)& &(AS>TH3)& &(F!=F3)
这里,逻辑运算符&&表示逻辑积,逻辑运算符!=表示两边不相等。
另一方面,假定为前一次的对象物体检测处理中是跟踪状态A的集群矩形区域在本次的对象物体检测处理中,其第一识别信息的值N是第二阈值TH2以下、或其第二识别信息的值AS是第三阈值TH3以下、或者其第三识别信息的值F是词典文件F3。此时,前一次的对象物体检测处理时是跟踪状态A的集群矩形区域在本次的对象物体检测处理时,被判断为迁移至跟踪状态B。
此外,如图9所示,上述假定的条件若使用逻辑运算符,则能够如下表示。
(N≤TH2)||(AS>TH3)||(F==F3)
其中,逻辑运算符||表示逻辑和,逻辑运算符==表示两边相等。
另外,假定为与在前一次的对象物体检测处理中是跟踪状态A的集群矩形区域对应的集群矩形区域在本次的对象物体检测处理中不存在。此时,前一次的对象物体检测处理时是跟踪状态A的集群矩形区域在本次的对象物体检测处理时,被判断为迁移至跟踪状态C。
假定为前一次的对象物体检测处理中是跟踪状态B的集群矩形区域在本次的对象物体检测处理中,其第一识别信息的值比第四阈值TH4大,并且该第二识别信息的值比第五阈值TH5大。此时,前一次的对象物体检测处理时是跟踪状态B的集群矩形区域在本次的对象物体检测处理时,被判断为迁移至跟踪状态A。其中,将上述条件即第一识别信息的值比第四阈值TH4大,并且其第二识别信息的值比第五阈值TH5大这一条件设为跟踪状态A迁移条件。
另外,前一次的对象物体检测处理中是跟踪状态B的集群矩形区域在本次的对象物体检测处理中也存在,但在不满足上述跟踪状态A迁移条件的情况下,前一次的对象物体检测处理时是跟踪状态B的集群矩形区域在本次的对象物体检测处理时,也被判断为是跟踪状态B(即,维持跟踪状态B)。
另一方面,假定为与在前一次的对象物体检测处理中是跟踪状态B的集群矩形区域对应的集群矩形区域在本次的对象物体检测处理中不存在。此时,前一次的对象物体检测处理时是跟踪状态B的集群矩形区域在本次的对象物体检测处理时,被判断为迁移至跟踪状态C。
在本次的对象物体检测处理中也存在前一次的对象物体检测处理中是跟踪状态C的集群矩形区域的情况下,前一次的对象物体检测处理时是跟踪状态C的集群矩形区域在本次的对象物体检测处理时,被判断为迁移至跟踪状态B。
另一方面,假定为与在前一次的对象物体检测处理中是跟踪状态C的集群矩形区域对应的集群矩形区域在本次的对象物体检测处理中不存在。此时,前一次的对象物体检测处理时是跟踪状态C的集群矩形区域在本次的对象物体检测处理时,也被判断为是跟踪状态C(即,维持跟踪状态C)。
其中,新跟踪状态是在通过步骤S140检测出的集群矩形区域被判断为是新跟踪对象集群的情况下,被设定为该新跟踪对象集群的特殊的状态。
此外,第二阈值TH2被设定为比第一以及第四阈值TH1以及TH4大的值,另外,第四阈值TH4被设定为比第一阈值TH1大的值。另外,第三阈值TH3被设定为比第五阈值TH5大的值。
另外,如图9所示,处于各跟踪状态的跟踪对象集群被设定为若满足对应的规定的条件则消失。即,若处于各跟踪状态的跟踪对象集群满足对应的规定的条件,则针对该跟踪对象集群的跟踪结束。
例如,假定为前一次的对象物体检测处理中是新跟踪状态的集群矩形区域在本次的对象物体检测处理中,其第一识别信息的值为第一阈值TH1以下。此时,前一次的对象物体检测处理时是新跟踪状态的集群矩形区域在本次的对象物体检测处理时,被判断为消失。
另外,假定为在过去4次的针对帧图像的对象物体检测处理(过去4次对象物体检测处理)中被判断为是跟踪状态B或者跟踪状态C、并且在前一次的针对帧图像的对象物体检测处理中被判断为是跟踪状态B的集群矩形区域在本次的对象物体检测处理中,还是跟踪状态B或跟踪状态C。此时,前一次的对象物体检测处理时是跟踪状态B的集群矩形区域在本次的对象物体检测处理时,被判断为消失。
进而,假定为前一次的针对帧图像的对象物体检测处理中被判断为是跟踪状态C的集群矩形区域在本次的对象物体检测处理中还是跟踪状态C。此时,前一次的对象物体检测处理时是跟踪状态C的集群矩形区域在本次的对象物体检测处理时,被判断为消失了。
图10是表示上述的跟踪状态(新跟踪状态、跟踪状态A、跟踪状态B、跟踪状态C、消失)期间的状态迁移的一个例子的图。
其中,在本实施方式中,在处于各跟踪状态的跟踪对象集群进行状态迁移的情况下,朝向可能性为上位的跟踪状态的迁移条件被严格设定,朝向可能性为下位的跟踪状态的迁移条件被宽松设定。
并且,在本实施方式中,假定为过去2次的针对帧图像的对象物体检测处理中被判断为跟踪状态A的集群矩形区域在本次的对象物体检测处理中还是跟踪状态A。即,构成为在持续3次针对帧图像的对象物体检测处理中集群矩形区域被判断为跟踪状态A的情况下,与该集群矩形区域对应的行人候补被确定为是行人(参照后述的步骤S260)。其中,将在该持续3次针对帧图像的对象物体检测处理中集群矩形区域被判断为跟踪状态A这一条件、即基于对应的集群矩形区域的行人候补被确定为行人的条件(判定条件)设为行人确定条件。此时,将上述跟踪状态A持续的次数即3次设为对象物体检测处理中的次数阈值。
另外,在处于各跟踪状态的跟踪对象集群进行状态迁移的情况下,设定为可能性朝向上位的迁移只能逐个阶段地进行,另一方面,对于可能性朝向下位的迁移而言,能够无限制地迁移。
例如,在步骤S140中检测出多个集群矩形区域的情况下,处理部10对每个该集群矩形区域,执行步骤S160~S330的处理。以下,将在步骤S140中检测出的多个集群矩形区域中的一个集群区域设为目标集群矩形区域,对针对该目标集群矩形区域的步骤S160~S330的处理进行说明。
在步骤S160中,处理部10从存储器12读出目标集群矩形区域的第一~第四识别信息。接着,在步骤S170中,处理部10从存储器12读出与目标集群矩形区域对应的跟踪对象集群中的、在前一次的对象物体检测处理的后述的步骤S250中被更新并存储于存储器12的跟踪状态、以及该跟踪状态的持续次数。
接着,处理部10对目标集群矩形区域判断是否设定有突然出现信息(步骤S210)。
即,处理部10对目标集群矩形区域的位置坐标、和在步骤S120中检测出并存储于存储器12的突然出现物体的突然出现信息中的位置坐标进行比较,并基于该比较结果,来判断在目标集群矩形区域的位置坐标与被存储于存储器12的突然出现物体的突然出现信息之间是否有相关关系。
作为该比较的结果,在目标集群矩形区域的位置坐标与被存储于存储器12的突然出现物体的突然出现信息没有相关关系的情况下(步骤S210的判断的结果为“否”),对象物体检测处理移至后述的步骤S230的处理。
另一方面,作为上述比较的结果,在目标集群矩形区域的位置坐标与被存储于存储器12的至少一个物体的突然出现信息之间有相关关系的情况下(步骤S210的判断的结果为“是”),处理部10判定为与目标集群矩形区域对应的行人候补是突然出现物体。而且,处理部10对用于使目标集群矩形区域的跟踪状态迁移的迁移条件以及/或者针对目标集群矩形区域的行人确定条件进行变更(步骤S220)。
例如,在判定为与目标集群矩形区域对应的行人候补是突然出现物体的情况下,处理部10对用于使目标集群矩形区域的跟踪状态迁移的迁移条件以及/或者针对目标集群矩形区域的行人确定条件进行变更,以使其变得比当前的条件宽松、即容易判定为行人(步骤S220)。具体而言,处理部10将上述的第一~第五阈值TH1~TH5变更为较小的值、或者将上述行人确定条件的阈值从预先决定的值(3次)变更为较小的值(步骤S220)。
其中,步骤S220的处理仅在步骤S210的判断处理中判定为肯定的情况下执行。即,即使在前一次的针对帧图像的对象物体检测处理中步骤S210为肯定而执行了步骤S220的处理的情况下,当在本次的针对帧图像的对象物体检测处理中步骤S210为否定时,用于使目标集群矩形区域的跟踪状态迁移的迁移条件以及/或者针对目标集群矩形区域的行人确定条件的值也成为变更前的值。
接着,处理部10基于在步骤S160中读出的目标集群矩形区域的第一~第四识别信息、以及在步骤S170中读出的与目标集群矩形区域对应的跟踪对象集群的跟踪状态(即,前一次的跟踪状态),来判断目标集群矩形区域的第一~第四识别信息的至少一部分是否满足前一次的跟踪状态中的迁移条件(步骤S230)。
例如,如上所述,处理部10在前一次的跟踪状态是跟踪状态A~C的某一个的情况下,判断目标集群矩形区域的第一~第三识别信息、或者第一以及第二识别信息是否满足与该前一次的跟踪状态对应的迁移条件(参照图9)(步骤S230)。
其中,在图9中,与前一次的跟踪状态对应的迁移条件(参照图9)基于目标集群矩形区域的第一~第三识别信息、或者第一以及第二识别信息来设定,但本发明并不限定于上述。即,在本发明中,能够使用目标集群矩形区域的第一~第四识别信息内的至少一个识别信息来设定与前一次的跟踪状态对应的迁移条件(参照图9)。另外,作为第二识别信息,也可以不是平均得分,而使用最大得分。
另外,如上所述,处理部10在前一次的跟踪状态是新跟踪状态的情况下,判断目标集群矩形区域的第一识别信息是否满足与该前一次的跟踪状态对应的迁移条件(参照图9)(步骤S230)。
在目标集群矩形区域的第一~第四识别信息的至少一部分部不满足前一次的跟踪状态中的迁移条件的情况下(步骤S230的判断的结果为“否”),对象物体检测处理移至后述的步骤S250的处理。另一方面,在目标集群矩形区域的第一~第四识别信息的至少一部分满足前一次的跟踪状态中的迁移条件的情况下(步骤S230的判断的结果为“是”),处理部10将目标集群矩形区域的本次的跟踪状态从前一次的跟踪状态变更为与上述迁移条件对应的跟踪状态(步骤S240)。
接着,处理部10对目标集群矩形区域的本次的跟踪状态的持续次数进行更新(步骤S250)。即,若目标集群矩形区域的本次的跟踪状态相对于前一次的跟踪状态未发生变化,则处理部10将存储于存储器12的目标集群矩形区域的跟踪状态的持续次数自加1来进行更新(步骤S250)。另一方面,若目标集群矩形区域的本次的跟踪状态相对于前一次的跟踪状态发生了变化,则处理部10将本次的跟踪状态的持续次数设定为1,并存储至存储器12(步骤S250)。
该目标集群矩形区域的本次的跟踪状态的持续次数是表示在该目标集群矩形区域迁移至某个跟踪状态后,同一跟踪状态持续的时间的参数。
在步骤S250的处理后,处理部10基于目标集群矩形区域的本次的跟踪状态是否是跟踪状态A,并且持续次数是否达到了次数阈值(3次)来判断与该目标集群矩形区域对应的行人候补是否表示行人(步骤S260)。
在目标集群矩形区域的本次的跟踪状态是跟踪状态A,并且持续次数达到了次数阈值(3次)的情况下,处理部10断定为与该目标集群矩形区域对应的行人候补表示行人(步骤S260)。
另一方面,在目标集群矩形区域的本次的跟踪状态表示消失的情况下,处理部10断定为与该目标集群矩形区域对应的行人候补不表示行人(步骤S260)。
进而,在目标集群矩形区域的本次的跟踪状态是跟踪状态A以及消失以外的状态、或者即使是跟踪状态A,其持续次数也未达到次数阈值(3次)的情况下,处理部10使与该目标集群矩形区域对应的行人候补是否是行人的判定为不确定(步骤S260)。
若步骤S260的判断完成,则处理部10判断是否已经断定为与目标集群矩形区域对应的行人候补表示行人、或者不表示行人(步骤S330)。
在步骤S330的判断的结果未断定为与目标集群矩形区域对应的行人候补表示行人、或者不表示行人的情况下(步骤S330的判断的结果为“否”),处理部10返回到步骤S110的处理,基于从照相机21发送出的帧图像,来执行步骤S110~S330的处理。
另一方面,在步骤S330的判断的结果断定为与目标集群矩形区域对应的行人候补表示行人、或者不表示行人的情况下(步骤S330的判断的结果为“是”),对象物体检测处理移至步骤S350的处理。
如上所述,在步骤S140中检测出多个集群矩形区域的情况下,处理部10对与该多个集群矩形区域分别对应的多个目标集群矩形区域的每一个目标集群矩形区域,执行步骤S160~S330的处理。即,处理部10在断定为与多个目标集群矩形区域中的至少一个目标集群矩形区域对应的行人候补是行人、或者不是行人的情况下,执行步骤S350,并且在不能断定与多个目标集群矩形区域中的至少一个目标集群矩形区域对应的行人候补是否是行人的情况下,处理部10执行步骤S110~S330的处理。
在步骤S350中,处理部10在步骤S330的判断的结果断定为与多个目标集群矩形区域对应的多个行人候补是行人的情况下,处理部10基于存储于存储器12的与该多个行人对应的多个目标集群矩形区域的位置坐标、突然出现物体的突然出现信息、以及车辆V的预测行驶区域,来决定多个行人间的优先级。例如,处理部10以下面的条件来决定多个行人间的优先级。
(1)作为条件1,在与多个行人对应的多个目标集群矩形区域内的一个目标集群矩形区域设定有突然出现信息的情况下,将与该目标集群矩形区域对应的行人的优先级设为最大。
(2作为条件2,在与多个行人对应的多个目标集群矩形区域内的多个目标集群矩形区域设定有突然出现信息的情况下,根据该多个目标集群矩形区域间的位置坐标与车辆V的预测行驶区域的关系,以接近预测行驶区域的顺序来决定优先级。
(3)作为条件3,在与多个行人对应的多个目标集群矩形区域内的每一个目标集群矩形区域都未设定突然出现信息的情况下,根据该多个目标集群矩形区域间的位置坐标与车辆V的预测行驶区域的关系,以接近预测行驶区域的顺序来决定优先级。
其中,在步骤S140中仅检测出一个集群矩形区域的情况下,处理部10保持原样地执行步骤S360的处理。
在步骤S350中决定了多个行人间的优先级的情况下,处理部10基于决定出的优先级,将多个行人各自的位置坐标以及/或者速度信息输出至至少一个控制对象26(步骤S360),并结束对象物体检测处理。另一方面,在步骤S350中未决定出优先级的情况下、即检测出单独的行人的情况下,处理部10将该行人的位置坐标以及/或者速度信息输出至至少一个控制对象26(步骤S360),并结束对象物体检测处理。至少一个控制对象26基于被输出的至少一位行人的位置坐标以及/或者速度信息,根据需要,进行避免该至少一位行人与车辆V碰撞的动作、或者使由碰撞引起的冲击缓和的动作。
其中,被检测出的行人的速度信息能够由处理部10基于帧图像求出,另外,也能够使用由传感器22求出的速度信息。
另外,在步骤S330的判断的结果断定为与多个目标集群矩形区域对应的多个行人候补不是行人的情况下,处理部10不进行步骤S350以及S360的处理,结束对象物体检测处理。
通过执行上述的对象物体检测处理,如图11所示,若从某个帧图像I检测出4个集群矩形区域CR21~CR24,则实施该4个集群矩形区域CR21~CR24的状态的跟踪。该4个集群矩形区域CR21~CR24中的任意一个集群矩形区域(目标集群矩形区域)的跟踪状态例如如图12所示,在时刻1、即最初检测到该目标集群矩形区域时的对象物体检测处理(以下,称为第一次的检测处理)中,成为新状态,在时刻2、即第二次的检测处理中,迁移至跟踪状态A。之后,每当从照相机21发送出帧图像(时刻3、4、…)时,目标集群矩形区域的跟踪状态就根据该目标集群矩形区域是否满足迁移条件,如图12所示那样迁移。
另外,设如图13所示,从某个帧图像I1检测出4个集群矩形区域CR31~CR34,对该4个集群矩形区域CR31~CR34中的集群矩形区域CR31设定有突然出现信息。将该集群矩形区域CR31的跟踪状态的状态迁移的一个例子示于图14。如图14所示,在时刻1、即在最初检测出该目标集群矩形区域时的对象物体检测处理(以下,称为第一次的检测处理)中,在步骤S220的处理中,用于使集群矩形区域CR1的跟踪状态迁移的迁移条件、以及/或者针对集群矩形区域CR1的行人确定条件被变更,并基于该被变更后的迁移条件以及/或者行人确定条件,分别执行对应的状态迁移判定以及/或者行人判定。同样,在时刻3(第三次的检测处理)、时刻6(第六次的检测处理)、以及时刻7(第七次的检测处理)分别也对用于使集群矩形区域CR1的跟踪状态迁移的迁移条件、以及/或者针对集群矩形区域CR1的行人确定条件进行变更,并基于该变更后的迁移条件以及/或者行人确定条件,分别执行对应的状态迁移判定以及/或者行人判定。此外,在除此以外的时刻2、4、以及5(第二次、第四次、以及第五次的检测处理)中,不对迁移条件以及行人确定条件进行变更地执行状态迁移判定以及行人判定。
[通过本实施方式得到的效果]
如以上那样详细叙述的物体检测装置1是将车辆V的周围的特定的种类的物体(例如,行人)作为检测对象物体来检测的装置。该物体检测装置1的处理部10反复获取基于成为上述检测对象物体的候补的在车辆V的周围存在的至少一个物体候补的至少位置的信息(例如,基于至少一个物体的位置以及形状的信息)。
每当求上述至少一个物体候补的信息时,处理部10就基于规定的状态迁移条件来判断上述至少一个物体候补的信息属于基于该至少一个物体候补与上述检测对象物体的关联性而预先决定的多个状态中的哪个状态,从而使该至少一个物体候补的信息在上述多个状态间迁移。
而且,处理部10基于表示与上述至少一个物体候补建立对应的状态是如何迁移而来的迁移信息,来判断该至少一个物体候补是否是上述检测对象物体。
上述物体检测装置1根据表示成为检测对象物体的候补的至少一个物体候补的信息在基于上述至少一个物体候补与上述检测对象物体的关联性而预先决定出的多个状态间是如何迁移的迁移信息,来判定该至少一个物体候补是否是检测对象物体。因此,与以往的使用单纯的阈值来判断检测物体是否是检测对象物体的结构相比,物体检测装置1能够更高精度地检测检测对象物体。
另外,上述物体检测装置1的处理部10获取表示上述至少一个物体候补的信息迁移至上述多个状态中的第一状态后的持续时间的参数的值,在该参数的值达到了规定的迁移判定值的情况下,使上述至少一个物体候补的信息迁移至上述多个状态中的上述第一状态以外的第二状态。
根据上述物体检测装置1,能够将表示至少一个物体候补的信息迁移至上述多个状态中的第一状态后的持续时间的参数的值是否达到了规定的迁移判定值作为上述状态迁移条件之一。
并且,上述物体检测装置1的处理部10获取表示上述至少一个物体候补的信息迁移至上述多个状态中的特定的状态后的持续时间的参数的值,将该参数的值达到了规定的判定值作为判定条件来使用,在上述参数的值达到了规定的判定值的情况下,将上述至少一个物体候补判断为上述检测对象物体。
根据该物体检测装置1,能够基于迁移至特定的状态后的持续时间,可靠地判断上述至少一个物体候补是上述检测对象物体。
而且,上述物体检测装置1的处理部10获取与上述至少一个物体候补是否会突然出现至车辆的预测行驶区域相关的突然出现信息,在上述突然出现信息表示上述至少一个物体候补突然出现至车辆的预测行驶区域的情况下,对上述状态迁移条件或者上述判定条件进行变更。
上述物体检测装置1在上述突然出现信息表示上述至少一个物体候补突然出现至车辆的预测行驶区域的情况下,例如能够变更上述判定条件,以便例如容易地将该至少一个物体检测为上述检测对象物体。因此,在上述至少一个物体候补突然出现至车辆V的预测行驶区域的情况下,能够迅速地判断该突然出现的物体候补是检测对象物体。
上述物体检测装置1的照相机21反复拍摄车辆V的周围的帧图像,并将拍摄到的帧图像反复发送至处理部10。处理部10一边在本次发送来的帧图像上改变规定的探索区域,一边在该帧图像内,求出在具有与上述检测对象物体的多个特征图案相类似的图像特征图案的多个候补区域中,表示相互关联的候补区域的组的物体候补集群。然后,处理部10求出与表示被求出的物体候补集群和上述检测对象物体对应的合理性的似然相关联的似然关联信息,来作为上述至少一个物体候补的信息的一部分。
处理部10每当求出作为该至少一个物体候补的信息的上述物体候补集群的似然关联信息时,就基于上述规定的状态迁移条件来判断该物体候补集群的似然关联信息属于上述多个状态中的哪个状态,从而使上述物体候补集群在上述多个状态间迁移。
而且,处理部10每当求出作为上述至少一个物体候补的信息的上述物体候补集群的似然关联信息时,就基于表示与该物体候补集群建立有对应的状态是如何迁移来的迁移信息,来判断该物体候补集群是否与上述检测对象物体对应。
根据上述物体检测装置1,在帧图像内,基于与上述检测对象物体的特征图案相类似,并且具有相互关联的图像特征图案的多个候补区域的组即物体候补集群中的与表示是上述检测对象物体的合理性的似然相关联的似然关联信息,来求上述物体候补集群的上述多个状态间的迁移信息,并基于该迁移信息,来判断该物体候补集群是否与上述检测对象物体对应。因此,与以往的使用单纯的阈值来判断检测物体是否是检测对象物体的结构相比,物体检测装置1能够更高精度地检测检测对象物体。
上述物体检测装置1的处理部10使用被分组为上述物体候补集群的多个候补区域的数量作为上述似然关联信息的一部分,使用被分组为该物体候补集群的多个候补区域的数量是否比预先设定的阈值大作为上述状态迁移条件的一部分。
另外,上述物体检测装置1的处理部10求出被分组为上述物体候补集群的多个候补区域各自的表示与上述检测对象物体的特征图案的相似度的得分,将该多个候补区域各自的得分的最大值以及平均值中的至少一方作为上述似然关联信息的一部分来使用,并且将该得分的最大值以及平均值中的至少一方是否比预先设定的阈值大作为上述状态迁移条件来使用。
上述检测对象物体的多个特征图案按每个种类保持于多个词典文件,在该多个词典文件中,与检测对象物体检测相关联的可靠性的值被预先设定为不同的值,上述物体检测装置1的处理部10存储有上述多个词典文件,另一方面,上述物体检测装置1的处理部10一边在本次发送来的帧图像上改变规定的探索区域,一边在该帧图像内,求出多个具有与上述多个词典文件的某一个词典文件中所存储的多个特征图案相类似的图像特征图案的候补区域,并在所求出的多个候补区域中,求出表示相互关联的候补区域的组的物体候补集群。
而且,上述物体检测装置1的处理部10求出表示在求取被分组为上述物体候补集群的多个候补区域的每一个时使用了上述多个词典文件的哪一个词典文件的信息来作为上述似然关联信息,并基于该物体候补集群中的所求出的似然关联信息,求出上述物体候补集群的上述多个状态间的迁移信息。
上述物体检测装置1的处理部10一边使用表示在本次发送来的帧图像上使规定的探索区域如何移动的多个探索方法中的任意一个探索方法使上述规定的探索区域变化,一边在该帧图像内,求出多个具有与上述检测对象物体的多个特征图案相类似的图像特征图案的候补区域,并求出在所求出的多个候补区域中,表示相互关联的候补区域的组的物体候补集群。
而且,上述物体检测装置1的处理部10求出表示在求取被分组为上述物体候补集群的多个候补区域的每一个时使用了上述多个探索方法的哪一个探索方法的信息来作为上述似然关联信息,并基于该物体候补集群中的所求出的似然关联信息,来求上述物体候补集群的上述多个状态间的迁移信息。
上述的使用似然关联信息的物体检测装置1与以往的使用单纯的阈值来判断检测物体是否是检测对象物体的结构相比,能够更高精度地检测检测对象物体。
另外,上述物体候补集群被求出多个,上述处理部10判断上述多个物体候补集群的每一个是否是上述检测对象物体,在该判断的结果判断为上述多个物体候补集群中的一部分物体候补集群分别是上述检测对象物体的情况下,上述处理部10选择上述一部分物体候补集群,基于被选择出的物体候补集群各自的位置信息,来决定与该被选择出的物体候补集群分别对应的检测对象物体间的优先级。
例如,搭载于车辆V的至少一个控制对象26能够按照由上述物体检测装置1决定出的多个检测对象物体间的优先级,来执行针对该被检测出的多个对象物体的处理。结果,与搭载于车辆V的至少一个控制对象26并列地执行针对多个检测对象物体的每一个的处理的情况相比,能够高效并且顺畅地执行针对该被检测出的多个对象物体的处理。
[其它实施方式]
本发明并没有被上述的实施方式以任何方式限定并解释。另外,只要能够解决课题则省略了上述实施方式的结构的一部分的实施方式也包含于本发明的实施方式。另外,对上述实施方式以及后述的其变形例适当地进行组合而构成的实施方式也包含于本发明的实施方式。另外,在不脱离仅通过技术方案所记载的语句而确定的发明的本质的限度内,能够想到的所有实施方式也包含于本发明的实施方式。另外,在技术方案中也适当地使用了在上述实施方式的说明中所使用的附图标记,但这是以容易理解各技术方案所涉及的发明的目的而使用的,并不是想要限定各技术方案所涉及的发明的技术范围。
例如,在上述实施方式中,构成为将作为特定的种类的物体的一个例子的行人作为检测对象物体来检测,但本发明并不限定于该结构,例如,也可以将树木、车辆等行人以外的种类的物体作为检测对象物体来检测。
[实施方式的结构与本发明的单元的对应关系的一个例子]
在上述实施方式中处理部10所执行的处理中的例如步骤S110、S130、S140、S145的处理与本发明中的例如获取部对应,在上述实施方式中处理部10所执行的处理中的例如步骤S120的处理与本发明中的例如突然出现信息获取部对应。
在上述实施方式中处理部10所执行的处理中的例如步骤S150、S160、S170、S210、S220、S230、S240的处理与本发明中的例如状态迁移部对应。
在上述实施方式中处理部10所执行的处理中的例如步骤S260的处理与本发明中的例如判断部对应。
在上述实施方式中处理部10所执行的处理中的例如步骤S170的处理与本发明中的例如参数获取部对应。
在上述实施方式中处理部10所执行的处理中的例如步骤S140的处理与本发明中的例如集群部对应,在上述实施方式中处理部10所执行的处理中的例如步骤S145的处理与本发明中的例如关联信息计算部对应。
并且,上述实施方式中的S170的处理相当于本发明中所说的持续时间获取单元,上述实施方式中的S210、S220的处理相当于本发明中所说的条件变更单元。另外,上述实施方式中的S230、S240的处理相当于本发明中所说的物体状态迁移单元,上述实施方式中的S260、S330、S360的处理相当于本发明中所说的输出单元。
并且,在上述实施方式中,第一识别信息(与对应的集群矩形区域建立有关联的矩形区域的数量)、第二识别信息(对应的集群矩形区域中的最大或者平均得分)、第三识别信息(具有最大的可靠性的词典文件)、以及第四识别信息(具有最大的可靠性的探索方法)与本发明中的例如似然关联信息对应。
附图标记的说明
1…物体检测装置;10…处理部;11…CPU;12…存储器;21…照相机;22…传感器;26…控制对象。
Claims (12)
1.一种物体检测装置,是检测在车辆的周围存在的特定的种类的物体作为检测对象物体的物体检测装置(1),其特征在于,具备:
获取部(S110、S130、S140、S145),反复获取基于成为上述检测对象物体的候补的、在上述车辆的周围存在的至少一个物体候补的至少位置的信息;
状态迁移部(S150、S160、S170、S210、S220、S230、S240),每当求出上述至少一个物体候补的信息时,就基于规定的状态迁移条件来判断上述至少一个物体候补的信息属于基于该至少一个物体候补与上述检测对象物体的关联性而预先决定出的多个状态中的哪个状态,从而使该至少一个物体候补的信息在上述多个状态间迁移;以及
判断部(步骤S260),基于表示与上述至少一个物体候补建立有对应关系的状态是如何迁移来的迁移信息,来判断该至少一个物体候补是否是上述检测对象物体。
2.根据权利要求1所述的物体检测装置,其特征在于,
上述状态迁移部具备参数获取部(步骤S170),该参数获取部获取表示上述至少一个物体候补的信息迁移至上述多个状态中的第一状态后的持续时间的参数的值,上述状态迁移部被构成为:在该参数的值达到了规定的迁移判定值的情况下,使上述至少一个物体候补的信息迁移至上述多个状态中的第一状态以外的其它第二状态。
3.根据权利要求1或2所述的物体检测装置,其特征在于,
上述状态迁移部具备参数获取部(步骤S170),该参数获取部获取表示上述至少一个物体候补的信息迁移至上述多个状态中的特定的状态后的持续时间的参数的值,
上述判断部被构成为:使用该参数的值达到了规定的判定值作为判定条件,在上述参数的值达到了规定的判定值的情况下,将上述至少一个物体候补判断为上述检测对象物体。
4.根据权利要求1~3中任一项所述的物体检测装置,其特征在于,
还具备突然出现信息获取部(步骤S120),该突然出现信息获取部获取与上述至少一个物体候补是否突然出现至车辆的预测行驶区域相关的突然出现信息,
上述判断部被构成为:在上述突然出现信息表示上述至少一个物体候补突然出现至车辆的预测行驶区域的情况下,对上述状态迁移条件进行变更。
5.根据权利要求1~4中任一项所述的物体检测装置,其特征在于,
还具备反复拍摄上述车辆的周围的帧图像,并将反复拍摄到的帧图像发送至上述获取部的拍摄部(21),
上述获取部具备:
集群部(S140),该集群部一边在本次发送来的帧图像上,改变规定的探索区域,一边在该帧图像内,求出在具有与上述检测对象物体的多个特征图案相类似的图像特征图案的多个候补区域中,表示相互关联的候补区域的组的物体候补集群;以及
关联信息计算部(S145),求出与表示所求出的物体候补集群和上述检测对象物体对应的合理性的似然相关联的似然关联信息,来作为上述至少一个物体候补的信息的一部分,
上述状态迁移部被构成为:每当求出作为该至少一个物体候补的信息的上述物体候补集群的似然关联信息时,就基于上述规定的状态迁移条件来判断该物体候补集群的似然关联信息属于上述多个状态中的哪个状态,从而使上述物体候补集群在上述多个状态间迁移,
上述判断部被构成为:基于表示与上述物体候补集群建立有对应关系的状态是如何迁移来的迁移信息,来判断该物体候补集群是否与上述检测对象物体对应。
6.根据权利要求5所述的物体检测装置,其特征在于,
上述关联信息计算部被构成为:求出被分组为上述物体候补集群的多个候补区域的数量,作为上述似然关联信息的一部分,
上述状态迁移部被构成为:使用被分组为上述物体候补集群的多个候补区域的数量是否比预先设定的阈值大,来作为上述状态迁移条件的一部分。
7.根据权利要求5或6所述的物体检测装置,其特征在于,
上述关联信息计算部被构成为:求出被分组为上述物体候补集群的多个候补区域各自的、表示与上述检测对象物体的特征图案的相似度的得分,并求出该多个候补区域各自的得分的最大值以及平均值中的至少一方,来作为上述似然关联信息的一部分,
上述状态迁移部被构成为:使用上述得分的最大值以及平均值中的至少一方是否比预先设定的阈值大,来作为上述状态迁移条件的一部分。
8.根据权利要求5~7中任一项所述的物体检测装置,其特征在于,
上述检测对象物体的多个特征图案按每个种类被保持于多个词典文件,在该多个词典文件中与上述检测对象物体检测相关联的可靠性的值被预先设定为不同的值,
还具备对上述多个词典文件进行存储的存储部(12),
上述集群部被构成为:一边在本次发送来的帧图像上,改变规定的探索区域,一边在该帧图像内,求出多个具有与上述多个词典文件中的某一个词典文件所存储的多个特征图案相类似的图像特征图案的候补区域,并求出表示在所求出的多个候补区域中相互关联的候补区域的组的物体候补集群,
上述关联信息计算部被构成为:求出表示在求取被分组为上述物体候补集群的多个候补区域的每一个时使用了上述多个词典文件的哪一个的文件信息,来作为上述似然关联信息的一部分,
上述状态迁移部被构成为:基于该物体候补集群中的所求出的文件信息,来求取上述物体候补集群的上述多个状态间的迁移信息。
9.根据权利要求5~8中任一项所述的物体检测装置,其特征在于,
上述集群部被构成为:一边使用表示在本次发送来的帧图像上使规定的探索区域如何移动的多个探索方法中的任意一个探索方法来改变上述规定的探索区域,一边在该帧图像内,求出多个具有与上述检测对象物体的多个特征图案相类似的图像特征图案的候补区域,并求出表示在所求出的多个候补区域中相互关联的候补区域的组的物体候补集群,上述关联信息计算部被构成为:求出表示在求取被分组为上述物体候补集群的多个候补区域的每一个时使用过了上述多个探索方法的哪一个探索方法的探索信息,作为上述似然关联信息的一部分,
上述状态迁移部被构成为:基于该物体候补集群中的所求出的探索信息,来求出上述物体候补集群的上述多个状态间的迁移信息。
10.根据权利要求5~9中任一项所述的物体检测装置,其特征在于,
上述物体候补集群被求出多个,上述判断部被构成为:判断上述多个物体候补集群的每一个是否是上述检测对象物体,在该判断的结果判断为上述多个物体候补集群中的一部分物体候补集群分别是上述检测对象物体的情况下,上述判断部选择上述一部分物体候补集群,并基于选择出的一部分物体候补集群各自的位置信息,来决定与该被选择出的物体候补集群分别对应的检测对象物体间的优先级。
11.一种计算机程序产品,是用于检测在车辆的周围存在的特定的种类的物体作为检测对象物体的计算机可读取的计算机程序产品,其特征在于,使计算机分别执行如下步骤:
第一步骤(S110、S130、S140、S145),反复获取基于成为上述检测对象物体的候补的、在上述车辆的周围存在的至少一个物体候补的至少位置的信息;
第二步骤(S150、S160、S170、S210、S220、S230、S240),每当求出上述至少一个物体候补的信息时,就基于规定的状态迁移条件来判断上述至少一个物体候补的信息属于基于该至少一个物体候补与上述检测对象物体的关联性而预先决定出的多个状态中的哪个状态,从而使该至少一个物体候补的信息在上述多个状态间迁移;以及
第三步骤(步骤S260),每当求出上述至少一个物体候补的信息时,就基于表示与该至少一个物体候补建立有对应关系的状态是如何迁移来的迁移信息,来判断该至少一个物体候补是否是上述检测对象物体。
12.一种物体检测方法,是检测在车辆的周围存在的特定的种类的物体作为检测对象物体的物体检测方法,其特征在于,具备:
第一步骤(S110、S130、S140、S145),反复获取基于成为上述检测对象物体的候补的、在上述车辆的周围存在的至少一个物体候补的至少位置的信息;
第二步骤(S150、S160、S170、S210、S220、S230、S240),每当求出上述至少一个物体候补的信息时,就基于规定的状态迁移条件来判断上述至少一个物体候补的信息属于基于该至少一个物体候补与上述检测对象物体的关联性而预先决定出的多个状态中的哪个状态,从而使该至少一个物体候补的信息在上述多个状态间迁移;以及
第三步骤(步骤S260),每当求出上述至少一个物体候补的信息时,就基于表示与该至少一个物体候补建立有对应关系的状态是如何迁移来的迁移信息,来判断该至少一个物体候补是否是上述检测对象物体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014137006A JP6340957B2 (ja) | 2014-07-02 | 2014-07-02 | 物体検出装置および物体検出プログラム |
JP2014-137006 | 2014-07-02 | ||
PCT/JP2015/069187 WO2016002900A1 (ja) | 2014-07-02 | 2015-07-02 | 物体検出用方法および装置、ならびにコンピュータプログラム製品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106471522A true CN106471522A (zh) | 2017-03-01 |
Family
ID=55019426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580034978.2A Withdrawn CN106471522A (zh) | 2014-07-02 | 2015-07-02 | 物体检测用方法及装置、以及计算机程序产品 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20170151943A1 (zh) |
JP (1) | JP6340957B2 (zh) |
CN (1) | CN106471522A (zh) |
DE (1) | DE112015003089T5 (zh) |
WO (1) | WO2016002900A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108983247A (zh) * | 2017-05-31 | 2018-12-11 | 本田技研工业株式会社 | 物体目标识别***、物体目标识别方法及存储介质 |
CN110956850A (zh) * | 2018-09-27 | 2020-04-03 | 株式会社斯巴鲁 | 移动体监视装置、使用其的车辆控制***及交通*** |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6256239B2 (ja) * | 2014-07-25 | 2018-01-10 | 株式会社デンソー | 歩行者検出装置および歩行者検出方法 |
US10740908B2 (en) * | 2016-02-23 | 2020-08-11 | Hitachi, Ltd. | Moving object |
JP6239047B1 (ja) * | 2016-06-17 | 2017-11-29 | 三菱電機株式会社 | 物体認識統合装置および物体認識統合方法 |
JP6340738B2 (ja) * | 2016-09-13 | 2018-06-13 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、および車両制御プログラム |
US10311593B2 (en) * | 2016-11-16 | 2019-06-04 | International Business Machines Corporation | Object instance identification using three-dimensional spatial configuration |
US10401862B2 (en) | 2017-10-31 | 2019-09-03 | Waymo Llc | Semantic object clustering for autonomous vehicle decision making |
US10713940B2 (en) | 2017-10-31 | 2020-07-14 | Waymo Llc | Detecting and responding to traffic redirection for autonomous vehicles |
JP6745465B1 (ja) * | 2019-03-06 | 2020-08-26 | パナソニックIpマネジメント株式会社 | 車両及びカメラモジュール |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001008189A (ja) * | 1999-04-23 | 2001-01-12 | Hitachi Ltd | 移動物体監視装置 |
CN1695167A (zh) * | 2002-08-30 | 2005-11-09 | 日本电气株式会社 | 用于跟踪目标的装置、跟踪目标的方法和跟踪目标的程序 |
US20070092134A1 (en) * | 2005-10-26 | 2007-04-26 | Fuji Xerox Co., Ltd. | Image analyzer |
CN101933065A (zh) * | 2008-02-04 | 2010-12-29 | 本田技研工业株式会社 | 车辆周围监测装置、车辆、车辆周围监测程序及车辆周围监测方法 |
CN102105904A (zh) * | 2008-08-11 | 2011-06-22 | 欧姆龙株式会社 | 检测用信息登录装置、对象物体检测装置、电子设备、检测用信息登录装置的控制方法、对象物体检测装置的控制方法、检测用信息登录装置控制程序、对象物体检测装置控制程序 |
CN102414715A (zh) * | 2009-04-23 | 2012-04-11 | 丰田自动车株式会社 | 物体检测装置 |
CN102473281A (zh) * | 2009-09-03 | 2012-05-23 | 本田技研工业株式会社 | 车辆周围监测装置 |
JP2012118683A (ja) * | 2010-11-30 | 2012-06-21 | Daihatsu Motor Co Ltd | 歩行者認識装置 |
JP2012170483A (ja) * | 2011-02-17 | 2012-09-10 | Fujitsu Ltd | 状態検知装置および状態検知方法 |
CN102855774A (zh) * | 2011-06-27 | 2013-01-02 | 歌乐株式会社 | 车辆周围监视装置 |
CN103578115A (zh) * | 2012-07-31 | 2014-02-12 | 电装It研究所 | 移动体识别***以及移动体识别方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6826292B1 (en) * | 2000-06-23 | 2004-11-30 | Sarnoff Corporation | Method and apparatus for tracking moving objects in a sequence of two-dimensional images using a dynamic layered representation |
JP4623135B2 (ja) * | 2008-05-08 | 2011-02-02 | 株式会社デンソー | 画像認識装置 |
US8284258B1 (en) * | 2008-09-18 | 2012-10-09 | Grandeye, Ltd. | Unusual event detection in wide-angle video (based on moving object trajectories) |
JP5253102B2 (ja) * | 2008-11-13 | 2013-07-31 | 将文 萩原 | 物体判別方法および物体判別装置 |
JP5962383B2 (ja) * | 2012-09-25 | 2016-08-03 | 大日本印刷株式会社 | 画像表示システムおよび画像処理装置 |
-
2014
- 2014-07-02 JP JP2014137006A patent/JP6340957B2/ja active Active
-
2015
- 2015-07-02 CN CN201580034978.2A patent/CN106471522A/zh not_active Withdrawn
- 2015-07-02 DE DE112015003089.1T patent/DE112015003089T5/de not_active Ceased
- 2015-07-02 US US15/322,815 patent/US20170151943A1/en not_active Abandoned
- 2015-07-02 WO PCT/JP2015/069187 patent/WO2016002900A1/ja active Application Filing
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001008189A (ja) * | 1999-04-23 | 2001-01-12 | Hitachi Ltd | 移動物体監視装置 |
CN1695167A (zh) * | 2002-08-30 | 2005-11-09 | 日本电气株式会社 | 用于跟踪目标的装置、跟踪目标的方法和跟踪目标的程序 |
US20070092134A1 (en) * | 2005-10-26 | 2007-04-26 | Fuji Xerox Co., Ltd. | Image analyzer |
CN101933065A (zh) * | 2008-02-04 | 2010-12-29 | 本田技研工业株式会社 | 车辆周围监测装置、车辆、车辆周围监测程序及车辆周围监测方法 |
CN102105904A (zh) * | 2008-08-11 | 2011-06-22 | 欧姆龙株式会社 | 检测用信息登录装置、对象物体检测装置、电子设备、检测用信息登录装置的控制方法、对象物体检测装置的控制方法、检测用信息登录装置控制程序、对象物体检测装置控制程序 |
CN102414715A (zh) * | 2009-04-23 | 2012-04-11 | 丰田自动车株式会社 | 物体检测装置 |
CN102473281A (zh) * | 2009-09-03 | 2012-05-23 | 本田技研工业株式会社 | 车辆周围监测装置 |
JP2012118683A (ja) * | 2010-11-30 | 2012-06-21 | Daihatsu Motor Co Ltd | 歩行者認識装置 |
JP2012170483A (ja) * | 2011-02-17 | 2012-09-10 | Fujitsu Ltd | 状態検知装置および状態検知方法 |
CN102855774A (zh) * | 2011-06-27 | 2013-01-02 | 歌乐株式会社 | 车辆周围监视装置 |
CN103578115A (zh) * | 2012-07-31 | 2014-02-12 | 电装It研究所 | 移动体识别***以及移动体识别方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108983247A (zh) * | 2017-05-31 | 2018-12-11 | 本田技研工业株式会社 | 物体目标识别***、物体目标识别方法及存储介质 |
CN108983247B (zh) * | 2017-05-31 | 2022-08-23 | 本田技研工业株式会社 | 物体目标识别***、物体目标识别方法及存储介质 |
CN110956850A (zh) * | 2018-09-27 | 2020-04-03 | 株式会社斯巴鲁 | 移动体监视装置、使用其的车辆控制***及交通*** |
Also Published As
Publication number | Publication date |
---|---|
DE112015003089T5 (de) | 2017-03-30 |
JP6340957B2 (ja) | 2018-06-13 |
WO2016002900A1 (ja) | 2016-01-07 |
JP2016015029A (ja) | 2016-01-28 |
US20170151943A1 (en) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106471522A (zh) | 物体检测用方法及装置、以及计算机程序产品 | |
CN110084095B (zh) | 车道线检测方法、车道线检测装置和计算机存储介质 | |
CN109146921B (zh) | 一种基于深度学习的行人目标跟踪方法 | |
CN101981582B (zh) | 用于检测对象的方法和装置 | |
WO2017041396A1 (zh) | 一种车道线数据的处理方法、装置、存储介质及设备 | |
CN111640089B (zh) | 一种基于特征图中心点的缺陷检测方法及装置 | |
WO2017059576A1 (en) | Apparatus and method for pedestrian detection | |
EP2980755B1 (en) | Method for partitioning area, and inspection device | |
CN106203423B (zh) | 一种融合上下文探测的弱结构感知视觉目标跟踪方法 | |
JP2008271268A5 (zh) | ||
CN106648078B (zh) | 应用于智能机器人的多模态交互方法及*** | |
CN103164694A (zh) | 一种人体动作识别的方法 | |
US9443129B2 (en) | Methods and apparatus for image analysis using threshold compactness features | |
CN110889421A (zh) | 目标物检测方法及装置 | |
CN105243356A (zh) | 一种建立行人检测模型的方法及装置及行人检测方法 | |
KR101866381B1 (ko) | 변형 가능한 파트 모델을 사용한 보행자 검출 장치 및 방법 | |
CN105354549B (zh) | 基于似物性估计的快速行人检测方法 | |
JP2012221162A (ja) | 対象物検出装置及びプログラム | |
CN103530646B (zh) | 使用分类器级联的复杂对象检测 | |
CN103198321B (zh) | 视网膜图像处理方法及装置 | |
JP5691834B2 (ja) | 画像識別装置及びプログラム | |
JP5434861B2 (ja) | 移動体検出装置及びプログラム | |
CN107832732B (zh) | 基于三叉树遍历的车道线检测方法 | |
JP6077785B2 (ja) | 対象物検出装置及びプログラム | |
CN117456578A (zh) | 基于双向光流实现快速微表情识别处理的方法、装置、处理器及其计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170301 |