CN103136509A - 车外环境识别装置及车外环境识别方法 - Google Patents

车外环境识别装置及车外环境识别方法 Download PDF

Info

Publication number
CN103136509A
CN103136509A CN2012104750991A CN201210475099A CN103136509A CN 103136509 A CN103136509 A CN 103136509A CN 2012104750991 A CN2012104750991 A CN 2012104750991A CN 201210475099 A CN201210475099 A CN 201210475099A CN 103136509 A CN103136509 A CN 103136509A
Authority
CN
China
Prior art keywords
candidate
people
unit
block
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012104750991A
Other languages
English (en)
Other versions
CN103136509B (zh
Inventor
笠置诚佑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Publication of CN103136509A publication Critical patent/CN103136509A/zh
Application granted granted Critical
Publication of CN103136509B publication Critical patent/CN103136509B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种车外环境识别装置及车外环境识别方法,通过人的下部区域(下半身)直接确定人,由此谋求提高对人的确定效率和确定精度。车外环境识别装置(130)获取检测区域内的图像;在所获取的图像中,将自相当于道路表面的平面至预定高度的区域内的多个区块基于区块之间的第一相对关系进行群组化,以生成区块群;相对于图像的水平方向将区块群分割为两个部分,基于被分割为两个部分的区块群之间的第二相对关系,判断部位群是否为作为人的候补的第一人候补。

Description

车外环境识别装置及车外环境识别方法
技术领域
本发明涉及识别本车辆外的环境的车外环境识别装置及车外环境识别方法。
背景技术
以往,确定位于本车辆的前方的车辆或障碍物等对象物,并进行控制(巡航控制)以防止与被确定的对象物碰撞(刹车控制)或使本车辆与前行车辆的车距保持在安全距离的技术已被人所知(例如,专利文献1)。这种技术大部分构成为,追踪前行车辆而更新位置信息,并计算前行车辆的移动速度等,由此其结果应用于例如刹车制动控制和巡航控制等。
在这种对象物中,尤其步行者等人相比前行车辆,其移动方向和移动速度的自由度较高,绝对体积也小,因此难以掌握其举动并追踪,很难应用于刹车控制和巡航控制之中。
因此,在由本车辆所取得的图像之中,将动作一致的区域假定为上部区域,并判断其下部中的特征点的动作是否不一致,若不一致,则确定为下部区域,并将其组合确定为步行者的全身区域的技术也被人所知(例如,专利文献2)。
依靠专利文献1的技术,则能够在白天确定人的全身。但是,在夜间等需要点亮前照灯的情况下,在步行者的全身区域中,能够得到的有意义的图像仅是本车辆的前照灯的光所照射到的比较低的位置(下半身区域),因此无法确定相当于上半身区域的、动作一致的区域。因此,例如,无法确定横过本车辆的前方的步行者的全身区域,有可能妨碍刹车控制和巡航控制的顺畅的运行。
【现有技术文献】
【专利文献】
【专利文献1】日本专利第3349060号
【专利文献2】日本特开第2009-157581号公报
发明内容
本发明是鉴于上述问题而提出的,其目的在于提供一种通过借助人的下部区域(下半身)直接确定人,由此可谋求提高对人的确定效率和确定精度的车外环境识别装置及车外环境识别方法。
为了解决上述问题,本发明提供的车外环境识别装置其特征在于,包括:图像获取单元,获取检测区域内的图像;群组化单元,在所获取的图像中,对于自相当于道路表面的平面至预定高度的区域内的多个部位,基于部位之间的第一相对关系进行群组化,以生成部位群;人候补判断单元,相对于图像的水平方向将部位群分割为两个部分,基于被分割为两个部分的部位群之间的第二相对关系,判断部位群是否为作为人的候补的第一人候补。
优选地,第一相对关系为相对的位置关系、辉度的差值、或者边缘方向的连续性中的任一个。
优选地,第二相对关系为从形状、面积、对称性、辉度的群中选择的一个或者多个。
优选地,第二相对关系为作为由被分割为两个部分的各个部位群的中心线和垂直线形成的角度的各个中心线角是否分别包含于预定的第一角度范围。
优选地,群组化单元相对于高度方向进一步将图像中的自相当于道路表面的平面至预定高度的区域分割为多个区域,并对于被分割的每个区域,将多个部位进行群组化,人候补判断单元除了被分割为两个部分的部位群之间的第二相对关系之外,当被群组化的高度方向上相邻的部位群的中心线之间所形成的角度差包含于预定的第二角度范围时,判断为第一人候补。
优选地,当高度方向的任意的区域之间所形成的角度差没有包含于第二角度范围时,人候补判断单元对于剩余的区域不执行第一人候补的判断。
优选地,人候补判断单元根据车辆和部位群的距离变更第一角度范围。
优选地,车外环境识别装置还包括:人候补追踪单元,追踪由人候补判断单元判断为第一人候补的部位群;反演测量单元,对于由人候补追踪单元追踪的部位群,测量人候补判断单元判断为第一人候补时和没有判断为第一人候补时的反演次数;人候补确定单元,若反演次数包含于预定的次数范围,则将第一人候补确定为第二人候补。
优选地,车外环境识别装置还包括:人候补追踪单元,追踪由人候补判断单元判断为第一人候补的部位群,反演测量单元,对于由人候补追踪单元追踪的部位群,测量人候补判断单元判断为第一人候补时和没有判断为第一人候补时的反演周期;人候补确定单元,若反演周期包含于预定的周期范围,则判断为第一人候补处于移动之中。
为了解决上述问题,本发明提供的车外环境识别方法其特征在于,包括如下步骤:获取检测区域内的图像;在所获取的图像中,将自相当于道路表面的平面至预定高度的区域内的多个部位基于部位之间的第一相对关系进行群组化,以生成部位群;相对于图像的水平方向将部位群分割为两个部分,基于被分割为两个部分的部位群之间的第二相对关系,判断部位群是否为作为人的候补的第一人候补。
根据本发明,可借助人的下部区域(下半身)直接确定人,因此能够提高对人的确定效率和特定精度。
附图说明
图1为示出环境识别***的连接关系的框图。
图2为用于说明辉度图像的说明图。
图3为示出车外环境识别装置的概略的功能的功能方框图。
图4为用于说明通过位置信息获取单元变换为三维位置信息的说明图。
图5为用于说明依据群组化单元的区域限制的说明图。
图6为用于说明人候补判断单元的处理的说明图。
图7为用于说明人候补判断单元的处理的说明图。
图8为用于说明依据群组化单元的细分化的说明图。
图9为用于说明反演测量单元的处理的说明图。
图10为示出车外环境识别方法的整个流程的流程图。
图11为示出位置信息获取处理的流程的流程图。
图12为示出群组化/人候补判断处理的流程的流程图。
图13为示出群组化/人候补判断处理的流程的流程图。
图14为示出群组化/人候补判断处理的流程的流程图。
图15为示出群组化/人候补判断处理的流程的流程图。
图16为示出人候补追踪处理的流程的流程图。
图17为示出反演测量处理的流程的流程图。
图18为示出人候补确定处理的流程的流程图。
图19为用于说明边缘方向的连续性的说明图。
主要符号说明
1:车辆
100:环境识别***
110:摄像装置
120:图像处理装置
130:车外环境识别装置
140:车辆控制装置
150:I/F单元(图像获取单元)
160:位置信息获取单元
162:群组化单元
164:人候补判断单元
166:人候补追踪单元
168:反演测量单元
170:人候补确定单元
具体实施方式
以下,参照附图详细说明本发明的优选实施方式。所涉及的实施方式中所示的尺寸、材料、其他具体数值等仅仅是为了容易地理解发明而例示的,除了特别指定的情况,并不能限定本发明。在此,本说明书及附图中,对于具有实质上相同的功能、结构的要素,通过赋予相同的符号的方式省略重复性说明,而且对与本发明没有直接关系的要素省略了图示。
(环境识别***100)
图1为示出环境识别***100的连接关系的框图。环境识别***100包含设置在车辆1内的多个(本实施方式中为两个)摄像装置110、图像处理装置120、车外环境识别装置130、车辆控制装置140。
摄像装置110包含电荷耦合器件(CCD,Charge-Coupled Device)或互补金属氧化物半导体(CMOS,Complementary Metal-Oxide Semiconductor)等摄像器件,能够获取彩色图像,即,像素单位中可获取三个色相(R(红)、G(绿)、B(蓝))的辉度。在此,由摄像装置110所拍摄的彩色图像称为辉度图像,区别于后述的距离图像。
而且,摄像装置110为两个,两个摄像装置110大致在水平方向分开布置,且在车辆1的行进方向侧使两个摄像装置110各自的光轴大致平行。摄像装置110每隔例如1/60秒(60fps)连续生成对存在于车辆1前方的检测区域的对象物进行拍摄的图像数据。在此,对象物不仅包括人(人类)、车辆、信号灯、道路、护栏等独立存在的立体物体,还包括刹车灯(尾灯)或指示灯、信号灯的各个照明部分等能够确定为立体物的部分的物体。在以下实施方式中的各个功能单元以这种图像数据的更新作为开端执行各种处理。
图像处理装置120从两个摄像装置110分别获取图像数据,并基于两个图像数据导出包含作为部位的图像中的任意区块(集合预定数量的像素的区块)的视差以及表示任意区块在画面中的位置的画面位置的视差信息。图像处理装置120采用从另一个像素数据搜索对应于从一个图像数据任意抽出的区块(例如,水平4像素×垂直4像素的阵列)的区块的所谓的图案匹配而导出视差。在此,在区块的说明中所使用的“水平”是指所拍摄的图像的画面横向方向,相当于实际空间中的水平方向。而且,“垂直”是指所拍摄的图像的画面纵向方向,相当于实际空间中的竖直方向。
所述图案匹配是指,在两个图像数据之间以表示任意图像位置的区块单位比较辉度值(Y色差信号)的方法。例如,包括求出辉度值的差值的绝对差值和(SAD,Sum ofAbsolute Difference)、将差值平方后使用的差值的平方和(SSD,Sum of Squared intensity Difference)、求出从各个像素的辉度值减去了平均值的分散值的相似度的归一化互相关(NCC,Normalized CrossCorrelation)等方法。图像处理装置120对于被显示在检索区域(例如,600像素×200像素)的全部区块执行这种区块单位的视差导出处理。在此,将区块设定为4像素×4像素,但区块内的像素数量可以任意地设定。
但是,在图像处理装置120中,虽然对作为检测分辨率的单位的每个区块能够导出视差,但无法识别该区块是哪种对象物的一部分。因此,视差信息不是以对象物单位,而是以检测区域的检测分辨率单位(例如区块单位)而被独立地导出。在此,将如此导出的视差信息(相当于后述的相对距离)映射到图像数据的图像称为距离图像。
图2为用于说明辉度图像124和距离图像126的说明图。例如,假设通过两个摄像装置110针对检测区域122生成图2的(a)所示的辉度图像(图像数据)124。但是,在此,为了便于理解,仅模式性地示出两个辉度图像124中的一个。在本实施方式中,图像处理装置120从这种辉度图像124求出每个区块的视差,由此形成图2(b)所示的距离图像126。在距离图像126中的各个区块中,关联有其区块的视差。在此,为了便于说明,将导出视差的区块用黑点表示。
对于视差来说,容易在图像的边缘部分(相邻像素之间明暗的差值较大的部分)被确定,因此在距离图像126中,赋予黑点的、导出有视差的区块在辉度图像124中也大多形成边缘。因此,图2(a)所示的辉度图像124和图2(b)所示的距离图像126在各个对象物的轮廓上相互近似。
车外环境识别装置130从图像处理装置120获得辉度图像124和距离图像126,并依据从距离图像126导出的自本车辆的相对距离和辉度图像124的辉度确定检测区域122中的对象物对应于哪种特定物。例如,通过确定横过本车辆的前方的步行者(特定物),能够迅速地掌握步行者的存在和其举动,并反映到刹车控制和巡航控制之中。
其中,上述相对距离通过使用所谓的立体视觉法将距离图像126中的每个区块的视差信息变换为三维位置信息而求出。在此,立体视觉法是通过使用三角测量法从对象物的视差导出该对象物的相对于摄像装置110的相对距离的方法。对于这种环境识别装置130将在后面详述。
车辆控制装置140执行避免本车辆与通过环境识别装置130确定的对象物碰撞或使本车辆与前行车辆的车间距保持在安全距离的控制。具体来说,车辆控制装置140通过用于检测转向的角度的舵角传感器142和用于检测车辆1的速度的车速传感器144等获得当前的车辆1的行驶状态,并通过控制致动器146将车辆1与前行车辆的车间距保持在安全距离。在此,致动器146是用于控制刹车、节气阀、舵角等的车辆控制用致动器。而且,当推断出将与对象物产生碰撞时,车辆控制装置140在设置在驾驶者前方的显示器148中进行相应警告显示(报警)的同时,控制致动器146使车辆1自动地制动。这种车辆控制装置140也可以与车外环境识别装置130形成为一体。
(车外环境识别装置130)
图3为示出车外环境识别装置130的概略的功能的功能方框图。如图3所示,车外环境识别装置130包括I/F单元150、数据存储单元152、照度计154、中央控制单元156。
I/F单元150是用于与图像处理装置120、车辆控制装置140双向进行信息交换的接口。这种I/F单元150起到图像获取单元的功能。数据存储单元152由RAM、闪存、HDD等构成,以用于保存以下所示各个功能单元的处理中所必要的各种信息,而且暂时保存从图像处理装置120接收的辉度图像124、距离图像126。照度计154为掌握车外环境而测量车外的光度。
中央控制单元156由包括中央处理装置(CPU)、存储有程序等的ROM、作为工作区的RAM等的半导体集成电路构成,通过***总线158控制I/F单元150和数据存储单元152、照度计154。而且,在本实施方式中,中央控制单元156具有作为位置信息获取单元160、群组化单元162、人候补判断单元164、人候补追踪单元166、反演测量单元168、人候补确定单元170的功能。通过这种中央控制单元156的各个功能单元,车外环境识别装置130将检测区域内的对象物确定为特定物。作为特定物的代表例,可例举前行车辆或人(步行者),在本实施方式中,以在夜间等需要点亮前照灯的状况(为了便于说明,以下简单地称为“夜间”)下确定位于车辆1的前方的人为例进行说明。
位置信息获取单元160使用前述的立体视觉法将距离图像126中的检测区域122内的每个区块的视差信息变换为包含水平距离x、高度y以及相对距离z的三维位置信息。在此,视差信息表示距离图像126中的各个区块的视差,而三维位置信息表示实际空间中的各个区块的相对距离的信息。而且,当视差信息并非以像素单位,而是以区块单位(即,以多个像素为单位)被导出时,该视差信息被视为属于区块的所有像素的视差信息,从而能够执行像素单位的计算。
图4为用于说明通过位置信息获取单元160变换为三维位置信息的说明图。位置信息获取单元160首先将距离图像126识别为如图4所示的像素单位的坐标系。在此,图4中,将左下角设定为原点(0,0),横向方向设定为i坐标轴,纵向方向设定为j坐标轴。因此,具有视差dp的像素能够由像素位置i、j和视差dp表示为(i,j,dp)。
将本实施方式中的实际空间上的三维坐标系假设为以车辆1为中心的相对坐标系。在此,将车辆1的行进方向右侧方设定为X轴的正方向,车辆1的上方设定为Y轴的正方向,车辆1的行进方向(前方)设定为Z轴的正方向,经过两个摄像装置110的中央的铅直线和道路表面的交点作为原点(0,0,0)。此时,假设道路为平面时,道路表面与X-Z平面(y=0)一致。位置信息获取单元160通过以下的数学式1~数学式3将距离图像126上的区块坐标(i,j,dp)变换为实际空间上的三维的点坐标(x,y,z)。
x=CD/2+z·PW·(i-IV)  ...数学式1
y=CH+z·PW·(j-JV)      ...数学式2
z=KS/dp                     ...数学式3
在此,CD为摄像装置110之间的间隔(基线长度),PW为每一个像素的视角,CH为摄像装置110自道路表面的布置高度,IV、JV为车辆1的正面方向无限远端的图像上的坐标(像素),KS为距离系数(KS=CD/PW)。
因此,位置信息获取单元160基于与该区块处于相同的相对距离的道路表面上的点与该区块之间的距离图像126上的检测距离(例如,像素数量),导出自道路表面的高度。在此,相当于道路表面的X-Z平面(y=0)能够基于道路上的车线(划分道路的线)的三维坐标导出,车线能够从与道路的辉度变化提取。这种道路表面的三维位置能够使用现有的各种技术导出,因此在此省略其详细的说明。
群组化单元162基于通过位置信息获取单元160导出的、作为第一相对关系的相对的位置关系,将距离图像126中的多个区块群组化,并生成作为部位群的区块群。例如,群组化单元162以任意的区块为基点,提取与该区块相邻的区块,并将两个区块之间的水平距离x的差值和高度y的差值以及相对距离z的差值处于预定范围(例如,0.5m)之内的区块假定为对应于同一特定物而进行群组化。上述范围通过实际空间上的距离表示,能够由制造者或搭乘者设定为任意的值。
而且,对于通过群组化而新增加的区块,群组化单元162也以该区块为基点,将水平距离x的差值和高度y的差值以及相对距离z的差值处于预定范围之内的区块进一步进行群组化。结果,可被假定为同一特定物的所有区块都被群组化。
而且,在此,分别独立判断水平距离x的差值、高度y的差值及相对距离z的差值,且仅在所有差值被包含在预定范围时才作为同一群组,但还可以依据其他的计算。例如,当水平距离x的差值、高度y的差值及相对距离z的差值的欧氏距离
Figure BDA00002439823600081
被包含于预定范围之内时,也可以作为同一群组。通过所述计算,能够导出区块在实际空间上的正确的距离,能够提高群组化精度。
而且,在此,使用水平距离x的差值、高度y的差值以及相对距离z的差值,这三个参数,但并不局限于此,可以如水平距离x的差值和高度y的差值、水平距离x的差值和相对距离z的差值、或者高度y的差值和相对距离z的差值一样,仅使用任意两个参数的差值而进行群组化。并且,在一个特定物中,整体上辉度近似,或者辉度的变化的趋势是规则性的,因此群组化单元162也可以利用其辉度特性,将辉度相近的情况添加为条件而进行群组化。
而且,在本实施例中,当通过照度计154能够判断出车外环境为夜间时,或者能够判断出前照灯正处于点亮时,群组化单元162将检测对象限制在检测区域122的一部分。具体来讲,群组化单元162限制在从相当于道路表面的平面至预定高度(例如,1.0m)的区域,仅对存在于该区域的区块进行群组化。
图5为用于说明依据群组化单元162的区域限制的说明图。在此,为了便于说明,使用辉度图像124进行说明。在本实施方式中,主要以确定夜间位于车辆1前方的人为目的。在此情况下,车辆1通过前照灯照射前方,但在通常的近光灯下,如图5的(a)中的四边形包围的范围所示,光仅能够照射到人的腰部以下的部分。因此,在夜间的辉度图像124中,主要反映人的腰部以下的部分的高度的对象物,基于此,在距离图像126中也被导出与人的腰部以下的部分的高度的区块相关的相对距离z。为了对应这种夜间环境,群组化单元162聚焦于如图5的(b)中以斜线表示的、位于道路表面上方且1m以内的立体带状区域200而对区块进行群组化。
如此,在夜间,通过将检测对象集中到自道路表面1m的范围之内,能够防止对处于自道路表面1m以上的对象物进行检测的误检测,能够准确地检测出人的腿的同时,与将整个检测区域122作为对象而进行的处理相比较,能够显著地减轻处理负荷。
而且,群组化单元162也可以在自相当于道路表面的平面处于预定高度(例如,1.0m)的区域的基础上,如图5的(b)所示,去掉护栏或路边带的外侧区域。由此,能够进一步减轻负荷。
在此,举出了对应于照度计154的测量结果或前照灯的点亮状态判断为是夜间,并将检测对象限制在自道路表面1m范围之内的例子,但也可以在车外环境明亮,例如,在白天等,将整个检测区域122作为检测对象,且不仅是下半身,将包含上半身的人的全身进行群组化。
人候补判断单元164在由群组化单元162群组化的区块群之中,将能够认定为是人的腿的预定面积以上的区块群相对图像的水平方向分割为两个部分,并基于被分割为两个部分的区块群之间的第二相对关系判断区块群是否为第一人候补。第二相对关系可使用各种关系,在此,作为典型例,例举被分割为两个部分的各个区块群整体倾斜。具体来讲,作为第二相对关系,人候补判断单元164判断作为被分割为两个部分的各个区块群的中心线和垂直线的角度的各个中心线角是否包含于预定的第一角度范围(例如,30±15度内)。在此,第一人候补表示人候补的可能性(probability)标准,区别于后述的第二人候补。
图6为用于说明人候补判断单元164的处理的说明图。在夜间行驶时,假设从图像处理装置120获取了如图6的(a)所示的辉度图像124。图6的(a)中,关于人208,可以理解有意义的图像仅为腰部以下的部分。此时,假定群组化单元162在基于图6的(a)的辉度图像124的图6的(b)的距离图像126上的、自相当于道路表面的平面处于预定高度(例如,1.0m)的区域中,对相对位置相近的区块进行群组化而提取了区块群210。人候补判断单元164利用沿水平方向和垂直方向延伸的四边形包围区块群210的外边缘,生成虚拟的框212。然后,相对于水平方向将框212分割为两个部分,生成如图6的(c)所示的部分区块群214a、214b。
接着,人候补判断单元164参照图6的(c)的每个部分区块群214a和部分区块群214b的整个区块,使用最小二乘法生成如一个点划线所示的中心线216a、216b。依据最小二乘法的近似直线(曲线)的求出方法为现有技术,因此在此省略其详细说明。而且,在此,采用一维模型作为中心线216a、216b,但也可以使用多次曲线。
人候补判断单元164判断作为生成的中心线216a、216b和沿画面垂直方向(竖直方向)延伸的垂直线218的角度的各中心线角α、β是否包含于预定的第一角度范围(例如,30±15度内)。当中心线角α、β都包含于第一角度范围时,人候补判断单元164将该部分区块群214a、214b视为两条腿,并将区块群210设为第一人候补。
在此所使用的第一角度范围可以如上所述地固定为所定角度,但也可以对应于车辆1和区块群210的距离进行变更。而且,作为辉度图像124和距离图像126而被车外环境识别装置130获取的图像,与三维坐标无关地以相同大小的像素表示。换言之,对于靠近车辆1的(近距离的)区块群210而言,相比像素,其面积较大,因此能够详细地表示,但对于远离车辆1的(远距离的)区块群210而言,相比像素,其面积较小,因此变得粗糙。由此,远处的区块群210的分辨率较差,从而可能发生无法正确地检测出中心线216a、216b和垂直线218之间的中心线角的情况。
因此,人候补判断单元164根据与车辆1的相对距离z,将位于远处的区块群210所对应的第一角度范围设置为相比位于近处的区块群210所对应的第一角度范围更窄(严格),由此防止将远处的区块群210误检测为人的腿。据此,在远处存在人的情况下,虽然也变得难以检测,但由于远处的人几乎不会对环境识别***100产生影响,因此不会成为问题。
据此,人候补判断单元164能够将由群组化单元162群组化的区块群210视为第一人候补。但是,仅依据被分割为两个部分的区块群210(部分区块群214a、214b)的整体的中心线216a、216b提取第一人候补时,存在将与人不同的特定物视为第一人候补的情况。
图7为用于说明人候补判断单元164的处理的说明图。如图7所示,假设存在由多个支柱230支撑的招牌232。在此,多个支柱230的中心线216a、216b和垂直线218之间的中心线角α、β包含于第一角度范围(例如,30±15度内)时,人候补判断单元164将这种支柱230判断为第一人候补。因此,本实施方式中,人候补判断单元164即便判断为第一人候补,也进一步将区块群细分化,从而在提高第一人候补的可能性的基础上,再次确定第一人候补。
具体来讲,群组化单元162将图像中的自相当于道路表面的平面至预定高度的区域相对于高度方向分割为多个区域,并对于被分割的每个区域,对区块进行群组化。然后,人候补判断单元164在高度方向上相邻(连接)的、被群组化的区块群的中心线彼此所形成的角度差(关节的弯曲)包含于预定的第二角度范围(例如,绝对值为5度以上)时,将该区块群210正式地判断为第一人候补。
图8为用于说明借助群组化单元162的细分化的说明图。例如,假定群组化单元162基于图6的(b)所示的距离图像126,在进一步分割自相当于道路表面的平面至预定的高度(例如,1.0m)的区域而形成的多个区域中,对相对位置靠近的多个区块进行群组化,提取了如图8所示的区块群214c、214d、214e、214f、214g、214h。此时的分割比率为,例如,对于全部区域1m,自道路表面依次设定为30cm、50cm、20cm。这种分割比率是由人的脚尖和小腿位于道路表面之上(30cm),其竖直上方是大腿(50cm),在大腿的竖直上方是腰(20cm)的推定而确定的。
接着,人候补判断单元164判断在高度方向上相邻的部分区块群、例如,部分区块群214d和部分区块群214e的中心线216d、216e彼此所形成的角度差是否包含于预定的第二角度范围(例如,绝对值为5度以上),若包含于第二角度范围,则再次判断为第一人候补。如此,通过涉及人特有的关节的弯曲,能够从第一人候补中排除如图7所示的、虽然处于倾斜但以简单的直线表示的支柱230,从而能够更高精度地提取第一人候补。
在此,基于典型的日本人的腿和关节的关系,设定了整个长度为1.0m,分割比率为30cm、50cm、20cm,但整个长度和分割比率能够任意地设定。例如,可以根据国家、低于、环境而个别地设定。
而且,设定如此的分割比率的第一人候补的提取处理中,人候补判断单元164在高度方向的任一区域彼此所形成的角度差没有包含于预定的第二范围之内时,不再执行针对剩余的区域的第一人候补判断。这是因为,在只要具有一部分无法判断为是第一人候补的部分,就会影响该区块群210是第一人候补的可能性,因此省略之后的处理。由此,能够谋求减轻处理负荷。
此时,人候补判断单元164也可以将第一人候补的判断沿竖直下方,即小腿和大腿、大腿和腰的顺序进行。这是因为,与大腿和腰的角度差相比,小腿和大腿的角度差更大的情况较多,据此能够更加准确地进行第一人候补的判断。人候补判断单元164首先导出小腿和大腿的角度差,若该值不包含于第二角度范围,则不再导出之后的大腿和腰的角度差,仅在小腿和大腿的角度差包含于第二角度范围时才导出大腿和腰的角度差。
如此,仅在满足一层又一层的条件时才设定为第一人候补,因此虽然存在作为第一人候补提取的区块群210受限制的可能性,但与原本不应被检测出的区块群210误检测为第一人候补相比,具有优点。这是因为,在刹车控制和巡航控制过程中,若由于误检测而导致车辆1无意地频繁减速,则可能损害驾驶时的舒适性。因此,本实施方式中,仅将非常确信的区块群210提取为第一人候补。
人候补追踪单元166通过图像处理追踪由人候补判断单元164提取为第一人候补的区块群210。这种追踪使用基于例如每1/60秒连续生成的图像数据的图像,并如下地执行。人候补追踪单元166从与在前次图像中被提取为第一人候补的区块群210的位置对应的当前图像中的位置和其邻近处,提取辉度的趋势与前次图像的区块群210类似的区块群210。区块群210的类似以以下方式判断,即,对于细分前次图像的区块群210而形成的每个区块,从当前的图像中提取通过与前次区块的图案匹配而判断为具有相关性的区块,由此判断区块群210的类似。关于包含如此的类似判断的追踪处理,能够应用各种的以往技术,因此在此省略其详细的说明。
反演测量单元168对于人候补追踪单元166正在追踪的区块群210,测量人候补判断单元164判断为第一人候补时和没有判断为第一人候补时的反演的反演次数及反演周期。
人通过交替地向前伸出左右腿来前进。因此,从侧面观察步行着的人时,从双腿前后张开的状态经过双腿并拢的状态,再变成双腿前后张开的状态。即,人在步行时,重复双腿张开的状态(人候补判断单元164判断为第一人候补的状态)和双腿并拢的状态(人候补判断单元164没有判断为第一人候补的状态)。因此,在本实施方式中,人候补判断单元164依据提取为第一人候补的区块群210的举动,判断该区块群210是否为进一步有可能是人的第二人候补,且第一人候补是否处于移动过程中。第一人候补和第二人候补仅是作为人的可能性不同,任何一个都是人的候补,在后阶段的控制中,根据需要何种程度的作为人的可能性而区分使用。
图9为用于说明反演测量单元168的处理的说明图。人在步行时,例如,在向前伸出右腿的期间t1,由于右腿的中心线角和左腿的中心线角都包含于第一角度范围,因此人候补判断单元164将该区块群210假定为第一人候补群。但是,在向前伸出左腿的期间t2,双腿重叠,双腿的中心线角暂时脱离第一角度范围。然后,在向前伸出左腿的期间t3,双腿的中心线角再次包含于第一角度范围。如此,关于人候补追踪单元166所追踪的区块群210,以如图9所示的时序图表示人候补判断单元164判断为第一人候补的状态(第一人候补判断)和判断为不是第一人候补的状态(非第一人候补判断)时,能够理解其举动是周期性的。反演测量单元168测量这样的反演次数和反演周期。
人候补确定单元170观察由反演测量单元168所测量的反演次数,当反演次数包含于预定的次数范围(例如,4次以上)时,如图9的箭头方向所示地将第一人候补变更为人的可能性相比第一人候补更高的第二人候补。
由此,在车外环境识别装置130中,能够从距离图像126提取一个或者多个区块群作为第二人候补,并能够将该信息应用于各种控制之中。例如,当确定为检测区域内的任意的区块群为人(第二人候补)时能够控制为,防止与被确定为人发生碰撞,或者将与人的距离保持在安全的距离。
而且,当由反演测量单元168测量的反演周期包含于预定的周期范围(例如,0.5Hz以上)时,人候补确定单元170判断为第一人候补处于移动之中,当没有包含于该周期范围(例如,小于0.5Hz)时,判断为第一人候补处于停止中。
由此,在车外环境识别装置130中,能够判断出提取为第一人候补或第二人候补的区块群210正在移动的事实,并能够进行控制为,防止与判断出的人发生碰撞,或者将与人的距离维持在安全的距离。
(车外环境识别方法)
以下,基于图10~图18的流程图说明车外环境识别装置130的具体的处理。图10示出关于从图像处理装置120发送距离图像126时的中断处理的整体流程,图11至图18示出其中的个别的子流程。而且,在此,作为处理的对象以区块或像素为例,将辉度图像124或距离图像126的左下角作为原点,对于区块,则在图像的水平方向的1~150个区块,垂直方向的1~50个区块的范围内执行依据该车外环境识别方法的处理。在此,为了便于说明,以夜间行驶作为前提进行说明。
如图10所示,当以接收距离图像126为开端发生依据该车外环境识别方法的中断时,参照从图像处理装置120取得的距离图像126,位置信息获取单元160将距离图像126中的检测区域122内的每个区块的视差信息变换为三维的位置信息(S300)。然后,群组化单元162和人候补判断单元164对自相当于道路表面的平面至预定的高度的区域内的多个区块进行群组化,并判断被群组化的区块群是否为第一人候补(S302)。
然后,人候补追踪单元166借助图像处理追踪由人候补判断单元164提取为第一人候补的整个区块群210(S304)。对于人候补追踪单元166追踪的整个区块群210,反演测量单元168并行测量人候补判断单元164判断为第一人候补时和没有判断为第一人候补时的反演次数和反演周期(S306)。接着,人候补确定单元170基于反演测量单元168的结果,确定第二人候补,或者判断第一人候补是否处于移动过程中(S308)。以下,对上述的处理进行具体说明。
(位置信息获取处理S300)
参照图11,位置信息获取单元160初始化(代入“0”)用于确定区块的垂直变量j(S400)。接着,位置信息获取单元160在垂直变量j上加“1”的同时初始化水平变量i(代入“0”)(S402)。然后,位置信息获取单元160在水平变量i上加“1”(S404)。
位置信息获取单元160从距离图像126的区块(i,j,dp)获取视差信息dp(S406)。然后,位置信息获取单元160使用上述数学式1~3将包含视差信息dp的区块(i,j,dp)坐标变换为实际空间上的点(x,y,z),并作为区块(i,j,dp,x,y,z)(S408)。
接着,位置信息获取单元160判断水平变量i是否超过作为水平区块的最大值的150(S410),若水平变量i没有超过最大值(S410的“否”),则从步骤S404的水平变量i的累加处理开始重复执行。而且,若水平变量i超过最大值(S410的“是”),则位置信息获取单元160判断垂直变量j是否超过作为垂直区块的最大值的50(S412)。然后,若垂直变量j没有超过最大值(S412的“否”),则从步骤S402的垂直变量j的累加处理开始重复执行。而且,若垂直变量j超过最大值(S412的“是”),则终止该位置信息获取处理S300。由此,距离图像126的视差信息dp被变换为三维的位置信息。
(群组化/人候补判断处理S302)
参照图12,群组化单元162参照用于群组化区块的所定范围(例如,0.5m)(S450),初始化(代入“0”)用于确定区块的垂直变量j(S452)。接着,群组化单元162在垂直变量j上加“1”的同时,初始化(代入“0”)水平变量i(S454)。然后,群组化单元162在水平变量i上加“1”(S456)。
群组化单元162从距离图像126获取区块(i,j,dp,x,y,z)(S458)。然后,判断该区块(i,j,dp,x,y,z)的高度y是否包含于限制范围,即,自相当于道路表面的平面至预定高度(例如1.0m)(S460)。在此,若高度y处于限制范围之内(S460的“是”),则群组化单元162基于该区块(i,j,dp,x,y,z)的实际空间上的坐标(x,y,z),判断在上述所定范围内且在上述限制范围内是否存在其他区块(i,j,dp,x,y,z)(S462)。
若存在其他区块(S462的“是”),则群组化单元162判断包括自身的所定范围内的所有区块中的任意一个区块是否被赋予了第一群组号g(S464)。若任意一个区块被赋予了第一群组号g(S464中的“是”),则群组化单元162对于包含于所定范围内的所有区块及被赋予同一第一群组号g的所有区块,赋予所赋予的群组号中最小的第一群组号g以及还没有用作第一群组号的号中的最小值中的相对小的一个值,从而变成区块(i,j,dp,x,y,z,g)(S466)。而且,若任意一个区块均未被赋予第一群组号g(S464的“否”),则对包含自身的所定范围内的所有区块新赋予还没有用作第一群组号的号中的最小值(S468)。
由此,当所定范围内存在多个区块时,通过赋予一个第一群组号g而执行群组化。此时,当多个区块的任意一个均未被赋予第一群组号g时,赋予新的第一群组号,当多个区块中的任一区块已经被赋予第一群组号g时,赋予与此相同的第一群组号g。但是,当多个区块中存在多个第一群组号g时,由于应视为一个群组,因此将该区块的所有的第一群组号g置换为一个第一群组号g。
此时,不仅对包含于所定范围内的所有的区块,而且还对被赋予同一第一群组号g的所有区块的第一群组号g进行一次性变更的理由在于:避免因第一群组号g的变更而使已经被统一的群组分离。而且,在最小的第一群组号g以及还未用作第一群组号的号中的最小值中采用相对小的一个值的理由在于:对群组标号时,尽可能避免出现空号。据此,防止第一群组号g的最大值无端地变大,从而能够减轻处理负荷。
返回到图12,若高度y处于限制范围之外(S460的“否”),或者在所定范围内不存在其他区块(S462的“否”),则转移到下一步骤S470。
接着,群组化单元162判断水平变量i是否超过作为水平像素的最大值的150(S470),若水平变量i并没有超过最大值(S470的“否”),则从步骤S456的水平变量i的累加处理开始重复执行。而且,若水平变量i超过最大值(S470的“是”),则群组化单元162判断垂直变量j是否超过作为垂直像素的最大值的50(S472)。然后,若垂直变量j没有超过最大值(S472中的“否”),则从步骤S454的垂直变量j的累加处理开始重复执行。而且,若垂直变量j超过最大值(S472的“是”),则转移到下一步骤。
参照图13,人候补判断单元164参照最小的第一群组号g,设定被赋予该第一群组号g的区块群(被赋予第一群组号g的所有的区块)(S500)。接着,人候补判断单元164判断设定的区块群的面积是否在能够被确认为人的腿的预定的所定面积以上(S502)。在此,若满足条件(S502的“是”),则相对于图像的水平方向将区块群分割为两个部分(S504),并导出被分割为两个部分的各个部分区块群的中心线(S506)。
接着,人候补判断单元164判断被分割为两个部分的各个区块的中心线的中心线角是否包含于预定的第一角度范围(例如,30±15度内)(S508)。若中心线角包含于第一角度范围(S508的“是”),则该区块群暂时被判断为第一人候补,给区块赋予人候补标记f=“1”(S510)。这种第一角度范围可以对应于车辆1和区块群的距离进行变更。
当区块群的面积不满足条件时(S502的“否”),或者中心线角没有包含在第一角度范围时(S508的“否”),人候补判断单元164给区块赋予人候补标记f=“0”(S512),并将处理转移至下一步骤S514。
接着,对于所有的多个区块群,人候补判断单元164判断是否执行了步骤S502~S512的处理(S514)。在此,若判断为并不是所有的区块群都完成了处理(S514的“否”),则更新第一群组号g而设定新的区块群(S516),对于新的区块群从步骤S502开始重复执行。另外,若所有的区块群都完成了处理(S514中的“是”),转移到下一步骤。
参照图14,群组化单元162参照用于群组化区块的所定范围(例如,0.5m)和沿高度方向分割的多个区域的分割比率(S550),初始化(代入“0”)用于确定区块的垂直变量j(S552)。接着,群组化单元162在垂直变量j上加“1”的同时初始化(代入“0”)水平变量i(S554)。接着,群组化单元162在水平变量i上加“1”(S556)。
群组化单元162从距离图像126获取区块(i,j,dp,x,y,z,g,f)(S558)。然后,判断该区块(i,j,dp,x,y,z,g,f)的人候补标记f是否为“1”(S560)。在此,若人候补标记f为“1”(S560的“是”),则群组化单元162参照分割比率判断区块(i,j,dp,x,y,z,g,f)属于沿高度方向分割的多个区域中的哪个区域,并求出该区域的高度范围(S562)。
接着,群组化单元162基于区块(i,j,dp,x,y,z,g,f)的实际空间上的坐标,判断是否存在上述的所定范围之内的、且区块的高度y包含于上述高度范围的其他区块(i,j,dp,x,y,z,g,f)(S564)。
若存在其他区块(i,j,dp,x,y,z,g,f)(S564的“是”),则群组化单元162判断包括自身的所定范围内的所有区块中的任意一个区块是否被赋予了第二群组号gg(S566)。若任意一个区块被赋予了第二群组号gg(S566中的“是”),则群组化单元162对于包含于所定范围内的所有区块及被赋予同一第二群组号gg的所有区块,赋予所赋予的第二群组号中最小的第二群组号gg以及还没有用作第二群组号的号中的最小值中的相对小的一个值,从而变成区块(i,j,dp,x,y,z,g,f,gg)(S568)。而且,若任意一个区块均未被赋予第二群组号gg(S566的“否”),则对包含自身的所定范围内的所有区块新赋予还没有用作第二群组号的号中的最小值(S570)。
如此,与第一群组号g一样,当所定范围内存在多个区块时,通过赋予一个第二群组号gg而执行群组化。此时,当多个区块的任意一个均未被赋予第二群组号gg时,赋予新的第二群组号gg,当多个区块中的任一区块已经被赋予第二群组号gg时,赋予与此相同的第二群组号gg。但是,当多个区块中存在多个第二群组号gg时,由于应视为一个群组,因此将该区块的所有的第二群组号gg置换为一个第二群组号gg。
当人候补标记f不是“1”时(S560中的“否”),或者所定范围之内不存在其他区块时(S564中的“否”),处理转移到下一步骤S572。
接着,群组化单元162判断水平变量i是否超过作为水平像素的最大值的150(S572),若水平变量i并没有超过最大值(S572的“否”),则从步骤S556的水平变量i的累加处理开始重复执行。而且,若水平变量i超过最大值(S572的“是”),则群组化单元162判断垂直变量j是否超过作为垂直像素的最大值的50(S574)。然后,若垂直变量j没有超过最大值(S574中的“否”),则从步骤S554的垂直变量j的累加处理开始重复执行。而且,若垂直变量j超过最大值(S574的“是”),则转移至下一步骤。
参照图15,人候补判断单元164参照最小的第一群组号g,设定被赋予该第一群组号g的区块群(S600)。接着,人候补判断单元164判断区块群中的区块(i,j,dp,x,y,z,g,f,gg)的人候补标记f是否为“1”(S602)。在此,若人候补标记f为“1”(S602的“是”),则召集属于所设定的区块群的所有的部分区块群(第一群组号g相同,且第二群组号gg不同的部分区块群),并相对于图像水平方向分割为两个部分(S604)。然后,人候补判断单元164导出被分割为两个部分的所有区块群的的中心线(S606)。
接着,人候补判断单元164从多个(在此为六个)部分区块群提取在高度方向上相邻的部分区块群的组合,并判断所提取的部分区块群的组合的中心线彼此所形成的角度差是否包含于预定的第二角度范围(例如,绝对值为5度以上)(S608)。若角度差包含于第二角度范围(S608中的“是”),则将该区块群判断为是第一人候补,维持区块中的人候补标记f=“1”。
然后,人候补判断单元164判断是否对于部分区块群的所有组合都执行了步骤S608、S610的处理(S612)。在此,若判断为并不是部分区块群的所有组合都完成了处理(S612的“否”),则更新第二群组号gg而设定相邻的新的部分区块群的组合(S614),并针对新的部分区块群的组合从步骤S608开始重复执行。另外,若部分区块群的所有组合都完成了处理(S612的“是”),则转移至步骤S618。
若角度差没有包含于第二角度范围(S608的“否”),则人候补判断单元164将区块的人候补标记置换为f=“0”(S616),停止有关该区块群的处理,并将处理转移至步骤S618。而且,当人候补标记f不是“1”的情况下(S602的“否”),也将处理转移至步骤S618。
人候补判断单元164判断是否对于所有的多个区块群都执行了步骤S602~S616的处理(S618)。在此,若判断为并不是所有区块群都完成了处理(S618的“否”),则更新第一群组号g而设定新的区块群(S620),并针对新的区块群从步骤S602开始重复执行。另外,若所有区块群都完成了处理(S618的“是”),则结束该群组化/人候补判断处理S302。由此,能够高精度地提取应识别为人的第一人候补。
(人候补追踪处理S304)
参照图16,人候补追踪单元166设定完成登记的区块群(S650),并判断与所设定的区块群的前次的位置对应的、当前的图像中的位置以及其邻近处是否存在与区块群的前次的图像的辉度趋势相似的区块群(S652)。在此,若存在满足条件的区块群(S652的“是”),则为了继续追踪该区块群,将当前图像的区块群更新为前次图像(S654)。若不存在满足条件的区块群(S652的“否”),则由于成为追踪该区块群失败,因此消除正在追踪的区块群的登记(S656)。
接着,人候补追踪单元166判断是否对于完成登记的所有的多个区块群都执行了步骤S652~步骤S656的处理(S658)。在此,若判断为并不是完成登记的所有区块群都完成了处理(S658的“否”),则设定完成登记的新的区块群(S660),并针对新的区块群从步骤S652开始重复执行。另外,若所有区块群都完成了处理(S658的“是”),则将处理转移至步骤S662。
接着,人候补追踪单元166判断是否存在由人候补判断单元164判断为新的第一人候补的区块群(S662),若存在区块群(S662的“是”),则将该区块群作为追踪对象而进行新的登记(S664)。此时,作为在后阶段的反演测量处理S306中使用的变量,对区块群关联地设定反演次数N=“1”,反演标记=“1”,并设置该区块群专用的反演时间计时器并重置为0。在此,反演时间计时器是计算始于重置的时间点的时间的手段。然后,完成该人候补追踪处理S304。如此,对于即使仅一次被判断为人候补的区块群,不会受限于该区块群的移动,能够在其存在于图像中的期间内进行追踪。
(反演测量处理S306)
参照图17,反演测量单元168设定完成登记的区块群(S700),对于该区块群,判断是否由人候补判断单元164判断为第一人候补,且反演标记是否为0(S702)。这表示从没有判断为第一人候补的状态反演至判断为第一人候补的状态的事实。
当人候补判断单元164判断为第一人候补,且反演标记为0时(S702的“是”),反演测量单元168在反演次数N中加1而进行累加(S704),并从反演时间计时器读取时间(S706)。然后,反演测量单元168将从反演计时器读取的时间的倒数作为反演周期,并重置反演时间计时器(S708)。如此,以人候补判断单元164没有判断为第一人候补的状态反演至判断为第一人候补的状态的事实为开端,能够导出反演次数和反演周期。在此,基于一次的反演导出反演周期,但也可以基于多次的反演导出平均值。
接着,反演测量单元168将人候补判断单元164是否判断为第一人候补的结果反映到反演标记(S710)。具体来讲,当人候补判断单元164判断为第一人候补时,反演测量单元168将反演标记设定为“1”,当人候补判断单元164没有判断为第一人候补时,将反演标记设定为“0”。这种反演标记被利用为下一次的反演测量处理S306中的、是否判断为第一人候补的前次值。
接着,反演测量单元168判断是否对于完成登记的所有的多个区块群都执行了步骤S702~步骤S710的处理(S712)。在此,若判断为并不是完成登记的所有区块群都完成了处理(S712的“否”),设定完成登记的新的区块群(S714),并针对新的区块群从步骤S702开始重复执行。另外,当所有区块群都完成了处理时(S712的“是”),结束该反演测量处理S306。
(人候补确定处理S308)
参照图18,人候补确定单元170设定完成登记的区块群(S750),并针对该区块群判断反演次数是否包含于预定的次数范围(例如,4次以上)(S752)。若反演次数包含于次数范围(S752的“是”),则将形成区块群的所有区块(i,j,dp,x,y,z,g,f,gg)的人候补标记f的“1”置换为“2”(S754)。如此,能够将区块群确定为相比第一人候补人的可能性更高的第二人候补。
接着,人候补确定单元170判断反演周期是否包含于预定的周期范围(例如,0.5Hz以上)(S756)。若反演周期包含于周期范围(S756中的“是”),则判断为该区块群正在移动(S758),而若不包含于该周期范围(S756的“否”),则判断为区块群处于停止(S760)。
接着,人候补确定单元170判断是否对于完成登记的所有的多个区块群都执行了步骤S752~步骤S760的处理(S760)。在此,若判断为并不是对所有的区块群都完成了处理(S762的“否”),则设定完成登记的新的区块群(S764),并针对新的区块群从步骤S752开始重复执行。另外,若所有区块群都完成了处理(S762中的“是”),则结束该人候补确定处理S308。如此,能够在提取第二人候补的同时判断出区块群是否处于移动过程之中。
如上述说明,根据车外环境识别装置130以及车外环境识别方法,通过人的下部区域(下半身)直接确定人,从而能够谋求人的确定效率及确定精度的提高。
而且,还提供将计算机起到车外环境识别装置130的功能的程序和记录该程序的计算机可读的软盘、光磁盘、ROM、CD、DVD、BD等存储介质。在此,程序是指利用任意的语言或记述方法记述的数据处理手段。
(变形例)
在上述实施方式中,将相对的位置关系用作了用于由群组化单元162进行群组化的区块的第一相对关系。但是,第一相对关系不限于此,例如还可以使用辉度的差值或边缘方向的连续性。以下,关于辉度的差值和边缘方向的连续性简单地进行说明。
(辉度的差值)
群组化单元162可使用辉度图像124替代距离图像126,并基于辉度的差值群组化辉度图像124中的多个区块,由此能够生成作为部位群的区块群。例如,群组化单元162以任意的区块为基点,取出与该区块相邻的区块,并导出与两个区块之间的辉度的差值,且将辉度的差值处于预定范围(例如,各个RGB的差值为满量程(full scale)的1/10)内的区块假定为对应于同一对象物而进行群组化。
(边缘方向的连续性)
图19为用于说明边缘方向的连续性的说明图,其中,图19的(a)是对在夜间拍摄的辉度图像124中的人208的下半身的影像进行简化的图。假设放大图19的(a)中的任意的区块240a时,形成如图19的(b)所示的辉度分布,放大其他任意的区块240b时,形成如图19的(c)所示的辉度分布。而且,辉度的范围设定为0~255,图19的(b)中,假设涂满白色的辉度为“200”、涂满黑色的辉度为“0”。在此,假设区块的图中左上侧像素的辉度为A、右上侧像素的辉度为B、左下侧像素的辉度为C、右下侧像素的辉度为D,并将边缘方向的水平方向分量定义为(A+B)-(C+D)、将边缘方向的垂直方向分量定义为(A+C)-(B+D)。
由此,图19的(b)所示的区块240a的边缘方向的水平分量为(A+B)-(C+D)=(200+0)-(200+0)=0,边缘方向的垂直方向分量为(A+C)-(B+D)=(200+200)-(0+0)=+400。因此,由于水平方向分量为“0”,垂直方向分量为“+400”,因此边缘方向可表示为如图19的(d)所示的指向垂直方向的箭头。但是,如图19的(f)所示,水平分量以画面右侧方向为正方向,垂直分量以画面上侧方向为正方向。
同样,如图19的(c)所示的区块群240b的边缘方向的水平方向分量为(A+B)-(C+D)=(0+0)-(200+200)=-400,边缘方向垂直方向分量为(A+C)-(B+D)=(0+200)-(0+200)=0。因此,由于水平方向分量为“-400”,垂直方向分量为“0”,因此边缘方向可表示为如图19的(e)所示的指向水平左侧方向的箭头。
如此,通过以区块内的一半的区域减去另一半区域的构成,能够去除整个区块内包含的辉度的偏移量或噪点,能够恰当地提取边缘。而且,仅通过加减的简单计算就能够导出边缘方向,因此处理负荷较小。
关于边缘方向的连续性,目的在于判断如此导出的边缘方向相邻的区块的同一性,并使这些区块产生关联。因此,在该变形例中,通过水平方向分量以及垂直方向分量中的任意一个均以单位长度进行定义,以简化边缘延伸方向的变化。即,水平方向分量以及垂直方向分量中的任意一个视为-1、0、+1中的任意一个。如此,可将边缘方向限定为如图19的(g)所示的分别形成45度角的八个方向和水平方向分量及垂直方向分量中的任意一个分量变成0的无方向的九个状态。据此,能够大幅度减小群组化单元162的计算负荷。
该变形例中,群组化单元162对显示有人的下半身的图像的每个区块导出边缘方向,并使边缘方向相等的相邻的区块产生关联,生成连续的边缘轨迹。如此,能够与相对的位置关系或辉度的差值相同地确定人的下半身的形状。
以上,虽然参照附图对本发明的优选实施方式进行了说明,但显然本发明并不局限于这些实施方式。对于本领域技术人员来说,在权利要求书中记载的范畴之内,显然能够得到各种变更例或修改例,但这些也都属于本发明的技术范围之内。
例如,在上述的实施方式中,将分割为两个部分的各个区块群的中心线和垂直线所形成的角度(中心线角)用作了用于判断第一人候补的第二相对关系,但不限于此,也可以使用从形状、面积、对称性、辉度的群选择的一个或者多个关系。例如,依据形状的类似性、面积的差值在所定范围之内、相对于水平方向的对称性高、辉度的分配或总量的差值处于所定范围之内等判断第一人候补。
而且,在上述的实施方式中,基于使用多个摄像装置110的图像数据之间的视差导出对象物的三维位置,但并不局限于此,例如可以使用激光雷达测距装置等已知的各种距离测量装置。在此,激光雷达测距装置通过向检测区域122发射激光光束,并接收该激光光束到达物体之后反射的光,从而根据所需时间测量至物体的距离。
而且,在上述的实施方式中,以位置信息获取单元160从图像处理装置120接收距离图像(视差信息)126而生成三维位置信息为例。但是,不限于此,也可以由图像处理装置120预先生成三维位置信息,并由位置信息获取单元160获得所产生的三维位置信息。如此,通过谋求功能的分散,能够减轻车外环境识别装置130的处理负荷。
而且,在上述的实施方式中构成为,位置信息获取单元160、群组化单元162、人候补判断单元164、人候补追踪单元166、反演测量单元168、人候补确定单元170由中央控制器156通过软件进行操作。但是,上述的功能单元也可以由硬件构成。
在此,本说明书中的车外环境识别方法的各个步骤并不一定要按照流程图中记载的顺序按时间顺序进行处理,也可以包含并行处理或依据子流程的处理。
产业上的可利用性
本发明可利用于用于识别本车辆外部的环境的车外环境识别装置以及车外环境识别方法。

Claims (10)

1.一种车外环境识别装置,其特征在于,包括:
图像获取单元,获取检测区域内的图像;
群组化单元,在所获取的所述图像中,对于自相当于道路表面的平面至预定高度的区域内的多个部位,基于部位之间的第一相对关系进行群组化,以生成部位群;
人候补判断单元,相对于所述图像的水平方向将所述部位群分割为两个部分,基于被分割为两个部分的部位群之间的第二相对关系,判断该部位群是否为作为人的候补的第一人候补。
2.根据权利要求1所述的车外环境识别装置,其特征在于,所述第一相对关系为相对的位置关系、辉度的差值、或者边缘方向的连续性中的任一个。
3.根据权利要求1或2所述的车外环境识别装置,其特征在于,所述第二相对关系为从形状、面积、对称性、辉度的群中选择的一个或者多个。
4.根据权利要求1或2所述的车外环境识别装置,其特征在于,所述第二相对关系为,作为由所述被分割为两个部分的各个部位群的中心线和垂直线形成的角度的各个中心线角是否包含于预定的第一角度范围。
5.根据权利要求1或2所述的车外环境识别装置,其特征在于,所述群组化单元相对于高度方向进一步将所述图像中的自相当于道路表面的平面至预定高度的区域分割为多个区域,对于被分割的每个区域,将多个部位进行群组化,
所述人候补判断单元除了被分割为两个部分的部位群之间的第二相对关系之外,当被群组化的高度方向上相邻的部位群的中心线之间所形成的角度差包含于预定的第二角度范围时,判断为第一人候补。
6.根据权利要求5所述的车外环境识别装置,其特征在于,当所述高度方向的任意的区域之间所形成的角度差没有包含于第二角度范围时,所述人候补判断单元对于剩余的区域不执行第一人候补的判断。
7.根据权利要求5所述的车外环境识别装置,其特征在于,所述人候补判断单元根据车辆和所述部位群的距离变更所述第一角度范围。
8.根据权利要求1或2所述的车外环境识别装置,其特征在于,还包括:
人候补追踪单元,追踪由所述人候补判断单元判断为第一人候补的部位群;
反演测量单元,对于由所述人候补追踪单元追踪的部位群,测量所述人候补判断单元判断为第一人候补时和没有判断为第一人候补时的反演次数;
人候补确定单元,若所述反演次数包含于预定的次数范围,则将所述第一人候补确定为第二人候补。
9.根据权利要求1或2所述的车外环境识别装置,其特征在于,还包括:
人候补追踪单元,追踪由所述人候补判断单元判断为第一人候补的部位群,
反演测量单元,对于由所述人候补追踪单元追踪的部位群,测量所述人候补判断单元判断为第一人候补时和没有判断为第一人候补时的反演周期;
人候补确定单元,若所述反演周期包含于预定的周期范围,则判断为第一人候补处于移动之中。
10.一种车外环境识别方法,其特征在于,包括如下步骤:
获取检测区域内的图像;
在所获取的所述图像中,将自相当于道路表面的平面至预定高度的区域内的多个部位基于部位之间的第一相对关系进行群组化,以生成部位群;
相对于所述图像的水平方向将所述部位群分割为两个部分,基于被分割为两个部分的部位群之间的第二相对关系,判断部位群是否为作为人的候补的第一人候补。
CN201210475099.1A 2011-11-24 2012-11-21 车外环境识别装置及车外环境识别方法 Active CN103136509B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-256427 2011-11-24
JP2011256427A JP5548667B2 (ja) 2011-11-24 2011-11-24 車外環境認識装置

Publications (2)

Publication Number Publication Date
CN103136509A true CN103136509A (zh) 2013-06-05
CN103136509B CN103136509B (zh) 2016-04-06

Family

ID=48288078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210475099.1A Active CN103136509B (zh) 2011-11-24 2012-11-21 车外环境识别装置及车外环境识别方法

Country Status (4)

Country Link
US (1) US9117115B2 (zh)
JP (1) JP5548667B2 (zh)
CN (1) CN103136509B (zh)
DE (1) DE102012111332A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952478A (zh) * 2017-05-11 2017-07-14 南宁市正祥科技有限公司 一种基于对称性的车辆检测方法
CN109478233A (zh) * 2017-07-07 2019-03-15 丰田汽车欧洲股份有限公司 识别图像序列中的遮挡的原因的方法、执行所述方法的计算机程序,包含这种计算机程序的计算机可读记录介质、能够执行所述方法的驾驶辅助***
CN109849788A (zh) * 2018-12-29 2019-06-07 北京七鑫易维信息技术有限公司 信息提供方法、装置及***
CN113228130A (zh) * 2018-12-18 2021-08-06 日立安斯泰莫株式会社 图像处理装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6382525B2 (ja) * 2014-02-10 2018-08-29 株式会社デンソー 物体識別方法、および物体識別装置
JP6273156B2 (ja) * 2014-02-20 2018-01-31 株式会社Subaru 歩行者認識装置
JP6120011B2 (ja) * 2014-08-29 2017-04-26 マツダ株式会社 車両用歩行者検出装置
CN106548127B (zh) * 2015-09-18 2022-11-04 松下电器(美国)知识产权公司 图像识别方法
JP2018101212A (ja) * 2016-12-19 2018-06-28 矢崎総業株式会社 車載器および顔正面度算出方法
JP6690612B2 (ja) * 2017-08-03 2020-04-28 トヨタ自動車株式会社 車外報知装置
JP6653300B2 (ja) * 2017-09-15 2020-02-26 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN109523555A (zh) 2017-09-18 2019-03-26 百度在线网络技术(北京)有限公司 用于无人驾驶车辆的前车刹车行为检测方法和装置
US11518384B2 (en) * 2018-12-07 2022-12-06 Thinkware Corporation Method for displaying lane information and apparatus for executing the method
JP7298426B2 (ja) * 2019-10-04 2023-06-27 株式会社豊田自動織機 物体検出装置
KR102546661B1 (ko) * 2022-11-09 2023-06-22 김병준 엣지 ai 기술 기반의 객체 식별 및 사전 경보를 제공하는 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090041302A1 (en) * 2007-08-07 2009-02-12 Honda Motor Co., Ltd. Object type determination apparatus, vehicle, object type determination method, and program for determining object type
CN101633356A (zh) * 2008-07-25 2010-01-27 通用汽车环球科技运作公司 检测行人的***及方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0750825A (ja) * 1993-05-24 1995-02-21 Hideo Mori 人間動物監視システム
JP3349060B2 (ja) 1997-04-04 2002-11-20 富士重工業株式会社 車外監視装置
JP3815689B2 (ja) * 2003-11-20 2006-08-30 松下電器産業株式会社 移動物体検出装置及び移動物体検出方法
JP3934119B2 (ja) * 2004-06-14 2007-06-20 本田技研工業株式会社 車両周辺監視装置
GB2443664A (en) * 2006-11-10 2008-05-14 Autoliv Dev An infra red object detection system de-emphasizing non relevant hot objects
WO2008065717A1 (fr) * 2006-11-29 2008-06-05 Fujitsu Limited Système et procédé de détection de piéton
JP4962304B2 (ja) 2007-12-26 2012-06-27 株式会社豊田中央研究所 歩行者検出装置
JP4410292B1 (ja) * 2008-10-20 2010-02-03 本田技研工業株式会社 車両の周辺監視装置
JP5339969B2 (ja) * 2009-03-04 2013-11-13 本田技研工業株式会社 車両の周辺監視装置
US8994823B2 (en) * 2011-07-05 2015-03-31 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and storage medium storing object detection program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090041302A1 (en) * 2007-08-07 2009-02-12 Honda Motor Co., Ltd. Object type determination apparatus, vehicle, object type determination method, and program for determining object type
CN101633356A (zh) * 2008-07-25 2010-01-27 通用汽车环球科技运作公司 检测行人的***及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BROGGI等: "Pedestrian Detection on a Moving Vehicle: an Investigation about Near Infra-Red Images", 《INTELLIGENT VEHICLES SYMPOSIUM IEEE》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952478A (zh) * 2017-05-11 2017-07-14 南宁市正祥科技有限公司 一种基于对称性的车辆检测方法
CN109478233A (zh) * 2017-07-07 2019-03-15 丰田汽车欧洲股份有限公司 识别图像序列中的遮挡的原因的方法、执行所述方法的计算机程序,包含这种计算机程序的计算机可读记录介质、能够执行所述方法的驾驶辅助***
CN109478233B (zh) * 2017-07-07 2023-08-08 丰田汽车欧洲股份有限公司 识别图像序列中的遮挡的原因的方法、计算机可读记录介质、驾驶辅助***
CN113228130A (zh) * 2018-12-18 2021-08-06 日立安斯泰莫株式会社 图像处理装置
CN113228130B (zh) * 2018-12-18 2023-01-17 日立安斯泰莫株式会社 图像处理装置
CN109849788A (zh) * 2018-12-29 2019-06-07 北京七鑫易维信息技术有限公司 信息提供方法、装置及***

Also Published As

Publication number Publication date
DE102012111332A1 (de) 2013-05-29
JP5548667B2 (ja) 2014-07-16
US20130177205A1 (en) 2013-07-11
US9117115B2 (en) 2015-08-25
JP2013109720A (ja) 2013-06-06
CN103136509B (zh) 2016-04-06

Similar Documents

Publication Publication Date Title
CN103136509B (zh) 车外环境识别装置及车外环境识别方法
CN103121423B (zh) 车外环境识别装置及车外环境识别方法
JP6550881B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP6519262B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US20120288156A1 (en) Environment recognition device and environment recognition method
US20170372160A1 (en) Environment recognition device and environment recognition method
US9099005B2 (en) Environment recognition device and environment recognition method
JP5531474B2 (ja) 地図生成装置、走路推定装置、移動可能領域推定装置、及びプログラム
CN102975678B (zh) 环境识别装置及环境识别方法
JP4205825B2 (ja) 対象物認識装置
CN102789698B (zh) 环境识别装置以及环境识别方法
US20120269391A1 (en) Environment recognition device and environment recognition method
JP6150164B2 (ja) 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
JP2014006588A (ja) 路面境界推定装置及びプログラム
US20120288149A1 (en) Environment recognition device and environment recognition method
JP2008304344A (ja) 物標検出装置
JP4946175B2 (ja) 走路境界検出装置および走路境界検出方法
CN102842030A (zh) 环境识别装置及环境识别方法
JP2013109457A (ja) 車外環境認識装置および車外環境認識方法
CN102842038A (zh) 环境识别装置及环境识别方法
JPWO2017145634A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP4956099B2 (ja) 壁検出装置
JP2013171489A (ja) 車外環境認識装置および車外環境認識方法
JP4580005B2 (ja) 対象物認識装置
JP4571204B2 (ja) 対象物認識装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: Tokyo, Japan

Patentee after: Subaru Co.

Address before: Tokyo, Japan

Patentee before: Fuji Heavy Industries, Ltd.