CN104184938B - 图像处理装置、图像处理方法和程序 - Google Patents
图像处理装置、图像处理方法和程序 Download PDFInfo
- Publication number
- CN104184938B CN104184938B CN201410210313.XA CN201410210313A CN104184938B CN 104184938 B CN104184938 B CN 104184938B CN 201410210313 A CN201410210313 A CN 201410210313A CN 104184938 B CN104184938 B CN 104184938B
- Authority
- CN
- China
- Prior art keywords
- detection
- protective barrier
- image
- region
- barrier region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
Abstract
本发明公开了图像处理装置、图像处理方法和程序。其中,该图像处理装置包括:检测单元,检测包含在图像中的物体;以及确定单元,当检测物体和保护屏障区域在图像中相互重叠时,基于与检测物体和保护屏障区域的至少一个有关的特征量来确定图像的深度方向上的检测物体与保护屏障区域之间的位置关系。
Description
相关申请的交叉引用
本申请要求2013年5月24日提交的日本在先专利申请JP2013-110264的权益,其全部内容通过引用并入本文。
技术领域
本技术涉及一种图像处理装置。具体地,本技术涉及处理图像的图像处理装置、图像处理方法和使计算机执行所述方法的程序。
背景技术
在现有技术中,例如对诸如人的摄影主题成像并生成图像(图像数据)的成像装置的图像处理装置已经变得普遍。另外,已经提出了检测包含在以这种方式生成的图像中的诸如人等的物体或移动物体的识别摄影主题的技术。
已经提出了利用其中(例如)使用诸如亮度或颜色的特征量的图像处理来检测包含在图像中的人的脸的一种图像处理装置(例如,参阅日本未经审查的专利申请公开No.2008-131405)。
发明内容
根据上述现有技术,可以检测包含在图像中的诸如人的物体或移动物体。
这里,假设以下一种情况,其中作为检测目标的物体和另一个物体存在于用于对摄影主题成像的装置(例如,成像装置)的待成像的范围中。例如,假设以下一种情况,其中存在设置在圆周状的入侵禁止区域的边界处的护栏(另一个物体)和存在于入侵禁止区域的附近的人(作为检测目标的物体)。在这种情况下,例如,可以检测存在于入侵禁止区域的附近的人,然而,假设难于精确地确定人是否已经侵入该入侵禁止区域中。因此,当可以确定图像的深度方向上的护栏与人之间的位置关系时,例如,认为可以精确地确定人是否已经侵入所述入侵禁止区域中。
人们期望提高物体的检测精度。
根据本技术的实施方式,提供了一种图像处理装置,包括:检测单元,其检测包含在图像中的物体;以及确定单元,当检测物体和保护屏障区域在图像中相互重叠时,其基于与检测物体和保护屏障区域的至少一个有关的特征量来确定图像的深度方向上的检测物体与保护屏障区域之间的位置关系,以及其图像处理方法和使所述方法被计算机执行的程序。以这种方式,当检测图像和保护屏障区域在图像中相互重叠时,可以基于与检测物体和保护屏障区域的至少一个有关的特征量来确定图像的深度方向上的检测图像与保护屏障区域之间的位置关系。
在图像处理装置中,所述确定单元对于图像中的检测物体和保护屏障区域的重叠区域,可以将图像中的检测物体的包含在重叠区域中的特征量与存储在存储单元中的保护屏障区域中的包含在重叠区域中的特征量进行相互比较,并可以基于比较结果来确定位置关系。以这种方式,对于图像中的检测物体和保护屏障区域的重叠区域,可以将检测物体的包含在重叠区域中的特征量和存储在存储单元中的保护屏障区域中的包含在重叠区域中的特征量进行相互比较,并可以基于比较结果来确定位置关系。
在图像处理装置中,所述确定单元可以将检测物体的包含在重叠区域中的像素和保护屏障区域中的包含在重叠区域中的像素进行相互比较,并可以基于重叠区域中的像素的相似度来确定位置关系。以这种方式,可以将检测物体的包含在重叠区域中的像素和保护屏障区域中的包含在重叠区域中的像素进行相互比较,并可以基于重叠区域中的像素的相似度来确定位置关系。
在图像处理装置中,所述保护屏障区域是作为设置在注册在所述图像中的注册区域的边界处或边界的附近的物体的保护屏障的区域,并阻挡所述检测物体,并阻挡检测物体,并且所述确定单元在检测物体和注册区域在图像中相互重叠,并且检测物体和保护屏障区域在图像中相互重叠时可以确定位置关系,并可以基于确定结果来确定检测物体是否已经侵入注册区域中。以这种方式,当图像中的检测物体和注册区域相互重叠,并且检测物体和保护屏障区域在图像中相互重叠时,可以通过确定其位置关系基于确定结果来确定检测物体是否已经侵入注册区域中。
在图像处理装置中,所述检测单元可以检测包含在图像中的移动物体,并且所述确定单元可以确定是否存在与所检测的移动物体有关的遮挡。以这种方式,可以确定是否存在与所检测的移动物体有关的遮挡。
在图像处理装置中,所述确定单元可以基于通过比较与所检测的移动物体有关的尺寸信息和与在图像中的移动物体之前立即检测的移动物体有关的尺寸信息而产生的比较结果来确定是否存在遮挡。以这种方式,通过比较与所检测的移动物体有关的尺寸信息和与在图像中的移动物体之前立即检测的移动物体有关的尺寸信息,可以基于比较结果来确定是否存在遮挡。
在图像处理装置中,当确定存在遮挡时,所述确定单元可以确定接近所述保护屏障区域的两侧的多个移动物体是一个移动物体。以这种方式,当确定存在遮挡时,可以确定接近所述保护屏障区域的两侧的多个移动物体是一个移动物体。
根据本技术,可以获得提高物体的检测精度的良好效果。
附图说明
图1是示出了根据本技术的实施方式的图像处理装置的功能配置实例的框图。
图2A和图2B是示出了由根据本技术的实施方式的图像处理装置在每个处理中使用的背景图像、注册区域和保护屏障区域的实例的示意图。
图3A和图3B是示出了由根据本技术的实施方式的图像获取单元获取的图像中的注册区域与物体之间的关系的实例的示意图。
图4A和图4B是示出了存储在根据本技术的实施方式的存储单元中的注册区域信息与注册区域之间的关系的实例的示意图。
图5A和图5B是示出了存储在根据本技术的实施方式的存储单元中的保护屏障区域信息与保护屏障区域之间的关系的实例的示意图。
图6A和图6B是示出了由根据本技术的实施方式的检测单元进行的物体检测处理的检测结果的示意图。
图7是示出了由根据本技术的实施方式的图像处理装置进行的物体的入侵确定处理的处理流程的实例的流程图。
图8是示出了由根据本技术的实施方式的图像处理装置进行的物体的入侵确定处理中的物体检测处理的实例的流程图。
图9A和图9B是示出了根据本技术的第二实施方式的存储在存储单元中的保护屏障区域信息与保护屏障区域之间的关系的实例的示意图。
图10A和图10B是示出了根据本技术的第二实施方式的由检测单元进行的移动物体检测处理的检测结果的示意图。
图11A和图11B是示出了根据本技术的第二实施方式的由检测单元进行的移动物体检测处理的检测结果的示意图。
图12是示出了根据本技术的第二实施方式的由确定单元补正的移动物体检测信息的补正实例的示意图。
图13是示出了根据本技术的第二实施方式的由图像处理装置进行的遮挡确定处理的处理流程的实例的流程图。
图14是示出了根据本技术的第三实施方式的图像处理***的配置实例的示意图。
图15是示出了根据本技术的第三实施方式的图像处理***的配置实例的示意图。
具体实施方式
在下文中,将描述用于执行本技术的实施方式。将按下列顺序做出描述。
1、第一实施方式(使用保护屏障区域信息执行物体的入侵确定处理的实例)
2、第二实施方式(使用保护屏障区域信息执行遮挡确定处理的实例)
3、第三实施方式(由多个装置配置成的图像处理***的实例)
4、变形例
1、第一实施方式
图像处理装置的配置实例
图1是示出了根据本技术的第一实施方式的图像处理装置100的功能配置实例的框图。
图像处理装置100包括存储单元110、设置单元120、图像获取单元130、检测单元140、确定单元150和输出单元160。图像处理装置100例如通过用于监测注册区域(例如,入侵禁止区域)中的入侵者的成像装置(例如,监控摄像机)或物体检测设备来执行。另外,根据本技术的第一实施方式,将作为实例描述其中作为检测目标的成像范围(例如,固定成像单元的图像处理装置将成像范围成像为检测目标)为固定的图像处理装置。
存储单元110存储与背景图像有关的信息(背景图像信息)、与注册区域有关的信息(注册区域信息)和与保护屏障区域有关的信息(保护屏障区域信息)。另外,存储单元110将所存储的背景图像信息供应至检测单元140,并将所存储的注册区域信息和保护屏障区域信息供应至确定单元150。
这里,背景图像是对应于为监测目标的成像范围的图像,并指的是其中不存在入侵物体(例如,入侵者)的图像。背景图像例如是在图2A中示出的背景图像200。另外,背景图像将参照图2A详细描述。
另外,注册区域是由设置单元120设置的区域(注册区域(例如,入侵禁止区域))。注册区域例如是在图2B中示出的注册区域211。另外,注册区域将参照图2B详细描述。另外,注册区域信息将参照图4A和图4B详细描述。
另外,保护屏障区域是对应于可以由注册区域中或注册区域附近的入侵物体(保护屏障区域)遮挡的物体(保护屏障)的区域。保护屏障是设置在入侵禁止区域的边界处或边界的附近的护栏(例如,在图2A中所示的护栏202)。另外,保护屏障区域例如是在图2B中所示的保护屏障区域212。另外,保护屏障区域由设置单元120设置。另外,保护屏障区域将参照图2B详细描述。另外,保护屏障区域信息将参照图5A和图5B详细描述。
设置单元120分别设置注册区域和保护屏障区域。例如,设置单元120可以将用户通过手动操作在背景图像中指定的区域设置为注册区域。另外,例如,设置单元120可以将用户使用手动操作在所设置的注册区域中,或在注册区域的附近指定的区域设置为保护屏障区域。另外,与所设置的注册区域有关的注册区域信息和与所设置的保护屏障区域有关的保护屏障区域信息通过相互关联而分别存储在存储单元110中。
图像获取单元130获取在每个处理(物体检测处理、物体的入侵确定处理)中使用的图像(图像数据),并将所获取的图像输出至检测单元140和确定单元150。例如,图像获取单元130通过对摄影主题成像来生成图像的成像单元执行。成像单元例如由光学***(多个透镜)、成像元件和信号处理单元配置而成。另外,例如,图像获取单元130可以获取由另一个成像装置生成的图像。另外,根据本技术的实施方式,当利用“图像”描述时,其指的是图像本身和用于显示图像的图像数据这两者。
检测单元140基于存储在存储单元110中的背景图像信息来检测包含在从图像获取单元130输出的图像中的物体。另外,检测单元140将与检测物体有关的物体检测信息(检测结果)输出至确定单元150。例如,检测单元140可以使用背景差分法来检测物体。这里,背景差分法是以下一种物体检测方法,其中事先存储的背景图像(标准图案(pattern))和输入图像相互比较,并基于比较结果来确定具有密度差的部分存在一些变化。另外,可以使用诸如帧间差分法的另外物体检测方法来检测物体。这里,帧间差分法是一种移动物体检测方法,其中计算当前输入图像与先前输入图像之间的差,并且具有较大差值的区域被检测为移动物体。
确定单元150确定由检测单元140检测的物体是否已经侵入注册区域(例如,入侵禁止区域)中,并将其确定结果输出至输出单元160。例如,确定单元150基于存储在存储单元110中的注册区域信息和保护屏障区域信息,以及从检测单元140输出的物体检测信息来确定由检测单元140检测的物体是否已经侵入注册区域(例如,入侵禁止区域)中。
例如,当从图像获取单元130输出的图像中的所检测的物体和保护屏障区域相互重叠时,确定单元150确定图像的深度方向上的检测物体与保护屏障区域之间的位置关系。例如,确定单元150基于与检测物体和保护屏障区域的至少一个有关的特征量来确定位置关系。在这种情况下,确定单元150对于检测物体和保护屏障区域的重叠区域,对检测物体的包含在重叠区域中的特征量和存储在存储单元110中的保护屏障区域信息中的包含在重叠区域中的特征量进行相互比较。另外,确定单元150基于比较结果来确定其位置关系。例如,确定单元150将检测物体的包含在重叠区域中的像素和保护屏障区域中的包含在重叠区域中的像素进行相互比较,并基于重叠区域中的像素的相似度来确定其位置关系。
另外,例如,当在图像中检测到的物体和注册区域相互重叠,并且检测物体和保护屏障区域相互重叠时,确定单元150确定其位置关系,并基于其确定结果来确定检测物体是否已经侵入注册区域中。
例如,检测单元140和确定单元150的实现通过对于图像执行预定信号处理的信号处理单元来执行。
输出单元160输出从确定单元150输出的确定结果。输出单元160通过显示每个图像的显示单元,或输出每个声音信息的声音输出单元来实现。另外,仅当确定由检测单元140检测到的物体已经侵入注册区域(例如,入侵禁止区域)中时,输出单元160才可以输出其确定结果作为入侵警告。
另外,检测单元140和确定单元150可以对于从图像获取单元130输出的所有图像(整个帧)执行检测处理和确定处理,并且可以按每个预定间隔(例如,在每分钟之后)执行检测处理和确定处理。
背景图像、注册区域和保护屏障区域的实例
图2A和图2B是示出了根据本技术的第一实施方式的在每个处理中由图像处理装置100使用的背景图像、注册区域和保护屏障区域的实例的示意图。
图2A示出了背景图像200。如上所示,背景图像200是对应于变为图像处理装置100的监测目标的成像范围的图像,和其中不存在入侵物体(例如,入侵者)的图像。在图2A中,示出了利用图像处理装置100将恐龙201的重建模型及其***被设置为监测目标的实例。另外,在作为监测目标的成像图像中,恐龙201的重建模型和***(护栏202的内侧)被设为入侵禁止区域,并且护栏202被设置使得除工作人员之外的人无法侵入入侵禁止区域中。
图2B示出了注册区域211和保护屏障区域212。另外,在图2B中,注册区域211和保护屏障区域212在背景图像210上示出。另外,在图2B中,注册区域211是有色的,并且保护屏障区域212使用斜线来表示。
另外,在图2B中,示出了一个实例,其中保护屏障区域212包含在注册区域211中,然而,注册区域和保护屏障区域可以被设置为不同区域。
注册区域与物体之间的关系的实例
图3A和图3B是示出了根据本技术的第一实施方式的由图像获取单元130获取的图像中的注册区域与物体之间的关系的实例的示意图。
图3A示出了当人221已经侵入入侵禁止区域中时(当人221出现于护栏202内侧时)的图像220。以这种方式,当人221已经侵入入侵禁止区域中时(当人221出现于护栏202内侧时),人221和注册区域211(图2B中所示)在图像220中相互重叠。出于这个原因,可以基于人221和注册区域211是否相互重叠来确定人221侵入入侵禁止区域中。
图3B示出了在人221存在于入侵禁止区域范围外的情况下(在人221存在于护栏202外侧的情况下)的图像225。以这种方式,即使当人221存在于入侵禁止区域范围外时(在人221存在于护栏202外侧的情况下),存在人221和注册区域211在图像225中相互重叠(图2B中所示)的情况。例如,假设人221的脚和注册区域211相互重叠的情况。出于这个原因,存在可以基于人221和注册区域211是否相互重叠来做出人221已经侵入入侵禁止区域中的错误确定的担忧。
因此,根据本技术的第一实施方式,物体的入侵确定处理使用保护屏障区域信息来执行。以这种方式,可以通过避免对于侵入入侵禁止区域的错误确定来提高物体的检测精度。
注册区域与注册区域信息之间的关系的实例
图4A和图4B是示出了根据本技术的第一实施方式的存储在存储单元110中的注册区域信息与注册区域之间的关系的实例的示意图。
图4A示出了在背景图像上的注册区域211。另外,注册区域211与图2B中的注册区域211相同。
图4B示出了对应于在图4A中所示的注册区域211的注册区域信息230。这里,注册区域信息230是用于指定注册区域211的信息。另外,图4B举例说明了其中利用特征量(例如,1)指定注册区域211的注册区域信息230。另外,在图4B中,为了便于描述,使用120个矩形(8x15)来示意性地示出对应于背景图像的坐标(例如,图4B中的左上角被设置为原点的XY坐标)。另外,在每个矩形中,“1”表示注册区域211,除注册区域211之外的区域通过附接“0”来示出。
保护屏障区域与保护屏障区域信息之间的关系的实例
图5A和图5B是示出了根据本技术的第一实施方式的存储在存储单元110中的保护屏障区域信息与保护屏障区域之间的关系的实例的示意图。
在图5A中,示出了背景图像上的保护屏障区域212。另外,保护屏障区域212与图2B中的保护屏障区域212相同。
在图5B中,示出了对应于在图5A中示出的保护屏障区域212的保护屏障区域信息240。这里,保护屏障区域信息240是用于指定保护屏障区域212的信息。另外,在图5B中,类似于图4B,使用特征量(例如,对应于保护屏障区域212中的每组坐标的像素的亮度值)指定保护屏障区域212的保护屏障区域信息240被示为实例。另外,在图5B中,为了便于描述,与图4B中的类似,使用120个矩形(8x15)来示意性地示出对应于背景图像的坐标。另外,在每个矩形中,“1”附接至保护屏障区域212,除保护屏障区域之外的区域通过附接“0”来示出。
另外,在图4B中示出的注册区域信息230和在图5B中示出的保护屏障区域信息240通过相互关联而存储在存储单元110中。
以这种方式,根据本技术的第一实施方式,示出了存储在存储单元110中的使用特征量指定注册区域和保护屏障区域的注册区域信息和保护屏障区域信息的实例。然而,使用图像信息指定注册区域和保护屏障区域的注册区域信息和保护屏障区域信息可以存储在存储单元110中。
物体的检测实例
图6A和图6B是示出了根据本技术的第一实施方式的使用检测单元140进行的物体检测处理的检测结果的示意图。
在图6A中,示出了由图像获取单元130获取的图像250。另外,假设人251包含在图像250中。出于这个原因,检测单元140从图像250中检测人251。
在图6B中,示出了对应于在图6A中的图像250中检测到的人251的物体检测信息260。这里,物体检测信息是用于指定对应于由检测单元140检测的物体的区域的信息。另外,在图6B中,与在图4B中类似,使用特征量指定对应于在图像250中检测的人251的区域的物体检测信息260被示为实例。另外,为了便于描述,在图6B中,与图4B中的类似,使用120个矩形(8x15)来示意性地示出对应于背景图像的坐标。另外,在每个矩形中,“1”表示对应于人251的区域,除人251之外的区域通过附接“0”来示出。
确定物体的入侵的实例
如图6A和图6B所示,当人251在图像250中检测到时,检测单元140将与所检测的人251有关的物体检测信息260输出至确定单元150。接着,确定单元150基于存储在存储单元110中的注册区域信息230(图4B中所示)和物体检测信息260来确定所检测的人251和注册区域211(图4A中所示)是否相互重叠。
在图6A中所示的实例中,所检测的人251和注册区域211(图4A中所示)相互重叠。在这种情况下,确定单元150基于存储在存储单元110中的保护屏障区域信息240(图5B中所示)和物体检测信息260来确定所检测的人251和保护屏障区域212(图5A中所示)是否相互重叠。
在图6A中所示的实例中,所检测的人251和保护屏障区域212(图5A中所示)相互重叠。在这种情况下,确定单元150对于其重叠区域(例如,对应于由图6B中所示的粗矩形261包围的坐标的区域)将图像250中的特征量和保护屏障区域信息240(图5B中所示)的特征量进行相互比较。接着,确定单元150基于其比较结果来计算重叠区域中的特征量的差值。例如,当亮度被用作特征量时,确定单元150相对于重叠区域计算在每个像素中图像250中的亮度值与保护屏障区域信息240中的亮度值之间的差值。另外,确定单元150将每个像素中计算的差值的绝对值相加,并计算配置重叠区域的每个像素的差值的绝对值的总值。
这里,当其总值等于或小于阈值时,假设图像250中的重叠区域和保护屏障区域中的重叠区域大致是相同的图像。在这种情况下,通过以成像图像250的装置(例如,图像处理装置100)的位置作为参考,假设检测物体存在于远离对应于保护屏障区域的保护屏障的区域中(存在于远侧中)。即,假设检测物体尚未侵入注册区域中。
另一方面,当总值超过阈值时,假设图像250中的重叠区域和保护屏障区域中的重叠区域是不同的图像。在这种情况下,通过以成像图像250的装置(例如,图像处理装置100)的位置作为参考,假设检测物体存在于比对应于保护屏障区域的保护屏障更靠近的区域中(存在于近侧中)。即,假设检测物体已经侵入注册区域中。
因此,确定单元150确定总值是否等于或小于阈值。另外,当总值等于或小于阈值时,确定单元150确定检测物体尚未侵入注册区域中。另一方面,当总值超过阈值时,确定单元150确定检测物体已经侵入注册区域中。
以这种方式,当在由图像获取单元130获取的图像中检测到物体与注册区域重叠时,例如,可以精确地确定物体是否已经侵入入侵禁止区域中。
随后,确定单元150将其确定结果输出至输出单元160。另外,输出单元160输出来自确定单元150的确定结果。例如,输出单元160使用显示单元上的显示,或从声音输出单元输出的声音来输出确定结果。例如,输出单元160可以通过使显示单元上的屏幕为红色,并执行闪烁显示来输出确定结果。另外,输出可以通过使用特定颜色(例如,红色)给已经侵入入侵禁止区域中的物体的区域染上颜色来显示。另外,例如,输出单元160可以通过执行表示异常发生的声音输出来输出确定结果。
例如,在图6A中所示的实例中,通过以成像图像250的装置(例如,图像处理装置100)的位置作为参考,所检测的人251存在于远离对应于保护屏障区域212(图5A中所示)的保护屏障(护栏202)的区域中(存在于远侧中)。出于这个原因,图像250中的重叠区域和保护屏障区域信息240(图5B中所示)中的重叠区域变为大致相同的图像。在这种情况下,与图像250中的重叠区域和保护屏障区域信息240中的重叠区域有关的差值的绝对值的总值变得等于或小于阈值。出于这个原因,确定单元150确定所检测的人215尚未侵入注册区域中。
另外,当检测物体和注册区域不相互重叠时,假设检测物体尚未侵入注册区域中。出于这个原因,当检测物体和注册区域不相互重叠时,确定单元150确定检测物体尚未侵入注册区域中。
另外,当检测物体和注册区域相互重叠,并且检测物体和保护屏障区域不相互重叠时,假设检测物体已经完全侵入注册区域中。出于这个原因,当检测物体和注册区域相互重叠,并且检测物体和保护屏障区域不相互重叠时,确定单元150确定检测物体已经侵入注册区域中。
另外,在实例中,已经描述了亮度值被用作当执行物体的入侵确定处理时使用的特征量的实例,然而,可以使用另一个特征量。作为当执行物体的入侵确定处理时使用的特征量,例如看可以使用配置图像的每个像素的RGB值。另外,当使用这些特征量执行物体的入侵确定处理时,阈值处理等可以被执行以便允许误差。
另外,在该实例中,已经描述了使用由图像获取单元130获取的图像(例如,使用成像装置生成的成像图像)执行每个处理(物体检测处理、物体的入侵确定处理)的实例,然而,每个处理可以使用图像的缩小图像来执行。另外,作为每个处理中使用的图像,可以使用除成像图像之外的图像(例如,RGB等的彩色图像、只具有亮度信息的图像和经受其中图像被制成边缘图像(例如,边缘提取图像)的图像处理的图像)。
图像处理装置的操作实例
图7是示出了根据本技术的第一实施方式的通过图像处理装置100进行的物体的入侵确定处理的处理流程的实例的流程图。另外,在图7中,保护屏障(对应于保护屏障区域的物体)设置在注册区域的边界处的情况被示为实例。
首先,检测单元140对于由图像获取单元130获取的图像执行物体检测处理(步骤S910)。另外,物体检测处理将参照图8详细描述。另外,步骤S910是在权利要求中描述的检测流程的实例。
随后,确定单元150基于利用检测单元140的检测结果来确定物体是否从由图像获取单元130获取的图像中检测到(步骤S901)。另外,当没有检测到物体时(步骤S901),该处理返回步骤S910。
另外,当检测到物体时(步骤S901),确定单元150确定物体和注册区域是否相互重叠(步骤S902)。另外,当检测物体和注册区域不相互重叠时(步骤S902),由于假设检测物体尚未侵入注册区域中,因此确定单元150确定不存在入侵(步骤S907)。
另外,当检测物体和注册区域相互重叠时(步骤S902),确定单元150确定检测物体和保护屏障区域是否相互重叠(步骤S903)。另外,当检测物体和保护屏障区域不相互重叠时(步骤S903),由于假设检测物体已经完全侵入注册区域中,因此确定单元150确定存在入侵(步骤S906)。
另外,当检测物体和保护屏障区域相互重叠时(步骤S903),确定单元150比较重叠区域中的特征量(例如,亮度值)(步骤S904)。即,确定单元150将由图像获取单元130获取的图像的重叠区域中的特征量和保护屏障区域信息(例如,图5B中所示的保护屏障区域信息240)的重叠区域中的特征量进行相互比较(步骤S904)。
随后,确定单元150确定由于比较而计算的差值的绝对值的总值是否等于或小于阈值(步骤S905)。另外,当总值超过阈值时(步骤S905),由于假设检测物体已经侵入注册区域中,因此确定单元150确定存在入侵(步骤S906)。另一方面,当总值等于或小于阈值时(步骤S905),由于假设检测物体尚未侵入注册区域中,因此确定单元150确定不存在入侵(步骤S907)。另外,步骤S902至S907是在权利要求中描述的确定流程的实例。
随后,输出单元160从确定单元150中输出确定结果(步骤S908)。例如,输出单元160使用显示单元上的显示或从声音输出单元输出的声音输出确定结果(步骤S908)。
随后,确定是否执行结束物体的入侵确定处理的操作的指令(步骤S909),并且当不做出结束的指令时,该处理返回步骤S910。另一方面,当做出结束的指令时(步骤S909),结束物体的入侵确定处理的操作。
图8是示出了根据本技术的第一实施方式的使用图像处理装置100进行的物体的入侵确定处理中的物体检测处理(图7中所示的步骤S910的处理流程)的实例的流程图。另外,在图8中,检测到具有运动的物体的移动物体检测处理被示为物体检测处理的实例。
首先,检测单元140对于由图像获取单元130获取的图像执行背景图像差分处理是(步骤S911)。
随后,检测单元140对于对应于通过背景图像差分处理检测的物体(物体区域)的区域执行标记处理(步骤S912)。标记处理例如是对连接的区域给出相同的识别信息的处理,因为所连接的区域被认为是由于背景图像差分处理而检测到的物体中的相同物体。
随后,检测单元140对于执行标记处理的物体区域执行跟踪处理(步骤S913)。跟踪处理例如是通过背景图像差分处理检测的物体的运动参照先前帧的位置预测的处理。
随后,检测单元140对于执行跟踪处理的物体区域执行后处理(步骤S914)。后处理是用于明确地判定移动物体(其是检测目标)的处理。作为后处理,例如,执行诸如噪声除去处理和阴影确定处理,并且除去除作为检测目标的移动物体之外的物体。
另外,在图8中,作为物体检测处理的实例,描述了检测到具有运动的物体的移动物体检测处理,然而,物体(例如,飞机、车辆和人体)可以使用另一种检测方法来检测。例如,可以使用其中利用梯度方向直方图(HOG)执行物体检测的检测方法(例如,参见日本未经审查的专利申请公开No.2010-067102)。
这里,例如,三维空间的现实世界被表现为使用照相机拍摄的二维空间。在被表现为二维空间的图像中,在近侧处的物体对于在图像的深度方向(照相机的光轴方向)上的远侧处的物体表现为重叠状态。即,在被表现为二维空间的图像中,在近侧处的物体遮挡图像的深度方向上的远侧处的物体。出于这个原因,当检测在图像的深度方向上的远侧处的物体时,存在保护屏障的存在可以降低其检测精度的担忧。
另外,例如,设置照相机以从正交于深度方向的方向(横向方向)执行拍摄也可以被纳入考虑,以便精确地确定在图像的深度方向上的远侧处的物体和近侧处的物体。例如,设置对于入侵禁止区域从横向方向执行拍摄的照相机可以被纳入考虑。然而,多个照相机在这种情况下是必须的。另外,还存在可能制约用于设置多个照相机的地方的担忧。
因此,根据本技术的第一实施方式,设置保护屏障区域(例如,对应于图2A和图2B中所示的护栏202的区域),并且存储与此有关的保护屏障区域信息(例如,图5B中所示的保护屏障区域信息240)。另外,可以使用同样在二维地表现的图像中的保护屏障区域信息确定深度方向上的检测物体与保护屏障(背景结构)之间的位置关系。以这种方式,可以提高三维空间中的物体的位置的检测精度。即,可以使用与用户在确定处理中设置的保护屏障有关的保护屏障区域信息高精度地判断三维空间的情况(甚至从二维空间)。
另外,可以精确地确定在由图像获取单元130获取的图像中检测到的物体(例如,人)是否已经侵入注册区域(例如,入侵禁止区域)中。以这种方式,可以避免入侵禁止区域中的错误检测。即,可以提高物体的检测精度。
另外,例如,可对于入侵禁止区域只使用来自前侧的拍摄确定深度方向上的位置关系。例如,如图2A和图2B所示,即使当入侵禁止区域是呈圆形形状时,可以使用来自前侧的拍摄由于深度确定而检测入侵。以这种方式,可以减少设置图像处理装置时的制约。换句话说,可以拓宽图像处理装置的安装空间。即,可以执行相对自由的照相机布局。
另外,在本技术的第一实施方式中,作为监测目标的成像范围是固定的图像处理装置100已经被描述为实例。然而,例如,还可以将本技术的第一实施方式应用到能够移动作为监测目标的图像范围(例如,在水平方向上振荡的振荡监控照相机)的图像处理装置。例如,振荡角(例如,水平方向上的光轴的角)和每条信息(背景图像信息、注册区域信息和保护屏障区域信息)通过相互关联来存储。另外,当执行每个处理时,每个处理使用通过与对应于与此时处理时间的振荡角相关联而存储的每条信息来执行。
2、第二实施方式
在本技术的第一实施方式中,描述了使用保护屏障区域信息执行的物体的入侵确定处理的实例。这里,例如,考虑还可以使用保护屏障区域信息在移动物体检测处理中执行遮挡确定处理(确定移动物体中是否存在重叠的处理)。
因此,在本技术的第二实施方式中,将描述使用保护屏障区域信息执行遮挡确定处理的实例。另外,根据本技术的第二实施方式的图像处理装置对根据本技术的第一实施方式的图像处理装置100是共通的(图1中所示)。出于这个原因,对图像处理装置100中的共通的部分将给出相同的参考编号,并且将省略这些描述的一部分。
保护屏障区域与保护屏障区域信息之间的关系的实例
图9A和图9B是示出了根据本技术的第二实施方式的存储在存储单元110中的保护屏障区域信息与保护屏障区域之间的关系的实例的示意图。
图9A示出了背景图像300上的保护屏障区域301。另外,保护屏障区域301对应于图2B中所示的保护屏障区域212。另外,保护屏障区域301是设置在道路上的标志。另外,如图10A所示,水平方向上的保护屏障区域301的棒状部分的尺寸被设置为W0。
图9B示出了对应于图9A中所示的保护屏障区域301的保护屏障区域信息310。这里,保护屏障区域信息310是用于指定保护屏障区域301的信息。另外,类似于图4B,在图9B中,使用特征量(例如,1)指定对应于保护屏障区域301的保护屏障区域的保护屏障区域信息310被描述为实例。另外,在图9B中,为了便于描述,对应于背景图像的坐标使用117个矩形(9x13)示意性地示出。另外,在每个矩形中,“1”表示保护屏障区域301,并且除保护屏障区域301之外的区域通过附接“0”来示出。
另外,保护屏障区域信息310的设置方法与根据本技术的第一实施方式的保护屏障区域信息中的相同。另外,保护屏障区域信息310存储在存储单元110中。
移动物体的检测实例
图10A至图11B是示出了根据本技术的第二实施方式的使用检测单元140进行的移动物体检测处理的检测结果的示意图。
检测单元140执行其中检测移动物体的移动物体检测处理。作为移动物体检测处理,例如,可以执行图8中所示的移动物体检测处理。
图10A示出了由图像获取单元130获取的图像320。另外,图像320包括正在运行的汽车321。出于这个原因,检测单元140从图像320中检测汽车321。另外,检测单元140连同汽车321一起检测其尺寸。例如,检测单元140检测垂直方向上的尺寸H1和水平方向上的尺寸W1作为汽车321的尺寸。另外,检测单元140将与检测的汽车321有关的移动物体检测信息输出至确定单元150。这里,移动物体检测信息是用于指定对应于由检测单元140检测的移动物体的区域的信息,并且包括用于指定背景图像中汽车321的位置和尺寸的信息。
图10B示出了包括对应于在图10A中所示的图像320中检测的汽车321的移动物体检测信息和保护屏障区域信息310的信息330。另外,在图10B中,利用特征量指定对应于在图像320中检测的汽车321的区域和保护屏障区域301的信息330被描述为实例。另外,在图10B中,为了便于描述,对应于背景图像的坐标使用117个矩形(9x13)示意性地示出,类似于图9B。另外,在每个矩形中,“2”表示对应于汽车321的区域,“1”表示对应于保护屏障区域301的保护屏障区域,并且除这些之外的区域通过附接“0”来示出。
另外,确定单元150保存在预定时间段内与由检测单元140检测的移动物体(例如,汽车321)有关的移动物体检测信息。另外,当执行遮挡确定处理时,确定单元150使用所保存的移动物体检测信息。
在图11A中,示出了由图像获取单元130获取的图像340。图像340是在包含在图10A中所示的图像320中的汽车321移动之后获取的图像。这里,汽车321包含在图像340中,然而,假设汽车321由于移动通过保护屏障区域301而被划分。出于这个原因,检测单元140从图像340中检测汽车321,然而,汽车321被检测为两个移动体341和342。在这种情况下,例如,检测单元140检测垂直方向上的尺寸H2和水平方向上的尺寸W2作为移动物体341(前侧的汽车321)的尺寸。另外,检测单元140检测垂直方向上的尺寸H3和水平方向上的尺寸W3作为移动物体342(后侧的汽车321)的尺寸。另外,检测单元140将与所检测的移动物体341有关的移动物体检测信息(包括用于指定背景图像中的移动物体341的位置和尺寸的信息)输出至确定单元150。类似地,检测单元140将与所检测的移动物体342有关的移动物体检测信息(包括用于指定背景图像中的移动物体342的位置和尺寸的信息)输出至确定单元150。
图11B示出了包括对应于在图11A中所示的图像340中检测的两个移动体341和342的移动物体检测信息和保护屏障区域信息310的信息350。在图11B中,类似于图10B,利用特征量指定对应于在图像340中检测的两个移动体341和342的区域和保护屏障区域301的信息350被描述为实例。另外,在图11B中,为了便于描述,对应于背景图像的坐标使用117个矩形(9x13)示意性地示出,类似于图9B。另外,在每个矩形中,“3”表示对应于移动物体341的区域,“2”表示对应于移动物体342的区域,“1”表示保护屏障区域301,并且除这些之外的区域通过附接“0”来示出。
确定遮挡的实例
如图11A中所示,当在保护屏障区域301中检测到相邻的移动体341和342时,有发生遮挡的可能性。因此,当在保护屏障区域301中检测到相邻的移动体341和342时,确定单元150执行遮挡确定处理。
首先,确定单元150确定所检测的移动物体是否接近注册的保护屏障的两侧。另外,当所检测的移动物体没有接近注册的保护屏障的两侧时,确定单元150确定相应的检测移动体是一个移动物体。例如,在图10A中,汽车321没有接近注册保护屏障(对应于保护屏障区域301的保护屏障(标志))的两侧。在这种情况下,确定单元150确定所检测的汽车321是一个移动物体。
另外,当所检测的移动物体接近注册保护屏障的两侧时,确定单元150使用保存的来自过去的物体检测信息执行比较处理。具体地,确定单元150将与保存的过去的物体检测信息有关的尺寸和与接近注册保护屏障的两侧的两个移动物体的物体检测信息有关的尺寸进行比较。另外,确定单元150确定作为比较目标的两个尺寸是否大致相同(或相同)。
这里,将描述两个尺寸的比较实例。例如,当在水平方向上行进的移动物体被设置为确定目标时,计算保存的过去的物体检测信息有关的水平方向上的尺寸与作为水平方向上的比较目标的两个移动物体和保护屏障的相应的尺寸的总值之间的差值。另外,计算与保存的过去的物体检测信息有关的垂直方向上的尺寸和作为比较目标的两个移动物体之间较大值的垂直方向上的尺寸之间的差值。
另外,当水平方向上的尺寸的差值和垂直方向上的尺寸的差值均等于或小于阈值时,确定单元150确定两个移动物体是一个移动物体。即,确定单元150确定接近注册保护屏障的两侧的两个移动物体是一个移动物体。
例如,在图11A中所示的实例中,在水平方向上移动的汽车被设置为确定目标。出于这个原因,确定单元150计算保存的过去的物体检测信息相关的水平方向上的尺寸与作为比较目标的两个移动物体341和342、和保护屏障区域301在水平方向上的相应尺寸的总值之间的差值。例如,由于水平方向上的保护屏障区域301的尺寸为W0,因此作为比较目标的两个移动物体341和342、和保护屏障区域301在水平方向上的尺寸的总值为W0+W2+W3。出于这个原因,确定单元150计算W1-(W0+W2+W3)作为总值(W0+W2+W3)与保存的过去的物体检测信息有关的水平方向上的尺寸W1(图10A中所示)之间的差值。另外,确定单元150计算保存的过去的垂直方向上的物体检测信息的尺寸(图10A中所示的H1)和与作为比较目标的两个移动物体之间较大值的垂直方向上的尺寸(H3)之间的差值。
这里,垂直方向上的尺寸H1和垂直方向上的尺寸H3相同。出于这个原因,垂直方向上的尺寸的差值(H1-H3)变为零。即,垂直方向上的尺寸的差值(H1-H3)等于或小于阈值。
另外,水平方向上的尺寸的总值W1和水平方向上的尺寸的总值(W0+W2+W3)相同。出于这个原因,水平方向上的尺寸的差值(W1-(W0+W2+W3))变为零。即,水平方向上的尺寸的差值(W1-(W0+W2+W3))等于或小于阈值。
以这种方式,在图11A中所示的实例中,由于水平方向上的尺寸的差值和垂直方向上的尺寸的差值都变得等于或小于阈值,因此确定单元150确定两个移动物体是一个移动物体。即,确定单元150确定接近注册保护屏障的两侧的两个移动物体341和342是一个移动物体(汽车321)。
另一方面,当水平方向上的尺寸的差值和垂直方向上的尺寸的差值的至少一个超过阈值时,确定单元150确定两个移动物体是两个不同的移动物体。即,确定单元150确定接近注册保护屏障的两侧的两个移动物体是两个不同的移动物体。
另外,在该实例中,比较处理是基于水平方向和垂直方向上的尺寸来执行的,然而,比较处理也可以是基于另一信息来执行的。
例如,还可以通过对于与移动物体有关的图像执行比较处理来确定两个移动物体是否是相同的移动物体。例如,比较处理可以通过保存与所检测的移动物体有关的图像信息(例如,配置图像的亮度值)作为过去的物体检测信息来执行,并且可以基于图像信息(例如,配置与所检测的移动物体有关的图像的亮度值)来执行。例如,确定单元150可以计算对应于作为比较目标的移动物体的每个像素的亮度的差值的绝对值。具体地,确定单元150针对每个像素计算对应于过去检测的一个移动物体的每个像素中的亮度值与对应于接近注册的保护屏障的两侧的两个移动物体的每个像素中的亮度值之间的差值的绝对值。随后,确定单元150计算每个像素中的差值的绝对值的总值。随后,确定单元150确定所计算的总值是否等于或小于阈值。
另外,当所计算的总值等于或小于阈值时,确定单元150确定变为比较目标的两个移动物体相同。在这种情况下,确定单元150确定接近注册保护屏障的两侧的两个移动物体是一个移动物体。
另一方面,当所计算的总值超过阈值时,确定单元150确定变为比较目标的两个移动物体不相同。在这种情况下,确定单元150确定接近注册保护屏障的两侧的两个移动物体是两个不同的移动物体。
另外,可以通过执行对应于接近注册保护屏障的两侧的两个移动物体的区域的特征量的比较处理来确定两个移动物体是否是相同的移动物体,而不使用过去的物体检测信息。
例如,确定单元150可以在对应于变为比较目标的两个移动物体的区域中,对于来自水平方向上的保护屏障的预定数量的像素(例如,五个像素)的区域来生成直方图(密度直方图)。另外,直方图是其中在图表中横轴表示密度值,纵轴表示像素数量的图中,并且配置图像的每个像素根据密度值布置的一种直方图。例如,确定单元150对于水平方向上的左边区域(例如,五个像素的区域)生成直方图,并且对于水平方向上的右边区域(例如,五个像素的区域)生成直方图。另外,确定单元150基于两个生成的直方图的相似度来确定两个移动物体是否是相同的移动物体。
例如,确定单元150计算针对每个密度值的所生成的两个直方图的像素的数量的差值的绝对值。另外,确定单元150计算针对每个密度值的差值的绝对值的总值。随后,确定单元150确定所计算的总值是否等于或小于阈值。
另外,当所计算的总值等于或小于阈值时,确定单元150确定变为比较目标的两个移动物体相同。在这种情况下,确定单元150确定接近注册保护屏障的两侧的两个移动物体是一个移动物体。
另一方面,当所计算的总值超过阈值时,确定单元150确定变为比较目标的两个移动物体不相同。在这种情况下,确定单元150确定接近注册保护屏障的两侧的两个移动物体是两个不同的移动物体。
移动物体检测信息的补正实例
图12是示出了根据本技术的第二实施方式的使用确定单元150补正(amended)的移动物体检测信息的补正实例的示意图。
如上所述,当确定接近注册保护屏障的两侧的两个移动物体是一个移动物体时,确定单元150补正从检测单元140输出的移动物体检测信息。
例如,在图11A中所示的实例中,假设确定两个移动物体341和342是一个移动物体的情况。在这种情况下,如图12中所示,确定单元150执行将两个移动物体341和342的物体检测信息改为一个移动物体的物体检测信息的补正。另外,确定单元150执行将与在确定处理中使用的过去的物体检测信息有关的尺寸(水平方向上的尺寸W1和垂直方向上的尺寸H1)改为两个移动物体341和342的尺寸的补正。
这里,假设保护屏障大于移动物体。在这种情况下,假设过去检测到的移动物体完全被保护屏障隐藏。甚至在此情况下,可以基于过去检测到的移动物体来获取移动物体的移动矢量。因此,可以基于过去检测到的移动物体的移动矢量来假设移动物体存在于保护屏障的后面。以这种方式,当假设移动物体存在于保护屏障的后面时,可以确定存在遮挡,而不确定移动物体丢失。
图像处理装置的操作实例
图13是示出了根据本技术的第二实施方式的使用图像处理装置100进行的遮挡确定处理的处理流程的实例的流程图。
首先,检测单元140对于由图像获取单元130获取的图像执行移动物体检测处理(步骤S930)。另外,移动物体检测处理与图8中所示的物体检测处理相同。
随后,确定单元150基于利用监测单元140的检测结果来确定移动物体是否从由图像获取单元130获取的图像中检测到(步骤S921)。另外,当没有检测到移动物体时(步骤S921),该处理返回步骤S930。
另外,当检测到移动物体时(步骤S921),确定单元150确定所检测的移动物体是否接近注册保护屏障的两侧(步骤S922)。另外,当所检测的移动物体没有接近注册保护屏障的两侧时(步骤S922),确定单元150确定相应的所检测的移动物体是一个移动物体(步骤S923)。
另外,当所检测的移动物体接近注册保护屏障的两侧时(步骤S922),确定单元150使用保存的过去的物体检测信息执行比较处理(步骤S924)。即,确定单元150将保存的过去的物体检测信息有关的尺寸与接近注册保护屏障的两侧的两个移动物体的物体检测信息有关的尺寸进行相互比较(步骤S924)。随后,确定单元150确定变为比较目标的两个尺寸是否大致相同(或相同)(步骤S925)。
当变为比较目标的两个尺寸大致不同时(步骤S925),确定单元150确定接近注册保护屏障的两侧的两个移动物体是两个不同的移动物体(步骤S926)。另一方面,当变为比较目标的两个尺寸大致相同时(步骤S925),确定单元150确定接近注册保护屏障的两侧的两个移动物体是一个移动物体(步骤S927)。
随后,输出单元160输出来自确定单元150的确定结果(步骤S928)。例如,输出单元160使用显示单元上的显示或从声音输出单元输出的声音来输出确定结果(步骤S928)。
随后,确定是否发出用于结束遮挡确定处理的操作的结束指令(步骤S929)。当没有发出结束指令时,该处理返回步骤S930。另一方面,当发出结束指令时(步骤S929),结束遮挡确定处理的操作。
以这种方式,确定单元150确定图像中是否存在与所检测的移动物体有关的遮挡。在这种情况下,例如,确定单元150对与所检测的移动物体有关的尺寸信息和与在图像中的移动物体之前立即检测的移动物体有关的尺寸信息进行相互比较,并基于比较结果来确定是否存在遮挡。另外,当确定存在遮挡时,确定单元150确定接近保护屏障区域的两侧的多个移动物体是一个移动物体。
以这种方式,根据本技术的第二实施方式,设置现有保护屏障(例如,道路标志),并使用与保护屏障有关的保护屏障区域信息来执行遮挡确定处理。以这种方式,可以精确地确定是否存在两个不同的移动物体,或一个移动物体是否由于遮挡的出现而分离。另外,可以提高移动物体的检测精度。
另外,类似于本技术的第一实施方式,只有当通过确定图像的深度方向上的移动物体与保护屏障区域之间的位置关系,对于保护屏障区域确定移动物体存在于另外的远侧上时,才可以执行是否存在与移动物体有关的遮挡的确定。
3、第三实施方式
在本技术的第一和第二实施方式中,已经描述了图像处理装置100一体配置的实例。然而,还可以将本技术的第一和第二实施方式应用到图像处理装置100中的各功能由多个设备执行的图像处理***。
因此,在本技术的第三实施方式中,将描述由多个设备配置而成的图像处理***的实例。另外,配置根据本技术的第三实施方式的图像处理***的每个单元对应于配置图1中所示的图像处理装置100的每个单元。出于这个原因,将指示事实,并且将省略对应于图像处理装置100部分的描述的一部分。
图像处理***的配置实例
图14是示出了根据本技术的第三实施方式的图像处理***400的配置实例的示意图。
图像处理***400包括:成像装置410、网络420、服务器430、和输入输出设备440。
另外,图像获取单元411、检测单元432、确定单元433和存储单元431分别对应于图1中所示的图像获取单元130、检测单元140、确定单元150和存储单元110。
另外,输入输出设备440对应于图1中所示的设置单元120和输出单元160。即,输入输出设备440分别设置注册区域和保护屏障区域。另外,输入输出设备440输出从确定单元433输出的确定结果。例如,可以使用显示每个图像的显示单元或输出每条声音信息的声音输出单元来输出确定结果。
网络420是用于连接成像装置410和服务器430的网络。例如,网络420是诸如电话网络、互联网(例如,公共网络)等的网络。另外,例如,网络420可以是有线网络(例如,以太网(注册商标))或同轴电缆。
以这种方式,成像装置410和服务器430通过网络420连接至图像处理***400。另外,由成像装置410的图像获取单元411获取的图像通过网络420传输至服务器430。
即,图像处理***400是物体检测处理和物体的入侵确定处理(或移动物体检测处理和遮挡确定处理)在服务器430侧上执行的图像处理***。另外,每个处理的一部分可以在图像装置侧上执行。该实例在图15中示出。
图像处理***的配置实例
图15是示出了根据本技术的第三实施方式的图像处理***500的配置实例的示意图。
图像处理***500包括:成像装置510、网络520、服务器530和输入输出设备540。
另外,图像获取单元512、检测单元513、网络520、确定单元532和输入输出设备540分别对应于图14中所示的图像获取单元411、检测单元432、网络420、确定单元433和输入输出设备440。然而,输入输出设备540仅设置保护屏障区域。另外,成像装置510和输入输出设备540可以通过网络520连接,并且注册区域可以使用输入输出设备540来设置。
另外,存储单元511和531对应于图14中所示的存储单元431。即,背景图像信息存储在存储单元511中,并且所存储的背景图像信息供应至检测单元513。另外,注册区域信息和保护屏障区域信息存储在存储单元531中,并且存储的每条信息供应至确定单元532。
另外,成像装置510和服务器530通过网络520连接至图像处理***500。另外,检测单元513对于由成像装置510的图像获取单元512获取的图像执行物体检测处理(或,移动物体检测处理)。另外,检测单元513通过网络520将检测结果连同由图像获取单元512获取的图像一起传输至服务器530。
以这种方式,根据本技术的第三实施方式,在本技术的第一和第二实施方式中示出的每个处理(物体检测处理和物体的入侵确定处理(或移动物体检测处理和遮挡检测处理))使用多个设备来实现。出于这个原因,例如,成像装置设置在变为监测目标的多个地方的每一个处,并且一个服务器集中由每个成像装置获取的图像,由此执行每个处理。
另外,上述实施方式已经示出了用于体现本技术的实例,并且实施方式中的事项和指定权利要求中的公开内容的事项分别具有对应关系。类似地,指定权利要求中的公开内容的事项和具有与根据本技术的实施方式所述的名称相同的名称的事项分别具有对应关系。然而,本技术不限于所述实施方式,并且在不背离本公开的范围的情况下可以通过执行实施方式中的各种修改来体现。
另外,在上述实施方式中描述的处理流程可以被视为包括一系列这些流程的方法,或者可以被视为用于执行计算机中的一系列流程的程序,以及存储程序的记录介质。作为记录介质,可以使用例如光盘(CD)、迷你盘(MD)、数字通用光盘(DVD)、记忆卡、蓝光盘(注册商标)等。
另外,本技术还可以配置如下。
(1)一种图像处理装置,包括:检测单元,检测包含在图像中的物体;以及确定单元,当检测物体和保护屏障区域在所述图像中相互重叠时,基于与所述检测物体和所述保护屏障区域的至少一个有关的特征量来确定所述图像的深度方向上的所述物体与所述保护屏障区域之间的位置关系。
(2)根据(1)所述的图像处理装置,其中,所述确定单元对于所述图像中的所述检测物体与所述保护屏障区域的重叠区域,将所述图像中的所述检测物体的包含在所述重叠区域中的特征量和存储在存储单元中的所述保护屏障区域中的包含在所述重叠区域中的特征量进行相互比较,并基于所述比较的结果来确定所述位置关系。
(3)根据(2)所述的图像处理装置,其中,所述确定单元将所述检测物体的包含在所述重叠区域中的像素和所述保护屏障区域中的包含在所述重叠区域中的像素进行相互比较,并基于所述重叠区域中的所述像素的相似度来确定所述位置关系。
(4)根据(1)至(3)所述的图像处理装置,其中,所述保护屏障区域是作为设置在注册在所述图像中的注册区域的边界处或边界的附近的物体的保护屏障的区域,并阻挡所述检测物体,以及其中,所述确定单元确定在所述检测物体和所述注册区域在所述图像中相互重叠,并且所述检测物体和所述保护屏障区域在所述图像中相互重叠时的位置关系,并基于确定结果来确定所述检测物体是否已经侵入所述注册区域。
(5)根据(1)所述的图像处理装置,其中,所述检测单元检测包含在所述图像中的移动物体,以及其中,所述确定单元确定是否存在与所检测的所述移动物体有关的遮挡。
(6)根据(5)所述的图像处理装置,其中,所述确定单元基于通过比较与所检测的所述移动物体有关的尺寸信息和与在所述图像中的移动物体之前立即检测的所述移动物体有关的尺寸信息而产生的比较结果来确定是否存在所述遮挡。
(7)根据(5)或(6)所述的图像处理装置,其中,当确定存在所述遮挡时,所述确定单元确定接近所述保护屏障区域的两侧的多个移动物体是一个移动物体。
(8)一种图像处理方法,包括:检测包含在图像中的物体;以及当检测物体和保护屏障区域在所述图像中相互重叠时,基于与所述检测物体和所述保护屏障区域的至少一个有关的特征量来确定所述图像的深度方向上的所述物体与所述保护屏障区域之间的位置关系。
(9)一种使计算机执行下列各项的程序:检测包含在图像中的物体;以及当检测物体和保护屏障区域在所述图像中相互重叠时,基于与所述检测物体和所述保护屏障区域的至少一个有关的特征量来确定所述图像的深度方向上的所述物体与所述保护屏障区域之间的位置关系。
本领域技术人员应该理解,根据设计需求和其它因素可以进行各种修改、组合、子组合以及改变,只要其在所附权利要求或其等同内容的范围之内即可。
Claims (10)
1.一种图像处理装置,包括:
检测单元,检测包含在图像中的物体;以及
确定单元,当检测物体和保护屏障区域在所述图像中相互重叠时,基于与所述检测物体和所述保护屏障区域中的至少一个有关的特征量来确定所述图像的深度方向上的所述检测物体与所述保护屏障区域之间的位置关系,
其中,所述保护屏障区域是作为设置在注册在所述图像中的注册区域的边界处或所述边界的附近的物体的保护屏障的区域,并阻挡所述检测物体,以及
其中,所述确定单元确定在所述检测物体和所述注册区域在所述图像中相互重叠并且所述检测物体和所述保护屏障区域在所述图像中相互重叠时的位置关系,并基于所确定的结果来确定所述检测物体是否已经侵入所述注册区域。
2.根据权利要求1所述的图像处理装置,
其中,所述确定单元对于所述图像中的所述检测物体与所述保护屏障区域的重叠区域,将所述图像中的所述检测物体的包含在所述重叠区域中的特征量和存储在存储单元中的所述保护屏障区域中的包含在所述重叠区域中的特征量进行相互比较,并基于所述比较的结果来确定所述位置关系。
3.根据权利要求2所述的图像处理装置,
其中,所述确定单元将所述检测物体的包含在所述重叠区域中的像素和所述保护屏障区域中的包含在所述重叠区域中的像素进行相互比较,并基于所述重叠区域中的像素的相似度来确定所述位置关系。
4.根据权利要求1所述的图像处理装置,其中,所述注册区域是由设置单元在所述图像中设置的区域。
5.一种图像处理装置,包括:
检测单元,检测包含在图像中的物体;以及
确定单元,当检测物体和保护屏障区域在所述图像中相互重叠时,基于与所述检测物体和所述保护屏障区域中的至少一个有关的特征量来确定所述图像的深度方向上的所述检测物体与所述保护屏障区域之间的位置关系,
其中,所述检测单元检测包含在所述图像中的移动物体,以及
其中,所述确定单元确定是否存在与所检测的所述移动物体有关的遮挡,
其中,所述确定单元基于通过将与所检测的所述移动物体有关的尺寸信息和与在所述图像中的移动物体之前立即检测的所述移动物体有关的尺寸信息进行比较而产生的比较结果来确定是否存在所述遮挡。
6.根据权利要求5所述的图像处理装置,
其中,当确定存在所述遮挡时,所述确定单元确定接近所述保护屏障区域的两侧的多个移动物体是一个移动物体。
7.一种图像处理方法,包括:
检测包含在图像中的物体;以及
当检测物体和保护屏障区域在所述图像中相互重叠时,基于与所述检测物体和所述保护屏障区域中的至少一个有关的特征量来确定所述图像的深度方向上的所述检测物体与所述保护屏障区域之间的位置关系,
其中,所述保护屏障区域是作为设置在注册在所述图像中的注册区域的边界处或所述边界的附近的物体的保护屏障的区域,并阻挡所述检测物体,以及
其中,所述图像处理方法进一步包括:确定在所述检测物体和所述注册区域在所述图像中相互重叠并且所述检测物体和所述保护屏障区域在所述图像中相互重叠时的位置关系,并基于所确定的结果来确定所述检测物体是否已经侵入所述注册区域。
8.一种图像处理方法,包括:
检测包含在图像中的物体,其中,检测包含在所述图像中的所述物体包括检测包含在所述图像中的移动物体;
当检测物体和保护屏障区域在所述图像中相互重叠时,基于与所述检测物体和所述保护屏障区域中的至少一个有关的特征量来确定所述图像的深度方向上的所述检测物体与所述保护屏障区域之间的位置关系;以及
确定是否存在与所检测的所述移动物体有关的遮挡,
其中,基于通过将与所检测的所述移动物体有关的尺寸信息和与在所述图像中的移动物体之前立即检测的所述移动物体有关的尺寸信息进行比较而产生的比较结果来确定是否存在所述遮挡。
9.一种记录介质,存储有使计算机执行下列各项的程序:
检测包含在图像中的物体;以及
当检测物体和保护屏障区域在所述图像中相互重叠时,基于与所述检测物体和所述保护屏障区域中的至少一个有关的特征量来确定所述图像的深度方向上的所述检测物体与所述保护屏障区域之间的位置关系,
其中,所述保护屏障区域是作为设置在注册在所述图像中的注册区域的边界处或所述边界的附近的物体的保护屏障的区域,并阻挡所述检测物体,以及
其中,所述程序在由所述计算机运行时进一步配置为:确定在所述检测物体和所述注册区域在所述图像中相互重叠并且所述检测物体和所述保护屏障区域在所述图像中相互重叠时的位置关系,并基于所确定的结果来确定所述检测物体是否已经侵入所述注册区域。
10.一种记录介质,存储有使计算机执行下列各项的程序:
检测包含在图像中的物体,其中检测包含在所述图像中的所述物体包括检测包含在所述图像中的移动物体;以及
当检测物体和保护屏障区域在所述图像中相互重叠时,基于与所述检测物体和所述保护屏障区域中的至少一个有关的特征量来确定所述图像的深度方向上的所述检测物体与所述保护屏障区域之间的位置关系;以及
确定是否存在与所检测的所述移动物体有关的遮挡,
其中,基于通过将与所检测的所述移动物体有关的尺寸信息和与在所述图像中的移动物体之前立即检测的所述移动物体有关的尺寸信息进行比较而产生的比较结果来确定是否存在所述遮挡。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013110264A JP6097150B2 (ja) | 2013-05-24 | 2013-05-24 | 画像処理装置、画像処理方法およびプログラム |
JP2013-110264 | 2013-05-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104184938A CN104184938A (zh) | 2014-12-03 |
CN104184938B true CN104184938B (zh) | 2018-09-21 |
Family
ID=51935406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410210313.XA Active CN104184938B (zh) | 2013-05-24 | 2014-05-16 | 图像处理装置、图像处理方法和程序 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9367747B2 (zh) |
JP (1) | JP6097150B2 (zh) |
CN (1) | CN104184938B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201509387D0 (en) * | 2015-06-01 | 2015-07-15 | Apical Ltd | Method and apparatus for image processing (distance detection) |
CN105354563B (zh) * | 2015-12-14 | 2018-12-14 | 南京理工大学 | 结合深度和彩色图像的遮挡人脸检测预警装置及实现方法 |
JP6612135B2 (ja) * | 2016-01-14 | 2019-11-27 | 日立オートモティブシステムズ株式会社 | 車両検出装置および配光制御装置 |
JP6641633B2 (ja) * | 2016-03-10 | 2020-02-05 | スズキ株式会社 | 移動体検知システムおよびそのデータ整合性判定方法 |
JP6660228B2 (ja) * | 2016-03-31 | 2020-03-11 | セコム株式会社 | 物体検出センサ |
CN106846294B (zh) * | 2016-12-16 | 2020-11-27 | 深圳市海科瑞科技有限公司 | 视觉检测方法、装置及设备 |
CN109429560B (zh) * | 2017-06-21 | 2020-11-27 | 深圳配天智能技术研究院有限公司 | 一种图像处理方法、装置、***及计算机存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101312540A (zh) * | 2008-07-03 | 2008-11-26 | 浙江大学 | 基于深度和遮挡信息的虚拟视点合成方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003044860A (ja) * | 2001-08-01 | 2003-02-14 | Nippon Hoso Kyokai <Nhk> | 映像オブジェクト追跡装置 |
US6856314B2 (en) * | 2002-04-18 | 2005-02-15 | Stmicroelectronics, Inc. | Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling |
JP4264663B2 (ja) | 2006-11-21 | 2009-05-20 | ソニー株式会社 | 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム |
JP5106302B2 (ja) * | 2008-07-31 | 2012-12-26 | セコム株式会社 | 移動物体追跡装置 |
EP2478708A2 (en) * | 2009-09-18 | 2012-07-25 | Logos Technologies Inc. | Method for the compression of an aerial image using an image prediction based on a depth model of the terrain |
US8564534B2 (en) * | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US8983121B2 (en) * | 2010-10-27 | 2015-03-17 | Samsung Techwin Co., Ltd. | Image processing apparatus and method thereof |
JP5606979B2 (ja) * | 2011-03-30 | 2014-10-15 | セコム株式会社 | 画像監視装置 |
JP2012236244A (ja) * | 2011-05-10 | 2012-12-06 | Sony Corp | ロボット装置、ロボット装置の制御方法、並びにロボット装置制御用プログラム |
US9530060B2 (en) * | 2012-01-17 | 2016-12-27 | Avigilon Fortress Corporation | System and method for building automation using video content analysis with depth sensing |
-
2013
- 2013-05-24 JP JP2013110264A patent/JP6097150B2/ja active Active
-
2014
- 2014-04-17 US US14/255,464 patent/US9367747B2/en active Active
- 2014-05-16 CN CN201410210313.XA patent/CN104184938B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101312540A (zh) * | 2008-07-03 | 2008-11-26 | 浙江大学 | 基于深度和遮挡信息的虚拟视点合成方法 |
Also Published As
Publication number | Publication date |
---|---|
US20140348381A1 (en) | 2014-11-27 |
JP2014229210A (ja) | 2014-12-08 |
US9367747B2 (en) | 2016-06-14 |
CN104184938A (zh) | 2014-12-03 |
JP6097150B2 (ja) | 2017-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104184938B (zh) | 图像处理装置、图像处理方法和程序 | |
CN109376667B (zh) | 目标检测方法、装置及电子设备 | |
KR101469398B1 (ko) | 텍스트 기반 3d 증강 현실 | |
US10074179B2 (en) | Image measurement device | |
JP6464934B2 (ja) | カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム | |
Shortis et al. | Design and calibration of an underwater stereo-video system for the monitoring of marine fauna populations | |
KR102169309B1 (ko) | 정보 처리장치 및 그 제어방법 | |
US20050234333A1 (en) | Marker detection method and apparatus, and position and orientation estimation method | |
US7286725B2 (en) | Information presentation apparatus for suggesting a presentation accuracy of related information and information presentation method | |
JP5263694B2 (ja) | 物***置推定用情報作成装置、物***置推定用情報作成方法およびプログラム | |
US11620730B2 (en) | Method for merging multiple images and post-processing of panorama | |
US8805059B2 (en) | Method, system and computer program product for segmenting an image | |
KR20180011794A (ko) | 오브젝트 시각화 방법 | |
CN109711427A (zh) | 目标检测方法及相关产品 | |
US11823394B2 (en) | Information processing apparatus and method for aligning captured image and object | |
CN105934757A (zh) | 一种用于检测第一图像的关键点和第二图像的关键点之间的不正确关联关系的方法和装置 | |
CN105335959B (zh) | 成像装置快速对焦方法及其设备 | |
CN110288629A (zh) | 基于移动物体检测的目标检测自动标注方法及装置 | |
KR101010904B1 (ko) | 마커를 사용하지 않는 증강공간 제공 장치 | |
CN104604219B (zh) | 图像处理装置、以及图像处理方法 | |
CN108597036A (zh) | 虚拟现实环境危险感知方法及装置 | |
RU2679200C1 (ru) | Способ и система отображения данных с видеокамеры | |
CN108628914A (zh) | 移动装置及其操作方法、非挥发性计算机可读取记录媒体 | |
JP2006293485A (ja) | 指標表示方法及び画像表示装置 | |
CN112132895B (zh) | 基于图像的位置确定方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20161009 Address after: Kanagawa, Japan Applicant after: SONY semiconductor solutions Address before: Tokyo, Japan Applicant before: Sony Corp |
|
GR01 | Patent grant | ||
GR01 | Patent grant |