JP2012185555A - Object detecting device and method, and program - Google Patents

Object detecting device and method, and program Download PDF

Info

Publication number
JP2012185555A
JP2012185555A JP2011046616A JP2011046616A JP2012185555A JP 2012185555 A JP2012185555 A JP 2012185555A JP 2011046616 A JP2011046616 A JP 2011046616A JP 2011046616 A JP2011046616 A JP 2011046616A JP 2012185555 A JP2012185555 A JP 2012185555A
Authority
JP
Japan
Prior art keywords
video
object detection
division
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011046616A
Other languages
Japanese (ja)
Inventor
Yoichi Muramatsu
洋一 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011046616A priority Critical patent/JP2012185555A/en
Publication of JP2012185555A publication Critical patent/JP2012185555A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect an object around a vehicle at high speed without decreasing detecting performance.SOLUTION: An object detecting device 10 includes: a video converting unit 20 for converting a video obtained by photographing the periphery of a vehicle into a feature video in which an image feature is extracted based on the video; a video dividing synthesis unit 30 for dividing the feature video into multiple regions and synthesizing them; a first object detection processing unit 40 for scanning the synthesized video to perform a first object detection processing; an object candidate position designating unit 50 for obtaining an object candidate position based on the result of the first object detection processing; and a second object detection processing unit 60 for performing a second object detection processing on the object candidate position.

Description

本発明は、物体検出装置に関し、特に、車両周辺に存在する歩行者等の物体を検出可能な物体検出装置に関する。   The present invention relates to an object detection device, and more particularly to an object detection device capable of detecting an object such as a pedestrian existing around a vehicle.

近年、自動車の安全運転を支援する目的で、車載カメラの搭載が拡大している。例えば、車両の前方部分や後方部分に設置した撮像装置により車両周辺の映像を撮影し、撮影された映像を運転席に設置したディスプレイに表示することで、運転手は、車両の走行時に、車両周辺に存在する歩行者等の物体の有無を確認することができる。   In recent years, in-vehicle cameras have been increasingly installed for the purpose of supporting safe driving of automobiles. For example, by capturing an image around the vehicle with an imaging device installed in the front part or rear part of the vehicle and displaying the captured image on a display installed in the driver's seat, the driver can The presence or absence of objects such as pedestrians in the vicinity can be confirmed.

また、車両周辺の映像を単にディスプレイに表示するのではなく、歩行者等の物体をあらかじめ何らかの手段で検出しておき、検出結果の情報を映像に付加したうえで表示したり、音声による警告を発したりすることで運転手の注意を喚起する取組みもなされている。   Also, instead of simply displaying the video around the vehicle on the display, an object such as a pedestrian is detected in advance by some means, and the information on the detection result is added to the video and displayed, or an audio warning is given. There are also efforts to raise the driver's attention by launching.

歩行者等の物体を検出する手段としては、例えば熱源や距離を関知するセンサを車載カメラとは別に搭載するものがこれまでの主流であった。しかし、コストや汎用性の点で別センサの搭載にはデメリットがあり、車載カメラの映像だけで物体を検出する画像認識手段の実用化が望まれている。   As a means for detecting an object such as a pedestrian, for example, a sensor equipped with a heat source and a distance sensing sensor is installed separately from the in-vehicle camera. However, there is a demerit in mounting another sensor in terms of cost and versatility, and there is a demand for practical use of an image recognition means that detects an object only from an on-vehicle camera image.

画像認識による物体検出手法として、研究分野においては以前より映像中のエッジ特徴を利用する手法が有効とされている。また、検出対象物体の映像をあらかじめ大量に学習して統計データとして活用するブースティング手法が確立されている。エッジ特徴を利用する手法とブースティングを組み合わせた物体検出手法は、研究分野においては検出精度の点で既に実用レベルに至っている。   As an object detection method based on image recognition, a method using edge features in video has been effective in the research field. In addition, a boosting method has been established in which a large amount of images of detection target objects are learned in advance and used as statistical data. The object detection method combining the technique using the edge feature and boosting has already reached a practical level in terms of detection accuracy in the research field.

しかし、実用化の点で上記の画像認識による物体検出手法には、処理時間の課題が残されている。画像認識の場合、映像処理が複雑であるのと同時に画像中を一通り走査する必要があるため、物体検出した結果を得るまでに時間がかかる。これにより、カメラのフレームレートに対して物体検出処理のフレームレートが低くなることや、映像に対して物体検出結果を得るまでの遅延時間が生じるという問題がある。   However, the problem of processing time remains in the object detection method based on the above image recognition in terms of practical use. In the case of image recognition, since video processing is complicated and it is necessary to scan through the image at the same time, it takes time to obtain an object detection result. As a result, there are problems that the frame rate of the object detection process becomes lower than the frame rate of the camera, and that a delay time is required until an object detection result is obtained for the video.

このような処理時間の課題に対して、特許文献1では、入力画像を縮小した縮小画像を作成し、まず縮小画像上で物体の有無を粗く検出し、縮小画像上で物体を検出したときだけ元の入力画像に再度検出処理をかける二段階検出を行う物体検出装置が開示されている。これにより、実質的には縮小画像サイズでの走査になるので検出処理の高速化ができる。   In order to deal with such a problem of processing time, in Patent Document 1, a reduced image obtained by reducing an input image is created. First, the presence or absence of an object is roughly detected on the reduced image, and only when an object is detected on the reduced image. An object detection apparatus that performs two-stage detection in which detection processing is performed again on an original input image is disclosed. Accordingly, since the scanning is substantially performed with a reduced image size, the detection process can be speeded up.

特開2007−265390号公報JP 2007-265390 A

しかしながら、上記特許文献1に記載の方法では、縮小画像を使って検出処理を行っているため、物体検出処理で利用している画像特徴が縮小化によって失われる。このため、特に物体検出対象が元々画像中で小さく撮影されている場合において、検出性能が十分に発揮できないという課題がある。物体検出対象が小さく撮影される要因としては、検出対象物体として元々小さいものを対象としていること、もしくは検出対象物体がカメラから距離が遠い位置に存在していること、またはその両方の要因が考えられるが、前者の場合は検出対象とする物体によっては検出精度が十分得られず、後者の場合は検出できる物体までの距離範囲が短縮化する弊害を生じた。   However, in the method described in Patent Document 1, since the detection process is performed using the reduced image, the image feature used in the object detection process is lost due to the reduction. For this reason, there is a problem that the detection performance cannot be sufficiently exhibited, particularly when the object detection target is originally taken small in the image. Factors that cause the object detection target to be photographed small include the fact that the detection target object is originally a small object, or that the detection target object exists at a position far from the camera, or both factors. However, in the former case, sufficient detection accuracy cannot be obtained depending on the object to be detected, and in the latter case, the distance range to the detectable object is shortened.

本発明は、上記背景に鑑みなされたものであり、物体検出を画像認識だけで行いながら検出性能を犠牲にすることなく、検出処理時間を高速化することが可能な物体検出装置及び方法、並びにプログラムを提供することを目的とする。   The present invention has been made in view of the above background, and an object detection apparatus and method capable of speeding up the detection processing time without sacrificing detection performance while performing object detection only by image recognition, and The purpose is to provide a program.

本発明の物体検出装置は、車両周辺の映像から画像特徴を抽出した特徴映像へと変換する映像変換部と、前記特徴映像を複数の領域に分割して合成する映像分割合成部と、前記映像分割合成部で合成した合成映像を走査して第一の物体検出処理を行う第一物体検出処理部と、前記第一物体検出処理部で物体が検出された合成映像上の位置を基に分割前の映像において物体が存在する可能性がある物体候補位置を求める物体候補位置指定部と、前記物体候補位置検出部で求めた物体候補位置に対して第二の物体検出処理を行い分割前の映像における物***置を特定する第二物体検出処理部とを備えた構成を有する。   The object detection device according to the present invention includes a video conversion unit that converts a video around a vehicle into a feature video obtained by extracting an image feature, a video division and synthesis unit that divides and synthesizes the feature video into a plurality of regions, and the video A first object detection processing unit that performs a first object detection process by scanning a composite video synthesized by the division synthesis unit, and a division based on a position on the composite video where the object is detected by the first object detection processing unit An object candidate position specifying unit that obtains an object candidate position where an object may exist in the previous image, and a second object detection process on the object candidate position obtained by the object candidate position detecting unit And a second object detection processing unit that identifies an object position in the video.

この構成により、画像特徴を損なわないので検出性能を犠牲にせずに検出処理時間を高速化することが可能な物体検出装置を提供することが可能になる。   With this configuration, it is possible to provide an object detection apparatus that can speed up the detection processing time without sacrificing the detection performance because the image characteristics are not impaired.

本発明の物体検出装置において、前記映像変換部は、画像特徴としてエッジ特徴を抽出することを特徴とする。この構成により、物体検出処理で用いるエッジ特徴だけを残した映像に変換できる。   In the object detection apparatus of the present invention, the video conversion unit extracts an edge feature as an image feature. With this configuration, it is possible to convert to an image that retains only the edge features used in the object detection process.

本発明の物体検出装置において、前記映像変換部は、映像に対してエンボス加工を施すことを特徴とする。この構成により、映像中のエッジ特徴を簡易に求めることができる。   In the object detection device of the present invention, the video conversion unit performs embossing on the video. With this configuration, the edge feature in the video can be easily obtained.

本発明の物体検出装置において、前記映像分割合成部は、映像を複数の短冊状の領域に分割した分割領域を合成し、分割前の映像よりも小さい合成映像を生成することを特徴とする。この構成により、検出処理時に走査する映像の大きさを小さくできるので検出処理を高速化できる。   In the object detection apparatus of the present invention, the video division / synthesis unit synthesizes divided areas obtained by dividing the video into a plurality of strip-shaped areas, and generates a synthesized video smaller than the video before the division. With this configuration, the size of the image scanned during the detection process can be reduced, so that the detection process can be speeded up.

本発明の物体検出装置において、前記映像分割合成部は、フレーム毎に分割位置が異なることを特徴とする。この構成により、映像の分割によって検出対象の物体が切れてしまうことで検出ができなくなる弊害を防ぐことができる。   In the object detection device of the present invention, the video division / synthesis unit is characterized in that a division position differs for each frame. With this configuration, it is possible to prevent the adverse effect that the detection cannot be performed because the detection target object is cut off due to the division of the video.

本発明の物体検出装置において、前記映像分割合成部は、前記分割領域をαブレンディングで合成することを特徴とする。この構成により、合成係数を調整することによって合成映像における各分割映像領域の影響度を調整することができる。   In the object detection apparatus of the present invention, the video division / synthesis unit synthesizes the divided areas by α blending. With this configuration, it is possible to adjust the degree of influence of each divided video area in the synthesized video by adjusting the synthesis coefficient.

本発明の物体検出装置において、前記映像分割合成部は、前記分割領域に含まれる画像特徴量に応じてαブレンディングの合成係数を調整して合成することを特徴とする。この構成により、画像特徴が多く含まれる映像領域の合成係数を高めることで、合成映像にしたときに画像特徴を保持した状態にできる。   In the object detection apparatus of the present invention, the video division / synthesis unit adjusts an α blending synthesis coefficient in accordance with an image feature amount included in the divided region, and synthesizes the image. With this configuration, by increasing the synthesis coefficient of a video area that includes many image features, the image features can be maintained when the composite video is created.

本発明の物体検出装置において、前記第一物体検出処理部は、前記合成映像を拡大もしくは縮小した合成映像に対して物体検出処理を行うことを特徴とする。この構成により、映像中に存在する検出対象物体の大きさの違いに対応できる。   In the object detection device of the present invention, the first object detection processing unit performs object detection processing on a composite image obtained by enlarging or reducing the composite image. With this configuration, it is possible to cope with the difference in the size of the detection target object existing in the video.

本発明の物体検出装置において、前記第一物体検出処理部は、前記映像分割合成部で分割した分割領域の大きさに基づいて前記合成映像の拡大率もしくは縮小率を決定することを特徴とする。この構成により、分割した映像領域内で存在しえない大きさの検出対象物を対象とした走査をしないので検出処理を高速化することができる。   In the object detection device of the present invention, the first object detection processing unit determines an enlargement rate or a reduction rate of the synthesized video based on the size of the divided area divided by the video division and synthesis unit. . With this configuration, since the scanning is not performed on the detection target having a size that cannot exist in the divided video area, the detection process can be speeded up.

本発明の物体検出装置において、前記第一物体検出処理部は、物体検出を行う検出判定基準を前記第二物体検出処理部とは別々に調整可能であり、前記第二物体検出処理部よりも物体であると判定しやすくなるように検出基準を調整することを特徴とする。この構成により、第一物体検出処理部では検出を粗く(検出しやすく)して合成映像上における検出漏れを防ぎ、第二物体検出処理部で検出物体が存在することを最終的に判断して誤検出を防ぐことができる。   In the object detection device of the present invention, the first object detection processing unit is capable of adjusting a detection determination criterion for performing object detection separately from the second object detection processing unit, and more suitable than the second object detection processing unit. The detection reference is adjusted so that it can be easily determined that the object is an object. With this configuration, the first object detection processing unit coarsely detects (easier to detect) to prevent omission of detection on the composite image, and the second object detection processing unit finally determines that the detection object exists. False detection can be prevented.

本発明の物体検出装置において、前記第一物体検出処理部は、前記合成映像上で画像特徴が存在する部分だけを対象に第一の物体検出処理を行うことを特徴とする。この構成により検出物体が存在しえない箇所の走査をしないので、検出処理を高速化することができる。   In the object detection apparatus of the present invention, the first object detection processing unit performs a first object detection process only on a portion where an image feature exists on the synthesized video. Since this configuration does not scan a portion where a detection object cannot exist, the detection process can be speeded up.

本発明の物体検出方法は、車両周辺の映像から画像特徴を抽出した特徴映像へと変換する映像変換ステップと、前記特徴映像を複数の領域に分割して合成する映像分割合成ステップと、前記映像分割合成ステップで合成した合成映像を走査して第一の物体検出処理を行う第一物体検出処理ステップと、前記第一物体検出処理ステップで物体が検出された合成映像上の位置を基に分割前の映像において物体が存在する可能性がある物体候補位置を求める物体候補位置指定ステップと、前記物体候補位置検出ステップで求めた物体候補位置に対して第二の物体検出処理を行い分割前の映像における物***置を特定する第二物体検出処理ステップとを備えた構成を有する。この構成によっても、上記と同様の効果を得ることができる。   The object detection method of the present invention includes a video conversion step of converting a video around a vehicle into a feature video obtained by extracting an image feature, a video division and synthesis step of dividing the feature video into a plurality of regions, and the video A first object detection processing step for performing a first object detection process by scanning the composite video synthesized in the division synthesis step, and a division based on the position on the composite video where the object is detected in the first object detection processing step An object candidate position designation step for obtaining an object candidate position where an object may exist in the previous image, and a second object detection process for the object candidate position obtained in the object candidate position detection step to And a second object detection processing step for specifying an object position in the video. With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記映像変換ステップは、画像特徴としてエッジ特徴を抽出することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the video conversion step extracts an edge feature as an image feature. With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記映像変換ステップは、映像に対してエンボス加工を施すことを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the video conversion step is characterized by embossing the video. With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記映像分割合成ステップは、映像を複数の短冊状の領域に分割した分割領域を合成し、分割前の映像よりも小さい合成映像を生成することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the video division and synthesis step is characterized in that a divided area obtained by dividing the video into a plurality of strip-shaped areas is synthesized to generate a synthesized video smaller than the video before the division. With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記映像分割合成ステップは、フレーム毎に分割位置が異なることを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the video division / synthesis step is characterized in that a division position is different for each frame. With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記映像分割合成ステップは、前記分割領域をαブレンディングで合成することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the video division and synthesis step is characterized in that the divided areas are synthesized by α blending. With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記映像分割合成ステップは、前記分割領域に含まれる画像特徴量に応じてαブレンディングの合成係数を調整して合成することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the video dividing / synthesizing step is characterized in that the image blending is performed by adjusting a blending coefficient of α blending according to an image feature amount included in the divided region. With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記第一物体検出処理ステップは、前記合成映像を拡大もしくは縮小した合成映像に対して物体検出処理を行うことを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the first object detection processing step is characterized in that object detection processing is performed on a composite video obtained by enlarging or reducing the composite video. With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記第一物体検出処理ステップは、前記映像分割合成ステップで分割した分割領域の大きさに基づいて前記合成映像の拡大率もしくは縮小率を決定することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the first object detection processing step determines an enlargement rate or a reduction rate of the synthesized video based on the size of the divided area divided in the video division and synthesis step. . With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記第一物体検出処理ステップは、物体検出を行う検出判定基準を前記第二物体検出処理ステップとは別々に調整可能であり、前記第二物体検出処理ステップよりも物体であると判定しやすくなるように検出基準を調整することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the first object detection processing step can adjust a detection determination criterion for performing object detection separately from the second object detection processing step, and is more effective than the second object detection processing step. The detection reference is adjusted so that it can be easily determined that the object is an object. With this configuration, the same effect as described above can be obtained.

本発明の物体検出方法において、前記第一物体検出処理ステップは、前記合成映像上で画像特徴が存在する部分だけを対象に第一の物体検出処理を行うことを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection method of the present invention, the first object detection processing step is characterized in that the first object detection processing is performed only for a portion where an image feature exists on the synthesized video. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムは、車両周辺の映像から画像特徴を抽出した特徴映像へと変換する映像変換機能と、前記特徴映像を複数の領域に分割して合成する映像分割合成機能と、前記映像分割合成機能で合成した合成映像を走査して第一の物体検出処理を行う第一物体検出処理機能と、前記第一物体検出処理機能で物体が検出された合成映像上の位置を基に分割前の映像において物体が存在する可能性がある物体候補位置を求める物体候補位置指定機能と、前記物体候補位置検出機能で求めた物体候補位置に対して第二の物体検出処理を行い分割前の映像における物***置を特定する第二物体検出処理機能とをコンピュータに実現させるためのプログラムである。この構成によっても、上記と同様の効果を得ることができる。   The object detection program of the present invention includes a video conversion function for converting a video around a vehicle into a feature video obtained by extracting an image feature, a video division and synthesis function for dividing the feature video into a plurality of regions, and the video A first object detection processing function that performs a first object detection process by scanning a composite image synthesized by the division composition function, and a division based on a position on the composite image where an object is detected by the first object detection processing function An object candidate position specifying function for obtaining an object candidate position where an object may exist in the previous image, and a second object detection process for the object candidate position obtained by the object candidate position detection function to A program for causing a computer to realize a second object detection processing function for specifying an object position in an image. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記映像変換機能は、画像特徴としてエッジ特徴を抽出することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the video conversion function extracts an edge feature as an image feature. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記映像変換機能は、映像に対してエンボス加工を施すことを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the video conversion function performs embossing on the video. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記映像分割合成機能は、映像を複数の短冊状の領域に分割した分割領域を合成し、分割前の映像よりも小さい合成映像を生成することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the video division / synthesis function synthesizes a divided area obtained by dividing the video into a plurality of strip-shaped areas, and generates a synthesized video smaller than the video before the division. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記映像分割合成機能は、フレーム毎に分割位置が異なることを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the video division / synthesizing function is characterized in that a division position is different for each frame. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記映像分割合成機能は、前記分割領域をαブレンディングで合成することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the video division / synthesis function synthesizes the divided areas by α blending. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記映像分割合成機能は、前記分割領域に含まれる画像特徴量に応じてαブレンディングの合成係数を調整して合成することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the video segmentation / synthesizing function adjusts a blending coefficient of α blending according to an image feature amount included in the segmented region, and synthesizes. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記第一物体検出処理機能は、前記合成映像を拡大もしくは縮小した合成映像に対して物体検出処理を行うことを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the first object detection processing function performs object detection processing on a composite video obtained by enlarging or reducing the composite video. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記第一物体検出処理機能は、前記映像分割合成機能で分割した分割領域の大きさに基づいて前記合成映像の拡大率もしくは縮小率を決定することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the first object detection processing function determines an enlargement ratio or a reduction ratio of the synthesized video based on a size of a divided area divided by the video division and synthesis function. . With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記第一物体検出処理機能は、物体検出を行う検出判定基準を前記第二物体検出処理機能とは別々に調整可能であり、前記第二物体検出処理機能よりも物体であると判定しやすくなるように検出基準を調整することを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the first object detection processing function can adjust a detection determination criterion for performing object detection separately from the second object detection processing function, The detection reference is adjusted so that it can be easily determined that the object is an object. With this configuration, the same effect as described above can be obtained.

本発明の物体検出プログラムにおいて、前記第一物体検出処理機能は、前記合成映像上で画像特徴が存在する部分だけを対象に第一の物体検出処理を行うことを特徴とする。この構成によっても、上記と同様の効果を得ることができる。   In the object detection program of the present invention, the first object detection processing function performs a first object detection process only on a portion where an image feature exists on the synthesized video. With this configuration, the same effect as described above can be obtained.

本発明によれば、画像特徴を損なわずに映像を小さくできるので、検出性能を犠牲にすることなく、検出処理時間を高速化することができる物体検出装置を提供することが可能になるという優れた効果を有する。   According to the present invention, since an image can be reduced without impairing image characteristics, it is possible to provide an object detection device that can increase the detection processing time without sacrificing detection performance. It has the effect.

本発明の実施の形態における物体検出装置の構成を示すブロック図The block diagram which shows the structure of the object detection apparatus in embodiment of this invention (a)本発明の実施の形態における映像を2分割した分割領域の一例を示す説明図 (b)本発明の実施の形態における映像を4分割した分割領域の一例を示す説明図(A) Explanatory drawing which shows an example of the divided area which divided | segmented the image | video in Embodiment of this invention into 2 (b) Explanatory drawing which shows an example of the divided area which divided | segmented the image | video in Embodiment of this invention into 4 本発明の実施の形態における分割境界線上に検出対象物体が存在する一例を示す説明図Explanatory drawing which shows an example in which a detection target object exists on the division | segmentation boundary line in embodiment of this invention (a)本発明の実施の形態の分割位置の調整におけるNフレーム目の分割の一例を示す説明図 (b)本発明の実施の形態の分割位置の調整におけるN+1フレーム目の分割の一例を示す説明図(A) Explanatory drawing which shows an example of the division of the Nth frame in the adjustment of the division position of the embodiment of the present invention (b) An example of the division of the N + 1th frame in the adjustment of the division position of the embodiment of the present invention is shown Illustration (a)本発明の実施の形態の映像分割合成における分割前の特徴映像の一例を示す説明図 (b)本発明の実施の形態の映像分割合成における分割領域と合成係数の対応の一例を示す説明図 (c)本発明の実施の形態の映像分割合成における分割領域に合成係数を乗じた一例を示す説明図 (d)本発明の実施の形態の映像分割合成における合成結果の一例を示す説明図(A) Explanatory drawing which shows an example of the characteristic image | video before a division | segmentation in the image | video division | segmentation synthesis | combination of embodiment of this invention (b) It shows an example of a response | compatibility with the division area in a video division | segmentation synthesis | combination of embodiment of this invention, and a synthetic | combination coefficient. Explanatory drawing (c) Explanatory drawing which shows an example which multiplied the synthetic | combination coefficient in the division | segmentation area | region in the video division | segmentation synthesis | combination of embodiment of this invention (d) Explanation which shows an example of the synthetic | combination result in the video division | segmentation synthesis | combination of embodiment of this invention Figure (a)本発明の実施の形態の拡大縮小処理における拡大縮小前の映像の一例を示す説明図 (b)本発明の実施の形態の拡大縮小処理における物体検出可能な物体の大きさの一例を示す説明図 (c)本発明の実施の形態の映像分割合成における大きさ合わせの説明図(A) Explanatory drawing which shows an example of the image before the expansion / reduction in the enlargement / reduction process of the embodiment of the present invention (b) An example of the size of the object which can be detected in the enlargement / reduction process of the embodiment of the present invention Explanatory diagram showing (c) explanatory diagram of size matching in the video division synthesis of the embodiment of the present invention (a)本発明の実施の形態における2分割時の分割領域の一例を示す説明図 (b)本発明の実施の形態における2分割時の分割領域の縦横比率を示す説明図(A) Explanatory drawing which shows an example of the division area at the time of 2 division in embodiment of this invention (b) Explanatory drawing which shows the aspect ratio of the division area at the time of 2 division in embodiment of this invention (a)本発明の実施の形態における4分割時の分割領域の一例を示す説明図 (b)本発明の実施の形態における4分割時の分割領域の縦横比率を示す説明図(A) Explanatory drawing which shows an example of the division area at the time of 4 division in embodiment of this invention (b) Explanatory drawing which shows the aspect ratio of the division area at the time of 4 division in embodiment of this invention (a)本発明の実施の形態における分割時の分割領域の一例を示す説明図 (b)本発明の実施の形態における8分割時の分割領域の縦横比率を示す説明図(A) Explanatory drawing which shows an example of the division area at the time of the division | segmentation in embodiment of this invention (b) Explanatory drawing which shows the aspect ratio of the division area at the time of the eight division | segmentation in embodiment of this invention 本発明の実施の形態における分割数と拡大縮小倍率の関係の一例を示す説明表An explanatory table showing an example of the relationship between the number of divisions and the enlargement / reduction ratio in the embodiment of the present invention 本発明の実施の形態における合成映像上での画像特徴量判定処理の一例を示す説明図Explanatory drawing which shows an example of the image feature-value determination process on the synthetic | combination video in embodiment of this invention (a)本発明の実施の形態における4分割時の分割領域の一例を示す説明図 (b)本発明の実施の形態における合成映像の一例を示す説明図 (c)本発明の実施の形態における合成映像上での検出結果位置の一例を示す説明図 (d)本発明の実施の形態における分割前の映像上での物体候補位置の一例を示す説明図(A) Explanatory drawing which shows an example of the division | segmentation area | region at the time of 4 division in embodiment of this invention (b) Explanatory drawing which shows an example of the synthetic | combination image | video in embodiment of this invention (c) In embodiment of this invention Explanatory drawing which shows an example of the detection result position on a synthetic | combination image | video (d) Explanatory drawing which shows an example of the object candidate position on the image | video before a division | segmentation in embodiment of this invention (a)本発明の実施の形態における合成映像上での検出結果位置の座標の一例を示す説明図 (b)本発明の実施の形態における分割前の映像上での物体候補位置の座標の一例を示す説明図(A) Explanatory drawing which shows an example of the coordinate of the detection result position on the synthetic | combination image in embodiment of this invention (b) An example of the coordinate of the object candidate position on the image | video before a division | segmentation in embodiment of this invention Explanatory drawing showing (a)本発明の実施の形態の第二の物体検出処理における物体候補位置の一例を示す説明図 (b)本発明の実施の形態の第二の物体検出処理における検出結果の一例を示す説明図(A) Explanatory drawing which shows an example of the object candidate position in the 2nd object detection process of embodiment of this invention (b) Explanation which shows an example of the detection result in the 2nd object detection process of embodiment of this invention Figure 本発明の実施の形態における物体検出装置の動作を示すフロー図The flowchart which shows operation | movement of the object detection apparatus in embodiment of this invention.

以下、本発明の実施形態における物体検出装置について、図面を参照して説明する。   Hereinafter, an object detection apparatus according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係る物体検出装置の構成を示すブロック図である。物体検出装置10は、外部より入力される映像を、その映像から画像特徴を抽出した特徴映像に変換する映像変換部20と、特徴映像を複数の領域に分割した分割領域を合成して合成画像を生成する映像分割合成部30と、合成映像から物体検出を行う第一物体検出処理部40と、第一物体検出処理部40の検出結果から分割前の映像において物体が存在する可能性がある物体候補位置を求める物体候補位置指定部50と、分割前の映像上の物体候補位置に対して物体検出を行う第二物体検出処理部60とを備える。   FIG. 1 is a block diagram showing a configuration of an object detection apparatus according to an embodiment of the present invention. The object detection device 10 synthesizes a composite image by combining a video conversion unit 20 that converts a video input from the outside into a feature video obtained by extracting image features from the video, and a divided region obtained by dividing the feature video into a plurality of regions. There is a possibility that an object exists in the video before the division from the detection result of the video division / combination unit 30 that generates the image, the first object detection processing unit 40 that performs object detection from the composite video, and the detection result of the first object detection processing unit 40. An object candidate position specifying unit 50 for obtaining an object candidate position, and a second object detection processing unit 60 for performing object detection on the object candidate position on the video before division.

外部より入力される映像は、例えば車両前側または後側のナンバープレート近くの所定位置に所定角度で取り付けられた車載カメラにより車両周辺を撮影した映像である。   The image input from the outside is, for example, an image obtained by photographing the periphery of the vehicle with a vehicle-mounted camera attached at a predetermined angle near a license plate on the front or rear side of the vehicle.

映像変換部20は、外部より入力される映像を基に、画像特徴を映像上で抽出する映像変換処理を行う。本実施の形態では、外部より入力される映像に対してエンボス処理を行い、画像特徴としてエッジ特徴を抽出するものとし、後段の処理でエッジ特徴に注目した処理を行なっているが、本発明で対象とする画像特徴はエッジ特徴に限定されない。例えば、道路上の標識や信号機を検出する目的においては、画像特徴として特定の色を抽出する処理を行うことが有効である。また、本発明ではエッジ特徴を抽出する処理としてエンボス処理を行うが、エッジ特徴を抽出する映像変換処理もこれに限るものではない。例えば、エッジ特徴を抽出する手段としてはソーベルフィルタやCanny法を利用してもよい。   The video conversion unit 20 performs video conversion processing for extracting image features on the video based on the video input from the outside. In the present embodiment, emboss processing is performed on video input from the outside, and edge features are extracted as image features, and processing focusing on edge features is performed in subsequent processing. The target image feature is not limited to the edge feature. For example, for the purpose of detecting signs and traffic lights on the road, it is effective to perform a process of extracting a specific color as an image feature. In the present invention, emboss processing is performed as processing for extracting edge features, but video conversion processing for extracting edge features is not limited to this. For example, as a means for extracting the edge feature, a Sobel filter or the Canny method may be used.

映像分割合成部30は、映像分割部31、分割領域特徴量判定部32、合成係数調整部33、及び映像合成部34を備える。映像分割部31は、特徴映像を複数の領域に分割する。分割領域特徴判定部32は、映像分割部31で分割された各分割領域内に存在する画像特徴量を求める。合成係数調整部33は、分割領域特徴量判定部32で求めた各分割領域の画像特徴量を基に各領域に対応する合成係数を求める。映像合成部34は、映像分割部31で分割された各分割領域に対して合成係数調整部33で求めた合成係数を乗じ、全ての分割領域を合成した合成映像を生成する。このとき、合成映像は分割前の映像よりも小さくなる。   The video division / synthesis unit 30 includes a video division unit 31, a divided region feature amount determination unit 32, a synthesis coefficient adjustment unit 33, and a video synthesis unit 34. The video dividing unit 31 divides the feature video into a plurality of areas. The divided region feature determination unit 32 obtains an image feature amount existing in each divided region divided by the video dividing unit 31. The synthesis coefficient adjustment unit 33 obtains a synthesis coefficient corresponding to each region based on the image feature amount of each divided region obtained by the divided region feature amount determination unit 32. The video composition unit 34 multiplies each of the divided areas divided by the video division unit 31 by the synthesis coefficient obtained by the synthesis coefficient adjustment unit 33 to generate a synthesized video in which all the divided areas are synthesized. At this time, the synthesized video is smaller than the video before division.

第一物体検出処理部40は、映像拡大縮小部41、合成映像特徴量判定部42、合成映像物体検出部43を備える。映像拡大縮小部41は、合成映像を拡大または縮小する。ここでの拡大縮小処理は、映像上における物体検出対象の大きさの違いに対応するための処理であり、物体検出処理の高速化を目的としたものではない。例えば、物体検出対象がカメラから近距離に存在すれば物体は映像中で大きく映る。逆に物体が遠距離に存在すれば小さく映る。物体検出ではこのように生じる映像中における物体の大きさによらず同一の処理で物体検出処理を行うため、物体が大きく映っているときは映像を縮小し、小さく映っているときは映像を拡大して大きさの正規化を行い、そのうえで物体検出処理を行うのが常套手段である。合成映像特徴量判定部42は、映像拡大縮小部41から出力される映像上で画像特徴が存在する箇所を特定する。合成映像物体検出部43は、映像拡大縮小部41から出力される映像上で、合成映像特徴量判定部42で画像特徴が存在するとした合成映像中の箇所に対して物体検出処理を行う(この物体検出処理を「第一の物体検出処理」という。)。画像特徴が存在しない箇所はそもそも検出対象物体が存在しないため、あらかじめ除外しておくことで物体検出処理の高速化が期待できる。   The first object detection processing unit 40 includes a video enlargement / reduction unit 41, a composite video feature amount determination unit 42, and a composite video object detection unit 43. The video enlargement / reduction unit 41 enlarges or reduces the composite video. The enlargement / reduction process here is a process for dealing with the difference in the size of the object detection target on the video, and is not intended to speed up the object detection process. For example, if the object detection target exists at a short distance from the camera, the object will appear large in the video. Conversely, if an object exists at a long distance, it appears small. In object detection, object detection processing is performed with the same processing regardless of the size of the object in the image generated in this way, so the image is reduced when the object is large and enlarged when it is small It is a common practice to normalize the size and then perform the object detection process. The composite video feature amount determination unit 42 identifies a location where an image feature exists on the video output from the video enlargement / reduction unit 41. The composite video object detection unit 43 performs object detection processing on the portion of the composite video in which an image feature is present in the composite video feature amount determination unit 42 on the video output from the video enlargement / reduction unit 41 (this The object detection process is referred to as “first object detection process”). Since there is no detection target object in the first place where there is no image feature, it can be expected to speed up the object detection process by excluding it in advance.

物体候補位置指定部50は、第一物体検出処理部40で物体検出された合成映像上の位置が、分割前の映像上のどこに該当するかを求める。例えば、合成映像が2つの領域を合成していたとき、合成映像上で1つの物体が検出されれば、分割前の映像上で物体が存在する可能性がある位置は2箇所となる。   The object candidate position specifying unit 50 determines where the position on the composite image detected by the first object detection processing unit 40 corresponds to the image before the division. For example, when a composite video combines two regions, if one object is detected on the composite video, there are two positions where an object may exist on the video before division.

第二物体検出処理部60は、分割前の映像上で物体候補位置指定部50において指定された位置のみを対象に物体検出を行い、最終的な物体検出結果を得る(この物体検出処理を「第二の物体検出処理」という。)。   The second object detection processing unit 60 performs object detection only on the position designated by the object candidate position designation unit 50 on the video before division, and obtains a final object detection result (this object detection processing is performed as “ "Second object detection process").

以上が本発明の一実施形態に係る物体検出装置の構成と、処理の流れの説明である。   The above is the description of the configuration of the object detection device and the processing flow according to the embodiment of the present invention.

次に、映像分割合成部30、第一物体検出処理部40、物体候補位置指定部50、第二物体検出処理部60の一連の処理について、図面を参照して詳細に説明する。   Next, a series of processes of the video division / synthesis unit 30, the first object detection processing unit 40, the object candidate position specifying unit 50, and the second object detection processing unit 60 will be described in detail with reference to the drawings.

映像分割部31で特徴映像を複数の領域に分割する例を図2に示す。図2(a)は映像を2つの領域に分割した例、(b)は4つの領域に分割した例を示している。この後の映像合成を考慮し、分割後の領域はそれぞれ同じ大きさであることが望ましいが、必ずしも同じである必要はない。また、分割数が大きいほど高速化の効果は大きくなる。具体的には、2分割の場合は分割なしの場合と比較して約1/2の処理時間、4分割の場合は約1/4の処理時間となる。ここでは、4分割を例にとって説明する。   An example in which the feature image is divided into a plurality of regions by the image dividing unit 31 is shown in FIG. FIG. 2A shows an example in which the video is divided into two areas, and FIG. 2B shows an example in which the video is divided into four areas. In consideration of the subsequent video composition, it is desirable that the divided areas have the same size, but they do not necessarily have to be the same. The effect of speeding up increases as the number of divisions increases. Specifically, in the case of two divisions, the processing time is about ½ compared to the case without division, and in the case of four divisions, the processing time is about ¼. Here, a description will be given by taking four divisions as an example.

図3は、映像を分割にした場合に生じる課題を示したものである。今、図3の映像上には被写体Aと被写体Bの2つが存在している。映像を4分割したとき、被写体Bは領域3に収まるが、被写体Aは領域1と領域2に分割されてしまう。このように被写体が複数の領域に分割されてしまうと後段の検出処理が困難になる。このとき、被写体Aの位置が時間的に変化しない場合には被写体Aが現在から未来において検出されないという課題を生じる。   FIG. 3 shows a problem that occurs when a video is divided. Now, there are two subjects A and B on the image of FIG. When the image is divided into four parts, the subject B fits in the region 3, but the subject A is divided into the region 1 and the region 2. If the subject is divided into a plurality of areas in this way, subsequent detection processing becomes difficult. At this time, when the position of the subject A does not change with time, there arises a problem that the subject A is not detected from the present to the future.

この課題に対して、本実施の形態では図4のようにフレームごとに分割位置が互い違いになる位置になるように調整する。これにより、Nフレーム目には被写体Bが検出でき、N+1フレーム目には被写体Aが検出できる。なお、図4(b)の領域1〜3に含まれない左右の領域は後段の検出処理には使用していない。   In order to deal with this problem, in the present embodiment, adjustment is performed so that the division positions are staggered for each frame as shown in FIG. Thereby, the subject B can be detected in the Nth frame, and the subject A can be detected in the N + 1th frame. Note that the left and right regions that are not included in the regions 1 to 3 in FIG. 4B are not used in the subsequent detection process.

次に、分割領域特徴量判定部32について説明する。ここでの特徴量判定は、映像分割部41で分割された各分割領域にそれぞれどの程度の画像特徴が存在しているかをカウントする。本実施の形態では画像特徴としてエッジ特徴を用いる。エッジ量のカウント手段としては各種存在するが、本発明はその手段について限定するものではない。例えば、単純にエッジが存在する画素数や、エッジが存在する画素のエッジの大きさの総和をエッジ量としてカウントしてよい。あるいは、検出対象物体において特定の方向のエッジが多いとあらかじめ分かっているならば、特定の方向のエッジだけを対象にカウントする手段も有効である。また、本実施の形態ではエッジ特徴を対象にしているが、他の画像特徴を判定する処理に置き換えることも可能である。例えば、特定色の有無を判定してもよいし、一定以上の明るさの有無を判定するような処理でもよい。   Next, the divided region feature amount determination unit 32 will be described. The feature amount determination here counts how many image features exist in each divided area divided by the video dividing unit 41. In this embodiment, edge features are used as image features. There are various edge amount counting means, but the present invention is not limited to such means. For example, the number of pixels having an edge or the sum of the sizes of the edges of pixels having an edge may be counted as the edge amount. Alternatively, if it is known in advance that there are many edges in a specific direction in the detection target object, means for counting only edges in a specific direction is also effective. Further, although the edge feature is targeted in this embodiment, it can be replaced with a process for determining another image feature. For example, the presence / absence of a specific color may be determined, or processing for determining the presence / absence of a certain level of brightness or more may be performed.

合成係数調整部33は、分割領域特徴量判定部32で求めた各分割領域の画像特徴量に基づいて各領域の合成係数を算出する。本実施の形態の第一の物体検出処理はエッジ特徴に基づくため、映像を合成する際にはエッジが存在する領域の合成係数を大きく、エッジが存在しない領域の合成係数を小さくする。このような合成係数を算出する方法として一例を挙げると、領域1のエッジ量をE1、領域2のエッジ量をE2、領域3のエッジ量をE3、領域4のエッジ量をE4としたとき、領域1〜4の合成係数M1〜M4は下式のように求めることができる。

Figure 2012185555
Figure 2012185555
Figure 2012185555
Figure 2012185555
なお、合成係数の総和が1になるような算出方法であれば、上記の計算式に限定されるものではない。 The synthesis coefficient adjustment unit 33 calculates a synthesis coefficient of each region based on the image feature amount of each divided region obtained by the divided region feature amount determination unit 32. Since the first object detection process of the present embodiment is based on edge features, when a video is synthesized, the synthesis coefficient of the area where the edge exists is increased, and the synthesis coefficient of the area where the edge does not exist is reduced. As an example of a method for calculating such a synthesis coefficient, when the edge amount of region 1 is E1, the edge amount of region 2 is E2, the edge amount of region 3 is E3, and the edge amount of region 4 is E4, The synthesis coefficients M1 to M4 of the regions 1 to 4 can be obtained as in the following formula.
Figure 2012185555
Figure 2012185555
Figure 2012185555
Figure 2012185555
Note that the calculation method is not limited to the above calculation formula as long as the total sum of the synthesis coefficients is 1.

映像合成部34は、合成係数調整部33で求めた合成係数M1〜M4を用いて、映像分割部31で分割した4つの分割領域を合成して、1つの合成映像を生成する。この合成は、合成係数M1〜M4に従った割合で複数の分割領域の重ねあわせを行なうものであり、αブレンディングと呼ばれる。図5は映像合成を説明する図である。図5(a)は映像分割前の特徴映像であり、図5(b)は映像分割部31で特徴映像を4分割した4つの分割領域と、分割領域特徴量判定部32および合成係数調整部33で求めた各分割領域に対応する合成係数M1〜M4を示している。ここで、合成係数M1〜M4の関係はエッジ量の大きさに比例するので、M3が一番大きく、次に大きいのがM1とM4でほぼ同じ大きさであり、一番小さいのがM2となる。このような大きさの関係にある合成係数を各分割領域に乗じたイメージが図5(c)となる。最後に合成係数を乗じた各領域を合成したのが図5(d)であり、最終的な合成映像としてはエッジ量が最も多い領域3が一番鮮明に残った形で合成されることになる。このようにエッジ量によって合成係数を調整することで、複数の分割領域を合成しても第一の物体検出に必要な画像特徴を残すことができる。   The video synthesis unit 34 uses the synthesis coefficients M1 to M4 obtained by the synthesis coefficient adjustment unit 33 to synthesize the four divided areas divided by the video division unit 31 to generate one synthesized video. This synthesis is performed by superimposing a plurality of divided areas at a rate according to the synthesis coefficients M1 to M4, and is called α blending. FIG. 5 is a diagram for explaining video composition. FIG. 5A shows a feature image before image division, and FIG. 5B shows four divided regions obtained by dividing the feature image into four by the image dividing unit 31, a divided region feature amount determining unit 32, and a synthesis coefficient adjusting unit. The synthesis coefficients M1 to M4 corresponding to the respective divided areas obtained in 33 are shown. Here, since the relationship between the synthesis coefficients M1 to M4 is proportional to the size of the edge amount, M3 is the largest, the next largest is M1 and M4, which is substantially the same size, and the smallest is M2. Become. FIG. 5C shows an image obtained by multiplying each divided region by a synthesis coefficient having such a size relationship. Finally, each region multiplied by the synthesis coefficient is synthesized as shown in FIG. 5D, and as the final synthesized video, the region 3 having the largest edge amount is synthesized in the form that remains the clearest. Become. By adjusting the synthesis coefficient according to the edge amount in this way, it is possible to leave an image feature necessary for the first object detection even if a plurality of divided regions are synthesized.

以上、映像分割合成部30について説明した。次に、第一物体検出処理部40について説明する。   Heretofore, the video division / synthesis unit 30 has been described. Next, the first object detection processing unit 40 will be described.

映像拡大縮小部41は、後段の合成画像物体検出部43に映像を出力するにあたって合成映像を拡大または縮小する。なお、映像を拡大または縮小する理由は前述したとおり、検出対象物体の映像上における大きさの違いに対応するためであり、高速化のためではない。次に、映像の分割数と拡大縮小の関係について説明する。まず、拡大縮小処理の基本概念について図6を用いて説明する。なお、以下の説明では、説明を具体化する目的で適宜数値を記載するが、本実施の形態はこれに限定されるものではない。   The video enlargement / reduction unit 41 enlarges or reduces the composite video when outputting the video to the subsequent composite image object detection unit 43. As described above, the reason for enlarging or reducing the image is to cope with the difference in size of the detection target object on the image, not for speeding up. Next, the relationship between the number of video divisions and enlargement / reduction will be described. First, the basic concept of the enlargement / reduction process will be described with reference to FIG. In the following description, numerical values are appropriately described for the purpose of embodying the description, but the present embodiment is not limited to this.

分割前の映像の大きさを水平640画素、垂直480画素とする(図6(a))。また、第一の物体検出処理で検出可能な物体の大きさを水平64画素、垂直128画素とする(図6(b))。図6(c)に図示したように、拡大縮小処理とは、もともと映像上に撮影される様々な大きさの被写体を、第一の物体検出処理が対応できる大きさ相当に拡大または縮小して大きさを合わせる処理となる。つまり、拡大縮小によって映像中の検出対象の物体の大きさが水平64画素、垂直128画素相当になれば検出可能となる。実際には映像中の検出対象物体の大きさがあらかじめ分からないので、拡大もしくは縮小の倍率をかえて複数回行うことになる。   The size of the video before the division is set to 640 pixels horizontally and 480 pixels vertically (FIG. 6A). In addition, the size of an object that can be detected by the first object detection processing is 64 pixels horizontal and 128 pixels vertical (FIG. 6B). As shown in FIG. 6C, the enlargement / reduction process is performed by enlarging or reducing an object of various sizes originally captured on a video image to a size corresponding to the first object detection process. It becomes processing to match the size. That is, if the size of the object to be detected in the video is equivalent to 64 pixels horizontally and 128 pixels vertically due to enlargement / reduction, detection is possible. Actually, since the size of the object to be detected in the video is not known in advance, it is performed a plurality of times while changing the enlargement or reduction magnification.

続いて、拡大縮小処理の拡大率および縮小率の限界値を考える。一般的に拡大率が大きすぎると拡大処理に伴って映像の鮮明度が低下するため、第一の物体検出処理にはおのずと限界が生じる。ここでは説明のために限界を拡大率10倍とする。また、縮小率については拡縮前の映像の大きさと、第一の物体検出処理が対応できる大きさの関係によって求まる。図6の例では、拡縮前の垂直サイズ480画素を128画素に縮小するときが取りうる最小の縮小率となるためその倍率は0.27倍となる。つまり、映像分割がない場合は、拡大縮小前の映像に対し、倍率0.27〜10倍の範囲で拡大縮小(1以下の場合は縮小)することになる。   Next, the enlargement ratio of the enlargement / reduction process and the limit value of the reduction ratio are considered. In general, when the enlargement ratio is too large, the sharpness of the image is reduced along with the enlargement process, and thus the first object detection process naturally has a limit. Here, for the sake of explanation, the limit is assumed to be 10 times magnification. Further, the reduction ratio is obtained from the relationship between the size of the video before enlargement and reduction and the size that can be handled by the first object detection process. In the example of FIG. 6, since the minimum reduction rate that can be taken when the vertical size 480 pixels before scaling is reduced to 128 pixels, the magnification is 0.27 times. That is, when there is no video division, the video before enlargement / reduction is enlarged / reduced in the range of magnification 0.27 to 10 times (reduced when it is 1 or less).

次に、映像を分割したときの拡大率および縮小率の限界について図7〜図9を参照しながら説明する。   Next, the limit of the enlargement ratio and reduction ratio when the video is divided will be described with reference to FIGS.

図7は2分割の例を示したものであり、図7(a)は2分割時の分割領域例、図7(b)は各分割領域の縦横比をそれぞれ示したものである。2分割時の縦横比は横0.67に対し縦1となる(以下では0.67:1のように表記する)。一方で、第一の物体検出処理が対応できる大きさが水平64画素、垂直128画素のとき縦横比は0.5:1であり、かつ前述したように映像分割がない場合の倍率範囲は垂直画素数によって規定されたので、2分割時も分割がない場合と同様に倍率値は0.27〜10の範囲を取る。   FIG. 7 shows an example of two divisions. FIG. 7A shows an example of divided areas when divided into two, and FIG. 7B shows the aspect ratio of each divided area. The aspect ratio at the time of the division into two is 1 for the horizontal 0.67 (hereinafter expressed as 0.67: 1). On the other hand, when the size that can be handled by the first object detection process is 64 pixels horizontally and 128 pixels vertically, the aspect ratio is 0.5: 1, and the magnification range when there is no image division as described above is vertical. Since it is defined by the number of pixels, the magnification value ranges from 0.27 to 10 as in the case where there is no division even when dividing into two.

図8は4分割の例を示したものであり、図8(a)は4分割時の分割領域例、図8(b)は各分割領域の縦横比をそれぞれ示したものである。4分割時の縦横比は0.33:1となる。このとき、第一の物体検出処理が対応できる対象物体の縦横比より水平の比率が小さくなるので、最小倍率は水平画素数により規定される。すなわち、合成映像の水平サイズ160画素を64画素に縮小するときが最小の縮小率となるためその倍率は0.4倍となる。よって、4分割時の取りうる倍率は0.4〜10となる。   FIG. 8 shows an example of four divisions, FIG. 8A shows an example of divided areas when dividing into four parts, and FIG. 8B shows the aspect ratio of each divided area. The aspect ratio at the time of four divisions is 0.33: 1. At this time, since the horizontal ratio is smaller than the aspect ratio of the target object that can be handled by the first object detection process, the minimum magnification is defined by the number of horizontal pixels. That is, when the horizontal size of the synthesized video is reduced from 160 pixels to 64 pixels, the minimum reduction ratio is obtained, and the magnification is 0.4 times. Therefore, the magnification that can be taken when dividing into four is 0.4-10.

図9は8分割の例を示したものであり、図9(a)は8分割時の分割領域例、図9(b)は各領域の縦横比をそれぞれ示したものである。8分割時の縦横比は0.17:1となる。このとき、第一の物体検出処理が対応できる対象物体の縦横比より水平の比率が小さくなるので、最小倍率は水平画素数により規定される。すなわち、合成映像の水平サイズ80画素を64画素に縮小するときが最小の縮小率となるためその倍率は0.8倍となる。よって、8分割時の取りうる倍率は0.8〜10となる。   FIG. 9 shows an example of 8 divisions, FIG. 9A shows an example of divided areas at the time of 8 divisions, and FIG. 9B shows the aspect ratio of each area. The aspect ratio in 8 divisions is 0.17: 1. At this time, since the horizontal ratio is smaller than the aspect ratio of the target object that can be handled by the first object detection process, the minimum magnification is defined by the number of horizontal pixels. That is, since the minimum reduction ratio is obtained when the horizontal size of the synthesized video is reduced from 80 pixels to 64 pixels, the magnification is 0.8. Therefore, the magnification that can be taken in 8 divisions is 0.8-10.

ここまで説明した各分割数で取りうる倍率をまとめると、分割をしない時は0.27〜10倍、2分割時は0.27〜10倍、4分割時は0.4〜10倍、8分割時は0.8〜10倍となる。同じ倍率はいずれかの分割時に検出対象とすればよいので重複分を削除することができ、かつ、分割数が多いほど検出の高速化が可能であることを考慮すると、各分割数と取りうる倍率の関係は図10のようにまとめられる。このように、分割数と拡大縮小の倍率を組み合わせて拡大縮小処理を実施することで検出処理を高速化することができる。   Summarizing the magnifications that can be obtained for each division number described so far, 0.27 to 10 times when division is not performed, 0.27 to 10 times when division is performed, 0.4 to 10 times when division is performed, 4 to 10 times when division is performed, 8 At the time of division, it becomes 0.8 to 10 times. Considering that the same magnification can be used as a detection target in any of the divisions, so that duplicates can be deleted, and that the higher the number of divisions, the faster the detection can be. The relationship of magnification is summarized as shown in FIG. In this way, the detection process can be speeded up by performing the enlargement / reduction process by combining the number of divisions and the enlargement / reduction ratio.

次に合成映像特徴量判定部42について図11を参照して説明する。ここでの判定処理は、映像拡大縮小部41で拡大縮小された合成映像上において、第一の物体検出処理が検出可能な大きさの枠(例えば水平64画素、垂直128画素の検出対象枠)内にどの程度の画像特徴が存在しているかをカウントする。本実施の形態ではエッジ特徴を対象とし、エッジのカウント方法は分割領域特徴量判定部32と同様であるので説明は割愛する。   Next, the composite video feature amount determination unit 42 will be described with reference to FIG. The determination process here is a frame of a size that can be detected by the first object detection process (for example, a detection target frame of 64 horizontal pixels and 128 vertical pixels) on the composite image enlarged and reduced by the image enlargement / reduction unit 41. It counts how many image features are present. In the present embodiment, the edge feature is targeted, and the edge counting method is the same as that of the divided region feature amount determination unit 32, so the description is omitted.

合成映像物体検出部43は、合成映像に対して第一の物体検出処理を行う。物体検出処理は、合成映像上でラスタ走査し、検出対象枠内に検出対象物体が存在するかを判定する処理となる。このとき、ラスタ走査において全ての検出対象枠で検出処理を行うのではなく、合成映像特徴量判定部42の結果を用いて検出処理を行うかどうかを判断する。すなわち、検出対象枠内に画像特徴が存在しない場合は物体が存在しえないので、検出処理を行わずに走査を進めることで全体の検出処理を高速化する。画像特徴が存在するかどうかの判定は、閾値を適宜に設定して一定以上の画像特徴が存在する場合にのみ検出処理を行うようにする。   The composite video object detection unit 43 performs a first object detection process on the composite video. The object detection process is a process of performing raster scanning on the synthesized video and determining whether a detection target object exists within the detection target frame. At this time, it is determined whether or not to perform the detection process using the result of the composite video feature amount determination unit 42 instead of performing the detection process for all detection target frames in the raster scanning. That is, when there is no image feature in the detection target frame, no object can exist, and thus the entire detection process is speeded up by performing scanning without performing the detection process. Whether or not an image feature exists is determined by performing a detection process only when a threshold value is appropriately set and an image feature exceeding a certain level is present.

本実施の形態における物体検出処理は、エッジ特徴をベースにした物体検出手法を用いる。エッジ特徴を使う手法としては、エッジの強度と方向を用いるHOG(Histogram of Oriented Gradient)特徴を利用した手法が一般的であり、本発明にも適用できる。また、HOG特徴を利用した手法に限らず、エッジ特徴を用いる物体検出ならばいずれも適用が可能である。また、本発明においては画像特徴としてエッジ特徴以外のものでも適用可能である。   The object detection process in this embodiment uses an object detection method based on edge features. As a method using an edge feature, a method using a HOG (Histogram of Oriented Gradient) feature that uses the strength and direction of an edge is common, and can be applied to the present invention. Further, the present invention is not limited to the method using the HOG feature, and any object detection using the edge feature can be applied. In the present invention, an image feature other than an edge feature can be applied.

次に、物体候補位置指定部50について図12を参照して説明する。図12(a)は特徴映像を4分割した例、図12(b)は4分割した映像を合成した合成映像、図12(c)は合成映像上で第一の物体検出処理を行った結果、図12(d)は第一の物体検出処理より分割前の映像上における物体候補位置を指定した結果である。物体候補位置の個数は分割数と同じ数になり、図12の例では4分割した合成映像を使って第一の物体検出処理を行っているので、分割前の映像上における物体候補位置は4つとなる。また、物体候補位置の座標位置は、図13に示すように、合成映像上における検出結果位置から一意に求めることができる。図13(a)は、合成映像上の検出結果座標を図示しており、合成映像の左上を座標(0,0)としたとき、検出結果枠の左上座標を(xs,ys)、右下座標を(xe,ye)とする。図13(b)は、図13(a)の検出結果座標に対応する物***置候補座標を図示しており、映像の左上を座標(0,0)としたとき物***置候補1の左上座標は(xs,ys)、右下座標は(xe,ye)、物***置候補2の左上座標は(xs+160,ys+160)、右下座標は(xe+160,ye+160)、物***置候補3の左上座標は(xs+320,ys+320)、右下座標は(xe+320,ye+320)、物***置候補4の左上座標は(xs+480,ys+480)、右下座標は(xe+480,ye+480)となる。   Next, the object candidate position designation unit 50 will be described with reference to FIG. 12A shows an example in which the feature video is divided into four parts, FIG. 12B shows a composite video in which the four video parts are combined, and FIG. 12C shows the result of the first object detection process performed on the composite video. FIG. 12D shows the result of specifying the object candidate position on the video before the division by the first object detection process. The number of object candidate positions is the same as the number of divisions. In the example of FIG. 12, the first object detection process is performed using the composite image divided into four, so the object candidate positions on the image before division are four. Become one. Further, as shown in FIG. 13, the coordinate position of the object candidate position can be uniquely obtained from the detection result position on the synthesized video. FIG. 13A illustrates the detection result coordinates on the synthesized video. When the upper left corner of the synthesized video is the coordinate (0, 0), the upper left coordinate of the detection result frame is (xs, ys), and the lower right corner. The coordinates are (xe, ye). FIG. 13B illustrates object position candidate coordinates corresponding to the detection result coordinates of FIG. 13A, and the upper left coordinates of the object position candidate 1 when the upper left corner of the image is the coordinates (0, 0). (Xs, ys), the lower right coordinates are (xe, ye), the upper left coordinates of the object position candidate 2 are (xs + 160, ys + 160), the lower right coordinates are (xe + 160, ye + 160), and the upper left coordinates of the object position candidate 3 are (xs + 320). , Ys + 320), the lower right coordinates are (xe + 320, ye + 320), the upper left coordinates of the object position candidate 4 are (xs + 480, ys + 480), and the lower right coordinates are (xe + 480, ye + 480).

次に、第二物体検出処理部60について図14を参照して説明する。図14(a)は物体候補位置、図14(b)は最終的な検出結果の位置を示している。第二の物体検出処理は、物体候補位置指定部50で指定した物体候補位置に対して物体検出処理を行い、最終的な物体検出結果を求める。ここでは、既に検出処理を行う座標位置が指定されているため合成映像物体検出部43で行ったようなラスタ走査の必要はない。また、物体検出処理については合成映像物体検出部43と同様にエッジ特徴をベースにした物体検出手法を用いる。用いる手法としては合成映像物体検出部43と同じ検出手法でもよいし、異なっていてもよい。さらに、合成映像物体検出部43と第二物体検出処理部60における物体検出の精度を変えてもよい。この場合、合成映像物体検出部43よりも第二物体検出処理部60の検出精度をより厳密にしておくとよい。合成部映像物体検出部43は第二物体検出処理部60と比較して処理量が多いので誤検出を多少許容する程度の簡易的な物体検出を行い、物体候補が限定されて処理量が少ない第二の物体検出処理で誤検出を除外し確実に検出対象物体だけを検出結果とする。これによって、検出精度を落とさずに検出処理の高速化が実現できる。   Next, the second object detection processing unit 60 will be described with reference to FIG. FIG. 14A shows the object candidate position, and FIG. 14B shows the position of the final detection result. In the second object detection process, an object detection process is performed on the object candidate position specified by the object candidate position specifying unit 50 to obtain a final object detection result. Here, since the coordinate position for performing the detection process has already been specified, there is no need for raster scanning as performed by the composite video object detection unit 43. As for the object detection process, an object detection method based on edge features is used as in the case of the composite video object detection unit 43. The method used may be the same detection method as that of the composite video object detection unit 43 or may be different. Further, the accuracy of object detection in the composite video object detection unit 43 and the second object detection processing unit 60 may be changed. In this case, it is preferable that the detection accuracy of the second object detection processing unit 60 is made stricter than the synthesized video object detection unit 43. Since the synthesis unit video object detection unit 43 has a larger processing amount than the second object detection processing unit 60, it performs simple object detection to the extent that some erroneous detection is allowed, the object candidates are limited, and the processing amount is small. In the second object detection process, erroneous detection is excluded and only the detection target object is reliably set as the detection result. As a result, the detection process can be speeded up without degrading the detection accuracy.

図15は、上記の物体検出装置100を用いて車両周辺の映像に基づいて車両付近の物体を検出する物体検出方法のフロー図である。図15のフロー図は、入力された1フレームの映像に対する処理であり、映像が連続的に入力される場合には、各フレームについて図15のフローが繰り返される。映像変換部20は、映像が入力されると、その映像を、その映像から画像特徴を抽出した特徴映像に変換する(ステップS151)。次に映像分割部31は、特徴映像を複数の分割領域に分割する(ステップS152)。そして、分割領域特徴量判定部32が、各分割領域について、その特徴量を判定する(ステップS153)。続いて、合成係数調整部33が、分割領域特徴量判定部32で求めた各分割領域の画像特徴量に基づいて各分割領域の合成係数を算出する(ステップS154)。次に、映像合成部34は、合成係数調整部33で求めた合成係数を用いて、映像分割部31で分割した分割領域に対してαブレンディングによる合成をして、1つの合成映像を生成する(ステップS155)。   FIG. 15 is a flowchart of an object detection method for detecting an object in the vicinity of the vehicle based on an image around the vehicle using the object detection apparatus 100 described above. The flow diagram of FIG. 15 is a process for one frame of video input. When video is continuously input, the flow of FIG. 15 is repeated for each frame. When the video is input, the video conversion unit 20 converts the video into a feature video obtained by extracting image features from the video (step S151). Next, the video dividing unit 31 divides the feature video into a plurality of divided regions (step S152). Then, the divided region feature amount determination unit 32 determines the feature amount of each divided region (step S153). Subsequently, the synthesis coefficient adjustment unit 33 calculates a synthesis coefficient of each divided region based on the image feature amount of each divided region obtained by the divided region feature amount determination unit 32 (step S154). Next, the video synthesizing unit 34 uses the synthesis coefficient obtained by the synthesis coefficient adjusting unit 33 to synthesize the divided areas divided by the video dividing unit 31 by α blending to generate one synthesized video. (Step S155).

映像拡大縮小部41は、映像合成部34で生成された合成映像を拡大または縮小する(ステップS156)。合成映像特徴量判定部42は、合成映像上において、第一の物体検出処理で検出可能な大きさの枠内にどの程度の画像特徴が存在しているかを判定する(ステップS157)。そして、合成映像物体検出部43は、第一の物体検出処理として、合成映像を走査して物体検出を行う(ステップS158)。なお、このとき、合成映像物体検出部43は、合成映像特徴量判定部42の結果を用いて、検出対象枠内に画像特徴が存在しない場合は物体検出処理を行わずに次のステップに進む。次に、物体候補位置指定部50が、第一の物体検出処理において物体が検出された合成映像上の位置を基に分割前の前記映像において物体が存在する可能性がある位置を物体候補位置として指定する(ステップS159)。最後に、物体候補位置指定部50で指定した物体候補位置に対して第二の物体検出処理を行い、最終的に、分割前の映像における物***置を特定する(ステップS160)。   The video enlargement / reduction unit 41 enlarges or reduces the composite video generated by the video synthesis unit 34 (step S156). The composite video feature amount determination unit 42 determines how many image features are present in a frame of a size that can be detected by the first object detection process on the composite video (step S157). Then, the composite video object detection unit 43 performs object detection by scanning the composite video as the first object detection processing (step S158). At this time, the composite video object detection unit 43 uses the result of the composite video feature amount determination unit 42 and proceeds to the next step without performing object detection processing when there is no image feature within the detection target frame. . Next, the object candidate position designating unit 50 determines the position where the object may exist in the image before division based on the position on the composite image where the object is detected in the first object detection process. (Step S159). Finally, the second object detection process is performed on the object candidate position designated by the object candidate position designation unit 50, and finally the object position in the video before division is specified (step S160).

上記の実施の形態にかかる物体検出装置によれば、カメラで撮影した映像から特徴映像に変換し、特徴映像を分割合成した映像上で第一の物体検出処理を行って物体候補位置を求め、さらに物体候補位置に対して第二の物体検出処理を行って最終的な物体検出結果を求めるので、物体検出性能を犠牲にすることなく物体検出処理を高速化することができる。   According to the object detection device according to the above-described embodiment, the image captured by the camera is converted into the feature image, the first object detection process is performed on the image obtained by dividing and combining the feature image, and the object candidate position is obtained. Further, since the second object detection process is performed on the object candidate position to obtain the final object detection result, the object detection process can be speeded up without sacrificing the object detection performance.

なお、上記で説明した物体検出装置は、コンピュータがプログラムを実行することにより、そのコンピュータが物体検出装置となり、また、コンピュータがプログラムを実行することにより上記の物体検出方法が実行されてよい。   The object detection device described above may be an object detection device when the computer executes a program, and the object detection method may be executed when the computer executes the program.

以上に現時点で考えられる本発明の好適な実施の形態を説明したが、本実施の形態に対して多様な変形が可能であり、そして、本発明の真実の精神と範囲内にあるそのようなすべての変形を請求の範囲が含むことが意図されている。   Although the presently preferred embodiments of the present invention have been described above, various modifications can be made to the present embodiments, and such modifications are within the true spirit and scope of the present invention. It is intended that the claims include all modifications.

以上のように、本発明に係る物体検出装置は、車両周辺を撮影した映像から画像特徴を抽出した特徴映像へ変換し、特徴映像を分割して合成した合成映像上で第一の物体検出処理を行って物体候補位置を求め、さらに物体候補位置に対して第二の物体検出処理を行うので、物体検出性能を犠牲にすることなく物体検出処理を高速化することができるという優れた効果を有し、車両周辺の物体を検出するための物体検出装置等として有用である。   As described above, the object detection device according to the present invention converts the feature image obtained by extracting the image feature from the image obtained by photographing the periphery of the vehicle, and performs the first object detection process on the synthesized image obtained by dividing and synthesizing the feature image. The object candidate position is obtained and the second object detection process is performed on the object candidate position, so that the object detection process can be accelerated without sacrificing the object detection performance. It is useful as an object detection device or the like for detecting objects around the vehicle.

10 物体検出装置
20 映像変換部
30 映像分割合成部
31 映像分割部
32 分割領域特徴量判定部
33 合成係数調整部
34 映像合成部
40 第一物体検出処理部
41 映像拡大縮小部
42 合成映像特徴量判定部
43 合成映像物体検出部
50 物体候補位置指定部
60 第二物体検出処理部
DESCRIPTION OF SYMBOLS 10 Object detection apparatus 20 Image | video conversion part 30 Image | video division | segmentation synthetic | combination part 31 Image | video division | segmentation part 32 Division | segmentation area | region feature-value determination part 33 Synthesis | combination coefficient adjustment part 34 Image | video synthesis | combination part 40 1st object detection process part 41 Determination unit 43 Composite video object detection unit 50 Object candidate position designation unit 60 Second object detection processing unit

Claims (33)

車両周辺の映像に基づいて車両付近の物体を検出する物体検出装置であって、
前記映像を、前記映像から画像特徴を抽出した特徴映像に変換する映像変換部と、
前記特徴映像を複数の領域に分割した分割領域を合成して合成画像を生成する映像分割合成部と、
前記映像分割合成部で合成した前記合成映像を走査して第一の物体検出処理を行う第一物体検出処理部と、
前記第一物体検出処理部で物体が検出された前記合成映像上の位置を基に分割前の前記映像において物体が存在する可能性がある物体候補位置を求める物体候補位置指定部と、
前記物体候補位置指定部で求めた前記物体候補位置に対して第二の物体検出処理を行い、分割前の前記映像における物***置を特定する第二物体検出処理部と、
を備えたことを特徴とする物体検出装置。
An object detection device that detects an object near a vehicle based on an image around the vehicle,
A video conversion unit for converting the video into a feature video obtained by extracting image features from the video;
A video division and synthesis unit that generates a composite image by combining divided regions obtained by dividing the feature video into a plurality of regions;
A first object detection processing unit that performs a first object detection process by scanning the synthesized video synthesized by the video division and synthesis unit;
An object candidate position specifying unit for obtaining an object candidate position where an object may exist in the image before division based on the position on the composite image where the object is detected by the first object detection processing unit;
A second object detection processing unit that performs a second object detection process on the object candidate position obtained by the object candidate position specifying unit, and identifies an object position in the video before division;
An object detection apparatus comprising:
前記映像変換部は、前記画像特徴としてエッジ特徴を抽出することを特徴とする、請求項1記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the video conversion unit extracts an edge feature as the image feature. 前記映像変換部は、前記映像に対してエンボス加工を施すことで前記映像を前記特徴映像に変換することを特徴とする、請求項1または2に記載の物体検出装置。   The object detection device according to claim 1, wherein the video conversion unit converts the video into the characteristic video by embossing the video. 前記映像分割合成部は、前記映像を複数の短冊状の領域に分割し、前記分割領域を合成して分割前の前記映像よりも小さい前記合成映像を生成することを特徴とする、請求項1〜3のいずれか1項に記載の物体検出装置。   The video division / synthesizing unit divides the video into a plurality of strip-shaped areas, and synthesizes the divided areas to generate the synthesized video smaller than the video before division. The object detection apparatus of any one of -3. 前記映像分割合成部は、フレーム毎に異なる分割位置で前記特徴映像を分割することを特徴とする、請求項1〜4のいずれか1項に記載の物体検出装置。   5. The object detection apparatus according to claim 1, wherein the video division / synthesis unit divides the feature video at a different division position for each frame. 前記映像分割合成部は、前記分割領域をαブレンディングで合成することを特徴とする、請求項1〜5のいずれか1項に記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the video division / synthesis unit synthesizes the divided areas by α blending. 前記映像分割合成部は、前記分割領域に含まれる画像特徴量に応じて前記αブレンディングの合成係数を調整して合成することを特徴とする、請求項6に記載の物体検出装置。   The object detection device according to claim 6, wherein the video division / synthesis unit adjusts the α blending synthesis coefficient in accordance with an image feature amount included in the division area. 前記第一物体検出処理部は、前記合成映像を拡大もしくは縮小した拡大縮小合成映像に対して前記第一の物体検出処理を行うことを特徴とする、請求項1〜7のいずれか1項に記載の物体検出装置。   The said 1st object detection process part performs said 1st object detection process with respect to the expansion reduction composite image which expanded or reduced the said composite image, The any one of Claims 1-7 characterized by the above-mentioned. The object detection apparatus described. 前記第一物体検出処理部は、前記映像分割合成部で分割した前記分割領域の大きさに基づいて前記合成映像の拡大率もしくは縮小率を決定することを特徴とする、請求項8に記載の物体検出装置。   The first object detection processing unit determines an enlargement rate or a reduction rate of the synthesized video based on a size of the divided area divided by the video division and synthesis unit. Object detection device. 前記第一物体検出処理部は、前記第一の物体検出処理における第一の検出判定基準を前記第二物体検出処理部の前記第二の物体検出処理における第二の検出判定基準とは別々に調整可能であり、前記第二の検出判定基準よりも物体であると判定しやすくなるように前記第一の検出判定基準を調整することを特徴とする、請求項1〜9のいずれか1項に記載の物体検出装置。   The first object detection processing unit separates the first detection determination criterion in the first object detection processing from the second detection determination criterion in the second object detection processing of the second object detection processing unit. 10. The first detection criterion is adjustable so that the first detection criterion is adjustable so that it is easier to determine that the object is an object than the second detection criterion. The object detection apparatus described in 1. 前記第一物体検出処理部は、前記合成映像上で前記画像特徴が存在する部分だけを対象に前記第一の物体検出処理を行うことを特徴とする、請求項1〜10のいずれか1項に記載の物体検出装置。   The said 1st object detection process part performs said 1st object detection process only for the part in which the said image characteristic exists on the said synthetic | combination image | video, The any one of Claims 1-10 characterized by the above-mentioned. The object detection apparatus described in 1. 車両周辺の映像に基づいて車両付近の物体を検出する物体検出方法であって、
前記映像を、前記映像から画像特徴を抽出した特徴映像に変換する映像変換ステップと、
前記特徴映像を複数の領域に分割した分割領域を合成して合成画像を生成する映像分割合成ステップと、
前記映像分割合成ステップで合成した前記合成映像を走査して第一の物体検出処理を行う第一物体検出処理ステップと、
前記第一物体検出処理ステップで物体が検出された前記合成映像上の位置を基に分割前の前記映像において物体が存在する可能性がある物体候補位置を求める物体候補位置指定ステップと、
前記物体候補位置指定ステップで求めた前記物体候補位置に対して第二の物体検出処理を行い、分割前の前記映像における物***置を特定する第二物体検出処理ステップと、
を備えたことを特徴とする物体検出方法。
An object detection method for detecting an object near a vehicle based on an image around the vehicle,
A video conversion step of converting the video into a feature video obtained by extracting image features from the video;
A video dividing and synthesizing step of generating a synthesized image by synthesizing divided areas obtained by dividing the feature video into a plurality of areas;
A first object detection processing step of performing a first object detection process by scanning the composite video synthesized in the video division synthesis step;
An object candidate position designation step for obtaining an object candidate position where an object may exist in the image before division based on the position on the composite image where the object is detected in the first object detection processing step;
A second object detection processing step for performing a second object detection process on the object candidate position obtained in the object candidate position specifying step, and specifying an object position in the video before the division;
An object detection method comprising:
前記映像変換ステップは、前記画像特徴としてエッジ特徴を抽出することを特徴とする、請求項12記載の物体検出方法。   The object detection method according to claim 12, wherein the video conversion step extracts an edge feature as the image feature. 前記映像変換ステップは、前記映像に対してエンボス加工を施すことで前記映像を前記特徴映像に変換することを特徴とする、請求項12または13記載の物体検出方法。   14. The object detection method according to claim 12, wherein the video conversion step converts the video to the feature video by embossing the video. 前記映像分割合成ステップは、前記映像を複数の短冊状の領域に分割し、前記分割領域を合成して分割前の前記映像よりも小さい前記合成映像を生成することを特徴とする、請求項12〜14のいずれか1項に記載の物体検出方法。   13. The video division / synthesizing step divides the video into a plurality of strip-shaped areas, and synthesizes the divided areas to generate the synthesized video smaller than the video before division. The object detection method of any one of -14. 前記映像分割合成ステップは、フレーム毎に異なる分割位置で前記特徴映像を分割することを特徴とする、請求項12〜15のいずれか1項に記載の物体検出方法。   The object detection method according to any one of claims 12 to 15, wherein in the image division and synthesis step, the feature image is divided at different division positions for each frame. 前記映像分割合成ステップは、前記分割領域をαブレンディングで合成することを特徴とする、請求項12〜16のいずれか1項に記載の物体検出方法。   The object detection method according to any one of claims 12 to 16, wherein in the image division and synthesis step, the divided regions are synthesized by α blending. 前記映像分割合成ステップは、前記分割領域に含まれる画像特徴量に応じて前記αブレンディングの合成係数を調整して合成することを特徴とする、請求項17に記載の物体検出方法。   18. The object detection method according to claim 17, wherein in the video division and synthesis step, the α blending synthesis coefficient is adjusted according to an image feature amount included in the divided region. 前記第一物体検出処理ステップは、前記合成映像を拡大もしくは縮小した拡大縮小合成映像に対して前記第一の物体検出処理を行うことを特徴とする、請求項12〜18のいずれか1項に記載の物体検出方法。   The said 1st object detection process step performs said 1st object detection process with respect to the expansion reduction composite image which expanded or reduced the said synthetic | combination image | video, The any one of Claims 12-18 characterized by the above-mentioned. The object detection method described. 前記第一物体検出処理ステップは、前記映像分割合成ステップで分割した前記分割領域の大きさに基づいて前記合成映像の拡大率もしくは縮小率を決定することを特徴とする、請求項19に記載の物体検出方法。   The first object detection processing step determines an enlargement ratio or a reduction ratio of the synthesized video based on a size of the divided area divided in the video division and synthesis step. Object detection method. 前記第一物体検出処理ステップは、前記第一の物体検出処理における第一の検出判定基準を前記第二物体検出処理ステップの前記第二の物体検出処理における第二の検出判定基準とは別々に調整可能であり、前記第二の検出判定基準よりも物体であると判定しやすくなるように前記第一の検出判定基準を調整することを特徴とする、請求項12〜20のいずれか1項に記載の物体検出方法。   In the first object detection processing step, the first detection determination criterion in the first object detection processing is different from the second detection determination criterion in the second object detection processing in the second object detection processing step. 21. The first detection criterion is adjusted so that the first detection criterion is adjustable and is easier to determine that the object is an object than the second detection criterion. The object detection method described in 1. 前記第一物体検出処理ステップは、前記合成映像上で前記画像特徴が存在する部分だけを対象に前記第一の物体検出処理を行うことを特徴とする、請求項12〜21のいずれか1項に記載の物体検出方法。   The said 1st object detection process step performs said 1st object detection process only for the part in which the said image characteristic exists on the said synthetic | combination image | video, The one of Claims 12-21 characterized by the above-mentioned. The object detection method described in 1. 車両周辺の映像に基づいて車両付近の物体を検出する物体検出プログラムであって、
前記映像を、前記映像から画像特徴を抽出した特徴映像に変換する映像変換機能と、
前記特徴映像を複数の領域に分割した分割領域を合成して合成画像を生成する映像分割合成機能と、
前記映像分割合成機能で合成した前記合成映像を走査して第一の物体検出処理を行う第一物体検出処理機能と、
前記第一物体検出処理機能で物体が検出された前記合成映像上の位置を基に分割前の前記映像において物体が存在する可能性がある物体候補位置を求める物体候補位置指定機能と、
前記物体候補位置指定機能で求めた前記物体候補位置に対して第二の物体検出処理を行い、分割前の前記映像における物***置を特定する第二物体検出処理機能と、
をコンピュータに実現させるための物体検出プログラム。
An object detection program for detecting an object near a vehicle based on an image around the vehicle,
A video conversion function for converting the video into a feature video obtained by extracting image features from the video;
A video dividing and synthesizing function for generating a synthesized image by synthesizing divided areas obtained by dividing the feature video into a plurality of areas;
A first object detection processing function for performing a first object detection process by scanning the composite video synthesized by the video division synthesis function;
An object candidate position designation function for obtaining an object candidate position where an object may exist in the image before division based on the position on the composite image where the object is detected by the first object detection processing function;
A second object detection processing function for performing a second object detection process on the object candidate position obtained by the object candidate position specifying function and specifying an object position in the video before the division;
Object detection program for realizing a computer.
前記映像変換機能は、前記画像特徴としてエッジ特徴を抽出することを特徴とする、請求項23記載の物体検出プログラム。   The object detection program according to claim 23, wherein the video conversion function extracts an edge feature as the image feature. 前記映像変換機能は、前記映像に対してエンボス加工を施すことで前記映像を前記特徴映像に変換することを特徴とする、請求項23または24記載の物体検出プログラム。   25. The object detection program according to claim 23 or 24, wherein the video conversion function converts the video into the feature video by embossing the video. 前記映像分割合成機能は、前記映像を複数の短冊状の領域に分割し、前記分割領域を合成して分割前の前記映像よりも小さい前記合成映像を生成することを特徴とする、請求項23〜25のいずれか1項に記載の物体検出プログラム。   The video division / synthesizing function divides the video into a plurality of strip-shaped areas, and synthesizes the divided areas to generate the synthesized video smaller than the video before division. The object detection program of any one of -25. 前記映像分割合成機能は、フレーム毎に異なる分割位置で前記特徴映像を分割することを特徴とする、請求項23〜26のいずれか1項に記載の物体検出プログラム。   27. The object detection program according to claim 23, wherein the video division and synthesis function divides the feature video at a different division position for each frame. 前記映像分割合成機能は、前記分割領域をαブレンディングで合成することを特徴とする、請求項23〜27のいずれか1項に記載の物体検出プログラム。   The object detection program according to any one of claims 23 to 27, wherein the video division and synthesis function synthesizes the divided areas by α blending. 前記映像分割合成機能は、前記分割領域に含まれる画像特徴量に応じて前記αブレンディングの合成係数を調整して合成することを特徴とする、請求項28に記載の物体検出プログラム。   29. The object detection program according to claim 28, wherein the video division and synthesis function performs synthesis by adjusting a synthesis coefficient of the α blending according to an image feature amount included in the divided area. 前記第一物体検出処理機能は、前記第一物体検出処理機能は、前記合成映像を拡大もしくは縮小した拡大縮小合成映像に対して前記第一の物体検出処理を行うことを特徴とする、請求項23〜29のいずれか1項に記載の物体検出プログラム。   The first object detection processing function is characterized in that the first object detection processing function performs the first object detection processing on an enlarged / reduced synthesized video obtained by enlarging or reducing the synthesized video. 30. The object detection program according to any one of 23 to 29. 前記第一物体検出処理機能は、前記映像分割合成機能で分割した前記分割領域の大きさに基づいて前記合成映像の拡大率もしくは縮小率を決定することを特徴とする、請求項30に記載の物体検出プログラム。   The first object detection processing function determines an enlargement ratio or a reduction ratio of the synthesized video based on the size of the divided area divided by the video division and synthesis function. Object detection program. 前記第一物体検出処理機能は、前記第一の物体検出処理における第一の検出判定基準を前記第二物体検出処理機能の前記第二の物体検出処理における第二の検出判定基準とは別々に調整可能であり、前記第二の検出判定基準よりも物体であると判定しやすくなるように前記第一の検出判定基準を調整することを特徴とする、請求項23〜31のいずれか1項に記載の物体検出プログラム。   In the first object detection processing function, the first detection determination criterion in the first object detection processing is different from the second detection determination criterion in the second object detection processing of the second object detection processing function. 32. Any one of claims 23 to 31, wherein the first detection criterion is adjustable so that it is easier to determine that the object is an object than the second detection criterion. The object detection program described in 1. 前記第一物体検出処理機能は、前記合成映像上で前記画像特徴が存在する部分だけを対象に前記第一の物体検出処理を行うことを特徴とする、請求項23〜32のいずれか1項に記載の物体検出プログラム。

The said 1st object detection process function performs said 1st object detection process only for the part in which the said image feature exists on the said synthetic | combination image | video, The any one of Claims 23-32 characterized by the above-mentioned. The object detection program described in 1.

JP2011046616A 2011-03-03 2011-03-03 Object detecting device and method, and program Withdrawn JP2012185555A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011046616A JP2012185555A (en) 2011-03-03 2011-03-03 Object detecting device and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011046616A JP2012185555A (en) 2011-03-03 2011-03-03 Object detecting device and method, and program

Publications (1)

Publication Number Publication Date
JP2012185555A true JP2012185555A (en) 2012-09-27

Family

ID=47015613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011046616A Withdrawn JP2012185555A (en) 2011-03-03 2011-03-03 Object detecting device and method, and program

Country Status (1)

Country Link
JP (1) JP2012185555A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548163A (en) * 2016-11-25 2017-03-29 青岛大学 Method based on TOF depth camera passenger flow countings
WO2019087577A1 (en) * 2017-10-31 2019-05-09 ソニー株式会社 Information processing device, information processing method, and information processing program
JP2021121710A (en) * 2020-01-31 2021-08-26 株式会社小松製作所 Monitoring device of work machine and monitoring method thereof
JP7383491B2 (en) 2020-01-07 2023-11-20 日野自動車株式会社 Object detection device and object detection method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548163A (en) * 2016-11-25 2017-03-29 青岛大学 Method based on TOF depth camera passenger flow countings
CN106548163B (en) * 2016-11-25 2019-04-16 青岛大学 Method based on TOF depth camera passenger flow counting
WO2019087577A1 (en) * 2017-10-31 2019-05-09 ソニー株式会社 Information processing device, information processing method, and information processing program
JPWO2019087577A1 (en) * 2017-10-31 2020-12-17 ソニー株式会社 Information processing equipment, information processing methods and information processing programs
US11403057B2 (en) 2017-10-31 2022-08-02 Sony Corporation Information processing device, information processing method, and information processing program
JP7302477B2 (en) 2017-10-31 2023-07-04 ソニーグループ株式会社 Information processing device, information processing method and information processing program
JP7383491B2 (en) 2020-01-07 2023-11-20 日野自動車株式会社 Object detection device and object detection method
JP2021121710A (en) * 2020-01-31 2021-08-26 株式会社小松製作所 Monitoring device of work machine and monitoring method thereof
JP7465664B2 (en) 2020-01-31 2024-04-11 株式会社小松製作所 Work machine monitoring device and work machine monitoring method

Similar Documents

Publication Publication Date Title
JP5877376B2 (en) Object detection apparatus, object detection method, and object detection program
CN112106345B (en) Stereo camera device
JP4955096B2 (en) DETECTING DEVICE, DETECTING METHOD, DETECTING PROGRAM, AND RECORDING MEDIUM
EP3168810B1 (en) Image generating method and apparatus
JP5068134B2 (en) Target area dividing method and target area dividing apparatus
JP6642970B2 (en) Attention area detection device, attention area detection method, and program
JP6592991B2 (en) Object detection apparatus, object detection method, and program
JP2018180945A (en) Object detection apparatus and program
JP2008262333A (en) Road surface discrimination device and road surface discrimination method
JP2008117305A (en) Image processor
US8306335B2 (en) Method of analyzing digital document images
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
JP2012185555A (en) Object detecting device and method, and program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
KR101726692B1 (en) Apparatus and method for extracting object
JP5906696B2 (en) Vehicle periphery photographing apparatus and vehicle periphery image processing method
JP2009260671A (en) Image processing apparatus and imaging device
JP2012053663A (en) Object kind determination device
JP5664078B2 (en) Imaging apparatus, image evaluation method, and focus adjustment control program
US20240071104A1 (en) Image processing device, image processing method, and recording medium
JP6396840B2 (en) Object detection device
JP5891751B2 (en) Inter-image difference device and inter-image difference method
JP4598011B2 (en) Vehicle display device
US11900643B2 (en) Object detection method and object detection system
KR20150111611A (en) Apparatus and method for detecting vehicle candidate

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513