JP2018092608A - Information processing device, imaging device, apparatus control system, movable body, information processing method, and program - Google Patents

Information processing device, imaging device, apparatus control system, movable body, information processing method, and program Download PDF

Info

Publication number
JP2018092608A
JP2018092608A JP2017190783A JP2017190783A JP2018092608A JP 2018092608 A JP2018092608 A JP 2018092608A JP 2017190783 A JP2017190783 A JP 2017190783A JP 2017190783 A JP2017190783 A JP 2017190783A JP 2018092608 A JP2018092608 A JP 2018092608A
Authority
JP
Japan
Prior art keywords
unit
information
pixel
information processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017190783A
Other languages
Japanese (ja)
Other versions
JP7062904B2 (en
Inventor
聖也 天野
Seiya Amano
聖也 天野
横田 聡一郎
Soichiro Yokota
聡一郎 横田
吉田 淳
Atsushi Yoshida
淳 吉田
旅人 鈴木
Tabito Suzuki
旅人 鈴木
陽一郎 大林
Yoichiro Obayashi
陽一郎 大林
久保園 浩喜
Hiroki Kubozono
浩喜 久保園
真太郎 木田
Shintaro Kida
真太郎 木田
大輔 岡田
Daisuke Okada
大輔 岡田
輔宏 木村
Sukehiro Kimura
輔宏 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP17203111.4A priority Critical patent/EP3327624A1/en
Publication of JP2018092608A publication Critical patent/JP2018092608A/en
Application granted granted Critical
Publication of JP7062904B2 publication Critical patent/JP7062904B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device, an imaging device, an apparatus control system, a movable body, an information processing method, and a program with which the accuracy in detecting objects can be sufficiently ensured.SOLUTION: An information processing device of the present invention comprises an acquisition part, a creation part, a detection part, an extraction part, and a separation part. The acquisition part acquires a depth map having distance information for every pixel. The creation part creates first correspondence information in which the positions in the transverse direction and the positions in the depth direction are associated with each other on the basis of the depth map. The detection part detects an assembled area of the distance information from the first correspondence information. The extraction part extracts the contour of the assembled area. The separation separates the assembled area on the basis of the characteristics of the contour extracted by the extraction part.SELECTED DRAWING: Figure 5

Description

本発明は、情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラムに関する。   The present invention relates to an information processing device, an imaging device, a device control system, a moving body, an information processing method, and a program.

従来、自動車の安全性において、歩行者と自動車とが衝突したときに、いかに歩行者を守れるか、および、乗員を保護できるかの観点から、自動車のボディー構造等の開発が行われてきた。しかしながら、近年、情報処理技術および画像処理技術の発達により、高速に人および自動車を検出する技術が開発されてきている。これらの技術を応用して、自動車が物体に衝突する前に自動的にブレーキをかけ、衝突を未然に防ぐという自動車もすでに開発されている。車両の自動制御には、人または他車等の物体までの距離を正確に測定する必要があり、そのためには、ミリ波レーダおよびレーザレーダによる測距、ならびに、ステレオカメラによる測距等が実用化されている。例えばステレオカメラで測距する場合、左右のカメラで撮影された局所領域のズレ量(視差)に基づいて視差画像を生成し、前方物体と自車との距離を測定することができる。そして、同程度の距離に存在する(同程度の視差値を有する)視差画素の群を1つの物体として検出するクラスタリング処理を行う。   Conventionally, in terms of safety of automobiles, body structures of automobiles have been developed from the viewpoint of how to protect pedestrians and protect passengers when pedestrians and automobiles collide. However, in recent years, with the development of information processing technology and image processing technology, technology for detecting people and cars at high speed has been developed. Automobiles that apply these technologies to automatically apply a brake before an automobile collides with an object to prevent the collision have already been developed. For automatic vehicle control, it is necessary to accurately measure the distance to an object such as a person or other vehicle. For this purpose, distance measurement using millimeter wave radar and laser radar, distance measurement using a stereo camera, etc. are practical. It has become. For example, when ranging with a stereo camera, it is possible to generate a parallax image based on the amount of deviation (parallax) between local regions captured by the left and right cameras, and measure the distance between the front object and the vehicle. Then, clustering processing is performed to detect a group of parallax pixels existing at the same distance (having the same parallax value) as one object.

ステレオカメラなどを用いて得られる3次元データから物体検出を行うには算出された視差を塊として検出する必要があるが、物体間の位置が近い場合は同じ視差塊と判断されることが多く、複数の物体を結合した1つの物体として誤検出され易い。例えば特許文献1には、距離データの並び方向から物体面を検出し、その物体面の位置関係から物体を検出する技術が開示されている。   In order to detect an object from three-dimensional data obtained using a stereo camera or the like, it is necessary to detect the calculated parallax as a lump. However, when the positions between objects are close, it is often determined that the parallax lump is the same. It is easy to be erroneously detected as a single object obtained by combining a plurality of objects. For example, Patent Document 1 discloses a technique for detecting an object plane from the arrangement direction of distance data and detecting an object from the positional relationship of the object plane.

しかしながら、従来技術においては、複数の物体を結合した1つの物体として誤検出されることを十分に防ぐことはできなかった。つまり、物体の検出精度を十分に確保することが困難であるという問題があった。   However, in the prior art, it has not been possible to sufficiently prevent erroneous detection as a single object obtained by combining a plurality of objects. That is, there is a problem that it is difficult to ensure sufficient object detection accuracy.

本発明は、上記に鑑みてなされたものであって、物体の検出精度を十分に確保可能な情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an information processing apparatus, an imaging apparatus, a device control system, a moving body, an information processing method, and a program capable of sufficiently ensuring the detection accuracy of an object. And

上述した課題を解決し、目的を達成するために、本発明は、画素毎に距離情報を有する距離画像を取得する取得部と、前記距離画像に基づいて横方向の位置と、奥行方向の位置とが対応付けられた第1の対応情報を生成する生成部と、前記第1の対応情報から、前記距離情報の集合領域を検出する検出部と、前記集合領域の輪郭を抽出する抽出部と、前記抽出部により抽出された前記輪郭の特徴に基づいて、前記集合領域を分離する分離部と、を備える情報処理装置である。   In order to solve the above-described problems and achieve the object, the present invention provides an acquisition unit that acquires a distance image having distance information for each pixel, a lateral position based on the distance image, and a depth direction position. Generating unit that generates first correspondence information associated with each other, a detection unit that detects a collection region of the distance information from the first correspondence information, and an extraction unit that extracts the outline of the collection region, An information processing apparatus comprising: a separation unit that separates the collection region based on the feature of the contour extracted by the extraction unit.

本発明によれば、物体の検出精度を十分に確保することができる。   According to the present invention, sufficient object detection accuracy can be ensured.

図1は、実施形態の機器制御システムの概略構成を示す模式図である。FIG. 1 is a schematic diagram illustrating a schematic configuration of a device control system according to an embodiment. 図2は、撮像ユニットおよび解析ユニットの概略的なブロック図である。FIG. 2 is a schematic block diagram of the imaging unit and the analysis unit. 図3は、被写体と各カメラ部の撮像レンズとの位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between the subject and the imaging lens of each camera unit. 図4は、解析ユニットが有する機能を概略的に説明するための図である。FIG. 4 is a diagram for schematically explaining the functions of the analysis unit. 図5は、物体検出処理部が有する機能の一例を示す図である。FIG. 5 is a diagram illustrating an example of functions of the object detection processing unit. 図6は、路面検出処理部が有する機能の一例を示す図である。FIG. 6 is a diagram illustrating an example of functions of the road surface detection processing unit. 図7は、撮像画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a captured image. 図8は、High Umapの一例を示す図である。FIG. 8 is a diagram illustrating an example of High Umap. 図9は、Standard Umapの一例を示す図である。FIG. 9 is a diagram illustrating an example of a standard Umap. 図10は、クラスタリング処理部の詳細な機能の一例を示す図である。FIG. 10 is a diagram illustrating an example of detailed functions of the clustering processing unit. 図11は、撮像画像の一例を示す図である。FIG. 11 is a diagram illustrating an example of a captured image. 図12は、孤立領域の一例を示す図である。FIG. 12 is a diagram illustrating an example of an isolated region. 図13は、図12に示す孤立領域に対応する視差画像上の領域を示す図である。FIG. 13 is a diagram illustrating a region on the parallax image corresponding to the isolated region illustrated in FIG. 12. 図14は、オブジェクトタイプごとに定められたサイズ範囲を示す図である。FIG. 14 is a diagram showing a size range defined for each object type. 図15は、棄却処理を説明するための図である。FIG. 15 is a diagram for explaining the rejection process. 図16は、クラスタリング処理部による処理の一例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of processing by the clustering processing unit. 図17は、孤立領域検出処理の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of the isolated region detection process. 図18は、二値化処理後の一例を示す図である。FIG. 18 is a diagram illustrating an example after binarization processing. 図19は、面検出処理部が有する機能の一例を示す図である。FIG. 19 is a diagram illustrating an example of functions of the surface detection processing unit. 図20は、面検出処理の流れを示すフローチャートである。FIG. 20 is a flowchart showing the flow of the surface detection process. 図21は、抽出部による輪郭抽出処理の一例を示すフローチャートである。FIG. 21 is a flowchart illustrating an example of contour extraction processing by the extraction unit. 図22は、探索処理を説明するための図である。FIG. 22 is a diagram for explaining the search process. 図23は、探索処理を説明するための図である。FIG. 23 is a diagram for explaining the search process. 図24は、探索処理を説明するための図である。FIG. 24 is a diagram for explaining the search process. 図25は、探索処理を説明するための図である。FIG. 25 is a diagram for explaining the search process. 図26は、探索順が記録された画素の繋がりを示す図である。FIG. 26 is a diagram illustrating connection of pixels in which the search order is recorded. 図27は、分離部による分離処理の一例を示すフローチャートである。FIG. 27 is a flowchart illustrating an example of separation processing by the separation unit. 図28は、集合領域の位置判断を説明するための図である。FIG. 28 is a diagram for explaining the position determination of the collection area. 図29は、対象画素の特定方法を説明するための図である。FIG. 29 is a diagram for explaining a target pixel specifying method. 図30は、対象画素の特定方法を説明するための図である。FIG. 30 is a diagram for explaining a target pixel specifying method. 図31は、第2の対応情報の生成方法を説明するための図である。FIG. 31 is a diagram for explaining a method of generating the second correspondence information. 図32は、第2の対応情報の他の態様を説明するための図である。FIG. 32 is a diagram for explaining another aspect of the second correspondence information. 図33は、分離位置の特定方法を説明するための図である。FIG. 33 is a diagram for explaining a method of specifying the separation position. 図34は、分離部による分離を説明するための図である。FIG. 34 is a diagram for explaining separation by the separation unit.

以下、添付図面を参照しながら、本発明に係る情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラムの実施形態を詳細に説明する。図1は、実施形態の機器制御システム100の概略構成を示す模式図である。図1に示すように、機器制御システム100は、移動体の一例である自動車等の車両101に設けられる。機器制御システム100は、撮像ユニット102、解析ユニット103、制御ユニット104および表示部105を有している。   Hereinafter, embodiments of an information processing device, an imaging device, a device control system, a moving body, an information processing method, and a program according to the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a schematic diagram illustrating a schematic configuration of a device control system 100 according to the embodiment. As illustrated in FIG. 1, the device control system 100 is provided in a vehicle 101 such as an automobile that is an example of a moving body. The device control system 100 includes an imaging unit 102, an analysis unit 103, a control unit 104, and a display unit 105.

撮像ユニット102は、移動体の一例としての車両101のフロントガラス106のルームミラー付近に設けられ、車両101の例えば進行方向等の画像を撮像する。撮像ユニット102の撮像動作で得られる画像データを含む各種データは、解析ユニット103に供給される。解析ユニット103は、撮像ユニット102から供給される各種データに基づいて、車両101が走行中の路面、車両101の前方車両、歩行者、障害物等の認識対象物を解析する。制御ユニット104は、解析ユニット103の解析結果に基づいて、表示部105を介して、車両101の運転者へ警告等を行う。また、制御ユニット104は、解析結果に基づいて、各種車載機器の制御、車両101のハンドル制御又はブレーキ制御等の走行支援を行う。なお、以下、移動体の一例として車両101について説明するが、本実施の形態の機器制御システム100は、船舶、航空機、ロボット等にも適用可能である。   The imaging unit 102 is provided in the vicinity of a room mirror of a windshield 106 of a vehicle 101 as an example of a moving body, and captures an image of the vehicle 101 such as a traveling direction. Various data including image data obtained by the imaging operation of the imaging unit 102 is supplied to the analysis unit 103. The analysis unit 103 analyzes recognition objects such as a road surface on which the vehicle 101 is traveling, a vehicle ahead of the vehicle 101, a pedestrian, and an obstacle based on various data supplied from the imaging unit 102. The control unit 104 issues a warning or the like to the driver of the vehicle 101 via the display unit 105 based on the analysis result of the analysis unit 103. Further, the control unit 104 performs traveling support such as control of various in-vehicle devices, steering wheel control or brake control of the vehicle 101 based on the analysis result. Hereinafter, although the vehicle 101 will be described as an example of the moving body, the device control system 100 of the present embodiment can be applied to a ship, an aircraft, a robot, and the like.

図2は、撮像ユニット102および解析ユニット103の概略的なブロック図である。この例では、解析ユニット103は「情報処理装置」として機能し、撮像ユニット102および解析ユニット103の組は「撮像装置」として機能する。なお、上述の制御ユニット104は、「制御部」として機能し、撮像装置の出力結果に基づいて機器(この例では車両101)を制御する。撮像ユニット102は、左目用となる第1のカメラ部1Aと、右目用となる第2のカメラ部1Bとの、2台のカメラ部が平行に組み付けられて構成されている。つまり、撮像ユニット102は、ステレオ画像を撮像するステレオカメラとして構成されている。ステレオ画像とは、複数の視点ごとの撮像で得られる複数の撮像画像(複数の視点と1対1に対応する複数の撮像画像)を含む画像であり、撮像ユニット102は、このステレオ画像を撮像するための装置である。第1のカメラ部1Aおよび第2のカメラ部1Bは、それぞれ撮像レンズ5A,5B、画像センサ6A,6B、センサコントローラ7A,7Bを備えている。画像センサ6A,6Bは、例えばCCDイメージセンサまたはCMOSイメージセンサとなっている。CCDは、「Charge Coupled Device」の略記である。また、CMOSは、「Complementary Metal-Oxide Semiconductor」の略記である。センサコントローラ7A,7Bは、画像センサ6A,6Bの露光制御、画像読み出し制御、外部回路との通信、および画像データの送信制御等を行う。   FIG. 2 is a schematic block diagram of the imaging unit 102 and the analysis unit 103. In this example, the analysis unit 103 functions as an “information processing apparatus”, and the set of the imaging unit 102 and the analysis unit 103 functions as an “imaging apparatus”. The control unit 104 described above functions as a “control unit” and controls the device (in this example, the vehicle 101) based on the output result of the imaging device. The imaging unit 102 is configured by assembling two camera units in parallel, a first camera unit 1A for the left eye and a second camera unit 1B for the right eye. That is, the imaging unit 102 is configured as a stereo camera that captures a stereo image. The stereo image is an image including a plurality of captured images (a plurality of captured images corresponding to a plurality of viewpoints on a one-to-one basis) obtained by imaging at a plurality of viewpoints, and the imaging unit 102 captures the stereo images. It is a device for doing. The first camera unit 1A and the second camera unit 1B include imaging lenses 5A and 5B, image sensors 6A and 6B, and sensor controllers 7A and 7B, respectively. The image sensors 6A and 6B are, for example, CCD image sensors or CMOS image sensors. CCD is an abbreviation for “Charge Coupled Device”. CMOS is an abbreviation for “Complementary Metal-Oxide Semiconductor”. The sensor controllers 7A and 7B perform exposure control of the image sensors 6A and 6B, image readout control, communication with an external circuit, transmission control of image data, and the like.

解析ユニット103は、データバスライン10、シリアルバスライン11、CPU15、FPGA16、ROM17、RAM18、シリアルIF19、およびデータIF20を有している。CPUは、「Central Processing Unit」の略記である。FPGAは、「Field-Programmable Gate Array」の略記である。ROMは、「Read Only Memory」の略記である。RAMは、「Random Access Memory」の略記である。IFは、「interface」の略記である。   The analysis unit 103 includes a data bus line 10, a serial bus line 11, a CPU 15, an FPGA 16, a ROM 17, a RAM 18, a serial IF 19, and a data IF 20. CPU is an abbreviation for “Central Processing Unit”. FPGA is an abbreviation for “Field-Programmable Gate Array”. ROM is an abbreviation for “Read Only Memory”. RAM is an abbreviation for “Random Access Memory”. IF is an abbreviation for “interface”.

上述の撮像ユニット102は、データバスライン10およびシリアルバスライン11を介して解析ユニット103と接続されている。CPU15は、解析ユニット103全体の動作、画像処理、および画像認識処理を実行制御する。第1のカメラ部1Aおよび第2のカメラ部1Bの画像センサ6A,6Bで撮像された撮像画像の輝度画像データは、データバスライン10を介して解析ユニット103のRAM18に書き込まれる。CPU15またはFPGA16からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、および各種設定データ等は、シリアルバスライン11を介して送受信される。   The above-described imaging unit 102 is connected to the analysis unit 103 via the data bus line 10 and the serial bus line 11. The CPU 15 controls the operation of the entire analysis unit 103, image processing, and image recognition processing. Luminance image data of captured images captured by the image sensors 6A and 6B of the first camera unit 1A and the second camera unit 1B is written into the RAM 18 of the analysis unit 103 via the data bus line 10. Sensor exposure value change control data, image read parameter change control data, various setting data, and the like from the CPU 15 or the FPGA 16 are transmitted and received via the serial bus line 11.

FPGA16は、RAM18に保存された画像データに対してリアルタイム性が要求される処理を行う。FPGA16は、第1のカメラ部1Aおよび第2のカメラ部1Bでそれぞれ撮像された輝度画像データ(撮像画像)のうち、一方を基準画像とすると共に他方を比較画像とする。そして、FPGA16は、撮像領域内の同一地点に対応する基準画像上の対応画像部分と比較画像上の対応画像部分との位置ズレ量を、対応画像部分の視差値(視差画像データ)として算出する。   The FPGA 16 performs processing that requires real-time processing on the image data stored in the RAM 18. The FPGA 16 uses one of the luminance image data (captured images) captured by the first camera unit 1A and the second camera unit 1B as a reference image and the other as a comparison image. Then, the FPGA 16 calculates a positional shift amount between the corresponding image portion on the reference image corresponding to the same point in the imaging region and the corresponding image portion on the comparison image as a parallax value (parallax image data) of the corresponding image portion. .

図3に、XZ平面上における被写体30と、第1のカメラ部1Aの撮像レンズ5Aと、第2のカメラ部1Bの撮像レンズ5Bとの位置関係を示す。この図3において、各撮像レンズ5A,5Bの間の距離bおよび各撮像レンズ5A、5Bの焦点距離fは、それぞれ固定値である。また、被写体30の注視点Gに対する撮像レンズ5AのX座標のズレ量をΔ1とする。また、被写体30の注視点Gに対する撮像レンズ5BのX座標のズレ量をΔ2とする。この場合において、FPGA16は、被写体30の注視点Gに対する各撮像レンズ5A,5BのX座標の差である視差値dを、以下の式1で算出する。   FIG. 3 shows the positional relationship among the subject 30, the imaging lens 5A of the first camera unit 1A, and the imaging lens 5B of the second camera unit 1B on the XZ plane. In FIG. 3, the distance b between the imaging lenses 5A and 5B and the focal length f of the imaging lenses 5A and 5B are fixed values. Also, the amount of deviation of the X coordinate of the imaging lens 5A with respect to the gazing point G of the subject 30 is assumed to be Δ1. Further, the amount of deviation of the X coordinate of the imaging lens 5B with respect to the gazing point G of the subject 30 is assumed to be Δ2. In this case, the FPGA 16 calculates the parallax value d, which is the difference between the X coordinates of the imaging lenses 5A and 5B with respect to the gazing point G of the subject 30, using the following Equation 1.

Figure 2018092608
Figure 2018092608

解析ユニット103のFPGA16は、撮像ユニット102から供給される輝度画像データに対して、例えばガンマ補正処理および歪み補正処理(左右の撮像画像の平行化)等のリアルタイム性が要求される処理を施す。また、FPGA16は、このようなリアルタイム性が要求される処理を施した輝度画像データを用いて上述の式1の演算を行うことで、視差画像データを生成し、RAM18に書き込む。   The FPGA 16 of the analysis unit 103 performs processing requiring real-time properties such as gamma correction processing and distortion correction processing (parallelization of the left and right captured images) on the luminance image data supplied from the imaging unit 102. Further, the FPGA 16 generates parallax image data by writing the above-described Equation 1 using the luminance image data subjected to such processing that requires real-time properties, and writes the parallax image data in the RAM 18.

図2に戻って説明を続ける。CPU15は、撮像ユニット102の各センサコントローラ7A,7Bの制御、および解析ユニット103の全体的な制御を行う。また、ROM17には、後述する状況認識、予測、立体物認識等を実行するための立体物認識プログラムが記憶されている。立体物認識プログラムは、画像処理プログラムの一例である。CPU15は、データIF20を介して、例えば自車両のCAN情報(車速、加速度、舵角、ヨーレート等)をパラメータとして取得する。そして、CPU15は、ROM17に記憶されている立体物認識プログラムに従って、RAM18に記憶されている輝度画像および視差画像を用いて、状況認識等の各種処理を実行制御することで、例えば先行車両等の認識対象の認識を行う。CANは、「Controller Area Network」の略記である。   Returning to FIG. 2, the description will be continued. The CPU 15 performs control of the sensor controllers 7A and 7B of the imaging unit 102 and overall control of the analysis unit 103. The ROM 17 stores a three-dimensional object recognition program for executing situation recognition, prediction, three-dimensional object recognition, and the like, which will be described later. The three-dimensional object recognition program is an example of an image processing program. The CPU 15 acquires, for example, CAN information (vehicle speed, acceleration, steering angle, yaw rate, etc.) of the host vehicle as a parameter via the data IF 20. Then, the CPU 15 executes and controls various processes such as situation recognition using the luminance image and the parallax image stored in the RAM 18 in accordance with the three-dimensional object recognition program stored in the ROM 17. Recognize the recognition target. CAN is an abbreviation for “Controller Area Network”.

認識対象の認識データは、シリアルIF19を介して、制御ユニット104へ供給される。制御ユニット104は、認識対象の認識データを用いて自車両のブレーキ制御や自車両の速度制御等の走行支援を行う。   The recognition data to be recognized is supplied to the control unit 104 via the serial IF 19. The control unit 104 performs traveling support such as brake control of the host vehicle and speed control of the host vehicle using the recognition data of the recognition target.

図4は、解析ユニット103が有する機能を概略的に説明するための図である。ステレオカメラを構成する撮像ユニット102で撮像されるステレオ画像は解析ユニット103へ供給される。例えば第1のカメラ部1Aおよび第2のカメラ部1Bがカラー仕様の場合、第1のカメラ部1Aおよび第2のカメラ部1Bの各々は、以下の式2の演算を行うことで、RGB(赤緑青)の各信号から輝度(y)信号を生成するカラー輝度変換処理を行う。第1のカメラ部1Aおよび第2のカメラ部1Bの各々は、カラー輝度変換処理により生成した輝度画像データ(撮像画像)を、解析ユニット103が有する前処理部111へ供給する。第1のカメラ部1Aで撮像された輝度画像データ(撮像画像)と、第2のカメラ部1Bで撮像された輝度画像データ(撮像画像)との組がステレオ画像であると考えることができる。この例では、前処理部111は、FPGA16により実現される。   FIG. 4 is a diagram for schematically explaining the functions of the analysis unit 103. A stereo image picked up by the image pickup unit 102 constituting the stereo camera is supplied to the analysis unit 103. For example, when the first camera unit 1A and the second camera unit 1B have color specifications, each of the first camera unit 1A and the second camera unit 1B performs RGB ( Color luminance conversion processing for generating a luminance (y) signal from each signal (red, green, and blue) is performed. Each of the first camera unit 1A and the second camera unit 1B supplies luminance image data (captured image) generated by the color luminance conversion processing to the preprocessing unit 111 included in the analysis unit 103. It can be considered that a set of luminance image data (captured image) captured by the first camera unit 1A and luminance image data (captured image) captured by the second camera unit 1B is a stereo image. In this example, the preprocessing unit 111 is realized by the FPGA 16.

Figure 2018092608
Figure 2018092608

前処理部111は、第1のカメラ部1Aおよび第2のカメラ部1Bから受け取った輝度画像データの前処理を行う。この例では、前処理としてガンマ補正処理を行う。そして、前処理部111は、前処理を行った後の輝度画像データを平行化画像生成部112へ供給する。   The preprocessing unit 111 performs preprocessing of the luminance image data received from the first camera unit 1A and the second camera unit 1B. In this example, gamma correction processing is performed as preprocessing. Then, the preprocessing unit 111 supplies the luminance image data after the preprocessing to the parallelized image generation unit 112.

平行化画像生成部112は、前処理部111から供給された輝度画像データに対して、平行化処理(歪み補正処理)を施す。この平行化処理は、第1のカメラ部1A、第2のカメラ部1Bから出力される輝度画像データを、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像に変換する処理である。具体的には、各画素の歪み量を、Δx=f(x、y)、Δy=g(x、y)という多項式を用いて計算した計算結果を用いて、第1のカメラ部1A、第2のカメラ部1Bから出力される輝度画像データの各画素を変換する。多項式は、例えば、x(画像の横方向位置)、y(画像の縦方向位置)に関する5次多項式に基づく。これにより、第1のカメラ部1A、第2のカメラ部1Bの光学系の歪みを補正した平行な輝度画像を得ることができる。この例では、平行化画像生成部112は、FPGA16により実現される。   The parallelized image generation unit 112 performs parallelization processing (distortion correction processing) on the luminance image data supplied from the preprocessing unit 111. This parallelization processing is an ideal parallel stereo image obtained when two pinhole cameras are attached in parallel to the luminance image data output from the first camera unit 1A and the second camera unit 1B. It is processing to convert to. Specifically, the first camera unit 1A, the first camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, the second camera unit 1A, Each pixel of the luminance image data output from the second camera unit 1B is converted. The polynomial is based on, for example, a quintic polynomial relating to x (the horizontal position of the image) and y (the vertical position of the image). Thereby, the parallel brightness image which correct | amended distortion of the optical system of the 1st camera part 1A and the 2nd camera part 1B can be obtained. In this example, the parallelized image generation unit 112 is realized by the FPGA 16.

視差画像生成部113は、撮像ユニット102により撮像されたステレオ画像から、画素毎に距離情報を備えた距離画像の一例である、画素毎に視差値を備えた視差画像を生成する。ここでは、視差画像生成部113は、第1のカメラ部1Aの輝度画像データを基準画像データとし、第2のカメラ部1Bの輝度画像データを比較画像データとし、上述の式1に示す演算を行うことで、基準画像データと比較画像データの視差を示す視差画像データを生成する。具体的には、視差画像生成部113は、基準画像データの所定の「行」について、一つの注目画素を中心とした複数画素(例えば16画素×1画素)からなるブロックを定義する。一方、比較画像データにおける同じ「行」において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(X方向)へズラす。そして、視差画像生成部113は、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。なお、ここでいう視差画像は、縦方向位置と横方向位置と奥行き方向位置(視差)が対応付けられた情報を意味する。   The parallax image generation unit 113 generates a parallax image having a parallax value for each pixel, which is an example of a distance image having distance information for each pixel, from the stereo image captured by the imaging unit 102. Here, the parallax image generation unit 113 uses the luminance image data of the first camera unit 1A as reference image data, the luminance image data of the second camera unit 1B as comparison image data, and performs the calculation shown in Equation 1 above. As a result, parallax image data indicating the parallax between the reference image data and the comparison image data is generated. Specifically, the parallax image generation unit 113 defines a block including a plurality of pixels (for example, 16 pixels × 1 pixel) centered on one target pixel for a predetermined “row” of the reference image data. On the other hand, in the same “row” in the comparison image data, a block having the same size as the defined reference image data block is shifted by one pixel in the horizontal line direction (X direction). Then, the parallax image generation unit 113 calculates a correlation value indicating a correlation between a feature amount indicating the feature of the pixel value of the block defined in the reference image data and a feature amount indicating the feature of the pixel value of each block in the comparison image data, Calculate each. Note that the parallax image here means information in which a vertical position, a horizontal position, and a depth direction position (parallax) are associated with each other.

また、視差画像生成部113は、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得る。なお、視差画像の生成方法としては、公知の様々な技術を利用可能である。要するに、視差画像生成部113は、ステレオカメラで撮像されるステレオ画像から、画素毎に距離情報を有する距離画像(この例では視差画像)を算出(生成)していると考えることができる。   Further, the parallax image generation unit 113 performs a matching process of selecting the block of the comparison image data that is most correlated with the block of the reference image data among the blocks of the comparison image data based on the calculated correlation value. Thereafter, a positional deviation amount between the target pixel of the block of the reference image data and the corresponding pixel of the block of the comparison image data selected by the matching process is calculated as the parallax value d. The parallax image data is obtained by performing such a process of calculating the parallax value d for the entire area of the reference image data or a specific area. As a method for generating a parallax image, various known techniques can be used. In short, it can be considered that the parallax image generation unit 113 calculates (generates) a distance image (in this example, a parallax image) having distance information for each pixel from a stereo image captured by a stereo camera.

マッチング処理に用いるブロックの特徴量としては、例えばブロック内の各画素の値(輝度値)を用いることができる。また、相関値としては、例えば基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが、最も相関があるブロックとして検出される。   As the feature amount of the block used for the matching process, for example, the value (luminance value) of each pixel in the block can be used. Further, as the correlation value, for example, the difference between the value (luminance value) of each pixel in the block of reference image data and the value (luminance value) of each pixel in the block of comparison image data corresponding to each of these pixels The sum of absolute values of can be used. In this case, the block with the smallest sum is detected as the most correlated block.

このような視差画像生成部113のマッチング処理としては、例えばSSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、又は、ZSAD(Zero-mean Sum of Absolute Difference)等の手法を用いることができる。なお、マッチング処理において、1画素未満のサブピクセルレベルの視差値が必要な場合は、推定値を用いる。推定値の推定手法としては、例えば等角直線方式又は二次曲線方式等を用いることができる。ただし、推定したサブピクセルレベルの視差値には誤差が発生する。このため、推定誤差を減少させるEEC(推定誤差補正)等の手法を用いてもよい。   As such matching processing of the parallax image generation unit 113, for example, SSD (Sum of Squared Difference), ZSSD (Zero-mean Sum of Squared Difference), SAD (Sum of Absolute Difference), or ZSAD (Zero-mean Sum) of Absolute Difference) can be used. In the matching process, when a sub-pixel level disparity value of less than one pixel is required, an estimated value is used. As an estimation method of the estimated value, for example, an equiangular straight line method or a quadratic curve method can be used. However, an error occurs in the estimated sub-pixel level parallax value. For this reason, a technique such as EEC (estimation error correction) for reducing the estimation error may be used.

この例では、視差画像生成部113は、FPGA16により実現される。視差画像生成部113により生成された視差画像は、物体検出処理部114へ供給される。この例では、物体検出処理部114の機能は、CPU15が立体物認識プログラムを実行することにより実現される。   In this example, the parallax image generation unit 113 is realized by the FPGA 16. The parallax image generated by the parallax image generation unit 113 is supplied to the object detection processing unit 114. In this example, the function of the object detection processing unit 114 is realized by the CPU 15 executing a three-dimensional object recognition program.

図5は、物体検出処理部114が有する機能の一例を示す図である。図5に示すように、物体検出処理部114は、取得部121、路面検出処理部122、クラスタリング処理部123、トラッキング処理部124を有する。取得部121は、視差画像生成部113により生成された視差画像を取得する。取得部121は、ステレオカメラで撮像されるステレオ画像から算出された、画素毎に距離情報を有する距離画像(この例では視差画像)を取得する機能を有していると考えることができる。取得部121により取得された視差画像は路面検出処理部122およびクラスタリング処理部123へ入力される。   FIG. 5 is a diagram illustrating an example of functions of the object detection processing unit 114. As illustrated in FIG. 5, the object detection processing unit 114 includes an acquisition unit 121, a road surface detection processing unit 122, a clustering processing unit 123, and a tracking processing unit 124. The acquisition unit 121 acquires the parallax image generated by the parallax image generation unit 113. The acquisition unit 121 can be considered to have a function of acquiring a distance image (in this example, a parallax image) having distance information for each pixel calculated from a stereo image captured by a stereo camera. The parallax image acquired by the acquisition unit 121 is input to the road surface detection processing unit 122 and the clustering processing unit 123.

図6に示すように、路面検出処理部122は、路面推定部131と、生成部132と、を有する。路面推定部131は、視差画像を用いて、画像の垂直方向(ステレオカメラの光軸と直交する上下方向)を示す縦方向の位置と、ステレオカメラの光軸の方向を示す奥行方向の位置とが対応付けられた対応情報を生成する。この例では、路面推定部131は、視差画像の各画素(視差値)を、画像の垂直方向の座標(y)を縦軸、視差値dを横軸とするマップ(以下、「Vマップ(V−Disparityマップ)」と称する)に投票し、投票された視差点から所定の方法で標本点を選択し、選択された点群を直線近似(または、曲線近似)する形で路面形状を推定する。この路面推定の方法としては公知の様々な技術を利用可能である。Vマップとは、視差画像の(x座標値、y座標値、視差値d)の組のうち、x軸を視差値d、y軸をy座標値、z軸を頻度とした2次元ヒストグラムである。要するに、上記対応情報(この例ではVマップ)は、縦方向の位置と視差値d(奥行方向の位置に相当)との組み合わせごとに、視差の頻度値を記録した情報であると考えることもできる。路面推定部131による推定結果(路面推定情報)は、生成部132、クラスタリング処理部123へ入力される。   As illustrated in FIG. 6, the road surface detection processing unit 122 includes a road surface estimation unit 131 and a generation unit 132. The road surface estimation unit 131 uses the parallax image to indicate a vertical position indicating the vertical direction of the image (vertical direction orthogonal to the optical axis of the stereo camera) and a depth direction position indicating the direction of the optical axis of the stereo camera. Is generated in correspondence information. In this example, the road surface estimation unit 131 maps each pixel (parallax value) of a parallax image with the vertical coordinate (y) of the image as the vertical axis and the parallax value d as the horizontal axis (hereinafter referred to as “V map ( V-Disparity map) ”is selected, sample points are selected from the voted parallax points by a predetermined method, and the road surface shape is estimated by linear approximation (or curve approximation) of the selected point group. To do. Various known techniques can be used as this road surface estimation method. The V map is a two-dimensional histogram in which the x axis is the parallax value d, the y axis is the y coordinate value, and the z axis is the frequency in a set of parallax images (x coordinate value, y coordinate value, parallax value d). is there. In short, the correspondence information (V map in this example) may be considered as information in which the frequency value of the parallax is recorded for each combination of the position in the vertical direction and the parallax value d (corresponding to the position in the depth direction). it can. The estimation result (road surface estimation information) by the road surface estimation unit 131 is input to the generation unit 132 and the clustering processing unit 123.

生成部132は、視差画像に基づいて、ステレオカメラの光軸と直交する方向を示す横方向の位置と、ステレオカメラの光軸の方向を示す奥行方向の位置とが対応付けられた第1の対応情報を生成する。このとき、ノイズを除去するため、視差画像のうち、路面(オブジェクトの高さの基準となる基準オブジェクトの一例)よりも高い範囲に対応する複数の画素に基づいて、第1の対応情報を生成するのが好ましい。なお、この例では、第1の対応情報は、横軸を横方向の実際の距離(実距離)、縦軸を視差画像の視差値d、奥行方向の軸を頻度とした2次元ヒストグラムである。第1の対応情報は、実距離と視差値dとの組み合わせごとに、視差の頻度値を記録した情報であると考えることもできる。   Based on the parallax image, the generation unit 132 associates a horizontal position indicating a direction orthogonal to the optical axis of the stereo camera with a position in the depth direction indicating the direction of the optical axis of the stereo camera. Generate correspondence information. At this time, in order to remove noise, first correspondence information is generated based on a plurality of pixels corresponding to a range higher than a road surface (an example of a reference object serving as a reference for the height of the object) in the parallax image. It is preferable to do this. In this example, the first correspondence information is a two-dimensional histogram in which the horizontal axis is the actual distance in the horizontal direction (actual distance), the vertical axis is the parallax value d of the parallax image, and the axis in the depth direction is the frequency. . The first correspondence information can be considered to be information in which the frequency value of the parallax is recorded for each combination of the actual distance and the parallax value d.

ここで、上述の路面推定部131の路面推定により、路面を表す直線式が得られているため、視差値dが決まれば、対応するy座標y0が決まり、この座標y0が路面の高さとなる。例えば視差値がdでy座標がy’である場合、y’−y0が視差値dのときの路面からの高さを示す。上述の座標(d,y’)の路面からの高さHは、H=(z×(y’−y0))/fという演算式で求めることができる。なお、この演算式における「z」は、視差値dから計算される距離(z=BF/(d−offset))、「f」は撮像ユニット102の焦点距離を(y’−y0)の単位と同じ単位に変換した値である。ここで、BFは、撮像ユニット102の基線長Bと焦点距離fを乗じた値、offsetは無限遠のオブジェクトを撮影したときの視差である。   Here, since the linear equation representing the road surface is obtained by the road surface estimation of the road surface estimation unit 131 described above, if the parallax value d is determined, the corresponding y coordinate y0 is determined, and this coordinate y0 becomes the height of the road surface. . For example, when the parallax value is d and the y coordinate is y ′, the height from the road surface when y′−y0 is the parallax value d is indicated. The height H of the coordinates (d, y ′) from the road surface can be obtained by an arithmetic expression H = (z × (y′−y0)) / f. In this arithmetic expression, “z” is a distance calculated from the parallax value d (z = BF / (d−offset)), and “f” is a focal length of the imaging unit 102 (y′−y0). Is the value converted to the same unit. Here, BF is a value obtained by multiplying the base line length B of the imaging unit 102 and the focal length f, and offset is a parallax when an object at infinity is photographed.

生成部132は、第1の対応情報として、「High Umap」、「Standard Umap」、「Small Umap」のうちの少なくとも1つを生成する。以下、これらのマップについて説明する。まず、「High Umap」について説明する。視差画像の横方向の位置をx、縦方向の位置をy、画素ごとに設定される視差値をdとすると、生成部132は、視差画像のうち、路面よりも高い第1の範囲内の所定値以上の高さの範囲を示す第2の範囲内に対応する点(x、y、d)を、(x、d)の値に基づいて投票することで、横軸を視差画像のx、縦軸を視差値d、奥行方向の軸を頻度とした2次元ヒストグラムを生成する。そして、この2次元ヒストグラムの横軸を実距離に変換して、High Umapを生成する。   The generation unit 132 generates at least one of “High Umap”, “Standard Umap”, and “Small Umap” as the first correspondence information. Hereinafter, these maps will be described. First, “High Umap” will be described. If the position in the horizontal direction of the parallax image is x, the position in the vertical direction is y, and the parallax value set for each pixel is d, the generation unit 132 is within the first range higher than the road surface in the parallax image. By voting a point (x, y, d) corresponding to the second range indicating a height range equal to or higher than a predetermined value based on the value of (x, d), the horizontal axis is x of the parallax image. Then, a two-dimensional histogram is generated with the parallax value d on the vertical axis and the frequency on the axis in the depth direction. Then, the horizontal axis of this two-dimensional histogram is converted into an actual distance to generate High Umap.

例えば図7に示す撮像画像においては、大人と子供を含む人グループ1と、大人同士の人グループ2と、ポールと、車両とが映り込んでいる。この例では、路面からの実高さが150cm〜200cmの範囲が第2の範囲として設定され、該第2の範囲の視差値dが投票されたHigh Umapは図8のようになる。高さが150cm未満の子供の視差値dは投票されないためマップ上に現れないことになる。なお、縦軸は、距離に応じた間引き率を用いて視差値dを間引き処理した間引き視差となっている。生成部132により生成されたHigh Umapはクラスタリング処理部123に入力される。   For example, in the captured image shown in FIG. 7, a person group 1 including adults and children, a person group 2 between adults, a pole, and a vehicle are reflected. In this example, a range where the actual height from the road surface is 150 cm to 200 cm is set as the second range, and High Umap in which the parallax value d of the second range is voted is as shown in FIG. The parallax value d of a child whose height is less than 150 cm is not voted and therefore does not appear on the map. The vertical axis represents the thinning parallax obtained by thinning the parallax value d using the thinning rate according to the distance. The High Umap generated by the generation unit 132 is input to the clustering processing unit 123.

次に、「Standard Umap」について説明する。視差画像の横方向の位置をx、縦方向の位置をy、画素ごとに設定される視差値をdとすると、生成部132は、視差画像のうち第1の範囲内に対応する点(x、y、d)を、(x、d)の値に基づいて投票することで、横軸を視差画像のx、縦軸を視差値d、奥行方向の軸を頻度とした2次元ヒストグラムを生成する。そして、この2次元ヒストグラムの横軸を実距離に変換して、Standard Umapを生成する。図7の例では、0cm〜200cmの範囲(上述の第2の範囲を含んでいる)が第1の範囲として設定され、該第1の範囲の視差値dが投票されたStandard Umapは図9のようになる。また、生成部132は、Standard Umapと併せて、Standard Umapに投票される視差点(実距離と視差値dとの組)のうち、路面からの高さ(h)が最も高い視差点の高さを記録して、横軸を実距離(カメラの左右方向の距離)、縦軸を視差値dとし、対応する点ごとに高さが記録された高さ情報を生成することもできる。高さ情報は、実距離と視差値dとの組み合わせごとに高さを記録した情報であると考えてもよい。以下の説明では、この高さ情報を、「Standard Umapの高さマップ」と称する。「Standard Umapの高さマップ」に含まれる各画素の位置はStandard Umapに含まれる各画素の位置に対応している。生成部132により生成されたStandard UmapおよびStandard Umapの高さマップはクラスタリング処理部123に入力される。なお、本処理は物体を検出しやすくするために俯瞰的なマップ(鳥瞰画像、俯瞰画像)を生成するものであるため、横軸は実距離でなくとも実距離に相当するものであればよい。   Next, “Standard Umap” will be described. Assuming that the horizontal position of the parallax image is x, the vertical position is y, and the parallax value set for each pixel is d, the generation unit 132 corresponds to a point (x , Y, d) are voted based on the values of (x, d), thereby generating a two-dimensional histogram with the horizontal axis representing the parallax image x, the vertical axis representing the parallax value d, and the depth axis representing the frequency. To do. Then, the horizontal axis of the two-dimensional histogram is converted into an actual distance to generate a standard Umap. In the example of FIG. 7, the standard Umap in which the range of 0 cm to 200 cm (including the above-described second range) is set as the first range and the parallax value d of the first range is voted is FIG. become that way. In addition to the standard Umap, the generation unit 132 includes the parallax point with the highest height (h) from the road surface among the parallax points (a set of the actual distance and the parallax value d) voted for the Standard Umap. It is also possible to generate height information in which the height is recorded for each corresponding point, with the horizontal axis representing the actual distance (distance in the left-right direction of the camera) and the vertical axis representing the parallax value d. You may think that height information is the information which recorded height for every combination of real distance and the parallax value d. In the following description, this height information is referred to as a “Standard Umap height map”. The position of each pixel included in the “Standard Umap height map” corresponds to the position of each pixel included in the Standard Umap. The standard Umap and the standard Umap height map generated by the generation unit 132 are input to the clustering processing unit 123. In addition, since this process generates a bird's-eye view map (bird's-eye view image, bird's-eye view image) in order to make it easier to detect an object, the horizontal axis may be equivalent to an actual distance, not an actual distance. .

次に、「Small Umap」について説明する。視差画像の横方向の位置をx、縦方向の位置をy、画素ごとに設定される視差値をdとすると、生成部132は、視差画像のうち第1の範囲内に対応する点(x、y、d)を、(x、d)の値に基づいて投票(Standard Umapを作成する場合よりも少ない数を投票)することで、横軸を視差画像のx、縦軸を視差値d、奥行方向の軸を頻度とした2次元ヒストグラムを生成する。そして、この2次元ヒストグラムの横軸を実距離に変換して、Small Umapを生成する。Small Umapは、Standard Umapと比較して1画素の距離分解能が低い。また、生成部132は、Small Umapと併せて、Small Umapに投票される視差点(実距離と視差値dとの組)のうち、路面からの高さ(h)が最も高い視差点の高さを記録して、横軸を実距離(カメラの左右方向の距離)、縦軸を視差値dとし、対応する点ごとに高さが記録された高さ情報を生成することもできる。高さ情報は、実距離と視差値dとの組み合わせごとに高さを記録した情報であると考えてもよい。以下の説明では、この高さ情報を、「Small Umapのマップ高さ」と称する。「Small Umapの高さマップ」に含まれる各画素の位置はSmall Umapに含まれる各画素の位置に対応している。生成部132により生成されたSmall UmapおよびSmall Umapの高さマップはクラスタリング処理部123に入力される。   Next, “Small Umap” will be described. Assuming that the horizontal position of the parallax image is x, the vertical position is y, and the parallax value set for each pixel is d, the generation unit 132 corresponds to a point (x , Y, d) based on the values of (x, d) (voting a smaller number than when creating a Standard Umap), the horizontal axis is x of the parallax image, and the vertical axis is the parallax value d. Then, a two-dimensional histogram with the frequency in the depth direction as a frequency is generated. Then, the horizontal axis of the two-dimensional histogram is converted into an actual distance to generate a Small Umap. Small Umap has a lower distance resolution of one pixel than Standard Umap. In addition to the Small Umap, the generation unit 132 includes a parallax point with the highest height (h) from the road surface among the parallax points voted by the Small Umap (a set of the actual distance and the parallax value d). It is also possible to generate height information in which the height is recorded for each corresponding point, with the horizontal axis representing the actual distance (distance in the left-right direction of the camera) and the vertical axis representing the parallax value d. You may think that height information is the information which recorded height for every combination of real distance and the parallax value d. In the following description, this height information is referred to as “Small Umap map height”. The position of each pixel included in the “Small Umap height map” corresponds to the position of each pixel included in the Small Umap. The Small Umap and the Small Umap height map generated by the generation unit 132 are input to the clustering processing unit 123.

この例では、生成部132はStandard Umapを生成し、その生成されたStandard Umapがクラスタリング処理部123に入力される場合を例に挙げて説明するが、これに限らず、例えば「High Umap」、「Standard Umap」、「Small Umapの高さマップ」を用いて物体検出を行う場合は、生成部132は、「High Umap」、「Standard Umap」、「Small Umap」を生成し、これらのマップがクラスタリング処理部123に入力されてもよい。   In this example, the generation unit 132 generates a standard Umap and the generated standard Umap is input to the clustering processing unit 123 as an example. However, the present invention is not limited to this, and for example, “High Umap”, In the case of performing object detection using “Standard Umap” and “Small Umap height map”, the generation unit 132 generates “High Umap”, “Standard Umap”, and “Small Umap”. The data may be input to the clustering processing unit 123.

図5に戻って説明を続ける。クラスタリング処理部123は、路面検出処理部122から受け取った各種の情報を用いて、取得部121により取得された視差画像上の物***置を検出する。図10は、クラスタリング処理部123の詳細な機能の一例を示す図である。図10に示すように、クラスタリング処理部123は、孤立領域検出処理部140、面検出処理部141、視差画処理部150、棄却処理部160を有する。   Returning to FIG. The clustering processing unit 123 detects the object position on the parallax image acquired by the acquisition unit 121 using various types of information received from the road surface detection processing unit 122. FIG. 10 is a diagram illustrating an example of detailed functions of the clustering processing unit 123. As illustrated in FIG. 10, the clustering processing unit 123 includes an isolated region detection processing unit 140, a surface detection processing unit 141, a parallax image processing unit 150, and a rejection processing unit 160.

孤立領域検出処理部140は、「検出部」の一例であり、前述の第1の対応情報(この例ではStandard Umap)から、視差値dの塊の領域である孤立領域(集合領域)を検出する。以下の説明では、この検出処理を「孤立領域検出処理」と称する。例えば図11に示す撮像画像の場合、左右にガードレール81,82があり、車両77および車両79がセンターラインを挟んで対面通行をしている。各走行車線には、それぞれ1台の車両77又は車両79が走行している。車両79とガードレール82との間には2本のポール80A,80Bが存在している。図12は、図11に示す撮像画像に基づいて得られたStandard Umapであり、枠で囲まれた領域が孤立領域に相当する。   The isolated region detection processing unit 140 is an example of a “detection unit”, and detects an isolated region (aggregate region) that is a region of a lump of parallax values d from the above-described first correspondence information (in this example, Standard Umap). To do. In the following description, this detection processing is referred to as “isolated region detection processing”. For example, in the case of the captured image shown in FIG. 11, there are guard rails 81 and 82 on the left and right, and the vehicle 77 and the vehicle 79 are facing each other across the center line. One vehicle 77 or vehicle 79 is traveling in each traveling lane. Two poles 80 </ b> A and 80 </ b> B exist between the vehicle 79 and the guardrail 82. FIG. 12 is a standard Umap obtained based on the captured image shown in FIG. 11, and an area surrounded by a frame corresponds to an isolated area.

面検出処理部141は、孤立領域検出処理部140により検出された孤立領域(集合領域)の輪郭から面情報を算出し、検出結果に3次元構造として情報化する。また、検出された孤立領域が、同一方向の側面を複数持つと判断した場合は、該孤立領域を分離する処理を行う。以下の説明では、面検出処理部141による処理を「面検出処理」と称する。より具体的な内容については後述する。   The surface detection processing unit 141 calculates surface information from the outline of the isolated region (collected region) detected by the isolated region detection processing unit 140, and converts the detection result into information as a three-dimensional structure. In addition, when it is determined that the detected isolated area has a plurality of side surfaces in the same direction, processing for separating the isolated area is performed. In the following description, the processing by the surface detection processing unit 141 is referred to as “surface detection processing”. More specific contents will be described later.

視差画処理部150は、孤立領域検出処理部140により検出された孤立領域に対応する視差画像上の領域や実空間での物体情報を検出する視差画処理を行う。図13は、図12に示す孤立領域に対応する視差画像上の領域(視差画処理部150による処理の結果)を示す図であり、図13の領域91はガードレール81に対応する領域であり、領域92は車両77に対応する領域であり、領域93は車両79に対応する領域であり、領域94はポール80Aに対応する領域であり、領域95はポール80Bに対応する領域であり、領域96はガードレール82に対応する領域である。   The parallax image processing unit 150 performs parallax image processing for detecting a region on a parallax image corresponding to the isolated region detected by the isolated region detection processing unit 140 or object information in real space. 13 is a diagram showing a region on the parallax image corresponding to the isolated region shown in FIG. 12 (result of processing by the parallax image processing unit 150), and a region 91 in FIG. 13 is a region corresponding to the guardrail 81, The region 92 is a region corresponding to the vehicle 77, the region 93 is a region corresponding to the vehicle 79, the region 94 is a region corresponding to the pole 80A, and the region 95 is a region corresponding to the pole 80B. Is an area corresponding to the guardrail 82.

棄却処理部160は、視差画処理部150により検出された視差画上の領域や実空間での物体情報に基づき、出力すべきオブジェクトを選別する棄却処理を行う。棄却処理部160は、物体のサイズに着目したサイズ棄却と、物体同士の位置関係に着目したオーバラップ棄却とを実行する。例えばサイズ棄却では、図14に示す物体(オブジェクト)タイプごとに定められたサイズ範囲に当てはまらないサイズの検出結果を棄却する。例えば図15の例では、領域91および領域96は棄却されている。また、オーバラップ棄却では、視差画処理により検出された、視差画上の孤立領域(リアルUマップ上の検出結果)に対応する領域同士に対し、重なりを持つ結果の取捨選択を行う。   The rejection processing unit 160 performs a rejection process for selecting an object to be output based on a region on the parallax image detected by the parallax image processing unit 150 or object information in real space. The rejection processing unit 160 executes size rejection focusing on the object size and overlap rejection focusing on the positional relationship between the objects. For example, in the size rejection, a detection result of a size that does not fall within the size range defined for each object (object) type shown in FIG. 14 is rejected. For example, in the example of FIG. 15, the region 91 and the region 96 are rejected. Further, in the overlap rejection, the results corresponding to the isolated areas (detection results on the real U map) on the parallax image detected by the parallax image processing are selected.

図16は、クラスタリング処理部123による処理の一例を示すフローチャートである。この例では、Standard Umap、Standard Umapの高さマップ、視差画像、路面推定情報が入力情報として入力され、視差画像上の検出結果が出力情報として出力される。まず孤立領域検出処理部140は孤立領域検出処理を行う(ステップS1)。次に、面検出処理部141は、面検出処理を行う(ステップS2)。視差画処理部150は、視差画処理を行う(ステップS3)。そして、棄却処理部160は、ステップS3の視差画処理の結果を用いて棄却処理を行い(ステップS4)、最終的な視差画像上の検出結果を出力情報として出力する。なお、ステップS2の面検出処理は、ステップS3の視差画処理とステップS4の棄却処理との間に行われてもよい。   FIG. 16 is a flowchart illustrating an example of processing performed by the clustering processing unit 123. In this example, Standard Umap, Standard Umap height map, parallax image, and road surface estimation information are input as input information, and a detection result on the parallax image is output as output information. First, the isolated area detection processing unit 140 performs isolated area detection processing (step S1). Next, the surface detection processing unit 141 performs surface detection processing (step S2). The parallax image processing unit 150 performs parallax image processing (step S3). Then, the rejection processing unit 160 performs rejection processing using the result of the parallax image processing in step S3 (step S4), and outputs the detection result on the final parallax image as output information. In addition, the surface detection process of step S2 may be performed between the parallax image process of step S3 and the rejection process of step S4.

なお、クラスタリング処理部123からの出力情報(検出結果)は図5に示すトラッキング処理部124に入力される。トラッキング処理部124は、クラスタリング処理部123による検出結果(検出された物体)が複数のフレームにわたって連続して出現する場合に追跡対象であると判定し、追跡対象である場合には、その検出結果を物体検出結果として制御ユニット104へ出力する。   Note that the output information (detection result) from the clustering processing unit 123 is input to the tracking processing unit 124 shown in FIG. The tracking processing unit 124 determines that the detection result (detected object) by the clustering processing unit 123 appears as a tracking target when it continuously appears across a plurality of frames. Is output to the control unit 104 as an object detection result.

次に、孤立領域検出処理の具体的な内容を説明する。図17は、孤立領域検出処理の一例を示すフローチャートである。この例では、Standard Umapが入力情報として入力される。出力情報については後述の説明で明らかになる。まず、孤立領域検出処理部140は、Standard Umap内の視差の塊ごとにグルーピングしてIDを付与するラベリング処理を行う(ステップS21)。具体的には、孤立領域検出処理部140は、Standard Umapに含まれる複数の画素ごとに着目していき、着目画素、および、該着目画素の近傍に存在する8画素(右方向、右斜め上方向、上方向、左斜め上方向、左方向、左斜め下方向、下方向、右斜め下方向の8つの方向と1対1に対応する8つの画素)のうち、頻度値を含む画素の画素値を「1」に設定し、頻度値を含まない画素の画素値を「0」に設定して二値化する。なお、二値化の方法はこれに限らず任意であり、例えば近傍8画素のうち閾値以上の視差の頻度値を含む画素の画素値を「1」とし、それ以外の画素の画素値を「0」とする形態であってもよい。そして、画素値「1」の集合で形成される閉領域を視差の塊(1つのグループ)とし、該閉領域に含まれる各画素に対してIDを付与する。なお、IDは、各グループを識別可能な値に設定される。   Next, specific contents of the isolated region detection process will be described. FIG. 17 is a flowchart illustrating an example of the isolated region detection process. In this example, Standard Umap is input as input information. The output information will be clarified in the following description. First, the isolated region detection processing unit 140 performs a labeling process for grouping and assigning an ID to each parallax cluster in the standard Umap (step S21). Specifically, the isolated region detection processing unit 140 pays attention to each of the plurality of pixels included in the standard Umap, and includes the target pixel and eight pixels existing in the vicinity of the target pixel (right direction, diagonally upward right) Out of the eight directions corresponding to the eight directions of the direction, the upper direction, the upper left direction, the left direction, the lower left direction, the lower direction, and the lower right direction). The value is set to “1”, the pixel value of the pixel not including the frequency value is set to “0”, and binarization is performed. Note that the binarization method is not limited to this, and for example, among the neighboring 8 pixels, the pixel value of the pixel including the parallax frequency value equal to or greater than the threshold is set to “1”, and the pixel values of the other pixels are set to “ It may be in the form of “0”. Then, a closed region formed by a set of pixel values “1” is set as a parallax lump (one group), and an ID is assigned to each pixel included in the closed region. The ID is set to a value that can identify each group.

図18は、二値化処理後の一例を示す図であり、領域200に含まれる5つの画素の各々に対して、同一のIDが付与されることになる。   FIG. 18 is a diagram illustrating an example after the binarization process, and the same ID is assigned to each of the five pixels included in the region 200.

図17に戻って説明を続ける。ステップS21の後、孤立領域検出処理部140は、検出矩形作成処理を行う(ステップS22)。具体的には、孤立領域検出処理部140は、同一のIDが割り振られた画素の集合領域に外接する矩形を算出し、算出した外接矩形を検出矩形とする。なお、ここでいう検出矩形とは、矩形の位置および大きさを示す情報のことをいい、例えば矩形の角の座標と高さおよび幅をいう。次に、孤立領域検出処理部140は、ステップS22で作成した検出矩形のサイズをチェックするサイズチェック処理を行う(ステップS23)。例えば孤立領域検出処理部140は、ステップS22で作成した検出矩形のサイズが、ノイズに相当するサイズとして予め定められた閾値以下の場合、該検出矩形を破棄する処理を行う。次に、孤立領域検出処理部140は、ステップS22で作成した検出矩形に含まれる各画素の頻度値(視差の頻度値)をチェックする頻度チェック処理を行う(ステップS24)。例えば孤立領域検出処理部140は、ステップS22で作成した検出矩形に含まれる頻度値(視差の頻度値)の累積値が、物体を表すのに必要な数として予め定められた閾値以下の場合、該検出矩形を破棄する処理を行う。   Returning to FIG. 17, the description will be continued. After step S21, the isolated region detection processing unit 140 performs a detection rectangle creation process (step S22). Specifically, the isolated region detection processing unit 140 calculates a rectangle circumscribing the pixel collection region to which the same ID is assigned, and sets the calculated circumscribed rectangle as a detection rectangle. Note that the detection rectangle here refers to information indicating the position and size of the rectangle, for example, the coordinates, height, and width of the corners of the rectangle. Next, the isolated area detection processing unit 140 performs a size check process for checking the size of the detection rectangle created in step S22 (step S23). For example, when the size of the detection rectangle created in step S22 is equal to or smaller than a threshold value that is predetermined as a size corresponding to noise, the isolated region detection processing unit 140 performs processing for discarding the detection rectangle. Next, the isolated region detection processing unit 140 performs frequency check processing for checking the frequency value (parallax frequency value) of each pixel included in the detection rectangle created in step S22 (step S24). For example, the isolated region detection processing unit 140, when the cumulative value of the frequency values (parallax frequency values) included in the detection rectangle created in step S22 is equal to or less than a threshold value that is predetermined as a number necessary to represent an object, Processing to discard the detection rectangle is performed.

以上の孤立領域検出処理により、Standard Umap上の検出矩形を示す情報が出力情報として出力される。なお、Standard Umap上の検出矩形に含まれる各画素に対しては、グループを識別するIDが割り当てられている。つまり、Standard Umap上でグルーピングされたIDのマップを示す情報(「Standard Umap上のID Umap」、他と区別しない場合は単に「IDマップ」と称する場合がある)が出力情報として出力されることにもなる。   Through the above isolated region detection processing, information indicating a detection rectangle on the standard Umap is output as output information. Note that an ID for identifying a group is assigned to each pixel included in the detection rectangle on the Standard Umap. That is, information indicating a map of IDs grouped on the Standard Umap (“ID Umap on the Standard Umap”, and may be simply referred to as “ID map” if not distinguished from others) is output as output information. It also becomes.

次に、面検出処理の具体的な内容を説明する。図19に示すように、面検出処理部141は、補間処理部142と、抽出部143と、分離部144と、を有する。孤立領域検出処理部140による検出結果は面検出処理部141に入力されることになり、面検出処理部141は、孤立領域検出処理部140による検出結果を用いて面検出処理を行う。   Next, specific contents of the surface detection process will be described. As illustrated in FIG. 19, the surface detection processing unit 141 includes an interpolation processing unit 142, an extraction unit 143, and a separation unit 144. The detection result by the isolated region detection processing unit 140 is input to the surface detection processing unit 141, and the surface detection processing unit 141 performs surface detection processing using the detection result by the isolated region detection processing unit 140.

図20は、面検出処理の流れを示すフローチャートである。ここでは、孤立領域検出処理による検出結果(Standard Umap上の検出矩形)ごとに、図20に示す処理が繰り返される。まず補間処理部142は補間処理を行う(ステップS100)。次に、抽出部143は輪郭抽出処理を行う(ステップS101)。次に、分離部144は分離処理を行う(ステップS102)。各ステップの具体的な内容は後述する。   FIG. 20 is a flowchart showing the flow of the surface detection process. Here, the process shown in FIG. 20 is repeated for each detection result (detection rectangle on Standard Umap) by the isolated area detection process. First, the interpolation processing unit 142 performs an interpolation process (step S100). Next, the extraction unit 143 performs contour extraction processing (step S101). Next, the separation unit 144 performs a separation process (step S102). Specific contents of each step will be described later.

図19に示す補間処理部142は、孤立領域検出処理部140による検出結果に対して、ノイズを平滑化するための補間処理を行う。補間処理により追加された画素に対しては新たにIDを付与する。   The interpolation processing unit 142 illustrated in FIG. 19 performs an interpolation process for smoothing noise on the detection result of the isolated region detection processing unit 140. A new ID is assigned to the pixel added by the interpolation process.

図19に示す抽出部143は、集合領域の輪郭を抽出する。本実施形態では、抽出部143は、輪郭を構成する複数の画素ごとに、繋がりの方向を示す方向情報を設定する。より具体的には以下のとおりである。図21は、抽出部143による輪郭抽出処理の一例を示すフローチャートである。以下、図21のフローチャートの内容を説明する。   The extraction unit 143 illustrated in FIG. 19 extracts the outline of the collection area. In the present embodiment, the extraction unit 143 sets direction information indicating the direction of connection for each of a plurality of pixels constituting the contour. More specifically, it is as follows. FIG. 21 is a flowchart illustrating an example of contour extraction processing by the extraction unit 143. The contents of the flowchart of FIG. 21 will be described below.

図21に示すように、抽出部143は、開始画素を探索する開始画素探索処理を行う(ステップS111)。より具体的には、図22に示すように、抽出部143は、検出矩形の左下から右上へIDを持つ画素を探索し、最初に見つかった画素を着目画素とする。   As illustrated in FIG. 21, the extraction unit 143 performs a start pixel search process for searching for a start pixel (step S111). More specifically, as illustrated in FIG. 22, the extraction unit 143 searches for a pixel having an ID from the lower left to the upper right of the detection rectangle, and sets the first found pixel as the target pixel.

図21に戻って説明を続ける。開始画素が見つかった場合(ステップS112:Yes)、抽出部143は、輪郭を抽出する処理を行う(ステップS113)。開始画素が見つからなかった場合(ステップS112:No)、そのまま処理は終了する。   Returning to FIG. 21, the description will be continued. When the start pixel is found (step S112: Yes), the extraction unit 143 performs a process of extracting a contour (step S113). If the start pixel is not found (step S112: No), the process ends.

以下、上述のステップS113の処理の具体的な内容を説明する。この例では、抽出部143は、着目画素に隣接する8画素について、図23に示すような左回りの探索順位でIDを持つ画素を探索していく。図23に示す探索順位は、着目画素に隣接する8画素のうち、左下に隣接する画素を第1番目に探索し、真下に隣接する画素を第2番目に探索し、右下に隣接する画素を第3番目に探索し、右に隣接する画素を第4番目に探索し、右上に隣接する画素を第5番目に探索し、真上に隣接する画素を第6番目に探索し、左上に隣接する画素を第7番目に探索し、左に隣接する画素を第8番目に探索することを表している。探索の結果、IDを持つ画素が見つかった場合は、そのときの探索順を着目画素に記録し、発見した画素を次の着目画素として探索を繰り返していく。例えば図24に示すように、着目画素の右上に隣接する画素が、IDを持つ画素として最初に発見された場合、そのときの探索順である「4」を着目画素に記録し、該着目画素の右上に隣接する画素を次の着目画素として探索を続ける。このとき、着目画素に記録された「4」を示す探索順は、輪郭の繋がりの方向を示す(着目画素から右上の方向に繋がることを示す)情報であり、方向情報に対応している。   Hereinafter, specific contents of the processing in step S113 described above will be described. In this example, the extraction unit 143 searches for pixels having IDs in the counterclockwise search order as shown in FIG. 23 for the eight pixels adjacent to the target pixel. In the search order shown in FIG. 23, among the eight pixels adjacent to the target pixel, the pixel adjacent to the lower left is searched first, the pixel adjacent to the lower right is searched second, and the pixel adjacent to the lower right Is searched third, the pixel adjacent to the right is searched fourth, the pixel adjacent to the upper right is searched fifth, the pixel immediately adjacent above is searched sixth, and the upper left This indicates that the adjacent pixel is searched seventh and the left adjacent pixel is searched eighth. If a pixel having an ID is found as a result of the search, the search order at that time is recorded in the target pixel, and the search is repeated with the found pixel as the next target pixel. For example, as shown in FIG. 24, when a pixel adjacent to the upper right of the target pixel is first found as a pixel having an ID, “4” which is the search order at that time is recorded in the target pixel, and the target pixel The search is continued with the pixel adjacent to the upper right of the next pixel of interest. At this time, the search order indicating “4” recorded in the target pixel is information indicating the direction of connection of contours (indicating that the target pixel is connected in the upper right direction), and corresponds to the direction information.

そして、図25に示すように、新たな着目画素に隣接する8画素について、図23に示すような左回りの探索順位でIDを持つ画素を探索していく。なお、処理後の画素(探索順が記録済みの画素)については、再び探索されても探索順が記録されることはない。図25の例では、着目画素の左下に隣接する画素(「4」を示す探索順が記録された直前の着目画素)は既に探索順が記録済みであるので、着目画素の右に隣接する画素が、IDを持つ対象画素として発見される。したがって、このときの探索順である「3」を着目画素に記録し、該着目画素の右に隣接する画素を次の着目画素として探索を続ける。以上のようにして、図26に示すように、集合領域(IDを付与された画素の集合)の輪郭を構成する画素ごとに、探索順を示す情報(方向情報に対応)が記録(設定)されていく。つまり、集合領域の輪郭は、探索順を示す情報が記録された画素を連結したものとなる。抽出部143は、以上のようにして抽出した輪郭の特徴(すなわち、ここでは物体の輪郭を構成する画素が並ぶ方向)に基づいて、背面位置、側面位置を算出することができる。例えば輪郭抽出の経路(着目画素の探索順)が左回りの場合(図23の場合)、右から左へ向かう方向を示す方向情報(この例では「7」を示す探索順)が設定された画素が最も多いY座標値(奥行方向(視差値dの方向)の座標値)から背面の距離を算出することができる。また、上から下へ向かう方向を示す方向情報(この例では「1」を示す探索順)が設定された画素が最も多いY座標値を左側面の位置として算出し、下から上へ向かう方向を示す情報(この例では「5」を示す探索順)が設定された画素が最も多いY座標値を右側面の位置として算出することができる。   Then, as shown in FIG. 25, for the eight pixels adjacent to the new target pixel, the pixels having IDs are searched in the counterclockwise search order as shown in FIG. For the processed pixels (the pixels for which the search order has already been recorded), the search order is not recorded even if the search is performed again. In the example of FIG. 25, the pixel adjacent to the lower left of the pixel of interest (the pixel of interest immediately before the search order indicating “4” is recorded) has already been recorded, so the pixel adjacent to the right of the pixel of interest Are found as target pixels having IDs. Therefore, “3” which is the search order at this time is recorded in the target pixel, and the search is continued with the pixel adjacent to the right of the target pixel as the next target pixel. As described above, as shown in FIG. 26, information indicating the search order (corresponding to the direction information) is recorded (set) for each pixel constituting the outline of the collection area (a collection of pixels assigned ID). It will be done. That is, the outline of the collective region is obtained by connecting pixels in which information indicating the search order is recorded. The extraction unit 143 can calculate the back surface position and the side surface position based on the feature of the contour extracted as described above (that is, the direction in which the pixels constituting the contour of the object are arranged here). For example, when the contour extraction path (search order of the pixel of interest) is counterclockwise (in the case of FIG. 23), direction information indicating the direction from right to left (search order indicating “7” in this example) is set. The back distance can be calculated from the Y coordinate value (the coordinate value in the depth direction (the direction of the parallax value d)) with the largest number of pixels. Further, the Y coordinate value having the most pixels for which direction information indicating the direction from the top to the bottom (in this example, the search order indicating “1”) is set is calculated as the position of the left side surface, and the direction from the bottom to the top Can be calculated as the position of the right side surface with the largest number of pixels for which the information indicating (in this example, the search order indicating “5”) is set.

図19に戻って説明を続ける。分離部144は、抽出部143により抽出された輪郭の特徴に基づいて、集合領域を分離する。より具体的には、分離部144は、抽出部143により抽出された輪郭が同一方向の複数の側面を有する場合に、集合領域を分離する。本実施形態では、分離部144は、輪郭を構成する複数の画素の各々に設定された方向情報に基づいて、同一方向の複数の側面が存在する状態を判別する。より具体的には、分離部144は、孤立領域検出処理部140により検出された集合領域を含む関心領域(第1の対応情報であるStandard Umap上の領域)の行ごとに横方向(Standard Umapの横軸(X軸)方向)にサーチしていき、繋がりの方向として同一の縦方向を示す方向情報が2回目以降にカウントされる画素を対象画素として特定していく。   Returning to FIG. 19, the description will be continued. The separation unit 144 separates the collection region based on the contour features extracted by the extraction unit 143. More specifically, the separation unit 144 separates the collection region when the contour extracted by the extraction unit 143 has a plurality of side surfaces in the same direction. In the present embodiment, the separation unit 144 determines a state where there are a plurality of side surfaces in the same direction based on the direction information set for each of the plurality of pixels constituting the contour. More specifically, the separation unit 144 performs the horizontal direction (Standard Umap) for each row of the region of interest (the region on the Standard Umap that is the first correspondence information) including the collection region detected by the isolated region detection processing unit 140. The horizontal axis (X-axis direction) is searched, and the pixel in which the direction information indicating the same vertical direction as the connection direction is counted after the second time is specified as the target pixel.

そして、分離部144は、横方向の位置と、奥行方向(Standard Umapの縦軸(Y軸)方向)にわたって対象画素をカウントした頻度値と、が対応付けられた第2の対応情報を生成する。分離部144は、この第2の対応情報に基づいて、2つ目の側面に対応する頻度値が閾値を超えるか否かを判断し、該2つ目の側面に対応する頻度値が閾値を超える場合に、該2つ目の側面を分離対象とする。さらに、分離部144は、分離対象の2つ目の側面に対応する横方向の位置から1つ目の側面に対応する横方向の位置へ向かう方向において、最も遠い奥行方向の位置に対応する横方向の位置を分離位置として特定する。そして、分離部144は、特定した分離位置を境界として1つの集合領域を2つの集合領域に分離し、IDを振り直す(別々のIDを割り当てる)。   Then, the separation unit 144 generates second correspondence information in which the horizontal position is associated with the frequency value obtained by counting the target pixel in the depth direction (Standard Umap vertical axis (Y-axis) direction). . Based on the second correspondence information, the separation unit 144 determines whether or not the frequency value corresponding to the second side exceeds the threshold, and the frequency value corresponding to the second side determines the threshold value. In the case of exceeding, the second side surface is the separation target. Further, the separation unit 144 has a lateral direction corresponding to the farthest position in the depth direction in the direction from the lateral position corresponding to the second side surface to be separated to the lateral position corresponding to the first side surface. The position in the direction is specified as the separation position. Then, the separation unit 144 separates one collection area into two collection areas with the identified separation position as a boundary, and reassigns IDs (assigns different IDs).

より具体的には以下のとおりである。図27は、分離部144による処理(分離処理)の一例を示すフローチャートである。分離部144は、抽出部143により輪郭が抽出された集合領域ごとに、図27の処理を繰り返す。以下、図27のフローチャートの内容を説明する。   More specifically, it is as follows. FIG. 27 is a flowchart illustrating an example of processing (separation processing) by the separation unit 144. The separation unit 144 repeats the process of FIG. 27 for each collection region whose contour is extracted by the extraction unit 143. The contents of the flowchart in FIG. 27 will be described below.

分離部144は、集合領域(物体)の位置は、右または左であるか否かを判断する(ステップS11)。より具体的には、分離部144は、集合領域の左端位置と右端位置から、集合領域がStandard Umap上の中心のX座標に対して左側か右側かを判断する。ここでは、図28に示すように、Standard Umap上の中心のX座標から、集合領域の左端のX座標までの距離をDiff_Left、中心のX座標から、集合領域の右端のX座標までの距離をDiff_Rightと表記する。そして、分離部144は、Diff_Leftが、Diff_Rightよりも所定数の画素分(左寄りか右寄りかを判別可能な数であればよい。この例では50cmに相当する4つ分)だけ大きい場合、集合領域の位置は左であると判断する。また、分離部144は、Diff_Rightが、Diff_Leftよりも所定の画素数分だけ大きい場合、集合領域の位置は右であると判断する。上記の何れの条件にも該当しない場合、分離部144は、集合領域の位置は中心であると判断する。この場合、ステップS11の結果は否定となり、そのまま処理は終了する。一方、集合領域の位置が右または左であると判断した場合、ステップS11の結果は肯定となり、処理はステップS12に移行する。   The separation unit 144 determines whether the position of the collection area (object) is right or left (step S11). More specifically, the separation unit 144 determines from the left end position and the right end position of the collection area whether the collection area is on the left side or the right side with respect to the X coordinate of the center on the Standard Umap. Here, as shown in FIG. 28, the distance from the center X coordinate on the Standard Umap to the left end X coordinate of the collective region is Diff_Left, and the distance from the center X coordinate to the right end X coordinate of the collective region is Expressed as Diff_Right. Then, the separation unit 144 only needs to have Diff_Left larger than Diff_Right by a predetermined number of pixels (a number that can be discriminated whether left or right, in this example, four corresponding to 50 cm). Is determined to be on the left. In addition, when the Diff_Right is larger than the Diff_Left by a predetermined number of pixels, the separation unit 144 determines that the position of the collection region is on the right. When none of the above conditions is satisfied, the separation unit 144 determines that the position of the collective region is the center. In this case, the result of step S11 is negative, and the process ends. On the other hand, if it is determined that the position of the collection area is right or left, the result of step S11 is affirmative, and the process proceeds to step S12.

ステップS12では、分離部144は、上述の第2の対応情報を生成する。この例では、分離部144は、集合領域を含む関心領域(例えばStandard Umap上の検出矩形であってもよい)の行ごとに横方向にサーチし、繋がりの方向として同一の縦方向を示す方向情報が2回目以降にカウントされる画素を対象画素として特定していく。そして、分離部144は、横方向(Standard Umapの横軸の方向)の位置と、奥行方向(Standard Umapの縦軸の方向)にわたって対象画素をカウントした頻度値とが対応付けられた第2の対応情報を生成する。例えば集合領域の位置が右である場合、サーチの開始位置は関心領域の左端であり、サーチ方向は左から右へ向かう方向であり、分離部144は、上から下へ向かう方向を示す方向情報(この例では「1」を示す探索順)が2回目以降にカウントされる画素を対象画素として特定する。   In step S12, the separation unit 144 generates the above-described second correspondence information. In this example, the separation unit 144 searches in the horizontal direction for each row of the region of interest including the collection region (for example, a detection rectangle on the Standard Umap), and indicates the same vertical direction as the connection direction. A pixel whose information is counted after the second time is specified as a target pixel. The separation unit 144 then associates the position in the horizontal direction (the direction of the horizontal axis of Standard Umap) with the frequency value obtained by counting the target pixel in the depth direction (the direction of the vertical axis of Standard Umap). Generate correspondence information. For example, when the position of the collection region is right, the search start position is the left end of the region of interest, the search direction is a direction from left to right, and the separation unit 144 has direction information indicating a direction from top to bottom. A pixel that is counted after the second time (search order indicating “1” in this example) is specified as a target pixel.

例えば図29のように下の行から順番にサーチする場合において、第3番目のサーチで「1」を示す探索順が設定された画素が発見されているが、「1」を示す探索順が設定された画素は1回しか発見されていないので(「1」を示す探索順が設定された画素のカウント数は1なので)、対象画素は存在しないことになる。また、例えば図30のように、第4番目のサーチでは、「1」を示す探索順が設定された画素が2回発見されているので(「1」を示す探索順が設定された画素のカウント数は2なので)、対象画素は存在することになり、2回目にカウントされた画素が対象画素として特定される。そして、分離部144は、横方向(Standard Umapの横軸の方向)の位置ごとに、以上のようにして特定した対象画素の数を奥行方向(Standard Umapの縦軸の方向)にわたってカウントしていき、そのカウント数に対応する頻度値を対応付ける。図31の例では、横方向の位置Pに対して、カウント数「5」(奥行方向にわたってカウントされた対象画素の数)を示す頻度値が対応付けられる。このようにして第2の対応情報が生成されることになる。   For example, in the case of searching in order from the lower row as shown in FIG. 29, pixels in which the search order indicating “1” is set in the third search are found, but the search order indicating “1” is Since the set pixel is found only once (because the count number of the pixel for which the search order indicating “1” is set is 1), the target pixel does not exist. For example, as shown in FIG. 30, in the fourth search, a pixel in which the search order indicating “1” is set is found twice (the pixel of the search order in which “1” is set is set). Since the count number is 2), the target pixel exists, and the pixel counted for the second time is specified as the target pixel. Then, the separation unit 144 counts the number of target pixels specified as described above for each position in the horizontal direction (the direction of the horizontal axis of Standard Umap) over the depth direction (the direction of the vertical axis of Standard Umap). Then, the frequency value corresponding to the count number is associated. In the example of FIG. 31, the frequency value indicating the count number “5” (the number of target pixels counted in the depth direction) is associated with the position P in the horizontal direction. In this way, the second correspondence information is generated.

また、例えば集合領域が斜めの形状を持つ場合に対応するために、第2の対応情報は、横方向の位置ごとに、該横方向の位置を含む横方向の所定の範囲内における対象画素の数を奥行方向にわたってカウントした数の総数を頻度値として対応付けた情報であってもよい。例えば図32において、横方向の位置Pを含む所定の範囲は左右に隣接する位置Q、位置Rを含む範囲であり、この所定の範囲内における対象画素の数を奥行方向にわたってカウントした数は「5」となる。同様に、横方向の位置Qを含む所定の範囲は左右に隣接する位置S、位置Pを含む範囲であり、この所定の範囲内における対象画素の数を奥行方向にわたってカウントした数は「5」となる。同様に、横方向の位置Rを含む所定の範囲は左右に隣接する位置P、位置Tを含む範囲であり、この所定の範囲内における対象画素の数を奥行方向にわたってカウントした数は「5」となる。この場合、第2の対応情報は、位置Qに対してカウント数「5」を示す頻度値が対応付けられ、位置Pに対してカウント数「5」を示す頻度値が対応付けられ、位置Rに対してカウント数「5」を示す頻度値が対応付けられた情報となる。   Further, for example, in order to cope with the case where the collection region has an oblique shape, the second correspondence information includes, for each position in the horizontal direction, the target pixel in the predetermined range in the horizontal direction including the horizontal position. It may be information in which the total number of numbers counted in the depth direction is associated as a frequency value. For example, in FIG. 32, the predetermined range including the position P in the horizontal direction is a range including the position Q and the position R adjacent to the left and right, and the number obtained by counting the number of target pixels in the predetermined range in the depth direction is “ 5 ". Similarly, the predetermined range including the position Q in the horizontal direction is a range including the positions S and P adjacent to the left and right, and the number obtained by counting the number of target pixels in the predetermined range in the depth direction is “5”. It becomes. Similarly, the predetermined range including the horizontal position R is a range including the left and right adjacent positions P and T, and the number obtained by counting the number of target pixels in the predetermined range in the depth direction is “5”. It becomes. In this case, in the second correspondence information, the frequency value indicating the count number “5” is associated with the position Q, the frequency value indicating the count number “5” is associated with the position P, and the position R Is associated with a frequency value indicating the count number “5”.

図27に戻って説明を続ける。ステップS12で第2の対応情報を生成した後、分離部144は、集合領域(第2の対応情報の生成元の集合領域)が分離対象であるか否かを判断する(ステップS13)。この例では、第2の対応情報の最大の頻度値(最大頻度)は2つ目の側面の長さと考えることができ、分離部144は、第2の対応情報の最大頻度が、もともとの奥行きに比べて十分な長さを有しているか否かを判断する。ここでは、分離部144は、第2の対応情報の最大頻度が、もともとの奥行きに比べて十分な長さを有しているか否かを判断するための第1の閾値よりも大きいか否かを判断(第1の条件を満たすか否かを判断)する。また、分離部144は、検出物体の距離(奥行方向の距離)に着目し、第2の対応情報の最大頻度(2つ目の側面の長さに対応)が、視差誤差による側面らしい形状をした集合領域を2つ目の側面として検出していないか否かを判断するための第2の閾値よりも大きいか否かを判断(第2の条件を満たすか否かを判断)する。ここでは、分離部144は、第1の条件および第2の条件を満たす場合、集合領域は分離対象であると判断する。要するに、分離部144は、第2の対応情報に基づいて、2つ目の側面に対応する頻度値が閾値を超えるか否かを判断し、2つ目の側面に対応する頻度値が閾値を超える場合に、該2つ目の側面を分離対象とする。見方を変えれば、第2の対応情報において閾値を超える頻度値は、分離対象とする2つ目の側面に対応する頻度値となる。   Returning to FIG. 27, the description will be continued. After generating the second correspondence information in step S12, the separation unit 144 determines whether or not the collection region (the collection region from which the second correspondence information is generated) is a separation target (step S13). In this example, the maximum frequency value (maximum frequency) of the second correspondence information can be considered as the length of the second side surface, and the separation unit 144 determines that the maximum frequency of the second correspondence information is the original depth. It is judged whether it has sufficient length compared with. Here, the separation unit 144 determines whether or not the maximum frequency of the second correspondence information is greater than a first threshold value for determining whether or not the maximum frequency of the second correspondence information has a sufficient length compared to the original depth. (Determining whether or not the first condition is satisfied). In addition, the separation unit 144 focuses on the distance of the detected object (the distance in the depth direction), and the maximum frequency of the second correspondence information (corresponding to the length of the second side surface) is a shape that seems to be a side surface due to a parallax error. It is determined whether or not the set area is larger than a second threshold value for determining whether or not the second side surface is detected (determining whether or not the second condition is satisfied). Here, the separation unit 144 determines that the collection region is a separation target when the first condition and the second condition are satisfied. In short, the separation unit 144 determines whether or not the frequency value corresponding to the second side surface exceeds the threshold value based on the second correspondence information, and the frequency value corresponding to the second side surface sets the threshold value. In the case of exceeding, the second side surface is the separation target. In other words, the frequency value exceeding the threshold in the second correspondence information becomes the frequency value corresponding to the second side to be separated.

ステップS13の結果が肯定の場合(ステップS13:Yes)、分離部144は集合領域を分離する処理を行う(ステップS14)。一方、ステップS13の結果が否定の場合(ステップS13:No)、そのまま処理は終了する。以下、上述のステップS14の処理の具体的な内容について説明する。分離部144は、第2の対応情報の最大頻度値に対応付けられた横方向の位置を、2つ目の側面の位置と判断する。例えば図32の態様の場合は、最大頻度値に対応付けられた3つの横方向の位置(P、Q、R)のうち、奥行方向の位置が最も近い対象画素(視差値が最も大きい対象画素(この例では「1」を示す探索順が設定された画素))が対応付けられた位置Pを、2つ目の側面に対応する位置として判断することができる。そして、2つ目の側面に対応する横方向の位置から1つ目の側面に対応する横方向の位置へ向かう方向において、最小視差を持つ画素(奥行方向に最も遠い画素)を特定する。集合領域の位置が右である場合、図33に示すように、分離部144は、2つ目の側面に対応する位置から左へ向かう方向において、最小視差を持つ画素の横方向の位置を分離位置として特定する。つまり、奥行方向の空白領域が最も大きい画素の横方向の位置を分離位置として特定する。そして、図34に示すように、分離部144は、以上のようにして特定した分離位置を境界として、1つの集合領域を2つの集合領域(図34の例では、第1の集合領域と第2の集合領域)に分離する。   If the result of step S13 is affirmative (step S13: Yes), the separation unit 144 performs a process of separating the collection area (step S14). On the other hand, if the result of step S13 is negative (step S13: No), the process ends. Hereinafter, the specific content of the process of above-mentioned step S14 is demonstrated. The separation unit 144 determines that the position in the horizontal direction associated with the maximum frequency value of the second correspondence information is the position of the second side surface. For example, in the case of the aspect of FIG. 32, among the three horizontal positions (P, Q, R) associated with the maximum frequency value, the target pixel having the closest position in the depth direction (the target pixel having the largest parallax value) (In this example, a pixel in which the search order indicating “1” is set)) can be determined as a position corresponding to the second side surface. Then, the pixel having the minimum parallax (the pixel farthest in the depth direction) is specified in the direction from the lateral position corresponding to the second side surface to the lateral position corresponding to the first side surface. When the position of the collection region is right, as illustrated in FIG. 33, the separation unit 144 separates the horizontal position of the pixel having the minimum parallax in the direction from the position corresponding to the second side surface to the left. Specify as location. That is, the horizontal position of the pixel having the largest blank area in the depth direction is specified as the separation position. As shown in FIG. 34, the separation unit 144 uses two separation regions (in the example of FIG. 34, the first collection region and the first collection region) with the separation position specified as described above as a boundary. 2 aggregated areas).

以上に説明したように、本実施形態では、抽出部143により抽出された集合領域の輪郭の特徴に基づいて集合領域を分離する。より具体的には、分離部144は、抽出部143により抽出された集合領域の輪郭が同一方向の複数の面を有する場合に、該集合領域を分離する。これは通常、同一の物体であれば、その物体を囲む面は同一方向に複数存在しないので、同一方向の面が複数ある場合には、複数の物体が連結して誤検出されていると判断できるためである。これにより、複数の物体を結合した1つの物体として誤検出されることを防止できる。すなわち、本実施形態によれば、物体の検出精度を十分に確保することができる。   As described above, in the present embodiment, the collection area is separated based on the outline characteristics of the collection area extracted by the extraction unit 143. More specifically, the separation unit 144 separates the collection region when the outline of the collection region extracted by the extraction unit 143 has a plurality of surfaces in the same direction. Normally, if there are multiple surfaces in the same direction for the same object, if there are multiple surfaces in the same direction, it is determined that multiple objects are connected and erroneously detected. This is because it can. Accordingly, it is possible to prevent erroneous detection as one object obtained by combining a plurality of objects. That is, according to the present embodiment, sufficient object detection accuracy can be ensured.

以上、本発明に係る実施形態について説明したが、本発明は、上述の各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。   As mentioned above, although embodiment which concerns on this invention was described, this invention is not limited to each above-mentioned embodiment as it is, A component can be deform | transformed and embodied in the range which does not deviate from the summary in an implementation stage. . Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment.

また、上述した実施形態の機器制御システム100で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   The program executed by the device control system 100 according to the above-described embodiment is a file in an installable format or an executable format, and is a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk). It may be configured to be recorded and provided on a computer-readable recording medium such as USB (Universal Serial Bus), or may be configured to be provided or distributed via a network such as the Internet. Various programs may be provided by being incorporated in advance in a ROM or the like.

1A 第1のカメラ部
1B 第2のカメラ部
5A,5B 撮像レンズ
6A,6B 画像センサ
7A,7B センサコントローラ
10 データバスライン
11 シリアルバスライン
15 CPU
16 FPGA
17 ROM
18 RAM
19 シリアルIF
20 データIF
100 機器制御システム
101 車両
102 撮像ユニット
103 解析ユニット
104 制御ユニット
105 表示部
106 フロントガラス
111 前処理部
112 平行化画像生成部
113 視差画像生成部
114 物体検出処理部
121 取得部
122 路面検出処理部
123 クラスタリング処理部
124 トラッキング処理部
131 路面推定部
132 生成部
140 孤立領域検出処理部
141 面検出処理部
142 補間処理部
143 抽出部
144 分離部
150 視差画処理部
160 棄却処理部
DESCRIPTION OF SYMBOLS 1A 1st camera part 1B 2nd camera part 5A, 5B Imaging lens 6A, 6B Image sensor 7A, 7B Sensor controller 10 Data bus line 11 Serial bus line 15 CPU
16 FPGA
17 ROM
18 RAM
19 Serial IF
20 Data IF
DESCRIPTION OF SYMBOLS 100 Device control system 101 Vehicle 102 Imaging unit 103 Analysis unit 104 Control unit 105 Display unit 106 Windshield 111 Preprocessing unit 112 Parallelized image generation unit 113 Parallax image generation unit 114 Object detection processing unit 121 Acquisition unit 122 Road surface detection processing unit 123 Clustering processing unit 124 Tracking processing unit 131 Road surface estimation unit 132 Generation unit 140 Isolated region detection processing unit 141 Surface detection processing unit 142 Interpolation processing unit 143 Extraction unit 144 Separation unit 150 Parallax image processing unit 160 Rejection processing unit

特許第3349060号公報Japanese Patent No. 3349060

Claims (12)

画素毎に距離情報を有する距離画像を取得する取得部と、
前記距離画像に基づいて横方向の位置と、奥行方向の位置とが対応付けられた第1の対応情報を生成する生成部と、
前記第1の対応情報から、前記距離情報の集合領域を検出する検出部と、
前記集合領域の輪郭を抽出する抽出部と、
前記抽出部により抽出された前記輪郭の特徴に基づいて、前記集合領域を分離する分離部と、を備える、
情報処理装置。
An acquisition unit for acquiring a distance image having distance information for each pixel;
A generating unit that generates first correspondence information in which a position in the horizontal direction and a position in the depth direction are associated with each other based on the distance image;
A detection unit for detecting a collection area of the distance information from the first correspondence information;
An extraction unit for extracting the outline of the gathering region;
A separation unit that separates the aggregate region based on the features of the contour extracted by the extraction unit;
Information processing device.
前記分離部は、前記抽出部により抽出された前記輪郭が同一方向の複数の面を有する場合に、前記集合領域を分離する、
請求項1に記載の情報処理装置。
The separation unit separates the collective region when the contour extracted by the extraction unit has a plurality of surfaces in the same direction;
The information processing apparatus according to claim 1.
前記抽出部は、前記輪郭を構成する複数の画素ごとに、当該複数の画素の繋がりの方向を示す方向情報を設定する、
請求項2に記載の情報処理装置。
The extraction unit sets direction information indicating a connection direction of the plurality of pixels for each of the plurality of pixels constituting the contour.
The information processing apparatus according to claim 2.
前記分離部は、前記輪郭を構成する複数の画素の各々に設定された前記方向情報に基づいて、同一方向の複数の側面が存在する状態を判別する、
請求項3に記載の情報処理装置。
The separation unit determines a state where a plurality of side surfaces in the same direction exist based on the direction information set in each of a plurality of pixels constituting the contour.
The information processing apparatus according to claim 3.
前記分離部は、
前記集合領域を含む関心領域の行ごとに前記横方向にサーチしていき、繋がりの方向として同一の縦方向を示す前記方向情報が2回目以降にカウントされる画素を対象画素として特定し、
前記横方向の位置と、前記奥行方向にわたって前記対象画素をカウントした頻度値とが対応付けられた第2の対応情報を生成する、
請求項4に記載の情報処理装置。
The separation unit is
The horizontal direction is searched for each row of the region of interest including the set region, and the direction information indicating the same vertical direction as the direction of connection is specified as a target pixel, and the pixel is counted for the second time or later.
Generating second correspondence information in which the horizontal position and the frequency value obtained by counting the target pixel over the depth direction are associated with each other;
The information processing apparatus according to claim 4.
前記分離部は、前記第2の対応情報に基づいて、2つ目の側面に対応する頻度値が閾値を超えるか否かを判断し、該2つ目の側面に対応する頻度値が前記閾値を超える場合に、該2つ目の側面を分離対象とする、
請求項5に記載の情報処理装置。
The separation unit determines whether the frequency value corresponding to the second side exceeds a threshold based on the second correspondence information, and the frequency value corresponding to the second side is the threshold If the second side is exceeded,
The information processing apparatus according to claim 5.
前記分離部は、2つ目の側面に対応する前記横方向の位置から1つ目の側面に対応する前記横方向の位置へ向かう方向において、最も遠い前記奥行方向の位置に対応する前記横方向の位置を分離位置として特定する、
請求項6に記載の情報処理装置。
In the direction from the lateral position corresponding to the second side surface to the lateral position corresponding to the first side surface, the separating portion corresponds to the farthest position in the depth direction. Specify the position of
The information processing apparatus according to claim 6.
請求項1〜7の何れか一つに記載の情報処理装置を備える、撮像装置。   An imaging apparatus comprising the information processing apparatus according to claim 1. 請求項8に記載の撮像装置と、前記撮像装置の出力結果に基づいて機器を制御する制御部と、を備える、機器制御システム。   An apparatus control system comprising: the imaging apparatus according to claim 8; and a control unit that controls the apparatus based on an output result of the imaging apparatus. 請求項9に記載の機器制御システムを備え、前記制御部により制御される移動体。   A moving body comprising the device control system according to claim 9 and controlled by the control unit. 画素毎に距離情報を有する距離画像を取得する取得ステップと、
前記距離画像に基づいて横方向の位置と、奥行方向の位置とが対応付けられた第1の対応情報を生成する生成ステップと、
前記第1の情報から、前記距離情報の集合領域を検出する検出ステップと、
前記集合領域の輪郭を抽出する抽出ステップと、
前記抽出ステップにより抽出された前記輪郭の特徴に基づいて、前記集合領域を分離する分離ステップと、を含む、
情報処理方法。
An acquisition step of acquiring a distance image having distance information for each pixel;
A step of generating first correspondence information in which a position in the horizontal direction and a position in the depth direction are associated with each other based on the distance image;
A detection step of detecting a collection area of the distance information from the first information;
An extraction step of extracting an outline of the aggregate region;
Separating the collective region based on the feature of the contour extracted by the extraction step,
Information processing method.
コンピュータに、
画素毎に距離情報を有する距離画像を取得する取得ステップと、
前記距離画像に基づいて横方向の位置と、奥行方向の位置とが対応付けられた第1の情報を生成する生成ステップと、
前記第1の情報から、前記距離情報の集合領域を検出する検出ステップと、
前記集合領域の輪郭を抽出する抽出ステップと、
前記抽出ステップにより抽出された前記輪郭の特徴に基づいて、前記集合領域を分離する分離ステップと、
を実行させるためのプログラム。
On the computer,
An acquisition step of acquiring a distance image having distance information for each pixel;
A step of generating first information in which a horizontal position and a depth direction position are associated with each other based on the distance image;
A detection step of detecting a collection area of the distance information from the first information;
An extraction step of extracting an outline of the aggregate region;
A separation step of separating the collective region based on features of the contour extracted by the extraction step;
A program for running
JP2017190783A 2016-11-25 2017-09-29 Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program Active JP7062904B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP17203111.4A EP3327624A1 (en) 2016-11-25 2017-11-22 Information processing apparatus, imaging device, device control system, mobile object, information processing method, and carrier means

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016229564 2016-11-25
JP2016229564 2016-11-25

Publications (2)

Publication Number Publication Date
JP2018092608A true JP2018092608A (en) 2018-06-14
JP7062904B2 JP7062904B2 (en) 2022-05-09

Family

ID=62566251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017190783A Active JP7062904B2 (en) 2016-11-25 2017-09-29 Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program

Country Status (1)

Country Link
JP (1) JP7062904B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111862218A (en) * 2020-07-29 2020-10-30 上海高仙自动化科技发展有限公司 Computer equipment positioning method and device, computer equipment and storage medium
CN112912892A (en) * 2020-05-29 2021-06-04 深圳市大疆创新科技有限公司 Automatic driving method and device and distance determining method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239167A (en) * 2012-05-11 2013-11-28 Ricoh Co Ltd Object area splitting method, and object area splitting device
JP2015179302A (en) * 2014-03-18 2015-10-08 株式会社リコー Solid object detection device, solid object detection method, solid object detection program, and mobile apparatus control system
JP2016191988A (en) * 2015-03-30 2016-11-10 富士重工業株式会社 Outside-vehicle environment recognition device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239167A (en) * 2012-05-11 2013-11-28 Ricoh Co Ltd Object area splitting method, and object area splitting device
JP2015179302A (en) * 2014-03-18 2015-10-08 株式会社リコー Solid object detection device, solid object detection method, solid object detection program, and mobile apparatus control system
JP2016191988A (en) * 2015-03-30 2016-11-10 富士重工業株式会社 Outside-vehicle environment recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112912892A (en) * 2020-05-29 2021-06-04 深圳市大疆创新科技有限公司 Automatic driving method and device and distance determining method and device
CN111862218A (en) * 2020-07-29 2020-10-30 上海高仙自动化科技发展有限公司 Computer equipment positioning method and device, computer equipment and storage medium

Also Published As

Publication number Publication date
JP7062904B2 (en) 2022-05-09

Similar Documents

Publication Publication Date Title
JP6274557B2 (en) Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program
CN109997148B (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and computer-readable recording medium
WO2017158958A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and program
JP6376429B2 (en) Target point arrival detection device, target point arrival detection program, mobile device control system, and mobile
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
EP3115933B1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
JP5561064B2 (en) Vehicle object recognition device
JP6592991B2 (en) Object detection apparatus, object detection method, and program
JP6907513B2 (en) Information processing equipment, imaging equipment, equipment control system, information processing method and program
WO2014002692A1 (en) Stereo camera
JP6516012B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JPWO2017094300A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP5073700B2 (en) Object detection device
JP7062904B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
JP5587852B2 (en) Image processing apparatus and image processing method
JP2018088217A (en) Information processing device, imaging device, apparatus control system, information processing method, and program
JP7052265B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program
JP6969245B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program
JP2013161434A (en) Periphery monitoring device for vehicle
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
EP3540643A1 (en) Image processing apparatus and image processing method
EP3327624A1 (en) Information processing apparatus, imaging device, device control system, mobile object, information processing method, and carrier means
JP6943092B2 (en) Information processing device, imaging device, device control system, moving object, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R151 Written notification of patent or utility model registration

Ref document number: 7062904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151