JP2011227029A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2011227029A
JP2011227029A JP2010099536A JP2010099536A JP2011227029A JP 2011227029 A JP2011227029 A JP 2011227029A JP 2010099536 A JP2010099536 A JP 2010099536A JP 2010099536 A JP2010099536 A JP 2010099536A JP 2011227029 A JP2011227029 A JP 2011227029A
Authority
JP
Japan
Prior art keywords
vehicle
amount
camera
predetermined
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010099536A
Other languages
Japanese (ja)
Other versions
JP5416026B2 (en
Inventor
Masaki Negoro
昌樹 根來
Yuji Yokochi
裕次 横地
Morimichi Nishigaki
守道 西垣
Atsuo Eguchi
敦央 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2010099536A priority Critical patent/JP5416026B2/en
Publication of JP2011227029A publication Critical patent/JP2011227029A/en
Application granted granted Critical
Publication of JP5416026B2 publication Critical patent/JP5416026B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To correct a synchronization shift between radar data and infrared-ray camera data.SOLUTION: A vehicle periphery monitoring device includes: a radar for detecting an object in a periphery of a vehicle; a camera for imaging an image in the periphery of the vehicle; and means for specifying a prescribed area on a correspondence image imaged by the camera, which corresponds to the position of the object detected by the radar, and specifying the object within the prescribed area. The device also includes: means for calculating a phase shift amount between a time change of a movement amount in the specified prescribed area on the correspondence image and a time change of a movement amount of the prescribed object on the image imaged by the camera; and phase correction means for performing a phase correction of an output signal of the radar or camera, so as to allow the phase shift amount to be zero.

Description

本発明は、車両の周辺監視装置に関し、より具体的には、車両の周辺監視装置におけるレーザとカメラの同期ずれ(位相ずれ)を検出し補正することに関する。   The present invention relates to a vehicle periphery monitoring device, and more specifically to detecting and correcting a synchronization shift (phase shift) between a laser and a camera in a vehicle periphery monitoring device.

特許文献1は、歩行者検出装置を開示する。この歩行者検出装置は、スキャン式のレーザレーダと赤外線カメラを併用し、レーザレーダから得られる歩行者候補の検出情報を基に赤外線画像中の歩行者を検出する。   Patent document 1 discloses a pedestrian detection device. This pedestrian detection device uses a scanning laser radar and an infrared camera together, and detects a pedestrian in an infrared image based on detection information of a pedestrian candidate obtained from the laser radar.

特開2003−302470号公報JP 2003-302470 A

しかし、レーザレーダと赤外線カメラの出力信号に同期ずれ(位相ずれ)があると、両者の検出範囲(位置)がずれてしまい、レーザレーダの検出情報に対応した赤外線画像中の歩行者を検出することができない場合が生ずる。この同期ずれは、スキャンを伴うレーザレーダによる物体の検出時間(例えば約120ms)が赤外線カメラによる当該物体を含む画像の取得時間(例えば約33ms)よりも長くなってしまうことが原因で生ずる。   However, if there is a synchronization shift (phase shift) between the output signals of the laser radar and the infrared camera, the detection range (position) of the two shifts, and a pedestrian in the infrared image corresponding to the detection information of the laser radar is detected. There are cases where it cannot be done. This synchronization shift occurs because the detection time (for example, about 120 ms) of the object by the laser radar accompanied by scanning becomes longer than the acquisition time (for example, about 33 ms) of the image including the object by the infrared camera.

特許文献1に記載の装置では、このレーザレーダと赤外線カメラの同期ずれに対する補正については何ら考慮していない。   In the apparatus described in Patent Document 1, no consideration is given to the correction for the synchronization deviation between the laser radar and the infrared camera.

したがって、本発明は、得られた画像情報からレーダとカメラの出力信号の同期ずれ(位相ずれ)を検知し補正することによって、レーダによって特定されたカメラ画像上での所定物体の抽出精度を向上させることを目的とする。   Therefore, the present invention improves the extraction accuracy of a predetermined object on the camera image specified by the radar by detecting and correcting a synchronization shift (phase shift) between the output signals of the radar and the camera from the obtained image information. The purpose is to let you.

本発明は、車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、前記レーダが検出した物体の位置に対応する、前記カメラが撮像した対応画像上の所定領域を特定して当該所定領域内の前記物体を特定する手段とを備える、車両の周辺監視装置を提供する。その周辺監視装置は、特定された対応画像上の所定領域の移動量の時間変化と、カメラが撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段と、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段と、を有する。   The present invention provides a radar that detects an object around a vehicle, a camera that captures an image around the vehicle, and a predetermined area on a corresponding image captured by the camera that corresponds to the position of the object detected by the radar. There is provided a vehicle periphery monitoring device including means for specifying and specifying the object in the predetermined area. The periphery monitoring device calculates a phase shift amount between a temporal change in the movement amount of the predetermined area on the identified corresponding image and a temporal change in the movement amount of the predetermined object on the image captured by the camera; Phase correction means for correcting the phase of the output signal of the radar or camera so that the phase shift amount becomes zero.

本発明によれば、カメラが撮像した画像上での移動量の時間変化をモニターすることで、レーダとカメラの出力信号の同期ずれ(位相ずれ)に起因する、レーダによって特定されるカメラ画像上の領域の位置とカメラによって撮像される所定物体の位置の位置ずれを補正することが可能となり、その結果レーダによって特定されたカメラ画像上での所定物体の特定(抽出)精度を向上させることが可能となる。   According to the present invention, on the camera image specified by the radar caused by the synchronization shift (phase shift) between the radar and the output signal of the camera by monitoring the time change of the movement amount on the image captured by the camera. It is possible to correct the positional deviation between the position of the area and the position of the predetermined object imaged by the camera, and as a result, it is possible to improve the specification (extraction) accuracy of the predetermined object on the camera image specified by the radar. It becomes possible.

本発明の一形態によると、位相補正手段は、車両と所定物体との相対位置の時間変化量が所定量以上の場合に位相補正をおこなう。   According to one aspect of the present invention, the phase correction means performs phase correction when the amount of time change in the relative position between the vehicle and the predetermined object is greater than or equal to the predetermined amount.

本発明の一形態によれば、車両と所定物体との相対位置の時間変化量が所定量以上の場合における画像上の移動量の時間変化をモニターすることにより、レーダとカメラの出力信号の同期ずれ(位相ずれ)補正をより安定した適切なタイミングで確実におこなうことが可能となる。   According to one aspect of the present invention, the time change in the relative position between the vehicle and the predetermined object is monitored by monitoring the time change in the movement amount on the image, thereby synchronizing the output signals of the radar and the camera. Deviation (phase deviation) correction can be reliably performed at a more stable and appropriate timing.

本発明の一形態によると、位相補正手段は、車両の走行中において、レーダが複数の物体を検出した場合に、当該車両の進行にともなって発生する複数の物体の位置の時間変化を結合して得られる変化量が所定量以上の場合に位相補正をおこなう。   According to an aspect of the present invention, the phase correction unit combines time changes in the positions of the plurality of objects that occur as the vehicle travels when the radar detects a plurality of objects while the vehicle is traveling. The phase correction is performed when the amount of change obtained in this way is greater than or equal to a predetermined amount.

本発明の一形態によれば、車両の進行にともなってレーダによって検出される複数の静止物体の動き(移動量)を全体的に捉えた上で同期ずれ補正をおこなう区間(時間)を選択することで、レーダとカメラの出力信号の同期ずれ(位相ずれ)補正をより安定した適切なタイミングで確実におこなうことが可能となる。   According to one aspect of the present invention, a section (time) in which synchronization deviation correction is performed is performed after capturing the movements (movement amounts) of a plurality of stationary objects detected by a radar as the vehicle travels. This makes it possible to reliably perform synchronization deviation (phase deviation) correction between the output signals of the radar and the camera at a more stable and appropriate timing.

本発明の一形態によると、位相補正手段は、相対位置の時間変化が所定時間以上の区間を結合して相対位置の時間変化量を得る。   According to one aspect of the present invention, the phase correction unit obtains the time change amount of the relative position by combining the sections where the time change of the relative position is equal to or longer than the predetermined time.

本発明の一形態によれば、複数の相対位置の時間変化量を結合することでレーダとカメラの出力信号の同期ずれを検出できる必要十分なデータを得ることができ、その検出精度を向上させることが可能となる。   According to one aspect of the present invention, it is possible to obtain necessary and sufficient data capable of detecting the synchronization deviation between the output signals of the radar and the camera by combining the time variation amounts of a plurality of relative positions, and improving the detection accuracy. It becomes possible.

本発明の車両の周辺監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the periphery monitoring apparatus of the vehicle of this invention. 本発明の画像処理ユニットにおける処理フローを示す図である。It is a figure which shows the processing flow in the image processing unit of this invention. 本発明の変化量の時系列データの取得フローを示す図である。It is a figure which shows the acquisition flow of the time series data of the variation | change_quantity of this invention. 本発明の一実施例に従う画像上での所定領域と歩行者像を示す図である。It is a figure which shows the predetermined area | region and pedestrian image on the image according to one Example of this invention. 本発明の位相ずれ量の算出フローを示す図である。It is a figure which shows the calculation flow of the phase shift amount of this invention. 本発明の位相補正のフローを示す図である。It is a figure which shows the flow of the phase correction of this invention. 本発明の変化量の時系列データの取得を説明するための図である。It is a figure for demonstrating acquisition of the time series data of the variation | change_quantity of this invention. 本発明の変化量の時系列データの取得を説明するための図である。It is a figure for demonstrating acquisition of the time series data of the variation | change_quantity of this invention. 本発明の位相ずれ量の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the phase shift amount of this invention.

図面を参照しながら本発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、車両の周辺監視装置の構成を示すブロック図である。周辺監視装置は、車両に搭載され、レーザレーダ10と、赤外線カメラ12と、赤外線カメラ12によって撮像された画像データに基づいて車両周辺の物体を検出するための画像処理ユニット14と、その検出結果に基づいて音または音声で警報を発生するスピーカ16と、赤外線カメラ12の撮像を介して得られた画像を表示すると共に、運転者に車両周辺の物体を認識させるための表示を行う表示装置18とを備える。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention. The periphery monitoring device is mounted on a vehicle, and includes a laser radar 10, an infrared camera 12, an image processing unit 14 for detecting an object around the vehicle based on image data captured by the infrared camera 12, and a detection result thereof. And a display device 18 for displaying an image obtained through imaging by the infrared camera 12 and for causing the driver to recognize an object around the vehicle. With.

なお、レーザレーダ10は、例えばスキャン式レーザレーダが該当し、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体(候補)の位置(領域)とそれまでの距離を検出する。なお、レーザレーダ10は、他の種類のレーダ(例えばミリ波レーダ等)であってもよい。また、赤外線カメラ12も、赤外線以外の他の波長帯の光(例えば可視光)を利用するカメラであってもよい。したがって、以下の説明では、赤外線カメラ12が撮影したグレースケール画像を対象としているが、これに限定されるものではない。さらに、ナビゲーション装置を備える車両においては、スピーカ16および表示装置18として、ナビゲーション装置が備える該当機能を利用してもよい。   The laser radar 10 corresponds to, for example, a scanning laser radar, and receives the reflected light from the object of the beam scanned in each direction, thereby detecting the position (region) of the object (candidate) in each direction as a detection point. Detect the distance to it. The laser radar 10 may be another type of radar (for example, a millimeter wave radar). The infrared camera 12 may also be a camera that uses light in a wavelength band other than infrared (for example, visible light). Therefore, in the following description, a gray scale image taken by the infrared camera 12 is targeted, but the present invention is not limited to this. Furthermore, in a vehicle provided with a navigation device, the corresponding function provided in the navigation device may be used as the speaker 16 and the display device 18.

図1の画像処理ユニット14は、ブロック141〜145で示される手段(機能)を含む(実行する)。すなわち、画像処理ユニット14は、レーザレーダ10からの信号を受けて車両の周辺の物体の位置を特定する物***置特定手段141と、赤外線カメラ12が撮影した車両の周辺の画像をグレースケール画像として取得する画像取得手段142と、物***置特定手段141が特定した物体の位置に対応する、取得された対応するグレースケール画像上の所定領域を特定して当該所定領域内の物体を特定する手段143を含む。なお、物***置特定手段141は、レーザレーダ10の一部の機能として構成、すなわちレーザレーダ10に一体的に組み込んでもよい。   The image processing unit 14 in FIG. 1 includes (executes) means (functions) indicated by blocks 141 to 145. That is, the image processing unit 14 receives a signal from the laser radar 10 and specifies an object position specifying unit 141 for specifying the position of an object around the vehicle, and an image around the vehicle captured by the infrared camera 12 as a grayscale image. An image acquisition unit 142 to acquire, and a unit 143 that specifies a predetermined region on the acquired corresponding grayscale image corresponding to the position of the object specified by the object position specifying unit 141 and specifies an object in the predetermined region. including. The object position specifying unit 141 may be configured as a part of the function of the laser radar 10, that is, integrated with the laser radar 10.

画像処理ユニット14は、さらに、レーザレーダ10により特定された対応画像上の所定領域の移動量の時間変化と、赤外線カメラ12が撮像した画像上での所定物体の移動量の時間変化との位相ずれ量を算出する手段144と、位相ずれ量がゼロになるように、レーダまたはカメラの出力信号の位相補正をおこなう位相補正手段145と、を有する。   The image processing unit 14 further includes a phase change between the temporal change in the movement amount of the predetermined area on the corresponding image specified by the laser radar 10 and the temporal change in the movement amount of the predetermined object on the image captured by the infrared camera 12. Means 144 for calculating the amount of deviation and phase correction means 145 for correcting the phase of the output signal of the radar or camera so that the amount of phase deviation becomes zero.

画像処理ユニット14は、さらに、自車両の速度(車速)を検出する車速センサ、加速度センサ、ヨーレート(旋回方向への回転角の変化速度)を検出するヨーレートセンサ等からの検出信号を受けて必要な処理をおこなう機能を有する。   The image processing unit 14 also needs to receive detection signals from a vehicle speed sensor that detects the speed (vehicle speed) of the host vehicle, an acceleration sensor, and a yaw rate sensor that detects a yaw rate (change speed of the rotation angle in the turning direction). Has a function to perform various processing.

各ブロックの機能は、画像処理ユニット14が有するコンピュータ(CPU)によって実現される。なお、画像処理ユニット14の構成は、ナビゲーション装置の中に組み込んでもよい。   The function of each block is realized by a computer (CPU) included in the image processing unit 14. The configuration of the image processing unit 14 may be incorporated in the navigation device.

画像処理ユニット14は、ハードウエア構成として、例えば、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM、スピーカ16に対する駆動信号および表示装置18に対する表示信号などを出力する出力回路を備えている。レーザレーダ10と赤外線カメラ12の出力信号は、デジタル信号に変換されてCPUに入力されるよう構成される。   The image processing unit 14 includes, for example, an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, and a central processing unit (CPU) that performs various arithmetic processes. ), RAM used by the CPU to store data for computation, ROM to store programs executed by the CPU and data to be used (including tables and maps), drive signals for the speakers 16, display signals to the display device 18, etc. An output circuit for outputting is provided. The output signals of the laser radar 10 and the infrared camera 12 are converted into digital signals and input to the CPU.

次に、本発明の一実施形態におけるレーダまたはカメラの出力信号の位相補正の方法について説明する。   Next, a method for correcting the phase of the output signal of the radar or camera in one embodiment of the present invention will be described.

図2は、画像処理ユニット14によって実行される処理フローを示す図である。図2の処理フローは、画像処理ユニット14のCPUがメモリに格納している処理プログラムを呼び出して、所定の時間間隔で実行される。図2のステップS1において、同期(位相)ずれ補正をおこなうためのデータ区間を特定するために時系列データを取得する。   FIG. 2 is a diagram illustrating a processing flow executed by the image processing unit 14. The processing flow in FIG. 2 is executed at predetermined time intervals by calling the processing program stored in the memory by the CPU of the image processing unit 14. In step S1 of FIG. 2, time-series data is acquired in order to specify a data section for performing synchronization (phase) shift correction.

図3は、図2のステップS1の変化量の時系列データを取得するフロー(ルーチン)を示す図である。図3のステップS11において、レーザレーダ10からの信号を受けて車両の周辺の所定の物体の位置を特定する。その特定には任意の方法を用いることができるが、例えば以下のようにおこなう。   FIG. 3 is a diagram showing a flow (routine) for acquiring time-series data of the change amount in step S1 of FIG. In step S11 of FIG. 3, the position of a predetermined object around the vehicle is specified by receiving a signal from the laser radar 10. An arbitrary method can be used for the identification, for example, as follows.

レーザレーダ10としてスキャン式レーザレーダを使用して、その検出点群の幅から物体、例えば歩行者候補の位置を特定する。具体的には、スキャン式レーザレーダでは、各方向にスキャンするビームの物体からの反射光を受光することにより、検出点として各方向における物体までの距離を測定する。レーザレーダの位置を原点としてY軸をレーダの正面方向とする2次元座標系にこれらの検出点の位置をプロットして検出点の集合を得る。これらの検出点の集合から、各検出点の相互の間隔が所定値以下のものを検出点群としてグループ化し、グループ化した検出点群のうち、広がり幅が所定値以下のものを所定の物体候補(例えば歩行者候補)とみなしてその位置を特定する。   A scanning laser radar is used as the laser radar 10, and the position of an object, for example, a pedestrian candidate is specified from the width of the detection point group. Specifically, the scanning laser radar measures the distance to the object in each direction as a detection point by receiving reflected light from the object of the beam scanned in each direction. A set of detection points is obtained by plotting the positions of these detection points in a two-dimensional coordinate system in which the position of the laser radar is the origin and the Y axis is the front direction of the radar. From these set of detection points, detection point groups are grouped as detection point groups whose mutual distance between detection points is equal to or smaller than a predetermined value, and among the grouped detection point groups, those having a spread width equal to or smaller than a predetermined value are grouped as predetermined objects. The position is identified as a candidate (for example, a pedestrian candidate).

ステップS12において、赤外線カメラ12の出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール(白黒の濃淡)画像である。対象の温度が高い部分ほど高輝度となる赤外線カメラでは、高輝度部分の明暗値が高い画像データとなり、その温度が低く(低輝度に)なるにつれて明暗値が低い画像データとなる。   In step S12, an output signal (that is, captured image data) of the infrared camera 12 is received as input, A / D converted, and stored in the image memory. The stored image data is a grayscale (monochrome shade) image including luminance information. In an infrared camera in which the higher the temperature of the target, the higher the brightness is, the image data has a higher brightness value in the higher brightness portion, and the image data has a lower brightness value as the temperature becomes lower (lower brightness).

ステップS13において、取得されたグレースケール画像に所定の物体を検知する範囲となる所定領域を設定する。この所定領域は、ステップS12においてレーザレーダ10によって特定された所定の物体候補の位置(領域)を含む領域である。この所定領域の設定は、任意の方法を用いることができるが、例えば物体の位置として歩行者の位置を特定する場合を例にとると、歩行者候補の位置を含む所定サイズの領域(検出点群)を赤外線カメラ12のカメラ座標系に変換し、グレースケール画像中にマッピング(重畳)して、対応するグレースケール画像上の所定領域として設定する。   In step S13, a predetermined area that is a range in which a predetermined object is detected is set in the acquired grayscale image. This predetermined area is an area including the position (area) of the predetermined object candidate specified by the laser radar 10 in step S12. An arbitrary method can be used for setting the predetermined area. For example, when the position of the pedestrian is specified as the position of the object, an area of a predetermined size including the position of the pedestrian candidate (detection point) is used. Group) is converted into the camera coordinate system of the infrared camera 12, mapped (superimposed) in the gray scale image, and set as a predetermined area on the corresponding gray scale image.

ステップS14において、画像上での所定の物体を特定する。この特定は、ステップS13において設定された画像上の所定領域を基準としてその領域内あるいはその近傍の領域内においておこなう。この特定は、任意の方法によりおこなうことができるが、例えば、グレースケール画像を2値化処理して得られる白黒画像から対象物を照合する。具体的には、最初に予めメモリに保管している除外対象物の特徴を有するか否かを調べる。除外対象物とは、例えば発熱体ではあるが明らかに形状等が異なる物体(4足動物、車両等)を意味する。除外対象物に該当しない場合、所定の物体の特徴に該当するか否かを調べる。例えば、所定の物体が歩行者である場合、歩行者の頭部の特徴として丸みを帯びた白部が存在し、その下に胴体、脚部の部分に相当する細長い白部が繋がっていること等が含まれる。また、周知のパターンマッチングを利用し、予め保管してある歩行者を表す所定のパターンとの類似度を算出し、その類似度を歩行者であるか否かの判断材料としてもよい。さらに、歩行者の歩行速度はほぼ一定であることから、レーザレーダ10から得られる物体の移動速度の情報を判断材料の1つとして用いてもよい。   In step S14, a predetermined object on the image is specified. This specification is performed in the area or in the vicinity of the predetermined area on the image set in step S13. This specification can be performed by an arbitrary method. For example, an object is collated from a black and white image obtained by binarizing a grayscale image. Specifically, first, it is checked whether or not it has the characteristics of the excluded object stored in the memory in advance. The excluded object means, for example, an object (such as a quadruped animal or a vehicle) that is a heating element but has a clearly different shape. If it does not correspond to the excluded object, it is checked whether it corresponds to the characteristic of the predetermined object. For example, when the predetermined object is a pedestrian, a rounded white portion exists as a feature of the pedestrian's head, and an elongated white portion corresponding to the body and leg portions is connected below the white portion. Etc. are included. Further, the similarity with a predetermined pattern representing a pedestrian stored in advance may be calculated using known pattern matching, and the similarity may be used as a material for determining whether or not the user is a pedestrian. Furthermore, since the walking speed of the pedestrian is substantially constant, information on the moving speed of the object obtained from the laser radar 10 may be used as one of judgment materials.

ステップS15において、所定の物体が特定できたか否かを判定する。この判定がNoの場合は処理を終了して戻る。ステップS15での判定がYesの場合、ステップS16に進む。ステップS16において、ステップS13において設定された所定領域の重心を算出する。ステップS17において、ステップS14において特定された歩行者像の重心を算出する。   In step S15, it is determined whether a predetermined object has been identified. If this determination is No, the process ends and returns. When the determination in step S15 is Yes, the process proceeds to step S16. In step S16, the center of gravity of the predetermined area set in step S13 is calculated. In step S17, the center of gravity of the pedestrian image specified in step S14 is calculated.

図4を参照しながらステップS16およびS17の重心の算出について説明する。図4は、2値化処理後の白黒画像上の所定領域と所定物体(歩行者)の例を示す図である。なお、図4では線を認識させるために、線の部分を除いて全体が白くなっているが、実際には所定物体である歩行者像22、24の回りの背景部分は黒く表示される。   The calculation of the center of gravity in steps S16 and S17 will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a predetermined area and a predetermined object (pedestrian) on a black and white image after binarization processing. In FIG. 4, in order to recognize the line, the whole is white except for the line part, but the background part around the pedestrian images 22 and 24 that are the predetermined objects is actually displayed in black.

図4において、赤外線カメラ12により取得された2値化処理後の白黒画像20内に所定物体として歩行者像22、24が映っている。(a)の像22は歩行者が静止している場合であり、(b)の像24は歩行者が図の右方向に移動している場合に相当する。符号21、23で指示される枠はレーザレーダ10により歩行者の位置(領域)として特定された所定領域である。(a)の歩行者像22は所定領域21内に収まっており両者の位置ずれは小さいのに対して、(b)における両者の位置ずれは大きくなっている。(b)での位置ずれは、主にレーザレーダ10の出力信号(処理)の遅れに起因しており、レーダとカメラの同期ずれが比較的大きい場合に相当する。一方(a)の場合は両者の同期ずれがほとんどないか小さい場合に相当する。同期ずれ補正が特に必要となるのは(b)のような場合である。   In FIG. 4, pedestrian images 22 and 24 are shown as predetermined objects in the binarized black and white image 20 acquired by the infrared camera 12. The image 22 of (a) is a case where the pedestrian is stationary, and the image 24 of (b) is equivalent to the case where the pedestrian is moving in the right direction in the figure. Frames indicated by reference numerals 21 and 23 are predetermined areas specified by the laser radar 10 as pedestrian positions (areas). While the pedestrian image 22 in (a) is within the predetermined area 21 and the positional deviation between the two is small, the positional deviation between both is large in (b). The positional deviation in (b) is mainly caused by a delay in the output signal (processing) of the laser radar 10, and corresponds to a case where the synchronization deviation between the radar and the camera is relatively large. On the other hand, the case (a) corresponds to a case where there is little or little synchronization deviation between the two. The case where the synchronization error correction is particularly necessary is the case as shown in (b).

図4の(a)において、所定領域21の重心はQ1の位置上にあるとして、歩行者像22の重心はP1の位置上にあるとしてそれぞれ算出される。両者の重心は、位置ずれ量d1分だけずれているがその位置ずれ量は小さい。同様に(b)において、所定領域23の重心はQ2の位置上にあるとして、歩行者像24の重心はP2の位置上にあるとしてそれぞれ算出される。両者の重心は、位置ずれ量d2分だけずれておりその位置ずれ量は大きい。なお、各重心は所定のタイミング毎に算出され、その位置情報および時間変化量がデータとしてメモリに保管される。また、ステップS16およびS17において、重心の代わりに他の任意の基準により定まる位置、例えば所定領域および歩行者像の水平方向の最大幅の中点等を算出してもよい。   4A, the center of gravity of the predetermined area 21 is calculated on the position Q1, and the center of gravity of the pedestrian image 22 is calculated on the position P1. The center of gravity of both is displaced by the amount of positional deviation d1, but the amount of positional deviation is small. Similarly, in (b), the center of gravity of the predetermined area 23 is calculated on the position Q2, and the center of gravity of the pedestrian image 24 is calculated on the position P2. The center of gravity of both is shifted by a positional shift amount d2, and the positional shift amount is large. Each center of gravity is calculated at each predetermined timing, and the position information and the time change amount are stored as data in a memory. Further, in steps S16 and S17, a position determined by another arbitrary reference instead of the center of gravity, for example, the midpoint of the predetermined area and the maximum horizontal width of the pedestrian image may be calculated.

図3のステップS18において、所定領域の重心と物体の重心それぞれの時間変化量が所定量よりも大きいか否かを判定する。図4の例で言えば、同期ずれ補正が特に必要となる(b)において、所定領域23の重心と歩行者像24の重心それぞれの時間変化量が所定量よりも大きいか否かを判定する。この判定を行うのは、時間変化量の比較的大きな箇所のデータのみを位相ずれ検出に利用するためである。この判定がNoの場合は処理を終了して戻る。この判定がYesの場合は、ステップS19において、所定領域の重心のデータ(時間変化量を含む)を時系列データとしてメモリに保管する。同様に続くステップS20において、物体の重心データ(時間変化量を含む)を時系列データとしてメモリに保管する。   In step S18 of FIG. 3, it is determined whether or not the time change amounts of the center of gravity of the predetermined region and the center of gravity of the object are larger than the predetermined amount. In the example of FIG. 4, it is determined whether or not the amount of time change of each of the center of gravity of the predetermined area 23 and the center of gravity of the pedestrian image 24 is larger than the predetermined amount in (b) where correction of synchronization deviation is particularly necessary. . This determination is performed in order to use only data at a relatively large amount of time change for phase shift detection. If this determination is No, the process ends and returns. If this determination is Yes, in step S19, the data of the center of gravity of the predetermined area (including the time change amount) is stored in the memory as time series data. Similarly, in subsequent step S20, the center-of-gravity data (including the time change amount) of the object is stored in the memory as time series data.

図2に戻って、ステップS2において、ステップS1において得られた所定領域および重心の時系列データの量が所定量以上であるか否かを判定する。この判定を行うのは、時間変化量のデータが十分に蓄積し位相ずれ検出が効果的に得られる状態にするためである。この判定がNoの場合はステップS1に戻り、所定量以上の時系列データが得られるまでデータ取得が繰り返される。   Returning to FIG. 2, in step S <b> 2, it is determined whether the amount of time-series data of the predetermined region and the center of gravity obtained in step S <b> 1 is equal to or greater than a predetermined amount. This determination is performed in order to obtain a state in which time variation data is sufficiently accumulated and phase shift detection can be effectively obtained. If this determination is No, the process returns to step S1, and data acquisition is repeated until time series data of a predetermined amount or more is obtained.

ここで、この所定量以上の時系列データ取得に関してさらに説明する。位相ズレの補正には、レーダとカメラの位相ずれが比較的大きく発生する期間、すなわちレーダまたはカメラが検出する物体の時間的な位置変化量が比較的大きくレーダとカメラの位相ずれ量が検出しやすい期間においてその位相ずれ量を検出することが検出精度の観点等から好ましい。しかし、例えば車両が一般道を走行している場合、その補正に必要な変化を連続的に安定して観測することは困難である。そこで、例えば以下のような方法により、一定時間にわたってデータが時間的に変化している時系列データを取得する。   Here, the time series data acquisition of the predetermined amount or more will be further described. The phase shift is corrected by detecting the phase shift between the radar and the camera during the period when the phase shift between the radar and the camera is relatively large, that is, the amount of temporal position change of the object detected by the radar or camera is relatively large. It is preferable from the viewpoint of detection accuracy and the like to detect the amount of phase shift in an easy period. However, for example, when the vehicle is traveling on a general road, it is difficult to continuously and stably observe changes necessary for the correction. Therefore, for example, the following method is used to acquire time-series data in which data changes over time over a certain period of time.

図7はレーダまたはカメラが検出する物体の時間的な位置変化量が大きい区間A〜Dの部分のみを寄せ集めて、連続する区間A´〜D´を作ることを説明するための図である。図7において、上側に示される時間的な位置変化量が大きい区間A〜Dの各部分を寄せ集めて、図の下側の時間T1における連続する区間A´〜D´を作る。図7における物体の時間的な位置変化量が大きい区間は、例えば車両の旋回中のヨーレート、あるいは加/減速時の車速等、車両状態の変化が大きい場合の車両の走行状態を示す各種検出信号から得ることが望ましい。このように、物体の時間的な位置変化量が大きい区間のみを結合し、その結合した区間でのレーザとカメラの位相ずれ量を検出して補正をおこなうことにより、その補正の精度、信頼度を向上させることが可能となる。   FIG. 7 is a diagram for explaining that the continuous sections A ′ to D ′ are created by gathering only the sections of the sections A to D where the temporal position change amount of the object detected by the radar or the camera is large. . In FIG. 7, the sections A to D having a large temporal position change amount shown on the upper side are gathered together to create continuous sections A ′ to D ′ at the time T1 on the lower side of the figure. The section where the amount of change in position of the object in FIG. 7 is large is various detection signals indicating the running state of the vehicle when the change in the vehicle state is large, such as the yaw rate during turning of the vehicle or the vehicle speed during acceleration / deceleration. It is desirable to obtain from In this way, by combining only sections where the amount of change in the position of the object over time is large, and detecting and correcting the phase shift between the laser and camera in the combined section, the accuracy and reliability of the correction Can be improved.

図8は、所定量以上の時系列データを取得する他の例を説明するための図である。自車が移動(走行)する車載環境では、静止ターゲットは頻繁に入れ替わるため、一般道で補正に必要な変化を連続的に安定して観測することは困難である。そこで、図8の例では、異なる静止ターゲット(歩行者等)の移動速度をつなげることで時間的に連続したデータを生成する。   FIG. 8 is a diagram for explaining another example of acquiring time-series data of a predetermined amount or more. In an in-vehicle environment in which the host vehicle moves (runs), stationary targets are frequently replaced, so it is difficult to continuously and stably observe changes necessary for correction on a general road. Therefore, in the example of FIG. 8, temporally continuous data is generated by connecting the moving speeds of different stationary targets (pedestrians and the like).

図8の(a)では車両30の進行方向において3つの静止ターゲット1〜3が存在する。車両30の進行にともない3つの静止ターゲット1〜3は徐々に車両30に近づいてくる。(b)はその場合の車両30の速度変化32と静止ターゲット1〜3の速度変化33を示している。静止ターゲット1〜3の速度変化33は、図示したように、各静止ターゲット1〜3の速度変化A〜Cをつなげることで得ており、車両30の速度変化32に対して対称(負)な関係(グラフ)となる。これにより、車両と静止ターゲットの相対的な速度が変化する区間を得ることができ、図7の場合と同様に、その区間におけるレーザとカメラの位相ずれ量を検出して補正をおこなうことにより、その補正の精度、信頼度を向上させることが可能となる。   In FIG. 8A, there are three stationary targets 1 to 3 in the traveling direction of the vehicle 30. As the vehicle 30 travels, the three stationary targets 1 to 3 gradually approach the vehicle 30. (B) shows the speed change 32 of the vehicle 30 and the speed change 33 of the stationary targets 1 to 3 in that case. As illustrated, the speed change 33 of the stationary targets 1 to 3 is obtained by connecting the speed changes A to C of the stationary targets 1 to 3, and is symmetric (negative) with respect to the speed change 32 of the vehicle 30. Relationship (graph). Thereby, it is possible to obtain a section in which the relative speed of the vehicle and the stationary target changes. Similarly to the case of FIG. 7, by detecting and correcting the phase shift amount of the laser and the camera in the section, The accuracy and reliability of the correction can be improved.

図2のステップS2の判定がYesになった後、ステップS3において、レーダとカメラの出力信号の位相ずれ量を算出するルーチンを実行する。図5は、その位相ずれ量の算出フローを示す図である。ステップS31において、所定領域の重心および物体の重心の時系列データから位相ずれ量ΔTを算出する。   After the determination in step S2 of FIG. 2 is Yes, in step S3, a routine for calculating the phase shift amount between the output signals of the radar and the camera is executed. FIG. 5 is a diagram illustrating a calculation flow of the phase shift amount. In step S31, a phase shift amount ΔT is calculated from time series data of the center of gravity of the predetermined area and the center of gravity of the object.

図9は、位相ずれ量ΔTの算出方法を説明するための図である。(a)は図4の(b)の部分を抜き出した2値化後の白黒画像20であり、図4と同じ符号番号を付けてある。図4の説明において既に述べたように、レーザレーダ10により歩行者の位置(領域)として特定された所定領域23は、赤外線カメラ12により取得された2値化処理後の歩行者像24よりもずれて表示される。   FIG. 9 is a diagram for explaining a method of calculating the phase shift amount ΔT. (A) is a binarized black and white image 20 obtained by extracting the part (b) of FIG. 4, and the same reference numerals as those in FIG. 4 are given. As already described in the description of FIG. 4, the predetermined region 23 specified as the position (region) of the pedestrian by the laser radar 10 is more than the pedestrian image 24 after the binarization processing acquired by the infrared camera 12. Displayed out of position.

図9の(b)は(a)の場合に対応する白黒画像20上の歩行者像24の移動量の時間変化Aと所定領域23の移動量の時間変化Bを示す図である。(b)のデータは、例えば上述した図7または図8の例によって得られるような比較的変化の大きい連続した区間における各移動量データを切り出して得られるデータの一部である。(b)のグラフから、所定領域23の移動量変化Bは、歩行者像24の移動量変化AよりもΔT1時間だけ位相(信号の立ち上がり)が遅れていることがわかる。したがって、この場合の位相ずれ量はΔT1となる。この位相ずれ量ΔT1は、(a)の画像上での位置ずれ量d2に対応している。   FIG. 9B is a diagram showing a time change A of the movement amount of the pedestrian image 24 on the monochrome image 20 and a time change B of the movement amount of the predetermined area 23 corresponding to the case of FIG. The data (b) is a part of data obtained by cutting out each movement amount data in a continuous section having a relatively large change as obtained by the example of FIG. 7 or FIG. From the graph of (b), it can be seen that the movement amount change B of the predetermined region 23 is delayed in phase (signal rising) by ΔT1 time than the movement amount change A of the pedestrian image 24. Therefore, the phase shift amount in this case is ΔT1. This phase shift amount ΔT1 corresponds to the positional shift amount d2 on the image of (a).

このように、所定区間(時間)における画像上の所定領域および所定物体像の移動量の時間的な変化をモニターすることで両者の位相ずれ量を得ることができる。この位相ずれ量はレーザレーダ10と赤外線カメラ12の出力信号の同期ずれ量に対応している。なお、2つの移動量変化の立ち上がり時刻のずれを見る代わりに、両者の相互相関係数を求めてあるいは位相限定相関法を利用して、得られる関数の周期から位相ずれ量を求めてもよい。   As described above, by monitoring the temporal change in the movement amount of the predetermined area on the image and the predetermined object image in the predetermined section (time), the phase shift amount of both can be obtained. This amount of phase shift corresponds to the amount of synchronization shift between the output signals of the laser radar 10 and the infrared camera 12. Instead of looking at the difference between the rising times of the two movement amount changes, the phase deviation amount may be obtained from the period of the obtained function by obtaining the cross-correlation coefficient between them or using the phase-only correlation method. .

図2のステップS4において、位相補正をおこなうルーチンを実行する。図6は、その位相補正のフローを示す図である。ステップS41において、ステップS41において得られた位相ずれ量ΔTが所定のしきい値ΔTthよりも大きいか否かを判定する。しきい値ΔTthは、位相補正の必要がある位相ずれ量がある場合のみを選択できるように設定される。例えば、上述した図4及び図9の例では、図4(b)における位相ずれ量ΔT1はしきい値ΔTthよりも大きい場合に該当し、図4(a)における位相ずれ量はしきい値ΔTthよりも小さい場合に該当する。この判定がNoの場合、処理を終了して戻る。判定がYesの場合、次のステップS42に進む。   In step S4 of FIG. 2, a routine for performing phase correction is executed. FIG. 6 is a diagram showing a flow of the phase correction. In step S41, it is determined whether or not the phase shift amount ΔT obtained in step S41 is larger than a predetermined threshold value ΔTth. The threshold value ΔTth is set so that it can be selected only when there is a phase shift amount that requires phase correction. For example, in the example of FIGS. 4 and 9 described above, the phase shift amount ΔT1 in FIG. 4B corresponds to the case where the phase shift amount ΔTth is larger than the threshold value ΔTth, and the phase shift amount in FIG. This is the case when it is smaller. If this determination is No, the process ends and returns. If the determination is Yes, the process proceeds to the next step S42.

ステップS42において、カメラ画像上の物***置またはレーダによる特定領域(所定領域)をΔT分だけずらす。具体的には、レーザレーダ10の出力信号の処理と赤外線カメラ12の出力信号の画像処理において、図9(b)の位相ずれ量ΔT1が無くなる(ゼロになる)ように補正(調整)する。例えば、赤外線カメラ12の出力信号の立ち上がり時刻を位相ずれ量ΔT1に相当する分だけ遅らせる、あるいは所定のクロック(タイミング)信号に同期して、レーザレーダ10および外線カメラ12の出力信号が立ち上がるようにする等の処理をおこなう。   In step S42, the object position on the camera image or the specific area (predetermined area) by the radar is shifted by ΔT. Specifically, in the processing of the output signal of the laser radar 10 and the image processing of the output signal of the infrared camera 12, correction (adjustment) is performed so that the phase shift amount ΔT1 in FIG. 9B is eliminated (becomes zero). For example, the rise time of the output signal of the infrared camera 12 is delayed by an amount corresponding to the phase shift amount ΔT1, or the output signals of the laser radar 10 and the external camera 12 rise in synchronization with a predetermined clock (timing) signal. Perform processing such as.

以上、本発明の実施の形態について説明したが、本発明はこのような実施形態に限定されることはなく、本発明の趣旨を逸脱しない範囲において改変して用いることができる。   The embodiment of the present invention has been described above, but the present invention is not limited to such an embodiment, and can be modified and used without departing from the spirit of the present invention.

10 レーザレーダ、
12 赤外線カメラ、
14 画像処理ユニット
16 スピーカ、
18 表示装置、
20 カメラ画像
21、23 レーダで検出された所定領域
22、24 歩行者像
30 車両
10 Laser radar,
12 Infrared camera,
14 Image processing unit 16 Speaker,
18 display device,
20 Camera images 21 and 23 Predetermined areas 22 and 24 detected by the radar Pedestrian image 30 Vehicle

Claims (4)

車両の周辺の物体を検出するレーダと、車両の周辺の画像を撮像するカメラと、前記レーダが検出した物体の位置に対応する、前記カメラが撮像した対応画像上の所定領域を特定して当該所定領域内の前記物体を特定する手段とを備える、車両の周辺監視装置であって、
特定された前記対応画像上の所定領域の移動量の時間変化と、前記カメラが撮像した画像上での前記所定物体の移動量の時間変化との位相ずれ量を算出する手段と、
前記位相ずれ量がゼロになるように、前記レーダまたは前記カメラの出力信号の位相補正をおこなう位相補正手段と、を有する車両の周辺監視装置。
A radar that detects an object around the vehicle, a camera that captures an image around the vehicle, and a predetermined area on the corresponding image captured by the camera corresponding to the position of the object detected by the radar A vehicle surroundings monitoring device comprising means for identifying the object in a predetermined area,
Means for calculating a phase shift amount between a time change of the movement amount of the predetermined area on the identified corresponding image and a time change of the movement amount of the predetermined object on the image captured by the camera;
A vehicle periphery monitoring apparatus comprising: phase correction means for performing phase correction of an output signal of the radar or the camera so that the phase shift amount becomes zero.
前記位相補正手段は、前記車両と前記所定物体との相対位置の時間変化量が所定量以上の場合に前記位相補正をおこなう、請求項1に記載の周辺監視装置。   The periphery monitoring device according to claim 1, wherein the phase correction unit performs the phase correction when a temporal change amount of a relative position between the vehicle and the predetermined object is a predetermined amount or more. 前記位相補正手段は、前記車両の走行中において、前記レーダが複数の物体を検出した場合に、当該車両の進行にともなって発生する前記複数の物体の位置の時間変化を結合して得られる変化量が所定量以上の場合に前記位相補正をおこなう、請求項1に記載の周辺監視装置。   When the radar detects a plurality of objects while the vehicle is traveling, the phase correction means is a change obtained by combining temporal changes in the positions of the plurality of objects that occur as the vehicle travels. The periphery monitoring device according to claim 1, wherein the phase correction is performed when the amount is a predetermined amount or more. 前記位相補正手段は、前記相対位置の時間変化が所定時間以上の区間を結合して前記時間変化量を得る、請求項2に記載の周辺監視装置。   The periphery monitoring device according to claim 2, wherein the phase correction unit obtains the time change amount by combining sections in which the time change of the relative position is a predetermined time or more.
JP2010099536A 2010-04-23 2010-04-23 Vehicle periphery monitoring device Expired - Fee Related JP5416026B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010099536A JP5416026B2 (en) 2010-04-23 2010-04-23 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010099536A JP5416026B2 (en) 2010-04-23 2010-04-23 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2011227029A true JP2011227029A (en) 2011-11-10
JP5416026B2 JP5416026B2 (en) 2014-02-12

Family

ID=45042520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010099536A Expired - Fee Related JP5416026B2 (en) 2010-04-23 2010-04-23 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5416026B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232139A (en) * 2010-04-27 2011-11-17 Honda Motor Co Ltd Periphery monitoring device for vehicle
JP2013057541A (en) * 2011-09-07 2013-03-28 Ihi Corp Method and device for measuring relative position to object
KR20170081523A (en) * 2016-01-04 2017-07-12 한국전자통신연구원 Advanced driver assisted system and method for processing information in the system
JP2019015606A (en) * 2017-07-06 2019-01-31 本田技研工業株式会社 Information processing method and information processing device
WO2020075525A1 (en) * 2018-10-12 2020-04-16 ソニーセミコンダクタソリューションズ株式会社 Sensor fusion system, synchronization control device, and synchronization control method
JP2022513780A (en) * 2019-06-25 2022-02-09 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド Sensor data processing methods, devices, electronic devices and systems
WO2023193408A1 (en) * 2022-04-07 2023-10-12 上海禾赛科技有限公司 Laser radar and laser radar control method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104427442A (en) * 2013-08-22 2015-03-18 昆山迈思科兄弟光电科技有限公司 Diaphragm laser welding apparatus and processing technology thereof
JP6396714B2 (en) * 2014-08-06 2018-09-26 株式会社デンソー Object recognition device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (en) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd Identical object judging method and system, and misregistration correcting method and system
JP2006011570A (en) * 2004-06-23 2006-01-12 Daihatsu Motor Co Ltd Camera calibration method and camera calibration device
JP2007274037A (en) * 2006-03-30 2007-10-18 Daihatsu Motor Co Ltd Method and device for recognizing obstacle
JP2008003779A (en) * 2006-06-21 2008-01-10 Hitachi Ltd Measurement data processing apparatus of preventive safety car
JP2008143447A (en) * 2006-12-13 2008-06-26 Honda Motor Co Ltd Vehicle safety control device
JP2010061567A (en) * 2008-09-05 2010-03-18 Toyota Motor Corp Object detecting apparatus
JP2011220732A (en) * 2010-04-06 2011-11-04 Honda Motor Co Ltd Vehicle surroundings monitoring device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (en) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd Identical object judging method and system, and misregistration correcting method and system
JP2006011570A (en) * 2004-06-23 2006-01-12 Daihatsu Motor Co Ltd Camera calibration method and camera calibration device
JP2007274037A (en) * 2006-03-30 2007-10-18 Daihatsu Motor Co Ltd Method and device for recognizing obstacle
JP2008003779A (en) * 2006-06-21 2008-01-10 Hitachi Ltd Measurement data processing apparatus of preventive safety car
JP2008143447A (en) * 2006-12-13 2008-06-26 Honda Motor Co Ltd Vehicle safety control device
JP2010061567A (en) * 2008-09-05 2010-03-18 Toyota Motor Corp Object detecting apparatus
JP2011220732A (en) * 2010-04-06 2011-11-04 Honda Motor Co Ltd Vehicle surroundings monitoring device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232139A (en) * 2010-04-27 2011-11-17 Honda Motor Co Ltd Periphery monitoring device for vehicle
JP2013057541A (en) * 2011-09-07 2013-03-28 Ihi Corp Method and device for measuring relative position to object
KR20170081523A (en) * 2016-01-04 2017-07-12 한국전자통신연구원 Advanced driver assisted system and method for processing information in the system
KR102506642B1 (en) * 2016-01-04 2023-03-07 한국전자통신연구원 Advanced driver assisted system and method for processing information in the system
JP2019015606A (en) * 2017-07-06 2019-01-31 本田技研工業株式会社 Information processing method and information processing device
WO2020075525A1 (en) * 2018-10-12 2020-04-16 ソニーセミコンダクタソリューションズ株式会社 Sensor fusion system, synchronization control device, and synchronization control method
JP2022513780A (en) * 2019-06-25 2022-02-09 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド Sensor data processing methods, devices, electronic devices and systems
WO2023193408A1 (en) * 2022-04-07 2023-10-12 上海禾赛科技有限公司 Laser radar and laser radar control method

Also Published As

Publication number Publication date
JP5416026B2 (en) 2014-02-12

Similar Documents

Publication Publication Date Title
JP5416026B2 (en) Vehicle periphery monitoring device
JP4173901B2 (en) Vehicle periphery monitoring device
JP4733756B2 (en) Vehicle periphery monitoring device
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4410292B1 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP4631096B2 (en) Vehicle periphery monitoring device
JP4815488B2 (en) Vehicle periphery monitoring device
US9158738B2 (en) Apparatus for monitoring vicinity of a vehicle
JP4528283B2 (en) Vehicle periphery monitoring device
JP2007334751A (en) Vehicle periphery monitoring device
JP2016136321A (en) Object detection device and object detection method
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
JP2006155388A (en) Vehicle circumference monitoring device
JP5259647B2 (en) Vehicle periphery monitoring device
JP2012014553A (en) Apparatus for monitoring surrounding of vehicle
JP5172887B2 (en) Vehicle periphery monitoring device
JP5455772B2 (en) Vehicle periphery monitoring device
JP2008108118A (en) Image processor
JP2007233487A (en) Pedestrian detection method, device, and program
JP5383246B2 (en) Vehicle periphery monitoring device
JP2010092437A (en) Vehicle periphery monitoring device
JP2008084138A (en) Vehicle surrounding monitoring device and surrounding monitoring program
JP4975776B2 (en) Vehicle periphery monitoring device
JP5904927B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131114

LAPS Cancellation because of no payment of annual fees