JP2002269570A - 周辺認識装置 - Google Patents

周辺認識装置

Info

Publication number
JP2002269570A
JP2002269570A JP2001067671A JP2001067671A JP2002269570A JP 2002269570 A JP2002269570 A JP 2002269570A JP 2001067671 A JP2001067671 A JP 2001067671A JP 2001067671 A JP2001067671 A JP 2001067671A JP 2002269570 A JP2002269570 A JP 2002269570A
Authority
JP
Japan
Prior art keywords
model
recognition device
image data
peripheral
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001067671A
Other languages
English (en)
Inventor
Katsuyasu Okubo
勝康 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2001067671A priority Critical patent/JP2002269570A/ja
Publication of JP2002269570A publication Critical patent/JP2002269570A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

(57)【要約】 【課題】 本発明は、周辺認識装置に関し、物体と対象
物との相対速度が大きくても、物体周辺に存在する対象
物を速やかにかつ確実に認識することを目的とする。 【解決手段】 CCDカメラ14,16の撮影した車両
前方の周辺環境を第1及び第2の画像データとしてEC
U12に供給する。第1及び第2の画像データのそれぞ
れについて対象物の輪郭を示すエッジ情報を抽出し、そ
の対象物の三次元座標を算出する。その三次元座標に基
づいてその対象物を単純な直方体にモデル化した対象物
モデルを仮想の三次元空間上に配置し、その対象物モデ
ルをその三次元位置の履歴データに基づいて移動させ
る。この際、対象物モデルの三次元位置を、その外郭線
とCCDカメラ14,16による第1及び第2の画像デ
ータにおけるエッジ線との比較結果に基づいて修正す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、周辺認識装置に係
り、特に、撮影手段を用いて取得した自物体の周辺の環
境画像に基づいて周辺に存在する対象物を認識するうえ
で好適な周辺認識装置に関する。
【0002】
【従来の技術】従来より、例えば特開平8−11441
6号公報に開示される如く、移動体とその周辺に存在す
る既知対象物(自動車,障害物,建築物など)との三次
元的な位置関係を画像処理により検出する周辺認識装置
が知られている。この周辺認識装置は、撮影手段により
撮影された系列画像のうち連続する複数のフレームの画
像間で現れる二次元動ベクトルに基づいて移動体領域を
抽出し、その領域の二次元形状に基づいて対象物の三次
元位置姿勢を推定する。そして、その三次元位置姿勢
と、予め対象物の三次元構造がワイヤフレームによりモ
デリングされた形状データとに基づいて対象物の仮想実
画像を生成する。従って、上記従来の装置によれば、異
なる視点から見た対象物の三次元映像の生成を支障なく
行うことが可能となる。
【0003】
【発明が解決しようとする課題】ところで、周辺認識装
置が例えば車両等の高速移動体に搭載される場合には、
周辺環境を認識するための処理スピードを高速化する必
要がある。しかしながら、上記従来の装置では、移動体
周辺に存在する対象物を三次元物体として認識するうえ
で、対象物の詳細な形状を特定する必要があり、また、
撮像手段の位置や姿勢を具体的に特定する必要がある。
このため、対象物の認識のための情報量が膨大であり、
認識処理の迅速化を図るうえでは限界があった。
【0004】本発明は、上述の点に鑑みてなされたもの
であり、物体周辺に存在する対象物との相対速度が大き
くても、その対象物を速やかにかつ確実に認識すること
が可能な周辺認識装置を提供することを目的とする。
【0005】
【課題を解決するための手段】上記の目的は、請求項1
に記載する如く、撮影手段を用いて物体周辺の環境画像
を取得する周辺画像取得手段を備え、前記周辺画像取得
手段により取得された環境画像に基づいて、物体周辺に
存在する対象物を認識する周辺認識装置において、前記
周辺画像取得手段により取得された物体周辺の環境画像
に含まれる対象物を簡易な形状にモデル化するモデル化
手段と、前記モデル化手段により前記対象物がモデル化
された対象物モデルを、該物体を座標中心とした環境モ
デル内に配置するモデル配置手段と、を備えることを特
徴とする周辺認識装置により達成される。
【0006】本発明において、物体周辺の環境画像に含
まれる対象物は簡易な形状にモデル化され、そのモデル
はその物体を座標中心とした環境モデル内に配置され
る。かかる構成において、対象物がモデル化された後
は、その対象物モデルに基づいて対象物が認識される。
このため、本発明によれば、対象物の詳細な形状を特定
することなく対象物を認識するため、対象物の認識に要
する時間を短くすることができる。従って、物体と対象
物との相対速度が大きくても、物体周辺に存在する対象
物が速やかにかつ確実に認識される。
【0007】また、上記の目的は、請求項2に記載する
如く、請求項1記載の周辺認識装置において、前記モデ
ル配置手段により前記対象物モデルが前記環境モデル内
に配置された後は、該環境モデル内における該対象物モ
デルを時系列位置履歴データに従って移動させる位置変
更手段を備えることを特徴とする周辺認識装置により達
成される。
【0008】本発明において、対象物モデルが環境モデ
ル内に配置された後は、その対象物モデルは時系列位置
履歴データに従って移動される。すなわち、対象物モデ
ルの位置は、時系列位置履歴データに応じて変更され
る。このため、本発明によれば、対象物の詳細な形状を
特定することなく対象物を認識するため、対象物の認識
に要する時間を短くすることができる。従って、物体と
対象物との相対速度が大きくても、物体周辺に存在する
対象物が速やかにかつ確実に認識される。
【0009】ところで、環境モデル内における対象物モ
デルが位置履歴データに従ってのみ移動するものとする
と、実際の対象物に対する対象物モデルの精度が低下
し、対象物の認識の正確性を確保することができないお
それがある。
【0010】従って、請求項3に記載する如く、請求項
2記載の周辺認識装置において、前記位置変更手段によ
り移動された前記環境モデル内における前記対象物モデ
ルの位置を、前記周辺画像取得手段により取得される前
記環境画像中における該対象物の位置に基づいて補正す
る位置補正手段を備えることとしてもよい。
【0011】また、請求項4に記載する如く、請求項2
記載の周辺認識装置において、物体周辺に存在する対象
物の位置を検出する対象物位置検出手段と、前記位置変
更手段により移動された前記環境モデル内における前記
対象物モデルの位置を、前記対象物位置検出手段により
検出された該対象物の位置に基づいて補正する位置補正
手段と、を備えることにより、周辺画像取得手段以外の
手段により検出される対象物の位置に基づいて対象物モ
デルの位置を補正することとしてもよい。
【0012】また、環境モデル内における対象物モデル
の移動軌跡とその速度とが検出できれば、その対象物が
自物体にとって危険度の高い対象物であるか否かを判定
することが可能となる。
【0013】従って、請求項5に記載する如く、請求項
2乃至4の何れか一項記載の周辺認識装置において、前
記環境モデル内において移動する前記対象物モデルの相
対速度ベクトルに基づいて、該対象物の危険度を判定す
る危険度判定手段を備えることとしてもよい。
【0014】ところで、対象物を簡易形状の対象物モデ
ルを用いて認識する構成では、その対象物モデル内に実
際の対象物以外の余分な空間が含まれている。従って、
対象物モデルを用いた危険度判定手段により危険度が高
くなったと判定される場合には、より精度の高い危険度
判定を行うことが適切であり、そのためには、環境画像
中のその対象物について詳細な位置及び形状を把握する
ことが適切となる。
【0015】従って、請求項6に記載する如く、請求項
5記載の周辺認識装置において、前記危険度判定手段に
より前記危険度が所定のしきい値を超えたと判定された
場合には、前記環境画像中における該対象物の詳細な形
状を認識することとしてもよい。
【0016】また、物体と対象物との相対位置が変化し
た場合には、環境画像中における対象物の大きさが変化
する。対象物が自物体から遠い場合は、近い場合に比し
て、環境画像中における対象物が小さいため、画像にお
ける分解能は低く、対象物の形状寸法を正確に把握する
ことは困難である。一方、対象物が自物体から近い場合
は、環境画像中における対象物が大きいため、画像にお
ける分解能は高く、対象物の形状寸法を正確に把握する
ことができる。このため、環境モデル内に配置された対
象物モデルが遠い位置から自物体に近づいた際、その対
象物モデルの形状寸法が遠い位置で把握された形状寸法
のままに維持されるものとすると、分解能が異なるた
め、その形状寸法の誤差が大きくなる。
【0017】従って、請求項7に記載する如く、請求項
1乃至6の何れか一項記載の周辺認識装置において、前
記モデル配置手段により前記対象物モデルが前記環境モ
デル内に配置された後、該対象物モデルの形状データ
を、前記周辺画像取得手段により取得された前記環境画
像における該対象物の外形に基づいて補正する形状デー
タ変更手段を備えることとしてもよい。
【0018】
【発明の実施の形態】図1は、本発明の一実施例である
周辺認識装置10の構成図を示す。本実施例において、
周辺認識装置10は、例えば車両に搭載されており、車
両の前方で走行する前方車両や自車両周辺の障害物等の
対象物を認識する。周辺認識装置10は、電子制御ユニ
ット(以下、ECUと称す)12を備えており、ECU
12により制御される。
【0019】ECU12は、CCDカメラ14,16が
接続された画像入力部18,20を備えている。CCD
カメラ14,16は、車体前部の左右に配設されてお
り、それぞれ車体前部から車両前方に広がる所定領域内
の周辺環境を撮影する。CCDカメラ14,16は、両
撮像面が同一平面上に形成されるように車体に取付けら
れている。CCDカメラ14,16が撮影した所定領域
内の周辺環境の画像データは、それぞれECU12の画
像入力部18,20に供給される。画像入力部18は、
CCDカメラ14から車両前方の所定領域内の周辺環境
を画像情報として取得する。また、画像入力部20は、
CCDカメラ16から車両前方の所定領域内の周辺環境
を画像情報として取得する。
【0020】画像入力部18,20は、それぞれ、取得
した画像データをアナログ量からデジタル量へ変換する
A/D変換器、及び、その変換後のデジタル画像データ
を格納するメモリを有している。尚、以下では、画像入
力部18がCCDカメラ14の出力信号に基づいて取得
した画像データを「第1の画像データ」と、画像入力部
20がCCDカメラ16の出力信号に基づいて取得した
画像データを「第2の画像データ」と、また、第1及び
第2の画像データを総称する場合は「実画像データ」
と、それぞれ称す。
【0021】画像入力部18,20は、画像認識部22
の特徴抽出部24に接続されている。特徴抽出部24
は、画像入力部18,20がそれぞれデジタル量へ変換
した第1及び第2の画像データをそれぞれフィルタリン
グし、それらの画像データから車両等の対象物の輪郭を
示すエッジ情報をそれぞれ抽出する。画像認識部22
は、比較部26を備えている。比較部26は、特徴抽出
部24で抽出されたエッジ情報と、後述の移動予測部で
予測される仮想の三次元空間内における対象物モデルと
を比較する部位である。
【0022】画像認識部22は、また、モデル配置部2
8を備えている。モデル配置部28は、比較部26の比
較結果により、周辺認識装置10が起動後初めて対象物
を認識する場合(すなわち、未知画像から対象物を認識
する場合)、又は、画像データに新たな対象物が含まれ
た場合に、特徴抽出部24により抽出された両画像デー
タにおけるその対象物のエッジ情報に基づいて、後述す
る手法に従ってその対象物を単純な簡易立体形状にモデ
ル化した対象物モデルを生成すると共に、その対象物モ
デルを自己の車両を基準にして設定される仮想の三次元
空間内において適当な位置に配置する。
【0023】画像認識部22は、また、モデル修正部3
0を備えている。モデル修正部30は、比較部26の比
較結果により仮想三次元空間内における対象物モデルの
位置を修正する部位である。画像認識部22は、モデル
データベース32を有している。モデルデータベース3
2は、モデル配置部28により対象物がモデル化された
場合、或いは、モデル修正部30により対象物モデルの
位置が修正された場合にその対象物についての対象物モ
デルの形状データ及び仮想三次元空間における位置を記
憶する役割を有している。また、モデルデータベース3
2は、仮想三次元空間内において対象物モデルが移動し
た時系列的な位置履歴データを対象物の自己の車両に対
する相対位置として記憶する機能も有している。
【0024】画像認識部22は、また、移動予測部34
を備えている。移動予測部34は、モデルデータベース
32に記憶された対象物モデルの時系列の位置履歴デー
タに基づいて、次時刻における対象物モデルの仮想三次
元空間内における位置を予測する。ECU12は、車両
状態検出部36を備えている。車両状態検出部36は、
車両に搭載された各種センサを用いて車両の加速度,速
度,操舵角等を検出し、車両挙動の変化量を検出する。
車両状態検出部36は、上記した画像認識部22の移動
予測部34に接続されている。移動予測部34は、車両
状態検出部36の検出した車両挙動の変化量を考慮し
て、次時刻における対象物モデルの仮想三次元空間内に
おける位置を予測する。
【0025】次に、図2及び図3を参照して、本実施例
においてモデル配置部28が画像データから対象物モデ
ルを生成する生成手法について説明する。
【0026】図2は、本実施例において画像データから
対象物モデルが生成される原理を表した図を示す。本実
施例においては、まず、画像認識部22の取得した画像
データに対して、車両の所定位置Oを原点とした、車幅
方向軸(X軸)に平行に延びる車幅方向線、及び、その
X軸に対する直角方向軸(Y軸)に平行に延びる前後方
向線を重ね合わせる。そして、例えば図2に示す如く、
画像認識部22が取得した画像データにおけるエッジ情
報としてXY平面上に楕円状(実際のXY平面上では円
形)の閉曲面S(図2における斜線部)が形成されてい
る場合には、その閉曲面Sに外接する2本の車幅方向線
(すなわち、YminとYmax)及び2本の前後方向線(す
なわち、XminとXmax)を検出する。そして、接線X
min,Xmax,Ymin,Ymax同士が交わることにより形成
される長方形を、その閉曲面Sについてのモデルの外形
面として設定する。この際、モデルの外形は、閉曲面S
を内包するものとなる。尚、モデルの外形面として設定
される長方形Cは、接線Xmi n,Xmax,Ymin,Ymax
士が交わることにより形成される長方形そのものである
必要はなく、その長方形よりも若干大きな、閉曲面Sを
完全に内包する長方形であってもよい。
【0027】図3(A)は、車両前方に円筒対象物40
が存在する状況下においてCCDカメラ14,16の撮
影する画像データを表した図を示す。また、図3(B)
は、図3(A)に示す円筒対象物40の対象物モデルを
モデル配置部28が仮想三次元空間内に配置した状況下
でCCDカメラ14,16が撮影すると予想される画像
データを表した図を示す。尚、図3(B)には、円筒対
象物40が破線で、その円筒対象物40の仮想三次元空
間内における対象物モデルが実線で、それぞれ示されて
いる。
【0028】本実施例において、画像入力部18,20
が取得した第1及び第2の画像データに基づいて、XY
平面並びに鉛直方向軸(Z軸)に平行な線を含むYZ平
面及びZX平面についてそれぞれ、上記図2に示す手法
を用いて、対象物モデルの外形面として長方形を設定す
る。この際、第1の画像データにおいて設定される長方
形と、第2の画像データにおいて設定される長方形と
は、互いに三次元座標系において同等の大きさを有する
ものとする。XY,YZ,ZX平面の各座標系について
それぞれ対象物モデルの外形面としての長方形が設定さ
れると、Xmin,Xmax,Ymin,Ymax,Zmin,Zmax
6つの面を有する直方体が形成される。この形成された
直方体は、円筒対象物40を内包するものとなる。例え
ば、第1及び第2の画像データがそれぞれ図3(A)に
示す如きエッジ情報を構成している場合には、図3
(B)に示す如き直方体が形成され、円筒対象物40を
覆うものとなる。この場合、円筒対象物40を内包する
直方体を対象物モデルとして、その大きさ(すなわち、
幅,高さ,奥行きの寸法)及び自己の車両に対する三次
元位置(例えば図3において重心P)が特定される。
【0029】本実施例において、上記の如く対象物モデ
ルとして直方体が生成され、その三次元位置が特定され
ると、その対象物モデルが、図3(B)に示す如く自己
の車両を基準にした仮想の三次元空間上において適当な
位置に配置され、その形状データおよび位置がモデルデ
ータベース32に格納される。
【0030】図4は、本実施例において対象物モデルを
仮想三次元空間上で移動させる手法を説明するための図
を示す。CCDカメラ14,16が撮影する画像データ
は、自車両と対象物との相対位置変化に応じて時系列的
に変化する。従って、対象物モデルを仮想三次元空間上
に配置した後、その空間上で移動させる必要がある。本
実施例においては、図4に示す如く、対象物モデルの三
次元位置の履歴データ(Pi-3〜Pi)に基づいて、次時
刻における対象物の位置Pi+1(すなわち、対象物と自
車両との相対位置)を推定し、推定された相対位置関係
が当該時刻に実現されるように対象物モデルを仮想三次
元空間上で移動させる。この際、対象物モデルは、CC
Dカメラ14,16が実際に撮影する画像データにかか
わらず移動することとなる。
【0031】次に、推定した相対位置関係が実現される
ように対象物モデルが仮想三次元空間上で移動されるも
のとした状況下において、CCDカメラ14,16が撮
影すると予想される仮想的な二次元画像データを生成す
る(図3(B))。そして、その生成された仮想画像デ
ータとCCDカメラ14,16が実際に撮影して得た実
画像データと比較した結果に基づいて、対象物モデルの
三次元位置を修正することにより、上記の如く推定され
た対象物と自車両との相対位置関係を修正・補正する。
【0032】具体的には、まず、CCDカメラ14,1
6のそれぞれについて、実画像データにおいて対象物を
現すエッジ線のすべてが、仮想画像データにおいて対象
物モデルとして現された直方体の外郭線で囲まれた領域
内に存在するか否かを判別する。CCDカメラ14,1
6による実画像データの何れについても、エッジ線のす
べてが上記した対象物モデルによる領域内に存在する場
合には、対象物が移動後の対象物モデル内に内包される
と判断でき、対象物が少なくとも対象物モデルの三次元
位置よりも車両側には存在しないと判断できる。従っ
て、かかる場合には、上記の如く推定された対象物と自
車両との相対位置関係を修正・補正することなく、対象
物モデルを仮想三次元空間上で移動させる。
【0033】図5は、図3に示す如く車両前方に円筒対
象物40が存在する状況下、実画像データにおいて円筒
対象物40を現すエッジ線の少なくとも一部が、仮想画
像データにおいて対象物モデルとして現された直方体の
外郭線で囲まれた領域内に存在しない状況を説明するた
めの図を示す。尚、図5において、実画像データにおい
て円筒対象物40を現すエッジ線を破線で、仮想画像デ
ータにおいて対象物モデルとして現された直方体の外郭
線を実線で、それぞれ示す。
【0034】一方、CCDカメラ14,16の少なくと
も何れか一方について、図5に示す如く、エッジ線の少
なくとも一部が上記した領域内に存在しない場合には、
円筒対象物40が移動後の対象物モデルに内包されない
と判断でき、移動後における対象物モデルの三次元位置
が実際の対象物の移動による位置に合致しない、或い
は、円筒対象物40の大きさが前回処理時から今回処理
時にかけて増大したと判断できる。
【0035】本実施例において、実画像データにおける
エッジ線の少なくとも一部が仮想画像データにおける対
象物モデルの外郭線に囲まれる領域内に存在しないと判
断された場合には、まず、対象物モデルの大きさを維持
させた状態で、CCDカメラ14,16の双方につい
て、対象物モデルの三次元位置を、実画像データにおけ
るエッジ線のすべてが対象物モデルの外郭線に囲まれる
領域内に存在するように修正することにより、対象物モ
デルと自車両との相対位置関係を修正・補正する。その
結果、対象物モデルの三次元位置の修正により実画像デ
ータにおけるエッジ線のすべてが対象物モデルの外郭線
に囲まれる領域内に存在することとなった場合には、そ
の補正された相対位置関係が実現されるように対象物モ
デルを仮想三次元空間上で移動させる。
【0036】一方、対象物モデルの三次元位置をどのよ
うに修正しても、実画像データにおけるエッジ線のすべ
てが対象物モデルの外郭線に囲まれる領域内に存在する
状況が実現されない場合には、例えば円筒対象物40と
自車両とが速度変化により急速に接近したとして、或い
は、円筒対象物40に形状変化が生じたとして、対象物
モデルの大きさ(すなわち、三次元的な寸法)を、実画
像データにおけるエッジ線のすべてが対象物モデルの外
郭線に囲まれる領域内に存在するように修正する。
【0037】このように、本実施例において、対象物モ
デルは、仮想三次元空間上に配置された後は、自己の三
次元位置の履歴データに基づいてその仮想三次元空間上
で移動されると共に、実画像データにおける対応対象物
のエッジ線との比較結果に基づいて位置修正又は形状修
正される。この際、その対象物モデルの三次元位置は、
対象物の自車両に対する三次元位置として認識される。
【0038】従って、本実施例においては、仮想三次元
空間上に対象物モデルが配置された後、対象物の自車両
に対する三次元位置を、CCDカメラ14,16の撮影
する第1及び第2の画像データから詳細に特定する必要
はなく、第1及び第2の画像データにおけるエッジ情報
を考慮した仮想三次元空間上の対象物モデルを用いて対
象物の三次元位置を認識する。この場合、対象物モデル
は、単純な簡易立体形状である直方体にモデル化されて
いる。このため、本実施例によれば、対象物の認識に要
する処理速度の向上を図ることができ、認識処理時間の
短縮化を図ることができ、その結果、自車両と対象物と
の相対位置関係が急速に変化する場合にも、その対象物
を速やかに認識することが可能となる。
【0039】図6は、上記の機能を実現すべく、本実施
例においてECU12が実行する制御ルーチンの一例の
フローチャートを示す。図6に示すルーチンは、所定時
間ごとに繰り返し起動されるルーチンである。図6に示
すルーチンが起動されると、まずステップ100の処理
が実行される。
【0040】ステップ100では、周辺認識装置10が
起動された直後にあるか否かが判別される。その結果、
周辺認識装置10が起動直後にある場合は、画像データ
上の対象物が未だ認識されたことがなく、モデルデータ
ベース32に対象物モデルの情報が格納されていないの
で、まず、CCDカメラ14,16による第1及び第2
画像データから対象物モデルを仮想三次元空間内に配置
する必要がある。従って、かかる判別がなされた場合
は、次にステップ104の処理が実行される。一方、周
辺認識装置10が起動直後にない場合は、モデルデータ
ベース32に対象物モデルの情報が格納されているの
で、その情報を基にして対象物を認識することができ
る。従って、かかる判別がなされた場合は、次にステッ
プ102の処理が実行される。
【0041】ステップ102では、対象物モデルの三次
元位置の履歴データに基づいて仮想三次元空間上に存在
するすべての対象物の次時刻における位置をそれぞれ推
定し、当該推定位置にすべての対象物モデルをそれぞれ
移動させる処理が実行される。尚、対象物の位置を推定
する際、車両に搭載された各種センサを用いて検出され
た加速度等についての状態変化量が考慮される。本ステ
ップ102の処理が終了すると、次にステップ104の
処理が実行される。
【0042】ステップ104では、CCDカメラ14,
16を用いて画像入力部18,20において車両前方の
所定領域内の周辺環境をそれぞれ取得し、第1及び第2
の画像データをそれぞれA/D変換器によりデジタル量
へ変換した後にフィルタリングし、それらの画像データ
から車両等の対象物の輪郭を示すエッジ情報をそれぞれ
抽出する処理が実行される。
【0043】ステップ106では、仮想三次元空間上に
配置された対象物モデルごとに、仮想画像データにおけ
る対象物モデルの外郭線と上記ステップ104で抽出さ
れた実画像データにおけるエッジ情報とを比較する処理
が実行されると共に、その比較結果に基づいて対象物モ
デルの仮想三次元空間上における位置を修正する処理が
実行される。
【0044】ステップ108では、上記ステップ106
の処理結果として仮想三次元空間上におけるすべての対
象物モデルが適正に再配置され、実画像データにおいて
対象物モデルと対応しないエッジ情報が存在しないか否
かが判別される。その結果、否定判定がなされた場合
は、実画像データにおいて対象物モデルとして仮想三次
元空間に配置されていない物体が存在していると判断で
きるので、次にステップ110の処理が実行される。
【0045】ステップ110では、第1及び第2の画像
データにおけるエッジ情報のうち数点分の情報に基づい
て新規物体をモデル化し、仮想三次元空間上に簡易立体
形状の対象物モデルを配置する処理が実行される。本ス
テップ110の処理が実行されると、以後、実画像デー
タに含まれた新規物体は仮想三次元空間上の対象物モデ
ルとして把握される。本ステップ110の処理が終了す
ると、次に上記ステップ106の処理が再び実行され
る。
【0046】ステップ112では、仮想三次元空間上に
おける対象物モデルを、車両前方に存在する対象物とし
て認識すると共に、その認識結果を出力する処理が実行
される。本ステップ112の処理が実行されると、以
後、車両前方に存在する対象物は、仮想三次元空間上の
対象物モデルにより認識されることとなる。本ステップ
112の処理が終了すると、今回のルーチンは終了され
る。
【0047】上記図6に示すルーチンによれば、対象物
モデルが仮想三次元空間上に配置された後は、自己の三
次元位置の履歴データに基づいて移動される対象物モデ
ルを車両前方に存在する対象物として認識することがで
きる。この場合、対象物の自車両に対する位置は、CC
Dカメラ14,16の撮影する第1及び第2の画像デー
タから詳細に特定する必要はない。このため、本実施例
によれば、対象物モデルが形成されている対象物を認識
するうえではその認識処理速度の向上を図ることがで
き、認識処理時間の短縮化を図ることができる。これに
より、対象物と自車両との相対位置関係が急速に変化す
る場合にも、その対象物が速やかに認識される。
【0048】また、上記図6に示すルーチンによれば、
自己の三次元位置の履歴データに基づいて移動される対
象物モデルの位置を、その外郭線とCCDカメラ14,
16により実画像データにおける対応対象物のエッジ線
との比較結果に基づいて修正することができる。この場
合には、対象物モデルの三次元位置が現実の対象物の位
置に近づくこととなるので、対象物の認識が正確に行わ
れることとなる。また、仮想画像データ上の対象物モデ
ルの外郭線と実画像データにおける対応対象物のエッジ
線との比較は容易に行うことが可能である。従って、本
実施例によれば、対象物を認識するうえで迅速性及び確
実性を確保しつつ、正確性の向上を図ることが可能とな
っている。
【0049】また、本実施例において、対象物の認識
は、上記した如く、対象物モデルを用いて行われる。従
って、例えば車両の上下動に起因して対象物がCCDカ
メラ14,16による第1及び第2の画像データに現れ
なくなっても、対象物モデルの三次元位置にのみ基づい
て対象物を認識することができる。このため、本実施例
によれば、CCDカメラ14,16による第1及び第2
の画像データの外乱等が生じても、対象物を認識できな
い事態を回避することができ、これにより、自車両と対
象物との相対位置関係が急速に変化する状況下でもその
対象物を速やかにかつ確実に認識することが可能とな
る。
【0050】ところで、対象物が自車両に高速で近づい
てくる、或いは、自車両が静止対象物に高速で近づいて
いくこと等に起因して、仮想画像データ上で対象物モデ
ルが高速で自車両に近づく挙動を示す場合、具体的に
は、CCDカメラ14,16による第1及び第2の画像
データに対応する仮想画像データの何れか一方において
自車両との相対速度ベクトルを表す対象物モデルの位置
軌跡ベクトルがその画像データの下方中央近傍に高速で
向かう場合がある。かかる場合には、その対象物は自車
両にとって危険性の高い物体となるので、その状況を乗
員に知らせる、或いは、車両においてその危険を回避す
る操作を行うことが適切となる。
【0051】そこで、本実施例においては、CCDカメ
ラ14,16による第1及び第2の画像データに対応す
る仮想画像データのそれぞれについて対象物モデルの位
置軌跡ベクトルを算出し、その位置軌跡ベクトルに基づ
いて仮想三次元空間上における対象物モデルの自車両に
対する危険度を判定する。対象物モデルの位置軌跡ベク
トルがその画像データの下方中央に高速で向かうほど、
自車両にとってその対象物の危険度は大きくなる。かか
る構成によれば、CCDカメラ14、16により実画像
データから詳細に対象物を認識することなく、仮想三次
元空間上における対象物モデルを用いて簡易に自車両に
とって危険度の高い対象物を検出することが可能とな
る。
【0052】ところで、本実施例においては、対象物が
簡易形状の対象物モデルを用いて認識されるが、その対
象物モデル内には実際の対象物以外の余分な空間が含ま
れている。従って、対象物モデルを用いた危険度判定に
より危険度が高いと判定された場合には、精度良く危険
度判定を行うことが適切であり、そのためには、対象物
の詳細な位置及び形状を把握し、その詳細な位置や形状
に基づいて危険度を判定することが適切となる。
【0053】すなわち、対象物モデルを用いて危険度の
高い対象物が存在すると判定される場合には、その後、
その対象物の詳細な位置及び形状を把握し、その対象物
の属性(例えば車両又は人)を特定することが適切とな
る。そこで、本実施例においては、対象物モデルの位置
軌跡ベクトルに基づいて検出された危険度が所定値を超
えた場合、CCDカメラ14,16の撮影した第1及び
第2の画像データから対象物の詳細な位置及び形状を特
定する。この場合には、特定された詳細な位置及び形状
から危険度の高い対象物の属性を把握することができ、
その後の処理(例えば、操舵操作)に取り入れることが
できる。
【0054】また、本実施例において、車両がナビゲー
ション装置を搭載し、現位置で見ると予測される視界情
報をナビゲーション装置のデータベースから引き出すこ
とができる構成を有する場合には、その視界情報と仮想
画像データとを比較することにより、仮想三次元空間上
における対象物モデルが走行道路の近傍に建てられたビ
ルや陸橋,信号機等の固定物が化体したものであるか否
かを判定することができる。対象物モデルが固定物に係
るものである場合には、その固定物が自車両にとって危
険物になることはなく、その対象物モデルについては仮
想三次元空間上で移動させるための処理を行うことは不
要である。従って、かかる構成において、対象物モデル
が固定物に係るものであるか否かを判定することとすれ
ば、仮想三次元空間上における対象物モデルの処理速度
の向上を図ることができ、車両前方に存在する対象物の
認識を更に速やかに行うことが可能となる。
【0055】また、かかる構成において、ナビゲーショ
ン装置のデータベースによる視界情報では現位置で見る
ことができると予想される対象物が、仮想三次元空間上
で対象物モデルとして設定されていない場合には、その
対象物を仮想三次元空間上に対象物モデルとして設定す
ることとしてもよい。この場合には、CCDカメラ1
4,16による実画像データと、ナビゲーション装置の
データベースによる視界情報とが相互にリンクされるこ
ととなるので、対象物の認識精度の向上を図ることが可
能となる。
【0056】尚、上記の実施例においては、CCDカメ
ラ14,16が特許請求の範囲に記載した「撮影手段」
に相当すると共に、ECU12が、画像入力部18にお
いてCCDカメラ14,16の撮影した第1及び第2の
画像データを取得することにより特許請求の範囲に記載
した「周辺画像取得手段」が、モデル配置部28におい
て第1及び第2の画像データから三次元座標が算出され
た対象物を、それを覆う直方体形状を有する対象物モデ
ルにモデル化することにより特許請求の範囲に記載した
「モデル化手段」が、モデル配置部28において対象物
モデルを自車両を基準にして設定される仮想三次元空間
内に配置することにより特許請求の範囲に記載した「モ
デル配置手段」が、それぞれ実現されている。
【0057】また、上記の実施例においては、ECU1
2が、モデル位置変更部34において対象物モデルをそ
の三次元位置の履歴データに基づいて推定される位置に
移動させることにより特許請求の範囲に記載した「位置
変更手段」が、モデル位置変更部34において位置履歴
データに基づいて推定された対象物モデルの三次元位置
をCCDカメラ14,16による実画像データにおける
対応対象物のエッジ線に基づいて修正することにより特
許請求の範囲に記載した「位置補正手段」が、CCDカ
メラ14,16による第1及び第2の画像データに対応
する仮想画像データのそれぞれについて算出された対象
物モデルの位置軌跡ベクトルに基づいて仮想三次元空間
上における対象物モデルの自車両に対する危険度を判定
することにより特許請求の範囲に記載した「危険度判定
手段」が、それぞれ実現されている。
【0058】ところで、上記の実施例においては、CC
Dカメラ14,16を車体前部に配設し、車両前方に広
がる視界を撮影することとしているが、CCDカメラ1
4,16の配設位置はこれに限定されるものではなく、
車体後部や車体側部に配設することとしてもよい。ま
た、CCDカメラ14,16が車両に搭載されるものと
しているが、ロボット等の自立移動可能な移動体や、全
く移動しない固体物に搭載されるものとしてもよい。
【0059】また、上記の実施例においては、CCDカ
メラ14,16の撮影した第1及び第2の画像データ上
に現れた対象物の外延に外接する6つの面を設定した後
で、その6つの面を有する直方体を構成することにより
対象物モデルを生成することとしているが、本発明はこ
れに限定されるものではなく、任意の大きさの直方体を
CCDカメラ14,16の撮影した第1及び第2の画像
データのそれぞれに当てはめた後で、両画像データにお
いて対象物を現すエッジ線のすべてが直方体の外郭線で
囲まれた領域内に存在するようにその直方体の三次元位
置及び大きさを設定することにより対象物モデルを生成
することとしてもよい。
【0060】また、上記の実施例においては、対象物モ
デルの三次元位置をCCDカメラ14,16の撮影した
実画像データにおけるエッジ情報に基づいて修正するこ
ととしているが、本発明はこれに限定されるものではな
く、例えばレーダセンサや超音波センサを用いて検出し
た自車両と対象物との距離、すなわち、対象物の自車両
に対する位置に基づいて修正することとしてもよい。こ
の場合、対象物モデルの三次元位置がCCDカメラ1
4,16の実画像データではなく、その他のセンサによ
り修正されるので、対象物の認識精度の向上を図ること
が可能となる。かかる構成においては、ECU12がそ
れらのセンサの出力信号に基づいて対象物の自車両に対
する位置を検出することにより請求項4に記載した「対
象物位置検出手段」が実現される。
【0061】更に、上記の実施例においては、対象物モ
デルの大きさを実画像データにおける対応対象物のエッ
ジ線との比較結果に基づいて修正することとしている
が、以下の場合に修正することとしてもよい。すなわ
ち、対象物が自車両から遠くに位置する場合は、近くに
位置する場合に比して、実画像データ上における対象物
の大きさが小さく、この場合は、実画像データの分解能
が低いため、その対象物の大きさを正確に測定すること
は困難である。一方、対象物が自車両から近くに位置す
る場合は、実画像データ上における対象物の大きさが大
きく、この場合は、実画像データの分解能が高いため、
その対象物の大きさを正確に測定することが可能とな
る。このため、対象物モデルが遠い位置から自車両に近
づいた際、その対象物モデルの大きさが遠い位置で把握
された大きさのままに維持されていると、画像上の対象
物の大きさが分解能の向上により実際の大きさと異なっ
てくる場合がある。従って、かかる事態が生じた場合に
対象物モデルの大きさを実画像データにおけるエッジ情
報と比較し修正することとすれば、対象物の認識を精度
よく行うことが可能となる。この場合、ECU12が、
実画像データにおける対応対象物のエッジ情報に基づい
て対象物モデルの大きさを修正することにより特許請求
の範囲に記載した「形状データ変更手段」が実現され
る。
【発明の効果】上述の如く、請求項1及び2記載の発明
によれば、物体と対象物との相対速度が大きくても、物
体周辺に存在する対象物を速やかにかつ確実に認識する
ことができる。
【0062】請求項3、4、及び7記載の発明によれ
ば、対象物を認識するうえで迅速性及び確実性を確保し
つつ、正確性の向上を図ることができる。
【0063】請求項5記載の発明によれば、対象物モデ
ルを用いて自物体にとって危険度の高い対象物を検出す
ることができる。
【0064】また、請求項6記載の発明によれば、危険
度の高い対象物が存在する場合に、その詳細な形状を把
握することができる。
【図面の簡単な説明】
【図1】本発明の一実施例である周辺認識装置の構成図
である。
【図2】本実施例において画像データから対象物モデル
が生成される原理を表した図である。
【図3】図3(A)は、車両前方に円筒対象物が存在す
る状況下において左右のCCDカメラがそれぞれ撮影す
る画像データを表した図を示す。また、図3(B)は、
図3(A)に示す円筒対象物の対象物モデルが仮想三次
元空間内に配置された状況下で左右のCCDカメラがそ
れぞれ撮影すると予想される画像データを表した図であ
る。
【図4】本実施例において対象物モデルを仮想三次元空
間で移動させる手法を説明するための図である。
【図5】図3に示す如く車両前方に円筒対象物が存在す
る状況下、実画像データにおいて円筒対象物を現すエッ
ジ線の少なくとも一部が、仮想画像データにおいて対象
物モデルとして現された直方体の外郭線で囲まれた領域
内に存在しない状況を説明するための図である。
【図6】本実施例において、対象物モデルから対象物を
認識すべく実行される制御ルーチンの一例のフローチャ
ートである。
【符号の説明】
10 周辺認識装置 12 電子制御ユニット(ECU) 14,16 CCDカメラ 22 画像認識部

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 撮影手段を用いて物体周辺の環境画像を
    取得する周辺画像取得手段を備え、前記周辺画像取得手
    段により取得された環境画像に基づいて、物体周辺に存
    在する対象物を認識する周辺認識装置において、 前記周辺画像取得手段により取得された物体周辺の環境
    画像に含まれる対象物を簡易な形状にモデル化するモデ
    ル化手段と、 前記モデル化手段により前記対象物がモデル化された対
    象物モデルを、該物体を座標中心とした環境モデル内に
    配置するモデル配置手段と、 を備えることを特徴とする周辺認識装置。
  2. 【請求項2】 請求項1記載の周辺認識装置において、 前記モデル配置手段により前記対象物モデルが前記環境
    モデル内に配置された後は、該環境モデル内における該
    対象物モデルを時系列位置履歴データに従って移動させ
    る位置変更手段を備えることを特徴とする周辺認識装
    置。
  3. 【請求項3】 請求項2記載の周辺認識装置において、 前記位置変更手段により移動された前記環境モデル内に
    おける前記対象物モデルの位置を、前記周辺画像取得手
    段により取得される前記環境画像中における該対象物の
    位置に基づいて補正する位置補正手段を備えることを特
    徴とする周辺認識装置。
  4. 【請求項4】 請求項2記載の周辺認識装置において、 物体周辺に存在する対象物の位置を検出する対象物位置
    検出手段と、 前記位置変更手段により移動された前記環境モデル内に
    おける前記対象物モデルの位置を、前記対象物位置検出
    手段により検出された該対象物の位置に基づいて補正す
    る位置補正手段と、 を備えることを特徴とする周辺認識装置。
  5. 【請求項5】 請求項2乃至4の何れか一項記載の周辺
    認識装置において、 前記環境モデル内において移動する前記対象物モデルの
    相対速度ベクトルに基づいて、該対象物の危険度を判定
    する危険度判定手段を備えることを特徴とする周辺認識
    装置。
  6. 【請求項6】 請求項5記載の周辺認識装置において、 前記危険度判定手段により前記危険度が所定のしきい値
    を超えたと判定された場合には、前記環境画像中におけ
    る該対象物の詳細な形状を認識することを特徴とする周
    辺認識装置。
  7. 【請求項7】 請求項1乃至6の何れか一項記載の周辺
    認識装置において、 前記モデル配置手段により前記対象物モデルが前記環境
    モデル内に配置された後、該対象物モデルの形状データ
    を、前記周辺画像取得手段により取得された前記環境画
    像における該対象物の外形に基づいて補正する形状デー
    タ変更手段を備えることを特徴とする周辺認識装置。
JP2001067671A 2001-03-09 2001-03-09 周辺認識装置 Pending JP2002269570A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001067671A JP2002269570A (ja) 2001-03-09 2001-03-09 周辺認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001067671A JP2002269570A (ja) 2001-03-09 2001-03-09 周辺認識装置

Publications (1)

Publication Number Publication Date
JP2002269570A true JP2002269570A (ja) 2002-09-20

Family

ID=18925987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001067671A Pending JP2002269570A (ja) 2001-03-09 2001-03-09 周辺認識装置

Country Status (1)

Country Link
JP (1) JP2002269570A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248640A (ja) * 2010-05-27 2011-12-08 Honda Motor Co Ltd 車両の周辺監視装置
WO2013005477A1 (ja) * 2011-07-05 2013-01-10 富士フイルム株式会社 撮像装置、立体画像撮像方法及びプログラム
WO2017051480A1 (ja) * 2015-09-25 2017-03-30 株式会社日立情報通信エンジニアリング 画像処理装置及び画像処理方法
WO2018182153A1 (ko) * 2017-03-30 2018-10-04 삼성전자 주식회사 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248640A (ja) * 2010-05-27 2011-12-08 Honda Motor Co Ltd 車両の周辺監視装置
WO2013005477A1 (ja) * 2011-07-05 2013-01-10 富士フイルム株式会社 撮像装置、立体画像撮像方法及びプログラム
WO2017051480A1 (ja) * 2015-09-25 2017-03-30 株式会社日立情報通信エンジニアリング 画像処理装置及び画像処理方法
JPWO2017051480A1 (ja) * 2015-09-25 2017-09-21 株式会社日立情報通信エンジニアリング 画像処理装置及び画像処理方法
CN108027974A (zh) * 2015-09-25 2018-05-11 株式会社日立信息通信工程 图像处理装置以及图像处理方法
US10194059B2 (en) 2015-09-25 2019-01-29 Hitach Information & Telecommunication Engineering, Ltd. Image processing apparatus and image processing method
WO2018182153A1 (ko) * 2017-03-30 2018-10-04 삼성전자 주식회사 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법
US11176387B2 (en) 2017-03-30 2021-11-16 Samsung Electronics Co., Ltd Device and method for recognizing object included in input image

Similar Documents

Publication Publication Date Title
JP4899424B2 (ja) 物体検出装置
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
CN112349144B (zh) 一种基于单目视觉的车辆碰撞预警方法及***
EP2336999B1 (en) Device for detecting/judging road boundary
US8594378B2 (en) 3D object detecting apparatus and 3D object detecting method
WO2017118907A1 (en) Systems and methods for estimating future paths
JP2004198212A (ja) 移動体周辺監視装置
US10194059B2 (en) Image processing apparatus and image processing method
JP2004198211A (ja) 移動体周辺監視装置
JP2004056763A (ja) 監視装置、監視方法および監視用プログラム
CN111213153A (zh) 目标物体运动状态检测方法、设备及存储介质
JP4192680B2 (ja) 移動体周辺監視装置
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP4296287B2 (ja) 車両認識装置
JP2021154969A (ja) 障害物検知装置、障害物検知方法、および、プログラム
JP2000293693A (ja) 障害物検出方法および装置
JP2009139324A (ja) 車両用走行路面検出装置
CN113091756A (zh) 位置推定装置、以及位置推定方法
JPWO2019123582A1 (ja) 物体情報生成装置及び物体情報生成プログラム
JP2007087203A (ja) 衝突判定システム、衝突判定方法及びコンピュータプログラム
JP2002104113A (ja) 後方監視装置
JP2002269570A (ja) 周辺認識装置
JP2002259966A (ja) 周辺認識装置
JP4106163B2 (ja) 障害物検出装置及びその方法
JP7226583B2 (ja) 信号機認識方法及び信号機認識装置