JP2010231400A - 障害物危険度算出装置、方法及びプログラム - Google Patents

障害物危険度算出装置、方法及びプログラム Download PDF

Info

Publication number
JP2010231400A
JP2010231400A JP2009076941A JP2009076941A JP2010231400A JP 2010231400 A JP2010231400 A JP 2010231400A JP 2009076941 A JP2009076941 A JP 2009076941A JP 2009076941 A JP2009076941 A JP 2009076941A JP 2010231400 A JP2010231400 A JP 2010231400A
Authority
JP
Japan
Prior art keywords
obstacle
obstacle candidate
candidate area
shielding
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009076941A
Other languages
English (en)
Other versions
JP5248388B2 (ja
Inventor
Manabu Nishiyama
学 西山
Masahide Nishiura
正英 西浦
Hiroshi Hattori
寛 服部
Satoyuki Takeguchi
智行 武口
Akihito Seki
晃仁 関
Takeshi Nakano
剛 仲野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009076941A priority Critical patent/JP5248388B2/ja
Publication of JP2010231400A publication Critical patent/JP2010231400A/ja
Application granted granted Critical
Publication of JP5248388B2 publication Critical patent/JP5248388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】障害物の候補となる領域の危険度をより正確に算出すること。
【解決手段】障害物危険度算出装置は、自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出するステレオ画像処理部1と、視差分布情報から複数の障害物候補領域を生成する障害物候補領域生成部2と、複数の前記障害物候補領域の1つである第1の障害物候補領域が画像データから認識した危険物にどれだけ遮蔽されているかを表す第1の遮蔽度、および、第1の障害物候補領域が予め設定した危険物にどれだけ遮蔽されているかを表す第2の遮蔽度の少なくとも1つから第1の障害物候補領域の危険度を算出する危険度算出部6と、を備えた。
【選択図】図1

Description

本発明は、自動車に搭載されたカメラで撮影された画像から運転者から見えにくい障害物の危険度を算出する技術に関する。
カメラにより撮影された画像から人物・自転車・バイク・その他障害物を検出する技術は、自動車などの移動物体における安全確保にとって重要な役割を果たす。さらに、運転者が運転している車両(以後、自車両と呼ぶ)の周囲環境に存在する立体物それぞれについて、運転者にとってどれだけ危険であるかを数値化した“危険度”を評価することができれば、本当に危険な障害物だけに警告を発するというように、運転者にとってより有益な安全装置を提供することが可能になる。
特許文献1は、自車両に近い物体ほど危険度が高いとみなして画像を複数の領域に分割し、自車両に近い領域から先に障害物検出処理を実行することで、危険な障害物ほど早く検出できるようにした技術を開示している。
特許第3540005号公報
しかしながら、運転者にとって危険な障害物は、単に近くにあるものに限らず、他の物体に隠れているものや、運転者の死角に入っているものなど、状況に応じて動的に決まるものも存在しうる。また、運転者から見えにくい位置関係にあるものは、運転者、相手(障害物が歩行者などの場合)双方にとって気付きにくい。
本発明は、上記に鑑みてなされたものであって、障害物の候補となる領域の危険度をより正確に算出することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の一態様は、自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出するステレオ画像処理部と、前記視差分布情報から複数の障害物候補領域を生成する障害物候補領域生成部と、複数の前記障害物候補領域の1つである第1の障害物候補領域が前記画像データから認識した危険物にどれだけ遮蔽されているかを表す第1の遮蔽度、および、前記第1の障害物候補領域が予め設定した危険物にどれだけ遮蔽されているかを表す第2の遮蔽度の少なくとも1つから前記第1の障害物候補領域の危険度を算出する危険度算出部と、を備えたこと、を特徴とする。
本発明によれば、障害物の候補となる領域の危険度をより正確に算出することができる。
本実施の形態にかかる障害物危険度算出装置の構成を示すブロック図である。 視差算出におけるブロックマッチングについて説明する図である。 立体物領域から障害物候補領域を生成する方法を説明する図である。 車両周辺状況の一例を示す図である。 図4の車両周辺状況から得られる障害物候補領域集合を示す図である。 運転者遮蔽を説明する図である。 運転者遮蔽を説明する他の図である。 運転者遮蔽を説明する他の図である。 運転者遮蔽度の算出方法を説明する図である。 障害物候補領域遮蔽を説明する図である。 障害物危険度の算出方法のフローチャートを示す図である。
以下に添付図面を参照して、この発明にかかる障害物危険度算出装置および障害物危険度算出方法の最良な実施の形態を詳細に説明する。本実施の形態では、車両前方に存在する障害物に対する危険度算出について主に説明しているが、車両後方など、車両周囲全般に対して同じ方法で危険度算出が可能であり、車両前方の危険度算出だけに限定するものではない。
本実施の形態では、障害物危険度算出装置は走行する車両上に搭載されており、車両前方に存在する障害物の危険度を算出する。算出された障害物の危険度は、車両前方にある危険な障害物の検出に利用される。
そして、後ほど説明する障害物候補領域の位置情報とその危険度をそのまま用いて運転者への警報や車両の危険回避制御を行うことも可能であるし、本実施の形態を障害物検出装置の前処理として、障害物候補領域に対してパターン認識処理を適用することにより、たとえば障害物のうち歩行者だけを検出するといった装置構成も可能である。この場合、算出される危険度の高いものから順に認識処理を行うようにすれば、本当に危険なものはより早い段階で検出できるようになるため、より早く警報を発したり危険回避制御をしたりすることが可能になる。
また、危険度が高いものから順に処理していき、あらかじめ指定した数だけ障害物候補領域を認識処理したら処理を打ち切るようにすれば、状況により障害物候補領域の数が増大して認識処理に要する計算量が膨大になるというような事態を防止して計算量を一定に保つことが可能になる。なお、本実施形態における危険度算出は障害物候補領域位置情報から算出可能なものであり、画像中の画素を対象として計算を行う認識処理と比較すると計算量はずっと小さいとみなしてよい。
図1は、本実施の形態にかかる障害物危険度算出装置の構成を示すブロック図である。障害物危険度算出装置は、ステレオ画像処理部1、障害物候補領域生成部2、頭部位置検出部3、運転者遮蔽度算出部4、障害物候補領域遮蔽度算出部5、および、危険度算出部6を備えて構成されている。
ステレオ画像処理部1は、複数のステレオカメラからなるステレオ画像取得装置(図示せず)が自車両の周囲環境を撮影して得られる画像データ(ステレオ画像対)から、撮影範囲内の視差分布情報(三次元位置情報)を算出する。
ここで、視差とは、一方の画像における点aに対応する点がもう一方の画像で点bに映っている場合、二つの点の距離によって算出され、この距離の差が視差値となる。一般に、視差が小さいほど実世界中では遠くにあり、視差が大きくなるとカメラの近くに存在することになる。視差は画像中の任意の領域に対して算出できる。よって、視差分布情報とは、視差の二次元配列であり、視差が画像内でどのように変化するかを表したものである。
そして、ステレオカメラ間の相対位置関係を表すカメラの外部パラメータ、および、焦点距離やレンズひずみなどのカメラの内部パラメータを取得していれば、視差値から対象領域の三次元位置情報(奥行き距離情報)を容易に算出できる。したがって、視差分布情報を求めるということは、撮影範囲(車両周囲)内の三次元位置情報(奥行き距離情報)を求めていると考えても良いため、ステレオ画像処理部1は、撮影範囲(車両周囲)内の三次元位置情報(奥行き距離情報)を算出するともいえる。
なお、カメラの外部パラメータおよび内部パラメータの算出方法については、コンピュータビジョン、ロボットビジョンの分野で従来から盛んに研究されており、ステレオ画像処理にとって十分な精度を持ったパラメータ算出法が知られているため、詳細についての説明は省略する。ここでは、最も簡単な場合である、ステレオ画像取得装置がステレオカメラ2台を有する場合の視差推定手順について説明する。
図2は、視差算出におけるブロックマッチングについて説明する図である。まず前提として、2台のステレオカメラは、車両前方向きに平行に設置されているものとする。特に平行に並んでいなくても視差分布情報を求めることは可能であるが、このような平行カメラの場合、左右画像で対応点の垂直座標が一致するため問題がより簡単になる。視差を求めるには、一方の画像のある画素に対応する点をもう一方の画像から見つける必要があるが、この場合、対応点の垂直座標は元の画素と同じであることが分かっているので、水平座標だけを変化させながら探索を行えばよいことになる。
図2に示すように、対応点の探索は、左側の画像11における注目画素12の周辺部分画像13を切り出し、右側の画像14において同じサイズの部分画像15を切り出して類似度を評価することで実現する。類似度は、(1)式で表される正規化相互相関で評価することができ、この値が大きい(1に近い)ほど類似度が高い。
Figure 2010231400
(1)式において、L(i,j)は周辺部分画像13の画素値、Lは周辺部分画像13の平均画素値、R(i,j)は部分画像15の画素値、Rは部分画像15の平均画素値を表す。Σは部分画像内で値を合計することを表す。この類似度計算を部分画像15の範囲を移動させながら行い、類似度が最も高くなる点を探索する。対応点が見つかったら今度は部分画像15を固定して左側の画像11に対してマッチングを行い、注目画素12周辺で類似度が最大になればマッチングが成功したとみなして、部分画像13と部分画像15の水平座標の差を注目画素12の視差値とする。
以上の処理を画像全体に渡って繰り返すことで視差分布情報が得られる。視差分布から奥行き距離を得るにはもう1つ処理が必要である。平行に設置された2台のカメラの場合、視差値dに対する奥行き距離Zは(2)式で求められる。
Figure 2010231400
(2)式において、fはカメラの焦点距離、Bはステレオカメラ間のベースライン距離である。これらの値はカメラキャリブレーションを行うことで求めることができる。これを画像全体に渡って繰り返せば奥行き距離情報が得られる。
障害物候補領域生成部2は、視差分布情報から、道路から垂直に立った立体物を抽出し(立体物抽出処理)、さらに、抽出した立体物から障害物検出の単位である障害物候補領域を複数切り出す(障害物候補領域生成処理)。
立体物抽出処理では、最初に、視差分布情報における各視差分布データを、u(水平座標)−d(視差)空間に投票(集計)する。すなわち、ある水平座標u1、視差d1を持ったデータの個数を算出し、その分布を取得する。既に述べたように、入力画像を撮影するカメラはほぼ水平を保って設置されているため、道路面に対して垂直に立った領域内は視差値dがほぼ一定になる。そのため、u−d空間で投票数(集計数)の多い箇所は地面に対し垂直に立った立体物領域であるとみなせる。そこで、投票結果(集計結果)に基づいてu−d空間を閾値処理で2値化することで、立体物−非立体物(道路面もしくは空)に分けることができる。閾値の決定の仕方には、u−d空間全体に対して一定の値Tudを用いることもできるし、または、ステレオカメラの場合、視差が大きい、つまり近くにある物体ほど大きく映る傾向にあるため、視差dに比例するように、(3)式の様に、dの関数により閾値を決定してもよい。
Figure 2010231400
(3)式において、α、tはあらかじめ決めた定数である。ステレオカメラの場合は視差dに応じて閾値を決定するほうが、誤った視差などのノイズに対して頑健になる。
この立体物−非立体物判定の結果に基づいて、元の三次元位置情報のうち立体物に対応する箇所のみを残す処理を行う。処理の手順は、視差分布データを1つ読み、1つのデータにつきu(水平座標)、v(垂直座標)、d(視差)のデータが得られるため、二値化されたu−d空間から座標(u,d)のデータを読む。読んだデータが立体物であれば視差情報を残し、非立体物であれば視差情報を無効にする。以上を視差分布全体に繰り返すことで立体物領域だけの視差分布が得られることになる。
障害物候補領域生成処理では、得られた立体物領域を障害物検出の単位である障害物候補領域の集合に切り分ける。障害物のうち歩行者を抽出するといった処理の場合、立体物領域全体と歩行者モデルとを直接比較するのは困難であるため、立体物領域から歩行者に対応するサイズを切り出した部分領域を生成し、これを照合処理に用いる。この部分領域が障害物候補領域である。この障害物候補領域は以後、遮蔽度および危険度の算出の最小単位としても利用される。
図3は、立体物領域から障害物候補領域を生成する方法を説明する図である。道路面16は自車両の周囲環境中の道路面である。道路面16の任意の地点に矩形の仮想障害物17が立っていると仮定する。この仮想障害物17はカメラの画像面18に投影され、画像中の矩形領域19となる。カメラパラメータをあらかじめ求めておけば、仮想障害物17の三次元座標とサイズとから矩形領域19の位置・サイズは算出可能である。仮想障害物17のサイズは、検出したい障害物の最小サイズに合わせて事前に設定しておくものである。例えば、歩行者サイズの障害物まで検出しようとすると、仮想障害物のサイズは幅800mm、高さ1600mm程度を指定しておく。なお、このサイズは大人の場合で、子供の場合は、小さくなる。
このように、投影計算によって仮想障害物17の画像への投影像の位置・サイズを算出できるが、仮想障害物17の位置に立体物が存在するとは限らない。立体物が存在する箇所だけに仮想障害物17を配置していけばよいので、前に求めた視差分布情報を用いて判定を行い、判定を通過した仮想障害物17を障害物候補領域集合に加えていく。
仮想障害物17が視差分布情報中の立体物領域に対応するかどうかの判定は以下のように行う。まず、画像面18に投影したときの矩形領域19の左上の画像座標(u1,v1)、右下の座標(u2,v2)を算出する。次に(u1,v1)を左上隅、(u2,v2)を右下隅とする矩形の部分領域内の視差分布を評価する。ある画素における視差がdであった場合、その画素におけるスコアを(4)式により求める。
Figure 2010231400
(4)式において、z(d)は視差dから奥行き距離を算出する関数であり、(2)式に対応する。zは仮想障害物17の奥行き座標値である。σはz(d)とzのずれをどこまで許容するかを決定するパラメータであり、事前に設定しておく。(4)式のスコアを部分領域内の画素のうち、立体物領域に対応するものに対して計算し、すべての和をとる。最後に部分領域の面積で割ることでこの仮想障害物のスコアとするが、このスコアが大きいほど、仮想障害物17の位置に立体物が存在することが視差分布情報により確認されていることになる。
したがって、仮想障害物17のスコアをあらかじめ決めた閾値と比較し、閾値よりも大きい場合、仮想障害物17の位置に立体物が存在すると判定し、仮想障害物17の位置・サイズ情報を障害物候補領域集合に追加する。スコアが閾値より小さい場合、仮想障害物17の位置に立体物が存在しないと判定し、障害物候補としない。
図4は、車両周辺状況の一例を示す図である。図4では、運転者20が運転する自車両21に、2台のステレオカメラ22および23が車両前方向きに平行に設置されている。そして、自車両21の右前方には歩行者24が存在し、左前方には歩行者25が存在している。さらに、自車両21の左側面から左前方にかけて側壁26が存在している。
そして、このような車両周辺状況に対して、障害物候補領域を生成する。図5は、図4の車両周辺状況から得られる障害物候補領域集合を示す図である。図5のように、歩行者24および25に対応する障害物候補領域群27と、側壁26に相当する障害物候補領域群28からなる障害物候補領域集合を得ることができる。
歩行者の標準的なサイズを障害物候補領域のサイズとすると、歩行者24および25に対応する領域が正しく障害物候補領域として抽出されるが、側壁26のように元々大きな立体物も歩行者サイズの多数の障害物候補領域に分割されてしまう。ただし、このような部分は近接した障害物候補領域が連続して現れるのが特徴である。
以上のようにして得られる障害物候補領域集合は、要素それぞれが実空間でのサイズと位置情報とを保持している。したがって、障害物候補領域生成部2は、車両周囲の立体物の三次元配置情報を単純化していることに相当する。そして、障害物候補領域生成部2で得られた障害物候補領域集合のそれぞれに対し、二種類の遮蔽度(運転者遮蔽度および障害物候補領域遮蔽度)を算出する。
頭部位置検出部3は、運転者20の頭部位置を検出する。頭部位置の検出は、画像処理などにより行われる。
運転者遮蔽度算出部4は、各障害物候補領域の位置情報および領域サイズを使って運転者の死角領域内に入っているかを判定して運転者遮蔽度を算出する。運転者遮蔽度は、障害物候補領域1つの位置・サイズに対して一意に決まる遮蔽度である。ここで、運転者遮蔽とは、運転者と障害物のうち、運転者にとって障害物を視認しにくいような遮蔽状態のこととする。
図6は、運転者遮蔽を説明する図である。運転者遮蔽の状態とは、図のように、自車両21の右前方にあるピラー29によって死角30が発生し、運転者20の視界が阻害され、運転者20が歩行者24の存在を認識できない状態をいい、このような場合に遮蔽度が高くなるように評価方法を設定する。
図7および図8は、運転者遮蔽を説明する他の図である。図6のような運転席にあるピラー29による遮蔽の他にも、図7のように、運転者20の視野範囲外にあたる領域31も運転者が遮蔽された状態にあるとみなすことができる。さらに、降雨によりワイパーが動作している場合は、図8のように、領域31に加えて、フロントガラスのワイパー動作範囲外やサイドガラス部分にあたる領域32も運転者が遮蔽された状態にあるとみなすことができる。また、そして、各障害物候補領域(図6の場合は歩行者24が存在する領域)が遮蔽されている度合いを運転者遮蔽度として数値で評価する。
運転者遮蔽度は以下のようにして算出する。図9は、運転者遮蔽度の算出方法を説明する図である。ここでは、ピラー29による遮蔽が起こっている場合の運転者遮蔽度を算出する。まず、自車両21の周辺に対し、遮蔽が起こっている領域を表す遮蔽スコアの分布を求める。図9では、遮蔽が起こる部分(死角30)を斜線で表現しているが、この遮蔽部分について0から1の遮蔽スコアを与えておく。もっとも単純なやり方は、遮蔽が起こっていない部分を0、遮蔽されている斜線部分を1に設定することであるが、境界部分に対して中間値を与えるといった設定も可能である。
図9では、運転席のピラー29の影の領域(死角30)に遮蔽が発生することを表現したスコア分布になっているが、さらに、運転者20の視野範囲外にあたる領域31や、フロントガラスのワイパー動作範囲外やサイドガラス部分にあたる領域32などの異なる遮蔽要因を組み合わせたスコア分布を作成することも可能である。この場合、各地点での遮蔽スコアは全ての遮蔽要因に対するスコアのうち最大のものを採用する。
運転者遮蔽は運転者20の視界が阻害されることにより発生するものであるから、厳密に言えば運転者20の頭部位置、視線方向により遮蔽スコアは変化する。従って、一回の処理ごとに、頭部位置検出部3が検出した運転者20の頭部位置から遮蔽スコアを更新するようにする。なお、それほど厳密に遮蔽スコアを評価しなくてもよい場合は、あらかじめ平均的な頭部位置、視線方向を想定しておいて遮蔽スコアを固定的に与えるというやり方でもある程度の精度は確保できる。
こうして得られる遮蔽スコア分布から障害物候補領域の運転者遮蔽度を算出する。具体的には、障害物候補領域の範囲内で遮蔽スコアを合計し、スコアの面積平均を算出することで運転者遮蔽度を算出する。そして、運転者遮蔽度の値は障害物候補領域がどれだけ遮蔽領域に入り込んでいるかを表すことになる。
障害物候補領域遮蔽度算出部5は、障害物候補領域が他の障害物候補領域によってどれだけ遮蔽されて見えにくくなっているかを評価して障害物候補領域遮蔽度を算出する。障害物候補領域遮蔽とは、運転者と障害物候補領域との間に別の障害物候補領域が存在することにより、運転者および障害物候補領域がお互いに相手を視認しにくくなっている状況のことを指す。従って、障害物候補領域遮蔽度は、運転者遮蔽度とは異なり、1つの障害物候補領域と異なる障害物候補領域との相対的位置関係により決まる遮蔽度である。
ここで、障害物候補領域遮蔽について、もう少し詳しく説明する。図10は、障害物候補領域遮蔽を説明する図である。図10のように、歩行者24に相当する障害物候補領域33、歩行者25に相当する障害物候補領域34、および、側壁26に相当する障害物候補領域35および障害物候補領域36を要素に持った障害物候補領域群を考える。それぞれの障害物候補領域は実空間上での領域中心の3次元座標と幅、高さというサイズ情報を属性として持っているため、画像平面内での位置、サイズについても即座に求められるようになっている。このとき、障害物候補領域の1つを障害物候補領域Aとし、別の障害物候補領域の1つを障害物候補領域Bとする。そして、障害物候補領域Aが障害物候補領域Bによって遮蔽されている度合いOB→Aを(5)式で算出する。
Figure 2010231400
(5)式において、u、uは候補領域A、Bの画像中での水平座標、Z、Zは実空間での二つの領域の奥行き座標であるとする。ただし、奥行き座標値は自車両から離れていくほど増加するものとする。f、fはそれぞれ水平座標の距離の絶対値、および、奥行き座標の符号付き距離を入力とする関数である。fの例としては(6)式があり、fの例としては、(7)式がある。
Figure 2010231400
Figure 2010231400
(6)式および(7)式において、k、kは遮蔽度の変化度合いを決める定数で、事前に設定しておくパラメータである。wは障害物候補領域生成部2で用いられる障害物の標準の幅を画像平面に投影したときのサイズである。Vは障害物の奥行きの標準サイズであり、事前に設定しておく。
(6)式は、Δuが0に近い、すなわち障害物候補領域Aと障害物候補領域Bとが画像中で重なっているほど1に近くなり、wを境にして0に向かって減少していく。一方、(7)式は、ΔZが負、つまり障害物候補領域Bが障害物候補領域Aよりも奥にある場合は0であり、障害物候補領域Bが障害物候補領域Aよりも手前に来るほど大きな値をとるようになっている。ただし、それも比例の関係ではなく、Vを境にして急激に増加するようになっている。そのため障害物候補領域Bが手前にある場合でもその差が小さければfの値は小さなままである。
以上のような二つの関数の積を障害物候補領域遮蔽度OB→Aとすることにより、障害物候補領域34を障害物候補領域A、障害物候補領域35を障害物候補領域Bをした場合のように、画像中での距離が近く、かつ奥行きに間隔があいている場合はその値が大きくなる。一方、障害物候補領域35を障害物候補領域A、障害物候補領域36を障害物候補領域Bとした場合は、画像中の距離は同様に近いが奥行きの差が小さいため、fの値が小さくなり、結果としてOB→Aは小さくなるという効果が得られる。一方、障害物候補領域33を障害物候補領域Aとした場合、奥行きに関係なくfの影響によりOB→Aは0に近い小さな値になる。
(6)式および(7)式は、障害物候補領域遮蔽度の算出方法の一例であり、fについては、wを境界として1から0に減少する関数であれば他の形式であっても問題ない。fについても、負の領域では0、非負の領域ではVを境界として0から1に向かって増加するような関数であれば他の関数であっても良い。
以上の計算により、障害物候補領域Aと障害物候補領域Bの組み合わせに対する遮蔽度合いOB→Aを求めることができる。最後に、障害物候補領域遮蔽度算出部5は、障害物候補領域A以外の障害物候補領域を障害物候補領域Bとした上で、それぞれの場合の遮蔽度合いOB→Aを求め、これらの遮蔽度合いOB→Aのうち、最もその値が大きい遮蔽度を、障害物候補領域遮蔽度と決定する。
危険度算出部6は、運転者遮蔽度算出部4で算出した運転者遮蔽度と、障害物候補領域遮蔽度算出部5で算出した障害物候補領域遮蔽度とから危険度を算出する。最終的に、障害物危険度算出装置の出力は、各障害物候補領域の位置・サイズとその危険度の組になる。
なお、危険度の算出方法としては、二つの遮蔽度(運転者遮蔽度および障害物候補領域遮蔽度)のうち値の大きな方の値を危険度とする方法、または、二つの遮蔽度にそれぞれ異なった係数をかけた後、それらの値を合計した値を危険度とする方法がある。いずれの方法をとるにしても、二つの遮蔽度のうちどちらかが大きければ危険度が高くなるという結果を得られる。それぞれの遮蔽度をどれだけ重視するかの要求に応じて、障害物危険度算出装置の実行前に算出方法を設定すればよい。
次に、上述したように構成されている障害物危険度算出装置による障害物危険度の算出方法について説明する。図11は、障害物危険度の算出方法のフローチャートを示す図である。
ステレオ画像処理部1は、ステレオ画像取得装置7からの画像データ(ステレオ画像対)から視差分布情報(三次元位置情報)を算出する(ステップS101)。ここでは、後段の障害物候補領域生成部2における処理のため、画像データはほぼ水平方向を向いて設置されたステレオカメラ対を用いて撮影されたものとする。周囲環境の撮影のため車両にカメラを設置する場合、上下に大きく傾ける必要はないため、これは大きな制約とはならない。
次に、障害物候補領域生成部2は、視差分布情報から道路面に立っている立体物の領域を抽出する(ステップS102)。車両周囲の環境を考えると、他の車両、歩行者、ガードレール、壁などはすべて道路面に対して垂直に立った物体であるとみなせる。したがってこの処理により、自車両にとって危険な障害物には該当しない道路面および空の領域を視差分布情報から除去することになる。
次に、障害物候補領域生成部2は、仮想障害物のサイズに基づいて画像領域内の所定の領域に障害物候補領域を設定し、抽出した立体物領域と照合し(ステップS103)、障害物候補領域が立体物領域に対応しているか否かを判定する(ステップS104)。
障害物候補領域生成部2は、障害物候補領域が立体物領域に対応していると判定した場合、すなわち、仮想障害物の位置に立体物が存在すると判定した場合(ステップS104:Yes)、当該障害物候補領域(仮想障害物の位置・サイズ情報)を障害物候補領域集合に追加(ステップS105)し、ステップS106へ進む。
障害物候補領域生成部2は、障害物候補領域が立体物領域に対応していないと判定した場合、すなわち、仮想障害物の位置に立体物が存在しないと判定した場合(ステップS104:No)、何もせずにそのままステップS106へ進む。
ステップS106で、障害物候補領域生成部2は、画像領域内全てに障害物候補領域を設定したか否かを判定する。障害物候補領域生成部2は、画像領域内全てに障害物候補領域を設定していないと判定した場合(ステップS106:No)、ステップS103へ戻り以下のステップを行う。
障害物候補領域生成部2は、画像領域内全てに障害物候補領域を設定していると判定した場合(ステップS106:Yes)、ステップS107へ進む。すなわち、ステップS103からステップS105までの処理を、仮想障害物の位置を動かしながら、事前に決めた実空間中の一定領域に対して適用する。そして、ステップS106ですべての判定を終えたかをチェックし、処理が完了したら次へ進む。
このように、ステップS103からステップS106を経ることにより、ステップS102で得られた立体物領域は、障害物検出の単位である障害物候補領域の集合に切り分けられる。
次に、運転者遮蔽度算出部4は、障害物候補領域の集合から障害物候補領域を1つ選択する(ステップS107)。この時、選択した障害物候補領域を障害物候補領域Aとする。次に、運転者遮蔽度算出部4は、障害物候補領域Aの運転者遮蔽度を算出する(ステップS108)。
次に、障害物候補領域遮蔽度算出部5は、障害物候補領域の集合から障害物候補領域A以外の障害物候補領域を1つ選択する(ステップS109)。この時、選択した障害物候補領域を障害物候補領域Bとする。
次に、障害物候補領域遮蔽度算出部5は、障害物候補領域Aを障害物、障害物候補領域Bを遮蔽物と仮定して、障害物候補領域Aと障害物候補領域Bの相対的位置関係に基づいて障害物候補領域Aの障害物候補領域遮蔽度を算出する。そして、以前に算出した障害物候補領域Aの障害物候補領域遮蔽度がある場合、これに合算する(ステップS110)。なお、以前に算出した障害物候補領域遮蔽度とは、以前に算出した障害物候補領域遮蔽度のうち、最もその値が大きい遮蔽度をいい、ここでの合算は、今回算出した障害物候補領域遮蔽度と、以前に算出した障害物候補領域遮蔽度とを比べて、その値が大きい方の遮蔽度を、障害物候補領域遮蔽度として決定することをいう。
次に、障害物候補領域遮蔽度算出部5は、障害物候補領域A以外の障害物候補領域を全て障害物候補領域Bとして選択したか否かを判定する(ステップS111)。障害物候補領域遮蔽度算出部5は、障害物候補領域A以外の障害物候補領域を全て障害物候補領域Bとして選択していないと判定した場合(ステップS111:No)、ステップS109へ戻り、別の障害物候補領域を1つ選択し障害物候補領域Bとし、以後のステップを繰り返す。障害物候補領域遮蔽度算出部5は、障害物候補領域A以外の障害物候補領域を全て選択していると判定した場合(ステップS111:Yes)、ステップS112へ進む。
ステップS112において、危険度算出部6は、ステップS108で算出した障害物候補領域Aの運転者遮蔽度と、ステップS110で算出し合算した障害物候補領域Aの障害物候補領域遮蔽度とから障害物候補領域Aの危険度を算出する。
次に、危険度算出部6は、障害物候補領域の全てを障害物候補領域Aとして選択したか否か、すなわち、障害物候補領域の全てについて危険度を計算したか否かを判定(ステップS113)。危険度算出部6は、障害物候補領域の全てを障害物候補領域Aとして選択していないと判定した場合(ステップS113:No)、ステップS107へ戻り、別の障害物候補領域の1つを障害物候補領域Aとして選択し、以後のステップを繰り返す。危険度算出部6は、障害物候補領域の全てを障害物候補領域Aとして選択していると判定した場合(ステップS113:Yes)、ステップS114へ進む。
ステップS114において、危険度算出部6は、ステップS105で切り分けられた全ての障害物候補領域の情報(仮想障害物の位置・サイズ情報)に、危険度の情報をそれぞれ付加して出力する(ステップS114)。以上のステップを経て、障害物危険度の算出が終了する。
以上のような障害物候補の危険度算出の仕組みにより、危険度の高い障害物候補領域が存在すれば警告を出す、ブレーキ、操舵装置を制御して危険を回避する、というように危険性が高い物体に応じた対策を実行できるようになる。危険物の検知については連続するフレームで継続して危険度を算出し、危険度が高い障害物が連続して現れる、もしくは自車両に近付いてくる場合に危険回避行動を実行する、といったより複雑な条件判断も可能になる。
さらに、本発明による障害物危険度算出装置の後段に、障害物候補領域に対しそれが歩行者かそうでないかを判定する歩行者識別器、車両か否かを判定する車両識別器などを追加することもできる。一般に識別は比較的計算量が大きな処理であるため、危険度算出装置で算出された危険度を用いることで、危険度の高い順に識別処理を実行し、目的の物体が発見されたら即座に警告を出すことでより早くドライバーに危険を知らせることができるようにしたり、危険度の高い順に決まった数だけ識別処理することで危険なものは優先しつつ計算時間を一定に保ったり、一定の危険度以上のものだけ識別処理したりというように、より危険の高いものだけを優先して処理するといったことにも応用することができる。
なお、本実施の形態にかかる障害物危険度算出装置は、運転者の頭部位置を検出する頭部位置検出部を備えているが、頭部位置検出部を備えずに外部に設けられた頭部位置検出装置から運転者の頭部位置情報を受け取る様に構成してもよい。
また、本実施の形態にかかる障害物危険度算出装置の各部は、例えば、コンピュータをハードウェアとして用い、コンピュータにプログラムを実行させることにより実現することが可能である。
このように、本実施の形態にかかる障害物危険度算出装置によれば、自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出し、視差分布情報から立体物領域を抽出し、立体物領域から複数の障害物候補領域を生成し、選択した1つの障害物候補領域が他の障害物候補領域にどれだけ遮蔽されているかを表す障害物候補領域遮蔽度、および、選択した1つの障害物候補領域が運転者の死角領域にどれだけ遮蔽されているかを表す運転者遮蔽度の少なくとも1つから、選択した障害物候補領域の危険度を算出することができるので、運転者から見えにくい障害物の危険度を算出することが可能となる。
また、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
1 ステレオ画像処理部
2 障害物候補領域生成部
6 危険度算出部
21 自車両
33、34、35、36 障害物候補領域

Claims (7)

  1. 自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出するステレオ画像処理部と、
    前記視差分布情報から複数の障害物候補領域を生成する障害物候補領域生成部と、
    複数の前記障害物候補領域の1つである第1の障害物候補領域が前記画像データから認識した危険物にどれだけ遮蔽されているかを表す第1の遮蔽度、および、前記第1の障害物候補領域が予め設定した危険物にどれだけ遮蔽されているかを表す第2の遮蔽度の少なくとも1つから前記第1の障害物候補領域の危険度を算出する危険度算出部と、を備えたこと、
    を特徴とする障害物危険度算出装置。
  2. 前記画像データから認識した前記危険物は、複数の前記障害物候補領域のうち前記第1の障害物候補領域とは異なる第2の障害物候補領域として設定され、
    前記第1の障害物候補領域と前記第2の障害物候補領域の位置関係を用いて第1の遮蔽度を算出する第1の遮蔽度算出部をさらに備えたこと、
    を特徴とする請求項1に記載の障害物危険度算出装置。
  3. 予め設定した前記危険物は、運転者の死角領域範囲として設定され、
    前記第1の障害物候補領域と前記死角領域の位置関係を用いて第2の遮蔽度を算出する第2の遮蔽度算出部をさらに備えたこと、
    を特徴とする請求項1または2に記載の障害物危険度算出装置。
  4. 前記危険度算出部は、前記第1の遮蔽度と前記第2の遮蔽度のうち、値の大きな方を前記危険度とすること、を特徴とする請求項1から3のいずれか一項に記載の障害物危険度算出装置。
  5. 前記危険度算出部は、前記第1の遮蔽度と前記第2の遮蔽度とに、それぞれ異なった係数をかけた後の値を合計した値を前記危険度とすること、を特徴とする請求項1から3のいずれか一項に記載の障害物危険度算出装置。
  6. 障害物危険度算出方法であって、
    ステレオ画像処理部が、自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出するステレオ画像処理ステップと、
    障害物候補領域生成部が、前記視差分布情報から複数の障害物候補領域を生成する障害物候補領域生成ステップと、
    危険度算出部が、複数の前記障害物候補領域の1つである第1の障害物候補領域が前記画像データから認識した危険物にどれだけ遮蔽されているかを表す第1の遮蔽度、および、前記第1の障害物候補領域が予め設定した危険物にどれだけ遮蔽されているかを表す第2の遮蔽度の少なくとも1つから前記第1の障害物候補領域の危険度を算出する危険度算出ステップと、を含むこと、
    を特徴とする障害物危険度算出方法。
  7. コンピュータに、
    ステレオ画像処理部が、自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出するステレオ画像処理ステップと、
    障害物候補領域生成部が、前記視差分布情報から複数の障害物候補領域を生成する障害物候補領域生成ステップと、
    危険度算出部が、複数の前記障害物候補領域の1つである第1の障害物候補領域が前記画像データから認識した危険物にどれだけ遮蔽されているかを表す第1の遮蔽度、および、前記第1の障害物候補領域が予め設定した危険物にどれだけ遮蔽されているかを表す第2の遮蔽度の少なくとも1つから前記第1の障害物候補領域の危険度を算出する危険度算出ステップと、
    を実行させるための障害物危険度算出プログラム。
JP2009076941A 2009-03-26 2009-03-26 障害物危険度算出装置、方法及びプログラム Active JP5248388B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009076941A JP5248388B2 (ja) 2009-03-26 2009-03-26 障害物危険度算出装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009076941A JP5248388B2 (ja) 2009-03-26 2009-03-26 障害物危険度算出装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2010231400A true JP2010231400A (ja) 2010-10-14
JP5248388B2 JP5248388B2 (ja) 2013-07-31

Family

ID=43047163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009076941A Active JP5248388B2 (ja) 2009-03-26 2009-03-26 障害物危険度算出装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5248388B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452628B1 (ko) 2013-04-16 2014-10-23 한양대학교 산학협력단 스테레오 비전 기반 보행자 보호 시스템을 위한 위험지역 검출 방법 및 장치
JP2018173862A (ja) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム
CN109425861A (zh) * 2017-08-25 2019-03-05 丰田自动车株式会社 本车位置可信度运算装置
JP2020525945A (ja) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. 自動車両および自動車両の環境領域の少なくとも1つの合成俯瞰表示画像を生成する方法、カメラシステムおよび自動車両
CN115993830A (zh) * 2023-03-21 2023-04-21 佛山隆深机器人有限公司 一种基于障碍物躲避的路径规划方法、装置以及机器人

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003081039A (ja) * 2001-09-12 2003-03-19 Toyota Central Res & Dev Lab Inc 環境危険度演算装置
JP2004046426A (ja) * 2002-07-10 2004-02-12 Honda Motor Co Ltd 車両用警告システム
JP2006042147A (ja) * 2004-07-29 2006-02-09 Honda Motor Co Ltd 車両の認知支援装置
JP2007049219A (ja) * 2005-08-05 2007-02-22 Denso Corp 車両用周囲監視装置
JP2007527343A (ja) * 2004-03-01 2007-09-27 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト 車両における安全手段を制御するための方法と構成
JP2007257338A (ja) * 2006-03-23 2007-10-04 Toyota Central Res & Dev Lab Inc 潜在危険度推定装置
JP2008059178A (ja) * 2006-08-30 2008-03-13 Nippon Soken Inc 運転支援装置およびプログラム
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2009070243A (ja) * 2007-09-14 2009-04-02 Denso Corp 車両用視界支援システム、及び、情報配信装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003081039A (ja) * 2001-09-12 2003-03-19 Toyota Central Res & Dev Lab Inc 環境危険度演算装置
JP2004046426A (ja) * 2002-07-10 2004-02-12 Honda Motor Co Ltd 車両用警告システム
JP2007527343A (ja) * 2004-03-01 2007-09-27 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト 車両における安全手段を制御するための方法と構成
JP2006042147A (ja) * 2004-07-29 2006-02-09 Honda Motor Co Ltd 車両の認知支援装置
JP2007049219A (ja) * 2005-08-05 2007-02-22 Denso Corp 車両用周囲監視装置
JP2007257338A (ja) * 2006-03-23 2007-10-04 Toyota Central Res & Dev Lab Inc 潜在危険度推定装置
JP2008059178A (ja) * 2006-08-30 2008-03-13 Nippon Soken Inc 運転支援装置およびプログラム
JP2008219063A (ja) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2009070243A (ja) * 2007-09-14 2009-04-02 Denso Corp 車両用視界支援システム、及び、情報配信装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452628B1 (ko) 2013-04-16 2014-10-23 한양대학교 산학협력단 스테레오 비전 기반 보행자 보호 시스템을 위한 위험지역 검출 방법 및 장치
JP2018173862A (ja) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム
JP2020525945A (ja) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. 自動車両および自動車両の環境領域の少なくとも1つの合成俯瞰表示画像を生成する方法、カメラシステムおよび自動車両
CN109425861A (zh) * 2017-08-25 2019-03-05 丰田自动车株式会社 本车位置可信度运算装置
CN109425861B (zh) * 2017-08-25 2023-04-18 丰田自动车株式会社 本车位置可信度运算装置
CN115993830A (zh) * 2023-03-21 2023-04-21 佛山隆深机器人有限公司 一种基于障碍物躲避的路径规划方法、装置以及机器人

Also Published As

Publication number Publication date
JP5248388B2 (ja) 2013-07-31

Similar Documents

Publication Publication Date Title
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
JP6013884B2 (ja) 物体検出装置及び物体検出方法
JP6254083B2 (ja) 車載用周囲環境認識装置
JP5689907B2 (ja) 車両において通行物***置検出を向上する方法
JP6151150B2 (ja) 物体検出装置及びそれを用いた車両
WO2016129403A1 (ja) 物体検知装置
JP5145585B2 (ja) 物標検出装置
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
KR101714783B1 (ko) Gpu를 이용한 온라인 전기 자동차용 전방 장애물 검출 장치 및 방법
WO2017138245A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JPH10283461A (ja) 車外監視装置
JP6340850B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP2002352225A (ja) 障害物検出装置及びその方法
JP6597792B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
EP2293588A1 (en) Method for using a stereovision camera arrangement
CN107491065B (zh) 利用障碍物的地面边界信息检测物体的侧面的方法和装置
KR20210090384A (ko) 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치
JP5248388B2 (ja) 障害物危険度算出装置、方法及びプログラム
Romdhane et al. A generic obstacle detection method for collision avoidance
JP2015179301A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム
JP2005156199A (ja) 車両検知方法及び車両検知装置
JP6631691B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム
US11861914B2 (en) Object recognition method and object recognition device
US11884303B2 (en) Apparatus and method for determining lane change of surrounding objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130410

R151 Written notification of patent or utility model registration

Ref document number: 5248388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3