JP3022330B2 - 動画像認識装置および動画像認識方法 - Google Patents

動画像認識装置および動画像認識方法

Info

Publication number
JP3022330B2
JP3022330B2 JP8179006A JP17900696A JP3022330B2 JP 3022330 B2 JP3022330 B2 JP 3022330B2 JP 8179006 A JP8179006 A JP 8179006A JP 17900696 A JP17900696 A JP 17900696A JP 3022330 B2 JP3022330 B2 JP 3022330B2
Authority
JP
Japan
Prior art keywords
model
white line
spatio
temporal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP8179006A
Other languages
English (en)
Other versions
JPH1027252A (ja
Inventor
和之 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP8179006A priority Critical patent/JP3022330B2/ja
Publication of JPH1027252A publication Critical patent/JPH1027252A/ja
Application granted granted Critical
Publication of JP3022330B2 publication Critical patent/JP3022330B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は動画像認識装置に関
し、特に画像中のノイズに対してロバストな動画像認識
装置に関する。
【0002】
【従来の技術】従来、この種の動画像認識装置は画像中
に含まれる雑音に対してロバストな認識を実現するため
に、たとえば特開平03−292574号公報に記載さ
れているように、時系列として撮影された画像を画素対
応で加算することによって画像データ中の雑音の影響を
抑えていた。また、同じく画像の時系列を利用する方法
として、たとえば、電子情報通信学会論文誌、1994
年、Vol.J77−D−II、No.10、pp.2
019−2026に示されているような、DDT法と呼
ばれる手法が用いられている。
【0003】図19、図20、図21および図22を参
照して、DTT法の動作について説明する。
【0004】図19を参照すると、この文献に記載の動
画像認識装置は、CCDカメラ等の画像入力装置191
と、画像内の処理領域を設定する処理領域設定手段19
2と、画像内の処理領域から物体の特徴データを抽出す
る特徴データ抽出手段193と、特徴データを物体の方
向軸に投影し一次元データを得る特徴データ投影手段1
94と、一次元データを時系列方向に並べてDTT画像
を生成するDTT画像生成手段195と、DTT画像を
2値化するDTT画像の2値化手段196と、2値化さ
れたDTT画像から物体像を検出するDTT画像からの
物体検出手段197とを含む。
【0005】画像入力装置191から与えられた単フレ
ーム画像は処理領域設定手段192に供給される。処理
領域設定手段192は、図20に示すように物体の移動
範囲をカバーするような処理領域201を画像中に設定
する。処理領域201が設定された画像は特徴データ抽
出手段193に供給され、特徴データ抽出手段193は
設定された処理領域201から、検出すべき物体203
に関する特徴データを抽出する。特徴データは特徴デー
タ投影手段194に供給され、特徴データ投影手段19
4は図20に示すように特徴データを物体の移動方向2
02にほぼ平行な方向軸204に投影し、1次元データ
を生成する。各時刻における上記1次元データはDTT
画像生成手段195に供給され、DTT画像生成手段1
95は上記1次元データを時系列に並べることにより、
図21に示されるような方向軸−時間軸からなる2次元
画像(DTT画像)を生成する。DTT画像はDTT画
像の2値化手段196に供給され、DTT画像の2値化
手段196は供給されたDTT画像を2値化する。2値
化されたDTT画像はDTT画像からの物体検出手段1
97に供給され、DTT画像からの物体検出手段197
は供給された2値化DTT画像から一様な領域を検出
し、1つの物体を表す像として出力する。
【0006】DTT法は図22のように、過去から現在
の各フレーム32、33を時系列方向に並べた時空間画
像において、ある切断平面211を考え、その断面を解
析することによって、物体203の移動の様子を認識し
ている。
【0007】
【発明が解決しようとする課題】従来の、画像を画像対
応で加算する動画像処理装置においては、フレーム間で
の微小な動きのために、認識対象物の同一特徴を表す特
徴点がフレーム間で異なる位置にずれてしまうために特
徴点がうまく重ね合わなくなってしまい、このままでは
画像中に含まれる雑音と特徴点との区別がつきづらくな
ってしまう。従ってこの場合、同一特徴を表す特徴点を
フレーム間で対応づける必要があるが、フレーム間の対
応づけ問題は本質的に困難な問題であり、認識装置の精
度、信頼性の悪化、認識速度の低下を招く、という問題
点があった。
【0008】一方、前記DDT法のような時空間画像を
用いた動画像認識装置は、上記のフレーム間の対応づけ
を行わずに動画像中の認識対象を認識するものである
が、この動画像認識装置は元々が物体の大局的な移動の
情報を得るためのものであり、認識対象の形状を認識す
ることは出来ない。
【0009】本発明の目的は、上記課題を解決し、時空
間画像を用いてフレーム間の対応づけをすること無しに
時系列情報を利用することにより、画像中のノイズに対
してロバストであり、また認識対象の形状をも認識し得
る動画像認識装置を提供することにある。
【0010】
【課題を解決するための手段】空間画像を入力してそれ
らを時間軸方向に並べることによって時空間画像を生成
し出力する時空間画像生成手段と、前記時空間画像を入
力し時空間画像から特徴点を抽出し出力する特徴点抽出
手段と、前記特徴点を入力し現フレームまでの認識対象
物の位置、形状及び各フレーム間での認識対象物の微小
な動きをモデル化した対象物の時空間モデルとをマッチ
ングし、前記特徴点と前記時空間モデルとの距離が最小
となるように時空間モデルパラメータ値を修正出力する
時空間モデルマッチング手段と、前記修正された時空間
モデルパラメータ値により定められる時空間モデルと現
フレームとの交差領域として対象物の現フレームでの位
置及び形状を認識する対象物推定手段とを有することを
特徴とする。
【0011】本発明の前記手段によれば、時空間モデル
マッチング手段において認識対象物の時空間モデルはフ
レーム間での認識対象物の微小な動きをモデル化したも
のであるので、この時空間対象モデルを直接認識対象物
の特徴点にマッチングさせてフレーム間での認識対象物
の微小な動きをモデルに吸収させることにより、フレー
ム間での特徴点の対応づけをすることなしに時系列情報
を使った動画像認識を実現することが出来る。
【0012】また本発明の前記手段によれば、認識対象
物の上記時空間モデルに各フレームにおける認識対象物
の形状を組み込むことによって、認識対象物の形状を認
識することが出来る。
【0013】
【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。
【0014】図1は本発明の第1の実施の形態の構成を
示すブロック図である。この第1の実施の形態は自動車
に取り付けたカメラから道路画像を取り込み、その画像
から走行レーンを表す白線の画像中での位置および形状
を推定するものである。ここでは、白線が直線をなす場
合を考えている。
【0015】図1を参照すると、本発明の第1の実施の
形態は、CCDカメラ等の道路画像入力装置11と、一
定期間内に入力された道路画像データを1フレーム単位
で蓄積する道路画像蓄積装置12と、一定期間内に入力
された道路画像を時系列に沿って並べて時空間道路画像
を生成する時空間道路画像生成手段13と、時空間道路
画像において前時刻での白線位置推定結果を基に白線の
候補点を抽出する領域を設定する白線候補点抽出領域設
定手段14と、時空間道路画像から白線の候補点を抽出
する白線候補点抽出手段15と、白線候補点と白線の時
空間モデルとをマッチングする時空間モデルマッチング
手段16と、現フレーム内での白線の位置および形状を
白線の時空間モデルと現フレームとの交線として推定す
る白線推定手段17とを含む。
【0016】時空間モデルマッチング手段16は図2を
参照すると、各白線候補点と時空間モデルとの距離の総
和を計算する白線候補点モデル間距離計算手段21と、
白線候補点モデル間距離を基にモデルパラメータ更新を
終了するか否かを判定するパラメータ更新終了判定手段
22と、白線候補点モデル間距離のモデルパラメータに
ついての1次微分、2次微分値を計算する距離微分値計
算手段23と、距離の微分値を基にNewton法等の
反復法によってモデルパラメータを更新するモデルパラ
メータ更新手段24とを含む。
【0017】次に、図4を参照して第1の実施の形態の
動作について詳細に説明する。
【0018】まず、ここでの世界座標およびカメラ座標
を図5のように定める。
【0019】道路画像入力装置11から与えられた道路
画像データは、道路画像蓄積装置12に供給される。道
路画像蓄積装置12は、この道路画像データを時刻情報
と共に一定期間蓄積する(ステップ401および40
2)。道路画像蓄積装置12は現フレームを含む、一定
期間の道路画像Nフレーム(Nは予め定めた数)を時空
間道路画像生成手段13に供給する。時空間道路画像生
成手段13はこの道路画像Nフレームを時系列に並べ
て、図3にあるような3次元的な時空間道路画像を生成
する(ステップ403)。時空間道路画像生成手段13
はこの時空間道路画像を白線候補点抽出領域設定手段1
4に供給する。白線候補点抽出領域設定手段14はこの
時空間道路画像内に、前時刻に推定された白線位置を中
心とした処理領域を設定する(ステップ404)。
【0020】ただし、道路画像内では、画像上部、すな
わち図6でいうならば−z方向にいくほど、対応する3
次元実空間領域は狭くなるので、処理領域も画像上部に
いくにつれて狭くしていくのが自然である。つまり、各
フレームのサイズをM×N、時空間白線モデルをz=f
(x,t)、画像最下部での処理領域幅をWproc low
白線の各時刻tでの消失点のz座標をZvan (t)とす
ると、各z座標での処理領域幅Wproc(z,t)を、図
6に見られるように、
【0021】
【数1】
【0022】とする。
【0023】白線候補点抽出領域設定手段14は、処理
領域が設定された時空間道路画像を白線候補点抽出手段
15に供給する。白線候補点抽出手段15は、時空間道
路画像の処理領域から白線上の点と思われる白線候補点
を抽出する(ステップ405)。この際、白線候補点が
処理領域内に存在しなければ、白線の推定は不可能とし
て動作を終了する。白線候補点が存在すれば、その座標
値が時空間モデルマッチング手段16に供給される(ス
テップ406)。
【0024】ここで、時空間白線モデルについて説明す
る。画像上の白線は、自車両が図8のように白線に対し
て完全に平行な方向にしか走行していない場合は、各フ
レームで同一位置、同一形状をなし、従って、時空間道
路画像内では平面をなす。ところが、実際には自車両は
走行中に図9のように横ズレや走行方向の変化を起こ
し、また図10のように道路の勾配も変化する。従って
時空間道路画像内では白線は平面ではなくある曲面をな
す。そこで本実施の形態では、2次元画像上での白線の
消失点のx座標、z座標、および白線の傾きが時刻tに
対して線形に変化するとし、時空間白線モデルを、a、
b、c、d、e、fをモデルパラメータとして x−(e+ft)+(a+bt)z−(a+bt)(c+dt)=0 (2) で表される曲面として定義する。また、上記モデルが自
車両の右側にある白線の時空間モデルとすると、左側の
白線については、図7のように消失点は右側の白線と共
通であり、また傾きの時間変化も共通であるので、左側
の時空間白線モデルは、gを新たなモデルパラメータと
して x−(e+ft)+(g+bt)z−(g+bt)(c+dt)=0 (3) と定義される。よって、左右の時空間白線モデルを x−(e+ft)+(a+bt)z−(a+bt)(c+dt)=0 x−(e+ft)+(g+bt)z−(g+bt)(c+dt)=0 (4) として定義する。
【0025】時空間モデルマッチング手段16は、ま
ず、前時刻に推定されたモデルパラメータを初期パラメ
ータとして、時空間白線モデルにセットする(ステップ
407)。次にステップ408において、パラメータの
セットされた時空間白線モデル(式(4))と、各白線
候補点(xi ,zi ,ti )との距離を次式(5)とし
て計算する。
【0026】
【数2】
【0027】ステップ409において各白線候補点毎に
計算した上記距離の総和を次式(6)のように計算す
る。
【0028】
【数3】
【0029】以下、式(6)の距離総和を最小にするよ
うなモデルパラメータを計算して最適なモデルパラメー
タとし、時空間白線モデルと現フレームとの交線を計算
しその交線を現フレームでの白線として白線の位置、形
状を出力して動作を終える。具体的には、例えば以下の
ような方法をとることが出来る。
【0030】上記ステップ409において上記距離の1
次、2次微分値の重みつきの総和を次式(7)、(8)
のように計算する。
【0031】
【数4】
【0032】この重みwleft,wright は、左右各々の
白線についての総和を計算した際に、左右各々について
白線候補点の数Nleft,Nright に反比例した重みをか
けてから、左右の和をとるものである。すなわち上記重
みwleft,wright は予め定めた定数をvとして次式
(9)のように表される。
【0033】
【数5】
【0034】このような重みをつけることによって、ノ
イズによって左右の処理領域のどちらかにおいて極端に
白線候補点の数が少なくなってしまった際に、もう一方
の白線の方にモデルが引き寄せられすぎるのを防ぐこと
ができる。
【0035】距離の総和はステップ410で、予め定め
ておいた閾値と比較され、距離の総和が閾値以下だった
ら、時空間白線モデルは時空間道路画像内の白線像と充
分に近いと判断し、時空間白線モデルと現フレームとの
交線を計算し、その交線を現フレームでの白線として、
白線の位置、形状を出力して動作を終える(ステップ4
12および413)。
【0036】距離の総和が閾値より大きければステップ
411に進み、ステップ411においてステップ409
で計算した距離の1次、2次微分の総和からNewto
n法により時空間道路モデルパラメータを更新し、ステ
ップ408へと戻る。以下、距離の総和が閾値以下にな
るか、もしくはループ回数が予め定めた回数を越えるま
で、ループを繰り返す。
【0037】ループ回数が予め定めた回数を越えた場合
は、それまでの各ループにおいて、距離の総和が最小で
あるようなループにおける時空間モデルパラメータを最
適なモデルパラメータとして、時空間白線モデルと現フ
レームとの交線を計算し、その交線を現フレームでの白
線として、白線の位置、形状を出力して動作を終える。
【0038】次に、本発明の第2の実施の形態につい
て、図面を参照して詳細に説明する。本実施の形態は、
白線がカーブをなす場合を考えている。
【0039】図11を参照すると、本発明の第2の実施
の形態は、CCDカメラ等の道路画像入力装置11と、
一定期間内に入力された道路画像データを1フレーム単
位で蓄積する道路画像蓄積装置12と、一定期間内に入
力された道路画像を時系列に沿って並べて時空間道路画
像を生成する時空間道路画像生成手段13と、時空間道
路画像において前時刻での白線位置推定結果を基に白線
の候補点を抽出する領域を設定する白線候補点抽出領域
設定手段14と、時空間道路画像から白線の候補点を抽
出する白線候補点抽出手段15と、白線候補点と白線カ
ーブの画像下部での接線の時空間モデルとをマッチング
する時空間接線モデルマッチング手段111と、白線候
補点と時空間カーブモデルとをマッチングする時空間カ
ーブモデルマッチング手段112と、白線の現フレーム
内での白線の位置および形状を推定する白線推定手段1
7とを含む。
【0040】時空間カーブモデルマッチング手段112
は図12を参照すると、各白線候補点と時空間カーブモ
デルとの距離の総和を計算する白線候補点モデル間距離
計算手段21と、白線候補点モデル間距離を基にカーブ
モデルパラメータ更新を終了するか否かを判定するパラ
メータ更新終了判定手段22と、白線候補点モデル間距
離のカーブモデルパラメータについての1次微分、2次
微分値を計算する距離微分値計算手段23と、上記距離
の微分値を基にNewton法等の反復法によってカー
ブモデルパラメータを更新するカーブモデルパラメータ
更新手段121とを含む。
【0041】次に、図14を参照して第2の実施の形態
の動作について詳細に説明する。
【0042】白線がカーブをなす場合、時空間白線モデ
ルのパラメータ数が多くなるので、まず、画像最下部、
すなわち自車両付近における白線カーブの接線133に
ついての時空間接線モデルを用いて白線の位置を求め、
次に時空間カーブモデルを使いカーブの曲率半径132
を求める(図13)。ここで時空間接線モデルは白線の
直線部の時空間モデルだから、第1の実施の形態と同様
に x=(e+ft)+(a+bt)z−(a+bt)(c+dt)≡fr (z, t) x=(e+ft)+(g+bt)z−(g+bt)(c+dt)≡fl (z, t) (10) と定義される。このとき、白線カーブの時空間モデル
を、曲率半径に関連した新たなパラメータをmとして、
【0043】
【数6】
【0044】と定義する。このように、時空間白線モデ
ルのマッチングを2段階に分けることによって、各マッ
チング段階でのパラメータ空間の次元を小さくし、マッ
チングの簡単化、安定化、高速化を計ることが出来る。
【0045】第2の実施の形態では、第1の実施の形態
と同様に白線候補点を抽出し、白線候補点が存在すれ
ば、前時刻に推定された時空間白線モデルパラメータを
初期値として時空間白線モデルにセットし(ステップ4
07)、白線候補点の座標が時空間接線モデルマッチン
グ手段111に供給される。時空間接線モデルマッチン
グ手段111は、時空間接線モデルと画像下部の白線候
補点をマッチングすることにより、前記m以外のモデル
パラメータを推定し、時空間カーブモデルマッチング手
段112に供給する。
【0046】時空間カーブモデルマッチング手段112
はステップ142において、ステップ141において推
定されたm以外のパラメータ、およびmの初期値がセッ
トされた時空間カーブモデル(式(11))と、各白線
候補点(xi ,zi ,ti )との距離を式(12)とし
て計算する。
【0047】
【数7】
【0048】ステップ409において各白線候補点毎に
計算した上記距離の総和を次式(13)のように計算す
る。
【0049】
【数8】
【0050】以下、式(13)の距離総和を最小にする
ようなモデルパラメータを計算して最適なモデルパラメ
ータとし、時空間白線モデルと現フレームとの交線を計
算しその交線を現フレームでの白線として白線の位置、
形状を出力して動作を終える。具体的には、例えば以下
のような方法をとることが出来る。
【0051】上記ステップ409において上記距離の1
次、2次微分値の重みつきの総和を次式(14)、(1
5)のように計算する。
【0052】
【数9】
【0053】式(14)、(15)で総和をとる際の重
みwleft,wright は第1の実施の形態と同一のもので
ある。距離の総和はステップ410で予め定めておいた
閾値と比較され、距離の総和が閾値以下だったら、時空
間カーブモデルは時空間道路画像内の白線像と充分に近
いと判断し、時空間カーブモデルマッチング手段112
はカーブモデルパラメータを白線推定手段17に供給す
る。白線推定手段17は時空間カーブモデルと現フレー
ムとの交線を計算し、その交線を現フレームでの白線と
して、白線の位置、形状を出力して(ステップ413)
動作を終える。
【0054】距離の総和が閾値より大きければステップ
143に進み、ステップ143においてステップ409
で計算した距離の1次、2次微分の総和からNewto
n法によりmを更新し、ステップ142へと戻る。以
下、距離の総和が閾値以下になるか、もしくはループ回
数が予め定めた回数を越えるまで、ループを繰り返す。
【0055】ループ回数が予め定めた回数を越えた場合
は、それまでの各ループにおいて、距離の総和が最小で
あるようなループにおけるmを最適なパラメータとし
て、時空間カーブモデルマッチング手段112が白線推
定手段17に供給する。白線推定手段17は時空間白線
モデルと現フレームとの交線を計算し、その交線を現フ
レームでの白線として白線の位置、形状を出力して(ス
テップ413)動作を終える。
【0056】次に、本発明の第3の実施の形態につい
て、図面を参照して詳細に説明する。本実施の形態は、
白線がカーブをなすか、直線をなすか分からない場合を
考えている。
【0057】図15を参照すると、本発明の第3の実施
の形態は、CCDカメラ等の道路画像入力装置11と、
一定期間内に入力された道路画像データを1フレーム単
位で蓄積する道路画像蓄積装置12と、一定期間内に入
力された道路画像から時空間道路画像を生成する時空間
道路画像生成手段13と、時空間道路画像において白線
の候補点を抽出する領域を設定する白線候補点抽出領域
設定手段14と、時空間道路画像から白線の候補点を抽
出する白線候補点抽出手段15と、白線候補点と時空間
直線モデルとをマッチングする時空間直線モデルマッチ
ング手段16と、白線候補点とカーブの時空間接線モデ
ルとをマッチングする時空間接線モデルマッチング手段
111と、白線候補点と時空間カーブモデルとをマッチ
ングする時空間カーブモデルマッチング手段112と、
上記2つの時空間モデルマッチング手段におけるマッチ
ングの度合を比較して道路の形状を決定するマッチング
度合比較手段151と、白線の2次元画像内での白線の
位置および形状を推定する白線推定手段17とを含む。
【0058】次に、図16を参照して第3の実施の形態
の動作について詳細に説明する。
【0059】白線候補点を抽出するステップ405まで
は、第1、第2の実施の形態と同じである。ステップ4
07において、時空間直線モデル、時空間カーブモデル
に前時刻推定されたモデルパラメータを初期値としてセ
ットする。次に、時空間直線モデルマッチング手段16
において、白線候補点と時空間直線モデルとをマッチン
グし(ステップ161)、直線モデルパラメータおよび
時空間直線モデルと白線候補点との距離の総和をマッチ
ング度合比較手段151に供給する。次に、時空間接線
モデルマッチング手段111において画像下部の白線候
補点とカーブの時空間接線モデルとをマッチングし(ス
テップ141)、接線モデルパラメータを時空間カーブ
モデルマッチング手段112に供給する。時空間カーブ
モデルマッチング手段112は白線候補点と時空間カー
ブモデルとをマッチングし(ステップ162)、カーブ
モデルパラメータおよび時空間カーブモデルと白線候補
点との距離の総和をマッチング度合比較手段151に供
給する。マッチング度合比較手段151において、時空
間直線モデルマッチング手段16、時空間カーブモデル
マッチング手段112双方から供給された時空間モデル
と白線候補点との距離の総和をマッチングの度合を表す
データとして比較する(ステップ163)。ここで、直
線モデルについての距離の総和がカーブモデルの距離の
総和以下であれば、マッチング度合比較手段151は直
線モデルパラメータを白線推定手段17に供給する。白
線推定手段17はステップ412において時空間直線モ
デルと現フレームとの交線を計算し、この交線を現フレ
ームでの白線として、ステップ413において白線の位
置、形状を出力して動作を終了する。
【0060】また、ステップ163において、カーブモ
デルについての距離の総和の方が小さければ、マッチン
グ度合比較手段151はカーブモデルパラメータを白線
推定手段17に供給する。白線推定手段17はステップ
144において時空間カーブモデルと現フレームとの交
線を計算し、この交線を現フレームでの白線として、ス
テップ413において白線の位置、形状を出力して動作
を終了する。
【0061】次に本発明の第4の実施の形態について、
図面を参照して詳細に説明する。本実施の形態は、モデ
ルパラメータの初期値が与えられていない場合を考えて
いる。
【0062】図17を参照すると、本発明の第4の実施
の形態は、CCDカメラ等の道路画像入力装置11と、
一定期間内に入力された道路画像データを1フレーム単
位で蓄積する道路画像蓄積装置12と、一定期間内に入
力された道路画像から時空間道路画像を生成する時空間
道路画像生成手段13と、時空間道路画像の下部におい
て処理領域を規定せずに白線の候補点を抽出する第1の
白線候補点抽出手段171と、時空間道路画像下部にお
いて白線候補点と時空間直線モデルとを予め定められた
初期モデルパラメータを基にマッチングする第1の時空
間直線モデルマッチング手段172と、時空間道路画像
において白線の候補点を抽出する領域を設定する白線候
補点抽出領域設定手段14と、時空間道路画像の白線候
補点抽出領域から白線の候補点を抽出する白線候補点抽
出手段15と、白線候補点と時空間直線モデルとを第1
の時空間直線モデルマッチング手段172において計算
されたモデルパラメータを初期モデルパラメータとして
マッチングする第2の時空間直線モデルマッチング手段
16と、白線候補点とカーブの時空間接線モデルとをマ
ッチングする時空間接線モデルマッチング手段111
と、予め適当に決められた複数の曲率半径を初期曲率半
径として出力する初期曲率半径設定手段173と、白線
候補点と時空間カーブモデルとを時空間接続モデルマッ
チング手段111で計算されたモデルパラメータおよび
初期曲率半径設定手段173により供給される初期曲率
半径を初期モデルパラメータとしてマッチングする時空
間カーブモデルマッチング手段112と、上記2つの時
空間モデルマッチング手段におけるマッチングの度合を
比較して道路の形状を決定するマッチング度合比較手段
151と、白線の2次元画像内での白線の位置および形
状を推定する白線推定手段17とを含む。
【0063】以下、本発明の第3の実施の形態と同じ構
成である。
【0064】次に、図18を参照して第4の実施の形態
の動作について詳細に説明する。第1、第2、第3の実
施の形態と同様にステップ403までで、時空間道路画
像を生成する。次に、適当に予め定めた時空間画像の下
部領域全域から、白線候補点を抽出し(ステップ18
1)、ステップ182において、この白線候補点と時空
間直線モデルとをマッチングする。ただし、このマッチ
ングにおける初期パラメータは第1、第2、第3の実施
例と違い、予め定めた値を用いる。このステップで計算
した時空間モデルパラメータを、以下のステップにおい
て初期モデルパラメータとして用いる。
【0065】時空間直線モデルについては、上記のよう
に初期モデルパラメータが得られたので、以下、第3の
実施の形態と同様に白線候補点とのマッチングを行い、
計算された直線モデルパラメータおよび時空間直線モデ
ルと白線候補点との距離の総和をマッチング度合比較手
段151に供給する。
【0066】時空間カーブモデルについては、初期曲率
半径設定手段173において予め複数の初期曲率半径を
用意しておき、上記初期モデルパラメータを基に、各初
期曲率半径についてそれぞれ処理領域の設定、白線候補
点の抽出および白線候補点と時空間カーブモデルとのマ
ッチングを行い、各初期曲率半径に対するカーブモデル
パラメータおよび時空間カーブモデルと白線候補点との
距離の総和をマッチング度合比較手段151に供給する
(ステップ184および185、162)。
【0067】マッチング度合比較手段151において、
時空間直線モデルマッチング手段16、時空間カーブモ
デルマッチング手段112双方から供給された時空間モ
デルと白線候補点との距離の総和をマッチングの度合を
表すデータとして比較する(ステップ163)。ここ
で、直線モデルについての距離の総和が各初期曲率半径
に対するカーブモデルについての距離の総和のすべて以
下であれば、マッチング度合比較手段151は直線モデ
ルパラメータを白線推定手段17に供給する。白線推定
手段17はステップ412において時空間直線モデルと
現フレームとの交線を計算し、この交線を現フレームで
の白線として、ステップ413において白線の位置、形
状を出力して動作を終了する。
【0068】またステップ163において、ある初期曲
率半径に対するカーブモデルが最小の距離の総和を与え
るのであれば、マッチング度合比較手段151はその初
期曲率半径に対するカーブモデルパラメータを白線推定
手段17に供給する。白線推定手段17はステップ14
4において時空間カーブモデルと現フレームとの交線を
計算し、この交線を現フレームでの白線として、ステッ
プ413において白線の位置、形状を出力して動作を終
了する。
【0069】
【発明の効果】第1の効果は、時系列情報を使った画像
内のノイズに対してロバストな動画像認識を、フレーム
間の対応づけをしないで実現したことにある。
【0070】その理由は、時空間画像内で認識対象物の
特徴点と時空間対象モデルとをマッチングすることによ
って時系列情報を使った認識対象物の認識を実現し、ま
たその際の時空間対象モデルにフレーム間での認識対象
物の微小な動きを組み込むことにより、フレーム間での
特徴点のずれを時空間対象モデルに吸収させつつ特徴点
と時空間対象モデルとのマッチングをすることが出来る
ことにある。
【0071】第2の効果は、対象の形状をも認識し得る
動画像認識装置を提供することにある。
【0072】その理由は、時空間対象モデルが、対象の
各フレームでの形状を組み込むことが出来ることにあ
る。
【図面の簡単な説明】
【図1】本発明に係わる第1の実施の形態を示す構成図
である。
【図2】時空間モデルマッチング手段を示す構成図であ
る。
【図3】時空間画像および時空間モデルを説明する図で
ある。
【図4】本発明に係わる第1の実施の形態の動作を示す
フローチャートである。
【図5】世界座標およびカメラ座標を示す図である。
【図6】白線候補点抽出領域設定手段を示す図である。
【図7】左右白線と消失点の関係を示す図である。
【図8】白線と自車両との位置関係を示す図である。
【図9】白線と自車両との位置関係を示す図である。
【図10】地面の勾配を示す図である。
【図11】本発明に係わる第2の実施の形態を示す構成
図である。
【図12】時空間カーブモデルマッチング手段を示す構
成図である。
【図13】カーブをなす白線と自車両との位置関係を示
す図である。
【図14】本発明に係わる第2の実施の形態の動作を示
すフローチャートである。
【図15】本発明に係わる第3の実施の形態を示す構成
図である。
【図16】本発明に係わる第3の実施の形態の動作を示
すフローチャートである。
【図17】本発明に係わる第4の実施の形態を示す構成
図である。
【図18】本発明に係わる第4の実施の形態の動作を示
すフローチャートである。
【図19】従来の発明の構成を示す構成図である。
【図20】従来の発明の処理を説明する図である。
【図21】従来の発明の物体認識法を示す図である。
【図22】従来の発明の特徴を示す図である。
【符号の説明】 11 道路画像入力装置 12 道路画像蓄積装置 13 時空間道路画像生成手段 14 白線候補点抽出領域設定手段 15 白線候補点抽出手段 16 時空間モデルマッチング手段 17 白線推定手段 21 白線候補点モデル間距離計算手段 22 パラメータ更新終了判定手段 23 距離微分値計算手段 24 モデルパラメータ更新手段 31 白線の時空間モデル 32 現フレーム 33 過去のフレーム 51 カメラ焦点 52 地面 53 カメラ焦点距離 71 消失点 72 地平線 73 白線 81 自車両 101 水平線 111 時空間接線モデルマッチング手段 112 時空間カーブモデルマッチング手段 121 カーブモデルパラメータ更新手段 131 走行方向 132 曲率半径 133 白線の接線 151 マッチング度合比較手段 171 第1の白線候補点抽出手段 172 第1の時空間直線モデルマッチング手段 173 初期曲率半径設定手段 191 画像入力手段 192 処理領域設定手段 193 特徴データ抽出手段 194 特徴データ投影手段 195 DTT画像生成手段 196 DTT画像の二値化手段 197 DTT画像からの物体検出手段 201 処理領域 202 物体の移動方向 203 物体 204 方向軸 211 切断平面 212 物体像
フロントページの続き (51)Int.Cl.7 識別記号 FI H04N 7/18 H04N 7/18 G (58)調査した分野(Int.Cl.7,DB名) G06T 7/20 H04N 7/18 B60R 21/00 JICSTファイル(JOIS)

Claims (10)

    (57)【特許請求の範囲】
  1. 【請求項1】空間画像を時間軸方向に並べることによっ
    て時空間画像を生成し、現時点までの時空間画像から抽
    出した特徴点と、現フレームまでの認識対象物の位置、
    形状及び各フレーム間での認識対象物の微少な動きをモ
    デル化した対象物の時空間モデルとをマッチングし、
    記特徴点と前記時空間モデルとの距離が最小となるよう
    な時空間モデルパラメータ値を修正出力し、前記修正さ
    れた時空間モデルパラメータ値により定められる時空間
    モデルと現フレームとの交差領域を求めることにより、
    対象物の現フレームでの位置及び形状を認識することを
    特徴とする動画像認識方法
  2. 【請求項2】空間画像を入力しそれらを時間軸方向に並
    べることによって時空間画像を生成し出力する時空間画
    像生成手段と、前記時空間画像を入力し時空間画像から
    特徴点を抽出し出力する特徴点抽出手段と、前記特徴点
    を入力し現フレームまでの認識対象物の位置、形状及び
    フレーム間での認識対象物の微少な動きをモデル化し
    た対象物の時空間モデルとをマッチングし前記特徴点と
    前記時空間モデルとの距離が最小となるような時空間モ
    デルパラメータ値を修正出力する時空間モデルマッチン
    グ手段と、前記修正された時空間モデルパラメータ値に
    より定められる時空間モデルと現フレームとの交差領域
    として対象物の現フレームでの位置及び形状を認識する
    対象物推定手段とを有することを特徴とする動画像認識
    装置。
  3. 【請求項3】前記空間画像が車両内から撮影された道路
    の空間画像であり、前記認識対象物が道路内の走行レー
    ンをあらわす白線であり、前記時空間モデルが現フレー
    ムでの白線の位置、形状及び各フレーム間での白線の微
    少な動きをモデル化した時空間画像内での時空間白線モ
    デルである請求項1に記載の動画像認識方法
  4. 【請求項4】前記空間画像が車両内から撮影された道路
    の空間画像であり、前記認識対象物が道路内の走行レー
    ンをあらわす白線であり、前記時空間モデルが現フレー
    ムでの白線の位置、形状及び各フレーム間での白線の微
    少な動きをモデル化した時空 間画像内での時空間白線モ
    デルであり、前記特徴点抽出手段が時空間道路画像を入
    力し白線上の点と思われる白線候補点を抽出して出力
    し、前記時空間モデルマッチング手段が白線候補点を入
    力し前記時空間白線モデルとマッチングし時空間白線モ
    デルパラメータを出力する請求項2に記載の動画像認識
    装置。
  5. 【請求項5】前記時空間モデルマッチング手段が白線候
    補点を入力し、フレーム間での車両の微小な動きおよび
    道路勾配の変化を時間に対しての線形関数でモデル化し
    た白線の時空間モデルとマッチングしモデルパラメータ
    を出力する請求項4に記載の動画像認識装置。
  6. 【請求項6】前記時空間モデルマッチング手段が時空間
    画像内における白線候補点を入力し、各フレームにおい
    白線が直線をなすとして時空間画像内でモデル化した
    時空間白線モデルとマッチングし時空間直線モデルパラ
    メータを出力する請求項4または5に記載の動画像認識
    装置。
  7. 【請求項7】前記時空間モデルマッチング手段が時空間
    画像内における白線候補点を入力し、各フレームにおい
    白線がカーブをなすとして時空間画像内でモデル化し
    時空間白線モデルとマッチングし時空間カーブモデル
    パラメータを出力する請求項4または5に記載の動画像
    認識装置。
  8. 【請求項8】前記白線候補点を入力し画像下部における
    白線の接線の時空間モデルとマッチングし接線モデルパ
    ラメータを出力する時空間接線モデルマッチング手段を
    備え、前記時空間モデルマッチング手段が白線候補点と
    前記接線モデルパラメータを入力し前記白線候補点と白
    線がカーブを成すとしてモデル化した白線の時空間モデ
    ルとをマッチングしカーブモデルパラメータを出力する
    請求項4または5に記載の動画像認識装置。
  9. 【請求項9】前記白線候補点を入力し白線が直線を成す
    としてモデル化した白線の時空間モデルとマッチングし
    直線モデルパラメータを出力する時空間モデルマッチン
    グ手段と、前記カーブモデルパラメータと前記直線モデ
    ルパラメータを入力し前記2つのモデルパラメータにお
    ける白線候補点と時空間モデルとのマッチングの度合を
    比較しマッチングの度合の大きい方のモデルパラメータ
    を出力するマッチング度合比較手段とを備えた、請求項
    7または8に記載の動画像認識装置。
  10. 【請求項10】前記時空間道路画像を入力し前記白線候
    補点のうち画像下部にある下部白線候補点を出力する下
    部特徴点抽出手段と、前記下部白線候補点を入力し画像
    下部における白線の接線の時空間モデルとマッチングし
    初期モデルパラメータを出力する初期時空間モデルマッ
    チング手段とを備え、前記時空間モデルマッチング手段
    が前記白線候補点と前記初期モデルパラメータを入力し
    前記初期モデルパラメータを初期値として白線候補点と
    白線の時空間モデルとをマッチングしモデルパラメータ
    を出力する請求項4、5、6、7、8または9に記載の
    動画像認識装置。
JP8179006A 1996-07-09 1996-07-09 動画像認識装置および動画像認識方法 Expired - Fee Related JP3022330B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8179006A JP3022330B2 (ja) 1996-07-09 1996-07-09 動画像認識装置および動画像認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8179006A JP3022330B2 (ja) 1996-07-09 1996-07-09 動画像認識装置および動画像認識方法

Publications (2)

Publication Number Publication Date
JPH1027252A JPH1027252A (ja) 1998-01-27
JP3022330B2 true JP3022330B2 (ja) 2000-03-21

Family

ID=16058474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8179006A Expired - Fee Related JP3022330B2 (ja) 1996-07-09 1996-07-09 動画像認識装置および動画像認識方法

Country Status (1)

Country Link
JP (1) JP3022330B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008500640A (ja) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド 検出および追跡のためのグラフィカルオブジェクトモデル

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7804980B2 (en) 2005-08-24 2010-09-28 Denso Corporation Environment recognition device
CN104143089B (zh) * 2014-07-28 2017-07-07 东南大学 人体动作识别中的基于空时能量分解的关键点检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2765270B2 (ja) * 1991-05-29 1998-06-11 日本電気株式会社 動画像提示方法
JPH07334690A (ja) * 1994-06-14 1995-12-22 Nec Corp 物体の輪郭追跡方法
JP3424334B2 (ja) * 1994-06-21 2003-07-07 日産自動車株式会社 走行路検出装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008500640A (ja) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド 検出および追跡のためのグラフィカルオブジェクトモデル

Also Published As

Publication number Publication date
JPH1027252A (ja) 1998-01-27

Similar Documents

Publication Publication Date Title
US10049277B2 (en) Method and apparatus for tracking object, and method and apparatus for calculating object pose information
US6301370B1 (en) Face recognition from video images
Nedevschi et al. Stereo-based pedestrian detection for collision-avoidance applications
US7058205B2 (en) Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
EP2061008B1 (en) Method and device for continuous figure-ground segmentation in images from dynamic visual scenes
JP2915894B2 (ja) ターゲット追跡方法及び装置
US7149327B2 (en) Image processing apparatus and method
US20050271279A1 (en) Sign based human-machine interaction
EP2192549A1 (en) Target tracking device and target tracking method
US20050031166A1 (en) Visual tracking using depth data
JP2016029557A (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
CN101147159A (zh) 利用统计模板匹配进行对象检测的快速方法
US10460472B2 (en) System and method for model adaptation
CN111209770A (zh) 一种车道线识别方法及装置
Smith ASSET-2: Real-time motion segmentation and object tracking
JP5048609B2 (ja) 対象物追跡装置及びプログラム
US20230021591A1 (en) Model generation method, model generation apparatus, non-transitory storage medium, mobile object posture estimation method, and mobile object posture estimation apparatus
JP3538476B2 (ja) 車両の走行路区分線などの認識装置
EP1580684B1 (en) Face recognition from video images
JP3022330B2 (ja) 動画像認識装置および動画像認識方法
KR101350387B1 (ko) 깊이 정보를 이용한 손 검출 방법 및 그 장치
JPH06138137A (ja) 動物体抽出装置
CN111862147A (zh) 视频中多车辆和多行人目标的跟踪方法
Gallego et al. Joint multi-view foreground segmentation and 3d reconstruction with tolerance loop
JP2000132692A (ja) 曲線の特徴点抽出方法及びこの方法を記録した記録媒体

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19991214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100114

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees