JP2016152027A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2016152027A
JP2016152027A JP2015030953A JP2015030953A JP2016152027A JP 2016152027 A JP2016152027 A JP 2016152027A JP 2015030953 A JP2015030953 A JP 2015030953A JP 2015030953 A JP2015030953 A JP 2015030953A JP 2016152027 A JP2016152027 A JP 2016152027A
Authority
JP
Japan
Prior art keywords
point
feature point
unit
frame
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015030953A
Other languages
English (en)
Inventor
靖子 白鷹
Yasuko Shirataka
靖子 白鷹
多聞 貞末
Tamon Sadasue
多聞 貞末
康宏 梶原
Yasuhiro Kajiwara
康宏 梶原
賢 青木
Masaru Aoki
賢 青木
和史 松下
Kazufumi Matsushita
和史 松下
康子 橋本
yasuko Hashimoto
康子 橋本
和寛 ▲高▼澤
和寛 ▲高▼澤
Kazuhiro Takazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015030953A priority Critical patent/JP2016152027A/ja
Publication of JP2016152027A publication Critical patent/JP2016152027A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像処理の負荷を低減することができる画像処理装置、画像処理方法およびプログラムを提供する。
【解決手段】2つの撮像手段のうち少なくとも一方の撮像手段により撮像された映像のフレームにおいて被写体の特徴点を抽出する抽出手段と、特徴点が写っているフレームの次のフレームで、その特徴点と一致する特徴点を検索するマッチング動作を行うマッチング手段と、マッチング動作の結果に基づいて、特徴点が次のフレームで消失したか否かを判定する判定手段と、判定手段によって特徴点が消失したと判定された場合、消失した特徴点を代替する代替点の動きに基づいて、消失した特徴点の位置を予測した予測点を求める予測手段と、予測点に基づく点と、消失する前の特徴点とが一致する場合、予測点に基づく点を、追跡対象である特徴点として復帰させる復帰手段と、を備える。
【選択図】図6

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
近年、自動車またはロボット等を自律運転させるために必要となる地図を作成する手法として、未知の環境下で自律的に地図構築および自己位置の推定を行う技術(SLAM:Simultaneously Localization And Mapping)が知られている。SLAMでは、カメラ画像またはレーザーレーダー等のセンサ情報から特徴点を抽出し、時系列で特徴点を追跡して、その結果を基に姿勢推定および三次元再構成を行うことで地図構築および自己位置の推定を行う。
しかし、例えばカメラ画像を利用した場合、カメラの前を動く物体が通り過ぎた場合に特徴点が消失してしまう、または、ステレオカメラ等の場合、視差によって一方のカメラでは特徴点が見えているが、他方のカメラではその特徴点が見えないというオクルージョンが発生し、特徴点の追跡に失敗することがある。このような、特徴点の追跡の失敗に対応するために、オクルージョンが発生した場合に、パラメータを変更することによって、特徴点の追跡範囲を小さくし、再度、特徴点を追跡することにより、特徴点の追跡の失敗を低減する技術が提案されている(特許文献1参照)。
しかしながら、特許文献1に記載された技術は、特徴点の追跡の失敗を低減するために、オクルージョンが発生している部分であって特徴点が追跡できない複数の過去の画像を使う必要性があり、かつ、再度追跡を行う必要性があるため、画像処理の負荷につながるという問題点があった。
本発明は、上記に鑑みてなされたものであって、画像処理の負荷を低減することができる画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、2つの撮像手段のうち少なくとも一方の撮像手段により撮像された映像のフレームにおいて被写体の特徴点を抽出する抽出手段と、前記特徴点が写っているフレームの次のフレームで、該特徴点と一致する特徴点を検索するマッチング動作を行うマッチング手段と、前記マッチング動作の結果に基づいて、前記特徴点が前記次のフレームで消失したか否かを判定する判定手段と、前記判定手段によって前記特徴点が消失したと判定された場合、消失した前記特徴点を代替する代替点の動きに基づいて、消失した該特徴点の位置を予測した予測点を求める予測手段と、前記予測点に基づく点と、消失する前の前記特徴点とが一致する場合、該予測点に基づく点を、追跡対象である前記特徴点として復帰させる復帰手段と、を備えた ことを特徴とする。
本発明によれば、画像処理の負荷を低減することができる。
図1は、第1の実施の形態の画像処理装置の概観図である。 図2は、第1の実施の形態の画像処理装置を車両に搭載した例を示す図である。 図3は、第1の実施の形態の画像処理装置のハードウェア構成の一例を示す図である。 図4は、第1の実施の形態の画像処理装置のブロック構成の一例を示す図である。 図5は、第1の実施の形態の画像処理装置の距離測定部のブロック構成の一例を示す図である。 図6は、第1の実施の形態の画像処理装置の特徴点追跡部のブロック構成の一例を示す図である。 図7は、撮像装置から物体までの距離を導き出す原理を説明する図である。 図8は、基準画像、高密度視差画像およびエッジ視差画像を示す概念図である。 図9は、基準画像における基準画素に対応する比較画像における対応画素を求める場合の説明図である。 図10は、シフト量とコスト値との関係を示すグラフの一例を示す図である。 図11は、合成コストを導出するための概念図である。 図12は、シフト量と合成コスト値との関係を示すグラフの一例を示す図である。 図13は、特徴点の追跡失敗および成功の状態の一例を示す図である。 図14は、ブロックマッチング動作を説明する図である。 図15は、ブロックマッチング動作におけるサーチ範囲における処理を説明する図である。 図16は、オクルージョンの判定動作を説明する図である。 図17は、第1の実施の形態の画像処理装置において予測点を推定するためのグルーピングの動作を説明する図である。 図18は、第1の実施の形態の画像処理装置において予測点を推定するためのグルーピングの動作を説明する図である。 図19は、第1の実施の形態の画像処理装置においてオクルージョンが発生した場合の予測点の推定動作を説明する図である。 図20は、第1の実施の形態の画像処理装置における追跡点の復帰動作を説明する図である。 図21は、第1の実施の形態の画像処理装置の画像処理の動作フローの一例を示す図である。 図22は、第1の実施の形態の変形例の画像処理装置における追跡点の復帰動作を説明する図である。 図23は、第2の実施の形態の画像処理装置のブロック構成の一例を示す図である。 図24は、第2の実施の形態の画像処理装置の特徴点追跡部のブロック構成の一例を示す図である。 図25は、第2の実施の形態の画像処理装置においてオクルージョンが発生した場合の予測点の推定動作を説明する図である。 図26は、第3の実施の形態の変形例の画像処理装置における追跡点の復帰動作を説明する図である。
[第1の実施の形態]
(画像処理装置の概観および設置例)
図1は、第1の実施の形態の画像処理装置の概観図である。図2は、第1の実施の形態の画像処理装置を車両に搭載した例を示す図である。図1、2を参照しながら、画像処理装置1の概観および設置例について説明する。
図1に示すように、本実施の形態の画像処理装置1は、本体部2と、本体部2に固定された一対の円筒状の撮像装置10aおよび撮像装置10bと、を備えている。画像処理装置1は、撮像装置10a、10bが、例えば、自動車の進行方向前方の光景を撮像することができるように設置される。なお、説明の便宜上、撮像装置10aを「右のカメラ」と称し、撮像装置10bを「左のカメラ」と称する場合あるものとする。
画像処理装置1は、例えば、図2に示すように、自動車等である車両100の居室空間のフロントガラス内側のバックミラー近傍に設置される。図2のうち、図2(a)は、画像処理装置1を搭載した車両100の側面概観図であり、図2(b)は、車両100の正面図である。
なお、画像処理装置1は、車両の一例としての自動車だけでなく、車両の他の例として、バイク、自転車、車椅子、または農業用の耕運機等に搭載するものとしてもよい。
(画像処理装置のハードウェア構成)
図3は、第1の実施の形態の画像処理装置のハードウェア構成の一例を示す図である。図3を参照しながら、画像処理装置1のハードウェア構成について説明する。
図3に示すように、画像処理装置1は、本体部2と、撮像装置10a(撮像手段)と、撮像装置10b(撮像手段)と、信号変換装置20aと、信号変換装置20bと、追跡処理装置30と、を備えている。
本体部2は、画像処理装置1の筐体を構成するものであり、撮像装置10a、10bを固定して支持し、信号変換装置20a、20bおよび追跡処理装置30を内蔵する。
撮像装置10aは、前方の被写体を撮像してアナログの画像信号を生成する装置である。撮像装置10aは、撮像レンズ11aと、絞り12aと、画像センサ13aと、を備えている。
撮像レンズ11aは、入射した光を屈折させて物体の像を結像させるための光学素子である。絞り12aは、撮像レンズ11aを通過した光の一部を遮ることによって、画像センサ13aに到達する光の量を調整する部材である。画像センサ13aは、撮像レンズ11aおよび絞り12aを通過した光を電気的なアナログの画像信号に変換する固体撮像素子である。画像センサ13aは、例えば、CCD(Charge Coupled Devices)またはCMOS(Complementary Metal Oxide Semiconductor)によって実現される。
撮像装置10bは、前方の被写体を撮像してアナログの画像信号を生成する装置である。撮像装置10bは、撮像レンズ11bと、絞り12bと、画像センサ13bと、を備えている。撮像レンズ11b、絞り12bおよび画像センサ13bの機能は、それぞれ上述した撮像レンズ11a、絞り12aおよび画像センサ13aの機能と同様である。また、撮像レンズ11aおよび撮像レンズ11bは、それぞれのレンズ面が互いに同一平面内上にあるように設置されている。
信号変換装置20aは、撮像装置10aにより生成されたアナログの画像信号を、デジタル形式の画像データに変換する装置である。信号変換装置20aは、CDS(Correlated Double Sampling)21aと、AGC(Auto Gain Control)22aと、ADC(Analog Digital Converter)23aと、フレームメモリ24aと、を備えている。
CDS21aは、画像センサ13aにより生成されたアナログの画像信号に対して、相関二重サンプリング、横方向の微分フィルタ、および縦方向の平滑フィルタ等によりノイズを除去する。AGC22aは、CDS21aによってノイズが除去されたアナログの画像信号の強度を制御する利得制御を行う。ADC23aは、AGC22aによって利得制御されたアナログの画像信号をデジタル形式の画像データに変換する。フレームメモリ24aは、ADC23aによって変換された画像データを記憶する。
信号変換装置20bは、撮像装置10bにより生成されたアナログの画像信号を、デジタル形式の画像データに変換する装置である。信号変換装置20bは、CDS21bと、AGC22bと、ADC23bと、フレームメモリ24bと、を備えている。CDS21b、AGC22b、ADC23bおよびフレームメモリ24bの機能は、それぞれ上述したCDS21a、AGC22a、ADC23aおよびフレームメモリ24aの機能と同様である。
追跡処理装置30は、信号変換装置20aおよび信号変換装置20bによって変換された画像データに対して、後述する特徴点を追跡する画像処理(以下、「追跡画像処理」と称する場合がある)を実行する装置である。追跡処理装置30は、FPGA(Field Programmable Gate Array)31と、CPU(Central Processing Unit)32と、ROM(Read Only Memory)33と、RAM(Random Access Memory)34と、I/F(Interface)35と、スピーカ36と、バスライン39と、を備えている。
FPGA31は、画像データに基づく画像における視差値Δを算出する処理、および追跡画像処理等を行う集積回路である。CPU32は、画像処理装置1の各機能を制御する。ROM33は、CPU32が画像処理装置1の各機能を制御するために実行する画像処理用プログラムを記憶している。RAM34は、CPU32のワークエリアとして使用される。I/F35は、外部機器等と通信するためのインターフェースであり、例えば、CAN(Controller Area Network)等のインターフェースである。スピーカ36は、FPGA31またはCPU32による命令に従って、警告音等の音声を出力する装置である。バスライン39は、図3に示すように、FPGA31、CPU32、ROM33、RAM34、I/F35およびスピーカ36 を互いに電気的に接続するアドレスバスおよびデータバス等である。
また、上述の画像処理用プログラムは、インストール可能な形式または実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させてもよい。この記録媒体は、CD−ROM(Compact Disc Read Only Memory)またはSDメモリカード(Secure Digital memory card)等である。
(画像処理装置のブロック構成)
図4は、第1の実施の形態の画像処理装置のブロック構成の一例を示す図である。図4を参照しながら、画像処理装置1のブロック構成について説明する。
図4に示すように、画像処理装置1は、画像取得部110と、補正部120と、距離測定部130と、特徴点抽出部140(抽出手段)と、グルーピング部150と、特徴点追跡部160と、警告部170と、を有する。
画像取得部110は、左右2台のカメラにより前方の被写体を撮像して、それぞれアナログの画像信号を生成し、各画像信号に基づく画像である2つの輝度画像を得る機能部である。画像取得部110は、図3に示す撮像装置10a、10bによって実現される。
補正部120は、画像取得部110により得られた2つの輝度画像の画像データに対して、フィルタ処理等による補正によりノイズおよび歪み等を除去し、デジタル形式の画像データに変換して出力する機能部である。ここで、補正部120が出力する2つの輝度画像の画像データ(以下、単に「輝度画像」と称する)のうち、画像取得部110の右のカメラ(撮像装置10a)により撮像された画像データを基準画像Iaの画像データ(以下、単に「基準画像Ia」という)とし、左のカメラ(撮像装置10b)により撮像された画像データを比較画像Ibの画像データ(以下、単に「比較画像Ib」という)とする。すなわち、補正部120は、画像取得部110から出力された2つの輝度画像に基づいて、基準画像Iaおよび比較画像Ibを出力する。補正部120は、図3に示す信号変換装置20a、20bによって実現される。
距離測定部130は、ステレオマッチング動作により、補正部120から得られた基準画像Iaおよび比較画像Ibに基づく視差によって、比較画像Ib(または基準画像Ia)に含まれる各被写体(物体)について、画像処理装置1からその各被写体までの距離を測定する機能部である。距離測定部130による距離の測定動作は、画像処理装置1による追跡画像処理が実行されている間、原則として常時、実行される。距離測定部130の構成および動作の詳細については、後述する。距離測定部130は、図3に示すFPGA31によって実現される。
特徴点抽出部140は、撮像装置10a、10bにより撮像される物体の角等のように際立って認識される画像上の点(特徴点)を抽出する機能部である。特徴点抽出部140による特徴点の抽出動作は、画像処理装置1による追跡画像処理が実行されている間、原則として常時、実行される。これは、画像処理装置1が搭載された移動体である車両100等では、撮像装置10a、10bにより撮像される画像には、常時、新規の特徴点が現れるためである。特徴点抽出部140による特徴点の抽出方法としては、例えば、ハリス(Harris)のコーナー検出アルゴリズム等が適用できる。特徴点抽出部140は、図3に示すFPGA31によって実現される。
グルーピング部150は、特徴点追跡部160による特徴点の追跡動作において、特徴点が消失した場合に、消失した特徴点の代替とする点(以下、代替点という)を特定するために、複数の特徴点をグルーピングする機能部である。上述のように、撮像装置10a、10bにより撮像される画像には、常時、新規の特徴点が現れるため、グルーピング部150によるグルーピングの動作は、画像処理装置1による追跡画像処理が実行されている間、原則として常時、実行される必要がある。グルーピング部150によるグルーピングの動作については、後述する。グルーピング部150は、図3に示すFPGA31によって実現される。
特徴点追跡部160は、距離測定部130により測定された距離情報、特徴点抽出部140により抽出された特徴点の座標、およびグルーピング部150による特徴点のグルーピングの情報に基づいて、特徴点の追跡動作を実行する機能部である。特徴点追跡部160の構成および動作の詳細については、後述する。特徴点追跡部160は、図3に示すFPGA31によって実現される。
警告部170は、特徴点追跡部160により特徴点の追跡失敗を示す追跡情報を受け取った場合、警告を発する機能部である。具体的には、警告部170は、例えば、特徴点の追跡失敗を示す追跡情報を受け取った場合、警告として警告音を出力する。警告部170は、図3に示すスピーカ36によって実現される。なお、警告部170は、スピーカ36によって実現されることに限定されるものではなく、例えば、警告を示すランプまたは警告メッセージ等の表示装置によって実現されるものとしてもよい。
なお、以下、上述の特徴点抽出部140による特徴点の抽出動作、グルーピング部150によるグルーピングの動作、および特徴点追跡部160による特徴点の追跡動作は、左のカメラ(撮像装置10b)により撮像された映像データのフレームに対して実行されるものとして説明する。ただし、右のカメラ(撮像装置10a)により撮像された映像データのフレームに対して実行することも可能であることは言うまでもない。
図5は、第1の実施の形態の画像処理装置の距離測定部のブロック構成の一例を示す図である。図5を参照しながら、画像処理装置1の距離測定部130のブロック構成について説明する。
図5に示すように、距離測定部130は、コスト算出部131と、コスト合成部132と、距離導出部133と、を有する。
コスト算出部131は、基準画像Iaにおける基準画素p(x,y)(x、yは画像上の座標)の輝度値、および、基準画素p(x,y)に基づく比較画像Ibにおけるエピポーラ線上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補である候補画素q(x+d,y)の各輝度値に基づいて、各候補画素q(x+d,y)の非類似度を示すコスト値C(p,d)を算出する機能部である。コスト算出部131が算出するコスト値Cとしては、例えば、SAD(Sum of Absolute Differences)、またはSSD(Sum of Squared Differences)等を用いることができる。コスト算出部131の動作の詳細については、後述する。
コスト合成部132は、基準画像Iaにおける基準画素p(x,y)の周辺の画素を基準画素とした場合のその基準画素についての比較画像Ibにおける画素のコスト値Cを、コスト算出部131により算出された候補画素q(x+d,y)のコスト値C(p,d)に集約させて、候補画素q(x+d,y)の合成コスト値Ls(p,d)を算出する機能部である。コスト合成部132の動作の詳細については、後述する。
距離導出部133は、コスト合成部132により算出された、基準画像Iaにおける基準画素についての比較画像Ibにおける画素の合成コスト値Lsの最小値に対応するシフト量dを視差値Δとして特定する機能部である。さらに、距離導出部133は、特定した視差値Δから距離を導出する。距離導出部133の動作の詳細については、後述する。なお、上述のように特定された視差値Δは、画素単位の値であるが、例えば、サブピクセル推定により画素よりも細かい単位(サブピクセル単位)で視差値Δを求めるものとしてもよい。サブピクセル推定としては、パラボラフィッティングまたは最小二乗法等による方法が適用できる。
図6は、第1の実施の形態の画像処理装置の特徴点追跡部のブロック構成の一例を示す図である。図6を参照しながら、画像処理装置1の特徴点追跡部160のブロック構成について説明する。
図6に示すように、特徴点追跡部160は、マッチング部161(マッチング手段)と、追跡判定部162(判定手段)と、座標予測部163(予測手段)と、復帰部164(復帰手段)と、を有する。
マッチング部161は、特徴点抽出部140により特定のフレーム(以下、単に「n枚目のフレーム」と称する場合がある)で抽出された特徴点の座標を中心とした所定の大きさ(N画素×N画素)の範囲の画像であるテンプレートと一致する画像を、次のフレーム(以下、単に「(n+1)枚目のフレーム」と称する場合がある)における所定のサーチ範囲(W画素×H画素)で探索するブロックマッチング動作を実行する機能部である。ここで、フレームとは、撮像装置10a、10bにより撮像される映像データを構成する1つ1つの画像を示す。マッチング部161の動作の詳細については、後述する。なお、テンプレートは、N画素×N画素としたが、これに限定されるものではなく、縦横異なる画素数の画像であってもよく、または、矩形ではなく円形等のテンプレートであってもよい。また、マッチング部161によるマッチング動作は、画像の画素値について縦横に微分した画像を用いて実行されるものとしてもよい。
追跡判定部162は、マッチング部161によるブロックマッチング動作の結果、n枚目のフレームにおける追跡対象となる特徴点(以下、「追跡点」と称する場合がある)を含むテンプレートを、(n+1)枚目のフレームにおけるサーチ範囲で探索できたか否か、すなわち、(n+1)枚目のフレームで特徴点を追跡できたか否かを判定する機能部である。追跡判定部162は、例えば、追跡点についてオクルージョンが発生したか否かを判定することにより、追跡点が追跡できたか否かを判定する。追跡判定部162の動作の詳細については、後述する。
座標予測部163は、追跡判定部162により追跡点の追跡ができないと判定された場合、すなわち、追跡点が消失したと判定された場合、グルーピング部150によって消失した追跡点である特徴点と同じグループにグルーピングされた他の特徴点を代替点として特定し、代替点を利用して、消失した追跡点の動きを予測する機能部である。具体的には、座標予測部163は、特定した代替点の動きのベクトル(オプティカルフロー)を利用して、消失した追跡点が存在する点を予測する。座標予測部163の動作の詳細については、後述する。
復帰部164は、座標予測部163によって消失した追跡点が存在すると予測された点(予測点)を中心にサーチ領域を形成し、追跡点が消失する前のその追跡点のテンプレートと、形成したサーチ領域とを比較することにより、追跡点の復帰動作を行う機能部である。復帰部164の動作の詳細については、後述する。
なお、図4〜6に示した各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図4〜6で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図4〜6の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
また、図4〜6に示した各機能部は、FPGA31等のハードウェア回路で構成されることに限定されるものではなく、少なくとも一部の機能部が図3に示すCPU32で実行されるプログラムによって実現されるものとしてもよい。
(物体の距離の測定動作)
図7〜12を参照しながら、距離測定部130によるSGM(Semi−Global Matching)法を用いた距離の測定動作について説明する。
<測距の原理>
図7は、撮像装置から物体までの距離を導き出す原理を説明する図である。図7を参照しながら、ステレオマッチング動作により、ステレオカメラから物体に対する視差を導出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。なお、以下では、説明を簡略化するため、複数の画素からなる所定領域のマッチングではなく、画素単位のマッチングの例について説明する。また、一画素単位ではなく、複数の画素からなる所定領域単位で処理される場合、基準画素を含む所定領域は基準領域として示され、対応画素を含む所定領域は対応領域として示される。また、この基準領域には基準画素のみの場合も含まれ、対応領域には対応画素のみの場合も含まれる。
図7に示すように、撮像装置10a、10bは、平行等位に設置されている。図7において、3次元空間内の物体E上の点Sは、基準画像Iaおよび比較画像Ibそれぞれにおいて、撮像レンズ11aと撮像レンズ11bとを結ぶ直線と平行な直線上の位置に写像される。ここで、各画像に写像された点Sを、基準画像Iaにおいて点Sa(x,y)とし、比較画像Ibにおいて点Sb(X,y)とする。このとき、視差値Δは、基準画像Ia上の点Sa(x,y)の座標と、比較画像Ib上の点Sb(X,y)の座標とを用いて、以下の(式1)のように表される。
Δ=X−x ・・・(式1)
また、図7において、基準画像Iaにおける点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaとし、比較画像Ibにおける点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbとすると、視差値Δは、Δ=Δa+Δbと表される。
次に、視差値Δを用いることにより、撮像装置10a、10bと物体Eとの間の距離Zを導出する。ここで、距離Zとは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを結ぶ直線から物体E上の点Sまでの距離である。図7に示すように、撮像レンズ11aおよび撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、および視差値Δを用いて、下記の(式2)により、距離Zを算出することができる。
Z=(B×f)/Δ ・・・(式2)
この(式2)が示すように、視差値Δが大きいほど距離Zは小さく、視差値Δが小さいほど距離Zは大きくなる。
図8は、基準画像、高密度視差画像およびエッジ視差画像を示す概念図である。このうち、図8(a)は、基準画像を示し、図8(b)は、図8(a)に示す基準画像に対するデンス視差画像を示し、図8(c)は、図8(a)に示す基準画像に対するエッジ視差画像を示す概念図である。ここで、基準画像は、図7に示す基準画像Iaに相当し、撮像された被写体が輝度値によって表された画像である。また、高密度視差画像とは、基準画像の各画素を、SGM法によって導出された基準画像における各画素に対応する視差値で表した画像を示すものとする。そして、エッジ視差画像とは、基準画像の各画素を、ブロックマッチング法によって導出された基準画像における各画素に対応する視差値で表した画像を示すものとする。ただし、ブロックマッチング法によって導出できる視差値は、後述するように、基準画像におけるエッジ部のような比較的テクスチャの強い部分であり、テクスチャの弱い部分のように視差値を導出できない場合は、例えば、視差値を「0」として画像を構成する。
SGM法は、画像におけるテクスチャが弱い部分に対しても適切に視差値を導出する方法であり、図8(a)に示す基準画像に基づいて、図8(b)に示す高密度視差画像を導出する方法である。また、ブロックマッチング法は、図8(a)に示す基準画像に基づいて、図8(c)に示すエッジ視差画像を導出する方法である。SGM法によれば、図8(b)および図8(c)における破線の楕円内を比べると分かるように、高密度視差画像は、エッジ視差画像に比べてテクスチャが弱い道路等においても詳細な視差値に基づく距離を表すことができるため、より詳細な測距を行うことができる。
SGM法は、基準画像に対する比較画像上の、非類似度であるコスト値を算出して直ちに視差値を導出せず、コスト値を算出後、さらに、合成コスト値を算出することで視差値を導出する方法である。そして、SGM法は、最終的に、基準画像におけるほぼ全ての画素に対応する視差値で表された視差画像(ここでは、高密度視差画像)を導出する。
一方、ブロックマッチング法の場合は、コスト値を算出する点はSGM法と同じであるが、SGM法のように、合成コスト値を算出せずに、エッジ部のような比較的テクスチャの強い部分の視差値のみが導出される。
なお、上述のように、右のカメラ(撮像装置10a)により撮像された画像を基準画像Iaとし、左のカメラ(撮像装置10b)により撮像された画像を比較画像Ibとしているが、これに限定されるものではない。すなわち、左のカメラにより撮像された画像を比較画像Ibとし、右のカメラにより撮像された画像を基準画像Iaとしてもよい。
<コスト値の算出>
図9は、基準画像における基準画素に対応する比較画像における対応画素を求める場合の説明図である。図10は、シフト量とコスト値との関係を示すグラフの一例を示す図である。図9および10を参照しながら、コスト値C(p,d)の算出方法について説明する。なお、以下の説明では、C(p,d)は、C(x,y,d)を表すものとして説明する。
図9のうち、図9(a)は、基準画像における基準画素を示す概念図を示し、図9(b)は、図9(a)に示す基準画素に対応する比較画像における対応画素の候補を順次シフトしながら(ずらしながら)コスト値を算出する際の概念図である。ここで、対応画素とは、基準画像における基準画素に最も類似する比較画像における画素を示す。
図9(a)に示すように、距離測定部130のコスト算出部131は、基準画像Iaにおける基準画素p(x,y)、および、基準画素p(x,y)に対する比較画像Ibにおけるエピポーラ線EL上の対応画素の候補の画素である候補画素q(x+d,y)の各輝度値に基づいて、基準画素p(x,y)に対する対応画素の候補画素q(x+d,y)のコスト値C(p,d)を算出する。dは、基準画素pと候補画素qとのシフト量(ずれ量)であり、シフト量dは、画素単位でシフトされる。すなわち、図9では、候補画素q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次一画素分シフトしながら、候補画素q(x+d,y)と基準画素p(x,y)との非類似度であるコスト値C(p,d)がコスト算出部131によって算出される。
なお、上述のように、撮像装置10a、10bは、それぞれ平行等位に配置されるため、基準画像Iaおよび比較画像Ibも、それぞれ平行等位の関係にある。したがって、基準画像Iaにおける基準画素pに対応する比較画像Ibにおける対応画素は、図9で画像横方向の線として示されるエピポーラ線EL上に存在することになり、比較画像Ibにおける対応画素を求めるためには、比較画像Ibのエピポーラ線EL上の画素を探索すればよい。
このようにして算出されたコスト値C(p,d)は、画素単位のシフト量dとの関係で、図10に示すグラフにより表される。図10の例では、コスト値Cは、シフト量d=5,12,19の場合が「0」となるため、最小値を求めることができない。このように、例えば、画像におけるテクスチャが弱い部分がある場合には、このようにコスト値Cの最小値を求めることは困難になる。
<合成コスト値の算出および距離の導出>
図11は、合成コストを導出するための概念図である。図12は、シフト量と合成コスト値との関係を示すグラフの一例を示す図である。図11および12を参照しながら、合成コスト値Ls(p,d)の算出方法について説明する。
本実施の形態の合成コスト値の算出方法は、コスト値C(p,d)の算出だけでなく、基準画素p(x,y)の周辺の画素を基準画素とした場合のコスト値を、基準画素p(x,y)におけるコスト値C(p,d)に集約させて、合成コスト値Ls(p,d)を算出するものである。距離測定部130のコスト合成部132は、合成コスト値Ls(p,d)を算出するためには、まず、経路コスト値Lr(p,d)を算出する。コスト合成部132は、経路コスト値Lr(p,d)を、下記の(式3)により算出する。
Lr(p,d)=C(p,d)+min(Lr(p−r,k)+P(d,k))
・・・(式3)
(P=0(d=kの場合)、
P=P1(|d−k|=1の場合)、
P=P2(>P1)(|d−k|>1の場合))
(式3)に示すように経路コスト値Lrは、再帰的に求められる。ここで、rは、集約方向の方向ベクトルを示し、x方向およびy方向の2成分を有する。min()は、最小値を求める関数である。Lr(p−r,k)は、基準画素pの座標からr方向に1画素シフトした座標の画素について、シフト量を変化させた場合(この場合のシフト量をkとしている)のそれぞれの経路コスト値Lrを示す。そして、経路コスト値Lr(p−r,k)のうち、経路コスト値Lr(p,d)のシフト量であるdと、シフト量kとの間の関係に基づいて、下記の(1)〜(3)のように値P(d,k)を求め、Lr(p−r,k)+P(d,k)を算出している。
(1)d=kの場合、P=0とする。すなわち、Lr(p−r,k)+P(d,k)=Lr(p−r,k)となる。
(2)|d−k|=1の場合、P=P1とする。すなわち、Lr(p−r,k)+P(d,k)=Lr(p−r,k)+P1となる。
(3)|d−k|>1の場合、P=P2(>P1)とする。すなわち、Lr(p−r,k)+P(d,k)=Lr(p−r,k)+P2となる。
そして、min(Lr(p−r,k)+P(d,k))は、kを様々な値に変化させた場合の、上述の(1)〜(3)で算出したLr(p−r,k)+P(d,k)のうち最小の値を抽出した値となる。すなわち、比較画像Ibにおける基準画素pの座標の位置にある画素からr方向において隣接する画素(p−r)からシフト量dだけシフトした画素から離れた場合に、値P1、または値P1よりも大きい値P2を加算することにより、比較画像Ibにおける基準画素pの座標から離れた画素についての、シフト量dが不連続な経路コスト値Lrの影響を受け過ぎないようにしている。また、値P1および値P2は、予め実験により定められた固定パラメータであり、経路上で隣接する基準画素の視差値が連続になりやすいようなパラメータになっている。例えば、P1=48、P2=96である。このように、コスト合成部132は、比較画像Ibにおいてr方向の各画素における経路コスト値Lrを求めるために、最初は、基準画素p(x,y)の座標からr方向の一番端の画素から経路コスト値Lrを求め、r方向に沿って経路コスト値Lrを求める。
そして、コスト合成部132は、図11に示すように、8方向(r、r45、r90、r135、r180、r225、r270およびr315)の経路コスト値LrであるLr、Lr45、Lr90、Lr135、Lr180、Lr225、Lr270およびLr315が求められ、最終的に下記の(式4)に基づいて、合成コスト値Ls(p,d)を求める。
以上のようにして、コスト合成部132により算出された合成コスト値Ls(p,d)は、画素単位のシフト量dとの関係で、図12に示すグラフによって表すことができる。
そして、距離測定部130の距離導出部133は、コスト合成部132により算出された、基準画像Iaにおける基準画素についての比較画像Ibにおける画素の合成コスト値Lsの最小値に対応するシフト量dを視差値Δとして特定する。図12の例では、合成コスト値Lsは、シフト量d=3の場合が最小値となるため、視差値Δ=3として導出される。さらに、距離導出部133は、特定した視差値Δを用いて、上述の式(2)により距離Zを算出する。
なお、距離測定部130による距離の測定は、画像全体で実行するのではなく、特徴点抽出部140によって抽出された特徴点の座標に対応する画素に対して行うものとし、特徴点のみの距離を測定するものとしてもよい。
また、上述の説明においては、r方向の数を8個として説明しているが、これに限定されるものではない。例えば、8方向をさらに2つに分割して16方向、または、3つに分割して24方向等にしてもよい。あるいは、8方向のうちのいずれかの経路コスト値Lrを求め、合成コスト値Lsを算出するものとしてもよい。
また、コスト値Cは、非類似度を示す値としたが、これに限定されるものではなく、類似度の評価値で表されるものとしてもよい。この場合、合成コスト値Lsが、最小値ではなく、最大値となるシフト量dが視差値Δとして導出される。また、非類似度および類似度の両者を、「一致度」と称するものとしてもよい。
また、上述のように、距離測定部130は、SGM法を利用して距離の測定を実行するものとしたが、これに限定する趣旨ではなく、従来のブロックマッチング法による距離の測定を実行するものとしてもよい。
(追跡画像処理の詳細)
図13〜21を参照しながら、本実施の形態の画像処理装置1による追跡画像処理の詳細について説明する。
<特徴点の追跡の成否について>
図13は、特徴点の追跡失敗および成功の状態の一例を示す図である。図13を参照しながら、特徴点抽出部140により抽出された特徴点の追跡の成否の状態の例を説明する。
図13(a)に示すように、n枚目のフレームであるフレーム200には、特徴点抽出部140により抽出された特徴点300が写っている。そして、フレーム200の次のフレーム((n+1)枚目のフレーム)であるフレーム201にも特徴点300が写っている。この場合、フレーム200からフレーム201にかけて、特徴点300が写っているので、特徴点追跡部160は、原則として、特徴点300を追跡することが可能である。
一方、図13(b)に示すように、フレーム200には、特徴点抽出部140により抽出された特徴点300が写っているが、次のフレームであるフレーム201aでは、ワイパー900が特徴点300を遮ることによって、特徴点300が写っていない。この場合、フレーム200からフレーム201aにかけて、特徴点300が消失するので、特徴点追跡部160は、特徴点300の追跡が一時的にできないことになる。
<ブロックマッチング動作および追跡点の消失判定動作>
図14は、ブロックマッチング動作を説明する図である。図15は、ブロックマッチング動作におけるサーチ範囲における処理を説明する図である。図16は、オクルージョンの判定動作を説明する図である。図14〜16を参照しながら、特徴点追跡部160のマッチング部161によるブロックマッチング動作、および追跡判定部162による追跡点の消失判定動作の詳細について説明する。
図14(a)に示すように、特徴点抽出部140は、n枚目のフレームであるフレーム210において、抽出した特徴点(例えば、特徴点310)の座標を中心とする所定の大きさ(N画素×N画素)の範囲のテンプレート(図14(b)に示すテンプレート610)(第1テンプレート画像)を特定し、記憶部(例えば、RAM34)にテンプレート610の画像を一時記憶させる。
次に、図14(c)に示すように、マッチング部161は、フレーム210の次のフレーム((n+1)枚目のフレーム)であるフレーム211において、フレーム210の特徴点310の座標に対応する点である対応点410を中心に所定のサーチ範囲810(W画素×H画素)(第1探索範囲)を形成する。そして、マッチング部161は、図15(a)に示すように、サーチ範囲810において、記憶部に一時記憶されたテンプレート610と同じ大きさであるサーチ領域710をラスタースキャンさせ、テンプレート610とサーチ領域710の画像とのブロックマッチング動作を実行する。具体的には、マッチング部161は、テンプレート610とサーチ領域710の画像と一致度を算出しながら、サーチ範囲810において、サーチ領域710をラスタースキャンさせる。マッチング部161が算出する一致度としては、例えば、SADまたはSSD等を用いることができる。
そして、追跡判定部162は、マッチング部161により算出された一致度に対して閾値判定を行う。例えば、一致度がSADのように非類似度を示す値であれば、追跡判定部162は、一致度が所定の閾値以下である場合、その一致度が算出されたサーチ領域710の画像と、テンプレート610とが一致するものと判定し、追跡成功と判定する。一方、追跡判定部162は、サーチ範囲810全体において、一致度が所定の閾値よりも大きい場合、サーチ領域710の画像と、テンプレート610とは一致せず、特徴点310の追跡ができなかった、すなわち、フレーム211で特徴点310は消失したものと判定する。
追跡判定部162は、追跡に成功した場合、図15(b)に示すテンプレート610と一致したサーチ領域710であるサーチ領域711の画像の中央の点を、特徴点310を追跡した結果である追跡点311として特定する。そして、マッチング部161および追跡判定部162は、(n+1)枚目のフレームであるフレーム211において特定された追跡点311(特徴点310)について、以降のフレームでさらに追跡を繰り返す。また、追跡判定部162は、追跡点311の座標を中心とするサーチ領域711の画像を新たなテンプレートとして記憶部(例えば、RAM34)に一時記憶させる。そして、追跡判定部162は、対応点410から追跡点311へ向かうベクトルであるオプティカルフロー510の情報を記憶部(例えば、HDD(Hard Disk Drive)等の外部記憶装置)に記憶させる。
また、追跡判定部162が、特徴点を追跡できない、すなわち、特徴点を消失したものと判定する原因の例として、物体によって特徴点が遮られることによるオクルージョンの発生がある。例えば、図16(a)に示すように、特徴点抽出部140によって、フレーム220で被写体である物体902の特徴点として特徴点320、321が抽出されているものとする。そして、図16(b)に示すように、フレーム220の次のフレームであるフレーム221において、車両100(図1参照)のフロントガラス901上を動くワイパー900によって特徴点320が遮られることによるオクルージョンが発生したとする。この場合、追跡判定部162は、マッチング部161によるブロックマッチング動作の結果、特徴点320のフレーム221において対応する点である対応点420を中心とするサーチ範囲820(第1探索範囲)で、特徴点320のテンプレートと一致するサーチ領域の画像を検索することができず、特徴点320は消失したものと判定する。また、例えば、追跡判定部162は、フレーム221において、フレーム220の特徴点320の座標に対応する点である対応点420を中心とするサーチ範囲820に含まれる被写体の距離情報を距離測定部130から受け取り、その距離情報に基づいて所定距離よりも近い距離の物体(例えば、ワイパー900)がサーチ範囲820に含まれていると判定した場合、オクルージョンが発生したものと判定し、フレーム221で特徴点320は消失したものと判定するものとしてもよい。
なお、マッチング部161によるマッチング動作において、サーチ領域710は車両100の状態に応じて大きさが変化するようにしてもよい。例えば、車両100の走行速度、車両100のステアリングの角度、または外部環境の明るさ等の情報に基づいて、サーチ領域710の大きさが調整されるものとしてもよい。
<グルーピングの動作>
図17および18は、第1の実施の形態の画像処理装置において予測点を推定するためのグルーピングの動作を説明する図である。図17および18を参照しながら、画像処理装置1の特徴点抽出部140のグルーピングの動作の詳細について説明する。
グルーピング部150は、上述のように、特徴点追跡部160による特徴点の追跡動作において、特徴点が消失した場合に、消失した特徴点の予測点を求めるために用いる代替点を特定するために、同じような軌跡で動くと想定される複数の特徴点をグルーピングしておく必要がある。グルーピング部150は、グルーピングの方法としては、例えば、特徴点抽出部140によって抽出された特徴点のうち、画像処理装置1からの距離が同一の特徴点同士をグルーピングする。この場合、グルーピング部150は、距離測定部130から受け取った距離情報に基づいて、画像処理装置1から特徴点までの距離が同一であるか否かを判定する。ここで、距離が同一とは、完全に同一している場合のみを想定するものではなく、同一とみなし得る程度に近似した距離である場合も含むものとする。この場合、例えば、グルーピング部150は、2つ特徴点について、画像処理装置1から特の距離が同一であるか否かは、各特徴点までの距離の差分が所定の閾値以下であるか否かにより判定するものとすればよい。
例えば、図17(a)において、左カメラで撮像された画像がフレーム225であり、右カメラで撮像された画像がフレーム226であるものとする。特徴点抽出部140は、図17(a)および17(b)に示すように、フレーム225に写っている物体902において、特徴点320、321を抽出したものとする。また、距離測定部130は、フレーム225とフレーム226とを重ね合わせた画像227に示す視差値Δ1に基づいて、特徴点320、321の距離を測定し、その距離情報をグルーピング部150に送る。そして、グルーピング部150は、距離測定部130から受け取った特徴点320、321それぞれの距離情報から、双方が同一の距離であるものと判定した場合、同じグループにグルーピングする。グルーピング部150は、特徴点抽出部140により抽出された特徴点についてグルーピングした情報(グループ情報)を、特徴点追跡部160に送る。
また、図18に示す例では、グルーピング部150によるグルーピングの方法を、例えば、以下のように行う。図18(a)に示すように、画像処理装置1の左右のカメラはそれぞれ、物体910、911をそれぞれ撮像し、図18(b)に示すフレーム230が左のカメラ(撮像装置10b)により撮像されたフレームであるものとする。まず、特徴点抽出部140は、図18(b)に示すように、フレーム230に写っている物体910の特徴点330、331、および物体911の特徴点332、333を抽出したものとする。また、距離測定部130により測定される物体910までの距離Z1(すなわち、特徴点330、331までの距離)と、物体911までの距離Z2(すなわち、特徴点332、333までの距離)とは、同一であるものとする。ここで、画像処理装置1を搭載した車両100が、物体910と、物体911との間を通過する場合、撮像装置10bにより撮像される映像では、特徴点330、331は、映像の中央から左側へ向かう方向に、特徴点332、333は、映像の中央から右側へ向かう方向に向かうことになる。
この場合、図17の例と同様に、画像処理装置1からの距離が同一の特徴点同士をグルーピングすると、グルーピング部150によって特徴点330〜333はすべて画像処理装置1からの距離が同一なので、同一のグループにグルーピングされることになる。しかし、上述のように、特徴点330、331と、特徴点332、333とは、異なる軌跡で動くので、特徴点追跡部160による特徴点の追跡動作において、消失した特徴点の予測点を求めるために用いる代替点として、軌跡の異なる特徴点が特定される可能性があり、座標予測部163による予測点の推定動作、および、復帰部164による追跡点の復帰動作が失敗する可能性がある。そこで、例えば、グルーピング部150は、フレーム230の中央から左側の部分と、右側の部分とに区分けしてグルーピングを行うものとしてもよい。具体的には、図18(b)において、グルーピング部150は、フレーム230の中心から左側にある特徴点330と特徴点331とを同一のグループにグルーピングし、右側にある特徴点332と特徴点333とを、特徴点330、331のグループとは異なるグループにグルーピングする。
なお、グルーピング部150によるグルーピングの方法は、図17および18で上述した方法に限定されるものではなく、その他の方法によって、同じような軌跡で動くと想定される複数の特徴点をグルーピングするものとしてもよい。図18の例では、フレームの中心から左側の部分と、右側の部分とに区分けするものとしたが、例えば、フレームの中心から左上、左下、右上および右下に区分けし、各区分けした領域において特徴点をグルーピングするものとしてもよい。また、例えば、車両100が前方方向に進むのではなく、カーブまたは交差点等で曲がる場合、フレーム内の特徴点はすべて右または左に移動することが想定されるので、上述のようにフレーム内で区分けはせず、フレーム全体で距離が同一の特徴点をグルーピングするものとしてもよい。
<予測点の推定動作>
図19は、第1の実施の形態の画像処理装置においてオクルージョンが発生した場合の予測点の推定動作を説明する図である。図19を参照しながら、特徴点追跡部160の座標予測部163による予測点の推定動作について説明する。
図19(a)に示すように、まず、n枚目のフレームであるフレーム240において、特徴点抽出部140により物体940における特徴点340、341がそれぞれ抽出されているものとする。また、特徴点抽出部140は、特徴点340と特徴点341とを同じグループにグルーピングしているものとする。また、フレーム240には、左から右に回転移動してくるワイパー900が写っている。
そして、図19(b)に示すように、フレーム240の次のフレーム((n+1)枚目のフレーム)であるフレーム241において、右から左に回転移動してきたワイパー900により追跡対象である特徴点340が遮られることによるオクルージョンが発生したものとする。この場合、上述のように、追跡判定部162は、特徴点340を追跡することができず、特徴点340は消失したものと判定する。このように、追跡判定部162により特徴点340が消失したと判定された場合、座標予測部163は、消失した特徴点340の動きを予測するため、特徴点340と同一のグループかつ特徴点340に最も近い特徴点(図19(b)の例では特徴点341)を代替点として特定する。
そして、座標予測部163は、フレーム241において、フレーム240の特徴点341の座標に対応する点である対応点441から、特徴点341の座標へ向かうベクトルであるオプティカルフロー541を、消失した特徴点340のオプティカルフロー(オプティカルフロー540)として利用する。具体的には、座標予測部163は、消失した特徴点340が、フレーム241において、フレーム240の特徴点340の座標に対応する点である対応点440から、オプティカルフロー540で指し示される位置に移動していると予測する。すなわち、座標予測部163は、フレーム241において、対応点440からオプティカルフロー540で示される点の座標を、消失した特徴点340が存在すると推定される予測点450の座標として求める。
さらに、図19(c)に示すように、座標予測部163は、フレーム241の次のフレーム((n+2)枚目のフレーム)であるフレーム242において、フレーム241の特徴点341の座標に対応する点である対応点442から、特徴点341の座標へ向かうベクトルであるオプティカルフロー551を、消失した特徴点340の次のオプティカルフロー(オプティカルフロー550)として利用する。具体的には、座標予測部163は、消失した特徴点340が、フレーム242において、フレーム241の予測点450(特徴点340の予測点)から、オプティカルフロー550で指し示される位置に新たに移動していると予測する。すなわち、座標予測部163は、フレーム242において、対応点450からオプティカルフロー550で示される点の座標を、消失した特徴点340が存在すると新たに推定される予測点451の座標として求める。
<追跡点の復帰動作>
図20は、第1の実施の形態の画像処理装置における追跡点の復帰動作を説明する図である。図20を参照しながら、特徴点追跡部160の復帰部164による追跡点の復帰動作について説明する。
図20(a)は、図19(a)に示す状態と同様であり、フレーム240において、特徴点抽出部140により物体940における特徴点340、341がそれぞれ抽出される状態を示す。上述のように、特徴点抽出部140は、さらに、フレーム240において、抽出した特徴点340の座標を中心とする所定の大きさのテンプレート640を特定し、記憶部にテンプレート640の画像を一時記憶させる。なお、テンプレートの特定および記憶の動作は、特徴点341に対しても同様に行われる。
図20(b)は、図19(b)に示す状態と同様であり、フレーム241において、右から左に回転移動してきたワイパー900により追跡対象である特徴点340が遮られることによるオクルージョンが発生した状態を示す。この場合、追跡判定部162は、特徴点340を追跡することができず、特徴点340は消失したものと判定する。
追跡判定部162によって追跡対象である特徴点340が消失したと判定された後、図20(c)に示すように、復帰部164は、フレーム242(特徴点340が消失したフレーム241の次のフレーム)において、座標予測部163によって推定された予測点451を中心にテンプレート640と同じ大きさのサーチ領域740を形成する。そして、復帰部164は、記憶部に記憶されたテンプレート640と、サーチ領域740の画像とを比較し、これらの一致度を算出する。復帰部164が算出する一致度としては、例えば、マッチング部161と同様にSADまたはSSD等を用いることができる。
そして、復帰部164は、算出した一致度に対して閾値判定を行う。例えば、一致度がSADのように非類似度を示す値であれば、復帰部164は、一致度が所定の閾値以下である場合、テンプレート640と、サーチ領域740の画像とが一致するものと判定し、座標予測部163により推定された予測点451を、特徴点340に対する追跡点として復帰させる。一方、復帰部164は、一致度が所定の閾値よりも大きい場合、テンプレート640と、サーチ領域740の画像とは一致しないものと判定する。この場合、座標予測部163による予測点の推定動作、および復帰部164に追跡点の復帰動作を継続する。ただし、例えば、復帰部164は、復帰動作が所定回数行われても成功しなった場合、消失した特徴点340の追跡に失敗したものと判定する。
<特徴点の追跡動作の流れ>
図21は、第1の実施の形態の画像処理装置の画像処理の動作フローの一例を示す図である。図21を参照しながら、画像処理装置1の追跡画像処理のうち、特徴点追跡部160による特徴点の追跡動作の流れについて総括的に説明する。なお、予め、グルーピング部150は、特徴点抽出部140により抽出された特徴点が、上述の方法によりグルーピングされているものとする。
<<ステップS11>>
特徴点抽出部140は、n枚目のフレームにおいて、抽出した特徴点の座標を中心とする所定の大きさの範囲のテンプレートを特定し、記憶部(例えば、RAM34)にテンプレートの画像を一時記憶させる。マッチング部161は、次のフレーム((n+1)枚目のフレーム)において、n枚目のフレームの追跡対象となる特徴点の座標に対応する点である対応点を中心に所定のサーチ範囲を形成する。そして、マッチング部161は、サーチ範囲において、記憶部に一時記憶されたテンプレートと同じ大きさであるサーチ領域をラスタースキャンさせ、テンプレートとサーチ領域の画像とのブロックマッチング動作を実行する。具体的には、マッチング部161は、テンプレートとサーチ領域の画像と一致度を算出しながら、サーチ範囲において、サーチ領域をラスタースキャンさせる。そして、ステップS12へ移行する。
<<ステップS12>>
追跡判定部162は、マッチング部161により算出された一致度に対して閾値判定を行う。例えば、一致度がSADのように非類似度を示す値であれば、追跡判定部162は、一致度が所定の閾値以下である場合、その一致度が算出されたサーチ領域の画像と、テンプレートとが一致するものと判定し、追跡成功と判定する(ステップS12:Yes)。追跡判定部162は、追跡に成功した場合、テンプレートと一致したサーチ領域の画像の中央の点を、特徴点を追跡した結果である追跡点として特定する。そして、マッチング部161および追跡判定部162は、特定された追跡点について、以降のフレームでさらに追跡を繰り返す。
一方、追跡判定部162は、サーチ範囲全体において、一致度が所定の閾値よりも大きい場合、サーチ領域の画像と、テンプレートとは一致せず、特徴点の追跡ができなかった、すなわち、特徴点は消失したものと判定し(ステップS12:No)、ステップS13へ移行する。
<<ステップS13>>
座標予測部163は、消失した特徴点の動きを予測するため、消失した特徴点と同一のグループかつ消失した特徴点に最も近い特徴点を代替点として特定する。そして、座標予測部163は、(n+1)枚目のフレームにおいて、n枚目のフレームの代替点の座標に対応する点である対応点から、代替点の座標へ向かうベクトルであるオプティカルフローを、消失した特徴点のオプティカルフローとして利用する。具体的には、座標予測部163は、消失した特徴点が、(n+1)枚目のフレームにおいて、n枚目のフレームでの消失した特徴点の座標に対応する点である対応点から、上述のオプティカルフローで指し示される位置に移動していると予測する。すなわち、座標予測部163は、(n+1)枚目のフレームにおいて、消失した特徴点の対応点からオプティカルフローで示される点の座標を、消失した特徴点が存在すると推定される予測点の座標として求める。そして、ステップS14へ移行する。
<<ステップS14>>
座標予測部163によって予測点の座標の推定が成功した場合(ステップS14:Yes)、ステップS15へ移行し、成功しなかった場合(ステップS14:No)、ステップS19へ移行する。ここで、予測点の座標の推定が成功しない場合の例としては、座標予測部163によって、消失した特徴点が属するグループに他の特徴点が存在しない等の要因で代替点が特定されなかった場合等が挙げられる。
<<ステップS15>>
復帰部164は、(n+2)枚目のフレームにおいて、座標予測部163によって推定された予測点を中心にテンプレートと同じ大きさのサーチ領域を形成する。次に、復帰部164は、記憶部に記憶されたテンプレートと、サーチ領域の画像とを比較し、これらの一致度を算出する。そして、復帰部164は、算出した一致度に対して閾値判定を行う。そして、ステップS16へ移行する。
<<ステップS16>>
例えば、一致度がSADのように非類似度を示す値であれば、復帰部164は、一致度が所定の閾値以下である場合、テンプレートと、サーチ領域の画像とが一致するものと判定し、追跡点の復帰は成功であると判定する(ステップS16:Yes)。この場合、復帰部164は、座標予測部163により推定された予測点を、特徴点に対する追跡点として復帰させる。
一方、復帰部164は、一致度が所定の閾値よりも大きい場合、テンプレートと、サーチ領域の画像とは一致しないものと判定し、追跡点の復帰は失敗であると判定する(ステップS16:No)。そして、ステップS17へ移行する。
<<ステップS17>>
復帰部164は、追跡点の復帰動作が所定回数に達したか否かを判定する。所定回数に達した場合(ステップS17:Yes)、ステップS18へ移行し、達していない場合(ステップS17:No)、ステップS13へ戻り、座標予測部163による予測点の推定動作から動作が繰り返される。なお、復帰部164が追跡点の復帰動作が所定回数に達してない場合に、ステップS13へ戻ることに限定されるものではなく、例えば、復帰部164が追跡点の復帰は失敗であると判定してから所定時間のタイムラグを空けてから、ステップS13へ戻るものとしてもよい。
<<ステップS18>>
警告部170は、特徴点追跡部160により特徴点の追跡失敗を示す追跡情報を受け取ると警告を発する。
<<ステップS19>>
警告部170は、座標予測部163により予測点の座標の推定が失敗した場合、警告を発する。
以上のステップS11〜S19の流れによって、特徴点追跡部160による特徴点の追跡動作が実行される。
以上のように、マッチング部161および追跡判定部162は、抽出された特徴点の追跡を行い、追跡判定部162によって特徴点が消失したと判定した場合、座標予測部163は、消失した特徴点と同一のグループの特徴点を代替点として特定する。そして、座標予測部163は、消失した特徴点の対応点から、代替点のオプティカルフローで示さる点を予測点とし、復帰部164は、消失する前の特徴点のテンプレートが、予測点を含むサーチ領域の画像と一致する場合、この予測点を、消失した特徴点に対する追跡点として復帰させるものとしている。これによって、消失した特徴点を再度復帰させることができ、また、追跡を継続するために過去の映像(フレーム)を使う必要はなく、特徴点について再度追跡し直す必要もないので、追跡画像処理の処理負荷を低減することができる。また、特徴点抽出部140、グルーピング部150および特徴点追跡部160の少なくともいずれかをハードウェア回路によって実現する場合、上述のように、再度復帰させることができ、追跡を継続するために過去の映像(フレーム)を使う必要はなく、特徴点について再度追跡し直す必要もないので、回路規模の増大を抑制することもできる。
また、追跡判定部162によって特徴点が消失したと判定した場合、座標予測部163は、消失した特徴点と同一のグループかつ消失した特徴点に最も近い特徴点を代替点として特定することが望ましい。これによって、消失した特徴点は、特定された代替点と近似した動きをすると想定されるので、座標予測部163による予測点の推定の精度が向上する可能性が高くなり、復帰部164による追跡点の復帰を容易にすることができる。
また、復帰部164による復帰が失敗しても、再度、座標予測部163による予測点の推定動作、および復帰部164による追跡点の復帰動作が行われるものとしている。このように、予測点の推定、および追跡点の復帰の動作が繰り返されることにより、追跡点の復帰が成功する確率を向上させることができる。
(変形例)
図22は、第1の実施の形態の変形例の画像処理装置における追跡点の復帰動作を説明する図である。図22を参照しながら、図20で示した復帰部164の追跡点の復帰動作と相違する点を中心に説明する。
図22(a)および(b)は、それぞれ上述の図20(a)および(b)と同様の状態を示しており、フレーム241において、右から左に回転移動してきたワイパー900により追跡対象である特徴点340が遮られることによるオクルージョンが発生した状態を示す。この場合、追跡判定部162は、特徴点340を追跡することができず、特徴点340は消失したものと判定する。
追跡判定部162によって追跡対象である特徴点340が消失したと判定された後、図22(c)に示すように、復帰部164は、フレーム242(特徴点340が消失したフレーム241の次のフレーム)において、予測点451を中心とするサーチ範囲840(第2探索範囲)を形成する。そして、復帰部164は、サーチ範囲840において、テンプレート640(第2テンプレート画像)と同じ大きさであるサーチ領域740をラスタースキャンさせ、テンプレート640とサーチ領域740の画像とのブロックマッチングを実行する。具体的には、復帰部164は、テンプレート640とサーチ領域740の画像と一致度を算出しながら、サーチ範囲840において、サーチ領域740をラスタースキャンさせる。
そして、復帰部164は、算出した一致度に対して閾値判定を行う。例えば、一致度がSADのように非類似度を示す値であれば、復帰部164は、一致度が所定の閾値以下である場合、テンプレート640と、サーチ領域740の画像とが一致するものと判定し、座標予測部163により推定された予測点451を、特徴点340に対する追跡点として復帰させる。一方、復帰部164は、サーチ範囲840全体において、一致度が所定の閾値よりも大きい場合、テンプレート640と、サーチ領域740の画像とは一致しないものと判定する。この場合、座標予測部163による予測点の推定動作、および復帰部164に追跡点の復帰動作を継続する。ただし、例えば、復帰部164は、復帰動作が所定回数行われても成功しなった場合、消失した特徴点340の追跡に失敗したものと判定する。
以上のように、復帰部164は、テンプレート640を、予測点451を中心とするサーチ領域740の画像のみと比較するのではなく、予測点451を含むサーチ範囲840を形成し、サーチ領域740をラスタースキャンさせ、テンプレート640とサーチ領域740の画像とのブロックマッチングを実行するものとしている。これによって、サーチ範囲840において、テンプレート640と一致する画像を探索するので、テンプレート640と一致する画像が見つかる可能性が高くなり、追跡点の復帰が成功する確率を向上させることができる。
[第2の実施の形態]
本実施の形態に係る画像処理装置1aについて、第1の実施の形態に係る画像処理装置1と相違する点を中心に説明する。第1の実施の形態では、消失した特徴点の代替点として、グルーピング部150によりグルーピングされた他の特徴点を特定したが、本実施の形態では、特徴点追跡部160による特徴点の追跡動作等を行うカメラの映像データとは、異なるカメラの映像データにおける特徴点を用いる動作について説明する。
(画像処理装置のブロック構成)
図23は、第2の実施の形態の画像処理装置のブロック構成の一例を示す図である。図23を参照しながら、画像処理装置1aのブロック構成について、第1の実施の形態に係る画像処理装置1のブロック構成と相違する点を中心に説明する。
図23に示すように、画像処理装置1aは、画像取得部110と、補正部120と、距離測定部130と、特徴点抽出部140と、特定部150a(特定手段)と、特徴点追跡部160aと、警告部170と、を有する。すなわち、画像処理装置1aは、第1の実施の形態に係る画像処理装置1aのグルーピング部150の代わりに、特定部150aを有している。なお、画像取得部110、補正部120、距離測定部130、特徴点抽出部140および警告部170の動作は、第1の実施の形態と同様である。また、第1の実施の形態と同様に、特徴点抽出部140による特徴点の抽出動作、および特徴点追跡部160aによる特徴点の追跡動作は、左のカメラ(撮像装置10b)により撮像された映像データのフレームに対して実行されるものとして説明する。ただし、右のカメラ(撮像装置10a)により撮像された映像データのフレームに対して実行することも可能であることは言うまでもない。
特定部150aは、特徴点追跡部160aによる特徴点の追跡動作において、特徴点が消失した場合に、消失した特徴点の予測点を求めるために用いる代替点を、右のカメラ(撮像装置10a)により撮像された映像データのフレームで特定する機能部である。特定部150aによる動作については、後述する。特定部150aは、図3に示すFPGA31によって実現される。
特徴点追跡部160aは、距離測定部130により測定された距離情報、特徴点抽出部140により抽出された特徴点の座標、および特定部150aによる特定された代替点についての特定情報に基づいて、特徴点の追跡動作を実行する機能部である。特徴点追跡部160aの構成および動作の詳細については、後述する。特徴点追跡部160aは、図3に示すFPGA31によって実現される。
図24は、第2の実施の形態の画像処理装置の特徴点追跡部のブロック構成の一例を示す図である。図24を参照しながら、画像処理装置1aの特徴点追跡部160aのブロック構成について、第1の実施の形態に係る画像処理装置1の特徴点追跡部160のブロック構成と相違する点を中心に説明する。
図24に示すように、特徴点追跡部160aは、マッチング部161(マッチング手段)と、追跡判定部162(判定手段)と、座標予測部163a(予測手段)と、復帰部164(復帰手段)と、を有する。すなわち、特徴点追跡部160aは、第1の実施の形態の特徴点追跡部160の座標予測部163の代わりに、座標予測部163aを有している。なお、マッチング部161、追跡判定部162および復帰部164の動作は、第1の実施の形態と同様である。
座標予測部163aは、追跡判定部162により追跡点の追跡ができないと判定された場合、すなわち、追跡点が消失したと判定された場合、特定部150aによって特定された特徴点を代替点として特定し、代替点を利用して、消失した追跡点の動きを予測する機能部である。具体的には、座標予測部163aは、特定した代替点の動きのベクトル(オプティカルフロー)を利用して、消失した追跡点存在する点を予測する。座標予測部163aの動作の詳細については、後述する。
なお、図23および24に示した各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図23および24で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図23および24の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。
(代替点の特定動作および予測点の推定動作)
図25は、第2の実施の形態の画像処理装置においてオクルージョンが発生した場合の予測点の推定動作を説明する図である。図25を参照しながら、画像処理装置1aの特定部150aの代替点の特定動作、および、特徴点追跡部160aの座標予測部163aの予測点の推定動作について説明する。
図25(a)に示すように、まず、左のカメラ(撮像装置10b)により撮像されたn枚目のフレームであるフレーム260において、特徴点抽出部140により物体960における特徴点360が抽出されているものとする。また、図25(b)に示すように、同様に、右のカメラ(撮像装置10a)により撮像されたn枚目のフレームであるフレーム270において、特徴点抽出部140により物体960における特徴点370が抽出されているものとする。図25から明らかなように、フレーム260の特徴点360は、フレーム270の特徴点370に対応する点である。また、フレーム260、270には、左から右に回転移動してくるワイパー900が写っている。
特定部150aは、上述のように、特徴点追跡部160aによる特徴点の追跡動作において、特徴点が消失した場合に、消失した特徴点の予測点を求めるために用いる代替点として、同じような軌跡で動くと想定される特徴点を特定しておく必要がある。具体的には、特定部150aは、消失した特徴点の予測点を求めるために用いる代替点として、右のカメラ(撮像装置10a)により撮像されたフレームでの特徴点を特定する。この場合、特定部150aは、距離測定部130から受け取った距離情報(特徴点360についての視差の情報)に基づいて、フレーム260上の追跡対象となる特徴点360に対応する、フレーム270上の特徴点370を特定し、特徴点360が消失した場合の予測点を求めるために用いる代替点として特徴点370を特定する。
そして、図25(a)に示すように、フレーム260の次のフレーム((n+1)枚目のフレーム)であるフレーム261において、右から左に回転移動してきたワイパー900により追跡対象である特徴点360が遮られることによるオクルージョンが発生したものとする。この場合、上述のように、追跡判定部162は、特徴点360を追跡することができず、特徴点360は消失したものと判定する。このように、追跡判定部162により特徴点360が消失したと判定された場合、座標予測部163aは、消失した特徴点360の動きを予測するため、特定部150aによって、右のカメラで撮像されたフレーム270の次のフレーム((n+1)枚目のフレーム)であるフレーム271において特徴点360に対応する点として特定された特徴点370を、代替点として特定する。
そして、座標予測部163aは、フレーム271において、フレーム270の特徴点370の座標に対応する点である対応点470から、特徴点370の座標へ向かうベクトルであるオプティカルフロー570を、消失した特徴点360のオプティカルフロー(オプティカルフロー560)として利用する。具体的には、座標予測部163aは、消失した特徴点360が、フレーム261において、フレーム260の特徴点360の座標に対応する点である対応点460から、オプティカルフロー560で指し示される位置に移動していると予測する。すなわち、座標予測部163aは、フレーム261において、対応点460からオプティカルフロー560で示される点の座標を、消失した特徴点360が存在すると推定される予測点480の座標として求める。
以上のように、座標予測部163aは、消失した特徴点の対応点から、右のカメラで撮像されたフレームで特定された代替点のオプティカルフローで示さる点を予測点とするものとしている。これによって、消失した特徴点を再度復帰させることができ、また、追跡を継続するために過去の映像(フレーム)を使う必要はなく、特徴点について再度追跡し直す必要もないので、追跡画像処理の処理負荷を低減することができる。
また、座標予測部163aは、図25に示すように、消失した特徴点360に対応する特徴点370を代替点として特定している。これによって、消失した特徴点は、特定された代替点とほぼ同じ動きをすると想定されるので、座標予測部163aによる予測点の推定の精度が向上する可能性が高くなり、復帰部164による追跡点の復帰をさらに容易にすることができる。
なお、第2の実施の形態に係る画像処理装置1aに対して、第1の実施の形態の変形例に係る復帰部164の復帰動作も適用することは、当然可能である。
[第3の実施の形態]
本実施の形態に係る画像処理装置について、第1の実施の形態に係る画像処理装置1と相違する点を中心に説明する。第1の実施の形態では、座標予測部163により推定された予測点が、消失した特徴点と一致するか否かを判定して復帰させるものとしているが、本実施の形態では、予測点に最も近い特徴点が、消失した特徴点と一致するか否かを判定して復帰させる動作について説明する。
(追跡点の復帰動作)
図26は、第3の実施の形態の変形例の画像処理装置における追跡点の復帰動作を説明する図である。図26を参照しながら、本実施の形態における特徴点追跡部160の復帰部164による追跡点の復帰動作について説明する。
図26(a)は、第1の実施の形態の図20(a)と同様に、フレーム240において、特徴点抽出部140により物体940における特徴点340、341がそれぞれ抽出される状態を示す。上述のように、特徴点抽出部140は、さらに、フレーム240において、抽出した特徴点340の座標を中心とする所定の大きさのテンプレート640を特定し、記憶部にテンプレート640の画像を一時記憶させる。なお、テンプレートの特定および記憶の動作は、特徴点341に対しても同様に行われる。
図26(b)は、第1の実施の形態の図20(b)に示す状態と同様であり、フレーム241において、右から左に回転移動してきたワイパー900により追跡対象である特徴点340が遮られることによるオクルージョンが発生した状態を示す。この場合、追跡判定部162は、特徴点340を追跡することができず、特徴点340は消失したものと判定する。
追跡判定部162によって追跡対象である特徴点340が消失したと判定された後、図26(c)に示すように、復帰部164は、フレーム242a(特徴点340が消失したフレーム241の次のフレーム)において、座標予測部163によって推定された予測点451ではなく、特徴点抽出部140により改めて抽出された特徴点のうち予測点451に最も近い特徴点(図26(c)では、元の特徴点340)を中心にテンプレート640と同じ大きさのサーチ領域740aを形成する。そして、復帰部164は、記憶部に記憶されたテンプレート640と、サーチ領域740aの画像とを比較し、これらの一致度を算出する。
そして、復帰部164は、算出した一致度に対して閾値判定を行う。例えば、一致度がSADのように非類似度を示す値であれば、復帰部164は、一致度が所定の閾値以下である場合、テンプレート640と、サーチ領域740aの画像とが一致するものと判定し、特徴点抽出部140により改めて抽出された特徴点のうち予測点451に最も近い特徴点を、消失した特徴点340に対する追跡点として復帰させる。一方、復帰部164は、一致度が所定の閾値よりも大きい場合、テンプレート640と、サーチ領域740aの画像とは一致しないものと判定する。この場合、座標予測部163による予測点の推定動作、および復帰部164に追跡点の復帰動作を継続する。ただし、例えば、復帰部164は、復帰動作が所定回数行われても成功しなった場合、消失した特徴点340の追跡に失敗したものと判定する。
以上のように、本実施の形態の復帰部164は、テンプレート640を、予測点451を中心とするサーチ領域ではなく、特徴点抽出部140により改めて抽出された特徴点のうち予測点451に最も近い特徴点を中心とするサーチ領域と比較するものとしている。これによって、消失した特徴点の真の位置からずれている可能性がある予測点ではなく、消失した元の特徴点で復帰させることができる確率が高くなり、追跡点の復帰の精度を向上させることができる。
なお、第3の実施の形態に係る画像処理装置に対して、第1の実施の形態の変形例に係る復帰部164の復帰動作も適用することは、当然可能である。
なお、上述の距離測定部130、特徴点抽出部140、グルーピング部150、特定部150a、マッチング部161、追跡判定部162、座標予測部163、163a、および復帰部164のうち少なくともいずれかがプログラムで実現される場合、画像処理装置1で実行されるそのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−RまたはDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供される。
また、上述の各実施の形態および変形例に係る画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述の各実施の形態および変形例に係る画像処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、上述のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
また、上述の各実施の形態および変形例に係る画像処理装置で実行されるプログラムは、上述した距離測定部130、特徴点抽出部140、グルーピング部150、特定部150a、マッチング部161、追跡判定部162、座標予測部163、163a、および復帰部164のうち少なくともいずれかを含むモジュール構成となっていてもよく、実際のハードウェアとしてはCPU32が上述の記憶媒体からプログラムを読み出して実行することにより、上述の各機能部が主記憶装置上にロードされて生成されるようになっている。
1、1a 画像処理装置
2 本体部
10a、10b 撮像装置
11a、11b 撮像レンズ
12a、12b 絞り
13a、13b 画像センサ
20a、20b 信号変換装置
21a、21b CDS
22a、22b AGC
23a、23b ADC
24a、24b フレームメモリ
30 追跡処理装置
31 FPGA
32 CPU
33 ROM
34 RAM
35 I/F
36 スピーカ
39 バスライン
100 車両
110 画像取得部
120 補正部
130 距離測定部
131 コスト算出部
132 コスト合成部
133 距離導出部
140 特徴点抽出部
150 グルーピング部
150a 特定部
160、160a 特徴点追跡部
161 マッチング部
162 追跡判定部
163、163a 座標予測部
164 復帰部
170 警告部
200、201、201a フレーム
210、211 フレーム
220、221、225、226 フレーム
227 画像
230 フレーム
240〜242、242a フレーム
260、261、270、271 フレーム
300、310 特徴点
311 追跡点
320、321 特徴点
330〜333 特徴点
340、341 特徴点
360、370 特徴点
410、420 対応点
440〜442 対応点
450、451 予測点
460、470 対応点
480 予測点
510 オプティカルフロー
540、541 オプティカルフロー
550、551 オプティカルフロー
560、570 オプティカルフロー
610、640 テンプレート
710、711、740、740a サーチ領域
810、820、840 サーチ範囲
900 ワイパー
901 フロントガラス
902、910、911 物体
940、960 物体
B 基線長
C コスト値
d シフト量
E 物体
EL エピポーラ線
f 焦点距離
Ia 基準画像
Ib 比較画像
Lr 経路コスト値
Ls 合成コスト値
S、Sa、Sb 点
Z、Z1、Z2 距離
Δ、Δ1 視差値
特許第4209647号公報

Claims (15)

  1. 2つの撮像手段のうち少なくとも一方の撮像手段により撮像された映像のフレームにおいて被写体の特徴点を抽出する抽出手段と、
    前記特徴点が写っているフレームの次のフレームで、該特徴点と一致する特徴点を検索するマッチング動作を行うマッチング手段と、
    前記マッチング動作の結果に基づいて、前記特徴点が前記次のフレームで消失したか否かを判定する判定手段と、
    前記判定手段によって前記特徴点が消失したと判定された場合、消失した前記特徴点を代替する代替点の動きに基づいて、消失した該特徴点の位置を予測した予測点を求める予測手段と、
    前記予測点に基づく点と、消失する前の前記特徴点とが一致する場合、該予測点に基づく点を、追跡対象である前記特徴点として復帰させる復帰手段と、
    を備えた画像処理装置。
  2. 前記予測手段は、消失する前の前記特徴点の位置から、前記代替点のオプティカルフローで指し示される位置を前記予測点とする請求項1に記載の画像処理装置。
  3. 前記マッチング手段は、前記特徴点を含む第1テンプレート画像と、前記次のフレームにおける第1探索範囲で一致する画像を探索することにより前記マッチング動作を行う請求項1または2に記載の画像処理装置。
  4. 前記判定手段は、前記次のフレームで、少なくとも所定距離よりも近い物体が前記第1探索範囲に含まれていると判定した場合、前記特徴点に対するオクルージョンによって該特徴点が消失したと判定する請求項3に記載の画像処理装置。
  5. 前記2つの撮像手段により撮像された各フレームの視差に基づいて、前記フレームに含まれる前記被写体までの距離を測定する測定手段と、
    前記抽出手段により抽出された複数の特徴点を、前記測定手段により測定された前記複数の特徴点までの各距離に基づいてグループに分類するする分類手段と、
    をさらに備え、
    前記予測手段は、前記判定手段によって特定の特徴点が消失したと判定された場合、消失した前記特定の特徴点と同じグループの特徴点のいずれかを前記代替点とする請求項1〜4のいずれか一項に記載の画像処理装置。
  6. 前記予測手段は、消失した前記特定の特徴点と同じグループの特徴点のうち、該特定の特徴点に最も近い特徴点を前記代替点とする請求項5に記載の画像処理装置。
  7. 前記抽出手段は、前記2つの撮像手段の双方で撮像された映像のフレームにおいて前記被写体の特徴点を抽出し、
    前記2つの撮像手段により撮像された各フレームの視差に基づいて、前記一方の撮像手段により撮像されたフレームの特徴点に対応する点を、他方の撮像手段により撮像されたフレームで特定する特定手段を、さらに備え、
    前記予測手段は、前記判定手段によって特定の特徴点が消失したと判定された場合、消失した前記特定の特徴点に対応する点として前記特定手段により特定された点を前記代替点とする請求項1〜4のいずれか一項に記載の画像処理装置。
  8. 前記復帰手段は、消失する前の前記特徴点を含む第2テンプレート画像と、前記予測点を含む第2探索範囲で一致する画像を探索し、該一致する画像を探索できた場合、該予測点に基づく点が、消失する前の前記特徴点と一致すると判定する請求項1〜7のいずれか一項に記載の画像処理装置。
  9. 前記復帰手段は、前記第2テンプレート画像と一致する画像を探索できなかった場合、前記第2探索範囲を広げて、再度、探索を行う請求項8に記載の画像処理装置。
  10. 前記復帰手段によって、前記予測点に基づく点と、消失する前の前記特徴点とが一致しなかったと判定された場合、前記予測手段による前記予測点を求める動作、および該復帰手段による前記特徴点の復帰動作を再度行う請求項1〜9のいずれか一項に記載の画像処理装置。
  11. 前記復帰手段は、前記予測点と、消失する前の前記特徴点とが一致する場合、該予測点を、追跡対象である前記特徴点として復帰させる請求項1〜10のいずれか一項に記載の画像処理装置。
  12. 前記復帰手段は、前記抽出手段により抽出された新たな特徴点のうち前記予測点に最も近い前記新たな特徴点と、消失する前の前記特徴点とが一致する場合、該予測点に最も近い該新たな特徴点を、追跡対象である前記特徴点として復帰させる請求項1〜10のいずれか一項に記載の画像処理装置。
  13. 前記復帰手段により、前記予測点に基づく点を、追跡対象である前記特徴点として復帰させることができない場合、警告を報知する報知手段を、さらに備えた請求項1〜12のいずれか一項に記載の画像処理装置。
  14. 2つの撮像手段のうち少なくとも一方の撮像手段により撮像された映像のフレームにおいて被写体の特徴点を抽出する抽出ステップと、
    前記特徴点が写っているフレームの次のフレームで、該特徴点と一致する特徴点を検索するマッチング動作を行うマッチングステップと、
    前記マッチング動作の結果に基づいて、前記特徴点が前記次のフレームで消失したか否かを判定する判定ステップと、
    前記特徴点が消失したと判定した場合、消失した前記特徴点を代替する代替点の動きに基づいて、消失した該特徴点の位置を予測した予測点を求める予測ステップと、
    前記予測点に基づく点と、消失する前の前記特徴点とが一致する場合、該予測点に基づく点を、追跡対象である前記特徴点として復帰させる復帰ステップと、
    を有する画像処理方法。
  15. 2つの撮像手段のうち少なくとも一方の撮像手段により撮像された映像のフレームにおいて被写体の特徴点を抽出する抽出手段と、
    前記特徴点が写っているフレームの次のフレームで、該特徴点と一致する特徴点を検索するマッチング動作を行うマッチング手段と、
    前記マッチング動作の結果に基づいて、前記特徴点が前記次のフレームで消失したか否かを判定する判定手段と、
    前記判定手段によって前記特徴点が消失したと判定された場合、消失した前記特徴点を代替する代替点の動きに基づいて、消失した該特徴点の位置を予測した予測点を求める予測手段と、
    前記予測点に基づく点と、消失する前の前記特徴点とが一致する場合、該予測点に基づく点を、追跡対象である前記特徴点として復帰させる復帰手段と、
    をコンピュータに実現させるためのプログラム。
JP2015030953A 2015-02-19 2015-02-19 画像処理装置、画像処理方法およびプログラム Pending JP2016152027A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015030953A JP2016152027A (ja) 2015-02-19 2015-02-19 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015030953A JP2016152027A (ja) 2015-02-19 2015-02-19 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2016152027A true JP2016152027A (ja) 2016-08-22

Family

ID=56695491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015030953A Pending JP2016152027A (ja) 2015-02-19 2015-02-19 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2016152027A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037479A1 (ja) * 2016-08-23 2018-03-01 株式会社日立製作所 画像処理装置、ステレオカメラ装置及び画像処理方法
JP2018151689A (ja) * 2017-03-09 2018-09-27 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
JPWO2018061927A1 (ja) * 2016-09-30 2019-06-24 日本電気株式会社 情報処理装置、情報処理方法およびプログラム記憶媒体
CN111383247A (zh) * 2018-12-29 2020-07-07 北京易讯理想科技有限公司 增强金字塔lk光流算法图像跟踪稳定性的方法
WO2021100681A1 (ja) * 2019-11-20 2021-05-27 パナソニックIpマネジメント株式会社 三次元モデル生成方法及び三次元モデル生成装置
CN113012216A (zh) * 2019-12-20 2021-06-22 舜宇光学(浙江)研究院有限公司 特征分类优化方法和slam定位方法及其***和电子设备
CN114750763A (zh) * 2022-04-22 2022-07-15 重庆长安汽车股份有限公司 一种场景重构的优化方法、电子设备及存储介质
JP2023047371A (ja) * 2021-09-27 2023-04-06 日本電気株式会社 魚検出装置、魚検出方法及びプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037479A1 (ja) * 2016-08-23 2018-03-01 株式会社日立製作所 画像処理装置、ステレオカメラ装置及び画像処理方法
JPWO2018037479A1 (ja) * 2016-08-23 2019-03-22 株式会社日立製作所 画像処理装置、ステレオカメラ装置及び画像処理方法
CN109643437A (zh) * 2016-08-23 2019-04-16 株式会社日立制作所 图像处理装置、立体照相机装置以及图像处理方法
JPWO2018061927A1 (ja) * 2016-09-30 2019-06-24 日本電気株式会社 情報処理装置、情報処理方法およびプログラム記憶媒体
US10803597B2 (en) 2017-03-09 2020-10-13 Canon Kabushiki Kaisha Image processing device, method for controlling the same, program, and storage medium
JP2018151689A (ja) * 2017-03-09 2018-09-27 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
CN111383247A (zh) * 2018-12-29 2020-07-07 北京易讯理想科技有限公司 增强金字塔lk光流算法图像跟踪稳定性的方法
WO2021100681A1 (ja) * 2019-11-20 2021-05-27 パナソニックIpマネジメント株式会社 三次元モデル生成方法及び三次元モデル生成装置
US11869146B2 (en) 2019-11-20 2024-01-09 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional model generation method and three-dimensional model generation device
CN113012216A (zh) * 2019-12-20 2021-06-22 舜宇光学(浙江)研究院有限公司 特征分类优化方法和slam定位方法及其***和电子设备
CN113012216B (zh) * 2019-12-20 2023-07-07 舜宇光学(浙江)研究院有限公司 特征分类优化方法和slam定位方法及其***和电子设备
JP2023047371A (ja) * 2021-09-27 2023-04-06 日本電気株式会社 魚検出装置、魚検出方法及びプログラム
JP7287430B2 (ja) 2021-09-27 2023-06-06 日本電気株式会社 魚検出装置、魚検出方法及びプログラム
CN114750763A (zh) * 2022-04-22 2022-07-15 重庆长安汽车股份有限公司 一种场景重构的优化方法、电子设备及存储介质

Similar Documents

Publication Publication Date Title
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
JP2016152027A (ja) 画像処理装置、画像処理方法およびプログラム
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
WO2017138245A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
JP6565188B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6597795B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6597792B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6589313B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6547841B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2017151535A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6516012B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6617150B2 (ja) 物体検出方法及び物体検出装置
JP6455164B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6543935B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP2016173795A (ja) 画像処理装置、画像処理方法およびプログラム
JP6561511B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム
JP6519138B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP2017167970A (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2007233487A (ja) 歩行者検出方法、装置、およびプログラム
JP6515547B2 (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム
JP2018151940A (ja) 障害物検出装置および障害物検出方法