JP2004259043A - 向き方向検出装置および向き方向検出方法 - Google Patents
向き方向検出装置および向き方向検出方法 Download PDFInfo
- Publication number
- JP2004259043A JP2004259043A JP2003049859A JP2003049859A JP2004259043A JP 2004259043 A JP2004259043 A JP 2004259043A JP 2003049859 A JP2003049859 A JP 2003049859A JP 2003049859 A JP2003049859 A JP 2003049859A JP 2004259043 A JP2004259043 A JP 2004259043A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual
- camera
- detection target
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】視線のような目の向き方向など、物体の向き方向を正確に検出することができる向き方向検出装置および向き方向検出方法を提供する。
【解決手段】第1カメラ11の正面を向いた顔をステレオカメラ1の両カメラ11,12で撮像し、エッジ画像作成部21でこのエッジ画像から初期エッジ画像を作成し、初期エッジ画像記憶部22に記憶しておく。この初期エッジ画像から、仮想カメラで撮像した状態の仮想画像を作成する。向き方向検出の際には、顔位置・姿勢計測部23において、ステレオカメラ2で撮像された画像のエッジ画像と、仮想画像との一致度を比較し、その一致度に基づいて仮想画像を撮像する仮想カメラの仮想位置を求め、第1カメラ11の位置と仮想位置との関係に基づいて、顔向き方向を検出する。
【選択図】 図1
【解決手段】第1カメラ11の正面を向いた顔をステレオカメラ1の両カメラ11,12で撮像し、エッジ画像作成部21でこのエッジ画像から初期エッジ画像を作成し、初期エッジ画像記憶部22に記憶しておく。この初期エッジ画像から、仮想カメラで撮像した状態の仮想画像を作成する。向き方向検出の際には、顔位置・姿勢計測部23において、ステレオカメラ2で撮像された画像のエッジ画像と、仮想画像との一致度を比較し、その一致度に基づいて仮想画像を撮像する仮想カメラの仮想位置を求め、第1カメラ11の位置と仮想位置との関係に基づいて、顔向き方向を検出する。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、顔の向き方向や目の視線方向など、検出対象物の向き方向を検出する向き方法検出装置および向き方向検出方法に関する。
【0002】
【従来の技術】
自動車を運転する運転者などの視線方向を非接触で検出する技術として、従来、たとえば特開平7−167618号公報に開示された技術がある。この技術は、赤外線カメラと運転者の距離を計測し、赤外線カメラとの距離関係が既知の視線計測用カメラで運転者の眼球を撮影する。視線計測用カメラで撮影された眼球の角膜反射像、瞳孔中心等の位置から視線方向を算出するものである。
【0003】
【特許文献1】
特開平7−167618号公報(4頁右欄、図1)
【0004】
【発明が解決しようとする課題】
しかし、上記特許文献1に開示された技術では、視線計測用カメラで1方向のみから撮影を行って目の視線方向を検出するものである。このため、正確な視線方向を検出しているとは言い難いものであった。
【0005】
そこで、本発明の課題は、視線のような目の向き方向など、物体の向き方向を正確に検出することができる向き方向検出装置および向き方向検出方法を提供することにある。
【0006】
【課題を解決するための手段】
上記課題を解決した本発明に係る向き方向検出装置は、検出対象物をそれぞれ撮像する第1撮像手段および第2撮像手段を備えるステレオカメラと、第1撮像手段で撮像された第1画像および第2撮像手段で撮像された第2画像から検出対象画像を作成する検出対象画像作成手段と、第1撮像手段および第2撮像手段のうちの少なくとも一方に対する検出対象物の向き方向が既知である第1画像および第2画像の基準画像をあらかじめ記憶しておく基準画像記憶手段と、基準画像に基づいて、検出対象物を任意の位置から撮像したときの仮想画像を作成する仮想画像作成手段と、検出対象画像と仮想画像とを比較し、検出対象画像と仮想画像との一致度に基づいて求められた仮想画像を撮像する仮想位置にある仮想撮像手段の仮想位置を求め、第1撮像手段の位置と、仮想撮像手段の仮想位置との位置関係に基づいて、検出対象物の向きを判断する向き方向判断手段と、を備えるものである。
【0007】
本発明に係る向き方向検出装置は、第1撮像手段または第2撮像手段に対する検出対象物の向きが既知、たとえば第1撮像手段に対して検出対象物が真正面を向いている基準画像を記憶している。また、基準画像に対して、検出対象物を任意の位置から撮像したときの仮想画像を作成し、検出対象物を撮像した際の画像と仮想画像を比較する。そして、その一致度が所定値以上、たとえば完全に一致したときにおける仮想画像を撮像する仮想カメラの仮想位置を算出する。この仮想位置と、基準画像を撮像する際に正面に位置する第1カメラとの位置関係から、検出対象物の向きを検出している。したがって、検出対象物の向きを高精度で検出することができる。
【0008】
ここで、検出対象物は、顔または目とする態様とすることができる。このように、検出対象物を顔や目とすることにより顔の向き方向や目の視線方向を確実に検出することができる。
【0009】
さらに、上記課題を解決した本発明の係る向き方向検出方法は、第1撮像手段および第2撮像手段によって、検出対象物を撮像する撮像工程と、第1撮像手段で撮像された第1画像および第2手段で撮像された第2画像とを合成することにより、任意の位置から撮像したときの仮想画像を生成する検出対象画像作成工程と、第1撮像手段および第2撮像手段のうちの少なくとも一方に対する検出対象物の向き方向が既知である第1画像および第2画像の基準画像をあらかじめ記憶しておく基準画像記憶工程と、基準画像に基づいて、検出対象物物を任意の位置から撮像したときの仮想画像を作成する仮想画像作成工程と、検出対象画像と仮想画像とを比較し、検出対象画像と仮想画像との一致度に基づいて求められた仮想画像を撮像する仮想位置にある仮想撮像手段の仮想位置を求め、第1撮像手段の位置と、仮想撮像手段の仮想位置との位置関係に基づいて、検出対象物の向きを判断する向き方向判断工程と、を含むものである。
【0010】
【発明の実施の形態】
以下、図面を参照して、本発明の好適な実施形態について詳細に説明する。なお、各実施形態において、同一の機能を有する部分については同一の符号を付し、重複する説明は省略することがある。
【0011】
図1は、本発明の実施形態に係る向き検出装置のブロック構成図である。図1に示すように、本実施形態に係る向き方向検出装置Dは、たとえば自動車の運転席に設けられ、運転者の顔向き方向および視線方向を検出するために用いられる。この向き方向検出装置Dは、ステレオカメラ1および画像処理装置2を有している。ステレオカメラ1は、第1撮像手段である第1カメラ11および第2撮像手段である第2カメラ12を備えている。第1カメラ11および第2カメラ12には、同期装置13が接続されており、それぞれ同期した状態で同一の対象物である顔や目を撮像するようになっている。これらの第1カメラ11および第2カメラ12は、内部パラメータおよび相対的な位置関係は既知であり、同期装置13で同期が取られた状態で検出対象物となる顔や目を含む画像を撮像する。
【0012】
また、画像処理装置2は、エッジ画像作成部21、初期エッジ画像記憶部22、および向き方向判断部23を備えている。
【0013】
本発明の検出対象画像作成手段であるエッジ画像作成部21は、ステレオカメラ1における第1カメラ11および第2カメラ12に接続されている。第1カメラ11は、その撮像画像である第1画像をエッジ画像作成部21に出力しており、第2カメラ12は、その撮像画像である第2画像をエッジ画像作成部21に出力している。エッジ画像作成部21では、検出対象物である、たとえば顔が第1カメラ11を正面から見たときの第1画像および第2画像にそれぞれ微分処理を施して、第1カメラ11に対する検出対象物の向きが正面と既知である基準画像となる初期エッジ画像を作成し、本発明の基準画像記憶手段である初期エッジ画像記憶部22に出力する。初期エッジ画像記憶部22では、この初期エッジ画像をあらかじめ記憶しておく。
【0014】
また、エッジ画像作成部21では、初期エッジ画像を作成した後、向き方向の検出を行う際には、第1カメラ11から出力される第1画像および第2カメラ12から出力される第2画像にそれぞれ微分処理を施して第1エッジ画像および第2エッジ画像を生成する。これらの第1エッジ画像および第2エッジ画像を向き方向判断部23に出力する。
【0015】
また、初期エッジ画像記憶部22は、本発明の向き方向判断手段である向き方向判断部23に接続されており、記憶している初期エッジ画像を向き方向判断部23に出力している。向き方向判断部23では初期エッジ画像記憶部22から出力された第1画像の初期エッジ画像および第2画像の初期エッジ画像を合成して、仮想の画像(以下「仮想画像」という)を作成する。この仮想画像は、検出対象物を仮想的な位置に配置されたカメラ(以下「仮想カメラ」という)で撮像したときの画像として擬似的に作成された画像をエッジ処理したものと同一の画像である。したがって、向き方向判断部23は、本発明の仮想画像作成手段としても働いている。向き方向判断部23では、エッジ画像作成部21から出力された第1エッジ画像および第2エッジ画像と、作成した仮想画像とを比較し、仮想画像と初期エッジ画像の一致度に応じて、検出対象物の向きを判断する。
【0016】
以上の構成を有する本実施形態に係る向き方向検出装置における向き方向検出方法について、主に図1および図2を参照して説明する。図2は、本実施形態に係る向き方向検出方法の手順を示すフローチャートである。本実施形態では、検出対象物を顔および目とし、顔向き方向および視線方向を検出する態様とする。
【0017】
図2に示すように、向き方向の検出を行う前準備段階として、まず、ステレオ画像対の初期値を設定する(S1)。ステレオ画像対の初期値画像とは、第1カメラ11に対して真正面を向いているときの位置・姿勢にある顔を第1カメラ11および第2カメラ12でそれぞれ撮像した2枚の画像である。このステレオカメラ画像対の初期値画像が、第1カメラ11および第2カメラ12からエッジ画像作成部21に出力され、エッジ画像作成部21では、ステレオカメラ画像対の初期値画像をそれぞれ微分処理し、基準画像となる初期エッジ画像を作成する(S2)。
【0018】
初期エッジ画像を作成したら、この初期エッジ画像から顔の輪郭エッジ画像および黒目の輪郭エッジ画像と、それ以外の画像とを分離し、それぞれ顔エッジ画像および黒目エッジ画像に分離する。そして、それらの顔エッジ画像および黒目エッジ画像を初期エッジ画像記憶部22に出力し、初期エッジ画像記憶部22に記憶させておく。また、各エッジ画像における顔の輪郭をなすエッジ部分および目の輪郭をなすエッジ部分のそれぞれにおける任意の位置を特徴点とし、その特徴点の座標を計測しておく。
【0019】
この前準備段階を終えたら、顔向き方向および視線方向の検出が開始される。向き方向の検出が開始されると、まず、ステップS1と同様の手順により、第1カメラ11および第2カメラ12で顔画像を撮像し、顔画像の第1画像および第2画像からなるステレオ対画像を取得する(S3)。ステレオ対画像を取得したら、このステレオ対画像をエッジ画像作成部21に出力する。エッジ画像作成部21では、これらのステレオ対画像のそれぞれに微分処理を施して第1エッジ画像および第2エッジ画像を生成し(S4)、これらのエッジ画像から顔の輪郭エッジおよび目の輪郭エッジを分離する。
【0020】
顔の輪郭エッジを抽出した顔エッジ画像は、たとえば肌色領域と他色領域の境目となる一連のエッジを抽出することによって生成される。また黒目の輪郭エッジを抽出した黒目エッジ画像は次のようにして生成することができる。
【0021】
まず、図3(a)に示す画像G中における白色に近い色の領域だけを抽出するように、画像を白で二値化してエッジ処理を施し、図3(b)に示すように白目を抽出した白色エッジ画像WGを生成する。この白色エッジ画像WGに対して、白色部分をわずかに膨張させる膨張処理を施し、図3(c)に示す白色膨張エッジ画像WEGを生成する。このような白での二値化処理を行う一方、図3(d)に示すように、黒色に近い色の領域だけを抽出するように、画像を黒で二値化してエッジ処理を施し、図3(d)に示すように黒目を抽出した黒色エッジ画像BGを生成する。この黒色エッジ画像BGに対して、白色部分を膨張させる膨張処理を施し、図3(e)に示す黒色膨張エッジ画像BEGを生成する。そして、それぞれ膨張処理を施して得られた白色膨張エッジ画像WEGおよび黒色膨張エッジ画像BEG間で、同じ座標同士の画素でAND演算を行う。その結果、図3(f)に示すように、有意となった画素が輪郭エッジとなるエッジ画像EGが生成され、このエッジ画像から黒目の輪郭エッジを抽出することができる。なお、白色エッジ画像および黒色エッジ画像におけるそれぞれ白色部分を膨張させる処理を施しているが、その一方のみを白色膨張させて、AND演算する態様とすることなどもできる。
【0022】
こうして、顔のエッジを抽出した顔エッジ画像および黒目の輪郭エッジを抽出した黒目エッジ画像を生成したら、エッジ画像作成部21は、これらのエッジ画像を向き方向判断部23に出力する。他方、初期エッジ画像記憶部22は初期エッジ画像を向き方向判断部23に出力する。向き方向判断部23では、エッジ画像作成部21から出力された顔エッジ画像と初期エッジ画像記憶部22から出力された初期エッジ画像を比較して、顔向き方向を検出する(S5)。
【0023】
顔向き方向の検出の際には、まずステップS4で取得した顔エッジ画像と両カメラ11,12の内部・外部パラメータにより決定されるエピポーラ拘束に基づいて、顔の姿勢・位置の計測を行う。顔の姿勢・位置の計測を行うために、ステップS1で設定した2枚のステレオ画像対を使って、仮想カメラから撮像して得られる仮想画像を、たとえばフレームごとに擬似的に複数枚作成する。この複数枚の仮想画像における各エッジ部分の二次的な座標と、ステップS4で算出した顔エッジ画像の部分の座標との一致度(類似度)に基づいて、顔の姿勢・位置を推定する。
【0024】
図4は、第1カメラ、第2カメラ、および仮想カメラを含めた系の配置構成を示す配置構成図である。図4において、検出対象の三次元座標Mと設定する。また、第1カメラ11の光学中心をC1と設定し、第2カメラ12の光学中心をC2と設定している。さらに、第1画像上の検出対象のMの像の座標をm1、第2画像上の検出対象のMの像の座標をm2と設定し、仮想カメラVの画像上のMの像の座標をmvと設定している。また、第1カメラ11の内部パラメータをA1と設定し、第2カメラ12の内部パラメータをA2と設定している。さらに、第1カメラ11の座標系でのMの座標をx1と設定し、第2カメラ12の座標系でのMの座標をx2と設定している。また、第1カメラ11の座標系から仮想カメラVの座標系への並進ベクトルをt1と設定し、第2カメラ12の座標系から仮想カメラVの座標系へに並進ベクトルをt2と設定し、第1カメラの座標系から第2カメラ12の座標系への並進ベクトルをtと設定している。さらに、第1カメラ11の座標系から仮想カメラVの座標系への回転行列をR1と設定し、第2カメラ12の座標系から仮想カメラVの座標系への回転行列をR2と設定し、第1カメラ11の座標系から第2カメラ12の座標系への回転ベクトルをR3と設定している。
【0025】
図4に示す位置関係を考慮して、下記(1)式、(2)式からなるエピポーラ拘束式を用いると、仮想カメラVで撮像された仮想画像上で三次元空間上の点Mが結像する位置が特定される。
【0026】
【数1】
(1)式および(2)式において、「各エッジ点の二次元画像上での第1カメラ11および第2カメラ12の対応が既知であること」を仮定し、さらに「第1,第2カメラ11,12のキャリブレーションが済んでいる」とすれば、未知数はnv Tのみである。さらに、nv Tを構成しているのは、仮想画像上での水平・垂直方向の座標である。つまり、(1)式および(2)式はそれぞれ仮想画像上での直線の式を表している。さらに、これらの2式は、第1カメラ11と仮想カメラV、および第2カメラ12と仮想カメラVのエピポーラ直線である。よって、たとえば第1画像上の点n1を指定し、仮想画像上でnv Tを変数とすると、(1)式で表される直線上に対応する点がのっていることが保証される。そして、これらの2直線を決めるために座標n1,n2を与え、それら2直線が仮想カメラ画像上で交われば、その交点が仮想画像上での結像位置として特定されることになる。
【0027】
実際にn1,n2の対応は以下のようにして求められる。いま、第1カメラ11および第2カメラ12のそれぞれの外部パラメータおよび内部パラメータから、ステップS4で作成した顔エッジ画像のうち、第1エッジ画像上の任意の1点を特定点として選択する。すると、その特定点に対応する第2エッジ画像上における対応点の候補となる点は、エピポーラ直線上の点にある点となる。さらに、第2エッジ画像とエピポーラ直線とは交点を持っているので、対応点の候補となる点は、それらの唯一、または複数の交点に絞られる。
【0028】
ここで、エピポーラ直線と第2エッジ画像の交点が唯一である場合にはその交点が対応点となる。一方、交点が複数存在した場合には、それらのどれかが対応点となり、その中から対応点を選択することになる。
【0029】
これら複数の対応点の候補となる点の座標から、ステップS1で取得した輝度画像上で対応する座標周辺の特徴量、たとえば輝度値を用いて1点に特定する。対応点を特定するためには、第1エッジ画像における特定点の周囲の輝度分布および第2エッジ画像における対応点の候補となる各点の周囲の輝度分布を検出する。そして、たとえば下記(3)式に示す評価式に基づいて、対応点の候補となる各点の輝度分布を評価し、特定点の周囲の輝度分布に最も近い輝度分布を周囲に有する対応点の候補となる点を対応点として決定することができる。
【0030】
【数2】
こうして、n1,n2の対応が求められると、n1,n2の対応を利用して、ステップS2で計測された特徴点ごとに第1画像と第2画像の各座標からエピポーラ直線を決定し、それらの仮想画像上での交点を求める。このようにして決定した仮想画像上における特徴点に対応するエッジ点の座標と、第1画像から生成された初期エッジ画像の特徴点の座標とを、下記(4)式に基づいて比較する。
【0031】
【数3】
このような比較を複数枚作成された各仮想画像について行う。その結果、位置誤差が最小になった位置が、真正面を向く姿勢となる顔を撮像する仮想カメラVの仮想位置となる。この仮想位置を、第1カメラ11の位置に対する回転・推進量をもって特定することができる。
【0032】
ところで、ここで算出された回転・並進量はあくまで初期の顔・位置姿勢に対して仮想カメラを動かすことで、現在の第1カメラ11と顔との相対的な位置関係を満足させる回転・並進量である。図5(a)は、顔向きの検出を行っている際の第1カメラと仮想カメラと顔との配置関係を示す図、(b)は、(a)と同じ画像を撮像し、顔向き方向を回転・並進させた後の第1カメラと顔との配置関係を示す図である。
【0033】
図5(a)に示すように、顔向き検出を行っている際に、顔Fが仮想カメラVの方向を向いていることが検出できたとする。ここで、下記(5)式に(4)式で求めた第1カメラ11の座標系に対する仮想カメラVの座標系の回転・並進量R*,t*を代入して仮想カメラVの座標系を回転・並進させる。
【0034】
xv(0)=R*・x1(0)+t* ・・・(5)
この(5)式によって仮想カメラVの座標を回転・並進させることにより、図5(b)に示すように、仮想カメラVで撮像した顔画像と第1カメラ11で顔を撮像した二次元画像とが一致する。また、この(5)式に対して、仮想カメラVを動かしたのと逆の運動を行えば、顔Fに関して、第1カメラ11で同じ画像が得られることになる。したがって、(6)式によって、仮想カメラVの画像を第1カメラ11の座標系に変えて、仮想カメラVで撮像した顔画像と、第1カメラ11で撮像した顔画像とを一致させることができる。
【0035】
x1(0)=R*−1・xv(0)−R*−1・T* ・・・(6)
(6)式により、顔の回転・並進運動は、R*−1、−R*−1・T*で行われたことになる。このようにして、顔の向き方向を検出することができる。
【0036】
なお、同時に得られる画像が2枚存在し、上で述べたように第1カメラ11での画像に合わせるようにするのと同様に、第2カメラ12の画像との誤差を同時に評価すれば、より多くの点での誤差を評価できることになり、顔の向き方向の検出精度を向上させることができる。
【0037】
こうして、顔向き方向の検出が済んだら、視線方向の検出が行われる(S6)。以下に、視線方向の検出について説明する。
【0038】
検出対象となる目は、初期画像として得られる2枚のステレオ画像のうち、第1カメラ11を真正面から覗いている。したがって、ステップS1における初期値の設定の段階での第1カメラ11での黒目形状が、黒目を真正面から見た形状となっている。仮想画像を作成した際、このときと同じ黒目形状の画像があれば、それが視線の向いているものとなる。
【0039】
視線方向を検出する際には、ステレオ対の画像を使って仮想カメラから撮像した仮想画像を擬似的に複数枚作成する。この複数の仮想画像における各エッジ部分の二次的な座標と、ステップS4で算出した黒目輪郭エッジの座標との一致度(類似度)に基づいて、視線方向を推定する。ここで、仮想カメラの内部パラメータは、第1カメラ11と同じとし、(1)式、(2)式のエピポーラ拘束式を用いて、仮想画像上で三次元空間上の点Mが結像する場所を特定する。
【0040】
上記(1)式および(2)式において、あらかじめ「各エッジ点の二次元画像上での第1カメラ11、第2カメラ12の対応が既知であること」「カメラのキャリブレーションが終わっていること」から、未知数はnv Tとなる。さらに、nv Tを構成しているのは、仮想カメラ画像上での水平・垂直方向の座標である。したがって、(1)式および(2)式はそれぞれ仮想カメラ画像上での直線の式を表している。さらに、(1)式および(2)式は、それぞれ「第1カメラ11と仮想カメラ」および「第2カメラ12と仮想カメラ」の間のエピポーラ直線を表している。よって、たとえば第1カメラ11上の点n1を指定すると、仮想カメラ上でnv Tを変数とする(2)式の直線上に対応する点がのっていることが保証される。そして、これらの2直線を決めるために、n1,n2を与え、それら2直線が仮想画像上で交われば、その交点が仮想画像上での結像画像として特定されることになる。
【0041】
このことを利用して、輪郭上で各点ごとに第1エッジ画像と第2エッジ画像の各座標からエピポーラ直線を決定し、それらの仮想画像上での交点を求める。なお、第1エッジ画像と第2エッジ画像間での黒目輪郭上の点の対応は、黒目輪郭がエッジであることから、直線とエッジの交点が2点に限定され、さらに、2点のどちらが対応点であるかどうかは、黒目の左側か、右側かで判定できるので、その判断は容易なものとなる。
【0042】
このようにして決定した仮想画像上での各黒目輪郭上の点の座標とステップS3で得られた画像上における各輪郭上の点の座標を比較する。その比較は、たとえば(4)式で行うことができる。
【0043】
このような比較を複数枚作成された各仮想画像のそれぞれについて行う。その結果、位置誤差が最小になった位置、特に、位置誤差が0である位置が、視線方向の先にある仮想カメラVの位置として、第1カメラ11の位置に対する回転・推進量をもって特定することができる。
【0044】
ところで、ここで算出された回転・並進量は、あくまで仮想カメラを動かすことで、初期の目の形状と一致または類似する形状を見つけるための回転・並進量である。図6(a)は、視線方向の検出を行っている際の第1カメラと顔(目)との配置関係を示す図、(b)は、(a)と同じ画像を撮像し、視線方向を回転・並進させた後の第1カメラと仮想カメラと顔(目)との配置関係を示す図である。
【0045】
図6(a)に示すように、視線方向の検出を行っている際に、顔Fにおける目Eの視線方向が仮想カメラVの方向を向いていることが検出できたとする。(4)式で算出した回転・並進量R*,t*に対して、初期状態での黒目は、第1カメラ11を覗き込んでいるので、三次元的には黒目から原点を結ぶ視線を持っている。同様に、仮想画像でも初期状態での見え方と同じ画像になっているということは、原点を相対的に同じ位置から見ていることになっているはずである。よって、その仮想カメラが位置する仮想位置での原点と三次元的な黒目の位置を結ぶベクトルが視線方向となる。仮想カメラVの回転・並進量をR*,t*とすると、(7)式により仮想カメラVの座標を第1カメラ11の座標に変換することができる。
【0046】
xv(k)=R*・x1(k)+t* ・・・(7)
この(7)式によって仮想カメラVの座標を回転・並進させることにより、図6(b)に示すように、仮想カメラVで撮像した目Eの画像と第1カメラ11で撮影した目Eの画像とが一致する。上記(7)式は、仮想カメラの原点位置が、並進移動量の分だけ第1カメラ11の原点位置から移動していることを表している。したがって、(8)式および(9)式で表される黒目の三次元座標をステレオ処理により算出し、座標t*から黒目中心の三次元座標に向かう方向を視線方向として検出することができる。
【0047】
【数4】
このようにして黒目の三次元座標を算出することにより、目Eの視線方向検出することができる。
【0048】
このように、本実施形態に係る向き方向検出においては、基準画像から求められる仮想画像と、検出対象となる顔や目を撮像して得られた画像とを比較し、その一致度が高い仮想画像と基準画像との位置関係から、顔向き方向および視線方向を検出している。このため、高い精度で顔向き方向および視線方向の検出を行うことができる。
【0049】
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。たとえば、上記実施形態では向き方向の検出として、顔向き方向および視線方向の両方を検出するようにしているが、たとえば顔向き方向のみ、あるいは視線方向のみの検出とすることができる。また、上記実施形態では、前段階においてあらかじめ準備する基準画像として、第1カメラで検出対象となる人の顔を最初に撮像する態様としているが、たとえば一般的な人の顔の平均的な形状等をとって、これを基準画像とする態様とすることもできる。ただし、高精度を求めるならば、本実施形態のように、検出対象に対応する画像を最初に撮像するのが望ましい。さらには、上記実施形態では、向き方向検出装置を自動車に設ける例について説明したが、パソコンや家電製品などをはじめあらゆる装置の指令デバイスとして用いることもできる。
【0050】
【発明の効果】
以上のとおり、本発明によれば、視線のような目の向き方向など、物体の向き方向を正確に検出することができる向き方向検出装置および向き方向検出方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る向き検出装置のブロック構成図である。
【図2】本実施形態に係る向き方向検出方法の手順を示すフローチャートである。
【図3】(a)は撮像手段で撮像した目の模式図、(b)は(a)の画像を白色で二値化してエッジ処理した白色エッジ画像の模式図、(c)は(b)の白色部分を膨張させた膨張処理を施した白色膨張エッジ画像の模式図、(d)は(a)の画像を黒色で二値化してエッジ処理した黒色エッジ画像の模式図、(e)は(d)の白色部分を膨張させた膨張処理を施した黒色膨張エッジ画像の模式図、(f)は(c)の画像と(e)の画像をAND演算して得られたエッジ画像の模式図である。
【図4】第1カメラ、第2カメラ、および仮想カメラを含めた系の配置構成を示す配置構成図である。
【図5】(a)は、顔向きの検出を行っている際の第1カメラと仮想カメラと顔との配置関係を示す図、(b)は、(a)と同じ画像を撮像し、顔向き方向を回転・並進させた後の第1カメラと顔との配置関係を示す図である。
【図6】(a)は、視線方向の検出を行っている際の第1カメラと顔(目)との配置関係を示す図、(b)は、(a)と同じ画像を撮像し、視線方向を回転・並進させた後の第1カメラと仮想カメラと顔(目)との配置関係を示す図である。
【符号の説明】
1…ステレオカメラ、2…画像処理装置、11…第1カメラ、12…第2カメラ、13…同期装置、21…エッジ画像作成部、22…初期エッジ画像記憶部、23…向き方向判断部、D…向き方向検出装置、G…画像、WG…白色エッジ画像、WEG…白色膨張エッジ画像、BG…黒色エッジ画像、BEG…黒色膨張エッジ画像、E…目、EG…エッジ画像、F…顔、V…仮想カメラ。
【発明の属する技術分野】
本発明は、顔の向き方向や目の視線方向など、検出対象物の向き方向を検出する向き方法検出装置および向き方向検出方法に関する。
【0002】
【従来の技術】
自動車を運転する運転者などの視線方向を非接触で検出する技術として、従来、たとえば特開平7−167618号公報に開示された技術がある。この技術は、赤外線カメラと運転者の距離を計測し、赤外線カメラとの距離関係が既知の視線計測用カメラで運転者の眼球を撮影する。視線計測用カメラで撮影された眼球の角膜反射像、瞳孔中心等の位置から視線方向を算出するものである。
【0003】
【特許文献1】
特開平7−167618号公報(4頁右欄、図1)
【0004】
【発明が解決しようとする課題】
しかし、上記特許文献1に開示された技術では、視線計測用カメラで1方向のみから撮影を行って目の視線方向を検出するものである。このため、正確な視線方向を検出しているとは言い難いものであった。
【0005】
そこで、本発明の課題は、視線のような目の向き方向など、物体の向き方向を正確に検出することができる向き方向検出装置および向き方向検出方法を提供することにある。
【0006】
【課題を解決するための手段】
上記課題を解決した本発明に係る向き方向検出装置は、検出対象物をそれぞれ撮像する第1撮像手段および第2撮像手段を備えるステレオカメラと、第1撮像手段で撮像された第1画像および第2撮像手段で撮像された第2画像から検出対象画像を作成する検出対象画像作成手段と、第1撮像手段および第2撮像手段のうちの少なくとも一方に対する検出対象物の向き方向が既知である第1画像および第2画像の基準画像をあらかじめ記憶しておく基準画像記憶手段と、基準画像に基づいて、検出対象物を任意の位置から撮像したときの仮想画像を作成する仮想画像作成手段と、検出対象画像と仮想画像とを比較し、検出対象画像と仮想画像との一致度に基づいて求められた仮想画像を撮像する仮想位置にある仮想撮像手段の仮想位置を求め、第1撮像手段の位置と、仮想撮像手段の仮想位置との位置関係に基づいて、検出対象物の向きを判断する向き方向判断手段と、を備えるものである。
【0007】
本発明に係る向き方向検出装置は、第1撮像手段または第2撮像手段に対する検出対象物の向きが既知、たとえば第1撮像手段に対して検出対象物が真正面を向いている基準画像を記憶している。また、基準画像に対して、検出対象物を任意の位置から撮像したときの仮想画像を作成し、検出対象物を撮像した際の画像と仮想画像を比較する。そして、その一致度が所定値以上、たとえば完全に一致したときにおける仮想画像を撮像する仮想カメラの仮想位置を算出する。この仮想位置と、基準画像を撮像する際に正面に位置する第1カメラとの位置関係から、検出対象物の向きを検出している。したがって、検出対象物の向きを高精度で検出することができる。
【0008】
ここで、検出対象物は、顔または目とする態様とすることができる。このように、検出対象物を顔や目とすることにより顔の向き方向や目の視線方向を確実に検出することができる。
【0009】
さらに、上記課題を解決した本発明の係る向き方向検出方法は、第1撮像手段および第2撮像手段によって、検出対象物を撮像する撮像工程と、第1撮像手段で撮像された第1画像および第2手段で撮像された第2画像とを合成することにより、任意の位置から撮像したときの仮想画像を生成する検出対象画像作成工程と、第1撮像手段および第2撮像手段のうちの少なくとも一方に対する検出対象物の向き方向が既知である第1画像および第2画像の基準画像をあらかじめ記憶しておく基準画像記憶工程と、基準画像に基づいて、検出対象物物を任意の位置から撮像したときの仮想画像を作成する仮想画像作成工程と、検出対象画像と仮想画像とを比較し、検出対象画像と仮想画像との一致度に基づいて求められた仮想画像を撮像する仮想位置にある仮想撮像手段の仮想位置を求め、第1撮像手段の位置と、仮想撮像手段の仮想位置との位置関係に基づいて、検出対象物の向きを判断する向き方向判断工程と、を含むものである。
【0010】
【発明の実施の形態】
以下、図面を参照して、本発明の好適な実施形態について詳細に説明する。なお、各実施形態において、同一の機能を有する部分については同一の符号を付し、重複する説明は省略することがある。
【0011】
図1は、本発明の実施形態に係る向き検出装置のブロック構成図である。図1に示すように、本実施形態に係る向き方向検出装置Dは、たとえば自動車の運転席に設けられ、運転者の顔向き方向および視線方向を検出するために用いられる。この向き方向検出装置Dは、ステレオカメラ1および画像処理装置2を有している。ステレオカメラ1は、第1撮像手段である第1カメラ11および第2撮像手段である第2カメラ12を備えている。第1カメラ11および第2カメラ12には、同期装置13が接続されており、それぞれ同期した状態で同一の対象物である顔や目を撮像するようになっている。これらの第1カメラ11および第2カメラ12は、内部パラメータおよび相対的な位置関係は既知であり、同期装置13で同期が取られた状態で検出対象物となる顔や目を含む画像を撮像する。
【0012】
また、画像処理装置2は、エッジ画像作成部21、初期エッジ画像記憶部22、および向き方向判断部23を備えている。
【0013】
本発明の検出対象画像作成手段であるエッジ画像作成部21は、ステレオカメラ1における第1カメラ11および第2カメラ12に接続されている。第1カメラ11は、その撮像画像である第1画像をエッジ画像作成部21に出力しており、第2カメラ12は、その撮像画像である第2画像をエッジ画像作成部21に出力している。エッジ画像作成部21では、検出対象物である、たとえば顔が第1カメラ11を正面から見たときの第1画像および第2画像にそれぞれ微分処理を施して、第1カメラ11に対する検出対象物の向きが正面と既知である基準画像となる初期エッジ画像を作成し、本発明の基準画像記憶手段である初期エッジ画像記憶部22に出力する。初期エッジ画像記憶部22では、この初期エッジ画像をあらかじめ記憶しておく。
【0014】
また、エッジ画像作成部21では、初期エッジ画像を作成した後、向き方向の検出を行う際には、第1カメラ11から出力される第1画像および第2カメラ12から出力される第2画像にそれぞれ微分処理を施して第1エッジ画像および第2エッジ画像を生成する。これらの第1エッジ画像および第2エッジ画像を向き方向判断部23に出力する。
【0015】
また、初期エッジ画像記憶部22は、本発明の向き方向判断手段である向き方向判断部23に接続されており、記憶している初期エッジ画像を向き方向判断部23に出力している。向き方向判断部23では初期エッジ画像記憶部22から出力された第1画像の初期エッジ画像および第2画像の初期エッジ画像を合成して、仮想の画像(以下「仮想画像」という)を作成する。この仮想画像は、検出対象物を仮想的な位置に配置されたカメラ(以下「仮想カメラ」という)で撮像したときの画像として擬似的に作成された画像をエッジ処理したものと同一の画像である。したがって、向き方向判断部23は、本発明の仮想画像作成手段としても働いている。向き方向判断部23では、エッジ画像作成部21から出力された第1エッジ画像および第2エッジ画像と、作成した仮想画像とを比較し、仮想画像と初期エッジ画像の一致度に応じて、検出対象物の向きを判断する。
【0016】
以上の構成を有する本実施形態に係る向き方向検出装置における向き方向検出方法について、主に図1および図2を参照して説明する。図2は、本実施形態に係る向き方向検出方法の手順を示すフローチャートである。本実施形態では、検出対象物を顔および目とし、顔向き方向および視線方向を検出する態様とする。
【0017】
図2に示すように、向き方向の検出を行う前準備段階として、まず、ステレオ画像対の初期値を設定する(S1)。ステレオ画像対の初期値画像とは、第1カメラ11に対して真正面を向いているときの位置・姿勢にある顔を第1カメラ11および第2カメラ12でそれぞれ撮像した2枚の画像である。このステレオカメラ画像対の初期値画像が、第1カメラ11および第2カメラ12からエッジ画像作成部21に出力され、エッジ画像作成部21では、ステレオカメラ画像対の初期値画像をそれぞれ微分処理し、基準画像となる初期エッジ画像を作成する(S2)。
【0018】
初期エッジ画像を作成したら、この初期エッジ画像から顔の輪郭エッジ画像および黒目の輪郭エッジ画像と、それ以外の画像とを分離し、それぞれ顔エッジ画像および黒目エッジ画像に分離する。そして、それらの顔エッジ画像および黒目エッジ画像を初期エッジ画像記憶部22に出力し、初期エッジ画像記憶部22に記憶させておく。また、各エッジ画像における顔の輪郭をなすエッジ部分および目の輪郭をなすエッジ部分のそれぞれにおける任意の位置を特徴点とし、その特徴点の座標を計測しておく。
【0019】
この前準備段階を終えたら、顔向き方向および視線方向の検出が開始される。向き方向の検出が開始されると、まず、ステップS1と同様の手順により、第1カメラ11および第2カメラ12で顔画像を撮像し、顔画像の第1画像および第2画像からなるステレオ対画像を取得する(S3)。ステレオ対画像を取得したら、このステレオ対画像をエッジ画像作成部21に出力する。エッジ画像作成部21では、これらのステレオ対画像のそれぞれに微分処理を施して第1エッジ画像および第2エッジ画像を生成し(S4)、これらのエッジ画像から顔の輪郭エッジおよび目の輪郭エッジを分離する。
【0020】
顔の輪郭エッジを抽出した顔エッジ画像は、たとえば肌色領域と他色領域の境目となる一連のエッジを抽出することによって生成される。また黒目の輪郭エッジを抽出した黒目エッジ画像は次のようにして生成することができる。
【0021】
まず、図3(a)に示す画像G中における白色に近い色の領域だけを抽出するように、画像を白で二値化してエッジ処理を施し、図3(b)に示すように白目を抽出した白色エッジ画像WGを生成する。この白色エッジ画像WGに対して、白色部分をわずかに膨張させる膨張処理を施し、図3(c)に示す白色膨張エッジ画像WEGを生成する。このような白での二値化処理を行う一方、図3(d)に示すように、黒色に近い色の領域だけを抽出するように、画像を黒で二値化してエッジ処理を施し、図3(d)に示すように黒目を抽出した黒色エッジ画像BGを生成する。この黒色エッジ画像BGに対して、白色部分を膨張させる膨張処理を施し、図3(e)に示す黒色膨張エッジ画像BEGを生成する。そして、それぞれ膨張処理を施して得られた白色膨張エッジ画像WEGおよび黒色膨張エッジ画像BEG間で、同じ座標同士の画素でAND演算を行う。その結果、図3(f)に示すように、有意となった画素が輪郭エッジとなるエッジ画像EGが生成され、このエッジ画像から黒目の輪郭エッジを抽出することができる。なお、白色エッジ画像および黒色エッジ画像におけるそれぞれ白色部分を膨張させる処理を施しているが、その一方のみを白色膨張させて、AND演算する態様とすることなどもできる。
【0022】
こうして、顔のエッジを抽出した顔エッジ画像および黒目の輪郭エッジを抽出した黒目エッジ画像を生成したら、エッジ画像作成部21は、これらのエッジ画像を向き方向判断部23に出力する。他方、初期エッジ画像記憶部22は初期エッジ画像を向き方向判断部23に出力する。向き方向判断部23では、エッジ画像作成部21から出力された顔エッジ画像と初期エッジ画像記憶部22から出力された初期エッジ画像を比較して、顔向き方向を検出する(S5)。
【0023】
顔向き方向の検出の際には、まずステップS4で取得した顔エッジ画像と両カメラ11,12の内部・外部パラメータにより決定されるエピポーラ拘束に基づいて、顔の姿勢・位置の計測を行う。顔の姿勢・位置の計測を行うために、ステップS1で設定した2枚のステレオ画像対を使って、仮想カメラから撮像して得られる仮想画像を、たとえばフレームごとに擬似的に複数枚作成する。この複数枚の仮想画像における各エッジ部分の二次的な座標と、ステップS4で算出した顔エッジ画像の部分の座標との一致度(類似度)に基づいて、顔の姿勢・位置を推定する。
【0024】
図4は、第1カメラ、第2カメラ、および仮想カメラを含めた系の配置構成を示す配置構成図である。図4において、検出対象の三次元座標Mと設定する。また、第1カメラ11の光学中心をC1と設定し、第2カメラ12の光学中心をC2と設定している。さらに、第1画像上の検出対象のMの像の座標をm1、第2画像上の検出対象のMの像の座標をm2と設定し、仮想カメラVの画像上のMの像の座標をmvと設定している。また、第1カメラ11の内部パラメータをA1と設定し、第2カメラ12の内部パラメータをA2と設定している。さらに、第1カメラ11の座標系でのMの座標をx1と設定し、第2カメラ12の座標系でのMの座標をx2と設定している。また、第1カメラ11の座標系から仮想カメラVの座標系への並進ベクトルをt1と設定し、第2カメラ12の座標系から仮想カメラVの座標系へに並進ベクトルをt2と設定し、第1カメラの座標系から第2カメラ12の座標系への並進ベクトルをtと設定している。さらに、第1カメラ11の座標系から仮想カメラVの座標系への回転行列をR1と設定し、第2カメラ12の座標系から仮想カメラVの座標系への回転行列をR2と設定し、第1カメラ11の座標系から第2カメラ12の座標系への回転ベクトルをR3と設定している。
【0025】
図4に示す位置関係を考慮して、下記(1)式、(2)式からなるエピポーラ拘束式を用いると、仮想カメラVで撮像された仮想画像上で三次元空間上の点Mが結像する位置が特定される。
【0026】
【数1】
(1)式および(2)式において、「各エッジ点の二次元画像上での第1カメラ11および第2カメラ12の対応が既知であること」を仮定し、さらに「第1,第2カメラ11,12のキャリブレーションが済んでいる」とすれば、未知数はnv Tのみである。さらに、nv Tを構成しているのは、仮想画像上での水平・垂直方向の座標である。つまり、(1)式および(2)式はそれぞれ仮想画像上での直線の式を表している。さらに、これらの2式は、第1カメラ11と仮想カメラV、および第2カメラ12と仮想カメラVのエピポーラ直線である。よって、たとえば第1画像上の点n1を指定し、仮想画像上でnv Tを変数とすると、(1)式で表される直線上に対応する点がのっていることが保証される。そして、これらの2直線を決めるために座標n1,n2を与え、それら2直線が仮想カメラ画像上で交われば、その交点が仮想画像上での結像位置として特定されることになる。
【0027】
実際にn1,n2の対応は以下のようにして求められる。いま、第1カメラ11および第2カメラ12のそれぞれの外部パラメータおよび内部パラメータから、ステップS4で作成した顔エッジ画像のうち、第1エッジ画像上の任意の1点を特定点として選択する。すると、その特定点に対応する第2エッジ画像上における対応点の候補となる点は、エピポーラ直線上の点にある点となる。さらに、第2エッジ画像とエピポーラ直線とは交点を持っているので、対応点の候補となる点は、それらの唯一、または複数の交点に絞られる。
【0028】
ここで、エピポーラ直線と第2エッジ画像の交点が唯一である場合にはその交点が対応点となる。一方、交点が複数存在した場合には、それらのどれかが対応点となり、その中から対応点を選択することになる。
【0029】
これら複数の対応点の候補となる点の座標から、ステップS1で取得した輝度画像上で対応する座標周辺の特徴量、たとえば輝度値を用いて1点に特定する。対応点を特定するためには、第1エッジ画像における特定点の周囲の輝度分布および第2エッジ画像における対応点の候補となる各点の周囲の輝度分布を検出する。そして、たとえば下記(3)式に示す評価式に基づいて、対応点の候補となる各点の輝度分布を評価し、特定点の周囲の輝度分布に最も近い輝度分布を周囲に有する対応点の候補となる点を対応点として決定することができる。
【0030】
【数2】
こうして、n1,n2の対応が求められると、n1,n2の対応を利用して、ステップS2で計測された特徴点ごとに第1画像と第2画像の各座標からエピポーラ直線を決定し、それらの仮想画像上での交点を求める。このようにして決定した仮想画像上における特徴点に対応するエッジ点の座標と、第1画像から生成された初期エッジ画像の特徴点の座標とを、下記(4)式に基づいて比較する。
【0031】
【数3】
このような比較を複数枚作成された各仮想画像について行う。その結果、位置誤差が最小になった位置が、真正面を向く姿勢となる顔を撮像する仮想カメラVの仮想位置となる。この仮想位置を、第1カメラ11の位置に対する回転・推進量をもって特定することができる。
【0032】
ところで、ここで算出された回転・並進量はあくまで初期の顔・位置姿勢に対して仮想カメラを動かすことで、現在の第1カメラ11と顔との相対的な位置関係を満足させる回転・並進量である。図5(a)は、顔向きの検出を行っている際の第1カメラと仮想カメラと顔との配置関係を示す図、(b)は、(a)と同じ画像を撮像し、顔向き方向を回転・並進させた後の第1カメラと顔との配置関係を示す図である。
【0033】
図5(a)に示すように、顔向き検出を行っている際に、顔Fが仮想カメラVの方向を向いていることが検出できたとする。ここで、下記(5)式に(4)式で求めた第1カメラ11の座標系に対する仮想カメラVの座標系の回転・並進量R*,t*を代入して仮想カメラVの座標系を回転・並進させる。
【0034】
xv(0)=R*・x1(0)+t* ・・・(5)
この(5)式によって仮想カメラVの座標を回転・並進させることにより、図5(b)に示すように、仮想カメラVで撮像した顔画像と第1カメラ11で顔を撮像した二次元画像とが一致する。また、この(5)式に対して、仮想カメラVを動かしたのと逆の運動を行えば、顔Fに関して、第1カメラ11で同じ画像が得られることになる。したがって、(6)式によって、仮想カメラVの画像を第1カメラ11の座標系に変えて、仮想カメラVで撮像した顔画像と、第1カメラ11で撮像した顔画像とを一致させることができる。
【0035】
x1(0)=R*−1・xv(0)−R*−1・T* ・・・(6)
(6)式により、顔の回転・並進運動は、R*−1、−R*−1・T*で行われたことになる。このようにして、顔の向き方向を検出することができる。
【0036】
なお、同時に得られる画像が2枚存在し、上で述べたように第1カメラ11での画像に合わせるようにするのと同様に、第2カメラ12の画像との誤差を同時に評価すれば、より多くの点での誤差を評価できることになり、顔の向き方向の検出精度を向上させることができる。
【0037】
こうして、顔向き方向の検出が済んだら、視線方向の検出が行われる(S6)。以下に、視線方向の検出について説明する。
【0038】
検出対象となる目は、初期画像として得られる2枚のステレオ画像のうち、第1カメラ11を真正面から覗いている。したがって、ステップS1における初期値の設定の段階での第1カメラ11での黒目形状が、黒目を真正面から見た形状となっている。仮想画像を作成した際、このときと同じ黒目形状の画像があれば、それが視線の向いているものとなる。
【0039】
視線方向を検出する際には、ステレオ対の画像を使って仮想カメラから撮像した仮想画像を擬似的に複数枚作成する。この複数の仮想画像における各エッジ部分の二次的な座標と、ステップS4で算出した黒目輪郭エッジの座標との一致度(類似度)に基づいて、視線方向を推定する。ここで、仮想カメラの内部パラメータは、第1カメラ11と同じとし、(1)式、(2)式のエピポーラ拘束式を用いて、仮想画像上で三次元空間上の点Mが結像する場所を特定する。
【0040】
上記(1)式および(2)式において、あらかじめ「各エッジ点の二次元画像上での第1カメラ11、第2カメラ12の対応が既知であること」「カメラのキャリブレーションが終わっていること」から、未知数はnv Tとなる。さらに、nv Tを構成しているのは、仮想カメラ画像上での水平・垂直方向の座標である。したがって、(1)式および(2)式はそれぞれ仮想カメラ画像上での直線の式を表している。さらに、(1)式および(2)式は、それぞれ「第1カメラ11と仮想カメラ」および「第2カメラ12と仮想カメラ」の間のエピポーラ直線を表している。よって、たとえば第1カメラ11上の点n1を指定すると、仮想カメラ上でnv Tを変数とする(2)式の直線上に対応する点がのっていることが保証される。そして、これらの2直線を決めるために、n1,n2を与え、それら2直線が仮想画像上で交われば、その交点が仮想画像上での結像画像として特定されることになる。
【0041】
このことを利用して、輪郭上で各点ごとに第1エッジ画像と第2エッジ画像の各座標からエピポーラ直線を決定し、それらの仮想画像上での交点を求める。なお、第1エッジ画像と第2エッジ画像間での黒目輪郭上の点の対応は、黒目輪郭がエッジであることから、直線とエッジの交点が2点に限定され、さらに、2点のどちらが対応点であるかどうかは、黒目の左側か、右側かで判定できるので、その判断は容易なものとなる。
【0042】
このようにして決定した仮想画像上での各黒目輪郭上の点の座標とステップS3で得られた画像上における各輪郭上の点の座標を比較する。その比較は、たとえば(4)式で行うことができる。
【0043】
このような比較を複数枚作成された各仮想画像のそれぞれについて行う。その結果、位置誤差が最小になった位置、特に、位置誤差が0である位置が、視線方向の先にある仮想カメラVの位置として、第1カメラ11の位置に対する回転・推進量をもって特定することができる。
【0044】
ところで、ここで算出された回転・並進量は、あくまで仮想カメラを動かすことで、初期の目の形状と一致または類似する形状を見つけるための回転・並進量である。図6(a)は、視線方向の検出を行っている際の第1カメラと顔(目)との配置関係を示す図、(b)は、(a)と同じ画像を撮像し、視線方向を回転・並進させた後の第1カメラと仮想カメラと顔(目)との配置関係を示す図である。
【0045】
図6(a)に示すように、視線方向の検出を行っている際に、顔Fにおける目Eの視線方向が仮想カメラVの方向を向いていることが検出できたとする。(4)式で算出した回転・並進量R*,t*に対して、初期状態での黒目は、第1カメラ11を覗き込んでいるので、三次元的には黒目から原点を結ぶ視線を持っている。同様に、仮想画像でも初期状態での見え方と同じ画像になっているということは、原点を相対的に同じ位置から見ていることになっているはずである。よって、その仮想カメラが位置する仮想位置での原点と三次元的な黒目の位置を結ぶベクトルが視線方向となる。仮想カメラVの回転・並進量をR*,t*とすると、(7)式により仮想カメラVの座標を第1カメラ11の座標に変換することができる。
【0046】
xv(k)=R*・x1(k)+t* ・・・(7)
この(7)式によって仮想カメラVの座標を回転・並進させることにより、図6(b)に示すように、仮想カメラVで撮像した目Eの画像と第1カメラ11で撮影した目Eの画像とが一致する。上記(7)式は、仮想カメラの原点位置が、並進移動量の分だけ第1カメラ11の原点位置から移動していることを表している。したがって、(8)式および(9)式で表される黒目の三次元座標をステレオ処理により算出し、座標t*から黒目中心の三次元座標に向かう方向を視線方向として検出することができる。
【0047】
【数4】
このようにして黒目の三次元座標を算出することにより、目Eの視線方向検出することができる。
【0048】
このように、本実施形態に係る向き方向検出においては、基準画像から求められる仮想画像と、検出対象となる顔や目を撮像して得られた画像とを比較し、その一致度が高い仮想画像と基準画像との位置関係から、顔向き方向および視線方向を検出している。このため、高い精度で顔向き方向および視線方向の検出を行うことができる。
【0049】
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。たとえば、上記実施形態では向き方向の検出として、顔向き方向および視線方向の両方を検出するようにしているが、たとえば顔向き方向のみ、あるいは視線方向のみの検出とすることができる。また、上記実施形態では、前段階においてあらかじめ準備する基準画像として、第1カメラで検出対象となる人の顔を最初に撮像する態様としているが、たとえば一般的な人の顔の平均的な形状等をとって、これを基準画像とする態様とすることもできる。ただし、高精度を求めるならば、本実施形態のように、検出対象に対応する画像を最初に撮像するのが望ましい。さらには、上記実施形態では、向き方向検出装置を自動車に設ける例について説明したが、パソコンや家電製品などをはじめあらゆる装置の指令デバイスとして用いることもできる。
【0050】
【発明の効果】
以上のとおり、本発明によれば、視線のような目の向き方向など、物体の向き方向を正確に検出することができる向き方向検出装置および向き方向検出方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る向き検出装置のブロック構成図である。
【図2】本実施形態に係る向き方向検出方法の手順を示すフローチャートである。
【図3】(a)は撮像手段で撮像した目の模式図、(b)は(a)の画像を白色で二値化してエッジ処理した白色エッジ画像の模式図、(c)は(b)の白色部分を膨張させた膨張処理を施した白色膨張エッジ画像の模式図、(d)は(a)の画像を黒色で二値化してエッジ処理した黒色エッジ画像の模式図、(e)は(d)の白色部分を膨張させた膨張処理を施した黒色膨張エッジ画像の模式図、(f)は(c)の画像と(e)の画像をAND演算して得られたエッジ画像の模式図である。
【図4】第1カメラ、第2カメラ、および仮想カメラを含めた系の配置構成を示す配置構成図である。
【図5】(a)は、顔向きの検出を行っている際の第1カメラと仮想カメラと顔との配置関係を示す図、(b)は、(a)と同じ画像を撮像し、顔向き方向を回転・並進させた後の第1カメラと顔との配置関係を示す図である。
【図6】(a)は、視線方向の検出を行っている際の第1カメラと顔(目)との配置関係を示す図、(b)は、(a)と同じ画像を撮像し、視線方向を回転・並進させた後の第1カメラと仮想カメラと顔(目)との配置関係を示す図である。
【符号の説明】
1…ステレオカメラ、2…画像処理装置、11…第1カメラ、12…第2カメラ、13…同期装置、21…エッジ画像作成部、22…初期エッジ画像記憶部、23…向き方向判断部、D…向き方向検出装置、G…画像、WG…白色エッジ画像、WEG…白色膨張エッジ画像、BG…黒色エッジ画像、BEG…黒色膨張エッジ画像、E…目、EG…エッジ画像、F…顔、V…仮想カメラ。
Claims (4)
- 検出対象物をそれぞれ撮像する第1撮像手段および第2撮像手段を備えるステレオカメラと、
前記第1撮像手段で撮像された第1画像および前記第2撮像手段で撮像された第2画像から検出対象画像を作成する検出対象画像作成手段と、
前記第1撮像手段および前記第2撮像手段のうちの少なくとも一方に対する前記検出対象物の向き方向が既知である前記第1画像および前記第2画像の基準画像をあらかじめ記憶しておく基準画像記憶手段と、
前記基準画像に基づいて、前記検出対象物を任意の位置から撮像したときの仮想画像を作成する仮想画像作成手段と、
前記検出対象画像と前記仮想画像とを比較し、前記検出対象画像と前記仮想画像との一致度に基づいて求められた仮想画像を撮像する仮想位置にある仮想撮像手段の前記仮想位置を求め、前記第1撮像手段の位置と、前記仮想撮像手段の仮想位置との位置関係に基づいて、前記検出対象物の向きを判断する向き方向判断手段と、
を備えることを特徴とする向き方向検出装置。 - 前記検出対象物が顔である請求項1に記載の向き方向検出装置。
- 前記検出対象物が目である請求項1に記載の向き方向検出装置。
- 第1撮像手段および第2撮像手段によって、検出対象物を撮像する撮像工程と、
前記第1撮像手段で撮像された第1画像および前記第2手段で撮像された第2画像とを合成することにより、任意の位置から撮像したときの仮想画像を生成する検出対象画像作成工程と、
前記第1撮像手段および前記第2撮像手段のうちの少なくとも一方に対する前記検出対象物の向き方向が既知である前記第1画像および前記第2画像の基準画像をあらかじめ記憶しておく基準画像記憶工程と、
前記基準画像に基づいて、前記検出対象物物を任意の位置から撮像したときの仮想画像を作成する仮想画像作成工程と、
前記検出対象画像と前記仮想画像とを比較し、前記検出対象画像と前記仮想画像との一致度に基づいて求められた仮想画像を撮像する仮想位置にある仮想撮像手段の前記仮想位置を求め、前記第1撮像手段の位置と、前記仮想撮像手段の仮想位置との位置関係に基づいて、前記検出対象物の向きを判断する向き方向判断工程と、
を含むことを特徴とする向き方向検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003049859A JP2004259043A (ja) | 2003-02-26 | 2003-02-26 | 向き方向検出装置および向き方向検出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003049859A JP2004259043A (ja) | 2003-02-26 | 2003-02-26 | 向き方向検出装置および向き方向検出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004259043A true JP2004259043A (ja) | 2004-09-16 |
Family
ID=33115462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003049859A Pending JP2004259043A (ja) | 2003-02-26 | 2003-02-26 | 向き方向検出装置および向き方向検出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004259043A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007296341A (ja) * | 2006-04-27 | 2007-11-15 | Siemens Medical Solutions Usa Inc | X線ベースでカテーテル先端位置決定を行うためのシステムおよび方法 |
JP2008513168A (ja) * | 2004-09-22 | 2008-05-01 | エルディート ゲゼルシャフト ミット ベシュレンクテル ハフツング | 視線方向を非接触で特定する為の装置及び方法 |
JPWO2008007781A1 (ja) * | 2006-07-14 | 2009-12-10 | パナソニック株式会社 | 視線方向検出装置および視線方向検出方法 |
KR101382772B1 (ko) | 2012-12-11 | 2014-04-08 | 현대자동차주식회사 | 디스플레이 시스템 및 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01111280A (ja) * | 1987-10-24 | 1989-04-27 | Nippon Telegr & Teleph Corp <Ntt> | 連続視域画像再生方法 |
JP2000306106A (ja) * | 1999-02-15 | 2000-11-02 | Medeikku Engineering:Kk | 3次元有向体の定位方法及び画像処理装置 |
JP2001291108A (ja) * | 2000-04-05 | 2001-10-19 | Honda Motor Co Ltd | 画像処理装置およびその方法ならびにプログラム記録媒体 |
JP2002063567A (ja) * | 2000-08-23 | 2002-02-28 | Nec Corp | 物***置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法 |
JP2003015816A (ja) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | ステレオカメラを使用した顔・視線認識装置 |
-
2003
- 2003-02-26 JP JP2003049859A patent/JP2004259043A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01111280A (ja) * | 1987-10-24 | 1989-04-27 | Nippon Telegr & Teleph Corp <Ntt> | 連続視域画像再生方法 |
JP2000306106A (ja) * | 1999-02-15 | 2000-11-02 | Medeikku Engineering:Kk | 3次元有向体の定位方法及び画像処理装置 |
JP2001291108A (ja) * | 2000-04-05 | 2001-10-19 | Honda Motor Co Ltd | 画像処理装置およびその方法ならびにプログラム記録媒体 |
JP2002063567A (ja) * | 2000-08-23 | 2002-02-28 | Nec Corp | 物***置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法 |
JP2003015816A (ja) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | ステレオカメラを使用した顔・視線認識装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008513168A (ja) * | 2004-09-22 | 2008-05-01 | エルディート ゲゼルシャフト ミット ベシュレンクテル ハフツング | 視線方向を非接触で特定する為の装置及び方法 |
JP2007296341A (ja) * | 2006-04-27 | 2007-11-15 | Siemens Medical Solutions Usa Inc | X線ベースでカテーテル先端位置決定を行うためのシステムおよび方法 |
JPWO2008007781A1 (ja) * | 2006-07-14 | 2009-12-10 | パナソニック株式会社 | 視線方向検出装置および視線方向検出方法 |
JP5137833B2 (ja) * | 2006-07-14 | 2013-02-06 | パナソニック株式会社 | 視線方向検出装置および視線方向検出方法 |
KR101382772B1 (ko) | 2012-12-11 | 2014-04-08 | 현대자동차주식회사 | 디스플레이 시스템 및 방법 |
CN103871045A (zh) * | 2012-12-11 | 2014-06-18 | 现代自动车株式会社 | 显示***和方法 |
US9160929B2 (en) | 2012-12-11 | 2015-10-13 | Hyundai Motor Company | Line-of-sight tracking system and method |
CN103871045B (zh) * | 2012-12-11 | 2018-09-04 | 现代自动车株式会社 | 显示***和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107273846B (zh) | 一种人体体型参数确定方法及装置 | |
US7822267B2 (en) | Enhanced object reconstruction | |
US20160086343A1 (en) | Contour line measurement apparatus and robot system | |
US20090167843A1 (en) | Two pass approach to three dimensional Reconstruction | |
JP6836561B2 (ja) | 画像処理装置及び画像処理方法 | |
KR20050058085A (ko) | 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법 | |
US8571303B2 (en) | Stereo matching processing system, stereo matching processing method and recording medium | |
JP2001101429A (ja) | 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体 | |
JP2008535116A (ja) | 3次元レンダリング用の方法及び装置 | |
WO2020063987A1 (zh) | 三维扫描方法、装置、存储介质和处理器 | |
KR101510312B1 (ko) | 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법 | |
JP2019185469A (ja) | 画像解析装置、方法およびプログラム | |
JP6452235B2 (ja) | 顔検出方法、顔検出装置、及び顔検出プログラム | |
JP4631973B2 (ja) | 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム | |
JP6942566B2 (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
CN109191522B (zh) | 一种基于三维建模的机器人位移纠正方法及*** | |
JP3103478B2 (ja) | 複眼撮像装置 | |
JP7230722B2 (ja) | 画像処理装置及び画像処理方法 | |
JP4032994B2 (ja) | 視線方向検出装置および視線方向検出方法 | |
KR20190055632A (ko) | 모션 정보를 이용한 객체 복원 장치 및 이를 이용한 객체 복원 방법 | |
JP2005092451A (ja) | 頭部検出装置及び頭部検出方法、並びに頭部検出プログラム | |
JP2004259043A (ja) | 向き方向検出装置および向き方向検出方法 | |
JP2006227739A (ja) | 画像処理装置及び画像処理方法 | |
KR101818992B1 (ko) | 영상의 깊이 정보를 이용한 성형결과 이미지 도출방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080624 |