JP3790680B2 - 画像処理システム及びこれを用いた運転支援システム - Google Patents

画像処理システム及びこれを用いた運転支援システム Download PDF

Info

Publication number
JP3790680B2
JP3790680B2 JP2001156914A JP2001156914A JP3790680B2 JP 3790680 B2 JP3790680 B2 JP 3790680B2 JP 2001156914 A JP2001156914 A JP 2001156914A JP 2001156914 A JP2001156914 A JP 2001156914A JP 3790680 B2 JP3790680 B2 JP 3790680B2
Authority
JP
Japan
Prior art keywords
subspace
pattern
dictionary
sight
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001156914A
Other languages
English (en)
Other versions
JP2002352228A (ja
Inventor
真由美 湯浅
和広 福井
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001156914A priority Critical patent/JP3790680B2/ja
Priority to US10/153,806 priority patent/US7065230B2/en
Publication of JP2002352228A publication Critical patent/JP2002352228A/ja
Priority to US11/334,383 priority patent/US7346192B2/en
Application granted granted Critical
Publication of JP3790680B2 publication Critical patent/JP3790680B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、主として車両中の運転者の状態を検出する画像処理システム及び検出された状態に応じて、自動車運転の支援をする運転支援システムに関する。
【0002】
【従来の技術】
自動車等の運転者の状態を検出することは、運転者が安全に運転できる状態であるか否かの判断をすることができるため、居眠り運転やわき見運転を防ぐなど、交通事故防止のために有効な手段である。特に視線は運転者の意識状態を明確に表すため、視線を検出する技術は非常に有効である。
【0003】
従来、人間の視線方向を検出する方法としては、赤外線照射の眼球による反射像を利用した方法と画像処理による方法が提案されている。
【0004】
前者としては、例えば特開平6−261863号で示されている方法があるが、発光ダイオードにより眼球に赤外線を直接照射するため、利用者に大きな負担が生じる。
【0005】
画像処理に視線を検出する方法としては、例えば特開平4−225478号において示されているような瞳のエッジを検出し、瞳の中心座標から視線を求める方法があるが、照明変動に対して安定していないという問題と、顔の向きや位置を別の手段で求める必要が生じていた。
【0006】
画像処理における先の問題点を解決する方法として、特開平11−175246号に示された顔領域及び瞳領域のパターンを用いた方法が存在する。このような方法によれば、照明変動や頭部位置の変動に対して頑強な視線検出方法が実現可能となった。ところが、このような方法にも依然、顔領域や瞳位置が検出できないときには視線方向を求めることができないという問題が存在した。
【0007】
【発明が解決しようとする課題】
本発明は、上記の問題を解決して、例えば、車両やコンピュータなどの機械を操作している対象者の視線、視点、または、顔向きを簡単に、かつ、正確に検出する画像処理システム及びこれを用いた運転支援システムを提供する。
【0008】
【課題を解決するための手段】
請求項1の発明は、対象者の視線、視点、または、顔向きを検出する画像処理装置であって、前記対象者の視線、視点、または、顔向きを特定できる領域の少なくとも一部を含む画像を入力する画像入力手段と、前記入力された画像から照合を行うための入力パターンを生成するパターン生成手段と、前記対象者の視線、視点、または、顔向きの特定が可能な辞書パターンを登録した辞書手段と、前記辞書パターンと前記入力パターンを照合して、両者の類似度を求めるパターン照合手段と、前記求めた類似度に基づいて前記対象者の視線、視点、または、顔向きを検出する視線検出手段と、を有し、前記辞書手段における前記辞書パターンは複数枚の画像から生成された部分空間であり、前記部分空間は、複数のクラスからなり、前記各クラスは前記対象者の相異なる視線方向もしくは視点位置に対応し、また、前記辞書手段は、前記異なるクラス間における差分部分空間を生成し、前記パターン生成手段における前記入力パターンは1枚あるいは複数枚の画像から生成した部分空間であり、前記パターン照合手段は、(1)前記入力パターンの部分空間及び前記各クラスの辞書パターンの部分空間を前記差分辞書部分空間へ射影して差分部分空間を生成し、(2)異なる時刻に取得した前記対象者の画像から生成した部分空間の差分空間である自己変動部分空間を生成し、(3)前記差分部分空間と前記自己変動部分空間とから制約部分空間を生成し、(4)前記制約部分空間から前記類似度を求めることを特徴とする画像処理装置である。
【0009】
請求項の発明は、車両の運転者の運転支援装置であって、前記運転者の視線、視点、または、顔向きを特定できる領域の少なくとも一部を含む画像を入力する画像入力手段と、前記入力された画像から照合を行うための入力パターンを生成するパターン生成手段と、前記運転者の視線、視点、または、顔向きの特定が可能な辞書パターンを登録した辞書手段と、前記辞書パターンと前記入力パターンを照合して、両者の類似度を求めるパターン照合手段と、前記求めた類似度に基づいて前記運転者の視線、視点、または、顔向きを検出する視線検出手段と、前記検出された前記運転者の視線、視点、または、顔向きに基づく視界以外の領域を、前記車両に対する障害物を検知するための障害物検出領域として設定する障害物検出領域設定手段と、前記設定された障害物検出領域内で障害物を検知する障害物検知手段と、を有し、前記辞書手段における前記辞書パターンは複数枚の画像から生成された部分空間であり、前記部分空間は、複数のクラスからなり、前記各クラスは前記運転者の相異なる視線方向もしくは視点位置に対応し、また、前記辞書手段は、前記異なるクラス間における差分部分空間を生成し、前記パターン生成手段における前記入力パターンは1枚あるいは複数枚の画像から生成した部分空間であり、前記パターン照合手段は、(1)前記入力パターンの部分空間及び前記各クラスの辞書パターンの部分空間を前記差分辞書部分空間へ射影して差分部分空間を生成し、(2)異なる時刻に取得した前記運転者の画像から生成した部分空間の差分空間である自己変動部分空間を生成し、(3)前記差分部分空間と前記自己変動部分空間とから制約部分空間を生成し、(4)前記制約部分空間から前記類似度を求めることを特徴とする運転支援装置である。
【0019】
【発明の実施の形態】
本発明に係る実施例を図面にしたがって説明する。
【0020】
(第1の実施例)
本発明に係る画像処理装置を適用した運転者状態検出装置の第1の実施例を説明する。
【0021】
本実施例は、運転者の顔もしくは顔の一部を含む頭部領域を撮像するように運転者自身がコントロール可能なカメラにより撮影した画像を元に、パターン認識により運転者の視線を検出する装置に関するものである。
【0022】
本実施例の運転者状態検出装置の構成を図1に示す。
【0023】
運転者状態検出装置は、画像入力部1、パターン生成部2、パターン照合部3、辞書部4、視線検出部5から構成される。
【0024】
このうちパターン生成部2、パターン照合部3、辞書部4、視線検出部5の各機能は、コンピュータに記録されたプログラムによって実現ができる。
【0025】
(a)画像入力部1
画像入力部1の構成図を図2に示す。
【0026】
画像入力部1はビデオカメラ6、画像表示部7及びカメラコントロール部8から構成される。
【0027】
(a−1)ビデオカメラ6
ビデオカメラ6は、車内において常に運転者の顔もしくは顔の一部を含む頭部領域を撮像できる位置に設置する。
【0028】
ここでは入力画像としては時系列の動画像であって、運転者の顔画像を用いるが、視線を特定できるものであれば他の部位であっても差し支えない。
【0029】
(a−2)画像表示部7
画像表示部7は、ビデオカメラ6によって撮影された画像を表示する液晶表示装置などのディスプレーより構成される。通常は運転者の顔領域を表示し、運転者が容易に見ることができ、かつ運転の妨げにならない位置に設置する。
【0030】
なお、画像表示部7は、カーナビゲーションシステムなど、運転者に対する情報の提示を目的とした表示装置と兼ねることも可能である。
【0031】
(a−3)カメラコントロール部8
カメラコントロール部8は、レバーやタッチパネル上のカーソルなどからなり、運転者の操作によりビデオカメラ6の方向などのパラメータを設定することが可能である。
【0032】
(a−4)動作内容
具体的な動作について説明する。
【0033】
運転者は運転をはじめる前に、準備として以下の動作を行う。画像表示部7を見ながら、表示された画像中に自らの顔領域が含まれ、かつ画像中の顔以外の領域がなるべく少なくなるようにカメラコントロール部8により、ビデオカメラ6の方向を調整する。
【0034】
このように画像入力部1において、簡単な動作により入力画像中に、顔画像が含まれかつ、顔画像以外の部分があまり含まれないように設定することができ、この結果、以降の処理を大幅に軽減することが可能となる。
【0035】
(b)パターン生成部2
パターン生成部2においては、画像入力部1により入力された動画像の各画像データを辞書部4において蓄積された辞書パターンとの照合を行えるパターンに変換する。
【0036】
通常入力した画像データはデジタルデータまたはアナログ信号をデジタルに変換したものを用いるが、画像データそのものは、パターン照合を行うには情報が大きすぎる。
【0037】
そのため、適宜代表画素の取り出し、もしくは平均化処理を行うことにより、パターン照合に適切なデータに変換する。
【0038】
例えば、画面全体を15×15の区画に分割し、各分割領域において、領域内の画素値の平均値を求め、それらの集合を入力パターンとして用いる。この操作をモザイク化と呼ぶ。
【0039】
(c)パターン照合部3
パターン照合部3においては、パターン生成部2において生成される入力パターンと辞書部4において作成した各辞書パターンとの照合を行う。この辞書パターンについては、後から詳しく述べる。
【0040】
ここでは、予め登録されている全ての指標とのパターン類似度を、下記で説明する部分空間法(エルッキ・オヤ著、小川英光、佐藤誠訳、「パターン認識と部分空間法」、産業図書、1986)を用いて計算する。
【0041】
この類似度が、運転者がその指標をどれだけ見ているかという評価値となる。
【0042】
(c−1)部分空間法の適用
部分空間法は、画像パターンをn×n次元のベクトルと見なすと、n×n次元の特徴空間中で、あるカテゴリの部分空間が複数の基底ベクトルが張る線形部分空間で表現できる。ここで入力ベクトル(入力パターン)を、あるカテゴリを表す部分空間に投影した時の角度θは、入力ベクトルがそのカテゴリにどれだけ類似しているか表している。入力ベクトルと全てのカテゴリの部分空間との角度θを求め、最も小さい角度θが得られた部分空間に該当するクラスを入力ベクトル(入力パターン)が属するクラスと決定する。
【0043】
具体的には、角度θは以下の式から求まる。
【0044】
【数1】
Figure 0003790680
ここでLは部分空間を形成する固有ベクトルの数、(vect.eigenvect)は入力ベクトルと第i番目の固有ベクトルとの内積である。
【0045】
(c−2)相互部分空間法の適用
この部分空間法による処理は入力パターンを複数利用する相互部分空間法(前田賢一、渡辺貞一:“局所的構造を導入したパターン・マッチング法”.信学論(D).vol.J68−D.No.3.pp.345 352(1985))に置き換えることにより、より安定した視線検出が可能である。
【0046】
相互部分空間法は入力側も辞書側と同様に部分空間で表現する。類似度は、入力部分空間と辞書部分空間の成す角度θのcosθとして求まる。具体的には以下の式で定義される。
【0047】
【数2】
Figure 0003790680
【数3】
Figure 0003790680
【数4】
Figure 0003790680
QPQの固有値問題は以下の式で表される。
【0048】
【数5】
Figure 0003790680
【数6】
Figure 0003790680
と表現できる。式(4)の左辺は、式(5)を代入して、
【数7】
Figure 0003790680
となる。一方、右辺は、式(2),(3)を代入して、
【数8】
Figure 0003790680
となる。更に計算の順序を変えて整理すると、
【数9】
Figure 0003790680
となる。式(6)と式(8)の同じψについて見ると、
【数10】
Figure 0003790680
が成立する。ここで、
【数11】
Figure 0003790680
【数12】
Figure 0003790680
【数13】
Figure 0003790680
と置くと、式(9)は、
【数14】
Figure 0003790680
という行列Xの固有値問題となる。
【0049】
Xの最大固有値が求める最小角度θのcosθとなる。第2固有値は、最大角に直交する方向に計った角度のcosθ、以下同様にN個のcosθが順次求まる。これらのN個の角度θは、2つの部分空間が成す「正準角」として知られている。
【0050】
(c−3)制約相互部分空間法の適用
また、相互部分空間法を制約相互部分空間法(福井和広他.“制約相互部分空間法を用いた環境変動にロバストな顔画像認識”.信学論(DII).vol.J82 DII,No.4.pp.613−620)に置き換えることにより、さらに安定した視線検出が可能となる。
【0051】
上記文献においては、人物認証において制約部分空間法を利用しているが、各人物を本実施例における視線方向の指標に置き換える。この場合は予め辞書部4において、各指標間の差分辞書空間及び各指標内での自己変動空間を作成し、それらから制約空間を作成しておく必要がある。
【0052】
(d)辞書部4
辞書部4においては、予め設定した視線方向の指標となる各位置を運転者が見たときの画像を収集し、それらの画像から辞書を作成したものを保持する。
【0053】
ここで、上記で説明した制約相互部分空間法を用いた場合の認識方法及び辞書の作成方法について述べる。
【0054】
まず、予め視線の指標となるターゲットを定める。例えば、図3におけるAからDのようなものである。この図では、Aは左側のサイドミラー、Bはバックミラー、Cはメータ、Dは右側のサイドミラーである。例えばこのような4つの指標に対してそれぞれ辞書部分空間を作成する。
【0055】
辞書部分空間の作成は以下の手順で行う。
【0056】
第1ステップにおいて、各指標を見ていることが推定される画像サンプルを収集する。
【0057】
第2ステップにおいて、それらの画像サンプルから例えば15×15の画像を作成する。ここでは先に述べたように、入力画像をモザイク化することにより作成することができる。このモザイク化した画像を正規化画像と呼ぶ。
【0058】
第3ステップにおいて、これらの正規化画像に対して必要に応じてヒストグラム平坦化処理、微分処理、エンボス化処理、あるいはフーリエ変換などを施した後、それらの正規化画像の画素を順に並べたものを特徴ベクトルとする。
【0059】
第4ステップにおいて、各指標に対応する特徴ベクトルに対してKL展開を適用して固有値と固有ベクトルを求める。
【0060】
第5ステップにおいて、こうして求めた固有値の大きい方から上位幾つかの固有値に対応する固有ベクトルを基底ベクトルとしたときに、これらの基底ベクトルが張る部分空間を辞書部分空間とする。この次元の数は例えば10とする。
【0061】
第6ステップにおいて、隣り合う指標に対応する2つの辞書部分空間の差分部分空間を生成する。隣り合う指標間においては、そこを見ている場合のパターンに差が少なく、差分部分空間は各指標間のパターンの差異を強調する空間となっている。
【0062】
差分部分空間を以下の様に定義する。
【0063】
M次元部分空間PとN次元部分空間Qに対してN(=<M)個の正準角θが求まる。ここで正準角θを形成する2つのベクトルu,vの差分ベクトルをdとする。N個の差分ベクトルdはお互いに直交している。N個の内でD番目までの差分ベクトルを長さを1.0に正規化して、D次元差分部分空間DPQの基底ベクトルとする。
【0064】
【数15】
Figure 0003790680
【数16】
Figure 0003790680
【数17】
Figure 0003790680
ここで係数cuは、式(14)の固有値問題から求まる固有ベクトルである。また係数cvは、式(13)においてφとψを入れ換えて式(14)から求まる固有ベクトルである。
【0065】
ここでは、具体的な差分部分空間を作成する組み合わせとしてAとB、AとC、BとC、CとDなど、空間的に隣接する組み合わせのみを利用する方法を採用する。
【0066】
この他に全ての指標の組み合わせを利用する方法などが考えられる。これらの差分部分空間を指標間差分部分空間dと呼ぶことにする。
【0067】
こうして得られた複数の指標間差分部分空間dを統合して1つの指標間差分部分空間dall とする。
【0068】
指標間差分部分空間dall は、差分空間の共通部分空間として求めることができる。今、N個の指標間差分部分空間の共通部分空間の算出を考える。k番目の指標差分部分空間の射影行列をPとし、各射影行列を加重和した生成行列をGとする。
【0069】
【数18】
Figure 0003790680
また、各指標を見た時の見方のばらつきを抑制するために、自己変動に基づく制約空間を作成する。これによって時間が経つと同じ人が同じ指標を見た場合にもパターンに変化が現れてしまうのを防ぐことができる。具体的には、異なる時刻に取得した画像から生成した部分空間の差分空間を生成し、これを自己変動部分空間sと呼ぶことにする。
【0070】
各指標に対応する自己変動部分空間sの共通部分空間を算出し、それを自己変動部分空間sall とする。
【0071】
異なる指標を表す辞書部分空間の差を強調し、同じ指標を表す辞書部分空間の変動部分を抑えるためには、前記指標間差分部分空間dall から前記自己変動部分空間sall を取り除き、それを制約部分空間cとすればよい。
【0072】
具体的には、指標間差部分空間と自己変動部分空間に対して、以下の評価基準fを最大とする部分空間を制約部分空間として求める。基準fはクラス間分散とクラス内分散の比を最大にするFisherの判別基準に対して、指標間差部分空間(N1次元)の射影成分から自己変動部分空間(N2次元)の射影成分を差し引いた評価量となっている。ここで求めるべき制約部分空間の正規基底ベクトルを列とする行列をCとする。
【0073】
【数19】
Figure 0003790680
式(19)の第1項は指標間差部分空間のi番目の基底ベクトルb(d次元)を部分空間へ射影した際に、その射影長Cbの総和ができるだけ大きいことを要請している。一方、第2項は自己変動部分空間の基底ベクトルsを部分空間へ射影した場合に、射影長Csの総和ができるだけ小さくすることを要請している。
【0074】
【数20】
Figure 0003790680
【数21】
Figure 0003790680
【数22】
Figure 0003790680
【数23】
Figure 0003790680
【数24】
Figure 0003790680
したがって基準量fを最大にするCを求めることは、CC=1という制約条件下でtr(CΩC)を最大にするCを求める以下の変分問題に帰着する。
【0075】
【数25】
Figure 0003790680
ここでΛはd次元対角行列、Ω=P−Pとする。上式をCで偏微分して0とおくと、
【数26】
Figure 0003790680
したがって、
【数27】
Figure 0003790680
となり、CはΩを対角化する行列である。Ωの固有値で大きい方からd個をλ(λ>=λ…>=λ)とすれば、
【数28】
Figure 0003790680
したがって、求める制約部分空間は上記d個の固有値に対応する固有ベクトルが張る部分空間となる。
【0076】
また、パターン照合の際の処理としては、入力部分空間を前記制約部分空間に射影することによって、先に述べた特徴を持つ部分空間に変換することができ、視線検出の精度が向上する。
【0077】
例えば、隣り合う指標(A,B)に対応する2つの辞書部分空間の類似度を考えたときに、隣り合う指標間においては、そこを見ている場合の入力部分空間のパターンの差が少ないため、その類似度の差も少なくなくなる。そのため、その類似度の差も小さく識別が困難となる。
【0078】
しかし、差部分空間に射影することにより、各指標間のパターンの差異を強調できるので、指標Aを見たときの指標Aの辞書部分空間に対する類似度と指標Bの辞書部分空間に対する類似度の差が大きくなり、識別が容易となる。
【0079】
(g)視線検出部5
視線検出部5においては、パターン照合部3において照合した結果(類似度など)が最も高い辞書パターンに対応する指標の位置を見ていると判断し、その結果を出力する。
【0080】
もしくは、複数の指標における結果から視線位置を推定し、その結果を出力する。複数の指標における結果から視線位置を推定する方法としては例えば、複数の指標のうち、照合結果が上位にあるものをその結果に応じて内挿するという方法がある。
【0081】
また、前記のように線形に内挿する以外にも、ニューラルネットを用いてもよい。
【0082】
(第2の実施例)
本発明に係る運転者状態検出装置の第2の実施例を説明する。
【0083】
本実施例は、運転者の顔もしくは顔の一部を含む頭部領域を撮像するように運転者自身が設定する必要がなく、カメラ方向、位置、焦点距離などのパラメータを自動的に決定したカメラにより撮影した画像を元にパターン認識により運転者の視線を検出する装置に関するものである。
【0084】
第2の実施例の運転者状態検出装置の構成は、図1に示す第1の実施例の構成図と同様である。
【0085】
画像入力部1の構成図を図4に示す。画像入力部1はビデオカメラ6、カメラ自動制御部9から構成される。
【0086】
カメラ自動制御部9においては、ビデオカメラ6で撮像された画像中から運転者の一部を検出し、その位置を元に、運転者の顔画像があることが予測される位置にカメラの方向などのパラメータを変更する。
【0087】
そのような処理を入力画像に運転者の画像が的確に撮像されるようになるまで繰り返す。
【0088】
運転者の顔画像が撮像されているかを確かめる方法としては、予め、人物の顔画像のテンプレートを作っておき、それとの照合を行うことで可能となる。一度顔が検出されれば、それを追跡することで、容易にカメラパラメータの変更が可能である。
【0089】
パターン生成部2以下の処理は、第1の実施例と同様である。
【0090】
(第3の実施例)
本発明に係る運転者状態検出装置の第3の実施例を説明する。
【0091】
本実施例は、運転者視線検出結果を利用して車外の障害物検出を効率的に行うものである。
【0092】
第3の実施例の運転者状態検出装置の構成を図5に示す。
【0093】
画像入力部1、パターン生成部2、パターン照合部3、辞書部4、視線検出部5、第2の画像入力部10、障害物検出部11から構成される。
【0094】
画像入力部1、パターン生成部2、パターン照合部3、辞書部4、視線検出部5については、第1または第2の実施例と同様である。
【0095】
第2の画像入力部10においては、車外の画像、すなわち道路や他の自動車、歩行者等を撮像する。
【0096】
障害物検出部11においては、第2の画像入力部10において入力された画像を基に以下の処理を行う。
【0097】
視線検出部5において提示された視線方向を基に、その視線方向が向いていない領域、すなわち、運転者の視界の外側における領域部分のみ、障害物検出を行う。
【0098】
障害物検出の方法としては、例えば特開平9−250282号において開示されている方法が使用できる。
【0099】
処理領域を変える方法としては、第2の画像入力部10において入力する画像領域を変更する方法と、入力する画像は同じであるが、その画像中の処理領域を変更する方法の2通りが考えられる。どちらも有効であるが、カメラを可動にしなくていい分、後者の方が有効である。
【0100】
別の手段により運転者の状態、例えば居眠りなどが検出された場合には、全領域を処理するなど、組み合わせることも可能である。
【0101】
(変更例1)
本発明はここにあげた実施例に限定されるものではない。
【0102】
第1、2の実施例において、パターン生成部2においては、特に顔領域に限定せずに画像全体をそのままモザイク化してパターン生成に用いた。
【0103】
しかし、本変更例では、例えば背景差分やフレーム間差分等または顔パターンを利用した検出等により予め顔らしい領域を検出し、その部分のみを利用するということも可能である。
【0104】
この場合、検出にかかるコストや誤検出した場合の対応など、処理に負担がかかることがあるが、もし成功すれば、より精度の高い視線の検出が可能となる。
【0105】
また、目鼻などの顔の特徴点の検出(例えば、福井、山口:“形状抽出とパターン照合の組合せによる顔特徴点抽出”.信学論(D−II)vol.J80 DII.no.9.pp.2170 2177.Aug.1997)を用いればさらに精度よく検出することが可能となる。その場合には特開平11−175246号に開示された視線検出方法が適用可能である。
【0106】
(変更例2)
第1の実施例のカメラコントロール部8、もしくは第2の実施例におけるカメラ自動制御部9において、運転者が誰であるかを手動または自動で識別する部を有する場合においては、運転者の顔または頭部の位置は、運転者が識別できれば、その身長や座り方の癖などの情報から適切なカメラ方向等のパラメータを容易に推測可能であることから、カメラコントロール部8またはカメラ自動制御部9における処理を軽減することが可能である。
【0107】
(変更例3)
第1、2の実施例のパターン生成部2においては、単純に画像をモザイク化したものを入力パターンとして採用した。
【0108】
本変更例では、そのパターンをフーリエ変換したもの、微分したもの、エンボス処理を加えたもの、他に得られる情報を基にアフィン変換を施したものなども考えられる。
【0109】
特に、フーリエ変換により求まるフーリエスペクトルは、平行移動に対して不変となっているため、頭部位置の変動にロバストな視線検出が可能となる。
【0110】
これらの特徴を適用する場合には、制約部分空間もこれらの特徴量から生成する必要がある。
【0111】
フーリエ変換を利用する場合には、予め画像をモザイク化したパターンに対してフーリエ変換を行ってもよいし、予めフーリエ変換を行った画像に対してモザイク化を行ってもよい。
【0112】
また、高速フーリエ変換を行うためには、フーリエ変換を施す前の画像のサイズは2の巾乗(べきじょう)であることが望ましい。また、フーリエ変換を行う前後に適宜ノイズ除去などの処理を加えても差し支えない。
【0113】
(変更例4)
第1、2、3の実施例において、辞書部における辞書パターンは予め作成しておくこととしたが、カメラの調整を行う都度行っても構わない。
【0114】
その場合には、画像表示装置における視覚または音声などにより指標の位置を見るよう指示を提示し、運転者はその指示にしたがってそれぞれの指標を見ることにより各指標を見た時の画像を収集することができ、それらの画像により辞書が作成できる。
【0115】
辞書はその都度新たに作ることもできるし、既存の辞書に追加することもできる。またこれらの処理は運転者の移動時のみならず、ミラーなどの指標位置に変化があったときにも同様に行うことが有効である。
【0116】
(変更例5)
第1、2、3の実施例においては、カメラを制御する部を具備していたが、予めカメラの位置や方向などを適切な位置に固定して設置することができ、かつ運転者の身長や姿勢等に大きな変化がないと予想される場合には、そのような制御部は必ずしも必要ではない。
【0117】
(変更例6)
第1、2、3の実施例においては、カメラを1台の場合について述べたが、カメラは複数台あっても差し支えない。
【0118】
例えば、複数台のカメラから得られた画像を結合することにより、同様の処理で視線検出が可能であり、しかもカメラ全体としての視野が広くなるため、より精度の高い視線検出が可能となる。
【0119】
また、それぞれのカメラ毎に独立に処理を行い、それらの結果を統合しても差し支えない。また、検出するものは「視線」としてきたが、これを「顔向き」と置き換えても差し支えない。
【0120】
(変更例7)
第1、2、3の実施例においては、高感度カメラ、高ダイナミックレンジカメラ、あるいは赤外線照明を用いることで夜間における安定な動作が可能となる。
【0121】
(変更例8)
第1、2、3の実施例においては、車内における運転者を対象にしたが、本発明は様々な場面にも適用可能である。
【0122】
例えば、運転者を通常のオフィスなどでパーソナルコンピュータなどの機械を操作している人物に置き換えることで、ポインティングデバイスとして利用可能であり、メニュー選択やマウス操作のサポートを実現できる。
【0123】
また、携帯電話を始めとする情報端末の搭載されるカメラを用いて、顔向きによるポインティングデバイスが実現できる。
【0124】
(変更例9)
第1、2、3の実施例において、常時視線を検出する方法について述べたが、本発明は例えば蛇角センサやシートにおける圧力センサなどと連動し、必要なときのみ検出を行っても差し支えない。
【0125】
例えば、蛇角センサによって、運転者がハンドル操作を行っているかどうかが判定できるため、ハンドル操作を行っているときは視線の検出を行わないといった処理が可能である。
【0126】
(変更例10)
上記実施例では、ビデオカメラ6からの動画像をもとに視線などを検出したが、これに代えて顔などが撮影された静止画像を用いてもよい。
【0127】
【発明の効果】
本発明によれば、対象者の視線、視点、または、顔向きを特定できる領域を写した入力パターンと辞書パターンとを照合することにより、照明条件や頭部位置の変動に強く、対象者の視線を検出する画像処理システム及びそれを利用した運転支援システムが実現可能となる。
【図面の簡単な説明】
【図1】第1の実施例の構成を表す図である。
【図2】画像入力部の構成を表す図である。
【図3】視線の指標となるターゲットの例を表す図である。
【図4】第2の実施例の画像入力部の構成を表す図である。
【図5】第3の実施例の構成を表す図である。
【符号の説明】
1 画像入力部
2 パターン生成部
3 パターン照合部
4 辞書部
5 視線検出部
6 ビデオカメラ
7 画像表示部
8 カメラコントロール部
9 カメラ自動制御部
10 第2の画像入力部
11 障害物検出部

Claims (6)

  1. 対象者の視線、視点、または、顔向きを検出する画像処理装置であって、
    前記対象者の視線、視点、または、顔向きを特定できる領域の少なくとも一部を含む画像を入力する画像入力手段と、
    前記入力された画像から照合を行うための入力パターンを生成するパターン生成手段と、
    前記対象者の視線、視点、または、顔向きの特定が可能な辞書パターンを登録した辞書手段と、
    前記辞書パターンと前記入力パターンを照合して、両者の類似度を求めるパターン照合手段と、
    前記求めた類似度に基づいて前記対象者の視線、視点、または、顔向きを検出する視線検出手段と、
    を有し、
    前記辞書手段における前記辞書パターンは複数枚の画像から生成された部分空間であり、前記部分空間は、複数のクラスからなり、前記各クラスは前記対象者の相異なる視線方向もしくは視点位置に対応し、また、前記辞書手段は、前記異なるクラス間における差分部分空間を生成し、
    前記パターン生成手段における前記入力パターンは1枚あるいは複数枚の画像から生成した部分空間であり、
    前記パターン照合手段は、
    (1)前記入力パターンの部分空間及び前記各クラスの辞書パターンの部分空間を前記差分辞書部分空間へ射影して差分部分空間を生成し、
    (2)異なる時刻に取得した前記対象者の画像から生成した部分空間の差分空間である自己変動部分空間を生成し、
    (3)前記差分部分空間と前記自己変動部分空間とから制約部分空間を生成し、
    (4)前記制約部分空間から前記類似度を求める
    ことを特徴とする画像処理装置。
  2. 車両の運転者の運転支援装置であって、
    前記運転者の視線、視点、または、顔向きを特定できる領域の少なくとも一部を含む画像を入力する画像入力手段と、
    前記入力された画像から照合を行うための入力パターンを生成するパターン生成手段と、
    前記運転者の視線、視点、または、顔向きの特定が可能な辞書パターンを登録した辞書手段と、
    前記辞書パターンと前記入力パターンを照合して、両者の類似度を求めるパターン照合手段と、
    前記求めた類似度に基づいて前記運転者の視線、視点、または、顔向きを検出する視線検出手段と、
    前記検出された前記運転者の視線、視点、または、顔向きに基づく視界以外の領域を、前記車両に対する障害物を検知するための障害物検出領域として設定する障害物検出領域設定手段と、
    前記設定された障害物検出領域内で障害物を検知する障害物検知手段と、
    を有し、
    前記辞書手段における前記辞書パターンは複数枚の画像から生成された部分空間であり、前記部分空間は、複数のクラスからなり、前記各クラスは前記運転者の相異なる視線方向もしくは視点位置に対応し、また、前記辞書手段は、前記異なるクラス間における差分部分空間を生成し、
    前記パターン生成手段における前記入力パターンは1枚あるいは複数枚の画像から生成 した部分空間であり、
    前記パターン照合手段は、
    (1)前記入力パターンの部分空間及び前記各クラスの辞書パターンの部分空間を前記差分辞書部分空間へ射影して差分部分空間を生成し、
    (2)異なる時刻に取得した前記運転者の画像から生成した部分空間の差分空間である自己変動部分空間を生成し、
    (3)前記差分部分空間と前記自己変動部分空間とから制約部分空間を生成し、
    (4)前記制約部分空間から前記類似度を求める
    ことを特徴とする運転支援装置。
  3. 対象者の視線、視点、または、顔向きを検出する画像処理方法であって、
    前記対象者の視線、視点、または、顔向きを特定できる領域の少なくとも一部を含む画像を入力する画像入力ステップと、
    前記入力された画像から照合を行うための入力パターンを生成するパターン生成ステップと、
    前記対象者の視線、視点、または、顔向きの特定が可能な辞書パターンを登録した辞書ステップと、
    前記辞書パターンと前記入力パターンを照合して、両者の類似度を求めるパターン照合ステップと、
    前記求めた類似度に基づいて前記対象者の視線、視点、または、顔向きを検出する視線検出ステップと、
    を有し、
    前記辞書ステップにおける前記辞書パターンは複数枚の画像から生成された部分空間であり、前記部分空間は、複数のクラスからなり、前記各クラスは前記対象者の相異なる視線方向もしくは視点位置に対応し、また、前記辞書ステップは、前記異なるクラス間における差分部分空間を生成し、
    前記パターン生成ステップにおける前記入力パターンは1枚あるいは複数枚の画像から生成した部分空間であり、
    前記パターン照合ステップは、
    (1)前記入力パターンの部分空間及び前記各クラスの辞書パターンの部分空間を前記差分辞書部分空間へ射影して差分部分空間を生成し、
    (2)異なる時刻に取得した前記対象者の画像から生成した部分空間の差分空間である自己変動部分空間を生成し、
    (3)前記差分部分空間と前記自己変動部分空間とから制約部分空間を生成し、
    (4)前記制約部分空間から前記類似度を求める
    ことを特徴とする画像処理方法。
  4. 車両の運転者の運転支援方法であって、
    前記運転者の視線、視点、または、顔向きを特定できる領域の少なくとも一部を含む画像を入力する画像入力ステップと、
    前記入力された画像から照合を行うための入力パターンを生成するパターン生成ステップと、
    前記運転者の視線、視点、または、顔向きの特定が可能な辞書パターンを登録した辞書ステップと、
    前記辞書パターンと前記入力パターンを照合して、両者の類似度を求めるパターン照合ステップと、
    前記求めた類似度に基づいて前記運転者の視線、視点、または、顔向きを検出する視線検出ステップと、
    前記検出された前記運転者の視線、視点、または、顔向きに基づく視界以外の領域を、前記車両に対する障害物を検知するための障害物検出領域として設定する障害物検出領域設定ステップと、
    前記設定された障害物検出領域内で障害物を検知する障害物検知ステップと、
    を有し、
    前記辞書ステップにおける前記辞書パターンは複数枚の画像から生成された部分空間であり、前記部分空間は、複数のクラスからなり、前記各クラスは前記運転者の相異なる視線方向もしくは視点位置に対応し、また、前記辞書ステップは、前記異なるクラス間における差分部分空間を生成し、
    前記パターン生成ステップにおける前記入力パターンは1枚あるいは複数枚の画像から生成した部分空間であり、
    前記パターン照合ステップは、
    (1)前記入力パターンの部分空間及び前記各クラスの辞書パターンの部分空間を前記差分辞書部分空間へ射影して差分部分空間を生成し、
    (2)異なる時刻に取得した前記運転者の画像から生成した部分空間の差分空間である自己変動部分空間を生成し、
    (3)前記差分部分空間と前記自己変動部分空間とから制約部分空間を生成し、
    (4)前記制約部分空間から前記類似度を求める
    ことを特徴とする運転支援方法。
  5. 対象者の視線、視点、または、顔向きを検出する画像処理方法をコンピュータによって実現するプログラムであって、
    前記対象者の視線、視点、または、顔向きを特定できる領域の少なくとも一部を含む画像を入力する画像入力機能と、
    前記入力された画像から照合を行うための入力パターンを生成するパターン生成機能と、
    前記対象者の視線、視点、または、顔向きの特定が可能な辞書パターンを登録した辞書機能と、
    前記辞書パターンと前記入力パターンを照合して、両者の類似度を求めるパターン照合機能と、
    前記求めた類似度に基づいて前記対象者の視線、視点、または、顔向きを検出する視線検出機能と、
    を実現し、
    前記辞書機能における前記辞書パターンは複数枚の画像から生成された部分空間であり、前記部分空間は、複数のクラスからなり、前記各クラスは前記対象者の相異なる視線方向もしくは視点位置に対応し、また、前記辞書機能は、前記異なるクラス間における差分部分空間を生成し、
    前記パターン生成機能における前記入力パターンは1枚あるいは複数枚の画像から生成した部分空間であり、
    前記パターン照合機能は、
    (1)前記入力パターンの部分空間及び前記各クラスの辞書パターンの部分空間を前記差分辞書部分空間へ射影して差分部分空間を生成し、
    (2)異なる時刻に取得した前記対象者の画像から生成した部分空間の差分空間である自己変動部分空間を生成し、
    (3)前記差分部分空間と前記自己変動部分空間とから制約部分空間を生成し、
    (4)前記制約部分空間から前記類似度を求める
    ことを特徴とする画像処理方法のプログラム。
  6. 車両の運転者の運転支援方法をコンピュータによって実現するプログラムであって、
    前記運転者の視線、視点、または、顔向きを特定できる領域の少なくとも一部を含む画像を入力する画像入力機能と、
    前記入力された画像から照合を行うための入力パターンを生成するパターン生成機能と、
    前記運転者の視線、視点、または、顔向きの特定が可能な辞書パターンを登録した辞書機能と、
    前記辞書パターンと前記入力パターンを照合して、両者の類似度を求めるパターン照合機能と、
    前記求めた類似度に基づいて前記運転者の視線、視点、または、顔向きを検出する視線検出機能と、
    前記検出された前記運転者の視線、視点、または、顔向きに基づく視界以外の領域を、前記車両に対する障害物を検知するための障害物検出領域として設定する障害物検出領域設定機能と、
    前記設定された障害物検出領域内で障害物を検知する障害物検知機能と、
    を実現し、
    前記辞書機能における前記辞書パターンは複数枚の画像から生成された部分空間であり、前記部分空間は、複数のクラスからなり、前記各クラスは前記運転者の相異なる視線方向もしくは視点位置に対応し、また、前記辞書機能は、前記異なるクラス間における差分部分空間を生成し、
    前記パターン生成機能における前記入力パターンは1枚あるいは複数枚の画像から生成した部分空間であり、
    前記パターン照合機能は、
    (1)前記入力パターンの部分空間及び前記各クラスの辞書パターンの部分空間を前記差分辞書部分空間へ射影して差分部分空間を生成し、
    (2)異なる時刻に取得した前記運転者の画像から生成した部分空間の差分空間である自己変動部分空間を生成し、
    (3)前記差分部分空間と前記自己変動部分空間とから制約部分空間を生成し、
    (4)前記制約部分空間から前記類似度を求める
    ことを特徴とする運転支援方法のプログラム。
JP2001156914A 2001-05-25 2001-05-25 画像処理システム及びこれを用いた運転支援システム Expired - Fee Related JP3790680B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2001156914A JP3790680B2 (ja) 2001-05-25 2001-05-25 画像処理システム及びこれを用いた運転支援システム
US10/153,806 US7065230B2 (en) 2001-05-25 2002-05-24 Image processing system and driving support system
US11/334,383 US7346192B2 (en) 2001-05-25 2006-01-19 Image processing system and driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001156914A JP3790680B2 (ja) 2001-05-25 2001-05-25 画像処理システム及びこれを用いた運転支援システム

Publications (2)

Publication Number Publication Date
JP2002352228A JP2002352228A (ja) 2002-12-06
JP3790680B2 true JP3790680B2 (ja) 2006-06-28

Family

ID=19000855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001156914A Expired - Fee Related JP3790680B2 (ja) 2001-05-25 2001-05-25 画像処理システム及びこれを用いた運転支援システム

Country Status (2)

Country Link
US (2) US7065230B2 (ja)
JP (1) JP3790680B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220054006A1 (en) * 2020-08-19 2022-02-24 Digital Diagnostics Inc. Using infrared to detect proper eye alignment before capturing retinal images

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3954484B2 (ja) * 2002-12-12 2007-08-08 株式会社東芝 画像処理装置およびプログラム
US6859144B2 (en) * 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
US6989754B2 (en) * 2003-06-02 2006-01-24 Delphi Technologies, Inc. Target awareness determination system and method
DE10339314B3 (de) * 2003-08-27 2005-04-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Anzeigesteuerung von unterschiedlichen Informationen in einem Fahrzeug und optoakustische Informationseinheit
US20050114331A1 (en) * 2003-11-26 2005-05-26 International Business Machines Corporation Near-neighbor search in pattern distance spaces
JP4206928B2 (ja) * 2004-01-19 2009-01-14 株式会社デンソー 衝突可能性判定装置
JP4088282B2 (ja) * 2004-08-20 2008-05-21 清実 中村 コンピュータ入力方法と装置
DE102004044771B4 (de) * 2004-09-16 2006-08-24 Bayerische Motoren Werke Ag Verfahren zur bildbasierten Fahreridentifikation in einem Kraftfahrzeug
JP2007072620A (ja) * 2005-09-05 2007-03-22 Toshiba Corp 画像認識装置及びその方法
US7423540B2 (en) * 2005-12-23 2008-09-09 Delphi Technologies, Inc. Method of detecting vehicle-operator state
EP2000889B1 (en) 2006-03-15 2018-06-27 Omron Corporation Monitor and monitoring method, controller and control method, and program
WO2007135865A1 (ja) * 2006-05-23 2007-11-29 Pioneer Corporation 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
JP4745207B2 (ja) * 2006-12-08 2011-08-10 株式会社東芝 顔特徴点検出装置及びその方法
JP4829141B2 (ja) 2007-02-09 2011-12-07 株式会社東芝 視線検出装置及びその方法
JP4729522B2 (ja) * 2007-03-22 2011-07-20 株式会社デンソーアイティーラボラトリ ナビゲーション装置、ナビゲーション方法、およびプログラム
JP5082724B2 (ja) * 2007-09-28 2012-11-28 オムロン株式会社 画像処理装置および方法、並びにプログラム
JP5354514B2 (ja) * 2008-03-31 2013-11-27 現代自動車株式会社 脇見運転検出警報システム
JP2010231350A (ja) * 2009-03-26 2010-10-14 Toshiba Corp 人物識別装置、そのプログラム、及び、その方法
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
KR20120118383A (ko) * 2011-04-18 2012-10-26 삼성전자주식회사 이미지 보정 장치 및 이를 이용하는 이미지 처리 장치와 그 방법들
EP2564777B1 (en) 2011-09-02 2017-06-07 Volvo Car Corporation Method for classification of eye closures
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
JP2013140558A (ja) 2011-12-09 2013-07-18 Denso Corp 運転判定装置
US9135508B2 (en) * 2011-12-20 2015-09-15 Microsoft Technology Licensing, Llc. Enhanced user eye gaze estimation
JP2013132970A (ja) 2011-12-26 2013-07-08 Denso Corp ミラー制御装置およびプログラム
EP2908726B1 (en) * 2012-10-19 2022-12-21 Veoneer Sweden AB Method and device for detecting decreased attentiveness of vehicle driver
US9619017B2 (en) 2012-11-07 2017-04-11 Qualcomm Incorporated Techniques for utilizing a computer input device with multiple computers
JP2014139734A (ja) * 2013-01-21 2014-07-31 Sony Corp 情報処理装置および方法、並びにプログラム
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
EP2790126B1 (en) * 2013-04-08 2016-06-01 Cogisen SRL Method for gaze tracking
JP2014222421A (ja) * 2013-05-14 2014-11-27 株式会社デンソー 運転支援装置
KR20150031986A (ko) * 2013-09-17 2015-03-25 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN107533844B (zh) * 2015-04-30 2021-03-23 华为技术有限公司 音频信号处理装置和方法
EP3345127A4 (en) * 2015-08-31 2019-08-21 SRI International METHOD AND SYSTEM FOR MONITORING DRIVING BEHAVIORS
JP6622124B2 (ja) * 2016-03-17 2019-12-18 株式会社東芝 算出装置及び認識装置
CN105893828A (zh) * 2016-05-05 2016-08-24 南京甄视智能科技有限公司 基于移动终端的人脸验证驾考***与方法
EP3479356A4 (en) 2016-06-29 2020-03-25 Seeing Machines Limited SYSTEM AND METHOD FOR IDENTIFYING A CAMERAPOSE OF A FORWARD-LOOKING CAMERA IN A VEHICLE
US11305766B2 (en) * 2016-09-26 2022-04-19 Iprd Group, Llc Combining driver alertness with advanced driver assistance systems (ADAS)
JP2018092318A (ja) * 2016-12-01 2018-06-14 アイシン精機株式会社 安全確認装置
JP6917827B2 (ja) * 2017-08-14 2021-08-11 本田技研工業株式会社 車両制御装置、車両、車両制御方法およびプログラム
US10699144B2 (en) 2017-10-26 2020-06-30 Toyota Research Institute, Inc. Systems and methods for actively re-weighting a plurality of image sensors based on content
JP2021536609A (ja) * 2018-08-31 2021-12-27 アイウェア・テク・ソシエテ・アノニム 注視点推定方法及びシステム
US11150656B2 (en) * 2018-11-19 2021-10-19 Honda Motor Co., Ltd. Autonomous vehicle decision making
US10882398B2 (en) * 2019-02-13 2021-01-05 Xevo Inc. System and method for correlating user attention direction and outside view
CN116307446B (zh) * 2022-12-05 2023-10-27 浙江型相网络科技有限公司 服装供应链管理***

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01178700A (ja) 1987-12-30 1989-07-14 Nakatani:Kk 推進工法における連続排土方法及び連続排土装置
JPH04225478A (ja) 1990-12-27 1992-08-14 Fujitsu Ltd 視線検出装置
JP2988178B2 (ja) 1993-03-11 1999-12-06 日産自動車株式会社 視線方向計測装置
US6181805B1 (en) * 1993-08-11 2001-01-30 Nippon Telegraph & Telephone Corporation Object image detecting method and system
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
JP3447461B2 (ja) 1996-03-26 2003-09-16 株式会社東芝 移動障害物検出装置及びその方法
JP3361980B2 (ja) 1997-12-12 2003-01-07 株式会社東芝 視線検出装置及びその方法
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220054006A1 (en) * 2020-08-19 2022-02-24 Digital Diagnostics Inc. Using infrared to detect proper eye alignment before capturing retinal images

Also Published As

Publication number Publication date
US7065230B2 (en) 2006-06-20
US20060115125A1 (en) 2006-06-01
US7346192B2 (en) 2008-03-18
US20030039378A1 (en) 2003-02-27
JP2002352228A (ja) 2002-12-06

Similar Documents

Publication Publication Date Title
JP3790680B2 (ja) 画像処理システム及びこれを用いた運転支援システム
EP3539054B1 (en) Neural network image processing apparatus
US8345936B2 (en) Multispectral iris fusion for enhancement and interoperability
Lu et al. A head pose-free approach for appearance-based gaze estimation.
KR101490016B1 (ko) 인물 화상 처리 장치 및 인물 화상 처리 방법
JP4569670B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5008269B2 (ja) 情報処理装置、情報処理方法
US9053388B2 (en) Image processing apparatus and method, and computer-readable storage medium
TWI383325B (zh) 臉部表情辨識
JP5174045B2 (ja) 分類器チェーンを用いた照明検出
JP5517858B2 (ja) 画像処理装置、撮像装置、画像処理方法
CN109800643B (zh) 一种活体人脸多角度的身份识别方法
JP4811259B2 (ja) 視線方向推定装置及び視線方向推定方法
TWI394093B (zh) 一種影像合成方法
JP2012038106A (ja) 情報処理装置、情報処理方法、およびプログラム
MX2012010602A (es) Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.
JP2007213378A (ja) 特定表情顔検出方法、撮像制御方法および装置並びにプログラム
JP2006260583A (ja) 自動化された非侵入的な虹彩認識システムおよびその方法
JP2000259814A (ja) 画像処理装置及びその方法
EP1703480B1 (en) System and method to determine awareness
Paone et al. Baseline face detection, head pose estimation, and coarse direction detection for facial data in the SHRP2 naturalistic driving study
JP5170094B2 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
JP4507679B2 (ja) 画像認識装置、画像抽出装置、画像抽出方法及びプログラム
JP4735242B2 (ja) 注視対象物体特定装置
JP2005259049A (ja) 顔面照合装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060403

R151 Written notification of patent or utility model registration

Ref document number: 3790680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees