JPH0424503A - 眼位置検出装置 - Google Patents
眼位置検出装置Info
- Publication number
- JPH0424503A JPH0424503A JP2129274A JP12927490A JPH0424503A JP H0424503 A JPH0424503 A JP H0424503A JP 2129274 A JP2129274 A JP 2129274A JP 12927490 A JP12927490 A JP 12927490A JP H0424503 A JPH0424503 A JP H0424503A
- Authority
- JP
- Japan
- Prior art keywords
- black
- eye
- detected
- width
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000001508 eye Anatomy 0.000 claims abstract description 74
- 238000001514 detection method Methods 0.000 claims abstract description 50
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 26
- 238000000034 method Methods 0.000 description 29
- 239000000872 buffer Substances 0.000 description 18
- 239000011521 glass Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 239000012536 storage buffer Substances 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 5
- 206010041349 Somnolence Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Surgery (AREA)
- Business, Economics & Management (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Emergency Management (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Burglar Alarm Systems (AREA)
- Emergency Alarm Devices (AREA)
- Geophysics And Detection Of Objects (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[発明の目的]
(産業上の利用分野)
この発明は、運転者の眼の位置を検出する眼位置検出装
置に関する。
置に関する。
(従来の技術)
従来の車両運転者等の眼位置検出装置としては、例えば
特開昭62−247410号公報に記載されたようなも
のがある。これは車両運転者の眼の状態変化や口の発生
形状を認識することにより電気装置の付勢制御を行う装
置として提案されている。
特開昭62−247410号公報に記載されたようなも
のがある。これは車両運転者の眼の状態変化や口の発生
形状を認識することにより電気装置の付勢制御を行う装
置として提案されている。
また、他の従来例として、例えば特開昭6015830
3号公報、特開昭60−158304号公報、特開昭6
1−77705号公報および特開昭61−77706号
公報に記載されたようなものがある。これらは車両運転
者の眼の位置を認識する装置であり、運転者の顔部分を
撮影して2枚の画像として入力し、この画像の明領域の
中にある独立した明領域を特異的として抽出し、その特
異点を眼として認識する構成となっており、運転者の居
眠りや、わき見の検出に利用可能であるとしている。
3号公報、特開昭60−158304号公報、特開昭6
1−77705号公報および特開昭61−77706号
公報に記載されたようなものがある。これらは車両運転
者の眼の位置を認識する装置であり、運転者の顔部分を
撮影して2枚の画像として入力し、この画像の明領域の
中にある独立した明領域を特異的として抽出し、その特
異点を眼として認識する構成となっており、運転者の居
眠りや、わき見の検出に利用可能であるとしている。
(発明が解決しようとする課題)
しかしながら、このような従来の車両運転者の眼位置検
出装置では、撮影画像には影かでき、眼の部分が独立し
た暗領域にならない場合も多い。
出装置では、撮影画像には影かでき、眼の部分が独立し
た暗領域にならない場合も多い。
特に、眼鏡をかけている場合、髪の毛が額を覆っている
場合などは眼の部分が独立した暗領域とはならない。こ
のため、眼の位置が検出できなかったり、眉毛や眼鏡の
フレームなどを眼として誤認識してしまうという問題が
あった。
場合などは眼の部分が独立した暗領域とはならない。こ
のため、眼の位置が検出できなかったり、眉毛や眼鏡の
フレームなどを眼として誤認識してしまうという問題が
あった。
そこでこの発明は、車両運転者等の眼の位置の検出性度
をより向上することができる運転者の眼位置検出装置の
提供を目的とする。
をより向上することができる運転者の眼位置検出装置の
提供を目的とする。
[発明の構成]
(課題を解決するための手段)
上記課題を解決するためにこの発明は、第1図のように
、眼を含む顔画像を入力する画像入力手段CLIと、前
記画像入力手段CLIから送出されている入力画像を2
値化する2値化手段CL2と、前記2値化手段CL2に
よる2値化画像において顔の幅を検出する顔幅検出手段
CL3と、前記顔幅検出手段CL3により検出された顔
幅から眼の存在領域の横方向の位置を決定する眼球の左
右領域決定手段CL4と、決定された眼の横方向の存在
領域で縦方向の下から黒領域を検出する黒領域検出手段
CL5と、検出された黒領域の下端点を検出する下端点
検出手段CL6と、検出された下端点を基準にして眼の
存在領域の縦方向の位置を決定する眼球の縦領域決定手
段CL7とを備える構成とした。
、眼を含む顔画像を入力する画像入力手段CLIと、前
記画像入力手段CLIから送出されている入力画像を2
値化する2値化手段CL2と、前記2値化手段CL2に
よる2値化画像において顔の幅を検出する顔幅検出手段
CL3と、前記顔幅検出手段CL3により検出された顔
幅から眼の存在領域の横方向の位置を決定する眼球の左
右領域決定手段CL4と、決定された眼の横方向の存在
領域で縦方向の下から黒領域を検出する黒領域検出手段
CL5と、検出された黒領域の下端点を検出する下端点
検出手段CL6と、検出された下端点を基準にして眼の
存在領域の縦方向の位置を決定する眼球の縦領域決定手
段CL7とを備える構成とした。
(作用)
上記構成によれば、顔幅検出手段CL3により検出され
た顔幅から眼の存在領域の横方向の幅が決定され、黒領
域検出手段CL5により前記横方向の存在領域で縦方向
の下から黒領域を検出する。検出された黒領域の下端点
を下端点検出手段CL6が検出し、この下端点を基準に
して、縦領域決定手段CL7か眼の存在領域の縦方向の
幅を設定する。
た顔幅から眼の存在領域の横方向の幅が決定され、黒領
域検出手段CL5により前記横方向の存在領域で縦方向
の下から黒領域を検出する。検出された黒領域の下端点
を下端点検出手段CL6が検出し、この下端点を基準に
して、縦領域決定手段CL7か眼の存在領域の縦方向の
幅を設定する。
(実施例)
以丁、二の発明の実施例を図面に基づいて説明する。
第2図はこの発明の一実施例に係る眼の位置検出装置の
構成図、第3図は第2図の構成に基づくフローチャート
を示すものである。
構成図、第3図は第2図の構成に基づくフローチャート
を示すものである。
第2図に示すように、この眼位置検出装置は自動車に適
用したもので、インストメンドパネル(図示せず)内の
運転者に対する正面方向に、運転者の顔部分を照射する
赤外ストロボlと、この赤外ストロボ1の赤外光で照射
される顔部分を撮影する画像入力手段CLIとしてのT
V左カメラと、前記赤外ストロボ1の発光とTV左カメ
ラの画像入力とのタイミグを合せるタイミング指令回路
5とを備えている。そして、赤外ストロボ1にタイミン
グ指令回路5からストロボ発光指令が出力されると、赤
外ストロボlが発光して運転者の顔部分を照射し、これ
と同時にTV左カメラに対し画像入力指令か出力され、
赤外光で照射された顔部分を撮像するようになっている
。
用したもので、インストメンドパネル(図示せず)内の
運転者に対する正面方向に、運転者の顔部分を照射する
赤外ストロボlと、この赤外ストロボ1の赤外光で照射
される顔部分を撮影する画像入力手段CLIとしてのT
V左カメラと、前記赤外ストロボ1の発光とTV左カメ
ラの画像入力とのタイミグを合せるタイミング指令回路
5とを備えている。そして、赤外ストロボ1にタイミン
グ指令回路5からストロボ発光指令が出力されると、赤
外ストロボlが発光して運転者の顔部分を照射し、これ
と同時にTV左カメラに対し画像入力指令か出力され、
赤外光で照射された顔部分を撮像するようになっている
。
TV左カメラの入力画像はこの実施例では第6図に示す
ように、横(X)方向520画素、縦(Y)方向500
画素がらなり、縦方向に顔部分がほぼいっばいになるよ
うに画角が調整されている。
ように、横(X)方向520画素、縦(Y)方向500
画素がらなり、縦方向に顔部分がほぼいっばいになるよ
うに画角が調整されている。
TV右カメラには、撮影した入力画像をデジタル量に変
換するA/D変換器7を介して画像メモリ9が接続され
ている。この画像メモリ9はTV右カメラの入力画像デ
ータを入力するものである。
換するA/D変換器7を介して画像メモリ9が接続され
ている。この画像メモリ9はTV右カメラの入力画像デ
ータを入力するものである。
画像メモリ9には、該画像メモリ9に格納された入力画
像データに基づいて眼球の存在位置領域を規定する眼球
存在位置規定回路11が接続され、さらに、眼球存在位
置規定回路11で規定された領域内にある画像メモリ9
の画像データを処理して眼の虹彩部分を検出する虹彩検
出回路13が接続されている。
像データに基づいて眼球の存在位置領域を規定する眼球
存在位置規定回路11が接続され、さらに、眼球存在位
置規定回路11で規定された領域内にある画像メモリ9
の画像データを処理して眼の虹彩部分を検出する虹彩検
出回路13が接続されている。
また、虹彩検出回路13には、該虹彩検出回路13での
虹彩検出結果から運転者の居眠りやわき見等の有無を判
定する居眠りわき見等の有無を判定する居眠りわき見料
定回路15が接続されている。
虹彩検出結果から運転者の居眠りやわき見等の有無を判
定する居眠りわき見等の有無を判定する居眠りわき見料
定回路15が接続されている。
前記眼球存在位置規定回路11は、入力画像をあるしき
い値で2値化する2値化手段CL2と、2値化画像にお
いて顔の幅を検出する顔幅検出手段CL3と、顔の幅か
ら左右の眼の存在領域の横方向の位置を決定する眼球の
左右領域決定手段CL4と、決定された眼の横方向の存
在領域で縦方向の下から黒領域を検出する黒領域検出手
段CL5と、検出された黒領域の下端点を検出する下端
点検出手段CL6と、検出された下端点を基準にして、
眼の存在領域の縦方向の位置を決定する眼球の縦領域決
定手段CL7とを構成するものである。
い値で2値化する2値化手段CL2と、2値化画像にお
いて顔の幅を検出する顔幅検出手段CL3と、顔の幅か
ら左右の眼の存在領域の横方向の位置を決定する眼球の
左右領域決定手段CL4と、決定された眼の横方向の存
在領域で縦方向の下から黒領域を検出する黒領域検出手
段CL5と、検出された黒領域の下端点を検出する下端
点検出手段CL6と、検出された下端点を基準にして、
眼の存在領域の縦方向の位置を決定する眼球の縦領域決
定手段CL7とを構成するものである。
つぎに、第3図のフローチャートに基づいて全体の作用
を説明する。
を説明する。
まず、ステップS1で赤外線ストロボ1の発光と同期し
てTV右カメラによって運転者の顔部分を撮影し、この
画像をA/D変換回路7てデジタル信号に変換して画像
メモリ9に格納する(ステップS2)。
てTV右カメラによって運転者の顔部分を撮影し、この
画像をA/D変換回路7てデジタル信号に変換して画像
メモリ9に格納する(ステップS2)。
つぎにステップS3で画像メモリ9に格納された入力画
像データを眼球存在位置規定回路1]に取り込み、ある
しきい値で2値化する。これは、顔部分の明暗をはっき
りさせるためてあり、2値化しきい値は眼球を抽出てき
るレベルに設定されている。
像データを眼球存在位置規定回路1]に取り込み、ある
しきい値で2値化する。これは、顔部分の明暗をはっき
りさせるためてあり、2値化しきい値は眼球を抽出てき
るレベルに設定されている。
すなわち、ビデオ信号を256階調(0〜255)のデ
ジタルデータに変換し、白い部分を“255°、黒い部
分を“0”とし、あるスレッンユホールドレヘルて2値
化して2値化画像J (x。
ジタルデータに変換し、白い部分を“255°、黒い部
分を“0”とし、あるスレッンユホールドレヘルて2値
化して2値化画像J (x。
y)を得たものである。
つぎに、ステップS4およびステップS6において左右
それぞれの眼球の存在領域(ウィンドウ、第6図の点線
で示す四角部分)の横方向(X方向)の幅を決定し、さ
らにステップS5およびステップS7において、左右そ
れぞれの眼球のウィンドウの縦方向(X方向)の幅を決
定する。この処理の詳細は第4図および第5図に示すフ
ローチャートにより後述する。
それぞれの眼球の存在領域(ウィンドウ、第6図の点線
で示す四角部分)の横方向(X方向)の幅を決定し、さ
らにステップS5およびステップS7において、左右そ
れぞれの眼球のウィンドウの縦方向(X方向)の幅を決
定する。この処理の詳細は第4図および第5図に示すフ
ローチャートにより後述する。
つぎに、左右それぞれの眼球のウィンドウが決定される
と、ステップS8て虹彩中心検出が行われる。そして、
虹彩中心が検出されると、ステップS9て虹彩中心から
乗員の居眠りわき見料定か行われる。
と、ステップS8て虹彩中心検出が行われる。そして、
虹彩中心が検出されると、ステップS9て虹彩中心から
乗員の居眠りわき見料定か行われる。
第4図は、第3図のステップS4およびステップS6の
詳細フローチャートを示すもので、顔の輪郭線等より顔
の幅を認識し、この顔の幅から眼球の存在領域のX方向
(横方向)の幅を決定するものである。
詳細フローチャートを示すもので、顔の輪郭線等より顔
の幅を認識し、この顔の幅から眼球の存在領域のX方向
(横方向)の幅を決定するものである。
まず、初めにステップ5201てX座標カウンタxc、
y座標カウンタYC,白色画素の連続数バッファXLB
、白色画素の連続終端位置バッファXEB、白色画素の
最大連続数XL、白色画素の連続が最大の位置での始点
XSおよび終点XE、Y座標YLをクリアする。
y座標カウンタYC,白色画素の連続数バッファXLB
、白色画素の連続終端位置バッファXEB、白色画素の
最大連続数XL、白色画素の連続が最大の位置での始点
XSおよび終点XE、Y座標YLをクリアする。
つぎに、ステップ8203で入力画像をX方向にラスタ
ー走査しく第6図において左から右へ走査するが、実際
の顔に対しては右から左へ走査していることになる。但
し、説明上第6図の左側を顔の左側と称する。)、画素
J (XC,YC)力黒色か否かを検索する(ステップ
5204)。顔部等の検出で画素か黒い場合にはステッ
プ5209へ移行し、白色画素カウンタC0NTをクリ
アする。画素が白の場合はステップ5205へ移行して
白色画素カウンタC0NTをカウントアップし、この白
色画素カウンタC0NTの値がY座標YCて白色画素の
最も長い値(前回までの処理で最も長い値をいう)のバ
ッファXLBより大きいか否かが判別される(ステップ
5206)。この判別は顔幅を検出するためのものであ
る。白色画素カウンタC0NTの値の方が大きい場合は
、その長さC0NTと終端位置XCをそれぞれバッファ
XLBXXEBに記憶する(ステップ5207゜520
8)。そして、ステップ5210において、X座標XC
を520画素すべて走査したか否かが判別される。52
0画素の走査が終了するとステップ5211へ移行し、
白色画素連続数バッファXLBに記憶された白色画素の
連続数の値か、今までの白色画素最大連続数XLより大
きいか否かが判別される。白色画素連続数バッファXL
BO値の方が大きい場合はステップ5212へ移行シ、
白色画素数連続数バッファLXBの値と今までの白色画
素最大連続数XLとの差が300ドツトを越えるか否か
が判別される。この判別は白画素か連続する部分の長さ
の変化量か急激か否かを判別するものである。これは、
左右のこめかみ間から左右もみ上げ間で顔幅を検出して
いるときは、略LXB>XLの条件を満足し、且つその
差が300ドツトを越えることはないと推測できること
に基づき誤検出を防止するためのものである。従って、
差が300ドツト以下の場合にはステップ8213へ移
行し、白色画素連続数バッファXLBを白色画素最大連
続数XLとする。つぎに、ステップ5214および52
15において、白色画素の連続が最大の位置の始点XS
および終点XEとY座標YLを算出して記憶し、ステッ
プ5217で白色画素連続数バッファXLBをクリアす
る。
ー走査しく第6図において左から右へ走査するが、実際
の顔に対しては右から左へ走査していることになる。但
し、説明上第6図の左側を顔の左側と称する。)、画素
J (XC,YC)力黒色か否かを検索する(ステップ
5204)。顔部等の検出で画素か黒い場合にはステッ
プ5209へ移行し、白色画素カウンタC0NTをクリ
アする。画素が白の場合はステップ5205へ移行して
白色画素カウンタC0NTをカウントアップし、この白
色画素カウンタC0NTの値がY座標YCて白色画素の
最も長い値(前回までの処理で最も長い値をいう)のバ
ッファXLBより大きいか否かが判別される(ステップ
5206)。この判別は顔幅を検出するためのものであ
る。白色画素カウンタC0NTの値の方が大きい場合は
、その長さC0NTと終端位置XCをそれぞれバッファ
XLBXXEBに記憶する(ステップ5207゜520
8)。そして、ステップ5210において、X座標XC
を520画素すべて走査したか否かが判別される。52
0画素の走査が終了するとステップ5211へ移行し、
白色画素連続数バッファXLBに記憶された白色画素の
連続数の値か、今までの白色画素最大連続数XLより大
きいか否かが判別される。白色画素連続数バッファXL
BO値の方が大きい場合はステップ5212へ移行シ、
白色画素数連続数バッファLXBの値と今までの白色画
素最大連続数XLとの差が300ドツトを越えるか否か
が判別される。この判別は白画素か連続する部分の長さ
の変化量か急激か否かを判別するものである。これは、
左右のこめかみ間から左右もみ上げ間で顔幅を検出して
いるときは、略LXB>XLの条件を満足し、且つその
差が300ドツトを越えることはないと推測できること
に基づき誤検出を防止するためのものである。従って、
差が300ドツト以下の場合にはステップ8213へ移
行し、白色画素連続数バッファXLBを白色画素最大連
続数XLとする。つぎに、ステップ5214および52
15において、白色画素の連続が最大の位置の始点XS
および終点XEとY座標YLを算出して記憶し、ステッ
プ5217で白色画素連続数バッファXLBをクリアす
る。
また、ステップ5212で差か300ドツトを越える場
合は正規の顔幅検出位置ではないと推測できるため、ス
テップ5216へ移行し、白色画素連続数バッファXL
Bの値か400ドツトを越えるか否かが判別される。バ
ッファXLBO値か400ドツトを越えない場合は、X
LとXLBとの差が300ドツトを越えるけれども−0
顔幅を検出していると判断てきるためステップ5213
〜5215へ移行し、前記同様に白色画素の連続が最大
位置の始点XSおよび終点XEとY座標YLを算出して
記憶し、ステップ5217で白色画素連続数バッファX
LBをクリアする。
合は正規の顔幅検出位置ではないと推測できるため、ス
テップ5216へ移行し、白色画素連続数バッファXL
Bの値か400ドツトを越えるか否かが判別される。バ
ッファXLBO値か400ドツトを越えない場合は、X
LとXLBとの差が300ドツトを越えるけれども−0
顔幅を検出していると判断てきるためステップ5213
〜5215へ移行し、前記同様に白色画素の連続が最大
位置の始点XSおよび終点XEとY座標YLを算出して
記憶し、ステップ5217で白色画素連続数バッファX
LBをクリアする。
なお、ステップ5212での300ドツトおよびステッ
プ8216での400ドツトはこれ以下のドツト数でも
よく、また固定値であるが、体格検知、女性、男性等に
よって変えることもできる。
プ8216での400ドツトはこれ以下のドツト数でも
よく、また固定値であるが、体格検知、女性、男性等に
よって変えることもできる。
ステップ5211て白色連続数バッファXLBの値の方
が小さい場合はステップ5217へ移行して白色画素連
続数バッファXLBをクリアする。
が小さい場合はステップ5217へ移行して白色画素連
続数バッファXLBをクリアする。
以下、このような処理をX座標のYCが500画素(画
面の最後)になるまで繰返し、白画素の連続が最大位置
の始点XSと終点およびY座標YLを求めて顔の最大幅
を検出する。
面の最後)になるまで繰返し、白画素の連続が最大位置
の始点XSと終点およびY座標YLを求めて顔の最大幅
を検出する。
以上のようにして顔の最大の幅が検出されると、この幅
を左右の眼の存在領域(ウィンドウ)に分割するための
X座標を求める(第8図参照)。この分割は、例えば次
式によって行われる。すなわち、 X軸センターXc −xS+ ((XE−XS)/21 左眼ウィンドウの左側X座標−X、−XS左眼ウィンド
ウの右側X座標−x2 Xc−25 右眼ウィンドウの左側X座標−XX1 −Xc+25 右眼ウィンドウの右側X座標−XX2−XE上記のよう
に左右ウィンドウのX座標X。
を左右の眼の存在領域(ウィンドウ)に分割するための
X座標を求める(第8図参照)。この分割は、例えば次
式によって行われる。すなわち、 X軸センターXc −xS+ ((XE−XS)/21 左眼ウィンドウの左側X座標−X、−XS左眼ウィンド
ウの右側X座標−x2 Xc−25 右眼ウィンドウの左側X座標−XX1 −Xc+25 右眼ウィンドウの右側X座標−XX2−XE上記のよう
に左右ウィンドウのX座標X。
x2 xx、 xx2が検出されると、第3図の
フローチャートのステップS5およびステップS7でウ
ィンドウの樅方向(Y方向)の幅を決定する。
フローチャートのステップS5およびステップS7でウ
ィンドウの樅方向(Y方向)の幅を決定する。
第5図はステップS5およびステップS7の詳細フロー
チャートを示すものである。この処理はウィンドウのY
方向の座標を検出するもので、左右それその眼において
行われる。
チャートを示すものである。この処理はウィンドウのY
方向の座標を検出するもので、左右それその眼において
行われる。
また、この処理は、大きく分けて黒領域2点の検索部分
と、眼鏡の有無検索部分との二つに分かれる。
と、眼鏡の有無検索部分との二つに分かれる。
黒領域2点の検索部分ては、左眼に関して第7図に示す
ように、左眼ウィンドウの右側X座標X2から10ドツ
ト左側、すなわちX2−10を始点としくこれは鼻の穴
の黒い部分の検出を避けるためである。)、この位置か
ら横方向(X方向)にX2−90までを範囲とし、ウィ
ンドウの幅を決定したY座標YLから0の範囲で横方向
へ4ドツト毎に縦方向上方(Y方向)へ検索する。
ように、左眼ウィンドウの右側X座標X2から10ドツ
ト左側、すなわちX2−10を始点としくこれは鼻の穴
の黒い部分の検出を避けるためである。)、この位置か
ら横方向(X方向)にX2−90までを範囲とし、ウィ
ンドウの幅を決定したY座標YLから0の範囲で横方向
へ4ドツト毎に縦方向上方(Y方向)へ検索する。
また、右眼に関しては右眼ウィンドウ左側X座標XX1
から10ドツト右側、すなわちXX、+10を始点とし
、この位置から横方向(X方向)にXX、+90までを
範囲とし、Y座標YLから0の範囲で横方向へ4ドツト
毎に、縦方向上方(Y方向)へ検索する。
から10ドツト右側、すなわちXX、+10を始点とし
、この位置から横方向(X方向)にXX、+90までを
範囲とし、Y座標YLから0の範囲で横方向へ4ドツト
毎に、縦方向上方(Y方向)へ検索する。
眼鏡の有無検出部では、左眼に関して第8図に示すよう
に、左眼ウィンドウの右側X座標X2から左眼ウィンド
ウの左側X座標X1への横方向(X方向)の範囲で、ま
た、右眼に関しては右眼ウィンドウの左側X座標XX1
から左眼ウィンドウの右側X座標XX2への横方向(X
方向)の範囲で後述するように検索する。
に、左眼ウィンドウの右側X座標X2から左眼ウィンド
ウの左側X座標X1への横方向(X方向)の範囲で、ま
た、右眼に関しては右眼ウィンドウの左側X座標XX1
から左眼ウィンドウの右側X座標XX2への横方向(X
方向)の範囲で後述するように検索する。
以下、左目ウィンドウのY方向の幅を決定する処理につ
いて説明する。
いて説明する。
マス、ステップ5301において、一番目と二番目の黒
領域のY座標の最大値(最下点)のメモリ変数BYIM
AXおよびBY2MAXかクリアされ、X方向の検出範
囲規定カウンタXCHECKがX2−10に、また、Y
方向の検索範囲規定カウンタYCHECKがYLに初期
化される。
領域のY座標の最大値(最下点)のメモリ変数BYIM
AXおよびBY2MAXかクリアされ、X方向の検出範
囲規定カウンタXCHECKがX2−10に、また、Y
方向の検索範囲規定カウンタYCHECKがYLに初期
化される。
つぎに、ステップ5302てX方向の検索範囲規定カウ
ンタXCHECKかX2−90以下か否かが判別される
。この判別はX方向へすべて検索したか否かを判別する
ものである。このときは、未だ、X方向全ての検索を終
了していないからステップ8303へ移行し、一番目の
黒領域を検出したフラグFL1、黒色画素連続カウンタ
BLACK、白色画素連続カウンタWHITE、一番目
の黒領域と二番目の黒領域との間隔が10ドツト以上あ
るフラグWHITEFLおよび一番目の黒領域と二番目
の黒領域のそれぞれの最大値記憶・ヘッファBY1およ
びBY2がクリアされる。
ンタXCHECKかX2−90以下か否かが判別される
。この判別はX方向へすべて検索したか否かを判別する
ものである。このときは、未だ、X方向全ての検索を終
了していないからステップ8303へ移行し、一番目の
黒領域を検出したフラグFL1、黒色画素連続カウンタ
BLACK、白色画素連続カウンタWHITE、一番目
の黒領域と二番目の黒領域との間隔が10ドツト以上あ
るフラグWHITEFLおよび一番目の黒領域と二番目
の黒領域のそれぞれの最大値記憶・ヘッファBY1およ
びBY2がクリアされる。
つぎに、ステップ5304て検索画素が黒か否かが判別
され、黒の場合は白色画素連続カウンタWRITEをク
リアしくステップ5305)、黒色画素連続カウンタB
LACKをカウントアツプする(ステップ5306)。
され、黒の場合は白色画素連続カウンタWRITEをク
リアしくステップ5305)、黒色画素連続カウンタB
LACKをカウントアツプする(ステップ5306)。
そして、ステップ5307で黒色画素連続カウンタBL
ACKの黒画素が1か否かが判別される。これは黒画素
の検出が初めてか否かを判断するものである。黒画素が
1の場合は黒領域の最下点Y座標候補としてY方向の検
索節回規定カウンタYCHECKてカウントされた現Y
座標を5ETYに記憶する。例えば第7図で“1”とし
であるY座標を記憶する。つぎに、ステップ5309て
黒画素連続カウンタBLACKの黒画素が2以上か否が
か判別され、黒画素が2以上の場合は一番目の黒領域を
検出したフラグFLIかセットされているか否かが判別
される(ステップS 31.0 )。フラグFLIかセ
ットされていない場合は、ステップ8311へ移行し、
一番目の黒領域の最大値記憶1<ツファBYIに5ET
Yの値を代入して保管し、フラグFL]をセットする。
ACKの黒画素が1か否かが判別される。これは黒画素
の検出が初めてか否かを判断するものである。黒画素が
1の場合は黒領域の最下点Y座標候補としてY方向の検
索節回規定カウンタYCHECKてカウントされた現Y
座標を5ETYに記憶する。例えば第7図で“1”とし
であるY座標を記憶する。つぎに、ステップ5309て
黒画素連続カウンタBLACKの黒画素が2以上か否が
か判別され、黒画素が2以上の場合は一番目の黒領域を
検出したフラグFLIかセットされているか否かが判別
される(ステップS 31.0 )。フラグFLIかセ
ットされていない場合は、ステップ8311へ移行し、
一番目の黒領域の最大値記憶1<ツファBYIに5ET
Yの値を代入して保管し、フラグFL]をセットする。
そして、ステップ5328てY座標YCをカウントダウ
ンし、一つ上の画素の検索に移る。
ンし、一つ上の画素の検索に移る。
ステップ5310てフラグFLIがセットされている場
合はステップ5312へ移行し、一番[」の黒領域と二
番目の黒領域の間隔か10ドツト以上あるフラグWHI
TEFLがセットされているか否かが判別される。そし
て、フラグWHITEFLがセットされている場合は二
番目の黒領域を検出したことになるのでステップS3]
3で二番目の黒領域の最大値記憶バッファBY2に5E
TYの値を代入して保管する。例えば、第7図で“2”
と示しであるY座標を保管する。またステップS3]2
てフラグWHITEFLかセントされていない場合は、
一番目の黒領域と二番[」の黒領域の間隔が狭く両者の
差か明確でないのでステップ5314へ移行し、黒画素
の連続数か50ドツトを越えるか否かか判別される。黒
画素の連続数か50ドツトを越えている場合は頭髪を検
出したことになるためステップ5315へ移行してバッ
ファBY2をクリアし、また、50ドツトを越えていな
い場合はステップ8328へ移行しY座標YCを一つ上
の画素の検索に移る。
合はステップ5312へ移行し、一番[」の黒領域と二
番目の黒領域の間隔か10ドツト以上あるフラグWHI
TEFLがセットされているか否かが判別される。そし
て、フラグWHITEFLがセットされている場合は二
番目の黒領域を検出したことになるのでステップS3]
3で二番目の黒領域の最大値記憶バッファBY2に5E
TYの値を代入して保管する。例えば、第7図で“2”
と示しであるY座標を保管する。またステップS3]2
てフラグWHITEFLかセントされていない場合は、
一番目の黒領域と二番[」の黒領域の間隔が狭く両者の
差か明確でないのでステップ5314へ移行し、黒画素
の連続数か50ドツトを越えるか否かか判別される。黒
画素の連続数か50ドツトを越えている場合は頭髪を検
出したことになるためステップ5315へ移行してバッ
ファBY2をクリアし、また、50ドツトを越えていな
い場合はステップ8328へ移行しY座標YCを一つ上
の画素の検索に移る。
前記ステップ5304で検索画素が白の場合にはステッ
プ5316へ移行して黒色画素連続カウンタBLACK
をクリアし、ステップ5317で一番目の黒領域を検出
したフラグFL1がセットされているか否かが判別され
る。そして、フラグFLIがセットされていない場合は
、未だ黒領域が一つも検出されていないためステップ5
328へ移行しY座標YCをカウントダウンし、一つ上
の画素の検索に移る。フラグFLIがセットされている
場合にはステップ5318へ移行し、白色画素連続カウ
ンタWRITEをカウントアツプする。そして、ステッ
プ5319て白画素が10ドツト以上連続したか否かが
判別され、10ドツト以上連続した場合は眼と眉の間か
、眼鏡フレームと眼の間を検出したものとしてステップ
5319へ移行し、一番目の黒領域と二番目の黒領域の
間隔が10ドツト以上あるフラグWHITEFLをセッ
トする。また、白画素が10ドツト以上連続していない
場合はステップ5328へ移行しY座標YCをカウント
ダウンし、一つ上の画素の検索に移る。
プ5316へ移行して黒色画素連続カウンタBLACK
をクリアし、ステップ5317で一番目の黒領域を検出
したフラグFL1がセットされているか否かが判別され
る。そして、フラグFLIがセットされていない場合は
、未だ黒領域が一つも検出されていないためステップ5
328へ移行しY座標YCをカウントダウンし、一つ上
の画素の検索に移る。フラグFLIがセットされている
場合にはステップ5318へ移行し、白色画素連続カウ
ンタWRITEをカウントアツプする。そして、ステッ
プ5319て白画素が10ドツト以上連続したか否かが
判別され、10ドツト以上連続した場合は眼と眉の間か
、眼鏡フレームと眼の間を検出したものとしてステップ
5319へ移行し、一番目の黒領域と二番目の黒領域の
間隔が10ドツト以上あるフラグWHITEFLをセッ
トする。また、白画素が10ドツト以上連続していない
場合はステップ5328へ移行しY座標YCをカウント
ダウンし、一つ上の画素の検索に移る。
つぎに、ステップ5321で白画素が80ドツト以上連
続したか否かが判別され、80ドツト以上連続した場合
は眉毛を検出せず顔を検出したことになるからステップ
5322へ移行し、二番目の黒領域の最大値記憶バッフ
ァBY2をクリアする。また、白画素80ドツト以上連
続していない場合はステップ8328へ移行し、Y座標
YCをカウントダウンし、一つ上の画素の検索に移る。
続したか否かが判別され、80ドツト以上連続した場合
は眉毛を検出せず顔を検出したことになるからステップ
5322へ移行し、二番目の黒領域の最大値記憶バッフ
ァBY2をクリアする。また、白画素80ドツト以上連
続していない場合はステップ8328へ移行し、Y座標
YCをカウントダウンし、一つ上の画素の検索に移る。
つぎに、一番目と二番目の黒領域の候補点としてのそれ
ぞれのバッファBYIおよびBY2が決定されると、ス
テップ5323において、候補点としてのバッファBY
Iの値を今までに記憶された一番目の黒領域値の最大値
(最下点)BYIMAXと比較し、より大きい方をBY
IMAXとして記憶する(ステップ5324)。例えば
、第8図において中央部の1のY座標がBYIMAXと
して記憶される。続いて、ステップ5325において、
候補点としてのバッファBY2の値を今までに記憶され
た二番目の黒領域の最大値(最下点)BY2MAXと比
較しより大きい方をBY2MAXとして記憶する。例え
ば、第7図において、右側の2のY座標がBY2MAX
として記憶される。
ぞれのバッファBYIおよびBY2が決定されると、ス
テップ5323において、候補点としてのバッファBY
Iの値を今までに記憶された一番目の黒領域値の最大値
(最下点)BYIMAXと比較し、より大きい方をBY
IMAXとして記憶する(ステップ5324)。例えば
、第8図において中央部の1のY座標がBYIMAXと
して記憶される。続いて、ステップ5325において、
候補点としてのバッファBY2の値を今までに記憶され
た二番目の黒領域の最大値(最下点)BY2MAXと比
較しより大きい方をBY2MAXとして記憶する。例え
ば、第7図において、右側の2のY座標がBY2MAX
として記憶される。
このようにして、一番目の黒領域の最下点BYIMAX
と二番目の黒領域の最下点BY2AXが決定される。
と二番目の黒領域の最下点BY2AXが決定される。
つぎに、眼鏡の有無の検索を行う。まず、第5図(b)
のステップ5329において、二番目の黒領域の最大値
記憶バッファBY2が検出されているか否かを判別し、
このBY2の値からステップ5330.8331で眼鏡
検出のY座標BYHを求める。すなわち、二番目の黒領
域の最大値記憶バッファBY2がなく、一番目の黒領域
の最大値記憶バッファBYIのみの場合は、BYH−B
Y1+10としくステップ8330)、二番目の黒領域
の最大値記憶バッファBY2がある場合は、ByH−(
BYI +BY2)/2とする(ステップ5331)。
のステップ5329において、二番目の黒領域の最大値
記憶バッファBY2が検出されているか否かを判別し、
このBY2の値からステップ5330.8331で眼鏡
検出のY座標BYHを求める。すなわち、二番目の黒領
域の最大値記憶バッファBY2がなく、一番目の黒領域
の最大値記憶バッファBYIのみの場合は、BYH−B
Y1+10としくステップ8330)、二番目の黒領域
の最大値記憶バッファBY2がある場合は、ByH−(
BYI +BY2)/2とする(ステップ5331)。
なお、ステップ5331でBYHをBYlとBY2との
中間点としているが、これはBYIとBY2の間の点で
あればよいものである。
中間点としているが、これはBYIとBY2の間の点で
あればよいものである。
つぎに、ステップ8332で、黒画素の数をカウントす
る黒色画素カウンタBLACKXをクリアし、画素座標
xc、ycに初期値xc−x2(X C= X X +
) 、Y C−B Y Hを設定すル(ステップ53
33.3334)。ステップ8335で画素Jが黒か否
かが検索され、黒の場合はX方向へ黒色画素カウンタB
LACKXを左眼のときはxc−x2からカウントアツ
プし、右眼のときはXC−XX+からカウントダウンす
る(ステップ5336.5337)。ステップ8338
てX方向へ、左眼てはXX、を越えるまで、右眼てはX
2を下回るまで検索したか否かが判別され、XXずを越
え又はX2を下回るまで検索か終了するとステップ83
39へ移行し、黒色画素カウンタBLACKXの値が3
以上か否かが判別される。
る黒色画素カウンタBLACKXをクリアし、画素座標
xc、ycに初期値xc−x2(X C= X X +
) 、Y C−B Y Hを設定すル(ステップ53
33.3334)。ステップ8335で画素Jが黒か否
かが検索され、黒の場合はX方向へ黒色画素カウンタB
LACKXを左眼のときはxc−x2からカウントアツ
プし、右眼のときはXC−XX+からカウントダウンす
る(ステップ5336.5337)。ステップ8338
てX方向へ、左眼てはXX、を越えるまで、右眼てはX
2を下回るまで検索したか否かが判別され、XXずを越
え又はX2を下回るまで検索か終了するとステップ83
39へ移行し、黒色画素カウンタBLACKXの値が3
以上か否かが判別される。
黒色画素カウンタBLACKXの値が3未満の場合は眼
鏡中央部のフレームを検出したと判別してステップ53
40へ移行し、眼鏡無しカウンタMEGOFFをカウン
トアツプする。
鏡中央部のフレームを検出したと判別してステップ53
40へ移行し、眼鏡無しカウンタMEGOFFをカウン
トアツプする。
以上の処理を左眼の検索範囲内で行い、ステップ534
1で眼鏡無しカウンタMEGOFFの値が5を越えるか
否かが判別される。
1で眼鏡無しカウンタMEGOFFの値が5を越えるか
否かが判別される。
眼鏡無しカウンタMEGOFFの値が5より大きい場合
は眼鏡をかけていないものと判断しテステップ5342
へ移行し、一番目に検出した黒領域のY座標の最下点B
YIMAXを基準にしてウィンドウの縦方向(Y方向)
の幅を規定するY座標YTSYBを、YT−BYIMA
X−40、YB−BYIMAX+ 10に設定する。ま
た、眼鏡無しカウンタMEGOFFの値が5より小さい
場合は眼鏡をかけているものと判断してステップ834
3へ移行し、二番目に検出した黒領域のY座標の最下点
BY2MAXを基準にしてウィンドウの縦方向(Y方向
)の幅を規定するY座標YT、YBを、YT−BY2M
AX−4(1、YB−BY2MAX+10に設定する。
は眼鏡をかけていないものと判断しテステップ5342
へ移行し、一番目に検出した黒領域のY座標の最下点B
YIMAXを基準にしてウィンドウの縦方向(Y方向)
の幅を規定するY座標YTSYBを、YT−BYIMA
X−40、YB−BYIMAX+ 10に設定する。ま
た、眼鏡無しカウンタMEGOFFの値が5より小さい
場合は眼鏡をかけているものと判断してステップ834
3へ移行し、二番目に検出した黒領域のY座標の最下点
BY2MAXを基準にしてウィンドウの縦方向(Y方向
)の幅を規定するY座標YT、YBを、YT−BY2M
AX−4(1、YB−BY2MAX+10に設定する。
以上の処理を左右両眼において行うことによりそれぞれ
の眼のウィンドウが設定される。
の眼のウィンドウが設定される。
このようにこの実施例の主要な部分であるウィンドウ設
定に関しては、顔の最大幅でウィンドウの横の範囲を決
定する事としたため、顔の向きにより赤外線ストロボの
照射画像に影が発生する場合でもその影響が排除される
。
定に関しては、顔の最大幅でウィンドウの横の範囲を決
定する事としたため、顔の向きにより赤外線ストロボの
照射画像に影が発生する場合でもその影響が排除される
。
また、ウィンドウの縦方向の範囲の範囲の設定に於いて
も、例えば僅か2点の黒領域を僅か20回の縦方向の走
査をするだけで設定できるため、横方向範囲設定と同様
に影や少しの画像の変化でも正確なウィンドウの設定を
高速に行うことが可能となった。
も、例えば僅か2点の黒領域を僅か20回の縦方向の走
査をするだけで設定できるため、横方向範囲設定と同様
に影や少しの画像の変化でも正確なウィンドウの設定を
高速に行うことが可能となった。
さらに、あらゆる顔画像に対しても、最大でも眉から下
の画像の変化のほとんど無い部分で検索を行うため、帽
子を被っている場合、眼鏡を装着している場合に於いて
も、眼球存在領域の特定が正確にでき居眠り、わき見の
検出が可能となった。
の画像の変化のほとんど無い部分で検索を行うため、帽
子を被っている場合、眼鏡を装着している場合に於いて
も、眼球存在領域の特定が正確にでき居眠り、わき見の
検出が可能となった。
そして、第3図のフローチャートのステップS8で、2
値化した画像J (X、Y)がら上記で設定されたウィ
ンドウ内に対する虹彩部分を検出する処理か行われる。
値化した画像J (X、Y)がら上記で設定されたウィ
ンドウ内に対する虹彩部分を検出する処理か行われる。
虹彩は、一般に暗い円形領域として観測されるから、こ
の円形領域を検出してその領域面積を認識すれば、運転
者の居眠りの有無等が判定できる。
の円形領域を検出してその領域面積を認識すれば、運転
者の居眠りの有無等が判定できる。
この実施例では顔幅を検出して領域の設定を行うから、
例えば顔画像において背影が黒(夜間、あるいはヘッド
レストの色)であっても確実に検出することができる。
例えば顔画像において背影が黒(夜間、あるいはヘッド
レストの色)であっても確実に検出することができる。
第9図は、虹彩の検出原理を示す説明図である。
今、ウィンドウ内の任意の点(x、y)を中心とする半
径Rの円を設定するとともに、点(x。
径Rの円を設定するとともに、点(x。
y)を中心として放射状に4つの矩形を設定する。
この矩形は、円の内外方にそれぞれ2画素だけ延在する
ように設定される。そして、円より外方の矩形白抜き部
の明度値の総和と、円より内方の矩形ハツチング部の明
度値の総和との差δを求める。
ように設定される。そして、円より外方の矩形白抜き部
の明度値の総和と、円より内方の矩形ハツチング部の明
度値の総和との差δを求める。
これを上記任意の点(x、y)においてRmin−Rm
axまて行い、差δの最大値を△としてこれを求める。
axまて行い、差δの最大値を△としてこれを求める。
つぎに、点(x、y)を中心として同様な演算を行い、
差δの最大値が上記最大値△より大きければ、今回演算
されたδの最大値を最大値として記憶する。このような
演算をウィンドウ内の全画素点を中心として行い最大値
△を出力する。
差δの最大値が上記最大値△より大きければ、今回演算
されたδの最大値を最大値として記憶する。このような
演算をウィンドウ内の全画素点を中心として行い最大値
△を出力する。
これは、ウィンドウ内に虹彩が存在するとき、虹彩は他
の領域に比べて輝度が低い円形図形として検出され、虹
彩を中心に求められる上記差δが最大となるという原理
に基づいている。
の領域に比べて輝度が低い円形図形として検出され、虹
彩を中心に求められる上記差δが最大となるという原理
に基づいている。
第10図は以上の処理のフローチャートを示すものであ
る。
る。
まず、ステップ5901で、ウィンドウ内を走査するカ
ウンターx、yをLにリセットする。なお、ここで設定
されたウィンドウの大きさは、X方向Mドツト、y方向
Nドツトとする。つぎに、ステップ5902で、虹彩検
出の中心座標の点J(x、y)が黒いか否かが判別され
、黒い場合はステップ8903へ移行し、検出半径Rを
Rminとする。つづいて、ステップ5904およびS
905において、△およびpをリセットする。
ウンターx、yをLにリセットする。なお、ここで設定
されたウィンドウの大きさは、X方向Mドツト、y方向
Nドツトとする。つぎに、ステップ5902で、虹彩検
出の中心座標の点J(x、y)が黒いか否かが判別され
、黒い場合はステップ8903へ移行し、検出半径Rを
Rminとする。つづいて、ステップ5904およびS
905において、△およびpをリセットする。
つぎに、ステップ5906乃至5908で、具体的に白
い部分に囲まれた黒い円形領域として検出する。すなわ
ち、ステップ5906において式の前半の4項J (x
十R+p、Y)、J (X、)’−R−p)、J (
x−R−p、y)、J (x、y十R+p)はそれぞれ
座標中心(x、y)から半径R+p離れた右、下、左、
上の位置の明度を表わし、式の後半の4項J (x十R
−p−1,V) 。
い部分に囲まれた黒い円形領域として検出する。すなわ
ち、ステップ5906において式の前半の4項J (x
十R+p、Y)、J (X、)’−R−p)、J (
x−R−p、y)、J (x、y十R+p)はそれぞれ
座標中心(x、y)から半径R+p離れた右、下、左、
上の位置の明度を表わし、式の後半の4項J (x十R
−p−1,V) 。
J (X、y−R+p+1)、J (x−R+p+1゜
V)、J (x、y+R−p−1)はそれぞれ中心座標
(x、y)から半径R−(p+1)離れた右、下、左、
上の位置の明度を表わしている。そして、ステップ59
07でpを1ずつ増加させp−1まで変化させてステッ
プ5906乃至ステップ5908を繰返し実行し、半径
Rm i nにおける第9図の矩形白抜き部の明度値総
和(ステップS9゜6の式の前半4項の和)と矩形ハツ
チング部の明度値総和(ステップS6の式の後半4項の
和)の差δが最大値△として求められる(ステップ59
10)。つぎに、ステップ5911で半径Rmin+1
として再度ステップ5905へ移行し、ステップ590
6乃至ステップ3908を繰返し実行することにより半
径Rmin+1としたときの矩形領域の明度差δを求め
る。この明度差δが第1回目の半径Rminについて演
算された△よりも大きければ、その明度差δを最大値△
とする。
V)、J (x、y+R−p−1)はそれぞれ中心座標
(x、y)から半径R−(p+1)離れた右、下、左、
上の位置の明度を表わしている。そして、ステップ59
07でpを1ずつ増加させp−1まで変化させてステッ
プ5906乃至ステップ5908を繰返し実行し、半径
Rm i nにおける第9図の矩形白抜き部の明度値総
和(ステップS9゜6の式の前半4項の和)と矩形ハツ
チング部の明度値総和(ステップS6の式の後半4項の
和)の差δが最大値△として求められる(ステップ59
10)。つぎに、ステップ5911で半径Rmin+1
として再度ステップ5905へ移行し、ステップ590
6乃至ステップ3908を繰返し実行することにより半
径Rmin+1としたときの矩形領域の明度差δを求め
る。この明度差δが第1回目の半径Rminについて演
算された△よりも大きければ、その明度差δを最大値△
とする。
このような操作を半径Rmaxまで繰返して行い、任意
の点(x、y)について最大明度差△が求まる(ステッ
プS 912)。これは、検出する虹彩の半径は、個人
あるいはカメラと乗員の距離によって異なるため、検出
半径にあるゾーン(Rm in−Rmax)を設けるた
めである。
の点(x、y)について最大明度差△が求まる(ステッ
プS 912)。これは、検出する虹彩の半径は、個人
あるいはカメラと乗員の距離によって異なるため、検出
半径にあるゾーン(Rm in−Rmax)を設けるた
めである。
以下、この処理をxml〜Mまで、y−1〜Nまでウィ
ンドウ全体に亘って行う。このような処理によって求ま
る△maxは、虹彩の中心について演算された明度差で
ある。そして、開眼時と閉眼時とではこの明度差△は大
きく異なるため、この最大明度差△を用いて開眼か開眼
かの判別が容易になる。
ンドウ全体に亘って行う。このような処理によって求ま
る△maxは、虹彩の中心について演算された明度差で
ある。そして、開眼時と閉眼時とではこの明度差△は大
きく異なるため、この最大明度差△を用いて開眼か開眼
かの判別が容易になる。
このようにして虹彩を検出することにしたため、運転者
の開眼、閉眼状態を確実且つ迅速にモニタリングするこ
とも可能となった。これにより、運転者の居眠り、わき
見の検出を行うことができるという効果が得られる。
の開眼、閉眼状態を確実且つ迅速にモニタリングするこ
とも可能となった。これにより、運転者の居眠り、わき
見の検出を行うことができるという効果が得られる。
つぎに、前記第3図のフローチャートのステップS9に
おける、居眠りわき見の判定において、開眼または閉眼
の判別は、ステップS8で算出されたウィンドウ内での
最大明度差△をしきい値処理し、明度差△≧Th (L
きい値)のときは開眼、明度差△≦Thのときは閉眼で
あると判断する。
おける、居眠りわき見の判定において、開眼または閉眼
の判別は、ステップS8で算出されたウィンドウ内での
最大明度差△をしきい値処理し、明度差△≧Th (L
きい値)のときは開眼、明度差△≦Thのときは閉眼で
あると判断する。
まばたきした場合にも上記の虹彩検出処理で開眼と判断
されることがあるから、1回の虹彩検出処理で運転者が
居眠りをしていると判断すると誤判断することがあるた
め、同一の虹彩検出処理を複数回繰返し実行し、ある所
定回数以上連続して閉眼が認識されたときに居眠りして
いると判定する。
されることがあるから、1回の虹彩検出処理で運転者が
居眠りをしていると判断すると誤判断することがあるた
め、同一の虹彩検出処理を複数回繰返し実行し、ある所
定回数以上連続して閉眼が認識されたときに居眠りして
いると判定する。
例えば、第11図に示すように、黒点て示す時間間隔ご
とに画像が入力され、そして虹彩検出処理の結果、閉眼
と判断される回数が3回連続したときは運転者が居眠り
していると判定する。
とに画像が入力され、そして虹彩検出処理の結果、閉眼
と判断される回数が3回連続したときは運転者が居眠り
していると判定する。
また、片目のみが開眼と判断した場合は、実際には閉眼
てなく、わき見をしているために原画面から片目か外れ
ているものと考えられる。従って居眠り判断と同様に3
回連続して片目が閉眼していると判断されたときには、
わき見と判定する。
てなく、わき見をしているために原画面から片目か外れ
ているものと考えられる。従って居眠り判断と同様に3
回連続して片目が閉眼していると判断されたときには、
わき見と判定する。
上記のように、運転者の顔画像の頬部に出現する横方向
の白色部分の最大幅より運転者の眼球を含む領域の横方
向の幅を設定し、前記最大幅を設定した点からの縦方向
の走査により検出した2点の黒領域の中間の点から横方
向に走査し、黒色画素の有無により眼鏡を装着している
が否かを判断し、その有無により前記2点の黒領域のと
ちらが眼であるかを判断して運転者の眼球を含む領域の
縦方向の幅を設定し、その領域内において虹彩部分を検
出することにより、眼球か開いているが、閉しているか
、正面を向いていないが等を判断するこができる。これ
により、運転者の居眠り、わき見の検出を行うことかで
きる。
の白色部分の最大幅より運転者の眼球を含む領域の横方
向の幅を設定し、前記最大幅を設定した点からの縦方向
の走査により検出した2点の黒領域の中間の点から横方
向に走査し、黒色画素の有無により眼鏡を装着している
が否かを判断し、その有無により前記2点の黒領域のと
ちらが眼であるかを判断して運転者の眼球を含む領域の
縦方向の幅を設定し、その領域内において虹彩部分を検
出することにより、眼球か開いているが、閉しているか
、正面を向いていないが等を判断するこができる。これ
により、運転者の居眠り、わき見の検出を行うことかで
きる。
[発明の効果]
以上の説明により明らかなように、この発明によれば、
運転者の顔の最大幅でウィンドウの横方向の範囲を設定
することにしたため、顔の向きにより赤外線ストロボの
照射画素に影が発生する場合でもその影響が排除される
。
運転者の顔の最大幅でウィンドウの横方向の範囲を設定
することにしたため、顔の向きにより赤外線ストロボの
照射画素に影が発生する場合でもその影響が排除される
。
またウィンドウの縦方向の範囲の設定においても、下方
から僅かな縦方向の走査し、黒領域の下端点を検出する
だけで設定できるため、横方向の範囲の設定と同様に精
度向上を図ることができる。
から僅かな縦方向の走査し、黒領域の下端点を検出する
だけで設定できるため、横方向の範囲の設定と同様に精
度向上を図ることができる。
さらに、あらゆる顔の画像に対し、最大でも眉から下の
画像の変化があまり無い部分で検索を行うため、帽子を
被っている場合、眼鏡を装着している場合等においても
、眼球存在位置の特定が可能となる。
画像の変化があまり無い部分で検索を行うため、帽子を
被っている場合、眼鏡を装着している場合等においても
、眼球存在位置の特定が可能となる。
第1図はこの発明の構成図、第2図はこの発明の一実施
例に係る構成図、第3図は第2図の構成図に基づくフロ
ーチャート、第4図はウィンドウの横方向の範囲設定処
理のフローチャート、第5図はウィンドウの縦方向の範
囲設定処理のフローチャート、第6図乃至第8図はこの
実施例の処理に関する説明図、第9図は虹彩検出処理の
原理説明図、第10図は虹彩検出処理のフローチャート
、第11図は居眠り判断のための説明図である。 CLI・・・画像入力手段 Cl2・・・2値化手段 Cl3・・・横幅検出手段 Cl3・・・眼球の左右領域決定手段 CL5・・・黒領域検出手段 Cl3・・・下端点検出手段 Cl7・・・眼球の縦領域決定手段 代理人 弁理士 三 好 秀 和 第 図 第2図 第8図 第9 図 第10図 第11図
例に係る構成図、第3図は第2図の構成図に基づくフロ
ーチャート、第4図はウィンドウの横方向の範囲設定処
理のフローチャート、第5図はウィンドウの縦方向の範
囲設定処理のフローチャート、第6図乃至第8図はこの
実施例の処理に関する説明図、第9図は虹彩検出処理の
原理説明図、第10図は虹彩検出処理のフローチャート
、第11図は居眠り判断のための説明図である。 CLI・・・画像入力手段 Cl2・・・2値化手段 Cl3・・・横幅検出手段 Cl3・・・眼球の左右領域決定手段 CL5・・・黒領域検出手段 Cl3・・・下端点検出手段 Cl7・・・眼球の縦領域決定手段 代理人 弁理士 三 好 秀 和 第 図 第2図 第8図 第9 図 第10図 第11図
Claims (2)
- (1)眼を含む顔画像を入力する画像入力手段と、前記
画像入力手段から送出される入力画像を2値化する2値
化手段と、前記2値化手段による2値化画像において顔
の幅を検出する顔幅検出手段と、前記顔幅検出手段によ
り検出された顔幅から眼の存在領域の横方向の位置を決
定する眼球の左右領域決定手段と、決定された眼の横方
向の存在領域で縦方向の下から黒領域を検出する黒領域
検出手段と、検出された黒領域の下端点を検出する下端
点検出手段と、検出された下端点を基準にして眼の存在
領域の縦方向の位置を決定する眼球の縦領域決定手段と
を備えてなる眼位置検出装置。 - (2)眼を含む顔画像を入力する画像入力手段と、前記
画像入力手段から送出される入力画像を2値化する2値
化手段と、前記2値化手段による2値化画像において顔
の幅を検出する顔幅検出手段と、前記顔幅検出手段によ
り検出された顔幅から眼の存在領域の横方向の位置を決
定する眼球の左右領域決定手段と、決定された眼の横方
向の存在領域で縦方向の下から少なくとも2個の黒領域
を検出する黒領域検出手段と、検出された各黒領域の下
端点を検出する下端点検出手段と、検出された前記2個
の黒領域の間で横方向に黒色画素が所定数以上存在する
か否かを検索する手段と、この検索手段で黒色画素が検
出されたか否かで前記下端点を選択する手段と、選択さ
れた下端点を基準にして眼の存在領域の縦方向の位置を
決定する眼球の縦領域決定手段とを備えたことを特徴と
する眼位置検出装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12927490A JP2541688B2 (ja) | 1990-05-21 | 1990-05-21 | 眼位置検出装置 |
US07/703,114 US5218387A (en) | 1990-05-21 | 1991-05-20 | Eye position detecting apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12927490A JP2541688B2 (ja) | 1990-05-21 | 1990-05-21 | 眼位置検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0424503A true JPH0424503A (ja) | 1992-01-28 |
JP2541688B2 JP2541688B2 (ja) | 1996-10-09 |
Family
ID=15005539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12927490A Expired - Fee Related JP2541688B2 (ja) | 1990-05-21 | 1990-05-21 | 眼位置検出装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5218387A (ja) |
JP (1) | JP2541688B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05312966A (ja) * | 1992-03-13 | 1993-11-26 | Matsushita Electric Ind Co Ltd | 在席検出装置及び安全制御装置 |
JPH08151675A (ja) * | 1994-11-28 | 1996-06-11 | Mizutani Kensetsu Kogyo Kk | 斜角プレストレストボックスカルバート及び斜角ボックスカルバートへのプレストレス導入方法 |
WO2005114576A1 (ja) * | 2004-05-21 | 2005-12-01 | Asahi Kasei Kabushiki Kaisha | 動作内容判定装置 |
CN102208125A (zh) * | 2010-03-30 | 2011-10-05 | 深圳市赛格导航科技股份有限公司 | 疲劳驾驶监测***及方法 |
US8374439B2 (en) | 2008-06-25 | 2013-02-12 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, program, and computer-readable print medium |
US9208595B2 (en) | 2012-07-09 | 2015-12-08 | Canon Kabushiki Kaisha | Apparatus, image processing method and storage medium storing program |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4102895C1 (ja) * | 1991-01-31 | 1992-01-30 | Siemens Ag, 8000 Muenchen, De | |
JPH0761314B2 (ja) * | 1991-10-07 | 1995-07-05 | コナミ株式会社 | 網膜反射光量測定装置及び該装置を用いた視線検出装置 |
FR2700938B1 (fr) * | 1993-01-29 | 1995-04-28 | Centre Nat Rech Scient | Procédé et dispositif d'analyse du mouvement de l'Óoeil. |
WO1994025857A1 (en) * | 1993-05-04 | 1994-11-10 | Brisalebe Ag | Evaluating animals using eye characteristics |
GB9323970D0 (en) * | 1993-11-22 | 1994-01-12 | Toad Innovations Ltd | Safety device |
JP3426060B2 (ja) * | 1995-07-28 | 2003-07-14 | 三菱電機株式会社 | 顔画像処理装置 |
US5771066A (en) * | 1997-01-03 | 1998-06-23 | Barnea; Daniel I. | Three dimensional display device |
US5859686A (en) * | 1997-05-19 | 1999-01-12 | Northrop Grumman Corporation | Eye finding and tracking system |
KR19990016896A (ko) * | 1997-08-20 | 1999-03-15 | 전주범 | 얼굴영상에서 눈영역 검출방법 |
JP2001522679A (ja) * | 1997-11-14 | 2001-11-20 | ブラウン、スチュアート | 自動光反射スクリーニング |
US6089715A (en) * | 1998-10-15 | 2000-07-18 | Eyedx, Inc. | Automated photorefractive screening |
FR2773521B1 (fr) * | 1998-01-15 | 2000-03-31 | Carlus Magnus Limited | Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci |
FR2784887B1 (fr) | 1998-10-22 | 2001-01-19 | Renault | Systeme pour surveiller des yeux afin de detecter et de prevenir des baisses de vigilance d'un conducteur de vehicule |
US6757422B1 (en) | 1998-11-12 | 2004-06-29 | Canon Kabushiki Kaisha | Viewpoint position detection apparatus and method, and stereoscopic image display system |
FR2789950B1 (fr) | 1999-02-19 | 2001-04-20 | Renault | Procede et dispositif d'autorisation de demarrage d'un vehicule |
US6523954B1 (en) | 2000-11-21 | 2003-02-25 | Iscreen, Llc | System and method for eye screening |
US6663242B1 (en) | 2001-03-12 | 2003-12-16 | Wayne Davenport | Simultaneous, wavelength multiplexed vision screener |
US6616277B1 (en) | 2001-07-02 | 2003-09-09 | Vision Research Corporation | Sequential eye screening method and apparatus |
SE524003C2 (sv) * | 2002-11-21 | 2004-06-15 | Tobii Technology Ab | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
US7872635B2 (en) * | 2003-05-15 | 2011-01-18 | Optimetrics, Inc. | Foveated display eye-tracking system and method |
DK1607840T3 (da) | 2004-06-18 | 2015-02-16 | Tobii Technology Ab | Øjenstyring af et computerapparat |
US20070247590A1 (en) * | 2004-08-10 | 2007-10-25 | Seereal Technologies Gmbh | Autostereoscopic Multi-User Display with Directed Illumination |
US20080074618A1 (en) * | 2006-05-15 | 2008-03-27 | Baohua Qi | Fatigue detection device using encoded light signals |
JP5354842B2 (ja) | 2006-05-26 | 2013-11-27 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
JP4928346B2 (ja) | 2007-05-08 | 2012-05-09 | キヤノン株式会社 | 画像検索装置および画像検索方法ならびにそのプログラムおよび記憶媒体 |
JP5132445B2 (ja) | 2008-06-25 | 2013-01-30 | キヤノン株式会社 | 画像処理装置および画像処理方法並びにコンピュータプログラムおよび記憶媒体 |
JP2010079569A (ja) * | 2008-09-25 | 2010-04-08 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
JP5719123B2 (ja) | 2010-05-24 | 2015-05-13 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP5744430B2 (ja) | 2010-07-16 | 2015-07-08 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム |
JP5744431B2 (ja) | 2010-07-16 | 2015-07-08 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム |
JP5744429B2 (ja) | 2010-07-16 | 2015-07-08 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US8463075B2 (en) | 2010-08-11 | 2013-06-11 | International Business Machines Corporation | Dynamically resizing text area on a display device |
JP5603258B2 (ja) * | 2011-01-13 | 2014-10-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 検出装置及び検出方法 |
JP6012309B2 (ja) | 2012-07-09 | 2016-10-25 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP6071287B2 (ja) | 2012-07-09 | 2017-02-01 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6071288B2 (ja) | 2012-07-09 | 2017-02-01 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6039942B2 (ja) | 2012-07-09 | 2016-12-07 | キヤノン株式会社 | 情報処理装置及びその制御方法及びプログラム |
JP5993642B2 (ja) | 2012-07-09 | 2016-09-14 | キヤノン株式会社 | 情報処理装置及びその制御方法及びプログラム |
JP6071289B2 (ja) | 2012-07-09 | 2017-02-01 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP6045232B2 (ja) | 2012-07-09 | 2016-12-14 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP5956860B2 (ja) | 2012-07-09 | 2016-07-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム |
JP6016489B2 (ja) | 2012-07-09 | 2016-10-26 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法、プログラム |
JP6074182B2 (ja) | 2012-07-09 | 2017-02-01 | キヤノン株式会社 | 画像処理装置及び画像処理方法、プログラム |
JP6012308B2 (ja) | 2012-07-09 | 2016-10-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6012310B2 (ja) | 2012-07-09 | 2016-10-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP6222900B2 (ja) | 2012-07-09 | 2017-11-01 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US9612656B2 (en) | 2012-11-27 | 2017-04-04 | Facebook, Inc. | Systems and methods of eye tracking control on mobile device |
US11714487B2 (en) | 2013-03-04 | 2023-08-01 | Tobii Ab | Gaze and smooth pursuit based continuous foveal adjustment |
US9898081B2 (en) | 2013-03-04 | 2018-02-20 | Tobii Ab | Gaze and saccade based graphical manipulation |
US10895908B2 (en) | 2013-03-04 | 2021-01-19 | Tobii Ab | Targeting saccade landing prediction using visual history |
JP6261206B2 (ja) | 2013-06-28 | 2018-01-17 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9143880B2 (en) | 2013-08-23 | 2015-09-22 | Tobii Ab | Systems and methods for providing audio to a user based on gaze input |
EP3036620B1 (en) | 2013-08-23 | 2017-03-29 | Tobii AB | Systems and methods for providing audio to a user based on gaze input |
JP2015053541A (ja) | 2013-09-05 | 2015-03-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6282065B2 (ja) | 2013-09-05 | 2018-02-21 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP6168928B2 (ja) | 2013-09-05 | 2017-07-26 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
RU2541192C1 (ru) * | 2013-12-03 | 2015-02-10 | Федеральное государственное бюджетное учреждение "Национальный исследовательский центр "Курчатовский институт" | Способ определения направления линии взгляда |
US9952883B2 (en) | 2014-08-05 | 2018-04-24 | Tobii Ab | Dynamic determination of hardware |
TWI647666B (zh) * | 2017-08-28 | 2019-01-11 | 緯創資通股份有限公司 | 瞌睡偵測裝置及其瞌睡偵測方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4169663A (en) * | 1978-02-27 | 1979-10-02 | Synemed, Inc. | Eye attention monitor |
US4528989A (en) * | 1982-10-29 | 1985-07-16 | Weinblatt Lee S | Screening method for monitoring physiological variables |
JPS60158304A (ja) * | 1984-01-30 | 1985-08-19 | Nippon Denso Co Ltd | 車両運転者の眼の位置認識装置 |
JPS60158303A (ja) * | 1984-01-30 | 1985-08-19 | Nippon Denso Co Ltd | 車両運転者の眼の位置認識装置 |
JPS6177705A (ja) * | 1984-09-25 | 1986-04-21 | Nippon Denso Co Ltd | 車両運転者の目の位置認識装置 |
JPS6177706A (ja) * | 1984-09-25 | 1986-04-21 | Nippon Denso Co Ltd | 車両運転者の乗車位置認識装置 |
JPS62247410A (ja) * | 1985-12-04 | 1987-10-28 | Aisin Seiki Co Ltd | 電気装置の付勢制御装置 |
US4720189A (en) * | 1986-01-07 | 1988-01-19 | Northern Telecom Limited | Eye-position sensor |
US4836670A (en) * | 1987-08-19 | 1989-06-06 | Center For Innovative Technology | Eye movement detector |
-
1990
- 1990-05-21 JP JP12927490A patent/JP2541688B2/ja not_active Expired - Fee Related
-
1991
- 1991-05-20 US US07/703,114 patent/US5218387A/en not_active Expired - Lifetime
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05312966A (ja) * | 1992-03-13 | 1993-11-26 | Matsushita Electric Ind Co Ltd | 在席検出装置及び安全制御装置 |
JPH08151675A (ja) * | 1994-11-28 | 1996-06-11 | Mizutani Kensetsu Kogyo Kk | 斜角プレストレストボックスカルバート及び斜角ボックスカルバートへのプレストレス導入方法 |
WO2005114576A1 (ja) * | 2004-05-21 | 2005-12-01 | Asahi Kasei Kabushiki Kaisha | 動作内容判定装置 |
US7894637B2 (en) | 2004-05-21 | 2011-02-22 | Asahi Kasei Corporation | Device, program, and method for classifying behavior content of an object person |
US8374439B2 (en) | 2008-06-25 | 2013-02-12 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, program, and computer-readable print medium |
CN102208125A (zh) * | 2010-03-30 | 2011-10-05 | 深圳市赛格导航科技股份有限公司 | 疲劳驾驶监测***及方法 |
US9208595B2 (en) | 2012-07-09 | 2015-12-08 | Canon Kabushiki Kaisha | Apparatus, image processing method and storage medium storing program |
US9852325B2 (en) | 2012-07-09 | 2017-12-26 | Canon Kabushiki Kaisha | Apparatus, image processing method and storage medium storing program |
US10127436B2 (en) | 2012-07-09 | 2018-11-13 | Canon Kabushiki Kaisha | Apparatus, image processing method and storage medium storing program |
Also Published As
Publication number | Publication date |
---|---|
US5218387A (en) | 1993-06-08 |
JP2541688B2 (ja) | 1996-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0424503A (ja) | 眼位置検出装置 | |
JP2522859B2 (ja) | 眼位置検出装置 | |
JP3761059B2 (ja) | ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ | |
JP3938257B2 (ja) | 顔のような領域を検出する方法および装置、ならびに観察者トラッキングディスプレイ | |
EP1426898B1 (en) | Human detection through face detection and motion detection | |
US7907752B2 (en) | Face center position detecting device, face center position detecting method, and computer-readable medium | |
JPH0944685A (ja) | 顔画像処理装置 | |
US6072892A (en) | Eye position detecting apparatus and method therefor | |
EP1868138A2 (en) | Method of tracking a human eye in a video image | |
JP2822799B2 (ja) | 運転者の状態検出装置 | |
JP2003150942A (ja) | 目位置追跡方法 | |
JP3395344B2 (ja) | 画像処理装置およびそれを用いた居眠り警報装置 | |
JPH07181012A (ja) | 画像データの特徴量検出装置 | |
US7134688B2 (en) | Safety apparatus against automobile crash | |
JPH04174309A (ja) | 運転車の眼位置検出装置及び状態検出装置 | |
JP2936943B2 (ja) | 運転者の状態検出装置 | |
JP2705388B2 (ja) | 運転者の眼位置検出装置 | |
WO2002035452A1 (en) | Eye image obtaining method, iris recognizing method, and system using the same | |
JP2677010B2 (ja) | 眼位置検出装置 | |
JP3444115B2 (ja) | 居眠り状態検出装置 | |
JP2932551B2 (ja) | 虹彩位置検出装置及び運転者の状態検出装置 | |
JPH04216403A (ja) | 眼位置検出装置 | |
JPH0425706A (ja) | 眼位置検出装置及び被検者状態検出装置 | |
JPH08249454A (ja) | 車両運転者のわき見検出装置 | |
JP3500891B2 (ja) | 居眠り状態検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080725 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080725 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090725 Year of fee payment: 13 |
|
LAPS | Cancellation because of no payment of annual fees |