JP2005018651A - 運転者状態検出装置 - Google Patents
運転者状態検出装置 Download PDFInfo
- Publication number
- JP2005018651A JP2005018651A JP2003185871A JP2003185871A JP2005018651A JP 2005018651 A JP2005018651 A JP 2005018651A JP 2003185871 A JP2003185871 A JP 2003185871A JP 2003185871 A JP2003185871 A JP 2003185871A JP 2005018651 A JP2005018651 A JP 2005018651A
- Authority
- JP
- Japan
- Prior art keywords
- driver
- image
- face
- driver state
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Emergency Alarm Devices (AREA)
Abstract
【解決手段】運転者状態検出装置1は、運転者の顔を撮影して得られた顔の画像から、運転者状態判定部21にて運転者の顔部位の位置、顔部位の移動状態、及び眼の開閉状態のうち少なくとも1つを検出し、運転者状態を判定する。その一方、画像処理部31は、撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算する。そして、報知禁止部32は、運転者状態の判定結果及びオプティカルフローの計算結果に基づいて、運転者への報知を行うか否かを決定する。
【選択図】 図2
Description
【発明の属する技術分野】
本発明は、運転者状態検出装置に関する。
【0002】
【従来の技術】
従来、車両運転者の顔画像を撮影し、顔の方向又は視線を監視して脇見判定を行う装置が知られている。この装置では、運転者の脇見を検出した場合、警報装置等により運転者に対し注意喚起するようにしている(特許文献1及び2参照)。
【0003】
【特許文献1】
特開平6−243367号公報
【0004】
【特許文献2】
特開2000−172966号公報
【0005】
【発明が解決しようとする課題】
しかし、上記特許文献1及び2に記載の脇見検出装置では、運転者が鼻を触るなど、顔画像を撮影している画角内に運転者の手が入ってくることがある。このような場合において、従来の装置では、手が検出対象である鼻や眼などの顔部位を覆ってしまうと、画像認識処理が不安定となって、誤報知されてしまう可能性がある。このため、従来の装置では、誤報知の頻度が増加してしまうという問題があった。
【0006】
なお、この問題は、画角内に手が進入する場合に限らず、顔以外の異物が進入する場合にも同様に発生する問題である。また、脇見検出装置のみならず、運転者の顔画像を取得して所定の処理を行う装置、例えば居眠検出装置においても同様に発生する問題である。
【0007】
【課題を解決するための手段】
本発明によれば、撮像手段は運転者の顔を撮影し、運転者状態判定手段は、撮影手段により撮影された顔の画像から、運転者の顔部位の位置、顔部位の移動状態、及び眼の開閉状態のうち少なくとも1つを検出して、運転者状態を判定し、報知手段は、運転者状態判定手段による判定結果に基づいて、運転者に報知するための報知信号を出力し、画像処理手段は、撮影手段により撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算し、報知禁止手段は、画像処理手段の計算結果に応じて、報知手段からの報知を禁止する。
【0008】
【発明の効果】
本発明によれば、2枚以上の顔の画像間のオプティカルフローを計算し、計算結果に応じて報知動作を禁止している。まず、オプティカルフローを検出すると、運転者の顔周辺の物体等の動きを捕らえることができる。このため、運転者の手などの異物が画角内に進入してきた場合であっても、その動きを捕らえることができ、異物が顔部位を覆ってしまうなど、画像認識処理が不安定となる異常状態の検知が可能となる。そして、オプティカルフローの計算結果に応じて報知を禁止するため、画像認識処理が不安定となる場合に、報知動作を禁止することができる。
【0009】
従って、誤報知の頻度を低減させることができる。
【0010】
【発明の実施の形態】
以下、本発明の好適な実施形態を図面に基づいて説明する。図1は、本発明の第1実施形態に係る運転者状態検出装置の構成図である。同図に示すように、本実施形態の運転者状態検出装置1は、運転者状態としての脇見及び居眠りなどを検出するに当たり、その検出が望ましくない状態、すなわち不可状態であるか否かを検出するものである。そして、運転者状態検出装置1は、不可状態であることを検出した場合には、運転者への報知を禁止するものである。
【0011】
この運転者状態検出装置1は、車両の運転者の顔を撮影する撮影部(撮影手段)10、及び撮影部10により撮影された顔の画像(以下、顔画像という)に基づいて、運転者状態を判定する運転者状態判定装置20を備えている。さらに、運転者状態検出装置1は、撮影部10により撮像された顔画像に基づき、画角内への異物の進入等を検出する異物進入判定装置30、及び運転者状態判定装置20による判定結果に基づき、運転者に報知するための報知動作を行う報知器40を備えている。
【0012】
具体的に上記撮影部10は、例えば可視光を撮像するためのCCDカメラなどであり、運転者の正面下方に設置される。また、異物進入判定装置30は、例えば、撮影部10により撮像された画像内の顔以外の物体等(例えば運転者の手や雑誌)を異物として検出するものである。
【0013】
次に、本装置1の詳細構成、特に運転者状態判定装置20及び異物進入判定装置30を図2を参照して説明する。図2は、本発明の第1実施形態に係る運転者状態検出装置1の詳細構成図である。
【0014】
同図に示すように、上記運転者状態判定装置20は、運転者状態判定部(運転者状態判定手段)21と、報知部(報知手段)22とを備えている。運転者状態判定部21は、撮影部10により撮影された顔画像から、運転者の顔部位の位置、顔部位の移動状態、及び眼の開閉状態のうち少なくとも1つを検出して、運転者状態を判定するものである。ここで、顔部位としては、例えば運転者の眼(いずれか一方だけでもよい)や、鼻や、口等が挙げられる。
【0015】
また、報知部22は、運転者状態判定部21による判定結果に基づいて、運転者に報知するための報知信号を出力するものである。この報知部22は、報知器40に接続されており、報知信号を報知器40に出力する構成とされている。従って、報知器40は、報知信号を入力すると報知動作を行うこととなる。
【0016】
また、上記異物進入判定装置30は、画像処理部(画像処理手段)31と、報知禁止部(報知禁止手段)32とを備えている。画像処理部31は、撮影部10により撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算するものである。詳しくは、画像処理部31は、撮影部10から画像データを順次入力し、それら画像データの少なくとも2枚分から、濃度差等に基づいて、画像内の物体の動き方向及び動きの速度を表すオプティカルフローを計算するものである。ここで、オプティカルフローの計算は、予め画像上に設定された参照領域(演算領域)を及び探索領域が利用される。これらについては、後述することとする。
【0017】
また、報知禁止部32は、画像処理部31の計算結果に応じて、報知部22からの報知信号の出力を禁止して、運転者への報知を禁止するものである。この報知禁止部32は、画像処理部31により計算されたオプティカルフローが異物の進入等を表す不可状態である場合、運転者状態判定部21の判定結果が不正確である可能性があるため、報知信号の出力を禁止する。すなわち、画角内に手などが進入して運転者の顔部位を覆った場合など、運転者の顔部位の位置、顔部位の移動状態、及び眼の開閉状態が正確に判定されない可能性がある。よって、このような場合に報知動作を行うと、誤警報となる可能性があるため、報知信号の出力を禁止するようにしている。
【0018】
なお、報知禁止部32は、報知部22の信号出力を禁止する構成に限られず、報知器40に直接禁止指令を送出する構成であってもよい。すなわち、報知禁止部32は、計算されたオプティカルフローが不可状態を示すものである場合に、報知を禁止できる構成であればよい。
【0019】
次に、本装置1の動作の概略を説明する。図3は、本実施形態に係る運転者状態判定装置20の動作の概略を示すデータフローダイヤグラムである。
【0020】
まず、撮影部10により運転者の顔を含む画像が撮影され(図3aに示す画像)、その画像が運転者状態判定部21及び画像処理部31に入力される。入力後、運転者状態判定部21は、運転者の顔部位の位置、顔部位の移動状態、及び眼の開閉状態のうち少なくとも1つを検出して、運転者状態を判定する。ここでの判定は、例えば特開平8−207617号公報、特開平10−40361号公報、特開平10−44824号公報、及び特開平11−339200号公報に記載されるようにして行われる。
【0021】
そして、運転者状態の判定後、運転者状態判定部21は、判定結果を報知部22に送出する。報知部22は、判定結果に従って運転者への報知の必要性を判断し、必要である場合には、報知信号を報知器40に出力する。
【0022】
一方、上記動作の間に、画像処理部31は、撮影部10からの画像のデータに基づいて、画像間のオプティカルフローを求める(図3b)。このオプティカルフローは画像内の各領域における移動量等を表すものである。具体的に、オプティカルフローは、画像の所定箇所に存在した顔部位等が、後の画像においてどの方向にどれだけ速度で移動したかを表すものである。すなわち、オプティカルフローは、大きさ及び向きの情報を含むものである。
【0023】
ここで、オプティカルフローの算出について、より詳細に説明する。オプティカルフローを求める際に、画像処理部31は、参照領域及び探索領域のデータを入力する。
【0024】
図4は、参照領域及び探索領域の説明図である。なお、参照領域が或る時刻の画像上に設定されるとすると、探索領域はその時刻よりも後の画像に設定されるものであるが、図4においては、便宜上、幅w画素,高さh画素の1つの画像上に表して説明する。
【0025】
同図に示すように、参照領域は、(tx,ty)の位置に設定される幅tw画素,高さth画素の領域である。また、探索領域は、(sx,sy)の位置に設定される幅sw画素,高さsh画素の領域である。この探索領域は、各参照領域を取り囲んで設定されるものであり、参照領域と同じ数だけ設定される。また、この参照領域及び探索領域は、それぞれ大きさが異なるものの、中心位置に関しては特定の点Oで一致している。
【0026】
このように、これら両領域は中心を等しくし、sw>tw且つsh>swの関係となるように設定される。なお、ここでの参照領域及び探索領域は、運転者の顔の位置等に依存せず、予め定められた位置及び大きさで設定される。
【0027】
また、参照領域は、以下のように配置されることが望ましい。図5は、画像に配置される参照領域の説明図である。参照領域は、例えば図5に示すように、画像下端部に横方向に複数(例えば7つ)配置される。
【0028】
再度、図3を参照して説明する。オプティカルフローの算出後、画像処理部31は、求めた各領域毎のオプティカルフローから動きパターンを求める(図3c)。この動きパターンとは、例えばオプティカルフローから得られる動きを時系列的なデータとして現したものである。また、動きパターンは、例えば画角内にハンドルのスポーク部が進入してきた場合、ハンドルが一定の動きしか示さないことから限られたものとなる。このように、動きパターンは、物体等の動きそれぞれによって、或る程度決まったものとなる。
【0029】
動きパターンの算出後、画像処理部31は、動きパターンのデータを報知禁止部32に送出する。送出後、報知禁止部32は、得られら動きパターンと予め記憶される記憶パターン(図3d)とを照合する。そして、この照合により画角内に異物が進入してきたか否かを判断して結果を得る(図3e)。
【0030】
そして、異物の進入を判断した場合、報知禁止部32は、報知部22が出力するはずであった報知信号の出力を禁止して、報知動作が行われるのを防止する。このように、本装置1は、運転者状態の判定結果及びオプティカルフローの計算結果に基づいて、運転者への報知を行うか否かを決定している。以上が動作の概略である。
【0031】
次に、本装置1の詳細な動作について説明する。図6は、本実施形態に係る運転者状態検出装置1の詳細な動作を示すフローチャートである。なお、図6では、運転者の顔部位の位置及び顔部位の移動状態として、運転者の眼の位置、及び眼の移動状態を検出するものとする。さらに、図6では、運転者の眼の位置及び眼の移動状態に基づいて、運転者の脇見を検出するものとし、運転者の眼の開閉状態に基づいて、運転者の居眠りを検出するものとする。
【0032】
まず、撮影部10は、運転者の顔を撮像し、得られた顔画像のデータを運転者状態判定部21及び画像処理部31に送出する。そして、運転者状態判定部21及び画像処理部31は、顔画像のデータを入力する(ST10)。
【0033】
入力後、運転者状態判定部21は、眼の追跡領域が存在するか否かを判断する(ST11)。ここで、追跡領域とは、顔画像上に設定された画像全体よりも小さい領域であって、顔画像から運転者の眼の位置を容易に探すために設けられたものである。また、追跡領域は、眼を含む小さな領域として設定されるため、画像全体からの眼の位置を検出する場合に比べ、画像解像度を上げることができ、眼の位置の検出精度を向上させることができるものである。このため、運転者状態判定部21は、この追跡領域が設定されているときは、追跡領域内から運転者の眼を探索することなる。一方、追跡領域が設定されていない場合には、画像全体から運転者の眼の位置を探すこととなる。
【0034】
また、追跡領域の大きさについては、眼の移動量を許容するように設定することで、眼を常に同領域内に捕らえることができる。この場合、眼の移動量を許容するように、眼の移動速度を1フレーム間で動く移動量に置き換えるなどの処理が必要となる。なお、上記許容する範囲の具体例としては、運転者が顔を所定方向に−40°〜40°程度動かしたときの範囲である。
【0035】
眼の追跡領域が設定されていると判断した場合(ST11:YES)、処理はステップST14に移行する。一方、眼の追跡領域が設定されていないと判断した場合(ST11:NO)、運転者状態判定部21は、画像全体から眼の位置を検出する(ST12)。そして、運転者状態判定部21は、眼の位置のデータを取得する。
【0036】
その後、運転者状態判定部21は、眼の位置のデータに基づいて、追跡領域を設定する(ST13)。そして、運転者状態判定部21は、新たに入力される顔画像については追跡領域内から眼を検出する(ST14)。その後、運転者状態判定部21は、眼の追跡が正しく行われているか否かを判断する(ST15)。
【0037】
眼の追跡が正しく行われていないと判断した場合(ST15:NO)、運転者状態判定部21は、眼の追跡領域をクリアし(ST16)、処理はステップST10に戻る。この場合、再度追跡領域の設定が行われることとなる。
【0038】
一方、眼の追跡が正しく行われていると判断した場合(ST15:YES)、運転者状態判定部21は、眼の位置に基づき脇見検出処理を実行し(ST17)、運転者が脇見状態であるか否かを判断する(ST18)。ここで、脇見検出処理は、眼の位置そのものに基づいて行われる場合に限らず、眼の位置から求められる眼の移動状態に基づいて行われてもよい。また、眼の位置そのもの及び眼の移動状態の双方に基づくようにしてもよい。
【0039】
運転者が脇見状態でないと判断した場合(ST18:NO)、運転者状態判定部21は、閉眼発生頻度に基づいて居眠りの検出処理を実行する(ST19)。そして、運転者状態判定部21は、運転者が居眠り状態であるか否かを判断する(ST20)。運転者が居眠り状態でないと判断した場合(ST20:NO)、処理はステップST10に戻り、再度運転者状態の検出が行われていくこととなる。
【0040】
一方、運転者が脇見状態であると判断した場合(ST18:YES)、又は運転者が居眠り状態であると判断した場合(ST20:YES)、処理はステップST22に移行する。
【0041】
また、上記処理の間に、画像処理部31は、オプティカルフローによる異物の進入判定処理を実行している(ST21)。そして、異物の進入を判定後、処理はステップST22に移行する。
【0042】
ステップST22において、報知禁止部32は、画角内への異物の進入が検出されたか否かを判断する(ST22)。画角内への異物の進入が検出されたと判断した場合(ST22:YES)、報知禁止部32は、報知部22による報知信号の出力を禁止する。このため、報知部22は、報知信号を報知器40に出力せず、処理はステップST10に戻る。
【0043】
一方、画角内への異物の進入が検出されなかったと判断した場合(ST22:NO)、報知禁止部32は、報知部22による報知信号の出力を禁止しない。このため、報知部22は、報知信号を報知器40に出力し、運転者への注意喚起が行われることとなる(ST23)。その後、処理はステップST10に戻る。
【0044】
なお、画角内に異物が進入して誤報知がなされる場合には、次のような場合である。例えば、車両がコーナーに差し掛かり、運転者のハンドル操作によって、画角内にハンドルのスポークが進入した場合や、道路マップ等を見るべく雑誌を持ち上げた場合である。これらの場合、運転者の眼にハンドルのスポークや雑誌等が覆い被さって正確な検出ができなくなることがあるからである。
【0045】
次に、異物進入判定処理(ステップST21)について詳細に説明する。図7は、図6に示した異物進入判定処理(ステップST21)の詳細なフローチャートである。
【0046】
顔画像のデータを入力した後、画像処理部31は、顔画像にスムージングフィルタを適応し、所定の式にて画素値を変換する(ST30)。ここで、スムージングフィルタは、以下に示す5行5列からなるフィルタである。
【0047】
【数1】
所定の式は、以下に示すものである。
【0048】
【数2】
なお、d(x,y)は、撮像画像内の任意位置の画素値であり、d’(x,y)は変換後の画素値である。
【0049】
その後、画像処理部31は、現在の顔画像の探索領域内から、前回の顔画像内の参照領域に最も類似する位置を求めて、移動量(xd,yd)、すなわちオプティカルフローを算出する(ST31)。
【0050】
具体的には、画像処理部31は、まず、探索領域内から参照領域に最も類似する領域を求め、最も類似する領域の中心点を、参照領域に最も類似する位置とする。そして、画像処理部31は、求められた最も類似する領域の中心点と、探索領域の中心点とから移動量(xd,yd)を算出し、オプティカルフローとする。
【0051】
ここで、ステップST31について詳細に説明する。上述したように、顔画像上には予め参照領域が設定されている。また、探索領域は参照領域を取り囲むように設定される。また、参照領域と探索領域とは時間を異にして設定される。具体的には、図8に示すように、参照領域は時刻tにおいて設定され、探索領域は時刻t後の時刻(t+1)において設定される。
【0052】
図8は、図7に示すステップST31における移動量(xd,yd)の算出方法の説明図である。ステップST31の処理において、画像処理部31は、まず、時刻t+1の探索領域内に候補領域を作成する。この候補領域は、参照領域と同じ大きさを有する領域である。具体的には、探索領域内の任意の位置を(xd,yd)とした場合、−(sw−tw)/2<xd<(sw−tw)/2、且つ、−(sh−th)/2<yd<(sh−th)の範囲から切り出した領域である。
【0053】
画像処理部31は、探索領域内の所定箇所に上記のような候補領域を設定し、設定した候補領域と参照領域とを比較等して、類似度を求める。次に、画像処理部31は、候補領域を他の位置に動かし、動かした位置の候補領域と参照領域とを比較等して類似度を求める。
【0054】
その後、画像処理部31は、候補領域を順次移動させていき、探索領域内での各箇所において参照領域との類似度を算出する。類似度は、例えば、濃淡データを基準に判断される。ここで、濃淡データを基準に類似度を算出する場合において、類似度をcosθとすると、類似度は以下の式にて表される。
【0055】
【数3】
上式においては、参照領域の濃淡データをTとし、候補領域の濃淡データをSとしている。また、xdは、探索領域内のX座標値を示し、ydは、探索領域内のY座標値を示している。
【0056】
以上から、画像処理部31は、類似度が最大となる位置Sを定め、点Sと点Oとの座標値の差を移動量(xd,yd)として取得し、これをオプティカルフローとする。
【0057】
再度、図7を参照して説明する。移動量(xd,yd)の算出後、画像処理部31は、類似度の範囲が閾値以上か否かを判断する(ST32)。すなわち、画像処理部31は、まず、候補領域によって探索領域内を走査していき、探索領域内の各箇所の類似度を算出する。その後、画像処理部31は、得られた類似度の分散を求め、この分散により類似度の範囲が閾値以上か否かを判断する。
【0058】
ここで、類似度の範囲が小さい場合とは、探索領域内の各箇所において、同じような類似度が検出される場合である。例えば、参照領域が真っ白な画像である場合など、特徴が少ない場合には探索領域内のどの箇所と比較しても似たような類似度の結果が得られることとなる。そして、このような場合、それぞれ類似度の差が小さいことから、類似度が最大となる点Sの検出が不正確になりやすい。このため、図7のステップST32の処理では、所定の閾値と比較し、好適なものと不適なものとの選別するようにしている。
【0059】
類似度の範囲が閾値以上であると判断した場合(ST32:YES)、画像処理部31は、参照領域を有効な領域とし、fdに「1」を代入する(ST33)。そして、処理はステップST35に移行する。
【0060】
一方、類似度の範囲が閾値以上でないと判断した場合(ST32:NO)、画像処理部31は、参照領域を無効な領域とし、fdに「0」を代入する(ST34)。そして、処理はステップST35に移行する。このように、画像処理部31は、特徴量としての類似度の変化量と、予め設定される閾値とを比較することにより、有効か否かを判断している。そして、無効の場合には、得られたオプティカルフローを後の処理に用いないようにしている。なお、以下の説明において、参照領域はすべて有効領域であるとする。
【0061】
ステップST35において、画像処理部31は、領域の数だけ上記のステップST31〜ST34を行ったか否かを判断する(ST35)。すなわち、画像処理部31は、すべての参照領域について、探索領域内から類似する位置を特定したか否かを判断している。
【0062】
いずれかの参照領域について、探索領域内から類似する位置を特定していないと判断した場合(ST35:NO)、処理はステップST31に戻り、類似する位置を特定していない参照領域について、上記ステップST31〜ST34の処理を繰り返すこととなる。
【0063】
一方、すべての参照領域について、探索領域内から類似する位置を特定したと判断した場合(ST35:YES)、画像処理部31は、図12に示す処理を実行する。
【0064】
なお、オプティカルフローの計算方法は本実施形態の他に、八木信行監修, ”ディジタル映像処理”, 映像情報メディア学会編, pp.129−139, 2000, オーム社 などにて動画像から動きを検出する手法が複数紹介されていおり、それらを用いることもできる。
【0065】
ここで、オプティカルフローの検出例を説明する。図9は、画角内にハンドルのスポークが進入した場合のオプティカルフローの例を示す説明図であり、(a)は時刻tにおけるオプティカルフローの例を示し、(b)は時刻(t+1)におけるオプティカルフローの例を示し、(c)は時刻(t+2)におけるオプティカルフローの例を示し、(d)は時刻(t+3)におけるオプティカルフローの例を示している。なお、図9においては、図5と同様に、左から順に参照領域A〜Gが配置されている。
【0066】
まず、図9(a)に示すように、画角内にハンドルのスポークが進入し始める。このとき、参照領域Gのみから画像左上方に向けてオプティカルフローが検出されている。その後、図9(b)に示すように、画角内にハンドルのスポークが更に進入して、運転者の顔の一部を覆う状態となる。このとき、参照領域D〜Gから画像左上方に向けてオプティカルフローが検出されている。
【0067】
そして、図9(c)に示すように、画角内にハンドルのスポークが更に進入して、運転者の顔の約半分を覆う状態となる。このとき、参照領域B〜Eから画像左上方に向けてオプティカルフローが検出されている。その後、図9(d)に示すように、画角内にハンドルのスポークが更に進入して、運転者の眼についても覆う状態となる。このとき、参照領域A〜Dから画像左上方に向けてオプティカルフローが検出されている。
【0068】
このオプティカルフローを図10に示す。図10は、図9に示す例にて得られたオプティカルフローを示すグラフであり、(a)は画像縦方向における移動量を示し、(b)は画像横方向における移動量を示している。なお、図10(a)において、縦軸は画像縦方向の移動量を示し、横軸は時刻を示している。また、図10(b)において、縦軸は画像横方向の移動量を示し、横軸は時刻を示している。
【0069】
まず、図10(a)に示すように、画像縦方向については、画像に向かって最も右側に位置する参照領域Gの移動量が大きく出力される。また、時間的な遅れと共に左側の領域A〜Fで移動量が出力されるが、左側に位置する参照領域ほど小さい移動量が出力される。
【0070】
また、図10(b)に示すように、画像横方向については、画像中央部に当たる参照領域Dの移動量が最大となり、参照領域Dから離れた参照領域ほど小さい移動量が検出される。
【0071】
ここで、オプティカルフロー(移動量)を時系列的に現したものが動きパターンであるため、この図10に示すデータを予め記憶パターンとして記憶しておくことで、画角内に進入するハンドルを異物として判定することが可能となる。
【0072】
また、ハンドルを右に切り戻した場合、すなわち、ハンドルを左に切った場合は、図10で説明した場合と逆に上下左右の反対成分の移動量が出力される。また、画像縦方向の移動量は、領域Aが最大となり領域Gが最小となる。
【0073】
次に、オプティカルフローの他の検出例及び画像例を説明する。図11は、画角内にハンドルのスポーク以外の異物が進入した場合のオプティカルフローの例を示す説明図であり、(a)は手が進入したときの画像例を示し、(b)は手が進入したときのオプティカルフローの例を示し、(c)は雑誌が進入したときの画像例を示し、(d)は雑誌が進入したときのオプティカルフローの例を示している。なお、図11においても、図5と同様に、左から順に参照領域A〜Gが配置されている。
【0074】
まず、図11(a)に示すように、運転者が左を上げて左眼を擦る場合、図11(b)に示すように、画像上方に向けて参照領域D〜Gからオプティカルフローが検出される。また、図11(c)に示すように、運転者が雑誌等を下から持ち上げる場合、図11(d)に示すように、画像上方に向けて参照領域A〜Gのすべてからオプティカルフローが検出される。
【0075】
この図11に示すオプティカルフロー(移動量)についても、時系列的にに示すデータとして、記憶しておくことで、画角内に進入する手や雑誌を異物として判定することが可能となる。
【0076】
なお、図9〜図11から明らかなように、異物の進入は、画像端部に設けられた参照領域に基づいて行われる。進入を検出するためには、端部において進入を判断すればよく、端部に限定することで、できるだけ計算負荷を軽減することができるからである。
【0077】
図12は、動きパターンに基づいて、異物の進入を判定する動作を示すフローチャートである。同図に示すように、画像処理部31は、上記に示した動きパターンと、予め記憶される複数の記憶パターンそれぞれとの相関を求める(ST40)。
【0078】
相関を求める方法としては、例えば数3と同様にして求めたり、フーリエ変換やウェブレット変換により周波数解析した情報を用いて求めたりする。ここで具体的に、動きパターンP及び記憶パターンDは、
【数4】
となっている。なお、上記「state code」は進入した異物を表すコードである。また、「data」は、移動量を示すものである。
【0079】
その後、画像処理部31は、複数の記憶パターンのうち、最も相関の高い記憶パターンを検出する(ST41)。検出後、画像処理部31は、検出された記憶パターンが示す状態を、現在画角内に進入した異物とする(ST42)。そして、画像処理部31は、この検出結果を報知禁止部32に出力する。
【0080】
なお、図12の処理において、画像処理部31は、最も相関の高い記憶パターンの相関値が所定の閾値を超えない場合には、異物の進入自体がなかったとして結果を得る。
【0081】
そして、報知禁止部32は、ここでの結果に基づいて報知の禁止をするか否かを決定し、禁止する場合には報知部22に対し報知信号の出力を禁止すべく禁止信号等を出力することとなる。
【0082】
このようにして、本実施形態に係る運転者状態検出装置1では、2枚以上の顔の画像間のオプティカルフローを計算し、計算結果に応じて報知を禁止している。まず、オプティカルフローを検出すると、運転者の顔周辺の物体等の動きを捕らえることができる。このため、運転者の手などの異物が画角内に進入してきた場合であっても、その動きを捕らえることができ、異物が顔部位を覆ってしまうなど、画像認識処理が不安定となる異常状態の検知が可能となる。そして、オプティカルフローの計算結果に応じて報知を禁止するため、画像認識処理が不安定となる場合に、報知動作を禁止することができる。
【0083】
従って、誤報知の頻度を低減させることができる。
【0084】
また、画像端部からの異物の進入を検出している。すなわち、異物の進入を画像端部において検出している。このため、できるだけ計算負荷を軽減させ、且つ的確に異物の進入を判断して、不可状態を精度良く検出することができる。
【0085】
また、オプティカルフローの計算は予め画像上に設定された7つの参照領域にて行われ、これら7つは画像下端部に配置されている。このため、画像内への異物の進入判定について高速化を図ることができる。
【0086】
なお、上記参照領域は、画像下端部に7つ配置されていたが、これに限るものではない。例えば、図13及び図14に示すようにしてもよい。図13及び図14は、参照領域の配置例を示す図である。まず、図13に示すように、参照領域は、画像下端部及び左右端部に配置されている。この場合であっても、同図に示すように、オプティカルフローが検出されている。
【0087】
また、図14に示すように、画像周囲部、すなわち画像の下端部、左右端部、上端部のそれぞれに配置するようにしてもよい。この場合であっても、同図に示すように、オプティカルフローが検出されている。ここで、参照領域の数が多い方が、より詳細にオプティカルフローを検出できる。
【0088】
従って、画像下端部及び左右端部に参照領域を配置した場合、画像内に進入する異物の判定精度を向上させることができる。また、画像周囲部に参照領域を配置した場合には、画像内に進入する異物の判定精度を更に向上させることができる。
【0089】
さらに、特許文献1に記載の装置では、蛇角センサを用いる構成が提案されている。すなわち、蛇角センサにより運転者の視認方向を推定し、その推定方向を向いていないときに脇見であると判定するようにして、誤報知を抑制している。ところが、本実施形態では、上記したように舵角センサを用いずとも誤報知が抑制でき、構成の簡素化及びコストの低減を図ることができる。
【0090】
次に、本発明の第2実施形態を説明する。第2実施形態に係る運転者状態検出装置2は、第1実施形態のものと同様であるが、異物進入判定装置30内に、報知禁止部32に代えて演算処理中断部(演算処理中断手段)33を備える点で、第1実施形態のものと異なっている。
【0091】
以下、第2実施形態に係る運転者状態検出装置2について説明する。図15は、本発明の第2実施形態に係る運転者状態検出装置2のブロック図である。同図に示す演算処理中断部33は、画像処理部31の計算結果に応じて、運転者状態判定部21での演算処理を中断させるものである。すなわち、報知禁止部32は報知部22又は報知器40に対して報知の禁止を行うものであるのに対し、演算処理中断部33は、運転者状態判定部21が実行する報知前段の処理を中断させて報知を禁止させるものである。このため、第2実施形態に係る装置2は、運転者状態の判定結果及びオプティカルフローの計算結果に基づいて、運転者状態の判定処理を継続するか否かを決定するものといえる。
【0092】
図16は、本実施形態に係る運転者状態検出装置2の詳細な動作を示すフローチャートである。まず、図16に示すステップST50〜ST56については、図6に示したステップST10〜ST16と同様であるため、説明を省略する。
【0093】
ステップST57において、画像処理部31は、オプティカルフローによる異物の進入判定処理を実行する(ST57)。この処理は、上記ステップST50〜ST57の間に行われている。
【0094】
その後、演算処理中断部33は、画角内への異物の進入が検出されたか否かを判断する(ST58)。画角内への異物の進入が検出されたと判断した場合(ST58:YES)、処理はステップST50に戻る。すなわち、演算処理中断部33は、運転者状態判定部21による演算処理を中断させ、処理をステップST50に戻す。
【0095】
一方、画角内への異物の進入が検出されなかったと判断した場合(ST58:NO)、演算処理中断部33は、運転者状態判定部21による演算処理を中断させない。このため、以下の処理が実行される。
【0096】
すなわち、運転者状態判定部21は、眼の位置に基づき脇見検出処理を実行し(ST59)、運転者が脇見状態であるか否かを判断する(ST60)。運転者が脇見状態であると判断した場合(ST60:YES)、処理はステップST63に移行する。
【0097】
一方、運転者が脇見状態でないと判断した場合(ST60:NO)、運転者状態判定部21は、閉眼発生頻度に基づいて居眠りの検出処理を実行する(ST61)。そして、運転者状態判定部21は、運転者が居眠り状態であるか否かを判断する(ST62)。運転者が居眠り状態でないと判断した場合(ST62:NO)、処理はステップST10に戻り、再度運転者状態の検出が行われていくこととなる。
【0098】
一方、運転者が居眠り状態であると判断した場合(ST62:YES)、処理はステップST63に移行する。ステップST63において、報知部22は、報知信号を報知器40に出力し、運転者への注意喚起が行われることとなる(ST63)。その後、処理はステップST10に戻る。
【0099】
このようにして、本実施形態に係る運転者状態検出装置2によれば、2枚以上の顔の画像間のオプティカルフローを計算し、計算結果に応じて運転者状態判定部21により演算処理を中断させている。まず、オプティカルフローを検出すると、運転者の顔周辺の物体等の動きを捕らえることができる。このため、運転者の手などの異物が画角内に進入してきた場合であっても、その動きを捕らえることができ、異物が顔部位を覆ってしまうなど、画像認識処理が不安定となる異常状態の検知が可能となる。そして、オプティカルフローの計算結果に応じて報知前段の演算処理を中断させるため、画像認識処理が不安定となる場合に、報知動作を禁止することができる。
【0100】
従って、誤報知の頻度を低減させることができる。
【0101】
また、第1実施形態と同様に、できるだけ計算負荷を軽減させ、且つ的確に異物の進入を判断して、不可状態を精度良く検出することができる。また、画像内への異物の進入判定について高速化を図ることができる。また、構成の簡素化及びコストの低減を図ることができる。さらに、図13及び図14に示すように、進入判定の高速化を図ってもよい。
【0102】
また、従来技術では、異常処理が或る程度の時間継続して発生した場合、ステップST55のような判段処理を行って、正常な運転者状態に復帰させるバックアップ処理が行われている。しかし、その状態が異常か否かを判定するに当たっては、ある程度の時間を要するという問題点があった。つまり、その間は、脇見検出も居眠り検出もできない時間が発生することになる。ところが、本実施形態では、ハンドルや手などの画角内への進入による処理の発散である場合、運転者状態検出ができないのは、実際にハンドルや手が画角内に入っている時間のみに限定でき、実質、運転者状態検出精度を向上させることができる。従って、判定を数秒内に行わなければならない脇見判定などに特に有効であり、効果的に誤報知の防止ができる。
【0103】
次に、本発明の第3実施形態を説明する。第3実施形態に係る運転者状態検出装置3は、第2実施形態のものと同様であるが、異物進入判定装置30内に、演算切換部(演算切替手段)34を備える点で、第2実施形態のものと異なっている。
【0104】
以下、第3実施形態に係る運転者状態検出装置3について説明する。図17は、本発明の第3実施形態に係る運転者状態検出装置3のブロック図である。同図に示す演算処理切換部34は、画角内にハンドルが進入してきた場合に、顔部位の移動状態を検出している処理から、顔部位の位置を検出する処理に切り換えるものである。
【0105】
すなわち、顔部位が眼である場合、眼の移動状態を検出して脇見を検出する処理から、眼の位置を検出する処理に切り換えるものである。ここで、眼の位置を検出する処理に切り換えるとは、追跡領域をクリアして再度画像全体から眼の位置を検出することをいう。
【0106】
図18は、本実施形態に係る運転者状態検出装置3の詳細な動作を示すフローチャートである。まず、図18に示すステップST70〜ST75については、図16に示したステップST50〜ST55と同様であるため、説明を省略する。
【0107】
ステップST76において、画像処理部31は、オプティカルフローによる異物の進入判定処理を実行する(ST76)。この処理は、上記ステップST70〜ST75の間に行われている。
【0108】
その後、画像処理部31は、画角内へのハンドルの進入が検出されたか否かを判断する(ST77)。画角内へのハンドルの進入が検出されたと判断した場合(ST77:YES)、眼の追跡領域をクリアし(ST78)、処理はステップST70に戻る。すなわち、演算処理切換部34は、眼の移動状態による脇見検出を行うべきところを、眼の位置の検出処理に戻す指令を送出し、処理の切換を行う。そして、この指令を受けた運転者状態判定部21は、ステップST78に示すように目の追跡領域をクリアする。
【0109】
画角内へのハンドルの進入が検出されなかったと判断した場合(ST77:NO)、画像処理部31は、画角内へのハンドル以外の進入が検出されたか否かを判断する(ST79)。画角内へのハンドル以外の進入が検出されたと判断した場合(ST79:YES)、処理はステップST70に戻る。
【0110】
一方、画角内へのハンドル以外の進入が検出されなかったと判断した場合(ST79:NO)、処理はステップST80に移行する。ステップST80〜ST84は、図16に示したステップST59〜ST63と同様であるため、省略する。
【0111】
このようにして、本実施形態に係る運転者状態検出装置3によれば、第2実施形態と同様に、誤報知の頻度を低減させることができる。
【0112】
また、異物がハンドルである場合には、例えば、顔部位を眼とした場合、ハンドルのスポーク部により眼が覆い隠されることがある。また、ハンドルのスポーク部により眼が隠れてしまう状態は運転者がハンドル操作をしている状態であるため、カーブ区間を走行中である可能性が高い。さらに、カーブ区間を走行する場合には、運転者はカーブの先を視認しており、正面方向を視認していない場合が多い。
【0113】
このような場合に、カーブ区間の走行が終わったときには、運転者は素早く正面方向を視認するが、依然としてスポーク部により眼が隠れていることがある。その後、運転者がハンドルを元に戻しスポーク部により眼が隠されなくなったとしても、スポーク部により眼が隠される前にカーブ方向の視認が検出されていた場合には、隠される前と後とで眼の位置が大きく異なってしまう。このため、検出が不正確になりやすく、誤報知の可能性が増加する。
【0114】
ところが、本実施形態によれば、異物がハンドルである場合に、顔部位の移動状態を検出する処理から顔部位の位置を検出処理に切り換えているので、上記問題が発生せず、誤報知の頻度を一層低減させることができる。
【0115】
また、第2実施形態と同様に、できるだけ計算負荷を軽減させ、且つ的確に異物の進入を判断して、不可状態を精度良く検出することができる。また、画像内への異物の進入判定について高速化を図ることができる。また、構成の簡素化及びコストの低減を図ることができ、効果的に誤報知の防止ができる。さらに、図13及び図14に示すように、進入判定の高速化を図ってもよい。
【0116】
なお、本実施形態では、異物の進入に対しての誤報知低減を図っているが、本発明はこれに限定されず、進入に限らず画角内からの異物の退出についても同様に行うことができる。例えば、手が眼を覆っているときは、正しい脇見判定や開閉眼判定を行うことができないが、画像認識処理が不安定になる要因は、その時間だけでなく、眼から手が離れる際にも発生する。つまり、眼の追跡処理の判定状態によっては、離れる手を眼のデータだと誤認識してしまう可能性がある。このため、誤報知を発する可能性もあることとなる。本発明は、この異物の退出の際の誤報知も防止できる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る運転者状態検出装置の構成図である。
【図2】本発明の第1実施形態に係る運転者状態検出装置1の詳細構成図である。
【図3】本実施形態に係る運転者状態判定装置20の動作の概略を示すデータフローダイヤグラムである。
【図4】参照領域及び探索領域の説明図である。
【図5】画像に配置される参照領域の説明図である。
【図6】本実施形態に係る運転者状態検出装置1の詳細な動作を示すフローチャートである。
【図7】図6に示した異物進入判定処理(ステップST21)の詳細なフローチャートである。
【図8】図7に示すステップST31における移動量(xd,yd)の算出方法の説明図である。
【図9】画角内にハンドルのスポークが進入した場合のオプティカルフローの例を示す説明図であり、(a)は時刻tにおけるオプティカルフローの例を示し、(b)は時刻(t+1)におけるオプティカルフローの例を示し、(c)は時刻(t+2)におけるオプティカルフローの例を示し、(d)は時刻(t+3)におけるオプティカルフローの例を示している。
【図10】図9に示す例にて得られたオプティカルフローを示すグラフであり、(a)は画像縦方向における移動量を示し、(b)は画像横方向における移動量を示している。
【図11】画角内にハンドルのスポーク以外の異物が進入した場合のオプティカルフローの例を示す説明図であり、(a)は手が進入したときの画像例を示し、(b)は手が進入したときのオプティカルフローの例を示し、(c)は雑誌が進入したときの画像例を示し、(d)は雑誌が進入したときのオプティカルフローの例を示している。
【図12】動きパターンに基づいて、異物の進入を判定する動作を示すフローチャートである。
【図13】参照領域の第1配置例を示す図である。
【図14】参照領域の第2配置例を示す図である。
【図15】本発明の第2実施形態に係る運転者状態検出装置2のブロック図である。
【図16】本実施形態に係る運転者状態検出装置2の詳細な動作を示すフローチャートである。
【図17】本発明の第3実施形態に係る運転者状態検出装置3のブロック図である。
【図18】本実施形態に係る運転者状態検出装置3の詳細な動作を示すフローチャートである。
【符号の説明】
1〜3…運転者状態検出装置
10…撮影部(撮影手段)
21…運転者状態判定部(運転者状態判定手段)
22…報知部(報知手段)
31…画像処理部(画像処理手段)
32…報知禁止部(報知禁止手段)
33…演算処理中断部(演算処理中断手段)
34…演算処理切換部(演算処理切換手段)
Claims (10)
- 運転者の顔を撮影する撮影手段と、
前記撮影手段により撮影された顔の画像から、運転者の顔部位の位置、顔部位の移動状態、及び眼の開閉状態のうち少なくとも1つを検出して、運転者状態を判定する運転者状態判定手段と、
前記運転者状態判定手段による判定結果に基づいて、前記運転者に報知するための報知信号を出力する報知手段と、
前記撮影手段により撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算する画像処理手段と、
前記画像処理手段の計算結果に応じて、前記報知手段からの報知を禁止する報知禁止手段と、
を備えることを特徴とする運転者状態検出装置。 - 運転者の顔を撮影する撮影手段と、
前記撮影手段により撮影された顔の画像から、運転者の顔部位の位置、顔部位の移動状態、及び眼の開閉状態のうち少なくとも1つを検出して、運転者状態を判定する運転者状態判定手段と、
前記運転者状態判定手段による判定結果に基づいて、前記運転者に報知するための報知信号を出力する報知手段と、
前記撮影手段により撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算する画像処理手段と、
前記画像処理手段の計算結果に応じて、前記運転者状態判定手段での演算処理を中断させる演算処理中断手段と、
を備えることを特徴とする運転者状態検出装置。 - 前記演算処理中断手段により中断された演算処理の判定処理フローを他の判定処理フローに切り換える演算処理切換手段を更に備えることを特徴とする請求項2に記載の運転者状態検出装置。
- 前記画像処理手段は、画像端部からの異物の入出を検出することを特徴とする請求項1〜請求項3のいずれか1項に記載の運転者状態検出装置。
- 前記画像処理手段は、画像端部から入出する異物がハンドルであるか否かを検出し、
前記演算処理切換手段は、前記画像処理手段により異物がハンドルであると検出された場合、顔部位の移動状態を検出する処理から顔部位の位置を検出する処理に切り換える
ことを特徴とする請求項3の運転者状態検出装置。 - 前記画像処理手段によるオプティカルフローの計算は、予め画像上に設定された少なくとも2つの演算領域にて行なわれ、
それら演算領域は、画像下端部に配置されている
ことを特徴とする請求項1〜請求項3のいずれか1項に記載の運転者状態検出装置。 - 前記画像処理手段によるオプティカルフローの計算は、予め画像上に設定された少なくとも2つの演算領域にて行なわれ、
それら演算領域は、画像下端部及び左右端部に配置されている
ことを特徴とする請求項1〜請求項3のいずれか1項に記載の運転者状態検出装置。 - 前記画像処理手段によるオプティカルフローの計算は、予め画像上に設定された少なくとも2つの演算領域にて行なわれ、
それら演算領域は、画像周囲部に配置されている
ことを特徴とする請求項1〜請求項3のいずれか1項に記載の運転者状態検出装置。 - 運転者の顔を撮影して得られた顔の画像から、運転者の顔部位の位置、顔部位の移動状態、及び眼の開閉状態のうち少なくとも1つを検出して、運転者状態を判定する一方、撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算し、運転者状態の判定結果及びオプティカルフローの計算結果に基づいて、運転者への報知を行うか否かを決定することを特徴とする運転者状態検出装置。
- 運転者の顔を撮影して得られた顔の画像から、運転者の顔部位の位置、顔部位の移動状態、及び眼の開閉状態のうち少なくとも1つを検出して、運転者状態を判定する一方、撮影された2枚以上の顔の画像に基づいて画像間のオプティカルフローを計算し、運転者状態の判定結果及びオプティカルフローの計算結果に基づいて、運転者状態の判定処理を継続するか否かを決定することを特徴とする運転者状態検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003185871A JP4123076B2 (ja) | 2003-06-27 | 2003-06-27 | 運転者状態検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003185871A JP4123076B2 (ja) | 2003-06-27 | 2003-06-27 | 運転者状態検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005018651A true JP2005018651A (ja) | 2005-01-20 |
JP4123076B2 JP4123076B2 (ja) | 2008-07-23 |
Family
ID=34185157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003185871A Expired - Fee Related JP4123076B2 (ja) | 2003-06-27 | 2003-06-27 | 運転者状態検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4123076B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007031018A (ja) * | 2005-07-22 | 2007-02-08 | Mitsubishi Electric Building Techno Service Co Ltd | エレベータの防犯運転装置及び防犯運転設定変更方法 |
JP2007072631A (ja) * | 2005-09-05 | 2007-03-22 | Toyota Motor Corp | 車載警報装置 |
WO2013111819A1 (ja) * | 2012-01-26 | 2013-08-01 | 日産自動車株式会社 | 運転支援装置 |
-
2003
- 2003-06-27 JP JP2003185871A patent/JP4123076B2/ja not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007031018A (ja) * | 2005-07-22 | 2007-02-08 | Mitsubishi Electric Building Techno Service Co Ltd | エレベータの防犯運転装置及び防犯運転設定変更方法 |
JP2007072631A (ja) * | 2005-09-05 | 2007-03-22 | Toyota Motor Corp | 車載警報装置 |
JP4696792B2 (ja) * | 2005-09-05 | 2011-06-08 | トヨタ自動車株式会社 | 車載警報装置 |
WO2013111819A1 (ja) * | 2012-01-26 | 2013-08-01 | 日産自動車株式会社 | 運転支援装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4123076B2 (ja) | 2008-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3768735B2 (ja) | 顔画像処理装置 | |
JP5786947B2 (ja) | 歩行者行動予測装置および歩行者行動予測方法 | |
US7817848B2 (en) | Apparatus, method, and computer product for discriminating object | |
JP3350296B2 (ja) | 顔画像処理装置 | |
JP6234762B2 (ja) | 眼部検出装置、方法、およびプログラム | |
EP1426898A2 (en) | Human detection through face detection and motion detection | |
JP5271227B2 (ja) | 群衆監視装置および方法ならびにプログラム | |
JP2008108243A (ja) | 人物認識装置および人物認識方法 | |
JP2016057839A (ja) | 顔向き検出装置及び車両用警告システム | |
JP2010191793A (ja) | 警告表示装置及び警告表示方法 | |
JP4989249B2 (ja) | 目検知装置、居眠り検知装置及び目検知装置の方法 | |
JP2010079716A (ja) | 車両の歩行者検出装置 | |
JP4123077B2 (ja) | 運転者状態検出装置 | |
JP2008226163A (ja) | 車両の安全装置 | |
JP4123076B2 (ja) | 運転者状態検出装置 | |
JP2005090974A (ja) | 先行車認識装置 | |
JP2005066023A (ja) | 運転者状態検出装置 | |
JP3088880B2 (ja) | 人物認識装置 | |
JP2005018655A (ja) | 運転者行動推定装置 | |
JP2009278185A (ja) | 画像認識装置 | |
JP2000067225A (ja) | 眼位置検出装置 | |
JP4281405B2 (ja) | 確認動作検出装置及び警報システム | |
WO2020166129A1 (ja) | 状態認識装置 | |
JP4107104B2 (ja) | 顔部位追跡装置 | |
JPH1086696A (ja) | 顔画像における特徴部位の検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080408 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080421 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110516 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130516 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140516 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |