JP2019154613A - 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ - Google Patents
眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ Download PDFInfo
- Publication number
- JP2019154613A JP2019154613A JP2018042804A JP2018042804A JP2019154613A JP 2019154613 A JP2019154613 A JP 2019154613A JP 2018042804 A JP2018042804 A JP 2018042804A JP 2018042804 A JP2018042804 A JP 2018042804A JP 2019154613 A JP2019154613 A JP 2019154613A
- Authority
- JP
- Japan
- Prior art keywords
- drowsiness
- sleepiness
- eye
- detection data
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 206010041349 Somnolence Diseases 0.000 title claims abstract description 178
- 238000001514 detection method Methods 0.000 title claims description 72
- 238000004590 computer program Methods 0.000 title claims 3
- 238000009826 distribution Methods 0.000 claims abstract description 16
- 208000032140 Sleepiness Diseases 0.000 claims description 72
- 230000037321 sleepiness Effects 0.000 claims description 72
- 239000013598 vector Substances 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 26
- 238000000513 principal component analysis Methods 0.000 claims description 17
- 238000010801 machine learning Methods 0.000 claims description 14
- 210000000744 eyelid Anatomy 0.000 claims description 12
- 238000003860 storage Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 24
- 238000012706 support-vector machine Methods 0.000 description 10
- 230000006835 compression Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000013500 data storage Methods 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000013106 supervised machine learning method Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】運転手などの被検出者の眠気を、浅い眠気であってもハイスピードカメラを用いることなく従来よりも確実に検出する。【解決手段】サーバ2は、各時刻における、標本である人物の目の開き具合を表わす開眼度を取得するとともに、所定の時間ごとの、この人物がどれくらい眠いかの度合を表わす眠気レベルを取得する。さらに、所定の時間ごとの、ビンごとの開眼度の度数分布(ヒストグラム)および眠気レベルに基づいて、眠気を検出するための検出器を生成する。そして、自動車10の運転手12の眠気を、検出器を用いて検出する。【選択図】図1
Description
本発明は、運転手などの被検出者の眠気を検出する技術に関する。
交通事故の原因の1つは、前方不注視等の漫然運転である。漫然運転を引き起こす大きな要因の1つは、眠気であると考えられる(非特許文献1)。そこで、運転手をモニタリングして眠気を検出するシステムの需要が高まり、様々な指標に基づいて眠気を検出する技術が提案されている。
非特許文献2に記載されるシステムは、ビデオカメラで運転手の顔を撮影し、得られた動画像から運転手の目の輪郭を抽出し、瞬きの振幅および速さなどに基づいて眠気を検出する。
非特許文献3に記載されるシステムは、閉眼割合(運転中の、目を閉じている割合)に基づいて眠気を検出する。
横尾 和彦 著,「高速道路での居眠り運転防止に向けた効果的な対策に関する調査研究」,https://www.express-highway.or.jp/info/document/rpt_t_007.pdf,2018年3月3日検索
パナソニック株式会社,「眠気を検知・予測し、快適に覚醒状態を維持させる眠気制御技術を開発」,http://news.panasonic.com/jp/press/data/2017/07/jn170727-1/jn170727-1.pdf,2018年3月3日検索
大見 拓寛 著,「画像センサによる眠気状態推定とドライバーステータスモニターの開発」,Denso Technical Review, Vol. 21, pp. 93-102 (2016)
しかし、瞬きの振幅および速さなどに基づいて眠気を検出する方法によると、ハイスピードカメラが必要である。
また、閉眼割合に基づいて眠気を検出する方法によると、深い眠気を感度よく検出することができるが、浅い眠気をあまり感度よく検出することができない。
本発明は、このような問題点に鑑み、運転手などの被検出者の眠気を、浅い眠気であってもハイスピードカメラを用いることなく従来よりも確実に検出することができるようにすることを、目的とする。
本発明の一形態に係る眠気検出システムは、各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する、開眼度取得手段と、所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する、眠気レベル取得手段と、前記所定の時間ごとの、ビンごとの前記開眼度の度数分布(ヒストグラム)および前記眠気レベルに基づいて、眠気を検出するための検出用データを生成する、生成手段と、被検出者から前記眠気を、前記検出用データを用いて検出する、検出手段と、を有する。
好ましくは、前記開眼度取得手段は、前記開眼度として、前記人物の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、前記生成手段は、前記度数分布を主成分分析することによって特徴ベクトルの集合を算出し、当該集合を学習データとして用い、かつ、前記各時刻の前記眠気レベルを正解データとして用いて、機械学習によって前記検出用データを生成する。さらに好ましくは、前記生成手段は、前記各時刻の前記眠気レベルを線形補間して算出する。
または、前記生成手段は、前記機械学習としてSVC(Support Vector Classification)を用いることによって、眠気の有無を分類するためのデータを前記検出用データとして生成する。または、前記機械学習としてSVR(Support Vector Regression)を用いることによって、眠気の3つ以上のレベルのうちのいずれかに仕分けるためのデータを前記検出用データとして生成する。
または、前記検出手段は、特定の時刻における前記眠気を、前記特定の時刻から第二の所定の時間前の時刻までの前記被検出者の目の開き具合を表わす第二の開眼度に基づいて検出する。
または、前記検出手段は、前記被検出者の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、前記生成手段が前記特徴ベクトルの集合を算出する際に得られた変換行列を用いて当該値を第二の特徴ベクトルに変換し、当該第二の特徴ベクトルおよび前記検出用データに基づいて前記眠気を検出する。
本発明によると、運転手などの被検出者の眠気を、浅い眠気であってもハイスピードカメラを用いることなく従来よりも確実に検出することができる。
図1は、眠気検出システム1の全体的な構成の例を示す図である。図2は、自動車10の車内およびビデオカメラ32の位置の例を示す図である。図3は、車載コンピュータ31のハードウェア構成の例を示す図である。図4は、サーバ2のハードウェア構成の例を示す図である。図5は、サーバ2の機能的構成の例を示す図である。
図1に示す眠気検出システム1は、自動車10を運転する運転手12から眠気を検出するシステムであって、サーバ2、車載システム3、および通信回線4などによって構成される。
サーバ2および車載システム3は、通信回線4を介して通信することができる。通信回線4は、携帯電話網、Wi−Fi、またはインターネットなどが組み合わされた通信回線である。
車載システム3は、自動車10に搭載されるコンピュータシステムであって、車載コンピュータ31およびビデオカメラ32などによって構成される。
ビデオカメラ32は、図2のように、自動車10のダッシュボードに、運転席の上方に撮影方向が向くように設けられている。そして、所定のフレームレートで運転手12の顔を撮影し、顔の動画像データを車載コンピュータ31へリアルタイムに送信する。以下、ビデオカメラ32として、30フレーム/秒で撮影するデジタルビデオカメラが用いられる場合を例に説明する。
車載コンピュータ31は、運転手12に眠気が生じているか否かをサーバ2へ問い合わせたり、眠気が生じている場合に運転手12に対して警告したりするためのコンピュータである。
車載コンピュータ31は、図3に示すように、CPU(Central Processing Unit)31a、RAM(Random Access Memory)31b、ROM(Read Only Memory)31c、補助記憶装置31d、操作キー31e、タッチパネルディスプレイ31f、音声出力装置31g、入出力ボード31h、ネットワークアダプタ31j、および電源ユニット31kなどによって構成される。
ROM31cまたは補助記憶装置31dには、オペレーティングシステムのほか、サーバ2と通信するためプログラムなど、種々のプログラムがインストールされている。補助記憶装置31dとして、SSD(Solid State Drive)またはハードディスクなどが用いられる。
RAM31bは、車載コンピュータ31のメインメモリである。RAM31bには、オペレーティングシステムのほか種々のプログラムがロードされる。CPU31aは、RAM31bにロードされたプログラムを実行する。
操作キー31eは、運転手12または同乗者が車載コンピュータ31を操作するための、いわゆるハードウェアキーである。
タッチパネルディスプレイ31fは、道路マップなどの画像を表示する。本実施形態では、特に、眠気が生じていることを警告するメッセージを文字列またはイラストなどの画像によって表示する。また、タッチ面がタッチされた場合に、タッチされた位置をCPU31aへ通知する。
音声出力装置31gは、眠気が生じていることを警告するメッセージを音声によって出力する。
入出力ボード31hは、ビデオカメラ32にケーブルによって繋がれ、ビデオカメラ32と通信する。入出力ボード31hとして、例えば、USB(Universal Serial Bus)に準拠した入出力ボードが用いられる。
ネットワークアダプタ31jは、TCP/IP(Transmission Control Protocol/Internet Protocol)などのプロトコルで他の装置と通信するための装置である。ネットワークアダプタ31jとして、携帯電話通信など無線通信用のネットワークアダプタが用いられる。特に、本実施形態では、ネットワークアダプタ31jは、ビデオカメラ32から入力される動画像データをサーバ2へ送信し、眠気の検出結果をサーバ2から受信する。
電源ユニット31kは、CPU31aからの指令などに従って車載コンピュータ31の各ハードウェアモジュールへ電力を供給する。
車載コンピュータ31として、スマートフォンまたはタブレットコンピュータを用いてもよい。または、カーナビゲーション端末と車載カメラとを組み合わせたものを用いてもよい。
サーバ2は、車載システム3から受信した動画像データに基づいて運転手12から眠気を検出し、その結果を車載システム3へ送信する。
サーバ2は、図4に示すように、CPU20a、RAM20b、ROM20c、補助記憶装置20d、ネットワークアダプタ20e、および電源ユニット20fなどによって構成される。
ROM20cまたは補助記憶装置20dには、オペレーティングシステムのほか種々のプログラムがインストールされている。特に、本実施形態では、眠気検出のサービスを提供するための眠気検出プログラム20p(図5参照)がインストールされている。補助記憶装置20dとして、SSD(Solid State Drive)またはハードディスクなどが用いられる。
RAM20bは、サーバ2のメインメモリである。RAM20bには、オペレーティングシステムのほか種々のプログラムがロードされる。CPU20aは、RAM20bにロードされたプログラムを実行する。
ネットワークアダプタ20eは、TCP/IPなどのプロトコルで他の装置と通信するための装置である。ネットワークアダプタ20eとして、NIC(Network Interface Card)、無線LAN(Local Area Network)アダプタなどが用いられる。
眠気検出プログラム20pは、図5に示す眠気学習モジュール25および眠気検出モジュール27などのソフトウェアモジュールによって構成される。
眠気学習モジュール25は、標本である1人または複数の被験者から予め収集した学習データに基づいて、眠気の有無またはレベルを分類するための識別器を生成するプログラムである。識別器は、「推定器」または「検出器」などと呼ばれることがある。眠気検出モジュール27は、運転手12から運転中に収集した観察データに基づいて、運転手12から眠気の有無またはレベルを検出するプログラムである。
つまり、眠気学習モジュール25は、眠気検出のサービスを提供する学習の際に実行され、眠気検出モジュール27は、眠気検出のサービスを実際に提供する際に実行される。
眠気学習モジュール25は、開眼度算出部251、学習データ記憶部252、標準化処理部253、ヒストグラム算出部254、主成分分析部255、および識別器生成部256などの処理部を実現する。
眠気検出モジュール27は、開眼度算出部271、標準化処理部272、ヒストグラム算出部273、次元圧縮部274、および眠気判定部275などの処理部を実現する。
本実施形態では、2つのモジュールに分けてこれらの処理部を実現するが、1つのモジュールによって実現してもよいし、3つ以上のモジュールに分けて実現してもよい。
〔眠気検出のサービスを提供するための学習〕
〔概要〕
図6は、学習処理の流れの例を説明するフローチャートである。図7〜図8は、学習処理の各ステップで得られるデータの例を示す図である。
〔概要〕
図6は、学習処理の流れの例を説明するフローチャートである。図7〜図8は、学習処理の各ステップで得られるデータの例を示す図である。
眠気学習モジュール25によると、サーバ2において、図6に示す手順で処理が実行される。この際に、図7〜図8に示すようなデータが得られる。
サーバ2は、学習データとして、被験者の動画像から被験者の目の時刻ごと(例えば、1/30秒ごと)の開眼度を算出する(図6の#21)。これにより、図7(A)のような開眼度が得られる。さらに、教師データとして、所定の時間(例えば、5秒)ごとの被験者の眠気レベルを取得する(#22)。
サーバ2は、開眼度を60Hzに線形補間し標準化する(#23)。これにより、図7(B)に示すような標準化開眼度が得られる。さらに、所定の時間ごと(例えば、5秒ごと)の標準化開眼度をヒストグラム化する(#24)。これにより、図7(C)に示すようなヒストグラム(度数分布)が得られる。
さらに、サーバ2は、ヒストグラムを主成分分析することによって次元圧縮を行う(#25)。これにより、図8(A)のような特徴ベクトルの集合が得られる。なお、図8(A)に示す特徴ベクトルの集合は、2次元に圧縮された場合の一例である。
そして、サーバ2は、眠気の有無を分類するための識別器を機械学習によって生成する(#26)。この際に、特徴ベクトルの集合が学習データとして用いられ、かつ、ステップ#22で取得した眠気レベルを加工したものが教師データとして用いられる。また、機械学習のアルゴリズムとして、例えばSVM(Support Vector Machine)が用いられる。機械学習によると、図8(B)に示すように、眠気の有無が分類されサポートベクトルが求められる。なお、図8(B)のデータは、特徴ベクトルの集合が2次元に圧縮されたものである場合の一例である。そして、このサポートベクトルが用いられて識別器が生成される。
次に、図6に示したステップ#21〜#26のそれぞれの具体的な処理の一例を説明する。
〔学習データおよび教師データそれぞれの基礎となるデータの収集〕
図9は、目のランドマーク点Q1〜Q6である。図10は、眠気レベルおよびその基準などの例を示す図である。
図9は、目のランドマーク点Q1〜Q6である。図10は、眠気レベルおよびその基準などの例を示す図である。
眠気検出のサービスの提供者は、1人または複数の被験者から学習データを収集する。以下、学習データを収集する方法を、ある1人の被験者から学習データを収集する場合を例に説明する。
観察者は、提供者からの指示に従い、次の作業を行う。観察者は、被験者の顔を所定のフレームレートでデジタルビデオカメラによって30分〜2時間程度、撮影する。本実施形態では、30フレーム/秒で撮影する。これにより、被験者の顔の動画像データ6Aが得られる。なお、各フレームには、撮影された時刻が対応付けられる。動画像データ6Aは、デジタルビデオカメラからサーバ2へ送信される。また、撮影中、被験者は、眠くなる動画像を観たり、眠くなる音楽を聴いたりする。
開眼度算出部251は、デジタルビデオカメラから動画像データ6Aが入力されると、各時刻のフレームから目の画像を検出し、開眼度を算出する。「開眼度」は、目頭から目尻までの距離つまり目の横幅に対する上瞼から下瞼までの距離の比率である。
ここで、時刻tにおける開眼度の算出の方法の一例を説明する。なお、撮影を開始した時点の時刻tを「0」とする。
開眼度算出部251は、図9に示す6つのランドマーク点Q1〜Q6を利用して時刻tのフレームの中から両目それぞれの画像を検出する。(1)式に基づいて、右目および左目それぞれの開眼度を算出する。
そして、開眼度算出部251は、(2)式に基づいて、右目および左目の開眼度の平均値を算出する。この平均値が、時刻tにおける開眼度である。
開眼度算出部251は、(1)式および(2)式によって算出した各時刻における開眼度(図7(A)参照)を示す開眼度時系列データ6Bを生成し、学習データ記憶部252に記憶させる。
さらに、観察者は、被験者の顔を撮影している間、被験者の眠気のレベルを所定の時間ごとに判断し、パーソナルコンピュータに入力する。本実施形態では、5秒ごとに判別する。眠気のレベルとして、図10に示す「1」〜「5」の5段階の眠気レベルが用いられる。各眠気レベルには、表情または身体の動きに応じた判断の基準が規定されている。観察者は、これらの判断の基準に基づいて被験者の眠気レベルを判断する。これにより、5秒ごとの眠気レベルを示す眠気レベル時系列データ6Cがパーソナルコンピュータに生成される。眠気レベル時系列データ6Cは、パーソナルコンピュータからサーバ2へ送信され、ネットワークアダプタ20eによって受信され、開眼度時系列データ6Bと対応付けられて学習データ記憶部252に記憶される。
他の被験者についても同様に、開眼度時系列データ6Bおよび眠気レベル時系列データ6Cが生成され、互いに対応付けられて学習データ記憶部252に記憶される。
〔標準化〕
ところで、開眼度時系列データ6Bは、時間的に等間隔にサンプリングされているとは限らない。また、開眼度には個人差があり、取得方法によって値の分布が異なる場合があると考えられる。目の画像の検出に失敗したなどの理由で正常な開眼度が計算できず、開眼度時系列データ6Bの一部に欠損値またはノイズが混じることもある。
ところで、開眼度時系列データ6Bは、時間的に等間隔にサンプリングされているとは限らない。また、開眼度には個人差があり、取得方法によって値の分布が異なる場合があると考えられる。目の画像の検出に失敗したなどの理由で正常な開眼度が計算できず、開眼度時系列データ6Bの一部に欠損値またはノイズが混じることもある。
そこで、標準化処理部253は、開眼度時系列データ6Bの補間および標準化を行う。完全に開眼している時の値が「1」に変換され、完全に閉眼している時の値が「0」に変換されるのが、理想的である。しかし、実際には、上下方向の検出ノイズが出るため、上限および下限を設けることが困難である。これは、実際に得られた開眼度の最大値および最小値を用いて正規化を行い、正規化開眼度の分布を見ると、分布の個人差が非常に大きくなることから分かる。そこで、本実施形態では、以下に述べるような処理を行う。
初めに、標準化処理部253は、開眼度時系列データ6Bに示される開眼度を時間的に等間隔なデータに線形補間する。本実施形態では、60Hzのデータに線形補間する。例えば、(1/60)秒ごとの開眼度を(3)式によって算出することによって、線形補間すればよい。
さらに、標準化処理部253は、(3)式によって線形補間した開眼度を、標準化パラメータμ(平均)、σ(不偏分散の正の平方根)、および撮影の開始時からU秒(例えば、150秒)の経過時までの開眼度を用いて標準化する。つまり、(4)式によって各時刻tの標準化開眼度(図7(B)参照)を算出する。
なお、標準化処理部253は、被験者ごとに、つまり、眠気レベル時系列データ6Cごとに、標準化開眼度を算出する。
〔ヒストグラムの生成〕
ヒストグラム算出部254は、標準化処理部253によって得られた標準化開眼度のヒストグラムである開眼度ヒストグラムを算出する。なお、すべての被験者の標準化開眼度を用いて開眼度ヒストグラムを算出してもよい。被験者の本実施形態では、次のように開眼度ヒストグラムを算出する。
ヒストグラム算出部254は、標準化処理部253によって得られた標準化開眼度のヒストグラムである開眼度ヒストグラムを算出する。なお、すべての被験者の標準化開眼度を用いて開眼度ヒストグラムを算出してもよい。被験者の本実施形態では、次のように開眼度ヒストグラムを算出する。
秒数Sおよびヒストグラムのビン(階級)数Nを予め決めておく。また、標準化開眼度の分布傾向に基づいて、ヒストグラムの最小値および最大値を予め決めておく。本実施形態では、最小値および最大値をそれぞれ「−5」および「6」とする。標準化処理部253は、この場合に、時刻tにおける(5)式の開眼度ヒストグラム(図7(C)参照)を、(6)式に基づいて、時刻tからS秒(例えば、5秒)前までの間で得られた標準化開眼度を用いて算出する。
〔主成分分析〕
ヒストグラム算出部254によって算出された開眼度ヒストグラムは、標準化開眼度の分布を元にしたN次元ベクトルである。しかし、これだけでは、眠気を十分説明することができない。
ヒストグラム算出部254によって算出された開眼度ヒストグラムは、標準化開眼度の分布を元にしたN次元ベクトルである。しかし、これだけでは、眠気を十分説明することができない。
そこで、主成分分析部255は、この開眼ヒストグラムを主成分分析によって有意な特徴量に変換するとともに、次元圧縮を行う。主成分分析によって得られるベクトルを「主成分スコア」と呼び、主成分スコアの第i次元のスカラー量を「第i主成分」と呼ぶ。変換は、第1主成分の分散を最大化し、以降それまでに決定した主成分と無相関という制約条件の下で分散を最大化するようにして選ばれる。主成分スコアの、ある次元の分散を各次元の分散の総和で割ったものをその次元における「寄与率」と呼ぶ。第1次元から第i次元までの寄与率の総和を第i次元(第i主成分)までの「累積寄与率」と呼ぶ。
主成分分析部255は、時刻tにおける(7)式の特徴ベクトルを、(8)式を用いて算出する。
つまり、主成分分析部255は、前処理として、元の開眼度ヒストグラムhtから平均mを引く。主成分分析によって得られる変換行列を「P」とし、累積寄与率が所定の値(例えば、0.8)を超える最小の次元を「n」とし、得られた開眼度ヒストグラム全体の、元の重複を認めた集合を「H」として、最終的な特徴ベクトル(図8(A)参照)を算出する。
〔SVMによる学習〕
主成分分析部255によって特徴ベクトルの集合が得られると、識別器生成部256は、眠気の有無を分類するための識別器を機械学習によって生成する。機械学習は、各特徴ベクトルに対応する正解データ(教師データ)があれば適用可能である。正解データとして、眠気レベル時系列データ6C、つまり、観察者が5秒ごとに評価した、被験者の眠気レベルが、次のように加工されて用いられる。
主成分分析部255によって特徴ベクトルの集合が得られると、識別器生成部256は、眠気の有無を分類するための識別器を機械学習によって生成する。機械学習は、各特徴ベクトルに対応する正解データ(教師データ)があれば適用可能である。正解データとして、眠気レベル時系列データ6C、つまり、観察者が5秒ごとに評価した、被験者の眠気レベルが、次のように加工されて用いられる。
主成分分析部255は、それぞれの眠気レベル時系列データ6Cを、特徴ベクトルの集合の時間間隔に合わせて、つまり、60Hzで線形補間する。時刻tにおける眠気レベルを(9)式とすると、保管後の時刻t∈Tにおける眠気レベルdtは、(10)式のように算出される。
また、時刻tにおける正解データを、(11)式のように時刻tからS秒前(例えば、5秒前)までの間の眠気レベルの平均と定義する。
以上のように(11)式で定義される正解データは、回帰学習における正解データである。識別器生成部256は、眠気を2値分類する場合は、眠気レベル時系列データ6Cに示される眠気レベルつまり正解データを、3以上ならば「1」に置換し、3未満であれば「0」に置換した上で算出する。
また、識別器生成部256は、実際に学習・推定する際は、さらに特徴ベクトルの標準化処理(平均を引いた後で不偏分散の正の平方根で割る処理)を行う。このため、特徴ベクトルの標準化処理に必要なパラメータも学習することができる。
以上の処理によって、特徴ベクトルおよびそれに対応する正解データの準備が整う。識別器生成部256は、これらを学習データとテストデータとに分割する。例えば、20%分を学習データとして用い、残りをテストデータとしてパラメータ学習のために用いる。
また、学習の手法として、サポートベクターマシン(SVM)が用いられる。SVMによると、分類(SVC:Support Vector Classification)および回帰(SVR:Support Vector Regression)が可能である。また、誤りペナルティの重要度を決めるコストパラメータC、カーネル関数k、およびそのパラメータがハイパーパラメータとして存在する。SVCによって学習した場合は、図8(B)に例示するような結果が得られる。
学習によって得られるパラメータおよび関数は、次の通りである。これらのパラメータおよび関数のうちの一部によって、眠気の有無を分類するための識別器fが生成される。
μ: 開眼度の標準化パラメータ(平均)。
σ: 開眼度の標準化パラメータ(不偏分散の正の平方根)。
m: 開眼度ヒストグラムの平均(主成分分析)。
P: 主成分分析における変換行列。
n: 圧縮後の次元数(累積寄与率0.8を超える次元数)。
p: SVMのパラメータ(標準化パラメータを含む)。
μ: 開眼度の標準化パラメータ(平均)。
σ: 開眼度の標準化パラメータ(不偏分散の正の平方根)。
m: 開眼度ヒストグラムの平均(主成分分析)。
P: 主成分分析における変換行列。
n: 圧縮後の次元数(累積寄与率0.8を超える次元数)。
p: SVMのパラメータ(標準化パラメータを含む)。
学習前に予め決めておく必要のあるハイパーパラメータは、次の通りである。なお、Sは、例えば5秒であり、Nは、例えば50である。
S: ヒストグラム算出に用いるデータ秒数。
N: ヒストグラム算出に用いるビン数。
C: SVMのコストパラメータ。
k: SVMのカーネル関数。
S: ヒストグラム算出に用いるデータ秒数。
N: ヒストグラム算出に用いるビン数。
C: SVMのコストパラメータ。
k: SVMのカーネル関数。
識別器生成部256は、これらのパラメータおよび関数ならびに識別子fを示す学習済モデルデータ6Dを生成し、所定の記憶領域に記憶させる。
〔運転手12の眠気の検出〕
図11は、眠気検出処理の流れの例を説明するフローチャートである。
図11は、眠気検出処理の流れの例を説明するフローチャートである。
ビデオカメラ32は、運転手12が自動車10を運転している間、運転手12を撮影することによって動画像データ6Dを生成し、車載コンピュータ31へ送信する。車載コンピュータ31は、動画像データ6Dをサーバ2へ送信する。
すると、図5に示す開眼度算出部271ないし眠気判定部275は、所定の時間間隔で(例えば、5秒ごとに)眠気を検出するための処理を行う。以下、この処理の一例を、図11を参照しながら説明する。
開眼度算出部271は、動画像データ6Dが入力されると、各時刻のフレームから目の画像を検出し、開眼度を算出する(図11の#41)。これにより、開眼度時系列データ6Eが得られる。算出の方法は、開眼度算出部251による算出の方法と同様であり、前に説明した通りである。
標準化処理部272は、直近のU秒間(例えば、150秒間)の開眼度を用いて、開眼度時系列データ6Eの補間および標準化を行うことによって、現時刻の標準化開眼度を算出する(#42)。補間および標準化の方法は、標準化処理部253による補間および標準化の方法と同様であり、前に説明した通りである。
ヒストグラム算出部273は、標準化処理部272によって得られた標準化開眼度のヒストグラムである開眼度ヒストグラムを算出する(#43)。算出の方法は、ヒストグラム算出部254による算出の方法と同様であり、前に説明した通りである。
次元圧縮部274は、ヒストグラム算出部273によって得られた開眼度ヒストグラムHtを(8)式に代入することによって次元圧縮を行う(#44)。これにより、特徴ベクトルが得られる。
眠気判定部275は、次元圧縮部274によって得られた特徴ベクトルを、識別器生成部256によって生成された学習済モデルデータ6Dに示される識別器fに入力することによって、運転手12に眠気が生じているか否かを判定する(#45)。識別器fから「1」が出力されたら眠気が生じていると判定することができる。「1」が出力されたら眠気が生じていないと判定することができる。
そして、眠気判定部275は、判定の結果つまり「0」または「1」を示す眠気判定データ6Fを車載システム3へ送信する(#46)。
車載システム3は、眠気判定データ6Fを受信すると、眠気判定データ6Fに「1」が示されていれば、眠気が運転手12に生じていること、タッチパネルディスプレイ31fにメッセージを表示することによって知らせる。または、音声出力装置31gでメッセージまたは警告音を再生することによって知らせる。
なお、識別器生成部256が回帰学習によって識別器fを生成した場合は、特徴ベクトルの集合を識別器fに入力することによって「1」〜「5」のいずれかが出力される。この場合は、車載システム3は、眠気判定データ6Fを受信すると、眠気判定データ6Fに示される値に応じてメッセージを出力する。例えば、値が大きいほど、大きい音量でメッセージを再生する。または、値に応じた内容のメッセージを出力する。
本実施形態によると、開眼度のヒストグラムを用いて識別器(検出器)を生成し、これを用いて運転手12などの被検出者の眠気を検出した。これにより、被検出者の眠気を、浅い眠気であってもハイスピードカメラを用いることなく従来よりも確実に検出することができる。
本実施形態では、サーバ2によって眠気を検出したが、図5に示した機能をサーバ2の代わりに車載コンピュータ31に設け、車載コンピュータ31によって眠気を検出してもよい。
本実施形態では、秒数Uとして150秒を設定する場合を例に説明したが、約130〜300秒のいずれかであってもよい。
本実施形態では、教師あり機械学習の方法(アルゴリズム)としてSVMを用いたが、他の方法を用いてもよい。例えば、学習データを十分に取得することができる場合は、ディープラーニングを用いてもよい。
本実施形態では、自動車10の運転手12の眠気を検出する場合を例に説明したが、他の作業者の眠気を検出する場合にも、本発明を用いることができる。
その他、眠気検出システム1、サーバ2、車載システム3の全体または各部の構成、処理の内容、処理の順序、データの構成などは、本発明の趣旨に沿って適宜変更することができる。
1 眠気検出システム、眠気検出用データ生成システム
20e ネットワークアダプタ(眠気レベル取得手段)
251 開眼度算出部(開眼度取得手段)
253 標準化処理部(開眼度取得手段)
254 ヒストグラム算出部(生成手段)
255 主成分分析部(生成手段)
256 識別器生成部(生成手段)
27 眠気検出モジュール(検出手段)
6D 学習済モデルデータ(検出用データ)
20e ネットワークアダプタ(眠気レベル取得手段)
251 開眼度算出部(開眼度取得手段)
253 標準化処理部(開眼度取得手段)
254 ヒストグラム算出部(生成手段)
255 主成分分析部(生成手段)
256 識別器生成部(生成手段)
27 眠気検出モジュール(検出手段)
6D 学習済モデルデータ(検出用データ)
Claims (16)
- 各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する、開眼度取得手段と、
所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する、眠気レベル取得手段と、
前記所定の時間ごとの、ビンごとの前記開眼度の度数分布および前記眠気レベルに基づいて、眠気を検出するための検出用データを生成する、生成手段と、
被検出者から前記眠気を、前記検出用データを用いて検出する、検出手段と、
を有することを特徴とする眠気検出システム。 - 前記開眼度取得手段は、前記開眼度として、前記人物の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、
前記生成手段は、前記度数分布を主成分分析することによって特徴ベクトルの集合を算出し、当該集合を学習データとして用い、かつ、前記各時刻の前記眠気レベルを正解データとして用いて、機械学習によって前記検出用データを生成する、
請求項1に記載の眠気検出システム。 - 前記生成手段は、前記各時刻の前記眠気レベルを線形補間して算出する、
請求項2に記載の眠気検出システム。 - 前記生成手段は、前記機械学習としてSVC(Support Vector Classification)を用いることによって、眠気の有無を分類するためのデータを前記検出用データとして生成する、
請求項2または請求項3に記載の眠気検出システム。 - 前記生成手段は、前記機械学習としてSVR(Support Vector Regression)を用いることによって、眠気の3つ以上のレベルのうちのいずれかに仕分けするためのデータを前記検出用データとして生成する、
請求項2または請求項3に記載の眠気検出システム。 - 前記検出手段は、特定の時刻における前記眠気を、前記特定の時刻から第二の所定の時間前の時刻までの前記被検出者の目の開き具合を表わす第二の開眼度に基づいて検出する、
請求項1に記載の眠気検出システム。 - 前記検出手段は、前記被検出者の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、前記生成手段が前記特徴ベクトルの集合を算出する際に得られた変換行列を用いて当該値を第二の特徴ベクトルに変換し、当該第二の特徴ベクトルおよび前記検出用データに基づいて前記眠気を検出する、
請求項2ないし請求項5のいずれかに記載の眠気検出システム。 - 被検出者から眠気を検出するための検出用データを生成する眠気検出用データ生成システムであって、
各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する、開眼度取得手段と、
所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する、眠気レベル取得手段と、
前記所定の時間ごとの、ビンごとの前記開眼度の度数分布および前記眠気レベルに基づいて前記検出用データを生成する、生成手段と、
を有することを特徴とする眠気検出用データ生成システム。 - 前記開眼度取得手段は、前記開眼度として、前記人物の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、
前記生成手段は、前記度数分布を主成分分析することによって特徴ベクトルの集合を算出し、当該集合を学習データとして用い、かつ、前記各時刻の前記眠気レベルを正解データとして用いて、機械学習によって前記検出用データを生成する、
請求項8に記載の眠気検出用データ生成システム。 - 前記生成手段は、前記各時刻の前記眠気レベルを線形補間して算出する、
請求項9に記載の眠気検出用データ生成システム。 - 前記生成手段は、前記機械学習としてSVC(Support Vector Classification)を用いることによって、眠気の有無を分類するためのデータを前記検出用データとして生成する、
請求項9または請求項10に記載の眠気検出用データ生成システム。 - 前記生成手段は、前記機械学習としてSVR(Support Vector Regression)を用いることによって、眠気の3つ以上のレベルのうちのいずれかに仕分けするためのデータを前記検出用データとして生成する、
請求項9または請求項10に記載の眠気検出用データ生成システム。 - 所定の時間ごとの、標本である人物の各時刻における目の開き具合を表わす開眼度の、ビンごとの度数分布と、前記人物がどれくらい眠いかの度合を表わす眠気レベルと、に基づいて生成された、眠気を検出するための検出用データを記憶する、記憶手段と、
被検出者から前記眠気を、前記検出用データを用いて検出する、検出手段と、
を有することを特徴とする眠気検出システム。 - 各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する第一のステップと、
所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する第二のステップと、
前記所定の時間ごとの、ビンごとの前記開眼度の度数分布および前記眠気レベルに基づいて、眠気を検出するための検出用データを生成する第三のステップと、
被検出者から前記眠気を、前記検出用データを用いて検出する第四のステップと、
を有することを特徴とする眠気検出方法。 - 被検出者から眠気を検出するコンピュータに用いられるコンピュータプログラムであって、
前記コンピュータに、
各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する第一の処理を実行させ、
所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する第二の処理を実行させ、
前記所定の時間ごとの、ビンごとの前記開眼度の度数分布および前記眠気レベルに基づいて、前記眠気を検出するための検出用データを生成する第三の処理を実行させ、
被検出者から前記眠気を、前記検出用データを用いて検出する第四の処理を実行させる、
ことを特徴とするコンピュータプログラム。 - 請求項8ないし請求項12のいずれかに記載の眠気検出用データ生成システムによって生成される、
ことを特徴とする眠気検出用データ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018042804A JP2019154613A (ja) | 2018-03-09 | 2018-03-09 | 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018042804A JP2019154613A (ja) | 2018-03-09 | 2018-03-09 | 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019154613A true JP2019154613A (ja) | 2019-09-19 |
Family
ID=67995309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018042804A Pending JP2019154613A (ja) | 2018-03-09 | 2018-03-09 | 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019154613A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021096530A (ja) * | 2019-12-13 | 2021-06-24 | トヨタ自動車株式会社 | 運転支援装置、運転支援プログラムおよび運転支援システム |
WO2022157039A1 (de) * | 2021-01-21 | 2022-07-28 | Bayerische Motoren Werke Aktiengesellschaft | Erkennung des aufmerksamkeitsgrades eines fahrzeuginsassen anhand der häufigkeitsverteilung der augenöffnungsweite |
JP2022152500A (ja) * | 2021-03-29 | 2022-10-12 | 公益財団法人鉄道総合技術研究所 | 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム |
JP2022155584A (ja) * | 2021-03-30 | 2022-10-13 | 長瀬産業株式会社 | 検知システム及び空間利用システム |
-
2018
- 2018-03-09 JP JP2018042804A patent/JP2019154613A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021096530A (ja) * | 2019-12-13 | 2021-06-24 | トヨタ自動車株式会社 | 運転支援装置、運転支援プログラムおよび運転支援システム |
WO2022157039A1 (de) * | 2021-01-21 | 2022-07-28 | Bayerische Motoren Werke Aktiengesellschaft | Erkennung des aufmerksamkeitsgrades eines fahrzeuginsassen anhand der häufigkeitsverteilung der augenöffnungsweite |
JP2022152500A (ja) * | 2021-03-29 | 2022-10-12 | 公益財団法人鉄道総合技術研究所 | 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム |
JP7443283B2 (ja) | 2021-03-29 | 2024-03-05 | 公益財団法人鉄道総合技術研究所 | 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム |
JP2022155584A (ja) * | 2021-03-30 | 2022-10-13 | 長瀬産業株式会社 | 検知システム及び空間利用システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Biswal et al. | IoT‐based smart alert system for drowsy driver detection | |
JP2019154613A (ja) | 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ | |
Jabbar et al. | Urban traffic monitoring and modeling system: An iot solution for enhancing road safety | |
EP3465532B1 (en) | Control device, system and method for determining the perceptual load of a visual and dynamic driving scene | |
US11798297B2 (en) | Control device, system and method for determining the perceptual load of a visual and dynamic driving scene | |
CN110809749A (zh) | 互动装置、互动方法及程序 | |
CN113312958B (zh) | 一种基于司机状态的派单优先度调整方法及装置 | |
Bajaj et al. | A real-time driver drowsiness detection using OpenCV, DLib | |
KR20200013128A (ko) | 동공 인식 기반의 연구현장 데이터 수집 및 분석을 통한 연구자 행동 검출 및 연구방향 의사결정 지원 알고리즘 | |
CN116563828A (zh) | 驾驶员状态实时监控方法、装置、电子设备及存储介质 | |
Shaikh et al. | Identifying Driver Behaviour Through Obd-Ii Using Android Application | |
Zhou et al. | Development of a camera-based driver state monitoring system for cost-effective embedded solution | |
US20210089831A1 (en) | System improvement for deep neural networks | |
CN109711260B (zh) | 疲劳状态的检测方法、终端设备及介质 | |
CN116884078B (zh) | 摄像装置控制方法、监控设备和计算机可读介质 | |
EP4332885A1 (en) | Electronic device, control method for electronic device, and program | |
Rifat et al. | Machine Learning Model for Human Activity Analysis | |
JP2024092499A (ja) | ドライブレコーダ | |
WO2024142433A1 (ja) | 画像記録システム | |
JP2024092498A (ja) | 画像記録システム | |
Sudarsanam et al. | Enhancing Road Safety: A System for Detecting Driver Activity Using Raspberry Pi and Computer Vision Techniques with Alcohol and Noise Sensors | |
EP4332886A1 (en) | Electronic device, method for controlling electronic device, and program | |
US20220157099A1 (en) | Drive data-recording apparatus, drive assist system, drive data-recording method, and program | |
Priya et al. | Machine Learning-Based System for Detecting and Tracking Driver Drowsiness | |
Ashture et al. | A Systematic Review of Driver Drowsiness Detection using Various Approaches. |