JP2019154613A - 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ - Google Patents

眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ Download PDF

Info

Publication number
JP2019154613A
JP2019154613A JP2018042804A JP2018042804A JP2019154613A JP 2019154613 A JP2019154613 A JP 2019154613A JP 2018042804 A JP2018042804 A JP 2018042804A JP 2018042804 A JP2018042804 A JP 2018042804A JP 2019154613 A JP2019154613 A JP 2019154613A
Authority
JP
Japan
Prior art keywords
drowsiness
sleepiness
eye
detection data
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018042804A
Other languages
English (en)
Inventor
篤志 中澤
Atsushi Nakazawa
篤志 中澤
貴大 松田
Takahiro Matsuda
貴大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University NUC
Original Assignee
Kyoto University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University NUC filed Critical Kyoto University NUC
Priority to JP2018042804A priority Critical patent/JP2019154613A/ja
Publication of JP2019154613A publication Critical patent/JP2019154613A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】運転手などの被検出者の眠気を、浅い眠気であってもハイスピードカメラを用いることなく従来よりも確実に検出する。【解決手段】サーバ2は、各時刻における、標本である人物の目の開き具合を表わす開眼度を取得するとともに、所定の時間ごとの、この人物がどれくらい眠いかの度合を表わす眠気レベルを取得する。さらに、所定の時間ごとの、ビンごとの開眼度の度数分布(ヒストグラム)および眠気レベルに基づいて、眠気を検出するための検出器を生成する。そして、自動車10の運転手12の眠気を、検出器を用いて検出する。【選択図】図1

Description

本発明は、運転手などの被検出者の眠気を検出する技術に関する。
交通事故の原因の1つは、前方不注視等の漫然運転である。漫然運転を引き起こす大きな要因の1つは、眠気であると考えられる(非特許文献1)。そこで、運転手をモニタリングして眠気を検出するシステムの需要が高まり、様々な指標に基づいて眠気を検出する技術が提案されている。
非特許文献2に記載されるシステムは、ビデオカメラで運転手の顔を撮影し、得られた動画像から運転手の目の輪郭を抽出し、瞬きの振幅および速さなどに基づいて眠気を検出する。
非特許文献3に記載されるシステムは、閉眼割合(運転中の、目を閉じている割合)に基づいて眠気を検出する。
横尾 和彦 著,「高速道路での居眠り運転防止に向けた効果的な対策に関する調査研究」,https://www.express-highway.or.jp/info/document/rpt_t_007.pdf,2018年3月3日検索 パナソニック株式会社,「眠気を検知・予測し、快適に覚醒状態を維持させる眠気制御技術を開発」,http://news.panasonic.com/jp/press/data/2017/07/jn170727-1/jn170727-1.pdf,2018年3月3日検索 大見 拓寛 著,「画像センサによる眠気状態推定とドライバーステータスモニターの開発」,Denso Technical Review, Vol. 21, pp. 93-102 (2016)
しかし、瞬きの振幅および速さなどに基づいて眠気を検出する方法によると、ハイスピードカメラが必要である。
また、閉眼割合に基づいて眠気を検出する方法によると、深い眠気を感度よく検出することができるが、浅い眠気をあまり感度よく検出することができない。
本発明は、このような問題点に鑑み、運転手などの被検出者の眠気を、浅い眠気であってもハイスピードカメラを用いることなく従来よりも確実に検出することができるようにすることを、目的とする。
本発明の一形態に係る眠気検出システムは、各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する、開眼度取得手段と、所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する、眠気レベル取得手段と、前記所定の時間ごとの、ビンごとの前記開眼度の度数分布(ヒストグラム)および前記眠気レベルに基づいて、眠気を検出するための検出用データを生成する、生成手段と、被検出者から前記眠気を、前記検出用データを用いて検出する、検出手段と、を有する。
好ましくは、前記開眼度取得手段は、前記開眼度として、前記人物の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、前記生成手段は、前記度数分布を主成分分析することによって特徴ベクトルの集合を算出し、当該集合を学習データとして用い、かつ、前記各時刻の前記眠気レベルを正解データとして用いて、機械学習によって前記検出用データを生成する。さらに好ましくは、前記生成手段は、前記各時刻の前記眠気レベルを線形補間して算出する。
または、前記生成手段は、前記機械学習としてSVC(Support Vector Classification)を用いることによって、眠気の有無を分類するためのデータを前記検出用データとして生成する。または、前記機械学習としてSVR(Support Vector Regression)を用いることによって、眠気の3つ以上のレベルのうちのいずれかに仕分けるためのデータを前記検出用データとして生成する。
または、前記検出手段は、特定の時刻における前記眠気を、前記特定の時刻から第二の所定の時間前の時刻までの前記被検出者の目の開き具合を表わす第二の開眼度に基づいて検出する。
または、前記検出手段は、前記被検出者の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、前記生成手段が前記特徴ベクトルの集合を算出する際に得られた変換行列を用いて当該値を第二の特徴ベクトルに変換し、当該第二の特徴ベクトルおよび前記検出用データに基づいて前記眠気を検出する。
本発明によると、運転手などの被検出者の眠気を、浅い眠気であってもハイスピードカメラを用いることなく従来よりも確実に検出することができる。
眠気検出システムの全体的な構成の例を示す図である。 自動車の車内およびビデオカメラの位置の例を示す図である。 車載コンピュータのハードウェア構成の例を示す図である。 サーバのハードウェア構成の例を示す図である。 サーバの機能的構成の例を示す図である。 学習処理の流れの例を説明するフローチャートである。 学習処理の各ステップで得られるデータの例を示す図である。 学習処理の各ステップで得られるデータの例を示す図である。 目のランドマーク点である。 眠気レベルおよびその基準などの例を示す図である。 眠気検出処理の流れの例を説明するフローチャートである。
図1は、眠気検出システム1の全体的な構成の例を示す図である。図2は、自動車10の車内およびビデオカメラ32の位置の例を示す図である。図3は、車載コンピュータ31のハードウェア構成の例を示す図である。図4は、サーバ2のハードウェア構成の例を示す図である。図5は、サーバ2の機能的構成の例を示す図である。
図1に示す眠気検出システム1は、自動車10を運転する運転手12から眠気を検出するシステムであって、サーバ2、車載システム3、および通信回線4などによって構成される。
サーバ2および車載システム3は、通信回線4を介して通信することができる。通信回線4は、携帯電話網、Wi−Fi、またはインターネットなどが組み合わされた通信回線である。
車載システム3は、自動車10に搭載されるコンピュータシステムであって、車載コンピュータ31およびビデオカメラ32などによって構成される。
ビデオカメラ32は、図2のように、自動車10のダッシュボードに、運転席の上方に撮影方向が向くように設けられている。そして、所定のフレームレートで運転手12の顔を撮影し、顔の動画像データを車載コンピュータ31へリアルタイムに送信する。以下、ビデオカメラ32として、30フレーム/秒で撮影するデジタルビデオカメラが用いられる場合を例に説明する。
車載コンピュータ31は、運転手12に眠気が生じているか否かをサーバ2へ問い合わせたり、眠気が生じている場合に運転手12に対して警告したりするためのコンピュータである。
車載コンピュータ31は、図3に示すように、CPU(Central Processing Unit)31a、RAM(Random Access Memory)31b、ROM(Read Only Memory)31c、補助記憶装置31d、操作キー31e、タッチパネルディスプレイ31f、音声出力装置31g、入出力ボード31h、ネットワークアダプタ31j、および電源ユニット31kなどによって構成される。
ROM31cまたは補助記憶装置31dには、オペレーティングシステムのほか、サーバ2と通信するためプログラムなど、種々のプログラムがインストールされている。補助記憶装置31dとして、SSD(Solid State Drive)またはハードディスクなどが用いられる。
RAM31bは、車載コンピュータ31のメインメモリである。RAM31bには、オペレーティングシステムのほか種々のプログラムがロードされる。CPU31aは、RAM31bにロードされたプログラムを実行する。
操作キー31eは、運転手12または同乗者が車載コンピュータ31を操作するための、いわゆるハードウェアキーである。
タッチパネルディスプレイ31fは、道路マップなどの画像を表示する。本実施形態では、特に、眠気が生じていることを警告するメッセージを文字列またはイラストなどの画像によって表示する。また、タッチ面がタッチされた場合に、タッチされた位置をCPU31aへ通知する。
音声出力装置31gは、眠気が生じていることを警告するメッセージを音声によって出力する。
入出力ボード31hは、ビデオカメラ32にケーブルによって繋がれ、ビデオカメラ32と通信する。入出力ボード31hとして、例えば、USB(Universal Serial Bus)に準拠した入出力ボードが用いられる。
ネットワークアダプタ31jは、TCP/IP(Transmission Control Protocol/Internet Protocol)などのプロトコルで他の装置と通信するための装置である。ネットワークアダプタ31jとして、携帯電話通信など無線通信用のネットワークアダプタが用いられる。特に、本実施形態では、ネットワークアダプタ31jは、ビデオカメラ32から入力される動画像データをサーバ2へ送信し、眠気の検出結果をサーバ2から受信する。
電源ユニット31kは、CPU31aからの指令などに従って車載コンピュータ31の各ハードウェアモジュールへ電力を供給する。
車載コンピュータ31として、スマートフォンまたはタブレットコンピュータを用いてもよい。または、カーナビゲーション端末と車載カメラとを組み合わせたものを用いてもよい。
サーバ2は、車載システム3から受信した動画像データに基づいて運転手12から眠気を検出し、その結果を車載システム3へ送信する。
サーバ2は、図4に示すように、CPU20a、RAM20b、ROM20c、補助記憶装置20d、ネットワークアダプタ20e、および電源ユニット20fなどによって構成される。
ROM20cまたは補助記憶装置20dには、オペレーティングシステムのほか種々のプログラムがインストールされている。特に、本実施形態では、眠気検出のサービスを提供するための眠気検出プログラム20p(図5参照)がインストールされている。補助記憶装置20dとして、SSD(Solid State Drive)またはハードディスクなどが用いられる。
RAM20bは、サーバ2のメインメモリである。RAM20bには、オペレーティングシステムのほか種々のプログラムがロードされる。CPU20aは、RAM20bにロードされたプログラムを実行する。
ネットワークアダプタ20eは、TCP/IPなどのプロトコルで他の装置と通信するための装置である。ネットワークアダプタ20eとして、NIC(Network Interface Card)、無線LAN(Local Area Network)アダプタなどが用いられる。
眠気検出プログラム20pは、図5に示す眠気学習モジュール25および眠気検出モジュール27などのソフトウェアモジュールによって構成される。
眠気学習モジュール25は、標本である1人または複数の被験者から予め収集した学習データに基づいて、眠気の有無またはレベルを分類するための識別器を生成するプログラムである。識別器は、「推定器」または「検出器」などと呼ばれることがある。眠気検出モジュール27は、運転手12から運転中に収集した観察データに基づいて、運転手12から眠気の有無またはレベルを検出するプログラムである。
つまり、眠気学習モジュール25は、眠気検出のサービスを提供する学習の際に実行され、眠気検出モジュール27は、眠気検出のサービスを実際に提供する際に実行される。
眠気学習モジュール25は、開眼度算出部251、学習データ記憶部252、標準化処理部253、ヒストグラム算出部254、主成分分析部255、および識別器生成部256などの処理部を実現する。
眠気検出モジュール27は、開眼度算出部271、標準化処理部272、ヒストグラム算出部273、次元圧縮部274、および眠気判定部275などの処理部を実現する。
本実施形態では、2つのモジュールに分けてこれらの処理部を実現するが、1つのモジュールによって実現してもよいし、3つ以上のモジュールに分けて実現してもよい。
〔眠気検出のサービスを提供するための学習〕
〔概要〕
図6は、学習処理の流れの例を説明するフローチャートである。図7〜図8は、学習処理の各ステップで得られるデータの例を示す図である。
眠気学習モジュール25によると、サーバ2において、図6に示す手順で処理が実行される。この際に、図7〜図8に示すようなデータが得られる。
サーバ2は、学習データとして、被験者の動画像から被験者の目の時刻ごと(例えば、1/30秒ごと)の開眼度を算出する(図6の#21)。これにより、図7(A)のような開眼度が得られる。さらに、教師データとして、所定の時間(例えば、5秒)ごとの被験者の眠気レベルを取得する(#22)。
サーバ2は、開眼度を60Hzに線形補間し標準化する(#23)。これにより、図7(B)に示すような標準化開眼度が得られる。さらに、所定の時間ごと(例えば、5秒ごと)の標準化開眼度をヒストグラム化する(#24)。これにより、図7(C)に示すようなヒストグラム(度数分布)が得られる。
さらに、サーバ2は、ヒストグラムを主成分分析することによって次元圧縮を行う(#25)。これにより、図8(A)のような特徴ベクトルの集合が得られる。なお、図8(A)に示す特徴ベクトルの集合は、2次元に圧縮された場合の一例である。
そして、サーバ2は、眠気の有無を分類するための識別器を機械学習によって生成する(#26)。この際に、特徴ベクトルの集合が学習データとして用いられ、かつ、ステップ#22で取得した眠気レベルを加工したものが教師データとして用いられる。また、機械学習のアルゴリズムとして、例えばSVM(Support Vector Machine)が用いられる。機械学習によると、図8(B)に示すように、眠気の有無が分類されサポートベクトルが求められる。なお、図8(B)のデータは、特徴ベクトルの集合が2次元に圧縮されたものである場合の一例である。そして、このサポートベクトルが用いられて識別器が生成される。
次に、図6に示したステップ#21〜#26のそれぞれの具体的な処理の一例を説明する。
〔学習データおよび教師データそれぞれの基礎となるデータの収集〕
図9は、目のランドマーク点Q1〜Q6である。図10は、眠気レベルおよびその基準などの例を示す図である。
眠気検出のサービスの提供者は、1人または複数の被験者から学習データを収集する。以下、学習データを収集する方法を、ある1人の被験者から学習データを収集する場合を例に説明する。
観察者は、提供者からの指示に従い、次の作業を行う。観察者は、被験者の顔を所定のフレームレートでデジタルビデオカメラによって30分〜2時間程度、撮影する。本実施形態では、30フレーム/秒で撮影する。これにより、被験者の顔の動画像データ6Aが得られる。なお、各フレームには、撮影された時刻が対応付けられる。動画像データ6Aは、デジタルビデオカメラからサーバ2へ送信される。また、撮影中、被験者は、眠くなる動画像を観たり、眠くなる音楽を聴いたりする。
開眼度算出部251は、デジタルビデオカメラから動画像データ6Aが入力されると、各時刻のフレームから目の画像を検出し、開眼度を算出する。「開眼度」は、目頭から目尻までの距離つまり目の横幅に対する上瞼から下瞼までの距離の比率である。
ここで、時刻tにおける開眼度の算出の方法の一例を説明する。なお、撮影を開始した時点の時刻tを「0」とする。
開眼度算出部251は、図9に示す6つのランドマーク点Q1〜Q6を利用して時刻tのフレームの中から両目それぞれの画像を検出する。(1)式に基づいて、右目および左目それぞれの開眼度を算出する。
Figure 2019154613
そして、開眼度算出部251は、(2)式に基づいて、右目および左目の開眼度の平均値を算出する。この平均値が、時刻tにおける開眼度である。
Figure 2019154613
開眼度算出部251は、(1)式および(2)式によって算出した各時刻における開眼度(図7(A)参照)を示す開眼度時系列データ6Bを生成し、学習データ記憶部252に記憶させる。
さらに、観察者は、被験者の顔を撮影している間、被験者の眠気のレベルを所定の時間ごとに判断し、パーソナルコンピュータに入力する。本実施形態では、5秒ごとに判別する。眠気のレベルとして、図10に示す「1」〜「5」の5段階の眠気レベルが用いられる。各眠気レベルには、表情または身体の動きに応じた判断の基準が規定されている。観察者は、これらの判断の基準に基づいて被験者の眠気レベルを判断する。これにより、5秒ごとの眠気レベルを示す眠気レベル時系列データ6Cがパーソナルコンピュータに生成される。眠気レベル時系列データ6Cは、パーソナルコンピュータからサーバ2へ送信され、ネットワークアダプタ20eによって受信され、開眼度時系列データ6Bと対応付けられて学習データ記憶部252に記憶される。
他の被験者についても同様に、開眼度時系列データ6Bおよび眠気レベル時系列データ6Cが生成され、互いに対応付けられて学習データ記憶部252に記憶される。
〔標準化〕
ところで、開眼度時系列データ6Bは、時間的に等間隔にサンプリングされているとは限らない。また、開眼度には個人差があり、取得方法によって値の分布が異なる場合があると考えられる。目の画像の検出に失敗したなどの理由で正常な開眼度が計算できず、開眼度時系列データ6Bの一部に欠損値またはノイズが混じることもある。
そこで、標準化処理部253は、開眼度時系列データ6Bの補間および標準化を行う。完全に開眼している時の値が「1」に変換され、完全に閉眼している時の値が「0」に変換されるのが、理想的である。しかし、実際には、上下方向の検出ノイズが出るため、上限および下限を設けることが困難である。これは、実際に得られた開眼度の最大値および最小値を用いて正規化を行い、正規化開眼度の分布を見ると、分布の個人差が非常に大きくなることから分かる。そこで、本実施形態では、以下に述べるような処理を行う。
初めに、標準化処理部253は、開眼度時系列データ6Bに示される開眼度を時間的に等間隔なデータに線形補間する。本実施形態では、60Hzのデータに線形補間する。例えば、(1/60)秒ごとの開眼度を(3)式によって算出することによって、線形補間すればよい。
Figure 2019154613
さらに、標準化処理部253は、(3)式によって線形補間した開眼度を、標準化パラメータμ(平均)、σ(不偏分散の正の平方根)、および撮影の開始時からU秒(例えば、150秒)の経過時までの開眼度を用いて標準化する。つまり、(4)式によって各時刻tの標準化開眼度(図7(B)参照)を算出する。
Figure 2019154613
なお、標準化処理部253は、被験者ごとに、つまり、眠気レベル時系列データ6Cごとに、標準化開眼度を算出する。
〔ヒストグラムの生成〕
ヒストグラム算出部254は、標準化処理部253によって得られた標準化開眼度のヒストグラムである開眼度ヒストグラムを算出する。なお、すべての被験者の標準化開眼度を用いて開眼度ヒストグラムを算出してもよい。被験者の本実施形態では、次のように開眼度ヒストグラムを算出する。
秒数Sおよびヒストグラムのビン(階級)数Nを予め決めておく。また、標準化開眼度の分布傾向に基づいて、ヒストグラムの最小値および最大値を予め決めておく。本実施形態では、最小値および最大値をそれぞれ「−5」および「6」とする。標準化処理部253は、この場合に、時刻tにおける(5)式の開眼度ヒストグラム(図7(C)参照)を、(6)式に基づいて、時刻tからS秒(例えば、5秒)前までの間で得られた標準化開眼度を用いて算出する。
Figure 2019154613
Figure 2019154613
〔主成分分析〕
ヒストグラム算出部254によって算出された開眼度ヒストグラムは、標準化開眼度の分布を元にしたN次元ベクトルである。しかし、これだけでは、眠気を十分説明することができない。
そこで、主成分分析部255は、この開眼ヒストグラムを主成分分析によって有意な特徴量に変換するとともに、次元圧縮を行う。主成分分析によって得られるベクトルを「主成分スコア」と呼び、主成分スコアの第i次元のスカラー量を「第i主成分」と呼ぶ。変換は、第1主成分の分散を最大化し、以降それまでに決定した主成分と無相関という制約条件の下で分散を最大化するようにして選ばれる。主成分スコアの、ある次元の分散を各次元の分散の総和で割ったものをその次元における「寄与率」と呼ぶ。第1次元から第i次元までの寄与率の総和を第i次元(第i主成分)までの「累積寄与率」と呼ぶ。
主成分分析部255は、時刻tにおける(7)式の特徴ベクトルを、(8)式を用いて算出する。
Figure 2019154613
Figure 2019154613
つまり、主成分分析部255は、前処理として、元の開眼度ヒストグラムhtから平均mを引く。主成分分析によって得られる変換行列を「P」とし、累積寄与率が所定の値(例えば、0.8)を超える最小の次元を「n」とし、得られた開眼度ヒストグラム全体の、元の重複を認めた集合を「H」として、最終的な特徴ベクトル(図8(A)参照)を算出する。
〔SVMによる学習〕
主成分分析部255によって特徴ベクトルの集合が得られると、識別器生成部256は、眠気の有無を分類するための識別器を機械学習によって生成する。機械学習は、各特徴ベクトルに対応する正解データ(教師データ)があれば適用可能である。正解データとして、眠気レベル時系列データ6C、つまり、観察者が5秒ごとに評価した、被験者の眠気レベルが、次のように加工されて用いられる。
主成分分析部255は、それぞれの眠気レベル時系列データ6Cを、特徴ベクトルの集合の時間間隔に合わせて、つまり、60Hzで線形補間する。時刻tにおける眠気レベルを(9)式とすると、保管後の時刻t∈Tにおける眠気レベルdtは、(10)式のように算出される。
Figure 2019154613
Figure 2019154613
また、時刻tにおける正解データを、(11)式のように時刻tからS秒前(例えば、5秒前)までの間の眠気レベルの平均と定義する。
Figure 2019154613
以上のように(11)式で定義される正解データは、回帰学習における正解データである。識別器生成部256は、眠気を2値分類する場合は、眠気レベル時系列データ6Cに示される眠気レベルつまり正解データを、3以上ならば「1」に置換し、3未満であれば「0」に置換した上で算出する。
また、識別器生成部256は、実際に学習・推定する際は、さらに特徴ベクトルの標準化処理(平均を引いた後で不偏分散の正の平方根で割る処理)を行う。このため、特徴ベクトルの標準化処理に必要なパラメータも学習することができる。
以上の処理によって、特徴ベクトルおよびそれに対応する正解データの準備が整う。識別器生成部256は、これらを学習データとテストデータとに分割する。例えば、20%分を学習データとして用い、残りをテストデータとしてパラメータ学習のために用いる。
また、学習の手法として、サポートベクターマシン(SVM)が用いられる。SVMによると、分類(SVC:Support Vector Classification)および回帰(SVR:Support Vector Regression)が可能である。また、誤りペナルティの重要度を決めるコストパラメータC、カーネル関数k、およびそのパラメータがハイパーパラメータとして存在する。SVCによって学習した場合は、図8(B)に例示するような結果が得られる。
学習によって得られるパラメータおよび関数は、次の通りである。これらのパラメータおよび関数のうちの一部によって、眠気の有無を分類するための識別器fが生成される。
μ: 開眼度の標準化パラメータ(平均)。
σ: 開眼度の標準化パラメータ(不偏分散の正の平方根)。
m: 開眼度ヒストグラムの平均(主成分分析)。
P: 主成分分析における変換行列。
n: 圧縮後の次元数(累積寄与率0.8を超える次元数)。
p: SVMのパラメータ(標準化パラメータを含む)。
学習前に予め決めておく必要のあるハイパーパラメータは、次の通りである。なお、Sは、例えば5秒であり、Nは、例えば50である。
S: ヒストグラム算出に用いるデータ秒数。
N: ヒストグラム算出に用いるビン数。
C: SVMのコストパラメータ。
k: SVMのカーネル関数。
識別器生成部256は、これらのパラメータおよび関数ならびに識別子fを示す学習済モデルデータ6Dを生成し、所定の記憶領域に記憶させる。
〔運転手12の眠気の検出〕
図11は、眠気検出処理の流れの例を説明するフローチャートである。
ビデオカメラ32は、運転手12が自動車10を運転している間、運転手12を撮影することによって動画像データ6Dを生成し、車載コンピュータ31へ送信する。車載コンピュータ31は、動画像データ6Dをサーバ2へ送信する。
すると、図5に示す開眼度算出部271ないし眠気判定部275は、所定の時間間隔で(例えば、5秒ごとに)眠気を検出するための処理を行う。以下、この処理の一例を、図11を参照しながら説明する。
開眼度算出部271は、動画像データ6Dが入力されると、各時刻のフレームから目の画像を検出し、開眼度を算出する(図11の#41)。これにより、開眼度時系列データ6Eが得られる。算出の方法は、開眼度算出部251による算出の方法と同様であり、前に説明した通りである。
標準化処理部272は、直近のU秒間(例えば、150秒間)の開眼度を用いて、開眼度時系列データ6Eの補間および標準化を行うことによって、現時刻の標準化開眼度を算出する(#42)。補間および標準化の方法は、標準化処理部253による補間および標準化の方法と同様であり、前に説明した通りである。
ヒストグラム算出部273は、標準化処理部272によって得られた標準化開眼度のヒストグラムである開眼度ヒストグラムを算出する(#43)。算出の方法は、ヒストグラム算出部254による算出の方法と同様であり、前に説明した通りである。
次元圧縮部274は、ヒストグラム算出部273によって得られた開眼度ヒストグラムHtを(8)式に代入することによって次元圧縮を行う(#44)。これにより、特徴ベクトルが得られる。
眠気判定部275は、次元圧縮部274によって得られた特徴ベクトルを、識別器生成部256によって生成された学習済モデルデータ6Dに示される識別器fに入力することによって、運転手12に眠気が生じているか否かを判定する(#45)。識別器fから「1」が出力されたら眠気が生じていると判定することができる。「1」が出力されたら眠気が生じていないと判定することができる。
そして、眠気判定部275は、判定の結果つまり「0」または「1」を示す眠気判定データ6Fを車載システム3へ送信する(#46)。
車載システム3は、眠気判定データ6Fを受信すると、眠気判定データ6Fに「1」が示されていれば、眠気が運転手12に生じていること、タッチパネルディスプレイ31fにメッセージを表示することによって知らせる。または、音声出力装置31gでメッセージまたは警告音を再生することによって知らせる。
なお、識別器生成部256が回帰学習によって識別器fを生成した場合は、特徴ベクトルの集合を識別器fに入力することによって「1」〜「5」のいずれかが出力される。この場合は、車載システム3は、眠気判定データ6Fを受信すると、眠気判定データ6Fに示される値に応じてメッセージを出力する。例えば、値が大きいほど、大きい音量でメッセージを再生する。または、値に応じた内容のメッセージを出力する。
本実施形態によると、開眼度のヒストグラムを用いて識別器(検出器)を生成し、これを用いて運転手12などの被検出者の眠気を検出した。これにより、被検出者の眠気を、浅い眠気であってもハイスピードカメラを用いることなく従来よりも確実に検出することができる。
本実施形態では、サーバ2によって眠気を検出したが、図5に示した機能をサーバ2の代わりに車載コンピュータ31に設け、車載コンピュータ31によって眠気を検出してもよい。
本実施形態では、秒数Uとして150秒を設定する場合を例に説明したが、約130〜300秒のいずれかであってもよい。
本実施形態では、教師あり機械学習の方法(アルゴリズム)としてSVMを用いたが、他の方法を用いてもよい。例えば、学習データを十分に取得することができる場合は、ディープラーニングを用いてもよい。
本実施形態では、自動車10の運転手12の眠気を検出する場合を例に説明したが、他の作業者の眠気を検出する場合にも、本発明を用いることができる。
その他、眠気検出システム1、サーバ2、車載システム3の全体または各部の構成、処理の内容、処理の順序、データの構成などは、本発明の趣旨に沿って適宜変更することができる。
1 眠気検出システム、眠気検出用データ生成システム
20e ネットワークアダプタ(眠気レベル取得手段)
251 開眼度算出部(開眼度取得手段)
253 標準化処理部(開眼度取得手段)
254 ヒストグラム算出部(生成手段)
255 主成分分析部(生成手段)
256 識別器生成部(生成手段)
27 眠気検出モジュール(検出手段)
6D 学習済モデルデータ(検出用データ)

Claims (16)

  1. 各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する、開眼度取得手段と、
    所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する、眠気レベル取得手段と、
    前記所定の時間ごとの、ビンごとの前記開眼度の度数分布および前記眠気レベルに基づいて、眠気を検出するための検出用データを生成する、生成手段と、
    被検出者から前記眠気を、前記検出用データを用いて検出する、検出手段と、
    を有することを特徴とする眠気検出システム。
  2. 前記開眼度取得手段は、前記開眼度として、前記人物の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、
    前記生成手段は、前記度数分布を主成分分析することによって特徴ベクトルの集合を算出し、当該集合を学習データとして用い、かつ、前記各時刻の前記眠気レベルを正解データとして用いて、機械学習によって前記検出用データを生成する、
    請求項1に記載の眠気検出システム。
  3. 前記生成手段は、前記各時刻の前記眠気レベルを線形補間して算出する、
    請求項2に記載の眠気検出システム。
  4. 前記生成手段は、前記機械学習としてSVC(Support Vector Classification)を用いることによって、眠気の有無を分類するためのデータを前記検出用データとして生成する、
    請求項2または請求項3に記載の眠気検出システム。
  5. 前記生成手段は、前記機械学習としてSVR(Support Vector Regression)を用いることによって、眠気の3つ以上のレベルのうちのいずれかに仕分けするためのデータを前記検出用データとして生成する、
    請求項2または請求項3に記載の眠気検出システム。
  6. 前記検出手段は、特定の時刻における前記眠気を、前記特定の時刻から第二の所定の時間前の時刻までの前記被検出者の目の開き具合を表わす第二の開眼度に基づいて検出する、
    請求項1に記載の眠気検出システム。
  7. 前記検出手段は、前記被検出者の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、前記生成手段が前記特徴ベクトルの集合を算出する際に得られた変換行列を用いて当該値を第二の特徴ベクトルに変換し、当該第二の特徴ベクトルおよび前記検出用データに基づいて前記眠気を検出する、
    請求項2ないし請求項5のいずれかに記載の眠気検出システム。
  8. 被検出者から眠気を検出するための検出用データを生成する眠気検出用データ生成システムであって、
    各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する、開眼度取得手段と、
    所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する、眠気レベル取得手段と、
    前記所定の時間ごとの、ビンごとの前記開眼度の度数分布および前記眠気レベルに基づいて前記検出用データを生成する、生成手段と、
    を有することを特徴とする眠気検出用データ生成システム。
  9. 前記開眼度取得手段は、前記開眼度として、前記人物の目尻から目頭までの距離に対する上瞼から下瞼までの距離の割合を標準化した値を取得し、
    前記生成手段は、前記度数分布を主成分分析することによって特徴ベクトルの集合を算出し、当該集合を学習データとして用い、かつ、前記各時刻の前記眠気レベルを正解データとして用いて、機械学習によって前記検出用データを生成する、
    請求項8に記載の眠気検出用データ生成システム。
  10. 前記生成手段は、前記各時刻の前記眠気レベルを線形補間して算出する、
    請求項9に記載の眠気検出用データ生成システム。
  11. 前記生成手段は、前記機械学習としてSVC(Support Vector Classification)を用いることによって、眠気の有無を分類するためのデータを前記検出用データとして生成する、
    請求項9または請求項10に記載の眠気検出用データ生成システム。
  12. 前記生成手段は、前記機械学習としてSVR(Support Vector Regression)を用いることによって、眠気の3つ以上のレベルのうちのいずれかに仕分けするためのデータを前記検出用データとして生成する、
    請求項9または請求項10に記載の眠気検出用データ生成システム。
  13. 所定の時間ごとの、標本である人物の各時刻における目の開き具合を表わす開眼度の、ビンごとの度数分布と、前記人物がどれくらい眠いかの度合を表わす眠気レベルと、に基づいて生成された、眠気を検出するための検出用データを記憶する、記憶手段と、
    被検出者から前記眠気を、前記検出用データを用いて検出する、検出手段と、
    を有することを特徴とする眠気検出システム。
  14. 各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する第一のステップと、
    所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する第二のステップと、
    前記所定の時間ごとの、ビンごとの前記開眼度の度数分布および前記眠気レベルに基づいて、眠気を検出するための検出用データを生成する第三のステップと、
    被検出者から前記眠気を、前記検出用データを用いて検出する第四のステップと、
    を有することを特徴とする眠気検出方法。
  15. 被検出者から眠気を検出するコンピュータに用いられるコンピュータプログラムであって、
    前記コンピュータに、
    各時刻における、標本である人物の目の開き具合を表わす開眼度を取得する第一の処理を実行させ、
    所定の時間ごとの、前記人物がどれくらい眠いかの度合を表わす眠気レベルを取得する第二の処理を実行させ、
    前記所定の時間ごとの、ビンごとの前記開眼度の度数分布および前記眠気レベルに基づいて、前記眠気を検出するための検出用データを生成する第三の処理を実行させ、
    被検出者から前記眠気を、前記検出用データを用いて検出する第四の処理を実行させる、
    ことを特徴とするコンピュータプログラム。
  16. 請求項8ないし請求項12のいずれかに記載の眠気検出用データ生成システムによって生成される、
    ことを特徴とする眠気検出用データ。
JP2018042804A 2018-03-09 2018-03-09 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ Pending JP2019154613A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018042804A JP2019154613A (ja) 2018-03-09 2018-03-09 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018042804A JP2019154613A (ja) 2018-03-09 2018-03-09 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ

Publications (1)

Publication Number Publication Date
JP2019154613A true JP2019154613A (ja) 2019-09-19

Family

ID=67995309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018042804A Pending JP2019154613A (ja) 2018-03-09 2018-03-09 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ

Country Status (1)

Country Link
JP (1) JP2019154613A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021096530A (ja) * 2019-12-13 2021-06-24 トヨタ自動車株式会社 運転支援装置、運転支援プログラムおよび運転支援システム
WO2022157039A1 (de) * 2021-01-21 2022-07-28 Bayerische Motoren Werke Aktiengesellschaft Erkennung des aufmerksamkeitsgrades eines fahrzeuginsassen anhand der häufigkeitsverteilung der augenöffnungsweite
JP2022152500A (ja) * 2021-03-29 2022-10-12 公益財団法人鉄道総合技術研究所 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム
JP2022155584A (ja) * 2021-03-30 2022-10-13 長瀬産業株式会社 検知システム及び空間利用システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021096530A (ja) * 2019-12-13 2021-06-24 トヨタ自動車株式会社 運転支援装置、運転支援プログラムおよび運転支援システム
WO2022157039A1 (de) * 2021-01-21 2022-07-28 Bayerische Motoren Werke Aktiengesellschaft Erkennung des aufmerksamkeitsgrades eines fahrzeuginsassen anhand der häufigkeitsverteilung der augenöffnungsweite
JP2022152500A (ja) * 2021-03-29 2022-10-12 公益財団法人鉄道総合技術研究所 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム
JP7443283B2 (ja) 2021-03-29 2024-03-05 公益財団法人鉄道総合技術研究所 覚醒度推定方法、覚醒度推定装置及び覚醒度推定プログラム
JP2022155584A (ja) * 2021-03-30 2022-10-13 長瀬産業株式会社 検知システム及び空間利用システム

Similar Documents

Publication Publication Date Title
Biswal et al. IoT‐based smart alert system for drowsy driver detection
JP2019154613A (ja) 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ
Jabbar et al. Urban traffic monitoring and modeling system: An iot solution for enhancing road safety
EP3465532B1 (en) Control device, system and method for determining the perceptual load of a visual and dynamic driving scene
US11798297B2 (en) Control device, system and method for determining the perceptual load of a visual and dynamic driving scene
CN110809749A (zh) 互动装置、互动方法及程序
CN113312958B (zh) 一种基于司机状态的派单优先度调整方法及装置
Bajaj et al. A real-time driver drowsiness detection using OpenCV, DLib
KR20200013128A (ko) 동공 인식 기반의 연구현장 데이터 수집 및 분석을 통한 연구자 행동 검출 및 연구방향 의사결정 지원 알고리즘
CN116563828A (zh) 驾驶员状态实时监控方法、装置、电子设备及存储介质
Shaikh et al. Identifying Driver Behaviour Through Obd-Ii Using Android Application
Zhou et al. Development of a camera-based driver state monitoring system for cost-effective embedded solution
US20210089831A1 (en) System improvement for deep neural networks
CN109711260B (zh) 疲劳状态的检测方法、终端设备及介质
CN116884078B (zh) 摄像装置控制方法、监控设备和计算机可读介质
EP4332885A1 (en) Electronic device, control method for electronic device, and program
Rifat et al. Machine Learning Model for Human Activity Analysis
JP2024092499A (ja) ドライブレコーダ
WO2024142433A1 (ja) 画像記録システム
JP2024092498A (ja) 画像記録システム
Sudarsanam et al. Enhancing Road Safety: A System for Detecting Driver Activity Using Raspberry Pi and Computer Vision Techniques with Alcohol and Noise Sensors
EP4332886A1 (en) Electronic device, method for controlling electronic device, and program
US20220157099A1 (en) Drive data-recording apparatus, drive assist system, drive data-recording method, and program
Priya et al. Machine Learning-Based System for Detecting and Tracking Driver Drowsiness
Ashture et al. A Systematic Review of Driver Drowsiness Detection using Various Approaches.