JP7257889B2 - 運転者監視装置及び監視システム - Google Patents

運転者監視装置及び監視システム Download PDF

Info

Publication number
JP7257889B2
JP7257889B2 JP2019113518A JP2019113518A JP7257889B2 JP 7257889 B2 JP7257889 B2 JP 7257889B2 JP 2019113518 A JP2019113518 A JP 2019113518A JP 2019113518 A JP2019113518 A JP 2019113518A JP 7257889 B2 JP7257889 B2 JP 7257889B2
Authority
JP
Japan
Prior art keywords
unit
driver
vehicle
determination
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019113518A
Other languages
English (en)
Other versions
JP2020204997A (ja
Inventor
元太郎 鷲尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019113518A priority Critical patent/JP7257889B2/ja
Publication of JP2020204997A publication Critical patent/JP2020204997A/ja
Application granted granted Critical
Publication of JP7257889B2 publication Critical patent/JP7257889B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

この発明は、運転者監視装置及び監視システムに関するものである。
従来、車両を運転している運転者の状態を監視する運転者監視装置が提供されている。例えば、特許文献1に開示された運転者監視装置は、携帯端末にカメラを備え、そのカメラよって撮影した撮影画像に基づいて、運転者が車両を運転中に携帯端末を見ているか否かを判定するものである。
特開2017-156196号公報
また、運転者監視装置の中には、車載カメラによって撮影した撮影画像に基づいて、運転者が車両を運転中に携帯端末を操作しているか否かを判定する装置もある。しかしながら、そのような、従来の運転者監視装置では、携帯端末が車載カメラに映る必要があり、運転者が携帯端末を車載カメラに映らないところで操作している場合には、適切な判定を行うことができない。
この発明は、上記のような課題を解決するためになされたもので、携帯端末が撮影部に映らない場合でも、運転者が車両を運転中に携帯端末を操作しているか否かを判定することができる運転者監視装置を提供することを目的とする。
この発明に係る運転者監視装置は、車内を撮影する撮影部から、撮影した撮影画像の画像情報を取得する画像情報取得部と、車両の状態を検出する車両状態検出部から車両の状態を示す車両状態情報を取得する車両状態情報取得部と、画像情報取得部から取得した画像情報に基づいて、車両を運転する運転者の顔向き及び視線を検出する検出部と、車両状態情報取得部から取得した車両状態情報、及び、検出部から取得した運転者の顔向き及び視線を示す検出情報に基づいて、運転者が車両の運転中に携帯端末を操作しているか否かを判定する判定部と、判定部の判定結果に基づいて、運転者に警報を通知する警報部を制御する出力制御部と、画像情報取得部から取得した画像情報を用いて、運転者が保持する携帯端末の軌跡を計算し、この計算した軌跡に基づいて、携帯端末の現在位置を推定する推定部とを備え、判定部は、検出部から取得した検出情報、及び、推定部から取得した携帯端末の現在位置を示す端末位置情報に基づいて、運転者が車両の運転中に携帯端末を操作しているか否かを判定するものである。
この発明によれば、携帯端末が撮影部に映らない場合でも、運転者が車両を運転中に携帯端末を操作しているか否かを判定することができる。
実施の形態1に係る運転者監視装置の構成を示すブロック図である。 実施の形態1に係る運転者監視装置の動作を示すフローチャートである。 実施の形態1に係る検出部の動作を示すフローチャートである。 実施の形態1に係る判定部の動作を示すフローチャートである。 図5A及び図5Bは実施の形態1に係る運転者監視装置のハードウェア構成の一例を示す図である。 実施の形態2に係る運転者監視装置の構成を示すブロック図である。 実施の形態2に係る推定部の動作を示すフローチャートである。 実施の形態2に係る推定部の動作を示すイメージ図である。 実施の形態2に係る判定部の動作を示すフローチャートである。 実施の形態3に係る監視システムの構成を示すブロック図である。 実施の形態3に係る判定部の動作を示すフローチャートである。 実施の形態3に係る学習部の動作を示すフローチャートである。
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
実施の形態1に係る運転者監視装置10について、図1から図5を用いて説明する。
図1は、実施の形態1に係る運転者監視装置10の構成を示すブロック図である。
図1に示すように、運転者監視装置10は、車両50に搭載されており、この車両50を運転する運転者を監視するものである。
車両50は、撮影部51、車両状態検出部52、及び、警報部53を備えている。
撮影部51は、車内を撮影し、その撮影した撮影画像の画像情報を運転者監視装置10に出力する。この撮影部51は、例えば、車載カメラまたはドライバーモニタリングシステム等である。
車両状態検出部52は、例えば、速度センサ、シフトセンサ、操舵角センサ、及び、スロットルバルブセンサ等の各種センサから構成されており、車両50の速度、シフト位置、操舵角、及び、スロットルバルブ開度位置に基づいて、車両50の状態を検出する。また、車両状態検出部52は、車両50の状態を示す車両状態情報を運転者監視装置10に出力する。この車両状態情報は、車両50の速度を示す車両速度情報、車両50のシフト位置を示すシフト位置情報、車両50の操舵角を示す操舵角情報、車両50のスロットルバルブ開度位置を示すスロットルバルブ開度位置情報等を含むものである。
警報部53は、運転者監視装置10から出力された判定結果を示す判定結果情報に基づいて、運転者に対して、警報を通知する。この警報部53は、例えば、表示装置またはスピーカ等である。
運転者監視装置10は、画像情報取得部11、車両状態情報取得部12、検出部13、検出情報記憶部14、判定部15、判定条件情報記憶部16、判定結果情報記憶部17、及び、出力制御部18を備えている。
画像情報取得部11は、撮影部51から画像情報を取得する。また、画像情報取得部11は、撮影部51から取得した画像情報を、検出部13に出力する。
車両状態情報取得部12は、車両状態検出部52から車両状態情報を取得する。また、車両状態情報取得部12は、車両状態検出部52から取得した車両状態情報を、判定部15に出力する。
検出部13は、画像情報取得部11から取得した画像情報から、運転者の顔及び目を認識して、顔向き及び視線を検出する。また、検出部13は、運転者の顔向き及び視線を示す検出情報を、検出情報記憶部14及び判定部15に出力する。なお、検出部13は、顔向き及び視線に加えて、開眼度を検出し、これらを示す検出情報を出力しても構わない。
検出情報記憶部14は、検出部13から出力された検出情報を記憶するデータベースである。
判定部15は、車両状態情報取得部12から取得した車両状態情報、及び、検出部13から取得した検出情報に基づいて、運転者が車両50の運転中に携帯端末を操作しているか否かを判定する。即ち、判定部15は、車両状態情報取得部12から取得した車両状態情報に基づいて、運転者が車両50を運転しているか否かを判定する。また、判定部15は、検出部13または検出情報記憶部14から取得した検出情報に基づいて、運転者が携帯端末を操作しているか否かを判定する。更に、判定部15は、判定結果を示す判定結果情報を、判定結果情報記憶部17及び出力制御部18に出力する。
この判定部15は、例えば、車両50の速度が0m/sを超えた状態で、運転者の顔向きが変わらず、運転者の視線だけが動いている場合に、運転者が車両50の運転中に携帯端末を操作していると判定する。なお、携帯端末の操作とは、タッチ操作及び閲覧等を含むものである。
判定条件情報記憶部16は、判定条件情報を記憶するデータベースである。判定条件情報は、予め判定条件情報記憶部16に記憶されている。この判定条件情報は、どのような顔向き及び視線になったときに、運転者が車両50を運転中に携帯端末を操作していると判定するための閾値または範囲を示す情報である。判定部15は、判定条件情報を判定条件情報記憶部16から読み出し可能となっている。
判定結果情報記憶部17は、判定部15から出力された判定結果情報を記憶するデータベースである。
出力制御部18は、判定部15から取得した判定結果情報に基づいて、警報部53を制御する。即ち、出力制御部18は、運転者が車両50の運転中に携帯端末を操作しているという判定結果を示す判定結果情報を取得すると、警報部53を動作させて、当該警報部53から、運転者に対して警報を通知する。
なお、上述した実施の形態1に係る運転者監視装置10は、検出情報記憶部14、判定条件情報記憶部16、及び、判定結果情報記憶部17を備えているが、これらを必ずしも備えていなくても良い。判定条件情報は、予め判定部15に記憶させておけば良い。
次に、図2は、実施の形態1に係る運転者監視装置10の動作を示すフローチャートである。
図2に示すように、ステップST11において、画像情報取得部11は、撮影部51から画像情報を取得する。
ステップST12において、車両状態情報取得部12は、車両状態検出部52から車両状態情報を取得する。
ステップST13において、検出部13は、画像情報に基づいて、運転者の顔向き及び視線を検出する。
ステップST14において、判定部15は、車両状態情報取得部12から取得した車両状態情報、及び、検出部13から取得した検出情報に基づいて、運転者が車両50の運転中に携帯端末を操作しているか否かを判定する。ここで、判定部15が、運転者が車両50を運転中に携帯端末を操作していると判定した場合(YESの場合)には、運転者監視装置10の動作は、ステップST15に進む。一方、判定部15が、運転者が車両50を運転中に携帯端末を操作していないと判定した場合(NOの場合)には、運転者監視装置10の動作は、ステップST11に戻る。
ステップST15において、出力制御部18は、判定部15の判定結果に基づいて、運転者に警報を通知する警報部53を制御する。
次に、図3は、実施の形態1に係る検出部13の動作を示すフローチャートである。
図3に示すように、ステップST21において、検出部13は、画像情報取得部11から画像情報を取得する。
ステップST22において、検出部13は、運転者の顔が画像情報内に存在するか否かを判定する。ここで、検出部13が、運転者の顔が画像情報内に存在すると判定した場合(YESの場合)には、検出部13の動作は、ステップST23に進む。一方、検出部13が、運転者の顔が画像情報内に存在しないと判定した場合(NOの場合)には、検出部13の動作は、ステップST21に戻る。
ステップST23において、検出部13は、画像情報から、運転者の顔向き及び視線を検出できたか否かを判定する。ここで、検出部13が、運転者の顔向き及び視線を検出できたと判定した場合(YESの場合)には、検出部13の動作は、ステップST24に進む。一方、検出部13が、運転者の顔向き及び視線を検出できなかったと判定した場合(NOの場合)には、検出部13の動作は、ステップST21に戻る。
ステップST24において、検出部13は、運転者の顔向き及び視線を示す検出情報を、検出情報記憶部14及び判定部15に出力する。
次に、図4は、実施の形態1に係る判定部15の動作を示すフローチャートである。
図4に示すように、ステップST31において、判定部15は、判定条件情報記憶部16から判定条件情報を取得する。
ステップST32において、判定部15は、検出部13から検出情報を取得する。
ステップST33において、判定部15は、検出情報が判定条件情報に該当するか否かを判定する。ここで、判定部15が、検出情報が判定条件情報に該当すると判定した場合(YESの場合)には、判定部15の動作は、ステップST34に進む。一方、判定部15が、検出情報が判定条件情報に該当しないと判定した場合(NOの場合)には、判定部15の動作は、ステップST32に戻る。
ステップST34において、判定部15は、車両状態情報取得部12から車両状態情報を取得する。
ステップST35において、判定部15は、車両状態情報が判定条件情報に該当するか否かを判定する。ここで、判定部15が、車両状態情報が判定条件情報に該当すると判定した場合(YESの場合)には、判定部15の動作は、ステップST36に進む。一方、判定部15が、車両状態情報が判定条件情報に該当しないと判定した場合(NOの場合)には、判定部15の動作は、ステップST32に戻る。
ステップST36において、判定部15は、判定結果情報を出力制御部18に出力する。
従って、運転者監視装置10は、運転者の手元を撮影する専用のカメラを設置することなく、運転者の顔及び目が撮影された撮影画像を用いるだけで、携帯端末が撮影部51に映らない場合でも、運転者が車両50を運転中に携帯端末を操作しているか否かを判定することができる。そして、運転者監視装置10は、運転者が車両50を運転中に携帯端末を操作している場合には、その運転者に対して、注意喚起を行うことができる。
なお、運転者監視装置10では、運転者が車両50を運転中に携帯端末を操作している場合に、警報部53から警報を通知しているが、携帯端末の電波遮断、または、車両管理会社に対して、運転者が車両50を運転中に携帯端末を操作している旨のメールを、その携帯端末から通知しても構わない。
次に、図5A及び図5Bは、実施の形態1に係る運転者監視装置10のハードウェア構成の一例を示す図である。
運転者監視装置10における画像情報取得部11、車両状態情報取得部12、検出部13、判定部15、及び、出力制御部18の機能は、処理回路により実現される。即ち、運転者監視装置10は、上記機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路41であってもよいし、メモリ43に格納されるプログラムを実行するプロセッサ42であってもよい。
図5Aに示すように、処理回路が専用のハードウェアである場合、処理回路41は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。画像情報取得部11、車両状態情報取得部12、検出部13、判定部15、及び、出力制御部18の機能を複数の処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路41で実現してもよい。
図5Bに示すように、処理回路がプロセッサ42である場合、画像情報取得部11、車両状態情報取得部12、検出部13、判定部15、及び、出力制御部18の機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ43に格納される。プロセッサ42は、メモリ43に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、プログラムは、画像情報取得機能、車両状態情報取得機能、検出機能、判定機能、及び、出力制御機能をコンピュータに実行させるものであるとも言える。
ここで、プロセッサ42とは、CPU(Central Processing Unit)、処理装置、演算装置、又はマイクロプロセッサ等のことである。メモリ43は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、又はフラッシュメモリ等の不揮発性若しくは揮発性の半導体メモリであってもよいし、ハードディスク又はフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)又はDVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、運転者監視装置10は、画像情報取得部11、車両状態情報取得部12、検出部13、判定部15、及び、出力制御部18の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、運転者監視装置10における処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の機能を実現することができる。
以上より、実施の形態1に係る運転者監視装置10は、車内を撮影する撮影部51から、撮影した撮影画像の画像情報を取得する画像情報取得部11と、車両50の状態を検出する車両状態検出部52から車両50の状態を示す車両状態情報を取得する車両状態情報取得部12と、画像情報取得部11から取得した画像情報に基づいて、車両50を運転する運転者の顔向き及び視線を検出する検出部13と、車両状態情報取得部12から取得した車両状態情報、及び、検出部13から取得した運転者の顔向き及び視線を示す検出情報に基づいて、運転者が車両50の運転中に携帯端末を操作しているか否かを判定する判定部15と、判定部15の判定結果に基づいて、運転者に警報を通知する警報部53を制御する出力制御部18とを備えている。これにより、運転者監視装置10は、携帯端末が撮影部51に映らない場合でも、運転者が車両50を運転中に携帯端末を操作しているか否かを判定することができる。
実施の形態2.
実施の形態2に係る運転者監視装置20について、図6から図9を用いて説明する。
図6に示すように、運転者監視装置20は、実施の形態1に係る運転者監視装置10に、推定部21及び端末位置情報記憶部22を加えた構成となっている。即ち、運転者監視装置20は、画像情報取得部11、車両状態情報取得部12、検出部13、検出情報記憶部14、判定部15、判定条件情報記憶部16、判定結果情報記憶部17、出力制御部18、推定部21、及び、端末位置情報記憶部22を備えている。
画像情報取得部11は、撮影部51から取得した画像情報を、検出部13及び推定部21に出力する。
推定部21は、画像情報取得部11から取得した画像情報を用いて、運転者が保持する携帯端末の軌跡を計算し、この計算した軌跡に基づいて、携帯端末の現在位置を推定する。また、推定部21は、携帯端末の現在位置を示す端末位置情報を、端末位置情報記憶部22に出力する。
端末位置情報記憶部22は、推定部21から出力された端末位置情報を記憶するデータベースである。
判定部15は、車両状態情報取得部12から取得した車両状態情報、検出部13から取得した検出情報、及び、端末位置情報記憶部22から取得した端末位置情報に基づいて、運転者が車両50の運転中に携帯端末を操作しているか否かを判定する。
次に、図7は、実施の形態2に係る推定部21の動作を示すフローチャートである。
図7に示すように、ステップST41において、推定部21は、画像情報取得部11から画像情報を取得する。
ステップST42において、推定部21は、運転者が保持する携帯端末が画像情報内に存在するか否かを判定する。ここで、推定部21が、携帯端末が画像情報内に存在すると判定した場合(YESの場合)には、推定部21の動作は、ステップST43に進む。一方、推定部21が、携帯端末が画像情報内に存在しないと判定した場合(NOの場合)には、推定部21の動作は、ステップST44に進む。
ステップST43において、推定部21は、携帯端末の現在位置を示す端末位置情報を、端末位置情報記憶部22に出力する。
ステップST44において、推定部21は、携帯端末が端末位置情報記憶部22に記憶された過去の画像情報内に存在するか否かを判定する。ここで、推定部21が、携帯端末が過去の画像情報内に存在すると判定した場合(YESの場合)には、推定部21の動作は、ステップST45に進む。一方、推定部21が、携帯端末が過去の画像情報内に存在しないと判定した場合(NOの場合)には、推定部21の動作は、ステップST41に戻る。
ステップST45において、推定部21は、これまでの画像情報を用いて、運転者が保持する携帯端末の軌跡を計算し、この計算した軌跡に基づいて、携帯端末の現在位置を推定する。
ステップST46において、推定部21は、推定した携帯端末の現在位置を示す端末位置情報を、端末位置情報記憶部22に出力する。
ここで、上述したステップST45の詳細については、図8を用いて説明する。図8は、実施の形態2に係る推定部21の動作を示すイメージ図である。
図8に示すように、撮影部51が撮影した撮影画像Pに、運転者100とその顔101が映るものの、携帯端末Mが映っていない場合には、例えば、携帯端末Mが映っている1つ以上の前の撮影画像Pを用いて、携帯端末Mの軌跡Tを計算する。そして、推定部21は、その計算した軌跡Tが撮影画像P内から外れた位置の先に、携帯端末の移動先があり、これを携帯端末Mの現在位置であると、推定する。
次に、図9は、実施の形態2に係る判定部15の動作を示すフローチャートである。
図9に示すように、ステップST51において、判定部15は、判定条件情報記憶部16から判定条件情報を取得する。
ステップST52において、判定部15は、検出部13から検出情報を取得する。
ステップST53において、判定部15は、検出情報が判定条件情報に該当するか否かを判定する。ここで、判定部15が、検出情報が判定条件情報に該当すると判定した場合(YESの場合)には、判定部15の動作は、ステップST54に進む。一方、判定部15が、検出情報が判定条件情報に該当しないと判定した場合(NOの場合)には、判定部15の動作は、ステップST52に戻る。
ステップST54において、判定部15は、推定部21から端末位置情報を取得する。
ステップST55において、判定部15は、検出情報及び端末位置情報に基づいて、運転者が携帯端末を見ているか否かを判定する。即ち、判定部15は、検出された運転者の視線と、推定された携帯端末の現在位置とを比較することにより、運転者が携帯端末を見ているか否かを判定する。ここで、判定部15が、運転者が携帯端末を見ていると判定した場合(YESの場合)には、判定部15の動作は、ステップST56に進む。一方、判定部15が、運転者が携帯端末を見ていないと判定した場合(NOの場合)には、判定部15の動作は、ステップST52に戻る。
ステップST56において、判定部15は、車両状態情報取得部12から車両状態情報を取得する。
ステップST57において、判定部15は、車両状態情報が判定条件情報に該当するか否かを判定する。即ち、判定部15は、運転者が車両50を運転しているか否かを判定する。ここで、判定部15が、運転者が車両50を運転していると判定した場合(YESの場合)には、判定部15の動作は、ステップST58に進む。一方、判定部15が、運転者が車両50を運転していないと判定した場合(NOの場合)には、判定部15の動作は、ステップST52に戻る。
ステップST58において、判定部15は、判定結果情報を出力制御部18に出力する。
従って、運転者監視装置20は、予め設定された判定条件を使用することなく、検出した運転者の視線と、携帯端末が移動したと思われる先の推定位置とに基づいて、運転者が携帯端末を操作しているか否かを判定することができる。これにより、運転者監視装置20は、判定精度を向上させることができる。
以上より、実施の形態2に係る運転者監視装置20は、画像情報取得部11から取得した画像情報を用いて、運転者が保持する携帯端末の軌跡を計算し、この計算した軌跡に基づいて、携帯端末の現在位置を推定する推定部21を備え、判定部15は、検出部13から取得した検出情報、及び、推定部21から取得した携帯端末の現在位置を示す端末位置情報に基づいて、運転者が車両50の運転中に携帯端末を操作しているか否かを判定する。これにより、運転者監視装置20は、判定部15の判定精度を向上させることができる。
実施の形態3.
実施の形態3に係る監視システム1について、図10から図12を用いて説明する。
図10に示すように、監視システム1は、実施の形態1に係る運転者監視装置10及び車両50に、サーバ30を加えた構成となっている。
判定部15は、運転者が車両50の運転中に携帯端末を操作していると判定した場合に、車両状態情報、検出情報、判定結果情報、及び、判定条件情報を関連付けて、サーバ30に出力する。
サーバ30は、入力部31、情報記憶部32、学習部33、及び、学習結果情報記憶部34を備えている。
入力部31は、監視システム1を管理するシステム管理者が、サーバ30内に記憶または保存されている各種情報を、確認または変更する際に使用されるものである。
情報記憶部32は、判定部15から出力された、車両状態情報、検出情報、判定結果情報、及び、判定条件情報を、関連付けて記憶するデータベースである。
ここで、システム管理者は、入力部31を利用して、情報記憶部32に記憶されている判定結果情報が正しく判定されているものであるか否かを、それに関連付けられた車両状態情報、検出情報、及び、判定条件情報に基づいて判定する。また、システム管理者は、その正誤判定結果を示す正誤判定結果情報を、これと対応した車両状態情報、検出情報、判定結果情報、及び、判定条件情報と関連付けて、情報記憶部32に記憶させる。
学習部33は、情報記憶部32から、車両状態情報、検出情報、判定結果情報、及び、判定条件情報と、これと対応する正誤判定結果情報を取得する。また、学習部33は、取得した正誤判定結果情報の中から、正しい結果となる正誤判定結果情報を選別し、この選別した正誤判定結果情報に基づいて、運転者が車両50を運転中に携帯端末を操作している動作を学習する。更に、学習部33は、その学習結果に基づいて、新たな判定条件を設定する。そして、学習部33は、学習結果を示す学習結果情報を学習結果情報記憶部34に出力すると共に、その学習結果に基づいて新たに設定した判定条件を示す判定条件情報を、判定条件情報記憶部16に出力する。
学習結果情報記憶部34は、学習部33から出力された学習結果情報を記憶するデータベースである。
なお、入力部31、情報記憶部32、学習部33、及び、学習結果情報記憶部34は、運転者監視装置10または車両50に設けられても構わない。
次に、図11は、実施の形態3に係る判定部15の動作を示すフローチャートである。
図11に示すように、ステップST61において、判定部15は、判定条件情報記憶部16から判定条件情報を取得する。
ステップST62において、判定部15は、検出部13から検出情報を取得する。
ステップST63において、判定部15は、検出情報が判定条件情報に該当するか否かを判定する。ここで、判定部15が、検出情報が判定条件情報に該当すると判定した場合(YESの場合)には、判定部15の動作は、ステップST64に進む。一方、判定部15が、検出情報が判定条件情報に該当しないと判定した場合(NOの場合)には、判定部15の動作は、ステップST62に戻る。
ステップST64において、判定部15は、車両状態情報取得部12から車両状態情報を取得する。
ステップST65において、判定部15は、車両状態情報が判定条件情報に該当するか否かを判定する。ここで、判定部15が、車両状態情報が判定条件情報に該当すると判定した場合(YESの場合)には、判定部15の動作は、ステップST66に進む。一方、判定部15が、車両状態情報が判定条件情報に該当しないと判定した場合(NOの場合)には、判定部15の動作は、ステップST62に戻る。
ステップST66において、判定部15は、車両状態情報、検出情報、判定結果情報、及び、判定条件情報を関連付けて、情報記憶部32に出力する。
ステップST67において、判定部15は、判定結果情報を出力制御部18に出力する。
次に、図12は、実施の形態3に係る学習部33の動作を示すフローチャートである。
図12に示すように、ステップST71において、学習部33は、情報記憶部32から、車両状態情報、検出情報、判定結果情報、及び、判定条件情報と、これと対応する正誤判定結果情報を取得する。
ステップST72において、学習部33は、情報記憶部32から取得した正誤判定結果情報の中から、正しい結果となる正誤判定結果情報を選別し、この選別した正誤判定結果情報に基づいて、運転者が車両50を運転中に携帯端末を操作している動作を学習する。
ステップST73において、学習部33は、学習結果に基づいて、新たな判定条件を設定する。
ステップST74において、学習部33は、新たに設定した判定条件を示す判定条件情報を、判定条件情報記憶部16に出力する。
従って、監視システム1は、運転者が車両50を運転中に携帯端末を操作しているか否かを判定するための判定条件を、学習部33によって学習することができるので、判定部15による判定精度を向上させることができる。また、監視システム1は、学習機能をサーバ30に備えることにより、別の車両50にも、容易に、且つ、判定精度良く適用することができる。
以上より、実施の形態3に係る監視システム1は、運転者監視装置10及びサーバ30を備えている。そのサーバ30が有する学習部33は、判定部15において、運転者が車両50の運転中に携帯端末を操作していると判定した場合に、その判定結果が正しく判定されているものであるか否かを示す正誤判定結果情報に基づいて、運転者が車両50の運転中に携帯端末を操作している動作を学習した後、その学習結果に基づいて新たに設定した判定条件を示す判定条件情報を、運転者監視装置10に出力する。これにより、監視システム1は、判定部15の判定精度を向上させることができる。
なお、本願発明は、その発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは、各実施の形態における任意の構成要素の変形、もしくは、各実施の形態における任意の構成要素の省略が可能である。
1 監視システム、10 運転者監視装置、11 画像情報取得部、12 車両状態情報取得部、13 検出部、14 検出情報記憶部、15 判定部、16 判定条件情報記憶部、17 判定結果情報記憶部、20 運転者監視装置、21 推定部、22 端末位置情報記憶部、30 サーバ、31 入力部、32 情報記憶部、33 学習部、34 学習結果情報記憶部、41 処理回路、42 プロセッサ、43 メモリ、50 車両、51 撮影部、52 車両状態検出部、53 警報部、100 運転者、101 顔、P 撮影画像、M 携帯端末、T 軌跡。

Claims (2)

  1. 車内を撮影する撮影部から、撮影した撮影画像の画像情報を取得する画像情報取得部と、
    車両の状態を検出する車両状態検出部から車両の状態を示す車両状態情報を取得する車両状態情報取得部と、
    前記画像情報取得部から取得した画像情報に基づいて、車両を運転する運転者の顔向き及び視線を検出する検出部と、
    前記車両状態情報取得部から取得した車両状態情報、及び、前記検出部から取得した運転者の顔向き及び視線を示す検出情報に基づいて、運転者が車両の運転中に携帯端末を操作しているか否かを判定する判定部と、
    前記判定部の判定結果に基づいて、運転者に警報を通知する警報部を制御する出力制御部と
    前記画像情報取得部から取得した画像情報を用いて、運転者が保持する携帯端末の軌跡を計算し、この計算した軌跡に基づいて、携帯端末の現在位置を推定する推定部とを備え、
    前記判定部は、
    前記検出部から取得した検出情報、及び、前記推定部から取得した携帯端末の現在位置を示す端末位置情報に基づいて、運転者が車両の運転中に携帯端末を操作しているか否かを判定する
    ことを特徴とする運転者監視装置。
  2. 請求項1記載の運転者監視装置と、
    前記判定部において、運転者が車両の運転中に携帯端末を操作していると判定した場合に、その判定結果が正しく判定されているものであるか否かを示す正誤判定結果情報に基づいて、運転者が車両の運転中に携帯端末を操作している動作を学習した後、その学習結果に基づいて新たに設定した判定条件を示す判定条件情報を、前記運転者監視装置に出力する学習部を有するサーバとを備える
    ことを特徴とする監視システム。
JP2019113518A 2019-06-19 2019-06-19 運転者監視装置及び監視システム Active JP7257889B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019113518A JP7257889B2 (ja) 2019-06-19 2019-06-19 運転者監視装置及び監視システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019113518A JP7257889B2 (ja) 2019-06-19 2019-06-19 運転者監視装置及び監視システム

Publications (2)

Publication Number Publication Date
JP2020204997A JP2020204997A (ja) 2020-12-24
JP7257889B2 true JP7257889B2 (ja) 2023-04-14

Family

ID=73837466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019113518A Active JP7257889B2 (ja) 2019-06-19 2019-06-19 運転者監視装置及び監視システム

Country Status (1)

Country Link
JP (1) JP7257889B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007141223A (ja) 2005-10-17 2007-06-07 Omron Corp 情報処理装置および方法、記録媒体、並びに、プログラム
JP2017505477A (ja) 2013-12-30 2017-02-16 アルカテル−ルーセント ドライバ行動監視システムおよびドライバ行動監視のための方法
JP2017097518A (ja) 2015-11-20 2017-06-01 オムロン株式会社 自動運転支援装置、自動運転支援システム、自動運転支援方法および自動運転支援プログラム
CN108928294A (zh) 2018-06-04 2018-12-04 Oppo(重庆)智能科技有限公司 行车危险的提醒方法、装置、终端及计算机可读存储介质
JP2019074944A (ja) 2017-10-17 2019-05-16 矢崎総業株式会社 警報システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3843513B2 (ja) * 1996-12-24 2006-11-08 トヨタ自動車株式会社 車両用警報装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007141223A (ja) 2005-10-17 2007-06-07 Omron Corp 情報処理装置および方法、記録媒体、並びに、プログラム
JP2017505477A (ja) 2013-12-30 2017-02-16 アルカテル−ルーセント ドライバ行動監視システムおよびドライバ行動監視のための方法
JP2017097518A (ja) 2015-11-20 2017-06-01 オムロン株式会社 自動運転支援装置、自動運転支援システム、自動運転支援方法および自動運転支援プログラム
JP2019074944A (ja) 2017-10-17 2019-05-16 矢崎総業株式会社 警報システム
CN108928294A (zh) 2018-06-04 2018-12-04 Oppo(重庆)智能科技有限公司 行车危险的提醒方法、装置、终端及计算机可读存储介质

Also Published As

Publication number Publication date
JP2020204997A (ja) 2020-12-24

Similar Documents

Publication Publication Date Title
JP5058002B2 (ja) 物体検出装置
JP2016103249A (ja) 運転支援装置および運転支援方法
JPWO2018158809A1 (ja) 車両用撮像制御装置、ドライバモニタリング装置、及び、車両用撮像制御方法
JP2021512392A (ja) バーチャルコンテンツを表示するためのヘッドマウント式電子ディスプレイ装置の操作方法およびバーチャルコンテンツを表示するためのディスプレイシステム
JP4814546B2 (ja) 異常検出装置および映像システム
JP2007057981A5 (ja)
JP7257889B2 (ja) 運転者監視装置及び監視システム
JP2016071402A5 (ja)
JP6700502B2 (ja) 車両用表示制御装置および表示制御方法
JP6847323B2 (ja) 視線検出装置および視線検出方法
US20220032922A1 (en) Vehicle and method of controlling the same
JP6921316B2 (ja) 車両用画像処理装置および画像処理方法
JP6460510B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2020053983A1 (ja) 自動運転診断装置及び自動運転診断方法
KR101823385B1 (ko) 사이드 카메라를 이용한 차선 이탈 경보 시스템의 인식률 향상 장치 및 방법
JP5383207B2 (ja) 情報処理装置、制御方法、コンピュータプログラム、および記憶媒体
JP7466766B2 (ja) 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法
JP6932907B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7282167B2 (ja) 運転支援装置および運転支援方法
KR101276724B1 (ko) 디지털 촬영장치의 제어방법 및 이 방법을 채용한 디지털촬영장치
KR20200082454A (ko) 차량용 블랙박스 영상 처리 방법 및 장치
JP2006148541A (ja) ナビゲーション装置およびプログラム
JP7483060B2 (ja) 手検出装置、ジェスチャー認識装置および手検出方法
US11025813B2 (en) Control apparatus, image pickup apparatus, control method and memory medium
WO2022030191A1 (ja) 車載装置及び運転支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7257889

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150