JP2021527900A - 運転状態検出方法及び装置、運転者監視システム並びに車両 - Google Patents

運転状態検出方法及び装置、運転者監視システム並びに車両 Download PDF

Info

Publication number
JP2021527900A
JP2021527900A JP2020571644A JP2020571644A JP2021527900A JP 2021527900 A JP2021527900 A JP 2021527900A JP 2020571644 A JP2020571644 A JP 2020571644A JP 2020571644 A JP2020571644 A JP 2020571644A JP 2021527900 A JP2021527900 A JP 2021527900A
Authority
JP
Japan
Prior art keywords
state
driver
distraction
predetermined
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020571644A
Other languages
English (en)
Other versions
JP7146959B2 (ja
Inventor
仁波 秦
大乾 ▲楊▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Intelligent Technology Co Ltd
Publication of JP2021527900A publication Critical patent/JP2021527900A/ja
Application granted granted Critical
Publication of JP7146959B2 publication Critical patent/JP7146959B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

本開示の実施例は、運転状態検出方法及び装置、運転者監視システム並びに車両を提供する。ここで、運転状態検出方法は、運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得る操作と、前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定する操作と、を含む。
【選択図】図1

Description

本開示は、コンピュータビジョン技術に関し、特に、運転状態検出方法及び装置、運転者監視システム並びに車両に関する。
<関連出願の相互参照>
本開示は、2018年10月19日に中国特許局に提出された、出願番号がCN201811224308.9であり、発明の名称が「運転状態検出方法及び装置、運転者監視システム並びに車両」である中国特許出願の優先権を主張し、その開示の全てが参照によって本開示に組み込まれる。
車両が普及していくに伴って、交通事故も増えており、運転者の運転状態は車両の走行安全に非常に大きな影響を与えている。運転者の運転状態が悪くなった時に、例えば、過度の疲労、睡眠不足、注意散漫等の問題によって運転状態が悪くなった時に、判断力が低下して反応が遅くなり、更に漫然状態又は瞬間記憶喪失に至ることがあって、遅れた運転操作又は早すぎる運転操作、操作中断又は不適切な時点の修正等の危険な要因に繋がって、道路交通事故の発生可能性が非常に高くなる。運転者は運転中に携帯電話等の他の事物に気を配って注意をそらすと、運転の危険性が高くなってしまう。
本開示の実施例は、運転状態検出の技術的解決手段を提供する。
本開示の実施例の一態様によれば、
運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得る操作と、
前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定する操作と、を含む運転状態検出方法を提供する。
本開示の実施例の別の態様によれば、
運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得るための第1検出モジュールと、
前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定するための第1決定モジュールと、を含む運転状態検出装置を提供する。
本開示の実施例のもう1つの態様によれば、
運転者画像及び運転者の疲労状態と注意散漫状態の検出結果を表示するための表示装置と、
運転者画像に対して頭部姿勢検出と目部状態検出を行って頭部姿勢情報と目部状態情報を得、前記頭部姿勢情報と前記目部状態情報に基づいて運転者の疲労状態と注意散漫状態の検出結果を決定するための運転者状態検出装置と、を含む運転者監視システムを提供する。
本開示の実施例のもう1つの態様によれば、
コンピュータプログラムを記憶するためのメモリと、
前記メモリに記憶されているコンピュータプログラムを実行するためのものであって、前記コンピュータプログラムが実行されると、上記のいずれか1つの実施例に記載の運転状態検出方法を実現するプロセッサと、を含む電子機器を提供する。
本開示の実施例の更にもう1つの態様によれば、コンピュータプログラムが記憶されているコンピュータ読取可能記憶媒体であって、このコンピュータプログラムがプロセッサにより実行されると、上記のいずれか1つの実施例に記載の運転状態検出方法を実現するコンピュータ読取可能記憶媒体を提供する。
本開示の実施例の更にまた1つの態様によれば、中央制御システムを含む車両であって、上記のいずれか1つの実施例に記載の運転状態検出装置又は上記のいずれか1つの実施例に記載の運転者監視システムを更に含む車両を提供する。
本開示の上記実施例で提供された運転状態検出方法及び装置、運転者監視システム、車両、電子機器並びに媒体によれば、運転者画像に対して頭部姿勢検出と目部状態検出を行って、検出された頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定することができる。本開示の実施例は、運転者画像に対して頭部姿勢検出と目部状態検出を行うことによって、運転者の疲労状態と注意散漫状態を共同してリアルタイムに検出することを可能にして、そのように運転者の運転状態が悪くなった時にリアルタイムに対策を取ることができ、運転の安全性が高くなり、道路交通事故の発生率が低くなる。
以下、図面及び実施例を通じて本開示の技術的手段をさらに詳しく説明する。
明細書の一部を構成する図面は、本開示の実施例を説明し、その説明と共に本開示の原理を解釈することに用いられる。
図面を参照し、以下の詳細な説明により本開示をより明瞭に理解することができる。
本開示の運転状態検出方法の一実施例のフローチャートである。 本開示の運転状態検出方法の別の実施例のフローチャートである。 本開示の実施例で運転者画像に対して特定注意散漫動作検出を行う一実施例のフローチャートである。 本開示の運転状態検出装置の一実施例の構造模式図である。 本開示の運転状態検出装置の別の実施例の構造模式図である。 本開示の運転者監視システムの一実施例の構造模式図である。 本開示の電子機器の一応用実施例の構造模式図である。 本開示の車両の一実施例の構造模式図である。
ここで、図面を参照しながら本開示の様々な例示的な実施例を詳細に説明する。なお、特に断らない限り、これらの実施例で記述した部材及びステップの相対的配置、数式及び値は本開示の範囲を限定するものではないことに注意すべきである。
本開示の実施例における「第1の」、「第2の」などの用語は区別するためのものに過ぎず、本開示の実施例に対する限定と理解してはならないことを理解すべきである。
更に、本開示の実施例では、「複数の」は2つ又は2つ以上を指してよく、「少なくとも1つの」は1つ、2つ又は2つ以上を指してよいことを理解すべきである。
更に、本開示の実施例で言及された任意の部材、データ又は構造は、明確に限定され又は明細書の前後で反対的に示唆された場合でなければ、一般的には1つ又は複数と理解してよいことを理解すべきである。
更に、本開示ではそれぞれの実施例についての説明はそれぞれの実施例の相違点を重点として強調し、その同一又は類似的な点について相互に参照してよく、簡単化するために、ここで一つずつに繰り返して説明しないことを理解すべきである。
同時に、説明の便宜上、図面に示した各部分の寸法は実際の比例関係に従って描いたものではないことを理解すべきである。
以下の少なくとも一つの例示的な実施例に対する説明は実際に説明的なものに過ぎず、本開示及びその適用または使用へのなんらの制限にもならない。
関連分野の当業者に既知の技術、方法及び機器については、詳細に説明しない場合があるが、場合によって、前記技術、方法及び機器は明細書の一部と見なすべきである。
なお、類似する符号及び英文字は以下の図面において類似項目を表し、従って、ある一項が一つの図面において定義されれば、以降の図面においてそれをさらに説明する必要がないことに注意すべきである。
また、本開示の用語の「及び/又は」は、関連対象の関連関係を記述するためのものに過ぎず、3種の関係が存在可能であることを示し、例えば、A及び/又はBは、Aが単独して存在し、AとBが同時に存在し、Bが単独して存在するという3種の場合を示してもよい。また、本開示における符号「/」は一般的には、前後の関連対象が「又は」という関係にあることを示す。
本開示の実施例は端末装置、コンピュータシステム、サーバ等の電子機器に適用可能であり、それは他の様々な共通または専用計算システム環境または構成と共に動作可能である。端末装置、コンピュータシステム、サーバ等の電子機器との併用に適する公知の端末装置、計算システム、環境及び/または構成の例は、車載装置、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、ファットクライアント、手持ちまたはラップトップデバイス、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費者用電子機器、ネットワークパソコン、小型コンピュータシステム、大型コンピュータシステム及び前記の任意のシステムを含む分散型クラウドコンピューティング技術環境などを含むが、これらに限定されない。
端末装置、コンピュータシステム、サーバ等の電子機器はコンピュータシステムにより実行されるコンピュータシステム実行可能コマンド(例えば、プログラムモジュール)の一般的な言語環境において記述できる。通常、プログラムモジュールはルーチン、プログラム、目的プログラム、コンポーネント、ロジック、データ構造などを含んでよく、それらは特定のタスクを実行するかまたは特定の抽象データ型を実現する。コンピュータシステム/サーバは分散型クラウドコンピューティング環境において実施でき、分散型クラウドコンピューティング環境において、タスクは通信ネットワークにわたってリンクされた遠隔処理機器により実行される。分散型クラウドコンピューティング環境において、プログラムモジュールは記憶機器を含むローカルまたは遠隔計算システムの記憶媒体に存在してよい。
本開示の各実施例におけるニューラルネットワークは、それぞれ1つの多層ニューラルネットワーク(即ち、深層ニューラルネットワーク)であってよく、そのうちのニューラルネットワークは、多層の畳み込みニューラルネットワーク、例えばLeNet、AlexNet、GoogLeNet、VGG、ResNet等の任意のニューラルネットワークモデルであってよい。各ニューラルネットワークとしては同じタイプと構造のニューラルネットワークを用いてもよく、異なるタイプ及び/又は構造のニューラルネットワークを用いてもよい。本開示の実施例はそれを限定するものではない。
図1は本開示の運転状態検出方法の一実施例のフローチャートである。本開示の実施例の運転状態検出方法は、1つの装置(本開示の実施例では運転状態検出装置と呼んでもよい)又は1つのシステム(本開示の実施例では運転者監視システムと呼ぶ)によって実現されてよい。図1に示すように、この実施例の運転状態検出方法は、以下の操作を含む。
102、運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得る。
そのうちのいくつかの実施形態では、この操作102は、運転者画像に対して顔キーポイント検出を行う操作と、検出された顔キーポイントに基づいて頭部姿勢情報と目部状態情報を取得する操作と、を含んでよい。
ここで、いくつかの選択可能な例では、検出された顔キーポイントに基づいて頭部姿勢情報を取得する時に、例えば、第1ニューラルネットワークによって、顔キーポイントに基づいて頭部姿勢情報を取得してよい。
そのうちのいくつかの実施形態では、頭部姿勢は正常な運転状態での正規化球座標系(即ち、カメラの所在するカメラ座標系)における頭部の姿勢角/オイラー角で表してよく、そのうちの姿勢角/オイラー角は、ピッチ角θ(pitch)、ヨー角ψ(yaw)、ロール角Φ(roll)を含み、そのように頭部姿勢情報は(pitch,yaw,roll)を含む。ここで、ピッチ角は垂直方向に頭を下げるか、頭を上げる角度を示すためのものであり、ヨー角は水平方向に顔を横に向ける(即ち、頭を振り返る)角度を示すためのものであり、ロール角は垂直方向に頭を傾ける(即ち、肩に寄せる)角度を示すためのものである。
顔のサイズが一定した場合に、ある可能な適用シーンを例とすると、運転者画像を撮影するカメラが運転席の真正面に位置して運転席に対向する時に、ヨー角度、ピッチ角度、ロール角が小さいほど、顔が偏っていないし、運転者の運転状態が良い。ヨー角、ピッチ角、ロール角がいずれも0である時のものを基準頭部姿勢としてよく、この時に運転者が最適な運転状態にある。ピッチ角及び/又はヨー角が所定角度閾値より大きく、且つ持続時間が所定時間閾値より大きい時に運転者注意散漫状態の検出結果を注意散漫状態(即ち、注意力が集中していない)と決定してよい。ピッチ角が所定短い時間内に0度から所定角度に変化してから0度に復帰した(頭部を正常な位置から突然に下げてから正常な位置に復帰させた、居眠りうなずき動作に対応する)時に、運転者疲労状態の検出結果を疲労状態(即ち、疲労運転レベル)と決定してよい。カメラが他の位置にある応用シーンにおいて、カメラが運転席の真正面に位置し運転席に対向する場合のカメラとこの位置のカメラとがなす夾角による基準頭部姿勢に基づいて、頭部姿勢情報を決定してよく、当業者であれば、本開示の実施例の記載に基づいてその具体的な実施形態を理解でき、ここで詳細な説明を省略する。
ここで、第1ニューラルネットワークは、深層学習技術に基づいて予め訓練されたものであってよい。本実施例では、第1ニューラルネットワークを用いて顔キーポイントに基づいて頭部姿勢情報を取得して、取得された頭部姿勢情報の精確度を高めることができ、そのように運転者状態の検出結果の正確率が高くなる。
なお、予め訓練されたニューラルネットワークによって顔キーポイント検出を行ってもよく、それによって顔キーポイント検出結果の精確性が高くなり、頭部姿勢情報の精確度が更に高くなり、そのように運転者状態の検出結果の正確率が高くなる。
いくつかの選択可能な例では、検出された顔キーポイントに基づいて目部状態情報を取得する操作は、例えば、顔キーポイントに基づいて運転者画像における目部領域画像を決定する操作と、第2ニューラルネットワークによって目部領域画像に対して上眼瞼線と下眼瞼線の検出を行う操作と、上眼瞼線と下眼瞼線との間の間隔に基づいて運転者の目開閉状態情報を決定する操作と、を含んでよい。ここで、目開閉状態は、開眼状態、半分閉眼状態又は閉眼状態を含み、上記目部状態情報は、この目開閉状態情報を含む。選択可能な一例では、先に顔キーポイントのうちの目キーポイント(例えば、目キーポイントの運転者画像での座標情報)を用いて運転者画像における目の位置を決定して目部領域画像を取得し、且つこの目部領域画像によって上眼瞼線と下眼瞼線を取得し、上眼瞼線と下眼瞼線との間の間隔を計算することで目開閉状態情報を取得するようにしてよい。又は、別の選択可能な例では、運転者画像に対して顔キーポイント検出を行い、検出された顔キーポイントのうちの目キーポイントを直接用いて計算し、計算結果に基づいて目開閉状態情報を取得するようにしてもよい。この目開閉状態情報は運転者の閉眼検出に用いてよく、例えば、運転者が目を半分程度閉じたか否か(「半分」は目を完全に閉じていない状態を示し、例えば、居眠り状態で目を細くしている等を示す)、目を閉じたか否か、閉眼回数、閉眼幅等の検出に用いてよい。選択可能に、目開閉状態情報は開眼高さに対して正規化処理を行った後の情報であってよい。
ここで、第2ニューラルネットワークは、深層学習技術に基づいて予め訓練されたものであってよい。本実施例では、第2ニューラルネットワークを用いて上眼瞼線と下眼瞼線の検出を行って、上眼瞼線と下眼瞼線位置の精確な検出を実現でき、それによって目開閉状態情報の正確率が高くなって、運転者状態の検出結果の正確率が高くなる。
また、別の選択可能な例では、検出された顔キーポイントに基づいて目部状態情報を取得する操作は、例えば、顔キーポイントに基づいて運転者画像における目部領域画像を決定する操作と、第3ニューラルネットワークによってこの目部領域画像に対して開眼閉眼の分類処理を行って、目が開眼状態又は閉眼状態にあることを示す開眼又は閉眼の分類結果を得る操作と、を含んでよく、上記目部状態情報はこの開眼又は閉眼の分類結果に対応する開眼状態又は閉眼状態を含む。例えば、第3ニューラルネットワークは、入力された目部領域画像に対して特徴抽出と開眼閉眼の分類処理を行って開眼確率(値の範囲が0〜1であってよい)又は閉眼確率(値の範囲が0〜1であってよい)といった分類結果を出力し、この開眼確率又は閉眼確率に基づいて目が開眼状態にあるか閉眼状態にあるかを決定して、運転者の目部状態を得ることができる。
ここで、第3ニューラルネットワークは、深層学習技術に基づいて開眼サンプル画像と閉眼サンプル画像を直接用いて訓練して得られてよく、訓練された第3ニューラルネットワークは、目開閉度合いの計算を行わず、入力された画像に対して開眼又は閉眼の分類結果を直接得ることができる。本実施例では、第3ニューラルネットワークによって目部領域画像における運転者の目部状態を取得して、目部状態情報の正確率と検出効率を高めることができ、そのように運転者状態の検出結果の正確率と検出効率が高くなる。
選択可能な一例では、この操作102は、プロセッサによってメモリに記憶された該当するコマンドを呼び出して実行されてもよく、プロセッサによって動作する第1検出モジュールによって実現されてもよい。
104、上記頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定する。
そのうちのいくつかの実施形態では、この操作104は、頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値と運転者の注意散漫状態を表すための指標のパラメータ値を決定する操作と、運転者の疲労状態を表すための指標のパラメータ値に基づいて、運転者の疲労状態の検出結果を決定し、運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定する操作と、を含んでよい。
選択可能な一例では、この操作104は、プロセッサによってメモリに記憶された該当するコマンドを呼び出して実行されてもよく、プロセッサによって動作する第1決定モジュールによって実現されてもよい。
本開示の上記実施例で提供された運転状態検出方法によれば、運転者画像に対して頭部姿勢検出と目部状態検出を行って、検出された頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定することができる。本開示の実施例は、運転者画像に対して頭部姿勢検出と目部状態検出を行うことによって、運転者の疲労状態と注意散漫状態を共同してリアルタイムに検出することを可能にして、そのように運転者の運転状態が悪くなった時にリアルタイムに対策を取ることができ、運転の安全性が高くなり、道路交通事故の発生率が低くなる。
また、本開示の運転状態検出方法の別の実施例では、上記操作102の後、
頭部姿勢情報に基づいて決定された運転者画像における運転者の頭部位置情報によって、運転者の頭部位置のずれ角度が所定範囲を超えたか否かを決定する操作と、
運転者の頭部位置のずれ角度が所定範囲を超えていない場合に、上記操作104を実行し、即ち、頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定する操作と、
運転者の頭部位置のずれ角度が所定範囲を超えた場合に、頭部姿勢情報と目部状態情報に基づいて、運転者の注意散漫状態の検出結果を決定する操作と、を更に含んでよい。
そのうちのいくつかの実施形態では、頭部姿勢情報と目部状態情報に基づいて、運転者の注意散漫状態の検出結果を決定する上記操作は、頭部姿勢情報と目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定する操作と、運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定する操作と、を含んでよい。
また、本開示の上記各運転状態検出方法の実施例では、運転者画像に対して口部状態検出を行って、口部状態情報を得る操作を更に含んでよい。これに応じて、この実施例では、頭部姿勢情報、目部状態情報及び口部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値を決定してよい。
そのうちのいくつかの実施形態では、運転者画像に対して口部状態検出を行って、口部状態情報を得る操作は、運転者画像に対して顔キーポイント検出を行う操作と、検出された顔キーポイントに基づいて口部状態情報を取得する操作と、を含んでよい。
いくつかの選択可能な例では、検出された顔キーポイントに基づいて口部状態情報を取得する操作は、例えば、顔キーポイントに基づいて運転者画像における口部領域画像を決定する操作と、第4ニューラルネットワークによって口部領域画像に対して上***線と下***線の検出を行う操作と、上***線と下***線との間の間隔に基づいて運転者の口開閉状態情報を決定する操作と、を含んでよい。ここで、口開閉状態は、口の開状態(即ち、開口状態)、閉状態(即ち、閉口状態)、半閉鎖状態(即ち、口を半分程度開いた状態)等を含んでもよい。上記口部状態情報は、この口開閉状態情報を含む。例えば、選択可能な一例では、先に顔キーポイントのうちの口キーポイント(例えば、口キーポイントの運転者画像での座標情報)を用いて運転者画像における口の位置を決定し、切り抜き等の方式によって口部領域画像を取得し、更にこの口部領域画像によって上***線と下***線を取得し、上***線と下***線との間の間隔を計算することで口開閉状態情報を取得するようにしてよい。別の選択可能な例では、顔キーポイントのうちの口部キーポイントを直接用いて計算して、計算結果に基づいて口開閉状態情報を取得するようにしてもよい。
上記口開閉状態情報は運転者のあくび検出に用いてよく、例えば、運転者があくびをしているか否か、あくび回数等の検出に用いてよい。選択可能に、口開閉状態情報は開口高さに対して正規化処理を行った後の情報であってよい。
ここで、第4ニューラルネットワークは、深層学習技術に基づいて予め訓練されたものであってよい。本実施例では、第4ニューラルネットワークを用いて上***線と下***線の検出を行って、上***線と下***線位置の精確な検出を実現でき、それによって口開閉状態情報の正確率が高くなって、運転者状態の検出結果の正確率が高くなる。
別の選択可能な例では、検出された顔キーポイントに基づいて口部状態情報を取得する操作は、例えば、顔キーポイントに基づいて運転者画像における口部領域画像を決定する操作と、第5ニューラルネットワークによってこの口部領域画像に対して口開閉の分類処理を行って、口が開口状態又は閉口状態にあることを示す開口又は閉口の分類結果を得る操作と、を含んでよく、ここで、上記口部状態情報は、開口状態又は閉口状態を含む。例えば、第5ニューラルネットワークは、入力された口部領域画像に対して特徴抽出と口開閉の分類処理を行って、開口(即ち、開口状態)確率(値の範囲が0〜1であってよい)又は閉口(即ち、閉口状態)確率(値の範囲が0〜1であってよい)を出力し、この開口確率又は閉口確率に基づいて口が開口状態にあるか閉口状態にあるかを決定して、運転者の口部状態情報を得ることができる。
ここで、第5ニューラルネットワークは、深層学習技術に基づいて、開口サンプル画像及び閉口サンプル画像を直接用いて予め訓練して得られてよく、訓練された第5ニューラルネットワークは、上***線と下***線の検出及び両者の間隔の計算を行わず、入力された画像に対して開口又は閉口の分類結果を直接取得できる。本実施例では、第5ニューラルネットワークによって口部領域画像における運転者の口状態情報を取得して、口部状態情報の正確率と検出効率を高めることができ、そのように運転者状態の検出結果の正確率と検出効率が高くなる。
図2は本開示の運転状態検出方法の別の実施例のフローチャートである。図2に示すように、この実施例の運転状態検出方法は、以下の操作を含む。
202、運転者画像に対して頭部姿勢検出、目部状態検出及び口部状態検出を行って、頭部姿勢情報、目部状態情報及び口部状態情報を得る。
選択可能な一例では、この操作202は、プロセッサによってメモリに記憶された該当するコマンドを呼び出して実行されてもよく、プロセッサによって動作する第1検出モジュールによって実現されてもよい。
204、頭部姿勢情報に基づいて決定された運転者画像における運転者の頭部位置情報によって、運転者の頭部位置のずれ角度が所定範囲を超えたか否かを決定する。
選択可能な一例では、この操作204は、プロセッサによってメモリに記憶された該当するコマンドを呼び出して実行されてもよく、プロセッサによって動作する第2決定モジュールによって実現されてもよい。
運転者の頭部位置のずれ角度が所定範囲を超えた場合に、操作206を実行する。逆の場合には、運転者の頭部位置のずれ角度が所定範囲を超えていない場合に、操作210を実行する。
206、頭部姿勢情報と目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定する。
208、運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定する。
選択可能な一例では、この操作206−208は、プロセッサによってメモリに記憶された該当するコマンドを呼び出して実行されてもよく、プロセッサによって動作する第1決定モジュール又は第1決定モジュール中の第1決定ユニットによって実現されてもよい。
操作208の後、本実施例の後続工程を実行しない。
210、上記頭部姿勢情報と目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定し、上記頭部姿勢情報、前記目部状態情報及び前記口部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値を決定する。
212、運転者の疲労状態を表すための指標のパラメータ値に基づいて、運転者の疲労状態の検出結果を決定し、運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定する。
選択可能な一例では、この操作210−212は、プロセッサによってメモリに記憶された該当するコマンドを呼び出して実行されてもよく、プロセッサによって動作する第1決定モジュール又は第1決定モジュール中の第2決定ユニットによって実現されてもよい。
上記実施例では、頭部位置のずれ角度が所定範囲を超えた時に、運転者が注意散漫状態にあることがあるので、疲労状態検出を行わず、運転者に対して注意散漫状態検出を行うだけで、運転状態の検出効果を実現でき、疲労状態検出に必要な計算リソースを節約でき、運転状態の検出効率が高くなる。頭部位置のずれ角度が所定範囲を超えていない時に、運転者が注意散漫状態及び/又は疲労状態にあることがあるので、運転者に対して注意散漫状態検出と疲労状態検出を同時に行うことで、運転者状態の全面的な検出を実現でき、運転の安全性が保証される。
そのうちのいくつかの実施形態では、運転者疲労状態を表すための指標は、例えば、居眠り度合い、閉眼度合い、まばたき度合い、あくび度合い等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、運転者注意散漫状態を表すための指標は、例えば、頭部位置ずれ度合い、顔向きずれ度合い、視線方向ずれ度合い、漫然度合い等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されない。
そのうちのいくつかの実施形態では、上記各実施例において、頭部姿勢情報と目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定する操作は、以下の操作を含んでよい。
頭部姿勢情報に基づいて運転者画像における運転者の頭部位置を決定して頭部位置情報を得、例えば、頭部姿勢情報中のピッチ角を取得して頭部位置としてよく、所定時間内の頭部位置情報に基づいて頭部位置ずれ度合いのパラメータ値を取得する。ここで、頭部位置ずれ度合いのパラメータ値は、例えば、頭部位置ずれ状態、頭部位置ずれ方向、頭部位置の頭部位置ずれ方向におけるずれ角度、頭部位置のずれ持続時間、頭部位置ずれ頻度の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
頭部姿勢情報に基づいて運転者画像における運転者の顔向きを決定して顔向き情報を得、この顔向き情報は、例えば、顔転動の方向及び角度を含んでよく、ここの転動方向は左への転動、右への転動、下への転動及び/又は上への転動等であってよく、例えば、頭部姿勢情報中のピッチ角とヨー角を取得して顔向きとし、所定時間内の顔向き情報に基づいて顔向きずれ度合いのパラメータ値を取得するようにしてよい。ここで、顔向きずれ度合いのパラメータ値は、例えば、頭回し回数、頭回し持続時間、頭回し頻度等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
頭部姿勢情報に基づいて運転者画像における運転者の視線方向を決定して視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得し、又は、顔キーポイントに基づいて運転者画像における目部領域画像を決定し、第6ニューラルネットワークによって目部領域画像における運転者の視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する。ここで、視線方向ずれ度合いのパラメータ値は、例えば、視線方向ずれ角度、視線方向ずれ時間、視線方向ずれ頻度等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
所定時間内の目部状態情報に基づいて、漫然度合いのパラメータ値を取得する。ここで、漫然度合いのパラメータ値は、例えば、開眼幅、開眼持続時間、開眼累計時間が統計時間窓で占める割合等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されない。
本実施例は、運転者画像のいずれか一つ又は複数の運転者注意散漫状態を表すための指標のパラメータ値を検出し、且つそれに基づいて運転者の注意散漫状態の検出結果を決定することによって、運転者が運転に注意力を集中しているか否かを判断し、運転者の注意散漫状態の指標を計量化し、運転の注意力集中度を頭部位置ずれ度合い、顔向きずれ度合い、視線方向ずれ度合い、漫然度合いの指標の中の少なくとも1つで計量化することで、運転者の注意力集中運転状態をリアルタイム且つ客観的に判断することに寄与する。
そのうちのいくつかの実施形態では、上記各実施例において、頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値と運転者の注意散漫状態を表すための指標のパラメータ値を決定する操作は、以下の操作を含む。
頭部姿勢情報に基づいて運転者画像における運転者の頭部位置を決定して頭部位置情報を得、例えば、頭部姿勢情報中のピッチ角を取得して頭部位置としてよく、所定時間内の頭部位置情報に基づいて頭部位置ずれ度合いのパラメータ値を取得する。ここで、頭部位置ずれ度合いのパラメータ値は、例えば、頭部位置ずれ状態、頭部位置ずれ方向、頭部位置の頭部位置ずれ方向におけるずれ角度、頭部位置のずれ持続時間、頭部位置ずれ頻度の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
頭部姿勢情報に基づいて運転者画像における運転者の顔向きを決定して顔向き情報を得、例えば、頭部姿勢情報中のピッチ角とヨー角を取得して顔向きとしてよく、所定時間内の顔向き情報に基づいて顔向きずれ度合いのパラメータ値を取得する。ここで、顔向きずれ度合いのパラメータ値は、例えば、頭回し回数、頭回し持続時間、頭回し頻度等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
頭部姿勢情報に基づいて運転者画像における運転者の視線方向を決定して視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得し、又は、顔キーポイントに基づいて運転者画像における目部領域画像を決定し、第6ニューラルネットワークによって目部領域画像における運転者の視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する。ここで、視線方向ずれ度合いのパラメータ値は、例えば、視線方向ずれ角度、視線方向ずれ時間、視線方向ずれ頻度等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
所定時間内の目部状態情報に基づいて、漫然度合いのパラメータ値を取得する。ここで、漫然度合いのパラメータ値は、例えば、開眼幅、開眼持続時間、開眼累計時間が統計時間窓で占める割合等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
頭部姿勢情報に基づいて運転者画像における運転者の頭部位置を決定して頭部位置情報を得、所定時間内の頭部位置情報に基づいて居眠り度合いのパラメータ値を取得する。ここで、居眠り度合いのパラメータ値は、例えば、居眠りうなずき状態、居眠りうなずき幅、居眠りうなずき回数、居眠りうなずき頻度、居眠りうなずき持続時間等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
所定時間内の目部状態情報に基づいて、閉眼度合いのパラメータ値を取得する。ここで、閉眼度合いのパラメータ値は、例えば、閉眼回数、閉眼頻度、閉眼持続時間、閉眼幅、半分閉眼回数、半分閉眼頻度、閉眼累計時間が統計時間窓で占める割合等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
所定時間内の目部状態情報に基づいて、まばたき度合いのパラメータ値を取得する。本開示の実施例では、目部状態情報に基づいて、目が開眼状態から閉眼状態に変化し更に開眼状態に変化する過程は、1回のまばたき動作が完了したと考えられ、1回のまばたき動作に必要な時間が例えば0.2s〜1s程度であってよい。ここで、まばたき度合いのパラメータ値は、例えば、まばたき回数、まばたき頻度、まばたき持続時間、まばたき累計時間が統計時間窓で占める割合等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、
所定時間内の口部状態情報に基づいて、あくび度合いのパラメータ値を取得する。ここで、あくび度合いのパラメータ値は、例えば、あくび状態、あくび回数、あくび持続時間、あくび頻度等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されない。
上記実施例では、深層学習技術に基づいて頭部姿勢情報を取得し、この頭部姿勢情報に基づいて運転者画像における運転者の頭部位置、顔向き及び視線方向を決定することができ、頭部位置情報、顔向き情報及び視線方向情報の正確率が高くなって、頭部姿勢情報に基づいて決定された、運転者状態を表すための指標のパラメータ値がより精確になって、運転者状態の検出結果の正確率の向上に寄与する。
ここで、頭部位置情報は、運転者の頭部位置が正常であるか否か、例えば、運転者が頭を下げているか否か、頭を上げているか否か、頭を傾けているか否か、又は頭を後ろに向けているか否か等を決定することに利用可能である。頭部位置情報は、選択可能に、頭部のピッチ角、ヨー角及びロール角によって決定されてよい。顔向き情報は、運転者の顔方向が正常であるか否か、例えば、運転者が顔を横に向けているか否か、又は振り返っているか否か等を決定することに利用可能である。顔向き情報は、選択可能に、運転者の顔の真正面と運転者の運転している車両の真正面との間の夾角であってよい。上記視線方向情報は、運転者の視線方向が正常であるか否か、例えば、運転者が前方を見ているか否か等を決定することに利用可能であり、視線方向情報は、運転者の視線がずれたか否か等を判断することに利用可能である。視線方向情報は、選択可能に、運転者の視線と運転者の運転している車両の真正面との間の夾角であってよい。
選択可能な一例では、顔向き情報が第1向きより大きく、且つ第1向きより大きい現象がN1フレーム持続した(例えば、9フレーム又は10フレームなど持続した)と判断された場合に、運転者に1回の長時間且つ大角度の頭回し現象が発生したと決定し、1回の長時間且つ大角度の頭回しを記録してもよく、今回の頭回し持続時間を記録してもよく、また、顔向き情報が第1向きより大きくないが、第2向きより大きく、且つ第1向きより大きくなく第2向きより大きい現象がN1フレーム持続した(N1が0より大きい整数であり、例えば、9フレーム又は10フレーム等持続した)と判断された場合に、運転者に1回の長時間且つ小角度の頭回し現象が発生したと決定し、1回の小角度頭回しずれを記録してもよく、今回の頭回し持続時間を記録してもよい。
選択可能な一例では、視線方向情報と車両の真正面との間の夾角が第1夾角より大きく、且つ第1夾角より大きい現象がN2フレーム持続した(例えば、8フレーム又は9フレーム等持続した)と判断された場合に、運転者に1回の視線重度ずれ現象が発生したと決定し、1回の視線重度ずれを記録してもよく、今回の視線重度ずれ持続時間を記録してもよく、また、視線方向情報と車両の真正面との間の夾角が第1夾角より大きくないが、第2夾角より大きく、且つ第1夾角より大きくなく第2夾角より大きい現象がN2フレーム持続した(N2が0より大きい整数であり、例えば、9フレーム又は10フレーム等持続した)と判断された場合に、運転者に1回の視線ずれ現象が発生したと決定し、1回の視線ずれを記録してもよく、今回の視線ずれ持続時間を記録してもよい。
選択可能な一例では、上記第1向き、第2向き、第1夾角、第2夾角、N1及びN2の値は実際の状況に応じて設定可能であり、本開示では数値の大小が限定されない。
上記実施例では、深層学習技術に基づいて目部状態情報を取得し、この目部状態情報に基づいて閉眼度合いのパラメータ値、漫然度合いのパラメータ値及びまばたき度合いのパラメータ値を決定することができ、閉眼度合いのパラメータ値、漫然度合いのパラメータ値及びまばたき度合いのパラメータ値の正確率が高くなって、目部状態情報に基づいて決定された、運転者状態を表すための指標のパラメータ値がより精確になって、運転者状態の検出結果の正確率の向上に寄与する。
上記実施例では、深層学習技術に基づいて口部状態情報を取得し、この口部状態情報に基づいてあくび度合いを表すためのパラメータ値を決定することができ、あくび度合いのパラメータ値の正確率が高くなって、口部状態情報に基づいて決定された、運転者状態を表すための指標のパラメータ値がより精確になって、運転者状態の検出結果の正確率の向上に寄与する。
上記実施例では、第6ニューラルネットワークは、深層学習技術に基づいてサンプル画像によって予め訓練されてよく、訓練済みの第6ニューラルネットワークは、入力された画像に対して視線方向情報を直接出力することができ、視線方向情報の正確率が高くなって、そのように運転者状態の検出結果の正確率が高くなる。
ここで、様々な形態で第6ニューラルネットワークを訓練してもよく、本開示ではそれについて限定しない。例えば、そのうちの一形態では、少なくとも目部画像を含むサンプル画像を撮影するカメラ及びこのサンプル画像における瞳に基づいて第1視線方向を決定し、第6ニューラルネットワークによってサンプル画像の視線方向を検出して第1検出視線方向を得、第1視線方向と第1検出視線方向に基づいて第6ニューラルネットワークを訓練するようにしてよい。更に例えば、そのうちの一形態では、少なくとも目部画像を含むサンプル画像における瞳基準点の第1カメラ座標系での第1座標を決定し、サンプル画像における角膜基準点の第1カメラ座標系での第2座標を決定し、第1座標と第2座標に基づいてサンプル画像の第2視線方向を決定し、第6ニューラルネットワークによってサンプル画像に対して視線方向検出を行って第2検出視線方向を得、第2視線方向と前記第2検出視線方向に基づいて第6ニューラルネットワークを訓練する。
そのうちのいくつかの選択可能な例では、頭部姿勢情報に基づいて運転者画像における運転者の視線方向を決定して視線方向情報を取得する操作は、顔キーポイントのうちの目キーポイントに基づいて位置決めされた目画像によって瞳縁位置を決定し、瞳縁位置に基づいて瞳中心位置を計算する操作と、瞳中心位置と目中心位置に基づいて頭部姿勢情報に対応する頭部姿勢での眼球回転角度情報を取得する操作と、頭部姿勢情報と眼球回転角度情報に基づいて運転者の視線方向を決定して視線方向情報を得る操作と、を含んでよい。
ここで、顔キーポイントのうちの目キーポイントに基づいて位置決めされた目画像によって瞳縁位置を決定する操作は、第7ニューラルネットワークによって、顔キーポイントに基づいて分割された画像における目画像に対して瞳縁位置の検出を行い、この第7ニューラルネットワークの出力した情報に基づいて瞳縁位置を取得する操作を含んでよい。
選択可能な一例として、運転者画像から目画像を切り抜き拡大し、且つこの切り抜き拡大した後の目画像を、瞳の位置を決定するための第7ニューラルネットワークに提供して瞳キーポイント検出を行い、検出された瞳キーポイントを出力し、第7ニューラルネットワークの出力した瞳キーポイントに基づいて瞳縁位置を取得し、瞳縁位置を計算する(例えば、円心位置を計算する)ことで、瞳中心位置を取得できる。
選択可能な一例として、上記上眼瞼線と下眼瞼線に基づいて目中心位置を取得してよく、例えば、上眼瞼線と下眼瞼線の全てのキーポイントの座標情報を加算し、且つ上眼瞼線と下眼瞼線の全てのキーポイントの数量で割り、得られた座標情報を目中心位置とする。他の形態を用いて目中心位置を取得してもよいことは言うまでもなく、例えば、検出された顔キーポイントのうちの目キーポイントに対して計算して目中心位置を取得してよく、本開示では目中心位置を取得する実施形態が限定されない。
本実施例は、瞳キーポイント検出を基礎として瞳中心位置を取得することによって、より正確な瞳中心位置を取得でき、眼瞼線の位置決定を基礎として目中心位置を取得することによって、より正確な目中心位置を取得でき、そのようにして、瞳中心位置と目中心位置で視線方向を決定する時に、正確な視線方向情報を取得できる。また、瞳キーポイント検出によって瞳中心位置を決定し、且つ瞳中心位置と目中心位置で視線方向を決定することによって、視線方向を決定する実施形態に正確率を持たせると共に、実現しやすい特徴を兼備させる。
選択可能な一例では、本開示は、従来のニューラルネットワークを用いて瞳縁位置の検出と目中心位置の検出を実現してよい。
ここで、第7ニューラルネットワークは、深層学習技術に基づいて予め訓練されたものであってよい。本実施例では、第7ニューラルネットワークを用いて瞳縁位置の検出を行うことで、瞳縁位置の高精度検出を実現して、視線方向情報の正確率を高めることができる。
選択可能な一例では、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する時に、所定時間内の視線方向情報の基準視線方向に対するずれ角度に基づいて、視線方向ずれ度合いのパラメータ値を取得してよい。
ここで、基準視線方向は、予め設定されたものであってもよく、又は、運転者画像の所在するビデオ中の前のNフレームの運転者画像に基づいて決定された平均視線方向であってもよい。ここで、Nが1より大きい整数である。
本開示の実施例では、目が開眼状態にあり且つ所定時間持続した時に、漫然状態にあると考えられる。選択可能な一例では、所定時間内の目部状態情報に基づいて、漫然度合いのパラメータ値を取得する操作は、上記目部状態情報に基づいて、運転者の目が開眼状態にあり且つ所定漫然時間に到達するまで持続した時に、運転者が漫然状態にあると決定する操作と、所定時間内の目部状態情報に基づいて、漫然度合いのパラメータ値を取得する操作と、を含んでよい。ここで、この所定時間は上記所定漫然時間を含む。
本開示の実施例では、頭部を正常な頭部位置から突然に下へ下げてから正常な頭部位置に復帰した(即ち、頭部姿勢情報中のピッチ角が正常な運転状態時の0度から所定短い時間内に所定角度に変化してから0度に復帰した時)過程は、1回の居眠りで頭を軽く下げた行動と見なしてよい。選択可能な一例では、所定時間内の頭部位置情報に基づいて、居眠り度合いのパラメータ値を取得する操作は、頭部位置情報に基づいて、運転者の頭部位置の所定基準頭部位置に対するずれ度合いが第1所定時間内に所定ずれ範囲に到達し、且つ第2所定時間内に所定基準頭部位置に復帰した時に、運転者が居眠り状態にあると決定する操作と、所定時間内の頭部位置情報に基づいて、居眠り度合いのパラメータ値を取得する操作と、を含んでよく、ここで、上記所定時間は第1所定時間と第2所定時間を含む。
本開示の実施例では、口が閉状態から開状態に変化し、更に閉状態になる過程は、1回のあくび動作を完了したと考えられ、1回のあくび動作に必要な時間が一般に400msより大きい。選択可能な一例では、所定時間内の口部状態情報に基づいてあくび度合いのパラメータ値を取得する操作は、口部状態情報に基づいて、運転者の口が閉口状態から開口状態に変化し、更に閉口状態に復帰した時間が所定時間範囲内にある時に、運転者が1回のあくび動作を完了したと決定する操作と、所定時間内の口部状態情報に基づいて、あくび度合いのパラメータ値を取得する操作と、を含んでよい。ここで、この所定時間は、上記運転者の口が閉口状態から開口状態に変化し、更に閉口状態に復帰した時間を含む。
そのうちのいくつかの実施形態では、運転者疲労状態を表すための指標のパラメータ値に基づいて、運転者疲労状態の検出結果を決定する操作は、いずれか一つ又は複数の運転者疲労状態を表すための指標のパラメータ値が所定疲労条件を満たした時に、運転者疲労状態の検出結果を疲労状態と決定する操作、及び/又は、運転者疲労状態を表すための指標のパラメータ値がいずれも所定疲労条件を満たさない時に、運転者疲労状態の検出結果を非疲労状態と決定する操作を含んでよい。
ここで、上記所定疲労条件は、複数の疲労等級条件を含んでよい。これに応じて、いずれか一つ又は複数の運転者疲労状態を表すための指標のパラメータ値が所定疲労条件を満たした時に、運転者疲労状態の検出結果を疲労状態と決定する上記操作は、運転者疲労状態を表すための指標のパラメータ値が満たした疲労等級条件に基づいて、疲労状態等級を決定する操作と、決定された疲労状態等級を運転者疲労状態の検出結果とする操作と、を含む。
この実施例では、運転者疲労状態の検出結果は疲労運転度合いで表し、この疲労運転度合いは、例えば、正常運転レベル(即ち、非疲労状態)と疲労運転レベル(即、疲労状態等級)を含んでよく、そのうちの疲労運転レベルは1つの疲労状態等級であってもよく、複数の異なる疲労状態等級に分けてもよく、例えば、上記疲労運転レベルは、プロンプト疲労レベル(軽度疲労レベルと呼んでもよい)及び警告疲労レベル(重度疲労レベルと呼んでもよい)に分けてもよい。また、疲労運転度合いは、例えば、軽度疲労レベル、中等度疲労レベル及び重度疲労レベル等のようにより多いレベルに分けてもよい。本開示では疲労運転度合いに含まれる異なる疲労状態等級が限定されない。
選択可能な一例では、疲労運転度合いに含まれるそれぞれの疲労状態等級はいずれも対応する疲労等級条件があり、運転者疲労状態を表すための指標のパラメータ値が満たした疲労等級条件に対応する疲労状態等級を疲労運転度合いとしてもよく、又は運転者疲労状態を表すための指標のパラメータ値がいずれの疲労等級条件も満たさない非疲労状態を疲労運転度合いとしてもよい。
選択可能な一例では、正常運転レベル(即ち、非疲労状態)に対応する所定条件(即ち、所定疲労条件を満たさない)は、以下を含んでよい。
条件20a、半分閉眼や閉眼現象がない。
条件20b、あくび現象がない。
上記条件20a、条件20bの全てを満たした場合に、運転者が現在正常運転レベル(即ち、非疲労状態)にある。
選択可能な一例では、プロンプト疲労レベルに対応する疲労等級条件は、以下を含んでよい。
条件20c、半分閉眼現象があった。
条件20d、あくび現象があった。
上記条件20c、条件20dのうちのいずれか一方を満たした場合に、運転者が現在プロンプト疲労レベルにある。
選択可能な一例では、警告疲労レベルに対応する疲労等級条件は、以下を含んでよい。
条件20d、閉眼現象があったか、所定時間内の閉眼回数が所定回数に到達したか、所定時間内の閉眼時間が所定時間に到達した。
条件20e、所定時間内のあくびの回数が所定回数に到達した。
上記条件20d、条件20eのうちのいずれか一方を満たした場合に、運転者が現在警告疲労レベルにある。
そのうちのいくつかの実施形態では、運転者注意散漫状態を表すための指標のパラメータ値に基づいて、運転者注意散漫状態の検出結果を決定する操作は、いずれか一つ又は複数の運転者注意散漫状態を表すための指標のパラメータ値が所定注意散漫条件を満たした時に、運転者注意散漫状態の検出結果を注意散漫状態と決定する操作、及び/又は、運転者注意散漫状態を表すための指標のパラメータ値がいずれも所定注意散漫条件を満たさない時に、運転者注意散漫状態の検出結果を非注意散漫状態と決定する操作を含んでよい。
ここで、上記所定注意散漫条件は、複数の注意散漫等級条件を含んでよい。これに応じて、いずれか一つ又は複数の運転者注意散漫状態を表すための指標のパラメータ値が所定注意散漫条件を満たした時に、運転者注意散漫状態の検出結果を注意散漫状態と決定する上記操作は、運転者注意散漫状態を表すための指標のパラメータ値が満たした注意散漫等級条件に基づいて、注意散漫状態等級を決定する操作と、決定された注意散漫状態等級を運転者注意散漫状態の検出結果とする操作と、を含む。
この実施例では、運転者注意散漫状態の検出結果は注意散漫運転度合いで表してよく、この注意散漫運転度合いは、例えば、運転者注意力集中(運転者の注意力が散漫になっていない非注意散漫状態)、運転者注意力散漫(注意散漫状態)を含んでよい。例えば、視線方向ずれ角度、顔向きずれ角度、頭部位置のずれ角度がいずれも第1所定角度より小さく、開眼持続時間が第1所定時間より小さい場合に、運転者注意力集中(運転者の注意力が散漫になっていない非注意散漫状態)とする。そのうちの運転者注意力散漫レベルは、例えば、運転者注意力軽度散漫、運転者注意力中等度散漫、運転者注意力重度散漫等を含んでよい。そのうちの運転者注意力散漫レベルは、運転者の注意散漫状態を表すための指標のパラメータ値が満たした注意散漫等級条件によって決定してよい。例えば、視線方向ずれ角度、顔向きずれ角度及び頭部位置のずれ角度のうちのいずれか一方が所定角度より小さくなく、且つ持続時間が第1所定時間より大きくなく、且つ第2所定時間より小さく、又は開眼持続時間が第1所定時間より大きくなく、且つ第2所定時間より小さい場合に、運転者注意力軽度散漫とし、視線方向ずれ角度と顔向きずれ角度のうちのいずれか一方が所定角度より小さくなく、且つ持続時間が第2所定時間より大きくなく、且つ第3所定時間より小さく、又は開眼持続時間が第2所定時間より大きくなく、且つ第3所定時間より小さい場合に、運転者注意力中等度散漫とし、視線方向ずれ角度と顔向きずれ角度のうちのいずれか一方が所定角度より小さくなく、且つ持続時間が第3所定時間より小さくなく、又は開眼持続時間が第3所定時間より小さくない場合に、運転者注意力重度散漫とする。
図3は本開示の運転状態検出方法のまた1つの実施例のフローチャートである。上記図1又は図2に比べると、この実施例の運転状態検出方法は、運転者画像に対して所定注意散漫動作検出を行う関連操作を更に含み、図3に示すように、この運転者画像に対して所定注意散漫動作検出を行う実施例は、以下の操作を含む。
302、運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定する。
本開示の実施例における所定注意散漫動作は、例えば、喫煙動作、飲水動作、飲食動作、電話通話動作、娯楽動作、化粧動作等のような、運転者の注意力を散らせる可能性がある任意の注意散漫動作であってもよい。ここで、飲食動作としては、例えば、果物、間食等の食物を食べる動作が挙げられ、娯楽動作としては、例えば、メッセージを編集したり、ゲームをしたり、歌を歌ったりする等の電子機器で実行する任意の動作が挙げられる。そのうちの電子機器は、例えば、携帯端末、パームトップ型パソコン、ゲーム機等であってよい。
所定注意散漫動作が発生した場合に、操作304を実行する。逆の場合には、所定注意散漫動作が発生しなかった場合に、本実施例の後続工程を実行しない。
選択可能な一例では、この操作302は、プロセッサによってメモリに記憶された該当するコマンドを呼び出して実行されてもよく、プロセッサによって動作する第2検出モジュールによって実現されてもよい。
304、所定時間内に所定注意散漫動作が発生したか否かの決定結果に基づいて、運転者の注意散漫度合いを表すための指標のパラメータ値を取得する。
ここで、注意散漫度合いのパラメータ値は、例えば、所定注意散漫動作の回数、所定注意散漫動作の持続時間、所定注意散漫動作の頻度等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されない。例えば、喫煙動作の回数、その持続時間、その頻度、飲水動作の回数、その持続時間、その頻度、電話通話動作の回数、その持続時間、その頻度等を含む。
選択可能な一例では、この操作304は、プロセッサによってメモリに記憶された該当するコマンドを呼び出して実行されてもよく、プロセッサによって動作する第1取得モジュールによって実現されてもよい。
306、上記の運転者の注意散漫度合いを表すための指標のパラメータ値に基づいて、運転者の所定注意散漫動作の検出結果を決定する。
選択可能な一例では、この操作306は、プロセッサによってメモリに記憶された該当するコマンドを呼び出して実行されてもよく、プロセッサによって動作する第3決定モジュールによって実現されてもよい。
そのうちのいくつかの実施形態では、運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定する操作302は、
運転者画像の特徴を抽出する操作と、
特徴に基づいて所定注意散漫動作を含む可能性がある複数の候補枠を抽出する操作と、
複数の候補枠に基づいて動作目標枠を決定する操作と、
動作目標枠に基づいて所定注意散漫動作の分類検出を行って、所定注意散漫動作が発生したか否かを決定する操作と、を含んでよく、
ここで、動作目標枠は、顔の局所領域と動作関連物を含み、更に選択可能に手部領域を含んでもよい。ここで、顔の局所領域は、例えば、口部領域、耳部領域、目部領域等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されなく、及び/又は、動作関連物は、例えば、容器、タバコ、携帯電話、食物、工具、飲料ボトル、眼鏡、マスク等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されない。
別の実施形態では、運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定する操作302は、運転者画像に対して所定注意散漫動作に対応する目標対象検出を行って、目標対象の検出枠を得る操作と、目標対象の検出枠に基づいて所定注意散漫動作が発生したか否かを決定する操作と、を含んでよい。
本実施例は、運転者に対して所定注意散漫動作検出を行う実現方法を提供し、所定注意散漫動作に対応する目標対象を検出し、検出された目標対象の検出枠に基づいて所定注意散漫動作が発生したか否かを決定することによって、運転者の注意力が散漫になったか否かを判断して、正確な運転者の所定注意散漫動作検出の結果の取得に寄与して、運転状態検出結果の正確率の向上に寄与する。
例えば、所定注意散漫動作が喫煙動作である時に、運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定する上記操作は、第8ニューラルネットワークによって運転者画像に対して顔検出を行って顔検出枠を取得し、顔検出枠の特徴情報を抽出する操作と、この第8ニューラルネットワークによって顔検出枠の特徴情報に基づいて喫煙動作が発生したか否かを決定する操作と、を含んでよい。
更に例えば、所定注意散漫動作が飲食動作/飲水動作/電話通話動作/娯楽動作(即ち、飲食動作及び/又は飲水動作及び/又は電話通話動作及び/又は娯楽動作)/化粧動作である時に、運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定する上記操作は、以下の操作を含んでよい。第9ニューラルネットワークによって運転者画像に対して飲食動作/飲水動作/電話通話動作/娯楽動作/化粧動作に対応する所定目標対象の検出を行って、所定目標対象の検出枠を得、そのうちの所定目標対象は手部、口部、目部及び動作関連物を含み、動作関連物は例えば、容器、食物、電子機器、化粧品等の中のいずれか一つ又は複数を含んでもよいが、それらに限定されない。所定目標対象の検出枠に基づいて所定注意散漫動作が発生したか否かを決定し、所定注意散漫動作が発生したか否かの決定結果は、飲食動作/飲水動作/電話通話動作/娯楽動作が発生しなかったこと、飲食動作が発生したこと、飲水動作が発生したこと、電話通話動作が発生したこと、娯楽動作が発生したこと、化粧動作が発生したことの中の一項を含んでもよい。
いくつかの選択可能な例では、所定注意散漫動作が飲食動作/飲水動作/電話通話動作/娯楽動作(即ち、飲食動作及び/又は飲水動作及び/又は電話通話動作及び/又は娯楽動作)/化粧動作である時に、所定目標対象の検出枠に基づいて、所定注意散漫動作が発生したか否かを決定する操作は、手部の検出枠、口部の検出枠、目部の検出枠及び動作関連物の検出枠が検出されたか否か、および、手部の検出枠と動作関連物の検出枠とが重なっているか否か、動作関連物の種類及び動作関連物の検出枠と口部の検出枠又は目部の検出枠との間の距離が所定条件を満たすか否かに応じて、所定注意散漫動作が発生したか否かを決定する操作を含んでよい。
選択可能に、手部の検出枠と動作関連物の検出枠とが重なっており、動作関連物の種類が容器又は食物であり、且つ動作関連物の検出枠と口部の検出枠とが重なっている場合に、飲食動作、飲水動作又は化粧動作が発生したと決定し、及び/又は、手部の検出枠と動作関連物の検出枠とが重なっており、動作関連物の種類が電子機器であり、且つ動作関連物の検出枠と口部の検出枠との間の最小距離が第1所定距離より小さく、又は動作関連物の検出枠と目部の検出枠との間の最小距離が第2所定距離より小さい場合に、娯楽動作又は電話通話動作が発生したと決定する。
また、手部の検出枠、口部の検出枠及びいずれか1つの動作関連物の検出枠が同時に検出されなく、且つ手部の検出枠、目部の検出枠及びいずれか1つの動作関連物の検出枠が同時に検出されなかった場合に、飲食動作、飲水動作、電話通話動作、娯楽動作及び化粧動作が検出されなかったことを、所定注意散漫動作が発生したか否かを決定する決定結果とし、及び/又は、手部の検出枠と動作関連物の検出枠とが重なっていない場合に、飲食動作、飲水動作、電話通話動作、娯楽動作及び化粧動作が検出されなかったことを、注意散漫動作が発生したか否かを決定する決定結果とし、及び/又は、動作関連物の種類が容器又は食物であり、且つ動作関連物の検出枠と口部の検出枠とが重なっておらず、及び/又は、動作関連物の種類が電子機器であり、且つ動作関連物の検出枠と口部の検出枠との間の最小距離が第1所定距離より小さくなく、又は、動作関連物の検出枠と目部の検出枠との間の最小距離が第2所定距離より小さくない場合に、飲食動作、飲水動作、電話通話動作、娯楽動作及び化粧動作が検出されなかったことを所定注意散漫動作が発生したか否かの決定結果とする。
上記例において、第8ニューラルネットワーク、第9ニューラルネットワークによって運転者画像に対して所定注意散漫動作検出を行って各種の所定注意散漫動作の発生確率を出力してよく、所定確率閾値より大きく且つ確率値が最も高い注意散漫動作を選択して所定注意散漫動作の検出結果としてよく、各種の所定注意散漫動作の確率がいずれも所定確率閾値より低ければ、所定注意散漫動作が検出されなかったと考えられる。
また、上記の運転者画像に対して所定注意散漫動作検出を行う実施例では、所定注意散漫動作が発生したと決定した場合に、検出された注意散漫動作をプロンプトする操作を更に含んでよく、例えば、喫煙動作が検出されると、タバコを吸うことが検出されたことをプロンプトし、飲水動作が検出されると、飲水ことが検出されたことをプロンプトし、電話通話動作が検出されると、電話通話が検出されたことをプロンプトして、運転者の注意を喚起して注意力を運転に集中させる。
また、上記の運転者画像に対して所定注意散漫動作検出を行う実施例では、所定注意散漫動作が発生したと決定した場合に、
注意散漫度合いを表すための指標のパラメータ値が満たした注意散漫動作等級条件に基づいて、注意散漫動作等級を決定する操作と、
決定された注意散漫動作等級を運転者の所定注意散漫動作の検出結果とする操作と、を更に含んでよい。
本実施例では、運転者の所定注意散漫動作の検出結果は、所定注意散漫動作が発生しなかったこと(即ち、所定注意散漫動作が検出されなく、集中運転レベルと呼んでもよい)、所定注意散漫動作が発生したこと(即ち、所定注意散漫動作が検出された)を含んでよい。また、上記運転者の所定注意散漫動作の検出結果は注意散漫動作等級、例えば、プロンプト注意散漫レベル(軽度注意散漫レベルと呼んでもよい)と警告注意散漫レベル(重度注意散漫レベルと呼んでもよい)であってもよい。また、注意散漫動作等級は、例えば、非注意散漫レベル、軽度注意散漫レベル、中等度注意散漫レベル及び重度注意散漫レベル等のようにより多いレベルに分けてもよい。本開示の各実施例の注意散漫動作等級を他の方式で分けてもよく、上記レベルに分けることに限定されないことは言うまでもない。
そのうちの注意散漫動作等級は注意散漫度合いを表すための指標のパラメータ値が満たした注意散漫動作等級条件によって決定してよい。例えば、運転者の所定注意散漫動作の検出結果は所定注意散漫動作が発生しなかったことになり、なお、所定注意散漫動作が発生したと決定した時に、所定注意散漫動作の持続時間が第1所定時間より小さく、且つ頻度が第1所定頻度より小さいことが検出された場合に、注意散漫動作等級が軽度注意散漫レベルとなり、所定注意散漫動作の持続時間が第1所定時間より大きく、及び/又は頻度が第1所定頻度より大きいことが検出された場合に、注意散漫動作等級が重度注意散漫レベルとなる。
また、本開示の上記各実施例では、運転者状態の検出結果に基づいて、警報及び/又はインテリジェント運転制御を行う操作を更に含んでよい。ここで、運転者状態の検出結果は、疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作の検出結果の中のいずれか一つ又は複数を含む。
そのうちのいくつかの実施形態では、運転者状態の検出結果に基づいて、警報及び/又はインテリジェント運転制御を行う操作は、以下の操作を含んでよい。
運転者状態の検出結果が所定警報条件を満たした時に、警報条件に対応するプロンプト/警報情報を出力する。例えば、声(例えば、音声又はベル等)/光(点灯又は点滅等)/振動等の方式で運転者にプロンプトして、運転者の注意を喚起して、運転者に散った注意力を運転に戻させたり又は運転者を休憩させたりして、安全運転を可能にして、道路交通事故を回避し、及び/又は、
運転者状態の検出結果が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替えて、安全運転を可能にして、道路交通事故を回避する。
本実施例では、運転者状態の検出結果に基づいて所定警報条件を満たした時に警報条件に対応するプロンプト/警報情報を出力することで、正常な運転状態を保持するように運転者の注意を促して、安全運転を保障して、道路交通事故を回避する。所定運転モード切り替え条件を満たした時に運転モードを自動運転モードに切り替え、自動運転モードによって車両の安全運転を可能にして、道路交通事故を回避する。
そのうちのいくつかの選択可能な例では、運転者状態の検出結果が所定警報条件を満たした時に、警報条件に対応するプロンプト/警報情報を出力する操作は、以下の操作を含んでよい。
疲労状態の検出結果が疲労状態である時に、疲労状態の検出結果に対応するプロンプト/警報情報を出力する。ここで、運転者疲労状態の検出結果が疲労状態等級である時に、疲労状態等級に基づいて対応するプロンプト又は警報情報を出力し、及び/又は、
注意散漫状態の検出結果が注意散漫状態である時に、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する。ここで、運転者の注意散漫状態の検出結果が注意散漫状態等級である時に、注意散漫状態等級に基づいて対応するプロンプト又は警報情報を出力し、及び/又は、
所定注意散漫動作の検出結果として所定注意散漫動作が発生した時に、所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する。ここで、所定注意散漫動作の検出結果が注意散漫動作等級である時に、注意散漫動作等級に基づいて対応するプロンプト又は警報情報を出力し、及び/又は、
運転者疲労状態の検出結果として疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作が検出された検出結果のうちの任意の二つ又は三つがあった時に、所定方式でプロンプト/警報情報を出力する。例えば、
運転者状態の検出結果が疲労状態と注意散漫状態である時に、疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果と注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、及び/又は、
運転者状態の検出結果が注意散漫状態であり、所定注意散漫動作が発生した時に、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、注意散漫状態の検出結果と所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、及び/又は、
運転者状態の検出結果が疲労状態であり、所定注意散漫動作が検出された時に、疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果と所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、及び/又は、
運転者状態の検出結果が疲労状態、注意散漫状態であり、所定注意散漫動作が検出された時に、疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果と注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、注意散漫状態の検出結果と所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果と所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果、注意散漫状態の検出結果及び所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する。例えば、上記実施例によれば、疲労状態の検出結果が疲労状態である時に、疲労状態の検出結果に対応するプロンプト/警報情報を出力する操作は、以下の操作を含んでよい。
頭部位置情報に基づいて、運転者が居眠りうなずき動作をしていることを見つけた時に、運転者疲労状態の検出結果を疲労状態と決定し、疲労プロンプト情報を出力する。運転者がずっと居眠りうなずき動作をしている場合に、運転者の疲労度合いが深刻になり続け(即ち、疲労状態等級が高くなる)、疲労度合いが順に軽度疲労レベル、中等度疲労レベル、重度疲労レベルになり、よって、運転者疲労状態の検出結果が非疲労状態になり、即ち運転者が正常な運転状態に復帰するまで、X秒毎に疲労警報情報を1回出力し、ここで、Xが0より大きい数値であり、
目部状態情報に基づいて、運転者が両眼を閉じた時間が所定時間に到達するまで持続したか、まばたき頻度が所定数値に到達したことを見つけた場合に、運転者疲労状態の検出結果を疲労状態と決定し、疲労プロンプト情報を出力する。運転者が両眼を閉じた時間が増加し続けているか、まばたき頻度がずっと高すぎている場合に、運転者の疲労度合いが深刻になり続け(即ち、疲労状態等級が高くなる)、疲労度合いが順に軽度疲労レベル、中等度疲労レベル、重度疲労レベルになり、よって、運転者疲労状態の検出結果が非疲労状態になり、即ち運転者が正常な運転状態に復帰するまで、X秒毎に疲労警報情報を1回出力し、
口部状態情報に基づいて、運転者があくび動作をしていることを見つけた場合に、運転者疲労状態の検出結果を疲労状態と決定し、疲労プロンプト情報を出力する。運転者がずっとあくび動作をしている場合に、運転者の疲労度合いが深刻になり続け(即ち、疲労状態等級が高くなる)、疲労度合いが順に軽度疲労レベル、中等度疲労レベル、重度疲労レベルになり、よって、運転者疲労状態の検出結果が非疲労状態になり、即ち運転者が正常な運転状態に復帰するまで、X秒毎に疲労警報情報を1回出力し、
頭部位置情報、目部状態情報、口部状態情報に基づいて、運転者が居眠りでうなずいていること、両眼の閉眼持続時間が所定時間に到達したこと、まばたき頻度が所定数値に到達したこと、あくびをしたことといった4種の行動のうちの二つ又は二つ以上があったことを見つけた場合に、運転者が重度疲労レベルにあると判定し、よって、運転者疲労状態の検出結果が非疲労状態になり、即ち運転者が正常な運転状態に復帰するまで、X秒毎に疲労警報情報を1回出力する。例えば、上記実施例によれば、注意散漫状態の検出結果が注意散漫状態である時に、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する操作は、以下の操作を含んでよい。
頭部位置情報に基づいて、運転者の頭部位置ずれ角度が所定範囲を超え、且つずれ時間がY秒を超えた場合に、運転者注意散漫状態の検出結果を注意散漫状態と決定し、注意散漫プロンプト情報を出力する。運転者の頭部位置ずれ度合いが所定範囲を超えたずれ時間が増加し続けるにつれて、運転者の注意散漫度合いが深刻になり続け(即ち、注意散漫状態等級が高くなる)、注意散漫度合いが順に運転者注意力軽度散漫、運転者注意力中等度散漫、運転者注意力重度散漫等になり、よって、運転者注意散漫状態の検出結果が非注意散漫状態になり、即ち運転者が正常な運転状態に復帰するまで、X秒毎に注意散漫警報情報を1回出力し、
頭部位置情報と視線方向情報に基づいて、運転者の頭部位置ずれ角度が所定範囲を超えていないが、視線方向ずれ角度が所定視線安全範囲を超え、且つ持続時間がY秒を超えた場合に、運転者注意散漫状態の検出結果を注意散漫状態と決定し、注意散漫プロンプト情報を出力する。視線方向ずれ角度が所定視線安全範囲を超えた持続時間が増加するにつれて、運転者の注意散漫度合いが深刻になり続け(即ち、注意散漫状態等級が高くなる)、注意散漫度合いが順に運転者注意力軽度散漫、運転者注意力中等度散漫、運転者注意力重度散漫等になり、よって、運転者注意散漫状態の検出結果が非注意散漫状態になり、即ち運転者が正常な運転状態に復帰するまで、X秒毎に注意散漫警報情報を1回出力し、
頭部位置情報、視線方向情報及び目開閉状態情報に基づいて、運転者の頭部位置ずれ角度が所定範囲を超えておらず、且つ視線方向ずれ角度が所定視線安全範囲を超えていないが、運転者が漫然状態にあることが検出された場合に、運転者注意散漫状態の検出結果を注意散漫状態と決定し、注意散漫プロンプト情報を出力する。運転者の注意散漫度合いが深刻になり続け(即ち、注意散漫状態等級が高くなる)、注意散漫度合いが順に運転者注意力軽度散漫、運転者注意力中等度散漫、運転者注意力重度散漫等になり、よって、運転者注意散漫状態の検出結果が非注意散漫状態になり、即ち運転者が正常な運転状態に復帰するまで、X秒毎に注意散漫警報情報を1回出力する。
選択可能に、上記実施例では、
疲労状態に対応するプロンプト/警報情報を出力した後の所定時間内に、運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報(例えば、注意散漫状態に対応するプロンプト/警報情報、所定注意散漫動作の検出結果に対応するプロンプト/警報情報)を抑える操作、及び/又は、
注意散漫状態に対応するプロンプト/警報情報を出力した後の所定時間内に、運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報(例えば、疲労状態に対応するプロンプト/警報情報、所定注意散漫動作の検出結果に対応するプロンプト/警報情報)を抑える操作、及び/又は、
所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力した後の所定時間内に、運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報(例えば、注意散漫状態に対応するプロンプト/警報情報、疲労状態に対応するプロンプト/警報情報)を抑える操作を更に含んでよい。
上記実施例では、1種の運転者状態のプロンプト/警報情報を出力した後の所定時間内に、他の検出結果に対応するプロンプト/警報情報を抑えることで、運転者にプロンプトして安全に運転させる目的を実現すると共に、多種のプロンプト/警報情報を繰り返して出力して運転者の正常な運転の邪魔になることを回避することができ、そのように運転の安全性が高くなる。
そのうちのいくつかの実施形態では、運転者状態の検出結果が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替える操作は、疲労状態等級及び/又は注意散漫状態等級及び/又は注意散漫動作等級が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替える操作を含んでよい。
また、本開示の各実施例では、運転者状態の検出結果を決定した後、運転者状態の検出結果を出力してもよく、例えば、運転者状態の検出結果をローカル出力し、及び/又は、運転者状態の検出結果を遠隔出力する。ここで、運転者状態の検出結果をローカル出力することは、運転状態検出装置又は運転者監視システムによって運転者状態の検出結果を出力したり、車両中の中央制御システムへ運転者状態の検出結果を出力したりするということであり、それによって車両がこの運転者状態の検出結果に基づいて車両に対してインテリジェント運転制御を行うことができる。運転者状態の検出結果を遠隔出力するのは、例えば、クラウドサーバ又は管理ノードに運転者状態の検出結果を送信するということであってよく、それによってクラウドサーバ又は管理ノードが運転者状態の検出結果の収集、分析及び/又は管理を行うか、この運転者状態の検出結果に基づいて車両を遠隔制御することができる。
更に、上記実施例では、運転状態の検出結果をデータベースにおけるこの運転者のユーザ情報に記憶してもよく、この運転者の運転状態検出結果を記録することで、その後で運転者の運転状態検出結果を調べるか、運転者の運転行動習慣の分析、統計等を行うことができる。
また、本開示の運転状態検出方法のまた1つの実施例では、赤外線カメラによって画像を取得する操作を更に含んでもよく、例えば、車両内の少なくとも1つの位置に設置された赤外線カメラによって画像を取得して運転者画像を得る。
本開示の実施例における運転者画像が一般に赤外線カメラ(近赤外線カメラ等を含む)によって運転室を撮影して得られたビデオ中の画像フレームである。
そのうちの赤外線カメラの波長は、940nm又は850nmを含んでよい。そのうちの赤外線カメラが車両運転室における運転者を撮影可能な任意の位置に設置されてよく、例えば、赤外線カメラが、インストルメントパネルの上方又は近傍位置、センターコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置の中のいずれか1つ又は複数の位置に設置されてよい。例えば、いくつかの選択可能な例では、赤外線カメラをインストルメントパネルの上方(例えば、真上位置)であって真正面に向けている位置に設置してもよく、センターコンソール上方(例えば、真ん中位置)であって真正面に向けている位置に設置してもよく、更に運転者の顔部に向けるようにAピラー上に設置してもよく(例えば、Aピラーに近いガラスに貼り付けてよい)、更に運転者の顔部に向けるようにバックミラー上に設置してもよい(例えば、バックミラー上方のガラスに貼り付けてよい)。ここで、赤外線カメラがインストルメントパネル上方、センターコンソール上方の位置に設置される時に、カメラの視角と運転者の位置に応じてその具体的な位置を決定してよく、例えば、インストルメントパネル上方の位置に設置される時に、カメラ視角がハンドルに遮られないように、赤外線カメラが運転者に向けるようにしてよく、センターコンソール上方の位置に設置される時に、カメラの視角が充分に大きれば、運転者が撮影装置視野内にいるように後方に向けるようにしてよく、視角が充分に大きなければ、運転者が赤外線カメラの視角内にいるように運転者に向けるようにしてよい。
運転者の所在する領域(例えば、車両内又は運転室等)の光線が一般に複雑で、赤外線カメラによって取得された運転者画像の品質が一般のカメラによって取得された運転者画像の品質より優れることが多く、特に夜や曇天、トンネル内等の外部光線が暗い環境で、赤外線カメラによって取得された運転者画像が一般のカメラによって取得された運転者画像の品質より明らかに優れることが多く、それによって運転者の注意散漫状態検出と注意散漫動作検出の正確率の向上に寄与して、更に運転状態監視の正確率の向上に寄与する。
本開示の実施例では、設置も使用も容易な赤外線カメラを用いて運転者画像をリアルタイムに取得し、カメラを、車両のセンターコンソール、インストルメントパネル、Aピラー、車内バックミラー等の様々な位置に設置可能であり、深層学習技術に基づくニューラルネットワークを用いて運転者の疲労状態検出と注意散漫状態検出を実現し、ロバスト性に優れ、応用範囲が広く、昼、夜、強光、弱光等のいずれの場合にも望ましい運転状態検出効果を実現することができる。
選択可能に、実際に応用する時に、カメラで取得された原画像は、各種条件に制限されたり、ランダムに干渉されたりすることがあるので、一般的には直接使用できなく、本開示のいくつかの選択可能な例では、身元認証、注意散漫状態検出及び注意散漫動作検出の正確率を高めるために、赤外線カメラで撮影した運転者画像に対してグレースケール化前処理を行って、赤緑青(RGB)3チャンネルの画像をグレースケール画像に変換してから運転者の身元認証、注意散漫状態検出及び注意散漫動作検出等の操作を行う。
そのうちのいくつかの実施形態では、例えば、
車両が走行状態にある時に赤外線カメラによって画像を取得して運転者画像を得、及び/又は、車両の走行速度が所定車速を超えると、赤外線カメラによって画像を取得して運転者画像を得、及び/又は、車両が起動したことが検出されると、赤外線カメラによって画像を取得して運転者画像を得、及び/又は、車両の起動コマンドが検出されると、赤外線カメラによって画像を取得して運転者画像を得、及び/又は、車両又は車両における部材或いはシステムへの制御コマンド(例えば、加速(accelerating)、加速(speeding UP)、方向転換、車窓開閉、エアコンオンオフ、娯楽システムオンオフ等)が検出されると、赤外線カメラによって画像を取得して運転者画像を得るようにしてよい。
そのうちのいくつかの適用シーンにおいて、運転者が車両を起動する時、運転状態監視装置又は運転者監視システムを起動する時に、赤外線カメラを起動して運転者画像を取得して運転状態検出を行うようにしてよい。
本開示の上記実施例の運転状態検出方法は、赤外線カメラ(近赤外線カメラを含む)によって画像を取得して運転者画像を得た後、ニューラルネットワークをロード可能なワンチップコンピュータ、FPGA、ARM、CPU、GPU、マイクロプロセッサ、スマートフォン、ノート型パソコン、タブレット型コンピュータ(PAD)、デスクトップコンピュータ又はサーバ等の電子機器に送信することで実現されてよく、この電子機器はコンピュータプログラム(プログラムコードと呼んでもよい)を実行可能であり、このコンピュータプログラムはフラッシュメモリ、キャッシュメモリ、ハードディスクまたは光磁気ディスク等のコンピュータ読取可能記憶媒体に記憶されてよい。
本開示の実施例で提供されたいずれか1種の運転状態検出方法は、データ処理能力を有するいかなる適切な機器によって実行されてもよく、端末装置とサーバ等を含むが、それらに限定されない。又は、本開示の実施例で提供されたいずれか1種の運転状態検出方法はプロセッサによって実行されてもよく、例えば、プロセッサはメモリに記憶された該当するコマンドを呼び出すことで本開示の実施例におけるいずれか1種の運転状態検出方法を実行する。以下、詳細な説明を省略する。
当業者であれば、上記方法の実施例の全てまたは一部のステップを実現するにはプログラムによって関連ハードウェアに命令を出すことにより完成できることを理解でき、前記プログラムは、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含むコンピュータ読み取り可能記憶媒体に記憶可能であり、該プログラムは実行される時に、上記方法の実施例を含むステップを実行する。
図4は本開示の運転状態検出装置の一実施例の構造模式図である。この実施例の運転状態検出装置は、本開示の上記の各運転状態検出方法の実施例を実現することに利用可能である。図4に示すように、この実施例の運転状態検出装置は、運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得るための第1検出モジュールと、頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定するための第1決定モジュールと、を含む。
本開示の上記実施例で提供された運転状態検出装置によれば、運転者画像に対して頭部姿勢検出と目部状態検出を行って、検出された頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定することができる。本開示の実施例は、運転者画像に対して頭部姿勢検出と目部状態検出を行うことによって、運転者の疲労状態と注意散漫状態を共同してリアルタイムに検出することを可能にして、そのように運転者の運転状態が悪くなった時にリアルタイムに対策を取ることができ、運転の安全性が高くなり、道路交通事故の発生率が低くなる。
図5は本開示の運転状態検出装置の別の実施例の構造模式図である。図5に示すように、図4に示した実施例に比べると、この実施例の運転状態検出装置は、頭部姿勢情報に基づいて決定された運転者画像における運転者の頭部位置情報によって、運転者の頭部位置のずれ角度が所定範囲を超えたか否かを決定するための第2決定モジュールを更に含んでよい。
これに応じて、この実施例では、第1決定モジュールは、運転者の頭部位置のずれ角度が所定範囲を超えた時に、頭部姿勢情報と目部状態情報に基づいて、運転者の注意散漫状態の検出結果を決定するための第1決定ユニット、及び/又は、運転者の頭部位置のずれ角度が所定範囲を超えていない時に、頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定するための第2決定ユニットを含む。
そのうちのいくつかの実施形態では、第1決定ユニットは、頭部姿勢情報と目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定するための第1決定サブユニットと、運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定するための第2決定サブユニットと、を含んでよい。
そのうちのいくつかの実施形態では、第2決定ユニットは、頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値を決定するための第3決定サブユニットと、頭部姿勢情報と目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定するための第1決定サブユニットと、運転者の疲労状態を表すための指標のパラメータ値に基づいて、運転者の疲労状態の検出結果を決定するための第4決定サブユニットと、運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定するための第2決定サブユニットと、を含んでよい。
そのうちのいくつかの実施形態では、第1検出モジュールは、運転者画像に対して顔キーポイント検出を行うためのキーポイント検出ユニットと、検出された顔キーポイントに基づいて頭部姿勢情報と目部状態情報を取得するための第1取得ユニットと、を含んでよい。
ここで、第1取得ユニットは、検出された顔キーポイントに基づいて頭部姿勢情報を取得する時に、第1ニューラルネットワークによって、顔キーポイントに基づいて頭部姿勢情報を取得するために用いられてよい。
例えば、そのうちのいくつかの選択可能な例では、第1取得ユニットは、検出された顔キーポイントに基づいて目部状態情報を取得する時に、顔キーポイントに基づいて運転者画像における目部領域画像を決定する操作と、第2ニューラルネットワークによって目部領域画像に対して上眼瞼線と下眼瞼線の検出を行う操作と、上眼瞼線と下眼瞼線との間の間隔に基づいて運転者の目開閉状態情報を決定する操作とに用いられてよく、ここで、目部状態情報は目開閉状態情報を含む。
別の選択可能な例では、第1取得ユニットは、検出された顔キーポイントに基づいて目部状態情報を取得する時に、顔キーポイントに基づいて運転者画像における目部領域画像を決定する操作と、第3ニューラルネットワークによって目部領域画像に対して開眼閉眼の分類処理を行って、開眼又は閉眼の分類結果を得る操作とに用いられ、ここで、目部状態情報は開眼状態又は閉眼状態を含む。
また、上記運転状態検出装置の実施例では、第1検出モジュールは、更に、運転者画像に対して口部状態検出を行って、口部状態情報を得るために用いられてよい。これに応じて、この実施例では、第3決定サブユニットは、頭部姿勢情報、目部状態情報及び口部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値を決定するために用いられる。選択可能に、第1検出モジュール中の第1取得ユニットは、更に、検出された顔キーポイントに基づいて口部状態情報を取得するために用いられてもよい。
そのうちのいくつかの選択可能な例では、第1取得ユニットは、検出された顔キーポイントに基づいて口部状態情報を取得する時に、顔キーポイントに基づいて運転者画像における口部領域画像を決定する操作と、第4ニューラルネットワークによって口部領域画像に対して上***線と下***線の検出を行う操作と、上***線と下***線との間の間隔に基づいて運転者の口開閉状態情報を決定する操作とに用いられ、ここで、口部状態情報は口開閉状態情報を含む。
別の選択可能な例では、第1取得ユニットは、検出された顔キーポイントに基づいて口部状態情報を取得する時に、顔キーポイントに基づいて運転者画像における口部領域画像を決定する操作と、第5ニューラルネットワークによって口部領域画像に対して口開閉の分類処理を行って、開口又は閉口の分類結果を得る操作とに用いられ、ここで、口部状態情報は開口状態又は閉口状態を含む。
そのうちのいくつかの選択可能な例では、第1決定サブユニットは、頭部姿勢情報に基づいて運転者画像における運転者の頭部位置を決定して頭部位置情報を得、所定時間内の頭部位置情報に基づいて頭部位置ずれ度合いのパラメータ値を取得する操作、及び/又は、頭部姿勢情報に基づいて運転者画像における運転者の顔向きを決定して顔向き情報を得、所定時間内の顔向き情報に基づいて顔向きずれ度合いのパラメータ値を取得する操作、及び/又は、頭部姿勢情報に基づいて運転者画像における運転者の視線方向を決定して視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得し、又は、顔キーポイントに基づいて運転者画像における目部領域画像を決定し、第6ニューラルネットワークによって目部領域画像における運転者の視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する操作、及び/又は、所定時間内の目部状態情報に基づいて、漫然度合いのパラメータ値を取得する操作に用いられる。
そのうちのいくつかの選択可能な例では、第3決定サブユニットは、頭部姿勢情報に基づいて運転者画像における運転者の頭部位置を決定して頭部位置情報を得、所定時間内の頭部位置情報に基づいて居眠り度合いのパラメータ値を取得する操作、及び/又は、所定時間内の目部状態情報に基づいて、閉眼度合いのパラメータ値を取得する操作、及び/又は、所定時間内の目部状態情報に基づいて、まばたき度合いのパラメータ値を取得する操作、及び/又は、所定時間内の口部状態情報に基づいて、あくび度合いのパラメータ値を取得する操作に用いられる。
ここで、運転者疲労状態を表すための指標は、居眠り度合い、閉眼度合い、まばたき度合い、あくび度合い等の中のいずれか一つ又は複数を含み、及び/又は、運転者注意散漫状態を表すための指標は、頭部位置ずれ度合い、顔向きずれ度合い、視線方向ずれ度合い、漫然度合い等の中のいずれか一つ又は複数を含む。
そのうちのいくつかの選択可能な例では、第1決定サブユニットは、頭部姿勢情報に基づいて運転者画像における運転者の頭部位置を決定する時に、頭部姿勢情報中のピッチ角を取得して頭部位置とするために用いられ、及び/又は、第1決定サブユニットは、頭部姿勢情報に基づいて運転者画像における運転者の顔向きを決定する時に、頭部姿勢情報中のピッチ角とヨー角を取得して顔向きとするために用いられる。
そのうちのいくつかの選択可能な例では、第1決定サブユニットは、頭部姿勢情報に基づいて運転者画像における運転者の視線方向を決定して視線方向情報を得る時に、顔キーポイントのうちの目キーポイントに基づいて位置決めされた目画像によって瞳縁位置を決定し、瞳縁位置に基づいて瞳中心位置を計算する操作と、瞳中心位置と目中心位置に基づいて頭部姿勢情報に対応する頭部姿勢での眼球回転角度情報を取得する操作と、頭部姿勢情報と眼球回転角度情報に基づいて運転者の視線方向を決定して視線方向情報を得る操作とに用いられる。例えば、第1決定サブユニットは、顔キーポイントのうちの目キーポイントに基づいて位置決めされた目画像によって瞳縁位置を決定する時に、第7ニューラルネットワークによって、顔キーポイントに基づいて分割された画像における目領域画像に対して瞳縁位置の検出を行い、第7ニューラルネットワークの出力した情報に基づいて瞳縁位置を取得するために用いられる。
そのうちのいくつかの選択可能な例では、第1決定サブユニットは、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する時に、所定時間内の視線方向情報の基準視線方向に対するずれ角度に基づいて、視線方向ずれ度合いのパラメータ値を取得するために用いられる。ここで、基準視線方向は、予め設定されたものであってもよく、又は、運転者画像の所在するビデオ中の前のNフレームの運転者画像に基づいて決定された平均視線方向であってもよく、Nが1より大きい整数である。
そのうちのいくつかの選択可能な例では、第1決定サブユニットは、所定時間内の目部状態情報に基づいて漫然度合いのパラメータ値を取得する時に、目部状態情報に基づいて、運転者の目が開眼状態にあり且つ所定漫然時間に到達するまで持続した時に、運転者が漫然状態にあると決定する操作と、所定時間内の目部状態情報に基づいて、漫然度合いのパラメータ値を取得する操作とに用いられ、ここで、この所定時間は所定漫然時間を含む。
そのうちのいくつかの選択可能な例では、第3決定サブユニットは、所定時間内の頭部位置情報に基づいて居眠り度合いのパラメータ値を取得する時に、頭部位置情報に基づいて、運転者の頭部位置の所定基準頭部位置に対するずれ度合いが第1所定時間内に所定ずれ範囲に到達し、且つ第2所定時間内に所定基準頭部位置に復帰した時に、運転者が居眠り状態にあると決定する操作と、所定時間内の頭部位置情報に基づいて、居眠り度合いのパラメータ値を取得する操作とに用いられ、ここで、この所定時間は第1所定時間と第2所定時間を含む。
そのうちのいくつかの選択可能な例では、第3決定サブユニットは、所定時間内の口部状態情報に基づいてあくび度合いのパラメータ値を取得する時に、口部状態情報に基づいて、運転者の口が閉口状態から開口状態に変化し、更に閉口状態に復帰した時間が所定時間範囲内にある時に、運転者が1回のあくび動作を完了したと決定する操作と、所定時間内の口部状態情報に基づいて、あくび度合いのパラメータ値を取得する操作とに用いられ、ここで、所定時間は、運転者の口が閉口状態から開口状態に変化し、更に閉口状態に復帰した時間を含む。
そのうちのいくつかの選択可能な例では、頭部位置ずれ度合いのパラメータ値は、頭部位置ずれ状態、頭部位置ずれ方向、頭部位置の頭部位置ずれ方向におけるずれ角度、頭部位置のずれ持続時間、頭部位置ずれ頻度の中のいずれか一つ又は複数を含み、及び/又は、顔向きずれ度合いのパラメータ値は、頭回し回数、頭回し持続時間、頭回し頻度の中のいずれか一つ又は複数を含み、及び/又は、視線方向ずれ度合いのパラメータ値は、視線方向ずれ角度、視線方向ずれ時間、視線方向ずれ頻度の中のいずれか一つ又は複数を含み、及び/又は、漫然度合いのパラメータ値は、開眼幅、開眼持続時間、開眼累計時間が統計時間窓で占める割合の中のいずれか一つ又は複数を含み、及び/又は、居眠り度合いを表すためのパラメータ値は、居眠りうなずき状態、居眠りうなずき幅、居眠りうなずき回数、居眠りうなずき頻度、居眠りうなずき持続時間の中のいずれか一つ又は複数を含み、及び/又は、閉眼度合いを表すためのパラメータ値は、閉眼回数、閉眼頻度、閉眼持続時間、閉眼幅、半分閉眼回数、半分閉眼頻度、閉眼累計時間が統計時間窓で占める割合の中のいずれか一つ又は複数を含み、及び/又は、まばたき度合いを表すためのパラメータ値は、まばたき回数、まばたき頻度、まばたき持続時間、まばたき累計時間が統計時間窓で占める割合の中のいずれか一つ又は複数を含み、及び/又は、あくび度合いを表すためのパラメータ値は、あくび状態、あくび回数、あくび持続時間、あくび頻度の中のいずれか一つ又は複数を含む。
そのうちのいくつかの選択可能な例では、第2決定サブユニットは、いずれか一つ又は複数の運転者の注意散漫状態を表すための指標のパラメータ値が所定注意散漫条件を満たした時に、運転者の注意散漫状態の検出結果を注意散漫状態と決定する操作、及び/又は、運転者の注意散漫状態を表すための指標のパラメータ値がいずれも所定注意散漫条件を満たさない時に、運転者の注意散漫状態の検出結果を非注意散漫状態と決定する操作に用いられる。
そのうちのいくつかの選択可能な例では、所定注意散漫条件は、複数の注意散漫等級条件を含む。これに応じて、この実施例では、第2決定サブユニットは、いずれか一つ又は複数の運転者の注意散漫状態を表すための指標のパラメータ値が所定注意散漫条件を満たした時に、運転者の注意散漫状態の検出結果を注意散漫状態と決定する時に、運転者の注意散漫状態を表すための指標のパラメータ値が満たした注意散漫等級条件に基づいて、注意散漫状態等級を決定する操作と、決定された注意散漫状態等級を運転者の注意散漫状態の検出結果とする操作とに用いられる。
そのうちのいくつかの選択可能な例では、第4決定サブユニットは、いずれか一つ又は複数の運転者の疲労状態を表すための指標のパラメータ値が所定疲労条件を満たした時に、運転者の疲労状態の検出結果を疲労状態と決定する操作、及び/又は、運転者の疲労状態を表すための指標のパラメータ値がいずれも所定疲労条件を満たさない時に、運転者の疲労状態の検出結果を非疲労状態と決定する操作に用いられる。
そのうちのいくつかの選択可能な例では、所定疲労条件は複数の疲労等級条件を含む。これに応じて、この実施例では、第4決定サブユニットは、いずれか一つ又は複数の運転者の疲労状態を表すための指標のパラメータ値が所定疲労条件を満たした時に、運転者の疲労状態の検出結果を疲労状態と決定する時に、運転者の疲労状態を表すための指標のパラメータ値が満たした疲労等級条件に基づいて、疲労状態等級を決定する操作と、決定された疲労状態等級を運転者の疲労状態の検出結果とする操作とに用いられる。
また、更に図5を参照し、本開示の運転状態検出装置のまた1つの実施例では、運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定するための第2検出モジュールと、所定注意散漫動作が発生した時に、所定時間内に所定注意散漫動作が発生したか否かの決定結果に基づいて、運転者の注意散漫度合いを表すための指標のパラメータ値を取得するための第1取得モジュールと、運転者の注意散漫度合いを表すための指標のパラメータ値に基づいて、運転者の所定注意散漫動作の検出結果を決定するための第3決定モジュールと、を更に含んでよい。ここで、注意散漫度合いのパラメータ値は、所定注意散漫動作の回数、所定注意散漫動作の持続時間、所定注意散漫動作の頻度等の中のいずれか一つ又は複数を含んでよい。そのうちの所定注意散漫動作は、喫煙動作、飲水動作、飲食動作、電話通話動作、娯楽動作、化粧動作等の中のいずれか一つ又は複数を含んでよい。
そのうちのいくつかの実施形態では、第2検出モジュールは、運転者画像の特徴を抽出する操作と、特徴に基づいて所定注意散漫動作を含む可能性がある複数の候補枠を抽出する操作と、複数の候補枠に基づいて、顔の局所領域と動作関連物を含み更に手部領域を含んでもよい動作目標枠を決定する操作と、動作目標枠に基づいて所定注意散漫動作の分類検出を行って、所定注意散漫動作が発生したか否かを決定する操作とに用いられる。ここで、顔の局所領域は、口部領域、耳部領域、目部領域の中のいずれか一つ又は複数を含んでよく、及び/又は、動作関連物は、容器、タバコ、携帯電話、食物、工具、飲料ボトル、眼鏡、マスクの中のいずれか一つ又は複数を含んでよい。
そのうちのいくつかの実施形態では、第2検出モジュールは、第8ニューラルネットワークによって運転者画像に対して顔検出を行って顔検出枠を取得し、顔検出枠の特徴情報を抽出する操作と、第8ニューラルネットワークによって顔検出枠の特徴情報に基づいて喫煙動作が発生したか否かを決定する操作とに用いられる。
そのうちのいくつかの実施形態では、第2検出モジュールは、第9ニューラルネットワークによって運転者画像に対して飲食動作/飲水動作/電話通話動作/娯楽動作/化粧動作に対応する所定目標対象の検出を行って、手部、口部、目部、及び容器、食物、電子機器、化粧品の中の一つ又は複数を包含する動作関連物を含む所定目標対象の検出枠を得る操作と、所定目標対象の検出枠に基づいて、所定注意散漫動作が発生したか否かを決定する操作とに用いられ、ここで、所定注意散漫動作が発生したか否かの決定結果は、飲食動作/飲水動作/電話通話動作/娯楽動作/化粧動作が発生しなかったこと、飲食動作が発生したこと、飲水動作が発生したこと、電話通話動作が発生したこと、娯楽動作が発生したこと、化粧動作が発生したことの中の一項を含む。
そのうちのいくつかの実施形態では、第2検出モジュールは、所定目標対象の検出枠に基づいて、所定注意散漫動作が発生したか否かを決定する時に、手部の検出枠、口部の検出枠、目部の検出枠及び動作関連物の検出枠が検出されたか否か、および、手部の検出枠と動作関連物の検出枠とが重なっているか否か、動作関連物の種類及び動作関連物の検出枠と口部の検出枠又は目部の検出枠との間の距離が所定条件を満たすか否かに応じて、所定注意散漫動作が発生したか否かを決定するために用いられる。
そのうちのいくつかの選択可能な例では、第2検出モジュールは、手部の検出枠と動作関連物の検出枠とが重なっているか否か、動作関連物の検出枠と口部の検出枠又は目部の検出枠との間の位置関係が所定条件を満たすか否かに応じて、所定注意散漫動作が発生したか否かを決定する時に、手部の検出枠と動作関連物の検出枠とが重なっており、動作関連物の種類が容器又は食物であり、且つ動作関連物の検出枠と口部の検出枠とが重なっている場合に、飲食動作又は飲水動作が発生したと決定する操作、及び/又は、手部の検出枠と動作関連物の検出枠とが重なっており、動作関連物の種類が電子機器であり、且つ動作関連物の検出枠と口部の検出枠との間の最小距離が第1所定距離より小さく、又は動作関連物の検出枠と目部の検出枠との間の最小距離が第2所定距離より小さい場合に、娯楽動作又は電話通話動作が発生したと決定する操作に用いられる。
そのうちのいくつかの選択可能な例では、第2検出モジュールは、更に、手部の検出枠、口部の検出枠及びいずれか1つの動作関連物の検出枠が同時に検出されなく、且つ手部の検出枠、目部の検出枠及びいずれか1つの動作関連物の検出枠が同時に検出されなかった場合に、所定注意散漫動作が発生したか否かの決定結果として、飲食動作、飲水動作、電話通話動作、娯楽動作及び化粧動作が検出されなかったと決定する操作、及び/又は、手部の検出枠と動作関連物の検出枠とが重なっていない場合に、所定注意散漫動作が発生したか否かの決定結果として、飲食動作、飲水動作、電話通話動作、娯楽動作、化粧動作が検出されなかったと決定する操作、及び/又は、動作関連物の種類が容器又は食物であり、且つ動作関連物の検出枠と口部の検出枠とが重なっておらず、及び/又は、動作関連物の種類が電子機器であり、且つ動作関連物の検出枠と口部の検出枠との間の最小距離が第1所定距離より小さくなく、又は、動作関連物の検出枠と目部の検出枠との間の最小距離が第2所定距離より小さくない場合に、所定注意散漫動作が発生したか否かの決定結果として、飲食動作、飲水動作、電話通話動作、娯楽動作及び化粧動作が検出されなかったと決定する操作に用いられる。
また、更に図5を参照し、本開示の運転状態検出装置の更に別の実施例では、注意散漫度合いを表すための指標のパラメータ値が満たした注意散漫動作等級条件に基づいて、注意散漫動作等級を決定するための第4決定モジュールを更に含んでよい。これに応じて、この実施例では、第3決定モジュールは、決定された注意散漫動作等級を運転者の所定注意散漫動作の検出結果とするために用いられる。
また、更に図5を参照し、本開示の運転状態検出装置の更に別の実施例では、運転者状態の検出結果に基づいて、警報を行うための警報モジュール、及び/又は、運転者状態の検出結果に基づいて、インテリジェント運転制御を行うための運転制御モジュールを更に含んでよい。ここで、運転者状態の検出結果は、疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作の検出結果の中のいずれか一つ又は複数を含む。
そのうちのいくつかの実施形態では、警報モジュールは、運転者状態の検出結果が所定警報条件を満たした時に、警報条件に対応するプロンプト/警報情報を出力するために用いられ、及び/又は、運転制御モジュールは、運転者状態の検出結果が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替えるために用いられる。
そのうちのいくつかの選択可能な例では、警報モジュールは、疲労状態の検出結果が疲労状態である時に、疲労状態の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、注意散漫状態の検出結果が注意散漫状態である時に、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、所定注意散漫動作が発生した時に、所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、運転者状態の検出結果として、疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作が発生した検出結果のうちの任意の二つ又は三つがあった時に、所定方式でプロンプト/警報情報を出力する操作に用いられる。
そのうちのいくつかの選択可能な例では、警報モジュールは、更に、疲労状態に対応するプロンプト/警報情報を出力した後の所定時間内に、運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報を抑える操作、及び/又は、注意散漫状態に対応するプロンプト/警報情報を出力した後の所定時間内に、運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報を抑える操作、及び/又は、所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力した後の所定時間内に、運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報を抑える操作に用いられる。
そのうちのいくつかの選択可能な例では、警報モジュールは、運転者状態の検出結果として、疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作が発生した検出結果のうちの任意の二つ又は三つがあった時に、所定方式でプロンプト/警報情報を出力する時に、運転者状態の検出結果が疲労状態と注意散漫状態である時に、疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果と注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、運転者状態の検出結果が注意散漫状態であり、所定注意散漫動作が検出された時に、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、注意散漫状態の検出結果と所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、運転者状態の検出結果が疲労状態であり、所定注意散漫動作が検出された時に、疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、所定注意散漫動作が検された検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果と所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、運転者状態の検出結果が疲労状態、注意散漫状態であり、所定注意散漫動作が発生した時に、疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果と注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、注意散漫状態の検出結果と所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果と所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、疲労状態の検出結果、注意散漫状態の検出結果及び所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作に用いられる。
そのうちのいくつかの選択可能な例では、疲労状態の検出結果が疲労状態等級である時に、警報モジュールは、疲労状態の検出結果に対応するプロンプト/警報情報を出力する時に、疲労状態等級に基づいて対応するプロンプト又は警報情報を出力するために用いられ、及び/又は、注意散漫状態の検出結果が注意散漫状態等級である時に、警報モジュールは、注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する時に、注意散漫状態等級に基づいて対応するプロンプト又は警報情報を出力するために用いられ、所定注意散漫動作の検出結果が注意散漫動作等級である時に、警報モジュールは、所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する時に、注意散漫動作等級に基づいて対応するプロンプト又は警報情報を出力するために用いられる。
そのうちのいくつかの選択可能な例では、運転制御モジュールは、疲労状態等級及び/又は注意散漫状態等級及び/又は注意散漫動作等級が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替えるために用いられる。
また、更に図5を参照し、本開示の上記各実施例では、画像を取得して運転者画像を得るための赤外線カメラを更に含んでもよい。この赤外線カメラが、インストルメントパネルの上方又は近傍位置、センターコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置の中のいずれか1つ又は複数の位置を含む車両内の少なくとも1つの位置に設置される。
そのうちのいくつかの実施形態では、赤外線カメラは、車両が走行状態にある時に画像を取得して運転者画像を得る操作、及び/又は、車両の走行速度が所定車速を超えると、画像を取得して運転者画像を得る操作、及び/又は、車両が起動したことが検出されると、画像を取得して運転者画像を得る操作、及び/又は、車両の起動コマンドが検出されると、画像を取得して運転者画像を得る操作、及び/又は、車両又は車両中の部材或いはシステムへの制御コマンドが検出されると、画像を取得して運転者画像を得る操作に用いられる。
図6は本開示の運転者監視システムの一実施例の構造模式図である。この実施例の運転者監視システムは、本開示の上記の各運転状態検出方法の実施例を実現することに利用可能である。図6に示すように、この実施例の運転者監視システムは、運転者画像及び運転者の疲労状態と注意散漫状態の検出結果を表示するための表示装置と、運転者画像に対して頭部姿勢検出と目部状態検出を行って頭部姿勢情報と目部状態情報を得、頭部姿勢情報と目部状態情報に基づいて運転者の疲労状態と注意散漫状態の検出結果を決定するための運転者状態検出装置と、を含む。
そのうちの運転者状態検出装置は、本開示の上記のいずれか1つの実施例の運転状態検出装置によって実現されてよい。
本開示の上記実施例で提供された運転者監視システムによれば、運転者画像に対して頭部姿勢検出と目部状態検出を行って、検出された頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定することができる。本開示の実施例は、運転者画像に対して頭部姿勢検出と目部状態検出を行うことによって、運転者の疲労状態と注意散漫状態を共同してリアルタイムに検出することを可能にして、そのように運転者の運転状態が悪くなった時にリアルタイムに対策を取ることができ、運転の安全性が高くなり、道路交通事故の発生率が低くなる。
また、本開示の実施例で提供された別の電子機器は、コンピュータプログラムを記憶するためのメモリと、メモリに記憶されているコンピュータプログラムを実行するためのものであって、コンピュータプログラムが実行されると、本開示の上記のいずれか1つの実施例の運転状態検出方法を実現するためのプロセッサと、を含む。
図7は本開示の電子機器の一適用実施例の構成模式図である。以下、本開示の実施例の端末装置又はサーバを実現するのに適する電子機器の構成模式図を示す図7を参照する。図7に示すように、該電子機器は1つ又は複数のプロセッサ、通信部などを含み、前記1つ又は複数のプロセッサは、例えば、1つ又は複数の中央処理ユニット(CPU)、及び/又は1つ又は複数の画像プロセッサ(GPU)などであり、プロセッサは、読み取り専用メモリ(ROM)に記憶された実行可能コマンド又は記憶部からランダムアクセスメモリ(RAM)にロードされた実行可能コマンドによって各種の適切な動作及び処理を実現することができる。通信部はネットワークカードを含んでよいが、それに限定されなく、前記ネットワークカードはIB(Infiniband)ネットワークカードを含んでよいが、それに限定されなく、プロセッサは読み取り専用メモリ及び/又はランダムアクセスメモリと通信して実行可能コマンドを実行し、通信バスを介して通信部に接続され、通信部を介して他のターゲットデバイスと通信してよく、それにより本開示の実施例で提供されるいずれか一項の運転状態検出方法に対応する操作を完成し、例えば、運転者画像に対して頭部姿勢検出と目部状態検出を行って頭部姿勢情報と目部状態情報を得、前記頭部姿勢情報と前記目部状態情報に基づいて運転者の疲労状態と注意散漫状態の検出結果を決定する。
また、RAMには、装置の動作に必要な各種のプログラムやデータが格納されていてもよい。CPU、ROM及びRAMは、バスを介して相互に接続される。RAMを有する場合に、ROMは選択可能なモジュールである。RAMは実行可能コマンドを格納するか、または動作時に実行可能コマンドをROMに書き込み、実行可能コマンドによってプロセッサに本開示の上記のいずれか1種の方法に対応する操作を実行させる。入力/出力(I/O)インタフェースもバスに接続される。通信部は、統合的に設置されてもよく、複数のサブモジュール(例えば複数のIBネットワークカード)を有し、通信バスのリンク上にあるように設置されてもよい。
キーボード、マウスなどを含む入力部と、陰極線管(CRT)、液晶ディスプレイー(LCD)など及びスピーカなどを含む出力部と、ハードディスクなどを含む記憶部と、LANカード、モデムなどのネットワークインタフェースカードを含む通信部とがI/Oインタフェースに接続されている。通信部は例えばインターネットのようなネットワークを介して通信処理を行う。ドライブも必要に応じてI/Oインタフェースに接続される。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどのリムーバブル媒体は、必要に応じてドライブ上に装着され、そこから読み出されたコンピュータプログラムを必要に応じて記憶部にインストールする。
なお、図7に示す構造は選択可能な一実施形態に過ぎず、具体的な実践過程では、実際の必要に応じて上記図7の部品の数及び種類を選択、削除、追加、または置換することができ、異なる機能部品の設置上でも、分離設置または統合設置などの実施形態を採用でき、例えばGPUとCPUは分離設置するかまたはGPUをCPUに統合するようにしてよく、通信部は分離設置するか、またはCPUやGPUに統合設置することなども可能であることを説明する必要がある。これらの置換可能な実施形態はいずれも本開示の保護範囲に属する。
特に、本開示の実施例によれば、フローチャートを参照しながら上述したプロセスはコンピュータソフトウェアプログラムとして実現できる。例えば、本開示の実施例はコンピュータプログラム製品を含み、それは機械可読媒体に有形に具現化された、フローチャートに示す方法を実行するためのプログラムコードを含むコンピュータプログラムを含み、プログラムコードは本開示のいずれか1つの実施例により提供される運転状態検出方法のステップを対応して実行するための該当するコマンドを含んでよい。このような実施例では、該コンピュータプログラムは通信部によってネットワークからダウンロード及びインストールされ、及び/又はリムーバブル媒体からインストールされ得る。CPUによって該コンピュータプログラムを実行する時に、本開示の方法で限定された上記機能を実行する。
また、本開示の実施例は、コンピュータコマンドを含むコンピュータプログラムであって、コンピュータコマンドが機器のプロセッサ中で動作すると、本開示の上記のいずれか1つの実施例の運転状態検出方法を実現するコンピュータプログラムを更に提供する。
また、本開示の実施例は、コンピュータプログラムが記憶されているコンピュータ読取可能記憶媒体であって、このコンピュータプログラムがプロセッサにより実行されると、本開示の上記のいずれか1つの実施例の運転状態検出方法を実現するコンピュータ読取可能記憶媒体を更に提供する。
図8は本開示の車両の一実施例の構造模式図である。図8に示すように、この実施例の車両は、中央制御システムを含み、本開示の上記のいずれか1つの実施例に記載の運転状態検出装置又は運転者監視システムを更に含む。
本開示の上記実施例で提供された車両は、本開示の上記のいずれか1つの実施例に記載の運転状態検出装置又は運転者監視システムを含み、運転者画像に対して頭部姿勢検出と目部状態検出を行って、検出された頭部姿勢情報と目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定することができる。本開示の実施例は、運転者画像に対して頭部姿勢検出と目部状態検出を行うことによって、運転者の疲労状態と注意散漫状態を共同してリアルタイムに検出することを可能にして、そのように運転者の運転状態が悪くなった時にリアルタイムに対策を取ることができ、運転の安全性が高くなり、道路交通事故の発生率が低くなる。
そのうちのいくつかの実施形態では、中央制御システムは、運転状態検出装置又は運転者監視システムの出力した運転者状態の検出結果に基づいて、運転者状態の検出結果が所定警報条件を満たした時に、車両中の娯楽システム(例えば、スピーカ、ブザー、ランプ装置等)又は車両の外部に接続される娯楽システム(例えば、スピーカ、ブザー、ランプ装置等)を呼び出して警報条件に対応するプロンプト/警報情報を出力する操作、及び/又は、運転者状態の検出結果が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替え、且つ自動運転モードで車両に対して自動運転制御を行う操作に用いられる。
別の実施形態では、中央制御システムは、更に、手動運転に切り替える運転コマンドを受信すると、運転モードを手動運転モードに切り替えるために用いられてよい。
更に図8を参照し、上記実施例の車両は、中央制御システムの制御コマンドに基づいてプロンプト/警報所定条件に対応するプロンプト/警報情報を出力する操作、及び/又は、中央制御システムの制御コマンドに基づいてプロンプト/警報情報の警報効果又は娯楽項目の再生効果を調整する操作に用いられる娯楽システムを更に含んでよい。そのうちの娯楽システムは、例えば、スピーカ、ブザー、ランプ装置等を含んでよい。
更に図8を参照し、上記実施例の車両は、画像を取得するための少なくとも1つの赤外線カメラを更に含んでよい。
そのうちのいくつかの実施形態では、車両における赤外線カメラが、車両内の少なくとも1つの位置、例えば、インストルメントパネルの上方又は近傍位置、センターコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置等の中のいずれか1つ又は複数の位置に設置されてよい。
本明細書における様々な実施例は漸進的に説明され、各実施例は他の実施例との相違点に集中して説明したが、各実施例間の同一または類似の部分については相互に参照すればよい。システム実施例については、それは基本的に方法実施例に対応するので、説明は比較的簡単であり、関連部分は方法実施例の説明の一部を参照すればよい。
本開示の方法、装置及び機器は、様々な形態で実現され得る。例えば、ソフトウェア、ハードウェア、ファームウェアまたはソフトウェア、ハードウェア、ファームウェアの任意の組合せによって本開示の方法、装置及び機器を実現することができる。前記方法のステップのための上記順序は説明することのみを目的とし、本開示の方法のステップは、特に断らない限り、以上で具体的に説明した順序に限定されない。また、いくつかの実施例では、本開示は記録媒体に記憶されたプログラムとしてもよく、これらのプログラムは本開示の方法を実現するための機械可読コマンドを含む。従って、本開示は本開示の方法を実行するためのプログラムが記憶された記録媒体も含む。
本開示の説明は、例示及び説明のために提示されたものであり、網羅的なものでありもしくは開示された形式に本開示を限定するというわけでない。当業者にとっては多くの修正及び変形を加えることができるのは明らかであろう。実施例は本開示の原理及び実際応用をより明瞭に説明するため、かつ当業者が本開示を理解して特定用途に適した各種の修正を加えた各種の実施例を設計可能にするように選択され説明されたものである。

Claims (112)

  1. 運転状態検出方法であって、
    運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得る操作と、
    前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定する操作と、を含むことを特徴とする運転状態検出方法。
  2. 運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得る前記操作の後、
    前記頭部姿勢情報に基づいて決定された前記運転者画像における運転者の頭部位置情報により、前記運転者の頭部位置のずれ角度が所定範囲を超えたか否かを決定する操作と、
    前記運転者の頭部位置のずれ角度が所定範囲を超えた場合に、前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の注意散漫状態の検出結果を決定する操作、及び/又は、
    前記運転者の頭部位置のずれ角度が所定範囲を超えていない場合に、前記頭部姿勢情報と前記目部状態情報に基づいて運転者の疲労状態と注意散漫状態の検出結果を決定する前記操作を実行する操作と、を更に含むことを特徴とする請求項1に記載の方法。
  3. 前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の注意散漫状態の検出結果を決定する前記操作は、
    前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定する操作と、
    運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定する操作と、を含むことを特徴とする請求項2に記載の方法。
  4. 前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定する前記操作は、
    前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値と運転者の注意散漫状態を表すための指標のパラメータ値を決定する操作と、
    前記の運転者の疲労状態を表すための指標のパラメータ値に基づいて、運転者の疲労状態の検出結果を決定し、前記の運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定する操作と、を含むことを特徴とする請求項1−3のいずれか一項に記載の方法。
  5. 運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得る前記操作は、
    前記運転者画像に対して顔キーポイント検出を行う操作と、
    検出された前記顔キーポイントに基づいて前記頭部姿勢情報と前記目部状態情報を取得する操作と、を含むことを特徴とする請求項1−4のいずれか一項に記載の方法。
  6. 検出された前記顔キーポイントに基づいて頭部姿勢情報を取得する前記操作は、
    第1ニューラルネットワークによって、前記顔キーポイントに基づいて前記頭部姿勢情報を取得する操作を含むことを特徴とする請求項5に記載の方法。
  7. 検出された前記顔キーポイントに基づいて目部状態情報を取得する前記操作は、
    前記顔キーポイントに基づいて前記運転者画像における目部領域画像を決定する操作と、
    第2ニューラルネットワークによって、前記目部領域画像に対して上眼瞼線と下眼瞼線の検出を行う操作と、
    前記上眼瞼線と下眼瞼線との間の間隔に基づいて前記運転者の目開閉状態情報を決定する操作と、を含み、前記目部状態情報は前記目開閉状態情報を含むことを特徴とする請求項5又は6に記載の方法。
  8. 検出された前記顔キーポイントに基づいて目部状態情報を取得する前記操作は、
    前記顔キーポイントに基づいて前記運転者画像における目部領域画像を決定する操作と、
    第3ニューラルネットワークによって前記目部領域画像に対して開眼閉眼の分類処理を行って、開眼又は閉眼の分類結果を得る操作と、を含み、前記目部状態情報は開眼状態又は閉眼状態を含むことを特徴とする請求項5又は6に記載の方法。
  9. 運転者画像に対して口部状態検出を行って、口部状態情報を得る操作を更に含み、
    前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値を決定する前記操作は、
    前記頭部姿勢情報、前記目部状態情報及び前記口部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値を決定する操作を含むことを特徴とする請求項4−8のいずれか一項に記載の方法。
  10. 運転者画像に対して口部状態検出を行って、口部状態情報を得る前記操作は、
    前記運転者画像に対して顔キーポイント検出を行う操作と、
    検出された前記顔キーポイントに基づいて口部状態情報を取得する操作と、を含むことを特徴とする請求項9に記載の方法。
  11. 検出された前記顔キーポイントに基づいて口部状態情報を取得する前記操作は、
    前記顔キーポイントに基づいて前記運転者画像における口部領域画像を決定する操作と、
    第4ニューラルネットワークによって前記口部領域画像に対して上***線と下***線の検出を行う操作と、
    前記上***線と下***線との間の間隔に基づいて前記運転者の口開閉状態情報を決定する操作と、を含み、前記口部状態情報は前記口開閉状態情報を含むことを特徴とする請求項10に記載の方法。
  12. 検出された前記顔キーポイントに基づいて口部状態情報を取得する前記操作は、
    前記顔キーポイントに基づいて前記運転者画像における口部領域画像を決定する操作と、
    第5ニューラルネットワークによって前記口部領域画像に対して口開閉の分類処理を行って、開口又は閉口の分類結果を得る操作と、を含み、前記口部状態情報は開口状態又は閉口状態を含むことを特徴とする請求項10に記載の方法。
  13. 前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定する前記操作は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の頭部位置を決定して頭部位置情報を得、所定時間内の前記頭部位置情報に基づいて頭部位置ずれ度合いのパラメータ値を取得する操作、及び/又は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の顔向きを決定して顔向き情報を得、所定時間内の顔向き情報に基づいて顔向きずれ度合いのパラメータ値を取得する操作、及び/又は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の視線方向を決定して視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得し、又は、前記顔キーポイントに基づいて前記運転者画像における目部領域画像を決定し、第6ニューラルネットワークによって前記目部領域画像における運転者の視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する操作、及び/又は、
    所定時間内の前記目部状態情報に基づいて、漫然度合いのパラメータ値を取得する操作を含むことを特徴とする請求項3−12のいずれか一項に記載の方法。
  14. 前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値と運転者の注意散漫状態を表すための指標のパラメータ値を決定する前記操作は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の頭部位置を決定して頭部位置情報を得、所定時間内の前記頭部位置情報に基づいて頭部位置ずれ度合いのパラメータ値を取得する操作、及び/又は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の顔向きを決定して顔向き情報を得、所定時間内の顔向き情報に基づいて顔向きずれ度合いのパラメータ値を取得する操作、及び/又は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の視線方向を決定して視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得し、又は、前記顔キーポイントに基づいて前記運転者画像における目部領域画像を決定し、第6ニューラルネットワークによって前記目部領域画像における運転者の視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する操作、及び/又は、
    所定時間内の前記目部状態情報に基づいて、漫然度合いのパラメータ値を取得する操作、及び/又は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の頭部位置を決定して頭部位置情報を得、所定時間内の前記頭部位置情報に基づいて居眠り度合いのパラメータ値を取得する操作、及び/又は、
    所定時間内の前記目部状態情報に基づいて、閉眼度合いのパラメータ値を取得する操作、及び/又は、
    所定時間内の前記目部状態情報に基づいて、まばたき度合いのパラメータ値を取得する操作、及び/又は、
    所定時間内の前記口部状態情報に基づいて、あくび度合いのパラメータ値を取得する操作を含むことを特徴とする請求項4−13のいずれか一項に記載の方法。
  15. 前記の運転者疲労状態を表すための指標は、居眠り度合い、閉眼度合い、まばたき度合い、あくび度合いの中のいずれか一つ又は複数を含み、及び/又は、
    前記の運転者注意散漫状態を表すための指標は、頭部位置ずれ度合い、顔向きずれ度合い、視線方向ずれ度合い、漫然度合いの中のいずれか一つ又は複数を含むことを特徴とする請求項13又は14に記載の方法。
  16. 前記頭部姿勢情報に基づいて前記運転者画像における運転者の頭部位置を決定する前記操作は、前記頭部姿勢情報中のピッチ角を取得して前記頭部位置とする操作を含み、及び/又は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の顔向きを決定する前記操作は、前記頭部姿勢情報中のピッチ角とヨー角を取得して前記顔向きとする操作を含むことを特徴とする請求項13−15のいずれか一項に記載の方法。
  17. 前記頭部姿勢情報に基づいて前記運転者画像における運転者の視線方向を決定して、視線方向情報を取得する前記操作は、
    前記顔キーポイントのうちの目キーポイントによって位置決めされた目画像に基づいて瞳縁位置を決定し、前記瞳縁位置に基づいて瞳中心位置を計算する操作と、
    前記瞳中心位置と目中心位置に基づいて前記頭部姿勢情報に対応する頭部姿勢での眼球回転角度情報を取得する操作と、
    前記頭部姿勢情報と前記眼球回転角度情報に基づいて前記運転者の視線方向を決定して、視線方向情報を得る操作と、を含むことを特徴とする請求項13−16のいずれか一項に記載の方法。
  18. 前記顔キーポイントのうちの目キーポイントによって位置決めされた目画像に基づいて瞳縁位置を決定する前記操作は、
    第7ニューラルネットワークによって、前記顔キーポイントに基づいて分割された前記画像における目領域画像に対して瞳縁位置の検出を行い、前記第7ニューラルネットワークの出力した情報に基づいて前記瞳縁位置を取得する操作を含むことを特徴とする請求項17に記載の方法。
  19. 所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する前記操作は、
    所定時間内の視線方向情報の基準視線方向に対するずれ角度に基づいて、視線方向ずれ度合いのパラメータ値を取得する操作を含むことを特徴とする請求項13−18のいずれか一項に記載の方法。
  20. 前記基準視線方向を予め設定する操作、又は、
    前記運転者画像の所在するビデオ中の前のNフレームの運転者画像に基づいて決定された平均視線方向を前記基準視線方向とする操作を更に含み、Nが1より大きい整数であることを特徴とする請求項19に記載の方法。
  21. 所定時間内の前記目部状態情報に基づいて、漫然度合いのパラメータ値を取得する前記操作は、
    前記目部状態情報に基づいて、前記運転者の目が開眼状態にあり且つ所定漫然時間に到達するまで持続した時に、前記運転者が漫然状態にあると決定する操作と、
    所定時間内の目部状態情報に基づいて、漫然度合いのパラメータ値を取得する操作と、を含み、前記所定時間は前記所定漫然時間を含むことを特徴とする請求項13−20のいずれか一項に記載の方法。
  22. 所定時間内の前記頭部位置情報に基づいて、居眠り度合いのパラメータ値を取得する前記操作は、
    前記頭部位置情報に基づいて、前記運転者の頭部位置の所定基準頭部位置に対するずれ度合いが第1所定時間内に所定ずれ範囲に到達し、且つ第2所定時間内に前記所定基準頭部位置に復帰した時に、前記運転者が居眠り状態にあると決定する操作と、
    所定時間内の前記頭部位置情報に基づいて、居眠り度合いのパラメータ値を取得する操作と、を含み、前記所定時間は前記第1所定時間と前記第2所定時間を含むことを特徴とする請求項14−21のいずれか一項に記載の方法。
  23. 所定時間内の前記口部状態情報に基づいて、あくび度合いのパラメータ値を取得する前記操作は、
    前記口部状態情報に基づいて、前記運転者の口が閉口状態から開口状態に変化し、更に閉口状態に復帰した時間が所定時間範囲内にある時に、前記運転者が1回のあくび動作を完了したと決定する操作と、
    所定時間内の口部状態情報に基づいて、あくび度合いのパラメータ値を取得する操作と、を含み、前記所定時間は前記運転者の口が閉口状態から開口状態に変化し、更に閉口状態に復帰した時間を含むことを特徴とする請求項14−22のいずれか一項に記載の方法。
  24. 前記頭部位置ずれ度合いのパラメータ値は、頭部位置ずれ状態、頭部位置ずれ方向、頭部位置の前記頭部位置ずれ方向におけるずれ角度、頭部位置のずれ持続時間、頭部位置ずれ頻度の中のいずれか一つ又は複数を含み、及び/又は、
    前記顔向きずれ度合いのパラメータ値は、頭回し回数、頭回し持続時間、頭回し頻度の中のいずれか一つ又は複数を含み、及び/又は、
    前記視線方向ずれ度合いのパラメータ値は、視線方向ずれ角度、視線方向ずれ時間、視線方向ずれ頻度の中のいずれか一つ又は複数を含み、及び/又は、
    前記漫然度合いのパラメータ値は、開眼幅、開眼持続時間、開眼累計時間が統計時間窓で占める割合の中のいずれか一つ又は複数を含み、及び/又は、
    前記居眠り度合いのパラメータ値は、居眠りうなずき状態、居眠りうなずき幅、居眠りうなずき回数、居眠りうなずき頻度、居眠りうなずき持続時間の中のいずれか一つ又は複数を含み、及び/又は、
    前記閉眼度合いのパラメータ値は、閉眼回数、閉眼頻度、閉眼持続時間、閉眼幅、半分閉眼回数、半分閉眼頻度、閉眼累計時間が統計時間窓で占める割合の中のいずれか一つ又は複数を含み、及び/又は、
    前記まばたき度合いのパラメータ値は、まばたき回数、まばたき頻度、まばたき持続時間、まばたき累計時間が統計時間窓で占める割合の中のいずれか一つ又は複数を含み、及び/又は、
    前記あくび度合いのパラメータ値は、あくび状態、あくび回数、あくび持続時間、あくび頻度の中のいずれか一つ又は複数を含むことを特徴とする請求項13−23のいずれか一項に記載の方法。
  25. 前記の運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定する操作は、
    いずれか一つ又は複数の前記の運転者の注意散漫状態を表すための指標のパラメータ値が所定注意散漫条件を満たした時に、運転者の注意散漫状態の検出結果を注意散漫状態と決定する操作、及び/又は、
    前記の運転者の注意散漫状態を表すための指標のパラメータ値がいずれも所定注意散漫条件を満たさない時に、運転者の注意散漫状態の検出結果を非注意散漫状態と決定する操作を含むことを特徴とする請求項3−24のいずれか一項に記載の方法。
  26. 前記所定注意散漫条件は、複数の注意散漫等級条件を含み、
    いずれか一つ又は複数の前記の運転者の注意散漫状態を表すための指標のパラメータ値が所定注意散漫条件を満たした時に、運転者の注意散漫状態の検出結果を注意散漫状態と決定する前記操作は、
    前記の運転者の注意散漫状態を表すための指標のパラメータ値が満たした注意散漫等級条件に基づいて、注意散漫状態等級を決定する操作と、
    決定された注意散漫状態等級を運転者の注意散漫状態の検出結果とする操作と、を含むことを特徴とする請求項25に記載の方法。
  27. 前記の運転者の疲労状態を表すための指標のパラメータ値に基づいて、運転者の疲労状態の検出結果を決定する操作は、
    いずれか一つ又は複数の前記の運転者の疲労状態を表すための指標のパラメータ値が所定疲労条件を満たした時に、運転者の疲労状態の検出結果を疲労状態と決定する操作、及び/又は、
    前記の運転者の疲労状態を表すための指標のパラメータ値がいずれも所定疲労条件を満たさない時に、運転者の疲労状態の検出結果を非疲労状態と決定する操作を含むことを特徴とする請求項4−26のいずれか一項に記載の方法。
  28. 前記所定疲労条件は、複数の疲労等級条件を含み、
    いずれか一つ又は複数の前記の運転者の疲労状態を表すための指標のパラメータ値が所定疲労条件を満たした時に、運転者の疲労状態の検出結果を疲労状態と決定する前記操作は、
    前記の運転者の疲労状態を表すための指標のパラメータ値が満たした疲労等級条件に基づいて、疲労状態等級を決定する操作と、
    決定された疲労状態等級を運転者の疲労状態の検出結果とする操作と、を含むことを特徴とする請求項27に記載の方法。
  29. 前記運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定する操作と、
    所定注意散漫動作が発生した場合に、所定時間内に前記所定注意散漫動作が発生したか否かの決定結果に基づいて、運転者の注意散漫度合いを表すための指標のパラメータ値を取得する操作と、
    前記の運転者の注意散漫度合いを表すための指標のパラメータ値に基づいて、運転者の所定注意散漫動作の検出結果を決定する操作と、を更に含むことを特徴とする請求項1−28のいずれか一項に記載の方法。
  30. 前記所定注意散漫動作は、喫煙動作、飲水動作、飲食動作、電話通話動作、娯楽動作、化粧動作の中のいずれか一つ又は複数を含むことを特徴とする請求項29に記載の方法。
  31. 前記運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定する前記操作は、
    前記運転者画像の特徴を抽出する操作と、
    前記特徴に基づいて所定注意散漫動作を含む可能性がある複数の候補枠を抽出する操作と、
    複数の前記候補枠に基づいて、顔の局所領域と動作関連物を含む動作目標枠を決定する操作と、
    前記動作目標枠に基づいて所定注意散漫動作の分類検出を行って、前記所定注意散漫動作が発生したか否かを決定する操作と、を含むことを特徴とする請求項30に記載の方法。
  32. 前記顔の局所領域は、口部領域、耳部領域、目部領域の中のいずれか一つ又は複数を含み、及び/又は、
    前記動作関連物は、容器、タバコ、携帯電話、食物、工具、飲料ボトル、眼鏡、マスクの中のいずれか一つ又は複数を含むことを特徴とする請求項31に記載の方法。
  33. 前記動作目標枠は、手部領域を更に含むことを特徴とする請求項31又は32に記載の方法。
  34. 前記運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定する前記操作は、
    第8ニューラルネットワークによって前記運転者画像に対して顔検出を行って顔検出枠を取得し、前記顔検出枠の特徴情報を抽出する操作と、
    前記第8ニューラルネットワークによって前記顔検出枠の特徴情報に基づいて喫煙動作が発生したか否かを決定する操作と、を含むことを特徴とする請求項30に記載の方法。
  35. 前記運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定する前記操作は、
    第9ニューラルネットワークによって前記運転者画像に対して前記飲食動作/飲水動作/電話通話動作/娯楽動作/化粧動作に対応する所定目標対象の検出を行って、容器、食物、電子機器、化粧品の中のいずれか一つ又は複数を含む動作関連物、手部、口部、および、目部を含む所定目標対象の検出枠を得る操作と、
    前記所定目標対象の検出枠に基づいて、所定注意散漫動作が発生したか否かを決定する操作と、を含み、所定注意散漫動作が発生したか否かの決定結果は、飲食動作/飲水動作/電話通話動作/娯楽動作/化粧動作が発生しなかったこと、飲食動作が発生したこと、飲水動作が発生したこと、電話通話動作が発生したこと、娯楽動作が発生したこと、化粧動作が発生したことの中の一項を含むことを特徴とする請求項30に記載の方法。
  36. 前記所定目標対象の検出枠に基づいて、所定注意散漫動作が発生したか否かを決定する前記操作は、
    手部の検出枠、口部の検出枠、目部の検出枠及び動作関連物の検出枠が検出されたか否か、および、手部の検出枠と動作関連物の検出枠とが重なっているか否か、前記動作関連物の種類及び動作関連物の検出枠と口部の検出枠又は目部の検出枠との間の距離が所定条件を満たすか否かに応じて、所定注意散漫動作が発生したか否かを決定する操作を含むことを特徴とする請求項35に記載の方法。
  37. 手部の検出枠と動作関連物の検出枠とが重なっているか否か、前記動作関連物の種類及び動作関連物の検出枠と口部の検出枠又は目部の検出枠との間の距離が所定条件を満たすか否かに応じて、所定注意散漫動作が発生したか否かを決定する前記操作は、
    前記手部の検出枠と前記動作関連物の検出枠とが重なっており、前記動作関連物の種類が容器又は食物であり、且つ前記動作関連物の検出枠と口部の検出枠とが重なっている場合に、飲食動作、飲水動作又は化粧動作が発生したと決定する操作、及び/又は、
    前記手部の検出枠と前記動作関連物の検出枠とが重なっており、前記動作関連物の種類が電子機器であり、且つ前記動作関連物の検出枠と口部の検出枠との間の最小距離が第1所定距離より小さく、又は前記動作関連物の検出枠と目部の検出枠との間の最小距離が第2所定距離より小さい場合に、娯楽動作又は電話通話動作が発生したと決定する操作を含むことを特徴とする請求項36に記載の方法。
  38. 手部の検出枠、口部の検出枠及びいずれか1つの前記動作関連物の検出枠が同時に検出されなく、且つ手部の検出枠、目部の検出枠及びいずれか1つの前記動作関連物の検出枠が同時に検出されなかった場合に、所定注意散漫動作が発生したか否かの決定結果として、飲食動作、飲水動作、電話通話動作、娯楽動作及び化粧動作が検出されなかったと決定する操作、及び/又は、
    手部の検出枠と前記動作関連物の検出枠とが重なっていない場合に、所定注意散漫動作が発生したか否かの決定結果として、飲食動作、飲水動作、電話通話動作、娯楽動作、化粧動作が検出されなかったと決定する操作、及び/又は、
    前記動作関連物の種類が容器又は食物であり、且つ前記動作関連物の検出枠と口部の検出枠とが重なっておらず、及び/又は、前記動作関連物の種類が電子機器であり、且つ前記動作関連物の検出枠と口部の検出枠との間の最小距離が第1所定距離より小さくなく、又は前記動作関連物の検出枠と目部の検出枠との間の最小距離が第2所定距離より小さくない場合に、所定注意散漫動作が発生したか否かの決定結果として、飲食動作、飲水動作、電話通話動作、娯楽動作及び化粧動作が検出されなかったと決定する操作を更に含むことを特徴とする請求項36又は37に記載の方法。
  39. 前記注意散漫度合いのパラメータ値は、所定注意散漫動作の回数、所定注意散漫動作の持続時間、所定注意散漫動作の頻度の中のいずれか一つ又は複数を含むことを特徴とする請求項29−38のいずれか一項に記載の方法。
  40. 所定注意散漫動作が発生したと決定した場合に、
    前記の注意散漫度合いを表すための指標のパラメータ値が満たした注意散漫動作等級条件に基づいて、注意散漫動作等級を決定する操作と、
    決定された注意散漫動作等級を運転者の所定注意散漫動作の検出結果とする操作と、を更に含むことを特徴とする請求項29−39のいずれか一項に記載の方法。
  41. 疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作の検出結果の中のいずれか一つ又は複数を含む前記運転者状態の検出結果に基づいて、警報及び/又はインテリジェント運転制御を行う操作を更に含むことを特徴とする請求項1−40のいずれか一項に記載の方法。
  42. 運転者状態の検出結果に基づいて、警報及び/又はインテリジェント運転制御を行う前記操作は、
    運転者状態の検出結果が所定警報条件を満たした時に、前記警報条件に対応するプロンプト/警報情報を出力する操作、及び/又は、
    運転者状態の検出結果が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替える操作を含むことを特徴とする請求項41に記載の方法。
  43. 運転者状態の検出結果が所定警報条件を満たした時に、前記警報条件に対応するプロンプト/警報情報を出力する前記操作は、
    疲労状態の検出結果が疲労状態である時に、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、
    注意散漫状態の検出結果が注意散漫状態である時に、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、
    所定注意散漫動作が発生した時に、前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、
    運転者状態の検出結果として、疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作が発生した検出結果のうちの任意の二つ又は三つがあった時に、所定方式でプロンプト/警報情報を出力する操作を含むことを特徴とする請求項42に記載の方法。
  44. 前記疲労状態に対応するプロンプト/警報情報を出力した後の所定時間内に、前記運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報を抑える操作、及び/又は、
    前記注意散漫状態に対応するプロンプト/警報情報を出力した後の所定時間内に、前記運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報を抑える操作、及び/又は、
    前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力した後の所定時間内に、前記運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報を抑える操作を更に含むことを特徴とする請求項43に記載の方法。
  45. 運転者状態の検出結果として、疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作が発生した検出結果のうちの任意の二つ又は三つがあった時に、所定方式でプロンプト/警報情報を出力する前記操作は、
    運転者状態の検出結果が疲労状態と注意散漫状態である時に、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果と注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、
    運転者状態の検出結果が注意散漫状態であり、所定注意散漫動作が検出された時に、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、前記注意散漫状態の検出結果と前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、
    運転者状態の検出結果が疲労状態であり、所定注意散漫動作が検出された時に、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、所定注意散漫動作が検された検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果と前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、
    運転者状態の検出結果が疲労状態、注意散漫状態であり、所定注意散漫動作が発生した時に、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果と前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記注意散漫状態の検出結果と前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果と前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果、前記注意散漫状態の検出結果及び前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作を含むことを特徴とする請求項43又は44に記載の方法。
  46. 疲労状態の検出結果が疲労状態等級である時に、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力する前記操作は、前記疲労状態等級に基づいて対応するプロンプト又は警報情報を出力する操作を含み、及び/又は、
    注意散漫状態の検出結果が注意散漫状態等級である時に、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する前記操作は、前記注意散漫状態等級に基づいて対応するプロンプト又は警報情報を出力する操作を含み、
    所定注意散漫動作の検出結果が注意散漫動作等級である時に、前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する前記操作は、前記注意散漫動作等級に基づいて対応するプロンプト又は警報情報を出力する操作を含むことを特徴とする請求項43−45のいずれか一項に記載の方法。
  47. 運転者状態の検出結果が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替える前記操作は、
    前記疲労状態等級及び/又は前記注意散漫状態等級及び/又は前記注意散漫動作等級が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替える操作を含むことを特徴とする請求項46に記載の方法。
  48. 赤外線カメラによって画像を取得して前記運転者画像を得る操作を更に含むことを特徴とする請求項1−47のいずれか一項に記載の方法。
  49. 赤外線カメラによって画像を取得する前記操作は、
    車両内の少なくとも1つの位置に設置された前記赤外線カメラによって画像を取得する操作を含むことを特徴とする請求項48に記載の方法。
  50. 前記少なくとも1つの位置は、インストルメントパネルの上方又は近傍位置、センターコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置の中のいずれか1つ又は複数の位置を含むことを特徴とする請求項49に記載の方法。
  51. 赤外線カメラによって画像を取得して前記運転者画像を得る前記操作は、
    前記車両が走行状態にある時に赤外線カメラによって画像を取得して前記運転者画像を得る操作、及び/又は、
    前記車両の走行速度が所定車速を超えると、赤外線カメラによって画像を取得して前記運転者画像を得る操作、及び/又は、
    前記車両が起動したことが検出されると、赤外線カメラによって画像を取得して前記運転者画像を得る操作、及び/又は、
    前記車両の起動コマンドが検出されると、赤外線カメラによって画像を取得して前記運転者画像を得る操作、及び/又は、
    前記車両又は前記車両中の部材或いはシステムへの制御コマンドが検出されると、赤外線カメラによって画像を取得して前記運転者画像を得る操作を含むことを特徴とする請求項48−50のいずれか一項に記載の方法。
  52. 運転状態検出装置であって、
    運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得るための第1検出モジュールと、
    前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定するための第1決定モジュールと、を含むことを特徴とする運転状態検出装置。
  53. 前記頭部姿勢情報に基づいて決定された前記運転者画像における運転者の頭部位置情報により、前記運転者の頭部位置のずれ角度が所定範囲を超えたか否かを決定するための第2決定モジュールを更に含み、
    前記第1決定モジュールは、
    前記運転者の頭部位置のずれ角度が所定範囲を超えた時に、前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の注意散漫状態の検出結果を決定するための第1決定ユニット、及び/又は、
    前記運転者の頭部位置のずれ角度が所定範囲を超えていない時に、前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定するための第2決定ユニットを含むことを特徴とする請求項52に記載の装置。
  54. 前記第1決定ユニットは、
    前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定するための第1決定サブユニットと、
    運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定するための第2決定サブユニットと、を含むことを特徴とする請求項53に記載の装置。
  55. 前記第2決定ユニットは、
    前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値を決定するための第3決定サブユニットと、
    前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の注意散漫状態を表すための指標のパラメータ値を決定するための第1決定サブユニットと、
    前記の運転者の疲労状態を表すための指標のパラメータ値に基づいて、運転者の疲労状態の検出結果を決定するための第4決定サブユニットと、
    前記の運転者の注意散漫状態を表すための指標のパラメータ値に基づいて、運転者の注意散漫状態の検出結果を決定するための第2決定サブユニットと、を含むことを特徴とする請求項52−54のいずれか一項に記載の装置。
  56. 前記第1検出モジュールは、
    前記運転者画像に対して顔キーポイント検出を行うためのキーポイント検出ユニットと、
    検出された前記顔キーポイントに基づいて前記頭部姿勢情報と前記目部状態情報を取得するための第1取得ユニットと、を含むことを特徴とする請求項52−55のいずれか一項に記載の装置。
  57. 前記第1取得ユニットは、検出された前記顔キーポイントに基づいて頭部姿勢情報を取得する時に、第1ニューラルネットワークによって、前記顔キーポイントに基づいて前記頭部姿勢情報を取得するために用いられることを特徴とする請求項56に記載の装置。
  58. 前記第1取得ユニットは、検出された前記顔キーポイントに基づいて目部状態情報を取得する時に、前記顔キーポイントに基づいて前記運転者画像における目部領域画像を決定する操作と、第2ニューラルネットワークによって前記目部領域画像に対して上眼瞼線と下眼瞼線の検出を行う操作と、前記上眼瞼線と下眼瞼線との間の間隔に基づいて前記運転者の目開閉状態情報を決定する操作とに用いられ、前記目部状態情報は前記目開閉状態情報を含むことを特徴とする請求項56又は57に記載の装置。
  59. 前記第1取得ユニットは、検出された前記顔キーポイントに基づいて目部状態情報を取得する時に、前記顔キーポイントに基づいて前記運転者画像における目部領域画像を決定する操作と、第3ニューラルネットワークによって前記目部領域画像に対して開眼閉眼の分類処理を行って、開眼又は閉眼の分類結果を得る操作とに用いられ、前記目部状態情報は開眼状態又は閉眼状態を含むことを特徴とする請求項56又は57に記載の装置。
  60. 前記第1検出モジュールは、更に、運転者画像に対して口部状態検出を行って、口部状態情報を得るために用いられ、
    前記第3決定サブユニットは、前記頭部姿勢情報、前記目部状態情報及び前記口部状態情報に基づいて、運転者の疲労状態を表すための指標のパラメータ値を決定するために用いられることを特徴とする請求項55−59のいずれか一項に記載の装置。
  61. 前記第1検出モジュール中の第1取得ユニットは、更に、検出された前記顔キーポイントに基づいて口部状態情報を取得するために用いられることを特徴とする請求項60に記載の装置。
  62. 前記第1取得ユニットは、検出された前記顔キーポイントに基づいて口部状態情報を取得する時に、前記顔キーポイントに基づいて前記運転者画像における口部領域画像を決定する操作と、第4ニューラルネットワークによって前記口部領域画像に対して上***線と下***線の検出を行う操作と、前記上***線と下***線との間の間隔に基づいて前記運転者の口開閉状態情報を決定する操作とに用いられ、前記口部状態情報は前記口開閉状態情報を含むことを特徴とする請求項61に記載の装置。
  63. 前記第1取得ユニットは、検出された前記顔キーポイントに基づいて口部状態情報を取得する時に、前記顔キーポイントに基づいて前記運転者画像における口部領域画像を決定する操作と、第5ニューラルネットワークによって前記口部領域画像に対して口開閉の分類処理を行って、開口又は閉口の分類結果を得る操作とに用いられ、前記口部状態情報は開口状態又は閉口状態を含むことを特徴とする請求項61に記載の装置。
  64. 前記第1決定サブユニットは、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の頭部位置を決定して頭部位置情報を得、所定時間内の前記頭部位置情報に基づいて頭部位置ずれ度合いのパラメータ値を取得する操作、及び/又は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の顔向きを決定して顔向き情報を得、所定時間内の顔向き情報に基づいて顔向きずれ度合いのパラメータ値を取得する操作、及び/又は、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の視線方向を決定して視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得し、又は、前記顔キーポイントに基づいて前記運転者画像における目部領域画像を決定し、第6ニューラルネットワークによって前記目部領域画像における運転者の視線方向情報を取得し、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する操作、及び/又は、
    所定時間内の前記目部状態情報に基づいて、漫然度合いのパラメータ値を取得する操作に用いられることを特徴とする請求項54−63のいずれか一項に記載の装置。
  65. 前記第3決定サブユニットは、
    前記頭部姿勢情報に基づいて前記運転者画像における運転者の頭部位置を決定して頭部位置情報を得、所定時間内の前記頭部位置情報に基づいて居眠り度合いのパラメータ値を取得する操作、及び/又は、
    所定時間内の前記目部状態情報に基づいて、閉眼度合いのパラメータ値を取得する操作、及び/又は、
    所定時間内の前記目部状態情報に基づいて、まばたき度合いのパラメータ値を取得する操作、及び/又は、
    所定時間内の前記口部状態情報に基づいて、あくび度合いのパラメータ値を取得する操作に用いられることを特徴とする請求項55−64のいずれか一項に記載の装置。
  66. 前記の運転者疲労状態を表すための指標は、居眠り度合い、閉眼度合い、まばたき度合い、あくび度合いの中のいずれか一つ又は複数を含み、及び/又は、
    前記の運転者注意散漫状態を表すための指標は、頭部位置ずれ度合い、顔向きずれ度合い、視線方向ずれ度合い、漫然度合いの中のいずれか一つ又は複数を含むことを特徴とする請求項64又は65に記載の装置。
  67. 前記第1決定サブユニットは、前記頭部姿勢情報に基づいて前記運転者画像における運転者の頭部位置を決定する時に、前記頭部姿勢情報中のピッチ角を取得して前記頭部位置とするために用いられ、及び/又は、
    前記第1決定サブユニットは、前記頭部姿勢情報に基づいて前記運転者画像における運転者の顔向きを決定する時に、前記頭部姿勢情報中のピッチ角とヨー角を取得して前記顔向きとするために用いられることを特徴とする請求項64−66のいずれか一項に記載の装置。
  68. 前記第1決定サブユニットは、前記頭部姿勢情報に基づいて前記運転者画像における運転者の視線方向を決定して視線方向情報を得る時に、前記顔キーポイントのうちの目キーポイントによって位置決めされた目画像に基づいて瞳縁位置を決定し、前記瞳縁位置に基づいて瞳中心位置を計算する操作と、前記瞳中心位置と目中心位置に基づいて前記頭部姿勢情報に対応する頭部姿勢での眼球回転角度情報を取得する操作と、前記頭部姿勢情報と前記眼球回転角度情報に基づいて前記運転者の視線方向を決定して視線方向情報を得る操作とに用いられることを特徴とする請求項64−67のいずれか一項に記載の装置。
  69. 前記第1決定サブユニットは、前記顔キーポイントのうちの目キーポイントによって位置決めされた目画像に基づいて瞳縁位置を決定する時に、第7ニューラルネットワークによって、前記顔キーポイントに基づいて分割された前記画像における目領域画像に対して瞳縁位置の検出を行い、前記第7ニューラルネットワークの出力した情報に基づいて前記瞳縁位置を取得するために用いられることを特徴とする請求項68に記載の装置。
  70. 前記第1決定サブユニットは、所定時間内の視線方向情報に基づいて視線方向ずれ度合いのパラメータ値を取得する時に、所定時間内の視線方向情報の基準視線方向に対するずれ角度に基づいて、視線方向ずれ度合いのパラメータ値を取得するために用いられることを特徴とする請求項64−69のいずれか一項に記載の装置。
  71. 前記基準視線方向は、予め設定されたものであるか、前記運転者画像の所在するビデオ中の前のNフレームの運転者画像に基づいて決定された平均視線方向であり、Nが1より大きい整数であることを特徴とする請求項70に記載の装置。
  72. 前記第1決定サブユニットは、所定時間内の前記目部状態情報に基づいて漫然度合いのパラメータ値を取得する時に、前記目部状態情報に基づいて、前記運転者の目が開眼状態にあり且つ所定漫然時間に到達するまで持続した時に、前記運転者が漫然状態にあると決定する操作と、所定時間内の目部状態情報に基づいて、漫然度合いのパラメータ値を取得する操作とに用いられ、前記所定時間は前記所定漫然時間を含むことを特徴とする請求項64−71のいずれか一項に記載の装置。
  73. 前記第3決定サブユニットは、所定時間内の前記頭部位置情報に基づいて居眠り度合いのパラメータ値を取得する時に、前記頭部位置情報に基づいて、前記運転者の頭部位置の所定基準頭部位置に対するずれ度合いが第1所定時間内に所定ずれ範囲に到達し、且つ第2所定時間内に前記所定基準頭部位置に復帰した時に、前記運転者が居眠り状態にあると決定する操作と、所定時間内の前記頭部位置情報に基づいて、居眠り度合いのパラメータ値を取得する操作とに用いられ、前記所定時間は前記第1所定時間と前記第2所定時間を含むことを特徴とする請求項65−72のいずれか一項に記載の装置。
  74. 前記第3決定サブユニットは、所定時間内の前記口部状態情報に基づいてあくび度合いのパラメータ値を取得する時に、前記口部状態情報に基づいて、前記運転者の口が閉口状態から開口状態に変化し、更に閉口状態に復帰した時間が所定時間範囲内にある時に、前記運転者が1回のあくび動作を完了したと決定する操作と、所定時間内の口部状態情報に基づいて、あくび度合いのパラメータ値を取得する操作とに用いられ、前記所定時間は前記運転者の口が閉口状態から開口状態に変化し、更に閉口状態に復帰した時間を含むことを特徴とする請求項65−73のいずれか一項に記載の装置。
  75. 前記頭部位置ずれ度合いのパラメータ値は、頭部位置ずれ状態、頭部位置ずれ方向、頭部位置の前記頭部位置ずれ方向におけるずれ角度、頭部位置のずれ持続時間、頭部位置ずれ頻度の中のいずれか一つ又は複数を含み、及び/又は、
    前記顔向きずれ度合いのパラメータ値は、頭回し回数、頭回し持続時間、頭回し頻度の中のいずれか一つ又は複数を含み、及び/又は、
    前記視線方向ずれ度合いのパラメータ値は、視線方向ずれ角度、視線方向ずれ時間、視線方向ずれ頻度の中のいずれか一つ又は複数を含み、及び/又は、
    前記漫然度合いのパラメータ値は、開眼幅、開眼持続時間、開眼累計時間が統計時間窓で占める割合の中のいずれか一つ又は複数を含み、及び/又は、
    前記居眠り度合いのパラメータ値は、居眠りうなずき状態、居眠りうなずき幅、居眠りうなずき回数、居眠りうなずき頻度、居眠りうなずき持続時間の中のいずれか一つ又は複数を含み、及び/又は、
    前記閉眼度合いのパラメータ値は、閉眼回数、閉眼頻度、閉眼持続時間、閉眼幅、半分閉眼回数、半分閉眼頻度、閉眼累計時間が統計時間窓で占める割合の中のいずれか一つ又は複数を含み、及び/又は、
    前記まばたき度合いのパラメータ値は、まばたき回数、まばたき頻度、まばたき持続時間、まばたき累計時間が統計時間窓で占める割合の中のいずれか一つ又は複数を含み、及び/又は、
    前記あくび度合いのパラメータ値は、あくび状態、あくび回数、あくび持続時間、あくび頻度の中のいずれか一つ又は複数を含むことを特徴とする請求項64−74のいずれか一項に記載の装置。
  76. 前記第2決定サブユニットは、いずれか一つ又は複数の前記の運転者の注意散漫状態を表すための指標のパラメータ値が所定注意散漫条件を満たした時に、運転者の注意散漫状態の検出結果を注意散漫状態と決定する操作、及び/又は、前記の運転者の注意散漫状態を表すための指標のパラメータ値がいずれも所定注意散漫条件を満たさない時に、運転者の注意散漫状態の検出結果を非注意散漫状態と決定する操作に用いられることを特徴とする請求項54−75のいずれか一項に記載の装置。
  77. 前記所定注意散漫条件は、複数の注意散漫等級条件を含み、
    前記第2決定サブユニットは、いずれか一つ又は複数の前記の運転者の注意散漫状態を表すための指標のパラメータ値が所定注意散漫条件を満たした時に、運転者の注意散漫状態の検出結果を注意散漫状態と決定する時に、前記の運転者の注意散漫状態を表すための指標のパラメータ値が満たした注意散漫等級条件に基づいて、注意散漫状態等級を決定する操作と、決定された注意散漫状態等級を運転者の注意散漫状態の検出結果とする操作とに用いられることを特徴とする請求項76に記載の装置。
  78. 前記第4決定サブユニットは、いずれか一つ又は複数の前記の運転者の疲労状態を表すための指標のパラメータ値が所定疲労条件を満たした時に、運転者の疲労状態の検出結果を疲労状態と決定する操作、及び/又は、前記の運転者の疲労状態を表すための指標のパラメータ値がいずれも所定疲労条件を満たさない時に、運転者の疲労状態の検出結果を非疲労状態と決定する操作に用いられることを特徴とする請求項55−77のいずれか一項に記載の装置。
  79. 前記所定疲労条件は、複数の疲労等級条件を含み、
    前記第4決定サブユニットは、いずれか一つ又は複数の前記の運転者の疲労状態を表すための指標のパラメータ値が所定疲労条件を満たした時に、運転者の疲労状態の検出結果を疲労状態と決定する時に、前記の運転者の疲労状態を表すための指標のパラメータ値が満たした疲労等級条件に基づいて、疲労状態等級を決定する操作と、決定された疲労状態等級を運転者の疲労状態の検出結果とする操作とに用いられることを特徴とする請求項78に記載の装置。
  80. 前記運転者画像に対して所定注意散漫動作検出を行って、所定注意散漫動作が発生したか否かを決定するための第2検出モジュールと、
    所定注意散漫動作が発生した時に、所定時間内に前記所定注意散漫動作が発生したか否かの決定結果に基づいて、運転者の注意散漫度合いを表すための指標のパラメータ値を取得するための第1取得モジュールと、
    前記の運転者の注意散漫度合いを表すための指標のパラメータ値に基づいて、運転者の所定注意散漫動作の検出結果を決定するための第3決定モジュールと、を更に含むことを特徴とする請求項52−79のいずれか一項に記載の装置。
  81. 前記所定注意散漫動作は、喫煙動作、飲水動作、飲食動作、電話通話動作、娯楽動作、化粧動作の中のいずれか一つ又は複数を含むことを特徴とする請求項80に記載の装置。
  82. 前記第2検出モジュールは、前記運転者画像の特徴を抽出する操作と、前記特徴に基づいて所定注意散漫動作を含む可能性がある複数の候補枠を抽出する操作と、複数の前記候補枠に基づいて、顔の局所領域と動作関連物を含む動作目標枠を決定する操作と、前記動作目標枠に基づいて所定注意散漫動作の分類検出を行って、前記所定注意散漫動作が発生したか否かを決定する操作とに用いられることを特徴とする請求項81に記載の装置。
  83. 前記顔の局所領域は、口部領域、耳部領域、目部領域の中のいずれか一つ又は複数を含み、及び/又は、
    前記動作関連物は、容器、タバコ、携帯電話、食物、工具、飲料ボトル、眼鏡、マスクの中のいずれか一つ又は複数を含むことを特徴とする請求項82に記載の装置。
  84. 前記動作目標枠は、手部領域を更に含むことを特徴とする請求項82又は83に記載の装置。
  85. 前記第2検出モジュールは、第8ニューラルネットワークによって前記運転者画像に対して顔検出を行って顔検出枠を取得し、前記顔検出枠の特徴情報を抽出する操作と、前記第8ニューラルネットワークによって前記顔検出枠の特徴情報に基づいて喫煙動作が発生したか否かを決定する操作とに用いられることを特徴とする請求項81に記載の装置。
  86. 前記第2検出モジュールは、第9ニューラルネットワークによって前記運転者画像に対して前記飲食動作/飲水動作/電話通話動作/娯楽動作/化粧動作に対応する所定目標対象の検出を行って、容器、食物、電子機器、化粧品の中のいずれか一つ又は複数を含む動作関連物、手部、口部、および、目部を含む所定目標対象の検出枠を得る操作と、前記所定目標対象の検出枠に基づいて、所定注意散漫動作が発生したか否かを決定する操作とに用いられ、所定注意散漫動作が発生したか否かの決定結果は、飲食動作/飲水動作/電話通話動作/娯楽動作/化粧動作が発生しなかったこと、飲食動作が発生したこと、飲水動作が発生したこと、電話通話動作が発生したこと、娯楽動作が発生したこと、化粧動作が発生したことの中の一項を含むことを特徴とする請求項81に記載の装置。
  87. 前記第2検出モジュールは、前記所定目標対象の検出枠に基づいて所定注意散漫動作が発生したか否かを決定する時に、手部の検出枠、口部の検出枠、目部の検出枠及び動作関連物の検出枠が検出されたか否か、および、手部の検出枠と動作関連物の検出枠とが重なっているか否か、前記動作関連物の種類及び動作関連物の検出枠と口部の検出枠又は目部の検出枠との間の距離が所定条件を満たすか否かに応じて、所定注意散漫動作が発生したか否かを決定するために用いられることを特徴とする請求項86に記載の装置。
  88. 前記第2検出モジュールは、手部の検出枠と動作関連物の検出枠とが重なっているか否か、および、動作関連物の検出枠と口部の検出枠又は目部の検出枠との間の位置関係が所定条件を満たすか否かに応じて、所定注意散漫動作が発生したか否かを決定する時に、前記手部の検出枠と前記動作関連物の検出枠とが重なっており、前記動作関連物の種類が容器又は食物であり、且つ前記動作関連物の検出枠と口部の検出枠とが重なっている場合に、飲食動作、飲水動作又は化粧動作が発生したと決定する操作、及び/又は、前記手部の検出枠と前記動作関連物の検出枠とが重なっており、前記動作関連物の種類が電子機器であり、且つ前記動作関連物の検出枠と口部の検出枠との間の最小距離が第1所定距離より小さく、又は前記動作関連物の検出枠と目部の検出枠との間の最小距離が第2所定距離より小さい場合に、娯楽動作又は電話通話動作が発生したと決定する操作に用いられることを特徴とする請求項87に記載の装置。
  89. 前記第2検出モジュールは、更に、手部の検出枠、口部の検出枠及びいずれか1つの前記動作関連物の検出枠が同時に検出されなく、且つ手部の検出枠、目部の検出枠及びいずれか1つの前記動作関連物の検出枠が同時に検出されなかった場合に、所定注意散漫動作が発生したか否かの決定結果として、飲食動作、飲水動作、電話通話動作、娯楽動作及び化粧動作が検出されなかったと決定する操作、及び/又は、手部の検出枠と前記動作関連物の検出枠とが重なっていない場合に、所定注意散漫動作が発生したか否かの決定結果として、飲食動作、飲水動作、電話通話動作、娯楽動作、化粧動作が検出されなかったと決定する操作、及び/又は、前記動作関連物の種類が容器又は食物であり、且つ前記動作関連物の検出枠と口部の検出枠とが重なっておらず、及び/又は、前記動作関連物の種類が電子機器であり、且つ前記動作関連物の検出枠と口部の検出枠との間の最小距離が第1所定距離より小さくなく、又は前記動作関連物の検出枠と目部の検出枠との間の最小距離が第2所定距離より小さくない場合に、所定注意散漫動作が発生したか否かの決定結果として、飲食動作、飲水動作、電話通話動作、娯楽動作及び化粧動作が検出されなかったと決定する操作に用いられることを特徴とする請求項87又は88に記載の装置。
  90. 前記注意散漫度合いのパラメータ値は、所定注意散漫動作の回数、所定注意散漫動作の持続時間、所定注意散漫動作の頻度の中のいずれか一つ又は複数を含むことを特徴とする請求項80−89のいずれか一項に記載の装置。
  91. 前記の注意散漫度合いを表すための指標のパラメータ値が満たした注意散漫動作等級条件に基づいて、注意散漫動作等級を決定するための第4決定モジュールを更に含み、
    前記第3決定モジュールは、決定された注意散漫動作等級を運転者の所定注意散漫動作の検出結果とするために用いられることを特徴とする請求項80−90のいずれか一項に記載の装置。
  92. 前記運転者状態の検出結果に基づいて、警報を行うための警報モジュール、及び/又は、
    疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作の検出結果の中のいずれか一つ又は複数を含む前記運転者状態の検出結果に基づいて、インテリジェント運転制御を行うための運転制御モジュールを更に含むことを特徴とする請求項52−91のいずれか一項に記載の装置。
  93. 前記警報モジュールは、運転者状態の検出結果が所定警報条件を満たした時に、前記警報条件に対応するプロンプト/警報情報を出力するために用いられ、及び/又は、
    前記運転制御モジュールは、運転者状態の検出結果が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替えるために用いられることを特徴とする請求項92に記載の装置。
  94. 前記警報モジュールは、疲労状態の検出結果が疲労状態である時に、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、注意散漫状態の検出結果が注意散漫状態である時に、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、所定注意散漫動作が発生した時に、前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、運転者状態の検出結果として、疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作が発生した検出結果のうちの任意の二つ又は三つがあった時に、所定方式でプロンプト/警報情報を出力する操作に用いられることを特徴とする請求項93に記載の装置。
  95. 前記警報モジュールは、更に、前記疲労状態に対応するプロンプト/警報情報を出力した後の所定時間内に、前記運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報を抑える操作、及び/又は、前記注意散漫状態に対応するプロンプト/警報情報を出力した後の所定時間内に、前記運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報を抑える操作、及び/又は、前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力した後の所定時間内に、前記運転者状態の検出結果のうちの他の検出結果に対応するプロンプト/警報情報を抑える操作に用いられることを特徴とする請求項94に記載の装置。
  96. 前記警報モジュールは、運転者状態の検出結果として、疲労状態の検出結果、注意散漫状態の検出結果、所定注意散漫動作が発生した検出結果のうちの任意の二つ又は三つがあった時に、所定方式でプロンプト/警報情報を出力する時に、
    運転者状態の検出結果が疲労状態と注意散漫状態である時に、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果と注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、
    運転者状態の検出結果が注意散漫状態であり、所定注意散漫動作が検出された時に、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、前記注意散漫状態の検出結果と前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、
    運転者状態の検出結果が疲労状態であり、所定注意散漫動作が検出された時に、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、所定注意散漫動作が検された検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果と前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作、及び/又は、
    運転者状態の検出結果が疲労状態、注意散漫状態であり、所定注意散漫動作が発生した時に、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果と前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力し、又は、前記注意散漫状態の検出結果と前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果と前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力し、又は、前記疲労状態の検出結果、前記注意散漫状態の検出結果及び前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する操作に用いられることを特徴とする請求項94又は95に記載の装置。
  97. 疲労状態の検出結果が疲労状態等級である時に、前記警報モジュールは、前記疲労状態の検出結果に対応するプロンプト/警報情報を出力する時に、前記疲労状態等級に基づいて対応するプロンプト又は警報情報を出力するために用いられ、及び/又は、
    注意散漫状態の検出結果が注意散漫状態等級である時に、前記警報モジュールは、前記注意散漫状態の検出結果に対応するプロンプト/警報情報を出力する時に、前記注意散漫状態等級に基づいて対応するプロンプト又は警報情報を出力するために用いられ、
    所定注意散漫動作の検出結果が注意散漫動作等級である時に、前記警報モジュールは、前記所定注意散漫動作の検出結果に対応するプロンプト/警報情報を出力する時に、前記注意散漫動作等級に基づいて対応するプロンプト又は警報情報を出力するために用いられることを特徴とする請求項94−96のいずれか一項に記載の装置。
  98. 前記運転制御モジュールは、前記疲労状態等級及び/又は前記注意散漫状態等級及び/又は前記注意散漫動作等級が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替えるために用いられることを特徴とする請求項97に記載の装置。
  99. 画像を取得して前記運転者画像を得るための赤外線カメラを更に含むことを特徴とする請求項52−98のいずれか一項に記載の装置。
  100. 前記赤外線カメラが車両内の少なくとも1つの位置に設置されることを特徴とする請求項99に記載の装置。
  101. 前記少なくとも1つの位置は、インストルメントパネルの上方又は近傍位置、センターコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置の中のいずれか1つ又は複数の位置を含むことを特徴とする請求項100に記載の装置。
  102. 前記赤外線カメラは、前記車両が走行状態にある時に画像を取得して前記運転者画像を得る操作、及び/又は、前記車両の走行速度が所定車速を超えると、画像を取得して前記運転者画像を得る操作、及び/又は、前記車両が起動したことが検出されると、画像を取得して前記運転者画像を得る操作、及び/又は、前記車両の起動コマンドが検出されると、画像を取得して前記運転者画像を得る操作、及び/又は、前記車両又は前記車両中の部材或いはシステムへの制御コマンドが検出されると、画像を取得して前記運転者画像を得る操作に用いられることを特徴とする請求項99−101のいずれか一項に記載の装置。
  103. 運転者監視システムであって、
    運転者画像、および、運転者の疲労状態と注意散漫状態の検出結果を表示するための表示装置と、
    運転者画像に対して頭部姿勢検出と目部状態検出を行って、頭部姿勢情報と目部状態情報を得、前記頭部姿勢情報と前記目部状態情報に基づいて、運転者の疲労状態と注意散漫状態の検出結果を決定するための運転者状態検出装置と、を含むことを特徴とする運転者監視システム。
  104. 前記運転者状態検出装置は、請求項52−102のいずれか一項に記載の運転状態検出装置を含むことを特徴とする請求項103に記載のシステム。
  105. 電子機器であって、
    コンピュータプログラムを記憶するためのメモリと、
    前記メモリに記憶されているコンピュータプログラムを実行するためのものであって、前記コンピュータプログラムが実行されると、上記請求項1−51のいずれか一項に記載の運転状態検出方法を実現するプロセッサと、を含むことを特徴とする電子機器。
  106. コンピュータプログラムが記憶されているコンピュータ読取可能記憶媒体であって、
    前記コンピュータプログラムがプロセッサにより実行されると、上記請求項1−51のいずれか一項に記載の運転状態検出方法を実現することを特徴とするコンピュータ読取可能記憶媒体。
  107. 中央制御システムを含む車両であって、
    前記中央制御システムと通信可能に接続される請求項52−102のいずれか一項に記載の運転状態検出装置、又は、前記中央制御システムと通信可能に接続される請求項103−104のいずれか一項に記載の運転者監視システムを更に含むことを特徴とする車両。
  108. 前記中央制御システムは、
    前記運転状態検出装置又は前記運転者監視システムの出力した運転者状態の検出結果に基づいて、運転者状態の検出結果が所定警報条件を満たした時に、前記車両中の娯楽システム又は前記車両の外部に接続される娯楽システムを呼び出して前記警報条件に対応するプロンプト/警報情報を出力する操作、及び/又は、
    運転者状態の検出結果が所定運転モード切り替え条件を満たした時に、運転モードを自動運転モードに切り替え、且つ自動運転モードで前記車両に対して自動運転制御を行う操作に用いられることを特徴とする請求項107に記載の車両。
  109. 前記中央制御システムは、更に、手動運転に切り替える運転コマンドを受信すると、運転モードを手動運転モードに切り替えるために用いられることを特徴とする請求項107又は108に記載の車両。
  110. 前記中央制御システムの制御コマンドに基づいて、前記警報条件に対応するプロンプト/警報情報を出力する操作、及び/又は、前記中央制御システムの制御コマンドに基づいて、プロンプト/警報情報の警報効果又は娯楽項目の再生効果を調整する操作に用いられる娯楽システムを更に含むことを特徴とする請求項107−109のいずれか一項に記載の車両。
  111. 画像を取得するための少なくとも1つの赤外線カメラを更に含むことを特徴とする請求項107−110のいずれか一項に記載の車両。
  112. 前記赤外線カメラが、インストルメントパネルの上方又は近傍位置、センターコンソールの上方又は近傍位置、Aピラー又は近傍位置、バックミラー又は近傍位置の中のいずれか1つ又は複数の位置を含む前記車両内の少なくとも1つの位置に設置されることを特徴とする請求項111に記載の車両。
JP2020571644A 2018-10-19 2019-10-18 運転状態検出方法及び装置、運転者監視システム並びに車両 Active JP7146959B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811224308.9A CN111079475A (zh) 2018-10-19 2018-10-19 驾驶状态检测方法和装置、驾驶员监控***、车辆
CN201811224308.9 2018-10-19
PCT/CN2019/111931 WO2020078464A1 (zh) 2018-10-19 2019-10-18 驾驶状态检测方法和装置、驾驶员监控***、车辆

Publications (2)

Publication Number Publication Date
JP2021527900A true JP2021527900A (ja) 2021-10-14
JP7146959B2 JP7146959B2 (ja) 2022-10-04

Family

ID=70282880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020571644A Active JP7146959B2 (ja) 2018-10-19 2019-10-18 運転状態検出方法及び装置、運転者監視システム並びに車両

Country Status (6)

Country Link
US (1) US11308723B2 (ja)
JP (1) JP7146959B2 (ja)
KR (1) KR102469233B1 (ja)
CN (1) CN111079475A (ja)
SG (1) SG11202009437SA (ja)
WO (1) WO2020078464A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228758A1 (ja) * 2022-05-24 2023-11-30 住友重機械工業株式会社 建設機械、建設機械の支援システム

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
CN109902560A (zh) * 2019-01-15 2019-06-18 浙江师范大学 一种基于深度学习的疲劳驾驶预警方法
KR20210009596A (ko) * 2019-07-17 2021-01-27 엘지전자 주식회사 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스
CN111539333B (zh) * 2020-04-24 2021-06-29 湖北亿咖通科技有限公司 驾驶员的注视区域识别及分心检测方法
CN111680592A (zh) * 2020-05-28 2020-09-18 东风柳州汽车有限公司 车内生物检测方法、装置、设备及存储介质
KR20210128491A (ko) * 2020-06-29 2021-10-26 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 위험 주행 행위 식별 방법, 장치, 전자 설비 및 저장매체
CN111785008A (zh) * 2020-07-04 2020-10-16 苏州信泰中运物流有限公司 一种基于gps和北斗定位的物流监控管理方法、装置及计算机可读存储介质
CN112585583B (zh) * 2020-07-17 2021-12-03 华为技术有限公司 数据处理方法、装置及智能车辆
CN213056885U (zh) * 2020-08-11 2021-04-27 上海商汤临港智能科技有限公司 车辆
CN112016457A (zh) * 2020-08-27 2020-12-01 青岛慕容信息科技有限公司 驾驶员分神以及危险驾驶行为识别方法、设备和存储介质
CN112052775A (zh) * 2020-08-31 2020-12-08 同济大学 一种基于梯度直方图视频识别技术的疲劳驾驶检测方法
CN112052770A (zh) * 2020-08-31 2020-12-08 北京地平线信息技术有限公司 用于疲劳检测的方法、装置、介质以及电子设备
CN112289003B (zh) * 2020-10-23 2022-06-17 江铃汽车股份有限公司 疲劳驾驶不端驾驶行为监测方法及主动安全驾驶监控***
CN114495069A (zh) * 2020-10-27 2022-05-13 中车株洲电力机车研究所有限公司 一种监测司机驾驶状态的方法及***
CN112277957B (zh) * 2020-10-27 2022-06-24 广州汽车集团股份有限公司 一种用于驾驶员分心纠正的预警方法及其***、存储介质
TWI741892B (zh) * 2020-12-01 2021-10-01 咸瑞科技股份有限公司 車內駕駛監測系統
CN112455327A (zh) * 2020-12-03 2021-03-09 上海汽车集团股份有限公司 一种车灯控制方法、装置及计算机可读存储介质
CN112660157B (zh) * 2020-12-11 2022-12-27 重庆邮电大学 一种多功能无障碍车远程监控与辅助驾驶***
CN112633247A (zh) * 2021-01-04 2021-04-09 珠海研果科技有限公司 驾驶状态监测方法和装置
CN112754498B (zh) * 2021-01-11 2023-05-26 一汽解放汽车有限公司 驾驶员的疲劳检测方法、装置、设备及存储介质
CN112668548B (zh) * 2021-01-15 2024-07-12 重庆大学 一种驾驶员发呆检测方法及***
CN112829767B (zh) * 2021-02-22 2024-05-17 清华大学苏州汽车研究院(相城) 一种基于监测驾驶员误操作的自动驾驶控制***及方法
CN112907408A (zh) * 2021-03-01 2021-06-04 北京安博创赢教育科技有限责任公司 一种评价学生学习效果的方法、装置、介质和电子设备
CN113060144A (zh) * 2021-03-12 2021-07-02 上海商汤临港智能科技有限公司 分心提醒方法及装置、电子设备和存储介质
CN113119981B (zh) * 2021-04-09 2022-06-17 东风汽车集团股份有限公司 车辆主动安全控制方法、***及存储介质
CN113119970A (zh) * 2021-04-26 2021-07-16 徐州工程学院 一种用于复杂环境下的自动驾驶***
CN113468956A (zh) * 2021-05-24 2021-10-01 北京迈格威科技有限公司 注意力判定方法、模型训练方法及对应装置
CN113298041B (zh) * 2021-06-21 2024-07-02 黑芝麻智能科技(上海)有限公司 用于标定驾驶员分心参考方向的方法及***
CN113361452B (zh) * 2021-06-24 2023-06-20 中国科学技术大学 一种基于深度学习的驾驶员疲劳驾驶实时检测方法及***
CN113593183A (zh) * 2021-06-25 2021-11-02 湖南大学 一种基于声学的疲劳驾驶和分心驾驶的检测方法、装置、设备及介质
CN113537115A (zh) * 2021-07-26 2021-10-22 东软睿驰汽车技术(沈阳)有限公司 驾驶员的驾驶状态获取方法、装置及电子设备
CN113569785A (zh) * 2021-08-04 2021-10-29 上海汽车集团股份有限公司 驾驶状态感知方法及装置
US11830259B2 (en) * 2021-08-24 2023-11-28 Nvidia Corporation Robust state estimation
CN113978475A (zh) * 2021-09-22 2022-01-28 东风汽车集团股份有限公司 一种驾驶员疲劳驾车时自动驾驶介入的控制方法与***
CN114148336A (zh) * 2021-12-09 2022-03-08 奇瑞汽车股份有限公司 车辆控制方法及装置
KR102442203B1 (ko) * 2022-03-30 2022-09-08 라이트하우스(주) 얼굴 인식 및 아이 트래킹에 기반한 운전자 졸음 예측 방법, 장치 및 시스템
CN114821549A (zh) * 2022-04-22 2022-07-29 电子科技大学 一种利用方向盘定位驾驶区域的驾驶行为识别方法
CN115303946B (zh) * 2022-09-16 2023-05-26 江苏省特种设备安全监督检验研究院 基于数字孪生的塔式起重机工作监测方法、***
KR102594256B1 (ko) * 2022-11-15 2023-10-26 주식회사 에딘트 인공지능 기반 행동 모니터링 방법, 프로그램 및 장치
CN116052136B (zh) * 2023-03-27 2023-09-05 中国科学技术大学 分心检测方法、车载控制器和计算机存储介质
CN117935231B (zh) * 2024-03-20 2024-06-07 杭州臻稀生物科技有限公司 一种无感式疲劳驾驶监测干预方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140266A (ja) * 2006-12-04 2008-06-19 Toyota Motor Corp 状態推定装置
JP2016027452A (ja) * 2014-06-23 2016-02-18 株式会社デンソー ドライバの運転不能状態検出装置
JP2016539446A (ja) * 2013-10-29 2016-12-15 キム,ジェ−チョル 動作と、顔面と、目及び口形状の認知を通じた2段階に亘っての居眠り運転の防止装置
JP2018133007A (ja) * 2017-02-16 2018-08-23 いすゞ自動車株式会社 警報装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102013013B (zh) * 2010-12-23 2013-07-03 华南理工大学广州汽车学院 疲劳驾驶监测方法
US9751534B2 (en) 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
TWI493511B (zh) * 2013-09-04 2015-07-21 Ind Tech Res Inst 駕駛狀態偵測系統、駕駛狀態偵測方法與電子裝置
CN104688251A (zh) 2015-03-02 2015-06-10 西安邦威电子科技有限公司 一种多姿态下的疲劳及非正常姿态驾驶检测方法
DE102015204247A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Müdigkeits- und/oder Schlafzustandes eines Fahrers eines Fahrzeugs
TWI598258B (zh) * 2016-11-28 2017-09-11 Driving behavior detection method and system thereof
CN108229284B (zh) * 2017-05-26 2021-04-09 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、***、电子设备和存储介质
CN108022451A (zh) * 2017-12-06 2018-05-11 驾玉科技(上海)有限公司 一种基于云端的驾驶员状态预警上报及分发***
CN108446600A (zh) * 2018-02-27 2018-08-24 上海汽车集团股份有限公司 一种车辆驾驶员疲劳监测预警***及方法
CN108583430B (zh) * 2018-05-22 2024-03-15 长安大学 一种用于检测和提醒驾驶员分心的驾驶***及判断方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140266A (ja) * 2006-12-04 2008-06-19 Toyota Motor Corp 状態推定装置
JP2016539446A (ja) * 2013-10-29 2016-12-15 キム,ジェ−チョル 動作と、顔面と、目及び口形状の認知を通じた2段階に亘っての居眠り運転の防止装置
JP2016027452A (ja) * 2014-06-23 2016-02-18 株式会社デンソー ドライバの運転不能状態検出装置
JP2018133007A (ja) * 2017-02-16 2018-08-23 いすゞ自動車株式会社 警報装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023228758A1 (ja) * 2022-05-24 2023-11-30 住友重機械工業株式会社 建設機械、建設機械の支援システム

Also Published As

Publication number Publication date
WO2020078464A1 (zh) 2020-04-23
JP7146959B2 (ja) 2022-10-04
KR20200132945A (ko) 2020-11-25
US20210004618A1 (en) 2021-01-07
CN111079475A (zh) 2020-04-28
US11308723B2 (en) 2022-04-19
KR102469233B1 (ko) 2022-11-18
SG11202009437SA (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP2021527900A (ja) 運転状態検出方法及び装置、運転者監視システム並びに車両
CN111079476B (zh) 驾驶状态分析方法和装置、驾驶员监控***、车辆
KR102391279B1 (ko) 운전 상태 모니터링 방법 및 장치, 운전자 모니터링 시스템 및 차량
JP6932208B2 (ja) 運転管理方法及びシステム、車載スマートシステム、電子機器並びに媒体
US10915769B2 (en) Driving management methods and systems, vehicle-mounted intelligent systems, electronic devices, and medium
WO2020186801A1 (zh) 驾驶员注意力监测方法和装置及电子设备
JP6916307B2 (ja) 車両制御方法及びシステム、車載インテリジェントシステム、電子機器並びに媒体
JPWO2019198179A1 (ja) 搭乗者状態判定装置、警告出力制御装置及び搭乗者状態判定方法
WO2022224173A1 (en) Systems and methods for determining driver control over a vehicle
CN118155192A (zh) 疲劳驾驶检测方法、车辆、设备、存储介质及程序产品

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R150 Certificate of patent or registration of utility model

Ref document number: 7146959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150