JP2021144580A - ドライバ状態推定装置 - Google Patents

ドライバ状態推定装置 Download PDF

Info

Publication number
JP2021144580A
JP2021144580A JP2020044012A JP2020044012A JP2021144580A JP 2021144580 A JP2021144580 A JP 2021144580A JP 2020044012 A JP2020044012 A JP 2020044012A JP 2020044012 A JP2020044012 A JP 2020044012A JP 2021144580 A JP2021144580 A JP 2021144580A
Authority
JP
Japan
Prior art keywords
driver
change
estimation
camera
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020044012A
Other languages
English (en)
Other versions
JP7393739B2 (ja
Inventor
洋平 岩下
Yohei Iwashita
洋平 岩下
潤一郎 桑原
Junichiro Kuwahara
潤一郎 桑原
亜希子 福井
Akiko Fukui
亜希子 福井
壮椰 青木
Soya AOKI
壮椰 青木
耕二 岩瀬
Koji Iwase
耕二 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2020044012A priority Critical patent/JP7393739B2/ja
Publication of JP2021144580A publication Critical patent/JP2021144580A/ja
Application granted granted Critical
Publication of JP7393739B2 publication Critical patent/JP7393739B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】安価なシステムでもって、お面が示す人工的な顔面であるのか否かを容易に判定できるようにする。【解決手段】カメラS1によって、運転席4に着座されたドライバDの顔面を含む車室内の画像が取得される。カメラS1によって取得された画像に基づいて、ドライバ状態が推定される。コントローラUには、ドライバDが発声したときの顔面の特徴部位(例えば眉、眼、鼻、口)の変化量または発声に対する特徴部位の変化の同調性との少なくとも一方に関するデータが、データベースとして記憶される。ドライバDが発声したときに、カメラS1によって取得された画像中でのドライバ顔面の特徴部位の変化量または発声に対する特徴部位の変化の同調性がデータベースと合致しないときに、ドライバ状態の推定が禁止される。【選択図】 図8

Description

本発明は、ドライバ状態推定装置に関するものである。
車両においては、カメラによってドライバの顔面を含む車室内の画像を取得して、取得された画像に基づいてドライバの状態を推定するものがある。そして、推定されたドライバ状態に応じた運転支援を行うこともある。特に、推定されたドライバ状態が安全運転を阻害するような異常状態であると推定されたときに、安全確保のための運転支援を行うことが考えられている。例えば、ドライバが脇見をしていると推定されたときには警報を行ったり、ドライバが居眠りしていると推定されたときには、車両を自動車的に停止させたり、所定の目標地点に向けて自動運転する等のことが考えられている。
一方、ドライバの中には、精巧なお面(あるいは顔面を示す写真)で顔面を覆って、本人とは異なる他人に見せかけるなりすましを行うことが考えられる。なりすましが行われた状態では、本人(ドライバ)の状態を正しく推定することが困難である。特許文献2、特許文献2には、人間の皮膚特有の周波数の反射光を検出することにより、上記なりすましを見破る技術が開示されている。
特開2019−139433号公報 特許第6213663号公報
前記特許文献1、特許文献2のものでは、人間の皮膚特有の周波数の反射光を利用することから、高額なカメラが必要になってしまい、大量生産を行う車両に用いることがコスト的に難しいものとなる。また、車室内の光の変化は大きいが、上記特許文献に記載の技術のものでは光の変化に弱いことから、この点においても車両用として採択することが難しいものとなる。
ところで、お面をかぶって他人になりすます以外に、お面を利用していたずらやシステムの限界を試す等のことが考えられる。具体的には、異常状態を示すような表情をしたお面をかぶって運転することが考えられる。この場合、お面が示す表情に基づいてドライバ状態が異常状態であると判断されて、不必要に運転支援を行ってしまうことおそれが生じる。
一方、ドライバが異常であると推定されたことによって実行される運転支援の内容によっては、やむを得ず実行するものの、極力実行を避けたいものもある。例えば、車両を自動的に停止させる運転支援を実行する場合、そのまま走行を継続させるよりは安全ではあるが、停止位置が高速道路であるときは、たとえ路肩に停止させたとしても危険性が高いものとなる。また、悪意のある者にあっては、実行された運転支援では支援不十分であるとか不具合がある等のクレームをつけるために、不必要に(故意に)運転支援を実行させる可能性も考えられる。
上述のように、カメラによって取得されるドライバの画像に基づいてドライバ状態を推定する場合、カメラで取得された画像が、ドライバ本人の顔面状態を示す真性な顔面なのか、あるいはお面の表情が示す人工的な顔面なのかを判定することが強く望まれるものである。特に、安価なシステムとしつつ、しかも光の変化が大きい車室内の画像の取得であることを考慮したものとすることが望まれるものである。
本発明は以上のような事情を勘案してなされたもので、その目的は、安価なシステムでもって、お面の表情が示す人工的な顔面であるのか否かを容易に判定できるようにしたドライバ状態推定装置を提供することにある。
前記目的を達成するため、本発明にあっては次のような解決手法を採択してある。すなわち、請求項1に記載のように、
運転席に着座されたドライバの顔面を含む車室内の画像を取得するカメラと、
前記カメラによって取得された画像に基づいて、ドライバ状態を推定する推定手段と、
ドライバが発声したときのドライバ顔面の特徴部位の変化量または発声に対する特徴部位の変化の同調性との少なくとも一方に関するデータを記憶したデータベースと、
ドライバが発声したときに、前記カメラによって取得された画像中でのドライバ顔面の特徴部位の変化量または発声に対する特徴部位の変化の同調性が前記データベースと合致しないときに、前記推定手段によるドライバ状態の推定を禁止する禁止手段と、
を備えているようにしてある。
上記解決手法によれば、カメラによって取得された画像中でのドライバ顔面の特徴部位の変化量または発声に対する特徴部位の変化の同調性がデータベース(の記憶内容)と合致しないときには、お面によって作られた人工的な表情であると判断することができることから、ドライバ状態の推定が禁止される。また、カメラとしては、車両用として広く使用されている一般的なカメラを用いることができ、全体として安価にシステムを構築することができる。特に、発声時でのドライバ顔面の特徴部位の変化量または発声に対する特徴部位の変化の同調性をみることにより、特徴部位がお面によって隠されているのか、露出している真性なものであるのかを精度よく判定することできる。
上記解決手法を前提とした好ましい態様は、請求項2以下に記載のとおりである。すなわち、
ドライバに対して発声を促すための問いかけを行う問いかけ手段をさらに有している、ようにしてある(請求項2対応)。この場合、お面で顔面を隠しているか否かの判断のためにドライバが発声する機会を確保すること、特に乗員としてドライバ一人のみの場合に好適である。
ドライバが他の乗員と会話しているときの会話音声を検知する音声検知手段と、
ドライバが会話しているときの顔の向きと顔面の表情変化との少なくとも一方のデータを取得して記憶するデータ取得手段と、
をさらに備え、
前記禁止手段は、ドライバが会話しているときのドライバの顔の向きと顔面の表情変化との少なくとも一方が、前記データ取得手段に記憶されているデータと合致しないときにも前記推定手段によるドライバ状態の推定を禁止する、
ようにしてある(請求項3対応)。この場合、ドライバの顔面がお面によって隠されているか否かの判定を別の手法でも行うようにして、ドライバ状態を誤って推定してしまう事態をより確実に防止する上で好ましいものとなる。
前記特徴部位として複数箇所設定され、
前記データベースは、ドライバが発声したときの前記特徴部位全てについての変化量と発声に対する該特徴部位全てについての変化の同調性に関する少なくとも一方のデータとされている、
ようにしてある(請求項4対応)。この場合、判定対象となる特徴部位を複数設定して、ドライバの顔面がお面によって隠されているか否かをより確実に判定する上で好ましいものとなる。この一方、複数の特徴部位のうち一部が露出している場合には、この露出している特徴部位に基づいてドライバ状態を推定することが可能となり、ドライバ状態を推定する機会確保の上でも好ましいものとなる。
前記特徴部位として、眉、眼、鼻、口のうち任意の複数箇所が設定され、
前記禁止手段は、前記カメラによって取得された画像において、前記複数箇所の前記特徴部位が全て検出できないときにも、前記推定手段によるドライバ状態の推定を禁止する、
ようにしてある(請求項5対応)。この場合、顔面の特徴部位として好ましい部位が提供される。そして、複数の特徴部位の全てが検出できないということは、各特徴部位を検出できないようなお面をかぶっていると判断でき、この場合もドライバ状態の推定を禁止して、ドライバ状態を誤って推定してしまう事態をより確実に防止する上で好ましいものとなる。
前記推定手段によってドライバが異常であると推定されたときに運転支援を行う支援手段をさらに備え、
前記禁止手段によって前記推定手段によるドライバ状態の推定が禁止されたときは、前記支援手段による運転支援が禁止される、
ようにしてある(請求項6対応)。この場合、お面によって人工的に作られた表情に起因して、不必要に運転支援を行ってしまう事態を防止することができる。
前記カメラが赤外線式カメラとされている、ようにしてある(請求項7対応)。この場合、昼夜を問わず鮮明な画像を取得することができることから、画像に基づいてドライバ状態を精度よく推定する上で好ましいものとなる。また、特徴部位がお面によって隠されているのか、露出している真性なものであるのかを精度よく判定する上でも好ましいものとなる。
本発明によれば、安価なシステムでもって、お面が示す人工的な顔面であるのか否かを容易に判定することができる。
本発明が適用された車両のインストルメントパネル付近を後方から見た図。 運転を行っているドライバを側方から見た図。 カメラ側から運転を行っているドライバを見た図。 本発明の制御系統例を示す図。 アイマスクによってドライバ顔面のうち眉と眼が隠された状態を示す図。 口元マスクによってドライバ顔面のうち鼻の下部から下方部分が隠された状態を示す図。 フェイスマスクによって、ドライバ顔面のほぼ全体が隠された状態を示す図。 本発明の制御例を示すフローチャート。
図1は、本発明が適用された車両Vにおける車室内前部の構造を示している。図中、1はインストルメントパネル、2はフロントウインドガラス、3はステアリングハンドル、4は運転席シート、5は助手席シート、6はシフトノブ、7はコマンダスイッチ、8はAピラー、9サイドウインドガラスである。
インストルメントパネル1の上面には、車幅方向略中央部において、ディスプレイ10が固定設置されている。このディスプレイ10は、タッチ操作式とされて、各種情報が選択的に表示される。ディスプレイ10での表示内容の変更は、コマンダスイッチ7を操作することによっても行うことが可能となっている。ディスプレイ10への表示内容としては、例えば、ナビゲーション装置用の地図表示、テレビ画面表示、車両Vに搭載されている各種機器類の設定用の表示等がある。
ディスプレイ10の外周縁部を構成する枠体が、符号10aで示される。この枠体10aの上部位置に、カメラS1が設置されている。カメラS1は、実施形態では赤外線式とされて、昼夜を問わず鮮明な画像を取得する(撮像する)ことが可能となっている。
カメラ10による撮影範囲は、運転席シート4に着座されたドライバの顔面を含む所定範囲となるように設定されている。図2には、運転席4に着座されたドライバDが示される。カメラS1の上下方向の撮影角度が、図2中符号θで示される。この図2において、運転席シート4のうち、シートクッションが符号4Aで示され、シートバックが符号4Bで示され、ヘッドレストが符号4Cで示される。
図3は、運転席シート4にドライバDが着座している状況を前方から見た状況が示される。ドライバDは、Bピラー11から延びるシートベルト12を装着した状態となっている。前記カメラS1による撮影範囲Kが、図中一点鎖線で囲んだ方形の範囲とされている。撮影範囲Kには、ドライバDの顔面全体、運転席シート4のうちシートバック4Bの上部から上方部分、ステアリングハンドル3の上部、Bピラー11、シートベルト12等が含まれる。
図3においては、ドライバDは、お面(マスク)をかぶっていない状態であり、その顔面全体が露出している。この場合、カメラS1による取得される画像は、ドライバDの自然な顔面全体を撮像した真性なものとなる。
ドライバ状態の推定に際して用いられる顔面の特徴部位として、実施形態では、眉(その付近を含む)、眼(特に瞳で、その付近を含む)、鼻(その付近を含む)、および口(その付近を含む)としてある。そして、上記複数の特徴部位のうち、少なくとも1カ所の状態(現在の状態やその変化量)に基づいて、ドライバ状態を推定するようにしてある。
図5〜図7に、ドライバDの顔面の一部あるいは全部がお面(マスク)によって隠された状態が示される。図5は、アイマスクM1によって、ドライバ顔面のうち眉(その付近を含む)と眼(その付近を含む)が覆われた状態が示される。この場合、眉や眼の状態に基づくドライバ状態の推定は困難であるが、露出している鼻や口の状態(現在の状態およびその変化量)に基づいてドライバ状態を推定することが可能である。
図6は、口元マスクM2によって、ドライバ顔面のうち鼻の下部から下方部分が覆われた状態が示される。この場合、露出している眉や眼、鼻の上部の状態(現在の状態およびその変化量)に基づいてドライバ状態を推定することが可能である。なお、口元マスクM2をすることは、いたずらではなく、一般的に行われていることである。
図7は、フェイスマスク(お面)M3によって、ドライバ顔面のほぼ全体を覆った状態が示される。運転の際に、顔面全体を覆うフェイスマスクM3を用いるのは通常では考えられず、いたずらや悪意をもった状態と考えられる。この場合、複数の特徴部位が全てフェイスマスクM3によって隠されていることから、ドライバ状態の推定は禁止される。
一方、フェイスマスクM3が、例えば立体的であり、しかも異常状態を示すような表情を有するものが用いられることが考えられる。この場合、カメラS1によって取得された画像において、特徴部位が存在すると判断されて、この特徴部位の状態からドライバ状態が異常状態であると誤って判断されてしまう可能性が高いものとなる。このため、本発明では、このようなフェイスマスクM3を用いているのか否かを判断して、フェイスマスクM3が示す表情に基づいてドライバ状態を推定することを禁止するようにしてある。
図4は、ドライバ状態の推定と、推定されたドライバ状態に応じて運転支援を行うための制御系統例が示される。図中、Uは、マイクロコンピュータを利用して構成されたコントローラ(制御ユニット)で、制御手段としてのCPUの他、記憶手段としてのROM、RAMや、インターフェイス等を備えている。このコントローラUには、カメラS1の他、各種機器類S2〜S4からの信号が入力される。S2は、車外を撮影するためのカメラであり、特に自動運転等を行うために車両Vの前方を撮影するものとなっている。S3は、車両前方の障害物までの距離を検出するレーダである。S4は、ナビゲーション装置であり、ディスプレイ10への地図表示や、GPSによって車両Vの現在位置を取得する。S5は、ドライバDの発声を検知するマイクである。
コントローラUによって、各種機器類S11〜S16が制御される。S11は、ブレーキ装置であり、自動ブレーキを行うためのものである。S12はエンジンのスロットルであり、車速を制御するためのものである(燃料噴射弁を制御してもよい)。S13はステアリングハンドル4であり、現在走行している車線を維持させたり、車線変更を含む自動運転を行うためのものである。 S14は、スピーカであり、ドライバDに所定の警報を音声によって行うためのものである。S15は、ハザードランプであり、ドライバDが実質的に運転不可能であると推定されたときに、周囲の他車両等に対して注意を促すためのものである。S16は、無線通信器であり、ドライバDが実質的に運転不可能であると推定されたときに、無線によって運転管理を行う管理センタや病院あるいは警察へ緊急連絡するためのものである。連絡内容としては、ドライバDに重大な異常が生じているという情報、車両Vの現在位置情報等がある。
コントローラUは、基本的に、カメラS1によって取得された画像に基づいて、ドライバ状態を推定し、推定された結果に応じて適宜運転支援を行う機能を有する(推定手段と運転支援の制御手段とを構成)。
また、コントローラUは、カメラS1によって取得された画像が示す顔面の表情状態が、お面が示す人工的な表情なのか、あるいはお面をしていない真性な表情なのかを判断する。このため、前述した各特徴部位について、その変化量についての第1のデータベースをあらかじめ作成して記憶している(ROMへの記憶)。すなわち、お面をしていないときのドライバDの各特徴部位での変化量(所定の単位時間において取得される変化量)は、所定範囲の大きさとなる(顔面の自然な動きから導き出される変化量の範囲)。なお、データベースは、各特徴部位毎に設定されているものである(各特徴部位毎に、個別に所定範囲が記憶されている)。
さらに、コントローラUは、お面が示す人工的な表情なのか否かを精度よく判定するために、ドライバDが発声(発話)に関連したデータを第2のデータベースとして記憶している。この第2のデータベースには、ドライバDが発声したときの各特徴部位の変化量と発声に対する各特徴部位の変化の同調性との両方を記憶したものとなっている。なお、第2のデータベースには、ドライバDが発声したときの各特徴部位の変化量と発声に対する各特徴部位の変化の同調性とのいずれか一方のみを記憶したものであってもよい。いずれか一方のみを記憶する場合は、発声に対する各特徴部位の変化の同調性を記憶しておくのが好ましい。
さらに又、コントローラUは、お面が示す人工的な表情なのか否かをより精度よく判定するために、ドライバDが他の乗員と会話している際の顔の向きと各特徴部位の変化(変化方向と変化量との少なくとも一方)との両方または一方を記憶した第3のデータベースを記憶している。なお、前述した各データベースは、ROMに記憶されている。
ここで、第2のデータベースおよび第3のデータベースを作成、記憶する場合は、顔面を全て露出した状態で取得されたデータとされる。顔面を全て露出した状態であるか否かは、例えば、前述した全ての特徴部位について、ある単位時間あたりの変化量が全て、前記第1のデータベースに記憶されている所定範囲であることが確認されたときとすることができる。
逆に、特徴部位の変化量が、上記所定範囲の下限値よりも小さいときや、該所定範囲の上限値よりも大きいときは、この特徴部位がお面等によって隠された部位であると判断される。動きのないお面(フェイスマスクM3)を用いたときは、特徴部位の変化量が実質的に生じないものである。このため、特徴部位の変化量が下限値よりも小さいときは、お面が作り出している人工的な表情であると判断される。一方、特徴部位の一部(例えば口の部位)に人工的な動きをとり得るようにしたお面の場合には、特徴部位の変化量が不自然に(相当に)大きなものとなる場合が多い。このため、特徴部位の変化量が前記上限値よりも大きいときは、お面が作り出している人工的な表情であると判断される。
次に、図8のフローチャートを参照しつつ、コントローラUによる制御内容について説明する。なお、以下の説明でQはステップを示す。
まず、図8のQ1において、カメラS1によって画像が取得される。カメラS1が赤外線式であることから、昼夜を問わず鮮明が画像を取得することが可能である。次いで、Q2において、取得された画像中から、顔面の特徴部位が検出(抽出)される。
Q3においては、画像から、全ての特徴部位が未検出であるか否かが判別される。このQ3の判別でYESのときは、動きのないお面をかぶっているというように判断されて、Q4に移行される。Q4では、ドライバ状態の推定が禁止されて、これに伴ってドライバ状態に応じた運転支援(警告等)も禁止される。
前記Q3の判別でNOのときは、Q5において、検出された特徴部位の動きが、所定時間についてモニタリングされる(複数画像から特徴部位の動きを示す変化量を算出)。
Q5の後、Q6において、ドライバDの発声が検出されたか否かが判別される。このQ6の判別でNOのときは、Q5に戻る。
上記Q6の判別でYESのときは、Q7において、特徴部位の変化量(変動量)と発声に対する特徴部位の変化の同調性との両方が、前述した第2のデータベースに照合される。この後、Q8において、Q7での照合結果が一致するか否か、つまり特徴部位の変化量(変動量)と発声に対する特徴部位の変化の同調性との両方が、第2のデータベースでの記憶範囲内であるか否かが判別される。
上記Q8の判別でNOのときは、Q9に移行される。Q9は、Q4に対応するもので、ドライバ状態の推定が禁止されて、これに伴ってドライバ状態に応じた運転支援(警告等)も禁止される。
前記Q8の判別でYESのときは、そのまま終了される。このQ8の判別でYESのときは、カメラS1によって取得された画像が、ドライバDの真性な表情を示すものであると判断されたときであり、このときは、特徴部位の動きに応じてドライバ状態が推定される。推定されたドライバ状態になんらかの異常があると判断されたときは、異常状態に応じた運転支援が適宜行われる。
図8の制御において、Q8からQ9へ移行されるのは、特徴部位の全てについてQ8の判別でNOとなったときである。つまり、複数の特徴部位のうち少なくとも1カ所(好ましくは2カ所以上)についてQ8の判別でYESのときは、Q9へ移行されることなく、Q8の判別でYESとなった特徴部位に基づいてドライバ状態が推定される。
ここで、Q6の判別でNOとなってQ5へ移行される処理が繰り返されるとき(例えば1回目にQ6の判別でNOとなってから所定時間経過したとき)は、スピーカS14から、ドライバDに対して発声を促す旨の問いかけ(報知)を行うのが好ましい。問いかけの内容としては、種々選択できるが、例えば、「体調は良好ですか」とか「運転を楽しんでおりますか」等として、ドライバDの発声を促す。そして、ドライバDの発声が確認されたら、さらに会話を進めるようにスピーカS14から発声させることもできる(人工知能AIを利用した会話の実行)。このような問いかけは、イグニッションスイッチがONとなったときや、走行中に定期的あるいは不定期に行うことができる。
以上に加えて、ドライバDが他の乗員と会話していることが確認された場合には、ドライバDの発声を、ドライバDの顔の向きと特徴部位の変化とに対応づけてデータベース(第3のデータベース)として記憶しておくことができる。第3のデータベースの作成、記憶は、前述したように、ドライバDの顔面が全て露出していることを確認した状態で行うことができる。
上記第3のデータベースが作成された後にドライバDが他の乗員と会話した際に、ドライバDの顔の向きと特徴部位の変化とが、第3のデータベースと照合される。そして、照合結果が一致(ほぼ一致)しないときには、お面をしている状態であると判断して、ドライバ状態の推定を禁止することができる。
上述した図8に示す制御は、実施形態では、イグニッションスイッチがONとされる毎に実行され、またイグニッションスイッチがONとされた後は定期的に(所定時間経過毎に)実行され、さらに、カメラS1で取得される画像に乱れが生じた毎に実行される。なお、制御の実行条件は、適宜設定できる。
ドライバ状態に応じた運転支援の例について、簡単に説明する。まず、コントローラU(の記憶手段)には、あらかじめ、ドライバの多くの表情とそのときのドライバ状態とが関連付けられたデータベースが記憶されている。例えば、顔の向き、視線方向、瞳の状態、眉の動き、唇やその周辺の動き、鼻の動き等について、例えば「漫然としている」、「脇見をしている」、「眠気をもよおしている」、「居眠りしている」、「急病状態である」等のドライバ状態と関連づけられて記憶されている。
異常状態として、例えば、軽度、中度、重度の3段回に分けて判定される。軽度の異常状態は、例えば、注意散漫であるとか、眠気をもよおしているとか、脇見時間が長いとかで、この場合は、スピーカS14からの音声によって注意警報が行われる。
異常状態が中度であるときは、例えば居眠りの可能性があるときである。このときは、各種機器類S11〜S13を制御して、徐々に所定速度まで減速を行うと共に車線維持を行い、さらにスピーカS14から大きな音で注意を行う(覚醒させる)。
異常状態が重度であるときは、もはや運転続行は不可能なときと判断される状態であり、例えば、ドライバDが、完全に居眠り状態になっているときの他、前倒れあるいは横倒れになってしまうとかの急病発生状態のときである。このときは、ハザードランプS15を作動させた状態で、路肩に向けて自動走行させつつ、車両Vをすみやかに停止させる。そして、無線通信によって、管理センタや病院あるいは警察に向けて、ドライバDに重大な異常が生じていることと、車両Vの現在位置を報知する。この場合、車両のすみやかな停止に代えて、自動運転によって最寄りの病院へ走行させることもできる。
前述したドライバ状態(異常状態)とそれに応じて運転支援の内容とは、あくまで一例あり、ドライバ状態に応じた運転支援の内容は適宜のものを選択できる。
以上実施形態について説明したが、本発明は、実施形態に限定されるものではなく、特許請求の範囲の記載された範囲において適宜の変更が可能である。顔面の特徴部位としては、頬や額等適宜の部位を含めることもできる。ドライバ状態の推定に際しては、例えば眉、眼、鼻、口の複数箇所のうち任意の1カ所に基づいて行うことも可能ではあるが、任意の2カ所以上の特徴部位に基づいて行うのが、精度よくドライバ状態を推定する上で好ましいものとなる。
ドライバDの発声時の変化は、口や顎の部位に大きく現れるので、特徴部位として口の他に顎(その付近を含む)を含めておくのが好ましい。この場合、風邪を引いている等のために、ドライバDの顔面のうち口およびその周辺部位が口元マスク(風邪マスク)M2によって隠されている場合でも、口元マスクM2を通して口やその周辺の動きおよび顎の動きを検出することができる(隠されていない眉や眼の動きに加えて、口元マスクM2を介しての口、顎の動きをも加味してドライバ状態を推定することが可能になる。
カメラ20によって所得される画像は静止画でも動画でもよい。静止画の場合は、連続した複数の画像からドライバ状態を判定するのが好ましい。カメラS1としては、赤外線式に限らず、可視光で撮像するデジタルカメラ等、適宜のものを用いることができる。
推定されたドライバ状態に応じた運転支援は、安全運転を行うものに限らず、例えば運転技量に関するものに設定する等、適宜の内容を採択することができる。例えば、ドライバ状態が「退屈」であるときに、ステアリングハンドルの応答特性を高めたり、エンジンの出力特性を敏感にする等の運転支援によって、「楽しい」と感じる方向の運転支援を行うことができる。逆に、駐車時にドライバ状態が、「不安」であるときは、例えばディスプレイ10に駐車支援用の周囲状況を示す画像を提供したり、ステアリングハンドルを自動的に操作する運転支援を行う等のこともできる。勿論、本発明の目的は、明記されたものに限らず、実質的に好ましいあるいは利点として表現されたものを提供することをも暗黙的に含むものである。
本発明は、カメラによって取得される画像に基づいてドライバ状態を推定するようにした車両に適用して好適である。
V:車両
D:ドライバ
S1:カメラ
K:撮影範囲
1:インストルメントパネル
2:フロントウインドガラス
3:ステアリングハンドル
4:運転席シート
4A:シートクッション
4B:シートバック
4C:ヘッドレスト
10:ディスプレイ
10a:枠体
11:Bピラー
12:シートベルト

Claims (7)

  1. 運転席に着座されたドライバの顔面を含む車室内の画像を取得するカメラと、
    前記カメラによって取得された画像に基づいて、ドライバ状態を推定する推定手段と、
    ドライバが発声したときのドライバ顔面の特徴部位の変化量または発声に対する特徴部位の変化の同調性との少なくとも一方に関するデータを記憶したデータベースと、
    ドライバが発声したときに、前記カメラによって取得された画像中でのドライバ顔面の特徴部位の変化量または発声に対する特徴部位の変化の同調性が前記データベースと合致しないときに、前記推定手段によるドライバ状態の推定を禁止する禁止手段と、
    を備えていることを特徴とするドライバ状態推定装置。
  2. 請求項1において、
    ドライバに対して発声を促すための問いかけを行う問いかけ手段をさらに有している、ことを特徴とするドライバ状態推定装置。
  3. 請求項1または請求項2において、
    ドライバが他の乗員と会話しているときの会話音声を検知する音声検知手段と、
    ドライバが会話しているときの顔の向きと顔面の表情変化との少なくとも一方のデータを取得して記憶するデータ取得手段と、
    をさらに備え、
    前記禁止手段は、ドライバが会話しているときのドライバの顔の向きと顔面の表情変化との少なくとも一方が、前記データ取得手段に記憶されているデータと合致しないときにも前記推定手段によるドライバ状態の推定を禁止する、
    ことを特徴とするドライバ状態推定装置。
  4. 請求項1ないし請求項3のいずれか1項において、
    前記特徴部位として複数箇所設定され、
    前記データベースは、ドライバが発声したときの前記特徴部位全てについての変化量と発声に対する該特徴部位全てについての変化の同調性に関する少なくとも一方のデータとされている、
    ことを特徴とするドライバ状態推定装置。
  5. 請求項1ないし請求項4のいずれか1項において、
    前記特徴部位として、眉、眼、鼻、口のうち任意の複数箇所が設定され、
    前記禁止手段は、前記カメラによって取得された画像において、前記複数箇所の前記特徴部位が全て検出できないときにも、前記推定手段によるドライバ状態の推定を禁止する、
    ことを特徴とするドライバ状態推定装置。
  6. 請求項1ないし請求項5のいずれか1項において、
    前記推定手段によってドライバが異常であると推定されたときに運転支援を行う支援手段をさらに備え、
    前記禁止手段によって前記推定手段によるドライバ状態の推定が禁止されたときは、前記支援手段による運転支援が禁止される、
    ことを特徴とするドライバ状態推定装置。
  7. 請求項1ないし請求項6のいずれか1項において、
    前記カメラが赤外線式カメラとされている、ことを特徴とするドライバ状態推定装置。
JP2020044012A 2020-03-13 2020-03-13 ドライバ状態推定装置 Active JP7393739B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020044012A JP7393739B2 (ja) 2020-03-13 2020-03-13 ドライバ状態推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020044012A JP7393739B2 (ja) 2020-03-13 2020-03-13 ドライバ状態推定装置

Publications (2)

Publication Number Publication Date
JP2021144580A true JP2021144580A (ja) 2021-09-24
JP7393739B2 JP7393739B2 (ja) 2023-12-07

Family

ID=77766826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020044012A Active JP7393739B2 (ja) 2020-03-13 2020-03-13 ドライバ状態推定装置

Country Status (1)

Country Link
JP (1) JP7393739B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022177229A (ja) * 2020-03-24 2022-11-30 楽天グループ株式会社 生体(liveness)検出検証方法、生体検出検証システム、記録媒体、及び生体検出検証システムの訓練方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005259049A (ja) * 2004-03-15 2005-09-22 Omron Corp 顔面照合装置
JP2010097379A (ja) * 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2011215942A (ja) * 2010-03-31 2011-10-27 Nec Personal Products Co Ltd ユーザ認証装置、ユーザ認証システム、ユーザ認証方法及びプログラム
JP2019053655A (ja) * 2017-09-19 2019-04-04 トヨタ自動車株式会社 自動運転システム
JP2020006780A (ja) * 2018-07-06 2020-01-16 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005259049A (ja) * 2004-03-15 2005-09-22 Omron Corp 顔面照合装置
JP2010097379A (ja) * 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2011215942A (ja) * 2010-03-31 2011-10-27 Nec Personal Products Co Ltd ユーザ認証装置、ユーザ認証システム、ユーザ認証方法及びプログラム
JP2019053655A (ja) * 2017-09-19 2019-04-04 トヨタ自動車株式会社 自動運転システム
JP2020006780A (ja) * 2018-07-06 2020-01-16 パナソニックIpマネジメント株式会社 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022177229A (ja) * 2020-03-24 2022-11-30 楽天グループ株式会社 生体(liveness)検出検証方法、生体検出検証システム、記録媒体、及び生体検出検証システムの訓練方法
JP7412496B2 (ja) 2020-03-24 2024-01-12 楽天グループ株式会社 生体(liveness)検出検証方法、生体検出検証システム、記録媒体、及び生体検出検証システムの訓練方法

Also Published As

Publication number Publication date
JP7393739B2 (ja) 2023-12-07

Similar Documents

Publication Publication Date Title
JP7080598B2 (ja) 車両制御装置および車両制御方法
EP1326759B1 (en) Method and apparatus for improving vehicle operator performance
EP1330377B1 (en) Method of response synthesis in a driver assistance system
US6909947B2 (en) System and method for driver performance improvement
EP1328421B1 (en) Method and apparatus for vehicle operator performance assessment and improvement
WO2019017216A1 (ja) 車両制御装置及び車両制御方法
US20020151297A1 (en) Context aware wireless communication device and method
JP6627811B2 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
MX2013009434A (es) Sistema y método de respuesta al comportamiento del conductor.
WO2019087507A1 (ja) 漫然運転抑制システム
KR20200086785A (ko) 졸음 운전 예방 및 차량 내 안전 유지 방법, 시스템
JP2018008575A (ja) 車両制御装置
JP2021144580A (ja) ドライバ状態推定装置
JP7441417B2 (ja) ドライバ状態推定装置
JP7393738B2 (ja) ドライバ状態推定装置
WO2018168048A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
Tijerina et al. Effects of adaptive lane departure warning system on driver response to a surprise event
JP2023160511A (ja) 運転支援装置
JP2022099160A (ja) 脇見判定装置および脇見判定方法
CN116853265A (zh) 车辆控制方法、装置、车辆及存储介质
CN110341592A (zh) 一种车辆警示方法、装置和车辆

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231109

R150 Certificate of patent or registration of utility model

Ref document number: 7393739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150