JP2020057139A - 機器制御装置 - Google Patents

機器制御装置 Download PDF

Info

Publication number
JP2020057139A
JP2020057139A JP2018186567A JP2018186567A JP2020057139A JP 2020057139 A JP2020057139 A JP 2020057139A JP 2018186567 A JP2018186567 A JP 2018186567A JP 2018186567 A JP2018186567 A JP 2018186567A JP 2020057139 A JP2020057139 A JP 2020057139A
Authority
JP
Japan
Prior art keywords
hand
occupant
unit
vehicle
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018186567A
Other languages
English (en)
Other versions
JP7091983B2 (ja
Inventor
大介 廣木
Daisuke Hiroki
大介 廣木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018186567A priority Critical patent/JP7091983B2/ja
Priority to KR1020190079219A priority patent/KR102303556B1/ko
Priority to US16/459,691 priority patent/US11023786B2/en
Priority to EP19183867.1A priority patent/EP3633538B8/en
Priority to CN201910704499.7A priority patent/CN110968184B/zh
Publication of JP2020057139A publication Critical patent/JP2020057139A/ja
Application granted granted Critical
Publication of JP7091983B2 publication Critical patent/JP7091983B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/12Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Selective Calling Equipment (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】車載機器に対するユーザの操作指示を精度良く判別できる機器制御装置を提供する。【解決手段】車両に搭載された機器を制御する機器制御装置は、車両の乗員の画像を撮像する撮像部と、撮像部によって撮像された画像に基づいて、乗員の姿勢を認識する第1の認識部と、撮像部によって撮像された画像に基づいて、少なくとも乗員の手の形状を含む、手の状態を認識する第2の認識部と、第1の認識部によって認識された乗員の姿勢と、第2の認識部によって認識された手の状態とに基づいて、制御対象の機器及び実行する動作を特定する判別処理部と、特定された制御対象の機器及び実行する動作に対応する制御コマンドを発行する制御部とを備える。【選択図】図1

Description

本発明は、電子機器を制御するための機器制御装置に関する。
特許文献1には、ユーザの手先の形状、位置、姿勢を認識し、ユーザの手先の形状やその状態変化の時系列情報を基に制御対象機器に対する制御コマンドを出力する情報入力装置が記載されている。
特開2013−205983号公報
特許文献1に記載の情報入力装置を車載機器の操作に適用した場合、車両の走行中の振動等の影響があるため、手先の形状やその状態変化の提示をユーザが正確に行うことが困難である。したがって、手先の形状やその状態変化の時系列情報に基づいて車載機器を操作する構成では、ユーザの意図した車載機器の操作ができなかったり、ユーザが意図しない車載機器の操作が行われたりする可能性がある。
それ故に、本発明は、車載機器に対するユーザの操作指示を精度良く判別できる機器制御装置を提供することを目的とする。
本発明は、車両に搭載された機器を制御する機器制御装置に関する。車両に搭載された機器を制御する機器制御装置であって、車両の乗員の画像を撮像する撮像部と、撮像部によって撮像された画像に基づいて、乗員の姿勢を認識する第1の認識部と、撮像部によって撮像された画像に基づいて、少なくとも乗員の手の形状を含む、手の状態を認識する第2の認識部と、第1の認識部によって認識された乗員の姿勢と、第2の認識部によって認識された手の状態とに基づいて、制御対象の機器及び実行する動作を特定する判別処理部と、特定された制御対象の機器及び実行する動作に対応する制御コマンドを発行する制御部とを備える。
本発明によれば、車載機器に対するユーザの操作指示を精度良く判別できる機器制御装置を提供できる。
第1の実施形態に係る機器制御装置の機能ブロック図 第1の実施形態に係る機器制御装置が実行する制御処理を示すフローチャート 乗員の姿勢検出方法の一例を説明するための図 第1の実施形態に係る機器制御装置が参照する判別処理テーブルの一例を示す図 第1の実施形態の変形例に係る機器制御装置が参照する判別処理テーブルの一例を示す図 第1の実施形態の変形例に係る機器制御装置が実行する制御処理を示すフローチャート 第2の実施形態に係る機器制御装置の機能ブロック図 第2の実施形態に係る機器制御装置が実行する制御処理を示すフローチャート 第3の実施形態に係る機器制御装置の機能ブロック図
実施形態に係る機器制御装置においては、乗員の姿勢と手の形状との組み合わせに基づいて、予め割り当てられた制御を行う。制御対象機器及び制御内容の判別に乗員の姿勢を組み入れることにより、乗員による機器の操作指示を精度良く検出することができる。
(第1の実施形態)
<構成>
図1は、第1の実施形態に係る機器制御装置の機能ブロック図である。
機器制御装置1は、通信ネットワークまたは信号線を介して接続された車載機器20の動作を制御する装置であり、撮像部10と、第1の認識部11と、第2の認識部12と、判別処理部13と、制御部14とを備える。機器制御装置1が制御する車載機器20として、例えば、パワーウィンドウ、エアコン、ワイパー、ステレオ、ナビゲーションシステム、ヘッドライト、車内照明等が挙げられるが、これらに限定されない。
撮像部10は、カメラ等の撮像装置であり、乗員の画像を撮影する。撮像部10は、乗員の上半身と、上半身近傍の空間に配置される乗員の手とを撮像可能な位置(例えば、車両前方のルーフ寄りの位置)に設けられる。撮像部10は、座席毎に設けられて1人の乗員を撮像しても良いし、車内の特定の位置に設けられて複数の乗員を同時に撮像しても良い。尚、撮像部10には、可視光カメラ及び赤外線カメラのいずれも利用できる。
第1の認識部11は、撮像部10によって撮影された画像に基づいて、乗員の姿勢を認識する。本実施形態では、第1の認識部11は、撮影された画像から乗員の骨格を検出する。乗員の骨格は、既知の骨格検出アルゴリズムによって認識することができ、人間の複数の関節の位置情報の組み合わせによって表わすことができる。
第2の認識部12は、撮像部10によって撮影された画像に基づいて、乗員の手の状態を推定する。ここで、乗員の手の状態とは、手の形状、もしくは、手の形状と手の向きとの組み合わせをいう。乗員の手の形状は、手の各指の曲げ伸ばしの状態、隣接する指の間隔、掌の形状の組み合わせによって構成される。手の向きは、伸ばした指先の向き、または、掌の向きによって特定することができる。
判別処理部13は、第1の認識部11によって検出された乗員の姿勢と、第2の認識部12によって検出された手の状態とに基づいて、制御対象の車載機器20と、制御対象の車載機器20に実行させる動作とを特定する。判別処理部13は、乗員の姿勢を表す情報及び手の状態を表す情報の組み合わせ毎に、制御対象の車載機器20及び実行する動作が予め関連付けられた判別処理テーブルを保持する。判別処理部13は、判別処理テーブルを参照して、第1の認識部11及び第2の認識部12による認識結果と、判別処理テーブルに定義された情報との一致度に基づいて、制御対象の車載機器20及び実行する動作を特定する。判別処理テーブルは、機器制御装置1が備えるメモリ等の記憶装置に記憶される。尚、制御対象の車載機器20とは、乗員の姿勢及び手の状態の組み合わせによって、乗員が最終的に動作させたい機器をいう。また、制御対象の車載機器20及び実行する動作を特定するために判別処理部13が行う処理の詳細は後述する。
制御部14は、判別処理部13によって特定された制御対象の車載機器20及び実行する動作に対応する制御コマンドを生成し発行する。制御コマンドによって可能な指示は特に限定されず、制御対象の車載機器20のオンまたはオフ、動作モードの変更、音量や温度、明るさ、動作速度といった車載機器20の動作を制御する指示の他、車載機器20を制御するための要求を受け付ける動作を実行する指示も含まれる。車載機器20を制御するための要求を受け付ける動作としては、例えば、音声認識装置に音声認識処理を開始させる動作が挙げられる。特定された制御対象の車載機器20及び実行する動作に対応する制御コマンドとは、実行する動作が制御対象の車載機器20によるものである場合は、制御対象の車載機器に送る制御コマンドが該当し、実行する動作が制御対象の車載機器20とは別の機器(音声認識装置等)によるものである場合は、当該別の機器に送る制御コマンドが該当する。
また、制御部14は、判別処理部13によって特定された動作を指示する制御コマンドを発行した後、予め定められた条件が満たされると、補助的な動作を指示するための補助コマンドを発行することができる。補助的な動作としては、制御コマンドで指示した動作の中止や取り消し、変更、出力調整等が挙げられるが、これらに限定されない。また、制御部14が補助コマンドを発行するために満たされるべき条件としては、車内に設けられたスイッチ、ボタン、レバー、ダイヤル等の入力装置の操作が行われたことや、制御コマンドの発行契機となった乗員の姿勢または手の状態が変化したこと、補助コマンドを発行するために予め定められた乗員の姿勢又は手の状態が検出されたこと、乗員により特定の言葉が発話されたこと等が挙げられるが、これらに限定されない。尚、補助コマンドの発行契機として乗員の姿勢または手の状態を利用する場合、乗員の姿勢及び手の状態は、それぞれ第1の認識部11及び第2の認識部12で検出することができる。
例えば、制御部14は、乗員の姿勢及び手の状態の組み合わせに基づいて特定された、助手席の窓を開ける操作を指示する制御コマンドを発行した後、ハンドルに設けられたいずれかのスイッチ(通常は、窓の操作に使用されないスイッチ)が操作されたことを条件として、窓の開動作を停止させるための補助コマンドを発行することができる。制御部14がこのような補助コマンドを発行することにより、運転席の乗員は、運転中にハンドルから手を離すことなく助手席の窓の開動作を停止することができる。また、制御部14は、乗員の姿勢及び手の状態の組み合わせに基づいて特定された、音声認識処理の開始を指示する制御コマンドを発行した後、乗員の姿勢が変化したことを条件として、音声認識処理の中止を指示する補助コマンドを発行することができる。制御部14がこのような補助コマンドを発行することにより、特段の操作を行うことなく、速やかに開始した音声認識処理を中止することができる。制御部14が補助コマンドを発行可能であることにより、制御対象の車載機器20の使い勝手を向上させることができる。補助コマンドは、制御対象の車載機器20をより使いやすくするためのものであり、ここで挙げた操作を中止する例の他にも、制御コマンドで指示した操作を中止して元の状態に戻す指示や(操作の取り消し)、制御コマンドで指示した操作を中止して別の操作を行う指示や(操作の変更)、制御コマンドで指示した操作を開始した後、温度や音量、明るさ等の出力を変更する指示(出力調整)等を補助コマンドで行っても良い。
<制御処理>
以下、図1〜図4を併せて参照しながら、第1の実施形態に係る機器制御装置の詳細を説明する。
図2は、第1の実施形態に係る機器制御装置が実行する制御処理を示すフローチャートであり、図3は、乗員の姿勢検出方法の一例を説明するための図であり、図4は、第1の実施形態に係る機器制御装置が参照する判別処理テーブルの一例を示す図である。尚、図2に示す処理は、車両が始動されたことを契機に開始され、エンジン停止または電源オフされるまで(終了条件が満たされるまで)、所定のインターバルで繰り返し実行される処理である。
ステップS1:撮像部10は、乗員の画像を撮影する。撮像部10が撮影するのは、座席に着座した乗員の上半身及び手を含む範囲の画像である。尚、以下の説明では、撮像部10が車両の前方側のルーフ寄りに設けられており、前方上方から乗員を撮影するものとする。その後、処理はステップS2に進む。
ステップS2:第1の認識部11は、撮像部10によって撮像された画像から乗員の姿勢を検出する。上述したように、乗員の姿勢は、骨格認識に基づいて算出された乗員の関節の位置情報の組み合わせにより表すことができる。例えば、第1の認識部11は、図3に示すように、骨格認識を行うことにより、乗員の頭、頚部、腰、右肩、右肘、右手首、左肩、左肘及び左手首のそれぞれの三次元座標を取得し、三次元座標の組み合わせである骨格座標列を生成することによって、乗員の姿勢を表現することができる。その後、処理はステップS3に進む。
ステップS3:判別処理部13は、第1の認識部11によって認識された乗員の姿勢が、判別処理テーブルに登録されているか否かを判定する。判別処理テーブルは、図4に示すように、乗員の姿勢を表す情報と、乗員の手の状態を表す情報と、制御対象の車載機器20及び実行する動作を関連付けて定義する。図4の判別処理テーブルの例では、乗員の姿勢を表す情報として、骨格座標列が定義されている。骨格座標列は、図3に示す各部の三次元座標を一定の順序で並べたものであり、骨格パターンを表す。判別処理部13は、第1の認識部11によって生成された乗員の骨格座標列を、判別処理テーブルに登録された骨格座標列のそれぞれと順次比較し、両方の骨格座標列の一致度に基づいて、第1の認識部11によって生成された骨格座標列が登録されているか否かを判定する。判別処理部13は、第1の認識部11によって生成された骨格座標列と、判別処理テーブルに登録された骨格座標列とのズレをある程度許容することができ、両方の骨格座標列の各座標が完全に一致していなくても、各座標の距離の差が所定の閾値以内であれば、第1の認識部11によって生成された骨格座標列が、判別処理テーブルに登録されていると判定することができる。ステップS3の判定がYESの場合、処理はステップS4に進み、それ以外の場合、処理はステップS1に進む。
乗員は車内で着座しており、乗員が取り得る姿勢は、上半身で取り得る姿勢に限られる。判別処理テーブルに登録する乗員の姿勢は、上半身で取り得る姿勢の中でも、運転操作中でも取りやすい姿勢であって、相互に区別がつきやすいも姿勢であることが好ましく、運転操作中に乗員が取り得る姿勢とは異なる姿勢であることがより好ましい。例えば、乗員は、運転操作中には車内で上半身を大きく傾けたり、捻ったりする姿勢は取りにくい。そこで、判別処理テーブルに登録する乗員の姿勢は、頭部または肩の関節位置に対して肘及び手首の関節の位置を変えた複数の姿勢とすることが好ましい。具体的には、手首を頭部の右側、左側、前方側のいずれかに配置した姿勢や、手首や肘を肩の上側または下側に配置した姿勢等が検出しやすい。
ステップS4:第2の認識部12は、撮像部10によって撮像された画像から乗員の手の状態を検出する。上述したように、乗員の手の状態は、手の形状、または、手の形状と手の向きによって表すことができる。例えば、第2の認識部12は、深層学習に基づく画像認識により乗員の手の形状と手の向きとを認識することができる。その後、処理はステップS5に進む。
ステップS5:判別処理部13は、第2の認識部12によって認識された手の状態が、判別処理テーブルに登録されているか否かを判定する。判別処理テーブルは、図4に示すように、手の状態として、手の形状、または、手の形状と手(指先)の方向の組み合わせが定義されている。図4の判別処理テーブルの例では、手の形状として、グーの形(全ての指を曲げて握った形)、パーの形(全ての指を伸ばして広げた形)、Vサインの形、人差し指を立てた形が定義されており、人差し指を立てた手の形には、人差し指の指先方向が組み合わされている。図4の例では、人差し指を立てた手の形に対してのみ手(指先)の方向が定義されているが、他の手の形状に対しても手(指先)の方向を定義しても良い。また、手の方向は、指先の方向に限らず、掌もしくは手の甲の向きで定義しても良い。ただし、手(指先)の方向は必須ではなく、手の形状のみで手の状態を定義しても良い。判別処理部13は、第2の認識部12によって認識された手の形状と手の向き(指先方向)の組み合わせが、判別処理テーブルに登録された手の状態と一致するか否かにより、登録の有無を判定する。ステップS5の判定がYESの場合、処理はステップS6に進み、それ以外の場合、処理はステップS1に進む。
ステップS6:判別処理部13は、第1の認識部11によって認識された乗員の姿勢と、第2の認識部12によって認識された乗員の手の状態との組み合わせに対して、制御処理、すなわち、制御対象の車載機器20及び実行する動作が判別情報テーブルに登録されているか否かを判定する。例えば、図4の例において、乗員の姿勢が{(x2,y2,z2),・・・}であると認識され、かつ、手の形状が「人差し指」で、指先方向が「(撮像部から見て)右」であると認識された場合、この認識された姿勢及び手の状態の組み合わせに対して判別処理テーブルには、制御対象の車載機器20として「助手席窓」が、動作として「音声認識作動」が登録されている。この場合、判別処理部13は、ステップS6でYESと判定する。ステップS6の判定がYESの場合、処理はステップS7に進み、それ以外の場合、処理はステップS1に進む。
尚、判別テーブルには、制御対象の車載機器20を直接制御する動作と、制御対象の車載機器20とは別の機器を介して制御対象の車載機器20を制御する動作とを登録することができる。図4の例において、エアコンをONまたはOFFする動作やワイパーをサービスモードに設定する動作が、制御対象の車載機器20を直接制御する動作に該当する。また、図4の例において、助手席窓やスライドルーフを制御するために音声認識処理を作動させる動作が、別の機器を介して制御対象の車載機器20を制御する動作に該当する。
ステップS7:制御部14は、判別処理部13による判別結果に基づき、制御コマンド生成処理を行う。制御部14は、認識された乗員の姿勢及び手の状態の組み合わせに対して登録された制御対象の車載機器20に対し、登録された動作を指示する制御コマンドを生成する。例えば、図4の例において、乗員の姿勢が{(x2,y2,z2),・・・}であると認識され、かつ、手の形状が「人差し指」で、指先方向が「(撮像部から見て)右」であると認識された場合、助手席の窓を操作するために音声認識処理を開始させる制御コマンドを生成する。この制御コマンドは、音声認識処理を開始するためにハンドル等に設けられる音声認識ボタンが押下された場合に発行されるものと等価なコマンドである。また、助手席の窓を操作するための音声認識処理では、助手席の窓を開くまたは閉じるための指示である、「窓を開けて」や「窓を閉めて」等の発話を認識する。
尚、音声認識処理は、制御対象の車載機器20が音声認識部を備える場合は、車載機器20の音声認識部が行っても良いし、機器制御装置1に設けられた図示しない音声認識部が行っても良いし、機器制御装置1と通信ネットワークまたは信号線を介して接続された音声認識装置が行っても良い。
また、ステップS7において、制御部14は、更に、所定の条件が満たされたときに行う動作を指示するための補助コマンドを生成することができる。上述した通り、補助コマンドは、制御コマンドで指示した動作が開始された後に発行され、制御対象の車載機器20に対して補助的な動作を指示するためのコマンドである。補助コマンドを生成するか否か及び生成する補助コマンドの内容は、判別処理テーブルにおいて、姿勢と手の状態との組み合わせ毎に登録しておいても良いし、制御対象の車載機器20と動作の組み合わせ毎に定められていても良い。例えば、ステップS7において、助手席の窓を操作するために音声認識を作動させる制御コマンドを生成した場合、制御部14は、窓の開動作または閉動作を停止するための補助コマンドや、助手席の窓の操作指示を受け付ける音声認識処理を中止するための補助コマンドを生成することができる。これらの補助コマンドを発行するために満たされるべき条件としては、車内に設けられたいずれかのボタンが押下されたことや、ステップS2で認識された姿勢またはステップS5で認識された手の状態が変化したこと等を設定することができる。
制御部14が制御コマンドと必要に応じて補助コマンドを生成した後、処理はステップS8に進む。
ステップS8:制御部14は、ステップS7で生成した制御コマンドを発行する。尚、制御部14が、音声認識装置等の別の機器を介して制御対象の車載機器20を制御する場合、当該別の機器が制御対象の車載機器20に対して制御コマンドを送出しても良いし、当該別の機器の処理結果に基づいて制御部14が車載機器20に対して制御コマンドを送出しても良い。
その後、処理はステップS9に進む。
ステップS9:制御部14は、車両のエンジン停止や電源オフ等の処理の終了条件が満たされたか否かを判定する。ステップS9の判定がYESの場合、処理を終了し、それ以外の場合、処理はステップS1に進む。
<効果等>
手の形状や手の動き(ジェスチャー)のみで制御対象の車載機器と実行する動作を特定する構成では、走行中の振動による手の位置の変化や運転操作のための手の動きがあるため、手の形状や動きを常に正確に認識することは困難である。したがって、乗員が意図した通りに車載機器を制御できなかったり、乗員の手の形状や動きが登録されたものと偶然一致して予期しない車載機器の動作が行われたりする可能性がある。認識しやすい手の形状や動き(ジェスチャー)を検出対象とすることも考えられるが、この場合、手の形状や動きに割り当て可能な機能の数が少なくなるため、手の形状や動きで指示可能な操作が限定されてしまう。
これに対して、本実施形態に係る機器制御装置1では、乗員の撮影画像から検出した姿勢及び手の状態の組み合わせに基づいて、制御対象の車載機器20及び実行する動作を特定する。乗員の姿勢は、各関節の相対的な配置によって区別されるため、手の形状や動きと比べると、姿勢毎の各関節の位置の差が明確であり、手の形状や動きよりも判別がし易い。乗員の撮影画像に基づいて乗員による車載機器20の操作指示を受け付ける装置において、本実施形態のように、操作指示に乗員の姿勢を組み入れることにより、操作指示の判別精度を向上させることができる。また、本実施形態のように、乗員の姿勢と手の状態との組み合わせに対して、操作対象の車載機器20及び実行する動作を割り当てる場合、乗員の姿勢のみ、または、手の状態のみに、操作対象の車載機器20及び実行する動作を割り当てる場合と比べて、割り当て可能な機能を多くすることができる。車両の走行中の振動や運転操作による手の動きを考慮すると、検出対象とする手の状態は、認識しやすいものとすることが好ましい。この場合、検出対象とする手の状態の種類が限られることになるが、本実施形態のように、乗員の姿勢を組み合わせることにより、認識精度の高い手の形状を採用しつつ、割り当て可能な機能の数を増やすことができる。
(第1の実施形態の変形例)
図5は、第1の実施形態の変形例に係る機器制御装置が参照する判別処理テーブルの一例を示す図である。
本変形例に係る機器制御装置の基本的な構成は、第1の実施形態に係る機器制御装置1と同じであるが、判別処理部が参照する判別処理テーブルの内容と、制御対象の車載機器及び実行する動作を特定するために判別処理部が行う処理とが異なる。以下、図1、5及び6を併せて参照しながら、本変形例と第1の実施形態との相異点を中心に説明する。
図5に示すように、本変形例に係る判別処理テーブルには、乗員の姿勢を表す情報及び手の状態を表す情報の組み合わせ毎に、更に、乗員の姿勢及び手の状態の維持時間が関連付けられている。維持時間は、これに関連付けられた乗員の姿勢と手の状態とが意図的に行われたか、偶然発生したかを区別するために用いる閾値である。乗員の姿勢と手の状態とが定義された維持時間以上継続した場合に、乗員により意図的な操作指示が行われたとみなすことができる。
図6は、第1の実施形態の変形例に係る機器制御装置が実行する制御処理を示すフローチャートである。図6に示すフローチャートは、図2に示したフローチャートのステップS6及びS7の間にステップS20を挿入したものである。
ステップS20:判別処理部13が、第1の認識部11によって認識された乗員の姿勢と、第2の認識部12によって認識された乗員の手の状態との組み合わせに対して、制御対象の車載機器20及び実行する動作が登録されていると判定した場合(ステップS6でYES)、判別処理部13は、図5に示した判別処理テーブルを参照して、認識された乗員の姿勢及び手の状態の組み合わせに関連付けられた維持時間を取得する。判別処理部13は、タイマを開始して、認識された乗員の姿勢及び手の状態の継続時間を計測し、乗員の姿勢及び手の状態が、判別処理テーブルから取得した維持時間以上継続したか否かを判定する。ステップS20の判定がYESの場合、処理はステップS7に進み、それ以外の場合、処理はステップS1に進む。
例えば、乗員の姿勢が{(x3,y3,z3),・・・}であると第1の認識部11によって認識され、かつ、手の形状が「Vサイン」であると第2の認識部12によって認識された場合、図5の判別処理テーブルの例では、認識された姿勢及び手の状態の組み合わせに対して、制御対象の車載機器として「エアコン」が、実行する動作として「ON」が登録され、更に、維持時間として「1000ミリ秒」が登録されている。判別処理部は、乗員の姿勢{(x3,y3,z3),・・・}及び手の形状「Vサイン」が認識されてからの継続時間をタイマで計測し、認識された姿勢及び手の状態が1000ミリ秒以上継続すると、エアコンをONするための制御コマンドと、必要に応じて、上述した補助コマンドを生成して送出する。一方、維持時間である1000ミリ秒が経過する前に、乗員の姿勢{(x3,y3,z3),・・・}及び手の形状「Vサイン」の少なくとも一方が認識されなくなると、制御コマンドの生成は行わずに、乗員の姿勢及び手の状態の認識処理を継続する。
本変形例に係る機器制御装置では、判別処理部13が、乗員の姿勢及び手の状態の組み合わせが維持時間以上継続したか否かを判定することにより、認識された乗員の姿勢及び手の状態の組み合わせが意図的に行われたものであるか、あるいは、偶然に発生したものであるかを判別することができる。したがって、本変形例に係る機器制御装置によれば、乗員が意図的に行った車載機器20の操作要求の判別精度をより向上させることができる。
運転操作中には、例えば、シフトレバーやハンドルを掴むことにより「グー」に近い手の形状が生じたり、クラクションボタンを押すことにより「パー」に近い手の形状が生じたりすることがある。上記の第1の実施形態でも、手の形状だけでなく乗員の姿勢を組み合わせて操作指示を判定するため、手の形状だけで判定する場合と比べて判定精度が高くなっている。しかしながら、「グー」や「パー」のように発生頻度が高い手の形状を操作指示に利用している場合、乗員の姿勢によっては、偶然に誤った判別がなされる可能性がある。本変形例に係る機器制御装置では、運転操作等で発生しやすい手の形状を操作指示の判別に利用した場合でも、偶然に誤った判別がなされる可能性を低減できる。
尚、本変形例において、判別処理テーブルに登録された乗員の姿勢及び手の状態の組み合わせのそれぞれについて、姿勢及び手の状態の認識が維持時間以上継続しなかった回数を記録し、記録した回数が所定の閾値より高い姿勢及び手の状態の組み合わせを無効化したり、記録した回数が所定の閾値より高い姿勢及び手の状態の組み合わせの維持時間を更に長くしたりしても良い。乗員の姿勢及び手の状態の組み合わせが維持時間以上継続しない頻度が高い場合、当該組み合わせの指示が偶然発生しやすい、あるいは、乗員が勘違い等で誤って当該組み合わせの指示を選択しやすいと考えられる。そこで、姿勢及び手の状態の組み合わせが維持時間以上継続しない頻度が高い組み合わせに対して、削除または維持時間の変更を行うことにより、このような組み合わせが偶発的に選択されてしまうことを防止することができる。尚、判別処理テーブルに登録された姿勢及び手の状態の組み合わせを無効化したり、当該組み合わせに関連付けられた維持時間を更新したりする場合は、車内の表示部等でユーザに対して通知を行っても良い。
尚、図4及び5の例では、骨格座標列を構成する各関節の位置は、特定の座標ではなく、座標の範囲で表しても良い。また、各関節の座標は、予め定められた基準点を基準とした相対座標で表しても良いし、カメラの撮像範囲に予め固定された座標系の座標値で表しても良い。
(第2の実施形態)
図7は、第2の実施形態に係る機器制御装置の機能ブロック図である。
本実施形態に係る機器制御装置2は、第1の実施形態に係る機器制御装置1の判別処理部13に代えて判別処理部15を設け、更に車両状態推定部16を設けたものである。以下、本実施形態と第1の実施形態との相異点を中心に説明する。
車両状態推定部16は、通信ネットワークまたは信号線を介して接続される他の制御装置やセンサ類から、車両の動作に関する各種の車両信号を取得し、取得した車両信号に基づいて車両の状態を推定する。車両状態推定部16が取得する車両信号としては、例えば、車速、アクセルペダル操作量、ブレーキペダル操作量、シフトレンジ、各ドアの開閉状態、各ドアのロック状態等を表す信号が挙げられるが、これらに限定されない。車両状態推定部16が推定する車両の状態としては、例えば、走行中、停車中、駐車中、乗車または降車中等が挙げられるが、これらに限定されない。車両状態推定部16は、推定した車両の状態を判別処理部15に出力する。
判別処理部15は、第1の認識部11によって認識された乗員の姿勢と、第2の認識部12によって認識された乗員の手の状態とに基づいて、制御対象の車載機器20及び実行する動作を特定した場合、車両状態推定部16によって推定された車両の状態に基づいて、特定した動作の実行可否を判定する。例えば、制御対象の車載機器20及び実行する動作と、当該動作の実行を許可(または禁止)する車両の状態とを関連付けた情報を予め用意しておき、判別処理部15がこの情報を参照して、特定した制御対象の車載機器20及び実行する動作を許可するか否かを判定することができる。動作を許可(または禁止)する車両の状態は、判別処理テーブル(図4及び5)に定義されていても良いし、判別処理テーブルとは別の情報として定義されていても良い。尚、判別処理部15が行う、制御対象の車載機器20及び実行する動作の特定方法は、第1の実施形態と同じである。
判別処理部15によって、乗員の姿勢及び手の状態に基づいて特定された動作の実行が可能と判定された場合、制御部14は、特定された動作を指示するための制御コマンドを生成し発行する。
図8は、第2の実施形態に係る機器制御装置が実行する制御処理を示すフローチャートである。図8に示すフローチャートは、図2に示したフローチャートのステップS6及びS7の間にステップS25及びS26を挿入したものである。
ステップS25:判別処理部15が、第1の認識部11によって認識された乗員の姿勢と、第2の認識部12によって認識された乗員の手の状態との組み合わせに対して、制御対象の車載機器20及び実行する動作が登録されていると判定した場合(ステップS6でYES)、車両状態推定部16は、車両信号に基づいて車両の状態を推定する。車両状態推定部は、例えば、車速、アクセルペダル操作量、ブレーキペダル操作量、シフトレンジ、各ドアの開閉状態、各ドアのロック状態等を表す信号の1つまたは2以上の組み合わせに基づいて、走行中、停車中、駐車中、乗車または降車中等の車両の状態を推定することができる。
ステップS26:判別処理部15は、車両状態推定部16によって推定された車両の状態に基づいて、ステップS6で特定した動作を許可するか否かを判定する。上述したように、特定した動作の実行可否は、制御対象の車載機器20及び実行する動作と、当該動作の実行を許可(または禁止)する車両の状態とを予め関連付けた情報を参照することによって判定することができる。ステップS26の判定がYESの場合、処理はステップS7に進み、それ以外の場合、処理はステップS1に進む。
本実施形態に係る機器制御装置2においては、乗員の姿勢及び手の状態に基づいて特定された制御対象の車載機器20及び実行する動作を、車両の状態に応じて許可したり制限したりすることが可能である。したがって、例えば、車両の走行中に、カーナビゲーションシステムの操作や窓の開操作を禁止したり、車両の走行中に、運転操作により生じやすい姿勢や手の状態に割り当てられた動作が偶然実行されてしまうことを抑制したり、車両の停車時に、乗員の乗降により生じやすい姿勢や手の状態に割り当てられた動作が偶然実行されてしまうことを抑制したりすることが可能である。本実施形態に係る機器制御によれば、乗員の姿勢及び手の状態に基づく車載機器20の操作を車両の状態に応じて細かく制御することができる。また、特定の車両の状態で生じやすい乗員の姿勢及び手の状態を、当該特定の車両の状態でのみ無効化し、他の車両の状態では、車載機器20の操作に利用可能となるため、機能を割り当て可能な乗員の姿勢及び手の状態の組み合わせを増やすことができる。
尚、本実施形態では、車両の状態に応じて、乗員の姿勢及び手の状態に基づいて特定された制御対象の車載機器20及び実行する動作の可否を決定する例を説明した、車両の状態毎に判別処理テーブルを用意し、車両の状態に応じて、乗員の姿勢及び手の状態に基づいて特定される制御対象の車載機器20及び実行する動作を異ならせても良い。また、車両の状態に応じて、乗員の姿勢及び手の状態に基づいて特定される動作のみを異ならせても良い。このようにすれば、例えば、乗員が車載機器20の操作を指示する際の姿勢及び手の状態は同じでも、例えば、車両の停車中と走行中とで、操作対象の車載機器や指示する操作内容を変えることができ、乗員の姿勢及び手の状態に基づく車載機器20の操作を車両の状態に応じて更に細かく制御することができる。
また、本実施形態で説明した、車両の状態に基づく制御対象の車載機器20及び実行する動作の決定は、第1の実施形態の変形例にも適用可能である。具体的には、図6のステップS20とS7との間に、図8のS25及びS26を挿入し、認識された姿勢及び手の状態の組み合わせが維持時間以上継続した場合に(S20でYES)、車両状態推定部16が取得した車両状態に基づき、判別処理部15が認識された姿勢及び手の状態の組み合わせにより特定された制御対象の車載機器20及び実行する動作の可否を判定し、許可すると判定した場合に(S26でYES)、制御部14が制御コマンドを生成し発行すれば良い(S7)。この制御によれば、乗員の姿勢及び手の状態に基づく車載機器20の操作を車両の状態に応じて更に細かく制御しつつ、乗員が意図的に行った車載機器20の操作要求の判別精度をより向上させることができる。
(第3の実施形態)
図9は、第3の実施形態に係る機器制御装置の機能ブロック図である。
本実施形態に係る機器制御装置3は、撮像部10及び制御部17を有する車載装置25と、第1の認識部31、第2の認識部32及び判別処理部33を有する外部装置30とを備える。外部装置30は、例えば、無線通信により車載装置25と通信可能なサーバや、有線通信または無線通信により車載装置25と通信可能なスマートフォンである。外部装置30がスマートフォンである場合、USB、LAN、Bluetooth(登録商標)等で車載装置と接続することができるが、接続方式はこれらに限定されない。
撮像部10、第1の認識部31、第2の認識部32、判別処理部33及び制御部17は、それぞれ、第1の実施形態または第1の実施形態の変形例で説明した撮像部10、第1の認識部11、第2の認識部12、判別処理部13及び制御部14と同じである。ただし、本実施形態では、第1の認識部31、第2の認識部32及び判別処理部33が車載装置25とは別の外部装置30にあるので、撮像部10が撮影した乗員の画像は、有線通信または無線通信により第1の認識部31及び第2の認識部32に送信される。同様に、判別処理部33の判定結果(乗員の姿勢及び手の状態の認識結果に対応した制御対象の車載機器20及び実行する動作、認識された乗員の姿勢及び手の状態が維持時間以上継続したこと)は、有線通信または無線通信により制御部17に送信される。
本実施形態では、判別処理部33を外部装置30に設けているので、判別処理部33が参照する判別処理テーブルも外部装置30の記憶装置に記憶される。車両の外部の装置に判別処理テーブルを記憶させると、スマートフォンやウェブアプリケーション等を用いて、ユーザが判別処理テーブルの内容を変更することにより、姿勢及び手の状態の組み合わせで指示可能な車載機器20及びその操作を好みに合わせてカスタマイズすることができる。
尚、本実施形態では、車載装置25の撮像部10を用いて乗員の画像を撮影する構成としたが、外部装置30がカメラを備えるスマートフォンやタブレットの場合は、外部装置30のカメラを撮像部10として利用しても良い。
また、本実施形態の車載装置25及び撮像部10の構成は、上記の第2の実施形態に適用しても良い。この場合、車載装置25に図7に示した車両状態推定部16を設け、有線通信または無線通信により、車両状態推定部16が推定した車両の状態を判別処理部33に送信しても良い。あるいは、外部装置30がスマートフォンやタブレットの場合は、図7に示した車両状態推定部16を外部装置30に設けても良い。車両状態推定部16を外部装置30に設ける場合、外部装置30が備える加速度センサやGPS等を利用して車両の状態を判定しても良い。
(その他の変形例)
上記の機器制御装置は、運転席の乗員だけでなく、助手席や後部座席の乗員も操作指示の検出対象としても良い。この場合、乗員の着座位置毎に判別処理テーブルを用意して、乗員の着座位置毎に操作可能な車載機器20または可能な操作を変えることが可能となる。
また、上記の機器制御装置では、認識された姿勢と判別処理テーブルとの一致度を判定し、認識された手の状態と判別処理テーブルのデータとの一致度を判定し、その後に、認識された姿勢及び手の状態の組み合わせに関連付けられた、制御対象の車載機器及び実行する動作を特定しているが、特定方法はこれには限られない。例えば、認識された姿勢に一致するデータを判別処理テーブルから抽出し、認識された手の状態と抽出されたデータとの一致度を判定することにより、制御対象の車載機器及び実行する動作を特定しても良い。あるいは、認識された姿勢及び手の状態の両方と判別処理テーブルのデータとの一致度を版値することにより、制御対象の車載機器及び実行する動作を特定しても良い。
また、上記の機器制御装置において、判別処理テーブルをユーザ毎に登録しておき、乗車時にユーザに応じて判別処理テーブルを切り替えても良い。例えば、判別処理テーブルの登録時には、判別情報テーブルにユーザを特定するための識別情報(コードや生体情報等)を関連付けておき、乗車時には、ユーザの識別情報を入力し、入力された識別情報に関連付けられた判別処理テーブルを取得すれば良い。ユーザの識別情報としては、指紋や顔の画像を利用することができる。ユーザの識別情報として顔の画像を利用する場合、乗車時に撮像部がユーザの顔を撮影することにより、ユーザを識別しても良い。また、第3の実施形態において、外部装置としてカメラを備えるスマートフォンやタブレットを使用する場合は、乗車時に、外部装置の指紋または顔認識機能によりユーザを識別しても良い。
また、上記の機器制御装置において、判別処理テーブルは、車両に搭載される記憶装置に記憶されても良いし、車両の外部装置(サーバやスマートフォン、タブレット等)の記憶装置に記憶されても良い。また、乗車時や車両の始動時等に、判別処理テーブルを外部装置から取得して車両に搭載される記憶装置に記憶しても良い。
また、上記の機器制御装置において、乗員の姿勢の認識結果を骨格座標列として出力する例を説明したが、座標列ではなく、機械学習に基づく抽象的な出力としても良い。例えば、大量の画像を用いて、後席振り返り、助手席の物探し、シートベルト装着姿勢等の抽象的な概念を学習し、乗員の撮影画像に基づいて、乗員の姿勢を抽象的な概念として出力しても良い。
また、上記の機器制御装置において、手の状態として、手を左右に振る、手を上げ下げする、指を曲げ伸ばしする等の手の動き(ジェスチャー)を認識しても良い。この場合、車両走行中の振動や運転操作により手の動きが正確に認識されない可能性を考慮して、認識対象とする手の動きは、なるべく単純なものにすることが好ましい。
本発明は、車載機器を制御するための機器制御装置として利用できる。
1、2、3 機器制御装置
10 撮像部
11 第1の認識部
12 第2の認識部
13 判別処理部
14 制御部
15 判別処理部
16 車両状態推定部
17 制御部
20 車載機器
31 第1の認識部
32 第2の認識部
33 判別処理部

Claims (6)

  1. 車両に搭載された機器を制御する機器制御装置であって、
    車両の乗員の画像を撮像する撮像部と、
    前記撮像部によって撮像された画像に基づいて、乗員の姿勢を認識する第1の認識部と、
    前記撮像部によって撮像された画像に基づいて、少なくとも乗員の手の形状を含む、手の状態を認識する第2の認識部と、
    前記第1の認識部によって認識された乗員の姿勢と、前記第2の認識部によって認識された手の状態とに基づいて、制御対象の機器及び実行する動作を特定する判別処理部と、
    特定された制御対象の機器及び実行する動作に対応する制御コマンドを発行する制御部とを備える、機器制御装置。
  2. 前記判別処理部は、乗員の姿勢を表す情報と、手の状態を表す情報と、機器を表す情報と、動作を表す情報とが予め関連付けられた判別処理情報を参照して、制御対象の機器及び実行する動作を特定する、請求項1に記載の機器制御装置。
  3. 前記判別処理情報には、
    前記乗員の姿勢を表す情報として、骨格座標列によって表される骨格パターンが定義され、
    前記手の状態を表す情報として、手の形状、もしくは、手の形状及び向きの組み合わせが定義され、
    前記第1の認識部は、前記撮像部によって撮像された画像から乗員の骨格座標列を認識し、
    前記第2の認識部は、前記撮像部によって撮像された画像から乗員の手の形状及び向きを認識し、
    前記判別処理部は、前記第1の認識部及び前記第2の認識部の認識結果と、前記判別処理情報との一致度に基づいて、認識された乗員の姿勢及び手の状態関連付けられた機器及び動作を、制御対象の機器及び実行する動作として特定する、請求項2に記載の機器制御装置。
  4. 前記判別処理情報には、前記乗員の姿勢を表す情報及び前記手の状態を表す情報の組み合わせ毎に、前記乗員の姿勢及び前記手の状態の維持時間が更に関連付けられて定義されており、
    前記判別処理部は、前記第1の認識部及び前記第2の認識部の認識結果と、前記判別処理情報との一致度に基づいて、制御対象の機器及び実行する動作を特定した場合、更に、前記第1の認識部によって認識された乗員の姿勢と、前記第2の認識部によって認識された手の状態とが、前記判別処理情報に定義される維持時間以上継続したか否かを判定し、
    前記制御部は、前記判別処理部によって制御対象の機器及び実行する動作が特定され、かつ、前記第1の認識部によって認識された乗員の姿勢と、前記第2の認識部によって認識された手の状態とが、前記判別処理情報に定義される維持時間以上継続したと判定された場合に、前記制御コマンドを発行する、請求項2に記載の機器制御装置。
  5. 車両の状態を推定する車両状態推定部を更に備え、
    前記判別処理部は、前記車両状態推定部が推定した車両の状態に基づいて、特定された動作を許可するか否かを決定し、
    前記制御部は、前記判別処理部によって制御対象の機器及び実行する動作が特定され、かつ、特定された動作を許可すると決定された場合に、前記制御コマンドを発行する、請求項1に記載の機器制御装置。
  6. 前記制御部は、前記制御コマンドを発行した後、所定の条件を満たした場合に、前記制御コマンドによって指示した動作を中止または変更させる補助コマンドを発行する、請求項1に記載の機器制御装置。
JP2018186567A 2018-10-01 2018-10-01 機器制御装置 Active JP7091983B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018186567A JP7091983B2 (ja) 2018-10-01 2018-10-01 機器制御装置
KR1020190079219A KR102303556B1 (ko) 2018-10-01 2019-07-02 기기 제어 장치
US16/459,691 US11023786B2 (en) 2018-10-01 2019-07-02 Device control apparatus
EP19183867.1A EP3633538B8 (en) 2018-10-01 2019-07-02 Device control apparatus
CN201910704499.7A CN110968184B (zh) 2018-10-01 2019-07-31 设备控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018186567A JP7091983B2 (ja) 2018-10-01 2018-10-01 機器制御装置

Publications (2)

Publication Number Publication Date
JP2020057139A true JP2020057139A (ja) 2020-04-09
JP7091983B2 JP7091983B2 (ja) 2022-06-28

Family

ID=67145577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186567A Active JP7091983B2 (ja) 2018-10-01 2018-10-01 機器制御装置

Country Status (5)

Country Link
US (1) US11023786B2 (ja)
EP (1) EP3633538B8 (ja)
JP (1) JP7091983B2 (ja)
KR (1) KR102303556B1 (ja)
CN (1) CN110968184B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022078706A (ja) * 2020-11-13 2022-05-25 ディープインサイト株式会社 ユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラム
WO2023214451A1 (ja) * 2022-05-02 2023-11-09 ディープインサイト株式会社 ユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11437031B2 (en) * 2019-07-30 2022-09-06 Qualcomm Incorporated Activating speech recognition based on hand patterns detected using plurality of filters
US11590929B2 (en) * 2020-05-05 2023-02-28 Nvidia Corporation Systems and methods for performing commands in a vehicle using speech and image recognition
CN114771442A (zh) * 2022-04-29 2022-07-22 中国第一汽车股份有限公司 一种车辆个性化设置方法及车辆

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303251A (ja) * 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd 制御方法
US20110158546A1 (en) * 2009-12-25 2011-06-30 Primax Electronics Ltd. System and method for generating control instruction by using image pickup device to recognize users posture
JP2011525283A (ja) * 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド 車両インターフェース用ジェスチャ基準制御システム
JP2011253292A (ja) * 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP2014119295A (ja) * 2012-12-14 2014-06-30 Clarion Co Ltd 制御装置、及び携帯端末
JP2016091182A (ja) * 2014-10-31 2016-05-23 三菱自動車工業株式会社 操作入力装置
WO2018147254A1 (ja) * 2017-02-10 2018-08-16 パナソニックIpマネジメント株式会社 車両用入力装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100873567B1 (ko) * 2007-02-09 2008-12-12 주식회사 현대오토넷 차량의 주행중 내비게이션 규제 장치 및 방법
US8396252B2 (en) * 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
JP2013205983A (ja) 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
CN103809733B (zh) * 2012-11-07 2018-07-20 北京三星通信技术研究有限公司 人机交互***和方法
US9684372B2 (en) 2012-11-07 2017-06-20 Samsung Electronics Co., Ltd. System and method for human computer interaction
KR101534742B1 (ko) * 2013-12-10 2015-07-07 현대자동차 주식회사 차량용 제스처 인식 시스템 및 그 방법
US9710717B1 (en) * 2015-01-13 2017-07-18 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for determining vehicle operator distractions
US9988055B1 (en) * 2015-09-02 2018-06-05 State Farm Mutual Automobile Insurance Company Vehicle occupant monitoring using infrared imaging
US9996757B1 (en) * 2016-06-14 2018-06-12 State Farm Mutual Automobile Insurance Company Apparatuses, systems, and methods for detecting various actions of a vehicle operator
KR101937823B1 (ko) * 2016-10-24 2019-01-14 주식회사 브이터치 객체 제어를 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
JP6820533B2 (ja) * 2017-02-16 2021-01-27 パナソニックIpマネジメント株式会社 推定装置、学習装置、推定方法、及び推定プログラム
DE102017216837A1 (de) * 2017-09-22 2019-03-28 Audi Ag Gestik- und Mimiksteuerung für ein Fahrzeug
JP6962878B2 (ja) * 2018-07-24 2021-11-05 本田技研工業株式会社 操作補助システムおよび操作補助方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303251A (ja) * 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd 制御方法
JP2011525283A (ja) * 2008-06-18 2011-09-15 オブロング・インダストリーズ・インコーポレーテッド 車両インターフェース用ジェスチャ基準制御システム
US20110158546A1 (en) * 2009-12-25 2011-06-30 Primax Electronics Ltd. System and method for generating control instruction by using image pickup device to recognize users posture
JP2011253292A (ja) * 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP2014119295A (ja) * 2012-12-14 2014-06-30 Clarion Co Ltd 制御装置、及び携帯端末
JP2016091182A (ja) * 2014-10-31 2016-05-23 三菱自動車工業株式会社 操作入力装置
WO2018147254A1 (ja) * 2017-02-10 2018-08-16 パナソニックIpマネジメント株式会社 車両用入力装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宮鍋 克麻: "多人数によるスライド操作のためのジェスチャ識別手法", 映像情報メディア学会技術報告 VOL.39 NO.7, vol. HI2015-30, ME2015-30, AIT2015-30, JPN6022008454, 16 February 2015 (2015-02-16), JP, pages 267 - 272, ISSN: 0004721206 *
鈴木 伶央: "ユーザ視点に基づく透過型拡張現実インタフェース", 人工知能学会 第28回全国大会論文集 3E3−2, JPN6022008455, 12 May 2014 (2014-05-12), JP, pages 1 - 4, ISSN: 0004721205 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022078706A (ja) * 2020-11-13 2022-05-25 ディープインサイト株式会社 ユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラム
JP7203436B2 (ja) 2020-11-13 2023-01-13 ディープインサイト株式会社 ユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラム
WO2023214451A1 (ja) * 2022-05-02 2023-11-09 ディープインサイト株式会社 ユーザインターフェイス装置、ユーザインターフェイスシステム及びユーザインターフェイス用プログラム

Also Published As

Publication number Publication date
KR20200037725A (ko) 2020-04-09
JP7091983B2 (ja) 2022-06-28
CN110968184A (zh) 2020-04-07
US20200104629A1 (en) 2020-04-02
EP3633538B8 (en) 2023-11-01
EP3633538B1 (en) 2023-09-27
US11023786B2 (en) 2021-06-01
CN110968184B (zh) 2023-09-01
EP3633538A1 (en) 2020-04-08
KR102303556B1 (ko) 2021-09-17

Similar Documents

Publication Publication Date Title
JP7091983B2 (ja) 機器制御装置
US10384647B2 (en) Electronic key system
CN104460974B (zh) 车辆操纵装置
US20150317527A1 (en) System, methods, and apparatus for in-vehicle fiducial mark tracking and interpretation
KR101438615B1 (ko) 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
CN108350716A (zh) 用于打开和关闭车门的***和方法
US20170267169A1 (en) Device for controlling the interior lighting of a motor vehicle
JP2017199303A (ja) 識別装置、識別方法、識別プログラムおよび記録媒体
JP6342874B2 (ja) 画像認識装置
JP5217754B2 (ja) 行動推定装置、プログラム
JP3933139B2 (ja) コマンド入力装置
JP2006312347A (ja) コマンド入力装置
JP4683123B2 (ja) 行動推定装置、プログラム
JP6581482B2 (ja) 画像認識装置
JP2006282145A (ja) コマンド入力装置
JP2010146471A (ja) 行動推定装置、プログラム
JP2006312346A (ja) コマンド入力装置
WO2017017938A1 (ja) ジェスチャ操作システム、方法およびプログラム
KR20200085970A (ko) 자동차 및 그 제어 방법
JP2017149273A (ja) 車載装置、車両用システム、及びプログラム
JP2010044493A (ja) 行動推定装置、プログラム
CN118270001A (zh) 车辆的控制方法及其装置、车辆的驾驶***和车辆
JP2023114459A (ja) ドライバ推定装置、制御方法、プログラム及び記憶媒体
JP4973667B2 (ja) 操作推定装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R151 Written notification of patent or utility model registration

Ref document number: 7091983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151