JP4311190B2 - 車載機器用インターフェース - Google Patents

車載機器用インターフェース Download PDF

Info

Publication number
JP4311190B2
JP4311190B2 JP2003419752A JP2003419752A JP4311190B2 JP 4311190 B2 JP4311190 B2 JP 4311190B2 JP 2003419752 A JP2003419752 A JP 2003419752A JP 2003419752 A JP2003419752 A JP 2003419752A JP 4311190 B2 JP4311190 B2 JP 4311190B2
Authority
JP
Japan
Prior art keywords
hand
information
target device
unit
vehicle device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003419752A
Other languages
English (en)
Other versions
JP2005178473A (ja
Inventor
隆文 伊藤
雄一 熊澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2003419752A priority Critical patent/JP4311190B2/ja
Priority to US10/974,721 priority patent/US7437488B2/en
Publication of JP2005178473A publication Critical patent/JP2005178473A/ja
Application granted granted Critical
Publication of JP4311190B2 publication Critical patent/JP4311190B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、空間に離散的に配置された複数の車載機器を非接触にて操作するための車載機器用インターフェースに関する。
従来より、自動車運転の安全性向上のため、ナビゲーション装置やオーディオ機器、エアコン等といった各種車載機器を、ドライバが、視線をそらしたり腕を伸ばすなどして大きく姿勢を変えることなく操作可能とするための技術が提案されている。その例として、画像認識を利用し、ジェスチャ(身振り,手振り)によって、指令や情報を入力する装置(例えば、特許文献1,特許文献2参照。)や、音声認識を利用して、予め設定された予約語の発話によって、指令や情報を入力する装置が知られている。
特開2000− 75991号公報 特開2002−149304号公報
このうち、画像認識を利用した装置では、使用するジェスチャを、操作者の意識が運転からそがれることのない程度に簡単なものとしなければならない。しかし、簡単なジェスチャを用いた場合、操作者の意図しない動きを、意味のあるジェスチャとして誤認識してしまい、車載装置を誤作動させてしまうおそれがあるという問題があった。
一方、音声認識を利用した装置では、使用する予約語を、操作者が予め覚えておく必要があり、操作が複雑だったり、操作対象となる車載機器が複数存在する場合に、多くの予約語を覚えるのが難しいという問題があった。
これに対して、近年では、自然言語での音声認識の研究も行われているが、実用化はまだ程遠く、仮に実現できたとしても、車両に搭載可能なCPUの処理能力では、リアルタイム性を確保できないという問題が残される。
更に、指令や情報の中に空間的な位置が含まれる場合、これを自然言語で表現するのは非常に難しく、自然言語での音声認識が可能であったとしても、的確な指令や情報を与えることが困難であるという問題もあった。
本発明は、上記問題点を解決するために、複雑なジェスチャや多くの予約語を覚えることなく、複数の車載機器を非接触にて確実に操作することが可能な車載機器用インターフェースを提供することを目的とする。
上記目的を達成するためになされた本発明の車載機器用インターフェースでは、操作者の手の状態を表す手情報を検出する手情報検出手段での検出結果と、操作者の発話を認識する音声認識手段での認識結果との組み合わせに基づいて、機器特定手段が、操作対象となる車載機器である対象機器を特定し、制御信号生成手段が、機器特定手段にて特定された対象機器に対する制御信号を生成する。
つまり、対象機器の特定等を、ジェスチャだけ又は音声だけで行うのではなく、両者を組み合わせて行うため、簡単な手振りと簡単な単語とを用いても、操作者の意図しない動きや発話が、意味のあるものと誤認識される可能性を大幅に低減することができる。
しかも、手の状態からは、空間の位置などといった言葉では表現し難い事柄を明確に示すことができるため、音声認識だけを用いる場合と比較して、操作者の意図を少ない処理量にて確実に特定することができる。
なお、手情報が表す手の状態としては、手の形状,手の動き,手の位置のうち少なくとも一つを含むことが望ましい。更に手の形状としては、特に、手の向き(指差し方向)を表すものが考えられる。
そして、手の向きや手の方向は、対象機器とすべき機器の位置する方向などを指定する際に、好適に用いることができる。また、手の位置は、対象機器がエアコンである場合、風の当たる位置を具体的に指定する場合等に有効である。
ところで、機器特定手段は、例えば、音声認識手段にて予め設定された指示代名詞が認識されると、手情報検出手段が検出する手情報に基づいて対象機器を特定し、制御信号生成手段は、この特定された対象機器の動作状態を切り替えるための制御信号を生成するように構成すればよい。
この場合、例えば、手情報として手の形状や手の動きを用いた場合、手の形状から特定される手の向き、或いは手の動きから特定される方向と、車載機器とを予め対応づけておけば、操作を希望する車載機器に手を向けるか、その車載機器に向けて手を動かして、「これ」「それ」等の指示代名詞を発話するだけで、所望の車載機器を選択することができる。
このように本発明によれば、操作者は、対象機器の名称を忘れたり、その名称を正確に発話できない場合でも、簡単な手振りと指示代名詞の発話だけで、きわめて容易に且つ確実に対象機器を選択することができる。
また、指示代名詞の発話がなければ、対象機器が選択されることがないため、簡単な手振りであっても、操作者が操作を意図しない動作によって、対象機器が選択されてしまうことも防止できる。
また、機器特定手段は、例えば、音声認識手段にて予め設定された指示代名詞が認識されると、手情報検出手段が検出する手情報に基づいて対象機器を特定し、制御信号生成手段は、機器特定手段にて対象機器が特定されてから予め設定された許容時間の間に、対象機器に対する操作に対応づけられた予約語が音声認識手段にて認識されると、この予約語に対応した操作を対象機器に行わせるための制御信号を生成するように構成してもよい。
つまり、対象機器の操作が、直感的に理解できるような言葉で表すことができる場合(例えば「オン(点灯)」「オフ(消灯)」など)には、これを予約語としても、予約語の記憶に要する負担は小さいため、上述の指示代名詞を用いる場合と同様の効果を得ることができる。
しかも、上述の指示代名詞を用いた場合、対象機器の状態が複数存在すると、対象機器を所望の状態にするために、複数回の操作を行わなければならない可能性があるが、予約語を用いれば、一度の操作で、対象機器を所望の状態に切り替えること等が可能となる。
また、機器特定手段は、例えば、音声認識手段にて予め設定された指示代名詞が認識されると、手情報検出手段が検出する手情報に基づいて対象機器を特定し、制御信号生成手段は、機器特定手段にて対象機器が特定されてから予め設定された許容時間の間に、音声認識手段にて予め設定された指示代名詞が再び認識されると、手情報検出手段が検出する手情報に基づいて対象機器に対する操作を特定し、この操作を対象機器に行わせるための制御信号を生成するように構成してもよい。
つまり、対象機器の特定と、対象機器に対する操作の特定とを、一度に行うのではなく、2段階に分けて行うように構成してもよい。
これらの場合、2段階の操作がいずれも適合しなければ、機器の操作が行われないため、操作者の意図しない動作による機器の誤作動を、より確実に防止することができる。
特に後者の場合、対象機器に対する操作を、音声(予約語)ではなく、手の情報(手の状態)に対応させ、音声はトリガとしてのみ用いることにより、対象機器の選択とその機器に対する操作の選択とを、指示代名詞とジェスチャ(手振り)のみで、きわめて容易に且つ確実に行うことができる。
例えば、操作を特定する際の手情報として手の位置を用いた場合には、エアコンの吹き出し口から出る風の向きが手の位置する方向に向けるように制御すれば、アナログ的(無段階)に制御量を指示することが可能となる。
ところで、本発明の車載機器用インターフェースは、操作者の手の位置を検出し、その手の位置が予め設定された指定領域内に存在する場合に、手情報検出手段又は制御信号生成手段の動作を許可する動作許可手段を備えていてもよい。
この場合、操作者は、指定領域内に手が位置するようにして、手情報の入力を行わない限り、対象機器が選択されたり、その対象機器に対する操作が実行されたりすることがないため、操作者の意図しない動作による誤作動を、より確実に防止することができる。
なお、動作許可手段は、例えば、指定領域を撮像するように配置されたカメラからの入力画像に基づいて前記操作者の手の位置を検出するように構成すればよい。
この場合、カメラは、乗員や外部の風景(即ち動きのあるもの)が可能な限り背景に含まれないような角度で指定領域を撮像するように配置することが望ましい。このようにすることによって、撮像された手を抽出する際の処理量を大幅に削減することができると共に、抽出の精度を向上させることができる。
ところで、手情報として手の形状を用いる場合、手情報検出手段は、例えば、抽出手段が、操作者の手を撮像するカメラからの入力画像に基づき、この入力画像において手が撮像された領域である手部分を抽出し、形状特定手段が、抽出手段にて抽出された手部分の形状と予め用意されたテンプレートの形状とを比較し、最も類似したテンプレートの形状を手の形状として特定し、この形状特定手段が特定した手の形状を手情報とするように構成することができる。
また、手情報として手の位置を用いる場合、手情報検出手段は、例えば、抽出手段が、操作者の手を撮像するカメラからの入力画像に基づき、この入力画像において手が撮像された領域である手部分を抽出し、位置特定手段が、抽出手段にて抽出された手部分の重心を手の位置として特定し、この位置特定手段が特定した手の位置を前記手情報とするように構成することができる。
更に、手情報として手の動きを用いる場合、手情報検出手段は、例えば、抽出手段が、操作者の手を撮像するカメラからの入力画像に基づき、この入力画像において手が撮像された領域である手部分を抽出し、位置特定手段が、抽出手段にて抽出された手部分の重心を手の位置として特定し、動き特定手段が、位置特定手段にて特定された手の位置の時系列的な変化を、手の動きとして特定し、この動き特定手段が特定した手の動きを手情報とするように構成することができる。
そして、抽出手段は、例えば、入力画像を構成する各画素の輝度及び色情報のうち少なくとも一方を抽出用情報とし、入力画像において抽出用情報が予め設定された許容範囲内にある領域を手部分とするように構成すればよい。
但し、輝度や色情報は、周囲の状況(天気,太陽光の入射方向など)に応じて、様々に変化するため、抽出用情報の許容範囲が固定されていると、周囲の状況に応じて検出精度が変化してしまうという問題がある。
そこで、手情報検出手段は、入力画像の時系列的なフレーム間差分を求めることにより、入力画像において動きのある領域を抽出し、抽出された領域における抽出用情報の平均値に基づいて、抽出用情報の許容範囲を設定することが望ましい。
また、手情報検出手段は、互いに異なる位置に配置された複数のカメラからの入力画像に基づいて、手情報を3次元的に検出するように構成してもよい。
この場合、単純な動きであっても、動作方向の自由度が増大するため、その単純な動き一つにしても、その動作方向によって、より多くの機器や操作の特定のために用いることが可能となる。
なお、制御信号生成手段が生成する制御信号は、例えば、車載機器を相互に接続する通信ネットワークを介して、対象機器に送信されること、即ち当該車載機器用インターフェースは、通信ネットワークを介して車載機器と接続されるように構成することが望ましい。
以下に本発明の実施形態を図面と共に説明する。
[第1実施形態]
図1は、本発明を適用した車載機器用インターフェース1、及び車載機器用インターフェースを用いたシステムの概略構成を示すブロック図、図2は、車載機器用インターフェース1を構成する機器や、車載機器用インターフェース1を介して操作される車載機器の配置を示す説明図である。
図1に示すように、本実施形態の車載機器用インターフェース1は、車載機器を操作する操作者を撮像する画像入力部11と、操作者の音声を集音する音声入力部12と、画像入力部11にて撮像された画像(以下では「入力画像」と称する。)から操作者の手の状態を示す手情報を検出する手情報検出部13(手情報検出手段に相当)と、音声入力部12が集音した音声(以下では「入力音声」と称する。)について音声認識を行う音声認識部14(音声認識手段に相当)と、手情報検出部13及び音声認識部14からの入力に基づき、車載機器に対する制御コマンドを生成する統合制御部15(機器特定手段及び制御信号生成手段に相当)とを備えている。
また、車載機器用インターフェース1は、車内に設置されたローカルエリアネットワーク(以下「車内LAN」と称する)3を介して、ナビゲーション21、エアコン22、マップランプ23等といった車載機器群2と接続されている。そして、図2に示すように、ナビゲーション21の表示画面21aはインパネ中央部に、エアコン22の吹き出し口22a,22bはインパネの左右両端部に、マップランプ23は天井のフロントガラスとの境界付近に配置されている。なお、これら車載機器群2を構成する各車載機器は、いずれも周知のものであるため、その詳細についての説明は省略する。
また、画像入力部11はCCDカメラC1からなり、このCCDカメラC1は、ナビゲーション21の表示画面の下部に配置され、運転者の左肩付近を運転者の前方から撮像するように設定され(図5(a)参照)、音声入力部12はマイクMからなり、このマイクMは、天井の車幅方向中央に配置されたマップランプ23より運転席側に配置されている。つまり、CCDカメラC1やマイクMは、運転席の乗員(即ち運転者)を操作者として、その状態(動き)や音声を、撮像,集音するように配置されている。
次に、図3は、手情報検出部13および音声認識部14の詳細を示すブロック図、図4は、統合制御部15の詳細を示すフローチャートである。なお、手情報検出部13,音声認識部14,統合制御部15は、いずれも、CPU,ROM,RAM,DSP(デジタルシグナルプロセッサ)等を備えた周知のマイクロコンピュータ上で実行される処理として実現される。
図3に示すように、手情報検出部13は、入力画像から、手が撮像された領域(以下では「手部分」と称する。)を抽出する手抽出部131(抽出手段に相当)と、手抽出部131にて抽出された手部分の形状を特定する形状特定部132(形状特定手段に相当)とからなる。
このうち、手抽出部131では、まず、入力画像から、操作者が操作時に手を差し出す領域以外の画像を除去するマスキング処理31を実行する。これにより、図5(a)に示す入力画像から、図5(b)に示すマスキング後の画像(以下では「マスキング画像」と称する。)が得られる。但し、マスキングにより除去する領域は、学習などの手法を用いて、操作者毎に予め設定されているものとする。
また、手抽出部131では、マスキング画像を、予め設定されたタイミング(例えば、ドアの開閉時、エンジン起動時など、入力画像に操作者の手が写っていないことが明らかなタイミング)で取り込み、この取り込んだマスキング画像を背景画像として登録すると共に、登録された背景画像と、順次生成されるマスキング画像とを比較することにより、マスキング画像に背景以外の物体が撮像されているか否かを判定する背景差分抽出処理32(動作許可手段に相当する。)を実行する。
これと共に、順次生成されるマスキング画像について、フレーム間差分を求めることにより、フレーム間で動きがあった領域(以下では「動き領域」と称する。)を抽出し(図6参照)、その動き領域の輝度及び色差(以下では「抽出用情報」と称する。)の平均値を求める動き抽出処理33を実行する。なお、動き領域の大部分は手が撮像された領域(即ち、手部分)であり、背景で動く景色、後部座席の乗員の写り込みはわずかであるため、動き抽出処理33にて求められる抽出用情報の平均値は、手部分の特徴を良く表したものとなる。
更に、手抽出部131では、順次生成されるマスキング画像について、動き抽出処理33にて求めた抽出用情報との差分を求め、その結果を、予め設定された判定しきい値を用いて2値化することにより、輝度および色差が、平均輝度および平均色差に近い領域を手部分として抽出する手部分抽出処理34を実行する。これにより、図5(c)に示すような手部分抽出画像が得られる。但し、手部分抽出処理34では、背景差分抽出処理32にて、マスキング画像に背景以外の物体が撮像されていると判定された場合にのみ、得られた手部分抽出画像を有効であるとして、これを形状特定部132に供給する。
なお、背景差分抽出処理32の判定結果に基づいて、手部分抽出画像の有効,無効を決定する代わりに、動き抽出処理33や手部分抽出処理34の実行、或いは形状特定部132の動作を許可,禁止するように構成してもよい。
一方、形状特定部132は、手部分の形状を表す登録パターンとパターン番号とを対応づけて記憶した手辞書35を備えている。図7(a)は、手辞書35の一例を示すものであり、本実施形態では、左方向を指さした形状、上方向を指さした形状、右方向を指差した形状を、それぞれパターン番号1〜3に対応づけている。
そして、形状特定部132は、この手辞書35に記憶された各登録パターンについて、手抽出部131から供給される手部分抽出画像との一致度を、パターンマッチングにより求め、一致度が最も高い登録パターンを特定し、その登録パターンの一致度が予め設定された下限値以上であれば、手情報として、その登録パターンに対応したパターン番号を統合制御部15に通知する画像マッチング処理36を実行する。
但し、特定された登録パターンの一致度が下限値に達していない場合は、手部分抽出画像の大きさを、拡大または縮小するリサイジング処理37を実行後、再度、画像マッチング処理36を実行する。なお、リサイジング処理37では、予め複数種類の倍率(例えば、0.8倍、0.9倍、1.1倍、1.2倍)が設定されており、その全ての倍率にて画像マッチング処理36を実行しても、一致度が下限値に達する登録パターンが存在しない場合は、その手部分抽出画像を該当パターンなしとして破棄する。
次に、音声認識部14は、図3に示すように、音声認識の認識対象となる各単語について、その単語を発話した時の音声の周波数スペクトルに現れる特徴を抽出してなる特徴データを登録した音声辞書42を備えている。なお、本実施形態では、「あれ」,「それ」,「これ」,「ここ」といった指示代名詞についての特徴データが登録されている。
そして、音声認識部14では、まず、入力音声の波形をFFT(高速フーリエ変換)することにより周波数スペクトルを求め、入力音声の特徴を抽出するスペクトル分析処理41を実行する。
このスペクトル分析処理41により入力音声の特徴データが抽出されると、この抽出された音声の特徴データと、音声辞書42に登録された各指示代名詞の特徴データとを比較し、比較結果(マッチングの有無)を統合制御部15に通知する音声マッチング処理43を実行する。この音声マッチング処理43は、周知の技法を用いればよく、例えば、ニューラルネット、DP(Dynamic Programming )マッチング、HMN(hidden Markov Model)等を用いることができる。
次に、統合制御部15は、手情報検出部13から通知されるパターン番号と車載機器との対応関係を示すと共に、車載機器の現在の動作(操作)状態を記憶させた機器情報テーブルを備えている(図7(b)参照)。ここでは、パターン番号1(即ち、手部分が左方向(運転者側から見れば右方向)を指差した形状の場合)が、インパネの右端に位置するエアコン吹き出し口22a、パターン番号2(即ち、手部分が上方向を指指した形状の場合)がマップランプ23、パターン番号3(即ち、手部分が右方向(運転者側から見れば左方向)を指差した形状の場合)が、インパネの左端に位置するエアコン吹き出し口22bに対応づけられている。また、エアコン吹き出し口22a,22bは、吹き出し口を開いた状態「OPEN」、吹き出し口を閉じた状態「CLOSE」という二つの状態を有し、また、マップランプ23は、点灯した状態「ON」、消灯した状態「OFF」という二つの状態を有するものとする。
以下では、統合制御部15が実行する処理を、図4に示すフローチャートに沿って説明する。
本処理が起動すると、まず、音声認識部14から音声がマッチング(入力音声と指示代名詞とで特徴データが一致)したとの比較結果が入力されたか否かを判断し(S110)、そのような比較結果が入力されるまで、同ステップを繰り返し実行することで待機する。
一方、操作者が指示代名詞を発話することにより、音声認識部14から音声がマッチングしたとの比較結果が入力されると、待ち時間を計時するタイマーの計時値をリセットし(S120)、手情報検出部13から手情報(パターン番号)の入力があったか否か、即ち、手部分抽出画像が登録パターンと一致したか否かを判断する(S130)。そして、手情報の入力がなければ、音声マッチングを確認後の待ち時間(タイマーの計時値)が予め設定された許容時間T1(例えば、3秒)以上であるか否かを判断し(S140)、待ち時間が許容時間T1未満であればS130に戻り、許容時間T1以上であれば、操作者に車載機器を操作する意図はないものとして、S110に戻る。
S130にて、手情報検出部13から手情報(パターン番号)の入力があったと判定された場合には、入力された手情報(パターン番号)に基づいて、機器情報テーブルを参照することで、制御対象となるべき車載機器(対象機器)を特定すると共に、その対象機器の動作状態を取得する(S150)。
そして、取得した動作状態を、他の動作状態に切り替えるための制御コマンドを作成すると共に、機器情報テーブルに記憶されている動作状態を、制御コマンドの内容と一致するように更新し(S160)、その作成した制御コマンドを、車内LAN3を介して対象機器に送信して(S170)、S110に戻る。
このように構成された車載機器用インターフェース1では、操作者による指示代名詞の発話が確認されてから、許容時間T1が経過する以前に、操作者のジェスチャが確認された場合に限り、そのジェスチャ(ここでは手の形状)に対応づけられた車載機器が対象機器として特定され、その対象機器の動作状態を切り替えるための制御コマンドが生成,送信される。
例えば、機器情報テーブルに記憶されたマップランプ23の動作状態が「OFF」である場合、操作者が、マップランプ23(即ち上方向)を指差すジェスチャをしながら、指示代名詞を発話すると、車載機器用インターフェース1にて、マップランプ23の動作状態を「ON」に切り替えるための制御コマンドが生成され、この制御コマンドがマップランプ23に対して送信されることになる。
このように、本実施形態の車載機器用インターフェース1によれば、動作状態を切り替えるべき対象機器を、音声とジェスチャとの組み合わせによって特定するため、簡単なジェスチャである指差しと、簡単な単語である指示代名詞とを用いても、操作者の意図しない動きや発話が、意味のあるものと誤認識される可能性を大幅に低減することができる。
その結果、複雑なジェスチャや多くの予約語を覚えることなく、複数の車載機器を非接触にて確実に操作することができる。
また、本実施形態では、マスキング画像から手部分を抽出する際に使用する抽出用情報として、動き抽出処理にて抽出した動き領域の平均輝度や平均色差を用いている。つまり、抽出用情報を固定値とするのではなく、時々刻々と変化する周囲の状況(天気や太陽光の入射方向など)に応じて、抽出用情報の値を変化させているため、手部分の抽出を常に安定した精度にて行うことができる。
更に、本実施形態では、背景差分抽出処理32にて、背景以外の物体が撮像されたときのみ、手部分抽出画像を有効とするようにされているため、入力画像に操作者の手が撮像されていないにも関わらず、形状特定部132にて画像マッチング処理が無駄に実行されてしまうことを防止できる。
[第2実施形態]
次に第2実施形態について説明する。
本実施形態では、第1実施形態の車載機器用インターフェース1と同様に構成され、統合制御部15が備える機器情報テーブル、音声辞書42の内容、および統合制御部15での処理が一部異なるだけであるため、これらの部分を中心に説明する。
本実施形態において、機器情報テーブルには、パターン番号と車載機器との対応関係が示されていると共に、車載機器毎に、その車載機器の操作や動作状態に対応させた予約語が記憶されている(図8(a)参照)。ここでは、パターン番号1〜3と車載機器との対応関係は、第1実施形態と同様であり、各エアコン吹き出し口22a,22bには、それぞれ、吹き出し口を開状態にする際に用いる「OPEN」又は「開」、吹き出し口を閉状態にする際に用いる「CLOSE」又は「閉」という二種類の予約語が対応づけられている。また、マップランプ23には、点灯する際に用いる「ON」又は「点灯」、消灯する際に用いる「OFF」又は「消灯」という二種類の予約語が対応づけられている。
一方、音声辞書42には、上述した各予約語の特徴データが登録されており、スペクトル分析処理41にて抽出された入力音声の特徴データと、音声辞書42に登録された各予約語の特徴データとを比較し、特徴データが入力音声と一致した予約語を、統合制御部15に通知するように構成されている。
そして、統合制御部15が実行する処理は、S110〜S140は、第1実施形態の場合と全く同様であり、続くS150では、手情報検出部13および音声認識部14から通知されたパターン番号および予約語に基づき、機器情報テーブルを参照して、パターン番号から対象機器を特定し、予約語からその対象機器に対する操作を特定する。このとき、図4のフローチャートには図示されていないが、予約語が、特定された対象機器には未対応のものである場合には、制御コマンドの作成,送信を行うことなく、S110に戻る。
そして、S160,S170では、S150にて特定された対象機器に対して、特定された操作を行わせるための制御コマンドを作成し、これを車内LAN3を介して対象機器に送信する。
このように構成された本実施形態の車載機器用インターフェース1では、操作者による予約語の発話が確認されてから、許容時間T1が経過する以前に、操作者のジェスチャが確認された場合に限り、そのジェスチャ(ここでは手の形状)に対応づけられた車載機器が対象機器として特定され、その予約語に対応づけられた操作を対象機器に行わせるための制御コマンドが生成,送信される。
例えば、操作者が左手でマップランプ23(即ち上方向)を指差すジェスチャをしながら「ON」(又は「点灯」)と発話すれば、車載機器用インターフェース1にて、マップランプ23を点灯するための制御コマンドが生成され、この制御コマンドがマップランプ23に対して送信されることになる。
以上説明したように、本実施形態の車載機器用インターフェース1によれば、制御対象となる対象機器と、その対象機器に対する操作とを、音声とジェスチャとの組み合わせによって特定するため、操作者の意図しない動きや発話が、意味のあるものと誤認識される可能性を大幅に低減することができる。
そして、特に予約語として直感的に操作を理解できるような簡単な単語を用いることにより、予約語を覚える負担も十分に軽減することができるため、第1実施形態の場合と同様の効果を得ることができる。
なお、第1および第2実施形態において、マッチング判定結果および手情報の入力を確認する順番は、マッチング判定結果(音声マッチング),手情報の順になっているが、この順番は逆になってもよいし、両者の順番が固定されていなくてもよい。
[第3実施形態]
次に第3実施形態について説明する。
図9は、本実施形態の車載機器用インターフェース1aの全体構成を示すブロック図である。なお、本実施形態の車載機器用インターフェース1aは、手情報検出部13および統合制御部15での処理が、第1実施形態のものとは一部異なるだけであるため、これら相違する部分を中心に説明する。
即ち、本実施形態の車載機器用インターフェース1aにおいて、手情報検出部13は、第1実施形態のものと同様に構成された手抽出部131および形状特定部132に加えて、位置特定部133(位置特定手段に相当)を備えている。
この位置特定部133では、手抽出部131からの手部分抽出画像に基づいて、手部分の重心を求め、その重心の座標(以下では「手座標」と称する。)を、操作者の手の位置を表す手情報として統合制御部15に通知する処理を実行する。
次に、統合制御部15が備える機器制御テーブルは、パターン番号と車載機器との対応関係が示されていると共に、車載機器毎に、指令の入力方法を識別する識別情報が記憶されている(図8(b)参照)。この識別情報は、指令入力の際に、第1実施形態で示したように、ジェスチャと単語の発話の組み合わせを1回だけ実行する(以下では「単一指令」と称する。)か、対象機器の特定とその対象機器に対する操作とでそれぞれ1回ずつ計2回実行する(以下では「複合指令」と称する。)かを示すものである。
そして、機器制御テーブルには、識別情報の設定に従って、単一指令に設定されている車載機器については、第1実施形態の場合と同様に機器の動作状態が記憶され、複合指令に設定されている車載機器については、操作の特定のために必要な操作特定情報が記載されている。ここでは、パターン番号1〜3と車載機器との対応関係は、第1実施形態と同様であり、各エアコン吹き出し口22a,22bについては、識別情報が複合指令に設定され、その操作特定情報として手座標の位置に風向きの関係を示した手座標/風向き変換情報が記憶されている。また、マップランプ23については、識別情報が単一指令に設定され、その動作状態が記憶されている。
以下では、統合制御部15が実行する処理を、図10に示すフローチャートに沿って説明する。
本処理が起動すると、まず、予め設定された許容時間T1以内の間隔で、音声認識部14から音声がマッチングしたとの判定結果、及び手情報検出部13から手情報(パターン番号)の入力がいずれも確認されたか否かを判断する(S210)。そして、否定判定された場合には、同ステップを繰り返し実行することで待機し、肯定判定された場合には、手入力された手情報(パターン番号)に基づいて、機器情報テーブルを参照することで、制御対象となるべき車載機器(対象機器)を特定する(S220)。なお、S210での判定は、具体的には、例えば、第1実施形態にて説明したS110〜S140により実現することができる。
続けて、機器情報テーブルを参照し、S220にて特定された対象機器の識別情報が、単一指令または複合指令のいずれに設定されているかを判別する(S230)。そして、識別情報が複合指令に設定されていれば、予め設定された許容時間T2(例えば、5秒)
以内に、音声認識部14から音声がマッチングしたとの判定結果、及び手情報検出部13から手情報(手座標又はパターン番号)の入力がいずれも確認されたか否かを判断し(S240)、否定判定された場合には、操作者に車載機器を操作する意図はないものとしてS210に戻る。
一方、S240にて肯定判定された場合には、入力された手情報(手座標又はパターン番号)に基づいて、機器情報テーブルの操作特定情報を参照することで、対象機器に対する操作を特定する(S250)。そして、S220にて特定された対象機器に、S250にて特定された操作を行わせるための制御コマンドを作成し(S270)、その作成した制御コマンドを車内LAN3を介して対象機器に送信して(S280)、S210に戻る。
また、先のS230にて、識別情報が単一指令に設定されていると判別された場合は、S220にて特定された対象機器の動作状態を、対象機器テーブルから取得して(S260)、S270に移行し、取得した動作状態を、他の動作状態に切り替えるための制御コマンドを作成すると共に、機器情報テーブルに記憶されている動作状態を、制御コマンドの内容と一致するように更新し(S270)、その作成した制御コマンドを、車内LAN3を介して対象機器に送信して(S280)、S210に戻る。
このように構成された車載機器用インターフェース1aでは、操作者による指示代名詞の発話と、操作者のジェスチャとがいずれも確認されると、そのジェスチャ(ここでは手の形状)に対応づけられた車載機器が対象機器として特定され、その特定された対象機器の識別情報が単一指令に設定されている場合は、直ちに、その対象機器の動作状態を切り替えるための制御コマンドが生成,送信される。
また、特定された対象機器の識別情報が複合指令に設定されている場合は、許容時間T2以内に、再度、操作者による指示代名詞の発話と、操作者のジェスチャとがいずれお確認されると、そのジェスチャ(ここでは手の位置)に対応づけられた操作が特定され、その特定された操作を対象機器に行わせるための制御コマンドが生成,送信される。
例えば、マップランプ23(識別情報が単一指令に設定された車載機器)を指差すジェスチャをしながら、指示代名詞を発話すれば、第1実施形態の場合と同様に、マップランプ23の動作状態を切り替えるための制御コマンドが、車載機器用インターフェース1aからマップランプ23に対して送信されることになる。
また、エアコン吹き出し口22a(識別情報が複合指令に設定された車載機器)を指差すジェスチャをしながら、指示代名詞を発話し、続けて、エアコン吹き出し口22aから吹き出す風が当たるようにすべき位置に手を移動させ、再度、指示代名詞を発話すれば、エアコン吹き出し口22aの吹き出し方向を手で示した方向に変更するための制御コマンドが、車載機器用インターフェース1aからエアコン22に対して送信されることになる。
このように、本実施形態の車載機器用インターフェース1aによれば、制御対象となるべき対象機器、及びその対象機器に対する操作を、音声とジェスチャとの組み合わせによって特定するため、第1実施形態の場合と、同様の効果を得ることができる。
特に、識別情報が複合指令に設定された車載機器については、機器選択時とは異なるジェスチャにて、実行すべき操作を指定できるため、例えば、操作の中に空間的な位置を含む等して、言葉で表現するのが難しい操作であっても、簡単に指定することができる。
なお、本実施形態では、識別情報が単一指令に設定された車載機器に対する指令の入力を、ジェスチャと指示代名詞とによって行うように構成されているが、第2実施形態の場合と同様に、ジェスチャと予約語とによって行うように構成してもよい。
また、本実施形態では、手の位置(手座標)によって、エアコンの吹き出し方向を制御するようにされているが、例えば、カーオーディオの音像定位を制御するように構成してもよい。
[第4実施形態]
次に、第4実施形態について説明する。
図11は、本実施形態の車載機器用インターフェース1bの全体構成を示すブロック図である。なお、本実施形態の車載機器用インターフェース1bは、手情報検出部13および統合制御部15での処理が、第1実施形態のものとは一部異なるだけであるため、これら相違する部分を中心に説明する。
即ち、本実施形態の車載機器用インターフェース1bにおいて、手情報検出部13は、第1実施形態のものと同様に構成された手抽出部131と、第3実施形態のものと同様に構成された位置特定部133とを備え、更に、形状特定部132に代えて、動き特定部134(動き特定手段に相当)を備えている。
この動き特定部134は、動きベクトルの時系列的な変化を表したベクトル系列と、パターン番号とを対応づけて記憶した動き辞書52を備えている。図12(b)は、動き辞書52の一例を示すものであり、本実施形態では、上方向への手の動きに対応するベクトル系列、手を左右に振る動き(SHAKE)に対応するベクトル系列、手で円を描く動き(CIRCLE)に対応するベクトル系列を、それぞれパターン番号1〜3に対応づけている。但し、動きベクトルは、図12(a)に示すように、円周を8等分してなる8つの方位にて表され、各ベクトルには記号a〜hが割り振られている。つまり、ベクトル系列は記号列として表されるようにされている。
そして、動き特定部134は、まず、位置特定部133から時系列的に入力される手座標に基づき、連続する二つの手座標の差分から動きベクトルを求めるベクトル算出処理51を実行する。
そして、ベクトル算出処理51にて順次算出される動きベクトルにより表されるベクトル系列(以下では「入力ベクトル系列」と称する。)と、動き辞書52に登録された各ベクトル系列(以下では「登録ベクトル系列」と称する。)との一致度を、パターンマッチングにより求め、一致度が最も高い登録ベクトル系列を特定し、その一致度が予め設定された下限値以上であれば、手情報として、その登録ベクトル系列に対応したパターン番号を統合制御部15に通知する動きマッチング処理53を実行する。但し、特定された登録ベクトル系列の一致度が下限値に達していない場合は、該当パターンなしを通知する。
なお、パターンマッチングの手法としては、音声マッチング処理43の場合と同様の手法を用いることができ、特に、時間軸に柔軟性を持たせてマッチングを行うDPマッチングが好適である。
次に、統合制御部15が備える機器制御テーブルは、図12(c)に示すように、第1実施形態の場合と同様、パターン番号と車載機器との対応関係が示されていると共に、車載機器の現在の動作(操作)状態が記憶されている。ここでは、パターン番号1(即ち、手を上方向に移動する動き)がマップランプ23、パターン番号2(即ち、手を左右に振る動き)がドアミラー(図示せず)、パターン番号3(即ち、手で円を描く動き)がエアコン吹き出し口22a,22bに対応づけられている。また、エアコン吹き出し口22a,22bは、吹き出し口を開いた状態「OPEN」、吹き出し口を閉じた状態「CLOSE」という二つの状態を有し、また、マップランプ23は、点灯した状態「ON」、消灯した状態「OFF」という二つの状態を有し、更に、ドアミラーは、自身を開いた状態「OPEN」、自身を折り畳んだ状態「CLOSE」という二つの状態を有するものとする。
そして、統合制御部15は、第1実施形態の場合と同様の処理を実行する(図4参照)。
このように構成された車載機器用インターフェース1bでは、操作者による指示代名詞の発話が確認されてから、許容時間T1が経過する以前に、操作者のジェスチャが確認された場合に限り、そのジェスチャ(ここでは手の動き)に対応づけられた車載機器が対象機器として特定され、その対象機器の動作状態を切り替えるための制御コマンドが生成,送信される。
例えば、機器情報テーブルに記憶されたドアミラーの動作状態が「CLOSE」である場合、操作者が、指示代名詞を発話して、ドアミラーに対応させたジェスチャ(即ち手を左右に振る動き)をすると、車載機器用インターフェース1bにて、ドアミラーの動作状態を「OPEN」に切り替えるための制御コマンドが生成され、この制御コマンドがドアミラーに対して送信されることになる。
このように、本実施形態の車載機器用インターフェース1bによれば、車載機器に対応づけるジェスチャが手の形状ではなく手の動きである以外は、第1実施形態の場合と全く同様であり、これと同様の効果を得ることができる。
[第5実施形態]
次に、第5実施形態について説明する。
図13は、本実施形態の車載機器用インターフェース1cの構成を示すブロック図、図14は、車載機器用インターフェース1cを構成する機器や、車載機器用インターフェース1cを介して操作される機器の配置を示す説明図である。
なお、本実施形態の車載機器用インターフェース1cは、画像入力部11の構成および手情報検出部13での処理が、第1実施形態のものとは一部異なるだけであるため、これら相違する部分を中心に説明する。
即ち、図13に示すように、本実施形態の車載機器用インターフェース1cにおいて、画像入力部11は、車載機器を操作する操作者を撮像する一対のCCDカメラC1,C2からなる。そして、図14に示すように、一方のCCDカメラC1は、第1実施形態のものと同様、ナビゲーション21の表示画面の下部に配置され、運転者の左肩付近を運転者の前方から撮像するように設定されている。他方のCCDカメラC2は、天井に設置されたマップランプ23とマイクMとの間に配置され、運転者の左肩付近を運転者の上方から撮像するように設定されている。
また、手情報検出部13は、図13に示すように、第1実施形態のものと同様に構成された手抽出部131および形状特定部132に加えて、トリガー部136(動作許可手段に相当する。)を備えている。
このトリガー部136では、CCDカメラC2からの入力画像を、予め設定されたタイミング(例えば、ドアの開閉時、エンジン起動時など、入力画像に操作者の手が写っていないことが明らかなタイミング)で取り込み、この取り込んだ入力画像を背景画像として登録すると共に、登録された背景画像と、CCDカメラC2から順次入力される入力画像とを比較することにより、入力画像に背景以外の物体が撮像されているか否かを判定する処理、即ち手抽出部131における背景差分抽出処理32と同様の処理を実行する。
以下、手情報検出部13を構成する手抽出部131及び形状特定部132、音声認識部14、統合制御部15での処理は、第1実施形態の場合と同様である。
但し、手抽出部131は、トリガー部136にて入力画像に背景以外の物体が撮像されていると判定された場合に限り、処理結果(手部分抽出画像)を有効として、これを形状特定部132に供給するように構成されている。なお、トリガー部136での判定結果に従って、処理結果を有効,無効とする代わりに、手抽出部131の動作自体を起動,停止するように構成してもよい。
このように構成された本実施形態の車載機器用インターフェース1cによれば、第1実施形態の場合と同様の効果を得ることができるだけでなく、ジェスチャを行う際の手の位置を、互いに異なる角度で撮像する二つのカメラC1,C2からの入力画像により、三次元的に確認するようにされているため、手以外の物体に反応する誤作動を確実に抑制することができる。
[第6実施形態]
次に、第6実施形態について説明する。
図15は、本実施形態の車載機器用インターフェース1dの全体構成を示すブロック図である。なお、本実施形態の車載機器用インターフェース1dは、画像入力部11の構成および手情報検出部13での処理が、第4実施形態のもの(図11参照)とは一部異なるだけであるため、これら相違する部分を中心に説明する。
即ち、図15に示すように、本実施形態の車載機器用インターフェース1dにおいて、画像入力部11は、車載機器を操作する操作者を撮像する一対のCCDカメラC1,C2からなり、その配置は、第5実施形態の場合と同様である(図14参照)。
また、手情報検出部13は、CCDカメラC1,C2からの入力画像を処理するために、第1実施形態のものと同様に構成された一対の手抽出部131a,131bと、手抽出部131a,131bからの手部分抽出画像に基づき、それぞれについて手座標((x,y)座標、(x,z)座標)を求め、両座標を統合することにより三次元的な手座標を求める位置特定部133と、動きベクトルとして3次元で表されたものを用いる点以外は、第4実施形態のものと同様に構成された動き特定部134とからなる。
このように構成された本実施形態の車載機器用インターフェース1dによれば、第3実施形態の場合と同様の効果を得ることができるだけでなく、3次元的な手の動きに対応するものであり、認識可能な手の動き(ジェスチャ)の自由度が増すため、より他種類の指令を入力することが可能となる。
なお、本実施形態において、手情報検出部13は、手の位置や動きを3次元的に検出しているが、手の形状を3次元的に検出するように構成してもよい。
以上本発明のいくつかの実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、様々な態様にて実施することが可能である。
例えば、上記実施形態では、画像入力部11は、運転席の乗員を撮像するカメラだけで構成されているが、シート毎にカメラを設け、運転席以外の乗員も音声とジェスチャとによって指令を入力できるように構成してもよい。
また、上記実施形態では、画像入力部11を構成するカメラとしてCCDカメラを用いたが、例えば赤外線カメラを用いてもよい。この場合、車内の明るさによらず、操作者を確実に撮像することができる。
また、上記各実施形態において、対象機器の特定や対象機器に対する操作の特定に用いるジェスチャは、実施形態の中で説明されたものに限らず、手の位置,手の動き,手の形状のいずれを用いてもよく、更には、これらを組み合わせたものを用いてもよい。
また、上記第2実施形態以外の各実施形態でも、音声認識部14にて、指示代名詞以外の予約語を認識するように構成してもよい。
第1実施形態の車載機器用インターフェース、及びこれを用いたシステムの概略構成を示すブロック図である。 第1実施形態において、車載機器用インターフェースを構成する機器や車載機器用インターフェースを介して操作される車載機器の配置を示す説明図である。 第1実施形態の車載機器用インターフェースの構成を示すブロック図である。 第1実施形態において、統合制御部が実行する処理の内容を示すフローチャートである。 入力画像,マスキング画像,手部分抽出画像を例示する説明図である。 動き抽出処理の内容を示す説明図である。 第1実施形態における手辞書および機器情報テーブルの例を示す説明図である。 第2及び第3実施形態における機器情報テーブルの例を示す説明図である。 第3実施形態の車載機器用インターフェースの構成を示すブロック図である。 第3実施形態において、統合制御部が実行する処理の内容を示すフローチャートである。 第4実施形態の車載機器用インターフェースの構成を示すブロック図である。 第4実施形態における動き辞書および機器情報テーブルの例を示す説明図である。 第5実施形態の車載機器用インターフェースの構成を示すブロック図である。 第5実施形態において、車載機器用インターフェースを構成する機器や車載機器用インターフェースを介して操作される車載機器の配置を示す説明図である。 第6実施形態の車載機器用インターフェースの構成を示すブロック図である。
符号の説明
1,1a〜1d…車載機器用インターフェース、2…車載機器群、3…車内LAN、11…画像入力部、12…音声入力部、13…手情報検出部、14…音声認識部、15…統合制御部、21…ナビゲーション、21a…表示画面、22…エアコン、22a,22b…吹き出し口、23…マップランプ、31…マスキング処理、32…背景差分抽出処理、33…動き抽出処理、34…手部分抽出処理、35…手辞書、36…画像マッチング処理、37…リサイジング処理、41…スペクトル分析処理、42…音声辞書、43…音声マッチング処理、51…ベクトル算出処理、52…動き辞書、53…動きマッチング処理、131,131a,131b…手抽出部、132…形状特定部、133…位置特定部、134…動き特定部、136…トリガー部、C1,C2…CCDカメラ、M…マイク。

Claims (14)

  1. 操作者の手の状態を表す手情報を検出する手情報検出手段と、
    前記操作者の発話を認識する音声認識手段と、
    前記手情報検出手段での検出結果と前記音声認識手段での認識結果との組み合わせに基づいて、操作対象となる車載機器である対象機器を特定する機器特定手段と、
    該機器特定手段にて前記対象機器が特定されると、該対象機器に対する制御信号を生成する制御信号生成手段と、
    を備えることを特徴とする車載機器用インターフェース。
  2. 前記手情報が表す手の状態とは、手の形状,手の動き,手の位置のうち少なくとも一つを含むことを特徴とする請求項1に記載の車載機器用インターフェース。
  3. 前記機器特定手段は、前記音声認識手段にて予め設定された指示代名詞が認識されると、前記手情報検出手段が検出する手情報に基づいて前記対象機器を特定し
    前記制御信号生成手段は、前記対象機器の動作状態を切り替えるための制御信号を生成することを特徴とする請求項1又は2に記載の車載機器用インターフェース。
  4. 前記機器特定手段は、前記音声認識手段にて予め設定された指示代名詞が認識されると、前記手情報検出手段が検出する手情報に基づいて前記対象機器を特定し
    前記制御信号生成手段は、前記機器特定手段により前記対象機器が特定されてから予め設定された許容時間の間に、該対象機器に対する操作に対応づけられた予約語が前記音声認識手段にて認識されると、該予約語に対応した操作を前記対象機器に行わせるための制御信号を生成することを特徴とする請求項1又は2に記載の車載機器用インターフェース。
  5. 前記機器特定手段は、前記音声認識手段にて予め設定された指示代名詞が認識されると、前記手情報検出手段が検出する手情報に基づいて前記対象機器を特定し
    前記制御信号生成手段は、前記機器特定手段により前記対象機器が特定されてから予め設定された許容時間の間に、前記音声認識手段にて予め設定された指示代名詞が再び認識されると、前記手情報検出手段が検出する手情報に基づいて前記対象機器に対する操作を特定し、該操作を前記対象機器に行わせるための制御信号を生成することを特徴とする請求項1又は2に記載の車載機器用インターフェース。
  6. 前記操作者の手の位置を検出し、該手の位置が予め設定された指定領域内に存在する場合に、前記手情報検出手段又は前記制御信号生成手段の動作を許可する動作許可手段を備えることを特徴とする請求項1〜5のいずれかに記載の車載機器用インターフェース。
  7. 前記動作許可手段は、前記指定領域を撮像するように配置されたカメラからの入力画像に基づいて前記操作者の手の位置を検出することを特徴とする請求項6に記載の車載機器用インターフェース。
  8. 前記手情報検出手段は、
    前記操作者の手を撮像するカメラからの入力画像に基づき、該入力画像において手が撮像された領域である手部分を抽出する抽出手段と、
    該抽出手段が抽出した手部分の形状と予め用意されたテンプレートの形状とを比較し、最も類似したテンプレートの形状を手の形状として特定する形状特定手段と、
    を備え、該形状特定手段が特定した手の形状を前記手情報とすることを特徴とする請求項1〜7のいずれかに記載の車載機器用インターフェース。
  9. 前記手情報検出手段は、
    前記操作者の手を撮像するカメラからの入力画像に基づき、該入力画像において手が撮像された領域である手部分を抽出する抽出手段と、
    該抽出手段が抽出した手部分の重心を手の位置として特定する位置特定手段と、
    を備え、該位置特定手段が特定した手の位置を前記手情報とすることを特徴とする請求項1〜7のいずれかに記載の車載機器用インターフェース。
  10. 前記手情報検出手段は、
    前記操作者の手を撮像するカメラからの入力画像に基づき、該入力画像において手が撮像された領域である手部分を抽出する抽出手段と、
    該抽出手段が抽出した手部分の重心を手の位置として特定する位置特定手段と、
    前記位置特定手段が特定した手の位置の時系列的な変化を、手の動きとして特定する動き特定手段と、
    を備え、該動き特定手段が特定した手の動きを前記手情報とすることを特徴とする請求項1〜7のいずれかに記載の車載機器用インターフェース。
  11. 前記抽出手段は、前記入力画像を構成する各画素の輝度及び色情報のうち少なくとも一方を抽出用情報とし、前記入力画像において該抽出用情報が予め設定された許容範囲内にある領域を前記手部分とすることを特徴とする請求項8〜10のいずれかに記載の車載機器用インターフェース。
  12. 前記手情報抽出手段は、
    前記入力画像の時系列的なフレーム間差分を求めることにより、前記入力画像において動きのある領域を抽出し、該抽出された領域における前記抽出用情報の平均値に基づいて、前記抽出用情報の許容範囲を設定することを特徴とする請求項11に記載の車載機器用インターフェース。
  13. 前記手情報検出手段は、前記手情報を、互いに異なる位置に配置された複数のカメラからの入力画像に基づいて3次元的に検出することを特徴とする請求項1〜12のいずれかに記載の車載機器用インターフェース。
  14. 前記制御信号生成手段が生成する制御信号は、車載機器を相互に接続する通信ネットワークを介して、前記対象機器に送信されることを特徴とする請求項1〜13のいずれかに記載の車載機器用インターフェース。
JP2003419752A 2003-12-17 2003-12-17 車載機器用インターフェース Expired - Fee Related JP4311190B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003419752A JP4311190B2 (ja) 2003-12-17 2003-12-17 車載機器用インターフェース
US10/974,721 US7437488B2 (en) 2003-12-17 2004-10-28 Interface for car-mounted devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003419752A JP4311190B2 (ja) 2003-12-17 2003-12-17 車載機器用インターフェース

Publications (2)

Publication Number Publication Date
JP2005178473A JP2005178473A (ja) 2005-07-07
JP4311190B2 true JP4311190B2 (ja) 2009-08-12

Family

ID=34675225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003419752A Expired - Fee Related JP4311190B2 (ja) 2003-12-17 2003-12-17 車載機器用インターフェース

Country Status (2)

Country Link
US (1) US7437488B2 (ja)
JP (1) JP4311190B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2741232A2 (en) 2012-12-04 2014-06-11 Alpine Electronics, Inc. Gesture recognition apparatus, gesture recognition method, and recording medium

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4739870B2 (ja) * 2005-09-05 2011-08-03 アイシン精機株式会社 サングラス検出装置及び顔中心位置検出装置
JP2007078270A (ja) * 2005-09-14 2007-03-29 Daikin Ind Ltd 空調システム
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
JP2007302223A (ja) * 2006-04-12 2007-11-22 Hitachi Ltd 車載装置の非接触入力操作装置
JP2007302154A (ja) * 2006-05-12 2007-11-22 Alps Electric Co Ltd 車載用入力装置
JP4635957B2 (ja) * 2006-05-12 2011-02-23 株式会社デンソー 車載操作システム
JP4711885B2 (ja) * 2006-05-25 2011-06-29 三菱電機株式会社 遠隔操作装置及び方法
JP4481280B2 (ja) 2006-08-30 2010-06-16 富士フイルム株式会社 画像処理装置、及び画像処理方法
JP4670803B2 (ja) * 2006-12-04 2011-04-13 株式会社デンソー 操作推定装置およびプログラム
DE102006058758B4 (de) * 2006-12-12 2018-02-22 Deutsche Telekom Ag Verfahren und Vorrichtung zum Steuern einer Telekommunikationsendeinrichtung
US20080156989A1 (en) * 2006-12-28 2008-07-03 O2Micro Inc. Motion sensing/recognition by camera applications
GB2447484B (en) * 2007-03-15 2012-01-18 Jaguar Cars Security system for a motor vehicle
WO2008149482A1 (ja) * 2007-06-05 2008-12-11 Mitsubishi Electric Corporation 車両用操作装置
US20090109036A1 (en) * 2007-10-29 2009-04-30 The Boeing Company System and Method for Alternative Communication
US10146320B2 (en) 2007-10-29 2018-12-04 The Boeing Company Aircraft having gesture-based control for an onboard passenger service unit
KR101079598B1 (ko) * 2007-12-18 2011-11-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP4973667B2 (ja) * 2009-01-16 2012-07-11 株式会社デンソー 操作推定装置およびプログラム
JP2010205130A (ja) * 2009-03-05 2010-09-16 Denso Corp 制御装置
KR101589560B1 (ko) * 2009-03-11 2016-01-28 엘지전자 주식회사 이동 단말기 및 그 명령 입력 방법
EP2426598B1 (en) * 2009-04-30 2017-06-21 Samsung Electronics Co., Ltd. Apparatus and method for user intention inference using multimodal information
US9383823B2 (en) * 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
JP5412227B2 (ja) * 2009-10-05 2014-02-12 日立コンシューマエレクトロニクス株式会社 映像表示装置、および、その表示制御方法
JP5005758B2 (ja) * 2009-12-25 2012-08-22 株式会社ホンダアクセス 自動車における車載機器の操作装置
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
JP5601045B2 (ja) 2010-06-24 2014-10-08 ソニー株式会社 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
JP5636888B2 (ja) * 2010-11-09 2014-12-10 ソニー株式会社 情報処理装置、プログラムおよびコマンド生成方法
KR101241729B1 (ko) * 2010-11-23 2013-03-11 현대자동차주식회사 조작 인터페이스 제공 시스템
JP5549571B2 (ja) * 2010-12-17 2014-07-16 株式会社デンソー 車内状況表示装置
EP2686254B1 (de) * 2011-03-17 2018-08-15 SSI Schäfer Automation GmbH Steuerung und überwachung einer lager- und kommissionieranlage durch bewegung und sprache
JP2013037454A (ja) * 2011-08-05 2013-02-21 Ikutoku Gakuen 姿勢判定方法、プログラム、装置、システム
CN104094193B (zh) 2011-12-27 2017-11-17 英特尔公司 移动设备上的全3d交互
CN103186234A (zh) * 2011-12-31 2013-07-03 联想(北京)有限公司 控制方法以及电子设备
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
JP2013196047A (ja) * 2012-03-15 2013-09-30 Omron Corp ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法
WO2013145223A1 (ja) 2012-03-29 2013-10-03 パイオニア株式会社 画像認識装置、画像認識方法、画像認識プログラム、及び記録媒体
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
DE102012007761A1 (de) * 2012-04-20 2013-10-24 Marquardt Gmbh Bedienvorrichtung
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
JP5912177B2 (ja) * 2012-05-24 2016-04-27 パイオニア株式会社 操作入力装置、操作入力方法及び操作入力プログラム
JP6044819B2 (ja) * 2012-05-30 2016-12-14 日本電気株式会社 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム
US9529793B1 (en) * 2012-06-01 2016-12-27 Google Inc. Resolving pronoun ambiguity in voice queries
US9092394B2 (en) * 2012-06-15 2015-07-28 Honda Motor Co., Ltd. Depth based context identification
WO2013190538A1 (en) * 2012-06-20 2013-12-27 Pointgrab Ltd. Method for touchless control of a device
DE112012006617B4 (de) * 2012-06-25 2023-09-28 Hyundai Motor Company Bord-Informationsvorrichtung
DE102012012697A1 (de) * 2012-06-26 2014-01-02 Leopold Kostal Gmbh & Co. Kg Bediensystem für ein Kraftfahrzeug
DE102012013503B4 (de) * 2012-07-06 2014-10-09 Audi Ag Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
CN103631157A (zh) * 2012-08-29 2014-03-12 杨尧任 利用手势识别技术控制汽车电器的装置及其应用方法
JP6116934B2 (ja) * 2012-09-06 2017-04-19 東芝アルパイン・オートモティブテクノロジー株式会社 アイコン操作装置
US9082202B2 (en) * 2012-09-12 2015-07-14 Enlighted, Inc. Image detection and processing for building control
JP6014162B2 (ja) * 2012-11-08 2016-10-25 アルプス電気株式会社 入力装置
JP6049429B2 (ja) * 2012-11-30 2016-12-21 パイオニア株式会社 処理装置、処理方法及び処理装置用プログラム
EP2738645A1 (en) 2012-11-30 2014-06-04 Harman Becker Automotive Systems GmbH Vehicle gesture recognition system and method
KR101490908B1 (ko) * 2012-12-05 2015-02-06 현대자동차 주식회사 차량 내 손모양 궤적 인식을 이용한 사용자 인터페이스 조작 시스템 및 방법
US20140181105A1 (en) * 2012-12-22 2014-06-26 Continental Automotive Systems, Inc. Vehicle point and select
CN103970260B (zh) * 2013-01-31 2017-06-06 华为技术有限公司 一种非接触式手势控制方法及电子终端设备
DE102013001868B4 (de) 2013-02-02 2021-03-25 Audi Ag Verfahren zum Betreiben eines Kraftwagens per Gestensteuerung sowie Kraftwagen mit einer Gestenerfassungseinrichtung
JP6098799B2 (ja) * 2013-02-28 2017-03-22 公立大学法人 富山県立大学 指差し呼称監視システム
US20140282161A1 (en) * 2013-03-13 2014-09-18 Honda Motor Co., Ltd. Gesture-based control systems and methods
US8818716B1 (en) 2013-03-15 2014-08-26 Honda Motor Co., Ltd. System and method for gesture-based point of interest search
JP5750687B2 (ja) * 2013-06-07 2015-07-22 島根県 カーナビ用ジェスチャ入力装置
US9405375B2 (en) * 2013-09-13 2016-08-02 Qualcomm Incorporated Translation and scale invariant features for gesture recognition
KR101537936B1 (ko) * 2013-11-08 2015-07-21 현대자동차주식회사 차량 및 그 제어방법
KR101976497B1 (ko) * 2013-12-10 2019-05-10 현대자동차 주식회사 차량용 조작계 보조 시스템 및 그 방법
KR101556520B1 (ko) 2013-12-11 2015-10-02 현대자동차주식회사 단말기, 그를 가지는 차량 및 그 제어 방법
US20150185845A1 (en) * 2013-12-26 2015-07-02 Wes A. Nagara Providing tactle feedback for gesture based inputs
DE102014202834A1 (de) * 2014-02-17 2015-09-03 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zum berührungslosen Bedienen eines in Hardware ausgestalteten Bedienelementes in einem 3D-Gestenmodus
JP2015153324A (ja) * 2014-02-18 2015-08-24 株式会社Nttドコモ 情報検索装置、情報検索方法及び情報検索プログラム
CN104216514A (zh) * 2014-07-08 2014-12-17 深圳市华宝电子科技有限公司 一种车载设备控制方法、装置及车辆
US20160062473A1 (en) * 2014-08-29 2016-03-03 Hand Held Products, Inc. Gesture-controlled computer system
US20160103655A1 (en) * 2014-10-08 2016-04-14 Microsoft Corporation Co-Verbal Interactions With Speech Reference Point
KR101630153B1 (ko) * 2014-12-10 2016-06-24 현대자동차주식회사 제스처 인식 장치, 그를 가지는 차량 및 차량의 제어 방법
JP2016157171A (ja) * 2015-02-23 2016-09-01 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2016155407A (ja) * 2015-02-23 2016-09-01 株式会社東海理化電機製作所 ジェスチャ判定装置
KR101678088B1 (ko) * 2015-02-25 2016-11-21 현대자동차주식회사 차량 및 차량의 제어 방법
CN104750253B (zh) * 2015-03-11 2018-10-12 苏州佳世达电通有限公司 一种供用户进行体感输入的电子装置
JP2016218852A (ja) * 2015-05-22 2016-12-22 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
US9898809B2 (en) * 2015-11-10 2018-02-20 Nanjing University Systems, methods and techniques for inputting text into mobile devices using a camera-based keyboard
JP2017095968A (ja) * 2015-11-24 2017-06-01 フルテック株式会社 自動ドアシステムおよび指示受付装置
JP6055899B2 (ja) * 2015-12-04 2016-12-27 パイオニア株式会社 画像認識装置、画像認識方法、画像認識プログラム、及び記録媒体
WO2017100167A1 (en) * 2015-12-06 2017-06-15 Voicebox Technologies Corporation System and method of conversational adjustment based on user's cognitive state and/or situational state
US10166995B2 (en) * 2016-01-08 2019-01-01 Ford Global Technologies, Llc System and method for feature activation via gesture recognition and voice command
JP2016157457A (ja) * 2016-03-31 2016-09-01 パイオニア株式会社 操作入力装置、操作入力方法及び操作入力プログラム
DE102016212681A1 (de) * 2016-07-12 2018-01-18 Audi Ag Steuervorrichtung und Verfahren zum sprachbasierten Betreiben eines Kraftfahrzeugs
CN106985768A (zh) * 2016-09-14 2017-07-28 蔚来汽车有限公司 车载手势控制***和方法
JP6659514B2 (ja) * 2016-10-12 2020-03-04 東芝映像ソリューション株式会社 電子機器及びその制御方法
DE102016221564A1 (de) * 2016-10-13 2018-04-19 Bayerische Motoren Werke Aktiengesellschaft Multimodaler Dialog in einem Kraftfahrzeug
TWI636395B (zh) * 2016-11-10 2018-09-21 財團法人金屬工業研究發展中心 基於深度值之手勢操作方法及其系統
US20200159366A1 (en) * 2017-07-21 2020-05-21 Mitsubishi Electric Corporation Operation support device and operation support method
US11373650B2 (en) 2017-10-17 2022-06-28 Sony Corporation Information processing device and information processing method
JP6819539B2 (ja) * 2017-10-20 2021-01-27 株式会社デンソー ジェスチャ入力装置
JP7062930B2 (ja) * 2017-12-01 2022-05-09 株式会社アイシン 制御装置およびプログラム
DE102017011498B4 (de) * 2017-12-13 2022-08-18 Mercedes-Benz Group AG Verfahren zum Betreiben eines Assistenzsystems und ein Assistenzsystem für einen Kraftwagen
US11273836B2 (en) * 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
JP2019191946A (ja) * 2018-04-25 2019-10-31 パイオニア株式会社 情報処理装置
JPWO2019239738A1 (ja) * 2018-06-12 2021-07-15 ソニーグループ株式会社 情報処理装置、情報処理方法
DE102018009487A1 (de) * 2018-12-03 2020-06-04 Daimler Ag Verfahren und Vorrichtung zur Einstellung einer Fahrzeugkomponente
DE102019204481A1 (de) * 2019-03-29 2020-10-01 Deere & Company System zur Erkennung einer Bedienabsicht an einer von Hand betätigbaren Bedieneinheit
CN110211585A (zh) * 2019-06-05 2019-09-06 广州小鹏汽车科技有限公司 车内娱乐互动方法、装置、车辆和机器可读介质
CN112109729B (zh) * 2019-06-19 2023-06-06 宝马股份公司 用于车载***的人机交互方法、装置和***
JP6858336B2 (ja) * 2020-02-06 2021-04-14 Tvs Regza株式会社 電子機器及びその制御方法
KR20230025807A (ko) * 2020-06-26 2023-02-23 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 사용자 인터페이스 방법 및 시스템
US20230303102A1 (en) * 2020-07-21 2023-09-28 Ningbo Geely Automobile Research AND Development Co., Ltd. Vehicle integrated control method and apparatus, device, and storage medium
US11507194B2 (en) * 2020-12-02 2022-11-22 Huawei Technologies Co., Ltd. Methods and devices for hand-on-wheel gesture interaction for controls
CN115220634A (zh) * 2021-04-16 2022-10-21 博泰车联网科技(上海)股份有限公司 打开车辆功能操作界面的***及方法、存储介质、终端
JP7262643B1 (ja) 2022-04-01 2023-04-21 三菱電機株式会社 電力設備制御システム、サーバ装置、中央処理装置、電力設備制御方法および電力設備制御プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3170103B2 (ja) * 1993-06-16 2001-05-28 株式会社日立製作所 複合形態による対象物指示方法
DE19516664C1 (de) * 1995-05-05 1996-08-29 Siemens Ag Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JPH1031551A (ja) 1996-07-15 1998-02-03 Mitsubishi Electric Corp ヒューマンインターフェースシステムおよびこれを使用した高速移動物***置検出装置
JP3625349B2 (ja) * 1997-02-12 2005-03-02 株式会社東芝 画像入力装置および画像入力方法
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
US6703999B1 (en) 2000-11-13 2004-03-09 Toyota Jidosha Kabushiki Kaisha System for computer user interface
JP4294853B2 (ja) 2000-12-19 2009-07-15 アルパイン株式会社 操作指示装置
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
US6498970B2 (en) * 2001-04-17 2002-12-24 Koninklijke Phillips Electronics N.V. Automatic access to an automobile via biometrics
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
AU2003275134A1 (en) * 2002-09-19 2004-04-08 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2741232A2 (en) 2012-12-04 2014-06-11 Alpine Electronics, Inc. Gesture recognition apparatus, gesture recognition method, and recording medium
US9256779B2 (en) 2012-12-04 2016-02-09 Alpine Electronics, Inc. Gesture recognition apparatus, gesture recognition method, and recording medium

Also Published As

Publication number Publication date
JP2005178473A (ja) 2005-07-07
US7437488B2 (en) 2008-10-14
US20050134117A1 (en) 2005-06-23

Similar Documents

Publication Publication Date Title
JP4311190B2 (ja) 車載機器用インターフェース
US8442820B2 (en) Combined lip reading and voice recognition multimodal interface system
JP6030430B2 (ja) 制御装置、車両及び携帯端末
US9235269B2 (en) System and method for manipulating user interface in vehicle using finger valleys
US20190057696A1 (en) Information processing apparatus, information processing method, and program
EP2862125B1 (en) Depth based context identification
KR101490908B1 (ko) 차량 내 손모양 궤적 인식을 이용한 사용자 인터페이스 조작 시스템 및 방법
US9275274B2 (en) System and method for identifying handwriting gestures in an in-vehicle information system
US20150362988A1 (en) Systems and methods for user indication recognition
CN102324035A (zh) 口型辅助语音识别术在车载导航中应用的方法及***
CN110481419B (zh) 一种人车交互方法、***、车辆及存储介质
KR101438615B1 (ko) 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
CN108382155B (zh) 一种带提醒功能的空调语音控制装置
JP7091983B2 (ja) 機器制御装置
JP2017090613A (ja) 音声認識制御システム
CN110134232A (zh) 一种基于手势识别的车载手机支架调节方法和***
JP2020126166A (ja) エージェントシステム、情報処理装置、情報処理方法、およびプログラム
JP2018206073A (ja) 遠隔操作システム
CN113157080A (zh) 用于车辆的指令输入方法、存储介质、***及车辆
CN107548483B (zh) 控制方法、控制装置、***以及包括这样的控制装置的机动车辆
JP6385624B2 (ja) 車載情報処理装置、車載装置および車載情報処理方法
CN117095680A (zh) 车辆控制方法、装置、设备及存储介质
KR20140079025A (ko) 차량 내 다리 제스처 인식을 이용한 사용자 인터페이스 조작 방법
JP2006312346A (ja) コマンド入力装置
CN111881691A (zh) 一种利用手势增强车载语义解析的***及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090504

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4311190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130522

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140522

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees