JP2020149228A - 制御装置および制御方法 - Google Patents

制御装置および制御方法 Download PDF

Info

Publication number
JP2020149228A
JP2020149228A JP2019045004A JP2019045004A JP2020149228A JP 2020149228 A JP2020149228 A JP 2020149228A JP 2019045004 A JP2019045004 A JP 2019045004A JP 2019045004 A JP2019045004 A JP 2019045004A JP 2020149228 A JP2020149228 A JP 2020149228A
Authority
JP
Japan
Prior art keywords
gesture operation
reference point
recognition unit
unit
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019045004A
Other languages
English (en)
Inventor
秀太 新穂
Shuta Arao
秀太 新穂
聖 武野
Kiyoshi Takeno
聖 武野
竜樹 久保
Tatsuki Kubo
竜樹 久保
春人 若野
Haruto Wakano
春人 若野
佐藤 信一
Shinichi Sato
信一 佐藤
順子 樋渡
Junko Hiwatari
順子 樋渡
敦 山脇
Atsushi Yamawaki
敦 山脇
真行 阪口
Masayuki Sakaguchi
真行 阪口
山口 達也
Tatsuya Yamaguchi
達也 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019045004A priority Critical patent/JP2020149228A/ja
Publication of JP2020149228A publication Critical patent/JP2020149228A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Selective Calling Equipment (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザビリティを向上させること。【解決手段】制御装置は、認識部と、設定部とを備える。認識部は、制御対象となる対象機器を指し示す第1ジェスチャー操作を認識する。設定部は、認識部によって認識された第1ジェスチャー操作に基づいて基準点を設定する。認識部は、設定部によって設定された基準点に基づいて第2ジェスチャー操作を認識する。【選択図】図2

Description

本発明は、制御装置および制御方法に関する。
従来、車内の車載機器に対するジェスチャー操作を受け付ける車載装置がある(例えば、特許文献1参照)。
特開2012−121386号公報
しかしながら、従来技術では、例えば、ジェスチャー操作によって、エアコンやオーディオ等の設定温度や音量の強弱の微調整を行うのが容易でなく、ユーザビリティを向上させる点において、改善の余地があった。
本発明は、上記に鑑みてなされたものであって、ユーザビリティを向上させることができる制御装置および制御方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る制御装置は、認識部と、設定部とを備える。前記認識部は、制御対象となる対象機器を指し示す第1ジェスチャー操作を認識する。前記設定部は、前記認識部によって認識された第1ジェスチャー操作に基づいて基準点を設定する。前記認識部は、前記設定部によって設定された基準点に基づいて第2ジェスチャー操作を認識する。
本発明によれば、ユーザビリティを向上させることができる。
図1Aは、制御装置の搭載例を示す図である。 図1Bは、制御方法の概要を示す図である。 図2は、制御装置のブロック図である。 図3は、無効領域の具体例を示す図である。 図4Aは、第2ジェスチャー操作の具体例を示す図(その1)である。 図4Bは、第2ジェスチャー操作の具体例を示す図(その2)である。 図4Cは、第2ジェスチャー操作の具体例を示す図(その3)である。 図4Dは、第2ジェスチャー操作の具体例を示す図(その4)である。 図5は、制御装置が実行するフローチャートである。
以下、添付図面を参照して、本願の開示する制御装置および制御方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。
まず、図1Aおよび図1Bを用いて実施形態に係る制御装置および制御方法の概要について説明する。図1Aは、実施形態に係る制御装置の搭載例を示す図である。図1Bは、制御方法の概要を示す図である。また、本実施形態では、対象機器が車載機器50である場合を例に挙げて説明する。
図1Aに示すように、実施形態に係る制御装置1は、車両Cに搭載され、各種車載機器50のユーザインターフェースとして機能する。具体的には、制御装置1は、車内の3次元情報を検出する3Dセンサ10の計測結果に基づいて乗員のジェスチャー操作を認識し、認識したジェスチャー操作に応じた制御コマンドを車載機器50へ出力する。
例えば、車載機器50は、制御装置1から送信される制御コマンドに基づき、車両Cのパワーウインド(以下、窓と記載する)の開度を制御する。
ここで、例えば、車両Cの助手席に着座したユーザは、後部座席の窓を開閉させるのは困難である。また、仮に、ユーザが、例えば、手を上下に動作させるジェスチャー操作によって窓を開閉させる場合、手をあげる動作と、手を下げる動作とをそれぞれ別々のジェスチャーとして認識されるおそれがあり、窓の開度の微調整が困難となる。
そこで、実施形態に係る制御方法では、基準点を設定し、設定した基準点に基づいてジェスチャー操作を認識することとした。つまり、実施形態に係る制御方法では、基準点からの手の移動量に応じて窓の開度を調節することが可能となる。
具体的には、図1Bに示すように、まず、実施形態に係る制御方法では、第1ジェスチャー操作を認識する(ステップS1)。ここで、第1ジェスチャー操作は、制御対象となる対象機器を指し示す操作である。
例えば、実施形態に係る制御方法では、第1ジェスチャー操作が指し示す延長線上に対象機器である窓の窓枠Wがある場合、第1ジェスチャー操作として認識する。また、実施形態に係る制御方法では、第1ジェスチャー操作を認識することによってユーザが操作を所望する機器を検出することができる。
続いて、実施形態に係る制御方法では、第1ジェスチャー操作に基づいて基準点Pを設定する(ステップS2)。例えば、実施形態に係る制御方法では、第1ジェスチャー操作における指の位置を基準点Pとして設定することができる。
その後、実施形態に係る制御方法では、設定した基準点Pに基づいて第1ジェスチャー操作に続く第2ジェスチャー操作を認識する(ステップS3)。具体的には、実施形態に係る制御方法では、第2ジェスチャー操作の認識処理において、手の動きを認識し、基準点Pからの移動ベクトルVを算出する。
そして、実施形態に係る制御方法では、移動ベクトルVを制御量に換算し、制御量に応じた制御コマンドを車載機器50へ出力する。この場合、移動ベクトルVが上向きである場合、窓を閉めることができ、移動ベクトルVが下向きである場合、窓を開けることができる。
また、ユーザは、手を大きく動かすことで、移動ベクトルVが大きくなり、制御量を大きくすることができるとともに、手を小さく動かすことで、移動ベクトルVが小さくなり、制御量を小さくすることができる。
このように、実施形態に係る制御方法では、第1ジェスチャー操作に基づいて基準点Pを設定し、基準点Pを基準として、第1ジェスチャー操作に続く第2ジェスチャー操作を認識する。
これにより、実施形態に係る制御方法によれば、ユーザが制御量を任意に調整することができるので、ユーザビリティを向上させることができる。
次に、図2を用いて実施形態に係る制御装置1の構成例について説明する。図2は、制御装置1のブロック図である。なお、図2には、3Dセンサ10および車載機器50を併せて示す。
3Dセンサ10は、車内の3次元情報を検出するセンサである。3Dセンサ10は、例えば、アクティブステレオ方式や、ToF(Time of Flight)方式を用いて車内の3次元情報を検出する。なお、3Dセンサ10は、上記の例に限られず、車内の3次元情報を算出可能な構成であれば、その他の構成であってもよい。
また、3Dセンサ10に加え、車内を撮像するカメラを設けることにしてもよい。すなわち、制御装置1は、画像データと、3次元情報とを組み合わせてジェスチャー操作を認識することにしてもよい。
車載機器50は、制御装置1から入力される制御コマンドに応じて、窓の開度を制御する制御装置である。
図2に示すように、実施形態に係る制御装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部21と、認識部22と、設定部23と、出力部24とを備える。記憶部3は、座標情報31、基準点情報32およびコマンド情報33を記憶する。
制御装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部21、認識部22、設定部23および出力部24として機能する。
また、制御部2の取得部21、認識部22、設定部23および出力部24の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、座標情報31、基準点情報32およびコマンド情報33や、各種プログラムの情報等を記憶することができる。なお、制御装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
座標情報31は、車内空間における窓枠Wの3次元座標および3Dセンサ10の設置位置に関する3次元座標、3Dセンサ10の取付角度に関する情報である。基準点情報32は、第1ジェスチャー操作に基づいて設定された基準点に関する情報である。コマンド情報33は、各第2ジェスチャー操作に紐付けられた制御コマンドに関する情報である。
制御部2は、第1ジェスチャー操作を認識し、基準点Pを設定するとともに基準点に基づいて第2ジェスチャー操作を認識する。
取得部21は、3Dセンサ10から入力される3次元情報を取得し、取得した3次元情報を取得毎に認識部22へ渡す。
認識部22は、3次元情報に基づいて制御対象機器を指し示す第1ジェスチャー操作を認識する。具体的には、まず、認識部22は、第1ジェスチャー操作の操作対象となるユーザの特定部位(腕や、手など)を認識する。
続いて、認識部22は、特定部位が指し示す方向を算出し、特定部位が指し示す方角に窓枠Wが存在するか否かを判定する。認識部22は、特定方位が指し示す方向に窓枠Wが存在する場合、第1ジェスチャー操作として認識する。
このとき、認識部22は、所定時間(例えば、3秒)継続して認識した第1ジェスチャー操作のみを第1ジェスチャー操作として認識することもできる。言い換えれば、認識部22は、ユーザが特定部位を窓枠Wに向けて所定時間、静止する動作を第1ジェスチャー操作として認識する。
これにより、ユーザの意図しない動作を第1ジェスチャー操作として認識する誤認識を抑制することができる。なお、認識部22は、上記の認識条件を満たさない場合、第1ジェスチャーとして認識しない。
また、認識部22は、設定部23によって設定された基準点に基づいて第2ジェスチャー操作を認識することもできるが、かかる点については、図4A〜図4Dを用いて後述する。
設定部23は、認識部22によって認識された第1ジェスチャー操作に基づいて基準点Pを設定する。具体的には、設定部23は、第1ジェスチャー操作における特定部位の位置を基準点Pとして設定する。設定部23は、基準点を設定すると、基準点に関する情報を基準点情報32として、記憶部3に格納する。認識部22は、かかる基準点情報32に基づいて第2ジェスチャー操作を認識することができる。
また、例えば、設定部23は、認識部22が上下方向への動作を第2ジェスチャー操作として認識する場合、第2ジェスチャー操作に対する無効領域を設定することもできる。図3は、無効領域の具体例を示す図である。
図3に示すように、設定部23は、基準点Pと高さが同一の基準線Plを設定する。基準線Plを基準として、基準線Plの幅方向(上下方向)に無効領域laが設けられる。この無効領域laは、第2ジェスチャー操作を認識しない領域となる。
これにより、車両Cの揺れに基づく第2ジェスチャー操作の誤認識を抑制することができる。すなわち、ユーザが第1ジェスチャー操作後に、意図せず手を動かす動作を第2ジェスチャー操作として認識対象から除外することができる。なお、無効領域laの上下方向の幅は、例えば、車両Cの振動等を考慮して、予め実験等に基づいて設定される。
なお、ここでは、無効領域laが帯状の領域である場合について示したが、無効領域laは、基準点Pを中心とする領域であればよく、円状や楕円状などであってもよい。
図2の説明に戻り、出力部24について説明する。出力部24は、認識部22によって認識された第2ジェスチャー操作に応じた制御コマンドを生成し、車載機器50へ出力する。図4A〜図4Dは、第2ジェスチャー操作の具体例を示す図である。
図4Aに示すように、認識部22は、5本の指を用いるジェスチャー操作を第2ジェスチャー操作として認識する。この場合、認識部22は、5本の指が基準線Plよりも下に移動した場合、窓を全開にし、5本の指が、基準線Plよりも上に移動した場合、窓を全閉にするジェスチャー操作として認識することができる。
すなわち、図1Bに示したように、1本の指を用いる第2ジェスチャー操作を認識した場合には、移動ベクトルVに基づいて窓の制御量が調整された制御コマンドが出力される。一方で、5本指を用いる第2ジェスチャー操作を認識した場合には、全開または全閉のいずれかの制御コマンドが出力されることとなる。
つまり、認識部22は、第2ジェスチャー操作に用いられる指の本数に応じて、制御コマンドの強弱を調節することで、ユーザによる操作を容易にすることができる。なお、ここでは、認識部22が第2ジェスチャー操作として認識する指の本数が、1本または5本である場合について示したが、2〜4本であってもよく、両手の指を用いて6本以上であってもよい。
また、認識部22は、指が基準線P1に沿って左右に移動するジェスチャー操作を第2ジェスチャー操作として認識してもよい。例えば、認識部22は、1本の指が基準線P1に沿って左右に移動した場合、これを窓の高さ位置を示すジェスチャー操作として認識することができる。例えば、基準線P1の高さ位置よりも窓が開いている状態で、1本の指が基準線P1に沿って左右に移動した場合、基準線P1の高さ位置まで窓が閉まり、基準線P1の高さ位置よりも窓が閉まっている状態で、1本の指が基準線P1に沿って左右に移動した場合、基準線P1の高さ位置まで窓が開くようにしてもよい。つまり、同じジェスチャー操作だが、操作時の状態(窓の開閉状態)に応じて異なる制御(窓開ける制御または窓を閉じる制御)が行われる。これによりユーザは複数のジェスチャーを覚えることなく現在の状態に応じた直感的な操作が可能となる。
さらに、認識部22は、窓が全開または基準線P1の高さ位置よりも開いている状態で、5本の指が基準線P1に沿って左右に移動した場合、窓を全閉にするジェスチャー操作として認識し、反対に、窓が全閉または基準線P1の高さ位置よりも閉まっている状態で、5本の指が基準線P1に沿って左右に移動した場合、窓を全開にするジェスチャー操作として認識してもよい。この場合、ユーザは制御内容に応じてジェスチャー操作を変更する必要がないので煩わしさを低減できる。
また、図4Bに示すように、認識部22は、基準点Pを基準として、人差し指の先端と親指の先端とが近接した状態で、人差し指の先端と親指の先端とを、基準点Pから上下に離隔させたり、また、基準点Pに近接させたり、と移動させるような動作を第2ジェスチャーとして認識することができる。例えば、この場合、出力部24は、移動後の親指の先端と基準点Pとの距離および人差し指の先端と基準点Pとの距離の和に基づいて制御量、例えば、窓の開閉の制御量を調整する。尚、親指の先端と人差し指の先端との距離に基づいて、制御量を調整しても良い。
また、図4Cに示すように、認識部22は、基準点Pを始点として、円弧状の軌跡を辿る動作を第2ジェスチャー操作として認識することもできる。この場合、認識部22は、基準点Pから右回りの軌跡Vrをとる場合、窓を開くジェスチャーとして認識し、基準点Pから左回りの軌跡Vlをとる場合、窓を閉めるジェスチャーとして認識する。
また、この場合、出力部24は、軌跡Vr、Vlの軌道の長さや円の大きさに応じて、制御量を調整した制御コマンドを車載機器50へ出力する。
また、図4Dに示すように、認識部22は、第1ジェスチャー操作によって基準点Pを設定後、基準点Pで所定時間(例えば3秒)停止する動作を第2ジェスチャー操作として認識することもできる。
この場合、出力部24は、基準点Pに対応付けられた制御コマンドを出力する。本実施形態において、基準点Pに対応付けられた制御コマンドは、窓の開度を高さTaとする制御コマンドである。
この場合、例えば、認識部22は、ユーザが指し示す窓枠Wの位置Tおよび高さTaを算出する。そして、出力部24は、窓の開度を高さTaとする制御コマンドを車載機器50へ出力する。
つまり、この場合、現在の窓の開度によらず、ユーザが指定した開度に調整することが可能となる。これにより、ユーザが指定した任意の高さに調整することができるので、ユーザビリティを向上させることが可能となる。
なお、ここでは、基準点Pに対応付けられた制御コマンドが、窓の開度を高さTaとする制御コマンドである場合について示したが、これに限定されるものではなく、任意に設定することにしてもよい。
次に、図5を用いて実施形態に係る制御装置1が実行する処理手順について説明する。図5は、制御装置1が実行する処理手順を示すフローチャートである。なお、かかる処理手順は、制御装置1の制御部2によって繰り返し実行される。
図5に示すように、制御装置1は、まず、3次元情報を取得開始すると(ステップS101)、第1ジェスチャー操作を認識開始したか否かを判定する(ステップS102)。
制御装置1は、第1ジェスチャー操作の認識を開始した場合(ステップS102,Yes)、第1ジェスチャー操作を認識してから所定時間経過したか否かを判定する(ステップS103)。
制御装置1は、ステップS103の処理において、所定時間経過したと判定した場合(ステップS103,Yes)、第1ジェスチャー操作が継続中か否かを判定する(ステップS104)。ステップS104の処理は、ジェスチャー操作の操作対象となる特定部位、例えば、指の動きが止まった(所定時間以上)か否かを判定することにより行われる。
制御装置1は、ステップS104の処理において、第1ジェスチャー操作が継続中であると判定した場合(ステップS104,Yes)、第1ジェスチャー操作に基づいて基準点Pを設定する(ステップS105)。
続いて、制御装置1は、基準点Pに基づき、第1ジェスチャー操作に続く第2ジェスチャー操作を認識し(ステップS106)、第2ジェスチャー操作に応じた制御コマンドを生成する(ステップS107)。
そして、制御装置1は、車載機器50へ制御コマンドを出力して(ステップS108)、処理を終了する。また、制御装置1は、ステップS102の判定処理において、第1ジェスチャー操作の認識を開始していない場合(ステップS102,No)や、ステップS104の判定処理において、第1ジェスチャー操作が継続されていない場合(ステップS104,No)、ステップS102の処理へ移行する。
また、制御装置1は、ステップS103の処理において、所定時間経過していない場合(ステップS103,No)、ステップS103の処理を継続して行う。
上述したように、実施形態に係る制御装置1は、認識部22と、設定部23とを備える。認識部22は、制御対象となる対象機器を指し示す第1ジェスチャー操作を認識する。設定部23は、認識部22によって認識された第1ジェスチャー操作に基づいて基準点Pを設定する。
認識部22は、設定部23によって設定された基準点Pに基づいて第2ジェスチャー操作を認識する。したがって、実施形態に係る制御装置1によれば、ユーザビリティを向上させることができる。
ところで、上述した実施形態では、制御装置1が車両Cに搭載され、対象機器が窓である場合について説明したが、これに限定されるものではない。すなわち、制御装置1は、車両以外に搭載することにしてもよいし、窓以外の対象機器を制御することにしてもよい。
また、上述した実施形態では、第1ジェスチャー操作に基づいて基準点Pを設定し、基準点Pに基づいて第1ジェスチャー操作に続く第2ジェスチャー操作を認識する場合について説明したが、これに限定されるものではない。
すなわち、過去に設定した基準点Pに基づいて第2ジェスチャー操作を認識することにしてもよい。言い換えれば、一度設定した基準点Pを使いまわして用いることにしてもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な様態は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲および、その均等物によって定義される統括的な発明の概念の精神または範囲から逸脱することなく、様々な変化が可能である。
1 制御装置
10 3Dセンサ
21 取得部
22 認識部
23 設定部
24 出力部
P 基準点
Pl 基準線
la 無効領域

Claims (6)

  1. 制御対象となる対象機器を指し示す第1ジェスチャー操作を認識する認識部と、
    前記認識部によって認識された第1ジェスチャー操作に基づいて基準点を設定する設定部と
    を備え、
    前記認識部は、
    前記設定部によって設定された基準点に基づいて第2ジェスチャー操作を認識すること
    を特徴とする制御装置。
  2. 前記設定部は、
    第1ジェスチャー操作に基づいて設定した基準点を基準とした所定範囲に第2ジェスチャー操作に対する無効領域を設定すること
    を特徴とする請求項1に記載の制御装置。
  3. 前記認識部は、
    所定時間継続された第1ジェスチャー操作を認識すること
    を特徴とする請求項1または2に記載の制御装置。
  4. 前記認識部によって認識した第2ジェスチャー操作に応じた制御コマンドを前記対象機器へ出力する出力部
    をさらに備え、
    前記認識部は、
    第2ジェスチャー操作に用いられる指の本数を認識し、
    前記出力部は、
    前記認識部によって認識された指の本数に応じて、制御コマンドの強弱を変更すること
    を特徴とする請求項1、2または3に記載の制御装置。
  5. 前記認識部は、
    前記設定部によって設定した基準点で停止する第2ジェスチャー操作を認識し、
    前記出力部は、
    前記基準点に対応する制御コマンドを出力すること
    を特徴とする請求項4に記載の制御装置。
  6. 制御対象となる対象機器を指し示す第1ジェスチャー操作を認識する認識工程と、
    前記認識工程によって認識された第1ジェスチャー操作に基づいて基準点を設定する設定工程と
    を含み、
    前記認識工程は、
    前記設定工程によって設定された基準点に基づいて第2ジェスチャー操作を認識すること
    を特徴とする制御方法。
JP2019045004A 2019-03-12 2019-03-12 制御装置および制御方法 Pending JP2020149228A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019045004A JP2020149228A (ja) 2019-03-12 2019-03-12 制御装置および制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019045004A JP2020149228A (ja) 2019-03-12 2019-03-12 制御装置および制御方法

Publications (1)

Publication Number Publication Date
JP2020149228A true JP2020149228A (ja) 2020-09-17

Family

ID=72432036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019045004A Pending JP2020149228A (ja) 2019-03-12 2019-03-12 制御装置および制御方法

Country Status (1)

Country Link
JP (1) JP2020149228A (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145722A (ja) * 2002-10-25 2004-05-20 Keio Gijuku ハンドパターンスイッチ装置
JP2007266772A (ja) * 2006-03-27 2007-10-11 Toshiba Corp 機器操作装置および機器操作方法
JP2013037454A (ja) * 2011-08-05 2013-02-21 Ikutoku Gakuen 姿勢判定方法、プログラム、装置、システム
WO2013137412A1 (ja) * 2012-03-15 2013-09-19 オムロン株式会社 制御装置、電子機器、制御方法、制御プログラム、および、制御プログラムを格納したコンピュータ読取可能な記録媒体
JP2015034459A (ja) * 2013-07-08 2015-02-19 テイ・エス テック株式会社 窓開閉システム
JP2016194780A (ja) * 2015-03-31 2016-11-17 コニカミノルタ株式会社 コンテンツ表示装置、コンテンツ表示装置用プログラム、およびコンテンツ表示装置用プログラムを記録した記録媒体
JP2018206073A (ja) * 2017-06-05 2018-12-27 株式会社東海理化電機製作所 遠隔操作システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004145722A (ja) * 2002-10-25 2004-05-20 Keio Gijuku ハンドパターンスイッチ装置
JP2007266772A (ja) * 2006-03-27 2007-10-11 Toshiba Corp 機器操作装置および機器操作方法
JP2013037454A (ja) * 2011-08-05 2013-02-21 Ikutoku Gakuen 姿勢判定方法、プログラム、装置、システム
WO2013137412A1 (ja) * 2012-03-15 2013-09-19 オムロン株式会社 制御装置、電子機器、制御方法、制御プログラム、および、制御プログラムを格納したコンピュータ読取可能な記録媒体
JP2015034459A (ja) * 2013-07-08 2015-02-19 テイ・エス テック株式会社 窓開閉システム
JP2016194780A (ja) * 2015-03-31 2016-11-17 コニカミノルタ株式会社 コンテンツ表示装置、コンテンツ表示装置用プログラム、およびコンテンツ表示装置用プログラムを記録した記録媒体
JP2018206073A (ja) * 2017-06-05 2018-12-27 株式会社東海理化電機製作所 遠隔操作システム

Similar Documents

Publication Publication Date Title
US10048793B2 (en) Electronic device and method of controlling electronic device using grip sensing
KR101646616B1 (ko) 객체 제어 장치 및 방법
KR101542986B1 (ko) 홀로그램을 이용한 제스처 인식 시스템 및 그 제어 방법
KR102349666B1 (ko) 이동 단말에서 음성 인식 기능을 웨이크업하는 방법 및 장치
CN109725782B (zh) 一种实现虚拟现实的方法、装置及智能设备、存储介质
US9927974B2 (en) Automatic customization of keypad key appearance
US20170102790A1 (en) Navigation trace calibrating method and related optical navigation device
CN107992841A (zh) 识别图像中物体的方法及装置、电子设备、可读存储介质
WO2022116656A1 (en) Methods and devices for hand-on-wheel gesture interaction for controls
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
US20170160797A1 (en) User-input apparatus, method and program for user-input
US10228769B2 (en) Equipment control device, equipment control method, and non-transitory recording medium
JP7062930B2 (ja) 制御装置およびプログラム
JP2020149228A (ja) 制御装置および制御方法
CN112383826A (zh) 车载娱乐终端的控制方法、装置、存储介质、终端及汽车
JP4563723B2 (ja) 指示動作認識装置及び指示動作認識プログラム
WO2020029556A1 (zh) 自适应平面的方法、装置和计算机可读存储介质
CN113534957B (zh) 一种单手控制方法、装置及移动终端
KR102548369B1 (ko) 운전 보조 장치 및 방법
JP5676959B2 (ja) 情報処理装置及びその制御方法
JP2020144551A (ja) 制御装置および制御方法
KR20150022238A (ko) 전자 디바이스 및 전자 디바이스에서 이미지 처리 방법
CN112922892B (zh) 风扇控制方法、风扇及存储介质
CN110825279A (zh) 平面间无缝切换的方法、装置和计算机可读存储介质
US20230116341A1 (en) Methods and apparatuses for hand gesture-based control of selection focus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905