JP2011028366A - 操作制御装置および操作制御方法 - Google Patents

操作制御装置および操作制御方法 Download PDF

Info

Publication number
JP2011028366A
JP2011028366A JP2009171053A JP2009171053A JP2011028366A JP 2011028366 A JP2011028366 A JP 2011028366A JP 2009171053 A JP2009171053 A JP 2009171053A JP 2009171053 A JP2009171053 A JP 2009171053A JP 2011028366 A JP2011028366 A JP 2011028366A
Authority
JP
Japan
Prior art keywords
cursor
movement
unit
operation control
movable region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009171053A
Other languages
English (en)
Inventor
Fumitada Honma
文規 本間
Tatsushi Nashida
辰志 梨子田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009171053A priority Critical patent/JP2011028366A/ja
Priority to US12/803,829 priority patent/US8659549B2/en
Priority to CN2010102304107A priority patent/CN101963839B/zh
Publication of JP2011028366A publication Critical patent/JP2011028366A/ja
Priority to US14/159,594 priority patent/US10042508B2/en
Priority to US16/025,435 priority patent/US10606441B2/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】指による指示等で、直感的かつ高精度に操作対象を操作することが可能な操作制御装置を提供する。
【解決手段】ステレオカメラにより、ユーザの動作によって移動する検出対象を検出する動き検出部と、動き検出部による検出結果に基づいて、検出対象の動作を判定する動作判定部と、表示領域に表示されたオブジェクトを操作するカーソル220を含むカーソル可動領域210を移動させる可動領域移動処理部と、カーソルを移動させるカーソル移動処理部とを備える。可動領域移動処理部は、動き検出部により検出された第1の検出対象の動作に基づいて、第1の移動単位で、カーソル可動領域210をカーソルとともに表示領域内で移動させ、カーソル移動処理部は、動き検出部により検出された第2の検出対象の動作に基づいて、第1の移動単位よりも小さい第2の移動単位で、カーソル220のみをカーソル可動領域内で移動させる。
【選択図】図1

Description

本発明は、操作制御装置および操作制御方法に関する。
従来、機器を遠隔操作する方法として、赤外線もしくは無線周波数(RF;Radio Frequency)信号などによるリモートコントローラ(以下、「リモコン」と称する。)やマウス、ジョイスティック、トラックボール等のポインティングデバイスを用いる方法がある。例えば、テレビジョンの操作においては、一般にリモコンが用いられており、例えばチャンネルや音量、色相、濃度、コントラスト等を操作することができる。このように多くの制御対象があり、また、将来的な放送サービスの多様化やテレビのPC化を踏まえると、テレビジョン操作はさらに複雑になることが予想される。この結果、リモコンの操作キーが増加したり、機能が複雑したり、リモコンが大型になったりする等、ユーザの利便性が低下すると考えられる。
このような問題に対して、近年、機器の操作手段として、リモコン等の装置を用いず、遠隔からユーザが指先により操作して直接入力をする入力装置が開示されている(例えば、特許文献1)。かかる入力装置10を用いると、例えば、図10に示すように、ユーザPがテレビ受像機26の表示画面28に向かって指Fを動作させて、情報を入力することができる。かかる入力装置10では、ステレオカメラ等の空間位置検出器22によって指Fの位置を検出する。そして、制御部24は、空間位置検出器22により検出された位置に対応する表示画面28の二次元座標上にカーソルを表示させ、さらに指Fの動きに基づいて、カーソルを連動して移動させる。また、ユーザPが指Fを動かして表示画面28上に表示された実行ボタンをカーソルで選択すると、制御部24によりこの実行ボタンに関連付けられたジョブが実行される。
特開平5−324181号公報
しかし、従来は、指の位置を検出する空間位置検出器の出力結果を表示画面におけるカーソル位置としてそのまま用いるため、表示画面上のカーソルの動きが指先に対応しない動作となる場合があった。例えば、震えのようにユーザが意図しない指先の動きや背景による作用、検出精度の低い空間等における空間位置検出器の誤検出等により、表示画面上のカーソルの動きが指先に対応しない動作となる場合があった。このような状況が生じると、表示画面上のカーソルはユーザの意図する軌道から外れてしまい、ユーザは目的の実行ボタンを的確にポインティングするのが困難になる。
さらに、ジェスチャ認識においては、認識の基礎となるカーソル軌跡が連続した座標データ群により構成される。このため、カーソルの動きが指先の動きに対応しないという問題は、ジェスチャ機能においてより深刻である。
これらの問題は、テレビの解像度が高精細化するにつれ、より顕著に現れるようになる。このため、マウスでカーソルを操作するような精細さを保持しつつ、空間ジェスチャによる直感性を盛り込んだインタフェースが要求される。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、直感的かつ高精度に操作対象を操作することが可能な、新規かつ改良された操作制御装置および操作制御方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、ユーザの動作によって移動する検出対象を検出する動き検出部と、動き検出部による検出結果に基づいて、検出対象の動作を判定する動作判定部と、表示領域に表示されたオブジェクトを操作するカーソルを含むカーソル可動領域を移動させる可動領域移動処理部と、カーソルを移動させるカーソル移動処理部と、を備える操作制御装置が提供される。可動領域移動処理部は、動き検出部により検出された第1の検出対象の動作に基づいて、第1の移動単位で、カーソル可動領域をカーソルとともに表示領域内で移動させ、カーソル移動処理部は、動き検出部により検出された第2の検出対象の動作に基づいて、第1の移動単位よりも小さい第2の移動単位で、カーソルのみをカーソル可動領域内で移動させる。
本発明によれば、第1の検出対象の動作に基づいて、カーソル可動領域およびカーソルを第1の移動単位で移動させ、第2の検出対象の動作に基づいて、カーソルを第1の移動単位よりも小さい第2の移動単位で移動させることができる。このように、カーソルを段階的に移動させることにより、カーソルを直感的に大まかに移動させることもでき、精細に移動させることもできる。
ここで、表示領域を所定の分割数で分割して形成された一の領域を第1の単位領域として、カーソル可動領域は、1または2以上の第1の単位領域を含んでなり、可動領域移動処理部は、第1の検出対象の移動量に応じて、カーソルとともにカーソル可動領域を第1の単位領域単位で移動させるようにしてもよい。
また、カーソル可動領域を所定の分割数で分割して形成された一の領域を2の単位領域として、カーソル移動処理部は、第2の検出対象の移動量に応じて、カーソルを第2の単位領域単位で移動させるようにしてもよい。
さらに、第2の検出対象によってカーソルを移動させたときにカーソルがカーソル可動領域外に位置する場合、可動領域移動処理部は、第2の検出対象により移動されるカーソルとともにカーソル可動領域を移動させることもできる。
また、可動領域移動処理部は、第1の検出対象がカーソル可動領域を移動可能とする移動モードである場合にのみ、カーソル可動領域を移動させ、カーソル移動処理部は、第2の検出対象がカーソルを移動可能とする移動モードである場合にのみ、カーソルを移動させるようにしてもよい。
さらに、本発明にかかる操作制御装置により移動されるカーソル可動領域の大きさは、可変とすることもできる。
また、上記課題を解決するために、本発明の別の観点によれば、ユーザの動作によって移動する検出対象を検出するステップと、検出結果に基づいて、検出対象の動作を判定するステップと、検出された第1の検出対象の動作に基づいて、第1の移動単位で、表示領域に表示されたオブジェクトを操作するカーソルが表示されるカーソル可動領域を、カーソルとともに表示領域全体に対して移動するステップと、検出された第2の検出対象の動作に基づいて、第1の移動単位よりも小さい第2の移動単位で、カーソルをカーソル可動領域で移動するステップと、を含む、操作制御方法が提供される。
以上説明したように本発明によれば、直感的かつ高精度に操作対象を操作することが可能な操作制御装置および操作制御方法を提供することができる。
本発明の実施形態にかかるユーザのジェスチャにより操作される画面構成の一例を示す説明図である。 同実施形態にかかる操作制御装置のハードウェア構成を示すブロック図である。 同実施形態にかかる操作制御装置の機能構成を示す機能ブロック図である。 同実施形態にかかる操作制御装置による、右手と左手を用いた操作制御方法を示すフローチャートである。 カーソル可動領域の移動操作を説明する説明図である。 カーソルの移動操作を説明する説明図である。 同実施形態にかかる操作制御装置による、異なる関節を用いた操作制御方法を示すフローチャートである。 同実施形態にかかる操作制御装置による、両手と片手とを用いた操作制御方法を示すフローチャートである。 同実施形態にかかる操作制御装置による、ユーザの視線と片とを用いた操作制御方法を示すフローチャートである。 従来のジェスチャを用いた入力装置を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.操作制御装置により操作制御される画面の操作例
2.操作制御装置の構成
3.操作制御装置による操作制御方法
<1.操作制御装置により操作制御される画面の操作例>
まず、図1に基づいて、本発明の実施形態にかかる操作制御装置によりユーザのジェスチャが認識され、操作制御されている画面操作例について説明する。なお、図1は、ユーザのジェスチャにより操作される画面構成の一例を示す説明図である。
本実施形態では、一般的なパーソナルコンピュータとマウスとで採用されている、フリーカーソルによりターゲットを選択し、決定やキャンセル、メニュー等の表示等を行うことを想定している。例えば図1に示すように、画面の表示領域200に、パーソナルコンピュータの設定メニューが表示されているとする。表示領域200の左側には、パーソナルコンピュータの設定情報の分類を示すカテゴリ一覧202が表示されている。カテゴリ一覧202から1つのカテゴリアイコンが選択されると、当該カテゴリに含まれる設定情報の一覧(設定情報一覧)204が表示される。例えば、カテゴリ一覧202から「ディスプレイ」カテゴリが選択されると、「ディスプレイ」カテゴリに含まれるロゴランプや画面、色モード、スクリーンセイバー等の設定情報一覧204が表示される。
そして、設定情報一覧204から1つの設定情報が選択され、さらに操作ボタン206から「OK」ボタンが選択されると、選択された設定情報の設定画面に遷移する。あるいは、操作ボタン206から「キャンセル」ボタンが選択されると、設定情報一覧204から選択されている設定情報の選択が解除される。
このような画面において、カテゴリアイコンや設定情報、操作ボタン206の選択は、カーソル220を用いて行われる。本実施形態において、カーソル220は、ユーザの操作体によるジェスチャに応じて移動される。このとき、カーソル220の周囲には、カーソル220の可動領域を示すカーソル可動領域210が設定されている。本実施形態のカーソル可動領域210は、例えば図1に示すような円形カーソルであって、ユーザの操作体による所定のジェスチャに応じて、その内部に表示されたカーソル220とともに表示領域200で移動される。
本実施形態にかかる操作制御装置では、領域内のカーソル220も合わせて移動されるカーソル可動領域210の移動と、カーソル可動領域210内でのカーソル220の移動とを独立して行うことができる。これにより、表示領域200に表示された、カーソル220によって指示する指示対象に、カーソル可動領域210を合わせることにより、指示対象の近辺にカーソル220を容易に移動させることができる。また、カーソル移動領域210内でカーソル220を精細に移動させることにより、カーソル220を正確に指示対象に合わせることができる。以下、直感的かつ高精度なカーソル220の操作を可能とする操作制御装置の構成と、これを用いた操作制御方法について詳細に説明していく。
<2.操作制御装置の構成>
[ハードウェア構成]
まず、図2に基づいて、本実施形態にかかる操作制御装置100のハードウェア構成について説明する。なお、図2は、本実施形態にかかる操作制御装置100のハードウェア構成を示すブロック図である。
本実施形態にかかる操作制御装置100は、図2に示すように、CPU(Central Processing Unit)101と、RAM(Random Access Memory)102と、不揮発性メモリ103とを備える。さらに、操作制御装置100は、ステレオカメラ104と、表示装置105とを備える。
CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って操作制御装置100内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。RAM102は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。不揮発性メモリ103は、CPU101が使用するプログラムや演算パラメータ等を記憶する。不揮発性メモリ103は、例えばROM(Read Only Memory)やフラッシュメモリ等を用いることができる。
ステレオカメラ104は、奥行方向の位置を認識可能な入力デバイスである。ステレオカメラ104は、2つのカメラによって異なる方向からユーザにより動かされる複数の入力部位を同時撮像することにより、撮像画像の奥行方向の情報も記録することができる。ステレオカメラ104の代わりに、例えば視差を利用した距離計であるレンジファインダー等を用いてもよい。ステレオカメラ104は、ユーザの行うジェスチャを撮像する撮像手段と、撮像手段により撮像された撮像画像をCPU101に出力する入力制御回路などから構成されている。ユーザの行うジェスチャをステレオカメラ104で取得することにより、操作制御装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
表示装置105は、情報を出力する出力装置の一例である。表示装置105として、例えばCRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置などを用いることができる。
[機能構成]
次に、図3に基づいて、本実施形態にかかる操作制御装置100の機能構成について説明する。なお、図3は、本実施形態にかかる操作制御装置100の機能構成を示す機能ブロック図である。
本実施形態にかかる操作制御装置100は、図3に示すように、入力情報取得部110と、検出部120と、動作判定部130と、可動領域移動処理部140と、カーソル移動処理部150と、表示処理部160と、表示部170とを備える。
入力情報取得部110は、検出対象の位置情報を取得する機能部であって、図2のステレオカメラ104に相当する。本実施形態にかかる入力情報取得部110は、操作制御を行うユーザを撮像して、画像を取得する。当該画像は、ユーザによって動かされている操作体を判別し、その操作体の移動情報を取得するために用いられる。入力情報取得部110は、取得した画像を検出部120へ出力する。
検出部120は、入力情報取得部110により取得された画像から、カーソル可動領域210またはカーソル220を移動させる操作体を検出し、操作体に関する操作体情報を取得する。検出部120は、画像の奥行情報および任意の画像認識手法を用いて操作体を認識する。カーソル可動領域210およびカーソル220を移動するための操作体は、それぞれ予め設定されている。例えば、カーソル可動領域210を操作する第1の操作体を左手、カーソル220を操作する第2の操作体を右手と設定することができる。検出部120は、画像から操作体を認識するとともに、その操作体の位置や形状等を検出して、操作体情報として動作判定部130へ出力する。
ここで、操作体の奥行情報は、例えば対象物の3次元的な位置を測定可能なステレオ画像処理等を用いて取得することができる。また、操作体の検出は、例えば形状検出や肌色検出、テクスチャマッチング等の画像処理手法を用いることにより、画像から操作体およびその位置や形状を推定し検出することができる。なお、本実施形態にかかる操作制御装置は、操作制御処理に用いられる情報を記憶する記憶部(図示せず。)を備えることができる。かかる記憶部は、図2の不揮発性メモリに相当する。記憶部は、例えば、カーソル可動領域210を操作する第1の操作体やカーソル220を操作する第2の操作体、各操作体によるカーソルの移動を可能とするカーソル移動モード時の形状等の情報を記憶することができる。
動作判定部130は、検出部120から入力された操作体情報に基づいて、検出された操作体の動き(ジェスチャ)を判定する。動作判定部130は、検出された操作体がカーソル可動領域210とカーソル220とのどちらを操作する操作体であるかを判別する。また、動作判定部130は、検出された操作体の位置や形状から、操作体がカーソル可動領域210あるいはカーソル220を操作するカーソル移動モードであるか否かを判定する。
動作判定部130は、カーソル可動領域210を操作する第1の操作体がカーソル移動モードであると判定した場合、可動領域移動処理部140に対して、第1の操作体の移動量に応じてカーソル可動領域210を移動させる処理を行わせる。このとき、カーソル可動領域210の移動に合わせてカーソル220も移動させるため、動作判定部130は、カーソル移動処理部150に対して、第1の操作体の移動量に応じてカーソル220を移動させる処理を行わせる。
また、動作判定部130は、カーソル220を操作する第2の操作体がカーソル移動モードであると判定した場合、カーソル移動処理部150に対して、第2の操作体の移動量に応じてカーソル220を移動させる処理を行わせる。なお、動作判定部130は、上記2つの状況のいずれにも合致しないと判定した場合には、可動領域移動処理部140およびカーソル移動処理部150に対する出力は行わない。
可動領域移動処理部140は、操作体の動きに応じて表示領域200に表示されたカーソル可動領域210を移動させる処理を行う。可動領域移動処理部140は、カーソル可動領域210を操作する第1の操作体の現在の位置情報に基づき、前時間における第1の操作体の位置からの移動方向および移動量を算出する。そして、可動領域移動処理部140は、第1の操作体の移動方向および移動量から、表示領域200におけるカーソル可動領域210の移動方向および移動量を算出する。可動領域移動処理部140は、算出したカーソル可動領域210の移動方向および移動量を表示処理部160へ出力する。また、可動領域移動処理部140は、カーソル220の移動によりカーソル220がカーソル可動領域210外に位置するようになるとき、カーソル移動処理部150の指示を受けて、カーソル220の移動に合わせてカーソル可動領域210を移動させる処理を行う。
カーソル移動処理部150は、操作体の動きに応じて表示領域200に表示されたカーソル220を移動させる処理を行う。カーソル移動処理部150は、カーソル可動領域210を操作する第1の操作体またはカーソル220を操作する第2の操作体について、現在の位置情報に基づき、前時間における操作体の位置からの移動方向および移動量を算出する。そして、カーソル移動処理部150は、操作体の移動方向および移動量から、カーソル220の移動方向および移動量を算出する。カーソル移動処理部150は、算出したカーソル220の移動方向および移動量を表示処理部160へ出力する。
また、カーソル移動処理部150は、第2の操作体によるカーソル220の移動によってカーソル220がカーソル可動領域210外に位置することになるか否かを判定する。カーソル移動処理部150は、カーソル220がカーソル可動領域210外に位置すると判定した場合、可動領域移動処理部140に対して、カーソル可動領域210を移動させる指示を出力する。
表示処理部160は、可動領域移動処理部140またはカーソル移動処理部150から入力された情報に基づいて、カーソル可動領域210および/またはカーソル220を移動して表示するための表示処理を行う。表示処理部160は、表示処理した表示情報を表示部170へ出力して表示させる。表示部170は、図2の表示装置105に相当し、例えばCRTディスプレイ装置、液晶ディスプレイ装置、OLED装置等を用いることができる。なお、本実施形態の操作制御装置100は表示部170を備えているが、表示部170を設けずに外部の表示装置(図示せず。)に接続して用いることもできる。
以上、本実施形態にかかる操作制御装置100の機能構成について説明した。操作制御装置100を用いることにより、カーソル可動領域210とカーソル220との操作を独立して行うことができるので、段階的にカーソル220を操作することが可能となる。これにより、ユーザは、直感的かつ高精度にカーソル220を操作することができる。以下、図4〜図9に基づいて、操作制御装置100による操作制御方法について説明する。なお、図7〜図9において、図4を用いて説明した操作制御方法の処理と同一である処理については、図4と同一の符号を付している。
<3.操作制御装置による操作制御方法>
カーソル220の段階的な操作を行うため、本実施形態ではカーソル可動領域210を操作する第1の操作体と、カーソル220を操作する第2の操作体とを設定する。各操作体は、ユーザによる操作のし易さやカーソル220を移動させる操作と関連付けやすいジェスチャを行うのに適したものを用いることができる。例えば、右手と左手、異なる部位、両手と片手、ユーザの視線と手等、身体の部位やユーザにより移動される物体を、第1の操作体および第2の操作体として設定することができる。以下、様々な操作体を用いた場合の、操作制御装置100によるカーソル220の操作制御方法について説明する。
[(1)右手と左手による操作制御]
まず、図4〜図6に基づいて、カーソル可動領域210を操作する第1の操作体を左手、カーソル220を操作する第2の操作体を右手と設定した場合における、作制御装置100によるカーソル220の操作制御方法について説明する。なお、図4は、本実施形態にかかる操作制御装置による、右手と左手を用いた操作制御方法を示すフローチャートである。図5は、カーソル可動領域210の移動操作を説明する説明図である。図6は、カーソル可動領域210内におけるカーソル220の移動操作を説明する説明図である。
まず、本実施形態にかかる操作制御装置100は、入力情報取得部110により、ユーザを撮像し、検出部120によりカーソル可動領域210を操作する左手およびカーソル220を操作する右手の位置を検出する(ステップS110)。本実施形態の入力情報取得部110は、例えばステレオカメラ104であって、ユーザを撮像した撮像画像からユーザの位置や奥行情報を取得することができる。検出部120は、入力情報取得部110から入力された撮像画像から、操作体である左手および右手の奥行情報や位置を検出する。検出部120は、例えば、予め記憶部(図示せず。)に記憶された人体の部位や関節等の位置をモデル化した人体構造モデル等の設定情報を用いて、形状検出や肌色検出、テクスチャマッチング等の画像処理手法を用いることにより左手および右手を認識することができる。
次いで、動作判定部130は、左手がカーソル移動モードであるか否かを判定する(ステップS120)。本実施形態のようにユーザのジェスチャによって操作対象を操作する場合、通常、1つの操作体について、操作体の動きと操作処理とが複数関連付けて設定される。例えば、左手を操作体とした場合、左手を左右に移動させるジェスチャに対して、カーソルの移動処理や音量調節処理等を関連付けることができる。このとき、行われているジェスチャによって実行する処理を特定するために、実行する処理を示す情報であるモードを設定することができる。例えば、左手が握られた状態であるときにはカーソルの移動処理を行うカーソル移動モードを示し、左手が開かれた状態であるときには音量調節処理を行う音量調節モードを示すように、モードを設定することができる。また、カーソル移動モードを設けることにより、ユーザが操作体をカーソル移動モードに設定したり操作体のカーソル移動モードを解除したりして、ユーザが意図的にカーソル220の移動を行うことが可能となる。
ステップS120では、カーソル可動領域210を操作する左手がカーソル移動モードであるか否かを判定する。すなわち、左手の状態がカーソル可動領域210を移動操作するカーソル移動モードと一致するときのみ、左手の動きによってカーソル可動領域210およびカーソル220を移動させる。ここで、カーソル移動モードには、例えば、上述したような手を握る等の任意のジェスチャを割り当てることができる。この場合、ユーザが左手を握った状態で左手を空間内で上下左右に移動させると、検出部120は、左手が握られていることを判別することにより、カーソル移動モードであるか否かを判断する。
ステップS120にて、左手がカーソル移動モードではないと判定された場合、動作判定部130は、ステップS140の処理を実行する。一方、ステップS120にて、左手がカーソル移動モードであると判定された場合、可動領域移動処理部140およびカーソル移動処理部150は、左手の移動量に応じてカーソル220とともにカーソル可動領域210を移動させる(ステップS130)。
可動領域移動処理部140は、カーソル220を大まかに移動させる処理を行う。具体的には、まず、図5に示すように、表示領域200を所定の分割数で分割した単位領域230が設定される。図5では、表示領域200をm1×n1個に分割した1つの領域が単位領域230として設定されている。カーソル可動領域210およびカーソル220は、可動領域移動処理部140によって、左手LHの移動量に応じて、単位領域230単位で上下左右に移動される。したがって、表示領域200の分割数が多いほどカーソル可動領域210およびカーソル220は細かく移動され、表示領域200の分割数が少ないほどカーソル可動領域210およびカーソル220は大まかに移動される。
例えば、表示領域200を32×32分割し、左手LHが1cm移動したとき1単位領域だけ左手LHの移動方向にカーソル可動領域210およびカーソル220を移動させるようにする。これにより、可動領域移動処理部140は、左手LHが1cm移動する毎に、カーソル可動領域210およびカーソル220を表示領域200の1/32に相当する移動量で移動させることで、表示領域200内でカーソル220を大まかに移動させる。このような大まかな移動を可能とすることにより、手ぶれノイズや左手LHの微妙な動きへの誤反応の影響を受けないという利点がある。また、カーソル220を操作対象近辺へ素早く移動させることができる。
動作判定部130は、カーソル可動領域210を移動させるか否かを判定すると、次に、カーソル220を操作する右手がカーソル移動モードであるか否かを判定する(ステップS140)。カーソル220は、ステップS120と同様、右手がカーソル220を移動操作するカーソル移動モードであるときのみ、右手の動きによって移動される。カーソル220を移動させる操作体のカーソル移動モードは、上記と同様、例えば手を握る等の任意のジェスチャを割り当てることができる。ステップS140にて、右手がカーソル移動モードではないと判定された場合には、操作制御装置100は、カーソル220を移動させず、処理を終了する。一方、ステップS140にて、右手がカーソル移動モードであると判定された場合には、カーソル移動処理部150は、右手の移動量に応じてカーソル220をカーソル可動領域内210で移動させる(ステップS150)。
カーソル移動処理部150は、カーソル220を高精度に移動させる処理を行う。具体的には、まず、図6に示すように、カーソル可動領域210を含む所定の領域240を所定の分割数で分割した単位領域245が設定される。本実施形態では、円形であるカーソル可動領域210が内接する四角形を領域240とするが、本発明はかかる例に限定されず、領域240とカーソル可動領域210とを同一の領域としてもよい。図6では、領域240をm2×n2個に分割した1つの領域が単位領域245として設定されている。カーソル220は、カーソル移動処理部150により、右手RHの移動量に応じて、単位領域245単位で上下左右に移動される。
例えば、領域240を32×32分割し、右手RHが1cm移動したとき1単位領域だけ右手RHの移動方向にカーソル220を移動させるようにする。これにより、カーソル移動処理部150は、右手RHが1cm移動する毎に、カーソル220を領域240の1/32に相当する移動量で移動させることができる。すなわち、左手LHによりカーソル可動領域210およびカーソル220を移動させる場合と比較して、手を同一距離移動させたときのカーソル220の移動量が小さく、表示領域200内でカーソル220を精細に移動させることができる。また、単位領域245を小さくするにつれ(例えば、単位領域245を1画素で構成することにより)、右手RHの移動によるカーソル220の移動をより精細にすることができる。
ここで、右手RHの移動に応じてカーソル220が移動されるとき、カーソル移動処理部150によりカーソル220がカーソル可動領域210外に位置するようになるか否かが判定される(ステップS160)。カーソル移動処理部150は、右手RHの移動方向および移動量からカーソル220の移動方向および移動量を算出すると、表示領域220における移動後のカーソル220とカーソル可動領域210との位置関係を把握する。これらの位置関係は、例えば、表示領域220における移動後のカーソル220の座標とカーソル可動領域210を示す関数とから算出することができる。
ステップS160にて、カーソル可動領域210内に移動後のカーソル220が位置すると判定された場合には、右手RHの移動に応じてカーソル220のみを移動させた後、操作制御装置100は処理を終了する。一方、ステップS160にて、移動後のカーソル220がカーソル可動領域210外に位置すると判定されると、カーソル移動処理部150は、可動領域移動処理部140に対して、右手RHの移動に応じてカーソル可動領域210を移動させるように指示する。これにより、カーソル220とともにカーソル可動領域210が移動される(ステップS170)。かかる処理を行うことにより、カーソル220がカーソル可動領域210外に出ないようにすることができる。
以上、本実施形態にかかる操作制御装置100による、右手と左手とを用いた操作制御方法について説明した。かかる操作制御方法では、左手でカーソル可動領域210およびカーソル220を大まかに移動させ、右手でカーソル220を精細に移動させる。このように、カーソル220を段階的に移動させることができるため、カーソル220を直感的かつ高精度に操作することができる。
[(2)異なる部位による操作制御]
次に、図7に基づいて、異なる関節によってカーソル220を段階的に移動させる例について説明する。なお、図7は、本実施形態にかかる操作制御装置100による、異なる部位を用いた操作制御方法を示すフローチャートである。本例では、肘関節より手首側の部位を、カーソル可動領域210を操作する第1の操作体とし、手首関節より指先側の部位を、カーソル220を操作する第2の操作体とする。すなわち、例えば肘関節を支点として手首を移動させると手首の移動に応じてカーソル可動領域210およびカーソル220が移動される。また、手首関節を始点として手のひらあるいは指等の下位の部位を移動させると手のひらあるいは指の移動に応じてカーソル220のみが移動される。
かかる操作制御方法では、まず、入力情報取得部110により取得された画像から、ユーザの身体の関節位置を推定し、肘関節および手首関節の位置を検出部120により検出する(ステップS110)。各関節の検出は、例えば、上述したように、記憶部(図示せず。)に記憶された人体構造モデルを用いて、身体の各部位の位置関係から推定して行うことができる。
次いで、カーソル可動領域210およびカーソル220の移動操作を行う手がカーソル移動モードであるか否かを判定する(ステップS120a)。例えば、右手により、カーソル可動領域210およびカーソル220を操作するとする。このとき、右手がカーソル操作モードである場合にのみ、カーソル可動領域210やカーソル220を移動させる。カーソル移動モードとして、例えば手を所定の高さ(例えば腰の高さ)より高く挙げている状態を設定することができる。これにより、カーソル可動領域210およびカーソル220の操作体ではない他方の手を挙げた場合に、カーソル可動領域210およびカーソル220が誤って移動されるのを防止することができる。
ステップS120aにて、右手が挙がっていないと判定された場合には、ステップS150aの処理を行う。一方、ステップS120aにて、右手が挙がっていると判定された場合には、可動領域移動処理部140およびカーソル移動処理部150により、肘関節より下位に位置する部分の移動量に応じて、カーソル可動領域210およびカーソル220を移動させる(ステップS130a)。ここで、肘関節より下位の部分とは、手首側の部位を意味する。例えば、腕についてみると、肩、肘、手首、指の付け根、指等の関節や部位がある。これらの部位のうち任意の部位に着目したとき、肩側に位置する部位を上位部位、指側に位置する部位を下位部位とする。
ステップS130aでは、可動領域移動処理部140は、肘関節に対する下位部位の移動方向に、下位部位の移動量だけ、カーソル可動領域210およびカーソル220をともに移動させる。なお、ステップ130aでのカーソル可動領域210およびカーソル220の移動方向および移動量は、図4のステップS130と同様に決定することができる。すなわち、カーソル可動領域210およびカーソル220は、表示領域200内で大まかに移動される。
その後、カーソル移動処理部150は、手首より下位の部分の移動量に応じて、カーソル220のみを移動させる(ステップS150a)。カーソル移動処理部150は、検出部120による検出結果から、例えば指等の手首より下位部位の移動方向に、下位部位の移動量だけ、カーソル220を移動させる。ステップS150aでのカーソル220の移動方向および移動量は、図4のステップS150と同様に決定することができる。すなわち、カーソル220を、カーソル可動領域210内で精細に移動させることができる。
ここで、手首より下位部位の移動に応じてカーソル220が移動されるとき、カーソル移動処理部150によりカーソル220がカーソル可動領域210外に位置するようになるか否かが判定される(ステップS160)。ステップS160にて、カーソル220がカーソル可動領域210外に位置すると判定されると、可動領域移動処理部140は、手首より下位部位の移動に応じて、カーソル220とともにカーソル可動領域210を移動させる(ステップS170)。一方、ステップS160にて、カーソル220がカーソル可動領域210外には位置しないと判定されると、手首より下位部位の移動に応じてカーソル220のみを移動させた後、操作制御装置100は処理を終了する。
以上、本実施形態にかかる操作制御装置100による、異なる部位による操作制御方法を説明した。かかる操作制御方法によれば、異なる部位を移動させることで、カーソル220を段階的に移動させることができる。また、本例の操作制御方法では、同一の手でカーソル220を大まかに移動させたり精細に移動させたりすることができるという利点もある。
[(3)両手と片手による操作制御]
次に、図8に基づいて、両手と片手によってカーソル220を段階的に移動させる例について説明する。なお、図8は、本実施形態にかかる操作制御装置100による、両手と片手とを用いた操作制御方法を示すフローチャートである。本例では、両手を、カーソル可動領域210を操作する第1の操作体とし、いずれか一方の手を、カーソル220を操作する第2の操作体とする。すなわち、カーソル移動モードで両手をともに移動させると、カーソル可動領域210およびカーソル220を移動させることができ、第2の操作体として設定された一方の手のみをカーソル移動モードで移動させると、カーソル220のみを移動させることができる。なお、以下では、第2の操作体である手をプライマリハンドとする。
かかる操作制御方法では、まず、入力情報取得部110により取得された画像から、検出部120によりユーザの身体の部位の位置を推定して両手の位置を検出する(ステップS110)。次いで、ステップS110において検出された両手がカーソル移動モードであるか否かを判定する(ステップS120b)。カーソル移動モードとして、例えば、右手は手を握った状態であり、左手は手を広げている状態を設定することができる。手の状態は、例えば、予め記憶部(図示せず。)に記憶された人体構造モデル等の設定情報を用いて、形状検出等の画像処理手法を用いることにより認識することができる。
動作判定部130は、検出された手の状態から両手がカーソル移動モードであるか否かを判定する。そして、少なくともいずれか一方の手がカーソル移動モードではない場合には、ステップS140bの処理を行う。一方、ステップS120bにて、両手ともにカーソル移動モードであると判定された場合には、可動領域移動処理部140およびカーソル移動処理部150は、両手の移動方向に、両手の移動量だけカーソル可動領域210およびカーソル220を移動させる(ステップS130b)。ここで、両手の移動方向および移動量は、各手の移動方向および移動量の平均としてもよく、いずれか一方の手の移動方向および移動量としてもよい。また、ステップ130bでのカーソル可動領域210およびカーソル220の移動方向および移動量は、図4のステップS130と同様に決定することができる。すなわち、カーソル可動領域210およびカーソル220は、表示領域200内で大まかに移動される。
次いで、カーソル移動処理部150は、プライマリハンドがカーソル移動モードであるか否かを判定する(ステップS140b)。このとき、プライマリハンドである右手のカーソル移動モードは、ステップS120bと同様、例えば手を握った状態とすることができる。本例では、両手でカーソル可動領域210およびカーソル220を移動させる場合と、プライマリハンドでカーソル220のみを移動させる場合とにおいて、両者を明確に区別できるようにカーソル移動モードを設定するのが望ましい。ここでは、プライマリハンドである右手のカーソル移動モードを同一とし、プライマリハンドではない左手の状態により、カーソル可動領域210およびカーソル220を移動させる場合と、カーソル220のみを移動させる場合とを区別している。
ステップS140bにて、プライマリハンドがカーソル移動モードではないと判定された場合には、操作制御装置140は本処理を終了する。一方、ステップS140bにて、プライマリハンドがカーソル移動モードであると判定された場合には、プライマリハンドの移動量に応じて、カーソル220のみを移動させる(ステップS150)。カーソル移動処理部150は、検出部120による検出結果から、右手の移動方向に、右手の移動量だけ、カーソル220を移動させる。ステップS150でのカーソル220の移動方向および移動量は、図4のステップS150と同様に決定することができる。すなわち、カーソル220を、カーソル可動領域210内で精細に移動させることができる。
ここで、プライマリハンドである右手の移動に応じてカーソル220が移動されるとき、カーソル移動処理部150によりカーソル220がカーソル可動領域210外に位置するようになるか否かが判定される(ステップS160)。ステップS160にて、カーソル220がカーソル可動領域210外に位置すると判定されると、可動領域移動処理部140は、右手の移動に応じて、カーソル220とともにカーソル可動領域210を移動させる(ステップS170)。一方、ステップS160にて、カーソル220がカーソル可動領域210外には位置しないと判定されると、右手の移動に応じてカーソル220のみを移動させた後、操作制御装置100は処理を終了する。
以上、本実施形態にかかる操作制御装置100による、両手と片手による操作制御方法を説明した。かかる操作制御方法によれば、両手あるいは片手のみを移動させることで、カーソル220を段階的に移動させることができる。
[(4)ユーザの視線と手による操作制御]
次に、図9に基づいて、ユーザの視線と手によってカーソル220を段階的に移動させる例について説明する。なお、図9は、本実施形態にかかる操作制御装置100による、ユーザの視線と手とを用いた操作制御方法を示すフローチャートである。本例では、第1の操作体であるユーザの視線によりカーソル移動領域210を操作し、第2の操作体である手によってカーソル220を操作する。本例の操作制御方法によれば、カーソル220を移動させたい大体の方向に視線を向けることによりカーソル可動領域210およびカーソル220を素早く移動させることができ、操作対象近辺に移動されたカーソル220を手で精度よく操作することができる。
かかる操作制御方法では、まず、入力情報取得部110により取得された画像から、ユーザの身体の関節位置を推定し、ユーザの視線とカーソル220を操作する手の位置を検出部120により検出する(ステップS110)。手の位置は、上述したように、予め記憶部(図示せず。)に記憶された人体構造モデル等の設定情報を用いて、形状検出等の画像処理手法を用いることにより検出することができる。また、ユーザの視線の方向は、例えば特開平8−308801号公報に記載された手法を用いて検出することができる。すなわち、ユーザの眼球に異なる入射角で2つの光束を投射し、投射した光束の眼球による反射光を受光する。そして、反射光に応じた2つの映像信号が生成し、これらの映像信号の差分情報に基づいて、眼球の瞳孔の位置に応じた値を演算する。この瞳孔の位置と眼球からの反射光より検出される眼球のプルキンエ像の位置とに基づいて、ユーザの視線方向を検出することができる。
次いで、ステップS110において検出された操作体である手がカーソル移動モードであるか否かを判定する(ステップS120c)。ステップS120cでは、ユーザの視線の向く先にカーソル可動領域210およびカーソル220を移動させるか否かの判定に、カーソル220を操作する操作体のカーソル移動モードを用いる。カーソル220を操作する操作体を右手としたとき、例えば右手のみが所定の高さ(例えば腰の高さ)以上挙がっている状態をカーソル移動モードとすることができる。また、ステップS120cでは、カーソル220を移動させる手を片方(本例では右手)に限定することにより、両手を挙げた場合の誤検出を防止することができる。
ステップS120cにて、操作体である手がカーソル移動モードではないと判定された場合、ステップS110へ戻り、ステップS110からの処理を繰り返す。一方、ステップS120cにて、操作体である手がカーソル移動モードであると判定された場合には、可動領域移動処理部140およびカーソル移動処理部150は、ユーザの視線の向いている方向を算出し、カーソル可動領域210およびカーソル220を移動させる(ステップS130c)。
このとき、カーソル可動領域210は、例えば、ユーザの視線の方向と表示領域200との交点が位置する表示領域200の単位領域230に、カーソル可動領域210の中心が位置するように移動させるようにしてもよい。また、カーソル220は、カーソル移動算出部150により、カーソル可動領域210の移動に同期して移動させるようにしてもよい。このようにカーソル可動領域210およびカーソル220を移動させることにより、カーソル可動領域210およびカーソル220を表示領域200内で大まかに移動させることができる。
次いで、操作体である手がカーソル移動モードで移動している場合には、カーソル移動処理部150によって、当該手の移動方向に、手の移動量だけカーソル220のみを移動させる(ステップS150c)。ステップS150cでのカーソル220の移動方向および移動量は、図4のステップS150と同様に決定することができる。これにより、カーソル220を、カーソル可動領域210内で精細に移動させることができる。
ここで、操作体である手(右手)の移動に応じてカーソル220が移動されるとき、カーソル移動処理部150によりカーソル220がカーソル可動領域210外に位置するようになるか否かが判定される(ステップS160)。ステップS160にて、カーソル220がカーソル可動領域210外に位置すると判定されると、可動領域移動処理部140は、右手の移動に応じて、カーソル220とともにカーソル可動領域210を移動させる(ステップS170)。一方、ステップS160にて、カーソル220がカーソル可動領域210外には位置しないと判定されると、右手の移動に応じてカーソル220のみを移動させた後、操作制御装置100は処理を終了する。
以上、ユーザの視線と手とを用いた操作制御方法について説明した。かかる操作制御方法によれば、ユーザの視線と手を移動させることで、カーソル220を段階的に移動させることができる。
以上、本実施形態にかかる操作制御装置100と、これによる操作制御方法について説明した。本実施形態によれば、カーソル220をカーソル可動領域210とともに大まかに移動させることができ、さらにカーソル220のみを細かく移動させることができる。このように、ジェスチャによってカーソル220を段階的に操作することができ、カーソル220を直感的かつ高精度に操作することが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、カーソル可動領域210は円形カーソルであったが、本発明はかかる例に限定されない。例えば、カーソル可動領域210の形状は、四角形等の多角形状のカーソルとしてもよい。
また、上記実施形態では、カーソル可動領域210の大きさは一定であったが、本発明はかかる例に限定されず、例えばカーソル可動領域210の大きさを可変にすることもできる。カーソル可動領域210の大きさを可変にすることにより、カーソル220を移動させる表示領域200に表示された画面レイアウトに応じた、適切なサイズのカーソル可動領域210をユーザにより設定することができる。
例えば、カーソル220により指示するオブジェクトのサイズがカーソル可動領域210よりも僅かに大きくすることにより、オブジェクトの近辺までカーソル220を容易に移動させることができる。その後、ユーザは第2の操作体を動かしてカーソル可動領域210内でカーソル220の位置を微調整して移動させることにより、正確にオブジェクトを選択することができるようになる。
カーソル可動領域210の大きさの変更も、ユーザのジェスチャによって行うことができる。例えば、手のひらを向かい合わせて両手を離隔させる動作を行った場合には、カーソル可動領域210を大きくし、手のひらを向かい合わせて両手を近接させる動作を行った場合には、カーソル可動領域210を小さくするようにすることができる。このとき、カーソル可動領域210の大きさの変更を可能とするサイズ変更モードを設定し、ユーザが意図したときのみカーソル可動領域210の大きさを変更できるようにしてもよい。
100 操作制御装置
110 入力情報取得部
120 検出部
130 動作判定部
140 可動領域移動処理部
150 カーソル移動処理部
160 表示処理部
170 表示部
200 表示領域
210 カーソル可動領域
220 カーソル
230、245 単位領域

Claims (7)

  1. ユーザの動作によって移動する検出対象を検出する動き検出部と、
    前記動き検出部による検出結果に基づいて、前記検出対象の動作を判定する動作判定部と、
    表示領域に表示されたオブジェクトを操作するカーソルを含むカーソル可動領域を移動させる可動領域移動処理部と、
    前記カーソルを移動させるカーソル移動処理部と、
    を備え、
    前記可動領域移動処理部は、前記動き検出部により検出された第1の検出対象の動作に基づいて、第1の移動単位で、前記カーソル可動領域を前記カーソルとともに前記表示領域内で移動させ、
    前記カーソル移動処理部は、前記動き検出部により検出された第2の検出対象の動作に基づいて、前記第1の移動単位よりも小さい第2の移動単位で、前記カーソルのみを前記カーソル可動領域内で移動させる、操作制御装置。
  2. 前記表示領域を所定の分割数で分割して形成された一の領域を第1の単位領域として、
    前記カーソル可動領域は、1または2以上の前記第1の単位領域を含んでなり、
    前記可動領域移動処理部は、前記第1の検出対象の移動量に応じて、前記カーソルとともに前記カーソル可動領域を前記第1の単位領域単位で移動させる、請求項1に記載の操作制御装置。
  3. 前記カーソル可動領域を所定の分割数で分割して形成された一の領域を2の単位領域として、
    前記カーソル移動処理部は、前記第2の検出対象の移動量に応じて、前記カーソルを前記第2の単位領域単位で移動させる、請求項1または2に記載の操作制御装置。
  4. 前記第2の検出対象によって前記カーソルを移動させたときに前記カーソルが前記カーソル可動領域外に位置する場合、前記可動領域移動処理部は、前記第2の検出対象により移動される前記カーソルとともに前記カーソル可動領域を移動させる、請求項3に記載の操作制御装置。
  5. 前記可動領域移動処理部は、前記第1の検出対象が前記カーソル可動領域を移動可能とする移動モードである場合にのみ、前記カーソル可動領域を移動させ、
    前記カーソル移動処理部は、前記第2の検出対象が前記カーソルを移動可能とする移動モードである場合にのみ、前記カーソルを移動させる、請求項1〜4のいずれか1項に記載の操作制御装置。
  6. 前記カーソル可動領域の大きさは、可変である、請求項1〜5のいずれか1項に記載の操作制御装置。
  7. ユーザの動作によって移動する検出対象を検出するステップと、
    検出結果に基づいて、前記検出対象の動作を判定するステップと、
    検出された第1の検出対象の動作に基づいて、第1の移動単位で、表示領域に表示されたオブジェクトを操作するカーソルが表示されるカーソル可動領域を、前記カーソルとともに前記表示領域全体に対して移動するステップと、
    検出された第2の検出対象の動作に基づいて、前記第1の移動単位よりも小さい第2の移動単位で、前記カーソルを前記カーソル可動領域で移動するステップと、
    を含む、操作制御方法。
JP2009171053A 2009-07-22 2009-07-22 操作制御装置および操作制御方法 Withdrawn JP2011028366A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009171053A JP2011028366A (ja) 2009-07-22 2009-07-22 操作制御装置および操作制御方法
US12/803,829 US8659549B2 (en) 2009-07-22 2010-07-07 Operation control device and operation control method
CN2010102304107A CN101963839B (zh) 2009-07-22 2010-07-15 操作控制装置和操作控制方法
US14/159,594 US10042508B2 (en) 2009-07-22 2014-01-21 Operation control device and operation control method
US16/025,435 US10606441B2 (en) 2009-07-22 2018-07-02 Operation control device and operation control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009171053A JP2011028366A (ja) 2009-07-22 2009-07-22 操作制御装置および操作制御方法

Publications (1)

Publication Number Publication Date
JP2011028366A true JP2011028366A (ja) 2011-02-10

Family

ID=43496853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009171053A Withdrawn JP2011028366A (ja) 2009-07-22 2009-07-22 操作制御装置および操作制御方法

Country Status (3)

Country Link
US (3) US8659549B2 (ja)
JP (1) JP2011028366A (ja)
CN (1) CN101963839B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014132442A (ja) * 2013-01-07 2014-07-17 Samsung Electronics Co Ltd 電子装置およびその制御方法
JP2014528625A (ja) * 2011-10-13 2014-10-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報入力装置及びその制御方法
JP2016129019A (ja) * 2014-12-31 2016-07-14 ダッソー システムズDassault Systemes グラフィック要素の選択
US9836130B2 (en) 2014-12-26 2017-12-05 Nextedge Technology K.K. Operation input device, operation input method, and program
JP2018077876A (ja) * 2013-04-02 2018-05-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019200566A (ja) * 2018-05-16 2019-11-21 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108771A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
KR20120106608A (ko) * 2011-03-17 2012-09-26 한국전자통신연구원 향상된 사용자 상호작용 인터페이스 방법 및 장치
EP2791766A4 (en) * 2011-12-14 2015-07-22 Nokia Corp METHODS, DEVICES AND COMPUTER PROGRAM PRODUCTS FOR COMBINING AREAS IN VIEWS OF USER INTERFACES
KR101919010B1 (ko) * 2012-03-08 2018-11-16 삼성전자주식회사 안구 동작에 기초한 디바이스의 제어 방법 및 이를 위한 디바이스
WO2013136333A1 (en) * 2012-03-13 2013-09-19 Eyesight Mobile Technologies Ltd. Touch free user interface
US10503373B2 (en) * 2012-03-14 2019-12-10 Sony Interactive Entertainment LLC Visual feedback for highlight-driven gesture user interfaces
EP2631739B1 (en) * 2012-05-21 2016-02-03 Huawei Technologies Co., Ltd. Contactless gesture-based control method and apparatus
CN104428732A (zh) * 2012-07-27 2015-03-18 诺基亚公司 与近眼显示器的多模交互
CN103677320B (zh) * 2012-08-30 2018-09-25 索尼公司 遥控器、远端设备、多媒体***及控制方法
KR101621524B1 (ko) * 2012-11-02 2016-05-31 삼성전자 주식회사 디스플레이장치 및 그 제어방법
JP6693105B2 (ja) * 2015-12-01 2020-05-13 株式会社Jvcケンウッド 視線検出装置及び視線検出方法
CN106055095A (zh) * 2016-05-23 2016-10-26 王春晖 一种眼球显示屏定位及交互的方法
US20230061557A1 (en) * 2021-08-30 2023-03-02 Softbank Corp. Electronic device and program
CN115291733B (zh) * 2022-09-28 2022-12-27 宁波均联智行科技股份有限公司 一种光标控制方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324181A (ja) 1992-05-26 1993-12-07 Takenaka Komuten Co Ltd ハンドポインティング式入力装置
EP0829799A3 (en) 1992-05-26 1998-08-26 Takenaka Corporation Wall computer module
JP4272711B2 (ja) * 1995-05-15 2009-06-03 キヤノン株式会社 画像生成方法及び装置
JPH08308801A (ja) 1995-05-16 1996-11-26 Olympus Optical Co Ltd 視線検出装置
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
EP1865404A4 (en) * 2005-03-28 2012-09-05 Panasonic Corp USER INTERFACE SYSTEM
US8022928B2 (en) * 2005-08-22 2011-09-20 Qinzhong Ye Free-space pointing and handwriting
US8085243B2 (en) * 2006-02-03 2011-12-27 Panasonic Corporation Input device and its method
US20090046110A1 (en) * 2007-08-16 2009-02-19 Motorola, Inc. Method and apparatus for manipulating a displayed image
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US9513765B2 (en) * 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014528625A (ja) * 2011-10-13 2014-10-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報入力装置及びその制御方法
JP2014132442A (ja) * 2013-01-07 2014-07-17 Samsung Electronics Co Ltd 電子装置およびその制御方法
JP2018077876A (ja) * 2013-04-02 2018-05-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10514767B2 (en) 2013-04-02 2019-12-24 Sony Corporation Information processing apparatus and information processing method
US9836130B2 (en) 2014-12-26 2017-12-05 Nextedge Technology K.K. Operation input device, operation input method, and program
JP2016129019A (ja) * 2014-12-31 2016-07-14 ダッソー システムズDassault Systemes グラフィック要素の選択
US11061502B2 (en) 2014-12-31 2021-07-13 Dassault Systemes Selection of a graphical element with a cursor in a magnification window
JP2019200566A (ja) * 2018-05-16 2019-11-21 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム
JP7186999B2 (ja) 2018-05-16 2022-12-12 株式会社ネクステッジテクノロジー 操作入力装置、操作入力方法及びプログラム

Also Published As

Publication number Publication date
US10606441B2 (en) 2020-03-31
CN101963839A (zh) 2011-02-02
US20110018804A1 (en) 2011-01-27
US8659549B2 (en) 2014-02-25
US20180307396A1 (en) 2018-10-25
CN101963839B (zh) 2013-04-03
US10042508B2 (en) 2018-08-07
US20140137051A1 (en) 2014-05-15

Similar Documents

Publication Publication Date Title
US10606441B2 (en) Operation control device and operation control method
JP6791994B2 (ja) 表示装置
JP6159323B2 (ja) 情報処理方法及び情報処理装置
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
JP5802667B2 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP5412227B2 (ja) 映像表示装置、および、その表示制御方法
EP3015961B1 (en) Information processing device, control method, program, and storage medium
US20120169671A1 (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
WO2017041433A1 (zh) 可穿戴设备的触控响应方法、装置及可穿戴设备
JP6618276B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JPWO2007088939A1 (ja) 情報処理装置
US20120019460A1 (en) Input method and input apparatus
JP2010081466A (ja) 操作制御装置及び操作表示方法
JP5817149B2 (ja) 投影装置
JP2004078977A (ja) インターフェイス装置
JP2012185630A (ja) 投影装置
JP2012238293A (ja) 入力装置
JP2007086995A (ja) ポインティング装置
JP2021015637A (ja) 表示装置
JP2013109538A (ja) 入力方法及び入力装置
KR101394604B1 (ko) 모션 감지를 통한 사용자 인터페이스 구현 방법 및 그 장치
JP6289655B2 (ja) 画面操作装置及び画面操作方法
JP2013178645A (ja) 電子機器の入力装置
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US20240069647A1 (en) Detecting method, detecting device, and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121002