JP2014067388A - アイコン操作装置 - Google Patents

アイコン操作装置 Download PDF

Info

Publication number
JP2014067388A
JP2014067388A JP2013034486A JP2013034486A JP2014067388A JP 2014067388 A JP2014067388 A JP 2014067388A JP 2013034486 A JP2013034486 A JP 2013034486A JP 2013034486 A JP2013034486 A JP 2013034486A JP 2014067388 A JP2014067388 A JP 2014067388A
Authority
JP
Japan
Prior art keywords
icon
user
operation device
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013034486A
Other languages
English (en)
Other versions
JP6116934B2 (ja
Inventor
Masanori Ozaki
正憲 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2013034486A priority Critical patent/JP6116934B2/ja
Priority to US13/928,836 priority patent/US20140068476A1/en
Publication of JP2014067388A publication Critical patent/JP2014067388A/ja
Application granted granted Critical
Publication of JP6116934B2 publication Critical patent/JP6116934B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/782Instrument locations other than the dashboard on the steering wheel

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作性が良好で、操作手法が分かり易いアイコン操作装置を提供する。
【解決手段】ユーザが操作機器に対して命令や情報を入力するためのアイコン操作装置であって、ユーザが自分の体のどこを触れば、操作機器に対してどのような操作が可能かを、操作機器の操作内容に対応させた複数のアイコンに関するデータを記憶するメモリと、ユーザに対向して配置され、ユーザの距離画像を取得する取得部と、取得部で取得した距離画像データに基づいて、ユーザの体の形状を把握する把握部と、把握部で得られた手の指の位置に基づいて、ユーザが自分の体のどこを触れたかを示す操作位置を特定する特定部と、ユーザの体の形状と操作位置に基づいて、アイコンの選択およびユーザによる操作機器に対する操作内容を判定する判定部と、操作内容にもとづいて操作機器に対する操作を指示する操作指示部とを備える。
【選択図】図1

Description

本発明の実施形態は、操作機器に視線を向けることがあまり許されない車両搭載機器などでの操作に使用されるアイコン操作装置に関する。
機器を操作する際には、機器に対する命令や情報の入力が欠かせない。しかし、入力操作が複雑なものであったり、操作性が良好でない場合には、例え機器の性能が優れていても、ユーザには受け入れてもらえなくなる。
そこで、簡便にしかも誤操作を防ぐように配慮した入力操作に関する提案がなされている。例えば、操作機器を近く(手元)に置き、命令や情報を入力するGUI部品を表示する表示部に操作機器への接触情報から手形状モデル画像を表示させ、手形状モデル画像を見ながら、所望のGUI部品を操作可能とするものである。
また、車載機器の操作では、運転者が装置を注視せずに操作できるように、形状ジェスチャ、方向ジェスチャを入力可能とするものも提案されている。
しかし、手元の操作機器と表示部とが離れている場合には、操作面の位置が直感的にわかりづらく、一度視線を操作面に向けるか、表示部を見ながら手がどこにあるか見る必要がある。
また、ジェスチャで操作する場合には、各操作に対応するジェスチャを覚える必要があり、ジェスチャの種類には限りがある。
特開2006−72854号公報 特開2005−135439号公報
本発明が解決しようとする課題は、操作性が良好で、操作手法が分かり易いアイコン操作装置を提供することである。
実施形態のアイコン操作装置は、ユーザが操作機器に対して命令や情報を入力するためのアイコン操作装置であって、ユーザが自分の体のどこを触れば、前記操作機器に対してどのような操作が可能かを、前記操作機器の操作内容に対応させた複数のアイコンに関するデータを記憶するメモリと、ユーザに対向して配置され、ユーザの距離画像を取得する取得部と、前記取得部で取得した距離画像データに基づいて、ユーザの体の形状を把握する把握部と、前記把握部で得られた手の指の位置に基づいて、ユーザが自分の体のどこを触れたかを示す操作位置を特定する特定部と、前記ユーザの体の形状と前記操作位置に基づいて、前記アイコンの選択およびユーザによる前記操作機器に対する操作内容を判定する判定部と、前記操作内容にもとづいて前記操作機器に対する操作を指示する操作指示部とを備える。
本発明の実施形態に係るアイコン操作装置の概略構成を示すブロック図である。 アイコン操作装置における基本的な処理の流れを示すフローチャートである。 体の形状を把握する処理の流れを示すフローチャートである。 操作位置を特定する処理の流れを示すフローチャートである。 操作の有無を判定する処理の流れを示すフローチャートである。 ユーザの体とアイコンの表示例である。 取得部の配置の一例を示す図である。 顔の位置特定の一例を示す図である。 体の深度情報を説明する図である。 図9における点線部分の拡大図である。 関節位置に対するアイコン位置範囲を説明する図である。 関節位置に対する接点位置を説明する図である。 手のひらにアイコンを配置した表示例である。 アイコンの変形表示の一例を示す図である。 表示部11に表示されるアイコン表示の一例を示す図である。 左右反転したユーザの体とアイコンの表示例である。 顔や体のアイコンの別の表示例である。 手の各部位を使ったアイコンの表示例である。 細かいユーザの手とアイコンの表示例である。 アイコンの操作可能範囲を例示する図である。 指の細部にアイコンを配置する場合や、手のひら全体をアイコンとして触る場所を示す表示の位置をずらした表示の指定場所例である。
以下、本発明の一実施の形態について、図面を参照して説明する。尚、各図において同一箇所については同一の符号を付すとともに、重複した説明は省略する。
(第1の実施形態)
第1の実施形態に係るアイコン操作装置では、簡易的な自分の体の絵(イラスト)を表示部の画面上に表示させて、その上にアイコンを貼り付ける。そのアイコンの貼り付けられた部分の体をタッチすることにより、アイコンを選択可能とする。
本実施形態に係るアイコン操作装置は、演算処理装置(CPU)、主メモリ(RAM)、読出し専用メモリ(ROM)、入力装置(例えば、操作パネルなど)、ハードディスク装置や半導体メモリであるフラッシュメモリを使用したソリッドステートドライブ(SSD)装置等の記憶装置を具備したパーソナル・コンピュータ等の汎用計算機を用いることができ、アイコン操作支援用の処理プログラムをインストールすることにより実現できる。
図1は、本発明の実施形態に係るアイコン操作装置の概略構成を示すブロック図である。第1の実施形態に係るアイコン操作装置100は、主としてメモリ10、表示部11、取得部12、把握部13、特定部14、判定部15、表示指示部16、操作指示部17から構成されている。
アイコン操作装置100は、操作機器200に対して、操作指示部17から指示を発して操作機器200を操作する。操作機器200は、例えば車載ステレオ装置である。操作指示部17により音量をアップするように指示が来た場合、音量をアップする。
把握部13、特定部14、判定部15、表示指示部16、操作指示部17は、コンピュータを構成するハードウェアと協働するソフトウェアとして実現され、良く知られたオペレーティングシステムの下で動作する。
メモリ10は、操作機器200の操作内容に対応させた複数のアイコンに関するデータを記憶する。各アイコンには、それぞれ異なった操作内容を表示させてもよく、また1つのアイコンにおいて操作内容を階層構造として表示させることができる。
表示部11は、ユーザが自分の体のどこを触れば、操作機器に対してどのような操作が可能かを表示するもので、体の一部を絵やイラストで表示し、表示部11としては、例えば人間の視野に直接情報を映し出すヘッドアップディスプレイ(HUD)が好適である。また、表示部は、液晶ディスプレイ、プロジェクタ、裸眼立体視ディスプレイ、偏光眼鏡でのディスプレイ、フォログラム、ヘッドマウントディスプレイも使用することができる。
図6は、アイコン表示の一例を示す図である。図6に示す例では、表示部11に車両のハンドルを握っている状態の手の絵を表示し、その上にアイコンを表示させている。図6に示す例では、左右の手が表示され、手首から指のつけ根までのハンドルを握った時に外側になる面である手の甲、肘から手首までの間である前腕部、肩から肘までの間である上腕部(二の腕)の計6ケ所にアイコンが配置されている。各アイコンには、それぞれ異なった操作内容を表示させてもよく、また1つのアイコンにおいて操作内容を階層構造として表示させることができる。
図6に示す表示を見たユーザは、自分の手あるいは腕のどこを触れば操作が可能かをたちどころに判断することができる。自分の体を介したアイコン表示を利用する操作(入力)は、使用回数を重ねることにより容易に習得しやすい。そのため、操作機器を操作する度に、表示部の表示を見なくても、操作できるようになる。
取得部12は、距離画像を取得するものである。取得部12は、例えば、ステレオカメラや深度センサが好適である。ステレオカメラは、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報も記録できるようにしたカメラである。ステレオ画像から距離を求める場合には、三角測量の原理を用いるのが通常である。また、深度センサでは、ある一定の範囲に赤外線を照射して細かい点が分布した状態とし、そこに存在する物体によって点の模様が変化するので、それを捉えて奥行き情報を得る。図7は、取得部12の配置の一例を示す図である。図7に示す例では、車両の運転者の上部前方に配置している。
把握部13は、機器ユーザの体の形状を判定するものである。把握部13は、取得部12により得られた距離画像に基づいて、体の形状を判定する。基本的に、体の形状は、頭の位置、顔の位置、肩の位置、手の位置等によって把握することができる。体形状判定の詳細は後述する。
特定部14は、把握部13で得られた手の指の位置から、操作位置を特定するものである。操作位置の判定の詳細については、後述する。
判定部15は、ユーザの体と操作する手の位置関係からどのアイコンが選ばれたかを判定するものである。操作判定の詳細は、後述する。
表示指示部16は、選ばれたアイコンにしたがい、表示部11に表示する表示内容を切り替えるものである。例えば、触っているときには、アイコンが押されたことを示すために、少しアイコンを大きくしたり小さくしたり色を変えたりする。選んだアイコンにより次の階層の選択肢がある場合には、アイコンの表示を切り替える。
操作指示部17は、選ばれたアイコンにしたがい、操作機器200に対して操作指示を伝えるものである。例えば、音量アップのアイコンであった場合には、音量をアップするために指示を操作機器200に出す。
次に、以上のように構成されたアイコン操作装置100による基本的な処理の流れについて説明する。
図2は、アイコン操作装置100における基本的な処理の流れを示すフローチャートである。本実施形態に係るアイコン操作装置100では、アイコンを貼り付ける簡易的な自分の体の絵を表示部11の画面上に表示させ、アイコンの貼り付けられた部分の体をユーザがタッチすることにより、アイコンを選択可能とする。
まず、取得部12を成す深度センサやステレオカメラによって、距離画像を取得する(ステップS201)。
次いで、ユーザの体形状の把握を行う(ステップS202)。表示部11に表示されたアイコンの位置との相対的な体の位置を特定するために、体形状の把握を行うものである。ここでの把握の詳細は後述する。
次に、把握部13で得られた手の指の位置に基づいて、ユーザが自分の体のどこを触れたかを示す操作位置を特定する(ステップS203)。ここでの特定の詳細は後述する。
次いで、ユーザの体の形状と操作位置に基づいて、表示部11の画面上に配列されたアイコンの選択およびユーザによる操作機器200に対する操作の有無を判定する(ステップS204)。同様に、ここでの判定の詳細は後述する。
次に、ユーザが操作しているか否かを判定する(ステップS205)。ユーザが操作していると判定した場合(ステップS205でYes)には、操作機器200に対する操作指示を出力(ステップS206)し、選択されたアイコンにしたがい、表示部11に表示する表示内容を切り替える(ステップS207)。
一方、ステップS205においてユーザが操作していないと判定した場合(ステップS205でNo)には、ステップS201へ戻る。
尚、図2に示す基本的処理では、アイコン操作装置100が電源断あるいは、車両の運転を止める場合等を除き、「終了」とさせることは必須ではない。
<体形状把握>
次に、ユーザの体形状の把握処理について説明する。図3は、体の形状を把握する処理の流れを示すフローチャートである。
まず、ユーザの“顔の位置”を特定する(ステップS301)。図7に示した配置のように深度センサやステレオカメラを設置した場合、体の見える範囲が映るようにする。運転席など人の座る位置が限定される場合には、“頭の位置”も限定される。取得部12で取得した距離画像において、“頭の位置”に物体があった場合、“頭”として認識する。
図8は、顔の位置特定の一例を示す図である。ユーザの座る場所が限定されない場合には、例えば、図8のように“顔の位置”など人として認識しやすい部分を、HoG (Histogram of Oriented Gradients)などを使用して特定する。HoGは、物体の認識のための輝度勾配ベースの特徴量であって、一定(局所)領域に対して輝度の勾配方向と勾配強度を算出し、勾配ヒストグラムを生成し、ブロック領域による正規化により勾配方向と勾配強度を可視化するものである。
次に、“肩の位置”を特定する(ステップS302)。図9は、体の深度情報を説明する図であり、図中、色が濃いほど手前であることを表している。図9に示すように距離画像を使用して、“顔の位置”に対して重力方向に対してや目や口の位置から、“肩の位置”を特定する。
次に、“肩の位置”に対して伸びている部分を“腕の方向”として特定する(ステップS303)。
次に、“腕の方向”に伸ばしていったところで折り曲がっているところを“肘の位置”として特定する(ステップS304)。
次いで、肘からある程度の距離を伸ばしていって折れ曲がっていない場合は、そのまま伸ばしていったところから“手の位置”として特定する(ステップS305)。
次いで、肩から肘の長さ分程度、肘から折り曲がった方向に伸ばしていったところで太くなっているところ、もしくは指の溝が多く見られたところを“手”と特定する。手の部分で厚みの無い方向が“手のひら”となり、厚みのある方向のどちらかが“親指のある方向”となる。
図10は、図9における点線部分の拡大図で、指の付け根の探索に使用する。図10中□印で示すように、厚みのある方向の凹んだ部位を探し、そこを“親指の付け根”と特定(ステップS306)する。2ケ所の“親指の付け根”が特定できたので、親指の方向と左右のどちらかの手かにより“手の向き”が特定できる(ステップS307)。
次に、図10中○印で示すように、腕のある方向の反対側に“手の指の付け根”の溝を探索し特定する。そして、“指の付け根”からどのように指が伸びているか特定(ステップS308)し、“指の形状”を特定する(ステップS309)。
以上のようにして体の形状を特定することができる。
<操作位置特定>
次に、操作位置の特定について説明する。図4は、操作位置を特定する処理の流れを示すフローチャートである。ここでは、“人差し指の指先部分の爪が無い側”で操作が行われるものとして説明する。
まず、把握部13で得られた“手の指の位置”を取得する(ステップS401)。
既に、“手のひら”の向きは特定できているので、手のひらのある側で親指の付け根と、親指の付け根に一番近い指の溝の間が“人差し指”となる。“人差し指”が特定できたので、操作に関与する指先として特定することができる(ステップS402)。概ね、“指先より少し指の付け根”側が操作位置となる。
次に、“手のひら”が取得部12(ここでは、深度センサとする)側に向いているか否かについて判定する(ステップS403)。“手のひら”が深度センサ12側に向いている場合(ステップS403でYes)には、深度センサ12で見える“人差し指の指先の少し手前”を操作位置と特定する(ステップS404)。
一方、“手のひら”が深度センサ12側に向いていない場合(ステップS403でNo)には、深度センサ12で見える“人差し指の指先の少し手前から指の太さ分だけ奥側にずらした位置”を操作位置と特定する(ステップS405)。尚、指の太さは、予め一般的な太さに決めておいても良いし、手を回転させて深度センサ12により取得しておいてもよい。
以上のようにして操作位置を特定することができる。尚、左右どちらの指で操作してもよい。例えば、右手にアイコンがある場合に左手で操作し、左手にアイコンがある場合に右手で操作する。顔などにアイコンがある場合はどちらの手で受け付けてもよい。また、特定の指の形にしたときのみ操作を受け付けてもよい。もしくは、アイコンの表示をしてもよい。そうすることにより、普段表示されなくなるため、煩わしさが低減される。指の形状は例えば、人差し指と中指だけ伸ばし、その指を横にそろえる、または縦にそろえるなどが考えられる。
<操作有無判定>
次に、操作の有無の判定について説明する。図5は、操作の有無を判定する処理の流れを示すフローチャートである。
まず、把握部13により得られた“体の形状”と、特定部14により得られた手の“人差し指の操作位置”と、表示部11に示された“アイコンの位置関係”もしくは、事前に決めておいた“アイコンの位置関係”を取得しておく。
体の形状は、操作位置となる手に隠されて細部が見えなくなる。そこで、操作で見えなくなる直前の“関節位置”と関節位置に対しての相対的な“関節間の形状(距離データ)”を取得しておく(ステップS501)。“関節位置”と“関節間の形状”を利用し、操作位置となる手に隠され見えなくなった関節間の奥行きが、関節位置とその位置に対しての関節間の奥行きから求められる。尚、体の位置が変化したとしても“関節位置”から“関節間の奥行き”が相対的に特定される。
次に、ユーザの体と操作位置が近いか否かを判定する(ステップS502)。“関節間の奥行き”に対して操作位置が触っているかの判定は、3次元での体の位置と、3次元での人差し指の操作位置が所定の値より近いか否かで判定することができる。
ユーザの体と操作位置が近い場合(ステップS502でYes)には、“触っている”と判定する(ステップS503)。触った位置に対して、どのアイコンが配列されているかを特定する。
各アイコンは、予め体の“関節位置”に対してどの位置の範囲であれば触れる範囲かをそれぞれ特定しておくのが好適である。図11は、関節位置に対するアイコン位置範囲を説明する図である。図11中、aは操作領域である手首と肘の長さを表している。例えば、図11に示すように、手首と肘の間のアイコンを、手首と肘の中心から手首の方向にa/4から-a/4の範囲、手のひらの法線方向にa/8から-a/8の範囲、手首と肘の線と手のひらの法線方向の垂直方向にa/6から-a/6の範囲内に配置されるとして特定しておく。また、球の半径で特定し、手首と肘の中心からa/4の球の半径を触れる範囲としてもよい。
次に、触った位置が体のどの関節間かを特定(ステップS504)し、関節間距離に対しての接触位置割合を取得する(ステップS505)。図12は、関節位置に対する接点位置を説明する図である。図12中、bは接触領域である手首と肘の長さを表している。例えば、図12に示すように、肘と手首の中心から手首側にb/8の位置で、手のひらの法線方向に-b/16で、手首と肘の線と手のひらの法線方向の垂直方向にb/10の位置と、接触位置割合が特定される。
関節間距離に対しての接触位置割合にすることにより、ユーザによって異なる腕の長さや手の大きさの違いの影響をなくして操作することができ、関節の位置が変わっても特定の体の位置を操作位置と判定できる。
例えば、図6の場合、手の甲と、手から肘までの腕と、肘から肩までの腕に、左右それぞれにアイコンが配置されている。この場合、関節の間にそれぞれ一つしかアイコンが無いので、関節のどちら側を触ったかによって、アイコンには触れていない位置でも触ったことにしてもよい。把握部13により、肩と肘と手の位置から腕の位置も分かるので、手首より手側を触った場合は手の甲でのアイコンが選択される。手首から肘までの間は、手から肘までの腕に配置したアイコンが選択される。肘から肩までの間は、肘から肩までの腕に配置されたアイコンが選択される。
次に、触った位置がアイコン接触範囲内か否かを判定する(ステップS506)。
アイコン接触範囲内であれば(ステップS506でYes)、当該アイコンが選択され操作されたと特定する(ステップS507)。
次いで、操作されたと判定された場合、選択されたアイコンにしたがい表示指示部16を介して表示部11に表示する内容を切り替え、操作指示部17から選択されたアイコンにしたがった操作指示が操作機器200に送られる(ステップS508)。
一方、ユーザの体と操作位置が遠い場合(ステップS502でNo)およびアイコン接触範囲内でなければ(ステップS506でNo)、操作していないと特定する(ステップS510)。
以上のようにして操作の有無の判定することができる。尚、触った後に音や音声で触ったことやどんな操作かの確認を報知し、もう一度触るか、触り続けるか、特定の場所(例えば手首)を確認OKとしてそこを触ったときに、操作したことを受け付けてもよい。
第1の実施形態によれば、自分の体を絵(イラスト)で表し、その上にアイコンを重畳させて表示させている。このように自分の体を絵(イラスト)としておくことにより、自分の体が動いてもアイコンの位置が変わることが無いため見やすい。
(第2の実施形態)
次に、第2の実施形態について説明する。
第2の実施形態に係るアイコン操作装置100では、自分の体を取得部12を構成するステレオカメラで撮像し、それを表示部11の画面上に表示させて、その上にアイコンを貼り付ける。そのアイコンの貼り付けられた部分の体をタッチすることにより、アイコンを選択可能とする。
第2の実施形態に係るアイコン操作装置100の基本的な構成は、第1の実施形態に係るアイコン操作装置100と略同様とすることができる。
ステレオカメラ12から得られた画像をそのまま表示部11に表示してもよいが、自分からの見え方とステレオカメラ12からの見え方は異なる。そのため、ステレオカメラ12を目の辺りになるように、眼鏡や帽子に取り付けてもよい。もしくは、ステレオカメラ12や深度センサによって得られた3次元の位置配置を、自分からの見え方になるように回転や拡大縮小加工して表示してもよい。
図13は、手のひらにアイコンを配置した表示例である。例えば図13のように、手のひらにアイコンを表示させる場合、アイコンの位置は関節の位置から計算される。手のひらのように、移動できたり形状を変えたりできる場所でのアイコン表示は、自分が動いてしまうとアイコンの位置も動いて見づらくなってしまう。それを防ぐために、手首など決まった位置を基準として、その位置からの相対位置で表示してもよい。また、ある時間で取得しておいた画像をそのまま表示し続け、静止画で表示してもよい。
図14は、アイコンの変形表示の一例を示す図である。
また、アイコンの大きさや傾きを変えず、位置だけを追従して表示してもよいが、図14のように、手の傾きや奥行きに合わせてアイコンの表示を傾けたり、大きさを変えたりしてもよい。この場合、より見やすくするために3Dディスプレイを利用し立体視表示をしても良い。
アイコンを触るときには、操作位置表示がアイコンの上にかぶさってしまう。その場合、アイコンをそのまま表示し続けてもよいし、かぶさったところはアイコンの表示を消してもよい。もしくはアイコンを表示している部分の画像を記憶しておき、操作位置で隠れた部分を表示し続けて、操作位置表示を消してもよい。または、操作位置表示を半透明にして表示して、アイコンを隠さず表示して操作も見やすくしてもよい。
第2の実施形態によれば、より直感的に操作対象となる自分の体やアイコンの位置関係がわかりやすくなる。また、同時に操作位置も表示することにより、アイコンと操作位置の相対関係がわかりやすくなり、より直感的に操作することができるようになる。また、操作画面を目の前に置くことができるので、操作する手元となる下を見たり、操作する手元を見やすいように手元を目の前に持ってきたりする必要が無いため、長時間操作しても疲れにくくなる。
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態では、表示部11に表示されるアイコン表示と曲名リストを対応付けするものである。
図15は、表示部11に表示されるアイコン表示の一例を示す図である。図15に示す例では、左右の手の甲のアイコン、左右の腕のアイコンの計4種のアイコンが表示されている。各アイコンには、それぞれ異なった曲名がリストアップして表示されている。1つのアイコンにおいて、複数の曲名を階層構造として表示させることもできる。
図15に示す表示を見たユーザは、自分の左右の手の甲あるいは左右の腕のいずれを触ればどの曲が選曲可能か、たちどころに判断することができる。
リストは曲名には限らず、ナビゲーションの案内する住所リストや、インターネットブラウザでの項目選択やなどが考えられる。
また、具体的にどこを触ればいいかわかりやすいように、図15のようにアイコン上に点などで強調表示や点滅表示などをしておいてもよい。
(変形例)
本実施形態については、以下のような変形例が可能である。
表示部は説明書に書かれた絵や説明文でもよく、使用者が常に見える状態にしておく必要はない。
図16は、左右反転したユーザの体とアイコンの表示例である。図16に示すように、顔や体にアイコンを表示してもよい。その場合、鏡のように左右反転させて表示させてもよい。実際の体をカメラで取得して表示する場合には、ディスプレイの面が鏡に見えるように表示位置を3次元的に回転、並進移動してもよい。顔にアイコンがある場合には、左右どちらの手による操作であっても受け付けるようにする。
また、手のひらと手の甲のように表と裏がある場合には、それぞれに対してアイコンを変えてもよい。また、アイコンの配置される手のひらなどを画面に向けたときだけアイコンの表示を行ってもよい。
図17は、顔や体のアイコンの別の表示例である。図17に示すように、触れる場所を含む全体をアイコンとしておき、左手の手のひらや右手の手のひらに触る場所を示す表示の位置をずらした表示をしてもよい。また、左肩、左耳、左手首、左頬に触る場所を示す表示の位置をずらした表示をしてもよい。右肩、右耳、右手首、右頬に触る場所を示す表示の位置をずらした表示をして左手で操作させてもよい。さらに、あごや額に触る場所を示す表示の位置をずらした表示をさせてもよい。
図18は、手の各部位を使ったアイコンの表示例である。図18に示すように、触れる場所を含む全体をアイコンとしておき、親指、人差し指、中指の付け根、手のひらの左上、手のひらの右下、手首等に触る場所を示す表示の位置をずらした表示をさせてもよい。
アイコン操作は、左右どちらの指あるいは手で操作してもよい。例えば、右手のアイコンがある場合に左手で操作し、左手のアイコンがある場合に右手で操作してもよい。
操作するときはかゆくなったときにかくのと区別するために、人差し指と中指を横にそろえたり、縦にそろえたりした状態で触るなど、特定の指の形にした場合に操作したことを受け付けてもよい。
特定の指の形にしたときのみアイコンの表示をしてもよい。そうすることにより、普段表示されなくなるため、煩わしさが低減される。
また、図19は、細かいユーザの手とアイコンの表示例である。運転停止中など細かい操作ができるときには、図19に示すように、手のひらにアイコンを表示してもよい。手のひらの場合、指の位置から細かい位置が特定できるためより細かい操作が可能となる。また、逆に、煩雑に操作できるように手のひらや拳などで操作してもよい。
図20は、アイコンの操作可能範囲を例示する図である。アイコンは通常触るか触らないかの操作(0次元(点)操作)である。そこで、図20に示すように、アイコンをスライダー(1次元(線)操作)やタッチパッド(2次元(面)操作)や空間認識操作機器(3次元(体)操作)とし、アナログ的な操作ができる部位として操作できるようにしてもよい。
<アイコンについて>
アイコンは、カメラで画像を取得して、実画像でのアイコンとしてもよい。その場合、最初の1回での静止画でもよいし、動画としてリアルタイム表示してもよい。表示しているアイコンの画像はすべて同じにして、触る場所を示す表示の位置のみ変えてもよい。
カメラがユーザに対して対面にあり、手のひらをユーザに向けてそこがアイコンで示された場合、手のひらと操作位置がカメラに映らない。その場合は、手の甲を取得し手の厚さ分手のひらの方向に移動させたところを触る位置とすればよい。また、操作する指の位置は、手で隠れていないときの指の形を取得しておき、その形が変わらないとして、手首の位置や小指の位置により移動や回転をさせて予測すればよい。この場合、手のひらに限らず腕の反対側の腕の厚さ分ずらした位置を触る位置とするなど、体の厚さ分ずらした位置とすればよい。その時のアイコン表示はあらかじめ用意しておいた絵としてもよいし、カメラに裏側を見せておいてそれを記録し、その映像を加工して表示すればよい。そのとき、ユーザの顔より人の違いを認識し、ユーザによって使用する画像を切り替えてもよい。
表示機器のアイコン位置が表示されているところをユーザが見ているときのみ受け付けても良い。
体のアイコンでは細かすぎて見えないときは、その表示が体のどこの部分かを番号や記号で明示しておき、それに関連付けされた番号や記号をアイコンで表示して、見やすくしても良い。その場合、関連付けがわかるように、表示画面上に、体と番号や記号を示した画像を表示しておいて、関連付けをその場でもわかるようにしてもよい。
体のアイコンは人ではなく、猫などの動物やアニメなどのキャラクターで置き換えて表示してもよい。例えば猫の手のひらだと肉球があって愛着をもち、また、どちらが手のひらかわかりやすくなる。また像の鼻や、ウサギの耳や、キリンの首など特徴を持った動物やキャラクターを使って表示して、わかりやすくしてもよい。
体のアイコンをわかりやすい位置となるようにどの体のアイコンを優先的に使用するか優先順位を決められるようにして、決めておいても良い。また、ユーザが優先順位ごとに触って指定してもよい。
体ならどこでもよいので、頭や、背中や、足でもよい。体ではなく、髪や服や手袋や靴の位置で触ったことにしてもよい。
触る指側の手に、リストバンドや指輪でカメラを設置し、そのカメラを使用してどこを触っているか確認してもよい。そうすることにより、背中や後頭部など通常一箇所に取り付けられたカメラでは見えない位置でも触ることが確認できる。
触るアイコンの近くに触る指が近づいてきた場合、アイコン上にその指を相対的な位置で表示してもよい。そのとき、アイコンが見えなくなることを防ぐために、二つの画像を係数(アルファ値)を用いて半透明合成(アルファブレンド)して表示させてもよい。
図21は、指の細部にアイコンを配置する場合や、手のひら全体をアイコンとして触る場所を示す表示の位置をずらした表示の指定場所例である。図21に示すように、関節間や関節上にアイコンを配置し、親指で同じ手の指の関節や、関節間を触るようにさせてもよい。また、カメラがユーザに対して対面にあることを想定し、指の側面を触る場所として触る場所がカメラから見えるようにしてもよい。例えば、図の上側の指の側面は親指の腹でさわり、図の下側の指の側面は親指の爪で触ればよい。
<カメラ操作>
ヘッドマウントディスプレイのようにユーザに取り付けたカメラで見る場合、ユーザの全体像がわかりづらい場合には、鏡やガラスの前で、鏡やガラス越しに自分の全体をカメラで読み取って処理してもよい。
<アイコン操作の受付>
アイコン操作の誤確認を避けるため、少しの時間触ったときに操作したことを受け付けてもよい。触った後に音や音声で触ったことやどんな操作かを確認を知らせて、もう一度触るか、触り続けるか、特定の場所(例えば手首)を確認する。OKとしてそこを触ったときに、操作したことを受け付けてもよい。そうすることにより、表示しなくても操作することができる。
本実施形態によれば、操作機器を操作する際、視線を進行方向からそらさずに操作することができるので、例えば車を安全に運転することができる。所望の操作を行う際、自分の体のどこを触ればよいかは、習熟していくにつれ自然に覚えることができるようになる。そのため、最初にどこを触ればよいか確認の目的で表示部を見る必要がなくなり、より安全に運転することができるようになる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100・・・アイコン操作装置
10・・・メモリ
11・・・表示部
12・・・取得部
13・・・把握部
14・・・特定部
15・・・判定部
16・・・表示指示部
17・・・操作指示部
200・・・操作機器

Claims (22)

  1. ユーザが操作機器に対して命令や情報を入力するためのアイコン操作装置であって、
    ユーザが自分の体のどこを触れば、前記操作機器に対してどのような操作が可能かを、前記操作機器の操作内容に対応させた複数のアイコンに関するデータを記憶するメモリと、
    ユーザに対向して配置され、ユーザの距離画像を取得する取得部と、
    前記取得部で取得した距離画像データに基づいて、ユーザの体の形状を把握する把握部と、
    前記把握部で得られた手の指の位置に基づいて、ユーザが自分の体のどこを触れたかを示す操作位置を特定する特定部と、
    前記ユーザの体の形状と前記操作位置に基づいて、前記アイコンの選択およびユーザによる前記操作機器に対する操作内容を判定する判定部と、
    前記操作内容にもとづいて前記操作機器に対する操作を指示する操作指示部とを備えるアイコン操作装置。
  2. 前記判定部で、ユーザによる操作内容が把握できた場合に、音声で報知する請求項1記載のアイコン操作装置。
  3. 前記判定部で、ユーザによる操作内容が把握できた場合に、さらに体の特定部位への接触を条件として前記操作機器に対する操作指示を有効とする請求項1又は請求項2に記載のアイコン操作装置。
  4. 前記判定部は、前記把握部で特定の指の形状と判定した場合のみ、操作を受け付ける請求項1記載のアイコン操作装置。
  5. 前記取得部は、車両の運転席上部前方にユーザの上半身に対向して配置され、車両内部に搭載される請求項1乃至請求項4のいずれか1項に記載のアイコン操作装置。
  6. 前記取得部で取得した距離画像データに基づいて、体の一部を表示し、該表示画像上に前記アイコンを重畳させて配列して表示する表示部と、
    前記選択されたアイコンにしたがい、前記表示部に表示する表示内容を切り替える表示指示部とを備える請求項1乃至請求項5のいずれか1項に記載のアイコン操作装置。
  7. 前記表示指示部は、前記配列されているアイコンのうち、選択されたアイコンを拡大して表示あるいは縮小して表示する請求項6記載のアイコン操作装置。
  8. 前記表示指示部は、前記配列されているアイコンのうち、選択されたアイコンを変色して表示する請求項6又は請求項7に記載のアイコン操作装置。
  9. 前記表示指示部は、選択されたアイコンに次の階層の選択肢がある場合には、アイコンの表示を切り替えて表示する請求項6乃至請求項8のいずれか1項に記載のアイコン操作装置。
  10. 前記特定部は、前記表示部に表示される右手にアイコンが配列されている場合にはユーザによる左手での操作を受け付け、左手にアイコンが配列されている場合にはユーザによる右手での操作を受け付ける請求項6乃至請求項9のいずれか1項に記載のアイコン操作装置。
  11. 前記表示部は、前記把握部で特定の指の形状と判定した場合のみ、前記表示部にアイコンを配列して表示する請求項6記載のアイコン操作装置。
  12. 前記表示部には、顔を表示し、重畳してアイコンを配列表示する請求項6記載のアイコン操作装置。
  13. 前記表示部には、体を左右反転させて表示する請求項6記載のアイコン操作装置。
  14. 前記表示部には、手のひらを表示し、重畳してアイコンを配列表示する請求項6記載のアイコン操作装置。
  15. 前記表示部には、体に重畳してアイコンを配列した表示が、ユーザの操作位置によって陰になる場合に、前記操作位置を非表示もしくは前記アイコンとユーザの操作する指の二つの画像を所定の係数を用いて半透明合成して表示する請求項6記載のアイコン操作装置。
  16. 前記表示部に、ディスプレイの面が鏡に見えるように表示位置を3次元的に回転とともに並進移動させて表示する請求項6記載のアイコン操作装置。
  17. 前記表示部には、ユーザの手の甲の表裏によって、アイコンを変えて表示する請求項6記載のアイコン操作装置。
  18. 前記表示部には、ユーザがアイコンの配置される手のひらを前記表示部に向けたときだけアイコンの表示を行う請求項6記載のアイコン操作装置。
  19. 前記アイコンの操作可能範囲を、1次元の線操作であるスライド操作あるいは2次元の面操作であるタッチパッド操作あるいは3次元操作である空間認識操作のいずれかとする請求項1乃至請求項18のいずれか1項に記載のアイコン操作装置。
  20. 前記取得部には見えない体の反対側に、体の厚さ分を考慮してアイコンを配置し、見えていたときの操作位置の形状により予測した操作位置とする請求項1乃至請求項19のいずれか1項に記載のアイコン操作装置。
  21. 前記表示部には、手の各部位を表示して、該各部位に重畳してアイコンを配列表示する請求項6記載のアイコン操作装置。
  22. 前記表示部には、体の各部位をアイコンとして表示し、リストを選択する請求項1乃至請求項21のいずれか1項に記載のアイコン操作装置。
JP2013034486A 2012-09-06 2013-02-25 アイコン操作装置 Active JP6116934B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013034486A JP6116934B2 (ja) 2012-09-06 2013-02-25 アイコン操作装置
US13/928,836 US20140068476A1 (en) 2012-09-06 2013-06-27 Icon operating device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012196286 2012-09-06
JP2012196286 2012-09-06
JP2013034486A JP6116934B2 (ja) 2012-09-06 2013-02-25 アイコン操作装置

Publications (2)

Publication Number Publication Date
JP2014067388A true JP2014067388A (ja) 2014-04-17
JP6116934B2 JP6116934B2 (ja) 2017-04-19

Family

ID=50189275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013034486A Active JP6116934B2 (ja) 2012-09-06 2013-02-25 アイコン操作装置

Country Status (2)

Country Link
US (1) US20140068476A1 (ja)
JP (1) JP6116934B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
WO2016017101A1 (ja) * 2014-07-30 2016-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR20160051384A (ko) * 2014-11-03 2016-05-11 삼성전자주식회사 웨어러블 디바이스 및 그 제어 방법
WO2017163647A1 (ja) * 2016-03-23 2017-09-28 株式会社ソニー・インタラクティブエンタテインメント 頭部装着装置
KR20170109388A (ko) * 2016-03-21 2017-09-29 현대자동차주식회사 차량의 디스플레이 제어 장치 및 방법
WO2018074055A1 (ja) * 2016-10-19 2018-04-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2018146922A1 (ja) * 2017-02-13 2018-08-16 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018190395A (ja) * 2018-04-02 2018-11-29 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018190335A (ja) * 2017-05-11 2018-11-29 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
WO2020170581A1 (ja) * 2019-02-18 2020-08-27 株式会社Nttドコモ 入力制御システム
WO2021001894A1 (ja) * 2019-07-01 2021-01-07 三菱電機株式会社 表示制御装置及び表示制御方法
JP2021099721A (ja) * 2019-12-23 2021-07-01 トヨタ紡織株式会社 車両用入力装置
JP2022183213A (ja) * 2019-05-22 2022-12-08 マクセル株式会社 ヘッドマウントディスプレイ

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD731549S1 (en) * 2013-01-04 2015-06-09 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
US20150067603A1 (en) * 2013-09-05 2015-03-05 Kabushiki Kaisha Toshiba Display control device
US10013083B2 (en) 2014-04-28 2018-07-03 Qualcomm Incorporated Utilizing real world objects for user input
US10698565B2 (en) * 2016-12-06 2020-06-30 The Directv Group, Inc. Context-based icon for control via a touch sensitive interface
US10936163B2 (en) 2018-07-17 2021-03-02 Methodical Mind, Llc. Graphical user interface system
USD1026009S1 (en) * 2021-11-17 2024-05-07 Express Scripts Strategic Development, Inc. Display screen with an icon

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2001312356A (ja) * 2000-04-28 2001-11-09 Tomohiro Kuroda 身体を利用する画像入力インタフェースを備えた一体型装着型計算機
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース
JP2007253648A (ja) * 2006-03-20 2007-10-04 Toyota Motor Corp 入力支援システムおよびそのシステムを構成する車載端末装置
JP2009159568A (ja) * 2007-12-28 2009-07-16 Omron Corp 異常検出装置および方法、並びに、プログラム
JP2009210239A (ja) * 2008-03-06 2009-09-17 Tdk Corp 焼成炉
JP2010102607A (ja) * 2008-10-27 2010-05-06 Sharp Corp 携帯情報端末
JP2011227663A (ja) * 2010-04-19 2011-11-10 Denso Corp 運転補助装置、及びプログラム
US20110306420A1 (en) * 2010-06-11 2011-12-15 Namco Bandai Games Inc. Image generation system, image generation method, and information storage medium
JP2011258158A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP2012098873A (ja) * 2010-11-01 2012-05-24 Clarion Co Ltd 車載機器、及び、車載機器の制御方法
JP2012126357A (ja) * 2010-12-17 2012-07-05 Denso Corp 車内状況表示装置
JP2012159981A (ja) * 2011-01-31 2012-08-23 Canon Inc 表示制御装置及びその制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120204133A1 (en) * 2009-01-13 2012-08-09 Primesense Ltd. Gesture-Based User Interface
US8994672B2 (en) * 2012-04-09 2015-03-31 Sony Corporation Content transfer via skin input

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2001312356A (ja) * 2000-04-28 2001-11-09 Tomohiro Kuroda 身体を利用する画像入力インタフェースを備えた一体型装着型計算機
JP2005178473A (ja) * 2003-12-17 2005-07-07 Denso Corp 車載機器用インターフェース
JP2007253648A (ja) * 2006-03-20 2007-10-04 Toyota Motor Corp 入力支援システムおよびそのシステムを構成する車載端末装置
JP2009159568A (ja) * 2007-12-28 2009-07-16 Omron Corp 異常検出装置および方法、並びに、プログラム
JP2009210239A (ja) * 2008-03-06 2009-09-17 Tdk Corp 焼成炉
JP2010102607A (ja) * 2008-10-27 2010-05-06 Sharp Corp 携帯情報端末
JP2011227663A (ja) * 2010-04-19 2011-11-10 Denso Corp 運転補助装置、及びプログラム
US20110306420A1 (en) * 2010-06-11 2011-12-15 Namco Bandai Games Inc. Image generation system, image generation method, and information storage medium
JP2011258158A (ja) * 2010-06-11 2011-12-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP2012098873A (ja) * 2010-11-01 2012-05-24 Clarion Co Ltd 車載機器、及び、車載機器の制御方法
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP2012126357A (ja) * 2010-12-17 2012-07-05 Denso Corp 車内状況表示装置
JP2012159981A (ja) * 2011-01-31 2012-08-23 Canon Inc 表示制御装置及びその制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐々木 博史 HIROSHI SASAKI: "てのひらだいやる:Wearable Computer用入力インタフェース Dial-Menu System:An Input", 電子情報通信学会技術研究報告 VOL.100 NO.565 IEICE TECHNICAL REPORT, vol. 第100巻第565号, JPN6016040482, 11 January 2001 (2001-01-11), JP, pages 77 - 84, ISSN: 0003425027 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015232783A (ja) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
WO2016017101A1 (ja) * 2014-07-30 2016-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2016017101A1 (ja) * 2014-07-30 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10346992B2 (en) 2014-07-30 2019-07-09 Sony Corporation Information processing apparatus, information processing method, and program
US10209513B2 (en) 2014-11-03 2019-02-19 Samsung Electronics Co., Ltd. Wearable device and control method thereof
KR20160051384A (ko) * 2014-11-03 2016-05-11 삼성전자주식회사 웨어러블 디바이스 및 그 제어 방법
KR102029756B1 (ko) * 2014-11-03 2019-10-08 삼성전자주식회사 웨어러블 디바이스 및 그 제어 방법
KR20170109388A (ko) * 2016-03-21 2017-09-29 현대자동차주식회사 차량의 디스플레이 제어 장치 및 방법
KR102440574B1 (ko) 2016-03-21 2022-09-05 현대자동차 주식회사 차량의 디스플레이 제어 장치 및 방법
WO2017163647A1 (ja) * 2016-03-23 2017-09-28 株式会社ソニー・インタラクティブエンタテインメント 頭部装着装置
US10620436B2 (en) 2016-03-23 2020-04-14 Sony Interactive Entertainment Inc. Head-mounted apparatus
WO2018074055A1 (ja) * 2016-10-19 2018-04-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2018146922A1 (ja) * 2017-02-13 2019-11-21 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018146922A1 (ja) * 2017-02-13 2018-08-16 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018190335A (ja) * 2017-05-11 2018-11-29 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018190395A (ja) * 2018-04-02 2018-11-29 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
WO2020170581A1 (ja) * 2019-02-18 2020-08-27 株式会社Nttドコモ 入力制御システム
JP2022183213A (ja) * 2019-05-22 2022-12-08 マクセル株式会社 ヘッドマウントディスプレイ
JP7499819B2 (ja) 2019-05-22 2024-06-14 マクセル株式会社 ヘッドマウントディスプレイ
WO2021001894A1 (ja) * 2019-07-01 2021-01-07 三菱電機株式会社 表示制御装置及び表示制御方法
JP2021099721A (ja) * 2019-12-23 2021-07-01 トヨタ紡織株式会社 車両用入力装置

Also Published As

Publication number Publication date
JP6116934B2 (ja) 2017-04-19
US20140068476A1 (en) 2014-03-06

Similar Documents

Publication Publication Date Title
JP6116934B2 (ja) アイコン操作装置
US11875013B2 (en) Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
JP6702489B2 (ja) ヘッドマウントディスプレイ、情報処理方法、及びプログラム
US20220084279A1 (en) Methods for manipulating objects in an environment
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US9910506B2 (en) Method for interacting with an object displayed on data eyeglasses
KR101522991B1 (ko) 조작입력장치 및 방법, 그리고 프로그램
US11853527B2 (en) Devices, methods, and graphical user interfaces for providing computer-generated experiences
US7834893B2 (en) Mixed-reality presentation system and control method therefor
JP5515067B2 (ja) 操作入力装置および操作判定方法並びにプログラム
TWI525477B (zh) 接收用戶輸入的系統與方法,及其程式儲存媒體
US20220317776A1 (en) Methods for manipulating objects in an environment
KR20160080109A (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
JP2018180840A (ja) ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システム
JP2012068854A (ja) 操作入力装置および操作判定方法並びにプログラム
JP2021528786A (ja) 視線に基づく拡張現実環境のためのインターフェース
JP5766957B2 (ja) ジェスチャ入力装置
US20130283214A1 (en) Apparatus and method for providing user interface for recognizing gesture
CN107179876B (zh) 基于虚拟现实***的人机交互装置
US20230106627A1 (en) Devices, Methods, And Graphical User Interfaces for Interacting with Three-Dimensional Environments
KR101708455B1 (ko) 핸드 플로트 입체 메뉴 시스템
US20230259265A1 (en) Devices, methods, and graphical user interfaces for navigating and inputting or revising content
Lee et al. Stereoscopic Viewing and Monoscopic Touching: Selecting Distant Objects in VR Through a Mobile Device
US20240152256A1 (en) Devices, Methods, and Graphical User Interfaces for Tabbed Browsing in Three-Dimensional Environments
WO2023095519A1 (ja) 表示制御装置、表示制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170322

R150 Certificate of patent or registration of utility model

Ref document number: 6116934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250