JP5743416B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP5743416B2
JP5743416B2 JP2010076301A JP2010076301A JP5743416B2 JP 5743416 B2 JP5743416 B2 JP 5743416B2 JP 2010076301 A JP2010076301 A JP 2010076301A JP 2010076301 A JP2010076301 A JP 2010076301A JP 5743416 B2 JP5743416 B2 JP 5743416B2
Authority
JP
Japan
Prior art keywords
image
user
finger
target device
operation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010076301A
Other languages
English (en)
Other versions
JP2011209965A5 (ja
JP2011209965A (ja
Inventor
松田 晃一
晃一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010076301A priority Critical patent/JP5743416B2/ja
Priority to EP11153634.8A priority patent/EP2372495B1/en
Priority to US13/049,445 priority patent/US9058057B2/en
Priority to CN201110074093.9A priority patent/CN102207819B/zh
Priority to KR1020110025181A priority patent/KR20110109883A/ko
Publication of JP2011209965A publication Critical patent/JP2011209965A/ja
Publication of JP2011209965A5 publication Critical patent/JP2011209965A5/ja
Priority to US14/708,680 priority patent/US9891715B2/en
Application granted granted Critical
Publication of JP5743416B2 publication Critical patent/JP5743416B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00381Input by recognition or interpretation of visible user gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Selective Calling Equipment (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、操作対象の機器をより簡単に遠隔から操作することができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
家電製品などの機器を操作しようとする場合、その機器の本体に設けられるスイッチを押したり、操作しようとする機器が照明器具であるときには壁にあるスイッチを押したりすることが通常行われる。また、機器が遠隔にあるときには、リモートコントローラを使って操作することが行われる。
特許文献1には、メガネ型ビューワーに操作メニューを表示させ、操作メニューに対するユーザの操作を検出して、機器を遠隔操作する技術が開示されている。
特開平6−153016号公報
スイッチを押して操作する場合、操作者は、スイッチを押すことができる場所に移動して操作する必要がある。また、操作しようとする機器毎に、操作者はスイッチの場所を覚える必要がある。
リモートコントローラを使って操作する場合、位置を移動する必要はないが、操作者は、リモートコントローラを探して手にとり、そのあと、スイッチ(ボタン)を探して押す必要がある。また、リモートコントローラの形状も変わることから、操作しようとする機器毎に、操作者はリモートコントローラ上のスイッチの場所を覚える必要がある。
本発明はこのような状況に鑑みてなされたものであり、操作対象の機器をより簡単に遠隔から操作することができるようにするものである。
本発明の一側面の情報処理装置は、操作対象機器の外観の特徴を表すデータと、前記操作対象機器の操作に用いられる操作画像のデータを記憶する記憶手段と、ユーザの視線を含む範囲が撮影範囲となる位置に取り付けられたカメラにより撮影された画像を取得する取得手段と、前記画像に含まれる複数の物体を、前記記憶手段に記憶されている前記特徴量のデータに基づいて認識する認識手段と、前記画像に含まれる複数の物体がそれぞれ前記操作対象機器であると前記認識手段により認識された場合、前記記憶手段に記憶されている前記操作画像のデータに基づいて、前記操作対象機器の数と同じ数の前記操作画像を、近くにある前記操作対象機器の操作に用いられる前記操作画像を遠くにある前記操作対象機器の操作に用いられる前記操作画像より大きく表示させるように、それぞれの前記操作対象機器と前記ユーザの距離に応じた大きさでディスプレイに同時に表示させる表示制御手段と、前記カメラにより撮影された前記画像に含まれる前記ユーザの指の前記画像上の位置と、前記ユーザの指の前記画像上の大きさを認識する指認識手段と、前記指認識手段により認識された前記ユーザの指が、前記ディスプレイに表示された前記操作画像の位置に対応する位置にあり、その位置で、前記ユーザの指の大きさが、直前の大きさより小さくなったタイミングで、前記操作画像を用いた操作を指示するコマンドを前記操作対象機器に送信する制御手段とを備える。
前記表示制御手段には、前記画像に含まれる複数の前記操作対象機器の、それぞれの前記画像上の位置に対応する前記ディスプレイの位置に、前記操作画像を表示させることができる。
前記操作画像の表示に関する設定の内容を表す設定情報を記憶する設定情報記憶手段をさらに設けることができる。この場合、前記表示制御手段には、前記設定情報の内容に従って前記操作画像の表示を制御させることができる。
本発明の一側面の情報処理方法は、操作対象機器の外観の特徴を表すデータと、前記操作対象機器の操作に用いられる操作画像のデータを記憶し、ユーザの視線を含む範囲が撮影範囲となる位置に取り付けられたカメラにより撮影された画像を取得し、前記画像に含まれる複数の物体を、記憶している前記特徴量のデータに基づいて認識し、前記画像に含まれる複数の物体がそれぞれ前記操作対象機器であると認識した場合、記憶している前記操作画像のデータに基づいて、前記操作対象機器の数と同じ数の前記操作画像を、近くにある前記操作対象機器の操作に用いられる前記操作画像を遠くにある前記操作対象機器の操作に用いられる前記操作画像より大きく表示させるように、それぞれの前記操作対象機器と前記ユーザの距離に応じた大きさでディスプレイに同時に表示させ、前記カメラにより撮影された前記画像に含まれる前記ユーザの指の前記画像上の位置と、前記ユーザの指の前記画像上の大きさを認識し、認識した前記ユーザの指が、前記ディスプレイに表示された前記操作画像の位置に対応する位置にあり、その位置で、前記ユーザの指の大きさが、直前の大きさより小さくなったタイミングで、前記操作画像を用いた操作を指示するコマンドを前記操作対象機器に送信するステップを含む。
本発明の一側面のプログラムは、操作対象機器の外観の特徴を表すデータと、前記操作対象機器の操作に用いられる操作画像のデータを記憶し、ユーザの視線を含む範囲が撮影範囲となる位置に取り付けられたカメラにより撮影された画像を取得し、前記画像に含まれる複数の物体を、記憶している前記特徴量のデータに基づいて認識し、前記画像に含まれる複数の物体がそれぞれ前記操作対象機器であると認識した場合、記憶している前記操作画像のデータに基づいて、前記操作対象機器の数と同じ数の前記操作画像を、近くにある前記操作対象機器の操作に用いられる前記操作画像を遠くにある前記操作対象機器の操作に用いられる前記操作画像より大きく表示させるように、それぞれの前記操作対象機器と前記ユーザの距離に応じた大きさでディスプレイに同時に表示させ、前記カメラにより撮影された前記画像に含まれる前記ユーザの指の前記画像上の位置と、前記ユーザの指の前記画像上の大きさを認識し、認識した前記ユーザの指が、前記ディスプレイに表示された前記操作画像の位置に対応する位置にあり、その位置で、前記ユーザの指の大きさが、直前の大きさより小さくなったタイミングで、前記操作画像を用いた操作を指示するコマンドを前記操作対象機器に送信するステップを含む処理をコンピュータに実行させる。
本発明の一側面においては、操作対象機器の外観の特徴を表すデータと、前記操作対象機器の操作に用いられる操作画像のデータが記憶され、ユーザの視線を含む範囲が撮影範囲となる位置に取り付けられたカメラにより撮影された画像が取得され、前記画像に含まれる複数の物体が、記憶されている前記特徴量のデータに基づいて認識される。また、前記画像に含まれる複数の物体がそれぞれ前記操作対象機器であると認識された場合、記憶されている前記操作画像のデータに基づいて、前記操作対象機器の数と同じ数の前記操作画像が、近くにある前記操作対象機器の操作に用いられる前記操作画像が遠くにある前記操作対象機器の操作に用いられる前記操作画像より大きく表示されるように、それぞれの前記操作対象機器と前記ユーザの距離に応じた大きさでディスプレイに同時に表示される。前記カメラにより撮影された前記画像に含まれる前記ユーザの指の前記画像上の位置と、前記ユーザの指の前記画像上の大きさが認識され、認識された前記ユーザの指が、前記ディスプレイに表示された前記操作画像の位置に対応する位置にあり、その位置で、前記ユーザの指の大きさが、直前の大きさより小さくなったタイミングで、前記操作画像を用いた操作を指示するコマンドが前記操作対象機器に送信される。
本発明によれば、ユーザは、操作対象の機器をより簡単に遠隔から操作することができる。
本発明の一実施形態に係る情報処理装置を用いたMRシステムの外観例を示す図である。 HMDを装着したユーザの見え方の例を示す図である。 ボタン操作時のユーザの見え方の例を示す図である。 操作画像の表示の例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。 情報処理装置の機能構成例を示すブロック図である。 物体の認識について説明する図である。 情報処理装置の操作画像表示処理について説明するフローチャートである。 操作画像の表示位置について説明する図である。 情報処理装置の制御処理について説明するフローチャートである。 情報処理装置の制御処理について説明する、図10に続くフローチャートである。 指のサイズの変化の例を示す図である。 操作対象機器の処理について説明するフローチャートである。 情報処理装置の他の機能構成例を示すブロック図である。 操作画像の表示の例を示す図である。 操作画像の他の表示の例を示す図である。 他のHMDの外観の例を示す図である。 携帯端末の外観の例を示す図である。 携帯端末の他の外観の例を示す図である。
<第1の実施の形態>
[MR(Mixed Reality)システム]
図1は、本発明の一実施形態に係る情報処理装置を用いたMRシステムの外観例を示す図である。
図1に示すように、ユーザUは、携帯型のコンピュータである情報処理装置1を携帯している。また、ユーザUは、ヘッドマウントディスプレイ(HMD(Head Mounted Display))2を装着している。情報処理装置1とHMD2は、有線または無線で通信を行うことが可能になっている。
HMD2には、カメラ11とディスプレイ12が設けられる。
カメラ11は、HMD2を装着したユーザUの前方を撮影可能な位置に取り付けられる。カメラ11の撮影範囲にはユーザUの視線が含まれる。カメラ11により撮影された画像は情報処理装置1に送信される。所定のフレームレートで画像(動画)の撮影がカメラ11により続けられることにより、情報処理装置1には、ユーザUが見ている風景の画像が提供されることになる。
ディスプレイ12は、HMD2を装着したユーザUの目の前方に取り付けられる。ディスプレイ12は透過性のある部材により構成され、情報処理装置1から送信されてきたデータに基づいて画像などを表示する。ユーザUは、風景をディスプレイ12越しに見ることもできるし、ディスプレイ12に表示された画像を見ることもできる。
例えばユーザUが携帯する情報処理装置1においては、カメラ11により撮影された画像に基づいて、ユーザUが見ている物体が何であるのかが物体認識により認識される。情報処理装置1には、ユーザUが見ている物体を認識するための、物体の認識用のデータが記憶されている。認識用のデータには、操作対象機器21の外観の画像から抽出された、操作対象機器21の外観の特徴を表すデータも含まれている。
すなわち、カメラ11により撮影された画像にはユーザUの視線が含まれるから、カメラ11により撮影された画像に含まれる物体をユーザUが見ている物体と仮定して認識が行われることになる。
また、情報処理装置1においては、ユーザUが操作対象機器21を見ていることが検出された場合、操作対象機器21のGUI(Graphical User Interface)データに基づいて、ボタンなどの操作画像がディスプレイ12に表示される。情報処理装置1には、操作対象機器21を含む各種の機器と関連付けて、機器の操作に用いられる操作画像を表示するためのGUIデータが記憶されている。
図2は、HMD2を装着したユーザUの見え方の例を示す図である。
図2の例においては、ユーザUの視界の範囲を枠で囲んで示しているが、実際には、図に示す範囲より広い範囲の風景をユーザUは見ている。
図2の左端に示すように、操作対象機器21は、ユーザUの位置から少し離れたテーブルの上に置かれている。操作対象機器21を見た直後はディスプレイ12には何も表示されていないから、ユーザUは、前方の風景だけをディスプレイ12越しに見ることになる。図2の左端に示すような風景がカメラ11により撮影される。
カメラ11により撮影された画像に基づいて、ユーザUが操作対象機器21を見ていることが検出された場合、操作対象機器21の操作に用いられる操作画像がディスプレイ12に表示される。操作画像がディスプレイ12に表示されたときのユーザUの見え方を白抜き矢印#1の先に示す。
図2の例においては、操作画像Gは、電源オンを指示するときに操作されるオンボタンと電源オフを指示するときに操作されるオフボタンを含む画像とされている。オンボタンの画像とオフボタンの画像はそれぞれ同じ色で表示されている。
操作画像Gは所定の透明度を有するようにディスプレイ12に表示される。目の位置を基準とするとディスプレイ12の表示面は操作対象機器21の位置より近い位置にあるから、ユーザUの見え方としては、図2の中央に示すように、操作対象機器21より手前にボタンがあるように見えることになる。操作画像Gのディスプレイ12上の表示位置は、操作対象機器21に重ねて見えるような位置とされる。
この状態で操作対象機器21を見ながらユーザUが場所を移動した場合、操作画像Gは、ユーザUに正対したまま画像の形状と向きを変えることなく、ユーザUの見え方の変化に追従し、操作対象機器21に重ねて見え続けるように位置を変えて表示される。操作対象機器21を異なる角度から見た場合のユーザUの見え方を白抜き矢印#2の先に示す。
ユーザUは、このようにしてディスプレイ12に表示された操作画像Gのボタンを仮想的に押すことによって、操作対象機器21を操作することができる。
図3は、ボタン操作時のユーザUの見え方の例を示す図である。
情報処理装置1は、ユーザUの指を認識する機能を有している。例えば、図3の左側に示すように、操作画像Gのオンボタンに指を載せ、押し込むような動作がユーザUにより行われた場合、情報処理装置1においてはオンボタンが押されたものとして判定される。情報処理装置1においては、矢印#11の先に示すように、オンボタンの色が変わるように操作画像Gの表示が制御される。図3の右側に示す操作画像Gのうちのオンボタンの部分に斜線を付していることは、その部分の色が変わっていることを表す。
なお、目の位置を基準とするとディスプレイ12の表示面はユーザUの指の位置より近い位置にあるから、実際には、ボタンの上にユーザUの指が載せられることはない。
後述するように、情報処理装置1においては、カメラ11により撮影された画像上の指の位置が、ディスプレイ12上で、ボタンの表示位置に対応する位置にあるときに、ボタンの上にユーザUの指が載せられているものとして判定される。また、その状態で、カメラ11により撮影された画像上の指の大きさが小さくなったとき、ボタンを押す動作が行われたものとして判定される。
ボタンを押す動作が行われたものとして判定された場合、情報処理装置1から操作対象機器21に対して、ボタンに割り当てられている処理を指示するコマンドが無線通信によって送信される。コマンドを受信した操作対象機器21においては、コマンドに応じた処理が行われる。
これにより、ユーザUは、離れた位置にある機器を操作する場合であっても、機器を見るだけで、機器を操作するためのボタンを表示させることができる。また、ユーザUは、表示されたボタンを用いて機器を操作することができる。すなわち、ユーザUは、機器を操作するためのスイッチを探したり、リモートコントローラを手に取ったりすることなく機器を容易に操作することができる。
物体認識に用いる認識用のデータとGUIデータが用意されていれば、どのような機器であっても操作することが可能である。
図4は、図1の操作対象機器21とは異なる機器である、部屋の天井に埋め込まれている照明機器の操作に用いられる操作画像の表示の例を示す図である。
図4の左側に示す照明機器22−1乃至22−3の認識用のデータとGUIデータが情報処理装置1に用意されている場合について説明する。照明機器22−1乃至22−3は製品番号などが同じ機器である。操作対象機器が同じ種類の機器である場合、認識用のデータとGUIデータは1組だけ用意されていればよい。
カメラ11により撮影された画像に基づいて、ユーザUが照明機器22−1乃至22−3を見ていると認識された場合、矢印#21の先に示すように、照明機器22−1乃至22−3に重ねて見えるように、操作画像G1乃至G3が表示される。
操作画像の大きさが、操作対象機器とユーザUの距離に応じて変わるようにしてもよい。図4の例においては、照明機器22−1の操作に用いられる操作画像G1が、照明機器22−1より遠くにある照明機器22−2の操作に用いられる操作画像G2、および、照明機器22−3の操作に用いられる操作画像G3より大きく表示されている。
ユーザUは、操作画像G1のボタンを仮想的に押す動作を行うことによって照明機器22−1を操作することができ、操作画像G2のボタンを仮想的に押す動作を行うことによって照明機器22−2を操作することができる。また、ユーザUは、操作画像G3のボタンを仮想的に押す動作を行うことによって照明機器22−3を操作することができる。
以上のようにして操作画像を表示し、操作対象機器を制御する情報処理装置1の一連の処理については後述する。
[情報処理装置の構成]
図5は、情報処理装置1のハードウェア構成例を示すブロック図である。
CPU(Central Processing Unit)31、ROM(Read Only Memory)32、RAM(Random Access Memory)33は、バス34により相互に接続されている。
バス34には、さらに、入出力インタフェース35が接続されている。入出力インタフェース35には、入力部36、出力部37、記憶部38、通信部39、およびドライブ40が接続される。
入力部36は、HMD2と通信を行い、HMD2のカメラ11により撮影された画像を受信する。
出力部37は、表示データをHMD2に送信し、操作画像をディスプレイ12に表示させる。
記憶部38は、ハードディスクや不揮発性のメモリなどよりなり、操作対象機器の認識用のデータやGUIデータを記憶する。
通信部39は、無線LAN(Local Area Network)モジュールなどのネットワークインタフェースなどよりなり、ネットワークを介して接続されるサーバと通信を行う。記憶部38に記憶されている操作対象機器の認識用のデータやGUIデータは、例えばサーバからダウンロードされることによって情報処理装置1に提供される。
ドライブ40は、装着されたリムーバブルメディア41に記憶されているデータを読み出したり、リムーバブルメディア41にデータを書き込んだりする。
図6は、情報処理装置1の機能構成例を示すブロック図である。
情報処理装置1においては、画像取得部51、認識部52、表示制御部53、モデルデータ記憶部54、GUIデータ記憶部55、通信制御部56、指認識部57、指データ記憶部58、機器制御部59、および機器情報記憶部60が実現される。
図6に示す構成のうちの少なくとも一部は、図5のCPU31により所定のプログラムが実行されることによって実現される。モデルデータ記憶部54、GUIデータ記憶部55、指データ記憶部58、および機器情報記憶部60は例えば記憶部38に形成される。
画像取得部51は、入力部36において受信された、カメラ11により撮影された画像を取得する。画像取得部51は、取得した画像を認識部52と指認識部57に出力する。
認識部52は、画像取得部51から供給された画像をクエリ画像として、クエリ画像に含まれる物体を、モデルデータ記憶部54に記憶されているモデルデータに基づいて認識する。モデルデータ記憶部54には、操作対象機器の外観を含む画像から抽出された、操作対象機器の特徴を表すデータが記憶されている。認識部52による物体認識については後述する。
認識部52は、例えば、認識した物体(操作対象機器)のIDと、認識した物体とカメラ11(ユーザU)の相対的な位置関係を表す姿勢情報とを認識結果として表示制御部53に出力する。姿勢情報により、例えば認識された操作対象機器の位置を基準として、ユーザUの位置までの距離、ユーザUのいる方向が特定される。操作対象機器のIDは機器制御部59にも供給される。
表示制御部53は、認識部52から供給されたIDに関連付けられているGUIデータをGUIデータ記憶部55から読み出す。また、表示制御部53は、GUIデータを、図5の出力部37を制御してHMD2に送信し、操作画像をディスプレイ12に表示させる。GUIデータ記憶部55には、操作対象機器のIDとGUIデータが関連付けて記憶されている。表示制御部53から出力されたGUIデータは指認識部57にも供給される。
また、表示制御部53は、ディスプレイ12に表示されているボタンが押されたことに応じてボタンIDが指認識部57から供給された場合、押されたボタンの色を変えるなどして操作画像の表示を制御する。
通信制御部56は、通信部39を制御してサーバ71と通信を行い、操作対象機器の認識用のデータであるモデルデータと、操作対象機器のGUIデータをダウンロードする。サーバ71は、例えば、操作対象機器を製造、販売するメーカが管理するサーバであり、モデルデータとGUIデータのデータベースを有している。通信制御部56は、ダウンロードしたモデルデータをモデルデータ記憶部54に記憶させ、GUIデータをGUIデータ記憶部55に記憶させる。
指認識部57は、指データ記憶部58に記憶されているデータに基づいて、画像取得部51から供給された画像に含まれるユーザUの指の位置と大きさを認識する。指データ記憶部58には、指の色や輪郭などの情報が、指の認識用のデータとして記憶されている。
指認識部57は、認識したユーザUの指の位置と大きさに基づいて、ディスプレイ12に表示されているボタンが押されたと判定した場合、押されたボタンの識別情報であるボタンIDを表示制御部53と機器制御部59に出力する。操作画像として表示されるボタンにはそれぞれIDが割り当てられており、各ボタンのディスプレイ12上の表示位置は、表示制御部53から供給されたGUIデータにより特定される。
機器制御部59は、指認識部57からボタンIDが供給された場合、押されたボタンに割り当てられている処理を指示するコマンドを機器情報記憶部60から読み出す。機器情報記憶部60には、操作対象機器のIDと対応付けて、コマンドやネットワークアドレスなどの、操作対象機器に関する情報が記憶されている。
機器制御部59は、例えば通信部39を制御して操作対象機器21と通信を行い、機器情報記憶部60から読み出したコマンドを操作対象機器21に送信する。
図6に示すように、操作対象機器21においては通信制御部81と制御部82が実現される。
通信制御部81は、情報処理装置1から送信されてきたコマンドを受信し、制御部82に出力する。
制御部82は、通信制御部81から供給されたコマンドに従って、操作対象機器21の各部を制御し、コマンドによって指示された処理を行う。
図7は、物体(操作対象機器)の認識について説明する図である。
認識部52による物体認識のアルゴリズムとしては、例えば、RandomizedFernやSIFT(Scale Invariant Feature Transform)がある。RandomizedFernについては、”Fast Keypoint Recognition using Random Ferns Mustafa Ozuysal, Michael Calonder, Vincent Lepetit and Pascal FuaEcole Polytechnique Federale de Lausanne (EPFL) Computer Vision Laboratory, &C Faculty CH-1015 Lausanne, Switzerland”に開示されている。SIFTについては、” Distinctive Image Features from Scale-Invariant Keypoints David G. Lowe January 5, 2004”に開示されている。
図7に示すように、学習装置であるサーバ71においては、画像処理部91、特徴点検出部92、特徴量抽出部93、および合成部94が実現される。図7に示す各構成は、サーバ71のCPUにより所定のプログラムが実行されることによって実現される。サーバ71も図5に示すようなコンピュータにより構成される。
画像処理部91は、モデル画像にアフィン変換などの処理を施し、処理を施すことによって得られたモデル画像を特徴点検出部92に出力する。画像処理部91に対しては、それぞれの操作対象機器の外観の画像が、モデル画像として順次入力される。モデル画像は特徴量抽出部93にも入力される。
特徴点検出部92は、画像処理部91から供給されたモデル画像上の各点をモデル特徴点として決定し、モデル特徴点の位置を表す情報を特徴量抽出部93に出力する。
特徴量抽出部93は、モデル画像を構成する画素のうち、モデル特徴点の位置に対応する画素の情報をモデル特徴量として抽出する。特徴量抽出部93により抽出されたモデル特徴量のデータは、特徴量の抽出元になったモデル画像に含まれる操作対象機器のIDと対応付けてモデル辞書D1に登録される。モデル辞書D1は、操作対象機器のIDと、操作対象機器を含む画像から抽出された各モデル特徴点のモデル特徴量のデータとを対応付けたデータとして構成される。
また、特徴量抽出部93は、抽出したモデル特徴量のデータを合成部94に出力する。
合成部94は、入力された3Dモデルデータと、特徴量抽出部93から供給されたモデル特徴量のデータを合成する。合成部94に対しては、操作対象機器のそれぞれの三次元形状を表すデータが3Dモデルデータとして入力される。
例えば、合成部94は、3Dモデルデータに基づいて、操作対象機器を様々な角度から見たときのそれぞれのモデル特徴点の3Dモデル上の位置を計算する。合成部94は、計算したそれぞれのモデル特徴点の位置にモデル特徴量のデータを割り当てることによって、3Dモデルデータとモデル特徴量のデータを合成し、3DモデルデータD2を生成する。
モデル辞書D1と、合成部94により生成された3DモデルデータD2は情報処理装置1に提供され、モデルデータ記憶部54に記憶される。
図7に示すように、認識部52は、画像処理部101、特徴点検出部102、特徴量抽出部103、マッチング部104、および姿勢推定部105から構成される。画像処理部101に対しては、カメラ11により撮影され、画像取得部51により取得された画像がクエリ画像として入力される。クエリ画像は特徴量抽出部103にも供給される。
画像処理部101は、画像処理部91と同様にして、クエリ画像にアフィン変換などの処理を施し、処理を施すことによって得られたクエリ画像を特徴点検出部102に出力する。
特徴点検出部102は、画像処理部101から供給されたクエリ画像上の各点をクエリ特徴点として決定し、クエリ特徴点の位置を表す情報を特徴量抽出部103に出力する。
特徴量抽出部103は、クエリ画像を構成する画素のうち、クエリ特徴点の位置に対応する画素の情報をクエリ特徴量として抽出し、抽出したクエリ特徴量のデータをマッチング部104に出力する。
マッチング部104は、モデル辞書D1に含まれる特徴量のデータに基づいてK-NNなどの最近傍探索を行い、それぞれのクエリ特徴点の最近傍となるモデル特徴点を決定する。マッチング部104は、クエリ特徴点の最近傍となるモデル特徴点の数に基づいて、例えば最近傍となるモデル特徴点が最も多い操作対象機器を選択する。マッチング部104は、選択した操作対象機器のIDを認識結果として出力する。
マッチング部104から出力された操作対象機器のIDは、図6の表示制御部53と機器制御部59に供給されるとともに、姿勢推定部105に供給される。姿勢推定部105に対しては、各クエリ特徴点の位置を表す情報なども供給される。
姿勢推定部105は、マッチング部104により認識された操作対象機器の3DモデルデータD2をモデルデータ記憶部54から読み出し、3DモデルデータD2に基づいて、それぞれのクエリ特徴点の最近傍であるモデル特徴点の3Dモデル上の位置を特定する。また、姿勢推定部105は、操作対象機器とユーザUの位置関係を表す姿勢情報を出力する。
カメラ11により撮影されたクエリ画像から検出されたクエリ特徴点の最近傍であるモデル特徴点の3Dモデル上の位置を特定することができれば、クエリ画像が操作対象機器をどの位置から撮影したものであるのか、すなわち、ユーザUがどの位置にいるのかを特定することが可能である。
また、画像に含まれる操作対象機器の大きさと距離が予め対応付けられていれば、カメラ11により撮影されたクエリ画像に含まれる操作対象機器の大きさから、操作対象機器の位置からユーザUの位置までの距離を特定することが可能である。
ユーザUが見ている操作対象機器と、操作対象機器とユーザUの相対的な位置関係は以上のようにして認識される。
3DモデルデータD2には、操作対象機器を様々な角度から見たときのそれぞれのモデル特徴点の情報が含まれる。3DモデルデータD2を用いて物体認識が行われるようにすることにより、操作対象機器をどの方向から撮影した画像であっても、その画像をクエリ画像として、画像に含まれる操作対象機器を特定することが可能になる。
なお、単眼のカメラにより撮影された画像だけでなく、ステレオカメラにより撮影された画像をクエリ画像として物体認識が行われるようにしてもよい。
[情報処理装置の動作]
ここで、図8のフローチャートを参照して、操作画像を表示する情報処理装置1の処理について説明する。図8の処理は、例えば、カメラ11により撮影が行われている間、繰り返し行われる。
ステップS1において、画像取得部51は、カメラ11により撮影された画像を取得する。
ステップS2において、認識部52は、画像取得部51により取得された画像を対象として物体認識を行う。
ステップS3において、カメラ11により撮影された画像に操作対象機器が含まれているか否か、すなわち、ユーザUが操作対象機器を見ているか否かを判定する。
ユーザUが操作対象機器を見ていないとステップS3において判定された場合、ステップS4において、表示制御部53は、操作画像をディスプレイ12に表示させているか否かを判定する。
操作画像をディスプレイ12に表示させているとステップS4において判定した場合、ステップS5において、表示制御部53は、操作画像の表示を停止する。操作画像の表示が停止された場合、またはステップS4において操作画像を表示させていないと判定された場合、ステップS1に戻り、それ以降の処理が行われる。
一方、ユーザUが操作対象機器を見ているとステップS3において判定された場合、ステップS6において、機器制御部59は、ユーザUが見ている操作対象機器のネットワークアドレスが取得されているか否かを判定する。ユーザUが操作対象機器を見ているとステップS3において判定された場合、認識部52から機器制御部59に対して操作対象機器のIDが供給される。機器制御部59においては機器情報記憶部60を対象として検索が行われ、操作対象機器のIDに対応付けて、ネットワークアドレスが記憶されているか否かが確認される。
操作対象機器のネットワークアドレスが取得されていないとステップS6において判定した場合、ステップS7において、機器制御部59は、通信部39を制御して図示せぬルータ機器に問い合わせるなどして操作対象機器のネットワークアドレスを取得する。機器制御部59は、取得したネットワークアドレスを操作対象機器のIDと対応付けて機器情報記憶部60に記憶させる。ネットワークアドレスは、操作対象機器にネットワーク経由でコマンドを送信するために用いられる。
機器情報記憶部60に既に記憶されていることから、ユーザUが見ている操作対象機器のネットワークアドレスが取得されているとステップS6において判定された場合、ステップS7の処理はスキップされる。
ステップS8において、表示制御部53は、ユーザUが見ている操作対象機器の操作画像をディスプレイ12に表示させているか否かを判定する。
操作対象機器の操作画像を表示させていないとステップS8において判定した場合、ステップS9において、表示制御部53は、操作対象機器のGUIデータをGUIデータ記憶部55から読み出し、操作画像をディスプレイ12に表示させる。ディスプレイ12には、カメラ11の位置と操作対象機器の姿勢に応じて正対して操作画像が表示される。
一方、操作対象機器の操作画像を表示させているとステップS8において判定した場合、ステップS10において、表示制御部53は、現在のカメラ11の位置と操作対象機器の姿勢に応じて、操作画像のディスプレイ12上の表示位置を変更する。
ステップS9において操作画像の表示が開始された場合、またはステップS10において操作画像の表示が変更された場合、ステップS1に戻り、それ以降の処理が繰り返される。
図9は、操作画像の表示位置について説明する図である。
図9の上段の画像はカメラ11により撮影された画像であり、操作対象機器21が含まれている。画像上の操作対象機器21の位置(例えば操作対象機器21の領域の中心位置)は位置p1で表される。
図9の中段はディスプレイ12の表示領域を示している。ディスプレイ12の表示領域を構成する各画素の位置は、カメラ11により撮影された画像の各画素の位置と対応付けられている。操作画像Gは、カメラ11により撮影された画像上の操作対象機器21の位置である位置p1に対応するディスプレイ12上の位置である位置p11と、操作画像Gの例えば中心位置が一致するように表示される。
これにより、図9の下段に示すように、ユーザUの見え方としては、操作対象機器21に重ねて操作画像Gが見えるようになる。
ユーザUが移動したことに応じて、カメラ11により撮影された画像上の操作対象機器21の位置や姿勢が移動した場合、操作画像Gの表示は、操作対象機器21の画像上の位置に対応するディスプレイ12上の位置と、例えば中心位置が一致し続けるようにして更新される。
次に、図10、図11のフローチャートを参照して、操作対象機器を制御する情報処理装置1の処理について説明する。図10、図11の処理は、例えば、操作画像がディスプレイ12に表示されている間、繰り返し行われる。
ステップS21において、指認識部57は、指データ記憶部58に記憶されているボタンIDと指サイズ情報をクリアするとともに、押し込みフラグにfalseを設定することによって初期化する。
ボタンIDは、操作画像としてディスプレイ12に表示されているボタンに割り当てられているIDである。例えば、ユーザUの指が載せられているボタンのボタンIDが指データ記憶部58に記憶される。
指サイズ情報は、カメラ11により撮影された画像に含まれる指の大きさを表す情報である。指の大きさは、例えば、カメラ11により撮影された画像に含まれる指の領域の画素数などにより表される。
押し込みフラグは、ボタンを指で押し込むような動作がユーザUにより行われているか否かを表すフラグである。押し込みフラグにtrueが設定されていることは、ボタンを指で押し込むような動作が行われていることを表し、falseに設定されていることは、ボタンを指で押し込むような動作が行われていないことを表す。
ステップS22において、画像取得部51は、カメラ11により撮影された画像を取得する。
ステップS23において、指認識部57は、画像取得部51から供給された画像に基づいてユーザUの指の位置を認識し、操作画像として表示されているボタンのうちのいずれかのボタンの上に指が載せられているか否かを判定する。
例えば、カメラ11により撮影された画像上の指の位置(例えば指の先端)に対応するディスプレイ12上の位置が、ディスプレイ12上のボタンの表示領域内の位置である場合、ボタンの上に指が載せられているとして判定される。
ボタンの上に指が載せられていないとステップS23において判定された場合、ステップS22に戻り、それ以降の処理が繰り返される。
一方、ボタンの上に指が載せられているとステップS23において判定された場合、ステップS24において、指認識部57は、指が載せられているボタンのボタンIDが、指データ記憶部58に記憶されているか否かを判定する。
指が載せられているボタンのボタンIDが指データ記憶部58に記憶されていないとステップS24において判定した場合、ステップS25において、指認識部57は、押し込みフラグにtrueが設定されているか否かを判定する。
押し込みフラグにtrueが設定されているとステップS25において判定された場合、ステップS21に戻り、それ以降の処理が繰り返される。押し込み動作を行った後に指を横にずらすような動作が行われることによって、指が載せられて直前に押し込み動作が行われたボタンと、いま指が載せられているボタンが異なる場合、押し込みフラグにtrueが設定されていると判定されることになる。
falseが設定されていることから、押し込みフラグにtrueが設定されていないとステップS25において判定した場合、ステップS26において、指認識部57は、指が載せられているボタンのボタンIDを指データ記憶部58に記憶させる。
指が載せられているボタンのボタンIDが指データ記憶部58に記憶されているとステップS24において判定された場合、ステップS25,S26の処理はスキップされる。
ステップS27において、指認識部57は、カメラ11により撮影された画像に含まれる指の領域の画素数などに基づいて指のサイズを計算する。
ステップS28において、指認識部57は、指サイズ情報が指データ記憶部58に記憶されているか否かを判定する。
指サイズ情報が指データ記憶部58に記憶されていないとステップS28において判定された場合、ステップS29において、ステップS27で計算したサイズを表す指サイズ情報を指データ記憶部58に記憶させる。その後、ステップS22に戻り、それ以降の処理が行われる。
一方、指サイズ情報が指データ記憶部58に記憶されているとステップS28において判定された場合、ステップS30において、指認識部57は、指データ記憶部58に記憶されている指サイズ情報により表されるサイズと、ステップS27で計算したサイズとの差を計算する。
指データ記憶部58に記憶されている指サイズ情報は、時間的に前にカメラ11により撮影された画像から計算された指のサイズを表す。また、ステップS27で計算したサイズは、時間的に後(現在)にカメラ11により撮影された画像から計算された指のサイズを表す。
従って、時間的に前の指のサイズと、時間的に後の指のサイズとの差が正であることは、図12Aに示すように、カメラ11により撮影された画像上で指のサイズが小さくなったこと、すなわち、押し込む動作がユーザUにより行われたことを表す。
また、時間的に前の指のサイズと、時間的に後の指のサイズとの差が負であることは、図12Bに示すように、カメラ11により撮影された画像上で指のサイズが大きくなったこと、すなわち、押し込んだ状態から戻す動作がユーザUにより行われたことを表す。以下、適宜、時間的に前の指のサイズと、時間的に後の指のサイズとの差を指サイズ差という。
図11の説明に戻り、ステップS31において、指認識部57は、ステップS30で計算した指サイズ差が正で、かつ、指サイズ差が閾値より大きいか否かを判定する。
指サイズ差が正で、かつ、指サイズ差が閾値より大きいとステップS31において判定された場合、ステップS32において、指認識部57は、押し込みフラグにtrueを設定する。閾値以上の量だけ押し込む動作が行われたとき、押し込みフラグにtrueが設定されることになる。その後、ステップS22に戻り、それ以降の処理が繰り返される。
一方、指サイズ差が負である、または、正であるが閾値より小さいとステップS31において判定された場合、ステップS33において、指認識部57は、指サイズ差が負で、かつ、指サイズ差の絶対値が閾値より大きいか否かを判定する。
指サイズ差が負で、かつ、指サイズ差の絶対値が閾値より大きいとステップS33において判定された場合、ステップS34において、指認識部57は、押し込みフラグがtrueに設定されているか否かを判定する。
押し込みフラグがtrueに設定されているとステップS34において判定された場合、ステップS35において、機器制御部59は、ボタンIDにより識別されるボタンに割り当てられている処理を指示するコマンドを機器情報記憶部60から読み出す。押し込みフラグがtrueに設定されているとステップS34において判定された場合、指データ記憶部58に記憶されているボタンIDが機器制御部59に供給される。また、機器制御部59は、機器情報記憶部60から読み出したコマンドを操作対象機器21に送信する。
指サイズ差が負で、かつ指サイズ差の絶対値が閾値より大きいと判定され、さらに、押し込みフラグがtrueに設定されていると判定されたタイミングは、ボタンの上に指を載せた状態で押し込む動作が行われ、押し込んだ状態から戻す動作が閾値以上の量だけ行われたタイミングである。
イメージとしては、仮想的にボタンを押し込み、ボタンを戻したときにコマンドが送信されることになる。単に、仮想的にボタンを押し込む動作が行われたタイミングでコマンドが送信されるようにしてもよい。
ステップS35においてコマンドが送信された場合、ステップS22に戻り、それ以降の処理が行われる。指サイズ差が負で、かつ指サイズ差の絶対値が閾値より大きくないとステップS33において判定された場合、または押し込みフラグにtrueが設定されていないとステップS34において判定された場合も、ステップS22以降の処理が行われる。
次に、図13のフローチャートを参照して、情報処理装置1から送信されたコマンドを受信する操作対象機器21の処理について説明する。
ステップS51において、操作対象機器21の通信制御部81は、情報処理装置1から送信されたコマンドを受信する。通信制御部81により受信されたコマンドは制御部82に供給される。
ステップS52において、制御部82は、情報処理装置1から送信されてきたコマンドが実行可能なコマンドであるか否かを判定する。
実行可能なコマンドではないとステップS52において判定した場合、ステップS53において、制御部82は、通信制御部81を制御して、実行できないコマンドであることを表す情報を情報処理装置1に送信する。
一方、実行可能なコマンドであるとステップS52において判定した場合、ステップS54において、制御部82は、コマンドを実行し、対応する処理を行う。例えば、図3のオンボタンが押されたことに応じて情報処理装置1からコマンドが送信されてきた場合、操作対象機器21は、電源をオンにして起動する処理を、コマンドに対応する処理として行う。
以上の処理により、ユーザUは、操作対象機器をより簡単に遠隔から操作することができる。
[変形例]
操作画像の表示をユーザUが好みに応じてカスタマイズすることができるようにしてもよい。
図14は、情報処理装置1の他の機能構成例を示すブロック図である。
図14に示す構成のうち、図6に示す構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。図14に示す構成においては、設定情報記憶部61が追加して設けられている点で、図6に示す構成と異なる。
設定情報記憶部61は、ユーザUにより入力された、操作画像の表示に関する設定の内容を表す情報である設定情報を記憶する。操作画像の表示に関する設定の入力も、例えば、上述したボタンの操作と同様にして仮想的なボタンを用いて行われる。
例えば、操作画像として表示するボタンのサイズ、色、配置位置を表す情報が設定情報記憶部61に記憶される。
表示制御部53は、操作画像を表示するとき、設定情報記憶部61に記憶されている設定情報を読み出し、読み出した設定情報により表される設定に従って、操作画像を表示させる。
これにより、ユーザUは、好みのサイズや色でボタンを表示させたりすることが可能になる。
また、ボタン上に表示される文字や記号のサイズを変えることができるようにしてもよい。例えば、子供向けのボタン、高齢者向けのボタンの文字や記号のサイズは、それ以外の人向けのボタンの文字や記号のサイズと較べて大きく表示される。この場合、どのサイズの文字や記号のボタンを表示させるのかを、ユーザは予め設定しておくことになる。
ボタン上に表示される内容を変えることができるようにしてもよい。図4の例においては操作画像G1乃至G3上に「ON」、「OFF」の文字が表示されるものとしたが、「電気をつける」、「電気を消す」の文字が表示されるようにすることが可能である。
さらに、同じ機器に関連付けて複数種類の操作画像が情報処理装置1に用意されている場合、どの種類の操作画像を表示させるのかをユーザが設定することができるようにしてもよい。例えば、ON/OFFボタンだけの単純な操作画像が表示されるように設定したり、機器の細かい操作も可能な複雑な操作画像が表示されるように設定したりすることができるようにしてもよい。
図15と図16は、照明機器22−1乃至22−3の操作画像の例を示す図である。
例えば、図15の右側に示すような操作画像G1乃至G3のデータと、図16の右側に示すような操作画像G1乃至G3のデータが用意されている場合、ユーザによる設定に応じて、照明機器22−1乃至22−3の操作画像の表示が切り替えられる。これにより、ユーザは、自分の好みの操作画像を用いて機器を操作することが可能になる。
以上においては、操作対象機器の認識用のデータがサーバ71からダウンロードされるものとしたが、カメラ11により撮影された画像をモデル画像として、情報処理装置1により生成されるようにしてもよい。
以上のような表示の設定を行うときに用いられるメニュー表示自体を、ユーザ毎、あるいは端末毎にカスタマイズすることができるようにしてもよい。
また、以上においては、HMD2が、透過性のあるディスプレイ12が設けられるいわゆる光学透過型のHMDである場合について説明したが、ビデオ透過型のHMDであってもよい。
図17は、ビデオ透過型のHMD2の外観の例を示す図である。
ビデオ透過型のHMD2は例えばメガネ型の形状を有している。HMD2を装着したとき、ユーザUの目の前には、HMD2の前方に向けて取り付けられたカメラ11により撮影された画像が表示される。また、カメラ11により撮影された画像に含まれる操作対象機器に重ねて、上述したようにして操作画像が表示される。
カメラ11により撮影された画像と操作画像の表示は、ハーフミラー等を利用して虚像を形成し、ユーザUに認識させる虚像投影方式によって行われるようにしてもよいし、網膜に直接結像させる網膜投影方式によって行われるようにしてもよい。
<第2の実施の形態>
図18は、携帯端末の外観の例を示す図である。
図18の携帯端末101は、情報処理装置1と同様の機能を有している。携帯端末101の背面には、図19に示すようにカメラ111が設けられている。カメラ111により撮影された画像は、携帯端末101の筐体表面に設けられたディスプレイ112に表示される。ディスプレイ112には例えばタッチパネルが積層されている。
例えば、ユーザUが携帯端末101を手に取り、撮影範囲に操作対象機器が含まれるようにカメラ111を向けた場合、携帯端末101においては、ディスプレイ112に操作対象機器が表示されるとともに、カメラ111により撮影された画像に基づいて物体認識が行われる。カメラ111は単眼のカメラではなく、ステレオカメラであってもよい。また、カメラ11は携帯端末101に直接設けられている必要はなく、携帯端末101と異なる筐体の機器に設けられているようにしてもよい。この場合、カメラ11により撮影された画像は、有線、または無線の通信によって携帯端末101に転送される。
また、カメラ111により撮影された画像に操作対象機器が含まれていることが検出された場合、操作対象機器の操作画像が、ディスプレイ112に表示されている操作対象機器に重ねて表示される。ディスプレイ112には、例えば図2、図4を参照して説明したようにして操作画像が表示される。ユーザUは、ディスプレイ112に表示された操作画像を指で直接押すことによって、操作対象機器を操作することができる。
<プログラムについて>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図5に示されるリムーバブルメディア41に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM32や記憶部38に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 情報処理装置, 2 HMD, 11 カメラ, 12 ディスプレイ, 21 操作対象機器, 51 画像取得部, 52 認識部, 53 表示制御部, 54 モデルデータ記憶部, 55 GUIデータ記憶部, 56 通信制御部, 57 指認識部, 58 指データ記憶部, 59 機器制御部, 60 機器情報記憶部

Claims (5)

  1. 操作対象機器の外観の特徴を表すデータと、前記操作対象機器の操作に用いられる操作画像のデータを記憶する記憶手段と、
    ユーザの視線を含む範囲が撮影範囲となる位置に取り付けられたカメラにより撮影された画像を取得する取得手段と、
    前記画像に含まれる複数の物体を、前記記憶手段に記憶されている前記特徴量のデータに基づいて認識する認識手段と、
    前記画像に含まれる複数の物体がそれぞれ前記操作対象機器であると前記認識手段により認識された場合、前記記憶手段に記憶されている前記操作画像のデータに基づいて、前記操作対象機器の数と同じ数の前記操作画像を、近くにある前記操作対象機器の操作に用いられる前記操作画像を遠くにある前記操作対象機器の操作に用いられる前記操作画像より大きく表示させるように、それぞれの前記操作対象機器と前記ユーザの距離に応じた大きさでディスプレイに同時に表示させる表示制御手段と
    前記カメラにより撮影された前記画像に含まれる前記ユーザの指の前記画像上の位置と、前記ユーザの指の前記画像上の大きさを認識する指認識手段と、
    前記指認識手段により認識された前記ユーザの指が、前記ディスプレイに表示された前記操作画像の位置に対応する位置にあり、その位置で、前記ユーザの指の大きさが、直前の大きさより小さくなったタイミングで、前記操作画像を用いた操作を指示するコマンドを前記操作対象機器に送信する制御手段と
    を備える情報処理装置。
  2. 前記表示制御手段は、前記画像に含まれる複数の前記操作対象機器の、それぞれの前記画像上の位置に対応する前記ディスプレイの位置に、前記操作画像を表示させる
    請求項1に記載の情報処理装置。
  3. 前記操作画像の表示に関する設定の内容を表す設定情報を記憶する設定情報記憶手段をさらに備え、
    前記表示制御手段は、前記設定情報の内容に従って前記操作画像の表示を制御する
    請求項1に記載の情報処理装置。
  4. 操作対象機器の外観の特徴を表すデータと、前記操作対象機器の操作に用いられる操作画像のデータを記憶し、
    ユーザの視線を含む範囲が撮影範囲となる位置に取り付けられたカメラにより撮影された画像を取得し、
    前記画像に含まれる複数の物体を、記憶している前記特徴量のデータに基づいて認識し、
    前記画像に含まれる複数の物体がそれぞれ前記操作対象機器であると認識した場合、記憶している前記操作画像のデータに基づいて、前記操作対象機器の数と同じ数の前記操作画像を、近くにある前記操作対象機器の操作に用いられる前記操作画像を遠くにある前記操作対象機器の操作に用いられる前記操作画像より大きく表示させるように、それぞれの前記操作対象機器と前記ユーザの距離に応じた大きさでディスプレイに同時に表示させ
    前記カメラにより撮影された前記画像に含まれる前記ユーザの指の前記画像上の位置と、前記ユーザの指の前記画像上の大きさを認識し、
    認識した前記ユーザの指が、前記ディスプレイに表示された前記操作画像の位置に対応する位置にあり、その位置で、前記ユーザの指の大きさが、直前の大きさより小さくなったタイミングで、前記操作画像を用いた操作を指示するコマンドを前記操作対象機器に送信する
    ステップを含む情報処理方法。
  5. 操作対象機器の外観の特徴を表すデータと、前記操作対象機器の操作に用いられる操作画像のデータを記憶し、
    ユーザの視線を含む範囲が撮影範囲となる位置に取り付けられたカメラにより撮影された画像を取得し、
    前記画像に含まれる複数の物体を、記憶している前記特徴量のデータに基づいて認識し、
    前記画像に含まれる複数の物体がそれぞれ前記操作対象機器であると認識した場合、記憶している前記操作画像のデータに基づいて、前記操作対象機器の数と同じ数の前記操作画像を、近くにある前記操作対象機器の操作に用いられる前記操作画像を遠くにある前記操作対象機器の操作に用いられる前記操作画像より大きく表示させるように、それぞれの前記操作対象機器と前記ユーザの距離に応じた大きさでディスプレイに同時に表示させ
    前記カメラにより撮影された前記画像に含まれる前記ユーザの指の前記画像上の位置と、前記ユーザの指の前記画像上の大きさを認識し、
    認識した前記ユーザの指が、前記ディスプレイに表示された前記操作画像の位置に対応する位置にあり、その位置で、前記ユーザの指の大きさが、直前の大きさより小さくなったタイミングで、前記操作画像を用いた操作を指示するコマンドを前記操作対象機器に送信する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2010076301A 2010-03-29 2010-03-29 情報処理装置、情報処理方法、およびプログラム Expired - Fee Related JP5743416B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2010076301A JP5743416B2 (ja) 2010-03-29 2010-03-29 情報処理装置、情報処理方法、およびプログラム
EP11153634.8A EP2372495B1 (en) 2010-03-29 2011-02-08 Remote control of a target device using a camera and a display
US13/049,445 US9058057B2 (en) 2010-03-29 2011-03-16 Information processor, information processing method and program
KR1020110025181A KR20110109883A (ko) 2010-03-29 2011-03-22 정보 처리 장치, 정보 처리 방법 및 프로그램
CN201110074093.9A CN102207819B (zh) 2010-03-29 2011-03-22 信息处理器和信息处理方法
US14/708,680 US9891715B2 (en) 2010-03-29 2015-05-11 Information processor, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010076301A JP5743416B2 (ja) 2010-03-29 2010-03-29 情報処理装置、情報処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2011209965A JP2011209965A (ja) 2011-10-20
JP2011209965A5 JP2011209965A5 (ja) 2013-03-21
JP5743416B2 true JP5743416B2 (ja) 2015-07-01

Family

ID=44484929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010076301A Expired - Fee Related JP5743416B2 (ja) 2010-03-29 2010-03-29 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (2) US9058057B2 (ja)
EP (1) EP2372495B1 (ja)
JP (1) JP5743416B2 (ja)
KR (1) KR20110109883A (ja)
CN (1) CN102207819B (ja)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5731272B2 (ja) * 2011-05-09 2015-06-10 双葉電子工業株式会社 ***縦体の無線操縦装置
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
JP5780142B2 (ja) * 2011-12-07 2015-09-16 富士通株式会社 画像処理装置、画像処理方法
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2013137191A1 (ja) * 2012-03-12 2013-09-19 株式会社エヌ・ティ・ティ・ドコモ 遠隔制御システム、遠隔制御方法、通信装置及びプログラム
JP6008086B2 (ja) * 2012-03-26 2016-10-19 セイコーエプソン株式会社 頭部装着型表示装置
JP6066037B2 (ja) * 2012-03-27 2017-01-25 セイコーエプソン株式会社 頭部装着型表示装置
US9170674B2 (en) * 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
CN103425380A (zh) * 2012-05-14 2013-12-04 联想(北京)有限公司 一种信息处理的方法和设备
US9317113B1 (en) * 2012-05-31 2016-04-19 Amazon Technologies, Inc. Gaze assisted object recognition
JP6011154B2 (ja) * 2012-08-24 2016-10-19 富士通株式会社 画像処理装置、画像処理方法
IN2015DN02046A (ja) * 2012-09-21 2015-08-14 Sony Corp
JP5962403B2 (ja) 2012-10-01 2016-08-03 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
JP5787099B2 (ja) * 2012-11-06 2015-09-30 コニカミノルタ株式会社 案内情報表示装置
JP6102213B2 (ja) * 2012-11-22 2017-03-29 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US20140152558A1 (en) * 2012-11-30 2014-06-05 Tom Salter Direct hologram manipulation using imu
CN103873959B (zh) * 2012-12-13 2019-02-05 联想(北京)有限公司 一种控制方法和电子设备
JP6111659B2 (ja) * 2012-12-28 2017-04-12 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
JP5962547B2 (ja) 2013-03-08 2016-08-03 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9766709B2 (en) * 2013-03-15 2017-09-19 Leap Motion, Inc. Dynamic user interactions for display control
US20140285520A1 (en) * 2013-03-22 2014-09-25 Industry-University Cooperation Foundation Hanyang University Wearable display device using augmented reality
US9927949B2 (en) * 2013-05-09 2018-03-27 Amazon Technologies, Inc. Recognition interfaces for computing devices
US10025378B2 (en) * 2013-06-25 2018-07-17 Microsoft Technology Licensing, Llc Selecting user interface elements via position signal
US20160147300A1 (en) * 2013-06-28 2016-05-26 Nokia Technologies Oy Supporting Activation of Function of Device
JP6206099B2 (ja) * 2013-11-05 2017-10-04 セイコーエプソン株式会社 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置
EP2916209B1 (en) * 2014-03-03 2019-11-20 Nokia Technologies Oy Input axis between an apparatus and a separate apparatus
JP6500477B2 (ja) * 2015-02-12 2019-04-17 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6427942B2 (ja) * 2014-05-01 2018-11-28 セイコーエプソン株式会社 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法
US9766715B2 (en) 2014-05-01 2017-09-19 Seiko Epson Corporation Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
JP2016015024A (ja) * 2014-07-02 2016-01-28 株式会社東芝 操作支援装置及び操作支援システム
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
WO2016046139A1 (en) * 2014-09-25 2016-03-31 Philips Lighting Holding B.V. Control of lighting
EP3007146A1 (en) 2014-10-07 2016-04-13 Thomson Licensing System for controlling an electronic device and head mounted unit for such a system
CN105635776B (zh) * 2014-11-06 2019-03-01 深圳Tcl新技术有限公司 虚拟操作界面遥控控制方法及***
CN105653248A (zh) * 2014-11-14 2016-06-08 索尼公司 控制装置、方法以及电子设备
JP6295995B2 (ja) * 2015-04-28 2018-03-20 京セラドキュメントソリューションズ株式会社 情報処理装置、画像処理装置へのジョブ指示方法
JP6507827B2 (ja) * 2015-04-28 2019-05-08 京セラドキュメントソリューションズ株式会社 表示システム
CN105141913A (zh) * 2015-08-18 2015-12-09 华为技术有限公司 可视化远程控制可触控设备的方法、***和相关设备
CN105138123B (zh) * 2015-08-24 2018-10-26 小米科技有限责任公司 设备控制方法及装置
JP2017117159A (ja) * 2015-12-24 2017-06-29 シャープ株式会社 端末装置及び双方向通信システム
CN105528081B (zh) * 2015-12-31 2019-02-19 广州创幻数码科技有限公司 一种混合现实显示方法、装置及***
CN105528083B (zh) * 2016-01-12 2018-10-23 广州创幻数码科技有限公司 一种混合现实识别关联方法及装置
US20180164895A1 (en) * 2016-02-23 2018-06-14 Sony Corporation Remote control apparatus, remote control method, remote control system, and program
CN109076679B (zh) * 2016-04-06 2020-06-30 飞利浦照明控股有限公司 控制照明***
US11044405B1 (en) * 2016-09-16 2021-06-22 Apple Inc. Location systems for electronic device interactions with environment
JP6432583B2 (ja) * 2016-10-28 2018-12-05 セイコーエプソン株式会社 表示装置、頭部装着型表示装置および表示装置の制御方法
JP7112399B2 (ja) * 2016-12-05 2022-08-03 マジック リープ, インコーポレイテッド 複合現実環境における仮想ユーザ入力制御
JP6350705B2 (ja) * 2017-03-16 2018-07-04 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
CN106980374A (zh) * 2017-03-28 2017-07-25 联想(北京)有限公司 显示控制方法、显示控制装置及电子设备
US10591986B2 (en) 2017-04-17 2020-03-17 Optim Corporation Remote work supporting system, remote work supporting method, and program
JP6257826B1 (ja) * 2017-05-31 2018-01-10 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
IL293424A (en) 2017-07-26 2022-07-01 Magic Leap Inc Neural network training with displays of user interface devices
US10068403B1 (en) * 2017-09-21 2018-09-04 Universal City Studios Llc Locker management techniques
WO2019181143A1 (ja) * 2018-03-22 2019-09-26 三菱自動車工業株式会社 車両制御システム
JP7229749B2 (ja) * 2018-12-14 2023-02-28 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、記録媒体、および、情報処理システム
KR20210150862A (ko) * 2020-06-04 2021-12-13 주식회사 브이터치 제스처를 인식하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2023228337A1 (ja) * 2022-05-25 2023-11-30 日本電信電話株式会社 提示システム、提示方法及び提示プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3259366B2 (ja) 1992-10-30 2002-02-25 ソニー株式会社 遠隔操作装置
US6937742B2 (en) * 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
JP4323180B2 (ja) * 2003-02-13 2009-09-02 日本電信電話株式会社 自己画像表示を用いたインタフェース方法、装置、およびプログラム
JP2005031045A (ja) * 2003-07-11 2005-02-03 Olympus Corp 情報呈示装置及び情報呈示システム
JP2005149409A (ja) * 2003-11-19 2005-06-09 Canon Inc 画像再生方法及び装置
US7903838B2 (en) * 2004-01-30 2011-03-08 Evolution Robotics, Inc. Vision-enabled household appliances
JP2005339266A (ja) * 2004-05-27 2005-12-08 Canon Inc 情報処理方法、情報処理装置、撮像装置
CA2576010C (en) * 2004-08-03 2011-07-26 Silverbrook Research Pty Ltd Head mounted display with wave front modulator
JP2006146803A (ja) * 2004-11-24 2006-06-08 Olympus Corp 操作装置及び遠隔操作システム
JP4676303B2 (ja) * 2005-10-18 2011-04-27 株式会社日立製作所 端末装置
US7620316B2 (en) * 2005-11-28 2009-11-17 Navisense Method and device for touchless control of a camera
JP2007259329A (ja) * 2006-03-24 2007-10-04 Fujifilm Corp 遠隔制御装置、システムおよび方法
JP2009146333A (ja) * 2007-12-18 2009-07-02 Panasonic Corp 空間入力動作表示装置
JP5176112B2 (ja) * 2008-07-03 2013-04-03 財団法人ヒューマンサイエンス振興財団 制御システム及び制御方法
JP4720874B2 (ja) * 2008-08-14 2011-07-13 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP4720890B2 (ja) 2008-09-26 2011-07-13 ブラザー工業株式会社 液体吐出装置

Also Published As

Publication number Publication date
US9891715B2 (en) 2018-02-13
CN102207819A (zh) 2011-10-05
US9058057B2 (en) 2015-06-16
EP2372495A3 (en) 2015-11-25
US20150241986A1 (en) 2015-08-27
KR20110109883A (ko) 2011-10-06
EP2372495A2 (en) 2011-10-05
US20110234386A1 (en) 2011-09-29
CN102207819B (zh) 2016-01-20
JP2011209965A (ja) 2011-10-20
EP2372495B1 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP5743416B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US7940986B2 (en) User interface system based on pointing device
US9218781B2 (en) Information processing apparatus, display control method, and program
JP3926837B2 (ja) 表示制御方法および装置、プログラム、並びに携帯機器
CN110456782B (zh) 控制装置和控制方法
KR102560689B1 (ko) Ar 객체를 표시하기 위한 장치 및 방법
JP2013172432A (ja) 機器制御装置、機器制御方法、機器制御プログラム、及び集積回路
JP2009134718A5 (ja)
US9268408B2 (en) Operating area determination method and system
EP3127586B1 (en) Interactive system, remote controller and operating method thereof
CN111199583B (zh) 一种虚拟内容显示方法、装置、终端设备及存储介质
CN111344663A (zh) 渲染装置及渲染方法
JP2014064115A (ja) 端末装置、遠隔操作システム及び遠隔操作方法
JP6714632B2 (ja) 情報表示端末及び情報表示方法
WO2019207875A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2023119862A1 (ja) 情報処理装置、情報処理プログラム及び情報処理方法
KR102419133B1 (ko) 증강 현실 콘텐츠 제작 장치 및 방법
KR20170112297A (ko) 동작 인식 서비스 제공 시스템 및 제공 방법
JP6201408B2 (ja) 電子制御装置、制御方法及び制御プログラム
KR20210121784A (ko) 디스플레이 장치
CN110945567A (zh) 信息处理装置、信息处理方法和程序
KR20060133207A (ko) 촬상 소자를 이용한 디지털 영상 처리 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140618

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140626

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150428

R150 Certificate of patent or registration of utility model

Ref document number: 5743416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees