JP2015115046A - 情報処理装置、プログラム、情報処理方法及び情報処理システム - Google Patents

情報処理装置、プログラム、情報処理方法及び情報処理システム Download PDF

Info

Publication number
JP2015115046A
JP2015115046A JP2013259106A JP2013259106A JP2015115046A JP 2015115046 A JP2015115046 A JP 2015115046A JP 2013259106 A JP2013259106 A JP 2013259106A JP 2013259106 A JP2013259106 A JP 2013259106A JP 2015115046 A JP2015115046 A JP 2015115046A
Authority
JP
Japan
Prior art keywords
camera
display
screen
side device
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013259106A
Other languages
English (en)
Inventor
健太郎 井田
Kentaro Ida
健太郎 井田
智也 成田
Tomoya Narita
智也 成田
山野 郁男
Ikuo Yamano
郁男 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013259106A priority Critical patent/JP2015115046A/ja
Priority to US14/563,681 priority patent/US9473808B2/en
Publication of JP2015115046A publication Critical patent/JP2015115046A/ja
Priority to US15/266,184 priority patent/US10802663B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • G06F3/0321Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface by optically sensing the absolute position with respect to a regularly patterned surface forming a passive digitiser, e.g. pen optically detecting position indicative tags printed on a paper sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2356/00Detection of the display position w.r.t. other display screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】電子機器のタイプごとの特徴をより効果的に活用して複数の電子機器間の連携のユーザビリティを高めることのできる、改善された仕組みを提供すること。【解決手段】画面にカメラが対向するように当該カメラを有するデバイスが配置された状態で前記画面に所定のパターンを表示させる表示制御部と、前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する位置取得部と、を備える情報処理装置を提供する。【選択図】図8

Description

本開示は、情報処理装置、プログラム、情報処理方法及び情報処理システムに関する。
近年、スマートフォン及びタブレットPC(Personal Computer)に代表される高性能な電子機器が広く普及している。これら電子機器を複数所持するユーザにとって、機器間のデータ連携又はユーザインタフェース連携のユーザビリティは、重要な関心事の1つである。同じことは、複数のユーザがそれぞれ所持する電子機器の間の連携についても言える。
電子機器の間のインタラクションは、多くの場合、機器間で確立される無線リンクを介して行われる。例えば、特許文献1は、HMD(Head Mounted Display)デバイスにより撮像される画像に映る2つの電子機器の間でデータを送受信するようにHMDデバイスから指示を出力することを可能とする技術を提案している。特許文献1によれば、データ送信先の機器は、HMDデバイスにより撮像される画像とデータ送信元の機器上でのユーザ入力の方向(例えば、ドラッグ方向)とに基づいて選択される。
特開2011−164666号公報
いくつかの電子機器は、比較的サイズの大きい画面を有する。例えば、PC又はテレビジョン装置の画面の多くは、多様なユーザインタフェースを表示するために十分なサイズを有する。一方、スマートフォン、デジタルカメラ又はゲーム端末のようなポータブルな小型の機器は、機器自体をユーザが容易に動かすことができるため、例えばポインティング(位置を特定する動作)などのユーザ入力のために利用可能である。しかし、既存の技術は、こうした機器のタイプごとの特徴を十分に活かしたユーザインタフェースを提供していない。例えば、特許文献1により提案された技術により実現されるポインティングの精度は粗い。そのため、当該技術は、精細な位置の特定(例えば、機器の画面上の入力位置の特定)のためには適していない。
そこで、本開示に係る技術は、電子機器のタイプごとの特徴をより効果的に活用して複数の電子機器間の連携のユーザビリティを高めることのできる改善された仕組みを提供することを目的とする。
本開示によれば、画面にカメラが対向するように当該カメラを有するデバイスが配置された状態で前記画面に所定のパターンを表示させる表示制御部と、前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する位置取得部と、を備える情報処理装置が提供される。
また、本開示によれば、情報処理装置を制御するプロセッサを、画面にカメラが対向するように当該カメラを有するデバイスが配置された状態で前記画面に所定のパターンを表示させ、前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する、ように機能させるためのプログラムが提供される。
また、本開示によれば、画面を有する第1デバイス及びカメラを有する第2デバイスを含む情報処理システムにおいて、前記第1デバイスの前記画面に前記カメラが対向するように前記第2デバイスが配置された状態で、前記画面に所定のパターンを表示させることと、前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得することと、を含む情報処理方法が提供される。
また、本開示によれば、画面を有する第1デバイス及びカメラを有する第2デバイスを含む情報処理システムであって、前記第1デバイスは、前記画面に前記カメラが対向するように前記第2デバイスが配置された状態で、前記画面に所定のパターンを表示させる表示制御部、を備え、前記第1デバイス又は前記第2デバイスは、前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する位置取得部、を備える、情報処理システムが提供される。
本開示に係る技術によれば、画面を有するデバイスとカメラを有するデバイスとの間の新たなポインティングの仕組みによって、これらデバイス間の連携のユーザビリティを高めることが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果と共に、又は上記の効果に代えて、本明細書に示されたいずれかの効果、又は本明細書から把握され得る他の効果が奏されてもよい。
情報処理システムの概要について説明するための第1の説明図である。 情報処理システムの概要について説明するための第2の説明図である。 表示側デバイスのハードウェア構成の一例を示すブロック図である。 撮像側デバイスのハードウェア構成の一例を示すブロック図である。 第1の実施例における表示側デバイス及び撮像側デバイスの論理的機能の配置を示す説明図である。 第2の実施例における表示側デバイス及び撮像側デバイスの論理的機能の配置を示す説明図である。 第3の実施例における表示側デバイス及び撮像側デバイスの論理的機能の配置を示す説明図である。 撮像側デバイスについて定義され得るプロファイルデータについて説明するための説明図である。 判定用パターンの第1の例を示す説明図である。 判定用パターンの第1の例に基づくカメラの相対位置及び回転量の判定について説明するための説明図である。 判定用パターンの第2の例を示す説明図である。 判定用パターンの第2の例に基づくカメラの相対位置及び回転量の判定について説明するための説明図である。 判定用パターンの第3の例を示す説明図である。 判定用パターンの第4の例を示す説明図である。 第1の実施例において静止画パターンが使用される場合の表示側デバイスの判定フェーズの処理の流れの一例を示すフローチャートである。 第1の実施例において静止画パターンが使用される場合の撮像側デバイスの判定フェーズの処理の流れの一例を示すフローチャートである。 第2の実施例において静止画パターンが使用される場合の表示側デバイスの判定フェーズの処理の流れの一例を示すフローチャートである。 第2の実施例において静止画パターンが使用される場合の撮像側デバイスの判定フェーズの処理の流れの一例を示すフローチャートである。 第1の実施例において動画パターンが使用される場合の表示側デバイスの判定フェーズの処理の流れの一例を示すフローチャートである。 第1の実施例において動画パターンが使用される場合の撮像側デバイスの判定フェーズの処理の流れの一例を示すフローチャートである。 第2の実施例において動画パターンが使用される場合の表示側デバイスの判定フェーズの処理の流れの一例を示すフローチャートである。 第2の実施例において動画パターンが使用される場合の撮像側デバイスの判定フェーズの処理の流れの一例を示すフローチャートである。 デバイス間のデータ連携のためのUIの第1の例を示す説明図である。 デバイス間のデータ連携のためのUIの第2の例を示す説明図である。 デバイス間のデータ連携のためのUIの第3の例を示す説明図である。 デバイス間のデータ連携のためのUIの第4の例を示す説明図である。 デバイス間のデータ連携のためのUIの第5の例を示す説明図である。 デバイス間のデータ連携のためのUIの第6の例を示す説明図である。 ポインティングUIの第1の例を示す説明図である。 ポインティングUIの第2の例を示す説明図である。 ポインティングUIの第3の例を示す説明図である。 ポインティングUIの第4の例を示す説明図である。 ポインティングUIの第5の例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.システムの概要
2.ハードウェア構成例
2−1.表示側デバイス
2−2.撮像側デバイス
3.論理的機能の配置
4.準備フェーズの詳細
5.判定フェーズの詳細
5−1.判定用パターンの例
5−2.位置判定の流れ
6.UI処理フェーズの詳細
6−1.データ連携
6−2.ポインティングUI
7.まとめ
<1.システムの概要>
まず、図1及び図2を用いて、一実施形態に係るシステムの概要を説明する。図1は、本開示に係る技術が適用される得る情報処理システムの概要について説明するための第1の説明図である。図1を参照すると、情報処理システム1aは、タブレットPC100a及びスマートフォン200aを含む。
タブレットPC100aは、ディスプレイ102aを有する情報処理装置である。ディスプレイ102aの画面のサイズは、少なくとも画面上にスマートフォン200aを載置できる程度に大きい。スマートフォン200aは、カメラ202aを有する情報処理装置である。カメラ202aのレンズは、典型的には、スマートフォン200aの背面(画面の裏側の面)に配設される。タブレットPC100a及びスマートフォン200aは、共に無線通信インタフェース(図示せず)を有し、無線リンクを介して互いに通信することができる。
タブレットPC100a及びスマートフォン200aのような複数の電子機器が存在する場合、機器間のデータ連携又はユーザインタフェース連携のユーザビリティは、ユーザにとっての重要な関心事の1つである。ユーザインタフェースを連携させる最も原始的な手法は、スマートフォン200aの背面に、タッチパネルへの入力用の部品を取り付けることであろう。例えば、導電性を有する材料(例えば、ゴム、樹脂又は金属など)で形成される突起をスマートフォン200aの背面に取り付けることで、静電容量方式及び感圧式などのいくつかの方式のタッチパネルへの入力が可能となる。しかし、この手法は、単にスマートフォン200aをタッチペンのような操作子として扱うことを可能とするに過ぎない。また、追加的な部品の取り付けは、ユーザにとって望ましくないであろう。
一方、特許文献1により提案された技術によれば、タブレットPC100a及びスマートフォン200aを映した画像がHMDデバイスによって撮像され、その撮像画像に基づく画像認識を通じて機器間のデータ連携が実現される。しかし、ユーザは、HMDデバイスを常に有するわけではない。また、電子機器を遠隔的に撮像するHMDデバイスの撮像画像に基づく画像認識では、ユーザインタフェースの鍵となるポインティングを、低い精度でしか実現できない。
ここで、タブレットPC100aのように比較的サイズの大きい画面を有する電子機器は、何らかのユーザインタフェースを表示するために適している。一方、スマートフォン200aのように小型の電子機器は、機器自体をユーザが容易に動かすことができるため、ポインティングなどのユーザ入力のために利用可能である。そこで、本開示に係る技術は、電子機器間の連携のユーザビリティを高めるために、これら特徴を活用する。
より具体的には、タブレットPC100aの画面にカメラ202aが対向するように、スマートフォン200aがタブレットPC100aに載置されるものとする。実際には、タブレットPC100aとスマートフォン200aとの間には、いくらかの空間が存在してものよい。このようにスマートフォン200aがタブレットPC100aに載置された状態で、タブレットPC100aが画面に所定のパターンを表示させると、カメラ202aは、表示されたパターン(又はその一部)を撮像する。そして、タブレットPC100a又はスマートフォン200aは、撮像されたパターンを解析することにより、タブレットPC100aの画面に対するカメラ202aの相対位置を取得する。このように取得されるカメラ202aの相対位置は、タブレットPC100aとスマートフォン200aとの間の連携のユーザビリティを高めるために使用される。
図2は、本開示に係る技術が適用される得る情報処理システムの概要について説明するための第2の説明図である。図2を参照すると、情報処理システム1bは、テレビジョン装置100b及びデジタルカメラ200bを含む。
テレビジョン装置100bは、ディスプレイ102aを有する。ディスプレイ102aの画面のサイズは、デジタルカメラ200bと比較するとより大きい。デジタルカメラ200bは、レンズ202bを有する。テレビジョン装置100b及びデジタルカメラ200bは、共に無線通信インタフェース(図示せず)を有し、無線リンクを介して互いに通信することができる。
情報処理システム1bにおいて、デジタルカメラ200bは、テレビジョン装置100bの画面にレンズ202bが対向するように、ユーザにより保持されるものとする。このようにデジタルカメラ200bが保持された状態で、テレビジョン装置100bが画面に所定のパターンを表示させると、デジタルカメラ200bは、表示されたパターン(又はその一部)を撮像する。そして、テレビジョン装置100b又はデジタルカメラ200bは、撮像されたパターンを解析することにより、テレビジョン装置100bの画面に対するレンズ202bの相対位置を取得する。このように取得される相対位置は、テレビジョン装置100bとデジタルカメラ200bとの間の連携のユーザビリティを高めるために使用される。
上述したように、本開示に係る技術は、所定のパターンを表示する表示側デバイスと、表示側デバイスにより表示される当該所定のパターンを撮像する撮像側デバイスとを用いて実現される。以下の説明では、タブレットPC100a及びテレビジョン装置100bは、表示側デバイス100と総称される。表示側デバイス100は、上述した例に限定されず、例えばノートブックPC、デスクトップPC、テーブル型端末、キオスク端末又はナビゲーション装置などの、比較的サイズの大きい画面を有する任意の種類のデバイスであってよい。また、スマートフォン200a及びデジタルカメラ200bは、撮像側デバイス200と総称される。撮像側デバイス200は、上述した例に限定されず、例えばポケットPC、PDA(Personal Digital Assistant)、ゲーム端末又はオーディオプレーヤなどの、カメラを有する比較的小型の任意の種類のデバイスであってよい。
<2.ハードウェア構成例>
[2−1.表示側デバイス]
図3は、表示側デバイス100のハードウェア構成の一例を示すブロック図である。図3を参照すると、表示側デバイス100は、ディスプレイ102、センサ104、入力インタフェース106、メモリ108、チューナ110、スピーカ112、無線通信インタフェース114、バス116、プロセッサ118及びバッテリ119を備える。
(1)ディスプレイ
ディスプレイ102は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)ディスプレイ、PDP(Plasma Display Panel)又はCRT(Cathode Ray Tube)などの表示モジュールである。ディスプレイ102は、撮像側デバイスと比較して相対的にサイズの大きい画面と、表示回路とを含む。ディスプレイ102は、表示側デバイス100と物理的に一体的に構成されなくてもよい。例えば、接続端子及び信号線(例えば、HDMI信号又はRGB信号用のケーブル)を介して表示側デバイス100と接続されるモジュールが、ディスプレイ102として扱われてもよい。
(2)センサ
センサ104は、加速度センサ、測位センサ、ジャイロセンサ及び地磁気センサなどの様々なセンサを含み得るセンサモジュールである。センサ104により生成されるセンサデータは、ユーザ入力の検出又は撮像側デバイスの検出などの様々な用途のために利用されてよい。
(3)入力インタフェース
入力インタフェース106は、ユーザが表示側デバイス100を操作し又は表示側デバイス100へ情報を入力するために使用される入力モジュールである。入力インタフェース106は、例えば、ディスプレイ102の画面へのタッチを検出するタッチパネルを含んでもよい。その代わりに(又はそれに加えて)、入力インタフェース106は、ボタン、スイッチ、キーパッド又はポインティングデバイスなどのその他の種類の入力デバイスを含んでもよい。また、入力インタフェース106は、マイクロフォン(図示せず)を介して取得されるユーザの音声から音声コマンドをユーザ入力として認識する音声入力モジュールを含んでもよい。
(4)メモリ
メモリ108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、表示側デバイス100による処理のためのプログラム及びデータを記憶する。メモリ108により記憶されるデータは、センサデータ、後に説明するプロファイルデータ、コンテンツデータ、及びアプリケーションデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、メモリ108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
(5)チューナ
チューナ110は、放送局からアンテナを介して受信される放送信号に含まれる所望のチャンネルの映像信号を抽出する。チューナ110が抽出すべき映像信号のチャンネルは、入力インタフェース106を介して取得されるユーザ入力に従って選択され得る。表示側デバイス100は、チューナ110から出力される映像信号を復号することにより、映像コンテンツを再生することができる。
(6)スピーカ
スピーカ112は、音声を出力するための出力モジュールである。スピーカ112は、音声コンテンツを再生するために使用されてもよい。また、スピーカ112は、ユーザ入力の検出、無線リンクの確立、アプリケーションの起動及びデータの送信又は受信などの様々なタイミングで効果音又は警告音を発するために使用されてもよい。
(7)無線通信インタフェース
無線通信インタフェース114は、表示側デバイス100と他のデバイスとの間の無線通信を仲介する通信モジュールである。無線通信インタフェース114は、Bluetooth(登録商標)、NFC(Near Field Communication)、ワイヤレスUSB若しくはTransferJet(登録商標)などの近距離無線通信方式、WCDMA、WiMAX(登録商標)、LTE若しくはLTE−Aなどのセルラ通信方式、又は無線LAN(Local Area Network)方式といった、任意の無線通信方式に従って無線通信を実行してよい。
(8)バス
バス116は、ディスプレイ102、センサ104、入力インタフェース106、メモリ108、チューナ110、スピーカ112、無線通信インタフェース114及びプロセッサ118を互いに接続する。
(9)プロセッサ
プロセッサ118は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)又はSoC(System-on-a-Chip)に相当し得る制御モジュールである。プロセッサ118は、メモリ108又は他の記憶媒体に記憶されるプログラムを制御回路を用いて実行することにより、後に説明する表示側デバイス100の様々な論理的機能を動作させる。
(10)バッテリ
バッテリ119は、破線で部分的に示した給電線を介して、図3に示した表示側デバイス100の各ブロックへ電力を供給する。バッテリ119から各ブロックへの電力の供給は、例えば、表示側デバイス100の筐体に設けられる電源ボタンが押下された場合に開始され又は終了され得る。バッテリ119は、表示側デバイス100の筐体から取り外し可能であってもよい。
なお、表示側デバイス100は、図3を用いて説明した構成の一部を有しなくてもよく、又は追加的な構成を有していてもよい。例えば、表示側デバイス100が外部電源(例えば商用電源)と接続可能である場合には、バッテリ119は、表示側デバイス100の構成から省略されてもよい。また、図3を用いて説明した構成の全体又は一部を集積したワンチップの情報処理モジュールが提供されてもよい。
[2−2.撮像側デバイス]
図4は、撮像側デバイス200のハードウェア構成の一例を示すブロック図である。図4を参照すると、撮像側デバイス200は、カメラ202、センサ204、入力インタフェース206、メモリ208、ディスプレイ210、スピーカ212、無線通信インタフェース214、バス216、プロセッサ218及びバッテリ219を備える。
(1)カメラ
カメラ202は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて画像を撮像する撮像モジュールである。カメラ202は、レンズと、上述した一群の撮像素子と、撮像回路とを含む。カメラ202のレンズは、典型的には、撮像側デバイス200の背面に配設され得る。カメラ202により生成される撮像画像は、静止画であってもよく、又は動画を構成する一連のフレームの各々であってもよい。
(2)センサ
センサ204は、加速度センサ、測位センサ、ジャイロセンサ及び地磁気センサなどの様々なセンサを含み得るセンサモジュールである。センサ204により生成されるセンサデータは、ユーザ入力の検出又は表示側デバイスの検出などの様々な用途のために利用されてよい。
(3)入力インタフェース
入力インタフェース206は、ユーザが撮像側デバイス200を操作し又は撮像側デバイス200へ情報を入力するために使用される入力モジュールである。入力インタフェース206は、例えば、ディスプレイ210の画面へのタッチを検出するタッチパネルを含んでもよい。その代わりに(又はそれに加えて)、入力インタフェース206は、ボタン、スイッチ、キーパッド又はポインティングデバイスなどのその他の種類の入力デバイスを含んでもよい。また、入力インタフェース206は、マイクロフォン(図示せず)を介して取得されるユーザの音声から音声コマンドをユーザ入力として認識する音声入力モジュールを含んでもよい。
(4)メモリ
メモリ208は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、撮像側デバイス200による処理のためのプログラム及びデータを記憶する。メモリ208により記憶されるデータは、撮像画像データ、センサデータ、後に説明するプロファイルデータ、コンテンツデータ、及びアプリケーションデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、メモリ208により記憶されることなく、外部のデータソースから取得されてもよい。
(5)ディスプレイ
ディスプレイ210は、LCD又はOLEDディスプレイなどの表示モジュールである。ディスプレイ210は、画面と表示回路とを含む。
(6)スピーカ
スピーカ212は、音声を出力するための出力モジュールである。スピーカ212は、音声コンテンツを再生するために使用されてもよい。また、スピーカ212は、ユーザ入力の検出、無線リンクの確立、アプリケーションの起動及びデータの送信又は受信などの様々なタイミングで効果音又は警告音を発するために使用されてもよい。
(7)無線通信インタフェース
無線通信インタフェース214は、撮像側デバイス200と他のデバイスとの間の無線通信を仲介する通信モジュールである。無線通信インタフェース214は、Bluetooth(登録商標)、NFC、ワイヤレスUSB若しくはTransferJet(登録商標)などの近距離無線通信方式、WCDMA、WiMAX(登録商標)、LTE若しくはLTE−Aなどのセルラ通信方式、又は無線LAN方式といった、任意の無線通信方式に従って無線通信を実行してよい。
(8)バス
バス216は、カメラ202、センサ204、入力インタフェース206、メモリ208、ディスプレイ210、スピーカ212、無線通信インタフェース214及びプロセッサ218を互いに接続する。
(9)プロセッサ
プロセッサ218は、CPU、DSP、GPU又はSoCに相当し得る制御モジュールである。プロセッサ218は、メモリ208又は他の記憶媒体に記憶されるプログラムを制御回路を用いて実行することにより、後に説明する撮像側デバイス200の様々な論理的機能を動作させる。
(10)バッテリ
バッテリ219は、破線で部分的に示した給電線を介して、図4に示した撮像側デバイス200の各ブロックへ電力を供給する。バッテリ219から各ブロックへの電力の供給は、例えば、撮像側デバイス200の筐体に設けられる電源ボタンが押下された場合に開始され又は終了され得る。バッテリ219は、撮像側デバイス200の筐体から取り外し可能であってもよい。
なお、撮像側デバイス200は、図4を用いて説明した構成の一部を有しなくてもよく、又は追加的な構成を有していてもよい。また、図4を用いて説明した構成の全体又は一部を集積したワンチップの情報処理モジュールが提供されてもよい。
<3.論理的機能の配置>
本節では、図5A〜図5Cを用いて、表示側デバイス100及び撮像側デバイス200への論理的機能の配置の例を説明する。本実施形態において、これら2つのデバイスの機能は、準備フェーズの機能、判定フェーズの機能及びユーザインタフェース(UI)処理フェーズの機能に分類される。いくつかの機能は、ある実施例においては表示側デバイス100に配置され、他の実施例においては撮像側デバイス200に配置される。
(1)第1の実施例
図5Aは、第1の実施例における表示側デバイス及び撮像側デバイスの論理的機能の配置を示す説明図である。図5Aを参照すると、準備フェーズのために、表示側デバイス100は、無線リンク確立機能10及びトリガ検出機能20を有する。撮像側デバイス200は、無線リンク確立機能15及びトリガ検出機能25を有する。また、判定フェーズのために、表示側デバイス100は、パターン表示機能30及び情報取得機能75を有する。撮像側デバイス200は、パターン撮像機能35、パラメータ生成機能50、位置判定機能65及び情報送信機能70を有する。また、UI処理フェーズのために、表示側デバイス100は、UI制御機能80及びデータ連携機能90を有する。撮像側デバイス200は、データ連携機能95を有する。
準備フェーズにおいて、表示側デバイス100の無線リンク確立機能10と撮像側デバイス200の無線リンク確立機能15との間で、無線リンクが確立される。また、表示側デバイス100のトリガ検出機能20及び撮像側デバイス200のトリガ検出機能25の少なくとも一方により、判定開始トリガが検出される。無線リンクの確立は、判定開始トリガの検出の後に行われてもよい。判定開始トリガが検出された時点で、表示側デバイス100及び撮像側デバイス200は、撮像側デバイス200のカメラ202が表示側デバイス100のディスプレイ102の画面に対向するように配置されていると仮定される。そして、判定開始トリガの検出に応じて、表示側デバイス100及び撮像側デバイス200は、撮像側デバイス200の相対位置を判定するための判定フェーズの処理を開始する。
判定フェーズにおいて、表示側デバイス100のパターン表示機能30は、ディスプレイ102の画面に所定の判定用パターンを表示させる。判定用パターンは、静止画であってもよく、又は動画であってもよい。判定用パターンの具体的ないくつかの例について、後にさらに説明する。撮像側デバイス200のパターン撮像機能35は、表示側デバイス100により表示された判定用パターンを、カメラ202を用いて撮像する。撮像側デバイス200のパラメータ生成機能50は、判定用パターンの撮像画像に基づいて、表示側デバイス100の画面に対するカメラ202(のレンズ)の相対位置(relative position)を判定するためのパラメータを生成する。パラメータ生成機能50は、さらに、判定用パターンの撮像画像に基づいて、表示側デバイス100の画面に平行な平面内のカメラ202の回転量(rotation)を判定するためのパラメータを生成してもよい。また、撮像側デバイス200の位置判定機能65は、パラメータ生成機能50により生成されるパラメータを用いて、カメラ202の上記相対位置を判定する。位置判定機能65は、さらに、カメラ202の上記回転量を判定してもよい。撮像側デバイス200の情報送信機能70は、位置判定機能65により判定された相対位置(及び回転量)を示す判定結果を、無線通信インタフェース214を介して表示側デバイス100へ送信する。表示側デバイス100の情報取得機能75は、撮像側デバイス200から送信された判定結果を、無線通信インタフェース114を介して取得する。ここで取得される判定結果は、表示側デバイス100の画面に対するカメラ202の相対位置を示す位置データを含む。当該判定結果は、さらに、カメラ202の上記回転量を示す回転量データを含んでもよい。
UI処理フェーズにおいて、表示側デバイス100のUI制御機能80は、情報取得機能75により取得されるカメラ202の相対位置に基づいて、表示制御信号を生成する。ここで生成される表示制御信号は、例えば、ディスプレイ102の画面の表示を制御するための信号であり、ディスプレイ102へ出力され得る。その結果、ディスプレイ102の画面に、カメラ202の相対位置に基づくGUI(Graphical User Interface)が表示される。ここで表示されるGUIは、情報取得機能75により取得されるカメラ202の回転量にさらに基づいてもよい。GUIのいくつかの例について、後にさらに説明する。また、UI制御機能80により生成される表示制御信号は、撮像側デバイス200のディスプレイ210の画面の表示を制御するための信号であってもよく、無線通信インタフェース114から撮像側デバイス200へ送信され得る。その結果、撮像側デバイス200のディスプレイ210の画面に、カメラ202の相対位置に基づくGUIが表示される。
UI処理フェーズにおいて、表示側デバイス100のデータ連携機能90及び撮像側デバイス200のデータ連携機能95は、情報取得機能75により取得されるカメラ202の相対位置に基づいて選択されるコンテンツデータを、デバイス間の無線リンク上で送信し又は受信してもよい。例えば、表示側デバイス100のデータ連携機能90は、カメラ202の相対位置によりポインティングされた画面上のコンテンツを選択し、選択したコンテンツのコンテンツデータを無線通信インタフェース114を介して撮像側デバイス200へ送信してもよい。ここで送信されるコンテンツデータは、例えば画像データ、音声データ、映像データ、ゲームデータ又はHTML(HyperText Markup Language)で記述され得るWebページのリンクを示すリンクデータなどの、任意の種類のデータであってよい。撮像側デバイス200のデータ連携機能95は、表示側デバイス100から無線通信インタフェース214を介して受信されるコンテンツデータを再生し(例えばコンテンツを画面に表示し)又は記憶し得る。
(2)第2の実施例
図5Bは、第2の実施例における表示側デバイス及び撮像側デバイスの論理的機能の配置を示す説明図である。第2の実施例における準備フェーズ及びUI処理フェーズのための機能の配置は、第1の実施例と同様である。判定フェーズのために、表示側デバイス100は、パターン表示機能30、パラメータ取得機能60及び位置判定機能65を有する。撮像側デバイス200は、パターン撮像機能35、パラメータ生成機能50及びパラメータ送信機能55を有する。
判定フェーズにおいて、表示側デバイス100のパターン表示機能30は、ディスプレイ102の画面に所定の判定用パターンを表示させる。判定用パターンは、静止画であってもよく、又は動画であってもよい。撮像側デバイス200のパターン撮像機能35は、表示側デバイス100により表示された判定用パターンを、カメラ202を用いて撮像する。撮像側デバイス200のパラメータ生成機能50は、判定用パターンの撮像画像に基づいて、表示側デバイス100の画面に対するカメラ202の相対位置を判定するためのパラメータを生成する。パラメータ生成機能50は、さらに、判定用パターンの撮像画像に基づいて、表示側デバイス100の画面に平行な平面内のカメラ202の回転量を判定するためのパラメータを生成してもよい。撮像側デバイス200のパラメータ送信機能55は、パラメータ生成機能50により生成されたパラメータを、無線通信インタフェース214を介して表示側デバイス100へ送信する。表示側デバイス100のパラメータ取得機能60は、撮像側デバイス200から送信されたパラメータを、無線通信インタフェース114を介して取得する。表示側デバイス100の位置判定機能65は、パラメータ取得機能60により取得されるパラメータを用いて、撮像側デバイス200のカメラ202の上記相対位置を判定する。位置判定機能65は、さらに、カメラ202の上記回転量を判定してもよい。
(3)第3の実施例
図5Cは、第3の実施例における表示側デバイス及び撮像側デバイスの論理的機能の配置を示す説明図である。第3の実施例における準備フェーズ及びUI処理フェーズのための機能の配置は、第1の実施例及び第2の実施例と同様である。判定フェーズのために、表示側デバイス100は、パターン表示機能30、画像取得機能45、パラメータ生成機能50及び位置判定機能65を有する。撮像側デバイス200は、パターン撮像機能35及び画像送信機能40を有する。
判定フェーズにおいて、表示側デバイス100のパターン表示機能30は、ディスプレイ102の画面に所定の判定用パターンを表示させる。判定用パターンは、静止画であってもよく、又は動画であってもよい。撮像側デバイス200のパターン撮像機能35は、表示側デバイス100により表示された判定用パターンを、カメラ202を用いて撮像する。撮像側デバイス200の画像送信機能40は、判定用パターンを映す撮像画像を、無線通信インタフェース214を介して表示側デバイス100へ送信する。表示側デバイス100の画像取得機能45は、撮像側デバイス200から送信された撮像画像を、無線通信インタフェース114を介して取得する。表示側デバイス100のパラメータ生成機能50は、画像取得機能45により取得された判定用パターンの撮像画像に基づいて、表示側デバイス100の画面に対するカメラ202の相対位置を判定するためのパラメータを生成する。パラメータ生成機能50は、さらに、判定用パターンの撮像画像に基づいて、表示側デバイス100の画面に平行な平面内のカメラ202の回転量を判定するためのパラメータを生成してもよい。表示側デバイス100の位置判定機能65は、パラメータ生成機能50により生成されるパラメータを用いて、撮像側デバイス200のカメラ202の上記相対位置を判定する。位置判定機能65は、さらに、カメラ202の上記回転量を判定してもよい。
<4.準備フェーズの詳細>
本節では、上述した準備フェーズにおいて実行される処理の詳細について説明する。準備フェーズでは、主に、無線リンクの確立及び判定開始トリガの検出が行われる。
(1)無線リンクの確立
例えば、表示側デバイス100の無線通信インタフェース114は、所定のユーザ入力に応じて、又は自動的に、近傍に位置する撮像側デバイス200を検出し得る。その代わりに、撮像側デバイス200の無線通信インタフェース214が表示側デバイス100を検出してもよい。そして、端末情報の交換及び相互認証などの手続を経て、表示側デバイス100と撮像側デバイス200との間の無線リンクが確立される。表示側デバイス100と撮像側デバイス200との間の無線リンクは、直接的なリンクであってもよく、又は無線アクセスポイントなどの他のノードを介する間接的なリンクであってもよい。無線リンクの確立に際して、例えばUPnP(Universal Plug and Play)自動設定技術が活用されてもよい(例えば、特開2006−128737号公報参照)。
準備フェーズにおいて、後の判定フェーズ及びUI処理フェーズで使用される情報がデバイス間で交換されてもよい。例えば、撮像側デバイス200は、複数の判定用パターンの候補のうち自らがサポートする1つ以上のパターンを識別する識別情報を、表示側デバイス100へ提供してもよい。その場合、表示側デバイス100のパターン表示機能30は、撮像側デバイス200によりサポートされる判定用パターンを当該識別情報に基づいて選択して、選択した判定用パターンを画面に表示させる。
また、撮像側デバイス200は、撮像側デバイス200におけるカメラ202の配置を定義するプロファイルデータを、表示側デバイス100へ提供してもよい。一例として、プロファイルデータは、図6に示したように、撮像側デバイス200の筐体の幅Wdev及び高さHdev、並びに、筐体の長辺からカメラ202の光軸までの距離Wcam及び筐体の短辺からカメラ202の光軸までの距離Hcamを示し得る。プロファイルデータは、後述するように、カメラ202の相対位置及び回転量に基づくGUIを表示側デバイス100が画面に表示する際に、当該GUIの配置を決定するために使用され得る。なお、複数の種類のデバイスのプロファイルデータが、予め表示側デバイス100のメモリ108により記憶されてもよい。その場合には、表示側デバイス100は、撮像側デバイス200から受信される端末情報(例えば、端末の型番など)に基づいて、撮像側デバイス200について使用すべき適切なプロファイルデータを選択し得る。
(2)判定開始トリガの検出
表示側デバイス100のトリガ検出機能20は、入力インタフェース106を介して取得される所定の種類のユーザ入力(例えば、画面へのタッチ、筐体に配設されるボタンの押下又は特定の音声コマンドの認識)を、判定開始トリガとして検出してもよい。表示側デバイス100は、トリガ検出機能20により判定開始トリガが検出されると、トリガの検出を撮像側デバイス200へ通知し得る。同様に、撮像側デバイス200のトリガ検出機能25は、入力インタフェース206を介して取得される所定の種類のユーザ入力を、判定開始トリガとして検出してもよい。撮像側デバイス200は、トリガ検出機能25により判定開始トリガが検出されると、トリガの検出を表示側デバイス100へ通知し得る。
また、表示側デバイス100のトリガ検出機能20は、センサ104を介して取得されるセンサ入力を、判定開始トリガとして検出してもよい。同様に、撮像側デバイス200のトリガ検出機能25は、センサ204を介して取得されるセンサ入力を、判定開始トリガとして検出してもよい。ここでのセンサ入力は、例えば、表示側デバイス100の画面に撮像側デバイス200が接触したことを示すセンサデータである。一例として、撮像側デバイス200が表示側デバイス100の画面に載置されると、これらデバイスの加速度センサのセンサデータは、載置の瞬間に共にピークを示し得る。トリガ検出機能20及び25は、そのようなセンサデータのピーク(又はピークの時間的一致)に基づいて、表示側デバイス100の画面に撮像側デバイス200が接触したと判定してもよい。それにより、明示的なユーザ入力がなくても、2つのデバイスにタイミングを同期させて判定フェーズを開始させることができる。
判定フェーズは、表示側デバイス100及び撮像側デバイス200のいずれか一方での上述した判定開始トリガの検出に応じて開始されてもよい。その代わりに、判定フェーズは、表示側デバイス100及び撮像側デバイス200の双方での上述した判定開始トリガの検出(例えば、ユーザによる2つのデバイスの画面へのタッチ)に応じて開始されてもよい。
<5.判定フェーズの詳細>
本節では、上述した判定フェーズにおいて実行される処理の詳細について説明する。判定フェーズでは、表示側デバイス100により表示される判定用パターンが撮像側デバイス200により撮像され、判定用パターンの撮像画像に基づいて生成されるパラメータから、撮像側デバイス200のカメラ202の相対位置(及び回転量)が判定される。
[5−1.判定用パターンの例]
(1)第1の例
図7は、判定用パターンの第1の例を示す説明図である。第1の例において、判定用パターンは、位置に依存して変化する画像特性を有する静止画である。ここでの画像特性は、例えば、輝度、色調、透明度若しくはドット密度又はそれらの組合せなどであってよい。図7に示した判定用パターンPT1は、右方に行くほど高いドット密度を有し、下方に行くほど明るい輝度を有する静止画である。表示側デバイス100の画面にカメラ202を対向させつつ、撮像側デバイス200を当該画面に載置し又は当該画面に近接させた状態で、カメラ202により撮像される画像には、画面に表示される判定用パターンPT1の局所的な一部分のみが映る。パラメータ生成機能50は、その撮像画像から決定される画像特性の値を示すパラメータを生成する。位置判定機能65は、パラメータ生成機能50により生成されたパラメータにより示される画像特性の値にマッピングされる(表示側デバイス100のスクリーン座標系における)座標を、カメラ202の相対位置であると判定し得る。また、パラメータ生成機能50は、例えば、撮像画像から決定される画像特性の値の変化の方向(例えば、変化率が最も大きい又は最も小さい方向)を示すパラメータを生成する。位置判定機能65は、パラメータ生成機能50により生成されたパラメータにより示される方向に基づいて、カメラ202の相対的な回転量を判定し得る。図8の例では、判定用パターンPT1を局所的に撮像した撮像画像から決定されるドット密度及び輝度に基づいて、カメラ202の相対位置が座標(Xcam,Ycam)であると判定されている。また、撮像画像から決定されるドット密度及び輝度の変化の方向に基づいて、カメラ202の回転量が角度Rcamであると判定されている。
なお、判定用パターンは、可視的な(又は視覚を通じてユーザにより認識可能な)パターンではなくてもよい。例えば、位置に依存して変化する画像特性を有する電子透かしのようなパターン、又は赤外光で構成されるパターンが、判定用パターンとして使用されてもよい。また、画像(又は映像)コンテンツと合成された判定用パターンが使用されてもよい。
(2)第2の例
判定用パターンの第2、第3及び第4の例において、判定用パターンは、表示側デバイス100の画面上で時間を追って移動する1つ以上の表示オブジェクトを表示する動画である。図9は、判定用パターンの第2の例を示す説明図である。第2の例において、判定用パターンは、少なくとも2つの基準位置からそれぞれ発せられる波紋オブジェクトを表示する。より具体的には、図9を参照すると、判定用パターンPT2は、左上の基準点RP1から発し右下方向へ時間を追って広がる波紋オブジェクトWA1、左下の基準点RP2から発し右上方向へ時間を追って広がる波紋オブジェクトWA2、及び右中央の基準点RP3から発し左方向へ時間を追って広がる波紋オブジェクトWA3を表示する。パラメータ生成機能50は、カメラ202へのこれら波紋オブジェクトの到達時間をそれぞれ測定し、測定した到達時間を示すパラメータを生成する。位置判定機能65は、パラメータ生成機能50により生成されたパラメータにより示される到達時間を用いて、カメラ202の相対位置を判定する。また、各波紋オブジェクトは、その縁部において半径方向に沿った濃淡(又はその他の画像特性)の勾配を有する。パラメータ生成機能50は、カメラ202へ各波紋オブジェクトが到達した際に撮像画像から決定される濃淡の勾配の方向を示すパラメータを生成し得る。位置判定機能65は、パラメータ生成機能50により生成されたパラメータにより示される勾配の方向に基づいて、カメラ202の相対的な回転量を判定し得る。
図10は、判定用パターンの第2の例に基づくカメラの相対位置及び回転量の判定について説明するための説明図である。図10に示したように、カメラ202の相対位置P0は、座標(Xcam,Ycam)で表現される。基準点RP1は座標(0,0)、基準点RP2は座標(XRP2,YRP2)、基準点RP3は座標(XRP3,YRP3)にそれぞれ位置するものとする。また、3つの波紋オブジェクトに共通する伝播速度をVwavとする。波紋オブジェクトの出発時刻Tは、デバイス間の同期が行われない場合、撮像側デバイスにとっては未知である。波紋オブジェクトWA1、WA2、WA3が位置P0に到達するまでに要した到達時間は、測定された到達時刻T、T及びTを用いて、それぞれ(T−T)、(T−T)及び(T−T)と表現することができる。基準点RP1、RP2及びRP3から位置P0までの距離D、D及びDは、次式のように表現される。
Figure 2015115046
ここで、三平方の定理により、次の3つの式が成り立つ。
Figure 2015115046
式(1)〜(3)において未知数は出発時刻T及び座標(Xcam,Ycam)の3つであるため、これら式を解くことにより、座標(Xcam,Ycam)を算出することができる。
なお、表示側デバイス100の画面に何らかの視覚的信号(例えば、画面全体が瞬間的に明るくなるなど)を表示することにより、波紋オブジェクトの出発時刻Tを撮像側デバイス200へ通知してもよい。また、波紋オブジェクトの出発時刻Tは、準備フェーズにおける交渉によってデバイス間で合意された時刻であってもよい。このようなデバイス間の同期が行われる場合には、出発時刻Tは双方のデバイスにとって既知となる。この場合、2つの波紋オブジェクトを表示するだけで、三平方の定理を用いて座標(Xcam,Ycam)を算出することができる。
(3)第3の例
図11は、判定用パターンの第3の例を示す説明図である。第3の例において、判定用パターンは、予め定義される軌道に沿って画面上を移動する移動オブジェクトを表示する。より具体的には、図11を参照すると、判定用パターンPT3は、軌道TR1に沿って移動する移動オブジェクトBA1、軌道TR2に沿って移動する移動オブジェクトBA2及び軌道TR3に沿って移動する移動オブジェクトBA3を表示する。パラメータ生成機能50は、カメラ202へのこれら移動オブジェクトの到達時間をそれぞれ測定し、測定した到達時間を示すパラメータを生成する。第3の例においても、上述した時刻同期の仕組みが利用されてよい。位置判定機能65は、パラメータ生成機能50により生成されたパラメータにより示される到達時間を用いて、カメラ202の相対位置を判定する。例えば、軌道TR1、TR2及びTR3並びに移動オブジェクトの移動速度が位置判定機能65にとって既知である場合、これら移動オブジェクトについて測定された到達時間から、カメラ202の相対位置を判定することができる。また、パラメータ生成機能50は、カメラ202へ各移動オブジェクトが到達した際の当該移動オブジェクトの移動方向を示すパラメータを生成し得る。位置判定機能65は、パラメータ生成機能50により生成されたパラメータにより示される移動方向に基づいて、カメラ202の相対的な回転量を判定し得る。なお、判定用パターンPT3により表示される移動オブジェクトの数は、図11の例に限定されず、1つ以上のいかなる数であってもよい。表示される移動オブジェクトの数が多いほど、最初の1つ(又はn個)の移動オブジェクトがカメラ202に到達するまでの時間がより短くなるため、相対位置及び回転量の判定に要する時間を短縮することができる。
(4)第4の例
図12は、判定用パターンの第4の例を示す説明図である。第4の例において、判定用パターンは、画面を走査する少なくとも2つの走査線オブジェクトを表示する。より具体的には、図12を参照すると、判定用パターンPT4は、垂直軸に平行で左から右へ移動する走査線オブジェクトLN1、及び水平軸に平行で上から下へ移動する走査線オブジェクトLN2を表示する。パラメータ生成機能50は、カメラ202へのこれら走査線オブジェクトの到達時間をそれぞれ測定し、測定した到達時間を示すパラメータを生成する。第4の例においても、上述した時刻同期の仕組みが利用されてよい。位置判定機能65は、パラメータ生成機能50により生成されたパラメータにより示される到達時間を用いて、カメラ202の相対位置を判定する。例えば、走査線オブジェクトLN1について測定された到達時間に基づいて、水平方向の座標値Xcamを決定することができる。走査線オブジェクトLN2について測定された到達時間に基づいて、垂直方向の座標値Ycamを決定することができる。また、各走査線オブジェクトは、その移動方向に沿った濃淡(又はその他の画像特性)の勾配を有する。パラメータ生成機能50は、カメラ202へ各走査線オブジェクトが到達した際に撮像画像から決定される濃淡の勾配の方向を示すパラメータを生成し得る。位置判定機能65は、パラメータ生成機能50により生成されたパラメータにより示される勾配の方向に基づいて、カメラ202の相対的な回転量を判定し得る。濃淡の勾配の方向の代わりに、撮像画像の複数のフレームを用いて判定される各走査線オブジェクトの移動方向が、回転量の判定のために使用されてもよい。
なお、図7〜図12を用いて説明した判定用パターンは、表示側デバイス100の画面の全体に表示されてもよく、又は当該画面の一部分にのみ表示されてもよい。例えば、表示側デバイス100は、センサ104又は入力インタフェース106を通じて(粗い認識精度で)認識され得る撮像側デバイス200の載置領域(例えば、閾値を上回る静電容量の変化又は圧力の変化が検出された領域)にのみ、判定用パターンを表示させてもよい。それにより、判定フェーズの間にも残る画面領域を用いてユーザに他の任意のサービスを提供することができる。
また、上述した判定用パターンは、一例に過ぎない。判定用パターンの候補は、他の種類の静止画パターン又は動画パターンを含んでもよい。また、判定用パターンの候補は、同じ種類で表示オブジェクトのサイズ、色又は移動速度が異なる複数の動画パターンを含んでもよい。
[5−2.位置判定の流れ]
(1)静止画のケース
図13Aは、第1の実施例において静止画パターンが使用される場合の表示側デバイス100の判定フェーズの処理の流れの一例を示すフローチャートである。
図13Aに示したように、判定フェーズの処理は、表示側デバイス100のトリガ検出機能20及び撮像側デバイス200のトリガ検出機能25の一方又は双方により判定開始トリガが検出された場合に開始される(ステップS111)。
判定開始トリガが検出された後、表示側デバイス100のパターン表示機能30は、ディスプレイ102の画面に、図7に例示したような静止画の判定用パターンを表示させる(ステップS113)。その後、表示側デバイス100の情報取得機能75は、撮像側デバイス200のカメラ202の相対位置(及び回転量)についての判定結果を示す判定情報の受信を、所定のタイムアウト期間が経過するまで待ち受ける(ステップS115)。その間、画面上の判定用パターンの表示は維持される。
判定情報が受信されることなくタイムアウト期間が経過すると(ステップS121)、パターン表示機能30は、再試行をすべきかを判定する(ステップS123)。例えば、パターン表示機能30は、再試行を指示するユーザ入力が検出された場合、試行回数が閾値に達していない場合、又は未試行の判定用パターンが存在する場合に、再試行をすべきであると判定してもよい。再試行をすべきであると判定された場合、処理はステップS113へ戻り、再び判定用パターンが画面に表示される(ステップS113)。ここで表示される判定用パターンは、既に試行された判定用パターンと同じパターンであってもよく、又は異なるパターンであってもよい。パターン表示機能30は、新たに表示される判定用パターンを識別する識別情報を、無線通信インタフェース114を介して撮像側デバイス200へ送信してもよい。再試行をすべきではないと判定された場合、図13Aに示した処理は終了する。
タイムアウト期間が経過する前に情報取得機能75により判定情報が受信されると、処理はUI処理フェーズに遷移し、表示側デバイス100のUI制御機能80によって、受信された判定結果に基づくGUIが画面に表示される(ステップS127)。
図13Bは、第1の実施例において静止画パターンが使用される場合の撮像側デバイス200の判定フェーズの処理の流れの一例を示すフローチャートである。
図13Bに示したように、判定フェーズの処理は、表示側デバイス100のトリガ検出機能20及び撮像側デバイス200のトリガ検出機能25の一方又は双方により判定開始トリガが検出された場合に開始される(ステップS211)。
判定開始トリガが検出された後、撮像側デバイス200のパターン撮像機能35は、表示側デバイス100により表示された静止画パターンをカメラ202を用いて撮像することにより、判定用パターンの撮像画像を取得する(ステップS213)。撮像側デバイス200のパラメータ生成機能50は、取得された判定用パターンの撮像画像の画像特性を表すパラメータを生成する(ステップS215)。撮像側デバイス200の位置判定機能65は、パラメータ生成機能50により生成されたパラメータを用いて、カメラ202の相対位置(及び回転量)を判定する(ステップS217)。
その後、撮像側デバイス200の位置判定機能65は、再試行をすべきかを判定する(ステップS219)。例えば、位置判定機能65は、ステップS217において正常な判定結果が得られなかった場合に、再試行をすべきであると判定してもよい。再試行をすべきであると判定された場合、処理はステップS213へ戻り、再び判定用パターンが撮像される。パラメータ生成機能50及び位置判定機能65は、無線通信インタフェース214を介して表示側デバイス100から受信される識別情報により識別される新たな判定用パターンを用いて、パラメータの生成及び相対位置の判定を再実行してもよい。
ステップS217において正常な判定結果が得られた場合、撮像側デバイス200の情報送信機能70は、位置判定機能65により判定された相対位置(及び回転量)を判定結果として示す判定情報を、無線通信インタフェース214を介して表示側デバイス100へ送信する(ステップS221)。
図14Aは、第2の実施例において静止画パターンが使用される場合の表示側デバイス100の判定フェーズの処理の流れの一例を示すフローチャートである。
判定開始トリガが検出された後、表示側デバイス100のパターン表示機能30は、ディスプレイ102の画面に、図7に例示したような静止画の判定用パターンを表示させる(ステップS113)。その後、表示側デバイス100のパラメータ取得機能60は、判定用パターンの撮像画像に基づいて撮像側デバイス200により生成されるパラメータの受信を、所定のタイムアウト期間が経過するまで待ち受ける(ステップS117)。その間、画面上の判定用パターンの表示は維持される。
パラメータが受信されることなくタイムアウト期間が経過すると(ステップS121)、パターン表示機能30は、再試行をすべきかを判定する(ステップS123)。再試行をすべきであると判定された場合、処理はステップS113へ戻り、再び判定用パターンが画面に表示される(ステップS113)。再試行をすべきではないと判定された場合、図14Aに示した処理は終了する。
タイムアウト期間が経過する前にパラメータ取得機能60によりパラメータが受信されると、表示側デバイス100の位置判定機能65は、受信されたパラメータを用いて、撮像側デバイス200のカメラ202の相対位置(及び回転量)を判定する(ステップS125)。その後、処理はUI処理フェーズに遷移し、表示側デバイス100のUI制御機能80によって、判定結果に基づくGUIが画面に表示される(ステップS127)。
図14Bは、第2の実施例において静止画パターンが使用される場合の撮像側デバイス200の判定フェーズの処理の流れの一例を示すフローチャートである。
判定開始トリガが検出された後、撮像側デバイス200のパターン撮像機能35は、表示側デバイス100により表示された静止画パターンをカメラ202を用いて撮像することにより、判定用パターンの撮像画像を取得する(ステップS213)。撮像側デバイス200のパラメータ生成機能50は、取得された判定用パターンの撮像画像の画像特性を表すパラメータを生成する(ステップS215)。
その後、撮像側デバイス200のパラメータ生成機能50は、再試行をすべきかを判定する(ステップS219)。例えば、パラメータ生成機能50は、ステップS215においてパラメータを正常に生成することができなかった場合に、再試行をすべきであると判定してもよい。再試行をすべきであると判定された場合、処理はステップS213へ戻り、再び判定用パターンが撮像される。
ステップS215において正常にパラメータが生成された場合、撮像側デバイス200のパラメータ送信機能55は、パラメータ生成機能50により生成されたパラメータを、無線通信インタフェース214を介して表示側デバイス100へ送信する(ステップS223)。
(2)動画のケース
図15Aは、第1の実施例において動画パターンが使用される場合の表示側デバイス100の判定フェーズの処理の流れの一例を示すフローチャートである。
図15Aに示したように、判定フェーズの処理は、表示側デバイス100のトリガ検出機能20及び撮像側デバイス200のトリガ検出機能25の一方又は双方により判定開始トリガが検出された場合に開始される(ステップS141)。
判定開始トリガが検出された後、表示側デバイス100のパターン表示機能30は、ディスプレイ102の画面に、図9、図11又は図12に例示したような動画の判定用パターンを表示させる(ステップS143)。その後、表示側デバイス100の情報取得機能75は、撮像側デバイス200のカメラ202の相対位置(及び回転量)についての判定結果を示す判定情報の受信を、所定のタイムアウト期間が経過するまで待ち受ける(ステップS145)。その間、画面上の判定用パターンの表示は維持される。
判定情報が受信されることなくタイムアウト期間が経過すると(ステップS151)、パターン表示機能30は、再試行をすべきかを判定する(ステップS153)。例えば、パターン表示機能30は、再試行を指示するユーザ入力が検出された場合、試行回数が閾値に達していない場合、撮像側デバイス200から再試行が要求された場合又は未試行の判定用パターンが存在する場合に、再試行をすべきであると判定してもよい。再試行をすべきであると判定された場合、処理はステップS143へ戻り、再び判定用パターンが画面に表示される(ステップS143)。ここで表示される判定用パターンは、既に試行された判定用パターンと同じパターンであってもよく、又は異なるパターンであってもよい。パターン表示機能30は、新たに表示される判定用パターンを識別する識別情報を、無線通信インタフェース114を介して撮像側デバイス200へ送信してもよい。再試行をすべきではないと判定された場合、図15Aに示した処理は終了する。
タイムアウト期間が経過する前に情報取得機能75により判定情報が受信されると、処理はUI処理フェーズに遷移し、表示側デバイス100のUI制御機能80によって、受信された判定結果に基づくGUIが画面に表示される(ステップS157)。
図15Bは、第1の実施例において動画パターンが使用される場合の撮像側デバイス200の判定フェーズの処理の流れの一例を示すフローチャートである。
図15Bに示したように、判定フェーズの処理は、表示側デバイス100のトリガ検出機能20及び撮像側デバイス200のトリガ検出機能25の一方又は双方により判定開始トリガが検出された場合に開始される(ステップS241)。
判定開始トリガが検出された後、撮像側デバイス200のパターン撮像機能35は、表示側デバイス100により表示された動画パターンをカメラ202を用いて撮像することにより、判定用パターンの撮像画像を取得する(ステップS243)。カメラ202による撮像は、所定の表示オブジェクトが検出されるまで(ステップS245)、又は所定のタイムアウト期間が経過するまで(ステップS247)、繰り返し行われる。ここでの所定の表示オブジェクトとは、例えば、図9を用いて説明した3つの波紋オブジェクト、図11を用いて説明した移動オブジェクトのうちの1つ、又は図12を用いて説明した2つの走査線オブジェクトなどであってよい。所定の表示オブジェクトが検出されると、撮像側デバイス200のパラメータ生成機能50は、表示オブジェクトの検出結果に基づいて、パラメータを生成する(ステップS249)。撮像側デバイス200の位置判定機能65は、パラメータ生成機能50により生成されたパラメータを用いて、カメラ202の相対位置(及び回転量)を判定する(ステップS251)。
その後、撮像側デバイス200の位置判定機能65は、再試行をすべきかを判定する(ステップS253)。例えば、位置判定機能65は、ステップS251において正常な判定結果が得られなかった場合又は再試行を指示するユーザ入力が検出された場合に、再試行をすべきであると判定してもよい。再試行の判定は、所定の表示オブジェクトが検出されることなくタイムアウト期間が経過した場合にも行われる。再試行をすべきであると判定された場合、撮像側デバイス200の位置判定機能65は、表示側デバイスへ再試行を要求する(ステップS263)。そして、処理はステップS243へ戻り、再び判定用パターンが撮像される。パラメータ生成機能50及び位置判定機能65は、無線通信インタフェース214を介して表示側デバイス100から受信される識別情報により識別される新たな判定用パターンを用いて、パラメータの生成及び相対位置の判定を再実行してもよい。
ステップS251において正常な判定結果が得られた場合、撮像側デバイス200の情報送信機能70は、位置判定機能65により判定された相対位置(及び回転量)を判定結果として示す判定情報を、無線通信インタフェース214を介して表示側デバイス100へ送信する(ステップS265)。
図16Aは、第2の実施例において動画パターンが使用される場合の表示側デバイス100の判定フェーズの処理の流れの一例を示すフローチャートである。
判定開始トリガが検出された後、表示側デバイス100のパターン表示機能30は、ディスプレイ102の画面に、図9、図11又は図12に例示したような動画の判定用パターンを表示させる(ステップS143)。その後、表示側デバイス100のパラメータ取得機能60は、判定用パターンの撮像画像に基づいて撮像側デバイス200により生成されるパラメータの受信を、所定のタイムアウト期間が経過するまで待ち受ける(ステップS147)。その間、画面上の判定用パターンの表示は維持される。
パラメータが受信されることなくタイムアウト期間が経過すると(ステップS151)、パターン表示機能30は、再試行をすべきかを判定する(ステップS153)。再試行をすべきであると判定された場合、処理はステップS143へ戻り、再び判定用パターンが画面に表示される(ステップS143)。再試行をすべきではないと判定された場合、図16Aに示した処理は終了する。
タイムアウト期間が経過する前にパラメータ取得機能60によりパラメータが受信されると、表示側デバイス100の位置判定機能65は、受信されたパラメータを用いて、撮像側デバイス200のカメラ202の相対位置(及び回転量)を判定する(ステップS155)。その後、処理はUI処理フェーズに遷移し、表示側デバイス100のUI制御機能80によって、判定結果に基づくGUIが画面に表示される(ステップS157)。
図16Bは、第2の実施例において動画パターンが使用される場合の撮像側デバイス200の判定フェーズの処理の流れの一例を示すフローチャートである。
判定開始トリガが検出された後、撮像側デバイス200のパターン撮像機能35は、表示側デバイス100により表示された動画パターンをカメラ202を用いて撮像することにより、判定用パターンの撮像画像を取得する(ステップS243)。カメラ202による撮像は、所定の表示オブジェクトが検出されるまで(ステップS245)、又は所定のタイムアウト期間が経過するまで(ステップS247)、繰り返し行われる。所定の表示オブジェクトが検出されると、撮像側デバイス200のパラメータ生成機能50は、表示オブジェクトの検出結果に基づいて、パラメータを生成する(ステップS249)。
その後、撮像側デバイス200のパラメータ生成機能50は、再試行をすべきかを判定する(ステップS261)。例えば、パラメータ生成機能50は、ステップS249においてパラメータを正常に生成することができなかった場合又は再試行を指示するユーザ入力が検出された場合に、再試行をすべきであると判定してもよい。再試行の判定は、所定の表示オブジェクトが検出されることなくタイムアウト期間が経過した場合にも行われる。再試行をすべきであると判定された場合、撮像側デバイス200のパラメータ生成機能50は、表示側デバイスへ再試行を要求する(ステップS263)。そして、処理はステップS243へ戻り、再び判定用パターンが撮像される。
ステップS249において正常にパラメータが生成された場合、撮像側デバイス200のパラメータ送信機能55は、パラメータ生成機能50により生成されたパラメータを、無線通信インタフェース214を介して表示側デバイス100へ送信する(ステップS267)。
<6.UI処理フェーズの詳細>
本節では、上述したUI処理フェーズにおいてユーザに提供されるユーザインタフェースの詳細について説明する。ここで説明するユーザインタフェースは、大まかに2種類のUIに分類される。第1の種類のUIは、撮像側デバイス200のカメラ202の位置(及び回転量)に基づいて表示される、デバイス間のデータ連携のためのGUIである。第2の種類のUIは、カメラ202の位置をポインティング位置として利用するUIである。
[6−1.データ連携]
(1)第1の例
図17は、デバイス間のデータ連携のためのUIの第1の例を示す説明図である。図17を参照すると、UI処理フェーズにおいて表示側デバイス100の画面に表示され得るUI画像IM01、及び画面に載置された撮像側デバイス200が示されている。撮像側デバイス200のカメラ202は、座標(Xcam,Ycam)を有する画面上の点P01に位置し、垂直軸から回転量Rcamだけ傾いている。表示側デバイス100のUI制御機能80は、表示制御信号をディスプレイ102へ出力することにより、撮像側デバイス200に関連付けられるUIオブジェクトRG1を画面に表示させる。UIオブジェクトRG1は、点P01を通り、回転量Rcamだけ傾いた長軸を有する楕円型の表示オブジェクトである。UIオブジェクトRG1の表示位置は、点P01の座標(Xcam,Ycam)及び回転量Rcamに基づいて決定され得る。UIオブジェクトRG1の楕円軌道上には、撮像側デバイス200が保持する(例えば、メモリ208により記憶されている)画像コンテンツのサムネイルが、順に並べられる。
一方、表示側デバイス100の画面の空き領域には、アプリケーションウィンドウAP01が表示される。アプリケーションウィンドウAP01は、イメージビューワのためのウィンドウである。例えば、UI制御機能80は、UIオブジェクトRG1上のあるサムネイルをアプリケーションウィンドウAP01へドラッグするユーザ入力(図中の矢印D01a)を、入力インタフェース106を介して検出する。すると、撮像側デバイス200のデータ連携機能95は、表示側デバイス100のデータ連携機能90からの要求に応じて、ユーザにより指定された画像コンテンツのコンテンツデータを無線リンクを介して送信する。表示側デバイス100のデータ連携機能90は、撮像側デバイス200から受信される当該コンテンツデータをイメージビューワへ受け渡す。その結果、指定された画像コンテンツが、アプリケーションウィンドウAP01において再生される。また、UI制御機能80は、UIオブジェクトRG1の楕円軌道に沿ったドラッグを示すユーザ入力(図中の矢印D01b)を検出すると、一連の画像コンテンツのサムネイルを楕円軌道に沿ってスクロールさせる。ユーザは、このような操作を通じて、撮像側デバイス200が保持する画像コンテンツから所望のコンテンツを選択して、選択した画像コンテンツを表示側デバイス100の大きい画面で閲覧することができる。
(2)第2の例
図18は、デバイス間のデータ連携のためのUIの第2の例を示す説明図である。図18を参照すると、UI処理フェーズにおいて表示側デバイス100の画面に表示され得るUI画像IM02、及び画面に載置された撮像側デバイス200が示されている。表示側デバイス100のUI制御機能80は、表示制御信号をディスプレイ102へ出力することにより、撮像側デバイス200に関連付けられるUIオブジェクトRG2を画面に表示させる。UIオブジェクトRG2は、撮像側デバイス200のカメラ202の相対位置及び回転量に基づいて決定される配置を有する楕円型の表示オブジェクトである。UIオブジェクトRG2の楕円軌道上には、撮像側デバイス200が保持する(例えば、メモリ208により記憶されている)音声コンテンツのタイトルラベルをそれぞれ有するアイコンが、順に並べられる。
一方、表示側デバイス100の画面の空き領域には、アプリケーションウィンドウAP02が表示される。アプリケーションウィンドウAP02は、オーディオプレーヤのためのウィンドウである。例えば、UI制御機能80は、UIオブジェクトRG2上のあるアイコンをアプリケーションウィンドウAP02へドラッグするユーザ入力(図中の矢印D02a)を、入力インタフェース106を介して検出する。すると、撮像側デバイス200のデータ連携機能95は、表示側デバイス100のデータ連携機能90からの要求に応じて、ユーザにより指定された音声コンテンツのコンテンツデータを無線リンクを介して送信する。表示側デバイス100のデータ連携機能90は、撮像側デバイス200から受信される当該コンテンツデータをオーディオプレーヤへ受け渡す。その結果、指定された音声コンテンツが再生される。また、UI制御機能80は、UIオブジェクトRG2の楕円軌道に沿ったドラッグを示すユーザ入力(図中の矢印D02b)を検出すると、一連の音声コンテンツのアイコンを楕円軌道に沿ってスクロールさせる。ユーザは、このような操作を通じて、撮像側デバイス200が保持する音声コンテンツから所望のコンテンツを選択して、選択した音声コンテンツを表示側デバイス100のスピーカ112を通じて楽しむことができる。
(3)第3の例
図19は、デバイス間のデータ連携のためのUIの第3の例を示す説明図である。図19を参照すると、UI処理フェーズにおいて表示側デバイス100の画面に表示され得るUI画像IM03、及び画面に載置された撮像側デバイス200が示されている。表示側デバイス100のUI制御機能80は、表示制御信号をディスプレイ102へ出力することにより、撮像側デバイス200に関連付けられるUIオブジェクトRG3を画面に表示させる。UIオブジェクトRG3は、撮像側デバイス200のカメラ202の相対位置及び回転量に基づいて決定される配置を有する楕円型の表示オブジェクトである。UIオブジェクトRG3の楕円軌道上には、撮像側デバイス200が保持する様々なコンテンツ(例えば、画像コンテンツ、音声コンテンツ及びゲームのセーブデータ)のアイコンが、順に並べられる。
一方、表示側デバイス100の画面の空き領域には、アプリケーションウィンドウAP03が表示される。アプリケーションウィンドウAP03は、ファイルマネージャのためのウィンドウである。例えば、UI制御機能80は、UIオブジェクトRG3上のあるアイコンをアプリケーションウィンドウAP03へドラッグするユーザ入力(図中の矢印D03a)を、入力インタフェース106を介して検出する。すると、撮像側デバイス200のデータ連携機能95は、表示側デバイス100のデータ連携機能90からの要求に応じて、ユーザにより指定されたアイコンに対応するコンテンツのデータファイルを無線リンクを介して送信する。表示側デバイス100のデータ連携機能90は、撮像側デバイス200から受信される当該データファイルをファイルマネージャへ受け渡す。その結果、指定されたデータファイルが、アプリケーションウィンドウAP03において選択されている表示側デバイス100のフォルダへ格納される。逆に、アプリケーションウィンドウAP03からUIオブジェクトRG3へのドラッグを示すユーザ入力(図中の矢印D03b)がUI制御機能80により検出されると、表示側デバイス100が保持するデータファイルが撮像側デバイス200へ転送され得る。
(4)第4の例
図20は、デバイス間のデータ連携のためのUIの第4の例を示す説明図である。図20を参照すると、UI処理フェーズにおいて表示側デバイス100の画面に表示され得るUI画像IM04、及び画面に載置された撮像側デバイス200が示されている。撮像側デバイス200は、カメラ202が画面上の点P05に位置するように、表示側デバイス100の画面上に載置されている。過去には撮像側デバイス200は別の場所に載置されており、カメラ202は、第1の時点では点P02に、第2の時点では点P03に、第3の時点では点P04にそれぞれ位置していたものとする。
第1の時点において、撮像側デバイス200のデータ連携機能95は、何らかのユーザ入力に応じて、画像コンテンツC02のコンテンツデータを無線リンクを介して送信する。表示側デバイス100のデータ連携機能90により撮像側デバイス200から当該コンテンツデータが受信されると、UI制御機能80は、表示制御信号をディスプレイ102へ出力することにより、画像コンテンツC02を再生する表示オブジェクトを画面に表示させる。当該表示オブジェクトは、表示側デバイス100の画面に対する撮像側デバイス200の相対的配置に対応する領域を占める。表示オブジェクトが占める当該領域は、判定フェーズにおいて判定されたカメラ202の相対位置及び回転量、並びに、撮像側デバイス200について予め定義された上述したプロファイルデータを用いて決定され得る。第2の時点、第3の時点及び第4の時点においても、同様にして、それぞれ画像コンテンツC03、C04及びC05を再生する表示オブジェクトが、表示側デバイス100の画面に順に貼り付けられ得る。
(5)第5の例
図17〜図19では、表示側デバイス100と撮像側デバイス200との間のデータ連携のためのUIが示されている。同様のUIは、2つ以上の撮像側デバイス200の間のデータ連携にも応用可能である。図21は、デバイス間のデータ連携のためのUIの第5の例を示す説明図である。図21を参照すると、UI処理フェーズにおいて表示側デバイス100の画面に表示され得るUI画像IM05、並びに画面に載置された2つの撮像側デバイス200c及び200dが示されている。表示側デバイス100のUI制御機能80は、撮像側デバイス200cに関連付けられるUIオブジェクトRG5c及び撮像側デバイス200dに関連付けられるUIオブジェクトRG5dを画面に表示させる。UIオブジェクトRG5c及びRG5dは、それぞれ判定フェーズにおいて判定されたカメラの相対位置及び回転量に基づいて決定される配置を有する楕円型の表示オブジェクトである。UIオブジェクトRG5cの楕円軌道上には、撮像側デバイス200cが保持するコンテンツのアイコンが順に並べられる。UIオブジェクトRG5dの楕円軌道上には、撮像側デバイス200dが保持するコンテンツのアイコンが順に並べられる。
表示側デバイス100のUI制御機能80は、UIオブジェクトRG5dからUIオブジェクトRG5cへのドラッグを示すユーザ入力(図中の矢印D05)を検出すると、撮像側デバイス200dが保持するユーザにより指定されたコンテンツのコンテンツデータを、撮像側デバイス200cへ無線リンクを介して送信させる。同様に、UI制御機能80は、UIオブジェクトRG5cからUIオブジェクトRG5dへのドラッグを示すユーザ入力を検出すると、撮像側デバイス200cが保持するユーザにより指定されたコンテンツのコンテンツデータを、撮像側デバイス200dへ無線リンクを介して送信させる。
(6)第6の例
図22は、デバイス間のデータ連携のためのUIの第6の例を示す説明図である。図22を参照すると、UI処理フェーズにおいて表示側デバイス100の画面に表示され得るUI画像IM06、及びユーザにより画面から離された撮像側デバイス200が示されている。撮像側デバイス200が表示側デバイス100の画面に載置されていた間、判定フェーズの処理によって、カメラ202は点P06に位置すると判定されたものとする。表示側デバイス100のUI制御機能80は、表示制御信号をディスプレイ102へ出力することにより、撮像側デバイス200に関連付けられるUIオブジェクトAP06を画面に表示させる。UIオブジェクトAP06は、撮像側デバイス200を遠隔的に操作することをユーザに可能とするリモートデスクトップアプリケーションのためのウィンドウである。UIオブジェクトAP06は、表示側デバイス100の画面に対する撮像側デバイス200の(判定フェーズが実行された時点の)相対的配置に対応する領域を占める。UIオブジェクトAP06が占める当該領域は、判定フェーズにおいて判定されたカメラ202の相対位置及び回転量、並びに、撮像側デバイス200について予め定義された上述したプロファイルデータを用いて決定され得る。このようなリモートデスクトップ用のウィンドウは、複数の撮像側デバイス200について生成されてもよい。
[6−2.ポインティングUI]
(1)第1の例
図23は、ポインティングUIの第1の例を示す説明図である。図23を参照すると、表示側デバイス100の画面に、アプリケーションウィンドウAP11を含むUI画像IM12が表示されている。アプリケーションウィンドウAP11は、パズルゲームのためのウィンドウである。ユーザは、例えば、カメラ202が点P11に位置するように撮像側デバイス200を配置した状態で、判定開始トリガに相当するユーザ入力をデバイスに与える。すると、表示側デバイス100の画面に対するカメラ202の相対位置が、上述した仕組みに従って、表示側デバイス100により取得される。表示側デバイス100のデータ連携機能90は、取得された相対位置(即ち、点P11)がアプリケーションウィンドウAP11をポインティングしていることを認識し、対応するパズルゲームのアプリケーションデータを撮像側デバイス200へ送信する(図中の矢印D11)。撮像側デバイス200のデータ連携機能95は、表示側デバイス100から受信されるアプリケーションデータを用いて、ユーザによりポインティングされたパズルゲームを撮像側デバイス200にインストールする。このようなポインティングUIを通じてインストールされるアプリケーションは、ゲームアプリケーションに限定されず、任意の種類のアプリケーションであってよい。
(2)第2の例
図24は、ポインティングUIの第2の例を示す説明図である。図24を参照すると、表示側デバイス100の画面に、UI画像IM12が表示されている。UI画像IM12は、動画コンテンツのプレーヤのためのウィンドウである。ユーザは、例えば、カメラ202が点P12に位置するように撮像側デバイス200を配置した状態で、判定開始トリガに相当するユーザ入力をデバイスに与える。すると、表示側デバイス100の画面に対するカメラ202の相対位置が、上述した仕組みに従って、表示側デバイス100により取得される。表示側デバイス100のデータ連携機能90は、取得された相対位置(即ち、点P12)が動画コンテンツC12をポインティングしていることを認識し、動画コンテンツC12のコンテンツデータを撮像側デバイス200へ送信する(図中の矢印D12)。撮像側デバイス200のデータ連携機能95は、表示側デバイス100から当該コンテンツデータを受信し、動画コンテンツC12を再生し又は記憶する。このようなポインティングUIを通じて送受信されるコンテンツは、動画コンテンツに限定されず、任意の種類のコンテンツであってよい。
(3)第3の例
図25は、ポインティングUIの第3の例を示す説明図である。図25を参照すると、表示側デバイス100の画面に、アプリケーションウィンドウAP13を含むUI画像IM13が表示されている。アプリケーションウィンドウAP13は、地図を表示するナビゲーションアプリケーションのためのウィンドウである。ユーザは、例えば、カメラ202が点P13に位置するように撮像側デバイス200を配置した状態で、判定開始トリガに相当するユーザ入力をデバイスに与える。すると、表示側デバイス100の画面に対するカメラ202の相対位置が、上述した仕組みに従って、表示側デバイス100により取得される。表示側デバイス100のデータ連携機能90は、取得された相対位置(即ち、点P13)に対応する地図上の地点のより詳細な地図データを、撮像側デバイス200へ送信する(図中の矢印D13)。撮像側デバイス200のデータ連携機能95は、表示側デバイス100から当該地図データを受信し、撮像側デバイス200の画面に詳細地図を表示させる。
(4)第4の例
図26は、ポインティングUIの第4の例を示す説明図である。図26を参照すると、表示側デバイス100の画面に、アプリケーションウィンドウAP14を含むUI画像IM14が表示されている。アプリケーションウィンドウAP14は、レストラン情報を記述したWebページを表示するブラウザのためのウィンドウである。ユーザは、例えば、カメラ202が点P14に位置するように撮像側デバイス200を配置した状態で、判定開始トリガに相当するユーザ入力をデバイスに与える。すると、表示側デバイス100の画面に対するカメラ202の相対位置が、上述した仕組みに従って、表示側デバイス100により取得される。表示側デバイス100のデータ連携機能90は、取得された相対位置(即ち、点P14)に関連付けられたリンク先を示すリンクデータ(例えば、URL)を、撮像側デバイス200へ送信する(図中の矢印D14)。撮像側デバイス200のデータ連携機能95は、表示側デバイス100から当該リンクデータを受信し、リンクデータを用いてリンク先のWebサーバから取得されるWebコンテンツを撮像側デバイス200の画面に表示させる。ここで取得されるWebコンテンツは、例えば、通常のWebページであってもよく、又はオンラインクーポンのような特殊なデータであってもよい。
(5)第5の例
図27は、ポインティングUIの第5の例を示す説明図である。図27を参照すると、表示側デバイス100の画面に、アプリケーションウィンドウAP15を含むUI画像IM15が表示されている。アプリケーションウィンドウAP15は、クイズ問題を記述した文書を表示するドキュメントビューワのためのウィンドウである。ユーザは、例えば、カメラ202が点P15に位置するように撮像側デバイス200を配置した状態で、判定開始トリガに相当するユーザ入力をデバイスに与える。すると、表示側デバイス100の画面に対するカメラ202の相対位置が、上述した仕組みに従って、表示側デバイス100により取得される。表示側デバイス100のデータ連携機能90は、取得された相対位置(即ち、点P15)に表示されているクイズ問題を識別する識別データを、撮像側デバイス200へ送信する(図中の矢印D15)。撮像側デバイス200のデータ連携機能95は、表示側デバイス100から受信される当該識別データにより識別されるクイズ問題の回答を、撮像側デバイス200の画面に表示させる。このようなポインティングUIを通じて撮像側デバイス200により表示される情報は、クイズ問題の回答に限定されず、表示側デバイス100により表示される情報に対応する任意の詳細情報又は関連情報であってよい。
<7.まとめ>
ここまで、図1〜図27を用いて、本開示に係る技術の様々な実施形態について説明した。上述した実施形態によれば、表示側デバイスの画面にカメラが対向するように当該カメラを有する撮像側デバイスが配置された状態で、表示側デバイスの画面に所定の判定用パターンが表示され、撮像側デバイスのカメラにより撮像される判定用パターンの画像に基づいて撮像側デバイスのカメラの相対位置が判定される。従って、ユーザにより指定された位置を、これらデバイスを俯瞰的な視点から撮像する別のカメラからの画像に基づいて特定するような手法と比較して、より精細な位置の特定が可能となる。例えば、表示側デバイスの画面上の任意の位置を、高い分解能で特定することができる。上述した実施形態は、電子機器が一般的に有する画面及びカメラを用いて実現可能であり、タッチパネルへの入力用の突起のような追加的な部品は必要とされない。
また、上述した実施形態によれば、判定用パターンの撮像画像を用いて取得されるカメラの相対位置に基づいてユーザインタフェースを制御するために生成される表示制御信号が、表示側デバイス又は撮像側デバイスのディスプレイへ出力される。従って、本開示に係る技術を基盤として用いて、表示側デバイス及び撮像側デバイスの固有の特徴(即ち、比較的サイズの大きい画面又はポータビリティなど)を活かした多様なユーザインタフェースをユーザに提供することができる。
また、上述した実施形態によれば、撮像側デバイスのカメラの相対位置に基づいて決定される表示側デバイスの画面上の表示位置に、撮像側デバイスに関連するGUIが表示される。そして、ユーザは、小型であるために操作をすることが煩雑な撮像側デバイスの画面の代わりに、表示側デバイスの画面上の当該GUIを介して、撮像側デバイスが保持するコンテンツを操作することができる。また、当該GUIに相当する表示オブジェクトの形状及びサイズは、撮像側デバイスのプロファイルデータを用いて決定され得る。この場合、操作対象の撮像側デバイスとGUIとの間の関連付けをユーザが直感的に把握することが可能となり、ユーザビリティが一層向上され得る。判定用パターンの撮像画像を用いてさらに撮像側デバイスの回転量が取得され、取得された回転量にさらに基づいてGUIが表示される場合には、操作対象の撮像側デバイスとGUIとの間の関連付けはさらに強化される。例えば、撮像側デバイスを表示側デバイスの画面から離した後に撮像側デバイスの痕跡又は影(のような表示オブジェクト)を表示側デバイスの画面上に残すことも可能となる。
また、上述した実施形態によれば、判定用パターンの撮像画像を用いて取得されるカメラの相対位置に基づいて、デバイス間のデータ連携の対象とすべきコンテンツを指定するようなポインティングUIもまた提供され得る。この場合、ユーザは、データ連携に関与するデバイス(例えば、撮像側デバイス)と対象コンテンツ(表示側デバイスが保持する任意のコンテンツ)とを、一度の操作で同時に指定することができる。
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体(非一時的な媒体:non-transitory media)に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
また、本明細書においてフローチャートを用いて説明した処理は、必ずしもフローチャートに示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
また、各装置の論理的機能の一部は、当該装置上に実装される代わりに、クラウドコンピューティング環境内に存在する装置(例えば、クラウドサーバ)上に実装されてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的又は例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果と共に、又は上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
画面にカメラが対向するように当該カメラを有するデバイスが配置された状態で前記画面に所定のパターンを表示させる表示制御部と、
前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する位置取得部と、
を備える情報処理装置。
(2)
前記表示制御部は、前記位置取得部により取得される前記カメラの前記相対位置に基づいて、表示制御信号を生成する、前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記画面の表示を制御するために前記表示制御信号を生成する、前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記位置取得部により取得される前記カメラの前記相対位置に基づいて決定される前記画面上の表示位置に、前記デバイスに関連するグラフィカルUIが表示されるように、前記表示制御信号を生成する、前記(3)に記載の情報処理装置。
(5)
前記情報処理装置は、前記デバイスが有する画面の表示を制御するために前記表示制御部により生成される前記表示制御信号を前記デバイスへ送信する通信部、をさらに備える、前記(2)に記載の情報処理装置。
(6)
前記表示制御部は、前記位置取得部により取得される前記カメラの前記相対位置に基づいて選択されるコンテンツを、前記デバイスに再生させ又は記憶させる、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記位置取得部は、前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの回転量をさらに取得し、
前記表示制御部は、前記カメラの前記回転量にさらに基づいて、前記表示制御信号を生成する、
前記(2)〜(4)のいずれか1項に記載の情報処理装置。
(8)
前記表示制御部は、前記相対位置、前記回転量及び前記デバイスにおける前記カメラの配置を定義するプロファイルデータを用いて、前記画面に対する前記デバイスの相対的配置に対応する表示オブジェクトを表示させるための前記表示制御信号を生成する、前記(7)に記載の情報処理装置。
(9)
前記所定のパターンは、位置に依存して変化する画像特性を有する静止画である、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記所定のパターンは、前記画面上で時間を追って移動する1つ以上の表示オブジェクトを表示する動画である、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(11)
前記カメラの前記相対位置は、前記カメラへの前記1つ以上の表示オブジェクトの到達時間を用いて判定される、前記(10)に記載の情報処理装置。
(12)
前記1つ以上の表示オブジェクトは、
少なくとも2つの基準位置からそれぞれ発せられる波紋オブジェクト、
予め定義される軌道に沿って前記画面上を移動する移動オブジェクト、又は
前記画面を走査する少なくとも2つの走査線オブジェクト、
を含む、前記(11)に記載の情報処理装置。
(13)
前記表示制御部は、前記情報処理装置へのユーザ入力又は前記デバイスへのユーザ入力に応じて、前記画面に前記所定のパターンを表示させる、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記表示制御部は、前記画面に前記デバイスが接触したことを示すセンサ入力に応じて、前記画面に前記所定のパターンを表示させる、前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(15)
前記位置取得部は、前記デバイスにより前記パターンの画像に基づいて判定される前記カメラの前記相対位置を示す位置データを、前記デバイスから取得する、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(16)
前記位置取得部は、前記デバイスにより前記パターンの画像に基づいて生成されるパラメータを前記デバイスから取得し、取得した当該パラメータを用いて前記カメラの前記相対位置を判定する、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(17)
前記位置取得部は、前記デバイスにより撮像される前記パターンの画像を取得し、取得した前記パターンの画像に基づいて前記カメラの前記相対位置を判定する、前記(1)〜(14)のいずれか1項に記載の情報処理装置。
(18)
情報処理装置を制御するプロセッサを、
画面にカメラが対向するように当該カメラを有するデバイスが配置された状態で前記画面に所定のパターンを表示させ、
前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する、
ように機能させるためのプログラム。
(19)
画面を有する第1デバイス及びカメラを有する第2デバイスを含む情報処理システムにおいて、
前記第1デバイスの前記画面に前記カメラが対向するように前記第2デバイスが配置された状態で、前記画面に所定のパターンを表示させることと、
前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得することと、
を含む情報処理方法。
(20)
画面を有する第1デバイス及びカメラを有する第2デバイスを含む情報処理システムであって、
前記第1デバイスは、
前記画面に前記カメラが対向するように前記第2デバイスが配置された状態で、前記画面に所定のパターンを表示させる表示制御部、
を備え、
前記第1デバイス又は前記第2デバイスは、
前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する位置取得部、
を備える、
情報処理システム。
(21)
画面を有するデバイスの当該画面にカメラが対向するように当該カメラが配置された状態で前記画面に表示される所定のパターンを前記カメラにより撮像した撮像画像を取得する画像取得部と、
前記画像取得部により取得される前記撮像画像に基づいて、前記画面に対する前記カメラの相対位置を判定するために使用されるパラメータを生成する制御部と、
を備える情報処理装置。
(22)
情報処理装置を制御するプロセッサを、
画面を有するデバイスの当該画面にカメラが対向するように当該カメラが配置された状態で前記画面に表示される所定のパターンを前記カメラにより撮像した撮像画像を取得し、
取得した前記撮像画像に基づいて、前記画面に対する前記カメラの相対位置を判定するために使用されるパラメータを生成する、
ように機能させるためのプログラム。
1a,1b 情報処理システム
100 表示側デバイス(情報処理装置)
102 ディスプレイ
118 プロセッサ
200 撮像側デバイス(情報処理装置)
202 カメラ
218 プロセッサ

Claims (20)

  1. 画面にカメラが対向するように当該カメラを有するデバイスが配置された状態で前記画面に所定のパターンを表示させる表示制御部と、
    前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する位置取得部と、
    を備える情報処理装置。
  2. 前記表示制御部は、前記位置取得部により取得される前記カメラの前記相対位置に基づいて、表示制御信号を生成する、請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記画面の表示を制御するために前記表示制御信号を生成する、請求項2に記載の情報処理装置。
  4. 前記表示制御部は、前記位置取得部により取得される前記カメラの前記相対位置に基づいて決定される前記画面上の表示位置に、前記デバイスに関連するグラフィカルUIが表示されるように、前記表示制御信号を生成する、請求項3に記載の情報処理装置。
  5. 前記情報処理装置は、前記デバイスが有する画面の表示を制御するために前記表示制御部により生成される前記表示制御信号を前記デバイスへ送信する通信部、をさらに備える、請求項2に記載の情報処理装置。
  6. 前記表示制御部は、前記位置取得部により取得される前記カメラの前記相対位置に基づいて選択されるコンテンツを、前記デバイスに再生させ又は記憶させる、請求項1に記載の情報処理装置。
  7. 前記位置取得部は、前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの回転量をさらに取得し、
    前記表示制御部は、前記カメラの前記回転量にさらに基づいて、前記表示制御信号を生成する、
    請求項2に記載の情報処理装置。
  8. 前記表示制御部は、前記相対位置、前記回転量及び前記デバイスにおける前記カメラの配置を定義するプロファイルデータを用いて、前記画面に対する前記デバイスの相対的配置に対応する表示オブジェクトを表示させるための前記表示制御信号を生成する、請求項7に記載の情報処理装置。
  9. 前記所定のパターンは、位置に依存して変化する画像特性を有する静止画である、請求項1に記載の情報処理装置。
  10. 前記所定のパターンは、前記画面上で時間を追って移動する1つ以上の表示オブジェクトを表示する動画である、請求項1に記載の情報処理装置。
  11. 前記カメラの前記相対位置は、前記カメラへの前記1つ以上の表示オブジェクトの到達時間を用いて判定される、請求項10に記載の情報処理装置。
  12. 前記1つ以上の表示オブジェクトは、
    少なくとも2つの基準位置からそれぞれ発せられる波紋オブジェクト、
    予め定義される軌道に沿って前記画面上を移動する移動オブジェクト、又は
    前記画面を走査する少なくとも2つの走査線オブジェクト、
    を含む、請求項11に記載の情報処理装置。
  13. 前記表示制御部は、前記情報処理装置へのユーザ入力又は前記デバイスへのユーザ入力に応じて、前記画面に前記所定のパターンを表示させる、請求項1に記載の情報処理装置。
  14. 前記表示制御部は、前記画面に前記デバイスが接触したことを示すセンサ入力に応じて、前記画面に前記所定のパターンを表示させる、請求項1に記載の情報処理装置。
  15. 前記位置取得部は、前記デバイスにより前記パターンの画像に基づいて判定される前記カメラの前記相対位置を示す位置データを、前記デバイスから取得する、請求項1に記載の情報処理装置。
  16. 前記位置取得部は、前記デバイスにより前記パターンの画像に基づいて生成されるパラメータを前記デバイスから取得し、取得した当該パラメータを用いて前記カメラの前記相対位置を判定する、請求項1に記載の情報処理装置。
  17. 前記位置取得部は、前記デバイスにより撮像される前記パターンの画像を取得し、取得した前記パターンの画像に基づいて前記カメラの前記相対位置を判定する、請求項1に記載の情報処理装置。
  18. 情報処理装置を制御するプロセッサを、
    画面にカメラが対向するように当該カメラを有するデバイスが配置された状態で前記画面に所定のパターンを表示させ、
    前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する、
    ように機能させるためのプログラム。
  19. 画面を有する第1デバイス及びカメラを有する第2デバイスを含む情報処理システムにおいて、
    前記第1デバイスの前記画面に前記カメラが対向するように前記第2デバイスが配置された状態で、前記画面に所定のパターンを表示させることと、
    前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得することと、
    を含む情報処理方法。
  20. 画面を有する第1デバイス及びカメラを有する第2デバイスを含む情報処理システムであって、
    前記第1デバイスは、
    前記画面に前記カメラが対向するように前記第2デバイスが配置された状態で、前記画面に所定のパターンを表示させる表示制御部、
    を備え、
    前記第1デバイス又は前記第2デバイスは、
    前記カメラにより撮像される前記パターンの画像に基づいて判定される前記画面に対する前記カメラの相対位置を取得する位置取得部、
    を備える、
    情報処理システム。
JP2013259106A 2013-12-16 2013-12-16 情報処理装置、プログラム、情報処理方法及び情報処理システム Pending JP2015115046A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013259106A JP2015115046A (ja) 2013-12-16 2013-12-16 情報処理装置、プログラム、情報処理方法及び情報処理システム
US14/563,681 US9473808B2 (en) 2013-12-16 2014-12-08 Information processing apparatus, program, information processing method, and information processing system
US15/266,184 US10802663B2 (en) 2013-12-16 2016-09-15 Information processing apparatus, information processing method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013259106A JP2015115046A (ja) 2013-12-16 2013-12-16 情報処理装置、プログラム、情報処理方法及び情報処理システム

Publications (1)

Publication Number Publication Date
JP2015115046A true JP2015115046A (ja) 2015-06-22

Family

ID=53368399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013259106A Pending JP2015115046A (ja) 2013-12-16 2013-12-16 情報処理装置、プログラム、情報処理方法及び情報処理システム

Country Status (2)

Country Link
US (2) US9473808B2 (ja)
JP (1) JP2015115046A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110469A (ja) * 2014-12-09 2016-06-20 レノボ・シンガポール・プライベート・リミテッド 協働動作をする情報処理装置、携帯式電子機器、および位置の特定方法
JP2018045596A (ja) * 2016-09-16 2018-03-22 キヤノン株式会社 情報処理システム、装置、情報処理方法、コンピュータプログラム、及び記憶媒体
JP2021522624A (ja) * 2018-04-20 2021-08-30 インタラクティブ スケープ ゲーエムベーハーInteractive Scape Gmbh タッチ感応スクリーン用の制御及び処理ユニット、そのような制御及び処理ユニットを備えたシステム並びに使用方法
WO2022044478A1 (ja) * 2020-08-25 2022-03-03 株式会社Jvcケンウッド 評価システム、評価管理方法、端末装置及び評価方法
JP7459723B2 (ja) 2020-08-25 2024-04-02 株式会社Jvcケンウッド 評価システム及び評価管理方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104461415B (zh) * 2013-09-17 2018-08-10 联想(北京)有限公司 基于设备协同***的设备定位方法、装置及电子设备
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
JP2016110436A (ja) * 2014-12-08 2016-06-20 株式会社リコー 画像投影装置、及び対話型入出力システム。
US9805662B2 (en) * 2015-03-23 2017-10-31 Intel Corporation Content adaptive backlight power saving technology
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10347048B2 (en) * 2015-12-02 2019-07-09 Seiko Epson Corporation Controlling a display of a head-mounted display device
US10616528B2 (en) 2018-05-30 2020-04-07 Microsoft Technology Licensing, Llc Graphical display supporting multi-location camera

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3797678B2 (ja) * 1994-05-26 2006-07-19 富士通株式会社 ウィンドウとカメラの協調制御方法および装置
JP3869897B2 (ja) * 1997-01-28 2007-01-17 キヤノン株式会社 カメラ制御システムおよび映像受信装置および制御方法および記憶媒体
JPH10234020A (ja) * 1997-02-21 1998-09-02 Canon Inc 画像伝送方法および装置並びに画像伝送システム
US7312766B1 (en) * 2000-09-22 2007-12-25 Canadian Space Agency Method and system for time/motion compensation for head mounted displays
JP4159271B2 (ja) * 2001-08-06 2008-10-01 富士フイルム株式会社 デジタルカメラ
US7702015B2 (en) * 2003-03-20 2010-04-20 Ge Security, Inc. Systems and methods for multi-resolution image processing
CA2547902A1 (en) * 2003-12-19 2005-07-21 Speechgear, Inc. Display of visual data as a function of position of display device
JP4971594B2 (ja) * 2004-03-31 2012-07-11 キヤノン株式会社 プログラム及び表示制御装置
US20140019352A1 (en) * 2011-02-22 2014-01-16 Visa International Service Association Multi-purpose virtual card transaction apparatuses, methods and systems
US8077157B2 (en) * 2008-03-31 2011-12-13 Intel Corporation Device, system, and method of wireless transfer of files
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8457651B2 (en) * 2009-10-02 2013-06-04 Qualcomm Incorporated Device movement user interface gestures for file sharing functionality
JP5488011B2 (ja) * 2010-02-04 2014-05-14 ソニー株式会社 通信制御装置、通信制御方法及びプログラム
US20130218765A1 (en) * 2011-03-29 2013-08-22 Ayman Hammad Graduated security seasoning apparatuses, methods and systems
US20140067677A1 (en) * 2012-06-27 2014-03-06 Moneris Solutions Corporation Secure payment system
US8988343B2 (en) * 2013-03-29 2015-03-24 Panasonic Intellectual Property Management Co., Ltd. Method of automatically forming one three-dimensional space with multiple screens

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110469A (ja) * 2014-12-09 2016-06-20 レノボ・シンガポール・プライベート・リミテッド 協働動作をする情報処理装置、携帯式電子機器、および位置の特定方法
US10606413B2 (en) 2014-12-09 2020-03-31 Lenovo (Singapore) Pte. Ltd. Apparatus, method, and program product for determining the location of a portable electronic device on a display
JP2018045596A (ja) * 2016-09-16 2018-03-22 キヤノン株式会社 情報処理システム、装置、情報処理方法、コンピュータプログラム、及び記憶媒体
JP2021522624A (ja) * 2018-04-20 2021-08-30 インタラクティブ スケープ ゲーエムベーハーInteractive Scape Gmbh タッチ感応スクリーン用の制御及び処理ユニット、そのような制御及び処理ユニットを備えたシステム並びに使用方法
JP7237143B2 (ja) 2018-04-20 2023-03-10 インタラクティブ スケープ ゲーエムベーハー タッチ感応スクリーン用の制御及び処理ユニット、そのような制御及び処理ユニットを備えたシステム並びに使用方法
WO2022044478A1 (ja) * 2020-08-25 2022-03-03 株式会社Jvcケンウッド 評価システム、評価管理方法、端末装置及び評価方法
JP7459723B2 (ja) 2020-08-25 2024-04-02 株式会社Jvcケンウッド 評価システム及び評価管理方法

Also Published As

Publication number Publication date
US10802663B2 (en) 2020-10-13
US20150169085A1 (en) 2015-06-18
US20170068417A1 (en) 2017-03-09
US9473808B2 (en) 2016-10-18

Similar Documents

Publication Publication Date Title
JP2015115046A (ja) 情報処理装置、プログラム、情報処理方法及び情報処理システム
WO2022022495A1 (zh) 一种跨设备的对象拖拽方法及设备
EP2832107B1 (en) Information processing apparatus, information processing method, and program
JP6366309B2 (ja) ユーザ機器のオブジェクト運用方法及び装置
KR101733115B1 (ko) 원격 스크린내 콘텐츠 원격 제어 방법 및 장치
EP3586316B1 (en) Method and apparatus for providing augmented reality function in electronic device
US8938558B2 (en) Modifying functionality based on distances between devices
US20140340344A1 (en) Display processor and display processing method
US11954200B2 (en) Control information processing method and apparatus, electronic device, and storage medium
WO2015159602A1 (ja) 情報提供装置
CN112068752B (zh) 一种空间展示方法、装置、电子设备及存储介质
WO2017209409A1 (ko) 구형 컨텐츠 편집 방법 및 이를 지원하는 전자 장치
WO2022088974A1 (zh) 一种遥控方法、电子设备及***
CN110221761A (zh) 显示方法及终端设备
KR102655584B1 (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법
EP2965164B1 (en) Causing specific location of an object provided to a device
KR20140036532A (ko) 어플리케이션 실행 방법 및 시스템, 단말과 그 기록 매체
CN110944139A (zh) 一种显示控制方法及电子设备
CN111083374B (zh) 滤镜添加方法及电子设备
KR20110003030A (ko) 감지장치, 이벤트 감지방법 및 촬영시스템
WO2022199434A1 (zh) 设备间目标传输方法、装置及电子设备
WO2022028290A1 (zh) 基于指向操作的设备之间的交互方法及电子设备
CN115243085A (zh) 显示设备及设备互联方法
KR101104732B1 (ko) 정보제어장치를 이용한 데이터 전송시스템 및 방법, 그 단말기 및 정보제어장치
CN114760513A (zh) 一种显示设备及光标定位方法