JP5684618B2 - 撮影装置および仮想情報表示プログラム - Google Patents

撮影装置および仮想情報表示プログラム Download PDF

Info

Publication number
JP5684618B2
JP5684618B2 JP2011063324A JP2011063324A JP5684618B2 JP 5684618 B2 JP5684618 B2 JP 5684618B2 JP 2011063324 A JP2011063324 A JP 2011063324A JP 2011063324 A JP2011063324 A JP 2011063324A JP 5684618 B2 JP5684618 B2 JP 5684618B2
Authority
JP
Japan
Prior art keywords
control unit
image
predetermined
unit
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011063324A
Other languages
English (en)
Other versions
JP2012199824A (ja
Inventor
瑞知子 阿部
瑞知子 阿部
那由 能町
那由 能町
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011063324A priority Critical patent/JP5684618B2/ja
Priority to US13/425,580 priority patent/US9454300B2/en
Publication of JP2012199824A publication Critical patent/JP2012199824A/ja
Application granted granted Critical
Publication of JP5684618B2 publication Critical patent/JP5684618B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影装置、制御方法および仮想情報表示プログラムに関する。
近年、現実空間の画像をコンピュータで処理して更なる情報を付加する拡張現実(AR:Augmented reality)技術が注目されている(例えば、特許文献1参照)。また、現実空間の画像に付加された情報を選択してより詳細な情報を表示させる技術も知られている。
特開2002−027349号公報
しかしながら、現実空間の画像に付加する情報が複数ある場合、付加される情報が重なってしまうことがあった。このような場合、重なった情報の1つを任意に選択することは困難であった。
本発明は、画像に付加された複数の情報の1つを容易に選択することができる撮影装置、制御方法および仮想情報表示プログラムを提供することを目的とする。
本発明に係る撮影装置は、撮影部と、前記撮影部によって取得された画像を表示する表示部と、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、前記制御部は、前記画像において前記オブジェクトが表示される位置に、前記撮影部によって撮影された所定の物体が重なった場合に、当該重なったオブジェクトを選択処理する。
ここで、前記制御部は、前記所定の物体と自装置との距離の変化を検出し、前記オブジェクトが複数表示されている場合に、前記所定の物体と自装置との距離の変化に応じて、前記複数のオブジェクトから選択処理するオブジェクトを変更することが好ましい。
また、前記制御部は、前記所定の物体が第1オブジェクトと重なったときの前記所定の物体と自装置との距離を基準として各オブジェクトの相対位置を算出し、前記画像において第2オブジェクトが重ねて表示される位置に前記所定の物体が表示された場合に、前記所定の物体が第1オブジェクトと重なったとき以降に移動した距離と、第2オブジェクトの前記相対位置とに基づいて、当該第2オブジェクトを選択処理することが好ましい。
また、前記制御部は、前記オブジェクトが表示される位置に前記所定の物体が検出された場合に、前記所定の物体との相対位置が最も近いオブジェクトを選択することが好ましい。
また、前記制御部は、前記撮影部の合焦機能によって、前記所定の物体と自装置との距離を算出することが好ましい。
また、前記制御部は、前記撮影部によって取得された画像中での前記所定の物体の大きさに基づいて、前記所定の物体と自装置との距離を算出することが好ましい。
また、前記制御部は、前記所定の物体が前記オブジェクトと重なった際に前記所定の物体と自装置との距離を算出することが好ましい。
また、前記制御部は、前記所定の物体の動作に応じて、前記選択されたオブジェクトに対応する処理を実行することが好ましい。
また、前記制御部は、予め記憶された情報に基づいて前記所定の物体か否かを判定することが好ましい。
また、前記制御部は、所定の角度以下からなる先端部を有する物体を前記所定の物体として検出することが好ましい。
また、前記制御部は、前記先端部の位置を基準として前記所定の物体と前記オブジェクトとが重なって表示されているか否かを判定することが好ましい。
また、前記制御部は、前記オブジェクトが表示される位置に前記所定の物体が重なって表示された場合、前記オブジェクトと自端末との距離が前記所定の物体と自端末との距離よりも小さければ、前記所定の物体よりも前面に前記オブジェクトを表示することが好ましい。
また、前記オブジェクトは、当該オブジェクトに関連する位置を示す位置情報と、当該オブジェクトに関連づけられた情報を示すリンク情報とを含む情報と対応づけられていることが好ましい。
また、上述した課題を解決し、目的を達成するために、本発明に係る制御方法は、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記画像において前記オブジェクトが表示される位置に、前記撮影部によって撮影された所定の物体が重なった場合に、当該重なったオブジェクトを選択処理するステップとを含む。
また、上述した課題を解決し、目的を達成するために、本発明に係る仮想情報表示プログラムは、情報処理装置に、撮影部によって取得された画像を表示するステップと、前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、前記画像において前記オブジェクトが表示される位置に、前記撮影部によって撮影された所定の物体が重なった場合に、当該重なったオブジェクトを選択処理するステップとを実行させる。
本発明は、画像に付加された複数の情報の1つを容易に選択することができるという効果を奏する。
図1は、本実施例に係る携帯電話端末の外観を示す正面図である。 図2は、本実施例に係る携帯電話端末の機能的な構成を示すブロック図である。 図3は、仮想情報の一例を示す図である。 図4は、1つめのARタグの選択の一例を示す図である。 図5は、1つめのARタグの候補が複数ある例を示す図である。 図6は、基準距離と換算係数について説明するための図である。 図7は、重なったARタグの中から手前にあるARタグを選択する例を示す図である。 図8は、ARタグを選択するための閾値の一例を示す図である。 図9は、重なったARタグの中から奥にあるARタグを選択する例を示す図である。 図10は、携帯電話端末によるARタグ選択処理の処理手順を示す図である。 図11は、携帯電話端末によるARタグ対応動作実行処理の処理手順を示す図である。
以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、撮影装置の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等の各種情報処理装置に対しても本発明は適用できる。
まず、図1を参照しながら、本実施例に係る携帯電話端末1の外観について説明する。図1は、携帯電話端末1の外観を示す正面図である。図1に示すように、携帯電話端末1の筐体1Cは、ヒンジ機構8によって開閉可能に連結された第1筐体1CAと第2筐体1CBとを備える。すなわち、携帯電話端末1は、折り畳み式の筐体を有する。
なお、携帯電話端末1の筐体は、このような構造に限定されるものではない。例えば、携帯電話端末1の筐体は、両方の筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の筐体であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して2つの筐体を連結したものでもよい。また、携帯電話端末1の筐体は、1つの筐体からなるいわゆるストレート式(スレート式)の筐体でもよい。
第1筐体1CAは、表示部2と、レシーバ16と、撮影部40とを有する。表示部2は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Organic Electro−Luminescence)パネル等の表示装置を備え、文字、図形、画像等の各種情報を表示する。表示部2は、撮影部40によって取得された画像を表示することもできる。レシーバ16は、通話時に通話相手の音声を出力する。
撮影部40は、撮像センサ等の撮影手段によって画像を撮影する。撮影部40の撮影手段に外部の光を導く撮影窓は、第1筐体1CAの表示部2が設けられている面と反対側の面に設けられている。すなわち、第1筐体1CAは、利用者が表示部2を正面から見ると、撮影部40によって取得された第1筐体1CAの向こう側の画像が表示部2に表示されるように構成されている。
第2筐体1CBは、テンキーや機能キー等からなる操作キー13Aと、メニューの選択および決定や画面のスクロール等を実行するための方向および決定キー13Bと、通話時に音声を取得する音声取得手段であるマイク15とを有する。操作キー13Aと、方向および決定キー13Bとは、携帯電話端末1の操作部13を構成する。なお、操作部13は、操作キー13A等に代えて、または、操作キー13A等に加えて、表示部2に重畳されたタッチセンサを備えていてもよい。
次に、図2を参照しながら、携帯電話端末1の機能的な構成について説明する。図2は、携帯電話端末1の機能的な構成を示すブロック図である。図2に示すように、携帯電話端末1は、通信部26と、操作部13と、音声処理部30と、表示部2と、撮影部40と、位置・姿勢検出部36と、制御部22と、記憶部24とを備える。
通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局を通じて他の装置との間で電話通信および情報通信を行う。操作部13は、操作キー13A、または、方向および決定キー13Bがユーザによって操作されると、その操作内容に対応する信号を制御部22へ出力する。
音声処理部30は、マイク15から入力される音声をデジタル信号化して制御部22へ出力する。また、音声処理部30は、制御部22から出力されるデジタル信号を復号してレシーバ16へ出力する。表示部2は、制御部22から入力される制御信号に従って各種情報を表示する。撮影部40は、取得した画像をデジタル信号に変換して制御部22へ出力する。
位置・姿勢検出部36は、携帯電話端末1の位置と姿勢を検出し、検出結果を制御部22へ出力する。位置・姿勢検出部36は、携帯電話端末1の位置を、例えば、GPS(Global Positioning System)受信機や通信部26が無線信号回線を確立している基地局に基づいて検出する。また、位置・姿勢検出部36は、携帯電話端末1の姿勢を、例えば、3軸加速度センサ、方位センサ、ジャイロセンサに基づいて検出する。
制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、通信部26や表示部2等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや位置・姿勢検出部36等から入力される信号がパラメータとして利用される。
記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムおよびデータには、仮想情報表示プログラム24aと、1ないし複数の仮想情報24bと、ポインタ情報24cとが含まれる。なお、記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、記憶部24に記憶されていることとしたプログラムおよびデータは、可搬の記憶媒体に記憶される。また、記憶部24に記憶されていることとしたプログラムおよびデータは、通信部26による無線通信によってサーバ装置等の他の装置から取得されることとしてもよい。
仮想情報表示プログラム24aは、拡張現実(AR:Augmented reality)技術に基づいて、撮影部40によって取得した現実の画像に現実の施設や物品に対応した仮想的な情報を重ねて表示部2に表示する機能を提供する。具体的には、仮想情報表示プログラム24aは、位置・姿勢検出部36によって検出される位置と姿勢等に基づいて撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを取得させる。そして、仮想情報表示プログラム24aは、取得した仮想情報24bに対応するARタグと呼ばれるオブジェクトを画像に重ねて表示させる。
また、仮想情報表示プログラム24aは、ARタグを選択するための所定の物体(以下、「ポインタ」)を用いて利用者に任意のARタグを選択させる機能と、選択されたARタグに関連づけられた動作を実行する機能を提供する。ポインタは、例えば、指、ペン、差し棒である。仮想情報表示プログラム24aは、複数のARタグが重なっている場合でも、任意のARタグを利用者が選択することを可能にする。
仮想情報24bは、撮影部40によって取得された画像に重ねて表示されるARタグに関する情報を保持する。図3は、仮想情報24bの一例を示す図である。図3に示すように、仮想情報24bは、緯度、経度、高さ、画像、URL(Uniform Resource Locator)といった項目を有する。緯度、経度、高さは、仮想情報24bに対応する現実の施設や物品の位置を示す。画像は、ARタグとして表示されるオブジェクトの実体を示す。URLは、ARタグに関連づけられた情報を示す。
なお、表示対象の仮想情報24bの全てを予め記憶部24に記憶させるのではなく、携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲およびその周辺に存在する施設や物品に対応する仮想情報24bをサーバ装置から随時取得してもよい。この場合、所定量または所定件数の仮想情報24bを記憶部24にキャッシュするようにしてもよい。なお、ここでいうサーバ装置とは、例えば、ARサービスを提供する業者によって運営される装置である。
ポインタ情報24cは、撮影部40によって取得された画像に含まれるポインタを検出するための情報を保持する。ポインタを検出するための情報とは、例えば、ポインタの形状や色である。なお、本実施例では、ポインタとして利用者の指を用い、ポインタ情報24cにはポインタの形状として、所定の角度以下の先端部を有する形状が登録されているものとする。
次に、図4から図9を参照しながら、仮想情報表示プログラム24aが提供する機能に基づいて制御部22によって実行されるARタグの選択処理について説明する。図4は、1つめのARタグの選択の一例を示す図である。図5は、1つめのARタグの候補が複数ある例を示す図である。図6は、基準距離と換算係数について説明するための図である。図7は、重なったARタグの中から手前にあるARタグを選択する例を示す図である。図8は、ARタグを選択するための閾値の一例を示す図である。図9は、重なったARタグの中から奥にあるARタグを選択する例を示す図である。
図4に示すように、制御部22は、撮影部40によって取得した画像Pを表示部2に表示させるとともに、画像Pをポインタ情報24cと照合してポインタの検出を試みる。ポインタが検出されると、制御部22は、二値化等によってポインタを含む形状(例えば、手の形状)の輪郭を抽出する。なお、指をポインタとする場合は、例えば、特開2003−346162号公報にて開示されている技術等を用いてポインタの検出を試みてもよい。
また、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢とに基づいて、撮影部40の撮影範囲にある施設や物品に対応する仮想情報24bを取得し、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。
具体的には、制御部22は、取得した仮想情報24bを示す位置が、撮影部40によって取得される画像Pのどの位置に対応するかを算出し、算出した位置に仮想情報24bに対応するARタグを表示させる。仮想情報24bが示す位置が画像Pのどこに対応するかは、位置・姿勢検出部36によって検出された携帯電話端末1の位置と姿勢、仮想情報24bの含まれる位置情報、撮影部40の撮像面のサイズおよび画角等に基づいて算出される。
また、画像Pにおいて一部でも重なる領域があるARタグは、対応する仮想情報24bの示す位置が携帯電話端末1に近いほど上になるように重ねて表示される。
図4に示すステップS11では、画像Pには指Fが写っているので、画像Pをポインタ情報24cと照合することによって、画像Pに含まれる指Fがポインタとして検出される。また、ステップS11では、撮影部40の撮影範囲にある施設や物品に対応するARタグA1〜ARタグA4の4つのARタグが画像Pに重ねて表示されている。ARタグA2〜A4は、対応する仮想情報24bが示す位置が撮影部40の焦点からみて近いために重なり合っている。
この場面では、ポインタである指Fは、どのARタグとも重なっていない。このように指FがいずれのARタグとも重なっていない場合、どのARタグも選択されない。なお、指FがARタグと重なっているか否かは、指Fの先端を基準として判断することが好ましい。
続いて、ステップS12では、指Fが上へ移動することによって、指Fの先端がARタグA3の端部に重なっている。このように、指Fの先端がいずれかのARタグに初めて重なると、制御部22は、指Fの先端が重なったARタグを選択状態にする。制御部22は、いずれかのARタグを選択状態にすると、ステップS13に示すように、選択状態にしたARタグを、あたかも振動しているかのように短時間に位置を何度も変更しながら表示する。このように表示することにより、ARタグが選択されたことを利用者が容易に把握することができる。
なお、ここでは指Fが画像Pの下側から上側へ移動する過程で最初に重なったARタグが選択される例を示したが、指Fの移動方向に関わりなく、指FがいずれかのARタグに初めて重なると、そのARタグが選択状態となる。
また、指Fの先端がいずれかのARタグに初めて重なった場合、ステップS12およびステップS13に示すように、指Fを含む形状をARタグより前面に表示することが好ましい。このように制御することにより、指Fの先端の位置が明確になり、どのARタグが選択されるかを利用者が把握しやすくなる。
また、指Fの先端がARタグと初めて重なった位置に複数のARタグが表示されている場合には、最も上に表示されているARタグ、すなわち、対応する仮想情報24bが示す位置が携帯電話端末1に最も近いARタグを選択状態にすることが好ましい。例えば、図5に示すように、指Fの先端がARタグと初めて重なった位置にARタグA4、ARタグA5、ARタグA6の3つのARタグが重なって表示されている場合、最上位のARタグA4を選択状態にすることが好ましい。このように制御することにより、全体像が表示されているARタグが選択状態となる可能性が高くなり、どのARタグが選択状態となったかを利用者が把握しやすくなる。
こうして、指Fの先端が初めて重なったARタグを選択状態にすると、制御部22は、その時点での携帯電話端末1と指Fの先端との距離を測定し、測定された距離を基準距離としてメモリに記憶させる。携帯電話端末1と指Fの先端との距離の測定は、例えば、撮影部40が焦点を対象物に合わせるために用いる合焦機能によって実現される。なお、携帯電話端末1と指Fの先端との距離は、例えば、赤外線や音波等を用いて距離を測定する測距センサを用いて測定してもよいし、予め所定の距離と対応付けて指F情報24cに保持されている指Fの大きさと画像P中の指Fの大きさの比率に基づいて算出してもよい。
続いて、制御部22は、位置・姿勢検出部36によって検出された携帯電話端末1の位置と選択状態になったARタグに対応する仮想情報24bが示す位置との距離を算出する。そして、制御部22は、求めた2つの距離に基づいて、選択状態にある仮想情報24bが示す位置と他の仮想情報24bが示す位置との奥行き方向の距離を指Fの先端の移動距離に換算するための換算係数を算出する。
図6に示すように、基準距離がDSであり、選択状態にあるARタグA3に対応する仮想情報24bが示す位置P3と携帯電話端末1との距離がD3であるとすると、換算係数はDS/D3となる。この換算係数を用いることにより、ARタグA3を基準とした各ARタグの奥行き方向の相対位置を指Fの位置と対応させることができる。
例えば、DSが10[cm]、すなわち、0.1[m]であり、D3が100[m]であるとすると、換算係数は、0.001となる。この場合、ARタグA2に対応する仮想情報24bが示す位置P2が位置P3から50[m]手前にあるとすると、50×0.001[m]、すなわち、指Fを5cm手前に移動させた位置がARタグA2の奥行き方向の位置となる。
同様に、ARタグA1に対応する仮想情報24bが示す位置P1が位置P3から10[m]手前にあるとすると、10×0.001[m]、すなわち、指Fを1cm手前に移動させた位置がARタグA1の奥行き方向の位置となる。また、ARタグA4に対応する仮想情報24bが示す位置P4が位置P3から30[m]奥にあるとすると、40×0.001[m]、すなわち、指Fを4cm奥に移動させた位置がARタグA4の奥行き方向の位置となる。
このように、ARタグの奥行き方向の相対位置を指Fの位置と対応させることにより、画面P上に重なって表示されているARタグのいずれか1つを指Fの位置を奥行き方向へ移動させることで任意に選択することが可能になる。
なお、ここでは、選択状態にあるARタグに対応する仮想情報24bが示す位置と携帯電話端末1との距離と基準距離とに基づいて算出した換算係数をそのまま用いることとしたが、換算係数を適宜調整して用いてもよい。例えば、指Fを携帯電話端末1から離すことができる距離は高々1m程度であると考えられるため、最も遠いARタグの奥行き方向の位置がこの範囲に収まるように換算係数の大きさを調整してもよい。
図7に示すステップS21からステップS23では、画像Pに含まれる指Fが徐々に手前へ移動し、ステップS23ではARタグA2の奥行き方向の位置まで達するとともに、指Fの先端がARタグA2に重なっている。このように、指Fの先端がいずれかのARタグに重なるとともに、そのARタグの奥行き方向の位置と指Fの先端の奥行き方向の位置とが一致すると、制御部22は、そのARタグを選択状態にする。そして、制御部22は、選択状態にしたARタグを、あたかも振動しているかのように短時間に位置を何度も変更しながら表示する。
なお、ARタグの奥行き方向の位置と指Fの先端の奥行き方向の位置との一致は厳密に判定しなくてもよい。すなわち、図8に示すように、ARタグ毎に閾値を設け、指Fの先端の奥行き方向の位置が、ARタグの奥行き方向の位置から閾値の範囲内にある場合には、ARタグの奥行き方向の位置と指Fの先端の奥行き方向の位置とが一致しているとみなしてもよい。
この場合、ARタグA1の閾値T1およびARタグA3の閾値T3のように、奥行き方向において他のARタグと近接しているARタグの閾値は小さくし、ARタグA2の閾値T2およびARタグA4の閾値T4のように、他のARタグと離れているARタグの閾値は大きくしてもよい。このように閾値を設定することにより、ARタグの選択のしやすさと誤選択の発生の抑制とを両立させることができる。
また、指Fの角度によっては指Fが奥行き方向へ移動していることを検出し難いため、画像P上での指Fの位置が一定の場所に一定時間以上留まっている場合には、指Fが所定の速度で奥行き方向へ移動しているものとみなしてもよい。
図9に示すステップS31からステップS33では、画像Pに含まれる指Fが徐々に奥へ移動し、ステップS33ではARタグA4の奥行き方向の位置まで達するとともに、指Fの先端がARタグA4に重なっている。この場合、指Fの先端がARタグA4に重なるとともに、そのARタグA4の奥行き方向の位置と指Fの先端の奥行き方向の位置とが一致しているため、制御部22は、そのARタグA4を選択状態にする。そして、制御部22は、選択状態にしたARタグA4を、あたかも振動しているかのように短時間に位置を何度も変更しながら表示する。
ここで、制御部22は、ステップS32に示すように、指Fの先端がARタグA3の手前側から奥側へ移動するに際して、指Fの先端を避けるようにARタグA3を一時的に移動させる。この移動のタイミングとして、指Fの先端が、携帯電話端末1から見てARタグの位置より奥に位置したときとする。また、ARタグに閾値が設定されている場合には、閾値の範囲を超えて指Fの先端が奥に位置したときとしてもよい。このように、指Fが奥行き方向にARタグを通過するに際して、指Fを避けるようにARタグを一時的に移動させることにより、指の奥行き方向の位置がどこまで達したかを利用者に提示することができる。また、このような表示効果は、指FがARタグをかき分けて進むように見えるため、利用者が指Fの位置を直感的に認識するのに好適である。
また、制御部22は、ステップS33に示すように、ARタグA2およびARタグA3の奥行き方向の位置が指Fの先端の奥行き方向の位置よりも手前にある場合、ARタグA2およびARタグA3を指Fよりも前面に表示させる。このように、奥行き方向の位置に応じてARタグと指Fを重ねて表示する順序を変更することにより、ARタグと指Fの奥行き方向の位置関係を視覚的に利用者に提示することができる。
次に、図10および図11を参照しながら、携帯電話端末1の動作について説明する。図10は、携帯電話端末1によるARタグ選択処理の処理手順を示す図である。図11は、携帯電話端末1によるARタグ対応動作実行処理の処理手順を示す図である。図10および図11に示す処理手順は、仮想情報表示プログラム24aが起動された後、利用者が所定の終了操作を行うまで繰り返して並列に実行される。なお、ARタグ選択処理およびARタグ対応動作実行処理は、制御部22が仮想情報表示プログラム24aを実行することによって実現される。
図10に示すように、制御部22は、まず、ステップS101として、撮影部40で取得された画像Pを表示部2に表示させる。そして、制御部22は、ステップS102として、位置・姿勢検出部36に自装置の位置と姿勢を取得させる。
続いて、制御部22は、ステップS103として、自装置の位置と姿勢等に基づいて、撮影部40の撮影範囲に対応する仮想情報24bを取得する。そして、制御部22は、ステップS104として、取得した仮想情報24bに対応するARタグを画像Pに重ねて表示部2に表示させる。
続いて、制御部22は、ステップS105として、画像Pに含まれるポインタを検出する。画像Pに含まれるポインタが検出された場合(ステップS106,Yes)、制御部22は、ステップS107として、基準距離が設定済みであるかを判定する。基準距離が設定済みでない場合(ステップS107,No)、制御部22は、ステップS108として、対応するARタグがポインタの先端と重なっている仮想情報24bを検索する。ここで、該当する仮想情報24bがない場合、すなわち、ポインタの先端がいずれのARタグとも重なっていない場合(ステップS109,No)、制御部22は、特に処理をおこなわない。
一方、該当する仮想情報24bがみつかった場合、すなわち、ポインタの先端がいずれかのARタグと重なっている場合(ステップS109,Yes)、制御部22は、ステップS110として、該当する仮想情報に対応するARタグを選択状態にする。そして、制御部22は、ステップS111として、自装置とポインタの先端との距離を測定し、測定された距離を基準距離として設定する。
続いて、制御部22は、ステップS112として、選択状態のARタグに対応する仮想情報24bが示す位置と自装置との距離を算出し、ステップS113として、算出した距離と基準距離とに基づいて換算係数を算出する。そして、制御部22は、ステップS114として、選択状態のARタグから他のARタグへの奥行き方向の距離を、対応する仮想情報24bが示す位置間の距離と換算係数とに基づいて算出する。
ステップS107で基準距離が設定済みであった場合(ステップS107,Yes)、制御部22は、ステップS115として、自装置とポインタの先端との距離を測定する。次に、制御部22は、ステップS116として、測定された距離と基準距離の差、すなわち、ポインタの移動距離を算出する。
続いて、制御部22は、ステップS117として、対応するARタグがポインタの先端と重なり、かつ、対応するARタグの奥行き方向の位置とポインタの先端の奥行き方向の現在位置とが一致する仮想情報を検索する。該当する仮想情報24bがみつかった場合、(ステップS118,Yes)、制御部22は、ステップS119として、該当する仮想情報に対応するARタグを選択状態にする。該当する仮想情報24bがない場合(ステップS118,No)、制御部22は、特に処理をおこなわない。
また、画像Pに含まれるポインタが検出されない場合(ステップS106,No)、制御部22は、ステップS120として、基準距離をクリアして、基準距離を設定し直すことができるようにする。なお、位置・姿勢検出部36によって検出される携帯電話端末1の位置と姿勢が所定以上変化した場合にも基準距離をクリアすることが好ましい。
図11に示すように、制御部22は、まず、ステップS201として、起動動作が検出されたかを判定する。起動動作とは、ARタグに対応する動作を起動するための動作である。起動動作は、例えば、操作部13のいずれかのキーを押下する動作であってもよいし、表示部2に表示されている選択状態のARタグを指ではじいたり、摘んだりする動作であってもよい。後者の場合、起動動作は、撮影部40よって取得される画像Pを解析することによって検出される。
起動動作が検出された場合(ステップS201,Yes)、制御部22は、ステップS202として、対応するARタグが選択状態にある仮想情報24bがあるかを判定する。対応するARタグが選択状態にある仮想情報24bがある場合(ステップS202,Yes)、制御部22は、ステップS203として、その仮想情報24bに対応する動作を実行する。仮想情報24bに対応する動作とは、例えば、仮想情報24bに含まれるURLにアクセスしてWEBページを表示する動作である。
起動動作が検出されない場合(ステップS201,No)、または、対応するARタグが選択状態にある仮想情報24bがない場合(ステップS202,No)、特に処理は実行されない。
上述してきたように、本実施例では、画像に付加された複数のARタグの1つを容易に選択することができる。
なお、上記の実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施例では、ARタグの選択に関する処理を携帯電話端末1が実行することとしたが、この処理を携帯電話端末1と通信可能なサーバ装置が実行することとしてもよい。この場合、携帯電話端末1は、撮影部40によって取得された画像Pと、位置・姿勢検出部36によって検出された携帯電話端末1の位置および姿勢とをサーバ装置に送信し、サーバ装置から応答された処理済みの画像を表示部2に表示する。
1 携帯電話端末
2 表示部
13 操作部
22 制御部
24 記憶部
24a 仮想情報表示プログラム
24b 仮想情報
24c ポインタ情報
26 通信部
30 音声処理部
36 位置・姿勢検出部
40 撮影部

Claims (15)

  1. 撮影部と、
    前記撮影部によって取得された画像を表示する表示部と、
    前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、
    前記制御部は、前記画像において前記オブジェクトが表示される位置に、前記撮影部によって撮影された所定の物体が重なった場合に、当該重なったオブジェクトを選択処理し、
    前記制御部は、前記所定の物体と自装置との距離の変化を検出し、前記オブジェクトが複数表示されている場合に、前記所定の物体と自装置との距離の変化に応じて、前記複数のオブジェクトから選択処理するオブジェクトを変更することを特徴とする撮影装置。
  2. 撮影部と、
    前記撮影部によって取得された画像を表示する表示部と、
    前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させる制御部とを備え、
    前記制御部は、前記画像において前記オブジェクトが表示される位置に、前記撮影部によって撮影された所定の物体が重なった場合に、当該重なったオブジェクトを選択処理し、
    前記制御部は、前記所定の物体が第1オブジェクトと重なったときの前記所定の物体と自装置との距離を基準として各オブジェクトの相対位置を算出し、前記画像において第2オブジェクトが重ねて表示される位置に前記所定の物体が表示された場合に、前記所定の物体が第1オブジェクトと重なったとき以降に移動した距離と、第2オブジェクトの前記相対位置とに基づいて、当該第2オブジェクトを選択処理することを特徴とする撮影装置。
  3. 前記制御部は、前記所定の物体が第1オブジェクトと重なったときの前記所定の物体と自装置との距離を基準として各オブジェクトの相対位置を算出し、前記画像において第2オブジェクトが重ねて表示される位置に前記所定の物体が表示された場合に、前記所定の物体が第1オブジェクトと重なったとき以降に移動した距離と、第2オブジェクトの前記相対位置とに基づいて、当該第2オブジェクトを選択処理することを特徴とする請求項1に記載の撮影装置。
  4. 前記制御部は、前記オブジェクトが表示される位置に前記所定の物体が検出された場合に、前記所定の物体との相対位置が最も近いオブジェクトを選択することを特徴とする請求項2または3に記載の撮影装置。
  5. 前記制御部は、前記撮影部の合焦機能によって、前記所定の物体と自装置との距離を算出することを特徴とする請求項から4のいずれか1項に記載の撮影装置。
  6. 前記制御部は、前記撮影部によって取得された画像中での前記所定の物体の大きさに基づいて、前記所定の物体と自装置との距離を算出することを特徴とする請求項から4のいずれか1項に記載の撮影装置。
  7. 前記制御部は、前記所定の物体が前記オブジェクトと重なった際に前記所定の物体と自装置との距離を算出することを特徴とする請求項から6のいずれか1項に記載の撮影装置。
  8. 前記制御部は、前記所定の物体の動作に応じて、前記選択されたオブジェクトに対応する処理を実行することを特徴とする請求項1から7のいずれか1項に記載の撮影装置。
  9. 前記制御部は、予め記憶された情報に基づいて前記所定の物体か否かを判定することを特徴とする請求項1から8のいずれか1項に記載の撮影装置。
  10. 前記制御部は、所定の角度以下からなる先端部を有する物体を前記所定の物体として検出することを特徴とする請求項9に記載の撮影装置。
  11. 前記制御部は、前記先端部の位置を基準として前記所定の物体と前記オブジェクトとが重なって表示されているか否かを判定することを特徴とする請求項10に記載の撮影装置。
  12. 前記制御部は、前記オブジェクトが表示される位置に前記所定の物体が重なって表示された場合、前記オブジェクトと自端末との距離が前記所定の物体と自端末との距離よりも小さければ、前記所定の物体よりも前面に前記オブジェクトを表示することを特徴とする請求項から11のいずれか1項に記載の撮影装置。
  13. 前記オブジェクトは、当該オブジェクトに関連する位置を示す位置情報と、当該オブジェクトに関連づけられた情報を示すリンク情報とを含む情報と対応づけられていることを特徴とする請求項1から12のいずれか1項に記載の撮影装置。
  14. 情報処理装置に、
    撮影部によって取得された画像を表示部に表示させるステップと、
    前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
    前記画像において前記オブジェクトが表示される位置に、前記撮影部によって撮影された所定の物体が重なった場合に、当該重なったオブジェクトを選択処理するステップと
    前記所定の物体と自装置との距離の変化を検出し、前記オブジェクトが複数表示されている場合に、前記所定の物体と自装置との距離の変化に応じて、前記複数のオブジェクトから選択処理するオブジェクトを変更するステップと
    を実行させることを特徴とする仮想情報表示プログラム。
  15. 情報処理装置に、
    撮影部によって取得された画像を表示部に表示させるステップと、
    前記撮影部によって取得された前記画像に関連するオブジェクトを前記画像に重ねて前記表示部に表示させるステップと、
    前記画像において前記オブジェクトが表示される位置に、前記撮影部によって撮影された所定の物体が重なった場合に、当該重なったオブジェクトを選択処理するステップと
    前記所定の物体が第1オブジェクトと重なったときの前記所定の物体と自装置との距離を基準として各オブジェクトの相対位置を算出し、前記画像において第2オブジェクトが重ねて表示される位置に前記所定の物体が表示された場合に、前記所定の物体が第1オブジェクトと重なったとき以降に移動した距離と、第2オブジェクトの前記相対位置とに基づいて、当該第2オブジェクトを選択処理するステップと
    を実行させることを特徴とする仮想情報表示プログラム。
JP2011063324A 2011-03-22 2011-03-22 撮影装置および仮想情報表示プログラム Active JP5684618B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011063324A JP5684618B2 (ja) 2011-03-22 2011-03-22 撮影装置および仮想情報表示プログラム
US13/425,580 US9454300B2 (en) 2011-03-22 2012-03-21 Device, control method, and storage medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011063324A JP5684618B2 (ja) 2011-03-22 2011-03-22 撮影装置および仮想情報表示プログラム

Publications (2)

Publication Number Publication Date
JP2012199824A JP2012199824A (ja) 2012-10-18
JP5684618B2 true JP5684618B2 (ja) 2015-03-18

Family

ID=46877057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011063324A Active JP5684618B2 (ja) 2011-03-22 2011-03-22 撮影装置および仮想情報表示プログラム

Country Status (2)

Country Link
US (1) US9454300B2 (ja)
JP (1) JP5684618B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140015931A1 (en) * 2012-07-12 2014-01-16 Samsung Electronics Co., Ltd. Method and apparatus for processing virtual world
KR102024863B1 (ko) * 2012-07-12 2019-09-24 삼성전자주식회사 가상 세계 처리 장치 및 방법
JP6573755B2 (ja) * 2014-07-10 2019-09-11 富士通株式会社 表示制御方法、情報処理プログラム、及び情報処理装置
CN107371057B (zh) * 2017-06-16 2020-09-08 武汉斗鱼网络科技有限公司 一种设置美颜效果的方法和装置
CN116489268A (zh) * 2020-08-05 2023-07-25 华为技术有限公司 一种设备识别方法及相关装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP4701479B2 (ja) 2000-07-05 2011-06-15 ソニー株式会社 リンク情報表示装置及びその表示方法
US6727924B1 (en) * 2000-10-17 2004-04-27 Novint Technologies, Inc. Human-computer interface including efficient three-dimensional controls
JP4747410B2 (ja) * 2000-11-10 2011-08-17 ソニー株式会社 映像切替表示装置および映像切替表示方法
JP2002290529A (ja) * 2001-03-28 2002-10-04 Matsushita Electric Ind Co Ltd 携帯通信端末、情報表示装置、制御入力装置および制御入力方法
US20050012717A1 (en) * 2002-01-11 2005-01-20 Park Cheol-Woo Input device for computer system
EP1783585A4 (en) * 2004-08-27 2008-08-06 Fujitsu Ltd SURGERY GENERATION METHOD, DISPLAY CONTROL, SURGERY GENERATION PROGRAM AND COMPUTER READABLE RECORDING MEDIUM ON WHICH THE PROGRAM WILL BE RECORDED
US8994851B2 (en) * 2007-08-07 2015-03-31 Qualcomm Incorporated Displaying image data and geographic element data
JP5252731B2 (ja) 2008-08-11 2013-07-31 旭化成ケミカルズ株式会社 ポリアセタール樹脂組成物
JP5315111B2 (ja) * 2009-03-31 2013-10-16 株式会社エヌ・ティ・ティ・ドコモ 端末装置、情報提示システム及び端末画面表示方法
JP5564300B2 (ja) * 2010-03-19 2014-07-30 富士フイルム株式会社 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法

Also Published As

Publication number Publication date
US9454300B2 (en) 2016-09-27
US20120242866A1 (en) 2012-09-27
JP2012199824A (ja) 2012-10-18

Similar Documents

Publication Publication Date Title
JP5734700B2 (ja) 携帯情報機器および仮想情報表示プログラム
JP5785753B2 (ja) 電子機器、制御方法および制御プログラム
JP5370259B2 (ja) 携帯型電子機器
US20130053007A1 (en) Gesture-based input mode selection for mobile devices
US9262867B2 (en) Mobile terminal and method of operation
KR20160150533A (ko) 변형 가능한 디스플레이 장치 및 그의 동작 방법
KR20090111459A (ko) 단말기 및 이것의 이미지 인식 방법
JP5684618B2 (ja) 撮影装置および仮想情報表示プログラム
US9823709B2 (en) Context awareness based on angles and orientation
JP2014071376A (ja) 画像表示制御装置、画像表示装置、プログラム及び画像表示方法
KR102077677B1 (ko) 이동 단말기 및 이의 제어방법
US20150154769A1 (en) Wearable map and image display
WO2012133226A1 (ja) 電子機器、制御方法および制御プログラム
CN109917988B (zh) 选中内容显示方法、装置、终端及计算机可读存储介质
CN113253908A (zh) 按键功能执行方法、装置、设备及存储介质
KR20120083159A (ko) 이동 단말기 및 이의 전자기기 제어 방법
JP5685464B2 (ja) 撮影装置、制御方法および仮想情報表示プログラム
US20140015859A1 (en) Mobile terminal and control method thereof
JP5850634B2 (ja) 携帯電子機器
JP5510008B2 (ja) 携帯端末装置
KR20110027340A (ko) 이동 단말기와 그 문자 입력 방법
CN109788090A (zh) 电子设备和控制电子设备的方法
JP2015203875A (ja) 画像表示装置、画像表示方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150115

R150 Certificate of patent or registration of utility model

Ref document number: 5684618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150