JP6337907B2 - 表示制御装置、表示制御方法およびプログラム - Google Patents

表示制御装置、表示制御方法およびプログラム Download PDF

Info

Publication number
JP6337907B2
JP6337907B2 JP2015547663A JP2015547663A JP6337907B2 JP 6337907 B2 JP6337907 B2 JP 6337907B2 JP 2015547663 A JP2015547663 A JP 2015547663A JP 2015547663 A JP2015547663 A JP 2015547663A JP 6337907 B2 JP6337907 B2 JP 6337907B2
Authority
JP
Japan
Prior art keywords
image
display
display control
record
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015547663A
Other languages
English (en)
Other versions
JPWO2015072194A1 (ja
Inventor
俊一 笠原
俊一 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015072194A1 publication Critical patent/JPWO2015072194A1/ja
Application granted granted Critical
Publication of JP6337907B2 publication Critical patent/JP6337907B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、表示制御装置、表示制御方法およびプログラムに関する。
近年、現実の画像に付加的な情報を重畳してユーザに呈示する、拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術では、例えば撮像画像に含まれるオブジェクトが認識され、認識されたオブジェクトに関連する情報が表示される。このような情報はアノテーションとも呼ばれ、例えばテキスト、アイコンまたはアニメーションなど、さまざまな形態の仮想オブジェクトとして可視化される。このようなAR技術の例は、例えば特許文献1に記載されている。
特開2013−105253号公報
しかしながら、特許文献1では、現実のオブジェクトに関連する仮想オブジェクトをオブジェクトの位置または姿勢に合わせて適切に表示する技術が提案されているものの、現実のオブジェクト自体を活用した表示の技術については提案されていない。特許文献1に記載されているように、オブジェクトの位置や姿勢を検出することは可能なので、これを利用して、現実のオブジェクト自体を活用してより有用な情報を表示することも可能なはずである。
そこで、本開示では、画像に含まれる現実のオブジェクトの表示位置または姿勢に基づいて、現実のオブジェクト自体を活用してより有用な情報を表示することが可能な、新規かつ改良された表示制御装置、表示制御方法およびプログラムを提案する。
本開示によれば、画像と、上記画像に含まれるオブジェクトと、上記オブジェクトの上記画像における表示位置または姿勢とを関連付けるレコードを参照するレコード参照部と、上記レコードに基づいて、上記オブジェクトを含む第1の画像の表示を、上記オブジェクトを含み上記第1の画像とは異なる第2の画像の表示に、上記オブジェクトの表示位置または姿勢を維持したまま遷移させる表示制御部とを含む表示制御装置が提供される。
また、本開示によれば、画像と、上記画像に含まれるオブジェクトと、上記オブジェクトの上記画像における表示位置または姿勢とを関連付けるレコードを参照することと、上記レコードに基づいて、上記オブジェクトを含む第1の画像の表示を、上記オブジェクトを含み上記第1の画像とは異なる第2の画像の表示に、上記オブジェクトの表示位置または姿勢を維持したまま遷移させることとを含む表示制御方法が提供される。
また、本開示によれば、画像と、上記画像に含まれるオブジェクトと、上記オブジェクトの上記画像における表示位置または姿勢とを関連付けるレコードを参照する機能と、上記レコードに基づいて、上記オブジェクトを含む第1の画像の表示を、上記オブジェクトを含み上記第1の画像とは異なる第2の画像の表示に、上記オブジェクトの表示位置または姿勢を維持したまま遷移させる機能とをコンピュータに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、画像に含まれる現実のオブジェクトの表示位置または姿勢に基づいて、現実のオブジェクト自体を活用してより有用な情報を表示することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態における装置構成の概要を示す図である。 本開示の一実施形態に係るスマートフォンの概略的な構成を示すブロック図である。 本開示の一実施形態において撮像部が生成する画像の例を示す図である。 本開示の一実施形態において画像−オブジェクトDBに生成されるレコードの例を示す図である。 本開示の一実施形態における第1の表示例を示す図である。 本開示の一実施形態における第2の表示例を示す図である。 本開示の一実施形態における第3の表示例を示す図である。 本開示の一実施形態における第4の表示例を示す図である。 本開示の一実施形態における第5の表示例を示す図である。 本開示の一実施形態におけるアノテーションの表示のための処理の例について説明するための図である。 本開示の一実施形態における第6の表示例を示す図である。 本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.装置構成
2.表示例
2−1.オブジェクト表示位置または姿勢の変化
2−2.画像間の遷移
2−3.アノテーションの表示
2−4.遷移先の選択肢の表示
3.ハードウェア構成
4.補足
(1.装置構成)
図1は、本開示の一実施形態における装置構成の概要を示す図である。図1を参照すると、本実施形態では、スマートフォン100が、オブジェクト201を含む現実の空間200を撮像している。スマートフォン100の表示部118には、撮像によって生成されたスルー画像300tが表示されている。スルー画像300tには、現実のオブジェクト201に対応するオブジェクト301が含まれている。
図2は、本開示の一実施形態に係るスマートフォンの概略的な構成を示すブロック図である。図2を参照すると、スマートフォン100は、撮像部102と、オブジェクト認識部104と、オブジェクトDB106と、レコード生成部108と、レコード参照部110と、画像−オブジェクトDB112と、表示制御部114と、画像DB116と、表示部118とを含む。スマートフォン100は、本開示の実施形態に係る表示制御装置の一例であり、例えば後述する情報処理装置のハードウェア構成によって実現されうる。以下、それぞれの構成要素についてさらに説明する。
なお、本実施形態では、スマートフォン100が、少なくとも、CPU(Central Processing Unit)などのプロセッサと、メモリまたはストレージと、カメラ(撮像装置)と、ディスプレイ(出力装置)とを備える。例えば、オブジェクト認識部104、レコード生成部108、レコード参照部110、および表示制御部114は、プロセッサがメモリまたはストレージに格納されたプログラムに従って動作することによって実現されうる。オブジェクトDB106、画像−オブジェクトDB112、および画像DB116は、メモリまたはストレージによって実現されうる。撮像部102は、カメラによって実現されうる。表示部118は、ディスプレイによって実現されうる。
撮像部102は、現実の空間を撮像して画像を生成する。撮像部102は、静止画像を生成してもよいし、動画像を生成してもよい。撮像部102が生成した画像のデータは、オブジェクト認識部104に提供される他、必要に応じて画像DB116に格納される。また、画像のデータは、表示制御部114に提供されて、スルー画像またはプレビュー画像として表示部118に表示されてもよい。
オブジェクト認識部104は、撮像部102が生成した画像について、オブジェクト認識を実行する。オブジェクト認識部104は、オブジェクト認識のためにオブジェクトDB106を参照してもよい。オブジェクトDB106には、例えば、認識の対象になるオブジェクトの形状または外観に関するモデルデータが予め蓄積されている。モデルデータは、各オブジェクトの形状を定義するデータ、各オブジェクトに付される所定のシンボルマークもしくはテキストラベルなどの画像データ、または各オブジェクトについて既知の画像から抽出された特徴量セットのデータなどを含む。
より具体的には、例えば、オブジェクト認識部104は、撮像部102によって生成された画像を入力画像として用いて、入力画像にどのオブジェクトが含まれるかを認識する。オブジェクト認識部104は、例えば、入力画像から抽出される特徴点のセットを、モデルデータによって定義されるオブジェクトの形状と照合する。また、オブジェクト認識部104は、モデルデータによって定義されるシンボルマークまたはテキストラベルなどの画像データを、入力画像と照合してもよい。さらに、オブジェクト認識部104は、モデルデータによって定義される既知の物体の画像の特徴量を、入力画像から抽出される特徴量と照合してもよい。
ここで、新たな入力画像において既知のオブジェクトが認識された場合、オブジェクト認識部104は、認識されたオブジェクトを表す特徴量セットを、当該オブジェクトについて既知の画像から抽出された特徴量セットのデータとして追加してもよい。また、新たな入力画像において新たなオブジェクトが認識された場合、オブジェクト認識部104は、認識されたオブジェクトの形状や画像データ、特徴量などに基づいて、オブジェクトDB106に新たなモデルデータを追加してもよい。
さらに、オブジェクト認識部104は、画像におけるオブジェクトの表示位置および姿勢を認識することが可能である。より具体的には、例えば、オブジェクト認識部104は、撮像部102によって生成された画像を入力画像として用いて、入力画像に含まれるオブジェクトの表示位置および姿勢を検出する。例えば、オブジェクトの姿勢は、オブジェクトDB106に格納されたモデルデータでのモデル座標系と、入力画像に映っているオブジェクトの座標系との間の変換を表す4行4列の1つの同次変換行列によって統合的に表現される。オブジェクト認識部104は、この同次変換行列から、スマートフォン100に対するオブジェクトの角度を抽出することができる。また、画像におけるオブジェクトの表示位置は、例えば画像内でのオブジェクトの中心座標によって表すことができる。
レコード生成部108は、オブジェクト認識部104によるオブジェクト認識の結果に基づいて、画像−オブジェクトDB112にレコードを生成する。画像−オブジェクトDB112には、例えば、画像と、画像に含まれるオブジェクトと、オブジェクトの画像における表示位置および姿勢を関連付けるレコードが生成される。例えば、図3に示すように、撮像部102が生成した画像300において、オブジェクト認識部104が2つのオブジェクト301a,301bを認識した場合、レコード生成部108は、画像−オブジェクトDB112に図4に示すようなレコードを追加する。
図4は、本開示の一実施形態において画像−オブジェクトDBに生成されるレコードの例を示す図である。図4には、画像−オブジェクトDB112に生成されるレコードとして、画像ID、オブジェクトID、位置、および姿勢を含むレコードが例示されている。図示された例において、レコードは、画像IDとオブジェクトIDとの組み合わせについて一意である。上記のように、図3に示した例では、撮像部102が生成した画像300aにおいて、オブジェクト認識部104が2つの既知のオブジェクト301a,301bを認識している。そこで、レコード生成部108は、図4に示すような2つのレコード401a,401bを画像−オブジェクトDB112に追加する。
例えば、レコード401aは、画像300a(画像ID=img_000001)に含まれるオブジェクト301a(オブジェクトID=obj_000001)についてのレコードであり、画像300aにオブジェクト301aが含まれることと、画像300aにおけるオブジェクト301aの表示位置(画像内の座標で(X,Y)=(0.276,0.843))と、画像300aにおけるオブジェクト301aの姿勢(同次変換行列Mによって表現される)とを関連付けて記録している。
上記のように、画像−オブジェクトDB112のレコードは、画像IDとオブジェクトIDとの組み合わせについて一意である。従って、図示されているように、同じ画像300aの中でも、複数のオブジェクト301a,301bが発見されれば、それぞれにオブジェクトに対応する複数のレコード401a,401bが生成されうる。さらに、別の画像300bでオブジェクト301aまたはオブジェクト301bの少なくともいずれかが発見されれば、また新たなレコード401が生成される。
再び図2を参照して、レコード参照部110は、オブジェクト認識部104によるオブジェクト認識の結果に基づいて、画像−オブジェクトDB112のレコードを参照する。ここで参照されるのは、オブジェクト認識部104によって認識されたオブジェクトを含む他の画像についてのレコードである。つまり、上記の図3および図4の例のように、画像300aにおいてオブジェクト301aが認識された場合、レコード参照部110は、画像300a以外の画像で、オブジェクト301aを含む画像についてのレコードを参照する。例えば、レコード参照部110は、図4に示すようなレコードを含む画像−オブジェクトDB112において、「画像ID≠img_000001 AND オブジェクトID=obj_000001」というクエリを発行してレコードを参照してもよい。
あるいは、レコード参照部110は、表示制御部114の要求に応じて画像−オブジェクトDB112のレコードを参照してもよい。ここで参照されるのは、例えば、表示制御部114によって指定されたオブジェクトを含む画像についてのレコードである。例えば、上記の図4のような画像−オブジェクトDB112のレコードが生成されている場合、レコード参照部110は、オブジェクトIDを指定してレコードを参照することによって、特定のオブジェクトを含む複数の画像についてのレコードを一括して取得することが可能である。
表示制御部114は、表示部118への画像の表示を制御する。例えば、表示制御部114は、撮像部102によって生成された画像(以下、撮像画像ともいう)を、スルー画像またはプレビュー画像として表示部118に表示させてもよい。また、例えば、表示制御部114は、スマートフォン100のユーザの操作に応じて、画像DB116に格納された画像(以下、記録画像)を読み出して、表示部118に表示させてもよい。このとき、表示制御部114は、撮像画像または記録画像を必要に応じて加工して表示させてもよい。本実施形態において、撮像画像および記録画像では、例えばオブジェクト認識部104によって画像に含まれるオブジェクトが認識されているため、表示制御部114は、撮像画像または記録画像に含まれるオブジェクトの表示位置を変化させたり(画像自体を移動させてもよい)、オブジェクトの姿勢を変化させたりすることも可能である。
例えば、表示制御部114は、あるオブジェクトを含む第1の画像(撮像画像または記録画像)の表示を、同じオブジェクトを含む第2の画像(第1の画像とは異なる記録画像)の表示に遷移させてもよい。このとき、表示制御部114は、例えば第1の画像または第2の画像においてオブジェクトの表示位置または姿勢を変化させることによって、オブジェクトの表示位置または姿勢を維持したまま画像の表示を遷移させることができる。
このような表示は、例えば、表示制御部114が、レコード参照部110が参照したレコードに基づいて、遷移先の第2の画像(画像DBに格納された、第1の画像と同じオブジェクトを含む画像)を特定し、さらに、第2の画像に含まれるオブジェクトの表示位置および姿勢を認識することによって可能になる。第1の画像について、表示制御部114は、オブジェクト認識部104によるオブジェクト認識の結果(第1の画像が撮像画像である場合)、またはレコード参照部110が取得した別のレコード(第1の画像が記録画像である場合)に基づいて表示位置および姿勢を認識する。
画像DB116には、例えば、撮像部102によって生成された画像が、スマートフォン100のユーザの操作に応じて格納される。また、画像DB116には、ネットワークを介して外部装置(図示せず)から取得された画像が格納されてもよい。画像DB116には、画像のコンテンツ実体が格納されてもよいし、画像のコンテンツ実体へのリンク情報が格納されてもよい。
ここで、上述したようなレコード参照部110および表示制御部114の処理を可能にするために、画像DB116に格納される画像に与えられる画像IDと、画像−オブジェクトDB112における画像IDとは共通、または変換可能であることが望ましい。同様に、オブジェクトDB106に格納されるモデルデータに与えられるオブジェクトIDと、画像−オブジェクトDB112におけるオブジェクトIDとも共通、または変換可能であることが望ましい。
以上、本開示の一実施形態における装置構成について説明した。なお、上記の例では表示制御装置としてスマートフォンを例示したが、本開示の実施形態はこのような例には限られない。例えば、表示制御装置は、デスクトップ型もしくはノート型のパーソナルコンピュータ、テレビ、タブレット端末、メディアプレーヤ、またはゲーム機など、ディスプレイと入力装置とを備える各種の機器でありうる。表示制御装置は、必ずしも撮像部を備えなくてもよく、例えば専らネットワークを介して共有された画像を取得したり、リムーバブルメディアからの読み込みなどによってストレージに蓄積された画像を取得したりするものであってもよい。
また、本開示の実施形態における別の装置構成として、上記の構成の少なくとも一部が、ネットワーク上のサーバにおいて実現されてもよい。例えば、スマートフォン100(他の端末装置でもよい)は撮像部102と表示部118とを有し、他の構成要素、例えばオブジェクト認識部104、オブジェクトDB106、レコード生成部108、レコード参照部110、画像−オブジェクトDB112、表示制御部114、および画像DB116は、ネットワーク上のサーバにおいて実現されてもよい。この場合、サーバが表示制御装置の例になる。また、上記と同様の装置構成において、オブジェクトDB106、画像−オブジェクトDB112、および画像DB116のうちの一部または全部が、ネットワーク上のストレージにおいて実現されてもよい。
(2.表示例)
(2−1.オブジェクト表示位置または姿勢の変化)
図5は、本開示の一実施形態における第1の表示例を示す図である。この表示例では、まず、Aに示すように、オブジェクト311a〜311hが含まれる画像310が表示されている。ここで、ユーザがタッチパネルなどを介した操作(例えばダブルタップなど)によってオブジェクト311cを指定すると、Bに示すように、オブジェクト311cがハイライトされた上で、オブジェクト311a〜311hの姿勢が互いの位置関係を維持したまま変化し、オブジェクト311cが画面に正対した状態になる。さらに、Cに示すように、正対した状態のオブジェクト311cを中心にして画像310がズームインすることによって、オブジェクト311cが拡大表示される。
図6は、本開示の一実施形態における第2の表示例を示す図である。この表示例では、まず、Aに示すように、オブジェクト311a〜311hが含まれる画像310が表示されている(図5と同様)。ここで、ユーザがタッチパネルなどを介した操作(例えばダブルタップなど)によってオブジェクト311hを指定すると、Bに示すように、オブジェクト311hがハイライトされた上で、オブジェクト311a〜311hの姿勢が位置関係を維持したまま変化し、オブジェクト311hが正対した状態になる。さらに、この状態でオブジェクト311hに対してさらに所定の操作(例えばドラッグ/ピンチイン、またはダブルタップなど)が取得されると、Cに示すように、正対した状態のオブジェクト311hを中心にして画像310がズームインすることによって、オブジェクト311hが拡大される。
上記の2つの例に示されるように、本実施形態では、画像において指定されたオブジェクトの姿勢を変化させてオブジェクトを画面に正対させたり、指定されたオブジェクトが中心に表示されるように画像の表示範囲を移動させたり、指定されたオブジェクトが拡大表示されるように画像をズームインさせたりすることが可能である。
このような表示の変化は、表示制御部114が、レコード参照部110が参照した画像−オブジェクトDB112のレコード(画像と、画像に含まれるオブジェクトと、オブジェクトの画像における表示位置または姿勢を関連付けるレコード)に基づいて、撮像部102または画像DB116から取得された画像を加工することによって可能になる。
より具体的には、例えば、表示制御部114は、画像に含まれる各オブジェクトの姿勢を示す情報に基づいて、各オブジェクトが画面に正対するように、オブジェクトの部分の画像を変形させる。また、表示制御部114は、画像における各オブジェクトの表示位置を示す情報に基づいて、変形後の各オブジェクトを、変形前の位置関係が再現されるように再配置する。さらに、表示制御部114は、画像における各オブジェクトの表示位置を示す情報に基づいて、指定されたオブジェクトが中心に表示されるように画像の表示範囲を移動させたり、指定されたオブジェクトが拡大されるように画像をズームインさせたりする。
(2−2.画像間の遷移)
図7は、本開示の一実施形態における第3の表示例を示す図である。この表示例では、まず、Aに示すように、画像310(第1の画像)において、オブジェクト311cが正対および拡大して表示されている。この表示は、例えば上記で図5を参照して説明した一連の表示を経て表示されたものであってもよい。ここで、自動的に、またはユーザの所定の操作に応じて、Bに示すように、画像310の表示が、異なる画像320(第2の画像)の表示に遷移する。画像320は、オブジェクト321cを含む。オブジェクト321cは、オブジェクト311cと同じオブジェクト(つまり、同じオブジェクトIDで画像−オブジェクトDB112に記録されている)である。なお、後述するCに示されるように、画像320には、オブジェクト321cの他にオブジェクト321i,321jが含まれる。
このとき、Aに示す画像310の表示と、Bに示す画像320の表示とを通じて、オブジェクト311c,321cの表示位置および姿勢が維持される。つまり、Aの画像310ではオブジェクト311cが正対して中央付近に配置されているのに対し、Bの画像320でも、オブジェクト321cが正対して中央付近に配置されている。その後、自動的に、またはユーザの所定の操作に応じて、Cに示すように、画像320の表示が、オブジェクト311cが正対しておらず、中央にも表示されていない状態に変化する。図示された例では、これが画像320の元の状態である。つまり、Bでは、遷移前の画像310におけるオブジェクト311cの姿勢および表示位置が、遷移後に表示されるオブジェクト321cでも維持されるように、画像320が加工された上で表示されている。
このように、本実施形態では、表示制御部114が、第1の画像の表示においてオブジェクトの姿勢を所定の姿勢(例えば正対)に変化させ、第2の画像の表示への遷移後も所定の姿勢を少なくとも一時的に維持することによって、同じオブジェクトを含む画像間の遷移をシームレスに表現することが可能である。これによって、例えば、オブジェクト311c,321cを媒介にして、オブジェクト311a〜311hを含む画像310からオブジェクト321c,321i,321jを含む画像320に表示を遷移させることができ、画像310には含まれていなかったオブジェクト321i,321jに関しての情報を新たに得ることができる。
例えば、上記の図7の例で、Cに示した状態で今度はオブジェクト321jを選択することによって、オブジェクト321jと同じオブジェクトを含む他の画像への遷移が実行されてもよい。本実施形態では、このようにして、オブジェクトを媒介にした画像の遷移を、必要に応じて対象のオブジェクトを変更しながら繰り返すことで、新たなコンテキストによるオブジェクトまたは画像同士の情報のリンクを形成することができる。
別の例として、表示制御部114は、画像310(第1の画像)の表示において、オブジェクト311cの表示位置および姿勢を画像320(第2の画像)の元の状態(図7Cに示す状態)での表示におけるオブジェクト321cと同様の表示位置および姿勢に変化させた上で、画像310の表示を画像320の表示に遷移させてもよい。逆に表示制御部114は、画像310(第1の画像)の表示においてオブジェクト311cの表示位置および姿勢を変化させず(図5に示すような正対やズームインをせず)、代わりに、画像320の表示において、オブジェクト321cの表示位置および姿勢を、画像310での表示におけるオブジェクト311cと同様の表示位置および姿勢に変化させた上で遷移を実行してもよい。
図8は、本開示の一実施形態における第4の表示例を示す図である。この表示例では、まず、Aに示すように、グラフィックとして表示されたオブジェクト331aを含む画像330(ウェブページ)が表示されている。この状態で、例えば、ユーザがオブジェクト331aを指定して所定の操作を実行することによって、Bに示すように、画像330の表示が、異なる画像340(写真)に遷移する。画像340は、写真に写ったオブジェクト341aを含む。オブジェクト341aは、オブジェクト331aと同じオブジェクト(つまり、同じオブジェクトIDで画像−オブジェクトDB112に記録されている)である。
このように、本実施形態において、遷移前後の画像は、ウェブページなどの仮想的に構成された画像、または撮像画像(写真)のどちらであってもよい。上記の表示例のように、仮想的に構成された画像(ウェブページ)と撮像画像(写真)との間で相互に遷移が実行されてもよいし、仮想的に構成された画像同士、または撮像画像同士の間で遷移が実行されてもよい。また、図8には示していないが、この例においても、遷移の前後でオブジェクト331a,341aの表示位置または姿勢が維持されるように、画像330または画像340のいずれか、または両方が加工されうる。
(2−3.アノテーションの表示)
図9は、本開示の一実施形態における第5の表示例を示す図である。この表示例では、Aに示すように、画像350に含まれるオブジェクト351(ポスター)に、複数のユーザによって与えられたアノテーション352が累積的に関連付けて表示される。なお、アノテーションもまたオブジェクトとして扱われうるが、この例では説明のためにオブジェクト351とアノテーション352とを区別する。Bに示すように、アノテーション352は、オブジェクト351に重畳して表示された姿勢を維持したまま、スクロールさせて表示させることが可能である(Aではアノテーション352a〜352eが表示されているのに対して、Bではアノテーション352c〜352gが表示されている)。また、Cに示すように、アノテーション352をオブジェクト351から独立して正対表示させることも可能である。
このような表示は、本実施形態において、複数のユーザがそれぞれ異なる画像350に含まれる同じオブジェクト351に対して入力したアノテーション352が、それぞれの画像350におけるオブジェクト351に対する相対的な位置関係とともに記録されていることによって可能になる。以下で、図10を説明して、このような表示のための処理の例についてさらに説明する。
図10は、本開示の一実施形態におけるアノテーションの表示のための処理の例について説明するための図である。図示された例では、ユーザAによって、画像360aに含まれるオブジェクト361aに対して、アノテーション362aが入力される。ここで、アノテーション362aは、例えば、オブジェクト361aのオブジェクトID、オブジェクト361aに対するアノテーション362aの相対的な位置、オブジェクト361aに対するアノテーション362aの相対的な角度、およびアノテーション362aの内容(テキストまたは画像)によって記録される。
一方、別のユーザBは、オブジェクト361aと同じオブジェクト361bを含む別の画像360bを参照している。画像360bにおいて、オブジェクト361bは、画像360aにおけるオブジェクト361aとは異なる表示位置および姿勢で表示されているが、例えば画像−オブジェクトDB112に同じオブジェクトIDで記録されていることによって、オブジェクト361aと関連付けることが可能である。さらに、ユーザAが入力したアノテーション362aが、オブジェクト361aに対する相対的な位置や角度とともに記録されているために、画像360bにおいても、オブジェクト361bを基準にしてアノテーション362aを表示させることが可能である。
より具体的には、表示制御部114は、レコード参照部110が取得した画像−オブジェクトDBのレコードに基づいて、画像360aにおけるオブジェクト361aと、画像360bにおけるオブジェクト361bとの表示位置および姿勢の差分を算出し、算出された差分を、アノテーション362aのオブジェクト361aに対する相対的な位置や角度に加えることで、画像360bにおいてオブジェクト361bを基準にしてアノテーション362aを表示させることができる。
ここで、ユーザBは、画像360bに含まれるオブジェクト361bに対して、追加でアノテーション362bを入力してもよい。アノテーション362bも、アノテーション362aと同様に、オブジェクト361bのオブジェクトID(オブジェクト361aと同じ)、オブジェクト361bに対するアノテーション362bの相対的な位置、オブジェクト361bに対するアノテーション362bの相対的な角度、およびアノテーション362bの内容(テキストまたは画像)によって記録されうる。これによって、図示されているように、ユーザAが参照している画像360aでも、オブジェクト361aを基準にしてアノテーション362bを表示することができる。
さらに、ユーザA,Bのそれぞれによって入力されたアノテーションは、さらに別のユーザCが参照する画像360c(ウェブページ)において表示されてもよい。この場合、オブジェクト361cと、アノテーション362a,362bとは、いずれも画像360cにおいて正対して表示されてもよい。
以上のようなオブジェクト361およびアノテーション362の表示のための処理は、例えば、ユーザA、ユーザB、およびユーザCにサービスを提供するネットワーク上のサーバによって実行されてもよい。つまり、この場合、ネットワーク上のサーバが、表示制御装置の例であってもよい。
(2−4.遷移先の選択肢の表示)
図11は、本開示の一実施形態における第6の表示例を示す図である。この表示例では、画像370において、オブジェクト371を媒介として遷移することが可能な画像の選択肢アイコン373が表示される。つまり、図示された例では、オブジェクト371と同じオブジェクトを含む画像が画像DB116に複数格納されており、そのうちのどれに遷移するかをユーザが選択肢アイコン373を用いて選択することが可能である。図示された例では、4つの選択肢アイコン373a〜373dが表示されている。
選択肢アイコン373は、例えば、ユーザがタッチパネルなどを介して、オブジェクト371に対する所定の操作(例えば長押しなど)を実行した場合に表示される。ユーザが複数の選択肢アイコン373のうちのいずれかを選択することによって、画像370から該当する画像への遷移が実行される。この場合の遷移でも、遷移前の画像370と、遷移後の画像との間で、オブジェクト371の表示位置または姿勢が維持されてもよい。
ここで、選択肢アイコン373は、例えば、遷移することが可能な画像の中からランダムに選択された所定の数の画像を表示してもよい。あるいは、選択肢アイコン373は、所定の条件で選択された画像を表示してもよい。図示された例では、選択肢アイコン373aに最も解像度が高い画像が、選択肢アイコン373bに最も推薦度が高い画像が、選択肢アイコン373cに撮影場所が画像370に撮影場所に最も近い画像が、選択肢アイコン373dに最も他のユーザの評価が高い画像が、それぞれ表示されている。
上記の例のように、解像度、推薦度、撮影場所、または他のユーザの評価などの属性に基づいて選択肢アイコン373として表示される画像を決定する場合、例えば、画像DB116において、それぞれの画像の属性を示す情報が、それぞれの画像IDに関連付けて格納される。
このように、画像370に含まれるオブジェクト371を媒介として遷移することが可能な画像が選択肢アイコン373として表示されることによって、例えば、ユーザが画像の遷移によって所望の情報に到達することがより容易になりうる。
以上で説明したような本開示の実施形態のいくつかの表示例によれば、複数のオブジェクトが同じ場所に存在している状態を1つのコンテキストと捉え、その状態を共有するアプリケーションが実現可能である。
一例として、ユーザが机上に置かれた本を撮像した画像から、同じ本をオブジェクトとして含む他の画像への遷移を実行した場合、書店で本棚に並んだその本の画像(他のユーザが撮像し、ネットワーク上で共有されている画像でありうる)に遷移することで、その本に関連する本としてどのような本が選択されているのかというコンテキストを理解することができる。
また、複数の書店やオフィス、個人の書棚などでその本が並べられている画像に次々と遷移できれば、いろいろな視点で選択された、その本に関連する他の本についての情報を得ることができる。このような遷移にあたって、オブジェクト(本)の表示位置または姿勢が維持されたままシームレスに遷移が実行されることで、ユーザは、画像の表示がオブジェクト(本)を媒介として実行されていることを容易に認識することができる。
また、例えば、ユーザが装着するウェアラブルディスプレイに搭載されたカメラなどによって継続的にユーザの視点画像が記録されているような場合、膨大な量の画像が記録されうる。例えば、ユーザがあるオブジェクト見た気がするがどこで見たか思い出せないような場合、オブジェクトのサンプル画像を撮像し、サンプル画像に含まれるオブジェクトと同じオブジェクトを検索して表示させることで、そのオブジェクトを見た際のユーザの状況を正確に思い出すことができる。また、ネットワークを介して視点画像が共有される場合、他のユーザが、オブジェクトを媒介としてユーザの視点画像にアクセスすることができる。
なお、上記の実施形態および表示例の説明では、画像の遷移にあたってオブジェクトの表示位置および姿勢の両方が維持されることとしたが、本開示の実施形態はこのような例には限られず、画像の遷移時には、表示位置または姿勢のいずれかだけが維持されてもよい。その場合でも、画像の表示がオブジェクトを媒介として実行されていることをユーザに認識させることは十分に可能でありうる。また、その場合、画像−オブジェクトDBには、画像と、画像に含まれるオブジェクトと、オブジェクトの画像における表示位置または姿勢のいずれか一方とを関連付けるレコードが格納されていてもよい。
(3.ハードウェア構成)
次に、図12を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図12は、本開示の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるスマートフォンやサーバなどの表示制御装置を実現しうる。
情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
(4.補足)
本開示の実施形態は、例えば、上記で説明したような表示制御装置(スマートフォンまたはサーバなど)、システム、表示制御装置またはシステムで実行される表示制御方法、表示制御装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)画像と、前記画像に含まれるオブジェクトと、前記オブジェクトの前記画像における表示位置または姿勢とを関連付けるレコードを参照するレコード参照部と、
前記レコードに基づいて、前記オブジェクトを含む第1の画像の表示を、前記オブジェクトを含み前記第1の画像とは異なる第2の画像の表示に、前記オブジェクトの表示位置または姿勢を維持したまま遷移させる表示制御部と
を備える表示制御装置。
(2)前記表示制御部は、前記第1の画像の表示において前記オブジェクトの姿勢を所定の姿勢に変化させ、前記第2の画像の表示への遷移後も前記所定の姿勢を少なくとも一時的に維持する、前記(1)に記載の表示制御装置。
(3)前記所定の姿勢は、正対姿勢である、前記(2)に記載の表示制御装置。
(4)前記表示制御部は、前記第1の画像の表示において前記オブジェクトの表示位置または姿勢を前記第2の画像の表示における前記オブジェクトの表示位置または姿勢に対応するように変化させた上で、前記第1の画像の表示を前記第2の画像の表示に遷移させる、前記(1)に記載の表示制御装置。
(5)前記表示制御部は、前記第1の画像の表示を、前記オブジェクトの表示位置または姿勢が前記第1の画像の表示における前記オブジェクトの表示位置または姿勢に対応するように変化した前記第2の画像の表示に遷移させる、前記(1)に記載の表示制御装置。
(6)前記第1の画像および前記第2の画像のうちの少なくともいずれかは、撮像画像である、前記(1)〜(5)のいずれか1項に記載の表示制御装置。
(7)前記第1の画像および前記第2の画像のうちの少なくともいずれかは、仮想的に構成された画像である、前記(1)〜(6)のいずれか1項に記載の表示制御装置。
(8)前記表示制御部は、前記第1の画像において、前記第2の画像として遷移可能な画像の選択肢を表示させる、前記(1)〜(7)のいずれか1項に記載の表示制御装置。
(9)前記表示制御部は、前記画像の属性ごとに前記選択肢を表示させる、前記(8)に記載の表示制御装置。
(10)前記表示制御部は、前記レコードに基づいて、前記第1の画像および前記第2の画像のそれぞれにおいて前記オブジェクトに与えられたアノテーションを累積的に前記オブジェクトに関連付けて表示させる、前記(1)〜(8)のいずれか1項に記載の表示制御装置。
(11)画像と、前記画像に含まれるオブジェクトと、前記オブジェクトの前記画像における表示位置または姿勢とを関連付けるレコードを参照することと、
前記レコードに基づいて、前記オブジェクトを含む第1の画像の表示を、前記オブジェクトを含み前記第1の画像とは異なる第2の画像の表示に、前記オブジェクトの表示位置または姿勢を維持したまま遷移させることと
を含む表示制御方法。
(12)画像と、前記画像に含まれるオブジェクトと、前記オブジェクトの前記画像における表示位置または姿勢とを関連付けるレコードを参照する機能と、
前記レコードに基づいて、前記オブジェクトを含む第1の画像の表示を、前記オブジェクトを含み前記第1の画像とは異なる第2の画像の表示に、前記オブジェクトの表示位置または姿勢を維持したまま遷移させる機能と
をコンピュータに実現させるためのプログラム。
100 スマートフォン
102 撮像部
104 認識部
108 生成部
110 参照部
114 表示制御部
118 表示部

Claims (12)

  1. 画像と、前記画像に含まれるオブジェクトと、前記オブジェクトの前記画像における表示位置または姿勢とを関連付けるレコードを参照するレコード参照部と、
    前記レコードに基づいて、前記オブジェクトを含む第1の画像の表示を、前記オブジェクトを含み前記第1の画像とは異なる第2の画像の表示に、前記オブジェクトの表示位置または姿勢を維持したまま遷移させる表示制御部と
    を備える表示制御装置。
  2. 前記表示制御部は、前記第1の画像の表示において前記オブジェクトの姿勢を所定の姿勢に変化させ、前記第2の画像の表示への遷移後も前記所定の姿勢を少なくとも一時的に維持する、請求項1に記載の表示制御装置。
  3. 前記所定の姿勢は、正対姿勢である、請求項2に記載の表示制御装置。
  4. 前記表示制御部は、前記第1の画像の表示において前記オブジェクトの表示位置または姿勢を前記第2の画像の表示における前記オブジェクトの表示位置または姿勢に対応するように変化させた上で、前記第1の画像の表示を前記第2の画像の表示に遷移させる、請求項1に記載の表示制御装置。
  5. 前記表示制御部は、前記第1の画像の表示を、前記オブジェクトの表示位置または姿勢が前記第1の画像の表示における前記オブジェクトの表示位置または姿勢に対応するように変化した前記第2の画像の表示に遷移させる、請求項1に記載の表示制御装置。
  6. 前記第1の画像および前記第2の画像のうちの少なくともいずれかは、撮像画像である、請求項1に記載の表示制御装置。
  7. 前記第1の画像および前記第2の画像のうちの少なくともいずれかは、仮想的に構成された画像である、請求項1に記載の表示制御装置。
  8. 前記表示制御部は、前記第1の画像において、前記第2の画像として遷移可能な画像の選択肢を表示させる、請求項1に記載の表示制御装置。
  9. 前記表示制御部は、前記画像の属性ごとに前記選択肢を表示させる、請求項8に記載の表示制御装置。
  10. 前記表示制御部は、前記レコードに基づいて、前記第1の画像および前記第2の画像のそれぞれにおいて前記オブジェクトに与えられたアノテーションを累積的に前記オブジェクトに関連付けて表示させる、請求項1に記載の表示制御装置。
  11. 画像と、前記画像に含まれるオブジェクトと、前記オブジェクトの前記画像における表示位置または姿勢とを関連付けるレコードを参照することと、
    前記レコードに基づいて、前記オブジェクトを含む第1の画像の表示を、前記オブジェクトを含み前記第1の画像とは異なる第2の画像の表示に、前記オブジェクトの表示位置または姿勢を維持したまま遷移させることと
    を含む表示制御方法。
  12. 画像と、前記画像に含まれるオブジェクトと、前記オブジェクトの前記画像における表示位置または姿勢とを関連付けるレコードを参照する機能と、
    前記レコードに基づいて、前記オブジェクトを含む第1の画像の表示を、前記オブジェクトを含み前記第1の画像とは異なる第2の画像の表示に、前記オブジェクトの表示位置または姿勢を維持したまま遷移させる機能と
    をコンピュータに実現させるためのプログラム。
JP2015547663A 2013-11-13 2014-08-13 表示制御装置、表示制御方法およびプログラム Expired - Fee Related JP6337907B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013234930 2013-11-13
JP2013234930 2013-11-13
PCT/JP2014/071386 WO2015072194A1 (ja) 2013-11-13 2014-08-13 表示制御装置、表示制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2015072194A1 JPWO2015072194A1 (ja) 2017-03-16
JP6337907B2 true JP6337907B2 (ja) 2018-06-06

Family

ID=53057140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015547663A Expired - Fee Related JP6337907B2 (ja) 2013-11-13 2014-08-13 表示制御装置、表示制御方法およびプログラム

Country Status (4)

Country Link
US (1) US10074216B2 (ja)
EP (1) EP3070681A4 (ja)
JP (1) JP6337907B2 (ja)
WO (1) WO2015072194A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786097B2 (en) 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10139985B2 (en) 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
US10127722B2 (en) 2015-06-30 2018-11-13 Matterport, Inc. Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
US10163261B2 (en) 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
US10430924B2 (en) * 2017-06-30 2019-10-01 Quirklogic, Inc. Resizable, open editable thumbnails in a computing device
US11287947B2 (en) 2019-05-15 2022-03-29 Microsoft Technology Licensing, Llc Contextual input in a three-dimensional environment
US11039061B2 (en) 2019-05-15 2021-06-15 Microsoft Technology Licensing, Llc Content assistance in a three-dimensional environment
US11030822B2 (en) * 2019-05-15 2021-06-08 Microsoft Technology Licensing, Llc Content indicators in a 3D environment authoring application
US11164395B2 (en) 2019-05-15 2021-11-02 Microsoft Technology Licensing, Llc Structure switching in a three-dimensional environment

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10275161A (ja) * 1997-01-28 1998-10-13 Dainippon Screen Mfg Co Ltd 画像検索方法およびその処理を実行するためのプログラムを記録した記録媒体
US6012069A (en) * 1997-01-28 2000-01-04 Dainippon Screen Mfg. Co., Ltd. Method and apparatus for retrieving a desired image from an image database using keywords
US5995119A (en) * 1997-06-06 1999-11-30 At&T Corp. Method for generating photo-realistic animated characters
US6278466B1 (en) * 1998-06-11 2001-08-21 Presenter.Com, Inc. Creating animation from a video
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
JP4136838B2 (ja) * 2003-08-06 2008-08-20 キヤノン株式会社 画像表示方法および画像表示装置
WO2006006686A1 (ja) * 2004-07-15 2006-01-19 Nippon Telegraph And Telephone Corporation 力覚提示装置、力覚提示方法および力覚提示プログラム
JP2009533786A (ja) * 2006-04-10 2009-09-17 アヴァワークス インコーポレーテッド 自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法
JP2007280212A (ja) 2006-04-10 2007-10-25 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
US20080002225A1 (en) * 2006-06-27 2008-01-03 Masajiro Iwasaki Printing control method, printing control device, printing sytem, terminal device, program, and recording medium
JP4934843B2 (ja) * 2006-11-29 2012-05-23 株式会社リコー 情報処理装置、画像登録方法、およびプログラム
JP5167821B2 (ja) * 2008-01-11 2013-03-21 株式会社リコー 文書検索装置、文書検索方法及び文書検索プログラム
US20130215116A1 (en) * 2008-03-21 2013-08-22 Dressbot, Inc. System and Method for Collaborative Shopping, Business and Entertainment
JP5331783B2 (ja) 2010-12-13 2013-10-30 ヤフー株式会社 画像検索装置、画像検索方法、および画像検索プログラム
US9354718B2 (en) * 2010-12-22 2016-05-31 Zspace, Inc. Tightly coupled interactive stereo display
JP5776201B2 (ja) * 2011-02-10 2015-09-09 ソニー株式会社 情報処理装置、情報共有方法、プログラム及び端末装置
JP5732988B2 (ja) * 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
JP5741160B2 (ja) * 2011-04-08 2015-07-01 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US20130249948A1 (en) * 2011-08-26 2013-09-26 Reincloud Corporation Providing interactive travel content at a display device
JP6121647B2 (ja) 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9405463B2 (en) * 2011-11-25 2016-08-02 Samsung Electronics Co., Ltd. Device and method for gesturally changing object attributes
JP2013165366A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
US10223859B2 (en) * 2012-10-30 2019-03-05 Bally Gaming, Inc. Augmented reality gaming eyewear
US20150123966A1 (en) * 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform

Also Published As

Publication number Publication date
EP3070681A4 (en) 2017-07-12
WO2015072194A1 (ja) 2015-05-21
US10074216B2 (en) 2018-09-11
US20160210788A1 (en) 2016-07-21
JPWO2015072194A1 (ja) 2017-03-16
EP3070681A1 (en) 2016-09-21

Similar Documents

Publication Publication Date Title
JP6337907B2 (ja) 表示制御装置、表示制御方法およびプログラム
US11227446B2 (en) Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
JP6121647B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6102588B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6167703B2 (ja) 表示制御装置、プログラム及び記録媒体
JP6135783B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2013145566A1 (en) Information processing apparatus, information processing method, and program
JP2005250950A (ja) マーカ提示用携帯端末および拡張現実感システムならびにその動作方法
JP6149862B2 (ja) 表示制御装置、表示制御システムおよび表示制御方法
JP2013200775A (ja) 情報処理装置、情報処理方法およびプログラム
JP2017211811A (ja) 表示制御プログラム、表示制御方法および表示制御装置
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
US20140181709A1 (en) Apparatus and method for using interaction history to manipulate content
JP5446700B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
GB2513865A (en) A method for interacting with an augmented reality scene
JP2017182681A (ja) 画像処理システム、情報処理装置、プログラム
JP2015156187A (ja) 情報処理装置、システム、情報処理方法およびプログラム
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR20120035321A (ko) 증강 현실 컨텐츠 재생 시스템 및 방법
JP6443505B2 (ja) プログラム、表示制御装置及び表示制御方法
JP2019096305A (ja) 電子機器およびその制御方法およびプログラムおよび記録媒体
US20240080543A1 (en) User interfaces for camera management
WO2024057650A1 (ja) 電子機器
WO2019102885A1 (ja) 画像の表示部分を変更可能な電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R151 Written notification of patent or utility model registration

Ref document number: 6337907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees