JPWO2013118373A1 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JPWO2013118373A1 JPWO2013118373A1 JP2013557372A JP2013557372A JPWO2013118373A1 JP WO2013118373 A1 JPWO2013118373 A1 JP WO2013118373A1 JP 2013557372 A JP2013557372 A JP 2013557372A JP 2013557372 A JP2013557372 A JP 2013557372A JP WO2013118373 A1 JPWO2013118373 A1 JP WO2013118373A1
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- image processing
- environment
- virtual object
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
1.基本的な原理
1−1.概要
1−2.基本的なパラメータ
1−3.3次元的な操作量の例
2.画像処理装置の構成例
2−1.ハードウェア構成
2−2.機能構成
2−3.操作シナリオ
2−4.処理の流れ
2−5.表示のバリエーション
2−6.仮想オブジェクトの共有
3.まとめ
まず、図1〜図8を用いて、本開示に係る技術の基本的な原理について説明する。
図1は、本開示に係る技術が適用され得る環境の一例を示す説明図である。図1を参照すると、環境1、及び環境1を映す画像を撮像する画像処理装置100が示されている。図1の例において、環境1には、物体11が存在している。画像処理装置100は、典型的には、撮像部(図示せず)及び表示部110を備える。画像処理装置100の撮像部は、環境1を映す映像を構成する一連の画像を撮像する。そして、画像処理装置100は、撮像画像を入力画像として画像処理を行い、3次元空間に仮想オブジェクトを配置する。仮想オブジェクトは、後に説明するように、画像処理装置100を動かすことによりユーザにより操作される。画像処理装置100の表示部110は、仮想オブジェクトが重畳された出力画像を表示する。
本開示に係る技術において、基準環境内に配置される仮想オブジェクトの位置及び姿勢は、いくつかのパラメータを用いた計算を通じて決定される。最も基本的なパラメータは、環境認識行列である。
環境認識行列は、入力画像を撮像した端末の基準環境内の位置及び姿勢を基準として、基準環境の位置及び姿勢を表現する行列である。環境認識行列は、典型的には、3次元空間内の並行移動、回転及びスケーリング(拡大/縮小)を表す座標変換行列(例えば、4行4列の同次変換行列)であってよい。
上述した前提の下で、環境認識行列Mrecogの逆行列Mrecog −1は、基準座標系CS1の位置及び姿勢を基準とした画像処理装置100の位置及び姿勢を表現する行列となる。図3は、環境認識行列の逆行列Mrecog −1が表現する座標変換を概念的に示している。
図5は、オフセット行列Ttouchを算入して決定される操作配置行列Mmobileを概念的に示している。オフセット行列Ttouchは、画像処理装置100の画面上でのユーザ入力位置に応じて決定される、当該画面に沿った方向への並行移動を表現する座標変換行列である。オフセット行列Ttouchが算入される場合、操作配置行列Mmobileは、次式のように計算され得る。
ここで、ユーザが、時刻t1から時刻t2にかけて画像処理装置100を移動させたものとする。その場合、上述した原理に従って、時刻t1における操作配置行列Mmobile(t1)と時刻t2における操作配置行列Mmobile(t2)とを計算することができる。操作配置行列Mmobile(t1)が表現する位置と操作配置行列Mmobile(t2)が表現する位置との差分は、時刻t1から時刻t2にかけての画像処理装置100の並行移動(及び画面上でのユーザ入力位置の変化)に対応する並行移動量を示す。操作配置行列Mmobile(t1)が表現する姿勢と操作配置行列Mmobile(t2)が表現する姿勢との差分は、時刻t1から時刻t2にかけての画像処理装置100の回転に対応する回転量を示す。本開示に係る技術では、これら並行移動量及び回転量に従って、基準環境内に配置される仮想オブジェクトが3次元的に操作される。
[2−1.ハードウェア構成]
図9は、一実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図9を参照すると、画像処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される一連の撮像画像は、映像を構成する。なお、撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。また、撮像部102は、撮像部102と被写体との間の距離を画素ごとに測定する深度(depth)センサを含んでいてもよい。深度センサから出力される深度データは、環境の認識のために利用され得る。
センサ部104は、測位センサ、加速度センサ及びジャイロセンサなどの様々なセンサを含み得る。センサ部104において得られる測定結果は、環境の認識の支援、地理的な位置に特化したデータの取得、又はユーザ入力の検出などの様々な用途のために利用されてよい。なお、センサ部104は、画像処理装置100の構成から省略されてもよい。
入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明するデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などのディスプレイを含む表示モジュールである。表示部110は、例えば、画像処理装置100により生成される出力画像を表示するために使用される。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
通信部112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
図10は、図9に示した画像処理装置100の記憶部108及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図10を参照すると、画像処理装置100は、画像取得部120、認識部130、計算部140、物体DB150、コンテンツDB160、操作制御部170及び表示制御部180を備える。
画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する。画像取得部120により取得される入力画像は、実空間を映す映像を構成する個々のフレームであってよい。画像取得部120は、取得した入力画像を、認識部130及び表示制御部180へ出力する。
認識部130は、画像取得部120から入力される入力画像を用いて、基準環境の位置及び姿勢を表現する上述した環境認識行列を認識する。認識部130は、環境認識行列を認識するために、SfM法又はSLAM法などの公知の画像認識技術を活用し得る。その代わりに又はそれに加えて、認識部130は、撮像部102に設けられ得る深度センサからの深度データに基づいて、環境認識行列を認識してもよい。また、認識部130は、赤外線測距システム又はモーションキャプチャシステムなどの環境認識システムからの出力データに基づいて、環境認識行列を認識してもよい。
計算部140は、認識部130から入力される環境認識行列の逆行列Mrecog −1を計算する。例えば、環境認識行列Mrecogは、4行4列の同次変換行列である。従って、環境認識行列の逆行列Mrecog −1もまた4行4列の同次変換行列であり、Mrecog・Mrecog −1=M0(単位行列)を満たす。環境認識行列の逆行列Mrecog −1は、基準座標系の位置及び姿勢から端末の位置及び姿勢への座標変換を表現する。計算部140は、計算した環境認識行列の逆行列Mrecog −1を操作制御部170へ出力する。
物体DB150は、上述したように、ARアプリケーションの目的に応じて認識されるべき物体の既知の特徴量データと識別子とを予め記憶する。
コンテンツDB160は、ユーザにより操作可能な仮想オブジェクトの識別子、属性データ及び関連付けられる物体の識別子を予め記憶する。仮想オブジェクトの属性データは、仮想オブジェクトの表示属性(例えば、位置及び姿勢の初期値、形状並びに色など)と、仮想オブジェクトの操作属性(例えば、並行移動及び回転がそれぞれ可能か、など)とを含み得る。
操作制御部170は、上述した様々なパラメータを用いて、入力画像に映る環境内に配置される仮想オブジェクトの操作を制御する。
表示制御部180は、操作制御部170による配置に従って、仮想オブジェクトを入力画像に重畳することにより、出力画像を生成する。そして、表示制御部180は、生成した出力画像を表示部110の画面に表示させる。仮想オブジェクトの表示のトリガは、例えば、何らかのユーザ入力の検出、他の装置からの仮想オブジェクトのデータの受信、又は入力画像内の何らかのパターンの認識などであってよい。
次に、図11及び図12を用いて、仮想オブジェクトの操作に関する2つの操作シナリオを説明する。第1の操作シナリオでは、仮想オブジェクトが、画像内で認識される物体から引き出されるように新たに配置される。第2の操作シナリオでは、配置済みの仮想オブジェクトがユーザによる操作を通じて移動される。
図11は、第1の操作シナリオに沿って、新たな仮想オブジェクトが基準環境内に配置される様子を示している。
図12は、第2の操作シナリオに沿って、配置済みの仮想オブジェクトがユーザにより操作される様子を示している。
図13は、画像処理装置100による画像処理の流れの一例を示すフローチャートである。
本開示に係る技術において、仮想オブジェクトは、様々な形態で表示され得る。本項では、仮想オブジェクトの様々な表示のバリエーションについて説明する。
ここまでの説明では、仮想オブジェクトの操作に用いられる端末と操作される仮想オブジェクトを表示する端末とが同一であった。しかしながら、本開示に係る技術は、かかる例に限定されない。例えば、ある端末を用いて操作される仮想オブジェクトが、他の端末の画面に表示されてもよい。本項では、そのような仮想オブジェクトの共有について説明する。
ここまで、図1〜図19Bを用いて、本開示に係る技術の一実施形態について詳細に説明した。上述した実施形態によれば、基準環境内の端末の位置及び姿勢を基準として環境の位置及び姿勢を表現する環境認識行列が認識され、認識された環境認識行列の逆行列に基づいて端末の位置及び姿勢が表現される。そして、2つの時点の端末の位置及び姿勢の一方又は双方の差分に応じた3次元的な操作量で、基準環境内に配置される仮想オブジェクトが操作される。従って、ユーザは、端末を3次元空間内で動かすことにより、AR空間内で仮想オブジェクトを3次元的に自在に操作することができる。例えば、携帯端末が使用される場合には、ユーザは、当該携帯端末を持って動かすことにより、仮想オブジェクトを3次元的に移動させ、及び仮想オブジェクトを3次元的に回転させることができる。
(1)
画像を撮像した端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する環境認識行列を認識する認識部と、
前記環境認識行列の逆行列を計算する計算部と、
第1の時点で認識される前記環境認識行列の前記逆行列に基づく第1の位置又は第1の姿勢と、後続する第2の時点で認識される前記環境認識行列の前記逆行列に基づく第2の位置又は第2の姿勢との間の差分に応じた3次元的な操作量で、前記環境内に配置される仮想オブジェクトの操作を制御する操作制御部と、
を備える画像処理装置。
(2)
前記操作量は、前記第1の位置と前記第2の位置との間の差分に応じた並行移動量である、前記(1)に記載の画像処理装置。
(3)
前記操作量は、前記第1の姿勢と前記第2の姿勢との間の差分に応じた回転量である、前記(1)に記載の画像処理装置。
(4)
前記第1の時点は、前記端末において第1のユーザ入力が検出された時点であり、
前記第2の時点は、前記端末において第2のユーザ入力が検出された時点である、
前記(1)〜(3)のいずれか1項に記載の画像処理装置。
(5)
前記第1のユーザ入力及び前記第2のユーザ入力は、一連の操作の開始及び終了にそれぞれ対応する、前記(4)に記載の画像処理装置。
(6)
前記第1の位置又は前記第2の位置は、前記端末の画面上でのユーザ入力位置に応じて当該画面に沿った方向にオフセットされる位置である、前記(4)又は前記(5)に記載の画像処理装置。
(7)
前記操作制御部は、前記第1のユーザ入力に基づいて、操作すべき前記仮想オブジェクトを特定する、前記(4)〜(6)のいずれか1項に記載の画像処理装置。
(8)
前記操作制御部は、前記第1のユーザ入力によって指定される前記環境内の物体と関連付けられる仮想オブジェクトを、操作すべき前記仮想オブジェクトとして特定する、前記(7)に記載の画像処理装置。
(9)
前記認識部、前記計算部及び前記操作制御部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、前記(1)〜(8)のいずれか1項に記載の画像処理装置。
(10)
画像を撮像した端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する環境認識行列を認識することと、
前記環境認識行列の逆行列を計算することと、
第1の時点で認識される前記環境認識行列の前記逆行列に基づく第1の位置又は第1の姿勢と、後続する第2の時点で認識される前記環境認識行列の前記逆行列に基づく第2の位置又は第2の姿勢との間の差分に応じた3次元的な操作量で、前記環境内に配置される仮想オブジェクトの操作を制御することと、
を含む画像処理方法。
(11)
コンピュータを、
画像を撮像した端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する環境認識行列を認識する認識部と、
前記環境認識行列の逆行列を計算する計算部と、
第1の時点で認識される前記環境認識行列の前記逆行列に基づく第1の位置又は第1の姿勢と、後続する第2の時点で認識される前記環境認識行列の前記逆行列に基づく第2の位置又は第2の姿勢との間の差分に応じた3次元的な操作量で、前記環境内に配置される仮想オブジェクトの操作を制御する操作制御部と、
として機能させるためのプログラム。
120 画像取得部
130 認識部
140 計算部
170 操作制御部
180 表示制御部
Claims (11)
- 画像を撮像した端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する環境認識行列を認識する認識部と、
前記環境認識行列の逆行列を計算する計算部と、
第1の時点で認識される前記環境認識行列の前記逆行列に基づく第1の位置又は第1の姿勢と、後続する第2の時点で認識される前記環境認識行列の前記逆行列に基づく第2の位置又は第2の姿勢との間の差分に応じた3次元的な操作量で、前記環境内に配置される仮想オブジェクトの操作を制御する操作制御部と、
を備える画像処理装置。 - 前記操作量は、前記第1の位置と前記第2の位置との間の差分に応じた並行移動量である、請求項1に記載の画像処理装置。
- 前記操作量は、前記第1の姿勢と前記第2の姿勢との間の差分に応じた回転量である、請求項1に記載の画像処理装置。
- 前記第1の時点は、前記端末において第1のユーザ入力が検出された時点であり、
前記第2の時点は、前記端末において第2のユーザ入力が検出された時点である、
請求項1に記載の画像処理装置。 - 前記第1のユーザ入力及び前記第2のユーザ入力は、一連の操作の開始及び終了にそれぞれ対応する、請求項4に記載の画像処理装置。
- 前記第1の位置又は前記第2の位置は、前記端末の画面上でのユーザ入力位置に応じて当該画面に沿った方向にオフセットされる位置である、請求項4に記載の画像処理装置。
- 前記操作制御部は、前記第1のユーザ入力に基づいて、操作すべき前記仮想オブジェクトを特定する、請求項4に記載の画像処理装置。
- 前記操作制御部は、前記第1のユーザ入力によって指定される前記環境内の物体と関連付けられる仮想オブジェクトを、操作すべき前記仮想オブジェクトとして特定する、請求項7に記載の画像処理装置。
- 前記認識部、前記計算部及び前記操作制御部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、請求項1に記載の画像処理装置。
- 画像を撮像した端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する環境認識行列を認識することと、
前記環境認識行列の逆行列を計算することと、
第1の時点で認識される前記環境認識行列の前記逆行列に基づく第1の位置又は第1の姿勢と、後続する第2の時点で認識される前記環境認識行列の前記逆行列に基づく第2の位置又は第2の姿勢との間の差分に応じた3次元的な操作量で、前記環境内に配置される仮想オブジェクトの操作を制御することと、
を含む画像処理方法。 - コンピュータを、
画像を撮像した端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する環境認識行列を認識する認識部と、
前記環境認識行列の逆行列を計算する計算部と、
第1の時点で認識される前記環境認識行列の前記逆行列に基づく第1の位置又は第1の姿勢と、後続する第2の時点で認識される前記環境認識行列の前記逆行列に基づく第2の位置又は第2の姿勢との間の差分に応じた3次元的な操作量で、前記環境内に配置される仮想オブジェクトの操作を制御する操作制御部と、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013557372A JP5807686B2 (ja) | 2012-02-10 | 2012-11-29 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012026870 | 2012-02-10 | ||
JP2012026870 | 2012-02-10 | ||
JP2013557372A JP5807686B2 (ja) | 2012-02-10 | 2012-11-29 | 画像処理装置、画像処理方法及びプログラム |
PCT/JP2012/080863 WO2013118373A1 (ja) | 2012-02-10 | 2012-11-29 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013118373A1 true JPWO2013118373A1 (ja) | 2015-05-11 |
JP5807686B2 JP5807686B2 (ja) | 2015-11-10 |
Family
ID=48947160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013557372A Active JP5807686B2 (ja) | 2012-02-10 | 2012-11-29 | 画像処理装置、画像処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9268410B2 (ja) |
EP (1) | EP2814000B1 (ja) |
JP (1) | JP5807686B2 (ja) |
CN (1) | CN104081307B (ja) |
WO (1) | WO2013118373A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6263917B2 (ja) * | 2013-09-17 | 2018-01-24 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
US10386637B2 (en) * | 2014-01-15 | 2019-08-20 | Maxell, Ltd. | Information display terminal, information display system, and information display method |
US9690370B2 (en) | 2014-05-05 | 2017-06-27 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
JP6575221B2 (ja) * | 2015-08-19 | 2019-09-18 | 富士通株式会社 | 表示制御方法、情報処理装置及び表示制御プログラム |
US10101803B2 (en) | 2015-08-26 | 2018-10-16 | Google Llc | Dynamic switching and merging of head, gesture and touch input in virtual reality |
CN105913495A (zh) * | 2016-03-31 | 2016-08-31 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN106200916B (zh) * | 2016-06-28 | 2019-07-02 | Oppo广东移动通信有限公司 | 增强现实图像的控制方法、装置及终端设备 |
EP3327544B1 (en) * | 2016-11-25 | 2021-06-23 | Nokia Technologies Oy | Apparatus, associated method and associated computer readable medium |
DK180470B1 (en) * | 2017-08-31 | 2021-05-06 | Apple Inc | Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments |
EP3599539B1 (en) * | 2018-07-26 | 2023-08-23 | Nokia Technologies Oy | Rendering objects in virtual views |
US10909772B2 (en) | 2018-07-31 | 2021-02-02 | Splunk Inc. | Precise scaling of virtual objects in an extended reality environment |
US10692299B2 (en) * | 2018-07-31 | 2020-06-23 | Splunk Inc. | Precise manipulation of virtual object position in an extended reality environment |
KR20230022269A (ko) * | 2019-10-15 | 2023-02-14 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | 증강 현실 데이터 제시 방법, 장치, 전자 기기 및 저장 매체 |
WO2021221676A1 (en) * | 2020-04-30 | 2021-11-04 | Hewlett-Packard Development Company, L.P. | Frames of reference |
CN113674430A (zh) * | 2021-08-24 | 2021-11-19 | 上海电气集团股份有限公司 | 虚拟模型定位配准方法、装置、增强现实设备和存储介质 |
WO2023141535A1 (en) * | 2022-01-19 | 2023-07-27 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004062758A (ja) * | 2002-07-31 | 2004-02-26 | Canon Inc | 情報処理装置および方法 |
JP2009093376A (ja) * | 2007-10-05 | 2009-04-30 | Sony Corp | 信号処理システム及び信号処置方法、並びにプログラム |
JP2010238098A (ja) * | 2009-03-31 | 2010-10-21 | Ntt Docomo Inc | 端末装置、情報提示システム及び端末画面表示方法 |
JP4696184B1 (ja) * | 2010-06-02 | 2011-06-08 | 任天堂株式会社 | 画像表示システム、画像表示装置および画像表示方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3558104B2 (ja) * | 1996-08-05 | 2004-08-25 | ソニー株式会社 | 3次元仮想物体表示装置および方法 |
US7991220B2 (en) * | 2004-09-01 | 2011-08-02 | Sony Computer Entertainment Inc. | Augmented reality game system using identification information to display a virtual object in association with a position of a real object |
US20100257252A1 (en) | 2009-04-01 | 2010-10-07 | Microsoft Corporation | Augmented Reality Cloud Computing |
US8633947B2 (en) | 2010-06-02 | 2014-01-21 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method |
EP2395768B1 (en) | 2010-06-11 | 2015-02-25 | Nintendo Co., Ltd. | Image display program, image display system, and image display method |
US20120200667A1 (en) * | 2011-02-08 | 2012-08-09 | Gay Michael F | Systems and methods to facilitate interactions with virtual content |
-
2012
- 2012-11-29 JP JP2013557372A patent/JP5807686B2/ja active Active
- 2012-11-29 EP EP12868009.7A patent/EP2814000B1/en active Active
- 2012-11-29 WO PCT/JP2012/080863 patent/WO2013118373A1/ja active Application Filing
- 2012-11-29 CN CN201280068780.2A patent/CN104081307B/zh active Active
- 2012-11-29 US US14/358,459 patent/US9268410B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004062758A (ja) * | 2002-07-31 | 2004-02-26 | Canon Inc | 情報処理装置および方法 |
JP2009093376A (ja) * | 2007-10-05 | 2009-04-30 | Sony Corp | 信号処理システム及び信号処置方法、並びにプログラム |
JP2010238098A (ja) * | 2009-03-31 | 2010-10-21 | Ntt Docomo Inc | 端末装置、情報提示システム及び端末画面表示方法 |
JP4696184B1 (ja) * | 2010-06-02 | 2011-06-08 | 任天堂株式会社 | 画像表示システム、画像表示装置および画像表示方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2013118373A1 (ja) | 2013-08-15 |
EP2814000A4 (en) | 2015-10-28 |
JP5807686B2 (ja) | 2015-11-10 |
CN104081307B (zh) | 2018-02-23 |
US9268410B2 (en) | 2016-02-23 |
US20140320404A1 (en) | 2014-10-30 |
EP2814000A1 (en) | 2014-12-17 |
EP2814000B1 (en) | 2019-07-03 |
CN104081307A (zh) | 2014-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5807686B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5942456B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
Kim et al. | Touch and hand gesture-based interactions for directly manipulating 3D virtual objects in mobile augmented reality | |
JP6469706B2 (ja) | 深度センサを用いた構造のモデル化 | |
US11443453B2 (en) | Method and device for detecting planes and/or quadtrees for use as a virtual substrate | |
JP6458371B2 (ja) | 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム | |
JP2013165366A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2015516624A (ja) | 有効インターフェース要素の強調のための方式 | |
JP2013164697A (ja) | 画像処理装置、画像処理方法、プログラム及び画像処理システム | |
US10416783B2 (en) | Causing specific location of an object provided to a device | |
KR101470757B1 (ko) | 증강현실 서비스 제공 방법 및 장치 | |
CN104820584B (zh) | 一种面向层次化信息自然操控的3d手势界面的构建方法及*** | |
WO2021121061A1 (zh) | 用于设置虚拟对象的空间位置的方法和电子设备 | |
JP6304305B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10496237B2 (en) | Computer-implemented method for designing a three-dimensional modeled object | |
JP2016015078A (ja) | 表示制御装置、表示制御方法、及び、プログラム | |
CN117453037A (zh) | 交互方法、头显设备、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150811 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150824 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5807686 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |