JP6242334B2 - 平面特性基盤マーカーレス拡張現実システムおよびその動作方法 - Google Patents

平面特性基盤マーカーレス拡張現実システムおよびその動作方法 Download PDF

Info

Publication number
JP6242334B2
JP6242334B2 JP2014522736A JP2014522736A JP6242334B2 JP 6242334 B2 JP6242334 B2 JP 6242334B2 JP 2014522736 A JP2014522736 A JP 2014522736A JP 2014522736 A JP2014522736 A JP 2014522736A JP 6242334 B2 JP6242334 B2 JP 6242334B2
Authority
JP
Japan
Prior art keywords
camera
plane information
information
plane
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014522736A
Other languages
English (en)
Other versions
JP2014526099A (ja
Inventor
ミン リ,ソン
ミン リ,ソン
ギュン キム,ド
ギュン キム,ド
ボム リ,ヨン
ボム リ,ヨン
ヒョン リ,テ
ヒョン リ,テ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014526099A publication Critical patent/JP2014526099A/ja
Application granted granted Critical
Publication of JP6242334B2 publication Critical patent/JP6242334B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Description

本発明は、映像に含まれる3次元情報を利用してカメラの姿勢を推定する技術に関する。
拡張現実は、カメラで撮影した実際映像にグラフィックスオブジェクトや付加情報をオーバラップして示す技術である。正確な拡張現実を実現するためには、カメラの姿勢(pose)、すなわち、位置と方向を正確に把握することが重要である。カメラの位置や方向を把握するためには、事前に準備されたマーカー(marker)を利用したり、事前に定義された参照オブジェクト(ex.2D(dimension)平面オブジェクトや3Dモデル)を実際の空間に配置し、基準カメラ位置に対比して現在のカメラの相対的な位置を導き出す方式を使用する。
図1は、従来技術に係るマーカーの一例を示す図である。図1を参照すれば、110は事前に準備されたマーカーであって、QR(Quick Response)コードのような人為的な(artificial)形態であってもよい。120は、実際の映像に自然に存在する2次元または3次元の参照オブジェクトをマーカーとして使用する一例を示す。図面では、実際の映像に含まれているモニター、キーボード、机の上に置かれたフレームを参照オブジェクトとして使用してもよい。
120に示すように、2次元または3次元のオブジェクトをマーカーとして使用する場合、実際の空間に存在する自然な参照オブジェクトを使用するという意味でマーカーレス(Marker−less)に分類されたりもするが、実際には参照オブジェクトをマーカーとしてデータベースに格納するなどの事前準備が必要となるため、マーカーを利用する方式に該当する。120では、参照オブジェクトをマーカーとして使用するための点(+)特徴をデータベースに格納してもよい。
したがって、事前準備をせずに所望する場所と時間に拡張現実技術を即時に活用するためには、参照オブジェクトなしでマーカーレスカメラトラッキングおよび整合が必要となる。
従来の拡張現実技術におけるカメラトラッキングおよび整合は、マーカーの使用可否とは関係なく、カラー映像におけるインテンシティ(intensity)情報を活用した点特徴(point feature)を主に利用していた。このとき、カラー映像のインテンシティを活用するためには照明条件が一定でなければならず、特異な(distinctive)点特性を探し出すためにテクスチャが豊富でなければならないというという制約がある。
マーカーレス拡張現実技術の代表的な例であるPTAM(Parallel Tracking and Mapping)は、カラー映像から点特性を探し出し、フレーム別に点特性間の対応関係を利用して3次元空間に対するマップ(map)を生成し、このマップを基準としてカメラ姿勢を推定する方式を利用する。特に、初期にマップを生成するために5点アルゴリズム(five point algorithm)を利用するため、最小5つ以上の対応する点特徴が抽出されなければならないが、テクスチャが豊富でない場合には点特徴が抽出されず、拡張現実システムが正常動作しない場合が発生することがある。
本発明の目的は、カメラから生成された映像の3次元情報を利用して前記映像に含まれた複数の平面情報を抽出し、抽出された複数の平面情報間の対応関係を利用してカメラの姿勢を推定するマーカーレス拡張現実システムおよびその動作方法を提供する。
一実施形態に係るマーカーレス拡張現実システムは、カメラから生成された映像の3次元情報を利用して前記映像に含まれた複数の平面情報を抽出する平面抽出部、前記抽出された複数の平面情報間の対応関係を推定する対応関係推定部、および前記推定された対応関係を利用して前記カメラの姿勢(pose)を推定するカメラ姿勢推定部を含む。
前記平面抽出部は、前記3次元情報から第1点を選択し、前記第1点から閾値以内に位置する第2点および第3点を選択し、選択された前記第1点、前記第2点、および前記第3点を利用して平面モデルを生成してもよい。
前記平面抽出部は、前記平面モデルを利用して前記映像内に含まれた複数の平面情報を抽出してもよい。
前記対応関係推定部は、各平面情報を構成する法線ベクトル、または前記カメラから前記各平面情報間の距離を利用して前記複数の平面情報間の対応関係を推定してもよい。
前記平面抽出部は、前記映像を構成する複数のフレームに含まれた複数の平面情報を抽出してもよい。前記対応関係推定部は、前記複数のフレームのうちからいずれか1つのフレームを基準フレームとして選定し、選定された基準フレームに含まれた対象平面情報を利用して前記複数の平面情報間の対応関係を推定してもよい。
前記対応関係推定部は、平面情報に含まれた点の数、平面情報間の法線ベクトルの方向、または前記カメラから平面情報までの距離のうちいずれか1つを考慮して前記対象平面情報を選択してもよい。
前記対応関係推定部は、前記対象平面情報と各フレームに含まれた平面情報の間の法線ベクトルの方向、または前記カメラから平面情報までの距離を考慮して前記複数の平面情報間の対応関係を推定してもよい。
前記対応関係推定部は、前記選択された対象平面情報を平面情報データベースに格納し、前記複数の平面情報のうちで前記対象平面情報と相違した平面情報を前記平面情報データベースに格納してもよい。
前記カメラ姿勢推定部は、前記対応関係を利用して前記カメラの回転情報または移動情報を推定し、推定された前記回転情報または前記移動情報を利用して前記カメラの姿勢を推定してもよい。
前記カメラ姿勢推定部は、前記映像に含まれたフレーム別の平面情報間の法線ベクトルを利用して回転行列を生成し、前記回転行列と前記カメラから前記平面情報までの距離を利用して移動行列を生成し、前記回転行列および前記移動行列を利用して変換行列を生成してもよい。前記カメラ姿勢推定部は、前記変換行列を利用して前記カメラの姿勢を推定してもよい。
他の実施形態に係るマーカーレス拡張現実システムは、カメラから生成された映像の3次元情報を利用して前記映像に含まれた複数の平面情報を抽出する平面抽出部、および前記抽出された複数の平面情報を利用して前記映像と仮想オブジェクトを整合する拡張現実部を含む。
前記平面抽出部は、前記3次元情報から第1点を選択し、前記第1点から閾値以内に位置する第2点および第3点を選択し、前記第1点、前記第2点、および前記第3点を利用して複数の平面情報を抽出してもよい。
前記マーカーレス拡張現実システムは、前記抽出された複数の平面情報間の対応関係を利用して前記カメラの姿勢を推定するカメラ姿勢推定部をさらに含んでもよい。前記拡張現実部は、前記推定されたカメラの姿勢を利用して前記映像と仮想オブジェクトを整合してもよい。
前記マーカーレス拡張現実システムは、前記抽出された平面情報に含まれた点の数、平面情報間の法線ベクトルの方向、または前記カメラから平面情報までの距離のうちいずれか1つを考慮して対象平面情報を選択し、前記対象平面情報と各フレームに含まれた平面情報の間の法線ベクトルの方向、または前記カメラから平面情報までの距離を考慮して前記複数の平面情報間の対応関係を推定する対応関係推定部をさらに含んでもよい。
一実施形態に係るマーカーレス拡張現実方法は、映像の3次元情報を利用して前記映像に含まれた複数の平面情報を抽出するステップ、および前記抽出された複数の平面情報間の対応関係を利用して前記映像を生成したカメラの姿勢を推定するステップを含む。
他の実施形態に係るマーカーレス拡張現実の方法は、決められた対象平面の情報に基づいて、映像から抽出された複数の平面情報間の対応関係を、プロセッサによって推定するステップ、前記推定された対応関係に基づいて、前記映像を生成するカメラの姿勢を推定するステップ、前記抽出された複数の平面の情報を利用して、前記映像と前記映像の仮想オブジェクトを整合するステップを含む。
事前に参照オブジェクトをデータベースに格納するなどの準備をせずに、所望する場所と時間に拡張現実技術を即時に活用することができる。
参照オブジェクトがないマーカーレスカメラトラッキングおよび整合が可能である。
深度カメラから取得した映像の3次元情報を利用することにより、マーカーがない拡張現実システムが構築可能である。
映像から抽出された平面特性を利用してカメラモーションを推定することにより、カラーカメラを利用する従来のカメラモーション推定技術が正常に動作しない環境でも利用することができる。カメラモーション推定の適用時、環境上の制約条件を緩和することにより、カメラモーション推定技術の活用範囲を広げることができる。
3次元空間上の点を平面で生成して使用することにより、個別的な点の3次元座標値に雑音がある場合にも自動的に特異な値を除去し、高精密整合が可能である。
従来技術に係るマーカーの一例を示す図である。 本発明の一実施形態に係るマーカーレス拡張現実システムの構成を示すブロック図である。 3次元情報から点を選択する一例を示す図である。 平面方程式の係数が示す幾何学的な意味を示す図である。 映像から平面情報を抽出する一例を示す図である。 本発明の他の実施形態に係るマーカーレス拡張現実システムの構成を示すブロック図である。 平面特徴を利用してカメラの姿勢を推定する一例を示す図である。 映像と仮想オブジェクトを整合する一例を示す図である。 本発明の一実施形態に係るマーカーレス拡張現実の動作方法の順を示すフローチャートである。
以下、添付の図面および添付の図面に記載された内容を参照しながら、本発明の多様な実施形態を詳細に説明するが、本発明が実施形態によって制限されたり限定されることはない。
図2は、本発明の一実施形態に係るマーカーレス拡張現実システムの構成を示すブロック図である。図2を参照すれば、マーカーレス拡張現実システム200は、3次元情報取得部210、平面抽出部220、対応関係推定部230、およびカメラ姿勢推定部240を含んでもよい。
マーカーレス拡張現実システム200は、映像から抽出された平面特性を利用してカメラ姿勢を推定することにより、事前に参照オブジェクトをデータベースに格納するなどの準備作業が必要なく、マーカーがない拡張現実システム構築が可能である。
映像から平面特性を得るためには、先ず、映像から3次元情報を取得しなければならない。
このために、3次元情報取得部210は、深度カメラから深さ映像を取得し、取得した深さ映像から深さ情報を3次元情報として取得してもよい。また、3次元情報取得部210は、複数のカラーカメラから取得したカラー映像を利用して3次元情報を取得してもよい。カラーカメラで取得したカラー映像は2次元映像であるため、3次元情報取得部210は、ステレオカラーカメラまたはマルチカラーカメラなどのような複数のカラーカメラから取得したカラー映像を利用して3次元情報を取得してもよい。
以下、深さ映像とカラー映像をすべて「映像」と通称する。
平面抽出部220は、前記3次元情報を利用して映像に存在する平面を推定する。実施形態において、平面抽出部220は、平面を構成する点が隣接する空間内に存在するという空間一貫性(Spatial Coherency)を考慮してより迅速に平面モデルを推定してもよい。平面抽出部220は、前記3次元情報から任意に第1点(P1)を選択し、前記第1点から閾値以内に位置する第2点(P2)および第3点(P3)を選択してもよい。すなわち、平面抽出部220は、第1点から閾値以内に位置する点を抽出するために、3次元空間上の点に対してツリー(kd−tree)を構築し、第1点(P1)を基準として閾値内にある点のうちから第2点(P2)および第3点(P3)を選択してもよい。
図3は、3次元情報から点を選択する一例を示す図である。図3を参照すれば、第1〜第3点をそれぞれ任意に選択する場合、3つの点が同一平面上に存在する確率が隣接する地域から3つの点を選択するときよりも相対的に少なくなるため、平面モデルを抽出するのに長い時間がかかる。したがって、平面抽出部220は、第1点を選択した後、第1点を基準として閾値以内である隣接領域(円)に含まれた第2点、第3点を選択する方式を利用すれば、既存のRANSAC(Random Sample Consensus)方式に比べてより迅速に平面情報を抽出することができる。
平面抽出部220は、前記選択された前記第1点、前記第2点、および前記第3点を利用して平面モデルを生成してもよい。
前記第1点〜前記第3点のP1、P2、P3が(x1、y1、z1)(x2、y2、z2)(x3、y3、z3)と定められれば、次のような行列式によって平面方程式の係数(coefficient)であるA、B、Cを求めてもよい。
Figure 0006242334
ここで、(A、B、C)は平面の方向を示す法線ベクトルであり、Dは前記カメラから前記第1点〜前記第3点が含まれた平面までの距離である。
前記行列式は、数式(2)のようにさらに展開してもよい。
A=y1(z2−z3)+y2(z3−z1)+y3(z1−z2)
B=z1(x2−x3)+z2(x2−x1)+z3(x1−x2)
C=x1(y2−y3)+x2(y3−y1)+x3(y1−y2)
−D=x1(y2z3−y3z2)+x2(y3z1−y1z3)+x3(y1z2−y2z1) (2)
平面抽出部220は、前記計算されたA、B、C、Dを利用して数式(3)のような平面方程式を求めてもよい。
Ax+By+Cz+D=0 (3)
図4は、平面方程式の係数が示す幾何学的な意味を示す図である。図4を参照すれば、(A、B、C)は平面情報の方向を示す法線ベクトルであり、Dは原点から前記平面までの距離に該当する。例えば、Dは3つの点を抽出した平面を座標系に投影したときの原点から前記平面までの距離であるため、実際の空間上では前記カメラから前記平面までの距離と同じであると言える。
平面抽出部220は、前記平面モデルを利用して前記映像内に含まれた複数の平面情報を抽出してもよい。複数の平面情報は、数式(4)のように平面集合で表現されてもよい。
Figure 0006242334
はi番目のカメラから抽出された平面集合、iはカメラインデックス、jは平面番号、nは抽出された全体平面の個数である。
例えば、Sは1番目のカメラから抽出された複数の平面情報であり、Sは2番目のカメラから抽出された複数の平面情報であり、Sはi番目のカメラから抽出された複数の平面情報を意味する。
前記カメラモーションが小さい場合には、隣接フレーム間の法線ベクトル間の格差が少ないということを意味する。したがって、平面抽出部230で映像に含まれたフレーム別の各平面情報を抽出すれば、対応関係推定部230は、平面情報を構成する法線ベクトルとカメラと平面の間の距離を利用して複数の平面情報間の対応関係を推定してもよい。
各平面情報が示す平面特性は、平面方程式の係数である(ai、bi、ci、di)で示してもよい。ここで、平面情報の個数は3つにのみ制限されず、3つ以上の平面を含んでもよい。
実施形態において、平面抽出部220は、前記映像を構成する複数のフレームに含まれた複数の平面情報を抽出してもよい。対応関係推定部230は、前記複数のフレームのうちからいずれか1つのフレームを基準フレームとして選定してもよい。例えば、前記基準フレームとして1番目のフレームが選定された場合、対応関係推定部230は、抽出された現在のフレームが1番目のフレームであれば、抽出された複数の平面情報のうちから実際に追跡するための対象平面情報を選択して平面情報データベースに格納してもよい。対応関係推定部230は、実施形態のように1つの対象平面情報に制限されることなく、1つよりも多い対象平面情報を選択してもよい。対応関係推定部230は、選定された基準フレームに含まれた対象平面情報を利用して前記複数の平面情報間の対応関係を推定してもよい。
実施形態において、対応関係推定部230は、平面情報に含まれた点の数、平面情報間の法線ベクトルの方向、または前記カメラから平面情報までの距離のうちいずれか1つを考慮して前記対象平面情報を選択してもよい。例えば、対応関係推定部230は、平面情報に含まれた点の数が多い場合、平面情報間の法線ベクトル間方向差が大きい場合、または前記カメラから平面情報までの距離が遠い場合を考慮して前記対象平面情報を選択してもよい。
対応関係推定部230は、前記基準フレームが定められた後のフレームからは、平面情報データベースに格納された対象平面情報と現在抽出された平面情報の間の法線ベクトルの方向、前記カメラから平面情報までの距離を考慮して平面情報間対応関係を推定してもよい。対応関係推定部230は、前記複数の平面情報のうちで前記対象平面情報と相違した平面情報を前記平面情報データベースに格納してもよい。すなわち、対応関係推定部230は、平面情報データベースに存在しない(1番目のカメラ視野からは見えない)新たな平面情報が現在のフレームから検出された場合、新たな平面情報を平面情報データベースに格納してもよい。したがって、対応関係推定部230は、対象平面情報と複数の平面情報の間の対応関係推定により、1番目のフレームからは見えなかった領域でもカメラ追跡および仮想オブジェクト整合が可能なようにする。
図5は、映像から平面情報を抽出する一例を示す図である。図5を参照すれば、平面抽出部220は、映像510に対してカメラモーション変化に応じて多様な複数の平面情報520〜560を抽出してもよい。例えば、映像510は、深度カメラで生成した深さ映像であってもよい。実施形態に係る前記映像510は、複数の2Dカラー映像から生成された深さ映像であってもよい。カメラが移動しながら深さ映像510に含まれたオブジェクト(机、机上の箱(四角形))を撮影したとすれば、カメラの視点に応じてそれぞれ異なる映像が撮影される。したがって、カメラ姿勢推定部240は、前記抽出された複数の平面情報間の対応関係の推定によってカメラの姿勢を推定してもよい。
例えば、対応関係推定部230は、映像510に対する対象平面情報として「520」を選択してもよい。対応関係推定部230は、対象平面情報を選択して平面情報データベースに格納してもよい。例えば、520は、机を基準としてシンボル・を用いた上端部の指示、シンボル・を用いた下端部の指示、シンボル+を用いた底の指示、シンボル▼を用いた左側部の指示、シンボル○を用いた右側部の指示、シンボルxを用いた箱の指示などを対象平面情報として含んでいる。対応関係推定部230は、520に含まれた対象平面情報を複数の平面情報530〜560と比較することにより、複数の平面情報520〜560間の対応関係を推定してもよい。例えば、520と530を比較すれば、520には机の左側平面(▼)情報が含まれているが、530には机の左側平面情報が含まれていないことが分かる。また、520と560を比較すれば、520には机の右側平面(○)情報が含まれているが、560には机の右側平面情報が含まれていないことが分かる。もし、対応関係推定部230は、前記対象平面情報と同じでない新たな平面情報が検出された場合、新たな平面情報を平面情報データベースに新たに格納してもよい。
カメラ姿勢推定部240は、前記推定された対応関係を利用して前記カメラの姿勢(pose)を推定する。カメラ姿勢推定部240は、前記対応関係を利用して前記カメラの回転情報または移動情報を推定し、推定された前記回転情報または前記移動情報を利用して前記カメラの姿勢を推定してもよい。
カメラの回転情報または移動情報を推定するためには、最小3つの平面対応ペアが必要となる。同じ平面情報が以前のフレームと対比してどのように変わったのかを利用すれば、回転情報または移動情報の推定が可能となる。
回転情報を推定するために、カメラ姿勢推定部240は、下記の数式(5)を用いた前記映像に含まれたフレーム別の平面情報間の法線ベクトルを利用して回転行列(R)を生成してもよい。
Figure 0006242334
下付き文字で表示された変数(a〜c)は平面番号であり、上付き文字で表示された変数(1(a〜c)またはi(a〜c))はカメラインデックスを意味する。また、R11〜R33は回転行列を意味する。
数式(5)を線形システムに変換して下記のような数式(6)を得てもよい。
Figure 0006242334
カメラ姿勢推定部240は、数式(6)によって回転行列を生成してもよい。一般的に、回転行列は正規直交(Orthonormal)した特性を有さなければならないが、数式(6)によって求められた回転行列は、正規直交した特性を満たさないこともある。したがって、カメラ姿勢推定部240は、例えば、SVD(Singular Value Decomposition)を行うことにより、正規直交した特性を反映した最適の回転行列を下記の数式(7)のように求めてもよい。
[U V D]=SVD(R)
R=UD (7)
Rは、正規直交した特性を反映した回転行列である。
カメラ姿勢推定部240は、前記回転行列を利用して前記カメラの回転情報を推定してもよい。
移動情報を推定するために、カメラ姿勢推定部240は、下記の数式(8)を用いた前記回転行列Rと前記カメラから複数の各平面情報までの距離を利用して移動行列(T)を生成してもよい。
Figure 0006242334
Figure 0006242334
はカメラから平面情報までの距離、iはカメラインデックス、jは平面番号を意味する。Rは回転行列、Tは移動行列を意味する。
数式(8)は、数(9)のように表現されてもよい。
Figure 0006242334
カメラ姿勢推定部240は、前記移動行列を利用して前記カメラの移動情報を推定してもよい。
上述して提示した実施形態は、対応する平面情報が3つの場合であり、3つ以上の場合にも、カメラ姿勢推定部240は、線形システム(linear system)での重複決定方法(overdetermined solution)を利用して回転情報または移動情報の推定が可能である。
カメラ姿勢推定部240は、下記の数式(10)を用いた前記回転行列R(3×3)と前記移動行列T(3×1)を利用し、1番目のカメラを基準として現在のカメラモーションを反映した変換行列(RT)を求めてもよい。
Figure 0006242334
カメラ姿勢推定部240は、前記変換行列を利用して前記カメラの姿勢を推定してもよい。
カメラ姿勢推定部240は、前記推定されたカメラの姿勢に異常値(outlier)がある場合、異常値をフィルタリングしてもよい。例えば、カメラ姿勢推定部240は、拡張型カルマンフィルタ(Extended Kalman Filter)またはパーティクルフィルタ(Particle Filter)のような複数の異なる方式の1つを利用して前記推定されたカメラの姿勢から異常値を除去することにより、ジッター(Jitter)現象を緩和させてもよい。
図6は、本発明の他の実施形態に係るマーカーレス拡張現実システムの構成を示すブロック図である。図6を参照すれば、マーカーレス拡張現実システム600は、平面抽出部610、対応関係推定部620、カメラ姿勢推定部630、および拡張現実部640を含んでもよい。上記で説明した各ユニットは、少なくとも1つの処理装置(processing device)を含んでもよい。
平面抽出部610は、カメラから生成された映像の3次元情報を利用して前記映像に含まれた複数の平面情報を抽出する。例えば、平面抽出部610は、前記3次元情報から第1点を選択し、前記第1点から閾値以内に位置する第2点および第3点を選択してもよい。すなわち、第2点および第3点は、第1点から臨界距離内で選択されてもよい。平面抽出部610は、前記第1点、前記第2点、および前記第3点を利用して複数の平面情報を抽出してもよい。例えば、平面抽出部610は、前記第1点、前記第2点、および前記第3点を利用して平面モデルを生成し、生成された平面モデルを利用して複数の平面情報を抽出してもよい。
拡張現実部640は、前記抽出された複数の平面情報を利用して前記映像と仮想オブジェクトを整合する。
このために、カメラ姿勢推定部630は、前記抽出された複数の平面情報間の対応関係を利用して前記カメラの姿勢を推定してもよい。前記カメラの姿勢推定は、前記カメラの回転情報または移動情報を推定することを意味する。また、前記対応関係は、対応関係推定部630によって求められてもよい。
対応関係推定部630は、前記抽出された平面情報に含まれた点の数、平面情報間の法線ベクトルの方向、または前記カメラから平面情報までの距離のうちいずれか1つを考慮して対象平面情報を選択してもよい。対応関係推定部630は、前記対象平面情報と各フレームに含まれた平面情報の間の法線ベクトルの方向、または前記カメラから平面情報までの距離を考慮して前記複数の平面情報間の対応関係を推定してもよい。
図7は、平面特徴を利用してカメラの姿勢を推定する一例を示す図である。図7を参照すれば、対応関係推定部630は、カメラ1で抽出された平面情報
Figure 0006242334
とカメラiで抽出された平面情報
Figure 0006242334
の対応関係を推定してもよい。例えば、前記カメラモーションが小さい場合には、隣接フレーム間の法線ベクトル間の格差が少ないということを意味する。したがって、対応関係推定部630は、平面情報を構成する法線ベクトルとカメラと平面の間の距離を利用して複数の平面情報間の対応関係を推定してもよい。
対応関係推定部630は、前記映像を構成する複数のフレームのうちからいずれか1つのフレームを基準フレームとして選定してもよい。例えば、前記基準フレームを1番目のフレームとして選定した場合、対応関係推定部630は、抽出された現在フレームが1番目のフレームであれば、抽出された複数の平面情報のうちから実際に追跡するための対象平面情報を選択して平面情報データベースに格納してもよい。対応関係推定部630は、選定された基準フレームに含まれた対象平面情報を利用して前記複数の平面情報間の対応関係を推定してもよい。
拡張現実部640は、前記推定されたカメラの姿勢を利用して前記映像と仮想オブジェクトを整合してもよい。
図8は、映像と仮想オブジェクトを整合する一例を示す図である。図8を参照れば、同じオブジェクトに対してカメラが左側から右側に回転しながら深さ映像810〜830を撮影してもよい。例えば、810はカメラ(深度カメラ)を右側に回転して撮影した深さ映像であり、820は前記カメラがオブジェクト正面から撮影した深さ映像であり、830は前記カメラを左に回転して撮影した深さ映像である。また、810aはカメラ(カラーカメラ)を右側に回転して撮影したカラー映像であり、820aは前記カメラがオブジェクト正面から撮影したカラー映像であり、830aは前記カメラを左に回転して撮影した深さ映像である。
拡張現実部640は、カラー映像810a〜830aに仮想オブジェクト(カメラ)を整合した映像810b〜830bを生成してもよい。810bはカラー映像(810a)に仮想オブジェクト(カメラ)を整合した映像であり、820bはカラー映像(820a)に仮想オブジェクトを整合した映像であり、830bはカラー映像(830a)に仮想オブジェクトを整合した映像である。
例えば、深さ映像810〜830とカラー映像810a〜830aは、同じ視点を有するものと解釈されてもよい。例えば、拡張現実部640は、深さ映像810〜830とカラー映像810a〜830aが同じ視点を有する場合、カラー映像810a〜830aに仮想オブジェクト(カメラ)を整合した映像810b〜830bを生成してもよい。
深さ映像810〜830とカラー映像810a〜830aが互いに異なる視点を有する場合、拡張現実部640は、前記推定されたカメラの姿勢を利用して深さ映像810〜830とカラー映像810a〜830aが同じ視点を有するように校正(calibration)してもよい。すなわち、拡張現実部640は、深さ映像810〜830とカラー映像810a〜830aの視点を一致させた後、カラー映像810a〜830aに仮想オブジェクト(カメラ)を整合した映像810b〜830bを生成してもよい。
したがって、マーカーレス拡張現実システム600は、事前に参照オブジェクトをデータベースに格納するなどの準備をせずに少なくとも1つの平面特性を利用してカメラ姿勢を推定することにより、マーカーがない拡張現実システムを構築してもよい。
図9は、本発明の一実施形態に係るマーカーレス拡張現実の動作方法の順を示すフローチャートである。図9に示すマーカーレス拡張現実の動作方法は、図2に示したマーカーレス拡張現実システム200または図6に示したマーカーレス拡張現実システム600によって実現されてもよい。
図9を参照すれば、ステップS901で、マーカーレス拡張現実システムは、映像から3次元情報を取得してもよい。例えば、前記マーカーレス拡張現実システムは、深度カメラから取得した深さ映像から深さ情報を3次元情報として取得してもよい。また、実施形態に係る、前記マーカーレス拡張現実システムは、複数のカラーカメラから取得したカラー映像を利用して3次元情報を取得してもよい。
以下、深さ映像とカラー映像をすべて「映像」と通称する。
ステップS902で、前記マーカーレス拡張現実システムは、前記3次元情報を利用して前記映像に含まれた複数の平面情報を抽出してもよい。例えば、前記マーカーレス拡張現実システムは、前記3次元情報から第1点を選択し、前記第1点から閾値以内に位置する第2点および第3点を選択してもよい。前記マーカーレス拡張現実システムは、前記第1点、前記第2点、および前記第3点を利用して複数の平面情報を抽出してもよい。
ステップS903で、前記マーカーレス拡張現実システムは、前記映像を構成する複数のフレームのうちから基準フレームを選定してもよい。例えば、前記マーカーレス拡張現実システムは、複数のフレームのうちで1番目のフレームを基準フレームとして選定してもよい。
ステップS904で、前記マーカーレス拡張現実システムは、前記選定された基準フレームに含まれた対象平面情報を選択してもよい。実施形態において、前記マーカーレス拡張現実システムは、前記抽出された平面情報に含まれた点の数、平面情報間の法線ベクトルの方向、または前記カメラから平面情報までの距離のうちいずれか1つを考慮して対象平面情報を選択してもよい。
ステップS905で、前記マーカーレス拡張現実システムは、前記対象平面情報を利用して前記複数の平面情報間の対応関係を推定してもよい。実施形態において、前記マーカーレス拡張現実システムは、前記対象平面情報と各フレームに含まれた平面情報の間の法線ベクトルの方向、または前記カメラから平面情報までの距離を考慮して前記複数の平面情報間の対応関係を推定してもよい。
ステップS906で、前記マーカーレス拡張現実システムは、前記対応関係を利用して前記カメラの姿勢を推定してもよい。実施形態において、前記マーカーレス拡張現実システムは、前記映像に含まれたフレーム別の平面情報間の法線ベクトルを利用して回転行列を生成し、前記生成された回転行列を利用して回転情報を推定することにより、前記推定された回転情報を利用して前記カメラの姿勢を推定してもよい。また、前記マーカーレス拡張現実システムは、前記回転行列と前記カメラから前記平面情報までの距離を利用して移動行列を生成し、前記生成された移動行列を利用して移動情報を推定することにより、前記推定された移動情報を利用して前記カメラの姿勢を推定してもよい。
ステップS907で、前記マーカーレス拡張現実システムは、前記推定されたカメラの姿勢から異常値をフィルタリングしてもよい。例えば、前記マーカーレス拡張現実システムは、拡張型カルマンフィルタまたはパーティクルフィルタを利用して前記推定されたカメラの姿勢から異常値を除去することにより、ジッター現象を緩和させてもよい。
ステップS908で、前記マーカーレス拡張現実システムは、前記異常値が除去されたカメラの姿勢をアップデートしてもよい。
ステップS909で、前記マーカーレス拡張現実システムは、前記アップデートされた姿勢を利用して映像と仮想オブジェクトを整合してもよい。
本発明の実施形態に係る方法は、多様なコンピュータ手段によって実行が可能なプログラム命令形態で実現されてコンピュータで読み取り可能な媒体に記録されてもよい。前記コンピュータで読み取り可能媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含んでもよい。前記媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものであってもよく、コンピュータソフトウェア当業者に公示されて使用可能なものであってもよい。
上述したように、本発明は限定された実施形態と図面によって説明されたが、本発明上述した実施形態に限定されるものではなく、本発明が属する分野において通常の知識を有する者であれば、このような記載から多様な修正および変形が可能である。
したがって、本発明の範囲は、説明された実施形態に限定されて決定されてはならず、添付する特許請求の範囲だけでなく、この特許請求の範囲と均等なものなどによって定められなければならない。
200:マーカーレス拡張現実システム
210:3次元情報取得部
220:平面抽出部
230:対応関係推定部
240:カメラ姿勢推定部

Claims (21)

  1. カメラから生成された映像の3次元情報を利用して、前記映像を構成する複数のフレームに含まれた複数の平面情報を抽出する平面抽出部、
    前記複数のフレームのうちからいずれか1つのフレームを基準フレームとして選定し、選定された基準フレームに含まれた対象平面情報を利用して前記抽出された複数の平面情報間の対応関係を推定する対応関係推定部、および
    前記推定された対応関係を利用して前記カメラの姿勢(pose)を推定するカメラ姿勢推定部、
    を含み、
    前記対応関係推定部は、
    前記の基準フレームが定められた後、
    前記対象平面情報と各フレームに含まれた平面情報間の法線ベクトルの方向を考慮して前記複数の平面情報間の対応関係を推定して、隣接フレーム間の前記法線ベクトルの間の格差が少なくなることによって、前記対応関係として、カメラのモーションが小さくなると推定する、
    マーカーレス拡張現実システム。
  2. 前記平面抽出部は、
    前記3次元情報から第1点を選択し、前記第1点から閾値以内に位置する第2点および第3点を選択し、選択された前記第1点、前記第2点、および前記第3点を利用して平面モデルを生成する、請求項1に記載のマーカーレス拡張現実システム。
  3. 前記平面抽出部は、
    前記平面モデルを利用して前記映像内に含まれた複数の平面情報を抽出する、請求項2に記載のマーカーレス拡張現実システム。
  4. 前記対応関係推定部は、
    記カメラから前記各平面情報間の距離を利用して前記複数の平面情報間の対応関係を推定する、請求項1に記載のマーカーレス拡張現実システム。
  5. 前記対応関係推定部は、
    平面情報に含まれた点の数、平面情報間の法線ベクトルの方向、または前記カメラから平面情報までの距離のうちいずれか1つを考慮して前記対象平面情報を選択する、請求項1に記載のマーカーレス拡張現実システム。
  6. 前記対応関係推定部は、
    前記カメラから平面情報までの距離をさらに考慮して前記複数の平面情報間の対応関係を推定する、請求項1に記載のマーカーレス拡張現実システム。
  7. 前記対応関係推定部は、
    前記選択された対象平面情報を平面情報データベースに格納し、前記複数の平面情報のうちで前記対象平面情報と相違した平面情報を前記平面情報データベースに格納する、請求項5に記載のマーカーレス拡張現実システム。
  8. 前記カメラ姿勢推定部は、
    前記対応関係を利用して前記カメラの回転情報または移動情報を推定し、推定された前記回転情報または前記移動情報を利用して前記カメラの姿勢を推定する、請求項1に記載のマーカーレス拡張現実システム。
  9. 前記カメラ姿勢推定部は、
    前記映像に含まれたフレーム別の平面情報間の法線ベクトルを利用して回転行列を生成し、前記回転行列と前記カメラから前記平面情報までの距離を利用して移動行列を生成し、前記回転行列および前記移動行列を利用して変換行列を生成する、請求項1に記載のマーカーレス拡張現実システム。
  10. 前記カメラ姿勢推定部は、
    前記変換行列を利用して前記カメラの姿勢を推定する、請求項9に記載のマーカーレス拡張現実システム。
  11. 前記抽出された複数の平面情報を利用して前記映像と仮想オブジェクトを整合する拡張現実部、
    をさらに含む、請求項1に記載のマーカーレス拡張現実システム。
  12. 前記拡張現実部は、
    前記推定されたカメラの姿勢を利用して前記映像と仮想オブジェクトを整合する、請求項11に記載のマーカーレス拡張現実システム。
  13. カメラから生成された映像の3次元情報を利用して、前記映像を構成する複数のフレームに含まれた複数の平面情報を抽出するステップ、
    前記複数のフレームのうちからいずれか1つのフレームを基準フレームとして選定するステップ、
    前記選定された基準フレームに含まれた対象平面情報を利用して前記抽出された複数の平面情報間の対応関係を推定するステップ、および
    前記推定された対応関係を利用して前記カメラの姿勢を推定するステップ、
    を含み、
    前記複数の平面情報間の対応関係を推定するステップは、
    前記の基準フレームが定められた後、
    前記対象平面情報と各フレームに含まれた平面情報間の法線ベクトルの方向を考慮して前記複数の平面情報間の対応関係を推定するステップ、および、
    隣接フレーム間の前記法線ベクトルの間の格差が少なくなることによって、前記対応関係として、カメラのモーションが小さくなると推定するステップ、
    を含む、マーカーレス拡張現実の動作方法。
  14. 前記推定されたカメラの姿勢を利用して前記映像と仮想オブジェクトを整合するステップ、
    をさらに含む、請求項13に記載のマーカーレス拡張現実の動作方法。
  15. 前記複数の平面情報を抽出するステップは、
    前記3次元情報から第1点を選択するステップ、
    前記第1点から閾値以内に位置する第2点および第3点を選択するステップ、および
    前記第1点、前記第2点、および前記第3点を利用して複数の平面情報を抽出するステップ、
    を含む、請求項13に記載のマーカーレス拡張現実の動作方法。
  16. 記カメラから前記各平面情報間の距離を利用して前記複数の平面情報間の対応関係を推定するステップ、
    をさらに含む、請求項13に記載のマーカーレス拡張現実の動作方法。
  17. 前記複数の平面情報間の対応関係を推定するステップは、
    前記カメラから平面情報までの距離をさらに考慮して前記複数の平面情報間の対応関係を推定するステップ、
    をさらに含む、請求項13に記載のマーカーレス拡張現実の動作方法。
  18. 前記複数の平面情報間の対応関係を推定するステップは、
    平面情報に含まれた点の数、平面情報間の法線ベクトルの方向、または前記カメラから平面情報までの距離のうちいずれか1つを考慮して対象平面情報を選択するステップ、および
    前記対象平面情報と各フレームに含まれた平面情報の間の法線ベクトルの方向、または前記カメラから平面情報までの距離を考慮して前記複数の平面情報間の対応関係を推定するステップ、
    を含む、請求項13に記載のマーカーレス拡張現実の動作方法。
  19. 前記カメラの姿勢を推定するステップは、
    前記映像に含まれたフレーム別平面情報間の法線ベクトルを利用して回転行列を生成するステップ、
    前記生成された回転行列を利用して回転情報を推定するステップ、および
    前記推定された回転情報を利用して前記カメラの姿勢を推定するステップ、
    を含む、請求項13に記載のマーカーレス拡張現実の動作方法。
  20. 前記カメラの姿勢を推定するステップは、
    前記回転行列と前記カメラから前記平面情報までの距離を利用して移動行列を生成するステップ、
    前記生成された移動行列を利用して移動情報を推定するステップ、および
    前記推定された移動情報を利用して前記カメラの姿勢を推定するステップ、
    を含む、請求項19に記載のマーカーレス拡張現実の動作方法。
  21. 前記抽出された複数の平面の情報を利用して、前記映像と前記映像の仮想オブジェクトを整合するステップ、
    をさらに含む、請求項13に記載のマーカーレス拡張現実の動作方法。
JP2014522736A 2011-07-28 2012-07-16 平面特性基盤マーカーレス拡張現実システムおよびその動作方法 Active JP6242334B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161512480P 2011-07-28 2011-07-28
US61/512,480 2011-07-28
KR1020120075387A KR101971948B1 (ko) 2011-07-28 2012-07-11 평면 특성 기반 마커리스 증강 현실 시스템 및 그 동작 방법
KR10-2012-0075387 2012-07-11
PCT/KR2012/005645 WO2013015549A2 (ko) 2011-07-28 2012-07-16 평면 특성 기반 마커리스 증강 현실 시스템 및 그 동작 방법

Publications (2)

Publication Number Publication Date
JP2014526099A JP2014526099A (ja) 2014-10-02
JP6242334B2 true JP6242334B2 (ja) 2017-12-06

Family

ID=47894605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014522736A Active JP6242334B2 (ja) 2011-07-28 2012-07-16 平面特性基盤マーカーレス拡張現実システムおよびその動作方法

Country Status (6)

Country Link
US (1) US9405359B2 (ja)
EP (1) EP2739036B1 (ja)
JP (1) JP6242334B2 (ja)
KR (1) KR101971948B1 (ja)
CN (1) CN103181157B (ja)
WO (1) WO2013015549A2 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9418480B2 (en) * 2012-10-02 2016-08-16 Augmented Reailty Lab LLC Systems and methods for 3D pose estimation
RU2645846C2 (ru) * 2012-10-05 2018-03-01 Абб Текнолоджи Аг Устройство, содержащее диэлектрический изоляционный газ, включающий фторорганическое соединение
JP6318542B2 (ja) * 2013-10-24 2018-05-09 富士通株式会社 表示制御方法、表示制御プログラムおよび情報処理装置
CN104360729B (zh) * 2014-08-05 2017-10-10 北京农业智能装备技术研究中心 基于Kinect和Unity3D的多交互方法与装置
JP6476657B2 (ja) * 2014-08-27 2019-03-06 株式会社リコー 画像処理装置、画像処理方法、およびプログラム
JP2016058043A (ja) * 2014-09-12 2016-04-21 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
KR102309451B1 (ko) * 2015-02-13 2021-10-07 주식회사 엘지유플러스 웨어러블 디바이스 및 웨어러블 디바이스 디스플레이 제어 방법
KR101692335B1 (ko) * 2015-02-25 2017-01-03 이은미 증강현실 영상표시 시스템 및 증강현실 영상표시 방법
JP6503906B2 (ja) * 2015-06-10 2019-04-24 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
KR20170024715A (ko) * 2015-08-26 2017-03-08 삼성전자주식회사 객체 검출장치 및 그 객체 검출방법
CN105224084B (zh) * 2015-09-30 2018-04-24 深圳多新哆技术有限责任公司 确定虚拟物件在虚拟空间中位置的方法及装置
KR102434406B1 (ko) * 2016-01-05 2022-08-22 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
CN105701828B (zh) * 2016-01-14 2019-09-20 广州视睿电子科技有限公司 一种图像处理方法和装置
CN107665505B (zh) * 2016-07-29 2021-04-06 成都理想境界科技有限公司 基于平面检测实现增强现实的方法及装置
US20180211404A1 (en) * 2017-01-23 2018-07-26 Hong Kong Applied Science And Technology Research Institute Co., Ltd. 3d marker model construction and real-time tracking using monocular camera
US10089750B2 (en) * 2017-02-02 2018-10-02 Intel Corporation Method and system of automatic object dimension measurement by using image processing
CN116863107A (zh) * 2017-03-06 2023-10-10 连株式会社 增强现实提供方法、装置以及非暂时性计算机可读介质
WO2018169110A1 (ko) * 2017-03-17 2018-09-20 주식회사 언리얼파크 3차원 객체 표현을 위한 마커리스 증강현실장치 및 방법
JP2018155709A (ja) * 2017-03-21 2018-10-04 キヤノン株式会社 位置姿勢推定装置および位置姿勢推定方法、運転支援装置
US10388077B2 (en) 2017-04-25 2019-08-20 Microsoft Technology Licensing, Llc Three-dimensional environment authoring and generation
US10762713B2 (en) * 2017-09-18 2020-09-01 Shoppar Inc. Method for developing augmented reality experiences in low computer power systems and devices
KR101974073B1 (ko) * 2017-12-19 2019-04-30 (주)이공감 혼합현실을 위한 바닥면 재구성 방법
CN108596105B (zh) * 2018-04-26 2023-02-03 李辰 增强现实书画***
KR20200061279A (ko) * 2018-11-23 2020-06-02 삼성전자주식회사 전자 장치 및 그 제어 방법
EP3863277A4 (en) * 2018-11-23 2022-05-04 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND ITS CONTROL METHOD
CN114765667A (zh) * 2021-01-13 2022-07-19 安霸国际有限合伙企业 用于多视图拼接的固定图案校准

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4188632B2 (ja) * 2002-07-16 2008-11-26 独立行政法人科学技術振興機構 距離画像の統合方法及び距離画像統合装置
CN100416336C (zh) * 2003-06-12 2008-09-03 美国西门子医疗解决公司 校准真实和虚拟视图
JP2005056059A (ja) 2003-08-01 2005-03-03 Canon Inc 撮像部を備えた頭部搭載型ディスプレイを用いた入力装置および方法
JP5013961B2 (ja) * 2007-05-21 2012-08-29 キヤノン株式会社 位置姿勢計測装置及びその制御方法
JP4956375B2 (ja) * 2007-10-30 2012-06-20 キヤノン株式会社 画像処理装置、画像処理方法
JP2009196860A (ja) * 2008-02-22 2009-09-03 Taiheiyo Cement Corp 鉛成分、カリウム成分及び塩素成分を含有するダストの処理方法
KR101002785B1 (ko) 2009-02-06 2010-12-21 광주과학기술원 증강 현실 환경에서의 공간 상호 작용 방법 및 시스템
KR101010904B1 (ko) 2009-02-26 2011-01-25 인천대학교 산학협력단 마커를 사용하지 않는 증강공간 제공 장치
KR101080073B1 (ko) * 2009-02-27 2011-11-04 숭실대학교산학협력단 다수의 가상 평면 정보를 이용한 3차원 물체의 기하 정보 추출 방법
JP2011008687A (ja) 2009-06-29 2011-01-13 Sharp Corp 画像処理装置
KR101013751B1 (ko) 2009-07-09 2011-02-14 주식회사 인스프리트 가상화 처리서버 및 dcd 컨텐츠를 이용한 증강현실 제공 시스템
KR101633359B1 (ko) 2009-10-20 2016-06-27 삼성전자 주식회사 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법
JP5423406B2 (ja) * 2010-01-08 2014-02-19 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法

Also Published As

Publication number Publication date
CN103181157B (zh) 2017-09-01
EP2739036A2 (en) 2014-06-04
WO2013015549A2 (ko) 2013-01-31
JP2014526099A (ja) 2014-10-02
KR101971948B1 (ko) 2019-04-24
WO2013015549A3 (ko) 2013-03-21
US20130265392A1 (en) 2013-10-10
EP2739036A4 (en) 2015-03-18
KR20130014358A (ko) 2013-02-07
CN103181157A (zh) 2013-06-26
EP2739036B1 (en) 2018-05-23
US9405359B2 (en) 2016-08-02

Similar Documents

Publication Publication Date Title
JP6242334B2 (ja) 平面特性基盤マーカーレス拡張現実システムおよびその動作方法
US10540773B2 (en) System and method for infinite smoothing of image sequences
US10430995B2 (en) System and method for infinite synthetic image generation from multi-directional structured image array
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
JP6914926B2 (ja) Imuおよび画像データを使用した合成物体を含む多視点画像データの拡張
US8655052B2 (en) Methodology for 3D scene reconstruction from 2D image sequences
US10789765B2 (en) Three-dimensional reconstruction method
Concha et al. Using superpixels in monocular SLAM
JP5013961B2 (ja) 位置姿勢計測装置及びその制御方法
KR101560508B1 (ko) 3차원 이미지 모델 조정을 위한 방법 및 장치
KR20170007102A (ko) 3차원 지도 생성 및 표시 장치 및 방법
KR101410273B1 (ko) 증강현실 응용을 위한 환경 모델링 방법 및 장치
US20130127827A1 (en) Multiview Face Content Creation
WO2013056188A1 (en) Generating free viewpoint video using stereo imaging
CN108700946A (zh) 用于并行测距和建图的故障检测和恢复的***和方法
KR101851303B1 (ko) 3차원 공간 재구성 장치 및 방법
EP3631760A1 (en) Non-rigid alignment for volumetric performance capture
JP2006285952A (ja) 画像処理方法、画像処理装置、プログラムおよび記録媒体
JP2013092888A (ja) データ処理装置
CN117197401A (zh) 针对点云构建的测试方法、装置、电子设备及存储介质
KR101035793B1 (ko) 발 모션 추정 시스템 및 그 방법
JP2019061684A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2016024728A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160831

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160908

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171107

R150 Certificate of patent or registration of utility model

Ref document number: 6242334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250