JP6687204B2 - 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 - Google Patents
投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 Download PDFInfo
- Publication number
- JP6687204B2 JP6687204B2 JP2018500685A JP2018500685A JP6687204B2 JP 6687204 B2 JP6687204 B2 JP 6687204B2 JP 2018500685 A JP2018500685 A JP 2018500685A JP 2018500685 A JP2018500685 A JP 2018500685A JP 6687204 B2 JP6687204 B2 JP 6687204B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- acquisition
- depth
- pose
- acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 69
- 238000013507 mapping Methods 0.000 title claims description 15
- 230000000007 visual effect Effects 0.000 claims description 64
- 230000002787 reinforcement Effects 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000003014 reinforcing effect Effects 0.000 claims description 9
- 238000005266 casting Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 28
- 230000000694 effects Effects 0.000 description 9
- 238000003860 storage Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000006798 ring closing metathesis reaction Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20068—Projection on vertical or horizontal image axis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Computer Hardware Design (AREA)
- Radar, Positioning & Navigation (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Description
ステップ1420では、投影イメージ生成装置が深度取得ポーズから、深度取得ポーズで取得された複数の取得深度値に対応する複数の位置までの距離である、複数の第1深度値距離を算出する。
このような3次元地図情報は、様々なサービスを創出できるプラットフォームの役割をするので、これを活用して不動産連係サービス、施設広報サービス、ゲームコンテンツ作製サービス、遺跡−観光地実感体験サービス、地図内物品情報を連係したO2Oサービス等を実施することができる。
Claims (24)
- 実際の3次元空間に対して取得された複数の取得イメージおよび複数の取得深度値それぞれの取得位置および取得角度を含む複数のイメージ取得ポーズおよび複数の深度取得ポーズを基準座標系を基準に推定するステップ;
前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得するステップ;および
複数の前記イメージ取得ポーズのうち、前記使用者ポーズに対応する前記イメージ取得ポーズである、対応イメージ取得ポーズおよび、複数の前記深度取得ポーズのうち、前記使用者ポーズに対応する前記深度取得ポーズである、少なくとも一つの対応深度取得ポーズに基づいて、複数の前記取得深度値を複数の前記取得イメージの少なくとも一つに含まれた複数のピクセルに投影した投影イメージを生成するステップを含み、
前記投影イメージ生成に利用される複数の前記取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された前記取得イメージであって、
前記投影イメージ生成に利用される複数の前記取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であることを特徴とする、投影イメージ生成方法。 - 前記対応イメージ取得ポーズで取得された前記取得イメージは、前記対応イメージ取得ポーズを原点とする座標系である取得座標系を代表するイメージに設定された代表イメージであり、
前記対応深度取得ポーズで取得された複数の深度値は、前記基準座標系の原点を基準とする複数の深度値または前記取得座標系の原点を基準とする複数の深度値の中で前記代表イメージの画角に含まれる深度値である複数の対応深度値を含むことを特徴とする、請求項1に記載の投影イメージ生成方法。 - 前記投影イメージを生成するステップは、
前記複数の対応深度値それぞれに対応する前記代表イメージに含まれたピクセルである複数の対応ピクセルに前記複数の対応深度値を投影して生成することを特徴とする、請求項2に記載の投影イメージ生成方法。 - 前記使用者ポーズが前記対応イメージ取得ポーズと異なり、前記使用者ポーズでの前記使用者の視野角に対応する前記仮想の3次元空間上の領域の中で前記代表イメージに含まれていない遺失視野領域が存在する場合、
前記投影イメージを生成するステップは、
前記代表イメージを除く複数の前記取得イメージの中で前記遺失視野領域に該当するピクセルである複数の遺失ピクセルを含む前記取得イメージである補強イメージおよび前記代表イメージを利用して前記投影イメージを生成するステップを含むことを特徴とする、請求項2に記載の投影イメージ生成方法。 - 前記補強イメージおよび前記代表イメージを利用して前記投影イメージを生成するステップは、
前記遺失視野領域が存在するか否かを判断するステップ;
前記遺失視野領域が存在すると判断されれば、複数の前記取得イメージに含まれた複数のピクセルに対応する複数の前記取得深度値がマッチングされた情報である深度−イメージ連係情報に基づいて複数の前記取得イメージの中で前記補強イメージを選定するステップ;
前記補強イメージを前記代表イメージより低い加重値で相互組み合わせることで組み合わせイメージを生成するステップ;および
複数の前記取得深度値を前記組み合わせイメージに投影した投影イメージを生成するステップを含むことを特徴とする、請求項4に記載の投影イメージ生成方法。 - 複数の前記取得イメージの中で前記補強イメージを選定するステップは、
前記使用者ポーズを中心にレイキャスティング(raycasting)を遂行して前記使用者の視野角内に含まれる深度値である複数の使用者視野深度値を検出するステップ;
前記複数の使用者視野深度値の中で前記遺失視野領域に該当する深度値である複数の遺失視野深度値を検出するステップ;
前記深度−イメージ連係情報に基づいて、前記複数の遺失視野深度値に対応する前記複数の遺失ピクセルを検出するステップ;および
検出された前記複数の遺失ピクセルに基づいて、複数の前記取得イメージの中で前記補強イメージを選定するステップを含むことを特徴とする、請求項5に記載の投影イメージ生成方法。 - 前記深度−イメージ連係情報は、
前記深度取得ポーズから、前記深度取得ポーズで取得された複数の前記取得深度値に対応する複数の位置までの距離である、複数の第1深度値距離を算出するステップ;
前記イメージ取得ポーズおよび前記深度取得ポーズを利用して、複数の前記第1深度値距離を、前記イメージ取得ポーズから、前記深度取得ポーズで取得されたそれぞれの複数の前記取得深度値に対応する位置までの距離である、複数の第2深度値距離に変換するステップ;および
前記取得イメージ取得に利用されたイメージセンサに対応するカメラ行列および前記複数の第2深度値距離を利用して、前記取得イメージに含まれた複数のピクセルに複数の前記取得深度値をマッピングするステップを通して算出されることを特徴とする、請求項5に記載の投影イメージ生成方法。 - 前記深度取得ポーズから、前記深度取得ポーズで取得された複数の前記取得深度値に対応する複数の位置までの距離である、複数の前記第1深度値距離を算出するステップは、
複数の前記取得深度値それぞれの取得時間が所定時間間隔以内である複数の前記取得深度値だけを利用して遂行されることを特徴とする、請求項7に記載の投影イメージ生成方法。 - 前記使用者ポーズが前記対応イメージ取得ポーズと同一であり、前記対応イメージ取得ポーズで取得された前記取得イメージの画角が前記対応深度取得ポーズで取得された複数の前記取得深度値で構成される深度地図の画角より大きな場合、
前記投影イメージを生成するステップは、
前記代表イメージが取得された前記対応イメージ取得ポーズから所定距離以内に属する複数の前記対応深度取得ポーズから取得された複数の前記深度地図と前記代表イメージを利用して遂行されることを特徴とする、請求項2に記載の投影イメージ生成方法。 - 前記使用者ポーズが前記対応イメージ取得ポーズと同一であり、前記対応イメージ取得ポーズで取得された前記取得イメージの画角が前記対応深度取得ポーズで取得された複数の前記取得深度値で構成される前記深度地図の画角より大きな場合、
前記投影イメージを生成するステップは、
前記代表イメージが取得された前記対応イメージ取得ポーズから所定距離以内に属する複数の前記対応深度取得ポーズから取得された複数の前記深度地図を予めグルーピングして生成したグルーピング深度地図と前記代表イメージを利用して遂行されることを特徴とする、請求項9に記載の投影イメージ生成方法。 - 複数の前記取得深度値で構成される深度地図は、
予め設定されたパラメータを基盤とするメッシュ構造の前記取得深度値で構成されることを特徴とする、請求項2に記載の投影イメージ生成方法。 - 前記投影イメージを生成するステップは、
複数の前記取得深度値の中で前記投影イメージ生成に利用される複数の前記取得イメージそれぞれが取得された時点から所定時間以内に取得された前記取得深度値だけを利用して遂行されることを特徴とする、請求項1に記載の投影イメージ生成方法。 - 複数の前記イメージ取得ポーズそれぞれに含まれた前記取得角度は、
複数の前記イメージ取得ポーズそれぞれに含まれた前記取得イメージが全方向(omni−directional)カメラにより取得された場合には全方向角度であることを特徴とする、請求項1に記載の投影イメージ生成方法。 - 実際の3次元空間に対して取得された複数の取得イメージの取得位置および取得角度を含む複数のイメージ取得ポーズを基準座標系を基準に推定し、複数の取得深度値に対応する複数の深度取得ポーズを複数の前記イメージ取得ポーズそれぞれを原点とする取得座標系基準に推定するステップ;
前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得するステップ;および
複数の前記イメージ取得ポーズのうち、前記使用者ポーズに対応する前記イメージ取得ポーズである、対応イメージ取得ポーズおよび、複数の前記深度取得ポーズのうち、前記使用者ポーズに対応する前記深度取得ポーズである、少なくとも一つの対応深度取得ポーズに基づいて、複数の前記取得深度値を複数の前記取得イメージの少なくとも一つに含まれた複数のピクセルに投影した投影イメージを生成するステップを含み、
前記投影イメージ生成に利用される複数の前記取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された前記取得イメージであって、
前記投影イメージ生成に利用される複数の前記取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であることを特徴とする、投影イメージ生成方法。 - 実際の3次元空間に対して取得された複数の取得イメージおよび複数の取得深度値それぞれの取得位置および取得角度を含む複数のイメージ取得ポーズおよび複数の深度取得ポーズを基準座標系を基準に推定するデータポーズ推定部;
前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得する使用者ポーズ取得部;および
複数の前記イメージ取得ポーズのうち、前記使用者ポーズに対応する前記イメージ取得ポーズである、対応イメージ取得ポーズおよび、複数の前記深度取得ポーズのうち、前記使用者ポーズに対応する前記深度取得ポーズである、少なくとも一つの対応深度取得ポーズに基づいて、複数の前記取得深度値を複数の前記取得イメージの少なくとも一つに含まれた複数のピクセルに投影した投影イメージを生成するイメージ生成部を含み、
前記投影イメージ生成に利用される複数の前記取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された前記取得イメージであって、
前記投影イメージ生成に利用される複数の前記取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であることを特徴とする、投影イメージ生成装置。 - 前記対応イメージ取得ポーズで取得された前記取得イメージは、前記対応イメージ取得ポーズを原点とする座標系である取得座標系を代表するイメージに設定された代表イメージであり、
前記対応深度取得ポーズで取得された複数の深度値は、前記基準座標系の原点を基準とする複数の深度値または前記取得座標系の原点を基準とする複数の深度値の中で前記代表イメージの画角に含まれる深度値である複数の対応深度値を含むことを特徴とする、請求項15に記載の投影イメージ生成装置。 - 前記対応イメージ取得ポーズが前記使用者ポーズと異なり、前記使用者ポーズでの前記使用者の視野角に対応する前記仮想の3次元空間上の領域の中で前記代表イメージに含まれていない遺失視野領域が存在する場合、
前記イメージ生成部は、
前記代表イメージを除く複数の前記取得イメージの中で前記遺失視野領域に該当するピクセルである複数の遺失ピクセルを含む前記取得イメージである補強イメージおよび前記代表イメージを利用して前記投影イメージを生成することを特徴とする、請求項16に記載の投影イメージ生成装置。 - 前記イメージ生成部は、
前記遺失視野領域が存在するか否かを判断する使用者視野判断部;
前記遺失視野領域が存在すると判断されれば、複数の前記取得イメージに含まれた複数のピクセルに対応する複数の前記取得深度値がマッチングされた情報である深度−イメージ連係情報に基づいて複数の前記取得イメージの中で前記補強イメージを選定する補強イメージ選定部;
前記補強イメージを前記代表イメージより低い加重値で相互組み合わせることで組み合わせイメージを生成する組み合わせイメージ生成部;および
複数の前記取得深度値を前記組み合わせイメージに投影した投影イメージを生成する投影イメージ生成部を含むことを特徴とする、請求項17に記載の投影イメージ生成装置。 - 前記使用者ポーズが前記対応イメージ取得ポーズと同一であり、前記対応イメージ取得ポーズで取得された前記取得イメージの画角が前記対応深度取得ポーズで取得された複数の前記取得深度値で構成される深度地図の画角より大きな場合、
前記イメージ生成部は、
前記代表イメージが取得された前記対応イメージ取得ポーズから所定距離以内に属する複数の前記対応深度取得ポーズから取得された複数の前記深度地図と前記代表イメージを利用して前記投影イメージを生成することを特徴とする、請求項16に記載の投影イメージ生成装置。 - 実際の3次元空間に対して取得された複数の取得イメージの取得位置および取得角度を含む複数のイメージ取得ポーズを基準座標系を基準に推定し、複数の取得深度値に対応する複数の深度取得ポーズを複数の前記イメージ取得ポーズそれぞれを原点とする取得座標系基準に推定するデータポーズ推定部;
前記実際の3次元空間に対応する仮想の3次元空間での使用者の位置および角度を含む使用者ポーズを基準座標系を基準に取得する使用者ポーズ取得部;および
複数の前記イメージ取得ポーズのうち、前記使用者ポーズに対応する前記イメージ取得ポーズである、対応イメージ取得ポーズおよび、複数の前記深度取得ポーズのうち、前記使用者ポーズに対応する前記深度取得ポーズである、少なくとも一つの対応深度取得ポーズに基づいて、複数の前記取得深度値を複数の前記取得イメージの少なくとも一つに含まれた複数のピクセルに投影した投影イメージを生成するイメージ生成部を含み、
前記投影イメージ生成に利用される複数の前記取得イメージの少なくとも一つは、前記対応イメージ取得ポーズで取得された前記取得イメージであって、
前記投影イメージ生成に利用される複数の前記取得深度値は、前記対応深度取得ポーズで取得された複数の深度値であることを特徴とする、投影イメージ生成装置。 - 実際の3次元空間に対して取得された取得イメージおよび取得深度値それぞれの取得位置および取得角度を含むイメージ取得ポーズおよび深度取得ポーズを基準座標系を基準に推定するステップ;
前記深度取得ポーズから、前記深度取得ポーズで取得された複数の前記取得深度値に対応する複数の位置までの距離である、複数の第1深度値距離を算出するステップ;
前記イメージ取得ポーズおよび前記深度取得ポーズを利用して、複数の前記第1深度値距離を、前記イメージ取得ポーズから、前記深度取得ポーズで取得されたそれぞれの複数の前記取得深度値に対応する位置までの距離である、複数の第2深度値距離に変換するステップ;および
前記取得イメージ取得に利用されたイメージセンサに対応するカメラ行列および前記複数の第2深度値距離を利用して、前記取得イメージに含まれた複数のピクセルに複数の前記取得深度値をマッピングするステップを含むことを特徴とする、イメージピクセルと深度値との間のマッピング方法。 - 前記複数の第2深度値距離に変換するステップは、
前記イメージ取得ポーズを示す行列の逆行列、前記深度取得ポーズを示す行列および前記第1深度値距離それぞれを相互間に乗算演算することで遂行されることを特徴とする、請求項21に記載のイメージピクセルと深度値との間のマッピング方法。 - 前記取得イメージの取得に利用されたイメージセンサの解像度が前記取得深度値の取得に利用された距離センサの解像度より高い場合、
前記取得イメージに含まれた複数のピクセルに複数の前記取得深度値をマッピングするステップは、
前記イメージピクセルとマッピングされた複数の前記取得深度値である初期連係深度値の中で3個以上の初期連係深度値を選別して多角形メッシュを構成するステップ;
前記イメージセンサの解像度に基づいて、対応する前記取得深度値が存在しないイメージピクセルである複数の未マッピングピクセルの中で前記多角形メッシュの内部に含まれる前記複数の未マッピングピクセルの個数および位置を算出するステップ;
算出された前記複数の未マッピングピクセルの個数および位置に基づいて前記複数の未マッピングピクセルに対応する複数の深度値を推定するステップ;および
前記推定された複数の深度値を前記複数の未マッピングピクセルにマッピングするステップをさらに含むことを特徴とする、請求項21に記載のイメージピクセルと深度値との間のマッピング方法。 - 前記複数の未マッピングピクセルに対応する複数の深度値を推定するステップは、
内挿法(interpolation)を利用して遂行されることを特徴とする、請求項23に記載のイメージピクセルと深度値との間のマッピング方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20150097442 | 2015-07-08 | ||
KR10-2015-0097442 | 2015-07-08 | ||
KR1020160056447A KR101835434B1 (ko) | 2015-07-08 | 2016-05-09 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
KR10-2016-0056447 | 2016-05-09 | ||
PCT/KR2016/006961 WO2017007166A1 (ko) | 2015-07-08 | 2016-06-29 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018528509A JP2018528509A (ja) | 2018-09-27 |
JP6687204B2 true JP6687204B2 (ja) | 2020-04-22 |
Family
ID=57992391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018500685A Active JP6687204B2 (ja) | 2015-07-08 | 2016-06-29 | 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10602115B2 (ja) |
EP (2) | EP3321888B1 (ja) |
JP (1) | JP6687204B2 (ja) |
KR (2) | KR101835434B1 (ja) |
CN (1) | CN107836012B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210133880A (ko) * | 2020-04-28 | 2021-11-08 | 넥스트브이피유 (상하이) 코포레이트 리미티드 | 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체 |
US11232315B2 (en) | 2020-04-28 | 2022-01-25 | NextVPU (Shanghai) Co., Ltd. | Image depth determining method and living body identification method, circuit, device, and medium |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102614323B1 (ko) * | 2015-04-01 | 2023-12-14 | 바야비전 리미티드 | 수동 및 능동 측정을 이용한 장면의 3차원 지도 생성 |
EP3360023A4 (en) * | 2015-10-09 | 2018-10-10 | SZ DJI Technology Co., Ltd. | Salient feature based vehicle positioning |
CN107995477A (zh) | 2016-10-26 | 2018-05-04 | 中联盛世文化(北京)有限公司 | 图像展示方法、客户端及***、图像发送方法及服务器 |
US10560678B2 (en) * | 2016-11-09 | 2020-02-11 | Mediatek Inc. | Method and apparatus having video encoding function with syntax element signaling of rotation information of content-oriented rotation applied to 360-degree image content or 360-degree video content represented in projection format and associated method and apparatus having video decoding function |
EP3383035A1 (en) * | 2017-03-29 | 2018-10-03 | Koninklijke Philips N.V. | Image generation from video |
JP7033865B2 (ja) * | 2017-08-10 | 2022-03-11 | キヤノン株式会社 | 画像生成装置、画像生成方法、及びプログラム |
EP3682632B1 (en) * | 2017-09-15 | 2023-05-03 | InterDigital VC Holdings, Inc. | Methods and devices for encoding and decoding 3d video stream |
JP6419278B1 (ja) | 2017-09-19 | 2018-11-07 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
KR102009400B1 (ko) * | 2017-12-20 | 2019-08-12 | 김기효 | 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버 |
KR102105365B1 (ko) * | 2018-01-04 | 2020-05-29 | 주식회사 팬스컴스 | 가상공간 내 복수의 디스플레이 화면 매핑 방법 |
EP3511910A1 (en) * | 2018-01-12 | 2019-07-17 | Koninklijke Philips N.V. | Apparatus and method for generating view images |
KR102323394B1 (ko) | 2018-01-22 | 2021-11-08 | 삼성전자주식회사 | 차량의 주행을 보조하는 장치 및 방법 |
KR101893368B1 (ko) * | 2018-01-31 | 2018-09-04 | 공간정보기술 주식회사 | 교통 모니터링 카메라를 이용하는 3차원 시정 측정 방법 및 시스템 |
GB2571306A (en) * | 2018-02-23 | 2019-08-28 | Sony Interactive Entertainment Europe Ltd | Video recording and playback systems and methods |
KR102197732B1 (ko) * | 2018-04-06 | 2021-01-04 | 고려대학교 산학협력단 | 실내공간의 3차원 지도 생성 방법 및 장치 |
US10957100B2 (en) | 2018-04-06 | 2021-03-23 | Korea University Research And Business Foundation | Method and apparatus for generating 3D map of indoor space |
US10726567B2 (en) | 2018-05-03 | 2020-07-28 | Zoox, Inc. | Associating LIDAR data and image data |
US10600192B1 (en) * | 2018-05-14 | 2020-03-24 | Vulcan Inc. | Multi-camera homogeneous object alignment |
US10679362B1 (en) | 2018-05-14 | 2020-06-09 | Vulcan Inc. | Multi-camera homogeneous object trajectory alignment |
US10948297B2 (en) * | 2018-07-09 | 2021-03-16 | Samsung Electronics Co., Ltd. | Simultaneous location and mapping (SLAM) using dual event cameras |
EP3821596B1 (en) * | 2018-07-13 | 2023-03-29 | InterDigital VC Holdings, Inc. | Methods and devices for encoding and decoding 3d video stream |
CN108876862B (zh) * | 2018-07-13 | 2021-12-07 | 北京控制工程研究所 | 一种非合作目标点云位置姿态计算方法 |
KR102491939B1 (ko) * | 2018-08-24 | 2023-01-26 | 삼성전자주식회사 | 전방향 이미지를 프로세싱하기 위한 방법 및 장치 |
WO2020071849A1 (ko) * | 2018-10-04 | 2020-04-09 | 고려대학교 산학협력단 | 실측 깊이정보를 이용한 정밀한 360 이미지 제작기법 |
EP3644604A1 (en) | 2018-10-23 | 2020-04-29 | Koninklijke Philips N.V. | Image generating apparatus and method therefor |
CN109521879B (zh) * | 2018-11-19 | 2022-02-18 | 杭州易现先进科技有限公司 | 交互式投影控制方法、装置、存储介质及电子设备 |
EP3686610A1 (en) * | 2019-01-24 | 2020-07-29 | Rohde & Schwarz GmbH & Co. KG | Probe, measuring system and method for applying a probe |
US11493931B2 (en) | 2019-05-14 | 2022-11-08 | Lg Electronics Inc. | Method of extracting feature from image using laser pattern and device and robot of extracting feature thereof |
KR102387797B1 (ko) * | 2019-06-14 | 2022-04-19 | 고려대학교 산학협력단 | 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치 |
WO2020251151A1 (ko) | 2019-06-14 | 2020-12-17 | 고려대학교 산학협력단 | 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치 |
CN112097742B (zh) * | 2019-06-17 | 2022-08-30 | 北京地平线机器人技术研发有限公司 | 一种位姿确定方法及装置 |
CN112307848B (zh) * | 2019-08-01 | 2024-04-30 | 惠普发展公司,有限责任合伙企业 | 检测视频会议中的欺骗说话者 |
WO2021120175A1 (zh) | 2019-12-20 | 2021-06-24 | 驭势科技(南京)有限公司 | 三维重建方法、装置、***和存储介质 |
KR102316232B1 (ko) * | 2020-02-05 | 2021-10-22 | 네이버 주식회사 | 2차원 지도 정보를 기반으로 거리뷰 이미지의 포즈를 정합시키기 위한 전자 장치 및 그의 동작 방법 |
KR102444879B1 (ko) * | 2020-03-05 | 2022-09-19 | 고려대학교 산학협력단 | 라이다(Lidar)를 이용한 실내 공간의 3차원 모델링 방법 |
KR102414307B1 (ko) * | 2020-06-29 | 2022-06-29 | (주)뉴빌리티 | 3d 맵의 변경 구역 업데이트 시스템 및 그 방법 |
CN111833391B (zh) * | 2020-07-16 | 2024-01-09 | 北京百度网讯科技有限公司 | 图像深度信息的估计方法及装置 |
KR102542363B1 (ko) * | 2020-12-15 | 2023-06-13 | (주)심스리얼리티 | 3차원 공간에서 객체를 인식하는 방법 |
KR102339472B1 (ko) * | 2020-12-23 | 2021-12-16 | 고려대학교 산학협력단 | 3차원 공간 모델 생성 방법 및 장치 |
CN112764546B (zh) * | 2021-01-29 | 2022-08-09 | 重庆子元科技有限公司 | 一种虚拟人物位移控制方法、装置及终端设备 |
CN113066007A (zh) * | 2021-06-03 | 2021-07-02 | 潍坊幻视软件科技有限公司 | 指示3d空间中目标位置的方法 |
CN113436269B (zh) * | 2021-06-15 | 2023-06-30 | 影石创新科技股份有限公司 | 图像稠密立体匹配方法、装置和计算机设备 |
US20220408019A1 (en) * | 2021-06-17 | 2022-12-22 | Fyusion, Inc. | Viewpoint path modeling |
CN114237537B (zh) * | 2021-12-10 | 2023-08-04 | 杭州海康威视数字技术股份有限公司 | 头戴式设备、远程协助方法及*** |
KR102600420B1 (ko) * | 2021-12-31 | 2023-11-09 | 주식회사 쓰리아이 | 3차원 가상모델 제공 방법 및 그를 위한 3차원 가상모델 제공 시스템 |
CN115390571B (zh) * | 2022-10-27 | 2023-03-24 | 杭州蓝芯科技有限公司 | 一种绕障行驶方法和移动机器人 |
KR102618951B1 (ko) | 2023-06-20 | 2023-12-29 | 주식회사 모빌테크 | 시각적 매핑 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
KR102616435B1 (ko) | 2023-07-21 | 2023-12-21 | 주식회사 모빌테크 | 지도 갱신 방법 및 이를 실행하기 위하여 기록매체에기록된 컴퓨터 프로그램 |
KR102664699B1 (ko) | 2023-07-21 | 2024-05-10 | 주식회사 모빌테크 | 항공 라이다를 이용한 건물 모델링 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0757117A (ja) * | 1993-07-09 | 1995-03-03 | Silicon Graphics Inc | テクスチャマップへの索引を生成する方法及びコンピュータ制御表示システム |
US5841441A (en) * | 1996-01-19 | 1998-11-24 | Virtus Corporation | High-speed three-dimensional texture mapping systems and methods |
US6759979B2 (en) * | 2002-01-22 | 2004-07-06 | E-Businesscontrols Corp. | GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site |
WO2004045734A1 (ja) * | 2002-11-20 | 2004-06-03 | Sega Corporation | ゲーム画像の表示制御プログラム及びゲーム装置並びに記憶媒体 |
US7747067B2 (en) * | 2003-10-08 | 2010-06-29 | Purdue Research Foundation | System and method for three dimensional modeling |
US7728877B2 (en) | 2004-12-17 | 2010-06-01 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for synthesizing multiview videos |
US7756563B2 (en) | 2005-05-23 | 2010-07-13 | The Penn State Research Foundation | Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy |
JP2008219390A (ja) * | 2007-03-02 | 2008-09-18 | Victor Co Of Japan Ltd | 画像閲覧装置 |
KR100918706B1 (ko) | 2007-03-20 | 2009-09-22 | 인천대학교 산학협력단 | 카메라 자세 추정 장치 및 방법 |
JP4489800B2 (ja) * | 2007-08-30 | 2010-06-23 | 株式会社スクウェア・エニックス | 画像生成装置及び方法、並びにプログラム及び記録媒体 |
JP2009080578A (ja) * | 2007-09-25 | 2009-04-16 | Toshiba Corp | 多視点データ生成装置、方法及びプログラム |
JP5288445B2 (ja) * | 2007-12-04 | 2013-09-11 | 独立行政法人情報通信研究機構 | 写真マッピング方法及びシステム、並びにプログラム及び記憶媒体 |
WO2010122145A1 (en) | 2009-04-25 | 2010-10-28 | Siemens Aktiengesellschaft | A method and a system for assessing the relative pose of an implant and a bone of a creature |
GB0908200D0 (en) * | 2009-05-13 | 2009-06-24 | Red Cloud Media Ltd | Method of simulation of a real physical environment |
JP4854819B2 (ja) * | 2009-05-18 | 2012-01-18 | 小平アソシエイツ株式会社 | 画像情報出力方法 |
US8487871B2 (en) | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
DE102009049849B4 (de) | 2009-10-19 | 2020-09-24 | Apple Inc. | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
US8717360B2 (en) * | 2010-01-29 | 2014-05-06 | Zspace, Inc. | Presenting a view within a three dimensional scene |
JP5624394B2 (ja) * | 2010-07-16 | 2014-11-12 | キヤノン株式会社 | 位置姿勢計測装置、その計測処理方法及びプログラム |
US9485497B2 (en) * | 2010-09-10 | 2016-11-01 | Reald Inc. | Systems and methods for converting two-dimensional images into three-dimensional images |
US20120113223A1 (en) | 2010-11-05 | 2012-05-10 | Microsoft Corporation | User Interaction in Augmented Reality |
DE202011110924U1 (de) * | 2010-11-24 | 2017-04-25 | Google Inc. | Geführte Navigation durch mit Geo-Tags versehene Panoramen |
DE202011110887U1 (de) * | 2010-11-24 | 2017-02-21 | Google Inc. | Wiedergeben und navigieren fotografischer Panoramen mit Tiefeninformationen in einem geographischen Informationssystem |
US8711206B2 (en) | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US8587583B2 (en) * | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
US9407904B2 (en) * | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
JP5776218B2 (ja) * | 2011-02-24 | 2015-09-09 | 株式会社大林組 | 画像合成方法 |
CN102834849B (zh) * | 2011-03-31 | 2016-08-31 | 松下知识产权经营株式会社 | 进行立体视图像的描绘的图像描绘装置、图像描绘方法、图像描绘程序 |
US8907968B2 (en) * | 2011-03-31 | 2014-12-09 | Panasonic Corporation | Image rendering device, image rendering method, and image rendering program for rendering stereoscopic panoramic images |
US9117274B2 (en) | 2011-08-01 | 2015-08-25 | Fuji Xerox Co., Ltd. | System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors |
EP2600316A1 (en) * | 2011-11-29 | 2013-06-05 | Inria Institut National de Recherche en Informatique et en Automatique | Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation |
US8630457B2 (en) | 2011-12-15 | 2014-01-14 | Microsoft Corporation | Problem states for pose tracking pipeline |
JP5788810B2 (ja) * | 2012-01-10 | 2015-10-07 | 株式会社パスコ | 撮影対象検索システム |
KR101907077B1 (ko) | 2012-03-06 | 2018-10-11 | 삼성전자주식회사 | 자세 인식 방법 및 장치 |
WO2013173728A1 (en) | 2012-05-17 | 2013-11-21 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display |
US9846960B2 (en) * | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
KR101423139B1 (ko) * | 2012-06-19 | 2014-07-28 | 한양대학교 산학협력단 | 3차원 직선을 이용하여 위치를 인식하고 지도를 생성하는 방법 및 그 방법에 따른 이동체 |
KR101546654B1 (ko) * | 2012-06-26 | 2015-08-25 | 한국과학기술원 | 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법 및 장치 |
US20140098100A1 (en) * | 2012-10-05 | 2014-04-10 | Qualcomm Incorporated | Multiview synthesis and processing systems and methods |
KR101544021B1 (ko) * | 2012-10-29 | 2015-08-13 | 경북대학교 산학협력단 | 3차원 지도 생성 장치 및 3차원 지도 생성 방법 |
US9508146B2 (en) * | 2012-10-31 | 2016-11-29 | The Boeing Company | Automated frame of reference calibration for augmented reality |
US9058693B2 (en) * | 2012-12-21 | 2015-06-16 | Dassault Systemes Americas Corp. | Location correction of virtual objects |
US20140267228A1 (en) * | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Mapping augmented reality experience to various environments |
JP5945255B2 (ja) * | 2013-08-27 | 2016-07-05 | 日本電信電話株式会社 | 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム |
CA2888943C (en) * | 2013-10-03 | 2015-08-18 | Sulon Technologies Inc. | Augmented reality system and method for positioning and mapping |
US9432636B2 (en) | 2013-11-26 | 2016-08-30 | Microsoft Technology Licensing, Llc | Large-scale surface reconstruction that is robust against tracking and mapping errors |
US20150206337A1 (en) * | 2014-01-17 | 2015-07-23 | Nokia Corporation | Method and apparatus for visualization of geo-located media contents in 3d rendering applications |
US20160019718A1 (en) * | 2014-07-16 | 2016-01-21 | Wipro Limited | Method and system for providing visual feedback in a virtual reality environment |
US20180133593A1 (en) * | 2014-08-07 | 2018-05-17 | Fove, Inc. | Algorithm for identifying three-dimensional point-of-gaze |
-
2016
- 2016-05-09 KR KR1020160056447A patent/KR101835434B1/ko active IP Right Grant
- 2016-05-11 KR KR1020160057705A patent/KR20170007102A/ko not_active Application Discontinuation
- 2016-06-29 US US15/515,315 patent/US10602115B2/en active Active
- 2016-06-29 EP EP16821572.1A patent/EP3321888B1/en active Active
- 2016-06-29 CN CN201680040327.9A patent/CN107836012B/zh not_active Expired - Fee Related
- 2016-06-29 JP JP2018500685A patent/JP6687204B2/ja active Active
- 2016-07-07 US US15/742,206 patent/US10349033B2/en active Active
- 2016-07-07 EP EP16821660.4A patent/EP3321889A4/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210133880A (ko) * | 2020-04-28 | 2021-11-08 | 넥스트브이피유 (상하이) 코포레이트 리미티드 | 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체 |
US11232315B2 (en) | 2020-04-28 | 2022-01-25 | NextVPU (Shanghai) Co., Ltd. | Image depth determining method and living body identification method, circuit, device, and medium |
KR102386444B1 (ko) * | 2020-04-28 | 2022-04-14 | 넥스트브이피유 (상하이) 코포레이트 리미티드 | 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체 |
Also Published As
Publication number | Publication date |
---|---|
US20180205925A1 (en) | 2018-07-19 |
EP3321888A4 (en) | 2019-06-05 |
EP3321889A1 (en) | 2018-05-16 |
KR101835434B1 (ko) | 2018-03-09 |
EP3321888B1 (en) | 2021-12-08 |
US10349033B2 (en) | 2019-07-09 |
CN107836012A (zh) | 2018-03-23 |
US20170230633A1 (en) | 2017-08-10 |
US10602115B2 (en) | 2020-03-24 |
CN107836012B (zh) | 2021-10-08 |
EP3321888A1 (en) | 2018-05-16 |
KR20170007102A (ko) | 2017-01-18 |
JP2018528509A (ja) | 2018-09-27 |
KR20170007098A (ko) | 2017-01-18 |
EP3321889A4 (en) | 2019-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6687204B2 (ja) | 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法 | |
CN110383343B (zh) | 不一致检测***、混合现实***、程序和不一致检测方法 | |
JP6425780B1 (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
JP6088094B1 (ja) | 複合現実環境を作成するためのシステム等 | |
JP5093053B2 (ja) | 電子カメラ | |
US8963943B2 (en) | Three-dimensional urban modeling apparatus and method | |
US9161027B2 (en) | Method and apparatus for providing camera calibration | |
US20120155744A1 (en) | Image generation method | |
EP2402906A2 (en) | Apparatus and method for providing 3D augmented reality | |
JP2008033531A (ja) | 情報処理方法 | |
KR20140100656A (ko) | 전방향 영상 및 3차원 데이터를 이용한 시점 영상 제공 장치 및 방법 | |
WO2017017790A1 (ja) | 画像生成装置、画像生成システム及び画像生成方法 | |
CN108885342A (zh) | 用于低延迟渲染的宽基线立体 | |
JP6640294B1 (ja) | 複合現実システム、プログラム、携帯端末装置、及び方法 | |
JP2018106661A (ja) | 不整合検出システム、複合現実システム、プログラム及び不整合検出方法 | |
CN110119189B (zh) | Slam***的初始化、ar控制方法、装置和*** | |
KR102199772B1 (ko) | 3차원 모델 데이터 생성 방법 | |
JP6134874B1 (ja) | 複合現実環境を作成するためのシステム等 | |
JPWO2020121406A1 (ja) | 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法 | |
KR20150096127A (ko) | 사진에 촬영된 지점의 위치를 계산하는 방법 및 장치 | |
CN113822936A (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
CN114463520A (zh) | 一种实现虚拟现实vr漫游的方法及装置 | |
KR102146839B1 (ko) | 실시간 가상현실 구축을 위한 시스템 및 방법 | |
JP2011209622A (ja) | 情報提供装置、情報提供方法、及びプログラム | |
JP2020160756A (ja) | 画像生成装置、画像生成方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190205 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190426 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6687204 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |