JPWO2016181687A1 - 画像処理装置と画像処理方法およびプログラム - Google Patents
画像処理装置と画像処理方法およびプログラム Download PDFInfo
- Publication number
- JPWO2016181687A1 JPWO2016181687A1 JP2017517626A JP2017517626A JPWO2016181687A1 JP WO2016181687 A1 JPWO2016181687 A1 JP WO2016181687A1 JP 2017517626 A JP2017517626 A JP 2017517626A JP 2017517626 A JP2017517626 A JP 2017517626A JP WO2016181687 A1 JPWO2016181687 A1 JP WO2016181687A1
- Authority
- JP
- Japan
- Prior art keywords
- unit
- feature point
- normal
- key frame
- normal information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
観測位置におけるシーンの法線情報を生成する法線情報生成部と、
前記法線情報生成部で生成した法線情報に基づき前記観測位置を推定する自己位置推定部と
を有する画像処理装置にある。
法線情報生成部によって、観測位置におけるシーンの法線情報を生成することと、
自己位置推定部によって、前記法線情報生成部で生成した法線情報に基づき前記観測位置を推定すること
を含む画像処理方法にある。
コンピュータに
観測位置におけるシーンの法線情報を生成する法線情報生成手順と、
前記法線情報生成手順で生成した法線情報に基づき前記観測位置を推定する自己位置推定手順と
を実行させるプログラムにある。
1.画像処理装置の構成
2.第1の実施の形態
3.第1の実施の形態における第1の実施例
4.第1の実施の形態における第2の実施例
5.第1の実施の形態における第3の実施例
6.第2の実施の形態
7.他の実施の形態
図1は、画像処理装置の構成を示している。画像処理装置10は、法線情報生成部30と動き量検出部40を有している。法線情報生成部30は、観測位置におけるシーン例えば検出対象フレームに対応したシーン(以下単に「検出対象フレーム」という)の法線情報を生成する。動き量検出部40は、データ記憶部50等に記憶されている観測位置とは異なる参照位置におけるシーン例えば観測位置とは異なる参照位置で撮像したキーフレームに対応したシーン(以下単に「キーフレーム」という)の法線情報と法線情報生成部30で生成した検出対象フレームの法線情報に基づいて、キーフレームの撮像ポジションに対する検出対象フレームの撮像ポジションの動き量を検出する。すなわち動き量検出部40は、キーフレーム画像を生成した撮像部の撮像ポジションから検出対象フレーム画像を生成した撮像部の位置や姿勢の変化量を検出する。また、キーフレームの撮像ポジションに対する検出対象フレームの撮像ポジションの動き量を検出することで、キーフレーム画像生成時の位置および姿勢を基準としたときの検出対象フレーム画像生成時の位置および姿勢を検出できる。このように、画像処理装置では、法線情報生成部で生成した法線情報に基づいてフレーム画像生成時の観測位置を検出する。
図2は第1の実施の形態の構成を示している。画像処理装置10は、法線情報生成部30、動き量検出部40を有している。また、画像処理装置10には、偏光画像取得部20やデータ記憶部50、環境マッピング部60が設けられてもよく、以下、偏光画像取得部20とデータ記憶部50、環境マッピング部60も設けた場合について説明する。
第1の実施の形態における第1の実施例では、キーフレームと現フレームとの間で対応するそれぞれの特徴点の法線情報等に基づき、キーフレームの撮像ポジションに対する現フレームの撮像ポジションの回転量と移動量を順次に検出する場合について説明する。
移動量検出部404は、キーフレームの各特徴点を現フレームに再投影させた位置と現フレームにおける対応する特徴点の位置の差分を最小化することで、移動量を検出する。すなわち、移動量検出部404は、式(8)を用いて移動量Tlvを算出する。式(8)において、πは三次元位置(x,y,z)を(x/z,y/z)に射影する関数である。π-1(u,Dv(u))は、図16の(a)に示すように、キーフレームの画像上の特徴点uを、デプスDv(u)としたときに、カメラ空間に戻す関数であり、Kはカメラの内部パラメータ行列である。Glv(Ψ)は式(9)に示すようにキーフレームから現フレームまで動き量(回転量Rlvと移動量Tlv)である。また式(8)および後述する式のqaは対となるすべての特徴点を示している。
移動量検出部404は、キーフレームにおける特徴点の三次元位置が既知ではない場合キーフレームの各特徴点が現フレームに再投影させた位置と現フレームにおける対応する特徴点の位置の差分を最小化することで移動量を検出する。すなわち、移動量検出部404は、式(10)を用いて移動量Tlvを算出する。なお、式(10)では、キーフレームのデプスが既知でないため、図16の(b)に示すように、キーフレームの特徴点uのデプスをDv(u)”とする。
第1の実施の形態における第2の実施例では、キーフレームと現フレームとの間で対応するそれぞれの法線情報と、キーフレームの検出された特徴点の三次元位置または画像上の二次元位置に基づき、キーフレームの撮像ポジションに対する現フレームの撮像ポジションの回転および/または移動の動き量を検出する場合について説明する。この場合の動き量の検出結果は、回転量と移動量を同時に検出して統合した場合に相当する。
第1の実施の形態における第3の実施例では、第1の実施例や第2の実施例のように特徴点ベースの手法とは異なり、画面全体の画像を用いて動き量を検出する場合について説明する。
第2の実施の形態では、偏光画像を用いることなく法線情報に基づいて動き量の検出を行う場合について説明する。
上述の第1および第2の実施の形態では、偏光画像を用いて法線情報を生成する場合について説明したが、法線情報の生成は偏光画像を用いる場合に限られない。例えば、照度差ステレオという手法によって法線情報を生成してもよい。また、投影光が対象物体で反射して戻ってくるまでの時間を計測するTOF(Time of Flight)等の方法を用いて得られるデプスに基づき法線情報を生成してもよい。また、法線情報における不定性の解消は、画像認識等を用いて被写体認識を行い、認識された被写体が示す形状を参照して法線を特定することで、法線情報の不定性を解消してもよい。
(1) 観測位置におけるシーンの法線情報を生成する法線情報生成部と、
前記法線情報生成部で生成した法線情報に基づき前記観測位置を推定する自己位置推定部とを有する画像処理装置。
(2) 前記法線情報生成部は、前記観測位置とは異なる参照位置におけるシーンの法線情報とを生成し、
前記自己位置推定部は、前記法線情報生成部で生成した前記観測位置におけるシーンの法線情報と前記参照位置におけるシーンの法線情報に基づいて前記観測位置を推定する(1)に記載の画像処理装置。
(3) 前記自己位置推定部は、前記参照位置から前記観測位置への動き量を検出する動き量検出部と、前記動き量とワールド座標系における前記参照位置に基づいて、前記ワールド座標系における前記観測位置を推定する絶対位置推定部を有する(2)に記載の画像処理装置。
(4) 前記法線情報生成部は、前記観測位置において撮像した検出対象フレームに対応したシーンの法線情報と、前記観測位置とは異なる参照位置で撮像したキーフレームに対応したシーンの法線情報とを生成して、
前記自己位置推定部は、前記法線情報生成部で生成した前記検出対象フレームに対応したシーンの法線情報と前記キーフレームに対応したシーンの法線情報に基づいて前記観測位置を推定する(3)に記載の画像処理装置。
(5) 前記動き量検出部は、
前記検出対象フレームの画像から特徴点を検出する特徴点検出部と、
前記特徴点検出部で検出された特徴点と前記キーフレームの画像から検出されている特徴点とのマッチング処理を行い、前記キーフレームと前記検出対象フレームとの間で対応する特徴点の対を検出する特徴点マッチング部と、
前記特徴点マッチング部で検出された前記キーフレームと前記検出対象フレームのそれぞれの特徴点の法線情報に基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの回転量を検出する回転量検出部と、
前記回転量検出部で検出された回転量と、前記特徴点マッチング部で検出された前記特徴点と、前記キーフレームの特徴点の三次元位置または画像上の二次元位置に基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの移動量を検出する移動量検出部とを有する(4)に記載の画像処理装置。
(6) 前記動き量検出部は、
前記検出対象フレームの画像から特徴点を検出する特徴点検出部と、
前記特徴点検出部で検出された特徴点と前記キーフレームの画像から検出されている特徴点とのマッチング処理を行い、前記キーフレームと前記検出対象フレームとの間で対応する特徴点の対を検出する特徴点マッチング部と、
前記特徴点マッチング部で検出された前記キーフレームと前記検出対象フレームのそれぞれの特徴点の法線情報と、前記検出されたキーフレームの特徴点の三次元位置または画像上の二次元位置に基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの回転および/または移動の動き量を検出する回転・移動量検出部とを有する(4)に記載の画像処理装置。
(7) 前記動き量検出部は、
前記検出対象フレームの画像と法線情報、および前記キーフレームの画像と法線情報とデプスに基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの回転および/または移動の動き量を検出する回転・移動量検出部とを有する(4)に記載の画像処理装置。
(8) 前記動き量検出部は、
前記法線情報生成部で生成された検出対象フレームの法線情報に基づく法線画像から特徴点を検出する特徴点検出部と、
前記特徴点検出部で検出された特徴点と前記キーフレームの画像から検出されている特徴点とのマッチング処理を行い、前記キーフレームと前記検出対象フレームとの間で対応する特徴点の対を検出する特徴点マッチング部と、
前記特徴点マッチング部で検出された前記キーフレームと前記検出対象フレームのそれぞれの特徴点の法線情報に基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの動き量を検出する動き量検出処理部とを有する(4)に記載の画像処理装置。
(9) 前記法線情報生成部は、前記観測位置におけるシーンの偏光方向が異なる複数の偏光画像を用いて前記法線情報を生成する(1)乃至(8)の何れかに記載の画像処理装置。
(10) 前記法線情報生成部で生成された前記観測位置におけるシーンの法線情報は不定性を有しており、
前記動き量検出部は、前記観測位置におけるシーンの法線情報の不定性を解消して、不定性が解消された法線情報を用いて前記動き量を検出する(9)に記載の画像処理装置。
(11) 前記観測位置におけるシーンの偏光方向が異なる複数の偏光画像を取得する偏光画像取得部をさらに有する(9)に記載の画像処理装置。
(12) 前記参照位置におけるシーンの少なくとも法線情報を含むデータを記憶するデータ記憶部をさらに有し、
前記自己位置推定部は、前記データ記憶部に記憶されている前記参照位置のシーンのデータを用いて前記観測位置を推定する(2)に記載の画像処理装置。
(13) 前記自己位置推定部で推定した前記観測位置に基づき前記観測位置におけるシーンのデプスを算出し、算出したデプスと前記観測位置に基づく三次元点群を環境マップに追加する環境マッピング部をさらに有する(1)乃至(12)のいずれかに記載の画像処理装置。
(14) 前記環境マップは、三次元点群の三次元位置と法線情報を含む(13)に記載の画像処理装置。
20・・・偏光画像取得部
30・・・法線情報生成部
40,41,42,43,44・・・動き量検出部
50・・・データ記憶部
60・・・環境マッピング部
110・・・イメージセンサ
111・・・偏光フィルタ
112・・・レンズ
113・・・偏光板
401,441・・・特徴点検出部
402,442・・・特徴点マッチング部
403,443・・・回転量検出部
404,444・・・移動量検出部
405,406・・・回転・移動量検出部
4031・・・特徴点不定性解消部
4032・・・演算部
Claims (16)
- 観測位置におけるシーンの法線情報を生成する法線情報生成部と、
前記法線情報生成部で生成した法線情報に基づき前記観測位置を推定する自己位置推定部と
を有する画像処理装置。 - 前記法線情報生成部は、前記観測位置とは異なる参照位置におけるシーンの法線情報とを生成し、
前記自己位置推定部は、前記法線情報生成部で生成した前記観測位置におけるシーンの法線情報と前記参照位置におけるシーンの法線情報に基づいて前記観測位置を推定する
請求項1に記載の画像処理装置。 - 前記自己位置推定部は、
前記参照位置から前記観測位置への動き量を検出する動き量検出部と、
前記動き量とワールド座標系における前記参照位置に基づいて、前記ワールド座標系における前記観測位置を推定する絶対位置推定部を有する
請求項2に記載の画像処理装置。 - 前記法線情報生成部は、前記観測位置において撮像した検出対象フレームに対応したシーンの法線情報と、前記観測位置とは異なる参照位置で撮像したキーフレームに対応したシーンの法線情報とを生成して、
前記自己位置推定部は、前記法線情報生成部で生成した前記検出対象フレームに対応したシーンの法線情報と前記キーフレームに対応したシーンの法線情報に基づいて前記観測位置を推定する
請求項3に記載の画像処理装置。 - 前記動き量検出部は、
前記検出対象フレームの画像から特徴点を検出する特徴点検出部と、
前記特徴点検出部で検出された特徴点と前記キーフレームの画像から検出されている特徴点とのマッチング処理を行い、前記キーフレームと前記検出対象フレームとの間で対応する特徴点の対を検出する特徴点マッチング部と、
前記特徴点マッチング部で検出された前記キーフレームと前記検出対象フレームのそれぞれの特徴点の法線情報に基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの回転量を検出する回転量検出部と、
前記回転量検出部で検出された回転量と、前記特徴点マッチング部で検出された前記特徴点と、前記キーフレームの特徴点の三次元位置または画像上の二次元位置に基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの移動量を検出する移動量検出部とを有する
請求項4に記載の画像処理装置。 - 前記動き量検出部は、
前記検出対象フレームの画像から特徴点を検出する特徴点検出部と、
前記特徴点検出部で検出された特徴点と前記キーフレームの画像から検出されている特徴点とのマッチング処理を行い、前記キーフレームと前記検出対象フレームとの間で対応する特徴点の対を検出する特徴点マッチング部と、
前記特徴点マッチング部で検出された前記キーフレームと前記検出対象フレームのそれぞれの特徴点の法線情報と、前記検出されたキーフレームの特徴点の三次元位置または画像上の二次元位置に基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの回転および/または移動の動き量を検出する回転・移動量検出部とを有する
請求項4に記載の画像処理装置。 - 前記動き量検出部は、
前記検出対象フレームの画像と法線情報、および前記キーフレームの画像と法線情報とデプスに基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの回転および/または移動の動き量を検出する回転・移動量検出部とを有する
請求項4に記載の画像処理装置。 - 前記動き量検出部は、
前記法線情報生成部で生成された検出対象フレームの法線情報に基づく法線画像から特徴点を検出する特徴点検出部と、
前記特徴点検出部で検出された特徴点と前記キーフレームの画像から検出されている特徴点とのマッチング処理を行い、前記キーフレームと前記検出対象フレームとの間で対応する特徴点の対を検出する特徴点マッチング部と、
前記特徴点マッチング部で検出された前記キーフレームと前記検出対象フレームのそれぞれの特徴点の法線情報に基づき、前記キーフレームの撮像ポジションに対する前記検出対象フレームの撮像ポジションの動き量を検出する動き量検出処理部とを有する
請求項4に記載の画像処理装置。 - 前記法線情報生成部は、前記観測位置におけるシーンの偏光方向が異なる複数の偏光画像を用いて前記法線情報を生成する
請求項1に記載の画像処理装置。 - 前記法線情報生成部で生成された前記観測位置におけるシーンの法線情報は不定性を有しており、
前記動き量検出部は、前記観測位置におけるシーンの法線情報の不定性を解消して、不定性が解消された法線情報を用いて前記動き量を検出する
請求項9に記載の画像処理装置。 - 前記観測位置におけるシーンの偏光方向が異なる複数の偏光画像を取得する偏光画像取得部をさらに有する
請求項9に記載の画像処理装置。 - 前記参照位置におけるシーンの少なくとも法線情報を含むデータを記憶するデータ記憶部をさらに有し、
前記自己位置推定部は、前記データ記憶部に記憶されている前記参照位置のシーンのデータを用いて前記観測位置を推定する
請求項2に記載の画像処理装置。 - 前記自己位置推定部で推定した前記観測位置に基づき前記観測位置におけるシーンのデプスを算出し、算出したデプスと前記観測位置に基づく三次元点群を環境マップに追加する環境マッピング部をさらに有する
請求項1に記載の画像処理装置。 - 前記環境マップは、三次元点群の三次元位置と法線情報を含む
請求項13に記載の画像処理装置。 - 法線情報生成部によって、観測位置におけるシーンの法線情報を生成することと、
自己位置推定部によって、前記法線情報生成部で生成した法線情報に基づき前記観測位置を推定すること
を含む画像処理方法。 - コンピュータに
観測位置におけるシーンの法線情報を生成する法線情報生成手順と、
前記法線情報生成手順で生成した法線情報に基づき前記観測位置を推定する自己位置推定手順と
を実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015099021 | 2015-05-14 | ||
JP2015099021 | 2015-05-14 | ||
PCT/JP2016/056193 WO2016181687A1 (ja) | 2015-05-14 | 2016-03-01 | 画像処理装置と画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016181687A1 true JPWO2016181687A1 (ja) | 2018-03-01 |
JP6897563B2 JP6897563B2 (ja) | 2021-06-30 |
Family
ID=57248184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017517626A Active JP6897563B2 (ja) | 2015-05-14 | 2016-03-01 | 画像処理装置と画像処理方法およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10529076B2 (ja) |
EP (1) | EP3296955B1 (ja) |
JP (1) | JP6897563B2 (ja) |
CN (1) | CN107533763B (ja) |
ES (1) | ES2887202T3 (ja) |
WO (1) | WO2016181687A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11835343B1 (en) | 2004-08-06 | 2023-12-05 | AI Incorporated | Method for constructing a map while performing work |
US10809071B2 (en) | 2017-10-17 | 2020-10-20 | AI Incorporated | Method for constructing a map while performing work |
JP5953658B2 (ja) | 2011-05-25 | 2016-07-20 | ソニー株式会社 | ロボット制御装置及びロボット装置の制御方法、コンピューター・プログラム、プログラム記憶媒体、並びにロボット装置 |
JP6556013B2 (ja) * | 2015-10-08 | 2019-08-07 | キヤノン株式会社 | 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体 |
JP7103354B2 (ja) * | 2017-05-24 | 2022-07-20 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11082669B2 (en) | 2017-06-19 | 2021-08-03 | Sony Corporation | Image projection apparatus, image processing apparatus, image projection method, image processing method, and image projection system |
WO2019021569A1 (ja) * | 2017-07-26 | 2019-01-31 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US11274929B1 (en) * | 2017-10-17 | 2022-03-15 | AI Incorporated | Method for constructing a map while performing work |
CN111356895A (zh) * | 2017-11-24 | 2020-06-30 | 索尼公司 | 检测装置以及生产电子装置的方法 |
CN108305278B (zh) * | 2018-01-30 | 2020-02-21 | 西南交通大学 | 一种orb-slam算法中图像匹配相关性改进方法 |
US11276197B2 (en) | 2018-05-08 | 2022-03-15 | Sony Interactive Entertainment Inc. | Information processing apparatus and subject information acquisition method |
JP6933776B2 (ja) * | 2018-05-08 | 2021-09-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および被写体情報取得方法 |
US10996335B2 (en) | 2018-05-09 | 2021-05-04 | Microsoft Technology Licensing, Llc | Phase wrapping determination for time-of-flight camera |
US10607352B2 (en) * | 2018-05-17 | 2020-03-31 | Microsoft Technology Licensing, Llc | Reduced power operation of time-of-flight camera |
CN109141393B (zh) * | 2018-07-02 | 2020-12-08 | 北京百度网讯科技有限公司 | 重定位方法、设备及存储介质 |
CN109544632B (zh) * | 2018-11-05 | 2021-08-03 | 浙江工业大学 | 一种基于层次主题模型的语义slam对象关联方法 |
KR20220015964A (ko) * | 2020-07-31 | 2022-02-08 | 삼성전자주식회사 | 시각적 주행 거리 측정 애플리케이션들을 위한 손실된 이미지 특징 복원을 위한 방법 및 시스템 |
CN113965814B (zh) * | 2021-08-30 | 2023-07-04 | 国网山东省电力公司信息通信公司 | 基于视频会议场景的多会场关键帧提取方法及*** |
GB2623119A (en) | 2022-10-07 | 2024-04-10 | Toshiba Kk | A computer vision method and system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009147814A1 (ja) * | 2008-06-02 | 2009-12-10 | パナソニック株式会社 | 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置 |
WO2010113240A1 (ja) * | 2009-03-31 | 2010-10-07 | コニカミノルタホールディングス株式会社 | 3次元情報算出装置および3次元情報算出方法 |
JP2014511591A (ja) * | 2011-01-31 | 2014-05-15 | マイクロソフト コーポレーション | 奥行きマップを使用したモバイルカメラの自己位置推定 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10210473A (ja) * | 1997-01-16 | 1998-08-07 | Toshiba Corp | 動きベクトル検出装置 |
RU2009107141A (ru) | 2007-08-07 | 2010-09-10 | Панасоник Корпорэйшн (Jp) | Устройство формирования информации нормальных векторов и способ формирования информации нормальных векторов |
CN102819845A (zh) * | 2011-06-07 | 2012-12-12 | 中兴通讯股份有限公司 | 一种混合特征的跟踪方法和装置 |
US9037396B2 (en) * | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
KR101460313B1 (ko) * | 2013-05-24 | 2014-11-14 | 중앙대학교 산학협력단 | 시각 특징과 기하 정보를 이용한 로봇의 위치 추정 장치 및 방법 |
US9495761B2 (en) * | 2013-11-04 | 2016-11-15 | The Regents Of The University Of California | Environment mapping with automatic motion model selection |
CN104062973B (zh) * | 2014-06-23 | 2016-08-24 | 西北工业大学 | 一种基于图像标志物识别的移动机器人slam方法 |
-
2016
- 2016-03-01 EP EP16792412.5A patent/EP3296955B1/en active Active
- 2016-03-01 CN CN201680026516.0A patent/CN107533763B/zh active Active
- 2016-03-01 JP JP2017517626A patent/JP6897563B2/ja active Active
- 2016-03-01 ES ES16792412T patent/ES2887202T3/es active Active
- 2016-03-01 WO PCT/JP2016/056193 patent/WO2016181687A1/ja active Application Filing
- 2016-03-01 US US15/569,259 patent/US10529076B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009147814A1 (ja) * | 2008-06-02 | 2009-12-10 | パナソニック株式会社 | 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置 |
WO2010113240A1 (ja) * | 2009-03-31 | 2010-10-07 | コニカミノルタホールディングス株式会社 | 3次元情報算出装置および3次元情報算出方法 |
JP2014511591A (ja) * | 2011-01-31 | 2014-05-15 | マイクロソフト コーポレーション | 奥行きマップを使用したモバイルカメラの自己位置推定 |
Also Published As
Publication number | Publication date |
---|---|
US20180122086A1 (en) | 2018-05-03 |
EP3296955B1 (en) | 2021-08-11 |
CN107533763A (zh) | 2018-01-02 |
WO2016181687A1 (ja) | 2016-11-17 |
EP3296955A4 (en) | 2018-12-19 |
EP3296955A1 (en) | 2018-03-21 |
ES2887202T3 (es) | 2021-12-22 |
CN107533763B (zh) | 2021-09-28 |
US10529076B2 (en) | 2020-01-07 |
JP6897563B2 (ja) | 2021-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016181687A1 (ja) | 画像処理装置と画像処理方法およびプログラム | |
Schops et al. | Bad slam: Bundle adjusted direct rgb-d slam | |
CN110675314B (zh) | 图像处理和三维对象建模方法与设备、图像处理装置及介质 | |
Herrera et al. | Dt-slam: Deferred triangulation for robust slam | |
Li et al. | A multiple-camera system calibration toolbox using a feature descriptor-based calibration pattern | |
US9679384B2 (en) | Method of detecting and describing features from an intensity image | |
JP2019075082A (ja) | 深度値推定を用いた映像処理方法及び装置 | |
JP5672112B2 (ja) | ステレオ画像較正方法、ステレオ画像較正装置及びステレオ画像較正用コンピュータプログラム | |
CN104685513A (zh) | 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计 | |
JP2011008687A (ja) | 画像処理装置 | |
Frahm et al. | Markerless augmented reality with light source estimation for direct illumination | |
US10607350B2 (en) | Method of detecting and describing features from an intensity image | |
JP6515039B2 (ja) | 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 | |
CN110490967A (zh) | 图像处理和对象建模方法与设备、图像处理装置及介质 | |
US11803982B2 (en) | Image processing device and three-dimensional measuring system | |
Daftry et al. | Flexible and User-Centric Camera Calibration using Planar Fiducial Markers. | |
Yuan et al. | 3D reconstruction of background and objects moving on ground plane viewed from a moving camera | |
Zhu et al. | Robust plane-based calibration of multiple non-overlapping cameras | |
JP2018195241A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Schenk et al. | Combining edge images and depth maps for robust visual odometry | |
JP2016114445A (ja) | 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置 | |
Burschka et al. | Direct pose estimation with a monocular camera | |
Gwon et al. | Nontemporal relative pose estimation for opti-acoustic bundle adjustment | |
JP2015033047A (ja) | 複数カメラを用いた奥行き推定装置 | |
Kuhl et al. | Monocular 3D scene reconstruction at absolute scales by combination of geometric and real-aperture methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200407 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201120 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201120 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20201201 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20201208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210524 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6897563 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |