JP2020527270A - オブジェクト姿勢を決定するための電子デバイス、システムおよび方法 - Google Patents
オブジェクト姿勢を決定するための電子デバイス、システムおよび方法 Download PDFInfo
- Publication number
- JP2020527270A JP2020527270A JP2020502372A JP2020502372A JP2020527270A JP 2020527270 A JP2020527270 A JP 2020527270A JP 2020502372 A JP2020502372 A JP 2020502372A JP 2020502372 A JP2020502372 A JP 2020502372A JP 2020527270 A JP2020527270 A JP 2020527270A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- view
- scene
- electronic device
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/76—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】電子デバイスは、光学センサ(3)の、シーン内のオブジェクト(O)を表す3D画像データを受信し、3D画像データに基づいて、光学センサの位置に対するオブジェクト姿勢を推定し、推定されたオブジェクト姿勢に基づいて、所定の3Dオブジェクトモデルの所定のビュー位置のセットから最も近いものを識別し、識別された最も近いビュー位置に基づいて、シーン内のオブジェクト姿勢を決定するように構成されている。本発明はさらに、システムおよび方法に関する。
【選択図】図4
Description
− 光学センサの3D画像データを受信し、
− 3D画像データに基づいて、光学センサの位置に対するオブジェクト姿勢を推定し、
− 推定されたオブジェクト姿勢に基づいて、所定の3Dオブジェクトモデルの所定のビュー位置のセットから最も近いものを識別し、
− 識別された最も近いビュー位置に基づいて、シーン内のオブジェクト姿勢を決定する
ように構成されている。
● 特に上記のような電子デバイス、および、
● オブジェクトを検知するように構成された光学センサを備える。このセンサは特に3Dカメラまたはステレオカメラである。
● 光学センサ(3)の3D画像データを受信するステップであって、シーン内のオブジェクト(O)を表すステップと、
● 3D画像データに基づいて、前記光学センサの位置に関する前記オブジェクト姿勢の推定するステップと、
● 推定されたオブジェクト姿勢に基づいて、所定の3Dオブジェクトモデルの所定のビュー位置のセットから最も近いものを識別するステップと、
● 前記識別された最も近いビュー位置に基づいて、前記シーン内の前記オブジェクト姿勢を決定するステップと、
を含む。
Claims (15)
- オブジェクト姿勢を決定するための電子デバイス(1)であって、該電子デバイスは、
光学センサ(3)の3D画像データを受信し、ここで、該3D画像データは、シーン(S)内のオブジェクト(O)を表すものであり、
前記3D画像データに基づいて前記光学センサの位置に関して、前記オブジェクト姿勢(x,y,z,,,)を推定し、
推定された前記オブジェクト姿勢に基づいて、所定の3Dオブジェクトモデルの所定のビュー位置のセットから最も近いものを識別し、
識別された最も近い前記ビュー位置に基づいて、前記シーン内の前記オブジェクトの姿勢を決定するように構成される、
電子デバイス(1)。 - 前記光学センサ(3)の前記3D画像データは点群を含む、および/または、前記3Dオブジェクトモデルは点群を含む、請求項1に記載の電子デバイス(1)。
- 前記オブジェクト姿勢を推定することは、前記シーン内の姿勢を推定することにより、オブジェクト姿勢の仮説を決定することと、前記オブジェクト姿勢の仮説に基づいて、前記光学センサの位置に関する前記オブジェクト姿勢の推定することと、を含む、請求項1または2に記載の電子デバイス(1)。
- 前記オブジェクト姿勢を推定すること、または、前記3D画像データを受信することは、受信した前記3D画像データに基づいて、前記シーン内の前記オブジェクトを認識することを含む、請求項1ないし3のいずれか1項に記載の電子デバイス(1)。
- 所定のビュー位置の前記セットから最も近いものを識別することは、オブジェクト空間での前記光学センサの位置を決定することと、所定のビュー位置の前記セットから最適なビューを見つけ出すこととに基づいている、請求項1ないし4のいずれか1項に記載の電子デバイス(1)。
- 所定のビュー位置の前記セットのそれぞれは、再符号化されたデータセットにリンクされており、該再符号化されたデータセットは、前記ビュー位置から見たとき、前記オブジェクトモデルのレンダリングされた画像データを表す、請求項1ないし5のいずれか1項に記載の電子デバイス(1)。
- 再符号化されたデータセットの前記レンダリングされた画像データは、前記オブジェクトモデルのサブサンプリングされた点群、該モデルのサブサンプリングされた輪郭、および/または、該モデルのサブサンプリングされた表面モデルを含む、請求項6に記載の電子デバイス(1)。
- 所定のビュー位置の前記セットから最も近いものを識別することは、
前記所定のビュー位置の各々に対して、リンクされた再符号化データセットのレンダリングされた画像データを、前記シーンにプロジェクトし、
前記レンダリングされた画像データをシーン内の前記オブジェクトを表す前記3D画像データと比較し、
前記所定のビューのどれに対して、前記レンダリングされた画像データと前記シーン内の前記オブジェクトを表す前記3D画像データとの間の偏差が、最小に達するかを決定すること
を含む、請求項1に記載の電子デバイス(1)。 - 前記3D画像データは、可視光画像と深度画像とのペアを含む、請求項1ないし8のいずれか1項に記載の電子デバイス(1)。
- 前記可視光画像は、特に、人間の視覚システムによって処理される3つのバンド(RGB)に分解された、電磁スペクトルの可視部分を含む、請求項1ないし9のいずれか1項に記載の電子デバイス(1)。
- 前記オブジェクト姿勢は、x,y,z位置情報、および/またはθ,φ,Ψ回転情報を含む6D姿勢である、請求項1ないし10のいずれか1項に記載の電子デバイス(1)。
- 前記シーン内の前記オブジェクトの前記姿勢を決定することは、
前記所定の3Dオブジェクトモデルの所定のビュー位置の前記セットから、前記識別された最も近いビューに基づいてθ,φ,Ψ回転情報を決定すること、および/または最も近いビューのモデルを前記シーンにプロジェクトすることに基づいて、前記x,y,z位置情報を決定することと、
プロジェクトされたモデルを、前記シーン内のオブジェクトを表す前記3D画像データと比較することと、
を含む、請求項1ないし11のいずれか1項に記載の電子デバイス(1)。 - 請求項1ないし8のいずれか1項に記載の電子(1)デバイスと、前記オブジェクトを感知するように構成された光学センサであって、該光学センサは特に3Dカメラまたはステレオカメラである、センサと、を備える、オブジェクト姿勢を決定するためのシステム(30)。
- 光学センサ(3)の3D画像データを受信するステップであって、該3D画像データは、シーン(S)内のオブジェクト(O)を表す、ステップと、
前記3D画像データに基づいて前記光学センサの位置に関して、オブジェクト姿勢(x,y,z,θ,φ,Ψ)を推定するステップと、
前記推定されたオブジェクト姿勢に基づいて、所定の3Dオブジェクトモデルの所定のビュー位置のセットから最も近いものを識別するステップと、
前記識別された最も近いビュー位置に基づいて、前記シーン内の前記オブジェクト姿勢を決定するステップと、
のステップを含む、オブジェクト姿勢を決定する方法。 - 前記オブジェクトモデルの複数のビュー位置を決定するステップと、
所定のビュー位置の前記セットを形成するステップと、
所定のビュー位置の前記セットの各ビュー位置に対して、再符号化されたデータセットを決定するステップであって、該再符号化されたデータセットは、前記ビュー位置から見たとき前記オブジェクトモデルのレンダリングされた画像データを表す、ステップと、
前記ビュー位置を前記再符号化されたデータセットにリンクするステップと、
のステップをさらに含む、請求項14に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2017/068388 WO2019015761A1 (en) | 2017-07-20 | 2017-07-20 | ELECTRONIC DEVICE, SYSTEM AND METHOD FOR DETERMINING THE INSTALLATION OF AN OBJECT |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020527270A true JP2020527270A (ja) | 2020-09-03 |
JP6955081B2 JP6955081B2 (ja) | 2021-10-27 |
Family
ID=59506241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020502372A Active JP6955081B2 (ja) | 2017-07-20 | 2017-07-20 | オブジェクト姿勢を決定するための電子デバイス、システムおよび方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6955081B2 (ja) |
WO (1) | WO2019015761A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020030966A1 (en) * | 2018-07-06 | 2020-02-13 | Verity Studios Ag | Methods and systems for estimating the orientation of an object |
CN110322512A (zh) * | 2019-06-28 | 2019-10-11 | 中国科学院自动化研究所 | 结合小样本实例分割和三维匹配的物***姿估计方法 |
CN111145253B (zh) * | 2019-12-12 | 2023-04-07 | 深圳先进技术研究院 | 一种高效的物体6d姿态估计算法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008033819A (ja) * | 2006-07-31 | 2008-02-14 | Omron Corp | 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体 |
JP2013217893A (ja) * | 2012-03-13 | 2013-10-24 | Canon Inc | モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE528068C2 (sv) | 2004-08-19 | 2006-08-22 | Jan Erik Solem Med Jsolutions | Igenkänning av 3D föremål |
-
2017
- 2017-07-20 WO PCT/EP2017/068388 patent/WO2019015761A1/en active Application Filing
- 2017-07-20 JP JP2020502372A patent/JP6955081B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008033819A (ja) * | 2006-07-31 | 2008-02-14 | Omron Corp | 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体 |
JP2013217893A (ja) * | 2012-03-13 | 2013-10-24 | Canon Inc | モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法 |
Non-Patent Citations (3)
Title |
---|
NIKOLAY ATANASOV: "Nonmyopic View Planning for Active Object Classification and Pose Estimation", IEEE TRANSACTIONS ON ROBOTICS VOL.30, NO.5, OCTOBER 2014, vol. 30, no. 5, JPN6021015917, October 2014 (2014-10-01), US, pages 1078 - 1090, XP011560315, ISSN: 0004583072, DOI: 10.1109/TRO.2014.2320795 * |
WADIM KEHL: "Real-Time 3D Model Tracking in Color and Depth on a Single CPU Core", 2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6021015919, 2017, US, pages 465 - 473, XP033249383, ISSN: 0004583073, DOI: 10.1109/CVPR.2017.57 * |
水谷 諒平: "3次元点群とテクスチャを用いた3次元物体認識と位置姿勢推定", 情報処理学会研究報告 2011(平成23)年度▲5▼ [CD−ROM], vol. PRMU2011-147, MVE2011-56 (2012-01), JPN6021015916, 15 February 2012 (2012-02-15), JP, pages 1 - 5, ISSN: 0004583071 * |
Also Published As
Publication number | Publication date |
---|---|
JP6955081B2 (ja) | 2021-10-27 |
WO2019015761A1 (en) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
US11051000B2 (en) | Method for calibrating cameras with non-overlapping views | |
US9875424B2 (en) | Method for determining correspondences between a first and a second image, and method for determining the pose of a camera | |
US9235928B2 (en) | 3D body modeling, from a single or multiple 3D cameras, in the presence of motion | |
KR101791590B1 (ko) | 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법 | |
EP2234064B1 (en) | Method for estimating 3D pose of specular objects | |
CN113409384B (zh) | 一种目标物体的位姿估计方法和***、机器人 | |
Zhi et al. | Simultaneous hand-eye calibration and reconstruction | |
JP6955081B2 (ja) | オブジェクト姿勢を決定するための電子デバイス、システムおよび方法 | |
JP2019153290A (ja) | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 | |
US20140168204A1 (en) | Model based video projection | |
Rhodes et al. | A concise guide to feature histograms with applications to LIDAR-based spacecraft relative navigation | |
CN109872343B (zh) | 弱纹理物体姿态跟踪方法、***及装置 | |
Azad et al. | Accurate shape-based 6-dof pose estimation of single-colored objects | |
Schwarz et al. | Tracking planes with time of flight cameras and j-linkage | |
Radkowski | HoloLens integration into a multi-kinect tracking environment | |
Peng et al. | Real time and robust 6D pose estimation of RGBD data for robotic bin picking | |
Troutman et al. | Registration and localization of unknown moving objects in monocular SLAM | |
CN112449701A (zh) | 学习模板表示库 | |
Truong et al. | Rapid implementation of 3D facial reconstruction from a single image on an android mobile device | |
US12002227B1 (en) | Deep partial point cloud registration of objects | |
Rohner et al. | Object recognition for robotics based on planar reconstructed B-rep models | |
JP7207396B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Pudchuen et al. | 3-D Mapping and Localization using RGB-D Camera | |
Li et al. | Pose estimation of metal workpieces based on RPM-Net for robot grasping from point cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6955081 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |