JP2018084954A - プログラム、姿勢導出方法、姿勢導出装置 - Google Patents

プログラム、姿勢導出方法、姿勢導出装置 Download PDF

Info

Publication number
JP2018084954A
JP2018084954A JP2016227595A JP2016227595A JP2018084954A JP 2018084954 A JP2018084954 A JP 2018084954A JP 2016227595 A JP2016227595 A JP 2016227595A JP 2016227595 A JP2016227595 A JP 2016227595A JP 2018084954 A JP2018084954 A JP 2018084954A
Authority
JP
Japan
Prior art keywords
model
posture
image
real object
point group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016227595A
Other languages
English (en)
Inventor
ジョセフ 子泰 林
Chitai Lam Joseph
ジョセフ 子泰 林
ラヴィンシュタイン アレックス
Levinshtein Alex
ラヴィンシュタイン アレックス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016227595A priority Critical patent/JP2018084954A/ja
Priority to US15/818,031 priority patent/US20180144500A1/en
Publication of JP2018084954A publication Critical patent/JP2018084954A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】高精度に姿勢を導出すること。【解決手段】3Dモデル上の第1の3Dモデル点群であって、表面特徴要素に関連付けられた第1の3Dモデル点群を取得する機能と、現行の深度画像データから得られる3D表面点群を取得する機能と、3Dモデル上の第2の3Dモデル点群を取得する機能と、第1姿勢に基づいた第2の3Dモデル点群の画像平面への写像に含まれる輪郭特徴要素を表す複数の2Dモデル点に対応付けられた複数の画像点と、画像センサーの3D原点と、を通るそれぞれの仮想直線に、それぞれの第2の3Dモデル点群を写像して得られる3D画像輪郭点を取得する機能と、第1の3Dモデル点群と、3D表面点群と、第2の3Dモデル点群と、3D画像輪郭点と、に少なくとも基づいて、第2姿勢を導出する機能と、を実現させるためのプログラム。【選択図】図3

Description

本開示は、実オブジェクトの姿勢の導出に関する。
非特許文献1は、ICP法について開示している。ICPとは、Iterative Closest Pointの頭字語であり、反復最短点のことである。ICP法とは、2つのポイントクラウド間の差を最小化する(2つのポイントクラウドを合わせる)ために用いられるアルゴリズムを意味する。
ポール・ジェー・ベスル(Paul J. Besl)、ニール・ディー・マッケイ(Neil D. McKay)著、"3次元形状の登録のための方法(A Method for Registration of 3-D Shapes)"、パターン認識および人工知能に関するIEEEの会報(IEEE Transactions on Pattern Analysis and Machine Intelligence)、(米国)、IEEEコンピューターソサエティー(IEEE Computer Society)、1992年2月、14巻、2号、p. 239―256
本開示は、上記を踏まえ、既知のICP法よりも高精度に姿勢を導出することを解決課題とする。
本開示は、上記課題を解決するためのものであり、以下の形態として実現できる。
本開示の一形態は、深度画像センサーを用いて取得された実オブジェクトの深度画像データと、画像センサーを用いて取得された前記実オブジェクトの複数の画像点を含む輝度画像データと、前記実オブジェクトの第1姿勢と、前記実オブジェクトに対応する3Dモデルと、に基づき、シーンに位置する前記実オブジェクトの姿勢として第2姿勢を導出する機能を姿勢導出装置に実現させるためのプログラムであって;前記3Dモデル上の第1の3Dモデル点群であって、表面特徴要素に関連付けられた第1の3Dモデル点群を取得する機能と;現行の前記深度画像データから得られる3D表面点群を取得する機能と;前記3Dモデル上の第2の3Dモデル点群を取得する機能と;前記第1姿勢に基づいた前記第2の3Dモデル点群の画像平面への写像に含まれる輪郭特徴要素を表す複数の2Dモデル点に対応付けられた前記複数の画像点と、前記画像センサーの3D原点と、を通るそれぞれの仮想直線に、それぞれの前記第2の3Dモデル点群を写像して得られる3D画像輪郭点を取得する機能と;前記第1の3Dモデル点群と、前記3D表面点群と、前記第2の3Dモデル点群と、前記3D画像輪郭点と、に少なくとも基づいて、前記第2姿勢を導出する機能と;を実現させるためのプログラムである。この形態によれば、深度画像データと3Dモデルとに加え、輝度画像データを用いて、第2姿勢を導出するので、第2姿勢を高精度に導出できる。
上記形態において、前記第1姿勢は、現行のフレームより前のフレームにおける前記実オブジェクトの姿勢であり;前記第2姿勢は、現行のフレームの前記実オブジェクトの姿勢であってもよい。この形態によれば、第2姿勢によって未来の第1姿勢が決まるので、未来の第1姿勢を高精度で導出できる。
上記形態において、前記第1姿勢は、前記画像センサー又は他の画像センサーから取得された前記実オブジェクトの姿勢であってもよい。この形態によれば、第1姿勢を容易に導出でき、処理負荷が軽減される。
本開示は、上記以外の種々の形態で実現できる。例えば、姿勢導出方法や、この方法を実現する装置の形態で実現できる。
HMDの概略構成図。 HMDの機能ブロック図。 姿勢導出処理を示すフローチャート。 近隣探索範囲を示す図。 CF法のフローチャート。 3DモデルCF点に基づき3D画像CF点を取得する様子を示す図。 同様性スコアの計算の一例を示す図。 同様性スコアの計算の一例を示す図。 同様性スコアの計算の一例を示す図。 同様性スコアの計算の一例を示す図。 同様性スコアの計算の一例を示す図。 2Dモデル点が多数の画像点と合わせられる得ることを示す図。 2Dモデル点が誤った画像点と合わせられた一例を示す図。
図1は、HMD100の概略構成を示す。HMD100は、頭部装着型表示装置(ヘッドマウントディスプレイ:Head Mounted Display)である。HMD100は、光学透過型である。つまり、HMD100は、ユーザーに対して、虚像を知覚させると同時に、背景も直接視認させることができる。HMD100は、後述するように実オブジェクトの姿勢を導出する装置として機能する。つまり、HMD100は、実オブジェクトの姿勢を導出する方法を実行する。
HMD100は、ユーザーの頭部に装着可能な装着帯90と、画像を表示する表示部20と、表示部20を制御する制御部10と、を備えている。表示部20は、ユーザーの頭部に装着された状態においてユーザーに虚像を知覚させる。表示部20がユーザーに虚像を知覚させることを「ARを表示する」ともいう。ユーザーが知覚する虚像のことを、AR画像ともいう。
装着帯90は、樹脂製の装着基部91と、装着基部91に連結される布製のベルト92と、カメラ60と、慣性センサー71と、深度画像センサー80と、を備える。装着基部91は、人の前頭部の形に合った湾曲した形状を有する。ベルト92は、ユーザーの頭部の周りに装着される。
カメラ60は、RGBセンサーであると共に、画像センサーである。カメラ60は、背景(シーン)を撮像可能で、装着基部91の中心部分に配置されている。換言すると、カメラ60は、装着帯90がユーザーの頭部に装着された状態で、ユーザーの額の中央に対応する位置に配置されている。そのため、カメラ60は、ユーザーが装着帯90を頭部に装着した状態において、ユーザーの視線方向の外部の景色である背景を撮像し、撮像画像としての輝度画像データを取得する。
カメラ60は、装着基部91に対して回転するカメラ基部61と、カメラ基部61に対して相対位置が固定されたレンズ部62と、を有する。カメラ基部61は、装着帯90がユーザーの頭部に装着された際に、ユーザーの中心軸を含む面に含まれる軸の所定の範囲である矢印CS1に沿って回転可能に配置されている。そのため、カメラ60の光軸であるレンズ部62の光軸は矢印CS1の範囲で向きを変更可能である。レンズ部62は、光軸を中心としたズームによって変化する範囲を撮像する。
深度画像センサー80は、深度センサー、或いは、距離画像センサーとも呼ばれる。深度画像センサー80は、深度画像データを取得する。
慣性センサー71は、加速度を検出するセンサーであり、以下、IMU(Inertial Measurement Unit)71という。IMU71は、加速度に加えて、角速度と、地磁気とを検出できる。IMU71は、装着基部91に内蔵されている。そのため、IMU71は、装着帯90及びカメラ基部61の加速度と角速度と地磁気とを検出する。
IMU71は装着基部91との相対位置が固定されているので、カメラ60はIMU71に対して可動である。さらに、表示部20は、装着基部91との相対位置が固定されているので、カメラ60は表示部20に対する相対位置が可動である。
表示部20は、装着帯90の装着基部91に連結される。表示部20は、眼鏡型である。表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、を含んでいる。
右光学像表示部26及び左光学像表示部28は、それぞれ、ユーザーが表示部20を装着した際にユーザーの右および左の眼前に位置する。右光学像表示部26の一端および左光学像表示部28の一端は、ユーザーが表示部20を装着した際のユーザーの眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから略水平方向に延び、途中から斜め上方へ傾斜した形状を有し、端部ERと装着基部91の右側の連結部93との間を結ぶ。
同様に、左保持部23は、左光学像表示部28の他端である端部ELから略水平方向に延び、途中から斜め上方へ傾斜した形状を有し、端部ELと装着基部91の左側の連結部(図示せず)との間を結ぶ。
右保持部21及び左保持部23が左右の連結部93によって装着基部91に連結されることで、右光学像表示部26と左光学像表示部28をユーザーの眼前に位置させる。なお、各連結部93は、右保持部21及び左保持部23を回転可能に、且つ任意の回転位置に固定可能に連結する。この結果、表示部20は、装着基部91に対して回転可能に設けられることになる。
右保持部21は、右光学像表示部26の他端である端部ERから、ユーザーが表示部20を装着した際のユーザーの側頭部に対応する位置にかけて、延伸して設けられた部材である。
同様に、左保持部23は、左光学像表示部28の他端である端部ELから、ユーザーが表示部20を装着した際のユーザーの側頭部に対応する位置にかけて、延伸して設けられた部材である。右表示駆動部22及び左表示駆動部24(以下、まとめて表示駆動部という)は、ユーザーが表示部20を装着した際のユーザーの頭部に対向する側に配置されている。
表示駆動部は、後述する右液晶ディスプレイ241(以下、右LCD241)及び左液晶ディスプレイ242(以下、左LCD242)や、右投写光学系251、左投写光学系252などを含む。表示駆動部の構成の詳細な説明は後述する。
右光学像表示部26及び左光学像表示部28(以下、まとめて光学像表示部という)は、後述する右導光板261及び左導光板262(以下、まとめて導光板という)、さらには調光板を含んでいる。導光板は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光をユーザーの眼に導く。
調光板は、薄板状の光学素子であり、ユーザーの眼の側とは反対の側である表示部20の表側を覆うように配置されている。調光板の光透過率を調整することによって、ユーザーの眼に入る外光量を調整して虚像の見えやすさを調整できる。
表示部20は、さらに、表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。
右コード42及び左コード44は、本体コード48が2本に分岐したコードである。表示部20及び制御部10は、接続部40を介して各種信号の伝送を実行する。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。
制御部10は、HMD100を制御するための装置である。制御部10は、静電式のトラックパッドや押下可能な複数のボタンなどを含む操作部135を有する。操作部135は、制御部10の表面に配置されている。
図2は、HMD100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、ROM121と、RAM122と、電源130と、操作部135と、CPU140と、インターフェース180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。
電源130は、HMD100の各部に給電する。ROM121には、種々のプログラムが格納されている。CPU140は、ROM121に格納された各種プログラムを、RAM122に展開することで、各種プログラムを実行する。各種プログラムには、後述する姿勢更新処理を実現するためのものが含まれる。
CPU140は、ROM121に格納されているプログラムを、RAM122に展開することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160及び処理部167として機能する。
表示制御部190は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成する。表示制御部190は、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51及び52を介して送信する。表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。
画像処理部160は、コンテンツに含まれる画像信号を取得し、送信部51、送信部52を介して、取得した画像信号を表示部20の受信部53,受信部54へと送信する。音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。
処理部167は、例えばホモグラフィー行列により、実オブジェクトの姿勢を算出する。実オブジェクトの姿勢とは、カメラ60と実オブジェクトとの空間的関係のことである。処理部167は、算出した上記空間的関係と、IMU71によって検出された加速度等の検出値と、を用いて、カメラに固定された座標系からIMU71に固定された座標系へと変換するための回転行列を算出する。処理部167の機能は、後述する姿勢更新処理に用いられる。
インターフェース180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するための入出力インターフェースである。外部機器OAとしては、例えば、ARシナリオを記憶している記憶装置、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等がある。インターフェース180としては、例えば、USBインターフェース、マイクロUSBインターフェース、メモリーカード用インターフェース等を用いることができる。
表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、を備えている。
右表示駆動部22は、受信部53(Rx53)と、右バックライト制御部201及び右バックライト221と、右LCD制御部211及び右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201及び右バックライト221は、光源として機能する。
右LCD制御部211及び右LCD241は、表示素子として機能する。なお、他の実施形態では、右表示駆動部22は、上記構成に代えて、有機EL表示素子などの自発光型表示素子を備えてもよいし、レーザーダイオードからの光ビームを網膜上でスキャンするスキャン型の表示素子を備えてもよい。左表示駆動部24についても、同様である。
受信部53は、制御部10と表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づき、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネッセンス(EL)等の発光体である。右LCD制御部211は、画像処理部160及び表示制御部190から送信された制御信号に基づき、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光を平行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつユーザーの右眼REに導く。なお、左表示駆動部24は、右表示駆動部22と同様の構成を有し、ユーザーの左眼LEに対応するため、説明を省略する。
IMU71及びカメラ60を用いたキャリブレーションは、慣性センサーであるIMU71の性能によって精度が異なる。精度が高くない安価なIMUが用いられると、キャリブレーションには、大きな誤差やドリフトが発生することがある。
本実施形態では、IMU71を用いたマルチポジション法を用いたバッチ・ソリューション・ベース・アルゴリズムによってキャリブレーションを実行する。本実施形態では、IMU71とカメラ60との間の並進関係については、製造時の設計データを用いる。
IMU71とカメラ60とのそれぞれに対して、別々のキャリブレーション(以下、独立キャリブレーション)が実行される。独立キャリブレーションの具体的な方法については、周知技術を用いる。
独立キャリブレーションでは、IMU71が較正される。具体的には、IMU71に含まれる3軸の加速度センサー(Ax,Ay,Az)と、3軸のジャイロセンサー(Gx,Gy,Gz)と、3軸の地磁気センサー(Mx,My,Mz)とに対して、ゲイン/スケールと、静的なバイアス/オフセットと、3軸間のスキューと、についてキャリブレーションが実行される。
これらのキャリブレーションが実行されると、IMU71は、加速度、角速度、地磁気のそれぞれについての出力値として、加速度と角速度と地磁気とを出力する。これらの出力値は、ゲイン、静的なバイアス/オフセット、および3軸間のミスアライメントを修正した値である。これらのキャリブレーションは、本実施形態では、HMD100の製造時において製造工場などで実施される。
独立キャリブレーションで実行されるカメラ60のキャリブレーションでは、カメラ60における焦点距離、スキュー、主点位置、歪みを含むカメラ60の内部パラメーターがキャリブレーションされる。カメラ60のキャリブレーションには、周知技術を適用できる。
IMU71に含まれる各センサーのキャリブレーションが実行された後においては、IMU71における加速度、角速度、地磁気のそれぞれのセンサーの検出値(計測された出力)を融合して、精度の高いIMU配向を得ることができる。
本実施形態では、後述するように、実オブジェクトの姿勢を改善する。姿勢改善の概要について説明する。姿勢改善は、実オブジェクト検出および姿勢推定(OD/PE)において重要であり、拡張現実、ロボット、または、自動運転自動車など、多くの応用において活用され得る。
本実施形態の方法は、モデルアライメント法(MA)と名付けられたアピアランスベースの方法および輪郭特徴要素法(CF)と名付けられた方法を含んでいる。アピアランスベースの方法は、前景の画素の色と、背景の画素の色と、を最適化する方法である。輪郭特徴要素法は、実オブジェクトの外側の輪郭線を用いて3Dモデルから2D画像点への対応付けを確立するエッジベースの方法である。
MA法およびCF法は、輝度画像データのみに基づく。本実施形態では、深度画像データを用いて3D表面ベースの方法も用いる。本実施形態の方法は、反復最短点(Iterative Closest Point:ICP)アルゴリズムに基づいている。反復最短点アルゴリズムは、点の対応付けが所定の近接探索サイズ内での最短ユークリッド距離を基準に用いることで確立される。
初期姿勢のいくつかは、真の姿勢から非常に外れていることがあるので、適宜(adaptively)、深度検証スコアに基づいて、近接探索サイズを選択する。本実施形態では、このアルゴリズムをa−ICP法と呼ぶ。
OD/PEおよび姿勢改善における難易度が高い(つまり、チャレンジングな)シナリオは、散らかった環境内(入り組んだ背景)で姿勢改善を実施することである。ここでの前提条件は、実オブジェクトの大部分がそれでも見えていること(つまりオクルージョンが軽度であること)である。
MA法の性能は、一般に、散らかったシナリオでは、前景と背景とがアピアランスを用いても、もはや区別できなくなることによって低下する。そこで、本実施形態では、CF法とa−ICP法とを用いた姿勢改善アルゴリズムに焦点を当てる。
図3は、姿勢導出処理を示すフローチャートである。このフローチャートは、CF法とa−ICP法とを組み合わせて、実オブジェクトの姿勢を導出するためのものである。このため、CF法とa−ICP法とのそれぞれによるデータの取得は、どちらを先に実施してもよい。以下の説明では、a−ICP法を先に実施する。なお、本実施形態の3Dモデルは、3DCADを用いて作成されたモデルである。
まず、a−ICP法を利用して、3Dモデル表面点と、3D画像表面ベース点との情報を取得する(S300)。
ここでa−ICP法を説明する。a−ICP法は、ICP法を基礎にしている。ICP法とは、先述したように、2つのポイントクラウド間の差を最小化するために用いられるアルゴリズムを意味する。ICP法は既知であるので、簡単に概要を説明する。
3Dモデル表面点とは、実オブジェクトに対応する3Dモデル上の表面特徴要素に関連付けられた点群(点の集合)である。3Dモデルは、予め用意されている。3Dモデル表面点は、予め定められている。3Dモデル表面点は、第1の3Dモデル点群とも呼ぶ。
3D画像表面ベース点とは、現行における深度画像センサーから取得されるデータであり、3D表面点群である。つまり、実オブジェクトの表面特徴要素それぞれまでの距離を示すデータである。
ICP法は、3Dモデル表面点と、3D画像表面ベース点との位置の差が最小になるように、3Dモデルの姿勢を決定する。但し、本実施形態では、S500で姿勢を改善するので、S300においては3Dモデルの姿勢は決定されない。
a−ICPは、adapted Iterative Closest Pointの頭字語である。つまり、a−ICP法は、適応型ICP法を意味する。適応型とは、現行の姿勢が最終的な姿勢に遠い場合には、粗く姿勢をアラインし、現行の姿勢が最終的な姿勢に近い場合には、細かく姿勢をアラインすることを意味する。
具体的には、2つの異なるICPパラメーターが操作されて、粗いアライメント及び細かいアライメントのどちらかが達成される。2つのパラメーターは、以下の通りである。
1つ目のパラメーターは、どの程度細かくポイントクラウドがサンプリングされるかを表すパラメーターである。粗いレベルでは、全体的な組み合わせを重視する。つまり、粗くサンプリングされたポイントクラウドによって、全体の形状を用いて組み合わせることを重視する。一方、細かいレベルでは、点と点との組み合わせを重視する。
2つ目のパラメーターは、対応付けを確立するための近隣探索範囲の大きさを表すパラメーターである。
図4は、近隣探索範囲を示す図である。図4には、より細かいレベルの近隣探索範囲SW1と、より粗いレベルの近隣探索範囲SW2が示されている。近隣探索範囲SW1,SW2は、シーンポイントクラウドSPCに含まれる点(XI,YI,ZI)に対して、CADポイントクラウドCPCにおいて探索する範囲を定める。
シーンポイントクラウドSPCは、構造化(メッシュ化)された2次元配列によって形成されている。CADポイントクラウドCPCは、現行における実オブジェクトのビューを用いて、構造化された2次元配列に再写像(re-projection)することによって形成されている。
粗いレベルの近隣探索範囲SW2では、互いに遠く離れた点間の対応付けが見出されることを可能にする。この結果、長距離にわたって、ポイントクラウドが動くことを可能にする。
一方、細かいレベルの近隣探索範囲SW1では、近い点間の対応付けが確立されるように制限する。この結果、最終姿勢が真の姿勢から発散してしまうことが抑制される。
a−ICP法を利用し、3Dモデル表面点と、3D画像表面ベース点との組み合わせがNaICP個(本実施形態では100個よりもかなり多い数)、取得される。つまり、NaICP個の表面特徴要素について、直近に取得された実オブジェクトの姿勢と、現行(最新)の深度画像データとの関係が取得される。直近に取得された姿勢は、現行よりも前のフレームにおける姿勢である。直近に取得された姿勢は、第1姿勢とも呼ぶ。
なお、後述するように、第1姿勢は、S500によって改善されることによって、第2姿勢になる。第2姿勢は、現行のフレームにおける姿勢である。第2姿勢は、次回のS300及びS400における第1姿勢になる。
続いて、CF法を利用して、3DモデルCF点Pm−3dと、3D画像CF点Pimg−3dとの組み合わせをNCF個(本実施形態では100個)、取得する(S400)。
図5は、CF法のフローチャートである。まず、カメラ60を用いて実オブジェクトを撮像する(S421)。S421で取得される画像は、実オブジェクトの複数の画像点と、背景と、を含む輝度画像データである。
続いて、撮像された実オブジェクトの画像に対して、エッジ検出を実行する(S423)。エッジの検出のために、撮像画像のピクセルに基づいて、エッジとなる特徴要素を計算する。本実施形態では、実オブジェクトの撮像画像のピクセル毎の輝度のグラディエントベクトル(以下単に「グラディエント」とも表記する)を計算することで、特徴要素を決定する。本実施形態では、エッジを検出するために、カニーエッジ検出方法における手続と同様に、単に、エッジを閾値と比較し、最大でないものを抑制する(non-maxima suppression)。
次に、3DモデルCF点Pm−3dを取得する(S429)。3DモデルCF点Pm−3dは、第1姿勢にある3Dモデル上の輪郭特徴要素に関連付けられた点群である。CF法において用いられる第1姿勢は、a−ICP法において用いられる第1姿勢と同一である。輪郭特徴要素は、3Dモデルに対して予め定められている。3DモデルCF点Pm−3dは、第2の3Dモデル点群とも呼ぶ。3DモデルCF点Pm−3dは、3Dモデルに原点が固定された3D座標系(3Dモデル座標系)で表されている。
次に、3DモデルCF点Pm−3dに基づき、2Dモデル点Pm−2dを取得する(S432)。図6は、S432〜S438の様子を示す概念図である。S432は、3DモデルCF点Pm−3dを第1姿勢に基づいて画像平面IPに写像(射影)することによって実現される。画像平面IPは、カメラ60のセンサー表面と同義である。画像平面IPは、仮想平面であり、イメージプレーンとも呼ぶ。2Dモデル点Pm−2dは、画像平面IP上に原点を有する2D座標系(イメージプレーン座標系)で表されている。
なお、3Dモデルの第1姿勢を利用できない状況においては、3Dモデルから3DモデルCF点Pm−3dを取得できず、ひいては、3DモデルCF点Pm−3dに基づき、2Dモデル点Pm−2dを取得することができない。このような状況は、初期化または再初期化を実行する場合に生じ得る。初期化とは、初めに実オブジェクトの姿勢を検出する場合である。再初期化とは、実オブジェクトの姿勢を検出した後、その姿勢を喪失した場合に、再度、実オブジェクトの姿勢を検出する場合である。
これらの場合は、S429及びS432の代わりに、2Dテンプレートを用いることで、2Dモデル点Pm−2dを取得する。具体的には、次の通りである。
まず、記憶されている複数の2Dテンプレートの中から、撮像された実オブジェクトの画像の姿勢に最も近いビューから生成された2Dテンプレートを選択する。2Dテンプレートは、撮像された実オブジェクトに対応するとともに、その実オブジェクトの位置と姿勢を反映する。制御部10は、複数の2Dテンプレートを予め記憶している。
ここで、各2Dテンプレートは、当該実オブジェクトに対応する3Dモデルを、それぞれのビューに基づいて、画像平面IPにレンダリングすることで得られるそれぞれの2Dモデルに基づいて作成されたデータである。
ビューとは、仮想カメラに対する回転と並進を表す3次元剛体変換行列、およびカメラパラメーターを含む透視写像(透視投影)変換行列を含んでいる。具体的には、各2Dテンプレートは、2Dモデルの輪郭(外景線)に含まれる輪郭特徴要素に対応する2Dモデル点Pm−2dと、当該2Dモデル点Pm−2dに対応する3DモデルCF点Pm−3dと、当該ビューと、を含んでいる。2Dテンプレートを用いる場合、上記の2Dモデルの特徴点を、2Dモデル点Pm−2dとして取得する。
2Dモデル点Pm−2dを取得した後、実オブジェクトの画像のエッジに含まれる画像点と、2Dモデル点Pm−2dとの対応付けを実行する(S434)。
本実施形態では、上記の対応付けを実行するために、それぞれの写像された2Dモデル点の周囲の局所的近隣に含まれる全ての画像点について、まず、下記の式(1)を用いた同様性スコアを計算する。
Figure 2018084954
ここで、式(1)において、pは2Dモデル点Pm−2dを表し、p’は画像点を表している。式(1)で示す同様性スコアの指標は、2Dモデル点Pm−2dの輝度のグラディエントと、画像点のグラディエントの一致に基づく。但し、式(1)では一例として当該2つのベクトルの内積に基づいている。式(1)におけるEpのベクトルは、2Dモデル点Pm−2d(エッジ点)pの単位長さグラディエントベクトルである。
本実施形態においては、同様性スコアを求める際に、画像点p’の特徴要素を計算するために、テスト画像(入力画像)のグラディエントである▽Iを用いる。式(1)の分母に示されるグラディエントの大きさの局所最大値による規格化は、局所的に強度の高いエッジに対して優先度が与えられることを確実にする。この規格化は、微弱で雑音となるエッジに対して照合することを防止する。
本実施形態においては、同様性スコアを求める際に、対応付けが探索される近隣範囲の大きさN(p)を強化し得る。例えば、連続する繰り返し計算の中で、写像された2Dモデル点Pm−2dの位置変位の平均が小さくなった場合に、N(p)が小さくされ得る。以下では、式(1)を用いた具体的な対応付けの方法について説明する。
図7〜図11は、同様性スコアから2Dモデル点Pm−2dと画像点との対応付けを確立する方法の一例を示す。図7には、カメラ60によって撮像された実オブジェクトの画像IMG(実線)と、2DモデルMD(一点鎖線)と、2Dモデル点Pm−2dとしての輪郭特徴要素CFmと、が示されている。2DモデルMDとは、第1姿勢における3Dモデルの輪郭を画像平面IPに写像して得られる2次元的な輪郭線である。
図7には、格子状に配置された複数のピクセルpxと、輪郭特徴要素CFmのそれぞれを中心とする3ピクセル×3ピクセルで形成された領域(例えば、領域SA1)と、が示されている。
図7では、後述する輪郭特徴要素CF1を中心とする領域SA1と、輪郭特徴要素CF2を中心とする領域SA2と、輪郭特徴要素CF3を中心とする領域SA3と、が示されている。
輪郭特徴要素CF1と輪郭特徴要素CF2とは、互いに隣り合う輪郭特徴要素であり、輪郭特徴要素CF1と輪郭特徴要素CF3も、互いに隣り合う輪郭特徴要素である。換言すると、輪郭特徴要素CF2、輪郭特徴要素CF1、輪郭特徴要素CF3の順に、輪郭特徴要素が並んでいる。
図7に示すように、実オブジェクトの画像IMと2DモデルMDとが一致していないため、式(1)を用いて、実オブジェクトの画像IMGエッジに含まれる画像点と、複数の輪郭特徴要素CFmそれぞれによって表される2Dモデル点Pm−2dと、を対応付ける。
初めに、複数の輪郭特徴要素CFmの内の1つの輪郭特徴要素CF1を選択し、輪郭特徴要素CF1の位置に重なるピクセルpxを中心とする3ピクセル×3ピクセルの領域SA1を抽出する。
次に、輪郭特徴要素CF1と互いに隣り合う2つの輪郭特徴要素CF2および輪郭特徴要素CF3を中心とする3ピクセル×3ピクセルの領域SA2および領域SA3を抽出する。
本実施形態においては、領域SA1,SA2,SA3のそれぞれを構成するピクセルpx毎に式(1)によりスコアを算出する。この段階では、領域SA1、SA2、SA3は何れも、同じ形状および同じ大きさを有するマトリクスである。
図8には、領域SA2の拡大図と、領域SA2を構成するピクセル毎に算出された同様性スコアと、が示されている。図9には、領域SA1の拡大図と、領域SA1を構成するピクセル毎に算出された同様性スコアと、が示されている。図10には、領域SA3の拡大図と、領域SA3を構成するピクセル毎に算出された同様性スコアと、が示されている。
本実施形態においては、抽出した領域の内、輪郭特徴要素としての2Dモデル点と、9つの画像点のそれぞれと、の間で算出される同様性スコアを算出する。例えば、図10の領域SA3において、ピクセルpx33,px36のスコアが0.8となり、ピクセルpx39のスコアが0.5となり、残り6つのピクセルが0になる例を示している。
ピクセルpx33,px36のスコアが0.8に対して、ピクセルpx39のスコアが0.5と異なるのは、ピクセルpx39において実オブジェクトの画像IMGが曲がっており、グラディエントが異なるためである。以上説明したように、抽出した領域SA1,SA2,SA3を構成する各ピクセル(画像点)について、同じような方法で同様性スコアを算出する。
以下、輪郭特徴要素CF1に注目して説明を進める(図9、図11)。領域SA1を構成する各ピクセルの修正スコアを算出する(図11)。具体的には、領域SA1を構成するピクセルのそれぞれについて、領域SA2,SA3のそれぞれにおいて同じマトリクス位置にあるピクセルを用いて、同様性スコアを重み係数付きで平均化する。
同様性スコアのこのような修正を、輪郭特徴要素CF1だけでなく、他の輪郭特徴要素CF2、CF3のそれぞれに関して実行する。そうすることで、2Dモデル点と画像点との対応付けが平滑化される効果が得られる。
本実施形態においては、領域SA1の各ピクセルpxのスコアの重み係数を0.5、領域SA2の各ピクセルpxのスコアの重み係数を0.2、領域SA3の各ピクセルpxのスコアの重み係数を0.3として、修正スコアを算出する。
例えば、図11に示すように、ピクセルpx19の修正スコアとしての0.55は、領域SA1のピクセルpx19のスコア0.8に重み係数0.5を乗じた値と、領域SA2のピクセルpx29のスコア0に重み係数0.2を乗じた値と、領域SA3のピクセルpx39のスコア0.5に重み係数0.3を乗じた値と、を加えた値である。
上記重み係数は、処理対象となっている輪郭特徴要素CF1と、他の輪郭特徴要素CF2、CF3との間の距離に反比例する。
本実施形態においては、領域SA1を構成するピクセルの修正スコアの中から、最大のスコアを有する画像点を、輪郭特徴要素CF1に対応付けられた画像点として決定する。
例えば、修正スコアの最大値は、ピクセルpx13,px16の0.64となる。複数のピクセルが同じ修正スコアを有する場合には、輪郭特徴要素CF1からの距離が最も短いピクセルpx16を選び、輪郭特徴要素CF1にピクセルpx16の画像点を対応付ける。
実オブジェクトの画像において検出されたエッジ(輪郭の一部の候補)と、2Dモデル点Pm−2d(輪郭特徴要素CF)とを比較することで、各2Dモデル点Pm−2dに対応する実オブジェクトの画像点を決定していく。このように、輪郭特徴要素に含まれる2Dモデル点Pm−2dに対応付けられた画像点を、2D画像点Pimg−2dと呼ぶ。なお、2Dモデル点と画像点との対応付けの探索の他の方法として、上記方法に代えて、以下の方法を採用してもよい。まず、2Dモデルの輪郭線に垂直な線分であって、2Dモデル点Pm−2dを通る線分、に重なる複数の画像点について同様性スコアまたは修正スコアを導出する。そして、その線分上で最大の同様性/修正スコアを有する画像点を、2Dモデル点Pm−2dに対応する2D画像点Pimg−2dとする。
図12および図13は、対応付けの手続きにおいて上述した方法を採用しない場合に生じ得る対応付けを示している。本実施形態による方法を2Dモデル点Pm−2dと画像点との対応付けに用いることで、図12または図13に示すような誤りの可能性を低下させることができる。
図12および図13は、撮像された実オブジェクトの画像IMGおよび2Dモデル点Pm−2dのセットPMnの一部の拡大図と、複数の矢印CSとを示す。
図12は、1つの2Dモデル点Pm−2dが、或るエッジに含まれた多数の画像点と合わせられ得ることを示す。つまり、2Dモデル点Pm−2dが、実オブジェクトの画像IMGとして検出されたエッジの何れの部分に対応付けられるのかは、矢印CS1〜CS5のように複数の選択肢が存在する。
図13は、2Dモデル点Pm−2dが誤った画像点と合わせられた一例を示す。具体的には、順番に並んだ複数の2Dモデル点PM1〜PM5が、実オブジェクトの画像IMGとして検出されたエッジ(に含まれる画像点)に、誤って合わせられた一例が示されている。
この場合、例えば、図13において、上側から2Dモデル点PM2,PM3,PM1,PM4,PM5と並んでいるにも関わらず、実オブジェクトの画像IMGのエッジとしては、矢印CS7,CS6,CS8,CS10,CS9の順に並んでいる。そのため、矢印CS8と矢印CS6、および、矢印CS9と矢印CS10が入れ替わっている。
図6に戻り、次に、カメラ原点O(カメラ座標系の原点)と、複数の2D画像点Pimg−2dそれぞれとを通る仮想直線Ray−imgを算出する(S436)。仮想直線Ray−imgは、3D座標系において定義される直線である。
最後に、3D画像CF点Pimg−3dを取得する(S438)。3D画像CF点Pimg−3dは、3D画像輪郭点とも呼ぶ。3D画像CF点Pimg−3dは、対応する3DモデルCF点Pm−3dから、対応する仮想直線Ray−imgに写像することで取得される。具体的には、3D画像CF点Pimg−3dは、対応する3DモデルCF点Pm−3dから、対応する仮想直線Ray−imgに下ろした垂線の足である。
以上に説明したように、CF法を利用して、3DモデルCF点Pm−3dと、3D画像CF点Pimg−3dとの組み合わせがNCF個、取得される。
続いて、姿勢の更新を計算する(S500)。S500によって現行のフレームにおける姿勢が導出される。このように導出された姿勢を、第2姿勢と呼ぶ。第2姿勢は、3Dモデル表面点(第1の3Dモデル点群)と、3D画像表面ベース点(3D表面点群)と、3DモデルCF点Pm−3d(第2の3Dモデル点群)と、3D画像CF点Pimg−3dと、に少なくとも基づいて、導出される。
N点からなる3D点の対応付け(p,p’)セットが与えられた場合、距離差の二乗和(Σ2)を最小にするRとTとを見つけることによって、姿勢が最適化される。距離差の二乗和は、次式で算出される。
Figure 2018084954
式(2)におけるRは、変換行列における回転の要素である。上記の式におけるTは、当該変換行列における並進の要素である。
3Dから3Dのドメインで表現されたCFデータとa−ICPデータとの双方に関して、それらは、容易に線形結合され得る。しかし、本実施形態においては、カメラ60座標系(RGB画像センサーの3D座標系)の原点と、距離カメラ座標系(深度画像センサー80の3D座標系)の原点とが異なる。このため、本実施形態においては、それぞれの対応付けセットを、共通の座標系(例えば、ロボットの3D座標系、またはHMD100の表示部20の3D座標系)に変換する。この変換後における最小化関数は、単に誤差項の線形和になる。
Figure 2018084954
上記の式におけるDは、変換行列であり、距離カメラ座標系から共通座標系への「基礎の変化」を示す。上記の式におけるCは、変換行列であり、それぞれの色についてのカメラ座標系から共通座標系への「基礎の変化」を示す。
上記の式におけるR及びTは、式(3)の閉形式解(解析解)である。このため、当該関数の最小値探索において、ガウス・ニュートン法などの非線形最小二乗法が不要である。
S500の後、姿勢の改善を終了するかを判定する(S510)。つまり、S500を反復して実施するかを判定する。姿勢の改善を終了しない場合(S510,NO)、S300〜S500を再び実行する。これにより、取得された画像フレームに対応して変換行列(R及びT)が導出され続け、この結果、実オブジェクトの姿勢を追跡することができる。
姿勢の改善を終了する場合(S510,YES)、最終姿勢を返す(S520)。つまり、直近のS500によって算出された変換行列(R及びT)を出力する。
以上に説明した処理によれば、CF法とa−ICP法の姿勢改善法が単独で用いられた場合に見られる欠点を低減することができる。ここで、CF法の利点とa−ICP法の利点とを説明する。
CF法の利点は、クリーンな(孤立した)状態で、精度が高いことである。クリーンな状態とは、背景に対して輪郭がはっきり区別できる状態のことである。
CF法の欠点は、散らかった状態、特に実オブジェクト間の外形エッジが混乱する暗い実オブジェクトに対して、精度が低いことである。なお、実オブジェクトのスケーリングに対してロバストでないが、ステレオまたはマルチカメラを用いることで改善され得る。
a−ICP法の利点は、クリーンな状態および散らかった状態の双方で精度が高いことである。
a−ICP法の欠点は、平らな面およびシリンダーなど、非常に一般的な表面(特徴が無い表面)を有する実オブジェクトに対して精度が低いことである。近隣の点間の対応付けにおいて曖昧さが高いからである。
上記のように、CF法の欠点とa−ICP法の欠点は、互いに独立であるとみなせる。このため、本実施形態によれば、両者の欠点を補うことによって、姿勢を精度良く導出できる。
本開示は、本明細書の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現できる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、先述の課題の一部又は全部を解決するために、或いは、先述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせができる。その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除できる。例えば、以下のものが例示される。
第1姿勢は、現行よりも前のフレームにおける第2姿勢でなくてもよい。例えば、カメラ60(画像センサー)から取得された実オブジェクトの姿勢を、第1姿勢として扱っても良い。カメラ60から実オブジェクトの姿勢を取得する場合は、a−ICP法を用いてもよいし、ICP法を用いてもよい。
或いは、深度画像センサー80から取得された実オブジェクトの姿勢を、第1姿勢として扱っても良い。深度画像センサー80から実オブジェクトの姿勢を取得する場合は、CF法を用いてもよい。
上記のように、第1姿勢を、カメラ60又は他の画像センサー(深度画像センサー80)に基づき導出する場合、処理負荷が軽減される。
a−ICP点の数に対するCF点の数の比は、適宜、設定してもよい。a−ICP点の数は、適応レベルに依存して変化し得るが、いずれにせよ、CF点の数よりとても多い。a−ICP点のサンプリングは、局所的なジオメトリー(幾何構造)の関数となるように、変化することが可能である。例えば、平らな領域は、殆ど記述的な情報を伝えてこないから、密なサンプリングをする必要はない。
信頼要素を3D点の対応付けに付加してもよい。信頼要素とは、信頼性を表す係数である。これは、N×Nの対角行列を導入することでなされ得る。ここで、それぞれの対角要素がそれぞれの点の信頼要素である。信頼要素は、例えば、CF点のグラディエントベクトルの大きさの強さに基づいて、計算され得る。または、a−ICP点の表面曖昧さに基づいて計算され得る。
a−ICP法における適応レベルの数は、適宜、変更してもよい。
姿勢導出処理を実行する装置は、演算機能を備えていれば、どのような装置でもよい。例えば、ビデオシースルー型HMDでもよいし、HMDでなくてもよい。HMD以外としては、ロボットに適用してもよいし、携帯型の表示装置(例えばスマートフォン)でもよいし、ヘッドアップディスプレイ(HUD)でもよいし、据え置き型の表示装置でもよい。
上記において、ソフトウエアによって実現された機能及び処理の一部又は全部は、ハードウエアによって実現されてもよい。また、ハードウエアによって実現された機能及び処理の一部又は全部は、ソフトウエアによって実現されてもよい。ハードウエアとしては、例えば、集積回路、ディスクリート回路、又は、それらの回路を組み合わせた回路モジュールなど、各種回路を用いてもよい。
10…制御部、20…表示部、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、40…接続部、42…右コード、44…左コード、46…連結部材、48…本体コード、51…送信部、52…送信部、53…受信部、54…受信部、60…カメラ、61…カメラ基部、62…レンズ部、71…慣性センサー、80…深度画像センサー、90…装着帯、91…装着基部、92…ベルト、93…連結部、121…ROM、122…RAM、130…電源、135…操作部、140…CPU、150…オペレーティングシステム、160…画像処理部、167…処理部、170…音声処理部、180…インターフェース、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、241…右液晶ディスプレイ、242…左液晶ディスプレイ、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板

Claims (5)

  1. 深度画像センサーを用いて取得された実オブジェクトの深度画像データと、画像センサーを用いて取得された前記実オブジェクトの複数の画像点を含む輝度画像データと、前記実オブジェクトの第1姿勢と、前記実オブジェクトに対応する3Dモデルと、に基づき、シーンに位置する前記実オブジェクトの姿勢として第2姿勢を導出する機能を姿勢導出装置に実現させるためのプログラムであって、
    前記3Dモデル上の第1の3Dモデル点群であって、表面特徴要素に関連付けられた第1の3Dモデル点群を取得する機能と、
    現行の前記深度画像データから得られる3D表面点群を取得する機能と、
    前記3Dモデル上の第2の3Dモデル点群を取得する機能と、
    前記第1姿勢に基づいた前記第2の3Dモデル点群の画像平面への写像に含まれる輪郭特徴要素を表す複数の2Dモデル点に対応付けられた前記複数の画像点と、前記画像センサーの3D原点と、を通るそれぞれの仮想直線に、それぞれの前記第2の3Dモデル点群を写像して得られる3D画像輪郭点を取得する機能と、
    前記第1の3Dモデル点群と、前記3D表面点群と、前記第2の3Dモデル点群と、前記3D画像輪郭点と、に少なくとも基づいて、前記第2姿勢を導出する機能と、
    を実現させるためのプログラム。
  2. 前記第1姿勢は、現行のフレームより前のフレームにおける前記実オブジェクトの姿勢であり、
    前記第2姿勢は、現行のフレームの前記実オブジェクトの姿勢である
    請求項1に記載のプログラム。
  3. 前記第1姿勢は、前記画像センサー又は他の画像センサーから取得された前記実オブジェクトの姿勢である
    請求項1に記載のプログラム。
  4. 深度画像センサーを用いて取得された実オブジェクトの深度画像データと、画像センサーを用いて取得された前記実オブジェクトの複数の画像点を含む輝度画像データと、前記実オブジェクトの第1姿勢と、前記実オブジェクトに対応する3Dモデルと、に基づき、シーンに位置する前記実オブジェクトの姿勢として第2姿勢を導出する方法であって、
    前記3Dモデル上の3Dモデル点群であって、前記第1姿勢に基づいた第2の3Dモデル点群の画像平面への写像に含まれる輪郭特徴要素を表す複数の2Dモデル点に対応付けられた前記複数の画像点と、前記画像センサーの3D原点と、を通るそれぞれの仮想直線に、それぞれの前記第2の3Dモデル点群を写像に含まれる輪郭特徴要素を表す3D画像輪郭点を取得するステップと、
    前記3Dモデル上の表面特徴要素に関連付けられた第1の3Dモデル点群と、現行の前記深度画像データから得られる3D表面点群と、前記第2の3Dモデル点群と、前記3D画像輪郭点と、に少なくとも基づいて、前記実オブジェクトの姿勢を導出するステップと、
    を含む姿勢導出方法。
  5. 深度画像センサーを用いて取得された実オブジェクトの深度画像データと、画像センサーを用いて取得された前記実オブジェクトの複数の画像点を含む輝度画像データと、前記実オブジェクトの第1姿勢と、前記実オブジェクトに対応する3Dモデルと、に基づき、シーンに位置する前記実オブジェクトの姿勢として第2姿勢を導出する装置であって、
    前記3Dモデル上の第1の3Dモデル点群であって、表面特徴要素に関連付けられた第1の3Dモデル点群を取得する機能と、
    現行の前記深度画像データから得られる3D表面点群を取得する機能と、
    前記3Dモデル上の第2の3Dモデル点群を取得する機能と、
    前記第1姿勢に基づいた前記第2の3Dモデル点群の画像平面への写像に含まれる輪郭特徴要素を表す複数の2Dモデル点に対応付けられた前記複数の画像点と、前記画像センサーの3D原点と、を通るそれぞれの仮想直線に、それぞれの前記第2の3Dモデル点群を写像して得られる3D画像輪郭点を取得する機能と、
    前記第1の3Dモデル点群と、前記3D表面点群と、前記第2の3Dモデル点群と、前記3D画像輪郭点と、に少なくとも基づいて、前記第2姿勢を導出する機能と、
    を備える姿勢導出装置。
JP2016227595A 2016-11-24 2016-11-24 プログラム、姿勢導出方法、姿勢導出装置 Pending JP2018084954A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016227595A JP2018084954A (ja) 2016-11-24 2016-11-24 プログラム、姿勢導出方法、姿勢導出装置
US15/818,031 US20180144500A1 (en) 2016-11-24 2017-11-20 Computer program, pose derivation method, and pose derivation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016227595A JP2018084954A (ja) 2016-11-24 2016-11-24 プログラム、姿勢導出方法、姿勢導出装置

Publications (1)

Publication Number Publication Date
JP2018084954A true JP2018084954A (ja) 2018-05-31

Family

ID=62147165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016227595A Pending JP2018084954A (ja) 2016-11-24 2016-11-24 プログラム、姿勢導出方法、姿勢導出装置

Country Status (2)

Country Link
US (1) US20180144500A1 (ja)
JP (1) JP2018084954A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086629A (ja) * 2018-11-19 2020-06-04 東京電力ホールディングス株式会社 情報処理装置、ヘッドマウントディスプレイ、コンピュータプログラム及び画像表示システム
JP2021025947A (ja) * 2019-08-07 2021-02-22 キヤノン株式会社 キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体
US11645771B2 (en) 2021-02-22 2023-05-09 Kabushiki Kaisha Toshiba Measuring system and recording medium storing thereon a measuring program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10282834B1 (en) * 2018-06-22 2019-05-07 Caterpillar Inc. Measurement platform that automatically determines wear of machine components based on images
US11107241B2 (en) 2018-12-11 2021-08-31 Seiko Epson Corporation Methods and systems for training an object detection algorithm using synthetic images
US11048254B2 (en) 2019-04-10 2021-06-29 Waymo Llc Generating simplified object models to reduce computational resource requirements for autonomous vehicles
US11475242B2 (en) 2020-07-27 2022-10-18 Seiko Epson Corporation Domain adaptation losses

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5496008B2 (ja) * 2010-08-06 2014-05-21 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6092530B2 (ja) * 2012-06-18 2017-03-08 キヤノン株式会社 画像処理装置、画像処理方法
JP6324025B2 (ja) * 2013-11-05 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法
US9436987B2 (en) * 2014-04-30 2016-09-06 Seiko Epson Corporation Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images
JP6426968B2 (ja) * 2014-10-08 2018-11-21 キヤノン株式会社 情報処理装置およびその方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020086629A (ja) * 2018-11-19 2020-06-04 東京電力ホールディングス株式会社 情報処理装置、ヘッドマウントディスプレイ、コンピュータプログラム及び画像表示システム
JP7167654B2 (ja) 2018-11-19 2022-11-09 東京電力ホールディングス株式会社 情報処理装置、ヘッドマウントディスプレイ、コンピュータプログラム及び画像表示システム
JP2021025947A (ja) * 2019-08-07 2021-02-22 キヤノン株式会社 キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体
JP7321029B2 (ja) 2019-08-07 2023-08-04 キヤノン株式会社 キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体
US11645771B2 (en) 2021-02-22 2023-05-09 Kabushiki Kaisha Toshiba Measuring system and recording medium storing thereon a measuring program

Also Published As

Publication number Publication date
US20180144500A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
US10242504B2 (en) Head-mounted display device and computer program
JP2018084954A (ja) プログラム、姿勢導出方法、姿勢導出装置
CN109146965B (zh) 信息处理装置、计算机可读介质和头戴式显示装置
US10373334B2 (en) Computer program, object tracking method, and object tracking device
US10424117B2 (en) Controlling a display of a head-mounted display device
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和***
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
US9716870B2 (en) Image processor, image processing method, and image projector
EP3226208A1 (en) Information processing device and computer program
US10469836B2 (en) Head-mounted display device and computer program
US9514524B2 (en) Optical distortion compensation
US10304253B2 (en) Computer program, object tracking method, and display device
CN114761909A (zh) 针对头戴式显示器的内容稳定
US10628964B2 (en) Methods and devices for extended reality device training data creation
US12010286B2 (en) Separable distortion disparity determination
JP2017224984A (ja) プログラム、装置、キャリブレーション方法
US11461883B1 (en) Dirty lens image correction
EP3552053A1 (en) Virtual rigid framework for sensor subsystem
CN110895433B (zh) 用于增强现实中用户交互的方法和装置
JP2018101211A (ja) 車載器
JP2017162449A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
WO2021075113A1 (ja) 情報処理装置、情報処理方法及びプログラム