JP7321029B2 - キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体 - Google Patents

キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体 Download PDF

Info

Publication number
JP7321029B2
JP7321029B2 JP2019145657A JP2019145657A JP7321029B2 JP 7321029 B2 JP7321029 B2 JP 7321029B2 JP 2019145657 A JP2019145657 A JP 2019145657A JP 2019145657 A JP2019145657 A JP 2019145657A JP 7321029 B2 JP7321029 B2 JP 7321029B2
Authority
JP
Japan
Prior art keywords
contour
hand
image
sensor
experiencer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145657A
Other languages
English (en)
Other versions
JP2021025947A (ja
Inventor
和樹 武本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019145657A priority Critical patent/JP7321029B2/ja
Publication of JP2021025947A publication Critical patent/JP2021025947A/ja
Application granted granted Critical
Publication of JP7321029B2 publication Critical patent/JP7321029B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、仮想現実感システム或いは複合現実感システムにおける、異なる2つ以上のセンサで、対象物の形状・動きを計測する場合のキャリブレーション技術に関する。
近年、設計・製造分野においてプロトタイプを用いた評価の期間短縮、費用削減が求められている。CAD(コンピュータ支援設計)システムで作成した設計(形状・デザイン)データを用いて、組み立てやすさやメンテナンス性の仮想評価をするための複合現実感(MR:Mixed Reality)システムが導入されている。例えば、組み立てやすさを評価する場合は、手でCGモデルを把持して部品を動かすことが想定される。
従来は、位置姿勢を計測するセンサをゲームコントローラー等に取り付けて、手に持ったゲームコントローラーを疑似的に手とみなして把持操作を行う方法が提案されていた。
しかし、ゲームコントローラーを握っている手が取れる自由度は、持っていない自由度と比べると制限が多いことが知られている。この自由度を再現する課題を解決するため、Leap Motion社のLeap Motionは、手の指も含めた位置姿勢を計測することができる。Leap Motionでは、内蔵されているステレオカメラから手の領域を検出し、手の形状を模した3次元ポリゴンモデル(以後ハンドモデルと呼ぶ)をリアルタイムで出力することができる。Leap Motion以外にもMicrosoft社のKinect等のデプスセンサから手と指の位置姿勢を推定することができる(非特許文献1)。非特許文献1では、デプスセンサで得られた手の形状の奥行画像に基づいて、初期位置から繰り返し計算し、コストを最適化することによって手と指の姿勢を推定した3次元ポリゴンモデルを生成している。以後、ハンドモデルを出力できるLeap Motionおよびデプスセンサをセンサと総称する。
一方で、CGモデルと手の奥行きを正しく表示するために、ステレオカメラで撮影した手の映像から手の領域を抽出して、ステレオカメラに対する手の奥行値を算出する方法がある。この手法では、抽出した手の輪郭線のステレオ画像の対応点の全てに対して三角測量で奥行値を求める方法を用いている(特許文献1)。特許文献1では、複合現実感を提示するための表示デバイスであるビデオシースルー型のヘッドマウントディスプレイ(以後HMDと略す)に搭載されているステレオカメラを利用している。CGモデルを描画するときの仮想カメラ位置姿勢を、空間におけるHMDに搭載されているステレオカメラの位置姿勢と同期させることにより、あたかも現実の空間の中にCGモデルが存在するように表示することができる。さらに、表示されているCGモデルとJMDを装着している体験者の手の奥行きが正しく表示されていると、よりCGモデルと体験者との距離感を体験者に認知させることができる。
非特許文献1のデプスセンサでリアルタイムに計測したハンドモデルを、HMDを装着した体験者の視点で描画するためには、体験者の視点に配置した仮想カメラで撮像される画像にハンドモデルを描画すればよい。ただし、ハンドモデルは、センサを基準とする座標系で出力されており、そのままハンドモデルを体験者の視点の仮想カメラの画像に描画しても体験者の手と一致した場所にハンドモデルが表示されない。ハンドモデルが定義されているセンサ基準の座標系と、体験者の視点を基準とするビュー座標系が異なるためである。図5(a)は、座標系の違いを考慮していないために、カメラ画像の手201の場所にハンドモデル505が表示されない例を示している。
非特許文献2では、カラーカメラを基準とするビュー座標系とデプスカメラを基準とするセンサ座標系の相対位置姿勢を求め、センサ座標系に、カメラ画像の出力結果を再投影している。センサ座標系とビュー座標系の相対位置姿勢が求められれば、逆に、ビュー座標系上にセンサで計測した3次元点を投影することも可能であることは自明である。非特許文献2では、カラーカメラとデプスカメラの相対位置姿勢を求めるために、カラーカメラのカメラ画像とデプスカメラのデプス画像上で対応する点を複数入力し、尤度が最大となるような相対位置姿勢を求めている。カラーカメラとデプスカメラの相対位置姿勢を求めることにより、図5(b)のようにカメラ画像上の手201とハンドモデル505の映像を合わせることができる。
特開2012-13514号公報
Qian, C., Sun, X., Wei, Y., Tang, X., Sun, J. : Realtime and Robust Hand Tracking from Depth. In CVPR 2014. Pp. 1106-1113. Columbus, USA (2014) Zhang C, Zhang Z (2011) Calibration between depth and color sensors for commodity depth cameras. In: International workshop on hot topics in 3D, IEEE, pp. 437-445.
しかし、非特許文献2のように、手動で対応点を入力するには、カラー画像上とデプス画像上で時間をかけて正確に入力する必要がある。また、カラー画像とデプス画像の対応点を入力する効率を上げるための校正冶具を撮影する方法も考えられるが、校正冶具がなければ計算ができない。
本発明は、かかる問題に鑑み成されたものであり、ユーザの手などのオブジェクトに対するオブジェクトモデルの3次元形状を利用して、HMD等に装着される撮像部の視点位置と、その撮像部とは独立したセンサとの相対位置姿勢を、特別な冶具を使うことなく比較的短時間に求める技術を提供しようとするものである。
この課題を解決するため、例えば本発明のキャリブレーション装置は以下の構成を備える。すなわち、
撮像手段及び表示手段を搭載するヘッドマウントディスプレイ(HMD)であって、当該HMDを装着する体験者の手の位置及び形状を検出するためのセンサを更に搭載した前記HMDを用い、前記撮像手段で得た画像中の前記体験者の手の位置と、前記センサを用いて検出した手の位置とを一致させるためのキャリブレーションを行うキャリブレーション装置であって、
前記撮像手段で得た画像にキャリブレーションを行うための指標となる手を表すガイド画像を合成した合成画像を生成し、前記表示手段に出力するガイド画像出力手段と、
該ガイド画像出力手段による前記合成画像を前記表示手段に表示させた状態で、前記撮像手段の撮像で得た画像から前記体験者の手の輪郭線を第1の輪郭線として抽出する輪郭線抽出手段と、
前記センサで得た信号から前記体験者の手の3次元形状を計測する計測手段と、
該計測手段によって得られた3次元形状を前記画像に投影する投影手段と、
前記投影手段によって得られた3次元形状の輪郭線を第2の輪郭線とし、前記第1の輪郭線と前記第2の輪郭線の対応づけを行う対応付け手段と、
前記対応付け手段で対応付けた対応点同士の距離を算出する距離算出手段と、
前記距離を最小化する、前記撮像手段と前記センサとの間の相対的位置姿勢を算出する位置姿勢算出手段とを有する。
本発明によれば、仮想現実感システムおよび複合現実感システムに用いるHMD等に搭載される撮像部と、搭載撮像部とは独立し体験者の把持操作の検出するためのセンサとの間の相対位置姿勢を、特別な計測冶具を用いることなく、比較的短時間で推定することができる。
第1の実施形態におけるシステムの機能ブロック構成図。 第1の実施形態におけるHMDとセンサと手の位置関係を示す模式図。 第1の実施形態におけるキャリブレーションの処理手順を示すフローチャート。 第1の実施形態におけるハンドモデルとステレオカメラに映る手との間の対応点を説明するための図。 HMDに表示されるハンドモデルと手の位置関係を説明するための図。 実施形態におけるガイド映像の例を示す図。 第1の実施形態における装置のハードウェア構成を示すブロック図。 第2の実施形態におけるシステムの機能ブロック構成図。 第2の実施形態におけるキャリブレーションの処理手順を示すフローチャート。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
図1は、本第1の実施形態が適用する複合現実感システムの機能ブロック構成図を示している。図7は同システムのハードウェア構成図を示している。CPU701は本システムを動作させるためのアプリケーションを実行することでシステム全体の制御を司る。図1に示す各処理部は、CPU701により処理で実現するものである。ただし、それらの幾つかは、CPU701とは独立したハードウェアでもって実現しても構わない。
HMD(Head Mounted Display)150は、カメラ107と表示部110から構成される頭部装着用の表示装置である。図2の模式図に示しているように、実施形態のHMD150は、HMDを装着する体験者(ユーザ)の視点位置にカメラ107が配置されており、カメラ107で撮影した実写映像を表示部110に表示するビデオシースルー方式としている。ビデオシースルー方式のHMDの場合は、カメラ107を体験者の視点位置姿勢として扱う方法が一般的である。なお、実施形態のHMD150はビデオシースルー方式としているが、これはあくまで例示であると理解されたい。例えば、実写映像を表示部110に表示しないバーチャルリアリティ用のHMDにも適用可能である。その場合は、カメラ107はシースルー用のカメラとしてではなく、計測対象物である手を撮影するためのカメラとして利用すればよい。
カメラ107は、HMD150の筐体に固定されており、現実空間を所定のフレームレート(例えば30フレーム/秒)で撮像する。本実施形態では非特許文献1で示しているような手を撮影することにも用いる。カメラ107による撮像で得た画像は、画像記憶部103に記録される。このカメラ107は、2台の実カメラで構成され、左目用の実カメラと右目用の実カメラがHMD装着者の両眼に近い位置に配置される。以降、カメラ107による撮像で得た左右一対の画像を、ステレオカメラ画像と称する。
センサ101は、カメラ107とは独立して、手と指の形状を計測し、ハンドモデル505を生成するセンサである。このセンサ101は、カメラ107と同等に、1秒当たり複数回の検出処理を行うものとする。本実施形態におけるセンサ101は、非特許文献2に開示されたKinectを用いるものとする。すなわち、デプスセンサで手と指の3次元形状を推定し、3次元ポリゴンのハンドモデルとして出力する。センサ101は、図2に示しているように、HMD105に固定して装着される場合もある。このときのHMD105の視点位置に対する手の相対位置姿勢を求めることが本実施形態の目的である。
ハンドモデル生成部105は、センサ101の入力から手の形状を表す3次元のポリゴンモデルをハンドモデル505として生成する。本実施形態では、Microsoft製のKinect SDKを用いるものとする。すなわち、デプスセンサから手の3次元領域を抽出し、参照データとマッチングすることにより、リアルタイムに変化する手にあったハンドモデルを出力する。
投影部102は、計測されたハンドモデル505をステレオカメラ画像の2枚の画像に投影する。投影のパラメータは、センサ101とカメラ107の相対位置姿勢を表す4×4の行列Mvと、カメラの画角とアスペクト比を持つ透視投影パラメータである3×4の行列Mpである。透視投影パラメータであるMpは、カメラの内部パラメータであり、左右のカメラごとに予め求めておくものとする。MvとMpの行列に対して、センサ101で計測したハンドモデル505の3次元頂点Pを次式(1)で計算することで、カメラ107のステレオカメラ画像における点P’を算出する。3次元頂点P’をステレオカメラ画像上に投影することにより、ハンドモデル505の輪郭線を決定することができる。
P’=Mv * Mp * P …(1)
輪郭抽出部109は、画像記憶部103に格納されたステレオカメラ画像から特定の色領域を抽出し、対象物の輪郭線を算出する。本実施形態では、肌色に該当する色を特定するピクセル情報(色情報)をあらかじめ設定しておき、ステレオカメラ画像から手の輪郭線を抽出する。輪郭抽出部109は、この処理は、カメラ107で得た左右のそれぞれの画像に対して行う。
輪郭線マッチング部111は、輪郭線抽出部109で抽出した、ステレオカメラ画像における手の輪郭線と、投影部102で算出したハンドモデル505の輪郭線とを対応付ける処理(マッチング処理)を行う。
図4を参照して、輪郭線マッチング部111における輪郭線の対応付けを説明する。輪郭線の対応付けは、後述する描画部119でステレオカメラ画像上に表示しているガイド映像の情報を利用してもよい。すなわち、ガイド映像の親指の領域に近い手201の輪郭線で曲率の高い点401と、ハンドモデル505の親指の先端点を投影部102で投影した点付近にある曲率が高い点402を対応付ける。他にも、人差し指の先端(図4の403と404)や指の付け根の領域で曲率が高い部位を対応付ければよい。ハンドモデル505とステレオカメラ画像501の輪郭線上の点を対応付けた点を対応点と呼ぶ。この処理は、カメラ107から画像が入力されるたびに実行せず、入力部113の入力があった場合にのみ実行すればよい。
入力部113は、キーボード等に代表される外部入力装置704を介して体験者の指示入力があると、その指示があったことを示す信号を輪郭線マッチング部111に供給する。例えば、体験者が自身の手201を後述するガイド上に配置できたことを知らせるために使う。
相対位置姿勢算出部115は、輪郭線マッチング部111で対応付けた左右のステレオカメラ画像における手201の輪郭線の特徴点と、ハンドモデル505を投影した輪郭線の特徴点との画像上の距離算出を行い、その距離が最小になるような、相対位置姿勢のパラメータMvを求める。例えば、Mvには、センサ101とカメラ107の相対的な位置と姿勢のパラメータから構成されていてもよい。位置は3次元空間のX,Y,Zのパラメータで定義され、姿勢は3×3の9パラメータで定義されていてもよい。これらの位置と姿勢のパラメータを操作し、対応付けた点の画像上の距離が最小になるように繰り返し計算を行い、距離が閾値以内となったときのMvを最終的な相対位置姿勢とする。例えば、2次元画像上の対応点の距離を最小化する方法として、ICP(Iterative Closest Point)アルゴリズムを用いればよい。なお実施形態は、2次画像上の対応点の距離を最小化する方法で相対位置姿勢を求めることに限定されるものではなく、パターンマッチングやエッジマッチングによる画像処理方法を用いてもよい。
出力部117は、算出した相対位置姿勢のパラメータMvを出力する。ここで出力した相対位置姿勢のパラメータMvは、別のタイミングで読み出され、HMD150を装着した体験者が、自身の手を使ってCG(Computer Graphics)モデルの把持操作をするときに位置ずれの少ない操作を実現することができる。
描画部119は、HMD150に内蔵されている表示部110に、ハンドモデルを、現在の相対位置姿勢のパラメータMvを用いて描画する。このとき入力した画像記憶部103に格納されているステレオカメラ画像上にハンドモデルを半透明で合成して描画してもよい。半透明で表示することにより、ハンドモデル505とステレオカメラ画像における手202の輪郭線とがどの程度一致しているかを、HMDを装着している体験者にフィードバックすることができる。また、描画部119は、図6に示すガイド601をステレオカメラ画像の上に合成して表示部110に表示する。ガイド601を表示することにより、HMDを装着している体験者の手をカメラ映像のどのあたりに表示すればよいかを指示することができ、輪郭線マッチング部111における特徴点のマッチングを補助することができる。
図3は、本実施形態におけるキャリブレーション処理の詳細を示すフローチャートである。図3を用いて本実施形態の処理の詳細を説明する。
S305にて、画像記憶部103は、カメラ107からステレオ画像(左右視点の2枚の画像)を取得し、その取得したステレオカメラ画像をRAM702に格納する。
S310にて、描画部119はガイド用の映像を描画する。描画部119は、画像記憶部103から現在処理しているステレオカメラ画像を取得し、背景画像として設定する。次に描画部119は、図6に示すガイド画像601をステレオカメラ画像501の上に合成して表示する。
S320にて、輪郭抽出部109はステレオカメラ画像から手の色領域を抽出する。このとき輪郭抽出部109は、メモリに予め格納されていた肌色に該当する色のピクセル情報を読み出し、ステレオカメラ画像上で該当するピクセルを抽出する。さらに、輪郭抽出部109は、抽出した領域から輪郭線を抽出し、RAM703に輪郭線を特定する座標を格納する。
S340にて、ハンドモデル生成部105は、センサ101からの手の形状に関する情報を受け、リアルタイムの手・指の姿勢を反映した3次元のポリゴンモデルを作成する。実施形態のセンサ101はデプスセンサであるものとしているので、画素の値が奥行きの程度を表すデプス画像から、手・指の姿勢を反映した3次元のポリゴンモデルが作成されることになる。
体験者は、ガイドの前に自身の手をかざし、準備ができれば外部入力装置704を操作する。入力部113はその操作を検出すると、輪郭線マッチング部111に対して、体験者からの入力があったことを通知する。S350にて、輪郭線マッチング部111は、入力部113からのユーザ入力の通知があったか否かを確認する。入力が無いと判定した場合、輪郭線マッチング部111は、処理をS305に戻す。一方、入力が有ったと判定した場合、輪郭線マッチング部111は、処理をS360に進める。
S360にて、輪郭線マッチング部111は、投影部102を使ってハンドモデルをステレオ画像上に投影する。さらに輪郭線マッチング部111は、ハンドモデルとカメラ画像上の手の輪郭線との対応点を求め、対応点間の画像上の距離が最小になるような相対位置姿勢Mvを繰り返し計算によって求める。
S370にて、描画部119は、算出された相対位置姿勢Mvに基づいて、投影部102でハンドモデル505をステレオカメラ画像501上に投影して合成画像を生成する。そして、描画部119は合成画像を表示部110に出力する。この結果、体験者は、ハンドモデル505と自身の手201との整合性をHMD150で確認することができる。
S380にて、出力部117が相対位置姿勢算出部115におけるMvの算出が既定回数以上で、対応点の距離の残差が閾値以下であれば処理を終了する。もし、既定回数が既定回数に満たない場合、または距離の残差が閾値より大きい場合は、算出した相対位置姿勢Mvの算出精度が低いため、処理を終了せず、処理をS305に戻す。
以上の処理により、HMD150を装着した体験者の視点位置に対するセンサ101の相対位置姿勢Mvを、特別な冶具などを用意せずに計測対象物である手を用いて算出できる。さらに、ステレオ画像上にハンドモデルの配置結果を合成表示させ、相対位置姿勢Mvの推定状況をHMD150で可視化させることができる。
[第2の実施形態]
上記第1の実施形態では、ハンドモデルをステレオ画像上に投影して2次元画像上で対応点の距離を最小にする方法で相対位置姿勢Mvを求めた。しかし、2次元画像上における対応点の距離を最小にすることに限定されるものではない。本第2の実施形態では、3次元空間上で対応点を求め、3次元上の距離を最小化する方法で相対位置姿勢Mvを求める例を説明する。
図8は、本第2の実施形態が適用する複合現実感システムの機能ブロック構成図を示している。第1の実施形態(図1)と同じ参照符号は同じ機能を有するものとそし、その説明は省略する。
輪郭モデル生成部801は、輪郭抽出部109で抽出したステレオカメラの手の領域の輪郭線を入力し、ステレオマッチングして奥行値を持った輪郭線を生成する。奥行値を持った輪郭線の生成、特許文献1の方法を用いればよい。すなわち、輪郭モデル生成部801は、2つのステレオ画像に対して、水平方向に等間隔でエピポーラ線を複数設定し、エピポーラ線と輪郭線が交わる点をサンプリング点とし、左右の画像でサンプリング点を対応付ける。さらに、対応付けた点を既知である左右のカメラ間距離を用いて三角測量によって輪郭線の奥行き値を求め、サンプリング点以外の輪郭線上の点は、奥行値の線形補間によって奥行値を決定する。このように各画像の輪郭線に対して、奥行値を持たせることができる。このように輪郭線に奥行値を付加したモデルを輪郭モデルと呼ぶ。
輪郭線マッチング部803は、センサ座標系上で出力されたハンドモデル505を現在設定されている相対位置姿勢Mvによってビュー座標系に座標変換する。続いて、輪郭線マッチング部803は、輪郭モデルで各指の先端の点で曲率が高い3次元点とハンドモデルの各指の先端の点で曲率が高い3次元点との対応を取る。このときの3次元の対応点同士で3次元空間の距離が最小になるような相対位置姿勢Mvを求める。3次元空間の対応点の距離が最小になるようなパラメータを計算する方法として、例えば、ICP(Iterative Closest Point)アルゴリズムを用いればよい。なお、本実施形態は、輪郭線のマッチングに特定の特徴点を用いることに限定されるものではなく、3次元上のエッジや、モデルの面の情報を対応付けることで相対位置姿勢Mvを求めてもよい。上記以外の構成の処理は、第1の実施形態で説明した通りで良い。
次に、本第2の実施形態におけるキャリブレーション処理を、図9のフローチャートを参照して説明する。なお、第1の実施形態(図3)と同じ処理については同符号を付して説明を省略し、第1の実施形態と異なる処理について説明する。
S910にて、輪郭モデル生成部801は、輪郭抽出部109から入力したステレオ画像上の輪郭線の情報から奥行値の成分を持つ輪郭モデルを生成し、生成した輪郭モデルをRAM702に記録する。
S920にて、輪郭線マッチング部803は、ハンドモデルと輪郭モデルの対応点を決定して、対応点の3次元距離が最小になるような相対位置姿勢Mvを算出する。
[他の実施形態]
上記第1の実施形態では、体験者の「手」を計測対象としてセンサ101とカメラ107の相対位置姿勢を算出したが、対象物は手に限定されるものではなく、センサがリアルタイムに動く対象物体の形状を計測でき、ステレオカメラで輪郭線を抽出することができる物体であれば適用可能である。例えば、人体モデルを計測対象とする場合が考えられる。この場合は、センサとしては、Microsoft社のKinectを用いて人体モデル全体を計測し、ステレオカメラではグリーンバックを背景として人を撮影することで輪郭線を抽出することができる。また、顔についても同様に計測対象とすることができる。
また、第1の実施形態では、センサ101がHMD150に固定(装着)されることを想定していたが、HMD150にセンサ101を固定配置することに限定されるものではなく、空間にセンサ101が配置されていてもよい。例えば、第1の実施形態の図3で示す処理において、S350の処理を省略し、リアルタイムに相対位置姿勢Mvを求めればよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
101…センサ、102…投影部、103…画像記憶部、105…ハンドモデル生成部、107…カメラ、109…輪郭抽出部、110…表示部、111…輪郭線マッチング部、115…相対位置姿勢算出部、119…描画部

Claims (12)

  1. 撮像手段及び表示手段を搭載するヘッドマウントディスプレイ(HMD)であって、当該HMDを装着する体験者の手の位置及び形状を検出するためのセンサを更に搭載した前記HMDを用い、前記撮像手段で得た画像中の前記体験者の手の位置と、前記センサを用いて検出した手の位置とを一致させるためのキャリブレーションを行うキャリブレーション装置であって、
    前記撮像手段で得た画像にキャリブレーションを行うための指標となる手を表すガイド画像を合成した合成画像を生成し、前記表示手段に出力するガイド画像出力手段と、
    該ガイド画像出力手段による前記合成画像を前記表示手段に表示させた状態で、前記撮像手段の撮像で得た画像から前記体験者の手の輪郭線を第1の輪郭線として抽出する輪郭線抽出手段と、
    前記センサで得た信号から前記体験者の手の3次元形状を計測する計測手段と、
    該計測手段によって得られた3次元形状を前記画像に投影する投影手段と、
    前記投影手段によって得られた3次元形状の輪郭線を第2の輪郭線とし、前記第1の輪郭線と前記第2の輪郭線の対応づけを行う対応付け手段と、
    前記対応付け手段で対応付けた対応点同士の距離を算出する距離算出手段と、
    前記距離を最小化する、前記撮像手段と前記センサとの間の相対的位置姿勢を算出する位置姿勢算出手段と
    を有することを特徴とするキャリブレーション装置。
  2. 前記輪郭抽出手段は、予め設定した肌色の色情報を用いて、前記撮像手段で得た画像から前記体験者の手の輪郭線を抽出することを特徴とする請求項1に記載のキャリブレーション装置。
  3. 前記撮像手段は、前記体験者の左右の眼に提示する映像を撮像するためのステレオカメラであることを特徴とする請求項1又は2に記載のキャリブレーション装置。
  4. ステレオ画像を撮像するための撮像手段及び表示手段を搭載するヘッドマウントディスプレイ(HMD)であって、当該HMDを装着する体験者の手の位置及び形状を検出するためのセンサを更に搭載したHMDを用い、前記撮像手段で得た画像中の前記体験者の手の位置に、前記センサで検出した手の位置を一致させるためのキャリブレーションを行うキャリブレーション装置であって、
    前記撮像手段で得たステレオ画像にキャリブレーションを行うための指標となる手を表すガイド画像を合成した合成画像を生成し、前記表示手段に出力するガイド画像出力手段と、
    該ガイド画像出力手段による前記合成画像を前記表示手段に表示させた状態で、前記撮像手段の撮像で得たステレオ画像から、前記体験者の手の輪郭線を第1の輪郭線として抽出する輪郭線抽出手段と、
    前記輪郭抽出手段で抽出した第1の輪郭線に基づいてステレオマッチングを用いて3次元の輪郭モデルを生成する輪郭モデル生成手段と、
    前記センサで得た信号から前記体験者の手の3次元形状を取得する取得手段と、
    前記輪郭モデルの特徴点と前記3次元形状における特徴点の対応付けを行う対応付け手段と、
    前記対応付け手段で対応付けた対応点同士の3次元の距離を算出する距離算出手段と、
    前記距離を最小化する前記撮像手段と前記センサとの相対位置姿勢を算出する位置姿勢算出手段と
    を有することを特徴とするキャリブレーション装置。
  5. 前記輪郭抽出手段は、予め設定した肌色の色情報を用いて、前記撮像手段で得た画像から前記体験者の手の輪郭線を抽出することを特徴とする請求項に記載のキャリブレーション装置。
  6. 撮像手段及び表示手段を搭載するヘッドマウントディスプレイ(HMD)であって、当該HMDを装着する体験者の手の位置及び形状を検出するためのセンサを更に搭載した前記HMDを用い、前記撮像手段で得た画像中の前記体験者の手の位置と、前記センサを用いて検出した手の位置とを一致させるためのキャリブレーションを行うキャリブレーション装置の制御方法であって、
    前記撮像手段で得た画像にキャリブレーションを行うための指標となる手を表すガイド画像を合成した合成画像を生成し、前記表示手段に出力するガイド画像出力工程と、
    該ガイド画像出力工程による前記合成画像を前記表示手段に表示させた状態で、前記撮像手段の撮像で得た画像から前記体験者の手の輪郭線を第1の輪郭線として抽出する輪郭線抽出工程と、
    前記センサで得た信号から前記体験者の手の3次元形状を計測する計測工程と、
    該計測工程によって得られた3次元形状を前記画像に投影する投影工程と、
    前記投影工程によって得られた3次元形状の輪郭線を第2の輪郭線とし、前記第1の輪郭線と前記第2の輪郭線の対応づけを行う対応付け工程と、
    前記対応付け工程で対応付けた対応点同士の距離を算出する距離算出工程と、
    前記距離を最小化する、前記撮像手段と前記センサとの間の相対的位置姿勢を算出する位置姿勢算出工程と
    を有することを特徴とするキャリブレーション装置の制御方法。
  7. 前記輪郭抽出工程は、予め設定した肌色の色情報を用いて、前記撮像手段で得た画像から前記体験者の手の輪郭線を抽出することを特徴とする請求項6に記載のキャリブレーション装置の制御方法。
  8. 前記撮像手段は、前記体験者の左右の目に提示する映像を撮像するためのステレオカメラであることを特徴とする請求項6又は7に記載のキャリブレーション装置の制御方法。
  9. ステレオ画像を撮像するための撮像手段及び表示手段を搭載するヘッドマウントディスプレイ(HMD)であって、当該HMDを装着する体験者の手の位置及び形状を検出するためのセンサを更に搭載したHMDを用い、前記撮像手段で得た画像中の前記体験者の手の位置に、前記センサで検出した手の位置を一致させるためのキャリブレーションを行うキャリブレーション装置の制御方法であって、
    前記撮像手段で得たステレオ画像にキャリブレーションを行うための指標となる手を表すガイド画像を合成した合成画像を生成し、前記表示手段に出力するガイド画像出力工程と、
    該ガイド画像出力工程による前記合成画像を前記表示手段に表示させた状態で、前記撮像手段の撮像で得たステレオ画像から、前記体験者の手の輪郭線を第1の輪郭線として抽出する輪郭線抽出工程と、
    前記輪郭抽出工程で抽出した第1の輪郭線に基づいてステレオマッチングを用いて3次元の輪郭モデルを生成する輪郭モデル生成工程と、
    前記センサで得た信号から前記体験者の手の3次元形状を取得する取得工程と、
    前記輪郭モデルの特徴点と前記3次元形状における特徴点の対応付けを行う対応付け工程と、
    前記対応付け工程で対応付けた対応点同士の3次元の距離を算出する距離算出工程と、
    前記距離を最小化する前記撮像手段と前記センサとの相対位置姿勢を算出する位置姿勢算出工程と
    を有することを特徴とするキャリブレーション装置の制御方法。
  10. 前記輪郭抽出工程は、予め設定した肌色の色情報を用いて、前記撮像手段で得た画像から前記体験者の手の輪郭線を抽出することを特徴とする請求項9に記載のキャリブレーション装置の制御方法。
  11. コンピュータに、請求項6乃至請求項10のいずれか1項に記載の方法の各工程を実行させるためのプログラム。
  12. 請求項10に記載のプログラムを格納する、コンピュータが読み取り可能な記憶媒体。
JP2019145657A 2019-08-07 2019-08-07 キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体 Active JP7321029B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145657A JP7321029B2 (ja) 2019-08-07 2019-08-07 キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145657A JP7321029B2 (ja) 2019-08-07 2019-08-07 キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2021025947A JP2021025947A (ja) 2021-02-22
JP7321029B2 true JP7321029B2 (ja) 2023-08-04

Family

ID=74663066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145657A Active JP7321029B2 (ja) 2019-08-07 2019-08-07 キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体

Country Status (1)

Country Link
JP (1) JP7321029B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012013514A (ja) 2010-06-30 2012-01-19 Canon Inc 情報処理装置、3次元位置算出方法及びプログラム
JP2014112057A (ja) 2012-12-05 2014-06-19 Denso It Laboratory Inc 期待結合精度のリアルタイム表示方法および形状計測システム
JP2016170610A (ja) 2015-03-12 2016-09-23 セコム株式会社 三次元モデル処理装置およびカメラ校正システム
JP2018084954A (ja) 2016-11-24 2018-05-31 セイコーエプソン株式会社 プログラム、姿勢導出方法、姿勢導出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012013514A (ja) 2010-06-30 2012-01-19 Canon Inc 情報処理装置、3次元位置算出方法及びプログラム
JP2014112057A (ja) 2012-12-05 2014-06-19 Denso It Laboratory Inc 期待結合精度のリアルタイム表示方法および形状計測システム
JP2016170610A (ja) 2015-03-12 2016-09-23 セコム株式会社 三次元モデル処理装置およびカメラ校正システム
JP2018084954A (ja) 2016-11-24 2018-05-31 セイコーエプソン株式会社 プログラム、姿勢導出方法、姿勢導出装置

Also Published As

Publication number Publication date
JP2021025947A (ja) 2021-02-22

Similar Documents

Publication Publication Date Title
JP5818857B2 (ja) 情報処理装置およびその制御方法
KR101902702B1 (ko) 치축 추정 프로그램, 치축 추정 장치 및 그 방법, 및 치형 데이터 생성 프로그램, 치형 데이터 생성 장치 및 그 방법
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
KR101707707B1 (ko) 인체 모델을 이용한 가상 아이템 피팅 방법 및 가상 아이템의 피팅 서비스 제공 시스템
JP5430565B2 (ja) 電子ミラー装置
US9607439B2 (en) Information processing apparatus and information processing method
KR20180112756A (ko) 표정 검출 성능을 갖는 머리-장착형 디스플레이
JP5709440B2 (ja) 情報処理装置、情報処理方法
KR101556992B1 (ko) 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템
JP4677281B2 (ja) 画像処理方法、画像処理装置
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP5762600B1 (ja) 情報処理装置及び情報処理方法
JP2014106543A (ja) 画像処理装置、画像処理方法及びプログラム
JP2009020761A (ja) 画像処理装置及びその方法
JP2016071645A (ja) オブジェクト3次元モデル復元方法、装置およびプログラム
JP2017194301A (ja) 顔形状測定装置及び方法
JP7363962B2 (ja) 処理装置、検出装置、システム及びプログラム
JP7321029B2 (ja) キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体
JP7029253B2 (ja) 情報処理装置及びその方法
US10798360B2 (en) Information processing system, method for controlling same, and program
JP2019046472A (ja) 画像処理装置、画像処理方法
US20200258193A1 (en) Information processing apparatus, information processing method, and storage medium
WO2020036114A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2022112228A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R151 Written notification of patent or utility model registration

Ref document number: 7321029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151