JP2014199559A - 視点推定装置及びその分類器学習方法 - Google Patents

視点推定装置及びその分類器学習方法 Download PDF

Info

Publication number
JP2014199559A
JP2014199559A JP2013074591A JP2013074591A JP2014199559A JP 2014199559 A JP2014199559 A JP 2014199559A JP 2013074591 A JP2013074591 A JP 2013074591A JP 2013074591 A JP2013074591 A JP 2013074591A JP 2014199559 A JP2014199559 A JP 2014199559A
Authority
JP
Japan
Prior art keywords
viewpoint
point
classifier
likelihood
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013074591A
Other languages
English (en)
Other versions
JP6016242B2 (ja
Inventor
小林 達也
Tatsuya Kobayashi
達也 小林
加藤 晴久
Haruhisa Kato
晴久 加藤
米山 暁夫
Akio Yoneyama
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013074591A priority Critical patent/JP6016242B2/ja
Publication of JP2014199559A publication Critical patent/JP2014199559A/ja
Application granted granted Critical
Publication of JP6016242B2 publication Critical patent/JP6016242B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】観察対象とそのカメラ画像との特徴点マッチングの精度及び速度を、計算コストや使用メモリ量を増加させることなく向上させる。
【解決手段】特徴点検出部31は、カメラ画像Icaから多数の特徴点を検出して、その局所特徴情報と共に出力する。マッチング部32は、各特徴点及びその局所特徴情報を対応点分類器32aに適用して各特徴点に対応する観察画像の各対応点及びその尤度を出力する。視点推定部33は、対応点及びその尤度を視点分類器33bに適用してカメラ画像の視点を推定する。視点分類器33bの確率分布データベース33cは、観察対象またはその3Dモデルを異なる視点で投影した各投影画像から検出される各特徴点に対応した観察対象またはその3Dモデルの対応点及びその尤度を、前記投影画像の視点を教師ラベルとして視点分類器33bに適用することで構築され、複数の対応点及びその尤度の入力に対して視点の確率を与える。
【選択図】図2

Description

本発明は、観察対象の三次元座標と当該観察対象をカメラで撮影して得られるカメラ画像の二次元座標とを対応付けてカメラ姿勢の推定等に活用する点推定装置及びその分類器学習方法に係り、特に、計算コストや使用メモリ量を増加させることなく高速かつ高精度での対応付けを可能にする点推定装置及びその分類器学習方法に関する。
近年、現実空間の映像をコンピュータで処理して更なる情報を付加するAR(拡張現実感)技術が、WEBカメラの接続されたPCや、カメラ付き携帯電話端末上で実現されるようになっている。AR技術では、カメラ画像内の対象物に対するカメラ姿勢(カメラの外部パラメータ)を推定する必要があり、センサや基準マーカを利用した手法等が用いられている。また、形状や画像情報が既知である三次元物体を対象物としてカメラ姿勢を推定する技術が検討されている。
特許文献1には、三次元物体を複数の視点から撮影した記憶画像を用意し、入力画像と記憶画像の間の特徴点マッチングによって最も類似する記憶画像(視点)を特定する技術が開示されている。視点の特定後は、その記憶画像と入力画像との間で対応点が取得されてカメラ姿勢が算出される。
非特許文献1には、特徴点のクラス分類によって、特徴点を対象物に対する視点の候補に分類することで視点を推定する技術が開示されている。特許文献2には、対象物に対する視点の情報を利用して、高精度な対応点を取得する技術が開示されている。
特開2012−83855号公報 特願2012−174320号
平井 悠貴, 鈴木 覚, 藤吉 弘亘, "2段階のRandomized Treesによる高速3次元物体認識", 画像センシングシンポジウム, IS1-15, 2011.
特許文献1,2では、視点推定の精度が記憶画像の撮影角度に依存するため、特定の方向から撮影された対象物に対しては十分な視点推定の精度が得られないという問題点があった。
非特許文献1では、限られた姿勢の範囲で撮影された三次元物体に対しては十分な視点推定精度が得られるものの、推定する視点の候補が増えた場合に推定精度が劣化する。そのため、対象とする三次元物体が任意の方向から撮影された入力画像に対しては十分な視点推定精度が得られないという問題点があった。
さらに、特許文献1及び非特許文献1の従来技術をカメラ姿勢推定問題に適用した場合、視点の推定と対応点の取得の2段階のマッチング処理を行う必要があることで、カメラ姿勢推定処理全体の計算量が増加するという問題点があった。
本発明の目的は、上述の技術課題を解決し、観察対象とそのカメラ画像との特徴点マッチングの精度及び速度を、計算コストや使用メモリ量を増加させることなく向上させることを可能にした視点推定装置及びその分類器学習方法を提供することにある。
上記の目的を達成するために、本発明は、視点推定装置及びその分類器学習方法において、以下のような手段を講じた点に特徴がある。
(1)本発明の視点推定装置は、観察対象を撮影した二次元のカメラ画像から特徴点を検出する特徴点検出手段と、各特徴点から局所特徴情報を抽出する局所特徴情報抽出手段と、各特徴点及びその局所特徴情報を対応点分類器に適用して各特徴点に対応する観察画像の各対応点及びその尤度を出力するマッチング手段と、対応点及びその尤度を視点分類器に適用して前記カメラ画像の視点を推定する視点推定手段とを具備した。
(2)本発明の視点推定装置の分類器学習方法は、観察対象またはその3Dモデルの投影画像から検出される各特徴点及びその局所特徴情報を、当該各特徴点に対応した観察対象またはその3Dモデルの3D座標を教師ラベルとして分類器に適用し、局所特徴情報の入力に対して3D座標の確率を与える対応点確率分布を学習させることを特徴とする。
本発明によれば、あらゆる方向から撮影され得る三次元物体に対するカメラ視点を、計算コストや使用メモリ量を増加させることなく高精度で推定することが可能になる。
本発明が適用されるARシステムの構成を示した機能ブロック図である。 カメラ視点推定部(3a)の機能ブロック図である。 Ferns分類器を用いたパッチ画像の分類方法を示した図である。 カメラの焦点位置の計算方法を示した図である。 学習処理の手順をフローチャートである。 対応点分類器の学習方法を示した図である。 視点候補の設定方法を示した図である。 距離方向への離散化に対応した視点候補の設定方法を示した図である。 視点推定処理の手順を示したフローチャートである。
以下、図面を参照して本発明の実施形態について詳細に説明する。図1は、本発明の視点推定装置が適用されるARシステムの主要部の構成を示した機能ブロック図であり、携帯電話、スマートフォン、タブレット端末、PDAあるいはノートPCなどの情報端末に実装して使用される。
撮像装置(カメラ)1は、各情報端末等に搭載されているデジタルカメラモジュールやオプションとして追加されるWEBカメラ装置であり、観察対象Mを撮影して、そのカメラ画像Icaを表示装置2及びカメラ姿勢推定装置3に出力する。
前記カメラ姿勢推定装置3は、観察対象Mを撮影した際の当該観察対象Mに対するカメラ1の相対的な視点(カメラ視点)を推定するカメラ視点推定部3a、カメラ視点の推定結果に基づいて、カメラ画像の二次元(2D)座標と観察対象Mの三次元(3D)座標との対応関係(2D-3D)を高精度化する高精度化部3b及び当該高精度化された2D-3D対応関係に基づいてカメラ姿勢を算出するカメラ姿勢算出部3cを主要な構成とする。
付加情報データベース(DB)4は、ハードディスクドライブや半導体メモリモジュール等により構成された記憶装置であり、観察対象Mの位置をARシステムが認識した際に、表示装置2上で観察対象Mに重畳表示するCG、二次元画像あるいはテキスト情報を保持しており、カメラ姿勢推定装置3が推定したカメラ姿勢に対応する観察対象Mの付加情報を表示装置2へ提供する。
前記表示装置2は、カメラ1が連続的に取得するカメラ画像Icaをユーザに掲示できるモニタ装置であり、携帯端末のディスプレイでも良い。また、ヘッドマウントディスプレイ(HMD)のような形態でも良く、特にシースルー型のHMDの場合はカメラ画像Icaを表示せず、視界に付加情報のみを重畳して表示することも可能である。表示装置2がディスプレイの場合、カメラ画像Icaに付加情報DB4から入力された付加情報を、カメラ姿勢推定装置から入力されたカメラ姿勢によって補正された位置に重畳表示する。
カメラ姿勢算出部3cは、前記高精度化された2D-3D対応関係、ならびにカメラの内部及び外部パラメータに基づいて、観察対象Mに対するARシステム1の姿勢を推定する。
従来から、3D座標と2D座標とのマッチから、その関係を説明するカメラ姿勢(カメラの外部パラメータ)を推定する手法が検討されており、3D座標と2D座標との関係は、一般的に次式(1)で表される。
[u,v,1]^T=sAW[X,Y,Z,1]^T … (1)
ここで、[u,v],[X,Y,Z]は、それぞれ2次元ピクセル座標値及び3D座標値を表し、[・]^Tは転置行列を表す。また、A、Wは、それぞれカメラの内部パラメータ及び外部パラメータ(カメラ姿勢)を表す。カメラの内部パラメータは予めカメラキャリブレーションによって求められる。カメラ姿勢W=[R,t]=[r1,r2,r3,t]であり、回転行列Rと並進ベクトルtとで表される。3D座標[X,Y,Z,1]^Tと2D座標[u,v,1]^Tとのマッチ及びカメラの内部パラメータを用いて、カメラ姿勢Wを推定できる。
なお、図1では観察対象Mの例として地球儀を扱っているが、直方体形状、円柱形状、球形状等のプリミティブな構造を持つ三次元物体や、より複雑な三次元構造を持つ物体が観察対象である場合でも、その三次元モデルが与えられれば同様のARシステムが構築可能である。
そして、このようなARシステムによれば、観察対象Mに応じた重畳表示を行うことで、ユーザに直観的な情報掲示を実現することが可能である。地球儀の例では、高度を視覚表示するように地表を重畳表示することや、過去の大陸形状の重畳表示、国境や国名に変更があった際に更新した情報を重畳表示、ジェスチャー認識と組み合わせて指差した国名を表示するといった利用例が想定される。
図2は、前記カメラ視点推定部3aの主要部の構成を示した機能ブロック図であり、観察対象Mを撮影したカメラ画像Icaは特徴点検出部31に入力される。この特徴点検出部31は特徴点検出器31aを含み、カメラ画像Icaから多数の特徴点を検出して、その局所特徴情報と共にマッチング部32へ出力する。
前記特徴点検出器31aとしては、Harrisコーナー検出器、Hessianキーポイント検出器あるいはFASTコーナー検出器など、特徴を持つ二次元座標を特定できるものであれば、あらゆる種類のものが使用可能である。本実施形態では、特許文献2の手法で採用されているFASTコーナー検出器を利用する。
前記局所特徴情報は、例えばSIFTディスクリプタやSURFディスクリプタ等、特徴点を識別するための情報であり、一般的な局所特徴情報であれば、あらゆる種類のものが使用可能である。本実施形態では、特許文献2で採用されているパッチ画像が局所特徴情報として用いられる。
パッチ画像とは、原画像から特定の大きさで切り出された画像であり、本実施形態では特徴点を中心とした任意の幅と高さ(例えば、幅32ピクセル、高さ32ピクセル)の画像のことである。特徴点が大きさ(スケール)の情報も持つ場合、その大きさに応じてパッチ画像の幅と高さを変更することが可能である。パッチ画像の取得は一般的な局所特徴情報と比較して画像の切り出しのみで済むため、非常に高速であるという特徴がある。
マッチング部32において、対応点分類器32aは前記パッチ画像をクラス分類可能なFerns分類器であり、図3に示したように複数の決定木(Fern)から構成され、各Fernはパッチ画像を分岐させる決定規則を持つ多段構成の分岐点(ノード)とノードの末端(リーフ)から構成される。
決定規則は、パッチ画像からランダムに選択した2点のピクセルの輝度の大小関係によって左右に分岐させるというものである。後段のノードは、パッチ画像を別の決定規則によってさらに分岐させるが、同じ段数のノードは同じ決定規則を持つ。そのためにノードの種類はノードの段数と等しい。最終的にパッチ画像が到達するノード(リーフノード)がパッチ画像の分類結果となる。
各リーフノードは、後述する事前学習によって獲得した、パッチ画像に対応するクラスの離散的な確率分布を保持しており、区間の総数は分類候補となるクラスの総数である。Ferns分類器は複数のFernを持っているため、パッチ画像を各Fernに入力し、それぞれの到達したリーフノードに対応する確率分布を取得し、単純ベイズ分類器を用いてその確率を乗算すれば最終的なパッチ画像に対応するクラスの確率分布を決定できる。
前記確率分布の事前学習は、予め教師ラベル(正解のクラス)の付与されたパッチ画像をFerns分類器に適用し、分類結果を各リーフへ投票、分類することにより行われる。本実施形態では、観察対象Mの3Dモデルを様々なカメラパラメータで二次元に投影した画像(投影画像)から多数の特徴点及びそのパッチ画像を検出し、各特徴点の3Dモデルにおける三次元座標(3D座標)を教師ラベルとして各パッチ画像を対応点分類器32aに適用することにより、各パッチ画像の3D座標を確率的に推定するための確率分布DB32bが構築される。
したがって、このようにして学習された対応点分類器32aに、観察対象Mのカメラ画像Icaから検出された特徴点のパッチ画像が入力されると、その出力として当該パッチ画像に対応した3Dモデルの3D座標(対応点)及びその尤度が得られる。
視点推定部33において、ベクトル生成部33aは、前記マッチング部32から2D-3Dの対応関係ごとに出力される対応点及びその尤度をベクトル化して「対応点&尤度ベクトルH」を生成する。本実施形態では、例えば5つの3D座標P1,P2,P3,P5,P6が対応点として検出され、それぞれの尤度が1,2,3,4,5であれば、前記対応点&尤度ベクトルHは次式(2)で表される。
対応点&尤度ベクトルH=[1,2,3,0,4,5] …(2)
視点分類器33bは、前記対応点分類器32aと同様のFerns分類器であり、前記マッチング部32から出力される対応点及びその尤度、またはそのベクトル表現である前記対応点&尤度ベクトルHを入力として視点の推定結果を出力する。このような視点分類器33bの確率分布DB33cは、例えば以下のようにして学習、構築される。なお、前記対応点&尤度ベクトルHをクラス分類する手法は前記Ferns分類器に限定されるものではなく、Randomized Trees分類器やk近傍法等、一般的に用いられるあらゆるクラス分類手法が適用可能である。
本実施形態では、対応点分類器32aの確率分布DB32bを学習、構築する際に、既に観察対象Mの3Dモデルを様々なカメラパラメータで二次元に投影した画像から特徴点が検出されているので、検出された特徴点を前記対応点分類器32aに入力することで、カメラパラメータごとに、各特徴点に対応する3Dモデルの対応点及びその尤度を取得することが可能である。
そして、前記投影画像の視点は、当該投影画像を取得した際のカメラパラメータ(観察対象Mの3Dモデルを投影した際のカメラの外部パラメータ)を用いて、3Dモデルを中心としたカメラの焦点の位置を計算し、最近傍の視点候補を選択することで得ることができる。ここで、カメラの焦点位置Pは、図4に示したように、原点の同次座標0及びカメラの外部パラメータ行列Wを用いて次式(3)により計算できる。
P=W-10 …(3)
そこで、本実施形態では各投影画像を取得した際のカメラパラメータの視点を教師ラベルとして、当該投影画像から検出された各特徴点を前記対応点分類器32aに適応して得られる対応点&尤度ベクトルHを視点分類器33aへ適用することにより、視点分類器33bの確率分布DB33cが学習、構築される。
このように、本実施形態では観察対象Mの投影画像から得られた対応点&尤度ベクトルHを、当該投影画像の視点を教師ラベルとして視点分類器33bに適用することで視点の確率分布が学習され、その後、観察対象Mのカメラ画像Icaが入力された際は、当該カメラ画像Icaから得られた対応点&尤度ベクトルHを前記視点分類器33bに適用することにより、当該カメラ画像Icaの視点が推定される。
次いで、本実施形態の動作を、各分類器32a,33bの確率分布DB32b,33cを学習する「学習処理」、及び学習済みの確率分布DB32b,33cを用いて、任意のカメラ画像Icaの視点を推定する「視点推定処理」に分けて具体的に説明する。
図5は、前記学習処理の手順を示したフローチャートであり、図6、7は各分類器32a,33bの分類動作を模式図に示した図である。ここでは、観察対象Mの形状、模様、色彩、大きさ及び各部の3D座標が忠実に表現された3Dモデルが、予め既知の手法により構築、用意されているものとして説明する。
視点については、3Dモデルの中心から均等な距離にあり、かつ互いに均等に離れるように配置する必要があることから、図7に一例を示したように、3Dモデルを中心部に収容できる多面体(本実施形態では、80面体)を仮想し、その頂点(本実施形態では、42個)が視点候補として定義される。
そして、約一万の視点を、その焦点位置に基づいて最近傍のいずれかの頂点候補に関連づけて同一グループに分類し、同一グループの視点には、その視点候補を代表する同一の視点ラベルが付される。すなわち、本実施形態では約一万個の視点が42個の視点候補のいずれかと同一のグループに分類され、同一グループの視点には同一の視点ラベルが付される。前記カメラの焦点位置Pは、前記図4に示したように、カメラの外部パラメータ行列Wを用いて計算できる。
本実施形態では、多面体の頂点を用いることで、観察対象Mに対する視点をその方向に関して略等間隔に離散化しているが、視点を距離に関しても略等距離に離散化するのであれば、図8に示したように、大きさの異なる多面体を階層的に複数配置し、各視点を最近傍のいずれかの多面体の頂点に分類すれば良い。
このような距離に関する離散化は、3Dモデルの中心からの距離を段階的に大きくした80面体を、例えば図8に示したように3つ配置し、これらの頂点126個(42個×3)を視点候補とすることで実現される。
図5を参照し、ステップS1では、カメラパラメータの異なる全ての投影画像(本実施形態では、約1万)から特徴点が検出される。ステップS2では、検出された各特徴点と対応する3Dモデルの3D座標とが対応付けられ、各特徴点のパッチ画像が前記各投影画像から抽出される。
ステップS3では、図6に示したように、各特徴点のパッチ画像が、当該特徴点と対応付けられた3D座標を教師ラベルとして、前記マッチング部32の対応点分類器32aへ適用される。ステップS4では、全ての特徴点について、そのパッチ画像の分類器32aへの適用が完了したか否かが判定される。完了していなければステップS3へ戻り、注目する特徴点を切り替えながら前記対応点分類器32aへの適用が繰り返される。完了していればステップS5へ進み、これまでの分類結果が対応点の確率分布として前記対応点確率分布DB32bに登録される。
ステップS6では、前記視点推定部33のベクトル生成部33aにおいて、前記マッチング部32から出力される対応点及びその尤度に基づいて前記対応点&尤度ベクトルHが生成され、当該投影画像のカメラパラメータの一つである視点と紐付けられる。ステップS7では、前記視点を教師ラベルとして前記対応点&尤度ベクトルHが視点分類器33bに適用される。ステップS8では、全ての投影画像に関して、その対応点&尤度ベクトルHの分類器33bへの適用が完了したか否かが判定される。完了していればステップS9へ進み、これまでの分類結果が視点の確率分布として視点確率分布DB33cに登録される。
図9は、前記視点推定処理の手順を示したフローチャートであり、ステップS21では、前記特徴点検出部31において、入力されたカメラ画像Icaから特徴点が検出される。ステップS32では、各特徴点のパッチ画像が前記カメラ画像Icaから抽出される。ステップS33では、前記各特徴点のパッチ画像が対応点分類器32aに適用され、各特徴点の対応点(3D座標)及びその尤度が出力される。
ステップS24において、全ての特徴点について対応点及びその尤度の出力が終了したと判定されるとステップS25へ進み、前記ベクトル生成部33aにおいて、前記対応点及びその尤度が対応点&尤度ベクトルHに変換される。ステップS26では、前記対応点&尤度ベクトルHが視点分類器33bへ適用されて、前記カメラ画像Icaの視点推定結果が出力される。
図1へ戻り、前記高精度化部3bは、尤度が上位N個の対応点のみを残し、他の対応点は削除することにより対応点を高精度化する。すなわち、前記高精度化前の対応点には、観察対象Mを予め様々な視点で観察して得られた各画像から検出された特徴点の対応点候補が、ここでは、前記事前の学習段階において、前記決定された視点で観察対象Mを観察したときには得られなかった特徴点の3D座標が対応点候補から除外される。これにより、前記事前の学習段階において例えば前記決定された視点とは正反対の視点で観察対象Mを観察したとき得られた特徴点のように、今回の対応点としてあり得ない特徴点の3D座標が対応点候補から除外される。前記カメラ姿勢算出部3cは、前記高精度化された3D座標対応関係に基づいてカメラ姿勢を推定する。
なお、上記の実施形態では、2D-3D対応関係ごとに得られる対応点及びその尤度を直接的にベクトル化した対応点&尤度ベクトルHに基づいて視点が推定されるものとして説明したが、本発明はこれのみに限定されるものではなく、3Dモデルの各ポリゴンに含まれる対応点数に基づいて視点を推定するようにしても良い。
例えば、観察対象Mが直方体形状であれば、その3Dモデルは12面の三角形ポリゴンから構成され、各対応点は12面のいずれかのポリゴンに含まれる。そして、本実施形態では各対応点の3D座標が既知なので、ポリゴン面ごとに対応点数を集計してヒストグラム化すれば、投影画像ごとに得られる2D-3D対応関係を、12次元のベクトルで表現できる。
また、前記ヒストグラム化に際しては、前記尤度で閾値処理又は重み付けを行い、例えば閾値処理を行うのであれば、尤度が所定値未満の対応点は集計から除外するようにしても良い。なお、四角形のポリゴンを採用した場合にはポリゴン数が6面となるので6次元のベクトルが生成される。例えば、6つのポリゴン面Q1,Q2,Q3,Q5,Q6の対応点数がそれぞれ1,2,3,4,5であれば、そのベクトルHは次式(4)で表される。
H=[1,2,3,0,4,5] …(4)
1…撮像装置(カメラ),2…表示装置,3…カメラ姿勢推定装置,3a…カメラ視点推定部,3b…高精度化部,3c…カメラ姿勢算出部,4…付加情報データベース(DB),31…特徴点検出部,31a…特徴点検出器,32…マッチング部,32a…対応点分類器,32b…確率分布DB,33…視点決定部,33a…ベクトル生成部,33b…視点分類器,33c…確率分布DB

Claims (5)

  1. 観察対象を撮影したカメラ画像の視点を推定する視点推定装置において、
    観察対象を撮影した二次元のカメラ画像が入力されるカメラ画像入力手段と、
    前記カメラ画像から特徴点を検出する特徴点検出手段と、
    前記カメラ画像の各特徴点から局所特徴情報を抽出する局所特徴情報抽出手段と、
    前記各特徴点及びその局所特徴情報を対応点分類器に適用して各特徴点に対応する観察画像の各対応点及びその尤度を出力するマッチング手段と、
    前記対応点及びその尤度を視点分類器に適用して前記カメラ画像の視点を推定する視点推定手段とを具備したことを特徴とする視点推定装置。
  2. 前記視点推定手段は、前記各対応点及びその尤度に基づいて多次元のベクトルを生成する手段をさらに具備し、
    前記視点分類器は、前記ベクトルの入力に対して視点を出力することを特徴とする請求項1に記載の視点推定装置。
  3. 前記視点推定手段は、
    前記各対応点が観察対象のいずれのポリゴン面に含まれるかを判定する手段と、
    各ポリゴン面に含まれる対応点数を当該各対応点の尤度に基づいて見直す手段と、
    前記各ポリゴン面に含まれる前記見直し後の対応点数に基づいて多次元のベクトルを生成する手段とをさらに具備し、
    前記視点分類器は、前記ベクトルの入力に対して視点を出力することを特徴とする請求項1に記載の視点推定装置。
  4. 観察対象を撮影したカメラ画像の視点を推定する視点推定装置の分類器学習方法において、
    観察対象またはその3Dモデルの投影画像から検出される各特徴点及びその局所特徴情報を、当該各特徴点に対応した観察対象またはその3Dモデルの3D座標を教師ラベルとして分類器に適用し、局所特徴情報の入力に対して3D座標の確率を与える対応点確率分布を学習させることを特徴とする視点推定装置の分類器学習方法。
  5. 観察対象を撮影したカメラ画像の視点を推定する視点推定装置の分類器学習方法において、
    観察対象またはその3Dモデルを異なる視点で投影した各投影画像から検出される各特徴点に対応した観察対象またはその3Dモデルの対応点及びその尤度を、前記投影画像の視点を教師ラベルとして分類器に適用し、複数の対応点及びその尤度の入力に対して視点の確率を与える視点確率分布を学習させることを特徴とする視点推定装置の分類器学習方法。
JP2013074591A 2013-03-29 2013-03-29 視点推定装置及びその分類器学習方法 Expired - Fee Related JP6016242B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013074591A JP6016242B2 (ja) 2013-03-29 2013-03-29 視点推定装置及びその分類器学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013074591A JP6016242B2 (ja) 2013-03-29 2013-03-29 視点推定装置及びその分類器学習方法

Publications (2)

Publication Number Publication Date
JP2014199559A true JP2014199559A (ja) 2014-10-23
JP6016242B2 JP6016242B2 (ja) 2016-10-26

Family

ID=52356421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013074591A Expired - Fee Related JP6016242B2 (ja) 2013-03-29 2013-03-29 視点推定装置及びその分類器学習方法

Country Status (1)

Country Link
JP (1) JP6016242B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211988A (ja) * 2016-05-27 2017-11-30 トヨタ自動車株式会社 階層型コンテキストアウェアによる手足の検出
JP2019003407A (ja) * 2017-06-15 2019-01-10 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
JP2020166473A (ja) * 2019-03-29 2020-10-08 三井情報株式会社 学習済みモデル生成装置、プログラム及び学習済みモデル生成システム
CN113850236A (zh) * 2021-11-29 2021-12-28 深圳市优必选科技股份有限公司 3d姿态估计方法、装置和计算机设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252162A (ja) * 2005-03-10 2006-09-21 Toshiba Corp パターン認識装置及びその方法
JP2008003799A (ja) * 2006-06-21 2008-01-10 Toyota Motor Corp データベース作成装置及びデータベース作成プログラム
JP2011154501A (ja) * 2010-01-27 2011-08-11 Sony Corp 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
JP2012083855A (ja) * 2010-10-07 2012-04-26 Toyota Motor Corp 物体認識装置及び物体認識方法
JP2014032623A (ja) * 2012-08-06 2014-02-20 Kddi Corp 画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252162A (ja) * 2005-03-10 2006-09-21 Toshiba Corp パターン認識装置及びその方法
JP2008003799A (ja) * 2006-06-21 2008-01-10 Toyota Motor Corp データベース作成装置及びデータベース作成プログラム
JP2011154501A (ja) * 2010-01-27 2011-08-11 Sony Corp 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
JP2012083855A (ja) * 2010-10-07 2012-04-26 Toyota Motor Corp 物体認識装置及び物体認識方法
JP2014032623A (ja) * 2012-08-06 2014-02-20 Kddi Corp 画像処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016026707; 平井 悠貴: '2段階のRandomized Treesによる高速3次元物体認識' 第17回 画像センシングシンポジウム講演論文集 [CD-ROM] IS4-15, 20110608, P.IS4-15-1〜IS4-15-8, 画像センシング技術研究会 *
JPN6016026708; 野引 敦: '2視点多点像による高精度視点位置推定' 電子情報通信学会論文誌 D-II Vol.J75-D-II No.6, 19920625, P.1058-1066, 社団法人 電子情報通信学会 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211988A (ja) * 2016-05-27 2017-11-30 トヨタ自動車株式会社 階層型コンテキストアウェアによる手足の検出
JP2019003407A (ja) * 2017-06-15 2019-01-10 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
JP7003455B2 (ja) 2017-06-15 2022-01-20 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
JP2020166473A (ja) * 2019-03-29 2020-10-08 三井情報株式会社 学習済みモデル生成装置、プログラム及び学習済みモデル生成システム
JP7267068B2 (ja) 2019-03-29 2023-05-01 三井情報株式会社 学習済みモデル生成装置、プログラム及び学習済みモデル生成システム
CN113850236A (zh) * 2021-11-29 2021-12-28 深圳市优必选科技股份有限公司 3d姿态估计方法、装置和计算机设备及存储介质

Also Published As

Publication number Publication date
JP6016242B2 (ja) 2016-10-26

Similar Documents

Publication Publication Date Title
Zeng et al. 3dmatch: Learning local geometric descriptors from rgb-d reconstructions
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
WO2019042426A1 (zh) 增强现实场景的处理方法、设备及计算机存储介质
EP2711670B1 (en) Visual localisation
JP6011102B2 (ja) 物体姿勢推定方法
CN108734087B (zh) 物体自动识别方法以及***、购物设备和存储介质
EP3547256B1 (en) Extracting a feature descriptor for an image feature
JP5833507B2 (ja) 画像処理装置
Li et al. Object detection in the context of mobile augmented reality
Gao et al. A stable and accurate marker-less augmented reality registration method
CN109033989B (zh) 基于三维点云的目标识别方法、装置及存储介质
CN112435338B (zh) 电子地图的兴趣点的位置获取方法、装置及电子设备
JP6017343B2 (ja) データベース生成装置、カメラ姿勢推定装置、データベース生成方法、カメラ姿勢推定方法、およびプログラム
JP6016242B2 (ja) 視点推定装置及びその分類器学習方法
CN114882106A (zh) 位姿确定方法和装置、设备、介质
JP6086491B2 (ja) 画像処理装置およびそのデータベース構築装置
JP5931646B2 (ja) 画像処理装置
JP6304815B2 (ja) 画像処理装置ならびにその画像特徴検出方法、プログラムおよび装置
Heisterklaus et al. Image-based pose estimation using a compact 3d model
JP5975484B2 (ja) 画像処理装置
Bojanić et al. A review of rigid 3D registration methods
KR20160049639A (ko) 부분 선형화 기반의 3차원 영상 정합 방법
Yang et al. Design flow of motion based single camera 3D mapping
Lin et al. 6D object pose estimation with pairwise compatible geometric features
Bermudez et al. Comparison of natural feature descriptors for rigid-object tracking for real-time augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160905

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160921

R150 Certificate of patent or registration of utility model

Ref document number: 6016242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees