JP5559749B2 - 位置検出装置、位置検出方法及びコンピュータプログラム - Google Patents

位置検出装置、位置検出方法及びコンピュータプログラム Download PDF

Info

Publication number
JP5559749B2
JP5559749B2 JP2011151924A JP2011151924A JP5559749B2 JP 5559749 B2 JP5559749 B2 JP 5559749B2 JP 2011151924 A JP2011151924 A JP 2011151924A JP 2011151924 A JP2011151924 A JP 2011151924A JP 5559749 B2 JP5559749 B2 JP 5559749B2
Authority
JP
Japan
Prior art keywords
feature point
image
distance
coordinates
detection target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011151924A
Other languages
English (en)
Other versions
JP2013019721A (ja
Inventor
亮 石井
史朗 小澤
隆文 向内
宣彦 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011151924A priority Critical patent/JP5559749B2/ja
Publication of JP2013019721A publication Critical patent/JP2013019721A/ja
Application granted granted Critical
Publication of JP5559749B2 publication Critical patent/JP5559749B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から検出対象の位置を検出する技術に関する。
従来、コンピュータビジョンの分野では、複数のカメラの情報を利用して人物などの動く対象の検出や追跡に関する研究が多く行われている。例えば、以下のような処理が実現されている。まず、複数の視点から検出対象を観測し、画像上における検出対象の領域(シルエット)を抽出したシルエット画像を用意する。さらに、検出を行う空間の三次元構造(以下、「三次元環境情報」という。)と、検出に利用する全てのカメラの内部パラメータ及び外部パラメータ(以下、まとめて「カメラパラメータ」という。)と、を予め計測しておく。三次元環境中に人物モデルを配置し、先に計測したカメラパラメータを持つ仮想のカメラでこのシーンを撮影すると、シルエット画像のシミュレーションを行うことができる。人物モデルに楕円体を用いて、生成したシミュレーション画像とシルエット画像とを比較することによって、一般的な環境の下でも、複数の人物を検出することが可能となる(例えば非特許文献1参照)。
また、複数のカメラではなく一台のカメラで画像上の検出対象を検出し、その位置を検出する技術も提案されている(例えば特許文献1参照)。
特開2009−301241号公報
T. Osawa,X. Wu, K. Sudo, K. Wakabayashi, H. Arai and T. Yasuno, "MCMC based Multi-body Tracking Using Full 3D Model of Both Target and Environment," in Proc. of IEEE Intl Conf. on Advanced Video and Signal based Surveillance(AVSS 2007), Sep. 2007.pp.1〜6.(NTT)
しかしながら、従来の技術には以下のような問題があった。非特許文献1に開示された技術は、人物の三次元空間上での位置を直接予測し、複数のカメラからの情報を統合することで検出を行う。しかし、複数のカメラの情報を統合するためには、カメラのシャッターを同期することや、カメラ間の姿勢情報を予め取得しておくことなどが必要となる。そのため、運用上のコストが高くなってしまうという問題があった。
また、特許文献1に開示された技術は、画像中の人のシルエットの大きさや位置情報と、一般人の平均的な大きさや位置情報とを比較して大まかに人物の位置を検出する。そのため、検出する位置の精度が低くなってしまうという問題があった。
上記事情に鑑み、本発明は、検出対象の位置を精度良く検出する技術の提供を目的としている。
本発明の一態様は、所定の位置で所定の向きに設置された撮像装置によって撮像された第一の画像から、検出対象に含まれる第一特徴点及び第二特徴点の平面座標の位置を検出する第一の特徴点検出部と、前記第一特徴点及び前記第二特徴点の空間座標の位置を取得し、前記第一特徴点と第二特徴点との間の平面座標における距離と空間座標における距離との比を算出する算出部と、前記撮像装置によって撮像された第二の画像から、検出対象に含まれる第一特徴点及び第二特徴点の平面座標の位置を検出する第二の特徴点検出部と、前記距離比と、前記第二の画像における前記第一特徴点及び前記第二特徴点の平面座標と、に基づいて前記第一特徴点及び前記第二特徴点の空間座標の位置を検出する検出部と、を備える位置検出装置である。
本発明の一態様は、所定の位置で所定の向きに設置された撮像装置によって撮像された第一の画像から、検出対象に含まれる第一特徴点及び第二特徴点の平面座標の位置を検出するステップと、前記第一特徴点及び前記第二特徴点の空間座標の位置を取得し、前記第一特徴点と第二特徴点との間の平面座標における距離と空間座標における距離との比を算出するステップと、前記撮像装置によって撮像された第二の画像から、検出対象に含まれる第一特徴点及び第二特徴点の平面座標の位置を検出するステップと、前記距離比と、前記第二の画像における前記第一特徴点及び前記第二特徴点の平面座標と、に基づいて前記第一特徴点及び前記第二特徴点の空間座標の位置を検出するステップと、を有する位置検出方法である。
本発明の一態様は、所定の位置で所定の向きに設置された撮像装置によって撮像された第一の画像から、検出対象に含まれる第一特徴点及び第二特徴点の平面座標の位置を検出するステップと、前記第一特徴点及び前記第二特徴点の空間座標の位置を取得し、前記第一特徴点と第二特徴点との間の平面座標における距離と空間座標における距離との比を算出するステップと、前記撮像装置によって撮像された第二の画像から、検出対象に含まれる第一特徴点及び第二特徴点の平面座標の位置を検出するステップと、前記距離比と、前記第二の画像における前記第一特徴点及び前記第二特徴点の平面座標と、に基づいて前記第一特徴点及び前記第二特徴点の空間座標の位置を検出するステップと、をコンピュータに実行させるためのコンピュータプログラムである。
本発明により、検出対象の位置を精度良く検出することが可能となる。
位置検出システムのシステム構成を表すシステム構成図である。 第一〜第三特徴点の概略を示す図である。 顔の向きの概略を表す図である。 前処理部の処理の流れを表すフローチャートである。 位置検出部の処理の流れを表すフローチャートである。
図1は、位置検出システム1のシステム構成を表すシステム構成図である。位置検出システム1は、撮像装置10と位置検出装置100とを備える。位置検出システム1は、一台の撮像装置10によって撮像された画像に基づいて、検出する対象となっている人物の顔の空間座標を算出する。以下、位置検出システム1の詳細について説明する。
撮像装置10は、動画像を撮像するビデオカメラである。撮像装置10は、撮像した画像のデータを位置検出装置100に対して出力する。撮像装置10は、カメラパラメータが変わらないように、所定の位置で所定の向きに固定されている。
位置検出装置100は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、位置検出プログラムを実行する。位置検出装置100は、位置検出プログラムを実行することによって、前処理部20及び位置検出部30を備える装置として機能する。なお、位置検出装置100の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。位置検出プログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。
前処理部20は、撮像装置10によって撮像された前処理用の画像(以下、「参照画像」という。)を用いて前処理を実行する。前処理部20は、前処理の実行によって、参照画像に写っている検出対象(人物の顔)が有する第一特徴点及び第二特徴点の間の平面距離と空間距離との比(以下、「距離比」という。)を算出する。第一特徴点は、人物の左目の内側の端の点である。第二特徴点は、人物の右目の内側の端の点である。平面距離は、撮像された画像における平面座標系(二次元座標系)での距離(画素間の距離)を表す。空間距離は、三次元の実空間における空間座標系(三次元座標系)での距離を表す。
位置検出部30は、前処理部20によって算出された距離比に基づいて、検出対象の空間座標系での位置(空間座標)を算出する。より具体的には、位置検出部30は、距離比と、第一特徴点及び第二特徴点それぞれの平面座標と、検出対象の向きと、に基づいて、第一特徴点及び第二特徴点の空間座標を算出する。位置検出部30は、算出した第一特徴点及び第二特徴点に基づいて、検出対象の空間座標を出力する。例えば、位置検出部30は、第一特徴点又は第二特徴点の空間座標そのものを検出対象の空間座標として出力しても良い。また、位置検出部30は、第一特徴点及び第二特徴点の空間座標に基づいて検出対象の空間座標を算出しても良い。
次に、前処理部20の詳細について説明する。前処理部20は、特徴点検出部201、姿勢取得部202、距離情報取得部203、算出部204を備える。
特徴点検出部201は、撮像装置10によって撮像された参照画像において、第一特徴点、第二特徴点、第三特徴点を検出する。図2は、第一〜第三特徴点の概略を示す図である。第三特徴点は、鼻頭を表す点である。特徴点検出部201が第一特徴点、第二特徴点、第三特徴点を検出するための技術としては、既存のどのような技術が適用されても良い。
姿勢取得部202は、検出対象の顔の向きを取得する。姿勢取得部202は、検出対象の顔の向きとして、例えば第一特徴点、第二特徴点、及び第三特徴点を含む平面(以下、「特徴平面」という。)の空間的な傾きを算出する。
姿勢取得部202の具体的な処理の例として、以下のような処理がある。例えば、姿勢取得部202は、人の顔の対称性を利用し、左右の顔のパーツ(目、瞳孔、鼻孔、耳、口の端など左右対称に存在するもの)を結ぶ線分を含む図形の歪みに基づいて顔の向きを算出しても良い。以下、姿勢取得部202が顔の向きを算出する処理の詳細について説明する。
例えば、姿勢取得部202は、画像平面上の第一特徴点eye_2l(x_e2l,y_e2l)、画像平面上の第二特徴点eye_2r(x_e2r,y_e2r)、画像平面上の第三特徴点nose_2(x_n2,y_n2)の3点を結ぶ線分から形成される三角形の歪みに基づいて顔の向きを算出する。一般的に、左右の目の中心下方に鼻がある。そのため、上記の三角形が二等辺三角形であるという前提条件のもと、上記の三角形の歪みに基づいて、三次元空間における三角形の姿勢を算出することができる。以下の説明では、姿勢取得部202が算出する顔の向きを、Posture(θ,θ,θ)と表す。図3は、顔の向きの概略を表す図である。
距離情報取得部203は、姿勢取得部202が処理に用いた画像と同一の画像における第一特徴点と撮像装置10との間の距離情報、第二特徴点と撮像装置10との間の距離情報を取得する。距離情報取得部203が取得する各距離情報は、空間座標系の距離である。
距離情報取得部203に実装される距離情報の取得方法は、既存のどのような技術に基づいたものであっても良い。距離情報取得部203に適用できる技術の例として、シェイプフロムフォーカス法、シェイプフロムデフォーカス法、シェイプフロムモーション法、シェイプフロムシェーディング法などがある。シェイプフロムフォーカス法は、最もよく合焦したときのフォーカス位置から距離を求める方法である。シェイプフロムデフォーカス法は、合焦距離の異なる複数の画像から相対的なぼけ量を求め、ぼけ量と距離との相関関係をもとに距離を求める方法である。シェイプフロムモーション法は、時間的に連続する複数の画像における所定の特徴点の移動軌跡をもとに物体までの距離を求める方法である。シェイプフロムシェーディング法は、画像における陰影、対象となる物体の反射特性および光源情報をもとに物体までの距離を求める方法である。
算出部204は、特徴点検出部201によって検出された第一特徴点及び第二特徴点の平面座標と、姿勢取得部202によって取得された顔の向きと、距離情報取得部203によって取得された距離情報と、に基づいて第一特徴点と第二特徴点との間の空間距離を算出する。そして、算出部204は、算出された空間距離に基づいて距離比を算出する。以下、距離比の算出処理の具体例について説明する。
撮像された画像の画素ピッチを縦P、横P、画像の解像度を縦S、横S、撮像装置10のレンズ中心を原点としたときの第一特徴点及び第二特徴点の空間座標をeye_3l(x_e3l,y_e3l,z_e3l)、eye_3r(x_e3r,y_e3r,z_e3r)、第一特徴点と撮像装置10との間の距離をDl、第二特徴点と撮像装置10との間の距離をDr、検出対象の人間の頭部を球型と仮定したときの半径をr、とする。また、R、R、Rは、それぞれx軸、y軸、z軸中心の回転行列である。Tは、平行移動行列である。この場合、算出部204は、第一特徴点の空間座標eye_3l(x_e3l,y_e3l,z_e3l)、第二特徴点の空間座標eye_3r(x_e3r,y_e3r,z_e3r)を、以下に示す式1、式2でそれぞれ算出する。
Figure 0005559749
Figure 0005559749
算出部204は、第一特徴点と第二特徴点との間の空間距離Del−erを、以下に示す式3で算出する。
Figure 0005559749
算出部204は、第一特徴点及び第二特徴点の平面距離(画素数)に対する、第一特徴点及び第二特徴点の空間距離の比率Drateを、以下に示す式4で算出する。
Figure 0005559749
図4は、前処理部20の処理の流れを表すフローチャートである。まず、特徴点検出部201が、前処理用の参照画像において第一特徴点及び第二特徴点を検出する(ステップS101)。次に、姿勢取得部202が、参照画像における検出対象の顔の向きを取得する(ステップS102)。次に、距離情報取得部203が、第一特徴点と撮像装置10との間の距離、第二特徴点と撮像装置10との間の距離をそれぞれ取得する(ステップS103)。
次に、算出部204が、第一特徴点及び第二特徴点の間の平面距離を取得する(ステップS104)。次に、算出部204が、第一特徴点及び第二特徴点の間の空間距離を取得する(ステップS105)。そして、算出部204が、第一特徴点及び第二特徴点の平面距離と空間距離との比(距離比)を算出する(ステップS106)。以上で前処理部20による前処理が終了する。
次に、位置検出部30の詳細について説明する。位置検出部30は、特徴点検出部301、姿勢算出部302、検出部303を備える。特徴点検出部301及び姿勢算出部302の構成は、前処理部20が備える特徴点検出部201及び姿勢取得部202と同じであるため説明を省略する。なお、位置検出部30の各機能部は、参照画像を撮像した撮像装置と同一の撮像装置10によって撮像された画像であって、参照画像とは異なるタイミングで撮像された画像(以下、「対象画像」という。)に対して処理を行い、対象画像における検出対象の空間座標系の位置を検出する。特徴点検出部301が対象画像において検出する第一特徴点の平面座標をeye_2l’(x_e2l’,y_e2l’)、第二特徴点の平面座標をeye_2r’(x_e2r’,y_e2r’))と表す。また、姿勢算出部302が対象画像において算出する顔の向きをPosture’(θ’,θ’,θ’)と表す。
対象画像は、撮像装置10から連続して継続的に位置検出装置100に入力されても良い。例えば、撮像装置10が撮像した動画像の各フレームの画像が対象画像として位置検出装置100に入力されても良い。また、撮像装置10が撮像した動画像の全フレームのうち、所定の間隔の各フレームが対象画像として位置検出装置100に入力されても良い。また、撮像装置10が撮像した動画像の全フレームが位置検出装置100に入力され、位置検出部30が所定の間隔の各フレームを対象画像として処理しても良い。
検出部303は、前処理部20の算出部204が算出した距離比に基づいて、撮像装置10が撮像した対象画像における第一特徴点の空間座標eye_3l’(x_e3l’,y_e3l’,z_e3l’)、第二特徴点の空間座標eye_3r’(x_e3r’,y_e3r’,z_e3r’)を算出する。
検出部303の処理の具体例について説明する。撮像装置10の水平の画角をθcx度、垂直の画角をθcy度としたとき、第一特徴点の空間座標の各座標値は以下に示す式5〜式7のように表される。
Figure 0005559749
Figure 0005559749
Figure 0005559749
また、第二特徴点の空間座標の各座標値は以下に示す式8〜式10のように表される。
Figure 0005559749
Figure 0005559749
Figure 0005559749
図5は、位置検出部30の処理の流れを表すフローチャートである。まず、特徴点検出部301が、第一特徴点及び第二特徴点を対象画像において検出する(ステップS201)。次に、姿勢算出部302が、検出対象の向きを対象画像において取得する(ステップS202)。そして、検出部303が、第一特徴点及び第二特徴点の空間座標を算出する(ステップS203)。検出部303は、第一特徴点及び第二特徴点の空間座標に基づいて、三次元の実空間における検出対象の位置(空間座標)を検出する。
このように構成された位置検出システム1では、前処理部20において予め検出対象の距離比を算出しておく。そして、位置検出部30は、対象画像において検出対象の空間座標を検出する際に、第一特徴点や第二特徴点と撮像装置10との間の距離を算出することなく、各特徴点の平面座標と距離比とに基づいて処理を行う。このように、検出対象に含まれる特徴点を検出して空間座標を検出しているため、検出される空間座標の精度を高めることができる。また、第一特徴点や第二特徴点と撮像装置10との間の距離を算出する必要が無いため、精度を維持しつつも、複数台の撮像装置を用いることなく高速に処理を行うことが可能となる。
<変形例>
位置検出システム1が検出する対象は、人物の顔に限定される必要は無い。例えば、人物の手や足や胴体や全身であっても良いし、人以外の生物であっても良いし、飛行機や自動車などの物体であっても良い。
撮像装置10は、静止画像を撮像するスチルカメラであっても良い。
前処理部20に備えられる特徴点検出部201と、位置検出部30に備えられる特徴点検出部301とは、一体に構成されても良い。前処理部20に備えられる姿勢取得部202と、位置検出部30に備えられる姿勢算出部302とは、一体に構成されても良い。
第一特徴点は上述した具体例に限定されない。例えば、第一特徴点は目の中央点であっても良いし、眉毛、瞳孔、口、耳などに基づいて決まる点(例えば端点や中心点など)であっても良いし、その他の点であっても良い。第二特徴点及び第三特徴点も同様である。
姿勢取得部202は、人の顔の対称性を利用し、左右の顔のパーツの大きさの違いに基づいて顔の向きを算出しても良い。また、姿勢取得部202は、鼻や口といった顔の中央に位置するパーツの顔領域中の位置関係に基づいて、顔の向きを算出しても良い。
上記の説明では、第一特徴点、第二特徴点、第三特徴点の三点に基づいて顔の向きを算出する。しかしながら、顔の向きを算出する際に用いる特徴点は、必ずしも第一特徴点及び第二特徴点である必要は無い。例えば、第四特徴点及び第五特徴点を定義し、第三〜第五特徴点に基づいて顔の向きが算出されても良い。
距離情報取得部203が処理に用いる画像は、姿勢取得部202が処理に用いた画像と必ずしも同一である必要は無く、撮像された時刻が時間軸で十分に近接していれば良い。十分に近接しているとは、検出対象の移動距離が十分に小さく、位置検出装置100の位置検出精度が許容できる範囲に収まることである。
Dl及びDrの値は、いずれか一方の値又は両者の統計値(例えば平均値)に一致させても良い。
また、位置検出システム1では、撮像装置10は一台でも高精度に処理を行うことが可能であるが、複数台の撮像装置10を備えることを妨げるものではない。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…位置検出システム, 10…撮像装置, 20…前処理部, 30…位置検出部, 201…特徴点検出部, 202…姿勢取得部, 203…距離情報取得部, 204…算出部, 301…特徴点検出部, 302…姿勢算出部, 303…検出部

Claims (3)

  1. 所定の位置で所定の向きに設置された撮像装置によって撮像された第一の画像から、検出対象に含まれる第一特徴点、第二特徴点及び第三特徴点の平面座標の位置を検出する第一の特徴点検出部と、
    前記第一の画像における平面座標から前記検出対象の向きを算出する第一の姿勢取得部と、
    前記第一特徴点と前記撮像装置との間の第一の距離情報、及び前記第二特徴点と前記撮像装置との間の第二の距離情報を取得する距離情報取得部と、
    前記第一特徴点及び前記第二特徴点の平面座標と、前記平面の空間的な傾きと、前記第一の距離情報及び第二の距離情報とに基づいて、前記第一特徴点及び前記第二特徴点の空間座標の位置を取得し、前記第一特徴点と第二特徴点との間の平面座標における距離と空間座標における距離との比を算出する算出部と、
    前記撮像装置によって撮像された第二の画像から、検出対象に含まれる第一特徴点、第二特徴点及び第三特徴点の平面座標の位置を検出する第二の特徴点検出部と、
    前記第二の画像における平面座標から前記検出対象の向きを算出する第二の姿勢取得部と、
    前記距離比と、前記第二の画像における前記第一特徴点及び前記第二特徴点の平面座標と、前記第二の画像における検出対象の向きと、に基づいて前記第一特徴点及び前記第二特徴点の空間座標の位置を検出する検出部と、を備える位置検出装置。
  2. 所定の位置で所定の向きに設置された撮像装置によって撮像された第一の画像から、検出対象に含まれる第一特徴点、第二特徴点及び第三特徴点の平面座標の位置を検出するステップと、
    前記第一の画像における平面座標から前記検出対象の向きを算出するステップと、
    前記第一特徴点と前記撮像装置との間の第一の距離情報、及び前記第二特徴点と前記撮像装置との間の第二の距離情報を取得するステップと、
    前記第一特徴点及び前記第二特徴点の平面座標と、前記平面の空間的な傾きと、前記第一の距離情報及び第二の距離情報とに基づいて、前記第一特徴点及び前記第二特徴点の空間座標の位置を取得し、前記第一特徴点と第二特徴点との間の平面座標における距離と空間座標における距離との比を算出するステップと、
    前記撮像装置によって撮像された第二の画像から、検出対象に含まれる第一特徴点、第二特徴点及び第三特徴点の平面座標の位置を検出するステップと、
    前記第二の画像における平面座標から前記検出対象の向きを算出するステップと、
    前記距離比と、前記第二の画像における前記第一特徴点及び前記第二特徴点の平面座標と、前記第二の画像における検出対象の向きと、に基づいて前記第一特徴点及び前記第二特徴点の空間座標の位置を検出するステップと、を有する位置検出方法。
  3. 所定の位置で所定の向きに設置された撮像装置によって撮像された第一の画像から、検出対象に含まれる第一特徴点、第二特徴点及び第三特徴点の平面座標の位置を検出するステップと、
    前記第一の画像における平面座標から前記検出対象の向きを算出するステップと、
    前記第一特徴点と前記撮像装置との間の第一の距離情報、及び前記第二特徴点と前記撮像装置との間の第二の距離情報を取得するステップと、
    前記第一特徴点及び前記第二特徴点の平面座標と、前記平面の空間的な傾きと、前記第一の距離情報及び第二の距離情報とに基づいて、前記第一特徴点及び前記第二特徴点の空間座標の位置を取得し、前記第一特徴点と第二特徴点との間の平面座標における距離と空間座標における距離との比を算出するステップと、
    前記撮像装置によって撮像された第二の画像から、検出対象に含まれる第一特徴点、第二特徴点及び第三特徴点の平面座標の位置を検出するステップと、
    前記第二の画像における平面座標から前記検出対象の向きを算出するステップと、
    前記距離比と、前記第二の画像における前記第一特徴点及び前記第二特徴点の平面座標と、前記第二の画像における検出対象の向きと、に基づいて前記第一特徴点及び前記第二特徴点の空間座標の位置を検出するステップと、をコンピュータに実行させるためのコンピュータプログラム。
JP2011151924A 2011-07-08 2011-07-08 位置検出装置、位置検出方法及びコンピュータプログラム Expired - Fee Related JP5559749B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011151924A JP5559749B2 (ja) 2011-07-08 2011-07-08 位置検出装置、位置検出方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011151924A JP5559749B2 (ja) 2011-07-08 2011-07-08 位置検出装置、位置検出方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2013019721A JP2013019721A (ja) 2013-01-31
JP5559749B2 true JP5559749B2 (ja) 2014-07-23

Family

ID=47691308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011151924A Expired - Fee Related JP5559749B2 (ja) 2011-07-08 2011-07-08 位置検出装置、位置検出方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP5559749B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182115A (ja) * 2013-03-21 2014-09-29 Pioneer Electronic Corp 三次元計測装置、制御方法、プログラム、及び記憶媒体
CN107169397B (zh) * 2016-03-07 2022-03-01 佳能株式会社 特征点检测方法及装置、图像处理***和监视***
JP7480371B1 (ja) 2023-01-24 2024-05-09 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01308908A (ja) * 1988-06-08 1989-12-13 Fuji Electric Co Ltd 多面体の位置計測方法
JP4602704B2 (ja) * 2004-06-29 2010-12-22 学校法人東京理科大学 単眼視3次元位置計測装置および方法
JP2007257043A (ja) * 2006-03-20 2007-10-04 Nissan Motor Co Ltd 乗員状態推定装置および乗員状態推定方法
JP2010008352A (ja) * 2008-06-30 2010-01-14 3D Media Co Ltd 寸法測定方法及び寸法測定装置
JP5262570B2 (ja) * 2008-10-22 2013-08-14 トヨタ自動車株式会社 車両デバイス制御装置
JP5370009B2 (ja) * 2009-08-31 2013-12-18 株式会社メガチップス 監視システム

Also Published As

Publication number Publication date
JP2013019721A (ja) 2013-01-31

Similar Documents

Publication Publication Date Title
US11967179B2 (en) System and method for detecting and removing occlusions in a three-dimensional image
US10059002B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
KR102307941B1 (ko) 눈 추적 시스템들을 위한 개선된 교정
JP2023082038A (ja) 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム
US10789765B2 (en) Three-dimensional reconstruction method
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
KR102397343B1 (ko) 비디오에서 가상 오브젝트를 블러링하기 위한 방법 및 디바이스
JP2016500547A5 (ja)
TWI520576B (zh) 將二維影像轉換爲三維影像的方法與系統及電腦可讀媒體
JP2020506487A (ja) シーンから深度情報を取得するための装置および方法
JP5035467B2 (ja) 立体性認証方法、立体性認証装置および立体性認証プログラム
JP6014931B2 (ja) 視線計測方法
JPWO2012140869A1 (ja) 動き推定装置、奥行き推定装置、及び動き推定方法
KR102001636B1 (ko) 이미지 센서와 대상 객체 사이의 상대적인 각도를 이용하는 깊이 영상 처리 장치 및 방법
JP2017117386A (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP6749498B2 (ja) 撮影対象追跡装置及び撮影対象追跡方法
JP7103354B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016099759A (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
JP5559749B2 (ja) 位置検出装置、位置検出方法及びコンピュータプログラム
JP4682372B2 (ja) 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
JP7498404B2 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP6652263B2 (ja) 口領域検出装置及び口領域検出方法
JP2015232771A (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP2006215743A (ja) 画像処理装置及び画像処理方法
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130606

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140606

R150 Certificate of patent or registration of utility model

Ref document number: 5559749

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees