JP6406044B2 - カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム - Google Patents

カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム Download PDF

Info

Publication number
JP6406044B2
JP6406044B2 JP2015026261A JP2015026261A JP6406044B2 JP 6406044 B2 JP6406044 B2 JP 6406044B2 JP 2015026261 A JP2015026261 A JP 2015026261A JP 2015026261 A JP2015026261 A JP 2015026261A JP 6406044 B2 JP6406044 B2 JP 6406044B2
Authority
JP
Japan
Prior art keywords
camera
feature point
processing target
frame image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015026261A
Other languages
English (en)
Other versions
JP2016149678A (ja
Inventor
海虹 張
海虹 張
世紅 労
世紅 労
広太郎 吉野
広太郎 吉野
剛 倉田
剛 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2015026261A priority Critical patent/JP6406044B2/ja
Publication of JP2016149678A publication Critical patent/JP2016149678A/ja
Application granted granted Critical
Publication of JP6406044B2 publication Critical patent/JP6406044B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

この発明は、マルチカメラシステムにおける各カメラの外部パラメータを校正(キャリブレーション)する技術に関する。
従来、アングルが異なる複数のカメラを用いるマルチカメラシステムとして、複数のカメラで撮像した対象領域の立体画像(3次元画像)を生成するもの(例えば、特許文献1参照)や、基準位置を中心とする全周画像を生成するもの(例えば、特許文献2参照)がある。これらの技術は、各カメラが撮像したフレーム画像を、共通の座標系上に射影することによって、立体画像や全周画像を生成するものである。
立体画像や全周画像の生成においては、各カメラによって撮像されるフレーム画像間の位置関係が必要である。このため、特許文献1、2等に記載されているように、カメラ校正(カメラキャリブレーション)を行って、各カメラの外部パラメータを事前に取得している。カメラの外部パラメータは、カメラの位置や姿勢にかかるパラメータである。
特開2013− 93787号公報 特開2011− 86111号公報
しかしながら、カメラ校正は、特徴点を有するオブジェクトを対象領域にセットし、対象領域を撮像したフレーム画像からオブジェクトの特徴点を抽出する手法で行っていた。例えば、特徴点を有するオブジェクトとしてチェスボードを用いた場合、隣接する2つの黒マスが接する点等を特徴点として抽出する手法で行っていた。
このように、カメラ校正にかかる従来の手法は、特徴点を有するオブジェクトを対象領域にセットする必要があり、手間や時間がかかるという問題があった。
また、カメラ本体の取り付け状態(位置や姿勢)は、外力等の外的要因によって変化する。すなわち、カメラの外部パラメータは、外的要因によって変化する。このため、カメラの外部パラメータは、カメラの内部パラメータ(焦点距離やレンズ歪み等にかかるパラメータ)と異なり、定期的に更新する必要があり、カメラ校正にかかる手間、および時間を抑えることが要望されている。
この発明の目的は、カメラ校正にかかる手間、および時間を抑えることができる技術を提供することにある。
この発明のカメラ校正ユニットは、上記目的を達するために、以下のように構成している。
第1の動画像入力部には、第1のカメラが撮像した第1の動画像が入力される。また、第2の動画像入力部には、第2のカメラが第1のカメラとは異なるアングルで撮像した第2の動画像が入力される。第1のカメラの撮像領域と、第2のカメラの撮像領域とは、その一部が重なっている。第1の特徴点抽出部は、カメラ校正処理の開始タイミングの直後に第1の動画像入力部に入力された第1の動画像にかかる所定フレーム数のフレーム画像の中から、人の顔が正面から撮像されているフレーム画像を、第1の処理対象フレーム画像として選択し、且つこの正面から顔が撮像されている人を対象者に選択する。第1の特徴点抽出部は、選択した第1の処理対象フレーム画像に撮像されている対象者の顔の特徴点を複数抽出する。また、第2の特徴点抽出部は、第1の処理対象フレーム画像の撮像タイミングに対して、時間的に最も近い撮像タイミングのフレーム画像を、第2の処理対象フレーム画像として選択する、第2の特徴点抽出部は、選択した第2のフレーム画像に撮像されている対象者の顔の特徴点を複数抽出する。
また、特徴点対応付部は、第1の特徴点抽出部が抽出した対象者の顔の特徴点と、第2の特徴点抽出部が抽出した対象者の顔の特徴点と、を対応付ける。外部パラメータ算出部は、特徴点対応付部による対象者の顔の特徴点の対応付け結果と、第1の処理対象フレーム画像上における対象者の顔の特徴点の位置と、第2の処理対象フレーム画像上における対象者の顔の特徴点の位置とを用いて、第1のカメラと第2のカメラとの相対的な位置関係にかかるカメラの外部パラメータを算出する。外部パラメータ算出部は、例えば第1のカメラを基準にし、第1のカメラに対する第2のカメラの相対的な位置関係にかかる外部パラメータを算出する。
この構成では、第1のカメラと第2のカメラとにおいて重なっている撮像領域(以下、対象領域と言う。)に位置する対象者の顔の特徴を利用して、第1のカメラと第2のカメラとの相対的な位置関係にかかるカメラの外部パラメータを算出する。すなわち、第1のカメラと第2のカメラとの相対的な位置関係にかかるカメラの外部パラメータを算出するカメラ校正が、特徴点を有するオブジェクトを対象領域にセットすることなく行える。したがって、カメラ校正にかかる手間、および時間を抑えることができる。
また、略同じタイミングで撮像された第1の処理対象フレーム画像、および第2の処理対象フレーム画像を用いてカメラ校正を行うことができるので、カメラの外部パラメータの算出精度の低下が抑えられる。
また、第2の特徴点抽出部は、第1の処理対象フレーム画像に撮像されている対象者の顔画像を用いた顔認証により、第2の処理対象フレーム画像に撮像されている対象者を選択する構成としてもよい。
このように構成すれば、第1の特徴点抽出部、および第2の特徴点抽出部が、異なる対象者から特徴点を抽出するのを防止できる。
この発明によれば、カメラ校正にかかる手間、および時間を抑えることができる。
この例にかかるカメラ校正ユニットの主要部の構成を示す図である。 カメラ校正処理にかかる画像処理プロセッサの機能構成を示すブロック図である。 カメラ校正処理を示すフローチャートである。 第1の処理対象フレーム画像、および第2の処理対象フレーム画像を示す図である。 抽出した対象者の顔の特徴点、および対象者の顔の特徴点の対応付結果を示す図である。
以下、この発明の実施形態であるカメラ構成ユニットについて説明する。
図1は、この例にかかるカメラ校正ユニットの主要部の構成を示す図である。カメラ校正ユニット1は、画像処理プロセッサ2と、第1の動画像入力部3と、第2の動画像入力部4と、記憶部5と、出力部6と、入力部7と、を備えている。
この例にかかるカメラ校正ユニット1は、第1のカメラ10と、第2のカメラ11との相対的な位置関係にかかるカメラの外部パラメータを算出するカメラ校正(カメラキャリブレーション)を行うとともに、カメラ校正で算出したカメラの外部パラメータを用いて立体画像(3次元画像)を生成する。カメラの外部パラメータは、公知のようにカメラの回転Rと並進Tである。この例では、第1のカメラ10を基準にした、第2のカメラ11の回転Rと、並進Tをカメラの外部パラメータとして算出するカメラ校正を行う。
画像処理プロセッサ2は、この発明にかかるカメラ校正方法を実行するコンピュータを備える。また、この発明にかかるカメラ校正プログラムは、画像処理プロセッサ2が備えるコンピュータにインストールされる。画像処理プロセッサ2の機能構成については後述する。また、画像処理プロセッサが備えるコンピュータは、第1のカメラ10が撮像したフレーム画像と、第2のカメラ11が撮像したフレーム画像とを用いて、立体画像を生成する。
第1の動画像入力部3には、第1のカメラ10が接続されている。また、第2の動画像入力部4には、第2のカメラ11が接続されている。第1のカメラ10、および第2のカメラ11は、動画像を撮像するビデオカメラである。第1のカメラ10、および第2のカメラ11のフレームレートは、数十フレーム/sec(例えば、30フレーム/sec)である。第1のカメラ10と、第2のカメラ11とは、異なるアングルである。第1のカメラ10の撮像領域と、第2のカメラ11の撮像領域とは、その一部が重複している。この重複している撮像領域を、ここでは対象領域と言う。
第1の動画像入力部3には、第1のカメラ10が撮像した動画像にかかるフレーム画像が入力される。第2の動画像入力部4には、第2のカメラ11が撮像した動画像にかかるフレーム画像が入力される。第1の動画像入力部3、および第2の動画像入力部4は、入力された動画像にかかるフレーム画像を記憶する画像メモリやハードディスク等の記憶媒体(不図示)を有している。
記憶部5は、後述するカメラ校正処理で算出したカメラの外部パラメータを記憶する。
出力部6は、第1のカメラ10、および第2のカメラ11によって撮像された対象領域の立体画像を出力する。この立体画像は、画像処理プロセッサ2において生成される。出力部6には、立体画像を処理する立体画像処理装置が接続される。立体画像処理装置は、例えば立体画像を表示する表示装置や、対象領域に位置するオブジェクトの立体形状を解析する解析装置である。
入力部7には、カメラ校正ユニット1本体に対してコマンドを入力する入力装置が接続される。入力装置は、後述するカメラ校正処理の実行指示等にかかるコマンドを入力部7に入力する。
図2は、後述するカメラ校正処理の実行にかかる画像処理プロセッサの機能構成を示すブロック図である。画像処理プロセッサ2は、上述したように立体画像を生成する機能も有しているが、この立体画像の生成処理にかかる機能構成については、図示を省略している。画像処理プロセッサ2は、第1の処理対象フレーム画像選択機能部21と、第2の処理対象フレーム画像選択機能部22と、顔認証機能部23と、第1の特徴点抽出機能部24と、第2の特徴点抽出機能部25と、特徴点対応付機能部26と、外部パラメータ算出機能部27と、を備えている。
第1の処理対象フレーム画像選択機能部21は、第1のカメラ10が撮像した動画像にかかるフレーム画像(第1の動画像入力部3に入力されたフレーム画像)の中から、第1の処理対象フレーム画像を選択する。第2の処理対象フレーム画像選択機能部22は、第2のカメラ11が撮像した動画像にかかるフレーム画像(第2の動画像入力部4に入力されたフレーム画像)の中から、第2の処理対象フレーム画像を選択する。特に、第2の処理対象フレーム画像選択機能部22は、第2のカメラ11が撮像した動画像にかかるフレーム画像の中から、第1の処理対象フレーム画像選択機能部21が選択した第1の処理対象フレーム画像の撮像タイミングに対して、時間的にもっと近い撮像タイミングのフレーム画像を第2の処理対象フレーム画像として選択する。すなわち、第1の処理対象フレーム画像選択機能部21が選択した第1の処理対象フレーム画像の撮像タイミングと、第2の処理対象フレーム画像選択機能部22が選択した第2の処理対象フレーム画像の撮像タイミングとは、略同じである。
第1の特徴点抽出機能部24は、第1の処理対象フレーム画像上の対象領域に撮像されている対象者について顔の特徴点を複数抽出する。また、抽出した顔の特徴点毎に、第1の処理対象フレーム画像上の位置を検出する。
顔認証機能部23は、第2の処理対象フレーム画像上の対象領域に撮像されている人の中から、第1の特徴点抽出機能部24が顔の特徴量を抽出した対象者を顔認証により検出する。
第2の特徴点抽出機能部25は、顔認証機能部23によって検出された対象者について顔の特徴点を複数抽出する。また、抽出した顔の特徴点毎に、第2の処理対象フレーム画像上の位置を検出する。
特徴点対応付機能部26は、第1の特徴点抽出機能部24が抽出した対象者の顔の特徴点と、第2の特徴点抽出機能部25が抽出した対象者の顔の特徴点と、を対応付ける。
外部パラメータ算出機能部27は、第1の処理対象フレーム画像上における特徴点対応付機能部26が対応付けた対象者の顔の特徴点の位置と、第2の処理対象フレーム画像上における特徴点対応付機能部26が対応付けた対象者の顔の特徴点の位置と、を用いて、第1のカメラ10と、第2のカメラ11との相対的な位置関係にかかる外部パラメータを算出する。
次に、このカメラ校正ユニット1におけるカメラ校正の動作について説明する。図3は、カメラ校正処理を示すフローチャートである。カメラ校正ユニット1は、カメラ校正処理の実行指示にかかるコマンドが入力部7に入力されると、図3に示すカメラ校正処理を行う。
なお、ここでは、カメラ校正処理の実行指示にかかるコマンドが入力部7に入力されたタイミングで、カメラ校正処理を実行するとしているが、このカメラ校正処理を定期的に実行するようにしてもよい。カメラ校正ユニット1は、例えば、毎週日曜日の午前0時や、毎月1日の午前0時にカメラ校正処理を実行するように、スケジューリングが行える構成であってもよい。
カメラ校正ユニット1は、第1のカメラ10が撮像した動画像にかかるフレーム画像が第1の動画像入力部3に入力されているとともに、第2のカメラ11が撮像した動画像にかかるフレーム画像が第2の動画像入力部4に入力されている。
画像処理プロセッサ2は、第1のカメラ10が撮像した動画像にかかるフレーム画像(第1の動画像入力部3に入力されたフレーム画像)の中から、後述するカメラ校正処理に用いる第1の処理対象フレーム画像を選択する(s1)。s1では、カメラ校正処理の開始タイミング(カメラ校正処理の実行指示にかかるコマンドが入力部7に入力されたタイミング等)の直後に入力された所定フレーム数(例えば、10フレーム)のフレーム画像の中から、第1の処理対象フレーム画像を選択する。例えば、対象領域に、略正面から顔が撮像されている人がいるフレーム画像を第1の処理対象フレーム画像として選択する。また、この人(略正面から顔が撮像されている対象領域にいる人)を、対象者として選択する。このs1にかかる処理は、上述した第1の処理対象フレーム画像選択機能部21によって行われる。
画像処理プロセッサ2は、第2のカメラ11が撮像した動画像にかかるフレーム画像(第2の動画像入力部4に入力されたフレーム画像)の中から、後述するカメラ校正処理に用いる第2の処理対象フレーム画像を選択する(s2)。s2では、s1で選択された第1の処理対象フレーム画像の撮像タイミングに対して、時間的にもっと近い撮像タイミングのフレーム画像を第2の処理対象フレーム画像として選択する。このs2にかかる処理は、上述した第2の処理対象フレーム画像選択機能部22によって行われる。
したがって、s1で選択された第1の処理対象フレーム画像の撮像タイミングと、s2で選択された第2の処理対象フレーム画像の撮像タイミングとは、略同じである。
図4は、s1で選択された第1の処理対象フレーム画像、およびs2で選択された第2の処理対象フレーム画像を示す図である。図4は、撮像されている対象者以外の人や、背景等については、図示を省略している。第1のカメラ10と、第2のカメラ11とのアングルの違いにより、第1の処理対象フレーム画像、および第2の処理対象フレーム画像における対象者の撮像位置や、対象者の向き等が異なっている。
画像処理プロセッサ2は、第2の処理対象フレーム画像上の対象領域に撮像されている人の中から、s1で選択した対象者を顔認証により検出する(s3)。このs3にかかる処理は、上述した顔認証機能部23によって行われる。
画像処理プロセッサ2は、第1の処理対象フレーム画像上の対象領域に撮像されている対象者(s1で選択した対象者)の顔の特徴点を複数抽出する(s4)。また、画像処理プロセッサ2は、第2の処理対象フレーム画像上の対象領域に撮像されている対象者(s3で顔認証により検出した対象者)の顔の特徴点を複数抽出する(s5)。s4で抽出する対象者の顔の特徴点の個数と、s5で抽出する対象者の顔の特徴点の個数とは、同じであってもよいし、同じでなくてもよい。s4にかかる処理は、上述した第1の特徴点抽出機能部24によって行われる。また、s5にかかる処理は、上述した第2の特徴点抽出機能部25によって行われる。
この発明で言う第1の特徴点抽出部は、第1の処理対象フレーム画像選択機能部21、および第1の特徴点抽出機能部24によって構成される。また、この発明で言う第2の特徴点抽出部は、第2の処理対象フレーム画像選択機能部22、顔認証機能部23、および第2の特徴点抽出機能部25によって構成される。
画像処理プロセッサ2は、s4で抽出した対象者の顔の特徴点と、s5で抽出した対象者の顔の特徴点とを対応付ける(s6)。図5は、s4、s5で抽出した対象者の顔の特徴点、およびs6での対象者の顔の特徴点の対応付結果を示す図である。図5に示すハッチングした小円は、s4、s5で抽出した対象者の顔の特徴点である。s6では、s4で抽出した対象者の顔の特徴点の中に、s5で抽出した特徴点に対応付けられない特徴点があってもよいし、逆に、s5で抽出した対象者の顔の特徴点の中に、s4で抽出した特徴点に対応付けられない特徴点があってもよい。図5に示す両端矢印の直線は、特徴点が対応付けられたことを示している。また、両端矢印の直線が記されていない特徴点は、対応付けることができなかった特徴点である。s6にかかる処理は、上述した特徴点対応付機能部26によって行われる。
画像処理プロセッサ2は、s6で対応付けることができた特徴点の組数が予め定めた所定数以上であるかどうかを判定する(s7)。s7では、s6で対応付けることができた特徴点の組数が、第1のカメラ10、および第2のカメラ11の相対的な位置関係にかかる外部パラメータを算出することができる組数以上であるかどうかを判定している。すなわち、s7では、第1のカメラ10、および第2のカメラ11の相対的な位置関係にかかる外部パラメータが算出できるかどうかを判定している。
カメラ校正ユニット1は、カメラの外部パラメータを、s6で対応付けた特徴点の第1の処理対象フレーム画像上の位置(座標)と、第2の処理対象フレーム画像上の位置(座標)とを用いて算出する。このとき、第1のカメラ10を基準にし、第2のカメラ11の回転Rと、並進Tをカメラの外部パラメータとして算出する。カメラの外部パラメータを算出する演算手法については、様々な演算手法が公知である。例えば、上述した特許文献1等に記載されている。カメラ校正ユニット1は、カメラの外部パラメータを、すでに公知であるいずれの演算手法で算出してもよい。
画像処理プロセッサ2は、s6で対応付けることができた特徴点の組数が予め定めた所定数未満であると判定すると、開始タイミングを更新し(s10)、s1に戻って、上記処理を繰り返す。s10では、現時点を、開始タイミングに設定する。
画像処理プロセッサ2は、s6で対応付けることができた特徴点の組数が予め定めた所定数以上であると判定すると、第1のカメラ10、および第2のカメラ11の相対的な位置関係にかかる外部パラメータを算出する(s8)。
カメラ校正ユニット1は、s8で算出した外部パラメータを記憶部5に記憶し(s9)、本処理を終了する。
このように、この例にかかるカメラ校正ユニット1は、特徴点を有するチェスボード等のオブジェクトを対象領域にセットすることなく、第1のカメラ10と第2のカメラ11との相対的な位置関係にかかるカメラの外部パラメータを算出することができる。したがって、カメラ校正にかかる手間、および時間を抑えることができる。
また、顔認証により、第1の処理対象フレーム画像に撮像されている対象者と、第2の処理対照フレーム画像に撮像されている対象者と、を対応付けるので、異なる対象者から特徴点を抽出するのを防止できる。すなわちs5以降の処理を無駄に行うことがない。また、第1の処理対象フレーム画像において、略正面から顔が撮像されている人を対象者として選択するので、対象者の顔の特徴点をより多く抽出できる。
また、第1の処理対象フレーム画像、および第2の処理対象フレーム画像の撮像タイミングが略同じであるので、算出するカメラの外部パラメータの精度の低下が抑えられる。
また、カメラ校正ユニット1は、記憶部5に記憶している外部パラメータを用いて、第1のカメラ10が撮像した動画像にかかるフレーム画像と、第2のカメラ11が撮像した動画像にかかるフレーム画像と、を用いて、対象領域の立体画像を生成し、生成した立体画像を出力部6から出力する。
また、カメラ校正ユニット1は、3台のカメラが接続され、各カメラの外部パラメータを算出する構成であってもよい。この場合には、任意の1台のカメラを基準にすることで、他の2台のカメラについては、基準にしたカメラに対する、相対的な位置関係にかかる外部パラメータを算出する。
また、上記の例は、カメラ校正において用いる、撮像タイミングが略同じである第1の処理対象フレーム画像と、第2の処理対象フレーム画像を1組としたが、撮像タイミングが略同じである第1の処理対象フレーム画像と、第2の処理対象フレーム画像を複数組用いてカメラ校正を行ってもよい。撮像タイミングが略同じである第1の処理対象フレーム画像と、第2の処理対象フレーム画像を複数組用いれば、s8における外部パラメータの算出に用いる対応付けた特徴点の組数を増加させることができる。したがって、カメラ校正の精度の向上が図れる。
また、ここでは、対象領域の立体画像を生成するものを例にして説明を行ったが、上述した特許文献2に記載されている全周画像を生成する複数台のカメラであっても、外部パラメータを算出することができる。
また、カメラ校正ユニット1は、いずれかのカメラに内蔵させた構成であってもよいし、パーソナルコンピュータ等の情報処理装置に内蔵させた構成であってもよい。
1…カメラ校正ユニット
2…画像処理プロセッサ
3…第1の動画像入力部
4…第2の動画像入力部
5…記憶部
6…出力部
7…入力部
10…第1のカメラ
11…第2のカメラ
21…第1の処理対象フレーム画像選択機能部
22…第2の処理対象フレーム画像選択機能部
23…顔認証機能部
24…第1の特徴点抽出機能部
25…第2の特徴点抽出機能部
26…特徴点対応付機能部
27…外部パラメータ算出機能部

Claims (5)

  1. 第1のカメラが撮像した第1の動画像を入力する第1の動画像入力部と、
    第2のカメラが前記第1のカメラと異なるアングルで撮像した第2の動画像を入力する第2の動画像入力部と、
    カメラ校正処理の開始タイミングの直後に前記第1の動画像入力部に入力された前記第1の動画像にかかる所定フレーム数のフレーム画像の中から、第1の処理対象フレーム画像を選択し、当該第1の処理対象フレーム画像に撮像されている対象者の顔の特徴点を複数抽出する第1の特徴点抽出部と、
    前記第1の特徴点抽出部が選択した前記第1の処理対象フレーム画像の撮像タイミングに応じて、前記第2の動画像入力部に入力された前記第2の動画像にかかるフレーム画像の中から第2の処理対象フレーム画像を選択し、当該第2のフレーム画像に撮像されている前記対象者の顔の特徴点を複数抽出する第2の特徴点抽出部と、
    前記第1の特徴点抽出部が抽出した前記対象者の顔の特徴点と、前記第2の特徴点抽出部が抽出した前記対象者の顔の特徴点と、を対応付ける特徴点対応付部と、
    前記特徴点対応付部による前記対象者の顔の特徴点の対応付け結果と、前記第1の処理対象フレーム画像上における前記対象者の顔の特徴点の位置と、前記第2の処理対象フレーム画像上における前記対象者の顔の特徴点の位置とを用いて、前記第1のカメラと前記第2のカメラとの相対的な位置関係にかかるカメラの外部パラメータを算出する外部パラメータ算出部と、を備え
    前記第1の特徴点抽出部は、前記所定フレーム数のフレーム画像の中から、人の顔が正面から撮像されているフレーム画像を、前記第1の処理対象フレーム画像として選択し、且つこの正面から顔が撮像されている人を前記対象者に選択し、
    前記第2の特徴点抽出部は、前記第1の処理対象フレーム画像の撮像タイミングに対して、時間的に最も近い撮像タイミングのフレーム画像を、前記第2の処理対象フレーム画像として選択する、カメラ校正ユニット。
  2. 前記第2の特徴点抽出部は、前記第1の処理対象フレーム画像に撮像されている前記対象者の顔画像を用いた顔認証により、前記第2の処理対象フレーム画像に撮像されている前記対象者を検出する、請求項1に記載のカメラ校正ユニット。
  3. 前記外部パラメータ算出部は、前記第1のカメラを基準にし、前記第1のカメラに対する前記第2のカメラの相対的な位置関係にかかる外部パラメータを算出する、請求項1、または2に記載のカメラ校正ユニット。
  4. 第1のカメラが撮像した第1の動画像が第1の動画像入力部に入力され、第2のカメラが前記第1のカメラと異なるアングルで撮像した第2の動画像が第2の動画像入力部に入力され、
    カメラ校正処理の開始タイミングの直後に前記第1の動画像入力部に入力された前記第1の動画像にかかる所定フレーム数のフレーム画像の中から、第1の処理対象フレーム画像を選択し、当該第1の処理対象フレーム画像に撮像されている対象者の顔の特徴点を複数抽出する第1の特徴点抽出ステップと、
    前記第1の特徴点抽出ステップで選択した前記第1の処理対象フレーム画像の撮像タイミングに応じて、前記第2の動画像入力部に入力された前記第2の動画像にかかるフレーム画像の中から第2の処理対象フレーム画像を選択し、当該第2のフレーム画像に撮像されている前記対象者の顔の特徴点を複数抽出する第2の特徴点抽出ステップと、
    前記第1の特徴点抽出ステップで抽出した前記対象者の顔の特徴点と、前記第2の特徴点抽出ステップで抽出した前記対象者の顔の特徴点と、を対応付ける特徴点対応付ステップと、
    前記特徴点対応付ステップによる前記対象者の顔の特徴点の対応付け結果と、前記第1の処理対象フレーム画像上における前記対象者の顔の特徴点の位置と、前記第2の処理対象フレーム画像上における前記対象者の顔の特徴点の位置とを用いて、前記第1のカメラと前記第2のカメラとの相対的な位置関係にかかるカメラの外部パラメータを算出する外部パラメータ算出ステップと、をコンピュータが実行するカメラ校正方法であって、
    前記第1の特徴点抽出ステップは、前記所定フレーム数のフレーム画像の中から、人の顔が正面から撮像されているフレーム画像を、前記第1の処理対象フレーム画像として選択し、且つこの正面から顔が撮像されている人を前記対象者に選択し、
    前記第2の特徴点抽出ステップは、前記第1の処理対象フレーム画像の撮像タイミングに対して、時間的に最も近い撮像タイミングのフレーム画像を、前記第2の処理対象フレーム画像として選択する、カメラ校正方法。
  5. 第1のカメラが撮像した第1の動画像が第1の動画像入力部に入力され、第2のカメラが前記第1のカメラと異なるアングルで撮像した第2の動画像が第2の動画像入力部に入力され、
    カメラ校正処理の開始タイミングの直後に前記第1の動画像入力部に入力された前記第1の動画像にかかる所定フレーム数のフレーム画像の中から、第1の処理対象フレーム画像を選択し、当該第1の処理対象フレーム画像に撮像されている対象者の顔の特徴点を複数抽出する第1の特徴点抽出ステップと、
    前記第1の特徴点抽出ステップで選択した前記第1の処理対象フレーム画像の撮像タイミングに応じて、前記第2の動画像入力部に入力された前記第2の動画像にかかるフレーム画像の中から第2の処理対象フレーム画像を選択し、当該第2のフレーム画像に撮像されている前記対象者の顔の特徴点を複数抽出する第2の特徴点抽出ステップと、
    前記第1の特徴点抽出ステップで抽出した前記対象者の顔の特徴点と、前記第2の特徴点抽出ステップで抽出した前記対象者の顔の特徴点と、を対応付ける特徴点対応付ステップと、
    前記特徴点対応付ステップによる前記対象者の顔の特徴点の対応付け結果と、前記第1の処理対象フレーム画像上における前記対象者の顔の特徴点の位置と、前記第2の処理対象フレーム画像上における前記対象者の顔の特徴点の位置とを用いて、前記第1のカメラと前記第2のカメラとの相対的な位置関係にかかるカメラの外部パラメータを算出する外部パラメータ算出ステップと、をコンピュータが実行するカメラ校正プログラムであって、
    前記第1の特徴点抽出ステップは、前記所定フレーム数のフレーム画像の中から、人の顔が正面から撮像されているフレーム画像を、前記第1の処理対象フレーム画像として選択し、且つこの正面から顔が撮像されている人を前記対象者に選択し、
    前記第2の特徴点抽出ステップは、前記第1の処理対象フレーム画像の撮像タイミングに対して、時間的に最も近い撮像タイミングのフレーム画像を、前記第2の処理対象フレーム画像として選択する、カメラ校正プログラム。
JP2015026261A 2015-02-13 2015-02-13 カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム Expired - Fee Related JP6406044B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015026261A JP6406044B2 (ja) 2015-02-13 2015-02-13 カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015026261A JP6406044B2 (ja) 2015-02-13 2015-02-13 カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム

Publications (2)

Publication Number Publication Date
JP2016149678A JP2016149678A (ja) 2016-08-18
JP6406044B2 true JP6406044B2 (ja) 2018-10-17

Family

ID=56691347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015026261A Expired - Fee Related JP6406044B2 (ja) 2015-02-13 2015-02-13 カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム

Country Status (1)

Country Link
JP (1) JP6406044B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111193961A (zh) * 2018-11-15 2020-05-22 索尼公司 视频编辑设备和方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106799732A (zh) * 2016-12-07 2017-06-06 中国科学院自动化研究所 用于双目头眼协调运动的控制***及其定位方法
US20200226787A1 (en) * 2019-01-14 2020-07-16 Sony Corporation Information processing apparatus, information processing method, and program
JP7497188B2 (ja) 2020-03-27 2024-06-10 株式会社国際電気通信基礎技術研究所 校正装置、訓練装置、及びコンピュータ・プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3954484B2 (ja) * 2002-12-12 2007-08-08 株式会社東芝 画像処理装置およびプログラム
JP5672112B2 (ja) * 2011-03-30 2015-02-18 富士通株式会社 ステレオ画像較正方法、ステレオ画像較正装置及びステレオ画像較正用コンピュータプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111193961A (zh) * 2018-11-15 2020-05-22 索尼公司 视频编辑设备和方法
CN111193961B (zh) * 2018-11-15 2022-02-18 索尼公司 视频编辑设备和方法

Also Published As

Publication number Publication date
JP2016149678A (ja) 2016-08-18

Similar Documents

Publication Publication Date Title
JP5961945B2 (ja) 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
KR20140138947A (ko) 화상 처리 장치, 화상 처리 방법, 및 기록 매체
JP6381353B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6406044B2 (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
JP5001930B2 (ja) 動作認識装置及び方法
JP2010086336A (ja) 画像制御装置、画像制御プログラムおよび画像制御方法
JP5791577B2 (ja) 画像処理装置、画像表示方法、およびプログラム
JP2014106732A (ja) 情報処理装置および情報処理方法
JP5170094B2 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
JP4979480B2 (ja) 顔認証装置
CN108605087A (zh) 终端的拍照方法、拍照装置和终端
JP2013135341A5 (ja)
CN106210699B (zh) 信息处理装置、信息处理装置的控制方法及图像处理***
JP2010225118A (ja) 画像処理装置、方法及びプログラム
JP6799325B2 (ja) 画像補正装置、画像補正方法、注目点認識装置、注目点認識方法及び異常検知システム
JP6104066B2 (ja) 画像処理装置および画像処理方法
JP2019175112A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2022051312A5 (ja)
JP4871315B2 (ja) 複眼撮影装置およびその制御方法並びにプログラム
WO2015198478A1 (ja) 画像歪み補正装置、情報処理装置および画像歪み補正方法
JP6736916B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019191661A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2009239391A (ja) 複眼撮影装置およびその制御方法並びにプログラム
JP2009009206A (ja) 画像中の輪郭抽出方法及びその画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180903

R150 Certificate of patent or registration of utility model

Ref document number: 6406044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees