JP2016095701A - 画像処理装置、画像処理方法、及び、プログラム - Google Patents
画像処理装置、画像処理方法、及び、プログラム Download PDFInfo
- Publication number
- JP2016095701A JP2016095701A JP2014231744A JP2014231744A JP2016095701A JP 2016095701 A JP2016095701 A JP 2016095701A JP 2014231744 A JP2014231744 A JP 2014231744A JP 2014231744 A JP2014231744 A JP 2014231744A JP 2016095701 A JP2016095701 A JP 2016095701A
- Authority
- JP
- Japan
- Prior art keywords
- background
- detection
- region
- area
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】背景の違いに関わらず、物体の検出精度や認識精度を良好に保つ。【解決手段】画像処理部は、入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理部を備える。また、画像処理部は、入力画像を分割した分割領域毎に、分割領域内の特徴量に基づいて背景の種類を識別する背景識別部を備える。本技術は、例えば、所定の対象物の検出又は認識を行う装置に適用できる。【選択図】図1
Description
本技術は、画像処理装置、画像処理方法、及び、プログラムに関し、特に、物体の検出又は認識を行う場合に用いて好適な画像処理装置、画像処理方法、及び、プログラムに関する。
従来、事前に取得した背景画像と現在のフレーム画像との差分画像を算出し、差分画像内の閾値を超える領域において、機械学習により生成された識別器を用いて人物の検出処理を行うことが提案されている(例えば、特許文献1参照)。
ところで、一般的な機械学習では、汎用性を高めるために、ランダムに抽出した大量の学習データを用いて学習処理が行われる。これにより、検出対象となる対象物(例えば、人物等)の背景が街中などの複雑な背景の学習データや、壁面などの単純な背景の学習データ等が混ぜ合わされ、平均的な背景に適した識別器が生成される。
一方、例えば、対象物の背景が複雑な背景である場合、対象物と近い特徴を持つ物体が存在する可能性が高くなる。そのため、平均的な背景に適した識別器を用いた場合、対象物の誤検出が発生する可能性が高くなる。
本技術はこのような状況に鑑みてなされたものであり、背景の違いに関わらず、物体の検出精度や認識精度を良好に保つことができるようにするものである。
本技術の一側面の画像処理装置は、入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理部を備える。
前記認識処理部には、前記入力画像内において所定の大きさの検出領域を移動させながら、前記検出領域内の前記背景の種類に応じた前記識別器を用いて、前記検出領域内の前記対象物の検出又は認識のうち少なくとも一方を行わせることができる。
前記認識処理部には、前記検出領域内に複数の種類の背景が存在する場合、前記検出領域内の面積が最大の背景の種類に応じた前記識別器を用いらせることができる。
前記認識処理部には、前記検出領域内に複数の種類の背景が存在する場合、前記検出領域の中心の背景の種類に応じた前記識別器を用いらせることができる。
前記入力画像を分割した分割領域毎に、前記分割領域内の特徴量に基づいて前記背景の種類を識別する背景識別部をさらに設けることができる。
前記背景識別部には、前記分割領域内の所定の周波数以上の成分の量に基づいて、前記分割領域の背景の種類を識別させることができる。
前記背景識別部には、前記分割領域内の前記所定の周波数以上の成分の量が所定の閾値以上の第1の種類、及び、前記分割領域内の前記所定の周波数以上の成分の量が前記閾値未満の第2の種類の中から、前記分割領域の背景の種類を識別させることができる。
前記入力画像内の動体を含む領域である動体領域を検出する動体検出部をさらに設け、前記認識処理部には、前記動体領域において、前記動体領域内の背景の種類に応じた前記識別器を用いて、前記対象物の検出又は認識のうち少なくとも一方を行わせることができる。
前記入力画像内の動体を含む領域である動体領域を検出する動体検出部と、前記入力画像内の前記動体領域以外の領域をマスクするマスク処理部とをさらに設け、前記認識処理部には、マスクされた前記入力画像において、無地の背景に対応する前記識別器を用いて、前記対象物の検出又は認識のうち少なくとも一方を行わせることができる。
本技術の一側面の画像処理方法は、画像処理装置が、入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理ステップを含む。
本技術の一側面のプログラムは、入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理ステップを含む処理をコンピュータに実行させる。
本技術の一側面においては、入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方が行われる。
本技術の一側面によれば、背景の違いに関わらず、物体の検出精度や認識精度を良好に保つことができる。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態(動体領域検出処理を追加した場合)
3.第3の実施の形態(背景領域をマスクする場合)
4.変形例
1.第1の実施の形態
2.第2の実施の形態(動体領域検出処理を追加した場合)
3.第3の実施の形態(背景領域をマスクする場合)
4.変形例
<1.第1の実施の形態>
{画像処理システム1の構成例}
図1は、本技術の第1の実施の形態である画像処理システム1の構成例を示すブロック図である。
{画像処理システム1の構成例}
図1は、本技術の第1の実施の形態である画像処理システム1の構成例を示すブロック図である。
画像処理システム1は、所定の領域(以下、監視領域と称する)内の所定の対象物の検出又は認識を行うシステムである。画像処理システム1は、画像取得部11、画像処理部12、及び、出力部13を含むように構成される。
画像取得部11は、監視領域を撮影することにより得られる画像(以下、入力画像と称する)を取得し、取得した入力画像を画像処理部12に供給する。なお、画像取得部11が、入力画像を撮影する装置を備えるようにしてもよいし、或いは、画像取得部11が、外部の装置から入力画像を取得するようにしてもよい。
また、画像取得部11が外部の装置から入力画像を取得する場合、画像取得部11と外部の装置との接続方法及び通信方法には、任意の方法を適用することができる。例えば、画像取得部11と外部の装置とをケーブル等により直接接続したり、或いは、ネットワークを介して接続したりすることが可能である。また、画像取得部11と外部の装置との間の通信は、有線通信でも無線通信でもよい。
画像処理部12は、入力画像内の所定の対象物の検出又は認識を行う。画像処理部12は、背景識別部21及び認識処理部22を含むように構成される。
背景識別部21は、入力画像を複数の小領域(以下、分割領域と称する)に分割し、各分割領域の背景の種類を識別する。これにより、入力画像の背景の種類が分割領域単位で分類される。
ここで、背景とは、例えば、入力画像内の動体を除く部分のことであり、基本的に静止している部分のことである。一方、動体とは、例えば、動く物体のことである。ただし、動体であっても、例えば、ほとんど動かない物体、動きが非常に小さい物体、位置がほとんど変化しない物体、所定の動作を繰り返す物体等は、条件によっては背景として扱われる。例えば、樹木は、風により揺れ動くが、背景として扱われる。
なお、以下、背景識別部21が、各分割領域内の背景の種類を、単純背景と複雑背景の2種類の背景の中から識別する例について説明する。
単純背景とは、高周波成分が少ない背景のことであり、例えば、無地の背景、コントラストやエッジ成分が弱い背景が含まれる。例えば、模様のない壁、道路の路面、雪で覆われた地面等が、単純背景に分類される。一方、複雑背景とは、高周波成分が多い背景のことであり、例えば、コントラストやエッジ成分が強い背景が含まれる。例えば、建物、ポスター、看板等が、複雑背景に分類される。
なお、以下、単純背景からなる領域を単純背景領域と称し、複雑背景からなる領域を複雑背景領域と称する。例えば、所定の周波数以上の成分(高周波成分)が所定の閾値以上の領域が単純背景領域に分類される。一方、所定の周波数以上の成分(高周波成分)が所定の閾値未満の領域が複雑背景領域に分類される。
認識処理部22は、例えば、パターン認識の手法を用いて、所定の対象物の検出又は認識を行う。対象物の検出とは、例えば、入力画像内の対象物の有無や対象物の位置を検出する処理である。例えば、入力画像内の人の有無や人の位置を検出する処理が該当する。一方、対象物の認識とは、例えば、対象物の種類や特徴等を認識する処理のことである。例えば、入力画像内の特定の個人を認識したり、入力画像内の人の年齢や性別を識別したりする処理が該当する。
また、認識処理部22は、単純背景用の識別器31a、及び、複雑背景用の識別器31bの2種類の識別器を用いて認識処理を行う。
識別器31aは、単純背景領域における対象物の検出処理又は認識処理に適した識別器である。例えば、識別器31aは、背景が単純背景である学習データを用いた機械学習により生成される。
識別器31bは、複雑背景領域における対象物の検出処理又は認識処理に適した識別器である。例えば、識別器31bは、背景が複雑背景である学習データを用いた機械学習により生成される。
なお、識別器は、辞書とも呼ばれ、一般的に機械学習により生成され、対象物の検出処理や認識処理に用いられる。
また、対象物には、任意の物体を設定することができる。また、認識処理部22が、対象物の検出及び認識の両方の処理を行うようにしてもよいし、一方の処理のみを行うようにしてもよい。
出力部13は、画像処理部12による対象物の検出結果又は認識結果を外部に出力する。
なお、以下、画像処理システム1が、主に入力画像内の人の検出を行う場合を例に挙げて説明する。
{検出処理}
次に、図2のフローチャートを参照して、画像処理システム1により実行される検出処理について説明する。
次に、図2のフローチャートを参照して、画像処理システム1により実行される検出処理について説明する。
ステップS1において、画像取得部11は、入力画像を取得する。すなわち、画像取得部11は、監視領域を撮影することにより得られる入力画像を取得する。画像取得部11は、取得した入力画像を画像処理部12に供給する。
ステップS2において、背景識別部21は、背景識別処理を実行済みであるか否かを判定する。背景識別処理がまだ実行されていないと判定された場合、処理はステップS3に進む。
ステップS3において、背景識別部21は、背景識別処理を実行し、その後、処理はステップS4に進む。ここで、図3のフローチャートを参照して、背景識別処理の詳細について説明する。
ステップS31において、背景識別部21は、入力画像を分割する。例えば、背景識別部21は、入力画像をM行×N列の矩形の小領域(分割領域)に分割する。
ステップS32において、背景識別部21は、未分類の分割領域を1つ選択する。
ステップS33において、背景識別部21は、分割領域内のコントラスト量を検出する。例えば、背景識別部21は、ステップS32の処理で選択した分割領域内の画素の輝度値の最大値と最小値の差を求める。そして、背景識別部21は、次式(1)により、分割領域のコントラスト量を算出する。
コントラスト量=輝度値の最大値−輝度値の最小値 ・・・(1)
すなわち、式(1)のコントラスト量は、分割領域内の輝度差の最大値に等しい。
或いは、例えば、背景識別部21は、ステップS31において入力画像を分割する前に、入力画像に対してハイパスフィルタをかける。
図4は、3×3のハイパスフィルタの例を示している。また、図6は、図5の入力画像に対して図4のハイパスフィルタをかけた結果を示している。このように、入力画像に対してハイパスフィルタをかけることにより、入力画像の高周波成分(図6の画像の白色の画素の部分)が抽出される。
そして、背景識別部21は、例えば、ハイパスフィルタをかけた後の入力画像の分割領域について、次式(2)によりコントラスト量を算出する。
コントラスト量=高周波成分を含む画素数÷分割領域内の全画素数 ・・・(2)
すなわち、式(2)のコントラスト量は、分割領域内の画素のうち高周波成分を含む画素の割合に等しい。ここで、高周波成分を含む画素とは、例えば、図6の画像において、画素値が所定の閾値以上の画素のことである。
ステップS34において、背景識別部21は、分割領域内のコントラスト量が所定の閾値以下であるか否かを判定する。分割領域内のコントラスト量が所定の閾値以下であると判定された場合、処理はステップS35に進む。
ステップS35において、背景識別部21は、現在処理対象になっている分割領域を、単純背景領域に分類する。その後、処理はステップS37に進む。
一方、ステップS34において、分割領域内のコントラスト量が所定の閾値より大きいと判定された場合、処理はステップS36に進む。
ステップS36において、背景識別部21は、現在処理対象になっている分割領域を、複雑背景領域に分類する。その後、処理はステップS37に進む。
ステップS37において、背景識別部21は、全ての分割領域の分類が終了したか否かを判定する。まだ全ての分割領域の分類が終了していないと判定された場合、処理はステップS32に戻る。
その後、ステップS37において、全ての分割領域の分類が終了したと判定されるまで、ステップS32乃至S37の処理が繰り返し実行される。これにより、入力画像内の各分割領域が、単純背景領域又は複雑背景領域のいずれかに分類される。
一方、ステップS37において、全ての分割領域の分類が終了したと判定された場合、背景識別処理は終了する。
なお、この背景識別処理は、監視領域内に動体が存在しない状態で実行することが望ましい。
図2に戻り、一方、ステップS2において、背景識別処理が実施済みであると判定された場合、ステップS3の処理はスキップされ、処理はステップS4に進む。
ステップS4において、認識処理部22は、対象物検出処理を実行する。ここで、図7のフローチャートを参照して、対象物検出処理の詳細について説明する。
ステップS61において、認識処理部22は、検出窓51を検出開始位置に設定する。例えば、認識処理部22は、図8に示されるように、検出窓51を入力画像内においてラスタスキャンする場合、検出窓51を入力画像の左上隅に設定する。
ステップS62において、認識処理部22は、検出窓51により囲まれる領域(以下、検出領域と称する)が単純背景領域であるか否かを判定する。例えば、認識処理部22は、検出領域内における単純背景領域と複雑背景領域の面積に基づいて、検出領域が単純背景領域であるか否かを判定する。例えば、認識処理部22は、検出領域内において単純背景領域の方が複雑背景領域より広い場合、検出領域が単純背景領域であると判定する。一方、認識処理部22は、検出領域内において複雑背景領域の方が単純背景領域より広い場合、検出領域が複雑背景領域であると判定する。
例えば、図9に示される例の場合、検出窓51内の検出領域において、複雑背景領域の方が単純背景領域より広いため、この検出領域は、複雑背景領域であると判定される。
なお、検出領域内の単純背景領域と複雑背景領域の面積が等しい場合、認識処理部22は、検出領域を単純背景領域又は複雑背景領域のいずれに分類するようにしてもよい。
或いは、例えば、認識処理部22は、検出領域の中心が属する背景領域に基づいて、検出領域が単純背景領域であるか否かを判定する。例えば、認識処理部22は、検出領域の中心が単純背景領域に属する場合、検出領域が単純背景領域であると判定する。一方、認識処理部22は、検出領域の中心が複雑背景領域に属する場合、検出領域が複雑背景領域であると判定する。
そして、ステップS62において、検出領域が単純背景領域であると判定された場合、処理はステップS63に進む。
ステップS63において、認識処理部22は、単純背景用の識別器31aを用いて対象物の検出処理を行う。その後、処理はステップS65に進む。
一方、ステップS62において、検出領域が複雑背景領域であると判定された場合、処理はステップS64に進む。
ステップS64において、認識処理部22は、複雑背景用の識別器31bを用いて対象物の検出処理を行う。その後、処理はステップS65に進む。
ステップS65において、認識処理部22は、入力画像内を全て探索したか否かを判定する。まだ入力画像の全ての領域が探索されていないと判定された場合、処理はステップS66に進む。
ステップS66において、認識処理部22は、検出窓51を移動する。例えば、認識処理部22は、図8に示されるように、検出窓51をラスタスキャンしている場合、検出窓を所定の距離だけ右方向にシフトする。なお、認識処理部22は、検出窓51が入力画像の右端に設定されている場合、検出窓51を入力画像の左端に移動するとともに、検出窓51を所定の距離だけ下方向にシフトする。
その後、処理はステップS62に戻り、ステップS65において、入力画像内を全て探索したと判定されるまで、ステップS62乃至S66の処理が繰り返し実行される。これにより、入力画像内の全ての領域において、対象物の検出処理が行われる。
一方、ステップS65において、入力画像内を全て探索したと判定された場合、対象物検出処理は終了する。
図2に戻り、ステップS5において、画像処理システム1は、検出結果を出力する。具体的には、認識処理部22は、対象物の検出結果を出力部13に供給する。出力部13は、取得した検出結果を外部に出力する。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
このように、検出領域毎に背景の種類に応じた識別器を用いて対象物の検出処理を行うことにより、検出漏れや誤検出が減少し、検出精度が向上する。すなわち、背景の違いに関わらず、対象物の検出精度を良好に保つことができる。また、検出領域毎に背景の種類に応じた識別器を用いることにより、演算量を削減し、処理時間を短縮することができる。
<2.第2の実施の形態>
{画像処理システム101の構成例}
図10は、本技術の第2の実施の形態である画像処理システム101の構成例を示すブロック図である。なお、図1と対応する部分には、同じ符号を付してある。
{画像処理システム101の構成例}
図10は、本技術の第2の実施の形態である画像処理システム101の構成例を示すブロック図である。なお、図1と対応する部分には、同じ符号を付してある。
画像処理システム101は、図1の画像処理システム1と比較して、画像処理部12の代わりに、画像処理部111が設けられている点が異なる。画像処理部111は、画像処理部12と比較して、動体検出部121が追加されている点が異なる。
動体検出部121は、入力画像内の動体の検出を行う。動体検出部121は、背景差分部131、時間差分部132、ラベリング部133、及び、トラッキング部134を含むように構成される。
背景差分部131は、入力画像と背景画像の差分をとる。ここで、背景画像とは、背景のみが写っている画像のことである。
時間差分部132は、入力画像の時間方向の差分をとる。ここで、時間方向の差分とは、異なるフレーム間の入力画像の差分のことである。
ラベリング部133は、背景差分部131と時間差分部132の差分処理の結果に基づいて、入力画像内で動体を含む領域(以下、動体領域と称する)を検出する。また、ラベリング部133は、検出した動体領域のラベル付けを行う。
トラッキング部134は、ラベル付けされた動体領域のフレーム間の対応付けを行うことにより、動体領域のトラッキングを行う。
{検出処理}
次に、図11のフローチャートを参照して、画像処理システム101により実行される検出処理について説明する。
次に、図11のフローチャートを参照して、画像処理システム101により実行される検出処理について説明する。
ステップS101乃至ステップS103において、図2のステップS1乃至S3と同様の処理が実行される。これにより、背景識別処理がまだ実行されていない場合、背景識別処理が実行され、入力画像の分割領域毎に背景の種類が識別される。
ステップS104において、動体検出部121は、動体領域検出処理を実行する。ここで、図12のフローチャートを参照して、動体領域検出処理の詳細について説明する。
ステップS131において、背景差分部131は、入力画像と背景画像の差分をとる。例えば、背景差分部131は、入力画像と背景画像が輝度画像である場合、2つの画像の同じ位置の画素間の輝度値の差分をとる。或いは、例えば、背景差分部131は、入力画像と背景画像がカラー画像である場合、2つの画像の同じ位置の画素間の各色の画素値の差分をとる。そして、背景差分部131は、輝度値又は画素値の差が所定の閾値以上の画素からなる領域(以下、背景差分領域と称する)を検出する。
なお、背景画像の取得方法には、任意の方法を採用することができる。例えば、事前に監視領域内に動体が存在しない状態で撮影した画像を背景画像として用いることが可能である。或いは、例えば、画像処理部111が、所定の期間にわたって入力画像内の動体以外の背景部分を検出し、検出した背景部分を組み合わせることにより背景画像を生成するようにしてもよい。
ステップS132において、時間差分部132は、入力画像の時間方向の差分をとる。例えば、時間差分部132は、入力画像が輝度画像である場合、最新の入力画像と1フレーム前の入力画像の同じ位置の画素間の輝度値の差分をとる。或いは、例えば、時間差分部132は、入力画像がカラー画像である場合、最新の入力画像と1フレーム前の入力画像の同じ位置の画素間の画素値の差分をとる。そして、時間差分部132は、輝度値又は画素値の差が所定の閾値以上の画素からなる領域(以下、時間差分領域と称する)を検出する。
ステップS133において、ラベリング部133は、差分領域を合成する。すなわち、ラベリング部133は、背景差分領域と時間差分領域を合成する。なお、以下、合成後の差分領域を合成差分領域と称する。
ステップS134において、ラベリング部133は、ラベリングを行う。例えば、ラベリング部133は、モルフォロジ処理等により、合成差分領域の連結と外乱除去を行うことにより、入力画像内の動体領域を検出する。ラベリング部133は、検出した各動体領域に識別用のラベルを付ける。
ステップS135において、トラッキング部134は、トラッキング処理を行う。例えば、トラッキング部134は、ラベル付けされた各動体領域を、領域の大きさや形状等に基づいて、過去のフレームの入力画像において検出された動体領域と対応づける。このとき、トラッキング部134は、検出窓51に対して小さすぎて識別器により識別できない動体領域を削除するようにしてもよい。
その後、動体領域検出処理は終了する。
図11に戻り、ステップS105において、動体検出部121は、ステップS104の処理の結果に基づいて、動体領域が存在するか否かを判定する。動体領域が存在すると判定された場合、処理はステップS106に進む。
ステップS106において、認識処理部22は、対象物検出処理を実行し、その後、処理はステップS107に進む。ここで、図13のフローチャートを参照して、対象物検出処理の詳細について説明する。
ステップS161において、認識処理部22は、検出窓51を検出開始位置に設定する。例えば、認識処理部22は、検出窓51を入力画像の左上隅から所定の間隔でラスタスキャンしていき、検出窓51内に動体領域が含まれた位置において検出窓51を停止する。この検出窓51が停止した位置が、検出開始位置となる。
ステップS162において、図7のステップS62の処理と同様に、検出領域が単純背景領域であるか否かが判定される。検出領域が単純背景領域であると判定された場合、処理はステップS163に進む。
ステップS163において、図7のステップS63の処理と同様に、単純背景用の識別器31aを用いて対象物の検出処理が行われる。
その後、処理はステップS165に進む。
一方、ステップS162において、検出領域が複雑背景領域であると判定された場合、処理はステップS164に進む。
ステップS164において、図7のステップS64の処理と同様に、複雑背景用の識別器31bを用いて対象物の検出処理が行われる。
その後、処理はステップS165に進む。
ステップS165において、認識処理部22は、動体領域内を全て探索したか否かを判定する。まだ動体領域内を全て探索していないと判定された場合、処理はステップS166に進む。
ステップS166において、認識処理部22は、検出窓51を移動する。例えば、認識処理部22は、検出窓51を現在の位置から所定の間隔でラスタスキャンしていき、検出窓51内に動体領域が含まれた位置において検出窓51を停止する。
その後、処理はステップS162に戻り、ステップS165において、動体領域内が全て探索されたと判定されるまで、ステップS162乃至S166の処理が繰り返し実行される。これにより、入力画像内の全ての動体領域において、対象物の検出処理が行われる。
一方、ステップS165において、動体領域内が全て探索されたと判定された場合、対象物検出処理は終了する。
図11に戻り、一方、ステップS105において、動体領域が存在しないと判定された場合、ステップS106の処理はスキップされ、処理はステップS107に進む。
ステップS107において、図2のステップS5の処理と同様に、検出結果が出力される。
その後、処理はステップS101に戻り、ステップS101以降の処理が繰り返し実行される。
このように、第2の実施の形態では、対象物の検出範囲が動体領域に限定されるため、処理時間を短縮することができる。
なお、動体検出の精度が十分に高い場合、例えば、前のフレームの動体領域と同じ領域として対応付けられる動体領域を、対象物の検出を行う領域から除外し、その動体領域については、前のフレームの検出結果を用いるようにしてもよい。
<3.第3の実施の形態>
{画像処理システム201の構成例}
図14は、本技術の第3の実施の形態である画像処理システム201の構成例を示すブロック図である。なお、図10と対応する部分には、同じ符号を付してある。
{画像処理システム201の構成例}
図14は、本技術の第3の実施の形態である画像処理システム201の構成例を示すブロック図である。なお、図10と対応する部分には、同じ符号を付してある。
画像処理システム201は、図10の画像処理システム101と比較して、画像処理部111の代わりに画像処理部211が設けられている点が異なる。また、画像処理部211は、画像処理部111と比較して、認識処理部22の代わりに認識処理部221が設けられ、マスク処理部222が追加されている点が異なる。認識処理部221は、認識処理部22と比較して、識別器31bが削除されている点が異なる。
マスク処理部222は、入力画像において、動体検出部121により検出された動体領域以外の領域のマスク処理を行う。
{検出処理}
次に、図15を参照して、画像処理システム201により実行される検出処理について説明する。
次に、図15を参照して、画像処理システム201により実行される検出処理について説明する。
ステップS201において、図2のステップS1の処理と同様に、入力画像が取得される。
ステップS202において、図11のステップS104の処理と同様に、動体領域検出処理が実行される。
ステップS203において、図11のステップS105の処理と同様に、動体領域が存在するか否かが判定される。動体領域が存在すると判定された場合、処理はステップS204に進む。
ステップS204において、マスク処理部222は、背景領域をマスクする。例えば、マスク処理部222は、入力画像内の領域のうち、動体検出部121により検出された動体領域以外の領域を背景領域であるとみなし、背景領域の輝度値又は画素値を所定の値に設定する。例えば、マスク処理部222は、入力画像が0〜255までの256段階の輝度値で表される場合、背景領域の輝度値を中間の値である128に設定する。これにより、入力画像の背景領域が、無地の背景となる。
ステップS205において、認識処理部221は、対象物検出処理を実行し、その後、処理はステップS206に進む。ここで、図16のフローチャートを参照して、対象物検出処理の詳細について説明する。
ステップS231において、図13のステップS161の処理と同様に、検出窓51が検出開始位置に設定される。
ステップS232において、図13のステップS163の処理と同様に、単純背景用の識別器31aを用いて対象物の検出処理が行われる。すなわち、上述したステップS204の処理で、入力画像の背景領域が無地の背景に設定されているため、検出領域の背景は必ず単純背景となる。そこで、認識処理部22は、常に単純背景用の識別器31aを用いて対象物の検出処理を行う。
ステップS233において、図13のステップS165の処理と同様に、動体領域内を全て探索したか否かが判定される。まだ動体領域内が全て探索されていないと判定された場合、処理はステップS234に進む。
ステップS234において、図13のステップS166の処理と同様に、検出窓51が移動される。
その後、処理はステップS232に戻り、ステップS233において、動体領域内を全て探索したと判定されるまで、ステップS232乃至S234の処理が繰り返し実行される。これにより、入力画像内の全ての動体領域において、対象物の検出処理が行われる。
一方、ステップS233において、動体領域内を全て探索したと判定された場合、対象物検出処理は終了する。
図15に戻り、一方、ステップS203において、動体領域が存在しないと判定された場合、ステップS204及びS205の処理はスキップされ、処理はステップS206に進む。
ステップS206において、図11のステップS107の処理と同様に、検出結果が出力される。
その後、処理はステップS201に戻り、ステップS201乃至S206の処理が繰り返し実行される。
このように、第3の実施の形態では、背景識別処理を省略し、単純背景用の識別器31aのみを用いて、対象物の検出処理を行うことができる。その結果、処理時間を短縮することができる。
<4.変形例>
以下、上述した本技術の実施の形態の変形例について説明する。
以下、上述した本技術の実施の形態の変形例について説明する。
{本技術の適用範囲に関する変形例}
以上の説明では、本技術を人の検出処理に適用する例を示したが、本技術は、人以外の任意の対象物の検出処理に適用することができる。また、本技術は、対象物の認識処理にも適用することができる。すなわち、本技術は、各種の対象物、各種の検出処理、各種の認識処理に応じた識別器を用いることにより、各種の対象物の検出処理や認識処理に適用することができる。
以上の説明では、本技術を人の検出処理に適用する例を示したが、本技術は、人以外の任意の対象物の検出処理に適用することができる。また、本技術は、対象物の認識処理にも適用することができる。すなわち、本技術は、各種の対象物、各種の検出処理、各種の認識処理に応じた識別器を用いることにより、各種の対象物の検出処理や認識処理に適用することができる。
また、対象物の検出又は認識を行う領域は、必ずしも1カ所に固定する必要はない。例えば、本技術は、車両の前方を監視する装置等、システムや装置が移動体に搭載され、監視領域が移動する場合にも適用することができる。
{背景の種類の分類方法に関する変形例}
第1の実施の形態及び第2の実施の形態では、背景識別部21が、入力画像の分割領域毎に背景の種類を識別する例を示したが、例えば、入力画像全体で背景の種類を識別するようにしてもよい。例えば、背景識別部21が、入力画像全体の背景を単純背景か複雑背景のいずれであるかを識別するようにしてもよい。この場合、使用される識別器は、入力画像毎に1種類となる。
第1の実施の形態及び第2の実施の形態では、背景識別部21が、入力画像の分割領域毎に背景の種類を識別する例を示したが、例えば、入力画像全体で背景の種類を識別するようにしてもよい。例えば、背景識別部21が、入力画像全体の背景を単純背景か複雑背景のいずれであるかを識別するようにしてもよい。この場合、使用される識別器は、入力画像毎に1種類となる。
また、以上の説明では、背景の種類を、単純背景と複雑背景の2種類に分類する例を示したが、3種類以上に分類するようにしてもよい。例えば、各分割領域内の所定の周波数以上の成分(高周波成分)の量に基づいて、各分割領域の背景を3種類以上に分割するようにしてもよい。
なお、背景を3種類以上に分類する場合、例えば、検出領域内の面積が最大の背景の種類が、その検出領域の背景の種類に設定される。或いは、例えば、検出領域の中心の背景の種類が、その検出領域の背景の種類に設定される。
また、背景の種類を、上述した例以外の特徴量や観点により分類するようにしてもよい。
例えば、背景の種類を色により分類するようにしてもよい。例えば、物体のエッジと色に基づいて、人物の検出や認識を行う場合、肌色に近い色の背景と、肌色から離れた色の背景とに分類するようにしてもよい。そして、例えば、肌色に近い色の背景の場合、エッジの検出結果を重視する識別器を用い、肌色に近い色の背景の場合、色の検出結果を重視する識別器を用いるようにしてもよい。
或いは、例えば、背景の種類を場所やシーン等により分類するようにしてもよい。例えば、背景の種類を屋内か屋外に分類するようにしてもよい。また、例えば、オフィス、街中、海、山、スキー場等の具体的な場所により背景の種類を分類するようにしてもよい。さらに、例えば、各種のスポーツのプレー中、お祭り、コンサート等のシーンにより背景の種類を分類するようにしてもよい。また、例えば、天候により背景の種類を分類するようにしてもよい。さらに、場所とシーン等を組み合わせて、背景の種類を分類するようにしてもよい。
そして、例えば、背景の種類に応じて、その背景の種類に適した識別器を用いて、対象物の検出や認識を行うようにすればよい。例えば、場所やシーンに応じた服装の検出に適した識別器を用いて、人の検出や認識を行うようにしてもよい。例えば、背景が海なら水着の検出に適した識別器、背景が祭りなら浴衣の検出に適した識別器、スキー場ならスキーウエアの検出に適した識別器を用いるようにしてもよい。
なお、背景の種類の識別方法には、任意の方法を採用することが可能である。
また、以上の説明では、画像処理部で背景の種類の識別を行う例を示したが、例えば、入力画像の各分割領域の背景の種類を示す情報を外部から与えるようにしてもよい。そして、認識処理部が、外部から与えられた情報に基づいて、各分割領域の背景の種類に応じた識別器を用いるようにしてもよい。
さらに、例えば、第3の実施の形態において、背景領域をマスクせずに、背景領域以外の領域(動体領域)のみの特徴量に基づいて、各分割領域の背景の種類を識別するようにしてもよい。
{動体検出に関する変形例}
また、動体領域の検出方法は、上述した例に限定されるものではなく、任意の方法を採用することができる。
また、動体領域の検出方法は、上述した例に限定されるものではなく、任意の方法を採用することができる。
例えば、背景差分と時間差分のうち一方のみを用いて、動体領域を検出するようにしてもよい。
さらに、例えば、他の動体検出方法を用いて、動体領域を検出するようにしてもよい。
{検出窓に関する変形例}
また、例えば、上述した検出窓51のスキャン方法は、その一例であり、ラスタスキャン以外のスキャン方法を採用することも可能である。
また、例えば、上述した検出窓51のスキャン方法は、その一例であり、ラスタスキャン以外のスキャン方法を採用することも可能である。
さらに、検出窓51が対象物に対して大きすぎたり、或いは、小さすぎたりする場合、例えば、検出窓51のサイズを変更したり、入力画像のサイズを変更したりして、検出窓51と対象物の相対的な大きさを適切に調整するようにしてもよい。
{コンピュータの構成例}
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図17は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)401,ROM(Read Only Memory)402,RAM(Random Access Memory)403は、バス404により相互に接続されている。
バス404には、さらに、入出力インタフェース405が接続されている。入出力インタフェース405には、入力部406、出力部407、記憶部408、通信部409、及びドライブ410が接続されている。
入力部406は、キーボード、マウス、マイクロフォンなどよりなる。出力部407は、ディスプレイ、スピーカなどよりなる。記憶部408は、ハードディスクや不揮発性のメモリなどよりなる。通信部409は、ネットワークインタフェースなどよりなる。ドライブ410は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア411を駆動する。
以上のように構成されるコンピュータでは、CPU401が、例えば、記憶部408に記憶されているプログラムを、入出力インタフェース405及びバス404を介して、RAM403にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU401)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア411に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア411をドライブ410に装着することにより、入出力インタフェース405を介して、記憶部408にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部409で受信し、記憶部408にインストールすることができる。その他、プログラムは、ROM402や記憶部408に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、例えば、本技術は以下のような構成も取ることができる。
(1)
入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理部を
備える画像処理装置。
(2)
前記認識処理部は、前記入力画像内において所定の大きさの検出領域を移動させながら、前記検出領域内の前記背景の種類に応じた前記識別器を用いて、前記検出領域内の前記対象物の検出又は認識のうち少なくとも一方を行う
前記(1)に記載の画像処理装置。
(3)
前記認識処理部は、前記検出領域内に複数の種類の背景が存在する場合、前記検出領域内の面積が最大の背景の種類に応じた前記識別器を用いる
前記(2)に記載の画像処理装置。
(4)
前記認識処理部は、前記検出領域内に複数の種類の背景が存在する場合、前記検出領域の中心の背景の種類に応じた前記識別器を用いる
前記(2)に記載の画像処理装置。
(5)
前記入力画像を分割した分割領域毎に、前記分割領域内の特徴量に基づいて前記背景の種類を識別する背景識別部を
さらに備える前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記背景識別部は、前記分割領域内の所定の周波数以上の成分の量に基づいて、前記分割領域の背景の種類を識別する
前記(5)に記載の画像処理装置。
(7)
前記背景識別部は、前記分割領域内の前記所定の周波数以上の成分の量が所定の閾値以上の第1の種類、及び、前記分割領域内の前記所定の周波数以上の成分の量が前記閾値未満の第2の種類の中から、前記分割領域の背景の種類を識別する
前記(6)に記載の画像処理装置。
(8)
前記入力画像内の動体を含む領域である動体領域を検出する動体検出部を
さらに備え、
前記認識処理部は、前記動体領域において、前記動体領域内の背景の種類に応じた前記識別器を用いて、前記対象物の検出又は認識のうち少なくとも一方を行う
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記入力画像内の動体を含む領域である動体領域を検出する動体検出部と、
前記入力画像内の前記動体領域以外の領域をマスクするマスク処理部と
をさらに備え、
前記認識処理部は、マスクされた前記入力画像において、無地の背景に対応する前記識別器を用いて、前記対象物の検出又は認識のうち少なくとも一方を行う
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(10)
画像処理装置が、
入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理ステップを
含む画像処理方法。
(11)
入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理ステップを
含む処理をコンピュータに実行させるためのプログラム。
入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理部を
備える画像処理装置。
(2)
前記認識処理部は、前記入力画像内において所定の大きさの検出領域を移動させながら、前記検出領域内の前記背景の種類に応じた前記識別器を用いて、前記検出領域内の前記対象物の検出又は認識のうち少なくとも一方を行う
前記(1)に記載の画像処理装置。
(3)
前記認識処理部は、前記検出領域内に複数の種類の背景が存在する場合、前記検出領域内の面積が最大の背景の種類に応じた前記識別器を用いる
前記(2)に記載の画像処理装置。
(4)
前記認識処理部は、前記検出領域内に複数の種類の背景が存在する場合、前記検出領域の中心の背景の種類に応じた前記識別器を用いる
前記(2)に記載の画像処理装置。
(5)
前記入力画像を分割した分割領域毎に、前記分割領域内の特徴量に基づいて前記背景の種類を識別する背景識別部を
さらに備える前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記背景識別部は、前記分割領域内の所定の周波数以上の成分の量に基づいて、前記分割領域の背景の種類を識別する
前記(5)に記載の画像処理装置。
(7)
前記背景識別部は、前記分割領域内の前記所定の周波数以上の成分の量が所定の閾値以上の第1の種類、及び、前記分割領域内の前記所定の周波数以上の成分の量が前記閾値未満の第2の種類の中から、前記分割領域の背景の種類を識別する
前記(6)に記載の画像処理装置。
(8)
前記入力画像内の動体を含む領域である動体領域を検出する動体検出部を
さらに備え、
前記認識処理部は、前記動体領域において、前記動体領域内の背景の種類に応じた前記識別器を用いて、前記対象物の検出又は認識のうち少なくとも一方を行う
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記入力画像内の動体を含む領域である動体領域を検出する動体検出部と、
前記入力画像内の前記動体領域以外の領域をマスクするマスク処理部と
をさらに備え、
前記認識処理部は、マスクされた前記入力画像において、無地の背景に対応する前記識別器を用いて、前記対象物の検出又は認識のうち少なくとも一方を行う
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(10)
画像処理装置が、
入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理ステップを
含む画像処理方法。
(11)
入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理ステップを
含む処理をコンピュータに実行させるためのプログラム。
1 画像処理システム, 12 画像処理部, 21 背景識別部, 22 認識処理部, 31a,31b 識別器, 51 検出窓, 101 画像処理システム, 111 画像処理部, 121 動体検出部, 131 背景差分部, 132 時間差分部, 133 ラベリング部, 134 トラッキング部, 201 画像処理システム, 211 画像処理部, 221 認識処理部, 222 マスク処理部
Claims (11)
- 入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理部を
備える画像処理装置。 - 前記認識処理部は、前記入力画像内において所定の大きさの検出領域を移動させながら、前記検出領域内の前記背景の種類に応じた前記識別器を用いて、前記検出領域内の前記対象物の検出又は認識のうち少なくとも一方を行う
請求項1に記載の画像処理装置。 - 前記認識処理部は、前記検出領域内に複数の種類の背景が存在する場合、前記検出領域内の面積が最大の背景の種類に応じた前記識別器を用いる
請求項2に記載の画像処理装置。 - 前記認識処理部は、前記検出領域内に複数の種類の背景が存在する場合、前記検出領域の中心の背景の種類に応じた前記識別器を用いる
請求項2に記載の画像処理装置。 - 前記入力画像を分割した分割領域毎に、前記分割領域内の特徴量に基づいて前記背景の種類を識別する背景識別部を
さらに備える請求項1に記載の画像処理装置。 - 前記背景識別部は、前記分割領域内の所定の周波数以上の成分の量に基づいて、前記分割領域の背景の種類を識別する
請求項5に記載の画像処理装置。 - 前記背景識別部は、前記分割領域内の前記所定の周波数以上の成分の量が所定の閾値以上の第1の種類、及び、前記分割領域内の前記所定の周波数以上の成分の量が前記閾値未満の第2の種類の中から、前記分割領域の背景の種類を識別する
請求項6に記載の画像処理装置。 - 前記入力画像内の動体を含む領域である動体領域を検出する動体検出部を
さらに備え、
前記認識処理部は、前記動体領域において、前記動体領域内の背景の種類に応じた前記識別器を用いて、前記対象物の検出又は認識のうち少なくとも一方を行う
請求項1に記載の画像処理装置。 - 前記入力画像内の動体を含む領域である動体領域を検出する動体検出部と、
前記入力画像内の前記動体領域以外の領域をマスクするマスク処理部と
をさらに備え、
前記認識処理部は、マスクされた前記入力画像において、無地の背景に対応する前記識別器を用いて、前記対象物の検出又は認識のうち少なくとも一方を行う
請求項1に記載の画像処理装置。 - 画像処理装置が、
入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理ステップを
含む画像処理方法。 - 入力画像の背景の種類に応じた識別器を用いて、所定の対象物の検出又は認識のうち少なくとも一方を行う認識処理ステップを
含む処理をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014231744A JP2016095701A (ja) | 2014-11-14 | 2014-11-14 | 画像処理装置、画像処理方法、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014231744A JP2016095701A (ja) | 2014-11-14 | 2014-11-14 | 画像処理装置、画像処理方法、及び、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016095701A true JP2016095701A (ja) | 2016-05-26 |
Family
ID=56071432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014231744A Pending JP2016095701A (ja) | 2014-11-14 | 2014-11-14 | 画像処理装置、画像処理方法、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016095701A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019120980A (ja) * | 2017-12-28 | 2019-07-22 | 日本テレビ放送網株式会社 | 画像識別装置、プログラム及び画像識別方法 |
WO2019150649A1 (ja) * | 2018-01-30 | 2019-08-08 | 株式会社日立国際電気 | 画像処理装置および画像処理方法 |
JP2020031393A (ja) * | 2018-08-24 | 2020-02-27 | セコム株式会社 | 対象検知装置、画像処理装置、対象検知方法、画像処理方法、及びプログラム |
WO2020090390A1 (ja) * | 2018-10-29 | 2020-05-07 | 日本電気株式会社 | センサ情報統合システム、センサ情報統合方法、プログラム、及び記録媒体 |
KR20200069911A (ko) * | 2018-12-07 | 2020-06-17 | 한국전자통신연구원 | 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법 및 장치 |
-
2014
- 2014-11-14 JP JP2014231744A patent/JP2016095701A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019120980A (ja) * | 2017-12-28 | 2019-07-22 | 日本テレビ放送網株式会社 | 画像識別装置、プログラム及び画像識別方法 |
JP7066405B2 (ja) | 2017-12-28 | 2022-05-13 | 日本テレビ放送網株式会社 | 画像識別装置、プログラム及び画像識別方法 |
WO2019150649A1 (ja) * | 2018-01-30 | 2019-08-08 | 株式会社日立国際電気 | 画像処理装置および画像処理方法 |
JPWO2019150649A1 (ja) * | 2018-01-30 | 2020-12-17 | 株式会社日立国際電気 | 画像処理装置および画像処理方法 |
JP2020031393A (ja) * | 2018-08-24 | 2020-02-27 | セコム株式会社 | 対象検知装置、画像処理装置、対象検知方法、画像処理方法、及びプログラム |
JP7194534B2 (ja) | 2018-08-24 | 2022-12-22 | セコム株式会社 | 対象検知装置、画像処理装置、対象検知方法、画像処理方法、及びプログラム |
WO2020090390A1 (ja) * | 2018-10-29 | 2020-05-07 | 日本電気株式会社 | センサ情報統合システム、センサ情報統合方法、プログラム、及び記録媒体 |
JPWO2020090390A1 (ja) * | 2018-10-29 | 2021-10-07 | 日本電気株式会社 | センサ情報統合システム、及びセンサ情報統合方法 |
JP7095746B2 (ja) | 2018-10-29 | 2022-07-05 | 日本電気株式会社 | センサ情報統合システム、及びセンサ情報統合方法 |
US11930476B2 (en) | 2018-10-29 | 2024-03-12 | Nec Corporation | Sensor information integration system, sensor information integration method, program, and recording medium |
KR20200069911A (ko) * | 2018-12-07 | 2020-06-17 | 한국전자통신연구원 | 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법 및 장치 |
KR102297217B1 (ko) * | 2018-12-07 | 2021-09-03 | 한국전자통신연구원 | 영상들 간에 객체와 객체 위치의 동일성을 식별하기 위한 방법 및 장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10872243B2 (en) | Foreground detector for video analytics system | |
US10636164B2 (en) | Object detection method and apparatus based on dynamic vision sensor | |
Braham et al. | Semantic background subtraction | |
CA3000127C (en) | System and method for appearance search | |
Arth et al. | Real-time license plate recognition on an embedded DSP-platform | |
US9460522B2 (en) | Incremental update for background model thresholds | |
US8792722B2 (en) | Hand gesture detection | |
US9710716B2 (en) | Computer vision pipeline and methods for detection of specified moving objects | |
US8750573B2 (en) | Hand gesture detection | |
US9471844B2 (en) | Dynamic absorption window for foreground background detector | |
US8553931B2 (en) | System and method for adaptively defining a region of interest for motion analysis in digital video | |
US10163027B2 (en) | Apparatus for and method of processing image based on object region | |
JP2008192131A (ja) | 特徴レベル・セグメンテーションを実行するシステムおよび方法 | |
JP2014089626A (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
KR20040008791A (ko) | 영상시각 정보를 결합하여 실시간으로 복수의 얼굴을검출하고 추적하는 얼굴 검출 및 추적 시스템 및 방법 | |
JP2016095701A (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
JP6157165B2 (ja) | 視線検出装置及び撮像装置 | |
Cheng et al. | A hybrid background subtraction method with background and foreground candidates detection | |
US20140003660A1 (en) | Hand detection method and apparatus | |
CN107564041B (zh) | 一种可见光图像空中运动目标的检测方法 | |
WO2016069902A2 (en) | Background foreground model with dynamic absorbtion window and incremental update for background model thresholds | |
WO2018113206A1 (zh) | 一种图像处理方法及终端 | |
Jamali et al. | Saliency based fire detection using texture and color features | |
KR102150661B1 (ko) | 객체를 검출하기 위한 전처리 장치 및 방법 | |
WO2016136214A1 (ja) | 識別器学習装置、滞留物体検出システム、識別器学習方法、滞留物体検出方法およびプログラム記録媒体 |