JP2016134803A - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2016134803A JP2016134803A JP2015008923A JP2015008923A JP2016134803A JP 2016134803 A JP2016134803 A JP 2016134803A JP 2015008923 A JP2015008923 A JP 2015008923A JP 2015008923 A JP2015008923 A JP 2015008923A JP 2016134803 A JP2016134803 A JP 2016134803A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- same
- camera
- cameras
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
- H04N1/603—Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
- H04N1/6052—Matching two or more picture signal generators or two or more picture reproducers
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】複数のカメラの撮影範囲が重ならない場合に、ユーザに対する負荷を軽減して複数のカメラ間の色の違いを低減する。
【解決手段】複数のカメラで撮影された画像からそれぞれ被写体を検出する被写体検出手段と、前記被写体検出手段により検出された複数の被写体の中から、前記被写体の領域に含まれる形状または模様に基づいて同一の被写体か否かを判定する同一被写体判定手段と、前記同一被写体判定手段により同一であると判定されたそれぞれの被写体の領域の色情報に基づいて、前記複数のカメラで撮影された画像間の色の差異を補正するための補正パラメータを取得する取得手段と、を有する。
【選択図】図3
【解決手段】複数のカメラで撮影された画像からそれぞれ被写体を検出する被写体検出手段と、前記被写体検出手段により検出された複数の被写体の中から、前記被写体の領域に含まれる形状または模様に基づいて同一の被写体か否かを判定する同一被写体判定手段と、前記同一被写体判定手段により同一であると判定されたそれぞれの被写体の領域の色情報に基づいて、前記複数のカメラで撮影された画像間の色の差異を補正するための補正パラメータを取得する取得手段と、を有する。
【選択図】図3
Description
本発明は、特に、画像中の同一の被写体の色の差を低減するために用いる好適な画像処理装置、画像処理方法、プログラム及び記録媒体に関する。
従来から、コンビニ、ショッピングモール、空港などに複数のカメラを設置し、設置された複数のカメラがネットワークを介してPCなどに接続されることによって複数の地点の監視を可能とするシステムがある。例えば、あるカメラにより過去に撮影された録画映像に含まれている万引き犯など特定の人物を、現在の複数のカメラの映像の中から探すといった使い方がある。このとき、録画済みの映像と現在の複数のカメラの映像とを並べて表示し、目視によって確認することにより、特定の人物が現在どのカメラの撮影範囲にいるかを知ることができる。
複数のカメラ映像から特定の人物を目視によって同定する際に、人物の色がずれていると正しく同定することが困難になる。カメラ上で再現される色は設置された場所の環境光の色温度により影響を受けることが知られている。例えば蛍光灯と白熱灯とで比べると、蛍光灯下では物体は青色が強く再現され、白熱灯下では物体は赤色が強く再現される。屋外では、晴天下の日なたと日陰とでは色温度が異なる。カメラは、様々な照明条件のもとに設置されるので、以上のような環境光の色温度の違いの影響を大きく受ける。また、カメラは、レンズなどの光学系や撮像素子などが異なると色再現特性が異なる。複数のカメラを設置する場合、全てのカメラを同じ色再現特性を持ったカメラで揃えることは難しい。結果としてカメラ間で色再現特性が異なることになる。
以上のように監視カメラのネットワークでは、カメラ間で色の違いが発生することは避けられない課題である。そこで、このようなカメラ間の色の違いを補正する技術が提案されている。
特許文献1には、撮影領域の一部が互いに重複するように配置された複数のカメラ間での補正の方法に関して開示されている。この方法では、重複した撮影領域を用いてカラーヒストグラム(RGB信号の積算値)を色ごとに算出し、各カメラ画像間の算出した色ごとの積算値の差分が小さくなるように調整する。
しかしながら、従来の技術では、より広域を監視しようとした場合に課題が生じる。広域の場所になればなるほどカメラの撮影領域が常に重複するように設置することは難しくなるため、複数のカメラの撮影領域が重複しないことが多く起こりうる。このような場合には、色の違いを低減することができないため、特許文献1に記載の方法では色の違いを補正することができない。
従って、従来の技術では、カメラの撮影領域が重複していない場合は、カメラ間の色補正を行うために、ユーザにより、補正対象のカメラに対して基準チャートを撮影する指示を行ったり、同一人物画像の指定を行ったりする必要がある。このため、ユーザに多くの負荷がかかってしまう。
そこで、本発明は、複数のカメラの撮影範囲が重ならない場合に、ユーザに対する負荷を軽減して複数のカメラ間の色の違いを低減することを目的とする。
そこで、本発明は、複数のカメラの撮影範囲が重ならない場合に、ユーザに対する負荷を軽減して複数のカメラ間の色の違いを低減することを目的とする。
上記課題を解決するために、本発明におけるカメラ間色補正装置は、複数のカメラで撮影された画像からそれぞれ被写体を検出する被写体検出手段と、前記被写体検出手段により検出された複数の被写体の中から、前記被写体の領域に含まれる形状または模様に基づいて同一の被写体か否かを判定する同一被写体判定手段と、前記同一被写体判定手段により同一であると判定されたそれぞれの被写体の領域の色情報に基づいて、前記複数のカメラで撮影された画像間の色の差異を補正するための補正パラメータを取得する取得手段と、を有することを特徴とする。
本発明によれば、複数のカメラの撮影範囲が重ならない場合に、ユーザに対する負荷を軽減して複数のカメラ間の色の違いを低減することが可能となる。
図1は、カメラネットワークシステムのシステム構成の一例を示す図である。
撮像装置101〜103は、撮影した映像を、ネットワーク104を介してカメラ間色補正装置105などに送信する。本実施形態では、撮像装置101〜103は、カメラであるとする。また、本実施形態では、ネットワーク上の撮像装置101〜103は、互いに撮影範囲が重複していないものとする。
撮像装置101〜103は、撮影した映像を、ネットワーク104を介してカメラ間色補正装置105などに送信する。本実施形態では、撮像装置101〜103は、カメラであるとする。また、本実施形態では、ネットワーク上の撮像装置101〜103は、互いに撮影範囲が重複していないものとする。
カメラ間色補正装置105は、ネットワークを介して受信した各撮像装置の映像を基に撮像装置が撮影する画像間の色の差異を補正するためのパラメータを生成する装置である。モニタリング装置106は、ネットワークを介して受信した各撮像装置の映像を表示して、ユーザによるモニタリングを可能にする装置である。録画装置107は、ネットワークを介して受信した各撮像装置の映像を録画する装置である。
図2は本実施形態におけるカメラ間色補正装置105、モニタリング装置106、及び録画装置107のハードウェア構成の一例を示すブロック図である。
CPU201は、ROM202やRAM203に格納されたプログラムを実行する。ROM202は、不揮発性メモリであり、本実施形態の処理のプログラムやその他の制御に必要なプログラムやデータを格納する。RAM203は、揮発性メモリであり、フレーム画像データやパターン判別結果などの一時的なデータを記憶する。
CPU201は、ROM202やRAM203に格納されたプログラムを実行する。ROM202は、不揮発性メモリであり、本実施形態の処理のプログラムやその他の制御に必要なプログラムやデータを格納する。RAM203は、揮発性メモリであり、フレーム画像データやパターン判別結果などの一時的なデータを記憶する。
2次記憶装置204は、ハードディスクドライブやフラッシュメモリーなどの書き換え可能な2次記憶装置であり、画像情報や画像処理プログラムや、各種設定内容などを記憶する。記憶された情報は、RAM203に転送されて、CPU201は、前記情報を利用して、プログラムの実行、データの利用などを行う。2次記憶装置204は、コンピュータ読み取り可能な記録媒体の一例である。
入力装置205は、キーボードやマウスなどであり、ユーザからの入力を可能とするものである。表示装置206は、ブラウン管CRTや液晶ディスプレイなどであり、ユーザに対して処理結果などを表示するものである。ネットワークI/F207は、インターネットやイントラネットなどのネットワークと接続を行うモデムやLANなどである。ハードウェア構成要素201〜207は、バス208を介して、相互に接続し、データの入出力を行う。
図3〜5で後述するカメラ間色補正装置105、モニタリング装置106、録画装置107の機能はオペレーティングシステムの上で動作するソフトウェアのプログラムとして実装されている。
カメラ間色補正装置105のCPU201が、カメラ間色補正装置105のROM202又は2次記憶装置204に記憶されたプログラムに基づき処理を実行することにより、後述する図3の機能及び図6のフローチャートの処理が実現される。
モニタリング装置106のCPU201が、モニタリング装置106のROM202又は2次記憶装置204に記憶されたプログラムに基づき処理を実行することにより、後述する図5の機能及び図9のフローチャートの処理が実現される。
録画装置107のCPU201が、録画装置107のROM202又は2次記憶装置204に記憶されたプログラムに基づき処理を実行することにより、後述する図4の機能及び図8のフローチャートの処理が実現される。
図3は本実施形態における画像処理装置の一例であるカメラ間色補正装置105の機能構成の一例を示したブロック図である。
映像受信部301は、ネットワーク104を経由して撮像装置101〜103で撮影された映像をネットワークI/F207を介して受信する。被写体検出部302は、映像受信部301により受信された映像から被写体(本実施形態では人物)の領域を検出する。
映像受信部301は、ネットワーク104を経由して撮像装置101〜103で撮影された映像をネットワークI/F207を介して受信する。被写体検出部302は、映像受信部301により受信された映像から被写体(本実施形態では人物)の領域を検出する。
被写体属性情報抽出部303は、被写体検出部302により検出された被写体の領域から属性情報を抽出する。被写体の属性情報には、服の色、髪の色などといった色に関する情報と、顔、身長、サングラスの有無、髭の有無、鞄の所持の有無などといった色に関係しない情報と、がある。本実施形態における被写体属性情報抽出部303では色の補正を目的としているので、色に関連しない情報を抽出する。被写体属性情報記憶部304はRAM203や2次記憶装置204から構成されており、被写体属性情報抽出部303にて抽出された被写体属性情報を記憶する。
被写体色情報抽出部305は、被写体検出部302により抽出された被写体の領域から色情報を抽出する。被写体色情報記憶部306はRAM203や2次記憶装置204から構成されており、被写体色情報抽出部305で抽出された被写体の色情報を記憶する。被写体照合部307は、被写体属性情報記憶部304から所定の期間中に記憶された被写体属性情報を読み出して、撮像装置101〜103で撮影された映像中の被写体を照合する。被写体照合結果記憶部308はRAM203や2次記憶装置204から構成されており、被写体照合部307により照合された結果を記憶する。
同一被写体判定部309は、被写体照合結果記憶部308に記憶された被写体照合結果に基づいて、一方のカメラで撮影された映像中の被写体と他方のカメラで撮影された映像中の被写体とが同一か否かを判定する。色補正パラメータ生成部310は、同一被写体判定部309により同一の被写体と判定された被写体が占める映像中の領域の色情報を、被写体色情報記憶部306に記憶された色情報から読みだし、読みだした色情報に基づいて色補正パラメータを生成する。
色補正パラメータ記憶部311はRAM203や2次記憶装置204から構成されており、色補正パラメータ生成部310により生成された色補正パラメータを記憶する。色補正パラメータ送信部312は、モニタリング装置106からの要求に応じて、色補正パラメータを色補正パラメータ記憶部311から抽出し、ネットワーク104を介してモニタリング装置106へ送信する。
図4は、本実施形態における録画装置107の機能構成の一例を示すブロック図である。
映像受信部401は、撮像装置101〜103により撮影された映像を、ネットワーク104を経由してネットワークI/F207から受信する。映像記憶部402はRAM203や2次記憶装置204から構成されており、映像受信部401で受信した映像を記憶する。
映像再生部403は、モニタリング装置106からの要求に応じて、録画済みの映像を映像記憶部402から映像から抽出して再生する。映像送信部404は、映像再生部403によって再生された映像を、ネットワークI/F207からネットワーク104を経由してモニタリング装置106へ送信する。
映像受信部401は、撮像装置101〜103により撮影された映像を、ネットワーク104を経由してネットワークI/F207から受信する。映像記憶部402はRAM203や2次記憶装置204から構成されており、映像受信部401で受信した映像を記憶する。
映像再生部403は、モニタリング装置106からの要求に応じて、録画済みの映像を映像記憶部402から映像から抽出して再生する。映像送信部404は、映像再生部403によって再生された映像を、ネットワークI/F207からネットワーク104を経由してモニタリング装置106へ送信する。
図5は、本実施形態におけるモニタリング装置106の機能構成の一例を示すブロック図である。
カメラ組み合わせ指定部501は、入力装置205を介したユーザの操作に基づいて、モニタリング対象のカメラの組み合わせを指定する。
カメラ組み合わせ指定部501は、入力装置205を介したユーザの操作に基づいて、モニタリング対象のカメラの組み合わせを指定する。
映像受信部502は、撮像装置101〜103で撮影された映像、又は、録画装置107から送信された映像を、ネットワーク104を経由してネットワークI/F207から受信する。色補正パラメータ受信部503は、カメラ組み合わせ指定部501で指定された撮像装置に対応する色補正パラメータを、カメラ間色補正装置105からネットワーク104を介して受信する。
色補正部504は、色補正パラメータ受信部503により受信された前記色補正パラメータに基づいて撮像装置の映像を補正する。表示部505は、色補正部504により補正済みの撮像装置の映像を、表示装置206に表示する。
次に本実施形態のカメラ間色補正装置105の処理の流れについて図6のフローチャートを用いて説明する。なお、カメラ間色補正装置105は、カメラネットワークを構築した際や、新しく撮像装置をネットワーク上に追加した際などにユーザの操作に基づいて起動する。図6の処理は、カメラ間色補正装置105が行う情報処理の一例である。
以下の処理において、設定された期間、設定された閾値、設定された検出ウィンドウの大きさ、設定された点、等の設定された値は、予めカメラ間色補正装置105内の2次記憶装置204等にファイル等として設定されているものとする。また、カメラ間色補正装置105は、カメラ間色補正装置105の入力装置205を介したユーザの入力に基づいて、前記ファイル等に設定された値を変更するようにしてもよい。また、本実施形態では、被写体として人物を検出する例について説明する。
S601において、映像受信部301は、ネットワーク104を介して撮像装置(カメラ)101〜103で撮影されたそれぞれの映像をフレーム画像の単位で受信する。なお、各撮像装置は、撮像装置に固有なカメラIDを保有しており、フレーム画像にはフレームIDとして時刻情報が付与される。フレーム画像は、前記カメラID及びフレームIDが関連付けられて各撮像装置から送信される。カメラ間色補正装置105により受信されたフレーム画像は、関連付けられたカメラID及びフレームIDによってどの撮像装置からいつ撮影された映像であるかを判別できる。
S602において、被写体検出部302は、S601で受信された前記受信映像内から被写体の検出を行う。以下では、S602で検出される被写体の領域情報を被写体領域情報とする。被写体検出の具体的な方法としては、予め背景のみが撮影された映像より背景モデルを生成しておき、これと入力映像との差分により検出する背景差分による方法がある。
また、被写体が人物である場合には、人物検出の他の手法としては例えば米国特許出願公開第2007/0237387号に記載の方法がある。この方法は、設定された大きさの検出ウィンドウを入力画像上で走査させ、検出ウィンドウ内の画像を切り出したパターン画像に対し人物であるか否かの2クラス判別を行う方法である。この方法では、判別には、アダブーストを使って多くの弱判別器を有効に組み合わせて判別器を構成し、判別精度を向上させる。また、この方法では、前記判別器を直列に繋ぎ、カスケード型の検出器を構成するようにしている。弱判別器は、HOG特徴量に基づいた判別を行う。そして、カスケード型の検出器は、まず前段の単純な判別器を使って明らかに被写体でないパターンの候補をその場で除去し、それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な判別器を使って人物かどうかの判別を行う。
なお、本実施形態における被写体は、人物としているが、他の被写体についても適用可能である。例えば、被写体として車両を扱いたい場合は、米国特許出願公開第2007/0237387号に記載されている判別器を車両について作ればよい。
以上のような手法により検出された被写体に対して、被写体検出部302は、被写体IDを付与する。被写体IDは、1つのフレーム画像内で複数の被写体が検出された際に区別をつけるためのものであり、フレーム画像内で一意に付与される。被写体領域情報は、フレーム画像の左上を原点とし、人物を囲む矩形の左上と右下との2点の前記フレーム画像中のx座標、y座標で表す。さらに、被写体領域情報として、人物領域に対応する画素を1、それ以外の画素を0で表したマスク画像を含んでもよい。前記マスク画像を利用することによって、前記矩形の領域内の人物以外の画素と人物の画素とは、区別できるようになる。被写体検出部302は、検出した被写体領域情報を、前記カメラID、フレームID、被写体IDと関連付け、被写体属性情報抽出部303及び被写体色情報抽出部305に対して出力する。
S603において、被写体属性情報抽出部303は、S602で検出された前記被写体領域情報が示す領域から被写体属性情報を抽出し、被写体属性情報記憶部304に記憶する。また、被写体属性情報抽出部303は、色に関連しない形状や模様の属性情報を抽出する。なお、被写体属性情報抽出部303は、後述するS607における同一被写体判定処理の精度を上げるために、より多種の属性情報を抽出しておくことが望ましい。属性情報抽出の方法は、様々なものがあるが、例えば以下のようなものがある。
顔の属性情報の抽出方法は、画像中の顔領域内から複数の矩形の小領域を切り出し、これら矩形小領域からLBP(Local Binary Pattern)特徴量を抽出する方法である。また、顔の属性情報の抽出方法は、他に例えばHOG(Histogram of Gradiation)特徴量を抽出する方法でもよい。なお、顔の属性情報の抽出方法には、複数の矩形領域のランダムな位置を選択したり、前処理として顔の器官(目、口、鼻)の位置を検出し、顔器官の位置の近傍より選択したりして、選択した位置の情報を抽出する方法がある。
また、鞄の有無などを示す属性情報は、前述のLBPやHOGといた画像から算出される数値的な特徴量ではなく、人間にとって意味をなす特徴であり、0から1の範囲の値で示される。鞄の有無であれば、0は鞄が無いことを示し、1は鞄が有ることを示す。鞄の有無などを示す属性情報は、画像のみから鞄などの有無をはっきりと断定できない場合もあるため、0.5など中間の値も取り得る。鞄の有無などを示す属性情報の抽出処理は、形状特徴であるLBP特徴量やHOG特徴量、又は、テクスチャ特徴に基づいて行われる。テクスチャ特徴の例としては、人物領域にGaborフィルタやSchmidフィルタを施した結果をヒストグラムとしたものが挙げられる。またテクスチャ特徴は、GaborフィルタとSchmidフィルタとの2つのフィルタを使用してそれぞれヒストグラムを求め、前記ヒストグラムを連結して一つのヒストグラムとしたものでもよい。
識別器の生成方法は、以下のとおりである。前記生成方法は、多数の正解画像(例えば鞄を持った人物画像)と間違い画像(例えば鞄を持っていない人物画像)とを用意し、それぞれから特徴量を取得し、前記特徴量に基づき特徴量空間の中で正解とそうでないものを識別する識別器を生成する方法である。識別器としては、サポートベクターマシーン(SVM)などの公知の手法が挙げられる。
被写体属性情報抽出部303は、サングラスの有無、髭の有無などの他の属性情報も同様にして抽出することができる。
以上のようにして、被写体属性情報抽出部303は、抽出された被写体属性情報を、前記カメラID、フレームID、(抽出した被写体の)被写体ID、被写体領域情報と関連付ける。なお、被写体属性情報抽出部303は、被写体属性情報を複数抽出する場合、前記被写体属性情報と被写体属性情報の種別毎に定義された被写体属性IDとを関連付ける。これにより、後述するS606の照合処理の際に種別毎の照合を行うことができるようになる。
以上のようにして、被写体属性情報抽出部303は、抽出された被写体属性情報を、前記カメラID、フレームID、(抽出した被写体の)被写体ID、被写体領域情報と関連付ける。なお、被写体属性情報抽出部303は、被写体属性情報を複数抽出する場合、前記被写体属性情報と被写体属性情報の種別毎に定義された被写体属性IDとを関連付ける。これにより、後述するS606の照合処理の際に種別毎の照合を行うことができるようになる。
S604において、被写体色情報抽出部305は、前記被写体領域情報が示す領域から被写体の色情報を抽出し、被写体色情報記憶部306に記憶する。被写体の色情報を抽出する際には、まず、前記被写体領域情報が示す領域の矩形座標を参照し、フレーム画像から被写体の領域に含まれる画素を参照する。このとき、被写体領域情報にマスク画像が含まれている場合には、合せて参照することでより、矩形内に含まれる被写体以外の画素を除いて色情報を抽出できる。そして、被写体色情報抽出部305は、被写体の画素から色空間RGBを用いてR、G、Bごとに累積ヒストグラムを算出する。なお、同一の被写体であっても各カメラで撮影された際の姿勢が異なっているなどの条件により、累積値には、ばらつきが生じる。そこで、S605以降の処理に与える影響を除くために、累積ヒストグラムの規格化を行う。また、色空間は、RGBに限られるものではなく、HSV、YCbCrなど他の色空間であってもよい。被写体色情報抽出部305は、抽出された前記累積ヒストグラムを、カメラID、フレームID、被写体IDと関連付けて、被写体色情報記憶部306に記憶する。
S605において、カメラ間色補正装置105は、図6の処理を開始してから設定された期間が経過したかどうかを判定する。カメラ間色補正装置105は、前記設定された期間が経過したと判定した場合、S606の処理へ進み、前記設定された期間が経過していないと判定した場合、S601の処理へ進む。また、S601〜S604の一連の処理は、カメラごとに処理される。よって、カメラ間色補正装置105は、映像受信部301〜被写体色情報記憶部306までの構成をカメラごとに複数用意し、カメラごとに並列に処理するようにしてもよい。
前記設定された期間分の映像を処理した後であれば、同一の人物が歩き回り、複数のカメラで撮影されたと期待できる。同一の人物の色は現実の世界では変化しないことを活用すれば、カメラ間の色の補正を行うことができる。以下、色補正の詳細を述べる。
S606において、被写体照合部307は、順次、2つずつカメラIDの異なる被写体属性情報を被写体属性情報記憶部304から抽出し、抽出した被写体属性情報の照合を行い、被写体照合度を算出する。照合の方法としては、ユークリッド距離や、参考文献3にあるようにマハラノビス距離を予め学習しておくなどの方法が挙げられる。なお、照合処理は、被写体属性情報記憶部304に記憶されている被写体属性情報中のカメラIDの異なる全ての組み合わせについて行われる。被写体照合部307は、前記被写体照合度と共に、照合の対象となった第一のカメラID、フレームID、被写体ID及び第二のカメラID、フレームID、被写体IDと関連付ける。そして、被写体照合部307は、照合結果として被写体照合結果記憶部308に記憶する。
S607において、同一被写体判定部309は、各カメラで撮影された被写体同士が同一であるか否かを判定する。このとき、同一被写体判定部309は、S606で算出された前記被写体照合度を設定された閾値と比較することによって、前記被写体照合度に関連付けられた被写体同士が同一であるか否か判定でき、閾値以上の被写体照合度であれば、同一被写体と判定する。なお、同一被写体判定部309は、色の情報を用いないため、映像中に出現する全ての被写体について同一か否かの判定を行うことはできない。しかし、目的は、色の情報以外で推定できる範囲の同一と判定された被写体の領域の色情報を用いて色補正を行うということであるため、問題はない。同一被写体判定部309は、このような一組のカメラで撮影された同一被写体を、カメラの組み合わせごとに複数得る。例えば、同一被写体判定部309は、本実施形態ではカメラが3台であるので、3C2=3(組)ある組み合わせごとに複数の同一人物の領域の組み合わせを得る。組み合わせの数は、十分に得られることが望ましいため、設定された数に満たなかったら、S601の処理に戻るようにしてもよい。
なお、被写体属性情報が類似している人物同士、例えば人物Aも人物Bも同様に鞄を持っており、サングラスをかけているというような場合、第一のカメラに映った人物Aと第二のカメラに映った人物Bとの被写体照合度は、閾値以上になってしまう。このような状況を避け、同一の被写体である可能性を高めるため、同一被写体判定部309は、更に以下のような方法を用いてもよい。
一方のカメラから他方のカメラまで人物が歩いて到達するまでにかかる期間が十分に短ければ、同一の人物が撮影される可能性が高まる。そこで、同一被写体判定部309は、設定された閾値よりも近い関係にあるカメラ同士の組み合わせに限って被写体照合度を参照することにより、同一被写体の推定精度を高めることができる。
そのようなカメラの組み合わせは、次のようにして求めることができる。図7は、カメラのレイアウト情報の一例を示す図である。図7は、カメラが監視対象領域700にどのように配置されているかを示すレイアウト情報を示す。カメラ間色補正装置105は、前記レイアウト情報に基づいて、カメラ同士の距離が設定された閾値よりも小さいカメラの組み合わせを求める。カメラ間色補正装置105は、カメラ間の距離としてユークリッド距離ではなく一つのカメラから他のカメラに至る経路を用いる。例えば図7の場合、カメラ701とカメラ702との距離は、カメラ701とカメラ703との距離よりもユークリッド距離としては小さいが、壁704があるために、迂回しなければカメラ701からカメラ702には到達できない。従ってカメラ702、703のうちカメラ701により距離が近いカメラは、カメラ703の方となる。カメラ間色補正装置105は、カメラ間の経路を、例えば、以下のようにして求めることができる。カメラ間色補正装置105は、各カメラの撮影範囲(図7の斜線で示された範囲705〜707)内に設定された点708〜710とカメラ間の経路を代表する点711〜712とを経路順に結んだ線分のユークリッド距離の和で求めることができる。
同一被写体判定部309は、前記被写体照合度に関連付けられた被写体同士が同一であると判定した場合、前記被写体照合度に関連付けられたカメラID、フレームID、被写体IDを色補正パラメータ生成部310に出力する。
S608において、色補正パラメータ生成部310は、S607で出力されたカメラID、フレームID、被写体ID、に対応する色情報を、被写体色情報記憶部306から抽出する。そして、色補正パラメータ生成部310は、抽出した色情報に基づいて、色補正パラメータを生成する。本実施形態では、色補正パラメータ生成部310は、色補正パラメータとして、非特許文献1に記載の輝度伝達関数(以下、BTF関数と呼ぶ)を用いる。BTF関数は、同一の人物領域に含まれるある輝度値までの画素の人物領域に対する割合は不変であるという仮定に基づいており、前記人物領域の累積ヒストグラムより求められる。色補正パラメータ生成部310は、BTF関数を、累積ヒストグラム間の各輝度値の関係を示すルックアップテーブルとして色補正パラメータ記憶部311に記憶する。例えば、カメラID=1、カメラID=2の間のBTF関数は、RGBの各色の値の範囲が0から255であるとすると、カメラID=1のRの各輝度値(0から255)に対して、対応するカメラID=2のRの輝度値がテーブルとして記載される。
なお、人物領域が持つ画素の値は、偏りがあることがある。そこで、一組のカメラに対して、前記偏りの影響に対応するために、十分な数の同一人物が撮影された画像に基づいて、色補正パラメータを決定する必要がある。そこで、S608の処理の前に、色の偏りがあるか否かを判定するステップを加え、偏りがあると判定されるときはS601に処理を戻し、再び、同一被写体の色情報を収集するようにしてもよい。色の偏りの判定方法には、例えば使用した同一被写体の色情報からヒストグラムを作成して全て積算し、RGB各色の輝度値ごとのビンの頻度値が所定値以上となるかどうかで判断する方法がある。カメラ間色補正装置105は、所定値を下回るビンが存在するときは、偏りがあると判定する。
また、似た被写体属性情報を持っている被写体同士の場合、S607での被写体照合度に基づく判定処理においては、正しいかどうか区別がつかない。S608で、色補正パラメータ生成部310は、色補正パラメータを生成するためのデータに、同一でない被写体の色情報が含まれていれば、色補正パラメータを精度よく求めることは難しくなる。そのような影響を軽減するために、次のような方法を用いてもよい。
カメラ間色補正装置105は、S607で推定された全ての同一被写体の中からランダムに2つ取り出して複数のサブセットを作成し、RAM203に一時保存する。そして、S608で、色補正パラメータ生成部310は、前記サブセットごとに色補正パラメータを生成する。次に、色補正パラメータ生成部310は、生成した複数の色補正パラメータから真の色補正パラメータを推定する処理を行う。色補正パラメータであるBTF関数は、一方のカメラの画像の輝度値に対する他方のカメラの画像の輝度値が記されたルックアップテーブルで表されている。複数のサブセットを作成したため、あるカメラに対して、別のカメラに対応するBTF関数は、複数生成されることになる。
カメラ間色補正装置105は、一方のカメラの画像の各輝度値に対して、複数のBTF関数から複数の輝度値を特定する。例えば、カメラ間色補正装置105は、カメラID=1のRの輝度値50に対して、カメラID=2のRの輝度値として52、104、50、56、72を特定したとする。カメラ間色補正装置105は、カメラID=2のRの輝度値から2つ選択した場合の差分(距離)を求め、設定された閾値内の差分(距離)を持つ輝度値から平均を求める。例えば、前記閾値を5とすると、52、104、50、56、72から50、52、56が抽出され、抽出した値の平均をとり53を算出し、53を最終的なカメラID=1に対応するカメラID=2のRの輝度値とする。
以上のように、複数のサブセットを作成することにより、同一被写体の領域の画素の偏りがサブセットによって異なることが期待できる。よって、色補正パラメータ生成部310は、統計的に外れ値となる色補正パラメータの影響を除くことにより、精度の高い色補正パラメータが取得できる。
S609において、カメラ間色補正装置105は、モニタリング装置106から色補正の要求があるまで待機する。カメラ間色補正装置105は、色補正の要求があった場合に、S610の処理へ進む。
S610において、色補正パラメータ送信部312は、色補正の対象となるカメラの組み合わせに対応する色補正パラメータを色補正パラメータ記憶部311から抽出する。そして、色補正パラメータ送信部312は、抽出した色補正パラメータを、ネットワーク104を介してモニタリング装置106へ送信する。
次に本実施形態の録画装置107の処理の流れについて図8のフローチャートを用いて説明する。図8は、録画装置107の処理の一例を示すフローチャートである。
S801において、録画装置107は、入力装置205を介したユーザによる操作に基づいて、終了指示がなされたか否かを判定する。録画装置107は、終了指示がなされたと判定した場合、図8の処理を終了し、終了指示がなされていないと判定した場合、S802の処理へ進む。録画装置107は、ユーザから終了の指示がなされるまでS802〜S806までの処理を繰り返す。
S801において、録画装置107は、入力装置205を介したユーザによる操作に基づいて、終了指示がなされたか否かを判定する。録画装置107は、終了指示がなされたと判定した場合、図8の処理を終了し、終了指示がなされていないと判定した場合、S802の処理へ進む。録画装置107は、ユーザから終了の指示がなされるまでS802〜S806までの処理を繰り返す。
S802において、映像受信部401は、ネットワーク104上の撮像装置101〜103で撮影された映像をフレーム画像の単位で受信し、受信した映像を映像記憶部402に記憶する。前述したように、各撮像装置は、撮像装置に固有なカメラIDを保有しており、フレーム画像は、フレームIDとして時刻情報を保有する。各撮像装置は、フレーム画像を、前記カメラID、フレームIDと関連付けて送信する。S802で受信したフレーム画像は、関連付けられたカメラID、フレームIDによってどの撮像装置からいつの映像であるかを判別できる。
S803において、録画装置107は、モニタリング装置106から録画映像の再生要求がなされたか否かを判定する。録画装置107は、録画映像の再生要求がなされたと判定した場合、S804の処理へ進み、録画映像の再生要求がなされていないと判定した場合、S801の処理へ進む。
S804において、映像再生部403は、S803で要求されたカメラID、フレームIDに基づいてフレーム画像を映像記憶部402から順次読みだして再生を行う。S805において、映像送信部404は、映像再生部403により再生された映像を、ネットワーク104を介してモニタリング装置106へ送信する。
S806において、録画装置107は、モニタリング装置106により再生の終了要求がなされたか否かを判定する。録画装置107は、再生の終了要求がなされたと判定した場合、S801の処理へ進み、再生の終了要求がなされていないと判定した場合、S804の処理へ進む。録画装置107は、再生の終了要求がなされるまでS804〜S805の処理を繰り返し、再生を続行する。
次に本実施形態におけるモニタリング装置106の処理の流れについて図9のフローチャートを用いて説明する。図9は、モニタリング装置106の処理の一例を示すフローチャートである。
S901において、カメラ組み合わせ指定部501は、入力装置205を介したユーザによる操作に基づいて、モニタリングの対象となるカメラの組み合わせの指定がされるまで待機する。本実施形態では、カメラの組み合わせとして、第1のカメラで現在撮影されている映像、第2のカメラで撮影され録画された映像が指定されるものとする。S901でカメラの組み合わせが指定されたら、S902において、モニタリング装置106は、指定されたカメラに対応するカメラIDを基に色補正パラメータをカメラ間色補正装置105に要求する。
S901において、カメラ組み合わせ指定部501は、入力装置205を介したユーザによる操作に基づいて、モニタリングの対象となるカメラの組み合わせの指定がされるまで待機する。本実施形態では、カメラの組み合わせとして、第1のカメラで現在撮影されている映像、第2のカメラで撮影され録画された映像が指定されるものとする。S901でカメラの組み合わせが指定されたら、S902において、モニタリング装置106は、指定されたカメラに対応するカメラIDを基に色補正パラメータをカメラ間色補正装置105に要求する。
S903において、色補正パラメータ受信部503は、S902で指定されたカメラの組み合わせに対応する色補正パラメータをカメラ間色補正装置105から受信する。S904において、映像受信部502は、S901で指定されたカメラの組み合わせのうち1つのカメラの映像を受信する。S905において、S904同様に、映像受信部502は、S901で指定されたカメラの組み合わせのうちS904で映像を受信しなかった方のカメラの録画映像を録画装置107から受信する。
S906において、色補正部504は、S903で色補正パラメータ受信部503により受信された色補正パラメータを使って色補正を行う。色補正処理は、RGB各色の輝度値に対してBTF関数を適用して変換する。なお、第一のカメラの映像を第二のカメラの映像に合わせるように補正してもよいし、第2のカメラの映像を第1のカメラの映像に合わせるように補正してもよい。
S907において、表示部505は、補正済みの第1のカメラ映像と第2のカメラ映像とを表示装置206に表示する。S908において、モニタリング装置106は、入力装置205を介したユーザの操作に基づいて、モニタリングの終了が指示されたかどうかを判定する。モニタリング装置106は、モニタリングの終了が指示されたと判定した場合、図9の処理を終了し、モニタリングの終了が指示されていないと判定した場合、S904の処理へ進む。
本実施形態の処理により、カメラネットワークシステムは、基準チャートの撮影の指示や同一人物の指定などのユーザによる作業を不要にしてカメラ間の色補正を行うことができる。カメラ間色補正装置105は、色以外の被写体属性情報で推定可能な範囲で異なるカメラ映像に含まれる人物が同一か否かを判定する。カメラ間色補正装置105は、同一人物に含まれる色情報をもとに、カメラ間の色補正パラメータを求めることができる。モニタリング装置106は、前記色補正パラメータに基づいて、2つのカメラの画面を表示してモニタリングを行う際に色補正を行うことが可能となる。各カメラで映った人物の服装や髪の色が正しく再現されることにより、ユーザは、画面上の全ての人物について正しく同一人物であるかどうかを判定できるようになる。
本実施形態のカメラ間色補正装置105は、一つの装置で構成されるものとしたが、ネットワーク上の他の装置に各機能構成を分散させてもよい。例えば、撮像装置101〜103は、それぞれ被写体検出部302、被写体属性情報抽出部303、被写体色情報抽出部305を含むものとし、被写体属性情報や被写体色情報のみを他の装置に対して、ネットワークを介して送信するようにしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
302 被写体検出部
303 被写体属性情報抽出部
305 被写体色情報抽出部
307 被写体照合部
309 同一被写体推定部
310 色補正パラメータ生成部
303 被写体属性情報抽出部
305 被写体色情報抽出部
307 被写体照合部
309 同一被写体推定部
310 色補正パラメータ生成部
Claims (10)
- 複数のカメラで撮影された画像からそれぞれ被写体を検出する被写体検出手段と、
前記被写体検出手段により検出された複数の被写体の中から、前記被写体の領域に含まれる形状または模様に基づいて同一の被写体か否かを判定する同一被写体判定手段と、
前記同一被写体判定手段により同一であると判定されたそれぞれの被写体の領域の色情報に基づいて、前記複数のカメラで撮影された画像間の色の差異を補正するための補正パラメータを取得する取得手段と、
を有することを特徴とする画像処理装置。 - 前記同一被写体判定手段は、カメラ間の経路が設定された距離よりも短い複数のカメラで撮影された画像の中から同一の被写体か否かを判定することを特徴とする請求項1に記載の画像処理装置。
- 前記同一被写体判定手段は、カメラのレイアウト情報に基づくカメラ間の経路が設定された距離よりも短いカメラで撮影された画像の中から同一の被写体か否かを判定することを特徴とする請求項2に記載の画像処理装置。
- 前記被写体検出手段により検出された被写体の領域から形状または模様に関する属性情報を抽出する被写体属性情報抽出手段と、
前記被写体属性情報抽出手段により抽出された属性情報に基づいてカメラ間の複数の被写体を照合し、照合度を取得する被写体照合手段と、
を更に有し、
前記同一被写体判定手段は、前記被写体照合手段により取得された照合度に基づいて、同一の被写体か否かを判定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 - 前記同一の被写体から色情報を抽出する色情報抽出手段を更に有し、
前記取得手段は、前記色情報抽出手段により抽出された前記被写体の色情報に基づいて、前記補正パラメータを取得することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 - 前記同一被写体判定手段は、同一であると判定した被写体の中から複数のサブセットを作成し、
前記取得手段は、前記作成したサブセットごとに補正パラメータを生成し、前記作成した複数の補正パラメータに基づいて、最終的な補正パラメータを取得することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 - 前記同一被写体判定手段により同一であると判定された被写体の領域の色に偏りがあるか否かを判定する偏り判定手段を更に有し、
前記取得手段は、前記偏り判定手段により偏りがないと判定された場合、前記補正パラメータを取得することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 - カメラ間色補正装置が実行する情報処理方法であって、
複数のカメラの画像から被写体を検出する被写体検出ステップと、
前記被写体検出ステップにより検出された複数の被写体が同一か否かを判定する同一被写体判定ステップと、
前記複数のカメラの画像中の前記同一被写体判定ステップにより同一であると判定された複数の被写体の領域の色情報に基づいて、前記カメラの画像間の色の差異を補正する補正パラメータを取得する取得ステップと、
を含むことを特徴とする画像処理方法。 - コンピュータに
複数のカメラの画像から被写体を検出する被写体検出ステップと、
前記被写体検出ステップにより検出された複数の被写体が同一か否かを判定する同一被写体判定ステップと、
前記複数のカメラの画像中の前記同一被写体判定ステップにより同一であると判定された複数の被写体の領域の色情報に基づいて、前記カメラの画像間の色の差異を補正する補正パラメータを取得する取得ステップと、
を実行させるためのプログラム。 - 請求項9に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015008923A JP2016134803A (ja) | 2015-01-20 | 2015-01-20 | 画像処理装置及び画像処理方法 |
US14/994,271 US10074029B2 (en) | 2015-01-20 | 2016-01-13 | Image processing system, image processing method, and storage medium for correcting color |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015008923A JP2016134803A (ja) | 2015-01-20 | 2015-01-20 | 画像処理装置及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016134803A true JP2016134803A (ja) | 2016-07-25 |
JP2016134803A5 JP2016134803A5 (ja) | 2018-03-01 |
Family
ID=56408202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015008923A Withdrawn JP2016134803A (ja) | 2015-01-20 | 2015-01-20 | 画像処理装置及び画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10074029B2 (ja) |
JP (1) | JP2016134803A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018079043A1 (ja) * | 2016-10-26 | 2018-05-03 | シャープ株式会社 | 情報処理装置、撮像装置、情報処理システム、情報処理方法、およびプログラム |
JP2019029935A (ja) * | 2017-08-02 | 2019-02-21 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP2019168909A (ja) * | 2018-03-23 | 2019-10-03 | 株式会社デンソーテン | 画像処理装置及び画像処理方法 |
WO2020008733A1 (ja) * | 2018-07-03 | 2020-01-09 | 富士フイルム株式会社 | 画像補正装置、撮像装置、画像補正方法、及び画像補正プログラム |
JP2021105886A (ja) * | 2019-12-26 | 2021-07-26 | 綜合警備保障株式会社 | 解析装置、解析方法、解析プログラム及び物体検査システム |
JP2021105577A (ja) * | 2019-12-26 | 2021-07-26 | 綜合警備保障株式会社 | 学習モデルの構築装置、学習モデルの構築方法及び学習モデルの構築プログラム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6445775B2 (ja) | 2014-04-01 | 2018-12-26 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
DE102016115128A1 (de) * | 2016-08-16 | 2018-02-22 | Connaught Electronics Ltd. | Verfahren zum Angleichen zumindest zweier Bilder bezüglich der Farbe und/oder der Helligkeit, Kamarasystem sowie Kraftfahrzeug |
JP7058471B2 (ja) | 2017-04-17 | 2022-04-22 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
CN108388830B (zh) * | 2018-01-09 | 2020-08-14 | 中国农业大学 | 基于卷积神经网的动物体形检测方法及装置 |
CN108282647B (zh) * | 2018-01-31 | 2019-11-05 | 上海小蚁科技有限公司 | 色彩校正方法及装置、计算机可读存储介质、终端 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7110597B2 (en) * | 2002-03-18 | 2006-09-19 | Intel Corporation | Correcting digital images using unique subjects |
US7474339B2 (en) * | 2002-12-18 | 2009-01-06 | Nikon Corporation | Image-processing device with a first image sensor and a second image sensor |
US7450735B1 (en) * | 2003-10-16 | 2008-11-11 | University Of Central Florida Research Foundation, Inc. | Tracking across multiple cameras with disjoint views |
WO2006105541A2 (en) * | 2005-03-30 | 2006-10-05 | Sarnoff Corporation | Object identification between non-overlapping cameras without direct feature matching |
TW200721853A (en) * | 2005-11-22 | 2007-06-01 | Beyond Innovation Tech Co Ltd | Method and apparatus for correcting and enhancing color |
US20070237387A1 (en) | 2006-04-11 | 2007-10-11 | Shmuel Avidan | Method for detecting humans in images |
JP4869795B2 (ja) | 2006-06-06 | 2012-02-08 | 富士フイルム株式会社 | 撮像制御装置、撮像システム、および撮像制御方法 |
JP4864835B2 (ja) * | 2007-08-21 | 2012-02-01 | Kddi株式会社 | 色補正装置、方法及びプログラム |
JP2011525083A (ja) * | 2008-06-17 | 2011-09-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 色調節 |
JP5418991B2 (ja) * | 2008-07-10 | 2014-02-19 | 日本電気株式会社 | 個人認証システム、個人認証方法 |
US8675091B2 (en) * | 2008-12-15 | 2014-03-18 | Nvidia Corporation | Image data processing with multiple cameras |
JP5436458B2 (ja) * | 2009-02-12 | 2014-03-05 | 日本電信電話株式会社 | 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム |
ES2524973T3 (es) * | 2009-02-23 | 2014-12-16 | Nippon Telegraph And Telephone Corporation | Codificación y decodificación de imágenes multivista usando corrección de iluminación y de color localizada |
JP5570176B2 (ja) * | 2009-10-19 | 2014-08-13 | キヤノン株式会社 | 画像処理システム及び情報処理方法 |
US9615064B2 (en) * | 2010-12-30 | 2017-04-04 | Pelco, Inc. | Tracking moving objects using a camera network |
JP5713790B2 (ja) * | 2011-05-09 | 2015-05-07 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN102831385B (zh) * | 2011-06-13 | 2017-03-01 | 索尼公司 | 多相机监控网络中的目标识别设备和方法 |
AU2011244921B8 (en) * | 2011-11-01 | 2014-04-03 | Canon Kabushiki Kaisha | Method and system for luminance adjustment of images in an image sequence |
JP5925557B2 (ja) | 2012-03-30 | 2016-05-25 | セコム株式会社 | 画像照合装置 |
JP6041515B2 (ja) * | 2012-04-11 | 2016-12-07 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US9462160B2 (en) * | 2012-11-22 | 2016-10-04 | Nec Corporation | Color correction device, method, and program |
JP6568476B2 (ja) * | 2013-09-13 | 2019-08-28 | エヌイーシー ホンコン リミテッド | 情報処理装置、情報処理方法およびプログラム |
JP6445775B2 (ja) | 2014-04-01 | 2018-12-26 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
-
2015
- 2015-01-20 JP JP2015008923A patent/JP2016134803A/ja not_active Withdrawn
-
2016
- 2016-01-13 US US14/994,271 patent/US10074029B2/en active Active
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018079043A1 (ja) * | 2016-10-26 | 2018-05-03 | シャープ株式会社 | 情報処理装置、撮像装置、情報処理システム、情報処理方法、およびプログラム |
JPWO2018079043A1 (ja) * | 2016-10-26 | 2019-09-12 | シャープ株式会社 | 情報処理装置、撮像装置、情報処理システム、情報処理方法、およびプログラム |
JP2019029935A (ja) * | 2017-08-02 | 2019-02-21 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP7085812B2 (ja) | 2017-08-02 | 2022-06-17 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP7059740B2 (ja) | 2018-03-23 | 2022-04-26 | 株式会社デンソーテン | 画像処理装置 |
JP2019168909A (ja) * | 2018-03-23 | 2019-10-03 | 株式会社デンソーテン | 画像処理装置及び画像処理方法 |
JPWO2020008733A1 (ja) * | 2018-07-03 | 2021-04-22 | 富士フイルム株式会社 | 画像補正装置、撮像装置、画像補正方法、及び画像補正プログラム |
US11178370B2 (en) | 2018-07-03 | 2021-11-16 | Fujifilm Corporation | Image correction device, imaging device, image correction method, and image correction program |
WO2020008733A1 (ja) * | 2018-07-03 | 2020-01-09 | 富士フイルム株式会社 | 画像補正装置、撮像装置、画像補正方法、及び画像補正プログラム |
JP2021105886A (ja) * | 2019-12-26 | 2021-07-26 | 綜合警備保障株式会社 | 解析装置、解析方法、解析プログラム及び物体検査システム |
JP2021105577A (ja) * | 2019-12-26 | 2021-07-26 | 綜合警備保障株式会社 | 学習モデルの構築装置、学習モデルの構築方法及び学習モデルの構築プログラム |
JP7314048B2 (ja) | 2019-12-26 | 2023-07-25 | 綜合警備保障株式会社 | 学習モデルの構築装置、学習モデルの構築方法及び学習モデルの構築プログラム |
JP7398276B2 (ja) | 2019-12-26 | 2023-12-14 | 綜合警備保障株式会社 | 解析装置、解析方法、解析プログラム及び物体検査システム |
Also Published As
Publication number | Publication date |
---|---|
US20160210728A1 (en) | 2016-07-21 |
US10074029B2 (en) | 2018-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016134803A (ja) | 画像処理装置及び画像処理方法 | |
US10070047B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP6655878B2 (ja) | 画像認識方法及び装置、プログラム | |
JP6555906B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10181075B2 (en) | Image analyzing apparatus,image analyzing, and storage medium | |
US10146992B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
JP6589321B2 (ja) | システム、検索方法およびプログラム | |
US11037014B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
US10762372B2 (en) | Image processing apparatus and control method therefor | |
JP6157165B2 (ja) | 視線検出装置及び撮像装置 | |
JP6922399B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2018097611A (ja) | 画像処理装置およびその制御方法 | |
CN112073640B (zh) | 全景信息采集位姿获取方法及装置、*** | |
US9286707B1 (en) | Removing transient objects to synthesize an unobstructed image | |
JP6798609B2 (ja) | 映像解析装置、映像解析方法およびプログラム | |
US20170278265A1 (en) | Video processing apparatus and control method | |
JP2016045742A (ja) | 情報処理装置およびプログラム | |
JP6855175B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US10140503B2 (en) | Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus | |
JP2012234500A (ja) | パターン識別装置、パターン識別方法およびプログラム | |
US8538142B2 (en) | Face-detection processing methods, image processing devices, and articles of manufacture | |
KR102194511B1 (ko) | 대표 영상프레임 결정시스템 및 이를 이용한 방법 | |
JP6350331B2 (ja) | 追尾装置、追尾方法及び追尾プログラム | |
JP2018190132A (ja) | 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法 | |
JP2017073071A (ja) | 同一判定プログラム、同一判定装置、および同一判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180119 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20180808 |