JP6746031B1 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法、及び画像処理プログラム Download PDFInfo
- Publication number
- JP6746031B1 JP6746031B1 JP2020505283A JP2020505283A JP6746031B1 JP 6746031 B1 JP6746031 B1 JP 6746031B1 JP 2020505283 A JP2020505283 A JP 2020505283A JP 2020505283 A JP2020505283 A JP 2020505283A JP 6746031 B1 JP6746031 B1 JP 6746031B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- camera
- images
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 454
- 238000003672 processing method Methods 0.000 title claims description 26
- 238000000034 method Methods 0.000 claims abstract description 279
- 230000008569 process Effects 0.000 claims abstract description 237
- 238000011156 evaluation Methods 0.000 claims abstract description 225
- 238000012937 correction Methods 0.000 claims abstract description 163
- 238000003860 storage Methods 0.000 claims abstract description 63
- 238000003384 imaging method Methods 0.000 claims abstract description 32
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 10
- 238000006243 chemical reaction Methods 0.000 claims description 131
- 238000004364 calculation method Methods 0.000 claims description 79
- 239000002131 composite material Substances 0.000 claims description 74
- 230000007717 exclusion Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims 1
- 238000005457 optimization Methods 0.000 description 110
- 239000000203 mixture Substances 0.000 description 77
- 238000010586 diagram Methods 0.000 description 60
- 230000015572 biosynthetic process Effects 0.000 description 52
- 238000003786 synthesis reaction Methods 0.000 description 52
- 238000001514 detection method Methods 0.000 description 46
- 238000006073 displacement reaction Methods 0.000 description 42
- 238000000605 extraction Methods 0.000 description 36
- 230000008859 change Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 230000010354 integration Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 238000002156 mixing Methods 0.000 description 6
- 239000000470 constituent Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 240000004050 Pentaglottis sempervirens Species 0.000 description 4
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 4
- 230000002068 genetic effect Effects 0.000 description 4
- 230000000873 masking effect Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
《1−1》構成
図1は、本発明の実施の形態1に係る画像処理装置10のハードウェア構成の例を示す図である。図1に示されるように、画像処理装置10は、プロセッサ11と、主記憶装置であるメモリ12と、補助記憶装置である記憶装置13と、画像入力インタフェース14と、表示機器インタフェース15とを備えている。プロセッサ11は、メモリ12に記憶されているプログラムを実行することにより、各種の演算処理及び各種のハードウェア制御処理を行う。メモリ12に記憶されているプログラムは、実施の形態1に係る画像処理プログラムを含む。画像処理プログラムは、例えば、インターネットを経由して取得される。また、画像処理プログラムは、これが記録されて磁気ディスク、光ディスク、半導体メモリ、などの記録媒体から取得されてもよい。記憶装置13は、例えば、ハードディスク装置、SSD(Solid State Drive)、などである。画像入力インタフェース14は、撮像装置であるカメラ1a,1b,1c,1dから提供された撮像画像すなわちカメラ画像を、撮像画像データに変換して取り込む。表示機器インタフェース15は、撮像画像データ又は後述する合成画像データをディスプレイである表示装置18に出力する。図1には、4台のカメラ1a〜1dが示されているが、カメラの台数は4台に限定されない。
図2は、実施の形態1に係る画像処理装置10の構成を概略的に示す機能ブロック図である。画像処理装置10は、実施の形態1に係る画像処理方法を実施することができる装置である。図2に示されるように、画像処理装置10は、画像記録部102と、記憶部114と、タイミング決定部103と、移動量推定部104と、特徴点抽出部105と、パラメータ最適化部106と、補正タイミング決定部107と、合成テーブル生成部108と、合成処理部109と、ずれ量評価部110と、重複領域抽出部111と、表示画像出力部112とを備えている。パラメータ最適化部106、合成テーブル生成部108、合成処理部109、ずれ量評価部110、及び重複領域抽出部111は、合成画像における撮像画像の重複領域(すなわち、重畳領域)におけるずれを補正するずれ補正部100を構成している。また、画像処理装置10は、外れ値除外部113を備えてもよい。また、画像記録部102は、撮像画像101a〜101dを記憶する外部記憶部115と接続される。記憶部114は、例えば、図1に示されるメモリ12、記憶装置13、又はそれらの一部である。外部記憶部115は、例えば、図1に示される外部記憶装置17又はその一部である。
画像記録部102は、タイミング決定部103によって指定されたタイミングにおいて撮像画像101a〜101dを、記憶部114又は外部記憶部115又はこれらの両方に記録する。撮像画像101a〜101dを記録する際には、画像記録部102は、撮像画像101a〜101dの各々に、撮像画像101a〜101dを生成したカメラを特定するための識別情報である装置IDと撮影時刻とを関連付けて、装置IDと撮影時刻も記録する。装置ID及び撮影時刻は、「付随情報」とも言う。つまり、画像記録部102は、付随情報が関連付けられた撮像画像101a〜101dを、記憶部114又は外部記憶部115又はこれらの両方に記録する。
タイミング決定部103は、カメラ1a〜1dから提供された撮像画像を記録するタイミングを、例えば、ユーザによって指定された条件に基づいて決定し、画像記録部102に伝える。指定された条件とは、予め決められた一定時間間隔ごと、又は予め決められた状況が発生した時点ごと、などである。予め決められた時間間隔は、秒、分、時間、日、月、などの単位を用いて指定される一定の時間間隔である。予め決められた状況が発生した時点とは、例えば、カメラ1a〜1dの撮像画像から特徴点が検出されたとき(例えば、日中におけるある時点)、又はカメラ1a〜1dの撮像画像において動く物体が検出されないとき、などである。また、撮像画像を記録するタイミングは、カメラ1a〜1dの各々の特性及び設置位置の状況に応じて、カメラ1a〜1dの各々について、個別に決定されてもよい。
特徴点抽出部105は、撮像画像101a〜101dに基づいて、カメラ1a〜1dの各々の推定移動量を計算するために、撮像画像101a〜101dの各々における特徴点を抽出し、特徴点の座標を検出する。特徴点の検出アルゴリズムの代表例としては、AKAZEがある。ただし、特徴点の検出アルゴリズムは、上記例に限定されない。
移動量推定部104は、画像記録部102によって記録された撮像画像101a〜101dの特徴点からカメラ1a〜1dの各々の推定移動量を計算する、すなわち、推定移動量を計算する。カメラ1a〜1dの各々の推定移動量は、例えば、カメラ1a〜1dが設置された時点を基準時とし、この基準時における位置からの移動量である。カメラ1a〜1dの各々の推定移動量は、例えば、指定された開始日と終了日との間の期間中における移動量である。カメラ1a〜1dの各々の推定移動量は、開始時刻と終了時刻とを指定することで、開始時刻と終了時刻との期間中におけるカメラ1a〜1dの各々の推定移動量であってもよい。移動量推定部104は、撮像画像101a〜101dの各々についての2つの時点の特徴点の座標に基づいて、カメラ1a〜1dの各々の推定移動量を計算する。
パラメータ最適化部106は、補正タイミング決定部107がパラメータ最適化処理(すなわち、ずれ補正処理)の対象であると判断したカメラについて、移動量推定部104から提供されたカメラ1a〜1dの各々の推定移動量と、ずれ量評価部110によって計算された合成画像におけるずれ量の評価値(「ずれ量の計算値」とも言う。)とに基づいて、合成画像におけるずれを補正するために用いられる外部パラメータを求める。外部パラメータは、例えば、並進移動成分であるX軸、Y軸、Z軸方向の3成分と、回転移動成分であるロール、ピッチ、ヨーの3成分と、からなる。なお、カメラの位置姿勢が一意に決まるものであれば、外部パラメータの形式は問わない。
(H1)パラメータ最適化部106がカメラ1a〜1dの各々の外部パラメータを更新する処理。
(H2)合成テーブル生成部108がカメラ1a〜1dの各々のパラメータ(すなわち、内部パラメータ、ゆがみ補正パラメータ、及び外部パラメータ)に対応する合成テーブルを生成する処理。
(H3)合成処理部109がカメラ1a〜1dの各々の合成テーブルを用いて撮像画像101a〜101dを合成して、合成画像を生成する処理。
(H4)ずれ量評価部110がこの合成画像におけるずれ量の評価値を求めて、これをフィードバックする処理。
(H5)パラメータ最適化部106がずれ量の評価値をフィードバック情報として用いて、外部パラメータを更新する処理。
補正タイミング決定部107は、指定された条件を満たすタイミングを、合成画像におけるずれを補正するためのずれ補正処理の実行のタイミングとして、パラメータ最適化部106へ提供する。ここで、指定された条件とは、パラメータ最適化部106を介し移動量推定部104から得られるカメラ1a〜1dの推定移動量が閾値を超えたという条件、又はずれ量評価部110から得られる合成画像におけるずれ量の評価値が予め決められた閾値を超えたという条件、などである。カメラ1a〜1dの各々の推定移動量が閾値を超えたという条件は、例えば、「指定期間中における推定移動量」が閾値を超えたという条件、などである。補正タイミング決定部107は、パラメータ最適化部106に、合成画像におけるずれを補正するためのずれ補正処理を実行させる指示を出力する。なお、ずれ補正処理のタイミングは、マウス又はキーボードなどの入力インタフェースを用いて、利用者によって指定されてもよい。
合成テーブル生成部108は、カメラ1a〜1dの各々の内部パラメータ及びゆがみ補正パラメータと、パラメータ最適化部106から提供されるカメラ1a〜1dの各々の外部パラメータとに基づいて、合成画像を生成するための合成テーブルを生成する。
合成処理部109は、合成テーブル生成部108によって生成されたカメラ1a〜1dの各々の合成テーブルと、カメラ1a〜1dの撮像画像とを受け取り、撮像画像を合成して1枚の合成画像を生成する。合成処理部109は、撮像画像同士が重複する部分に対して、ブレンディング処理を行う。
ずれ量評価部110は、合成処理部109によって生成された合成画像と合成時に使用した合成テーブルとから合成画像におけるずれの大きさを示すずれ量の評価値を計算し、このずれ量の評価値をパラメータ最適化部106へ提供することで、合成画像におけるずれを補正するためのずれ補正処理の結果をパラメータ最適化部106にフィードバックする。合成画像におけるずれは、合成テーブルを使用して変換された撮像画像同士(すなわち、変換後の画像同士)を繋ぎ合わせた境界部分で発生する。境界部分は、重複領域又は重複部分とも言う。合成画像におけるずれ量の評価値の計算では、繋ぎ合わせる変換後の撮像画像の重複領域における、輝度値の差、又は対応する特徴点の間の距離、又は画像類似度、などの数値が用いられる。ずれ量の評価値は、変換後の撮像画像同士の組み合わせごとに計算される。例えば、カメラ1a〜1dが存在する場合には、カメラ1aのずれ量の評価値は、カメラ1aと1b、カメラ1aと1c、及びカメラ1aと1dについて計算される。また、ずれ量の評価値を計算するために使用される範囲は、自動的に検出されるが、利用者の操作によって指定されてもよい。
重複領域抽出部111は、合成処理部109によって生成された合成画像における変換後の撮像画像同士の重複領域を抽出する。抽出された重複領域を示す情報は、ずれ量評価部110に提供される。
表示画像出力部112は、合成処理部109から提供された合成画像を表示装置(例えば、図1に示される)などに出力する。
《1−2−1》概要
図5は、画像処理装置10によって実行される処理の概要を示すフローチャートである。図5に示されるように、画像処理装置10は、画像記録処理群S10と、移動量推定処理群S20と、パラメータ最適化処理群(すなわち、ずれ補正処理群)S30と、合成・表示処理群S40とを並列に実行する。
図6は、画像記録部102によって実行される処理を示すフローチャートである。先ず、画像記録部102は、タイミング決定部103からトリガを受け取ったかどうかを判断する(ステップS110)。トリガは、撮影画像1a〜1dを記憶部114又は外部記憶部115又はこれらの両方に記録するタイミングを与える。トリガには、記憶する撮像画像を撮影したカメラを特定する装置IDが含まれている。
移動量推定処理群S20では、画像記録処理群S10において記録されたカメラ1a〜1dの各々の撮像画像から、特徴点を抽出し、カメラ1a〜1dの各々の推定移動量を計算する。推定移動量は、例えば、並進移動成分であるX軸、Y軸、Z軸方向の3成分と、回転移動成分であるロール、ピッチ、ヨーの3成分とを含む。推定移動量の計算は、補正タイミング決定部107によって実行される補正タイミングの決定の処理と、並列で実行される。推定移動量を計算するタイミングは、一定時間間隔が経過する度でもよいし、又は、画像記録処理群S10において撮像画像が更新されたときであってもよい。
パラメータ最適化処理群S30では、補正タイミング決定部107は、移動量推定部104から提供されたカメラ1a〜1dの各々の推定移動量と、ずれ量評価部110から提供されたカメラ1a〜1dの各々の合成画像におけるずれ量の評価値とから、パラメータ最適化処理すなわちずれ補正処理の対象であるカメラの装置IDを判定する。その後、パラメータ最適化部106は、パラメータ最適化処理の対象であるカメラの外部パラメータを求める。外部パラメータは、例えば、並進移動成分であるX軸、Y軸、Z軸方向の3成分と、回転移動成分であるロール、ピッチ、ヨーの3成分とを含む。
更新後の(すなわち、時刻tにおける)外部パラメータ(すなわち、外部パラメータベクトル)P1は、以下のように表記される。
P1=(X,Y,Z,roll,pitch,yaw)
ここで、X,Y,Zは、X軸、Y軸、Z軸方向の外部パラメータを示し、roll,pitch,yawは、ロール、ピッチ、ヨー方向の外部パラメータを示す。
P0=(X_0,Y_0,Z_0,roll_0,pitch_0,yaw_0)
ここで、X_0,Y_0,Z_0は、X軸、Y軸、Z軸方向の外部パラメータを示し、roll_0,pitch_0,yaw_0は、ロール、ピッチ、ヨー方向の外部パラメータを示す。
Pt=(X_t,Y_t,Z_t,roll_t,pitch_t,yaw_t)
ここで、X_t,Y_t,Z_tは、X軸、Y軸、Z軸方向の移動量(すなわち、距離)を示し、roll_t,pitch_t,yaw_tは、ロール、ピッチ、ヨー方向の移動量(すなわち、角度)を示す。
P1=P0+Pt (1)
なお、初回更新時における更新前の外部パラメータP0は、カメラキャリブレーションによって取得された外部パラメータである。つまり、式(1)に示されるように、更新後の外部パラメータは、設置時における外部パラメータに、移動量推定部104によって取得した移動ベクトルPtの要素を加算したものである。
図5に示される合成・表示処理群S40では、合成テーブル生成部108が生成した各カメラの合成テーブルに基づいて、複数のカメラで撮影された複数の撮像画像に対応する複数の変換後の撮像画像を1枚の画像に合成し、表示機器インタフェース15を介して、合成画像を表示装置18に出力する。
以上に説明したように、実施の形態1に係る画像処理装置10、画像処理方法、又は画像処理プログラムを用いれば、合成画像におけるずれ量の評価値を、パラメータ最適化処理(すなわち、ずれ補正処理)にフィードバックしているので、カメラ1a〜1dの位置姿勢の変化によって合成画像を構成する複数の変換後の撮像画像の重複領域に生じたずれを、高精度に補正することができる。
実施の形態2に係る画像処理装置は、パラメータ最適化部106が行う処理の点で、実施の形態1に係る画像処理装置10と相違する。他の点に関して、実施の形態2は、実施の形態1と同じである。したがって、実施の形態2の説明においては、図1及び図2を参照する。
ずれ量評価部110は、合成処理部109が画像合成時に使用した各カメラの合成テーブルと変換後の撮像画像から、カメラごとにずれ量の評価値を求め、パラメータ最適化部106へ出力する(ステップS2136)。以上の処理を、ずれ量の評価値が一定の閾値以下になるまで繰り返すことで、合成画像におけるずれを補正するために用いられる外部パラメータを計算する。もしくは、予め指定された回数まで繰り返し、補正する外部パラメータを算出してもよい。
《3−1》画像処理装置610
実施の形態3に係る画像処理装置610は、複数の撮像画像(すなわち、複数のカメラ画像)の重畳領域と、参照データとを用いて、ずれ補正処理を実行する。参照データは、参照画像と、その参照画像を撮像装置であるカメラで撮影したときのカメラパラメータとを含む。参照画像は、キャリブレーションされた状態にあるカメラによって撮影された撮像画像、すなわち、カメラ画像である。参照画像は、「補正されたカメラ画像」とも言う。参照画像は、例えば、カメラを設置した際に、キャリブレーション用ボードを用いてキャリブレーションされたカメラによって撮影されたカメラ画像である。
図27に示されるカメラ画像受信部609は、カメラ600_1〜600_nから提供されたカメラ画像の入力処理を行う。入力処理は、例えば、デコード処理である。図26を参照して説明すると、メインプロセッサ611は、カメラ600_1〜600_nから画像入力インタフェース14を通して受信したカメラ画像にデコード処理を施して、メインメモリ612に保存する。デコード処理は、カメラ画像受信部609以外の構成によって行われてもよい。例えば、デコード処理は、画像処理プロセッサ614によって行われてもよい。
図27に示されるカメラパラメータ入力部601は、カメラ600_1〜600_nに対する事前のキャリブレーションによって算出されたカメラパラメータを取得し、保存する。カメラパラメータは、例えば、内部パラメータ、外部パラメータ、レンズ歪み補正マップ(すなわち、歪みパラメータ)、などを含む。図26を参照して説明すると、メインプロセッサ611は、補助メモリ613に記憶されているカメラパラメータを、ファイルインタフェース616を通してメインメモリ612へ読み込む。
図32は、図27及び図29に示される合成処理部602によって実行される処理を示すフローチャートである。合成処理部602は、カメラ画像受信部609によって受信され、入力処理が施された複数のカメラ画像を合成することによって、1枚画の合成画像を生成する。図32に示される処理は、合成処理部602及び投影処理部603によって分担して行われてもよい。
図33は、図27及び図28に示される投影処理部603によって実行される処理を示すフローチャートである。図33に示されるように、投影処理部603は、合成処理部602からカメラパラメータを読み込む(ステップS301)。次に、投影処理部603は、取得したカメラパラメータを用いて、合成処理に用いられる合成テーブルを作成し、作成した合成テーブルを用いて、入力されたカメラ画像を投影画像に変換する(ステップS302)。
表示処理部604は、合成処理部602によって作成された合成画像を、表示装置で表示可能な映像データに変換する処理を行い、表示装置に映像データを提供する。表示装置は、例えば、図26に示される表示装置18である。表示処理部604は、合成画像に基づく映像を、1枚のディスプレイを有する表示装置に表示する。表示処理部604は、合成画像に基づく映像を、縦横に並べて配置された複数枚のディスプレイを有する表示装置に表示してもよい。また、表示処理部604は、合成画像の特定の領域(すなわち、合成画像の一部)を切り出して表示装置に表示してもよい。また、表示処理部604は、合成画像に基づく映像上にアノテーションを重畳表示してもよい。アノテーションは、注釈を意味し、例えば、人物の検出の結果を示す枠(例えば、検出された人物を囲う枠)などの表示、色を変えて表示する部分又は輝度を上げるなどの強調表示(例えば、検出された人物を囲う領域の色を目立つ色に変更又は明るくする表示)を含む。
参照データ読出部605は、画像処理装置610において、参照データを出力する。参照データは、例えば、校正済みの状態にある各カメラのカメラパラメータである外部パラメータとそのときのカメラ画像である参照画像とを含むデータである。校正済みの状態は、例えば、画像処理装置610と複数のカメラ600_1〜600_nを設置する際に、キャリブレーション用ボードを用いてキャリブレーションしたときのカメラ600_1〜600_nの状態である。図26を参照して説明すると、メインプロセッサ611は、補助メモリ613に記憶されている参照データを、ファイルインタフェース616を通してメインメモリ612へ読み込む。
図35は、図27及び図30に示されるずれ検出部606によって実行される処理を示すフローチャートである。ずれ検出部606は、各カメラ600_1〜600_nにずれが発生しているか否かを検出する。すなわち、ずれ検出部606は、以下の4つの処理(R1)〜(R4)に基づいて、ずれの有無及びずれ量を判断する。ただし、ずれ検出部606は、以下の4つの処理(R1)〜(R4)の1つ以上の組み合わせに基づいて、ずれの有無及びずれ量を判断することも可能である。
図30に示される類似度評価部6061は、参照画像とカメラ画像受信部609から得られた現在のカメラ画像との間の類似度を閾値と比較する。類似度は、例えば、輝度差又は構造類似性などに基づく値、などである。類似度が輝度差である場合には、類似度が大きいほど、類似の程度が低い。
図30に示される相対移動量推定部6062は、カメラ画像受信部609から提供されたカメラ画像と、参照データ読出部605から得られた、校正済みの状態にある各カメラの参照データとに基づいて、カメラ画像受信部609から提供されたカメラ画像における各カメラの外部パラメータを算出する。
図30に示される重畳領域抽出部6063は、投影処理部603から提供される投影画像と合成テーブルとから、合成画像における、隣接するカメラ画像同士の重畳する領域の画像部分である重畳領域画像を抽出し、これを重畳領域ずれ量評価部6064へ出力する。つまり、重畳領域抽出部6063は、隣接するカメラ画像の重畳領域画像のペア(すなわち、互いに関連付けられた画像データ)を出力する。
図30に示される重畳領域ずれ量評価部6064は、重畳領域抽出部6063から提供された隣接するカメラ画像の重畳領域画像のペアに基づいて、ずれ量を計算する。ずれ量は、画像同士の類似度(例えば、構造類似性)又は特徴点の差分、などに基づいて算出する。例えば、重畳領域ずれ量評価部6064は、カメラ600_1と600_2の投影画像における重畳領域画像636aと636bが1つのペアとして入力され、画像の類似度を求める。このとき、重畳領域ずれ量評価部6064は、投影画像を生成するときのカメラパラメータは、パラメータ最適化部6082から提供されたものを用いる。なお、比較処理をする場合は、互いに画素が存在する範囲に限定してもよい。
図30に示される投影領域ずれ量評価部6065は、パラメータ最適化部6082から提供されるカメラパラメータに対応するカメラ画像受信部609から得られた各カメラ画像の投影画像(投影処理部603によって、投影画像を取得する)と、参照データ読出部605から得られた各カメラの参照データに基づく投影画像とを比較し、参照データに対するずれ量を計算する。つまり、投影領域ずれ量評価部6065は、参照データのカメラ画像である参照画像と、それに対応するカメラパラメータとを投影処理部603に入力し、投影画像を取得し、投影画像を比較する。投影領域ずれ量評価部6065は、ずれ量を、画像同士の類似度(例えば、構造類似性)又は特徴点の差分、などに基づいて算出する。
図30に示されるずれ判定部6066は、前述した4つの処理(R1)〜(R4)に基づいて、ずれが発生しているカメラを検出し、判定結果を出力する。判定結果は、例えば、ずれが発生しているか否かを示す情報、ずれが発生しているカメラを特定する情報(例えば、カメラの番号、などを含む。ずれ判定部6066は、類似度評価部6061、相対移動量推定部6062、重畳領域抽出部6063、重畳領域ずれ量評価部6064から提供される評価値に基づいて判定結果を生成する。ずれ判定部6066は、それぞれの評価値に対して閾値を設定し、それを超えた場合にずれ発生として判断する。また、ずれ判定部6066は、それぞれの評価値に重み付けをし、合計したものを新たな評価値とし、それに対して閾値を設けて判定してもよい。
図38は、図27に示される移動量推定・パラメータ計算部607によって実行される処理を示すフローチャートである。図38にステップS341〜S344として示されるように、移動量推定・パラメータ計算部607は、ずれ検出部606から提供されたカメラ画像と、参照データ読出部605から得られた、校正済みの状態にある各カメラの参照データとに基づいて、カメラ画像受信部609から提供されたカメラ画像における各カメラの外部パラメータを算出する。
図31に示されるずれ補正部608は、ずれ検出部606から提供される判定結果が「ずれ発生」であったときに、当該カメラの位置ずれを校正する際に使用される新たな外部パラメータ(すなわち、補正後の外部パラメータ)を算出する。補正後の外部パラメータは、合成画像に生じたずれを補正する際に使用される。
図31に示されるパラメータ最適化部6082は、ずれ検出部606から得られた位置ずれが検出されたカメラ(「補正対象カメラ」とも言う。)の位置ずれを補正する際に使用される外部パラメータを計算し、カメラパラメータ入力部601へ出力する。なお、パラメータ最適化部6082は、位置ずれが検出されていない(すなわち、位置ずれが発生していない)場合、カメラのパラメータを変更せずに、カメラパラメータ入力部601に設定されている値を出力する。
図31に示される重畳領域抽出部6083は、投影処理部603から提供される投影画像と合成テーブルとから、合成画像における隣接するカメラ画像同士の重畳領域の画像である重畳領域画像を抽出し、重畳領域ずれ量評価部6084へ出力する。つまり、重畳領域抽出部6083は、隣接するカメラ画像の重畳領域画像をペアとして出力する。重畳領域抽出部6083の機能は、重畳領域抽出部6063の機能と同じである。
図31に示される重畳領域ずれ量評価部6084は、重畳領域抽出部6083から提供された隣接するカメラ画像の重畳領域画像のペアに基づいて、ずれ量を計算する。重畳領域ずれ量評価部6084は、ずれ量を、隣接するカメラ画像同士の類似度(例えば、構造類似性など)又は特徴点の差分、などに基づいて算出する。重畳領域ずれ量評価部6084は、例えば、カメラ600_1と600_2の投影画像における重畳領域画像636aと636bを1つのペアとして受け取り、各画像の類似度を求める。投影画像を生成するときのカメラパラメータは、パラメータ最適化部6082から提供されたものである。なお、画像同士の比較処理は、互いに画素が存在する範囲についてのみ行われる。
図31に示される投影領域ずれ量評価部6085は、パラメータ最適化部6082から提供されるカメラパラメータに対応するカメラ画像受信部609から得られた各カメラ画像の投影画像(投影処理部603によって、投影画像を取得する)と、参照データ読出部605から得られた各カメラの参照データに基づく投影画像とを比較し、参照データに対するずれ量を計算する。参照データに基づく投影画像は、参照データ中のカメラ画像である参照画像とそれに対応するカメラパラメータとを投影処理部603に入力することで、投影処理部603から取得される。投影領域ずれ量評価部6085は、ずれ量を、画像同士の類似度(例えば、構造類似性など)又は特徴点の差分、などに基づいて算出する。なお、画像同士の比較処理は、互いに画素が存在する範囲についてのみ行われる。投影領域ずれ量評価部6085は、投影画像6391と6392とを比較することにより、参照データに対するずれ量を計算する。投影領域ずれ量評価部6085は、例えば、それぞれの画像の類似度を求める。投影領域ずれ量評価部6085の処理は、投影領域ずれ量評価部6065の処理と同じである。
以上に説明したように、実施の形態3に係る画像処理装置610、画像処理方法又は画像処理プログラムを用いれば、合成画像を構成するカメラ画像の位置関係を保持しつつ、合成画像におけるカメラ画像のずれを補正することができる。
《4−1》画像処理装置710
図40は、実施の形態4に係る画像処理装置710の構成を概略的に示す機能ブロック図である。図40において、図27に示される構成要素と同一又は対応する構成要素には、図27に示される符号と同じ符号が付されている。実施の形態4に係る画像処理装置710は、カメラ画像記録部701及び入力データ選択部702を備えている点において、実施の形態3に係る画像処理装置610と異なる。入力データ選択部702は、カメラ画像に基づいて参照画像と外部パラメータとを含む参照データを選択する参照データ読出部である。
図41は、カメラ画像記録部701によって実行される処理を示すフローチャートである。カメラ画像記録部701は、カメラ画像受信部609から提供されたカメラ画像を、一定時間間隔ごとに記録する(ステップS401)。一定時間間隔は、例えば、数フレームの時間間隔、数秒の間隔、などである。なお、一定時間間隔は、カメラ画像を取得する予め決められた時間間隔の代表例であり、この時間間隔は変化してもよい。また、カメラ画像記録部701は、カメラ画像を記憶装置に記録する際に、記録したタイミングの前後関係が分かるように、カメラ画像に加えて、順序番号又はタイムスタンプなども記録する(ステップS402、S405)。図26を参照して説明すると、メインプロセッサ611は、カメラ画像とカメラ画像の順序がわかる情報をメインメモリ612に保存し、ファイルインタフェース616を通してメインメモリ612から補助メモリ613へ格納する。
図42(A)から(C)は、図40に示される入力データ選択部702によって実行される処理を示す説明図である。図43は、図40に示される入力データ選択部702によって実行される処理を示すフローチャートである。
移動量推定・パラメータ計算部607は、ずれ検出部606によって位置姿勢のずれが存在していると判断されたカメラにおいて、入力データ選択部702から提供されるカメラ画像と参照データ(すなわち、参照画像及び外部パラメータ)を入力とし、これらに基づいて外部パラメータを計算する。この点以外に関して、移動量推定・パラメータ計算部607は、実施の形態3のものと同じである。
ずれ補正部608は、ずれ検出部606によって位置姿勢のずれが存在していると判断されたカメラにおいては、入力データ選択部702から提供されるカメラ画像(すなわち、ずれている状態のカメラで撮影された画像)と、参照画像及び外部パラメータとを受け取る。ずれ補正部608は、ずれ検出部606によって位置姿勢のずれが存在していると判断されていないカメラにおいては、入力データ選択部702から提供されるカメラ画像と、それに対応する外部パラメータとを受け取る。実施の形態3では、位置姿勢のずれが存在していないカメラの外部パラメータとして、カメラパラメータ入力部601から提供された値が使用される。しかし、実施の形態4では、位置姿勢のずれが存在していないカメラの外部パラメータとして、入力データ選択部702によって選択された画像に対応する外部パラメータが使用される。ただし、実施の形態4では、実施の形態3と同様に、最適化処理において、位置姿勢のずれが存在していないカメラの外部パラメータは、更新されない。これらの点以外に関して、実施の形態4におけるずれ補正部608は、実施の形態3のものと同じである。
以上に説明したように、実施の形態4に係る画像処理装置710、画像処理方法又は画像処理プログラムを用いれば、近い状態にある画像に基づいてずれ補正処理又は移動量推定処理が実行されるので、移動量の推定精度又はずれ量の評価値の計算精度を高めることができる。また、補正処理のロバスト性を高めることができ、補正が実行できる条件を広くすることができる。
《5−1》画像処理装置810
図45は、実施の形態5に係る画像処理装置810の構成を概略的に示す機能ブロック図である。図45において、図40に示される構成要素と同一又は対応する構成要素には、図40に示される符号と同じ符号が付されている。実施の形態5に係る画像処理装置810は、マスク画像生成部703をさらに備えている点において、実施の形態4に係る画像処理装置710と異なる。
図45に示される投影処理部603は、入力されたカメラ画像に、マスクされている領域がある場合に、マスクされている領域を含むカメラ画像を投影し、マスク領域を含む投影画像を出力する。この点以外に関し、図45に示される投影処理部603は、図40に示されるものと同じである。
図46は、図45に示されるカメラ画像記録部701によって実行される処理を示すフローチャートである。図46において、図41に示される処理ステップと同じ処理ステップには、図41に示される符号と同じ符号が付されている。カメラ画像記録部701は、カメラ画像受信部609から提供されたカメラ画像を、一定時間間隔ごとに記録する(ステップS401)。一定時間間隔は、例えば、数フレームの時間間隔、数秒の間隔、などである。カメラ画像記録部701は、カメラ画像を記録する際に、記録したタイミングの前後関係が分かるように、順序番号又はタイムスタンプなども記録する。図26を参照して説明すると、メインプロセッサ611は、メインメモリ612に記録されている情報を、ファイルインタフェース616を通して、補助メモリ613へ格納する。
図47は、図45に示されるマスク画像生成部703の構成を概略的に示す機能ブロック図である。図47に示されるように、マスク画像生成部703は、差分用カメラ画像記録部7031と、差分マスク画像出力部7032と、初回マスク画像出力部7033と、重畳領域抽出部7034と、重畳領域マスク画像出力部7035と、マスク画像統合処理部7036とを有している。
図47に示される初回マスク画像出力部7033は、カメラ画像において予め除外する領域を示すマスク画像情報を補助メモリ613(図26)に記憶しており、このマスク画像情報をマスク画像統合処理部7036へ提供する(図48のステップS511、図49(A)から(C))。初回マスク画像出力部7033は、例えば、合成画像として出力するときに、使用しないカメラ画像の領域(例えば、監視範囲以外の部分など)又は、構造物などのように位置が変化しない物体(又は、頻繁には位置が変形しない物体)などを除外するためにマスク画像情報を提供する。初回マスク画像出力部7033は、出力するマスク画像を、カメラ画像上へ再投影したときのマスク画像で正規化する。初回マスク画像出力部7033は、投影したときの画像をマスクするマスク画像を出力してもよい。初回マスク画像出力部7033は、マスクを他のマスクと統合するときに、カメラ画像座標系で正規化することで、1枚のマスク画像に統合することができる。したがって、初回マスク画像出力部7033は、例えば、投影画像上でマスク範囲を設定した場合には、カメラ画像記録部701から得られた外部パラメータを用いて、カメラ画像座標系へ再投影し、カメラ画像上におけるマスク領域に変換する(図49(D))。補助メモリ613(図26)上には、投影画像としてのマスク画像又は、カメラ画像上でのマスク画像が記憶される。投影画像上でマスク範囲を設定した場合には、カメラ画像座標上にマスク画像を変換し、出力する(図49(E))。
図47に示される重畳領域マスク画像出力部7035は、カメラ画像記録部701から提供されたカメラ画像を投影し(図50(A)及び(B))、重畳領域抽出部7034において重畳領域を抽出したときに、画素値がずれている部分のマスクを生成し、出力する(図48のステップS512、S513、図50(B)及び(C))。出力するマスク画像は、初回マスクと同様に、カメラ画像上へ再投影したときのマスク画像で正規化する(図50(D))。重畳領域マスク画像出力部7035は、カメラ画像記録部701から得られた外部パラメータを用いて、カメラ画像座標系へ再投影する(図48のステップS514、図50(E))。
図47に示される差分マスク画像出力部7032は、過去に記録したカメラ画像に基づいて、物体の有無を検出し(図51(A)及び(B))、物体が存在する場所のマスクを生成する(図51(C))。初回マスクは、構造物など頻繁に位置が変わらない物体などを除くことを目的としており、差分マスクは、頻繁に位置が変わる物体(例えば、駐車している車など)を除外することを目的としている。
図47に示されるマスク画像統合処理部7036が生成する統合マスクは、各カメラにおける初回マスクと重畳領域マスク、差分マスクを1つのマスクとして統合したものである。統合マスクは、全てのマスクを統合したものである必要はなく、いくつかの選択されたマスクを統合したものであってもよい。また、マスク画像統合処理部7036は、マスクを行わない処理を選択してもよい。マスク画像統合処理部7036は、初回マスク画像出力部7033と重畳領域マスク画像出力部7035、差分マスク画像出力部7032から提供されたマスク画像をOR(すなわち、OR条件)で統合し(図53(A))、1枚のマスク画像として出力する(図48のステップS517。図53(B)及び(C))。
図45に示される入力データ選択部702は、以下の機能(U1)及び(U2)を有している。
(U1)入力データ選択部702は、位置姿勢のずれが存在しているカメラにおいて、選択された画像(ずれている状態)と参照画像及び外部パラメータを移動量推定・パラメータ計算部607とずれ補正部608aに出力する際に、参照画像及び外部パラメータに対応付けられたマスク画像も出力する。
(U2)入力データ選択部702は、近い状態にある画像を選択する際に、参照画像及び外部パラメータに対応付けられたマスク画像を適用して近い状態にある画像を見つけ出す。つまり、この処理は、近い状態の画像を求めるときに、注目する画像の範囲を限定する処理である。
これらの点以外に関し、図45に示される入力データ選択部702は、実施の形態4におけるものと同じである。
図54は、図45に示される移動量推定・パラメータ計算部607によって実行される処理を示すフローチャートである。図54において、図38に示される処理ステップと同じ処理ステップには、図38に示される符号と同じ符号が付されている。図55(A)から(C)は、移動量推定・パラメータ計算部607によって実行される処理を示す説明図である。
図56は、図45に示されるずれ補正部608aの構成を概略的に示す機能ブロック図である。図56において、図31に示される構成要素と同一又は対応する構成要素には、図31に示されている符号と同じ符号が付されている。図57は、ずれ補正のための処理を示すフローチャートである。図57において、図39に示される処理ステップと同じ又は対応する処理ステップには、図39に示される符号と同じ符号が付されている。
マスク適用部6086は、以下の処理(V1)及び(V2)を行う。
(V1)マスク適用部6086は、選択された参照データ(すなわち、参照画像及び外部パラメータ)と参照データに対応するマスク画像を入力として、参照画像のマスク処理をし、投影処理部603にマスク済みの参照画像とそれに対応する外部パラメータを出力する。
(V2)マスク適用部6086は、選択された参照画像上において、マスク領域中に物体がある場合は、それを検出する。その後、検出された物体が、入力されたカメラ画像(ずれている状態のカメラ画像)上に存在する場合は、それをマスクした状態の画像を出力する。
上記以外に関して、ずれ補正部608aは、実施の形態4におけるずれ補正部608と同じである。
以上に説明したように、実施の形態5に係る画像処理装置810、画像処理方法又は画像処理プログラムを用いれば、ずれ補正処理に用いられる画像から、移動量の推定又はずれ量の評価値の計算に悪影響を与える画像部分が除外されているので、移動量の推定精度又はずれ量の評価値の計算精度を高めることができる。
《6−1》画像処理装置910
図58は、実施の形態6に係る画像処理装置910の構成を概略的に示す機能ブロック図である。図58において、図27に示される構成要素と同一又は対応する構成要素には、図27に示される符号と同じ符号が付されている。実施の形態6に係る画像処理装置910は、入力画像変換部911と、学習モデル・パラメータ読込部912と、再学習部913と、カメラ画像記録部914とを備えている点において、実施の形態3に係る画像処理装置610と異なる。
図58に示される参照データ読出部605は、参照データである参照画像を入力画像変換部911へ提供する。また、参照データ読出部605は、参照データである外部パラメータを移動量推定・パラメータ計算部607へ提供する。これらの点以外に関し、図58に示される参照データ読出部605は、実施の形態3において説明したものと同じである。
図58に示されるずれ検出部606は、入力画像変換部911にずれが発生したことを伝える。図58に示されるずれ検出部606は、実施の形態3において説明したものと同じである。なお、ずれ検出部606は、ずれ検出する際、カメラ画像受信部からのカメラ画像ではなく、入力画像変換部911から出力された比較対象のカメラ画像と比較対象の参照画像とを入力して、ずれの検出を実施してもよい。
図58に示される移動量推定・パラメータ計算部607は、入力画像変換部911から提供された変換された(又は、変換されない)参照画像と、カメラ画像受信部609から提供された変換された(又は、変換されない)カメラ画像と、参照データ読出部605から提供された外部パラメータとに基づいて、移動量を推定し、外部パラメータを計算する。この点以外に関し、図58に示される移動量推定・パラメータ計算部607は、実施の形態3において説明したものと同じである。
図58に示されるずれ補正部608は、入力画像変換部911から提供された変換された(又は、変換されない)参照データの参照画像と、カメラ画像受信部609から提供された変換された(又は、変換されない)カメラ画像と、移動量推定・パラメータ計算部607から提供された外部パラメータ及び相対移動量とに基づいて、ずれ量を補正する。
(Y1) 異なるカメラのすべてのドメイン間での距離を求めておく。
(Y2) 補正対象カメラ及びその隣接カメラの画像を各カメラ内でのドメインに分類し、異なるカメラのドメイン間の距離を取得する。
(Y3) 上記(Y1)及び(Y2)で求められた距離に基づいて、画像間の距離が小さくなるようなドメインが存在する場合には、補正対象カメラ及びその隣接カメラの画像のドメインを該当するドメインに変換する。
図58に示されるカメラ画像記録部914は、カメラ画像受信部609から提供されたカメラ画像を、一定時間間隔ごとに記憶装置(例えば、図26の外部記憶装置17)に記録する。ここで、一定時間間隔は、予め決められた数のフレームの間隔(例えば、数フレームの間隔)、予め決められた時間間隔(例えば、数秒の間隔)、などである。カメラ画像記録部914は、カメラ画像受信部609から提供されたカメラ画像を記録する際に、カメラ画像を記録したタイミングの前後関係が分かるように、カメラ画像の順序番号又はタイムスタンプなどの情報をカメラ画像に関連付けて記録する。カメラ画像記録部914によって行われる処理を図26を用いて説明すると、メインプロセッサ611は、カメラ画像を、ファイルインタフェース616を通して、メインメモリ612から補助メモリ613へ格納する。
図60は、図58及び図59に示される入力画像変換部911によって実行される処理を示すフローチャートである。図61は、図58及び図59に示される入力画像変換部911によって実行される処理を示す説明図である。
図59に示される画像変換先決定部9111は、参照データ読出部605から提供された参照画像とカメラ画像受信部609から提供されたカメラ画像と予め準備されたドメイン分類用データとに基づいて、それぞれの画像の変換処理の方法を決定し、画像変換用学習モデル・パラメータ入力部9112へ変換処理の方法を通知する(図60におけるステップS601〜S603)。画像変換先決定部9111は、参照画像又はカメラ画像の変換処理に際し、例えば、夜の画像を昼の画像に変換する、春の画像を冬に変換する、雨の日の画像を晴れの日の画像に変換する、など、参照画像及びカメラ画像の各々が属するドメインの変換を実行する(図60におけるステップS604〜S606)。変換処理の方法は、例えば、ドメインD1からドメインD2へ変換する際に用いられる学習モデルとカメラパラメータ、などである。また、画像変換先決定部9111によって行われる変換処理は、参照画像及びカメラ画像の少なくとも一方を変更せずに、そのまま出力する処理を含む。なお、参照画像及びカメラ画像に変換処理を施した後に参照画像又はカメラ画像が属するドメインを、「変換処理後のドメイン」又は「変換先」とも言う。
(Z1)第1の決定方法は、参照データ読出部605から提供された参照画像をカメラ画像受信部609から提供されたカメラ画像が属するドメインに変換する方法である。画像変換先決定部9111は、例えば、参照画像が夜の画像であり、カメラ画像受信部609から提供されたカメラ画像が昼の画像であるとき、参照画像が属するドメインが夜のドメインから昼のドメインに変わるように、参照画像に変換処理を施す。
画像変換先決定部9111は、例えば、カメラ画像受信部609から提供されたカメラ画像が早朝の画像であり、参照画像が夕方の画像であるときに、カメラ画像受信部609から提供されたカメラ画像を早朝の画像から昼の画像に変換し(すなわち、早朝のドメインから昼のドメインに変換し)、参照画像を夕方の画像から昼の画像に変換する(すなわち、夕方のドメインから昼のドメインに変換する)。
図62は、図58及び図59に示される入力画像変換部911によって実行される処理を示す説明図である。図62において、「参照画像A0」はドメインD1に属し、「カメラ画像A1」はドメインD2に属し、ドメインD1とドメインD2との間の距離L2は、他のドメイン間の距離L3〜L7のいずれよりも短い。つまり、ドメインD1とドメインD2の関係は、他のドメイン間の関係よりも近い。この場合、入力画像変換部911は、参照画像A0が属するドメインを、ドメインD1からドメインD2へ変換するための処理を参照画像A0に対して行う。或いは、入力画像変換部911は、カメラ画像A1が属するドメインを、ドメインD2からドメインD1へ変換するための処理をカメラ画像A1に対して行う。
図62において、「参照画像B0」はドメインD1に属し、「カメラ画像B1」はドメインD4に属し、ドメインD1とドメインD4との間の距離L6は、ドメインD1とドメインD2との間の距離L2及びドメインD4とドメインD2との間の距離L3より短い。この場合、入力画像変換部911は、参照画像B0が属するドメインを、ドメインD1からドメインD2へ変換するための処理を参照画像B0に対して行い、カメラ画像B1が属するドメインを、ドメインD4からドメインD2へ変換するための処理をカメラ画像B1に対して行う。これにより、参照画像B0及びカメラ画像B1に対する過大な変更を回避できるので、変換処理において、参照画像B0又はカメラ画像B1に間違った情報が入ることを防ぐことができる。
図59に示されるドメイン分類用学習モデル・パラメータ入力部9115は、画像変換先決定部9111が参照データ読出部605から提供された参照画像とカメラ画像受信部609から提供されたカメラ画像とが、どのドメインに属するかを判定するための学習モデル及びパラメータを画像変換先決定部9111へ出力する。対応する学習モデル及びカメラパラメータは、学習モデル・パラメータ読込部912から取得される。
図59に示される画像変換用学習モデル・パラメータ入力部9112は、画像変換先決定部9111から提供された画像の変換処理の方法に基づいて、その変換を実現する際に使用される学習モデル及びカメラパラメータを読み込む。画像変換先決定部9111は、参照データ読出部605から提供された参照画像とカメラ画像受信部609から提供されたカメラ画像のそれぞれの変換処理の方法に基づいて、対応する学習モデル及びカメラパラメータを学習モデル・パラメータ読込部912から取得し、参照画像変換処理部9113と入力カメラ画像変換処理部9114へ出力する(図60におけるステップS605)。また、画像変換用学習モデル・パラメータ入力部9112は、画像変換先決定部9111から画像を変換しないという出力があった場合は、画像の変換をしない指示を参照画像変換処理部9113と入力カメラ画像変換処理部9114へ出力する。
図59に示される参照画像変換処理部9113は、参照データ読出部605から提供された参照画像を、画像変換用学習モデル・パラメータ入力部9112から入力された学習モデル及びカメラパラメータに基づいて変換し、変換後の参照画像を新たな参照画像として移動量推定・パラメータ計算部607とずれ補正部608へ出力する。参照画像変換処理部9113は、変換を必要としない場合は、変換をせずに参照データ読出部605から提供された参照画像を出力する。
図59に示される入力カメラ画像変換処理部9114は、カメラ画像受信部609から提供されたカメラ画像を、画像変換用学習モデル・パラメータ入力部9112から入力された学習モデル及びカメラパラメータに基づいて変換し、新たなカメラ画像として移動量推定・パラメータ計算部607とずれ補正部608へ出力する。変換を必要としない場合は、変換をせずにカメラ画像受信部609から提供されたカメラ画像を出力する。
図58に示される学習モデル・パラメータ読込部912は、画像分類(すなわち、ドメインの分類)と画像変換に用いられる学習モデル及びカメラパラメータを入力画像変換部911へ提供する。図26を参照して説明すると、メインプロセッサ611は、補助メモリ613に記憶されている学習モデル及びカメラパラメータを、ファイルインタフェース616を通してメインメモリ612へ読み込む。
図58に示される再学習部913は、画像分類(すなわち、ドメインの分類)と画像変換に用いられる学習モデル及びカメラパラメータを、カメラ画像記録部914に記録されているカメラ画像に基づいて再学習する機能を持つ。
図63は、実施の形態6の変形例に係る画像処理装置の画像変換先決定部9111によって実行される処理を示すフローチャートである。図63において、図60に示される処理ステップと同じ処理ステップには、図60に示される符号と同じ符号が付されている。図63と図60とからわかるように、実施の形態6の変形例における画像変換先決定部9111は、カメラの移動量推定及びずれ補正処理において好適な変換先(変換された画像)が選ばれるまで、カメラ画像と参照画像の各ドメインの変換先を決める処理を繰り返す点(すなわち、ステップS607)が、実施の形態6に係る画像処理装置710と異なる。
以上に説明したように、実施の形態6に係る画像処理装置910、画像処理方法又は画像処理プログラムを用いれば、移動量推定・パラメータ計算部607は、互いに近い状態にある画像を用いて移動量を推定し又はずれ量の評価値を計算しているので、移動量の推定精度又はずれ量の評価値の計算精度を高めることができ、カメラパラメータの最適化精度を向上させることができる。
上記実施の形態1から6に係る画像処理装置の構成を、適宜組み合わせることが可能である。例えば、実施の形態1又は2に係る画像処理装置の構成と、実施の形態3から6のいずれかに係る画像処理装置の構成とを組み合わせることが可能である。
Claims (23)
- 複数の撮像装置によって撮影された複数の撮像画像を合成する処理を行う画像処理装置であって、
前記複数の撮像画像の各々を、前記複数の撮像画像の各々を撮影した撮像装置の特定情報と撮影時刻を示す時刻情報と関連付けて記憶部に記録する画像記録部と、
前記記憶部に記録された前記複数の撮像画像から、前記複数の撮像装置の各々の推定移動量を計算する移動量推定部と、
撮影時刻が同じである前記複数の撮像画像を合成することによって生成された合成画像を構成する前記複数の撮像画像の重複領域におけるずれ量の評価値を取得する処理、前記推定移動量及び前記ずれ量の前記評価値に基づいて前記複数の撮像装置の各々の外部パラメータを更新する処理、及び更新された外部パラメータを用いて撮影時刻が同じである前記複数の撮像画像を合成する処理、を含むずれ補正処理を繰り返し実行するずれ補正部と、
を有し、
前記移動量推定部は、前記複数の撮像装置の各々について、前記画像記録部から指定期間内における前記撮像画像を取得し、時間順に並ぶ複数の撮像画像から隣接画像期間における移動量を求め、前記隣接画像期間における移動量を用いた計算によって前記推定移動量を取得する
ことを特徴とする画像処理装置。 - 前記ずれ補正部は、前記ずれ量の前記評価値が予め決められた条件を満たすまで前記ずれ補正処理を繰り返し実行することを特徴とする請求項1に記載の画像処理装置。
- 前記推定移動量は、前記指定期間内に存在する前記隣接画像期間における移動量の合計値であることを特徴とする請求項1又は2に記載の画像処理装置。
- 前記隣接画像期間における移動量が予め決められた外れ値の条件を満たすか否かを判定する外れ値除外部をさらに有し、
前記移動量推定部は、前記外れ値の条件を満たす前記隣接画像期間における移動量を、前記推定移動量を算出する計算に用いない
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 - 前記ずれ補正部が前記ずれ補正処理を実行するタイミングを生成する補正タイミング決定部をさらに有することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
- 前記ずれ補正部は、前記ずれ補正処理の対象が前記複数の撮像装置である場合に、前記ずれ補正処理において用いられる前記ずれ量の前記評価値として、前記合成画像における複数のずれ量を合計して得られた合計値を用いることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
- 複数の撮像装置によって撮影された複数の撮像画像を合成する処理を行う画像処理方法であって、
前記複数の撮像画像の各々を、前記複数の撮像画像の各々を撮影した撮像装置の特定情報と撮影時刻を示す時刻情報と関連付けて記憶部に記録するステップと、
前記記憶部に記録された前記複数の撮像画像から、前記複数の撮像装置の各々の推定移動量を計算する際に、前記複数の撮像装置の各々について、前記記憶部から指定期間内における前記撮像画像を取得し、時間順に並ぶ複数の撮像画像から隣接画像期間における移動量を求め、前記隣接画像期間における移動量を用いた計算によって前記推定移動量を取得するステップと、
撮影時刻が同じである前記複数の撮像画像を合成することによって生成された合成画像を構成する前記複数の撮像画像の重複領域におけるずれ量の評価値を取得する処理、前記推定移動量及び前記ずれ量の前記評価値に基づいて前記複数の撮像装置の各々の外部パラメータを更新する処理、及び更新された外部パラメータを用いて撮影時刻が同じである前記複数の撮像画像を合成する処理、を含むずれ補正処理を繰り返し実行するステップと、
を有することを特徴とする画像処理方法。 - 複数の撮像装置によって撮影された複数の撮像画像を合成する処理をコンピュータに実行させる画像処理プログラムであって、
前記複数の撮像画像の各々を、前記複数の撮像画像の各々を撮影した撮像装置の特定情報と撮影時刻を示す時刻情報と関連付けて記憶部に記録するステップと、
前記記憶部に記録された前記複数の撮像画像から、前記複数の撮像装置の各々の推定移動量を計算する際に、前記複数の撮像装置の各々について、前記記憶部から指定期間内における前記撮像画像を取得し、時間順に並ぶ複数の撮像画像から隣接画像期間における移動量を求め、前記隣接画像期間における移動量を用いた計算によって前記推定移動量を取得するステップと、
撮影時刻が同じである前記複数の撮像画像を合成することによって生成された合成画像を構成する前記複数の撮像画像の重複領域におけるずれ量の評価値を取得する処理、前記推定移動量及び前記ずれ量の前記評価値に基づいて前記複数の撮像装置の各々の外部パラメータを更新する処理、及び更新された外部パラメータを用いて撮影時刻が同じである前記複数の撮像画像を合成する処理、を含むずれ補正処理を繰り返し実行するステップと、
を前記コンピュータに実行させることを特徴とする画像処理プログラム。 - 複数のカメラによって撮影された複数のカメラ画像を合成することで合成画像を生成する処理を行う画像処理装置であって、
前記複数のカメラのカメラパラメータである複数の外部パラメータを提供するカメラパラメータ入力部と、
前記カメラパラメータ入力部から提供される前記複数の外部パラメータに基づいて、投影画像の合成時に用いるマッピングテーブルである合成テーブルを生成し、前記合成テーブルを用いて前記複数のカメラ画像を同じ投影面上に投影することによって、前記複数のカメラ画像に対応する複数の投影画像を生成する投影処理部と、
前記複数の投影画像から前記合成画像を生成する合成処理部と、
前記複数のカメラに対応する基準となるカメラ画像である複数の参照画像と前記複数の参照画像に対応する複数の外部パラメータとを含む参照データと、前記複数のカメラによって撮影された前記複数のカメラ画像とに基づいて、前記複数のカメラの移動量を推定し、前記複数のカメラのカメラパラメータである複数の補正後の外部パラメータを計算する移動量推定・パラメータ計算部と、
前記カメラパラメータ入力部から提供される前記複数の外部パラメータを、前記移動量推定・パラメータ計算部によって計算された結果を用いて前記複数の補正後の外部パラメータに更新するずれ補正部と、
を備えたことを特徴とする画像処理装置。 - 前記参照データを予め記憶する記憶装置から、前記参照データを読み出す参照データ読出部をさらに備えたことを特徴とする請求項9に記載の画像処理装置。
- 前記参照データを予め記憶する記憶装置をさらに備えたことを特徴とする請求項9又は10に記載の画像処理装置。
- 前記複数のカメラによって撮影された前記複数のカメラ画像から、前記参照データを選択する入力データ選択部をさらに備えたことを特徴とする請求項9に記載の画像処理装置。
- 前記複数のカメラによって撮影された前記複数のカメラ画像を記憶装置に記録するカメラ画像記録部をさらに備え、
前記入力データ選択部は、前記カメラ画像記録部によって記録された前記複数のカメラ画像から前記参照データを選択する
ことを特徴とする請求項12に記載の画像処理装置。 - 前記複数のカメラの移動量の推定及び補正後の前記複数の外部パラメータの計算に用いないマスク領域を指定するマスク画像を生成するマスク画像生成部をさらに備え、
前記移動量推定・パラメータ計算部は、前記複数の参照画像から前記マスク領域を除く領域と、前記複数のカメラによって撮影された前記複数のカメラ画像から前記マスク領域を除く領域とに基づいて、前記複数のカメラの移動量を推定し、前記複数の補正後の外部パラメータを計算する
ことを特徴とする請求項9から13のいずれか1項に記載の画像処理装置。 - 前記複数のカメラ画像が撮影された状態に基づいて前記複数のカメラ画像の各々を複数のドメインのいずれかに分類し、前記複数の参照画像が撮影された状態に基づいて前記複数の参照画像の各々を前記複数のドメインのいずれかに分類し、前記複数のカメラ画像のうちの比較対象のカメラ画像のドメインと前記複数の参照画像のうちの比較対象の参照画像のドメインとが近い状態になるようにする変換処理を、前記比較対象のカメラ画像及び前記比較対象の参照画像の少なくとも一方に行う入力画像変換部をさらに備え、
前記移動量推定・パラメータ計算部は、前記入力画像変換部から出力された前記比較対象のカメラ画像と前記比較対象の参照画像とに基づいて、前記複数のカメラの移動量を推定し、前記複数のカメラに対応する複数の補正後の外部パラメータを計算する
ことを特徴とする請求項9から14のいずれか1項に記載の画像処理装置。 - 前記ドメインが近い状態は、
撮影した時刻の差が予め決められた範囲内である状態、移動体が存在しない状態、人物の数の差が予め決められた値以内である状態、日照時間の差が予め決められた時間以内である状態、及び輝度の差、輝度の分布及びコントラストのいずれかを含む画像の類似性を評価するときにおける指標が予め決められた範囲内である状態、のうちの1つ以上である画像である、もしくは
画像を分類する学習モデルから得られる分類結果から判断される
ことを特徴とする請求項15に記載の画像処理装置。 - 前記変換処理は、前記比較対象のカメラ画像のドメインと前記比較対象の参照画像のドメインとを一致させる処理、又は、画像間の距離を短縮する処理であることを特徴とする請求項15又は16に記載の画像処理装置。
- 前記複数のカメラ画像に基づいて、前記複数のカメラ画像の各々を前記複数のドメインのいずれに分類するかを示す学習モデルと、前記参照画像を前記複数のドメインのいずれに分類するかを示す学習モデルを生成及び更新する再学習部をさらに備え、
前記入力画像変換部は、前記学習モデルに基づいて、前記複数のカメラ画像の各々の分類、前記複数の参照画像の各々の分類、及び前記変換処理を行う
ことを特徴とする請求項15から17のいずれか1項に記載の画像処理装置。 - 前記変換処理は、補正対象のカメラ画像のドメインと前記補正対象のカメラ画像に隣接するカメラ画像のドメインとが近い状態になるようにする処理であることを特徴とする請求項15又は16に記載の画像処理装置。
- 前記複数のカメラによって撮影された前記複数のカメラ画像を記憶装置に記録するカメラ画像記録部をさらに備え、
前記再学習部は、前記カメラ画像記録部によって記録された前記複数のカメラ画像に基づいて前記学習モデルを生成及び更新する
ことを特徴とする請求項18に記載の画像処理装置。 - 前記複数のカメラ画像の各々を、前記複数のカメラ画像の各々を撮影したカメラの特定情報と撮影時刻を示す時刻情報と関連付けて記憶部に記録する画像記録部と、
前記記憶部に記録された前記複数のカメラ画像から、前記複数のカメラの各々の推定移動量を計算する移動量推定部と、
撮影時刻が同じである前記複数のカメラ画像を合成することによって生成された合成画像を構成する前記複数のカメラ画像の重複領域におけるずれ量の評価値を取得する処理、前記推定移動量及び前記ずれ量の前記評価値に基づいて前記複数のカメラの各々の外部パラメータを更新する処理、及び更新された外部パラメータを用いて撮影時刻が同じである前記複数のカメラ画像を合成する処理、を含むずれ補正処理を繰り返し実行する他のずれ補正部と、
をさらに備えたことを特徴とする請求項9から12のいずれか1項に記載の画像処理装置。 - 複数のカメラによって撮影された複数のカメラ画像を合成することで合成画像を生成する処理を行う画像処理装置が行う画像処理方法であって、
前記複数のカメラのカメラパラメータである複数の外部パラメータを提供するステップと、
前記複数の外部パラメータに基づいて、投影画像の合成時に用いるマッピングテーブルである合成テーブルを生成し、前記合成テーブルを用いて前記複数のカメラ画像を同じ投影面上に投影することによって、前記複数のカメラ画像に対応する複数の投影画像を生成するステップと、
前記複数の投影画像から前記合成画像を生成するステップと、
前記複数のカメラに対応する基準となるカメラ画像である複数の参照画像と前記複数の参照画像に対応する複数の外部パラメータとを含む参照データと、前記複数のカメラによって撮影された前記複数のカメラ画像とに基づいて、前記複数のカメラの移動量を推定し、前記複数のカメラのカメラパラメータである複数の補正後の外部パラメータを計算するステップと、
前記複数の外部パラメータを、前記補正後の外部パラメータを計算するステップにおける計算の結果を用いて前記複数の補正後の外部パラメータに更新するステップと、
を有することを特徴とする画像処理方法。 - 複数のカメラによって撮影された複数のカメラ画像を合成することで合成画像を生成する処理をコンピュータに実行させる画像処理プログラムであって、
前記複数のカメラのカメラパラメータである複数の外部パラメータを提供するステップと、
前記複数の外部パラメータに基づいて、投影画像の合成時に用いるマッピングテーブルである合成テーブルを生成し、前記合成テーブルを用いて前記複数のカメラ画像を同じ投影面上に投影することによって、前記複数のカメラ画像に対応する複数の投影画像を生成するステップと、
前記複数の投影画像から前記合成画像を生成するステップと、
前記複数のカメラに対応する基準となるカメラ画像である複数の参照画像と前記複数の参照画像に対応する複数の外部パラメータとを含む参照データと、前記複数のカメラによって撮影された前記複数のカメラ画像とに基づいて、前記複数のカメラの移動量を推定し、前記複数のカメラのカメラパラメータである複数の補正後の外部パラメータを計算するステップと、
前記複数の外部パラメータを、前記補正後の外部パラメータを計算するステップにおける計算の結果を用いて前記複数の補正後の外部パラメータに更新するステップと、
を前記コンピュータに実行させることを特徴とする画像処理プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JPPCT/JP2019/005751 | 2019-02-18 | ||
PCT/JP2019/005751 WO2020170288A1 (ja) | 2019-02-18 | 2019-02-18 | 画像処理装置、画像処理方法、及び画像処理プログラム |
PCT/JP2019/036030 WO2020170486A1 (ja) | 2019-02-18 | 2019-09-13 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6746031B1 true JP6746031B1 (ja) | 2020-08-26 |
JPWO2020170486A1 JPWO2020170486A1 (ja) | 2021-03-11 |
Family
ID=72144075
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019535963A Pending JPWO2020170288A1 (ja) | 2019-02-18 | 2019-02-18 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2020505283A Active JP6746031B1 (ja) | 2019-02-18 | 2019-09-13 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019535963A Pending JPWO2020170288A1 (ja) | 2019-02-18 | 2019-02-18 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210366132A1 (ja) |
JP (2) | JPWO2020170288A1 (ja) |
CN (1) | CN113396580A (ja) |
GB (1) | GB2595151B (ja) |
WO (2) | WO2020170288A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113420170A (zh) * | 2021-07-15 | 2021-09-21 | 宜宾中星技术智能***有限公司 | 大数据图像的多线程存储方法、装置、设备和介质 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7493433B2 (ja) | 2020-10-28 | 2024-05-31 | 日立Astemo株式会社 | 移動量算出装置 |
EP4239999A4 (en) * | 2020-11-02 | 2024-01-10 | Mitsubishi Electric Corporation | IMAGE CAPTURE DEVICE, IMAGE QUALITY CONVERSION DEVICE AND IMAGE QUALITY CONVERSION SYSTEM |
US11948315B2 (en) * | 2020-12-31 | 2024-04-02 | Nvidia Corporation | Image composition in multiview automotive and robotics systems |
WO2023053419A1 (ja) * | 2021-09-30 | 2023-04-06 | 日本電信電話株式会社 | 処理装置及び処理方法 |
WO2023053420A1 (ja) * | 2021-09-30 | 2023-04-06 | 日本電信電話株式会社 | 処理装置及び処理方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008034966A (ja) * | 2006-07-26 | 2008-02-14 | Toyota Motor Corp | 画像表示装置 |
JP2012015576A (ja) * | 2010-06-29 | 2012-01-19 | Clarion Co Ltd | 画像のキャリブレーション方法および装置 |
WO2013154085A1 (ja) * | 2012-04-09 | 2013-10-17 | クラリオン株式会社 | キャリブレーション方法および装置 |
JP2018190402A (ja) * | 2017-05-01 | 2018-11-29 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5179398B2 (ja) * | 2009-02-13 | 2013-04-10 | オリンパス株式会社 | 画像処理装置、画像処理方法、画像処理プログラム |
JP2011242134A (ja) * | 2010-05-14 | 2011-12-01 | Sony Corp | 画像処理装置、画像処理方法、プログラム、及び電子装置 |
WO2015029934A1 (ja) * | 2013-08-30 | 2015-03-05 | クラリオン株式会社 | カメラ校正装置、カメラ校正システム、及びカメラ校正方法 |
JP2018157496A (ja) * | 2017-03-21 | 2018-10-04 | クラリオン株式会社 | キャリブレーション装置 |
JP7027776B2 (ja) * | 2017-10-02 | 2022-03-02 | 富士通株式会社 | 移動ベクトル算出方法、装置、プログラム、及びノイズ除去処理を含む移動ベクトル算出方法 |
-
2019
- 2019-02-18 JP JP2019535963A patent/JPWO2020170288A1/ja active Pending
- 2019-02-18 WO PCT/JP2019/005751 patent/WO2020170288A1/ja active Application Filing
- 2019-09-13 JP JP2020505283A patent/JP6746031B1/ja active Active
- 2019-09-13 GB GB2111596.9A patent/GB2595151B/en active Active
- 2019-09-13 CN CN201980091092.XA patent/CN113396580A/zh active Pending
- 2019-09-13 WO PCT/JP2019/036030 patent/WO2020170486A1/ja active Application Filing
-
2021
- 2021-08-04 US US17/393,633 patent/US20210366132A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008034966A (ja) * | 2006-07-26 | 2008-02-14 | Toyota Motor Corp | 画像表示装置 |
JP2012015576A (ja) * | 2010-06-29 | 2012-01-19 | Clarion Co Ltd | 画像のキャリブレーション方法および装置 |
WO2013154085A1 (ja) * | 2012-04-09 | 2013-10-17 | クラリオン株式会社 | キャリブレーション方法および装置 |
JP2018190402A (ja) * | 2017-05-01 | 2018-11-29 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出装置、カメラパラメタセット算出方法及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113420170A (zh) * | 2021-07-15 | 2021-09-21 | 宜宾中星技术智能***有限公司 | 大数据图像的多线程存储方法、装置、设备和介质 |
CN113420170B (zh) * | 2021-07-15 | 2023-04-14 | 宜宾中星技术智能***有限公司 | 大数据图像的多线程存储方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020170486A1 (ja) | 2021-03-11 |
WO2020170288A1 (ja) | 2020-08-27 |
WO2020170486A1 (ja) | 2020-08-27 |
GB202111596D0 (en) | 2021-09-29 |
CN113396580A (zh) | 2021-09-14 |
US20210366132A1 (en) | 2021-11-25 |
GB2595151A (en) | 2021-11-17 |
GB2595151B (en) | 2023-04-19 |
JPWO2020170288A1 (ja) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6746031B1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP6735592B2 (ja) | 画像処理装置及びその制御方法、画像処理システム | |
US9524436B2 (en) | Augmented reality camera registration | |
KR101457313B1 (ko) | 템플릿 스위칭 및 특징 적응을 이용한 오브젝트 추적을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품 | |
US11138419B2 (en) | Distance image processing device, distance image processing system, distance image processing method, and non-transitory computer readable recording medium | |
JP5016602B2 (ja) | モーションキャプチャに使用されるラベリング | |
CN111899282B (zh) | 基于双目摄像机标定的行人轨迹跟踪方法及装置 | |
US20120281922A1 (en) | Image processing device, image processing method, and program for image processing | |
JP2015162816A (ja) | 画像処理装置およびその制御方法 | |
JPWO2007074605A1 (ja) | 画像処理方法、画像処理プログラム、画像処理装置、及び撮像装置 | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
JP5970012B2 (ja) | 画像処理装置およびその制御方法 | |
JP7427467B2 (ja) | 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム | |
JP4017578B2 (ja) | 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体 | |
JP7312026B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2002109518A (ja) | 三次元形状復元方法及びシステム | |
JP2019220073A (ja) | 物体追跡装置、物体追跡システム、および物体追跡方法 | |
JP7102383B2 (ja) | 路面画像管理システム及びその路面画像管理方法 | |
JP4534992B2 (ja) | 画素位置取得方法 | |
JP2018049396A (ja) | 形状推定方法、形状推定装置および形状推定プログラム | |
JP4286301B2 (ja) | 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体 | |
CN115375772B (zh) | 相机标定方法、装置、设备及存储介质 | |
JP7365729B1 (ja) | 姿勢推定システム | |
US11972549B2 (en) | Frame selection for image matching in rapid target acquisition | |
JPWO2019186833A1 (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200130 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200130 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200304 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6746031 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |