JP2020197848A - Image processing device, imaging device, computer program, storage medium and method - Google Patents
Image processing device, imaging device, computer program, storage medium and method Download PDFInfo
- Publication number
- JP2020197848A JP2020197848A JP2019102877A JP2019102877A JP2020197848A JP 2020197848 A JP2020197848 A JP 2020197848A JP 2019102877 A JP2019102877 A JP 2019102877A JP 2019102877 A JP2019102877 A JP 2019102877A JP 2020197848 A JP2020197848 A JP 2020197848A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving object
- detecting means
- visible light
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は合成画像を生成する画像処理装置、撮像装置、コンピュータプログラム、記憶媒体及び方法に関するものである。 The present invention relates to an image processing device, an imaging device, a computer program, a storage medium and a method for generating a composite image.
監視用途などの撮像装置においては、夜間などの低照度時にも被写体の色を再現することが要求される。例えば特許文献1では、低照度時にも被写体の色を再現できる撮像装置として、可視光に感度を有する撮像素子に加えて、近赤外光に感度を有する撮像素子を備え、これら二つの撮像素子で取得した画像を合成して表示する撮像装置が提案されている。
In imaging devices for surveillance purposes, it is required to reproduce the color of the subject even in low illuminance such as at night. For example, in
特許文献1では、可視光に感度を有する撮像素子で撮影した画像(以下、可視画像と称す)の輝度信号に、近赤外光に感度を有する撮像素子で撮影した画像(以下、赤外画像と称す)の輝度信号を加算し、可視画像の色信号比を残して合成画像を生成している。この手法によると低照度環境においても輝度ノイズの少ない画像を生成することが可能になるとされている。しかしながら、特許文献1の手法を用いて撮影した場合、輝度信号のSNR(Signal to Noise Ratio)は高くできるが、色信号は可視画像と同一であるためSNRは向上しない。仮に色信号のSNRも向上させようとした場合には、可視光に感度を有する撮像素子の露光時間を長くし、色信号量を大きくする必要がある。しかしながらこのように露光時間を長くした場合には、被写体ブレが発生しやすくなる。図1は、可視画像側で被写体ブレが発生してしまった画像を赤外画像と合成した従来例を示す図である。この場合、当然ながら合成画像にも被写体ブレが影響し、図1に示すように認識性の低い画像となる。このような画像は監視用途として望ましくない。
In
可視光画像と前記可視光画像よりも露光時間が短い非可視光画像とを合成した合成画像を生成する画像合成手段と、前記可視光画像における動体を検出する第一の動体検出手段と、前記非可視光画像における動体を検出する第二の動体検出手段と、を有し、前記画像合成手段は、前記第一の動体検出手段と前記第二の動体検出手段の検出結果が同じ領域において前記合成画像を生成することを特徴とする。 An image synthesizing means for generating a composite image obtained by synthesizing a visible light image and a non-visible light image having an exposure time shorter than that of the visible light image, a first moving object detecting means for detecting a moving object in the visible light image, and the above. The image synthesizing means includes a second moving object detecting means for detecting a moving object in an invisible light image, and the image synthesizing means is the same in a region where the detection results of the first moving object detecting means and the second moving object detecting means are the same. It is characterized by generating a composite image.
以下、図を用いて、本発明の実施形態における撮像装置について説明する。その際、全ての図において同一の機能を有するものは同一の数字を付け、その繰り返しの説明は省略する。 Hereinafter, the imaging apparatus according to the embodiment of the present invention will be described with reference to the drawings. At that time, those having the same function in all the figures are given the same number, and the repeated description is omitted.
(第1の実施形態)
図2は、本実施形態における撮像装置を示す図である。図2において、撮像装置100は、結像光学系101、光分離部102、第一の撮像素子103、第二の撮像素子104、制御部105、第一の動体検出部106、第二の動体検出部107、合成処理部108を有する。
(First Embodiment)
FIG. 2 is a diagram showing an imaging device according to the present embodiment. In FIG. 2, the
光分離部102は、結像光学系101を透過した入射光を、第一の撮像素子103と第二の撮像素子104に分離している。具体的には、光分離部102は波長選択プリズムから構成されており、特定の閾値の波長よりも短い波長の光(可視光)は波長選択プリズムを透過し、特定の閾値の波長よりも長い波長の光(赤外光)は波長選択プリズムで反射される。即ち、可視光は撮像素子103に入射し、赤外光(非可視光)は撮像素子104に入射するように構成されている。ここで、特定の閾値は、例えば、600nm以上750nm以下である。即ち、可視光と赤外光の境目は600nm以上750nm以下と定義する。また、赤外光とは、例えば、750nmよりも長い波長の光を意味する。
The
第一の撮像素子103は少なくとも可視光に感度を有し、第二の撮像素子104は少なくとも赤外光に感度を有している。第一の撮像素子103中の画素は、RGBベイヤー配列のオンチップカラーフィルタを備えている。
The
図3は、本実施形態における撮像画像及び合成画像を示す図である。図3(a)は、第一の撮像素子103で取得した第一の画像120(可視光画像)を示している。この第一の画像120からは、輝度情報のほかに色情報を取得することができる。また、図3(b)は、第二の撮像素子104で取得した第二の画像121(非可視光画像)を示している。この第二の画像121からは、輝度情報のみを取得することができる。各々の固体撮像素子103、104の駆動および画像の読み出しは、制御部105が制御している。以上は撮像装置100が結像光学系と光分離部を1つずつ有する構成を示したが、光分離部が無く結像光学系が二つの撮像素子それぞれに1つずつ存在する構成としてもよい。ただし、結像光学系と光分離部が1つずつ備えられた撮像装置のほうが撮像装置のサイズを小さく出来ることと、両撮像素子の画像に視差が発生しないため望ましい。
FIG. 3 is a diagram showing a captured image and a composite image in the present embodiment. FIG. 3A shows a first image 120 (visible light image) acquired by the
<動体検出>
第一の画像120と第二の画像121はそれぞれ動体検出部106(第一の動体検出手段)および107(第二の動体検出手段)に送られ、それぞれ動体の検出が行われる。すなわち、動体検出部106において可視光画像上の動体が検出され、動体検出部107において非可視光画像上の動体が検出される。ここで動体の検出方法は例えば背景差分法などの手法が用いられる。第一の画像120および第二の画像121は、それぞれ「動体」と判定されたエリアの座標情報(以下、動体エリアと称す)とともに、合成処理部108に送られる。ここで「座標情報」とは、動体であると判定された領域の画素の、該画像内におけるxyアドレスを示す。図3(a)に示すように、太線140の範囲が第一の画像120における動体の範囲である。また、図3(b)に示すように、太線141の範囲が第二の画像121における動体の範囲である。
<Motion detection>
The
<合成処理>
合成処理部108は、第一の画像120と第二の画像121を合成して、第三の画像123を生成する。具体的には、次のような処理を行う。
<Synthesis processing>
The
まず、RGB形式で読み出された第一の画像120に現像処理(黒レベル補正、ホワイトバランス調整、デモザイク処理、ガンマ補正、フォーマット変換など)を行い、YUV形式に変換する。この際の第一の画像120のYUV信号を各々、Y1、U1、V1とする。同様に、第二の画像121を現像処理してYUV形式に変換する。この際の第二の画像121のY信号をY2とする。なお、第二の画像121は色情報を有さないため、UとVの値はゼロである。
First, the
次に、第一の画像のYUV信号と第二の画像のY信号と、それぞれの画像における動体エリアの情報が合成処理部108に送られ、図3(d)に示す第三の画像123が生成される。具体的には、第三の画像123のYUV信号を各々、Y3、U3、V3とした時、以下に示す条件分けと計算式を用いて合成を行う。
Next, the YUV signal of the first image, the Y signal of the second image, and the information of the moving body area in each image are sent to the
[第一の画像、第二の画像で共に動体エリアと判定された範囲、および第一の画像、第二の画像で共に背景と判定された範囲]
図3(c)は、第一の画像、第二の画像で共に動体エリアと判定された範囲、および第一の画像、第二の画像で共に背景と判定された範囲を示す図である。図3(c)の画像122における斜線部142以外の範囲は、第一の画像および第二の画像において共に「動体と判定された範囲」、と「(動体ではなく)背景と判定された範囲」である。すなわち、すなわち、斜線部142は、動体検出部106(第一の動体検出手段)と動体検出部107(第二の動体検出手段)の双方で検出結果が同じ領域である。第一の画像および第二の画像において共に「動体と判定された範囲」、と「(動体ではなく)背景と判定された範囲」は、第一の画像の被写体ブレがない範囲である。式1に示すように、この範囲においては輝度信号として第一の画像の輝度信号Y1に第二の画像の輝度信号Y2を加えた値を第三の画像の輝度値Y3とすることで輝度のSNRを向上させる。また、式2及び式3に示すように、色差信号は露光時間を長くすることで色信号のSNRが向上した第一の画像の色差信号U1、V1を使用する。これにより、この範囲における第三の画像の輝度および色のSNRは向上し、認識性も向上する。
Y3=Y1+Y2 式1
U3=U1 式2
V3=V1 式3
[Area determined to be a moving body area in both the first and second images, and a range determined to be a background in both the first and second images]
FIG. 3C is a diagram showing a range determined to be a moving object area in both the first image and the second image, and a range determined to be a background in both the first image and the second image. The range other than the shaded
Y3 = Y1 +
U3 = U1 formula 2
V3 = V1 formula 3
[第一の画像で動体エリアと判定され、かつ第二の画像で背景エリアと判定された範囲]
図3(c)の画像122の斜線部142は、第一の画像において「動体」として判定され、かつ、第二の画像において「背景」として判定された範囲を表している。すなわち、斜線部142は、動体検出部106(第一の動体検出手段)と動体検出部107(第二の動体検出手段)の検出結果が異なる領域である。第一の撮像素子(可視光撮影用)は色のSNR向上のために第二の撮像素子(赤外光撮影用)に比べて露光時間が長い。このため第一の画像では被写体ブレが発生しやすくなる。ここでは、被写体に動きがあり被写体ブレが発生した場合について説明する。第一の画像において被写体ブレの広がった範囲は動体検出部106によって動体として判定される。一方、第一の撮像素子に比べて短秒の露光時間での撮影となる第二の撮像素子では被写体ブレが抑えられ動体として検出される範囲は第一の画像よりも狭い範囲となる。したがって第二の画像において動体ではなく「背景」と判定され、かつ第一の画像において「動体」として判定された範囲は被写体ブレの広がる範囲と見なせる。このように被写体ブレが第一の画像に発生している場合、二つの画像120および121を単純に合成した場合には合成画像123にも被写体ブレが生じ、認識性を低下させる要因となる。
[Area determined to be a moving object area in the first image and a background area in the second image]
The shaded
以下の式4〜6は、この被写体ブレの発生している範囲(画像122の斜線部142)においては第二の画像の輝度信号のみを用いてモノクロ画像を出力することを表している。
Y3=Y2 式4
U3=0 式5
V3=0 式6
Equations 4 to 6 below represent that a monochrome image is output using only the luminance signal of the second image in the range where the subject blur is generated (hatched
Y3 = Y2 formula 4
U3 = 0 formula 5
V3 = 0 formula 6
色差信号U3およびV3を0とすることによって、色情報が失われる代わりに第一の画像の被写体ブレが第三の画像123(合成画像)に反映されることを防止し、認識性の高い画像を生成することができる。ここで失われた色情報とは、もともとは第一の画像120において被写体の色と背景の色が混ざった色の情報であり、監視用途としては証拠性の低い情報である。このため、この色情報自体を失うことは不必要な情報を捨てる行為でありデメリットは少ない。
By setting the color difference signals U3 and V3 to 0, it is possible to prevent the subject blur of the first image from being reflected in the third image 123 (composite image) instead of losing the color information, and the image is highly recognizable. Can be generated. The color information lost here is originally color information in which the color of the subject and the color of the background are mixed in the
以上のように本実施形態の手法を用いることによって、被写体ブレの発生している範囲においては被写体ブレの影響を除去し、被写体ブレ以外の範囲においては輝度および色のSNRを向上させた合成画像123を取得することが可能になる。つまり、課題であった被写体ブレを抑制しながら輝度および色のSNRが高い画像、すなわち認識性の高い監視画像を取得することが可能になる。 As described above, by using the method of the present embodiment, the influence of the subject blur is removed in the range where the subject blur is occurring, and the brightness and the color SNR are improved in the range other than the subject blur. It becomes possible to acquire 123. That is, it is possible to acquire an image having a high brightness and color SNR, that is, a surveillance image with high recognition while suppressing subject blurring, which has been a problem.
(第2の実施形態)
第2の実施形態では、第1の実施形態に比べて被写体ブレの範囲における色情報が補間され、さらに認識性が向上した画像を取得することが可能になる。より具体的には、第三の画像123の一部において、被写体ブレの影響を抑制する代わりに色情報が失われた範囲の色情報を、第一の画像における周囲の色情報から推測し、補間するものである。
(Second Embodiment)
In the second embodiment, the color information in the range of subject blur is interpolated as compared with the first embodiment, and it becomes possible to acquire an image with further improved recognition. More specifically, in a part of the
第2の実施形態の撮像装置は第1の実施形態と同一のため説明を省略する。第2の実施形態と第1の実施形態の違いは合成処理部108での処理方法であり、具体的には「第一の画像で動体と判定され、かつ第二の画像で背景と判定された範囲」の合成方法が異なる。
Since the image pickup apparatus of the second embodiment is the same as that of the first embodiment, the description thereof will be omitted. The difference between the second embodiment and the first embodiment is the processing method in the
図5は、本実施形態における合成画像を示す図である。図5(a)の画像122における斜線部142は「第一の画像で動体と判定され、かつ第二の画像で背景と判定された範囲」を示している。第1の実施形態ではこの範囲の輝度信号Y3に第二の画像の輝度信号Y2を使用し、色差信号U3およびV3は0とすることで被写体ブレのないモノクロ画像を出力していた。本実施形態では、この範囲における色差信号U3とV3の値を、この範囲に隣接する周囲の色差信号で置き換えることでカラー画像とする。
FIG. 5 is a diagram showing a composite image in the present embodiment. The shaded
合成処理部108では入力された第一の画像120において「背景」と判定されたエリアに対し、エッジ情報を利用してエッジが閉曲線を描く領域毎に画像を分割し、それぞれの領域毎に、色差信号UおよびVの代表値を算出する。ここで、画像のエッジを検出する手法は一般的な勾配法やラプラシアン法等を用いればよい。ここでは一例として領域毎に輝度の代表値として平均値を算出する場合を説明するが、代表値は最頻値、中央値などでもよいし、輝度Yの値によって任意に重みづけ平均した値でもよい。また、領域毎に算出する値を変えてもよい。
The
図4は、本実施形態における色情報の補間について説明する図である。図4(a)に示す画像120において、200〜206がエッジ情報によって分割された領域を表している。
FIG. 4 is a diagram illustrating interpolation of color information in the present embodiment. In the
次に合成処理部108は第二の画像121の「背景」と判定されたエリアに対し、エッジ情報を利用してエッジが閉曲線を描く領域毎に分割する。図4(b)に示す画像121において、250〜251がエッジ情報によって分割された領域を表している。次に、第二の画像121で分割されたそれぞれの領域250〜256と、第一の画像120で分割された領域200〜206の紐づけを行う。ここで紐づけとは、「同一のテクスチャーである」と判断される二つの領域を対応づけすることを示す。また、第二の画像において紐づけられた領域の色信号には、対応する第一の画像の分割領域の色信号の代表値を使用する。このことによって被写体ブレが発生している範囲における色差信号を補間することができる。紐づけは具体的には次のようにして行う。まず、第一の画像120で分割された領域200〜206のうち、ある一つの領域206に着目すると、第二の画像121の分割された領域250〜256の中に、領域206を内包する領域256が見つかる。したがって領域206は領域256のテクスチャーの一部であると判断できるので、領域206と領域256を同一エリアとして紐づけする。同様にして第一の画像で分割された領域全てに対して、対応する(内包する)第二の画像における分割領域を紐づけていき、最終的に図4(c)に示すテーブルとして保持する。
Next, the
図5は、本実施形態における合成画像を示す図である。合成処理108は「第一の画像で動体エリアと判定され、かつ第二の画像で背景エリアと判定された範囲」(図5(a)の斜線部142)において、この範囲におけるそれぞれの画素の色差信号を次のようにして決める。まずある画素150に着目する。画素150の位置は図5(a)の150であり、かつ図4(b)においては画像121における画素150である。図4(c)を見ると、画素150は領域256に属している。図4(c)の領域毎の紐づけ結果から、領域256と紐づけられている第一の画像上の分割領域が領域206であることが分かる。したがって領域206の色差信号の代表値を画素150の色差信号として使用する。これを図5(a)の斜線部142内の全ての画素に対して実施することで、色情報が補間されたカラー画像が取得できる。
FIG. 5 is a diagram showing a composite image in the present embodiment. In the
一方、図5(a)における斜線部142以外の範囲、つまり「第一の画像、第二の画像で共に動体エリアと判定された範囲、および第一の画像、第二の画像で共に背景と判定された範囲」は第1の実施形態と同様に式1〜3を用いて合成させる。
On the other hand, the range other than the shaded
以上により、合成画像124は図5(b)に示す画像124となり、第1の実施形態における合成画像123(図3(d))に比べ、被写体ブレ範囲の色情報量が補間され、認識性を更に向上することが可能となる。
As a result, the
(第3の実施形態)
第3の実施形態では、第2の実施形態に比べて色情報の精度が向上し、より信頼性の高い監視画像を取得することが可能になる。具体的には、合成される第三の画像122の一部において、被写体ブレの影響を抑制する代わりに色情報が失われた範囲の色情報を第一の画像の複数フレームを用いて生成した背景画像の色情報で補間するものである。
(Third Embodiment)
In the third embodiment, the accuracy of the color information is improved as compared with the second embodiment, and it becomes possible to acquire a more reliable monitoring image. Specifically, in a part of the
第3の実施形態の撮像装置も第1の実施形態と同一のため説明を省略する。第3の実施形態と第1の実施形態の違いは動体検出部106と合成処理部108での処理方法である。具体的には「第一の画像で動体エリアと判定され、かつ第二の画像で背景エリアと判定された範囲」の合成方法が異なる。
Since the image pickup apparatus of the third embodiment is the same as that of the first embodiment, the description thereof will be omitted. The difference between the third embodiment and the first embodiment is the processing method in the moving
図7は、本実施形態における合成画像を生成するフローの概念図である。図7(a)は第一の画像120を示す。また、図7(b)は、第二の画像121を示す。また、図7(c)は、第一の画像と第二の画像を合成し、色情報を補間する前の画像122を示す図である。図7(c)の斜線部142は、「第一の画像で動体エリアと判定され、かつ第二の画像で背景エリアと判定された範囲」を示す。図7(d)は、第一の画像と第二の画像を合成し、色情報を補間した後の画像127を示す図である。
FIG. 7 is a conceptual diagram of a flow for generating a composite image in the present embodiment. FIG. 7A shows the
本実施形態において動体検出部106は、第1の実施形態と同様の背景差分法などを用いた動体検出に加えて、動体が検出された際の背景画像125を、第一の画像および動体検知結果と共に合成処理部108へ送る。ここで、背景画像125は、背景差分法を用いる際に生成される第一の画像の複数フレームの移動平均を取った画像である。
In the present embodiment, the moving
図6は、第一の撮像素子103により撮像される第一の画像(可視光画像)と、背景画像125、および動体検知結果126の複数フレームにおける関係を示す図である。撮影された第一の画像は複数フレームに渡って移動平均が取られ、その結果が背景画像となる。この背景画像は毎フレームの撮影画像によって更新される。更新された背景画像と、次フレームの撮影画像の差分が動体検知結果となり、所定の閾値を超えた信号差がある範囲が、動体とみなされる。図6では(n+m+1)フレーム目に撮影画像に動体が発生し、同フレームで動体が検出されている。画像126の白い範囲が動体として検知された範囲である。動体が検出された際の背景画像125とはすなわち動体が写っていない状態の背景画像である。また、複数フレームに渡って移動平均を取った画像であるため、ノイズ成分が抑制されSNRが向上している。
FIG. 6 is a diagram showing the relationship between the first image (visible light image) captured by the
合成処理部108では、入力された第一の画像120に加えて、背景画像125にも現像処理を行い、YUV変換を実施する。ここでYUV変換処理後の背景画像125の輝度値をY4、色差信号をU4、V4とする。次に合成処理部108では「第一の画像で動体エリアと判定され、かつ第二の画像で背景エリアと判定された範囲」(斜線部142)の各画素について以下の式を用いて画像を合成する。
Y3=Y2+Y4 式7
U3=U4 式8
V3=V4 式9
In the
Y3 = Y2 + Y4 Equation 7
U3 = U4 formula 8
V3 = V4 formula 9
一方で、「第一の画像、第二の画像で共に動体エリアと判定された範囲、および第一の画像、第二の画像で共に背景と判定された範囲」は第一の実施形態と同様に式1〜式3を用いて合成する。
On the other hand, "the range determined to be the moving object area in both the first image and the second image, and the range determined to be the background in both the first image and the second image" are the same as in the first embodiment. Is synthesized using
合成画像は図7(d)に示す画像127のようになる。図7(c)の斜線部142に相当する範囲に着目すると、色差信号U3およびV3については背景画像のU4およびV4が用いられるため、モノクロ画像であった第1の実施形態に比べて色情報が補間される。さらに第2の実施形態と比べると、第2の実施形態ではこの領域の色差信号は周囲の隣接する分割領域の色差信号を用いた推測値であったのに対し、本実施形態では実際に撮影された実測値を用いており、色情報の信頼性が向上している。
The composite image is as shown in
輝度信号Y3については、第1の実施形態および第2の実施形態と異なり、Y2に加えてY4が加算されるため、輝度のSNRがより向上する。 As for the luminance signal Y3, unlike the first embodiment and the second embodiment, Y4 is added in addition to Y2, so that the luminance SNR is further improved.
この結果、本実施形態の手法を用いることで、第三の画像の全ての領域において、輝度および色のSNRが向上された画像を取得することが可能になり、認識性の高い画像が取得できる。 As a result, by using the method of the present embodiment, it is possible to acquire an image with improved brightness and color SNR in all regions of the third image, and an image with high recognition can be acquired. ..
以上、本発明の実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.
上記実施形態において、合成処理部108が撮像装置100に設けられた例を説明したが、合成処理部108はクライアント装置側に配置してもよい。この場合、クライアント装置からの指示に応じて撮像装置100から第一の画像と第二の画像をクライアント装置に送り、クライアント装置側で画像合成を行ってもよい。
In the above embodiment, the example in which the
また、本発明における制御の一部または全部を上述した実施形態の機能を実現するコンピュータプログラム(ソフトウェア)をネットワーク又は各種記憶媒体を介して撮像装置や情報処理装置に供給するようにしてもよい。そして、その撮像装置や情報処理装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 Further, a computer program (software) that realizes a part or all of the control in the present invention may be supplied to the image pickup apparatus or the information processing apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) in the image pickup device or the information processing device may read and execute the program. In that case, the program and the storage medium that stores the program constitute the present invention.
100 撮像装置
101 結像光学系
102 光分離部
103 第一の固体撮像素子
104 第二の固体撮像素子
105 制御部
106 第一の動体検出部
107 第二の動体検出部
108 合成処理部
120 第一の画像
121 第二の画像
122 第一および第二の動体検出結果
123 第1の実施形態における合成画像
124 第2の実施形態における合成画像
125 第3の実施形態における背景画像
126 第3の実施形態における動体検知結果
127 第3の実施形態における合成画像
140 第一の画像の動体範囲
141 第二の画像の動体範囲
142 第一の画像の被写体ブレに相当する範囲
200〜206 第一の画像における分割領域
250〜256 第二の画像における分割領域
100
Claims (11)
前記可視光画像における動体を検出する第一の動体検出手段と、
前記非可視光画像における動体を検出する第二の動体検出手段と、を有し、
前記画像合成手段は、前記第一の動体検出手段と前記第二の動体検出手段の検出結果が同じ領域において前記合成画像を生成することを特徴とする画像処理装置。 An image synthesizing means for generating a composite image obtained by synthesizing a visible light image and a non-visible light image having a shorter exposure time than the visible light image.
A first moving object detecting means for detecting a moving object in the visible light image,
It has a second moving object detecting means for detecting a moving object in the invisible light image, and has
The image processing apparatus is an image processing apparatus, characterized in that the image processing means generates the composite image in a region where the detection results of the first moving object detecting means and the second moving object detecting means are the same.
前記可視光画像と前記可視光画像よりも露光時間が短い前記非可視光画像とを合成した合成画像を生成する画像合成ステップと、
前記可視光画像における動体を検出する第一の動体検出ステップと、
前記非可視光画像における動体を検出する第二の動体検出ステップと、を有し、
前記画像合成ステップは、前記第一の動体検出ステップと前記第二の動体検出ステップの検出結果が同じ領域において前記合成画像を生成することを特徴とする方法。 It is a method for generating a composite image that combines a visible light image and a non-visible light image.
An image synthesizing step of generating a composite image obtained by synthesizing the visible light image and the invisible light image having a shorter exposure time than the visible light image.
The first moving object detection step for detecting a moving object in the visible light image,
It has a second moving object detection step of detecting a moving object in the invisible light image.
The image synthesis step is a method characterized in that the composite image is generated in a region where the detection results of the first moving object detection step and the second moving object detection step are the same.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019102877A JP2020197848A (en) | 2019-05-31 | 2019-05-31 | Image processing device, imaging device, computer program, storage medium and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019102877A JP2020197848A (en) | 2019-05-31 | 2019-05-31 | Image processing device, imaging device, computer program, storage medium and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020197848A true JP2020197848A (en) | 2020-12-10 |
Family
ID=73647995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019102877A Pending JP2020197848A (en) | 2019-05-31 | 2019-05-31 | Image processing device, imaging device, computer program, storage medium and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020197848A (en) |
-
2019
- 2019-05-31 JP JP2019102877A patent/JP2020197848A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102557794B1 (en) | Image processing apparatus, method for controlling image processing apparatus, and non-transitory computer-readable storage medium | |
JP5461568B2 (en) | Modify color and full color channel CFA images | |
JP5367640B2 (en) | Imaging apparatus and imaging method | |
US9544505B2 (en) | Image processing apparatus for synthesizing images based on a plurality of exposure time periods and image processing method thereof | |
US7671892B2 (en) | Image sensing apparatus, and control method, program, and storage medium of image sensing apparatus | |
JP7250483B2 (en) | Imaging device, computer program, and storage medium | |
JP7285791B2 (en) | Image processing device, output information control method, and program | |
US20140184853A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2014039170A (en) | Image processing device, image processing method, and program | |
WO2019124289A1 (en) | Device, control method, and storage medium | |
JP2014021928A (en) | Image processor, image processing method and program | |
JP2013165487A (en) | Image processing apparatus, image capturing apparatus, and program | |
JP2018037857A (en) | Image processing system, image processing method and program | |
US10832386B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6541501B2 (en) | IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD | |
JP2011171842A (en) | Image processor and image processing program | |
JP6800806B2 (en) | Image processing equipment, image processing methods and programs | |
JP2016111568A (en) | Image blur correction control device, imaging apparatus, control method and program thereof | |
JP2020197848A (en) | Image processing device, imaging device, computer program, storage medium and method | |
JP6245847B2 (en) | Image processing apparatus and image processing method | |
JP4936816B2 (en) | Imaging apparatus and simultaneous display control method | |
JP2011044846A (en) | Image processor and imaging apparatus | |
JP2008072428A (en) | Image processor, electronic camera, and image processing program | |
JP6494388B2 (en) | Image processing apparatus, image processing method, and program | |
JP2020092288A (en) | Image processing device, image processing method, and program |