JP2023174740A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2023174740A
JP2023174740A JP2023172451A JP2023172451A JP2023174740A JP 2023174740 A JP2023174740 A JP 2023174740A JP 2023172451 A JP2023172451 A JP 2023172451A JP 2023172451 A JP2023172451 A JP 2023172451A JP 2023174740 A JP2023174740 A JP 2023174740A
Authority
JP
Japan
Prior art keywords
image data
noise
weight
unit
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023172451A
Other languages
Japanese (ja)
Inventor
暢志 雄賀多(澤邉)
Ogata, (Sawabe) Nobuyuki
浩史 金藤
Hiroshi Kinto
茂 土井田
Shigeru Tsuchiida
公佳 宮田
Kimiyoshi Miyata
慎哉 海老原
Shinya Ebihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2023172451A priority Critical patent/JP2023174740A/en
Publication of JP2023174740A publication Critical patent/JP2023174740A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To achieve high accuracy in noise reduction.SOLUTION: An imaging apparatus includes an imaging unit that images a subject and outputs first image data and second image data that is temporally later than the first image data, a calculation unit that calculates a first weight of the first image data on the basis of first noise-removed image data from which noise has been removed from the first image data and the second image data, an afterimage reduction processing unit that reduces afterimages in the second image data, and a removing unit that removes noise from the second image data that has been subjected to afterimage reduction processing by the afterimage reduction processing unit, on the basis of the first noise-removed image data and the first weight calculated by the calculation unit.SELECTED DRAWING: Figure 6

Description

本発明は、撮像装置に関する。 The present invention relates to an imaging device.

動画に対するノイズ除去手法として、過去のフレームと現在のフレームの重み付き平均処理がある(たとえば、下記特許文献1を参照)。しかしながら、特許文献1のノイズ低減システムは、より精度を上げるには画像メモリーにより多くの過去のフレームを保持しなければならないが、画像メモリーの使用メモリ量にも限界がある。一方、使用メモリ量を制限すると、ノイズ低減の精度向上が見込めない。 As a noise removal method for moving images, there is weighted averaging processing of past frames and current frames (for example, see Patent Document 1 below). However, in the noise reduction system of Patent Document 1, in order to further improve accuracy, it is necessary to hold many past frames in the image memory, but there is also a limit to the amount of memory that can be used in the image memory. On the other hand, if the amount of memory used is limited, no improvement in noise reduction accuracy can be expected.

特開平06-062283号公報Japanese Patent Application Publication No. 06-062283

本願において開示される発明の第1側面となる撮像装置は、被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データと前記第2画像データよりも時間的に後の第3画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出し、前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みをする算出部と、前記算出部によって算出された第3重みに基づいて、前記第3画像データのノイズを除去する除去部と、を有する。 An imaging device according to a first aspect of the invention disclosed in this application images a subject and uses first image data, second image data temporally later than the first image data, and the second image data. an imaging unit that outputs third image data that is temporally later than the first image data; A first weight is calculated, and a second weight of the second image data is calculated based on the second denoised image data and the third image data from which noise is removed from the second image data, and the first weight is calculated. and a calculation unit that calculates a third weight based on the second weight, and a removal unit that removes noise from the third image data based on the third weight calculated by the calculation unit.

本願において開示される発明の第2側面となる撮像装置は、被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出部と、前記抽出部によって抽出された第1空間情報に基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、を有する。 An imaging device according to a second aspect of the invention disclosed in this application includes an imaging unit that images a subject and outputs first image data and second image data that is temporally later than the first image data. , an extraction unit that extracts first spatial information indicating characteristics of a spatial structure included in the image from at least one of the first noise-removed image data and the second image data, which are noise-removed from the first image data; a calculation unit that calculates a first weight of the first image data based on the first spatial information extracted by the extraction unit; the first noise-removed image data; and the first weight calculated by the calculation unit; , a removing unit that removes noise from the second image data based on .

本願において開示される発明の第3側面となる撮像装置は、被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第2画像データ内の残像を低減する残像低減処理部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記残像低減処理部による残像低減処理済みの第2画像データからノイズを除去する除去部と、を有する。 An imaging device according to a third aspect of the invention disclosed in the present application includes an imaging unit that images a subject and outputs first image data and second image data that is temporally later than the first image data. , a calculation unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data; second image data that has been subjected to afterimage reduction processing by the afterimage reduction processing unit based on the afterimage reduction processing unit that reduces afterimages, the first noise removed image data, and the first weight calculated by the calculation unit; and a removal unit that removes noise from the noise.

本願において開示される発明の第4側面となる撮像装置は、被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、前記除去部によって前記第2画像データからノイズ除去された第2ノイズ除去画像データ内の残像を低減する残像低減処理部と、を有する。 An imaging device according to a fourth aspect of the invention disclosed in this application includes an imaging unit that images a subject and outputs first image data and second image data that is temporally later than the first image data. , a calculation unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data; and the first noise-removed image data. and a first weight calculated by the calculation unit, a removal unit that removes noise from the second image data, and a second noise removal unit that removes noise from the second image data by the removal unit. and an afterimage reduction processing unit that reduces afterimages in image data.

本願において開示される発明の第5側面となる撮像装置は、被写体を撮像する際のフレームレートの入力を受け付ける入力部と、露光時間を、前記入力部によって入力されたフレームレートに対応する第1露光時間から前記第1露光時間よりも長い第2露光時間に調整する調整部と、前記フレームレートおよび前記調整部によって調整された第2露光時間に基づいて、前記被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、を有する。 An imaging device according to a fifth aspect of the invention disclosed in the present application includes an input section that receives an input of a frame rate when imaging a subject, and a first input section that sets an exposure time corresponding to the frame rate input by the input section. an adjustment unit that adjusts the exposure time to a second exposure time that is longer than the first exposure time; and an adjustment unit that images the subject based on the frame rate and the second exposure time adjusted by the adjustment unit; an imaging unit that outputs image data and second image data that is temporally later than the first image data; a calculation unit that calculates a first weight of the first image data based on the first noise removed image data, and a first weight calculated by the calculation unit, from the second image data. and a removing section that removes noise.

本願において開示される発明の第6側面となる画像処理装置は、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データと前記第2画像データよりも時間的に後に撮像された第3画像データとを取得する取得部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出し、前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出する算出部と、前記算出部によって算出された第3重みに基づいて、前記第3画像データのノイズを除去する除去部と、を有する。 An image processing device according to a sixth aspect of the invention disclosed in the present application includes first image data, second image data captured temporally later than the first image data, and temporally larger image data than the second image data. an acquisition unit that acquires third image data captured later in the first image data; 1 weight is calculated, and a second weight of the second image data is calculated based on the second noise-removed image data and the third image data in which noise is removed from the second image data, and the second weight is calculated based on the first weight and the third image data. The image forming apparatus includes a calculation section that calculates a third weight based on the second weight, and a removal section that removes noise from the third image data based on the third weight calculated by the calculation section.

本願において開示される発明の第7側面となる画像処理装置は、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出部と、前記抽出部によって抽出された第1空間情報に基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、を有する。 An image processing device according to a seventh aspect of the invention disclosed in the present application includes an acquisition unit that acquires first image data and second image data captured temporally later than the first image data; an extraction unit that extracts first spatial information indicating characteristics of a spatial structure included in the image from at least one of the first noise-removed image data and the second image data from which noise has been removed from the first image data; a calculation unit that calculates a first weight of the first image data based on the extracted first spatial information; and a first weight calculated by the first noise-removed image data and the calculation unit. and a removing unit that removes noise from the second image data.

本願において開示される発明の第8側面となる画像処理装置は、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第2画像データ内の残像を低減する残像低減処理部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記残像低減処理部による残像低減処理済みの第2画像データからノイズを除去する除去部と、を有する。 An image processing device according to an eighth aspect of the invention disclosed in the present application includes an acquisition unit that acquires first image data and second image data captured temporally later than the first image data; a calculation unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data; and reducing afterimages in the second image data. noise is removed from the second image data that has been subjected to afterimage reduction processing by the afterimage reduction processing section based on the afterimage reduction processing section that performs afterimage reduction processing, the first noise removed image data, and the first weight calculated by the calculation section. and a removing section for removing.

本願において開示される発明の第9側面となる画像処理装置は、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、前記除去部によって前記第2画像データからノイズ除去された第2ノイズ除去画像データ内の残像を低減する残像低減処理部と、を有する。 An image processing device according to a ninth aspect of the invention disclosed in the present application includes an acquisition unit that acquires first image data and second image data captured temporally later than the first image data; a calculation unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from one image data; the first noise-removed image data; a removing unit that removes noise from the second image data based on the first weight calculated by the calculating unit; and a second noise-removed image data from which noise is removed from the second image data by the removing unit. and an afterimage reduction processing section that reduces afterimages of.

本願において開示される発明の第10側面となる画像処理プログラムは、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データと前記第2画像データよりも時間的に後に撮像された第3画像データとを取得する取得処理と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出し、前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出する算出処理と、前記算出処理によって算出された第3重みに基づいて、前記第3画像データのノイズを除去する除去処理と、をプロセッサに実行させる。 An image processing program according to a tenth aspect of the invention disclosed in the present application includes first image data, second image data captured temporally later than the first image data, and second image data captured temporally later than the second image data. an acquisition process of acquiring third image data captured after the first image data; 1 weight is calculated, and a second weight of the second image data is calculated based on the second noise-removed image data and the third image data in which noise is removed from the second image data, and the second weight is calculated based on the first weight and the third image data. A processor executes a calculation process of calculating a third weight based on the second weight, and a removal process of removing noise from the third image data based on the third weight calculated by the calculation process. let

本願において開示される発明の第11側面となる画像処理プログラムは、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得処理と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出処理と、前記抽出処理によって抽出された第1空間情報に基づいて、前記第1画像データの第1重みを算出する算出処理と、前記第1ノイズ除去画像データと、前記算出処理によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去処理と、をプロセッサに実行させる。 An image processing program according to an eleventh aspect of the invention disclosed in this application includes an acquisition process of acquiring first image data and second image data captured temporally later than the first image data; an extraction process for extracting first spatial information indicating a feature of a spatial structure included in the image from at least one of the first noise-removed image data and the second image data from which noise has been removed from the first image data, and the extraction process a calculation process of calculating a first weight of the first image data based on the extracted first spatial information; and a first weight calculated by the first noise-removed image data and the calculation process. and causes the processor to perform a removal process of removing noise from the second image data.

本願において開示される発明の第12側面となる画像処理プログラムは、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得処理と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出処理と、前記第2画像データ内の残像を低減する残像低減処理と、前記第1ノイズ除去画像データと、前記算出処理によって算出された第1重みと、に基づいて、前記残像低減処理による残像低減処理済みの第2画像データからノイズを除去する除去処理と、をプロセッサに実行させる。 An image processing program according to a twelfth aspect of the invention disclosed in this application includes an acquisition process of acquiring first image data and second image data captured temporally later than the first image data; A calculation process of calculating a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data, and reducing afterimages in the second image data. noise is removed from the second image data that has been subjected to the afterimage reduction process by the afterimage reduction process, based on the afterimage reduction process performed by the afterimage reduction process, the first noise removed image data, and the first weight calculated by the calculation process. The processor executes the removal process.

本願において開示される発明の第13側面となる画像処理プログラムは、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得処理と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出処理と、前記第1ノイズ除去画像データと、前記算出処理によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去処理と、前記除去処理によって前記第2画像データからノイズ除去された第2ノイズ除去画像データ内の残像を低減する残像低減処理と、をプロセッサに実行させる。 An image processing program according to a thirteenth aspect of the invention disclosed in this application includes an acquisition process of acquiring first image data and second image data captured temporally later than the first image data; a calculation process of calculating a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from one image data; the first noise-removed image data; a first weight calculated by the calculation process, and a removal process for removing noise from the second image data based on the first weight; The processor is caused to execute afterimage reduction processing for reducing afterimages of.

図1は、撮像装置のハードウェア構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of the hardware configuration of an imaging device. 図2は、実施例1にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the functional configuration of the imaging device according to the first embodiment. 図3は、実施例1にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device according to the first embodiment. 図4は、調整済みの重みによる再帰的ノイズ除去例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of recursive noise removal using adjusted weights. 図5は、調整済みの重みを適用しない再帰的ノイズ除去例を示す説明図である。FIG. 5 is an explanatory diagram showing an example of recursive noise removal without applying adjusted weights. 図6は、実施例2にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 6 is a block diagram showing an example of the functional configuration of the imaging device according to the second embodiment. 図7は、実施例2にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device according to the second embodiment. 図8は、実施例3にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 8 is a block diagram showing an example of the functional configuration of an imaging device according to the third embodiment. 図9は、実施例3にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device according to the third embodiment. 図10は、実施例4にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 10 is a block diagram showing an example of the functional configuration of the imaging device according to the fourth embodiment. 図11は、実施例4にかかる残像低減処理部による補間処理例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of interpolation processing by the afterimage reduction processing section according to the fourth embodiment. 図12は、実施例4にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device according to the fourth embodiment. 図13は、実施例5にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 13 is a block diagram showing an example of the functional configuration of an imaging device according to the fifth embodiment. 図14は、実施例5にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device according to the fifth embodiment. 図15は、実施例6にかかる残像低減処理例を示す説明図である。FIG. 15 is an explanatory diagram showing an example of afterimage reduction processing according to the sixth embodiment. 図16は、実施例6にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 16 is a block diagram showing an example of the functional configuration of an imaging device according to the sixth embodiment. 図17は、実施例6にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device according to the sixth embodiment. 図18は、実施例7にかかる動画撮像例を示す説明図である。FIG. 18 is an explanatory diagram showing an example of moving image capturing according to the seventh embodiment. 図19は、実施例7にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 19 is a block diagram showing an example of the functional configuration of an imaging device according to the seventh embodiment. 図20は、撮像装置による撮像処理手順例を示すフローチャートである。FIG. 20 is a flowchart illustrating an example of an imaging processing procedure by the imaging device.

実施例1について説明する。動画に対するノイズ除去手法として、ノイズ除去された過去の画像データとノイズが除去されていない現在の画像データとの重み付き平均処理がある。ノイズの除去精度を高めるためには過去フレーム数をメモリに多く保持しておく必要があるが、メモリ使用量が増加してしまう。 Example 1 will be explained. As a method for removing noise from moving images, there is weighted averaging processing of past image data from which noise has been removed and current image data from which noise has not been removed. In order to improve noise removal accuracy, it is necessary to store a large number of past frames in memory, but this increases memory usage.

このため、実施例1では、ノイズが除去されたノイズ除去画像データの数を必要最小限に抑制するため、撮像装置は、ノイズ除去に使用される重みを再帰的に利用することにより、ノイズ除去精度の向上を図り、メモリ使用量を低減する。 Therefore, in the first embodiment, in order to suppress the number of noise-removed image data to the necessary minimum, the imaging device performs noise removal by recursively using the weights used for noise removal. Improve accuracy and reduce memory usage.

重みとは、動画像において時間的に連続する先行画像データと後続画像データとを同一領域で比較した場合の当該領域ごとにおける後続画像データに対する先行画像データの信頼度である。領域とは、1画素以上の画素集合である。領域は画像データ全体であってもよい。 The weight is the reliability of the preceding image data with respect to the succeeding image data for each area when temporally continuous preceding image data and subsequent image data are compared in the same area in a moving image. A region is a pixel set of one or more pixels. The region may be the entire image data.

重みは、たとえば、0.0以上1.0以下の範囲をとり、値が大きいほど信頼度が高いことを意味する。先行画像データおよび後続画像データの同一領域どうしが類似するほど、重みの値は大きくなる。重みを再帰的に利用することにより、過去の画像データの残像ほど重みの値が小さくなり、残像が低減される。以下、実施例1について詳細に説明する。 The weight ranges, for example, from 0.0 to 1.0, and the larger the value, the higher the reliability. The more similar the same areas of the preceding image data and the subsequent image data are, the larger the weight value becomes. By using weights recursively, the value of weight becomes smaller for afterimages of past image data, and afterimages are reduced. Example 1 will be described in detail below.

<撮像装置のハードウェア構成例>
図1は、撮像装置のハードウェア構成例を示すブロック図である。撮像装置100は、動画撮影可能な装置であり、具体的には、たとえば、デジタルカメラ、デジタルビデオカメラ、スマートフォン、タブレット、パーソナルコンピュータ、ゲーム機である。図1では、撮像装置の一例としてデジタルカメラを例に挙げて説明する。
<Example of hardware configuration of imaging device>
FIG. 1 is a block diagram showing an example of the hardware configuration of an imaging device. The imaging device 100 is a device capable of capturing moving images, and specifically, for example, is a digital camera, a digital video camera, a smartphone, a tablet, a personal computer, or a game console. In FIG. 1, a digital camera will be described as an example of an imaging device.

撮像装置100は、プロセッサ101と、記憶デバイス102と、駆動部103と、光学系104と、撮像素子105と、AFE(Analog Front End)106と、LSI(Large Scale Integration)107と、操作デバイス108と、センサ109と、表示デバイス110と、通信IF(Interface)111と、バス112と、を有する。プロセッサ101、記憶デバイス102、駆動部103、LSI107、操作デバイス108、センサ109、表示デバイス110、および通信IF111は、バス112に接続される。 The imaging device 100 includes a processor 101, a storage device 102, a drive unit 103, an optical system 104, an image sensor 105, an AFE (Analog Front End) 106, an LSI (Large Scale Integration) 107, and an operation device 108. , a sensor 109 , a display device 110 , a communication IF (Interface) 111 , and a bus 112 . The processor 101 , storage device 102 , drive unit 103 , LSI 107 , operation device 108 , sensor 109 , display device 110 , and communication IF 111 are connected to a bus 112 .

プロセッサ101は、撮像装置100を制御する。記憶デバイス102は、プロセッサ101の作業エリアとなる。また、記憶デバイス102は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。記憶デバイス102としては、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリがある。記憶デバイス102は、撮像装置100に複数実装されてもよく、そのうちの少なくとも1つは、撮像装置100に対し着脱自在でもよい。 A processor 101 controls the imaging device 100. The storage device 102 becomes a work area for the processor 101. Furthermore, the storage device 102 is a non-temporary or temporary recording medium that stores various programs and data. Examples of the storage device 102 include ROM (Read Only Memory), RAM (Random Access Memory), HDD (Hard Disk Drive), and flash memory. A plurality of storage devices 102 may be installed in the imaging apparatus 100, and at least one of them may be detachably attached to the imaging apparatus 100.

駆動部103は、光学系104を駆動制御する。駆動部103は、駆動回路103aと駆動源103bとを有する。駆動回路103aは、プロセッサ101からの指示により駆動源103bを制御する。駆動源103bは、たとえば、モータであり、駆動回路103aの制御により、光学系104内のズーミングレンズ141bおよびフォーカシングレンズ141cを光軸方向に移動させたり、絞り142を開閉制御する。 The drive unit 103 drives and controls the optical system 104. The drive unit 103 includes a drive circuit 103a and a drive source 103b. The drive circuit 103a controls the drive source 103b according to instructions from the processor 101. The drive source 103b is, for example, a motor, and controls the zooming lens 141b and the focusing lens 141c in the optical system 104 in the optical axis direction and controls the opening and closing of the diaphragm 142 under the control of the drive circuit 103a.

光学系104は、光軸方向に配列された複数のレンズ(レンズ141a、ズーミングレンズ141b、およびフォーカシングレンズ141c)と、絞り142と、を含む。光学系104は、被写体光を集光し、撮像素子105に出射する。 Optical system 104 includes a plurality of lenses (lens 141a, zooming lens 141b, and focusing lens 141c) arranged in the optical axis direction, and an aperture 142. The optical system 104 collects object light and emits it to the image sensor 105 .

撮像素子105は、光学系104からの被写体光を受光して電気信号に変換する。撮像素子105は、たとえば、XYアドレス方式の固体撮像素子(たとえば、CMOS(Complementary Metal‐Oxide Semiconductor))であってもよく、順次走査方式の固体撮像素子(たとえば、CCD(Charge Coupled Device))であってもよい。 The image sensor 105 receives object light from the optical system 104 and converts it into an electrical signal. The image sensor 105 may be, for example, an XY addressing type solid-state image sensor (for example, CMOS (Complementary Metal-Oxide Semiconductor)), or a sequential scanning type solid-state image sensor (for example, CCD (Charge Coupled Device)). There may be.

撮像素子105の受光面には、複数の受光素子(画素)がマトリクス状に配列されている。そして、撮像素子105の画素には、それぞれが異なる色成分の光を透過させる複数種類のカラーフィルタが所定の色配列(たとえば、ベイヤ配列)に従って配置される。そのため、撮像素子105の各画素は、カラーフィルタでの色分解によって各色成分に対応するアナログの電気信号を出力する。 On the light-receiving surface of the image sensor 105, a plurality of light-receiving elements (pixels) are arranged in a matrix. In each pixel of the image sensor 105, a plurality of types of color filters, each of which transmits light of a different color component, are arranged according to a predetermined color arrangement (eg, Bayer arrangement). Therefore, each pixel of the image sensor 105 outputs an analog electrical signal corresponding to each color component by color separation using a color filter.

AFE106は、撮像素子105からのアナログの電気信号に対して信号処理を施すアナログフロントエンド回路である。AFE106は、電気信号のゲイン調整、アナログ信号処理(相関二重サンプリング、黒レベル補正など)、A/D変換処理、デジタル信号処理(欠陥画素補正など)を順次実行してRAW画像データを生成し、LSIに出力する。上述した駆動部103、光学系104、撮像素子105、およびAFE106は、撮像部120を構成する。 The AFE 106 is an analog front end circuit that performs signal processing on analog electrical signals from the image sensor 105. The AFE 106 generates RAW image data by sequentially performing electrical signal gain adjustment, analog signal processing (correlated double sampling, black level correction, etc.), A/D conversion processing, and digital signal processing (defective pixel correction, etc.). , output to LSI. The drive unit 103, optical system 104, image sensor 105, and AFE 106 described above constitute an image capture unit 120.

LSI107は、AFE106からのRAW画像データについて、色補間、ホワイトバランス調整、輪郭強調、ガンマ補正、階調変換などの画像処理や符号化処理、復号処理、圧縮伸張処理など、特定の処理を実行する集積回路である。LSI107は、具体的には、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などのPLD(Programmable Logic Device)によって実現してもよい。 The LSI 107 performs specific processing on the RAW image data from the AFE 106, such as image processing such as color interpolation, white balance adjustment, edge enhancement, gamma correction, and gradation conversion, as well as encoding processing, decoding processing, and compression/expansion processing. It is an integrated circuit. Specifically, the LSI 107 is a PLD (Programmable Logic D) such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). evice).

操作デバイス108は、コマンドやデータを入力する。操作デバイス108としては、たとえば、レリーズボタンを含む各種ボタン、スイッチ、ダイヤル、タッチパネルがある。センサは、情報を検出するデバイスであり、たとえば、AF(Automatic Focus)センサ、AE(Automatic Exposure)センサ、ジャイロセンサ、加速度センサ、温度センサなどがある。表示デバイス110は、画像データや設定画面を表示する。表示デバイス110には、撮像装置100の背面にある背面モニタと、電子ビューファインダと、がある。通信IF111は、ネットワークと接続し、データを送受信する。 The operating device 108 inputs commands and data. Examples of the operation device 108 include various buttons including a release button, switches, dials, and touch panels. A sensor is a device that detects information, and includes, for example, an AF (Automatic Focus) sensor, an AE (Automatic Exposure) sensor, a gyro sensor, an acceleration sensor, a temperature sensor, and the like. The display device 110 displays image data and a setting screen. The display device 110 includes a rear monitor on the back of the imaging device 100 and an electronic viewfinder. The communication IF 111 connects to a network and transmits and receives data.

<撮像装置100の機能的構成例>
図2は、実施例1にかかる撮像装置100の機能的構成例を示すブロック図である。撮像装置100は、取得部201と、算出部202と、除去部203と、画像保存部204と、第1メモリ205と、を有する。取得部201、算出部202、除去部203、画像保存部204、および第1メモリ205は、画像処理装置200を構成する。
<Functional configuration example of imaging device 100>
FIG. 2 is a block diagram showing an example of the functional configuration of the imaging device 100 according to the first embodiment. The imaging device 100 includes an acquisition section 201, a calculation section 202, a removal section 203, an image storage section 204, and a first memory 205. The acquisition unit 201, the calculation unit 202, the removal unit 203, the image storage unit 204, and the first memory 205 constitute the image processing device 200.

取得部201は、撮像部120によって撮像された時間的に連続する一連の画像データを取得する。取得部201は、たとえば、記憶デバイス102の1つであるバッファメモリである。なお、撮像装置100が、撮像部120がない画像処理装置200である場合、記憶デバイス102または通信IF111からの一連の画像データを取得することになる。取得部201は、たとえば、記憶デバイス102の1つであるバッファメモリである。 The acquisition unit 201 acquires a series of temporally continuous image data captured by the imaging unit 120. The acquisition unit 201 is, for example, a buffer memory that is one of the storage devices 102. Note that when the imaging device 100 is an image processing device 200 without the imaging unit 120, a series of image data is acquired from the storage device 102 or the communication IF 111. The acquisition unit 201 is, for example, a buffer memory that is one of the storage devices 102.

算出部202、除去部203および画像保存部204は、具体的には、たとえば、図1に示した記憶デバイス102に記憶されたプログラムをプロセッサ101に実行させることにより、または、LSI107により実現される。また、第1メモリ205は、記憶デバイス102の1つである。 Specifically, the calculation unit 202, removal unit 203, and image storage unit 204 are realized, for example, by causing the processor 101 to execute a program stored in the storage device 102 shown in FIG. 1, or by the LSI 107. . Further, the first memory 205 is one of the storage devices 102.

ここで、一連の画像データを、連続する第1画像データ~第3画像データを例に挙げて説明する。なお、撮像部120は、被写体を撮像して、第1画像データ~第3画像データの順に出力するものとする。第1画像データは、連続する第1画像データ~第3画像データの中で、撮像部120から出力された時間的に最古の画像データとする。第2画像データは、第1画像データよりも時間的に後に撮像部120から出力された画像データとする。第3画像データは、第2画像データよりも時間的に後に撮像部120から出力された画像データとする。 Here, a series of image data will be explained using consecutive first to third image data as an example. It is assumed that the imaging unit 120 images the subject and outputs the first image data to the third image data in this order. The first image data is the temporally oldest image data output from the imaging unit 120 among the consecutive first to third image data. The second image data is image data output from the imaging unit 120 temporally later than the first image data. The third image data is image data output from the imaging unit 120 temporally later than the second image data.

算出部202は、重み計算部221と、重み調整部222と、重み保存部223と、第2メモリ224と、を有する。重み計算部221は、除去部203によって第1画像データからノイズ除去された第1ノイズ除去画像データおよび第2画像データに基づいて、第1画像データの第1重みを算出する。算出部202は、第1重みを算出する際、第2画像データに先行する過去画像データとして、第1ノイズ除去画像データを第1メモリ205から読み出す。第1画像データは、第2画像データの先行画像データであり、第2画像データは、第1画像データの後続画像データである。 The calculation unit 202 includes a weight calculation unit 221 , a weight adjustment unit 222 , a weight storage unit 223 , and a second memory 224 . The weight calculation unit 221 calculates the first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data by the removal unit 203. When calculating the first weight, the calculation unit 202 reads the first noise-removed image data from the first memory 205 as past image data preceding the second image data. The first image data is preceding image data of the second image data, and the second image data is subsequent image data of the first image data.

また、算出部202は、除去部203によって第2画像データからノイズ除去された第2ノイズ除去画像データおよび第3画像データに基づいて、第2画像データの第2重みを算出する。算出部202は、第2重みを算出する際、第3画像データに先行する過去画像データとして、第1メモリ205から第2ノイズ除去画像データを読み出す。第2画像データは、第3画像データの先行画像データであり、第3画像データは、第2画像データの後続画像データである。 Further, the calculation unit 202 calculates the second weight of the second image data based on the second noise-removed image data and the third image data from which noise has been removed from the second image data by the removal unit 203. When calculating the second weight, the calculation unit 202 reads the second noise-removed image data from the first memory 205 as past image data preceding the third image data. The second image data is preceding image data of the third image data, and the third image data is subsequent image data of the second image data.

重みとは、上述したように、時間的に連続する先行画像データと後続画像データとを同一領域で比較した場合の当該領域ごとにおける後続画像データに対する先行画像データの信頼度である。領域とは、1画素以上の画素集合である。領域は画像データ全体であってもよい。 As described above, the weight is the reliability of the preceding image data relative to the succeeding image data for each area when temporally continuous preceding image data and subsequent image data are compared in the same area. A region is a pixel set of one or more pixels. The region may be the entire image data.

ここで、時刻tよりも前にノイズ除去処理された画像データをIoldと表記し、時刻tの画像データをItと表記する。IoldやItを区別しない場合は、単に画像データIと表記する。画像データIは、たとえば、マトリクス状の画素群の各値に対応する行列である。したがって、重みもまた行列により表現され、Wと表記する。重みWの各要素は、画像データI内の領域(x,y)に対応し、その領域の重みwは、たとえば、0.0以上1.0以下の範囲をとる。 Here, image data subjected to noise removal processing before time t is written as Iold, and image data at time t is written as It. When Iold and It are not distinguished, they are simply expressed as image data I. The image data I is, for example, a matrix corresponding to each value of a matrix-like pixel group. Therefore, the weights are also expressed by a matrix and are denoted W. Each element of the weight W corresponds to a region (x, y) in the image data I, and the weight w of that region ranges from, for example, 0.0 to 1.0.

ある領域において、重み(信頼度)wが高いほど、当該領域において、先行画像データと後続画像データとの間で画像のブレが少ない、すなわち、残像が少ないことを示し、重み(信頼度)が低いほど、当該領域において、先行画像データと後続画像データとの間でブレが多い、すなわち、残像が多いことを示す。 The higher the weight (reliability) w in a certain area, the less blurring of the image between the preceding image data and the subsequent image data in that area, that is, the less afterimage. The lower the value, the more blurring occurs between the preceding image data and the subsequent image data in the region, that is, the more afterimages there are.

時刻tの後続画像データに対する先行画像データIold内の領域の重みwは、下記式(1)により算出される。 The weight w of the area in the preceding image data Iold with respect to the succeeding image data at time t is calculated by the following equation (1).

w=f(It,Iold)・・・(1) w=f(It,Iold)...(1)

関数f(・)は、先行画像データIold内の領域の重みwを求める関数である。なお、領域が先行画像データIoldの全体であれば、重みwは1つの値となる。また、重み計算部221は、先行画像データIoldのチャンネル数に応じて複数の重みWを求めてもよい。先行画像データIoldの領域の重みwは、後続画像データItの類似度が大きいほど大きくするのがよい。領域の重みwの求め方の一例としては下記式(2)がある。 The function f(·) is a function for determining the weight w of the area in the preceding image data Iold. Note that if the area is the entire preceding image data Iold, the weight w will be one value. Further, the weight calculation unit 221 may calculate a plurality of weights W according to the number of channels of the preceding image data Iold. It is preferable that the weight w of the region of the preceding image data Iold be increased as the degree of similarity of the subsequent image data It is greater. An example of how to obtain the weight w of a region is the following equation (2).

Figure 2023174740000002
Figure 2023174740000002

関数fx,yは、領域(x,y)の重みwの算出を意味する。xは先行画像データIoldの領域の列方向における位置を示し、yは行方向の位置を示す。また,関数φx,yは領域(x,y)を中心とした近傍領域の部分画像データを取得する関数である。また,||・||はL2ノルムを意味する。また,σは、重みの算出結果を調整するパラメータである。σは上記式(2)の分子の値である画像の差に対する感度を調整するためパラメータであり、σの値を大きくすると画像の差が大きくても重みが大きく算出されることになる。 The function fx,y means calculation of the weight w of the region (x,y). x indicates the position of the area of the preceding image data Iold in the column direction, and y indicates the position in the row direction. Further, the function φx,y is a function that obtains partial image data of a neighboring area centered on the area (x, y). Also, ||·|| means L2 norm. Further, σ is a parameter that adjusts the weight calculation result. σ is a parameter for adjusting the sensitivity to the image difference, which is the value of the numerator of the above equation (2), and when the value of σ is increased, a larger weight is calculated even if the image difference is large.

重み調整部222は、第2メモリ224に保存されている最新の重みWoldに基づいて、重み計算部221によって計算された重みWを調整する。調整済みの重みWを重みW´とする。重み保存部223は、重み調整部222による調整前の重みWをWoldとして第2メモリ224に保存する(式(4)を参照)。第2メモリ224は、記憶デバイス102により構成される。 The weight adjustment unit 222 adjusts the weight W calculated by the weight calculation unit 221 based on the latest weight Wold stored in the second memory 224. Let the adjusted weight W be a weight W'. The weight storage unit 223 stores the weight W before adjustment by the weight adjustment unit 222 in the second memory 224 as Wold (see equation (4)). The second memory 224 is configured by the storage device 102.

調整済みの重みW´は、下記式(3)により算出される。 The adjusted weight W' is calculated by the following formula (3).

W´=g(W,Wold)・・・(3) W′=g(W,Wold)...(3)

関数g(・)は、重みWを調整する関数である。Woldは、下記式(4)のように、調整前の重みWにより更新される。ここでは直接重みWをWoldに更新しているが,重みWのサイズを縮小してWoldに更新してもよい。重みを過去重みWoldと称す。 The function g(·) is a function that adjusts the weight W. Wold is updated by the weight W before adjustment, as shown in equation (4) below. Here, the weight W is directly updated to Wold, but the size of the weight W may be reduced and updated to Wold. The weight is called a past weight Wold.

Wold=W・・・(4) Wold=W...(4)

また、式(3)の右辺は、たとえば、下記式(5)により表現される。 Further, the right side of equation (3) is expressed, for example, by equation (5) below.

Figure 2023174740000003
Figure 2023174740000003

また、調整済みの重みW´に上限や下限を設けたり、一律の調整係数を掛けたりしてもよい。また、式(3)の右辺は、たとえば、下記式(6)により表現されてもよい。 Further, the adjusted weight W' may be set with an upper limit or a lower limit, or may be multiplied by a uniform adjustment coefficient. Further, the right side of equation (3) may be expressed by, for example, equation (6) below.

g(W,Wold)=min(W,Wold)・・・(6) g(W,Wold)=min(W,Wold)...(6)

上記式(6)は、重みWと過去重みWoldを要素ごとに比較して、値が小さい方の重みwを採用する。このようにして、調整済みの重みW´の領域の重みw´は、調整前の重みwに比べて小さくなる。 In the above equation (6), the weight W and the past weight Wold are compared for each element, and the weight w having the smaller value is adopted. In this way, the weight w' of the area of the adjusted weight W' becomes smaller than the weight w before adjustment.

ここで、上述した第1画像データ~第3画像データを例に挙げて、重みWの調整について説明する。なお、第1画像データを先行画像データとし、第1画像データからノイズ除去された第1ノイズ除去画像データを過去画像Ioldとした場合の重みWを重みW1とする。また、第2画像データを先行画像データとし、第2画像データからノイズ除去された第2ノイズ除去画像データを過去画像Ioldとした場合の重みWを重みW2とする。また、第3画像データを先行画像データとし、第3画像データからノイズ除去された第3ノイズ除去画像データを過去画像Ioldとした場合の重みWを重みW3とする。 Here, adjustment of the weight W will be explained using the above-mentioned first image data to third image data as examples. Note that the weight W in the case where the first image data is the preceding image data and the first noise-removed image data obtained by removing noise from the first image data is the past image Iold is defined as the weight W1. Further, the weight W when the second image data is the preceding image data and the second noise-removed image data obtained by removing noise from the second image data is the past image Iold is set as the weight W2. Further, the weight W when the third image data is the preceding image data and the third noise-removed image data obtained by removing noise from the third image data is the past image Iold is set as the weight W3.

なお、第1画像データが動画像データの先頭画像データである場合、第1画像データに先行する画像データは存在しないため、重みW1は重み調整部222によって調整されずに、重み保存部223により第2メモリ224に過去重みWoldとして保存される。第1画像データおよび第2画像データにより重みW2が計算された場合、重み調整部222は、第2メモリ224から過去重みWold(=重みW1)を読みだして、上記式(5)により重みW2と乗算して、調整済みの重みW2´を算出する。重み保存部223は、調整前の重みW2を過去重みWoldとして第2メモリ224に保存する。 Note that when the first image data is the first image data of the moving image data, there is no image data preceding the first image data, so the weight W1 is not adjusted by the weight adjustment unit 222 but is adjusted by the weight storage unit 223. It is stored in the second memory 224 as a past weight Wold. When the weight W2 is calculated based on the first image data and the second image data, the weight adjustment unit 222 reads the past weight Wold (=weight W1) from the second memory 224, and uses the above formula (5) to calculate the weight W2. The adjusted weight W2' is calculated by multiplying by The weight storage unit 223 stores the weight W2 before adjustment in the second memory 224 as a past weight Wold.

また、第2画像データおよび第3画像データにより重みW3が計算された場合、重み調整部222は、第2メモリ224から重みWold(=重みW2)を読みだして、上記式(5)により、重みW3と乗算して、調整済みの重みW3´を算出する。重み保存部223は、調整前の重みW3をWoldとして第2メモリ224に保存する。 Further, when the weight W3 is calculated based on the second image data and the third image data, the weight adjustment unit 222 reads the weight Wold (=weight W2) from the second memory 224, and uses the above equation (5) to calculate the weight W3. The adjusted weight W3' is calculated by multiplying by the weight W3. The weight storage unit 223 stores the weight W3 before adjustment in the second memory 224 as Wold.

除去部203は、調整済みの重みW´に基づいて、ノイズ除去対象の画像データのノイズを除去し、ノイズ除去画像データを出力する。具体的には、たとえば、除去部203は、調整済みの重みW´を用いた重み付け平均により、ノイズ除去対象の画像データのノイズを除去する。重み付け平均は、たとえば、下記式(7)により表現される。 The removal unit 203 removes noise from the image data to be noise removed based on the adjusted weight W', and outputs noise removed image data. Specifically, for example, the removal unit 203 removes noise from the image data to be noise removed by weighted averaging using the adjusted weight W′. The weighted average is expressed, for example, by the following equation (7).

Figure 2023174740000004
Figure 2023174740000004

上記式(7)において、Ioutは、ノイズ除去された画像データ(ノイズ除去画像データ)である。 In the above equation (7), Iout is the image data from which noise has been removed (noise removed image data).

画像保存部204は,除去部203から出力されたノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する。第1メモリ205は、記憶デバイス102により構成される。 The image storage unit 204 stores the noise-removed image data Iout output from the removal unit 203 in the first memory 205 as past image data Iold. The first memory 205 is configured by the storage device 102.

<再帰的ノイズ除去処理>
図3は、実施例1にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。図4は、調整済みの重みW´による再帰的ノイズ除去例を示す説明図である。図4の比較例として、図5を例示する。図5は、調整済みの重みW´を適用しない再帰的ノイズ除去例を示す説明図である。なお、図4および図5において図3のステップに該当する箇所には、図3のステップ番号を付す。なお、図5では調整済みの重みW´を適用しないため、ステップS304~S306は存在しない。また、図4および図5では、撮像装置100は、撮像方向を固定しており、被写体像が左から右に移動する動画像データを撮像する場合を例に挙げて説明する。
<Recursive noise removal process>
FIG. 3 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device 100 according to the first embodiment. FIG. 4 is an explanatory diagram showing an example of recursive noise removal using adjusted weights W'. As a comparative example of FIG. 4, FIG. 5 is illustrated. FIG. 5 is an explanatory diagram showing an example of recursive noise removal without applying the adjusted weight W'. Note that in FIGS. 4 and 5, the steps corresponding to the steps in FIG. 3 are given the step numbers in FIG. Note that in FIG. 5, since the adjusted weight W' is not applied, steps S304 to S306 do not exist. Furthermore, in FIGS. 4 and 5, an example will be described in which the imaging device 100 captures moving image data in which the imaging direction is fixed and the subject image moves from left to right.

まず、図4および図5の中央点線の左側について、図3を用いて説明する。撮像装置100は、取得部201により現在画像データを取得して読み込み(ステップS301)、過去画像データを第1メモリ205から読み込む(ステップS302)。ここで、現在画像データとは、時刻t-1の後続画像データI(t-1)であり、過去画像データとは、時刻(t-1)以前の時刻(t-2)の先行画像データからノイズ除去されたノイズ除去画像データ、すなわちIoldである。Ioldには、被写体像OB(t-2)が存在するものとする。 First, the left side of the center dotted line in FIGS. 4 and 5 will be described using FIG. 3. The imaging device 100 uses the acquisition unit 201 to acquire and read current image data (step S301), and reads past image data from the first memory 205 (step S302). Here, the current image data is the subsequent image data I(t-1) at time t-1, and the past image data is the preceding image data at time (t-2) before time (t-1). Iold is denoised image data from which noise has been removed from Iold. It is assumed that the object image OB(t-2) exists in Iold.

撮像装置100は、重み計算部221により、過去画像データIoldと現在画像データI(t-1)とを式(2)に与えて、重みW(t-1)を計算する(ステップS303)。過去画像データIoldと現在画像データI(t-1)とにおいて、同一領域の画像が類似するほど、重みは大きくなり、類似しなくなるほど、小さくなる。したがって、過去画像データIoldと現在画像データI(t-1)とにおいて、被写体像OB(t-2),OB(t-1)がいずれも存在しない領域は、ほぼ同じ画像となり、当該領域の重みw(t-1)は、たとえば、最大値の1.0となる。 The imaging device 100 uses the weight calculation unit 221 to calculate the weight W(t-1) by applying the past image data Iold and the current image data I(t-1) to equation (2) (step S303). In the past image data Iold and the current image data I(t-1), the more similar the images in the same area are, the larger the weight becomes, and the less similar they are, the smaller the weight becomes. Therefore, in the past image data Iold and the current image data I(t-1), the area where neither the subject images OB(t-2) and OB(t-1) are present becomes almost the same image, and the image of the area concerned is The weight w(t-1) is, for example, the maximum value of 1.0.

一方、過去画像データIoldと現在画像データI(t-1)とにおいて、被写体像OB(t-2),OB(t-1)のいずれか一方が存在する領域は、異なる画像となり、当該領域の重みw(t-1)は低くなる。ここでは、例として、当該領域の重みw(t-1)を0.0とする。なお、被写体像OB(t-2),OB(t-1)の境界部分の領域については、被写体像OB(t-2),OB(t-1)のいずれか一方が存在する領域よりも類似している。ここでは、例として、当該領域の重みw(t-1)を0.5とする。 On the other hand, in the past image data Iold and the current image data I(t-1), the area where either the subject image OB(t-2) or OB(t-1) exists is a different image, and the area The weight w(t-1) becomes low. Here, as an example, the weight w(t-1) of the area is set to 0.0. Note that the area at the boundary between the subject images OB(t-2) and OB(t-1) is larger than the area where either one of the subject images OB(t-2) or OB(t-1) exists. Similar. Here, as an example, the weight w(t-1) of the area is set to 0.5.

つぎに、撮像装置100は、第2メモリ224から過去重みWoldを読み込む(ステップS304)。この過去重みWoldを例として、全要素の値が「1.0」の行列とする。撮像装置100は、重み調整部222により、第2メモリ224からの過去重みWoldと、ステップS303で重み計算した重みW(t-1)とを式(3)に与えて、調整済みの重みW´を出力する(ステップS305)。 Next, the imaging device 100 reads the past weight Wold from the second memory 224 (step S304). Taking this past weight Wold as an example, it is assumed that it is a matrix in which all elements have values of "1.0". The imaging device 100 uses the weight adjustment unit 222 to apply the past weight Wold from the second memory 224 and the weight W(t-1) calculated in step S303 to equation (3), and calculates the adjusted weight W. ' is output (step S305).

調整済みの重みW´は、たとえば、式(5)に示したように、過去重みWoldと、重みW(t)との積により求められる。過去重みWoldは全要素の値が「1.0」の行列であるため、調整済みの重みW´は、重み計算した重みW(t-1)と同じである。 The adjusted weight W' is obtained by, for example, the product of the past weight Wold and the weight W(t), as shown in equation (5). Since the past weight Wold is a matrix in which all elements have values of "1.0", the adjusted weight W' is the same as the calculated weight W(t-1).

そして、撮像装置100は、第2メモリ224に調整前の重みW(t-1)を格納して、あらたな過去重みWoldとする(ステップS306)。 Then, the imaging device 100 stores the weight W(t-1) before adjustment in the second memory 224, and sets it as a new past weight Wold (step S306).

撮像装置100は、除去部203により、過去画像データIoldと現在画像データI(t-1)と調整済みの重みW´とを式(7)に与えて、現在画像データI(t-1)からノイズを除去し(ステップS307)、ノイズ除去画像データIout(t-1)を出力する(ステップS308)。出力されたノイズ除去画像データIout(t-1)は、表示デバイス110に表示される。ノイズ除去画像データIout(t-1)は、現在画像データI(t-1)と同じ位置に被写体像OB(t-1)が存在し、過去画像データIoldの被写体像OB(t-2)と同じ位置に残像A(t-2)が存在する。残像A(t-2)は、主に、被写体像OB(t-2)の輪郭が際立った画像データとなる。 The imaging device 100 uses the removal unit 203 to apply the past image data Iold, the current image data I(t-1), and the adjusted weight W' to equation (7), and then obtains the current image data I(t-1). Noise is removed from the image data (step S307), and noise-removed image data Iout(t-1) is output (step S308). The output noise-removed image data Iout(t-1) is displayed on the display device 110. In the noise-removed image data Iout(t-1), the subject image OB(t-1) exists in the same position as the current image data I(t-1), and the subject image OB(t-2) of the past image data Iold exists. An afterimage A(t-2) exists at the same position as . The afterimage A(t-2) is mainly image data in which the outline of the object image OB(t-2) is prominent.

また、撮像装置100は、画像保存部204により、ノイズ除去画像データIout(t-1)を第1メモリ205に出力し、過去画像データIoldを更新する(ステップS309)。このあと、撮像装置100は、たとえば、ユーザの動作撮影の終了操作入力により、画像処理が終了するか否かを判断する(ステップS310)。終了しない場合(ステップS310:No)、撮像装置100は、取得部201におけるバッファメモリの読み込み位置を更新し(ステップS311)、ステップS301に戻る。 Furthermore, the image capturing device 100 outputs the noise-removed image data Iout(t-1) to the first memory 205 by the image storage unit 204, and updates the past image data Iold (step S309). After that, the imaging apparatus 100 determines whether or not the image processing is to be ended, for example, based on the user's operation input to end the motion imaging (step S310). If the process does not end (step S310: No), the imaging device 100 updates the reading position of the buffer memory in the acquisition unit 201 (step S311), and returns to step S301.

つぎに、図4および図5の中央点線の右側について、図3を用いて説明する。撮像装置100は、取得部201により時刻tの現在画像データI(t)を取得して読み込み(ステップS301)、過去画像データIoldを第1メモリ205から読み込む(ステップS302)。ここで、過去画像データIoldは、ステップS309で得られたノイズ除去画像データIout(t-1)である。 Next, the right side of the center dotted line in FIGS. 4 and 5 will be described using FIG. 3. The imaging device 100 uses the acquisition unit 201 to acquire and read current image data I(t) at time t (step S301), and reads past image data Iold from the first memory 205 (step S302). Here, the past image data Iold is the noise-removed image data Iout(t-1) obtained in step S309.

撮像装置100は、重み計算部221により、過去画像データIoldと現在画像データI(t)とを式(2)に与えて、重みW(t)を計算する(ステップS303)。過去画像データIoldと現在画像データI(t)とにおいて、同一領域の画像が類似するほど、重みは大きくなり、類似しなくなるほど、小さくなる。したがって、過去画像データIoldと現在画像データI(t)とにおいて、被写体像OB(t-1),OB(t)がいずれも存在しない領域は、ほぼ同じ画像となり、当該領域の重みw(t)は、たとえば、最大値の1.0となる。 The imaging device 100 uses the weight calculation unit 221 to calculate the weight W(t) by applying the past image data Iold and the current image data I(t) to equation (2) (step S303). In the past image data Iold and the current image data I(t), the more similar the images of the same area are, the larger the weight becomes, and the less similar the images are, the smaller the weight becomes. Therefore, in past image data Iold and current image data I(t), an area where neither object image OB(t-1) or OB(t) exists becomes almost the same image, and the weight of the area w(t ) has a maximum value of 1.0, for example.

一方、過去画像データIoldと現在画像データI(t)とにおいて、被写体像OB(t-1),OB(t)のいずれか一方が存在する領域は、異なる画像となり、当該領域の重みw(t)は低くなる。ここでは、例として、当該領域の重みw(t)を0.0とする。なお、被写体像OB(t-1),OB(t)の境界部分の領域については、被写体像OB(t-1),OB(t)のいずれか一方が存在する領域よりも類似している。ここでは、例として、当該領域の重みw(t)を0.5とする。また、過去画像データIold(ノイズ除去画像データIout(t-1))において、残像A(t-2)が存在する領域の重みを0.75とする。 On the other hand, in the past image data Iold and the current image data I(t), an area where either the subject image OB(t-1) or OB(t) exists becomes a different image, and the weight of the area w( t) becomes lower. Here, as an example, the weight w(t) of the region is set to 0.0. Note that the area at the boundary between the subject images OB(t-1) and OB(t) is more similar than the area where either one of the subject images OB(t-1) and OB(t) exists. . Here, as an example, the weight w(t) of the region is set to 0.5. Furthermore, in the past image data Iold (noise removed image data Iout(t-1)), the weight of the area where the afterimage A(t-2) exists is set to 0.75.

つぎに、撮像装置100は、第2メモリ224から過去重みWoldを読み込む(ステップS304)。この過去重みWoldは、ステップS306で先に算出された重みW(t-1)である。撮像装置100は、重み調整部222により、第2メモリ224からの過去重みWoldと、ステップS303で重み計算した重みW(t)とを式(3)に与えて、調整済みの重みW´を出力する(ステップS305)。 Next, the imaging device 100 reads the past weight Wold from the second memory 224 (step S304). This past weight Wold is the weight W(t-1) previously calculated in step S306. The imaging device 100 uses the weight adjustment unit 222 to apply the past weight Wold from the second memory 224 and the weight W(t) calculated in step S303 to equation (3) to obtain the adjusted weight W'. Output (step S305).

調整済みの重みW´は、たとえば、式(5)に示したように、過去重みWoldと、重みW(t)との積により求められる。この場合の過去重みWoldは、ステップS306で先に算出された重みW(t-1)であるため、残像A(t-2)が存在する領域内部の重みw(t)は0になり、輪郭の重みw(t)は、0.375(=0.75×0.5)となる。また、残像A(t-1)が存在する領域内部の重みw(t)は0(=0.0×0.0)のままであるが、輪郭の重みw(t)は0.25(=0.5×0.5)である。 The adjusted weight W' is obtained by, for example, the product of the past weight Wold and the weight W(t), as shown in equation (5). In this case, the past weight Wold is the weight W(t-1) calculated earlier in step S306, so the weight w(t) inside the area where the afterimage A(t-2) exists is 0, The contour weight w(t) is 0.375 (=0.75×0.5). Also, the weight w(t) inside the area where the afterimage A(t-1) exists remains 0 (=0.0×0.0), but the weight w(t) of the contour is 0.25( =0.5×0.5).

そして、撮像装置100は、第2メモリ224に調整前の重みW(t)を格納して、あらたな過去重みWoldとする(ステップS306)。 Then, the imaging apparatus 100 stores the weight W(t) before adjustment in the second memory 224, and sets it as a new past weight Wold (step S306).

撮像装置100は、除去部203により、過去画像データIoldと現在画像データI(t)と調整済みの重みW´とを式(7)に与えて、現在画像データI(t)からノイズを除去し(ステップS307)、ノイズ除去画像データIout(t)を出力する(ステップS308)。出力されたノイズ除去画像データIout(t)は、表示デバイス110に表示される。ノイズ除去画像データIout(t)は、現在画像データI(t)と同じ位置に被写体像OB(t)が存在し、過去画像データIoldの被写体像OB(t-1)と同じ位置に残像A(t-1)が存在し、さらに、被写体像OB(t-2)と同じ位置に残像A(t-2)が存在する。 The imaging device 100 uses the removal unit 203 to apply the past image data Iold, the current image data I(t), and the adjusted weight W' to equation (7), and removes noise from the current image data I(t). (step S307), and outputs noise-removed image data Iout(t) (step S308). The output noise-removed image data Iout(t) is displayed on the display device 110. In the noise-removed image data Iout(t), a subject image OB(t) exists at the same position as the current image data I(t), and an afterimage A exists at the same position as the subject image OB(t-1) of the past image data Iold. (t-1) exists, and furthermore, an afterimage A(t-2) exists at the same position as the object image OB(t-2).

また、撮像装置100は、画像保存部204により、ノイズ除去画像データIout(t)を第1メモリ205に出力し、過去画像データIoldを更新する(ステップS309)。このあと、撮像装置100は、たとえば、ユーザの動作撮影の終了操作入力により、画像処理が終了するか否かを判断する(ステップS310)。終了する場合(ステップS310:Yes)、撮像装置100は、画像処理を終了する。 Further, the image capturing device 100 outputs the noise-removed image data Iout(t) to the first memory 205 by the image storage unit 204, and updates the past image data Iold (step S309). After that, the imaging apparatus 100 determines whether or not the image processing is to be ended, for example, based on the user's operation input to end the motion imaging (step S310). If it ends (step S310: Yes), the imaging device 100 ends the image processing.

このように、過去画像データIoldと現在画像データI(t-1),I(t)との間で変換のない領域では過去画像データIoldを参照するための重みW(t-1),W(t)が大きくなるため、結果的に使用メモリを削減しつつノイズ除去率を増加させることができる。 In this way, in the area where there is no conversion between the past image data Iold and the current image data I(t-1), I(t), the weights W(t-1), W for referring to the past image data Iold are Since (t) becomes larger, it is possible to increase the noise removal rate while reducing the amount of memory used.

ただし、図5の例の場合、過去画像データIoldと現在画像データI(t-1),I(t)との間で重みの算出がうまくいっていない領域、すなわち失敗している領域がある場合、その結果も保持される。したがって、長期にわたり失敗が残ってしまう。これが残像として画質を著しく劣化させてしまう原因となる。 However, in the case of the example shown in FIG. 5, if there is an area where the weight calculation is not successful between the past image data Iold and the current image data I(t-1), I(t), that is, there is an area where the calculation has failed. , the results are also retained. Therefore, the failure remains for a long time. This causes a significant deterioration in image quality as an afterimage.

たとえば、図5の中の太矢印5A1で示した被写体像OB(t-2)の輪郭の残像A(t-2)のように、次のフレーム(画像データI(t))でのステップS303の重み算出結果が太矢印5a1のように大きくなっており(w(t-1)=0.75)、結果として太矢印5A2のように失敗した輪郭の残像A(t-2)が残ってしまっている。 For example, as in the afterimage A(t-2) of the outline of the object image OB(t-2) indicated by the thick arrow 5A1 in FIG. 5, step S303 in the next frame (image data I(t)) The weight calculation result becomes large as shown by the thick arrow 5a1 (w(t-1)=0.75), and as a result, an afterimage A(t-2) of the failed contour remains as shown by the thick arrow 5A2. It's stored away.

一方、実施例1の撮像装置100は、過去画像データIoldに、その時算出した重みが付随した状態で保持され、これを再利用する。これにより、残像が発生しているような信頼度の低い領域で過去画像データIoldを参照するための重みW(t-1),W(t)が小さくなりやすくなるため、結果的に残像発生を抑制することができる。 On the other hand, the imaging apparatus 100 of the first embodiment retains the past image data Iold with the weight calculated at that time attached, and reuses the past image data Iold. As a result, the weights W(t-1) and W(t) for referring to past image data Iold tend to become smaller in areas with low reliability where afterimages occur, resulting in afterimages. can be suppressed.

たとえば、図4中の太矢印4B1で示した被写体像OB(t-2)の輪郭の重みw(t-1)が太矢印4b1のように大きく出ている一方(0.75)、調整を掛けた太矢印4b2では重みw(t)が小さくなっており(0.375=0.5×0.75)、結果として太矢印5B2のように失敗した輪郭の残像A(t-2)の残り具合が低減できている。 For example, while the contour weight w(t-1) of the object image OB(t-2) indicated by the thick arrow 4B1 in FIG. In the multiplied thick arrow 4b2, the weight w(t) is small (0.375=0.5×0.75), and as a result, the afterimage A(t-2) of the failed contour as shown in the thick arrow 5B2. The remaining condition has been reduced.

このように、図5の場合、ノイズ除去精度が図4に比べて低いため、図4と同等のノイズ除去精度を出すためには、過去の画像データの枚数を図4の場合よりも第1メモリ205に多く保持しておく必要があり、メモリ使用量が増加する。これに対し、図4では、直近の過去画像データを第1メモリ205に保持しておけばよいため、ノイズ除去精度の向上と省メモリ化とを両立することができる。 In this way, in the case of FIG. 5, the noise removal accuracy is lower than that in FIG. 4, so in order to achieve the same noise removal accuracy as in FIG. It is necessary to hold a large amount in the memory 205, which increases memory usage. On the other hand, in FIG. 4, it is sufficient to hold the most recent past image data in the first memory 205, so it is possible to both improve noise removal accuracy and save memory.

実施例2は、画像データに含まれる空間情報を利用することで残像の発生を抑制する例である。なお、実施例2では、実施例1との相違点を中心に説明し、実施例1と共通部分については同一符号を用いて説明を省略する。 Embodiment 2 is an example of suppressing the occurrence of afterimages by using spatial information included in image data. In the second embodiment, differences from the first embodiment will be mainly explained, and the same reference numerals will be used for the parts common to the first embodiment, and the explanation will be omitted.

<撮像装置100の機能的構成例>
図6は、実施例2にかかる撮像装置100の機能的構成例を示すブロック図である。実施例2の算出部602は、空間情報抽出部621と、重み計算部622と、を有する。空間情報抽出部621は、抽出対象となる画像データから空間情報を抽出する。抽出対象となる画像データは、過去画像データIoldまたは現在画像データItの少なくとも一方である。両方の画像データIold,Itを用いる場合、空間情報抽出部621は、各々の画像データIについて空間情報を抽出し、2つの空間情報の平均を算出したり、最大値を選択したり、αブレンドを算出してもよい。
<Functional configuration example of imaging device 100>
FIG. 6 is a block diagram showing an example of the functional configuration of the imaging device 100 according to the second embodiment. The calculation unit 602 of the second embodiment includes a spatial information extraction unit 621 and a weight calculation unit 622. The spatial information extraction unit 621 extracts spatial information from image data to be extracted. The image data to be extracted is at least one of the past image data Iold and the current image data It. When using both image data Iold and It, the spatial information extraction unit 621 extracts spatial information for each image data I, calculates the average of the two pieces of spatial information, selects the maximum value, or performs α blending. may be calculated.

空間情報とは、抽出対象となる画像データに含まれる空間構造の特徴を示す情報であり、具体的には、たとえば、空間周波数成分がある。空間周波数成分の場合、たとえば、空間情報抽出部621は、下記式(8)~(13)のように、2種類のサイズのローパスフィルタを用いて低周波成分Slowと高周波成分Shighを抽出することができる。 Spatial information is information indicating characteristics of a spatial structure included in image data to be extracted, and specifically includes, for example, a spatial frequency component. In the case of spatial frequency components, for example, the spatial information extraction unit 621 extracts a low frequency component Slow and a high frequency component High using low-pass filters of two different sizes, as shown in equations (8) to (13) below. I can do it.

Figure 2023174740000005
Figure 2023174740000005

式(8),(9)のIは、抽出対象となる画像データである。また、式(11)の関数abs(・)は、領域(x,y)ごとの絶対値を算出する関数である。式(13)は、式(8),(9)に代入される。式(8)に代入される場合、式(13)は、Hσ1(x,y)となり、σはσ1となる。同様に、式(9)に代入される場合、式(13)は、Hσ2(x,y)となり、σはσ2となる。 I in equations (8) and (9) is image data to be extracted. Furthermore, the function abs(·) in equation (11) is a function that calculates the absolute value for each region (x, y). Equation (13) is substituted into equations (8) and (9). When substituted into equation (8), equation (13) becomes Hσ1(x,y), and σ becomes σ1. Similarly, when substituted into equation (9), equation (13) becomes Hσ2(x,y) and σ becomes σ2.

なお、抽出対象となる画像データIについては、空間情報を抽出しやすくするために事前に画像データIに変換を掛けてもよい。さらに、空間情報抽出部621は、低周波成分Slowと高周波成分Shighの2成分だけでなく複数の帯域の周波数成分を算出してもよい。 Note that the image data I to be extracted may be converted in advance to make it easier to extract spatial information. Furthermore, the spatial information extraction unit 621 may calculate not only the two components of the low frequency component Slow and the high frequency component High, but also frequency components of a plurality of bands.

重み計算部622は、現在画像データと、過去画像データと、空間情報抽出部621によって抽出された空間情報と、に基づいて、過去画像データの重みWを計算する。残像が目立ちやすい領域は明るい領域であったり、エッジ付近(過去画像データにおける被写体像の輪郭)のようにであったりすることが多い。このため、そのような領域の重みを小さくするのがよい。 The weight calculation unit 622 calculates the weight W of the past image data based on the current image data, the past image data, and the spatial information extracted by the spatial information extraction unit 621. Areas where afterimages are likely to be noticeable are often bright areas or near edges (contours of subject images in past image data). Therefore, it is better to reduce the weight of such areas.

そこで、まず明るい領域を判断するため、重み計算部622は、低周波成分Slowを用いて下記式(14),(15)のような処理を実行する。 Therefore, in order to first determine a bright area, the weight calculation unit 622 executes processing such as the following equations (14) and (15) using the low frequency component Slow.

Figure 2023174740000006
Figure 2023174740000006

式(14)のSlow,It,Slow,Ioldは、それぞれ現在画像データItと過去画像データIoldの低周波成分Slowを意味する。式(14)のmax(・)は、領域(x,y)ごとに最大値を算出する関数である。式(15)のS´lowは、現在画像データItと過去画像データIoldの低周波成分Slowの最大値となるが、平均値でもよい。 Slow, It, Slow, and Iold in Equation (14) mean the low frequency component Slow of the current image data It and past image data Iold, respectively. max(·) in equation (14) is a function that calculates the maximum value for each region (x, y). S′low in equation (15) is the maximum value of the low frequency component Slow of the current image data It and past image data Iold, but may be an average value.

また、σ(・)は領域(x,y)ごとに値を算出するシグモイド関数で、入力値が大きいほど1に近づく。Tlowはしきい値を表すパラメータである。これにより、式(15)の低周波成分Slowによる調整値Klowは、低周波成分Slowが大きいほど、すなわち、明るい領域ほど小さい値になる。 Further, σ(·) is a sigmoid function that calculates a value for each region (x, y), and the larger the input value, the closer it approaches 1. Tlow is a parameter representing a threshold value. As a result, the adjustment value Klow based on the low frequency component Slow in equation (15) becomes a smaller value as the low frequency component Slow becomes larger, that is, the brighter the area.

次にエッジ付近を判断するため、重み計算部622は、高周波成分Shighを用いて下記式(16),(17)のような処理を実行する。 Next, in order to determine the vicinity of the edge, the weight calculation unit 622 executes processing such as the following equations (16) and (17) using the high frequency component High.

Figure 2023174740000007
Figure 2023174740000007

式(16)のShigh,It,Shigh,Ioldは、それぞれ現在画像データItと過去画像データIoldの高周波成分Shighを意味する。式(16)のmax(・)は、領域(x,y)ごとに最大値を算出する関数である。式(17)のS´highは、現在画像データItと過去画像データIoldの高周波成分Shighの最大値となるが、平均値でもよい。 High, It, High, and Iold in Equation (16) mean the high frequency component High of the current image data It and past image data Iold, respectively. max(·) in equation (16) is a function that calculates the maximum value for each region (x, y). S'high in equation (17) is the maximum value of the high frequency components High of the current image data It and past image data Iold, but may be an average value.

また、σ(・)は領域(x,y)ごとに値を算出するシグモイド関数で、入力値が大きいほど1に近づく。Thighはしきい値を表すパラメータである。これにより、式(17)の高周波成分Shighによる調整値Khighは、高周波成分Shighが大きいほど、すなわち、エッジ付近であるほど小さい値になる。 Further, σ(·) is a sigmoid function that calculates a value for each region (x, y), and the larger the input value, the closer it approaches 1. Thigh is a parameter representing a threshold value. As a result, the adjustment value Khigh based on the high frequency component High in equation (17) becomes a smaller value as the high frequency component High becomes larger, that is, closer to the edge.

求められた低周波成分Slowによる調整値Klowと高周波成分Shighによる調整値Khighとを用いて,最終的に更新された重みWnewは、下記式(18)で求められる。除去部203は、更新済みの重みWnewを用いて、実施例1と同様な処理で現在画像データItからノイズを除去し、ノイズ除去画像データとして出力する。また、画像保存部204は、ノイズ除去画像データを過去画像データIoldとして第1メモリ205に保存する。 Using the obtained adjustment value Klow based on the low frequency component Slow and the adjustment value Khigh based on the high frequency component Shigh, the finally updated weight Wnew is obtained by the following equation (18). The removal unit 203 removes noise from the current image data It using the updated weight Wnew in the same process as in the first embodiment, and outputs it as noise-removed image data. The image storage unit 204 also stores the noise-removed image data in the first memory 205 as past image data Iold.

Figure 2023174740000008
Figure 2023174740000008

式(18)において、右辺のWは、過去画像データIoldを参照するための重みである。式(18)で重みWを重みWnewに更新することにより、残像が目立ちやすい領域である明るい領域やエッジ付近の重みが小さくなるため、残像発生を抑制することができる。ここでは現在画像データItと過去画像データIoldの低周波成分Slowおよび高周波成分Shighを用いたが、低周波成分Slowおよび高周波成分Shighのいずれか一方だけを用いてもよい。 In equation (18), W on the right side is a weight for referring to past image data Iold. By updating the weight W to the weight Wnew in equation (18), the weight in bright areas and near edges, where afterimages are likely to be noticeable, becomes smaller, so it is possible to suppress the occurrence of afterimages. Although the low frequency component Slow and the high frequency component High of the current image data It and the past image data Iold are used here, only one of the low frequency component Slow and the high frequency component High may be used.

<再帰的ノイズ除去処理>
図7は、実施例2にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例2では、図3と比較した場合、ステップS303~S306が存在せず、ステップS302のあと、撮像装置100は、空間情報抽出部621により、空間情報抽出処理を実行する(ステップS701)。つぎに、撮像装置100は、重み計算部622により、調整重みWnewを計算する(ステップS702)。このあと、撮像装置100は、除去部203により、調整重みWnewを用いて、現在画像データItからノイズを除去し(ステップS307)、ノイズ除去画像データIoutを表示デバイス110に出力する(ステップS308)。
<Recursive noise removal process>
FIG. 7 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device 100 according to the second embodiment. In the second embodiment, when compared with FIG. 3, steps S303 to S306 do not exist, and after step S302, the imaging device 100 executes spatial information extraction processing by the spatial information extraction unit 621 (step S701). Next, the imaging device 100 uses the weight calculation unit 622 to calculate the adjustment weight Wnew (step S702). After this, the imaging device 100 uses the adjustment weight Wnew to remove noise from the current image data It by the removal unit 203 (Step S307), and outputs the noise-removed image data Iout to the display device 110 (Step S308). .

撮像装置100は、画像保存部204により、ノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する(ステップS309)。このような処理を撮像が終了するまで、再帰的に実行することで、残像が目立ちやすい領域での重みが低く調整され、結果的に残像発生を抑制することができる。 The image capturing device 100 uses the image storage unit 204 to store the noise-removed image data Iout in the first memory 205 as past image data Iold (step S309). By performing such processing recursively until the imaging is completed, the weight in areas where afterimages are likely to be noticeable is adjusted to be low, and as a result, the occurrence of afterimages can be suppressed.

実施例3は、実施例1において、実施例2の空間情報抽出部621を適用した例である。実施例3では、実施例1,2との相違点を中心に説明し、実施例1,2と共通部分については同一符号を用いて説明を省略する。 Embodiment 3 is an example in which the spatial information extraction unit 621 of Embodiment 2 is applied to Embodiment 1. In the third embodiment, the differences from the first and second embodiments will be mainly explained, and the same reference numerals will be used for the parts common to the first and second embodiments, and the explanation will be omitted.

<撮像装置100の機能的構成例>
図8は、実施例3にかかる撮像装置100の機能的構成例を示すブロック図である。実施例3の場合、算出部802は、空間情報抽出部621と、重み計算部622と、重み調整部222と、重み保存部223と、第2メモリ224と、を有する。重み調整部222は、第2メモリ224に保存されている最新の重みWoldに基づいて、重み計算部622で更新された重みWnewを調整する。
<Functional configuration example of imaging device 100>
FIG. 8 is a block diagram showing an example of the functional configuration of the imaging device 100 according to the third embodiment. In the case of the third embodiment, the calculation unit 802 includes a spatial information extraction unit 621, a weight calculation unit 622, a weight adjustment unit 222, a weight storage unit 223, and a second memory 224. The weight adjustment unit 222 adjusts the weight Wnew updated by the weight calculation unit 622 based on the latest weight Wold stored in the second memory 224.

調整された更新済みの重みWnewを調整済み重みW´とする。重み保存部223は、重み調整部222による調整前の重みWnewを過去重みWoldとして第2メモリ224に保存する。具体的には、たとえば、重み調整部222は、重み調整部222で用いる式(3)~(7)のWをWnewに置き換えて重みWnewを調整することになる。 Let the adjusted updated weight Wnew be an adjusted weight W'. The weight storage unit 223 stores the weight Wnew before adjustment by the weight adjustment unit 222 in the second memory 224 as a past weight Wold. Specifically, for example, the weight adjustment unit 222 adjusts the weight Wnew by replacing W in equations (3) to (7) used by the weight adjustment unit 222 with Wnew.

<再帰的ノイズ除去処理>
図9は、実施例3にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例3では、図3と比較した場合、ステップS303が存在せず、ステップS302のあと、撮像装置100は、空間情報抽出部621により、空間情報抽出処理を実行する(ステップS701)。つぎに、撮像装置100は、重み計算部622により、重みWnewを計算する(ステップS702)。
<Recursive noise removal process>
FIG. 9 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device 100 according to the third embodiment. In Example 3, when compared with FIG. 3, step S303 does not exist, and after step S302, the imaging device 100 executes spatial information extraction processing by the spatial information extraction unit 621 (step S701). Next, the imaging device 100 uses the weight calculation unit 622 to calculate the weight Wnew (step S702).

撮像装置100は、過去重みWoldを第2メモリ224から読み出し(ステップS304)、重み調整部222により、過去重みWoldで重みWnewを調整し、調整済み重みW´を除去部203に出力するとともに、調整前の重みWnewを重み保存部223に出力する(ステップS305)。そして、重み保存部223は、調整前の重みWnewを第2メモリ224に保存して、過去重みWoldを更新する(ステップS306)。 The imaging device 100 reads the past weight Wold from the second memory 224 (step S304), uses the weight adjustment unit 222 to adjust the weight Wnew with the past weight Wold, and outputs the adjusted weight W′ to the removal unit 203. The weight Wnew before adjustment is output to the weight storage unit 223 (step S305). Then, the weight storage unit 223 stores the weight Wnew before adjustment in the second memory 224, and updates the past weight Wold (step S306).

このあと、撮像装置100は、除去部203により、調整済み重みW´を用いて、現在画像データItからノイズを除去し(ステップS307)、ノイズ除去画像データIoutを表示デバイス110に出力する(ステップS308)。撮像装置100は、画像保存部204により、ノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する(ステップS309)。このような処理を撮像が終了するまで、再帰的に実行することで、残像が目立ちやすい領域での重みが低く調整され、結果的に残像発生を抑制することができる。 After that, the imaging device 100 uses the adjusted weight W′ to remove noise from the current image data It (step S307), and outputs the noise-removed image data Iout to the display device 110 (step S307). S308). The image capturing device 100 uses the image storage unit 204 to store the noise-removed image data Iout in the first memory 205 as past image data Iold (step S309). By performing such processing recursively until the imaging is completed, the weight in areas where afterimages are likely to be noticeable is adjusted to be low, and as a result, the occurrence of afterimages can be suppressed.

このように、空間情報を抽出して、空間情報を用いて重みを計算してから重みを調整することにより、重み調整前後において残像を抑制することができ、残像発生抑制の効率化を図ることができる。 In this way, by extracting spatial information, calculating weights using the spatial information, and then adjusting the weights, it is possible to suppress afterimages before and after adjusting the weights, and to improve the efficiency of suppressing the occurrence of afterimages. I can do it.

実施例4は、除去部203において重みを用いた現在画像データからのノイズ除去に先立って、現在画像データに対し、残像低減処理を実行する例である。除去部203は、残像低減処理後の現在画像データから重みを用いてノイズ除去を実行することになる。実施例4の撮像装置100は、ノイズ除去前に現在画像データの残像を低減させることで、残像発生の抑制を図る。実施例4では、実施例1~3との相違点を中心に説明し、実施例1~3と共通部分については同一符号を用いて説明を省略する。 The fourth embodiment is an example in which the removal unit 203 performs afterimage reduction processing on the current image data before removing noise from the current image data using weights. The removal unit 203 performs noise removal using weights from the current image data after the afterimage reduction process. The imaging device 100 of the fourth embodiment aims to suppress the occurrence of afterimages by reducing the afterimages of the current image data before noise removal. In the fourth embodiment, the explanation will focus on the differences from the first to third embodiments, and the same reference numerals will be used for the parts common to the first to third embodiments, and the explanation will be omitted.

<機能的構成例>
図10は、実施例4にかかる撮像装置100の機能的構成例を示すブロック図である。実施例4の場合、除去部203は、算出部202から重みを取得する。算出部202からの重みは、実施例1,3の場合は調整済みの重みW´であり、実施例2の場合は、更新済みの重みWnewである。また、算出部202が図5に示した構成である場合、算出部202からの重みは、重み計算部221により、過去画像データIoldと現在画像データIとを上記式(2)に与えて計算された重みWである。実施例4では、特に区別しない限り、これらの重みを総称して、単に、重みWと表記する。
<Functional configuration example>
FIG. 10 is a block diagram showing an example of the functional configuration of the imaging device 100 according to the fourth embodiment. In the case of the fourth embodiment, the removal unit 203 acquires the weights from the calculation unit 202. The weight from the calculation unit 202 is the adjusted weight W' in the first and third embodiments, and the updated weight Wnew in the second embodiment. Further, when the calculation unit 202 has the configuration shown in FIG. 5, the weight from the calculation unit 202 is calculated by the weight calculation unit 221 by applying the past image data Iold and the current image data I to the above equation (2). is the weight W. In the fourth embodiment, these weights are collectively referred to simply as weight W unless otherwise specified.

除去部203は、残像低減処理部1001と、ノイズ除去処理部1002と、を有する。残像低減処理部1001は、現在画像データの残像を低減する処理を実行する。具体的には、たとえば、残像低減処理部1001は、現在画像データにローパスフィルタを施すことにより、残像となる動く被写体像の輪郭をぼかす。これにより、動く被写体像の輪郭を目立ちにくくする。また、残像低減処理部1001は、時間方向に連続する2枚の画像データI(t-1),I(t)について、動く被写体像の間を補間することにより、残像となる動く被写体像の輪郭をぼかす(補間処理)。 The removal unit 203 includes an afterimage reduction processing unit 1001 and a noise removal processing unit 1002. The afterimage reduction processing unit 1001 executes processing to reduce afterimages of current image data. Specifically, for example, the afterimage reduction processing unit 1001 blurs the outline of a moving subject image that becomes an afterimage by applying a low-pass filter to the current image data. This makes the outline of the moving subject image less noticeable. In addition, the afterimage reduction processing unit 1001 performs interpolation between the moving subject images for two pieces of image data I(t-1) and I(t) that are continuous in the time direction, thereby eliminating the moving subject image that becomes the afterimage. Blur the outline (interpolation process).

ノイズ除去処理部1002は、残像低減処理部1001によって残像低減処理が施された画像データについて、算出部202からの重みWに基づいて、ノイズ除去対象の画像データのノイズを除去し、ノイズ除去画像データを出力する。具体的には、たとえば、除去部203は、算出部202からの重みWを上記式(7)のW´に代入することにより、重み付け平均でノイズ除去対象の画像データのノイズを除去する。ノイズ除去対象の画像データとは、ローパスフィルタが施された画像データ、または、補間処理により生成された画像データである。 The noise removal processing unit 1002 removes noise from the image data to be noise removed, based on the weight W from the calculation unit 202, on the image data that has been subjected to afterimage reduction processing by the afterimage reduction processing unit 1001, and generates a noise removed image. Output data. Specifically, for example, the removal unit 203 removes noise from the image data to be noise-removed using a weighted average by substituting the weight W from the calculation unit 202 into W′ in the above equation (7). The image data to be noise removed is image data that has been subjected to a low-pass filter, or image data that has been generated by interpolation processing.

<補間処理例>
図11は、実施例4にかかる残像低減処理部1001による補間処理例を示す説明図である。図11において、矩形は、時間方向に連続する画像データ群、すなわち、動画像データである。(A)は、取得部201から残像低減処理部1001に入力された残像低減処理が施されていない未加工状態の画像データIa(t-3),Ia(t-2),Ia(t-1),Ia(t)を示す。画像データIa(t-3),Ia(t-2),Ia(t-1),Ia(t)において、被写体像OBa(t-3),OBa(t-2),OBa(t-1),OBa(t)が左から右に移動しているものとする。
<Interpolation processing example>
FIG. 11 is an explanatory diagram showing an example of interpolation processing by the afterimage reduction processing unit 1001 according to the fourth embodiment. In FIG. 11, a rectangle is a group of image data that is continuous in the time direction, that is, moving image data. (A) shows unprocessed image data Ia (t-3), Ia (t-2), Ia (t- 1), Ia(t) is shown. In image data Ia(t-3), Ia(t-2), Ia(t-1), Ia(t), object images OBa(t-3), OBa(t-2), OBa(t-1 ), OBa(t) are assumed to be moving from left to right.

(B)は、画像データの合成を示す。残像低減処理部1001は、時間方向に連続する2枚の画像データを合成して、動きベクトルを検出する。具体的には、たとえば、残像低減処理部1001は、画像データIa(t-3),Ia(t-2)を合成して合成画像データIb(t-2)を生成し、被写体像OBa(t-3),OBa(t-2)間の動きベクトルmv(t-2)を検出する。 (B) shows the composition of image data. The afterimage reduction processing unit 1001 combines two temporally consecutive pieces of image data and detects a motion vector. Specifically, for example, the afterimage reduction processing unit 1001 synthesizes image data Ia(t-3) and Ia(t-2) to generate composite image data Ib(t-2), and generates the object image OBa( A motion vector mv(t-2) between OBa(t-3) and OBa(t-2) is detected.

同様に、残像低減処理部1001は、画像データIa(t-2),Ia(t-1)を合成して合成画像データIb(t-1)を生成し、被写体像OBa(t-2),OBa(t-1)間の動きベクトルmv(t-1)を検出する。残像低減処理部1001は、画像データIa(t-1),Ia(t)を合成して合成画像データIb(t)を生成し、被写体像OBa(t-1),OBa(t)間の動きベクトルmv(t)を検出する。 Similarly, the afterimage reduction processing unit 1001 synthesizes the image data Ia(t-2) and Ia(t-1) to generate composite image data Ib(t-1), and generates the object image OBa(t-2). , OBa(t-1) is detected. The afterimage reduction processing unit 1001 synthesizes image data Ia(t-1) and Ia(t) to generate composite image data Ib(t), and generates composite image data Ib(t) between object images OBa(t-1) and OBa(t). Detect a motion vector mv(t).

(C)は、合成画像データIb(t-2),Ib(t-1),Ib(t)の補間を示す。具体的には、たとえば、残像低減処理部1001は、合成画像データIb(t-2)において、時間的に古い方の被写体像OBa(t-3)の輪郭のうち、動きベクトルmv(t-2)の終端側の輪郭(左側半分の円弧)を移動方向に複製することで、被写体像OBa(t-3),OBa(t-2)の間を補間する。これにより、残像低減処理部1001は、補間された被写体像OBc(t-2)を含む補間合成画像データIc(t-2)を生成する。 (C) shows interpolation of composite image data Ib(t-2), Ib(t-1), and Ib(t). Specifically, for example, the afterimage reduction processing unit 1001 calculates a motion vector mv(t- 2) by duplicating the contour on the terminal side (left half arc) in the movement direction, interpolation is performed between object images OBa(t-3) and OBa(t-2). Thereby, the afterimage reduction processing unit 1001 generates interpolated composite image data Ic(t-2) including the interpolated object image OBc(t-2).

同様に、残像低減処理部1001は、合成画像データIb(t-1)において、時間的に古い方の被写体像OBa(t-2)の輪郭のうち、動きベクトルmv(t-1)の終端側の輪郭(左側半分の円弧)を移動方向に複製することで、被写体像OBa(t-2),OBa(t-1)の間を補間する。これにより、残像低減処理部1001は、補間された被写体像OBc(t-1)を含む補間合成画像データIc(t-1)を生成する。 Similarly, the afterimage reduction processing unit 1001 selects the terminal end of the motion vector mv(t-1) among the contours of the temporally older object image OBa(t-2) in the composite image data Ib(t-1). By duplicating the side contour (left half circular arc) in the movement direction, interpolation is performed between object images OBa(t-2) and OBa(t-1). Thereby, the afterimage reduction processing unit 1001 generates interpolated composite image data Ic(t-1) including the interpolated object image OBc(t-1).

また、残像低減処理部1001は、合成画像データIb(t)において、時間的に古い方の被写体像OBa(t-1)の輪郭のうち、動きベクトルmv(t)の終端側の輪郭(左側半分の円弧)を移動方向に複製することで、被写体像OBa(t-1),OBa(t)の間を補間する。これにより、残像低減処理部1001は、補間された被写体像OBc(t)を含む補間合成画像データIc(t)を生成する。なお、図11では、輪郭の複製対象をとなる輪郭を時間的に古い方の被写体像の輪郭としたが、時間的に新しい方の被写体像の輪郭としてもよい。 In addition, the afterimage reduction processing unit 1001 also processes, in the synthesized image data Ib(t), the contour on the terminal side of the motion vector mv(t) (left By duplicating the half circular arc) in the moving direction, interpolation is performed between the object images OBa(t-1) and OBa(t). Thereby, the afterimage reduction processing unit 1001 generates interpolated composite image data Ic(t) including the interpolated object image OBc(t). In FIG. 11, the outline to be copied is the outline of the temporally older subject image, but it may be the outline of the temporally newer subject image.

このように、撮像装置100は、補間処理により、各画像データに離散的に出現する残像を、シャッタースピードを遅くしたかのような被写体像の移動軌跡に変換して連続的に表示する。これにより、あたかも残像が存在しないかのようにユーザに見せることで、残像を低減することができる。 In this way, the imaging device 100 uses interpolation processing to convert afterimages that appear discretely in each image data into a moving trajectory of the subject image as if the shutter speed was slowed down, and continuously displays the resulting trajectory. Thereby, the afterimage can be reduced by making the user see the afterimage as if it does not exist.

<再帰的ノイズ除去処理>
図12は、実施例4にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例4では、ステップS302のあと、撮像装置100は、実施例1~3、および図5におけるいずれかにより重みを計算する(ステップS1203)。つぎに、撮像装置100は、残像低減処理部1001により、ローパスフィルタまたは補間処理による残像低減処理を実行する(ステップS1204)。そして、撮像装置100は、ノイズ除去処理部1002により、ステップS1203で計算された重みWを用いて、残像低減処理後の画像データからノイズを除去する(ステップS307)。
<Recursive noise removal process>
FIG. 12 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device 100 according to the fourth embodiment. In Example 4, after step S302, the imaging apparatus 100 calculates weights according to any of Examples 1 to 3 and FIG. 5 (Step S1203). Next, the imaging apparatus 100 causes the afterimage reduction processing unit 1001 to perform afterimage reduction processing using a low-pass filter or interpolation processing (step S1204). Then, in the imaging apparatus 100, the noise removal processing unit 1002 uses the weight W calculated in step S1203 to remove noise from the image data after the afterimage reduction process (step S307).

このあと、撮像装置100は、ノイズ除去画像データIoutを表示デバイス110に出力し(ステップS308)、画像保存部204により、ノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する(ステップS309)。このような処理を撮像が終了するまで、再帰的に実行することで、残像を連続的に目立たなくし、結果的に残像発生を抑制することができる。 After that, the imaging device 100 outputs the noise-removed image data Iout to the display device 110 (step S308), and the image storage unit 204 stores the noise-removed image data Iout in the first memory 205 as past image data Iold ( Step S309). By performing such processing recursively until the imaging is completed, it is possible to continuously make afterimages less noticeable and, as a result, to suppress the occurrence of afterimages.

実施例4では、除去部203において重みを用いた現在画像データからのノイズ除去に先立って、現在画像データに対し残像低減処理を実行する例について説明したが、これとは逆に、実施例5は、除去部203において重みを用いた現在画像データからのノイズ除去後に、ノイズ除去画像データに対し、残像低減処理を実行する例である。実施例5の撮像装置100は、ノイズ除去後に現在画像データの残像を低減させることで、残像発生の抑制を図る。実施例5では、実施例4との相違点を中心に説明し、実施例1~4と共通部分については同一符号を用いて説明を省略する。 In the fourth embodiment, an example was described in which the removal unit 203 performs afterimage reduction processing on the current image data before removing noise from the current image data using weights. This is an example in which the removal unit 203 removes noise from the current image data using weights, and then performs afterimage reduction processing on the noise-removed image data. The imaging device 100 of the fifth embodiment aims to suppress the occurrence of afterimages by reducing the afterimages of the current image data after noise removal. In the fifth embodiment, differences from the fourth embodiment will be mainly explained, and the same reference numerals will be used for the parts common to the first to fourth embodiments, and the explanation will be omitted.

<機能的構成例>
図13は、実施例5にかかる撮像装置100の機能的構成例を示すブロック図である。除去部203は、算出部202から重みを取得する。算出部202からの重みは、実施例1,3の場合は調整済みの重みW´であり、実施例2の場合は、更新済みの重みWnewである。また、算出部202が図5に示した構成である場合、算出部202からの重みは、重み計算部221により、過去画像データIoldと現在画像データIとを上記式(2)に与えて計算された重みWである。実施例5では、特に区別しない限り、これらの重みを総称して、単に、重みWと表記する。
<Functional configuration example>
FIG. 13 is a block diagram showing an example of the functional configuration of the imaging device 100 according to the fifth embodiment. The removal unit 203 acquires the weights from the calculation unit 202. The weight from the calculation unit 202 is the adjusted weight W' in the first and third embodiments, and the updated weight Wnew in the second embodiment. Further, when the calculation unit 202 has the configuration shown in FIG. 5, the weight from the calculation unit 202 is calculated by the weight calculation unit 221 by applying the past image data Iold and the current image data I to the above equation (2). is the weight W. In the fifth embodiment, these weights are collectively referred to simply as weight W unless otherwise specified.

除去部203は、ノイズ除去処理部1002と、残像低減処理部1001と、を有する。ノイズ除去処理部1002は、取得部201からの画像データについて、算出部202からの重みWに基づいて、ノイズ除去対象の画像データのノイズを除去し、ノイズ除去画像データを出力する。具体的には、たとえば、除去部203は、算出部202からの重みWを上記式(7)のW´に代入することにより、重み付け平均で画像データのノイズを除去する。 The removal unit 203 includes a noise removal processing unit 1002 and an afterimage reduction processing unit 1001. The noise removal processing unit 1002 removes noise from the image data to be noise-removed based on the weight W from the calculation unit 202 for the image data from the acquisition unit 201, and outputs noise-removed image data. Specifically, for example, the removal unit 203 removes noise from the image data using a weighted average by substituting the weight W from the calculation unit 202 into W' in the above equation (7).

残像低減処理部1001は、ノイズ除去画像データの残像を低減する処理を実行する。具体的には、たとえば、残像低減処理部1001は、ノイズ除去画像データにローパスフィルタを施すことにより、残像となる動く被写体像の輪郭をぼかす。これにより、動く被写体像の輪郭を目立ちにくくする。また、残像低減処理部1001は、図11に示したように、時間方向に連続する2枚のノイズ除去画像データI(t-1),I(t)について、動く被写体像の間を補間することにより、残像となる動く被写体像の輪郭をぼかす(補間処理)。 The afterimage reduction processing unit 1001 executes processing to reduce the afterimage of the noise-removed image data. Specifically, for example, the afterimage reduction processing unit 1001 blurs the outline of a moving subject image that becomes an afterimage by applying a low-pass filter to the noise-removed image data. This makes the outline of the moving subject image less noticeable. Furthermore, as shown in FIG. 11, the afterimage reduction processing unit 1001 performs interpolation between the moving subject images for two pieces of noise-removed image data I(t-1) and I(t) that are continuous in the time direction. By doing so, the outline of the moving subject image, which becomes an afterimage, is blurred (interpolation processing).

<再帰的ノイズ除去処理>
図14は、実施例5にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例5では、ステップS302のあと、撮像装置100は、実施例1~3、および図5におけるいずれかにより重みを計算する(ステップS1203)。つぎに、撮像装置100は、ノイズ除去処理部1002により、ステップS1203で計算された重みWを用いて、ノイズ除去画像データからノイズを除去する(ステップS307)。そして、撮像装置100は、残像低減処理部1001により、ローパスフィルタまたは補間処理による残像低減処理を実行する(ステップS1204)。
<Recursive noise removal process>
FIG. 14 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device 100 according to the fifth embodiment. In Example 5, after step S302, the imaging apparatus 100 calculates weights according to any of Examples 1 to 3 and FIG. 5 (Step S1203). Next, the imaging device 100 uses the weight W calculated in step S1203 to remove noise from the noise-removed image data by the noise removal processing unit 1002 (step S307). Then, in the imaging apparatus 100, the afterimage reduction processing unit 1001 executes afterimage reduction processing using a low-pass filter or interpolation processing (step S1204).

このあと、撮像装置100は、ノイズ除去画像データIoutを表示デバイス110に出力し(ステップS308)、画像保存部204により、ノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する(ステップS309)。このような処理を撮像が終了するまで、再帰的に実行することで、残像を連続的に目立たなくし、結果的に残像発生を抑制することができる。また、残像低減処理に先立ってノイズ除去を実行することで、ノイズのぼかしや補間を抑制することができる。 After that, the imaging device 100 outputs the noise-removed image data Iout to the display device 110 (step S308), and the image storage unit 204 stores the noise-removed image data Iout in the first memory 205 as past image data Iold ( Step S309). By performing such processing recursively until the imaging is completed, it is possible to continuously make afterimages less noticeable and, as a result, to suppress the occurrence of afterimages. Further, by performing noise removal prior to afterimage reduction processing, blurring and interpolation of noise can be suppressed.

実施例6は、画像データから残像が発生する領域(残像発生領域)を検出して、検出した残像発生領域(検出領域)から残像を除去する例である。これにより、残像を低減する範囲を、残像発生領域に絞り込むことができ、残像低減処理を効率的に実行することができる。実施例6では、実施例5との相違点を中心に説明し、実施例1~5と共通部分については同一符号を用いて説明を省略する。 Embodiment 6 is an example in which a region where an afterimage occurs (an afterimage occurrence region) is detected from image data, and the afterimage is removed from the detected afterimage occurrence region (detection region). Thereby, the range for reducing afterimages can be narrowed down to the afterimage generation area, and afterimage reduction processing can be efficiently executed. Embodiment 6 will be mainly described with respect to the differences from Embodiment 5, and the same reference numerals will be used for parts common to Embodiments 1 to 5, and the explanation will be omitted.

図15は、実施例6にかかる残像低減処理例を示す説明図である。図15において、矩形は画像データを示す。矩形内の網掛けの範囲はノイズNを示す。ノイズは画像データ全体に一様に存在する場合もあるが、ここでは、説明を単純化するため、特定の位置にノイズNが存在するものとする。(A)は、被写体像が移動しない場合の例を示し、(B)は、被写体像が移動する場合の例を示す。 FIG. 15 is an explanatory diagram showing an example of afterimage reduction processing according to the sixth embodiment. In FIG. 15, rectangles indicate image data. The shaded range within the rectangle indicates noise N. Although noise may exist uniformly in the entire image data, here, in order to simplify the explanation, it is assumed that noise N exists at a specific position. (A) shows an example where the subject image does not move, and (B) shows an example where the subject image moves.

(A)において、画像データIa(t-1),Ia(t)は、時間方向に連続する画像データ列である。画像データIa(t-1),Ia(t)は、ともに同じ位置にノイズNおよび被写体像OB(t-1),OB(t)を有する。ノイズ除去画像データNRIa(t-1)は、時刻t-2のノイズ除去画像データ(過去画像データIold)に基づいて画像データIa(t-1)からノイズNが除去された画像データである。ノイズ除去画像データNRIa(t)は、時刻t-1のノイズ除去画像データNRIa(t-1)(過去画像データIold)に基づいて画像データIa(t)からノイズNが除去された画像データである。 In (A), image data Ia(t-1) and Ia(t) are image data sequences that are continuous in the time direction. Image data Ia(t-1) and Ia(t) both have noise N and object images OB(t-1) and OB(t) at the same position. The noise-removed image data NRIa(t-1) is image data from which noise N has been removed from the image data Ia(t-1) based on the noise-removed image data at time t-2 (past image data Iold). The noise-removed image data NRIa(t) is image data from which noise N has been removed from the image data Ia(t) based on the noise-removed image data NRIa(t-1) at time t-1 (past image data Iold). be.

撮像装置100は、現在画像データである時刻tの画像データIa(t)と、時刻t-1のノイズ除去画像データNRIa(t-1)(過去画像データIold)と、の加重平均により、画像データIa(t)からノイズNが除去されたノイズ除去画像データNRIa(t)を生成する。また、差分画像データDIa(t)は、画像データIa(t)とノイズ除去画像データNRIa(t)との差分をとった画像データである。この場合、被写体像OB(t)とその背景は相殺され、差分としてノイズNが残存することになる。 The imaging device 100 uses a weighted average of image data Ia(t) at time t, which is current image data, and noise-removed image data NRIa(t-1) at time t-1 (past image data Iold). Noise removed image data NRIa(t) from which noise N is removed from data Ia(t) is generated. Further, the differential image data DIa(t) is image data obtained by calculating the difference between the image data Ia(t) and the noise-removed image data NRIa(t). In this case, the subject image OB(t) and its background cancel each other out, and the noise N remains as a difference.

(B)において、画像データIb(t-1),Ib(t)は、時間方向に連続する画像データ列である。画像データIb(t-1),Ib(t)は、同じ位置にノイズNを有するが、被写体像OB(t-1),OB(t)の位置は異なる。すなわち、被写体が左から右に移動していることを示す。 In (B), image data Ib(t-1) and Ib(t) are image data sequences that are continuous in the time direction. The image data Ib(t-1) and Ib(t) have noise N at the same position, but the positions of the subject images OB(t-1) and OB(t) are different. That is, it shows that the subject is moving from left to right.

ノイズ除去画像データNRIb(t-1)は、時刻t-2のノイズ除去画像データ(過去画像データIold)に基づいて画像データIb(t-1)からノイズNが除去された画像データである。ノイズ除去画像データNRIb(t-1)には、時刻t-2の画像データに存在していた被写体像の残像A(t-2)が存在するものとする。 The noise-removed image data NRIb(t-1) is image data from which noise N has been removed from the image data Ib(t-1) based on the noise-removed image data at time t-2 (past image data Iold). It is assumed that the noise-removed image data NRIb(t-1) includes an afterimage A(t-2) of the subject image that existed in the image data at time t-2.

ノイズ除去画像データNRIb(t)は、時刻t-1のノイズ除去画像データNRIb1(t-1)(過去画像データIold)に基づいて画像データIb(t)からノイズNが除去された画像データである。ただし、ノイズ除去画像データNRIb1(t)には、ノイズ除去画像データNRIb(t-1)における被写体像OB(t-1)の位置に、残像A(t-1)が存在する。 The noise-removed image data NRIb(t) is image data from which noise N has been removed from the image data Ib(t) based on the noise-removed image data NRIb1(t-1) (past image data Iold) at time t-1. be. However, the noise-removed image data NRIb1(t) includes an afterimage A(t-1) at the position of the object image OB(t-1) in the noise-removed image data NRIb(t-1).

撮像装置100は、現在画像データである時刻tの画像データIb(t)と、時刻t-1のノイズ除去画像データNRIb(t-1)(過去画像データIold)と、の加重平均により、画像データIb(t)からノイズNが除去されたノイズ除去画像データNRIb1(t)を生成する。また、差分画像データDIb(t)は、画像データIb(t)とノイズ除去画像データNRIb1(t)との差分をとった画像データである。この場合、被写体像OB(t)とその背景は相殺され、差分としてノイズNおよび残像A(t-1)が残存することになる。 The imaging device 100 uses a weighted average of image data Ib(t) at time t, which is current image data, and noise-removed image data NRIb(t-1) at time t-1 (past image data Iold). Noise removed image data NRIb1(t) from which noise N has been removed from data Ib(t) is generated. Further, the differential image data DIb(t) is image data obtained by calculating the difference between the image data Ib(t) and the noise-removed image data NRIb1(t). In this case, the object image OB(t) and its background cancel each other out, and the noise N and the afterimage A(t-1) remain as a difference.

撮像装置100は、差分画像データDIb(t)を参照して、残像A(t-1)の領域を残像発生領域1500として特定する。つぎに、撮像装置100は、残像発生領域の画像データ(この場合は、輪郭の残像A(t-1))と同じ位置の画像データ1501を、時刻tの画像データIb(t)から抽出する。そして、撮像装置100は、ノイズ除去画像データNRIb1(t)における残像A(t-1)を、当該抽出した画像データ1501に置換する。これにより、撮像装置100は、ノイズ除去画像データNRIb1(t)から残像A(t-1)を除去したノイズ除去画像データNRIb2(t)を生成することができる。 The imaging device 100 refers to the differential image data DIb(t) and identifies the area of the afterimage A(t-1) as the afterimage occurrence area 1500. Next, the imaging device 100 extracts image data 1501 at the same position as the image data of the afterimage occurrence area (in this case, the contour afterimage A(t-1)) from the image data Ib(t) at time t. . The imaging device 100 then replaces the afterimage A(t-1) in the noise-removed image data NRIb1(t) with the extracted image data 1501. Thereby, the imaging device 100 can generate noise-removed image data NRIb2(t) by removing the afterimage A(t-1) from the noise-removed image data NRIb1(t).

なお、撮像装置100は、残像発生領域1500の画像データ(この場合は、輪郭の残像A(t-1))と同じ位置の画像データ1501を、時刻tの画像データIb(t)から抽出することとしたが、抽出する範囲は、残像発生領域1500と同じ位置に限らず、残像発生領域1500とその近傍を含む領域でもよい。また、ここでは、残像は、被写体像の輪郭であることが多いため、残像発生領域1500を被写体像の輪郭に対応する領域としたが、輪郭で囲まれる内部も残像発生領域1500としてもよい。これにより、残像の除去漏れの低減を図ることができる。 Note that the imaging device 100 extracts image data 1501 at the same position as the image data of the afterimage occurrence area 1500 (in this case, the contour afterimage A(t-1)) from the image data Ib(t) at time t. However, the range to be extracted is not limited to the same position as the afterimage generation area 1500, but may be an area including the afterimage generation area 1500 and its vicinity. Further, here, since the afterimage is often the outline of the subject image, the afterimage generation area 1500 is defined as an area corresponding to the outline of the subject image, but the afterimage generation area 1500 may also be the inside surrounded by the outline. Thereby, it is possible to reduce the omission of removal of afterimages.

<機能的構成例>
図16は、実施例6にかかる撮像装置100の機能的構成例を示すブロック図である。残像低減部は、図15に示したように、ノイズ除去処理部1002からノイズ除去画像データを取得する。また、残像低減処理部1001は、図15に示したように、たとえば、取得部201から現在画像データIb(t)を取得する。また、残像低減処理部1001は、第1メモリ205から過去画像データIoldを取得する。過去画像データIoldは、たとえば、1つ前の時刻t-1のノイズ除去画像データNRIb(t-1)である。
<Functional configuration example>
FIG. 16 is a block diagram showing an example of the functional configuration of the imaging device 100 according to the sixth embodiment. The afterimage reduction unit obtains noise-removed image data from the noise removal processing unit 1002, as shown in FIG. Further, as shown in FIG. 15, the afterimage reduction processing unit 1001 obtains the current image data Ib(t) from the obtaining unit 201, for example. The afterimage reduction processing unit 1001 also acquires past image data Iold from the first memory 205. The past image data Iold is, for example, the noise-removed image data NRIb(t-1) at the previous time t-1.

残像低減処理部1001は、図15に示したように、現在画像データIb(t)と過去画像データIoldとの加重平均により、現在画像データIb(t)についてのノイズ除去画像データNRIb(t)を生成し、現在画像データIb(t)と生成したノイズ除去画像データNRIb(t)との差分画像データDIb(t)を生成する。 As shown in FIG. 15, the afterimage reduction processing unit 1001 generates noise-removed image data NRIb(t) for the current image data Ib(t) by a weighted average of the current image data Ib(t) and the past image data Iold. and generates differential image data DIb(t) between the current image data Ib(t) and the generated noise-removed image data NRIb(t).

そして、残像低減処理部1001は、差分画像データDIb(t)から残像発生領域1500を検出し、残像発生領域1500と同一位置の画像データ1501を現在画像データIb(t)から特定する。そして、残像低減処理部1001は、ノイズ除去画像データNRIb1(t)において、画像データ1501を合成することにより、残像A(t-1)を除去したノイズ除去画像データNRIb2(t)を生成する。 Then, the afterimage reduction processing unit 1001 detects the afterimage occurrence area 1500 from the difference image data DIb(t), and identifies image data 1501 at the same position as the afterimage occurrence area 1500 from the current image data Ib(t). Then, the afterimage reduction processing unit 1001 generates noise-removed image data NRIb2(t) from which the afterimage A(t-1) has been removed by combining the image data 1501 with the noise-removed image data NRIb1(t).

残像低減処理部1001は、生成したノイズ除去画像データNRIb2(t)を表示デバイス110に出力するとともに、画像保存部204に出力する。画像保存部204は、取得したノイズ除去画像データNRIb2(t)をあらたな過去画像データIoldとして第1メモリ205に保存する。 The afterimage reduction processing unit 1001 outputs the generated noise-removed image data NRIb2(t) to the display device 110 and also to the image storage unit 204. The image storage unit 204 stores the acquired noise-removed image data NRIb2(t) in the first memory 205 as new past image data Iold.

なお、残像低減処理部1001は、実施例5に示したローパスフィルタや補間処理を実施例6に適用してもよい。具体的には、たとえば、残像低減処理部1001は、現在画像データIb(t)についてローパスフィルタまたは補間処理を適用し、当該適用後の現在画像データIb(t)と生成したノイズ除去画像データNRIb(t)との差分画像データDIb(t)を生成してもよい。 Note that the afterimage reduction processing unit 1001 may apply the low-pass filter and interpolation processing shown in the fifth embodiment to the sixth embodiment. Specifically, for example, the afterimage reduction processing unit 1001 applies a low-pass filter or interpolation processing to the current image data Ib(t), and uses the current image data Ib(t) after the application and the generated noise-removed image data NRIb. (t) and differential image data DIb(t) may be generated.

また、残像低減処理部1001は、生成したノイズ除去画像データNRIb2(t)についてローパスフィルタや補間処理を適用し、当該適用後のノイズ除去画像データNRIb2(t)を表示デバイス110および画像保存部204に出力してもよい。 The afterimage reduction processing unit 1001 also applies a low-pass filter and interpolation processing to the generated noise-removed image data NRIb2(t), and displays the applied noise-removed image data NRIb2(t) on the display device 110 and the image storage unit 204. You can also output to

<再帰的ノイズ除去処理>
図17は、実施例6にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例6では、ステップS302のあと、撮像装置100は、実施例1~3、および図5におけるいずれかにより重みを計算する(ステップS1203)。つぎに、撮像装置100は、ノイズ除去処理部1002により、ステップS1203で計算された重みWを用いて、ノイズ除去画像データからノイズを除去する(ステップS307)。そして、撮像装置100は、残像低減処理部1001により、ローパスフィルタまたは補間処理による残像低減処理を実行する(ステップS1771~S1773)。
<Recursive noise removal process>
FIG. 17 is a flowchart illustrating an example of a recursive noise removal procedure by the imaging device 100 according to the sixth embodiment. In Example 6, after step S302, the imaging apparatus 100 calculates weights according to any one of Examples 1 to 3 and FIG. 5 (step S1203). Next, the imaging device 100 uses the weight W calculated in step S1203 to remove noise from the noise-removed image data by the noise removal processing unit 1002 (step S307). Then, the imaging apparatus 100 causes the afterimage reduction processing unit 1001 to perform afterimage reduction processing using a low-pass filter or interpolation processing (steps S1771 to S1773).

具体的には、たとえば、残像低減処理部1001は、現在画像データIb(t)とノイズ除去画像データNRIb1(t)との差分画像データDIb(t)を生成し(ステップS1771)、差分画像データDIb(t)から残像発生領域1500を検出する(ステップS1772)。 Specifically, for example, the afterimage reduction processing unit 1001 generates differential image data DIb(t) between the current image data Ib(t) and the noise-removed image data NRIb1(t) (step S1771), and Afterimage generation area 1500 is detected from DIb(t) (step S1772).

そして、残像低減処理部1001は、残像発生領域1500と同じ位置の画像データ1501を現在画像データIb(t)から抽出して、ノイズ除去画像データNRIb1(t)に合成することで、ノイズ除去画像データNRIb2(t)を生成し、残像A(t-1)を除去する(ステップS1773)。このあと、残像低減処理部1001は、ノイズ除去画像データNRIb2(t)を出力画像データIoutとして表示デバイス110に出力し(ステップS308)、画像保存部204に出力する(ステップS309)。 Then, the afterimage reduction processing unit 1001 extracts image data 1501 at the same position as the afterimage generation area 1500 from the current image data Ib(t), and combines it with the noise-removed image data NRIb1(t), thereby creating a noise-removed image. Data NRIb2(t) is generated and afterimage A(t-1) is removed (step S1773). Thereafter, the afterimage reduction processing unit 1001 outputs the noise-removed image data NRIb2(t) to the display device 110 as output image data Iout (step S308), and outputs it to the image storage unit 204 (step S309).

このような処理を撮像が終了するまで、再帰的に実行することで、残像を連続的に目立たなくし、結果的に残像発生を抑制することができる。このように、残像を低減する範囲を、残像発生領域に絞り込むことができ、残像低減処理を効率的に実行することができる。換言すれば、残像が発生していない領域については残像低減処理を実行しなくて済むため、残像を低減しなくてもよい領域の残像低減処理を回避することができ、元の画像を維持することができる。 By performing such processing recursively until the imaging is completed, it is possible to continuously make afterimages less noticeable and, as a result, to suppress the occurrence of afterimages. In this way, the range for reducing afterimages can be narrowed down to the afterimage occurrence area, and the afterimage reduction process can be efficiently executed. In other words, it is not necessary to perform afterimage reduction processing on areas where afterimages do not occur, so it is possible to avoid afterimage reduction processing on areas where afterimages do not need to be reduced, and the original image can be maintained. be able to.

実施例7は、残像が発生しづらい動画を撮像する条件を調整することにより、残像を目立ちにくくする例である。 Example 7 is an example in which afterimages are made less noticeable by adjusting the conditions for capturing a moving image in which afterimages are less likely to occur.

<動画撮像例>
図18は、実施例7にかかる動画撮像例を示す説明図である。図18は、ある被写体を動画撮像する例であり、矩形は、時間方向に連続する画像データ列、すなわち、動画像データである。また、フレームレートは、説明の便宜上、一例として3[fps]とする。また、時刻t1~t3のうち時刻t1が最古の時刻であり、時刻t3が最新の時刻である。(A)は、撮像条件が実施例7で調整されていない動画撮像例であり、(B)は、撮像条件が実施例7で調整された動画撮像例である。したがって、(A),(B)ともに1/3[fps]で画像データが1枚生成される。
<Video imaging example>
FIG. 18 is an explanatory diagram showing an example of moving image capturing according to the seventh embodiment. FIG. 18 is an example of capturing a moving image of a certain subject, and the rectangles are image data sequences that are continuous in the time direction, that is, moving image data. Further, for convenience of explanation, the frame rate is assumed to be 3 [fps] as an example. Further, among times t1 to t3, time t1 is the oldest time, and time t3 is the latest time. (A) is an example of video imaging in which the imaging conditions are not adjusted according to the seventh embodiment, and (B) is an example of video imaging in which the imaging conditions are adjusted in the seventh embodiment. Therefore, one piece of image data is generated at 1/3 [fps] in both (A) and (B).

なお、符号の末尾には、時刻t1~t3を区別するため、(t1)~(t3)が付してあるが、時刻t1~t3を区別しない場合は、単に、(t)と表記する。時刻t1~t3を区別しないも、単に、時刻tと表記する。 Note that (t1) to (t3) are added to the end of the code to distinguish between times t1 to t3, but if the times t1 to t3 are not to be distinguished, they are simply written as (t). Although times t1 to t3 are not distinguished, they are simply expressed as time t.

(A)において、et(t)は露光時間である。gp(t)は連続する露光時間の間のギャップ時間である。露光時間とは、シャッター(たとえば、ローリングシャッター)の開放状態から閉塞状態になるまで撮像素子105がレンズ系からの被写体光にさらされる時間である。 In (A), et(t) is the exposure time. gp(t) is the gap time between successive exposure times. The exposure time is the time during which the image sensor 105 is exposed to object light from the lens system from the open state of the shutter (for example, rolling shutter) to the closed state.

撮像装置100は、被写体を時刻t1~t3に撮像して、画像データIa(t1),Ia(t2),Ia(t3)を生成する。画像データIa(t1),Ia(t2),Ia(t3)はそれぞれ、被写体像OBa(t1),OBa(t2),OBa(t3)を含む。 The imaging device 100 images a subject from time t1 to t3 and generates image data Ia(t1), Ia(t2), and Ia(t3). Image data Ia(t1), Ia(t2), and Ia(t3) include object images OBa(t1), OBa(t2), and OBa(t3), respectively.

被写体を撮像する場合、まず、撮像装置100は、時刻tから始まる1/3[s]の間で、時刻tから始まる露光時間et(t)で露光する。つぎに、撮像装置100は、露光時間et(t)経過後のギャップ時間gp(t)で、撮像素子105からアナログの電気信号を読み出して、AFE106が信号処理を実行する。これにより、画像データIa(t)が生成される。 When capturing an image of a subject, first, the imaging device 100 performs exposure for 1/3 [s] starting from time t with an exposure time et(t) starting from time t. Next, the imaging apparatus 100 reads an analog electrical signal from the imaging element 105 at a gap time gp(t) after the exposure time et(t) has elapsed, and the AFE 106 executes signal processing. As a result, image data Ia(t) is generated.

撮像装置100は、時刻tごとに再帰的にノイズ除去を実行する。たとえば、時刻t3では、撮像装置100は、時刻t3で得られる画像データIa(t3)についてノイズ除去を実行する。具体的には、たとえば、撮像装置100は、画像データIa(t2)からノイズが除去されたノイズ除去画像データと、画像データIa(t3)との重み付き平均をとることにより、画像データIa(t3)からノイズが除去されたノイズ除去画像データNRIa(t3)を生成する。 The imaging device 100 performs noise removal recursively at every time t. For example, at time t3, the imaging device 100 performs noise removal on the image data Ia(t3) obtained at time t3. Specifically, for example, the imaging device 100 obtains the image data Ia(t2) by taking a weighted average of the noise-removed image data obtained by removing noise from the image data Ia(t2) and the image data Ia(t3). Noise-removed image data NRIa (t3) from which noise has been removed from t3) is generated.

ノイズ除去画像データNRIa(t3)において、残像Aa(t2),Aa(t1)は、再帰的なノイズ除去により画像データIa(t2),Ia(t1)内の被写体像OBa(t2),OBa(t1)から引き継がれた画像データであり、古い時刻の被写体像OBa(t2),OBa(t1)ほど薄くなる。 In the noise-removed image data NRIa(t3), the afterimages Aa(t2) and Aa(t1) are converted into object images OBa(t2) and OBa( This is image data taken over from t1), and the older the object images OBa(t2) and OBa(t1), the thinner the object images become.

また、ノイズ除去画像データNRIa(t3)では、被写体像OBa(t3)および残像Aa(t2),Aa(t1)が被写体の移動方向に離散的に出現するため、被写体の動きが不自然な映像となる。すなわち、露光時間et(t)が短いと、露光していない時間であるギャップ時間gp(t)が相対的に長くなり、前後の画像にずれが生じて不連続さが目立つ。 In addition, in the noise-removed image data NRIa (t3), the object image OBa (t3) and afterimages Aa (t2) and Aa (t1) appear discretely in the direction of movement of the object, resulting in an image in which the movement of the object is unnatural. becomes. That is, when the exposure time et(t) is short, the gap time gp(t), which is the non-exposed time, becomes relatively long, causing a shift between the previous and subsequent images and making discontinuity noticeable.

(B)において、ET(t)は露光時間である。GP(t)は連続する露光時間の間のギャップ時間である。露光時間ET(t)は、本実施例7による撮像条件設定により、露光時間et(t)よりも長くなり、これにより、ギャップ時間GP(t)は、ギャップ時間gp(t)よりも短くなる。 In (B), ET(t) is the exposure time. GP(t) is the gap time between successive exposure times. The exposure time ET(t) becomes longer than the exposure time et(t) due to the imaging condition setting according to the seventh embodiment, and thus the gap time GP(t) becomes shorter than the gap time GP(t). .

撮像装置100は、被写体を時刻t1~t3に撮像して、画像データIb(t1),Ib(t2),Ib(t3)を生成する。画像データIb(t1),Ib(t2),Ib(t3)はそれぞれ、被写体像OBb(t1),OBb(t2),OBb(t3)を含む。 The imaging device 100 images a subject from time t1 to t3 and generates image data Ib(t1), Ib(t2), and Ib(t3). Image data Ib(t1), Ib(t2), and Ib(t3) include subject images OBb(t1), OBb(t2), and OBb(t3), respectively.

被写体を撮像する場合、まず、撮像装置100は、時刻tから始まる1/3[s]の間で、時刻tから始まる露光時間ET(t)で露光する。つぎに、撮像装置100は、露光時間ET(t)経過後のギャップ時間GP(t)で、撮像素子105からアナログの電気信号を読み出して、AFE106が信号処理を実行する。これにより、画像データIb(t)が生成される。 When capturing an image of a subject, first, the imaging device 100 performs exposure for 1/3 [s] starting from time t with an exposure time ET(t) starting from time t. Next, the imaging apparatus 100 reads an analog electrical signal from the imaging element 105 at a gap time GP(t) after the exposure time ET(t) has elapsed, and the AFE 106 executes signal processing. As a result, image data Ib(t) is generated.

露光時間ET(t)は、(A)の露光時間et(t)よりも長いため、被写体が動いている様子を撮像することができる。この場合、画像データIb(t)は、被写体が左から右に移動する様子として、被写体像OBb(t)と被写体像OBb(t)に追従する軌跡TJ(t)とを含む。軌跡TJ(t)は、露光時間ET(t)の経過にともなって得られる被写体像OBb(t)の時系列な残像である。 Since the exposure time ET(t) is longer than the exposure time et(t) in (A), it is possible to capture an image of the subject moving. In this case, the image data Ib(t) includes an object image OBb(t) and a trajectory TJ(t) that follows the object image OBb(t) as the object moves from left to right. The trajectory TJ(t) is a time-series afterimage of the subject image OBb(t) obtained as the exposure time ET(t) passes.

撮像装置100は、時刻tごとに再帰的にノイズ除去を実行する。たとえば、時刻t3では、撮像装置100は、時刻t3で得られる画像データIb(t3)についてノイズ除去を実行する。具体的には、たとえば、撮像装置100は、画像データIb(t2)からノイズが除去されたノイズ除去画像データと、画像データIb(t3)との重み付き平均をとることにより、画像データIb(t3)からノイズが除去されたノイズ除去画像データNRIb(t3)を生成する。 The imaging device 100 performs noise removal recursively at every time t. For example, at time t3, the imaging device 100 performs noise removal on the image data Ib(t3) obtained at time t3. Specifically, for example, the imaging device 100 obtains the image data Ib(t2) by taking a weighted average of the noise-removed image data obtained by removing noise from the image data Ib(t2) and the image data Ib(t3). Noise-removed image data NRIb(t3) from which noise has been removed from t3) is generated.

ノイズ除去画像データNRIb(t3)において、残像Ab(t2),Ab(t1)は、再帰的なノイズ除去により画像データIb(t2),Ib(t1)内の被写体像OBa(t2),OBa(t1)の軌跡TJ(t2),TJ(t1)から引き継がれた画像データであり、古い時刻の被写体像OBb(t2),OBb(t1)ほど薄くなる。 In the noise-removed image data NRIb(t3), the afterimages Ab(t2) and Ab(t1) are converted into object images OBa(t2) and OBa( This is image data taken over from the trajectory TJ(t2) and TJ(t1) of t1), and the older the object images OBb(t2) and OBb(t1), the thinner the object images are.

ノイズ除去画像データNRIb(t3)では、被写体像OBb(t3)とその軌跡TJ(t3)および残像Ab(t2),Ab(t1)が被写体の移動方向に連続的に出現するため、被写体の動きが自然な映像となる。すなわち、露光時間ET(t)が露光時間et(t)よりも短いと、露光していない時間であるギャップ時間GP(t)が相対的に短くなり、前後の画像のずれが低減され不連続さが目立たなくなる。 In the noise-removed image data NRIb(t3), the subject image OBb(t3), its trajectory TJ(t3), and afterimages Ab(t2) and Ab(t1) appear continuously in the moving direction of the subject, so the subject's movement is becomes a natural image. In other words, when the exposure time ET(t) is shorter than the exposure time et(t), the gap time GP(t), which is the non-exposed time, becomes relatively short, and the shift between the previous and subsequent images is reduced, resulting in discontinuity. becomes less noticeable.

<撮像装置100の機能的構成例>
図19は、実施例7にかかる撮像装置100の機能的構成例を示すブロック図である。撮像装置100は、変換テーブル1900と、入力部1901と、設定部1902と、調整部1903と、撮像部120と、画像処理部1905と、を有する。変換テーブル1900は、具体的には、たとえば、図1に示した記憶デバイス102により実現される。また、入力部1901、設定部1902、調整部1903、および画像処理部1905は、具体的には、たとえば、図1に示した記憶デバイス102に記憶されたプログラムをプロセッサ101に実行させることにより、または、LSI107により実現される。
<Functional configuration example of imaging device 100>
FIG. 19 is a block diagram showing an example of the functional configuration of the imaging device 100 according to the seventh embodiment. The imaging device 100 includes a conversion table 1900, an input section 1901, a setting section 1902, an adjustment section 1903, an imaging section 120, and an image processing section 1905. Conversion table 1900 is specifically realized, for example, by storage device 102 shown in FIG. 1. Further, the input unit 1901, the setting unit 1902, the adjustment unit 1903, and the image processing unit 1905 specifically, for example, cause the processor 101 to execute a program stored in the storage device 102 shown in FIG. Alternatively, it is realized by the LSI 107.

変換テーブル1900は、第1撮像条件を第2撮像条件に変換するテーブルである。第1撮像条件1952は、デフォルトの撮像条件であり、たとえば、フレームレート1951に応じた露光時間である。撮像装置100において、たとえば、フレームレート1951が「FRi」に設定されると、露光時間は、「eti」に設定される。図18の例では、(A)においてフレームレート1951が、3[fps]である場合、露光時間は、et(t)となる。 The conversion table 1900 is a table for converting the first imaging condition to the second imaging condition. The first imaging condition 1952 is a default imaging condition, and is, for example, an exposure time according to the frame rate 1951. In the imaging device 100, for example, when the frame rate 1951 is set to "FRi", the exposure time is set to "eti". In the example of FIG. 18, when the frame rate 1951 in (A) is 3 [fps], the exposure time is et(t).

第2撮像条件1953とは、残像を低減させるための撮像条件であり、第1撮像条件1952に対応する。たとえば、第2撮像条件1953であるFCiは、フレームレート1951がFRiの場合のデフォルトの露光時間etiよりも長い露光時間ETiとする。また、露光時間がetiからETiに延長されたことによる露出オーバーを抑制するため、第2撮像条件1953であるFCiは、ISO感度の低下量(低下後のISO感度でもよい)を含んでもよい。 The second imaging condition 1953 is an imaging condition for reducing afterimages, and corresponds to the first imaging condition 1952. For example, the second imaging condition 1953, FCi, is an exposure time ETi that is longer than the default exposure time eti when the frame rate 1951 is FRi. Furthermore, in order to suppress overexposure due to the extension of the exposure time from eti to ETi, the second imaging condition 1953, FCi, may include the amount of decrease in ISO sensitivity (the ISO sensitivity after decrease may also be used).

入力部1901は、被写体を撮像する際のフレームレート1951の入力を操作デバイス108から受け付ける。なお、入力部1901は、撮影モードが操作デバイス108から選択されることで、当該撮影モードで規定されるフレームレート1951を受け付けてもよい。なお、撮影モードによっては同じフレームレート1951でも露光時間が異なる場合がある。 The input unit 1901 receives from the operating device 108 an input of a frame rate 1951 when capturing an image of a subject. Note that when the shooting mode is selected from the operating device 108, the input unit 1901 may receive the frame rate 1951 defined in the shooting mode. Note that the exposure time may differ even with the same frame rate 1951 depending on the shooting mode.

設定部1902は、入力部1901によって入力されたフレームレート1951および当該フレームレート1951に対応する露光時間に基づいて、残像を低減する第2撮像条件1953を設定する。具体的には、たとえば、設定部1902は、入力部1901からのフレームレート1951に対応する第2撮像条件1953を変換テーブル1900から読み出す。入力部1901からフレームレート1951のみが与えられた場合には、第1撮像条件1952の露光時間はデフォルトの露光時間として、設定部1902は、対応する第2撮像条件1953を変換テーブル1900から読み出す。 The setting unit 1902 sets a second imaging condition 1953 for reducing afterimages based on the frame rate 1951 input by the input unit 1901 and the exposure time corresponding to the frame rate 1951. Specifically, for example, the setting unit 1902 reads the second imaging condition 1953 corresponding to the frame rate 1951 from the input unit 1901 from the conversion table 1900. When only the frame rate 1951 is given from the input unit 1901, the setting unit 1902 reads the corresponding second imaging condition 1953 from the conversion table 1900, setting the exposure time of the first imaging condition 1952 as the default exposure time.

また、入力部1901からの撮影モードによりフレームレート1951および露光時間が指定されている場合には、設定部1902は、当該フレームレート1951および露光時間に対応する第2撮像条件1953を変換テーブル1900から読み出す。また、第2撮像条件1953にISO感度の低下量(または低下後のISO感度)が含まれている場合、設定部1902は、当該ISO感度の低下量(または低下後のISO感度)も読みだす。 Further, when the frame rate 1951 and exposure time are specified by the shooting mode from the input unit 1901, the setting unit 1902 converts the second imaging condition 1953 corresponding to the frame rate 1951 and exposure time from the conversion table 1900. read out. Furthermore, if the second imaging condition 1953 includes the amount of decrease in ISO sensitivity (or the ISO sensitivity after the decrease), the setting unit 1902 also reads the amount of decrease in the ISO sensitivity (or the ISO sensitivity after the decrease). .

調整部1903は、入力部1901によって入力されたフレームレート1951に対応する露光時間から、当該露光時間よりも長い露光時間に調整する。具体的には、たとえば、図18に示したように、調整部1903は、たとえば、フレームレート1951が3[fps]でその露光時間がet(t)とすると、露光時間et(t)を変換テーブル1900から得られた露光時間ET(t)に変更する。 The adjustment unit 1903 adjusts the exposure time corresponding to the frame rate 1951 inputted by the input unit 1901 to a longer exposure time. Specifically, as shown in FIG. 18, for example, if the frame rate 1951 is 3 [fps] and the exposure time is et(t), the adjustment unit 1903 converts the exposure time et(t). The exposure time is changed to the exposure time ET(t) obtained from the table 1900.

撮像部120は、フレームレート1951および調整部1903によって調整された露光時間に基づいて、被写体を撮像して、時間方向に連続する画像データ列を出力する。具体的には、たとえば、撮像部120は、図18の(B)に示したような画像データIb(t)を生成する。 The imaging unit 120 images the subject based on the frame rate 1951 and the exposure time adjusted by the adjustment unit 1903, and outputs an image data string that is continuous in the time direction. Specifically, for example, the imaging unit 120 generates image data Ib(t) as shown in FIG. 18(B).

画像処理部1905は、撮像部120からの画像データIb(t)を、画像処理する。具体的には、たとえば、画像処理部1905は、実施例1~6に示した取得部201、算出部202、除去部203、画像保存部204、および第1メモリ205により構成される。したがって、実施例1で示した再帰的ノイズ処理により、図18の(B)に示したようなノイズ除去画像データNRIb(t3)を生成する。 The image processing unit 1905 performs image processing on the image data Ib(t) from the imaging unit 120. Specifically, for example, the image processing section 1905 includes the acquisition section 201, the calculation section 202, the removal section 203, the image storage section 204, and the first memory 205 shown in Examples 1 to 6. Therefore, the recursive noise processing shown in Example 1 generates noise-removed image data NRIb(t3) as shown in FIG. 18(B).

<撮像処理手順例>
図20は、撮像装置100による撮像処理手順例を示すフローチャートである。撮像装置100は、入力部1901によりフレームレート1951の入力を受け付け(ステップS2001)、設定部1902により第2撮像条件1953を設定する(ステップS2002)。
<Example of imaging processing procedure>
FIG. 20 is a flowchart illustrating an example of an imaging processing procedure by the imaging apparatus 100. The imaging apparatus 100 receives the input of the frame rate 1951 through the input unit 1901 (step S2001), and sets the second imaging condition 1953 through the setting unit 1902 (step S2002).

撮像装置100は、調整部1903により第2撮像条件1953で露光時間を調整し(ステップS2003)、撮像部120により被写体を撮像して画像データ列を生成する(ステップS2004)。撮像装置100は、画像処理部1905により、実施例1~6に示した再帰的ノイズ除去処理(図3、図7、図9、図12、図14、図17)を含む画像処理を実行する(ステップS2005)。なお、画像処理(ステップS2005)は、図5に示したような再帰的ノイズ除去処理を含んでもよい。 In the imaging apparatus 100, the adjustment unit 1903 adjusts the exposure time under the second imaging condition 1953 (step S2003), and the imaging unit 120 images the subject to generate an image data string (step S2004). The imaging device 100 uses the image processing unit 1905 to execute image processing including the recursive noise removal processing (FIGS. 3, 7, 9, 12, 14, and 17) shown in Examples 1 to 6. (Step S2005). Note that the image processing (step S2005) may include recursive noise removal processing as shown in FIG.

なお、上述の例では、光量情報である露光時間を調整対象としたが、調整対象となる光量情報は露光時間に限らず、F値やISO感度でもよい。F値を調整対象とした場合、第1撮像条件1952の露光時間がF値となり、第2撮像条件1953の露光時間が、第1撮像条件1952のF値よりも値が小さいF値となる。この場合も露出オーバーを低減するため、第2撮像条件1953に、デフォルトの露光時間よりも短くしたり、ISO感度を低くしたりする値を含めればよい。 Note that in the above example, the exposure time, which is the light amount information, is the subject of adjustment, but the light amount information that is the subject of adjustment is not limited to the exposure time, but may be the F value or the ISO sensitivity. When the F value is the adjustment target, the exposure time of the first imaging condition 1952 becomes the F value, and the exposure time of the second imaging condition 1953 becomes an F value smaller than the F value of the first imaging condition 1952. In this case as well, in order to reduce overexposure, the second imaging condition 1953 may include a value that makes the exposure time shorter than the default exposure time or lowers the ISO sensitivity.

また、ISO感度を調整対象とした場合、第1撮像条件1952の露光時間がISO感度となり、第2撮像条件1953の露光時間が、第1撮像条件1952のISO感度よりも高いISO感度となる。この場合も露出オーバーを低減するため、第2撮像条件1953に、デフォルトの露光時間よりも短くしたり、F値を大きくしたりする値を含めればよい。 Further, when the ISO sensitivity is the adjustment target, the exposure time of the first imaging condition 1952 becomes the ISO sensitivity, and the exposure time of the second imaging condition 1953 becomes the ISO sensitivity higher than the ISO sensitivity of the first imaging condition 1952. In this case as well, in order to reduce overexposure, the second imaging conditions 1953 may include values such as making the exposure time shorter than the default exposure time or increasing the F value.

このように、実施例7によれば、残像が目立ちにくい画像データ列を生成することができる。また、これらの画像データ列を画像処理部1905に適用することにより、実施例1~6のようなノイズ除去結果を再帰的に得ることができる。 In this way, according to the seventh embodiment, it is possible to generate an image data sequence in which afterimages are less noticeable. Further, by applying these image data strings to the image processing unit 1905, the noise removal results as in Examples 1 to 6 can be obtained recursively.

100 撮像装置、101 プロセッサ、102 記憶デバイス、105 撮像素子、120 撮像部、200 画像処理装置、201 取得部、202 算出部、203 除去部、204 画像保存部、205 第1メモリ、221 重み計算部、222 重み調整部、223 重み保存部、224 第2メモリ、602 算出部、621 空間情報抽出部、622 重み計算部、802 算出部、1001 残像低減処理部、1002 ノイズ除去処理部、1900 変換テーブル、1901 入力部、1902 設定部、1903 調整部、1905 画像処理部 100 imaging device, 101 processor, 102 storage device, 105 imaging element, 120 imaging unit, 200 image processing device, 201 acquisition unit, 202 calculation unit, 203 removal unit, 204 image storage unit, 205 first memory, 221 weight calculation unit , 222 weight adjustment unit, 223 weight storage unit, 224 second memory, 602 calculation unit, 621 spatial information extraction unit, 622 weight calculation unit, 802 calculation unit, 1001 afterimage reduction processing unit, 1002 noise removal processing unit, 1900 conversion table , 1901 input section, 1902 setting section, 1903 adjustment section, 1905 image processing section

Claims (14)

被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、
前記第2画像データ内の残像を低減する残像低減処理部と、
前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記残像低減処理部による残像低減処理済みの第2画像データからノイズを除去する除去部と、
を有する撮像装置。
an imaging unit that images a subject and outputs first image data and second image data that is temporally later than the first image data;
a calculation unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data;
an afterimage reduction processing unit that reduces afterimages in the second image data;
a removing unit that removes noise from second image data that has been subjected to afterimage reduction processing by the afterimage reduction processing unit, based on the first noise-removed image data and the first weight calculated by the calculation unit;
An imaging device having:
請求項1に記載の撮像装置であって、
前記残像低減処理部は、ローパスフィルタを用いて、前記第2画像データ内の残像を低減する、撮像装置。
The imaging device according to claim 1,
The afterimage reduction processing section is an imaging device that reduces afterimages in the second image data using a low-pass filter.
請求項1に記載の撮像装置であって、
前記残像低減処理部は、前記第1画像データと前記第2画像データとを合成し、合成された画像データにおいて、前記第1画像データ内の被写体像と前記第2画像データ内の被写体像との間を補間する、撮像装置。
The imaging device according to claim 1,
The afterimage reduction processing unit combines the first image data and the second image data, and in the combined image data, a subject image in the first image data and a subject image in the second image data are combined. An imaging device that interpolates between.
請求項2に記載の撮像装置であって、
前記撮像部は、前記第2画像データよりも時間的に後の第3画像データを出力し、
前記算出部は、前記除去部によって前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出し、
前記残像低減処理部は、前記第3画像データ内の残像を低減し、
前記除去部は、前記第2ノイズ除去画像データと、前記算出部によって算出された第3重みと、に基づいて、前記残像低減処理部による残像低減処理済みの第3画像データからノイズを除去する、撮像装置。
The imaging device according to claim 2,
The imaging unit outputs third image data that is temporally later than the second image data,
The calculation unit calculates a second weight of the second image data based on the second noise-removed image data and the third image data from which noise has been removed from the second image data by the removal unit, and 1 weight and the second weight, calculate a third weight,
The afterimage reduction processing unit reduces afterimages in the third image data,
The removal unit removes noise from the third image data that has been subjected to afterimage reduction processing by the afterimage reduction processing unit, based on the second noise-removed image data and the third weight calculated by the calculation unit. , imaging device.
請求項1に記載の撮像装置であって、
前記第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出部を有し、
前記算出部は、前記抽出部によって抽出された第1空間情報に基づいて、前記第1重みを算出する、撮像装置。
The imaging device according to claim 1,
an extraction unit that extracts first spatial information indicating characteristics of a spatial structure included in the image from at least one of the first noise-removed image data and the second image data;
The calculation unit is an imaging device that calculates the first weight based on the first spatial information extracted by the extraction unit.
被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、
前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、
前記除去部によって前記第2画像データからノイズ除去された第2ノイズ除去画像データ内の残像を低減する残像低減処理部と、
を有する撮像装置。
an imaging unit that images a subject and outputs first image data and second image data that is temporally later than the first image data;
a calculation unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data;
a removal unit that removes noise from the second image data based on the first noise-removed image data and the first weight calculated by the calculation unit;
an afterimage reduction processing unit that reduces afterimages in second noise-removed image data from which noise has been removed from the second image data by the removal unit;
An imaging device having:
請求項6に記載の撮像装置であって、
前記残像低減処理部は、ローパスフィルタを用いて、前記第2ノイズ除去画像データ内の残像を低減する、撮像装置。
The imaging device according to claim 6,
The afterimage reduction processing unit is an imaging device that reduces afterimages in the second noise-removed image data using a low-pass filter.
請求項6に記載の撮像装置であって、
前記残像低減処理部は、前記第1ノイズ除去画像データと前記第2ノイズ除去画像データとを合成し、合成された画像データにおいて、前記第1ノイズ除去画像データ内の被写体像と前記第2ノイズ除去画像データ内の被写体像との間を補間する、撮像装置。
The imaging device according to claim 6,
The afterimage reduction processing unit combines the first noise-removed image data and the second noise-removed image data, and in the combined image data, the subject image in the first noise-removed image data and the second noise An imaging device that interpolates between the removed image data and a subject image.
請求項7に記載の撮像装置であって、
重みを調整する調整部を有し、
前記撮像部は、前記第2画像データよりも時間的に後の第3画像データを出力し、
前記算出部は、前記残像低減処理部による残像低減処理済みの第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出し、
前記除去部は、前記残像低減処理済みの第2ノイズ除去画像データと、前記算出部によって算出された第3重みと、に基づいて、前記第3画像データからノイズを除去し、
前記残像低減処理部は、前記除去部によって前記第3画像データからノイズ除去された第3ノイズ除去画像データ内の残像を低減する、撮像装置。
The imaging device according to claim 7,
It has an adjustment section that adjusts the weight,
The imaging unit outputs third image data that is temporally later than the second image data,
The calculation unit calculates a second weight of the second image data based on the second noise-removed image data and the third image data that have been subjected to afterimage reduction processing by the afterimage reduction processing unit, and calculates a second weight of the second image data, and Calculating a third weight based on the second weight,
The removal unit removes noise from the third image data based on the second noise-removed image data that has undergone the afterimage reduction process and the third weight calculated by the calculation unit,
The afterimage reduction processing section is an imaging device that reduces afterimages in third noise-removed image data from which noise has been removed from the third image data by the removal section.
請求項6に記載の撮像装置であって、
前記第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出部を有し、
前記算出部は、前記抽出部によって抽出された第1空間情報に基づいて、前記第1重みを算出する、撮像装置。
The imaging device according to claim 6,
an extraction unit that extracts first spatial information indicating characteristics of a spatial structure included in the image from at least one of the first noise-removed image data and the second image data;
The calculation unit is an imaging device that calculates the first weight based on the first spatial information extracted by the extraction unit.
請求項6に記載の撮像装置であって、
前記残像低減処理部は、前記第1ノイズ除去画像データと前記第2画像データとの差分に基づいて、前記第2ノイズ除去画像データ内に存在する残像の画像データを検出し、前記残像の画像データを、前記残像の検出領域に対応する前記第2画像データ内の領域の画像データに置換する、撮像装置。
The imaging device according to claim 6,
The afterimage reduction processing unit detects image data of an afterimage existing in the second noise removed image data based on the difference between the first noise removed image data and the second image data, and An imaging device that replaces data with image data of a region within the second image data that corresponds to the afterimage detection region.
被写体を撮像する際のフレームレートの入力を受け付ける入力部と、
前記入力部によって入力されたフレームレートに対応する第1光量情報から前記第1光量情報よりも大きい第2光量情報に調整する調整部と、
前記フレームレートおよび前記調整部によって調整された第2光量情報に基づいて、前記被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、
前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、
を有する撮像装置。
an input section that accepts input of a frame rate when capturing an image of a subject;
an adjustment unit that adjusts first light amount information corresponding to the frame rate input by the input unit to second light amount information larger than the first light amount information;
Based on the frame rate and second light amount information adjusted by the adjustment section, image the subject and output first image data and second image data that is temporally later than the first image data. an imaging unit to
a calculation unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data;
a removal unit that removes noise from the second image data based on the first noise-removed image data and the first weight calculated by the calculation unit;
An imaging device having:
請求項12に記載の撮像装置であって、
前記フレームレートおよび前記第1光量情報に基づいて、残像を低減する撮像条件を設定する設定部を有し、
前記撮像部は、前記フレームレート、前記第2光量情報、および前記設定部によって設定された撮像条件に基づいて、前記被写体を撮像して、前記第1画像データおよび前記第2画像データを出力する、撮像装置。
The imaging device according to claim 12,
a setting unit configured to set imaging conditions for reducing afterimages based on the frame rate and the first light amount information;
The imaging unit images the subject based on the frame rate, the second light amount information, and the imaging conditions set by the setting unit, and outputs the first image data and the second image data. , imaging device.
請求項12に記載の撮像装置であって、
重みを調整する調整部を有し、
前記撮像部は、前記第2画像データよりも時間的に後の第3画像データを出力し、
前記算出部は、前記除去部によってノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出し、
前記除去部は、前記第2ノイズ除去画像データと、前記算出部によって算出された第3重みと、に基づいて、前記第3画像データからノイズを除去する、撮像装置。
The imaging device according to claim 12,
It has an adjustment section that adjusts the weight,
The imaging unit outputs third image data that is temporally later than the second image data,
The calculation unit calculates a second weight of the second image data based on the second noise-removed image data and the third image data from which noise has been removed by the removal unit, and calculates a second weight of the second image data, and Calculate a third weight based on the weight,
The removing unit is an imaging device that removes noise from the third image data based on the second noise-removed image data and a third weight calculated by the calculating unit.
JP2023172451A 2018-02-28 2023-10-04 Imaging apparatus Pending JP2023174740A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023172451A JP2023174740A (en) 2018-02-28 2023-10-04 Imaging apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018035298A JP7098958B2 (en) 2018-02-28 2018-02-28 Image pickup device, image processing device, and image processing program
JP2022104994A JP2022125149A (en) 2018-02-28 2022-06-29 Imaging apparatus
JP2023172451A JP2023174740A (en) 2018-02-28 2023-10-04 Imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022104994A Division JP2022125149A (en) 2018-02-28 2022-06-29 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2023174740A true JP2023174740A (en) 2023-12-08

Family

ID=67850898

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018035298A Active JP7098958B2 (en) 2018-02-28 2018-02-28 Image pickup device, image processing device, and image processing program
JP2022104994A Pending JP2022125149A (en) 2018-02-28 2022-06-29 Imaging apparatus
JP2023172451A Pending JP2023174740A (en) 2018-02-28 2023-10-04 Imaging apparatus

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2018035298A Active JP7098958B2 (en) 2018-02-28 2018-02-28 Image pickup device, image processing device, and image processing program
JP2022104994A Pending JP2022125149A (en) 2018-02-28 2022-06-29 Imaging apparatus

Country Status (1)

Country Link
JP (3) JP7098958B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117455221B (en) * 2023-12-25 2024-03-26 青岛可颂食品有限公司 Processing flow management system suitable for baking cream

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006025396A1 (en) 2004-09-03 2006-03-09 Matsushita Electric Industrial Co., Ltd. Image processing device, and image processing program
JP2007288595A (en) * 2006-04-18 2007-11-01 Pioneer Electronic Corp Frame circulation noise reduction device
JP2008294696A (en) 2007-05-24 2008-12-04 Sony Corp Video signal processing method, program of video signal processing method, recording medium with recorded program of video signal processing method, and video signal processor
JP5123756B2 (en) 2008-06-26 2013-01-23 オリンパス株式会社 Imaging system, image processing method, and image processing program
JP5464541B2 (en) 2009-01-20 2014-04-09 株式会社日立国際電気 Noise reduction circuit
JP5006423B2 (en) 2010-03-26 2012-08-22 株式会社ナナオ Cyclic noise removal apparatus or method
JP6020904B2 (en) 2012-02-01 2016-11-02 パナソニックIpマネジメント株式会社 Image processing apparatus and imaging apparatus
JP5927051B2 (en) 2012-06-07 2016-05-25 オリンパス株式会社 Image processing apparatus, image processing method, and program
JP6652290B2 (en) 2015-08-31 2020-02-19 キヤノン株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2019149787A (en) 2019-09-05
JP2022125149A (en) 2022-08-26
JP7098958B2 (en) 2022-07-12

Similar Documents

Publication Publication Date Title
JP6911202B2 (en) Imaging control method and imaging device
CN108322669B (en) Image acquisition method and apparatus, imaging apparatus, and readable storage medium
JP5589446B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US8994849B2 (en) Method and apparatus for increasing dynamic range of image by using electronic shutter
US20150296116A1 (en) Image processing apparatus and image processing method
JP2010063088A (en) Imaging apparatus
WO2007119680A1 (en) Image pickup device
JP2008035167A (en) Imaging apparatus
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP2023174740A (en) Imaging apparatus
JP2022179514A (en) Control apparatus, imaging apparatus, control method, and program
JP5211589B2 (en) Image processing apparatus, electronic camera, and image processing program
JP6108680B2 (en) Imaging apparatus, control method therefor, program, and storage medium
WO2012070440A1 (en) Image processing device, image processing method, and image processing program
JP6173027B2 (en) Image processing apparatus and image processing method
JP5012656B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US11089231B2 (en) Image capturing apparatus, image capturing method, and program
JP5012805B2 (en) Image processing apparatus, electronic camera, and image processing program
JP5507865B2 (en) Image processing apparatus and image processing method
JP7064351B2 (en) Imaging device and imaging method
JP6376769B2 (en) Imaging apparatus and control method thereof
JP2023180137A (en) Image processing device, image processing method and image processing program
JP2015204489A (en) Image processing apparatus and image processing method
JP2007329621A (en) Image processing device, image processing method and image signal processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231004