JP2019149787A - Imaging apparatus, image processing apparatus, and image processing program - Google Patents

Imaging apparatus, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP2019149787A
JP2019149787A JP2018035298A JP2018035298A JP2019149787A JP 2019149787 A JP2019149787 A JP 2019149787A JP 2018035298 A JP2018035298 A JP 2018035298A JP 2018035298 A JP2018035298 A JP 2018035298A JP 2019149787 A JP2019149787 A JP 2019149787A
Authority
JP
Japan
Prior art keywords
image data
weight
noise
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018035298A
Other languages
Japanese (ja)
Other versions
JP7098958B2 (en
Inventor
暢志 澤邉
Masashi Sawabe
暢志 澤邉
浩史 金藤
Hiroshi Kinto
浩史 金藤
茂 土井田
Shigeru Tsuchiida
茂 土井田
公佳 宮田
Kimiyoshi Miyata
公佳 宮田
慎哉 海老原
Shinya Ebihara
慎哉 海老原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018035298A priority Critical patent/JP7098958B2/en
Publication of JP2019149787A publication Critical patent/JP2019149787A/en
Priority to JP2022104994A priority patent/JP2022125149A/en
Application granted granted Critical
Publication of JP7098958B2 publication Critical patent/JP7098958B2/en
Priority to JP2023172451A priority patent/JP2023174740A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To achieve high accuracy with low noise removal.SOLUTION: The imaging apparatus includes: an imaging unit that captures an image of a subject and outputs first image data, second image data that is temporally later than the first image data, and third image data that is temporally later than second image data; a calculation unit for calculating a first weight of the first image data on the basis of a first noise-removed image data obtained by removing noise from the first image data and the second image data, calculating a second weight of the second image data on the basis of a second noise-removed image data obtained by removing noise from the second image data and the third image data, and calculating a third weight on the basis of the first weight and the second weight; and a removal unit for removing noise of the third image data on the basis of the third weight calculated by the calculation unit.SELECTED DRAWING: Figure 2

Description

本発明は、撮像装置、画像処理装置、および画像処理プログラムに関する。   The present invention relates to an imaging device, an image processing device, and an image processing program.

動画に対するノイズ除去手法として、過去のフレームと現在のフレームの重み付き平均処理がある(たとえば、下記特許文献1を参照)。しかしながら、特許文献1のノイズ低減システムは、より精度を上げるには画像メモリーにより多くの過去のフレームを保持しなければならないが、画像メモリーの使用メモリ量にも限界がある。一方、使用メモリ量を制限すると、ノイズ低減の精度向上が見込めない。   As a noise removal technique for a moving image, there is a weighted average process of a past frame and a current frame (see, for example, Patent Document 1 below). However, the noise reduction system of Patent Document 1 must hold more past frames in the image memory in order to improve accuracy, but the amount of memory used by the image memory is also limited. On the other hand, if the amount of memory used is limited, the accuracy of noise reduction cannot be expected.

特開平06−062283号公報JP-A-06-0662283

本願において開示される発明の第1側面となる撮像装置は、被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データと前記第2画像データよりも時間的に後の第3画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出し、前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みをする算出部と、前記算出部によって算出された第3重みに基づいて、前記第3画像データのノイズを除去する除去部と、を有する。   An image pickup apparatus according to a first aspect of the invention disclosed in the present application picks up a subject, and uses first image data and second image data that is temporally later than the first image data and the second image data. An imaging unit that outputs the third image data that is later in time, the first noise-removed image data that has been denoised from the first image data, and the second image data. A first weight is calculated, a second weight of the second image data is calculated based on the second noise-removed image data from which noise has been removed from the second image data and the third image data, and the first weight And a calculating unit that applies a third weight based on the second weight, and a removing unit that removes noise from the third image data based on the third weight calculated by the calculating unit.

本願において開示される発明の第2側面となる撮像装置は、被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出部と、前記抽出部によって抽出された第1空間情報に基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、を有する。   An image pickup apparatus according to a second aspect of the invention disclosed in the present application picks up an image of a subject and outputs first image data and second image data temporally later than the first image data; An extraction unit that extracts first spatial information indicating characteristics of a spatial structure included in an image from at least one of the first noise-removed image data and the second image data that have been denoised from the first image data; Based on the first spatial information extracted by the extraction unit, a calculation unit that calculates a first weight of the first image data, the first noise-removed image data, and a first weight calculated by the calculation unit And a removing unit that removes noise from the second image data.

本願において開示される発明の第3側面となる撮像装置は、被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第2画像データ内の残像を低減する残像低減処理部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記残像低減処理部による残像低減処理済みの第2画像データからノイズを除去する除去部と、を有する。   An image pickup apparatus according to a third aspect of the invention disclosed in the present application picks up an image of a subject and outputs first image data and second image data temporally later than the first image data; A calculation unit for calculating a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data; Second image data that has been subjected to afterimage reduction processing by the afterimage reduction processing unit based on the afterimage reduction processing unit that reduces afterimages, the first noise-removed image data, and the first weight calculated by the calculation unit. And a removing unit that removes noise from.

本願において開示される発明の第4側面となる撮像装置は、被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、前記除去部によって前記第2画像データからノイズ除去された第2ノイズ除去画像データ内の残像を低減する残像低減処理部と、を有する。   An imaging device according to a fourth aspect of the invention disclosed in the present application is an imaging unit that images a subject and outputs first image data and second image data later in time than the first image data; A calculation unit for calculating a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data; and the first noise-removed image data And a removal unit that removes noise from the second image data based on the first weight calculated by the calculation unit, and a second noise removal in which noise is removed from the second image data by the removal unit An afterimage reduction processing unit that reduces afterimages in the image data.

本願において開示される発明の第5側面となる撮像装置は、被写体を撮像する際のフレームレートの入力を受け付ける入力部と、露光時間を、前記入力部によって入力されたフレームレートに対応する第1露光時間から前記第1露光時間よりも長い第2露光時間に調整する調整部と、前記フレームレートおよび前記調整部によって調整された第2露光時間に基づいて、前記被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、を有する。   An imaging apparatus according to a fifth aspect of the invention disclosed in the present application includes an input unit that receives an input of a frame rate when imaging a subject, and an exposure time corresponding to a frame rate input by the input unit. An adjustment unit that adjusts an exposure time to a second exposure time that is longer than the first exposure time; and an image of the subject based on the frame rate and the second exposure time adjusted by the adjustment unit; An imaging unit that outputs image data and second image data that is temporally later than the first image data, first noise-removed image data that has been denoised from the first image data, and second image data Based on the calculation unit that calculates the first weight of the first image data, the first noise-removed image data, and the first weight calculated by the calculation unit. Has a removal unit for removing noise from the second image data.

本願において開示される発明の第6側面となる画像処理装置は、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データと前記第2画像データよりも時間的に後に撮像された第3画像データとを取得する取得部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出し、前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出する算出部と、前記算出部によって算出された第3重みに基づいて、前記第3画像データのノイズを除去する除去部と、を有する。   An image processing apparatus according to a sixth aspect of the invention disclosed in the present application is the first image data, the second image data captured later in time than the first image data, and the second image data temporally than the second image data. An acquisition unit for acquiring the third image data captured later, the first noise-removed image data from which the noise has been removed from the first image data, and the second image data. 1 weight is calculated, a second weight of the second image data is calculated based on the second noise-removed image data from which noise has been removed from the second image data and the third image data, and the first weight and A calculating unit that calculates a third weight based on the second weight; and a removing unit that removes noise of the third image data based on the third weight calculated by the calculating unit.

本願において開示される発明の第7側面となる画像処理装置は、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出部と、前記抽出部によって抽出された第1空間情報に基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、を有する。   An image processing apparatus according to a seventh aspect of the invention disclosed in the present application includes: an acquisition unit that acquires first image data and second image data captured after the first image data; An extraction unit for extracting first spatial information indicating a feature of a spatial structure included in an image from at least one of the first noise-removed image data and the second image data from which noise has been removed from one image data; and the extraction unit Based on the calculation unit that calculates the first weight of the first image data based on the extracted first spatial information, the first noise-removed image data, and the first weight calculated by the calculation unit. And a removing unit that removes noise from the second image data.

本願において開示される発明の第8側面となる画像処理装置は、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第2画像データ内の残像を低減する残像低減処理部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記残像低減処理部による残像低減処理済みの第2画像データからノイズを除去する除去部と、を有する。   An image processing apparatus according to an eighth aspect of the invention disclosed in the present application includes: an acquisition unit that acquires first image data and second image data captured after the first image data; A calculation unit that calculates a first weight of the first image data based on the first noise-removed image data from which noise has been removed from one image data and the second image data, and an afterimage in the second image data is reduced Noise from the second image data that has been subjected to the afterimage reduction processing by the afterimage reduction processing unit, based on the afterimage reduction processing unit, the first noise-removed image data, and the first weight calculated by the calculation unit. And a removing portion to be removed.

本願において開示される発明の第9側面となる画像処理装置は、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得部と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、前記除去部によって前記第2画像データからノイズ除去された第2ノイズ除去画像データ内の残像を低減する残像低減処理部と、を有する。   An image processing apparatus according to a ninth aspect of the invention disclosed in the present application includes: an acquisition unit configured to acquire first image data and second image data captured after the first image data; Based on the first noise-removed image data from which noise has been removed from one image data and the second image data, a calculation unit that calculates a first weight of the first image data, the first noise-removed image data, Based on the first weight calculated by the calculation unit, a removal unit that removes noise from the second image data, and the second noise-removed image data in which noise is removed from the second image data by the removal unit An afterimage reduction processing unit that reduces the afterimage of the image.

本願において開示される発明の第10側面となる画像処理プログラムは、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データと前記第2画像データよりも時間的に後に撮像された第3画像データとを取得する取得処理と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出し、前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出する算出処理と、前記算出処理によって算出された第3重みに基づいて、前記第3画像データのノイズを除去する除去処理と、をプロセッサに実行させる。   An image processing program according to a tenth aspect of the invention disclosed in the present application is the first image data, the second image data captured later in time than the first image data, and the second image data temporally than the second image data. Based on the acquisition processing for acquiring the third image data captured later, the first noise-removed image data noise-removed from the first image data, and the second image data. 1 weight is calculated, a second weight of the second image data is calculated based on the second noise-removed image data from which noise has been removed from the second image data and the third image data, and the first weight and A calculation process for calculating a third weight based on the second weight, and a removal process for removing noise of the third image data based on the third weight calculated by the calculation process , To perform to the processor.

本願において開示される発明の第11側面となる画像処理プログラムは、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得処理と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出処理と、前記抽出処理によって抽出された第1空間情報に基づいて、前記第1画像データの第1重みを算出する算出処理と、前記第1ノイズ除去画像データと、前記算出処理によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去処理と、をプロセッサに実行させる。   An image processing program according to an eleventh aspect of the invention disclosed in the present application is an acquisition process for acquiring first image data and second image data captured after the first image data in time, An extraction process for extracting first spatial information indicating a feature of a spatial structure included in the image from at least one of the first noise-removed image data and the second image data from which noise has been removed from one image data; and Based on the calculation processing for calculating the first weight of the first image data based on the extracted first spatial information, the first noise-removed image data, and the first weight calculated by the calculation processing. Then, the processor executes a removal process for removing noise from the second image data.

本願において開示される発明の第12側面となる画像処理プログラムは、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得処理と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出処理と、前記第2画像データ内の残像を低減する残像低減処理と、前記第1ノイズ除去画像データと、前記算出処理によって算出された第1重みと、に基づいて、前記残像低減処理による残像低減処理済みの第2画像データからノイズを除去する除去処理と、をプロセッサに実行させる。   An image processing program according to a twelfth aspect of the invention disclosed in the present application is an acquisition process for acquiring first image data and second image data captured later in time than the first image data; A calculation process for calculating a first weight of the first image data based on the first noise-removed image data from which noise has been removed from one image data and the second image data, and an afterimage in the second image data is reduced. Noise is removed from the second image data that has been subjected to the afterimage reduction processing by the afterimage reduction processing, based on the afterimage reduction processing to be performed, the first noise-removed image data, and the first weight calculated by the calculation processing. The removal process is executed by the processor.

本願において開示される発明の第13側面となる画像処理プログラムは、第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データとを取得する取得処理と、前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出処理と、前記第1ノイズ除去画像データと、前記算出処理によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去処理と、前記除去処理によって前記第2画像データからノイズ除去された第2ノイズ除去画像データ内の残像を低減する残像低減処理と、をプロセッサに実行させる。   An image processing program according to a thirteenth aspect of the invention disclosed in the present application is an acquisition process for acquiring first image data and second image data captured after the first image data in time, A calculation process for calculating a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from one image data; the first noise-removed image data; Based on the first weight calculated by the calculation process, a removal process for removing noise from the second image data, and the second noise-removed image data in which noise has been removed from the second image data by the removal process And causing the processor to perform afterimage reduction processing for reducing the afterimage.

図1は、撮像装置のハードウェア構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a hardware configuration example of the imaging apparatus. 図2は、実施例1にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 2 is a block diagram of a functional configuration example of the imaging apparatus according to the first embodiment. 図3は、実施例1にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 3 is a flowchart of a recursive noise removal procedure example performed by the imaging apparatus according to the first embodiment. 図4は、調整済みの重みによる再帰的ノイズ除去例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of recursive noise removal using adjusted weights. 図5は、調整済みの重みを適用しない再帰的ノイズ除去例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of recursive noise removal that does not apply adjusted weights. 図6は、実施例2にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a functional configuration example of the imaging apparatus according to the second embodiment. 図7は、実施例2にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a recursive noise removal procedure performed by the imaging apparatus according to the second embodiment. 図8は、実施例3にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 8 is a block diagram of a functional configuration example of the imaging apparatus according to the third embodiment. 図9は、実施例3にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 9 is a flowchart of a recursive noise removal procedure example performed by the imaging apparatus according to the third embodiment. 図10は、実施例4にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 10 is a block diagram of an example of a functional configuration of the imaging apparatus according to the fourth embodiment. 図11は、実施例4にかかる残像低減処理部による補間処理例を示す説明図である。FIG. 11 is an explanatory diagram of an example of interpolation processing by the afterimage reduction processing unit according to the fourth embodiment. 図12は、実施例4にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a recursive noise removal procedure performed by the imaging apparatus according to the fourth embodiment. 図13は、実施例5にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 13 is a block diagram of an example of a functional configuration of the imaging apparatus according to the fifth embodiment. 図14は、実施例5にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 14 is a flowchart of an example of a recursive noise removal procedure performed by the imaging apparatus according to the fifth embodiment. 図15は、実施例6にかかる残像低減処理例を示す説明図である。FIG. 15 is an explanatory diagram of an example of afterimage reduction processing according to the sixth embodiment. 図16は、実施例6にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 16 is a block diagram of a functional configuration example of the imaging apparatus according to the sixth embodiment. 図17は、実施例6にかかる撮像装置による再帰的ノイズ除去手順例を示すフローチャートである。FIG. 17 is a flowchart of a recursive noise removal procedure example performed by the imaging apparatus according to the sixth embodiment. 図18は、実施例7にかかる動画撮像例を示す説明図である。FIG. 18 is an explanatory diagram of an example of moving image capturing according to the seventh embodiment. 図19は、実施例7にかかる撮像装置の機能的構成例を示すブロック図である。FIG. 19 is a block diagram of an example of a functional configuration of the imaging apparatus according to the seventh embodiment. 図20は、撮像装置による撮像処理手順例を示すフローチャートである。FIG. 20 is a flowchart illustrating an example of an imaging process procedure performed by the imaging apparatus.

実施例1について説明する。動画に対するノイズ除去手法として、ノイズ除去された過去の画像データとノイズが除去されていない現在の画像データとの重み付き平均処理がある。ノイズの除去精度を高めるためには過去フレーム数をメモリに多く保持しておく必要があるが、メモリ使用量が増加してしまう。   Example 1 will be described. As a noise removal technique for a moving image, there is a weighted average process between past image data from which noise has been removed and current image data from which noise has not been removed. In order to increase the noise removal accuracy, it is necessary to store a large number of past frames in the memory, but this increases the amount of memory used.

このため、実施例1では、ノイズが除去されたノイズ除去画像データの数を必要最小限に抑制するため、撮像装置は、ノイズ除去に使用される重みを再帰的に利用することにより、ノイズ除去精度の向上を図り、メモリ使用量を低減する。   For this reason, in the first embodiment, in order to suppress the number of noise-removed image data from which noise has been removed to the necessary minimum, the imaging apparatus recursively uses the weights used for noise removal, thereby removing noise. Improve accuracy and reduce memory usage.

重みとは、動画像において時間的に連続する先行画像データと後続画像データとを同一領域で比較した場合の当該領域ごとにおける後続画像データに対する先行画像データの信頼度である。領域とは、1画素以上の画素集合である。領域は画像データ全体であってもよい。   The weight is the reliability of the preceding image data with respect to the subsequent image data in each region when the temporally continuous preceding image data and the subsequent image data are compared in the same region. A region is a set of one or more pixels. The region may be the entire image data.

重みは、たとえば、0.0以上1.0以下の範囲をとり、値が大きいほど信頼度が高いことを意味する。先行画像データおよび後続画像データの同一領域どうしが類似するほど、重みの値は大きくなる。重みを再帰的に利用することにより、過去の画像データの残像ほど重みの値が小さくなり、残像が低減される。以下、実施例1について詳細に説明する。   For example, the weight ranges from 0.0 to 1.0, and the larger the value, the higher the reliability. The more similar the same area of the preceding image data and the subsequent image data, the larger the weight value. By using the weight recursively, the afterimage of the past image data has a smaller weight value and the afterimage is reduced. Hereinafter, Example 1 will be described in detail.

<撮像装置のハードウェア構成例>
図1は、撮像装置のハードウェア構成例を示すブロック図である。撮像装置100は、動画撮影可能な装置であり、具体的には、たとえば、デジタルカメラ、デジタルビデオカメラ、スマートフォン、タブレット、パーソナルコンピュータ、ゲーム機である。図1では、撮像装置の一例としてデジタルカメラを例に挙げて説明する。
<Example of hardware configuration of imaging apparatus>
FIG. 1 is a block diagram illustrating a hardware configuration example of the imaging apparatus. The imaging device 100 is a device capable of shooting a moving image, and specifically, for example, a digital camera, a digital video camera, a smartphone, a tablet, a personal computer, or a game machine. In FIG. 1, a digital camera will be described as an example of an imaging apparatus.

撮像装置100は、プロセッサ101と、記憶デバイス102と、駆動部103と、光学系104と、撮像素子105と、AFE(Analog Front End)106と、LSI(Large Scale Integration)107と、操作デバイス108と、センサ109と、表示デバイス110と、通信IF(Interface)111と、バス112と、を有する。プロセッサ101、記憶デバイス102、駆動部103、LSI107、操作デバイス108、センサ109、表示デバイス110、および通信IF111は、バス112に接続される。   The imaging apparatus 100 includes a processor 101, a storage device 102, a drive unit 103, an optical system 104, an imaging element 105, an AFE (Analog Front End) 106, an LSI (Large Scale Integration) 107, and an operation device 108. A sensor 109, a display device 110, a communication IF (Interface) 111, and a bus 112. The processor 101, the storage device 102, the drive unit 103, the LSI 107, the operation device 108, the sensor 109, the display device 110, and the communication IF 111 are connected to the bus 112.

プロセッサ101は、撮像装置100を制御する。記憶デバイス102は、プロセッサ101の作業エリアとなる。また、記憶デバイス102は、各種プログラムやデータを記憶する非一時的なまたは一時的な記録媒体である。記憶デバイス102としては、たとえば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリがある。記憶デバイス102は、撮像装置100に複数実装されてもよく、そのうちの少なくとも1つは、撮像装置100に対し着脱自在でもよい。   The processor 101 controls the imaging device 100. The storage device 102 serves as a work area for the processor 101. The storage device 102 is a non-temporary or temporary recording medium that stores various programs and data. Examples of the storage device 102 include a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), and a flash memory. A plurality of storage devices 102 may be mounted on the imaging apparatus 100, and at least one of them may be detachable from the imaging apparatus 100.

駆動部103は、光学系104を駆動制御する。駆動部103は、駆動回路103aと駆動源103bとを有する。駆動回路103aは、プロセッサ101からの指示により駆動源103bを制御する。駆動源103bは、たとえば、モータであり、駆動回路103aの制御により、光学系104内のズーミングレンズ141bおよびフォーカシングレンズ141cを光軸方向に移動させたり、絞り142を開閉制御する。   The drive unit 103 drives and controls the optical system 104. The drive unit 103 includes a drive circuit 103a and a drive source 103b. The drive circuit 103a controls the drive source 103b according to an instruction from the processor 101. The drive source 103b is, for example, a motor, and moves the zooming lens 141b and the focusing lens 141c in the optical system 104 in the optical axis direction and controls the opening / closing of the diaphragm 142 by the control of the drive circuit 103a.

光学系104は、光軸方向に配列された複数のレンズ(レンズ141a、ズーミングレンズ141b、およびフォーカシングレンズ141c)と、絞り142と、を含む。光学系104は、被写体光を集光し、撮像素子105に出射する。   The optical system 104 includes a plurality of lenses (lens 141a, zooming lens 141b, and focusing lens 141c) arranged in the optical axis direction, and a diaphragm 142. The optical system 104 condenses the subject light and emits it to the image sensor 105.

撮像素子105は、光学系104からの被写体光を受光して電気信号に変換する。撮像素子105は、たとえば、XYアドレス方式の固体撮像素子(たとえば、CMOS(Complementary Metal‐Oxide Semiconductor))であってもよく、順次走査方式の固体撮像素子(たとえば、CCD(Charge Coupled Device))であってもよい。   The image sensor 105 receives subject light from the optical system 104 and converts it into an electrical signal. The image sensor 105 may be, for example, an XY address type solid-state image sensor (for example, a CMOS (Complementary Metal-Oxide Semiconductor)), and is a progressive scan type solid-state image sensor (for example, a CCD (Charge Coupled Device)). There may be.

撮像素子105の受光面には、複数の受光素子(画素)がマトリクス状に配列されている。そして、撮像素子105の画素には、それぞれが異なる色成分の光を透過させる複数種類のカラーフィルタが所定の色配列(たとえば、ベイヤ配列)に従って配置される。そのため、撮像素子105の各画素は、カラーフィルタでの色分解によって各色成分に対応するアナログの電気信号を出力する。   A plurality of light receiving elements (pixels) are arranged in a matrix on the light receiving surface of the image sensor 105. A plurality of types of color filters that transmit light of different color components are arranged in the pixels of the image sensor 105 according to a predetermined color arrangement (for example, a Bayer arrangement). Therefore, each pixel of the image sensor 105 outputs an analog electrical signal corresponding to each color component by color separation in the color filter.

AFE106は、撮像素子105からのアナログの電気信号に対して信号処理を施すアナログフロントエンド回路である。AFE106は、電気信号のゲイン調整、アナログ信号処理(相関二重サンプリング、黒レベル補正など)、A/D変換処理、デジタル信号処理(欠陥画素補正など)を順次実行してRAW画像データを生成し、LSIに出力する。上述した駆動部103、光学系104、撮像素子105、およびAFE106は、撮像部120を構成する。   The AFE 106 is an analog front end circuit that performs signal processing on an analog electrical signal from the image sensor 105. The AFE 106 performs RAW image data by sequentially executing gain adjustment of an electrical signal, analog signal processing (correlated double sampling, black level correction, etc.), A / D conversion processing, and digital signal processing (defective pixel correction, etc.). , Output to LSI. The driving unit 103, the optical system 104, the image sensor 105, and the AFE 106 described above constitute the image capturing unit 120.

LSI107は、AFE106からのRAW画像データについて、色補間、ホワイトバランス調整、輪郭強調、ガンマ補正、階調変換などの画像処理や符号化処理、復号処理、圧縮伸張処理など、特定の処理を実行する集積回路である。LSI107は、具体的には、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field−Programmable Gate Array)などのPLD(Programmable Logic Device)によって実現してもよい。   The LSI 107 executes specific processing such as image processing such as color interpolation, white balance adjustment, edge enhancement, gamma correction, and gradation conversion, encoding processing, decoding processing, and compression / decompression processing on the RAW image data from the AFE 106. Integrated circuit. Specifically, the LSI 107 may be realized by a PLD (Programmable Logic Device) such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array), for example.

操作デバイス108は、コマンドやデータを入力する。操作デバイス108としては、たとえば、レリーズボタンを含む各種ボタン、スイッチ、ダイヤル、タッチパネルがある。センサは、情報を検出するデバイスであり、たとえば、AF(Automatic Focus)センサ、AE(Automatic Exposure)センサ、ジャイロセンサ、加速度センサ、温度センサなどがある。表示デバイス110は、画像データや設定画面を表示する。表示デバイス110には、撮像装置100の背面にある背面モニタと、電子ビューファインダと、がある。通信IF111は、ネットワークと接続し、データを送受信する。   The operation device 108 inputs commands and data. Examples of the operation device 108 include various buttons including a release button, a switch, a dial, and a touch panel. The sensor is a device that detects information, and examples thereof include an AF (Automatic Focus) sensor, an AE (Automatic Exposure) sensor, a gyro sensor, an acceleration sensor, and a temperature sensor. The display device 110 displays image data and a setting screen. The display device 110 includes a rear monitor on the rear surface of the imaging apparatus 100 and an electronic viewfinder. The communication IF 111 is connected to a network and transmits / receives data.

<撮像装置100の機能的構成例>
図2は、実施例1にかかる撮像装置100の機能的構成例を示すブロック図である。撮像装置100は、取得部201と、算出部202と、除去部203と、画像保存部204と、第1メモリ205と、を有する。取得部201、算出部202、除去部203、画像保存部204、および第1メモリ205は、画像処理装置200を構成する。
<Functional Configuration Example of Imaging Device 100>
FIG. 2 is a block diagram of a functional configuration example of the imaging apparatus 100 according to the first embodiment. The imaging apparatus 100 includes an acquisition unit 201, a calculation unit 202, a removal unit 203, an image storage unit 204, and a first memory 205. The acquisition unit 201, the calculation unit 202, the removal unit 203, the image storage unit 204, and the first memory 205 constitute an image processing device 200.

取得部201は、撮像部120によって撮像された時間的に連続する一連の画像データを取得する。取得部201は、たとえば、記憶デバイス102の1つであるバッファメモリである。なお、撮像装置100が、撮像部120がない画像処理装置200である場合、記憶デバイス102または通信IF111からの一連の画像データを取得することになる。取得部201は、たとえば、記憶デバイス102の1つであるバッファメモリである。   The acquisition unit 201 acquires a series of temporally continuous image data captured by the imaging unit 120. The acquisition unit 201 is, for example, a buffer memory that is one of the storage devices 102. When the image capturing apparatus 100 is the image processing apparatus 200 without the image capturing unit 120, a series of image data from the storage device 102 or the communication IF 111 is acquired. The acquisition unit 201 is, for example, a buffer memory that is one of the storage devices 102.

算出部202、除去部203および画像保存部204は、具体的には、たとえば、図1に示した記憶デバイス102に記憶されたプログラムをプロセッサ101に実行させることにより、または、LSI107により実現される。また、第1メモリ205は、記憶デバイス102の1つである。   Specifically, the calculation unit 202, the removal unit 203, and the image storage unit 204 are realized, for example, by causing the processor 101 to execute a program stored in the storage device 102 illustrated in FIG. . The first memory 205 is one of the storage devices 102.

ここで、一連の画像データを、連続する第1画像データ〜第3画像データを例に挙げて説明する。なお、撮像部120は、被写体を撮像して、第1画像データ〜第3画像データの順に出力するものとする。第1画像データは、連続する第1画像データ〜第3画像データの中で、撮像部120から出力された時間的に最古の画像データとする。第2画像データは、第1画像データよりも時間的に後に撮像部120から出力された画像データとする。第3画像データは、第2画像データよりも時間的に後に撮像部120から出力された画像データとする。   Here, a series of image data will be described by taking continuous first image data to third image data as an example. Note that the imaging unit 120 images a subject and outputs the images in the order of first image data to third image data. The first image data is the oldest image data output from the imaging unit 120 among the continuous first image data to third image data. The second image data is image data output from the imaging unit 120 later in time than the first image data. The third image data is image data output from the imaging unit 120 later in time than the second image data.

算出部202は、重み計算部221と、重み調整部222と、重み保存部223と、第2メモリ224と、を有する。重み計算部221は、除去部203によって第1画像データからノイズ除去された第1ノイズ除去画像データおよび第2画像データに基づいて、第1画像データの第1重みを算出する。算出部202は、第1重みを算出する際、第2画像データに先行する過去画像データとして、第1ノイズ除去画像データを第1メモリ205から読み出す。第1画像データは、第2画像データの先行画像データであり、第2画像データは、第1画像データの後続画像データである。   The calculation unit 202 includes a weight calculation unit 221, a weight adjustment unit 222, a weight storage unit 223, and a second memory 224. The weight calculation unit 221 calculates the first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data by the removal unit 203. When calculating the first weight, the calculation unit 202 reads the first noise-removed image data from the first memory 205 as past image data preceding the second image data. The first image data is preceding image data of the second image data, and the second image data is subsequent image data of the first image data.

また、算出部202は、除去部203によって第2画像データからノイズ除去された第2ノイズ除去画像データおよび第3画像データに基づいて、第2画像データの第2重みを算出する。算出部202は、第2重みを算出する際、第3画像データに先行する過去画像データとして、第1メモリ205から第2ノイズ除去画像データを読み出す。第2画像データは、第3画像データの先行画像データであり、第3画像データは、第2画像データの後続画像データである。   The calculating unit 202 calculates the second weight of the second image data based on the second noise-removed image data and the third image data from which noise has been removed from the second image data by the removing unit 203. When calculating the second weight, the calculation unit 202 reads the second noise-removed image data from the first memory 205 as past image data preceding the third image data. The second image data is preceding image data of the third image data, and the third image data is subsequent image data of the second image data.

重みとは、上述したように、時間的に連続する先行画像データと後続画像データとを同一領域で比較した場合の当該領域ごとにおける後続画像データに対する先行画像データの信頼度である。領域とは、1画素以上の画素集合である。領域は画像データ全体であってもよい。   As described above, the weight is the reliability of the preceding image data with respect to the subsequent image data in each region when the temporally continuous preceding image data and the subsequent image data are compared in the same region. A region is a set of one or more pixels. The region may be the entire image data.

ここで、時刻tよりも前にノイズ除去処理された画像データをIoldと表記し、時刻tの画像データをIと表記する。IoldやIを区別しない場合は、単に画像データIと表記する。画像データIは、たとえば、マトリクス状の画素群の各値に対応する行列である。したがって、重みもまた行列により表現され、Wと表記する。重みWの各要素は、画像データI内の領域(x,y)に対応し、その領域の重みwは、たとえば、0.0以上1.0以下の範囲をとる。 Here, image data that has been subjected to noise removal processing before time t is denoted as I old, and image data at time t is denoted as It. If not distinguished I old and I t, simply referred to as image data I. The image data I is, for example, a matrix corresponding to each value of a matrix pixel group. Therefore, the weight is also expressed by a matrix and denoted as W. Each element of the weight W corresponds to a region (x, y) in the image data I, and the weight w of the region ranges from 0.0 to 1.0, for example.

ある領域において、重み(信頼度)wが高いほど、当該領域において、先行画像データと後続画像データとの間で画像のブレが少ない、すなわち、残像が少ないことを示し、重み(信頼度)が低いほど、当該領域において、先行画像データと後続画像データとの間でブレが多い、すなわち、残像が多いことを示す。   The higher the weight (reliability) w in a certain region, the less blurring of the image between the preceding image data and the subsequent image data in the region, that is, the less afterimage, and the weight (reliability) is lower. A lower value indicates that there is more blur between the preceding image data and the subsequent image data in the region, that is, there are more afterimages.

時刻tの後続画像データに対する先行画像データIold内の領域の重みwは、下記式(1)により算出される。 The weight w of the area in the preceding image data I old with respect to the subsequent image data at time t is calculated by the following equation (1).

w=f(I,Iold)・・・(1) w = f (I t , I old ) (1)

関数f(・)は、先行画像データIold内の領域の重みwを求める関数である。なお、領域が先行画像データIoldの全体であれば、重みwは1つの値となる。また、重み計算部221は、先行画像データIoldのチャンネル数に応じて複数の重みWを求めてもよい。先行画像データIoldの領域の重みwは、後続画像データIの類似度が大きいほど大きくするのがよい。領域の重みwの求め方の一例としては下記式(2)がある。 The function f (·) is a function for obtaining the weight w of the area in the preceding image data I old . If the region is the entire preceding image data I old , the weight w is a single value. In addition, the weight calculation unit 221 may obtain a plurality of weights W according to the number of channels of the preceding image data I old . Weight w region of the preceding image data I old is better to increase the greater the similarity of the subsequent image data I t. An example of how to obtain the region weight w is the following equation (2).

Figure 2019149787
Figure 2019149787

関数fx,yは、領域(x,y)の重みwの算出を意味する。xは先行画像データIoldの領域の列方向における位置を示し、yは行方向の位置を示す。また,関数φx,yは領域(x,y)を中心とした近傍領域の部分画像データを取得する関数である。また,||・||はL2ノルムを意味する。また,σは、重みの算出結果を調整するパラメータである。σは上記式(2)の分子の値である画像の差に対する感度を調整するためパラメータであり、σの値を大きくすると画像の差が大きくても重みが大きく算出されることになる。 The function f x, y means calculation of the weight w of the region (x, y). x indicates the position in the column direction of the area of the preceding image data I old , and y indicates the position in the row direction. Further, the function φ x, y is a function for acquiring partial image data of a neighboring region centered on the region (x, y). || · || means the L2 norm. Σ is a parameter for adjusting the weight calculation result. σ is a parameter for adjusting the sensitivity to the image difference, which is the numerator value of the above formula (2). When the value of σ is increased, a large weight is calculated even if the image difference is large.

重み調整部222は、第2メモリ224に保存されている最新の重みWoldに基づいて、重み計算部221によって計算された重みWを調整する。調整済みの重みWを重みW´とする。重み保存部223は、重み調整部222による調整前の重みWをWoldとして第2メモリ224に保存する(式(4)を参照)。第2メモリ224は、記憶デバイス102により構成される。 The weight adjustment unit 222 adjusts the weight W calculated by the weight calculation unit 221 based on the latest weight W old stored in the second memory 224. The adjusted weight W is set as a weight W ′. The weight storage unit 223 stores the weight W before adjustment by the weight adjustment unit 222 as W old in the second memory 224 (see Expression (4)). The second memory 224 is configured by the storage device 102.

調整済みの重みW´は、下記式(3)により算出される。   The adjusted weight W ′ is calculated by the following equation (3).

W´=g(W,Wold)・・・(3) W ′ = g (W, W old ) (3)

関数g(・)は、重みWを調整する関数である。Woldは、下記式(4)のように、調整前の重みWにより更新される。ここでは直接重みWをWoldに更新しているが,重みWのサイズを縮小してWoldに更新してもよい。重みを過去重みWoldと称す。 The function g (•) is a function for adjusting the weight W. W old is updated by the weight W before adjustment as shown in the following equation (4). Although the weight W is directly updated to Wold here, the size of the weight W may be reduced and updated to Wold . The weight referred to as the past weight W old.

old=W・・・(4) W old = W (4)

また、式(3)の右辺は、たとえば、下記式(5)により表現される。   Moreover, the right side of Formula (3) is represented by the following formula (5), for example.

Figure 2019149787
Figure 2019149787

また、調整済みの重みW´に上限や下限を設けたり、一律の調整係数を掛けたりしてもよい。また、式(3)の右辺は、たとえば、下記式(6)により表現されてもよい。   Further, the adjusted weight W ′ may be provided with an upper limit or a lower limit, or may be multiplied by a uniform adjustment coefficient. Moreover, the right side of Formula (3) may be expressed by the following Formula (6), for example.

g(W,Wold)=min(W,Wold)・・・(6) g (W, Wold ) = min (W, Wold ) (6)

上記式(6)は、重みWと過去重みWoldを要素ごとに比較して、値が小さい方の重みwを採用する。このようにして、調整済みの重みW´の領域の重みw´は、調整前の重みwに比べて小さくなる。 In the above equation (6), the weight W and the past weight W old are compared for each element, and the weight w having the smaller value is adopted. In this way, the weight w ′ of the adjusted weight W ′ area is smaller than the weight w before adjustment.

ここで、上述した第1画像データ〜第3画像データを例に挙げて、重みWの調整について説明する。なお、第1画像データを先行画像データとし、第1画像データからノイズ除去された第1ノイズ除去画像データを過去画像Ioldとした場合の重みWを重みW1とする。また、第2画像データを先行画像データとし、第2画像データからノイズ除去された第2ノイズ除去画像データを過去画像Ioldとした場合の重みWを重みW2とする。また、第3画像データを先行画像データとし、第3画像データからノイズ除去された第3ノイズ除去画像データを過去画像Ioldとした場合の重みWを重みW3とする。 Here, the adjustment of the weight W will be described by taking the first to third image data described above as an example. The weight W when the first image data is the preceding image data and the first noise-removed image data from which the noise has been removed from the first image data is the past image I old is the weight W1. Further, the weight W when the second image data is the preceding image data and the second noise-removed image data from which the noise has been removed from the second image data is the past image I old is the weight W2. Further, the weight W when the third image data is the preceding image data and the third noise-removed image data from which noise has been removed from the third image data is the past image I old is the weight W3.

なお、第1画像データが動画像データの先頭画像データである場合、第1画像データに先行する画像データは存在しないため、重みW1は重み調整部222によって調整されずに、重み保存部223により第2メモリ224に過去重みWoldとして保存される。第1画像データおよび第2画像データにより重みW2が計算された場合、重み調整部222は、第2メモリ224から過去重みWold(=重みW1)を読みだして、上記式(5)により重みW2と乗算して、調整済みの重みW2´を算出する。重み保存部223は、調整前の重みW2を過去重みWoldとして第2メモリ224に保存する。 Note that when the first image data is the head image data of the moving image data, there is no image data preceding the first image data, so the weight W1 is not adjusted by the weight adjustment unit 222 but is stored by the weight storage unit 223. It is stored in the second memory 224 as a past weight World . When the weight W2 is calculated from the first image data and the second image data, the weight adjustment unit 222 reads the past weight W old (= weight W1) from the second memory 224, and calculates the weight by the above equation (5). Multiplying by W2, the adjusted weight W2 'is calculated. The weight storage unit 223 stores the weight W2 before adjustment in the second memory 224 as the past weight Wold .

また、第2画像データおよび第3画像データにより重みW3が計算された場合、重み調整部222は、第2メモリ224から重みWold(=重みW2)を読みだして、上記式(5)により、重みW3と乗算して、調整済みの重みW3´を算出する。重み保存部223は、調整前の重みW3をWoldとして第2メモリ224に保存する。 Further, when the weight W3 is calculated from the second image data and the third image data, the weight adjustment unit 222 reads the weight W old (= weight W2) from the second memory 224, and uses the above equation (5). Multiply the weight W3 to calculate the adjusted weight W3 ′. The weight storage unit 223 stores the weight W3 before adjustment in the second memory 224 as the Old .

除去部203は、調整済みの重みW´に基づいて、ノイズ除去対象の画像データのノイズを除去し、ノイズ除去画像データを出力する。具体的には、たとえば、除去部203は、調整済みの重みW´を用いた重み付け平均により、ノイズ除去対象の画像データのノイズを除去する。重み付け平均は、たとえば、下記式(7)により表現される。   Based on the adjusted weight W ′, the removal unit 203 removes noise from the image data targeted for noise removal, and outputs noise-removed image data. Specifically, for example, the removing unit 203 removes noise from the image data to be denoised by weighted averaging using the adjusted weight W ′. The weighted average is expressed by, for example, the following formula (7).

Figure 2019149787
Figure 2019149787

上記式(7)において、Ioutは、ノイズ除去された画像データ(ノイズ除去画像データ)である。 In the above equation (7), I out is image data from which noise has been removed (noise-removed image data).

画像保存部204は,除去部203から出力されたノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する。第1メモリ205は、記憶デバイス102により構成される。 The image storage unit 204 stores the noise-removed image data Iout output from the removal unit 203 in the first memory 205 as past image data Iold . The first memory 205 is configured by the storage device 102.

<再帰的ノイズ除去処理>
図3は、実施例1にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。図4は、調整済みの重みW´による再帰的ノイズ除去例を示す説明図である。図4の比較例として、図5を例示する。図5は、調整済みの重みW´を適用しない再帰的ノイズ除去例を示す説明図である。なお、図4および図5において図3のステップに該当する箇所には、図3のステップ番号を付す。なお、図5では調整済みの重みW´を適用しないため、ステップS304〜S306は存在しない。また、図4および図5では、撮像装置100は、撮像方向を固定しており、被写体像が左から右に移動する動画像データを撮像する場合を例に挙げて説明する。
<Recursive noise removal processing>
FIG. 3 is a flowchart illustrating an example of a recursive noise removal procedure performed by the imaging apparatus 100 according to the first embodiment. FIG. 4 is an explanatory diagram illustrating an example of recursive noise removal using the adjusted weight W ′. FIG. 5 is illustrated as a comparative example of FIG. FIG. 5 is an explanatory diagram showing an example of recursive noise removal that does not apply the adjusted weight W ′. 4 and 5, the steps corresponding to the steps in FIG. 3 are given the step numbers in FIG. In FIG. 5, the adjusted weight W ′ is not applied, so steps S304 to S306 do not exist. 4 and 5, an example in which the imaging apparatus 100 captures moving image data in which the imaging direction is fixed and the subject image moves from left to right will be described.

まず、図4および図5の中央点線の左側について、図3を用いて説明する。撮像装置100は、取得部201により現在画像データを取得して読み込み(ステップS301)、過去画像データを第1メモリ205から読み込む(ステップS302)。ここで、現在画像データとは、時刻t−1の後続画像データI(t−1)であり、過去画像データとは、時刻(t−1)以前の時刻(t−2)の先行画像データからノイズ除去されたノイズ除去画像データ、すなわちIoldである。Ioldには、被写体像OB(t−2)が存在するものとする。 First, the left side of the central dotted line in FIGS. 4 and 5 will be described with reference to FIG. The imaging apparatus 100 acquires and reads current image data by the acquisition unit 201 (step S301), and reads past image data from the first memory 205 (step S302). Here, the current image data is the subsequent image data I (t−1) at time t−1, and the past image data is the preceding image data at time (t−2) before time (t−1). The noise-removed image data from which noise has been removed, that is, I old . It is assumed that the subject image OB (t−2) exists in I old .

撮像装置100は、重み計算部221により、過去画像データIoldと現在画像データI(t−1)とを式(2)に与えて、重みW(t−1)を計算する(ステップS303)。過去画像データIoldと現在画像データI(t−1)とにおいて、同一領域の画像が類似するほど、重みは大きくなり、類似しなくなるほど、小さくなる。したがって、過去画像データIoldと現在画像データI(t−1)とにおいて、被写体像OB(t−2),OB(t−1)がいずれも存在しない領域は、ほぼ同じ画像となり、当該領域の重みw(t−1)は、たとえば、最大値の1.0となる。 The imaging apparatus 100 uses the weight calculation unit 221 to give the past image data I old and the current image data I (t−1) to Equation (2) and calculate the weight W (t−1) (step S303). . In the past image data I old and the current image data I (t−1), the weight is increased as the images in the same region are similar, and the weight is decreased as the images are not similar. Therefore, in the past image data I old and the current image data I (t−1), areas where neither the subject images OB (t−2) nor OB (t−1) exist are substantially the same image. For example, the weight w (t−1) is 1.0, which is the maximum value.

一方、過去画像データIoldと現在画像データI(t−1)とにおいて、被写体像OB(t−2),OB(t−1)のいずれか一方が存在する領域は、異なる画像となり、当該領域の重みw(t−1)は低くなる。ここでは、例として、当該領域の重みw(t−1)を0.0とする。なお、被写体像OB(t−2),OB(t−1)の境界部分の領域については、被写体像OB(t−2),OB(t−1)のいずれか一方が存在する領域よりも類似している。ここでは、例として、当該領域の重みw(t−1)を0.5とする。 On the other hand, in the past image data I old and the current image data I (t−1), the region where one of the subject images OB (t−2) and OB (t−1) exists is a different image, The area weight w (t−1) is low. Here, as an example, the weight w (t−1) of the area is set to 0.0. Note that the area at the boundary between the subject images OB (t−2) and OB (t−1) is greater than the region in which one of the subject images OB (t−2) and OB (t−1) exists. It is similar. Here, as an example, the weight w (t−1) of the area is set to 0.5.

つぎに、撮像装置100は、第2メモリ224から過去重みWoldを読み込む(ステップS304)。この過去重みWoldを例として、全要素の値が「1.0」の行列とする。撮像装置100は、重み調整部222により、第2メモリ224からの過去重みWoldと、ステップS303で重み計算した重みW(t−1)とを式(3)に与えて、調整済みの重みW´を出力する(ステップS305)。 Next, the imaging apparatus 100 reads the past weighting W old from the second memory 224 (step S304). Taking this past weight Wold as an example, it is assumed that all elements have a value of “1.0”. The imaging apparatus 100 uses the weight adjustment unit 222 to give the past weight W old from the second memory 224 and the weight W (t−1) calculated in step S303 to Equation (3) to adjust the adjusted weight. W ′ is output (step S305).

調整済みの重みW´は、たとえば、式(5)に示したように、過去重みWoldと、重みW(t)との積により求められる。過去重みWoldは全要素の値が「1.0」の行列であるため、調整済みの重みW´は、重み計算した重みW(t−1)と同じである。 The adjusted weight W ′ is obtained, for example, by the product of the past weight W old and the weight W (t) as shown in Expression (5). Since the past weight W old is a matrix whose values of all elements are “1.0”, the adjusted weight W ′ is the same as the weight W (t−1) calculated by weight.

そして、撮像装置100は、第2メモリ224に調整前の重みW(t−1)を格納して、あらたな過去重みWoldとする(ステップS306)。 Then, the imaging apparatus 100 stores the weight W (t−1) before adjustment in the second memory 224 and sets it as a new past weight Wold (step S306).

撮像装置100は、除去部203により、過去画像データIoldと現在画像データI(t−1)と調整済みの重みW´とを式(7)に与えて、現在画像データI(t−1)からノイズを除去し(ステップS307)、ノイズ除去画像データIout(t−1)を出力する(ステップS308)。出力されたノイズ除去画像データIout(t−1)は、表示デバイス110に表示される。ノイズ除去画像データIout(t−1)は、現在画像データI(t−1)と同じ位置に被写体像OB(t−1)が存在し、過去画像データIoldの被写体像OB(t−2)と同じ位置に残像A(t−2)が存在する。残像A(t−2)は、主に、被写体像OB(t−2)の輪郭が際立った画像データとなる。 The imaging apparatus 100 gives the past image data I old , the current image data I (t−1), and the adjusted weight W ′ to the equation (7) by the removal unit 203, and the current image data I (t−1). ) Is removed (step S307), and noise-removed image data I out (t−1) is output (step S308). The output noise-removed image data I out (t−1) is displayed on the display device 110. In the noise-removed image data I out (t−1), the subject image OB (t−1) exists at the same position as the current image data I (t−1), and the subject image OB (t−) of the past image data I old An afterimage A (t-2) exists at the same position as 2). The afterimage A (t-2) is mainly image data in which the contour of the subject image OB (t-2) is conspicuous.

また、撮像装置100は、画像保存部204により、ノイズ除去画像データIout(t−1)を第1メモリ205に出力し、過去画像データIoldを更新する(ステップS309)。このあと、撮像装置100は、たとえば、ユーザの動作撮影の終了操作入力により、画像処理が終了するか否かを判断する(ステップS310)。終了しない場合(ステップS310:No)、撮像装置100は、取得部201におけるバッファメモリの読み込み位置を更新し(ステップS311)、ステップS301に戻る。 In addition, the imaging apparatus 100 outputs the noise-removed image data I out (t−1) to the first memory 205 by the image storage unit 204 and updates the past image data I old (step S309). Thereafter, the imaging apparatus 100 determines whether or not the image processing is to be ended, for example, according to a user operation shooting end operation input (step S310). If not finished (step S310: No), the imaging apparatus 100 updates the reading position of the buffer memory in the acquisition unit 201 (step S311), and returns to step S301.

つぎに、図4および図5の中央点線の右側について、図3を用いて説明する。撮像装置100は、取得部201により時刻tの現在画像データI(t)を取得して読み込み(ステップS301)、過去画像データIoldを第1メモリ205から読み込む(ステップS302)。ここで、過去画像データIoldは、ステップS309で得られたノイズ除去画像データIout(t−1)である。 Next, the right side of the center dotted line in FIGS. 4 and 5 will be described with reference to FIG. The imaging apparatus 100 acquires and reads the current image data I (t) at time t by the acquisition unit 201 (step S301), and reads the past image data I old from the first memory 205 (step S302). Here, the past image data I old is the noise-removed image data I out (t−1) obtained in step S309.

撮像装置100は、重み計算部221により、過去画像データIoldと現在画像データI(t)とを式(2)に与えて、重みW(t)を計算する(ステップS303)。過去画像データIoldと現在画像データI(t)とにおいて、同一領域の画像が類似するほど、重みは大きくなり、類似しなくなるほど、小さくなる。したがって、過去画像データIoldと現在画像データI(t)とにおいて、被写体像OB(t−1),OB(t)がいずれも存在しない領域は、ほぼ同じ画像となり、当該領域の重みw(t)は、たとえば、最大値の1.0となる。 The imaging apparatus 100 uses the weight calculation unit 221 to give the past image data I old and the current image data I (t) to the equation (2), and calculates the weight W (t) (step S303). In the past image data I old and the current image data I (t), the weight increases as the images in the same region are similar, and decreases as the images are not similar. Accordingly, in the past image data I old and the current image data I (t), areas where neither the subject images OB (t−1) and OB (t) exist are substantially the same image, and the weight w ( t) is, for example, the maximum value of 1.0.

一方、過去画像データIoldと現在画像データI(t)とにおいて、被写体像OB(t−1),OB(t)のいずれか一方が存在する領域は、異なる画像となり、当該領域の重みw(t)は低くなる。ここでは、例として、当該領域の重みw(t)を0.0とする。なお、被写体像OB(t−1),OB(t)の境界部分の領域については、被写体像OB(t−1),OB(t)のいずれか一方が存在する領域よりも類似している。ここでは、例として、当該領域の重みw(t)を0.5とする。また、過去画像データIold(ノイズ除去画像データIout(t−1))において、残像A(t−2)が存在する領域の重みを0.75とする。 On the other hand, in the past image data I old and the current image data I (t), the area where one of the subject images OB (t−1) and OB (t) exists is a different image, and the weight w of the area (T) becomes low. Here, as an example, the weight w (t) of the area is set to 0.0. Note that the boundary area between the subject images OB (t−1) and OB (t) is more similar to the region where one of the subject images OB (t−1) and OB (t) exists. . Here, as an example, the weight w (t) of the area is set to 0.5. In the past image data I old (noise-removed image data I out (t−1)), the weight of the region where the afterimage A (t−2) exists is set to 0.75.

つぎに、撮像装置100は、第2メモリ224から過去重みWoldを読み込む(ステップS304)。この過去重みWoldは、ステップS306で先に算出された重みW(t−1)である。撮像装置100は、重み調整部222により、第2メモリ224からの過去重みWoldと、ステップS303で重み計算した重みW(t)とを式(3)に与えて、調整済みの重みW´を出力する(ステップS305)。 Next, the imaging apparatus 100 reads the past weighting W old from the second memory 224 (step S304). This past weight W old is the weight W (t−1) previously calculated in step S306. The imaging apparatus 100 gives the weight W ′ adjusted after the weight adjustment unit 222 gives the past weight W old from the second memory 224 and the weight W (t) calculated in step S303 to Equation (3). Is output (step S305).

調整済みの重みW´は、たとえば、式(5)に示したように、過去重みWoldと、重みW(t)との積により求められる。この場合の過去重みWoldは、ステップS306で先に算出された重みW(t−1)であるため、残像A(t−2)が存在する領域内部の重みw(t)は0になり、輪郭の重みw(t)は、0.375(=0.75×0.5)となる。また、残像A(t−1)が存在する領域内部の重みw(t)は0(=0.0×0.0)のままであるが、輪郭の重みw(t)は0.25(=0.5×0.5)である。 The adjusted weight W ′ is obtained, for example, by the product of the past weight W old and the weight W (t) as shown in the equation (5). Since the past weight W old in this case is the weight W (t−1) previously calculated in step S306, the weight w (t) inside the region where the afterimage A (t−2) exists becomes 0. The contour weight w (t) is 0.375 (= 0.75 × 0.5). Further, the weight w (t) inside the region where the afterimage A (t−1) exists remains 0 (= 0.0 × 0.0), but the contour weight w (t) is 0.25 ( = 0.5 × 0.5).

そして、撮像装置100は、第2メモリ224に調整前の重みW(t)を格納して、あらたな過去重みWoldとする(ステップS306)。 Then, the imaging apparatus 100 stores the weight W (t) before adjustment in the second memory 224 and sets it as a new past weight Wold (step S306).

撮像装置100は、除去部203により、過去画像データIoldと現在画像データI(t)と調整済みの重みW´とを式(7)に与えて、現在画像データI(t)からノイズを除去し(ステップS307)、ノイズ除去画像データIout(t)を出力する(ステップS308)。出力されたノイズ除去画像データIout(t)は、表示デバイス110に表示される。ノイズ除去画像データIout(t)は、現在画像データI(t)と同じ位置に被写体像OB(t)が存在し、過去画像データIoldの被写体像OB(t−1)と同じ位置に残像A(t−1)が存在し、さらに、被写体像OB(t−2)と同じ位置に残像A(t−2)が存在する。 The imaging apparatus 100 gives the past image data I old , the current image data I (t), and the adjusted weight W ′ to the equation (7) by the removing unit 203, and generates noise from the current image data I (t). It removes (step S307), and outputs noise-removed image data I out (t) (step S308). The output noise-removed image data I out (t) is displayed on the display device 110. In the noise-removed image data I out (t), the subject image OB (t) exists at the same position as the current image data I (t), and at the same position as the subject image OB (t−1) of the past image data I old. There is an afterimage A (t-1), and there is an afterimage A (t-2) at the same position as the subject image OB (t-2).

また、撮像装置100は、画像保存部204により、ノイズ除去画像データIout(t)を第1メモリ205に出力し、過去画像データIoldを更新する(ステップS309)。このあと、撮像装置100は、たとえば、ユーザの動作撮影の終了操作入力により、画像処理が終了するか否かを判断する(ステップS310)。終了する場合(ステップS310:Yes)、撮像装置100は、画像処理を終了する。 In addition, the imaging apparatus 100 outputs the noise-removed image data I out (t) to the first memory 205 by the image storage unit 204 and updates the past image data I old (step S309). Thereafter, the imaging apparatus 100 determines whether or not the image processing is to be ended, for example, according to a user operation shooting end operation input (step S310). When ending (step S310: Yes), the imaging apparatus 100 ends the image processing.

このように、過去画像データIoldと現在画像データI(t−1),I(t)との間で変換のない領域では過去画像データIoldを参照するための重みW(t−1),W(t)が大きくなるため、結果的に使用メモリを削減しつつノイズ除去率を増加させることができる。 As described above, the weight W (t−1) for referring to the past image data I old in an area where there is no conversion between the past image data I old and the current image data I (t−1) and I (t). , W (t) increases, and as a result, the noise removal rate can be increased while reducing the memory used.

ただし、図5の例の場合、過去画像データIoldと現在画像データI(t−1),I(t)との間で重みの算出がうまくいっていない領域、すなわち失敗している領域がある場合、その結果も保持される。したがって、長期にわたり失敗が残ってしまう。これが残像として画質を著しく劣化させてしまう原因となる。 However, in the example of FIG. 5, there is a region where weight calculation is not successful between the past image data I old and the current image data I (t−1), I (t), that is, a region that has failed. If so, the result is also retained. Therefore, failure remains for a long time. This causes a significant deterioration in image quality as an afterimage.

たとえば、図5の中の太矢印5A1で示した被写体像OB(t−2)の輪郭の残像A(t−2)のように、次のフレーム(画像データI(t))でのステップS303の重み算出結果が太矢印5a1のように大きくなっており(w(t−1)=0.75)、結果として太矢印5A2のように失敗した輪郭の残像A(t−2)が残ってしまっている。   For example, step S303 in the next frame (image data I (t)) like the afterimage A (t-2) of the contour of the subject image OB (t-2) indicated by the thick arrow 5A1 in FIG. The weight calculation result is increased as indicated by the thick arrow 5a1 (w (t-1) = 0.75), and as a result, the afterimage A (t-2) of the failed contour remains as indicated by the thick arrow 5A2. I'm stuck.

一方、実施例1の撮像装置100は、過去画像データIoldに、その時算出した重みが付随した状態で保持され、これを再利用する。これにより、残像が発生しているような信頼度の低い領域で過去画像データIoldを参照するための重みW(t−1),W(t)が小さくなりやすくなるため、結果的に残像発生を抑制することができる。 On the other hand, the imaging apparatus 100 according to the first embodiment holds the past image data I old with the weight calculated at that time, and reuses it. As a result, the weights W (t−1) and W (t) for referring to the past image data I old tend to be small in an area with low reliability where an afterimage is generated. Occurrence can be suppressed.

たとえば、図4中の太矢印4B1で示した被写体像OB(t−2)の輪郭の重みw(t−1)が太矢印4b1のように大きく出ている一方(0.75)、調整を掛けた太矢印4b2では重みw(t)が小さくなっており(0.375=0.5×0.75)、結果として太矢印5B2のように失敗した輪郭の残像A(t−2)の残り具合が低減できている。   For example, while the weight w (t-1) of the outline of the subject image OB (t-2) indicated by the thick arrow 4B1 in FIG. 4 is large as indicated by the thick arrow 4b1 (0.75), the adjustment is performed. In the thick arrow 4b2, the weight w (t) is small (0.375 = 0.5 × 0.75). As a result, the afterimage A (t−2) of the failed contour as indicated by the thick arrow 5B2 is obtained. The remaining condition can be reduced.

このように、図5の場合、ノイズ除去精度が図4に比べて低いため、図4と同等のノイズ除去精度を出すためには、過去の画像データの枚数を図4の場合よりも第1メモリ205に多く保持しておく必要があり、メモリ使用量が増加する。これに対し、図4では、直近の過去画像データを第1メモリ205に保持しておけばよいため、ノイズ除去精度の向上と省メモリ化とを両立することができる。   Thus, in the case of FIG. 5, since the noise removal accuracy is lower than that in FIG. 4, in order to obtain the same noise removal accuracy as in FIG. It is necessary to store a large amount in the memory 205, and the memory usage increases. On the other hand, in FIG. 4, since it is sufficient to store the latest past image data in the first memory 205, it is possible to achieve both improvement in noise removal accuracy and memory saving.

実施例2は、画像データに含まれる空間情報を利用することで残像の発生を抑制する例である。なお、実施例2では、実施例1との相違点を中心に説明し、実施例1と共通部分については同一符号を用いて説明を省略する。   The second embodiment is an example in which afterimage generation is suppressed by using spatial information included in image data. In the second embodiment, differences from the first embodiment will be mainly described, and the same parts as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted.

<撮像装置100の機能的構成例>
図6は、実施例2にかかる撮像装置100の機能的構成例を示すブロック図である。実施例2の算出部602は、空間情報抽出部621と、重み計算部622と、を有する。空間情報抽出部621は、抽出対象となる画像データから空間情報を抽出する。抽出対象となる画像データは、過去画像データIoldまたは現在画像データIの少なくとも一方である。両方の画像データIold,Iを用いる場合、空間情報抽出部621は、各々の画像データIについて空間情報を抽出し、2つの空間情報の平均を算出したり、最大値を選択したり、αブレンドを算出してもよい。
<Functional Configuration Example of Imaging Device 100>
FIG. 6 is a block diagram of a functional configuration example of the imaging apparatus 100 according to the second embodiment. The calculation unit 602 according to the second embodiment includes a spatial information extraction unit 621 and a weight calculation unit 622. The spatial information extraction unit 621 extracts spatial information from image data to be extracted. The image data subject to extraction is at least one of the past image data I old or current image data I t. Both the image data I old, when using the I t, the spatial information extracting unit 621 extracts spatial information for each of the image data I, or calculates the average of the two spatial information, or to select a maximum value, An α blend may be calculated.

空間情報とは、抽出対象となる画像データに含まれる空間構造の特徴を示す情報であり、具体的には、たとえば、空間周波数成分がある。空間周波数成分の場合、たとえば、空間情報抽出部621は、下記式(8)〜(13)のように、2種類のサイズのローパスフィルタを用いて低周波成分Slowと高周波成分Shighを抽出することができる。 Spatial information is information indicating the characteristics of the spatial structure included in the image data to be extracted, and specifically includes, for example, a spatial frequency component. In the case of the spatial frequency component, for example, the spatial information extraction unit 621 extracts the low frequency component S low and the high frequency component S high using two types of low-pass filters as in the following formulas (8) to (13). can do.

Figure 2019149787
Figure 2019149787

式(8),(9)のIは、抽出対象となる画像データである。また、式(11)の関数abs(・)は、領域(x,y)ごとの絶対値を算出する関数である。式(13)は、式(8),(9)に代入される。式(8)に代入される場合、式(13)は、Hσ1(x,y)となり、σはσとなる。同様に、式(9)に代入される場合、式(13)は、Hσ2(x,y)となり、σはσとなる。 I in the equations (8) and (9) is image data to be extracted. In addition, the function abs (·) in the equation (11) is a function for calculating an absolute value for each region (x, y). Expression (13) is assigned to Expressions (8) and (9). When assigned to Equation (8), Equation (13) becomes H σ1 (x, y), and σ becomes σ 1 . Similarly, when assigned to equation (9), equation (13) becomes H σ2 (x, y), and σ becomes σ 2 .

なお、抽出対象となる画像データIについては、空間情報を抽出しやすくするために事前に画像データIに変換を掛けてもよい。さらに、空間情報抽出部621は、低周波成分Slowと高周波成分Shighの2成分だけでなく複数の帯域の周波数成分を算出してもよい。 For the image data I to be extracted, the image data I may be converted in advance in order to facilitate the extraction of spatial information. Further, the spatial information extraction unit 621 may calculate not only two components of the low frequency component S low and the high frequency component S high but also frequency components of a plurality of bands.

重み計算部622は、現在画像データと、過去画像データと、空間情報抽出部621によって抽出された空間情報と、に基づいて、過去画像データの重みWを計算する。残像が目立ちやすい領域は明るい領域であったり、エッジ付近(過去画像データにおける被写体像の輪郭)のようにであったりすることが多い。このため、そのような領域の重みを小さくするのがよい。   The weight calculation unit 622 calculates the weight W of the past image data based on the current image data, the past image data, and the spatial information extracted by the spatial information extraction unit 621. In many cases, an afterimage is conspicuous in a bright area or near an edge (a contour of a subject image in past image data). For this reason, it is preferable to reduce the weight of such a region.

そこで、まず明るい領域を判断するため、重み計算部622は、低周波成分Slowを用いて下記式(14),(15)のような処理を実行する。 Therefore, first, in order to determine a bright region, the weight calculation unit 622 executes processing such as the following formulas (14) and (15) using the low frequency component S low .

Figure 2019149787
Figure 2019149787

式(14)のSlow,It,Slow,Ioldは、それぞれ現在画像データIと過去画像データIoldの低周波成分Slowを意味する。式(14)のmax(・)は、領域(x,y)ごとに最大値を算出する関数である。式(15)のS´lowは、現在画像データIと過去画像データIoldの低周波成分Slowの最大値となるが、平均値でもよい。 S low,, S low of formula (14), Iold each means a low-frequency component S low current image data I t and the past image data I old. In formula (14), max (·) is a function for calculating the maximum value for each region (x, y). S'low of formula (15) is the maximum value of the low frequency components S low current image data I t and the past image data I old, or an average value.

また、σ(・)は領域(x,y)ごとに値を算出するシグモイド関数で、入力値が大きいほど1に近づく。Tlowはしきい値を表すパラメータである。これにより、式(15)の低周波成分Slowによる調整値Klowは、低周波成分Slowが大きいほど、すなわち、明るい領域ほど小さい値になる。 Also, σ (•) is a sigmoid function that calculates a value for each region (x, y), and approaches 1 as the input value increases. T low is a parameter representing a threshold value. Thereby, the adjustment value K low by the low frequency component S low in the equation (15) becomes smaller as the low frequency component S low is larger, that is, the brighter region is.

次にエッジ付近を判断するため、重み計算部622は、高周波成分Shighを用いて下記式(16),(17)のような処理を実行する。 Next, in order to determine the vicinity of the edge, the weight calculation unit 622 executes processing such as the following formulas (16) and (17) using the high- frequency component S high .

Figure 2019149787
Figure 2019149787

式(16)のShigh,It,Shigh,Ioldは、それぞれ現在画像データIと過去画像データIoldの高周波成分Shighを意味する。式(16)のmax(・)は、領域(x,y)ごとに最大値を算出する関数である。式(17)のS´highは、現在画像データIと過去画像データIoldの高周波成分Shighの最大値となるが、平均値でもよい。 S high, It, S high expression (16), Iold each means a high-frequency component S high current image data I t and the past image data I old. In formula (16), max (·) is a function for calculating the maximum value for each region (x, y). S'high expression (17) is the maximum value of the high frequency component S high current image data I t and the past image data I old, or an average value.

また、σ(・)は領域(x,y)ごとに値を算出するシグモイド関数で、入力値が大きいほど1に近づく。Thighはしきい値を表すパラメータである。これにより、式(17)の高周波成分Shighによる調整値Khighは、高周波成分Shighが大きいほど、すなわち、エッジ付近であるほど小さい値になる。 Also, σ (•) is a sigmoid function that calculates a value for each region (x, y), and approaches 1 as the input value increases. T high is a parameter representing a threshold value. Accordingly, the adjustment value K high due to the high frequency component S high the formula (17), the more high-frequency component S high is large, i.e., the smaller value is near the edge.

求められた低周波成分Slowによる調整値Klowと高周波成分Shighによる調整値Khighとを用いて,最終的に更新された重みWnewは、下記式(18)で求められる。除去部203は、更新済みの重みWnewを用いて、実施例1と同様な処理で現在画像データIからノイズを除去し、ノイズ除去画像データとして出力する。また、画像保存部204は、ノイズ除去画像データを過去画像データIoldとして第1メモリ205に保存する。 By using the adjustment value K high by the adjustment value K low and the high frequency component S high by the low-frequency component S low obtained finally updated weights W new new is calculated by the following formula (18). Removing section 203, using the updated weights W new new, it removes noise from the current image data I t in the same treatment as in Example 1, and outputs the noise-free image data. Further, the image storage unit 204 stores the noise-removed image data in the first memory 205 as past image data I old .

Figure 2019149787
Figure 2019149787

式(18)において、右辺のWは、過去画像データIoldを参照するための重みである。式(18)で重みWを重みWnewに更新することにより、残像が目立ちやすい領域である明るい領域やエッジ付近の重みが小さくなるため、残像発生を抑制することができる。ここでは現在画像データIと過去画像データIoldの低周波成分Slowおよび高周波成分Shighを用いたが、低周波成分Slowおよび高周波成分Shighのいずれか一方だけを用いてもよい。 In Expression (18), W on the right side is a weight for referring to the past image data I old . By updating the weight W to the weight W new by the equation (18), the weight in the bright area and the edge vicinity where the afterimage is conspicuous becomes small, and thus the afterimage generation can be suppressed. Here it is used a low-frequency component S low and high frequency components S high current image data I t and the past image data I old, may be used only one of the low-frequency component S low and high frequency components S high.

<再帰的ノイズ除去処理>
図7は、実施例2にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例2では、図3と比較した場合、ステップS303〜S306が存在せず、ステップS302のあと、撮像装置100は、空間情報抽出部621により、空間情報抽出処理を実行する(ステップS701)。つぎに、撮像装置100は、重み計算部622により、調整重みWnewを計算する(ステップS702)。このあと、撮像装置100は、除去部203により、調整重みWnewを用いて、現在画像データIからノイズを除去し(ステップS307)、ノイズ除去画像データIoutを表示デバイス110に出力する(ステップS308)。
<Recursive noise removal processing>
FIG. 7 is a flowchart illustrating an example of a recursive noise removal procedure performed by the imaging apparatus 100 according to the second embodiment. In the second embodiment, when compared with FIG. 3, steps S303 to S306 do not exist, and after step S302, the imaging apparatus 100 performs a spatial information extraction process by the spatial information extraction unit 621 (step S701). Next, the imaging apparatus 100 calculates the adjustment weight W new by the weight calculation unit 622 (step S702). Thereafter, the imaging apparatus 100, the removal unit 203, by using the adjustment weighting W new new, current noise is removed from image data I t (step S307), and outputs the noise-free image data I out to the display device 110 ( Step S308).

撮像装置100は、画像保存部204により、ノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する(ステップS309)。このような処理を撮像が終了するまで、再帰的に実行することで、残像が目立ちやすい領域での重みが低く調整され、結果的に残像発生を抑制することができる。 The imaging apparatus 100 stores the noise-removed image data I out as past image data I old in the first memory 205 by the image storage unit 204 (step S309). By executing such a process recursively until the imaging is completed, the weight in a region where the afterimage is conspicuous is adjusted to be low, and as a result, the occurrence of the afterimage can be suppressed.

実施例3は、実施例1において、実施例2の空間情報抽出部621を適用した例である。実施例3では、実施例1,2との相違点を中心に説明し、実施例1,2と共通部分については同一符号を用いて説明を省略する。   The third embodiment is an example in which the spatial information extraction unit 621 of the second embodiment is applied to the first embodiment. The third embodiment will be described with a focus on differences from the first and second embodiments, and the same parts as those in the first and second embodiments will be described using the same reference numerals.

<撮像装置100の機能的構成例>
図8は、実施例3にかかる撮像装置100の機能的構成例を示すブロック図である。実施例3の場合、算出部802は、空間情報抽出部621と、重み計算部622と、重み調整部222と、重み保存部223と、第2メモリ224と、を有する。重み調整部222は、第2メモリ224に保存されている最新の重みWoldに基づいて、重み計算部622で更新された重みWnewを調整する。
<Functional Configuration Example of Imaging Device 100>
FIG. 8 is a block diagram of a functional configuration example of the imaging apparatus 100 according to the third embodiment. In the case of the third embodiment, the calculation unit 802 includes a spatial information extraction unit 621, a weight calculation unit 622, a weight adjustment unit 222, a weight storage unit 223, and a second memory 224. The weight adjustment unit 222 adjusts the weight W new updated by the weight calculation unit 622 based on the latest weight W old stored in the second memory 224.

調整された更新済みの重みWnewを調整済み重みW´とする。重み保存部223は、重み調整部222による調整前の重みWnewを過去重みWoldとして第2メモリ224に保存する。具体的には、たとえば、重み調整部222は、重み調整部222で用いる式(3)〜(7)のWをWnewに置き換えて重みWnewを調整することになる。 The adjusted updated weight W new is set as an adjusted weight W ′. The weight storage unit 223 stores the weight W new before adjustment by the weight adjustment unit 222 in the second memory 224 as the past weight W old . Specifically, for example, the weight adjustment unit 222 adjusts the weight W new by replacing W in the equations (3) to (7) used in the weight adjustment unit 222 with W new .

<再帰的ノイズ除去処理>
図9は、実施例3にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例3では、図3と比較した場合、ステップS303が存在せず、ステップS302のあと、撮像装置100は、空間情報抽出部621により、空間情報抽出処理を実行する(ステップS701)。つぎに、撮像装置100は、重み計算部622により、重みWnewを計算する(ステップS702)。
<Recursive noise removal processing>
FIG. 9 is a flowchart illustrating an example of a recursive noise removal procedure performed by the imaging apparatus 100 according to the third embodiment. In Example 3, when compared with FIG. 3, Step S303 does not exist, and after Step S302, the imaging apparatus 100 performs a spatial information extraction process by the spatial information extraction unit 621 (Step S701). Next, the imaging apparatus 100 calculates the weight W new by the weight calculation unit 622 (step S702).

撮像装置100は、過去重みWoldを第2メモリ224から読み出し(ステップS304)、重み調整部222により、過去重みWoldで重みWnewを調整し、調整済み重みW´を除去部203に出力するとともに、調整前の重みWnewを重み保存部223に出力する(ステップS305)。そして、重み保存部223は、調整前の重みWnewを第2メモリ224に保存して、過去重みWoldを更新する(ステップS306)。 The imaging apparatus 100 reads the past weight W old from the second memory 224 (step S304), the weight adjusting unit 222 adjusts the weight W new with the past weight W old , and outputs the adjusted weight W ′ to the removing unit 203. At the same time, the weight W new before adjustment is output to the weight storage unit 223 (step S305). Then, the weight storage unit 223 stores the weight W new before adjustment in the second memory 224, and updates the past weight W old (step S306).

このあと、撮像装置100は、除去部203により、調整済み重みW´を用いて、現在画像データIからノイズを除去し(ステップS307)、ノイズ除去画像データIoutを表示デバイス110に出力する(ステップS308)。撮像装置100は、画像保存部204により、ノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する(ステップS309)。このような処理を撮像が終了するまで、再帰的に実行することで、残像が目立ちやすい領域での重みが低く調整され、結果的に残像発生を抑制することができる。 Thereafter, the imaging apparatus 100, the removal unit 203, by using the adjusted weight W', the current noise is removed from image data I t (step S307), and outputs the noise-free image data I out to the display device 110 (Step S308). The imaging apparatus 100 stores the noise-removed image data I out as past image data I old in the first memory 205 by the image storage unit 204 (step S309). By executing such a process recursively until the imaging is completed, the weight in a region where the afterimage is conspicuous is adjusted to be low, and as a result, the occurrence of the afterimage can be suppressed.

このように、空間情報を抽出して、空間情報を用いて重みを計算してから重みを調整することにより、重み調整前後において残像を抑制することができ、残像発生抑制の効率化を図ることができる。   In this way, by extracting the spatial information, calculating the weight using the spatial information, and adjusting the weight, it is possible to suppress the afterimage before and after the weight adjustment, and to improve the efficiency of suppressing the afterimage generation. Can do.

実施例4は、除去部203において重みを用いた現在画像データからのノイズ除去に先立って、現在画像データに対し、残像低減処理を実行する例である。除去部203は、残像低減処理後の現在画像データから重みを用いてノイズ除去を実行することになる。実施例4の撮像装置100は、ノイズ除去前に現在画像データの残像を低減させることで、残像発生の抑制を図る。実施例4では、実施例1〜3との相違点を中心に説明し、実施例1〜3と共通部分については同一符号を用いて説明を省略する。   The fourth embodiment is an example in which afterimage reduction processing is executed on the current image data prior to noise removal from the current image data using weights in the removal unit 203. The removing unit 203 performs noise removal using weights from the current image data after the afterimage reduction processing. The imaging apparatus 100 according to the fourth embodiment reduces afterimage generation by reducing the afterimage of the current image data before removing noise. In the fourth embodiment, differences from the first to third embodiments will be mainly described, and the same portions as those in the first to third embodiments will be denoted by the same reference numerals and the description thereof will be omitted.

<機能的構成例>
図10は、実施例4にかかる撮像装置100の機能的構成例を示すブロック図である。実施例4の場合、除去部203は、算出部202から重みを取得する。算出部202からの重みは、実施例1,3の場合は調整済みの重みW´であり、実施例2の場合は、更新済みの重みWnewである。また、算出部202が図5に示した構成である場合、算出部202からの重みは、重み計算部221により、過去画像データIoldと現在画像データIとを上記式(2)に与えて計算された重みWである。実施例4では、特に区別しない限り、これらの重みを総称して、単に、重みWと表記する。
<Functional configuration example>
FIG. 10 is a block diagram of a functional configuration example of the imaging apparatus 100 according to the fourth embodiment. In the case of the fourth embodiment, the removal unit 203 acquires a weight from the calculation unit 202. The weight from the calculation unit 202 is the adjusted weight W ′ in the first and third embodiments, and the updated weight W new in the second embodiment. When the calculation unit 202 has the configuration shown in FIG. 5, the weight from the calculation unit 202 is obtained by giving the past image data I old and the current image data I to the above equation (2) by the weight calculation unit 221. The calculated weight W. In the fourth embodiment, these weights are collectively referred to as weight W unless otherwise distinguished.

除去部203は、残像低減処理部1001と、ノイズ除去処理部1002と、を有する。残像低減処理部1001は、現在画像データの残像を低減する処理を実行する。具体的には、たとえば、残像低減処理部1001は、現在画像データにローパスフィルタを施すことにより、残像となる動く被写体像の輪郭をぼかす。これにより、動く被写体像の輪郭を目立ちにくくする。また、残像低減処理部1001は、時間方向に連続する2枚の画像データI(t−1),I(t)について、動く被写体像の間を補間することにより、残像となる動く被写体像の輪郭をぼかす(補間処理)。   The removal unit 203 includes an afterimage reduction processing unit 1001 and a noise removal processing unit 1002. The afterimage reduction processing unit 1001 executes processing for reducing the afterimage of the current image data. Specifically, for example, the afterimage reduction processing unit 1001 blurs the outline of a moving subject image that becomes an afterimage by applying a low-pass filter to the current image data. This makes the outline of the moving subject image less noticeable. Further, the afterimage reduction processing unit 1001 interpolates between the moving subject images of the two pieces of image data I (t−1) and I (t) that are continuous in the time direction, thereby moving the moving subject image that becomes an afterimage. Blur the outline (interpolation process).

ノイズ除去処理部1002は、残像低減処理部1001によって残像低減処理が施された画像データについて、算出部202からの重みWに基づいて、ノイズ除去対象の画像データのノイズを除去し、ノイズ除去画像データを出力する。具体的には、たとえば、除去部203は、算出部202からの重みWを上記式(7)のW´に代入することにより、重み付け平均でノイズ除去対象の画像データのノイズを除去する。ノイズ除去対象の画像データとは、ローパスフィルタが施された画像データ、または、補間処理により生成された画像データである。   The noise removal processing unit 1002 removes noise from the image data to be removed from the image data on which the afterimage reduction processing has been performed by the afterimage reduction processing unit 1001 based on the weight W from the calculation unit 202, and a noise-removed image. Output data. Specifically, for example, the removal unit 203 removes the noise of the image data to be subjected to noise removal by weighted average by substituting the weight W from the calculation unit 202 into W ′ of the above equation (7). The image data to be denoised is image data that has been subjected to a low-pass filter or image data that has been generated by interpolation processing.

<補間処理例>
図11は、実施例4にかかる残像低減処理部1001による補間処理例を示す説明図である。図11において、矩形は、時間方向に連続する画像データ群、すなわち、動画像データである。(A)は、取得部201から残像低減処理部1001に入力された残像低減処理が施されていない未加工状態の画像データIa(t−3),Ia(t−2),Ia(t−1),Ia(t)を示す。画像データIa(t−3),Ia(t−2),Ia(t−1),Ia(t)において、被写体像OBa(t−3),OBa(t−2),OBa(t−1),OBa(t)が左から右に移動しているものとする。
<Example of interpolation processing>
FIG. 11 is an explanatory diagram of an example of interpolation processing performed by the afterimage reduction processing unit 1001 according to the fourth embodiment. In FIG. 11, a rectangle is a group of image data that is continuous in the time direction, that is, moving image data. (A) shows unprocessed image data Ia (t-3), Ia (t-2), and Ia (t−) that have not been subjected to the afterimage reduction processing input from the acquisition unit 201 to the afterimage reduction processing unit 1001. 1), Ia (t). In the image data Ia (t-3), Ia (t-2), Ia (t-1), and Ia (t), the subject images OBa (t-3), OBa (t-2), and OBa (t-1 ), OBa (t) is moving from left to right.

(B)は、画像データの合成を示す。残像低減処理部1001は、時間方向に連続する2枚の画像データを合成して、動きベクトルを検出する。具体的には、たとえば、残像低減処理部1001は、画像データIa(t−3),Ia(t−2)を合成して合成画像データIb(t−2)を生成し、被写体像OBa(t−3),OBa(t−2)間の動きベクトルmv(t−2)を検出する。   (B) shows composition of image data. The afterimage reduction processing unit 1001 combines two pieces of image data continuous in the time direction to detect a motion vector. Specifically, for example, the afterimage reduction processing unit 1001 generates composite image data Ib (t-2) by combining the image data Ia (t-3) and Ia (t-2), and the subject image OBa ( The motion vector mv (t-2) between t-3) and OBa (t-2) is detected.

同様に、残像低減処理部1001は、画像データIa(t−2),Ia(t−1)を合成して合成画像データIb(t−1)を生成し、被写体像OBa(t−2),OBa(t−1)間の動きベクトルmv(t−1)を検出する。残像低減処理部1001は、画像データIa(t−1),Ia(t)を合成して合成画像データIb(t)を生成し、被写体像OBa(t−1),OBa(t)間の動きベクトルmv(t)を検出する。   Similarly, the afterimage reduction processing unit 1001 combines the image data Ia (t−2) and Ia (t−1) to generate combined image data Ib (t−1), and the subject image OBa (t−2). , OBa (t−1), a motion vector mv (t−1) is detected. The afterimage reduction processing unit 1001 synthesizes the image data Ia (t−1) and Ia (t) to generate composite image data Ib (t), and between the subject images OBa (t−1) and OBa (t). A motion vector mv (t) is detected.

(C)は、合成画像データIb(t−2),Ib(t−1),Ib(t)の補間を示す。具体的には、たとえば、残像低減処理部1001は、合成画像データIb(t−2)において、時間的に古い方の被写体像OBa(t−3)の輪郭のうち、動きベクトルmv(t−2)の終端側の輪郭(左側半分の円弧)を移動方向に複製することで、被写体像OBa(t−3),OBa(t−2)の間を補間する。これにより、残像低減処理部1001は、補間された被写体像OBc(t−2)を含む補間合成画像データIc(t−2)を生成する。   (C) shows interpolation of the composite image data Ib (t-2), Ib (t-1), and Ib (t). Specifically, for example, the afterimage reduction processing unit 1001 in the synthesized image data Ib (t−2), the motion vector mv (t−) of the contour of the subject image OBa (t−3) that is older in time. By duplicating the contour on the terminal side (the left half arc) of 2) in the moving direction, interpolation is performed between the subject images OBa (t-3) and OBa (t-2). As a result, the afterimage reduction processing unit 1001 generates interpolated composite image data Ic (t−2) including the interpolated subject image OBc (t−2).

同様に、残像低減処理部1001は、合成画像データIb(t−1)において、時間的に古い方の被写体像OBa(t−2)の輪郭のうち、動きベクトルmv(t−1)の終端側の輪郭(左側半分の円弧)を移動方向に複製することで、被写体像OBa(t−2),OBa(t−1)の間を補間する。これにより、残像低減処理部1001は、補間された被写体像OBc(t−1)を含む補間合成画像データIc(t−1)を生成する。   Similarly, the afterimage reduction processing unit 1001 ends the motion vector mv (t-1) in the contour of the older subject image OBa (t-2) in the synthesized image data Ib (t-1). By duplicating the side contour (the arc on the left half) in the moving direction, interpolation is performed between the subject images OBa (t−2) and OBa (t−1). Thereby, the afterimage reduction processing unit 1001 generates interpolated composite image data Ic (t−1) including the interpolated subject image OBc (t−1).

また、残像低減処理部1001は、合成画像データIb(t)において、時間的に古い方の被写体像OBa(t−1)の輪郭のうち、動きベクトルmv(t)の終端側の輪郭(左側半分の円弧)を移動方向に複製することで、被写体像OBa(t−1),OBa(t)の間を補間する。これにより、残像低減処理部1001は、補間された被写体像OBc(t)を含む補間合成画像データIc(t)を生成する。なお、図11では、輪郭の複製対象をとなる輪郭を時間的に古い方の被写体像の輪郭としたが、時間的に新しい方の被写体像の輪郭としてもよい。   In addition, the afterimage reduction processing unit 1001 of the synthesized image data Ib (t) has a contour (left side) on the end side of the motion vector mv (t) among the contours of the subject image OBa (t−1) that is older in time. By duplicating the half arc) in the movement direction, the object images OBa (t−1) and OBa (t) are interpolated. Thereby, the afterimage reduction processing unit 1001 generates interpolated composite image data Ic (t) including the interpolated subject image OBc (t). In FIG. 11, the contour that is to be duplicated is the contour of the subject image that is older in time, but it may be the contour of the subject image that is newer in terms of time.

このように、撮像装置100は、補間処理により、各画像データに離散的に出現する残像を、シャッタースピードを遅くしたかのような被写体像の移動軌跡に変換して連続的に表示する。これにより、あたかも残像が存在しないかのようにユーザに見せることで、残像を低減することができる。   In this way, the imaging apparatus 100 converts the afterimages that appear discretely in each image data into a moving trajectory of the subject image as if the shutter speed has been reduced by the interpolation process, and continuously displays them. As a result, the afterimage can be reduced by showing the user as if the afterimage does not exist.

<再帰的ノイズ除去処理>
図12は、実施例4にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例4では、ステップS302のあと、撮像装置100は、実施例1〜3、および図5におけるいずれかにより重みを計算する(ステップS1203)。つぎに、撮像装置100は、残像低減処理部1001により、ローパスフィルタまたは補間処理による残像低減処理を実行する(ステップS1204)。そして、撮像装置100は、ノイズ除去処理部1002により、ステップS1203で計算された重みWを用いて、残像低減処理後の画像データからノイズを除去する(ステップS307)。
<Recursive noise removal processing>
FIG. 12 is a flowchart of a recursive noise removal procedure example performed by the imaging apparatus 100 according to the fourth embodiment. In the fourth embodiment, after step S302, the imaging apparatus 100 calculates a weight according to any of the first to third embodiments and FIG. 5 (step S1203). Next, in the imaging apparatus 100, the afterimage reduction processing unit 1001 executes afterimage reduction processing using a low-pass filter or interpolation processing (step S1204). Then, the imaging apparatus 100 uses the noise removal processing unit 1002 to remove noise from the image data after the afterimage reduction processing using the weight W calculated in step S1203 (step S307).

このあと、撮像装置100は、ノイズ除去画像データIoutを表示デバイス110に出力し(ステップS308)、画像保存部204により、ノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する(ステップS309)。このような処理を撮像が終了するまで、再帰的に実行することで、残像を連続的に目立たなくし、結果的に残像発生を抑制することができる。 Thereafter, the imaging apparatus 100 outputs the noise-removed image data I out to the display device 110 (step S308), and the image storage unit 204 sets the noise-removed image data I out as past image data I old in the first memory 205. Save (step S309). By executing such a process recursively until the imaging is completed, the afterimage is made inconspicuous continuously, and as a result, the occurrence of the afterimage can be suppressed.

実施例4では、除去部203において重みを用いた現在画像データからのノイズ除去に先立って、現在画像データに対し残像低減処理を実行する例について説明したが、これとは逆に、実施例5は、除去部203において重みを用いた現在画像データからのノイズ除去後に、ノイズ除去画像データに対し、残像低減処理を実行する例である。実施例5の撮像装置100は、ノイズ除去後に現在画像データの残像を低減させることで、残像発生の抑制を図る。実施例5では、実施例4との相違点を中心に説明し、実施例1〜4と共通部分については同一符号を用いて説明を省略する。   In the fourth embodiment, the example in which the afterimage reduction process is performed on the current image data prior to noise removal from the current image data using the weight in the removal unit 203 has been described. These are examples in which afterimage reduction processing is performed on noise-removed image data after noise removal from the current image data using weights in the removal unit 203. The imaging apparatus 100 according to the fifth exemplary embodiment attempts to suppress the afterimage generation by reducing the afterimage of the current image data after removing the noise. The fifth embodiment will be described with a focus on differences from the fourth embodiment, and the same reference numerals are used for portions common to the first to fourth embodiments, and description thereof is omitted.

<機能的構成例>
図13は、実施例5にかかる撮像装置100の機能的構成例を示すブロック図である。除去部203は、算出部202から重みを取得する。算出部202からの重みは、実施例1,3の場合は調整済みの重みW´であり、実施例2の場合は、更新済みの重みWnewである。また、算出部202が図5に示した構成である場合、算出部202からの重みは、重み計算部221により、過去画像データIoldと現在画像データIとを上記式(2)に与えて計算された重みWである。実施例5では、特に区別しない限り、これらの重みを総称して、単に、重みWと表記する。
<Functional configuration example>
FIG. 13 is a block diagram illustrating a functional configuration example of the imaging apparatus 100 according to the fifth embodiment. The removal unit 203 acquires a weight from the calculation unit 202. The weight from the calculation unit 202 is the adjusted weight W ′ in the first and third embodiments, and the updated weight W new in the second embodiment. When the calculation unit 202 has the configuration shown in FIG. 5, the weight from the calculation unit 202 is obtained by giving the past image data I old and the current image data I to the above equation (2) by the weight calculation unit 221. The calculated weight W. In the fifth embodiment, these weights are collectively referred to as weight W unless otherwise distinguished.

除去部203は、ノイズ除去処理部1002と、残像低減処理部1001と、を有する。ノイズ除去処理部1002は、取得部201からの画像データについて、算出部202からの重みWに基づいて、ノイズ除去対象の画像データのノイズを除去し、ノイズ除去画像データを出力する。具体的には、たとえば、除去部203は、算出部202からの重みWを上記式(7)のW´に代入することにより、重み付け平均で画像データのノイズを除去する。   The removal unit 203 includes a noise removal processing unit 1002 and an afterimage reduction processing unit 1001. The noise removal processing unit 1002 removes noise from the image data to be removed from the image data from the acquisition unit 201 based on the weight W from the calculation unit 202, and outputs noise-removed image data. Specifically, for example, the removal unit 203 removes the noise of the image data by weighted average by substituting the weight W from the calculation unit 202 into W ′ of the above equation (7).

残像低減処理部1001は、ノイズ除去画像データの残像を低減する処理を実行する。具体的には、たとえば、残像低減処理部1001は、ノイズ除去画像データにローパスフィルタを施すことにより、残像となる動く被写体像の輪郭をぼかす。これにより、動く被写体像の輪郭を目立ちにくくする。また、残像低減処理部1001は、図11に示したように、時間方向に連続する2枚のノイズ除去画像データI(t−1),I(t)について、動く被写体像の間を補間することにより、残像となる動く被写体像の輪郭をぼかす(補間処理)。   The afterimage reduction processing unit 1001 executes processing for reducing the afterimage of the noise-removed image data. Specifically, for example, the afterimage reduction processing unit 1001 blurs the outline of a moving subject image that becomes an afterimage by applying a low-pass filter to the noise-removed image data. This makes the outline of the moving subject image less noticeable. Further, as shown in FIG. 11, the afterimage reduction processing unit 1001 interpolates between moving subject images for two pieces of noise-removed image data I (t−1) and I (t) continuous in the time direction. Thus, the outline of the moving subject image that becomes an afterimage is blurred (interpolation process).

<再帰的ノイズ除去処理>
図14は、実施例5にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例5では、ステップS302のあと、撮像装置100は、実施例1〜3、および図5におけるいずれかにより重みを計算する(ステップS1203)。つぎに、撮像装置100は、ノイズ除去処理部1002により、ステップS1203で計算された重みWを用いて、ノイズ除去画像データからノイズを除去する(ステップS307)。そして、撮像装置100は、残像低減処理部1001により、ローパスフィルタまたは補間処理による残像低減処理を実行する(ステップS1204)。
<Recursive noise removal processing>
FIG. 14 is a flowchart illustrating an example of a recursive noise removal procedure performed by the imaging apparatus 100 according to the fifth embodiment. In the fifth embodiment, after step S302, the imaging apparatus 100 calculates a weight according to any of the first to third embodiments and FIG. 5 (step S1203). Next, the imaging apparatus 100 uses the noise removal processing unit 1002 to remove noise from the noise-removed image data using the weight W calculated in step S1203 (step S307). Then, the imaging apparatus 100 causes the afterimage reduction processing unit 1001 to perform afterimage reduction processing using a low-pass filter or interpolation processing (step S1204).

このあと、撮像装置100は、ノイズ除去画像データIoutを表示デバイス110に出力し(ステップS308)、画像保存部204により、ノイズ除去画像データIoutを過去画像データIoldとして第1メモリ205に保存する(ステップS309)。このような処理を撮像が終了するまで、再帰的に実行することで、残像を連続的に目立たなくし、結果的に残像発生を抑制することができる。また、残像低減処理に先立ってノイズ除去を実行することで、ノイズのぼかしや補間を抑制することができる。 Thereafter, the imaging apparatus 100 outputs the noise-removed image data I out to the display device 110 (step S308), and the image storage unit 204 sets the noise-removed image data I out as past image data I old in the first memory 205. Save (step S309). By executing such a process recursively until the imaging is completed, the afterimage is made inconspicuous continuously, and as a result, the occurrence of the afterimage can be suppressed. Further, by performing noise removal prior to the afterimage reduction process, it is possible to suppress noise blurring and interpolation.

実施例6は、画像データから残像が発生する領域(残像発生領域)を検出して、検出した残像発生領域(検出領域)から残像を除去する例である。これにより、残像を低減する範囲を、残像発生領域に絞り込むことができ、残像低減処理を効率的に実行することができる。実施例6では、実施例5との相違点を中心に説明し、実施例1〜5と共通部分については同一符号を用いて説明を省略する。   The sixth embodiment is an example in which an afterimage generation area (afterimage generation area) is detected from image data and the afterimage is removed from the detected afterimage generation area (detection area). As a result, the afterimage reduction range can be narrowed down to the afterimage generation region, and the afterimage reduction process can be executed efficiently. The sixth embodiment will be described with a focus on differences from the fifth embodiment, and the same reference numerals are used for the same parts as in the first to fifth embodiments, and the description will be omitted.

図15は、実施例6にかかる残像低減処理例を示す説明図である。図15において、矩形は画像データを示す。矩形内の網掛けの範囲はノイズNを示す。ノイズは画像データ全体に一様に存在する場合もあるが、ここでは、説明を単純化するため、特定の位置にノイズNが存在するものとする。(A)は、被写体像が移動しない場合の例を示し、(B)は、被写体像が移動する場合の例を示す。   FIG. 15 is an explanatory diagram of an example of afterimage reduction processing according to the sixth embodiment. In FIG. 15, a rectangle indicates image data. The shaded area in the rectangle indicates noise N. Although noise may exist uniformly in the entire image data, it is assumed here that noise N exists at a specific position in order to simplify the description. (A) shows an example when the subject image does not move, and (B) shows an example when the subject image moves.

(A)において、画像データIa(t−1),Ia(t)は、時間方向に連続する画像データ列である。画像データIa(t−1),Ia(t)は、ともに同じ位置にノイズNおよび被写体像OB(t−1),OB(t)を有する。ノイズ除去画像データNRIa(t−1)は、時刻t−2のノイズ除去画像データ(過去画像データIold)に基づいて画像データIa(t−1)からノイズNが除去された画像データである。ノイズ除去画像データNRIa(t)は、時刻t−1のノイズ除去画像データNRIa(t−1)(過去画像データIold)に基づいて画像データIa(t)からノイズNが除去された画像データである。 In (A), the image data Ia (t−1) and Ia (t) are image data strings that are continuous in the time direction. The image data Ia (t−1) and Ia (t) both have noise N and subject images OB (t−1) and OB (t) at the same position. The noise-removed image data NRIa (t−1) is image data obtained by removing the noise N from the image data Ia (t−1) based on the noise-removed image data (past image data I old ) at time t−2. . The noise-removed image data NRIa (t) is image data obtained by removing the noise N from the image data Ia (t) based on the noise-removed image data NRIa (t−1) (past image data I old ) at time t−1. It is.

撮像装置100は、現在画像データである時刻tの画像データIa(t)と、時刻t−1のノイズ除去画像データNRIa(t−1)(過去画像データIold)と、の加重平均により、画像データIa(t)からノイズNが除去されたノイズ除去画像データNRIa(t)を生成する。また、差分画像データDIa(t)は、画像データIa(t)とノイズ除去画像データNRIa(t)との差分をとった画像データである。この場合、被写体像OB(t)とその背景は相殺され、差分としてノイズNが残存することになる。 The imaging apparatus 100 uses the weighted average of the image data Ia (t) at time t, which is current image data, and the noise-removed image data NRIa (t−1) (past image data I old ) at time t−1. Noise-removed image data NRIa (t) from which noise N has been removed from the image data Ia (t) is generated. The difference image data DIa (t) is image data obtained by taking a difference between the image data Ia (t) and the noise-removed image data NRIa (t). In this case, the subject image OB (t) and its background are canceled out, and noise N remains as a difference.

(B)において、画像データIb(t−1),Ib(t)は、時間方向に連続する画像データ列である。画像データIb(t−1),Ib(t)は、同じ位置にノイズNを有するが、被写体像OB(t−1),OB(t)の位置は異なる。すなわち、被写体が左から右に移動していることを示す。   In (B), the image data Ib (t−1) and Ib (t) are image data strings that are continuous in the time direction. The image data Ib (t-1) and Ib (t) have noise N at the same position, but the positions of the subject images OB (t-1) and OB (t) are different. That is, the subject is moving from left to right.

ノイズ除去画像データNRIb(t−1)は、時刻t−2のノイズ除去画像データ(過去画像データIold)に基づいて画像データIb(t−1)からノイズNが除去された画像データである。ノイズ除去画像データNRIb(t−1)には、時刻t−2の画像データに存在していた被写体像の残像A(t−2)が存在するものとする。 The noise-removed image data NRIb (t−1) is image data obtained by removing the noise N from the image data Ib (t−1) based on the noise-removed image data (past image data I old ) at time t−2. . In the noise-removed image data NRIb (t−1), it is assumed that the afterimage A (t−2) of the subject image that existed in the image data at time t−2 exists.

ノイズ除去画像データNRIb(t)は、時刻t−1のノイズ除去画像データNRIb1(t−1)(過去画像データIold)に基づいて画像データIb(t)からノイズNが除去された画像データである。ただし、ノイズ除去画像データNRIb1(t)には、ノイズ除去画像データNRIb(t−1)における被写体像OB(t−1)の位置に、残像A(t−1)が存在する。 The noise-removed image data NRIb (t) is image data obtained by removing the noise N from the image data Ib (t) based on the noise-removed image data NRIb1 (t−1) (past image data I old ) at time t−1. It is. However, in the noise-removed image data NRIb1 (t), an afterimage A (t-1) exists at the position of the subject image OB (t-1) in the noise-removed image data NRIb (t-1).

撮像装置100は、現在画像データである時刻tの画像データIb(t)と、時刻t−1のノイズ除去画像データNRIb(t−1)(過去画像データIold)と、の加重平均により、画像データIb(t)からノイズNが除去されたノイズ除去画像データNRIb1(t)を生成する。また、差分画像データDIb(t)は、画像データIb(t)とノイズ除去画像データNRIb1(t)との差分をとった画像データである。この場合、被写体像OB(t)とその背景は相殺され、差分としてノイズNおよび残像A(t−1)が残存することになる。 The imaging apparatus 100 calculates the weighted average of the image data Ib (t) at time t, which is current image data, and the noise-removed image data NRIb (t−1) (past image data I old ) at time t−1. Noise-removed image data NRIb1 (t) from which noise N has been removed from the image data Ib (t) is generated. The difference image data DIb (t) is image data obtained by taking a difference between the image data Ib (t) and the noise-removed image data NRIb1 (t). In this case, the subject image OB (t) and its background are canceled out, and the noise N and the afterimage A (t−1) remain as differences.

撮像装置100は、差分画像データDIb(t)を参照して、残像A(t−1)の領域を残像発生領域1500として特定する。つぎに、撮像装置100は、残像発生領域の画像データ(この場合は、輪郭の残像A(t−1))と同じ位置の画像データ1501を、時刻tの画像データIb(t)から抽出する。そして、撮像装置100は、ノイズ除去画像データNRIb1(t)における残像A(t−1)を、当該抽出した画像データ1501に置換する。これにより、撮像装置100は、ノイズ除去画像データNRIb1(t)から残像A(t−1)を除去したノイズ除去画像データNRIb2(t)を生成することができる。   The imaging apparatus 100 identifies the area of the afterimage A (t−1) as the afterimage generation area 1500 with reference to the difference image data DIb (t). Next, the imaging apparatus 100 extracts the image data 1501 at the same position as the image data of the afterimage generation area (in this case, the afterimage A (t−1) of the contour) from the image data Ib (t) at the time t. . Then, the imaging apparatus 100 replaces the afterimage A (t−1) in the noise-removed image data NRIb1 (t) with the extracted image data 1501. Thereby, the imaging apparatus 100 can generate noise-removed image data NRIb2 (t) obtained by removing the afterimage A (t−1) from the noise-removed image data NRIb1 (t).

なお、撮像装置100は、残像発生領域1500の画像データ(この場合は、輪郭の残像A(t−1))と同じ位置の画像データ1501を、時刻tの画像データIb(t)から抽出することとしたが、抽出する範囲は、残像発生領域1500と同じ位置に限らず、残像発生領域1500とその近傍を含む領域でもよい。また、ここでは、残像は、被写体像の輪郭であることが多いため、残像発生領域1500を被写体像の輪郭に対応する領域としたが、輪郭で囲まれる内部も残像発生領域1500としてもよい。これにより、残像の除去漏れの低減を図ることができる。   The imaging apparatus 100 extracts the image data 1501 at the same position as the image data of the afterimage generation area 1500 (in this case, the afterimage A (t-1) of the contour) from the image data Ib (t) at the time t. However, the extraction range is not limited to the same position as the afterimage generation area 1500, and may be an area including the afterimage generation area 1500 and its vicinity. Here, since the afterimage is often the outline of the subject image, the afterimage generation area 1500 is an area corresponding to the outline of the subject image. However, the inside surrounded by the outline may be the afterimage generation area 1500. As a result, afterimage removal leakage can be reduced.

<機能的構成例>
図16は、実施例6にかかる撮像装置100の機能的構成例を示すブロック図である。残像低減部は、図15に示したように、ノイズ除去処理部1002からノイズ除去画像データを取得する。また、残像低減処理部1001は、図15に示したように、たとえば、取得部201から現在画像データIb(t)を取得する。また、残像低減処理部1001は、第1メモリ205から過去画像データIoldを取得する。過去画像データIoldは、たとえば、1つ前の時刻t−1のノイズ除去画像データNRIb(t−1)である。
<Functional configuration example>
FIG. 16 is a block diagram of a functional configuration example of the imaging apparatus 100 according to the sixth embodiment. The afterimage reduction unit acquires noise-removed image data from the noise removal processing unit 1002, as shown in FIG. Further, the afterimage reduction processing unit 1001 acquires the current image data Ib (t) from the acquisition unit 201, for example, as illustrated in FIG. Further, the afterimage reduction processing unit 1001 acquires the past image data I old from the first memory 205. The past image data I old is, for example, the noise-removed image data NRIb (t−1) at the previous time t−1.

残像低減処理部1001は、図15に示したように、現在画像データIb(t)と過去画像データIoldとの加重平均により、現在画像データIb(t)についてのノイズ除去画像データNRIb(t)を生成し、現在画像データIb(t)と生成したノイズ除去画像データNRIb(t)との差分画像データDIb(t)を生成する。 As illustrated in FIG. 15, the afterimage reduction processing unit 1001 performs noise-removed image data NRIb (t) for the current image data Ib (t) based on a weighted average of the current image data Ib (t) and the past image data I old. ) To generate difference image data DIb (t) between the current image data Ib (t) and the generated noise-removed image data NRIb (t).

そして、残像低減処理部1001は、差分画像データDIb(t)から残像発生領域1500を検出し、残像発生領域1500と同一位置の画像データ1501を現在画像データIb(t)から特定する。そして、残像低減処理部1001は、ノイズ除去画像データNRIb1(t)において、画像データ1501を合成することにより、残像A(t−1)を除去したノイズ除去画像データNRIb2(t)を生成する。   Then, the afterimage reduction processing unit 1001 detects the afterimage generation area 1500 from the difference image data DIb (t), and specifies the image data 1501 at the same position as the afterimage generation area 1500 from the current image data Ib (t). Then, the afterimage reduction processing unit 1001 generates noise-removed image data NRIb2 (t) from which the afterimage A (t−1) is removed by synthesizing the image data 1501 with the noise-removed image data NRIb1 (t).

残像低減処理部1001は、生成したノイズ除去画像データNRIb2(t)を表示デバイス110に出力するとともに、画像保存部204に出力する。画像保存部204は、取得したノイズ除去画像データNRIb2(t)をあらたな過去画像データIoldとして第1メモリ205に保存する。 The afterimage reduction processing unit 1001 outputs the generated noise-removed image data NRIb2 (t) to the display device 110 and also to the image storage unit 204. The image storage unit 204 stores the acquired noise-removed image data NRIb2 (t) in the first memory 205 as new past image data I old .

なお、残像低減処理部1001は、実施例5に示したローパスフィルタや補間処理を実施例6に適用してもよい。具体的には、たとえば、残像低減処理部1001は、現在画像データIb(t)についてローパスフィルタまたは補間処理を適用し、当該適用後の現在画像データIb(t)と生成したノイズ除去画像データNRIb(t)との差分画像データDIb(t)を生成してもよい。   Note that the afterimage reduction processing unit 1001 may apply the low-pass filter and the interpolation processing described in the fifth embodiment to the sixth embodiment. Specifically, for example, the afterimage reduction processing unit 1001 applies a low-pass filter or interpolation processing to the current image data Ib (t), and generates the current image data Ib (t) after the application and the generated noise-removed image data NRIb. Difference image data DIb (t) with respect to (t) may be generated.

また、残像低減処理部1001は、生成したノイズ除去画像データNRIb2(t)についてローパスフィルタや補間処理を適用し、当該適用後のノイズ除去画像データNRIb2(t)を表示デバイス110および画像保存部204に出力してもよい。   The afterimage reduction processing unit 1001 applies a low-pass filter or interpolation processing to the generated noise-removed image data NRIb2 (t), and displays the noise-removed image data NRIb2 (t) after the application as the display device 110 and the image storage unit 204. May be output.

<再帰的ノイズ除去処理>
図17は、実施例6にかかる撮像装置100による再帰的ノイズ除去手順例を示すフローチャートである。実施例6では、ステップS302のあと、撮像装置100は、実施例1〜3、および図5におけるいずれかにより重みを計算する(ステップS1203)。つぎに、撮像装置100は、ノイズ除去処理部1002により、ステップS1203で計算された重みWを用いて、ノイズ除去画像データからノイズを除去する(ステップS307)。そして、撮像装置100は、残像低減処理部1001により、ローパスフィルタまたは補間処理による残像低減処理を実行する(ステップS1771〜S1773)。
<Recursive noise removal processing>
FIG. 17 is a flowchart illustrating a recursive noise removal procedure example performed by the imaging apparatus 100 according to the sixth embodiment. In the sixth embodiment, after step S302, the imaging apparatus 100 calculates a weight according to any of the first to third embodiments and FIG. 5 (step S1203). Next, the imaging apparatus 100 uses the noise removal processing unit 1002 to remove noise from the noise-removed image data using the weight W calculated in step S1203 (step S307). Then, the imaging apparatus 100 causes the afterimage reduction processing unit 1001 to perform afterimage reduction processing using a low-pass filter or interpolation processing (steps S1771 to S1773).

具体的には、たとえば、残像低減処理部1001は、現在画像データIb(t)とノイズ除去画像データNRIb1(t)との差分画像データDIb(t)を生成し(ステップS1771)、差分画像データDIb(t)から残像発生領域1500を検出する(ステップS1772)。   Specifically, for example, the afterimage reduction processing unit 1001 generates difference image data DIb (t) between the current image data Ib (t) and the noise-removed image data NRIb1 (t) (step S1771), and the difference image data An afterimage generation area 1500 is detected from DIb (t) (step S1772).

そして、残像低減処理部1001は、残像発生領域1500と同じ位置の画像データ1501を現在画像データIb(t)から抽出して、ノイズ除去画像データNRIb1(t)に合成することで、ノイズ除去画像データNRIb2(t)を生成し、残像A(t−1)を除去する(ステップS1773)。このあと、残像低減処理部1001は、ノイズ除去画像データNRIb2(t)を出力画像データIoutとして表示デバイス110に出力し(ステップS308)、画像保存部204に出力する(ステップS309)。 Then, the afterimage reduction processing unit 1001 extracts the image data 1501 at the same position as the afterimage generation area 1500 from the current image data Ib (t) and combines it with the noise-removed image data NRIb1 (t), thereby removing the noise-removed image. Data NRIb2 (t) is generated, and the afterimage A (t-1) is removed (step S1773). Thereafter, the afterimage reduction processing unit 1001 outputs the noise-removed image data NRIb2 (t) as output image data I out to the display device 110 (step S308), and outputs it to the image storage unit 204 (step S309).

このような処理を撮像が終了するまで、再帰的に実行することで、残像を連続的に目立たなくし、結果的に残像発生を抑制することができる。このように、残像を低減する範囲を、残像発生領域に絞り込むことができ、残像低減処理を効率的に実行することができる。換言すれば、残像が発生していない領域については残像低減処理を実行しなくて済むため、残像を低減しなくてもよい領域の残像低減処理を回避することができ、元の画像を維持することができる。   By executing such a process recursively until the imaging is completed, the afterimage is made inconspicuous continuously, and as a result, the occurrence of the afterimage can be suppressed. As described above, the afterimage reduction range can be narrowed down to the afterimage generation region, and the afterimage reduction processing can be performed efficiently. In other words, since it is not necessary to perform afterimage reduction processing for a region where no afterimage has occurred, it is possible to avoid the afterimage reduction processing of a region where it is not necessary to reduce the afterimage, and maintain the original image. be able to.

実施例7は、残像が発生しづらい動画を撮像する条件を調整することにより、残像を目立ちにくくする例である。   Example 7 is an example in which afterimages are made inconspicuous by adjusting conditions for capturing a moving image in which afterimages are less likely to occur.

<動画撮像例>
図18は、実施例7にかかる動画撮像例を示す説明図である。図18は、ある被写体を動画撮像する例であり、矩形は、時間方向に連続する画像データ列、すなわち、動画像データである。また、フレームレートは、説明の便宜上、一例として3[fps]とする。また、時刻t1〜t3のうち時刻t1が最古の時刻であり、時刻t3が最新の時刻である。(A)は、撮像条件が実施例7で調整されていない動画撮像例であり、(B)は、撮像条件が実施例7で調整された動画撮像例である。したがって、(A),(B)ともに1/3[fps]で画像データが1枚生成される。
<Example of video capture>
FIG. 18 is an explanatory diagram of an example of moving image capturing according to the seventh embodiment. FIG. 18 is an example of capturing a moving image of a subject, and a rectangle is an image data string continuous in the time direction, that is, moving image data. The frame rate is assumed to be 3 [fps] as an example for convenience of explanation. Of the times t1 to t3, the time t1 is the oldest time, and the time t3 is the latest time. (A) is a moving image imaging example in which the imaging conditions are not adjusted in the seventh embodiment, and (B) is a moving image imaging example in which the imaging conditions are adjusted in the seventh embodiment. Accordingly, one image data is generated at 1/3 [fps] in both (A) and (B).

なお、符号の末尾には、時刻t1〜t3を区別するため、(t1)〜(t3)が付してあるが、時刻t1〜t3を区別しない場合は、単に、(t)と表記する。時刻t1〜t3を区別しないも、単に、時刻tと表記する。   Note that, at the end of the code, (t1) to (t3) are attached to distinguish the times t1 to t3, but when the times t1 to t3 are not distinguished, they are simply expressed as (t). Although the times t1 to t3 are not distinguished, they are simply written as time t.

(A)において、et(t)は露光時間である。gp(t)は連続する露光時間の間のギャップ時間である。露光時間とは、シャッター(たとえば、ローリングシャッター)の開放状態から閉塞状態になるまで撮像素子105がレンズ系からの被写体光にさらされる時間である。   In (A), et (t) is the exposure time. gp (t) is the gap time between successive exposure times. The exposure time is the time during which the image sensor 105 is exposed to subject light from the lens system until the shutter (for example, a rolling shutter) is opened to the closed state.

撮像装置100は、被写体を時刻t1〜t3に撮像して、画像データIa(t1),Ia(t2),Ia(t3)を生成する。画像データIa(t1),Ia(t2),Ia(t3)はそれぞれ、被写体像OBa(t1),OBa(t2),OBa(t3)を含む。   The imaging device 100 images a subject at times t1 to t3 and generates image data Ia (t1), Ia (t2), and Ia (t3). The image data Ia (t1), Ia (t2), and Ia (t3) include subject images OBa (t1), OBa (t2), and OBa (t3), respectively.

被写体を撮像する場合、まず、撮像装置100は、時刻tから始まる1/3[s]の間で、時刻tから始まる露光時間et(t)で露光する。つぎに、撮像装置100は、露光時間et(t)経過後のギャップ時間gp(t)で、撮像素子105からアナログの電気信号を読み出して、AFE106が信号処理を実行する。これにより、画像データIa(t)が生成される。   When imaging a subject, first, the imaging apparatus 100 performs exposure for an exposure time et (t) starting from time t during 1/3 [s] starting from time t. Next, the imaging apparatus 100 reads an analog electrical signal from the imaging element 105 at the gap time gp (t) after the exposure time et (t) has elapsed, and the AFE 106 executes signal processing. Thereby, image data Ia (t) is generated.

撮像装置100は、時刻tごとに再帰的にノイズ除去を実行する。たとえば、時刻t3では、撮像装置100は、時刻t3で得られる画像データIa(t3)についてノイズ除去を実行する。具体的には、たとえば、撮像装置100は、画像データIa(t2)からノイズが除去されたノイズ除去画像データと、画像データIa(t3)との重み付き平均をとることにより、画像データIa(t3)からノイズが除去されたノイズ除去画像データNRIa(t3)を生成する。   The imaging apparatus 100 performs noise removal recursively at each time t. For example, at time t3, the imaging apparatus 100 performs noise removal on the image data Ia (t3) obtained at time t3. Specifically, for example, the imaging apparatus 100 takes the weighted average of the noise-removed image data from which noise has been removed from the image data Ia (t2) and the image data Ia (t3), thereby obtaining the image data Ia ( Noise-removed image data NRIa (t3) from which noise has been removed is generated from t3).

ノイズ除去画像データNRIa(t3)において、残像Aa(t2),Aa(t1)は、再帰的なノイズ除去により画像データIa(t2),Ia(t1)内の被写体像OBa(t2),OBa(t1)から引き継がれた画像データであり、古い時刻の被写体像OBa(t2),OBa(t1)ほど薄くなる。   In the noise-removed image data NRIa (t3), the afterimages Aa (t2) and Aa (t1) are subject image OBa (t2) and OBa (in the image data Ia (t2) and Ia (t1) by recursive noise removal. This is image data inherited from t1), and becomes thinner as the subject images OBa (t2) and OBa (t1) at the old time.

また、ノイズ除去画像データNRIa(t3)では、被写体像OBa(t3)および残像Aa(t2),Aa(t1)が被写体の移動方向に離散的に出現するため、被写体の動きが不自然な映像となる。すなわち、露光時間et(t)が短いと、露光していない時間であるギャップ時間gp(t)が相対的に長くなり、前後の画像にずれが生じて不連続さが目立つ。   In the noise-removed image data NRIa (t3), the subject image OBa (t3) and the afterimages Aa (t2) and Aa (t1) appear discretely in the moving direction of the subject, so that the motion of the subject is unnatural. It becomes. That is, when the exposure time et (t) is short, the gap time gp (t), which is the time when the exposure is not performed, becomes relatively long, and the discontinuity is conspicuous due to the deviation between the preceding and subsequent images.

(B)において、ET(t)は露光時間である。GP(t)は連続する露光時間の間のギャップ時間である。露光時間ET(t)は、本実施例7による撮像条件設定により、露光時間et(t)よりも長くなり、これにより、ギャップ時間GP(t)は、ギャップ時間gp(t)よりも短くなる。   In (B), ET (t) is the exposure time. GP (t) is the gap time between successive exposure times. The exposure time ET (t) becomes longer than the exposure time et (t) due to the imaging condition setting according to the seventh embodiment, whereby the gap time GP (t) becomes shorter than the gap time gp (t). .

撮像装置100は、被写体を時刻t1〜t3に撮像して、画像データIb(t1),Ib(t2),Ib(t3)を生成する。画像データIb(t1),Ib(t2),Ib(t3)はそれぞれ、被写体像OBb(t1),OBb(t2),OBb(t3)を含む。   The imaging device 100 images the subject at times t1 to t3, and generates image data Ib (t1), Ib (t2), and Ib (t3). The image data Ib (t1), Ib (t2), and Ib (t3) include subject images OBb (t1), OBb (t2), and OBb (t3), respectively.

被写体を撮像する場合、まず、撮像装置100は、時刻tから始まる1/3[s]の間で、時刻tから始まる露光時間ET(t)で露光する。つぎに、撮像装置100は、露光時間ET(t)経過後のギャップ時間GP(t)で、撮像素子105からアナログの電気信号を読み出して、AFE106が信号処理を実行する。これにより、画像データIb(t)が生成される。   When imaging a subject, first, the imaging apparatus 100 performs exposure for an exposure time ET (t) starting from time t during 1/3 [s] starting from time t. Next, the imaging apparatus 100 reads an analog electrical signal from the imaging element 105 at the gap time GP (t) after the exposure time ET (t) has elapsed, and the AFE 106 executes signal processing. Thereby, the image data Ib (t) is generated.

露光時間ET(t)は、(A)の露光時間et(t)よりも長いため、被写体が動いている様子を撮像することができる。この場合、画像データIb(t)は、被写体が左から右に移動する様子として、被写体像OBb(t)と被写体像OBb(t)に追従する軌跡TJ(t)とを含む。軌跡TJ(t)は、露光時間ET(t)の経過にともなって得られる被写体像OBb(t)の時系列な残像である。   Since the exposure time ET (t) is longer than the exposure time et (t) of (A), it is possible to capture an image of how the subject is moving. In this case, the image data Ib (t) includes a subject image OBb (t) and a trajectory TJ (t) following the subject image OBb (t) as the state of the subject moving from left to right. The trajectory TJ (t) is a time-series afterimage of the subject image OBb (t) obtained as the exposure time ET (t) elapses.

撮像装置100は、時刻tごとに再帰的にノイズ除去を実行する。たとえば、時刻t3では、撮像装置100は、時刻t3で得られる画像データIb(t3)についてノイズ除去を実行する。具体的には、たとえば、撮像装置100は、画像データIb(t2)からノイズが除去されたノイズ除去画像データと、画像データIb(t3)との重み付き平均をとることにより、画像データIb(t3)からノイズが除去されたノイズ除去画像データNRIb(t3)を生成する。   The imaging apparatus 100 performs noise removal recursively at each time t. For example, at time t3, the imaging apparatus 100 performs noise removal on the image data Ib (t3) obtained at time t3. Specifically, for example, the imaging apparatus 100 takes the weighted average of the noise-removed image data from which noise has been removed from the image data Ib (t2) and the image data Ib (t3), thereby obtaining the image data Ib ( Noise-removed image data NRIb (t3) from which noise has been removed is generated from t3).

ノイズ除去画像データNRIb(t3)において、残像Ab(t2),Ab(t1)は、再帰的なノイズ除去により画像データIb(t2),Ib(t1)内の被写体像OBa(t2),OBa(t1)の軌跡TJ(t2),TJ(t1)から引き継がれた画像データであり、古い時刻の被写体像OBb(t2),OBb(t1)ほど薄くなる。   In the noise-removed image data NRIb (t3), the afterimages Ab (t2) and Ab (t1) are subject images OBa (t2) and OBa (in the image data Ib (t2) and Ib (t1) by recursive noise removal. The image data is inherited from the trajectories TJ (t2) and TJ (t1) of t1), and the subject images OBb (t2) and OBb (t1) at the old time become thinner.

ノイズ除去画像データNRIb(t3)では、被写体像OBb(t3)とその軌跡TJ(t3)および残像Ab(t2),Ab(t1)が被写体の移動方向に連続的に出現するため、被写体の動きが自然な映像となる。すなわち、露光時間ET(t)が露光時間et(t)よりも短いと、露光していない時間であるギャップ時間GP(t)が相対的に短くなり、前後の画像のずれが低減され不連続さが目立たなくなる。   In the noise-removed image data NRIb (t3), the subject image OBb (t3), its trajectory TJ (t3), and afterimages Ab (t2) and Ab (t1) appear continuously in the moving direction of the subject. Becomes a natural image. In other words, when the exposure time ET (t) is shorter than the exposure time et (t), the gap time GP (t), which is the time during which exposure is not performed, becomes relatively short, and the shift between the front and rear images is reduced, resulting in discontinuity. Will not stand out.

<撮像装置100の機能的構成例>
図19は、実施例7にかかる撮像装置100の機能的構成例を示すブロック図である。撮像装置100は、変換テーブル1900と、入力部1901と、設定部1902と、調整部1903と、撮像部120と、画像処理部1905と、を有する。変換テーブル1900は、具体的には、たとえば、図1に示した記憶デバイス102により実現される。また、入力部1901、設定部1902、調整部1903、および画像処理部1905は、具体的には、たとえば、図1に示した記憶デバイス102に記憶されたプログラムをプロセッサ101に実行させることにより、または、LSI107により実現される。
<Functional Configuration Example of Imaging Device 100>
FIG. 19 is a block diagram illustrating a functional configuration example of the imaging apparatus 100 according to the seventh embodiment. The imaging apparatus 100 includes a conversion table 1900, an input unit 1901, a setting unit 1902, an adjustment unit 1903, an imaging unit 120, and an image processing unit 1905. Specifically, the conversion table 1900 is realized, for example, by the storage device 102 illustrated in FIG. Specifically, the input unit 1901, the setting unit 1902, the adjustment unit 1903, and the image processing unit 1905, for example, by causing the processor 101 to execute a program stored in the storage device 102 illustrated in FIG. Alternatively, it is realized by the LSI 107.

変換テーブル1900は、第1撮像条件を第2撮像条件に変換するテーブルである。第1撮像条件1952は、デフォルトの撮像条件であり、たとえば、フレームレート1951に応じた露光時間である。撮像装置100において、たとえば、フレームレート1951が「FRi」に設定されると、露光時間は、「eti」に設定される。図18の例では、(A)においてフレームレート1951が、3[fps]である場合、露光時間は、et(t)となる。   The conversion table 1900 is a table for converting the first imaging condition to the second imaging condition. The first imaging condition 1952 is a default imaging condition, for example, an exposure time according to the frame rate 1951. In the imaging apparatus 100, for example, when the frame rate 1951 is set to “FRi”, the exposure time is set to “eti”. In the example of FIG. 18, when the frame rate 1951 is 3 [fps] in (A), the exposure time is et (t).

第2撮像条件1953とは、残像を低減させるための撮像条件であり、第1撮像条件1952に対応する。たとえば、第2撮像条件1953であるFCiは、フレームレート1951がFRiの場合のデフォルトの露光時間etiよりも長い露光時間ETiとする。また、露光時間がetiからETiに延長されたことによる露出オーバーを抑制するため、第2撮像条件1953であるFCiは、ISO感度の低下量(低下後のISO感度でもよい)を含んでもよい。   The second imaging condition 1953 is an imaging condition for reducing afterimages and corresponds to the first imaging condition 1952. For example, FCi that is the second imaging condition 1953 is an exposure time ETi that is longer than the default exposure time eti when the frame rate 1951 is FRi. In order to suppress overexposure due to the extension of the exposure time from eti to ETi, FCi that is the second imaging condition 1953 may include a reduction amount of ISO sensitivity (or ISO sensitivity after reduction).

入力部1901は、被写体を撮像する際のフレームレート1951の入力を操作デバイス108から受け付ける。なお、入力部1901は、撮影モードが操作デバイス108から選択されることで、当該撮影モードで規定されるフレームレート1951を受け付けてもよい。なお、撮影モードによっては同じフレームレート1951でも露光時間が異なる場合がある。   The input unit 1901 receives an input of the frame rate 1951 when imaging the subject from the operation device 108. Note that the input unit 1901 may accept a frame rate 1951 defined by the shooting mode by selecting the shooting mode from the operation device 108. Depending on the shooting mode, the exposure time may be different even at the same frame rate 1951.

設定部1902は、入力部1901によって入力されたフレームレート1951および当該フレームレート1951に対応する露光時間に基づいて、残像を低減する第2撮像条件1953を設定する。具体的には、たとえば、設定部1902は、入力部1901からのフレームレート1951に対応する第2撮像条件1953を変換テーブル1900から読み出す。入力部1901からフレームレート1951のみが与えられた場合には、第1撮像条件1952の露光時間はデフォルトの露光時間として、設定部1902は、対応する第2撮像条件1953を変換テーブル1900から読み出す。   The setting unit 1902 sets a second imaging condition 1953 for reducing afterimages based on the frame rate 1951 input by the input unit 1901 and the exposure time corresponding to the frame rate 1951. Specifically, for example, the setting unit 1902 reads the second imaging condition 1953 corresponding to the frame rate 1951 from the input unit 1901 from the conversion table 1900. When only the frame rate 1951 is given from the input unit 1901, the setting unit 1902 reads out the corresponding second imaging condition 1953 from the conversion table 1900 with the exposure time of the first imaging condition 1952 as the default exposure time.

また、入力部1901からの撮影モードによりフレームレート1951および露光時間が指定されている場合には、設定部1902は、当該フレームレート1951および露光時間に対応する第2撮像条件1953を変換テーブル1900から読み出す。また、第2撮像条件1953にISO感度の低下量(または低下後のISO感度)が含まれている場合、設定部1902は、当該ISO感度の低下量(または低下後のISO感度)も読みだす。   When the frame rate 1951 and the exposure time are specified by the shooting mode from the input unit 1901, the setting unit 1902 sets the second imaging condition 1953 corresponding to the frame rate 1951 and the exposure time from the conversion table 1900. read out. In addition, when the second imaging condition 1953 includes a reduction amount of ISO sensitivity (or ISO sensitivity after reduction), the setting unit 1902 also reads out the reduction amount (or ISO sensitivity after reduction) of the ISO sensitivity. .

調整部1903は、入力部1901によって入力されたフレームレート1951に対応する露光時間から、当該露光時間よりも長い露光時間に調整する。具体的には、たとえば、図18に示したように、調整部1903は、たとえば、フレームレート1951が3[fps]でその露光時間がet(t)とすると、露光時間et(t)を変換テーブル1900から得られた露光時間ET(t)に変更する。   The adjustment unit 1903 adjusts the exposure time corresponding to the frame rate 1951 input by the input unit 1901 to an exposure time longer than the exposure time. Specifically, for example, as shown in FIG. 18, the adjustment unit 1903 converts the exposure time et (t), for example, when the frame rate 1951 is 3 [fps] and the exposure time is et (t). The exposure time ET (t) obtained from the table 1900 is changed.

撮像部120は、フレームレート1951および調整部1903によって調整された露光時間に基づいて、被写体を撮像して、時間方向に連続する画像データ列を出力する。具体的には、たとえば、撮像部120は、図18の(B)に示したような画像データIb(t)を生成する。   The imaging unit 120 images a subject based on the frame rate 1951 and the exposure time adjusted by the adjustment unit 1903, and outputs a continuous image data sequence in the time direction. Specifically, for example, the imaging unit 120 generates image data Ib (t) as shown in FIG.

画像処理部1905は、撮像部120からの画像データIb(t)を、画像処理する。具体的には、たとえば、画像処理部1905は、実施例1〜6に示した取得部201、算出部202、除去部203、画像保存部204、および第1メモリ205により構成される。したがって、実施例1で示した再帰的ノイズ処理により、図18の(B)に示したようなノイズ除去画像データNRIb(t3)を生成する。   The image processing unit 1905 performs image processing on the image data Ib (t) from the imaging unit 120. Specifically, for example, the image processing unit 1905 includes the acquisition unit 201, the calculation unit 202, the removal unit 203, the image storage unit 204, and the first memory 205 described in the first to sixth embodiments. Therefore, the noise-removed image data NRIb (t3) as shown in FIG. 18B is generated by the recursive noise processing shown in the first embodiment.

<撮像処理手順例>
図20は、撮像装置100による撮像処理手順例を示すフローチャートである。撮像装置100は、入力部1901によりフレームレート1951の入力を受け付け(ステップS2001)、設定部1902により第2撮像条件1953を設定する(ステップS2002)。
<Example of imaging processing procedure>
FIG. 20 is a flowchart illustrating an example of an imaging process procedure performed by the imaging apparatus 100. The imaging apparatus 100 receives an input of the frame rate 1951 through the input unit 1901 (step S2001), and sets the second imaging condition 1953 through the setting unit 1902 (step S2002).

撮像装置100は、調整部1903により第2撮像条件1953で露光時間を調整し(ステップS2003)、撮像部120により被写体を撮像して画像データ列を生成する(ステップS2004)。撮像装置100は、画像処理部1905により、実施例1〜6に示した再帰的ノイズ除去処理(図3、図7、図9、図12、図14、図17)を含む画像処理を実行する(ステップS2005)。なお、画像処理(ステップS2005)は、図5に示したような再帰的ノイズ除去処理を含んでもよい。   In the imaging apparatus 100, the adjustment unit 1903 adjusts the exposure time under the second imaging condition 1953 (step S2003), and the imaging unit 120 images the subject to generate an image data string (step S2004). The imaging apparatus 100 uses the image processing unit 1905 to perform image processing including the recursive noise removal processing (FIGS. 3, 7, 9, 12, 14, and 17) described in the first to sixth embodiments. (Step S2005). Note that the image processing (step S2005) may include recursive noise removal processing as shown in FIG.

なお、上述の例では、光量情報である露光時間を調整対象としたが、調整対象となる光量情報は露光時間に限らず、F値やISO感度でもよい。F値を調整対象とした場合、第1撮像条件1952の露光時間がF値となり、第2撮像条件1953の露光時間が、第1撮像条件1952のF値よりも値が小さいF値となる。この場合も露出オーバーを低減するため、第2撮像条件1953に、デフォルトの露光時間よりも短くしたり、ISO感度を低くしたりする値を含めればよい。   In the above-described example, the exposure time that is the light amount information is the adjustment target. However, the light amount information that is the adjustment target is not limited to the exposure time, and may be an F value or ISO sensitivity. When the F value is an adjustment target, the exposure time of the first imaging condition 1952 is the F value, and the exposure time of the second imaging condition 1953 is the F value that is smaller than the F value of the first imaging condition 1952. In this case as well, in order to reduce overexposure, the second imaging condition 1953 may include a value that is shorter than the default exposure time or lowers the ISO sensitivity.

また、ISO感度を調整対象とした場合、第1撮像条件1952の露光時間がISO感度となり、第2撮像条件1953の露光時間が、第1撮像条件1952のISO感度よりも高いISO感度となる。この場合も露出オーバーを低減するため、第2撮像条件1953に、デフォルトの露光時間よりも短くしたり、F値を大きくしたりする値を含めればよい。   When the ISO sensitivity is an adjustment target, the exposure time of the first imaging condition 1952 is the ISO sensitivity, and the exposure time of the second imaging condition 1953 is an ISO sensitivity higher than the ISO sensitivity of the first imaging condition 1952. In this case as well, in order to reduce overexposure, the second imaging condition 1953 may include a value that shortens the default exposure time or increases the F value.

このように、実施例7によれば、残像が目立ちにくい画像データ列を生成することができる。また、これらの画像データ列を画像処理部1905に適用することにより、実施例1〜6のようなノイズ除去結果を再帰的に得ることができる。   As described above, according to the seventh embodiment, it is possible to generate an image data string in which an afterimage is not noticeable. Further, by applying these image data strings to the image processing unit 1905, it is possible to recursively obtain the noise removal results as in the first to sixth embodiments.

100 撮像装置、101 プロセッサ、102 記憶デバイス、105 撮像素子、120 撮像部、200 画像処理装置、201 取得部、202 算出部、203 除去部、204 画像保存部、205 第1メモリ、221 重み計算部、222 重み調整部、223 重み保存部、224 第2メモリ、602 算出部、621 空間情報抽出部、622 重み計算部、802 算出部、1001 残像低減処理部、1002 ノイズ除去処理部、1900 変換テーブル、1901 入力部、1902 設定部、1903 調整部、1905 画像処理部 DESCRIPTION OF SYMBOLS 100 Imaging device, 101 Processor, 102 Storage device, 105 Imaging device, 120 Imaging part, 200 Image processing apparatus, 201 Acquisition part, 202 Calculation part, 203 Removal part, 204 Image storage part, 205 1st memory, 221 Weight calculation part , 222 Weight adjustment unit, 223 Weight storage unit, 224 Second memory, 602 calculation unit, 621 Spatial information extraction unit, 622 Weight calculation unit, 802 calculation unit, 1001 Afterimage reduction processing unit, 1002 Noise removal processing unit, 1900 Conversion table , 1901 input unit, 1902 setting unit, 1903 adjustment unit, 1905 image processing unit

Claims (20)

被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データと前記第2画像データよりも時間的に後の第3画像データとを出力する撮像部と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出し、前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みをする算出部と、
前記算出部によって算出された第3重みに基づいて、前記第3画像データのノイズを除去する除去部と、
を有する撮像装置。
An imaging unit that captures an image of a subject and outputs first image data, second image data later in time than the first image data, and third image data later in time than the second image data. When,
A first weight of the first image data is calculated based on the first noise-removed image data from which noise has been removed from the first image data and the second image data, and the first weight from which noise has been removed from the second image data. A calculation unit that calculates a second weight of the second image data based on two noise-removed image data and the third image data, and that performs a third weight based on the first weight and the second weight;
A removing unit that removes noise of the third image data based on the third weight calculated by the calculating unit;
An imaging apparatus having
請求項1に記載の撮像装置であって、
前記撮像部は、前記被写体を撮像して、前記第3画像データよりも時間的に後の前記被写体の第4画像データを出力し、
前記算出部は、前記除去部によって前記第3画像データからノイズ除去された第3ノイズ除去画像データおよび前記第4画像データに基づいて、前記第3画像データの第4重みを算出し、前記第3重みおよび前記第4重みに基づいて、第5重みを算出し、
前記除去部は、前記算出部によって算出された第5重みに基づいて、前記第4画像データのノイズを除去する、撮像装置。
The imaging apparatus according to claim 1,
The imaging unit images the subject and outputs fourth image data of the subject that is temporally later than the third image data;
The calculation unit calculates a fourth weight of the third image data based on the third noise-removed image data from which noise has been removed from the third image data by the removal unit and the fourth image data, and Based on the 3 weights and the fourth weight, the fifth weight is calculated,
The image pickup apparatus, wherein the removal unit removes noise of the fourth image data based on the fifth weight calculated by the calculation unit.
被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出部と、
前記抽出部によって抽出された第1空間情報に基づいて、前記第1画像データの第1重みを算出する算出部と、
前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、
を有する撮像装置。
An imaging unit that images a subject and outputs first image data and second image data temporally later than the first image data;
An extraction unit that extracts first spatial information indicating characteristics of a spatial structure included in an image from at least one of the first noise-removed image data and the second image data that have been denoised from the first image data;
A calculation unit that calculates a first weight of the first image data based on the first spatial information extracted by the extraction unit;
A removing unit that removes noise from the second image data based on the first noise-removed image data and the first weight calculated by the calculating unit;
An imaging apparatus having
請求項3に記載の撮像装置であって、
前記撮像部は、前記第2画像データよりも時間的に後の第3画像データを出力し、
前記抽出部は、前記除去部によって前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データの少なくとも一方から、第2空間情報を抽出し、
前記算出部は、前記抽出部によって抽出された第2空間情報および前記第1重みに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出し、
前記除去部は、前記第2ノイズ除去画像データと、前記算出部によって算出された第3重みと、に基づいて、前記第3画像データのノイズを除去する、撮像装置。
The imaging apparatus according to claim 3,
The imaging unit outputs third image data temporally later than the second image data,
The extraction unit extracts second spatial information from at least one of the second noise-removed image data and the third image data from which noise has been removed from the second image data by the removal unit,
The calculation unit calculates a second weight of the second image data based on the second spatial information extracted by the extraction unit and the first weight, and based on the first weight and the second weight , Calculate the third weight,
The image pickup apparatus, wherein the removal unit removes noise of the third image data based on the second noise-removed image data and the third weight calculated by the calculation unit.
被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、
前記第2画像データ内の残像を低減する残像低減処理部と、
前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記残像低減処理部による残像低減処理済みの第2画像データからノイズを除去する除去部と、
を有する撮像装置。
An imaging unit that images a subject and outputs first image data and second image data temporally later than the first image data;
A calculating unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data;
An afterimage reduction processing unit for reducing afterimages in the second image data;
Based on the first noise-removed image data and the first weight calculated by the calculation unit, a removal unit that removes noise from the second image data that has been subjected to afterimage reduction processing by the afterimage reduction processing unit;
An imaging apparatus having
請求項5に記載の撮像装置であって、
前記残像低減処理部は、ローパスフィルタを用いて、前記第2画像データ内の残像を低減する、撮像装置。
The imaging apparatus according to claim 5,
The afterimage reduction processing unit reduces an afterimage in the second image data using a low-pass filter.
請求項5に記載の撮像装置であって、
前記残像低減処理部は、前記第1画像データと前記第2画像データとを合成し、合成された画像データにおいて、前記第1画像データ内の被写体像と前記第2画像データ内の被写体像との間を補間する、撮像装置。
The imaging apparatus according to claim 5,
The afterimage reduction processing unit combines the first image data and the second image data, and in the combined image data, a subject image in the first image data and a subject image in the second image data An imaging device that interpolates between the two.
請求項5に記載の撮像装置であって、
前記撮像部は、前記第2画像データよりも時間的に後の第3画像データを出力し、
前記算出部は、前記除去部によって前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出し、
前記残像低減処理部は、前記第3画像データ内の残像を低減し、
前記除去部は、前記第2ノイズ除去画像データと、前記算出部によって算出された第3重みと、に基づいて、前記残像低減処理部による残像低減処理済みの第3画像データからノイズを除去する、撮像装置。
The imaging apparatus according to claim 5,
The imaging unit outputs third image data temporally later than the second image data,
The calculation unit calculates a second weight of the second image data based on the second noise-removed image data from which the noise is removed from the second image data by the removal unit and the third image data, and A third weight is calculated based on the first weight and the second weight;
The afterimage reduction processing unit reduces afterimages in the third image data;
The removal unit removes noise from the third image data that has been subjected to the afterimage reduction processing by the afterimage reduction processing unit, based on the second noise removal image data and the third weight calculated by the calculation unit. , Imaging device.
請求項5に記載の撮像装置であって、
前記第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出部を有し、
前記算出部は、前記抽出部によって抽出された第1空間情報に基づいて、前記第1重みを算出する、撮像装置。
The imaging apparatus according to claim 5,
An extraction unit that extracts first spatial information indicating characteristics of a spatial structure included in the image from at least one of the first noise-removed image data and the second image data;
The said calculating part is an imaging device which calculates a said 1st weight based on the 1st spatial information extracted by the said extraction part.
被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、
前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、
前記除去部によって前記第2画像データからノイズ除去された第2ノイズ除去画像データ内の残像を低減する残像低減処理部と、
を有する撮像装置。
An imaging unit that images a subject and outputs first image data and second image data temporally later than the first image data;
A calculating unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data;
A removing unit that removes noise from the second image data based on the first noise-removed image data and the first weight calculated by the calculating unit;
An afterimage reduction processing unit that reduces afterimages in the second noise-removed image data that has been denoised from the second image data by the removal unit;
An imaging apparatus having
請求項10に記載の撮像装置であって、
前記残像低減処理部は、ローパスフィルタを用いて、前記第2ノイズ除去画像データ内の残像を低減する、撮像装置。
The imaging apparatus according to claim 10,
The afterimage reduction processing unit reduces an afterimage in the second noise-removed image data using a low-pass filter.
請求項10に記載の撮像装置であって、
前記残像低減処理部は、前記第1ノイズ除去画像データと前記第2ノイズ除去画像データとを合成し、合成された画像データにおいて、前記第1ノイズ除去画像データ内の被写体像と前記第2ノイズ除去画像データ内の被写体像との間を補間する、撮像装置。
The imaging apparatus according to claim 10,
The afterimage reduction processing unit synthesizes the first noise-removed image data and the second noise-removed image data. In the synthesized image data, the subject image and the second noise in the first noise-removed image data are combined. An imaging device that interpolates between subject images in removed image data.
請求項10に記載の撮像装置であって、
重みを調整する調整部を有し、
前記撮像部は、前記第2画像データよりも時間的に後の第3画像データを出力し、
前記算出部は、前記残像低減処理部による残像低減処理済みの第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出し、
前記除去部は、前記残像低減処理済みの第2ノイズ除去画像データと、前記算出部によって算出された第3重みと、に基づいて、前記第3画像データからノイズを除去し、
前記残像低減処理部は、前記除去部によって前記第3画像データからノイズ除去された第3ノイズ除去画像データ内の残像を低減する、撮像装置。
The imaging apparatus according to claim 10,
An adjustment unit for adjusting the weight;
The imaging unit outputs third image data temporally later than the second image data,
The calculation unit calculates a second weight of the second image data based on the second noise-removed image data that has been subjected to the afterimage reduction processing by the afterimage reduction processing unit and the third image data, and the first weight and Calculating a third weight based on the second weight;
The removal unit removes noise from the third image data based on the second noise-removed image data that has been subjected to the afterimage reduction processing and the third weight calculated by the calculation unit,
The afterimage reduction processing unit reduces an afterimage in the third noise-removed image data from which noise has been removed from the third image data by the removing unit.
請求項10に記載の撮像装置であって、
前記第1ノイズ除去画像データおよび前記第2画像データの少なくとも一方から、画像に含まれる空間構造の特徴を示す第1空間情報を抽出する抽出部を有し、
前記算出部は、前記抽出部によって抽出された第1空間情報に基づいて、前記第1重みを算出する、撮像装置。
The imaging apparatus according to claim 10,
An extraction unit that extracts first spatial information indicating characteristics of a spatial structure included in the image from at least one of the first noise-removed image data and the second image data;
The said calculating part is an imaging device which calculates a said 1st weight based on the 1st spatial information extracted by the said extraction part.
請求項10に記載の撮像装置であって、
前記残像低減処理部は、前記第1ノイズ除去画像データと前記第2画像データとの差分に基づいて、前記第2ノイズ除去画像データ内に存在する残像の画像データを検出し、前記残像の画像データを、前記残像の検出領域に対応する前記第2画像データ内の領域の画像データに置換する、撮像装置。
The imaging apparatus according to claim 10,
The afterimage reduction processing unit detects afterimage image data present in the second noise-removed image data based on a difference between the first noise-removed image data and the second image data, and the image of the afterimage An imaging apparatus that replaces data with image data of a region in the second image data corresponding to the detection region of the afterimage.
被写体を撮像する際のフレームレートの入力を受け付ける入力部と、
前記入力部によって入力されたフレームレートに対応する第1光量情報から前記第1光量情報よりも大きい第2光量情報に調整する調整部と、
前記フレームレートおよび前記調整部によって調整された第2光量情報に基づいて、前記被写体を撮像して、第1画像データと前記第1画像データよりも時間的に後の第2画像データとを出力する撮像部と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出する算出部と、
前記第1ノイズ除去画像データと、前記算出部によって算出された第1重みと、に基づいて、前記第2画像データからノイズを除去する除去部と、
を有する撮像装置。
An input unit for receiving an input of a frame rate when imaging a subject;
An adjustment unit that adjusts the first light amount information corresponding to the frame rate input by the input unit to second light amount information that is larger than the first light amount information;
The subject is imaged based on the frame rate and the second light quantity information adjusted by the adjustment unit, and the first image data and the second image data temporally later than the first image data are output. An imaging unit to
A calculating unit that calculates a first weight of the first image data based on the first noise-removed image data and the second image data from which noise has been removed from the first image data;
A removing unit that removes noise from the second image data based on the first noise-removed image data and the first weight calculated by the calculating unit;
An imaging apparatus having
請求項16に記載の撮像装置であって、
前記フレームレートおよび前記第1光量情報に基づいて、残像を低減する撮像条件を設定する設定部を有し、
前記撮像部は、前記フレームレート、前記第2光量情報、および前記設定部によって設定された撮像条件に基づいて、前記被写体を撮像して、前記第1画像データおよび前記第2画像データを出力する、撮像装置。
The imaging device according to claim 16,
Based on the frame rate and the first light quantity information, a setting unit for setting an imaging condition for reducing afterimages,
The imaging unit images the subject based on the frame rate, the second light quantity information, and the imaging condition set by the setting unit, and outputs the first image data and the second image data. , Imaging device.
請求項16に記載の撮像装置であって、
重みを調整する調整部を有し、
前記撮像部は、前記第2画像データよりも時間的に後の第3画像データを出力し、
前記算出部は、前記除去部によってノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出し、
前記除去部は、前記第2ノイズ除去画像データと、前記算出部によって算出された第3重みと、に基づいて、前記第3画像データからノイズを除去する、撮像装置。
The imaging device according to claim 16,
An adjustment unit for adjusting the weight;
The imaging unit outputs third image data temporally later than the second image data,
The calculation unit calculates a second weight of the second image data based on the second noise-removed image data and the third image data from which noise has been removed by the removal unit, and the first weight and the second weight Based on the weight, a third weight is calculated,
The image pickup apparatus, wherein the removing unit removes noise from the third image data based on the second noise-removed image data and the third weight calculated by the calculating unit.
第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データと前記第2画像データよりも時間的に後に撮像された第3画像データとを取得する取得部と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出し、前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出する算出部と、
前記算出部によって算出された第3重みに基づいて、前記第3画像データのノイズを除去する除去部と、
を有する画像処理装置。
An acquisition unit that acquires first image data, second image data captured after the first image data, and third image data captured after the second image data;
A first weight of the first image data is calculated based on the first noise-removed image data from which noise has been removed from the first image data and the second image data, and the first weight from which noise has been removed from the second image data. A calculation unit that calculates a second weight of the second image data based on two noise-removed image data and the third image data, and calculates a third weight based on the first weight and the second weight; ,
A removing unit that removes noise of the third image data based on the third weight calculated by the calculating unit;
An image processing apparatus.
第1画像データと前記第1画像データよりも時間的に後に撮像された第2画像データと前記第2画像データよりも時間的に後に撮像された第3画像データとを取得する取得処理と、
前記第1画像データからノイズ除去された第1ノイズ除去画像データおよび前記第2画像データに基づいて、前記第1画像データの第1重みを算出し、前記第2画像データからノイズ除去された第2ノイズ除去画像データおよび前記第3画像データに基づいて、前記第2画像データの第2重みを算出し、前記第1重みおよび前記第2重みに基づいて、第3重みを算出する算出処理と、
前記算出処理によって算出された第3重みに基づいて、前記第3画像データのノイズを除去する除去処理と、
をプロセッサに実行させる画像処理プログラム。
An acquisition process for acquiring first image data, second image data captured after the first image data, and third image data captured after the second image data,
A first weight of the first image data is calculated based on the first noise-removed image data from which noise has been removed from the first image data and the second image data, and the first weight from which noise has been removed from the second image data. Calculation processing for calculating a second weight of the second image data based on two noise-removed image data and the third image data, and calculating a third weight based on the first weight and the second weight; ,
A removal process for removing noise of the third image data based on the third weight calculated by the calculation process;
An image processing program for causing a processor to execute.
JP2018035298A 2018-02-28 2018-02-28 Image pickup device, image processing device, and image processing program Active JP7098958B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018035298A JP7098958B2 (en) 2018-02-28 2018-02-28 Image pickup device, image processing device, and image processing program
JP2022104994A JP2022125149A (en) 2018-02-28 2022-06-29 Imaging apparatus
JP2023172451A JP2023174740A (en) 2018-02-28 2023-10-04 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018035298A JP7098958B2 (en) 2018-02-28 2018-02-28 Image pickup device, image processing device, and image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022104994A Division JP2022125149A (en) 2018-02-28 2022-06-29 Imaging apparatus

Publications (2)

Publication Number Publication Date
JP2019149787A true JP2019149787A (en) 2019-09-05
JP7098958B2 JP7098958B2 (en) 2022-07-12

Family

ID=67850898

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018035298A Active JP7098958B2 (en) 2018-02-28 2018-02-28 Image pickup device, image processing device, and image processing program
JP2022104994A Pending JP2022125149A (en) 2018-02-28 2022-06-29 Imaging apparatus
JP2023172451A Pending JP2023174740A (en) 2018-02-28 2023-10-04 Imaging apparatus

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022104994A Pending JP2022125149A (en) 2018-02-28 2022-06-29 Imaging apparatus
JP2023172451A Pending JP2023174740A (en) 2018-02-28 2023-10-04 Imaging apparatus

Country Status (1)

Country Link
JP (3) JP7098958B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117455221A (en) * 2023-12-25 2024-01-26 青岛可颂食品有限公司 Processing flow management system suitable for baking cream

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006025396A1 (en) * 2004-09-03 2006-03-09 Matsushita Electric Industrial Co., Ltd. Image processing device, and image processing program
JP2008294696A (en) * 2007-05-24 2008-12-04 Sony Corp Video signal processing method, program of video signal processing method, recording medium with recorded program of video signal processing method, and video signal processor
JP2010011072A (en) * 2008-06-26 2010-01-14 Olympus Corp Imaging system, image processing method and image processing program
JP2010171517A (en) * 2009-01-20 2010-08-05 Hitachi Kokusai Electric Inc Noise reduction circuit
JP2011205520A (en) * 2010-03-26 2011-10-13 Nanao Corp Cyclic noise removing device and method therefor
JP2013179566A (en) * 2012-02-01 2013-09-09 Panasonic Corp Image processing apparatus and imaging apparatus
JP2013255132A (en) * 2012-06-07 2013-12-19 Olympus Corp Image processor, image processing method and program
JP2017050646A (en) * 2015-08-31 2017-03-09 キヤノン株式会社 Image processing apparatus, image processing method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288595A (en) * 2006-04-18 2007-11-01 Pioneer Electronic Corp Frame circulation noise reduction device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006025396A1 (en) * 2004-09-03 2006-03-09 Matsushita Electric Industrial Co., Ltd. Image processing device, and image processing program
US20070248332A1 (en) * 2004-09-03 2007-10-25 Matsushita Electric Industrial Co., Ltd. Image Processing Device, and Image Processing Program
JP2008294696A (en) * 2007-05-24 2008-12-04 Sony Corp Video signal processing method, program of video signal processing method, recording medium with recorded program of video signal processing method, and video signal processor
JP2010011072A (en) * 2008-06-26 2010-01-14 Olympus Corp Imaging system, image processing method and image processing program
JP2010171517A (en) * 2009-01-20 2010-08-05 Hitachi Kokusai Electric Inc Noise reduction circuit
JP2011205520A (en) * 2010-03-26 2011-10-13 Nanao Corp Cyclic noise removing device and method therefor
JP2013179566A (en) * 2012-02-01 2013-09-09 Panasonic Corp Image processing apparatus and imaging apparatus
JP2013255132A (en) * 2012-06-07 2013-12-19 Olympus Corp Image processor, image processing method and program
JP2017050646A (en) * 2015-08-31 2017-03-09 キヤノン株式会社 Image processing apparatus, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117455221A (en) * 2023-12-25 2024-01-26 青岛可颂食品有限公司 Processing flow management system suitable for baking cream
CN117455221B (en) * 2023-12-25 2024-03-26 青岛可颂食品有限公司 Processing flow management system suitable for baking cream

Also Published As

Publication number Publication date
JP7098958B2 (en) 2022-07-12
JP2022125149A (en) 2022-08-26
JP2023174740A (en) 2023-12-08

Similar Documents

Publication Publication Date Title
JP6911202B2 (en) Imaging control method and imaging device
JP5589446B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US8994849B2 (en) Method and apparatus for increasing dynamic range of image by using electronic shutter
JP2010063088A (en) Imaging apparatus
CN110166706B (en) Image processing method, image processing apparatus, electronic device, and storage medium
JPWO2011145297A1 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
WO2007119680A1 (en) Image pickup device
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP6351271B2 (en) Image composition apparatus, image composition method, and program
JP2008035167A (en) Imaging apparatus
JP5861924B2 (en) Imaging device
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP2023174740A (en) Imaging apparatus
JP6108680B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2008099260A (en) Image processing device, electronic camera and image processing program
JP5213604B2 (en) Imaging device
JP4052348B2 (en) Image processing apparatus and image processing method
JP6173027B2 (en) Image processing apparatus and image processing method
JP4389671B2 (en) Image processing apparatus, image processing method, and computer program
JP2012044377A (en) Image compositing device, image compositing method and program
JP6779408B2 (en) Imaging equipment, imaging methods, and programs
JP7064351B2 (en) Imaging device and imaging method
JP5012805B2 (en) Image processing apparatus, electronic camera, and image processing program
JP6376769B2 (en) Imaging apparatus and control method thereof
JP5234123B2 (en) Image processing apparatus, imaging apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R150 Certificate of patent or registration of utility model

Ref document number: 7098958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150