WO2007077730A1 - 撮像システム、画像処理プログラム - Google Patents

撮像システム、画像処理プログラム Download PDF

Info

Publication number
WO2007077730A1
WO2007077730A1 PCT/JP2006/325276 JP2006325276W WO2007077730A1 WO 2007077730 A1 WO2007077730 A1 WO 2007077730A1 JP 2006325276 W JP2006325276 W JP 2006325276W WO 2007077730 A1 WO2007077730 A1 WO 2007077730A1
Authority
WO
WIPO (PCT)
Prior art keywords
edge
noise
unit
procedure
signal
Prior art date
Application number
PCT/JP2006/325276
Other languages
English (en)
French (fr)
Inventor
Takao Tsuruoka
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to JP2007552898A priority Critical patent/JP4979595B2/ja
Priority to EP06842880A priority patent/EP1976268A1/en
Publication of WO2007077730A1 publication Critical patent/WO2007077730A1/ja
Priority to US12/146,786 priority patent/US8310566B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/618Noise processing, e.g. detecting, correcting, reducing or removing noise for random or high-frequency noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Definitions

  • Imaging system image processing program
  • the present invention relates to an imaging system and an image processing program for extracting an edge component from a signal from an imaging device.
  • Processing for extracting an edge component from a signal from an image sensor can be broadly classified into a single filter process such as Laplacian and a multi-filter process for each direction.
  • a single filter process such as Laplacian
  • a multi-filter process for each direction As an example of the latter, as shown in, for example, Japanese Patent Publication No. 6-90724, by selecting a rectangular area in which the difference from the smoothed signal is the largest among the rectangular areas in four directions, unsharpness for each direction is selected.
  • a technique for performing mask processing is disclosed. As a result, the influence of point defects such as dust can be suppressed and edge components can be extracted with higher accuracy.
  • Japanese Patent No. 3289435 discloses a method of calculating weight coefficients such as step edges, impulse signals, and noise and correcting the edge signals.
  • Japanese Patent Laid-Open No. 2000-306089 discloses a technique for correcting a signal with high frequency components by performing frequency decomposition on a signal using a wavelet, a Laplacian pyramid, or the like. As a result, the edge signal is shaped and the noise component is suppressed, and a high-definition signal can be obtained.
  • Japanese Patent Publication No. 6-90724 it is possible to discriminate between large noise differences such as dust! However, it is not possible to identify isotropic noise such as random noise caused by the image sensor, small brightness difference, and weak noise. There is a problem that it cannot be extracted. Also, in Japanese Patent No. 3289435, the influence of noise can be suppressed by generating a weighting factor, which is a lot of noise and small in some cases. However, since the noise component itself remains, it cannot cope with strong edge enhancement, and there is a problem that the degree of freedom for picture creation is small. Furthermore, Japanese Patent Laid-Open No. 2000-306089 discloses vector information for correction as a low-frequency signal. I get power.
  • the resolution of the vector information is a force that depends on the decomposition level of the wavelet or Laplacian pyramid. For this reason, there is a problem that it is not possible to form the edge signal with the resolution of the original signal, and it is impossible to generate a high-definition edge component for each pixel.
  • the present invention has been made in view of the above circumstances, and by combining noise reduction processing and edge extraction processing, an imaging system capable of extracting edge components with high accuracy even for signals in which noise is mixed.
  • An object of the present invention is to provide an image processing program.
  • the imaging system reduces noise with respect to the signal from the imaging device in the imaging system that processes the signal from the imaging device.
  • Noise processing means for performing processing edge direction detection means for detecting the edge direction from the signal cover subjected to the noise reduction processing, and extracting edge components for the signal from the image sensor based on the edge direction
  • an edge extracting means for performing the processing is provided.
  • FIGS. 25 An application example of the present invention is described in the first embodiment shown in FIGS.
  • the noise processing means configured as described above is the extraction unit 109, the noise estimation unit 110, and the noise reduction unit 111 shown in FIGS. 1, 3, 7, and 25, and the edge direction detection unit is shown in FIGS. 25 corresponds to the edge direction detecting unit 113 shown in FIG. 25, and the edge extracting means corresponds to the edge extracting unit 114 shown in FIGS.
  • the noise reduction processing is performed by the extraction unit 109, the noise estimation unit 110, and the noise reduction unit 111, the signal direction after the noise reduction processing is also detected by the edge direction detection unit 113,
  • the edge extraction unit 114 is an imaging system that extracts an edge component of the original signal force before noise reduction based on the edge direction.
  • the imaging system according to the first invention detects a rough direction of a signal force edge after noise reduction processing, and extracts an edge component of the original signal force based on this direction. For this reason, it is possible to obtain high-quality edge components that suppress the influence of noise and store minute signals.
  • An imaging system is an imaging system for processing a signal from an imaging device.
  • noise processing means for performing noise reduction processing on the signal from the image sensor
  • edge direction detection means for detecting the edge direction based on information from the noise reduction means
  • edge direction for extracting an edge component from the signal from the image sensor.
  • the noise processing means of the above configuration is the extraction unit 700, the noise estimation unit 701, the noise reduction unit 111 and the extraction unit 109, DCT conversion shown in FIGS. Unit 1100, noise estimation unit 1101, noise reduction unit 1102, inverse DCT conversion unit 1103, edge direction detection means are edge direction detection unit 702 shown in FIGS. 28 and 33, and edge direction shown in FIGS.
  • the detection unit 1104 corresponds to the edge extraction unit corresponding to the edge extraction unit 114 shown in FIGS.
  • a preferred application example of the present invention includes an extraction unit 700, a noise estimation unit 701, a noise reduction unit 111 or an extraction unit 109, a DCT conversion unit 1100, a noise estimation unit 1101, a noise reduction unit 1102, and an inverse DCT conversion unit 1103.
  • Noise reduction processing is performed, the edge direction is detected based on the information obtained during the noise reduction processing by the edge direction detection unit 702 or the edge direction detection unit 1104, and before the noise reduction based on the edge direction by the edge extraction unit 114.
  • This is an imaging system that extracts the edge component of the original signal power.
  • An imaging system detects a rough direction of an edge based on information obtained in the process of noise reduction processing, and extracts an edge component from an original signal based on this direction. . For this reason, it is possible to obtain a high-quality edge component that suppresses the influence of noise and stores a fine signal. Furthermore, in order to detect the direction of the edge of the information obtained in the process of noise reduction processing, the scale of the system can be reduced and the cost can be reduced.
  • an imaging system separates a luminance signal and a color signal from the signal from the color imaging device in the imaging system that processes a signal from the color imaging device.
  • YZC separation means noise processing means for performing noise reduction processing on the luminance signal separated by the YZC separation means, edge direction detection means for detecting an edge direction from the luminance signal subjected to the noise reduction processing, Based on the above edge direction
  • edge extraction means for extracting edge components from the luminance signal separated by the YZC separation means.
  • the YZC separation means configured as described above is the YZC separation section 1503 shown in FIG. 48 and the YZC separation section 1602 force shown in FIG. 52.
  • the noise processing means is the extraction section 109 and the noise estimation section 110 shown in FIG. 48 and FIG.
  • the noise reduction unit 111 force edge direction detection means corresponds to the edge direction detection unit 113 shown in FIGS. 48 and 52, and the edge extraction means corresponds to the edge extraction unit 114 shown in FIGS. 48 and 52, respectively.
  • a preferred application example of the present invention is that a signal is separated into a luminance signal and a color signal by the YZC separation unit 1503 or the YZC separation unit 1602, and the luminance is obtained by the extraction unit 109, the noise estimation unit 110, and the noise reduction unit 111.
  • Noise reduction processing is performed on the signal
  • the edge direction detection unit 113 detects the edge direction from the noise signal after noise reduction processing
  • the edge extraction unit 114 detects the edge from the luminance signal before noise reduction based on the edge direction.
  • An imaging system separates a signal from a color image sensor into a luminance signal and a color signal, detects a rough direction of the luminance signal power edge after noise reduction processing, and based on this direction An edge component is extracted from the luminance signal before the noise reduction processing. For this reason, it is possible to obtain high-quality edge components that suppress the influence of noise and store minute signals. In addition, it can be used in various imaging systems in order to cope with signals of color image sensor power.
  • An imaging system separates a luminance signal and a color signal from the signal from the color imaging device in the imaging system for processing the signal from the color imaging device.
  • YZc separating means noise processing means for performing noise reduction processing on the luminance signal separated by the YZC separating means, and edge direction detecting means for detecting the edge direction based on the information of the noise reducing means power , Based on the edge direction
  • edge extraction means for extracting edge components from the luminance signal separated by the YZC separation means.
  • FIG. 73 An application example of the present invention is described in a sixth embodiment shown in FIG. Above structure 73 is the YZC separation unit 1703 shown in FIG. 73, the noise processing unit is the extraction unit 700, the noise estimation unit 701, and the noise reduction unit 111 shown in FIG. 73, and the edge direction detection unit is shown in FIG.
  • the edge direction detection unit 702 shown in FIG. 73 corresponds to the edge extraction unit 114 shown in FIG. 73.
  • the YZC separation unit 1703 separates the signal into a luminance signal and a color signal, and the extraction unit 700, the noise estimation unit 701, and the noise reduction unit 111 perform noise reduction processing on the luminance signal.
  • the edge direction detection unit 702 detects the edge direction based on the information obtained during the noise reduction process, and the edge extraction unit 114 extracts the edge component from the luminance signal before the noise reduction based on the edge direction.
  • An imaging system separates a signal from a color imaging device into a luminance signal and a color signal, detects a rough direction of an edge based on information obtained in the process of noise reduction processing, Based on this direction, the edge component of the luminance signal force before noise reduction processing is extracted. For this reason, it is possible to obtain a high-quality edge component that suppresses the influence of noise and preserves a fine signal.
  • it can be used for various imaging systems in order to cope with signals of color image sensor power.
  • the scale of the system can be reduced and the cost can be reduced.
  • An image processing program is a noise processing procedure for performing noise reduction processing on a signal of imaging element force, and a signal cover edge direction in which the noise reduction processing is performed. It is a program for causing a computer to execute an edge direction detection procedure for detecting an edge and a procedure for extracting an edge component from a signal from the imaging device based on the edge direction.
  • the noise processing procedure of the above configuration is the procedure force from step S2 to step S7 shown in FIG. 26 and FIG. 27.
  • the edge direction detection procedure is the procedure force of step S10 shown in FIG. 26.
  • the edge extraction procedure is the step shown in FIG. Each step of S11 is applicable.
  • An image processing program detects a general direction of a signal power edge after noise reduction processing, and extracts an original signal power edge component based on this direction. . For this reason, it is possible to obtain a high-quality edge component that suppresses the influence of noise and preserves a fine signal.
  • An image processing program detects a noise processing procedure for performing noise reduction processing on a signal having a power of an image sensor and detects an edge direction based on information from the noise processing procedure. And a program for causing a computer to execute an edge direction detection procedure for performing an edge component detection process on a signal from the imaging element based on the detected edge direction.
  • FIGS. 36 and 37 An application example of the present invention is described in the second embodiment shown in FIGS. 36 and 37 and the third embodiment shown in FIGS. 45, 46 and 47.
  • the noise processing procedure of the above configuration is the procedure from step S2 to step S7 shown in FIGS. 36 and 37 and the procedure force from step S51 to step S56 shown in FIGS. 45 and 46.
  • the edge direction detection procedure is shown in FIG.
  • the procedure of step S10 shown and the step S57 force edge extraction procedure shown in FIG. 45 and FIG. 47 correspond to the procedure of step S33 shown in FIG. 36 and step S11 shown in FIG.
  • An image processing program detects a rough direction of an edge based on information obtained in the process of noise reduction processing, and extracts an original signal force edge component based on this direction. . For this reason, it is possible to obtain a high-quality edge component that suppresses the influence of noise and preserves a fine signal.
  • the image processing program according to the seventh invention includes a YZC separation procedure for separating a luminance signal and a color signal from a signal having a color image sensor power, and a luminance separated by the YZC separation procedure. Separation by the noise processing procedure for performing noise reduction processing on the signal, the luminance signal force subjected to the noise reduction processing described above, the edge direction detection procedure for detecting the edge direction, and the YZC separation procedure based on the detected edge direction It is a program for causing a computer to execute a procedure for extracting an edge component from the luminance signal.
  • FIG. 51 An application example of the present invention is described in a fourth embodiment shown in FIG.
  • the YZC separation procedure of the above configuration is shown in Fig. 51.
  • Step S 911S The noise processing procedure is the procedure force from steps S2 to S7 shown in Fig. 51.
  • the edge direction detection procedure is shown in Fig. 51.
  • Step S10 procedure force The edge extraction procedure corresponds to the step Sl l procedure shown in Fig. 51, respectively.
  • An image processing program separates a signal from a color image sensor into a luminance signal and a color signal, detects a rough direction of the luminance signal power edge after noise reduction processing, and in this direction Based on this, the luminance signal force edge component before noise reduction processing is extracted. For this reason, it is possible to obtain a high-quality edge component that suppresses the influence of noise and stores a fine signal. In addition, it can be used in various imaging systems in order to cope with signals of color image sensor power.
  • the image processing program provides a YZC separation procedure for separating a luminance signal and a color signal from a signal having a color imaging device power, and a luminance separated by the YZC separation procedure.
  • the noise processing procedure for performing noise reduction processing on the signal, the edge direction detection procedure for detecting the edge direction based on information from the noise processing procedure, and the YZC separation procedure based on the detected edge direction are separated.
  • the second embodiment shown in FIGS. 36 and 37 is applied to an image processing program for executing a procedure for processing a signal of a color imaging device force.
  • the procedure in step S33 is applicable.
  • An image processing program separates a signal from a color image sensor into a luminance signal and a color signal, and detects a rough direction of an edge based on information obtained in the process of noise reduction processing. Based on this direction, the edge component is extracted from the luminance signal before the noise reduction processing. For this reason, it is possible to obtain a high-quality edge component that suppresses the influence of noise and preserves a fine signal. In addition, it can be used in various imaging systems in order to cope with the color image sensor power signal.
  • FIG. 1 is a block diagram showing a configuration of a first embodiment.
  • ⁇ 2 An explanatory diagram regarding the pixel of interest and the region of interest.
  • FIG. 3 is a block diagram showing a configuration of a noise estimation unit.
  • FIG. 4 is an explanatory diagram related to noise amount estimation, showing the relationship of luminance noise amount to signal level.
  • FIG. 6 is an explanatory diagram regarding the estimation of the amount of noise, and is a diagram showing a method for calculating the luminance noise amount by the simplified noise model force.
  • FIG. 7 is a block diagram showing a configuration of a noise reduction unit.
  • FIG. 10 is an explanatory diagram relating to a processing region and an edge extraction filter of an edge direction detection unit, showing a pixel of interest and its processing region.
  • FIG. 11 is an explanatory diagram regarding a processing region and an edge extraction filter of an edge direction detection unit, and a diagram showing pixel positions from which edges are extracted.
  • FIG. 12 is an explanatory diagram regarding a processing region and an edge extraction filter of an edge direction detection unit, and shows a 0 ° edge extraction filter.
  • FIG. 13 is an explanatory diagram related to a processing region and an edge extraction filter of an edge direction detection unit, and shows a 45 ° edge extraction filter.
  • FIG. 14 is an explanatory diagram related to a processing region and an edge extraction filter of the edge direction detection unit, and shows a 90 ° edge extraction filter.
  • FIG. 15 is an explanatory diagram regarding a processing region and an edge extraction filter of the edge direction detection unit, and shows a 135 ° edge extraction filter.
  • FIG. 16 is an explanatory diagram related to a processing region and an edge extraction filter of the edge direction detection unit, and shows a 180 ° edge extraction filter.
  • FIG. 17 is an explanatory diagram related to the processing region and edge extraction filter of the edge direction detection unit, and shows a 225 ° edge extraction filter.
  • FIG. 18 is an explanatory diagram regarding a processing region and an edge extraction filter of the edge direction detection unit, and shows a 270 ° edge extraction filter.
  • FIG. 19 is an explanatory diagram regarding a processing region and an edge extraction filter of the edge direction detection unit, and shows a 315 ° edge extraction filter.
  • FIG. 20 is an explanatory diagram related to a processing region and an edge extraction filter of an edge direction detection unit, and shows an isotropic edge extraction filter.
  • FIG. 21 is an explanatory diagram of a processing region and an edge extraction filter of an edge direction detection unit, and is an explanatory diagram of a horizontal edge extraction filter.
  • FIG. 22 is an explanatory diagram of a processing region and an edge extraction filter of the edge direction detection unit, and is an explanatory diagram of a vertical edge extraction filter.
  • FIG. 23 is an explanatory diagram related to edge correction of the edge correction unit, and is an explanatory diagram by edge shaping in eight directions.
  • FIG. 24 is an explanatory diagram regarding edge correction of the edge correction unit, and is an explanatory diagram by edge shaping in four directions.
  • ⁇ 25 A block diagram showing the configuration of another form of the first embodiment.
  • FIG. 26 is a flowchart showing the flow of signal processing in the first embodiment, and is a flowchart of overall processing.
  • FIG. 27 is a flowchart showing the flow of signal processing in the first embodiment, and is a flowchart of noise estimation processing.
  • FIG. 29 is an explanatory diagram relating to a pixel of interest and a region of interest, and a diagram showing the pixel of interest and its neighboring region.
  • FIG. 30 is an explanatory diagram related to a target pixel and a target region, and shows a target pixel and extracted similar pixels.
  • FIG. 32 is a block diagram showing a configuration of a noise estimation unit.
  • FIG. 33 is a block diagram showing a configuration of an edge direction detection unit.
  • FIG. 34 is an explanatory diagram regarding an edge extraction filter of an edge direction detection unit, and shows a horizontal edge extraction filter.
  • FIG. 35 is an explanatory diagram of an edge extraction filter of an edge direction detection unit, and shows a vertical edge The figure which shows an extraction filter.
  • FIG. 36 is a flowchart showing the flow of signal processing in the second embodiment, and is a flowchart of overall processing.
  • FIG. 37 is a flowchart showing the flow of signal processing in the second embodiment, and is a flowchart of noise estimation processing.
  • FIG. 39 is an explanatory diagram related to DCT (Discrete Cosine Transform) transformation, showing a real space.
  • DCT Discrete Cosine Transform
  • FIG. 40 is an explanatory diagram related to DCT (Discrete Cosine Transform) transformation, showing a frequency space.
  • DCT Discrete Cosine Transform
  • FIG. 41 is a block diagram showing a configuration of a noise estimation unit.
  • FIG. 42 is a block diagram showing a configuration of a noise reduction unit.
  • FIG. 43 is a block diagram showing a configuration of an edge direction detection unit.
  • FIG. 45 is a flowchart showing the flow of signal processing in the third embodiment, and is a flowchart of overall processing.
  • FIG. 46 is a flowchart showing the flow of signal processing in the third embodiment, and is a flowchart of noise estimation processing.
  • FIG. 47 is a flowchart showing the flow of signal processing in the third embodiment, and is a flowchart of edge direction detection processing.
  • FIG. 49 is an explanatory diagram relating to a color filter, showing a Bayer-type primary color filter. ⁇ 50] An illustration of a color filter, showing a color difference line sequential complementary color filter
  • FIG. 51 is a flowchart showing a signal processing flow in the fourth embodiment.
  • FIG. 57 is an explanatory diagram related to an edge extraction filter at 0 ° of the edge direction extraction unit, and shows a case where the target pixel is R or B.
  • FIG. 58 is an explanatory diagram of an edge extraction filter at 0 ° of the edge direction extraction unit, and shows a case where the pixel of interest is G.
  • FIG. 59 is an explanatory diagram of a 45 ° edge extraction filter of the edge direction extraction unit, and shows a case where the target pixel is R or B.
  • FIG. 60 is an explanatory diagram of a 45 ° edge extraction filter of the edge direction extraction unit, and shows a case where the target pixel is G.
  • FIG. 61 is an explanatory diagram related to a 90 ° edge extraction filter of the edge direction extraction unit, and shows a case where the target pixel is R or B.
  • FIG. 62 is an explanatory diagram related to a 90 ° edge extraction filter of the edge direction extraction unit, and shows a case where the target pixel is G.
  • FIG. 63 is an explanatory diagram regarding an edge extraction filter of 135 ° of the edge direction extraction unit, and shows a case where the target pixel is R or B.
  • FIG. 64 is an explanatory diagram of an edge extraction filter at 135 ° of the edge direction extraction unit, and shows a case where the target pixel is G.
  • FIG. 65 is an explanatory diagram related to a 180 ° edge extraction filter of the edge direction extraction unit, and shows a case where the target pixel is R or B.
  • FIG. 66 is an explanatory diagram related to a 180 ° edge extraction filter of the edge direction extraction unit, and shows a case where the target pixel is G.
  • FIG. 67 is an explanatory diagram regarding an edge extraction filter of 225 ° of the edge direction extraction unit, and shows a case where the target pixel is R or B.
  • FIG. 68 is an explanatory diagram of an edge extraction filter at 225 ° of the edge direction extraction unit, and shows a case where the target pixel is G.
  • FIG. 69 is an explanatory diagram regarding a 270 ° edge extraction filter of the edge direction extraction unit, and shows a case where the target pixel is R or B;
  • FIG. 70 is an explanatory diagram of a 270 ° edge extraction filter of the edge direction extraction unit, and shows a case where the target pixel is G.
  • FIG. 71 is an explanatory diagram relating to a 315 ° edge extraction filter of the edge direction extraction unit, and shows a case where the target pixel is R or B.
  • FIG. 72 is an explanatory diagram of an edge extraction filter at 315 ° of the edge direction extraction unit, and shows a case where the target pixel is G.
  • FIG. 73 is a block diagram showing the configuration of the sixth embodiment.
  • FIG. 1 to FIG. 27 show the first embodiment of the present invention
  • FIG. 1 is a block diagram showing the configuration of the first embodiment
  • FIG. 2 is an explanatory diagram regarding the pixel of interest and the region of interest
  • Fig. 3 is a block diagram showing the configuration of the noise estimator
  • Fig. 4 is an explanatory diagram relating to the estimation of the noise amount, showing the relationship of the luminance noise amount to the signal level
  • Fig. 5 is an explanatory diagram relating to the noise amount estimation.
  • Fig. 6 is a diagram showing a simplified model of the noise model
  • Fig. 1 is a block diagram showing the configuration of the first embodiment
  • FIG. 2 is an explanatory diagram regarding the pixel of interest and the region of interest
  • Fig. 3 is a block diagram showing the configuration of the noise estimator
  • Fig. 4 is an explanatory diagram relating to the estimation of the noise amount, showing the relationship of the luminance noise amount to the signal level
  • Fig. 5 is an explanatory diagram
  • FIG. 6 is an explanatory diagram related to the estimation of the noise level, showing a calculation method of the luminance noise amount of the simplified noise model power
  • Fig. 7 Fig. 8 is a block diagram showing the configuration of the edge direction detection unit
  • Fig. 9 is a block diagram showing another configuration of the edge direction detection unit
  • Figs. 10 to 22 are edge directions.
  • FIG. 10 is a diagram showing a processing region of the pixel of interest Oyo benefactor
  • diagram 11 shows a pixel position to be an edge extraction
  • Fig. 13 shows a 45 ° edge extraction filter
  • Fig. 14 shows a 90 ° edge extraction filter
  • Fig. 15 shows a 135 ° edge extraction filter
  • FIG. 16 Figure 18 shows a 180 ° edge extraction filter
  • Figure 17 shows a 225 ° edge extraction filter
  • Figure 18 shows a 270 ° edge extraction filter
  • Figure 19 shows a 315 ° edge extraction filter.
  • Fig. 20, Fig. 20 is a diagram showing an isotropic edge extraction filter
  • Fig. 21 is an explanatory diagram of a horizontal edge extraction filter
  • Fig. 22 is an explanatory diagram of a vertical edge extraction filter
  • Fig. 23, Fig. 24 are edge corrections of the edge correction unit.
  • FIG. 23 is an explanatory diagram based on edge shaping in eight directions
  • FIG. 24 is an explanatory diagram based on edge shaping in four directions
  • FIG. 25 is a block diagram showing a configuration of another form of the first embodiment.
  • 26 and 27 show the signal processing in the first embodiment.
  • FIG. 26 is a flowchart of overall processing
  • FIG. 27 is a flowchart of noise estimation processing.
  • FIG. 1 is a block diagram showing a configuration of an imaging system according to the first embodiment of the present invention.
  • the lens system 100 is for forming a subject image.
  • a diaphragm 101 is disposed in the lens system 100 and is used to define a light beam passing range in the lens system 100.
  • the CCD 102 photoelectrically converts an optical subject image formed through the lens system 100 and outputs an electrical video signal.
  • the amplifier 103 amplifies the output of the CCD 102 in accordance with a predetermined amplification factor (also referred to as amplification amount or gain).
  • the AZD conversion 104 converts an analog video signal output from the CCD 102 and amplified by the amplifier 103 into a digital signal.
  • the buffer 105 temporarily stores the digital video signal output from the AZD transformation 104.
  • the signal from the AZD transformation 104 is transferred to the extraction unit 109 and the edge extraction unit 114 via the notch 105.
  • the buffer 105 is also connected to the photometric evaluation unit 106 and the in-focus detection unit 107.
  • the photometric evaluation unit 106 performs photometric evaluation on the subject based on the video signal stored in the buffer 105, and controls the diaphragm 101, the CCD 102, and the amplifier 103 based on the evaluation result. That is, the photometric evaluation unit 106 performs exposure control by adjusting the aperture value of the aperture 101, the electronic shutter speed of the CCD 102, and the gain of the amplifier 103.
  • the in-focus detection unit 107 performs in-focus detection based on the video signal stored in the buffer 105, and drives an AF motor 108 described later based on the detection result.
  • the AF motor 108 is controlled by the in-focus detection unit 107 to drive the focus lens included in the lens system 100 so that the subject image is formed on the imaging surface of the CCD 102. It is what you do.
  • the extraction unit 109 is an extraction unit that extracts and outputs a video signal in a predetermined area of the video signal power stored in the buffer 105.
  • the signal from the extraction unit 109 is connected to the noise estimation unit 110 and the noise reduction unit 111.
  • the noise estimator 110 is a noise estimator, and estimates the amount of noise from the video signal cover in the predetermined area extracted by the extractor 109.
  • the estimated noise amount is transferred to the noise reduction unit 111.
  • the noise reduction unit 111 is a predetermined area extracted by the extraction unit 109.
  • the video signal is subjected to noise reduction processing based on the amount of noise estimated by the noise estimation unit 110.
  • the video signal after the noise reduction processing is transferred to the buffer 112.
  • the buffer 112 is connected to the edge direction detection unit 113 and the edge enhancement unit 116.
  • the edge direction detection unit 113 is edge direction detection means, and detects the edge direction of the video signal force after noise reduction stored in the notch 112. The detected edge direction is transferred to the edge extraction unit 114 and the edge correction unit 115.
  • the edge extraction unit 114 is an edge extraction unit that extracts the edge component of the video signal force stored in the buffer 105 based on the information on the edge direction detected by the edge direction detection unit 113. .
  • the extracted edge component is transferred to the edge correction unit 115.
  • the edge correction unit 115 is an edge correction unit, and corrects the edge component extracted from the edge extraction unit 114 based on information on the edge direction detected by the edge direction detection unit 113.
  • the corrected edge component is transferred to the edge enhancement unit 116.
  • the edge enhancement unit 116 is an edge enhancement unit, and performs edge enhancement processing of the video signal after the noise reduction processing stored in the buffer 112, using the edge component subjected to the correction processing by the edge correction unit 115. Is what you do.
  • the video signal subjected to the edge enhancement processing is transferred to the signal processing unit 117.
  • the signal processing unit 117 is a signal processing unit, and performs desired signal processing such as known compression processing on the video signal on which the edge enhancement processing has been performed by the edge enhancement unit 116.
  • the video signal subjected to signal processing is transferred to the output unit 118.
  • the output unit 118 is output means for outputting the video signal from the signal processing unit 117 to record it on a memory card or the like, for example.
  • the external I / F unit 120 which is the information acquisition means included in the control means, sets various modes at the time of shooting, such as switching the power switch, shirt tab, moving picture Z still image, and setting the compression rate, image size, and ISO sensitivity.
  • the control unit 119 serving as both the control unit, the parameter calculation unit, and the information acquisition unit includes the amplifier 103, the AZD converter 104, the photometric evaluation unit 106, the in-focus detection unit 107, the extraction unit 109, the noise estimation unit 110, Bidirectionally connected to noise reduction unit 111, edge direction detection unit 113, edge extraction unit 114, edge correction unit 115, edge enhancement unit 116, signal processing unit 117, output unit 118, and external iZF unit 120 Integrated control of this imaging system including these For example, it is constituted by a microcomputer. Further, a signal from a temperature sensor 121 arranged in the vicinity of the CCD 102 is also connected to the control unit 119.
  • FIG. 1 a signal flow will be described. After setting the shooting conditions such as ISO sensitivity via the external IZF unit 120, press the shutter button (not shown) halfway to enter the pre-shooting mode.
  • a signal photographed through the lens system 100, the aperture 101, and the CCD 102 is output as an analog signal.
  • the CCD 102 is a monochrome single-plate CCD and the output signal is a luminance signal Y.
  • the analog signal is amplified by a predetermined amount by the amplifier 103, converted into a digital signal by the AZD conversion 104, and transferred to the buffer 105.
  • the AZD conversion 104 is converted into a digital signal with 12-bit gradation.
  • the video signal in the buffer 105 is transferred to the photometric evaluation unit 106 and the in-focus detection unit 107.
  • the photometric evaluation unit 106 calories the set ISO sensitivity, shutter speed at the limit of camera shake, etc., and obtains the brightness level in the signal so that appropriate exposure is obtained, and the electronic shutter speed of the aperture 101 and CCD 102 and the gain of the amplifier 103 are adjusted. Control etc.
  • the focus detection unit 107 detects the edge intensity in the signal and controls the AF motor 108 so as to maximize the edge intensity, thereby obtaining a focus signal.
  • full shooting information is input by inputting full-press information of the shutter button force via the external I / F unit 120, and the video signal is transferred to the buffer 105 in the same manner as the pre-shooting.
  • the main photographing is performed based on the exposure condition obtained by the photometric evaluation unit 106 and the focusing condition obtained by the in-focus detection unit 107, and these photographing conditions are transferred to the control unit 119.
  • the video signal in the buffer 105 is transferred to the extraction unit 109.
  • the extraction unit 109 Based on the control of the control unit 119, the extraction unit 109 has a 3 ⁇ 3 pixel size including the target pixel P as shown in FIG.
  • the pixel of interest is assumed to be P, but the pixel of interest itself is
  • the noise estimation unit 110 estimates the noise amount N of the pixel of interest P based on the region of interest from the extraction unit 109 and information at the time of shooting, and this is used as the noise reduction unit 1
  • the noise reduction unit 111 performs noise reduction processing on the target pixel P from the extraction unit 109 based on the noise amount N from the noise estimation unit 110 based on the control of the control unit 119.
  • the target pixel P ′ and its noise amount N after noise reduction processing are transferred to the buffer 112.
  • the processing in the extraction unit 109, the noise estimation unit 110, and the noise reduction unit 111 is performed synchronously for each region of interest based on the control of the control unit 119.
  • the nofer 112 all signals after noise reduction processing and the amount of noise thereof are recorded.
  • the edge direction detection unit 113 based on the control of the control unit 119, receives the pixel of interest P 'after noise reduction processing as shown in FIG.
  • the edge extraction unit 114 Based on the control of the control unit 119, the edge extraction unit 114 sequentially extracts the original signal before noise reduction processing at the same position as the processing region used by the edge direction detection unit 113 from the buffer 105. Thereafter, based on the edge direction from the edge direction detection unit 113, the pixel of interest P ′ and its surrounding eight pixels ( ⁇ ′, ⁇ ′, ⁇ ′, ⁇ ′, ⁇ ′, ⁇ ′, P ′)
  • the edge correction unit 115 is based on the control of the control unit 119, and the edge component of the target pixel P ′
  • the corrected edge component E ′ is obtained and transferred to the edge enhancement unit 116.
  • the target pixel P ′ after noise reduction processing is sequentially transferred from the buffer 112.
  • edge direction detection unit 113 edge extraction unit 114, edge correction unit 115, and edge enhancement unit 116 is performed synchronously in units of processing regions based on the control of the control unit 119.
  • the signal processing unit 117 Based on the control of the control unit 119, the signal processing unit 117 performs a known compression process on the signal after the edge enhancement processing and transfers the signal to the output unit 118.
  • the output unit 118 records and saves the signal in a memory mode or the like.
  • FIG. 3 shows an exemplary configuration of the noise estimation unit 110.
  • the noise estimation unit 110 includes an average calculation unit 200, a gain calculation unit 201, a standard value assigning unit 202, a parameter ROM 203, a parameter selection unit 204, an interpolation unit 205, and a correction unit 206.
  • the extraction unit 109 is connected to the average calculation unit 200.
  • the average calculation unit 200 is connected to the parameter selection unit 204.
  • the gain calculation unit 201, standard value assigning unit 202, and parameter ROM 203 are connected to the parameter selection unit 204.
  • the parameter selection unit 204 is connected to the interpolation unit 205 and the correction unit 206.
  • the interpolation unit 205 is connected to the noise reduction unit 111 via the correction unit 206.
  • the control unit 119 is bi-directionally connected to the average calculation unit 200, the gain calculation unit 201, the standard value assignment unit 202, the parameter selection unit 204, the interpolation unit 205, and the correction unit 206.
  • the average calculation unit 200 performs the noise reduction processing from the extraction unit 109 based on the control of the control unit 119.
  • the value AV is shown in Equation 2.
  • the gain calculation unit 201 obtains the gain in the amplifier 103 based on the information on the ISO sensitivity and the exposure condition transferred from the control unit 119 and transfers the gain to the parameter selection unit 204.
  • the control unit 119 obtains the temperature information of the CCD 102 from the temperature sensor 121 and transfers this to the parameter selection unit 204.
  • the parameter selection unit 204 calculates the average value and gain of the attention area from the average calculation unit 200.
  • the amount of luminance noise is estimated based on the gain information from the unit 201 and the temperature information from the control unit 119.
  • Figure 4 is a plot of the noise amount N when the luminance value is the signal level L.
  • the noise amount N increases in a quadratic curve with respect to the signal level.
  • Modeling Fig. 4 with a quadratic function yields Equation 3.
  • FIG. 4 plots the amount of noise with respect to three types of ISO sensitivities 100, 200, and 400 related to gain at a certain temperature as an example. Each curve has the form shown in Equation 3, but its coefficient depends on the ISO sensitivity associated with the gain. If the temperature is t, the gain is g, and the model is formulated in consideration of the above, Equation 4 is obtained.
  • N a L + ⁇ L + y
  • Equation 4 Equation 4
  • the model that gives the maximum amount of noise is selected as the reference noise model, and this is approximated by a predetermined number of broken lines.
  • the inflection point of the broken line is represented by coordinate data (L, N) having the signal level L and the noise amount N as components.
  • n indicates the number of inflection points.
  • correction factor k for deriving other noise models such as the above reference noise model.
  • the correction factor k applies a least square method between each noise model and the reference noise model.
  • FIG. 6 shows a method for calculating the amount of noise from the simplified noise model shown in FIG. For example, the amount of noise N corresponding to a given signal level 1, gain g, and temperature t is obtained.
  • the amount of noise N corresponding to a given signal level 1, gain g, and temperature t is obtained.
  • the reference noise amount N in the reference noise model is obtained by linear interpolation.
  • the noise amount N is obtained by multiplying the reference noise amount N by the correction coefficient k.
  • the meter selection unit 204 also signals the average value AV force of the attention area from the average calculation unit 200.
  • the interpolation unit 205 Based on the control of the control unit 119, the interpolation unit 205 performs signal level 1 from the parameter selection unit 204 and the coordinate data (L, N) and (L, N) force of the section based on the reference noise model 5.
  • the reference noise amount N in Dell is calculated and transferred to the correction unit 206.
  • the correction unit 206 calculates the noise amount N based on the correction coefficient k from the parameter selection unit 204 and the reference noise amount N from the interpolation unit 205 based on Equation 6, and gt 1
  • the amount of noise N of the target pixel P be N.
  • the estimated noise amount N and average AV are noise
  • FIG. 7 shows an exemplary configuration of the noise reduction unit 111.
  • the noise reduction unit 111 has a range setting ⁇ 300, switching ⁇ 301, first smoothing ⁇ second smoothing ⁇ 303.
  • Noise estimation unit 110 is connected to range setting unit 300, and range setting unit 300 is connected to switching unit 3 01, first smoothing unit 302, and second smoothing unit 303.
  • the extraction unit 109 is connected to the switching unit 301, and the switching unit 301 is connected to the first smoothing unit 302 and the second smoothing unit 303.
  • the first smoothing unit 302 and the second smoothing unit 303 are connected to the notfer 112.
  • the control unit 119 is bidirectionally connected to the range setting unit 300, the switching unit 301, the first smoothing unit 302, and the second smoothing unit 303.
  • the noise estimation unit 110 transfers the average value AV and the noise amount N of the attention area to the range setting unit 300.
  • Range setting section 300 sets an upper limit Up and a lower limit Low as Equation 7 as an allowable range related to the amount of noise based on the control of control section 119.
  • the allowable ranges Up and Low are transferred to the switching unit 301.
  • the range setting unit 300 also converts the average value AV and the noise amount N into the first smoothing unit 302 and the second smoothing.
  • the switching unit 301 reads the target pixel P from the extraction unit 109 based on the control of the control unit 119.
  • the switching unit 301 transfers the pixel of interest P to the first smoothing unit 302 when “belonging to the noise range”, and to the second smoothing unit 303 otherwise.
  • First smoothing section 302
  • the target pixel P ′ and the noise amount N that have been subjected to noise reduction processing in Equation 8 are the buffer 11
  • the second smoothing unit 303 adds the range setting unit 300 to the target pixel P from the switching unit 301. Correction processing is performed using the average force AV and the noise amount N. First, “Noise range
  • FIG. 8 shows an example of the configuration of the edge direction detection unit 113.
  • Edge direction detection section 1 13i3 ⁇ 4, 3 ⁇ 4fg ⁇ 3 ⁇ 43 ⁇ 4400, notch: T401, finole evening section 402, finole evening ROM403, noffer 404, edge selection section 405, and direction determination section 406 are provided.
  • the nota 112 is connected to the threshold setting unit 400 and the filter processing unit 402.
  • the threshold setting unit 400 is connected to the edge selection unit 405 via the buffer 401.
  • the filter processing unit 402 is connected to the edge extraction unit 114 and the edge correction unit 115 via a noffer 404, an edge selection unit 405, and a direction determination unit 406.
  • the filter ROM 403 is connected to the filter processing unit 402.
  • the control unit 119 is bi-directionally connected to the threshold setting unit 400, the filter processing unit 402, the edge selection unit 405, and the direction determination unit 406.
  • the threshold setting unit 400 reads the noise amount ⁇ ⁇ corresponding to the target pixel P ′ subjected to noise reduction processing from the buffer 112 based on the control of the control unit 119, and performs a predetermined coefficient g, for example, g
  • the threshold T for the edge component is calculated as shown in Equation 11.
  • the processing region P ′ (k 0 to 4) having a size of 5 ⁇ 5 pixels shown in FIG.
  • ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , ⁇ ) are calculated.
  • the calculated threshold value is transferred to buffer 401.
  • the filter processing unit 402 reads the processing region P 'having a size of 5 X 5 pixels shown in Fig. 10 from the buffer 112, and the pixel of interest P' and its surrounding 8 pixels kl 22
  • FIG. 3 X 3 size filter processing is performed on 9 pixels.
  • Figures 12 to 19 show the eight directions (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 °, 315 °) used for the filter processing. Is stored in the filter ROM 403 and transferred to the filter processing unit 402 as necessary. The filter processing unit 402 performs filter processing in eight directions on the nine pixels shown in FIG. By calculating the value, a total of 72 edge components are calculated and transferred to the buffer 404.
  • the edge selection unit 405 reads the threshold value for the nine pixels from the buffer 401 and reads the edge component in eight directions for the nine pixels from the buffer 404. After that, the edge selection unit 405 compares the threshold value with the edge components in the eight directions in units of pixels, omits the edge component below the threshold value, and transfers the edge component above the threshold value to the direction determination unit 406.
  • the direction determining unit 406 processes the edge component transferred from the edge selecting unit 405 in units of nine pixels based on the control of the control unit 119. This sorts the transferred edge components and detects the maximum value and the second maximum value excluding the diagonal direction that is 180 ° off the direction that gives the maximum value, and the difference between the two is greater than or equal to a predetermined threshold value.
  • the direction giving the maximum value is the edge direction (D and D, D, D, D, D, D, D, D, D, D, D, D). Meanwhile, the maximum and second
  • Isotropic edge direction Isotropic edge direction. Also, if there are no 8-direction edge components transferred from the edge selection unit 405, it is assumed that there is no edge direction as a flat region. When the “direction in which the maximum value is given” is obtained, this direction is transferred to the edge extraction unit 114 and the edge correction unit 115. In the case of “isotropic edge direction” and “no edge direction”, the information is transferred to the control unit 119.
  • the control unit 119 controls the edge extraction unit 114.
  • the control unit 119 uses the filter coefficient corresponding to the direction shown in Figs. Let the extraction occur.
  • the edge component is extracted by the isotropic filter coefficient shown in FIG.
  • the processing of the edge extraction unit 114 is stopped and the processing is shifted to the next pixel of interest.
  • the force using the threshold based on the filter processing in eight directions and the amount of noise is not necessarily limited to such a configuration in determining the edge direction.
  • a simpler configuration with horizontal and vertical two-way filtering and a fixed threshold is possible.
  • FIG. 9 is a diagram in which the threshold setting unit 400 and the notifier 401 in FIG. 8 are deleted, and the edge selection unit 405 is replaced with a fluctuation removal unit 500.
  • the basic configuration is the same as the edge direction detection unit 113 shown in FIG.
  • the same components are denoted by the same names and reference numerals, description thereof is omitted, and only differences are mainly described.
  • the buffer 404 is connected to the fluctuation removing unit 500, and the fluctuation removing unit 500 is connected to the direction determining unit 406.
  • the control unit 119 is connected to the fluctuation removing unit 500 in both directions.
  • the filter processing unit 402 performs two horizontal and vertical filter processes on the nine pixels shown in FIG. 11 and calculates absolute edge values to calculate a total of 18 edge components. Transfer to. Figures 21 and 22 show the filter coefficients in two directions, horizontal and vertical. The filter coefficients are recorded in the filter ROM 403 and transferred to the filter processing unit 402 as necessary.
  • the fluctuation removing unit 500 reads the edge components in the two directions for the nine pixels from the buffer 404 based on the control of the control unit 119. After this, it is assumed that a predetermined lower bit, AZD variation 104 in this embodiment is 12-bit gradation, so that, for example, the lower 4 bits are deleted to remove minute fluctuation components.
  • the edge component in the two directions from which the fluctuation component has been removed is transferred to the direction determining unit 406.
  • the direction determination unit 406 processes the edge component transferred from the edge selection unit 405 based on the control of the control unit 119 in units of nine pixels, and calculates the edge direction. Equation 12 shows the calculation of the edge direction at the target pixel P ′.
  • Equation 12 E0 means horizontal edge component
  • E90 means vertical edge component.
  • the calculation of Equation 12 is performed on a pixel basis for the nine pixels shown in FIG. It should be noted that, as a result of removing the fluctuation component, if there is no edge component in both the horizontal and vertical directions, “there is no edge direction”, the information is transferred to the control unit 119. In processing in two directions, the “isotropic edge direction” is not detected.
  • FIG. 23 and FIG. 24 show surrounding pixels used for edge component correction in the edge correction unit 115.
  • images in eight directions are based on the edge direction D of the target pixel P ′.
  • a high-quality edge component can be generated.
  • the scale of the system can be reduced and the cost can be reduced.
  • the noise reduction processing is performed with noise estimation and force noise estimation performed by noise reduction.
  • the estimation accuracy is improved by performing regional force estimation, and attention is paid to noise reduction. Since only the pixels are targeted, the accuracy of the noise reduction process can be improved, and a high-quality signal can be obtained.
  • noise estimation various information related to the amount of noise is dynamically obtained for each shooting, and a standard value is set for information that cannot be obtained, so a highly accurate and stable noise reduction effect can be obtained.
  • the detection of the edge direction is performed by measuring the edge strength in a plurality of directions or in the horizontal and vertical directions. After the determination, comparison with a threshold based on the amount of noise or removal of minute edge strength is performed, so that the influence of noise is suppressed and the edge direction can be obtained with high accuracy.
  • imaging including the lens system 100, the aperture 101, the CCD 102, the amplifier 103, the ⁇ / ⁇ change 104, the photometric evaluation unit 106, the in-focus detection unit 107, the AF motor 108, and the temperature sensor 121.
  • imaging including the lens system 100, the aperture 101, the CCD 102, the amplifier 103, the ⁇ / ⁇ change 104, the photometric evaluation unit 106, the in-focus detection unit 107, the AF motor 108, and the temperature sensor 121.
  • imaging including the lens system 100, the aperture 101, the CCD 102, the amplifier 103, the ⁇ / ⁇ change 104, the photometric evaluation unit 106, the in-focus detection unit 107, the AF motor 108, and the temperature sensor 121.
  • a memory card in which a video signal captured by a separate imaging unit is in an unprocessed raw data format, and additional information such as imaging conditions is recorded in a header unit, etc. It is also possible to handle the recording medium power.
  • FIG. 25 shows a lens system 100, an aperture 101, a CCD 102, an amplifier 103, an AZD conversion 104, a photometric evaluation unit 106, a focus detection unit 107, an AF motor 108, and a temperature sensor from the configuration shown in FIG. Is omitted, and an input unit 600 and a header information analysis unit 601 are added.
  • the basic configuration is the same as in FIG. 1, and the same name and code are assigned to the same configuration. Only different parts will be described below.
  • the input unit 600 is connected to the notch 105 and the header information analysis unit 601.
  • the control unit 119 is bi-directionally connected to the input unit 600 and the header information analysis unit 601.
  • the external IZF unit 120 such as a mouse or keyboard
  • signals and header information stored in a recording medium such as a memory card are read from the input unit 600.
  • the signal from the input unit 600 is transferred to the buffer 105, and the header information is transferred to the header information analysis unit 601.
  • the header information analysis unit 601 extracts the information at the time of shooting as the header information power and transfers it to the control unit 119.
  • the subsequent processing is the same as in FIG.
  • the signal from the CCD 102 is output as unprocessed raw data, and the temperature and gain at the time of shooting from the control unit 119 are output as header information.
  • a configuration in which processing is performed separately by software is also possible.
  • FIG. 26 and FIG. 27 show flowcharts related to signal processing software processing.
  • header information such as a signal, temperature, and gain is read (step Sl).
  • the noise amount of the extracted attention area is estimated and calculated as the noise amount for the attention pixel (step S3).
  • an allowable range shown in Formula 7 is set for the pixel of interest (step S4).
  • step S6 it is determined whether or not the target pixel belongs to an allowable range. If it belongs, the process branches to the next step S6, and if not, the process branches to step S7 (step S5).
  • step S6 When it is determined in step S5 that the target pixel belongs to the allowable range, the process shown in Formula 8 is performed (step S6).
  • step S5 if it is determined in step S5 that the pixel of interest does not belong within the allowable range,
  • step S7 The processing shown in 9 or Equation 10 is performed (step S7).
  • step S6 or step S7 it is subsequently determined whether or not extraction of all regions of interest has been completed. If not, the process proceeds to step S2. If completed, step S2 is performed.
  • step S8 If it is determined in step S8 that the extraction of all regions of interest has been completed, then the pixel of interest and the processing region of 5 X 5 pixels size as shown in Fig. 10 are extracted (step S9).
  • the edge direction is detected using the direction-specific extraction filters shown in FIGS. 12 to 19 for the nine pixels shown in FIG. 11 (step S 10).
  • an edge component is extracted from the original signal before the noise reduction processing based on the edge direction from step S10 (step Sl l).
  • the edge component is corrected by the correction processing shown in Equation 13 or Equation 14 using the edge components of the neighboring pixels shown in Fig. 23 or Fig. 24 (Step S12). ).
  • the edge enhancement processing shown in Equation 1 is applied to the signal of the target pixel after the noise reduction processing. Perform (Step SI 3).
  • step S15 step S14
  • step S14 If it is determined in step S14 that extraction of all the processing areas has been completed, then known compression processing and the like are performed (step S15).
  • FIG. 27 is a flowchart relating to the estimation of the amount of noise in step S3.
  • step S information such as temperature and gain is set from the read header information (step S).
  • the processing can be performed by software in a processing device such as a computer.
  • FIGS. 28 to 37 show the second embodiment of the present invention
  • FIG. 28 is a block diagram showing the configuration of the second embodiment
  • FIGS. 29 and 30 show the pixel of interest and the region of interest.
  • 29 is a diagram showing the target pixel and its neighboring area
  • FIG. 30 is a diagram showing the target pixel and extracted similar pixels
  • FIG. 31 is a block diagram showing the configuration of the extraction unit.
  • 32 is a block diagram showing the configuration of the noise estimation unit
  • FIG. 33 is a block diagram showing the configuration of the edge direction detection unit
  • FIGS. 34 and 35 are explanatory diagrams regarding the edge extraction filter of the edge direction detection unit. Is a diagram showing a horizontal edge extraction filter
  • FIG. 35 is a diagram showing a vertical edge extraction filter
  • FIG. 36 and 37 are flowcharts of signal processing in the second embodiment
  • FIG. 36 is a flowchart of overall processing
  • FIG. I is a flowchart of the noise estimation process
  • FIG. 28 is a block diagram showing a configuration of the second embodiment.
  • This embodiment is replaced with the extraction unit 109, noise estimation unit 110, edge direction detection unit 113 force extraction unit 700, noise estimation unit 701, and edge direction detection unit 702 in the first embodiment shown in FIG. 70 3 is added.
  • the basic configuration is the same as that of the first embodiment, and the same components are denoted by the same names and reference numerals, the description thereof is omitted, and only different points will be mainly described.
  • the buffer 105 is connected to the photometric evaluation unit 106, the in-focus detection unit 107, the extraction unit 700, and the edge extraction unit 114.
  • Extraction unit 700 is connected to noise estimation unit 701 and noise reduction unit 111.
  • the noise estimation unit 701 is connected to the extraction unit 700, the noise reduction unit 111, and the edge direction detection unit 702.
  • the edge direction detection unit 702 is connected to the edge extraction unit 114 and the edge correction unit 115 via a nother 703.
  • the control unit 119 is bi-directionally connected to the extraction unit 700, the noise estimation unit 701, and the edge direction detection unit 702.
  • the present embodiment is basically the same as the first embodiment, and only different parts will be described.
  • the target pixel P is the noise estimation unit 701 and noise reduction.
  • the noise estimation unit 701 is a pixel of interest P that performs noise reduction processing based on the control of the control unit 119.
  • the first noise amount N1 for 2 is estimated and transferred to the extraction unit 700.
  • the extraction unit 700 Based on the control of the control unit 119, the extraction unit 700 performs the target pixel P and the first noise.
  • the noise estimation unit 701 estimates the second noise amount N2 for the target pixel P on which noise reduction processing is performed and the similar pixel P, and uses this to reduce noise.
  • the noise reduction unit 111 performs the noise estimation unit on the target pixel P as in the first embodiment.
  • Noise reduction processing is performed based on the amount of noise N2 from the 701.
  • the edge direction detection unit 702 includes the target pixel P from the noise estimation unit 701 and the similar image.
  • edge direction D with respect to the target pixel P is detected.
  • the extraction unit 700, noise estimation unit 701, noise reduction unit 111, and edge direction detection unit 702 are processed in synchronism with each region of interest based on the control of the control unit 119.
  • the edge extraction unit 114 receives the pixel of interest P and the buffer 105 from the buffer 105, as in the first embodiment.
  • Fig. 30 includes 9 pixels of 8 pixels around it (P, ,, ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , ⁇ , ⁇ ⁇ )
  • the edge correction unit 115 relates to the edge component ⁇ of the pixel of interest ⁇ .
  • the edge enhancement unit 116 sequentially extracts the target pixel P ′ after the noise reduction processing from the buffer 112 based on the control of the control unit 119. After that, the edge component E ′ from the edge correction unit 115
  • the pixel value ⁇ "after edge enhancement processing is obtained in the same manner as in the first embodiment, and signal processing is performed.
  • the processing in the edge extraction unit 114, edge correction unit 115, and edge enhancement unit 116 is performed in synchronization with each processing region based on the control of the control unit 119.
  • the signal processing unit 117 performs known compression processing on the signal after the edge enhancement processing based on the control of the control unit 119 and transfers the signal to the output unit 118.
  • the output unit 118 records and saves the signal on a memory card or the like.
  • FIG. 31 shows an exemplary configuration of the extraction unit 700.
  • the extraction unit 700 includes an allowable range setting unit 800, a neighborhood extraction unit 801, a similarity investigation unit 802, and a noffer 803.
  • Noise estimation unit 701 is connected to allowable range setting unit 800.
  • the noffer 105 is connected to the noise estimation unit 701 via the neighborhood extraction unit 801, the similarity investigation unit 802, and the noffer 803.
  • the neighborhood extraction unit 801 is connected to the noise reduction unit 111 and the noise estimation unit 701.
  • the control unit 119 is connected to the allowable range setting unit 800, the neighborhood extraction unit 801, and the similarity investigation unit 802 in both directions.
  • the neighborhood extraction unit 801 extracts the target pixel P from the buffer 105 based on the control of the control unit 119.
  • the allowable range setting unit 800 Based on the control of the control unit 119, the allowable range setting unit 800, after the first noise amount N1 for the target pixel P is transferred from the noise estimation unit 701, permits the search for similar pixels.
  • the allowable range is transferred to the similarity check unit 802.
  • the neighborhood extraction unit 801 extracts the attention area P shown in FIG. 29 from the buffer 105 based on the control of the control unit 119, and sequentially transfers it to the similarity investigation unit 802 in units of pixels.
  • the similarity examining unit 802 investigates the pixels from the neighborhood extracting unit 801 based on the upper limit App-Up and the lower limit App-Low as the allowable range from the allowable range setting unit 800. If the pixel is within the allowable range of Equation 15, a flag indicating that this is valid as a similar pixel P,
  • FIG. 30 shows an example of extracted similar pixels. Note that the target pixel is always extracted as one of the similar pixels. Will be.
  • the flag and pixel value information on the nota 803 are transferred to the noise estimation unit 701 as needed based on the control of the control unit 119.
  • FIG. 32 shows an exemplary configuration of the noise estimation unit 701.
  • a noise LUT (lookup table) 900 is added to the noise estimation unit 110 shown in FIG. 3 of the first embodiment, and the parameter ROM 203, parameter selection unit 204, interpolation unit 205, correction unit are added. 206 is omitted.
  • the basic configuration is the same as that of the noise estimation unit 110 shown in FIG. 3.
  • the same components are denoted by the same names and reference numerals, description thereof is omitted, and only differences are mainly described.
  • the extraction unit 700 is connected to the average calculation unit 200 and the edge direction detection unit 702.
  • Average calculating section 200, gain calculating section 201, and standard value assigning section 202 are connected to noise LUT900.
  • Noise The LUT 900 is connected to the noise reduction unit 111 and the extraction unit 700.
  • Control unit 119 is bi-directionally connected to the noise LUT900!
  • the average calculation unit 200 receives the pixel of interest P from the extraction unit 700 based on the control of the control unit 119, or
  • the gain calculation unit 201 obtains the gain in the amplifier 103 based on the information regarding the ISO sensitivity and the exposure condition transferred from the control unit 119, and transfers the gain to the noise LUT 900.
  • control unit 119 obtains the temperature information of the CCD 102 from the temperature sensor 121 and transfers it to the noise LUT 900.
  • Noise LUT 900 estimates the amount of noise based on the average value from average calculation unit 200, gain information from gain calculation unit 201, and temperature information from control unit 119.
  • the noise LUT900 is a look-up table that records the relationship between temperature, signal value level, gain, and noise amount, and is constructed by the same method as in the first embodiment.
  • Noise The amount of noise obtained by the LUT900 is transferred to the extraction unit 700.
  • flag information and pixel values for identifying similar pixels obtained by the extraction unit 700 are transferred to the edge direction detection unit 702.
  • the standard value assigning unit 202 has a function of giving a standard value when any of the parameters is omitted, as in the first embodiment.
  • FIG. 33 shows an example of the configuration of the edge direction detection unit 702.
  • Edge direction detector The reference numeral 702 includes a horizontal filter processing unit 1000, a vertical filter processing unit 1001, and a direction determining unit 1002.
  • the noise estimation unit 701 is connected to the horizontal filter processing unit 1000 and the vertical filter processing unit 1001.
  • the horizontal filter processing unit 1000 and the vertical filter processing unit 1001 are connected to the direction determining unit 1002.
  • the direction determining unit 1002 is connected to the buffer 703.
  • the control unit 119 is bi-directionally connected to the horizontal filter processing unit 1000, the vertical filter processing unit 1001, and the direction determining unit 1002.
  • the horizontal filter processing unit 1000 and the vertical filter processing unit 1001 are related to the target pixel P and the similar pixel P having a size of 5 X 5 pixels, as shown in FIG. 30, based on the control of the control unit 119.
  • the edge component is transferred to the direction determining unit 1002.
  • the direction determining unit 1002 applies the horizontal edge component E0 from the horizontal filter processing unit 1000 and the vertical edge component E90 from the vertical filter processing unit 1001 based on the control of the control unit 119.
  • the rough direction of the edge is detected based on the information obtained during the noise reduction process, and the original signal force edge component is extracted based on this direction, thereby suppressing the influence of noise.
  • a high-quality edge component storing a fine signal can be obtained.
  • a high-quality edge component can be generated.
  • the scale of the system can be reduced and the cost can be reduced.
  • the noise reduction processing Furthermore, in the noise reduction processing, the first noise amount roughly estimated is estimated, the first noise amount force Similar pixels are extracted, and the second noise amount with higher accuracy than the target pixel and similar pixel force In order to perform noise reduction processing based on the second noise amount, noise reduction Processing accuracy can be improved, and high-quality signals can be obtained.
  • noise estimation various information related to the amount of noise is dynamically obtained for each shooting, and a standard value is set for information that cannot be obtained, so a highly accurate and stable noise reduction effect can be obtained.
  • the configuration is integrated with the imaging unit.
  • the configuration is not necessarily limited to such a configuration.
  • a configuration separated from the imaging unit is also possible.
  • the second embodiment it is not necessary to be limited to such a configuration that is based on hardware processing.
  • a configuration in which the signal from the CCD 102 is output as unprocessed raw data, the shooting temperature and gain from the control unit 119 as header information, and processed separately by software is also possible.
  • FIG. 36 and FIG. 37 show flowcharts relating to software processing of signal processing.
  • the same step codes are assigned to the same processing steps as those of the signal processing flowchart in the first embodiment of the present invention shown in FIGS.
  • header information such as a signal, temperature, and gain is read (step Sl).
  • the noise amount of the extracted attention area is estimated as described separately, and is calculated as the noise amount for the attention pixel (step S3).
  • an allowable range shown in Formula 15 for searching for similar pixels is set (step S30).
  • step S32 the amount of noise is estimated using the target pixel and the extracted similar pixels, and is calculated as the amount of noise for the target pixel (step S32).
  • step S4 an allowable range shown in Formula 7 is set for the pixel of interest.
  • step S5 it is determined whether or not the target pixel belongs to the allowable range. If it does not belong to step S6, branch to step S7 (step S5).
  • step S6 If it is determined in step S5 that the pixel of interest belongs to the permissible range, the processing shown in Equation 8 is subsequently performed (step S6).
  • step S5 if it is determined in step S5 that the target pixel does not belong to the allowable range,
  • step S7 The processing shown in 9 or Equation 10 is performed (step S7).
  • edge direction is detected for the target pixel and similar pixels shown in FIG. 30 using the horizontal and vertical extraction filters shown in FIGS. 34 and 35 (step S 10).
  • step S8 If completed, branch to next step S9 (step S8).
  • step S9 a processing region of 5 ⁇ 5 pixel size including the target pixel and similar pixels as shown in FIG. 30 is extracted.
  • the edge component of the region of interest is extracted from the original signal before the noise reduction process (step S33).
  • the edge component is corrected by the correction processing shown in Equation 13 or Equation 14 using the edge component of the neighboring pixel shown in Fig. 23 or Fig. 24 (Step S). 12).
  • the edge enhancement processing shown in Formula 1 is performed on the signal of the target pixel after the noise reduction processing (step S13).
  • step S9 it is determined whether or not the extraction of all the processing areas has been completed. If not, the process branches to step S9, and if completed, the process branches to step S15 (step S14).
  • step S15 When the extraction of all the processing areas is completed, a known compression process or the like is performed (step S15), and the processed signal is output and terminated (step S16).
  • FIG. 37 is a flowchart relating to the estimation of the amount of noise in step S3 and step S32.
  • the average value of the attention area or the attention pixel and similar pixels is calculated (step S 20).
  • step S information such as temperature and gain is set from the read header information (step S).
  • step S40 the amount of noise is obtained using a look-up table (step S40), and the calculated amount of noise is output and the process is terminated (step S25).
  • the signal from the CCD 102 is unprocessed raw data, and the video signal is added with header information such as temperature and gain at the time of shooting from the control unit 119, it is processed separately by software. It is also possible to configure.
  • Figs. 38 to 47 show a third embodiment of the present invention.
  • Fig. 38 is a block diagram showing the configuration of the third embodiment.
  • Figs. 39 and 40 show DCT (Discrete Cosine Transform).
  • FIG. 39 is a diagram showing the real space
  • FIG. 40 is a diagram showing the frequency space
  • FIG. 41 is a block diagram showing the configuration of the noise estimation unit
  • FIG. 42 is the configuration of the noise reduction unit.
  • Fig. 43 is a block diagram showing the configuration of the edge direction detection unit.
  • Fig. 44 is an explanatory diagram of horizontal and vertical frequency components used in the edge direction detection unit.
  • Fig. 45, Fig. 46, and Fig. 47 are the third diagrams.
  • 45 is a flowchart of signal processing in the embodiment
  • FIG. 45 is a flowchart of overall processing
  • FIG. 46 is a flowchart of noise estimation processing
  • FIG. 47 is a flowchart of edge direction detection processing.
  • FIG. 38 is a block diagram showing a configuration of the third exemplary embodiment of the present invention.
  • the noise estimation unit 110, the noise reduction unit 111, and the edge direction detection unit 113 in the first embodiment shown in FIG. 1 are replaced with a noise estimation unit 1101, a noise reduction unit 1102, and an edge direction detection unit 1104.
  • a DCT converter 1100, an inverse DCT converter 1103, and a noffer 1105 are added.
  • the basic configuration is the same as that of the first embodiment, and the same name is assigned to the same configuration and the description thereof is omitted, and only different points will be mainly described.
  • Extraction unit 109 is connected to DCT conversion unit 1100, and DCT conversion unit 1100 is connected to noise estimation unit 1101 and noise reduction unit 1102.
  • the noise reduction unit 1102 is connected to the buffer 112 via the inverse DCT conversion unit 1103.
  • the noise estimation unit 1101 is connected to the noise reduction unit 1102 and the edge direction detection unit 1104.
  • the edge direction detection unit 1104 is connected to the buffer 1105, and the buffer 1105 is connected to the edge extraction unit 114 and the edge correction unit 115.
  • the control unit 119 is bi-directionally connected to the DCT conversion unit 1100, the noise estimation unit 1101, the noise reduction unit 1102, the inverse DCT conversion unit 1103, and the edge direction detection unit 1104.
  • This embodiment is basically the same as the first embodiment, and only different parts will be described.
  • the signal flow will be described.
  • the extraction unit 109 Based on the control of the control unit 119, the extraction unit 109 sequentially extracts a 4 ⁇ 4 pixel size attention region (block region) as shown in FIG. 39 and transfers it to the DCT conversion unit 1100.
  • DCT transform section 1100 performs known DCT (Discrete Cosine Transform) transform on the region of interest based on the control of control section 119, and transforms the frequency component as shown in FIG.
  • DCT Discrete Cosine Transform
  • the upper left is the origin, that is, the 0th-order component
  • the first-order and higher-frequency components are arranged on concentric circles that have the 0th-order component as the origin.
  • the converted frequency component is transferred to the noise estimation unit 1101 and the noise reduction unit 1102.
  • the noise estimation unit 1101 calculates the noise amount for high frequency components other than the 0th order component for each order component based on the 0th order component in the frequency component and the information at the time of shooting. To calculate. The calculated noise amount is transferred to the noise reduction unit 1102, and the frequency component is transferred to the edge direction detection unit 1104.
  • noise reduction unit 1102 Based on the control of control unit 119, noise reduction unit 1102 performs noise reduction processing on high-frequency components other than the zeroth order component based on the amount of noise from noise estimation unit 1101. At the same time, the data is transferred to the inverse DCT converter 1103.
  • the inverse DCT conversion unit 1103 Based on the control of the control unit 119, the inverse DCT conversion unit 1103 performs inverse DCT conversion on the high-frequency components other than the zero-order component and the zero-order component after the noise reduction process, and converts the zero-order component to a real space pixel. Convert. The pixels whose noise has been reduced are transferred to the buffer 112.
  • the edge direction detection unit 1104 is controlled by the control unit 119 based on the noise estimation unit 110.
  • the edge component is also detected in the horizontal and vertical frequency component forces.
  • the detected edge direction is transferred to the buffer 1105.
  • DCT conversion unit 1100 noise estimation unit 1101, noise reduction unit 1102, inverse DCT conversion unit
  • edge direction detection unit 1104 the processing in the edge direction detection unit 1104 are performed synchronously for each region of interest based on the control of the control unit 119.
  • the total signal power after noise reduction processing is recorded in the buffer 112, and the edge direction is recorded in the buffer 1105 in units of 4 ⁇ 4 pixels.
  • the edge extraction unit 114 receives the pixel of interest P and the buffer 105 from the buffer 105, as in the first embodiment.
  • the edge correction unit 115 relates to the edge component ⁇ of the pixel of interest ⁇ .
  • edge direction D from buffer 1105 and surrounding 8 pixels from edge extraction unit 114
  • the component E ′ is obtained and transferred to the edge enhancement unit 116.
  • the edge enhancement unit 116 sequentially extracts the target pixel P ′ after noise reduction processing from the notch 112 based on the control of the control unit 119. After that, the edge component from the edge correction unit 115 ⁇
  • edge extraction unit 114 The processing in the edge extraction unit 114, the edge correction unit 115, and the edge enhancement unit 116 is performed synchronously for each pixel of interest based on the control of the control unit 119.
  • the signal processing unit 117 Based on the control of the control unit 119, the signal processing unit 117 performs a known compression process on the signal after the edge enhancement processing and transfers the signal to the output unit 118.
  • the output unit 118 records and saves the signal on a memory card or the like.
  • FIG. 41 shows an example of the configuration of the noise estimation unit 1101.
  • the noise estimation unit 1101 includes a zero-order component extraction unit 1200 and a noise LUT 1201 added to the noise estimation unit 110 shown in FIG. 3 of the first embodiment, and an average calculation unit 200, parameter ROM 203, parameter selection unit 204, and interpolation.
  • the unit 205 and the correction unit 206 are omitted.
  • the basic configuration is the same as that of the noise estimation unit 110 shown in FIG. 3.
  • the same components are denoted by the same names and reference numerals, description thereof is omitted, and only differences are mainly described.
  • DCT conversion section 1100 is connected to 0th-order component extraction section 1200 and edge direction detection section 1104.
  • the zero-order component extraction unit 1200, the gain calculation unit 201, and the standard value addition unit 202 Connected to LUT1201.
  • Noise LUT1201 is connected to the noise reduction unit 1102.
  • the control unit 119 is bidirectionally connected to the zero-order component extraction unit 1200 and the noise LUT 1201.
  • the 0th-order component extraction unit 1200 reads the frequency component for the attention region (block region) having a 4 ⁇ 4 pixel size from the DCT conversion unit 1100, and extracts the 0th-order component.
  • the 0th-order component is transferred to the noise LUT1201.
  • Gain calculation section 201 obtains the gain in amplifier 103 based on the ISO sensitivity and exposure condition information transferred from control section 119, and transfers the gain to noise LUT 1201.
  • control unit 119 obtains the temperature information of the CCD 102 from the temperature sensor 121, and transfers this information to the noise LUT 1201.
  • Noise The LUT1201 is a noise for high frequency components other than the 0th order component based on the 0th order component from the 0th order component extraction unit 1200, the gain information from the gain calculation unit 201, and the temperature information from the control unit 119. Estimate the amount.
  • Noise The LUT1201 is a look-up table that records the relationship between temperature, signal value level, gain, and noise amount for high-frequency components other than the 0th order component.
  • the method of the first embodiment is applied to the frequency space. It is built by doing.
  • Noise The amount of noise for high frequency components other than the 0th order component obtained by the LUT1201 is transferred to the noise reduction unit 1102.
  • the standard value assigning unit 202 has a function of giving a standard value when any parameter is omitted, as in the first embodiment.
  • FIG. 42 shows an example of the configuration of the noise reduction unit 1102.
  • the noise reduction unit 1102 has a configuration in which a frequency separation unit 1300 and an average calculation unit 1301 are added to the noise reduction unit 111 shown in FIG. 7 of the first embodiment.
  • the basic configuration is the same as that of the noise reduction unit 111 shown in FIG. 7.
  • the same components are denoted by the same names and reference numerals, description thereof is omitted, and only differences are mainly described.
  • Noise estimation unit 1101 is connected to range setting unit 300.
  • the DCT conversion unit 1100 is connected to the frequency separation unit 1300, and the frequency separation unit 1300 is connected to the average calculation unit 1301 and the inverse DCT conversion unit 1103.
  • the average calculation unit 1301 is connected to the range setting unit 300 and the switching unit 301.
  • the first smoothing unit 302 and the second smoothing unit 303 are inverse DCTs. It is connected to the converter 1103.
  • the control unit 119 is bidirectionally connected to the frequency separation unit 1300 and the average calculation unit 1301.
  • the frequency separation unit 1300 reads frequency components as shown in FIG. 40 from the DCT conversion unit 1100 and separates them for each frequency component.
  • the separated zero-order component F is sent to the inverse DCT converter 1103, and the high-frequency component F (L is
  • the orders 1 to 5 and e means an element included in each order) are transferred to the average calculation unit 1301.
  • average calculation unit 1301 calculates average value AV-F of high frequency components for each order, and transfers this to range setting unit 300.
  • the high frequency component F is
  • the data is transferred to the L Le switching unit 301.
  • the range setting unit 300 reads the noise amount N—F for each order from the noise estimation unit 1101 based on the control of the control unit 119, and then sets the upper limit F—Up and the lower limit F—Low as allowable ranges.
  • the allowable range is transferred to the switching unit 301. Further, the range setting unit 300 converts the average value A V F and the noise amount N F into the first smoothing unit 302 and the second smoothing unit 30.
  • the switching unit 301 Based on the control of the control unit 119, the switching unit 301 reads the high-frequency component F from the average calculation unit 1301, and determines whether or not it belongs to the allowable range. Judgment is "noise"
  • the switching unit 301 transfers the high frequency component F to the first smoothing unit 302 when “belonging to the noise range”, and to the second smoothing unit 303 otherwise.
  • the first smoothing unit 302 uses the range setting unit for the high frequency component F from the switching unit 301.
  • the average value AVF from 300 is substituted.
  • the second smoothing unit 303 uses the range setting unit for the high frequency component F from the switching unit 301.
  • Correction processing is performed using the average value AV F and the noise amount N F from 300.
  • the high frequency component F ′ subjected to the noise reduction processing of Equation 18 or Equation 19 is the inverse DCT variation.
  • the data is transferred to the conversion unit 1103.
  • FIG. 43 shows an example of the configuration of the edge direction detection unit 1104.
  • the edge direction detection unit 1104 includes a horizontal high-frequency integration unit 1400, a vertical high-frequency integration unit 1401, and a direction determination unit 1402.
  • the noise estimation unit 1101 is connected to the horizontal high frequency integration unit 1400 and the vertical high frequency integration unit 1401.
  • the horizontal high-frequency integrating unit 1400 and the vertical high-frequency integrating unit 140 1 are connected to the direction determining unit 1402.
  • the direction determining unit 1402 is connected to the buffer 1105.
  • the control unit 119 is bi-directionally connected to the horizontal high-frequency integrating unit 1400, the vertical high-frequency integrating unit 1401, and the direction determining unit 1402.
  • the horizontal high-frequency integration unit 1400 and the vertical high-frequency integration unit 1401 read in the high-frequency component excluding the zero-order component in the horizontal direction or the vertical direction as shown in FIG.
  • the high frequency components are integrated after being converted into absolute values, and transferred to the direction determining unit 1402 as horizontal or vertical edge components.
  • the direction determining unit 1402 is a 4 ⁇ 4 pixel support including the pixel of interest P based on the control of the control unit 119.
  • the rough direction of the edge is detected based on the information obtained during the noise reduction process, and the original signal force edge component is extracted based on this direction, thereby suppressing the influence of noise.
  • a high-quality edge component storing a fine signal can be obtained.
  • the scale of the system can be reduced and the cost can be reduced.
  • edge component is corrected based on the detected edge direction, a high-quality edge component can be generated.
  • the edge direction used when extracting the edge component is reused, the scale of the system can be reduced and the cost can be reduced.
  • the attention area is converted to the frequency space, the zero-order component force noise amount is estimated, and the noise reduction processing is performed. Therefore, the accuracy of the noise reduction processing can be improved, and high quality Can be obtained.
  • noise estimation various information related to the amount of noise is dynamically obtained for each image, and standard values are set for information that cannot be obtained, so a highly accurate and stable noise reduction effect can be obtained.
  • FIG. 45 to FIG. 47 show flowcharts relating to software processing of signal processing.
  • header information such as a signal, temperature, and gain is read (step S1), and then a region of interest of 4 ⁇ 4 pixel size as shown in FIG. 39 is sequentially extracted (step S1). S51).
  • Step S52 DCT transformation is performed on the sequentially extracted regions of interest and converted into frequency components as shown in Fig. 40 (step S52), and separated into zero-order components and high-frequency components of other orders. (Step S53).
  • step S54 the amount of noise for high frequency components other than the 0th order component is calculated for each order component.
  • step S55 the average value of the high frequency components for each order separated in step S53 is calculated.
  • step S58 it is determined whether or not the target pixel belongs to an allowable range. If it belongs, the process branches to the next step S58, and if not, the process branches to step S59 (step S57).
  • step S57 If it is determined in step S57 that the pixel of interest belongs to the allowable range, the processing shown in Equation 17 is performed (step S58).
  • step S57 when it is determined in step S57 that the pixel of interest does not belong within the allowable range, the processing shown in Formula 18 or 19 is performed (Step S59).
  • the inverse DC is applied to the high-frequency component other than the zero-order component and the zero-order component after noise reduction processing.
  • T conversion is performed to convert to real space pixels (step S60).
  • step S60 When the processing in step S60 is completed, it is subsequently determined whether or not extraction of all regions of interest has been completed. If not, the process branches to step S52, and if completed, the process branches to step S9 (step S9). S 8).
  • step S8 If it is determined in step S8 that the extraction of all regions of interest has been completed, the pixel of interest and the processing region of 5 X 5 pixels size as shown in Fig. 10 are extracted (step S9).
  • the edge direction is detected from the horizontal and vertical frequency components shown in FIG. 44 (step S61).
  • an edge component is extracted from the original signal before the noise reduction processing based on the edge direction from step S61 (step Sl l).
  • the edge components are corrected by the correction processing shown in Equation 13 or Equation 14 using the edge components of the neighboring pixels shown in Fig. 23 or Fig. 24 (Step S12). ).
  • edge enhancement process shown in Formula 1 is performed on the signal of the target pixel after the noise reduction process (step S13).
  • step S15 step S14
  • step SI 5 If it is determined in step S14 that all the processing areas have been extracted, then a known compression process is performed. (Step SI 5).
  • FIG. 46 is a flowchart relating to the estimation of the noise amount in step S54.
  • step S71 the 0th-order component of the frequency component for the attention area of 4 ⁇ 4 pixel size separated in step S53 is extracted (step S71).
  • step S 72 information such as gain and temperature is set based on the header information.
  • a predetermined standard value is assigned.
  • step S73 the amount of noise is obtained using a lookup table
  • step S74 the calculated amount of noise is output and the process is terminated
  • FIG. 47 is a flowchart regarding the edge direction detection processing in step S61 described above.
  • the horizontal high-frequency components excluding the zeroth-order component are added together after being absolute valued to obtain the horizontal edge component (step S81). Also, as shown in FIG. 44, the vertical high-frequency component excluding the 0th order component is absolute valued and then integrated to obtain the vertical edge component (step S82).
  • the edge direction is calculated in units of attention area of 4 x 4 pixels, as shown in the above equation 12. Detect (step S83), output the detected direction, and end (step S84).
  • conversion to frequency components is performed by DCT conversion, and the processing size of the conversion is 4 X 4 pixels.
  • the present invention is limited to such a configuration. There is no need.
  • FFT Fast Fourier Transform
  • Wavelet transform or the like can be used as the conversion to the frequency component.
  • the accuracy of direction detection can be improved by making the processing size smaller, such as 2 x 2 pixels, and the overall processing speed can be increased by making it larger, such as 8 x 8 pixels. It is also possible.
  • the configuration is integrated with the imaging unit.
  • the configuration is not necessarily limited to such a configuration.
  • the configuration separated from the imaging unit Is possible.
  • FIGS. 48 to 51 show a fourth embodiment of the present invention
  • FIG. 48 is a block diagram showing the configuration of the fourth embodiment
  • FIGS. 49 and 50 are explanatory diagrams relating to color filters.
  • FIG. 49 is a diagram showing a Bayer type primary color filter
  • FIG. 50 is a diagram showing a color difference line sequential complementary color filter
  • FIG. 51 is a flowchart of signal processing in the fourth embodiment.
  • FIG. 48 is a block diagram showing a configuration of the fourth embodiment.
  • the CCD 102 in the first embodiment shown in FIG. It is configured.
  • the basic configuration is the same as that of the first embodiment, and the same name is assigned to the same configuration and the description thereof is omitted. Only different points will be mainly described.
  • the color CCD 1500 is connected to the amplifier 103. Further, a temperature sensor 121 is disposed in the vicinity of the color CCD 1500.
  • the buffer 105 is connected to the PreWB unit 1501, the photometric evaluation unit 106, the in-focus detection unit 107, and the interpolation unit 1502.
  • the interpolation unit 1502 is connected to the extraction unit 109 and the edge extraction unit 114 via a YZC separation unit 1503 and a notch 1504.
  • the edge enhancement unit 116 is connected to the YZC synthesis unit 1505, and the YZC synthesis unit 1505 is connected to the signal processing unit 117.
  • the control unit 119 is bi-directionally connected to the PreWB unit 1501, the interpolation unit 1502, the YZC separation unit 1503, and the YZC synthesis unit 1505.
  • This embodiment is basically the same as the first embodiment, and only different parts will be described.
  • the pre-imaging mode is entered by pressing the shutter button halfway through the external IZF unit 120.
  • FIG. 49 shows the configuration of a Bayer type color filter.
  • the Bayer type uses 2 X 2 pixels as the basic unit, and each red (R) and blue (B) filter is arranged one pixel, and two green (G) filters are arranged.
  • the signal in the buffer 105 is transferred to the PerWB unit 1501.
  • the PreWB unit 1501 calculates a simple white balance coefficient by integrating signals of a predetermined luminance level for each color signal. PreWB unit 1501 transfers the above coefficients to amplifier 103. The white balance is performed by multiplying each color signal by a different gain.
  • Interpolation section 1502 generates a signal from a single plate state to a three plate state using a known method such as linear interpolation.
  • the three-plate signal is transferred to the YZC separation unit 1503 and separated into the luminance signal Y and the color difference signals Cb and Cr.
  • the luminance signal Y and the color difference signals Cb and Cr are transferred to the buffer 1504 and stored.
  • the luminance signal Y is subjected to noise reduction processing by the extraction unit 109, the noise estimation unit 110, and the noise reduction unit 111 to become a luminance signal Y '.
  • the gain calculation unit 201 in the noise estimation unit 110 shown in FIG. 3 is based on the ISO sensitivity and exposure condition information transferred from the control unit 119 and the white balance coefficient obtained by the PreWB unit 1501. Find the gain at 103.
  • the luminance signal Y ′ and the color difference signals Cb and Cr are transferred to the buffer 112 and stored.
  • the edge direction detection unit 113 reads the luminance signal Y ′ after noise reduction processing from the buffer 112 based on the control of the control unit 119, and extracts the pixel of interest P ′ and the pixel of interest P ′.
  • edge directions 22 and the surrounding edge direction of 8 pixels are detected.
  • the edge extraction unit 114 Based on the control of the control unit 119, the edge extraction unit 114 sequentially extracts the luminance signal Y before noise reduction processing at the same position as the processing region used by the edge direction detection unit 113 using the buffer 1504. Thereafter, based on the edge direction from the edge direction detection unit 113, the target pixel P 'And the surrounding 8 pixel edge components are extracted and transferred to the edge correction unit 115.
  • the edge correction unit 115 is controlled by the control unit 119 based on the edge component E of the pixel of interest P '.
  • the edge enhancement unit 116 reads the luminance signal Y ′ after noise reduction processing from the buffer 112 based on the control of the control unit 119, and sequentially extracts the pixel of interest P ′. Then, the edge enhancement part
  • 116 denotes a pixel after edge enhancement processing based on the edge component E ′ from the edge correction unit 115.
  • the value P " is obtained and transferred to the YZC synthesis unit 1505 as the luminance signal Y" after edge enhancement processing.
  • the edge enhancement unit 116 reads the color difference signals Cb and Cr from the buffer 112 and transfers them to the YZC synthesis unit 1505.
  • the YZC synthesis unit 1505 calculates the R, G, B from the luminance signal Y "after the edge enhancement processing from the edge enhancement unit 116 and the color difference signals Cb, Cr as shown in Equation 21. Synthesize the signal.
  • G Y "-0. 34414Cb-0. 71414Cr
  • the R, G, and B signals are transferred to the signal processing unit 112.
  • the signal processing unit 117 performs known compression processing, color enhancement processing, and the like on the signal after the edge enhancement processing based on the control of the control unit 119, and transfers the signal to the output unit 118.
  • the output unit 118 records and saves the signal on a memory card or the like.
  • the signal from the color image sensor is separated into a luminance signal and a color signal, the approximate direction of the luminance signal power edge after noise reduction processing is detected, and the original signal power edge component based on this direction By extracting, high-quality edge components that suppress the effects of noise and preserve fine signals can be obtained.
  • the noise reduction processing is noise estimation and force performed by noise reduction.
  • the estimation accuracy is improved by performing regional force estimation, and attention is paid to noise reduction. Since only the pixels are targeted, the accuracy of the noise reduction process can be improved, and a high-quality signal can be obtained.
  • noise estimation various information related to the amount of noise is dynamically obtained for each shooting, and a standard value is set for information that cannot be obtained, so a highly accurate and stable noise reduction effect can be obtained.
  • the edge direction is detected by comparing the threshold value based on the amount of noise or removing minute edge strength after obtaining edge strength in multiple directions or in the horizontal and vertical directions.
  • the edge direction with high accuracy can be obtained by suppressing the influence.
  • the subsequent edge extraction process is stopped, so unnecessary processing can be omitted and the processing speed can be increased.
  • an isotropic edge extraction process is performed, so a stable processing result can be obtained.
  • the color CCD 1500 does not have to be limited to such a configuration assuming a single-plate CCD with a Bayer-type primary color filter disposed on the front surface.
  • FIG. 50 shows the configuration of a color difference line sequential complementary color filter.
  • the color difference line sequential type has 2 X 2 pixels as a basic unit, and cyan (Cy), magenta (Mg), yellow (Ye), and green (G) are arranged one by one. However, the positions of Mg and G are reversed for each line. In this case, it is also possible to extract the 2 X 2 pixel areas sequentially while overlapping one row or one column, and calculate the luminance signal Y and the color difference signals Cb and Cr shown in Equation 22 below for each area.
  • the force that is configured integrally with the imaging unit is not necessarily limited to such a configuration.
  • a configuration separate from the imaging unit is also possible.
  • the signal from the color CCD 1500 can be output as unprocessed raw data, and the temperature, gain, white balance coefficient, etc. at the time of shooting from the control unit 119 can be output as header information and processed separately by software. is there.
  • FIG. 51 shows a flowchart regarding software processing of signal processing. Note that the same step codes are assigned to the same processing steps as the signal processing flow in the first embodiment shown in FIG.
  • step Sl read the signal and header information such as temperature, gain, and white balance coefficient
  • the single-plate signal is made into a three-plate state by linear interpolation or the like (step S90).
  • the signal is separated into luminance signal Y and color difference signals Cb and Cr (step S91).
  • the target pixel and the target region of 3 ⁇ 3 pixel size are extracted from the luminance signal (step S2).
  • step S3 the noise amount of the attention area extracted based on the flowchart shown in FIG. 27 is estimated and calculated as the noise amount for the attention pixel.
  • an allowable range shown in Formula 7 is set for the pixel of interest (step S4).
  • step S5 If it does not belong to step 6, branch to step S7 (step S5).
  • step S5 When it is determined in step S5 that the pixel of interest belongs to the allowable range, it is shown in Formula 8. (Step S6).
  • step S5 if it is determined in step S5 that the target pixel does not belong to the allowable range,
  • step S7 The processing shown in 9 or Equation 10 is performed (step S7).
  • step S9 step S8
  • the edge direction is detected using the extraction filters classified by direction shown in FIGS. 12 to 19 for nine pixels shown in FIG. 11 (step S10 ).
  • step S11 the luminance signal force edge component before the noise reduction processing is extracted based on the edge direction detected in step S10 (step S11).
  • the edge component is corrected by the correction process shown in equation 13 or equation 14 by the edge component of the neighboring pixel shown in Fig. 23 or Fig. 24 (step S12). .
  • the edge enhancement process shown in Equation 1 is performed on the signal of the target pixel after the noise reduction process (step S13).
  • step S9 the process branches to step S92 (step S14).
  • step S14 When it is determined in step S14 that the extraction of all the processing areas has been completed, R, G, and B signals are synthesized as shown in Equation 21 (step S92).
  • step S 15 a known compression process, color enhancement process, and the like are performed on the synthesized signal.
  • FIGS. 52 to 72 show the fifth embodiment of the present invention
  • FIG. 52 is a block diagram showing the configuration of the fifth embodiment
  • FIGS. 53 to 56 are explanatory diagrams regarding YZC separation.
  • Figure 53 shows a Bayer-type primary color filter
  • Figure 54 shows a luminance signal
  • Figure 55 shows R (red).
  • Fig. 56 is a diagram showing the B (blue) color difference signal
  • Fig. 57 is an explanatory diagram of the 0 ° edge extraction filter of the edge direction extraction unit when the pixel of interest is R or B.
  • 58 is a diagram illustrating the 0 ° edge extraction filter of the edge direction extraction unit, showing when the pixel of interest is G
  • FIG. 59 is the 45 ° edge extraction filter of the edge direction extraction unit.
  • FIG. 60 is a diagram illustrating when the pixel-of-interest power is 3 ⁇ 4 or B
  • FIG. 60 is a diagram illustrating an edge extraction filter of 45 ° of the edge direction extraction unit
  • Fig. 61 is an explanatory diagram of the 90 ° edge extraction filter of the edge direction extraction unit, showing when the target pixel is R or B
  • Fig. 62 is related to the 90 ° edge extraction filter of the edge direction extraction unit.
  • the target pixel is G
  • Fig. 63 is an explanatory diagram of the 135 ° edge extraction filter of the edge direction extraction unit, showing when the pixel of interest is R or B
  • Fig. 64 is the 135 ° edge extraction of the edge direction extraction unit.
  • FIG. 65 is an explanatory diagram related to a filter when the target pixel is G
  • FIG. 65 is an explanatory diagram regarding an edge extraction filter of 180 ° of the edge direction extraction unit, and shows when the target pixel is R or B
  • Fig. 66 is an explanatory diagram of the 180 ° edge extraction filter of the edge direction extraction unit, showing when the target pixel is G.
  • Fig. 67 is an explanatory diagram of the 225 ° edge extraction filter of the edge direction extraction unit
  • FIG. 68 is a diagram illustrating the case of the target pixel force 3 ⁇ 4 or B
  • FIG. 68 is an explanatory diagram regarding the edge extraction filter of 225 ° of the edge direction extraction unit, and illustrates the case where the target pixel is G
  • FIG. 70 is an explanatory diagram related to the edge extraction filter, showing when the target pixel is R or B, and FIG. 70 is an explanatory diagram regarding the 270 ° edge extraction filter of the edge direction extraction unit, and the target pixel is G
  • FIG. 71 is an explanatory diagram of the edge extraction filter at 315 ° of the edge direction extraction unit, showing when the target pixel is R or B
  • FIG. 72 shows the 315 ° of the edge direction extraction unit.
  • FIG. 10 is an explanatory diagram regarding an edge extraction filter at 0 °, and shows a case where a target pixel is G;
  • FIG. 52 is a block diagram showing a configuration of the fifth exemplary embodiment of the present invention.
  • the CCD 102 in the first embodiment shown in FIG. 1 is replaced with a color CCD 1600, and a Pr eWB unit 1601, a YZC separation unit 1602, a nota 1603, an interpolation unit 1604, and a YZC synthesis unit 16 05 are added. It is configured.
  • the basic configuration is the same as in the first embodiment and is the same The same names and reference numerals are assigned to the configurations of these components, description thereof is omitted, and only differences are mainly described.
  • the color CCD 1600 is connected to the amplifier 103.
  • a temperature sensor 121 is disposed near the color CCD 1600.
  • the buffer 105 is connected to the PreWB unit 1601, the photometric evaluation unit 106, the in-focus detection unit 107, and the YZC separation unit 1602.
  • the YZC separation unit 1602 is connected to the extraction unit 109 and the edge extraction unit 114 via a noffer 1603.
  • the notch 112 is connected to the edge direction detection unit 113 and the edge enhancement unit 116 via the interpolation unit 1604.
  • the edge enhancement unit 116 is connected to the YZC synthesis unit 1605, and the YZC synthesis unit 1605 is connected to the signal processing unit 117.
  • the control unit 119 is bi-directionally connected to the PreWB unit 1601, the YZC separation unit 1602, the interpolation unit 1604, and the YZC synthesis unit 1605.
  • This embodiment is basically the same as the first embodiment, and only different parts will be described.
  • the pre-imaging mode is entered by pressing the shutter button halfway through the external IZF unit 120.
  • a signal photographed through the lens system 100, the aperture 101, and the color CCD 1600 is transferred to the buffer 105 through the amplifier 103 and the AZD conversion 104.
  • the color CCD 1600 is assumed to be a single plate CCD having a Bayer type primary color filter shown in FIG.
  • the PreWB unit 1601 calculates a simple white balance coefficient by integrating signals of a predetermined luminance level for each color signal. The above coefficients are transferred to the amplifier 103, and white balance is performed by multiplying the color signals by different gains.
  • the white balance coefficient obtained by the PreWB unit 1601 is transferred to the control unit 119.
  • the signal in the buffer 105 is transferred to the YZC separation unit 1602.
  • YZC separation section 1602 assumes G signal as luminance signal Y, B signal as color difference signal Cb, and R signal as color difference signal Cr.
  • the luminance signal and the color difference signal are in a single plate state before the interpolation process, and are transferred to the buffer 1603.
  • the luminance signal Y is subjected to noise reduction processing by the extraction unit 109, the noise estimation unit 110, and the noise reduction unit 111, and becomes the luminance signal Y '.
  • the gain calculation unit 201 in the noise estimation unit 110 shown in FIG. 3 is based on the ISO sensitivity and exposure condition information transferred from the control unit 119 and the white balance coefficient obtained by the PreWB unit 1601. Find the gain at 103.
  • the luminance signal Y that is, the G signal, is only 5 pixels or 4 pixels in the attention area of 3 X 3 pixels size. Therefore, the average value is calculated using the above 5 pixels or 4 pixels. Done.
  • the luminance signal Y ′ and the color difference signals Cb and Cr after noise reduction are transferred to the buffer 112 and stored.
  • the interpolation unit 1604 reads the luminance signal Y ′ and the color difference signals Cb and Cr from the nother 112, and generates a single plate state force and a three plate state signal using a method such as a known linear interpolation.
  • the three-plate signal is transferred to the edge direction detection unit 113 and the edge enhancement unit 116.
  • the edge direction detection unit 113 reads the luminance signal Y ′ after the noise reduction processing from the interpolation unit 1604 based on the control of the control unit 119, and extracts the target pixel P ′ and the target pixel P ′.
  • edge direction of 22 and its surrounding 8 pixels There are three types of edge directions: “direction giving the maximum value”, “isotropic edge direction”, or “no edge direction”, and the subsequent processing is selected as in the first embodiment.
  • the edge extraction unit 114 receives from the buffer 1 603 the single-plate luminance signal Y before noise reduction processing at the same position as the processing region used by the edge direction detection unit 113. Extract sequentially. After that, based on the edge direction from the edge direction detection unit 113, the edge components of the pixel of interest P ′ and the surrounding eight pixels are extracted and transferred to the edge correction unit 115.
  • the edge extraction filter uses a form applicable to the luminance signal Y in a single plate state.
  • the edge correction unit 115 is controlled by the control unit 119 based on the edge component E of the pixel of interest P '.
  • the edge enhancement unit 116 reads the luminance signal Y ′ after the noise reduction processing from the interpolation unit 1604 based on the control of the control unit 119, and reads the pixel of interest P ′
  • the luminance signal Y ⁇ after enhancement processing is transferred to the YZC synthesis unit 1605. Further, the edge enhancement unit 116 reads the color difference signals Cb and Cr from the interpolation unit 1604 and transfers them to the YZC synthesis unit 1605.
  • the YZC synthesis unit 1605 Based on the control of the control unit 119, the YZC synthesis unit 1605 obtains R, G, B signals from the luminance signal Y "after the edge enhancement processing from the edge enhancement unit 116 and the color difference signals Cb, Cr.
  • the R, G, and B signals are transferred to the signal processing unit 117.
  • the signal processing unit 117 performs known compression processing, color enhancement processing, and the like on the signal after the edge enhancement processing based on the control of the control unit 119 and transfers the signal to the output unit 118.
  • the output unit 118 records and saves the signal in a memory card or the like.
  • the signal from the color image sensor is separated into a luminance signal and a color signal, the approximate direction of the luminance signal power edge after noise reduction processing is detected, and the original signal power edge component based on this direction By extracting, high-quality edge components that suppress the effects of noise and preserve fine signals can be obtained.
  • the edge component since the edge component is extracted with the signal power before interpolation, the edge component can be extracted with higher definition.
  • a high-quality edge component can be generated.
  • noise reduction processing is performed by noise estimation and noise reduction.
  • the accuracy of the noise reduction process is improved because the estimation accuracy is increased by performing wide area force estimation, and only the target pixel is targeted for noise reduction. And a high-quality signal can be obtained.
  • noise estimation various types of information related to the amount of noise are dynamically obtained for each shooting, and standard values are set for information that cannot be obtained, so a highly accurate and stable noise reduction effect can be obtained.
  • edge direction detection is based on noise because edge strength in multiple directions or horizontal and vertical directions is obtained and then compared with a threshold value based on the amount of noise or removal of minute edge strength.
  • the edge direction with high accuracy can be obtained by suppressing the influence.
  • the subsequent edge extraction process is stopped, so unnecessary processing can be omitted and the processing speed can be increased.
  • an isotropic edge extraction process is performed, so a stable processing result can be obtained.
  • the configuration is integrated with the imaging unit !, but it is not necessary to be limited to such a configuration.
  • a configuration separated from the imaging unit is also possible.
  • FIG. 73 shows the sixth embodiment of the present invention, and is a block diagram showing the configuration of the sixth embodiment.
  • the CCD 102 in the second embodiment shown in FIG. 28 is replaced with a color CCD 1700, and a Pre WB unit 1701, an interpolation unit 1702, a YZC separation unit 1703, a noffer 1704, and a YZC synthesis unit 1705 are added. It is configured.
  • the basic configuration is the same as that of the second embodiment.
  • the same components are denoted by the same names and reference numerals, description thereof is omitted, and only different points will be mainly described.
  • the color CCD 1700 is connected to the amplifier 103. Also close to the color CCD1700 A temperature sensor 121 is arranged beside it.
  • the buffer 105 is connected to the PreWB unit 1701, the photometric evaluation unit 106, the in-focus detection unit 107, and the interpolation unit 1702.
  • the interpolation unit 1702 is connected to the extraction unit 700 and the edge extraction unit 114 via a YZC separation unit 1703 and a nother 1704.
  • the edge enhancement unit 116 is connected to the YZC synthesis unit 1705, and the YZC synthesis unit 1705 is connected to the signal processing unit 117.
  • the control unit 119 is bidirectionally connected to the PreWB unit 1701, the interpolation unit 1702, the YZC separation unit 1703, and the YZC synthesis unit 1705.
  • This embodiment is basically the same as the second embodiment, and only different parts will be described.
  • Fig. 73 the signal flow will be described.
  • the pre-imaging mode is entered by pressing the shutter button halfway through the external IZF unit 120.
  • a signal photographed through the lens system 100, the aperture 101, and the color CCD 1700 is transferred to the buffer 105 through the amplifier 103 and the AZD conversion 104.
  • the color CCD 1700 is assumed to be a single CCD having a Bayer-type primary color filter arranged on the front surface.
  • the signal in the buffer 105 is transferred to the PreWB unit 1701.
  • the PreWB unit 1701 calculates a simple white balance coefficient by integrating signals of a predetermined luminance level for each color signal. Then, the coefficient is transferred to the amplifier 103, and white balance is performed by multiplying each color signal by a different gain.
  • the white balance coefficient obtained by the PreWB unit 1701 is transferred to the control unit 119.
  • the signal in the buffer 105 is transferred to the interpolation unit 1702.
  • Interpolator 1702 generates a signal from a single plate state to a three plate state using a known method such as linear interpolation.
  • the three-plate signal is transferred to the YZC separation unit 1703 and separated into the luminance signal Y and the color difference signals Cb and Cr as shown in Equation 20.
  • Luminance signal Y and color difference signals Cb and Cr are transferred to buffer 1704 and stored.
  • the luminance signal Y is subjected to noise reduction processing by the extraction unit 700, the noise estimation unit 701, and the noise reduction unit 111 to become a luminance signal Y '.
  • the luminance signal Y ′ and the color difference signals Cb and Cr are transferred to the buffer 112 and stored.
  • the edge direction detection unit 702 detects the edge direction D with respect to the target pixel P ′ based on the information on the target pixel and similar pixels from the noise estimation unit 701. The edge direction is
  • the edge direction is recorded in the total signal power buffer 703 after the noise reduction processing in the noffer 112.
  • the edge extraction unit 114 reads the luminance signal Y before noise reduction processing from the notfer 1704, and extracts the pixel of interest P and the surrounding eight pixels. Then, Etsu from buffer 703
  • Edge component of the target pixel P 'and surrounding 8 pixels are extracted based on
  • the data is transferred to the correction unit 115.
  • the edge correction unit 115 is controlled by the control unit 119 based on the edge component E of the pixel of interest P ′.
  • An edge component E ′ obtained by correcting this based on the elementary edge component is obtained and sent to the edge enhancement unit 116.
  • the edge enhancement unit 116 reads the luminance signal Y ′ after noise reduction processing from the buffer 112 based on the control of the control unit 119, and reads the pixel of interest P ′.
  • the edge enhancement unit 116 reads the color difference signals Cb and Cr from the buffer 112 and transfers them to the YZC synthesis unit 1705.
  • the YZC synthesis unit 1705 Based on the control of the control unit 119, the YZC synthesis unit 1705 performs the R, G, B luminance signal Y ”and the color difference signals Cb, Cr force from the edge enhancement unit 116 as shown in Equation 21.
  • the R, G and B signals are transferred to the signal processing unit 117.
  • the signal processing unit 117 performs known compression processing, color enhancement processing, and the like on the signal after the edge enhancement processing based on the control of the control unit 119 and transfers the signal to the output unit 118.
  • the output unit 118 records and saves the signal on a memory card or the like.
  • the color image sensor force signal is separated into a luminance signal and a color signal, the approximate direction of the luminance signal force edge obtained in the process of noise reduction processing is detected, and based on this direction, the original signal is detected.
  • edge components By extracting edge components from the signal, it is possible to obtain high-quality edge components that suppress the effects of noise and preserve fine signals.
  • the information power obtained in the process of noise reduction processing In order to detect the direction of the edge, the scale of the system can be reduced and the cost can be reduced. Further, since the edge component is corrected based on the detected edge direction, a high-quality edge component can be generated.
  • the approximate first pixel noise amount is estimated, the first noise amount force similar pixels are extracted, and the second noise amount is more accurate than the target pixel and similar pixel force. Since the noise reduction processing is performed based on the second noise amount, the accuracy of the noise reduction processing can be improved, and a high-quality signal can be obtained.
  • noise estimation various information related to the amount of noise is dynamically obtained for each shooting, and standard values are set for information that cannot be obtained, so a highly accurate and stable noise reduction effect can be obtained.
  • the configuration is integrated with the imaging unit !, but it is not necessary to be limited to such a configuration.
  • a configuration separated from the imaging unit is also possible.
  • the power premised on processing by hardware is not necessarily limited to such a configuration.
  • a configuration for processing by software is also possible.
  • the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the spirit of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

CCD(102)からの信号を処理する撮像システムにおいて、CCD(102)からの信号に対してノイズ低減処理を行うノイズ低減部(111)と、ノイズ低減処理がなされた信号からエッジ方向を検出するエッジ方向検出部(113)と、エッジ方向に基づきCCD(102)からの信号に対してエッジ成分を抽出するエッジ抽出部(114)とを備えている。

Description

明 細 書
撮像システム、画像処理プログラム 技術分野
[0001] 本発明は、撮像素子からの信号に対してエッジ成分を抽出する撮像システム、画像 処理プログラムに関する。 背景技術
[0002] 撮像素子からの信号に対しエッジ成分を抽出する処理には、ラプラシアンのような 単一フィルタ処理によるものと、方向別の複数フィルタ処理によるものとに大別できる 。後者の例としては、例えば特公平 6— 90724号公報に示されるように、 4方向の矩 形領域中で平滑化信号との差が最大となる矩形領域を選択することで方向別のアン シャープマスク処理を行う手法が開示されている。これにより、ゴミなどの点状欠陥の 影響を抑制し、より高精度なエッジ成分の抽出が可能となる。また、特許第 3289435 号公報ではステップエッジ、インパルス信号、ノイズなどカゝら重み係数を算出し、これ 力 エッジ信号を補正する手法が開示されている。これにより、エッジ信号を成形し、 より高精度なエッジ成分の抽出が可能となる。さらに、特開 2000— 306089号公報 では、信号をウェーブレットやラプラシアンピラミッドなどで周波数分解し、低周波成 分のベクトル情報力 高周波成分を補正する手法が開示されている。これにより、ェ ッジ信号を成形すると共にノイズ成分を抑制し、高精細な信号を得ることが可能となる
[0003] 特公平 6 - 90724号公報では、ゴミなどの輝度差が大き!/、点状のノイズに対しては 識別することができる。しかし、撮像素子に起因するランダムノイズのように等方的に 発生するノイズや輝度差の小さ 、微弱なノイズを識別することには対応できず、多様 なノイズに対して安定的にエッジ成分を抽出できないという課題がある。また、特許第 3289435号公報ではノイズが多 、場合は小さ!/、重み係数を生成することでノイズの 影響を抑制することができる。しかし、ノイズ成分自体は残留するために、強いエッジ 強調を行うことには対応できず、絵作りに対する自由度が少ないという課題がある。さ らに、特開 2000— 306089号公報では補正のためのベクトル情報を低周波の信号 力も得て 、る。ベクトル情報の解像度はウェーブレットやラプラシアンピラミッドの分解 レベルに依存する力 一回分解すると 1/2に、二回分解すると 1/4になる。このた めに、原信号の解像度でエッジ信号を成形することには対応できず、画素単位の高 精細なエッジ成分を生成できな 、と 、う課題がある。
[0004] 本発明は上記事情に鑑みてなされたものであり、ノイズ低減処理とエッジ抽出処理 を組み合わせることで、ノイズが混在する信号に対しても高精度なエッジ成分の抽出 が可能な撮像システム、画像処理プログラムを提供することを目的とする。
発明の開示
課題を解決するための手段
[0005] (1)上記目的を達成するために、第 1の発明による撮影システムは、撮像素子からの 信号を処理する撮像システムにお ヽて、撮像素子力ゝらの信号に対してノイズ低減処 理を行うノイズ処理手段と、上記ノイズ低減処理がなされた信号カゝらエッジ方向を検 出するエッジ方向検出手段と、上記エッジ方向に基づき上記撮像素子からの信号に 対してエッジ成分を抽出するエッジ抽出手段とを有することを特徴とする。
[0006] この発明の適用例は、図 1〜図 27に示される第 1の実施形態に記載されている。上 記構成のノイズ処理手段は図 1,図 3,図 7,図 25に示される抽出部 109,ノイズ推定 部 110,ノイズ低減部 111が、エッジ方向検出手段は図 1,図 8,図 9,図 25に示され るエッジ方向検出部 113が、エッジ抽出手段は図 1,図 25に示されるエッジ抽出部 1 14がそれぞれ該当する。
[0007] この発明の好ましい適用例は、抽出部 109,ノイズ推定部 110,ノイズ低減部 111 によってノイズ低減処理を行い、エッジ方向検出部 113によってノイズ低減処理後の 信号力もエッジ方向を検出し、エッジ抽出部 114によって上記エッジ方向に基づきノ ィズ低減前の原信号力もエッジ成分を抽出する撮像システムである。
[0008] 第 1の発明による撮像システムは、ノイズ低減処理後の信号力 エッジの概略的な 方向を検出し、この方向に基づき原信号力もエッジ成分を抽出するものである。この ために、ノイズの影響を抑制し、かつ微細な信号を保存した高品位なエッジ成分が得 られる。
[0009] (2)また、第 2の発明による撮影システムは、撮像素子からの信号を処理する撮像シ ステムにお 、て、上記撮像素子からの信号に対してノイズ低減処理を行うノイズ処理 手段と、上記ノイズ低減手段からの情報に基づきエッジ方向を検出するエッジ方向検 出手段と、上記エッジ方向に基づき上記撮像素子からの信号に対してエッジ成分を 抽出するエッジ抽出手段とを有することを特徴とする。
[0010] この発明の適用例は、図 28〜図 37に示される第 2の実施形態および図 38〜図 47 に示される第 3の実施形態に記載されている。上記構成のノイズ処理手段は図 28, 図 31,図 32に示される抽出部 700,ノイズ推定部 701,ノイズ低減部 111および図 3 8,図 41,図 42に示される抽出部 109, DCT変換部 1100,ノイズ推定部 1101,ノィ ズ低減部 1102,逆 DCT変換部 1103が、エッジ方向検出手段は図 28,図 33に示さ れるエッジ方向検出部 702および図 38,図 43に示されるエッジ方向検出部 1104が 、エッジ抽出手段は図 28,図 38に示されるエッジ抽出部 114がそれぞれ該当する。
[0011] この発明の好ましい適用例は、抽出部 700,ノイズ推定部 701,ノイズ低減部 111 または抽出部 109, DCT変換部 1100,ノイズ推定部 1101,ノイズ低減部 1102,逆 DCT変換部 1103によってノイズ低減処理を行い、エッジ方向検出部 702またはエツ ジ方向検出部 1104によってノイズ低減処理の過程で得られた情報に基づきエッジ 方向を検出し、エッジ抽出部 114によって上記エッジ方向に基づきノイズ低減前の原 信号力もエッジ成分を抽出する撮像システムである。
[0012] 第 2の発明による撮像システムは、ノイズ低減処理の過程で得られた情報に基づき エッジの概略的な方向を検出し、この方向に基づき原信号からエッジ成分を抽出す るものである。このために、ノイズの影響を抑制し、かつ微細な信号を保存した高品位 なエッジ成分が得られる。さら〖こ、ノイズ低減処理の過程で得られた情報カゝらエッジの 方向を検出するために、システムの規模を縮小することができ低コストィ匕を図ることが 可能となる。
[0013] (3)また、第 3の発明による撮像システムは、カラー撮像素子からの信号を処理する 撮像システムにお ヽて、上記カラー撮像素子からの信号に対して輝度信号および色 信号を分離する YZC分離手段と、上記 YZC分離手段により分離された輝度信号 に対してノイズ低減処理を行うノイズ処理手段と、上記ノイズ低減処理がなされた輝 度信号からエッジ方向を検出するエッジ方向検出手段と、上記エッジ方向に基づき 上記 YZC分離手段により分離された輝度信号に対してエッジ成分を抽出するエツ ジ抽出手段とを有することを特徴とする。
[0014] この発明の適用例は、図 48〜図 51に示される第 4の実施形態および図 52〜図 72 に示される第 5の実施形態に記載されている。前記構成の YZC分離手段は図 48〖こ 示される YZC分離部 1503および図 52に示される YZC分離部 1602力 ノイズ処 理手段は図 48,図 52に示される抽出部 109,ノイズ推定部 110,ノイズ低減部 111 力 エッジ方向検出手段は図 48,図 52に示されるエッジ方向検出部 113が、エッジ 抽出手段は図 48,図 52に示されるエッジ抽出部 114がそれぞれ該当する。
[0015] この発明の好ましい適用例は、 YZC分離部 1503または YZC分離部 1602によつ て信号を輝度信号と色信号に分離し、抽出部 109,ノイズ推定部 110,ノイズ低減部 111によって輝度信号にノイズ低減処理を行 ヽ、エッジ方向検出部 113によってノィ ズ低減処理後の輝度信号からエッジ方向を検出し、エッジ抽出部 114によって上記 エッジ方向に基づきノイズ低減前の輝度信号カゝらエッジ成分を抽出する撮像システ ムである。
[0016] 第 3の発明による撮像システムは、カラー撮像素子からの信号を輝度信号と色信号 に分離し、ノイズ低減処理後の輝度信号力 エッジの概略的な方向を検出し、この方 向に基づきノイズ低減処理前の輝度信号カゝらエッジ成分を抽出するものである。この ために、ノイズの影響を抑制し、かつ微細な信号を保存した高品位なエッジ成分が得 られる。また、カラー撮像素子力もの信号に対応するために、多様な撮像系に利用 することができる。
[0017] (4)また、第 4の発明による撮像システムは、カラー撮像素子からの信号を処理する 撮像システムにお ヽて、上記カラー撮像素子からの信号に対して輝度信号および色 信号を分離する YZc分離手段と、上記 YZC分離手段により分離された輝度信号 に対してノイズ低減処理を行うノイズ処理手段と、上記ノイズ低減手段力ゝらの情報に 基づきエッジ方向を検出するエッジ方向検出手段と、上記エッジ方向に基づき上記
YZC分離手段により分離された輝度信号に対してエッジ成分を抽出するエッジ抽 出手段とを有することを特徴とする。
[0018] この発明の適用例は、図 73に示される第 6の実施形態に記載されている。上記構 成の YZC分離手段は図 73に示される YZC分離部 1703が、ノイズ処理手段は図 7 3に示される抽出部 700,ノイズ推定部 701,ノイズ低減部 111が、エッジ方向検出 手段は図 73に示されるエッジ方向検出部 702が、エッジ抽出手段は図 73に示され るエッジ抽出部 114がそれぞれ該当する。
[0019] この発明の好ましい適用例は、 YZC分離部 1703によって信号を輝度信号と色信 号に分離し、抽出部 700,ノイズ推定部 701,ノイズ低減部 111によって輝度信号に ノイズ低減処理を行 ヽ、エッジ方向検出部 702によってノイズ低減処理の過程で得ら れた情報に基づきエッジ方向を検出し、エッジ抽出部 114によって上記エッジ方向 に基づきノイズ低減前の輝度信号カゝらエッジ成分を抽出する撮像システムである。
[0020] 第 4の発明による撮像システムは、カラー撮像素子からの信号を輝度信号と色信号 に分離し、ノイズ低減処理の過程で得られた情報に基づきエッジの概略的な方向を 検出し、この方向に基づきノイズ低減処理前の輝度信号力 エッジ成分を抽出するも のである。このために、ノイズの影響を抑制し、かつ微細な信号を保存した高品位な エッジ成分が得られる。また、カラー撮像素子力もの信号に対応するために、多様な 撮像系に利用することができる。さらにノイズ低減処理の過程で得られた情報力ゝらェ ッジの方向を検出するために、システムの規模を縮小することができ低コストィ匕を図る ことが可能となる。
[0021] (5)また、第 5の発明による画像処理プログラムは、撮像素子力 の信号に対してノィ ズ低減処理を行うノイズ処理手順と、上記ノイズ低減処理がなされた信号カゝらエッジ 方向を検出するエッジ方向検出手順と、上記エッジ方向に基づき上記撮像素子から の信号に対してエッジ成分を抽出する手順と、をコンピュータに実行させるためのプ ログラムであることを特徴とする。
[0022] この発明の適用例は、図 26、図 27に示される第 1の実施形態に記載されている。
前記構成のノイズ処理手順は図 26、図 27に示されるステップ S2からステップ S7まで の手順力 エッジ方向検出手順は図 26に示されるステップ S10の手順力 エッジ抽 出手順は図 26に示されるステップ S 11の手順がそれぞれ該当する。
[0023] 第 5の発明による画像処理プログラムは、ノイズ低減処理後の信号力 エッジの概 略的な方向を検出し、この方向に基づき原信号力 エッジ成分を抽出するものである 。このために、ノイズの影響を抑制し、かつ微細な信号を保存した高品位なエッジ成 分が得られる。
[0024] (6)また、第 6の発明による画像処理プログラムは、撮像素子力もの信号に対してノィ ズ低減処理を行うノイズ処理手順と、上記ノイズ処理手順からの情報に基づきエッジ 方向を検出するエッジ方向検出手順と、上記検出されたエッジ方向に基づき上記撮 像素子からの信号に対してエッジ成分を抽出する手順と、をコンピュータに実行させ るためのプログラムであることを特徴とする。
[0025] この発明の適用例は、図 36、図 37に示される第 2の実施形態および図 45、図 46、 図 47に示される第 3の実施形態に記載されている。前記構成のノイズ処理手順は図 36、図 37に示されるステップ S2からステップ S7までの手順および図 45、図 46に示 されるステップ S51からステップ S56までの手順力 エッジ方向検出手順は図 36に 示されるステップ S10の手順および図 45、図 47に示されるステップ S57力 エッジ抽 出手順は図 36に示されるステップ S33の手順および図 45に示されるステップ S11が それぞれ該当する。
[0026] 第 6の発明による画像処理プログラムは、ノイズ低減処理の過程で得られた情報に 基づきエッジの概略的な方向を検出し、この方向に基づき原信号力 エッジ成分を 抽出するものである。このために、ノイズの影響を抑制し、かつ微細な信号を保存した 高品位なエッジ成分が得られる。
[0027] (7)また、第 7の発明による画像処理プログラムは、カラー撮像素子力もの信号に対 して輝度信号および色信号を分離する YZC分離手順と、上記 YZC分離手順により 分離された輝度信号に対してノイズ低減処理を行うノイズ処理手順と、上記ノイズ低 減処理がなされた輝度信号力 エッジ方向を検出するエッジ方向検出手順と、上記 検出されたエッジ方向に基づき上記 YZC分離手順により分離された輝度信号に対 してエッジ成分を抽出する手順とをコンピュータに実行させるためのプログラムである ことを特徴とする。
[0028] この発明の適用例は、図 51に示される第 4の実施形態に記載されている。上記構 成の YZC分離手順は図 51に示されるステップ S 911S ノイズ処理手順は図 51に示 されるステップ S2からステップ S7までの手順力 エッジ方向検出手順は図 51に示さ れるステップ S10の手順力 エッジ抽出手順は図 51に示されるステップ Sl lの手順 がそれぞれ該当する。
[0029] 第 7の発明による画像処理プログラムは、カラー撮像素子からの信号を輝度信号と 色信号に分離し、ノイズ低減処理後の輝度信号力 エッジの概略的な方向を検出し 、この方向に基づきノイズ低減処理前の輝度信号力 エッジ成分を抽出するものであ る。このために、ノイズの影響を抑制し、かつ微細な信号を保存した高品位なエッジ 成分が得られる。また、カラー撮像素子力もの信号に対応するために、多様な撮像 系に利用することができる。
[0030] (8)また、第 8の発明による画像処理プログラムは、カラー撮像素子力もの信号に対 して輝度信号および色信号を分離する YZC分離手順と、上記 YZC分離手順により 分離された輝度信号に対してノイズ低減処理を行うノイズ処理手順と、上記ノイズ処 理手順からの情報に基づきエッジ方向を検出するエッジ方向検出手順と、上記検出 されたエッジ方向に基づき上記 YZC分離手順により分離された輝度信号に対して エッジ成分を抽出する手順とをコンピュータに実行させるためのプログラムであること を特徴とする。
[0031] この発明の適用例は、図 36、図 37に示される第 2の実施形態を、カラー撮像素子 力 の信号を処理する手順を実行させるための画像処理プログラムに適用させたも のが対応する。前記構成のノイズ処理手順は図 36、図 37に示されるステップ S2から ステップ S7までの手順力 エッジ方向検出手順は図 36に示されるステップ S10の手 順力 エッジ抽出手順は図 36に示されるステップ S33の手順がそれぞれ該当する。
[0032] 第 8の発明による画像処理プログラムは、カラー撮像素子からの信号を輝度信号と 色信号に分離し、ノイズ低減処理の過程で得られた情報に基づきエッジの概略的な 方向を検出し、この方向に基づきノイズ低減処理前の輝度信号からエッジ成分を抽 出するものである。このために、ノイズの影響を抑制し、かつ微細な信号を保存した高 品位なエッジ成分が得られる。また、カラー撮像素子力 の信号に対応するために、 多様な撮像系に利用することができる。
図面の簡単な説明
[0033] [図 1]第 1の実施形態の構成を示すブロック図。 圆 2]注目画素および注目領域に関する説明図。
[図 3]ノイズ推定部の構成を示すブロック図。
[図 4]ノイズ量の推定に関する説明図であって、信号レベルに対する輝度ノイズ量の 関係を示す図。
圆 5]ノイズ量の推定に関する説明図であって、ノイズモデルの簡略ィ匕を示す図。
[図 6]ノイズ量の推定に関する説明図であって、簡略ィ匕されたノイズモデル力ゝらの輝 度ノイズ量の算出法を示す図。
[図 7]ノイズ低減部の構成を示すブロック図。
圆 8]エッジ方向検出部の構成を示すブロック図。
圆 9]エッジ方向検出部の別形態の構成を示すブロック図。
[図 10]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、注目画素およびその処理領域を示す図。
[図 11]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、エッジ抽出される画素位置を示す図。
[図 12]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、 0° のエッジ抽出フィルタを示す図。
[図 13]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、 45° のエッジ抽出フィルタを示す図。
[図 14]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、 90° のエッジ抽出フィルタを示す図。
[図 15]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、 135° のエッジ抽出フィルタを示す図。
[図 16]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、 180° のエッジ抽出フィルタを示す図。
[図 17]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、 225° のエッジ抽出フィルタを示す図。
[図 18]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、 270° のエッジ抽出フィルタを示す図。 [図 19]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、 315° のエッジ抽出フィルタを示す図。
[図 20]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、等方性エッジ抽出フィルタを示す図。
[図 21]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、水平エッジ抽出フィルタの説明図。
[図 22]エッジ方向検出部の処理領域およびエッジ抽出フィルタに関する説明図であ つて、垂直エッジ抽出フィルタの説明図。
[図 23]エッジ補正部のエッジ補正に関する説明図であって、 8方向のエッジ整形によ る説明図。
[図 24]エッジ補正部のエッジ補正に関する説明図であって、 4方向のエッジ整形によ る説明図。
圆 25]第 1の実施形態の別形態の構成を示すブロック図。
[図 26]第 1の実施形態における信号処理の流れを示すフローチャートであって、全体 処理のフローチャート。
[図 27]第 1の実施形態における信号処理の流れを示すフローチャートであって、ノィ ズ推定処理のフローチャート。
圆 28]第 2の実施形態の構成を示すブロック図。
[図 29]注目画素および注目領域に関する説明図であって、注目画素およびその近 傍領域を示す図。
[図 30]注目画素および注目領域に関する説明図であって、注目画素および抽出され た類似画素を示す図。
圆 31]抽出部の構成を示すブロック図。
[図 32]ノイズ推定部の構成を示すブロック図。
[図 33]エッジ方向検出部の構成を示すブロック図。
[図 34]エッジ方向検出部のエッジ抽出フィルタに関する説明図であって、水平エッジ 抽出フィルタを示す図。
[図 35]エッジ方向検出部のエッジ抽出フィルタに関する説明図であって、垂直エッジ 抽出フィルタを示す図。
[図 36]第 2の実施形態における信号処理の流れを示すフローチャートであって、全体 処理のフローチャート。
[図 37]第 2の実施形態における信号処理の流れを示すフローチャートであって、ノィ ズ推定処理のフローチャート。
圆 38]第 3の実施形態の構成を示すブロック図。
[図 39]DCT (Discrete Cosine Transform)変換に関する説明図であって、実空間を示 す図。
[図 40]DCT (Discrete Cosine Transform)変換に関する説明図であって、周波数空 間を示す図。
[図 41]ノイズ推定部の構成を示すブロック図。
[図 42]ノイズ低減部の構成を示すブロック図。
[図 43]エッジ方向検出部の構成を示すブロック図。
圆 44]エッジ方向検出部で用いる水平,垂直方向の周波数成分に関する説明図。
[図 45]第 3の実施形態における信号処理の流れを示すフローチャートであって、全体 処理のフローチャート。
[図 46]第 3の実施形態における信号処理の流れを示すフローチャートであって、ノィ ズ推定処理のフローチャート。
[図 47]第 3の実施形態における信号処理の流れを示すフローチャートであって、エツ ジ方向検出処理のフローチャート。
圆 48]第 4の実施形態の構成を示すブロック図。
[図 49]カラーフィルタに関する説明図であって、 Bayer型原色フィルタを示す図。 圆 50]カラーフィルタに関する説明図であって、色差線順次型補色フィルタを示す図
[図 51]第 4の実施形態における信号処理の流れを示したフローチャート。
圆 52]第 5の実施形態の構成を示すブロック図。
圆 53]YZC分離に関する説明図であって、 Bayer型原色フィルタを示す図。
圆 54]YZC分離に関する説明図であって、輝度信号を示す図。 圆 55]YZC分離に関する説明図であって、 R (赤)の色差信号を示す図。
圆 56]YZC分離に関する説明図であって、 B (青)の色差信号を示す図。
[図 57]エッジ方向抽出部の 0° のエッジ抽出フィルタに関する説明図であって、注目 画素が Rまたは Bのときを示す図。
[図 58]エッジ方向抽出部の 0° のエッジ抽出フィルタに関する説明図であって、注目 画素が Gのときを示す図。
[図 59]エッジ方向抽出部の 45° のエッジ抽出フィルタに関する説明図であって、注 目画素が Rまたは Bのときを示す図。
[図 60]エッジ方向抽出部の 45° のエッジ抽出フィルタに関する説明図であって、注 目画素が Gのときを示す図。
[図 61]エッジ方向抽出部の 90° のエッジ抽出フィルタに関する説明図であって、注 目画素が Rまたは Bのときを示す図。
[図 62]エッジ方向抽出部の 90° のエッジ抽出フィルタに関する説明図であって、注 目画素が Gのときを示す図。
[図 63]エッジ方向抽出部の 135° のエッジ抽出フィルタに関する説明図であって、注 目画素が Rまたは Bのときを示す図。
[図 64]エッジ方向抽出部の 135° のエッジ抽出フィルタに関する説明図であって、注 目画素が Gのときを示す図。
[図 65]エッジ方向抽出部の 180° のエッジ抽出フィルタに関する説明図であって、注 目画素が Rまたは Bのときを示す図。
[図 66]エッジ方向抽出部の 180° のエッジ抽出フィルタに関する説明図であって、注 目画素が Gのときを示す図。
[図 67]エッジ方向抽出部の 225° のエッジ抽出フィルタに関する説明図であって、注 目画素が Rまたは Bのときを示す図。
[図 68]エッジ方向抽出部の 225° のエッジ抽出フィルタに関する説明図であって、注 目画素が Gのときを示す図。
[図 69]エッジ方向抽出部の 270° のエッジ抽出フィルタに関する説明図であって、注 目画素が Rまたは Bのときを示す図。 [図 70]エッジ方向抽出部の 270° のエッジ抽出フィルタに関する説明図であって、注 目画素が Gのときを示す図。
[図 71]エッジ方向抽出部の 315° のエッジ抽出フィルタに関する説明図であって、注 目画素が Rまたは Bのときを示す図。
[図 72]エッジ方向抽出部の 315° のエッジ抽出フィルタに関する説明図であって、注 目画素が Gのときを示す図。
[図 73]第 6の実施形態の構成を示すブロック図。
発明を実施するための最良の形態
以下、図面を参照して本発明の実施の形態について説明する。図 1から図 27は本 発明の第 1の実施形態を示したものであり、図 1は第 1の実施形態の構成を示すプロ ック図、図 2は注目画素および注目領域に関する説明図、図 3はノイズ推定部の構成 を示すブロック図、図 4はノイズ量の推定に関する説明図であって信号レベルに対す る輝度ノイズ量の関係を示す図、図 5はノイズ量の推定に関する説明図であってノィ ズモデルの簡略ィ匕を示す図、図 6はノイズ量の推定に関する説明図であって簡略ィ匕 されたノイズモデル力ゝらの輝度ノイズ量の算出法を示す図、図 7はノイズ低減部の構 成を示すブロック図、図 8はエッジ方向検出部の構成を示すブロック図、図 9はエッジ 方向検出部の別形態の構成を示すブロック図、図 10〜図 22はエッジ方向検出部の 処理領域およびエッジ抽出フィルタに関する説明図であって、図 10は注目画素およ びその処理領域を示す図、図 11はエッジ抽出される画素位置を示す図、図 12は 0 。 のエッジ抽出フィルタを示す図、図 13は 45° のエッジ抽出フィルタを示す図、図 1 4は 90° のエッジ抽出フィルタを示す図、図 15は 135° のエッジ抽出フィルタを示す 図、図 16は 180° のエッジ抽出フィルタを示す図、図 17は 225° のエッジ抽出フィ ルタを示す図、図 18は 270° のエッジ抽出フィルタを示す図、図 19は 315° のエツ ジ抽出フィルタを示す図、図 20は等方性エッジ抽出フィルタを示す図、図 21は水平 エッジ抽出フィルタの説明図、図 22は垂直エッジ抽出フィルタの説明図、図 23、図 2 4はエッジ補正部のエッジ補正に関する説明図であって、図 23は 8方向のエッジ整 形による説明図、図 24は 4方向のエッジ整形による説明図、図 25は第 1の実施形態 の別形態の構成を示すブロック図、図 26、図 27は第 1の実施形態における信号処 理のフローチャートであって、図 26は全体処理のフローチャート、図 27はノイズ推定 処理のフローチャートである。
[0035] 図 1により、第 1の実施形態の構成を説明する。図 1は、本発明の第 1実施形態に係 る撮像システムの構成を示すブロック図である。レンズ系 100は被写体像を結像する ためのものである。絞り 101はこのレンズ系 100内に配置されていて、該レンズ系 10 0における光束の通過範囲を規定するためのものである。 CCD102は、このレンズ系 100を介して結像される光学的な被写体像を光電変換して、電気的な映像信号を出 力するものである。増幅器 103は、この CCD102の出力を所定の増幅率(増幅量, ゲインともいう)に従って増幅するものである。 AZD変翻 104は、この CCD102か ら出力され増幅器 103で増幅されたアナログの映像信号をデジタル信号へ変換する ものである。バッファ 105は、この AZD変翻 104から出力されたデジタルの映像信 号を一時的に記憶するものである。 AZD変翻 104からの信号は、ノ ッファ 105を 介して抽出部 109、エッジ抽出部 114へ転送される。バッファ 105は、測光評価部 10 6、合焦点検出部 107へも接続されている。測光評価部 106は、上記バッファ 105に 記憶された映像信号に基づき、被写体に関する測光評価を行って、その評価結果に 基づき上記絞り 101と CCD102と増幅器 103との制御を行うものである。すなわち、 該測光評価部 106は、絞り 101の絞り値と、 CCD102の電子シャツタ速度と、増幅器 103のゲインと、を調整することにより、露出制御を行うようになっている。合焦点検出 部 107は、上記バッファ 105に記憶された映像信号に基づき合焦点検出を行い、検 出結果に基づき後述する AFモータ 108を駆動するものである。 AFモータ 108は、こ の合焦点検出部 107により制御されて、上記レンズ系 100に含まれるフォーカスレン ズ等の駆動を行 、、上記 CCD102の撮像面上に被写体像が結像されるようにするも のである。抽出部 109は、抽出手段であって、上記バッファ 105に記憶された映像信 号力 所定領域の映像信号を抽出して出力するものである。抽出部 109からの信号 は、ノイズ推定部 110およびノイズ低減部 111へ接続されて!ヽる。
[0036] ノイズ推定部 110は、ノイズ推定手段であって、この抽出部 109により抽出された所 定領域の映像信号カゝらノイズ量を推定するものである。推定されたノイズ量はノイズ 低減部 111へ転送される。ノイズ低減部 111は、抽出部 109で抽出された所定領域 の映像信号に関して、ノイズ推定部 110で推定されたノイズ量に基づきノイズ低減処 理を行うものである。ノイズ低減処理後の映像信号はバッファ 112へ転送される。バッ ファ 112は、エッジ方向検出部 113およびエッジ強調部 116へ接続されている。エツ ジ方向検出部 113は、エッジ方向検出手段であって、ノッファ 112に記憶されたノィ ズ低減処理後の映像信号力もエッジの方向を検出するものである。検出されたエッジ 方向は、エッジ抽出部 114およびエッジ補正部 115へ転送される。エッジ抽出部 114 は、エッジ抽出手段であって、上記エッジ方向検出部 113により検出されたエッジ方 向に関する情報を基に上記バッファ 105に記憶された映像信号力もエッジ成分を抽 出するものである。抽出されたエッジ成分は、エッジ補正部 115へ転送される。エッジ 補正部 115は、エッジ補正手段であって、上記エッジ方向検出部 113により検出され たエッジ方向に関する情報を基に上記エッジ抽出部 114から抽出されたエッジ成分 を補正するものである。補正されたエッジ成分は、エッジ強調部 116へ転送される。 エッジ強調部 116は、エッジ強調手段であって、上記エッジ補正部 115で補正処理 が施されたエッジ成分を用いて、上記バッファ 112に記憶されたノイズ低減処理後の 映像信号のエッジ強調処理を行うものである。エッジ強調処理がなされた映像信号 は、信号処理部 117へ転送される。信号処理部 117は、信号処理手段であって、上 記エッジ強調部 116でエッジ強調処理が施された映像信号に対して、例えば公知の 圧縮処理などの所望の信号処理を行うものである。信号処理がなされた映像信号は 、出力部 118へ転送される。出力部 118は、出力手段であって、上記信号処理部 11 7からの映像信号を例えばメモリカード等に記録するために出力するものである。制 御手段に含まれる情報取得手段たる外部 I/F部 120は、電源スィッチ,シャツタボタ ン,動画 Z静止画の切り換えや圧縮率,画像サイズ, ISO感度の設定などの撮影時 の各種モードを設定するためのモードスィッチ等へのインターフェースを備えたもの である。制御手段とパラメータ算出手段と情報取得手段とを兼ねた制御部 119は、上 記増幅器 103、 AZD変換器 104、測光評価部 106、合焦点検出部 107、抽出部 1 09、ノイズ推定部 110、ノイズ低減部 111、エッジ方向検出部 113、エッジ抽出部 11 4、エッジ補正部 115、エッジ強調部 116、信号処理部 117、出力部 118、外部 iZF 部 120と双方向に接続されて!ヽて、これらを含むこの撮像システムを統合的に制御 するものであり、例えばマイクロコンピュータにより構成されている。さらに、 CCD102 の近傍に配置された温度センサー 121からの信号も制御部 119へ接続されて ヽる。
[0037] 次に、図 1において、信号の流れを説明する。外部 IZF部 120を介して ISO感度な どの撮影条件を設定した後、不図示のシャッターボタンを半押しにすることでプリ撮 像モードに入る。
[0038] レンズ系 100,絞り 101, CCD102を介して撮影された信号は、アナログ信号として 出力される。
[0039] なお、本実施形態において CCD102は白黒用単板 CCDを、出力される信号は輝 度信号 Yを想定する。上記アナログ信号は増幅器 103によって所定量増幅され、 A ZD変翻 104によってデジタル信号へ変換されてバッファ 105へ転送される。
[0040] なお、本実施形態において AZD変翻104は 12bit階調でデジタル信号へ変換 するものと想定する。
[0041] バッファ 105内の映像信号は、測光評価部 106および合焦点検出部 107へ転送さ れる。測光評価部 106では、設定された ISO感度,手ぶれ限界のシャッター速度など をカロ味し、信号中の輝度レベルを求めて適正露光となるように絞り 101や CCD102 の電子シャッター速度や増幅器 103のゲインなどを制御する。また、合焦点検出部 1 07では信号中のエッジ強度を検出し、これが最大となるように AFモータ 108を制御 することで合焦信号を得る。
[0042] 次に、外部 I/F部 120を介してシャッターボタン力もの全押し情報が入力されること により本撮影が行われ、映像信号はプリ撮像と同様にバッファ 105へ転送される。本 撮影は、測光評価部 106によって求められた露光条件、合焦点検出部 107によって 求められた合焦条件に基づき行われ、これらの撮影時の条件は制御部 119へ転送さ れる。バッファ 105内の映像信号は抽出部 109へ転送される。抽出部 109は、制御 部 119の制御に基づき図 2に示されるような注目画素 P を包含する 3 X 3画素サイズ
22
の注目領域 P (i= l〜3, j = l〜3)を順次抽出し、ノイズ推定部 110およびノイズ低 減部 111へ転送する。
[0043] なお、図 2においては 5 X 5画素サイズの領域を示している力 これは後述するエツ ジ処理において 5 X 5画素サイズの領域を要するためで、説明の便宜上 5 X 5画素サ ィズを示している。
[0044] また、以後の説明では注目画素を P と想定するが、注目画素自体は全信号力 順
22
次抽出され、その座標位置も順次移動して行く。
[0045] ノイズ推定部 110は、制御部 119の制御に基づき抽出部 109からの注目領域およ び撮影時の情報に基づき注目画素 P のノイズ量 N を推定し、これをノイズ低減部 1
22 22
11へ転送する。ノイズ低減部 111は、制御部 119の制御に基づき抽出部 109からの 注目画素 P に関して、ノイズ推定部 110からのノイズ量 N に基づきノイズ低減処理
22 22
を行い、ノイズ低減処理後の注目画素 P' およびそのノイズ量 N をバッファ 112へ転
22 22
送する。上記抽出部 109、ノイズ推定部 110、ノイズ低減部 111における処理は、制 御部 119の制御に基づき注目領域単位で同期して行われる。ノ ッファ 112には、ノィ ズ低減処理後の全信号およびそのノイズ量が記録されることになる。
[0046] エッジ方向検出部 113は、制御部 119の制御に基づきバッファ 112から図 10に示 されるようなノイズ低減処理後の注目画素 P' およびこれを包含する 5 X 5画素サイズ
22
の処理領域 P' (k=0〜4, 1=0〜4)を順次抽出する。その後、注目画素 P' および kl 22 その周囲 8画素(P, 11, P, 21, P, 31, P, 12, P, 32, P, 13, P, ッジ
23, P, )のエ 方向(D および 33 22
D ,D ,D ,D ,D ,D ,D ,D )を検出し、エッジ抽出部 114およびエッジ補
11 21 31 12 32 13 23 33
正部 115へ転送する。エッジ抽出部 114は、制御部 119の制御に基づき上記エッジ 方向検出部 113で用 ヽた処理領域と同一位置のノイズ低減処理前の原信号をバッ ファ 105から順次抽出する。その後、エッジ方向検出部 113からのエッジ方向に基づ き、注目画素 P' およびその周囲 8画素(Ρ' , Ρ' , Ρ' , Ρ' , Ρ' , Ρ' , Ρ' , P' )
22 11 21 31 12 32 13 23 33 のエッジ成分(Ε および Ε , Ε , Ε , Ε , Ε , Ε , Ε , Ε )を抽出し、エッジ補正
22 11 21 31 12 32 13 23 33
部 115へ転送する。
[0047] エッジ補正部 115は、制御部 119の制御に基づき、注目画素 P' のエッジ成分 Ε
22 22 に関して、エッジ方向検出部 113からのエッジ方向 D およびエッジ抽出部 114から
22
の周囲 8画素のエッジ成分(Ε , Ε , Ε , Ε , Ε , Ε , Ε , Ε )に基づきこれを補
11 21 31 12 32 13 23 33
正したエッジ成分 E' を求め、エッジ強調部 116へ転送する。エッジ強調部 116は、
22
制御部 119の制御に基づきバッファ 112からノイズ低減処理後の注目画素 P' を順
22 次抽出する。その後、エッジ補正部 115からのエッジ成分 E' に基づき、数式 1に示
22 すように所定の係数 g
1を乗算した後に加算することでエッジ強調処理後の画素値 P"
2 を求め、信号処理部 117へ転送する。
2
[数 1]
P" =P, +g ·Ε'
22 22 1 22
[0048] 上記エッジ方向検出部 113,エッジ抽出部 114,エッジ補正部 115,エッジ強調部 116における処理は、制御部 119の制御に基づき処理領域単位で同期して行われ る。信号処理部 117は、制御部 119の制御に基づきエッジ強調処理後の信号に対し て公知の圧縮処理などを行い、出力部 118へ転送する。出力部 118は、メモリー力 ードなどへ信号を記録保存する。
[0049] 図 3はノイズ推定部 110の構成の一例を示すものである。ノイズ推定部 110は、平 均算出部 200,ゲイン算出部 201,標準値付与部 202,パラメータ用 ROM203,パ ラメータ選択部 204,補間部 205,補正部 206を備えている。抽出部 109は、平均算 出部 200へ接続している。平均算出部 200は、パラメータ選択部 204へ接続している 。ゲイン算出部 201,標準値付与部 202,パラメータ用 ROM203は、パラメータ選択 部 204へ接続している。パラメータ選択部 204は、補間部 205および補正部 206へ 接続している。補間部 205は、補正部 206を介してノイズ低減部 111へ接続している 。制御部 119は、平均算出部 200,ゲイン算出部 201,標準値付与部 202,パラメ一 タ選択部 204,補間部 205,補正部 206へ双方向に接続されている。
[0050] 平均算出部 200は、制御部 119の制御に基づき、抽出部 109からノイズ低減処理 を行う図 2に示される注目領域 (Ρ , i= l〜3, j = l〜3)の平均値 AV を数式 2に示
ij 22
すように算出して、パラメータ選択部 204へ転送する。
[数 2]
AV =∑P /9
22 ij
[0051] ゲイン算出部 201は、制御部 119から転送される ISO感度および露光条件に関す る情報に基づき増幅器 103におけるゲインを求め、パラメータ選択部 204へ転送する 。また、制御部 119は温度センサー 121から CCD102の温度情報を得て、これをパ ラメータ選択部 204へ転送する。
[0052] パラメータ選択部 204は、平均算出部 200からの注目領域の平均値,ゲイン算出 部 201からのゲインの情報,制御部 119からの温度情報に基づき輝度ノイズ量を推 定する。
[0053] 図 4〜図 6は、輝度ノイズ量の推定に関する説明図である。図 4は、輝度値を信号レ ベル Lとした場合のノイズ量 Nをプロットしたものであり、ノイズ量 Nは信号レベルしに 対して 2次曲線的に増加している。図 4を 2次関数でモデルィ匕すると数式 3が得られる
[数 3]
Figure imgf000020_0001
ここで、 a , β , γは定数項である。しかしながら、ノイズ量は信号レベルだけでは なぐ撮像素子の温度やゲインによっても変化する。
[0054] 図 4は、一例としてある温度下においてゲインに関連する 3種類の ISO感度 100, 2 00, 400に対するノイズ量をプロットしている。個々の曲線は数式 3に示される形態を しているが、その係数はゲインに関連する ISO感度により異なる。温度を t、ゲインを g とし、上記を考慮した形でモデルの定式化を行うと数式 4となる。
N = a L + β L + y
gt gt gt
ここで、 a , β , γ は定数項である。ただし、数式 4の関数を複数記録し、その都
gt gt gt
度演算によりノイズ量を算出することは処理的に煩雑である。このために、図 5に示す ようなモデルの簡略化を行う。
[0055] 図 5においては、最大のノイズ量を与えるモデルを基準ノイズモデルとして選択し、 これを所定数の折れ線で近似する。折れ線の変曲点は、信号レベル Lとノイズ量 Nと を成分とする座標データ (L , N )で表す。ここで、 nは変曲点の数を示す。また、上 記基準ノイズモデルカゝら他のノイズモデルを導出するための補正係数 kも用意され
gt
る。補正係数 kは、各ノイズモデルと基準ノイズモデルとの間に最小自乗法を適用す
gt
ること〖こより算出される。基準ノイズモデルからの他のノイズモデルの導出は、上記補 正係数 kを乗算することにより行われる。
gt
[0056] 図 6は、図 5に示す簡易化されたノイズモデルカゝらノイズ量を算出する方法を示して いる。例えば、与えられた信号レベル 1、ゲイン g、温度 tに対応するノイズ量 Nを求め ることを想定する。まず、信号レベル 1が基準ノイズモデルのどの区間に属するかを探 索する。ここでは、信号レベル 1が (L , N )と (L , N )間の区間に属するものとする
n n n+1 n+1
。基準ノイズモデルにおける基準ノイズ量 Nを線形補間によって求める。
1
[数 5]
Figure imgf000021_0001
次に、基準ノイズ量 Nに補正係数 kを乗算することで、ノイズ量 Nを求める。
1 gt
[数 6]
N = k ·Ν
gt 1
[0057] ノ メータ選択部 204は、平均算出部 200からの注目領域の平均値 AV 力も信号
22 レベル 1を、ゲイン算出部 201からのゲインの情報カゝらゲイン gを、制御部 119からの 温度情報から温度 tを設定する。次に、信号レベル 1が属する区間の座標データ (L , ? と(し , N )をパラメータ用 ROM203から探索し、信号レベル 1と共に補間部 20 n n+1 n+1
5へ転送する。さらに、補正係数 kをパラメータ用 ROM203から探索し、これを補正 gt
部 206へ転送する。
[0058] 補間部 205は、制御部 119の制御に基づきパラメータ選択部 204からの信号レべ ル 1および区間の座標データ (L , N )と (L , N )力 数式 5に基づき基準ノイズモ
n n n+1 n+1
デルにおける基準ノイズ量 Nを算出し、補正部 206へ転送する。
1
[0059] 補正部 206は、制御部 119の制御に基づきパラメータ選択部 204からの補正係数 kおよび補間部 205からの基準ノイズ量 Nカゝら数式 6に基づきノイズ量 Nを算出し、 gt 1
注目画素 P のノイズ量 N とする。推定されたノイズ量 N および平均値 AV はノイズ
22 22 22 22 低減部 111へ転送される。
[0060] なお、上記ノイズ量算出の過程において、温度 t,ゲイン gなどの情報を撮影ごとに 求める必要はない。任意の情報を標準値付与部 202に記録させておき、算出過程を 省略する構成も可能である。これにより、高速処理や省電力化などが実現できる。
[0061] 図 7はノイズ低減部 111の構成の一例を示すものである。ノイズ低減部 111は、範 囲設定咅 300,切り換え咅 301,第 1スムージング咅 第 2スムージング咅 303を 備えている。ノイズ推定部 110は範囲設定部 300へ、範囲設定部 300は切り換え部 3 01,第 1スムージング部 302,第 2スムージング部 303へ接続している。抽出部 109 は切り換え部 301へ、切り換え部 301は第 1スムージング部 302および第 2スムージ ング部 303へ接続している。第 1スムージング部 302および第 2スムージング部 303 は、ノ ッファ 112へ接続している。制御部 119は、範囲設定部 300,切り換え部 301 ,第 1スムージング部 302,第 2スムージング部 303と双方向に接続している。ノイズ 推定部 110は、注目領域の平均値 AV およびノイズ量 N を範囲設定部 300へ転送
22 22
する。
[0062] 範囲設定部 300は、制御部 119の制御に基づきノイズ量に関する許容範囲として 上限 Upおよび下限 Lowを数式 7のように設定する。
[数 7]
Up =AV +N /2
22 22
Low=AV — N /2
22 22
上記許容範囲 Up, Lowは、切り換え部 301へ転送される。また、範囲設定部 300 は平均値 AV およびノイズ量 N を第 1スムージング部 302および第 2スムージング
22 22
部 303へ転送する。
[0063] 切り換え部 301は、制御部 119の制御に基づき抽出部 109からの注目画素 P を読
22 み込み、上記許容範囲に属するカゝ否かの判断を行う。判断は、「ノイズ範囲に属して いる」, 「ノイズ範囲を上回っている」, 「ノイズ範囲を下回っている」の三通りである。切 り換え部 301は、「ノイズ範囲に属している」場合は第 1スムージング部 302へ、それ 以外は第 2スムージング部 303へ注目画素 P を転送する。第 1スムージング部 302
22
は、切り換え部 301からの注目画素 P に範囲設定部 300からの平均値 AV を代入
22 22 する処理を行う。
[数 8]
P, =AV
22 22
数式 8でのノイズ低減処理がなされた注目画素 P' およびノイズ量 N はバッファ 11
22 22
2へ転送される。
[0064] 第 2スムージング部 303は、切り換え部 301からの注目画素 P に範囲設定部 300 力 の平均値 AV とノイズ量 N を用いて補正する処理を行う。まず、「ノイズ範囲を
22 22
上回って!/、る」場合は数式 9のように補正する。
[数 9]
P' =AV — N /2
22 22 22
また、「ノイズ範囲を下回って 、る」場合は数式 10のように補正する。
[数 10]
P' =AV +N /2
22 22 22
数式 9または数式 10のノイズ低減処理がなされた注目画素 P' およびノイズ量 N
22 22 はバッファ 112へ転送される。
[0065] 図 8はエッジ方向検出部 113の構成の一例を示すものである。エッジ方向検出部 1 13i¾、 ¾fg^¾¾400, ノッフ: T401,フィノレ夕 § 402,フィノレ夕 ROM403, ノ ッファ 404,エッジ選択部 405,方向決定部 406を備えている。ノ ッファ 112は閾値 設定部 400およびフィルタ処理部 402へ接続している。閾値設定部 400は、バッファ 401を介してエッジ選択部 405へ接続している。フィルタ処理部 402は、ノッファ 404 ,エッジ選択部 405,方向決定部 406を介してエッジ抽出部 114およびエッジ補正 部 115へ接続している。フィルタ ROM403は、フィルタ処理部 402へ接続している。 制御部 119は、閾値設定部 400,フィルタ処理部 402,エッジ選択部 405,方向決定 部 406と双方向に接続して 、る。
[0066] 閾値設定部 400は、制御部 119の制御に基づきバッファ 112からノイズ低減処理が なされた注目画素 P' に対応するノイズ量 Ν を読み込み、所定の係数 g、例えば g
22 22 2 2
= 2を乗算することでエッジ成分に対する閾値 T を数式 11に示すように算出する。
22
[数 11]
T =g ·Ν
22 2 22
[0067] なお、本実施形態では図 10に示される 5 X 5画素サイズの処理領域 P' (k=0〜4
kl
, 1=0〜4)を想定しており、図 11に示される注目画素 P' およびその周囲 8画素(Ρ'
22 1
, Ρ, , Ρ, , Ρ, , Ρ, , Ρ, , Ρ, , Ρ, )の 9画素に対して閾値(Τ および Τ , Τ , Τ
1 21 31 12 32 13 23 33 22 11 21
, Τ , Τ , Τ , Τ , Τ )は算出される。算出された閾値はバッファ 401へ転送され
31 12 32 13 23 33
る。 [0068] フィルタ処理部 402は、制御部 119の制御に基づきバッファ 112から図 10に示され る 5 X 5画素サイズの処理領域 P'を読み込み、注目画素 P' およびその周囲 8画素 kl 22
の 9画素に対して 3 X 3サイズのフィルタ処理を行う。図 12〜図 19は、フィルタ処理に 用いられる 8方向(0° , 45° , 90° , 135° , 180° , 225° , 270° , 315° ) (D フィルタ係数を示す。上記フィルタ係数は、フィルタ ROM403に記録されており、必 要に応じてフィルタ処理部 402へ転送される。フィルタ処理部 402は、図 11に示され る 9画素に対し 8方向のフィルタ処理を行い、これを絶対値ィ匕することで計 72のエツ ジ成分を算出し、バッファ 404へ転送する。
[0069] エッジ選択部 405は、制御部 119の制御に基づきバッファ 401から上記 9画素に対 する閾値を、ノ ッファ 404から上記 9画素に対する 8方向のエッジ成分を読み込む。 この後、エッジ選択部 405は、画素単位で上記閾値と 8方向のエッジ成分を比較し、 閾値以下のエッジ成分を省略し、閾値以上のエッジ成分を方向決定部 406へ転送 する。
[0070] 方向決定部 406は、制御部 119の制御に基づきエッジ選択部 405から転送される エッジ成分を 9画素の画素単位で処理する。これは、転送されるエッジ成分をソートし 、最大値と、最大値を与える方向と 180° ずれた対角方向を除く 2番目の最大値と、 を検出し、両者の差が所定の閾値以上の場合には最大値を与える方向をエッジ方 向(D および D , D , D , D , D , D , D , D )とする。一方、最大値と 2番目
22 11 21 31 12 32 13 23 33
の最大値の差が所定の閾値以下の場合には、有効なエッジ方向が複数あると判断し
、等方的なエッジ方向とする。また、エッジ選択部 405から転送される 8方向のエッジ 成分がない場合、平坦な領域としてエッジ方向がないとする。上記「最大値を与える 方向」が得られた場合は、この方向をエッジ抽出部 114およびエッジ補正部 115へ転 送する。また、「等方的なエッジ方向」および「エッジ方向がない」の場合は、制御部 1 19へその情報を転送する。
[0071] 制御部 119は、エッジ抽出部 114を制御し、「最大値を与える方向」が得られた場 合は、図 12〜図 19に示されるその方向に対応するフィルタ係数によりエッジ成分の 抽出を行わせる。一方、「等方的なエッジ方向」の場合は、図 20に示される等方的な フィルタ係数によりエッジ成分の抽出を行わせる。さらに、「エッジ方向がない」の場合 には、エッジ抽出部 114の処理を中止し、次の注目画素へ処理を移行させる。
[0072] なお、上記実施形態ではエッジ方向を決定する上で 8方向のフィルタ処理とノイズ 量に基づく閾値を使用している力 このような構成に限定される必要はない。例えば 、図 9に示されるように、水平,垂直の 2方向フィルタ処理と固定的な閾値によるより簡 略された構成も可能である。
[0073] 図 9は、図 8における閾値設定部 400, ノ ッファ 401を削除し、エッジ選択部 405を 変動除去部 500へ置換したもので、基本構成は図 8に示すエッジ方向検出部 113と 同様であり、同一の構成には同一の名称と符号を付して説明を省略し、主として異な る点についてのみ説明する。
[0074] バッファ 404は変動除去部 500へ、変動除去部 500は方向決定部 406へ接続して いる。制御部 119は、変動除去部 500と双方向に接続している。
[0075] フィルタ処理部 402は、図 11に示される 9画素に対し水平,垂直の 2方向のフィルタ 処理を行い、これを絶対値ィ匕することで計 18のエッジ成分を算出し、ノッファ 404へ 転送する。図 21,図 22は、水平,垂直の 2方向のフィルタ係数を示す。上記フィルタ 係数は、フィルタ ROM403に記録されており、必要に応じてフィルタ処理部 402へ 転送される。
[0076] 変動除去部 500は、制御部 119の制御に基づきバッファ 404から上記 9画素に対 する 2方向のエッジ成分を読み込む。この後、所定の下位ビット、本実施形態では A ZD変 l04を 12bit階調と想定しているため例えば下位 4bitを削除することで微 小な変動成分を除去する。変動成分が除去された 2方向のエッジ成分は、方向決定 部 406へ転送される。
[0077] 方向決定部 406は、制御部 119の制御に基づきエッジ選択部 405から転送される エッジ成分を 9画素の画素単位で処理し、エッジ方向を算出する。数式 12は、注目 画素 P' におけるエッジ方向の算出を示す。
22
[数 12]
D =tan_1 (E90 /E0 )
22 22 22
上記数式 12において、 E0は水平方向の E90は垂直方向のエッジ成分を意味する 。数式 12の演算は、図 11に示される 9画素に対し画素単位で行われる。 [0078] なお、変動成分が除去された結果、水平,垂直の 2方向ともエッジ成分が存在しな い場合は「エッジ方向がない」として、制御部 119へその情報を転送する。 2方向の 処理では、「等方的なエッジ方向」は検出されない。
[0079] 図 23、図 24は、エッジ補正部 115におけるエッジ成分の補正に用いる周囲画素を 示す。図 23の例では、注目画素 P' のエッジ方向 D に基づき周囲 8方向にある画素
22 22
の一つを選択し、そのエッジ成分を Eとした場合に数式 13で算出する。
d
[数 13]
E' = (E +E ) /2
22 22 d
また、図 24の例では、注目画素 P' のエッジ方向 D に基づき周囲 8方向にある画
22 22
素の一つを選択し、そのエッジ成分を E、その対角方向にある画素のエッジ成分を E d
とした場合に数式 14で算出する。
do
[数 14]
E' = (2E +E +E ) /4
22 22 d do
[0080] 上記構成により、ノイズ低減処理後の信号力 エッジの概略的な方向を検出し、こ の方向に基づき原信号力 エッジ成分を抽出することで、ノイズの影響を抑制し、か つ微細な信号を保存した高品位なエッジ成分が得られる。
[0081] また、検出されたエッジ方向に基づきエッジ成分を補正するために、高品位なエツ ジ成分を生成することができる。この場合、エッジ成分の抽出時に用いたエッジ方向 を再利用するために、システムの規模を縮小することができ低コストィ匕を図ることが可 能となる。
[0082] さらに、ノイズ低減処理はノイズ推定およびノイズ低減により行われる力 ノイズ推定 にお 、ては広 、領域力 推定を行うことで推定精度を高めるようにし、ノイズ低減に お!ヽては注目画素のみを対象とするようにしたために、ノイズ低減処理の精度を向上 することができ、高品位な信号が得られる。
[0083] ノイズ推定は、ノイズ量に関係する各種情報を撮影ごとに動的に求め、求められな い情報に関しては標準値を設定するために、高精度かつ安定したノイズ低減効果が 得られる。
[0084] さらに、エッジ方向の検出は、複数方向または水平および垂直方向のエッジ強度を 求めた後に、ノイズ量に基づく閾値との比較または微小なエッジ強度の除去を行うよ うにしたために、ノイズによる影響を抑制し精度の高 、エッジ方向が得られる。
[0085] また、エッジ方向が決定できな力つた場合に後段のエッジ抽出処理を停止させるた めに、無駄な処理を省略でき処理速度を高速化することができる。
[0086] さらに、エッジ方向が複数検出された場合に等方的なエッジ抽出処理を行うために 、安定した処理結果が得られる。
[0087] なお、上記実施形態ではレンズ系 100,絞り 101, CCD102,増幅器 103, Α/Ό 変翻 104,測光評価部 106,合焦点検出部 107, AFモータ 108,温度センサー 1 21を含む撮像部と一体化した構成になつて ヽたが、このような構成に限定される必 要はない。
[0088] 例えば、図 25に示されるように、別体の撮像部で撮像された映像信号を未処理の Rawデータ形態で、さらに撮像条件などの付随情報をヘッダ部に記録したメモリカー ドなどの記録媒体力も処理をすることも可能である。
[0089] 図 25は、図 1に示す構成からレンズ系 100,絞り 101, CCD102,増幅器 103, A ZD変翻104,測光評価部 106,合焦点検出部 107, AFモータ 108,温度センサ 一 121を省略し、入力部 600,ヘッダ情報解析部 601を追加した構成となっている。 基本構成は図 1と同様であり、同一の構成には同一の名称と符号を割り当てている。 以下、異なる部分のみ説明する。
[0090] 入力部 600は、ノ ッファ 105およびヘッダ情報解析部 601へ接続している。制御部 119は、入力部 600,ヘッダ情報解析部 601と双方向に接続している。マウス,キー ボードなどの外部 IZF部 120を介して再生操作を開始することで、メモリカードなど の記録媒体に保存された信号およびヘッダ情報が入力部 600から読み込まれる。入 力部 600からの信号はバッファ 105へ、ヘッダ情報はヘッダ情報解析部 601へ転送 される。ヘッダ情報解析部 601は、ヘッダ情報力も撮影時の情報を抽出して制御部 1 19へ転送する。以後の処理は、図 1と同様である。
[0091] さらに、上記実施形態ではハードウェアによる処理を前提としていた力 このような 構成に限定される必要はない。例えば、 CCD102からの信号を未処理のままの Raw データとして、制御部 119からの撮影時の温度,ゲインなどをヘッダ情報として出力し 、別途ソフトウェアによって処理する構成も可能である。
[0092] 図 26、図 27に、信号処理のソフトウェア処理に関するフローチャートを示す。
[0093] 処理を開始すると、まず、信号と温度,ゲインなどのヘッダ情報を読み込む (ステツ プ Sl)。
[0094] 次に、図 2に示されるような注目画素および 3 X 3画素サイズの注目領域を抽出する
(ステップ S 2)。
[0095] そして、別途説明するように、抽出した注目領域のノイズ量を推定し、それを注目画 素に対するノイズ量として算出する (ステップ S3)。
[0096] 続、て、注目画素に数式 7に示される許容範囲を設定する (ステップ S4)。
[0097] 次に、注目画素が許容範囲内に属する力否かを判断し、属する場合は次のステツ プ S6へ、属さない場合はステップ S 7へ分岐する (ステップ S5)。
[0098] ステップ S5において注目画素が許容範囲内に属すると判断されると、数式 8に示さ れる処理を行う(ステップ S6)。
[0099] 一方、ステップ S5において注目画素が許容範囲内に属さないと判断されると、数式
9または数式 10に示される処理を行う(ステップ S 7)。
[0100] 上記ステップ S6またはステップ S7の処理が終わると、続いて全注目領域の抽出が 完了したかを判断し、完了していない場合はステップ S2へ、完了した場合はステップ
S 9へ分岐する(ステップ S8)。
[0101] 上記ステップ S8で全注目領域の抽出が完了したと判断されると、次に図 10に示さ れるような注目画素および 5 X 5画素サイズの処理領域を抽出する (ステップ S9)。
[0102] 続いて、図 11に示される 9画素に関して図 12〜図 19に示される方向別の抽出フィ ルタを用 V、てエッジ方向を検出する (ステップ S 10)。
[0103] さらに、ステップ S 10からのエッジ方向に基づきノイズ低減処理前の原信号からエツ ジ成分を抽出する (ステップ Sl l)。
[0104] 次にステップ S 10で検出したエッジ方向に基づき図 23または図 24に示される近傍 画素のエッジ成分により数式 13または数式 14に示される補正処理によってエッジ成 分を補正する (ステップ S 12)。
[0105] 更に、ノイズ低減処理後の注目画素の信号に数式 1に示されるエッジ強調処理を 行う(ステップ SI 3)。
[0106] そして、全処理領域の抽出が完了したかを判断し、完了していない場合はステップ
S9へ、完了した場合はステップ S 15へ分岐する(ステップ S 14)。
[0107] ステップ S14で全処理領域の抽出が完了したと判断されると、続いて公知の圧縮処 理などが行われる(ステップ S 15)。
[0108] その後、処理後の信号が出力され終了する (ステップ S16)。
[0109] 図 27は、上記ステップ S3におけるノイズ量の推定に関するフローチャートである。
[0110] まず、数式 2に示される注目領域の平均値を算出する (ステップ S20)。
[0111] 次に、読み込まれたヘッダ情報から温度,ゲインなどの情報を設定する (ステップ S
21)。このとき、もし、ヘッダ情報に必要なパラメータが存在しない場合は所定の標準 値を割り当てる。
[0112] 更に、基準ノイズモデルの座標データおよび補正係数を読み込む (ステップ S22)。
[0113] 続いて、数式 5に示される補間処理によって基準ノイズ量を求める (ステップ S23)。
[0114] 次に、数式 6に示される補正処理によってノイズ量を求める(ステップ S24)。
[0115] 最後に、算出されたノイズ量を出力して終了する (ステップ S25)。
[0116] このように、ハードウェアによる実行を前提としていた上述したような処理も、上記第
1の実施形態と同様に、コンピュータ等の処理装置においてソフトウェアにより処理す ることが可能となる。
[0117] 図 28から図 37は本発明の第 2の実施形態を示したものであり、図 28は第 2の実施 形態の構成を示すブロック図、図 29、図 30は注目画素および注目領域に関する説 明図であって、図 29は注目画素およびその近傍領域を示す図、図 30は注目画素お よび抽出された類似画素を示す図、図 31は抽出部の構成を示すブロック図、図 32 はノイズ推定部の構成を示すブロック図、図 33はエッジ方向検出部の構成を示すブ ロック図、図 34、図 35はエッジ方向検出部のエッジ抽出フィルタに関する説明図で あって、図 34は水平エッジ抽出フィルタを示す図、図 35は垂直エッジ抽出フィルタを 示す図、図 36、図 37は第 2の実施形態における信号処理のフローチャートであって 、図 36は全体処理のフローチャート、図 37はノイズ推定処理のフローチャートである [0118] 図 28は、第 2の実施形態の構成を示すブロック図である。本実施形態は、図 1に示 す第 1の実施形態における抽出部 109,ノイズ推定部 110,エッジ方向検出部 113 力 抽出部 700,ノイズ推定部 701,エッジ方向検出部 702に置換され、バッファ 70 3が追加された構成になっている。基本構成は第 1の実施形態と同様であり、同一の 構成には同一の名称と符号を付して説明を省略し、主として異なる点についてのみ 説明する。
[0119] バッファ 105は、測光評価部 106,合焦点検出部 107,抽出部 700,エッジ抽出部 114へ接続されている。抽出部 700は、ノイズ推定部 701およびノイズ低減部 111へ 接続されている。ノイズ推定部 701は抽出部 700,ノイズ低減部 111,エッジ方向検 出部 702へ接続されている。エッジ方向検出部 702は、ノ ッファ 703を介して、エッジ 抽出部 114およびエッジ補正部 115へ接続されている。制御部 119は、抽出部 700 ,ノイズ推定部 701,エッジ方向検出部 702と双方向に接続されている。
[0120] 本実施形態は、基本的に第 1の実施形態と同様であり、異なる部分のみ説明する。
[0121] 図 28において、信号の流れを説明する。抽出部 700は、制御部 119の制御に基づ き図 29に示される注目画素 P を包含する 5 X 5画素サイズの注目領域 P (i=0〜4,
22 ij
j = 0〜4)を順次抽出する。上記注目画素 P は、ノイズ推定部 701およびノイズ低減
22
部 111へ転送される。
[0122] ノイズ推定部 701は、制御部 119の制御に基づきノイズ低減処理を行う注目画素 P
2 に対する第 1のノイズ量 N1 を推定し、これを抽出部 700へ転送する。
2 22
[0123] 抽出部 700は、制御部 119の制御に基づき、注目画素 P および上記第 1のノイズ
22
量 N1 に基づき注目画素 P と類似する画素を抽出するための許容範囲を算出する
22 22
。算出された上記許容範囲に基づき、上記注目領域から類似する類似画素を抽出 する。類似画素としては、例えば図 30に示されるような類似画素 P (k=0〜4のいず
kl
れか, 1=0〜4のいずれか)を想定する。抽出された類似画素 Pおよび注目画素 P
kl 22 は、ノイズ推定部 701へ転送される。
[0124] ノイズ推定部 701は、制御部 119の制御に基づき、ノイズ低減処理を行う注目画素 P および上記類似画素 Pに対する第 2のノイズ量 N2 を推定し、これをノイズ低減
22 kl 22
部 111へ転送する。また、注目画素 P および上記類似画素 Pの情報をエッジ方向 検出部 702へ転送する。
[0125] ノイズ低減部 111は、第 1の実施形態と同様に注目画素 P に関して、ノイズ推定部
22
701からのノイズ量 N2 に基づきノイズ低減処理を行い、ノイズ低減処理後の注目画
22
素 P' をバッファ 112へ転送する。
22
[0126] エッジ方向検出部 702は、ノイズ推定部 701からの注目画素 P および上記類似画
22
素 Pの情報に基づき、注目画素 P に対するエッジ方向 D を検出する。上記エッジ kl 22 22
方向 D は、バッファ 703へ転送される。
22
[0127] 上記抽出部 700,ノイズ推定部 701,ノイズ低減部 111,エッジ方向検出部 702〖こ おける処理は、制御部 119の制御に基づき注目領域単位で同期して行われる。
[0128] ノッファ 112にはノイズ低減処理後の全信号が、バッファ 703にはエッジ方向が記 録されること〖こなる。
[0129] エッジ抽出部 114は、第 1の実施形態と同様にバッファ 105から注目画素 P および
22 その周囲 8画素(P , Ρ , Ρ , Ρ , Ρ , Ρ , Ρ , Ρ )の 9画素を含む図 30に示され
11 21 31 12 32 13 23 33
る 5X5画素サイズの処理領域を、バッファ 703からエッジ方向(D および D , D ,
22 11 21
D , D , D , D , D , D )を読み込む。その後、上記 9画素に対してエッジ方向
31 12 32 13 23 33
に基づき図 12〜図 19に示されるエッジ抽出フィルタを選択し、フィルタ処理を行いェ ッジ成分(Ε および Ε , Ε , Ε , Ε , Ε , Ε , Ε , Ε )を抽出し、エッジ補正部 11
22 11 21 31 12 32 13 23 33
5へ転 る。
[0130] エッジ補正部 115は、第 1の実施形態と同様に、注目画素 Ρ のエッジ成分 Ε に関
22 22 して、バッファ 703からのエッジ方向 D およびエッジ抽出部 114からの周囲 8画素の
22
エッジ成分(Ε , Ε , Ε , Ε , Ε , Ε , Ε , Ε )に基づきこれを補正したエッジ成
11 21 31 12 32 13 23 33
分 E' を求め、エッジ強調部 116へ転送する。
22
[0131] エッジ強調部 116は、制御部 119の制御に基づきバッファ 112からノイズ低減処理 後の注目画素 P' を順次抽出する。その後、エッジ補正部 115からのエッジ成分 E'
22 22 に基づき第 1の実施形態と同様にエッジ強調処理後の画素値 Ρ" を求め、信号処理
22
部 117へ転送する。
[0132] 上記エッジ抽出部 114,エッジ補正部 115,エッジ強調部 116における処理は、制 御部 119の制御に基づき処理領域単位で同期して行われる。 [0133] 信号処理部 117は、制御部 119の制御に基づきエッジ強調処理後の信号に対して 公知の圧縮処理などを行い、出力部 118へ転送する。出力部 118は、メモリーカード などへ信号を記録保存する。
[0134] 図 31は抽出部 700の構成の一例を示すものである。抽出部 700は、許容範囲設 定部 800,近傍抽出部 801,類似性調査部 802, ノッファ 803を備えている。
[0135] ノイズ推定部 701は、許容範囲設定部 800へ接続している。ノ ッファ 105は、近傍 抽出部 801,類似性調査部 802, ノ ッファ 803を介してノイズ推定部 701へ接続して いる。近傍抽出部 801は、ノイズ低減部 111およびノイズ推定部 701へ接続している 。制御部 119は、許容範囲設定部 800,近傍抽出部 801,類似性調査部 802と双方 向に接続されている。
[0136] 近傍抽出部 801は、制御部 119の制御に基づき、バッファ 105から注目画素 P を
22 抽出し、ノイズ推定部 701およびノイズ低減部 111および許容範囲設定部 800へ転 送する。
[0137] 許容範囲設定部 800は、制御部 119の制御に基づき、ノイズ推定部 701から注目 画素 P に対する第 1のノイズ量 N1 が転送された後、類似画素を探索するための許
22 22
容範囲として上限 App— Upおよび下限 App— Lowを数式 15のように設定する。
[数 15]
App Up =P +N1 /2
― 22 22
App Low=P Nl /2
― 22 22
上記許容範囲は、類似性調査部 802へ転送される。
[0138] 近傍抽出部 801は、制御部 119の制御に基づき、バッファ 105から図 29に示され る注目領域 Pを抽出し、画素単位で順次類似性調査部 802へ転送する。
[0139] 類似性調査部 802は、許容範囲設定部 800からの許容範囲として上限 App— Up および下限 App— Lowに基づき、近傍抽出部 801からの画素を調査する。画素が数 式 15の許容範囲内にある場合、これを類似画素 Pとしての有効を意味するフラグ、
kl
例えば 1を与える。一方、許容範囲外である場合は無効を意味するフラグ、例えば 0 を与える。上記フラグと画素値は組としてバッファ 803へ保存される。図 30は、抽出さ れた類似画素の一例を示す。なお、注目画素は必ず類似画素の一つとして抽出され ることになる。ノ ッファ 803上のフラグおよび画素値情報は、制御部 119の制御に基 づき、必要に応じてノイズ推定部 701へ転送される。
[0140] 図 32はノイズ推定部 701の構成の一例を示すものである。ノイズ推定部 701は、第 1の実施形態の図 3に示されるノイズ推定部 110にノイズ LUT (ルックアップテーブル ) 900が追加され、パラメータ用 ROM203,パラメータ選択部 204,補間部 205,補 正部 206が省略された構成になっている。基本構成は図 3に示すノイズ推定部 110と 同様であり、同一の構成には同一の名称と符号を付して説明を省略し、主として異な る点についてのみ説明する。
[0141] 抽出部 700は、平均算出部 200およびエッジ方向検出部 702へ接続している。平 均算出部 200,ゲイン算出部 201,標準値付与部 202は、ノイズ LUT900へ接続し ている。ノイズ LUT900は、ノイズ低減部 111および抽出部 700へ接続している。制 御部 119は、ノイズ LUT900へ双方向に接続されて!、る。
[0142] 平均算出部 200は、制御部 119の制御に基づき抽出部 700から注目画素 P 、また
22 は注目画素 P と類似画素 Pとを読み込み、平均値を算出する。上記平均値はノイズ
22 kl
LUT900へ転送される。
[0143] ゲイン算出部 201は、制御部 119から転送される ISO感度および露光条件に関す る情報に基づき増幅器 103におけるゲインを求め、ノイズ LUT900へ転送する。
[0144] また、制御部 119は温度センサー 121から CCD102の温度情報を得て、これをノィ ズ LUT900へ転送する。
[0145] ノイズ LUT900は、平均算出部 200からの平均値,ゲイン算出部 201からのゲイン の情報,制御部 119からの温度情報に基づきノイズ量を推定する。ノイズ LUT900 は、温度,信号値レベル,ゲインとノイズ量間の関係を記録したルックアップテーブル で、第 1の実施形態と同様の手法により構築される。ノイズ LUT900で得られたノイズ 量は抽出部 700へ転送される。また、抽出部 700で得られた類似画素を識別するた めのフラグ情報および画素値はエッジ方向検出部 702へ転送される。
[0146] なお、標準値付与部 202は第 1の実施形態と同様に、いずれかのパラメータが省略 された場合に標準値を与える機能を受け持つ。
[0147] 図 33はエッジ方向検出部 702の構成の一例を示すものである。エッジ方向検出部 702は、水平フィルタ処理部 1000,垂直フィルタ処理部 1001,方向決定部 1002を 備えている。ノイズ推定部 701は、水平フィルタ処理部 1000および垂直フィルタ処理 部 1001へ接続して!/、る。水平フィルタ処理部 1000および垂直フィルタ処理部 1001 は、方向決定部 1002へ接続している。方向決定部 1002は、バッファ 703へ接続し ている。制御部 119は、水平フィルタ処理部 1000,垂直フィルタ処理部 1001,方向 決定部 1002と双方向に接続して 、る。
[0148] 水平フィルタ処理部 1000および垂直フィルタ処理部 1001は、制御部 119の制御 に基づき、図 30に示すように 5 X 5画素サイズの注目画素 P および類似画素 P に関
22 kl するフラグおよび画素値情報を読み込む。その後、図 34または図 35に示す 5 X 5画 素サイズのフィルタ処理と絶対値ィ匕を行 、、水平または垂直方向のエッジ成分を抽 出する。なお、類似画素 P に関しては、そのフラグが 0である画素は画素値を 0に置
kl
換してフィルタ処理を行う。上記エッジ成分は、方向決定部 1002へ転送される。
[0149] 方向決定部 1002は、制御部 119の制御に基づき水平フィルタ処理部 1000からの 水平エッジ成分 E0 および垂直フィルタ処理部 1001からの垂直エッジ成分 E90 に
22 22 基づき、数式 12に示されるようにエッジ方向 D を算出する。算出されたエッジ方向 D
22
はバッファ 703へ転送される。
22
[0150] 上記構成により、ノイズ低減処理の過程で得られた情報に基づきエッジの概略的な 方向を検出し、この方向に基づき原信号力 エッジ成分を抽出することで、ノイズの 影響を抑制しかつ微細な信号を保存した高品位なエッジ成分が得られる。
[0151] ノイズ低減処理の過程で得られた情報力もエッジの方向を検出するために、システ ムの規模を縮小することができ低コストィ匕を図ることが可能となる。
[0152] また、検出されたエッジ方向に基づきエッジ成分を補正するために、高品位なエツ ジ成分を生成することができる。この場合、エッジ成分の抽出時に用いたエッジ方向 を再利用するために、システムの規模を縮小することができ低コストィ匕を図ることが可 能となる。
[0153] さらに、ノイズ低減処理では注目画素力 概略的な第 1のノイズ量を推定し、第 1の ノイズ量力 類似画素を抽出し、注目画素および類似画素力 より精度の高い第 2の ノイズ量を推定し、第 2のノイズ量に基づきノイズ低減処理を行うために、ノイズ低減 処理の精度を向上することができ、高品位な信号が得られる。
[0154] ノイズ推定は、ノイズ量に関係する各種情報を撮影ごとに動的に求め、求められな い情報に関しては標準値を設定するために、高精度かつ安定したノイズ低減効果が 得られる。
[0155] なお、上記第 2の実施形態では撮像部と一体ィ匕した構成になって 、たが、このよう な構成に限定される必要はない。第 1の実施形態と同様に、撮像部と分離した構成も 可能である。
[0156] さらに、上記第 2の実施形態ではハードウェアによる処理を前提としていた力 この ような構成に限定される必要はない。例えば、 CCD102からの信号を未処理のまま の Rawデータとして、制御部 119からの撮影時の温度,ゲインなどをヘッダ情報とし て出力し、別途ソフトウェアによって処理する構成も可能である。
[0157] 図 36、図 37は、信号処理のソフトウェア処理に関するフローチャートを示す。なお、 図 26、図 27に示す本発明の第 1の実施形態における信号処理のフローチャートと同 一な処理ステップに関しては、同一なステップ符号を割り当てて 、る。
[0158] 処理を開始すると、まず信号と温度,ゲインなどのヘッダ情報を読み込む (ステップ Sl)。
[0159] 次に図 29に示されるような注目画素および 5 X 5画素サイズの注目領域を抽出する
(ステップ S 2)。
[0160] そして、別途説明するように抽出した注目領域のノイズ量を推定し、それを注目画 素に対するノイズ量として算出する (ステップ S3)。
[0161] 更に、類似画素を探索するための数式 15に示される許容範囲を設定する (ステツ プ S30)。
[0162] その後、図 30に示されるような類似画素を抽出する (ステップ S31)。
[0163] そして、上述のステップ S3と同じ処理によって、注目画素および抽出した類似画素 を用いてノイズ量を推定し、それを注目画素に対するノイズ量として算出する (ステツ プ S32)。
[0164] 次に、注目画素に数式 7に示される許容範囲を設定する (ステップ S4)。
[0165] そして、注目画素が許容範囲内に属するか否かを判断し、属する場合は次のステ ップ S6へ、属さな 、場合はステップ S7へ分岐する (ステップ S5)。
[0166] ステップ S5において注目画素が許容範囲内に属すると判断されると、続けて数式 8 に示される処理を行う(ステップ S6)。
[0167] 一方、ステップ S5において注目画素が許容範囲内に属さないと判断されると、数式
9または数式 10に示される処理を行う(ステップ S 7)。
[0168] その後、図 30に示される注目画素および類似画素に関して図 34,図 35に示される 水平,垂直用の抽出フィルタを用 、てエッジ方向を検出する (ステップ S 10)。
[0169] そして、全注目領域の抽出が完了したかを判断し、完了していない場合はステップ
S2へ、完了した場合は次のステップ S 9へ分岐する (ステップ S8)。
[0170] 次に、図 30に示されるような注目画素および類似画素を含む 5 X 5画素サイズの処 理領域を抽出する (ステップ S9)。
[0171] 更に、ステップ S 10からのエッジ方向情報に基づきノイズ低減処理前の原信号から 注目領域のエッジ成分を抽出する (ステップ S33)。
[0172] 次に、ステップ S 10で検出したエッジ方向に基づき図 23または図 24に示される近 傍画素のエッジ成分により数式 13または数式 14に示される補正処理によってエッジ 成分を補正する (ステップ S 12)。
[0173] その後、ノイズ低減処理後の注目画素の信号に数式 1に示されるエッジ強調処理を 行う(ステップ S 13)。
[0174] そして、全処理領域の抽出が完了したかを判断し、完了していない場合はステップ S9へ、完了した場合はステップ S 15へ分岐する(ステップ S 14)。
[0175] 全処理領域の抽出が完了した場合は、公知の圧縮処理などが行われ (ステップ S1 5)、処理後の信号が出力され終了する (ステップ S 16)。
[0176] 図 37は、上記ステップ S3およびステップ S32におけるノイズ量の推定に関するフロ 一チャートである。
[0177] まず、注目領域または注目画素と類似画素の平均値を算出する (ステップ S 20)。
[0178] 次に、読み込まれたヘッダ情報から温度,ゲインなどの情報を設定する (ステップ S
21)。その際、もし、ヘッダ情報に必要なパラメータが存在しない場合は所定の標準 値を割り当てる。 [0179] その後、ルックアップテーブルを用いてノイズ量を求め(ステップ S40)、算出された ノイズ量を出力して終了する (ステップ S25)。
[0180] この様に、 CCD102からの信号を未処理のままの Rawデータとし、制御部 119から の撮影時の温度,ゲインなどをヘッダ情報として付加された映像信号であれば、別途 ソフトウェアによって処理する構成も可能である。
[0181] 図 38から図 47は本発明の第 3の実施形態を示したものであり、図 38は第 3の実施 形態の構成を示すブロック図、図 39、図 40は DCT (Discrete Cosine Transform)変 換に関する説明図であって、図 39は実空間を示す図、図 40は周波数空間を示す図 、図 41はノイズ推定部の構成を示すブロック図、図 42はノイズ低減部の構成を示す ブロック図、図 43はエッジ方向検出部の構成を示すブロック図、図 44はエッジ方向 検出部で用いる水平,垂直方向の周波数成分に関する説明図、図 45、図 46、図 47 は第 3の実施形態における信号処理のフローチャートであって、図 45は全体処理の フローチャート、図 46はノイズ推定処理のフローチャート、図 47はエッジ方向検出処 理のフローチャートである。
[0182] 図 38は、本発明の第 3の実施形態の構成を示すブロック図である。本実施形態は 、図 1に示す第 1の実施形態におけるノイズ推定部 110,ノイズ低減部 111,エッジ方 向検出部 113がノイズ推定部 1101,ノイズ低減部 1102,エッジ方向検出部 1104に 置換され、 DCT変換部 1100,逆 DCT変換部 1103, ノッファ 1105が追加された構 成になっている。基本構成は第 1の実施形態と同様であり、同一の構成には同一の 名称と符号を付して説明を省略し、主として異なる点についてのみ説明する。
[0183] 抽出部 109は DCT変換部 1100へ、 DCT変換部 1100はノイズ推定部 1101およ びノイズ低減部 1102へ接続されている。ノイズ低減部 1102は、逆 DCT変換部 110 3を介してバッファ 112へ接続されている。ノイズ推定部 1101は、ノイズ低減部 1102 およびエッジ方向検出部 1104へ接続されている。エッジ方向検出部 1104はバッフ ァ 1105へ、バッファ 1105はエッジ抽出部 114およびエッジ補正部 115へ接続されて いる。制御部 119は、 DCT変換部 1100,ノイズ推定部 1101,ノイズ低減部 1102, 逆 DCT変換部 1103,エッジ方向検出部 1104と双方向に接続されて 、る。
[0184] 本実施形態は、基本的に第 1の実施形態と同様であり、異なる部分のみ説明する。 [0185] 図 38において、信号の流れを説明する。抽出部 109は、制御部 119の制御に基づ き、図 39に示されるような 4 X 4画素サイズの注目領域 (ブロック領域)を順次抽出し、 DCT変換部 1100へ転送する。
[0186] DCT変換部 1100は、制御部 119の制御に基づき上記注目領域に公知の DCT( Discrete Cosine Transform)変換を行い、図 40に示されるような周波数成分へ変換 する。 DCT変換では、図 40に示されるように、左上を原点すなわち 0次成分として、 1 次以上の高周波成分は 0次成分を原点とする同心円上に配置されることになる。本 実例では、 4 X 4画素サイズを想定するため次数として 5次の高周波成分まで存在す ること〖こなる。変換後の周波数成分は、ノイズ推定部 1101およびノイズ低減部 1102 へ転送される。
[0187] ノイズ推定部 1101は、制御部 119の制御に基づき、周波数成分中の 0次成分およ び撮影時の情報に基づき、 0次成分以外の高周波数成分に対するノイズ量を次数成 分ごとに算出する。算出されたノイズ量はノイズ低減部 1102へ、周波数成分はエツ ジ方向検出部 1104へ転送される。
[0188] ノイズ低減部 1102は、制御部 119の制御に基づき、ノイズ推定部 1101からのノィ ズ量に基づき 0次成分以外の高周波数成分に対してノイズ低減処理を行 ヽ、 0次成 分と共に逆 DCT変換部 1103へ転送する。
[0189] 逆 DCT変換部 1103は、制御部 119の制御に基づき、 0次成分とノイズ低減処理 後の 0次成分以外の高周波数成分に対して逆 DCT変換を行 、、実空間の画素へ変 換する。ノイズ低減がなされた上記画素は、バッファ 112へ転送される。
[0190] 一方、エッジ方向検出部 1104は、制御部 119の制御に基づき、ノイズ推定部 110
1からの周波数成分に基づき水平,垂直方向の周波数成分力もエッジ方向を検出す る。検出されたエッジ方向は、バッファ 1105へ転送される。
[0191] 上記 DCT変換部 1100,ノイズ推定部 1101,ノイズ低減部 1102,逆 DCT変換部
1103,エッジ方向検出部 1104における処理は、制御部 119の制御に基づき注目 領域単位で同期して行われる。
[0192] バッファ 112にはノイズ低減処理後の全信号力 バッファ 1105には 4 X 4画素単位 でエッジ方向が記録されることになる。 [0193] エッジ抽出部 114は、第 1の実施形態と同様にバッファ 105から注目画素 P および
22 その周囲 8画素(P , Ρ , Ρ , Ρ , Ρ , Ρ , Ρ , Ρ )の 9画素を、バッファ 1105から
11 21 31 12 32 13 23 33
各画素が属する 4X4画素単位を探索し、エッジ方向(D および D , D , D , D ,
22 11 21 31 12
D , D , D , D )を読み込む。その後、上記 9画素に対してエッジ方向に基づき図
32 13 23 33
12〜図 19に示されるエッジ抽出フィルタを選択し、フィルタ処理を行!/、エッジ成分( Ε および Ε , Ε , Ε , Ε , Ε , Ε , Ε , Ε )を抽出し、エッジ補正部 115へ転送
22 11 21 31 12 32 13 23 33
する。
[0194] エッジ補正部 115は、第 1の実施形態と同様に、注目画素 Ρ のエッジ成分 Ε に関
22 22 して、バッファ 1105からのエッジ方向 D およびエッジ抽出部 114からの周囲 8画素
22
のエッジ成分(Ε , Ε , Ε , Ε , Ε , Ε , Ε , Ε )に基づきこれをネ ΐ正したエッジ
11 21 31 12 32 13 23 33
成分 E' を求め、エッジ強調部 116へ転送する。
22
[0195] エッジ強調部 116は、制御部 119の制御に基づき、ノ ッファ 112からノイズ低減処 理後の注目画素 P' を順次抽出する。その後、エッジ補正部 115からのエッジ成分 Ε
22
' 22に基づき第 1の実施形態と同様にエッジ強調処理後の画素値 Ρ"
22を求め、信号処 理部 117へ転送する。
[0196] 上記エッジ抽出部 114,エッジ補正部 115,エッジ強調部 116における処理は、制 御部 119の制御に基づき注目画素単位で同期して行われる。
[0197] 信号処理部 117は、制御部 119の制御に基づきエッジ強調処理後の信号に対して 公知の圧縮処理などを行い、出力部 118へ転送する。出力部 118は、メモリーカード などへ信号を記録保存する。
[0198] 図 41はノイズ推定部 1101の構成の一例を示すものである。ノイズ推定部 1101は 、第 1の実施形態の図 3に示されるノイズ推定部 110に 0次成分抽出部 1200,ノイズ LUT1201が追加され、平均算出部 200,パラメータ用 ROM203,パラメータ選択 部 204,補間部 205,補正部 206が省略された構成になっている。基本構成は図 3 に示すノイズ推定部 110と同様であり、同一の構成には同一の名称と符号を付して 説明を省略し、主として異なる点についてのみ説明する。
[0199] DCT変換部 1100は、 0次成分抽出部 1200およびエッジ方向検出部 1104へ接 続している。 0次成分抽出部 1200,ゲイン算出部 201,標準値付与部 202は、ノイズ LUT1201へ接続している。ノイズ LUT1201は、ノイズ低減部 1102へ接続している 。制御部 119は、 0次成分抽出部 1200,ノイズ LUT1201へ双方向に接続されてい る。
[0200] 0次成分抽出部 1200は、制御部 119の制御に基づき DCT変換部 1100から 4 X 4 画素サイズの注目領域 (ブロック領域)に対する周波数成分を読み込み、その 0次成 分を抽出する。上記 0次成分はノイズ LUT1201へ転送される。
[0201] ゲイン算出部 201は、制御部 119から転送される ISO感度および露光条件に関す る情報に基づき増幅器 103におけるゲインを求め、ノイズ LUT1201へ転送する。
[0202] また、制御部 119は温度センサー 121から CCD102の温度情報を得て、これをノィ ズ LUT1201へ転送する。
[0203] ノイズ LUT1201は、 0次成分抽出部 1200力らの 0次成分,ゲイン算出部 201から のゲインの情報,制御部 119からの温度情報に基づき 0次成分以外の高周波数成 分に対するノイズ量を推定する。
[0204] ノイズ LUT1201は、温度,信号値レベル,ゲインと 0次成分以外の高周波数成分 に対するノイズ量間の関係を記録したルックアップテーブルで、第 1の実施形態の手 法を周波数空間に適用することにより構築される。ノイズ LUT1201で得られた 0次成 分以外の高周波数成分に対するノイズ量はノイズ低減部 1102へ転送される。
[0205] なお、標準値付与部 202は第 1の実施形態と同様に、いずれかのパラメータが省略 された場合に標準値を与える機能を受け持つ。
[0206] 図 42はノイズ低減部 1102の構成の一例を示すものである。ノイズ低減部 1102は 、第 1の実施形態の図 7に示されるノイズ低減部 111に周波数分離部 1300,平均算 出部 1301が追加された構成になっている。基本構成は図 7に示されるノイズ低減部 111と同様であり、同一の構成には同一の名称と符号を付して説明を省略し、主とし て異なる点についてのみ説明する。
[0207] ノイズ推定部 1101は範囲設定部 300へ接続している。 DCT変換部 1100は周波 数分離部 1300へ、周波数分離部 1300は平均算出部 1301および逆 DCT変換部 1 103へ接続している。平均算出部 1301は、範囲設定部 300および切り換え部 301 へ接続している。第 1スムージング部 302および第 2スムージング部 303は、逆 DCT 変換部 1103へ接続している。制御部 119は、周波数分離部 1300,平均算出部 13 01と双方向に接続している。
[0208] 周波数分離部 1300は、制御部 119の制御に基づき DCT変換部 1100から図 40 に示されるような周波数成分を読み込み、これを各周波数成分ごとに分離する。分離 された 0次成分 Fは逆 DCT変換部 1103へ、 0次成分以外の高周波数成分 F (Lは
0 Le
1〜5の次数を、 eは各次数に含まれる要素を意味する)は平均算出部 1301へ転送 される。
[0209] 平均算出部 1301は、制御部 119の制御に基づき次数ごとの高周波数成分の平均 値 AV— Fを算出し、これを範囲設定部 300へ転送する。また、高周波数成分 F は
L Le 切り換え部 301へ転送される。
[0210] 範囲設定部 300は、制御部 119の制御に基づきノイズ推定部 1101から次数ごとの ノイズ量 N— Fを読み込み、許容範囲として上限 F— Upおよび下限 F— Lowを次
― し ― し ― し 数ごとに設定する。
[数 16]
F Up =AV F +N F /2
― L ― L ― L
F Low =AV F— N F /2
― L ― L ― L
上記許容範囲は、切り換え部 301へ転送される。また、範囲設定部 300は平均値 A V Fおよびノイズ量 N Fを第 1スムージング部 302および第 2スムージング部 30
― L ― L
3へ転送する。
[0211] 切り換え部 301は、制御部 119の制御に基づき平均算出部 1301からの高周波数 成分 F を読み込み、上記許容範囲に属するカゝ否かの判断を行う。判断は、「ノイズ
Le
範囲に属している」, 「ノイズ範囲を上回っている」, 「ノイズ範囲を下回っている」の三 通りである。切り換え部 301は、「ノイズ範囲に属している」場合は第 1スムージング部 302へ、それ以外は第 2スムージング部 303へ高周波数成分 Fを転送する。
[0212] 第 1スムージング部 302は、切り換え部 301からの高周波数成分 F に範囲設定部
Le
300からの平均値 AV Fを代入する処理を行う。
[数 17]
F' =AV F 数式 17でのノイズ低減処理がなされた高周波数成分 F' は逆 DCT変換部 1103
Le
へ転送される。
[0213] 第 2スムージング部 303は、切り換え部 301からの高周波数成分 F に範囲設定部
Le
300からの平均値 AV Fおよびノイズ量 N Fを用いて補正する処理を行う。
し し
[0214] まず、「ノイズ範囲を上回っている」場合は下記の数式 18のように補正する。
[数 18]
F' =AV F— N F /2
Le ― L ― L
[0215] また、「ノイズ範囲を下回っている」場合は下記の数式 19のように補正する。
[数 19]
F' =AV F +N F /2
Le ― L ― L
数式 18または数式 19のノイズ低減処理がなされた高周波数成分 F' は逆 DCT変
Le
換部 1103へ転送される。
[0216] 図 43はエッジ方向検出部 1104の構成の一例を示すものである。エッジ方向検出 部 1104は、水平高周波積算部 1400,垂直高周波積算部 1401,方向決定部 1402 を備えている。ノイズ推定部 1101は、水平高周波積算部 1400および垂直高周波積 算部 1401へ接続している。水平高周波積算部 1400および垂直高周波積算部 140 1は、方向決定部 1402へ接続している。方向決定部 1402は、バッファ 1105へ接続 している。制御部 119は、水平高周波積算部 1400,垂直高周波積算部 1401,方向 決定部 1402と双方向に接続して 、る。
[0217] 水平高周波積算部 1400および垂直高周波積算部 1401は、制御部 119の制御に 基づき、図 44に示すように周波数成分力も水平方向または垂直方向の 0次成分を除 く高周波成分を読み込む。上記高周波成分は絶対値化された後に積算され、水平ま たは垂直のエッジ成分として、方向決定部 1402へ転送される。
[0218] 方向決定部 1402は、制御部 119の制御に基づき注目画素 P を含む 4 X 4画素サ
22
ィズの注目領域単位 (ブロック領域単位)で、水平高周波積算部 1400からの水平ェ ッジ成分 E0 および垂直高周波積算部 1401からの垂直エッジ成分 E90 に基づき
22 22 数式 12に示されるようにエッジ方向 D を算出する。算出されたエッジ方向はバッファ
22
1105へ転送される。 [0219] 上記構成により、ノイズ低減処理の過程で得られた情報に基づきエッジの概略的な 方向を検出し、この方向に基づき原信号力 エッジ成分を抽出することで、ノイズの 影響を抑制しかつ微細な信号を保存した高品位なエッジ成分が得られる。ノイズ低 減処理の過程で得られた周波数情報力 エッジの方向を検出するために、システム の規模を縮小することができ低コストィ匕を図ることが可能となる。
[0220] また、検出されたエッジ方向に基づきエッジ成分を補正するために、高品位なエツ ジ成分を生成することができる。この場合、エッジ成分の抽出時に用いたエッジ方向 を再利用するために、システムの規模を縮小することができ低コストィ匕を図ることが可 能となる。
[0221] さらに、ノイズ低減処理では注目領域を周波数空間へ変換し、 0次成分力 ノイズ 量を推定しノイズ低減処理を行うために、ノイズ低減処理の精度を向上することがで き、高品位な信号が得られる。ノイズ推定は、ノイズ量に関係する各種情報を撮影ご とに動的に求め、求められない情報に関しては標準値を設定するために、高精度か つ安定したノイズ低減効果が得られる。
[0222] ここで、上記の第 3の実施形態の信号処理をソフトウェアで処理する場合のフロー チャートを説明する。なお、本フローチャートは、図 26、図 27に示した第 1の実施形 態のソフトウェア処理に関するフローチャートにおいて、ステップ S2からステップ S8ま での流れにおける具体的処理内容が異なり、他はほぼ同様の処理であるために、異 なる部分にっ 、てのみ説明する。
[0223] 図 45〜図 47に、信号処理のソフトウェア処理に関するフローチャートを示す。
[0224] 処理を開始すると、まず、信号と温度,ゲインなどのヘッダ情報を読み込み (ステツ プ S1)、その後、図 39に示されるような 4 X 4画素サイズの注目領域を順次抽出する( ステップ S51)。
[0225] 次に上記順次抽出した注目領域に DCT変換を行い、図 40に示されるような周波 数成分へ変換し (ステップ S52)、 0次成分とそれ以外の次数の高周波成分に分離す る(ステップ S 53)。
[0226] その後、別途説明するように、 0次成分以外の高周波数成分に対するノイズ量を次 数成分ごとに算出する (ステップ S54)。 [0227] また、上記ステップ S53で分離した次数ごとの高周波数成分の平均値を算出する( ステップ S 55)。
[0228] 続いて、注目領域に数式 16に示される許容範囲を設定する (ステップ S56)。
[0229] 次に、注目画素が許容範囲内に属する力否かを判断し、属する場合は次のステツ プ S58へ、属さない場合はステップ S59へ分岐する(ステップ S57)。
[0230] ステップ S57において注目画素が許容範囲内に属すると判断されると、数式 17に 示される処理を行う(ステップ S58)。
[0231] 一方、ステップ S57において注目画素が許容範囲内に属さないと判断されると、数 式 18または数式 19に示される処理を行う(ステップ S59)。
[0232] 次に、 0次成分とノイズ低減処理後の 0次成分以外の高周波数成分に対して逆 DC
T変換を行い、実空間の画素へ変換する (ステップ S60)。
[0233] 上記ステップ S60の処理が終わると、続いて全注目領域の抽出が完了したかを判 断し、完了していない場合はステップ S52へ、完了した場合はステップ S9へ分岐す る(ステップ S 8)。
[0234] 上記ステップ S8で全注目領域の抽出が完了したと判断されると、次に図 10に示さ れるような注目画素および 5 X 5画素サイズの処理領域を抽出する (ステップ S9)。
[0235] 続いて、別途説明するように、図 44に示される水平,垂直方向の周波数成分から エッジ方向を検出する (ステップ S61)。
[0236] さらに、ステップ S61からのエッジ方向に基づきノイズ低減処理前の原信号からエツ ジ成分を抽出する (ステップ Sl l)。
[0237] 次にステップ S 10で検出したエッジ方向に基づき図 23または図 24に示される近傍 画素のエッジ成分により数式 13または数式 14に示される補正処理によってエッジ成 分を補正する (ステップ S 12)。
[0238] 更に、ノイズ低減処理後の注目画素の信号に数式 1に示されるエッジ強調処理を 行う(ステップ S 13)。
[0239] そして、全処理領域の抽出が完了したかを判断し、完了していない場合はステップ
S9へ、完了した場合はステップ S 15へ分岐する(ステップ S 14)。
[0240] ステップ S14で全処理領域の抽出が完了したと判断されると、続いて公知の圧縮処 理などが行われる(ステップ SI 5)。
[0241] その後、処理後の信号が出力され終了する (ステップ S16)。
[0242] 図 46は、上記ステップ S54におけるノイズ量の推定に関するフローチャートである。
[0243] まず、上記ステップ S53で分離した 4 X 4画素サイズの注目領域に対する周波数成 分の 0次成分を抽出する (ステップ S71)。
[0244] 一方、ヘッダー情報に基づきゲイン,温度などの情報を設定する (ステップ S 72)。
このとき、もし、ヘッダ情報に必要なパラメータが存在しない場合は所定の標準値を 割り当てる。
[0245] 次にルックアップテーブルを用いてノイズ量を求め(ステップ S73)、算出されたノィ ズ量を出力して終了する (ステップ S74)。
[0246] 図 47は、上述したステップ S61のエッジ方向検出処理に関するフローチャートであ る。
[0247] 図 44に示されるように 0次成分を除く水平方向の高周波成分を絶対値ィ匕した後に 積算して水平エッジ成分を求める (ステップ S81)。また、図 44に示されるように 0次成 分を除く垂直方向の高周波成分を絶対値ィヒした後に積算して垂直エッジ成分を求 める(ステップ S82)。
[0248] 次に、 4 X 4画素サイズの注目領域単位で、上記ステップ S81で求めた水平エッジ 成分および上記ステップ S82で求めた垂直エッジ成分に基づき、上記数式 12に示さ れるようにエッジ方向を検出し (ステップ S83)、検出された方向を出力して終了する( ステップ S84)。
[0249] なお、上記第 3の実施形態においては周波数成分への変換を DCT変換により行 い、変換の処理サイズを 4 X 4画素とする構成になっていた力 このような構成に限定 される必要はない。例えば、周波数成分への変換としては FFT (Fast Fourier Transf orm)や Wavelet変換などを使用することもできる。また、処理サイズとしては 2 X 2画 素など、より小さくすることで方向検出の精度を向上することもできるし、 8 X 8画素な ど、より大きくすることで全体の処理を高速ィ匕することも可能である。
[0250] また、上記第 3の実施形態では撮像部と一体ィ匕した構成になって 、たが、このよう な構成に限定される必要はない。第 1の実施形態と同様に、撮像部と分離した構成も 可能である。
[0251] 図 48から図 51は本発明の第 4の実施形態を示したものであり、図 48は第 4の実施 形態の構成を示すブロック図、図 49、図 50はカラーフィルタに関する説明図であつ て、図 49は Bayer型原色フィルタを示す図、図 50は色差線順次型補色フィルタを示 す図、図 51は第 4の実施形態における信号処理のフローチャートである。
[0252] 図 48は、第 4の実施形態の構成を示すブロック図である。本実施形態は、図 1に示 す第 1の実施形態における CCD102がカラー CCD1500に置換され、 PreWB部 15 01,補間部 1502, YZC分離部 1503,バッファ 1504, YZC合成部 1505が追加さ れた構成になっている。基本構成は第 1の実施形態と同様であり、同一の構成には 同一の名称と符号を付して説明を省略し、主として異なる点についてのみ説明する。
[0253] カラー CCD1500は、増幅器 103へ接続されている。また、カラー CCD1500の近 傍には温度センサー 121が配置されている。バッファ 105は、 PreWB部 1501,測光 評価部 106,合焦点検出部 107,補間部 1502へ接続されている。補間部 1502は、 YZC分離部 1503,ノ ッファ 1504を介して抽出部 109およびエッジ抽出部 114へ 接続されている。エッジ強調部 116は YZC合成部 1505へ、 YZC合成部 1505は 信号処理部 117へ接続されている。制御部 119は、 PreWB部 1501,補間部 1502 , YZC分離部 1503, YZC合成部 1505と双方向に接続されている。
[0254] 本実施形態は、基本的に第 1の実施形態と同様であり、異なる部分のみ説明する。
[0255] 図 48において、信号の流れを説明する。外部 IZF部 120を介してシャッターボタン を半押しにすることでプリ撮像モードに入る。
[0256] レンズ系 100,絞り 101,カラー CCD1500を介して撮影された信号は、増幅器 10 3, AZD変翻104を介してバッファ 105へ転送される。なお、本実施形態におい てカラー CCD1500は Bayer型原色フィルタを前面に配置した単板 CCDを想定する 。図 49は、 Bayer型の色フィルタの構成を示す。 Bayer型は 2 X 2画素を基本単位と し、赤 (R) ,青(B)フィルタが 1画素ずつ、緑 (G)フィルタが 2画素配置される。
[0257] バッファ 105内の信号は、 PerWB部 1501へ転送される。
[0258] PreWB部 1501は所定輝度レベルの信号を色信号ごとに積算することで、簡易ホ ワイトバランス係数を算出する。 PreWB部 1501は、上記係数を増幅器 103へ転送し 、色信号ごとに異なるゲインを乗算させることでホワイトバランスを行わせる。
[0259] 次に、外部 I/F部 120を介してシャッターボタンを全押しにすることにより本撮影が 行われ、映像信号はプリ撮像と同様にバッファ 105へ転送される。なお、 PreWB部 1 501によって求められたホワイトバランス係数は制御部 119へ転送される。ノ ッファ 1 05内の信号は補間部 1502へ転送される。
[0260] 補間部 1502は、公知の線形補間などの手法を用いて、単板状態から三板状態の 信号を生成する。三板状態の信号は YZC分離部 1503へ転送され輝度信号 Yおよ び色差信号 Cb, Crに分離される。
[数 20]
Y = 0. 29900R+0. 58700G + 0. 11400B
Cb=— 0. 16874R-0. 33126G + 0. 50000B
Cr= 0. 50000R-0. 41869G— 0. 08131B
輝度信号 Yおよび色差信号 Cb, Crはバッファ 1504へ転送され保存される。
[0261] 第 1の実施形態と同様に抽出部 109,ノイズ推定部 110,ノイズ低減部 111により輝 度信号 Yはノイズ低減処理がなされて輝度信号 Y'となる。
[0262] なお、図 3に示すノイズ推定部 110中のゲイン算出部 201は、制御部 119から転送 される ISO感度および露光条件に関する情報および PreWB部 1501によって求めら れたホワイトバランス係数に基づき増幅器 103におけるゲインを求める。輝度信号 Y' と色差信号 Cb, Crはバッファ 112へ転送され保存される。
[0263] 第 1の実施形態と同様にエッジ方向検出部 113は、制御部 119の制御に基づきバ ッファ 112からノイズ低減処理後の輝度信号 Y'を読み込み、注目画素 P' およびこれ
22 を包含する 5 X 5画素サイズの処理領域を順次抽出する。その後、注目画素 P' およ
22 びその周囲 8画素のエッジ方向を検出する。エッジ方向は、「最大値を与える方向」ま たは「等方的なエッジ方向」または「エッジ方向がない」の三通りで、第 1の実施形態と 同様に後段の処理が選択される。
[0264] エッジ抽出部 114は、制御部 119の制御に基づき上記エッジ方向検出部 113で用 いた処理領域と同一位置のノイズ低減処理前の輝度信号 Yをバッファ 1504力ゝら順 次抽出する。その後、エッジ方向検出部 113からのエッジ方向に基づき、注目画素 P ' およびその周囲 8画素のエッジ成分を抽出し、エッジ補正部 115へ転送する。
22
[0265] エッジ補正部 115は、制御部 119の制御に基づき、注目画素 P' のエッジ成分 E
22 22 に関して、エッジ方向検出部 113からのエッジ方向 D およびエッジ抽出部 114から
22
の周囲 8画素のエッジ成分に基づきこれを補正したエッジ成分 E' を求め、エッジ強
22
調部 116へ転送する。
[0266] エッジ強調部 116は、制御部 119の制御に基づきバッファ 112からノイズ低減処理 後の輝度信号 Y'を読み込み、注目画素 P' を順次抽出する。その後、エッジ強調部
22
116は、エッジ補正部 115からのエッジ成分 E' に基づき、エッジ強調処理後の画素
22
値 P" を求め、エッジ強調処理後の輝度信号 Y"として YZC合成部 1505へ転送す
22
る。また、エッジ強調部 116はバッファ 112から色差信号 Cb, Crを読み込み、これを YZC合成部 1505へ転送する。
[0267] YZC合成部 1505は、制御部 119の制御に基づきエッジ強調部 116からのエッジ 強調処理後の輝度信号 Y"と色差信号 Cb, Crから、数式 21に示すように R, G, B信 号を合成する。
[数 21]
R=Y" + 1. 40200Cr
G=Y"-0. 34414Cb-0. 71414Cr
B=Y"+ 1. 77200Cb
R, G, B信号は信号処理部 112へ転送される。
[0268] 信号処理部 117は、制御部 119の制御に基づきエッジ強調処理後の信号に対して 公知の圧縮処理や色強調処理などを行い、出力部 118へ転送する。出力部 118は 、メモリーカードなどへ信号を記録保存する。
[0269] 上記構成により、カラー撮像素子からの信号を輝度信号と色信号に分離し、ノイズ 低減処理後の輝度信号力 エッジの概略的な方向を検出し、この方向に基づき原信 号力 エッジ成分を抽出することで、ノイズの影響を抑制しかつ微細な信号を保存し た高品位なエッジ成分が得られる。
[0270] また、検出されたエッジ方向に基づきエッジ成分を補正するために、高品位なエツ ジ成分を生成することができる。 [0271] さらに、ノイズ低減処理はノイズ推定およびノイズ低減により行われる力 ノイズ推定 にお 、ては広 、領域力 推定を行うことで推定精度を高めるようにし、ノイズ低減に お!ヽては注目画素のみを対象とするようにしたために、ノイズ低減処理の精度を向上 することができ、高品位な信号が得られる。
[0272] ノイズ推定は、ノイズ量に関係する各種情報を撮影ごとに動的に求め、求められな い情報に関しては標準値を設定するために、高精度かつ安定したノイズ低減効果が 得られる。
[0273] さらに、エッジ方向の検出は、複数方向または水平および垂直方向のエッジ強度を 求めた後に、ノイズ量に基づく閾値との比較または微小なエッジ強度の除去を行うよ うにしたために、ノイズによる影響を抑制し精度の高いエッジ方向が得られる。また、 エッジ方向が決定できな力つた場合に後段のエッジ抽出処理を停止させるために、 無駄な処理を省略でき処理速度を高速化することができる。さらに、エッジ方向が複 数検出された場合に等方的なエッジ抽出処理を行うために、安定した処理結果が得 られる。
[0274] また、カラー撮像素子力もの信号に対応することができ、補間処理を行った後に輝 度信号と色信号に分離するために、現状の撮影部および信号処理系との親和性が 高ぐ多くの撮像システムへの適用が可能となる。
[0275] なお、上記実施形態ではカラー CCD1500は Bayer型原色フィルタを前面に配置 した単板 CCDを想定した力 このような構成に限定される必要はない。例えば、色差 線順次型補色フィルタや二板,三板 CCDにも適用可能である。図 50は、色差線順 次型補色フィルタの構成を示す。色差線順次型は 2 X 2画素を基本単位とし、シアン (Cy) ,マゼンタ(Mg) ,イェロー (Ye) ,緑 (G)が 1画素ずつ配置される。ただし、 Mg と Gの位置はラインごとに反転している。この場合、 2 X 2画素領域を 1行または 1列ず つ重複させながら順次抽出し、下記の数式 22に示す輝度信号 Yおよび色差信号 Cb , Crを領域単位に算出する構成も可能である。
[数 22]
Y =Cy+Ye + Mg + G
Cb= (Cv+Mg) (Ye + G) Cr= (Ye + Mg) (Cy + G)
[0276] また、上記第 4の実施形態では輝度信号のみにノイズ低減処理を行っていた力 こ のような構成に限定される必要はな ヽ。色差信号に対してもノイズ低減処理を行う構 成も可能である。
[0277] さらに、上記第 4の実施形態では撮像部と一体ィ匕した構成になっていた力 このよう な構成に限定される必要はない。第 1の実施形態と同様に、撮像部と別体となる構成 も可能である。
[0278] また、上記第 4の実施形態ではハードウェアによる処理を前提としていた力 このよ うな構成に限定される必要はない。例えば、カラー CCD1500からの信号を未処理 のままの Rawデータとして、制御部 119からの撮影時の温度,ゲイン,ホワイトバラン ス係数などをヘッダ情報として出力し、別途ソフトウェアによって処理する構成も可能 である。
[0279] 図 51は、信号処理のソフトウェア処理に関するフローチャートを示す。なお、図 26 に示す第 1の実施形態における信号処理の流れと同一な処理ステップに関しては、 同一なステップ符号を割り当てて 、る。
[0280] まず、信号と温度,ゲイン,ホワイトバランス係数などのヘッダ情報を読み込む (ステ ップ Sl)。
[0281] 次に、単板状態の信号を線形補間などで三板状態にする (ステップ S90)。
[0282] 更に、数式 20に示されるように、信号を輝度信号 Yおよび色差信号 Cb, Crに分離 する(ステップ S 91)。
[0283] その後、図 2に示されるように輝度信号から注目画素および 3 X 3画素サイズの注 目領域を抽出する (ステップ S2)。
[0284] 次に、図 27に示されるフローチャートに基づき抽出した注目領域のノイズ量を推定 し、それを注目画素に対するノイズ量として算出する (ステップ S3)。
[0285] そして、注目画素に対して数式 7に示される許容範囲を設定する (ステップ S4)。
[0286] その後、注目画素が許容範囲内に属する力否かを判断し、属する場合はステップ S
6へ、属さない場合はステップ S7へ分岐する (ステップ S5)。
[0287] ステップ S5において注目画素が許容範囲内に属すると判断されると、数式 8に示さ れる処理を行う(ステップ S6)。
[0288] 一方、ステップ S5において注目画素が許容範囲内に属さないと判断されると、数式
9または数式 10に示される処理を行う(ステップ S 7)。
[0289] 次に、全注目領域の抽出が完了したかを判断し、完了していない場合はステップ S
2へ、完了した場合はステップ S 9へ分岐する (ステップ S8)。
[0290] 全注目領域の抽出が完了した場合は、図 10に示されるようにノイズ低減後の輝度 信号から注目画素を中心とした 5 X 5画素サイズの処理領域を抽出する (ステップ S9
) o
[0291] ステップ S9で抽出した処理領域の画素のうち、図 11に示される 9画素に対して図 1 2〜図 19に示される方向別の抽出フィルタを用いてエッジ方向を検出する (ステップ S10)。
[0292] その後、ステップ S10で検出したエッジ方向に基づきノイズ低減処理前の輝度信号 力 エッジ成分を抽出する (ステップ S 11)。
[0293] 更に、ステップ S 10からのエッジ方向に基づき図 23または図 24に示される近傍画 素のエッジ成分により数式 13または数式 14に示される補正処理によってエッジ成分 を補正する (ステップ S 12)。
[0294] 次に、ノイズ低減処理後の注目画素の信号に数式 1に示されるエッジ強調処理を 行う(ステップ S 13)。
[0295] その後、全処理領域の抽出が完了したかを判断し、完了していない場合はステップ S9へ、完了した場合はステップ S92へ分岐する(ステップ S14)。
[0296] ステップ S14で全処理領域の抽出が完了したと判断されると、数式 21に示されるよ うに R, G, B信号を合成する(ステップ S 92)。
[0297] 次に合成された信号に対して、公知の圧縮処理や色強調処理などが行われる (ス テツプ S 15)。
[0298] そして、処理後の信号が出力され終了する (ステップ S16)。
[0299] 図 52から図 72は本発明の第 5の実施形態を示したものであり、図 52は第 5の実施 形態の構成を示すブロック図、図 53〜図 56は YZC分離に関する説明図であって、 図 53は Bayer型原色フィルタを示す図、図 54は輝度信号を示す図、図 55は R (赤) の色差信号を示す図、図 56は B (青)の色差信号を示す図、図 57はエッジ方向抽出 部の 0° のエッジ抽出フィルタに関する説明図であって、注目画素が Rまたは Bのとき を示す図、図 58はエッジ方向抽出部の 0° のエッジ抽出フィルタに関する説明図で あって、注目画素が Gのときを示す図、図 59はエッジ方向抽出部の 45° のエッジ抽 出フィルタに関する説明図であって、注目画素力 ¾または Bのときを示す図、図 60は エッジ方向抽出部の 45° のエッジ抽出フィルタに関する説明図であって、注目画素 が Gのときを示す図、図 61はエッジ方向抽出部の 90° のエッジ抽出フィルタに関す る説明図であって、注目画素が Rまたは Bのときを示す図、図 62はエッジ方向抽出部 の 90° のエッジ抽出フィルタに関する説明図であって、注目画素が Gのときを示す 図、図 63はエッジ方向抽出部の 135° のエッジ抽出フィルタに関する説明図であつ て、注目画素が Rまたは Bのときを示す図、図 64はエッジ方向抽出部の 135° のエツ ジ抽出フィルタに関する説明図であって、注目画素が Gのときを示す図、図 65はエツ ジ方向抽出部の 180° のエッジ抽出フィルタに関する説明図であって、注目画素が Rまたは Bのときを示す図、図 66はエッジ方向抽出部の 180° のエッジ抽出フィルタ に関する説明図であって、注目画素が Gのときを示す図、図 67はエッジ方向抽出部 の 225° のエッジ抽出フィルタに関する説明図であって、注目画素力 ¾または Bのと きを示す図、図 68はエッジ方向抽出部の 225° のエッジ抽出フィルタに関する説明 図であって、注目画素が Gのときを示す図、図 69はエッジ方向抽出部の 270° のェ ッジ抽出フィルタに関する説明図であって、注目画素が Rまたは Bのときを示す図、図 70はエッジ方向抽出部の 270° のエッジ抽出フィルタに関する説明図であって、注 目画素が Gのときを示す図、図 71はエッジ方向抽出部の 315° のエッジ抽出フィル タに関する説明図であって、注目画素が Rまたは Bのときを示す図、図 72はエッジ方 向抽出部の 315° のエッジ抽出フィルタに関する説明図であって、注目画素が Gの ときを示す図である。
図 52は、本発明の第 5の実施形態の構成を示すブロック図である。本実施形態は 、図 1に示す第 1の実施形態における CCD102がカラー CCD1600に置換され、 Pr eWB部 1601, YZC分離部 1602, ノ ッファ 1603,補間部 1604, YZC合成部 16 05が追加された構成になっている。基本構成は第 1の実施形態と同様であり、同一 の構成には同一の名称と符号を付して説明を省略し、主として異なる点についての み説明する。
[0301] カラー CCD1600は、増幅器 103へ接続されている。また、カラー CCD1600の近 傍には温度センサー 121が配置されている。バッファ 105は、 PreWB部 1601,測光 評価部 106,合焦点検出部 107, YZC分離部 1602へ接続されている。 YZC分離 部 1602は、ノッファ 1603を介して抽出部 109およびエッジ抽出部 114へ接続され ている。ノ ッファ 112は、補間部 1604を介してエッジ方向検出部 113およびエッジ強 調部 116へ接続されている。エッジ強調部 116は YZC合成部 1605へ、 YZC合成 部 1605は信号処理部 117へ接続されている。制御部 119は、 PreWB部 1601, Y ZC分離部 1602,補間部 1604, YZC合成部 1605と双方向に接続されている。
[0302] 本実施形態は、基本的に第 1の実施形態と同様であり、異なる部分のみ説明する。
[0303] 図 52において、信号の流れを説明する。まず外部 IZF部 120を介してシャッター ボタンを半押しにすることでプリ撮像モードに入る。
[0304] レンズ系 100,絞り 101,カラー CCD1600を介して撮影された信号は、増幅器 10 3, AZD変翻104を介してバッファ 105へ転送される。なお、本実施形態におい てカラー CCD 1600は図 53に示す Bayer型原色フィルタを前面に配置した単板 CC Dを想定する。
[0305] PreWB部 1601では所定輝度レベルの信号を色信号ごとに積算することで、簡易 ホワイトバランス係数を算出する。上記係数を増幅器 103へ転送し、色信号ごとに異 なるゲインを乗算させることでホワイトバランスを行わせる。
[0306] 次に、外部 I/F部 120を介してシャッターボタンを全押しにすることにより本撮影が 行われ、映像信号はプリ撮像と同様にバッファ 105へ転送される。
[0307] なお、 PreWB部 1601によって求められたホワイトバランス係数は制御部 119へ転 送される。バッファ 105内の信号は YZC分離部 1602へ転送される。
[0308] YZC分離部 1602は、図 54、図 55、図 56に示すように、輝度信号 Yとして G信号 を、色差信号 Cbとして B信号を、色差信号 Crとして R信号を想定する。
[数 23]
Y =G Cb = B
Cr=R
上記輝度信号および色差信号は補間処理前の単板状態にあり、バッファ 1603へ 転送される。
[0309] その後、第 1の実施形態と同様に抽出部 109,ノイズ推定部 110,ノイズ低減部 11 1により輝度信号 Yはノイズ低減処理がなされて輝度信号 Y'となる。
[0310] なお、図 3に示すノイズ推定部 110中のゲイン算出部 201は、制御部 119から転送 される ISO感度および露光条件に関する情報および PreWB部 1601によって求めら れたホワイトバランス係数に基づき増幅器 103におけるゲインを求める。また、 3 X 3 画素サイズの注目領域中に輝度信号 Y、すなわち G信号は 5画素または 4画素しか 存在しな!、ために、平均値の算出は上記 5画素または 4画素を用 V、て行われる。
[0311] ノイズ低減後の輝度信号 Y'と色差信号 Cb, Crはバッファ 112へ転送され保存され る。
[0312] 補間部 1604は、ノ ッファ 112から輝度信号 Y'と色差信号 Cb, Crを読み込み、公 知の線形補間などの手法を用いて単板状態力 三板状態の信号を生成する。
[0313] 三板状態の信号はエッジ方向検出部 113およびエッジ強調部 116へ転送される。
[0314] 第 1の実施形態と同様にエッジ方向検出部 113は、制御部 119の制御に基づき補 間部 1604からノイズ低減処理後の輝度信号 Y'を読み込み、注目画素 P' およびこ
22 れを包含する 5 X 5画素サイズの処理領域を順次抽出する。その後、注目画素 P' お
22 よびその周囲 8画素のエッジ方向を検出する。エッジ方向は、「最大値を与える方向」 または「等方的なエッジ方向」または「エッジ方向がな 、」の三通りで、第 1の実施形 態と同様に後段の処理が選択される。
[0315] エッジ抽出部 114は、制御部 119の制御に基づき上記エッジ方向検出部 113で用 V、た処理領域と同一位置のノイズ低減処理前の単板状態の輝度信号 Yをバッファ 1 603から順次抽出する。その後、エッジ方向検出部 113からのエッジ方向に基づき、 注目画素 P' およびその周囲 8画素のエッジ成分を抽出し、エッジ補正部 115へ転
22
送する。なお、エッジ抽出フィルタは図 57〜図 72に示されるように、単板状態の輝度 信号 Yに適用できる形態を使用する。 [0316] エッジ補正部 115は、制御部 119の制御に基づき、注目画素 P' のエッジ成分 E
22 22 に関して、エッジ方向検出部 113からのエッジ方向 D およびエッジ抽出部 114から
22
の周囲 8画素のエッジ成分に基づきこれを補正したエッジ成分 E' を求め、エッジ強
22
調部 116へ転送する。
[0317] エッジ強調部 116は、制御部 119の制御に基づき補間部 1604からノイズ低減処理 後の輝度信号 Y'を読み込み、注目画素 P'
22を順次抽出する。その後、エッジ補正部
115からのエッジ成分 E' に基づき、エッジ強調処理後の画素値 P〃 を求め、エッジ
22 22
強調処理後の輝度信号 Y〃として YZC合成部 1605へ転送する。また、エッジ強調 部 116は補間部 1604から色差信号 Cb, Crを読み込み、これを YZC合成部 1605 へ転送する。
[0318] YZC合成部 1605は、制御部 119の制御に基づきエッジ強調部 116からのエッジ 強調処理後の輝度信号 Y"と色差信号 Cb, Crから R, G, B信号を求める。
[数 24]
R=Cr
G=Y"
B=Cb
R, G, B信号は信号処理部 117へ転送される。
[0319] 信号処理部 117は、制御部 119の制御に基づきエッジ強調処理後の信号に対して 公知の圧縮処理や色強調処理などを行!、、出力部 118へ転送する。
[0320] 出力部 118は、メモリーカードなどへ信号を記録保存する。
[0321] 上記構成により、カラー撮像素子からの信号を輝度信号と色信号に分離し、ノイズ 低減処理後の輝度信号力 エッジの概略的な方向を検出し、この方向に基づき原信 号力 エッジ成分を抽出することで、ノイズの影響を抑制しかつ微細な信号を保存し た高品位なエッジ成分が得られる。この場合に、エッジ成分の抽出を補間前の信号 力も行うために、より高精細なエッジ成分の抽出が可能となる。
[0322] また、検出されたエッジ方向に基づきエッジ成分を補正するために、高品位なエツ ジ成分を生成することができる。
[0323] さらに、ノイズ低減処理はノイズ推定およびノイズ低減により行われる力 ノイズ推定 にお 、ては広 、領域力 推定を行うことで推定精度を高めるようにし、ノイズ低減に お!ヽては注目画素のみを対象とするようにしたために、ノイズ低減処理の精度を向上 することができ、高品位な信号が得られる。
[0324] ノイズ推定は、ノイズ量に関係する各種情報を撮影ごとに動的に求め、求められな い情報に関しては標準値を設定するために、高精度かつ安定したノイズ低減効果が 得られる。
[0325] さらに、エッジ方向の検出は、複数方向または水平および垂直方向のエッジ強度を 求めた後に、ノイズ量に基づく閾値との比較または微小なエッジ強度の除去を行うよ うにしたために、ノイズによる影響を抑制し精度の高いエッジ方向が得られる。また、 エッジ方向が決定できな力つた場合に後段のエッジ抽出処理を停止させるために、 無駄な処理を省略でき処理速度を高速化することができる。さらに、エッジ方向が複 数検出された場合に等方的なエッジ抽出処理を行うために、安定した処理結果が得 られる。
[0326] また、カラー撮像素子力もの信号に対応することができ、現状の撮影部との親和性 が高ぐ多くの撮像システムへの適用が可能となる。
[0327] なお、上記実施形態では撮像部と一体化した構成になって!/ヽたが、このような構成 に限定される必要はない。第 1の実施形態と同様に、撮像部と分離した構成も可能で ある。
[0328] さらに、上記第 5の実施形態ではハードウェアによる処理を前提としていた力 この ような構成に限定される必要はない。第 1の実施形態と同様に、ソフトウェアによって 処理する構成も可能である。
[0329] 図 73は本発明の第 6の実施形態を示したものであり、第 6の実施形態の構成を示し たブロック図である。本実施形態は、図 28に示す第 2の実施形態における CCD102 がカラー CCD 1700に置換され、 Pre WB部 1701,補間部 1702, YZC分離部 170 3, ノッファ 1704, YZC合成部 1705が追加された構成になっている。基本構成は 第 2の実施形態と同様であり、同一の構成には同一の名称と符号を付して説明を省 略し、主として異なる点についてのみ説明する。
[0330] カラー CCD1700は、増幅器 103へ接続されている。また、カラー CCD1700の近 傍には温度センサー 121が配置されている。バッファ 105は、 PreWB部 1701,測光 評価部 106,合焦点検出部 107,補間部 1702へ接続されている。補間部 1702は、 YZC分離部 1703,ノ ッファ 1704を介して抽出部 700およびエッジ抽出部 114へ 接続されている。エッジ強調部 116は YZC合成部 1705へ、 YZC合成部 1705は 信号処理部 117へ接続されている。制御部 119は、 PreWB部 1701,補間部 1702 , YZC分離部 1703, YZC合成部 1705と双方向に接続されている。
[0331] 本実施形態は、基本的に第 2の実施形態と同様であり、異なる部分のみ説明する。
[0332] 図 73において、信号の流れを説明する。外部 IZF部 120を介してシャッターボタン を半押しにすることでプリ撮像モードに入る。
[0333] レンズ系 100,絞り 101,カラー CCD1700を介して撮影された信号は、増幅器 10 3, AZD変翻104を介してバッファ 105へ転送される。なお、本実施形態におい てカラー CCD1700は Bayer型原色フィルタを前面に配置した単板 CCDを想定する
[0334] バッファ 105内の信号は、 PreWB部 1701へ転送される。
[0335] PreWB部 1701では所定輝度レベルの信号を色信号ごとに積算することで、簡易 ホワイトバランス係数を算出する。そして上記係数を増幅器 103へ転送し、色信号ご とに異なるゲインを乗算させることでホワイトバランスを行わせる。
[0336] 次に、外部 I/F部 120を介してシャッターボタンを全押しにすることにより本撮影が 行われ、映像信号はプリ撮像と同様にバッファ 105へ転送される。
[0337] なお、 PreWB部 1701によって求められたホワイトバランス係数は制御部 119へ転 送される。バッファ 105内の信号は補間部 1702へ転送される。
[0338] 補間部 1702は、公知の線形補間などの手法を用いて、単板状態から三板状態の 信号を生成する。三板状態の信号は YZC分離部 1703へ転送され、数式 20に示さ れるように輝度信号 Yおよび色差信号 Cb, Crに分離される。輝度信号 Yおよび色差 信号 Cb, Crはバッファ 1704へ転送され保存される。
[0339] 第 2の実施形態と同様に抽出部 700,ノイズ推定部 701,ノイズ低減部 111により輝 度信号 Yはノイズ低減処理がなされて輝度信号 Y'となる。輝度信号 Y'と色差信号 Cb , Crはバッファ 112へ転送され保存される。 [0340] エッジ方向検出部 702は、ノイズ推定部 701からの注目画素および類似画素の情 報に基づき、注目画素 P' に対するエッジ方向 D を検出する。上記エッジ方向は、
22 22
ノッファ 703へ転送される。ノッファ 112にはノイズ低減処理後の全信号力 バッファ 703にはエッジ方向が記録されることになる。
[0341] エッジ抽出部 114は、ノ ッファ 1704からノイズ低減処理前の輝度信号 Yを読み込 み、注目画素 P およびその周囲 8画素を抽出する。その後、バッファ 703からのエツ
22
ジ方向に基づき、注目画素 P' およびその周囲 8画素のエッジ成分を抽出し、エッジ
22
補正部 115へ転送する。
[0342] エッジ補正部 115は、制御部 119の制御に基づき、注目画素 P' のエッジ成分 E
22 22 に関して、バッファ 703からのエッジ方向 D およびエッジ抽出部 114からの周囲 8画
22
素のエッジ成分に基づきこれを補正したエッジ成分 E' を求め、エッジ強調部 116へ
22
転送する。
[0343] エッジ強調部 116は、制御部 119の制御に基づきバッファ 112からノイズ低減処理 後の輝度信号 Y'を読み込み、注目画素 P'
22を順次抽出する。その後、エッジ補正部
115からのエッジ成分 E' に基づき、エッジ強調処理後の画素値 P〃 を求め、エッジ
22 22
強調処理後の輝度信号 Y〃として YZC合成部 1705へ転送する。また、エッジ強調 部 116はバッファ 112から色差信号 Cb, Crを読み込み、これを YZC合成部 1705 へ転送する。
[0344] YZC合成部 1705は、制御部 119の制御に基づきエッジ強調部 116からのエッジ 強調処理後の輝度信号 Y"と色差信号 Cb, Cr力も数式 21に示されるように R, G, B 信号を合成する。 R, G, B信号は信号処理部 117へ転送される。
[0345] 信号処理部 117は、制御部 119の制御に基づきエッジ強調処理後の信号に対して 公知の圧縮処理や色強調処理などを行い、出力部 118へ転送する。出力部 118は 、メモリーカードなどへ信号を記録保存する。
[0346] 上記構成により、カラー撮像素子力 の信号を輝度信号と色信号に分離し、ノイズ 低減処理の過程で得られた輝度信号力 エッジの概略的な方向を検出し、この方向 に基づき原信号からエッジ成分を抽出することで、ノイズの影響を抑制しかつ微細な 信号を保存した高品位なエッジ成分が得られる。 [0347] ノイズ低減処理の過程で得られた情報力 エッジの方向を検出するために、システ ムの規模を縮小することができ低コストィ匕を図ることが可能となる。また、検出されたェ ッジ方向に基づきエッジ成分を補正するために、高品位なエッジ成分を生成すること ができる。
[0348] さらに、ノイズ低減処理では注目画素力 概略的な第 1のノイズ量を推定し、第 1の ノイズ量力 類似画素を抽出し、注目画素および類似画素力 より精度の高い第 2の ノイズ量を推定し、第 2のノイズ量に基づきノイズ低減処理を行うために、ノイズ低減 処理の精度を向上することができ、高品位な信号が得られる。ノイズ推定は、ノイズ量 に関係する各種情報を撮影ごとに動的に求め、求められない情報に関しては標準値 を設定するために、高精度かつ安定したノイズ低減効果が得られる。
[0349] また、カラー撮像素子力もの信号に対応することができ、補間処理を行った後に輝 度信号と色信号に分離するために、現状の撮影部および信号処理系との親和性が 高ぐ多くの撮像システムへの適用が可能となる。
[0350] なお、上記実施形態では撮像部と一体化した構成になって!/ヽたが、このような構成 に限定される必要はない。第 1の実施形態と同様に、撮像部と分離した構成も可能で ある。
[0351] さらに、上記第 6の実施形態ではハードウェアによる処理を前提としていた力 この ような構成に限定される必要はない。第 2の実施形態と同様に、ソフトウェアによって 処理する構成も可能である。
[0352] なお、本発明は上述した実施形態そのままに限定されるものではなぐ実施段階で はその要旨を逸脱しない範囲で構成要素を変形して具体ィ匕することができる。また、 上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々 の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つか の構成要素を削除しても良い。さら〖こ、異なる実施形態にわたる構成要素を適宜組 み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変 形や応用が可能であることは勿論である。
[0353] 本出願は、 2005年 12月 28曰に曰本国に出願された特願 2005— 380346号を優 先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求 の範囲、図面に引用されたものとする。

Claims

請求の範囲
[1] 撮像素子力もの信号を処理する撮像システムにお 、て、
上記撮像素子からの信号に対してノイズ低減処理を行うノイズ処理手段と、 上記ノイズ低減処理がなされた信号力 エッジ方向を検出するエッジ方向検出手 段と、
上記エッジ方向に基づき上記撮像素子力 の信号に対してエッジ成分を抽出する エッジ抽出手段とを有することを特徴とする撮像システム。
[2] 撮像素子力もの信号を処理する撮像システムにお 、て、
上記撮像素子からの信号に対してノイズ低減処理を行うノイズ処理手段と、 上記ノイズ処理手段力 の情報に基づきエッジ方向を検出するエッジ方向検出手 段と、
上記エッジ方向に基づき上記撮像素子力 の信号に対してエッジ成分を抽出する エッジ抽出手段とを有することを特徴とする撮像システム。
[3] カラー撮像素子力もの信号を処理する撮像システムにお 、て、
上記カラー撮像素子力 の信号に対して輝度信号および色信号を分離する YZC 分離手段と、
上記 YZC分離手段により分離された輝度信号に対してノイズ低減処理を行うノィ ズ処理手段と、
上記ノイズ低減処理がなされた輝度信号カゝらエッジ方向を検出するエッジ方向検 出手段と、
上記エッジ方向に基づき上記 YZC分離手段により分離された輝度信号に対して エッジ成分を抽出するエッジ抽出手段とを有することを特徴とする撮像システム。
[4] カラー撮像素子力もの信号を処理する撮像システムにお 、て、
上記カラー撮像素子力 の信号に対して輝度信号および色信号を分離する YZC 分離手段と、
上記 YZC分離手段により分離された輝度信号に対してノイズ低減処理を行うノィ ズ処理手段と、
上記ノイズ処理手段力 の情報に基づきエッジ方向を検出するエッジ方向検出手 段と、
上記エッジ方向に基づき上記 YZC分離手段により分離された輝度信号に対して エッジ成分を抽出するエッジ抽出手段とを有することを特徴とする撮像システム。
[5] 上記抽出されたエッジ成分に基づき、ノイズ低減処理がなされた信号に対してエツ ジ強調を行うエッジ強調手段を更に有することを特徴とする請求項 1または 2に記載 の撮像システム。
[6] 上記抽出されたエッジ成分に基づき、ノイズ低減処理がなされた輝度信号に対して エッジ強調を行うエッジ強調手段を更に有することを特徴とする請求項 3または請求 項 4に記載の撮像システム。
[7] 上記エッジ強調手段は、
上記検出されたエッジ方向に基づき上記エッジ成分を補正する補正手段を有する ことを特徴とする請求項 5または請求項 6に記載の撮像システム。
[8] 上記ノイズ処理手段は、
上記撮像素子からの信号からノイズ低減処理を行う注目画素を含む所定サイズの 注目領域を抽出する領域抽出手段と、
上記注目領域からノイズ量を推定するノイズ推定手段と、
上記ノイズ量に基づき上記注目画素に平滑化を行うノイズ低減手段とを有すること を特徴とする請求項 1または請求項 2に記載の撮像システム。
[9] 上記ノイズ処理手段は、
上記 YZC分離手段により分離された輝度信号からノイズ低減処理を行う注目画素 を含む所定サイズの注目領域を抽出する領域抽出手段と、
上記注目領域からノイズ量を推定するノイズ推定手段と、
上記ノイズ量に基づき上記注目画素に平滑化を行うノイズ低減手段とを有すること を特徴とする請求項 3または請求項 4に記載の撮像システム。
[10] 上記ノイズ処理手段は、
上記撮像素子からの信号からノイズ低減処理を行う注目画素を抽出する画素抽出 手段と、
上記注目画素から第 1のノイズ量を推定する第 1のノイズ推定手段と、 上記注目画素および上記第 1のノイズ量に基づき上記注目画素近傍から上記注目 画素と類似する類似画素を抽出する類似画素抽出手段と、
上記注目画素および上記類似画素から第 2のノイズ量を推定する第 2のノイズ推定 手段と、
上記第 2のノイズ量に基づき上記注目画素に平滑化を行うノイズ低減手段とを有す ることを特徴とする請求項 1または請求項 2に記載の撮像システム。
[11] 上記ノイズ処理手段は、
上記 YZC分離手段により分離された輝度信号からノイズ低減処理を行う注目画素 を抽出する画素抽出手段と、
上記注目画素から第 1のノイズ量を推定する第 1のノイズ推定手段と、
上記注目画素および上記第 1のノイズ量に基づき上記注目画素近傍から上記注目 画素と類似する類似画素を抽出する類似画素抽出手段と、
上記注目画素および上記類似画素から第 2のノイズ量を推定する第 2のノイズ推定 手段と、
上記第 2のノイズ量に基づき上記注目画素に平滑化を行うノイズ低減手段とを有す ることを特徴とする請求項 3または請求項 4に記載の撮像システム。
[12] 上記ノイズ処理手段は、
上記撮像素子力 の信号力 所定サイズのブロック領域を抽出するブロック抽出手 段と、
上記ブロック領域を周波数空間に変換する変換手段と、
上記周波数空間における 0次成分に基づき 0次成分以外の周波数成分に関するノ ィズ量を推定するノイズ推定手段と、
上記ノイズ量に基づき上記 0次成分以外の周波数成分に平滑ィヒを行うノイズ低減 手段と、
上記 0次成分および上記ノイズ低減手段で処理された 0次成分以外の周波数成分 を実空間へ変換する逆変換手段とを有することを特徴とする請求項 1または請求項 2 に記載の撮像システム。
[13] 上記ノイズ処理手段は、 上記 YZC分離手段により分離された輝度信号カゝら所定サイズのブロック領域を抽 出するブロック抽出手段と、
上記ブロック領域を周波数空間に変換する変換手段と、
上記周波数空間における 0次成分に基づき 0次成分以外の周波数成分に関するノ ィズ量を推定するノイズ推定手段と、
上記ノイズ量に基づき上記 0次成分以外の周波数成分に平滑ィヒを行うノイズ低減 手段と、
上記 0次成分および上記ノイズ低減手段で処理された 0次成分以外の周波数成分 を実空間へ変換する逆変換手段とを有することを特徴とする請求項 3または請求項 4 に記載の撮像システム。
[14] 上記ノイズ推定手段は、
上記撮像素子の温度値および上記撮像素子からの信号に対するゲインに関する 情報を収集する収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記注目領域から平均値を算出する平均算出手段と、
上記収集手段または上記付与手段からの情報および上記平均値に基づきノイズ量 を求めるノイズ量算出手段とを有することを特徴とする請求項 8に記載の撮像システ ム。
[15] 上記ノイズ推定手段は、
上記カラー撮像素子の温度値および上記輝度信号に対するゲインに関する情報を 収集する収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記注目領域から平均値を算出する平均算出手段と、
上記収集手段または上記付与手段からの情報および上記平均値に基づきノイズ量 を求めるノイズ量算出手段とを有することを特徴とする請求項 9に記載の撮像システ ム。
[16] 上記第 1のノイズ推定手段は、
上記撮像素子の温度値および上記撮像素子からの信号に対するゲインに関する 情報を収集する収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記収集手段または上記付与手段からの情報および上記注目画素に基づき第 1 のノイズ量を求めるノイズ量算出手段とを有することを特徴とする請求項 10に記載の 撮像システム。
[17] 上記第 2のノイズ推定手段は、
上記撮像素子の温度値および上記撮像素子からの信号に対するゲインに関する 情報を収集する収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記注目画素および上記類似画素から平均値を算出する平均算出手段と、 上記収集手段または上記付与手段力 の情報および上記平均値に基づき第 2のノ ィズ量を求めるノイズ量算出手段とを有することを特徴とする請求項 10に記載の撮像 システム。
[18] 上記第 1のノイズ推定手段は、
上記カラー撮像素子の温度値および上記輝度信号に対するゲインに関する情報を 収集する収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記収集手段または上記付与手段からの情報および上記注目画素に基づき第 1 のノイズ量を求めるノイズ量算出手段とを有することを特徴とする請求項 11に記載の 撮像システム。
[19] 上記第 2のノイズ推定手段は、
上記カラー撮像素子の温度値および上記輝度信号に対するゲインに関する情報を 収集する収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記注目画素および上記類似画素から平均値を算出する平均算出手段と、 上記収集手段または上記付与手段力 の情報および上記平均値に基づき第 2のノ ィズ量を求めるノイズ量算出手段とを有することを特徴とする請求項 11に記載の撮像 システム。
[20] 上記ノイズ推定手段は、
上記撮像素子の温度値および上記撮像素子からの信号に対するゲインに関する 情報を収集する収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記収集手段または上記付与手段からの情報および上記 0次成分に基づきノイズ 量を求めるノイズ量算出手段とを有することを特徴とする請求項 12に記載の撮像シ ステム。
[21] 上記ノイズ推定手段は、
上記カラー撮像素子の温度値および上記輝度信号に対するゲインに関する情報を 収集する収集手段と、
上記収集手段で得られない情報に関して標準値を付与する付与手段と、 上記収集手段または上記付与手段からの情報および上記 0次成分に基づきノイズ 量を求めるノイズ量算出手段とを有することを特徴とする請求項 13に記載の撮像シ ステム。
[22] 上記エッジ方向検出手段は、
上記ノイズ低減処理された信号力 複数の所定方向に関するエッジ強度を算出す るエッジ強度算出手段と、
上記エッジ強度を所定の閾値と比較することで選択するエッジ強度選択手段と、 上記選択されたエッジ強度に基づきエッジ方向を決定するエッジ方向決定手段と を有することを特徴とする請求項 1に記載の撮像システム。
[23] 上記エッジ方向検出手段は、
上記ノイズ低減処理された輝度信号力 複数の所定方向に関するエッジ強度を算 出するエッジ強度算出手段と、
上記エッジ強度を所定の閾値と比較することで選択するエッジ強度選択手段と、 上記選択されたエッジ強度に基づきエッジ方向を決定するエッジ方向決定手段と を有することを特徴とする請求項 3に記載の撮像システム。
[24] 上記エッジ強度選択手段は、
上記ノイズ処理手段からのノイズ量に基づき上記閾値を設定する閾値設定手段を 有することを特徴とする請求項 22または請求項 23に記載の撮像システム。
[25] 上記エッジ方向検出手段は、
上記ノイズ低減処理された信号力 複数の所定方向に関するエッジ強度を算出す るエッジ強度算出手段と、
上記エッジ強度から所定の微小変動を除去するための除去手段と、
上記微小変動が除去されたエッジ強度に基づきエッジ方向を決定するエッジ方向 決定手段とを有することを特徴とする請求項 1に記載の撮像システム。
[26] 上記エッジ方向検出手段は、
上記ノイズ低減処理された輝度信号力 複数の所定方向に関するエッジ強度を算 出するエッジ強度算出手段と、
上記エッジ強度から所定の微小変動を除去するための除去手段と、
上記微小変動が除去されたエッジ強度に基づきエッジ方向を決定するエッジ方向 決定手段とを有することを特徴とする請求項 3に記載の撮像システム。
[27] 上記エッジ方向検出手段は、
上記ノイズ低減処理された信号力 水平および垂直方向に関するエッジ強度を算 出するエッジ強度算出手段と、
上記エッジ強度に基づきエッジ方向を決定するエッジ方向決定手段とを有すること を特徴とする請求項 1に記載の撮像システム。
[28] 上記エッジ方向検出手段は、
上記ノイズ低減処理された輝度信号から水平および垂直方向に関するエッジ強度 を算出するエッジ強度算出手段と、
上記エッジ強度に基づきエッジ方向を決定するエッジ方向決定手段とを有すること を特徴とする請求項 3に記載の撮像システム。
[29] 上記ノイズ処理手段は、
上記撮像素子からの信号からノイズ低減処理を行う注目画素を含む所定サイズの 注目領域を抽出する領域抽出手段と、
上記注目領域からノイズ量を推定するノイズ推定手段と、
上記ノイズ量に基づき上記注目画素に平滑ィ匕を行うノイズ低減手段とを有し、 上記エッジ方向検出手段は、
上記ノイズ推定手段にお!、てノイズ量の推定時に用いた画素情報に基づき、エツ ジ方向を決定するエッジ方向決定手段を有することを特徴とする請求項 2に記載の 撮像システム。
[30] 上記ノイズ処理手段は、
上記 YZC分離手段により分離された輝度信号からノイズ低減処理を行う注目画素 を含む所定サイズの注目領域を抽出する領域抽出手段と、
上記注目領域からノイズ量を推定するノイズ推定手段と、
上記ノイズ量に基づき上記注目画素に平滑ィ匕を行うノイズ低減手段とを有し、 上記エッジ方向検出手段は、
上記ノイズ推定手段にお!、てノイズ量の推定時に用いた画素情報に基づき、エツ ジ方向を決定するエッジ方向決定手段を有することを特徴とする請求項 4に記載の 撮像システム。
[31] 上記ノイズ処理手段は、
上記撮像素子力 の信号力 所定サイズのブロック領域を抽出するブロック抽出手 段と、
上記ブロック領域を周波数空間に変換する変換手段と、
上記周波数空間における 0次成分に基づき 0次成分以外の周波数成分に関するノ ィズ量を推定するノイズ推定手段と、
上記ノイズ量に基づき上記 0次成分以外の周波数成分に平滑ィヒを行うノイズ低減 手段と、
上記 0次成分および上記ノイズ低減手段で処理された 0次成分以外の周波数成分 を実空間へ変換する逆変換手段とを有し、
上記エッジ方向検出手段は、
上記ノイズ処理手段にお!、てノイズ量の推定時に用いた周波数情報に基づき、ェ ッジ方向を決定するエッジ方向決定手段を有することを特徴とする請求項 2に記載の 撮像システム。
[32] 上記ノイズ処理手段は、 上記 YZC分離手段により分離された輝度信号カゝら所定サイズのブロック領域を抽 出するブロック抽出手段と、
上記ブロック領域を周波数空間に変換する変換手段と、
上記周波数空間における 0次成分に基づき 0次成分以外の周波数成分に関するノ ィズ量を推定するノイズ推定手段と、
上記ノイズ量に基づき上記 0次成分以外の周波数成分に平滑ィヒを行うノイズ低減 手段と、
上記 0次成分および上記ノイズ低減手段で処理された 0次成分以外の周波数成分 を実空間へ変換する逆変換手段とを有し、
上記エッジ方向検出手段は、
上記ノイズ処理手段にお!、てノイズ量の推定時に用いた周波数情報に基づき、ェ ッジ方向を決定するエッジ方向決定手段を有することを特徴とする請求項 4に記載の 撮像システム。
[33] 上記エッジ方向決定手段は、
特定のエッジ方向が決定できな力つた場合に、上記エッジ抽出手段の処理を停止 させる停止信号を発生させる、停止信号発生手段を有することを特徴とする請求項 2 2、請求項 23、請求項 25、請求項 26、請求項 27、請求項 28、請求項 29、請求項 3 0、請求項 31、請求項 32の何れか一に記載の撮像システム。
[34] 上記エッジ方向決定手段は、
複数のエッジ方向が検出された場合に、上記エッジ抽出手段に等方的なエッジ抽 出処理を行わせる制御信号を発生させる、等方処理信号発生手段を有することを特 徴とする請求項請求項 22、請求項 23、請求項 25、請求項 26、請求項 27、請求項 2 8、請求項 29、請求項 30、請求項 31、請求項 32の何れか一に記載の撮像システム
[35] 上記カラー撮像素子は、
R (赤), G (緑) , B (青) Bayer型原色フィルタを前面に配置した単板撮像素子、ま たは Cy (シアン) , Mg (マゼンタ) , Ye (イェロー), G (緑)色差線順次型補色フィルタ を前面に配置した単板撮像素子であることを特徴とする請求項 3または請求項 4に記 載の撮像システム。
[36] 上記 YZC分離手段は、
輝度信号および色信号を分離する前に上記カラー撮像素子の信号を補間処理す る補間手段を更に有することを特徴とする請求項 3または請求項 4に記載の撮像シス テム。
[37] 上記 YZC分離手段は、
輝度信号および色信号を分離した後に上記輝度信号および色信号を補間処理す る補間手段を更に有することを特徴とする請求項 3または請求項 4に記載の撮像シス テム。
[38] コンピュータに、撮像素子からの信号を処理する手順を実行させるための画像処理 プログラムであって、
上記撮像素子からの信号に対してノイズ低減処理を行うノイズ処理手順と、 上記ノイズ低減処理がなされた信号力 エッジ方向を検出するエッジ方向検出手 順と、
上記エッジ方向に基づき上記撮像素子力 の信号に対してエッジ成分を抽出する 手順と、を実行させるための画像処理プログラム。
[39] コンピュータに、撮像素子からの信号を処理する手順を実行させるための画像処理 プログラムであって、
上記撮像素子からの信号に対してノイズ低減処理を行うノイズ処理手順と、 上記ノイズ処理手順力 の情報に基づきエッジ方向を検出するエッジ方向検出手 順と、
上記検出されたエッジ方向に基づき上記撮像素子力 の信号に対してエッジ成分 を抽出する手順と、
を実行させるための画像処理プログラム。
[40] コンピュータに、カラー撮像素子からの信号を処理する手順を実行させるための画 像処理プログラムであって、
上記カラー撮像素子からの信号に対して輝度信号および色信号を分離する YZC 分離手順と、 上記 YZC分離手順により分離された輝度信号に対してノイズ低減処理を行うノィ ズ処理手順と、
上記ノイズ低減処理がなされた輝度信号カゝらエッジ方向を検出するエッジ方向検 出手順と、
上記検出されたエッジ方向に基づき上記 YZC分離手順により分離された輝度信 号に対してエッジ成分を抽出する手順と、
を実行させるための画像処理プログラム。
[41] コンピュータに、カラー撮像素子からの信号を処理する手順を実行させるための画 像処理プログラムであって、
上記カラー撮像素子からの信号に対して輝度信号および色信号を分離する YZC 分離手順と、
上記 YZC分離手順により分離された輝度信号に対してノイズ低減処理を行うノィ ズ処理手順と、
上記ノイズ処理手順力 の情報に基づきエッジ方向を検出するエッジ方向検出手 順と、
上記検出されたエッジ方向に基づき上記 YZC分離手順により分離された輝度信 号に対してエッジ成分を抽出する手順と、
を実行させるための画像処理プログラム。
[42] 上記抽出されたエッジ成分に基づき、ノイズ低減処理がなされた信号に対してエツ ジ強調を行う手順を更に有することを特徴とする請求項 38または請求項 39に記載の 画像処理プログラム。
[43] 上記抽出されたエッジ成分に基づき、ノイズ低減処理がなされた輝度信号に対して エッジ強調を行う手順を更に有することを特徴とする請求項 40または請求項 41に記 載の画像処理プログラム。
[44] 上記エッジ強調を行う手順は、
上記検出されたエッジ方向に基づき、上記エッジ成分を補正する手順を有し、該ェ ッジ成分を補正する手順によって補正されたエッジ成分を用いて上記エッジ強調を 行うことを特徴とする請求項 42または請求項 43に記載の画像処理プログラム。
[45] 上記エッジ方向検出手順は、
上記ノイズ低減処理された信号力 複数の所定方向に関するエッジ強度を算出す るエッジ強度算出手順と、
上記エッジ強度を所定の閾値と比較することで選択するエッジ強度選択手順と、 上記選択されたエッジ強度に基づきエッジ方向を決定するエッジ方向決定手順と、 を有することを特徴とする請求項 38に記載の画像処理プログラム。
[46] 上記エッジ方向検出手順は、
上記ノイズ低減処理された輝度信号力 複数の所定方向に関するエッジ強度を算 出するエッジ強度算出手順と、
上記エッジ強度を所定の閾値と比較することで選択するエッジ強度選択手順と、 上記選択されたエッジ強度に基づきエッジ方向を決定するエッジ方向決定手順と、 を有することを特徴とする請求項 40に記載の画像処理プログラム。
[47] 上記エッジ強度選択手順は、
上記ノイズ処理手順力ゝらのノイズ量に基づき上記閾値を設定する閾値設定手順を 有することを特徴とする請求項 45または請求項 46に記載の画像処理プログラム。
[48] 上記エッジ方向検出手順は、
上記ノイズ低減処理された信号力 複数の所定方向に関するエッジ強度を算出す るエッジ強度算出手順と、
上記エッジ強度から所定の微小変動を除去するための除去手順と、
上記微小変動が除去されたエッジ強度に基づきエッジ方向を決定するエッジ方向 決定手順と、
を有することを特徴とする請求項 38に記載の画像処理プログラム。
[49] 上記エッジ方向検出手順は、
上記ノイズ低減処理された輝度信号力 複数の所定方向に関するエッジ強度を算 出するエッジ強度算出手順と、
上記エッジ強度から所定の微小変動を除去するための除去手順と、
上記微小変動が除去されたエッジ強度に基づきエッジ方向を決定するエッジ方向 決定手順と、 を有することを特徴とする請求項 40に記載の画像処理プログラム。
[50] 上記エッジ方向検出手順は、
上記ノイズ低減処理された信号力 水平および垂直方向に関するエッジ強度を算 出するエッジ強度算出手順と、
上記エッジ強度に基づきエッジ方向を決定するエッジ方向決定手順と、 を有することを特徴とする請求項 38に記載の画像処理プログラム。
[51] 上記エッジ方向検出手順は、
上記ノイズ低減処理された輝度信号から水平および垂直方向に関するエッジ強度 を算出するエッジ強度算出手順と、
上記エッジ強度に基づきエッジ方向を決定するエッジ方向決定手順と、 を有することを特徴とする請求項 40に記載の画像処理プログラム。
[52] 上記ノイズ処理手順は、
上記撮像素子からの信号からノイズ低減処理を行う注目画素を含む所定サイズの 注目領域を抽出する領域抽出手順と、
上記注目領域カゝらノイズ量を推定するノイズ推定手順と、
上記ノイズ量に基づき上記注目画素に平滑ィ匕を行うノイズ低減手順とを有し、 上記エッジ方向検出手順は、
上記ノイズ推定手順にお!、てノイズ量の推定時に用いた画素情報に基づき、エツ ジ方向を決定するエッジ方向決定手順を有することを特徴とする請求項 39に記載の 画像処理プログラム。
[53] 上記ノイズ処理手順は、
上記 YZC分離手順により分離された輝度信号からノイズ低減処理を行う注目画素 を含む所定サイズの注目領域を抽出する領域抽出手順と、
上記注目領域カゝらノイズ量を推定するノイズ推定手順と、
上記ノイズ量に基づき上記注目画素に平滑ィ匕を行うノイズ低減手順とを有し、 上記エッジ方向検出手順は、
上記ノイズ推定手順にお!、てノイズ量の推定時に用いた画素情報に基づき、エツ ジ方向を決定するエッジ方向決定手順を有することを特徴とする請求項 41に記載の 画像処理プログラム。
[54] 上記ノイズ処理手順は、
上記撮像素子力 の信号力 所定サイズのブロック領域を抽出するブロック抽出手 順と、
上記ブロック領域を周波数空間に変換する変換手順と、
上記周波数空間における 0次成分に基づき 0次成分以外の周波数成分に関するノ ィズ量を推定するノイズ推定手順と、
上記ノイズ量に基づき上記 0次成分以外の周波数成分に平滑ィヒを行うノイズ低減 手順と、
上記 0次成分および上記ノイズ低減手順で処理された 0次成分以外の周波数成分 を実空間へ変換する逆変換手順とを有し、
上記エッジ方向検出手順は、
上記ノイズ処理手順にぉ 、てノイズ量の推定時に用いた周波数情報に基づき、ェ ッジ方向を決定するエッジ方向決定手順を有することを特徴とする請求項 39に記載 の画像処理プログラム。
[55] 上記ノイズ処理手順は、
上記 YZC分離手順により分離された輝度信号から所定サイズのブロック領域を抽 出するブロック抽出手順と、
上記ブロック領域を周波数空間に変換する変換手順と、
上記周波数空間における 0次成分に基づき 0次成分以外の周波数成分に関するノ ィズ量を推定するノイズ推定手順と、
上記ノイズ量に基づき上記 0次成分以外の周波数成分に平滑ィヒを行うノイズ低減 手順と、
上記 0次成分および上記ノイズ低減手順で処理された 0次成分以外の周波数成分 を実空間へ変換する逆変換手順とを有し、
上記エッジ方向検出手順は、
上記ノイズ処理手順にぉ 、てノイズ量の推定時に用いた周波数情報に基づき、ェ ッジ方向を決定するエッジ方向決定手順を有することを特徴とする請求項 41に記載 の画像処理プログラム。
[56] 上記エッジ方向決定手順は、
特定のエッジ方向が決定できな力つた場合に上記エッジ成分を抽出する手順の処 理を停止させる停止信号を発生させる停止信号発生手順を有することを特徴とする 請求項 45、請求項 46、請求項 48、請求項 49、請求項 50、請求項 51、請求項 52、 請求項 53、請求項 54、請求項 55の何れか一に記載の画像処理プログラム。
[57] 上記エッジ方向決定手順は、
複数のエッジ方向が検出された場合に上記エッジ成分を抽出する手順に等方的な エッジ抽出処理を行わせる制御信号を発生させる等方処理信号発生手順を有する ことを特徴とする請求項 45、請求項 46、請求項 48、請求項 49、請求項 50、請求項 5 1、請求項 52、請求項 53、請求項 54、請求項 55の何れか一に記載の画像処理プロ グラム。
PCT/JP2006/325276 2005-12-28 2006-12-19 撮像システム、画像処理プログラム WO2007077730A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007552898A JP4979595B2 (ja) 2005-12-28 2006-12-19 撮像システム、画像処理方法、画像処理プログラム
EP06842880A EP1976268A1 (en) 2005-12-28 2006-12-19 Imaging system and image processing program
US12/146,786 US8310566B2 (en) 2005-12-28 2008-06-26 Image pickup system and image processing method with an edge extraction section

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005380346 2005-12-28
JP2005-380346 2005-12-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/146,786 Continuation US8310566B2 (en) 2005-12-28 2008-06-26 Image pickup system and image processing method with an edge extraction section

Publications (1)

Publication Number Publication Date
WO2007077730A1 true WO2007077730A1 (ja) 2007-07-12

Family

ID=38228086

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/325276 WO2007077730A1 (ja) 2005-12-28 2006-12-19 撮像システム、画像処理プログラム

Country Status (4)

Country Link
US (1) US8310566B2 (ja)
EP (1) EP1976268A1 (ja)
JP (1) JP4979595B2 (ja)
WO (1) WO2007077730A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145890A (ja) * 2010-01-14 2011-07-28 Kyocera Mita Corp 画像処理装置および画像処理方法
JP2013171302A (ja) * 2012-02-17 2013-09-02 Olympus Corp エッジ方向判別装置、エッジ方向判別方法及びエッジ方向判別プログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4547223B2 (ja) * 2004-09-28 2010-09-22 オリンパス株式会社 撮像システム、ノイズ低減処理装置及び撮像処理プログラム
JP5165300B2 (ja) * 2007-07-23 2013-03-21 オリンパス株式会社 映像処理装置および映像処理プログラム
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
FR2954986B1 (fr) * 2010-01-05 2012-02-10 St Microelectronics Grenoble 2 Procede de detection d'orientation de contours.
US8655069B2 (en) * 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
KR101146171B1 (ko) * 2010-11-19 2012-05-24 에스케이하이닉스 주식회사 영상 처리 장치 및 시스템
US20130100334A1 (en) * 2011-10-20 2013-04-25 Broadcom Corporation Method and System for an Adaptive Auto-Focus Algorithm
JP6071419B2 (ja) * 2012-10-25 2017-02-01 キヤノン株式会社 画像処理装置及び画像処理方法
JP6542194B2 (ja) * 2013-03-15 2019-07-10 デピュイ・シンセス・プロダクツ・インコーポレイテッド ノイズ認識のエッジ強調
JP6344934B2 (ja) * 2014-03-04 2018-06-20 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理プログラムおよび記録媒体
JP6001010B2 (ja) * 2014-06-11 2016-10-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN107852453B (zh) 2015-07-10 2020-06-23 深圳市大疆创新科技有限公司 具有分光器的双镜头***
WO2019049595A1 (ja) * 2017-09-08 2019-03-14 ソニー株式会社 画像処理装置、画像処理方法および画像処理プログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0686098A (ja) * 1992-08-31 1994-03-25 Matsushita Electric Ind Co Ltd 輪郭補正装置
JPH07135584A (ja) * 1993-11-12 1995-05-23 Matsushita Electric Ind Co Ltd 映像信号処理装置
JPH08163408A (ja) * 1994-12-02 1996-06-21 Sony Corp ノイズ検出回路、ノイズ除去回路及び輪郭強調回路
JPH11261848A (ja) * 1998-03-12 1999-09-24 Victor Co Of Japan Ltd 輪郭補正装置
JP2000348018A (ja) * 1999-06-07 2000-12-15 Sony Corp データ処理装置およびデータ処理方法、媒体、並びにノイズ除去装置およびノイズ除去方法
JP2001128031A (ja) * 1999-10-30 2001-05-11 Fujitsu General Ltd 輪郭強調方法及び回路
JP2003230052A (ja) * 2002-02-01 2003-08-15 Nikon Corp 電子カメラ、画像処理プログラムおよび画像処理方法
JP2003242504A (ja) * 2002-02-13 2003-08-29 Fuji Photo Film Co Ltd 画像処理装置
JP2003274181A (ja) * 2002-03-15 2003-09-26 Fuji Photo Film Co Ltd ノイズ低減装置
JP2004128985A (ja) * 2002-10-03 2004-04-22 Olympus Corp 撮像システム、再生システム、撮像プログラム、再生プログラム
JP2005130297A (ja) * 2003-10-24 2005-05-19 Olympus Corp 信号処理システム、信号処理方法、信号処理プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690724A (ja) 1992-09-16 1994-04-05 Kanebo Ltd 新規風味を有する嗜好飲料
JP3289435B2 (ja) 1993-10-18 2002-06-04 ソニー株式会社 輝度信号強調処理装置
US5845008A (en) * 1994-01-20 1998-12-01 Omron Corporation Image processing device and method for identifying an input image, and copier scanner and printer including same
JP4244094B2 (ja) 1999-02-17 2009-03-25 富士フイルム株式会社 画像処理方法および装置並びに記録媒体
JP4112762B2 (ja) * 1999-10-05 2008-07-02 株式会社東芝 画像処理装置およびx線診断装置
JP2002247371A (ja) * 2001-02-21 2002-08-30 Ricoh Co Ltd 画像処理装置および画像処理プログラムを記録した記録媒体
JP4051196B2 (ja) * 2001-11-08 2008-02-20 オリンパス株式会社 ノイズリダクションシステム、ノイズリダクション方法、ノイズリダクションプログラム、及び電子カメラ
US6904169B2 (en) * 2001-11-13 2005-06-07 Nokia Corporation Method and system for improving color images
US7535503B2 (en) 2002-02-01 2009-05-19 Nikon Corporation Image processing apparatus, image processing program, and image processing method for performing edge enhancement processing
JP2004318423A (ja) * 2003-04-15 2004-11-11 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像処理プログラム
EP1641283B1 (en) * 2003-06-12 2019-01-09 Nikon Corporation Image processing method, image processing program, image processor
US7574528B2 (en) * 2003-08-27 2009-08-11 Cisco Technology, Inc. Methods and apparatus for accessing presence information
US7254261B2 (en) * 2003-12-09 2007-08-07 General Electric Co. Signal-adaptive noise reduction in digital radiographic images
EP1729523B1 (en) * 2004-02-19 2014-04-09 Mitsubishi Denki Kabushiki Kaisha Image processing method
JP2006023959A (ja) * 2004-07-07 2006-01-26 Olympus Corp 信号処理システム及び信号処理プログラム
US7388621B2 (en) * 2004-11-30 2008-06-17 Mediatek Inc. Systems and methods for image processing providing noise reduction and edge enhancement
JPWO2007049418A1 (ja) * 2005-10-26 2009-04-30 オリンパス株式会社 画像処理システム、画像処理プログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0686098A (ja) * 1992-08-31 1994-03-25 Matsushita Electric Ind Co Ltd 輪郭補正装置
JPH07135584A (ja) * 1993-11-12 1995-05-23 Matsushita Electric Ind Co Ltd 映像信号処理装置
JPH08163408A (ja) * 1994-12-02 1996-06-21 Sony Corp ノイズ検出回路、ノイズ除去回路及び輪郭強調回路
JPH11261848A (ja) * 1998-03-12 1999-09-24 Victor Co Of Japan Ltd 輪郭補正装置
JP2000348018A (ja) * 1999-06-07 2000-12-15 Sony Corp データ処理装置およびデータ処理方法、媒体、並びにノイズ除去装置およびノイズ除去方法
JP2001128031A (ja) * 1999-10-30 2001-05-11 Fujitsu General Ltd 輪郭強調方法及び回路
JP2003230052A (ja) * 2002-02-01 2003-08-15 Nikon Corp 電子カメラ、画像処理プログラムおよび画像処理方法
JP2003242504A (ja) * 2002-02-13 2003-08-29 Fuji Photo Film Co Ltd 画像処理装置
JP2003274181A (ja) * 2002-03-15 2003-09-26 Fuji Photo Film Co Ltd ノイズ低減装置
JP2004128985A (ja) * 2002-10-03 2004-04-22 Olympus Corp 撮像システム、再生システム、撮像プログラム、再生プログラム
JP2005130297A (ja) * 2003-10-24 2005-05-19 Olympus Corp 信号処理システム、信号処理方法、信号処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145890A (ja) * 2010-01-14 2011-07-28 Kyocera Mita Corp 画像処理装置および画像処理方法
JP2013171302A (ja) * 2012-02-17 2013-09-02 Olympus Corp エッジ方向判別装置、エッジ方向判別方法及びエッジ方向判別プログラム

Also Published As

Publication number Publication date
US8310566B2 (en) 2012-11-13
EP1976268A1 (en) 2008-10-01
JP4979595B2 (ja) 2012-07-18
US20080266432A1 (en) 2008-10-30
JPWO2007077730A1 (ja) 2009-06-11

Similar Documents

Publication Publication Date Title
WO2007077730A1 (ja) 撮像システム、画像処理プログラム
JP3893099B2 (ja) 撮像システムおよび撮像プログラム
JP3762725B2 (ja) 撮像システムおよび画像処理プログラム
JP4837503B2 (ja) 画像処理システム、画像処理プログラム
JP4547223B2 (ja) 撮像システム、ノイズ低減処理装置及び撮像処理プログラム
US8290263B2 (en) Image processing apparatus
JP4465002B2 (ja) ノイズ低減システム、ノイズ低減プログラム及び撮像システム。
US20100066868A1 (en) Image processing apparatus and method of processing image
JP5123756B2 (ja) 撮像システム、画像処理方法および画像処理プログラム
JPWO2007049418A1 (ja) 画像処理システム、画像処理プログラム
WO2008056565A1 (fr) Système d'analyse d'image et programme de traitement d'image
US8223226B2 (en) Image processing apparatus and storage medium storing image processing program
WO2007058126A1 (ja) 画像処理システム、画像処理プログラム
US20100245632A1 (en) Noise reduction method for video signal and image pickup apparatus
JP2007110338A (ja) 画像処理システム、画像処理プログラム
JP5052189B2 (ja) 映像処理装置及び映像処理プログラム
JP2006023959A (ja) 信号処理システム及び信号処理プログラム
WO2005099356A2 (ja) 撮像装置
JP2007329619A (ja) 映像信号処理装置と映像信号処理方法、および映像信号処理プログラム。
JP2005303802A (ja) 撮像装置および画像処理プログラム
US8463034B2 (en) Image processing system and computer-readable recording medium for recording image processing program
JP2008219198A (ja) 画像処理装置及び画像処理プログラム
JP4074323B2 (ja) 再生システムおよび再生プログラム
JP2010021651A (ja) 環境光推定装置、デジタルカメラ及び環境光推定プログラム
JP5586031B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2007552898

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006842880

Country of ref document: EP