WO2009104315A1 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
WO2009104315A1
WO2009104315A1 PCT/JP2008/071047 JP2008071047W WO2009104315A1 WO 2009104315 A1 WO2009104315 A1 WO 2009104315A1 JP 2008071047 W JP2008071047 W JP 2008071047W WO 2009104315 A1 WO2009104315 A1 WO 2009104315A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
frequency
image processing
region
value
Prior art date
Application number
PCT/JP2008/071047
Other languages
English (en)
French (fr)
Inventor
誠 北村
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2009104315A1 publication Critical patent/WO2009104315A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/42Analysis of texture based on statistical description of texture using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20052Discrete cosine transform [DCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and an image processing program for performing processing for determining the type of an area captured in an image portion of a predetermined range of each image.
  • the method for determining the area of an image based on the feature amount of a set of pixels in a predetermined range has a larger amount of information than the method for determining the area based on a feature amount in units of pixels. Improvement can be expected.
  • a representative feature amount of a set of pixels is a texture feature amount.
  • a texture is a repeated pixel value pattern.
  • an image processing apparatus performs numerical processing by two-dimensional Fourier transform, a co-occurrence matrix, or the like in order to handle a texture feature amount (see, for example, Non-Patent Document 1).
  • the conventional image processing apparatus has a problem that it cannot perform the region discrimination based on the feature amount of the texture at high speed because the calculation load for the calculation by the two-dimensional Fourier transform or the co-occurrence matrix is very large.
  • the present invention has been made in view of the above, and an object of the present invention is to provide an image processing apparatus that can quickly determine the type of an area captured in a processing target image.
  • an image processing apparatus provides a frequency representing a plurality of frequency components of an image portion of a predetermined range included in the target image.
  • An acquisition unit for acquiring information, and a power value indicating the intensity of one frequency component among a plurality of frequency components represented by the frequency information is calculated for each predetermined frequency band, and the frequency information is calculated based on the power value.
  • a feature amount generation unit that generates a feature amount indicating the feature of the associated image portion; and an area determination unit that determines a type of an area captured in the image portion based on the feature amount.
  • the power value indicating the intensity of one frequency component among the plurality of frequency components represented by the frequency information is calculated, and the feature amount of each image portion is generated based on the power value.
  • An image processing method includes an acquisition step of acquiring frequency information representing a plurality of frequency components of an image portion of a predetermined range included in a target image, and the frequency information represents A power value indicating the intensity of one frequency component among a plurality of frequency components is calculated for each predetermined frequency band, and a feature amount indicating a feature of an image portion associated with the frequency information based on the power value is calculated.
  • a feature amount generating step to be generated; and a determination step of determining a type of a region imaged in the image portion based on the feature amount.
  • An image processing program includes an acquisition step of acquiring frequency information representing a plurality of frequency components of an image portion of a predetermined range included in a target image, and the frequency information
  • a power value indicating the intensity of one frequency component among a plurality of frequency components to be expressed is calculated for each predetermined frequency band, and a feature amount indicating a feature of an image portion associated with the frequency information based on the power value
  • FIG. 1 is a block diagram illustrating a schematic configuration of the image processing apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating DCT coefficients of a pixel block.
  • FIG. 3 is a diagram illustrating the arrangement of AC components of DCT coefficients.
  • FIG. 4 is a diagram showing the frequency band to which the AC component belongs and the power value of each frequency band.
  • FIG. 5 is a flowchart showing an image processing procedure performed by the image processing apparatus shown in FIG.
  • FIG. 6 is a flowchart showing a procedure of DCT feature value generation processing performed by the DCT feature value generator shown in FIG.
  • FIG. 7 is a flowchart showing the procedure of the area determination process performed by the area determination unit shown in FIG. FIG.
  • FIG. 8 is a diagram showing the relationship between the frequency band to which the AC component belongs and the ratio of the AC component having a value of zero.
  • FIG. 9 is a flowchart illustrating a procedure of DCT feature value generation processing performed by the image processing apparatus according to the first modification.
  • FIG. 10 is a flowchart illustrating a procedure of DCT feature value generation processing performed by the image processing apparatus according to the second modification.
  • FIG. 11 is a diagram showing the relationship between the frequency band to which the AC component belongs and the average value of the absolute values of the AC component values in each frequency band.
  • FIG. 12 is a flowchart illustrating a procedure of DCT feature value generation processing performed by the image processing apparatus according to the third modification.
  • FIG. 9 is a flowchart illustrating a procedure of DCT feature value generation processing performed by the image processing apparatus according to the first modification.
  • FIG. 10 is a flowchart illustrating a procedure of DCT feature value generation processing performed by the image processing apparatus according to the second modification.
  • FIG. 11
  • FIG. 13 is a diagram showing the relationship between the frequency band to which the AC component belongs and the value obtained by weighting the average of the absolute values of the AC component values in each frequency band.
  • FIG. 14 is a block diagram illustrating a schematic configuration of the image processing apparatus according to the second embodiment of the present invention.
  • FIG. 15 is a flowchart showing the procedure of the area determination process performed by the area determination unit shown in FIG.
  • FIG. 16 is a diagram illustrating an example of teacher data.
  • an image processing apparatus that uses an in-vivo image captured by a capsule endoscope and compressed by DCT encoding as a processing target image
  • the image that can be processed by the image processing apparatus according to the present invention is not limited to the in-vivo image compressed by DCT encoding.
  • the present invention is not limited by the present embodiment.
  • the same or corresponding parts are denoted by the same reference numerals.
  • Capsule endoscopes are equipped with an imaging device and a data transmission device. After being swallowed by a subject and before being spontaneously discharged, the capsule endoscope is moved through tubular organs such as the stomach, small intestine, and large intestine by peristalsis of each organ. In-vivo images are captured at a predetermined imaging rate while moving, and image data of the captured in-vivo images are sequentially transmitted to a receiving device installed outside the body of the subject.
  • FIG. 1 is a block diagram illustrating a schematic configuration of the image processing apparatus 1 according to the first embodiment.
  • the image processing apparatus 1 includes an input unit 10 that inputs various types of information, a storage unit 20 that stores various types of information including in-vivo images, an output unit 30 that outputs various types of information, and a control unit that controls the operation of each unit of the image processing apparatus 1. 40.
  • the image processing apparatus 1 includes an image processing unit 50 that performs an area determination process for processing the in-vivo image and determining the type of the area captured in each image portion of the in-vivo image.
  • the input unit 10 is realized by a keyboard, a mouse, a data communication interface, and the like.
  • the input unit 10 receives input of various information directly from an observer, and stores in-vivo image information from portable storage media such as various memory cards, CDs, and DVDs. Accept input.
  • the storage unit 20 is realized by a hard disk, a ROM, a RAM, and the like, and stores various types of information such as various processing programs and processing results that are executed by the control unit 40.
  • the storage unit 20 also stores in-vivo image storage unit 21 for storing in-vivo image compression data compressed by DCT encoding and in-vivo image restoration data decoded and restored by the image processing unit 50; And a threshold value storage unit 22 that stores a threshold value used in the area determination process performed by the processing unit 50.
  • the control unit 40 is realized by a CPU, and controls various processes and operations of each unit included in the image processing apparatus 1 by executing various processing programs stored in the storage unit 20. In particular, the control unit 40 executes the image processing program to cause the image processing unit 50 to perform region determination processing and cause the output unit 30 to display the result of region determination processing.
  • the DCT feature value generation unit 52 corresponds to a feature value generation unit that generates a feature value of each image portion.
  • a DCT feature value generation unit 52 As a power value of one frequency component among a plurality of frequency components represented by frequency information, a DCT feature value generation unit 52 Then, the power value of the AC component of the DCT coefficient is calculated, and a DCT feature value, which is a feature value indicating the feature of each pixel block, is generated based on this power value.
  • the power value is information indicating the intensity of each frequency component. In the first embodiment, the power value indicates the intensity of the AC component in each frequency band, and does not include information indicating the texture directionality.
  • FIG. 4 is a diagram showing the frequency band to which each AC component belongs and the power value of each frequency band. In FIG.
  • the area determination unit 53 captures an image in each pixel block using a threshold set according to the distribution of the power value. Processing to determine the type of area is performed. Note that the frequency band of the power values that the area determination unit 53 compares with the threshold is also set in advance according to the distribution of the power values.
  • the threshold value may be one or plural for each area to be discriminated.
  • the region discriminating unit 53 compares the power value F5 with the threshold value and discriminates that the region imaged in the pixel block is the bubble region when the power value F5 is smaller than the threshold value.
  • the power values F4 and F7 may be compared with the corresponding threshold values, and if both power values are smaller than the respective threshold values, it may be determined that the region imaged in the pixel block is a bubble region.
  • the image processing apparatus 1 Since the image processing apparatus 1 according to the first embodiment performs region discrimination processing based on the feature amount generated based on the power value of the AC component of the DCT coefficient, it is based on two-dimensional Fourier transform, co-occurrence matrix, and the like. Compared to a conventional image processing apparatus that performs an area determination process using arithmetic processing, the area determination process can be performed at high speed.
  • the image processing apparatus 1 generates the feature amount of each image portion based on the DCT coefficient calculated when the decompression process of the compressed image compressed by the DCT encoding method is performed. Is compressed by the DCT encoding method, it is possible to shorten the calculation processing time for generating the feature amount and to perform the discrimination processing at a higher speed than the conventional image processing apparatus.
  • the image processing device 1 can perform the region determination with higher accuracy than when performing the region determination processing using the AC component value of the coding coefficient as it is as the feature amount of the pixel block. it can. Since the AC component includes information on the directionality of the texture, if it is difficult to determine a predetermined region due to the difference in texture directionality, if the region determination is performed using the AC component value as it is as the feature amount of the pixel block There is. However, since the image processing apparatus 1 performs region determination using a set of power values not including texture direction information as a feature amount, the region determination can be performed with high accuracy.
  • the DCT feature quantity generation unit 52 may use a set of the power values F1 to F14 and the DC component value as the DCT feature quantity.
  • the region determination unit 53 compares a preset threshold value with the DC component of the Y value, and if the Y value DC component is equal to or greater than the threshold value, the region block 53 is imaged on the pixel block. It is determined that there is a possibility that the region is a bubble region, and a process of comparing the power value and the threshold value is performed.
  • Modification 1 In the first embodiment, the number of AC components having a value of 0 among the AC components belonging to each frequency band of the DCT coefficient is calculated as the power value of one frequency component included in the frequency information. In Example 1, the number of AC components whose values are within a predetermined range is calculated as the power value.
  • FIG. 9 is a flowchart illustrating a procedure of processing performed by the DCT feature quantity generation unit 52 in step S103 in the case of the first modification.
  • the DCT feature quantity generation unit 52 acquires the value of the AC component of the DCT coefficient for each pixel block under the control of the control unit 40 (step S211). Thereafter, the DCT feature quantity generation unit 52 calculates the number of AC components whose values fall within a predetermined range for each frequency band as the power value of each frequency band, and the power values F1 to F14 of all frequency bands H1 to H14. Is set as the DCT feature amount of each pixel block (step S212). Through the processing in steps S211 to S212, the DCT feature value generation unit 52 generates the DCT feature value of each pixel block using the AC component of the DCT coefficient.
  • Modification 2 In the first embodiment and the first modification, the number of AC components satisfying a predetermined condition among the AC components of the DCT coefficient is calculated as the power value of one frequency component included in the frequency information. In 2, the average value of the absolute values of the AC components belonging to each frequency band is calculated as the power value.
  • FIG. 10 is a flowchart illustrating a procedure of processing performed by the DCT feature quantity generation unit 52 in step S103 in the case of the second modification.
  • the DCT feature quantity generation unit 52 acquires the value of the AC component of the DCT coefficient for each pixel block under the control of the control unit 40 (step S221). Thereafter, the DCT feature quantity generator 52 calculates the average value of the AC component values for each frequency band as the power value of each frequency band, and sets the power values F1 to F14 of all the frequency bands H1 to H14. Is the DCT feature value of each pixel block (step S222).
  • the DCT feature value generation unit 52 generates the DCT feature value of each pixel block using the AC component of the DCT coefficient.
  • the value of the AC component of the DCT coefficient can take both positive and negative values depending on the directionality of the texture. For this reason, the DCT feature quantity generation unit 52 obtains information on the intensity of the AC component in each frequency band H1 to H14 as a power value by converting the AC component value into an absolute value and calculating an average value. A DCT feature is generated.
  • FIG. 11 shows the average value of the absolute values of the AC component values belonging to each of the frequency bands H1 to H14 for the AC component of the DCT coefficient of the Y value of the image portion in which the bubble region and other regions other than the bubble region are imaged. That is, it is a diagram showing the distribution of power values F1 to F14 according to the second modification. As shown in FIG. 11, in both the bubble region and other regions, the power value decreases as the frequency band increases. However, since the bubble region contains a lot of edge components, the power value is larger in the frequency bands H3 to H8 than the other regions.
  • the region determination unit 53 uses a threshold value set in advance according to the power value distribution, as in the first embodiment. A process of discriminating the area imaged in each pixel block is performed. For this reason, the image processing apparatus according to the modified example 2 can perform the area determination process as in the first embodiment.
  • Modification 3 In the second modification, the average value of the AC component values of the DCT coefficient is calculated as the power value of one frequency component included in the frequency information. However, in the third modification, the AC value of the AC component is used as the power value. A value obtained by weighting the average absolute value of the values for each frequency band is calculated.
  • FIG. 12 is a flowchart illustrating a procedure of processing performed by the DCT feature quantity generation unit 52 in step S103 in the case of the third modification. As illustrated in FIG. 12, the DCT feature quantity generation unit 52 acquires the value of the AC component of the DCT coefficient for each pixel block under the control of the control unit 40 (step S231).
  • FIG. 13 shows the distribution for each frequency band of the power value according to the third modification calculated based on the AC component of the DCT coefficient of the Y value of the image portion in which the bubble region and other regions other than the bubble region are imaged.
  • FIG. 13 shows the distribution for each frequency band of the power value according to the third modification calculated based on the AC component of the DCT coefficient of the Y value of the image portion in which the bubble region and other regions other than the bubble region are imaged.
  • FIG. 13 shows the distribution for each frequency band of the power value according to the third modification calculated based on the AC component of the DCT coefficient of the Y value of the image portion in which the bubble region and other regions other than the bubble region are imaged.
  • the region determination unit 53 compares the threshold value set according to the power value distribution with the average value of the predetermined power values, A process for discriminating the area imaged in the pixel block is performed.
  • the degree of weighting, the frequency band of the power value used for comparison with the threshold value, and the threshold value are determined in advance and stored in the threshold value storage unit 22 according to the area to be determined. Has been.
  • the image processing apparatus uses the weighted average value of the absolute value of the AC component value, that is, the area determination based on the result of comparing the threshold value with the value reflecting the intensity of the AC component in a plurality of frequency bands. Therefore, the region determination process can be performed with high calculation load of the same degree as compared with the case where the region determination process is performed by comparing the power value of one frequency band and the threshold value.
  • the average value of a plurality of predetermined power values can be used as the feature axis.
  • the average value of the power values F3 to F5 is taken as the power value in the low frequency band
  • the average value of the power values F6 to F8 is taken as the power value in the high frequency band
  • each average value is taken as the feature axis.
  • the feature space is two-dimensional.
  • the feature space is not limited to two dimensions.
  • the feature space can be a maximum of 14 dimensions. it can.
  • a DC component value may be added as a feature axis.
  • the region discriminating unit 83 uses the teacher data to each pixel block. A process for discriminating the type of the imaged area is performed.
  • the image processing apparatus 2 stores a plurality of DCT feature amounts per region as teacher data, and the distribution of the DCT feature amount of the teacher data and the DCT feature amount of each pixel block in the feature space. Since the region captured by each pixel block is determined based on the original, even if the DCT coefficient fluctuates due to, for example, individual differences in the subject or lighting conditions at the time of image capturing, the region determination processing can be performed with high accuracy. Can do.
  • JPEG is used as an example of image data compression processing by DCT encoding.
  • compression processing by DCT encoding is not limited to JPEG processing, and includes processing by MPEG and the like. It is.
  • MPEG is a moving image data compression process, but since the compression process is performed by a DCT encoding process similar to JPEG, the technical idea according to the present invention can be applied.
  • the type of the region captured in the image portion may be determined based on the feature amount generated based on the frequency information including information.
  • the compression coding method for compressing each predetermined range is not limited to the above-described examples such as the discrete wavelet transform. Even in this case, as in the case of DCT encoding, the region discrimination can be performed at high speed.
  • the frequency information is not limited to the frequency information calculated at the time of decoding the compressed image. That is, the image processing apparatus according to the present invention may perform the region determination process after performing the process of calculating the predetermined frequency information regardless of the presence or absence of the decoding process.
  • the area determination process performed by the image processing apparatus according to the above-described embodiment and the modification, the area determination process for one in-vivo image has been described. However, when there are a plurality of in-vivo images, the in-vivo images of a series of in-vivo image groups. Alternatively, the region determination process may be automatically performed sequentially.
  • the DCT coefficient acquisition unit 51 performs the decoding process of the compressed image to acquire (calculate) the DCT coefficient.
  • a predetermined frequency conversion is performed.
  • Frequency information such as DCT coefficients may be acquired from another external device (not shown) that performs processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)

Abstract

 ある実施形態に係る画像処理装置は、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報としてDCT係数を取得するDCT係数取得部(51)と、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値としてDCT係数のAC成分の強度を示すパワー値を算出し、このパワー値をもとに各DCT係数が対応する画像部分の特徴を示すDCT特徴量を生成するDCT特徴量生成部(52)と、DCT特徴量をもとに各画像部分に撮像された領域を判別する領域判別部(53)とを備える。

Description

画像処理装置、画像処理方法および画像処理プログラム
 本発明は、各画像の所定範囲の画像部分に撮像された領域の種別を判別する処理を行う画像処理装置、画像処理方法および画像処理プログラムに関するものである。
 従来、画像の領域判別を行う技術は、画像内の主要対象物を背景等と分離するために用いるなど応用範囲が広く、様々な方法が提案されている。なかでも、所定範囲の画素の集合の特徴量をもとに画像の領域判別を行う方法は、画素単位の特徴量をもとに領域判別を行う方法に比べ、情報量が多い分、分割精度の向上が期待できる。
 ここで、画素の集合の特徴量として代表的なものにテクスチャの特徴量がある。テクスチャとは、繰り返しの画素値パターンである。一般に、画像処理装置では、テクスチャの特徴量を扱うために、2次元フーリエ変換や同時生起行列などによる数値化処理を行っている(例えば、非特許文献1参照)。
ディジタル画像処理編集委員会、「ディジタル画像処理」、第二版、CG-ARTS協会、2006年3月、p.192-195
 ところで、従来の画像処理装置では、2次元フーリエ変換や同時生起行列による演算にかかる計算負荷が非常に大きいため、テクスチャの特徴量に基づく領域判別を高速に行うことができないという問題があった。
 本発明は、上記に鑑みてなされたものであって、処理対象画像に撮像された領域の種別の判別を高速に行うことができる画像処理装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明のある態様にかかる画像処理装置は、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得部と、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成部と、前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する領域判別部と、を備えることを特徴とする。
 この態様によれば、周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を算出してパワー値をもとに各画像部分の特徴量を生成するため、各パワー値が対応する画像部分の特徴量が簡易な処理で得られる。そのため、処理対象画像に撮像された領域の種別の判別を高速に行うことができるという効果を奏する。
 本発明の別の態様にかかる画像処理方法は、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する判別ステップと、を備えることを特徴とする。
 本発明のさらに別の態様にかかる画像処理プログラムは、目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する判別ステップと、をコンピュータに発揮させることを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現をシステム、記録媒体などの間で変換したものもまた、本発明の別の態様として有効である。
 本発明によれば、領域判別を高速に行うことができる技術を提供できる。
図1は、本発明の実施の形態1にかかる画像処理装置の概略構成を示すブロック図である。 図2は、画素ブロックのDCT係数を示す図である。 図3は、DCT係数のAC成分の配置を説明する図である。 図4は、AC成分が属する周波数帯域と各周波数帯域のパワー値とを示す図である。 図5は、図1に示す画像処理装置が行う画像処理手順を示すフローチャートである。 図6は、図1に示すDCT特徴量生成部が行うDCT特徴量生成処理の手順を示すフローチャートである。 図7は、図1に示す領域判別部が行う領域判別処理の手順を示すフローチャートである。 図8は、AC成分が属する周波数帯域と値が0となるAC成分の割合との関係を示す図である。 図9は、変形例1にかかる画像処理装置が行うDCT特徴量生成処理の手順を示すフローチャートである。 図10は、変形例2にかかる画像処理装置が行うDCT特徴量生成処理の手順を示すフローチャートである。 図11は、AC成分が属する周波数帯域と各周波数帯域のAC成分の値の絶対値の平均値との関係を示す図である。 図12は、変形例3にかかる画像処理装置が行うDCT特徴量生成処理の手順を示すフローチャートである。 図13は、AC成分が属する周波数帯域と各周波数帯域のAC成分の値の絶対値の平均値に重み付けをした値との関係を示す図である。 図14は、本発明の実施の形態2にかかる画像処理装置の概略構成を示すブロック図である。 図15は、図14に示す領域判別部が行う領域判別処理の手順を示すフローチャートである。 図16は、教師データの一例を示す図である。
符号の説明
 1,2 画像処理装置
 10 入力部
 20,60 記憶部
 21 体内画像記憶部
 22 閾値記憶部
 30 出力部
 40,70 制御部
 50,80 画像処理部
 51 DCT係数取得部
 52 DCT特徴量生成部
 53,83 領域判別部
 62 教師データ記憶部
 F1~F14 パワー値
 H1~H14 周波数帯域
 以下、添付図面を参照しつつ本発明にかかる画像処理装置の好適な実施の形態について説明する。各実施の形態や各変形例における画像処理装置として、カプセル型内視鏡によって撮像され、DCT符号化によって圧縮処理された体内画像を処理対象画像とする画像処理装置を例に説明する。ただし、本発明にかかる画像処理装置が処理可能な画像は、DCT符号化によって圧縮処理された体内画像に限定されるものではない。また、本実施の形態によって本発明が限定されるものではない。なお、図面の記載において同一部分または相当する部分には同一の符号を付している。
 ここで、カプセル型内視鏡を用いて体内画像を撮像して記憶するシステムについて説明する。カプセル型内視鏡は、撮像装置およびデータ送信装置を備え、被検体に飲み込まれた後、自然排出されるまでの間、胃、小腸、大腸などの管状臓器内を各臓器の蠕動運動などによって移動しながら所定の撮像レートで体内画像の撮像を行うとともに、撮像した体内画像の画像データを被検体の体外に設置された受信装置に順次送信する。カプセル型内視鏡が被検体内で撮像する体内画像の枚数は、撮像レート(通常、2~4frame/sec)と、カプセル型内視鏡の被検体内滞在時間(通常、8時間=2880sec)とを乗算することによって示され、概ね6~12万枚程度という大量な枚数になる。このため、カプセル型内視鏡が撮像した体内画像は、通常、DCT符号化を用いて圧縮処理され、受信装置が備える携帯型記憶媒体に記憶される。
(実施の形態1)
 本実施の形態1にかかる画像処理装置について、図1を参照して説明する。図1は、本実施の形態1にかかる画像処理装置1の概略構成を示すブロック図である。画像処理装置1は、各種情報を入力する入力部10、体内画像を含む各種情報を記憶する記憶部20、各種情報を出力する出力部30および画像処理装置1の各部の動作を制御する制御部40を備える。さらに、画像処理装置1は、体内画像を処理して体内画像の各画像部分に撮像された領域の種別を判別する領域判別処理を行う画像処理部50を備える。
 入力部10は、キーボード、マウスおよびデータ通信インターフェイスなどによって実現され、観察者から直接に各種情報の入力を受け付けるとともに、各種メモリカード、CD、DVDなどの携帯型記憶媒体から体内画像の画像情報の入力を受け付ける。
 記憶部20は、ハードディスク、ROMおよびRAMなどによって実現され、制御部40が実行させる各種処理プログラム、処理結果などの各種情報を記憶する。また、記憶部20は、DCT符号化によって圧縮処理された体内画像の圧縮データおよび画像処理部50で復号化処理されて復元された体内画像の復元データを記憶する体内画像記憶部21と、画像処理部50で行う領域判別処理に用いる閾値を記憶する閾値記憶部22とを備える。
 出力部30は、液晶ディスプレイなどによって実現され、画像処理部50で行われた領域判別処理の結果および体内画像などの各種情報を表示する。また、出力部30は、観察者に対して各種処理情報の入力を依頼するGUI(Graphical User Interface)画面を表示する。
 制御部40は、CPUによって実現され、記憶部20に記憶された各種処理プログラムを実行することで、画像処理装置1が備える各部の処理および動作を制御する。特に、制御部40は、画像処理プログラムを実行することで、画像処理部50に領域判別処理を行わせるとともに、出力部30に領域判別処理の結果を表示させる。
 画像処理部50は、例えばCPUによって実現され、DCT係数取得部51、DCT特徴量生成部52および領域判別部53を備え、体内画像記憶部21に記憶された体内画像に対して画像処理を行う。
 DCT係数取得部51は、周波数情報を取得する取得部に対応し、所定範囲の画像部分の周波数情報として、DCT符号化方式によって圧縮処理された体内画像の圧縮データの復号化処理の際に算出されるDCT係数を取得する。なお、制御部40は、出力部30に体内画像を表示させる場合、DCT係数取得部51を制御して圧縮画像を復元処理させて体内画像の原画像を取得する。
 ここで、DCT係数を説明する。DCT係数は、8×8画素の画像部分ごとに離散コサイン変換して得られる周波数情報であり、各画像部分の周波数成分などを示している。(以下、8×8画素の画像部分を画素ブロックと呼ぶ。)各画素ブロックのDCT係数は、8×8マトリクスで示される64個の係数の集合である。図2に示すように、DCT係数の8×8マトリクスは、DC(直流)成分を示す値およびAC(交流)成分を示す63個の値によって構成され、DC成分は、8×8マトリクスの左上角に配置され、AC成分は、そのほかの部分に配置される。図3に示すように、8×8マトリクス内の左上から右下に向かって、低周波な周波数特性を示すAC成分から高周波な周波数特性を有するAC成分が、順に配置されている。また、JPEGによる処理では、画素ブロックごとに、輝度成分(Y値)のDCT係数および色差成分(U値、V値)の2つのDCT係数の合計3つのDCT係数が算出され、各々のDCT係数のDC成分は、画素ブロックの平均輝度または平均色差に相当する値を示す。
 DCT特徴量生成部52は、各画像部分の特徴量を生成する特徴量生成部に対応し、周波数情報が表す複数の周波数成分のうちの一の周波数成分のパワー値として、所定の周波数帯域ごとにDCT係数のAC成分のパワー値を算出し、このパワー値をもとに各画素ブロックの特徴を示す特徴量であるDCT特徴量を生成する。なお、パワー値とは、各周波数成分の強度を示す情報であり、本実施の形態1では各周波数帯域のAC成分の強度を示し、テクスチャの方向性を示す情報は含まない。図4は、各AC成分が属する周波数帯域および各周波数帯域のパワー値を示す図である。図4では、同一の周波数帯域に属するAC成分のマトリクスに、同一の数字が割り当ててある。図4に示すように、AC成分は、14つの周波数帯域H1~H14の各周波数帯域に属するAC成分ごとに、具体的には、8×8マトリクスの左下角と右上角とを結ぶ対角線に平行な14つの線上にそれぞれ配置されたAC成分ごとに分類される。なお、実施の形態では、14つの周波数帯域に分けた場合を説明するが、これに限られず、他の例として、任意の数の帯域に分けてもよい。図4において、左上の「1」と示されたAC成分が属する周波数帯域が、最低周波数帯域である周波数帯域H1であり、右下の「14」と示されたAC成分が属する周波数帯域が、最高周波数帯域である周波数帯域H14である。DCT特徴量生成部52は、画素ブロックごとに、周波数帯域H1~H14のAC成分のパワー値F1~F14を算出し、パワー値F1~F14をもとにDCT特徴量を生成する。
 領域判別部53は、各画素ブロックのDCT特徴量をもとに各画素ブロックに撮像された領域の種別を判別する。領域判別部53は、各画素ブロックに撮像された体内領域のうち、例えば泡領域、病変領域、出血領域、粘膜領域、粘液領域または便などの内容物領域などの領域の種別を判別する。
 各画素ブロックは、撮像された領域が例えば病変領域、出血領域、粘膜領域、粘液領域または内容物領域であるかによって、各々、色味およびテクスチャが異なる。また、内容物および体内の水分によって生じた泡領域が撮像された画像部分は、撮像時の照明光の反射などによって他の領域と比較してエッジの情報が多く含まれ、粘膜領域など泡領域以外のその他の領域が撮像された画像部分とは輝度の分布が異なり、周波数分布が異なる。DCT特徴量は、輝度情報および色差情報を含むDCT係数のAC成分をもとに生成されるため、領域判別部53は、DCT特徴量を用いて、各画素ブロックに撮像された領域を判別できる。
 図5は、画像処理装置1が行う画像処理手順を示すフローチャートである。図5に示すように、まず制御部40は、体内画像記憶部21に記憶されている体内画像の圧縮データを読み込み(ステップS101)、DCT係数取得部51に圧縮データを復号化させて各画素ブロックのDCT係数を取得する(ステップS102)。その後、制御部40は、DCT特徴量生成部52を制御して各画素ブロックのDCT特徴量を生成する処理を行い(ステップS103)、領域判別部53を制御して各画素ブロックに撮像された領域の種別を判別する処理を行う(ステップS104)。その後、制御部40は、出力部30に領域判別処理の結果を出力する(ステップS105)。ステップS101~S105の処理によって、制御部40は、体内画像の各画像部分に撮像された領域を判別し、体内画像の観察者に対して領域判別処理の結果を提示する。
 図6は、ステップS103の処理において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図6に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS201)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として周波数帯域ごとに値が0となるAC成分の個数を算出し、全周波数帯域H1~H14のパワー値F1~F14の集合を各画素ブロックのDCT特徴量とする(ステップS202)。なお、この場合、パワー値が小さいほどAC成分の強度が大きいことを示し、パワー値が大きいほどAC成分の強度が小さいことを示す。ステップS201~S202の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。
 なお、DCT特徴量生成部52は、Y値、U値およびV値のすべてのDCT係数のAC成分の値を取得してDCT特徴量を生成してもよく、Y値、U値またはV値のいずれか一つのDCT係数のAC成分の値を取得してDCT特徴量を生成してもよい。例えば、泡領域を判別する場合、泡領域は輝度成分に特徴があるので、DCT特徴量生成部52は、Y値のDCT係数のAC成分のみを用いてDCT特徴量を生成してもよい。また、DCT特徴量生成部52は、全周波数帯域H1~H14のパワー値F1~F14の集合ではなく、所定の周波数帯域のパワー値の集合をDCT特徴量としてもよい。
 図7は、ステップS104において領域判別部53が行う領域判別処理の手順を示すフローチャートである。図7に示すように、領域判別部53は、制御部40の制御のもと、画像全体の各画素ブロックのDCT特徴量を取得する(ステップS301)。その後、領域判別部53は、DCT特徴量のうち、所定の周波数帯域のパワー値と閾値とを比較して比較結果をもとに各画素ブロックに撮像された領域の種別を判別する(ステップS302)。なお、閾値および閾値と比較するパワー値の周波数帯域については、判別する領域ごとに、予め閾値記憶部22に記憶されている。ステップS301~S302の処理によって、領域判別部53は、DCT特徴量をもとに各画素ブロックに撮像された領域の種別を判別する。
 図8は、泡領域および泡領域以外のその他の領域が撮像された画素ブロックのY値のDCT係数について、周波数帯域H1~H14ごとに、値が0となるAC成分の割合を模式的に示す図である。なお、その他の領域は、病変領域、出血領域、粘膜領域、内容物領域および粘液領域などである。
 図8に示すように、泡領域およびその他の領域ともに、高周波帯域になるほど値が0であるAC成分が含まれる割合が高くなる。しかし、泡領域は、エッジ成分を多く含むため、その他の領域と比較して周波数帯域H3~H8で、値が0であるAC成分が含まれる割合が低くなる。このため、周波数帯域H3~H8で、泡領域のパワー値は、その他の領域のパワー値と比較して小さくなる。領域判別部53は、泡領域の判別を行う場合、パワー値F3~F8のうち予め定められた周波数帯域のパワー値と、泡領域を判別するための閾値とを比較して、パワー値が閾値より小さい場合、DCT特徴量が対応する画素ブロックに撮像された領域を泡領域と判別する。
 泡領域に限らず、各画素ブロックに撮像された領域によってパワー値の分布は異なるので、領域判別部53は、パワー値の分布に応じて設定された閾値を用いて各画素ブロックに撮像された領域の種別を判別する処理を行う。なお、領域判別部53が閾値と比較するパワー値の周波数帯域についても、パワー値の分布に応じて予め設定される。
 なお、閾値は、判別する領域ごとに、1つであっても複数であってもよい。例えば、泡領域を判別する場合、領域判別部53は、パワー値F5を閾値と比較してパワー値F5が閾値よりも小さい場合に画素ブロックに撮像された領域が泡領域であると判別してもよく、パワー値F4およびF7を各々に対応する閾値と比較して両方のパワー値が各々の閾値よりも小さい場合に画素ブロックに撮像された領域が泡領域であると判別してもよい。
 本実施の形態1にかかる画像処理装置1は、DCT係数のAC成分のパワー値をもとに生成した特徴量をもとに領域判別処理を行うので、2次元フーリエ変換および同時生起行列などによる演算処理を用いて領域判別処理を行う従来の画像処理装置と比較し、高速に領域判別処理を行うことができる。
 また、画像処理装置1は、DCT符号化方式によって圧縮処理された圧縮画像の復元処理が行われる際に算出されるDCT係数をもとに各画像部分の特徴量を生成するので、処理対象画像がDCT符号化方式によって圧縮処理されていた場合、従来の画像処理装置と比較して特徴量生成にかかる演算処理時間を短縮でき、さらに高速に判別処理を行うことができる。
 また、画像処理装置1は、DCT係数のAC成分を用いて生成したDCT特徴量をもとに領域判別処理を行うため、周波数情報および色差情報をもとに領域判別処理を行うことができるので、色味の分布が広く、色味が変化しやすい領域の判別も高精度に行うことができる。例えば、泡領域の色味の分布は広く、泡領域以外のその他の領域の色味の分布と重なるため、色情報のみを特徴量として領域判別処理を行うとすると、泡領域を高精度で判別することが難しい場合があった。しかし、泡領域は、エッジ成分を多く含み、中周波から高周波なテクスチャを有し、他の領域と周波数成分を比較すると中周波帯域から高周波帯域のAC成分の値が大きいので、画像処理装置1は、中周波帯域から高周波帯域のAC成分を評価することによって、泡領域の判別処理を高精度に行うことができる。
 さらに、画像処理装置1は、パワー値を用いて領域判別を行うので、符号化係数のAC成分の値をそのまま画素ブロックの特徴量として領域判別処理を行う場合と比較して精度良く行うことができる。AC成分はテクスチャの方向性の情報を含んでいるため、AC成分の値をそのまま画素ブロックの特徴量として領域判別を行うと、テクスチャの方向性の相違によって所定の領域を判別することが難しい場合がある。しかし、画像処理装置1は、テクスチャの方向性の情報を含まないパワー値の集合を特徴量として領域判別を行うので、高精度に領域判別を行うことができる。
 なお、実施の形態1において、DCT特徴量生成部52は、パワー値F1~F14とDC成分の値との集合をDCT特徴量としてもよい。この場合、領域判別部53は、例えば泡領域の判別を行う際、予め設定された閾値とY値のDC成分とを比較し、Y値のDC成分が閾値以上であれば画素ブロックに撮像された領域が泡領域である可能性があると判別してパワー値と閾値とを比較する処理を行う。また、領域判別部53は、色に特性がある領域の判別を行う際は、U値またはV値のDC成分と閾値とを比較し、画素ブロックに撮像された領域が判別を所望する領域である可能性があると判別された後、パワー値と閾値とを比較する処理を行う。この場合、画像処理装置1は、パワー値に加えてDC成分を用いて領域判別処理を行うため、領域判別の精度が向上する。なお、パワー値による領域判別処理の後、DC成分により領域判別処理を行うとしてもよい。
(変形例1)
 ところで、実施の形態1では、周波数情報に含まれる一の周波数成分のパワー値として、DCT係数の各周波数帯域に属するAC成分のうち値が0となるAC成分の個数を算出したが、本変形例1では、パワー値として、値が所定範囲内であるAC成分の個数を算出する。
 本変形例1にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様の構成を有する。図9は、本変形例1にかかる場合、ステップS103において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図9に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS211)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として、周波数帯域ごとに値が所定の範囲内に収まるAC成分の個数を算出し、全周波数帯域H1~H14のパワー値F1~F14の集合を各画素ブロックのDCT特徴量とする(ステップS212)。ステップS211~S212の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。
 なお、所定の範囲とは、0値を含み0値に近い値の範囲であり、例えばAC成分の値が-10以上、10以下となる範囲である。また、その範囲は実験によってその他の値に定められてもよい。値が所定の範囲内となるAC成分が含まれる割合は、図8に示した、値が0となるAC成分が含まれる割合の分布と同様であり、例えば値が0となるAC成分を含む割合の大きい周波数帯域では、0値近傍の値となるAC成分を含む割合も大きい。このため、本変形例1にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様に、領域判別処理を行うことができる。
(変形例2)
 また、実施の形態1および変形例1では、周波数情報に含まれる一の周波数成分のパワー値として、DCT係数のAC成分のうち所定の条件に当てはまるAC成分の個数を算出したが、本変形例2では、パワー値として各周波数帯域に属するAC成分の絶対値の平均値を算出する。
 本変形例2にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様の構成を有する。図10は、本変形例2にかかる場合、ステップS103において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図10に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS221)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として、周波数帯域ごとにAC成分の値の絶対値の平均値を算出し、全周波数帯域H1~H14のパワー値F1~F14の集合を各画素ブロックのDCT特徴量とする(ステップS222)。なお、この場合、パワー値が大きいほどAC成分の強度が大きいことを示し、パワー値が小さいほどAC成分の強度が小さいことを示す。ステップS221~S222の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。
 DCT係数のAC成分の値は、テクスチャの方向性によって正負両方の値を取りうる。このため、DCT特徴量生成部52は、AC成分の値を絶対値に変換して平均値を算出することによって、各周波数帯域H1~H14のAC成分の強度の情報をパワー値として取得してDCT特徴量を生成する。
 図11は、泡領域および泡領域以外のその他の領域が撮像された画像部分のY値のDCT係数のAC成分について、周波数帯域H1~H14の各々に属するAC成分の値の絶対値の平均値、すなわち本変形例2にかかるパワー値F1~F14の分布を示す図である。図11に示すように、泡領域およびその他の領域ともに、高周波帯域になるほどパワー値は小さくなる。しかし、泡領域は、エッジ成分を多く含むため、周波数帯域H3~H8でその他の領域と比較してパワー値が大きくなる。領域判別部53は、泡領域の判別を行う場合、パワー値F3~F8のうち予め定められた周波数帯域のパワー値と、泡領域を判別するための閾値とを比較して、パワー値が閾値より大きい場合、DCT特徴量が対応する画素ブロックに撮像された領域を泡領域と判別する。
 泡領域に限らず、撮像された領域によってパワー値の分布は異なるので、実施の形態1の場合と同様に、領域判別部53は、パワー値の分布に応じて予め設定された閾値を用いて各画素ブロックに撮像された領域を判別する処理を行う。このため、変形例2にかかる画像処理装置は、実施の形態1と同様に、領域判別処理を行うことができる。
(変形例3)
 また、変形例2では、周波数情報に含まれる一の周波数成分のパワー値としてDCT係数のAC成分の値の絶対値の平均値を算出したが、本変形例3では、パワー値としてAC成分の値の絶対値の平均値に周波数帯域ごとに重み付けをした値を算出する。
 本変形例3にかかる画像処理装置は、実施の形態1にかかる画像処理装置1と同様の構成を有する。図12は、本変形例3にかかる場合、ステップS103において、DCT特徴量生成部52が行う処理の手順を示すフローチャートである。図12に示すように、DCT特徴量生成部52は、制御部40の制御のもと、画素ブロックごとにDCT係数のAC成分の値を取得する(ステップS231)。その後、DCT特徴量生成部52は、各周波数帯域のパワー値として、各周波数帯域に属するAC成分の値の絶対値の平均値に各周波数帯域に応じて重み付けをした値を算出し、全周波数帯域H1~H14のパワー値F1~F14の集合を各画素ブロックのDCT特徴量とする(ステップS232)。なお、AC成分の値の絶対値は、属する周波数帯域が高周波帯域になるほど小さくなる傾向があるので、高周波帯域のAC成分の絶対値の平均値ほど、大きく重み付けを行う。ステップS231~S232の処理によって、DCT特徴量生成部52は、DCT係数のAC成分を用いて各画素ブロックのDCT特徴量を生成する。
 本変形例3にかかる場合、ステップS104において、領域判別部53は、所定の複数のパワー値の平均値と閾値とを比較して比較結果をもとに各画素ブロックに撮像された領域を判別する。
 ここで、本変形例3にかかるパワー値F1~F14は、各周波数帯域のAC成分の値の絶対値の平均値をA1~A14とし、各周波数帯域に応じた重みをW1~W14とすると、下式(1)に示される。
 F1=A1×W1,・・・,F14=A14×W14       ・・・(1)
 この場合、領域判別部53が閾値と比較する際に用いるパワー値の平均値Fは、閾値との比較に用いるパワー値の周波数帯域を周波数帯H3~H8とすると、下式(2)で示される。
F=(F3+F4+F5+F6+F7+F8)/6         ・・・(2)
 図13は、泡領域および泡領域以外のその他の領域が撮像された画像部分のY値のDCT係数のAC成分をもとに算出した本変形例3にかかるパワー値の周波数帯域ごとの分布を示す図である。図13に示すように、例えば、泡領域以外のその他の領域を撮像した画像部分のパワー値が周波数帯域によらずほぼ一定となるように重み付けを行った場合、泡領域を撮像した画像部分のパワー値は、周波数帯域H3~H8で、その他の領域のパワー値と比較して大きくなる。この場合、泡領域のパワー値F3~F8の平均値BF3-8は、その他の領域のパワー値F3~F8の平均値MF3-8よりも大きい。このため、領域判別部53は、例えばパワー値F3~F8の平均値が予め設定した閾値と比較して大きい場合、画素ブロックに撮像された領域は泡領域であると判別する。
 泡領域に限らず、撮像された領域によってパワー値の分布は異なるので、領域判別部53は、パワー値の分布に応じて設定された閾値と所定のパワー値の平均値とを比較して各画素ブロックに撮像された領域を判別する処理を行う。なお、本変形例3にかかる画像処理装置では、判別する領域に応じて、重み付けの程度、閾値との比較の際に用いるパワー値の周波数帯域および閾値が予め定められ、閾値記憶部22に記憶されている。
 本変形例3にかかる画像処理装置は、AC成分の値の絶対値の加重平均値、すなわち複数の周波数帯域のAC成分の強度を反映した値と閾値とを比較した結果をもとに領域判別を行うので、1つの周波数帯域のパワー値と閾値とを比較して領域判別処理を行う場合と比較して、同程度の計算負荷で精度良く領域判別処理を行うことができる。
 なお、実施の形態1および変形例1~3では、各々異なるパワー値を算出して各々異なるDCT特徴量を生成したが、本発明の実施の形態にかかる画像処理装置では、実施の形態1および変形例1~3に記載した4種類のDCT特徴量のなかから、領域判別処理に用いるDCT特徴量を選択して設定するDCT特徴量設定部を備えるとしてもよい。
(実施の形態2)
 ところで、実施の形態1では、パワー値と閾値との大小を比較することによって領域判別処理を行ったが、本実施の形態2では、特徴空間内でのパワー値の分布と教師データの分布とを比較することによって領域判別処理を行う。
 図14は、本実施の形態2にかかる画像処理装置2の概略構成を示すブロック図である。画像処理装置2は、画像処理装置1が備えた記憶部20、制御部40および画像処理部50に替えて、記憶部60、制御部70および画像処理部80を備える。記憶部60は、記憶部20が備えた閾値記憶部22に替えて、教師データ記憶部62を備える。画像処理部80は、画像処理部50が備えた領域判別部53に替えて、領域判別部83を備える。制御部70は、制御部40と同様に、画像処理装置2の各部の処理および動作を制御する。なお、画像処理装置2のその他の構成は、画像処理装置1のその他の構成と同様である。
 教師データ記憶部62は、教師データとして、画素ブロックに撮像された領域ごとに、複数のDCT特徴量をクラス分けして記憶している。領域判別部83は、各画素ブロックのDCT特徴量と教師データのDCT特徴量とをもとに、各画素ブロックの領域判別処理を行う。
 画像処理装置2が行う画像処理の手順は、画像処理装置1が行う画像処理の手順(図5:ステップS101~S105)と同様であるが、ステップS104の領域判別処理が異なる。図15は、ステップS104において、領域判別部83が行う処理の手順を示すフローチャートである。図15に示すように、領域判別部83は、制御部70の制御のもと、画像全体の各画素ブロックのDCT特徴量を取得し(ステップS401)、教師データ記憶部62より教師データを読み込む(ステップS402)。その後、領域判別部83は、各画素ブロックのDCT特徴量および教師データのDCT特徴量をもとに、各画素ブロックに撮像された領域の種別を判別する(ステップS403)。ステップS401~S403の処理によって、領域判別部83は、DCT特徴量をもとに各画素ブロックに撮像された領域の種別を判別する。
 図16は、教師データの一例であり、特徴空間上で泡領域のDCT特徴量および粘膜領域のDCT特徴量の分布を示す図である。図16では、特徴空間は2次元であり、特徴空間の特徴軸として低周波帯域のパワー値と高周波帯域のパワー値が選択されている。低周波帯域のパワー値とは、例えばパワー値F4であり、高周波帯域のパワー値とは、例えばパワー値F7である。図16に示すパワー値とは、各周波数帯域のAC成分の絶対値の平均値であり、泡領域は、粘膜領域と比較して高周波帯域のパワー値が大きいことが分かる。
 なお、各周波数帯域のAC成分の絶対値の平均値に各周波数帯域に応じて重み付けした値をパワー値とした場合、所定の複数のパワー値の平均値を特徴軸とすることができる。例えば、図16に示す場合、低周波帯域のパワー値としてパワー値F3~F5の平均値をとり、高周波帯域のパワー値としてパワー値F6~F8の平均値をとり、各平均値を特徴軸としてもよい。また、図16では、特徴空間を2次元としたが、特徴空間は2次元に限られず、例えばパワー値F1~F14の各々を特徴軸とすれば、最大で14次元の特徴空間とすることができる。さらに、特徴軸としてDC成分の値を追加してもよい。
 泡領域および粘膜領域に限られず、病変領域、出血領域などその他の領域についても各々、特徴空間上でのDCT特徴量の分布は異なるので、領域判別部83は、教師データを用いて各画素ブロックに撮像された領域の種別を判別する処理を行う。
 ステップS403において、領域判別部83は、特徴空間上での、各画素ブロックのDCT特徴量と教師データのDCT特徴量の分布とをもとに、kNN(k-Nearest Neighbor Method)法および部分空間法などの公知の判別手法を用いて、各画素ブロックに撮像された領域の種別を判別する。
 本実施の形態2にかかる画像処理装置2は、1領域につき複数のDCT特徴量を教師データとして記憶し、特徴空間上での教師データのDCT特徴量および各画素ブロックのDCT特徴量の分布をもとに各画素ブロックに撮像された領域を判別するので、例えば、被検体の個体差や撮像時の照明の具合などの影響によってDCT係数が変動しても、精度良く領域判別処理を行うことができる。
 ところで、上記の実施形態および変形例では、DCT符号化による画像データの圧縮処理の一例としてJPEGをあげたが、DCT符号化による圧縮処理は、JPEGによる処理に限られず、MPEGなどによる処理も含まれる。特に、MPEGは、動画像データの圧縮処理であるが、JPEGと同様にDCT符号化処理によって圧縮処理を行っているので、本発明にかかる技術思想を適用できる。
 また、上記の実施形態および変形例では、周波数情報としてDCT係数をあげたが、圧縮画像の復号化処理に伴って所定の画像部分ごとに周波数情報が算出される圧縮符号化手法であれば、本発明に係る技術思想を適用できるのである。例えば、領域判別部53は、DCT符号化以外の、既知である離散ウェーブレット変換(DWT)、離散フーリエ変換(DFT)、アダマール変換やラプラス変換などの周波数変換を用いた符号化方式によって算出された周波数情報(例えば、DCT符号化の変換方式であればDCT係数を、アダマール変換方式であれば、周波数変換の変換結果がこれに該当する。)であって、各画像部分の複数の周波数成分の情報を含む周波数情報をもとに生成された特徴量をもとに画像部分に撮像された領域の種別を判別してもよい。もちろん、所定範囲ごとに圧縮する圧縮符号化の手法であれば、上記に挙げた離散ウェーブレット変換などの例に限られないことは当業者に理解されることである。この場合でも、DCT符号化の場合と同様に、領域判別を高速に行うことができる。
 近年、画像処理装置では、符号化圧縮処理によって原画像を圧縮して記憶することが一般化されているので、圧縮画像の復号化処理が行われる際に周波数情報が算出される場合、本実施の形態1などと同様に、領域判別処理にかかる時間をさらに短縮できる。
 なお、周波数情報は、圧縮画像の復号化処理の際に算出される周波数情報に限られない。すなわち、本発明にかかる画像処理装置は、復号化処理の有無に関係なく、所定の周波数情報を算出する処理を行った後、領域判別処理を行うとしてもよい。
 また、上記の実施形態および変形例にかかる画像処理装置が行う領域判別処理として、1枚の体内画像に対する領域判別処理を説明したが、体内画像が複数ある場合、一連の体内画像群の体内画像に対して順次、自動的に領域判別処理を行うこととしてもよい。
 また、上記の実施形態および変形例では、処理対象となる目的の画像を所定範囲、例えば8×8画素の画像部分ごとに圧縮する圧縮符号化の手法を説明したが、その範囲の大きさはこれに限定されるものではない。例えば、4×4画素の画像部分ごとに圧縮してもよいし、16×16画素の画像部分ごとに圧縮する手法であってもよい。一方、他の例では、画像部分を画像全体とみなして、画像全体を圧縮する圧縮符号化の手法であってもよい。
 また、上記の実施形態および変形例では、DCT係数取得部51が圧縮画像の復号化処理を行ってDCT係数を取得する(算出する)こととしたが、別の変形例として、所定の周波数変換処理を行う他の外部装置(図示せず)からDCT係数などの周波数情報を取得するとしてもよい。
 以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 以上のように、本発明の画像処理装置、画像処理方法および画像処理プログラムは、処理対象画像に撮像された領域の種別の判別を高速に行うのに有用である。

Claims (19)

  1.  目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得部と、
     前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成部と、
     前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する領域判別部と、
     を備えることを特徴とする画像処理装置。
  2.  前記特徴量生成部は、各周波数帯域に属する前記一の周波数成分のうち値が0となる前記一の周波数成分の個数を前記パワー値として算出して前記特徴量を生成することを特徴とする請求項1に記載の画像処理装置。
  3.  前記特徴量生成部は、各周波数帯域に属する前記一の周波数成分のうち値が所定の範囲内となる前記一の周波数成分の個数を前記パワー値として算出して前記特徴量を生成することを特徴とする請求項1に記載の画像処理装置。
  4.  前記特徴量生成部は、各周波数帯域に属する前記一の周波数成分の絶対値の平均値を前記パワー値として算出して前記特徴量を生成することを特徴とする請求項1に記載の画像処理装置。
  5.  前記特徴量生成部は、各周波数帯域に属する前記一の周波数成分の絶対値の平均値に各周波数帯域に応じた重み付けを行って算出した値を前記パワー値として算出して前記特徴量を生成することを特徴とする請求項1に記載の画像処理装置。
  6.  前記特徴量生成部は、前記一の周波数成分である輝度成分をもとに前記パワー値を算出して前記特徴量を生成することを特徴とする請求項1~5のいずれか一つに記載の画像処理装置。
  7.  前記特徴量生成部は、前記一の周波数成分とは異なる他の周波数成分および前記パワー値をもとに前記特徴量を生成することを特徴とする請求項1~6のいずれか一つに記載の画像処理装置。
  8.  前記領域判別部は、前記特徴量と閾値とを比較して前記特徴量に対応する前記画像部分に撮像された領域の種別を判別することを特徴とする請求項1~7のいずれか一つに記載の画像処理装置。
  9.  異なる領域ごとにクラス分けされた複数の前記特徴量である教師データを記憶する教師データ記憶部をさらに備え、
     前記領域判別部は、前記教師データの前記特徴量および前記画像部分の前記特徴量をもとに前記画像部分に撮像された領域の種別を判別することを特徴とする請求項1~7のいずれか一つに記載の画像処理装置。
  10.  処理対象画像は、医療用画像であることを特徴とする請求項1~9のいずれか一つに記載の画像処理装置。
  11.  処理対象画像は、カプセル型内視鏡によって撮像された体内画像であることを特徴とする請求項1~10のいずれか一つに記載の画像処理装置。
  12.  前記領域判別部は、前記画像部分に撮像された領域の種別として泡領域、病変領域、出血領域、粘膜領域、内容物領域または粘液領域のうち少なくとも1つの領域の種別を判別することを特徴とする請求項1~11のいずれか一つに記載の画像処理装置。
  13.  前記取得部は、前記周波数情報として、前記画像部分ごとに所定の周波数変換処理を施すことで得られた情報を取得することを特徴とする請求項1~12のいずれか一つに記載の画像処理装置。
  14.  前記周波数変換処理は、DCT符号化方式を用いた変換であることを特徴とする請求項13に記載の画像処理装置。
  15.  前記周波数情報は、前記周波数変換処理としてDCT符号化方式によって圧縮処理された圧縮画像の復号化処理が行われる際に算出されるDCT係数であることを特徴とする請求項13または14に記載の画像処理装置。
  16.  前記周波数情報は、DCT符号化方式によって圧縮処理された圧縮画像の復号化処理が行われる際に算出されるDCT係数であり、
     前記一の周波数成分は、前記DCT係数のAC成分であることを特徴とする請求項1~7のいずれか一つに記載の画像処理装置。
  17.  前記周波数情報は、DCT符号化方式によって圧縮処理された圧縮画像の復号化処理が行われる際に算出されるDCT係数であり、
     前記他の周波数成分は、前記DCT係数のDC成分であることを特徴とする請求項7に記載の画像処理装置。
  18.  目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、
     前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、
     前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する判別ステップと、
     を備えることを特徴とする画像処理方法。
  19.  目的の画像に含まれる所定範囲の画像部分について、その画像部分の複数の周波数成分を表す周波数情報を取得する取得ステップと、
     前記周波数情報が表す複数の周波数成分のうち一の周波数成分の強度を示すパワー値を所定の周波数帯域ごとに算出し、前記パワー値をもとに前記周波数情報に対応づけられた画像部分の特徴を示す特徴量を生成する特徴量生成ステップと、
     前記特徴量をもとに前記画像部分に撮像された領域の種別を判別する判別ステップと、
     をコンピュータに発揮させることを特徴とする画像処理プログラム。
PCT/JP2008/071047 2008-02-21 2008-11-19 画像処理装置、画像処理方法および画像処理プログラム WO2009104315A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-040179 2008-02-21
JP2008040179A JP2009136655A (ja) 2008-02-21 2008-02-21 画像処理装置、画像処理方法および画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2009104315A1 true WO2009104315A1 (ja) 2009-08-27

Family

ID=40867917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/071047 WO2009104315A1 (ja) 2008-02-21 2008-11-19 画像処理装置、画像処理方法および画像処理プログラム

Country Status (2)

Country Link
JP (1) JP2009136655A (ja)
WO (1) WO2009104315A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3211887A4 (en) * 2014-11-13 2017-11-15 Samsung Electronics Co., Ltd. Method and device for generating metadata including frequency characteristic information of image
CN108154527A (zh) * 2017-12-08 2018-06-12 东华大学 一种基于稳定学习字典的机织物纹理表征方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5576782B2 (ja) * 2010-12-16 2014-08-20 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6196760B2 (ja) * 2012-08-10 2017-09-13 オリンパス株式会社 画像処理装置
FR3019350B1 (fr) * 2014-03-28 2017-07-21 Univ De Tech De Troyes Systeme d'identification d'un modele d'appareil photographique associe a une image compressee au format jpeg, procede, utilisations et applications associes

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06339019A (ja) * 1993-05-28 1994-12-06 Nippon Telegr & Teleph Corp <Ntt> 離散的コサイン変換による文書画像の領域分離方式
JPH0738761A (ja) * 1993-07-22 1995-02-07 Minolta Co Ltd 符号化装置
JPH0946519A (ja) * 1995-08-01 1997-02-14 Canon Inc 画像処理装置および方法
JP2007175434A (ja) * 2005-12-28 2007-07-12 Olympus Medical Systems Corp 画像処理装置および当該画像処理装置における画像処理方法
JP2007209770A (ja) * 2007-03-16 2007-08-23 Olympus Corp 内視鏡診断支援装置
JP2007236956A (ja) * 2007-03-16 2007-09-20 Olympus Corp 内視鏡診断支援装置及び内視鏡画像処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06339019A (ja) * 1993-05-28 1994-12-06 Nippon Telegr & Teleph Corp <Ntt> 離散的コサイン変換による文書画像の領域分離方式
JPH0738761A (ja) * 1993-07-22 1995-02-07 Minolta Co Ltd 符号化装置
JPH0946519A (ja) * 1995-08-01 1997-02-14 Canon Inc 画像処理装置および方法
JP2007175434A (ja) * 2005-12-28 2007-07-12 Olympus Medical Systems Corp 画像処理装置および当該画像処理装置における画像処理方法
JP2007209770A (ja) * 2007-03-16 2007-08-23 Olympus Corp 内視鏡診断支援装置
JP2007236956A (ja) * 2007-03-16 2007-09-20 Olympus Corp 内視鏡診断支援装置及び内視鏡画像処理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3211887A4 (en) * 2014-11-13 2017-11-15 Samsung Electronics Co., Ltd. Method and device for generating metadata including frequency characteristic information of image
US10417766B2 (en) 2014-11-13 2019-09-17 Samsung Electronics Co., Ltd. Method and device for generating metadata including frequency characteristic information of image
CN108154527A (zh) * 2017-12-08 2018-06-12 东华大学 一种基于稳定学习字典的机织物纹理表征方法
CN108154527B (zh) * 2017-12-08 2020-06-12 东华大学 一种基于稳定学习字典的机织物纹理表征方法

Also Published As

Publication number Publication date
JP2009136655A (ja) 2009-06-25

Similar Documents

Publication Publication Date Title
JP4932588B2 (ja) 画像処理装置および画像処理プログラム
JP4139765B2 (ja) 画像処理方法および画像処理装置、並びに画像処理プログラムおよび記録媒体
TWI426774B (zh) 用於針對jpeg壓縮歷史紀錄分類為壓縮影像的方法、及用於針對影像是否已經過jpeg壓縮而分類影像的設備及影像分類方法
WO2009104315A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2006157910A (ja) ブロッキング効果を除去するためのフィルタリング方法及びその装置
JP2007295170A (ja) 画像圧縮装置、画像圧縮プログラム、画像圧縮方法
JP2013507083A5 (ja)
JP5318256B2 (ja) 高ビット深度画像の圧縮
US20150350483A1 (en) Dynamic Compression Ratio Selection
US20090263011A1 (en) Detection Technique for Digitally Altered Images
JP5028138B2 (ja) 画像処理装置および画像処理プログラム
WO2016033725A1 (zh) 视频编码中的块分割方式处理方法和相关装置
US20140270499A1 (en) Image processing apparatus, image processing method, and computer-readable recording device
JP2008278963A (ja) 画像処理装置および画像処理プログラム
Wu et al. Low-complexity video compression for capsule endoscope based on compressed sensing theory
US20230133895A1 (en) Image encoding apparatus and method for controlling the same and non-transitory computer-readable storage medium
CN115797276A (zh) 用于内窥镜的病灶图像处理方法、装置、电子设备及介质
CN114972557A (zh) 一种基于数据压缩的***内窥设备及***
CN106717006A (zh) 用于根据图像类型选择压缩算法的方法
US11803985B2 (en) Information processing apparatus, information processing method, and recording medium
JP2009142552A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2001144932A (ja) 画像処理装置及びその方法
US10728470B2 (en) Image processing device, image processing method, and non-transitory computer readable medium storing image processing program
JP2019201288A5 (ja)
JP2009111821A (ja) 画像符号化装置、画像復号化装置、画像データ処理装置、画像符号化方法、及び、画像復号化方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08872545

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08872545

Country of ref document: EP

Kind code of ref document: A1