WO2021009804A1 - 閾値の学習方法 - Google Patents

閾値の学習方法 Download PDF

Info

Publication number
WO2021009804A1
WO2021009804A1 PCT/JP2019/027709 JP2019027709W WO2021009804A1 WO 2021009804 A1 WO2021009804 A1 WO 2021009804A1 JP 2019027709 W JP2019027709 W JP 2019027709W WO 2021009804 A1 WO2021009804 A1 WO 2021009804A1
Authority
WO
WIPO (PCT)
Prior art keywords
mammary gland
pixel
region
estimation
mammography image
Prior art date
Application number
PCT/JP2019/027709
Other languages
English (en)
French (fr)
Inventor
加藤 裕
正史 東
玲央 青木
護 大柿
Original Assignee
Eizo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eizo株式会社 filed Critical Eizo株式会社
Priority to JP2021532563A priority Critical patent/JP7019104B2/ja
Priority to PCT/JP2019/027709 priority patent/WO2021009804A1/ja
Priority to US17/622,493 priority patent/US20220245806A1/en
Publication of WO2021009804A1 publication Critical patent/WO2021009804A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Definitions

  • the present invention relates to a threshold learning method applied to pixels in a mammography image.
  • Breast cancer screening basically uses mammography images to determine calcification and tumors.
  • the density of the mammary glands in the breast is high, it may not be possible to accurately determine calcifications (mostly in Japanese and young people).
  • the interpreting doctor guides the examination subject to perform an ultrasonic diagnosis when it is judged from the mammography image that the mammary gland density is high.
  • there is no clear criterion for determining that the mammary gland density is high and the current situation is that each interpreting doctor has different criteria, which is a problem.
  • Patent Document 1 a technique for calculating the mammary gland density based on the mammary gland ratio has been proposed (for example, Patent Document 1).
  • the mammary gland ratio is calculated by dividing the area of the mammary gland region by the area of the breast region.
  • the mammary gland region is a region of the pixels in the breast region composed of pixels having a pixel value equal to or higher than a threshold value.
  • the mammary gland density can be calculated, for example, by performing threshold processing on the pixels of the mammography image.
  • the threshold value used in the threshold value processing as in Patent Document 1 is acquired by a more objective method. Is desirable.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a threshold learning method capable of more objectively providing a threshold applied to pixels in a mammography image.
  • the present invention is a method of learning a threshold applied to pixels in a mammography image, which includes an acquisition step and a learning step.
  • the mammography image is acquired, and in the learning step, the mammography image is acquired.
  • the relationship between the mammography image and the breast pixel estimation threshold is learned, and the breast pixel estimation threshold is a threshold used when calculating the breast pixel area of each pixel in the breast region of the mammography image, and is the breast pixel area. Is a value indicating the degree of mammography image pixel-likeness of the mammography image, a method is provided.
  • the mammography image and the mammary gland pixel estimation threshold value since the relationship between the mammography image and the mammary gland pixel estimation threshold value is learned in the learning step, a more objective mammary gland pixel estimation threshold value can be provided.
  • it further comprises a mammary gland density acquisition step, in which the acquisition step further acquires the correct mammary gland density of the mammary gland region, and in the mammary gland density acquisition step, said the mammography image and the mammary gland pixel estimation threshold.
  • a method of acquiring the calculated mammary gland density of the mammary gland region and learning the relationship based on the correct mammary gland density and the calculated mammary gland density is provided in the learning step.
  • the mammary gland pixel estimation threshold is a threshold of a predetermined threshold function
  • the mammary gland pixel estimation inclination is ,
  • the inclination of the threshold function in the mammary gland pixel estimation threshold, and the threshold function is a function in which the pixel value of each pixel in the mammary gland region and the mammary gland pixel area of each pixel are associated with each other.
  • the mammary gland pixel area of each pixel in the mammary gland region is calculated based on the threshold function, the mammary gland pixel estimation threshold, and the mammary gland pixel estimation inclination, and the mammary gland pixel area is calculated based on the sum of the mammary gland pixel areas.
  • a method is provided to obtain the calculated mammary gland density.
  • a histogram generation step is further provided, in which the first to third histograms are generated, the first histogram is a histogram of the pixel values of each pixel of the mammography image, and the second histogram is It is a histogram of the pixel value of each pixel of the mammography region, the third histogram is a histogram of the breast region probability of each pixel of the mammography image, and the breast region probability is that each pixel in the mammography image is a mammography region.
  • the learning step a method of learning the relationship between the first to third histograms and the breast pixel estimation threshold is provided.
  • a method in which the mammary gland region is a smaller region than the entire breast contained in the mammography image.
  • it is a method of learning a threshold applied to a pixel in a mammography image, comprising an acquisition step and a learning step, and the acquisition step acquires the mammography image. Then, in the learning step, the relationship between the mammography image and the mammary gland region estimation threshold is learned, and the mammary gland region estimation threshold is a threshold used when calculating the mammary gland region area of each pixel of the mammary gland region of the mammography image.
  • the method is provided, wherein the mammary gland region area is a value indicating the degree of whether or not the pixels of the mammography image constitute the mammary gland region.
  • FIG. 4A is a schematic diagram showing an example of a mammography image.
  • FIG. 4B is a schematic diagram showing an example of a mammography image of the mammary gland region.
  • FIG. 5A is a schematic diagram showing an example of a candidate pixel map.
  • FIG. 5B is a schematic diagram showing an example of a mammary gland region map.
  • FIG. 5C is a schematic diagram showing a mammary gland pixel map.
  • FIG. 6A is a schematic diagram showing an example of a mammary gland region map
  • FIG. 6B is a schematic diagram showing each pixel included in the mammary gland region map shown in FIG. 6A
  • FIG. 7A is a schematic diagram showing a pixel value Pv of each pixel in the mammary gland region map shown in FIG. 6B
  • FIG. 7B is a schematic diagram showing a mammary gland pixel area La of each pixel in the mammary gland region map shown in FIG. 7A.
  • It is explanatory drawing of the 1st threshold value function (sigmoid function) which defines the relationship between the probability P and the mammary gland pixel area La of each pixel in the mammary gland area map.
  • FIG. 14A is a schematic diagram showing an example of a probability map.
  • 14B is a schematic diagram showing an example of a candidate pixel area map. It is explanatory drawing of the 2nd threshold function (sigmoid function) which defines the relationship between the probability P and the mammary gland region area Lb of each pixel in a mammography image. It is a block diagram which shows the structure of the information processing apparatus 1 of 3rd Embodiment, and shows the flow of various data in a learning stage. It is a block diagram which shows the structure of the threshold value estimation part 11 and the structure of post-processing unit 8 of 3rd Embodiment.
  • 2nd threshold function sigmoid function
  • the information processing apparatus 1 of the first embodiment includes a mammary gland region extraction unit 3, a mammary gland pixel area calculation unit 4, a mammary gland density calculation unit 5, and a threshold value estimation unit 11. To be equipped.
  • Each of the above components may be realized by software or hardware.
  • various functions can be realized by the CPU executing a computer program.
  • the program may be stored in a built-in storage unit or may be stored in a computer-readable non-temporary recording medium. Further, the program stored in the external storage unit may be read out and realized by so-called cloud computing.
  • it can be realized by various circuits such as ASIC, FPGA, or DRP.
  • various information and concepts including the various information are dealt with, and these are represented by high and low signal values as a bit set of binary numbers composed of 0 or 1, and are represented by the above software or hardware. Communication and calculation can be executed depending on the mode of the hardware.
  • a mammography image is a digital image composed of a large number of pixels. Each pixel has a luminance value.
  • Mammography images usually include a pectoralis major muscle region G and a breast region B.
  • the pectoralis major muscle region G is a region corresponding to the pectoralis major muscle
  • the breast region B is a region corresponding to the entire breast.
  • the breast region B includes a mammary gland region R.
  • the mammary gland region R is a region narrower than the breast region B.
  • the mammary gland region R includes mammary gland pixels and fat pixels.
  • the mammary gland pixel is a pixel corresponding to the mammary gland
  • the fat pixel is a pixel corresponding to fat and is a pixel other than the mammary gland pixel in the mammary gland region R.
  • the mammary gland region R is a region roughly surrounding the mammary gland pixels.
  • the mammary gland region R is surrounded by a solid line for convenience of illustration, but in the actual mammography image, the solid line surrounding the mammary gland region R does not exist, and the portion corresponding to the mammary gland has high brightness. It is displayed. Since the boundary of the site corresponding to the mammary gland is unclearly distributed like a cloud and it is difficult to uniquely determine the boundary, the first embodiment is based on the probability P of the mammary gland region R. The mammary gland region R is extracted. The solid lines showing the pectoralis major muscle region G and the breast region B are not present in the actual mammography image.
  • the mammary gland region extraction unit 3 includes a pretreatment unit 6, a mammary gland region probability calculation unit 7, and a post-processing unit 8.
  • a pretreatment unit 6 As shown in FIG. 1, the mammary gland region extraction unit 3 includes a pretreatment unit 6, a mammary gland region probability calculation unit 7, and a post-processing unit 8.
  • a mammary gland region probability calculation unit 7 As shown in FIG. 1, the mammary gland region extraction unit 3 includes a pretreatment unit 6, a mammary gland region probability calculation unit 7, and a post-processing unit 8.
  • the preprocessing unit 6 performs various preprocessing on the mammography image.
  • the preprocessing is a process performed to bring the mammography image into a state suitable for processing by the mammary gland region probability calculation unit 7.
  • the preprocessed image is also called a mammography image.
  • the pre-processing unit 6 includes a size matching unit, a window level adjusting unit, and a noise removing unit. A part or all of the pretreatment unit 6 can be omitted when it is not necessary.
  • the size matching section adjusts the size of the mammography image.
  • the resolution of mammography images varies depending on the imaging equipment and settings. This means that the actual size (mm) per pixel differs depending on the input image.
  • the size matching portion is resized to, for example, 0.2 mm per pixel in order to eliminate fluctuations in detection accuracy due to the size difference per pixel.
  • the size matching unit can resize each image to a predetermined uniform image size.
  • Window level adjustment unit adjusts the window level of the mammography image.
  • Window level adjustment is a process for improving the contrast in a specific gradation range of an image having a wide range of gradation values.
  • the visibility of the mammography image can be improved by adjusting the window level. Thereby, the extraction accuracy of the mammary gland region R can be improved.
  • the noise removal section removes noise from mammography images. Some mammography images may reduce the extraction accuracy of the mammary gland region R, which is removed as noise. Examples of noise include artificial labels and pectoralis major muscle region G.
  • the artificial label is an artificially attached label and can be removed by masking.
  • the pectoralis major muscle region G can be removed by a known region expansion method. However, in the first embodiment, since the mammary gland region R can be extracted even when the pectoralis major muscle region G is included, the pectoralis major muscle region G does not have to be treated as noise.
  • the order of size adjustment, window level adjustment, and noise removal can be changed as appropriate.
  • the mammary gland region probability calculation unit 7 calculates the probability P of the mammary gland region R for each of the plurality of divided regions in the mammography image. Specifically, the mammary gland region probability calculation unit 7 generates a probability map in which the probability P, which is the mammary gland region R, is specified for each region. In the first embodiment, the range of the probability map covers the entire area of the mammography image. In the first embodiment, the size matching unit resizes the mammography image (reduces in the first embodiment), and the resized mammography image is input to the mammary gland region probability calculation unit 7, so that the mammography image described above Each of the divided regions is coarser than each pixel of the mammography image.
  • the mammography image processed by the mammary gland region probability calculation unit 7 may be a reduced image of the mammography image acquired by the mammography measurement.
  • the brightness values of the pectoralis major muscle region G and the mammary gland region R are higher than those of other regions (in another expression, the X-ray transmittance is higher than that of other regions). Low).
  • the brightness values of the pectoralis major muscle region G and the mammary gland region R are similar, and it is difficult to distinguish the pectoralis major muscle region G and the mammary gland region R by the brightness values. Therefore, in the first embodiment, the probability P indicating whether or not each pixel included in the mammography image is the mammary gland region R is calculated, and the mammary gland region R is extracted based on the probability P.
  • the probability P is low in the pectoralis major muscle region G and high in the mammary gland region R, the specific accuracy of the mammary gland region R can be improved by extracting the mammary gland region R based on the probability P. Further, the probability P can be calculated without removing the pectoralis major muscle region included in the mammography image.
  • the probability P is expressed by a value in the range of 0 to 1, for example, and the larger the value, the higher the probability that it is a mammary gland region.
  • the probability P can be calculated based on a learning model that inputs a mammography image and outputs the probability P.
  • a complete convolutional network FCN Fely Convolutional Network
  • FCN Fast Convolutional Network
  • the learning model machine learning model
  • Details of FCN are disclosed in Non-Patent Document 1.
  • the learning of the mammary gland region probability calculation unit 7 is completed.
  • the threshold value estimation unit 11 shown in FIG. 1 is in the learning stage, whereas the learning of the mammary gland region probability calculation unit 7 shown in FIG. 1 has already been completed.
  • the weight coefficient of the filter of the neural network of the threshold estimation unit 11 has not been determined and is updated as appropriate, and the weight coefficient of the filter of the neural network of the mammary gland region probability calculation unit 7 has already been determined.
  • the post-processing unit 8 extracts the mammary gland region R based on the probability P.
  • the post-processing unit 8 includes a candidate pixel extraction unit 9 and a region forming unit 10.
  • the candidate pixel extraction unit 9 extracts pixels having a probability P exceeding the mammary gland region estimation threshold Th2 as candidate pixels, generates a candidate pixel map, and outputs the candidate pixel map.
  • the mammary gland region estimation threshold Th2 is a predetermined value.
  • the mammary gland region estimation threshold Th2 may be a fixed value or a value that can be appropriately changed by the user.
  • the candidate pixel map has pixels corresponding to the pixels of the probability map.
  • the value of the pixel having the probability P of the mammary gland region estimation threshold Th2 or more is, for example, 1, and the value of the pixel having the probability P of less than the mammary gland region estimation threshold Th2 is, for example, 0.
  • FIG. 5A An example of a candidate pixel map is shown in FIG. 5A.
  • Candidate pixels are indicated by black dots.
  • the boundaries between the pectoralis major muscle region G, the mammary gland region R, and the breast region B are shown by dotted lines for reference.
  • the candidate pixel map a large number of candidate pixels are extracted in the region corresponding to the mammary gland region R, and a small number of candidate pixels are also extracted in the region corresponding to the pectoralis major muscle region G.
  • a large number of candidate pixels are concentrated in the region corresponding to the mammary gland region R, but a defective region (white region in the mammary gland region R in FIG. 5A) exists between the candidate pixels. Therefore, it cannot be said that the mammary gland region R is a mass as it is.
  • the region forming unit 10 forms the mammary gland region R by removing noise from the candidate pixel map and filling in the missing region.
  • the candidate pixels in the region corresponding to the pectoralis major muscle region G are considered to be noise and are removed by mask processing or the like.
  • the defect region is filled to form the mammary gland region R.
  • the missing area can be filled, for example, by filling the space between the start point and the end point of each of the columns and rows. This gives a mammary gland area map as shown in FIG. 5B. Since the mammary gland region R is formed in a region where candidate pixels are concentrated, it is preferable to ignore candidate pixels far from the region where the candidate pixels are concentrated as noise in the defect region filling step. For example, even if the start point of a column or row is detected, if a predetermined number or more of non-candidate pixels are consecutive after that, the detected start point may be discarded and a new start point may be searched for.
  • the noise removal step can be omitted.
  • the defect region filling step by ignoring the candidate pixels that are far from the region where the candidate pixels are concentrated, the candidate pixels are concentrated in the pectoralis major muscle region G and outside the pectoralis major muscle region G. Candidate pixels existing outside the existing area can be excluded. Therefore, it is possible to form the mammary gland region R in the defect region filling step without separately performing the noise removing step.
  • the mammary gland pixel area calculation unit 4 generates a mammary gland pixel area map as shown in FIG. 7B.
  • the mammary gland pixel area map is a map in which the mammary gland pixel area La is calculated for each pixel in the mammary gland region R.
  • the mammary gland pixel area La is a value indicating the degree of mammary gland pixel-likeness of the pixel.
  • the mammary gland pixel area calculation unit 4 applies the mammary gland area map acquired from the area forming unit 10 of the post-processing unit 8 to the mammography image. As a result, the mammary gland pixel area calculation unit 4 extracts the pixels in the mammary gland region R from the pixels of the mammography image. Note that FIG. 6A schematically shows the mammary gland region R, and FIG. 6B schematically shows the pixels in the mammary gland region R.
  • the mammary gland pixel area calculation unit 4 performs a first pixel area calculation process on the extracted pixels (pixels in the mammary gland region R).
  • the first pixel area calculation process is a process of calculating the mammary gland pixel area La based on the pixel value Pv of the pixels in the mammary gland region R of the mammography image.
  • FIG. 7A schematically shows the pixel value Pv of each extracted pixel.
  • FIG. 7B schematically shows the pixels in the mammary gland region R for which the mammary gland pixel area La was calculated (the first pixel area calculation process was performed).
  • the mammary gland pixel area calculation unit 4 calculates the mammary gland pixel area La using the first threshold function.
  • the first threshold function, the mammary gland pixel area La, and the like will be further described.
  • the mammary gland pixel area calculation unit 4 uses the first threshold function shown in FIG.
  • the first threshold function is a function in which the pixel value Pv of each pixel of the mammary gland region R and the mammary gland pixel area of each pixel of the mammary gland region R are associated with each other.
  • the first threshold function is a function that rapidly rises at the mammary gland pixel estimation threshold Th1.
  • the mammary gland pixel area La becomes 0 or a value close to 0 in the range of the pixel value Pv smaller than the mammary gland pixel estimation threshold Th1, and the mammary gland pixel area in the range of the pixel value Pv larger than the mammary gland pixel estimation threshold Th1.
  • La is 1 or a value close to 1.
  • the mammary gland pixel estimation threshold Th1 is a threshold in the first threshold function.
  • the first threshold function (sigmoid function) of the first embodiment is represented by the formula shown in FIG. 8, and the first threshold function (sigmoid function) of the first embodiment has a mammary gland pixel estimation threshold Th1 and a mammary gland pixel estimation slope a1.
  • the curve shape is determined by determining.
  • the breast pixel estimation inclination a1 corresponds to the inclination of the first threshold function when the pixel value Pv of the first threshold function is the breast pixel estimation threshold Th1.
  • the first threshold function is a sigmoid function, but other functions can also be adopted.
  • a continuous function whose function value changes from 0 to 1 can be adopted as the first threshold value function.
  • the mammary gland pixel area La is a value indicating the degree of mammary gland pixel-likeness.
  • the mammary gland pixel area La of any pixel is 1, the arbitrary pixel can be regarded as the mammary gland pixel itself, and when the mammary gland pixel area La of any pixel is 0. Can be considered that the arbitrary pixel is not a mammary gland pixel.
  • the mammary gland pixel area La can take an intermediate value greater than 0 and less than 1.
  • the mammary gland pixel area calculation unit 4 does not determine whether or not the pixel in the mammography image corresponds to either a mammary gland pixel or not a mammary gland pixel.
  • the mammary gland pixel area La is not a value for clearly distinguishing whether an arbitrary pixel is a mammary gland pixel or not.
  • the mammary gland pixel area La is not calculated for any pixel, but for the pixels in the mammary gland region R. That is, the mammary gland pixel area calculation unit 4 calculates the mammary gland pixel area La in the mammary gland region R based on the pixel value Pv of the pixels in the mammary gland region R of the mammography image.
  • the mammary gland pixel area calculation unit 4 can also generate a mammary gland pixel area map in which the mammary gland pixel area La is calculated for each region of the probability map, but in the first embodiment, the mammary gland pixel area calculation Part 4 generates a mammary gland pixel area map in which the mammary gland pixel area La is calculated for each pixel of the mammary gland image. Then, each pixel of the mammography image is finer than each region related to the probability map. Therefore, the mammary gland pixel area calculation unit 4 can generate a more detailed mammary gland pixel area map.
  • the mammary gland pixel area calculation unit 4 receives the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1 from the threshold value estimation unit 11. Then, the mammary gland pixel area calculation unit 4 is based on the pixel value Pv of the pixels in the mammary gland region R and the first threshold function in which the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1 are substituted. The mammary gland pixel area La of the pixels inside is calculated.
  • the mammary gland pixel estimated inclination a1 is calculated by the threshold estimation unit 11 and the calculated mammary gland pixel estimated inclination a1 is received by the mammary gland pixel area calculation unit 4 will be described as an example. It is not limited.
  • the estimated mammary gland pixel inclination a1 may be a fixed value or a value that can be appropriately changed by the user.
  • the mammary gland density calculation unit 5 calculates the mammary gland density based on the sum of the mammary gland pixel areas La of all the pixels in the mammary gland region R. More specifically, the mammary gland density calculation unit 5 calculates the sum of the mammary gland pixel area La of all the pixels in the mammary gland region R and the number of all pixels in the mammary gland region R, and based on the following formula. , Calculate the mammary gland density.
  • Mammary gland density (%) 100 ⁇ (total number of mammary gland pixel areas La) / (total number of mammary gland area pixels)
  • the mammary gland density calculated by the mammary gland density calculation unit 5 corresponds to the calculated mammary gland density.
  • the mammary gland density calculated by the mammary gland density calculation unit 5 is output from the mammary gland density calculation unit 5 to the threshold value estimation unit 11, and is used to adjust the weight coefficient of the filter of the neural network of the threshold value estimation unit 11. ..
  • the mammary gland density calculated by the mammary gland density calculation unit 5 is utilized as information that can appropriately determine the necessity of ultrasonic examination.
  • the mammary gland density calculated in this way becomes a high value when a dense mammary gland region exists in a narrow region. Therefore, even when a high-density mammary gland region exists in a narrow region, the information processing apparatus 1 according to the first embodiment provides information capable of appropriately determining the necessity of ultrasonic inspection. Can be done.
  • the calculated mammary gland density can be used by displaying it on the display unit of the information processing device 1 or outputting it from the information processing device 1 to an external device.
  • the threshold value estimation unit 11 has a function of calculating a mammary gland pixel estimation threshold Th1 and a mammary gland pixel estimation inclination a1 (see FIG. 8) based on a mammography image or the like in the learning stage and the operation stage. As shown in FIG. 3, the threshold value estimation unit 11 includes an image generation unit 12, a histogram generation unit 13, an estimation threshold value calculation unit 14, and an error calculation unit 15.
  • the image generation unit 12 generates a mammography image of the mammary gland region based on the mammography image.
  • the mammary gland region mammography image shown in FIG. 4B is composed of pixels of the mammary gland region R in the mammography image.
  • the image generation unit 12 can generate a mammography image of the mammary gland region based on the mammary gland region map and the mammography image.
  • the histogram generation unit 13 generates the first to third histograms. Specifically, the histogram generation unit 13 generates a first histogram based on the mammography image, generates a second histogram based on the mammography image of the mammary gland region generated by the image generation unit 12, and calculates the probability of the mammary gland region. A third histogram is generated based on the probability map generated in 7.
  • the first histogram is a histogram of the pixel values of each pixel in the mammography image.
  • a plurality of pixel values or a range of pixel values are predetermined, and the number of pixels belonging to the predetermined pixel value or the range of the pixel values is specified.
  • the second histogram is a histogram of the pixel values of each pixel in the mammary gland region mammography image generated by the image generation unit 12.
  • a plurality of pixel values or a range of pixel values are predetermined, and the number of pixels belonging to the predetermined pixel value or the range of the pixel values is specified.
  • the third histogram is a histogram of the probability P of each pixel in the mammography image.
  • a plurality of ranges of probability P or probability P are predetermined, and the number of pixels belonging to the predetermined range of probability P or probability P is specified.
  • the estimation threshold value calculation unit 14 has a function of learning the relationship between the mammography image and the values related to the first threshold value (mammary gland pixel estimation threshold Th1 and mammary gland pixel estimation inclination a1).
  • the estimation threshold calculation unit 14 uses, in addition to the mammography image, a probability map generated from the mammography image and a mammary gland region mammography image generated from the mammography image for learning.
  • the estimation threshold value calculation unit 14 has a neural network, and when a mammography image is input, the estimation threshold value calculation unit 14 performs learning based on a learning model that outputs a mammary gland pixel estimation threshold Th1 and a mammary gland pixel estimation inclination a1. .. Further, the weighting coefficient of the filter of the neural network of the estimation threshold value calculation unit 14 is appropriately updated based on the error calculated by the error calculation unit 15. Specifically, as shown in FIG. 1, when the estimation threshold calculation unit 14 outputs the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1, then the mammary gland pixel area calculation unit 4 is based on the first threshold function.
  • the mammary gland pixel area La of each pixel of the mammary gland region R is calculated to generate a mammary gland pixel area map.
  • the mammary gland density calculation unit 5 calculates the mammary gland density based on the mammary gland pixel area map.
  • the calculated mammary gland density is output to the threshold value estimation unit 11 and compared with the correct answer density data described later.
  • the estimation threshold value calculation unit 14 receives the difference (error) between the mammary gland density calculated by the mammary gland density calculation unit 5 and the correct answer density data from the error calculation unit 15.
  • the weighting coefficient of the filter of the neural network of the estimation threshold value calculation unit 14 is appropriately updated based on this error.
  • the image data is not input to the estimation threshold value calculation unit 14, but the first to third histograms are input. Therefore, the calculation load of the neural network of the estimation threshold value calculation unit 14 is suppressed.
  • the error calculation unit 15 compares the correct answer density data (correct answer mammary gland density) input to the information processing device 1 with the mammary gland density calculated by the mammary gland density calculation unit 5. That is, the error calculation unit 15 calculates the difference (error) between the correct answer density and the calculated mammary gland density.
  • the correct answer density data is the correct answer data in which the mammary gland density is determined by a doctor or the like. That is, the correct answer density data is a value of the mammary gland density calculated by a doctor or the like visually observing the corresponding mammography image.
  • the error calculation unit 15 outputs the calculated difference (error) to the estimation threshold value calculation unit 14.
  • the learning method of the first embodiment includes an acquisition step, a probability map generation step, a mammary gland region extraction step, an image generation step, a histogram generation step, a learning step, a mammary gland pixel area map generation step, and a mammary gland density acquisition. With steps.
  • the information processing device 1 acquires a mammography image.
  • the mammary gland region extraction unit 3, the mammary gland pixel area calculation unit 4, and the threshold value estimation unit 11 receive the mammography image.
  • the information processing device 1 acquires the correct answer density data.
  • the error calculation unit 15 receives the correct answer density data.
  • the mammary gland region probability calculation unit 7 In the probability map generation step, the mammary gland region probability calculation unit 7 generates a probability map based on the preprocessed mammography image. The mammary gland region probability calculation unit 7 outputs the probability map to the post-processing unit 8 and the threshold value estimation unit 11.
  • the candidate pixel extraction unit 9 In the mammary gland region extraction step, the candidate pixel extraction unit 9 generates a candidate pixel map based on the probability map, and the region formation unit 10 generates a mammary gland region map based on the candidate pixel map.
  • the region forming unit 10 outputs the mammary gland region map to the mammary gland pixel area calculation unit 4 and the threshold value estimation unit 11.
  • the image generation unit 12 generates a mammography image of the mammary gland region based on the mammography image acquired in the acquisition step.
  • the histogram generation unit 13 generates the first to third histograms based on the mammography image. More specifically, in the histogram generation step, the histogram generation unit 13 is based on the mammography image acquired in the acquisition step, the mammary gland region mammography image generated in the image generation step, and the probability map generated in the probability map generation step. To generate the first to third histograms. The histogram generation unit 13 outputs the first to third histograms to the estimation threshold value calculation unit 14.
  • the estimation threshold value calculation unit 14 learns the relationship between the mammography image and the mammary gland pixel estimation threshold value Th1. Since the mammary gland pixel estimation inclination a1 is also a learning target in the first embodiment, more specifically, the estimation threshold calculation unit 14 determines the relationship between the mammography image and the mammary gland pixel estimation threshold Th1 and the mammography image and the mammary gland. The relationship with the pixel estimated inclination a1 is being learned.
  • the neural network of the estimation threshold value calculation unit 14 is not a configuration for processing the mammography image itself but a configuration for processing a histogram from the viewpoint of suppressing the calculation load. That is, the estimation threshold value calculation unit 14 learns the relationship between the first to third histograms generated in the histogram generation step and the mammary gland pixel estimation threshold Th1 and the like.
  • the error calculated by the error calculation unit 15 is input to the estimation threshold value calculation unit 14.
  • This error corresponds to the difference between the mammary gland density acquired in the mammary gland density acquisition step described later and the correct answer density data.
  • the weighting coefficient of the filter of the estimation threshold value calculation unit 14 is appropriately updated, and the accuracy of the output of the estimation threshold value calculation unit 14 (mammary gland pixel estimation threshold value Th1 and mammary gland pixel estimation inclination a1) is improved.
  • the mammary gland density calculated by the information processing device 1 is calculated based on the mammary gland pixel estimation threshold Th1 and the like, and the mammary gland density calculated by the information processing device 1 is compared with the correct answer density data as correct answer data, and the estimated threshold value calculation unit 14
  • the mammary gland pixel area calculation unit 4 has a mammary gland pixel area based on the mammography image acquired in the acquisition step, the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1 calculated in the learning step. Generate a map.
  • the mammary gland density calculation unit 5 acquires the mammary gland density based on the mammary gland pixel area map. The mammary gland density calculation unit 5 outputs the calculated mammary gland density to the error calculation unit 15 of the threshold value estimation unit 11.
  • the operation method (mammary gland density acquisition method) of the first embodiment includes an acquisition step, a probability map generation step, a mammary gland region extraction step, an image generation step, a histogram generation step, a threshold / inclination calculation step, and a mammary gland. It includes a pixel area map generation step and a mammary gland density acquisition step.
  • the probability map generation step, the mammary gland region extraction step, the image generation step, the histogram generation step, the mammary gland pixel area map generation step, and the mammary gland density acquisition step are the same as those in the learning step.
  • the method of calculating the mammary gland pixel in the operation stage includes a threshold value / inclination calculation step instead of the learning step.
  • the information processing device 1 does not acquire the correct answer density data.
  • the weighting coefficient of the filter of the estimation threshold calculation unit 14 is fixed. That is, since the error calculation unit 15 does not calculate the error, the estimation threshold value calculation unit 14 does not acquire the error from the error calculation unit 15.
  • the estimation threshold value calculation unit 14 outputs the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1 when the first to third histograms are input.
  • the information processing device 1 displays the mammary gland density acquired in the mammary gland density acquisition step on the display unit of the information processing device 1 or outputs it from the information processing device 1 to an external device.
  • Example 1-3-1 Modified Example 1: Parallel learning of a plurality of functional blocks
  • the information processing apparatus 1 may be configured such that the threshold value estimation unit 11 and the mammary gland region probability calculation unit 7 learn in parallel.
  • the input data of the threshold value estimation unit 11 is a histogram (first to third histograms) has been described as an example, but the present invention is limited to this. It is not something that is done.
  • the input data of the threshold estimation unit 11 may be a mammography image, a mammary gland region mammography image, and a probability map.
  • CNN Convolutional Neural Network
  • CNN convolutional Neural Network
  • the calculation load of the estimation threshold value calculation unit 14 increases as compared with the embodiment, but the accuracy of the calculated mammary gland pixel estimation threshold Th1 and the like further increases, and the accuracy of the calculated mammary gland density also increases. A further increasing effect can be expected.
  • the error calculation unit 15 calculates and estimates the error between the calculated mammary gland density and the correct mammary gland density (correct density data).
  • the threshold calculation unit 14 learns the relationship between the mammography image (first to third histograms in the embodiment) and the mammary gland pixel estimation threshold based on this error, but the present invention is not limited to this. ..
  • the relationship between the mammography image and the mammary gland pixel estimation threshold is learned based on the correct mammary gland density and the calculated mammary gland density, but the learning step is limited to this. is not.
  • the error calculation unit 15 calculates an error between the mammary gland pixel estimation threshold value calculated by the estimation threshold value calculation unit 14 and the correct mammary gland pixel estimation threshold value, and the estimation threshold value calculation unit 14 calculates the mammography image and the mammary gland based on this error.
  • the mammary gland pixel estimation threshold value that becomes the mammary gland density can be calculated back. is there. Since the back-calculated mammary gland pixel estimation threshold value is a value obtained corresponding to the correct answer mammary gland density as correct answer data, the back-calculated mammary gland pixel estimation threshold value is referred to as a correct answer mammary gland pixel estimation threshold value in Modification 3.
  • the threshold value estimation unit 11 further includes a correct answer data acquisition unit (not shown), and the correct answer data acquisition unit back-calculates the correct mammary gland pixel estimation threshold value based on the correct mammary gland density to acquire the correct mammary gland pixel estimation threshold value. .. Then, the error calculation unit 15 calculates the error between the mammary gland pixel estimation threshold value calculated by the estimation threshold value calculation unit 14 and the correct mammary gland pixel estimation threshold value acquired by the correct answer mammary gland pixel estimation threshold value, and the estimation threshold value calculation unit 14 calculates this error. Based on the error, the relationship between the mammography image and the mammary gland pixel assumption threshold is learned.
  • the mammary gland pixel estimation threshold value may be regarded as a value that includes not only the threshold value but also the inclination corresponding to the mammary gland pixel estimation inclination.
  • the threshold value in the mammary gland pixel estimation threshold value may be a predetermined value
  • the slope included in the mammary gland pixel estimation threshold value may be a value calculated by the estimation threshold value calculation unit 14.
  • the correct mammary gland pixel estimation inclination can be calculated back in the same manner as the correct mammary gland pixel estimation threshold value described above.
  • the error calculation unit 15 calculates an error between the inclination calculated by the estimation threshold calculation unit 14 and the correct mammary gland pixel estimation inclination, and the estimation threshold calculation unit 14 calculates the mammography image and the above-mentioned inclination based on this error. Learn the relationship with the assumed threshold of mammary gland pixels including.
  • the first embodiment is a form in which the mammary gland pixel area La of the pixels in the mammary gland region R of the mammography image is calculated.
  • the mammary gland pixel area La is the degree of mammary gland-likeness of the pixels in the mammary gland region R, as described in the first embodiment.
  • the threshold value estimation unit 11 can calculate the mammary gland pixel area La by learning the relationship between the mammography image and the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1.
  • the second embodiment is a form in which the mammary gland area Lb of each pixel in the probability map is calculated.
  • the breast region area Lb is a value indicating the degree of whether or not the pixels in the probability map (in the mammography image) constitute the breast region R.
  • the mammary gland area Lb is a value indicating the degree of whether or not the pixels in the probability map are included in the mammary gland area R.
  • a pixel having a large mammary gland area Lb is likely to be a candidate pixel, and conversely, a pixel having a small mammary gland area Lb is unlikely to be a candidate pixel.
  • the threshold value estimation unit 11 can calculate the mammary gland area area Lb by learning the relationship between the mammography image and the mammary gland region estimation threshold Th2 and the mammary gland region estimation inclination a2. it can.
  • the post-processing unit 8 acquires the mammary gland area area Lb (mammary gland area area map) shown in FIG. 14B based on the probability P (probability map) shown in FIG. 14A. Then, the post-processing unit 8 extracts the mammary gland region R based on the mammary gland region area Lb (candidate pixel area map).
  • the post-processing unit 8 includes a mammary gland area area calculation unit 9B instead of the candidate pixel extraction unit 9.
  • the mammary gland area area calculation unit 9B generates a mammary gland area area map as shown in FIG. 14B.
  • the mammary gland area area map is a map in which the mammary gland area area Lb is calculated for each pixel in the probability map.
  • the pixel shown in gray in the substantially center is a schematic representation of the pixel corresponding to the mammary gland region R.
  • the pixel shown in gray has a larger value of the mammary gland area Lb than the pixel shown in white.
  • the mammary gland area area calculation unit 9B performs a second pixel area calculation process for each pixel in the probability map.
  • the second pixel area calculation process is a process of calculating the mammary gland area Lb based on the probability P of each pixel. As shown in FIGS. 14A and 14B, the second pixel area calculation process is performed on the probabilities P of each pixel in the probability map (only the probabilities P1 to P5 are shown in FIG. 14A), and the mammary gland area Lb ( In FIG. 14B, only the mammary gland pixel areas Lb1 to Lb5 are shown). The mammary gland area Lb is calculated based on the second threshold function shown in FIG.
  • the mammary gland area area calculation unit 9B uses the second threshold function shown in FIG.
  • the second threshold function is a function in which the probability P of each pixel and the mammary gland area Lb of each pixel are associated with each other.
  • the second threshold function is a function that rapidly rises at the mammary gland region estimation threshold Th2.
  • the mammary gland area Lb is 0 or a value close to 0 in the range of pixel values smaller than the mammary gland region estimation threshold Th2, and the mammary gland area Lb is in the range of pixel values larger than the mammary gland region estimation threshold Th2. It is 1 or a value close to 1.
  • the mammary gland region estimation threshold Th2 is a threshold in the second threshold function.
  • the second threshold function is a sigmoid function, but other functions can also be adopted.
  • the second threshold value function (sigmoid function) of the second embodiment is represented by the formula shown in FIG.
  • the curve shape of the second threshold value function is determined by determining the mammary gland region estimation threshold value Th2 and the mammary gland region estimation slope a2. Will be done.
  • the mammary gland region estimation inclination a2 corresponds to the inclination of the second threshold function when the pixel value of the second threshold function is the mammary gland region estimation threshold Th2.
  • the mammary gland area Lb is a value indicating the degree of whether or not the pixels in the probability map are included in the mammary gland area R.
  • the mammary gland area Lb of any pixel is 1, the arbitrary pixel can be regarded as the candidate pixel itself of the mammary gland region, and the mammary gland area Lb of any pixel is 0.
  • the arbitrary pixel can be considered not to be a candidate pixel.
  • the mammary gland area Lb can take an intermediate value greater than 0 and less than 1.
  • the mammary gland area area calculation unit 9B determines whether or not the pixel in the probability map corresponds to either a candidate pixel of the mammary gland region or not a candidate pixel of the mammary gland region. Do not mean.
  • the mammary gland region area Lb is not a value for clearly distinguishing whether an arbitrary pixel is a candidate pixel or not a candidate pixel.
  • the mammary gland area Lb is calculated for each pixel in the entire mammography image.
  • the mammary gland area area calculation unit 9B receives the mammary gland area estimation threshold Th2 and the mammary gland area estimation inclination a2 from the threshold value estimation unit 11. Then, the mammary gland area area calculation unit 9B is based on the probability P of the pixels in the probability map and the second threshold function in which the mammary gland region estimation threshold Th2 and the mammary gland region estimation inclination a2 are substituted, and the pixels in the probability map.
  • the mammary gland region area Lb of is calculated.
  • the estimated mammary gland region inclination a2 may be a fixed value or a value that can be appropriately changed by the user.
  • the region forming portion 10 forms a mammary gland region based on the mammary gland region area map.
  • various methods can be adopted.
  • the mammary gland area area calculation unit 9B determines that among the pixels of the mammary gland area area map, the pixel having the mammary gland area area Lb larger than the predetermined threshold value is the candidate pixel described in the first embodiment.
  • a candidate pixel map is generated, and the region forming unit 10 can form the mammary gland region R by removing noise and filling the missing region in the candidate pixel map.
  • the mammary gland area Lb is calculated based on the threshold function (sigmoid function in the second embodiment), most of the mammary gland area Lb is a value close to 0 or 0, or a value close to 1 or 1. .. Therefore, if a predetermined threshold value is set to a value such as 0.5 or the like, the mammary gland area area calculation unit 9B can appropriately generate a candidate pixel map.
  • the region forming portion 10 may form the mammary gland region R based on the mammary gland region area map by performing, for example, filtering the mammary gland region area map.
  • the mammary gland pixel area calculation unit 4 generates a mammary gland area area map as shown in FIG. 7B.
  • the mammary gland pixel area calculation unit 4 generates a mammary gland area area map using a predetermined mammary gland pixel estimation threshold Th1 and a mammary gland pixel estimation inclination a1. That is, in the first embodiment, the mammary gland pixel area calculation unit 4 has acquired the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1 from the threshold value estimation unit 11, but in the second embodiment, it is predetermined. The value.
  • the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1 may be fixed values or may be values that can be appropriately changed by the user.
  • the mammary gland pixel area calculation unit 4 acquires a mammary gland area map from the post-processing unit 8. Then, the mammary gland pixel area calculation unit 4 performs the first pixel area calculation process on the pixels in the mammary gland region R. That is, the mammary gland pixel area calculation unit 4 calculates the mammary gland pixel area La based on the pixel values of the pixels in the mammary gland region R and the first threshold function in which the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1 are substituted. calculate.
  • the method of calculating the mammary gland density is the same as that of the first embodiment.
  • the mammary gland density calculation unit 5 calculates the mammary gland density based on the sum of the mammary gland pixel areas La of all the pixels in the mammary gland region R. More specifically, the mammary gland density calculation unit 5 calculates the sum of the mammary gland pixel area La of all the pixels in the mammary gland region R and the number of all pixels in the mammary gland region R, and based on the following formula. , Calculate the mammary gland density.
  • Mammary gland density (%) 100 ⁇ (total number of mammary gland pixel areas La) / (total number of mammary gland area pixels)
  • the mammary gland area map of the post-processing unit 8 is output to the mammary gland pixel area calculation unit 4, the mammary gland pixel area calculation unit 4 generates a mammary gland pixel area map based on the mammary gland area map, and the mammary gland density.
  • the calculation unit 5 calculates the mammary gland density based on the mammary gland pixel area map.
  • the threshold value estimation unit 11 has a function of calculating the mammary gland region estimation threshold Th2 and the mammary gland region estimation inclination a2 based on a mammography image or the like in the learning stage and the operation stage.
  • the estimation threshold calculation unit 14 has a function of learning the relationship between the mammography image and the values related to the second threshold function (mammary gland region estimation threshold Th2 and mammary gland region estimation inclination a2).
  • the estimation threshold calculation unit 14 uses, in addition to the mammography image, a probability map generated from the mammography image and a mammary gland region mammography image generated from the mammography image for learning.
  • the estimation threshold value calculation unit 14 learns based on a learning model that outputs a mammary gland region estimation threshold Th2 and a mammary gland region estimation inclination a2. Further, the weighting coefficient of the filter of the neural network of the estimation threshold value calculation unit 14 is appropriately updated based on the error calculated by the error calculation unit 15. As shown in FIGS. 11 and 13, when the estimation threshold value calculation unit 14 outputs the mammary gland region estimation threshold value Th2 and the mammary gland region estimation inclination a2, the post-processing unit 8 then performs the mammary gland region area based on the second threshold value function.
  • Lb is calculated to generate a mammary gland area area map
  • the post-processing unit 8 generates a mammary gland area map based on the mammary gland area area map.
  • This generated mammary gland region map is output to the threshold value estimation unit 11 and compared with the correct mammary gland region data described later.
  • the estimation threshold value calculation unit 14 receives the difference (error) between the mammary gland region map generated by the post-processing unit 8 and the correct mammary gland region data from the error calculation unit 15. As a result, the weighting coefficient of the filter of the neural network of the estimation threshold value calculation unit 14 is appropriately updated based on this error.
  • the error calculation unit 15 compares the correct mammary gland region data (correct mammary gland region) input to the information processing device 1 with the mammary gland region map generated by the post-processing unit 8.
  • the correct mammary gland region data is the correct answer data in which whether or not it is a mammary gland region is determined by a doctor or the like. That is, the correct mammary gland region data is determined by a doctor or the like visually observing the corresponding mammography image to determine whether or not it is a mammary gland region.
  • the error calculation unit 15 outputs the calculated difference (error) to the estimation threshold value calculation unit 14.
  • the learning method of the second embodiment includes an acquisition step, a probability map generation step, a mammary gland region extraction step, an image generation step, a histogram generation step, a learning step, a mammary gland pixel area map generation step, and a mammary gland density acquisition. With steps.
  • the information processing device 1 acquires a mammography image.
  • the mammary gland region extraction unit 3, the mammary gland pixel area calculation unit 4, and the threshold value estimation unit 11 receive the mammography image. Further, in the acquisition step, the information processing device 1 acquires the correct mammary gland region data. Further, in the acquisition step, the error calculation unit 15 receives the correct mammary gland region data.
  • the mammary gland region probability calculation unit 7 In the probability map generation step, the mammary gland region probability calculation unit 7 generates a probability map based on the preprocessed mammography image.
  • the mammary gland region probability calculation unit 7 outputs the probability map to the post-processing unit 8 and the threshold value estimation unit 11.
  • the mammary gland region extraction step has a mammary gland area map generation step and a mammary gland region map generation step.
  • the post-processing unit 8 generates a mammary gland area area map based on the probability map.
  • the post-processing unit 8 generates a mammary gland area map based on the mammary gland area area map, and the post-processing unit 8 uses the mammary gland area map as the mammary gland pixel area calculation unit 4 and the threshold estimation. Output to unit 11.
  • the image generation unit 12 generates a mammography image of the mammary gland region based on the mammography image acquired in the acquisition step.
  • the histogram generation unit 13 generates the first to third histograms based on the mammography image. More specifically, in the histogram generation step, the histogram generation unit 13 is based on the mammography image acquired in the acquisition step, the mammary gland region mammography image generated in the image generation step, and the probability map generated in the probability map generation step. To generate the first to third histograms. The histogram generation unit 13 outputs the first to third histograms to the estimation threshold value calculation unit 14.
  • the estimation threshold calculation unit 14 learns the relationship between the mammography image and the mammary gland region estimation threshold Th2. Since the mammary gland region estimation inclination a2 is also a learning target in the second embodiment, more specifically, the estimation threshold calculation unit 14 describes the relationship between the mammography image and the mammary gland region estimation threshold Th2, and the mammography image and the mammary gland. The relationship with the region estimation inclination a2 is being learned.
  • the error calculated by the error calculation unit 15 is input to the estimation threshold value calculation unit 14.
  • This error corresponds to the difference between the breast region map generated in the breast region map generation step and the correct breast region data.
  • the weight coefficient of the filter of the estimation threshold value calculation unit 14 is appropriately updated, and the accuracy of the output of the estimation threshold value calculation unit 14 (mammary gland region estimation threshold value Th2 and mammary gland region estimation inclination a2) is improved.
  • the mammary gland region map generated by the post-processing unit 8 is calculated based on the mammary gland region estimation threshold Th2 and the like, and the mammary gland region map generated by the post-processing unit 8 is compared with the correct mammary gland region data as the correct answer data, and the estimated threshold value.
  • the weighting coefficient of the filter of the calculation unit 14 is updated as appropriate.
  • the estimation threshold value calculation unit 14 learns the relationship between the mammography image and the mammary gland region estimation threshold Th2, and can calculate a more objective mammary gland region estimation threshold Th2.
  • the mammary gland pixel area calculation unit 4 substitutes the mammography image acquired in the acquisition step, the mammary gland area map acquired from the post-processing unit 8, the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1.
  • a mammary gland pixel area map is generated based on the first threshold function.
  • the mammary gland density calculation unit 5 calculates the mammary gland density based on the mammary gland pixel area map.
  • the operation method (mammary gland density acquisition method) of the second embodiment includes an acquisition step, a probability map generation step, a mammary gland region extraction step, an image generation step, a histogram generation step, a threshold / inclination calculation step, and a mammary gland. It includes a pixel area map generation step and a mammary gland density acquisition step.
  • the probability map generation step, the mammary gland area extraction step, the mammary gland area extraction step, the mammary gland area area image generation step, the histogram generation step, the mammary gland pixel area map generation step, and the mammary gland density acquisition step are the same as those in the learning step.
  • a threshold / slope calculation step is provided instead of the learning step.
  • the information processing device 1 does not acquire the correct mammary gland region data.
  • the weighting coefficient of the filter of the estimation threshold calculation unit 14 is fixed. That is, since the error calculation unit 15 does not calculate the error, the estimation threshold value calculation unit 14 does not acquire the error from the error calculation unit 15.
  • the estimation threshold value calculation unit 14 outputs the mammary gland region estimation threshold Th2 and the mammary gland region estimation inclination a2 when the first to third histograms are input.
  • the information processing device 1 displays the mammary gland density calculated in the mammary gland density acquisition step on the display unit of the information processing device 1 or outputs the mammary gland density from the information processing device 1 to an external device.
  • the estimation threshold value calculation unit 14 may be configured to learn the mammary gland pixel estimation threshold Th1 and the mammary gland pixel estimation inclination a1 and the mammary gland region estimation threshold Th2 and the mammary gland region estimation inclination a2.
  • the error calculation unit 15 has a first error, which is an error between the mammary gland density calculated by the mammary gland density calculation unit 5 and the correct answer density data, and a mammary gland region map generated by the post-processing unit 8.
  • the second error which is the error between the correct mammary gland region data and the correct answer, are calculated. Then, the weighting coefficient of the filter of the neural network of the estimation threshold value calculation unit 14 is appropriately updated based on the first and second errors calculated by the error calculation unit 15.
  • 1 Information processing device
  • 3 Mammary gland region extraction unit
  • 4 Mammary gland pixel area calculation unit
  • 5 Mammary gland density calculation unit
  • 6 Pretreatment unit
  • 7 Mammary gland region probability calculation unit
  • 8 Post-processing unit
  • 9 Candidate pixel extraction unit
  • 9B mammary gland region area calculation unit
  • 10 region formation unit
  • 11 threshold estimation unit
  • 12 image generation unit
  • 13 histogram generation unit
  • 14 estimation threshold calculation unit
  • 15 error calculation unit
  • B breast region
  • G mammary muscle region
  • La mammary gland pixel area
  • Lb mammary gland region area
  • P probability
  • R mammary gland region
  • Th1 mammary gland pixel estimation threshold
  • Th2 mammary gland region estimation threshold
  • a1 mammary gland Estimated pixel tilt
  • a2 Estimated breast region tilt

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

マンモグラフィ画像中の画素に適用される閾値をより客観的に提供することができる、閾値の学習方法を提供することを目的としている。 マンモグラフィ画像中の画素に適用される閾値の学習方法であって、取得ステップと、学習ステップとを備え、前記取得ステップでは、前記マンモグラフィ画像を取得し、前記学習ステップでは、前記マンモグラフィ画像と乳腺画素推定閾値との関係を学習し、前記乳腺画素推定閾値は、前記マンモグラフィ画像の乳腺領域の各画素の乳腺画素面積を算出するときに用いられる閾値であり、前記乳腺画素面積は、前記マンモグラフィ画像の画素の乳腺画素らしさの度合いを示す値である、方法が提供される。

Description

閾値の学習方法
 本発明は、マンモグラフィ画像中の画素に適用される閾値の学習方法に関する。
 乳がん検診は基本的にはマンモグラフィ画像により石灰化や腫瘤等の判定を行っている。しかし、***内の乳腺の密度が高い場合、石灰化物等を精度良く判断できないことがある(日本人や若年層に多い)。この場合、乳腺の影響を受けにくい超音波による検査を並行することで、費用は高くなるがより精度の高い検診が行われる。そこで読影医はマンモグラフィ画像から検査対象者の乳腺密度が高いと判断すると超音波診断を行うように誘導している。このとき、「乳腺密度が高い」とする明確な判断基準はなく、各読影医によりばらばらなのが現状であり、課題となっている。
 例えば、乳腺割合に基づいて乳腺密度を算出する技術が提案されている(例えば、特許文献1)。特許文献1において、乳腺割合は、乳腺領域の面積を***領域の面積で除算することにより算出される。また、乳腺領域は、***領域中の画素のうち画素値が閾値以上の画素からなる領域である。このように、乳腺密度は、例えば、マンモグラフィ画像の画素に閾値処理を実施することで算出可能である。
特開2016-158963号
Fully Convolutional Networks for Semantic Segmentation, IEEE Transactions on Pattern Analysis and Machine Intelligence ( Volume: 39, Issue: 4, April 1 2017 )
 例えば乳腺密度や乳腺密度を算出する過程で算出される各種の値の算出精度向上の観点から、例えば特許文献1のような閾値処理で用いられる閾値は、より客観的な方法で取得されることが望ましい。
 本発明はこのような事情に鑑みてなされたものであり、マンモグラフィ画像中の画素に適用される閾値をより客観的に提供することができる、閾値の学習方法を提供することを目的としている。
 本発明によれば、マンモグラフィ画像中の画素に適用される閾値の学習方法であって、取得ステップと、学習ステップとを備え、前記取得ステップでは、前記マンモグラフィ画像を取得し、前記学習ステップでは、前記マンモグラフィ画像と乳腺画素推定閾値との関係を学習し、前記乳腺画素推定閾値は、前記マンモグラフィ画像の乳腺領域の各画素の乳腺画素面積を算出するときに用いられる閾値であり、前記乳腺画素面積は、前記マンモグラフィ画像の画素の乳腺画素らしさの度合いを示す値である、方法が提供される。
 本発明では、学習ステップにおいてマンモグラフィ画像と乳腺画素推定閾値との関係を学習するので、より客観的な乳腺画素推定閾値を提供することができる。
 以下、本発明の種々の実施形態を例示する。以下に示す実施形態は互いに組み合わせ可能である。
 好ましくは、乳腺密度取得ステップを更に備え、前記取得ステップでは、前記乳腺領域の正解乳腺密度を更に取得し、前記乳腺密度取得ステップでは、前記マンモグラフィ画像と、前記乳腺画素推定閾値とに基づいて前記乳腺領域の算出乳腺密度を取得し、前記学習ステップでは、前記正解乳腺密度と前記算出乳腺密度とに基づいて前記関係を学習する、方法が提供される。
 好ましくは、前記学習ステップでは、前記マンモグラフィ画像と、乳腺画素推定傾きとの関係を更に学習し、前記乳腺画素推定閾値は、予め定められている閾値関数の閾値であり、前記乳腺画素推定傾きは、前記閾値関数の前記乳腺画素推定閾値における傾きであり、前記閾値関数は、前記乳腺領域の各画素の画素値と、当該各画素の前記乳腺画素面積とが関連付けられた関数であり、前記乳腺密度取得ステップでは、前記閾値関数と前記乳腺画素推定閾値と前記乳腺画素推定傾きとに基づいて、前記乳腺領域の各画素の前記乳腺画素面積を算出し、前記乳腺画素面積の総和に基づいて前記算出乳腺密度を取得する、方法が提供される。
 好ましくは、ヒストグラム生成ステップを更に備え、前記ヒストグラム生成ステップでは、第1~第3ヒストグラムが生成され、第1ヒストグラムは、前記マンモグラフィ画像の各画素の画素値のヒストグラムであり、第2ヒストグラムは、前記乳腺領域の各画素の画素値のヒストグラムであり、第3ヒストグラムは、前記マンモグラフィ画像の各画素の乳腺領域確率のヒストグラムであり、前記乳腺領域確率は、前記マンモグラフィ画像中の各画素が乳腺領域である確率を示し、前記学習ステップでは、第1~第3ヒストグラムと、前記乳腺画素推定閾値との前記関係を学習する、方法が提供される。
 好ましくは、前記乳腺領域は、前記マンモグラフィ画像に含まれる***全体よりも狭い領域である、方法が提供される。
 本発明の実施形態の別の観点によれば、マンモグラフィ画像中の画素に適用される閾値の学習方法であって、取得ステップと、学習ステップとを備え、前記取得ステップでは、前記マンモグラフィ画像を取得し、前記学習ステップでは、前記マンモグラフィ画像と乳腺領域推定閾値との関係を学習し、前記乳腺領域推定閾値は、前記マンモグラフィ画像の乳腺領域の各画素の乳腺領域面積を算出するときに用いられる閾値であり、前記乳腺領域面積は、前記マンモグラフィ画像の画素が乳腺領域を構成するか否かの度合いを示す値である、方法が提供される。
第1実施形態の情報処理装置1の構成を示すブロック図であり、学習段階における各種データの流れを示している。 図1に示すブロック図に関して、運用段階における各種データの流れを示している。 閾値推定部11の構成を示すブロック図である。 図4Aはマンモグラフィ画像の例を示す模式図である。図4Bは乳腺領域マンモグラフィ画像の例を示す模式図である。 図5Aは候補画素マップの例を示す模式図である。図5Bは乳腺領域マップの例を示す模式図である。図5Cは乳腺画素マップを示す模式図である。 図6Aは乳腺領域マップの例を示す模式図であり、図6Bは図6Aに示す乳腺領域マップ中に含まれる各画素を示す模式図である。 図7Aは図6Bに示す乳腺領域マップ中の各画素の画素値Pvを示し、図7Bは図7Aに示す乳腺領域マップ中の各画素の乳腺画素面積Laを示す模式図である。 確率Pと、乳腺領域マップ中の各画素の乳腺画素面積Laとの関係を規定する第1閾値関数(シグモイド関数)の説明図である。 第1実施形態の変形例1の情報処理装置1の構成を示すブロック図であり、学習段階における各種データの流れを示している。 第1実施形態の変形例2の閾値推定部11の構成を示すブロック図である。 第2実施形態の情報処理装置1の構成を示すブロック図であり、学習段階における各種データの流れを示している。 図11に示すブロック図に関して、運用段階における各種データの流れを示している。 第2実施形態の閾値推定部11の構成及び後処理部8の構成を示すブロック図である。 図14Aは確率マップの例を示す模式図である。図14Bは候補画素面積マップの例を示す模式図である。 確率Pと、マンモグラフィ画像中の各画素の乳腺領域面積Lbとの関係を規定する第2閾値関数(シグモイド関数)の説明図である。 第3実施形態の情報処理装置1の構成を示すブロック図であり、学習段階における各種データの流れを示している。 第3実施形態の閾値推定部11の構成及び後処理部8の構成を示すブロック図である。
 以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。また、各特徴事項について独立して発明が成立する。
1 第1実施形態
 第1実施形態の情報処理装置1は、図1に示すように、乳腺領域抽出部3と、乳腺画素面積算出部4と、乳腺密度算出部5と、閾値推定部11とを備える。
 上記の各構成要素は、ソフトウェアによって実現してもよく、ハードウェアによって実現してもよい。ソフトウェアによって実現する場合、CPUがコンピュータプログラムを実行することによって各種機能を実現することができる。プログラムは、内蔵の記憶部に格納してもよく、コンピュータ読み取り可能な非一時的な記録媒体に格納してもよい。また、外部の記憶部に格納されたプログラムを読み出し、いわゆるクラウドコンピューティングにより実現してもよい。ハードウェアによって実現する場合、ASIC、FPGA、又はDRPなどの種々の回路によって実現することができる。第1実施形態においては、様々な情報やこれを包含する概念を取り扱うが、これらは、0又は1で構成される2進数のビット集合体として信号値の高低によって表され、上記のソフトウェア又はハードウェアの態様によって通信や演算が実行され得るものである。
1-1 構成説明
1-1-1 乳腺領域抽出部3
 乳腺領域抽出部3は、図4Aに示すようなマンモグラフィ画像における乳腺領域Rを抽出する。マンモグラフィ画像は、多数の画素で構成されたデジタル画像である。各画素は、輝度値を有する。マンモグラフィ画像には、通常、大胸筋領域Gと、***領域Bが含まれている。大胸筋領域Gは、大胸筋に相当する領域であり、***領域Bは、***全体に相当する領域である。***領域Bには、乳腺領域Rが含まれている。乳腺領域Rは、***領域Bよりも狭い領域である。乳腺領域Rには、乳腺画素と脂肪画素が含まれている。乳腺画素は、乳腺に相当する画素であり、脂肪画素は、脂肪に相当する画素であり、乳腺領域R内の、乳腺画素以外の画素である。乳腺領域Rは、乳腺画素を大まかに囲った領域である。
 図4Aでは、図示の便宜上、乳腺領域Rを実線で囲んで表示しているが、実際のマンモグラフィ画像では、乳腺領域Rを囲む実線は存在しておらず、乳腺に相当する部位が高輝度で表示されている。乳腺に相当する部位は、雲のように境界が不明瞭に分布しており、その境界を一意的に定めることが困難であるので、第1実施形態では、乳腺領域Rである確率Pに基づいて乳腺領域Rを抽出している。なお、大胸筋領域G、***領域Bを示す実線も実際のマンモグラフィ画像には存在していない。
 図1に示すように、乳腺領域抽出部3は、前処理部6と、乳腺領域確率算出部7と、後処理部8を備える。以下、各構成について詳細に説明する。
<前処理部6>
 前処理部6は、マンモグラフィ画像に対して、種々の前処理を行う。前処理は、マンモグラフィ画像を乳腺領域確率算出部7での処理に適した状態にするために行う処理である。前処理済みの画像もマンモグラフィ画像と称する。
 前処理部6は、サイズ合わせ部と、ウィンドウレベル調整部と、ノイズ除去部を備える。前処理部6の一部又は全部は、不要な場合には省略可能である。
・サイズ合わせ部
 サイズ合わせ部は、マンモグラフィ画像のサイズ合わせを行う。マンモグラフィ画像は撮像機材や設定によって解像度が異なる。これは1画素あたりの実サイズ(mm)が入力画像によって異なるということを表わす。サイズ合わせ部は、1画素あたりのサイズ違いによる検出精度の揺らぎを無くすため、1画素あたり、例えば0.2mmになるようにリサイズを行う。なお、前処理部6の例えば演算量や処理速度に制限がある場合、サイズ合わせ部は、各画像を予め定められた一律の画像サイズにリサイズすることもできる。
・ウィンドウレベル調整部
 ウィンドウレベル調整部は、マンモグラフィ画像のウィンドウレベル調整を行う。ウィンドウレベル調整とは、幅広いレンジの階調値を持った画像のある特定の階調域のコントラストを向上させる処理である。ウィンドウレベル調整を行うことによってマンモグラフィ画像の視認性を向上させることができる。これによって、乳腺領域Rの抽出精度を向上させることができる。
・ノイズ除去部
 ノイズ除去部は、マンモグラフィ画像のノイズ除去を行う。マンモグラフィ画像の中には、乳腺領域Rの抽出精度を低下させるものが存在している場合があり、それをノイズとして除去する。ノイズとしては、人工ラベルや大胸筋領域Gが挙げられる。人工ラベルは、人工的に付されたラベルであり、マスク処理によって除去可能である。大胸筋領域Gは、公知の領域拡張法によって除去可能である。但し、第1実施形態では、大胸筋領域Gが含まれた状態でも乳腺領域Rを抽出することが可能であるので、大胸筋領域Gをノイズとして扱わなくてもよい。
 サイズ合わせ、ウィンドウレベル調整、ノイズ除去を行う順序は、適宜変更可能である。
<乳腺領域確率算出部7>
 乳腺領域確率算出部7は、マンモグラフィ画像中の分割された複数の領域に対し、乳腺領域Rである確率Pをそれぞれ算出する。具体的には、乳腺領域確率算出部7は、乳腺領域Rである確率Pが当該領域ごとに特定された確率マップを生成する。第1実施形態において、確率マップの範囲は、マンモグラフィ画像の全域にわたっている。第1実施形態では、サイズ合わせ部がマンモグラフィ画像をリサイズし(第1実施形態では縮小し)、このリサイズされたマンモグラフィ画像が乳腺領域確率算出部7に入力されるため、上述したマンモグラフィ画像中の分割された各領域は、マンモグラフィ画像の各画素よりも粗い。つまり、この各領域の範囲は、マンモグラフィ画像の各画素よりも広い。このように、第1実施形態において、乳腺領域確率算出部7で処理されるマンモグラフィ画像は、マンモグラフィ測定によって取得されたマンモグラフィ画像の縮小画像であってもよい。
 通常、マンモグラフィ画像において、大胸筋領域Gと乳腺領域R(特に、乳腺画素)の輝度値は、その他の領域に比べて高い(別の表現ではX線の透過率が、その他の領域に比べて低い)。大胸筋領域Gと乳腺領域Rの輝度値は同程度であり、輝度値によって大胸筋領域Gと乳腺領域Rを区別することは困難である。そこで、第1実施形態では、マンモグラフィ画像に含まれる各画素が乳腺領域Rであるかどうかを示す確率Pを算出し、確率Pに基づいて乳腺領域Rを抽出している。確率Pは、大胸筋領域Gでは低くなり、乳腺領域Rでは高くなるので、確率Pに基づいて乳腺領域Rを抽出することによって、乳腺領域Rの特定の精度を向上させることができる。また、確率Pは、マンモグラフィ画像に含まれる大胸筋領域を除去することなく算出可能である。確率Pは、例えば0~1の範囲の値で表現され、値が大きいほど、乳腺領域である確率が高くなる。
 確率Pは、マンモグラフィ画像を入力して確率Pを出力する学習モデルに基づいて算出することができる。第1実施形態において、乳腺領域確率算出部7の学習モデル(機械学習モデル)には、畳み込みニューラルネットワークの一種である完全畳み込みネットワーク FCN (Fully Convolutional Network)を採用することができる。FCNの詳細は、非特許文献1に開示されている。なお、第1実施形態では、乳腺領域確率算出部7の学習は完了している。ここで、図1に示す閾値推定部11は学習段階にあり、それに対し、図1に示す乳腺領域確率算出部7の学習は既に完了している。換言すると、閾値推定部11のニューラルネットワークのフィルタの重み係数は確定しておらず適宜更新され、乳腺領域確率算出部7のニューラルネットワークのフィルタの重み係数は既に確定している。
<後処理部8>
 後処理部8は、確率Pに基づいて乳腺領域Rを抽出する。後処理部8は、候補画素抽出部9と、領域形成部10を備える。
・候補画素抽出部9
 候補画素抽出部9は、確率Pが乳腺領域推定閾値Th2を超える画素を候補画素として抽出して候補画素マップを生成し、出力する。第1実施形態において、乳腺領域推定閾値Th2は、予め定められた値である。乳腺領域推定閾値Th2は、固定された値であってもよく、ユーザーが適宜変更可能な値であってもよい。候補画素マップは、確率マップの画素と対応した画素を有する。候補画素マップでは、確率Pが乳腺領域推定閾値Th2以上の画素の値が例えば1で、乳腺領域推定閾値Th2未満の画素の値が例えば0となる。
 候補画素マップの一例を図5Aに示す。候補画素を黒点で示す。大胸筋領域G、乳腺領域R、***領域Bの境界を参考のために点線で示す。候補画素マップでは、乳腺領域Rに対応する領域において多数の候補画素が抽出されており、大胸筋領域Gに対応する領域にも小数の候補画素が抽出されている。乳腺領域Rに対応する領域には多数の候補画素が集中しているが、候補画素の間には、欠損領域(図5Aの乳腺領域R内の白い領域)が存在している。従って、このままでは一塊の乳腺領域Rとなっているといえない。
・領域形成部10
 領域形成部10は、候補画素マップに対してノイズ除去及び欠損領域穴埋めを行って乳腺領域Rを形成する。
 具体的には、大胸筋領域Gに対応する領域の候補画素はノイズであるとしてマスク処理等によって除去する。また、乳腺領域Rに対応する領域については欠損領域穴埋めを行って乳腺領域Rを形成する。欠損領域穴埋めは、例えば、列及び行それぞれの始点・終点の間を穴埋めすることによって行うことができる。これによって、図5Bに示すような乳腺領域マップが得られる。乳腺領域Rは、候補画素が集中している領域に形成されるので、欠損領域穴埋め工程では、候補画素が集中している領域から離れている候補画素をノイズとして無視することが好ましい。例えば、列又は行の始点を検出しても、その後に非候補画素が所定数以上連続した場合には、検出した始点を破棄して新たな始点を探すようにしてもよい。
 なお、マンモグラフィ画像から大胸筋領域Gを予め除去した場合にも、ノイズ除去工程は省略可能である。さらに、欠損領域穴埋め工程において、候補画素が集中している領域から離れている候補画素を無視することによって、大胸筋領域Gや、大胸筋領域G外であって候補画素が集中している領域以外に存在する候補画素を除外することができる。従って、ノイズ除去工程を別途行わずに、欠損領域穴埋め工程において、乳腺領域Rを形成することも可能である。
1-1-2 乳腺画素面積算出部4
 乳腺画素面積算出部4は、図7Bに示すような乳腺画素面積マップを生成する。乳腺画素面積マップは、乳腺領域R中の各画素に対して乳腺画素面積Laが算出されているマップである。乳腺画素面積Laは、画素の乳腺画素らしさの度合いを示す値である。
 乳腺画素面積算出部4は、マンモグラフィ画像に対し、後処理部8の領域形成部10から取得した乳腺領域マップを適用する。これにより、乳腺画素面積算出部4は、マンモグラフィ画像の画素のうち乳腺領域R中の画素を抽出する。なお、図6Aには、乳腺領域Rを模式的に示し、図6Bには、乳腺領域R中の画素を模式的に示している。
 乳腺画素面積算出部4は、当該抽出した画素(乳腺領域R中の画素)に対し、第1画素面積算出処理を実施する。第1画素面積算出処理は、マンモグラフィ画像の乳腺領域R中の画素の画素値Pvに基づいて、乳腺画素面積Laを算出する処理である。なお、図7Aでは、当該抽出した各画素の画素値Pvを模式的に示している。また、図7Bには、乳腺画素面積Laが算出された(第1画素面積算出処理が実施された)、乳腺領域R中の画素を模式的に示している。次に、乳腺画素面積算出部4は第1閾値関数を用いて乳腺画素面積Laを算出する。次に、第1閾値関数や乳腺画素面積La等について更に説明する。
(第1閾値関数)
 乳腺画素面積算出部4がマンモグラフィ画像中の画素の画素値Pvに基づいて乳腺画素面積Laを算出するにあたり、乳腺画素面積算出部4は図8に示す第1閾値関数を用いている。第1閾値関数は、乳腺領域Rの各画素の画素値Pvと、乳腺領域Rの各画素の乳腺画素面積と、が関連付けられた関数である。また、第1閾値関数は、乳腺画素推定閾値Th1で急激に立ち上がる関数である。つまり、第1閾値関数において、乳腺画素推定閾値Th1より小さい画素値Pvの範囲では乳腺画素面積Laは0又は0に近い値となり、乳腺画素推定閾値Th1より大きい画素値Pvの範囲では乳腺画素面積Laは1又は1に近い値となる。このように、乳腺画素推定閾値Th1は、第1閾値関数における閾値である。第1実施形態の第1閾値関数(シグモイド関数)は図8に示すような式で表され、第1実施形態の第1閾値関数(シグモイド関数)は乳腺画素推定閾値Th1及び乳腺画素推定傾きa1が定められることで曲線形状が決定される。乳腺画素推定傾きa1は、第1閾値関数の画素値Pvが乳腺画素推定閾値Th1のときにおける第1閾値関数の傾きに相当する。
 なお、第1実施形態において、第1閾値関数はシグモイド関数であるが、その他の関数も採用可能である。例えば、第1閾値関数には、関数値が0から1になるような連続関数を採用可能である。具体的には、第1閾値関数にはf(x)=(tanh(x)+1)/2を採用可能である。
(出力:乳腺画素面積La)
 乳腺画素面積Laは、上述したように、乳腺画素らしさの度合いを示す値である。例えば、任意の画素の乳腺画素面積Laが1である場合には、当該任意の画素は乳腺画素そのものであるとみなすことができ、また、任意の画素の乳腺画素面積Laが0である場合には当該任意の画素は乳腺画素ではないとみなすことができる。加えて、乳腺画素面積Laは、0より大きく1より小さい中間的な値もとり得る。
 つまり、乳腺画素面積算出部4は、マンモグラフィ画像中の画素が、乳腺画素である又は乳腺画素ではない、といったいずれか一方の画素に該当するか否かを判定しているわけではない。換言すると、乳腺画素面積Laは、任意の画素が乳腺画素であるか、それとも、乳腺画素でないか、を明確に切り分けるための値ではない。
 実施形態では、乳腺画素面積Laは、任意の画素に対して算出されるのではなく、乳腺領域R中の画素に対して算出される。つまり、乳腺画素面積算出部4は、マンモグラフィ画像の乳腺領域R中の画素の画素値Pvに基づいて乳腺領域R中の乳腺画素面積Laを算出する。
 なお、乳腺画素面積算出部4は、確率マップの各領域に対してそれぞれ乳腺画素面積Laを算出した乳腺画素面積マップを生成することも可能であるが、第1実施形態では、乳腺画素面積算出部4は、マンモグラフィ画像の各画素に対してそれぞれ乳腺画素面積Laを算出した乳腺画素面積マップを生成している。そして、マンモグラフィ画像の各画素は、確率マップに係る各領域よりもきめが細かい。このため、乳腺画素面積算出部4は、よりきめ細やかな乳腺画素面積マップを生成することが可能となっている。
(入力:乳腺画素推定閾値Th1及び乳腺画素推定傾きa1)
 乳腺画素面積算出部4は、閾値推定部11から乳腺画素推定閾値Th1及び乳腺画素推定傾きa1を受け取る。そして、乳腺画素面積算出部4は、乳腺領域R中の画素の画素値Pvと、乳腺画素推定閾値Th1及び乳腺画素推定傾きa1が代入された第1閾値関数と、に基づいて、乳腺領域R中の画素の乳腺画素面積Laを算出する。なお、第1実施形態では、乳腺画素推定傾きa1が閾値推定部11で算出され、この算出された乳腺画素推定傾きa1を乳腺画素面積算出部4が受け取る場合を例に説明するが、これに限定されるものではない。例えば、乳腺画素推定傾きa1は、固定された値であってもよく、ユーザーが適宜変更可能な値であってもよい。
1-1-3 乳腺密度算出部5
 乳腺密度算出部5は、乳腺領域R中の全ての画素の乳腺画素面積Laの総和に基づいて乳腺密度を算出する。より具体的には、乳腺密度算出部5は、乳腺領域R中の全ての画素の乳腺画素面積Laの総和と、乳腺領域R中の全ての画素数とを算出し、以下の式に基づいて、乳腺密度を算出する。
 乳腺密度(%)=100×(乳腺画素面積Laの総和)/(乳腺領域総画素数)
 なお、乳腺密度算出部5が算出する乳腺密度が、算出乳腺密度に対応する。
 学習段階において、乳腺密度算出部5で算出された乳腺密度は、乳腺密度算出部5から閾値推定部11に出力され、閾値推定部11のニューラルネットワークのフィルタの重み係数を調整するために用いられる。運用段階において、乳腺密度算出部5で算出された乳腺密度は、超音波による検査の要否を適切に判断可能な情報として活用される。このようにして算出された乳腺密度は、狭い領域に高密度の乳腺領域が存在している場合には高い値になる。従って、狭い領域に高密度の乳腺領域が存在している場合であっても、第1実施形態に係る情報処理装置1は超音波による検査の要否を適切に判断可能な情報を提供することができる。算出された乳腺密度は、情報処理装置1の表示部に表示させたり、情報処理装置1から外部機器に出力したりして利用可能である。
1-1-4 閾値推定部11
 閾値推定部11は、学習段階及び運用段階において、マンモグラフィ画像等に基づいて乳腺画素推定閾値Th1及び乳腺画素推定傾きa1(図8参照)を算出する機能を有する。閾値推定部11は、図3に示すように、画像生成部12と、ヒストグラム生成部13と、推定閾値算出部14と、誤差算出部15とを備えている。
<画像生成部12>
 画像生成部12は、マンモグラフィ画像に基づいて乳腺領域マンモグラフィ画像を生成する。図4Bに示す乳腺領域マンモグラフィ画像は、マンモグラフィ画像のうち乳腺領域Rの画素から構成される。画像生成部12は、乳腺領域マップと、マンモグラフィ画像とに基づいて、乳腺領域マンモグラフィ画像を生成することができる。
<ヒストグラム生成部13>
 ヒストグラム生成部13は、第1~第3ヒストグラムを生成する。具体的には、ヒストグラム生成部13は、マンモグラフィ画像に基づいて第1ヒストグラムを生成し、画像生成部12で生成される乳腺領域マンモグラフィ画像に基づいて第2ヒストグラムを生成し、乳腺領域確率算出部7で生成される確率マップに基づいて第3ヒストグラムを生成する。
 第1ヒストグラムは、マンモグラフィ画像中の各画素の画素値のヒストグラムである。第1ヒストグラムでは、画素値又は画素値の範囲が複数予め定められており、当該予め定められた画素値又は画素値の範囲に属する画素の数が特定される。
 第2ヒストグラムは、画像生成部12で生成される乳腺領域マンモグラフィ画像中の各画素の画素値のヒストグラムである。第2ヒストグラムでは、画素値又は画素値の範囲が複数予め定められており、当該予め定められた画素値又は画素値の範囲に属する画素の数が特定される。
 第3ヒストグラムは、マンモグラフィ画像中の各画素の確率Pのヒストグラムである。第3ヒストグラムでは、確率P又は確率Pの範囲が複数予め定められており、当該予め定められた確率P又は確率Pの範囲に属する画素の数が特定される。
<推定閾値算出部14>
 学習段階において、推定閾値算出部14は、マンモグラフィ画像と、第1閾値関数に関する値(乳腺画素推定閾値Th1及び乳腺画素推定傾きa1)との関係を学習する機能を有する。第1実施形態では、推定閾値算出部14は、学習にあたり、マンモグラフィ画像に加え、マンモグラフィ画像から生成される確率マップと、マンモグラフィ画像から生成される乳腺領域マンモグラフィ画像と、を用いる。
 推定閾値算出部14はニューラルネットワークを有しており、推定閾値算出部14はマンモグラフィ画像が入力されると、乳腺画素推定閾値Th1及び乳腺画素推定傾きa1を出力する学習モデルに基づいて学習をする。また、推定閾値算出部14のニューラルネットワークのフィルタの重み係数は、誤差算出部15で算出される誤差に基づいて適宜更新される。具体的には、図1に示すように、推定閾値算出部14が乳腺画素推定閾値Th1及び乳腺画素推定傾きa1を出力すると、次に、乳腺画素面積算出部4が第1閾値関数に基づいて乳腺領域Rの各画素の乳腺画素面積Laを算出して乳腺画素面積マップを生成する。そして、乳腺密度算出部5が乳腺画素面積マップに基づいて乳腺密度を算出する。この算出された乳腺密度は、閾値推定部11に出力され、後述する正解密度データと比較される。そして、推定閾値算出部14は、乳腺密度算出部5が算出した乳腺密度と、正解密度データとの差(誤差)を、誤差算出部15から受け取る。これにより、推定閾値算出部14のニューラルネットワークのフィルタの重み係数が、この誤差に基づいて適宜更新される。
 第1実施形態において、推定閾値算出部14には画像データが入力されるわけではなく、第1~第3ヒストグラムが入力される。このため、推定閾値算出部14のニューラルネットワークは演算負荷が抑制されている。
<誤差算出部15>
 誤差算出部15は、図1及び図3に示すように、情報処理装置1に入力される正解密度データ(正解乳腺密度)と、乳腺密度算出部5が算出する乳腺密度とを比較する。つまり、誤差算出部15は、正解密度と算出された乳腺密度との差(誤差)を算出する。ここで、正解密度データは、医師等によって乳腺密度が判断された正解データである。つまり、正解密度データは、医師等が対応するマンモグラフィ画像を目視することで算出された乳腺密度の値である。誤差算出部15は、算出した差(誤差)を、推定閾値算出部14に出力する。
1-2 動作説明
1-2-1 学習段階
 乳腺画素推定閾値Th1の学習段階における動作について図1及び図3を参照して説明する。
 第1実施形態の学習方法は、取得ステップと、確率マップ生成ステップと、乳腺領域抽出ステップと、画像生成ステップと、ヒストグラム生成ステップと、学習ステップと、乳腺画素面積マップ生成ステップと、乳腺密度取得ステップと、を備える。
 取得ステップにおいて、情報処理装置1はマンモグラフィ画像を取得する。取得ステップにおいて、乳腺領域抽出部3、乳腺画素面積算出部4及び閾値推定部11がマンモグラフィ画像を受け取る。また、取得ステップにおいて、情報処理装置1は正解密度データを取得する。更に、取得ステップにおいて、誤差算出部15が正解密度データを受け取る。
 確率マップ生成ステップにおいて、乳腺領域確率算出部7は、前処理がなされたマンモグラフィ画像に基づいて確率マップを生成する。乳腺領域確率算出部7は、確率マップを、後処理部8及び閾値推定部11に出力する。
 乳腺領域抽出ステップにおいて、候補画素抽出部9は、確率マップに基づいて候補画素マップを生成し、領域形成部10は候補画素マップに基づいて乳腺領域マップを生成する。領域形成部10は、乳腺領域マップを、乳腺画素面積算出部4及び閾値推定部11に出力する。
 画像生成ステップにおいて、画像生成部12は、取得ステップで取得したマンモグラフィ画像に基づいて乳腺領域マンモグラフィ画像を生成する。
 ヒストグラム生成ステップにおいて、ヒストグラム生成部13は、マンモグラフィ画像に基づいて第1~第3ヒストグラムを生成する。より具体的には、ヒストグラム生成ステップにおいて、ヒストグラム生成部13は、取得ステップで取得したマンモグラフィ画像と、画像生成ステップで生成した乳腺領域マンモグラフィ画像と、確率マップ生成ステップで生成した確率マップとに基づいて、第1~第3ヒストグラムを生成する。ヒストグラム生成部13は、第1~第3ヒストグラムを推定閾値算出部14に出力する。
 学習ステップにおいて、推定閾値算出部14は、マンモグラフィ画像と乳腺画素推定閾値Th1との関係を学習する。なお、第1実施形態では乳腺画素推定傾きa1も学習対象であるため、より具体的には、推定閾値算出部14は、マンモグラフィ画像と乳腺画素推定閾値Th1との関係、及び、マンモグラフィ画像と乳腺画素推定傾きa1との関係を学習している。
 第1実施形態において、推定閾値算出部14のニューラルネットワークは、演算負荷抑制の観点から、マンモグラフィ画像そのものを処理する構成ではなく、ヒストグラムを処理する構成である。つまり、推定閾値算出部14は、ヒストグラム生成ステップで生成された第1~第3ヒストグラムと、乳腺画素推定閾値Th1等との関係を学習する。
 また、学習ステップにおいて、推定閾値算出部14には、誤差算出部15で算出される誤差が入力される。この誤差は、後述する乳腺密度取得ステップで取得される乳腺密度と、正解密度データとの差に相当する。これにより、推定閾値算出部14のフィルタの重み係数が適宜更新され、推定閾値算出部14の出力(乳腺画素推定閾値Th1及び乳腺画素推定傾きa1)の精度が上昇する。つまり、情報処理装置1が算出する乳腺密度は乳腺画素推定閾値Th1等に基づいて算出され、情報処理装置1が算出する乳腺密度が正解データとしての正解密度データと比較され、推定閾値算出部14のフィルタの重み係数が適宜更新される。このように、学習ステップでは、推定閾値算出部14がマンモグラフィ画像と乳腺画素推定閾値Th1との関係を学習していき、より客観的な乳腺画素推定閾値Th1を算出できるようになっていく。
 乳腺画素面積マップ生成ステップにおいて、乳腺画素面積算出部4は、取得ステップで取得したマンモグラフィ画像と、学習ステップで算出された乳腺画素推定閾値Th1及び乳腺画素推定傾きa1とに基づいて、乳腺画素面積マップを生成する。
 乳腺密度取得ステップにおいて、乳腺密度算出部5は、乳腺画素面積マップに基づいて、乳腺密度を取得する。乳腺密度算出部5は、算出した乳腺密度を閾値推定部11の誤差算出部15に出力する。
1-2-2 運用段階
 運用段階における動作について図2に基づいて説明する。運用段階における動作は、学習段階における動作と異なる部分を説明する。
 第1実施形態の運用方法(乳腺密度の取得方法)は、取得ステップと、確率マップ生成ステップと、乳腺領域抽出ステップと、画像生成ステップと、ヒストグラム生成ステップと、閾値・傾き算出ステップと、乳腺画素面積マップ生成ステップと、乳腺密度取得ステップと、を備える。
 確率マップ生成ステップ、乳腺領域抽出ステップ、画像生成ステップ、ヒストグラム生成ステップ、乳腺画素面積マップ生成ステップ及び乳腺密度取得ステップについては、学習段階と同様である。
 運用段階の乳腺画素を算出する方法は、学習ステップの代わりに閾値・傾き算出ステップを備えている。
 取得ステップにおいて、情報処理装置1は正解密度データを取得しない。
 運用段階では、推定閾値算出部14のフィルタの重み係数が確定している。つまり、誤差算出部15では誤差を算出しないため、推定閾値算出部14は誤差算出部15から誤差を取得しない。学習ステップにおいて、推定閾値算出部14は、第1~第3ヒストグラムが入力されると、乳腺画素推定閾値Th1及び乳腺画素推定傾きa1を出力する。
 運用段階では、情報処理装置1は、乳腺密度取得ステップにおいて取得された乳腺密度を、情報処理装置1の表示部に表示させたり、情報処理装置1から外部機器に出力したりする。
1-3 変形例
1-3-1 変形例1:複数の機能ブロックが並行学習
 実施形態では、閾値推定部11の学習段階において、乳腺領域確率算出部7が学習を完了している場合を例に説明したが、これに限定されるものではない。図9に示すように、情報処理装置1は、閾値推定部11及び乳腺領域確率算出部7が並行して学習をするように構成されていてもよい。
1-3-2 変形例2:入力としてヒストグラムを用いない
 実施形態では、閾値推定部11の入力データは、ヒストグラム(第1~第3ヒストグラム)である場合を例に説明したが、これに限定されるものではない。図10に示すように、閾値推定部11の入力データは、マンモグラフィ画像と、乳腺領域マンモグラフィ画像と、確率マップとであってもよい。この場合、閾値推定部11の推定閾値算出部14の構成には、畳み込みネットワークであるCNN(Convolutional Neural Network)を採用することができる。本変形例2では、実施形態と比較すると、推定閾値算出部14の演算負荷が増大するが、算出される乳腺画素推定閾値Th1等の精度が更に上がり、ひいては、算出される乳腺密度の精度も更に上昇する効果を期待することができる。
1-3-3 変形例3:正解データとして正解乳腺画素推定閾値を用いる
 第1実施形態では、誤差算出部15が算出乳腺密度と正解乳腺密度(正解密度データ)との誤差を算出し、推定閾値算出部14がこの誤差に基づいて、マンモグラフィ画像(実施形態では第1~第3ヒストグラム)と、乳腺画素推定閾値との関係を学習する形態であったが、これに限定されるものではない。換言すると、第1実施形態の学習ステップでは、正解乳腺密度と、算出乳腺密度とに基づいて、マンモグラフィ画像と乳腺画素推定閾値との関係を学習する形態であったが、これに限定されるものではない。
 誤差算出部15は、推定閾値算出部14が算出する乳腺画素推定閾値と、正解乳腺画素推定閾値との誤差を算出し、推定閾値算出部14は、この誤差に基づいて、マンモグラフィ画像と、乳腺画素想定閾値との関係を学習してもよい。換言すると、学習ステップでは、上述した正解乳腺画素推定閾値の算出に用いる正解乳腺密度と、学習ステップにおいて出力される乳腺画素推定閾値とに基づいて、マンモグラフィ画像と乳腺画素推定閾値との関係を学習してもよい。
 例えば、乳腺画素推定傾きa1が予め定められた値である場合、正解データとしての乳腺密度(正解乳腺密度)が得られていると、その乳腺密度となるような乳腺画素推定閾値を逆算可能である。この逆算される乳腺画素推定閾値は、正解データとしての正解乳腺密度に対応して得られる値であるので、変形例3ではこの逆算される乳腺画素推定閾値を正解乳腺画素推定閾値と称する。
 変形例3では、閾値推定部11が正解データ取得部(不図示)を更に備え、正解データ取得部が正解乳腺密度に基づいて正解乳腺画素推定閾値を逆算して正解乳腺画素推定閾値を取得する。そして、誤差算出部15は、推定閾値算出部14が算出する乳腺画素推定閾値と、正解乳腺画素推定閾値が取得した正解乳腺画素推定閾値との誤差を算出し、推定閾値算出部14は、この誤差に基づいて、マンモグラフィ画像と、乳腺画素想定閾値との関係を学習する。
 また、乳腺画素推定閾値は、閾値だけでなく、乳腺画素推定傾きに対応する傾きも包含する値として捉えてもよい。この場合において、乳腺画素推定閾値における閾値が予め定められた値であり、一方、乳腺画素推定閾値に包含される傾きは推定閾値算出部14で算出される値であってもよい。なお、正解乳腺画素推定傾きは、上述した正解乳腺画素推定閾値と同様に逆算可能である。そして、誤差算出部15は、推定閾値算出部14が算出する傾きと正解乳腺画素推定傾きとの誤差を算出し、推定閾値算出部14は、この誤差に基づいて、マンモグラフィ画像と、上述の傾きを包含する乳腺画素想定閾値と、の関係を学習する。
2 第2実施形態
 第2実施形態は、第1実施形態と共通する構成については説明を適宜省略し、相違する構成を中心に説明する。
 第1実施形態は、マンモグラフィ画像の乳腺領域R中の画素の乳腺画素面積Laが算出される形態である。なお、乳腺画素面積Laは、第1実施形態で説明したように、乳腺領域R中の画素の乳腺らしさの度合いである。閾値推定部11が、マンモグラフィ画像と、乳腺画素推定閾値Th1及び乳腺画素推定傾きa1との関係を学習することで、閾値推定部11は、乳腺画素面積Laを算出することができる。
 第2実施形態は、確率マップ中の各画素の乳腺領域面積Lbが算出される形態である。乳腺領域面積Lbは、確率マップ中(マンモグラフィ画像中)の画素が乳腺領域Rを構成するか否かの度合いを示す値である。換言すると、乳腺領域面積Lbは、確率マップ中の画素が乳腺領域Rに含まれるか否かの度合いを示す値である。乳腺領域面積Lbが大きい画素は候補画素である可能性が高く、逆に、乳腺領域面積Lbが小さい画素は候補画素である可能性が低い。実施形態2において、閾値推定部11が、マンモグラフィ画像と、乳腺領域推定閾値Th2及び乳腺領域推定傾きa2との関係を学習することで、閾値推定部11は、乳腺領域面積Lbを算出することができる。
2-1 構成説明
2-1-1 乳腺領域抽出部3
 前処理部6及び乳腺領域確率算出部7については、第1実施形態と同様のため、説明を省略する。
<後処理部8>
 後処理部8は、図14Aに示す確率P(確率マップ)に基づいて、図14Bに示す乳腺領域面積Lb(乳腺領域面積マップ)を取得する。そして、後処理部8は、乳腺領域面積Lb(候補画素面積マップ)に基づいて乳腺領域Rを抽出する。後処理部8は、候補画素抽出部9の代わりに、乳腺領域面積算出部9Bを備えている。
・乳腺領域面積算出部9B
 乳腺領域面積算出部9Bは、図14Bに示すような乳腺領域面積マップを生成する。乳腺領域面積マップは、確率マップ中の各画素に対して乳腺領域面積Lbが算出されているマップである。図14Bにおいて、略中央の灰色で示した画素は、乳腺領域Rに対応する画素を模式的に示したものである。この灰色で示した画素は、白色で示した画素よりも、乳腺領域面積Lbの値が大きい。
 乳腺領域面積算出部9Bは、確率マップ中の各画素に対し、第2画素面積算出処理を実施する。第2画素面積算出処理は、各画素の確率Pに基づいて、乳腺領域面積Lbを算出する処理である。図14A及び図14Bに示すように、確率マップ中の各画素の確率P(図14Aでは確率P1~P5のみを図示)に対して第2画素面積算出処理が実施されて、乳腺領域面積Lb(図14Bでは乳腺画素面積Lb1~Lb5のみを図示)が算出される。乳腺領域面積Lbは、図15に示す第2閾値関数に基づいて算出される。
(第2閾値関数)
 乳腺領域面積算出部9Bが確率Pに基づいて乳腺領域面積Lbを算出するにあたり、乳腺領域面積算出部9Bは図15に示す第2閾値関数を用いている。第2閾値関数は、各画素の確率Pと、各画素の乳腺領域面積Lbと、が関連付けられた関数である。また、第2閾値関数は、乳腺領域推定閾値Th2で急激に立ち上がる関数である。つまり、第2閾値関数において、乳腺領域推定閾値Th2より小さい画素値の範囲では乳腺領域面積Lbは0又は0に近い値となり、乳腺領域推定閾値Th2より大きい画素値の範囲では乳腺領域面積Lbは1又は1に近い値となる。このように、乳腺領域推定閾値Th2は、第2閾値関数における閾値である。第2実施形態においても第2閾値関数はシグモイド関数であるが、その他の関数も採用可能である。第2実施形態の第2閾値関数(シグモイド関数)は図15に示すような式で表され、第2閾値関数は乳腺領域推定閾値Th2及び乳腺領域推定傾きa2が定められることで曲線形状が決定される。乳腺領域推定傾きa2は、第2閾値関数の画素値が乳腺領域推定閾値Th2のときにおける第2閾値関数の傾きに相当する。
(出力:乳腺領域面積Lb)
 乳腺領域面積Lbは、上述したように、確率マップ中の画素が乳腺領域Rに含まれるか否かの度合いを示す値である。例えば、任意の画素の乳腺領域面積Lbが1である場合には、当該任意の画素は乳腺領域の候補画素そのものであるとみなすことができ、また、任意の画素の乳腺領域面積Lbが0である場合には当該任意の画素は候補画素ではないとみなすことができる。加えて、乳腺領域面積Lbは、0より大きく1より小さい中間的な値もとり得る。
 つまり、乳腺領域面積算出部9Bは、確率マップ中の画素が、乳腺領域の候補画素である又は乳腺領域の候補画素ではない、といったいずれか一方の画素に該当するか否かを判定しているわけではない。換言すると、乳腺領域面積Lbは、任意の画素が候補画素であるか、それとも、候補画素でないか、を明確に切り分けるための値ではない。実施形態では、乳腺領域面積Lbは、マンモグラフィ画像全体の各画素に対して算出される。
(入力:乳腺領域推定閾値Th2及び乳腺領域推定傾きa2)
 乳腺領域面積算出部9Bは、閾値推定部11から乳腺領域推定閾値Th2及び乳腺領域推定傾きa2を受け取る。そして、乳腺領域面積算出部9Bは、確率マップ中の画素の確率Pと、乳腺領域推定閾値Th2及び乳腺領域推定傾きa2が代入された第2閾値関数と、に基づいて、確率マップ中の画素の乳腺領域面積Lbを算出する。なお、乳腺領域推定傾きa2は、固定された値であってもよく、ユーザーが適宜変更可能な値であってもよい。
・領域形成部10
 領域形成部10は、乳腺領域面積マップに基づいて乳腺領域を形成する。乳腺領域の形成方法は、各種の方法を採用することができる。ここでは一例として以下の(1)(2)を説明する。
(1)例えば、乳腺領域面積算出部9Bが、乳腺領域面積マップの画素のうち、予め定められた閾値よりも乳腺領域面積Lbが大きい画素を第1実施形態で説明した候補画素と判定して候補画素マップを生成し、領域形成部10が、この候補画素マップに対してノイズ除去及び欠損領域穴埋めを行って乳腺領域Rを形成することができる。乳腺領域面積Lbは、閾値関数(第2実施形態ではシグモイド関数)に基づいて算出されるので、乳腺領域面積Lbの多くは、0或いは0に近い値、又は、1或いは1に近い値である。このため、予め定められた閾値が例えば0.5等といった値に設定されていれば、乳腺領域面積算出部9Bは適切に候補画素マップを生成可能である。
(2)また、領域形成部10が乳腺領域面積マップに対して例えばフィルタ処理を実施することで、領域形成部10が乳腺領域面積マップに基づいて乳腺領域Rを形成してもよい。
2-1-2 乳腺画素面積算出部4
 乳腺画素面積算出部4は、図7Bに示すような乳腺領域面積マップを生成する。乳腺画素面積算出部4は、予め定められた乳腺画素推定閾値Th1及び乳腺画素推定傾きa1を用いて、乳腺領域面積マップを生成する。つまり、第1実施形態において、乳腺画素面積算出部4は、乳腺画素推定閾値Th1及び乳腺画素推定傾きa1を、閾値推定部11から取得していたが、第2実施形態では、予め定められた値である。乳腺画素推定閾値Th1及び乳腺画素推定傾きa1は、固定された値であってもよく、ユーザーが適宜変更可能な値であってもよい。
 乳腺画素面積算出部4は、乳腺領域マップを後処理部8から取得する。そして、乳腺画素面積算出部4は、乳腺領域R中の画素に対し、第1画素面積算出処理を実施する。つまり、乳腺画素面積算出部4は、乳腺領域R中の画素の画素値と、乳腺画素推定閾値Th1及び乳腺画素推定傾きa1が代入された第1閾値関数と、に基づいて乳腺画素面積Laを算出する。
2-1-3 乳腺密度算出部5
 乳腺密度の算出方法は、第1実施形態と同様である。乳腺密度算出部5は、乳腺領域R中の全ての画素の乳腺画素面積Laの総和に基づいて乳腺密度を算出する。より具体的には、乳腺密度算出部5は、乳腺領域R中の全ての画素の乳腺画素面積Laの総和と、乳腺領域R中の全ての画素数とを算出し、以下の式に基づいて、乳腺密度を算出する。
 乳腺密度(%)=100×(乳腺画素面積Laの総和)/(乳腺領域総画素数)
 第2実施形態において、後処理部8の乳腺領域マップは乳腺画素面積算出部4に出力され、乳腺画素面積算出部4は乳腺領域マップに基づいて乳腺画素面積マップを生成し、そして、乳腺密度算出部5は乳腺画素面積マップに基づいて乳腺密度を算出する。
2-1-4 閾値推定部11
 閾値推定部11は、学習段階及び運用段階において、マンモグラフィ画像等に基づいて乳腺領域推定閾値Th2及び乳腺領域推定傾きa2を算出する機能を有する。
<推定閾値算出部14>
 学習段階において、推定閾値算出部14は、マンモグラフィ画像と、第2閾値関数に関する値(乳腺領域推定閾値Th2及び乳腺領域推定傾きa2)との関係を学習する機能を有する。第2実施形態では、推定閾値算出部14は、学習にあたり、マンモグラフィ画像に加え、マンモグラフィ画像から生成される確率マップと、マンモグラフィ画像から生成される乳腺領域マンモグラフィ画像と、を用いる。
 推定閾値算出部14はマンモグラフィ画像が入力されると、乳腺領域推定閾値Th2及び乳腺領域推定傾きa2を出力する学習モデルに基づいて学習をする。また、推定閾値算出部14のニューラルネットワークのフィルタの重み係数は、誤差算出部15で算出される誤差に基づいて適宜更新される。図11及び図13に示すように、推定閾値算出部14が乳腺領域推定閾値Th2及び乳腺領域推定傾きa2を出力すると、次に、後処理部8は、第2閾値関数に基づいて乳腺領域面積Lbを算出して乳腺領域面積マップを生成し、更に、後処理部8は、乳腺領域面積マップに基づいて乳腺領域マップを生成する。この生成された乳腺領域マップは、閾値推定部11に出力され、後述する正解乳腺領域データと比較される。そして、推定閾値算出部14は、後処理部8が生成した乳腺領域マップと、正解乳腺領域データとの差(誤差)を、誤差算出部15から受け取る。これにより、推定閾値算出部14のニューラルネットワークのフィルタの重み係数が、この誤差に基づいて適宜更新される。
<誤差算出部15>
 誤差算出部15は、情報処理装置1に入力される正解乳腺領域データ(正解乳腺領域)と、後処理部8が生成する乳腺領域マップとを比較する。ここで、正解乳腺領域データは、医師等によって乳腺領域であるか否かが判断された正解データである。つまり、正解乳腺領域データは、医師等が対応するマンモグラフィ画像を目視することで、乳腺領域であるか否かが判断されたものである。誤差算出部15は、算出した差(誤差)を、推定閾値算出部14に出力する。
2-2 動作説明
2-2-1 学習段階
 乳腺領域推定閾値Th2の学習段階における動作について図11及び図13を参照して説明する。
 第2実施形態の学習方法は、取得ステップと、確率マップ生成ステップと、乳腺領域抽出ステップと、画像生成ステップと、ヒストグラム生成ステップと、学習ステップと、乳腺画素面積マップ生成ステップと、乳腺密度取得ステップと、を備える。
 取得ステップにおいて、情報処理装置1はマンモグラフィ画像を取得する。取得ステップにおいて、乳腺領域抽出部3、乳腺画素面積算出部4及び閾値推定部11がマンモグラフィ画像を受け取る。また、取得ステップにおいて、情報処理装置1は正解乳腺領域データを取得する。更に、取得ステップにおいて、誤差算出部15が正解乳腺領域データを受け取る。
 確率マップ生成ステップにおいて、乳腺領域確率算出部7は、前処理がなされたマンモグラフィ画像に基づいて確率マップを生成する。乳腺領域確率算出部7は、確率マップを、後処理部8及び閾値推定部11に出力する。
 乳腺領域抽出ステップは、乳腺領域面積マップ生成ステップと、乳腺領域マップ生成ステップとを有する。乳腺領域面積マップ生成ステップにおいて、後処理部8は確率マップに基づいて乳腺領域面積マップを生成する。そして、乳腺領域マップ生成ステップにおいて、後処理部8は乳腺領域面積マップに基づいて乳腺領域マップを生成し、また、後処理部8は、乳腺領域マップを、乳腺画素面積算出部4及び閾値推定部11に出力する。
 画像生成ステップにおいて、画像生成部12は、取得ステップで取得したマンモグラフィ画像に基づいて乳腺領域マンモグラフィ画像を生成する。
 ヒストグラム生成ステップにおいて、ヒストグラム生成部13は、マンモグラフィ画像に基づいて第1~第3ヒストグラムを生成する。より具体的には、ヒストグラム生成ステップにおいて、ヒストグラム生成部13は、取得ステップで取得したマンモグラフィ画像と、画像生成ステップで生成した乳腺領域マンモグラフィ画像と、確率マップ生成ステップで生成した確率マップとに基づいて、第1~第3ヒストグラムを生成する。ヒストグラム生成部13は、第1~第3ヒストグラムを推定閾値算出部14に出力する。
 学習ステップにおいて、推定閾値算出部14は、マンモグラフィ画像と乳腺領域推定閾値Th2との関係を学習する。なお、第2実施形態では乳腺領域推定傾きa2も学習対象であるため、より具体的には、推定閾値算出部14は、マンモグラフィ画像と乳腺領域推定閾値Th2との関係、及び、マンモグラフィ画像と乳腺領域推定傾きa2との関係を学習している。
 また、学習ステップにおいて、推定閾値算出部14には、誤差算出部15で算出される誤差が入力される。この誤差は、乳腺領域マップ生成ステップで生成される乳腺領域マップと、正解乳腺領域データとの差に相当する。これにより、推定閾値算出部14のフィルタの重み係数が適宜更新され、推定閾値算出部14の出力(乳腺領域推定閾値Th2及び乳腺領域推定傾きa2)の精度が上昇する。つまり、後処理部8が生成する乳腺領域マップは乳腺領域推定閾値Th2等に基づいて算出され、後処理部8が生成する乳腺領域マップが正解データとしての正解乳腺領域データと比較され、推定閾値算出部14のフィルタの重み係数が適宜更新される。このように、学習ステップでは、推定閾値算出部14がマンモグラフィ画像と乳腺領域推定閾値Th2との関係を学習していき、より客観的な乳腺領域推定閾値Th2を算出できるようになっていく。
 乳腺画素面積マップ生成ステップにおいて、乳腺画素面積算出部4は、取得ステップで取得したマンモグラフィ画像と、後処理部8から取得した乳腺領域マップと、乳腺画素推定閾値Th1及び乳腺画素推定傾きa1が代入された第1閾値関数とに基づいて、乳腺画素面積マップを生成する。
 乳腺密度取得ステップにおいて、乳腺密度算出部5は、乳腺画素面積マップに基づいて、乳腺密度を算出する。
2-2-2 運用段階
 運用段階における動作について図12に基づいて説明する。運用段階における動作は、学習段階における動作と異なる部分を説明する。
 第2実施形態の運用方法(乳腺密度の取得方法)は、取得ステップと、確率マップ生成ステップと、乳腺領域抽出ステップと、画像生成ステップと、ヒストグラム生成ステップと、閾値・傾き算出ステップと、乳腺画素面積マップ生成ステップと、乳腺密度取得ステップと、を備える。
 確率マップ生成ステップ、乳腺領域抽出ステップ、乳腺領域抽出ステップ、乳腺領域面積画像生成ステップ、ヒストグラム生成ステップ、乳腺画素面積マップ生成ステップ及び乳腺密度取得ステップについては、学習段階と同様である。
 運用段階では、学習ステップの代わりに閾値・傾き算出ステップを備えている。
 取得ステップにおいて、情報処理装置1は正解乳腺領域データを取得しない。
 運用段階では、推定閾値算出部14のフィルタの重み係数が確定している。つまり、誤差算出部15では誤差を算出しないため、推定閾値算出部14は誤差算出部15から誤差を取得しない。学習ステップにおいて、推定閾値算出部14は、第1~第3ヒストグラムが入力されると、乳腺領域推定閾値Th2及び乳腺領域推定傾きa2を出力する。
 運用段階では、情報処理装置1は、乳腺密度取得ステップにおいて算出された乳腺密度を、情報処理装置1の表示部に表示させたり、情報処理装置1から外部機器に出力したりする。
 なお、第2実施形態も、第1実施形態の変形例1~変形例3の構成を適用することができる。
3 第3実施形態
 図16及び図17に示すように、第1実施形態及び第2実施形態の構成を組み合わせてもよい。つまり、推定閾値算出部14が、乳腺画素推定閾値Th1及び乳腺画素推定傾きa1と、乳腺領域推定閾値Th2及び乳腺領域推定傾きa2とを学習するように構成されていてもよい。この場合、図17に示すように、誤差算出部15は、乳腺密度算出部5が算出した乳腺密度と正解密度データとの誤差である第1誤差と、後処理部8が生成した乳腺領域マップと正解乳腺領域データとの誤差である第2誤差とを算出する。そして、推定閾値算出部14のニューラルネットワークのフィルタの重み係数は、誤差算出部15で算出される第1及び第2誤差に基づいて適宜更新される。
1:情報処理装置、3:乳腺領域抽出部、4:乳腺画素面積算出部、5:乳腺密度算出部、6:前処理部、7:乳腺領域確率算出部、8:後処理部、9:候補画素抽出部、9B:乳腺領域面積算出部、10:領域形成部、11:閾値推定部、12:画像生成部、13:ヒストグラム生成部、14:推定閾値算出部、15:誤差算出部、B:***領域、G:大胸筋領域、La:乳腺画素面積、Lb:乳腺領域面積、P:確率、R:乳腺領域、Th1:乳腺画素推定閾値、Th2:乳腺領域推定閾値、a1:乳腺画素推定傾き、a2:乳腺領域推定傾き

Claims (6)

  1.  マンモグラフィ画像中の画素に適用される閾値の学習方法であって、
     取得ステップと、学習ステップとを備え、
     前記取得ステップでは、前記マンモグラフィ画像を取得し、
     前記学習ステップでは、前記マンモグラフィ画像と乳腺画素推定閾値との関係を学習し、
      前記乳腺画素推定閾値は、前記マンモグラフィ画像の乳腺領域の各画素の乳腺画素面積を算出するときに用いられる閾値であり、
      前記乳腺画素面積は、前記マンモグラフィ画像の画素の乳腺画素らしさの度合いを示す値である、方法。
  2.  請求項1に記載の方法であって、
     乳腺密度取得ステップを更に備え、
     前記取得ステップでは、前記乳腺領域の正解乳腺密度を更に取得し、
     前記乳腺密度取得ステップでは、前記マンモグラフィ画像と、前記乳腺画素推定閾値とに基づいて前記乳腺領域の算出乳腺密度を取得し、
     前記学習ステップでは、前記正解乳腺密度と、前記算出乳腺密度又は前記学習ステップにおいて出力される前記乳腺画素推定閾値とに基づいて前記関係を学習する、方法。
  3.  請求項2に記載の方法であって、
     前記学習ステップでは、前記マンモグラフィ画像と、乳腺画素推定傾きとの関係を更に学習し、
      前記乳腺画素推定閾値は、予め定められている閾値関数の閾値であり、
      前記乳腺画素推定傾きは、前記閾値関数の前記乳腺画素推定閾値における傾きであり、
      前記閾値関数は、前記乳腺領域の各画素の画素値と、当該各画素の前記乳腺画素面積とが関連付けられた関数であり、
     前記乳腺密度取得ステップでは、前記閾値関数と前記乳腺画素推定閾値と前記乳腺画素推定傾きとに基づいて、前記乳腺領域の各画素の前記乳腺画素面積を算出し、前記乳腺画素面積の総和に基づいて前記算出乳腺密度を取得する、方法。
  4.  請求項1~請求項3の何れか1つに記載の方法であって、
     ヒストグラム生成ステップを更に備え、
     前記ヒストグラム生成ステップでは、第1~第3ヒストグラムが生成され、
      第1ヒストグラムは、前記マンモグラフィ画像の各画素の画素値のヒストグラムであり、
      第2ヒストグラムは、前記乳腺領域の各画素の画素値のヒストグラムであり、
      第3ヒストグラムは、前記マンモグラフィ画像の各画素の乳腺領域確率のヒストグラムであり、
       前記乳腺領域確率は、前記マンモグラフィ画像中の各画素が前記乳腺領域である確率を示し、
     前記学習ステップでは、第1~第3ヒストグラムと、前記乳腺画素推定閾値との前記関係を学習する、方法。
  5.  請求項1~請求項4の何れか1つに記載の方法であって、
     前記乳腺領域は、前記マンモグラフィ画像に含まれる***全体よりも狭い領域である、方法。
  6.  マンモグラフィ画像中の画素に適用される閾値の学習方法であって、
     取得ステップと、学習ステップとを備え、
     前記取得ステップでは、前記マンモグラフィ画像を取得し、
     前記学習ステップでは、前記マンモグラフィ画像と乳腺領域推定閾値との関係を学習し、
      前記乳腺領域推定閾値は、前記マンモグラフィ画像の乳腺領域の各画素の乳腺領域面積を算出するときに用いられる閾値であり、
      前記乳腺領域面積は、前記マンモグラフィ画像の画素が前記乳腺領域を構成するか否かの度合いを示す値である、方法。
PCT/JP2019/027709 2019-07-12 2019-07-12 閾値の学習方法 WO2021009804A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021532563A JP7019104B2 (ja) 2019-07-12 2019-07-12 閾値の学習方法
PCT/JP2019/027709 WO2021009804A1 (ja) 2019-07-12 2019-07-12 閾値の学習方法
US17/622,493 US20220245806A1 (en) 2019-07-12 2019-07-12 Method for learning threshold value

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/027709 WO2021009804A1 (ja) 2019-07-12 2019-07-12 閾値の学習方法

Publications (1)

Publication Number Publication Date
WO2021009804A1 true WO2021009804A1 (ja) 2021-01-21

Family

ID=74210300

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/027709 WO2021009804A1 (ja) 2019-07-12 2019-07-12 閾値の学習方法

Country Status (3)

Country Link
US (1) US20220245806A1 (ja)
JP (1) JP7019104B2 (ja)
WO (1) WO2021009804A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113393475A (zh) * 2021-06-30 2021-09-14 神州医疗科技股份有限公司 一种乳腺钼靶图像分割的装置、电子设备、医疗设备和介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195511A (ja) * 1992-12-22 1994-07-15 Ricoh Co Ltd 2値化しきい値決定装置
JP2002051987A (ja) * 2000-08-10 2002-02-19 Canon Inc 診断支援方法および装置
JP2015167829A (ja) * 2014-03-10 2015-09-28 株式会社東芝 医用検査管理装置、医用画像診断装置及び医用検査システム
JP2016206693A (ja) * 2015-04-15 2016-12-08 東芝メディカルシステムズ株式会社 医用情報処理システム
JP2019063504A (ja) * 2017-09-29 2019-04-25 キヤノン株式会社 画像処理装置および画像処理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6195511B2 (ja) 2013-11-28 2017-09-13 株式会社東海理化電機製作所 車両用ミラー装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195511A (ja) * 1992-12-22 1994-07-15 Ricoh Co Ltd 2値化しきい値決定装置
JP2002051987A (ja) * 2000-08-10 2002-02-19 Canon Inc 診断支援方法および装置
JP2015167829A (ja) * 2014-03-10 2015-09-28 株式会社東芝 医用検査管理装置、医用画像診断装置及び医用検査システム
JP2016206693A (ja) * 2015-04-15 2016-12-08 東芝メディカルシステムズ株式会社 医用情報処理システム
JP2019063504A (ja) * 2017-09-29 2019-04-25 キヤノン株式会社 画像処理装置および画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113393475A (zh) * 2021-06-30 2021-09-14 神州医疗科技股份有限公司 一种乳腺钼靶图像分割的装置、电子设备、医疗设备和介质
CN113393475B (zh) * 2021-06-30 2024-02-20 神州医疗科技股份有限公司 一种乳腺钼靶图像分割的装置、电子设备、医疗设备和介质

Also Published As

Publication number Publication date
US20220245806A1 (en) 2022-08-04
JP7019104B2 (ja) 2022-02-14
JPWO2021009804A1 (ja) 2021-01-21

Similar Documents

Publication Publication Date Title
EP3553742B1 (en) Method and device for identifying pathological picture
CN111784671B (zh) 基于多尺度深度学习的病理图像病灶区域检测方法
CN111325739B (zh) 肺部病灶检测的方法及装置,和图像检测模型的训练方法
CN110473243B (zh) 基于深度轮廓感知的牙齿分割方法、装置及计算机设备
US11810293B2 (en) Information processing device, information processing method, and computer program
CN110992377B (zh) 图像分割方法、装置、计算机可读存储介质和设备
CN112132166B (zh) 一种数字细胞病理图像智能分析方法、***及装置
CN109584202A (zh) 图像处理装置、方法和非暂时性计算机可读存储介质
CN112132854B (zh) 图像分割的方法及装置,以及电子设备
Lakshmi et al. Tooth decay prediction and classification from X-ray images using deep CNN
CN114581434A (zh) 基于深度学习分割模型的病理图像处理方法、电子设备
CN112381811A (zh) 一种实现医学影像数据标注的方法、装置及设备
CN117115184A (zh) 一种医疗图像分割模型的训练方法、分割方法及相关产品
CN115546232A (zh) 一种肝脏超声图像工作区域提取方法、***及电子设备
CN115100494A (zh) 一种病灶图像的识别方法、装置、设备及可读存储介质
Rad et al. Dental x-ray image segmentation and multiple feature extraction
JP7019104B2 (ja) 閾値の学習方法
JP2023003763A (ja) 学習装置、画像処理装置、学習処理方法、及びプログラム
CN110858398A (zh) 基于深度学习的舌体分割装置、方法及存储介质
CN113191393A (zh) 基于多模态融合的对比增强能谱乳腺摄影分类方法及***
CN110956623A (zh) 皱纹检测方法、装置、设备及计算机可读存储介质
CN112634224B (zh) 基于目标影像的病灶检测方法和装置
WO2022188102A1 (zh) 深度图像的修复方法及装置、摄像头组件及电子设备
KR102380560B1 (ko) 영상 처리를 기반으로 하는 각막궤양 검출 장치 및 그 방법
CN117974475B (zh) 四维超声内镜观测下病灶影像融合方法及***

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19937538

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021532563

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19937538

Country of ref document: EP

Kind code of ref document: A1