WO2009148041A1 - 医用画像処理装置及び医用画像処理方法 - Google Patents

医用画像処理装置及び医用画像処理方法 Download PDF

Info

Publication number
WO2009148041A1
WO2009148041A1 PCT/JP2009/060043 JP2009060043W WO2009148041A1 WO 2009148041 A1 WO2009148041 A1 WO 2009148041A1 JP 2009060043 W JP2009060043 W JP 2009060043W WO 2009148041 A1 WO2009148041 A1 WO 2009148041A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
calculation unit
medical
motion
medical image
Prior art date
Application number
PCT/JP2009/060043
Other languages
English (en)
French (fr)
Inventor
智章 長野
Original Assignee
株式会社 日立メディコ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 日立メディコ filed Critical 株式会社 日立メディコ
Priority to CN200980120710.5A priority Critical patent/CN102056547B/zh
Priority to US12/996,136 priority patent/US20110082371A1/en
Priority to JP2010515868A priority patent/JP5438002B2/ja
Priority to EP09758308A priority patent/EP2298176A4/en
Publication of WO2009148041A1 publication Critical patent/WO2009148041A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Definitions

  • the present invention relates to a medical image processing apparatus and method for classifying cross-sectional information and tissue dynamics of medical images by image recognition.
  • the examiner classifies the medical image according to the cross-sectional information of the medical image and the type of tissue dynamics in order to efficiently detect the disease by the image diagnosis. .
  • This classification method classifies medical images using image recognition technology because cross-sectional information and tissue dynamics are characterized by the shape of the image. Interpreting images as a result of classification by the examiner is more efficient than comparing them one by one.
  • the type of heart cross-section and tissue position information are acquired and classified by image recognition technology using the feature value of the luminance value of a still image. Furthermore, in this heart measurement, the motion analysis of the living tissue is performed, the analysis result is displayed on the screen, and the medical image classified erroneously can be corrected by the examiner (for example, Patent Document 1).
  • Patent Document 1 is limited to performing a motion analysis of the living tissue, displaying the analysis result on the screen, and correcting a medical image classified incorrectly by the examiner.
  • Patent Document 1 does not consider any improvement in classification accuracy of medical images including moving biological tissues.
  • An object of the present invention is to provide a medical image processing apparatus and a medical image processing method capable of improving the classification accuracy of medical images including a moving biological tissue.
  • a medical image processing apparatus of the present invention includes an image information acquisition unit that obtains a plurality of medical images obtained by imaging a living tissue of a subject, and pixels that have different time phases of the obtained medical images.
  • An image recognition calculation unit that obtains motion information of the living tissue from values and classifies the medical images into predetermined types based on the motion information.
  • the image information acquisition unit obtains a plurality of medical images obtained by imaging the biological tissue of the subject, and the image recognition calculation unit obtains the motion information of the biological tissue from pixel values of different time phases of the obtained medical images.
  • the image recognition calculation unit obtains the motion information of the biological tissue from pixel values of different time phases of the obtained medical images.
  • the image recognition calculation unit obtains the motion information of the biological tissue from pixel values of different time phases of the obtained medical images.
  • by classifying the medical images into predetermined types based on the motion information it is possible to improve the accuracy of image recognition of medical images.
  • the step of obtaining a plurality of medical images obtained by imaging the living tissue of the subject by the image information acquisition unit and the time phases of the plurality of medical images obtained by the image recognition calculation unit differ from each other.
  • the medical image acquisition step obtains a plurality of medical images obtained by imaging the biological tissue of the subject by the image information acquisition unit, and then the medical image classification step includes a time phase difference between the plurality of medical images obtained by the image recognition calculation unit.
  • a medical image processing apparatus and a medical image processing method capable of improving the classification accuracy of medical images including a moving biological tissue.
  • FIG. 1 is a block diagram showing an outline of a medical image processing apparatus in Embodiment 1 of the present invention.
  • 9 is a flowchart showing an outline of the operation of the medical image processing apparatus in Embodiment 2 of the present invention.
  • 10 is a flowchart showing an outline of the operation of the medical image processing apparatus in Embodiment 3 of the present invention.
  • FIG. 9 is a block diagram showing an outline of a medical image processing apparatus in Embodiment 4 of the present invention.
  • FIG. 9 is a block diagram showing an outline of a medical image processing apparatus in Embodiment 5 of the present invention.
  • FIG. 9 is a block diagram showing an outline of a medical image processing apparatus in Embodiment 5 of the present invention.
  • 10 is a flowchart showing an outline of the operation of the medical image processing apparatus in Embodiment 5 of the present invention.
  • FIG. 10 is a diagram showing a display example of stress echo inspection for explaining Example 6 of the present invention.
  • 18 is a flowchart showing an outline of an image search operation of the medical image processing apparatus according to the seventh embodiment of the present invention.
  • the figure which shows the example of a display in case an image with the highest similarity is displayed on the image from a medical image generation part.
  • FIG. 6 is a diagram showing an example of a motion vector calculation method different from FIGS.
  • the medical image is an ultrasonic image obtained from an ultrasonic diagnostic apparatus.
  • the target of the moving biological tissue image is a heart image.
  • an extraction period of heart motion is variably set in the ultrasonic diagnostic apparatus, and ultrasonic images are classified into predetermined types in the variably set extraction period of heart motion.
  • FIG. 1 is a block diagram showing an outline of a medical image processing apparatus according to the first embodiment of the present invention.
  • the medical image processing apparatus includes an ultrasonic image generation unit 1, an image recognition calculation unit 3 connected to the ultrasonic image generation unit 1 so as to be able to transmit signals, and an image recognition calculation device 3. And an image display unit 5 connected so as to be able to transmit signals.
  • “Signal transmission is possible” is defined as being capable of signal transmission between the connected body and the connected body by any means such as electromagnetic and light.
  • the ultrasonic image generation unit 1 generates an ultrasonic image using an ultrasonic diagnostic apparatus.
  • Ultrasonic images include B-mode images (tomographic images), M-mode images, and 3D mode images.
  • the image recognition calculation unit 3 identifies the type of the ultrasonic image, specifically inputs the image output from the ultrasonic image generation device 1, extracts the feature amount of the movement of the entire input image, Processing to classify the types of cross sections.
  • the image recognition calculation unit 3 is connected to the ultrasonic image generation unit 1 so as to be able to transmit signals, and a motion extraction calculation unit 31 that extracts the movement of the living tissue, and is connected to the ultrasonic image generation unit 1 so as to be able to transmit signals.
  • the luminance extraction calculation unit 32 for extracting the luminance of the tissue, the motion extraction calculation unit 31 and the luminance extraction calculation unit 32 are connected so as to be able to transmit signals and calculate each extraction amount of the extracted movement, A feature extraction calculation unit 33 that stores in a memory that it holds, and an identification calculation unit 36 that is connected to the feature extraction calculation unit 33 so as to be able to transmit signals and that identifies the type of an ultrasonic image input from the feature amount. Yes.
  • FIG. 2 is a diagram showing a basic cross section acquired by echocardiography.
  • the basic cross-section here is (a) parasternal long-axis image, (b) para-sternal short-axis image, (c) apex 2-chamber image, (d) apex long-axis image, ( e) 4 apical images of the apex. If the above-mentioned classification of each image can be performed by an image recognition technique instead of an examiner's manual operation, it is useful for reducing the burden of the examiner's diagnosis during image measurement.
  • the motion extraction computing unit 31 calculates the motion as a set of motion vectors of each point by, for example, an average value by motion extraction computation in the extraction region. For example, a motion calculation method using a block matching method or a gradient method is used.
  • a small region including an image whose motion is to be detected is stored as a block.
  • image similarity is calculated in an area having the same size as the previous block. Furthermore, the similarity calculation is performed on the entire region of the frame.
  • the region with the highest degree of similarity is the region where the image of the object whose motion is to be detected has moved. Therefore, the moving distance and moving direction are calculated from the coordinates of this region and the coordinates of the previously stored block. .
  • the processing amount becomes enormous, but the motion can be detected with high accuracy.
  • the gradient method searches for corresponding points using the luminance gradient constraint of each pixel in space-time, and is based on the assumption that the shade pattern of the image is kept unchanged with respect to motion.
  • This is an analysis method based on the equation that relates the spatial gradient and temporal gradient of the gray distribution in the image.
  • the calculation amount is small and high-speed processing is possible, there is a tendency that noise is increased in order to obtain a flow of an object having a large movement.
  • the period during which the heart motion is calculated must be able to arbitrarily set the examiner's operation settings because there are individual differences in the subject's heart rate.
  • a period with the largest amount of movement may be extracted, for example, from the end diastole to the end systole. If the next image data exists, the movement of the luminance value is similarly extracted.
  • FIG. 2 shows an example of the motion vector (first motion vector) of the entire image from the end diastole to the end systole.
  • the motion vector indicates how much the luminance vector Aj moves between different phases.
  • Each motion vector can be represented by a movement component xj in the horizontal direction (X direction) of the drawing and a movement component yj in the vertical direction (Y direction) of the drawing.
  • the feature value of the luminance value and the feature value of the motion are obtained by calculating the motion vector.
  • a vector in the j-th image is a vector Aj
  • a cross-sectional type is Vj.
  • the motion vector Aj is decomposed in the x and y directions of the drawing to be xj and yj.
  • the diameter rj and the angle ⁇ j may be used.
  • the information Ij obtained from the image j is represented as a vector by using the information Ij as a vector.
  • the feature extraction calculation unit 33 extracts the feature amount of each cross section V rendered as an image with respect to the information Ij of the entire image. For example, the features of each cross-section Vj rendered as an image by applying basic statistic calculations such as mean and variance, and the principal component analysis or independent component analysis of the motion vector Aj in each pixel of the entire ultrasound image Extract the amount.
  • the target of principal component analysis is xj and yj of each pixel of the entire ultrasound image when the motion vector Aj is indicated by xy coordinates, and the entire ultrasound image when the motion vector Aj is indicated by polar coordinates. Rj and ⁇ j of each pixel.
  • the identification calculation unit 36 reads out the feature quantity of each cross section V from the memory, and identifies the type of the inputted ultrasonic image using the read feature quantity. Specifically, as in the example of FIG. 2 (c), the identification calculation unit 36 identifies the type of the ultrasound image as the apex two-chamber image from the feature amount.
  • the image display unit 5 displays the ultrasonic images whose types are identified according to the types. Specifically, the image display unit 5 displays the apex 2-chamber image in which the type is identified.
  • FIG. 3 is a flowchart showing an outline of the operation of the medical image processing apparatus according to the first embodiment of the present invention.
  • the medical image generation unit 1 acquires an ultrasonic image of a predetermined time phase for one frame (step S31).
  • the image recognition calculation unit 3 stores the ultrasonic image in a storage unit owned by itself (not shown) (step S32).
  • the medical image generation unit 1 acquires one frame of ultrasonic images of a time phase different from the predetermined time phase (for example, a time phase next to the predetermined time phase) (step S33).
  • the image recognition calculation unit 3 acquires a motion vector by the method described above from the ultrasonic images of different time phases and the stored ultrasonic image.
  • the motion extraction calculation unit 31 of the image recognition calculation unit 3 performs an analysis process of the direction component of the acquired motion vector (step S34).
  • the feature extraction calculation unit 33 of the image recognition calculation unit 3 applies a method based on calculation of basic statistics such as mean and variance, principal component analysis, and independent component analysis to the information Ij. Extract feature values.
  • the identification calculation unit 36 identifies which basic cross section is an echocardiographic examination from the feature quantity, and generates a display format in which the basic cross section information and the ultrasonic image are associated with each other (step S35).
  • the image display unit 5 displays the basic cross-sectional information and the ultrasonic image side by side according to the display format. Note that this display step is not an essential step when the ultrasonic images are classified and stored in the storage unit without being displayed (step 36).
  • the unique effect of the present embodiment is the minimum necessary component, and since the path through which the ultrasonic image passes for processing is the shortest, the ultrasonic images of different time phases are classified in real time. Can be processed.
  • FIG. 4 is a block diagram showing an outline of the medical image processing apparatus according to the second embodiment of the present invention.
  • the medical image processing apparatus further includes a motion information acquisition unit 2 connected to the ultrasonic image generation unit 1 so as to be able to transmit signals as a configuration added to FIG.
  • the motion information acquisition unit 2 divides the myocardial region of the heart on the ultrasound image by the computer executing a program.
  • the computer stores data such as an ultrasound image from the ultrasound image generation unit 1 (not shown), and a CPU (not shown) executes the computer program to process the data and output it to the image recognition calculation unit 3. (Omitted).
  • the image recognition calculation unit 3 inputs a local image divided for each fraction output from the motion information acquisition unit 2 and outputs classified information.
  • the examiner can set (select) the entire image and the local region of the image.
  • the examiner selects the entire image when diagnosing the movement of the entire organ, and selects a local region of the image when diagnosing calcification or ischemia information of a part of the myocardium.
  • FIG. 5 is a diagram showing the principle of division of the myocardial region. As shown in FIG. 5, the myocardial region is divided into 16 fractions or 17 fractions recommended by ASE (AMerican Society of Echocardiography). The division method is performed by manual operation by the examiner or image recognition processing using the shape of the image as a feature amount.
  • ASE AMerican Society of Echocardiography
  • second motion vector an example of an image local motion vector (second motion vector) is shown.
  • This motion vector indicates how much the luminance value Aj moves between different time phases, and is represented by a horizontal movement component (xj) in the drawing and a vertical movement component (y direction) yj in the drawing. What can be expressed is the same as the first motion vector.
  • the difference from the first motion vector is that the first motion vector is motion analysis information from the entire image, whereas the second motion vector is (c) the 13th partial image (local) of the apex 2-chamber image It is only motion analysis information.
  • a vector in which luminance values are arranged in the order of arbitrary extraction positions in the k-th fraction of the j-th image is Ajk.
  • the motion vector of the entire image from the end diastole to the end systole of the heart is different in each cross section.
  • Aj is a vector in which luminance values are arranged in the order of arbitrary extraction positions in the j-th pixel of the image.
  • the type of cross section is Vj.
  • the motion vector is decomposed orthogonally into xj and yj. In the case of polar coordinates, the diameter rj and the angle ⁇ j may be used.
  • the information Ij obtained from the image j is represented as a vector as shown in Equation 2 above.
  • Ij (Aj) (Equation 3) It is also possible to use the above equation 1 when only movement is used.
  • the motion vector is decomposed orthogonally into xjk and yjk.
  • the motion vector may be a diameter rjk and an angle ⁇ jk as long as it is expressed in polar coordinates.
  • the information Ijk obtained from the fraction k of the image j is expressed as a formula 4 as a vector.
  • Equation 5 (Ajk
  • the first motion vector is a macro motion analysis for the entire sector image.
  • the second motion vector may be combined with the first motion vector and the second motion vector in a form supplemented by a micro motion analysis for the sector image divided image.
  • ⁇ S32 and S34 in the present embodiment are the same as those in the first embodiment except that the following program is executed.
  • the exercise information acquisition unit 2 stores the ultrasonic image in a storage unit owned by the exercise information acquisition unit 2 (step S32).
  • the motion information acquisition unit 2 acquires a motion vector by the method described above from the ultrasonic images of different time phases and the stored ultrasonic images.
  • the motion extraction calculation unit 31 of the image recognition calculation unit 3 performs an analysis process of the direction component of the acquired motion vector (step S34).
  • the motion information acquisition unit 2 is added, and the motion abnormality in the local region of the organ can be analyzed.
  • the medical image processing apparatus further includes an external motion measurement unit 4 connected to the motion information acquisition unit 2 so as to be able to transmit signals to the configuration of the second embodiment.
  • the external motion measurement unit 4 obtains a motion measurement value of the living tissue by electromagnetism including an electrocardiogram measurement device, a magnetocardiogram measurement device, a blood vessel pulsation measurement device, and a respiratory motion measurement device.
  • Step S34 of this embodiment is the same as that of Embodiment 1 except that the following program is executed.
  • the motion information acquisition unit 2 is the above described FIG. 4 from the ultrasonic images of different time phases, the stored ultrasonic images, and the measurement values measured by the external motion measurement unit 4 such as an electrocardiograph. Get the motion vector.
  • the measurement value can be added to the calculation of the motion vector because the myocardial contraction / expansion signal by the electrocardiogram is obtained in synchronization with the image measurement.
  • the ECG waveform can detect whether the heart beats earlier or later, if the timing to be acquired is an R wave, the time phase different from the predetermined time phase is not a periodic motion Even in this case, the motion vector can be calculated with the image data synchronized with the R wave measured by the external motion measuring unit 4.
  • the motion extraction calculation unit 31 performs an analysis process on the direction component of the acquired motion vector (step S34).
  • a specific effect of the present embodiment is that a motion vector can be calculated even when the predetermined time phase and the different time phase have an indefinite period.
  • the medical image processing apparatus further includes a lesion type estimation unit 6 connected to the image recognition calculation unit 3 so as to be able to transmit signals to the configuration of the first embodiment.
  • the lesion type estimation unit 6 has diagnostic information added in advance by image diagnosis for a medical image including a lesion portion of the medical images, and stores the diagnosis information and a medical image including the lesion portion in association with each other. It is.
  • ⁇ Steps S35 and S36 of the present embodiment are the same as those of the first embodiment except that the following program is executed.
  • the feature extraction calculation unit 33 of the image recognition calculation unit 3 applies a method based on calculation of basic statistics such as mean and variance, principal component analysis, and independent component analysis to the information Ij. Extract feature values.
  • the identification calculation unit 36 identifies which basic cross section is an echocardiographic examination from the feature amount, and outputs data in which the basic cross section information and the ultrasonic image are associated to the lesion type estimation unit 6.
  • the lesion type estimation unit 6 calculates, for example, an index called a known wall motion score index. This index is used, for example, to measure whether or not the myocardium in the coronary artery control region in coronary artery disease suffers from myocardial infarction.
  • the lesion type estimation unit 6 generates a display format in which the disease information obtained using such an index is added to the ultrasound image (step S35).
  • the image display unit 5 displays the index and the ultrasonic image side by side according to the display format. Note that this display step is not an essential step when the ultrasonic images are classified and stored in the storage unit without being displayed (step 36).
  • a unique effect of the present embodiment is that the classification of the disease can be presented to the examiner.
  • the medical image processing apparatus includes a learning calculation unit 34 that is connected to the feature amount extraction unit 33 in a manner capable of transmitting signals in the image recognition calculation unit 3, and a learning calculation in the configuration of the first embodiment.
  • the learning data storage unit 35 is further connected to the unit 34 and the identification calculation unit 36 so as to be able to transmit signals.
  • the learning calculation unit 34 has a known learning algorithm such as a neural network, and the feature value output from the feature extraction calculation unit 33 is input to perform learning calculation.
  • the learning data storage unit 35 is a storage device that stores the learning data calculated by the learning calculation unit 34, and is a hard disk or a memory.
  • the identification calculation unit 36 identifies features extracted from the newly input image based on the learning data stored in the learning data storage unit 35.
  • FIG. 9 is a flowchart showing an outline of the operation of the medical image processing apparatus according to the fifth embodiment of the present invention.
  • the present invention assumes a learning algorithm having a teacher signal, and is divided into a part for learning using a plurality of images and a part for recognizing an input image based on learning data.
  • the luminance extraction calculation unit 32 extracts the luminance of the biological tissue portion of the image
  • the motion extraction calculation unit 31 extracts the motion vector of the biological tissue portion of the image (step S91).
  • luminance extraction calculation unit 32 may extract the luminance as it is, or may take an average value in a certain neighborhood.
  • the time phase of the image can be freely selected, and an ECG (electrocardiograM) R-wave time phase image that can detect the time phase most generally can be used.
  • ECG electrocardiograM
  • the examiner sets the extraction position only in a portion having a high luminance value such as the myocardium, the number of extraction points can be reduced and the calculation time can be shortened.
  • the motion of the heart is calculated by the motion extraction calculation unit 31 by the motion extraction calculation at the extraction position.
  • a motion calculation method using a block matching method or a gradient method is used.
  • the calculation period of the exercise can be arbitrarily set to match the individual difference of the subject.
  • the motion calculation period may be a period with the largest amount of movement, such as from the end diastole to the end systole. If the next image data exists, the luminance value and motion are similarly extracted (step S92).
  • Feature extraction calculation unit 33 performs feature extraction calculation on information Ij obtained from image j (step S93).
  • the feature extraction calculation unit 33 extracts features of each cross section V by applying, for example, basic statistic calculation such as mean and variance, principal component analysis, and independent component analysis.
  • the learning calculation unit 34 performs learning calculation on the extracted features.
  • the learned data is stored in the learning data storage unit 35, and the learning process ends (step S94).
  • the luminance extraction calculation unit 32 first determines the luminance of the biological tissue portion of the image and the motion extraction calculation unit 31 applies the biological image of the image to the medical image input from the medical image generation unit 1 as in the learning.
  • a motion vector of the tissue part is extracted (step S95).
  • the feature extraction calculation unit 33 performs feature extraction based on luminance and movement as in the learning (step S96).
  • the identification calculation unit 36 collates the learning data with the characteristics of the input image and classifies the medical image into the most similar cross section (step S97).
  • the image display unit 5 displays the classified section types together with the ultrasonic image, and ends the recognition process (step S98).
  • cross-sectional type can be stored in association with the image data.
  • a unique effect of the present embodiment is that the recognition rate can be improved by applying a learning algorithm using luminance and motion as a feature amount, as compared with recognition only of luminance.
  • a learning algorithm using luminance and motion as a feature amount, as compared with recognition only of luminance.
  • the medical image processing apparatus of the sixth embodiment is implemented with the same hardware configuration as that of the fifth embodiment.
  • Example 6 is a method of performing recognition processing for each local area of the myocardium, not the entire image.
  • FIG. 10 is a diagram showing a display example of a stress echo test for explaining the sixth embodiment of the present invention.
  • the myocardium is divided into 16 fractions on the screen 90, the examiner visually confirms the movement of the myocardium, and scores the good or bad, which are indicated by 91 and 92 Display and record in the area.
  • the score is not evaluated (no score), norMal (1 point), hypokinetic (2 points), akinetic (3 points), dyskinetic (4 points).
  • the total evaluation of wall motion is performed by dividing the total of these points by the number of visualized fractions as the wall motion score index. Since this operation is visually inspected for each fraction while switching the cross section, the operator is forced to perform a very complicated operation.
  • the probe is operated by the examiner, the operation man-hours for the operator are reduced by recognizing the cross-sectional type and scoring by calculation processing.
  • ⁇ Steps S91 and S95 of the present embodiment are the same as those of the fifth embodiment except that the following program is executed.
  • the feature extraction calculation unit 33 recognizes the type of the cross section based on the luminance of the image calculated from the luminance extraction calculation unit 32 and the heart motion calculated from the motion extraction calculation unit 31.
  • the myocardium divided into sections by the motion information acquisition unit 2 is divided into existing automatic contour extraction processes or manually for each fraction.
  • the luminance extraction calculation unit 32 and the movement extraction calculation unit 31 arrange measurement points in each fraction and calculate the luminance and the movement in the same manner as in the fourth embodiment. That is, the luminance extraction calculation unit 32 extracts the luminance of the biological tissue portion of the image, and the motion extraction calculation unit 31 extracts the motion vector of the biological tissue portion of the image (step S91).
  • step 91 that is, the previous processing is added to the first step 95 of the recognition processing.
  • a unique effect of the present embodiment is that it is possible to automatically quantify local myocardial motion abnormalities that were difficult with still images by recognizing motion for each myocardial fraction.
  • the accuracy of quantification can be improved by using both motion and luminance information.
  • an image search function is added to the image recognition calculation unit 3. Except for the additional functions, the hardware configuration is the same as that of the fifth embodiment.
  • the image search function of the seventh embodiment performs image search at the time of inspection and image search using a thumbnail search screen.
  • the image retrieval method is based on a known image recognition technique.
  • FIG. 11 is a flowchart showing an outline of an image search operation of the medical image processing apparatus according to the seventh embodiment of the present invention
  • FIG. 12 is a display example when an image having the highest similarity is displayed on the image from the medical image generation unit.
  • FIG. 13 is a diagram showing a display example when there are a plurality of images similar to the image from the medical image generation unit.
  • the image recognition calculation unit 3 searches the image set by the search item 122 or 136 in a specific range (for example, the same patient, the same examination date, the same cross section), and the search target image is Search for existence.
  • the search item 122 or 136 can be arbitrarily set by the examiner by operating a soft switch or pull-down menu on the screen with a pointing device (step S111).
  • the image display unit 5 displays it to confirm whether the set search item is added to the image data (step S112).
  • the image recognition calculation unit 3 performs recognition processing on the search item according to the first to fourth embodiments (step S113).
  • the image recognition calculation unit 3 stores the classified types together with the image data (step S104).
  • the image recognition calculation unit 3 collates the image data in which the set search item 122 or 136 and the classified type are stored together (step S115).
  • the image recognition calculation unit 3 stores a search result that matches the search item 122 or 136.
  • the image display unit 5 displays the image data to which the set search item is added (step S116).
  • GUI 12 is a graphical user interface (GUI) 120 at the time of B-mode image inspection in the display example of FIG.
  • GUI graphical user interface
  • the left search item A122 is acquired as a 2-point image of the apex
  • the right search item B122 is specified as a 4-point image of the apex and is acquired in the past.
  • the image of each setting item is recalled and displayed, allowing comparison between the two screens.
  • the search item is classified as a dynamic abnormality, it can be used for searching for similar lesions. As a result, the examiner can reduce the trouble of visually selecting an image from a large number of image data and diagnostic information.
  • the screen 133 is for searching with thumbnail images.
  • the upper left image 134 is a reference source image of a predetermined subject.
  • a search item is specified in the search item 136
  • a group of candidate images that are similar to each other with respect to the search item of the reference source image 134 are displayed on the candidate screen 135.
  • the search item is wall Motion score index
  • an image having a value close to the index of the reference source image is displayed on the candidate screen 135. This facilitates comparison with images having similar lesions and dynamics, so that the quality of the examination is improved and the burden on the examiner can be reduced.
  • the feature amount extraction is performed on the entire pixels of the ultrasonic image, but the following method may be used in which the sample points on the heart wall are used.
  • FIG. 14 is a diagram showing an example of a motion vector calculation method different from those in FIGS.
  • the entire sector image has extraction positions (x marks) spaced in a grid pattern (the distance between the extraction positions is d) and overlaps the heart wall, heart chamber, etc. in the sector image or First motion vectors A to F from extraction positions located in the vicinity are defined.
  • the moving distance and moving direction are calculated for the contraction period and the expansion period of the heartbeat.
  • the relationship between the movement distance and the movement direction of the first motion vectors A to F is as follows.
  • each embodiment has been described as an example applied to an ultrasonic tomographic image (B mode image)
  • various medical image diagnostic apparatuses that capture an elastic imaging image, an X-ray image, an X-ray CT image, and an MRI image
  • This technique can be applied directly to a reference image or a reference image of a real-time virtual sonography (RVS) image.
  • RVS real-time virtual sonography

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

 本発明の超音波診断装置は、被検体の生体組織を撮影した医用画像を複数得る画像情報取得部と、前記複数得られた医用画像の時相が異なる同士の画素値から前記生体組織の運動情報を得、前記運動情報に基づき前記医用画像を所定の種類毎に分類する画像認識演算部と、を備える。

Description

医用画像処理装置及び医用画像処理方法
 本発明は、医用画像の断面情報や組織動態の種類を画像認識で分類する医用画像処理装置とその方法に関するものである。
 医用画像診断装置における画像診断では、検者(操作者)が画像診断により疾病を発見することなどを効率的に行うため、医用画像の断面情報や組織動態の種類により医用画像を分類している。
 この分類の手法は、断面情報や組織動態がその画像の形状に特徴があることから、画像認識技術を用いて医用画像を分類する。検者が分類した結果の画像を読影すれば逐一分類する場合と比較して効率的である。
 例えば、超音波診断装置では、心臓計測において、静止画像の輝度値の特徴量を利用した画像認識技術により心臓の断面の種類や組織の位置情報を取得して分類している。さらに、この心臓計測では、生体組織の動き解析を行い、その解析結果を画面表示し、誤って分類された医用画像を検者によって訂正できるようにしている(例えば、特許文献1)。
特開2002-140689号公報
 しかしながら、特許文献1の開示は、前記生体組織の動き解析を行い、その解析結果を画面表示し、誤って分類された医用画像を検者によって訂正することに止まっている。
 よって、特許文献1では、運動する生体組織を含む医用画像の分類精度の向上については一切考慮されていない。
 本発明の目的は、運動する生体組織を含む医用画像の分類精度の向上が可能な医用画像処理装置及び医用画像処理方法を提供することにある。
 上記目的を達成するため、本発明の医用画像処理装置は、被検体の生体組織を撮影した医用画像を複数得る画像情報取得部と、前記複数得られた医用画像の時相が異なる同士の画素値から前記生体組織の運動情報を得、前記運動情報に基づき前記医用画像を所定の種類毎に分類する画像認識演算部と、を備えたことを特徴とするものである。
 前記画像情報取得部が被検体の生体組織を撮影した医用画像を複数得、前記画像認識演算部が前記複数得られた医用画像の時相が異なる同士の画素値から前記生体組織の運動情報を得、前記運動情報に基づき前記医用画像を所定の種類毎に分類することにより、医用画像の画像認識の精度向上が可能となる。
 また、本発明の医用画像処理方法は、画像情報取得部により被検体の生体組織を撮影した医用画像を複数得るステップと、画像認識演算部により前記複数得られた医用画像の時相が異なる同士の画素値から前記生体組織の運動情報を得、前記運動情報に基づき前記医用画像を所定の種類毎に分類するステップと、を含むことを特徴とするものである。
 前記医用画像取得ステップが画像情報取得部により被検体の生体組織を撮影した医用画像を複数得、次いで医用画像分類ステップが画像認識演算部により前記複数得られた医用画像の時相が異なる同士の画素値から前記生体組織の運動情報を得、前記運動情報に基づき前記医用画像を所定の種類毎に分類することにより、医用画像の画像認識の精度向上が可能となる。
 本発明によれば、運動する生体組織を含む医用画像の分類精度の向上が可能な医用画像処理装置及び医用画像処理方法を提供することができる。
本発明の実施例1における医用画像処理装置の概略を示すブロック図。 心エコー図検査で取得する基本断面と、画像の輝度値と組織の動きベクトルを抽出する例を示す図。 本発明の実施例2における医用画像処理装置の動作の概略を示すフローチャート。 心筋領域の分割の原理を示す図。 本発明の実施例3における医用画像処理装置の動作の概略を示すフローチャート。 本発明の実施例4における医用画像処理装置の概略を示すブロック図。 本発明の実施例5における医用画像処理装置の概略を示すブロック図。 本発明の実施例5における医用画像処理装置の概略を示すブロック図。 本発明の実施例5における医用画像処理装置の動作の概略を示すフローチャート。 本発明の実施例6を説明するためのストレスエコー検査の表示例を示す図。 本発明の実施例7における医用画像処理装置の画像検索の動作の概略を示すフローチャート。 医用画像生成部からの画像に最も類似度が高い画像が表示される場合の表示例を示す図。 医用画像生成部からの画像に類似する画像が複数存在する場合の表示例を示す図。 図2、図5と異なる動きベクトル演算手法の例を示す図。
 以下図面に基づいて、本発明の実施形態を詳細に説明する。
 医用画像は超音波診断装置から得られる超音波画像とする。また、運動する生体組織の画像の対象は心臓画像とする。
 ここでは、前記超音波診断装置において心臓の運動の抽出期間を可変設定し、前記可変設定された心臓の運動の抽出期間にて超音波画像を所定の種類毎に分類する例を説明する。
 図1は、本発明の実施例1における医用画像処理装置の概略を示すブロック図である。
 医用画像処理装置は、図1に示すに示すように、超音波画像生成部1と、超音波画像生成部1と信号伝達可能に接続される画像認識演算部3と、画像認識演算装置3と信号伝達可能に接続される画像表示部5とを備える。本願の明細書では。「信号伝達可能」とは、電磁気、光などあらゆる手段で被接続体と接続体とが信号伝達可能であると定義する。
 超音波画像生成部1は、超音波診断装置により超音波画像を生成する。超音波画像にはBモード像(断層像)、Mモード像、3Dモード像などがある。
 画像認識演算部3は、超音波画像の種類を識別するもので、具体的には超音波画像生成装置1から出力された画像を入力し、入力画像全体の動きの特徴量を抽出して、断面の種類を分類する処理を行っている。また、画像認識演算部3は、超音波画像生成部1と信号伝達可能に接続され生体組織の運動を抽出する運動抽出演算部31と、超音波画像生成部1と信号伝達可能に接続され生体組織の輝度を抽出する輝度抽出演算部32と、運動抽出演算部31及び輝度抽出演算部32のそれぞれと信号伝達可能に接続され前記抽出された運動の各抽出量を演算し、図示しない自身が保有するメモリに記憶する特徴抽出演算部33と、特徴抽出演算部33と信号伝達可能に接続され前記特徴量から入力された超音波画像の種類を識別する識別演算部36と、を有している。
 心エコー図検査で取得する断面には、5種類の基本断面がある。図2は心エコー図検査で取得する基本断面を示す図である。ここでいう基本断面とは、図2に示すように(a)傍胸骨長軸像、(b)傍胸骨短軸像、(c)心尖部2腔像、(d)心尖部長軸像、(e)心尖部4腔像である。
上記各画像の分類は、検者の手動でなく画像認識技術によりできるようにすれば、画像計測の際に検者の診断の工数の負担軽減に有用である。
 心臓の運動は、運動抽出演算部31において、抽出領域における運動抽出演算によって各点の動きベクトルの集合としての動きが例えば加算平均値などで計算される。例えば、ブロックマッチング法や勾配法を用いた運動計算法が用いられる。
 まず、ブロックマッチング法による動き検出は、先ず、対象となる連続する二つのフレームの一つにおいて,動きを検出したい画像が含まれる小領域をブロックとして記憶する。次に、他方のフレームにおいて,先のブロックと同じ大きさの領域で画像の類似度を演算する。更に、類似度演算をフレームの全体の領域に対して行う.この中からもっとも類似度が大きい領域が、動き検出をしたい物体の画像が移動した領域であるから、この領域の座標と先に記憶したブロックの座標から移動距離と移動方向を演算して終了する。ブロックマッチング法は、フレーム全体の領域で対象ブロックとの類似度を求めるため、処理
量は莫大になるが、精度良く動きを検出できる。
 また、勾配法は、時空間における各画素の輝度勾配の拘束を利用して対応点の探索を行うもので、画像の濃淡パターンが運動に対して不変に保たれるという仮定に基づいており、画像中の濃淡分布の空間的勾配と時間的勾配を関係つける式を基にした解析手法である。計算量が少なく、高速な処理が可能であるが、動きの大きな物体のフローを求めるにはノイズが多くなる傾向がある。
 心臓の運動を計算する期間は、被検者の心拍に個体差があるために、検者の操作設定が任意に設定可能でなければならない。この計算期間は、例えば心臓拡張末期から収縮末期のように最も動き量が大きい期間を抽出してもよい。次の画像データが存在すれば、同様に輝度値の動きを抽出する。
 また、図2は拡張末期から収縮末期までの画像全体の動きベクトル(第1の動きベクトル)の例を示している。ここで動きベクトルとは、輝度値Ajが異なる時相間でどの程度移動するかを示すものである。動きベクトルは、それぞれ図面の水平方向(X方向)の移動成分xj,図面の垂直方向(Y方向)の移動成分yjによって表すことができる。
各断面において輝度値の特徴量と動きの特徴量は、この動きベクトルの演算によって得られる。
 ここでは、j番目の画像におけるベクトルをベクトルAjとし、断面の種類をVjとする。
動きベクトルAjは図面のx方向、y方向に分解してxj、yjとする。直交座標系でなく極座標であれば、径rj、角度θjとしても良い。これにより画像jから得られる情報Ijをベクトルとして式1のように表される。
            Ij=(xj|yj)・・・(式1)
 輝度を併用する場合には、輝度抽出演算部32の出力を用いて式2のように表される。例えば、輝度抽出演算部32の出力は、前記超音波信号の振幅値を前記生体組織の形態情報とする。
            Ij=(Aj|xj|yj)・・・(式2)
 運動と輝度を併用すれば、心エコー図検査での何れの基本断面の識別精度の向上が期待できる。
 特徴抽出演算部33は、前記画像全体の情報Ijに対して画像として描出される各断面Vの特徴量を抽出する。例えば平均や分散等の基本統計量の計算や、超音波画像の全体の各画素における動きベクトルAjの主成分分析や独立成分分析による方法を適用して、画像として描出される各断面Vjの特徴量を抽出する。主成分分析等の対象は、動きベクトルAjがxy座標で示される場合は超音波画像の全体の各画素のxj、yjであり、動きベクトルAjが極座標で示される場合は超音波画像の全体の各画素のrj、θjである。
 識別演算部36は、前記各断面Vの特徴量を前記メモリから読み出し、その読み出された特徴量を用いて入力された超音波画像の種類を識別する。具体的には、識別演算部36は、図2(c)の例のように、前記特徴量から超音波画像の種類が心尖部2腔像と識別される。
 画像表示部5は、前記種類が識別された超音波画像を種類別に画面表示する。具体的には、画像表示部5は、前記種類が識別された心尖部2腔像を表示する。
 図3は、本発明の実施例1における医用画像処理装置の動作の概略を示すフローチャートである。
 医用画像生成部1は、所定の時相の超音波画像を1フレーム分取得する(ステップS31)。
 画像認識演算部3は、図示しない自身が保有する記憶部に前記超音波画像を記憶する(ステップS32)。
 医用画像生成部1は、前記所定の時相と異なる時相(例えば、前記所定の時相の次の時相)の超音波画像を1フレーム分取得する(ステップS33)。
 画像認識演算部3は、前記異なる時相の超音波画像と前記記憶された超音波画像とから上述した手法で動きベクトルを取得する。画像認識演算部3の運動抽出演算部31は、取得された動きベクトルの方向成分の解析処理を行う(ステップS34)。
 画像認識演算部3の特徴抽出演算部33は、前記情報Ijに対して、例えば平均や分散等の基本統計量の計算や、主成分分析や独立成分分析による方法を適用して、各断面Vの特徴量を抽出する。識別演算部36は、前記特徴量から心エコー図検査での何れの基本断面であるかを識別し、前記基本断面情報と前記超音波画像とを関連付けた表示フォーマットを生成する(ステップS35)。
 画像表示部5は、前記表示フォーマットに従い、前記基本断面情報と前記超音波画像を並置して表示する。なお、この表示ステップは、表示を行わずに超音波画像を分類して記憶部に記憶する場合には必須のステップではない(ステップ36)。
 本実施例によれば、運動する生体組織を含む医用画像の分類精度の向上ができる効果がある。また、本実施例の特有の効果は、必要最小限の構成要素であり、超音波画像が処理のために通過するパスが最短であるため、前記異なる時相の超音波画像が実時間で分類処理ができる。
 図4は、本発明の実施例2における医用画像処理装置の概略を示すブロック図である。
 医用画像処理装置は、図4に示すに示すように、図1に追加される構成として、超音波画像生成部1と信号伝達可能に接続される運動情報取得部2をさらに備える。
 運動情報取得部2は、コンピュータがプログラムを実行することによって超音波画像上で心臓の心筋領域を分割する。コンピュータは超音波画像生成部1からの超音波画像などのデータを記憶する記憶部(図示省略)と、前記コンピュータプログラムを実行してデータを処理し、画像認識演算部3へ出力するCPU(図示省略)を有している。
 画像認識演算部3は、運動情報取得部2から出力される分画毎に分割された局所の画像を入力し、分類された情報を出力するものである。
 ここで、検者は画像全体と画像の局所領域を設定(選択)することができる。具体例として、検者は臓器全体の動きを診断する場合は画像全体を選択し、心筋の一部の石灰化や虚血情報を診断する場合は画像の局所領域を選択する。
 図5は、心筋領域の分割の原理を示す図である。心筋領域の分割とは、図5に示すように、心筋をASE(AMerican Society of Echocardiography)が推奨する16分画または17分画に分割するものである。その分割の方法は、検者によるマニュアル操作または画像の形状を特徴量とする画像認識処理で行われる。
 ここでは、画像局所の動きベクトル(第2の動きベクトル)の例を示している。この動きベクトルは、輝度値Ajが異なる時相間でどの程度移動するかを示すもので、それぞれ図面の水平方向(X方向)の移動成分xj, 図面の垂直方向(Y方向)の移動成分yjによって表すことができることは、第1の動きベクトルと同じである。第1動きベクトルとの相違点は、第1動きベクトルが画像全体からの動き分析情報であるのに対して、第2動きベクトルが(c)心尖部2腔像の第13分画像(局所)のみの動き分析情報である。
 ここで、j番目の画像のk番目の分画において、任意の抽出位置順に輝度値を並べたベクトルをAjkとする。
 心臓の拡張末期から収縮末期までの画像全体の動きベクトルは、各断面において異なっているということができる。ここで、画像のj番目の画素において、任意の抽出位置順に輝度値を並べたベクトルをAjとする。また、断面の種類をVjとする。動きベクトルを直交に分解してxj、yjとする。極座標であれば、径rj、角度θjとしても良い。これにより画像jから得られる情報Ijをベクトルとして前出の式2のように示される。
 輝度だけを用いる場合には
         Ij=(Aj)…(式3)
 としても良いし、動きだけを用いる場合には前出の式1としても良い。 
 動きベクトルは直交に分解してxjk、yjkとする。動きベクトルは、また極座標で示すのであれば、径rjk、角度θjkとしても良い。これにより画像jの分画kから得られる情報Ijkをベクトルとして式4のように示される。
         Ijk=(Ajk|xjk|yjk)…(式4)
 輝度だけを用いる場合には式5としても良いし、動きだけを用いる場合には式6としても良い。
         Ijk=(Ajk)…(式5)
         Ijk=(xjk|yjk)…(式6)
 いわば、第1動きベクトルはセクタ画像全体を対象としたマクロな動き解析である。マクロな分類での精度はさらに向上したい要求がある。そこで、第2動きベクトルはセクタ画像分割画像を対象としたミクロな動き解析で補う形で第1動きベクトルと第2動きベクトルを組み合わせてよい。
 本実施例のS32、S34が、次のプログラムを実行することとなる以外、実施例1と同じである。
 運動情報取得部2は、自身が保有する記憶部に前記超音波画像を記憶する(ステップS32)。
 運動情報取得部2は、前記異なる時相の超音波画像と前記記憶された超音波画像とから上記説明した手法で動きベクトルを取得する。画像認識演算部3の運動抽出演算部31は、取得された動きベクトルの方向成分の解析処理を行う(ステップS34)。
 本実施例によれば、運動する生体組織を含む医用画像の分類精度の向上ができる効果がある。また、本実施例の特有の効果は、運動情報取得部2が付加され、臓器の局所領域の運動の異常を解析することができる。
 医用画像処理装置は、図6に示すように、実施例2の構成に、運動情報取得部2と信号伝達可能に接続される外部運動計測部4をさらに備える。
 外部運動計測部4は、心電計測装置、心磁計測装置、血管拍動計測装置、呼吸動計測装置を含む電磁気により前記生体組織の運動計測値を得るものである。
 本実施例のステップS34が、次のプログラムを実行することになる以外、実施例1と同じである。
 運動情報取得部2は、前記異なる時相の超音波画像と前記記憶された超音波画像と心電計測装置などの外部運動計測部4によって計測された計測値とから上記で説明した図4での動きベクトルを取得する。前記計測値は心電による心筋の収縮/拡張の信号が画像計測に同期して得られるので、動きベクトルの計算に加味することができる。つまり、心電波形は心拍が早くなったり遅くなったりすることを検出することができるので、取得すべきタイミングがR波であれば、たとえ所定の時相と前記異なる時相が周期運動でなくなっていても、外部運動計測部4によって計測されたR波と同期した画像データでもって動きベクトルを計算することができる。運動抽出演算部31は、取得された動きベクトルの方向成分の解析処理を行う(ステップS34)。
 本実施例によれば、運動する生体組織を含む医用画像の分類精度の向上ができる効果がある。また、本実施例の特有の効果は、前記所定の時相と前記異なる時相が不定周期となっても、動きベクトルが計算できる。
 医用画像処理装置は、図7に示すに示すように、実施例1の構成に、画像認識演算部3と信号伝達可能に接続される病変種類推定部6をさらに備える。
 病変種類推定部6は、前記医用画像のうちの病変部を含む医用画像について診断情報が予め画像診断により付加され、その診断情報と該病変部を含む医用画像を対応付けて記憶しているものである。
 本実施例のステップS35、S36が、次のプログラムを実行することになる以外、実施例1と同じである。
 画像認識演算部3の特徴抽出演算部33は、前記情報Ijに対して、例えば平均や分散等の基本統計量の計算や、主成分分析や独立成分分析による方法を適用して、各断面Vの特徴量を抽出する。識別演算部36は、前記特徴量から心エコー図検査で何れの基本断面であるかを識別し、前記基本断面情報と前記超音波画像とを関連付けたデータを病変種類推定部6に出力する。病変種類推定部6は、例えば、公知の壁運動スコア指標(wall Motion csore index)と呼ばれる指標を計算する。この指標は、例えば、冠動脈疾患における冠動脈支配領域にある心筋が心筋梗塞を罹患しているか否かを計るために利用される。病変種類推
定部6はこのような指標を利用して得られた疾患情報を超音波画像に付加した表示フォーマットを生成する(ステップS35)。
 画像表示部5は、前記表示フォーマットに従い、前記指標と前記超音波画像を並置して表示する。なお、この表示ステップは、表示を行わずに超音波画像を分類して記憶部に記憶する場合には必須のステップではない(ステップ36)。
 本実施例によれば、運動する生体組織を含む医用画像の分類精度の向上ができる効果がある。また、本実施例の特有の効果は、前記疾患の分類を検者に提示することができる。
 医用画像処理装置は、図8に示すに示すように、実施例1の構成に、画像認識演算部3内に特徴量抽出部33と信号伝達可能に接続される学習演算部34と、学習演算部34及び識別演算部36と信号伝達可能に接続される学習データ記憶部35と、をさらに備える。
 学習演算部34は、ニューラルネットワークなどの公知の学習アルゴリズムを有しており、特徴抽出演算部33から出力された特徴量が入力され、学習演算を行う。
 学習データ記憶部35は、学習演算部34で演算された学習データを格納する記憶装置であり、ハードディスクやメモリなどである。
 識別演算部36は、学習データ記憶部35に記憶しておいた学習データに基づいて、新たに入力された画像から抽出された特徴を識別する。
 図9は、本発明の実施例5における医用画像処理装置の動作の概略を示すフローチャートである。
 本発明は、教師信号を有する学習アルゴリズムを想定しており、複数画像を使って学習する部分と、入力画像を学習データに基づいて認識する部分に分けられる。
 学習処理では、まず輝度抽出演算部32が画像の生体組織部分の輝度を抽出し、運動抽出演算部31が画像の生体組織部分の運動ベクトルを抽出する(ステップS91)。
 例えば、セクタ画像で輝度を抽出する場合を考える。画像全体の輝度と動きを計算しても良いが、計算量が多いので、例えばサンプリングした格子状に間隔をおいて計算してもよい。また、輝度は、輝度抽出演算部32において、画像の輝度値そのままの値を抽出しても良いし、ある程度の近傍での平均値を取っても良い。画像の時相は自由に選択可能であり、一般に最も時相を検出しやすいECG(electrocardiograM)のR波時相の画像を用いることができる。また、検者が心筋などの輝度値が高い部分のみに抽出位置を設定することにより、抽出点数を減らして計算時間を短縮させることができる。心臓の運動は、運動抽出
演算部31において、抽出位置における運動抽出演算によって計算される。例えば、ブロックマッチング法や勾配法を用いた動き計算法が用いられる。運動の計算期間は被検者の個体差に合わせるため任意に設定可能である。例えば、運動の計算期間は拡張末期から収縮末期のように最も動き量が大きい期間でもよい。次の画像データが存在すれば同様に輝度値と動きの抽出を行う(ステップS92)。
 特徴抽出演算部33は、画像jから得られる情報Ijに対して特徴抽出演算を行う(ステップS93)。
 特徴抽出演算部33は、例えば、平均や分散等の基本統計量の計算や、主成分分析や独立成分分析による方法を適用して、各断面Vの特徴を抽出する。学習演算部34は、抽出された特徴に対して学習演算を行う。学習されたデータは、学習データ記憶部35に保存され、学習処理終了する(ステップS94)。
 認識処理では、医用画像生成部1から入力された医用画像に対して、学習時と同様に、まず輝度抽出演算部32が画像の生体組織部分の輝度を、運動抽出演算部31が画像の生体組織部分の運動ベクトルを抽出する(ステップS95)。
 特徴抽出演算部33は、学習時と同様に、輝度と運動により、特徴抽出を行う(ステップS96)。
 識別演算部36は、学習データと入力画像の特徴を照合して、最も類似している断面に医用画像を分類する(ステップS97)。
 画像表示部5は、前記分類された断面の種類を超音波画像とともに表示し、認識処理を終了する(ステップS98)。
 さらに、断面種類を画像データに対応付けて記憶することできる。
 本実施例によれば、運動する生体組織を含む医用画像の分類精度の向上ができる効果がある。また、本実施例の特有の効果は、輝度と動きを特徴量とした学習アルゴリズムを適用することによって、また、輝度のみの認識に比べて、認識率を向上させることができる。また、運動の良し悪しを分類することも可能であるので、心臓動態の分類にも有用である。
 実施例6の医用画像処理装置は実施例5と同じハードウエアの構成で実施される。
 実施例6では、画像全体ではなく、心筋の局所ごとに認識処理を行う方法である。
 図10は、本発明の実施例6を説明するためのストレスエコー検査の表示例を示す図である。
 例えば、ストレスエコー検査では、図10のように、画面90に心筋を16分画に分割し、検者が心筋の動きを目視で確認し、その良し悪しを点数化して91、92で示されるエリアに表示し、記録する。点数は、評価不可(点数なし)、norMal(1点)、hypokinetic(2点)、akinetic(3点)、dyskinetic(4点)とされる。これら点数の合計を可視化された分画数で除した値をwall Motion score indexとして壁運動の総合評価が行われる。この操作は、断面を切り替えながら、かつ、分画毎に目視で検査するために、操作者には非常に煩雑な操作を強いられることになる。実施例6ではプローブの操作は検者が行うものの、断面の
種類の認識と点数付けを演算処理で行うことで、操作者の操作工数の低減を図っている。
 本実施例のステップS91及びS95が、次のプログラムを実行することになる以外、実施例5と同じである。
 学習処理では、まず、特徴抽出演算部33が、輝度抽出演算部32から演算される画像の輝度、運動抽出演算部31から演算される心臓の運動により断面の種類が認識される。
 次に、運動情報取得部2によって区間ごとに区切られた心筋を分画毎に既存の自動輪郭抽出処理または手動によって分割する。
 次に、輝度抽出演算部32及び運動抽出演算部31は各分画内に計測点を配置して輝度と運動を実施例4と同様に計算する。すなわち、輝度抽出演算部32が画像の生体組織部分の輝度を抽出し、運動抽出演算部31が画像の生体組織部分の運動ベクトルを抽出する(ステップS91)。
 また、認識処理の最初のステップ95にも、前記ステップ91のすなわち以前の処理が付加される。
 本実施例によれば、運動する生体組織を含む医用画像の分類精度の向上ができる効果がある。また、本実施例の特有の効果は、心筋の分画ごとに動きの認識を行うことによって、静止画像では困難であった局所心筋の運動異常の自動定量化が可能になる。また、動きと輝度の両方の情報を使用することにより定量化の精度を向上することができる。
 実施例7の医用画像処理装置は、画像認識演算部3に画像検索機能が追加されている。その追加機能以外は実施例5と同じハードウエアの構成で実施される。
 実施例7の画像検索機能は、検査時における画像検索とサムネイル検索画面を用いた画像検索を行う。画像検索の手法は公知の画像認識技術によるものである。
 図11は本発明の実施例7における医用画像処理装置の画像検索の動作の概略を示すフローチャート、図12は医用画像生成部からの画像に最も類似度が高い画像が表示される場合の表示例、図13は医用画像生成部からの画像に類似する画像が複数存在する場合の表示例を、それぞれ示す図である。
 画像認識演算部3は、画像検索を開始すると、ある特定の範囲(例えば、同一患者、同一検査日、同一断面)において、検索項目122または136で設定された画像を検索し、検索対象画像が存在するか否かを検索する。検索項目122または136は、画面上のソフトスイッチやプルダウンメニューをポインティングデバイスで操作するにより、検者が任意に設定可能となっている(ステップS111)。
 画像表示部5は、検索範囲に画像が存在すれば、設定された検索項目が画像データに付加されているか確認するため表示する(ステップS112)。
 前記検索項目が付加されていない場合、画像認識演算部3は、検索項目に関する認識処理を実施1~4によって行う(ステップS113)。
 画像認識演算部3は、分類された種類を画像データと一体で記憶する(ステップS104)。
画像認識演算部3は、設定された検索項目122または136と分類された種類を一体で記憶した画像データを照合する(ステップS115)。
 画像認識演算部3は、検索項目122または136に合致したものを検索した結果として記憶する。画像表示部5は、設定された検索項目が付加されている画像データを表示する(ステップS116)。
 本実施例によれば、運動する生体組織を含む医用画像の分類精度の向上ができる効果がある。また、本実施例の特有の効果は、次のように表示例毎に説明する。
 図12の表示例では、Bモード像検査時のグラフイカルユーザインターフェース(GUI)120である。例えば、所定の被検者を検査している場面において、左側検索項目A122を心尖部2腔像とし、右側検索項目B122を心尖部4腔像と指定して検索することにより、過去に取得された各設定項目の画像が呼び出されて表示され2画面間の比較を行うことが可能になる。また、検索項目を動態異常の分類とすれば、類似病変の検索にも用いることが可能である。これにより、検者は多数の画像データや診断情報から目視で画像を選択する手間を減らすことが可能になる。
 また図13の表示例では、サムネイル画像で検索する画面133である。例えば、左上の画像134が所定の被検者の参照元画像であるとする。検索項目136において検索項目を指定すると、参照元画像134の検索項目に関して、よく類似した候補の画像群が候補画面135に表示される。例えば、検索項目をwall Motion score indexをすると、参照元画像の前記indexに近い値を持つ画像が候補画面135に表示される。これにより、病変や動態の類似した画像との比較が容易になるため、検査の質が向上するとともに、検者の負担を軽減することが可能になる。
 以上、特徴量の抽出は、超音波画像の全体の画素を対象にしたが、心壁のサンプル点とする次の方法でもよい。
 具体例の一つとして、セクタ画像から図14の心尖部2腔像の特徴量を算出する場合を考える。図14は、図2、図5と異なる動きベクトル演算手法の例を示す図である。まず、セクタ画像全体には格子状に間隔をおいた抽出位置(×印)が存在する(抽出位置間の距離をdとする。)そして、セクタ画像中の心壁や心腔などと重なるあるいは近傍に位置する抽出位置からのA~Fの第1動きベクトルを定義する。第1動きベクトルは心拍の収縮期と拡大期についてそれぞれの移動距離と、移動方向が計算される。例えば、A~Fの第1動きベクトルの移動距離と移動方向との関係が次のとおりとなる。
       第1ベクトルA 移動距離:d/2、移動方向:3時の方向
       第1ベクトルB 移動距離:d/2、移動方向:3時の方向
       第1ベクトルC 移動距離:d/2、移動方向:11時の方向
       第1ベクトルD 移動距離:d/2、移動方向:1時の方向
       第1ベクトルE 移動距離:d/2、移動方向:9時の方向
       第1ベクトルF 移動距離:d/2、移動方向:9時の方向
 これらの類型に計測されたセクタ画像が6つ全て一致すれば心尖部2腔像として当該セクタ画像を分類する。セクタ画像が5つ一致でも心尖部2腔像の候補として当該セクタ画像を分類する。4つ一致以下は心尖部2腔像以外の可能性もあるので、(a)傍胸骨長軸像、(b)傍胸骨短軸像、(d)心尖部長軸像、(e)心尖部4腔像において(c)心尖部2腔像と同様に抽出位置からのベクトル解析を行い、セクタ画像がどの画像に分類されるか判定する。
 また、画像処理の対象が心臓である場合を説明したが画像処理の対象が心臓でない場合はその異なる生体組織に適する運動の抽出期間を設定することになる。
 また、各実施例は、超音波の断層像(Bモード像)に適用する例で説明したが、弾性イメージング画像や、X線像、X線CT像、MRI像を撮像する各種医用画像診断装置への直接の適用又はリアルタイム・バーチャル・ソノグラフィ(RVS)像の参照画像にも適用できる技術である。
 また、添付図面を参照して、本発明に係る医用画像処理装置等の好適ないくつかの実施例について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
 1 画像情報取得部、3 画像認識演算部。

Claims (12)

  1.  被検体の生体組織を撮影した医用画像を複数得る画像情報取得部と、
     前記複数得られた医用画像の時相が異なる同士の画素値から前記生体組織の運動情報を得、前記運動情報に基づき前記医用画像を所定の種類毎に分類する画像認識演算部と、
     を備えたことを特徴とする医用画像処理装置。
  2.  前記画像情報取得部から複数得られた医用画像の時相が異なる同士の局所領域の画素値から前記生体組織の運動情報を得る運動情報取得部を備え、
     前記画像認識演算部は、前記運動情報取得部より得られた運動情報に基づき前記医用画像を所定の種類毎に分類する請求項1に記載の医用画像処理装置。
  3.  心電計測装置、心磁計測装置、血管拍動計測装置、呼吸動計測装置を含む電磁気により前記生体組織の運動計測値を得る外部運動計測装置をさらに備え、
     前記運動情報取得部は、前記外部運動計測装置によって計測される前記生体組織の運動計測値から前記生体組織の運動情報を得る請求項1に記載の医用画像処理装置。
  4.  前記医用画像のうちの病変部を含む医用画像について診断情報が予め画像診断により付加され、その診断情報と該病変部を含む医用画像を対応付けて記憶する病変種類推定部をさらに備え、
     前記画像認識演算部は、前記病変部を含む医用画像と前記生体組織の運動情報とに基づき前記医用画像を前記病変部と推定される種類毎に分類する請求項1に記載の医用画像処理装置。
  5.  前記生体組織の運動の抽出期間を可変設定する抽出期間可変設定部をさらに備え、
     前記画像認識演算部は、前記可変設定された生体組織の運動の抽出期間にて前記医用画像を所定の種類毎に分類する請求項1に記載の医用画像処理装置。
  6.  前記超音波診断装置において前記生体組織の運動の抽出領域を対象画像の全体/局所の何れかに設定する抽出領域設定部をさらに備え、
     前記画像認識演算部は、前記設定された生体組織の運動の抽出領域にて前記医用画像を所定の種類毎に分類する請求項1に記載の医用画像処理装置。
  7.  前記画像認識演算部は、前記生体組織の形態情報と前記運動情報に基づき前記医用画像を所定の種類毎に分類する請求項1に記載の医用画像処理装置。
  8.  前記画像認識演算部は、前記医用画像を所定の種類毎に分類するパターンを求める学習演算部と、求めたパターンを記憶する学習データ記憶部と、その後の事象のうちの前記パターンを更新すべき事象があったときに前記学習演算部に再度パターンを求めさせ、その再度求められたパターンを前記学習データ記憶部に更新記憶させる識別演算部と、をさらに備えた請求項1に記載の医用画像処理装置。
  9.  前記画像認識演算部によって前記所定の種類毎に分類された医用画像を表示する画像表示部をさらに備えた請求項1に記載の医用画像処理装置。
  10.  前記画像情報取得部は、被検体に超音波信号を送信し、前記被検体からの反射エコー信号を受信する探触子と、前記超音波信号を送信するために前記探触子を駆動する探触子駆動部と、前記反射エコー信号から超音波画像データへ変換する画像変換部と、を具備した超音波診断装置であって、
     前記画像認識演算部は、前記超音波信号の振幅値を前記生体組織の形態情報とし、前記生体組織の動き情報と前記形態情報に基づき超音波画像を所定の種類毎に分類する請求項1に記載の医用画像処理装置。
  11.  前記画像認識演算部は、設定された検索項目により検索された画像を表示することを特徴とする請求項1に記載の医用画像処理装置。
  12.  画像情報取得部により被検体の生体組織を撮影した医用画像を複数得るステップと、
     画像認識演算部により前記複数得られた医用画像の時相が異なる同士の画素値から前記生体組織の運動情報を得、前記運動情報に基づき前記医用画像を所定の種類毎に分類するステップと、を含むことを特徴とする医用画像処理方法。
PCT/JP2009/060043 2008-06-03 2009-06-02 医用画像処理装置及び医用画像処理方法 WO2009148041A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN200980120710.5A CN102056547B (zh) 2008-06-03 2009-06-02 医用图像处理装置及医用图像处理方法
US12/996,136 US20110082371A1 (en) 2008-06-03 2009-06-02 Medical image processing device and medical image processing method
JP2010515868A JP5438002B2 (ja) 2008-06-03 2009-06-02 医用画像処理装置及び医用画像処理方法
EP09758308A EP2298176A4 (en) 2008-06-03 2009-06-02 MEDICAL IMAGE PROCESSING DEVICE AND MEDICAL IMAGE PROCESSING METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-145456 2008-06-03
JP2008145456 2008-06-03

Publications (1)

Publication Number Publication Date
WO2009148041A1 true WO2009148041A1 (ja) 2009-12-10

Family

ID=41398118

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/060043 WO2009148041A1 (ja) 2008-06-03 2009-06-02 医用画像処理装置及び医用画像処理方法

Country Status (5)

Country Link
US (1) US20110082371A1 (ja)
EP (1) EP2298176A4 (ja)
JP (1) JP5438002B2 (ja)
CN (1) CN102056547B (ja)
WO (1) WO2009148041A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11049251B2 (en) 2018-08-31 2021-06-29 Fujifilm Corporation Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region
JP2021137116A (ja) * 2020-03-02 2021-09-16 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置
JP2021137115A (ja) * 2020-03-02 2021-09-16 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5586203B2 (ja) * 2009-10-08 2014-09-10 株式会社東芝 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
US9786052B2 (en) * 2010-03-29 2017-10-10 Sony Corporation Image processing apparatus and method for evaluating objects in an image
CN102682091A (zh) * 2012-04-25 2012-09-19 腾讯科技(深圳)有限公司 基于云服务的视觉搜索方法和***
EP2767233A1 (en) * 2013-02-15 2014-08-20 Koninklijke Philips N.V. Device for obtaining respiratory information of a subject
JP5992848B2 (ja) * 2013-03-06 2016-09-14 富士フイルム株式会社 体動表示装置および方法
CN104156975B (zh) * 2013-05-13 2018-04-24 东芝医疗***株式会社 医学图像分析装置和方法以及医学成像设备
CN104462149B (zh) * 2013-09-24 2020-03-27 上海联影医疗科技有限公司 一种图像处理方法及图像处理装置
CN104068845B (zh) * 2014-03-06 2016-07-06 武汉培威医学科技有限公司 一种心电超声信号融合断层扫描成像***及方法
US20170150941A1 (en) * 2014-07-02 2017-06-01 Koninklijke Philips N.V. Lesion signature to characterize pathology for specific subject
JP6796063B2 (ja) * 2014-11-14 2020-12-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 音波血栓溶解治療用超音波装置
JP6591195B2 (ja) * 2015-05-15 2019-10-16 キヤノンメディカルシステムズ株式会社 超音波診断装置及び制御プログラム
EP3445250B1 (en) * 2016-04-21 2021-09-15 The University of British Columbia Echocardiographic image analysis
JP7163913B2 (ja) * 2017-06-05 2022-11-01 ソニーグループ株式会社 医療用システム及び制御ユニット
CN110504025A (zh) * 2018-05-16 2019-11-26 漫迪医疗仪器(上海)有限公司 基于生物磁的生物特征码的识别方法及***、识别终端
CN110772280B (zh) * 2018-07-31 2023-05-23 佳能医疗***株式会社 超声波诊断装置和方法以及图像处理装置和方法
US10751029B2 (en) 2018-08-31 2020-08-25 The University Of British Columbia Ultrasonic image analysis
WO2021056342A1 (zh) * 2019-09-26 2021-04-01 深圳先进技术研究院 一种神经调控结果预测方法、装置及终端设备
CN110647849B (zh) * 2019-09-26 2022-02-08 深圳先进技术研究院 一种神经调控结果预测方法、装置及终端设备
WO2021137755A1 (en) 2019-12-30 2021-07-08 Medo Dx Pte. Ltd Apparatus and method for automated analyses of ultrasound images
CN112100416A (zh) * 2020-11-09 2020-12-18 南京诺源医疗器械有限公司 一种医学荧光成像影像数据分类云存储***及其存储方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58180138A (ja) * 1982-04-16 1983-10-21 株式会社日立メデイコ 超音波診断装置
JP2002140689A (ja) 2000-10-31 2002-05-17 Toshiba Corp 医用画像処理装置及びその方法
JP2004313291A (ja) * 2003-04-14 2004-11-11 Toshiba Corp 超音波診断装置、医用画像解析装置及び医用画像解析方法
JP2006110190A (ja) * 2004-10-15 2006-04-27 Toshiba Corp 医用画像データ解析装置及びその方法
JP2007530160A (ja) * 2004-03-23 2007-11-01 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 医用画像のための自動決定支援を提供するシステムおよび方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3502513B2 (ja) * 1996-09-25 2004-03-02 株式会社東芝 超音波画像処理方法および超音波画像処理装置
US6859548B2 (en) * 1996-09-25 2005-02-22 Kabushiki Kaisha Toshiba Ultrasonic picture processing method and ultrasonic picture processing apparatus
US5984870A (en) * 1997-07-25 1999-11-16 Arch Development Corporation Method and system for the automated analysis of lesions in ultrasound images
JP4614548B2 (ja) * 2001-01-31 2011-01-19 パナソニック株式会社 超音波診断装置
JP4060615B2 (ja) * 2002-03-05 2008-03-12 株式会社東芝 画像処理装置及び超音波診断装置
JP3715580B2 (ja) * 2002-03-19 2005-11-09 株式会社東芝 医用運動解析装置及びその方法
WO2003096255A2 (en) * 2002-05-06 2003-11-20 The Johns Hopkins University Simulation system for medical procedures
US7558402B2 (en) * 2003-03-07 2009-07-07 Siemens Medical Solutions Usa, Inc. System and method for tracking a global shape of an object in motion
US7912528B2 (en) * 2003-06-25 2011-03-22 Siemens Medical Solutions Usa, Inc. Systems and methods for automated diagnosis and decision support for heart related diseases and conditions
EP1665987B1 (en) * 2003-09-12 2016-11-09 Hitachi, Ltd. Ultrasonograph
CN1934589A (zh) * 2004-03-23 2007-03-21 美国西门子医疗解决公司 为医学成像提供自动决策支持的***和方法
US20060064017A1 (en) * 2004-09-21 2006-03-23 Sriram Krishnan Hierarchical medical image view determination
JP4912807B2 (ja) * 2006-09-22 2012-04-11 株式会社東芝 超音波画像診断装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58180138A (ja) * 1982-04-16 1983-10-21 株式会社日立メデイコ 超音波診断装置
JP2002140689A (ja) 2000-10-31 2002-05-17 Toshiba Corp 医用画像処理装置及びその方法
JP2004313291A (ja) * 2003-04-14 2004-11-11 Toshiba Corp 超音波診断装置、医用画像解析装置及び医用画像解析方法
JP2007530160A (ja) * 2004-03-23 2007-11-01 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 医用画像のための自動決定支援を提供するシステムおよび方法
JP2006110190A (ja) * 2004-10-15 2006-04-27 Toshiba Corp 医用画像データ解析装置及びその方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2298176A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11049251B2 (en) 2018-08-31 2021-06-29 Fujifilm Corporation Apparatus, method, and program for learning discriminator discriminating infarction region, discriminator for discriminating infarction region, and apparatus, method, and program for discriminating infarction region
JP2021137116A (ja) * 2020-03-02 2021-09-16 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置
JP2021137115A (ja) * 2020-03-02 2021-09-16 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置
JP7412223B2 (ja) 2020-03-02 2024-01-12 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置
JP7516072B2 (ja) 2020-03-02 2024-07-16 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置

Also Published As

Publication number Publication date
EP2298176A1 (en) 2011-03-23
US20110082371A1 (en) 2011-04-07
CN102056547A (zh) 2011-05-11
EP2298176A4 (en) 2012-12-19
CN102056547B (zh) 2014-05-14
JPWO2009148041A1 (ja) 2011-10-27
JP5438002B2 (ja) 2014-03-12

Similar Documents

Publication Publication Date Title
JP5438002B2 (ja) 医用画像処理装置及び医用画像処理方法
JP6640922B2 (ja) 超音波診断装置及び画像処理装置
JP5670324B2 (ja) 医用画像診断装置
US8913816B2 (en) Medical image dianostic device, region-of-interest setting method, and medical image processing device
WO2017206023A1 (zh) 一种心脏容积识别分析***和方法
JP5242163B2 (ja) 超音波診断装置
US20100036248A1 (en) Medical image diagnostic apparatus, medical image measuring method, and medicla image measuring program
WO2014080833A1 (ja) 超音波診断装置、画像処理装置及び画像処理方法
CN110477952B (zh) 超声波诊断装置、医用图像诊断装置及存储介质
US11864945B2 (en) Image-based diagnostic systems
JP5611546B2 (ja) 自動診断支援装置、超音波診断装置及び自動診断支援プログラム
US9877698B2 (en) Ultrasonic diagnosis apparatus and ultrasonic image processing apparatus
JP5885234B2 (ja) 疾患判定装置および超音波画像形成装置における画像解析方法
US11707201B2 (en) Methods and systems for medical imaging based analysis of ejection fraction and fetal heart functions
WO2021191092A1 (en) Systems and methods for imaging and measuring epicardial adipose tissue
Luo et al. Registration of coronary arteries in computed tomography angiography images using hidden Markov model
JP2020049212A (ja) 装置、医用情報処理装置、及びプログラム
BOSCH Echocardiographic digital image processing and approaches to automated border detection

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980120710.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09758308

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2009758308

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010515868

Country of ref document: JP

Ref document number: 2009758308

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE