WO2016024422A1 - 超音波画像処理装置 - Google Patents

超音波画像処理装置 Download PDF

Info

Publication number
WO2016024422A1
WO2016024422A1 PCT/JP2015/062965 JP2015062965W WO2016024422A1 WO 2016024422 A1 WO2016024422 A1 WO 2016024422A1 JP 2015062965 W JP2015062965 W JP 2015062965W WO 2016024422 A1 WO2016024422 A1 WO 2016024422A1
Authority
WO
WIPO (PCT)
Prior art keywords
contour
node
model
mode image
contour model
Prior art date
Application number
PCT/JP2015/062965
Other languages
English (en)
French (fr)
Inventor
智章 長野
Original Assignee
日立アロカメディカル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立アロカメディカル株式会社 filed Critical 日立アロカメディカル株式会社
Priority to US15/503,173 priority Critical patent/US10016180B2/en
Priority to CN201580043084.XA priority patent/CN106572840A/zh
Priority to EP15832622.3A priority patent/EP3181056A4/en
Publication of WO2016024422A1 publication Critical patent/WO2016024422A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/02Measuring pulse or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/486Diagnostic techniques involving arbitrary m-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image

Definitions

  • the present invention relates to an ultrasonic image processing apparatus, and more particularly to an ultrasonic image processing apparatus that processes an M-mode image representing tissue motion in a subject.
  • the ultrasonic diagnostic apparatus is an apparatus that transmits / receives ultrasonic waves to / from a subject and forms an ultrasonic image based on a reception signal obtained thereby.
  • ultrasonic images formed by the ultrasonic diagnostic apparatus There are various types of ultrasonic images formed by the ultrasonic diagnostic apparatus, and one of them is an M-mode image.
  • the M mode image is an image in which tissue motion in the subject is expressed.
  • the vertical axis is the depth axis and the horizontal axis is the time axis, and the tissue moves in the depth direction by a high-luminance (or low-luminance) line (contour line) extending in the time-axis direction. Is shown.
  • An M-mode image representing tissue motion on the observation line arbitrarily set on the B-mode tomographic image is also known.
  • the M mode image is used for LA / AO ratio measurement, for example.
  • the LA / AO ratio is an index for evaluating the shape of the heart, and is the ratio between the left atrial diameter (LA) at the end systole of the heart and the aortic diameter (AO) at the end diastole.
  • LA left atrial diameter
  • AO aortic diameter
  • the end systole of the heart is manually moved by the examiner by manually moving the cursor on the M-mode image including the contour line in which the movement of the aortic wall and the left atrial wall is expressed.
  • the position of both left atrial walls and the position of both aortic walls at the end diastole were specified.
  • Patent Document 1 For example, in Patent Document 1, one position of a tissue boundary is determined on an M-mode image, the luminance value of the point, and five neighborhoods at a position moved by one pixel in the time axis direction from the point (next time point) And the pixel having the smallest difference in luminance value among the five neighboring pixels is used as the tissue boundary at the next time. By repeating this process, a line indicating the movement of the tissue boundary is traced. On the M-mode image, the contour line is usually a relatively smooth curve having periodicity flowing in the time axis direction. The technique disclosed in Patent Document 1 uses such a property to sequentially search for the position of the tissue boundary in the time axis direction.
  • An object of the present invention is to extract a contour line on an M-mode image with high accuracy.
  • an object of the present invention is to reduce the processing time for extracting a contour line on an M-mode image.
  • an object of the present invention is to simultaneously extract a plurality of contour lines that periodically move in synchronization with heartbeats on a M-mode image in units of heartbeats.
  • the ultrasonic image processing apparatus includes an identification unit that identifies an image portion including an extraction portion in the contour line in an M-mode image including a contour line as a motion curve, and an image portion including the extraction portion. Extracting means for extracting an extracted portion in the contour line by applying a contour model including a node sequence, and the extracting means performs initial setting of the contour model for the image portion. And a model deforming means for fitting the node sequence to the extracted portion to form a corrected contour model by performing contour search for each node included in the node sequence after the initial setting on the M-mode image, It is characterized by including.
  • the extracted part included in the partial image is extracted by applying the contour model including the node sequence to the partial image in the M-mode image.
  • the contour model is a contour search model including at least one node sequence (preferably a plurality of node sequences), and each node sequence includes a plurality of nodes arranged in the time axis direction.
  • Each node functions as a contour search point, and the initial setting position of each node on the partial image defines the search start position.
  • the contour detection method can be used as the contour detection method. In any case, a plurality of positions (contour points) on the extraction portion are individually extracted by a plurality of nodes. Through such processing, a corrected contour model including a node sequence fitted to the extracted portion is obtained.
  • the search time can be reduced as compared with the case where the search is sequentially performed from one end of the contour line to the other end.
  • each node independently performs a contour search, that is, if a search is performed without being influenced by the search results of other nodes, the problem of contour misdetection due to noise or the like can be avoided.
  • other node positions and the like may be referred to when determining the search range and the like.
  • the initial setting unit includes a size adjusting unit that adjusts a size of the contour model in a time axis direction according to a length of the extraction unit in a time axis direction, and a size adjusted unit on the image portion.
  • Model placement means for placing a contour model.
  • the size adjusting unit adjusts the size of the contour model in the time axis direction according to the length of the extraction portion in the time axis direction when initializing the contour model.
  • the model placement unit places the size-adjusted contour model on the partial image. According to the size adjustment, it is not necessary to previously generate a plurality of contour models having different time lengths and store them.
  • the size adjustment can be realized by expansion / contraction of the original model, calculation of the size-adjusted model, and the like.
  • the position of each node in the time axis direction is set to a relative position with respect to the entire period of the contour model. It is desirable to define as Desirably, the size of the contour model in the distance axis direction is also matched to the distance axis scale.
  • the model deformation means performs the contour search in a distance direction perpendicular to the time axis direction for each node included in the node row after the arrangement.
  • the contour search may be performed two-dimensionally widely for each node on the M-mode image, the search efficiency can be improved if the contour search is mainly limited to the distance direction or only to the distance direction. Even in that case, since the size of the contour model has already been adjusted, that is, the arrangement of a plurality of nodes is adjusted to the time length of the extracted portion, the entire extracted portion is accurately searched by the plurality of nodes. It is possible. For example, when a plurality of nodes are arranged at equal intervals in the time axis direction, the search resolution in the time axis direction can be kept uniform by maintaining the equal intervals.
  • the model deforming means performs the contour search for each node included in the arranged node sequence in a vicinity range of the initial setting position of the node.
  • the search range is limited within the vicinity range in the distance direction for each node.
  • the neighborhood range is basically a range extending on both sides of the initial setting position in the distance direction, and may be configured so that the size of the neighborhood range can be individually set for each individual node, or across a plurality of nodes. A uniform neighborhood may be set.
  • the initial setting means further includes model generating means for generating an original contour model based on a plurality of corrected contour models formed in the past, and the size adjusting means is a time of the original contour model. Adjust the axial size.
  • model generating means for generating an original contour model based on a plurality of corrected contour models formed in the past
  • the size adjusting means is a time of the original contour model. Adjust the axial size.
  • the model deforming means determines a size of a neighborhood range in which the contour search is performed based on a plurality of modified contour models formed in the past. For example, if the position of a node in a plurality of corrected contour models formed in the past is concentrated in a narrow range, the contour position corresponding to the node may be within the range even in the M mode image to be extracted this time It can be said that the nature is high. Therefore, it is possible to further narrow the contour search range by determining the contour search range based on the past corrected contour model. Thereby, search efficiency is further improved.
  • the M-mode image includes a plurality of contour lines
  • the contour model includes a plurality of node sequences for extracting a plurality of extraction portions in the plurality of contour lines
  • the model deforming means includes the plurality of contour lines.
  • a contour search is performed for each node included in the node sequence, and the plurality of node sequences are respectively fitted to the plurality of extracted portions.
  • a contour model having a plurality of node rows by using a contour model having a plurality of node rows, a plurality of extraction parts included in the image part can be extracted simultaneously or collectively.
  • the plurality of extracted portions as a whole exhibit a two-dimensional pattern extending in the time axis space axis, and a contour pattern (two-dimensional node array) composed of a plurality of node rows can be set on the two extracted portions. Therefore, even if some of the plurality of extracted portions are unclear, or even if the plurality of extracted portions are close to or in contact with each other, it is easy to install a contour model for them.
  • the image processing apparatus further includes trace means for generating a trace line simulating the extracted portion by an interpolation process based on the node sequence fitted to the extracted portion.
  • the specifying means specifies the image portion based on heartbeat information of the subject.
  • heartbeat information of the subject.
  • the specifying unit may specify the image portion or the processing target section based on the input of the user who observed the electrocardiogram waveform displayed in parallel with the M mode image.
  • contour lines can be extracted with high accuracy on an M-mode image.
  • the contour line extraction processing time on the M-mode image can be reduced.
  • a plurality of contour lines that periodically move in synchronization with the heartbeat can be extracted simultaneously in units of heartbeats.
  • FIG. 1 is a schematic configuration diagram of an ultrasonic diagnostic apparatus according to the present embodiment. It is a figure which shows the observation path
  • FIG. 1 is a schematic configuration diagram of an ultrasonic diagnostic apparatus 10 as an ultrasonic image processing apparatus according to the present embodiment.
  • the ultrasonic diagnostic apparatus 10 is a medical device that is generally installed in a medical institution such as a hospital and performs ultrasonic diagnosis on a subject.
  • the ultrasonic diagnostic apparatus 10 has a function of forming an M-mode image showing the movement of the tissue boundary in the subject.
  • an M-mode image is formed by the ultrasonic diagnostic apparatus 10, and the above-described LA / AO ratio measurement is performed using the M-mode image.
  • the probe 12 is an ultrasonic probe that transmits and receives ultrasonic waves to and from the subject.
  • the probe 12 has a transducer array composed of a plurality of transducers. Each transducer included in the transducer array is vibrated by a plurality of transmission signals corresponding to each transducer from the transmission / reception unit 14 to generate an ultrasonic beam.
  • the transducer array receives the reflected echo from the transmission / reception region, converts the acoustic signal into a reception signal that is an electrical signal, and outputs the received signal to the transmission / reception unit 14.
  • the probe 10 transmits and receives ultrasonic waves toward the subject's heart.
  • the transmitting / receiving unit 14 generates ultrasonic waves in the probe 12 by sending a plurality of transmission signals for exciting a plurality of transducers included in the probe 12 to the probe 12. Further, the transmission / reception unit 14 performs phasing addition processing on a plurality of reception signals obtained from the plurality of transducers that have received the reflected echo, and forms beam data arranged in the scanning direction of the ultrasonic beam.
  • the beam data is composed of a plurality of reflected echo signals arranged in the depth direction.
  • the transmission / reception unit 14 has functions of a transmission beamformer and a reception beamformer.
  • an image forming unit 18 described later forms an M mode image.
  • a B-mode image is formed, and an observation path that is a target of the M-mode image is set on the B-mode image. After the observation path is set, ultrasonic waves are transmitted / received to / from the observation path.
  • the cine memory 16 stores a plurality of beam data from the transmission / reception unit 14.
  • the cine memory 16 has a structure such as a ring buffer, for example, and sequentially stores each beam data input in time series order.
  • the cine memory 16 stores beam data from the latest to a certain period in the past.
  • the image forming unit 18 is, for example, a digital scan converter (DSC) or the like, and forms an ultrasonic image as a biological image based on the beam data stored in the cine memory 16.
  • the ultrasound image formed in the image forming unit 18 includes, in addition to the M mode image, a B mode image that is a tomographic image of the tissue in the subject.
  • the M-mode image is formed by converting beam data based on the received signal from the observation path into a luminance value corresponding to the reflected echo intensity and arranging them in time series. For example, since the intensity of the reflected echo increases at the tissue boundary such as the blood vessel wall or the heart wall, these positions are expressed with high luminance.
  • the beam data sequence sequentially obtained on the observation path is similarly processed and swept on the display unit 40, thereby forming a high-luminance line extending in the time axis direction on the M-mode image. .
  • the high-intensity line is a contour line indicating tissue movement in the subject.
  • the M-mode image is formed with a different scale in the time axis direction depending on the sweep speed set by the user. If the sweep speed is high, the period displayed on one M-mode image is a relatively short period, and if the sweep speed is low, the period displayed on one M-mode image is a relatively long period. Accordingly, the contour line included in the M-mode image also has different expansion / contraction ratios in the time axis direction according to the sweep speed.
  • the image forming unit 18 forms an M-mode image based on beam data passing through the aortic valve and the left atrium of the subject's heart. Accordingly, in the M-mode image formed in the present embodiment, changes with time in the positions of the aortic wall, the aortic valve, and the left atrial wall are expressed by contour lines extending in the time axis direction.
  • Each contour line is an artificial contour formed by sweeping, unlike a two-dimensional contour of an actual tissue.
  • Each contour line has a periodic form according to the sweep rate and heart rate. That is, similar waveform patterns are continuous over a plurality of heartbeats.
  • the electrocardiograph 20 outputs electrocardiographic data indicating the state of the heartbeat of the subject.
  • the electrocardiograph 20 has an electrode, and measures the electromotive force of the subject by attaching the electrode to the subject. Data indicating the measured electromotive force is output as electrocardiographic data.
  • the storage unit 22 is configured by, for example, a hard disk, ROM, or RAM, and stores a program executed in the ultrasonic apparatus 10 or data processed in the ultrasonic diagnostic apparatus 10.
  • a contour model 24 is stored in the storage unit 22.
  • the contour model 24 is a model for extracting a contour structure on the M-mode image.
  • the contour model 24 corresponds to the contour structure (that is, a part of the contour structure) within a predetermined period, and corresponds to the contour structure in one heartbeat period in this embodiment.
  • the M-mode image has an aspect like an aggregate of a large number of contour lines arranged in the depth direction.
  • a plurality of specific contour lines are extracted. It is a target. More specifically, among the plurality of target contour lines, a plurality of line segments (target line segments) belonging to a specific heartbeat cycle designated by the user are the targets of extraction processing.
  • the contour model is composed of a plurality of node rows corresponding to a plurality of attention line segments, and the arrangement is determined as a standard arrangement for the plurality of attention line segments.
  • a contour model for realizing the measurement is prepared for each type of measurement.
  • the contour model 24 is prepared in advance and stored in the storage unit 22.
  • a plurality of contour lines indicating movements of the aortic wall, aortic valve, and left atrial wall are used as attention lines as M-mode images, and a plurality of attention line segments that are a part of each attention line are supported.
  • a contour model 24 including a plurality of node sequences is prepared. Each node sequence includes a plurality of nodes.
  • a plurality of node rows are arranged in the depth direction (distance direction). Therefore, the contour model 24 has a plurality of nodes arranged two-dimensionally in the time axis direction and the depth direction.
  • the contour model 24 includes a plurality of node rows, but an aspect in which the contour model 24 includes only one node row may be employed. In addition, it is preferable that a plurality of contour models 24 are provided for each type of measurement or according to the characteristics of the subject (such as age and sex). The contour model 24 will be described in detail later with reference to FIG.
  • the model applying unit 26 applies the contour model 24 to the M mode image formed by the image forming unit 18, and fits the contour model 24 to a plurality of attention line segments included in the M mode image to deform the contour model 24. Thereby, a plurality of attention line segments are extracted from the M-mode image.
  • the M mode image handled by the model application unit 26 is an M mode image in a state in which the sweep is stopped by the user at a predetermined timing and the sweep is stopped.
  • the extraction period specifying unit 28 included in the model application unit 26 specifies an extraction period that is a period for extracting a line segment of interest in the M-mode image.
  • the extraction period is specified as an image portion having a certain region including a plurality of attention lines on the M-mode image.
  • the period between the peaks of the R wave of the electrocardiogram waveform, that is, one heartbeat period is set as the extraction period.
  • the extraction period may be a period other than one heartbeat period, for example, two heartbeat periods. It is preferable to set a period that matches the time of the prepared model.
  • the model expansion / contraction unit 30 included in the model application unit 26 expands / contracts the contour model 24 in the time axis direction according to the specified extraction period.
  • the scale in the time axis direction differs depending on the sweep speed as described above, for example, the length in the time axis direction varies depending on the sweep speed even in the same one heartbeat period.
  • the model expansion / contraction unit 30 expands / contracts the contour model 24 in the time axis direction, so that the contour model 24 can be appropriately applied to the M-mode image regardless of the setting of the sweep speed. This eliminates the need to prepare a plurality of models with different time lengths.
  • the node position changing unit 32 included in the model applying unit 26 performs an edge search for each node included in the contour model 24 applied to the M mode image and subjected to the expansion / contraction processing (that is, the initial setting), and the position of each node is determined. It is moved onto a plurality of attention line segments included in the M mode image formed by the forming unit 18. Specifically, the position of each node included in each node row is changed so as to fit a plurality of node rows included in the contour model 24 to a plurality of line segments of interest in the M-mode image.
  • model application unit 26 The detailed processing contents of the model application unit 26 will be described later in detail with reference to FIG.
  • the trace unit 34 traces a line segment of interest in the M-mode image based on a plurality of node rows constituting the corrected contour model applied and fitted to the M-mode image by the model application unit 26. Specifically, the tracing is performed by performing a process of adding an interpolation point between adjacent nodes included in each node row of the corrected contour model. A plurality of trace lines approximate to each line segment of interest included in the M mode image are formed by the trace unit 34 performing the trace processing.
  • the measurement unit 36 performs measurement based on the trace line formed by the trace unit 34.
  • LA / AO ratio measurement is performed.
  • the measurement unit 36 specifies the positions of the end systole and the end diastole of the subject's heart on a plurality of trace lines based on the electrocardiogram waveform. Then, the measuring unit 36 measures the aortic diameter at the end systole and the left atrial diameter at the end diastole based on the plurality of trace lines.
  • the processing of the trace unit 34 and the measurement unit 36 will be described in detail later with reference to FIG.
  • the display control unit 38 performs display processing such as various images including the M mode image formed by the image forming unit 18 and numerical values indicating the measurement results of the measurement unit 36, and causes the display unit 40 to display them.
  • the control unit 42 is, for example, a CPU, and controls the entire ultrasound diagnostic apparatus 10.
  • the ultrasonic diagnostic apparatus 10 is used as an ultrasonic image processing apparatus.
  • a reception signal is transferred from the ultrasonic diagnostic apparatus to a personal computer (PC) to form M image data, and an M mode.
  • PC personal computer
  • Application of the contour model to the image, deformation of the contour model, and measurement processing may be performed on the PC.
  • the PC corresponds to the ultrasonic image processing apparatus.
  • the image forming unit 18, the model applying unit 26, the tracing unit 34, and the measuring unit 36 include hardware such as an electric / electronic circuit and a processor, for example. It can be realized by using a device, and a device such as a memory may be used as necessary in the realization. In addition, functions corresponding to the above-described units may be realized by cooperation between hardware such as a CPU, a processor, and a memory, and software (program) that defines the operation of the CPU and the processor.
  • a preferred specific example of the display unit 40 is a liquid crystal display or the like.
  • the control unit 42 can be realized by, for example, cooperation between hardware such as a CPU, a processor, and a memory, and software (program) that defines the operation of the CPU and the processor.
  • FIG. 2 is a diagram showing an observation path 64 in the present embodiment.
  • FIG. 2 is a cross-sectional view of the heart, showing the aorta 50, the left atrium 52, and the left ventricle 66.
  • the anterior aortic wall 54, the anterior aortic valve 56, the posterior aortic valve 58, the posterior aortic wall (also serving as the anterior left atrial wall) ) 60 and the observation path 64 is set to pass through the posterior left atrial wall 62.
  • an M-mode image is formed.
  • FIG. 3 is a diagram showing an M mode image 70 formed in the present embodiment.
  • the M mode image 70 has a horizontal axis as a time axis and a vertical axis as a depth axis.
  • the contour lines 72, 74, 76, 78, and 80 shown with high luminance indicate the movement of each tissue of the subject. That is, the contour line 72 represents the movement of the anterior aortic wall 54, the contour line 74 represents the movement of the anterior aortic valve 56, the contour line 76 represents the movement of the posterior aortic valve 58, and the contour line 78 represents the movement of the posterior aortic wall 60.
  • the contour lines 80 show the movement of the posterior left atrial wall 62, respectively.
  • the aortic valve repeatedly opens and closes according to the heartbeat. Since the aortic valve opens in the initial stage of contraction, the contour lines 74 and 76 branch into two in the initial stage of contraction, but in other time phases, the aortic valve is closed, so the contour lines 74 and 76 are almost integrated. ing.
  • the M mode image 70 includes an electrocardiographic waveform 82 formed based on the electrocardiographic data acquired by the electrocardiograph 20.
  • the extraction period specifying unit 28 detects the peak of the R wave 84 from the electrocardiogram waveform 82 and extracts the period between the peaks of the R wave 84 as the extraction period. It is specified as T1.
  • FIG. 4 is a conceptual diagram showing an example of a contour model.
  • FIG. 4 is a diagram illustrating the original contour model before the processing by the model expansion / contraction unit 30 or the like is performed.
  • the horizontal axis is the time axis and the vertical axis is the depth axis.
  • the contour model 90 includes a plurality of node sequences for extracting contour lines of the aortic wall, the aortic valve, and the left atrial wall in one heartbeat period T2.
  • the node row 102 including a plurality of nodes 92 indicated by triangles corresponds to the contour line of the anterior aortic wall 54, and the plurality of nodes 92 are search points for extracting the contour line.
  • the plurality of nodes 92 included in the node row 102 are plotted along the average shape of the contour line of the anterior aortic wall 54.
  • a plurality of nodes 94 indicated by white circles correspond to the anterior aortic valve 56
  • a plurality of nodes 96 indicated by x marks correspond to the posterior aortic valve 58
  • a plurality of nodes 98 indicated by black circles correspond to the posterior aortic wall 60
  • a plurality of nodes 100 indicated by squares correspond to the posterior left atrial wall 62.
  • the plurality of nodes included in the contour model 90 constitute a two-dimensional array in the time axis direction and the depth direction as a whole.
  • the number of nodes included in each node row included in the contour model 90 may be arbitrary. As the number of nodes increases, the contour line shape can be expressed in detail, but the contour line extraction process takes longer. On the other hand, if the number of nodes is small, the shape of the contour line extracted by the model is rough, but the processing time can be reduced.
  • Each node included in the contour model 90 has time information indicating a relative time point with respect to one heartbeat period T2 and depth information indicating a tissue depth at the time point.
  • the interval t in the time axis direction of each node included in each node row is constant, that is, equal intervals.
  • the interval t is one unit when one heartbeat period T2 is equally divided (in the contour model 90, ten equal parts).
  • a plurality of nodes are plotted at intervals t obtained by dividing one heartbeat period T2 into ten equal parts, and by setting order information indicating the order in the time axis direction in the node sequence 102, one heartbeat is assigned to each node. Time information indicating a relative time point with respect to the period T2 is given.
  • the contour model 90 may be configured by a user or the like, but is preferably formed based on edge positions detected in the past.
  • the depth information of each node included in the modified contour model obtained by the fitting process of the model application unit 26 is stored in the storage unit 22, and each node of the contour model 90 is based on the accumulated depth information.
  • the depth (the initial position in the depth direction) may be determined.
  • depth information is accumulated separately for each node included in the modified contour model, an average value of the depth is calculated for each node, and the initial depth position of each node of the contour model 90 of the average value is calculated. You may make it do.
  • the initial position of each node included in the node sequence of the contour model 90 can be made closer to the contour line to be extracted, and the node is started.
  • the search distance in the edge search to be a point can be shortened. This improves the efficiency of edge search.
  • FIG. 5 is a conceptual diagram showing how the contour model 90 is expanded in the time axis direction.
  • the present embodiment will be described using an example in which the contour model 90 is superimposed on the M-mode image 70.
  • the model application unit 26 performs initial setting of the contour model.
  • the initial setting includes application of the contour model to the M-mode image and expansion / contraction processing by the model expansion / contraction unit 30.
  • the formation of the contour model may be included.
  • the model application unit 26 superimposes the contour model 90 on the M mode image 70.
  • the contour model 90 since the scale of the M-mode image 70 changes in the time axis direction depending on the sweep speed set by the user, if the contour model 90 is simply superimposed on the M-mode image 70, 1 of the M-mode image 70.
  • the heartbeat period T1 and the one heartbeat period T2 of the contour model 90 do not match.
  • the contour model 90 is expanded and contracted in the time axis direction as described later, it is not necessary to perform alignment in the time axis direction strictly.
  • the contour model 90 it is preferable to superimpose the contour model 90 with a certain degree of position accuracy.
  • alignment is performed by processing such as matching the median value in the depth direction of the M-mode image with the median value in the depth direction of the contour model 90.
  • the contour model 90 may be expanded or contracted in the depth direction so that the depth scale of the M-mode image matches the scale of the contour model 90 in the depth direction.
  • the model expansion / contraction unit 30 extends the contour model 90 in the time axis direction so that one heartbeat period T2 of the contour model 90 matches one heartbeat period T1 of the M-mode image 70.
  • each node included in the contour model 90 has time information indicating a relative time point with respect to one heartbeat period T2. Accordingly, each node is also moved in the time axis direction.
  • one heartbeat period T2 of the contour model 90 is shorter than one heartbeat period T1 of the M mode image 70 before processing by the model expansion / contraction unit 30 (that is, at the stage shown in FIG. 5A), the contour model 90 expansion processing is performed.
  • the model expansion / contraction unit 30 matches the one heartbeat period T2 of the contour model 90 with the one heartbeat period T1 of the M mode image 70.
  • the contour model 90 is contracted in the time axis direction.
  • the position of each node included in the expanded contour model 102 is close to a plurality of attention line segments included in the M-mode image 70.
  • the contour model 102 is a model formed based on past measurement data or the like, the position of each node included in the contour model 102 is completely M mode at the stage shown in FIG. It is not on a plurality of attention line segments included in the image 70.
  • FIG. 6 is a conceptual diagram showing how the depth information of the expanded contour model 102 is changed.
  • nodes other than the node row 104 corresponding to the contour line 72 of the anterior aortic wall 54 among the nodes included in the expanded contour model 102 are not shown.
  • the processing of the node position changing unit 32 as a model deforming unit will be described.
  • the node position changing unit 32 performs image processing on the M mode image 70 and performs an edge search for detecting a plurality of attention line segments included in the M mode image 70.
  • the edge search is a process of extracting a position where the luminance changes abruptly in the M-mode image, and is performed using, for example, a differential filter.
  • the attention line segment that is a part of the contour line is a high-luminance or low-luminance line, the contour line 72 can be extracted by edge search.
  • the node position changing unit 32 performs edge search for each node. That is, edge search is performed for each node neighborhood using each node as an edge search start point. For example, in FIG. 6, for the node 92a, edge detection is started from the position of the node 92a, an edge search is performed in the vicinity thereof, and the edge search is terminated when the edge 106 is detected. As a result, the position of the node 92a becomes the position of the edge 106. By this process, the depth information of the node 92a is changed to information indicating the detected depth of the edge 106.
  • the positions of the plurality of nodes included in the node row 104 are on the attention line segment that is a part of the contour line 72 of the anterior aortic wall 54 in the M-mode image 70 acquired this time. Will be located.
  • a corrected contour model including a plurality of nodes positioned on each attention line segment included in the M-mode image 70 is formed by performing the same processing as described above.
  • a plurality of attention line segments included in the M-mode image are extracted using the contour model 90. Since the plurality of nodes included in the contour model 90 are located in the vicinity of the plurality of attention line segments included in the M-mode image, the position of the attention line segment is determined by using the plurality of nodes as edge search points. The processing time related to the search can be reduced.
  • the predetermined range in the vicinity of each node may be set as the edge search range.
  • the contour line 72 is likely to be detected even if the search range is limited to the vicinity of the node 92.
  • the contour line can be detected earlier.
  • the edge search is performed only within a predetermined range near the node, the influence of noise included in the M-mode image 70 is less likely to be affected during the edge search.
  • the edge search is not affected by noise.
  • the edge search is performed individually for each of the other nodes. And is not affected by erroneous detection of the one node. This makes it possible to extract the line segment of interest while eliminating the influence of noise as a whole.
  • the contour model 90 including a plurality of node rows since the contour model 90 including a plurality of node rows is used, a plurality of attention line segments can be extracted simultaneously.
  • the contour model 90 has edge search start points (that is, nodes) arranged two-dimensionally in the time axis direction and the depth direction, and edge search from each edge search start point is performed in parallel. This makes it possible to more efficiently extract a plurality of attention line segments in the heart rate unit.
  • FIG. 7 is a diagram illustrating an example of a range of edge search positions.
  • the node position changing unit 32 performs an edge search in a direction parallel to the depth axis of the M-mode image (that is, a direction perpendicular to the time axis).
  • the processing time required for the edge search is shortened and the interval in the time axis direction between the nodes in the contour model is maintained. That is, the time information of each node included in the contour model is not changed by the processing of the node position changing unit 32.
  • the edge search range 110 for the node 92b extends from the node 92b in a direction parallel to the depth axis.
  • the width of the edge search range 110 may be arbitrarily determined by the user.
  • the edge search range 110 is preferably a range centered on the node 92b, but is not necessarily limited thereto.
  • FIG. 8 is a diagram showing another example of the range of the edge search position.
  • the edge search range may be determined based on depth information of each node of the corrected contour model formed in the past.
  • the node 92 b before the depth information is changed by the node position changing unit 32 and the position of the node 92 b in the corrected contour model formed in the past are indicated by black triangles 114.
  • the position indicated by the plurality of black triangles 114 is the position of the node 92b in the plurality of corrected contour models, that is, the history data of the depth information of the node 92b.
  • the depth information of the node 92b in the past indicates the depth at which the contour line of the anterior aortic wall is actually detected in the M mode image formed in the past
  • the depth information of the node 92b is based on the history data distribution of the depth information of the node 92b. If the edge search range is determined, the possibility that an edge is detected in the search range is considered high. As a result, the edge search range can be set appropriately, that is, as narrow as possible, and the processing time can be further reduced.
  • the length of the edge search range may be different for each node.
  • the edge search range may be determined based on each distribution width, As a result, the lengths of the edge search range 112 corresponding to the node 92b and the edge search range 118 corresponding to the node 92c are different.
  • FIG. 9 is a diagram illustrating an example of interpolation processing between nodes included in each node row of the modified contour model.
  • the tracing unit 34 performs a tracing process.
  • the trace processing is performed by interpolation processing between nodes included in each node row of the corrected contour model. For example, by interpolating between the nodes included in the node row 104, a trace line 130 is formed by tracing the attention line segment that is a part of the contour line of the anterior aortic wall. Similarly, a trace line obtained by tracing each line segment of interest is formed by performing interpolation processing on other node rows.
  • Each node included in the corrected contour model and the formed trace line may be displayed on the display unit together with the M-mode image.
  • the measurement unit 36 measures the aortic diameter and the left atrial diameter based on each node included in the modified contour model or the formed trace line.
  • the measuring unit 36 specifies the end diastole t1 and the end systole t2 of the heart in the corrected contour model based on the electrocardiogram data and the like. Then, the distance between the trace line 130 of the anterior aortic wall and the trace line 132 of the posterior aortic wall at the end diastole t1 is measured, and this is defined as AODs (end diastolic aorta diameter).
  • the interval between the trace line 132 of the posterior aortic wall and the trace line 134 of the posterior left atrial wall at the end systolic period t2 is measured, and this is defined as LADs (end systolic left atrial diameter).
  • LADs end systolic left atrial diameter
  • the measured values of AODs and LADs and the ratio LA / AO ratio are displayed on the display unit together with the M mode image. In the present embodiment, AODs and LADs are measured, but other items may be measured based on each node included in the corrected contour model or the formed trace line.
  • FIG. 10 is a flowchart showing an operation flow of the ultrasonic diagnostic apparatus according to the present embodiment.
  • FIG. 10 will be described with reference to FIG.
  • step S10 the image forming unit 18 forms an M-mode image based on a reception signal from the probe 12 that transmits / receives an ultrasonic wave to / from the subject.
  • the extraction period specifying unit 28 is an extraction period for extracting a line segment of interest in the formed M-mode image based on the electrocardiographic waveform formed from the electrocardiographic data acquired by the electrocardiograph 20. Specify the period. In this embodiment, one heartbeat period is specified as the extraction period.
  • step S14 the model expansion / contraction unit 30 superimposes the contour model 24 on the M-mode image, and contracts the contour model 24 so that one heartbeat period of the formed M-mode image matches one heartbeat period of the contour model 24.
  • step S16 the node position changing unit 32 performs an edge search in the M-mode image and extracts a target line segment.
  • an edge search is performed for each node included in the stretched contour model 24, and an edge search is performed from each node in the depth direction.
  • the contour model 24 is deformed so that the position of each node included in the contour model 24 is the edge position extracted by the edge search. As a result, a corrected contour model indicating the line of interest included in the M-mode image formed this time is formed.
  • step S18 the trace unit 34 performs an interpolation process on the node sequence of the corrected contour model, thereby forming a trace line obtained by tracing the attention line segment included in the M mode image.
  • step S20 the measurement unit 36 performs a desired measurement based on each node included in the corrected contour model or the formed trace line.
  • ultrasonic diagnostic equipment 10 ultrasonic diagnostic equipment, 12 probes, 14 transmission / reception unit, 16 cine memory, 18 image forming unit, 20 electrocardiograph, 22 storage unit, 24 contour model, 26 model application unit, 28 extraction period specifying unit, 30 model expansion / contraction unit, 32 node position changing unit, 34 tracing unit, 36 measuring unit, 38 display control unit, 40 display unit, 42 control unit.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Cardiology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

 抽出期間特定部は、Mモード画像において抽出期間(抽出部分)を特定する。モデル伸縮部は、特定された抽出期間に適合するよう輪郭モデルを時間軸方向に伸縮させつつ、当該抽出期間に対して輪郭モデルを設置する(初期設定)。ノード位置変更部は、設置された輪郭モデルに含まれる複数のノード列を構成するノード毎に、ノード位置を順次変更しながらエッジ(輪郭)探索を行う。その結果、エッジ検出位置にある複数のノードからなる修正輪郭モデルが形成される。トレース部は、修正輪郭モデルに含まれる複数のノード列に対して補間処理を行うことにより、複数の輪郭ラインを模擬した複数のトレースラインを生成する。

Description

超音波画像処理装置
 本発明は、超音波画像処理装置に関し、特に、被検体内の組織運動を表すMモード画像を処理する超音波画像処理装置に関する。
 超音波診断装置は、被検体に対して超音波を送受波し、これにより得られた受信信号に基づいて超音波画像を形成する装置である。超音波診断装置により形成される超音波画像には様々な種類の画像があり、その中のひとつにMモード画像がある。Mモード画像は、被検体内の組織運動が表現される画像である。Mモード画像においては、例えば、縦軸が深度軸、横軸が時間軸となっており、時間軸方向に延びる高輝度(または低輝度)のライン(輪郭ライン)によって組織の深度方向への動きの様子が示される。なお、Bモード断層画像上に任意に設定された観測線上の組織運動を表したMモード画像も知られている。
 Mモード画像は、例えばLA/AO比計測のために用いられる。LA/AO比は、心臓の形態を評価する指標であり、心臓の収縮末期における左房径(LA)と拡張末期における大動脈径(AO)との比である。従来のLA/AO比計測においては、大動脈壁および左房壁の位置の動きが表現された輪郭ラインを含むMモード画像上において、検査者が手動にてカーソルを動かすなどして心臓の収縮末期における両左房壁の位置および拡張末期における両大動脈壁の位置を指定していた。
 従来ではMモード画像において検査者が手動で計測点を指定しなければならなかったため、計測に手間がかかるなどの問題が生じていた。そこで、計測点を自動的に設定するために、Mモード画像に含まれる輪郭ラインの自動トレースを行う技術が提案されている。
 例えば、特許文献1には、Mモード画像上において組織境界の位置1点を決定し、当該点の輝度値と、当該点から時間軸方向1画素移動した位置(次の時点)での5近傍の画素の輝度値とを比較し、当該5近傍の画素のうち輝度値の差が最小となる画素を次の時刻における組織境界とすることが記載されている。この処理を繰り返すことで組織境界の動きを示すラインをトレースしている。Mモード画像上において、輪郭ラインは通常、時間軸方向に流れる周期性を有する比較的滑らかな曲線となる。特許文献1に開示された手法はそのような性質を利用して、時間軸方向に組織境界の位置を順次探索するものである。
特許第4656392号明細書
 超音波診断装置または超音波画像を処理する情報処理装置上において、Mモード画像に対して輪郭ラインの抽出を行う場合、抽出精度の向上あるいは抽出時間の短縮化が求められている。一方、Mモード画像の掃引速度は区々であり、また心拍レートは一定ではないので、それらによらない輪郭ライン抽出法の実現が要望されている。なお、特許文献1に開示された手法では、長い距離に亘って輪郭ラインの抽出を行う場合、ノイズなどの影響を受けやすくなるという問題を指摘できる。
 本発明の目的は、Mモード画像上において輪郭ラインの抽出を高精度に行うことにある。あるいは、本発明の目的は、Mモード画像上における輪郭ラインの抽出処理時間を低減させることにある。あるいは、本発明の目的は、Mモード画像上において、心拍に同期して周期的に運動する複数の輪郭ラインを心拍単位で同時に抽出することにある。
 本発明に係る超音波画像処理装置は、運動曲線としての輪郭ラインを含むMモード画像において、前記輪郭ライン中の抽出部分を含む画像部分を特定する特定手段と、前記抽出部分を含む画像部分に対してノード列を含む輪郭モデルを適用することで前記輪郭ライン中の抽出部分を抽出する抽出手段と、を備え、前記抽出手段は、前記画像部分に対する前記輪郭モデルの初期設定を行う初期設定手段と、前記Mモード画像上において前記初期設定後のノード列に含まれるノード毎に輪郭探索を行うことにより、前記ノード列を前記抽出部分にフィッティングさせて修正輪郭モデルを形成するモデル変形手段と、を含む、ことを特徴とする。
 上記構成によれば、ノード列を含む輪郭モデルをMモード画像中の部分画像に適用することで、当該部分画像に含まれる抽出部分が抽出される。詳しくは、輪郭モデルは、少なくとも1つのノード列(望ましくは複数のノード列)を含んだ輪郭探索用モデルであり、各ノード列は時間軸方向に並んだ複数のノードからなる。各ノードは輪郭探索点として機能し、部分画像上に対する各ノードの初期設定位置が探索開始位置を規定する。部分画像上において、各ノードの位置が順次変えられながら各ノードによって輪郭の有無が探索される。輪郭検出方法としては各種の公知手法を利用できる。いずれにしても、抽出部分上の複数の位置(輪郭点)が複数のノードによって個別的に抽出される。そのような処理を経て、抽出部分にフィッティングされたノード列を含む修正輪郭モデルが得られる。
 上記構成において、複数のノードによって並列的に輪郭探索を行うならば、輪郭ラインの一端から他端側へ逐次的に探索を行う場合に比べ、探索時間を削減できる。その場合、各ノードが独立的に輪郭探索を行うならば、つまり他のノードの探索結果に影響されずに探索を行うならば、ノイズなどによる輪郭誤検出の連鎖という問題を回避できる。もっとも、探索範囲などを定めるのに際して他のノード位置その他を参照するようにしてもよい。輪郭モデルの採用により、抽出対象となる抽出部分の標準的形態あるいは標準的構造に合わせてノード列の初期形態あるいは複数のノード列の初期配列を定めておくことが可能である。これによれば、個々のノードによる輪郭探索を効率的に行うことができるという利点が得られる。また、探索範囲の効果的な絞り込みが可能となるから、ノイズに強い信頼性の高い処理を実現できる。
 望ましくは、前記初期設定手段は、前記抽出部分の時間軸方向の長さに応じて、前記輪郭モデルの時間軸方向のサイズを調整するサイズ調整手段と、前記画像部分上に前記サイズ調整後の輪郭モデルを配置するモデル配置手段と、を含む。
 掃引速度および心拍レートに応じて抽出部分の時間軸方向の長さが変化する。そのため、上記構成では、サイズ調整手段が、輪郭モデルの初期設定に際して、輪郭モデルの時間軸方向のサイズを抽出部分の時間軸方向の長さに応じて調整している。その上で、モデル配置手段がサイズ調整後の輪郭モデルを部分画像上に配置している。サイズ調整によれば、時間長の異なる複数の輪郭モデルを予め生成してそれらを格納しておく必要がなくなる。サイズ調整は、元になるモデルの伸縮、サイズ調整済みモデルの演算、などによって実現されうる。輪郭モデルは、時間軸方向に伸縮されても各ノードの時間軸方向における相対的位置関係が維持されるよう、例えば、各ノードの時間軸方向の位置を輪郭モデルの全体期間に対する相対的な位置として定義しておくのが望ましい。なお、望ましくは、輪郭モデルの距離軸方向のサイズも距離軸スケールに合わせられる。
 望ましくは、前記モデル変形手段は、前記配置後のノード列に含まれるノード毎に、時間軸方向と垂直な距離方向に前記輪郭探索を行う。Mモード画像上で、ノードごとに広く二次元的に輪郭探索を行ってもよいが、輪郭探索を主として距離方向に制限すればあるいは距離方向だけに限定すれば、探索効率を高められる。その場合でも、既に輪郭モデルのサイズ調整が行われているので、つまり複数のノードの配列が抽出部分の時間長に合わせられているので、当該抽出部分それ全体を複数のノードによって的確に探索することが可能である。例えば、複数のノードが時間軸方向に等間隔で配置されている場合、その等間隔を維持することで、時間軸方向の探索分解能を均等に保てる。
 望ましくは、前記モデル変形手段は、前記配置後のノード列に含まれるノード毎に、当該ノードの初期設定位置の近傍範囲において前記輪郭探索を行う。この構成によれば、ノード毎に、探索範囲が距離方向における近傍範囲内に制限される。これにより不必要に探索範囲が増大してしまう問題を回避でき、探索時間を削減できる。近傍範囲は、基本的に、距離方向において初期設定位置の両側に広がる範囲であり、個々のノードごとに近傍範囲のサイズを個別的に設定できるように構成してもよいし、複数のノードにわたって一律の近傍範囲を設定してもよい。
 望ましくは、前記初期設定手段は、更に、過去に形成された複数の修正輪郭モデルに基づいて、原輪郭モデルを生成するモデル生成手段、を含み、前記サイズ調整手段は、前記原輪郭モデルの時間軸方向のサイズを調整する。この構成によれば、複数の修正輪郭モデルを通じて、過去にフィッティング対象となった複数の抽出部分(実際の輪郭形態)を反映した原輪郭モデルを生成することが可能である。よって、原輪郭モデルに基づくサイズ調整後の輪郭モデルを部分画像に適用すれば、複数のノードの初期設定位置を実際の抽出部分に近付けられる可能性が高まる。
 望ましくは、前記モデル変形手段は、過去に形成された複数の修正輪郭モデルに基づいて、前記輪郭探索を行う近傍範囲のサイズを決定する。例えば、過去に形成された複数の修正輪郭モデルにおいてあるノードの位置が狭い範囲に集中していれば、今回抽出対象のMモード画像においても当該ノードに対応する輪郭位置は当該範囲内にある可能性が高いといえる。したがって、過去の修正輪郭モデルに基づいて輪郭探索範囲を決定することで、輪郭探索範囲をより狭めることが可能になる。これにより、より探索効率を向上させる。
 望ましくは、前記Mモード画像は複数の輪郭ラインを含み、前記輪郭モデルは、前記複数の輪郭ラインにおける複数の抽出部分を抽出するための複数のノード列を含み、前記モデル変形手段は、前記複数のノード列に含まれるノード毎に輪郭探索を行い、前記複数のノード列を前記複数の抽出部分にそれぞれフィッティングさせる。
 上記構成によれば、複数のノード列を有する輪郭モデルを用いることで、画像部分に含まれる複数の抽出部分を同時にあるいは一括して抽出することが可能となる。複数の抽出部分はそれ全体として時間軸空間軸に広がる二次元パターンを呈しており、それに対して複数のノード列からなる輪郭パターン(二次元ノードアレイ)を設置できる。そのため、仮に複数の抽出部分の一部が不鮮明であっても、あるいは、複数の抽出部分に近接や接触が生じていても、それらに対して輪郭モデルを設置することが容易となる。
 望ましくは、前記抽出部分にフィッティングされた前記ノード列に基づく補間処理により、前記抽出部分を模擬したトレースラインを生成するトレース手段、をさらに備える。
 望ましくは、前記特定手段は、前記被検体の心拍情報に基づいて、前記画像部分を特定する。これにより、注目する1または複数の心拍が心拍情報によって特定される。Mモード画像と並行に表示された心電波形を観察したユーザの入力に基づいて特定手段が画像部分あるいは処理対象区間を特定するようにしてもよい。
 本発明によれば、Mモード画像上において輪郭ラインの抽出を高精度に行うことができる。あるいは、Mモード画像上における輪郭ラインの抽出処理時間を低減させることができる。あるいは、Mモード画像上において、心拍に同期して周期的に運動する複数の輪郭ラインを心拍単位で同時に抽出することができる。
本実施形態に係る超音波診断装置の構成概略図である。 本実施形態における観測経路を示す図である。 本実施形態におけるMモード画像の例を示す図である。 輪郭モデルの概念図である。 輪郭モデルが時間軸方向に伸張される様子を示す概念図である。 輪郭モデルのノードの深さ情報が変更される様子を示す概念図である。 エッジ探索位置の範囲の例を示す図である。 エッジ探索位置の範囲の他の例を示す図である。 修正輪郭モデルの各ノード列に含まれるノード間の補間処理の例を示す図である。 本実施形態に係る超音波診断装置の動作の流れを示すフローチャートである。
 以下、本発明の実施形態について説明する。
 図1は、本実施形態に係る超音波画像処理装置としての超音波診断装置10の構成概略図である。超音波診断装置10は、一般に病院などの医療機関に設置され、被検体に対して超音波診断を実行する医療上の機器である。超音波診断装置10は、被検体内の組織境界の動きを示すMモード画像を形成する機能を備えている。本実施形態では、超音波診断装置10によりMモード画像を形成し、当該Mモード画像を用いて上述のLA/AO比計測を行う。
 プローブ12は、被検体に対して超音波の送受波を行う超音波探触子である。プローブ12は複数の振動子からなる振動子アレイを有している。振動子アレイに含まれる各振動子は、送受信部14からの各振動子に対応する複数の送信信号によって振動して超音波ビームを発生する。また、振動子アレイは送受波領域からの反射エコーを受信し、音響信号を電気信号である受信信号に変換して送受信部14へ出力する。本実施形態では、プローブ10は被検体の心臓に向けて超音波を送受波する。
 送受信部14は、プローブ12が有する複数の振動子を励振する複数の送信信号をプローブ12へ送ることで、プローブ12において超音波を発生させる。また、送受信部14は、反射エコーを受信した複数の振動子から得られる複数の受信信号を整相加算処理して、超音波ビームの走査方向に並ぶビームデータを形成する。ビームデータは、深度方向に並ぶ複数の反射エコー信号により構成される。このように、送受信部14は、送信ビームフォーマと受信ビームフォーマの機能を備えている。
 本実施形態では、後述の画像形成部18がMモード画像を形成する。Mモード画像の形成に先立ちBモード画像が形成され、当該Bモード画像上においてMモード画像の対象となる観測経路が設定される。観測経路が設定された後は、当該観測経路に対して超音波が送受波される。
 シネメモリ16は、送受信部14からの複数のビームデータを記憶する。シネメモリ16は、例えばリングバッファのような構造を有しており、時系列順で入力される各ビームデータを順次格納する。シネメモリ16には、最新から過去一定期間にわたるビームデータを記憶する。
 画像形成部18は、例えばデジタルスキャンコンバータ(DSC)などであり、シネメモリ16に記憶されたビームデータに基づいて生体イメージとしての超音波画像を形成する。画像形成部18において形成される超音波画像としては、Mモード画像の他、被検体内の組織の断層画像であるBモード画像などが含まれる。
 Mモード画像は、観測経路からの受信信号に基づくビームデータが反射エコー強度に応じた輝度値に変換され、それらが時系列順に並べられることで形成される。例えば、血管壁や心壁などの組織境界においては反射エコーの強度が大きくなるため、これらの位置が高輝度で表現されることになる。そして、観測経路上で順次得られたビームデータ列に対して同様に処理が行われ表示部40上において掃引されることで、Mモード画像上において時間軸方向に延びる高輝度ラインが形成される。当該高輝度ラインが、被検体内の組織運動を示す輪郭ラインとなる。
 Mモード画像は、ユーザにより設定される掃引速度によってその時間軸方向の縮尺が異なって形成される。掃引速度が大きければ、1つのMモード画像に表示される期間は比較的短い期間となり、掃引速度が小さければ1つのMモード画像に表示される期間は比較的長い期間となる。したがって、Mモード画像に含まれる輪郭ラインも掃引速度に応じて時間軸方向の伸縮率が異なる。
 本実施形態では、画像形成部18は、被検体の心臓の大動脈弁および左心房を通るビームデータに基づいてMモード画像を形成する。したがって、本実施形態で形成されるMモード画像では大動脈壁、大動脈弁、および左房壁の位置の経時的な変化が時間軸方向に延びる輪郭ラインで表現される。各輪郭ラインは、実際の組織の二次元輪郭などとは異なり、掃引によって構成された人工的な輪郭である。各輪郭ラインは、掃引速度および心拍レートに従う周期的な形態を有する。つまり、同じような波形パターンが複数心拍にわたって連なったものである。
 心電計20は、被検体の心臓の拍動の様子を示す心電データを出力する。心電計20は電極を有しており、当該電極を被検体に取り付けることで被検体の心起電力を計測する。計測された起電力を示すデータが心電データとして出力される。
 記憶部22は例えばハードディスク、ROM、あるいはRAMなどにより構成され、超音波装置10において実行されるプログラムあるいは超音波診断装置10において処理されるデータなどが記憶される。また、記憶部22には輪郭モデル24が記憶される。
 輪郭モデル24は、Mモード画像上における輪郭構造を抽出するためのモデルである。輪郭モデル24は、所定期間内における当該輪郭構造(すなわち輪郭構造の一部)に対応するものであり、本実施形態では1心拍期間における輪郭構造に対応するものである。すなわち、Mモード画像は深度方向に並ぶ多数の輪郭ラインの集合体のような態様を有しており、本実施形態では、その中における特定の複数の輪郭ライン(注目輪郭ライン)が抽出処理の対象である。より具体的には、複数の注目輪郭ラインの内で、ユーザによって指定された特定の心拍周期内に属する複数の線分(注目線分)が抽出処理の対象である。一方、輪郭モデルは、複数の注目線分に対応する複数のノード列からなり、その配列は複数の注目線分についての標準的な配列として定められている。実際には、計測の種別ごとに、当該計測を実現するための輪郭モデルが用意されている。輪郭モデル24は予め用意され記憶部22に記憶される。
 本実施形態では、上述の通りMモード画像として大動脈壁、大動脈弁、および左房壁の運動を示す複数の輪郭ラインを注目ラインとし、各注目ラインの一部である複数の注目線分に対応する複数のノード列を含んだ輪郭モデル24が用意される。各ノード列は複数のノードを含んでいる。輪郭モデル24においては、後述するように、複数のノード列は深度方向(距離方向)に並んでいる。したがって、輪郭モデル24は、時間軸方向と深度方向において2次元配列された複数のノードを有することになる。
 なお、本実施形態では、輪郭モデル24に複数のノード列が含まれているが、輪郭モデル24が1つのノード列のみを含む態様も採用し得る。また、輪郭モデル24は、計測の種別毎に、あるいは被検体の特性(年齢や性別など)に応じて複数設けられるのが好適である。輪郭モデル24については、図4を用いて後に詳述する。
 モデル適用部26は、画像形成部18が形成したMモード画像に輪郭モデル24を適用し、Mモード画像に含まれる複数の注目線分に輪郭モデル24をフィッティングさせて輪郭モデル24を変形させる。これによりMモード画像から複数の注目線分を抽出する。なお、モデル適用部26が扱うMモード画像は、ユーザにより所定のタイミングでフリーズされ掃引が停止した状態のMモード画像である。
 モデル適用部26に含まれる抽出期間特定部28は、Mモード画像において注目線分を抽出する期間である抽出期間を特定する。本実施形態では、抽出期間は、Mモード画像上において、複数の注目ラインを含むある一定の領域をもった画像部分として特定される。本実施形態では心電計20からの信号に基づいて、心電波形のR波のピーク間の期間、すなわち1心拍期間を抽出期間とする。抽出期間は1心拍期間以外の期間であってもよく、例えば2心拍期間などあってもよい。用意されたモデルの時間超に合う期間とするのが好ましい。
 モデル適用部26に含まれるモデル伸縮部30は、特定された抽出期間に応じて輪郭モデル24を時間軸方向に伸縮させる。上述のように、Mモード画像は掃引速度によって時間軸方向の縮尺が異なるため、例えば同じ1心拍期間であっても掃引速度によって時間軸方向の長さが異なることになる。モデル伸縮部30が輪郭モデル24を時間軸方向に伸縮させることで、掃引速度の設定に関わらず、Mモード画像に適切に輪郭モデル24を適用させることができる。これにより、時間長の異なる複数のモデルを用意する必要がなくなる。
 モデル適用部26に含まれるノード位置変更部32は、Mモード画像に適用され伸縮処理された(すなわち初期設定された)輪郭モデル24に含まれる各ノードについてエッジ探索を行い、各ノードの位置が形成部18により形成されたMモード画像に含まれる複数の注目線分上へ移動させる。詳しくは、輪郭モデル24に含まれる複数のノード列をMモード画像中の複数の注目線分にフィッティングするよう各ノード列に含まれる各ノードの位置を変更する。
 モデル適用部26の詳細な処理内容については、図5-8を用いて後に詳述する。
 トレース部34は、モデル適用部26によりMモード画像に適用されフィッティングされた修正輪郭モデルを構成する複数のノード列に基づいて、Mモード画像における注目線分のトレースを行う。具体的には、修正輪郭モデルの個々のノード列に含まれる各隣接ノード間に補間点を加える処理を行うことでトレースを行う。トレース部34がトレース処理を行うことで、Mモード画像に含まれる各注目線分に近似した複数のトレースラインが形成される。
 計測部36は、トレース部34が形成したトレースラインに基づいて計測を行う。本実施形態では、LA/AO比計測を行う。例えば、計測部36は、心電波形に基づいて、複数のトレースライン上において、被検体の心臓の収縮末期および拡張末期の位置を特定する。そして、計測部36は、複数のトレースラインに基づいて、収縮末期における大動脈径および拡張末期における左房径を計測する。トレース部34および計測部36の処理については、図9を用いて後に詳述する。
 表示制御部38は、画像形成部18が形成したMモード画像を含む各種画像、および計測部36の計測結果を示す数値などの表示処理を行い、表示部40に表示させる。制御部42は、例えばCPUであり、超音波診断装置10全体の制御を行う。
 本実施形態では、超音波診断装置10が超音波画像処理装置として用いられているが、超音波診断装置からパーソナルコンピュータ(PC)に対して受信信号を転送し、M画像データの形成、Mモード画像への輪郭モデルの適用、輪郭モデルの変形、および計測処理をPCにおいて行うようにしてもよい。この場合においてはPCが超音波画像処理装置に相当する。
 なお、図1に示す各構成(符号を付した各部)のうち、画像形成部18、モデル適用部26、トレース部34、計測部36の各部は、例えば電気電子回路やプロセッサ等のハードウェアを利用して実現することができ、その実現において必要に応じてメモリ等のデバイスが利用されてもよい。また、上記各部に対応した機能が、CPUやプロセッサやメモリなどのハードウェアと、CPUやプロセッサの動作を規定するソフトウェア(プログラム)との協働により実現されてもよい。表示部40の好適な具体例は液晶ディスプレイなどである。制御部42は、例えば、CPUやプロセッサやメモリ等のハードウェアと、CPUやプロセッサの動作を規定するソフトウェア(プログラム)との協働により実現することができる。
 図2は、本実施形態における観測経路64を示す図である。図2は心臓の断面図であり、大動脈50、左心房52、および左心室66が示されている。本実施形態では、大動脈50の経および左心房52の径を計測するものであるから、前側大動脈壁54、前側大動脈弁56、後側大動脈弁58、後側大動脈壁(前側左心房壁を兼ねる)60、および後側左心房壁62を通るよう観測経路64が設定される。観測経路64に沿ったビームデータに基づいて、Mモード画像が形成される。
 図3は、本実施形態において形成されるMモード画像70を示す図である。図1および2を参照しながら図3を説明する。Mモード画像70は横軸が時間軸、縦軸が深度軸となっている。高輝度で示される輪郭ライン72、74、76、78、および80は、被検体の各組織の動きを示すものである。すなわち、輪郭ライン72は前側大動脈壁54の動きを、輪郭ライン74は前側大動脈弁56の動きを、輪郭ライン76は後側大動脈弁58の動きを、輪郭ライン78は後側大動脈壁60の動きを、輪郭ライン80は後側左心房壁62の動きをそれぞれ示している。なお、大動脈弁は心拍に応じて開閉を繰り返す。収縮初期において大動脈弁が開くため、収縮初期においては輪郭ライン74と76が2本に分岐するが、その他の時相においては大動脈弁が閉じているため、輪郭ライン74と76はほぼ一体となっている。
 また、Mモード画像70には心電計20が取得した心電データに基づいて形成される心電波形82が含まれる。本実施形態では、1心拍期間における輪郭ラインの抽出を行うため、抽出期間特定部28は、心電波形82からR波84のピークを検出し、当該R波84のピーク間の期間を抽出期間T1として特定する。
 図4は、輪郭モデルの一例を示す概念図である。図4は、モデル伸縮部30などによる処理が行われる前の原輪郭モデルを示す図である。図4においては、横軸が時間軸、縦軸が深度軸となっている。輪郭モデル90は、1心拍期間T2における大動脈壁、大動脈弁、および左心房壁の輪郭ラインを抽出するための複数のノード列が含まれている。例えば、三角形で示された複数のノード92を含むノード列102は、前側大動脈壁54の輪郭ラインに対応し、複数のノード92は当該輪郭ラインを抽出するための探索点である。ノード列102に含まれる複数のノード92は、前側大動脈壁54の輪郭ラインの平均的な形状に沿ってプロットされている。同様に、白丸で示された複数のノード94は前側大動脈弁56に対応し、xマークで示された複数のノード96は後側大動脈弁58に対応し、黒丸で示された複数のノード98は後側大動脈壁60に対応し、四角で示された複数のノード100は後側左心房壁62に対応する。図4に示されるように、輪郭モデル90に含まれる複数のノードは、それ全体として、時間軸方向と深度方向の2次元配列を構成している。
 輪郭モデル90に含まれる各ノード列に含まれるノード数は任意であってよい。ノードの個数が多い程輪郭ラインの形状を詳細に表現可能だが輪郭ラインの抽出処理に時間がかかる。一方、ノードの個数が少なければ、モデルにより抽出される輪郭ラインの形状が粗いものとなるが、処理にかかる時間を低減可能となる。
 輪郭モデル90に含まれる各ノードは、1心拍期間T2に対する相対的な時点を示す時刻情報と、当該時点における組織の深度を示す深さ情報とを有している。輪郭モデル90においては、本実施形態では、個々のノード列に含まれる各ノードの時間軸方向の間隔tが一定であり、つまり等間隔となっている。間隔tは、1心拍期間T2を等分(輪郭モデル90においては10等分)した場合における1単位である。輪郭モデル90においては、1心拍期間T2を10等分した間隔tにおいて複数のノードをプロットし、ノード列102内における時間軸方向の順序を示す順序情報を設定することで、各ノードに1心拍期間T2に対する相対的な時点を示す時刻情報を与えている。
 輪郭モデル90は、ユーザなどにより構成されるようにしてもよいが、過去において検出されたエッジ位置に基づいて形成されるのが好ましい。例えば、モデル適用部26のフィッティング処理により得られる修正輪郭モデルに含まれる各ノードの深さ情報を記憶部22に記憶し、蓄積された複数の深さ情報に基づいて、輪郭モデル90の各ノードの深さ(深度方向の初期位置)を決定するようにしてもよい。例えば、修正輪郭モデルに含まれるノード毎に区別して深さ情報を蓄積しておき、ノード毎に深さの平均値を算出し、当該平均値の輪郭モデル90の各ノードの初期深さ位置とするようにしてもよい。過去の検出エッジ位置に基づいてノードの位置を決定することにより、輪郭モデル90のノード列に含まれる各ノードの初期位置を抽出対象となる輪郭ラインにより近い位置にすることができ、ノードを開始点とするエッジ探索における探索距離を短縮させることができる。これにより、エッジ探索の効率を向上させる。
 以下、図1を参照しながら図5-9を用いて、モデル適用部26の処理を説明する。図5は、輪郭モデル90が時間軸方向に伸張される様子を示す概念図である。なお、Mモード画像70上に輪郭モデル90が重畳される例において本実施形態を説明する。
 まず、モデル適用部26により輪郭モデルの初期設定が行われる。初期設定は、Mモード画像に対する輪郭モデルの適用およびモデル伸縮部30による伸縮処理が含まれる。過去の計測結果などに基づいて輪郭モデルが形成される場合は、当該輪郭モデルの形成も含めるようにしてもよい。図5(a)に示されるように、モデル適用部26は、Mモード画像70上に輪郭モデル90を重畳させる。上述の通り、Mモード画像70は、ユーザにより設定される掃引速度によって時間軸方向の縮尺が変化するため、Mモード画像70に単に輪郭モデル90を重畳させただけでは、Mモード画像70の1心拍期間T1と輪郭モデル90の1心拍期間T2とが一致しないのが一般的である。しかし、後述のように輪郭モデル90は時間軸方向に伸縮させられるため、時間軸方向への位置合わせは厳密に行う必要はない。
 一方、深度方向の位置については、ある程度の位置精度をもって輪郭モデル90を重畳させるのが好ましい。例えば、Mモード画像の深度方向の中央値と輪郭モデル90の深度方向の中央値を合わせるなどの処理により位置合わせを行う。あるいは、Mモード画像の深度方向のスケールと輪郭モデル90の深度方向のスケールとを合わせるように輪郭モデル90を深度方向へ伸縮させるようにしてもよい。
 モデル伸縮部30は、輪郭モデル90の1心拍期間T2がMモード画像70の1心拍期間T1と一致するよう、輪郭モデル90を時間軸方向に伸張させる。上述のように、輪郭モデル90に含まれる各ノードは、1心拍期間T2に対する相対的な時点を示す時刻情報を有しているため、当該伸張処理に伴って、1心拍期間T2の伸張分に応じて各ノードも時間軸方向にそれぞれ移動させられることになる。なお、本例では、モデル伸縮部30による処理前(すなわち図5(a)に示す段階において)輪郭モデル90の1心拍期間T2がMモード画像70の1心拍期間T1よりも短いため、輪郭モデル90の伸張処理を行っている。輪郭モデル90の1心拍期間T2がMモード画像70の1心拍期間T1よりも長い場合は、モデル伸縮部30は、輪郭モデル90の1心拍期間T2がMモード画像70の1心拍期間T1と一致するよう、輪郭モデル90を時間軸方向に収縮させる。
 図5(b)に示されるように、伸張された輪郭モデル102に含まれる各ノードの位置はMモード画像70に含まれる複数の注目線分に近い位置となる。しかし、輪郭モデル102はあくまで過去の計測データなどに基づいて形成されたモデルであるため、図5(b)に示す段階においては、輪郭モデル102に含まれる各ノードの位置は、完全にMモード画像70に含まれる複数の注目線分上となっていない。
 図6は、伸張された輪郭モデル102のノードの深さ情報が変更される様子を示す概念図である。図6においては、伸張された輪郭モデル102に含まれるノードのうち、前側大動脈壁54の輪郭ライン72に対応するノード列104以外のノードは図示省略されている。ノード列104に含まれる各ノードの深さ情報を変更する例において、モデル変形手段としてのノード位置変更部32の処理を説明する。
 ノード位置変更部32は、Mモード画像70について画像処理を行い、Mモード画像70に含まれる複数の注目線分を検出するためのエッジ探索を行う。エッジ探索とはMモード画像において急激に輝度が変化する位置を抽出する処理であり、例えば微分フィルタを用いるなどして行う。上述のとおり輪郭ラインの一部である注目線分は高輝度あるいは低輝度ラインであるから、エッジ探索により輪郭ライン72が抽出できる。
 ノード位置変更部32は、ノード毎にエッジ探索を行う。すなわち、各ノードをエッジ探索の開始点とし各ノード近傍についてエッジ探索を行う。例えば、図6において、ノード92aについて、ノード92aの位置からエッジ検出を開始し、その近傍においてエッジの探索を行い、エッジ106が検出されたときエッジ探索を終了する。これによりノード92aの位置がエッジ106の位置となる。この処理により、ノード92aが有する深さ情報は、検出されたエッジ106の深さを示す情報に変更される。当該処理を全てのノードについて行うことで、ノード列104に含まれる複数のノードの位置は、今回取得されたMモード画像70における前側大動脈壁54の輪郭ライン72の一部である注目線分上に位置することになる。輪郭モデル102に含まれる他のノード列についても、上記同様の処理を行うことで、Mモード画像70に含まれる各注目線分上に位置した複数のノードを含む修正輪郭モデルが形成される。
 上述の通り、本実施形態では、輪郭モデル90を用いてMモード画像に含まれる複数の注目線分の抽出を行っている。輪郭モデル90に含まれる複数のノードは、Mモード画像に含まれる複数の注目線分の近傍に位置していることから、当該複数のノードをエッジ探索点とすることで、注目線分の位置の探索に係る処理時間を低減させることができる。
 また、各ノード近傍の所定範囲内のみをエッジ探索範囲としてもよい。上述のように、複数の注目線分は各ノードの近傍にあると考えられることから、探索範囲をノード92近傍に限っても輪郭ライン72が検出される可能性が高い。また、探索範囲を限定することで、例えばノードから見て注目線分とは逆方向に探索開始してしまった場合などに、より早期に輪郭ラインを検出することが可能になる。最初に設定された所定範囲内にエッジが発見されなかった場合は、探索エリアを広げて再度エッジ探索をかけるなどの処理を行うようにしてもよい。
 ノード近傍の所定範囲内においてのみエッジ探索が行われるため、エッジ探索にあたりMモード画像70に含まれるノイズの影響をうけにくくなる。第1に、エッジ探索範囲内にノイズがない限り、エッジ探索にあたりノイズの影響を受けることがない。第2に、たとえ1つのノード近傍においてエッジ探索を行った結果ノイズの影響により誤った位置を輪郭位置と判定してしまったとしても、その他の各ノードについては、個別にエッジ探索をそれぞれ行うため、当該1つのノードの誤検出の影響を受けることがない。これにより全体としてノイズの影響をより排除して注目線分の抽出を行うことができる。
 また、本実施形態では、複数のノード列を含む輪郭モデル90を利用しているので、複数の注目線分を同時に抽出することができる。この場合、輪郭モデル90は、時間軸方向と深度方向に2次元配列されたエッジ探索開始点(すなわちノード)を有しており、各エッジ探索開始点からのエッジ探索が並行して行われる。これにより、心拍単位における複数の注目線分の抽出をより効率的に行うことを可能にしている。
 図7は、エッジ探索位置の範囲の例を示す図である。本実施形態では、ノード位置変更部32は、エッジ探索をMモード画像の深度軸に平行な方向(すなわち時間軸に垂直な方向)において行う。深度軸に平行な方向においてエッジ探索を行うことで、エッジ探索に要する処理時間を短縮させるとともに、輪郭モデル内における各ノード間の時間軸方向の間隔を維持している。すなわち、ノード位置変更部32の処理によって輪郭モデルが有する各ノードの時刻情報は変更されない。図7に示されるように、ノード92bについてのエッジ探索範囲110は、ノード92bから深度軸に平行な方向に延びている。エッジ探索範囲110の幅はユーザにより任意に決定されてよい。エッジ探索範囲110をノード92bを中心とした範囲とするのが好適であるが、必ずしもこれに限られない。
 図8は、エッジ探索位置の範囲の他の例を示す図である。エッジ探索範囲は、過去において形成された修正輪郭モデルの各ノードの深さ情報に基づいて決定されてもよい。図8には、ノード位置変更部32によって深さ情報が変更される前のノード92bと、過去に形成された修正輪郭モデルにおけるノード92bの位置が黒三角114で示されている。複数の黒三角114が示す位置は、複数の修正輪郭モデルにおけるノード92bの位置であり、すなわちノード92bの深さ情報の履歴データである。過去におけるノード92bの深さ情報は、過去に形成されたMモード画像において前側大動脈壁の輪郭ラインが実際に検出された深さを示すため、ノード92bの深さ情報の履歴データの分布に基づいてエッジ探索範囲を決定すれば、当該探索範囲内においてエッジが検出される可能性は高いと考えられる。これにより、エッジ探索範囲を適切に、すなわちできるだけ狭い範囲に設定することが可能になり、より処理時間を低減させることができる。
 また、図8に示されるように、各ノードについてエッジ探索範囲の長さが異なっていてもよい。例えば、ノード92bの深さ情報の履歴データの分布幅と、ノード92cの深さ情報の履歴データの分布幅とが異なる場合は、それぞれの分布幅に基づいてエッジ探索範囲が確定されてよく、その結果ノード92bに対応するエッジ探索範囲112とノード92cに対応するエッジ探索範囲118の長さが異なることになる。
 図9は、修正輪郭モデルの各ノード列に含まれるノード間の補間処理の例を示す図である。ノード位置変更部32による処理が終了し、修正輪郭モデルが形成されると、トレース部34によりトレース処理が行われる。トレース処理は、修正輪郭モデルの各ノード列に含まれるノード間の補間処理により行われる。例えば、ノード列104に含まれる各ノードの間を曲線補間することにより、前側大動脈壁の輪郭ラインの一部である注目線分をトレースしたトレースライン130が形成される。同様に、他のノード列に対しても補間処理を行うことで、各注目線分をトレースしたトレースラインが形成される。なお、修正輪郭モデルに含まれる各ノードおよび形成されたトレースラインをMモード画像と共に表示部に表示するようにしてもよい。
 トレース部34によりトレースラインが形成されると、計測部36は、修正輪郭モデルに含まれる各ノードあるいは形成されたトレースラインに基づいて大動脈径および左房径を計測する。計測部36は、心電データなどに基づいて、修正輪郭モデルにおいて心臓の拡張末期t1および収縮末期t2を特定する。そして、拡張末期t1における前側大動脈壁のトレースライン130と後側大動脈壁のトレースライン132との間隔を計測し、これをAODs(拡張末期大動脈径)とする。また、収縮末期t2における後側大動脈壁のトレースライン132と後側左心房壁のトレースライン134との間隔を計測し、これをLADs(収縮末期左房径)とする。計測されたAODsおよびLADsの値、およびその比であるLA/AO比は、Mモード画像とともに表示部に表示される。本実施形態ではAODsおよびLADsを計測したが、修正輪郭モデルに含まれる各ノードあるいは形成されたトレースラインに基づいて他の項目を計測するようにしてもよい。
 図10は、本実施形態に係る超音波診断装置の動作の流れを示すフローチャートである。図1を参照しながら図10を説明する。
 ステップS10において、画像形成部18は、被検体に対して超音波を送受波したプローブ12からの受信信号に基づいてMモード画像を形成する。
 ステップS12において、抽出期間特定部28は、心電計20により取得される心電データから形成される心電波形に基づいて、形成されたMモード画像において注目線分を抽出する期間である抽出期間を特定する。本実施形態では1心拍期間を抽出期間として特定する。
 ステップS14において、モデル伸縮部30は、Mモード画像に輪郭モデル24を重畳させ、形成されたMモード画像の1心拍期間と輪郭モデル24の1心拍期間を一致させるよう輪郭モデル24を収縮させる。
 ステップS16において、ノード位置変更部32は、Mモード画像においてエッジ探索を行い、注目線分を抽出する。本実施形態では、伸縮された輪郭モデル24に含まれる各ノードについてエッジ探索を行い、各ノードから深度方向に対してエッジ探索を行う。輪郭モデル24に含まれる各ノードの位置がエッジ探索により抽出されたエッジ位置となるよう、輪郭モデル24を変形させる。これにより、今回形成されたMモード画像に含まれる注目線分を示す修正輪郭モデルが形成される。
 ステップS18において、トレース部34は、修正輪郭モデルのノード列に対して補間処理を行うことでMモード画像に含まれる注目線分をトレースしたトレースラインが形成される。
 ステップS20において、計測部36は、修正輪郭モデルに含まれる各ノードあるいは形成されたトレースラインに基づいて、所望の計測を行う。
 10 超音波診断装置、12 プローブ、14 送受信部、16 シネメモリ、18 画像形成部、20 心電計、22 記憶部、24 輪郭モデル、26 モデル適用部、28 抽出期間特定部、30 モデル伸縮部、32 ノード位置変更部、34 トレース部、36 計測部、38 表示制御部、40 表示部、42 制御部。

Claims (9)

  1.  運動曲線としての輪郭ラインを含むMモード画像において、前記輪郭ライン中の抽出部分を含む画像部分を特定する特定手段と、
     前記抽出部分を含む画像部分に対してノード列を含む輪郭モデルを適用することで前記輪郭ライン中の抽出部分を抽出する抽出手段と、
     を備え、
     前記抽出手段は、
     前記画像部分に対する前記輪郭モデルの初期設定を行う初期設定手段と、
     前記Mモード画像上において前記初期設定後のノード列に含まれるノード毎に輪郭探索を行うことにより、前記ノード列を前記抽出部分にフィッティングさせて修正輪郭モデルを形成するモデル変形手段と、
     を含む、
     ことを特徴とする、超音波画像処理装置。
  2.  前記初期設定手段は、
     前記抽出部分の時間軸方向の長さに応じて、前記輪郭モデルの時間軸方向のサイズを調整するサイズ調整手段と、
     前記画像部分上に前記サイズ調整後の輪郭モデルを配置するモデル配置手段と、
     を含む、
     ことを特徴とする、請求項1に記載の超音波画像処理装置。
  3.  前記モデル変形手段は、前記配置後のノード列に含まれるノード毎に、時間軸方向と垂直な距離方向に前記輪郭探索を行う、
     ことを特徴とする、請求項2に記載の超音波画像処理装置。
  4.  前記モデル変形手段は、前記配置後のノード列に含まれるノード毎に、当該ノードの初期設定位置の近傍範囲において前記輪郭探索を行う、
     ことを特徴とする、請求項3に記載の超音波画像処理装置。
  5.  前記初期設定手段は、更に、過去に形成された複数の修正輪郭モデルに基づいて、原輪郭モデルを生成するモデル生成手段、
     を含み、
     前記サイズ調整手段は、前記原輪郭モデルの時間軸方向のサイズを調整する、
     ことを特徴とする、請求項2に記載の超音波画像処理装置。
  6.  前記モデル変形手段は、過去に形成された複数の修正輪郭モデルに基づいて、前記輪郭探索を行う近傍範囲のサイズを決定する、
     ことを特徴とする、請求項4に記載の超音波画像処理装置。
  7.  前記Mモード画像は複数の輪郭ラインを含み、
     前記輪郭モデルは、前記複数の輪郭ラインにおける複数の抽出部分を抽出するための複数のノード列を含み、
     前記モデル変形手段は、前記複数のノード列に含まれるノード毎に輪郭探索を行い、前記複数のノード列を前記複数の抽出部分にそれぞれフィッティングさせる、
     ことを特徴とする、請求項1に記載の超音波画像処理装置。
  8.  前記抽出部分にフィッティングされた前記ノード列に基づく補間処理により、前記抽出部分を模擬したトレースラインを生成するトレース手段、
     をさらに備えることを特徴とする、請求項1に記載の超音波画像処理装置。
  9.  前記特定手段は、被検体の心拍情報に基づいて、前記画像部分を特定する、
     ことを特徴とする、請求項1に記載の超音波画像処理装置。
PCT/JP2015/062965 2014-08-15 2015-04-30 超音波画像処理装置 WO2016024422A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/503,173 US10016180B2 (en) 2014-08-15 2015-04-30 Ultrasonic image processing device
CN201580043084.XA CN106572840A (zh) 2014-08-15 2015-04-30 超声波图像处理装置
EP15832622.3A EP3181056A4 (en) 2014-08-15 2015-04-30 Ultrasonic image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014165356A JP5842039B1 (ja) 2014-08-15 2014-08-15 超音波画像処理装置
JP2014-165356 2014-08-15

Publications (1)

Publication Number Publication Date
WO2016024422A1 true WO2016024422A1 (ja) 2016-02-18

Family

ID=55073274

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/062965 WO2016024422A1 (ja) 2014-08-15 2015-04-30 超音波画像処理装置

Country Status (5)

Country Link
US (1) US10016180B2 (ja)
EP (1) EP3181056A4 (ja)
JP (1) JP5842039B1 (ja)
CN (1) CN106572840A (ja)
WO (1) WO2016024422A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016117889B3 (de) * 2016-09-22 2018-03-15 Tomtec Imaging Systems Gmbh Verfahren und Vorrichtung zur Korrektur von durch Tracking-Verfahren ermittelten dynamischen Modellen
JP7136588B2 (ja) * 2018-05-14 2022-09-13 キヤノンメディカルシステムズ株式会社 超音波診断装置、医用画像診断装置、医用画像処理装置及び医用画像処理プログラム
US11399803B2 (en) * 2018-08-08 2022-08-02 General Electric Company Ultrasound imaging system and method
CN115794447B (zh) * 2023-02-07 2023-04-28 青岛哈尔滨工程大学创新发展中心 一种用于多物理场耦合的网格数据传递方法
CN116439802B (zh) * 2023-05-12 2024-04-12 上海长征医院 一种掌式超声装置和成像方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001120552A (ja) * 1999-10-27 2001-05-08 Hitachi Medical Corp 超音波診断装置
JP2006223558A (ja) * 2005-02-17 2006-08-31 Hitachi Medical Corp 超音波診断装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NO943214D0 (no) * 1994-08-30 1994-08-30 Vingmed Sound As Fremgangsmåte ved ultralydavbildning
JP4707559B2 (ja) * 2003-12-16 2011-06-22 株式会社日立メディコ 領域抽出装置及び領域抽出方法
US20050288589A1 (en) * 2004-06-25 2005-12-29 Siemens Medical Solutions Usa, Inc. Surface model parametric ultrasound imaging
US8577441B2 (en) * 2005-12-08 2013-11-05 Siemens Medical Solutions Usa, Inc. System and method for image based physiological monitoring of cardiovascular function
US9826959B2 (en) * 2008-11-04 2017-11-28 Fujifilm Corporation Ultrasonic diagnostic device
US8199994B2 (en) * 2009-03-13 2012-06-12 International Business Machines Corporation Automatic analysis of cardiac M-mode views
WO2010123089A1 (ja) * 2009-04-24 2010-10-28 株式会社日立メディコ 超音波撮像装置
US8861811B2 (en) * 2009-08-19 2014-10-14 Merck Sharp & Dohme Corp. System and method for segmenting M-mode ultrasound images showing blood vessel wall motion over time
US9072489B2 (en) * 2010-01-07 2015-07-07 Hitachi Medical Corporation Medical image diagnostic apparatus and medical image contour extraction processing method
CN102890824B (zh) * 2011-07-19 2015-07-29 株式会社东芝 运动对象轮廓跟踪方法和装置
WO2013115194A1 (ja) * 2012-02-02 2013-08-08 日立アロカメディカル株式会社 医用画像診断装置及びその関心領域設定方法
WO2014155825A1 (ja) * 2013-03-29 2014-10-02 日立アロカメディカル株式会社 医療用診断装置およびその計測方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001120552A (ja) * 1999-10-27 2001-05-08 Hitachi Medical Corp 超音波診断装置
JP2006223558A (ja) * 2005-02-17 2006-08-31 Hitachi Medical Corp 超音波診断装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3181056A4 *

Also Published As

Publication number Publication date
JP2016041116A (ja) 2016-03-31
JP5842039B1 (ja) 2016-01-13
EP3181056A4 (en) 2018-05-02
EP3181056A1 (en) 2017-06-21
US20170231601A1 (en) 2017-08-17
CN106572840A (zh) 2017-04-19
US10016180B2 (en) 2018-07-10

Similar Documents

Publication Publication Date Title
US8526696B2 (en) Medical imaging apparatus, medical image processing apparatus, ultrasonic imaging apparatus, ultrasonic image processing apparatus and method of processing medical images
US8265358B2 (en) Ultrasonic image processing apparatus and method for processing ultrasonic image
JP5624258B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
US8888703B2 (en) Ultrasound imaging apparatus and method for processing image with motion tracking and error correction
JP5271262B2 (ja) 三次元超音波イメージングのための方法、装置及びコンピュータプログラム
US8224049B2 (en) Ultrasonic image processing apparatus and a method for processing an ultrasonic image
JP5842039B1 (ja) 超音波画像処理装置
JP2008012047A (ja) 超音波診断装置
JP5877816B2 (ja) 超音波画像撮像装置及び超音波画像撮像方法
JP2003175041A (ja) 超音波診断装置及び画像処理方法
JP4870449B2 (ja) 超音波診断装置及び超音波画像処理方法
JP5100084B2 (ja) 超音波診断装置、画像処理装置、及び画像処理プログラム
JP2007143606A (ja) 超音波診断装置
JP2002177273A (ja) 超音波診断装置
JP2018102589A (ja) 脈波伝播速度測定装置、血圧測定装置、および脈波伝播速度測定方法
JP2005000638A (ja) 超音波画像生成方法及び超音波画像生成プログラム
CN113382685B (zh) 用于研究血管特性的方法和***
JP5784085B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2016097256A (ja) 超音波画像処理装置
JP5624581B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP6837924B2 (ja) 超音波診断装置及びサンプルゲート設定方法
WO2013161228A1 (ja) 超音波診断装置および超音波診断装置の制御方法
JP2002330967A (ja) 超音波診断装置
KR20100059682A (ko) 주기적으로 움직이는 대상체의 체적 정보를 제공하는 초음파 시스템 및 방법
JP4098611B2 (ja) 超音波診断装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15832622

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015832622

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015832622

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15503173

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE