JP2013188236A - Ultrasonic diagnostic apparatus and program - Google Patents

Ultrasonic diagnostic apparatus and program Download PDF

Info

Publication number
JP2013188236A
JP2013188236A JP2010152572A JP2010152572A JP2013188236A JP 2013188236 A JP2013188236 A JP 2013188236A JP 2010152572 A JP2010152572 A JP 2010152572A JP 2010152572 A JP2010152572 A JP 2010152572A JP 2013188236 A JP2013188236 A JP 2013188236A
Authority
JP
Japan
Prior art keywords
image data
unit
luminance
luminance information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010152572A
Other languages
Japanese (ja)
Inventor
Miki Kato
美樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Medical and Graphic Inc
Original Assignee
Konica Minolta Medical and Graphic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Medical and Graphic Inc filed Critical Konica Minolta Medical and Graphic Inc
Priority to JP2010152572A priority Critical patent/JP2013188236A/en
Priority to PCT/JP2011/056243 priority patent/WO2012005026A1/en
Publication of JP2013188236A publication Critical patent/JP2013188236A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an ultrasonic diagnostic apparatus and a program capable, with a simple process, of carrying out frame averaging, reducing afterimages associated with the movement of specimens and alleviating declines in brightness of the specimens.SOLUTION: A smoothing processing unit 15 smoothes brightness information among two or more pieces of image data of different frames, that are generated by an image processing unit 14, and obtains smoothed image data. Then, a display unit 18 displays an ultrasonic diagnostic image on the basis of the smoothed image data obtained by the smoothing processing unit 15. Then, the smoothing processing unit 15 determines a brightness difference among the two or more pieces of image data of different frames and detects a moving body component. Then, with respect to the brightness information of the component corresponding to the detected moving body component, the smoothing processing unit 15 causes the mixture ratio of each of the brightness information of the two or more pieces of image data of different frames in the smoothing of the brightness information to vary from that of the component corresponding to components other than the moving body component.

Description

本発明は、超音波診断装置及びプログラムに関する。   The present invention relates to an ultrasonic diagnostic apparatus and a program.

従来、多数の振動子(トランスデューサ)を配列して備える振動探触子(プローブ)を有し、生体等の被検体に対して超音波の送受信を行い、受信した超音波から得られたデータに基づいて超音波画像データをフレーム毎に生成し、これを画像表示装置に表示する超音波診断装置が知られている。   Conventionally, it has a vibration probe (probe) provided with a large number of transducers (transducers) arranged, transmits and receives ultrasonic waves to and from a subject such as a living body, and receives data obtained from the received ultrasonic waves. 2. Description of the Related Art There is known an ultrasonic diagnostic apparatus that generates ultrasonic image data for each frame based on this and displays this on an image display apparatus.

このような超音波診断装置において、表示画面上に現れるノイズ(ランダムノイズ)を除去するため、超音波画像に対してフレームアベレージングを行うものが知られている(例えば、特許文献1)。これは、特に超音波などの微弱信号を画面上で観察する場合に、余計なアーチファクトを発生させことなくS/N(Signal-Noise ratio)の改善が可能であるため、広く利用されている。   In such an ultrasonic diagnostic apparatus, there is known an apparatus that performs frame averaging on an ultrasonic image in order to remove noise (random noise) appearing on a display screen (for example, Patent Document 1). This is widely used because it is possible to improve the S / N (Signal-Noise ratio) without generating extra artifacts, particularly when a weak signal such as an ultrasonic wave is observed on the screen.

そして、従来から使用されるフレームアベレージングの手法として「単純フレームアベレージング」が知られている。
この手法は、n枚のフレーム画像データを記憶するためのフレームメモリを用意し、このフレームメモリに記憶されたn枚のフレーム画像データを単純加算平均することによって平滑化された超音波画像データを得るものである。
具体的には、例えば、3枚のフレーム画像データについて単純フレームアベレージングを行う場合には、図18に示すような処理を行う。ここで、図18(a)〜(c)は、フレームメモリに記憶された、受信した超音波に基づいて得られた1フレーム毎の画像データをそれぞれ模式的に示したものであり、各画像には動体Mが表されている。そして、動体Mはフレーム毎に移動しており、その各位置をそれぞれM10、M20、M30によって示している。また、ここで、背景は輝度0とし、動体M10、M20、M30はそれぞれ輝度255とする。そして、以上のように構成された、図18(a)〜(c)に示される3枚のフレーム画像の画像データを加算して平均を取ると、図18(d)に示すように、動体M31及び残像M11、M21についてそれぞれ輝度85にて表された画像データが得られる。
この手法によれば、n枚のフレームにおいて発生したランダムノイズが他の画像と全く相関のないものであれば、n枚のフレーム画像の単純加算平均を取った場合、信号成分はn倍となり、ノイズ成分は√n倍となるため、S/Nは、
n/√n=√n
だけ改善することとなる。
“Simple frame averaging” is known as a conventionally used frame averaging technique.
In this method, a frame memory for storing n frame image data is prepared, and ultrasonic image data smoothed by simple addition averaging of the n frame image data stored in the frame memory is obtained. To get.
Specifically, for example, when simple frame averaging is performed on three pieces of frame image data, processing as shown in FIG. 18 is performed. Here, FIGS. 18A to 18C schematically show image data for each frame obtained based on the received ultrasonic waves stored in the frame memory. The moving body M is represented in FIG. Then, the moving body M is moved for each frame, indicating the respective position by the M 10, M 20, M 30, respectively. Here, the background has a luminance of 0, and the moving bodies M 10 , M 20 , and M 30 each have a luminance of 255. Then, when the image data of the three frame images shown in FIGS. 18A to 18C configured as described above are added and averaged, as shown in FIG. Image data represented by luminance 85 is obtained for each of M 31 and afterimages M 11 and M 21 .
According to this method, if random noise generated in n frames has no correlation with other images, the signal component becomes n times when a simple addition average of n frame images is taken, Since the noise component is √n times, S / N is
n / √n = √n
It will only improve.

しかしながら、このような「単純フレームアベレージング」の手法は、以下のような問題があることが知られている。   However, it is known that the “simple frame averaging” method has the following problems.

すなわち、n枚のフレーム画像データを記憶させるためのメモリが必要であり、コスト高の要因となっている。
また、n枚のフレーム画像データを加算処理する時間が必要であることから、フレームレートの低下の要因となる。これにより、超音波画像の表示タイミングが、ユーザによる振動探触子の手技と一致せず、正確な診断の妨げとなる。
また、n枚のフレーム画像を加算平均することから、観測物体が動いて表示される場合には、図18(d)に示されるようなn個の残像が発生するなど、残像が発生しやすくなる。これらの残像は、診断を行う部位によってはアーチファクトとなるため、正確な診断の妨げとなる。
また、図18(d)に示すように、観測物体を表示するための輝度が1/nになるなど、観測物体の輝度が低下しやすくなる。そのため、コントラストが低下し、画質を低下させるものとなる。
That is, a memory for storing n pieces of frame image data is necessary, which is a factor of high cost.
In addition, since it takes time to add n frame image data, it causes a decrease in the frame rate. As a result, the display timing of the ultrasonic image does not coincide with the user's vibration probe procedure, which hinders accurate diagnosis.
In addition, since the n frame images are averaged, when the observed object moves and is displayed, n afterimages as shown in FIG. Become. Since these afterimages become an artifact depending on a part to be diagnosed, accurate diagnosis is hindered.
In addition, as shown in FIG. 18D, the luminance of the observed object is likely to decrease, for example, the luminance for displaying the observed object becomes 1 / n. Therefore, the contrast is lowered and the image quality is lowered.

一方、他のフレームアベレージングの手法として、例えば、図19に示すように、過去1フレームの画像データ(a)と最新のフレームの画像データ(b)とを平均加算し、これを表示画像データ(c)とした上で生成された画像データをフレームメモリに記憶し、次のフレームにおいて、フレームメモリに記憶された画像データ(c)と新しいフレームの画像データ(d)とを平均加算し、これを表示画像データ(e)とし、以後、これを繰り返す「リカーシブ(Recursive)型フレームアベレージング」という手法も知られている。
より具体的には、例えば、3枚のフレーム画像データについてフレームアベレージングを行う場合には、図20に示すような処理を行う。ここで、図20(a)〜(c)は、受信した超音波に基づいて得られた1フレーム毎の画像データをそれぞれ模式的に示したものであり、各画像には動体Mが示されている。そして、動体Mはフレーム毎に移動しており、その各位置をそれぞれM40、M50、M60によって示している。また、ここで、背景は輝度0とし、動体M40、M50、M60はそれぞれ輝度255とする。先ず、図20(a)に示されるフレーム画像の画像データがフレームメモリに記憶されており、図20(b)に示されるフレーム画像データが取得されると、図20(a)と(b)にそれぞれ示されるフレーム画像の画像データを加算平均し、図20(d)に示すように、動体M51、残像M41についてそれぞれ輝度128にて表された画像データが得られる。そして、図20(c)に示されるフレーム画像データが取得されると、図20(c)と(d)にそれぞれ示されるフレーム画像の画像データを加算平均し、図20(e)に示すように、動体M62については輝度128にて表され、残像M42、残像M52についてはそれぞれ輝度64にて表された画像データが得られる。
この手法によれば、保持に必要な画像データが1フレーム分で済むため、メモリ量を少なくすることができ、コストの低減が図れる。また、2フレーム分の加算平均処理で済むため、処理時間及び処理負荷が軽減される。また、フレームアベレージングが行われる毎に残像の輝度が減少されるので、残像が目立ちにくくなり、画質の向上が図れるようになる。また、フレームアベレージングが行われるほど、ノイズ低減効果が上述した単純フレームアベレージングよりも大きくなる。
また、図21に示すように、過去1フレームの画像データよりも最新のフレームの画像データの方に重み付け量を大きくして上述したリカーシブ型フレームアベレージングを行うことにより、残像の輝度を早く低減させることができるようになる。すなわち、図21(a)と(b)とにそれぞれ示されるフレーム画像の重み付け比率を1:3として加算した場合は、図21(d)に示されるように、動体M81の輝度は192となり、残像M71の輝度は64となる。そして、図21(d)と(c)とにそれぞれ示されるフレーム画像の重み付け比率を同様に1:3として加算すると、図21(e)に示されるように、動体M92の輝度は192となり、残像M82の輝度は48となり、残像M72の輝度は16となり、残像の輝度の低下量が大きくなる。
On the other hand, as another frame averaging technique, for example, as shown in FIG. 19, the image data (a) of the past one frame and the image data (b) of the latest frame are averaged, and this is displayed as display image data. The image data generated after (c) is stored in the frame memory, and in the next frame, the image data (c) stored in the frame memory and the image data (d) of the new frame are averaged, There is also known a technique called “recursive frame averaging” in which this is used as display image data (e) and this is repeated thereafter.
More specifically, for example, when frame averaging is performed on three pieces of frame image data, processing as shown in FIG. 20 is performed. Here, FIGS. 20A to 20C schematically show image data for each frame obtained based on the received ultrasound, and the moving object M is shown in each image. ing. Then, the moving body M is moved for each frame, indicating the respective position by the M 40, M 50, M 60, respectively. Here, the background has a luminance of 0, and the moving bodies M 40 , M 50 , and M 60 each have a luminance of 255. First, image data of the frame image shown in FIG. 20A is stored in the frame memory, and when the frame image data shown in FIG. 20B is acquired, FIG. 20A and FIG. As shown in FIG. 20D, image data represented by luminance 128 is obtained for the moving object M 51 and the afterimage M 41 , respectively. When the frame image data shown in FIG. 20 (c) is acquired, the image data of the frame images shown in FIGS. 20 (c) and (d) are added and averaged, as shown in FIG. 20 (e). in, is expressed by luminance 128 for moving body M 62, afterimage M 42, image data expressed by the luminance 64 respectively are obtained for the afterimage M 52.
According to this method, since the image data necessary for holding is sufficient for one frame, the amount of memory can be reduced and the cost can be reduced. In addition, since the averaging process for two frames is sufficient, the processing time and processing load are reduced. Further, since the brightness of the afterimage is reduced every time the frame averaging is performed, the afterimage becomes less noticeable and the image quality can be improved. In addition, as the frame averaging is performed, the noise reduction effect becomes larger than the simple frame averaging described above.
In addition, as shown in FIG. 21, the image data of the latest frame is made larger than the image data of the past one frame, and the above-described recursive frame averaging is performed, thereby quickly reducing the luminance of the afterimage. To be able to. That is, when the weight ratios of the frame images shown in FIGS. 21A and 21B are respectively added as 1: 3, the luminance of the moving object M 81 is 192 as shown in FIG. 21D. , the luminance residual image M 71 becomes 64. When the weight ratios of the frame images shown in FIGS. 21 (d) and 21 (c) are respectively added as 1: 3, the luminance of the moving object M 92 becomes 192 as shown in FIG. 21 (e). The afterimage M 82 has a luminance of 48, the afterimage M 72 has a luminance of 16, and the amount of decrease in the afterimage luminance increases.

しかしながら、このような「リカーシブ型フレームアベレージング」の手法についても、以下のような問題があることが知られている。   However, it is known that the “recursive frame averaging” method has the following problems.

すなわち、動体の輝度については、図20及び図21に示すように、フレーム画像データの加算の際の重み付け量に応じた分だけ低下してしまい、例えば、図20に示す例では、各フレームについて重み付け量をそれぞれ1/2とした場合には、動体の輝度は1/2となってしまう。その結果、画質の低下の要因となってしまう。   That is, as shown in FIGS. 20 and 21, the luminance of the moving object is reduced by an amount corresponding to the weighting amount at the time of addition of the frame image data. For example, in the example shown in FIG. When the weighting amount is ½, the luminance of the moving object is ½. As a result, the image quality is deteriorated.

そこで、このような問題を解決するものとして、フレームアベレージングを行った際の被検体の動きの影響(残像)を除去するために、複数のメモリに記憶されたデータを用いて、被検体の動きを検出し、その検出結果を用いて、被検体の動きに基づく複数のメモリ間のデータの位置ずれを補正するようにした超音波診断装置がある(例えば、特許文献2)。   Therefore, in order to solve such a problem, in order to remove the influence (afterimage) of the movement of the subject at the time of frame averaging, the data stored in a plurality of memories is used. There is an ultrasonic diagnostic apparatus that detects a movement and corrects a data position shift between a plurality of memories based on the movement of the subject (for example, Patent Document 2).

特開平7−134772号公報JP 7-134772 A 特開2009−39428号公報JP 2009-39428 A

しかしながら、上記特許文献2に記載の超音波診断装置では、複数のメモリに記憶されたデータに対して相関処理を行って被検体の動きの検出を行っているので、残像の低減及び被検体の輝度低下の抑制が図れるが、処理が複雑であり、処理時間及び処理負荷が大きくなる。   However, in the ultrasonic diagnostic apparatus described in Patent Document 2 described above, since correlation processing is performed on data stored in a plurality of memories to detect the movement of the subject, it is possible to reduce afterimages and to detect the subject. Although a reduction in luminance can be suppressed, the processing is complicated, and the processing time and processing load increase.

本発明の課題は、簡素な処理で被検体の動きに伴う残像の低減及び被検体の輝度低下を抑制してフレームアベレージングを行うことができる超音波診断装置及びプログラムを提供することである。   An object of the present invention is to provide an ultrasonic diagnostic apparatus and a program capable of performing frame averaging by reducing afterimages accompanying the movement of the subject and suppressing the decrease in luminance of the subject with a simple process.

以上の課題を解決するため、請求項1に記載の発明は、超音波診断装置において、
駆動信号によって被検体に向けて送信超音波を出力するとともに、被検体からの反射超音波を受信することにより受信信号を出力する振動子を有する超音波探触子と、
前記振動子に駆動信号を供給する送信部と、
前記振動子から出力された受信信号を受信する受信部と、
前記受信部によって受信した前記受信信号から画像の輝度を示す輝度情報に変換した画像データを生成する画像処理部と、
前記画像処理部によって生成された、フレームの異なる複数の画像データ間で輝度情報の平滑化を行って平滑化画像データを得る平滑処理部と、
前記平滑処理部によって得られた前記平滑化画像データに基づいて超音波診断画像の表示を行う表示部と、
を備え、
前記平滑処理部は、前記フレームの異なる複数の画像データ間における輝度差分を判定して動体部分を検出し、該検出した動体部分に対応する部分の輝度情報については、前記輝度情報の平滑化における前記フレームの異なる複数の画像データの輝度情報のそれぞれの混合比率を、前記動体部分以外に対応する部分とは異ならせることを特徴とする。
In order to solve the above problems, the invention according to claim 1 is an ultrasonic diagnostic apparatus,
An ultrasonic probe having a transducer that outputs a transmission signal by receiving a reflected ultrasonic wave from the subject and outputting a transmission ultrasonic wave toward the subject by a drive signal;
A transmitter for supplying a drive signal to the vibrator;
A receiving unit for receiving a reception signal output from the vibrator;
An image processing unit that generates image data converted from the received signal received by the receiving unit into luminance information indicating the luminance of the image;
A smoothing processing unit that obtains smoothed image data by smoothing luminance information between a plurality of image data having different frames generated by the image processing unit;
A display unit for displaying an ultrasonic diagnostic image based on the smoothed image data obtained by the smoothing unit;
With
The smoothing processing unit determines a luminance difference between a plurality of image data of different frames to detect a moving object part, and luminance information of a part corresponding to the detected moving object part is determined in the smoothing of the luminance information. The mixing ratio of the luminance information of the plurality of pieces of image data with different frames is different from the corresponding part other than the moving part.

請求項2に記載の発明は、請求項1に記載の超音波診断装置において、
前記平滑処理部は、平滑化の対象である画像データのうちの少なくとも最新のフレームの画像データにおける輝度情報に対して帯域制限フィルタ処理による平滑化を行った後、前記フレームの異なる複数の画像データ間における輝度差分の判定を行うことを特徴とする。
The invention according to claim 2 is the ultrasonic diagnostic apparatus according to claim 1,
The smoothing unit performs smoothing by band-limiting filter processing on luminance information in image data of at least the latest frame of image data to be smoothed, and then a plurality of image data having different frames It is characterized by determining the luminance difference between the two.

請求項3に記載の発明は、請求項1又は2に記載の超音波診断装置において、
前記平滑処理部は、前記検出した動体部分に対応する部分の輝度情報については、前記輝度情報の平滑化を行わず、最新のフレームの画像データにおける輝度情報を前記平滑化画像データとして使用することを特徴とする。
The invention according to claim 3 is the ultrasonic diagnostic apparatus according to claim 1 or 2,
The smoothing unit does not smooth the luminance information for the luminance information of the part corresponding to the detected moving body part, and uses the luminance information in the image data of the latest frame as the smoothed image data. It is characterized by.

請求項4に記載の発明は、請求項3に記載の超音波診断装置において、
前記平滑処理部は、前記検出した動体部分に対応する部分の前記最新のフレームの画像データにおける輝度情報について帯域制限フィルタ処理による平滑化を行い、該平滑化した輝度情報を前記平滑化画像データとして使用することを特徴とする。
The invention according to claim 4 is the ultrasonic diagnostic apparatus according to claim 3,
The smoothing processing unit smoothes the luminance information in the image data of the latest frame of the part corresponding to the detected moving body part by band limiting filter processing, and uses the smoothed luminance information as the smoothed image data It is characterized by using.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の超音波診断装置において、
前記平滑処理部は、前記フレームの異なる複数の画像データ間における輝度差分が所定の動体判定値であるか否かを判定することによって動体部分の検出を行うとともに、前記動体判定値を変更可能としたことを特徴とする。
The invention according to claim 5 is the ultrasonic diagnostic apparatus according to any one of claims 1 to 4,
The smoothing processing unit detects a moving object part by determining whether or not a luminance difference between a plurality of image data of different frames is a predetermined moving object determination value, and can change the moving object determination value. It is characterized by that.

請求項6に記載の発明は、請求項3又は4に記載の超音波診断装置において、
前記平滑処理部は、前記フレームの異なる複数の画像データ間における輝度差分が所定の動体判定値であるか否かを判定することにより動体部分の検出を行い、前記フレームの異なる複数の画像データ間における輝度差分が所定の静体判定値であるか否かを判定することにより静体部分の検出を行い、該検出した静体部分に対応する部分の輝度情報については、前記フレームの異なる複数の画像データ間での輝度情報の平滑化を行い、前記フレームの異なる複数の画像データ間における輝度差分が前記動体判定値と前記静体判定値の何れでもないときは、前記フレームの異なる複数の画像データ間での輝度情報の平滑化を行うとともに、該平滑化された輝度情報と、前記最新のフレームの画像データにおける輝度情報とでさらに平滑化を行って得た輝度情報を、前記平滑化画像データとして使用することを特徴とする。
The invention according to claim 6 is the ultrasonic diagnostic apparatus according to claim 3 or 4,
The smoothing processing unit detects a moving part by determining whether or not a luminance difference between a plurality of image data of different frames is a predetermined moving object determination value, and detects a difference between the plurality of image data of different frames. Detecting a still body part by determining whether or not the brightness difference in the predetermined static body determination value, and for brightness information of a part corresponding to the detected still body part, a plurality of different frames Smoothing of luminance information between image data, and when a luminance difference between a plurality of image data of different frames is neither the moving object determination value nor the still body determination value, a plurality of images having different frames Smooths luminance information between data, and further smoothes the smoothed luminance information and the luminance information in the image data of the latest frame. Luminance information obtained and characterized by using as said smoothed image data.

請求項7に記載の発明は、請求項6に記載の超音波診断装置において、
前記平滑制御部は、前記動体判定値及び前記静体判定値の少なくとも何れかについて変更可能としたことを特徴とする。
The invention according to claim 7 is the ultrasonic diagnostic apparatus according to claim 6,
The smoothing control unit can change at least one of the moving object determination value and the still body determination value.

請求項8に記載の発明は、駆動信号によって被検体に向けて送信超音波を出力するとともに、被検体からの反射超音波を受信することにより受信信号を出力する振動子を有する超音波探触子を有する超音波診断装置に設けられたコンピュータを、
前記受信信号から画像の輝度を示す輝度情報に変換された、フレームの異なる複数の画像データ間で輝度情報の平滑化を行って平滑化画像データを得るとともに、前記フレームの異なる複数の画像データ間における輝度差分を判定して動体部分を検出し、該検出した動体部分に対応する部分の輝度情報については、前記輝度情報の平滑化における前記フレームの異なる複数の画像データの輝度情報のそれぞれの混合比率を、前記動体部分以外に対応する部分とは異ならせる平滑処理手段として機能させるためのプログラムとしたことを特徴とする。
According to an eighth aspect of the present invention, an ultrasonic probe has a transducer that outputs a transmission ultrasonic wave toward a subject by a drive signal and outputs a reception signal by receiving a reflected ultrasonic wave from the subject. A computer provided in an ultrasound diagnostic apparatus having a child,
The received information is converted into luminance information indicating the luminance of the image, and the luminance information is smoothed between a plurality of image data of different frames to obtain smoothed image data, and between the plurality of image data of different frames A moving body part is detected by determining a luminance difference in the image, and for luminance information of a part corresponding to the detected moving body part, each of luminance information of a plurality of image data of different frames in the smoothing of the luminance information A program for causing the ratio to function as smoothing processing means for making the ratio different from a portion corresponding to a portion other than the moving body portion is provided.

本発明によれば、簡素な処理で被検体の動きに伴う残像の低減及び被検体の輝度低下を抑制してフレームアベレージングを行うことができる。   According to the present invention, it is possible to perform frame averaging by suppressing afterimages accompanying the movement of the subject and suppressing luminance reduction of the subject with a simple process.

本発明の第1の実施の形態における超音波診断装置の外観構成を示す図である。It is a figure which shows the external appearance structure of the ultrasound diagnosing device in the 1st Embodiment of this invention. 超音波診断装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an ultrasound diagnosing device. 平滑処理部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a smooth process part. 単純フレームアベレージングを行った場合に生成される画像データについて説明する図である。It is a figure explaining the image data produced | generated when simple frame averaging is performed. 本発明の第1の実施の形態によって生成された画像データについて説明する図である。It is a figure explaining the image data produced | generated by the 1st Embodiment of this invention. 最新のフレームにおいて生成された原画像を示す図である。It is a figure which shows the original image produced | generated in the newest flame | frame. 単純フレームアベレージングを行った場合に生成される画像を示す図である。It is a figure which shows the image produced | generated when simple frame averaging is performed. 本発明の第1の実施の形態によって生成された画像を示す図である。It is a figure which shows the image produced | generated by the 1st Embodiment of this invention. 第2の実施の形態における超音波診断装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the ultrasonic diagnosing device in 2nd Embodiment. 第2の実施の形態において実行される画像平滑処理について説明する図である。It is a figure explaining the image smoothing process performed in 2nd Embodiment. 第2の実施の形態において実行される画像平滑処理について説明する図である。It is a figure explaining the image smoothing process performed in 2nd Embodiment. 第3の実施の形態における平滑処理部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the smooth process part in 3rd Embodiment. 第4の実施の形態において実行される画像平滑処理について説明する図である。It is a figure explaining the image smoothing process performed in 4th Embodiment. 第5の実施の形態における平滑処理部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the smooth process part in 5th Embodiment. 第5の実施の形態におけるフレームアベレージングの手法について説明する図である。It is a figure explaining the method of the frame averaging in 5th Embodiment. 第5の実施の形態における動き検出について説明する図である。It is a figure explaining the motion detection in 5th Embodiment. 図16に示される動体の画像の構成について説明する図である。It is a figure explaining the structure of the image of the moving body shown by FIG. 従来の超音波診断装置にて実施される単純フレームアベレージングについて説明する図である。It is a figure explaining the simple flame | frame averaging implemented with the conventional ultrasonic diagnosing device. 従来の超音波診断装置にて実施されるリカーシブ型フレームアベレージングについて概念的に説明する図である。It is a figure which illustrates notionally the recursive type | mold frame averaging implemented with the conventional ultrasonic diagnosing device. 従来の超音波診断装置にて実施されるリカーシブ型フレームアベレージングについて説明する図である。It is a figure explaining the recursive type | mold frame averaging implemented with the conventional ultrasonic diagnosing device. 従来の超音波診断装置にて実施されるリカーシブ型フレームアベレージングについて説明する図である。It is a figure explaining the recursive type | mold frame averaging implemented with the conventional ultrasonic diagnosing device.

以下、本発明の実施の形態に係る超音波診断装置について、図面を参照して説明する。ただし、発明の範囲は図示例に限定されない。なお、以下の説明において、同一の機能及び構成を有するものについては、同一の符号を付し、その説明を省略する。   Hereinafter, an ultrasonic diagnostic apparatus according to an embodiment of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples. In addition, in the following description, what has the same function and structure attaches | subjects the same code | symbol, and abbreviate | omits the description.

(第1の実施の形態)
本発明の第1の実施の形態に係る超音波診断装置Sは、図1及び図2に示すように、図示しない生体等の被検体に対して超音波(送信超音波)を送信するとともに、この被検体で反射した超音波の反射波(反射超音波:エコー)を受信する超音波探触子2と、超音波探触子2とケーブル3を介して接続され、超音波探触子2に電気信号の駆動信号を送信することによって超音波探触子2に被検体に対して送信超音波を送信させるとともに、超音波探触子2にて受信された被検体内からの反射超音波に応じて超音波探触子2で生成された電気信号である受信信号に基づいて被検体内の内部状態を超音波画像として画像化する超音波診断装置本体1とを備えて構成している。
(First embodiment)
As shown in FIGS. 1 and 2, the ultrasonic diagnostic apparatus S according to the first embodiment of the present invention transmits ultrasonic waves (transmission ultrasonic waves) to a subject such as a living body (not shown), The ultrasonic probe 2 that receives the reflected wave (reflected ultrasonic wave: echo) reflected by the subject is connected to the ultrasonic probe 2 via the cable 3, and the ultrasonic probe 2. The ultrasonic probe 2 is caused to transmit a transmission ultrasonic wave to the subject by transmitting a drive signal of an electric signal to the subject, and the reflected ultrasonic wave from the subject received by the ultrasonic probe 2 is transmitted to the subject. And an ultrasonic diagnostic apparatus main body 1 that images the internal state of the subject as an ultrasonic image based on a reception signal that is an electrical signal generated by the ultrasonic probe 2 according to the above. .

超音波探触子2は、圧電素子からなる振動子2aを備えており、この振動子2aは、例えば、方位方向(走査方向あるいは上下方向)に一次元アレイ状に複数配列されている。本実施の形態では、n個(例えば、128個)の振動子2aを備えた超音波探触子2を用いている。なお、振動子2aは、二次元アレイ状に配列されたものであってもよい。また、振動子2aの個数は、任意に設定することができる。また、本実施の形態では、超音波探触子2について、リニア電子スキャンプローブを採用したが、電子走査方式あるいは機械走査方式の何れを採用してもよく、また、リニア走査方式、セクタ走査方式あるいはコンベックス走査方式の何れの方式を採用することもできる。   The ultrasonic probe 2 includes a transducer 2a made of a piezoelectric element. For example, a plurality of the transducers 2a are arranged in a one-dimensional array in the azimuth direction (scanning direction or vertical direction). In the present embodiment, the ultrasonic probe 2 including n (for example, 128) transducers 2a is used. Note that the vibrators 2a may be arranged in a two-dimensional array. The number of vibrators 2a can be set arbitrarily. In this embodiment, a linear electronic scan probe is used for the ultrasound probe 2, but either an electronic scanning method or a mechanical scanning method may be used, and a linear scanning method or a sector scanning method may be used. Alternatively, any method of the convex scanning method can be adopted.

超音波診断装置本体1は、例えば、図2に示すように、操作入力部11と、送信部12と、受信部13と、画像生成部14と、平滑処理部15と、メモリ部16と、DSC(Digital Scan Converter)17と、表示部18と、制御部19とを備えて構成されている。   For example, as shown in FIG. 2, the ultrasonic diagnostic apparatus main body 1 includes an operation input unit 11, a transmission unit 12, a reception unit 13, an image generation unit 14, a smoothing processing unit 15, a memory unit 16, A DSC (Digital Scan Converter) 17, a display unit 18, and a control unit 19 are provided.

操作入力部11は、例えば、診断開始を指示するコマンドや被検体の個人情報等のデータの入力などを行うための各種スイッチ、ボタン、トラックボール、マウス、キーボード等を備えており、操作信号を制御部19に出力する。なお、操作入力部11の入力操作によって、後述する閾値の設定や、空間フィルタの切換設定などを行うことができる。   The operation input unit 11 includes, for example, various switches, buttons, a trackball, a mouse, a keyboard, and the like for inputting data such as a command to start diagnosis and personal information of a subject, and the like. Output to the control unit 19. It should be noted that a threshold setting described later, a spatial filter switching setting, and the like can be performed by an input operation of the operation input unit 11.

送信部12は、制御部19の制御に従って、超音波探触子2にケーブル3を介して電気信号である駆動信号を供給して超音波探触子2に送信超音波を発生させる回路である。また、送信部12は、例えば、クロック発生回路、遅延回路、パルス発生回路を備えている。クロック発生回路は、駆動信号の送信タイミングや送信周波数を決定するクロック信号を発生させる回路である。遅延回路は、駆動信号の送信タイミングを振動子2a毎に対応した個別経路毎に遅延時間を設定し、設定された遅延時間だけ駆動信号の送信を遅延させて送信超音波によって構成される送信ビームの集束を行うための回路である。パルス発生回路は、所定の周期で駆動信号としてのパルス信号を発生させるための回路である。   The transmission unit 12 is a circuit that generates a transmission ultrasonic wave in the ultrasonic probe 2 by supplying a drive signal that is an electrical signal to the ultrasonic probe 2 via the cable 3 under the control of the control unit 19. . The transmission unit 12 includes, for example, a clock generation circuit, a delay circuit, and a pulse generation circuit. The clock generation circuit is a circuit that generates a clock signal that determines the transmission timing and transmission frequency of the drive signal. The delay circuit sets a transmission signal transmission timing for each individual path corresponding to each transducer 2a, delays transmission of the drive signal by the set delay time, and is a transmission beam constituted by transmission ultrasonic waves. This is a circuit for performing focusing. The pulse generation circuit is a circuit for generating a pulse signal as a drive signal at a predetermined cycle.

受信部13は、制御部19の制御に従って、超音波探触子2からケーブル3を介して電気信号の受信信号を受信する回路である。受信部13は、例えば、増幅器、A/D変換回路、整相加算回路を備えている。増幅器は、受信信号を、振動子2a毎に対応した個別経路毎に、予め設定された所定の増幅率で増幅させるための回路である。A/D変換回路は、増幅された受信信号をA/D変換するための回路である。整相加算回路は、A/D変換された受信信号に対して、振動子2a毎に対応した個別経路毎に遅延時間を与えて時相を整え、これらを加算(整相加算)して音線データを生成するための回路である。   The receiving unit 13 is a circuit that receives a reception signal of an electrical signal from the ultrasonic probe 2 via the cable 3 under the control of the control unit 19. The receiving unit 13 includes, for example, an amplifier, an A / D conversion circuit, and a phasing addition circuit. The amplifier is a circuit for amplifying the received signal with a predetermined amplification factor set in advance for each individual path corresponding to each transducer 2a. The A / D conversion circuit is a circuit for A / D converting the amplified received signal. The phasing addition circuit adjusts the time phase by giving a delay time to each individual path corresponding to each transducer 2a with respect to the A / D converted received signal, and adds these (phasing addition) to generate a sound. It is a circuit for generating line data.

画像生成部14は、受信部13からの音線データに対して対数増幅や包絡線検波処理などを実施し、Bモード画像データを生成する。Bモード画像データは、受信信号の強さを輝度によって表したものである。このようにして生成されたBモード画像データは、平滑処理部15に送信される。   The image generation unit 14 performs logarithmic amplification, envelope detection processing, and the like on the sound ray data from the reception unit 13 to generate B-mode image data. The B-mode image data represents the strength of the received signal by luminance. The B-mode image data generated in this way is transmitted to the smoothing processing unit 15.

平滑処理部15は、詳しくは後述するが、画像生成部14から送信されたBモード画像データと、前フレームにおいて生成されたフレーム画像データとに基づいて輝度情報のフレームアベレージング(平滑化)を行い、その結果得られた画像データ(平滑化画像データ)をメモリ部16に送信する。   As will be described in detail later, the smoothing processing unit 15 performs frame averaging (smoothing) of luminance information based on the B-mode image data transmitted from the image generation unit 14 and the frame image data generated in the previous frame. The image data (smoothed image data) obtained as a result is transmitted to the memory unit 16.

メモリ部16は、例えば、DRAM(Dynamic Random Access Memory)などの半導体メモリによって構成されており、平滑処理部15から送信されたフレームアベレージング後のBモード画像データをフレーム単位で記憶する。すなわち、フレーム画像データとして記憶することができる。そして、記憶されたフレーム画像データは、制御部19の制御に従って、DSC17に送信される。   The memory unit 16 is configured by a semiconductor memory such as a DRAM (Dynamic Random Access Memory), for example, and stores the B-mode image data after frame averaging transmitted from the smoothing processing unit 15 in units of frames. That is, it can be stored as frame image data. The stored frame image data is transmitted to the DSC 17 under the control of the control unit 19.

DSC17は、メモリ部16より受信したフレーム画像データをテレビジョン信号の走査方式による画像信号に変換し、表示部18に出力する。   The DSC 17 converts the frame image data received from the memory unit 16 into an image signal based on a television signal scanning method, and outputs the image signal to the display unit 18.

表示部18は、LCD(Liquid Crystal Display)、CRT(Cathode-Ray Tube)ディスプレイ、有機EL(Electronic Luminescence)ディスプレイ及びプラズマディスプレイ等の表示装置である。表示部18は、DSC17から出力された画像信号に従って表示画面上に画像の表示を行う。なお、表示装置に代えてプリンタ等の印刷装置等を適用してもよい。   The display unit 18 is a display device such as an LCD (Liquid Crystal Display), a CRT (Cathode-Ray Tube) display, an organic EL (Electronic Luminescence) display, and a plasma display. The display unit 18 displays an image on the display screen according to the image signal output from the DSC 17. Note that a printing device such as a printer may be applied instead of the display device.

制御部19は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備えて構成され、ROMに記憶されているシステムプログラム等の各種処理プログラムを読み出してRAMに展開し、展開したプログラムに従って超音波診断装置Sの各部の動作を集中制御する。
ROMは、半導体等の不揮発メモリ等により構成され、超音波診断装置Sに対応するシステムプログラム及び該システムプログラム上で実行可能な各種処理プログラムや、各種データ等を記憶する。これらのプログラムは、コンピュータが読み取り可能なプログラムコードの形態で格納され、CPUは、当該プログラムコードに従った動作を逐次実行する。
RAMは、CPUにより実行される各種プログラム及びこれらプログラムに係るデータを一時的に記憶するワークエリアを形成する。
The control unit 19 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and reads various processing programs such as a system program stored in the ROM to read the RAM. The operation of each part of the ultrasonic diagnostic apparatus S is centrally controlled according to the developed program.
The ROM is configured by a nonvolatile memory such as a semiconductor, and stores a system program corresponding to the ultrasonic diagnostic apparatus S, various processing programs that can be executed on the system program, various data, and the like. These programs are stored in the form of computer-readable program code, and the CPU sequentially executes operations according to the program code.
The RAM forms a work area for temporarily storing various programs executed by the CPU and data related to these programs.

次に、平滑処理部15の機能的構成について説明する。
平滑処理部15は、図3に示すように、前フレーム画像メモリ部501、水平方向ノイズ除去部502,504、垂直方向ノイズ除去部503,505、加算器506、絶対値算出部507、閾値設定部508、比較部509、スイッチ部510、重み付け部511,512、加算器513、空間フィルタ部514、フィルタ切換部515及びスイッチ部516を備えて構成されている。
Next, the functional configuration of the smoothing processing unit 15 will be described.
As shown in FIG. 3, the smoothing processing unit 15 includes a previous frame image memory unit 501, horizontal noise removing units 502 and 504, vertical noise removing units 503 and 505, an adder 506, an absolute value calculating unit 507, a threshold setting. A unit 508, a comparison unit 509, a switch unit 510, weighting units 511 and 512, an adder 513, a spatial filter unit 514, a filter switching unit 515, and a switch unit 516.

前フレーム画像メモリ部501は、最新フレームの1つ前のフレームにおいて生成された1フレーム前のフレーム画像データが記憶されている。   The previous frame image memory unit 501 stores frame image data of the previous frame generated in the frame immediately before the latest frame.

平滑処理部15は、画像生成部14よりBモード画像データが送信されると、所定の順序にて画素毎に入力データ(注目画素(A))として入力し、水平方向ノイズ除去部502において水平方向のノイズ除去処理を行う。水平方向ノイズ除去部502は、水平方向に急峻なノイズの平滑を行うための帯域制限フィルタを掛ける。本実施の形態では、注目画素(A)を中心として、水平方向に1/8:2/8:2/8:2/8:1/8の係数を有するLPF(Low-Pass Filter)を掛けて水平方向におけるノイズの除去を行う。なお、本実施の形態では、近隣の画素とともにフィルタリング処理を行うため、水平方向に少なくとも3線以上のBモード画像データが平滑処理部15に入力されたときに水平方向のノイズ除去処理を行うようにしている。   When the B-mode image data is transmitted from the image generation unit 14, the smoothing processing unit 15 inputs the input data (target pixel (A)) for each pixel in a predetermined order, and the horizontal noise removal unit 502 performs horizontal input. Perform direction noise removal processing. The horizontal noise removing unit 502 applies a band limiting filter for performing smooth noise smoothing in the horizontal direction. In this embodiment, an LPF (Low-Pass Filter) having a coefficient of 1/8: 2/8: 2/8: 2/8: 1/8 is applied in the horizontal direction around the target pixel (A). Remove noise in the horizontal direction. In this embodiment, since filtering processing is performed together with neighboring pixels, horizontal noise removal processing is performed when B-mode image data of at least three lines or more in the horizontal direction is input to the smoothing processing unit 15. I have to.

続いて、垂直方向ノイズ除去部503は、水平方向のノイズ除去処理が行われた注目画素(A)の画素データに対して垂直方向のノイズ除去処理を行う。垂直方向ノイズ除去部503は、垂直方向に急峻なノイズの平滑を行うための帯域制限フィルタを掛ける。本実施の形態では、注目画素(A)を中心として、垂直方向に1/8:2/8:2/8:2/8:1/8の係数を有するLPFを掛けて垂直方向におけるノイズの除去を行う。垂直方向ノイズ除去部503は、ノイズの除去を行った注目画素(A)の画素データを加算器506に出力する。   Subsequently, the vertical noise removal unit 503 performs vertical noise removal processing on the pixel data of the target pixel (A) that has been subjected to horizontal noise removal processing. The vertical noise removal unit 503 applies a band limiting filter for smoothing noise that is steep in the vertical direction. In the present embodiment, the noise in the vertical direction is multiplied by applying an LPF having a coefficient of 1/8: 2/8: 2/8: 2/8: 1/8 in the vertical direction around the target pixel (A). Remove. The vertical noise removal unit 503 outputs the pixel data of the target pixel (A) from which noise has been removed to the adder 506.

一方、平滑処理部15は、前フレーム画像メモリ部501からフレーム画像データを所定の順序で1画素ずつ読み出してこれを注目画素(B)とし、水平方向ノイズ除去部504において水平方向のノイズ除去処理を行う。ここで読みだされる注目画素(B)は、最新のフレームにおける注目画素(A)の位置に対応する位置にある画素となる。例えば、最新のフレームにおける注目画素(A)の位置が(x、y)=(1,1)であれば、注目画素(B)の位置は、1フレーム前のフレーム画像データにおける(x、y)=(1,1)の位置となる。なお、ノイズ除去の処理方法については、上述した水平方向ノイズ除去部502と同様なので、説明を省略する。   On the other hand, the smoothing processing unit 15 reads out the frame image data from the previous frame image memory unit 501 one pixel at a time in a predetermined order, and uses this as a target pixel (B), and the horizontal noise removal unit 504 performs horizontal noise removal processing. I do. The target pixel (B) read out here is a pixel at a position corresponding to the position of the target pixel (A) in the latest frame. For example, if the position of the target pixel (A) in the latest frame is (x, y) = (1, 1), the position of the target pixel (B) is (x, y in the frame image data of the previous frame. ) = (1, 1). Since the noise removal processing method is the same as that of the horizontal noise removal unit 502 described above, the description thereof is omitted.

続いて、垂直方向ノイズ除去部505は、水平方向のノイズ除去が行われた注目画素(B)の画素データに対して垂直方向のノイズ除去処理を行い、加算器506に出力する。ノイズ除去の処理方法については、上述した垂直方向ノイズ除去部503と同様なので説明を省略する。   Subsequently, the vertical noise removal unit 505 performs a noise removal process in the vertical direction on the pixel data of the target pixel (B) from which the noise removal in the horizontal direction has been performed, and outputs the result to the adder 506. Since the noise removal processing method is the same as that of the vertical noise removal unit 503 described above, the description thereof is omitted.

そして、加算器506は、上述のようにしてノイズの除去が行われた注目画素(A)及び注目画素(B)の両画素データ間の輝度差分を算出し、絶対値算出部507に出力する。
そして、絶対値算出部507は、加算器506から出力された算出結果の絶対値を求め、その結果を比較部509に出力する。
The adder 506 calculates a luminance difference between the pixel data of the target pixel (A) and the target pixel (B) from which noise has been removed as described above, and outputs the difference to the absolute value calculation unit 507. .
The absolute value calculation unit 507 calculates the absolute value of the calculation result output from the adder 506 and outputs the result to the comparison unit 509.

閾値設定部508は、予め設定された物体の静動を判断するための静動閾値を比較部509に出力する。この閾値設定部508において設定される静動閾値は、操作入力部11による入力に応じて可変することができる。なお、静動閾値を予め複数記憶しておき、例えば、診断部位の選択に応じた静動閾値が読みだされて設定されるようにしてもよい。また、静動閾値を可変しないものとしてもよい。   The threshold setting unit 508 outputs a preset static motion threshold for determining static motion of the object to the comparison unit 509. The static movement threshold set in the threshold setting unit 508 can be varied according to the input from the operation input unit 11. Note that a plurality of static movement threshold values may be stored in advance, and for example, the static movement threshold value corresponding to the selection of the diagnostic part may be read and set. Further, the static movement threshold value may not be changed.

比較部509は、絶対値算出部507から出力された輝度差分の絶対値と閾値設定部508から出力された静動閾値とを比較し、その比較結果をスイッチ部510に出力する。具体的には、比較部509における比較結果、輝度差分が静動閾値よりも大きい場合、すなわち、動体判定値である場合には当該注目画素が「動」である旨の信号を、輝度差分が静動閾値以下である場合には「静」である旨の信号を、スイッチ部510に出力する。   The comparison unit 509 compares the absolute value of the luminance difference output from the absolute value calculation unit 507 with the static movement threshold output from the threshold setting unit 508, and outputs the comparison result to the switch unit 510. Specifically, when the comparison result in the comparison unit 509 indicates that the luminance difference is larger than the static motion threshold, that is, a moving object determination value, a signal indicating that the target pixel is “moving” is displayed. If it is equal to or less than the static movement threshold, a signal indicating “static” is output to the switch unit 510.

スイッチ部510は、比較部509からの信号に応じてスイッチの位置を切り替える。具体的には、スイッチ部510は、比較部509から「動」である旨の信号を入力したときは、スイッチの位置をMotion(M)側に切り替え、「静」である旨の信号を入力したときは、スイッチの位置をStatic(S)側に切り替える。   The switch unit 510 switches the position of the switch according to the signal from the comparison unit 509. Specifically, when the switch unit 510 receives a signal indicating “movement” from the comparison unit 509, the switch unit 510 switches the position of the switch to the Motion (M) side and inputs a signal indicating “static”. If it does, the switch position is switched to the Static (S) side.

スイッチ部510によってスイッチの位置がStatic(S)側に切り替えられた場合は、入力された注目画素(A)の画素データの輝度情報と前フレーム画像メモリ501に記憶されている注目画素(B)の画素データの輝度情報とがそれぞれ重み付け部511,512により重み付けされた後、加算器513により加算される。なお、重み付け部511,512における重み付け量については任意に設定することができるが、重み付け量をそれぞれ均等に配分すると、ノイズが発生した場合の抑圧能力が高いので好ましい。本実施の形態では、注目画素(A)の輝度情報及び注目画素(B)の輝度情報にそれぞれ0.5の係数が掛けられるように構成されている。
そして、平滑処理部15は、加算後の輝度情報を示す画素データをメモリ部16に出力するとともに、前フレーム画像メモリ部501に記憶し、次のフレーム画像のフレームアベレージングを行う際に使用されるようにする。
When the switch position is switched to the Static (S) side by the switch unit 510, the luminance information of the pixel data of the input target pixel (A) and the target pixel (B) stored in the previous frame image memory 501 The luminance information of the pixel data is weighted by the weighting units 511 and 512 and then added by the adder 513. Note that the weighting amounts in the weighting units 511 and 512 can be arbitrarily set, but it is preferable to distribute the weighting amounts evenly because the suppression capability when noise occurs is high. In this embodiment, the luminance information of the target pixel (A) and the luminance information of the target pixel (B) are each multiplied by a coefficient of 0.5.
The smoothing processing unit 15 outputs pixel data indicating the luminance information after the addition to the memory unit 16 and stores the pixel data in the previous frame image memory unit 501, and is used when performing frame averaging of the next frame image. So that

一方、平滑処理部15、スイッチ部510によってスイッチの位置がMotion(M)側に切り替えられた場合は、入力された注目画素(A)の画素データについてフレームアベレージングを行うことなく、メモリ部16に出力し、前フレーム画像メモリ部501に記憶する。メモリ部16に出力された画素データは、メモリ部16の所定のフレームバッファに出力画像データとして記憶される。   On the other hand, when the switch position is switched to the Motion (M) side by the smoothing processing unit 15 and the switch unit 510, the memory unit 16 does not perform frame averaging on the pixel data of the input target pixel (A). And stored in the previous frame image memory unit 501. The pixel data output to the memory unit 16 is stored as output image data in a predetermined frame buffer of the memory unit 16.

ここで、入力された注目画素(A)の画素データをそのまま用いた場合にはS/Nは向上されない。この場合、人間の目には、画像の動き部分に関しては視感度が低下するため、ノイズが表示されていても目立ち難いが、目立つ場合もあり得る。そこで、本実施の形態では、フィルタ切換部515にて、スイッチ部516におけるスイッチの位置を切り替えることにより、選択的にフィルタリングを行うことが可能となっている。フィルタ切換部515は、操作入力部11などの操作によってスイッチの位置を何れとするかの設定を行うことができ、スイッチ部516は、フィルタ切換部515の設定内容に応じて、スイッチの位置をFiltering(F)側と、Through(T)側との何れかに切り替える。   Here, when the pixel data of the input target pixel (A) is used as it is, the S / N is not improved. In this case, since the visibility of the moving part of the image is lowered for human eyes, it is difficult to notice even if noise is displayed, but it may be noticeable. Therefore, in this embodiment, the filter switching unit 515 can selectively perform filtering by switching the position of the switch in the switch unit 516. The filter switching unit 515 can set the switch position by operating the operation input unit 11 or the like, and the switch unit 516 sets the switch position according to the setting content of the filter switching unit 515. Switch to either the Filtering (F) side or the Through (T) side.

平滑処理部15は、スイッチ部516によってスイッチの位置がThrough(T)側に切り替えられた場合は、フィルタリングを行うことなく、注目画素(A)の画素データのメモリ部16への出力及び前フレーム画像メモリ部501への記憶を行う。
一方、平滑処理部15は、スイッチ部516によってスイッチの位置がFiltering(F)側に切り替えられた場合は、空間フィルタ部514において、注目画素(A)の画素データの平滑化を行った後、メモリ部16への出力及び前フレーム画像メモリ部501への記憶を行う。具体的には、空間フィルタ部514は、注目画素(A)を中心として、3×3画素の範囲内で画素データにおける輝度情報を平均化する空間フィルタ(LPF)を掛ける。その結果、注目画素(A)の輝度情報がその周辺の画素の輝度情報とともに平滑化され、S/Nの向上が図れるようになる。
When the switch position is switched to the Through (T) side by the switch unit 516, the smoothing processing unit 15 outputs the pixel data of the pixel of interest (A) to the memory unit 16 and the previous frame without performing filtering. Storage in the image memory unit 501 is performed.
On the other hand, when the switch position is switched to the Filtering (F) side by the switch unit 516, the smoothing processing unit 15 smoothes the pixel data of the target pixel (A) in the spatial filter unit 514, Output to the memory unit 16 and storage in the previous frame image memory unit 501 are performed. Specifically, the spatial filter unit 514 applies a spatial filter (LPF) that averages the luminance information in the pixel data within the range of 3 × 3 pixels with the target pixel (A) as the center. As a result, the luminance information of the target pixel (A) is smoothed together with the luminance information of the surrounding pixels, and the S / N can be improved.

以上のように構成された第1の実施の形態の超音波診断装置Sによれば、フレーム間の注目画素の画素データの輝度差分が所定の閾値を超えたとき、すなわち、輝度差分が所定の動体判定値である場合には、当該注目画素が動体であるとして、フレームアベレージングを行わず、最新のフレームの注目画素の画素データをそのまま使用するか、あるいは、空間フィルタによるフィルタリングを行ったものを使用するので、動体部分の輝度の低下は発生せず、また、残像も生じない。そして、輝度差分を判定することによって動体か否かの判定を行うので、簡素な処理で実施でき、処理時間及び処理負荷の軽減が図れるようになる。一方、輝度差分が所定の動体判定値でない場合は、当該注目画素が静体であるとして、フレームアベレージングを行うことにより、ノイズの除去を効果的に行うことができるようになる。   According to the ultrasonic diagnostic apparatus S of the first embodiment configured as described above, when the luminance difference of the pixel data of the pixel of interest between frames exceeds a predetermined threshold, that is, the luminance difference is predetermined. If it is a moving object determination value, it is assumed that the target pixel is a moving object, and frame averaging is not performed, and pixel data of the target pixel of the latest frame is used as it is, or filtering by a spatial filter is performed. Therefore, the luminance of the moving part does not decrease and no afterimage is generated. Then, since it is determined whether or not it is a moving object by determining the luminance difference, it can be performed with simple processing, and the processing time and processing load can be reduced. On the other hand, when the luminance difference is not a predetermined moving object determination value, it is possible to effectively remove noise by performing frame averaging on the assumption that the target pixel is a still body.

ここで、図4〜図8を参照しながら、単純フレームアベレージングを行った場合に生成される画像データと、第1の実施の形態によるフレームアベレージングを行った場合に生成される画像データとを対比して説明する。   Here, referring to FIG. 4 to FIG. 8, image data generated when simple frame averaging is performed, and image data generated when frame averaging according to the first embodiment is performed, and A comparison will be made.

図4は、3枚のフレーム画像データについて単純フレームアベレージングを行った例である。ここで、図4(a)〜(c)は、受信した超音波に基づいて得られた1フレーム毎の画像データをそれぞれ模式的に示したものであり、各画像には動体Mと、静体Saが示されている。また、図4(b)に示される、2フレーム目の画像データにおいては、ノイズN1,N2が表れている。ノイズN1は、輝度230の画像データとして表れ、ノイズN2は、輝度51の画像データとして表れている。そして、動体Mはフレーム毎に移動しており、その各位置をそれぞれMa〜Mcによって示している。また、ここで、背景は輝度0とし、動体Ma〜Mc及び静体Saはそれぞれ輝度255とする。   FIG. 4 shows an example in which simple frame averaging is performed on three frame image data. Here, FIGS. 4A to 4C schematically show image data for each frame obtained based on the received ultrasonic waves, and each image includes a moving object M and a static object. The body Sa is shown. Further, in the image data of the second frame shown in FIG. 4B, noises N1 and N2 appear. The noise N1 appears as image data with luminance 230, and the noise N2 appears as image data with luminance 51. And the moving body M moves for every flame | frame, and each position is shown by Ma-Mc, respectively. Here, the background has a luminance of 0, and the moving bodies Ma to Mc and the stationary body Sa each have a luminance of 255.

先ず、図4(a)に示されるフレーム画像の画像データが、例えば、フレームメモリに記憶されており、図4(b)に示されるフレーム画像データが取得されると、図4(a)と(b)にそれぞれ示されるフレーム画像の画像データを加算平均し、図4(d)に示すように、動体Mb、残像Maについてはそれぞれ輝度128にて表され、静体Saは輝度255にて表され、ノイズN1aは輝度243にて表され、ノイズN2aは輝度26にて表された画像データが得られる。そして、図4(c)に示されるフレーム画像データが取得されると、図4(a)〜(c)にそれぞれ示されるフレーム画像の画像データを加算平均し、図4(e)に示すように、動体Mc、残像Ma、残像Mbについてはそれぞれ輝度85にて表され、静体Saは輝度255にて表され、ノイズN1bは輝度247にて表され、ノイズN2bは輝度17にて表された画像データが得られる。 First, the image data of the frame image shown in FIG. 4A is stored in, for example, a frame memory. When the frame image data shown in FIG. 4B is acquired, FIG. 4A is obtained. The image data of the frame images shown in (b) are added and averaged, and as shown in FIG. 4D, the moving object Mb 1 and the afterimage Ma 1 are each represented by a luminance of 128, and the static object Sa has a luminance of 255. The noise N1a is represented by luminance 243, and the noise N2a is image data represented by luminance 26. When the frame image data shown in FIG. 4 (c) is acquired, the image data of the frame images shown in FIGS. 4 (a) to 4 (c) are added and averaged as shown in FIG. 4 (e). The moving body Mc 2 , the afterimage Ma 2 , and the afterimage Mb 2 are each represented by a luminance 85, the still body Sa is represented by a luminance 255, the noise N1b is represented by a luminance 247, and the noise N2b is represented by a luminance 17. Image data expressed as follows.

このように、単純フレームアベレージングを行った場合は、ノイズは平滑化されるが、動体Mの輝度が低下するとともに、残像が発生しているのがわかる。   Thus, when simple frame averaging is performed, the noise is smoothed, but it can be seen that the luminance of the moving object M decreases and an afterimage is generated.

図5は、3枚のフレーム画像データについて本実施の形態によるフレームアベレージングを行った例である。ここで、図5(a)〜(c)に示された画像データは、図4(a)〜(c)に示されたものと同様とする。   FIG. 5 shows an example in which frame averaging according to the present embodiment is performed on three frame image data. Here, the image data shown in FIGS. 5A to 5C is the same as that shown in FIGS. 4A to 4C.

先ず、図5(a)に示されるフレーム画像の画像データが、前フレーム画像メモリ部501に記憶されており、図5(b)に示されるフレーム画像データが取得されると、図5(a)と図5(b)との画像データに基づき、平滑処理部15において、上述のようにして動き検出が行われる。その結果、動体Maが表示されていた部分と、動体Mbが表示されている部分とにおいて、輝度差分が所定の閾値を超えると判定されるため、当該部分については、フレームアベレージングが行われず、図5(b)に示される画像データがそのまま用いられる。一方、それ以外の部分については、輝度差分が所定の閾値以下であるので、図5(a)と(b)にそれぞれ示される動体と判定された部分以外の部分の画像データについて、上述のようにしてフレームアベレージングが行われる。その結果、図5(d)に示すように、動体Mbについては輝度255にて表され、静体Saは輝度255にて表され、ノイズN1cは輝度243にて表され、ノイズN2cは輝度26にて表された画像データが得られる。そして、図5(c)に示されるフレーム画像データが取得されると、図5(d)と図5(c)との画像データに基づき、同様にして動き検出が行われる。その結果、動体Mbが表示されていた部分と、動体Mcが表示されている部分とにおいて、輝度差分が所定の閾値を超えると判定されるため、当該部分については、フレームアベレージングが行われず、図5(c)に示される画像データがそのまま用いられる。一方、それ以外の部分については、輝度差分が所定の閾値以下であるので、図5(d)と(c)にそれぞれ示される動体と判定された部分以外の部分の画像データについて、同様にフレームアベレージングが行われる。その結果、図5(e)に示すように、動体Mcについては輝度255にて表され、静体Saは輝度255にて表され、ノイズN1dは輝度249にて表され、ノイズN2dは輝度13にて表された画像データが得られる。 First, the image data of the frame image shown in FIG. 5A is stored in the previous frame image memory unit 501, and when the frame image data shown in FIG. 5B is acquired, FIG. ) And the image data shown in FIG. 5B, the smoothing processing unit 15 performs motion detection as described above. As a result, since it is determined that the luminance difference exceeds a predetermined threshold between the portion where the moving body Ma is displayed and the portion where the moving body Mb is displayed, frame averaging is not performed for the portion. The image data shown in FIG. 5B is used as it is. On the other hand, since the luminance difference is not more than a predetermined threshold for the other parts, the image data of the parts other than the parts determined as moving objects shown in FIGS. 5A and 5B are as described above. In this way, frame averaging is performed. As a result, as shown in FIG. 5D, the moving body Mb 4 is represented by luminance 255, the stationary body Sa is represented by luminance 255, the noise N1c is represented by luminance 243, and the noise N2c is luminance. The image data represented by 26 is obtained. When the frame image data shown in FIG. 5C is acquired, motion detection is performed in the same manner based on the image data shown in FIGS. 5D and 5C. As a result, since it is determined that the luminance difference exceeds a predetermined threshold value between the portion where the moving body Mb 4 is displayed and the portion where the moving body Mc is displayed, frame averaging is not performed on the portion. The image data shown in FIG. 5C is used as it is. On the other hand, since the luminance difference is equal to or less than a predetermined threshold for the other portions, the image data of the portions other than the portions determined to be moving objects shown in FIGS. 5D and 5C are similarly framed. Averaging is performed. As a result, as shown in FIG. 5 (e), expressed by the luminance 255 for moving object Mc 5, static body Sa is expressed by the luminance 255, the noise N1d is expressed by the luminance 249, the noise N2d luminance The image data represented by 13 is obtained.

このように、本発明の第1の実施の形態によるフレームアベレージングを行った場合には、単純フレームアベレージングを行うよりもノイズ平滑能力が高く、また、動体Mの輝度低下や残像が発生しない画質の良い超音波診断画像を得られることがわかる。   As described above, when frame averaging according to the first embodiment of the present invention is performed, the noise smoothing ability is higher than when simple frame averaging is performed, and the luminance of the moving object M and the afterimage do not occur. It can be seen that an ultrasonic diagnostic image with good image quality can be obtained.

次に、実際にシミュレーションして得た画像データに基づいて、単純フレームアベレージングを行った場合に生成される画像データによって表示される画像と、本実施の形態によるフレームアベレージングを行った場合に生成される画像データによって表示される画像とを比較して説明する。   Next, based on the image data actually obtained by simulation, the image displayed by the image data generated when simple frame averaging is performed and the case where frame averaging according to the present embodiment is performed A description will be given comparing the image displayed by the generated image data.

図6は、最新のフレームにおいて得られた画像データによって表示される原画像を示している。なお、動体についてどのように表示されるかについて理解を容易にするため、図中下部に心電図から得られた信号を表している。   FIG. 6 shows an original image displayed by image data obtained in the latest frame. In order to facilitate understanding of how the moving object is displayed, a signal obtained from the electrocardiogram is shown in the lower part of the figure.

図7は、5フレームによる単純フレームアベレージングを行ったときに得られた画像データによって表示される画像を示している。図6及び図7において実線にて囲まれた部分において比較すると、図7に示される画像は、平滑化されてノイズが抑圧されているので、図6に示される原画像と比較して、ざらつきのない、滑らかな画像が得られることがわかる。一方、図7において破線にて囲まれた動体部分では残像が生じており、また、図6に示される画像に比べて輝度が低下していることがわかる。   FIG. 7 shows an image displayed by image data obtained when simple frame averaging is performed with five frames. 6 and FIG. 7, since the image shown in FIG. 7 is smoothed and noise is suppressed, compared with the original image shown in FIG. It can be seen that a smooth image can be obtained. On the other hand, it can be seen that an afterimage is generated in the moving body portion surrounded by a broken line in FIG. 7, and the luminance is lower than that of the image shown in FIG.

図8は、本実施の形態によるフレームアベレージングを5フレーム行ったときに得られた画像データによって表示される画像を示している。図8において実線にて囲まれた部分は、本実施の形態において静体として検出されるので、フレームアベレージングが行われてノイズが抑圧され、図6に示される画像と比較すると、単純フレームアベレージングが行われたときと同様に、ざらつきのない、滑らかな画像が得られることがわかる。そして、図8において破線にて囲まれた動体部分では、本実施の形態において動体として検出されるので、残像が生じず、また、図6に示される画像と同じ輝度が得られていることがわかる。   FIG. 8 shows an image displayed by image data obtained when five frames are averaged according to the present embodiment. In FIG. 8, the portion surrounded by a solid line is detected as a static object in the present embodiment, so that frame averaging is performed to suppress noise, and the simple frame average is compared with the image shown in FIG. It can be seen that a smooth image without roughness can be obtained in the same manner as when the image processing is performed. Then, in the moving body portion surrounded by a broken line in FIG. 8, since it is detected as a moving body in the present embodiment, an afterimage does not occur and the same luminance as the image shown in FIG. 6 is obtained. Recognize.

(第2の実施の形態)
次に、本発明の第2の実施の形態について説明する。本発明の第2の実施の形態では、第1の実施の形態における平滑処理部15の機能を制御部19によるソフトウエア処理により実現するものである。なお、第2の実施の形態において、第1の実施の形態と同一の構成については符号を同一にし、その説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the second embodiment of the present invention, the function of the smoothing processing unit 15 in the first embodiment is realized by software processing by the control unit 19. In the second embodiment, the same reference numerals are used for the same components as those in the first embodiment, and the description thereof is omitted.

本発明の第2の実施の形態に係る超音波診断装置Sは、図9に示すように、第1の実施の形態における平滑処理部15が設けられていない点を除き、第1の実施の形態のものと同様である。   As shown in FIG. 9, the ultrasonic diagnostic apparatus S according to the second embodiment of the present invention is the first embodiment except that the smoothing processing unit 15 in the first embodiment is not provided. It is the same as that of the form.

画像生成部14は、生成されたBモード画像データをメモリ部16に送信し、メモリ部16は、画像生成部14から送信されたフレームアベレージング前のBモード画像データを一時的に保持することとなる。そして、制御部19は、後述する画像平滑処理を実行してメモリ部16からフレームアベレージング前のBモード画像データを読み出し、フレームアベレージングを行った後、メモリ部16に記憶する。   The image generation unit 14 transmits the generated B-mode image data to the memory unit 16, and the memory unit 16 temporarily stores the B-mode image data before frame averaging transmitted from the image generation unit 14. It becomes. Then, the control unit 19 executes an image smoothing process to be described later, reads B-mode image data before frame averaging from the memory unit 16, performs frame averaging, and stores it in the memory unit 16.

次に、以上のようにして構成された超音波診断装置Sにおいて実行される画像平滑処理について図10を参照しながら説明する。この画像平滑処理は、画像生成部14からメモリ部16に最新のフレームの画像データの入力が開始される毎に実行される処理である。   Next, image smoothing processing executed in the ultrasonic diagnostic apparatus S configured as described above will be described with reference to FIG. This image smoothing process is a process executed every time input of image data of the latest frame from the image generation unit 14 to the memory unit 16 is started.

先ず、制御部19は、メモリ部16から、最新のフレームの画像データのうちの予め定められた先頭の画素の画素データを注目画素(A)の画素データとして読み出す(ステップS101)。
次に、制御部19は、メモリ部16における前フレーム画像メモリ領域に記憶された1フレーム前に生成された画像データのうちの注目画素(A)に対応する位置にある画素の画素データを注目画素(B)の画素データとして読み出す(ステップS102)。
First, the control unit 19 reads out pixel data of a predetermined first pixel in the latest frame image data from the memory unit 16 as pixel data of the target pixel (A) (step S101).
Next, the control unit 19 pays attention to pixel data of a pixel at a position corresponding to the target pixel (A) in the image data generated one frame before stored in the previous frame image memory area in the memory unit 16. Read out as pixel data of the pixel (B) (step S102).

そして、制御部19は、注目画素(A)に対して水平方向帯域制限フィルタ処理を行う(ステップS103)。具体的には、制御部19は、メモリ部16から注目画素(A)を中心とした左右各2画素分の画素データを読み出し、これらの画素データに対して、それぞれ1/8:2/8:2/8:2/8:1/8の係数を有するLPFを掛けて水平方向におけるノイズの除去を行う。   Then, the control unit 19 performs a horizontal band limiting filter process on the pixel of interest (A) (step S103). Specifically, the control unit 19 reads out the pixel data for each of the two left and right pixels centered on the target pixel (A) from the memory unit 16, and 1/8: 2/8 for each of these pixel data. : 2/8: 2/8: LPF having a coefficient of 1/8 is applied to remove noise in the horizontal direction.

そして、制御部19は、注目画素(A)に対して垂直方向帯域制限フィルタ処理を行う(ステップS104)。具体的には、制御部19は、メモリ部16から注目画素(A)を中心とした上下各2画素分の画素データを読み出し、これらの画素データに対して、それぞれ1/8:2/8:2/8:2/8:1/8の係数を有するLPFを掛けて垂直方向におけるノイズの除去を行う。   Then, the control unit 19 performs a vertical band limiting filter process on the target pixel (A) (step S104). Specifically, the control unit 19 reads out pixel data for each of the upper and lower two pixels centered on the target pixel (A) from the memory unit 16, and 1/8: 2/8 for each of these pixel data. : 2/8: 2/8: The noise in the vertical direction is removed by applying an LPF having a coefficient of 1/8.

次に、制御部19は、注目画素(B)に対して水平方向帯域制限フィルタ処理を行う(ステップS105)。具体的には、制御部19は、メモリ部16の前フレーム画像メモリ領域から注目画素(B)を中心とした左右各2画素分の画素データを読み出し、これらの画素データに対して、それぞれ1/8:2/8:2/8:2/8:1/8の係数を有するLPFを掛けて水平方向におけるノイズの除去を行う。   Next, the control unit 19 performs a horizontal band limiting filter process on the target pixel (B) (step S105). Specifically, the control unit 19 reads out pixel data for two pixels on the left and right sides around the target pixel (B) from the previous frame image memory area of the memory unit 16, and 1 for each of these pixel data. / 8: 2/8: 2/8: 2/8: 1 Multiply the LPF with a coefficient of 1/8 to remove noise in the horizontal direction.

そして、制御部19は、注目画素(B)に対して垂直方向帯域制限フィルタ処理を行う(ステップS106)。具体的には、制御部19は、メモリ部16の前フレーム画像メモリ領域から注目画素(B)を中心とした上下各2画素分の画素データを読み出し、これらの画素データに対して、それぞれ1/8:2/8:2/8:2/8:1/8の係数を有するLPFを掛けて垂直方向におけるノイズの除去を行う。   Then, the control unit 19 performs a vertical band limiting filter process on the target pixel (B) (step S106). Specifically, the control unit 19 reads out pixel data for each of the upper and lower two pixels centered on the pixel of interest (B) from the previous frame image memory area of the memory unit 16, and 1 for each of these pixel data. Noise in the vertical direction is removed by applying an LPF having a coefficient of / 8: 2/8: 2/8: 2/8: 1/8.

そして、制御部19は、上述のようにしてフィルタ処理された注目画素(A)の画素データと注目画素(B)の画素データとの輝度差分を算出する(ステップS107)。
次に、制御部19は、算出した輝度差分の絶対値(D)を求める(ステップS108)。
Then, the control unit 19 calculates a luminance difference between the pixel data of the target pixel (A) and the pixel data of the target pixel (B) filtered as described above (step S107).
Next, the control part 19 calculates | requires the absolute value (D) of the calculated brightness | luminance difference (step S108).

次に、制御部19は、予めRAMに記憶されている閾値(th)を読み出す(ステップS109)。この閾値(th)は、第1の実施の形態と同様に、操作入力部11の入力により適宜変更可能となっている。なお、閾値(th)をROMに記憶しておいてもよい。   Next, the control unit 19 reads a threshold value (th) stored in advance in the RAM (step S109). This threshold value (th) can be appropriately changed by the input of the operation input unit 11 as in the first embodiment. The threshold value (th) may be stored in the ROM.

そして、制御部19は、絶対値(D)が閾値(th)よりも大きいか否かを判定する(ステップS110)。制御部19は、絶対値(D)が閾値(th)よりも大きいと判定しないとき、すなわち、当該注目画素(A)が「静」であると判定したときは(ステップS110:N)、注目画素(A)と注目画素(B)のフィルタ処理前の各画素データにおける輝度情報の加算平均を算出するフレームアベレージングを行い(ステップS111)、算出結果得られた輝度情報を示す画素データを出力画像データとしてメモリ部16の所定のフレームバッファに記憶する(ステップS112)。なお、第1の実施の形態と同様に、注目画素(A)と注目画素(B)の各輝度情報の加算平均を算出する際、何れかの注目画素に対して重み付け量を大きくするようにしてもよい。   And the control part 19 determines whether an absolute value (D) is larger than a threshold value (th) (step S110). When the control unit 19 does not determine that the absolute value (D) is greater than the threshold value (th), that is, when it determines that the target pixel (A) is “static” (step S110: N), the control unit 19 Frame averaging is performed to calculate an average of luminance information in each pixel data before filter processing of the pixel (A) and the target pixel (B) (step S111), and pixel data indicating luminance information obtained as a result of calculation is output. The image data is stored in a predetermined frame buffer of the memory unit 16 (step S112). As in the first embodiment, when calculating the addition average of the luminance information of the target pixel (A) and the target pixel (B), the weighting amount is increased for any target pixel. May be.

一方、制御部19は、ステップS110において、絶対値(D)が閾値(th)よりも大きい(動体判定値である)と判定したとき、すなわち、当該注目画素(A)が「動」であると判定したときは(ステップS110:Y)、空間フィルタ処理の実施が選択されているか否かを判定する(ステップS113)。なお、空間フィルタ処理を実施するか否かについては、操作入力部11の入力によって予め設定される。   On the other hand, when the control unit 19 determines in step S110 that the absolute value (D) is larger than the threshold (th) (is a moving object determination value), that is, the target pixel (A) is “moving”. (Step S110: Y), it is determined whether or not the execution of the spatial filter process is selected (step S113). Note that whether or not to perform the spatial filter process is set in advance by an input from the operation input unit 11.

制御部19は、空間フィルタ処理の実施が選択されていると判定したときは(ステップS113:Y)、注目画素(A)に対して空間フィルタ処理を行う(ステップS114)。具体的には、制御部19は、メモリ部16から注目画素(A)を中心とした3×3画素の画素データを読み出し、これらの画素データに対して空間フィルタ(LPF)を掛けて輝度情報を平均化し、平均化された輝度情報を示す注目画素(A)の画像データを得る。一方、制御部19は、空間フィルタ処理の実施が選択されていると判定しないときは(ステップS113:N)、ステップS114の処理を行うことなくステップS115の処理を実行する。
そして、制御部19は、注目画素(A)の画素データを出力画像データとしてメモリ部16の所定のフレームバッファに記憶する(ステップS115)。
When it is determined that the execution of the spatial filter process is selected (step S113: Y), the control unit 19 performs the spatial filter process on the target pixel (A) (step S114). Specifically, the control unit 19 reads out 3 × 3 pixel data centered on the pixel of interest (A) from the memory unit 16 and applies a spatial filter (LPF) to the pixel data to obtain luminance information. And the image data of the pixel of interest (A) indicating the averaged luminance information is obtained. On the other hand, when not determining that the execution of the spatial filter process is selected (step S113: N), the control unit 19 executes the process of step S115 without performing the process of step S114.
Then, the control unit 19 stores the pixel data of the target pixel (A) as output image data in a predetermined frame buffer of the memory unit 16 (step S115).

次に、制御部19は、ステップS111及びステップS115においてメモリ部16に記憶した画素データと同一の画素データを、メモリ部16の前フレーム画像メモリ領域に、1フレーム前の画像データとして記憶する(ステップS116)。   Next, the control unit 19 stores the same pixel data as the pixel data stored in the memory unit 16 in step S111 and step S115 in the previous frame image memory area of the memory unit 16 as image data of the previous frame ( Step S116).

そして、制御部19は、1フレームにおける全ての画素について処理が行われたか否かを判定し(ステップS117)、処理が完了したと判定したときは(ステップS117:Y)、この処理を終了する。一方、制御部19は、処理が完了したと判定しないときは(ステップS117:N)、注目画素(A)及び注目画素(B)とする画素の画素データを所定の順序にて移行してメモリ部16からそれぞれ読み出し(ステップS118)、ステップS103の処理に移行する。   Then, the control unit 19 determines whether or not the processing has been performed for all the pixels in one frame (step S117), and when it is determined that the processing is completed (step S117: Y), the processing ends. . On the other hand, when the control unit 19 does not determine that the process has been completed (step S117: N), the pixel data of the pixel of interest pixel (A) and the pixel of interest (B) are transferred in a predetermined order to the memory. Each is read from the unit 16 (step S118), and the process proceeds to step S103.

以上のような構成とすることによっても、第1の実施の形態と同様の結果が得られるフレームアベレージングを行うことができる。   Even with the above configuration, it is possible to perform frame averaging that provides the same result as in the first embodiment.

(第3の実施の形態)
次に、本発明の第3の実施の形態について説明する。本発明の第3の実施の形態では、第1の実施の形態における平滑処理部15の機能構成について変更が加えられたものである。なお、第3の実施の形態において、第1の実施の形態と同一の構成については符号を同一にし、その説明を省略する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the third embodiment of the present invention, the functional configuration of the smoothing processing unit 15 in the first embodiment is changed. Note that in the third embodiment, identical symbols are assigned to the same configurations as in the first embodiment and descriptions thereof are omitted.

本発明の第3の実施の形態に係る超音波診断装置Sの平滑処理部15の機能的構成について、図12を参照しながら、説明する。   A functional configuration of the smoothing processing unit 15 of the ultrasonic diagnostic apparatus S according to the third embodiment of the present invention will be described with reference to FIG.

第3の実施の形態における平滑処理部15には、それぞれ設定される閾値が異なる2つの閾値設定部508a,508bが設けられ、比較部509a,509bにそれぞれ閾値が出力される。なお、閾値設定部508a,508bにおいて設定される各静動閾値は、操作入力部11による入力に応じて可変することができる。また、静動閾値を予め複数記憶しておき、例えば、診断部位の選択に応じた静動閾値が読みだされて設定されるようにしてもよい。また、静動閾値を可変しないものとしてもよい。
そして、平滑処理部15は、比較部509a,509bからの信号を入力し、この信号の入力結果に応じた信号をスイッチ部510aに出力するデータ選択部517を備えている。
また、平滑処理部15は、重み付け部518,519を備えており、重み付け部518は、スイッチ部516から出力された画素データを入力し、重み付け部519は、加算器513から出力された画素データを入力し、それぞれの画素データにおける輝度情報に対して重み付けを行い、加算器520に出力する。なお、重み付け部518,519における重み付け量については任意に設定することができるが、本実施の形態では、それぞれ入力された輝度情報に対して0.5の係数が掛けられるように設定されている。
そして、加算器520は、加算後の輝度情報を示す画素データをスイッチ部510aに出力する。
そして、スイッチ部510aは、データ選択部517からの信号に応じて、スイッチの位置をMotion(M)側、Static(S)側又はMedium(Md)側に切り替える。
The smoothing processing unit 15 according to the third embodiment includes two threshold setting units 508a and 508b having different thresholds to be set, and the thresholds are output to the comparison units 509a and 509b, respectively. Note that the static motion threshold values set in the threshold value setting units 508a and 508b can be varied according to the input from the operation input unit 11. Alternatively, a plurality of static movement threshold values may be stored in advance, and for example, the static movement threshold value may be read and set according to the selection of the diagnostic part. Further, the static movement threshold value may not be changed.
The smoothing processing unit 15 includes a data selection unit 517 that inputs signals from the comparison units 509a and 509b and outputs a signal corresponding to the input result of the signals to the switch unit 510a.
The smoothing processing unit 15 includes weighting units 518 and 519, the weighting unit 518 receives the pixel data output from the switch unit 516, and the weighting unit 519 outputs the pixel data output from the adder 513. , Weighting is performed on the luminance information in each pixel data, and the result is output to the adder 520. Note that the weighting amounts in the weighting units 518 and 519 can be arbitrarily set, but in the present embodiment, the input luminance information is set to be multiplied by a coefficient of 0.5. .
Then, the adder 520 outputs pixel data indicating the luminance information after the addition to the switch unit 510a.
Then, the switch unit 510a switches the position of the switch to the Motion (M) side, the Static (S) side, or the Medium (Md) side in accordance with a signal from the data selection unit 517.

以上のように構成された平滑処理部15では、以下のような処理が行われる。
すなわち、比較部509aは、閾値設定部508aから出力される静動閾値(th1)と、輝度差分の絶対値とを比較し、その結果、輝度差分が静動閾値(th1)よりも小さい場合、すなわち、静体判定値である場合には、当該注目画素が「静」である旨の信号をデータ選択部517に出力する。また、比較部509bは、閾値設定部508bから出力される静動閾値(th2)と、輝度差分の絶対値とを比較し、その結果、輝度差分が静動閾値(th2)よりも大きい場合、すなわち、動体判定値である場合には、当該注目画素が「動」である旨の信号をデータ選択部517に出力する。また、比較部509a,509bは、輝度差分が静動閾値(th1)以上であって、静動閾値(th2)以下である場合には、当該注目画素が「中間」である旨の信号をデータ選択部517に出力する。ここで、当該注目画素が「中間」とは、当該注目画素が「静体」であるか「動体」であるかの判断が困難なものとして示したものである。
In the smoothing processing unit 15 configured as described above, the following processing is performed.
That is, the comparison unit 509a compares the static threshold (th1) output from the threshold setting unit 508a with the absolute value of the luminance difference, and as a result, if the luminance difference is smaller than the static threshold (th1), In other words, if it is a still body determination value, a signal indicating that the target pixel is “static” is output to the data selection unit 517. Further, the comparison unit 509b compares the static threshold (th2) output from the threshold setting unit 508b with the absolute value of the luminance difference, and as a result, when the luminance difference is larger than the static threshold (th2), In other words, if it is a moving object determination value, a signal indicating that the target pixel is “moving” is output to the data selection unit 517. Further, the comparison units 509a and 509b, when the luminance difference is equal to or greater than the static motion threshold (th1) and equal to or smaller than the static motion threshold (th2), outputs a signal indicating that the target pixel is “intermediate” The data is output to the selection unit 517. Here, “intermediate” of the target pixel indicates that it is difficult to determine whether the target pixel is “still body” or “moving body”.

データ選択部517は、比較部509a,509bから「静」である旨の信号が入力されると、スイッチ部510aのスイッチの位置をStatic(S)側に切り替える信号を出力し、「動」である旨の信号が入力されると、スイッチ部510aのスイッチの位置をMotion(M)側に切り替える信号を出力する。また、データ選択部517は、比較部509a,509bから「中間」である旨の信号が入力されると、スイッチ部510aのスイッチの位置をMedium(Md)側に切り替える信号を出力する。   When a signal indicating “static” is input from the comparison units 509a and 509b, the data selection unit 517 outputs a signal for switching the switch position of the switch unit 510a to the Static (S) side. When a signal to that effect is input, a signal for switching the switch position of the switch unit 510a to the Motion (M) side is output. In addition, when a signal indicating “middle” is input from the comparison units 509a and 509b, the data selection unit 517 outputs a signal for switching the switch position of the switch unit 510a to the Medium (Md) side.

スイッチ部510aのスイッチの位置がMedium(Md)に切り替えられた場合は、上述のようにして加算器520から出力された画素データをメモリ部16に出力するとともに、前フレーム画像メモリ部501に記憶し、次のフレーム画像のフレームアベレージングを行う際に使用されるようにする。
なお、スイッチ部510aのスイッチの位置がStatic(S)側及びMotion(M)側に切り替えられたときにおける平滑処理部15の動作については、第1の実施の形態と同様であるため、説明を省略する。
When the switch position of the switch unit 510a is switched to Medium (Md), the pixel data output from the adder 520 as described above is output to the memory unit 16 and stored in the previous frame image memory unit 501. And used when performing frame averaging of the next frame image.
The operation of the smoothing processing unit 15 when the switch position of the switch unit 510a is switched to the Static (S) side and the Motion (M) side is the same as that in the first embodiment, and thus the description will be given. Omitted.

以上のように、第3の実施の形態によれば、第1の実施の形態と同様の結果が得られるフレームアベレージングを行うことができる。また、輝度差分によっては動体か静体か判断が困難な画像については、フレームアベレージングを中間調的に実施されるので、違和感のない超音波画像を表示することが可能となる。   As described above, according to the third embodiment, it is possible to perform frame averaging that can obtain the same result as in the first embodiment. In addition, for an image that is difficult to determine whether it is a moving object or a static object depending on the luminance difference, since the frame averaging is performed in a halftone manner, it is possible to display an ultrasonic image without a sense of incongruity.

(第4の実施の形態)
次に、本発明の第4の実施の形態について説明する。本発明の第4の実施の形態では、第3の実施の形態における平滑処理部15の機能を制御部19によるソフトウエア処理により実現するものである。なお、第4の実施の形態では、第2の実施の形態における画像平滑処理に相違点がある以外、第2の実施の形態と同様であるため、第4の実施の形態に係る画像平滑処理について説明し、他の構成についての説明は省略する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. In the fourth embodiment of the present invention, the function of the smoothing processing unit 15 in the third embodiment is realized by software processing by the control unit 19. Note that the fourth embodiment is the same as the second embodiment except that there is a difference in the image smoothing process in the second embodiment, and thus the image smoothing process according to the fourth embodiment. And description of other components is omitted.

第4の実施の形態に係る画像平滑処理について図13を参照しながら説明する。なお、第4の実施の形態に係る画像平滑処理において、ステップS101〜ステップS108の処理については、第2の実施の形態における画像平滑処理と同様であるため、図10にて図示するものとし、その説明を省略する。   An image smoothing process according to the fourth embodiment will be described with reference to FIG. Note that, in the image smoothing process according to the fourth embodiment, the processes of step S101 to step S108 are the same as the image smoothing process in the second embodiment, and therefore are illustrated in FIG. The description is omitted.

先ず、制御部19は、図10において図示されるステップS101〜ステップS108の処理を実行した後、予めRAMに記憶されている閾値(th1・th2)を読み出す(ステップS109a)。この閾値(th1・th2)は、第3の実施の形態と同様に、操作入力部11の入力により適宜変更可能となっている。なお、閾値(th1・th2)をROMに記憶しておいてもよい。   First, the control unit 19 reads the threshold values (th1 and th2) stored in the RAM in advance after executing the processing of steps S101 to S108 illustrated in FIG. 10 (step S109a). This threshold value (th1 · th2) can be appropriately changed by an input from the operation input unit 11 as in the third embodiment. The threshold values (th1 and th2) may be stored in the ROM.

そして、制御部19は、絶対値(D)が閾値(th2)よりも大きいか否かを判定する(ステップS110a)。制御部19は、絶対値(D)が閾値(th2)よりも大きいと判定しないとき、すなわち、当該注目画素(A)が「動」でないと判定したときは(ステップS110a:N)、ステップS110bの処理に移行し、絶対値(D)が閾値(th2)よりも大きい(動体判定値である)と判定したとき、すなわち、当該注目画素(A)が「動」であると判定したときは(ステップS110a:Y)、ステップS113の処理に移行する。
制御部19は、ステップS110bにおいて、絶対値(D)が閾値(th1)よりも小さいか否かを判定する(ステップS110b)。制御部19は、絶対値(D)が閾値(th1)よりも小さい(静体判定値である)と判定したとき、すなわち、当該注目画素(A)が「静」であると判定したときは(ステップS110b:Y)、ステップS111の処理に移行し、絶対値(D)が閾値(th1)よりも小さいと判定しないとき、すなわち、当該注目画素(A)が「動」と「静」の何れでもない「中間」であると判定したときは(ステップS110b:N)、ステップS119に移行する。
なお、ステップS111〜ステップS115の処理の内容については、第2の実施の形態の画像平滑処理におけるステップS111〜ステップS115の処理と同様であるため、説明を省略する。
And the control part 19 determines whether an absolute value (D) is larger than a threshold value (th2) (step S110a). When the control unit 19 does not determine that the absolute value (D) is greater than the threshold value (th2), that is, when it determines that the target pixel (A) is not “moving” (step S110a: N), step S110b When it is determined that the absolute value (D) is larger than the threshold (th2) (is a moving object determination value), that is, when it is determined that the target pixel (A) is “moving”. (Step S110a: Y), the process proceeds to step S113.
In step S110b, the control unit 19 determines whether or not the absolute value (D) is smaller than the threshold value (th1) (step S110b). When the control unit 19 determines that the absolute value (D) is smaller than the threshold value (th1) (a still body determination value), that is, when it determines that the target pixel (A) is “still”. (Step S110b: Y), the process proceeds to Step S111, and when it is not determined that the absolute value (D) is smaller than the threshold value (th1), that is, the target pixel (A) is “moving” or “static”. When it is determined that it is “intermediate” that is neither (step S110b: N), the process proceeds to step S119.
Note that the contents of the processes in steps S111 to S115 are the same as the processes in steps S111 to S115 in the image smoothing process of the second embodiment, and thus the description thereof is omitted.

制御部19は、ステップS119において、ステップS111の処理と同じ要領で、注目画素(A)と注目画素(B)のフィルタ処理前の各画素データにおける輝度情報の加算平均を算出して平滑化データ(C)を得る(ステップS119)。   In step S119, the control unit 19 calculates the smoothed data by calculating an average of luminance information in each pixel data before the filtering process of the target pixel (A) and the target pixel (B) in the same manner as the process of step S111. (C) is obtained (step S119).

そして、制御部19は、空間フィルタ処理の実施が選択されているか否かを判定する(ステップS120)。制御部19は、空間フィルタ処理の実施が選択されていると判定したときは(ステップS120:Y)、注目画素(A)に対して空間フィルタ処理を行った後(ステップS121)、ステップS122の処理に移行する。一方、制御部19は、空間フィルタ処理の実施が選択されていると判定しないときは(ステップS120:N)、ステップS121の処理を実行することなく、ステップS122の処理に移行する。なお、ステップS121において実行される空間フィルタ処理の内容については、ステップS114と同様であるため、説明を省略する。   And the control part 19 determines whether implementation of the spatial filter process is selected (step S120). When it is determined that the execution of the spatial filter process is selected (step S120: Y), the control unit 19 performs the spatial filter process on the pixel of interest (A) (step S121), and then performs step S122. Transition to processing. On the other hand, when the control unit 19 does not determine that the execution of the spatial filter process is selected (step S120: N), the control unit 19 proceeds to the process of step S122 without executing the process of step S121. Note that the content of the spatial filter processing executed in step S121 is the same as that in step S114, and thus the description thereof is omitted.

そして、制御部19は、ステップS122において、注目画素(A)の画素データにおける輝度情報と、ステップS119において得られた平滑化データ(C)における輝度情報との加算平均を算出し(ステップS122)、算出結果得られた輝度情報を示す画素データを出力画像データとしてメモリ部16の所定のフレームバッファに記憶する(ステップS123)。なお、ステップS122において、注目画素(A)と平滑化データ(C)の各輝度情報の加算平均を算出する際、何れかの輝度情報に対して重み付け量を大きくするようにしてもよい。   In step S122, the control unit 19 calculates an average of the luminance information in the pixel data of the target pixel (A) and the luminance information in the smoothed data (C) obtained in step S119 (step S122). Then, the pixel data indicating the luminance information obtained as a result of the calculation is stored as output image data in a predetermined frame buffer of the memory unit 16 (step S123). In step S122, when calculating the addition average of the luminance information of the target pixel (A) and the smoothed data (C), the weighting amount may be increased for any luminance information.

そして、制御部19は、ステップS112、ステップS115及びステップS123においてメモリ部16に記憶した画素データと同一の画素データを、メモリ部16の前フレーム画像メモリ領域に、1フレーム前の画像データとして記憶した後(ステップS116)、ステップS117及びステップS118の処理を実行する。なお、ステップS117及びステップS118の処理の内容は、第2の実施の形態の画像平滑処理におけるステップS117及びステップS118と同様であるため、説明を省略する。   Then, the control unit 19 stores the same pixel data as the pixel data stored in the memory unit 16 in step S112, step S115, and step S123 in the previous frame image memory area of the memory unit 16 as the image data of the previous frame. After that (step S116), the processing of step S117 and step S118 is executed. Note that the contents of the processing in step S117 and step S118 are the same as those in step S117 and step S118 in the image smoothing process of the second embodiment, and thus description thereof is omitted.

以上のような構成とすることによっても、第3の実施の形態と同様の結果が得られるフレームアベレージングを行うことができる。   Even with the above configuration, it is possible to perform frame averaging that provides the same result as in the third embodiment.

(第5の実施の形態)
次に、第5の実施の形態について説明する。第5の実施の形態では、第1の実施の形態における平滑処理部15の機能構成について変更が加えられたものである。なお、第5の実施の形態において、第1の実施の形態と同一の構成については符号を同一にし、その説明を省略する。
(Fifth embodiment)
Next, a fifth embodiment will be described. In the fifth embodiment, the functional configuration of the smoothing processing unit 15 in the first embodiment is changed. Note that in the fifth embodiment, identical symbols are assigned to configurations identical to those in the first embodiment and descriptions thereof are omitted.

第5の実施の形態に係る超音波診断装置Sの平滑処理部15の機能的構成について、図12を参照しながら、説明する。   A functional configuration of the smoothing processing unit 15 of the ultrasonic diagnostic apparatus S according to the fifth embodiment will be described with reference to FIG.

第5の実施の形態における平滑処理部15は、第1の実施の形態の平滑処理部15における加算部506、絶対値算出部507、閾値設定部508及び比較部509に代えて動きベクトル検出部530を備えている。   The smoothing processing unit 15 in the fifth embodiment is a motion vector detection unit instead of the addition unit 506, the absolute value calculation unit 507, the threshold value setting unit 508, and the comparison unit 509 in the smoothing processing unit 15 of the first embodiment. 530.

動きベクトル検出部530は、比較ブロックサイズ決定処理部531と、検索範囲サイズ決定処理部532と、比較ブロック移動処理部533と、輝度差分判定部534と、最小輝度差分位置記憶部535とを備えている。   The motion vector detection unit 530 includes a comparison block size determination processing unit 531, a search range size determination processing unit 532, a comparison block movement processing unit 533, a luminance difference determination unit 534, and a minimum luminance difference position storage unit 535. ing.

平滑処理部15は、画像生成部14よりBモード画像データが送信されて、最新のフレームの1フレーム分の画像データが入力されると、水平方向ノイズ除去部502及び垂直方向ノイズ除去部503におけるノイズ除去処理を上述したようにして画素毎に行い、動きベクトル検出部530に入力する。
一方で、平滑処理部15は、前フレーム画像メモリ部501に記憶されている1フレーム前のフレーム画像データを読み出し、同様にして水平方向ノイズ除去部504及び垂直方向ノイズ除去部505におけるノイズ除去処理を画素毎に行い、動きベクトル検出部530に入力する。
When the B-mode image data is transmitted from the image generation unit 14 and image data for one frame of the latest frame is input to the smoothing processing unit 15, the smoothing processing unit 15 in the horizontal noise removal unit 502 and the vertical noise removal unit 503 The noise removal processing is performed for each pixel as described above, and input to the motion vector detection unit 530.
On the other hand, the smoothing processing unit 15 reads the frame image data of the previous frame stored in the previous frame image memory unit 501, and similarly performs noise removal processing in the horizontal noise removal unit 504 and the vertical noise removal unit 505. Is performed for each pixel and input to the motion vector detection unit 530.

そして、動きベクトル検出部530は、最新のフレームの画像データと1フレーム前のフレーム画像データとの画素毎の輝度差分を判定し、動きのあった画像部分を最新のフレームの画像データから抽出する。   Then, the motion vector detection unit 530 determines a luminance difference for each pixel between the image data of the latest frame and the frame image data of the previous frame, and extracts a moving image portion from the image data of the latest frame. .

そして、図15(a)に示すように、比較ブロックサイズ決定処理部531によって、抽出した画像部分から位置検索を行う画像の最小サイズ(m×n)を決定する。
そして、検索範囲サイズ決定処理部532によって、位置検索を行う画像の検索範囲である検索範囲サイズを決定する。具体的には、検索範囲サイズ決定処理部532は、図15(b)に示すように、フレーム画像データの画像サイズがA×Bであって、フレーム画像データ全ての範囲で検索を行うと処理負荷が大きい場合には、例えば、位置検索を行う画像のサイズに応じて、検索範囲サイズをX×Y(X<A、Y<B)に設定する。なお、処理負荷が大きくなければ、検索範囲サイズをX×Y(X=A、Y=B)としてもよい。
Then, as shown in FIG. 15A, the comparison block size determination processing unit 531 determines the minimum size (m × n) of the image for which the position search is performed from the extracted image portion.
Then, the search range size determination processing unit 532 determines a search range size that is a search range of an image for which a position search is performed. Specifically, the search range size determination processing unit 532 performs processing when the image size of the frame image data is A × B and the search is performed in the entire range of the frame image data, as shown in FIG. When the load is large, for example, the search range size is set to X × Y (X <A, Y <B) according to the size of the image for which the position search is performed. If the processing load is not heavy, the search range size may be set to X × Y (X = A, Y = B).

そして、比較ブロック移動処理部533によって、位置検索を行う画像と一致する画像を、1フレーム前のフレーム画像データにおけるX×Yの検索範囲内で移動させ、画像の移動毎に、輝度差分判定部534によって、1フレーム前のフレーム画像データと位置検索を行う画像との輝度差分を判定し、輝度差分が最も少ない位置を検出する。   Then, the comparison block movement processing unit 533 moves the image that matches the image whose position is to be searched within the X × Y search range in the frame image data of the previous frame, and for each movement of the image, the luminance difference determination unit In 534, the brightness difference between the frame image data of the previous frame and the image whose position is to be searched is determined, and the position having the smallest brightness difference is detected.

ここで、1フレーム前のフレーム画像データと位置検索を行う画像との輝度差分の最も少ない位置を検出する方法について図16及び図17を参照して具体的に説明する。
まず、図16(a)に示される1フレーム前のフレーム画像データと図16(b)に示される最新フレームの画像データを比較し、動きのあった画像部分を検出する。その結果、動体部分Pが動きのあった画像部分として検出され、最新のフレームの画像データから動体部分Pが抽出される。そして、動体部分Pを含むブロックFから最小サイズを決定する。ここで、例えば、ブロックFのうちの左上部分を最小サイズとして設定した場合、その画素構造は図17に示されるように、8×8=64ドットによって構成されたものとなる。
Here, a method for detecting the position with the smallest luminance difference between the frame image data of the previous frame and the image whose position is to be searched will be specifically described with reference to FIGS.
First, the frame image data of the previous frame shown in FIG. 16A is compared with the image data of the latest frame shown in FIG. As a result, the moving object portion P is detected as the image portion for which the motion, moving object portion P 2 from the image data of the latest frame is extracted. Then, to determine the minimum size of the block F 2 including a moving object portion P 2. Here, for example, if you set the upper left portion of the block F 2 as the minimum size, the pixel structure as shown in FIG. 17, the one configured by 8 × 8 = 64 dots.

そして、この8×8ドットからなる画像を1単位として、8×8ドット単位で輝度差分を取り、最も輝度差分の低いところが移動元となる。ただし、輝度差分で比較すると、図16に示される例では、動体部分Pの左上、左下、右上、右下の各部分と、図17に示される8×8ドットの画像との輝度差分は何れもほぼ0となり、移動元候補は4つとなる。そこで、8×8ドットからなる画像のうち、予め定められた位置の画素について輝度が一致したかを検出し、その結果に基づいて移動元を特定する。例えば、8×8ドットのうち、左上、左下、右上、右下の各画素について輝度差分を比較し、何れの画素についても輝度が一致した場合に、その位置を移動元として特定する。その結果、動体部分Pの位置が特定される。なお、移動元の特定方法については、上述した方法に限らない。 Then, with this 8 × 8 dot image as one unit, the luminance difference is obtained in units of 8 × 8 dots, and the place with the lowest luminance difference is the movement source. However, when compared with the luminance difference, in the example shown in FIG. 16, top left body portions P 1, lower left, upper right, and each portion of the lower right, the luminance difference between the 8 × 8 dot image shown in FIG. 17 In any case, the number is almost 0, and the number of source candidates is four. Therefore, it is detected whether the luminance is the same for a pixel at a predetermined position in the image composed of 8 × 8 dots, and the movement source is specified based on the result. For example, among 8 × 8 dots, the luminance difference is compared for each pixel in the upper left, lower left, upper right, and lower right, and when the luminance is the same for any pixel, the position is specified as the movement source. As a result, the position of the body part P 1 is specified. Note that the method of specifying the movement source is not limited to the method described above.

このようにして位置検索が行われた画像の移動元が特定されると、その移動元を示す情報を、最小輝度差分位置記憶部535に記憶する。   When the movement source of the image subjected to the position search is specified in this way, information indicating the movement source is stored in the minimum luminance difference position storage unit 535.

そして、最新のフレームの画像データにおける動体部分に対応する画素データについてフレームアベレージングが行われるときには、最小輝度差分位置記憶部535に記憶された移動元を示す情報が、重み付け部511,512及び加算器513を含むフレームアベレージング部540に出力され、これに基づき、前フレーム画像メモリ部501から1フレーム前のフレーム画像データにおける動体部分に対応する画素データが抽出されてフレームアベレージングが行われることとなる。
そして、このようにしてフレームアベレージングが行われた画素データはメモリ部16に出力され、前フレーム画像メモリ部501に1フレーム前のフレーム画像データとして記憶される。
When the frame averaging is performed on the pixel data corresponding to the moving body part in the image data of the latest frame, information indicating the movement source stored in the minimum luminance difference position storage unit 535 includes the weighting units 511 and 512 and the addition. Based on this, pixel data corresponding to the moving object portion of the frame image data of the previous frame is extracted from the previous frame image memory unit 501 and subjected to frame averaging. It becomes.
The pixel data subjected to the frame averaging in this way is output to the memory unit 16 and stored in the previous frame image memory unit 501 as frame image data of the previous frame.

なお、動体部分以外の画像部分については、第1〜第4の実施の形態において詳述した技術や公知の方法を適宜採用してフレームアベレージングを行うことができる。
また、動きベクトル検出部530における位置検索を行う画像の検索結果、移動元が特定されない場合は、新たに生じた画像としてフレームアベレージングを行わず、入力した最新のフレームの画像データにおける画素データをそのまま、あるいは、空間フィルタ処理を行った後、メモリ部16に出力し、前フレーム画像メモリ部501に記憶する。
また、最新のフレームの画像データにおける、動体部分の移動元に対応する位置に対応する画素データについては、フレームアベレージングを行うと残像が生じるので、当該部分における画素データについてもフレームアベレージングを行わず、入力した最新のフレームの画像データにおける画素データをそのまま、あるいは、空間フィルタ処理を行った後、メモリ部16への出力及び前フレーム画像メモリ部501への記憶を行うのが好ましい。
Note that image averaging other than the moving body portion can be performed by appropriately adopting the techniques detailed in the first to fourth embodiments and known methods.
Also, if the movement source is not specified as a result of searching for an image for which position search is performed by the motion vector detection unit 530, the pixel data in the image data of the latest input frame is not subjected to frame averaging as a newly generated image. As it is, or after performing spatial filter processing, it is output to the memory unit 16 and stored in the previous frame image memory unit 501.
In addition, after image averaging is performed on the pixel data corresponding to the position corresponding to the moving source of the moving object part in the image data of the latest frame, an afterimage is generated. Therefore, the pixel data on the part is also subjected to frame averaging. First, it is preferable to output the pixel data in the latest frame image data as it is or to perform the spatial filter processing and then output to the memory unit 16 and store in the previous frame image memory unit 501.

以上のように、第5の実施の形態によれば、動体部分についても適切にフレームアベレージングを行うことができるので、ノイズの抑制された画質の良い動体画像を表示することができる。   As described above, according to the fifth embodiment, it is possible to appropriately perform frame averaging even on the moving body portion, so that it is possible to display a moving body image with good image quality in which noise is suppressed.

以上説明したように、本発明の第1〜第4の実施の形態によれば、超音波探触子2は、駆動信号によって被検体に向けて送信超音波を出力するとともに、被検体からの反射超音波を受信することにより受信信号を出力する振動子2aを有する。そして、送信部12は、振動子2aに駆動信号を供給する。そして、受信部13は、振動子2aから出力された受信信号を受信する。そして、画像処理部14は、受信部13によって受信した受信信号から画像の輝度を示す輝度情報に変換した画像データを生成する。そして、平滑処理部15(又は制御部19)は、画像処理部14によって生成された、フレームの異なる複数の画像データ間で輝度情報の平滑化を行って平滑化画像データを得る。そして、表示部18は、平滑処理部15(又は制御部19)によって得られた平滑化画像データに基づいて超音波診断画像の表示を行う。そして、平滑処理部15(又は制御部19)は、フレームの異なる複数の画像データ間における輝度差分を判定して動体部分を検出する。そして、平滑処理部15(又は制御部19)は、検出した動体部分に対応する部分の輝度情報については、輝度情報の平滑化におけるフレームの異なる複数の画像データの輝度情報のそれぞれの混合比率を、動体部分以外に対応する部分とは異ならせる。その結果、フレームの異なる複数の画像データによる平滑化処理を行った場合でも、動体部分における輝度低下や残像の発生を抑制することができる画質の良い超音波診断画像を得ることができるようになる。また、輝度差分によって動体部分の検出を行うので、簡素な処理で実施でき、処理時間及び処理負荷の軽減が図れるようになる。   As described above, according to the first to fourth embodiments of the present invention, the ultrasonic probe 2 outputs a transmission ultrasonic wave toward the subject by the drive signal, and outputs from the subject. It has a vibrator 2a that outputs a reception signal by receiving reflected ultrasonic waves. Then, the transmission unit 12 supplies a drive signal to the vibrator 2a. And the receiving part 13 receives the received signal output from the vibrator | oscillator 2a. Then, the image processing unit 14 generates image data obtained by converting the received signal received by the receiving unit 13 into luminance information indicating the luminance of the image. Then, the smoothing processing unit 15 (or the control unit 19) smoothes the luminance information between a plurality of image data having different frames generated by the image processing unit 14 to obtain smoothed image data. The display unit 18 displays an ultrasonic diagnostic image based on the smoothed image data obtained by the smoothing unit 15 (or the control unit 19). Then, the smoothing processing unit 15 (or the control unit 19) detects a moving body part by determining a luminance difference between a plurality of image data having different frames. Then, the smoothing processing unit 15 (or the control unit 19), for the luminance information of the part corresponding to the detected moving body part, sets the respective mixing ratios of the luminance information of a plurality of image data with different frames in the smoothing of the luminance information. Different from the corresponding part other than the moving part. As a result, even when smoothing processing is performed using a plurality of image data with different frames, it is possible to obtain an ultrasonic diagnostic image with good image quality that can suppress a decrease in luminance and occurrence of afterimages in the moving object portion. . In addition, since the moving object portion is detected based on the luminance difference, it can be performed with simple processing, and the processing time and processing load can be reduced.

また、本発明の第1〜第4の実施の形態によれば、平滑処理部15(又は制御部19)は、平滑化の対象である画像データのうちの少なくとも最新のフレームの画像データにおける輝度情報に対して帯域制限フィルタ処理による平滑化を行った後、フレームの異なる複数の画像データ間における輝度差分の判定を行う。その結果、ノイズの影響を軽減させて動体部分の検出を行うことができ、画質の向上を図ることができる。   Further, according to the first to fourth embodiments of the present invention, the smoothing processing unit 15 (or the control unit 19) determines the luminance in the image data of at least the latest frame among the image data to be smoothed. After the information is smoothed by the band limiting filter process, the luminance difference between a plurality of image data in different frames is determined. As a result, the influence of noise can be reduced and the moving part can be detected, and the image quality can be improved.

また、本発明の第1〜第4の実施の形態によれば、平滑処理部15(又は制御部19)は、検出した動体部分に対応する部分の輝度情報については、輝度情報の平滑化を行わず、最新のフレームの画像データにおける輝度情報を平滑化画像データとして使用する。その結果、動体部分における輝度低下や残像を生じさせないより画質の良い超音波診断画像を得ることができるようになる。   Further, according to the first to fourth embodiments of the present invention, the smoothing processing unit 15 (or the control unit 19) smoothes the luminance information for the luminance information of the part corresponding to the detected moving body part. Instead, the luminance information in the image data of the latest frame is used as the smoothed image data. As a result, it is possible to obtain an ultrasonic diagnostic image with better image quality that does not cause a decrease in luminance or an afterimage in the moving body portion.

また、本発明の第1〜第4の実施の形態によれば、平滑処理部15(又は制御部19)は、検出した動体部分に対応する部分の最新のフレームの画像データにおける輝度情報について帯域制限フィルタ処理による平滑化を行う。そして、平滑処理部15(又は制御部19)は、平滑化した輝度情報を平滑化画像データとして使用する。その結果、動体部分について、ノイズの影響を軽減させて超音波診断画像の表示を行うことができるようになり、画質の向上を図ることができる。   Further, according to the first to fourth embodiments of the present invention, the smoothing processing unit 15 (or the control unit 19) uses the band for luminance information in the image data of the latest frame of the part corresponding to the detected moving body part. Smoothing is performed by limiting filter processing. The smoothing processing unit 15 (or the control unit 19) uses the smoothed luminance information as smoothed image data. As a result, the ultrasonic diagnostic image can be displayed on the moving body part while reducing the influence of noise, and the image quality can be improved.

また、本発明の第1〜第4の実施の形態によれば、平滑処理部15(又は制御部19)は、フレームの異なる複数の画像データ間における輝度差分が所定の動体判定値であるか否かを判定することによって動体部分の検出を行う。そして、平滑処理部15(又は制御部19)は、動体判定値を変更可能とした。その結果、例えば、診断内容に応じて動体と判定する範囲を変えることができるので、利便性が向上する。   Further, according to the first to fourth embodiments of the present invention, the smoothing processing unit 15 (or the control unit 19) determines whether the luminance difference between a plurality of image data in different frames is a predetermined moving object determination value. The moving part is detected by determining whether or not. The smoothing processing unit 15 (or the control unit 19) can change the moving object determination value. As a result, for example, the range of determination as a moving object can be changed according to the diagnosis content, so convenience is improved.

また、本発明の第3及び第4の実施の形態によれば、平滑処理部15(又は制御部19)は、フレームの異なる複数の画像データ間における輝度差分が所定の動体判定値であるか否かを判定することにより動体部分の検出を行う。そして、平滑処理部15(又は制御部19)は、フレームの異なる複数の画像データ間における輝度差分が所定の静体判定値であるか否かを判定することにより静体部分の検出を行う。そして、平滑処理部15(又は制御部19)は、検出した静体部分に対応する部分の輝度情報については、フレームの異なる複数の画像データ間での輝度情報の平滑化を行う。そして、平滑処理部15(又は制御部19)は、フレームの異なる複数の画像データ間における輝度差分が動体判定値と静体判定値の何れでもないときは、フレームの異なる複数の画像データ間での輝度情報の平滑化を行う。そして、平滑処理部15(又は制御部19)は、平滑化された輝度情報と、最新のフレームの画像データにおける輝度情報とでさらに平滑化を行って得た輝度情報を、平滑化画像データとして使用する。その結果、例えば、動体か静体か判断が困難な画像については、平滑化を中間調的に行うので、違和感のない超音波診断画像を表示することができるようになる。   Further, according to the third and fourth embodiments of the present invention, the smoothing processing unit 15 (or the control unit 19) determines whether the luminance difference between a plurality of image data in different frames is a predetermined moving object determination value. The moving body part is detected by determining whether or not. Then, the smoothing processing unit 15 (or the control unit 19) detects the still body part by determining whether or not the luminance difference between a plurality of image data with different frames is a predetermined still body determination value. The smoothing processing unit 15 (or the control unit 19) smoothes the luminance information between a plurality of pieces of image data having different frames for the luminance information of the portion corresponding to the detected still body portion. The smoothing processing unit 15 (or the control unit 19), when the luminance difference between the plurality of image data with different frames is neither the moving object determination value nor the still body determination value, between the plurality of image data with different frames. Smoothes luminance information. Then, the smoothing processing unit 15 (or the control unit 19) uses the luminance information obtained by further smoothing the smoothed luminance information and the luminance information in the image data of the latest frame as the smoothed image data. use. As a result, for example, for an image that is difficult to determine whether it is a moving object or a static object, smoothing is performed in a halftone manner, so that it is possible to display an ultrasonic diagnostic image without a sense of incongruity.

また、本発明の第3及び第4の実施の形態によれば、平滑制御部15(又は制御部19)は、動体判定値及び静体判定値の少なくとも何れかについて変更可能としたので、例えば、診断内容に応じて動体又は静体と判定する範囲を変えることができるので、利便性が向上する。   Further, according to the third and fourth embodiments of the present invention, the smoothing control unit 15 (or the control unit 19) can change at least one of the moving object determination value and the still body determination value. Since the range to be determined as a moving body or a stationary body can be changed according to the diagnosis content, convenience is improved.

なお、本発明の実施の形態における記述は、本発明に係る超音波診断装置の一例であり、これに限定されるものではない。超音波診断装置を構成する各機能部の細部構成及び細部動作に関しても適宜変更可能である。   The description in the embodiment of the present invention is an example of the ultrasonic diagnostic apparatus according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of each functional unit constituting the ultrasonic diagnostic apparatus can be appropriately changed.

また、本発明の実施の形態では、リカーシブ型フレームアベレージングを適用したが、単純フレームアベレージングを適用することも可能である。この場合、例えば、n枚のフレーム画像データの輝度差分を判定し、何れかのフレーム画像データから動体部分が抽出された場合には、当該抽出部分についてはフレームアベレージングを行わずに最新のフレームの画像データを使用し、他の部分についてフレームアベレージングを行うことにより、実現することができる。   In the embodiment of the present invention, recursive frame averaging is applied, but simple frame averaging can also be applied. In this case, for example, when the luminance difference of n frame image data is determined and a moving object part is extracted from any of the frame image data, the latest frame is not subjected to frame averaging for the extracted part. This can be realized by using the image data and performing frame averaging on other portions.

また、本発明の実施の形態では、輝度差分の判定を行うときに、注目画素に対して帯域制限フィルタ処理を行ったが、フィルタ処理を行わないようにしてもよい。   In the embodiment of the present invention, the band limiting filter process is performed on the target pixel when the luminance difference is determined. However, the filter process may not be performed.

また、本発明の実施の形態では、動体部分に対応する注目画素の画素データに対して空間フィルタ処理を行って平滑化する機能を有しているが、そのような機能を備えないようにしてもよい。また、必ず空間フィルタ処理による平滑化が行われるようにしてもよい。   Further, in the embodiment of the present invention, the pixel data of the target pixel corresponding to the moving object portion has a function of performing the spatial filter process and smoothing, but the function is not provided. Also good. Further, smoothing by spatial filter processing may be performed without fail.

また、本実施の形態では、画素毎に輝度差分の判定を行って動体部分の検出を行っているが、例えば、x×y個(x、yは何れも1以上の整数)からなる複数の画素をブロック単位とし、ブロック毎に輝度の平均を求め、この平均値を比較して輝度差分を判定し、動体部分の検出を行うようにしてもよい。このようにすれば、演算処理量の軽減が図れ、また、ノイズが重畳された場合、これを吸収することができるので、ノイズが発生した場合でもその影響を低減させることができるようになる。   Further, in the present embodiment, the luminance difference is determined for each pixel to detect the moving body portion. For example, a plurality of x × y pieces (where x and y are integers of 1 or more) are included. The average of luminance may be obtained for each block by using pixels as a block, and the luminance difference may be determined by comparing the average value to detect a moving object portion. In this way, the amount of calculation processing can be reduced, and when noise is superimposed, it can be absorbed, so that even when noise occurs, the influence can be reduced.

また、本実施の形態では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてハードディスクや半導体の不揮発性メモリ等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD−ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)も適用される。   In the present embodiment, an example in which a hard disk, a semiconductor nonvolatile memory, or the like is used as a computer-readable medium for the program according to the present invention is disclosed, but the present invention is not limited to this example. As another computer-readable medium, a portable recording medium such as a CD-ROM can be applied. A carrier wave is also used as a medium for providing program data according to the present invention via a communication line.

S 超音波診断装置
1 超音波診断装置本体
2 超音波探触子
2a 振動子
12 送信部
13 受信部
14 画像生成部
15 平滑処理部
18 表示部
19 制御部
DESCRIPTION OF SYMBOLS S Ultrasonic diagnostic apparatus 1 Ultrasonic diagnostic apparatus main body 2 Ultrasonic probe 2a Transducer 12 Transmission part 13 Reception part 14 Image generation part 15 Smoothing process part 18 Display part 19 Control part

Claims (8)

駆動信号によって被検体に向けて送信超音波を出力するとともに、被検体からの反射超音波を受信することにより受信信号を出力する振動子を有する超音波探触子と、
前記振動子に駆動信号を供給する送信部と、
前記振動子から出力された受信信号を受信する受信部と、
前記受信部によって受信した前記受信信号から画像の輝度を示す輝度情報に変換した画像データを生成する画像処理部と、
前記画像処理部によって生成された、フレームの異なる複数の画像データ間で輝度情報の平滑化を行って平滑化画像データを得る平滑処理部と、
前記平滑処理部によって得られた前記平滑化画像データに基づいて超音波診断画像の表示を行う表示部と、
を備え、
前記平滑処理部は、前記フレームの異なる複数の画像データ間における輝度差分を判定して動体部分を検出し、該検出した動体部分に対応する部分の輝度情報については、前記輝度情報の平滑化における前記フレームの異なる複数の画像データの輝度情報のそれぞれの混合比率を、前記動体部分以外に対応する部分とは異ならせることを特徴とする超音波診断装置。
An ultrasonic probe having a transducer that outputs a transmission signal by receiving a reflected ultrasonic wave from the subject and outputting a transmission ultrasonic wave toward the subject by a drive signal;
A transmitter for supplying a drive signal to the vibrator;
A receiving unit for receiving a reception signal output from the vibrator;
An image processing unit that generates image data converted from the received signal received by the receiving unit into luminance information indicating the luminance of the image;
A smoothing processing unit that obtains smoothed image data by smoothing luminance information between a plurality of image data having different frames generated by the image processing unit;
A display unit for displaying an ultrasonic diagnostic image based on the smoothed image data obtained by the smoothing unit;
With
The smoothing processing unit determines a luminance difference between a plurality of image data of different frames to detect a moving object part, and luminance information of a part corresponding to the detected moving object part is determined in the smoothing of the luminance information. An ultrasonic diagnostic apparatus, wherein a mixing ratio of luminance information of a plurality of image data with different frames is different from a corresponding part other than the moving part.
前記平滑処理部は、平滑化の対象である画像データのうちの少なくとも最新のフレームの画像データにおける輝度情報に対して帯域制限フィルタ処理による平滑化を行った後、前記フレームの異なる複数の画像データ間における輝度差分の判定を行うことを特徴とする請求項1に記載の超音波診断装置。   The smoothing unit performs smoothing by band-limiting filter processing on luminance information in image data of at least the latest frame of image data to be smoothed, and then a plurality of image data having different frames The ultrasonic diagnostic apparatus according to claim 1, wherein a luminance difference between the two is determined. 前記平滑処理部は、前記検出した動体部分に対応する部分の輝度情報については、前記輝度情報の平滑化を行わず、最新のフレームの画像データにおける輝度情報を前記平滑化画像データとして使用することを特徴とする請求項1又は2に記載の超音波診断装置。   The smoothing unit does not smooth the luminance information for the luminance information of the part corresponding to the detected moving body part, and uses the luminance information in the image data of the latest frame as the smoothed image data. The ultrasonic diagnostic apparatus according to claim 1 or 2, wherein 前記平滑処理部は、前記検出した動体部分に対応する部分の前記最新のフレームの画像データにおける輝度情報について帯域制限フィルタ処理による平滑化を行い、該平滑化した輝度情報を前記平滑化画像データとして使用することを特徴とする請求項3に記載の超音波診断装置。   The smoothing processing unit smoothes the luminance information in the image data of the latest frame of the part corresponding to the detected moving body part by band limiting filter processing, and uses the smoothed luminance information as the smoothed image data The ultrasonic diagnostic apparatus according to claim 3, wherein the ultrasonic diagnostic apparatus is used. 前記平滑処理部は、前記フレームの異なる複数の画像データ間における輝度差分が所定の動体判定値であるか否かを判定することによって動体部分の検出を行うとともに、前記動体判定値を変更可能としたことを特徴とする請求項1〜4の何れか一項に記載の超音波診断装置。   The smoothing processing unit detects a moving object part by determining whether or not a luminance difference between a plurality of image data of different frames is a predetermined moving object determination value, and can change the moving object determination value. The ultrasonic diagnostic apparatus according to any one of claims 1 to 4, wherein 前記平滑処理部は、前記フレームの異なる複数の画像データ間における輝度差分が所定の動体判定値であるか否かを判定することにより動体部分の検出を行い、前記フレームの異なる複数の画像データ間における輝度差分が所定の静体判定値であるか否かを判定することにより静体部分の検出を行い、該検出した静体部分に対応する部分の輝度情報については、前記フレームの異なる複数の画像データ間での輝度情報の平滑化を行い、前記フレームの異なる複数の画像データ間における輝度差分が前記動体判定値と前記静体判定値の何れでもないときは、前記フレームの異なる複数の画像データ間での輝度情報の平滑化を行うとともに、該平滑化された輝度情報と、前記最新のフレームの画像データにおける輝度情報とでさらに平滑化を行って得た輝度情報を、前記平滑化画像データとして使用することを特徴とする請求項3又は4に記載の超音波診断装置。   The smoothing processing unit detects a moving part by determining whether or not a luminance difference between a plurality of image data of different frames is a predetermined moving object determination value, and detects a difference between the plurality of image data of different frames. Detecting a still body part by determining whether or not the brightness difference in the predetermined static body determination value, and for brightness information of a part corresponding to the detected still body part, a plurality of different frames Smoothing of luminance information between image data, and when a luminance difference between a plurality of image data of different frames is neither the moving object determination value nor the still body determination value, a plurality of images having different frames Smooths luminance information between data, and further smoothes the smoothed luminance information and the luminance information in the image data of the latest frame. The luminance information obtained, the ultrasonic diagnostic apparatus according to claim 3 or 4, characterized in that used as the smoothed image data. 前記平滑制御部は、前記動体判定値及び前記静体判定値の少なくとも何れかについて変更可能としたことを特徴とする請求項6に記載の超音波診断装置。   The ultrasonic diagnostic apparatus according to claim 6, wherein the smoothing control unit can change at least one of the moving object determination value and the still body determination value. 駆動信号によって被検体に向けて送信超音波を出力するとともに、被検体からの反射超音波を受信することにより受信信号を出力する振動子を有する超音波探触子を有する超音波診断装置に設けられたコンピュータを、
前記受信信号から画像の輝度を示す輝度情報に変換された、フレームの異なる複数の画像データ間で輝度情報の平滑化を行って平滑化画像データを得るとともに、前記フレームの異なる複数の画像データ間における輝度差分を判定して動体部分を検出し、該検出した動体部分に対応する部分の輝度情報については、前記輝度情報の平滑化における前記フレームの異なる複数の画像データの輝度情報のそれぞれの混合比率を、前記動体部分以外に対応する部分とは異ならせる平滑処理手段として機能させるためのプログラム。
Provided in an ultrasonic diagnostic apparatus having an ultrasonic probe having a transducer that outputs a transmission ultrasonic wave toward a subject by a drive signal and outputs a reception signal by receiving a reflected ultrasonic wave from the subject. Computer
The received information is converted into luminance information indicating the luminance of the image, and the luminance information is smoothed between a plurality of image data of different frames to obtain smoothed image data, and between the plurality of image data of different frames A moving body part is detected by determining a luminance difference in the image, and for luminance information of a part corresponding to the detected moving body part, each of luminance information of a plurality of image data of different frames in the smoothing of the luminance information A program for causing a ratio to function as smoothing processing means for making a ratio different from a portion other than the moving body portion.
JP2010152572A 2010-07-05 2010-07-05 Ultrasonic diagnostic apparatus and program Pending JP2013188236A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010152572A JP2013188236A (en) 2010-07-05 2010-07-05 Ultrasonic diagnostic apparatus and program
PCT/JP2011/056243 WO2012005026A1 (en) 2010-07-05 2011-03-16 Ultrasound diagnostic device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010152572A JP2013188236A (en) 2010-07-05 2010-07-05 Ultrasonic diagnostic apparatus and program

Publications (1)

Publication Number Publication Date
JP2013188236A true JP2013188236A (en) 2013-09-26

Family

ID=45441013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010152572A Pending JP2013188236A (en) 2010-07-05 2010-07-05 Ultrasonic diagnostic apparatus and program

Country Status (2)

Country Link
JP (1) JP2013188236A (en)
WO (1) WO2012005026A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020039821A (en) * 2018-09-13 2020-03-19 オリンパス株式会社 Ultrasound wave observation apparatus, ultrasound wave observation apparatus operation method, and ultrasound wave observation apparatus operation program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54127623A (en) * 1978-03-27 1979-10-03 Nec Corp S/n improving device for television video signal
JP2690750B2 (en) * 1988-08-12 1997-12-17 株式会社日立メディコ Ultrasound diagnostic equipment
JP3264963B2 (en) * 1992-02-12 2002-03-11 ジーイー横河メディカルシステム株式会社 Ultrasound diagnostic equipment
JP2846601B2 (en) * 1995-06-06 1999-01-13 アロカ株式会社 Ultrasonic image processing method and apparatus
JPH11290325A (en) * 1998-04-09 1999-10-26 Hitachi Medical Corp Ultrasonic diagnostic system
JP2001128970A (en) * 1999-10-29 2001-05-15 Shimadzu Corp Ultrasonographic apparatus
JP4727060B2 (en) * 2001-04-06 2011-07-20 株式会社日立メディコ Ultrasonic device
JP4729491B2 (en) * 2003-09-09 2011-07-20 ゼネラル・エレクトリック・カンパニイ Motion adaptive frame averaging for ultrasound Doppler color flow imaging

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020039821A (en) * 2018-09-13 2020-03-19 オリンパス株式会社 Ultrasound wave observation apparatus, ultrasound wave observation apparatus operation method, and ultrasound wave observation apparatus operation program
JP7190851B2 (en) 2018-09-13 2022-12-16 オリンパス株式会社 Ultrasonic Observation Device, Operation Method of Ultrasonic Observation Device, and Operation Program of Ultrasonic Observation Device

Also Published As

Publication number Publication date
WO2012005026A1 (en) 2012-01-12

Similar Documents

Publication Publication Date Title
US10729407B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
JP6104749B2 (en) Ultrasonic diagnostic apparatus and control method
JP6218400B2 (en) Ultrasonic diagnostic apparatus and control program for ultrasonic diagnostic apparatus
US10893848B2 (en) Ultrasound diagnosis apparatus and image processing apparatus
US10524767B2 (en) Ultrasound diagnostic apparatus and ultrasound imaging method
US20140063002A1 (en) Object information acquisition apparatus, display method, and computer-readable medium storing program
JP2012105950A (en) Ultrasound diagnostic apparatus and program
JP5085691B2 (en) Ultrasonic diagnostic equipment
JP6460707B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP5509058B2 (en) Ultrasonic diagnostic apparatus and image processing apparatus
JP2018023619A (en) Ultrasonic diagnostic device
WO2012005026A1 (en) Ultrasound diagnostic device and program
JP6567122B2 (en) Ultrasonic diagnostic apparatus, control method, apparatus and program
US11896435B2 (en) Ultrasound diagnostic apparatus and examination method
JP6697609B2 (en) Ultrasonic diagnostic device, image processing device, and image processing method
JP4276532B2 (en) Ultrasonic diagnostic equipment
JP5786857B2 (en) Ultrasonic diagnostic equipment
JP2019097794A (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and program of the same
US20230225710A1 (en) Ultrasonic diagnostic apparatus and image processing apparatus
JP2021194203A (en) Ultrasonic diagnostic device
JP2023111022A (en) Ultrasonic diagnostic device and image processing device
JP2019097795A (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and program of the same
JP2005028159A (en) Ultrasonic diagnostic equipment
JP2012147883A (en) Ultrasound diagnostic apparatus and program
JP2013017713A (en) Ultrasonic image diagnostic apparatus and ultrasonic image processing method