JP6677042B2 - Image processing apparatus, ultrasonic diagnostic apparatus, and image processing program - Google Patents

Image processing apparatus, ultrasonic diagnostic apparatus, and image processing program Download PDF

Info

Publication number
JP6677042B2
JP6677042B2 JP2016061627A JP2016061627A JP6677042B2 JP 6677042 B2 JP6677042 B2 JP 6677042B2 JP 2016061627 A JP2016061627 A JP 2016061627A JP 2016061627 A JP2016061627 A JP 2016061627A JP 6677042 B2 JP6677042 B2 JP 6677042B2
Authority
JP
Japan
Prior art keywords
image
flow
weight
image data
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016061627A
Other languages
Japanese (ja)
Other versions
JP2017169984A (en
Inventor
政志 國田
政志 國田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016061627A priority Critical patent/JP6677042B2/en
Publication of JP2017169984A publication Critical patent/JP2017169984A/en
Application granted granted Critical
Publication of JP6677042B2 publication Critical patent/JP6677042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置、超音波診断装置及び画像処理プログラムに関する。   The present invention relates to an image processing device, an ultrasonic diagnostic device, and an image processing program.

被検体に対して超音波ビームを送信し、送信した超音波ビームが体内の組織や血流などで反射して戻るまでの時間や強度を検出することにより、被検体内部の様子をカラードプラ画像として生成する超音波診断装置が知られている。   A color Doppler image of the interior of the subject by transmitting an ultrasound beam to the subject and detecting the time and intensity until the transmitted ultrasound beam is reflected back by the tissue or blood flow in the body and returned. There is known an ultrasonic diagnostic apparatus which generates the above.

カラードプラ画像は、生体内の断層像をグレースケールで表現したBモード画像(Brightness mode Imaging、以下「B画像」とも言う)に重ねて、血流情報(血流速度、血流方向、パワー、速度の分散)や心筋壁等の体組織の動きを色で表現したフロー画像(Color Flow Imaging)を表示することで生成される。尚、以下では、説明の便宜として、B画像を生成する信号を「B信号」、フロー画像を生成する信号を「フロー信号」と称する。   The color Doppler image is superimposed on a B-mode image (Brightness mode Imaging, hereinafter also referred to as a “B image”) that expresses a tomographic image in a living body in gray scale, and blood flow information (blood flow velocity, blood flow direction, power, It is generated by displaying a flow image (Color Flow Imaging) that expresses the motion of body tissue such as the myocardial wall and the like (dispersion of velocity) by colors. In the following, for convenience of description, a signal for generating a B image is referred to as a “B signal”, and a signal for generating a flow image is referred to as a “flow signal”.

カラードプラ画像を生成する際には、一般に、画像を形成する画素ごとに、グレースケール表示に係るB画像を表示するか、カラー表示に係るフロー画像を表示するかが、例えば、エコー強度やカラー強度に応じて判定される。そして、当該判定結果に基づいて、画素ごとにB画像とフロー画像のどちらか一方の画素値(RGB値のように色空間ベクトルの各成分の値を表す。以下同じ)が選択されてフレーム化されたものが、カラードプラ画像として生成されるようになっている(例えば、特許文献1を参照)。   When generating a color Doppler image, generally, for each pixel forming an image, whether to display a B image related to gray scale display or a flow image related to color display is determined by, for example, echo intensity or color. It is determined according to the strength. Then, based on the determination result, one of the pixel values of the B image and the flow image (representing the value of each component of the color space vector like an RGB value; the same applies hereinafter) is selected for each pixel and framed. This is generated as a color Doppler image (for example, see Patent Document 1).

特開平3−277352号公報JP-A-3-277352

しかし、特許文献1に示すような画像処理では、B画像とフロー画像の画素選択が切り替わる箇所に境界線が視認され、立体感やつながり感を表現しにくいという問題があった。特に、カラー表示に係るフロー画像は、血流に応じて逐次変化しており、フロー信号の速度やパワーが小さい領域においては、血流が途切れて表示されたり、細い血管の正確な位置が安定して表示されないおそれがあった。加えて、フロー画像のノイズが画面に表示されると、B画像が隠れてしまう等、画像の視認性を低下させることにもつながっていた。   However, in the image processing as disclosed in Patent Document 1, there is a problem that a boundary line is visually recognized at a position where pixel selection between the B image and the flow image is switched, and it is difficult to express a three-dimensional effect and a sense of connection. In particular, the flow image related to color display changes sequentially according to the blood flow, and in an area where the speed or power of the flow signal is small, the blood flow is displayed without interruption, and the accurate position of the thin blood vessel is stable. May not be displayed. In addition, when the noise of the flow image is displayed on the screen, the B image is hidden, and the visibility of the image is reduced.

更に、カラードプラ画像は、血流と生体内の断層像という2つの異なる状態を示す画像を合成するものであるため、それらの信号が有する成分の信号強度等を互いに視認しやすくする必要がある。特に、信号強度が小さい成分は、小さいものとして判別できるように表示することが望ましい。そのため、特許文献1に示すようなフィルタリングを行わない場合には、かかる観点が問題となる。   Furthermore, since a color Doppler image combines two images showing different states, that is, a blood flow and a tomographic image in a living body, it is necessary to make it easy to visually recognize the signal intensities and the like of the components of these signals. . In particular, it is desirable to display a component having a small signal strength so that the component can be determined to be small. Therefore, when the filtering as shown in Patent Document 1 is not performed, such a viewpoint becomes a problem.

そこで、本発明は、特にカラードプラ画像を生成する際における上記問題点に鑑み、二つの画像を画像合成する際に、画像の視認性を向上させることを可能とする画像処理装置、超音波診断装置及び画像処理プログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems particularly when a color Doppler image is generated, and when combining two images, an image processing apparatus capable of improving the visibility of images, It is an object to provide an apparatus and an image processing program.

前述した課題を解決する主たる本開示は、第1及び第2の画像データそれぞれの各画素領域に対応する主張度を決定する主張度決定部と、前記第1及び第2の画像データそれぞれの各画素領域に対応する主張度に基づいて、第1及び第2の画像データそれぞれに対する画素領域ごとの重みを決定する重み決定部と、前記第1及び第2の画像データそれぞれに対する画素領域ごとの重みに基づいて、第1及び第2の画像データを重み付け合成する画像合成部と、を備える画像処理装置である。   The main disclosure for solving the above-described problems includes an assertion level determining unit that determines an assertion level corresponding to each pixel region of each of the first and second image data, and an assertion level determining unit that determines each of the first and second image data. A weight determining unit that determines a weight of each of the first and second image data for each pixel region based on a claim level corresponding to the pixel region, and a weight of each of the first and second image data for each pixel region And an image synthesizing unit for weighting and synthesizing the first and second image data based on the image processing device.

本開示によれば、二つの画像を画像合成した際に、画像の視認性を向上させることができる。   According to the present disclosure, when two images are combined, visibility of the images can be improved.

実施形態に係る超音波診断装置の信号処理回路の全体構成を示す図FIG. 1 is a diagram illustrating an entire configuration of a signal processing circuit of an ultrasonic diagnostic apparatus according to an embodiment. 実施形態に係る画像処理部の信号処理フローの一例を示す図FIG. 4 is a diagram illustrating an example of a signal processing flow of an image processing unit according to the embodiment. 画像処理部の各構成における信号変換を説明するための図Diagram for explaining signal conversion in each configuration of the image processing unit 実施形態に係るフロー画像生成部のカラーマップの一例を示す図FIG. 4 is a diagram illustrating an example of a color map of a flow image generation unit according to the embodiment. 実施形態に係る画像処理の概略を示す図The figure which shows the outline of the image processing which concerns on embodiment. B画像重み係数とフロー画像重み係数に応じた画像合成の結果の違いを説明する図FIG. 7 is a view for explaining a difference between image synthesis results according to a B image weight coefficient and a flow image weight coefficient. 実施形態に係る重み係数の決定方法の一例を説明する図FIG. 4 is a diagram for explaining an example of a method of determining a weight coefficient according to the embodiment. 実施形態に係る画像処理部によって生成したカラードプラ画像の他の一例を示す図FIG. 6 is a diagram illustrating another example of the color Doppler image generated by the image processing unit according to the embodiment. 変形例1に係る画像処理部の信号処理フローの一例を示す図The figure which shows an example of the signal processing flow of the image processing part concerning the modification 1. 変形例2に係る画像処理部の信号処理フローの一例を示す図The figure which shows an example of the signal processing flow of the image processing part concerning the modification 2.

以下、本発明の実施の形態を図面に基づいて説明する。図1は、超音波診断装置の信号処理回路の全体構成を示す図である。本実施形態に係る超音波診断装置では、一例として、Bモード画像にフロー画像たる血流画像を重畳させたカラードプラ画像を表示する態様を示す。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating an overall configuration of a signal processing circuit of the ultrasonic diagnostic apparatus. In the ultrasonic diagnostic apparatus according to the present embodiment, as an example, a mode in which a color Doppler image in which a blood flow image as a flow image is superimposed on a B-mode image is displayed.

超音波診断装置は、超音波探触子1、送信部2、受信部3、走査部4、B信号生成部5、フロー信号生成部6、画像処理部7、表示部8を含んで構成される。   The ultrasonic diagnostic apparatus includes an ultrasonic probe 1, a transmission unit 2, a reception unit 3, a scanning unit 4, a B signal generation unit 5, a flow signal generation unit 6, an image processing unit 7, and a display unit 8. You.

超音波探触子1は、送信部2で発生された電圧パルスを超音波ビームに変換して被検体内へ送信し、被検体内で反射した超音波エコーを受信して電気信号に変換し受信部3へ出力する。超音波探触子1は、例えば、マトリクス状に配設された複数の振動子(圧電素子)と、当該複数の振動子の駆動状態のオンオフを個別に又はブロック単位(以下、「チャンネル」と言う)で切替制御するためのチャンネル切替部(セレクタ)を含んで構成される。尚、ここでは、超音波探触子1は、リニア型のものを一例として示すが、コンベックス型やセクタ型でもよく、又、その駆動方式も電子走査に限らず、機械走査によるものであってもよいのは勿論である。   The ultrasonic probe 1 converts the voltage pulse generated by the transmission unit 2 into an ultrasonic beam, transmits the ultrasonic beam into the subject, receives the ultrasonic echo reflected in the subject, and converts the ultrasonic echo into an electric signal. Output to the receiving unit 3. The ultrasonic probe 1 includes, for example, a plurality of transducers (piezoelectric elements) arranged in a matrix and the on / off state of the driving state of the plurality of transducers individually or in block units (hereinafter referred to as “channels”). ) And a channel switching unit (selector) for switching control. Here, the ultrasonic probe 1 is shown as an example of a linear type, but may be of a convex type or a sector type, and the driving method is not limited to electronic scanning, but may be mechanical scanning. Of course, it is good.

送信部2は、超音波探触子1に対して駆動信号たる電圧パルスを送出する送信回路である。送信部2は、例えば、高周波パルス発振器、パルス設定部等を含んで構成される。高周波パルス発振器で生成した電圧パルスを、パルス設定部で設定した電圧振幅、パルス幅、タイミングに調整して超音波探触子1のチャンネルごとに送出する。   The transmission unit 2 is a transmission circuit that transmits a voltage pulse as a drive signal to the ultrasonic probe 1. The transmission unit 2 includes, for example, a high-frequency pulse oscillator, a pulse setting unit, and the like. The voltage pulse generated by the high-frequency pulse oscillator is adjusted to the voltage amplitude, pulse width, and timing set by the pulse setting unit, and transmitted for each channel of the ultrasonic probe 1.

送信部2は、超音波探触子1の複数のチャンネルそれぞれにパルス設定部を有しており、複数のチャンネルごとに電圧パルスの電圧振幅、パルス幅、タイミングを設定可能になっている。例えば、送信部2は、複数のチャンネルに対して適切な遅延時間を設定することによって目標とする深度を変更したり、B画像生成時とフロー画像生成時とで異なるパルス波形を発生させることも可能となっている(例えば、B画像生成時には1波の電圧パルス、フロー画像生成時には4波の電圧パルスを送出する)。   The transmission unit 2 has a pulse setting unit for each of the plurality of channels of the ultrasonic probe 1, and can set the voltage amplitude, the pulse width, and the timing of the voltage pulse for each of the plurality of channels. For example, the transmission unit 2 may change the target depth by setting appropriate delay times for a plurality of channels, or generate different pulse waveforms between the time of generating a B image and the time of generating a flow image. It is possible (for example, one voltage pulse is generated when a B image is generated, and four voltage pulses are transmitted when a flow image is generated).

受信部3は、超音波探触子1で生成された超音波エコーに係る受信信号を受信処理する超音波受信回路である。受信部3は、チャンネルごとのプリアンプと、チャンネルごとのADコンバータと、受信ビームフォーマとを含んで構成される。プリアンプは、微弱な受信信号を増幅する。ADコンバータは、増幅された受信信号(アナログ信号)を、デジタル信号に変換する。受信ビームフォーマは、各チャンネルの受信信号(デジタル信号)を整相加算することで複数チャンネルの信号を1つにまとめて、B信号生成部5又はフロー信号生成部6に出力する。この出力信号を、以下、「受信エコー信号」と称する。   The receiving unit 3 is an ultrasonic receiving circuit that receives and processes a received signal related to an ultrasonic echo generated by the ultrasonic probe 1. The receiving unit 3 includes a preamplifier for each channel, an AD converter for each channel, and a reception beamformer. The preamplifier amplifies a weak reception signal. The AD converter converts the amplified received signal (analog signal) into a digital signal. The reception beamformer combines the signals of the multiple channels into one by performing phasing addition of the reception signals (digital signals) of the respective channels, and outputs the signals to the B signal generator 5 or the flow signal generator 6. This output signal is hereinafter referred to as a “received echo signal”.

走査部4は、超音波探触子1、送信部2、受信部3を制御する。走査部4は、超音波探触子1に設けられたチャンネル切替部を制御して、複数のチャンネルのうち、駆動対象のチャンネルを切替制御する。そして、走査部4は、複数のチャンネルを順に駆動(走査)することによって、走査方向に沿った順序で、被検体内部に対して超音波ビームを送信する。そうすることで、走査部4は、B信号生成部5及びフロー信号生成部6に走査方向と深度方向に沿った二次元データを生成させる。   The scanning unit 4 controls the ultrasonic probe 1, the transmitting unit 2, and the receiving unit 3. The scanning unit 4 controls a channel switching unit provided in the ultrasound probe 1 to switch and control a channel to be driven among a plurality of channels. Then, the scanning unit 4 transmits the ultrasonic beam to the inside of the subject in an order along the scanning direction by sequentially driving (scanning) the plurality of channels. By doing so, the scanning unit 4 causes the B signal generation unit 5 and the flow signal generation unit 6 to generate two-dimensional data along the scanning direction and the depth direction.

尚、信号処理回路には、上記の他に、超音波探触子1との信号系統を切り替える送受信切替部(図示せず)と、受信部3から受信エコー信号を送信する先を切り替える処理系統切替部(図示せず)とが設けられている。そして、走査部4は、送受信切替部を切替制御することによって、送信部2から超音波探触子1に電圧パルスを送出するときと、超音波探触子1で生成される受信信号を受信部3に送出するときとで、信号系統を切替制御する。又、走査部4は、処理系統切替部を切替制御することによって、B画像を生成するときには、受信部3からの受信エコー信号をB信号生成部5に送出させ、フロー画像を生成するときには、受信部3からの受信エコー信号をフロー信号生成部6に送出させる。   In addition, in addition to the above, the signal processing circuit includes a transmission / reception switching unit (not shown) for switching a signal system with the ultrasonic probe 1 and a processing system for switching a destination to which a reception echo signal is transmitted from the reception unit 3. A switching unit (not shown) is provided. The scanning unit 4 controls the transmission / reception switching unit to switch the transmission / reception switching unit to transmit a voltage pulse from the transmission unit 2 to the ultrasonic probe 1 and to receive a reception signal generated by the ultrasonic probe 1. The switching of the signal system is performed between when the signal is transmitted to the unit 3. Further, the scanning unit 4 controls the processing system switching unit to perform switching control so that when a B image is generated, a reception echo signal from the receiving unit 3 is transmitted to the B signal generation unit 5 and when a flow image is generated. The reception echo signal from the reception unit 3 is transmitted to the flow signal generation unit 6.

但し、当該構成は、一例であって、信号処理回路の送受信切替部や処理系統切替部を必ずしも設ける必要がないのは勿論である。例えば、B信号生成部5及びフロー信号生成部6は、同じ受信エコー信号からB信号とフロー信号を生成してもよい。その場合、後述するB画像とフロー画像とを同期して生成することが可能となる。   However, the configuration is merely an example, and it is needless to say that the transmission / reception switching unit and the processing system switching unit of the signal processing circuit need not always be provided. For example, the B signal generation unit 5 and the flow signal generation unit 6 may generate the B signal and the flow signal from the same received echo signal. In this case, a B image and a flow image, which will be described later, can be generated in synchronization.

B信号生成部5は、受信部3から受信エコー信号を取得して、B信号を生成する。B信号とは、深度方向(超音波ビームの送信方向)における超音波エコーの信号強度(Intensity)の時間的変化を示す信号である。B信号生成部5は、超音波探触子1が深度方向に向けてパルス状の超音波ビームを送信した際に、その後に検出される超音波エコーを検出して、B信号を生成する。そして、B信号生成部5は、超音波探触子1からの超音波ビームが走査されるに応じて、各走査位置でのB信号をラインメモリに順次蓄積し、フレーム単位となる二次元データを生成する。   The B signal generation unit 5 acquires a reception echo signal from the reception unit 3 and generates a B signal. The B signal is a signal indicating a temporal change in the signal intensity (Intensity) of the ultrasonic echo in the depth direction (transmission direction of the ultrasonic beam). When the ultrasonic probe 1 transmits a pulsed ultrasonic beam in the depth direction, the B signal generation unit 5 detects an ultrasonic echo detected thereafter and generates a B signal. The B signal generation unit 5 sequentially accumulates the B signal at each scanning position in the line memory as the ultrasonic beam from the ultrasonic probe 1 is scanned, and stores the two-dimensional data in frame units. Generate

B信号生成部5は、例えば、包絡線検波回路、ダイナミックフィルタ、対数圧縮回路を含んで構成される。包絡線検波回路は、受信エコー信号を包絡線検波して、信号強度を検出する。対数圧縮回路は、包絡線検波回路で検出された受信エコー信号の信号強度に対して対数圧縮を行う。ダイナミックフィルタは、深度に応じて周波数特性を変化させたバンドパスフィルタであって、受信エコー信号に含まれるノイズ成分を除去する。   The B signal generation unit 5 includes, for example, an envelope detection circuit, a dynamic filter, and a logarithmic compression circuit. The envelope detection circuit detects the signal intensity by performing envelope detection on the received echo signal. The logarithmic compression circuit performs logarithmic compression on the signal strength of the received echo signal detected by the envelope detection circuit. The dynamic filter is a band-pass filter whose frequency characteristic is changed according to the depth, and removes a noise component included in a received echo signal.

フロー信号生成部6は、受信部3から受信エコー信号を取得し、フロー信号を生成する。フロー信号とは、血流や動きのある体組織からの超音波エコーを周波数解析して生成される信号であって、それらの速度(Velocity)、パワー(Power)、速度の分散値(Turbulence)を表すものである。フロー信号生成部6は、例えば、連続して送信した超音波パルスの、同じ深さ位置からの超音波エコーを検出し、当該連続する超音波エコーの位相差から血流の速度、パワー、分散を算出する。フロー信号生成部6は、B信号生成部5と同様に、超音波探触子1が超音波ビームを走査するに応じて、各走査位置でのフロー信号をラインメモリに順次蓄積し、フレーム単位となる二次元データを生成する。   The flow signal generator 6 acquires a received echo signal from the receiver 3 and generates a flow signal. A flow signal is a signal generated by frequency analysis of ultrasonic echoes from a blood flow or a moving body tissue, and the velocity (Velocity), the power (Power), and the variance value of the velocity (Turbulence). Is represented. The flow signal generator 6 detects, for example, ultrasonic echoes of the continuously transmitted ultrasonic pulses from the same depth position, and determines the velocity, power, and variance of the blood flow from the phase difference between the consecutive ultrasonic echoes. Is calculated. The flow signal generation unit 6 sequentially accumulates flow signals at each scanning position in a line memory as the ultrasonic probe 1 scans the ultrasonic beam, similarly to the B signal generation unit 5, and stores the frame signals in frame units. Generate two-dimensional data as

フロー信号生成部6は、例えば、MTIフィルタ、直交検波回路、自己相関演算部を含んで構成される。MTI(Moving Target Indication)フィルタは、受信エコー信号から、静止した組織からのクラッタ成分(組織からの超音波エコー)を除去する処理を行う低域除去フィルタである。直交検波回路は、受信エコー信号に対して、送信超音波と同相の参照信号及び送信超音波とπ/2だけ位相の異なる参照信号をミキシングして、直交検波信号を生成する(以下、「IQ信号」と言う)。自己相関演算部は、連続して送信した超音波パルスの、同じ深さ位置からの超音波エコーのIQ信号に基づいて、自己相関演算によってフロー信号(速度、パワー、分散)を抽出する。尚、自己相関演算は、n番目のIQ信号とn+1番目のIQ信号の位相差を算出して、血流の速度等を算出する周波数解析方法である。   The flow signal generator 6 includes, for example, an MTI filter, a quadrature detector, and an autocorrelation calculator. The MTI (Moving Target Indication) filter is a low-pass removal filter that performs processing for removing clutter components (ultrasonic echoes from tissue) from stationary tissue from a received echo signal. The quadrature detection circuit generates a quadrature detection signal by mixing the received echo signal with a reference signal having the same phase as the transmission ultrasonic wave and a reference signal having a phase different from the transmission ultrasonic wave by π / 2 (hereinafter, referred to as “IQ”). Signal "). The autocorrelation calculation unit extracts a flow signal (speed, power, variance) by autocorrelation calculation based on IQ signals of ultrasonic echoes from the same depth position of continuously transmitted ultrasonic pulses. The autocorrelation calculation is a frequency analysis method that calculates the phase difference between the nth IQ signal and the (n + 1) th IQ signal, and calculates the blood flow speed and the like.

但し、フロー信号生成部6は、ドプラシフトした受信エコー信号のIQ信号を高速フーリエ解析することによって、直接、血流情報(速度、パワー、分散)を抽出したりしてもよいのは勿論である。   However, it goes without saying that the flow signal generation unit 6 may directly extract blood flow information (speed, power, variance) by performing fast Fourier analysis on the IQ signal of the Doppler-shifted received echo signal. .

画像処理部7には、画像データを構成するためのフレーム単位のB信号とフロー信号が、それぞれ、B信号生成部5とフロー信号生成部6とから入力される。画像処理部7は、入力されたB信号に基づいてB画像を生成するとともに、入力されたフロー信号に基づいて、フロー画像を生成し、これらを画像合成して、カラードプラ画像として表示部8に出力する(詳細は、後述する)。   The image processing unit 7 receives a B signal and a flow signal in frame units for constituting image data from the B signal generation unit 5 and the flow signal generation unit 6, respectively. The image processing unit 7 generates a B image based on the input B signal, generates a flow image based on the input flow signal, synthesizes the flow images, and combines the generated flow images as a color Doppler image. (Details will be described later).

ここで、フレーム単位のB信号とフロー信号とは、1枚の画像を構築する上で必要な1つのまとまった信号の単位を意味する。但し、当該B信号とフロー信号は、1枚の画像の中の一部領域についての信号であってもよい。例えば、フロー画像は、B画像中の指定した関心領域(Region of Interest)にのみ重畳させるものであってもよい。   Here, the B signal and the flow signal in a frame unit mean a single unit of a signal necessary for constructing one image. However, the B signal and the flow signal may be signals for a partial area in one image. For example, the flow image may be superimposed only on a designated region of interest (Region of Interest) in the B image.

又、B信号生成部5及びフロー信号生成部6から画像処理部7に入力されるB信号及びフロー信号は、DSC(Digital Scan Converter)を介して座標変換処理をされたり、データ補間処理をされたものであってもよい。但し、本実施形態に係る画像処理部7においては、従来技術のように、画素ごとに、フロー信号に係るフロー画像を採用するか、B信号に係るB画像を採用するかの判定をするフィルタ処理は行われない。つまり、信号強度が弱い信号は、弱い信号のままで、後述する画像合成が行われることになる。   The B signal and the flow signal input from the B signal generation unit 5 and the flow signal generation unit 6 to the image processing unit 7 are subjected to coordinate conversion processing or data interpolation processing via a DSC (Digital Scan Converter). May be used. However, in the image processing unit 7 according to the present embodiment, as in the related art, a filter that determines whether a flow image related to a flow signal or a B image related to a B signal is used for each pixel. No action is taken. In other words, a signal having a weak signal strength is subjected to image synthesis described later while the signal is still a weak signal.

表示部8は、画像処理部7から出力されたカラードプラ画像を表示するモニターである。   The display unit 8 is a monitor that displays the color Doppler image output from the image processing unit 7.

尚、B信号生成部5、フロー信号生成部6、画像処理部7は、例えば、DSP(Digital Signal Processor)で構成されたデジタル演算回路によって実現される。そして、これらの各構成は、バッファメモリを備え、各演算処理の過程における中間データや、各演算処理で生成されるフレーム単位の二次元データは、当該バッファメモリに格納されるものとする。   Note that the B signal generation unit 5, the flow signal generation unit 6, and the image processing unit 7 are realized by, for example, a digital operation circuit including a DSP (Digital Signal Processor). Each of these components includes a buffer memory, and intermediate data in the course of each arithmetic processing and two-dimensional data in frame units generated in each arithmetic processing are stored in the buffer memory.

(画像処理部の詳細)
以下、図2〜図5を参照して、本実施形態に係る画像処理部7(画像処理装置に相当)の詳細について説明する。
(Details of image processing unit)
Hereinafter, the details of the image processing unit 7 (corresponding to an image processing device) according to the present embodiment will be described with reference to FIGS.

図2は、画像処理部7の信号処理フローの一例を示す図である。図3は、画像処理部7の各構成における信号変換を説明するための図である。図3では、理解を容易にするために、信号変換のための関数をマップとして簡略化して表している。具体的には、図3中の各マップは、それぞれ、図3AはB画像生成部71のカラーマップ、図3BはB主張度決定部72の主張度マップ、図3CはB画像重み決定部73の重み関数のマップ、図3Dはフロー画像生成部74のカラーマップ、図3Eはフロー主張度決定部75の主張度マップ、図3Fはフロー画像重み決定部76の重み関数のマップを表している。尚、それぞれのマップは、白色が強いほど数値が大きいことを示している。図4は、本実施形態に係るフロー画像生成部74の詳細なカラーマップの一例を示す図である。図5は、本実施形態に係る画像処理の概略を示す図である。   FIG. 2 is a diagram illustrating an example of a signal processing flow of the image processing unit 7. FIG. 3 is a diagram for explaining signal conversion in each configuration of the image processing unit 7. In FIG. 3, functions for signal conversion are simplified and represented as a map for easy understanding. 3A is a color map of the B image generating unit 71, FIG. 3B is a claim level map of the B claim determining unit 72, and FIG. 3C is a B image weight determining unit 73, respectively. 3D shows a color map of the flow image generation unit 74, FIG. 3E shows an assertion map of the flow assertion determination unit 75, and FIG. 3F shows a map of the weight function of the flow image weight determination unit 76. . Each map shows that the higher the white color, the larger the numerical value. FIG. 4 is a diagram illustrating an example of a detailed color map of the flow image generation unit 74 according to the present embodiment. FIG. 5 is a diagram schematically illustrating the image processing according to the present embodiment.

画像処理部7は、B画像生成部71(第1の画像生成部)、B主張度決定部72(第1の主張度決定部)、B画像重み決定部73(第1の重み決定部)、フロー画像生成部74(第2の画像生成部)、フロー主張度決定部75(第2の主張度決定部)、フロー画像重み決定部76(第2の重み決定部)、及び画像合成部77を含んで構成される。   The image processing unit 7 includes a B image generation unit 71 (first image generation unit), a B assertion determination unit 72 (first assertion determination unit), and a B image weight determination unit 73 (first weight determination unit). , A flow image generation unit 74 (second image generation unit), a flow assertion determination unit 75 (second assertion determination unit), a flow image weight determination unit 76 (second weight determination unit), and an image synthesis unit 77.

ここでは、一例として、図5に示すように、B画像生成部71で生成されるB画像(第1の画像データ、図5A)と、フロー画像生成部74で生成されるフロー画像(第2の画像データ、図5B)と、を画像合成部77で画像合成(図5C)する態様を示す。その際、画像合成部77は、B主張度決定部72、B画像重み決定部73、フロー主張度決定部75、フロー画像重み決定部76を経て、画素領域ごとに決定されたB画像の重み係数w及びフロー画像の重み係数wに基づいて、画像合成を行う。尚、「画素領域」とは、一画素の領域、又は複数の画素で一区画を形成する領域を意味する。 Here, as an example, as shown in FIG. 5, a B image (first image data, FIG. 5A) generated by the B image generation unit 71 and a flow image (second image) generated by the flow image generation unit 74 5B) is combined with the image data (FIG. 5C) by the image combining unit 77. At this time, the image synthesizing unit 77 passes the weight of the B image determined for each pixel region through the B assertion degree determining unit 72, the B image weight determining unit 73, the flow assertion degree determining unit 75, and the flow image weight determining unit 76. based on the weighting coefficients w F coefficients w B and a flow image, performs image synthesis. The “pixel region” means a region of one pixel or a region where a plurality of pixels form one section.

尚、画像合成した際、重み係数が大きい画像の方が、より鮮明に表示されることになる。但し、本実施形態に係る画像合成処理は、B画像の重み係数w及びフロー画像の重み係数wの合計値が一定になるように規制することなく、画素ごとの重みを決定している。言い換えると、B画像の重み係数w及びフロー画像の重み係数wは、合計値が100%になるように調整されることなく決定される。そうすることで、画像合成部77は、信号強度が小さい信号を弱い画像として生成する(詳細は、図7を参照して後述)。 When the images are combined, an image having a larger weighting coefficient is displayed more clearly. However, the image composition processing according to this embodiment, without the total value of the weighting factor w F weighting factor w B and flow images of the B image is regulated to be constant, and determines the weight for each pixel . In other words, the weighting factor w F weighting factor w B and flow images of the B picture, the total value is determined without being adjusted to 100%. By doing so, the image synthesizing unit 77 generates a signal with a small signal intensity as a weak image (details will be described later with reference to FIG. 7).

B画像生成部71は、フレーム単位のB信号が入力され、各画素領域に対応するB信号を画素値Iに変換することにより、B画像を生成する。B画像生成部71は、図3Aに示すように、B信号の信号強度を画素値Iに変換する関数(B画像用カラーマップ)に基づいて設定された情報、例えばLUT(Lookup table)や数式を参照して、B画像を生成するデータ生成部である。B画像生成部71は、例えば、B信号の信号強度が大きいほど、グレースケールの輝度値が大きくなるように、B信号を画素値Iに変換する。尚、B画像の画素値Iは、RGB成分に関する色空間ベクトルであり、例えば、RGB成分それぞれについて256階調で表された値である。グレースケールの輝度値が大きい状態とは、例えば、RGB成分が大きい状態で表される。 B image generation unit 71, the B signal of the frame is input by converting the B signal corresponding to each pixel area to the pixel value I B, generates a B-picture. B image generation unit 71, as shown in FIG. 3A, information set based on a function (B-image color map) for converting the signal intensity of the B signal to the pixel value I B, Ya e.g. LUT (Lookup table) A data generation unit that generates a B image by referring to a mathematical expression. B image generation unit 71, for example, as the signal intensity of the B signal is large, so that the brightness value of the gray scale increases, to convert the B signal to the pixel value I B. The pixel value I B of the B picture is a color space vector for the RGB components, for example, a value expressed by 256 gradations for each RGB component. The state where the grayscale luminance value is large is represented, for example, by the state where the RGB components are large.

フロー画像生成部74は、フレーム単位のフロー信号が入力され、各画素領域に対応するフロー信号を画素値Iに変換することにより、フロー画像を生成する。フロー画像生成部74は、図3Dに示すように、フロー信号を画素値Iに変換する関数(フロー画像用カラーマップ)に基づいて設定された情報、例えばLUTや数式を参照して、フロー画像を生成するデータ生成部である。ここでは、フロー画像生成部74は、速度(Velocity)とパワー(Power)の2成分のフロー信号によって、画素値を決定するものとする。尚、フロー画像の画素値Iは、B画像と同様に、例えば、RGB成分に関する色空間ベクトルであり、RGB成分それぞれについて256階調で表された値である。 Flow image generating unit 74, the flow signal in units of frames is input, by converting the flow signal corresponding to each pixel area to the pixel value I F, and generates a flow image. Flow image generating unit 74, as shown in FIG. 3D, with reference information set on the basis of a function that converts a flow signal to the pixel value I F (flow image color map), for example, a LUT and formulas, flow It is a data generation unit that generates an image. Here, it is assumed that the flow image generation unit 74 determines the pixel value based on the two-component flow signal of the velocity (Velocity) and the power (Power). Incidentally, the pixel value I F flows image, similar to the B picture, for example, a color space vector for the RGB components, which is a value expressed by 256 gradations for each RGB component.

尚、フロー画像用カラーマップは、より詳細には、図4に示すように、超音波振動子1に向かってくる速度の方向はR成分の輝度値が大きくなって赤色で表され(D)、反対に、超音波振動子1から遠ざかる方向はB成分の輝度値が大きくなって青色で表されるように設定されている(B)。尚、図4に示す横軸の速度成分は、グラフ中央の位置が速度0を表し、グラフ中央から左側が遠ざかる方向の速度、グラフ中央から右側が向かってくる方向の速度を表している。又、フロー画像用カラーマップは、パワーが大きいほど、RGBすべての成分の輝度値が大きくなるように設定されている(B)(D)。他方、パワーが小さい場合には、バックグラウンドのノイズ成分である可能性が高いため、RGB成分の輝度値の比率が略12:10:5の茶色となるように設定されている(A)(E)。又、速度が小さい場合には、血流以外の対象物からくる不要なドプラ信号によるモーションアーチファクトである可能性が高いため、同様に、RGB成分の輝度値の比率が略12:10:5の茶色となるように設定されている(C)。   More specifically, as shown in FIG. 4, the flow image color map is represented in red by increasing the luminance value of the R component in the direction of the speed approaching the ultrasonic vibrator 1 (D). Conversely, the direction away from the ultrasonic transducer 1 is set so that the luminance value of the B component increases and is represented in blue (B). In the velocity component on the horizontal axis shown in FIG. 4, the position at the center of the graph represents velocity 0, the velocity in the direction away from the center of the graph to the left, and the velocity in the direction from the center of the graph to the right. The color map for the flow image is set so that the greater the power, the greater the luminance values of all the RGB components (B) and (D). On the other hand, when the power is small, it is highly possible that the noise component is a background noise component, so that the ratio of the luminance values of the RGB components is set to be approximately 12: 10: 5 brown (A) ( E). Also, when the speed is low, there is a high possibility that the motion artifact is caused by unnecessary Doppler signals coming from an object other than the blood flow, and similarly, the ratio of the luminance values of the RGB components is approximately 12: 10: 5. The color is set to be brown (C).

B主張度決定部72は、フレーム単位のB信号が入力され、各画素領域に対応するB信号に基づいて、各画素領域に対応する主張度aを決定する(以下、「B主張度a」と言う)。そして、B主張度決定部72は、B信号をB主張度aに変換することによって、B画像重み決定部73及びフロー画像重み決定部76において、B信号とフロー信号とを比較しうるように正規化する。このとき、B主張度決定部72は、B画像とフロー画像とを画像合成した後に、各画素領域でB画像の特徴が表れるように、フレーム単位のB主張度aを決定する。言い換えると、B主張度aは、B画像の画素値Iに応じた値にもなっている。 The B assertion determination unit 72 receives the B signal in frame units and determines an assertion a B corresponding to each pixel region based on the B signal corresponding to each pixel region (hereinafter, “B assertion a” B "). Then, B claims degree determination unit 72, by converting the B signal to B claims of a B, as in B image weight determination unit 73 and a flow image weight determination unit 76 may compare the B signal and flow signal Is normalized to In this case, B claims degree determination unit 72, a B image and flow image after image synthesis, as characterized in the B image at each pixel region appears to determine the B claims of a B frame units. In other words, the B assertion degree a B is also a value corresponding to the pixel value IB of the B image.

B主張度決定部72は、B信号の信号強度とB主張度aとを対応付ける関数に基づいて設定された情報、例えばLUTや数式を参照して、B信号の二次元データからB主張度aの二次元データを生成するデータ生成部である。B主張度決定部72が、B信号をB主張度aに変換する際の関数の一例を図3Bに示している。B主張度決定部72は、ここでは、B信号の信号強度(Intensity)が大きくなるに応じてB主張度aが大きい値として決定する。 B claims degree determination unit 72, B signals signal strength and B claims of a B and information set on the basis of the function associating, for example with reference to the LUT and formulas, B claims degree from the two-dimensional data of the B signals a is a data generation unit that generates two-dimensional data of B. B claims degree determination unit 72, shows an example of a function when converting B signal to B claims of a B in Figure 3B. B claims degree determination unit 72 is here determined as B claims of a B larger value in accordance with the signal intensity of the B signal (Intensity) increases.

フロー主張度決定部75は、フレーム単位のフロー信号が入力され、B主張度決定部72と同様に、各画素領域に対応するフロー信号に基づいて、各画素領域に対応する主張度aを決定する(以下、「フロー主張度a」と言う)。そして、フロー主張度決定部75は、フロー信号の速度、パワー、分散をフロー主張度aに変換することによって、B画像重み決定部73及びフロー画像重み決定部76において、B信号とフロー信号とを比較しうるように正規化する。フロー主張度決定部75は、B画像とフロー画像とを画像合成した後に、各画素領域でフロー画像の特徴が表れるようにフレーム単位のフロー主張度aを決定する。言い換えると、フロー主張度aは、フロー画像の画素値Iに応じた値にもなっている。 Flow claimed degree determination unit 75, the flow signal in units of frames is input, similarly to B claims degree determination unit 72, based on the flow signal corresponding to each pixel region, the claims of a F corresponding to each pixel region Is determined (hereinafter, referred to as “flow assertion a F ”). Then, the flow assertion determination unit 75 converts the speed, power, and variance of the flow signal into a flow assertion aF , so that the B image weight determination unit 73 and the flow image weight determination unit 76 determine the B signal and the flow signal. Is normalized so that can be compared with Flow claimed degree determination unit 75, a B image and flow image after image synthesis, determines the flow claims of a F frame basis as feature appears in the flow image in each pixel region. In other words, the flow claims of a F, which is also a value corresponding to the pixel value I F flows image.

フロー主張度決定部75は、フロー信号の速度及びパワーとフロー主張度aとを対応付ける関数に基づいて設定された情報、例えばLUTや数式を参照して、フロー信号の二次元データからフロー主張度aの二次元データを生成するデータ生成部である。フロー主張度決定部75が、フロー信号をフロー主張度aに変換する際の関数の一例を図3Eに示している。フロー主張度決定部75は、ここでは、フロー信号の速度やパワーが大きくなるに応じて、フロー主張度aを大きい値に決定する。尚、B主張度決定部72及び/又はフロー主張度決定部75は、B信号又はフロー信号から主張度を決定する際、線形関数を用いてもよいが、非線形関数を用いるのがより好適である。例えば、ガンマカーブを用いることで、より適切な主張度を決定することができる。 Flow claimed degree determination unit 75, information set on the basis of the function associating the speed and power and flow claims of a F of the flow signal, for example with reference to the LUT and formulas, flow claims from two-dimensional data of the flow signal a data generation unit for generating two-dimensional data in degrees a F. Flow claimed degree determination unit 75, shows an example of a function when converting a flow signal to the flow claims of a F in Figure 3E. Flow claimed degree determination unit 75, where, depending on the speed and power of the flow signal is increased, is determined to a large value flows claims of a F. When determining the degree of claim from the B signal or the flow signal, the B claim degree determining unit 72 and / or the flow claim degree determining unit 75 may use a linear function, but it is more preferable to use a non-linear function. is there. For example, by using a gamma curve, a more appropriate assertion degree can be determined.

B主張度a、フロー主張度aは、ここでは、各画素領域に対応するスカラー値とする。B主張度a、フロー主張度aは、画素領域ごとに決定されるため、画素領域ごとに異なる値をとり得る状態となっている。そして、上記したとおり、B信号の信号強度、フロー信号の速度、パワーが大きいほど、当該B主張度a及びフロー主張度aは大きい値に決定され、対応する画像の重み係数w、wも大きくなる。但し、B主張度a、フロー主張度aは、複数次元のベクトルとしてもよい。そうすることで、B画像重み決定部73及びフロー画像重み決定部76にて、重み係数w、wを決定する際に、フロー信号の多元的な情報をより扱いやすくすることができる。 B claims of a B, flow claims of a F is used herein to scalar values corresponding to each pixel region. B claims of a B, flow claims of a F is because it is determined for each pixel region, in a state that can take different values for each pixel region. Then, as described above, the signal intensity of the B signal, as the speed of the flow signal, the power is large, the B claims of a B and a flow claims of a F is determined to a large value, the weighting factor of the corresponding image w B, w F also increases. However, B claims of a B, the flow claims of a F, may be a vector of multiple dimensions. In doing so, in B picture weight determination unit 73 and a flow image weight determination unit 76, weighting coefficient w B, in determining the w F, it can be more manageable multifactorial information flow signal.

B画像重み決定部73には、B主張度決定部72からフレーム単位のB主張度aが入力され、フロー主張度決定部75からフレーム単位のフロー主張度aが入力されている。そして、B画像重み決定部73は、対応する各画素領域のB主張度a及びフロー主張度aに基づいて、B画像に対する重み係数wを画素ごとに決定する(以下、「B画像重み係数w」と言う)。つまり、B画像重み決定部73は、B画像のB主張度aとフロー画像のフロー主張度aの両方を考慮して、視認性がよくなるように、画像合成の際のB画像重み係数wを決定する。B画像重み決定部73は、例えば、B主張度a及びフロー主張度aからB画像重み係数wを算出する関数に基づいて設定された情報、例えばLUTや数式を参照して、B主張度a及びフロー主張度aの二次元データからB画像重み係数wの二次元データを生成するデータ生成部である。 The B picture weight determination unit 73, B claims of a B frame units from B claims degree determination unit 72 is input, the flow claims of a F frame units is input from the flow claims determining section 75. Then, B picture weight determination unit 73, based on B claims of a B and a flow claims of a F of each pixel region corresponding to determine the weighting factor w B for the B image for each pixel (hereinafter, "B image say that the weighting coefficient w B "). That, B image weight determination unit 73, taking into account both the flow claims of a F a B claims of a B and flow images of the B picture, so visibility is good, B picture weighting factor in image synthesis to determine the w B. B image weight determination unit 73, for example, B claims of a B and information set on the basis of the flow claims of a F a function for calculating a B picture weighting factor w B, for example with reference to the LUT and formulas, B it is claimed degree a B and flow claims degree data generating unit that generates a two-dimensional data of a B picture weighting coefficients from two-dimensional data of the F w B.

B画像重み決定部73は、例えば、図3Cに示すように、フロー主張度aが大きい場合にはB画像重み係数wが小さい値となり、フロー主張度aが小さい場合にはB画像重み係数wが大きい値となるようにB画像重み係数wを算出する(図7を参照して後述する)。 B image weight determination unit 73, for example, as shown in FIG. 3C, becomes smaller values B picture weighting factor w B when the flow claims of a F is large, when the flow claims of a F is small B image weight coefficient w B calculates the B picture weighting factor w B so that the larger value (to be described later with reference to FIG. 7).

フロー画像重み決定部76には、B画像重み決定部73と同様に、B主張度決定部72からフレーム単位のB主張度aが入力され、フロー主張度決定部75からフレーム単位のフロー主張度aが入力されている。そして、フロー画像重み決定部76は、フレーム単位のB主張度aとフレーム単位のフロー主張度aが入力され、対応する各画素領域のB主張度a及びフロー主張度aに基づいて、フロー画像に対する重み係数wを画素ごとに決定する(以下、「フロー画像重み係数w」と言う)。つまり、フロー画像重み決定部76は、B画像のB主張度aとフロー画像のフロー主張度aの両方を考慮して、視認性がよくなるように、画像合成の際のフロー画像重み係数wを決定する。フロー画像重み決定部76は、例えば、B主張度a及びフロー主張度aからフロー画像重み係数wを算出する関数に基づいて設定された情報、例えばLUTや数式を参照して、B主張度a及びフロー主張度aの二次元データからフロー画像重み係数wの二次元データを生成するデータ生成部である。 The flow image weight determination unit 76, as with B image weight determiner 73, B claims degree B claims of a B frame units is input from the determining unit 72, flow claims frames from the flow claims degree determination unit 75 degrees a F is input. Then, the flow image weight determination unit 76 is input flow claimed degree a F a B claims of a B frame units of the frame unit, based on B claims of a B and a flow claims of a F of each pixel region corresponding Te, determines the weighting coefficient w F for the flow image for each pixel (hereinafter, referred to as "flow image weighting factor w F"). In other words, the flow image weight determination unit 76, taking into account both the flow claims of a F a B claims of a B and flow images of the B picture, so visibility is good, the flow image weight factor in the image synthesis Determine w F. Flow image weight determination unit 76, for example, B claims of a B and information set on the basis of the flow claims of a F a function for calculating the flow image weighting factor w F, for example with reference to the LUT and formulas, B claims of a data generation unit for generating two-dimensional data of a B and flow claims of a flow image weight coefficients from two-dimensional data of the F w F.

フロー画像重み決定部76は、例えば、図3Fに示すように、B主張度aがフロー主張度aよりも大きい場合、フロー画像重み係数wが小さい値となるように決定し、B主張度aがフロー主張度aよりも小さい場合、フロー画像重み係数wが大きい値となるように決定する(図7を参照して後述する)。尚、B画像重み決定部73、フロー画像重み決定部76は、B主張度a、フロー主張度aから重み係数を決定する際、線形関数を用いてもよいが、非線形関数を用いるのがより好適である。例えば、ガンマカーブを用いることで、より適切な重み係数を決定することができる。 Flow image weight determination unit 76, for example, as shown in FIG. 3F, when B claims of a B is greater than the flow claims of a F, determined as the flow image weighting factor w F is a small value, B If claims of a B is smaller than the flow claims of a F, determined as the flow image weighting factor w F is a large value (to be described later with reference to FIG. 7). Incidentally, the B picture weight determination unit 73, the flow image weight determination unit 76, B claims of a B, when determining the weighting factor from the flow claims of a F, may be used a linear function, using a non-linear function Is more preferable. For example, a more appropriate weighting factor can be determined by using a gamma curve.

尚、B画像重み決定部73とフロー画像重み決定部76は、B主張度aとフロー主張度aを用いて、B画像重み係数w、フロー画像重み係数wを決定する二入力二出力の一個の重み決定部で構成してもよい。 Note that the B image weight determination unit 73 and the flow image weight determination unit 76 use the two inputs to determine the B image weight coefficient w B and the flow image weight coefficient w F using the B claim degree a B and the flow claim level a F. It may be constituted by one weight determination unit having two outputs.

B画像重み係数w、フロー画像重み係数wは、それぞれ、B画像の画素値I、フロー画像の画素値Iを画像合成する際の重みである。ここでは、それぞれ、B画像の画素値Iに乗算する0≦w≦1のスカラー値、フロー画像の画素値Iに乗算する0≦w≦1のスカラー値とする。つまり、ここでは、画像重み係数w、フロー画像重み係数wを適切に調整することによって、B画像とフロー画像のコントラストを適切に調整し、視認性を向上させる。但し、当該B画像に対する重み、フロー画像に対する重みは、色空間ベクトルの各成分それぞれについて異なる重みを設定可能なベクトルとしてもよい。そうすることで、血流の色を特に視認しやすくしたりすることができる。 B picture weighting factor w B, the flow image weighting factor w F, respectively, the pixel value I B of the B picture is a weight at the time of image synthesis the pixel value I F flows image. Here, each, 0 ≦ w scalar value B ≦ 1 for multiplying the pixel value I B of the B picture, and 0 ≦ w scalar value F ≦ 1 for multiplying the pixel value I F flows image. That is, here, by appropriately adjusting the image weight coefficient w B and the flow image weight coefficient w F , the contrast between the B image and the flow image is appropriately adjusted, and the visibility is improved. However, the weight for the B image and the weight for the flow image may be vectors in which different weights can be set for each component of the color space vector. By doing so, the color of the blood flow can be particularly easily recognized.

画像合成部77には、B画像生成部71からB画像、フロー画像生成部74からフロー画像が入力されている。又、画像合成部77には、B画像重み決定部73から画素ごとに設定されたB画像重み係数w、フロー画像重み決定部76から画素ごとに設定されたフロー画像重み係数wが入力されている。そして、画像合成部77は、対応する画素領域のB画像重み係数wに基づいて、画素ごとにB画像の画素値Iを反映させる度合いを決定するとともに、対応する画素領域のフロー画像重み係数wに基づいて、画素ごとにフロー画像の画素値Iを反映させる度合いを決定して、画像合成を行う。 The image combining unit 77 receives a B image from the B image generating unit 71 and a flow image from the flow image generating unit 74. Also, the B image weighting factor w B set for each pixel from the B image weight determining unit 73 and the flow image weighting factor w F set for each pixel from the flow image weight determining unit 76 are input to the image combining unit 77. Have been. Then, the image synthesis unit 77, based on the B image weight factor w B of the corresponding pixel region, and determines the degree of reflecting the pixel value I B of the B picture for each pixel, the flow image weight of the corresponding pixel region based on the coefficients w F, to determine the degree to reflect the pixel values I F flows image for each pixel, performs image synthesis.

画像合成部77は、例えば、以下の式(1)を用いて、画像合成した際の画素ごとの画素値Ioutを決定することができる。
out=I・w+I・w ・・・式(1)
(但し、Iout、I、IはRGB成分の色空間ベクトル、w、wはベクトルに対する係数を表す)
The image synthesizing unit 77 can determine the pixel value I out for each pixel when the images are synthesized, for example, using the following equation (1).
I out = I B · w B + I F · w F Equation (1)
(However, I out, I B, I F is a color space vector of RGB components, w B, w F represents a coefficient for the vector)

以上のようにして、画像合成部77は、B画像とフロー画像とを画像合成する。そして、表示部8は、画像合成部77に求められた画素ごとの画素値Ioutに基づいて、画像を表示することになる。尚、表示部8の前段に、DSCを設けて、このようにして生成された画像信号に対して座標変換処理をしたり、データ補間処理をしてもよいのは勿論である。 As described above, the image combining unit 77 combines the B image and the flow image. Then, the display unit 8 displays an image based on the pixel value I out for each pixel obtained by the image synthesis unit 77. It is needless to say that a DSC may be provided in the preceding stage of the display unit 8 to perform a coordinate conversion process or a data interpolation process on the image signal generated in this way.

尚、ここでは、画像処理部7は、B画像を静止画として生成してバッファメモリに格納し、フロー画像を動画として生成して血流の動きにあわせて逐次変化させるものとする。但し、上記したとおり、B画像とフロー画像とをともに動画として生成するべく、B信号生成部5及びフロー信号生成部6は、同じ受信エコー信号からB信号とフロー信号を生成してもよい。   Here, it is assumed that the image processing unit 7 generates the B image as a still image, stores the still image in the buffer memory, generates the flow image as a moving image, and sequentially changes the flow image in accordance with the movement of the blood flow. However, as described above, in order to generate both the B image and the flow image as a moving image, the B signal generation unit 5 and the flow signal generation unit 6 may generate the B signal and the flow signal from the same received echo signal.

(具体例)
以下、図6〜図8を参照して、本実施形態に係る画像処理部7によって生成される画像の具体例について説明する。
(Concrete example)
Hereinafter, a specific example of an image generated by the image processing unit 7 according to the present embodiment will be described with reference to FIGS.

図6は、B画像重み係数wとフロー画像重み係数wに応じた画像合成の結果の違いを説明する図である。図6は、B画像とフロー画像を画像合成する際の重み係数w、wを画像の中で一様に設定した場合の態様を示している。 Figure 6 is a diagram for explaining the difference in result of the image synthesis in accordance with the B picture weighting factor w B and flow image weight factor w F. 6, the weight coefficient w B when the image synthesizing B image and flow image, which shows a mode in the case of uniformly setting the w F in the image.

図6に示すように、画像の中で一様にB画像重み係数wとフロー画像重み係数wを決定してしまうと、例えば、B画像重み係数wを大きくした場合(図6中の点線で囲むA領域)には、B画像は鮮明に表現されるものの、RGB成分すべてが大きくなるため、フロー画像の血流の色が薄れてしまう。特に、フロー画像の中で細い血管等を表す弱い色の領域は、B画像に埋もれて消失してしまう。一方、画像の中で一様に、フロー画像重み係数wをB画像重み係数wよりも大きく設定した場合(図6中の一点鎖線で囲むB領域)、フロー画像は鮮明に表現されるものの、フロー画像が薄い領域であるにも関わらず、B画像も不鮮明になってしまう。つまり、画像の中で一様にB画像重み係数wとフロー画像重み係数wを決定した場合には、色表現したいすべての態様を鮮明に表すことはできない。加えて、画像合成をする際には、一方の画像の画素値によっては、他方の画像の影響を小さくした方がよい場合もある。 As shown in FIG. 6, if the B image weight coefficient w B and the flow image weight coefficient w F are determined uniformly in the image, for example, when the B image weight coefficient w B is increased (see FIG. 6) (A region surrounded by the dotted line), the B image is clearly displayed, but all of the RGB components are large, so that the color of the blood flow in the flow image is faded. In particular, a weakly colored region representing a thin blood vessel or the like in the flow image is buried in the B image and disappears. On the other hand, uniformly in the image, if you set larger than the flow image weight factor w F a B picture weighting factor w B (enclosed by dashed line in FIG. 6 B region), the flow image is clearly expressed However, the B image becomes unclear even though the flow image is a thin area. That is, when determining the uniform B picture weighting factor w B and flow image weight factor w F in the image can not be clearly represent all aspects to be color representation. In addition, when synthesizing images, depending on the pixel values of one image, it may be better to reduce the influence of the other image.

図7は、本実施形態に係る重み係数w、wの決定方法の一例を説明する図である。本実施形態では、上記の問題点に鑑みて、両者の画像の色に応じた主張度a、aを考慮して、画素ごとに両者の重み係数w、wを決定している。 7, the weighting factor w B according to this embodiment and is a view for explaining an example of a method of determining the w F. In the present embodiment, in view of the above problem, the weighting factors w B and w F are determined for each pixel in consideration of the degrees of assertion a B and a F according to the colors of the two images. .

図7A、図7Bは、それぞれ、図5AのB画像、図5Bのフロー画像であり、説明の便宜として、B信号の信号強度及びフロー信号の速度、パワーの違いに応じた領域分けを行っている。ここでは、B主張度aは、B画像の画素値Iに応じた値となっており、B主張度aが大きい状態とは、B信号の信号強度が大きく、B画像のグレースケールの輝度値も大きい状態とする。又、同様に、フロー主張度aは、フロー画像の画素値Iに応じた値となっており、フロー主張度aが大きい状態とは、フロー信号の速度、パワーが大きく、フロー画像のR成分又はB成分の輝度値も大きい状態とする。具体的には、R1領域は、B主張度aが大きく、フロー主張度aが小さい領域を表し、R2領域は、B主張度aとフロー主張度aがともに大きい領域を表し、R3領域は、B主張度aとフロー主張度aがともに小さい領域を表し、R4領域は、B主張度aが小さく、フロー主張度aが大きい領域を表している。 7A and 7B are the B image of FIG. 5A and the flow image of FIG. 5B, respectively. For convenience of explanation, the regions are divided according to the difference in the signal strength of the B signal, the speed of the flow signal, and the power. I have. Here, B claims of a B is a value corresponding to the pixel value I B of the B picture, and the state B claims of a B is large, large signal intensity of the B signal is, grayscale B image Is also in a state where the luminance value is large. Similarly, the flow claims of a F, has a value corresponding to the pixel value I F flows image, the state flow claims of a F is large, the speed of the flow signal, the power is large, the flow image The luminance value of the R component or the B component is also large. Specifically, R1 region, B claims of a B large, represent areas flow claims of a F is small, R2 region, B claims of a B and flow claims of a F represents both large area, R3 region, B claims degree represents a B and flow claims of a F are small regions, R4 area, B claims of a B small, represents a flow claims of a F a large area.

図7C、図7Dは、それぞれ、B画像重み決定部73及びフロー画像重み決定部76の関数をカラーマップとして表したものである。領域R1、R2、R3、R4は、それぞれ、図7A、図7Bの領域R1、R2、R3、R4のB主張度aとフロー主張度aの関係に対応する。ここでは、B画像重み係数w、フロー画像重み係数wは、それぞれ、0≦w≦1のスカラー値、0≦w≦1のスカラー値として、白色が強いほど数値が大きいことを示している。 FIGS. 7C and 7D show the functions of the B image weight determining unit 73 and the flow image weight determining unit 76, respectively, as a color map. Regions R1, R2, R3, R4, respectively, FIG. 7A, corresponding to the relationship between the regions R1, R2, R3, B claims of the R4 a B and flow claims of a F in Figure 7B. Here, B picture weighting factor w B, the flow image weighting factor w F, respectively, the scalar values of 0 ≦ w B ≦ 1, as a scalar value of 0 ≦ w F ≦ 1, the numerical values as a white strong large Is shown.

図7C、図7Dから把握できるように、B画像重み決定部73及びフロー画像重み決定部76は、B主張度aとフロー主張度aとに基づいて、B画像とフロー画像とが互いに視認しやすくなるように、画素ごとのB画像重み係数w及びフロー画像重み係数wを決定する。具体的には、B主張度aが大きく、フロー主張度aが小さい場合には(R1領域)、B画像の色を強く反映させるべく、B画像重み係数wが中間値よりも大きくなり、フロー画像重み係数wが中間値よりも小さくなるように決定する。又、B主張度aとフロー主張度aがともに大きい場合には(R2領域)、フロー画像の色を強く反映させるべく、フロー画像重み係数wが中間値よりも大きくなり、B画像重み係数wが中間値よりも小さくなるように決定する。又、フロー主張度aが大きく、B主張度aが小さい場合には(R4領域)、フロー画像の色を強く反映させるべく、フロー画像重み係数wが中間値よりも大きくなるとともに、B画像重み係数wが中間値よりも小さくなるように決定する。又、B主張度aとフロー主張度aがともに小さい場合には(R3領域)、フロー画像とB画像どちらの色も暗くならないように、フロー画像重み係数w及びB画像重み係数wがともに中間値よりも大きくなるように決定する。このようにして決定された重み係数w、wを用いて、上記式(1)によって、図7Eのように画像合成がなされる。 Figure 7C, as can be understood from FIG. 7D, B image weight determination unit 73 and a flow image weight determination unit 76, B claims of a B and on the basis of the flow claims of a F, B image and flow image and each other as easily visible, determining the B picture weighting factor w B and a flow image weight factor w F for each pixel. Specifically, when the B assertion degree a B is large and the flow assertion degree a F is small (R1 region), the B image weight coefficient w B is larger than the intermediate value in order to strongly reflect the color of the B image. it is determined as the flow image weighting factor w F is smaller than the intermediate value. Also, if B claims of a B and flow claims of a F are both large (R2 area), to reflect strongly the color flow image, the flow image weight factor w F becomes larger than the intermediate value, B image the weighting factor w F is determined to be smaller than the intermediate value. Further, the flow claims of a F is large, if B claims of a B small (R4 area), to reflect strongly the color flow image, together with the flow image weight factor w F is larger than the intermediate value, B picture weighting factor w B is determined to be smaller than the intermediate value. Also, if B claims of a B and flow claims of a F are both small (R3 region), so as not flow and B images both colors darker, flow image weighting factor w F and B image weighting coefficients w B is determined to be larger than the intermediate value. Using the weighting factors w B and w F determined in this way, the image is synthesized as shown in FIG. 7E by the above equation (1).

言い換えると、B画像重み決定部73及びフロー画像重み決定部76は、一般的な画像合成であるアルファブレンド処理のように、B画像重み係数wとフロー画像重み係数wの合計値が100%となるような調整を行わず、B画像重み係数wとフロー画像重み係数wの合計が100%未満又は100%以上の状態を許容する。すなわち、画像合成する際、ある画素領域(第1の画素領域)と他の画素領域(第2の画素領域)とで、B画像重み係数wとフロー画像重み係数wの合計値が、互いに異なる状態を許容する。その上で、B画像重み決定部73及びフロー画像重み決定部76は、B信号の信号強度とフロー信号の速度、パワーとが互いに視認しやすくなるように、画素ごとのB画像重み係数w及びフロー画像重み係数wを決定する。そうすることで、信号強度が小さい信号を弱い画像として表示することが可能となる。特に、R3領域のように、細い血管等の血流を示すフロー画像は、B画像に埋もれてしまう場合があるが、このような事態を抑制することができる。 In other words, B image weight determination unit 73 and a flow image weight determination unit 76, as the alpha blend process is a general image synthesis, the total value of the B image weighting factor w B and flow image weight factor w F 100 % become such adjusted without the accumulation of the B picture weighting factor w B and flow image weight factor w F permits the state of more than 100% or less than 100%. That is, when an image synthesizing, out with a pixel region (first pixel regions) and the other pixel region (second pixel regions), the total value of the B image weighting factor w B and flow image weight factor w F is, Allow different states. Then, the B image weight determining unit 73 and the flow image weight determining unit 76 perform a B image weighting coefficient w B for each pixel so that the signal strength of the B signal and the speed and power of the flow signal can be easily recognized from each other. and determining the flow image weighting factor w F. By doing so, it is possible to display a signal with a small signal strength as a weak image. In particular, a flow image indicating a blood flow of a thin blood vessel or the like like the R3 region may be buried in the B image, but such a situation can be suppressed.

尚、当該演算方法を用いると、画像合成後の画像データにおいて、RGB成分のいずれかが、上限値を超える場合もある。具体的には、RGB成分のいずれかにおいて、256階調のうち255の値を超える場合もある。このような場合には、当該成分については上限値である255とすればよい。   In addition, when the calculation method is used, any of the RGB components may exceed the upper limit in the image data after the image synthesis. Specifically, in any of the RGB components, the value may exceed 255 of 256 gradations. In such a case, the upper limit of the component may be set to 255.

図8Aは、本実施形態に係る画像処理部7によって生成したカラードプラ画像の他の一例を示す図である。図8Bは、比較例として、従来技術(特許文献1)に係る方法を用いて生成したカラードプラ画像を示す図である。図8A、図8Bは、いずれも、同一の測定条件で、同一の甲状腺を撮像して生成されたカラードプラ画像である。尚、甲状腺は、直径が数百μm程度の細い血管である。   FIG. 8A is a diagram illustrating another example of the color Doppler image generated by the image processing unit 7 according to the present embodiment. FIG. 8B is a diagram illustrating, as a comparative example, a color Doppler image generated using the method according to the related art (Patent Document 1). 8A and 8B are color Doppler images generated by imaging the same thyroid gland under the same measurement conditions. The thyroid gland is a thin blood vessel having a diameter of about several hundred μm.

図8Aでは、図8Bと比較して、弱い血流が弱く見えていることを視認することができる。そして、図8Aでは、このように弱い血流が途切れたりすることなく、安定した状態で定位置に確認することができる。一方、図8Bでは、フロー画像とB画像の一方のみを表示されるように、閾値でカットオフする処理を施しているため、B画像とフロー画像の境界部分が過度に強い色で表示されている。そして、図8Bでは、フロー信号が弱くなると、B画像のみが表示されてフロー画像の色が消失するため、撮像している際に、この弱い血流が途切れたり、定位置に表示されなかったりする。   In FIG. 8A, it can be visually recognized that the weak blood flow looks weaker than in FIG. 8B. In FIG. 8A, it is possible to confirm a stable blood flow at a fixed position without interruption of the weak blood flow. On the other hand, in FIG. 8B, since a process of cutting off with a threshold value is performed so that only one of the flow image and the B image is displayed, the boundary between the B image and the flow image is displayed in an excessively strong color. I have. In FIG. 8B, when the flow signal is weak, only the B image is displayed and the color of the flow image disappears. Therefore, during imaging, the weak blood flow is interrupted or is not displayed at a fixed position. I do.

以上のように、本実施形態に係る超音波診断装置によれば、B主張度決定部72及びフロー主張度決定部75が、それぞれ、B信号及びフロー信号に基づいて、B画像及びフロー画像それぞれに対応した画素ごとの主張度a、aを決定する構成を有する。これによって、B信号とフロー信号を比較可能に正規化し、B画像とフロー画像を合成した後の画像に、それぞれの画像をどの程度反映させるかを画素ごとに決定することができる。 As described above, according to the ultrasonic diagnostic apparatus according to the present embodiment, the B assertion degree determination unit 72 and the flow assertion degree determination unit 75 perform the B image and the flow image based on the B signal and the flow signal, respectively. Is determined to determine the degrees of assertion a B and a F for each pixel corresponding to. This makes it possible to normalize the B signal and the flow signal so that they can be compared, and determine, for each pixel, how much each image is reflected in the image after the B image and the flow image are combined.

そして、B画像重み決定部73及びフロー画像重み決定部76が、重み係数の合計値が一定になるように規制をすることなく、B主張度aとフロー主張度aに基づいて、画素ごとのB画像の重み係数w及びフロー画像の重み係数wを決定する。これによって、B信号の信号強度とフロー信号の速度、パワー、分散とが互いに視認しやすくなるように、画像合成の際のそれぞれの画像の寄与度を画素ごとに決定することができる。そして、画像合成部77は、このようにして決定された重み係数w、wに基づいて、B画像とフロー画像を画素ごとに重み付け合成するため、B画像上でフロー画像を自然に、且つ、滑らかに表現することができる。 Then, B picture weight determination unit 73 and a flow image weight determination unit 76, without the total value of the weighting factor to the regulated to be constant, based on B claims of a B and flow claims of a F, the pixel determining a weighting factor w F weighting factor w B and flow images of each of the B picture. This makes it possible to determine the contribution of each image at the time of image synthesis for each pixel so that the signal strength of the B signal and the speed, power, and variance of the flow signal are easily recognized from each other. Then, the image combining unit 77 weights and combines the B image and the flow image for each pixel based on the weighting factors w B and w F determined in this manner. And it can be expressed smoothly.

つまり、本実施形態に係る画像合成によって、細い血管のようにフロー信号の速度、パワーが小さい場合には、かかる状態を視認できるように表示することが可能となり、弱い血流のつながりを自然に表示でき、立体感を表現することができる。その結果、時間的に変化していくカラードプラ画像においても、この弱い血流を途切れさせたりすることなく、安定した状態で定位置に表示することができる。   In other words, by the image synthesis according to the present embodiment, when the speed and power of the flow signal are small like a thin blood vessel, it is possible to display such a state so that the flow state can be visually recognized, and the connection of the weak blood flow naturally occurs. It can be displayed, and a three-dimensional effect can be expressed. As a result, even in a color Doppler image that changes with time, the weak blood flow can be displayed at a fixed position in a stable state without interruption.

又、本実施形態に係るB主張度決定部72及びフロー主張度決定部75は、それぞれ、画素値に変換される前の、B信号及びフロー信号(速度、パワー、分散)に基づいて、B画像の重み係数w及びフロー画像の重み係数wを決定する構成となっている。そのため、B画像重み決定部73及びフロー画像重み決定部76は、B信号及びフロー信号の持つ多元的な情報を用いて、重み係数w、wを決定することが可能である。言い換えると、画素値に変換することによって、フロー信号に含まれる速度、パワー、分散等の多元的情報が消失してしまうことを抑制できる。例えば、血管壁等のように超音波エコーが強い範囲には血流が存在しない可能性が高いという特性を利用して、フロー信号の持つ速度、分散、パワーに係る信号強度が一定値以下で、B信号の持つ信号強度が一定値以上の場合には、フロー画像の重み係数wが小さくなるようにする処理も可能である。 Further, the B assertion degree determining unit 72 and the flow assertion degree determining unit 75 according to the present embodiment respectively perform the B assertion based on the B signal and the flow signal (speed, power, variance) before being converted into pixel values. and it has a configuration of determining the weighting coefficients w F weighting factor w B and flow images of the image. Therefore, the B image weight determining unit 73 and the flow image weight determining unit 76 can determine the weighting factors w B and w F by using the multiple information of the B signal and the flow signal. In other words, by converting the pixel values into pixel values, it is possible to suppress the loss of multiple information such as speed, power, and variance included in the flow signal. For example, utilizing the characteristic that there is a high possibility that blood flow does not exist in a range where an ultrasonic echo is strong, such as a blood vessel wall, the speed, dispersion, and power of a flow signal are less than a certain value. , if the signal strength with the B signal is above a certain value, the process to make the weighting coefficient w F of the flow image is reduced is also possible.

(変形例1)
次に、図9を参照して、変形例1に係る画像処理装置(画像処理部7a)について説明する。図9は、変形例1に係る画像処理部7aの信号処理フローの一例を示す図である。本実施形態に係る画像処理部7aは、B主張度決定部72aの構成の点で、上記実施形態と相違する。尚、上記実施形態と共通する構成については、説明を省略する(以下、他の実施形態についても同様)。
(Modification 1)
Next, an image processing device (image processing unit 7a) according to a first modification will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of a signal processing flow of the image processing unit 7a according to the first modification. The image processing unit 7a according to the present embodiment is different from the above embodiment in the configuration of the B assertion determination unit 72a. The description of the configuration common to the above embodiment is omitted (the same applies to other embodiments below).

本実施形態に係るB主張度決定部72aには、B信号に代えて、B信号生成部5で、受信エコー信号に係る信号強度を対数圧縮、フィルタリング処理等をする前の信号(ここでは、説明の便宜として、「B1信号」と言う)が入力されている。そして、B主張度決定部72aは、当該B1信号に基づいて、B主張度aを決定している。 Instead of the B signal, the B assertion determination unit 72a according to the present embodiment replaces the B signal with the signal before performing logarithmic compression, filtering, and the like on the signal strength of the received echo signal (here, For convenience of explanation, this is referred to as “B1 signal”). Then, B claims degree determination unit 72a, based on the B1 signal, and determines the B claims of a B.

受信エコー信号に係る信号強度は、対数圧縮、フィルタリング処理等する過程で、受信エコー信号に含まれる多元的な情報が過度に消失してしまうおそれがある。この点、本実施形態に係るB主張度決定部72aは、B1信号を用いてB主張度aを決定することで、より高精度にノイズ成分等を検出し、その後の、B画像重み決定部73、フロー画像重み決定部76における処理に活かすことができる。 Regarding the signal strength of the received echo signal, there is a possibility that multiple information included in the received echo signal may be excessively lost in the course of logarithmic compression, filtering processing, and the like. In this respect, B claims degree determination unit 72a according to this embodiment, by determining the B claims of a B with B1 signal, detecting a noise component or the like more accurately, later, B image weight determination This can be utilized for processing in the unit 73 and the flow image weight determination unit 76.

尚、ここでは、B主張度決定部72aがB1信号を用いる態様を説明したが、フロー主張度決定部75aに入力されるフロー信号についても、同様に、フィルタリング処理等がなされる前の信号を用いてもよいのは勿論である。   Here, the mode in which the B assertion degree determination unit 72a uses the B1 signal has been described. However, the flow signal input to the flow assertion degree determination unit 75a is similarly determined as the signal before the filtering processing or the like is performed. Of course, it may be used.

(変形例2)
次に、図10を参照して、変形例2に係る画像処理装置(画像処理部7b)について説明する。図10は、変形例2に係る画像処理部7bの信号処理フローの一例を示す図である。変形例2に係る画像処理部7bは、主張度決定部75bの構成の点で、上記実施形態と相違する。
(Modification 2)
Next, an image processing device (image processing unit 7b) according to Modification 2 will be described with reference to FIG. FIG. 10 is a diagram illustrating an example of a signal processing flow of the image processing unit 7b according to the second modification. The image processing unit 7b according to the second modification is different from the above embodiment in the configuration of the assertion determination unit 75b.

主張度決定部75bには、フレーム単位のフロー信号(二次元データ)が入力されて、各画素領域に対応するフロー信号に基づいて、画素ごとのフロー主張度a及びB主張度aが決定される。具体的には、主張度決定部75bは、例えば、上記実施形態と同様に、フロー主張度aを決定し、そのフロー主張度aを反転させた値として、B主張度aを決定する。この場合、例えば、フロー主張度aを0≦a≦1のスカラー値として決定し、a=1−aのスカラー値と決定すればよい。つまり、本実施形態に係る主張度決定部75bは、B信号を参照することなく、B主張度aを決定する構成となっている。 The claims determining section 75b, and the flow signal in units of frames (two-dimensional data) is input, based on the flow signal corresponding to each pixel region, a flow claims of a F and B claims of a B for each pixel It is determined. Specifically, claiming determining section 75b, for example, as in the above embodiment, the determination to determine the flow claims of a F, as a value obtained by inverting the flow claims of a F, the B claims of a B I do. In this case, for example, to determine the flow claims of a F as a scalar value of 0 ≦ a F1, may be determined as the scalar value a B = 1-a F. That assertion determining section 75b according to this embodiment, without reference to the B signal, and has a configuration that determines the B claims of a B.

そして、B画像重み決定部73、フロー画像重み決定部76は、それぞれ、上記実施形態と同様に、フロー主張度a及びB主張度aに基づいて、B画像重み係数w、フロー画像重み係数wを決定する。 Then, the B image weight determining unit 73 and the flow image weight determining unit 76 respectively determine the B image weight coefficient w B and the flow image weight B based on the flow assertion a F and the B assertion a B in the same manner as in the above embodiment. to determine the weighting factor w F.

このように、フロー主張度aを考慮してB主張度aを適宜決定すれば、B信号を参照しないでも、カラー表示が視認しにくくなることは、防止できる。例えば、フロー主張度aが一定値以上の場合には、B主張度aを中間値よりも小さい値に決定する。このようにすることで、上記実施形態と比較して、B画像の視認性は悪化するものの、部品点数を削減したり、処理負荷を軽減したりすることができる。 Thus, if appropriately determined in consideration of the flow claims of a F and B claims of a B, also without referring to B signal, is a color display is hardly visible, can be prevented. For example, the flow claims of a F is the case of more than a predetermined value, determines the B claims of a B to a value smaller than the intermediate value. By doing so, the visibility of the B image is deteriorated as compared with the above embodiment, but the number of components can be reduced and the processing load can be reduced.

(変形例3)
次に、変形例3に係る画像処理装置(画像処理部7)について説明する。変形例3に係る画像処理部7cは、画像合成部77cの構成の点で、上記実施形態と相違する。
(Modification 3)
Next, an image processing device (image processing unit 7) according to Modification 3 will be described. The image processing unit 7c according to the third modification is different from the above embodiment in the configuration of the image synthesis unit 77c.

この変形例3に係る画像合成部77cは、以下の式(2)を用いて、画像合成した際の画素ごとの画素値(色空間ベクトル)Ioutを決定する。
out=I+w+I+w ・・・式(2)
(但し、Iout、I、I、w、wは、それぞれ、RGB成分の色空間ベクトルを表す)
The image synthesizing unit 77c according to Modification 3 determines a pixel value (color space vector) I out for each pixel at the time of image synthesis using Expression (2) below.
I out = I B + w B + IF + w F Equation (2)
(However, I out , I B , IF , w B , and w F represent the color space vectors of the RGB components, respectively)

ここでは、B画像重み係数w及びフロー画像重み係数wは、B画像重み決定部73及びフロー画像重み決定部76によって、色空間ベクトルとして決定されているものとする。言い換えると、B画像重み決定部73及びフロー画像重み決定部76は、色空間ベクトルの各成分の輝度を明るく又は暗く調整することによって、B信号の信号強度とフロー信号の速度、パワー、分散とが互いに視認しやすくなるようにする。 Here, it is assumed that the B image weight coefficient w B and the flow image weight coefficient w F have been determined as color space vectors by the B image weight determination unit 73 and the flow image weight determination unit 76. In other words, the B image weight determination unit 73 and the flow image weight determination unit 76 adjust the brightness of each component of the color space vector to be bright or dark, so that the signal strength of the B signal and the speed, power, and variance of the flow signal are adjusted. Are easy to see each other.

尚、上記では、画像合成部77cが画素値(色空間ベクトル)Ioutを決定する際の算出方法として、加減算のみを示したが、乗算と加減算の組み合わせとしてもよいのは勿論である。この場合、乗算が一方のコントラストを調整する処理に相当し、加減算が一方の色空間ベクトルの各成分の輝度を明るく又は暗く調整する処理に相当する。 In the above description, only the addition and subtraction are shown as the calculation method when the image synthesis unit 77c determines the pixel value (color space vector) I out , but it is needless to say that a combination of multiplication and addition and subtraction may be used. In this case, the multiplication corresponds to a process of adjusting one of the contrasts, and the addition and subtraction corresponds to a process of adjusting the brightness of each component of the one color space vector to be bright or dark.

(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
(Other embodiments)
The present invention is not limited to the above embodiment, and various modifications can be made.

上記実施形態では、カラードプラ画像の一例として、Bモード画像にフロー画像として血流画像を重畳させる態様を示したが、フロー画像は、血流画像に限らず、組織ドプラ画像、エラストグラフィ画像等に任意の画像であってもよいのは勿論である。又、本実施形態に係る画像処理装置は、カラードプラ画像以外の用途にも適用することができる。言い換えると、複数の又は一のセンサから異なる2つの信号(第1の検出信号、第2の検出信号)の二次元データを取得して、当該二次元データに基づいて生成された2つの画像データを画像合成する用途に対しては、上記実施形態と同様に、用いることができる。   In the above embodiment, as an example of the color Doppler image, a mode in which a blood flow image is superimposed as a flow image on a B-mode image has been described. However, a flow image is not limited to a blood flow image, and may be a tissue Doppler image, an elastography image, or the like. Of course, any image may be used. Further, the image processing apparatus according to the present embodiment can be applied to uses other than color Doppler images. In other words, two-dimensional data of two different signals (a first detection signal and a second detection signal) are acquired from a plurality of or one sensor, and two image data generated based on the two-dimensional data are acquired. Can be used for the purpose of synthesizing the image as in the above embodiment.

又、上記実施形態では、B主張度決定部72、フロー主張度決定部75の一例として、それぞれ、B画像を生成する前のB信号、フロー画像を生成する前のフロー信号に基づいて、B主張度及びフロー主張度を決定する態様を示した。しかし、これに代えて、B主張度決定部72は、B画像の画素ごとの画素値Iに基づいて、画素ごとのB主張度aをする構成としてもよいし、同様に、フロー主張度決定部75は、フロー画像の画素ごとの画素値Iに基づいて、画素ごとのフロー主張度aを決定する構成にしてもよい。 In the above-described embodiment, as examples of the B assertion degree determination unit 72 and the flow assertion degree determination unit 75, based on the B signal before generating the B image and the flow signal before generating the flow image, respectively, The manner of determining the assertion level and the flow assertion level has been described. However, instead of this, B claims degree determination unit 72, based on the pixel value I B of each pixel of the B picture, may be used as the configuration for the B claims of a B for each pixel, similarly, flow claims degree determination unit 75, based on the pixel value I F for each pixel of the flow image may be configured to determine the flow claims of a F for each pixel.

又、上記実施形態では、画像処理部7の一例として、B主張度決定部72及びフロー主張度決定部75、並びに、B画像重み決定部73及びフロー画像重み決定部76を設け、パラレルに信号処理する態様を示した。しかし、かかる信号処理は、必ずしもパラレルに行う必要はなく、シングルスレッドとしてB信号とフロー信号とを順に信号処理する態様としてもよい。   In the above-described embodiment, as an example of the image processing unit 7, the B assertion degree determining unit 72 and the flow assertion degree determining unit 75, and the B image weight determining unit 73 and the flow image weight determining unit 76 are provided. The mode of processing is shown. However, such signal processing does not necessarily need to be performed in parallel, and the signal processing may be performed on the B signal and the flow signal in order as a single thread.

又、上記実施形態では、B信号生成部5、フロー信号生成部6、画像処理部7の一例として、DSPで構成されたデジタル演算回路を示したが、これらの構成は、一部又は全部が乗算器、加算器、絶対値演算器等のハードウェア回路によって実現されてもよいし、CPU(Central Processing Unit)がプログラムに従って演算処理することによって実現されてもよい。又、これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。又、走査部4は、CPUがプログラムに従って処理を実行することで実現することができるが、走査部4も、同様に、タイミング発生回路等を用いてハードウェア回路のみによって構成してもよい。   Further, in the above-described embodiment, a digital operation circuit configured by a DSP is shown as an example of the B signal generation unit 5, the flow signal generation unit 6, and the image processing unit 7. However, these configurations are partially or entirely configured. It may be realized by a hardware circuit such as a multiplier, an adder, an absolute value calculator, or may be realized by a CPU (Central Processing Unit) performing arithmetic processing according to a program. These may be individually formed into one chip, or may be formed into one chip so as to include some or all of them. The scanning unit 4 can be realized by a CPU executing processing in accordance with a program. However, the scanning unit 4 may be similarly configured only with a hardware circuit using a timing generation circuit or the like.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。   As mentioned above, although the specific example of this invention was demonstrated in detail, these are only illustrations and do not limit a claim. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.

本明細書および添付図面の記載により、少なくとも以下の事項が明らかとなる。   At least the following matters will be made clear by the description in the present specification and the accompanying drawings.

第1及び第2の画像データそれぞれの各画素領域に対応する主張度a、aを決定する主張度決定部72、75と、前記第1及び第2の画像データそれぞれの各画素領域に対応する主張度a、aに基づいて、第1及び第2の画像データそれぞれに対する画素領域ごとの重みw、wを決定する重み決定部73、76と、前記第1及び第2の画像データそれぞれに対する画素領域ごとの重みw、wに基づいて、第1及び第2の画像データを重み付け合成する画像合成部77と、を備える画像処理装置を開示する。この画像処理装置によれば、第1及び第2の画像データの画素値等に応じて、それぞれの重みを決定し、第1及び第2の画像データが互いに視認しやすいように、画像合成することができる。 The assertion determination units 72 and 75 for determining the assertions a B and a F corresponding to the respective pixel regions of the first and second image data, and the respective pixel regions of the first and second image data. Weight determining units 73 and 76 for determining weights w B and w F for each pixel region with respect to the first and second image data based on the corresponding assertion degrees a B and a F; And an image synthesizing unit 77 for weighting and synthesizing the first and second image data based on the weights w B and w F of the respective pixel regions for the respective image data. According to this image processing apparatus, the respective weights are determined according to the pixel values of the first and second image data and the like, and the images are synthesized so that the first and second image data can be easily recognized from each other. be able to.

又、この画像処理装置は、センサで検出された、第1及び第2の画像データを生成する第1及び第2の検出信号それぞれの二次元データに基づいて、前記第1及び第2の画像データそれぞれの各画素領域に対応する主張度a、aを決定するものであってもよい。この画像処理装置によれば、第1及び第2の画像データを生成する第1及び第2の検出信号に応じて、第1及び第2の画像データが互いに視認しやすいように、画像合成することができる。 Further, the image processing apparatus is configured to detect the first and second images based on two-dimensional data of first and second detection signals which generate first and second image data detected by a sensor. The assertion levels a B and a F corresponding to the respective pixel regions of the data may be determined. According to this image processing device, the images are synthesized according to the first and second detection signals for generating the first and second image data so that the first and second image data can be easily recognized from each other. be able to.

又、前記重み決定部73、76は、前記各画素領域は第1の画素領域及び第2の画素領域を含み、前記第1及び第2の画像データそれぞれに対する画素領域ごとの重みw、wを決定する際、当該第1の画像データに対する重みwと当該第2の画像データに対する重みwの合計値が、前記第1の画素領域と前記第2の画素領域とで互いに異なるものであってもよい。この画像処理装置によれば、第1及び第2の画像データの画素値等に応じて、それぞれの重みを決定し、第1及び第2の画像データが互いに視認しやすいように、画像合成することができる。 In addition, the weight determination units 73 and 76 determine that each of the pixel regions includes a first pixel region and a second pixel region, and the weights w B and w for each of the first and second image data for each pixel region. in determining the F, the total value of the weights w F for weights w B and the second image data with respect to the first image data, different ones in the first pixel region and the second pixel regions It may be. According to this image processing apparatus, the respective weights are determined according to the pixel values of the first and second image data and the like, and the images are synthesized so that the first and second image data can be easily recognized from each other. be able to.

又、この画像処理装置は、超音波診断装置に用いられ、第1の画像データは、Bモード画像データとして生成され、第2の画像データは、カラーフロー画像データとして生成されるものであってもよい。この画像処理装置によれば、細い血管のようにフロー信号の信号強度が小さい場合には、かかる状態を視認できるように表示することが可能となり、弱い血流のつながりを自然に表示でき、立体感を表現することができる。   Further, the image processing apparatus is used for an ultrasonic diagnostic apparatus, wherein the first image data is generated as B-mode image data, and the second image data is generated as color flow image data. Is also good. According to this image processing apparatus, when the signal intensity of the flow signal is small, such as a thin blood vessel, it is possible to display such a state so that the state can be visually recognized, and the connection of weak blood flow can be displayed naturally, The feeling can be expressed.

又、前記主張度決定部72、75は、超音波受信器3で検出された受信信号に係るB信号に基づいて前記第1の画像データの各画素領域に対応する主張度a、aを決定し、超音波受信器3で検出された受信信号に係るフロー信号に基づいて前記第2の画像データの各画素領域に対応する主張度を決定するものであってもよい。この画像処理装置によれば、B信号とフロー信号を比較可能に正規化し、B画像とフロー画像を合成した後の画像に、それぞれの画像をどの程度反映させるかを画素ごとに決定することができる。 In addition, the assertion determining units 72 and 75 determine the assertion a B , a F corresponding to each pixel region of the first image data based on the B signal related to the reception signal detected by the ultrasonic receiver 3. May be determined, and the degree of assertion corresponding to each pixel region of the second image data may be determined based on the flow signal related to the reception signal detected by the ultrasonic receiver 3. According to this image processing apparatus, the B signal and the flow signal are normalized so that they can be compared with each other, and it is possible to determine for each pixel how much each image is to be reflected in the image after the B image and the flow image are combined. it can.

又、前記超音波受信器で検出された受信信号に係るフロー信号は、速度、パワー、分散のうち少なくとも2つを含むものであってもよい。この画像処理装置によれば、フロー信号の多元的情報を消失することなく扱える主張度決定部の構成をより活かすことができる。   Further, the flow signal related to the received signal detected by the ultrasonic receiver may include at least two of speed, power, and dispersion. According to this image processing device, it is possible to make more use of the configuration of the assertion determination unit that can handle the plural information of the flow signal without losing it.

又、この画像処理装置において、前記画像合成部77は、前記第1及び第2の画像データそれぞれに対する画素領域ごとの重みw、wに基づく、第1及び第2の画像データそれぞれの画素領域ごとの画素値に対する乗算処理を含むものであってもよい。この画像処理装置によれば、それぞれの重みに基づいて、第1及び第2の画像データのコントラストを適切に調整することができる。 Further, in this image processing apparatus, the image synthesizing unit 77 is configured to control the pixels of the first and second image data based on the weights w B and w F for each of the pixel regions for the first and second image data. It may include a multiplication process on the pixel value for each area. According to this image processing device, it is possible to appropriately adjust the contrast of the first and second image data based on the respective weights.

又、前記画像合成部77は、前記第1及び第2の画像データそれぞれに対する画素領域ごとの重みw、wに基づく、第1及び第2の画像データそれぞれの画素領域ごとの画素値に対する加減算処理を含むものであってもよい。この画像処理装置によれば、それぞれの重みに基づいて、第1及び第2の画像データの色空間ベクトルの各成分の輝度を適切に調整することができる。 Further, the image synthesizing unit 77 is configured to calculate a pixel value of each of the first and second image data based on the weights w B and w F of each of the first and second image data. It may include addition and subtraction processing. According to this image processing device, it is possible to appropriately adjust the luminance of each component of the color space vector of the first and second image data based on each weight.

又、前記主張度決定部72、75は、非線形関数に基づいて、前記第1及び第2の画像データそれぞれの各画素領域に対応する主張度a、aを決定するものであってもよい。この画像処理装置によれば、より適切な主張度を決定することができる。 Also, the assertion determining units 72 and 75 may determine the assertions a B and a F corresponding to each pixel region of each of the first and second image data based on a nonlinear function. Good. According to this image processing apparatus, a more appropriate claim level can be determined.

又、前記重み決定部73、76は、非線形関数に基づいて、前記第1及び第2の画像データそれぞれに対する画素領域ごとの重みw、wを決定するものであってもよい。この画像処理装置によれば、より適切な重みを決定することができる。 Further, the weight determination units 73 and 76 may determine weights w B and w F for each of the pixel regions for the first and second image data based on a nonlinear function. According to this image processing device, a more appropriate weight can be determined.

又、コンピュータに、第1及び第2の画像データそれぞれの各画素領域に対応する主張度を決定する処理と、前記第1及び第2の画像データそれぞれの各画素領域に対応する主張度に基づいて、第1及び第2の画像データそれぞれに対する画素領域ごとの重みを決定する処理と、前記第1及び第2の画像データそれぞれに対する画素領域ごとの重みに基づいて、第1及び第2の画像データを重み付け合成する処理と、を実行させる画像処理プログラムを開示する。   Further, the computer determines a claim level corresponding to each pixel region of each of the first and second image data, and performs a process based on the claim level corresponding to each pixel region of each of the first and second image data. Determining a weight for each pixel region for each of the first and second image data, and a first and second image based on the weight for each pixel region for each of the first and second image data. An image processing program for performing a process of weighting and combining data is disclosed.

本開示は、二つの画像を画像合成する際に、画像の視認性を向上させることを可能とする画像処理装置に好適に用いることができる。   INDUSTRIAL APPLICABILITY The present disclosure can be suitably used for an image processing apparatus that can improve the visibility of images when combining two images.

1 超音波探触子
2 送信部
3 受信部
4 走査部
5 B信号生成部
6 フロー信号生成部
7 画像処理部
8 表示部
71 B画像生成部
72 B主張度決定部
73 B画像重み決定部
74 フロー画像生成部
75 フロー主張度決定部
76 フロー画像重み決定部
77 画像合成部
B主張度
フロー主張度
B画像重み係数
フロー画像重み係数
B画像の画素値
フロー画像の画素値
out 合成画像の画素値
REFERENCE SIGNS LIST 1 ultrasonic probe 2 transmission unit 3 reception unit 4 scanning unit 5 B signal generation unit 6 flow signal generation unit 7 image processing unit 8 display unit 71 B image generation unit 72 B assertion determination unit 73 B image weight determination unit 74 flow image generating unit 75 flows claims degree determination unit 76 flow image weight determination unit 77 the image synthesizing unit a B B claims of a F flow claims degree w B B picture weighting factor w F flow image weight factor I B B image pixel value I Pixel value of F flow image Pixel value of I out composite image

Claims (10)

超音波診断装置に適用される画像処理装置であって、
前記超音波診断装置が第1の撮像モードで動作する際に取得される第1の検出信号に基づいて、当該第1の検出信号から生成される第1の画像データの各画素領域に対応する第1の主張度を決定する第1の主張度決定部と、
前記超音波診断装置が第2の撮像モードで動作する際に取得される第2の検出信号に基づいて、当該第2の検出信号から生成される第2の画像データの各画素領域に対応する第2の主張度を決定する第2の主張度決定部と、
前記第1及び第2の画像データそれぞれの各画素領域に対応する前記第1及び第2の主張度に基づいて、前記第1の画像データに対する画素領域ごとの第1の重みを決定する第1の重み決定部と、
前記第1及び第2の画像データそれぞれの各画素領域に対応する前記第1及び第2の主張度に基づいて、前記第2の画像データに対する画素領域ごとの第2の重みを決定する第2の重み決定部と、
前記第1及び第2の画像データそれぞれに対する画素領域ごとの前記第1及び第2の重みに基づいて、前記第1及び第2の画像データを重み付け合成する画像合成部と、
を備え
前記第1及び第2の重み決定部は、前記第1の重みと前記第2の重みの合計値に規制されることなく、前記第1及び第2の重みを決定する、
画像処理装置。
An image processing apparatus applied to an ultrasonic diagnostic apparatus,
Based on a first detection signal acquired when the ultrasonic diagnostic apparatus operates in a first imaging mode, the ultrasonic diagnostic apparatus corresponds to each pixel region of first image data generated from the first detection signal. A first assertion determining unit for determining a first assertion,
Based on a second detection signal obtained when the ultrasonic diagnostic apparatus operates in the second imaging mode, the ultrasonic diagnostic apparatus corresponds to each pixel region of the second image data generated from the second detection signal. A second claim level determining unit for determining a second claim level;
A first weighting unit that determines a first weight for each pixel area with respect to the first image data based on the first and second degrees of assertion corresponding to each pixel area of each of the first and second image data; Weight determination unit,
A second weighting unit for determining a second weight for each pixel area with respect to the second image data based on the first and second assertions corresponding to each pixel area of each of the first and second image data; Weight determination unit,
An image combining unit based on said first and second weight for each pixel region, weighted synthesizing the first and second image data for each of the first and second image data,
Equipped with a,
The first and second weight determination units determine the first and second weights without being restricted by the total value of the first weight and the second weight.
Image processing device.
前記第1及び第2の重み決定部は、The first and second weight determination units are:
前記第1の主張度が中間値よりも大きく、前記第2の主張度が中間値よりも小さい場合、前記第1の重みが中間値よりも大きくなり、前記第2の重みが中間値よりも小さくなるように、前記第1及び第2の重みを決定し、If the first degree of assertion is greater than the intermediate value and the second degree of assertion is less than the intermediate value, the first weight is greater than the intermediate value and the second weight is greater than the intermediate value. Determining the first and second weights to be smaller,
前記第1の主張度が中間値よりも大きく、前記第2の主張度が中間値よりも大きく場合、前記第1の重みが中間値よりも小さくなり、前記第2の重みが中間値よりも大きくなるように、前記第1及び第2の重みを決定し、If the first degree of assertion is greater than the intermediate value and the second degree of assertion is greater than the intermediate value, the first weight will be less than the intermediate value and the second weight will be less than the intermediate value. Determining the first and second weights to be larger;
前記第1の主張度が中間値よりも小さく、前記第2の主張度が中間値よりも大きい場合、前記第1の重みが中間値よりも大きくなり、前記第2の重みが中間値よりも大きくなるように、前記第1及び第2の重みを決定し、If the first degree of assertion is less than the intermediate value and the second degree of assertion is greater than the intermediate value, the first weight is greater than the intermediate value and the second weight is greater than the intermediate value. Determining the first and second weights to be larger;
前記第1の主張度が中間値よりも小さく、前記第2の主張度が中間値よりも小さい場合、前記第1の重みが中間値よりも大きくなり、前記第2の重みが中間値よりも大きくなるように、前記第1及び第2の重みを決定する、If the first degree of assertion is less than the intermediate value and the second degree of assertion is less than the intermediate value, the first weight is greater than the intermediate value and the second weight is greater than the intermediate value. Determining the first and second weights to be larger;
請求項1に記載の画像処理装置。The image processing device according to claim 1.
前記第1の主張度決定部は、前記第1の検出信号に基づいて、直接的に、前記第1の画像データの各画素領域に対応する前記第1の主張度を決定し、The first assertion level determination unit directly determines the first assertion level corresponding to each pixel region of the first image data based on the first detection signal,
前記第2の主張度決定部は、前記第2の検出信号に基づいて、直接的に、前記第2の画像データの各画素領域に対応する前記第2の主張度を決定する、The second assertion level determination unit directly determines the second assertion level corresponding to each pixel region of the second image data based on the second detection signal.
ことを特徴とする請求項1又は2に記載の画像処理装置。The image processing apparatus according to claim 1, wherein:
前記画像合成部は、以下の式(1)に基づいて、前記第1及び第2の画像データを重み付け合成する、The image combining unit weights and combines the first and second image data based on the following equation (1).
ことを特徴とする請求項1乃至3いずれか一項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein:
I outout =I= I B ・w・ W B +I+ I F ・w・ W F ・・・式(1)  ... Equation (1)
(但し、I(However, I outout は画像合成により生成された画像の画素値、IIs the pixel value of the image generated by the image synthesis, I B は前記第1の画像データのRGB成分の色空間ベクトル、IIs a color space vector of an RGB component of the first image data, I F は前記第2の画像データのRGB成分の色空間ベクトル、wIs a color space vector of an RGB component of the second image data, w B は前記第1の重み、wIs the first weight, w F は前記第2の重み)Is the second weight)
前記第1の検出信号は、B画像を生成するB信号であり、The first detection signal is a B signal for generating a B image,
前記第2の検出信号は、フロー画像を生成するフロー信号である、The second detection signal is a flow signal for generating a flow image,
ことを特徴とする請求項1乃至4いずれか一項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein:
前記画像合成部は、前記第1及び第2の画像データそれぞれに対する画素領域ごとの前記第1及び第2の重みに基づく、前記第1及び第2の画像データそれぞれの画素ごとの画素値に対する加減算処理を含む
ことを特徴とする請求項1乃至5いずれか一項に記載の画像処理装置。
The image synthesizing section, the first and based on said first and second weight for each pixel region to the second image data each, addition and subtraction with respect to the first and second image data pixel value of each pixel The image processing apparatus according to claim 1 , further comprising a process.
前記第1及び第2の主張度決定部は、非線形関数に基づいて、前記第1及び第2の画像データそれぞれの各画素領域に対応する前記第1及び第2の主張度を決定する
ことを特徴とする請求項1乃至5いずれか一項に記載の画像処理装置。
It said first and second claims degree determination unit, based on the non-linear function, determining said first and second claims degree corresponding to the first and second image data each of pixel regions The image processing apparatus according to any one of claims 1 to 5, wherein
前記第1及び第2の重み決定部は、非線形関数に基づいて、前記第1及び第2の画像データそれぞれに対する画素ごとの前記第1及び第2の重みを決定する
ことを特徴とする請求項1乃至5いずれか一項に記載の画像処理装置。
It said first and second weight determination section, the claims based on the non-linear function, and determines the first and second weight for each pixel with respect to each of the first and second image data The image processing apparatus according to any one of claims 1 to 5 .
請求項1乃至いずれか一項に記載の画像処理装置を備える超音波診断装置。 Ultrasonic diagnostic apparatus including an image processing apparatus according to any one of claims 1 to 8. 超音波診断装置に適用される画像処理プログラムであって、
コンピュータに、
前記超音波診断装置が第1の撮像モードで動作する際に取得される第1の検出信号に基づいて、前記第1の検出信号から生成される第1の画像データの各画素領域に対応する第1の主張度を決定する第1処理と、
前記超音波診断装置が第2の撮像モードで動作する際に取得される第2の検出信号に基づいて、前記第2の検出信号から生成される第2の画像データの各画素領域に対応する第2の主張度を決定する第2処理と、
前記第1及び第2の画像データそれぞれの各画素領域に対応する前記第1及び第2の主張度に基づいて、第1の画像データに対する画素領域ごとの第1の重みを決定する第3処理と、
前記第1及び第2の画像データそれぞれの各画素領域に対応する前記第1及び第2の主張度に基づいて、第2の画像データに対する画素領域ごとの第2の重みを決定する第4処理と、
前記第1及び第2の画像データそれぞれに対する画素領域ごとの前記第1及び第2の重みに基づいて、前記第1及び第2の画像データを重み付け合成する第5処理と、を実行させる
画像処理プログラムであって、
前記第3及び第4処理では、前記第1の重みと前記第2の重みの合計値に規制されることなく、前記第1及び第2の重みを決定する、
画像処理プログラム。
An image processing program applied to an ultrasonic diagnostic apparatus,
On the computer,
Based on a first detection signal obtained when the ultrasonic diagnostic apparatus operates in a first imaging mode, the ultrasonic diagnostic apparatus corresponds to each pixel region of first image data generated from the first detection signal. A first process for determining a first claim level;
Based on a second detection signal obtained when the ultrasonic diagnostic apparatus operates in the second imaging mode, the ultrasonic diagnostic apparatus corresponds to each pixel region of the second image data generated from the second detection signal. A second process for determining a second claim level;
A third process of determining a first weight for each pixel region with respect to the first image data based on the first and second assertions corresponding to each pixel region of each of the first and second image data; When,
A fourth process of determining a second weight for each pixel area for the second image data based on the first and second assertions corresponding to each pixel area of each of the first and second image data; When,
Based on the first and second weight for each pixel region for each said first and second image data, image processing to be executed and a fifth process of weighting and combining the first and second image data A program ,
In the third and fourth processes, the first and second weights are determined without being restricted by the total value of the first and second weights.
Image processing program.
JP2016061627A 2016-03-25 2016-03-25 Image processing apparatus, ultrasonic diagnostic apparatus, and image processing program Active JP6677042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016061627A JP6677042B2 (en) 2016-03-25 2016-03-25 Image processing apparatus, ultrasonic diagnostic apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016061627A JP6677042B2 (en) 2016-03-25 2016-03-25 Image processing apparatus, ultrasonic diagnostic apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2017169984A JP2017169984A (en) 2017-09-28
JP6677042B2 true JP6677042B2 (en) 2020-04-08

Family

ID=59969824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016061627A Active JP6677042B2 (en) 2016-03-25 2016-03-25 Image processing apparatus, ultrasonic diagnostic apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP6677042B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6963677B2 (en) * 2018-03-30 2021-11-10 富士フイルム株式会社 Control method of ultrasonic diagnostic equipment and ultrasonic diagnostic equipment

Also Published As

Publication number Publication date
JP2017169984A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
US9895138B2 (en) Ultrasonic diagnostic apparatus
US5931784A (en) Ultrasonic diagnostic apparatus
JP4528529B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image data processing method
JP6033701B2 (en) Ultrasonic diagnostic apparatus and control program therefor
JP5652395B2 (en) Ultrasonic diagnostic equipment
JP6218400B2 (en) Ultrasonic diagnostic apparatus and control program for ultrasonic diagnostic apparatus
US5188113A (en) Ultrasonic diagnosis apparatus
WO2012029287A1 (en) Ultrasound diagnostic device
KR20010051917A (en) Method and apparatus for visualization of motion in ultrasound flow imaging using continuous data acquisition
US11801031B2 (en) Ultrasound diagnosis apparatus
US20240023940A1 (en) Ultrasound diagnostic apparatus
JP5455567B2 (en) Ultrasonic diagnostic equipment
JP6677042B2 (en) Image processing apparatus, ultrasonic diagnostic apparatus, and image processing program
JP4426472B2 (en) Ultrasonic diagnostic equipment
JP2009268734A (en) Ultrasound observation apparatus
JP7343342B2 (en) Ultrasonic diagnostic equipment and image processing equipment
JP2823252B2 (en) Ultrasound diagnostic equipment
JP7171258B2 (en) ULTRASOUND DIAGNOSTIC APPARATUS AND CONTROL METHOD THEREOF
US20220079564A1 (en) Ultrasonic diagnostic apparatus and method of determining scanning condition
JP2019097794A (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and program of the same
JP7377016B2 (en) Ultrasonic image generation device and its control method
JP2023066984A (en) Image processing device, image processing method, and image processing program
JPH1057377A (en) Doppler ultrasonograph
JP2019097795A (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and program of the same
JPS63315040A (en) Ultrasonic diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190708

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200225

R150 Certificate of patent or registration of utility model

Ref document number: 6677042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150