JP5827831B2 - Ultrasonic image processing device - Google Patents

Ultrasonic image processing device Download PDF

Info

Publication number
JP5827831B2
JP5827831B2 JP2011149895A JP2011149895A JP5827831B2 JP 5827831 B2 JP5827831 B2 JP 5827831B2 JP 2011149895 A JP2011149895 A JP 2011149895A JP 2011149895 A JP2011149895 A JP 2011149895A JP 5827831 B2 JP5827831 B2 JP 5827831B2
Authority
JP
Japan
Prior art keywords
dimensional
data
ultrasonic image
dimensional shape
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011149895A
Other languages
Japanese (ja)
Other versions
JP2013013650A (en
Inventor
笠原 英司
英司 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Aloka Medical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Aloka Medical Ltd filed Critical Hitachi Aloka Medical Ltd
Priority to JP2011149895A priority Critical patent/JP5827831B2/en
Publication of JP2013013650A publication Critical patent/JP2013013650A/en
Application granted granted Critical
Publication of JP5827831B2 publication Critical patent/JP5827831B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

本発明は超音波画像処理装置に関し、特に、三次元超音波画像の形成技術に関する。   The present invention relates to an ultrasonic image processing apparatus, and more particularly to a technique for forming a three-dimensional ultrasonic image.

超音波画像処理装置は、例えば超音波診断装置又は情報処理装置として構成される。超音波画像処理装置の中には三次元超音波画像を形成する装置があり、かかる装置では、ボリュームレンダリング法、サーフェイスレンダリング法によって生体内の三次元空間から取得されたボリュームデータに基づいて三次元超音波画像が形成される。   The ultrasonic image processing apparatus is configured as, for example, an ultrasonic diagnostic apparatus or an information processing apparatus. Among ultrasonic image processing apparatuses, there is an apparatus that forms a three-dimensional ultrasonic image. In such an apparatus, a three-dimensional image is generated based on volume data acquired from a three-dimensional space in a living body by a volume rendering method or a surface rendering method. An ultrasound image is formed.

ボリュームレンダリング法では、ボリュームデータに対して複数のレイが設定され、各レイ上において奥行き方向に沿って光の透過モデルに従った演算が順次実行される(特許文献1参照)。ボリュームレンダリング法で構築された三次元超音波画像の場合、組織の境界が不鮮明になりやすい等の問題を指摘し得る。一方、サーフェイスレンダリング法で構築された三次元超音波画像の場合、外表面だけしか画像化されず非常に硬い印象を与える画像になりがちである(なお、特許文献2にはX線CT装置におけるサーフェイスレンダリング法が開示されている)。また、奥行き方向に前後する2つの組織がある場合に手前側の組織に奥側の組織が隠れてしまう可能性がある。いずれの画像も生体組織の表示法として必ずしも最適なものとはなっていない。   In the volume rendering method, a plurality of rays are set for volume data, and an operation according to a light transmission model is sequentially executed along the depth direction on each ray (see Patent Document 1). In the case of a three-dimensional ultrasonic image constructed by the volume rendering method, it may point out a problem that the boundary between tissues tends to be blurred. On the other hand, in the case of a three-dimensional ultrasonic image constructed by the surface rendering method, only the outer surface is imaged and tends to give a very hard image (Note that Patent Document 2 describes an X-ray CT apparatus). Surface rendering methods are disclosed). Further, when there are two tissues that move back and forth in the depth direction, there is a possibility that the tissue on the back side may be hidden behind the tissue on the near side. None of the images is necessarily the most suitable display method for living tissue.

なお、特許文献3にはポリゴンモデルの陰を表示する技術が開示されており、当該技術においては透明度の異なる複数の画像データの重畳処理がなされているようである。しかし、それは生体組織を表示するものではなくコンピュータゲーム技術に関わるものである。   Patent Document 3 discloses a technique for displaying the shadow of a polygon model. In this technique, it seems that a plurality of image data having different transparency are superimposed. However, it does not display biological tissue but is related to computer game technology.

特開平10-033538号公報Japanese Patent Laid-Open No. 10-033538 特開平10-031753号公報Japanese Patent Laid-Open No. 10-031753 特開2002-049932号公報JP 2002-049932 A

本発明の目的は、生体組織を自然に表現した三次元超音波画像を形成することにある。あるいは、本発明の目的は、生体組織から得られた超音波データの特質に適合した三次元超音波画像形成技術を提供することにある。   An object of the present invention is to form a three-dimensional ultrasonic image that naturally represents a living tissue. Alternatively, an object of the present invention is to provide a three-dimensional ultrasonic image forming technique adapted to the characteristics of ultrasonic data obtained from living tissue.

本発明は、生体内三次元空間から取得されたボリュームデータに基づいて三次元超音波画像を形成する超音波画像処理装置において、前記ボリュームデータに基づいて、生体組織における表層部分の三次元形状を表すデータセットとして多重化された複数の三次元形状データを生成する生成手段と、前記複数の三次元形状データに対して複数の重みを設定する設定手段と、前記複数の三次元形状データに対して前記複数の重みを利用した投影処理を適用することにより前記生体組織の三次元超音波画像を形成する形成手段と、を含むことを特徴とする。   The present invention provides an ultrasonic image processing apparatus that forms a three-dimensional ultrasonic image based on volume data acquired from a three-dimensional space in a living body, and determines a three-dimensional shape of a surface layer portion in a biological tissue based on the volume data. Generating means for generating a plurality of three-dimensional shape data multiplexed as a data set to be represented; setting means for setting a plurality of weights for the plurality of three-dimensional shape data; and for the plurality of three-dimensional shape data And forming means for forming a three-dimensional ultrasonic image of the living tissue by applying a projection process using the plurality of weights.

上記構成によれば、ボリュームデータの全体又は一部(例えば関心領域内)に対して画像化のための処理が適用される。具体的には、ボリュームデータから多重化された複数の三次元形状(表面形状データ)データが生成される。各三次元形状データは多数の三角形の集合としてのポリゴンデータであってもよいし、それ以外の表面抽出データであってもよい。複数の三次元形状データは、生体組織の表層部分を複数レイヤあるいは複数階層として表現したものであり、例えばタマネギ内部の多重構造に類似するものである。もっとも、レイヤ間隔又は階層間隔は望ましくは一律ではなく適応的に設定される。このような設定によれば生体組織をより自然に表現することが可能となる。奥行き方向あるいは表面からの深さ方向において、輝度変化がなだらかな部分と急峻な部分とで表面形状データ間の間隔が異なるように構成されるのが望ましい。多重化された複数の三次元形状データが生成されるならば、それに対するレンダリングあるいは投影に際してはボリュームレンダリング、サーフェイスレンダリング、積算投影法、等の各種の手法を利用可能である。望ましくは、サーフェイスレンダリング法が適用される。最大値法や最小値法等の1つの点の輝度データだけが画像化される手法ではなく、視線上の複数の点の輝度データが画素値に反映される手法が用いられるのが望ましい。重みは例えば透明度であるが、輝度に対する他の重みであってもよい。元になるボリュームデータはドプラ情報であってもよい。   According to the above configuration, the processing for imaging is applied to all or part of the volume data (for example, in the region of interest). Specifically, a plurality of three-dimensional shape (surface shape data) data multiplexed from the volume data is generated. Each three-dimensional shape data may be polygon data as a set of a large number of triangles, or other surface extraction data. The plurality of three-dimensional shape data represents the surface layer portion of the living tissue as a plurality of layers or a plurality of layers, and is similar to, for example, a multiplex structure inside an onion. However, the layer interval or the layer interval is preferably set not adaptively but adaptively. According to such a setting, it is possible to express a living tissue more naturally. In the depth direction or the depth direction from the surface, it is desirable that the interval between the surface shape data is different between the portion where the luminance change is gentle and the portion where the luminance change is steep. If a plurality of multiplexed three-dimensional shape data are generated, various methods such as volume rendering, surface rendering, and integral projection method can be used for rendering or projecting the data. Preferably, a surface rendering method is applied. It is desirable to use a method in which the luminance data of a plurality of points on the line of sight is reflected in the pixel value, not the method of imaging only the luminance data of one point such as the maximum value method and the minimum value method. The weight is, for example, transparency, but may be another weight for luminance. The original volume data may be Doppler information.

望ましくは、前記生成手段は、前記ボリュームデータに対して複数の閾値を利用した表面抽出処理を適用することにより前記複数の三次元形状データを生成する。超音波データの性質上一般に、組織表層部分のもっとも外側から内側にかけて次第に輝度が高くなるから複数の閾値を段階的に設定しておけば、組織表層部分の外側から内側にかけての複数のポイントを抽出することが可能となる。その場合に、輝度勾配が緩やかならばポイント間隔が広がることになり、逆に輝度勾配が急峻ならばポイント間隔が狭まることになる。つまり、組織表層部分の局所的な輝度勾配が反映された三次元画像を形成可能である。   Preferably, the generation unit generates the plurality of three-dimensional shape data by applying a surface extraction process using a plurality of threshold values to the volume data. In general, due to the nature of ultrasound data, the brightness gradually increases from the outermost part to the inner part of the tissue surface layer part, so if multiple threshold values are set in stages, multiple points from the outer part to the inner part of the tissue surface part are extracted. It becomes possible to do. In this case, if the luminance gradient is gentle, the point interval is widened. Conversely, if the luminance gradient is steep, the point interval is narrowed. That is, it is possible to form a three-dimensional image reflecting the local luminance gradient of the tissue surface layer portion.

望ましくは、前記形成手段は、前記複数の表面形状データを生成する際に利用した複数の閾値に対応した複数の重みを前記複数の表面形状データに与えてレンダリング処理を実行する。閾値と重みとの対応を表す関数のカーブを変更すれば画質あるいは画像化範囲を変更することができる。望ましくは、前記重み決定手段は、前記閾値が小さいほど前記重みとしての透明度の値を大きくする。但し、他の変化を利用するようにしてもよい。特定の深さだけを強調表示するようなことも容易に実現できる。


Preferably, the forming means executes the rendering process gives a plurality of weights corresponding to a plurality of thresholds utilized in generating a plurality of surface shape data to said plurality of surface shape data. The image quality or imaging range can be changed by changing the curve of the function representing the correspondence between the threshold and the weight. Preferably, the weight determination means increases the value of transparency as the weight as the threshold value is smaller. However, other changes may be used. It is also easy to highlight only a specific depth.


望ましくは、前記生体組織の三次元超音波画像においては前記生体組織の内で柔らかい部分の方が硬い部分に比べて深さ方向の画像化範囲がより大きくなる。望ましくは、前記各表面形状データはポリゴンデータである。   Preferably, in the three-dimensional ultrasonic image of the living tissue, the imaging range in the depth direction is larger in the soft part than in the hard part in the living tissue. Preferably, each surface shape data is polygon data.

本発明によれば、生体組織を自然に三次元超音波画像として表現できる。あるいは、生体組織から得られた超音波データの特質に適合した三次元超音波画像形成技術を提供できる。   According to the present invention, a living tissue can be naturally expressed as a three-dimensional ultrasonic image. Alternatively, it is possible to provide a three-dimensional ultrasonic imaging technique that matches the characteristics of ultrasonic data obtained from biological tissue.

本発明に係る超音波画像処理の好適な実施形態を示すブロック図である。It is a block diagram showing a preferred embodiment of ultrasonic image processing according to the present invention. 図1に示す装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the apparatus shown in FIG. 組織表層部分のエコー強度変化とそれに対する複数の閾値とを示す図である。It is a figure which shows the echo intensity change of a tissue surface layer part, and several threshold value with respect to it. 閾値と透明度との関係を示す図である。It is a figure which shows the relationship between a threshold value and transparency. 複数の三次元形状データに対するレンダリング処理を説明するための図である。It is a figure for demonstrating the rendering process with respect to several 3D shape data. 硬い部分と柔らかい部分に応じたレンダリング処理を説明するための図である。It is a figure for demonstrating the rendering process according to a hard part and a soft part.

以下、本発明の好適な実施形態を図面に基づいて説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.

図1には、本発明に係る超音波画像処理装置の好適な実施形態が示されており、図1はその全体構成を示すブロック図である。本実施形態に係る超音波画像装置は超音波診断装置として構成されており、その装置は生体内における三次元領域から取得されたボリュームデータに基づいて生体組織の三次元画像を形成するものである。この装置は医療分野において用いられる。ちなみに、超音波画像処理装置がコンピュータなどの情報処理機器として構成されてもよい。   FIG. 1 shows a preferred embodiment of an ultrasonic image processing apparatus according to the present invention, and FIG. 1 is a block diagram showing the overall configuration thereof. The ultrasonic imaging apparatus according to the present embodiment is configured as an ultrasonic diagnostic apparatus, and the apparatus forms a three-dimensional image of a living tissue based on volume data acquired from a three-dimensional region in the living body. . This device is used in the medical field. Incidentally, the ultrasonic image processing apparatus may be configured as an information processing device such as a computer.

3Dプローブ10は生体に当接して用いられ、生体内において超音波ビームを二次元走査するものである。3Dプローブ10は本実施形態において複数の振動素子を二次元的に配列してなる2Dアレイ振動子を備えている。図1において、r方向が深さ方向であり、θ方向が第1のビーム走査方向であり、φ方向が第2のビーム走査方向である。通常θ方向に超音波ビームが走査されてビーム走査面が構成され、そのビーム走査面がφ方向に電子的に走査される。もちろん、3Dプローブ10として、1Dアレイ振動子を備えた振動子ユニットを機械的に走査するものを用いるようにしてもよい。図1において符号12は3次元エコーデータすなわちボリュームデータを表している。   The 3D probe 10 is used in contact with a living body, and performs two-dimensional scanning with an ultrasonic beam in the living body. In this embodiment, the 3D probe 10 includes a 2D array transducer formed by two-dimensionally arranging a plurality of vibration elements. In FIG. 1, the r direction is the depth direction, the θ direction is the first beam scanning direction, and the φ direction is the second beam scanning direction. Usually, an ultrasonic beam is scanned in the θ direction to form a beam scanning surface, and the beam scanning surface is electronically scanned in the φ direction. Of course, a 3D probe 10 that mechanically scans a transducer unit including a 1D array transducer may be used. In FIG. 1, reference numeral 12 represents three-dimensional echo data, that is, volume data.

送受信部14は送信ビームフォーマー及び受信ビームフォーマーとして機能する。送信時において、送受信部14は3Dプローブ10に対して複数の送信信号を供給する。これにより送信ビームが形成される。受信時において、生体内からの反射波が3Dプローブ10にて受波され、これにより複数の受信信号が生成され、それらが送受信部14へ送られる。送受信部14においては複数の受信信号に対して整相加算処理を実行し、これによって超音波ビームに対応するビームデータを生成する。そのビームデータに対しては必要に応じていくつかの信号処理が適用される。   The transmission / reception unit 14 functions as a transmission beam former and a reception beam former. At the time of transmission, the transmission / reception unit 14 supplies a plurality of transmission signals to the 3D probe 10. As a result, a transmission beam is formed. At the time of reception, a reflected wave from the living body is received by the 3D probe 10, thereby generating a plurality of reception signals and sending them to the transmitting / receiving unit 14. The transmission / reception unit 14 performs phasing addition processing on a plurality of reception signals, thereby generating beam data corresponding to the ultrasonic beam. Some signal processing is applied to the beam data as necessary.

3Dメモリ16は、生体内の三次元空間に対応した三次元の記憶空間を備えており、送受信部14から出力されるビームデータすなわちエコーデータ列が記憶空間内にマッピングされる。これにより3Dメモリ16内にボリュームデータが構築されることになる。ちなみに、各エコーデータの書込み時においてあるいは読み出し時において座標変換が適用される。   The 3D memory 16 includes a three-dimensional storage space corresponding to the three-dimensional space in the living body, and beam data output from the transmission / reception unit 14, that is, an echo data string is mapped in the storage space. As a result, volume data is constructed in the 3D memory 16. Incidentally, coordinate conversion is applied when writing or reading each echo data.

三次元画像処理部18は、ボリュームデータに基づいて生体組織の三次元超音波画像を形成するモジュールであり、それはソフトウェアの機能として実現される。本実施形態においては、ボリュームデータに基づいて生体組織を表す複数の三次元形状データが生成されており、それらに基づいて三次元画像が形成されている。その際においては透明度関数が用いられ、その透明度関数はメモリ20上に格納されている。三次元画像処理については後に詳述する。   The three-dimensional image processing unit 18 is a module that forms a three-dimensional ultrasonic image of the living tissue based on the volume data, and is realized as a software function. In the present embodiment, a plurality of three-dimensional shape data representing the living tissue is generated based on the volume data, and a three-dimensional image is formed based on the data. In that case, a transparency function is used, and the transparency function is stored in the memory 20. The three-dimensional image processing will be described in detail later.

表示部22には三次元画像が表示される。図1においては、断層画像形成部等の他のモジュールについては図示省略されている。制御部24は図1に示される各構成の動作制御を行っており、制御部24はCPU及び動作プログラムにより構成されている。入力部26はキーボードやトラックボールなどによって構成される操作パネルであり、入力部26を利用してユーザーは制御部24に対して設定値を与えたり動作モードを変更したりすることが可能である。   A three-dimensional image is displayed on the display unit 22. In FIG. 1, other modules such as a tomographic image forming unit are not shown. The control unit 24 performs operation control of each configuration shown in FIG. 1, and the control unit 24 includes a CPU and an operation program. The input unit 26 is an operation panel configured by a keyboard, a trackball, and the like. By using the input unit 26, a user can give a setting value to the control unit 24 or change an operation mode. .

図2を用いて図1に示した三次元画像処理部18の具体的な処理内容を説明する。   The specific processing contents of the three-dimensional image processing unit 18 shown in FIG. 1 will be described with reference to FIG.

S10においては、ボリュームデータが入力される。望ましくは、そのような入力に先立ってボリュームデータに対して三次元の関心領域(ROI)が設定される。例えば、特定の組織を取り囲むようにそのような関心領域が設定される。関心領域内のボリュームデータ部分が三次元画像化の対象となる。その場合において例えば胎児全体が画像化されてもよいし、例えば子宮内の胎盤だけが画像化されてもよい。胎児は羊水中に存在しており、羊水と胎児表層との間において十分な輝度変化が生じるため、画像化対象として胎児は好適なものである。三次元関心領域の設定にあたっては、二次元断層画像を表示するようにしてもよい。   In S10, volume data is input. Preferably, a three-dimensional region of interest (ROI) is set for the volume data prior to such input. For example, such a region of interest is set so as to surround a specific tissue. The volume data portion in the region of interest is the target of 3D imaging. In that case, for example, the entire fetus may be imaged, or for example, only the placenta in the uterus may be imaged. Since the fetus is present in the amniotic fluid and a sufficient luminance change occurs between the amniotic fluid and the fetal surface layer, the fetus is suitable as an imaging target. In setting the three-dimensional region of interest, a two-dimensional tomographic image may be displayed.

S12においては、入力されたボリュームデータに対してノイズ除去のための処理が適用される。この処理においては例えば高輝度ノイズやアーチファクト等が除去される。ローパスフィルタなどのようなフィルタが利用されてもよい。S14においては、閾値αに最小値が設定される。すなわち後に説明するように、閾値αとして段階的に複数の値が設定されており、そのような複数の値の中で最小値が設定されることになる。もちろん、この段階において最大値が設定され、そこから段階的に閾値が引き下げられるように構成してもよい。   In S12, a process for noise removal is applied to the input volume data. In this processing, for example, high luminance noise and artifacts are removed. A filter such as a low-pass filter may be used. In S14, a minimum value is set as the threshold value α. That is, as will be described later, a plurality of values are set stepwise as the threshold value α, and the minimum value among the plurality of values is set. Of course, the maximum value may be set at this stage, and the threshold value may be lowered step by step.

S16においては現時点で設定されている閾値αが最大値未満であるか否かが判断され、その条件を満たすならばS18以降の工程が実行され、その条件が満たされなければ、すなわち閾値が最大値に到達した場合には後に説明するS26以降の工程が実行される。   In S16, it is determined whether or not the currently set threshold value α is less than the maximum value. If the condition is satisfied, the processes in and after S18 are executed. If the condition is not satisfied, the threshold value is maximum. When the value is reached, the processes after S26 described later are executed.

S18においては二値化処理が実行され、これによって閾値を利用した表面抽出処理が実行される。すなわち閾値よりも小さな値が0とされ、閾値よりも大きな値が1とされることになる。   In S18, binarization processing is executed, and thereby surface extraction processing using a threshold value is executed. That is, a value smaller than the threshold value is 0, and a value larger than the threshold value is 1.

この処理を図3を用いて説明する。図3において横軸は距離を表しており、左側から右側にかけて表層部分におけるもっとも外側から内側を表している。縦軸はエコー強度を表している。エコー強度の変化30に着目すると、表層部分の外側から内側にかけて立ち上がっている。このような分布に対して閾値αが適用され、その閾値αは後に説明するように段階的に上方へ引き上げられる。その結果、立ち上がり部分における複数の点a,b,c,d,e,fが段階的に検出されることになる。もちろん、その検出個数はユーザーにおいて選択可能である。またその刻みもユーザーにおいて調整可能である。図3において符号32が閾値レベルを表している。生体組織の表層部分における各位置においてこのような処理がなされるならば、生体組織の外形を模擬したような多重化された複数の三次元形状データが生成されることになる。個々の三次元形状データは表面抽出データを構成するものである。   This process will be described with reference to FIG. In FIG. 3, the horizontal axis represents the distance, and from the left side to the right side, the outermost side to the inner side in the surface layer portion. The vertical axis represents the echo intensity. When attention is paid to the change 30 of the echo intensity, it rises from the outer side to the inner side of the surface layer portion. A threshold value α is applied to such a distribution, and the threshold value α is raised upward stepwise as will be described later. As a result, a plurality of points a, b, c, d, e, and f in the rising portion are detected stepwise. Of course, the number of detections can be selected by the user. The increment can also be adjusted by the user. In FIG. 3, reference numeral 32 represents a threshold level. If such processing is performed at each position in the surface layer portion of the living tissue, a plurality of multiplexed three-dimensional shape data that simulates the outer shape of the living tissue is generated. Each three-dimensional shape data constitutes surface extraction data.

図2において、S20では、以上のように抽出された各三次元形状データがポリゴンデータとして生成されている。すなわち三角形の図形の集合体としてのデータに変換される。これにより各形状データはデータ認識上明瞭なものとなる。ちなみに、このようなポリゴンデータを経由せずに元の三次元形状データを利用するようにしてもよい。   In FIG. 2, in S20, each three-dimensional shape data extracted as described above is generated as polygon data. That is, it is converted into data as a collection of triangular figures. Thereby, each shape data becomes clear for data recognition. Incidentally, the original three-dimensional shape data may be used without going through such polygon data.

S22においては、閾値αに基づいて現在生成されている三次元形状データに対して透明度βが設定される。図4には、閾値αと透明度βとの関係が示されており、本実施形態においては閾値αが大きくなればなるほど透明度βが小さくなるような関数が設定されている。すなわち生体組織の表層部分に着目してみた場合、最も外側のレイヤから最も内側のレイヤにかけて透明度βが段々小さくなるように設定されている。   In S22, the transparency β is set for the three-dimensional shape data currently generated based on the threshold value α. FIG. 4 shows the relationship between the threshold α and the transparency β. In this embodiment, a function is set such that the transparency β decreases as the threshold α increases. That is, when attention is paid to the surface layer portion of the living tissue, the transparency β is set to gradually decrease from the outermost layer to the innermost layer.

図2に戻って、S24においては閾値αが+Δαだけ高められ、新しく設定された閾値αを利用してS18以降の各工程が繰り返し実行される。その結果として複数の三次元形状データが生成されることになる。それらは三次元形状データセットを構成し、それは三次元空間内においてタマネギの内部構造のような複合体をなす。ただし、各データ間におけるピッチは一律ではなく、組織の硬い部分においてはかなり密にレイヤあるいは階層が密集し、その一方、組織における柔らかい部分においてはレイヤあるいは階層の間隔が広がったものとなる。S16において閾値αが最大値に到達したと判断された場合、S26が実行される。   Returning to FIG. 2, in S24, the threshold value α is increased by + Δα, and each step after S18 is repeatedly executed using the newly set threshold value α. As a result, a plurality of three-dimensional shape data is generated. They constitute a 3D shape data set, which forms a complex like the internal structure of an onion in 3D space. However, the pitch between the data is not uniform, and the layers or layers are densely dense in the hard part of the organization, while the layers or layers are widened in the soft part of the organization. If it is determined in S16 that the threshold value α has reached the maximum value, S26 is executed.

S26においては視点が設定され、S28において上記のように生成された複数の三次元形状データすなわち多重図形に対してレンダリング処理が実行される。これについて図5を用いて説明する。符号32,34,36はそれぞれ三次元形状データを表している。例えば、三次元形状データ32は閾値α=10をもって生成されたデータであり、それに対しては透明度βとして80が設定されている。三次元形状データ34は例えば閾値α=20をもって生成され、それに対しては透明度βとして60が設定されている。三次元形状データ36は閾値α=30をもって生成されており、それに対しては透明度βとして40が設定されている。それぞれの三次元形状データ32,34,36は上述したようにポリゴンデータとして構成されている。このような多重的な形状に対して通常、それらの外部に視点Oが設定され、そこから複数の視点38が設定される。視点38はスクリーン40に向かって設定され、個々の視点38が画素P(x,y)に対応する。各視点毎に視線上の複数の値を利用して画素値が決定され、その画素値がスクリーン40上にマッピングされる。この場合において、レンダリング方法あるいは投影方法としてはサーフェイスレンダリング法が適用される。但し、ボリュームレンダリング法や単なる積算投影法等を利用するようにしてもよい。いずれにしても、組織の表層部分がある一定範囲内に亘って画像化されることになるから、生体組織をより自然な形で画像化することが可能となる。   In S26, a viewpoint is set, and a rendering process is performed on a plurality of three-dimensional shape data generated as described above in S28, that is, multiple figures. This will be described with reference to FIG. Reference numerals 32, 34, and 36 represent three-dimensional shape data, respectively. For example, the three-dimensional shape data 32 is data generated with a threshold value α = 10, and 80 is set as the transparency β for the data. The three-dimensional shape data 34 is generated with a threshold α = 20, for example, and 60 is set as the transparency β. The three-dimensional shape data 36 is generated with a threshold α = 30, and 40 is set as the transparency β for this. Each three-dimensional shape data 32, 34, and 36 is configured as polygon data as described above. Usually, viewpoints O are set outside such multiple shapes, and a plurality of viewpoints 38 are set therefrom. The viewpoint 38 is set toward the screen 40, and each viewpoint 38 corresponds to the pixel P (x, y). A pixel value is determined using a plurality of values on the line of sight for each viewpoint, and the pixel value is mapped on the screen 40. In this case, a surface rendering method is applied as a rendering method or a projection method. However, a volume rendering method, a simple cumulative projection method, or the like may be used. In any case, since the surface layer portion of the tissue is imaged over a certain range, the living tissue can be imaged in a more natural form.

例えば、図6に示されるように、複数の三次元形状データ42〜48が存在し、そこには柔らかい部分50と硬い部分52とが存在している場合、硬い部分52についてはより奥行き方向に広い範囲に亘って画像化が行われることになるから、それはある意味においてぼやけて表示され、その一方、硬い部分52については複数の三次元形状データがかなり近接した関係になり、その部分については奥行き方向に狭い範囲が画像化されることになる。したがってその部分は明瞭に表示される。このように組織の表層部分の状態に応じてぼやけて表示されたり明瞭にはっきり表示されたりすることになる。   For example, as shown in FIG. 6, when there are a plurality of three-dimensional shape data 42 to 48 and a soft portion 50 and a hard portion 52 exist therein, the hard portion 52 is more in the depth direction. Since imaging is performed over a wide range, it is blurred in a sense. On the other hand, for the hard portion 52, a plurality of three-dimensional shape data is in a close relationship, and for that portion, A narrow range in the depth direction is imaged. Therefore, the portion is clearly displayed. In this way, the display is blurred or clearly displayed according to the state of the surface layer portion of the tissue.

図2においてはS28では上述したようなレンダリングが実行され、これにより生成された三次元画像が表示部に表示されることになる。S30において、ユーザーが視点の変更を求めた場合、S26からの工程が新しい視点を用いて繰り返し実行されることになる。そしてS32において当処理の終了が判断される。   In FIG. 2, the rendering as described above is executed in S28, and the three-dimensional image generated thereby is displayed on the display unit. In S30, when the user requests to change the viewpoint, the processes from S26 are repeatedly executed using the new viewpoint. In S32, it is determined that the process is finished.

以上説明した画像処理法によれば、生体組織をより自然な形で表現することが可能である。特に、生体組織の表面をある一定の厚みをもって表現することができるという利点が得られる。その場合において表現される厚みは各部位における輝度変化すなわちエコー強度の変化に依存しているから、硬い部分はより硬いように柔らかい部分はより柔らかいように表現されることになり、生体組織をより自然な形で画像化することが可能となるのである。画質あるいは奥行き方向の画像化範囲は閾値の段数あるいは閾値の刻みを可変することによって調整可能である。ちなみに本実施形態においては閾値の刻みが一定であったが、それを動的に可変するようにしてもよい。また上記の実施形態においては白黒処理が前提とされていたが、更にカラー処理を組み合わせるようにしてもよい。例えば形状データの順番に応じて光源反射率や質感を異ならせる等の既存の処理を更に組み合わせるようにしてもよい。   According to the image processing method described above, it is possible to express a living tissue in a more natural form. In particular, there is an advantage that the surface of the living tissue can be expressed with a certain thickness. Since the thickness expressed in that case depends on the luminance change in each part, that is, the change in echo intensity, the hard part is expressed as harder and the soft part is expressed as softer. It becomes possible to image in a natural form. The image quality or the imaging range in the depth direction can be adjusted by changing the threshold level or the threshold increment. Incidentally, although the threshold increment is constant in the present embodiment, it may be varied dynamically. In the above embodiment, the black and white processing is assumed. However, color processing may be further combined. For example, existing processes such as changing the light source reflectance and texture according to the order of the shape data may be further combined.

18 三次元画像処理部、20 メモリ、32,34,36 三次元形状データ、38 視線、40 スクリーン。   18 3D image processing unit, 20 memory, 32, 34, 36 3D shape data, 38 lines of sight, 40 screens.

Claims (7)

生体内三次元空間から取得されたボリュームデータに基づいて三次元超音波画像を形成する超音波画像処理装置において、
前記ボリュームデータに基づいて、生体組織における表層部分の三次元形状を表すデータセットとして多重化された複数の表面形状データを生成する生成手段と、
前記複数の三次元形状データに対して複数の重みを設定する設定手段と、
前記複数の三次元形状データに対して前記複数の重みを利用した投影処理を適用することにより前記生体組織の三次元超音波画像を形成する形成手段と、
を含むことを特徴とする超音波画像処理装置。
In an ultrasonic image processing apparatus for forming a three-dimensional ultrasonic image based on volume data acquired from a three-dimensional space in a living body,
Based on the volume data, generating means for generating a plurality of surface shape data multiplexed as a data set representing a three-dimensional shape of the surface layer portion in the living tissue;
Setting means for setting a plurality of weights for the plurality of three-dimensional shape data;
Forming means for forming a three-dimensional ultrasound image of the biological tissue by applying a projection process using the plurality of weights to the plurality of three-dimensional shape data;
An ultrasonic image processing apparatus comprising:
請求項1記載の装置において、
前記生成手段は、前記ボリュームデータに対して複数の閾値を利用した表面抽出処理を適用することにより前記複数の三次元形状データを生成する、ことを特徴とする超音波画像処理装置。
The apparatus of claim 1.
The ultrasonic image processing apparatus, wherein the generation unit generates the plurality of three-dimensional shape data by applying a surface extraction process using a plurality of threshold values to the volume data.
請求項2記載の装置において、
前記形成手段は、前記複数の三次元形状データを生成する際に利用した複数の閾値に対応した複数の重みを前記複数の三次元形状データに与えてレンダリング処理を実行する、ことを特徴とする超音波画像処理装置。
The apparatus of claim 2.
It said forming means executes the rendering process gives a plurality of weights corresponding to a plurality of thresholds utilized in generating a plurality of three-dimensional shape data to the plurality of three-dimensional shape data, and characterized in that An ultrasonic image processing apparatus.
請求項3記載の装置において、
前記重み決定手段は、前記閾値が小さいほど前記重みとしての透明度の値を大きくする、ことを特徴とする超音波画像処理装置。
The apparatus of claim 3.
The ultrasonic image processing apparatus, wherein the weight determination unit increases the value of transparency as the weight as the threshold value is smaller.
請求項1乃至4のいずれか1項に記載の装置において、
前記生体組織の三次元超音波画像においては前記生体組織の内で柔らかい部分の方が硬い部分に比べて深さ方向の画像化範囲がより大きくなる、ことを特徴とする超音波画像処理装置。
The apparatus according to any one of claims 1 to 4,
In the three-dimensional ultrasonic image of the biological tissue, an ultrasonic image processing apparatus is characterized in that a soft portion of the biological tissue has a larger imaging range in the depth direction than a hard portion.
請求項1乃至5のいずれか1項に記載の装置において、
前記各三次元形状データはポリゴンデータである、ことを特徴とする超音波画像処理装置。
The device according to any one of claims 1 to 5,
The ultrasonic image processing apparatus, wherein each of the three-dimensional shape data is polygon data.
生体内三次元空間から取得されたボリュームデータに基づいて三次元超音波画像を形成する超音波画像処理装置において実行される画像処理プログラムであって、
前記ボリュームデータに基づいて、生体組織における表層部分の三次元形状を表すデータセットとして多重化された複数の三次元形状データを生成するモジュールと、
前記複数の三次元形状データに対して複数の重みを設定するモジュールと、
前記複数の三次元形状データに対して前記複数の重みを利用した投影処理を適用することにより前記生体組織の三次元超音波画像を形成するモジュールと、
を含むことを特徴とするプログラム。
An image processing program executed in an ultrasonic image processing apparatus that forms a three-dimensional ultrasonic image based on volume data acquired from a three-dimensional space in a living body,
Based on the volume data, a module that generates a plurality of three-dimensional shape data multiplexed as a data set representing a three-dimensional shape of a surface layer portion in a living tissue;
A module for setting a plurality of weights for the plurality of three-dimensional shape data;
A module that forms a three-dimensional ultrasound image of the living tissue by applying a projection process using the plurality of weights to the plurality of three-dimensional shape data;
The program characterized by including.
JP2011149895A 2011-07-06 2011-07-06 Ultrasonic image processing device Expired - Fee Related JP5827831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011149895A JP5827831B2 (en) 2011-07-06 2011-07-06 Ultrasonic image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011149895A JP5827831B2 (en) 2011-07-06 2011-07-06 Ultrasonic image processing device

Publications (2)

Publication Number Publication Date
JP2013013650A JP2013013650A (en) 2013-01-24
JP5827831B2 true JP5827831B2 (en) 2015-12-02

Family

ID=47686923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011149895A Expired - Fee Related JP5827831B2 (en) 2011-07-06 2011-07-06 Ultrasonic image processing device

Country Status (1)

Country Link
JP (1) JP5827831B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9384548B1 (en) 2015-01-23 2016-07-05 Kabushiki Kaisha Toshiba Image processing method and apparatus
JP7279275B2 (en) * 2020-07-03 2023-05-23 拡史 瀬尾 Image processing device, image processing method and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3382675B2 (en) * 1993-08-05 2003-03-04 オリンパス光学工業株式会社 Ultrasound imaging diagnostic equipment
US6310620B1 (en) * 1998-12-22 2001-10-30 Terarecon, Inc. Method and apparatus for volume rendering with multiple depth buffers
JP2006130071A (en) * 2004-11-05 2006-05-25 Matsushita Electric Ind Co Ltd Image processing apparatus
WO2006067719A2 (en) * 2004-12-20 2006-06-29 Koninklijke Philips Electronics N.V. A method, a system and a computer program for integration of medical diagnostic information and a geometric model of a movable body
JP2007072881A (en) * 2005-09-08 2007-03-22 Mitsubishi Electric Corp Image display system
JP4768495B2 (en) * 2006-04-04 2011-09-07 日立アロカメディカル株式会社 Ultrasonic diagnostic equipment
EP2427723B1 (en) * 2009-05-04 2018-12-19 Duke University Methods and computer program products for quantitative three-dimensional image correction and clinical parameter computation in optical coherence tomography
US8995736B2 (en) * 2010-01-22 2015-03-31 The Research Foundation Of The State University Of New York System and method for prostate visualization and cancer detection

Also Published As

Publication number Publication date
JP2013013650A (en) 2013-01-24

Similar Documents

Publication Publication Date Title
JP6147489B2 (en) Ultrasonic imaging system
JP4299189B2 (en) Ultrasonic diagnostic apparatus and image processing method
JP5632680B2 (en) Ultrasonic image processing device
EP2016905B1 (en) Ultrasound diagnostic apparatus
US20110125016A1 (en) Fetal rendering in medical diagnostic ultrasound
KR102539901B1 (en) Methods and system for shading a two-dimensional ultrasound image
KR101100464B1 (en) Ultrasound system and method for providing three-dimensional ultrasound image based on sub region of interest
US8333701B2 (en) Ultrasound diagnosis apparatus
US20120154400A1 (en) Method of reducing noise in a volume-rendered image
JP5773781B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and program
WO2020254159A1 (en) Method and system for generating a synthetic elastrography image
US8724880B2 (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
US20170352134A1 (en) Ultrasound diagnostic device
JP5827831B2 (en) Ultrasonic image processing device
JP2008220652A (en) Ultrasonic diagnostic apparatus and ultrasonic image generation program
JP4768495B2 (en) Ultrasonic diagnostic equipment
JP6545969B2 (en) Ultrasonic diagnostic equipment
JP2008220862A (en) Device and method for volume data processing
JP2017217207A (en) Ultrasonic image processing apparatus
JP5989735B2 (en) Ultrasonic image processing apparatus, program, and ultrasonic image processing method
JP6793075B2 (en) Ultrasonic image processing equipment
JP6809950B2 (en) Ultrasonic image processing equipment
JP5950291B1 (en) Ultrasonic diagnostic apparatus and program
JP3875915B2 (en) Ultrasonic diagnostic equipment
CN117159025A (en) Ultrasonic imaging space compounding method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151019

R150 Certificate of patent or registration of utility model

Ref document number: 5827831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees