JP2008104705A - Ultrasonic diagnostic equipment - Google Patents
Ultrasonic diagnostic equipment Download PDFInfo
- Publication number
- JP2008104705A JP2008104705A JP2006291181A JP2006291181A JP2008104705A JP 2008104705 A JP2008104705 A JP 2008104705A JP 2006291181 A JP2006291181 A JP 2006291181A JP 2006291181 A JP2006291181 A JP 2006291181A JP 2008104705 A JP2008104705 A JP 2008104705A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- tracking point
- point
- image data
- pattern matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、超音波診断装置に関し、特に、複数の時相に亘って関心部位をトラッキングする超音波診断装置に関する。 The present invention relates to an ultrasonic diagnostic apparatus, and more particularly to an ultrasonic diagnostic apparatus that tracks a region of interest over a plurality of time phases.
エコーデータに基づいて形成される超音波画像内の関心部分にポイントを設定し、テンプレートマッチング法などのパターンマッチング処理により、そのポイントを複数の時相に亘ってトラッキングする超音波診断装置が知られている。これにより、例えば、心臓などの運動する組織の特徴部分をトラッキングし、その特徴部分の運動状態などを診断することなどが可能になる。 An ultrasonic diagnostic apparatus is known in which a point is set in a portion of interest in an ultrasonic image formed based on echo data, and the point is tracked over a plurality of time phases by a pattern matching process such as a template matching method. ing. As a result, for example, it is possible to track a feature portion of a moving tissue such as the heart and diagnose the motion state of the feature portion.
例えば、特許文献1には、組織速度の時空間分布を求めることにより、組織の運動機能などを反映させた情報を取得する技術が示されている。また、特許文献2には、追跡可能なトラッキングポイントを自動抽出する技術が示されている。
For example,
ところが、複数の時相に亘って得られる断層画像内において、心臓などの動きの大きな組織をパターンマッチング処理によりトラッキングする場合には、いくつかの問題点が考えられる。 However, there are several problems in tracking a tissue with a large motion such as the heart by pattern matching processing in a tomographic image obtained over a plurality of time phases.
例えば、複数の時相に亘って得られる断層画像が常に同一の断面を捉えているとは限らないため、特徴部位が断層画像内から大きく外れて移動した場合に、画像のパターンマッチング処理によって追跡を行うことが困難な場合がある。また、例えば、アーチファクトなどの影響によりトラッキングポイントにノイズが入り込み、正確なパターンマッチング処理ができない可能性もある。 For example, since the tomographic images obtained over a plurality of time phases do not always capture the same cross section, tracking is performed by image pattern matching processing when the feature part moves greatly out of the tomographic image. It may be difficult to do. Further, for example, noise may enter the tracking point due to artifacts and the like, and there is a possibility that accurate pattern matching processing cannot be performed.
こうした背景において、本願の発明者は、パターンマッチング処理を利用したトラッキングに関する改良技術について研究を重ねてきた。 Against this background, the inventor of the present application has been researching improved techniques relating to tracking using pattern matching processing.
本発明は、その研究の過程において成されたものであり、その目的は、パターンマッチング処理が十分な精度で実行されない場合でも可能な限り正確にトラッキング処理を継続させる技術を提供することにある。 The present invention has been made in the course of the research, and an object of the present invention is to provide a technique for continuing the tracking process as accurately as possible even when the pattern matching process is not performed with sufficient accuracy.
上記目的を達成するために、本発明の好適な態様である超音波診断装置は、対象組織を含む空間内で超音波を送受波することにより複数の時相に亘ってエコーデータを取得する送受波部と、複数の時相に亘って取得されるエコーデータに基づいて対象組織に関する画像データを形成する画像形成部と、基準となる時相の画像データ内に設定されたトラッキングポイントを複数の時相に亘ってトラッキングするトラッキング処理部と、を有し、前記トラッキング処理部は、トラッキングポイントの移動量から求められるトラッキングポイントの予想位置、または、画像データに関するパターンマッチング処理によって得られるトラッキングポイントの追跡位置にトラッキングポイントを移動させることを特徴とする。 In order to achieve the above object, an ultrasonic diagnostic apparatus according to a preferred embodiment of the present invention transmits and receives ultrasonic data over a plurality of time phases by transmitting and receiving ultrasonic waves in a space including a target tissue. A wave unit, an image forming unit that forms image data related to a target tissue based on echo data acquired over a plurality of time phases, and a plurality of tracking points set in image data of a reference time phase A tracking processing unit that tracks over a time phase, and the tracking processing unit detects an expected position of the tracking point obtained from a movement amount of the tracking point or a tracking point obtained by pattern matching processing related to image data. The tracking point is moved to a tracking position.
上記構成において、トラッキングポイントの移動量とは、例えば、時相間におけるトラッキングポイントの移動量などである。所定時間内の移動量として、トラッキングポイントの移動速度を求めてもよい。移動速度は、例えば、ベクトル量として求められる。 In the above configuration, the amount of movement of the tracking point is, for example, the amount of movement of the tracking point between time phases. The movement speed of the tracking point may be obtained as the movement amount within a predetermined time. The moving speed is obtained as a vector amount, for example.
上記構成によれば、例えば、パターンマッチング処理によって得られるトラッキングポイントの追跡位置が予想位置に比較的近い場合には、パターンマッチング処理が高い精度で行われたと判断して追跡位置にトラッキングポイントを移動させる。これにより、パターンマッチング処理の長所を活かした高い精度のトラッキングが可能になる。一方、例えば、追跡位置が予想位置から比較的遠い場合には、パターンマッチング処理が十分な精度で実行されていないと判断して予想位置にトラッキングポイントを移動させる。これにより、パターンマッチング処理が十分な精度で実行されない場合でも可能な限り正確にトラッキング処理を継続させることが可能になる。 According to the above configuration, for example, when the tracking position of the tracking point obtained by the pattern matching process is relatively close to the expected position, it is determined that the pattern matching process has been performed with high accuracy and the tracking point is moved to the tracking position. Let As a result, high-accuracy tracking utilizing the advantages of pattern matching processing becomes possible. On the other hand, for example, when the tracking position is relatively far from the predicted position, it is determined that the pattern matching process is not performed with sufficient accuracy, and the tracking point is moved to the predicted position. Thereby, even when the pattern matching process is not executed with sufficient accuracy, the tracking process can be continued as accurately as possible.
望ましい態様において、前記トラッキング処理部は、前記予想位置を基準として設定される予想範囲を利用し、前記追跡位置が予想範囲内であれば追跡位置にトラッキングポイントを移動させ、前記追跡位置が予想範囲内でなければ予想位置にトラッキングポイントを移動させることを特徴とする。 In a preferred aspect, the tracking processing unit uses an expected range set based on the predicted position, and moves the tracking point to the tracking position if the tracking position is within the expected range, and the tracking position is within the expected range. If not, the tracking point is moved to an expected position.
望ましい態様において、前記トラッキング処理部は、対象組織の運動方向に沿って伸長された形状の予想範囲を利用することを特徴とする。予想範囲の形状は、例えば、対象組織の運動方向に沿った軸を長軸とする楕円形などである。 In a preferred aspect, the tracking processing unit uses an expected range of a shape extended along the movement direction of the target tissue. The shape of the expected range is, for example, an ellipse whose major axis is the axis along the direction of motion of the target tissue.
本発明の好適な態様により、パターンマッチング処理が十分な精度で実行されない場合でも可能な限り正確にトラッキング処理を継続させることが可能になる。 According to a preferred aspect of the present invention, it is possible to continue the tracking process as accurately as possible even when the pattern matching process is not executed with sufficient accuracy.
以下、本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described.
図1には、本発明に係る超音波診断装置の好適な実施形態が示されており、図1はその全体構成を示す機能ブロック図である。 FIG. 1 shows a preferred embodiment of an ultrasonic diagnostic apparatus according to the present invention, and FIG. 1 is a functional block diagram showing the overall configuration thereof.
プローブ10は、図示しない複数の振動素子を備えており、例えば心臓などの対象組織を含む空間内で超音波ビームを電子的に走査する。例えばrθφ極座標系において、深さr方向に沿って形成される超音波ビームをθ方向に走査して走査面を形成する。さらに走査面をφ方向(エレベーション方向)に走査することにより三次元的に超音波ビームを走査させてもよい。なお、超音波ビームは機械的に走査されてもよい。
The
送受信部12は、送信ビームフォーマおよび受信ビームフォーマとして機能する。つまり、送受信部12は、プローブ10が備える各振動素子に対してその振動素子に応じた送信信号を供給することにより送信ビームを形成し、また、複数の振動素子から得られる受信信号を整相加算処理して受信ビームを形成する。これにより、対象組織を含む空間内から複数のエコーデータが取得される。
The transmission /
画像形成部14は、複数のエコーデータに基づいて画像形成処理を実行する。本実施形態では、対象組織を動的に映し出した超音波画像が形成される。つまり、複数の時相に亘って複数のエコーデータが次々に取得され、各時相ごとに、複数のエコーデータに基づいて画像データが形成される。
The
表示処理部16は、画像形成部14の画像形成処理によって得られた画像データに基づいて表示画像を形成し、形成された表示画像がモニタ18に表示される。こうして、対象組織を動的に映し出した超音波画像がモニタ18に表示される。
The
トラッキング処理部20は、基準となる時相の画像データ内に設定されたトラッキングポイントを複数の時相に亘ってトラッキングする。これにより、例えば、対象組織内の特徴点の移動が複数の時相に亘って追跡される。表示処理部16は、追跡されるトラッキングポイントを超音波画像内にマーカなどによって表示させてもよい。なお、本実施形態におけるトラッキング処理については、後にさらに詳述する。
The
制御部22はCPUおよびそのための動作プログラムによって構成され、図1に示される各構成の動作制御を行う。その制御部22には操作デバイス24が接続されている。操作デバイス24は、例えば、タッチパネルやキーボードやマウスなどのユーザインタフェースである。ユーザはその操作デバイス24を用いて超音波診断装置の動作モードの選択やパラメータの指定などの各種の入力操作を行うことができる。
The
本実施形態の概要は以上のとおりである。次に、図1の超音波診断装置によるトラッキング処理について詳述する。なお、図1に既に示した部分(各構成)については、以下の説明においても図1の符号を利用する。 The outline of the present embodiment is as described above. Next, the tracking process by the ultrasonic diagnostic apparatus of FIG. 1 will be described in detail. In addition, about the part (each structure) already shown in FIG. 1, the code | symbol of FIG. 1 is utilized also in the following description.
図2は、本実施形態におけるトラッキング処理を説明するための説明図である。図2(A)は、基準となる時相(フレーム♯0)の画像(画像データ)を示している。トラッキング処理を行う場合には、まず、基準となる時相の画像データ内にトラッキングポイントが設定される。例えば、図2(A)に示すように、フレーム♯0の画像データ内にトラッキングポイント(TP0)が設定される。トラッキングポイントの設定は、例えば、ユーザがモニタ18に表示される画像を見ながら操作デバイス24を利用して設定する。もちろん、装置が画像データ内の所定のデータ部分を抽出し、そのデータ部分にトラッキングポイントを設定するようにしてもよい。
FIG. 2 is an explanatory diagram for explaining the tracking processing in the present embodiment. FIG. 2A shows an image (image data) of a reference time phase (frame # 0). When performing the tracking process, first, a tracking point is set in image data of a reference time phase. For example, as shown in FIG. 2A, a tracking point (TP0) is set in the image data of
トラッキングポイント(TP0)が設定されると、そのポイントを基準としてテンプレートが設定される。例えば、トラッキングポイント(TP0)を中心とした正方形のテンプレートが設定される。テンプレートの形状は、長方形や円形や楕円形などでもよい。 When the tracking point (TP0) is set, a template is set based on that point. For example, a square template with the tracking point (TP0) as the center is set. The shape of the template may be a rectangle, a circle or an ellipse.
次に、図2(B)に示すように、次の時相のフレーム♯1の画像データが形成される。そして、テンプレートマッチング法などのパターンマッチング処理により、フレーム♯1の画像データ内で、フレーム♯0の画像データに設定されたテンプレート内の画像データと最も相関関係が強い画像部分が検索される。
Next, as shown in FIG. 2B, image data of
例えば、フレーム♯1の画像データ内に、テンプレートと同じ形状で同じ大きさのウィンドウが設定され、ウィンドウによって抽出されるフレーム♯1の画像データ部分と、テンプレート内のフレーム♯0の画像データ部分との間の相関値が求められる。ウィンドウはフレーム♯1の画像データ内で走査され、各走査位置で相関値が求められる。ちなみに、ウィンドウは、並行移動によって走査されるが、並行移動の他に回転移動などを加えてもよい。こうして、最も相関値が大きい部分(ウィンドウの走査位置)が検索され、そのウィンドウの中心に、図2(B)に示すトラッキングポイント(TP1)が設定される。
For example, a window having the same shape and size as the template is set in the image data of
また、設定されたトラッキングポイント(TP1)を中心として、新たに正方形のテンプレートが設定される。なお、図2(B)に示される移動ベクトルv1は、トラッキングポイント(TP0)からトラッキングポイント(TP1)への移動量を示すベクトルである。この移動ベクトルは、トラッキングポイントの予想位置を求める際に利用される。 A new square template is set around the set tracking point (TP1). 2B is a vector indicating the amount of movement from the tracking point (TP0) to the tracking point (TP1). This movement vector is used when obtaining the predicted position of the tracking point.
次に、図2(C)に示すように、さらに次の時相のフレーム♯2の画像データが形成され、フレーム♯2の画像データ内からトラッキングポイント(TP2)が検索される。その際、トラッキング処理部20は、トラッキングポイントの移動量から求められるトラッキングポイントの予想位置と、画像データに関するパターンマッチング処理によって得られるトラッキングポイントの追跡位置とを比較することにより、予想位置または追跡位置にトラッキングポイントを移動させる。
Next, as shown in FIG. 2C, the image data of
トラッキング処理部20は、トラッキングポイントの移動ベクトルv1からトラッキングポイント(TP2)の予想位置を求める。例えば、トラッキングポイント(TP1)の位置から移動ベクトルv1だけ進んだ位置にトラッキングポイント(TP2)の予想位置を設定する。結果的に、トラッキングポイント(TP0)の位置から移動ベクトルv1を2つ分だけ進めた位置にトラッキングポイント(TP2)の予想位置が設定される。そして、その予想位置を中心として円形の予想範囲(TP2の予想範囲)が設定される。
The
また、トラッキング処理部20は、パターンマッチング処理により、フレーム♯2の画像データ内で、フレーム♯1の画像データに設定されたテンプレート内の画像データと最も相関関係が強い画像部分を検索する。図2(C)において、パターンマッチング処理によって検索されたトラッキングポイントがxTP2である。
Further, the
そして、トラッキング処理部20は、パターンマッチング処理によって検索されたxTP2がTP2の予想範囲内に存在するか否かを確認する。図2(C)に示す例では、xTP2がTP2の予想範囲内に存在する。この場合、トラッキング処理部20は、フレーム♯2の画像データのトラッキングポイント(TP2)として、パターンマッチング処理によって検索されたxTP2を採用する。
Then, the
ちなみに、xTP2がTP2の予想範囲内に存在しなければ、トラッキング処理部20は、フレーム♯2の画像データのトラッキングポイント(TP2)として、TP2の予想範囲の中心である予想位置を採用する。
Incidentally, if xTP2 does not exist within the expected range of TP2, the
また、設定されたトラッキングポイント(TP2)を中心として、新たに正方形のテンプレートが設定される。なお、図2(C)に示される移動ベクトルv2は、トラッキングポイント(TP1)からトラッキングポイント(TP2)への移動量を示すベクトルである。この移動ベクトルは、次の時相のトラッキングポイントの予想位置を求める際に利用される。 Further, a new square template is set around the set tracking point (TP2). Note that the movement vector v2 shown in FIG. 2C is a vector indicating the amount of movement from the tracking point (TP1) to the tracking point (TP2). This movement vector is used when obtaining the predicted position of the tracking point of the next time phase.
図2(D)は、さらに次の時相のフレーム♯3の画像データを示している。トラッキング処理部20は、フレーム♯3の画像データ内からトラッキングポイント(TP3)が検索される。その際にも、トラッキング処理部20は、トラッキングポイントの予想位置と、パターンマッチング処理によって得られるトラッキングポイントの追跡位置とを比較することにより、予想位置または追跡位置にトラッキングポイントを移動させる。
FIG. 2D shows the image data of
トラッキング処理部20は、トラッキングポイントの移動ベクトルv2からトラッキングポイント(TP3)の予想位置(iTP3)を求める。例えば、トラッキングポイント(TP2)の位置から移動ベクトルv2だけ進んだ位置に予想位置(iTP3)を設定する。そして、その予想位置を中心としてTP3の予想範囲が設定される。
The
また、トラッキング処理部20は、パターンマッチング処理により、フレーム♯3の画像データ内で、フレーム♯2の画像データに設定されたテンプレート内の画像データと最も相関関係が強い画像部分を検索する。図2(D)において、パターンマッチング処理によって検索されたトラッキングポイントがxTP3である。
Further, the
そして、トラッキング処理部20は、パターンマッチング処理によって検索されたxTP3がTP3の予想範囲内に存在するか否かを確認する。図2(D)に示す例では、xTP3がTP3の予想範囲内に存在しない。この場合、トラッキング処理部20は、フレーム♯3の画像データのトラッキングポイント(TP3)として、予想位置(iTP3)を採用する。
Then, the
なお、図2(D)に示される移動ベクトルv3は、トラッキングポイント(TP2)からトラッキングポイント(TP3)への移動量を示すベクトルである。この移動ベクトルは、次の時相のトラッキングポイントの予想位置を求める際に利用される。 Note that the movement vector v3 shown in FIG. 2D is a vector indicating the amount of movement from the tracking point (TP2) to the tracking point (TP3). This movement vector is used when obtaining the predicted position of the tracking point of the next time phase.
図2では、予想範囲として円形の予想範囲を示したが、予想範囲の形状は、例えば、対象組織の運動状態などに応じて変形させてもよい。 In FIG. 2, a circular predicted range is shown as the predicted range, but the shape of the predicted range may be deformed according to, for example, the motion state of the target tissue.
図3は、楕円形状の予想範囲を説明するための図である。本実施形態のトラッキング処理は、例えば、心臓の運動状態を観察する場合などに好適である。この場合には、心臓の運動状態に応じた形状として、楕円形状の予想範囲が好適となる。 FIG. 3 is a diagram for explaining the expected range of the elliptical shape. The tracking process of this embodiment is suitable for, for example, observing the motion state of the heart. In this case, an elliptical expected range is suitable as the shape corresponding to the motion state of the heart.
本実施形態において、心臓の運動状態つまり心筋の収縮拡張運動を観察する際には、まず、心筋の運動方向に沿って変化軸が設定される。例えば、ユーザがモニタ18に表示される画像を見ながら、操作デバイス24を利用して、観察したい心筋の運動方向に沿って画像上に変化軸を設定する。さらにユーザは、例えば、操作デバイス24を利用して観察したい心筋内の特徴部位にトラッキングポイントを設定する。
In this embodiment, when observing the motion state of the heart, that is, the contraction and expansion motion of the myocardium, first, a change axis is set along the motion direction of the myocardium. For example, while viewing the image displayed on the
図3(A)は、時相(0)の画像データ上に設定された変化軸と、変化軸上に設定された2つのトラッキングポイントTP0(0),TP1(0)を示している。2つのトラッキングポイントは、心筋内の2つの特徴点に設定される。例えば、外膜、中膜、内膜のうちの2つに設定される。もちろん、外膜、中膜、内膜の3つの全てにトラッキングポイント(3ポイント)を設定してもよい。 FIG. 3A shows a change axis set on the time phase (0) image data and two tracking points TP0 (0) and TP1 (0) set on the change axis. Two tracking points are set to two feature points in the myocardium. For example, two of the outer membrane, the inner membrane, and the inner membrane are set. Of course, tracking points (3 points) may be set for all three of the outer membrane, the middle membrane, and the inner membrane.
図3(B)は、次の時相(1)の画像データ上におけるトラッキングポイントを示している。つまり、図2を利用して詳述したパターンマッチング処理により、トラッキングポイントTP0(0)に対応したトラッキングポイントTP0(1)が求められ、さらに、トラッキングポイントTP1(0)に対応したトラッキングポイントTP1(1)が求められる。 FIG. 3B shows tracking points on the image data of the next time phase (1). That is, the tracking point TP0 (1) corresponding to the tracking point TP0 (0) is obtained by the pattern matching process described in detail with reference to FIG. 2, and the tracking point TP1 (0) corresponding to the tracking point TP1 (0) is obtained. 1) is required.
図3(B)において、移動ベクトルv0(1)は、トラッキングポイントTP0(0)からトラッキングポイントTP0(1)への移動量を示すベクトルである。そして、ベクトル成分v0ax(1)は、移動ベクトルv0(1)の変化軸方向の成分である。図3の例では、このベクトル成分v0ax(1)に基づいて、トラッキングポイントTP0(1)に関する次の時相の予想位置が求められる。 In FIG. 3B, the movement vector v0 (1) is a vector indicating the movement amount from the tracking point TP0 (0) to the tracking point TP0 (1). The vector component v0ax (1) is a component in the change axis direction of the movement vector v0 (1). In the example of FIG. 3, the predicted position of the next time phase with respect to the tracking point TP0 (1) is obtained based on the vector component v0ax (1).
また、図3(B)において、移動ベクトルv1(1)は、トラッキングポイントTP1(0)からトラッキングポイントTP1(1)への移動量を示すベクトルであり、ベクトル成分v1ax(1)は、移動ベクトルv1(1)の変化軸方向の成分である。このベクトル成分v1ax(1)に基づいて、トラッキングポイントTP1(1)に関する次の時相の予想位置が求められる。 In FIG. 3B, the movement vector v1 (1) is a vector indicating the amount of movement from the tracking point TP1 (0) to the tracking point TP1 (1), and the vector component v1ax (1) is the movement vector. It is a component in the change axis direction of v1 (1). Based on this vector component v1ax (1), the predicted position of the next time phase with respect to the tracking point TP1 (1) is obtained.
図3(C)は、さらに次の時相(2)の画像データ上におけるトラッキングポイントを示している。まず、パターンマッチング処理により、トラッキングポイントTP0(1)に対応した追跡位置xTP0(2)が求められる。同様に、トラッキングポイントTP1(1)に対応した追跡位置xTP1(2)が求められる。そして、これらの追跡位置xTP0(2),xTP1(2)の各々が、楕円形状の予想範囲内に存在するか否かが確認される。 FIG. 3C shows tracking points on the image data of the next time phase (2). First, a tracking position xTP0 (2) corresponding to the tracking point TP0 (1) is obtained by pattern matching processing. Similarly, a tracking position xTP1 (2) corresponding to the tracking point TP1 (1) is obtained. Then, it is confirmed whether or not each of these tracking positions xTP0 (2) and xTP1 (2) is within the expected range of the elliptical shape.
トラッキング処理部20は、トラッキングポイントTP0(0)の位置から、ベクトル成分v0ax(1)を2つ分だけ進めた位置に、トラッキングポイントTP0(2)の予想位置iTP0(2)を設定する。そして、その予想位置iTP0(2)を中心として変化軸に沿った長軸を備えた楕円形状の予想範囲(TP0(2)の予想範囲)を設定する。
The
そして、トラッキング処理部20は、パターンマッチング処理によって検索されたxTP0(2)がTP0(2)の予想範囲内に存在するか否かを確認する。図3(C)に示す例では、xTP0(2)が予想範囲内に存在する。この場合、トラッキング処理部20は、時相(2)の画像データのトラッキングポイントTP0(2)として、パターンマッチング処理によって検索されたxTP0(2)を採用する。
Then, the
同様な処理により、トラッキング処理部20は、トラッキングポイントTP1(0)の位置から、ベクトル成分v1ax(1)を2つ分だけ進めた位置に、トラッキングポイントTP1(2)の予想位置iTP1(2)を設定する。そして、その予想位置iTP1(2)を中心として変化軸に沿った長軸を備えた楕円形状の予想範囲(TP1(2)の予想範囲)を設定する。そして、xTP1(2)がTP1(2)の予想範囲内に存在するか否かを確認する。図3(C)に示す例では、xTP1(2)が予想範囲内に存在しない。この場合、トラッキング処理部20は、時相(2)の画像データのトラッキングポイントTP1(2)として、予想位置iTP1(2)を採用する。
By similar processing, the
このように、心臓の運動状態に応じて、つまり心筋が変化軸方向に沿って大きく移動することを考慮して、変化軸に沿って伸長された楕円形状の予想範囲を採用してもよい。これにより、心筋の動きを的確に捉えたトラッキングが可能になり、例えば、2点のトラッキングポイント間の距離の変化から、変化軸に沿った心筋の厚さの変化などを計測することが可能になる。 As described above, an elliptical expected range extended along the change axis may be adopted in accordance with the motion state of the heart, that is, taking into account that the myocardium moves greatly along the change axis direction. This enables tracking that accurately captures the movement of the myocardium. For example, it is possible to measure changes in the thickness of the myocardium along the change axis from changes in the distance between the two tracking points. Become.
図4は、本実施形態のトラッキング処理を示すフローチャートである。図4に示すフローチャートは、図1から図3を利用して説明した本実施形態のトラッキング処理に関する動作を纏めたものである。 FIG. 4 is a flowchart showing the tracking process of this embodiment. The flowchart shown in FIG. 4 summarizes the operations related to the tracking processing of the present embodiment described with reference to FIGS.
まず、基準となるフレーム♯0の超音波画像上(画像データ上)にトラッキングポイント(TP0)が設定され(S402)、トラッキングポイント(TP0)に対応したテンプレートが設定される(S404)。 First, the tracking point (TP0) is set on the ultrasonic image (image data) of the reference frame # 0 (S402), and a template corresponding to the tracking point (TP0) is set (S404).
次に、フレーム♯nの画像データが形成されてフレーム(時相)が更新され(S406)、更新されたフレーム♯n内において、パターンマッチング処理により、TP0に対応したトラッキングポイント(xTP(n))が算出され(S408)、その位置にトラッキングポイントが移動される(S410)。移動後のトラッキングポイントをTP(n)とする。 Next, image data of frame #n is formed and the frame (time phase) is updated (S406), and the tracking point (xTP (n)) corresponding to TP0 is obtained by pattern matching processing in the updated frame #n. ) Is calculated (S408), and the tracking point is moved to that position (S410). Let TP (n) be the tracking point after movement.
そして、TP0からTP(n)への移動量を示す速度ベクトル(移動ベクトル)が検出され(S412)、次フレームのトラッキングポイントの予想位置(iTP(n+1))が求められる(S414)。一方、S410においてトラッキングポイントがTP(n)に移動されると、パターンマッチング処理用のテンプレートが、フレーム♯n内のTP(n)に対応したテンプレートに更新され(S416)、フレームが次の時相のフレーム♯n+1に更新される(S418)。 Then, a velocity vector (movement vector) indicating the amount of movement from TP0 to TP (n) is detected (S412), and the predicted position (iTP (n + 1)) of the tracking point of the next frame is obtained (S414). On the other hand, when the tracking point is moved to TP (n) in S410, the pattern matching processing template is updated to a template corresponding to TP (n) in frame #n (S416). The phase frame is updated to # n + 1 (S418).
続いて、パターンマッチング処理によりフレーム♯n+1内においてトラッキングポイントの追跡位置(xTP(n+1))が求められ(S420)、S414で求められた予想位置iTP(n+1)に対応した予想範囲内に、S420で求められた追跡位置xTP(n+1)が存在するか否かが確認される(S422)。 Subsequently, the tracking position (xTP (n + 1)) of the tracking point is obtained in the frame # n + 1 by pattern matching processing (S420), and within the expected range corresponding to the expected position iTP (n + 1) obtained in S414, S420 is obtained. It is confirmed whether or not the tracking position xTP (n + 1) obtained in (1) exists (S422).
xTP(n+1)が予想範囲内にあれば、フレーム♯n+1内のトラッキングポイントTP(n+1)として、追跡位置xTP(n+1)が採用され(S424)、xTP(n+1)が予想範囲内でなければ、TP(n+1)として予想位置iTP(n+1)が採用される(S426)。 If xTP (n + 1) is within the expected range, the tracking position xTP (n + 1) is adopted as the tracking point TP (n + 1) in frame # n + 1 (S424), and xTP (n + 1) is not within the expected range. The predicted position iTP (n + 1) is adopted as TP (n + 1) (S426).
次に、TP(n+1)の位置にトラッキングポイントが移動され(S428)、TP(n)からTP(n+1)への移動量を示す速度ベクトル(移動ベクトル)が検出され(S430)、次フレームのトラッキングポイントの予想位置(iTP(n+2))が求められる(S434)。一方、S428においてトラッキングポイントがTP(n+1)に移動されると、パターンマッチング処理用のテンプレートが、フレーム♯n+1内のTP(n+1)に対応したテンプレートに更新され(S432)、そして、さらに次のフレームに更新される(S418)。 Next, the tracking point is moved to the position of TP (n + 1) (S428), and a velocity vector (movement vector) indicating the amount of movement from TP (n) to TP (n + 1) is detected (S430). An expected position (iTP (n + 2)) of the tracking point is obtained (S434). On the other hand, when the tracking point is moved to TP (n + 1) in S428, the pattern matching processing template is updated to a template corresponding to TP (n + 1) in frame # n + 1 (S432), and then the next The frame is updated (S418).
S418においてフレームが更新されるとS420以降の処理が再び実行される。こうして、S420においてフレームが更新される度に、S420以降の処理によってトラッキングポイントが移動される。なお、S418においてフレームの更新が行われなくなった場合に(例えば、ユーザによってトラッキング処理の終了操作が行われた場合に)、本フローチャートは終了する。 When the frame is updated in S418, the processing after S420 is executed again. Thus, each time the frame is updated in S420, the tracking point is moved by the processing after S420. Note that when the frame is no longer updated in S418 (for example, when the user performs an operation to end the tracking process), this flowchart ends.
以上、本発明の好適な実施形態を説明した。上述した実施形態では、パターンマッチング処理によって得られるトラッキングポイントの追跡位置が予想位置に比較的近い場合には、パターンマッチング処理が高い精度で行われたと判断して追跡位置にトラッキングポイントを移動させる。これにより、パターンマッチング処理の長所を活かした高い精度のトラッキングが可能になる。一方、例えば、追跡位置が予想位置から比較的遠い場合には、パターンマッチング処理が十分な精度で実行されていないと判断して予想位置にトラッキングポイントを移動させる。これにより、パターンマッチング処理が十分な精度で実行されない場合でも可能な限り正確にトラッキング処理を継続させることが可能になる。 The preferred embodiment of the present invention has been described above. In the above-described embodiment, when the tracking position of the tracking point obtained by the pattern matching process is relatively close to the expected position, it is determined that the pattern matching process has been performed with high accuracy, and the tracking point is moved to the tracking position. As a result, high-accuracy tracking utilizing the advantages of pattern matching processing becomes possible. On the other hand, for example, when the tracking position is relatively far from the predicted position, it is determined that the pattern matching process is not performed with sufficient accuracy, and the tracking point is moved to the predicted position. Thereby, even when the pattern matching process is not executed with sufficient accuracy, the tracking process can be continued as accurately as possible.
なお、上述した実施形態は、あらゆる点で単なる例示にすぎず、本発明の範囲を限定するものではない。本発明は、その本質を逸脱しない範囲で各種の変形形態を包含する。 The above-described embodiments are merely examples in all respects, and do not limit the scope of the present invention. The present invention includes various modifications without departing from the essence thereof.
10 プローブ、12 送受信部、14 画像形成部、20 トラッキング処理部。 10 probe, 12 transmitting / receiving unit, 14 image forming unit, 20 tracking processing unit.
Claims (3)
複数の時相に亘って取得されるエコーデータに基づいて対象組織に関する画像データを形成する画像形成部と、
基準となる時相の画像データ内に設定されたトラッキングポイントを複数の時相に亘ってトラッキングするトラッキング処理部と、
を有し、
前記トラッキング処理部は、トラッキングポイントの移動量から求められるトラッキングポイントの予想位置、または、画像データに関するパターンマッチング処理によって得られるトラッキングポイントの追跡位置にトラッキングポイントを移動させる、
ことを特徴とする超音波診断装置。 A transmission / reception unit for acquiring echo data over a plurality of time phases by transmitting / receiving ultrasonic waves in a space including the target tissue;
An image forming unit that forms image data related to a target tissue based on echo data acquired over a plurality of time phases;
A tracking processing unit for tracking a tracking point set in image data of a reference time phase over a plurality of time phases;
Have
The tracking processing unit moves the tracking point to the predicted position of the tracking point obtained from the amount of movement of the tracking point, or the tracking position of the tracking point obtained by pattern matching processing related to image data.
An ultrasonic diagnostic apparatus.
前記トラッキング処理部は、前記予想位置を基準として設定される予想範囲を利用し、前記追跡位置が予想範囲内であれば追跡位置にトラッキングポイントを移動させ、前記追跡位置が予想範囲内でなければ予想位置にトラッキングポイントを移動させる、
ことを特徴とする超音波診断装置。 The ultrasonic diagnostic apparatus according to claim 1,
The tracking processing unit uses an expected range set based on the predicted position, and moves the tracking point to the tracking position if the tracking position is within the expected range, and if the tracking position is not within the expected range Move the tracking point to the expected position,
An ultrasonic diagnostic apparatus.
前記トラッキング処理部は、対象組織の運動方向に沿って伸長された形状の予想範囲を利用する、
ことを特徴とする超音波診断装置。 The ultrasonic diagnostic apparatus according to claim 2,
The tracking processing unit uses an expected range of a shape extended along the movement direction of the target tissue.
An ultrasonic diagnostic apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006291181A JP5102475B2 (en) | 2006-10-26 | 2006-10-26 | Ultrasonic diagnostic equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006291181A JP5102475B2 (en) | 2006-10-26 | 2006-10-26 | Ultrasonic diagnostic equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008104705A true JP2008104705A (en) | 2008-05-08 |
JP5102475B2 JP5102475B2 (en) | 2012-12-19 |
Family
ID=39438560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006291181A Expired - Fee Related JP5102475B2 (en) | 2006-10-26 | 2006-10-26 | Ultrasonic diagnostic equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5102475B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010194299A (en) * | 2009-01-30 | 2010-09-09 | Toshiba Corp | Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, medical image diagnostic apparatus, and medical image processing apparatus |
JP2011177494A (en) * | 2010-02-04 | 2011-09-15 | Toshiba Corp | Image processing apparatus, ultrasonic diagnostic apparatus, and image processing method |
JP2012115387A (en) * | 2010-11-30 | 2012-06-21 | Hitachi Aloka Medical Ltd | Ultrasonic image processor |
JP2012152379A (en) * | 2011-01-26 | 2012-08-16 | Hitachi Aloka Medical Ltd | Ultrasonic image processing apparatus |
JP2013027452A (en) * | 2011-07-27 | 2013-02-07 | Hitachi Aloka Medical Ltd | Ultrasonic image processor |
JP2018004453A (en) * | 2016-07-01 | 2018-01-11 | 三菱重工業株式会社 | Processing hole position determination device and processing hole position determination method |
JP2020110363A (en) * | 2019-01-11 | 2020-07-27 | キヤノン株式会社 | Information processing device, information processing method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06274625A (en) * | 1993-03-18 | 1994-09-30 | Toshiba Corp | Moving object tracking method for monitor image |
JP2001092976A (en) * | 1999-09-24 | 2001-04-06 | Mitsubishi Heavy Ind Ltd | Detecting method for moving object |
JP2002177273A (en) * | 2000-12-12 | 2002-06-25 | Toshiba Corp | Ultrasonic diagnostic device |
JP2003175041A (en) * | 2001-09-21 | 2003-06-24 | Toshiba Corp | Ultrasound diagnostic apparatus and image processing method |
JP2005309740A (en) * | 2004-04-21 | 2005-11-04 | Nippon Telegr & Teleph Corp <Ntt> | Method and program for tracking moving body, recording medium therefor, and moving body tracking apparatus |
WO2005120373A1 (en) * | 2004-06-11 | 2005-12-22 | Hitachi Medical Corporation | Ultrasonic curing device |
JP2006075590A (en) * | 2004-08-09 | 2006-03-23 | Hirochika Matsuoka | Apparatus, program and method for motion analysis in inside of living body |
-
2006
- 2006-10-26 JP JP2006291181A patent/JP5102475B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06274625A (en) * | 1993-03-18 | 1994-09-30 | Toshiba Corp | Moving object tracking method for monitor image |
JP2001092976A (en) * | 1999-09-24 | 2001-04-06 | Mitsubishi Heavy Ind Ltd | Detecting method for moving object |
JP2002177273A (en) * | 2000-12-12 | 2002-06-25 | Toshiba Corp | Ultrasonic diagnostic device |
JP2003175041A (en) * | 2001-09-21 | 2003-06-24 | Toshiba Corp | Ultrasound diagnostic apparatus and image processing method |
JP2005309740A (en) * | 2004-04-21 | 2005-11-04 | Nippon Telegr & Teleph Corp <Ntt> | Method and program for tracking moving body, recording medium therefor, and moving body tracking apparatus |
WO2005120373A1 (en) * | 2004-06-11 | 2005-12-22 | Hitachi Medical Corporation | Ultrasonic curing device |
JP2006075590A (en) * | 2004-08-09 | 2006-03-23 | Hirochika Matsuoka | Apparatus, program and method for motion analysis in inside of living body |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010194299A (en) * | 2009-01-30 | 2010-09-09 | Toshiba Corp | Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, medical image diagnostic apparatus, and medical image processing apparatus |
JP2011177494A (en) * | 2010-02-04 | 2011-09-15 | Toshiba Corp | Image processing apparatus, ultrasonic diagnostic apparatus, and image processing method |
JP2012115387A (en) * | 2010-11-30 | 2012-06-21 | Hitachi Aloka Medical Ltd | Ultrasonic image processor |
JP2012152379A (en) * | 2011-01-26 | 2012-08-16 | Hitachi Aloka Medical Ltd | Ultrasonic image processing apparatus |
JP2013027452A (en) * | 2011-07-27 | 2013-02-07 | Hitachi Aloka Medical Ltd | Ultrasonic image processor |
JP2018004453A (en) * | 2016-07-01 | 2018-01-11 | 三菱重工業株式会社 | Processing hole position determination device and processing hole position determination method |
JP2020110363A (en) * | 2019-01-11 | 2020-07-27 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP7199972B2 (en) | 2019-01-11 | 2023-01-06 | キヤノン株式会社 | Information processing device, information processing method, program |
Also Published As
Publication number | Publication date |
---|---|
JP5102475B2 (en) | 2012-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5102475B2 (en) | Ultrasonic diagnostic equipment | |
JPWO2017038300A1 (en) | Ultrasonic imaging apparatus, image processing apparatus, and method | |
WO2012164919A1 (en) | Ultrasound image-generating apparatus and ultrasound image-generating method | |
WO2021192824A1 (en) | Ultrasonic diagnostic apparatus, control method for ultrasonic diagnostic apparatus, and processor for ultrasonic diagnostic apparatus | |
JP6667676B2 (en) | Ultrasonic imaging system, ultrasonic imaging apparatus, ultrasonic imaging method, and image synthesis program | |
JP5999935B2 (en) | Ultrasonic diagnostic equipment | |
JP4761999B2 (en) | Ultrasonic diagnostic apparatus, image processing method thereof, and image processing program thereof | |
US10667708B2 (en) | Ultrasound diagnostic device | |
US9349190B2 (en) | Ultrasound image processing apparatus | |
JP2017038638A (en) | Ultrasonic diagnostic equipment | |
WO2016039100A1 (en) | Ultrasonic diagnostic device | |
JP5528935B2 (en) | Ultrasonic diagnostic equipment | |
JP6382031B2 (en) | Ultrasonic diagnostic apparatus and control program therefor | |
JP7071898B2 (en) | How to operate ultrasonic diagnostic equipment, programs and ultrasonic diagnostic equipment | |
JP5746926B2 (en) | Ultrasonic image processing device | |
JP6864555B2 (en) | Ultrasonic diagnostic equipment | |
JP7008590B2 (en) | Ultrasonic image processing equipment | |
JP6591199B2 (en) | Ultrasonic diagnostic apparatus and program | |
JP2017127528A (en) | Ultrasonic diagnostic equipment | |
JP5587751B2 (en) | Ultrasonic image processing device | |
JP5559003B2 (en) | Ultrasonic diagnostic equipment | |
JP2013017716A (en) | Ultrasonic diagnostic apparatus | |
JP2012152379A (en) | Ultrasonic image processing apparatus | |
JP2013042929A (en) | Ultrasonic image processing apparatus | |
JP2013176499A (en) | Diagnostic ultrasound imaging system, and method for calculating displacement of probe thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111004 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120925 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120928 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151005 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |