JP7102181B2 - Analyst - Google Patents

Analyst Download PDF

Info

Publication number
JP7102181B2
JP7102181B2 JP2018049986A JP2018049986A JP7102181B2 JP 7102181 B2 JP7102181 B2 JP 7102181B2 JP 2018049986 A JP2018049986 A JP 2018049986A JP 2018049986 A JP2018049986 A JP 2018049986A JP 7102181 B2 JP7102181 B2 JP 7102181B2
Authority
JP
Japan
Prior art keywords
search
image
function
result
marker information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018049986A
Other languages
Japanese (ja)
Other versions
JP2019063483A (en
Inventor
優子 高田
正毅 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Publication of JP2019063483A publication Critical patent/JP2019063483A/en
Application granted granted Critical
Publication of JP7102181B2 publication Critical patent/JP7102181B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明の実施形態は、解析装置に関する。 Embodiments of the present invention relate to an analyzer.

従来、超音波診断装置は、リアルタイムに生成する超音波画像や過去の超音波走査により生成した超音波画像を表示する。また、医用画像診断装置により生成された医用画像中の特徴的な部位を自動検出するCAD(Computer Aided Detection)機能が知られている。 Conventionally, an ultrasonic diagnostic apparatus displays an ultrasonic image generated in real time or an ultrasonic image generated by past ultrasonic scanning. Further, there is known a CAD (Computer Aided Detection) function that automatically detects a characteristic part in a medical image generated by a medical image diagnostic apparatus.

特開2006-167289号公報Japanese Unexamined Patent Publication No. 2006-167289

本発明が解決しようとする課題は、診断効率を向上させることができる解析装置を提供することである。 An object to be solved by the present invention is to provide an analysis device capable of improving diagnostic efficiency.

実施形態の解析装置は、取得部と、検索部と、検索結果合成部とを備える。取得部は、第1の画像と、前記第1の画像とは異なる第2の画像を取得する。検索部は、前記第1の画像を対象に第1の検索処理を実行することで、前記第1の画像における特徴部位を検索し、前記第2の画像を対象に、前記第1の検索処理とは異なる第2の検索処理を実行することで、前記第2の画像における特徴部位を検索する。検索結果合成部は、前記検索部による各検索結果を合成する。 The analysis device of the embodiment includes an acquisition unit, a search unit, and a search result synthesis unit. The acquisition unit acquires a first image and a second image different from the first image. The search unit searches for a feature portion in the first image by executing the first search process on the first image, and the first search process on the second image. By executing a second search process different from the above, the feature portion in the second image is searched. The search result synthesis unit synthesizes each search result by the search unit.

図1は、第1の実施形態に係る超音波診断装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of the ultrasonic diagnostic apparatus according to the first embodiment. 図2は、第1の実施形態を説明するための図である。FIG. 2 is a diagram for explaining the first embodiment. 図3は、第1の実施形態に係る処理回路による解析処理の手順を示すフローチャートである。FIG. 3 is a flowchart showing a procedure of analysis processing by the processing circuit according to the first embodiment. 図4は、第1の実施形態を説明するための図である。FIG. 4 is a diagram for explaining the first embodiment. 図5は、第1の実施形態を説明するための図である。FIG. 5 is a diagram for explaining the first embodiment. 図6は、第1の実施形態を説明するための図である。FIG. 6 is a diagram for explaining the first embodiment. 図7は、第1の実施形態に係る検索結果合成機能による処理手順を示すフローチャートである。FIG. 7 is a flowchart showing a processing procedure by the search result synthesis function according to the first embodiment. 図8は、第1の実施形態に係る検索結果合成機能の処理動作を説明するための図である。FIG. 8 is a diagram for explaining the processing operation of the search result synthesis function according to the first embodiment. 図9は、第1の実施形態を説明するための図である。FIG. 9 is a diagram for explaining the first embodiment. 図10は、第1の実施形態を説明するための図である。FIG. 10 is a diagram for explaining the first embodiment. 図11は、第1の実施形態の第1の変形例に係る検索結果合成機能による処理手順を示すフローチャートである。FIG. 11 is a flowchart showing a processing procedure by the search result synthesis function according to the first modification of the first embodiment. 図12は、第1の実施形態の第1の変形例に係る検索結果合成機能の処理動作を説明するための図である。FIG. 12 is a diagram for explaining the processing operation of the search result synthesis function according to the first modification of the first embodiment. 図13は、第1の実施形態の第1の変形例に係る検索結果合成機能の処理動作を説明するための図である。FIG. 13 is a diagram for explaining the processing operation of the search result synthesis function according to the first modification of the first embodiment. 図14は、第1の実施形態の第2の変形例に係る検索結果合成機能による処理手順を示すフローチャートである。FIG. 14 is a flowchart showing a processing procedure by the search result synthesis function according to the second modification of the first embodiment. 図15は、第1の実施形態の第2の変形例に係る検索結果合成機能の処理動作を説明するための図である。FIG. 15 is a diagram for explaining the processing operation of the search result synthesis function according to the second modification of the first embodiment. 図16は、第1の実施形態の第3の変形例に係る検索結果合成機能の処理動作を説明するための図である。FIG. 16 is a diagram for explaining the processing operation of the search result synthesis function according to the third modification of the first embodiment. 図17は、第1の実施形態の第3の変形例に係る表示制御機能の処理動作を説明するための図である。FIG. 17 is a diagram for explaining the processing operation of the display control function according to the third modification of the first embodiment. 図18は、第1の実施形態の第3の変形例に係る検索結果合成機能の処理動作を説明するための図である。FIG. 18 is a diagram for explaining the processing operation of the search result synthesis function according to the third modification of the first embodiment. 図19は、第1の実施形態の第3の変形例に係る検索結果合成機能の処理動作を説明するための図である。FIG. 19 is a diagram for explaining the processing operation of the search result synthesis function according to the third modification of the first embodiment. 図20は、第1の実施形態の第4の変形例に係る表示制御機能の処理動作を説明するための図である。FIG. 20 is a diagram for explaining the processing operation of the display control function according to the fourth modification of the first embodiment. 図21は、第1の実施形態の第5の変形例に係る表示制御機能185の処理動作を説明するための図である。FIG. 21 is a diagram for explaining the processing operation of the display control function 185 according to the fifth modification of the first embodiment. 図22は、第2の実施形態に係る表示制御機能による表示制御処理の手順を示すフローチャートである。FIG. 22 is a flowchart showing a procedure of display control processing by the display control function according to the second embodiment. 図23は、第2の実施形態を説明するための図である。FIG. 23 is a diagram for explaining the second embodiment. 図24は、その他の実施形態に係る医用画像処理装置の構成例を示すブロック図である。FIG. 24 is a block diagram showing a configuration example of a medical image processing apparatus according to another embodiment.

以下、図面を参照して、実施形態に係る解析装置を説明する。 Hereinafter, the analysis apparatus according to the embodiment will be described with reference to the drawings.

(第1の実施形態)
第1の実施形態では、解析装置の一例として、超音波診断装置について説明する。図1は、第1の実施形態に係る超音波診断装置1の構成例を示すブロック図である。図1に示すように、第1の実施形態に係る超音波診断装置1は、装置本体100と、超音波プローブ101と、入力装置102と、ディスプレイ103とを備える。超音波プローブ101、入力装置102、及びディスプレイ103は、それぞれ装置本体100に接続される。
(First Embodiment)
In the first embodiment, an ultrasonic diagnostic apparatus will be described as an example of the analysis apparatus. FIG. 1 is a block diagram showing a configuration example of the ultrasonic diagnostic apparatus 1 according to the first embodiment. As shown in FIG. 1, the ultrasonic diagnostic apparatus 1 according to the first embodiment includes an apparatus main body 100, an ultrasonic probe 101, an input device 102, and a display 103. The ultrasonic probe 101, the input device 102, and the display 103 are each connected to the device main body 100.

超音波プローブ101は、複数の振動素子(圧電振動子)を有する。超音波プローブ101は、被検体Pの体表面に接触され、超音波の送受信(超音波走査)を行う。複数の振動素子は、後述する装置本体100が有する送信回路110から供給される駆動信号に基づいて、超音波を発生させる。発生した超音波は、被検体P内の音響インピーダンスの不整合面で反射され、組織内の散乱体によって散乱された成分等を含む反射波信号(受信エコー)として複数の振動素子にて受信される。超音波プローブ101は、複数の振動素子にて受信した反射波信号を、送信回路110へ送る。 The ultrasonic probe 101 has a plurality of vibrating elements (piezoelectric vibrators). The ultrasonic probe 101 comes into contact with the body surface of the subject P to transmit and receive ultrasonic waves (ultrasonic scanning). The plurality of vibrating elements generate ultrasonic waves based on a drive signal supplied from a transmission circuit 110 included in the device main body 100, which will be described later. The generated ultrasonic waves are reflected by the mismatched surface of the acoustic impedance in the subject P, and are received by a plurality of vibrating elements as reflected wave signals (received echoes) including components scattered by scatterers in the tissue. To. The ultrasonic probe 101 sends the reflected wave signal received by the plurality of vibrating elements to the transmission circuit 110.

なお、本実施形態では、超音波プローブ101が、マトリクス状(格子状)に配列された複数の振動素子を有する2次元超音波プローブ(「2Dアレイプローブ」とも表記する)である場合を説明するが、これに限定されるものではない。例えば、超音波プローブ101は、所定方向に1次元で配列された複数の振動素子を有する1次元超音波プローブ(「1Dアレイプローブ」とも表記する)であってもよい。 In this embodiment, the case where the ultrasonic probe 101 is a two-dimensional ultrasonic probe (also referred to as “2D array probe”) having a plurality of vibrating elements arranged in a matrix (lattice) will be described. However, it is not limited to this. For example, the ultrasonic probe 101 may be a one-dimensional ultrasonic probe (also referred to as “1D array probe”) having a plurality of vibrating elements arranged one-dimensionally in a predetermined direction.

入力装置102は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等を有し、超音波診断装置1の操作者からの各種設定要求を受け付け、装置本体100に対して受け付けた各種設定要求を転送する。また、例えば、入力装置102は、CAD処理を実行する指示を操作者から受け付ける。 The input device 102 includes a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, a joystick, and the like, and receives various setting requests from the operator of the ultrasonic diagnostic device 1 to the device main body 100. Transfer the various setting requests received to the mouse. Further, for example, the input device 102 receives an instruction to execute the CAD process from the operator.

ディスプレイ103は、超音波診断装置1の操作者が入力装置102を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したり、装置本体100において生成された超音波画像データ等を表示したりする。例えば、ディスプレイ103は、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等によって構成される。また、ディスプレイ103のことをモニタと適宜称する。なお、ディスプレイ103は、表示部の一例である。 The display 103 displays a GUI (Graphical User Interface) for the operator of the ultrasonic diagnostic apparatus 1 to input various setting requests using the input device 102, ultrasonic image data generated in the apparatus main body 100, and the like. Or display. For example, the display 103 is composed of a liquid crystal display, a CRT (Cathode Ray Tube) display, or the like. Further, the display 103 is appropriately referred to as a monitor. The display 103 is an example of a display unit.

装置本体100は、超音波プローブ101が受信した反射波信号に基づいて、超音波画像データを生成する装置である。図1に示すように、装置本体100は、例えば、送信回路110と、受信回路120と、Bモード処理回路130と、ドプラ処理回路140と、画像生成回路150と、画像メモリ160と、記憶回路170と、処理回路180とを有する。送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、画像メモリ160、記憶回路170、及び処理回路180は、互いに通信可能に接続される。 The device main body 100 is a device that generates ultrasonic image data based on the reflected wave signal received by the ultrasonic probe 101. As shown in FIG. 1, the apparatus main body 100 includes, for example, a transmission circuit 110, a reception circuit 120, a B mode processing circuit 130, a Doppler processing circuit 140, an image generation circuit 150, an image memory 160, and a storage circuit. It has 170 and a processing circuit 180. The transmission circuit 110, the reception circuit 120, the B-mode processing circuit 130, the Doppler processing circuit 140, the image generation circuit 150, the image memory 160, the storage circuit 170, and the processing circuit 180 are communicably connected to each other.

送信回路110は、パルサ回路等を有する。パルサ回路は、所定のレート周波数(PRF:Pulse Repetition Frequency)で、送信超音波を形成するためのレートパルスを繰り返し発生し、発生したレートパルスを超音波プローブ101に出力する。 The transmission circuit 110 includes a pulsar circuit and the like. The pulser circuit repeatedly generates a rate pulse for forming a transmission ultrasonic wave at a predetermined rate frequency (PRF: Pulse Repetition Frequency), and outputs the generated rate pulse to the ultrasonic probe 101.

また、送信回路110は、処理回路180による制御を受けて、パルサ回路が出力する駆動信号の振幅の値を出力する。また、送信回路110は、処理回路180による制御を受けて、超音波プローブ101に、超音波プローブ101から送信される超音波に対する遅延量を送信する。 Further, the transmission circuit 110 is controlled by the processing circuit 180 and outputs the value of the amplitude of the drive signal output by the pulsar circuit. Further, the transmission circuit 110 is controlled by the processing circuit 180 to transmit the delay amount with respect to the ultrasonic wave transmitted from the ultrasonic probe 101 to the ultrasonic probe 101.

受信回路120は、A/D変換器及び受信ビームフォーマを有する。受信回路120は、超音波プローブ101から出力された反射波信号を受信すると、まず、A/D変換器が、反射波信号をデジタルデータに変換し、受信ビームフォーマが、これらの各チャンネルからのデジタルデータに対し整相加算処理を行って反射波データを生成し、生成した反射波データをBモード処理回路130及びドプラ処理回路140に送信する。 The receiving circuit 120 includes an A / D converter and a receiving beam former. When the receiving circuit 120 receives the reflected wave signal output from the ultrasonic probe 101, the A / D converter first converts the reflected wave signal into digital data, and the receiving beam former converts the reflected wave signal from each of these channels. The digital data is subjected to phasing addition processing to generate reflected wave data, and the generated reflected wave data is transmitted to the B mode processing circuit 130 and the Doppler processing circuit 140.

Bモード処理回路130は、受信回路120から出力された反射波データを受信し、受信した反射波データに対して対数増幅、包絡線検波処理等を行って、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。 The B-mode processing circuit 130 receives the reflected wave data output from the receiving circuit 120, performs logarithmic amplification, envelope detection processing, etc. on the received reflected wave data, and expresses the signal strength by the brightness of the brightness. Data to be generated (B mode data) is generated.

ドプラ処理回路140は、受信回路120から出力された反射波データを受信し、受信した反射波データから速度情報を周波数解析し、ドプラ効果による血流や組織、造影剤エコー成分を抽出し、平均速度、分散、パワー等の移動体情報を多点について抽出したデータ(ドプラデータ)を生成する。 The Doppler processing circuit 140 receives the reflected wave data output from the receiving circuit 120, frequency-analyzes the velocity information from the received reflected wave data, extracts the blood flow, tissue, and contrast agent echo component due to the Doppler effect, and averages them. Generate data (Dopla data) that extracts moving object information such as speed, dispersion, and power for multiple points.

画像生成回路150は、Bモード処理回路130及びドプラ処理回路140が生成したデータから超音波画像データを生成する。画像生成回路150は、Bモード処理回路130が生成したBモードデータから反射波の強度を輝度で表したBモード画像データを生成する。また、画像生成回路150は、ドプラ処理回路140が生成したドプラデータから移動体情報を表すドプラ画像データを生成する。ドプラ画像データは、速度画像データ、分散画像データ、パワー画像データ、又は、これらを組み合わせた画像データである。ここで、例えば、画像生成回路150は、リアルタイムで時系列に生成した画像を、画像メモリ160に記憶させる。 The image generation circuit 150 generates ultrasonic image data from the data generated by the B mode processing circuit 130 and the Doppler processing circuit 140. The image generation circuit 150 generates B-mode image data in which the intensity of the reflected wave is represented by brightness from the B-mode data generated by the B-mode processing circuit 130. Further, the image generation circuit 150 generates Doppler image data representing mobile information from the Doppler data generated by the Doppler processing circuit 140. The Doppler image data is speed image data, distributed image data, power image data, or image data in which these are combined. Here, for example, the image generation circuit 150 stores the images generated in time series in real time in the image memory 160.

ここで、画像生成回路150は、一般的には、超音波走査の走査線信号列を、テレビ等に代表されるビデオフォーマットの走査線信号列に変換(スキャンコンバート)し、表示用の超音波画像データを生成する。具体的には、画像生成回路150は、超音波プローブ101による超音波の走査形態に応じて座標変換を行うことで、表示用の超音波画像データを生成する。また、画像生成回路150は、スキャンコンバート以外に、種々の画像処理として、例えば、スキャンコンバート後の複数の画像フレームを用いて、輝度の平均値画像を再生成する画像処理(平滑化処理)や、画像内で微分フィルタを用いる画像処理(エッジ強調処理)等を行う。また、画像生成回路150は、超音波画像データに、種々のパラメータの文字情報、目盛り、ボディーマーク等を合成する。 Here, the image generation circuit 150 generally converts (scan-converts) a scanning line signal string of ultrasonic scanning into a scanning line signal string of a video format typified by a television or the like, and ultrasonic waves for display. Generate image data. Specifically, the image generation circuit 150 generates ultrasonic image data for display by performing coordinate conversion according to the scanning form of ultrasonic waves by the ultrasonic probe 101. In addition to the scan conversion, the image generation circuit 150 also uses, for example, a plurality of image frames after the scan conversion to regenerate an image with an average value of brightness as various image processing (smoothing processing). , Perform image processing (edge enhancement processing) using a differential filter in the image. Further, the image generation circuit 150 synthesizes character information, scales, body marks, and the like of various parameters with the ultrasonic image data.

画像メモリ160は、画像生成回路150が生成した画像データ(Bモード画像データ、ドプラ画像データ等)を記憶するメモリである。また、画像メモリ160は、Bモード処理回路130及びドプラ処理回路140が生成したデータを記憶することも可能である。画像メモリ160が記憶するBモードデータ及びドプラデータは、例えば、操作者が呼び出すことが可能となっており、画像生成回路150を経由して表示用の超音波画像データとなる。 The image memory 160 is a memory for storing image data (B-mode image data, Doppler image data, etc.) generated by the image generation circuit 150. The image memory 160 can also store the data generated by the B-mode processing circuit 130 and the Doppler processing circuit 140. The B-mode data and Doppler data stored in the image memory 160 can be called by an operator, for example, and become ultrasonic image data for display via the image generation circuit 150.

記憶回路170は、超音波送受信、画像処理及び表示処理などを行うための制御プログラムや、診断情報(例えば、患者ID、医師の所見等)や、診断プロトコルや各種ボディーマーク等の各種データを記憶する。また、記憶回路170は、必要に応じて、画像メモリ160が記憶する画像データの保管等にも使用される。また、記憶回路170が記憶するデータは、図示しない通信インターフェースを介して、外部装置へ転送することができる。 The storage circuit 170 stores control programs for performing ultrasonic transmission / reception, image processing, display processing, etc., diagnostic information (for example, patient ID, doctor's findings, etc.), and various data such as diagnostic protocols and various body marks. do. The storage circuit 170 is also used for storing image data stored in the image memory 160, if necessary. Further, the data stored in the storage circuit 170 can be transferred to an external device via a communication interface (not shown).

処理回路180は、超音波診断装置1の処理全体を制御する。具体的には、処理回路180は、入力装置102を介して操作者から入力された各種設定要求や、記憶回路170から読み込んだ各種制御プログラムおよび各種データに基づき、送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150等の処理を制御する。また、処理回路180は、画像メモリ160が記憶する超音波画像データをディスプレイ103に表示させる。 The processing circuit 180 controls the entire processing of the ultrasonic diagnostic apparatus 1. Specifically, the processing circuit 180 is based on various setting requests input from the operator via the input device 102, various control programs and various data read from the storage circuit 170, and the transmission circuit 110 and the reception circuit 120. It controls the processing of the B-mode processing circuit 130, the Doppler processing circuit 140, the image generation circuit 150, and the like. Further, the processing circuit 180 causes the display 103 to display the ultrasonic image data stored in the image memory 160.

また、図1に示すように、処理回路180は、取得機能181、検索機能182、検索結果合成機能183、マーカ情報生成機能184及び表示制御機能185を実行する。ここで、例えば、図1に示す処理回路180の構成要素である取得機能181と、検索機能182と、検索結果合成機能183と、マーカ情報生成機能184と、表示制御機能185とが実行する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路170に記録されている。処理回路180は、各プログラムを記憶回路170から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路180は、図1の処理回路180内に示された各機能を有することとなる。なお、取得機能181、検索機能182、検索結果合成機能183、マーカ情報生成機能184及び表示制御機能185の処理については、後述する。 Further, as shown in FIG. 1, the processing circuit 180 executes the acquisition function 181 and the search function 182, the search result synthesis function 183, the marker information generation function 184, and the display control function 185. Here, for example, the acquisition function 181 which is a component of the processing circuit 180 shown in FIG. 1, the search function 182, the search result synthesis function 183, the marker information generation function 184, and the display control function 185 are executed. The processing function is recorded in the storage circuit 170 in the form of a program that can be executed by a computer. The processing circuit 180 is a processor that realizes a function corresponding to each program by reading each program from the storage circuit 170 and executing the program. In other words, the processing circuit 180 in the state where each program is read out has each function shown in the processing circuit 180 of FIG. The processing of the acquisition function 181 and the search function 182, the search result synthesis function 183, the marker information generation function 184, and the display control function 185 will be described later.

なお、装置本体100に内蔵される送信回路110、受信回路120、Bモード処理回路130、ドプラ処理回路140、画像生成回路150、及び処理回路180は、プロセッサ(CPU(Central Processing Unit)、MPU(Micro-Processing Unit)、集積回路等)のハードウェアにより構成される。 The transmission circuit 110, the reception circuit 120, the B mode processing circuit 130, the Doppler processing circuit 140, the image generation circuit 150, and the processing circuit 180 built in the apparatus main body 100 include a processor (CPU (Central Processing Unit)) and an MPU (MPU). Micro-Processing Unit), integrated circuit, etc.) hardware.

このように構成される超音波診断装置1は、超音波走査によりリアルタイムに生成する超音波画像や過去の超音波走査により生成した超音波画像を表示する。ところで、取得した生体画像中の特徴的な部位を自動検出するCAD(Computer Aided Detection)機能がある。ここでCAD手法の一例として、1枚の入力画像に対して複数のCAD処理を行い、それぞれの処理の結果を合成して最終的な特徴部位の検出結果として表示する方法が考えられる。 The ultrasonic diagnostic apparatus 1 configured in this way displays an ultrasonic image generated by ultrasonic scanning in real time and an ultrasonic image generated by past ultrasonic scanning. By the way, there is a CAD (Computer Aided Detection) function that automatically detects a characteristic part in the acquired biological image. Here, as an example of the CAD method, a method of performing a plurality of CAD processes on one input image, synthesizing the results of each process, and displaying it as a final detection result of a feature portion can be considered.

しかしながら、この方法では、1枚の画像に対する計算量が多く処理に時間が長くなる。このため、この方法は、例えば、超音波診断装置でのリアルタイム処理には不向きである。また、単純に画像1枚あたりのCAD処理を減らすと、CADの性能が低下する可能性がある。 However, in this method, the amount of calculation for one image is large and the processing time becomes long. Therefore, this method is not suitable for real-time processing in, for example, an ultrasonic diagnostic apparatus. Further, if the CAD processing per image is simply reduced, the CAD performance may be deteriorated.

そこで、第1の実施形態に係る超音波診断装置1は、CAD処理を複数の入力画像に分散させ、各画像での結果を合成して、1枚の画像の最終的な検出結果として表示する。図2は、第1の実施形態を説明するための図である。図2では、4種類のCAD処理を4フレームの画像に分散させる場合を示す。 Therefore, the ultrasonic diagnostic apparatus 1 according to the first embodiment disperses the CAD process into a plurality of input images, synthesizes the results of each image, and displays it as the final detection result of one image. .. FIG. 2 is a diagram for explaining the first embodiment. FIG. 2 shows a case where four types of CAD processing are distributed over a four-frame image.

図2に示す例では、N-2フレーム目の画像、N-1フレーム目の画像、Nフレーム目の画像、N+1フレーム目の画像を用いて、Nフレーム目の画像の検出結果を取得する場合について説明する。例えば、第1の実施形態に係る超音波診断装置1は、N-2フレーム目の画像、N-1フレーム目の画像、Nフレーム目の画像、N+1フレーム目の画像に対して、それぞれ手法の異なるCAD処理を実行する。 In the example shown in FIG. 2, the detection result of the image of the Nth frame is acquired by using the image of the N-2nd frame, the image of the N-1th frame, the image of the Nth frame, and the image of the N + 1th frame. Will be described. For example, the ultrasonic diagnostic apparatus 1 according to the first embodiment has a method for the image of the N-2nd frame, the image of the N-1th frame, the image of the Nth frame, and the image of the N + 1th frame, respectively. Perform different CAD processing.

より具体的には、第1の実施形態に係る超音波診断装置1は、N-2フレーム目の画像に対して手法Aを用いたCAD処理を実行してCAD処理結果「Result N-2」を得る。また、第1の実施形態に係る超音波診断装置1は、N-1フレーム目の画像に対して手法Bを用いたCAD処理を実行してCAD処理結果「Result N-1」を得る。更に、第1の実施形態に係る超音波診断装置1は、Nフレーム目の画像に対して手法Cを用いたCAD処理を実行してCAD処理結果「Result N」を得る。そして、第1の実施形態に係る超音波診断装置1は、N+1フレーム目の画像に対して手法Dを用いたCAD処理を実行してCAD処理結果「Result N+1」を得る。 More specifically, the ultrasonic diagnostic apparatus 1 according to the first embodiment executes CAD processing using the method A on the image of the N-2nd frame, and the CAD processing result "Result N-2". To get. Further, the ultrasonic diagnostic apparatus 1 according to the first embodiment executes CAD processing using the method B on the image of the N-1th frame to obtain a CAD processing result “Result N-1”. Further, the ultrasonic diagnostic apparatus 1 according to the first embodiment executes CAD processing using the method C on the image at the Nth frame to obtain a CAD processing result “Result N”. Then, the ultrasonic diagnostic apparatus 1 according to the first embodiment executes CAD processing using the method D on the image at the N + 1th frame to obtain the CAD processing result “Result N + 1”.

なお、第1の実施形態に係る超音波診断装置1は、各CAD処理において、例えば、操作者によって設定された検索範囲に対して、CAD処理毎に設定された、検索窓と教師データと検索アルゴリズムとをパラメータとして用いて、検索範囲における特徴部位の検索処理を実行する。より具体的には、第1の実施形態に係る超音波診断装置1は、検索範囲内で検索窓を移動させ、各位置において、検索窓の画像情報を、教師データと検索アルゴリズムを用いて解析することで、各検索窓の画像情報が特徴部位に相当する情報である確率を計算する。なお、第1の実施形態に係る超音波診断装置1は、確率の代わりに、類似性の程度を表す別の指標を計算しても良い。また、検索窓とは、例えば教師データと比較する検索範囲内の領域の単位であり、教師データとは、例えば特徴部位の標本となる画像情報であり、検索アルゴリズムとは、検索窓の画像情報と教師データとの類似度を算出するためのアルゴリズムである。教師データは、例えば、過去に取得された医用画像における特徴部位の画像情報、又は過去に取得された複数の医用画像それぞれにおける特徴部位の画像情報を基に機械学習を行った結果として得られた情報であっても良い。また、検索アルゴリズムは、例えば、機械学習による学習済みネットワークを用いて、処理対象の画像において特徴部位に相当する画像情報を検索し、検索結果を出力するアルゴリズムである。 In each CAD process, the ultrasonic diagnostic apparatus 1 according to the first embodiment searches for a search window, teacher data, and search, which are set for each CAD process, for example, with respect to a search range set by the operator. Using the algorithm as a parameter, the search process of the feature part in the search range is executed. More specifically, the ultrasonic diagnostic apparatus 1 according to the first embodiment moves the search window within the search range, and analyzes the image information of the search window at each position by using the teacher data and the search algorithm. By doing so, the probability that the image information of each search window is the information corresponding to the feature portion is calculated. The ultrasonic diagnostic apparatus 1 according to the first embodiment may calculate another index indicating the degree of similarity instead of the probability. Further, the search window is, for example, a unit of an area within the search range to be compared with the teacher data, the teacher data is, for example, image information that is a sample of a feature part, and the search algorithm is the image information of the search window. It is an algorithm for calculating the similarity between and the teacher data. The teacher data was obtained as a result of performing machine learning based on, for example, the image information of the feature part in the medical image acquired in the past, or the image information of the feature part in each of a plurality of medical images acquired in the past. It may be information. Further, the search algorithm is an algorithm that searches for image information corresponding to a feature portion in an image to be processed by using, for example, a trained network by machine learning, and outputs a search result.

続いて、第1の実施形態に係る超音波診断装置1は、各CAD処理結果を合成する。例えば、第1の実施形態に係る超音波診断装置1は、「Result N-2」、「Result N-1」、「Result N」及び「Result N+1」を合成して、Nフレーム目の画像の検出結果とする。そして、第1の実施形態に係る超音波診断装置1は、例えば図2に示すように、Nフレーム目の検出結果をディスプレイ103に表示させる。図2の例では、第1の実施形態に係る超音波診断装置1は、特徴部位として検出された領域に矩形で示すマーカ情報を重畳してディスプレイ103に表示させる。 Subsequently, the ultrasonic diagnostic apparatus 1 according to the first embodiment synthesizes each CAD processing result. For example, the ultrasonic diagnostic apparatus 1 according to the first embodiment synthesizes "Result N-2", "Result N-1", "Result N" and "Result N + 1" to obtain an image of the Nth frame. Use as the detection result. Then, the ultrasonic diagnostic apparatus 1 according to the first embodiment displays the detection result of the Nth frame on the display 103, for example, as shown in FIG. In the example of FIG. 2, the ultrasonic diagnostic apparatus 1 according to the first embodiment superimposes marker information indicated by a rectangle on a region detected as a feature portion and displays it on the display 103.

このような解析処理は、処理回路180が取得機能181、検索機能182、検索結果合成機能183、マーカ情報生成機能184及び表示制御機能185を実行することによって実現される。例えば、第1の実施形態に係る取得機能181は、複数の入力画像を取得する。言い換えると、取得機能181は、第1の画像と、第1の画像とは異なる第2の画像を取得する。 Such analysis processing is realized by the processing circuit 180 executing the acquisition function 181 and the search function 182, the search result synthesis function 183, the marker information generation function 184, and the display control function 185. For example, the acquisition function 181 according to the first embodiment acquires a plurality of input images. In other words, the acquisition function 181 acquires a first image and a second image different from the first image.

第1の実施形態に係る検索機能182は、複数の入力画像に対して異なる検索処理を実行する。すなわち、検索機能182は、第1の画像を対象に第1の検索処理を実行することで、第1の画像における特徴部位を検索し、第2の画像を対象に、第1の検索処理とは異なる第2の検索処理を実行することで、第2の画像における特徴部位を検索する。ここで、検索機能182は、第1の検索処理と第2の検索処理とで異なるパラメータを設定する。より具体的には、検索機能182は、パラメータとして検索処理対象の画像内に複数の検索窓を設定し、各検索窓について特徴部位である確率を計算する。 The search function 182 according to the first embodiment executes different search processes for a plurality of input images. That is, the search function 182 searches for a feature portion in the first image by executing the first search process on the first image, and performs the first search process on the second image. Searches for a feature portion in the second image by executing a different second search process. Here, the search function 182 sets different parameters for the first search process and the second search process. More specifically, the search function 182 sets a plurality of search windows in the image to be searched as parameters, and calculates the probability of being a feature portion for each search window.

第1の実施形態に係る検索結果合成機能183は、検索機能182による各検索結果を合成する。第1の実施形態に係るマーカ情報生成機能184は、検索結果合成機能183による合成結果に基づいて、マーカ情報を生成する。第1の実施形態に係る表示制御機能185は、医用画像をディスプレイ103に表示させ、マーカ情報に基づくマーカを、医用画像上に表示させる。 The search result synthesis function 183 according to the first embodiment synthesizes each search result by the search function 182. The marker information generation function 184 according to the first embodiment generates marker information based on the synthesis result by the search result synthesis function 183. The display control function 185 according to the first embodiment displays the medical image on the display 103, and displays the marker based on the marker information on the medical image.

図3は、第1の実施形態に係る処理回路180による解析処理の手順を示すフローチャートである。図3では、処理回路180の動作を説明するフローチャートを示し、各構成要素がフローチャートのどのステップに対応するかを説明する。ステップS1及びステップS7は、取得機能181により実現されるステップである。ステップS1では、取得機能181は、画像を取得する。例えば、取得機能181は、リアルタイムで時系列に生成される超音波画像のうち最新の画像を画像メモリ160から取得する。 FIG. 3 is a flowchart showing a procedure of analysis processing by the processing circuit 180 according to the first embodiment. FIG. 3 shows a flowchart explaining the operation of the processing circuit 180, and describes which step of the flowchart each component corresponds to. Step S1 and step S7 are steps realized by the acquisition function 181. In step S1, the acquisition function 181 acquires an image. For example, the acquisition function 181 acquires the latest image of the ultrasonic images generated in time series in real time from the image memory 160.

ステップS2及びステップS3は、検索機能182により実現されるステップである。ステップS2では、検索機能182は、パラメータを設定する。ここで、検索機能182は、所定の時間間隔毎に異なるパラメータを設定する。図3に示す例では、検索機能182は、最新の画像を取得する毎に異なるパラメータを設定するものとして説明する。言い換えると、検索機能182は、1フレーム毎にパラメータを変更する。なお、検索機能182は、例えば5秒毎等、時間を区切ってパラメータを変更してもよい。 Step S2 and step S3 are steps realized by the search function 182. In step S2, the search function 182 sets the parameters. Here, the search function 182 sets different parameters at predetermined time intervals. In the example shown in FIG. 3, the search function 182 is described as setting different parameters each time the latest image is acquired. In other words, the search function 182 changes the parameters for each frame. The search function 182 may change the parameters by dividing the time, for example, every 5 seconds.

例えば、検索機能182は、パラメータとして検索処理対象の画像内に複数の検索窓を設定する。ここで、検索機能182は、第1の方法、第2の方法、又はそれらを組み合わせた方法で、画像内に複数の検索窓を設定する。図4、図5及び図6は、第1の実施形態を説明するための図である。 For example, the search function 182 sets a plurality of search windows in the image to be searched as a parameter. Here, the search function 182 sets a plurality of search windows in the image by the first method, the second method, or a method in which they are combined. 4, 5 and 6 are diagrams for explaining the first embodiment.

より具体的には、第1の方法では、検索機能182は、第1の検索処理と第2の検索処理とで異なる大きさの検索窓を設定する。図4では、1フレーム毎に設定する検索窓を変更してサイズの異なる3つの検索窓を、検索窓4a、検索窓4b及び検索窓4cの順で設定する場合について説明する。 More specifically, in the first method, the search function 182 sets search windows having different sizes for the first search process and the second search process. FIG. 4 describes a case where the search window set for each frame is changed and three search windows having different sizes are set in the order of the search window 4a, the search window 4b, and the search window 4c.

例えば、検索機能182は、N-1フレーム目の画像に対して、検索窓4aを設定している場合、検索機能182は、Nフレーム目の画像に対して、検索窓4bを設定する。なお、検索機能182は、N+1フレーム目の画像に対して、検索窓4cを設定する。 For example, when the search function 182 sets the search window 4a for the image in the N-1th frame, the search function 182 sets the search window 4b for the image in the Nth frame. The search function 182 sets the search window 4c for the image in the N + 1th frame.

別の例を挙げると、第1の方法では、検索機能182は、第1の検索処理と第2の検索処理とで相対的な大きさが異なる検索窓を設定する。即ち、検索機能182は、第1の検索処理における検索窓の第1の画像に対する相対的な大きさと、第2の検索処理における検索窓の第2の画像に対する相対的な大きさとが異なるように、第1の検索処理と第2の検索処理との検索窓を設定する。図5では、1フレーム毎に画像のサイズを変更して、サイズが同じ3つの検索窓を、検索窓5a、検索窓5b及び検索窓5cの順で設定する場合について説明する。 To give another example, in the first method, the search function 182 sets search windows having different relative sizes between the first search process and the second search process. That is, in the search function 182, the size of the search window relative to the first image in the first search process is different from the size of the search window relative to the second image in the second search process. , Set a search window for the first search process and the second search process. FIG. 5 describes a case where the size of the image is changed for each frame and three search windows having the same size are set in the order of the search window 5a, the search window 5b, and the search window 5c.

例えば、検索機能182は、N-1フレーム目の画像に対して、検索窓5aを設定する。また、検索機能182は、Nフレーム目の画像をN-1フレーム目の画像よりも拡大し、検索窓5aと同じサイズの検索窓5bを、Nフレーム目の画像に対して設定する。また、検索機能182は、N+1フレーム目の画像をNフレーム目の画像よりも拡大し、検索窓5a及び検索窓5bと同じサイズの検索窓5cを、N+1フレーム目の画像に対して設定する。 For example, the search function 182 sets the search window 5a for the image in the N-1th frame. Further, the search function 182 enlarges the image of the Nth frame from the image of the N-1th frame, and sets the search window 5b having the same size as the search window 5a with respect to the image of the Nth frame. Further, the search function 182 enlarges the image of the N + 1th frame more than the image of the N + 1th frame, and sets the search window 5a and the search window 5c having the same size as the search window 5b with respect to the image of the N + 1th frame.

また、第2の方法では、検索機能182は、第1の検索処理と第2の検索処理とで異なる位置に検索窓を設定する。図6では、1種類の大きさの検索窓を用いて、1フレーム毎に設定する検索窓の位置を変更する場合について説明する。なお、第2の方法では、検索機能182は、各フレームに同じサイズの検索窓を設定する。 Further, in the second method, the search function 182 sets the search window at different positions in the first search process and the second search process. FIG. 6 describes a case where the position of the search window set for each frame is changed by using the search windows of one type of size. In the second method, the search function 182 sets a search window of the same size in each frame.

例えば、検索機能182は、N-2フレーム目の画像に対して、検索範囲の左上を検索の開始位置として検索窓を設定し、検索範囲の右下を検索の終了位置として検索範囲内で検索窓を移動させる。より具体的には、検索機能182は、検索範囲において開始位置の左上から右側に検索窓を重畳させる。例えば、図6では、検索窓が半分重畳するように、検索窓を右側に移動させる場合を示している。なお、図6では、重畳している検索窓を破線で示している。そして、検索機能182は、右側まで検索窓を移動させた場合、下側に検索窓を移動させて、左側から右側まで検索窓を移動させる。このようにして、検索機能182は、検索範囲において検索窓を移動させることで、検索範囲全体に検索窓を設定する。 For example, the search function 182 sets a search window with the upper left of the search range as the search start position and the lower right of the search range as the search end position for the image in the N-2th frame, and searches within the search range. Move the window. More specifically, the search function 182 superimposes the search window from the upper left to the right of the start position in the search range. For example, FIG. 6 shows a case where the search window is moved to the right so that the search windows are half overlapped. In FIG. 6, the superimposed search windows are shown by broken lines. Then, when the search window is moved to the right side, the search function 182 moves the search window to the lower side and moves the search window from the left side to the right side. In this way, the search function 182 sets the search window in the entire search range by moving the search window in the search range.

また、例えば、検索機能182は、N-1フレーム目の画像に対して、検索範囲の左上から右下側にずらした位置を検索の開始位置として検索窓を設定し、検索範囲の右下から左上側にずらした位置を検索の終了位置として検索範囲内で検索窓を移動させる。そして、検索機能182は、N-1フレーム目の画像の検索範囲において開始位置から終了位置まで検索窓を移動させることで検索窓を設定する。このように、N-1フレーム目の検索窓の設定位置が、N-2フレーム目の検索窓の設定値からずれることになる。この結果、N-1フレーム目では、N-2フレーム目とは異なる領域に検索窓を設定することが可能になる。 Further, for example, the search function 182 sets a search window as a search start position at a position shifted from the upper left to the lower right side of the search range with respect to the image in the N-1th frame, and from the lower right of the search range. Move the search window within the search range with the position shifted to the upper left as the end position of the search. Then, the search function 182 sets the search window by moving the search window from the start position to the end position in the search range of the image in the N-1th frame. In this way, the set position of the search window in the N-1 frame deviates from the set value of the search window in the N-2 frame. As a result, in the N-1th frame, the search window can be set in an area different from that in the N-2th frame.

そして、例えば、検索機能182は、Nフレーム目の画像に対して、N-1フレーム目の画像の開始位置から更に右下側にずらした位置を検索の開始位置として検索窓を設定し、N-1フレーム目の画像の終了位置から更に左上側にずらした位置を検索の終了位置として、検索範囲内で検索窓を移動させる。そして、検索機能182は、Nフレーム目の画像の検索範囲において開始位置から終了位置まで検索窓を移動させることで検索窓を設定する。このように、Nフレーム目の検索窓の設定位置が、N-1フレーム目の検索窓の設定値からずれることになる。この結果、Nフレーム目では、N-1フレーム目とは異なる領域に検索窓を設定することが可能になる。 Then, for example, the search function 182 sets the search window as the search start position at a position shifted further to the lower right from the start position of the image in the N-1th frame with respect to the image in the Nth frame, and N -Move the search window within the search range with the position shifted further to the upper left from the end position of the image in the 1st frame as the end position of the search. Then, the search function 182 sets the search window by moving the search window from the start position to the end position in the search range of the image at the Nth frame. In this way, the set position of the search window in the Nth frame deviates from the set value of the search window in the N-1th frame. As a result, in the Nth frame, the search window can be set in an area different from that in the N-1th frame.

なお、図6に示す例では、1種類の大きさの検索窓を用いて、検索範囲において検索の開始位置と終了位置との組み合わせを変更する場合について説明したが、実施形態はこれに限定されるものではない。例えば、検索範囲において検索の開始位置及び終了位置のいずれかを変更するようにしてもよい。また、検索の開始位置及び終了位置のいずれかを変更することに加えて、更に、大きさの異なる検索窓を用いてもよい。 In the example shown in FIG. 6, a case where the combination of the search start position and the search end position is changed in the search range using a search window of one type has been described, but the embodiment is limited to this. It's not something. For example, either the start position or the end position of the search may be changed in the search range. Further, in addition to changing either the start position or the end position of the search, search windows having different sizes may be used.

ステップS3では、検索機能182は、CAD検索を実行する。例えば、検索機能182は、入力装置102を介して、CAD処理を実行する指示を操作者から受け付けた場合、ステップS2で設定された各検索窓について特徴部位である確率を計算する。ここで言う特徴部位とは、例えば、腫瘍等の異常(悪性)部位である。なお、特徴部位は、正常(良性)部位であってもよい。例えば、正常(良性)部位とは、肝臓の血管腫(良性)である。 In step S3, the search function 182 executes a CAD search. For example, when the search function 182 receives an instruction to execute the CAD process from the operator via the input device 102, the search function 182 calculates the probability of being a feature portion for each search window set in step S2. The characteristic site referred to here is, for example, an abnormal (malignant) site such as a tumor. The characteristic site may be a normal (benign) site. For example, a normal (benign) site is a hemangioma (benign) of the liver.

例えば、検索機能182は、検索窓が設定された画像に対して、教師データと検索アルゴリズムとを用いて、各検索窓が特徴部位である確率を計算する。そして、検索機能182は、特徴部位である確率が所定の閾値以上である場合に、検索窓で囲まれた範囲を特徴部位として検出する。検索機能182は、画像に対する検索結果を例えば記憶回路170に記憶させる。 For example, the search function 182 calculates the probability that each search window is a feature part by using the teacher data and the search algorithm for the image for which the search window is set. Then, the search function 182 detects the range surrounded by the search window as the feature portion when the probability of being the feature portion is equal to or greater than a predetermined threshold value. The search function 182 stores the search result for the image in, for example, the storage circuit 170.

ステップS4は、検索結果合成機能183により実現されるステップである。ステップS4では、検索結果合成機能183は、合成処理を実行する。例えば、検索結果合成機能183は、検索機能182による各検索結果を合成する。図7は、第1の実施形態に係る検索結果合成機能183による処理手順を示すフローチャートであり、図8は、第1の実施形態に係る検索結果合成機能183の処理動作を説明するための図である。 Step S4 is a step realized by the search result synthesis function 183. In step S4, the search result compositing function 183 executes the compositing process. For example, the search result synthesis function 183 synthesizes each search result by the search function 182. FIG. 7 is a flowchart showing a processing procedure by the search result synthesis function 183 according to the first embodiment, and FIG. 8 is a diagram for explaining a processing operation of the search result synthesis function 183 according to the first embodiment. Is.

図7では、検索結果合成機能183の動作を説明するフローチャートを示す。ステップS11では、検索結果合成機能183は、所定数の画像に対する検索結果を取得する。例えば、検索結果合成機能183は、図8に示すように、N-2フレーム目の画像に対する検索結果と、N-1フレーム目の画像に対する検索結果と、Nフレーム目の画像に対する検索結果とを記憶回路170から取得する。なお、図8では、サイズが異なる検索窓8aと検索窓8bとを用いて検索した結果を示す。また、図8では、N-2フレーム目の画像、N-1フレーム目の画像及びNフレーム目の画像の3フレームの画像を用いてNフレーム目の検索結果を合成する場合について説明する。 FIG. 7 shows a flowchart illustrating the operation of the search result synthesis function 183. In step S11, the search result compositing function 183 acquires search results for a predetermined number of images. For example, as shown in FIG. 8, the search result composition function 183 obtains the search result for the image in the N-2nd frame, the search result for the image in the N-1th frame, and the search result for the image in the Nth frame. Obtained from the storage circuit 170. Note that FIG. 8 shows the results of searching using the search windows 8a and the search windows 8b having different sizes. Further, FIG. 8 describes a case where the search result of the Nth frame is synthesized by using the image of the N-2nd frame, the image of the N-1th frame, and the image of the Nth frame.

より具体的には、図8に示す例では、検索結果合成機能183は、N-2フレーム目の画像の検索窓8aに特徴部位が検出されており、N-1フレーム目の画像の検索窓8bに特徴部位が検出されており、Nフレーム目の画像の検索窓8aに特徴部位が検出されている検索結果を取得する。なお、図8に示す検索窓8aに検出されている特徴部位Tは、正しく検出された特徴部位であり、検索窓8bに検出されている特徴部位は、誤って検出された過検出の特徴部位であるものとする。 More specifically, in the example shown in FIG. 8, the search result composition function 183 has a feature portion detected in the search window 8a of the image in the N-2nd frame, and the search window of the image in the N-1th frame. The feature portion is detected in 8b, and the search result in which the feature portion is detected in the search window 8a of the image of the Nth frame is acquired. The feature portion T detected in the search window 8a shown in FIG. 8 is a correctly detected feature portion, and the feature portion detected in the search window 8b is an erroneously detected overdetected feature portion. It is assumed that.

ステップS12では、検索結果合成機能183は、ステップ11において取得した全ての画像に共通の検索結果を抽出する。例えば、図8に示す例では、N-2フレーム目の検索結果とNフレーム目の検索結果とに共通の検索結果である特徴部位Tが検出されている。しかしながら、図8に示す例では、N-1フレーム目の検索結果には、特徴部位Tが検出されていない。すなわち、図8に示す例では、3フレームに共通の検索結果が存在しない。かかる場合、検索結果合成機能183は、Nフレーム目の検索結果には特徴部位が検出されなかったことを示す合成処理の結果を得る。このように、検索結果合成機能183は、第1の画像における特徴部位と、第2の画像における特徴部位とで共通する特徴部位を合成結果とする。これにより、検索結果合成機能183は、過検出を軽減することが可能になる。 In step S12, the search result composition function 183 extracts a search result common to all the images acquired in step 11. For example, in the example shown in FIG. 8, the feature portion T, which is a common search result in the search result in the N-2nd frame and the search result in the Nth frame, is detected. However, in the example shown in FIG. 8, the feature portion T is not detected in the search result of the N-1th frame. That is, in the example shown in FIG. 8, there is no common search result in the three frames. In such a case, the search result synthesis function 183 obtains the result of the synthesis process indicating that the feature portion was not detected in the search result of the Nth frame. As described above, the search result synthesis function 183 sets the feature portion common to the feature portion in the first image and the feature portion in the second image as the synthesis result. As a result, the search result synthesis function 183 can reduce over-detection.

なお、図7に示すステップS12において、検索結果合成機能183は、全ての検索結果を抽出してもよい。かかる場合、検索結果合成機能183は、図8に示す例では、Nフレーム目の検索結果として検索窓8aに検出されている特徴部位Tと検索窓8bに検出されている特徴部位とを合成処理の結果とする。すなわち、検索結果合成機能183は、第1の画像における特徴部位と、第2の画像における特徴部位とを合成結果とする。 In step S12 shown in FIG. 7, the search result synthesis function 183 may extract all the search results. In such a case, in the example shown in FIG. 8, the search result synthesis function 183 synthesizes the feature portion T detected in the search window 8a and the feature portion detected in the search window 8b as the search result of the Nth frame. As a result of. That is, the search result synthesis function 183 sets the feature portion in the first image and the feature portion in the second image as the synthesis result.

図3に戻る。ステップS5では、マーカ情報生成機能184は、マーカ情報を生成する。例えば、マーカ情報生成機能184は、検索結果合成機能183による合成結果に基づいて、マーカ情報を生成する。ここで、マーカ情報は、検索窓に応じた形状を有する。例えば、マーカ情報生成機能184は、検索窓と同一の形状を有するマーカ情報を生成する。より具体的には、マーカ情報生成機能184は、図4や図8に示す検索窓と同一形状のマーカ情報を生成する。 Return to FIG. In step S5, the marker information generation function 184 generates marker information. For example, the marker information generation function 184 generates marker information based on the synthesis result by the search result synthesis function 183. Here, the marker information has a shape corresponding to the search window. For example, the marker information generation function 184 generates marker information having the same shape as the search window. More specifically, the marker information generation function 184 generates marker information having the same shape as the search window shown in FIGS. 4 and 8.

また、マーカ情報生成機能184は、特徴部位である確率に応じて色分けしたマーカ情報を生成する。例えば、マーカ情報生成機能184は、合成処理の結果、特徴部位である確率が80%以上であると検出された検索窓には優先度を「高」として、例えば、赤色のマーカ情報を生成する。また、例えば、マーカ情報生成機能184は、合成処理の結果、特徴部位である確率が60%以上80%未満であると検出された検索窓には優先度を「中」として、例えば、黄色のマーカ情報を生成する。また、例えば、マーカ情報生成機能184は、合成処理の結果、特徴部位である確率が40%以上60%未満であると検出された検索窓には優先度を「低」として、例えば、青色のマーカ情報を生成する。 Further, the marker information generation function 184 generates color-coded marker information according to the probability of being a feature portion. For example, the marker information generation function 184 sets the priority to "high" in the search window detected as a result of the synthesis process and the probability of being a feature portion is 80% or more, and generates, for example, red marker information. .. Further, for example, the marker information generation function 184 sets the priority to "medium" for the search window detected as a result of the synthesis processing that the probability of being a feature portion is 60% or more and less than 80%, for example, yellow. Generate marker information. Further, for example, the marker information generation function 184 sets the priority to "low" for the search window detected as a result of the synthesis processing that the probability of being a feature portion is 40% or more and less than 60%, for example, blue. Generate marker information.

ステップS6では、表示制御機能185は、合成処理の結果をディスプレイ103に表示させる。例えば、表示制御機能185は、医用画像をディスプレイ103に表示させ、マーカ情報に基づくマーカを、医用画像上に表示させる。なお、医用画像は、図8に示したN-2フレーム目の画像、N-1フレーム目の画像又はNフレーム目の画像であってもよいし、他の医用画像であってもよい。ここで、合成処理の結果、複数の特徴部位が得られる場合がある。このような場合、複数のマーカ情報が生成される。また、複数のマーカ情報が生成されると、マーカ情報が重なる場合がある。そこで、表示制御機能185は、重畳するマーカ情報の形状の外枠のみをディスプレイ103に表示させる。図9及び図10は、第1の実施形態を説明するための図である。 In step S6, the display control function 185 causes the display 103 to display the result of the synthesis process. For example, the display control function 185 causes the medical image to be displayed on the display 103, and the marker based on the marker information is displayed on the medical image. The medical image may be the image of the N-2nd frame, the image of the N-1th frame, the image of the Nth frame shown in FIG. 8, or another medical image. Here, as a result of the synthesis process, a plurality of characteristic sites may be obtained. In such a case, a plurality of marker information is generated. Further, when a plurality of marker information is generated, the marker information may overlap. Therefore, the display control function 185 causes the display 103 to display only the outer frame in the shape of the marker information to be superimposed. 9 and 10 are diagrams for explaining the first embodiment.

図9では、優先度に応じた3種類のマーカ情報が生成されている場合を示す(図9の9a)。また、図9では、4つのマーカ情報が異なる優先度の組み合わせで9種類生成される場合を示す(図9の9b~9jの矢印の左側)。図9に示すように、表示制御機能185は、1枚の画像において複数のマーカ情報が生成される場合、重畳するマーカ情報の形状の外枠のみをディスプレイ103に表示させる(図9の9b~9jの矢印の右側)。ここで、表示制御機能185は、例えば、重畳するマーカ情報の形状の外枠のみを、確率が最も高い色で色分けして表示させる。 FIG. 9 shows a case where three types of marker information according to the priority are generated (9a in FIG. 9). Further, FIG. 9 shows a case where nine types of four marker information are generated by combining different priorities (left side of arrows 9b to 9j in FIG. 9). As shown in FIG. 9, when a plurality of marker information is generated in one image, the display control function 185 displays only the outer frame in the shape of the superimposed marker information on the display 103 (9b to FIG. 9). To the right of the 9j arrow). Here, the display control function 185 displays, for example, only the outer frame of the shape of the marker information to be superimposed is color-coded with the color having the highest probability.

より具体的には、表示制御機能185は、重畳するマーカ情報の形状の外枠のみを、優先度の最も高いマーカ情報で色分けする。一例をあげると、表示制御機能185は、4つのマーカ情報の中で1つでも優先度が「高」であるマーカ情報が含まれている場合、マーカ情報の形状の外枠を優先度が「高」である「赤色」で示す(図9の9b、9c、9d、9g、9j)。また、表示制御機能185は、4つのマーカ情報の中で優先度の最も高いマーカ情報が「中」である場合、マーカ情報の形状の外枠を優先度が「中」である「黄色」で示す(図9の9e、9f、9i)。また、表示制御機能185は、4つのマーカ情報の中で優先度の最も高いマーカ情報が「低」である場合、マーカ情報の形状の外枠を優先度が「低」である「青色」で示す(図9の9h)。 More specifically, the display control function 185 color-codes only the outer frame of the shape of the superimposed marker information with the marker information having the highest priority. As an example, when the display control function 185 includes marker information having a priority of "high" among the four marker information, the priority is "" in the outer frame of the shape of the marker information. It is indicated by "red" which is "high" (9b, 9c, 9d, 9g, 9j in FIG. 9). Further, the display control function 185 sets the outer frame of the shape of the marker information to "yellow", which has a priority of "medium", when the marker information having the highest priority among the four marker information is "medium". It is shown (9e, 9f, 9i of FIG. 9). Further, when the marker information having the highest priority among the four marker information is "low", the display control function 185 sets the outer frame of the shape of the marker information to "blue" having the priority "low". It is shown (9h in FIG. 9).

このように、表示制御機能185は、各フレームに対する合成処理の結果をディスプレイ103に表示させる。すなわち、表示制御機能185は、複数の優先度が混在したマーカ情報を表示するのではなく、最も優先度が高いマーカ情報を選択して、マーカ情報の形状の外枠を表示する。このようにして、表示制御機能185は、煩雑さを抑えた合成処理の結果をディスプレイ103に表示させる。これにより、例えば、操作者は、特徴部位である確率に応じて色分けされた合成処理の結果を閲覧することが可能になる。この結果、操作者は、例えば、CAD処理の結果を容易に把握することが可能になる。 In this way, the display control function 185 causes the display 103 to display the result of the compositing process for each frame. That is, the display control function 185 does not display the marker information in which a plurality of priorities are mixed, but selects the marker information having the highest priority and displays the outer frame in the shape of the marker information. In this way, the display control function 185 causes the display 103 to display the result of the synthesis process with less complexity. This allows, for example, the operator to view the results of the color-coded synthesis process according to the probability of being a featured portion. As a result, the operator can easily grasp the result of the CAD process, for example.

なお、マーカ情報生成機能184は、特徴部位である確率に応じた色分けをせずにマーカ情報を生成してもよい。かかる場合、表示制御機能185は、重畳するマーカ情報の形状の外枠のみを表示させる。また、表示制御機能185は、最も優先度が高いマーカ情報を選択せずに、複数の優先度が混在したマーカ情報を表示するようにしてもよい。 The marker information generation function 184 may generate marker information without color-coding according to the probability of being a feature portion. In such a case, the display control function 185 displays only the outer frame in the shape of the marker information to be superimposed. Further, the display control function 185 may display the marker information in which a plurality of priorities are mixed without selecting the marker information having the highest priority.

更に、表示制御機能185は、マーカ情報の数の計測値を更にディスプレイ103に表示させてもよい。図10では、優先度が「高」であるマーカ情報が15個、優先度が「中」であるマーカ情報が0個、優先度が「低」であるマーカ情報が0個表示されている場合を示す。かかる場合、表示制御機能185は、図10に示すように、優先度が「高」であることを示すマーカ情報に対応付けて15、優先度が「中」であることを示すマーカ情報に対応付けて0、優先度が「低」であることを示すマーカ情報に対応付けて0を表示させる。これにより、例えば、操作者は、特徴部位である確率に応じた特徴部位の数を容易に把握することが可能になる。 Further, the display control function 185 may further display the measured value of the number of marker information on the display 103. In FIG. 10, when 15 marker information having a priority of “high”, 0 marker information having a priority of “medium”, and 0 marker information having a priority of “low” are displayed. Is shown. In such a case, as shown in FIG. 10, the display control function 185 corresponds to the marker information indicating that the priority is “high” 15 and corresponds to the marker information indicating that the priority is “medium”. Add 0, and display 0 in association with the marker information indicating that the priority is "low". As a result, for example, the operator can easily grasp the number of feature parts according to the probability of being a feature part.

図3に戻る。ステップS7では、取得機能181は、終了を受け付けたか否かを判定する。ここで、取得機能181は、終了を受け付けたと判定しなかった場合(ステップS7、No)、ステップS1に移行して画像を取得する。一方、取得機能181は、終了を受け付けたと判定した場合(ステップS7、Yes)、処理を終了する。 Return to FIG. In step S7, the acquisition function 181 determines whether or not the end has been accepted. Here, when the acquisition function 181 does not determine that the end has been accepted (step S7, No), the acquisition function 181 proceeds to step S1 to acquire an image. On the other hand, when it is determined that the acquisition function 181 has accepted the end (step S7, Yes), the acquisition function 181 ends the process.

このように、第1の実施形態に係る超音波診断装置1では、第1の画像を対象に第1の検索処理を実行することで、第1の画像における特徴部位を検索し、第2の画像を対象に、第1の検索処理とは異なる第2の検索処理を実行することで、第2の画像における特徴部位を検索する。そして、第1の実施形態に係る超音波診断装置1では、各検索結果を合成する。すなわち、第1の実施形態に係る超音波診断装置1は、CAD処理を複数の入力画像に分散させ、各画像での結果を合成して、1枚の画像の最終的な検出結果として表示する。これにより、第1の実施形態に係る超音波診断装置1は、CAD処理の性能を維持しながら、画像1枚あたりの計算量を抑えることができる。この結果、第1の実施形態に係る超音波診断装置1によれば、超音波走査時にリアルタイム性を保ちながらCAD処理を施すことができる。このようにして、第1の実施形態に係る超音波診断装置1は、診断効率を向上させることができる。 As described above, in the ultrasonic diagnostic apparatus 1 according to the first embodiment, by executing the first search process on the first image, the feature portion in the first image is searched, and the second image is searched. By executing a second search process different from the first search process on the image, the feature portion in the second image is searched. Then, the ultrasonic diagnostic apparatus 1 according to the first embodiment synthesizes each search result. That is, the ultrasonic diagnostic apparatus 1 according to the first embodiment distributes the CAD process to a plurality of input images, synthesizes the results of each image, and displays it as the final detection result of one image. .. As a result, the ultrasonic diagnostic apparatus 1 according to the first embodiment can reduce the amount of calculation per image while maintaining the performance of CAD processing. As a result, according to the ultrasonic diagnostic apparatus 1 according to the first embodiment, CAD processing can be performed while maintaining real-time performance during ultrasonic scanning. In this way, the ultrasonic diagnostic apparatus 1 according to the first embodiment can improve the diagnostic efficiency.

(第1の実施形態の第1の変形例)
なお、上述した第1の実施形態では、検索結果合成機能183は、第1の画像における特徴部位と、第2の画像における特徴部位とで共通する特徴部位を合成結果とする場合について説明した。しかしながら、検索結果合成機能183による合成処理は、これに限定されるものではない。例えば、検索結果合成機能183は、第1の画像における特徴部位を、第2の画像にコピーするようにしてもよい。図11は、第1の実施形態の第1の変形例に係る検索結果合成機能183による処理手順を示すフローチャートであり、図12及び図13は、第1の実施形態の第1の変形例に係る検索結果合成機能183の処理動作を説明するための図である。
(First modification of the first embodiment)
In the first embodiment described above, the case where the search result synthesis function 183 uses a feature portion common to the feature portion in the first image and the feature portion in the second image as the synthesis result has been described. However, the synthesis process by the search result synthesis function 183 is not limited to this. For example, the search result synthesis function 183 may copy the feature portion in the first image to the second image. FIG. 11 is a flowchart showing a processing procedure by the search result synthesis function 183 according to the first modification of the first embodiment, and FIGS. 12 and 13 show the first modification of the first embodiment. It is a figure for demonstrating the processing operation of the said search result synthesis function 183.

図11では、検索結果合成機能183の動作を説明するフローチャートを示す。ステップS21では、検索結果合成機能183は、所定数の画像に対する検索結果を取得する。例えば、検索結果合成機能183は、図12に示すように、N-2フレーム目の画像に対する検索結果と、N-1フレーム目の画像に対する検索結果と、Nフレーム目の画像に対する検索結果とを記憶回路170から取得する。なお、図12では、サイズが異なる検索窓12aと検索窓12bとを用いて検索した結果を示す。また、図12では、N-2フレーム目の画像、N-1フレーム目の画像及びNフレーム目の画像の3フレームの画像を用いてNフレーム目の検索結果を合成する場合について説明する。 FIG. 11 shows a flowchart illustrating the operation of the search result synthesis function 183. In step S21, the search result compositing function 183 acquires search results for a predetermined number of images. For example, as shown in FIG. 12, the search result composition function 183 obtains the search result for the image in the N-2nd frame, the search result for the image in the N-1th frame, and the search result for the image in the Nth frame. Obtained from the storage circuit 170. Note that FIG. 12 shows the results of a search using the search windows 12a and the search windows 12b having different sizes. Further, FIG. 12 describes a case where the search result of the Nth frame is synthesized by using the image of the N-2nd frame, the image of the N-1th frame, and the image of the Nth frame.

より具体的には、図12に示す例では、検索結果合成機能183は、N-2フレーム目の画像の検索窓12aに特徴部位が検出されており、N-1フレーム目の画像の検索窓12bに特徴部位が検出されており、Nフレーム目の画像の検索窓12aに特徴部位が検出されている検索結果を取得する。なお、図12に示す検索窓12aに検出されている特徴部位Tは、正しく検出された特徴部位であり、検索窓12bに検出されている特徴部位は、誤って検出された過検出の特徴部位であるものとする。 More specifically, in the example shown in FIG. 12, the search result composition function 183 has a feature portion detected in the search window 12a of the image in the N-2nd frame, and the search window of the image in the N-1th frame. The feature portion is detected in 12b, and the search result in which the feature portion is detected in the search window 12a of the image of the Nth frame is acquired. The feature portion T detected in the search window 12a shown in FIG. 12 is a correctly detected feature portion, and the feature portion detected in the search window 12b is an erroneously detected overdetected feature portion. It is assumed that.

ステップS22では、検索結果合成機能183は、画像間で検索結果をコピーする。図12に示す例では、1フレーム前の検索結果をコピーする場合について説明する。例えば、検索結果合成機能183は、N-2フレーム目の画像の検索窓12aにおける検索結果をN-1フレーム目の画像にコピーする。また、例えば、検索結果合成機能183は、N-1フレーム目の画像の検索窓12bにおける検索結果をNフレーム目の画像にコピーする。 In step S22, the search result compositing function 183 copies the search results between the images. In the example shown in FIG. 12, a case where the search result one frame before is copied will be described. For example, the search result composition function 183 copies the search result in the search window 12a of the image in the N-2nd frame to the image in the N-1th frame. Further, for example, the search result composition function 183 copies the search result in the search window 12b of the image in the N-1th frame to the image in the Nth frame.

ステップS23では、検索結果合成機能183は、全ての画像に共通の検索結果を抽出する。例えば、図13に示す例では、N-2フレーム目の検索結果とN-1フレーム目の検索結果とNフレーム目の検索結果とに共通の検索結果である特徴部位Tが検出されている。かかる場合、検索結果合成機能183は、Nフレーム目の検索結果には特徴部位Tが検出されたことを示す合成処理の結果を得る。このように、検索結果合成機能183は、第1の画像における特徴部位を、第2の画像にコピーし、第1の画像における特徴部位と、第2の画像における特徴部位とで共通する特徴部位を合成結果とする。 In step S23, the search result composition function 183 extracts a search result common to all the images. For example, in the example shown in FIG. 13, the feature portion T, which is a common search result in the search result in the N-2nd frame, the search result in the N-1th frame, and the search result in the Nth frame, is detected. In such a case, the search result synthesis function 183 obtains the result of the synthesis process indicating that the feature portion T is detected in the search result of the Nth frame. As described above, the search result synthesis function 183 copies the feature portion in the first image to the second image, and the feature portion common to the feature portion in the first image and the feature portion in the second image. Is the synthesis result.

このようにして第1の実施形態の第1の変形例では、第1の画像における特徴部位を、第2の画像にコピーし、第1の画像における特徴部位と、第2の画像における特徴部位とで共通する特徴部位を合成結果とする。これにより、第1の実施形態の第1の変形例によれば、過検出を低減できるとともに、特徴部位の見逃しを低減することが可能になる。 In this way, in the first modification of the first embodiment, the feature portion in the first image is copied to the second image, and the feature portion in the first image and the feature portion in the second image are copied. The characteristic sites common to and are used as the synthesis result. As a result, according to the first modification of the first embodiment, it is possible to reduce over-detection and reduce oversight of featured portions.

なお、検索結果合成機能183は、複数フレーム前又は1枚以上後のフレームの検索結果をコピーしてもよいし、複数のフレームに対して検索結果をコピーしてもよい。例えば、検索結果合成機能183は、2フレーム前の検索結果をコピーしてもよいし、N-2フレーム目の検索結果をN-1フレーム目とNフレーム目とにコピーしてもよい。 The search result composition function 183 may copy the search results of the frames before or after a plurality of frames, or may copy the search results for a plurality of frames. For example, the search result composition function 183 may copy the search result two frames before, or may copy the search result of the N-2nd frame to the N-1th frame and the Nth frame.

(第1の実施形態の第2の変形例)
また、例えば、検索結果合成機能183は、第1の画像における特徴部位である確率と、第2の画像における特徴部位である確率との統計値が所定の閾値以上である特徴部位を合成結果とするようにしてもよい。図14は、第1の実施形態の第2の変形例に係る検索結果合成機能183による処理手順を示すフローチャートであり、図15は、第1の実施形態の第2の変形例に係る検索結果合成機能183の処理動作を説明するための図である。
(Second variant of the first embodiment)
Further, for example, the search result synthesis function 183 sets the feature portion in which the statistical value of the probability of being the feature portion in the first image and the probability of being the feature portion in the second image is equal to or more than a predetermined threshold value as the synthesis result. You may try to do it. FIG. 14 is a flowchart showing a processing procedure by the search result synthesis function 183 according to the second modification of the first embodiment, and FIG. 15 is a search result according to the second modification of the first embodiment. It is a figure for demonstrating the processing operation of the synthesis function 183.

図14では、検索結果合成機能183の動作を説明するフローチャートを示す。ステップS31では、検索結果合成機能183は、所定数の画像に対する検索結果を取得する。例えば、検索結果合成機能183は、図15に示すように、N-2フレーム目の画像に対する検索結果と、N-1フレーム目の画像に対する検索結果と、Nフレーム目の画像に対する検索結果と、N+1フレーム目の画像に対する検索結果とを記憶回路170から取得する。なお、図15では、サイズが異なる検索窓15aと検索窓15bとを用いて検索した結果を示す。また、図15では、N-2フレーム目の画像、N-1フレーム目の画像、Nフレーム目の画像及びN+1フレーム目の画像の4フレームの画像を用いてNフレーム目の検索結果を合成する場合について説明する。 FIG. 14 shows a flowchart illustrating the operation of the search result synthesis function 183. In step S31, the search result compositing function 183 acquires search results for a predetermined number of images. For example, as shown in FIG. 15, the search result composition function 183 includes search results for the image in the N-2nd frame, search results for the image in the N-1th frame, and search results for the image in the Nth frame. The search result for the image in the N + 1th frame is acquired from the storage circuit 170. Note that FIG. 15 shows the results of a search using the search windows 15a and the search windows 15b having different sizes. Further, in FIG. 15, the search result of the Nth frame is synthesized by using the image of the N-2nd frame, the image of the N-1th frame, the image of the Nth frame, and the image of the N + 1th frame. The case will be described.

ステップS32では、検索結果合成機能183は、同一サイズの検索窓で検索窓内の画像情報が特徴部位に相当する情報である確率の平均値を算出する。例えば、検索結果合成機能183は、図15に示すように、N-2フレーム目の画像の検索窓15aに特徴部位が検出されており、N-1フレーム目の画像の検索窓15bに特徴部位が検出されており、Nフレーム目の画像の検索窓15aに特徴部位が検出されており、N+1フレーム目の画像では何も検出されていない検索結果を取得する。なお、図15に示す検索窓15aに検出されている特徴部位Tは、正しく検出された特徴部位であり、検索窓15bに検出されている特徴部位は、誤って検出された過検出の特徴部位であるものとする。また、N+1フレーム目の検索窓15bは、N-1フレーム目の検出箇所に相当する位置を示している。 In step S32, the search result synthesis function 183 calculates the average value of the probabilities that the image information in the search window is the information corresponding to the feature portion in the search window of the same size. For example, in the search result synthesis function 183, as shown in FIG. 15, a feature portion is detected in the search window 15a of the image in the N-2nd frame, and the feature portion is detected in the search window 15b of the image in the N-1th frame. Is detected, a feature portion is detected in the search window 15a of the image in the Nth frame, and nothing is detected in the image in the N + 1th frame. The feature portion T detected in the search window 15a shown in FIG. 15 is a correctly detected feature portion, and the feature portion detected in the search window 15b is an erroneously detected overdetected feature portion. It is assumed that. Further, the search window 15b in the N + 1th frame indicates a position corresponding to the detection location in the N-1th frame.

そして、検索結果合成機能183は、N-2フレーム目の画像の検索窓15aにおける特徴部位である確率と、Nフレーム目の画像の検索窓15aにおける特徴部位である確率との平均値を算出する。また、例えば、検索結果合成機能183は、図15に示すように、N-1フレーム目の画像の検索窓15bにおける特徴部位である確率と、N+1フレーム目の画像の中でN-1フレーム目の画像で特徴部位が検出された箇所に該当する位置の検索窓15bにおける特徴部位である確率との平均値を算出する。なお、検索結果合成機能183は、統計値として平均値を算出する場合について説明したが、実施形態はこれに限定されるものではない。例えば、検索結果合成機能183は、統計値として分散値を算出してもよい。 Then, the search result synthesis function 183 calculates the average value of the probability of being a feature portion in the search window 15a of the image in the N-2nd frame and the probability of being a feature portion in the search window 15a of the image in the Nth frame. .. Further, for example, as shown in FIG. 15, the search result composition function 183 has a probability of being a feature portion in the search window 15b of the image of the N-1th frame and the N-1th frame in the image of the N + 1th frame. The average value with the probability of being a featured part in the search window 15b at the position corresponding to the part where the featured part is detected in the image is calculated. Although the search result synthesis function 183 has described the case where the average value is calculated as a statistical value, the embodiment is not limited to this. For example, the search result synthesis function 183 may calculate a variance value as a statistical value.

ステップS33では、検索結果合成機能183は、ステップS32で算出した平均値が閾値以上であるか否かを判定する。ここで、検索結果合成機能183は、平均値が閾値以上であると判定した場合(ステップS33、Yes)、検索窓により検索された特徴部位を検索結果として抽出する(ステップS34)。一方、検索結果合成機能183は、平均値が閾値以上であると判定しなかった場合(ステップS33、No)、検索窓により検索された特徴部位を検索結果として抽出しない(ステップS35)。 In step S33, the search result synthesis function 183 determines whether or not the average value calculated in step S32 is equal to or greater than the threshold value. Here, when the search result synthesis function 183 determines that the average value is equal to or greater than the threshold value (step S33, Yes), the feature portion searched by the search window is extracted as a search result (step S34). On the other hand, when the search result synthesis function 183 does not determine that the average value is equal to or greater than the threshold value (step S33, No), the feature portion searched by the search window is not extracted as the search result (step S35).

より具体的には、図15に示す例では、検索結果合成機能183は、N-2フレーム目の画像の検索窓15aにおける特徴部位である確率と、Nフレーム目の画像の検索窓15aにおける特徴部位である確率との平均値が閾値以上であると判定する。そして、検索結果合成機能183は、Nフレームの合成結果として検索窓15aにおける特徴部位を抽出する。また、図15に示す例では、検索結果合成機能183は、N-1フレーム目の画像の検索窓15bにおける特徴部位である確率と、N+1フレーム目の画像の検索窓15bにおける特徴部位である確率との平均値が閾値未満であると判定する。そして、検索結果合成機能183は、Nフレームの合成結果として検索窓15bにおける特徴部位を抽出しない。 More specifically, in the example shown in FIG. 15, the search result composition function 183 has a probability of being a feature portion in the search window 15a of the image in the N-2nd frame and a feature in the search window 15a of the image in the Nth frame. It is determined that the average value with the probability of being a part is equal to or greater than the threshold value. Then, the search result synthesis function 183 extracts the feature portion in the search window 15a as the synthesis result of the N frame. Further, in the example shown in FIG. 15, the search result synthesis function 183 has a probability of being a feature portion in the search window 15b of the image in the N-1 frame and a probability of being a feature portion in the search window 15b of the image in the N + 1 frame. It is determined that the average value of and is less than the threshold value. Then, the search result synthesis function 183 does not extract the feature portion in the search window 15b as the synthesis result of the N frame.

検索結果合成機能183は、ステップS34又はステップS35に続いて、全てのサイズの検索窓について判定したか否かを判定する(ステップS36)。ここで、検索結果合成機能183は、全てのサイズの検索窓について判定したと判定しなかった場合(ステップS36、No)、ステップS32に移行する。一方、検索結果合成機能183は、全てのサイズの検索窓について判定したと判定した場合(ステップS36、Yes)、処理を終了する。 Following step S34 or step S35, the search result compositing function 183 determines whether or not the search windows of all sizes have been determined (step S36). Here, when the search result synthesis function 183 does not determine that the search windows of all sizes have been determined (steps S36 and No), the process proceeds to step S32. On the other hand, when it is determined that the search result composition function 183 has determined the search windows of all sizes (step S36, Yes), the process ends.

このようにして、第1の実施形態に係る第2の変形例では、第1の画像における特徴部位である確率と、第2の画像における特徴部位である確率との統計値が所定の閾値以上である特徴部位を合成結果とする。これにより、第1の実施形態に係る第2の変形例によれば、過検出をより正確に低減できるとともに、特徴部位をより正確に検出することが可能になる。 In this way, in the second modification according to the first embodiment, the statistical values of the probability of being a feature part in the first image and the probability of being a feature part in the second image are equal to or greater than a predetermined threshold value. The characteristic site is the synthetic result. As a result, according to the second modification according to the first embodiment, over-detection can be reduced more accurately and the feature portion can be detected more accurately.

(第1の実施形態の第3の変形例)
上述した実施形態では、第1の画像における特徴部位と、第2の画像における特徴部位とで共通する特徴部位を合成結果とする場合について説明した。しかしながら、実施形態はこれに限定されるものではない。例えば、検索結果合成機能183は、第1の画像における特徴部位と、第2の画像における特徴部位とで少なくとも一部が共通する場合に、各特徴部位が占める部位を合成結果とすることとしてもよい。
(Third variant of the first embodiment)
In the above-described embodiment, the case where the feature portion common to the feature portion in the first image and the feature portion in the second image is used as the synthesis result has been described. However, the embodiment is not limited to this. For example, the search result synthesis function 183 may use the part occupied by each feature part as the synthesis result when at least a part of the feature part in the first image and the feature part in the second image are common. good.

図16は、第1の実施形態の第3の変形例に係る検索結果合成機能183の処理動作を説明するための図である。図16は、検索機能182により、各フレームの画像に対して異なる位置に同じ大きさの検索窓を設定して、検索が行われた結果を示す。例えば、検索結果合成機能183は、まず、N-2フレーム目の画像に対する検索結果と、N-1フレーム目の画像に対する検索結果と、Nフレーム目の画像に対する検索結果とを記憶回路170から取得する。 FIG. 16 is a diagram for explaining the processing operation of the search result synthesis function 183 according to the third modification of the first embodiment. FIG. 16 shows the result of searching by setting search windows of the same size at different positions for the image of each frame by the search function 182. For example, the search result composition function 183 first acquires the search result for the image in the N-2nd frame, the search result for the image in the N-1th frame, and the search result for the image in the Nth frame from the storage circuit 170. do.

ここで、図16に斜線に示すように、N-2フレーム目の画像における特徴部位と、N-1フレーム目の画像における特徴部位と、Nフレーム目の画像における特徴部位とが、一部共通するように抽出される場合がある。かかる場合、検索結果合成機能183は、各フレームにおける特徴部位が占める部位を合成結果とする。即ち、検索結果合成機能183は、Nフレームの合成結果として、N-2フレーム目の画像における特徴部位と、N-1フレーム目の画像における特徴部位と、Nフレーム目の画像における特徴部位とを抽出する。更に、マーカ情報生成機能184は、検索結果合成機能183による合成結果に基づいて、マーカ情報を生成する。 Here, as shown by diagonal lines in FIG. 16, the feature portion in the image of the N-2nd frame, the feature portion in the image of the N-1th frame, and the feature portion in the image of the Nth frame are partially common. It may be extracted to do so. In such a case, the search result synthesis function 183 sets the portion occupied by the feature portion in each frame as the synthesis result. That is, the search result synthesis function 183 sets the feature portion in the image of the N-2nd frame, the feature portion in the image of the N-1th frame, and the feature portion in the image of the Nth frame as the synthesis result of the N frame. Extract. Further, the marker information generation function 184 generates marker information based on the synthesis result by the search result synthesis function 183.

そして、表示制御機能185は、マーカ情報に基づくマーカを医用画像上に表示させる。例えば、図16の合成結果に基づいてマーカ情報が生成された場合、表示制御機能185は、図17に示すように、重畳するマーカ情報の形状の外枠のみをディスプレイ103に表示させる。なお、図17は、第1の実施形態の第3の変形例に係る表示制御機能185の処理動作を説明するための図である。 Then, the display control function 185 displays a marker based on the marker information on the medical image. For example, when the marker information is generated based on the synthesis result of FIG. 16, the display control function 185 causes the display 103 to display only the outer frame of the shape of the superimposed marker information as shown in FIG. Note that FIG. 17 is a diagram for explaining the processing operation of the display control function 185 according to the third modification of the first embodiment.

これに対して、図18や図19に示すように、N-2フレーム目の画像における特徴部位と、N-1フレーム目の画像における特徴部位と、Nフレーム目の画像における特徴部位とが、共通部分を有さない場合がある。この場合、検索結果合成機能183は、Nフレームの合成結果として、N-2フレーム目の画像における特徴部位と、N-1フレーム目の画像における特徴部位と、Nフレーム目の画像における特徴部位とを抽出しない。従って、第1の実施形態に係る第3の変形例によれば、第1の検索処理と第2の検索処理とで異なる位置に検索窓が設定された場合においても過検出を低減できるとともに、特徴部位の見逃しを低減することが可能になる。なお、図18及び図19は、第1の実施形態の第3の変形例に係る検索結果合成機能183の処理動作を説明するための図である。 On the other hand, as shown in FIGS. 18 and 19, the feature portion in the image of the N-2nd frame, the feature portion in the image of the N-1th frame, and the feature portion in the image of the Nth frame are It may not have a common part. In this case, the search result composition function 183 uses the feature portion in the image of the N-2nd frame, the feature portion in the image of the N-1th frame, and the feature portion in the image of the Nth frame as the synthesis result of the N frame. Do not extract. Therefore, according to the third modification according to the first embodiment, over-detection can be reduced even when the search windows are set at different positions in the first search process and the second search process. It is possible to reduce oversight of characteristic parts. 18 and 19 are diagrams for explaining the processing operation of the search result synthesis function 183 according to the third modification of the first embodiment.

更に、検索結果合成機能183は、第1の画像における特徴部位を第2の画像にコピーした上で、第1の画像における特徴部位と第2の画像における特徴部位とで少なくとも一部が共通する場合に、各特徴部位が占める部位を合成結果としてもよい。例えば、検索結果合成機能183は、図18において、N-2フレーム目の画像における特徴部位をN-1フレーム目の画像にコピーする。かかる場合、検索結果合成機能183は、N-2フレーム目の画像における特徴部位と、N-1フレーム目の画像における特徴部位と、Nフレーム目の画像における特徴部位とが共通部分を有するものとして、各フレームにおける特徴部位が占める部位を合成結果とする。即ち、検索結果合成機能183は、Nフレームの合成結果として、N-2フレーム目の画像における特徴部位と、N-2フレーム目の画像からN-1フレーム目の画像にコピーされた特徴部位と、N-1フレーム目の画像における特徴部位と、Nフレーム目の画像における特徴部位とを抽出する。 Further, the search result synthesis function 183 copies the feature portion in the first image to the second image, and then at least a part of the feature portion in the first image and the feature portion in the second image are common. In some cases, the site occupied by each characteristic site may be used as the synthesis result. For example, the search result synthesis function 183 copies the feature portion in the image in the N-2 frame to the image in the N-1 frame in FIG. In such a case, the search result synthesis function 183 assumes that the feature portion in the image of the N-2nd frame, the feature portion in the image of the N-1th frame, and the feature portion in the image of the Nth frame have a common portion. , The part occupied by the characteristic part in each frame is taken as the synthesis result. That is, the search result compositing function 183 uses the feature portion in the image of the N-2 frame and the feature portion copied from the image of the N-2 frame to the image of the N-1 frame as the synthesis result of the N frame. , The feature portion in the image of the N-1th frame and the feature portion in the image of the Nth frame are extracted.

一方で、図19において、N-2フレーム目の画像における特徴部位をN-1フレーム目の画像にコピーする場合、各フレームの特徴部位は共通部分を有さない。この場合、検索結果合成機能183は、各フレームにおける特徴部位を合成結果として抽出しない。従って、第1の実施形態に係る第3の変形例によれば、第1の検索処理と第2の検索処理とで異なる位置に検索窓が設定された場合において、過検出を低減しつつも、特徴部位の見逃しをより低減することが可能になる。 On the other hand, in FIG. 19, when the feature portion in the image of the N-2nd frame is copied to the image of the N-1th frame, the feature portion of each frame has no common portion. In this case, the search result synthesis function 183 does not extract the feature portion in each frame as the synthesis result. Therefore, according to the third modification according to the first embodiment, when the search windows are set at different positions in the first search process and the second search process, over-detection is reduced. , It becomes possible to further reduce the oversight of characteristic parts.

なお、図16、図18及び図19においては、各フレームの画像に対して同じ大きさの検索窓が設定された場合の検索結果を示したが、実施形態はこれに限定されるものではない。例えば、検索結果合成機能183は、第1の画像及び第2の画像に対して異なる大きさの検索窓が設定された場合の検索結果を取得し、第1の画像における特徴部位と第2の画像における特徴部位とで少なくとも一部が共通する特徴部位を合成結果としてもよい。 Note that, in FIGS. 16, 18, and 19, search results are shown when search windows of the same size are set for the images of each frame, but the embodiment is not limited to this. .. For example, the search result compositing function 183 acquires search results when search windows of different sizes are set for the first image and the second image, and obtains a feature portion in the first image and a second image. A feature part that is at least partially common to the feature part in the image may be used as the synthesis result.

また、検索結果合成機能183は、共通部分の面積に応じて、第1の画像における特徴部位と第2の画像における特徴部位とで少なくとも一部が共通する場合に、各特徴部位が占める部位を合成結果とするか否かを判定してもよい。例えば、図16において、検索結果合成機能183は、Nフレーム目の画像に対して設定された検索窓の面積と、共通部分の面積との比を算出する。そして、検索結果合成機能183は、算出した比が閾値を超える場合に、Nフレームの合成結果として、N-2フレーム目の画像における特徴部位と、N-1フレーム目の画像における特徴部位と、Nフレーム目の画像における特徴部位とを抽出する。 Further, the search result synthesis function 183 determines the portion occupied by each feature portion when at least a part of the feature portion in the first image and the feature portion in the second image are common according to the area of the common portion. It may be determined whether or not it is a synthesis result. For example, in FIG. 16, the search result composition function 183 calculates the ratio of the area of the search window set for the image at the Nth frame to the area of the common portion. Then, when the calculated ratio exceeds the threshold value, the search result synthesis function 183 determines the feature portion in the image of the N-2nd frame, the feature portion in the image of the N-1th frame, and the feature portion in the image of the N-1th frame as the synthesis result of the N frame. The featured part in the image of the Nth frame is extracted.

(第1の実施形態の第4の変形例)
上述した実施形態では、表示制御機能185は、各フレームに対する合成処理の結果をディスプレイ103に表示させる場合について説明したが、実施形態はこれに限定されるものではない。例えば、表示制御機能185は、連続するフレーム間での合成処理の結果を考慮して、各フレームに対する合成処理の結果をディスプレイ103に表示させてもよい。言い換えると、表示制御機能185は、マーカ情報のうち、複数フレームに連続するマーカ情報のみをディスプレイ103に表示させる。図20は、第1の実施形態の第4の変形例に係る表示制御機能185の処理動作を説明するための図である。
(Fourth variant of the first embodiment)
In the above-described embodiment, the display control function 185 has described the case where the result of the composition processing for each frame is displayed on the display 103, but the embodiment is not limited to this. For example, the display control function 185 may display the result of the composition processing for each frame on the display 103 in consideration of the result of the composition processing between consecutive frames. In other words, the display control function 185 causes the display 103 to display only the marker information that is continuous in a plurality of frames among the marker information. FIG. 20 is a diagram for explaining the processing operation of the display control function 185 according to the fourth modification of the first embodiment.

図20では、優先度に応じた3種類のマーカ情報が生成されている場合を示す(図20の20a)。また、図20では、N-2フレーム目の画像の合成結果と、N-1フレーム目の画像の合成結果と、Nフレーム目の画像の合成結果とを示す。図20に示す例では、表示制御機能185は、3フレームに連続するマーカ情報のみをディスプレイ103に表示させる。すなわち、表示制御機能185は、N-2フレーム目の画像の合成結果と、N-1フレーム目の画像の合成結果と、Nフレーム目の画像の合成結果とを考慮して、Nフレーム目に対する合成処理の結果をディスプレイ103に表示させる。 FIG. 20 shows a case where three types of marker information according to the priority are generated (20a in FIG. 20). Further, FIG. 20 shows a composition result of the image of the N-2nd frame, a composition result of the image of the N-1th frame, and a composition result of the image of the Nth frame. In the example shown in FIG. 20, the display control function 185 causes the display 103 to display only the marker information continuous in three frames. That is, the display control function 185 considers the composite result of the image of the N-2nd frame, the composite result of the image of the N-1th frame, and the composite result of the image of the Nth frame with respect to the Nth frame. The result of the synthesis process is displayed on the display 103.

より具体的には、図20に示すように、表示制御機能185は、連続する3フレームのいずれかにマーカ情報が生成されていないフレームが存在する場合、Nフレーム目に対する合成処理の結果として、マーカ情報を表示しないようにする(図20の20d、20g、20j)。 More specifically, as shown in FIG. 20, when the display control function 185 has a frame in which the marker information is not generated in any of the three consecutive frames, the display control function 185 determines the result of the synthesis process for the Nth frame. The marker information is not displayed (20d, 20g, 20j in FIG. 20).

また、表示制御機能185は、連続する3フレームにマーカ情報が生成されている場合、Nフレーム目に対する合成処理の結果として、優先度の最も高いマーカ情報で色分けする。一例をあげると、表示制御機能185は、3フレームのマーカ情報の中で1つでも優先度が「高」であるマーカ情報が含まれている場合、マーカ情報の形状の外枠を優先度が「高」である「赤色」で示す(図20の20b、20c)。また、表示制御機能185は、3フレームのマーカ情報の中で優先度の最も高いマーカ情報が「中」である場合、マーカ情報の形状の外枠を優先度が「中」である「黄色」で示す(図20の20e、20f、20i)。また、表示制御機能185は、3フレームのマーカ情報の中で優先度の最も高いマーカ情報が「低」である場合、マーカ情報の形状の外枠を優先度が「低」である「青色」で示す(図20の20h)。 Further, when the marker information is generated in three consecutive frames, the display control function 185 color-codes the marker information having the highest priority as a result of the synthesis processing for the Nth frame. As an example, when the display control function 185 includes marker information having a priority of "high" in the marker information of three frames, the priority is set to the outer frame of the shape of the marker information. It is indicated by "red" which is "high" (20b, 20c in FIG. 20). Further, the display control function 185 sets the outer frame of the shape of the marker information to "yellow", which has a priority of "medium", when the marker information having the highest priority among the marker information of three frames is "medium". (20e, 20f, 20i in FIG. 20). Further, in the display control function 185, when the marker information having the highest priority among the marker information of 3 frames is "low", the outer frame of the shape of the marker information is "blue" having a priority of "low". (20h in FIG. 20).

このようにして、第1の実施形態に係る第4の変形例では、連続するフレーム間での合成処理の結果を考慮して、各フレームに対する合成処理の結果をディスプレイ103に表示させる。これにより、複数のフレームに渡って検出された特徴部位を優先的にディスプレイ103に表示させ、さらに特徴部位である確率に応じて色分けされた合成処理の結果を閲覧することが可能になる。 In this way, in the fourth modification according to the first embodiment, the result of the compositing process for each frame is displayed on the display 103 in consideration of the result of the compositing process between consecutive frames. As a result, the feature portions detected over a plurality of frames can be preferentially displayed on the display 103, and the result of the synthesis process color-coded according to the probability of being the feature portions can be viewed.

(第1の実施形態の第5の変形例)
上述した実施形態では、表示制御機能185は、検索処理の対象とした医用画像上に、検索結果の合成処理の結果を表示させる場合について説明した。しかしながら、実施形態はこれに限定されるものではない。即ち、表示制御機能185は、検索処理の対象とした医用画像以外の他の医用画像上に、検索結果の合成処理の結果を表示させてもよい。例えば、マーカ情報生成機能184は、検索結果の合成処理の結果に基づいてマーカ情報を生成し、表示制御機能185は、マーカ情報に基づくマーカを、第1の画像及び第2の画像と画質が異なる医用画像上に表示させる。
(Fifth modification of the first embodiment)
In the above-described embodiment, the case where the display control function 185 displays the result of the synthesis processing of the search results on the medical image targeted for the search processing has been described. However, the embodiment is not limited to this. That is, the display control function 185 may display the result of the composition processing of the search result on the medical image other than the medical image targeted for the search processing. For example, the marker information generation function 184 generates marker information based on the result of the synthesis processing of the search results, and the display control function 185 uses the marker based on the marker information to obtain the image quality of the first image and the second image. Display on different medical images.

例えば、検索機能182は、図21に示すように、SCデータに基づく画像データI1を取得する。ここで、SCデータとは、例えば、画像生成回路150により生成されたBモード画像データである。画像データI1は、Bモード画像データそのものであってもよいし、Bモード画像データに対する画像処理後のデータであってもよい。次に、検索機能182は、図21に示すように、画像データI1に対して検索処理(CAD処理)を実行する。即ち、検索機能182は、画像データI1のうちの第1の画像に対して第1の検索処理を実行し、画像データI1のうちの第2の画像に対して第2の検索処理を実行する。なお、図21は、第1の実施形態の第5の変形例に係る表示制御機能185の処理動作を説明するための図である。 For example, the search function 182 acquires image data I1 based on SC data, as shown in FIG. Here, the SC data is, for example, B-mode image data generated by the image generation circuit 150. The image data I1 may be the B-mode image data itself, or may be the data after image processing on the B-mode image data. Next, as shown in FIG. 21, the search function 182 executes a search process (CAD process) on the image data I1. That is, the search function 182 executes the first search process on the first image in the image data I1 and executes the second search process on the second image in the image data I1. .. Note that FIG. 21 is a diagram for explaining the processing operation of the display control function 185 according to the fifth modification of the first embodiment.

例えば、画像生成回路150は、検索処理の精度を向上するようにBモード画像データに対して画像処理を行うことにより、画像データI1を生成する。具体的には、画像生成回路150は、教師データを生成する際に用いられた医用画像と同程度の画質となるように、Bモード画像データに対して、移動平均(平滑化)フィルタやガウシアンフィルタ、メディアンフィルタ、バンドパスフィルタ等の画像処理を行って、画像データI1を生成する。 For example, the image generation circuit 150 generates image data I1 by performing image processing on the B-mode image data so as to improve the accuracy of the search processing. Specifically, the image generation circuit 150 uses a moving average (smoothing) filter or Gaussian for the B-mode image data so that the image quality is similar to that of the medical image used when generating the teacher data. Image processing such as a filter, a median filter, and a band pass filter is performed to generate image data I1.

即ち、教師データを生成するための機械学習においては、まず、多数の医用画像における特徴部位の画像情報が、学習用データとして収集される。ここで、種々の画質の医用画像における特徴部位の画像情報を学習用データとして機械学習を行うことも考えられるが、種々の画質の医用画像をそれぞれ多数収集することは困難であるし、比較的多数収集される画質の医用画像によって、学習用データが偏るおそれもある。従って、通常、同程度の画質となるように画像処理が施された医用画像における特徴部位の画像情報を学習用データとして、機械学習が行われる。そして、画像生成回路150は、機械学習に用いられた医用画像と同程度の画質となるように画像データI1を生成することで、検索機能182による検索処理の精度を向上させることができる。 That is, in machine learning for generating teacher data, first, image information of a feature portion in a large number of medical images is collected as learning data. Here, it is conceivable to perform machine learning using the image information of the feature portion in the medical image of various image quality as learning data, but it is difficult to collect a large number of medical images of various image quality, and it is relatively relatively. The learning data may be biased due to the large number of collected medical images. Therefore, usually, machine learning is performed using the image information of the feature portion in the medical image that has been image-processed so as to have the same image quality as the learning data. Then, the image generation circuit 150 can improve the accuracy of the search process by the search function 182 by generating the image data I1 so that the image quality is similar to that of the medical image used for machine learning.

しかしながら、画像データI1が、操作者にとって観察しやすい画質となっているとは限らない。そこで、表示制御機能185は、検索処理(CAD処理)の対象である画像データI1と画質が異なる画像データI2上に、検索結果の合成処理の結果を表示させる。 However, the image data I1 does not always have an image quality that is easy for the operator to observe. Therefore, the display control function 185 displays the result of the composition processing of the search results on the image data I2 whose image quality is different from that of the image data I1 which is the target of the search processing (CAD processing).

例えば、操作者は、入力装置102を介して、自らが観察をしやすくなるよう任意の画像処理を選択する。次に、画像生成回路150は、選択された画像処理をBモード画像データに対して施すことにより、画像データI2を生成する。また、画像生成回路150は、選択された画像処理と異なる画像処理をBモード画像データに対して施すことにより、画像データI1を生成する。例えば、画像生成回路150は、機械学習に用いられた医用画像と同程度の画質となるように、Bモード画像データに対して画像処理を行うことにより、画像データI1を生成する。 For example, the operator selects arbitrary image processing via the input device 102 so that he / she can easily observe the image. Next, the image generation circuit 150 generates the image data I2 by performing the selected image processing on the B mode image data. Further, the image generation circuit 150 generates image data I1 by performing image processing different from the selected image processing on the B mode image data. For example, the image generation circuit 150 generates image data I1 by performing image processing on the B-mode image data so that the image quality is similar to that of the medical image used for machine learning.

なお、異なる画像処理により画像データI1及び画像データI2を生成する場合について説明したが、実施形態はこれに限定されるものではない。例えば、画像生成回路150は、Bモード画像データに対して画像処理を施すことにより画像データI1及び画像データI2のいずれか一方を生成し、画像処理を施していない状態のBモード画像データを他方の画像データとしてもよい。また、例えば、画像生成回路150は、画像データI1としてBモード画像データを生成し、画像データI2としてBモード画像データとドプラ画像データとの重畳画像を生成してもよい。 Although the case where the image data I1 and the image data I2 are generated by different image processing has been described, the embodiment is not limited to this. For example, the image generation circuit 150 generates either image data I1 or image data I2 by performing image processing on the B-mode image data, and generates the B-mode image data in a state where the image processing is not performed on the other. It may be used as the image data of. Further, for example, the image generation circuit 150 may generate B-mode image data as image data I1 and generate a superimposed image of B-mode image data and Doppler image data as image data I2.

そして、表示制御機能185は、画像データI1と画質が異なる画像データI2上に、検索結果の合成処理の結果を表示させる。例えば、マーカ情報生成機能184は、検索結果の合成処理の結果に基づいてマーカ情報を生成する。そして、表示制御機能185は、図21に示すように、マーカ情報に基づくマーカを画像データI1と画質が異なる画像データI2に重畳した画像データI3を、ディスプレイ103に表示させる。 Then, the display control function 185 displays the result of the synthesis processing of the search results on the image data I2 whose image quality is different from that of the image data I1. For example, the marker information generation function 184 generates marker information based on the result of the synthesis processing of the search results. Then, as shown in FIG. 21, the display control function 185 causes the display 103 to display the image data I3 in which the marker based on the marker information is superimposed on the image data I2 whose image quality is different from that of the image data I1.

なお、機械学習に用いられる医用画像は、超音波画像データに限られるものではなく、超音波診断装置以外の他の医用画像診断装置により収集された医用画像(X線CT画像、X線画像、MRI画像など)であってもよい。例えば、X線CT画像における特徴部位の画像情報を学習用データとして機械学習を行うことにより、教師データが生成されてもよい。 The medical images used for machine learning are not limited to ultrasonic image data, and medical images (X-ray CT image, X-ray image, etc.) collected by a medical image diagnostic device other than the ultrasonic diagnostic device. It may be an MRI image or the like). For example, teacher data may be generated by performing machine learning using the image information of the feature portion in the X-ray CT image as learning data.

この場合、画像生成回路150は、機械学習に用いられたX線CT画像と同程度の画質となるように、画像データI1を生成する。例えば、画像生成回路150は、Bモード画像データをディスプレイ103用に信号を座標変換してSCデータを生成し、SCデータに対して、X線CT画像と同程度の画質となるように画像処理を実行する。具体的には、画像生成回路150は、SCデータのエッジを強調するとともに、粒度を細かくするように画像処理を実行する。これにより、画像生成回路150は、機械学習に用いられたX線CT画像と同程度の画質となる画像データI1を生成して、検索機能182による検索処理の精度を向上させることができる。そして、表示制御機能185は、検索処理の対象とした画像データI1と画質が異なる画像データI2上に、検索結果の合成処理の結果を表示させる。 In this case, the image generation circuit 150 generates the image data I1 so that the image quality is similar to that of the X-ray CT image used for machine learning. For example, the image generation circuit 150 converts the signal of the B-mode image data for the display 103 into coordinates to generate SC data, and processes the SC data so that the image quality is comparable to that of the X-ray CT image. To execute. Specifically, the image generation circuit 150 emphasizes the edges of the SC data and executes image processing so as to make the particle size finer. As a result, the image generation circuit 150 can generate image data I1 having the same image quality as the X-ray CT image used for machine learning, and can improve the accuracy of the search process by the search function 182. Then, the display control function 185 displays the result of the composition processing of the search result on the image data I2 whose image quality is different from that of the image data I1 targeted for the search processing.

(第1の実施形態に係るその他の変形例)
また、上述した第1の実施形態では、検索機能182は、パラメータとして検索処理対象の画像内に複数の検索窓を設定するものとして説明したが、実施形態は、これに限定されるものではない。例えば、検索機能182は、パラメータとして異なる教師データを設定してもよい。かかる場合、検索機能182は、例えば、同一の検索窓と、同一の検索アルゴリズムとを用いて、所定の間隔で教師データを変更してCAD処理を実行する。
(Other modifications according to the first embodiment)
Further, in the first embodiment described above, the search function 182 has been described as setting a plurality of search windows in the image to be searched as a parameter, but the embodiment is not limited to this. .. For example, the search function 182 may set different teacher data as a parameter. In such a case, the search function 182 uses, for example, the same search window and the same search algorithm to change the teacher data at predetermined intervals and execute the CAD process.

また、例えば、検索機能182は、パラメータとして異なる検索アルゴリズムを設定してもよい。かかる場合、検索機能182は、例えば、同一の検索窓と、同一の教師データとを用いて、所定の間隔で検索アルゴリズムを変更してCAD処理を実行する。 Further, for example, the search function 182 may set a different search algorithm as a parameter. In such a case, the search function 182 executes the CAD process by changing the search algorithm at predetermined intervals using, for example, the same search window and the same teacher data.

また、例えば、検索機能182は、パラメータとして検索窓のサイズ、検索窓の位置、教師データ及び検索アルゴリズムのうちいずれかを任意に組み合わせてCAD処理を実行するようにしてもよい。 Further, for example, the search function 182 may execute the CAD process by arbitrarily combining any one of the size of the search window, the position of the search window, the teacher data, and the search algorithm as parameters.

また、検索機能182は、スキャン速度(2次元又は3次元のスキャン領域を機械的に揺動する速度、スキャン領域を電子的に揺動する速度、或いはプローブの移動速度)が所定の閾値以下の場合に、パラメータを変更する頻度を高くする。ここで、スキャン速度が所定の閾値以下の場合とは、操作者が走査の対象とする領域を注視するため、超音波プローブ101をゆっくりと移動させていると考えられる。そこで、検索機能182は、例えば、スキャン速度が所定の閾値より大きい場合には検索窓のサイズを同一にし、スキャン速度が所定の閾値以下の場合には検索窓のサイズを順次変更する。なお、検索機能182は、複数の閾値を用いて、パラメータを変更する頻度を設定するようにしてもよい。 Further, in the search function 182, the scan speed (the speed at which the two-dimensional or three-dimensional scan area is mechanically fluctuated, the speed at which the scan area is electronically fluctuated, or the moving speed of the probe) is equal to or less than a predetermined threshold value. In some cases, change the parameters more frequently. Here, when the scanning speed is equal to or less than a predetermined threshold value, it is considered that the ultrasonic probe 101 is slowly moved in order for the operator to gaze at the area to be scanned. Therefore, for example, the search function 182 makes the size of the search window the same when the scan speed is greater than the predetermined threshold value, and sequentially changes the size of the search window when the scan speed is equal to or less than the predetermined threshold value. The search function 182 may set the frequency of changing the parameters by using a plurality of threshold values.

また、検索機能182は、フレームレートが所定の閾値以上の場合に、パラメータを変更する頻度を高くする。ここで、フレームレートが所定の閾値以上の場合には、単位時間当たりのフレーム数が増加するので、CAD処理を複数の入力画像に分散させやすい。そこで、検索機能182は、例えば、フレームレートが所定の閾値未満の場合には検索窓のサイズを同一にし、フレームレートが所定の閾値以上の場合には検索窓のサイズを順次変更する。なお、検索機能182は、複数の閾値を用いて、パラメータを変更する頻度を設定するようにしてもよい。 Further, the search function 182 increases the frequency of changing the parameters when the frame rate is equal to or higher than a predetermined threshold value. Here, when the frame rate is equal to or higher than a predetermined threshold value, the number of frames per unit time increases, so that the CAD processing can be easily distributed to a plurality of input images. Therefore, for example, the search function 182 makes the size of the search window the same when the frame rate is less than a predetermined threshold value, and sequentially changes the size of the search window when the frame rate is equal to or more than a predetermined threshold value. The search function 182 may set the frequency of changing the parameters by using a plurality of threshold values.

(第2の実施形態)
上述した第1の実施形態では、超音波診断装置1において、リアルタイムに生成される画像に対してCAD処理を実行する場合について説明した。ところで、超音波診断装置1では、リアルタイムにCAD処理を実行した結果を、超音波走査の終了後に観察することが望まれる場合がある。そこで、第2の実施形態では、超音波走査の終了後に、CAD処理を実行した結果を観察する場合について説明する。
(Second embodiment)
In the first embodiment described above, a case where the ultrasonic diagnostic apparatus 1 executes CAD processing on an image generated in real time has been described. By the way, in the ultrasonic diagnostic apparatus 1, it may be desired to observe the result of executing the CAD process in real time after the ultrasonic scanning is completed. Therefore, in the second embodiment, a case of observing the result of executing the CAD process after the completion of the ultrasonic scanning will be described.

第2の実施形態に係る超音波診断装置の構成例は、表示制御機能185が付加的な機能を更に実行する点を除いて、図1に示す第1の実施形態に係る超音波診断装置1と同様である。例えば、第2の実施形態に係る表示制御機能185は、マーカ情報が含まれる画像を抽出して、所定の順序で表示させる。 In the configuration example of the ultrasonic diagnostic apparatus according to the second embodiment, the ultrasonic diagnostic apparatus 1 according to the first embodiment shown in FIG. 1 except that the display control function 185 further executes an additional function. Is similar to. For example, the display control function 185 according to the second embodiment extracts images including marker information and displays them in a predetermined order.

図22は、第2の実施形態に係る表示制御機能185による表示制御処理の手順を示すフローチャートであり、図23は、第2の実施形態を説明するための図である。図22では、表示制御機能185の動作を説明するフローチャートを示す。ステップS41からステップS45は、表示制御機能185により実現されるステップである。 FIG. 22 is a flowchart showing a procedure of display control processing by the display control function 185 according to the second embodiment, and FIG. 23 is a diagram for explaining the second embodiment. FIG. 22 shows a flowchart illustrating the operation of the display control function 185. Steps S41 to S45 are steps realized by the display control function 185.

ステップS41では、表示制御機能185は、合成結果を取得する。例えば、表示制御機能185は、超音波走査により得られた画像のCAD処理の合成結果を記憶回路170から取得する。より具体的には、表示制御機能185は、図23の(1)から図23の(9)に示す合成結果を記憶回路170から取得する。 In step S41, the display control function 185 acquires the synthesis result. For example, the display control function 185 acquires the synthesis result of the CAD processing of the image obtained by ultrasonic scanning from the storage circuit 170. More specifically, the display control function 185 acquires the synthesis results shown in FIGS. 23 (1) to 23 (9) from the storage circuit 170.

ステップS42では、表示制御機能185は、特徴部位が検出された画像を抽出する。例えば、表示制御機能185は、図23に示す(1)から(9)の合成結果のうち、(2)、(4)、(5)、(6)、(8)及び(9)を特徴部位が検出された画像として抽出する。 In step S42, the display control function 185 extracts an image in which the feature portion is detected. For example, the display control function 185 is characterized by (2), (4), (5), (6), (8) and (9) among the synthesis results of (1) to (9) shown in FIG. The part is extracted as an image in which it is detected.

ステップS43では、表示制御機能185は、シネ再生を受け付けたか否かを判定する。ここで、表示制御機能185は、入力装置102を介して、シネ再生を実行する指示を操作者から受け付けたと判定しなかった場合(ステップS43、No)、ステップS43の判定処理を繰り返す。一方、表示制御機能185は、入力装置102を介して、シネ再生を実行する指示を操作者から受け付けたと判定した場合(ステップS43、Yes)、ステップS44に移行する。 In step S43, the display control function 185 determines whether or not the cine reproduction is accepted. Here, when it is not determined that the display control function 185 has received the instruction to execute the cine reproduction from the operator via the input device 102 (steps S43, No), the determination process of step S43 is repeated. On the other hand, when it is determined that the display control function 185 has received the instruction to execute the cine reproduction from the operator via the input device 102 (step S43, Yes), the process proceeds to step S44.

ステップS44では、表示制御機能185は、所定の順序で画像をディスプレイ103に表示させる。ここで、例えば、表示制御機能185は、操作者から画像の切り替えを受け付ける毎に所定の順序で画像を切り替えてシネ再生させてもよいし、所定の順序で画像を自動的にシネ再生させてもよい。より具体的には、表示制御機能185は、時系列で順序を決定する。かかる場合、表示制御機能185は、図23に示す例では、(2)、(4)、(5)、(6)、(8)、(9)の順序で画像をディスプレイ103に表示させる。 In step S44, the display control function 185 causes the display 103 to display images in a predetermined order. Here, for example, the display control function 185 may switch the images in a predetermined order and perform cine reproduction each time the image is switched from the operator, or automatically cine-reproduce the images in a predetermined order. May be good. More specifically, the display control function 185 determines the order in chronological order. In such a case, the display control function 185 causes the display 103 to display images in the order of (2), (4), (5), (6), (8), and (9) in the example shown in FIG.

また、例えば、表示制御機能185は、連続性に応じて所定の順序を決定してもよい。かかる場合、表示制御機能185は、図23に示す例では、(4)、(5)、(6)、(8)、(9)、(2)の順序で画像をディスプレイ103に表示させる。 Further, for example, the display control function 185 may determine a predetermined order according to the continuity. In such a case, the display control function 185 causes the display 103 to display images in the order of (4), (5), (6), (8), (9), and (2) in the example shown in FIG.

また、例えば、表示制御機能185は、マーカ情報の数に応じて所定の順序を決定してもよい。かかる場合、表示制御機能185は、図23に示す例では、(2)、(8)、(9)、(4)、(5)、(6)の順序で画像をディスプレイ103に表示させる。 Further, for example, the display control function 185 may determine a predetermined order according to the number of marker information. In such a case, the display control function 185 causes the display 103 to display images in the order of (2), (8), (9), (4), (5), and (6) in the example shown in FIG.

また、例えば、表示制御機能185は、スキャン速度に応じて所定の順序を決定してもよい。例えば、スキャン速度が遅い場合には、操作者は、注視したい部位を走査している可能性がある。そこで、表示制御機能185は、スキャン速度がより遅いフレームを優先的にディスプレイ103に表示させる。 Further, for example, the display control function 185 may determine a predetermined order according to the scanning speed. For example, if the scanning speed is slow, the operator may be scanning the area to be watched. Therefore, the display control function 185 preferentially displays a frame having a slower scanning speed on the display 103.

ステップS45では、表示制御機能185は、終了を受け付けたか否かを判定する。ここで、表示制御機能185は、終了を受け付けたと判定しなかった場合(ステップS45、No)、ステップS43に移行して判定処理を実行する。一方、表示制御機能185は、終了を受け付けたと判定した場合(ステップS45、Yes)、処理を終了する。 In step S45, the display control function 185 determines whether or not the end has been accepted. Here, when the display control function 185 does not determine that the end has been accepted (step S45, No), the display control function 185 proceeds to step S43 and executes the determination process. On the other hand, when it is determined that the end is accepted (step S45, Yes), the display control function 185 ends the process.

上述したように、第2の実施形態では、マーカ情報が含まれる画像を抽出して、所定の順序で表示させる。これにより、第2の実施形態によれば、マーカ情報が出現するフレームを時系列に閲覧したり、マーカ情報が連続して出現するフレームやマーカ情報が多いフレームを優先的に閲覧したりすることが可能になる。 As described above, in the second embodiment, the images including the marker information are extracted and displayed in a predetermined order. As a result, according to the second embodiment, the frames in which the marker information appears are browsed in chronological order, and the frames in which the marker information appears continuously and the frames in which the marker information is abundant are preferentially browsed. Becomes possible.

なお、上述した第2の実施形態では、表示制御機能185は、特徴部位が検出された画像を抽出するものとして説明したが、実施形態はこれに限定されるものではない。例えば、表示制御機能185は、特徴部位が検出された画像を抽出せずに、ステップS41で取得した合成結果を、例えば図23の(1)から図23の(9)の順でシネ再生させてもよい。 In the second embodiment described above, the display control function 185 has been described as extracting an image in which a feature portion is detected, but the embodiment is not limited to this. For example, the display control function 185 causes the composite result acquired in step S41 to be cine-reproduced in the order of (1) to 23 (9), for example, without extracting the image in which the feature portion is detected. You may.

(第2の実施形態の変形例)
上述した第2の実施形態では、CAD処理を複数の入力画像に分散させ、各画像での結果を合成した結果をシネ再生させる場合について説明した。しかしながら、第2の実施形態で説明した表示制御処理は、CAD処理を複数の入力画像に分散させない場合にも適用可能である。第2の実施形態の変形例に係る超音波診断装置の構成は、検索機能182が実行する機能の一部が異なる点を除いて、図1に示す超音波診断装置1の構成と同様である。
(Modified example of the second embodiment)
In the second embodiment described above, a case where the CAD processing is distributed over a plurality of input images and the result of synthesizing the results of each image is reproduced in a cine manner has been described. However, the display control process described in the second embodiment can be applied even when the CAD process is not distributed to a plurality of input images. The configuration of the ultrasonic diagnostic apparatus according to the modified example of the second embodiment is the same as the configuration of the ultrasonic diagnostic apparatus 1 shown in FIG. 1, except that some of the functions executed by the search function 182 are different. ..

すなわち、第2の実施形態の変形例に係る取得機能181は、第1の画像と、第1の画像とは異なる第2の画像を取得する。そして、第2の実施形態の変形例に係る検索機能182は、第1の画像及び第2の画像を対象に、検索処理を実行することで、特徴部位を検索する。すなわち、第2の実施形態の変形例に係る検索機能182は、CAD処理を複数の入力画像に分散させずに、第1の画像及び第2の画像で同一の検索処理を実行する。 That is, the acquisition function 181 according to the modified example of the second embodiment acquires the first image and the second image different from the first image. Then, the search function 182 according to the modified example of the second embodiment searches for the feature portion by executing the search process on the first image and the second image. That is, the search function 182 according to the modified example of the second embodiment executes the same search process on the first image and the second image without distributing the CAD process to a plurality of input images.

第2の実施形態の変形例に係る検索結果合成機能183は、検索機能182による各検索結果を合成する。第2の実施形態の変形例に係るマーカ情報生成機能184は、検索結果合成機能183による合成結果に基づいて、マーカ情報を生成する。第2の実施形態の変形例に係る表示制御機能185は、医用画像をディスプレイ103に表示させ、マーカ情報に基づくマーカを、医用画像上に表示させる。 The search result synthesis function 183 according to the modified example of the second embodiment synthesizes each search result by the search function 182. The marker information generation function 184 according to the modified example of the second embodiment generates marker information based on the synthesis result by the search result synthesis function 183. The display control function 185 according to the modified example of the second embodiment displays the medical image on the display 103, and displays the marker based on the marker information on the medical image.

なお、かかる場合、第2の実施形態の変形例に係るマーカ情報生成機能184は、上述した第1の実施形態と同様の機能を有する。すなわち、第2の実施形態の変形例に係るマーカ情報生成機能184は、特徴部位である確率に応じて色分けしたマーカ情報を生成する。ここで、マーカ情報は、検索窓に応じた形状を有する。そして、第2の実施形態の変形例に係る表示制御機能185は、形状の外枠のみを表示させる。ここで、表示制御機能185は、形状の外枠のみを、確率が最も高い色で色分けして表示させる。また、表示制御機能185は、マーカ情報の数の計測値を更に表示させる。また、表示制御機能185は、マーカ情報に基づくマーカを、第1の画像及び第2の画像と画質が異なる医用画像上に表示させてもよい。 In such a case, the marker information generation function 184 according to the modified example of the second embodiment has the same function as that of the first embodiment described above. That is, the marker information generation function 184 according to the modified example of the second embodiment generates color-coded marker information according to the probability of being a feature portion. Here, the marker information has a shape corresponding to the search window. Then, the display control function 185 according to the modified example of the second embodiment displays only the outer frame of the shape. Here, the display control function 185 displays only the outer frame of the shape by color-coding with the color having the highest probability. Further, the display control function 185 further displays the measured value of the number of marker information. Further, the display control function 185 may display the marker based on the marker information on the first image and the medical image whose image quality is different from that of the second image.

更に、第2の実施形態の変形例に係る表示制御機能185は、マーカ情報が含まれる画像を抽出して、所定の順序で表示させる。例えば、表示制御機能185は、連続性に応じて所定の順序を決定する。或いは、表示制御機能185は、マーカ情報の数に応じて所定の順序を決定する。 Further, the display control function 185 according to the modified example of the second embodiment extracts images including marker information and displays them in a predetermined order. For example, the display control function 185 determines a predetermined order according to the continuity. Alternatively, the display control function 185 determines a predetermined order according to the number of marker information.

これにより、第2の実施形態に係る変形例では、CAD処理を複数の入力画像に分散させない場合にも表示制御処理を実行することが可能になる。この結果、例えば、操作者は、特徴部位である確率に応じて色分けされた合成処理の結果を閲覧することが可能になる。また、例えば、操作者は、特徴部位である確率に応じた特徴部位の数を容易に把握することが可能になる。また、例えば、操作者は、マーカ情報が出現するフレームを時系列に閲覧したり、マーカ情報が連続して出現するフレームやマーカ情報が多いフレームを優先的に閲覧したりすることが可能になる。このようにして、第2の実施形態に係る変形例によれば、診断効率を向上させることができる。 As a result, in the modified example according to the second embodiment, the display control process can be executed even when the CAD process is not distributed to a plurality of input images. As a result, for example, the operator can view the result of the synthesis process color-coded according to the probability of being a feature portion. Further, for example, the operator can easily grasp the number of feature parts according to the probability of being a feature part. Further, for example, the operator can browse the frames in which the marker information appears in chronological order, or preferentially browse the frames in which the marker information appears continuously or the frames in which the marker information is abundant. .. In this way, according to the modified example according to the second embodiment, the diagnostic efficiency can be improved.

(その他の実施形態)
実施形態は、上述した実施形態に限られるものではない。
(Other embodiments)
The embodiment is not limited to the above-described embodiment.

上述した実施形態では、超音波診断装置を解析装置の一例として説明したが、実施形態はこれに限定されるものではない。例えば、医用画像処理装置を解析装置としてもよい。図24は、その他の実施形態に係る医用画像処理装置200の構成例を示すブロック図である。 In the above-described embodiment, the ultrasonic diagnostic apparatus has been described as an example of the analysis apparatus, but the embodiment is not limited thereto. For example, a medical image processing device may be used as an analysis device. FIG. 24 is a block diagram showing a configuration example of the medical image processing apparatus 200 according to another embodiment.

図24に示すように、医用画像処理装置200は、入力装置201と、ディスプレイ202と、記憶回路210と、処理回路220とを備える。入力装置201、ディスプレイ202、記憶回路210、処理回路220は、相互に通信可能に接続される。 As shown in FIG. 24, the medical image processing device 200 includes an input device 201, a display 202, a storage circuit 210, and a processing circuit 220. The input device 201, the display 202, the storage circuit 210, and the processing circuit 220 are connected to each other so as to be able to communicate with each other.

入力装置201は、マウス、キーボード、ボタン、パネルスイッチ、タッチコマンドスクリーン、フットスイッチ、トラックボール、ジョイスティック等を有し、医用画像処理装置200の操作者からの各種設定要求を受け付ける。入力装置201は、受け付けた各種設定要求を処理回路220へ出力する。 The input device 201 has a mouse, a keyboard, a button, a panel switch, a touch command screen, a foot switch, a trackball, a joystick, and the like, and receives various setting requests from the operator of the medical image processing device 200. The input device 201 outputs the received various setting requests to the processing circuit 220.

ディスプレイ202は、例えば超音波診断装置1によって生成された医用画像データを表示したり、操作者が入力装置201を用いて各種設定要求を入力するためのGUI(Graphical User Interface)を表示したりする。 The display 202 displays, for example, medical image data generated by the ultrasonic diagnostic apparatus 1, or displays a GUI (Graphical User Interface) for an operator to input various setting requests using the input device 201. ..

記憶回路210は、GUIを表示するための各種のプログラムや、当該プログラムによって用いられる情報を記憶する。また、記憶回路210は、超音波診断装置1や他の医用画像診断装置によって生成された医用画像データを記憶する。 The storage circuit 210 stores various programs for displaying the GUI and information used by the programs. In addition, the storage circuit 210 stores medical image data generated by the ultrasonic diagnostic apparatus 1 and other medical image diagnostic apparatus.

処理回路220は、医用画像処理装置200の処理全体を制御する。例えば、図24に示すように、処理回路220は、取得機能221、検索機能222、検索結果合成機能223、マーカ情報生成機能224及び表示制御機能225を実行する。ここで、例えば、図24に示す処理回路220の構成要素である取得機能221、検索機能222、検索結果合成機能223、マーカ情報生成機能224及び表示制御機能225が実行する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路210に記録されている。処理回路220は、各プログラムを記憶回路210から読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出した状態の処理回路220は、図24の処理回路220内に示された各機能を有することとなる。 The processing circuit 220 controls the entire processing of the medical image processing apparatus 200. For example, as shown in FIG. 24, the processing circuit 220 executes the acquisition function 221 and the search function 222, the search result synthesis function 223, the marker information generation function 224, and the display control function 225. Here, for example, each processing function executed by the acquisition function 221 and the search function 222, the search result synthesis function 223, the marker information generation function 224, and the display control function 225, which are the components of the processing circuit 220 shown in FIG. 24, is a computer. It is recorded in the storage circuit 210 in the form of a program that can be executed by. The processing circuit 220 is a processor that realizes a function corresponding to each program by reading each program from the storage circuit 210 and executing the program. In other words, the processing circuit 220 in the state where each program is read out has each function shown in the processing circuit 220 of FIG. 24.

その他の実施形態に係る医用画像処理装置200は、例えば、超音波診断装置1により生成された超音波画像を取得し、CAD処理を複数の入力画像に分散させ、各画像での結果を合成して、1枚の画像の最終的な検出結果として表示する。このような解析処理は、処理回路220が取得機能221、検索機能222、検索結果合成機能223、マーカ情報生成機能224及び表示制御機能225を実行することによって実現される。 The medical image processing device 200 according to the other embodiment acquires, for example, an ultrasonic image generated by the ultrasonic diagnostic device 1, distributes the CAD processing to a plurality of input images, and synthesizes the results of each image. It is displayed as the final detection result of one image. Such analysis processing is realized by the processing circuit 220 executing the acquisition function 221 and the search function 222, the search result synthesis function 223, the marker information generation function 224, and the display control function 225.

取得機能221は、第1の実施形態や第2の実施形態に係る取得機能181と同様の機能を実行する。検索機能222は、第1の実施形態や第2の実施形態に係る検索機能182と同様の機能を実行する。検索結果合成機能223は、第1の実施形態や第2の実施形態に係る検索結果合成機能183と同様の機能を実行する。マーカ情報生成機能224は、第1の実施形態や第2の実施形態に係るマーカ情報生成機能184と同様の機能を実行する。表示制御機能225は、第1の実施形態や第2の実施形態に係る表示制御機能185と同様の機能を実行する。 The acquisition function 221 executes the same function as the acquisition function 181 according to the first embodiment and the second embodiment. The search function 222 executes the same function as the search function 182 according to the first embodiment and the second embodiment. The search result synthesis function 223 executes the same function as the search result synthesis function 183 according to the first embodiment and the second embodiment. The marker information generation function 224 executes the same function as the marker information generation function 184 according to the first embodiment and the second embodiment. The display control function 225 executes the same function as the display control function 185 according to the first embodiment and the second embodiment.

このように、その他の実施形態に係る医用画像処理装置200は、第1の画像を対象に第1の検索処理を実行することで、第1の画像における特徴部位を検索し、第2の画像を対象に、第1の検索処理とは異なる第2の検索処理を実行することで、第2の画像における特徴部位を検索する。そして、その他の実施形態に係る医用画像処理装置200では、各検索結果を合成する。これにより、その他の実施形態に係る医用画像処理装置200は、CAD処理の性能を維持しながら、画像1枚あたりの計算量を抑えることができる。 As described above, the medical image processing apparatus 200 according to the other embodiment searches for the feature portion in the first image by executing the first search process on the first image, and searches for the feature portion in the first image, and the second image. By executing a second search process different from the first search process, the feature portion in the second image is searched for. Then, the medical image processing apparatus 200 according to the other embodiment synthesizes each search result. As a result, the medical image processing apparatus 200 according to the other embodiment can reduce the amount of calculation per image while maintaining the performance of CAD processing.

また、その他の実施形態に係る医用画像処理装置200は、マーカ情報が含まれる画像を抽出して、所定の順序で表示させる。これにより、その他の実施形態に係る医用画像処理装置200によれば、マーカ情報が出現するフレームを時系列に閲覧したり、マーカ情報が連続して出現するフレームやマーカ情報が多いフレームを優先的に閲覧したりすることが可能になる。このようにして、その他の実施形態に係る医用画像処理装置200によれば、診断効率を向上させることができる。 Further, the medical image processing apparatus 200 according to another embodiment extracts images including marker information and displays them in a predetermined order. As a result, according to the medical image processing apparatus 200 according to the other embodiment, the frames in which the marker information appears are browsed in chronological order, and the frames in which the marker information appears continuously and the frames in which the marker information is abundant are prioritized. It will be possible to browse to. In this way, according to the medical image processing apparatus 200 according to the other embodiment, the diagnostic efficiency can be improved.

なお、上述した実施形態では、第1の画像と第2の画像は、生成された時刻(フレーム)が異なる画像として記載したが、これに限定されるものではない。例えば、第1の画像と第2の画像は、同時に取得された異なる領域の画像、異なる撮影日時で取得された同一被検体の画像(超音波画像とX線CT画像、超音波画像とX線画像、超音波画像とMRI画像、或いは、X線CT画像とMRI画像など)、別の被検体の画像、異なる撮像条件(超音波診断装置における超音波の周波数、超音波の音圧、異なるプローブ、X線CT装置やX線診断装置におけるX線のエネルギー、磁気共鳴イメージング装置における磁場強度など)で取得された画像、異なる画像処理が施された画像、同一の医用診断装置で取得された異なる種類の画像(Bモード画像、造影画像、エラストグラフィ画像、高精細モード画像など)であってもよい。 In the above-described embodiment, the first image and the second image are described as images having different generation times (frames), but the present invention is not limited to this. For example, the first image and the second image are images of different regions acquired at the same time, images of the same subject acquired at different shooting dates and times (ultrasonic image and X-ray CT image, ultrasonic image and X-ray). Images, ultrasound images and MRI images, or X-ray CT images and MRI images, images of different subjects, different imaging conditions (ultrasonography frequency in ultrasound diagnostic equipment, ultrasound sound pressure, different probes, etc.) , X-ray energy in X-ray CT equipment and X-ray diagnostic equipment, magnetic field strength in magnetic resonance imaging equipment, etc.), images with different image processing, different images acquired by the same medical diagnostic equipment It may be a type of image (B-mode image, contrast image, elastography image, high-definition mode image, etc.).

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The term "processor" used in the above description refers to, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), or a programmable logic device (for example, an application specific integrated circuit). It means a circuit such as a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). The processor realizes the function by reading and executing the program stored in the storage circuit. Instead of storing the program in the storage circuit, the program may be directly embedded in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program embedded in the circuit. It should be noted that each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to form one processor to realize its function. good. Further, the plurality of components in FIG. 1 may be integrated into one processor to realize the function.

上記の実施形態の説明において、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。 In the description of the above-described embodiment, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in arbitrary units according to various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

また、上記の実施形態で説明した画像解析方法は、予め用意された画像解析プログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することによって実現することができる。この画像解析プログラムは、インターネット等のネットワークを介して配布することができる。また、この画像解析プログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。 Further, the image analysis method described in the above embodiment can be realized by executing an image analysis program prepared in advance on a computer such as a personal computer or a workstation. This image analysis program can be distributed via a network such as the Internet. Further, this image analysis program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO, or DVD, and being read from the recording medium by the computer. ..

以上説明した少なくとも一つの実施形態によれば、診断効率を向上させることができる。 According to at least one embodiment described above, the diagnostic efficiency can be improved.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.

1 超音波診断装置
100 装置本体
180 処理回路
181 取得機能
182 検索機能
183 検索結果合成機能
184 マーカ情報生成機能
185 表示制御機能
1 Ultrasonic diagnostic device 100 Device body 180 Processing circuit 181 Acquisition function 182 Search function 183 Search result synthesis function 184 Marker information generation function 185 Display control function

Claims (26)

同じ医用画像診断装置により同じ被検体の同じ部位から取得された時系列の画像であって、リアルタイムで時系列に生成される画像のうち最新の画像である第1の画像及び第2の画像を順次取得する取得部と、
新たに取得された前記第1の画像を対象に第1の検索処理を実行することで、前記第1の画像における特徴部位を検索し、新たに取得された前記第2の画像を対象に、前記第1の検索処理とは異なる第2の検索処理を実行することで、前記第2の画像における特徴部位を検索する検索部と、
前記検索部による各検索結果を合成する検索結果合成部と、
を備えた解析装置。
The first image and the second image, which are time-series images acquired from the same part of the same subject by the same medical image diagnostic apparatus and are the latest images among the images generated in time-series in real time. And the acquisition department that sequentially acquires
By executing the first search process on the newly acquired first image, the feature portion in the first image is searched, and the newly acquired second image is targeted. By executing a second search process different from the first search process, a search unit that searches for a feature portion in the second image, and a search unit.
A search result synthesis unit that synthesizes each search result by the search unit,
Analytical device equipped with.
前記検索部は、前記第1の検索処理と前記第2の検索処理とで異なるパラメータを設定する、請求項1に記載の解析装置。 The analysis device according to claim 1, wherein the search unit sets different parameters for the first search process and the second search process. 前記検索部は、前記パラメータとして検索処理対象の画像内に複数の検索窓を設定し、各検索窓について特徴部位である確率を計算する、請求項2に記載の解析装置。 The analysis device according to claim 2, wherein the search unit sets a plurality of search windows in the image to be searched as the parameters, and calculates the probability of being a feature portion for each search window. 前記検索部は、前記第1の検索処理と前記第2の検索処理とで異なる大きさの検索窓を設定する、請求項3に記載の解析装置。 The analysis device according to claim 3, wherein the search unit sets search windows having different sizes in the first search process and the second search process. 前記検索部は、前記第1の検索処理における検索窓の前記第1の画像に対する相対的な大きさと、前記第2の検索処理における検索窓の前記第2の画像に対する相対的な大きさとが異なるように、前記第1の検索処理と前記第2の検索処理との検索窓を設定する、請求項3に記載の解析装置。 The search unit differs in the relative size of the search window in the first search process with respect to the first image and the relative size of the search window in the second search process with respect to the second image. The analysis device according to claim 3, wherein a search window for the first search process and the second search process is set as described above. 前記検索部は、前記第1の検索処理と前記第2の検索処理とで異なる位置に検索窓を設定する、請求項3に記載の解析装置。 The analysis device according to claim 3, wherein the search unit sets search windows at different positions in the first search process and the second search process. 前記検索部は、前記パラメータとして教師データを設定する、請求項2に記載の解析装置。 The analysis device according to claim 2, wherein the search unit sets teacher data as the parameter. 前記検索部は、前記パラメータとして検索アルゴリズムを設定する、請求項2に記載の解析装置。 The analysis device according to claim 2, wherein the search unit sets a search algorithm as the parameter. 前記検索部は、所定の時間間隔毎に異なる前記パラメータを設定する、請求項2~8のいずれか一つに記載の解析装置。 The analysis device according to any one of claims 2 to 8, wherein the search unit sets different parameters at predetermined time intervals. 前記検索部は、スキャン速度が所定の閾値以下の場合に、前記パラメータを変更する頻度を高くする、請求項2~8のいずれか一つに記載の解析装置。 The analysis device according to any one of claims 2 to 8, wherein the search unit increases the frequency of changing the parameters when the scan speed is equal to or less than a predetermined threshold value. 前記検索部は、フレームレートが所定の閾値以上の場合に、前記パラメータを変更する頻度を高くする、請求項2~8のいずれか一つに記載の解析装置。 The analysis device according to any one of claims 2 to 8, wherein the search unit increases the frequency of changing the parameters when the frame rate is equal to or higher than a predetermined threshold value. 前記検索結果合成部は、前記第1の画像における特徴部位と、前記第2の画像における特徴部位とで共通する特徴部位を合成結果とする、請求項1~11のいずれか1つに記載の解析装置。 The search result synthesizing unit according to any one of claims 1 to 11, wherein the search result synthesizing unit uses a feature portion common to the feature portion in the first image and the feature portion in the second image as a synthesis result. Analyst. 前記検索結果合成部は、前記第1の画像における特徴部位と、前記第2の画像における特徴部位とを合成結果とする、請求項1~11のいずれか1つに記載の解析装置。 The analysis device according to any one of claims 1 to 11, wherein the search result synthesizing unit has a feature portion in the first image and a feature portion in the second image as a synthesis result. 前記検索結果合成部は、前記第1の画像における特徴部位である確率と、前記第2の画像における特徴部位である確率との統計値が所定の閾値以上である特徴部位を合成結果とする、請求項1~11のいずれか1つに記載の解析装置。 The search result synthesis unit uses a feature site whose statistical value of the probability of being a feature site in the first image and the probability of being a feature site in the second image is equal to or higher than a predetermined threshold value as a synthesis result. The analyzer according to any one of claims 1 to 11. 前記検索結果合成部は、前記第1の画像における特徴部位と、前記第2の画像における特徴部位とで少なくとも一部が共通する場合に、各特徴部位が占める部位を合成結果とする、請求項1~11のいずれか1つに記載の解析装置。 The claim that the search result synthesizing unit uses a part occupied by each feature part as a synthesis result when at least a part of the feature part in the first image and the feature part in the second image are common. The analyzer according to any one of 1 to 11. 前記検索結果合成部は、前記第1の画像における特徴部位を、前記第2の画像にコピーする、請求項12~15のいずれか1つに記載の解析装置。 The analysis device according to any one of claims 12 to 15, wherein the search result synthesis unit copies a feature portion in the first image to the second image. 前記検索結果合成部による合成結果に基づいて、マーカ情報を生成するマーカ情報生成部と、
医用画像を表示部に表示させ、前記マーカ情報に基づくマーカを、前記医用画像上に表示させる表示制御部と、
を備えた請求項1~16のいずれか1つに記載の解析装置。
A marker information generation unit that generates marker information based on the synthesis result of the search result synthesis unit,
A display control unit that displays a medical image on a display unit and displays a marker based on the marker information on the medical image.
The analysis apparatus according to any one of claims 1 to 16.
前記マーカ情報生成部は、前記特徴部位である確率に応じて色分けしたマーカ情報を生成する、請求項17に記載の解析装置。 The analysis device according to claim 17, wherein the marker information generation unit generates color-coded marker information according to the probability of being the featured portion. 前記検索部は、検索処理対象の画像内に複数の検索窓を設定して、各検索窓について特徴部位である確率を計算し、
前記マーカ情報は、前記検索窓に応じた形状を有し、
前記表示制御部は、重畳するマーカ情報の前記形状の外枠のみを表示させる、請求項17に記載の解析装置。
The search unit sets a plurality of search windows in the image to be searched, calculates the probability of being a feature part for each search window, and calculates the probability.
The marker information has a shape corresponding to the search window.
The analysis device according to claim 17, wherein the display control unit displays only the outer frame of the shape of the superimposed marker information.
前記マーカ情報生成部は、前記特徴部位である確率に応じて色分けしたマーカ情報を生成し、
前記表示制御部は、重畳するマーカ情報の前記形状の外枠のみを、前記確率が最も高い色で色分けして表示させる、請求項19に記載の解析装置。
The marker information generation unit generates color-coded marker information according to the probability of being the feature portion.
The analysis device according to claim 19, wherein the display control unit displays only the outer frame of the shape of the superimposed marker information in the color having the highest probability.
前記表示制御部は、前記マーカ情報に基づくマーカを、前記第1の画像及び前記第2の画像と画質が異なる前記医用画像上に表示させる、請求項17~20のいずれか1つに記載の解析装置。 The display control unit according to any one of claims 17 to 20, wherein the display control unit displays a marker based on the marker information on the first image and the medical image whose image quality is different from that of the second image. Analyst. 前記表示制御部は、前記マーカ情報の数の計測値を更に表示させる、請求項18に記載の解析装置。 The analysis device according to claim 18, wherein the display control unit further displays a measured value of the number of marker information. 前記表示制御部は、前記マーカ情報が含まれる画像を抽出して、所定の順序で表示させる、請求項18に記載の解析装置。 The analysis device according to claim 18, wherein the display control unit extracts images including the marker information and displays them in a predetermined order. 前記表示制御部は、連続性に応じて前記所定の順序を決定する、請求項23に記載の解析装置。 The analysis device according to claim 23, wherein the display control unit determines the predetermined order according to continuity. 前記表示制御部は、前記マーカ情報の数に応じて前記所定の順序を決定する、請求項23に記載の解析装置。 The analysis device according to claim 23, wherein the display control unit determines the predetermined order according to the number of marker information. 前記表示制御部は、スキャン速度に応じて前記所定の順序を決定する、請求項23に記載の解析装置。 The analysis device according to claim 23, wherein the display control unit determines the predetermined order according to the scanning speed.
JP2018049986A 2017-09-28 2018-03-16 Analyst Active JP7102181B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017189080 2017-09-28
JP2017189080 2017-09-28

Publications (2)

Publication Number Publication Date
JP2019063483A JP2019063483A (en) 2019-04-25
JP7102181B2 true JP7102181B2 (en) 2022-07-19

Family

ID=66338612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018049986A Active JP7102181B2 (en) 2017-09-28 2018-03-16 Analyst

Country Status (1)

Country Link
JP (1) JP7102181B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7483327B2 (en) 2019-04-26 2024-05-15 キヤノンメディカルシステムズ株式会社 Ultrasound diagnostic equipment and analysis equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180932A (en) 2002-12-03 2004-07-02 Toshiba Corp Computer aided diagnostic apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180932A (en) 2002-12-03 2004-07-02 Toshiba Corp Computer aided diagnostic apparatus

Also Published As

Publication number Publication date
JP2019063483A (en) 2019-04-25

Similar Documents

Publication Publication Date Title
JP7230255B2 (en) Analysis device and analysis program
JP6462340B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
US11672506B2 (en) Ultrasound diagnosis apparatus and image processing apparatus
JP6608232B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical information display control method
US10335118B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image parallel display method
US9489921B2 (en) Method and apparatus for displaying plurality of different images of object
US11701091B2 (en) Ultrasound analysis apparatus and method for tissue elasticity and viscosity based on the hormonic signals
JP6382050B2 (en) Medical image diagnostic apparatus, image processing apparatus, image processing method, and image processing program
JP7490840B2 (en) Analysis device and analysis program
JP2016093277A (en) Medical image processing apparatus, ultrasonic diagnostic apparatus, medical image processing method and medical image processing program
JP2023160986A (en) Ultrasonic diagnostic device and analysis device
JP5390149B2 (en) Ultrasonic diagnostic apparatus, ultrasonic diagnostic support program, and image processing apparatus
JP2019213859A (en) Analyzer and program
JP7102181B2 (en) Analyst
US11850101B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing method
US20220273266A1 (en) Ultrasound diagnosis apparatus and image processing apparatus
US20210369247A1 (en) Medical image diagnosis apparatus, medical image processing apparatus and medical image processing method
WO2020149191A1 (en) Image analyzing device
KR20220040400A (en) Ultrasound imaging system and method for generating an enhanced image
JP7109986B2 (en) Image processing device and ultrasonic diagnostic device
US20200219228A1 (en) Real-time regional enhancement imaging and display for ultrasound imaging
JP5443781B2 (en) Ultrasonic diagnostic equipment
JP2020092936A (en) Ultrasonic diagnostic device and ultrasonic diagnostic program
JP7144184B2 (en) Ultrasound diagnostic device, image processing device and image processing program
JP2021186676A (en) Ultrasonic diagnostic apparatus and image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7102181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150