JP2001076141A - Image recognizing method and image processor - Google Patents

Image recognizing method and image processor

Info

Publication number
JP2001076141A
JP2001076141A JP24631099A JP24631099A JP2001076141A JP 2001076141 A JP2001076141 A JP 2001076141A JP 24631099 A JP24631099 A JP 24631099A JP 24631099 A JP24631099 A JP 24631099A JP 2001076141 A JP2001076141 A JP 2001076141A
Authority
JP
Japan
Prior art keywords
subject
vector
feature
image
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24631099A
Other languages
Japanese (ja)
Inventor
Tsutomu Kono
努 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP24631099A priority Critical patent/JP2001076141A/en
Publication of JP2001076141A publication Critical patent/JP2001076141A/en
Pending legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically select optimum image processing condition or image processing means and to correctly recognize the part and photographing direction of a photographed object with respect to a radiation image that should automatically obtain an image optimum to a diagnosis without a complicated operation. SOLUTION: This processor has an object area extracting means 31 extracting an area where an object is photographed about an inputted image, a characteristic extracting means 32 which extracts a plurality of characteristics of the object from the object area extracted by the object area extracting means and prepares a characteristic vector having a characteristic as each element, an object information storing means 36 which preliminarily stores object vectors representing respective characteristics about a plurality of different objects, and a correlation degree calculating means 33 calculating a correlation degree with the characteristic vectors obtained by the characteristic extracting means and the object vectors stored in the object information storing means, and recognizes a photographed object as an object being the same as an object vector whose correlation degree is decided as the highest by the correlation degree calculating means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は放射線画像を処理す
る際の画像認識方法および画像処理装置に関し、さらに
詳しくは、放射線画像の最適処理に必要な被写体の認識
が可能な画像認識方法および画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition method and an image processing apparatus for processing a radiation image, and more particularly, to an image recognition method and an image processing capable of recognizing a subject required for optimal processing of a radiation image. Related to the device.

【0002】[0002]

【従来の技術】近年、放射線画像を直接デジタル画像と
して撮影できる装置が開発されている。たとえば、被写
体に照射された放射線量を検出し、その検出量に対応し
て形成される放射線画像を電気信号として得る装置とし
ては、輝尽性蛍光体を用いたディテクタを用いる方法が
特開昭55-12429号公報、特開昭63-189853号公報など、
多数開示されている。
2. Description of the Related Art In recent years, devices capable of directly taking a radiation image as a digital image have been developed. For example, as a device that detects the amount of radiation applied to a subject and obtains a radiation image formed in accordance with the detected amount as an electric signal, a method using a detector using a stimulable phosphor is disclosed in Japanese Unexamined Patent Application Publication No. 2005-110,026. 55-12429 gazette, JP-A-63-189853 gazette,
Many have been disclosed.

【0003】このような装置では、シ−ト状の基板に輝
尽性蛍光体を塗布、あるいは蒸着等によって固着したデ
ィテクタに、いったん被写体を透過した放射線を照射し
て輝尽性蛍光体に放射線を吸収させる。その後、この輝
尽性蛍光体を光または熱エネルギ−で励起することによ
り、この輝尽性蛍光体が上記吸収によって蓄積している
放射線エネルギ−を蛍光として放射させ、この蛍光を光
電変換して画像信号を得るようにしている。
In such an apparatus, a stimulable phosphor is applied to a sheet-like substrate, or is fixed by vapor deposition or the like. To absorb. Thereafter, the stimulable phosphor is excited by light or thermal energy to emit radiation energy accumulated by the stimulable phosphor by the absorption, and the fluorescence is photoelectrically converted. An image signal is obtained.

【0004】一方、照射された放射線の強度に応じた電
荷を光導電層に生成し、生成された電荷を二次元的に配
列された複数のコンデンサに蓄積し、それら蓄積された
電荷を取り出すことにより得られる放射線画像検出装置
が提案されている。
On the other hand, a charge corresponding to the intensity of the irradiated radiation is generated in the photoconductive layer, the generated charge is stored in a plurality of two-dimensionally arranged capacitors, and the stored charge is taken out. Has been proposed.

【0005】このような放射線画像検出装置では、フラ
ットパネルディテクタ(FPD)と呼ばれるものを使用
している。この種のFPDは、特開平9−90048号
公報に記載されているように、蛍光をフォトダイオード
で検知したり、CCDやC−MOSセンサで検出するこ
とができる。また、特開平6−342098号公報にも
同様なFPDが記載されている。
[0005] Such a radiation image detecting apparatus uses what is called a flat panel detector (FPD). As described in Japanese Patent Application Laid-Open No. 9-90048, this type of FPD can detect fluorescence with a photodiode or a CCD or C-MOS sensor. A similar FPD is described in Japanese Patent Application Laid-Open No. 6-342098.

【0006】これらの装置では、放射線画像を診断に適
した階調で表現するために、医師が注目する部分(関心
領域)について見やすくなるよう、前記のような装置で
得られた画像を自動的に階調変換することが望ましい。
このような自動階調変換を行うために、画像デ−タの統
計的特徴(デ−タの最大値・最小値・ヒストグラム等)
から処理条件を決定し、画像全体に対して画像処理を施
すことが行われる。また、細部の構造を見やすくするた
め、エッジ強調処理を行ったり、被写体の信号領域を狭
めて、濃度の高い部分と低い部分を同時に観察しやすく
するためのダイナミックレンジ圧縮処理等も行われる。
[0006] In these apparatuses, in order to express a radiographic image in gradation suitable for diagnosis, an image obtained by the above apparatus is automatically converted so that a doctor can easily see a portion (region of interest) of interest. It is desirable to perform gradation conversion.
In order to perform such automatic gradation conversion, statistical characteristics of image data (maximum value / minimum value of data, histogram, etc.)
, A processing condition is determined, and image processing is performed on the entire image. Further, edge enhancement processing is performed to make it easier to see the structure of details, and dynamic range compression processing is also performed to narrow the signal area of the subject so that it is easy to simultaneously observe high and low density parts.

【0007】しかし、診断に利用する放射線撮影では、
撮影対象となる部位が頭部から四肢まで多岐に渡り、そ
れぞれによって医師が注目する領域も異なるため、診断
に最適な画像を得るための画像処理条件は、撮影部位毎
に異なるものとなる。また、同様に、撮影方向によって
も、処理条件は異なるものとなる。
However, in radiography used for diagnosis,
Since the region to be photographed covers a wide range from the head to the limbs, and the region to which the doctor pays attention differs depending on the region, the image processing conditions for obtaining an image optimal for diagnosis differ for each region to be photographed. Similarly, processing conditions vary depending on the shooting direction.

【0008】そのため、従来これらの装置では、画像処
理を行う前に、最適な処理条件を選択するため、被写体
の撮影部位、方向等を入力する必要がある。しかし、一
般に撮影される部位は100種類以上にもなり、この中
から毎回撮影を行うたびに上記入力作業を行う必要が生
じる。このような入力作業は繁雑であり、放射線撮影を
行う放射線技師の大きな負担となっていた。
Therefore, in these conventional apparatuses, it is necessary to input a photographic region, a direction, and the like of a subject in order to select an optimum processing condition before performing image processing. However, there are generally more than 100 types of parts to be imaged, and it becomes necessary to perform the above-mentioned input operation every time an image is taken each time. Such an input operation is complicated, and places a heavy burden on a radiologist performing radiography.

【0009】そこで、撮影された画像を読み取って自動
的に被写体の部位、方向を認識して、最適な処理条件を
選択することが、技師の負担を軽くするために求められ
ている。
Therefore, it is required to read the photographed image, automatically recognize the part and direction of the subject, and select the optimum processing condition in order to reduce the burden on the engineer.

【0010】撮影された部位を自動的に判別する方法と
して、特開平11−85950号公報に記載のように画
像の濃度分布から特徴量を調べ、その特徴量に基づいて
判別するものがある。
As a method for automatically judging a photographed part, there is a method as described in Japanese Patent Application Laid-Open No. H11-85950, in which a characteristic amount is examined from a density distribution of an image and discrimination is performed based on the characteristic amount.

【0011】[0011]

【発明が解決しようとする課題】しかし、放射線撮影で
は通常、人体への不要な被曝を避けるために、照射野絞
りと呼ばれる放射線遮蔽物を用いて、放射線が照射され
る領域(照射野)を限定して撮影することが一般的であ
る。また、照射野の絞り方は、撮影技師によって異なる
ため、同一患者、同一部位に対する撮影であっても、必
ずしも同じ照射野形状になるとは限らない。
However, in radiography, in order to avoid unnecessary exposure to the human body, an area (irradiation field) to be irradiated with radiation is usually used by using a radiation shield called an irradiation field stop. It is common to take a limited number of images. In addition, since the method of narrowing the irradiation field differs depending on the imaging technician, even when imaging is performed on the same patient and the same site, the irradiation field shape is not always the same.

【0012】さらに、照射野内外では、大きく信号分布
が変化するため、照射野の絞り方によって画像の濃度分
布は大きく異なってしまう。このような結果、上記のよ
うに濃度分布による特徴量で判別を行うと照射野の絞り
方によって特徴量が変わってしまい、撮影部位を正しく
判別することは困難になる。
Further, since the signal distribution greatly changes inside and outside the irradiation field, the density distribution of the image greatly differs depending on how to narrow the irradiation field. As a result, if the discrimination is performed based on the feature amount based on the density distribution as described above, the feature amount changes depending on how to narrow the irradiation field, and it is difficult to correctly determine the imaging region.

【0013】また、放射線撮影を行う部位は多岐にわた
り、同じ診断目的に対しても異なる撮影方法があるた
め、病院毎に撮影される部位もしくは撮影方向が異なっ
てくる。また、病院毎に工夫された、独自の撮影方法も
用いられる。
[0013] Further, since a radiographic imaging site is diverse and there are different imaging methods for the same diagnostic purpose, the imaging site or imaging direction differs for each hospital. Also, a unique imaging method devised for each hospital is used.

【0014】従って、全ての撮影方法に対応した処理条
件を予め準備しておくことは非常に困難である。もし、
処理条件や部位の判別条件が記憶されていない、新規の
撮影方法で撮影された画像が入力された場合、上記公知
例では認識手段に設けられた学習機能によって対応でき
るようになっているが、正しい学習が行われるためには
多くのサンプルが必要であり、即座に対応することがで
きないという問題が生じる。
Therefore, it is very difficult to prepare processing conditions corresponding to all photographing methods in advance. if,
In the above-described known example, the learning function provided in the recognition unit can cope with a case where an image photographed by a new photographing method is input, in which the processing condition or the condition for determining a part is not stored. In order for correct learning to be performed, a large number of samples are required, and there is a problem that it is not possible to respond immediately.

【0015】本発明は以上のような課題に鑑みてなされ
たものであって、自動的に最適な画像処理条件または画
像処理手段を選択し、煩雑な操作無しに診断に最適な画
像を自動的に得るべく、放射線画像に対して、撮影され
た被写体の部位および撮影方向を正しく認識することが
可能な画像認識方法および画像処理装置を実現すること
を目的とする。
The present invention has been made in view of the above problems, and automatically selects an optimal image processing condition or image processing means, and automatically selects an optimal image for diagnosis without complicated operation. It is an object of the present invention to provide an image recognition method and an image processing apparatus capable of correctly recognizing a part and a photographing direction of a photographed subject with respect to a radiographic image.

【0016】[0016]

【課題を解決するための手段】すなわち、前記した課題
を解決する本発明は、以下の通りである。 (1)請求項1記載の発明は、画像に含まれる被写体を
認識する画像処理装置であって、入力される画像につい
て被写体が撮影されている領域を抽出する被写体領域抽
出手段と、該被写体領域抽出手段によって抽出された被
写体領域から、被写体の複数の特徴を抽出し、該特徴を
各要素として有する特徴ベクトルを作成する特徴抽出手
段と、複数の異なる被写体に関するそれぞれの特徴を表
す被写体ベクトルを予め記憶しておく被写体情報記憶手
段と、前記特徴抽出手段によって得られた前記特徴ベク
トルと、前記被写体情報記憶手段に記憶された前記被写
体ベクトルとで相関度を計算する相関度計算手段と、を
有し、前記相関度計算手段によって最も相関度が高いと
判断された被写体ベクトルと同じ被写体として、撮影さ
れている被写体を認識する、ことを特徴とする画像処理
装置である。
That is, the present invention for solving the above-mentioned problems is as follows. (1) An image processing apparatus for recognizing a subject included in an image, comprising: a subject area extracting unit configured to extract an area where a subject is photographed in an input image; A plurality of features of the subject are extracted from the subject region extracted by the extraction unit, and a feature extraction unit for creating a feature vector having the features as respective elements, and a subject vector representing each feature of a plurality of different subjects are previously stored. Subject information storage means for storing; and a correlation degree calculation means for calculating a degree of correlation between the feature vector obtained by the feature extraction means and the subject vector stored in the subject information storage means. Then, the subject being photographed is regarded as the same subject as the subject vector determined to have the highest correlation by the correlation calculating means. To identify, we are an image processing apparatus according to claim.

【0017】請求項8記載の発明は、画像に含まれる被
写体を認識する画像認識方法であって、入力される画像
について被写体が撮影されている領域を抽出し、抽出さ
れた被写体領域から、被写体の複数の特徴を抽出し、該
特徴を各要素として有する特徴ベクトルを作成し、複数
の異なる被写体に関するそれぞれの特徴を表す被写体ベ
クトルを予め記憶した中から読み出し、前記特徴ベクト
ルと前記被写体ベクトルとで相関度を計算し、前記相関
度計算によって最も相関度が高いと判断された被写体ベ
クトルと同じ被写体として、撮影されている被写体を認
識する、ことを特徴とする被写体認識方法である。
The invention according to claim 8 is an image recognition method for recognizing a subject included in an image, wherein an area of the input image where the subject is photographed is extracted, and the subject is extracted from the extracted subject area. Is extracted, a feature vector having the feature as each element is created, and a subject vector representing each feature relating to a plurality of different subjects is read out from pre-stored, and the feature vector and the subject vector A subject recognition method comprising calculating a degree of correlation, and recognizing a subject being photographed as the same subject as the subject vector determined to have the highest degree of correlation by the calculation of the degree of correlation.

【0018】これらの発明では、抽出した被写体領域か
ら、被写体の複数の特徴を抽出して特徴を各要素として
有する特徴ベクトルを作成し、該特徴ベクトルと前記被
写体ベクトルとで相関度を計算し、最も相関度が高いと
判断された被写体ベクトルと同じ被写体として、撮影さ
れている被写体を認識するようにしている。
In these inventions, a plurality of features of a subject are extracted from the extracted subject region to create a feature vector having the features as respective elements, and the degree of correlation is calculated between the feature vector and the subject vector. The subject being photographed is recognized as the same subject as the subject vector determined to have the highest correlation.

【0019】このため、放射線画像に対して、自動的に
最適な階調処理条件を選択し、煩雑な操作無しに診断に
最適な画像を自動的に得られるよう、撮影された被写体
を正しく認識することが可能になる。
Therefore, the optimum gradation processing condition is automatically selected for the radiation image, and the photographed subject is correctly recognized so that the optimum image for diagnosis can be automatically obtained without complicated operation. It becomes possible to do.

【0020】(2)請求項2記載の発明は、画像に含ま
れる被写体を認識する画像処理装置であって、入力され
る画像について被写体が撮影されている領域を抽出する
被写体領域抽出手段と、該被写体領域抽出手段によって
抽出された被写体領域から、被写体の複数の特徴を抽出
し、該特徴を各要素として有する特徴ベクトルを作成す
る特徴抽出手段と、複数の異なる被写体に関するそれぞ
れの特徴を表すと共に前記特徴ベクトルと同じ尺度の要
素を有する被写体ベクトルを予め記憶しておく被写体情
報記憶手段と、前記特徴抽出手段によって得られた前記
特徴ベクトルと、前記被写体情報記憶手段に記憶された
前記被写体ベクトルとで相関度を計算する相関度計算手
段と、を有し、前記被写体ベクトルは、前記各要素につ
いて被写体毎に異なる重み付けがなされていると共に、
前記相関度計算手段では、対応する各要素間の関連度
と、前記各要素の重み付けに依存して相関度が求めら
れ、最も相関度が高いと判断された被写体ベクトルと同
じ被写体として撮影されている被写体を認識する、こと
を特徴とする画像処理装置である。
(2) An image processing apparatus for recognizing a subject contained in an image, the subject processing device comprising: a subject region extracting means for extracting a region where a subject is photographed in an input image; A feature extracting unit that extracts a plurality of features of the subject from the subject region extracted by the subject region extracting unit and creates a feature vector having the feature as each element; A subject information storage unit that stores in advance a subject vector having an element of the same scale as the feature vector; the feature vector obtained by the feature extraction unit; and the subject vector stored in the subject information storage unit. And a correlation degree calculating means for calculating the degree of correlation with the object vector. Along with the weighted have been made that,
In the correlation degree calculating means, the degree of correlation is determined depending on the degree of association between the corresponding elements and the weighting of each element, and the correlation degree is calculated as the same subject as the subject vector determined to have the highest degree of correlation. An image processing apparatus for recognizing a subject that is present.

【0021】請求項9記載の発明は、画像に含まれる被
写体を認識する画像認識方法であって、入力される画像
について被写体が撮影されている領域を抽出し、抽出さ
れた被写体領域から、被写体の複数の特徴を抽出し、該
特徴を各要素として有する特徴ベクトルを作成し、複数
の異なる被写体に関するそれぞれの特徴を表すものであ
り、前記各要素について被写体毎に異なる重み付けがな
されている被写体ベクトルを、予め記憶した中から読み
出し、前記特徴ベクトルと前記被写体ベクトルとで相関
度を計算し、前記相関度計算では、対応する各要素間の
関連度と、前記各要素の重み付けに依存して相関度を求
め、最も相関度が高いと判断された被写体ベクトルと同
じ被写体として撮影されている被写体を認識する、こと
を特徴とする被写体認識方法である。
According to a ninth aspect of the present invention, there is provided an image recognition method for recognizing a subject included in an image, wherein an area of the input image where the subject is photographed is extracted, and the subject is extracted from the extracted subject area. Are extracted, a feature vector having the feature as each element is created, and each of the elements is represented by a different weight for each of the elements. Is read out from a pre-stored state, and the degree of correlation is calculated between the feature vector and the object vector. In the degree of correlation calculation, the degree of relevance between the corresponding elements and the weight of the elements depend on the correlation. A subject that is photographed as the same subject as the subject vector determined to have the highest degree of correlation. It is a recognition method.

【0022】これらの発明では、抽出した被写体領域か
ら、被写体毎に異なる重み付けがなされた複数の特徴を
各要素として有する特徴ベクトルを作成し、該特徴ベク
トルと前記被写体ベクトルとで重み付けに依存して相関
度を計算し、最も相関度が高いと判断された被写体ベク
トルと同じ被写体として、撮影されている被写体を認識
するようにしている。
In these inventions, a feature vector having as its elements a plurality of features differently weighted for each subject is created from the extracted subject area, and the feature vector and the subject vector are dependent on the weighting. The degree of correlation is calculated, and the object being photographed is recognized as the same object as the object vector determined to have the highest degree of correlation.

【0023】このため、放射線画像に対して、自動的に
最適な階調処理条件を選択し、煩雑な操作無しに診断に
最適な画像を自動的に得られるよう、撮影された被写体
を正しく認識することが可能になる。
Therefore, the optimum gradation processing condition is automatically selected for the radiation image, and the photographed subject is correctly recognized so that the optimum image for diagnosis can be automatically obtained without complicated operation. It becomes possible to do.

【0024】(3)請求項3記載の発明は、前記被写体
情報記憶手段に対し、外部から被写体ベクトルの追加、
削除、または変更を行うための被写体情報入力手段を有
する、ことを特徴とする請求項1または請求項2のいず
れかに記載の画像処理装置である。
(3) According to the third aspect of the invention, an object vector is added to the object information storage means from outside.
3. The image processing apparatus according to claim 1, further comprising subject information input means for performing deletion or change.

【0025】請求項10記載の発明は、前記被写体ベク
トルを記憶する手段に対し、外部の入力手段から被写体
ベクトルの追加、削除、または変更を行う、ことを特徴
とする請求項8または請求項9のいずれかに記載の画像
認識方法である。
According to a tenth aspect of the present invention, the subject vector is added, deleted, or changed from an external input means to the means for storing the subject vector. The image recognition method according to any one of the above.

【0026】これらの発明では、外部の入力手段から被
写体ベクトルの追加・削除・変更を行うようにしている
ため、被写体の部位および撮影方向を判別・認識するこ
とが容易になり、撮影された被写体を正しく認識するこ
とが可能になる。また、撮影部位等が増えた場合にも簡
単に対応することができる。
In these inventions, the addition, deletion, and change of the object vector are performed from an external input means, so that it is easy to determine and recognize the site and the imaging direction of the object, and Can be correctly recognized. In addition, it is possible to easily cope with an increase in the number of imaging parts and the like.

【0027】(4)請求項4記載の発明は、前記特徴抽
出手段は、前記被写体領域の形状を特徴として抽出す
る、ことを特徴とする請求項1乃至請求項3のいずれか
に記載の画像処理装置である。
(4) The image according to any one of claims 1 to 3, wherein the feature extracting means extracts the shape of the subject area as a feature. Processing device.

【0028】請求項11記載の発明は、前記特徴ベクト
ルの作成は、前記被写体領域の形状を特徴として抽出す
る、ことを特徴とする請求項7乃至請求項10のいずれ
かに記載の画像認識方法である。
The invention according to claim 11, wherein the feature vector is created by extracting a shape of the subject area as a feature. It is.

【0029】これらの発明では、前記被写体領域の形状
を特徴として抽出することで特徴ベクトルの作成を行う
ようにしている。この結果、被写体の明確な特徴を抽出
できるため、放射線画像に対して、自動的に最適な階調
処理条件を選択し、煩雑な操作無しに診断に最適な画像
を自動的に得られるよう、撮影された被写体を正しく認
識することが可能になる。
In these inventions, a feature vector is created by extracting the shape of the subject area as a feature. As a result, since a clear feature of the subject can be extracted, an optimal gradation processing condition is automatically selected for a radiation image, and an optimal image for diagnosis is automatically obtained without complicated operation. It is possible to correctly recognize the photographed subject.

【0030】(5)請求項5記載の発明は、前記特徴抽
出手段は、前記被写体領域を含む領域において、近傍画
素間の濃度変化量を用いて計算した特性値を特徴として
抽出する、ことを特徴とする請求項1乃至請求項3のい
ずれかに記載の画像処理装置である。
(5) The invention described in claim 5 is characterized in that the feature extracting means extracts, as a feature, a characteristic value calculated using a density change amount between neighboring pixels in a region including the subject region. An image processing apparatus according to any one of claims 1 to 3, wherein:

【0031】請求項12記載の発明は、前記特徴ベクト
ルの作成は、前記被写体領域を含む領域において、近傍
画素間の濃度変化量を用いて計算した特性値を特徴とし
て抽出する、ことを特徴とする請求項7乃至請求項10
のいずれかに記載の画像認識方法である。
According to a twelfth aspect of the present invention, the feature vector is created by extracting, as a feature, a characteristic value calculated using a density change amount between neighboring pixels in a region including the subject region. Claims 7 to 10
The image recognition method according to any one of the above.

【0032】これらの発明では、被写体領域を含む領域
において、近傍画素間の濃度変化量を用いて計算した特
性値を特徴として被写体領域を抽出するようにしてい
る。この結果、被写体の明確な特徴を抽出できるため、
放射線画像に対して、自動的に最適な階調処理条件を選
択し、煩雑な操作無しに診断に最適な画像を自動的に得
られるよう、撮影された被写体を正しく認識することが
可能になる。
According to these inventions, in a region including a subject region, the subject region is extracted by using the characteristic value calculated by using the density change amount between neighboring pixels. As a result, you can extract clear features of the subject,
It is possible to automatically select the optimal gradation processing condition for the radiation image and to correctly recognize the photographed subject so that an optimal image for diagnosis can be automatically obtained without complicated operation. .

【0033】(6)請求項6記載の発明は、前記特徴抽
出手段は、前記被写体領域を含む領域において、濃度分
布を解析した特性値を特徴として抽出する、ことを特徴
とする請求項1乃至請求項3のいずれかに記載の画像処
理装置である。
(6) The invention according to claim 6, wherein the feature extracting means extracts a characteristic value obtained by analyzing a density distribution as a feature in a region including the subject region. An image processing apparatus according to claim 3.

【0034】請求項13記載の発明は、前記特徴ベクト
ルの作成は、前記被写体領域を含む領域において、濃度
分布を解析した特性値を特徴として抽出する、ことを特
徴とする請求項7乃至請求項10のいずれかに記載の画
像認識方法である。
According to a thirteenth aspect of the present invention, the feature vector is created by extracting a characteristic value obtained by analyzing a density distribution as a feature in a region including the subject region. An image recognition method according to any one of Claims 10 to 10.

【0035】これらの発明では、被写体領域を含む領域
において、濃度分布を解析した特性値を特徴として被写
体領域を抽出するようにしている。この結果、被写体の
明確な特徴を抽出できるため、放射線画像に対して、自
動的に最適な階調処理条件を選択し、煩雑な操作無しに
診断に最適な画像を自動的に得られるよう、撮影された
被写体を正しく認識することが可能になる。
According to these inventions, in a region including the subject region, the subject region is extracted by using the characteristic value obtained by analyzing the density distribution as a feature. As a result, since a clear feature of the subject can be extracted, an optimal gradation processing condition is automatically selected for a radiation image, and an optimal image for diagnosis is automatically obtained without complicated operation. It is possible to correctly recognize the photographed subject.

【0036】(7)請求項7記載の発明は、前記相関度
計算手段は、前記被写体ベクトル中の特定要素を致命的
要素として設定し、該致命的要素について前記特徴ベク
トルの当該要素が所定の値を満たさない場合、前記被写
体ベクトルとの相関値が、最も低くなるようにした、こ
とを特徴とする請求項2に記載の画像処理装置である。
(7) In the invention according to claim 7, the correlation degree calculating means sets a specific element in the subject vector as a fatal element, and for the fatal element, the element of the feature vector is set to a predetermined value. The image processing apparatus according to claim 2, wherein a correlation value with the subject vector is set to be lowest when the value is not satisfied.

【0037】請求項14記載の発明は、前記相関度の計
算では、前記被写体ベクトル中の特定要素を致命的要素
として設定し、該致命的要素について前記特徴ベクトル
の当該要素が所定の値を満たさない場合、前記被写体ベ
クトルとの相関値が、最も低くなるようにする、ことを
特徴とする請求項9記載の画像認識方法である。
According to a fourteenth aspect of the present invention, in the calculation of the degree of correlation, a specific element in the subject vector is set as a fatal element, and the element of the feature vector satisfies a predetermined value for the fatal element. 10. The image recognition method according to claim 9, wherein a correlation value with the subject vector is set to be lowest when there is no object vector.

【0038】これらの発明では、被写体ベクトル中の特
定要素を致命的要素として設定し、該致命的要素につい
て前記特徴ベクトルの当該要素が所定の値を満たさない
場合、前記被写体ベクトルとの相関値が、最も低くなる
ようにして相関度の計算を行っている。
In these inventions, a specific element in the subject vector is set as a fatal element, and if the element of the feature vector does not satisfy a predetermined value for the fatal element, the correlation value with the subject vector is changed. , The degree of correlation is calculated to be the lowest.

【0039】この結果、放射線画像に対して、自動的に
最適な階調処理条件を選択し、煩雑な操作無しに診断に
最適な画像を自動的に得られるよう、撮影された被写体
をより正しく認識することが可能になる。
As a result, the optimum gradation processing conditions are automatically selected for the radiographic image, and the photographed subject is more correctly adjusted so that the optimum image for diagnosis can be automatically obtained without complicated operations. It becomes possible to recognize.

【0040】[0040]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態例を詳細に説明する。 <画像処理装置の構成>以下、画像処理装置の構成を大
まかなブロックに従って説明する。なお、本実施の形態
例の画像処理装置の各手段は、ハードウェアやファーム
ウェア、またはソフトウェアで構成することが可能であ
る。このため、各手段の処理手順に沿った機能ブロック
図を示す。
Embodiments of the present invention will be described below in detail with reference to the drawings. <Configuration of Image Processing Apparatus> Hereinafter, the configuration of the image processing apparatus will be described according to rough blocks. Each unit of the image processing apparatus according to the present embodiment can be configured by hardware, firmware, or software. For this reason, a functional block diagram according to the processing procedure of each means is shown.

【0041】(a)放射線画像入力手段:図1に示すよう
に、放射線画像入力手段10により、照射された放射線
量の対数に比例した信号値を有する画像が生成される。
(A) Radiation image input means: As shown in FIG. 1, the radiation image input means 10 generates an image having a signal value proportional to the logarithm of the irradiated radiation dose.

【0042】この放射線画像入力手段10としては、前
述したFPDやCCDなどのセンサ類を使用したもの
や、輝尽性蛍光体プレートを読み取って放射線画像を生
成する既知の装置を使用することができる。なお、いず
れの場合も放射線の照射量の対数に比例した信号値が得
られ、かつ照射量が多いほど、信号値が高くなる。
As the radiation image input means 10, a device using the above-mentioned sensors such as FPD and CCD, or a known device for reading a stimulable phosphor plate to generate a radiation image can be used. . In each case, a signal value proportional to the logarithm of the radiation dose is obtained, and the larger the dose, the higher the signal value.

【0043】(b)認識手段:認識手段30では、まず画
像入力手段10より送信されてきた放射線画像を解析す
る。これにより、認識を実行する。なお、この認識手段
30は、図2に示すように、被写体領域抽出手段31、
特徴抽出手段32、相関度計算手段33、相関結果比較
手段34,一時記憶手段35、被写体情報記憶手段36
を内蔵している。また、外付けで、被写体情報入力手段
80を備えて構成される。以下、それぞれについて説明
する。
(B) Recognizing means: The recognizing means 30 first analyzes the radiation image transmitted from the image input means 10. Thereby, recognition is performed. As shown in FIG. 2, the recognizing means 30 includes a subject area extracting means 31,
Feature extraction means 32, correlation degree calculation means 33, correlation result comparison means 34, temporary storage means 35, subject information storage means 36
Built-in. In addition, an externally provided subject information input means 80 is provided. Hereinafter, each will be described.

【0044】(b-1)被写体領域抽出手段:まず、被写体
領域抽出手段31で被写体領域が抽出される。そして、
抽出された被写体領域を表すラベル情報と間引き放射線
画像とを特徴抽出手段32に転送する。
(B-1) Subject area extracting means: First, a subject area is extracted by the subject area extracting means 31. And
The label information indicating the extracted subject area and the thinned-out radiation image are transferred to the feature extracting unit 32.

【0045】ここで、被写体が撮影されている領域は、
直接放射線が照射されている領域と比較して照射線量が
少ないため、相対的に信号値が低くなる。そこで周囲よ
りも信号値が低くなる領域を被写体領域として抽出す
る。
Here, the area where the subject is photographed is
Since the irradiation dose is smaller than that of the area directly irradiated with the radiation, the signal value is relatively lower. Therefore, an area where the signal value is lower than the surroundings is extracted as the subject area.

【0046】(b-1-1):ここで、被写体領域抽出手段3
1の詳細について説明する。この被写体領域抽出手段3
1は、以下の〜のような手順で被写体領域抽出を行
う。
(B-1-1): Here, subject area extracting means 3
1 will be described in detail. This subject area extracting means 3
1 extracts a subject area in the following procedure.

【0047】図2(a)に示すように、放射線画像ま
たは縮小放射線画像について、水平および垂直方向に走
査する。この図2(a)において、水平方向破線および
垂直方向の一点鎖線が走査の結果(走査線)の様子を模
式的に示している。
As shown in FIG. 2A, the radiation image or the reduced radiation image is scanned in the horizontal and vertical directions. In FIG. 2A, a broken line in the horizontal direction and a dashed line in the vertical direction schematically show the results of scanning (scanning lines).

【0048】水平方向の走査線の場合、放射線画像の
左端から順に、任意の画素について、右側の近傍画素と
の微分値S1を求める。S1が正の値の第1しきい値T
h1よりも大きければ、被写体領域の境界点BLとして
検出する。
In the case of a horizontal scanning line, a derivative value S1 of an arbitrary pixel with respect to the right neighboring pixel is obtained in order from the left end of the radiation image. S1 is a positive first threshold value T
If it is larger than h1, it is detected as the boundary point BL of the subject area.

【0049】また、S1がTh1よりも小さい場合、
被写体領域の境界点ではないとして、1画素または複数
画素右側に隣接した画素へ移動し、同様の手順を行う。 以上の〜を繰り返し、BLが見つかるか、所定の
条件を満たすまで繰り返す。ここで、所定の条件とは、
例えば、走査距離で決定し、走査距離が走査線の長さの
3/4を超えると、BLが見つからなくても走査を終了する
といった条件である。このように終了した場合BLは走
査線上の左端に設定する。
When S1 is smaller than Th1,
Assuming that the pixel is not the boundary point of the subject area, the pixel is moved to a pixel adjacent to the right side by one or more pixels, and the same procedure is performed. The above steps are repeated until BL is found or a predetermined condition is satisfied. Here, the predetermined condition is
For example, the scanning distance is determined, and the scanning distance is the length of the scanning line.
If it exceeds 3/4, scanning is terminated even if BL is not found. When the processing is completed as described above, BL is set at the left end on the scanning line.

【0050】次に、画像の右端から順に、上記と逆方
向へ水平方向の走査を行う。今度は任意の画素につい
て、その左側に存在する近傍画素との微分値S2を求
め、S2が前記第1しきい値Th1の逆符号の第2しき
い値Th2よりも小さければ、被写体境界点BRとして
検出する。
Next, horizontal scanning is performed in the reverse direction to the above in order from the right end of the image. This time, a derivative value S2 of an arbitrary pixel with respect to a neighboring pixel existing on the left side thereof is obtained. If S2 is smaller than a second threshold value Th2 having a sign opposite to the first threshold value Th1, the subject boundary point BR Detected as

【0051】以上のと同様にBRが見つかるか、所
定の条件を満たすまで繰り返す。BRが見つからない場
合、走査線上の右端にBRを設定する。 もし、BRの方が、BLよりも左側に存在する場合、B
LとBRを入れ替える。
In the same manner as described above, the process is repeated until BR is found or a predetermined condition is satisfied. If BR is not found, BR is set at the right end on the scanning line. If BR is to the left of BL, B
Swap L and BR.

【0052】垂直方向の走査線についても、以上の
〜と同様の手順で、被写体上端の境界点Bt,下端の境
界点Bbを求める。 隣接する走査線上にあるBR,BLをそれぞれ連結し、
できた線分に挟まれた領域を被写体領域として抽出す
る。また同様にBt,Bbをそれぞれ連結し、できた線分
に挟まれた領域を被写体領域として抽出する(図2
(b)参照)なお、以上の〜の説明において、走査
線の方向については、放射状としてもよい。また、微分
値は1次でも2次でもよい。
For the vertical scanning line, the boundary point Bt at the upper end of the subject and the boundary point Bb at the lower end are obtained in the same procedure as above. BR and BL on adjacent scanning lines are respectively connected,
A region sandwiched between the formed line segments is extracted as a subject region. Similarly, Bt and Bb are connected to each other, and a region sandwiched between the formed line segments is extracted as a subject region (FIG. 2).
(See (b).) In the above description, the direction of the scanning line may be radial. Further, the differential value may be primary or secondary.

【0053】(b-1-2):ここで、被写体領域抽出手段3
1の詳細について、第2の例を説明する。この被写体領
域抽出手段31では、以下の〜のような手順で被写
体領域抽出を行う。
(B-1-2): Here, subject area extracting means 3
A second example will be described in detail with respect to 1. The subject region extracting means 31 extracts a subject region in the following procedure.

【0054】まず、図3(a)に示すように、放射線
画像を複数の小領域に分割する。 各小領域内毎に、該小領域に含まれる画素信号値の平
均信号値を第1しきい値Th1としてそれぞれ求める。
First, as shown in FIG. 3A, the radiation image is divided into a plurality of small areas. For each small area, an average signal value of the pixel signal values included in the small area is obtained as a first threshold Th1.

【0055】各小領域毎に、第1しきい値Th1より
信号値の低い画素を被写体領域として検出する(図3
(b))。 以上ので各小領域で得られた被写体領域に関し、そ
れぞれの被写体領域の平均信号値を求め、第2しきい値
Th2とする。
For each small area, a pixel having a signal value lower than the first threshold value Th1 is detected as a subject area (FIG. 3).
(B)). As described above, with respect to the subject area obtained in each of the small areas, the average signal value of each subject area is obtained and set as the second threshold value Th2.

【0056】画像全体で、第2しきい値Th2よりも
信号値の低い画素を被写体領域として検出する(図3
(c)参照)。 照射野外領域を、検出された被写体領域から除くため
に、照射野外領域の境界線を求め、その境界線と、近い
方の画像端までの間を、照射野外領域として取り除く
(図3(d))。
In the whole image, a pixel having a signal value lower than the second threshold value Th2 is detected as a subject area (FIG. 3).
(C)). In order to remove the out-of-irradiation area from the detected subject area, a boundary line of the out-of-irradiation area is obtained, and the area between the boundary line and the closer image end is removed as the out-of-irradiation area (FIG. 3D). ).

【0057】照射野外領域の境界線は次のように求め
る。まず、被写体領域の境界に位置する画素を境界点と
して検出する。そして、同方向の境界点が多数並ぶ直線
を境界候補線として検出する。境界候補線は、任意の2
点の境界点から直線の方程式を計算し、その直線上に存
在する境界点の個数が、所定のしきい値Th3以上なら
検出する。そして、境界候補線から画像端までの間が、
ほぼ被写体領域となっている場合、その境界候補線は、
照射野外領域境界線として、画像端までの間の被写体領
域を、照射野外領域として取り除く(図3(c))。
The boundary line of the irradiation field area is obtained as follows. First, a pixel located at the boundary of the subject area is detected as a boundary point. Then, a straight line having a large number of boundary points in the same direction is detected as a boundary candidate line. The boundary candidate line is an arbitrary 2
A straight line equation is calculated from the boundary points of the points, and if the number of boundary points existing on the straight line is equal to or greater than a predetermined threshold value Th3, detection is performed. Then, between the boundary candidate line and the end of the image,
If it is almost the subject area, the boundary candidate line is
The subject region up to the end of the image is removed as the outside field of the irradiation field as the outside field boundary line (FIG. 3C).

【0058】なお、上記のような方法の他にも、画素信
号値のヒストグラムの形状から、放射線が直接照射され
た領域や、照射野外領域に相当する信号値を見つけ、そ
れらの信号値に相当する領域を除外した残りの領域を被
写体領域とする方法等がある。
In addition to the above-described method, a signal value corresponding to an area directly irradiated with radiation or an area outside the irradiation field is found from the shape of the histogram of pixel signal values, and the signal values corresponding to those signal values are found. There is a method of setting the remaining area excluding the area to be used as the subject area.

【0059】また、以上の被写体領域の抽出は、(b-1-
1)と(b-1-2)とのどちらか一方で行ってもよいし、両方
の結果を用いて、正しいと思われる方を選択したり、領
域を補正してもよい。
The above-described extraction of the subject area is performed by (b-1-
Either one of 1) and (b-1-2) may be performed, or the result may be used to select the correct one or to correct the area.

【0060】(b-2)特徴抽出手段:特徴抽出手段32で
は、主に被写体領域から、複数の特徴を抽出し、それぞ
れを特徴ベクトルPの要素Cj(j=1,2,..,m)とする。
(B-2) Feature Extraction Means: The feature extraction means 32 extracts a plurality of features mainly from the subject area, and respectively extracts the elements Cj (j = 1, 2,..., M) of the feature vector P. ).

【0061】抽出する特徴としては、被写体領域の大き
さ、形状、濃度ヒストグラムの形状(濃度分布)、被写
体領域の中心線の形状、各方向毎の1次微分値の分布
や、同強度の1次および2次微分値の分布等がある。各
要素の値は、予め決められた条件に基づき、数値(特性
値)として記憶される。例えば、被写体の形状が、前腕
骨や大腿骨のように略矩形であると判断されれば、'1'
という値とし、頭部のように略円形なら'2'、という具
合である。これにより、被写体の明確な特徴を抽出でき
るようになる。
The features to be extracted include the size and shape of the subject area, the shape of the density histogram (density distribution), the shape of the center line of the subject area, the distribution of the primary differential value in each direction, and the 1 There are distributions of secondary and secondary differential values, and the like. The value of each element is stored as a numerical value (characteristic value) based on a predetermined condition. For example, if it is determined that the shape of the subject is substantially rectangular like a forearm bone or a femur, '1'
The value is "2" for a substantially circular shape such as the head. As a result, a clear feature of the subject can be extracted.

【0062】(b-3)相関度計算手段:前記特徴抽出手段
32で抽出された特徴ベクトルPについて、被写体の部
位および撮影方向による特徴を記述した被写体ベクトル
Si(i=1,2,...,n)との相関を計算する。なお、この被写
体ベクトルSiは被写体情報記憶手段36に記憶されて
いる。
(B-3) Correlation calculation means: for the feature vector P extracted by the feature extraction means 32, a subject vector Si (i = 1, 2,. , n) is calculated. The subject vector Si is stored in the subject information storage means 36.

【0063】相関演算(相関度計算)では、PとSiの
対応する各要素について比較を行い、異なる値なら'
0'、同じ値なら、'0'以外の値を返し、各対応要素間の
比較によって得られた相関値の総和Tiを計算する。こ
の総和Tiが最も大きくなるベクトルSiが表す部位およ
び撮影方向として、被写体の部位および撮影方向が認識
される。
In the correlation operation (correlation degree calculation), the respective elements corresponding to P and Si are compared with each other.
If it is the same value as 0, a value other than '0' is returned, and the sum Ti of the correlation values obtained by comparing the corresponding elements is calculated. The part of the subject and the photographing direction are recognized as the part and the photographing direction represented by the vector Si in which the total sum Ti becomes the largest.

【0064】なお、外部の入力手段である被写体情報入
力手段80から被写体情報記憶手段36を介して、相関
演算(相関度計算)の際に、被写体ベクトルの追加、削
除、または変更を行う、ことが可能である。このように
被写体ベクトルの追加・削除・変更を行うことで、被写
体の部位および撮影方向を判別・認識することが容易に
なり、撮影された被写体を正しく認識することが可能に
なる。また、撮影部位等が増えた場合にも簡単に対応す
ることができる。
It should be noted that addition, deletion, or change of a subject vector is performed at the time of a correlation operation (calculation of the degree of correlation) from the subject information input means 80, which is an external input means, via the subject information storage means 36. Is possible. By adding / deleting / changing the subject vector in this manner, it is easy to determine and recognize the part of the subject and the photographing direction, and it is possible to correctly recognize the photographed subject. In addition, it is possible to easily cope with an increase in the number of imaging parts and the like.

【0065】この相関演算(相関度計算)において、各
対応要素間の比較によって得られる値は、全て均等な重
み付けがされていてもよいが、それぞれの要素によって
重み付けを変えた方が望ましい。例えば、指のように非
常に小さい部位を撮影した場合、他に同様のサイズの被
写体はほとんど存在しないため、被写体の大きさだけで
部位が特定できる。そこで、特徴ベクトルの要素に、
“被写体のサイズ”を含んでおけば、この要素の被写体
ベクトルとの比較結果だけが非常に大きな比重を占める
よう、他の要素の比較結果よりも大きな値を返すこと
で、より正確に認識することが可能になる。
In this correlation operation (correlation degree calculation), all the values obtained by the comparison between the corresponding elements may be equally weighted, but it is preferable to change the weights according to the respective elements. For example, when a very small part such as a finger is photographed, there is almost no other subject of the same size, so that the part can be specified only by the size of the subject. Therefore, the elements of the feature vector
If the "subject size" is included, more accurate recognition is possible by returning a larger value than the comparison result of other elements so that only the comparison result of this element with the subject vector occupies a very large specific gravity. It becomes possible.

【0066】また、特徴ベクトル、被写体ベクトルを、
2次元に拡張し、より柔軟な相関を行うことも可能であ
る。この場合、前記特徴ベクトルPの各要素Cj(j=1,
2,..,m)は、とり得る値の範囲の要素数を持つベクトル
とする。例えば、ある要素CLについて、値の取り得る
範囲が{0,1,2,3}で有れば、CLを4個の要素を持つベク
トルとする。そしてCLの値が'2'で有れば、CL={0,0,
1,0}というベクトルとして表す。
The feature vector and the subject vector are
It is possible to extend to two dimensions and perform more flexible correlation. In this case, each element Cj (j = 1,
2, .., m) is a vector having the number of elements in the range of possible values. For example, if the possible value range of a certain element CL is {0, 1, 2, 3}, let CL be a vector having four elements. If the value of CL is '2', then CL = {0,0,
1,0}.

【0067】他の要素についても同様に、値をベクトル
で表す。また、被写体ベクトルSiでは、Cjに対応する
各要素Vj(j=1,2,..,m)について、Cjが取り得る値に対
して、個々に相関値を記述した相関値テーブルとして記
述する。例えば、先程のCLに対し、対応する要素VLは
{a,b,c,d}という値を有するベクトルとする。そして、t
CL・VLを計算することにより、CLに対する相関値を
得る。このCLが{0,0,1,0}なら、この要素における相関
値は'c'として得られる。またCLが{1,0,0,0}なら相関
値は'a'となる。このように、CLが特定の値以外でも'
0'以外の値を得ることができ、より柔軟な相関結果が得
られる。
Similarly, the values of other elements are represented by vectors. In the object vector Si, each element Vj (j = 1, 2,..., M) corresponding to Cj is described as a correlation value table in which correlation values are individually described for possible values of Cj. . For example, for the previous CL, the corresponding element VL is
Let it be a vector having the value {a, b, c, d}. And t
By calculating CL · VL, a correlation value for CL is obtained. If this CL is {0,0,1,0}, the correlation value in this element is obtained as 'c'. If CL is {1,0,0,0}, the correlation value is 'a'. Thus, even if CL is not a specific value,
Values other than 0 'can be obtained, and more flexible correlation results can be obtained.

【0068】さらに、被写体ベクトル毎に相関結果を指
定できるため、特定要素に対する相関結果の値を大きく
することで、どの要素に重点を置くかについて、きめ細
かく設定することができる。例えば、前記のように被写
体が“指”であるかどうか判別する場合には、“被写体
のサイズ”が有効な判別要素となるため、この要素に対
する相関結果を大きくし、他の要素よりも大きな影響を
及ぼすようにできる。
Further, since the correlation result can be specified for each subject vector, by increasing the value of the correlation result for a specific element, it is possible to finely set which element is to be emphasized. For example, when determining whether or not the subject is a “finger” as described above, “subject size” is an effective determination factor. Therefore, the correlation result with respect to this factor is increased to be larger than other factors. Can influence.

【0069】また、“頭部”に対しては、“被写体の外
形”が略円形になるという特徴でほぼ判別できるため、
“被写体の外形”に相当する要素での相関結果が大きく
なるよう、被写体ベクトルを設定することでより正確に
認識することが可能になる。上記のように、被写体ベク
トル毎に各要素に対する重み付けを変更することで、よ
り正確な認識を行うことができる。
Since the “head” can be almost distinguished by the feature that the “outer shape of the subject” is substantially circular,
By setting the subject vector so that the correlation result in the element corresponding to the “outer shape of the subject” increases, it becomes possible to more accurately recognize. As described above, by changing the weight for each element for each subject vector, more accurate recognition can be performed.

【0070】また、このように2次元に拡張すると、特
徴ベクトルのある要素が特定の値を持った場合、ある被
写体ベクトルに対し、その相関値が非常に小さな値とな
り、当該部位としては絶対に認識されないようにするパ
ラメータ(以下、「致命的パラメータ」と呼ぶ)を容易
に設定できる。
When the feature vector is extended two-dimensionally as described above, if a certain element of the feature vector has a specific value, the correlation value of the certain object vector becomes very small with respect to a certain subject vector. Parameters that are not recognized (hereinafter, referred to as “fatal parameters”) can be easily set.

【0071】例えば、最終的な相関値の総和Tiを、各
要素間の相関値の総和ではなく、積として与えることと
し、“被写体のサイズ”をベクトルの要素CLとして加
えるとする。“被写体のサイズ”CLは、例えばサイズ'
小'を表す{1,0}、サイズ'大'を表す{0,1}のどちらかを
とるとする。このとき、被写体の部位として“胸部”を
考えると、“胸部”は画像ほぼ全域に被写体が写るの
で、“被写体のサイズ”は'大'である。逆に、“指”等
と異なり、サイズが'小'となることはありえない。そこ
で、“胸部”を表す被写体ベクトルにおいて、“被写体
のサイズ”に相当する要素VLについて、{0,a}という値
を与えておく。こうすると、ある撮影部位に対する特徴
ベクトルがCL={1,0}(“被写体のサイズ”は'小')と
なれば、この要素についての相関結果は'0'となり、他
の要素の相関結果に関わらず、Ti=0となるため、この
撮影部位が“胸部”と判定されることはない。このよう
にして致命的パラメータを設けることにより、認識精度
を向上させることができる。
For example, it is assumed that the final sum Ti of the correlation values is given as a product instead of the sum of the correlation values between the elements, and "subject size" is added as a vector element CL. “Subject size” CL is, for example,
It is assumed that either {1,0} representing small or {0,1} representing large is taken. At this time, when the “chest” is considered as the part of the subject, the “chest” captures the subject in almost the entire area of the image, so the “subject size” is “large”. Conversely, unlike “fingers” and the like, the size cannot be “small”. Therefore, in the subject vector representing “chest”, a value of {0, a} is given to an element VL corresponding to “subject size”. In this way, if the feature vector for a certain imaging region is CL = {1,0} (“subject size” is “small”), the correlation result for this element is “0”, and the correlation result for other elements is Irrespective of this, Ti = 0, so that this imaging region is not determined to be "chest". By providing a fatal parameter in this way, recognition accuracy can be improved.

【0072】(c)被写体認識以降(画像処理条件の選定
および画像処理):認識手段30によって得られた認識
結果に基づき、画像処理条件選定手段40は、画像処理
条件を記憶した記憶手段から最適な画像処理条件を読み
出す。そして、読み出された画像処理条件は、画像処理
手段60に送られる。画像処理手段60では放射線画像
入力手段10から送られてきた原画像である放射線画像
と、この画像処理条件とを用いて画像処理を行い、最終
的な出力画像を得る。この画像処理手段60では、階調
変換やエッジ強調、イコライゼーション処理、およびそ
れらを組み合わせたものが実施される。
(C) After the object recognition (selection of image processing conditions and image processing): Based on the recognition result obtained by the recognition means 30, the image processing condition selection means 40 Read out the appropriate image processing conditions. Then, the read image processing conditions are sent to the image processing means 60. The image processing means 60 performs image processing using the radiation image as the original image sent from the radiation image input means 10 and the image processing conditions to obtain a final output image. The image processing means 60 performs tone conversion, edge enhancement, equalization processing, and a combination thereof.

【0073】この場合画像処理条件は、単に入力信号値
に対する出力信号値を記述したルックアップテーブル
(LUT)やエッジ強調度等、直接的に画像を変換する
ためのパラメータだけを指すものではない。すなわち、
特開平5−7578号公報等に示されるような、医師が
読影するポイントに関心領域(ROI)を設定し、該R
OI内の画像情報を解析することで、より診断に適した
階調変換が実行されるような処理を、撮影部位によって
最適な結果が得られるようにして複数準備しておき、そ
れらの処理のうち、どれを使用するかを決定する間接的
なパラメータをも含むものとする。
In this case, the image processing condition does not simply indicate a parameter for directly converting an image, such as a look-up table (LUT) describing an output signal value with respect to an input signal value or an edge enhancement degree. That is,
A region of interest (ROI) is set at a point to be interpreted by a doctor as shown in Japanese Patent Application Laid-Open No.
By analyzing the image information in the OI, a plurality of processes for performing tone conversion more suitable for diagnosis are prepared so as to obtain an optimum result depending on an imaging part, and a plurality of processes are prepared. Of these, indirect parameters that determine which one to use are also included.

【0074】(d)その他の実施の形態例 また、以上の入力される放射線画像は、できるだけ画素
数が少ない方が各種処理の計算時間が短縮されて望まし
い。しかし、本実施の形態例においては、被写体の特徴
が判別できる程の情報量を備えている必要がある。この
ため、人体各部について等倍の放射線画像が得られてい
る場合は、1mm平方から5mm平方程度の画素サイズとする
ことが望ましい。
(D) Other Embodiments It is desirable that the input radiographic image has as few pixels as possible to reduce the calculation time of various processes. However, in the present embodiment, it is necessary to provide a sufficient amount of information to determine the characteristics of the subject. For this reason, when a 1: 1 radiographic image is obtained for each part of the human body, it is desirable to set the pixel size to about 1 mm square to 5 mm square.

【0075】また、画像入力手段で画素数を制限するの
ではなく、入力された後に同様の間引きを行うようにし
てもよい。本実施例は、被写体の撮影部位や撮影方向を
認識する場合について示したが、他にコンピュータ支援
診断(CAD)等に用いてもよい。CADは、診断用の
画像を解析して異常陰影を検出し、その検出結果を表示
することにより、画像診断を行う医師を支援するもので
ある。
Instead of limiting the number of pixels by the image input means, similar thinning may be performed after the input. In this embodiment, the case of recognizing the imaging region and the imaging direction of the subject has been described. However, the present invention may be used for computer-aided diagnosis (CAD) or the like. CAD analyzes a diagnostic image to detect an abnormal shadow and displays the detection result to assist a doctor who performs image diagnosis.

【0076】CADに上記手法を利用する場合、認識す
る被写体は異常陰影、もしくは異常陰影と思われる異常
陰影候補であり、被写体領域抽出によってまず異常陰影
候補の領域が検出され、この領域から被写体の特徴を抽
出する。そして検出対象の異常陰影の特徴や、誤って検
出されそうな正常陰影の特徴をそれぞれ被写体ベクトル
として準備しておき、それら被写体ベクトルとの相関を
行うことにより、異常陰影を認識する。特に異常陰影の
検出の場合、検出対象となる被写体は複数の場合もあ
る。このような場合、検出された各々の被写体に対し、
上記のような処理を行えばよい。
When the above method is used for CAD, the object to be recognized is an abnormal shadow or an abnormal shadow candidate which seems to be an abnormal shadow, and an area of the abnormal shadow candidate is first detected by subject area extraction. Extract features. Then, the feature of the abnormal shadow to be detected and the feature of the normal shadow that is likely to be erroneously detected are prepared as subject vectors, and the abnormal shadow is recognized by performing correlation with the subject vectors. In particular, in the case of detecting an abnormal shadow, there may be a plurality of objects to be detected. In such a case, for each detected subject,
The above processing may be performed.

【0077】なお、以上の実施の形態例で説明した特徴
情報の抽出による判別について、階層的クラスタリング
と呼ばれる手法を採用することも可能である。また、以
上の説明では濃度が高い場合に信号値が高い場合を想定
して説明を行ってきたが、濃度が高い場合に信号値が低
くなるような場合であっても同様の処理により同様の効
果を得ることができる。
It should be noted that a method called hierarchical clustering can be adopted for the determination by extracting the characteristic information described in the above embodiment. In the above description, the description has been made on the assumption that the signal value is high when the density is high. However, even when the signal value is low when the density is high, the same processing is performed by the same processing. The effect can be obtained.

【0078】[0078]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、放射線画像に対して自動的に最適な階調処理条
件を選択し、煩雑な操作無しに診断に最適な画像を自動
的に得られるよう、撮影された被写体を正しく認識する
ことが可能になる。
As described above in detail, according to the present invention, the optimum gradation processing condition is automatically selected for a radiation image, and the optimum image for diagnosis is automatically obtained without complicated operation. As a result, it is possible to correctly recognize the photographed subject.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態例の画像処理装置の構成を
示す機能ブロック図である。
FIG. 1 is a functional block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】本発明の実施の形態例における被写体領域の抽
出の様子を示す説明図である。
FIG. 2 is an explanatory diagram showing a state of extracting a subject region in the embodiment of the present invention.

【図3】本発明の実施の形態例における被写体領域の抽
出の他の例による様子を示す説明図である。
FIG. 3 is an explanatory diagram showing a state of another example of extraction of a subject area in the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10 放射線画像入力手段 30 認識手段 31 被写体領域抽出手段 32 特徴抽出手段 33 相関度計算手段 34 相関結果比較手段 35 一次記憶手段 36 被写体情報記憶手段 40 画像処理条件選定手段 50 画像処理条件記憶手段 60 画像処理手段 80 被写体情報入力手段 DESCRIPTION OF SYMBOLS 10 Radiation image input means 30 Recognition means 31 Subject area extraction means 32 Feature extraction means 33 Correlation degree calculation means 34 Correlation result comparison means 35 Primary storage means 36 Subject information storage means 40 Image processing condition selection means 50 Image processing condition storage means 60 Image Processing means 80 Subject information input means

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 4C093 AA05 CA17 CA23 FD09 FD12 FF08 FF16 FF19 FF20 FF28 FF33 5B057 AA08 DA08 DB02 DB09 DC23 DC34 DC39 5L096 AA06 BA06 BA13 EA35 EA39 FA34 FA37 FA79 GA07 HA08 JA11 KA03  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 4C093 AA05 CA17 CA23 FD09 FD12 FF08 FF16 FF19 FF20 FF28 FF33 5B057 AA08 DA08 DB02 DB09 DC23 DC34 DC39 5L096 AA06 BA06 BA13 EA35 EA39 FA34 FA37 FA79 GA03 HA08 JA11 KA03

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 画像に含まれる被写体を認識する画像認
識方法/画像処理装置であって、 入力される画像について被写体が撮影されている領域を
抽出する被写体領域抽出手段と、 該被写体領域抽出手段によって抽出された被写体領域か
ら、被写体の複数の特徴を抽出し、該特徴を各要素とし
て有する特徴ベクトルを作成する特徴抽出手段と、 複数の異なる被写体に関するそれぞれの特徴を表す被写
体ベクトルを予め記憶しておく被写体情報記憶手段と、 前記特徴抽出手段によって得られた前記特徴ベクトル
と、前記被写体情報記憶手段に記憶された前記被写体ベ
クトルとで相関度を計算する相関度計算手段と、を有
し、 前記相関度計算手段によって最も相関度が高いと判断さ
れた被写体ベクトルと同じ被写体として、撮影されてい
る被写体を認識する、ことを特徴とする画像処理装置。
1. An image recognition method / image processing apparatus for recognizing a subject included in an image, comprising: a subject region extracting unit for extracting a region where a subject is photographed in an input image; A feature extraction unit that extracts a plurality of features of the subject from the subject region extracted by the above and creates a feature vector having the features as respective elements, and a subject vector representing each feature of a plurality of different subjects in advance. Subject information storage means, and the feature vector obtained by the feature extraction means, and a correlation degree calculation means for calculating a degree of correlation with the subject vector stored in the subject information storage means, The subject being photographed as the same subject as the subject vector determined to have the highest correlation by the correlation calculation means. Recognizing an image processing apparatus characterized by.
【請求項2】 画像に含まれる被写体を認識する画像認
識方法/画像処理装置であって、 入力される画像について被写体が撮影されている領域を
抽出する被写体領域抽出手段と、 該被写体領域抽出手段によって抽出された被写体領域か
ら、被写体の複数の特徴を抽出し、該特徴を各要素とし
て有する特徴ベクトルを作成する特徴抽出手段と、 複数の異なる被写体に関するそれぞれの特徴を表すと共
に前記特徴ベクトルと同じ尺度の要素を有する被写体ベ
クトルを予め記憶しておく被写体情報記憶手段と、 前記特徴抽出手段によって得られた前記特徴ベクトル
と、前記被写体情報記憶手段に記憶された前記被写体ベ
クトルとで相関度を計算する相関度計算手段と、を有
し、 前記被写体ベクトルは、前記各要素について被写体毎に
異なる重み付けがなされていると共に、 前記相関度計算手段では、対応する各要素間の関連度
と、前記各要素の重み付けに依存して相関度が求めら
れ、最も相関度が高いと判断された被写体ベクトルと同
じ被写体として撮影されている被写体を認識する、こと
を特徴とする画像処理装置。
2. An image recognition method / image processing apparatus for recognizing a subject included in an image, comprising: a subject area extracting means for extracting an area where a subject is photographed in an input image; Extracting a plurality of features of the subject from the subject region extracted by the above, and creating a feature vector having the features as respective elements; and a feature extracting unit that represents the features of a plurality of different subjects and is the same as the feature vector. A subject information storage unit that stores a subject vector having a scale element in advance; a correlation degree is calculated between the feature vector obtained by the feature extraction unit and the subject vector stored in the subject information storage unit The subject vector is weighted differently for each subject for each of the elements. The correlation degree calculation means calculates the degree of correlation between the corresponding elements and the degree of correlation depending on the weighting of each element, and the object vector determined to have the highest degree of correlation. An image processing apparatus for recognizing a subject photographed as the same subject.
【請求項3】 前記被写体情報記憶手段に対し、外部か
ら被写体ベクトルの追加、削除、または変更を行うため
の被写体情報入力手段を有する、ことを特徴とする請求
項1または請求項2のいずれかに記載の画像処理装置。
3. The apparatus according to claim 1, further comprising: a subject information input unit for externally adding, deleting, or changing a subject vector to the subject information storage unit. An image processing apparatus according to claim 1.
【請求項4】 前記特徴抽出手段は、前記被写体領域の
形状を特徴として抽出する、ことを特徴とする請求項1
乃至請求項3のいずれかに記載の画像処理装置。
4. The apparatus according to claim 1, wherein the feature extracting unit extracts a shape of the subject area as a feature.
An image processing apparatus according to claim 3.
【請求項5】 前記特徴抽出手段は、前記被写体領域を
含む領域において、近傍画素間の濃度変化量を用いて計
算した特性値を特徴として抽出する、ことを特徴とする
請求項1乃至請求項3のいずれかに記載の画像処理装
置。
5. The apparatus according to claim 1, wherein the characteristic extracting unit extracts, as a characteristic, a characteristic value calculated using a density change amount between neighboring pixels in a region including the subject region. 3. The image processing device according to any one of 3.
【請求項6】 前記特徴抽出手段は、前記被写体領域を
含む領域において、濃度分布を解析した特性値を特徴と
して抽出する、ことを特徴とする請求項1乃至請求項3
のいずれかに記載の画像処理装置。
6. The apparatus according to claim 1, wherein the feature extracting unit extracts, as a feature, a characteristic value obtained by analyzing a density distribution in a region including the subject region.
The image processing device according to any one of the above.
【請求項7】 前記相関度計算手段は、前記被写体ベク
トル中の特定要素を致命的要素として設定し、該致命的
要素について前記特徴ベクトルの当該要素が所定の値を
満たさない場合、前記被写体ベクトルとの相関値が、最
も低くなるようにした、ことを特徴とする請求項2に記
載の画像処理装置。
7. The correlation calculating means sets a specific element in the subject vector as a fatal element, and when the element of the feature vector does not satisfy a predetermined value for the fatal element, the subject vector 3. The image processing apparatus according to claim 2, wherein a correlation value between the first and second values is set to be lowest.
【請求項8】 画像に含まれる被写体を認識する画像認
識方法であって、 入力される画像について被写体が撮影されている領域を
抽出し、 抽出された被写体領域から、被写体の複数の特徴を抽出
し、該特徴を各要素として有する特徴ベクトルを作成
し、 複数の異なる被写体に関するそれぞれの特徴を表す被写
体ベクトルを予め記憶した中から読み出し、 前記特徴ベクトルと前記被写体ベクトルとで相関度を計
算し、 前記相関度計算によって最も相関度が高いと判断された
被写体ベクトルと同じ被写体として、撮影されている被
写体を認識する、ことを特徴とする被写体認識方法。
8. An image recognition method for recognizing a subject included in an image, extracting an area where the subject is photographed from an input image, and extracting a plurality of features of the subject from the extracted subject area. Then, a feature vector having the feature as each element is created, and a subject vector representing each feature relating to a plurality of different subjects is read out from prestored, and a correlation degree is calculated between the feature vector and the subject vector, A subject recognition method, wherein a subject being photographed is recognized as the same subject as the subject vector determined to have the highest correlation by the correlation calculation.
【請求項9】 画像に含まれる被写体を認識する画像認
識方法であって、 入力される画像について被写体が撮影されている領域を
抽出し、 抽出された被写体領域から、被写体の複数の特徴を抽出
し、該特徴を各要素として有する特徴ベクトルを作成
し、 複数の異なる被写体に関するそれぞれの特徴を表すもの
であり、前記各要素について被写体毎に異なる重み付け
がなされている被写体ベクトルを、予め記憶した中から
読み出し、 前記特徴ベクトルと前記被写体ベクトルとで相関度を計
算し、 前記相関度計算では、対応する各要素間の関連度と、前
記各要素の重み付けに依存して相関度を求め、最も相関
度が高いと判断された被写体ベクトルと同じ被写体とし
て撮影されている被写体を認識する、ことを特徴とする
被写体認識方法。
9. An image recognition method for recognizing a subject included in an image, extracting an area where the subject is photographed from an input image, and extracting a plurality of features of the subject from the extracted subject area. Then, a feature vector having the feature as each element is created, and represents a feature of each of a plurality of different subjects. A subject vector in which each element is differently weighted for each subject is stored in advance. And calculating the degree of correlation between the feature vector and the subject vector. In the degree of correlation calculation, the degree of relevance between the corresponding elements and the degree of correlation are determined depending on the weights of the elements. A subject recognition method comprising recognizing a subject photographed as the same subject as a subject vector determined to have a high degree.
【請求項10】 前記被写体ベクトルを記憶する手段に
対し、外部の入力手段から被写体ベクトルの追加、削
除、または変更を行う、ことを特徴とする請求項8また
は請求項9のいずれかに記載の画像認識方法。
10. The method according to claim 8, wherein an addition, deletion, or change of a subject vector is performed from an external input unit to the means for storing the subject vector. Image recognition method.
【請求項11】 前記特徴ベクトルの作成は、前記被写
体領域の形状を特徴として抽出する、ことを特徴とする
請求項7乃至請求項10のいずれかに記載の画像認識方
法。
11. The image recognition method according to claim 7, wherein the feature vector is created by extracting a shape of the subject area as a feature.
【請求項12】 前記特徴ベクトルの作成は、前記被写
体領域を含む領域において、近傍画素間の濃度変化量を
用いて計算した特性値を特徴として抽出する、ことを特
徴とする請求項7乃至請求項10のいずれかに記載の画
像認識方法。
12. The method according to claim 7, wherein the feature vector is created by extracting, as a feature, a characteristic value calculated using a density change amount between neighboring pixels in a region including the subject region. Item 11. The image recognition method according to any one of Items 10.
【請求項13】 前記特徴ベクトルの作成は、前記被写
体領域を含む領域において、濃度分布を解析した特性値
を特徴として抽出する、ことを特徴とする請求項7乃至
請求項10のいずれかに記載の画像認識方法。
13. The method according to claim 7, wherein the feature vector is created by extracting a characteristic value obtained by analyzing a density distribution as a feature in a region including the subject region. Image recognition method.
【請求項14】 前記相関度の計算では、前記被写体ベ
クトル中の特定要素を致命的要素として設定し、該致命
的要素について前記特徴ベクトルの当該要素が所定の値
を満たさない場合、前記被写体ベクトルとの相関値が、
最も低くなるようにする、ことを特徴とする請求項9記
載の画像認識方法。
14. In the calculation of the degree of correlation, a specific element in the subject vector is set as a fatal element, and when the element of the feature vector does not satisfy a predetermined value for the fatal element, the subject vector The correlation value with
10. The image recognition method according to claim 9, wherein the lowest is set.
JP24631099A 1999-08-31 1999-08-31 Image recognizing method and image processor Pending JP2001076141A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24631099A JP2001076141A (en) 1999-08-31 1999-08-31 Image recognizing method and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24631099A JP2001076141A (en) 1999-08-31 1999-08-31 Image recognizing method and image processor

Publications (1)

Publication Number Publication Date
JP2001076141A true JP2001076141A (en) 2001-03-23

Family

ID=17146662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24631099A Pending JP2001076141A (en) 1999-08-31 1999-08-31 Image recognizing method and image processor

Country Status (1)

Country Link
JP (1) JP2001076141A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004104998A1 (en) * 2003-05-20 2004-12-02 Lg Electronics Inc. Recording medium and apparatus/method for forming, recording and reproducing the recording medium
JP2006520972A (en) * 2003-02-28 2006-09-14 ピクトン・リミテッド・ライアビリティ・カンパニー Image pattern recognition system and method
WO2007049630A1 (en) * 2005-10-27 2007-05-03 Konica Minolta Medical & Graphic, Inc. Small-scale diagnostic system
JP2007117351A (en) * 2005-10-27 2007-05-17 Konica Minolta Medical & Graphic Inc Small-scale diagnosis support system
JP2007140762A (en) * 2005-11-16 2007-06-07 Konica Minolta Medical & Graphic Inc Diagnostic system
WO2008001928A1 (en) * 2006-06-30 2008-01-03 Fujifilm Corporation Medical image display apparatus and medical image display program
JP2008006188A (en) * 2006-06-30 2008-01-17 Fujifilm Corp Medical image display processing apparatus and medical image display processing program
WO2008038559A1 (en) * 2006-09-25 2008-04-03 Fujifilm Corporation Anatomical drawing selecting method, anatomical drawing selecting device and medical network system
WO2009125624A1 (en) * 2008-04-10 2009-10-15 コニカミノルタエムジー株式会社 Medical image processing device for small-scale institution, medical image processing method and program
JP2010231418A (en) * 2009-03-26 2010-10-14 Oki Semiconductor Co Ltd Fingerprint reading device
JP2011229929A (en) * 2011-06-13 2011-11-17 Fujifilm Corp Medical network system and server
WO2012073769A1 (en) * 2010-11-29 2012-06-07 株式会社 日立メディコ Image processing device and image processing method
JPWO2015011889A1 (en) * 2013-07-23 2017-03-02 富士フイルム株式会社 Radiation image processing apparatus and method
JP2020156731A (en) * 2019-03-26 2020-10-01 オリンパス株式会社 Ultrasound observation apparatus, ultrasound observation apparatus operating method, and ultrasound observation apparatus operating program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520972A (en) * 2003-02-28 2006-09-14 ピクトン・リミテッド・ライアビリティ・カンパニー Image pattern recognition system and method
US7561496B2 (en) 2003-05-20 2009-07-14 Lg Electronics Inc. Recording medium with copy protection information and apparatus/method for forming, recording, reproducing, and restricting reproduction of the recording medium
WO2004104998A1 (en) * 2003-05-20 2004-12-02 Lg Electronics Inc. Recording medium and apparatus/method for forming, recording and reproducing the recording medium
US7619950B2 (en) 2003-05-20 2009-11-17 Lg Electronics Inc. Recording medium and apparatus method for forming, recording and reproducing the recording medium
WO2007049630A1 (en) * 2005-10-27 2007-05-03 Konica Minolta Medical & Graphic, Inc. Small-scale diagnostic system
JP2007117351A (en) * 2005-10-27 2007-05-17 Konica Minolta Medical & Graphic Inc Small-scale diagnosis support system
JP2007140762A (en) * 2005-11-16 2007-06-07 Konica Minolta Medical & Graphic Inc Diagnostic system
US8295568B2 (en) 2006-06-30 2012-10-23 Fujifilm Corporation Medical image display processing apparatus and medical image display processing program
JP2008006188A (en) * 2006-06-30 2008-01-17 Fujifilm Corp Medical image display processing apparatus and medical image display processing program
WO2008001928A1 (en) * 2006-06-30 2008-01-03 Fujifilm Corporation Medical image display apparatus and medical image display program
JP2008073397A (en) * 2006-09-25 2008-04-03 Fujifilm Corp Method and apparatus of selecting anatomical chart, and medical network system
WO2008038559A1 (en) * 2006-09-25 2008-04-03 Fujifilm Corporation Anatomical drawing selecting method, anatomical drawing selecting device and medical network system
WO2009125624A1 (en) * 2008-04-10 2009-10-15 コニカミノルタエムジー株式会社 Medical image processing device for small-scale institution, medical image processing method and program
JP2010231418A (en) * 2009-03-26 2010-10-14 Oki Semiconductor Co Ltd Fingerprint reading device
WO2012073769A1 (en) * 2010-11-29 2012-06-07 株式会社 日立メディコ Image processing device and image processing method
CN103228214A (en) * 2010-11-29 2013-07-31 株式会社日立医疗器械 Image processing device and image processing method
US8958616B2 (en) 2010-11-29 2015-02-17 Hitachi Medical Corporation Image processing device and image processing method
JP5943353B2 (en) * 2010-11-29 2016-07-05 株式会社日立製作所 Image processing apparatus and image processing method
JP2011229929A (en) * 2011-06-13 2011-11-17 Fujifilm Corp Medical network system and server
JPWO2015011889A1 (en) * 2013-07-23 2017-03-02 富士フイルム株式会社 Radiation image processing apparatus and method
JP2020156731A (en) * 2019-03-26 2020-10-01 オリンパス株式会社 Ultrasound observation apparatus, ultrasound observation apparatus operating method, and ultrasound observation apparatus operating program
JP7289211B2 (en) 2019-03-26 2023-06-09 オリンパス株式会社 Ultrasonic Observation Device, Operation Method of Ultrasonic Observation Device, and Operation Program of Ultrasonic Observation Device

Similar Documents

Publication Publication Date Title
CN107480677B (en) Method and device for identifying interest region in three-dimensional CT image
KR102560911B1 (en) Image processing apparatus, image processing method, and storage medium
JP3619270B2 (en) Method to detect the histogram area and improve the reproduction of the tone scale of the digital radiography image
US8340388B2 (en) Systems, computer-readable media, methods, and medical imaging apparatus for the automated detection of suspicious regions of interest in noise normalized X-ray medical imagery
US7477766B1 (en) Method and apparatus for expanding the use of existing computer-aided detection code
JP2008520344A (en) Method for detecting and correcting the orientation of radiographic images
JP2001076141A (en) Image recognizing method and image processor
US7747058B2 (en) Image processing method for windowing and/or dose control for medical diagnostic devices
JP4099984B2 (en) Abnormal shadow detection apparatus and image output apparatus
US20050161617A1 (en) Image processing method, apparatus, and program
JP2002143136A (en) Detection method and detection processing system for candidate of abnormal shadow
Marar et al. Mandible bone osteoporosis detection using cone-beam computed tomography
JP2004041490A (en) Diagnostic imaging support system
JP4380176B2 (en) MEDICAL IMAGE PROCESSING DEVICE AND METHOD FOR DISPLAYING DETECTION RESULT OF ANOTHER SHAPE CANDIDATE
JP3709759B2 (en) Image processing method and image processing apparatus
US7260254B2 (en) Comparing images
JP3731400B2 (en) Image processing method and image processing apparatus
JP4631260B2 (en) Image diagnosis support apparatus, image diagnosis support method, and program
JP2001351092A (en) Image processing selecting method, image selecting method, and image processor
JP2002158923A (en) Abnormal shadow image detection method and device thereof
JP2001148787A (en) Image processing unit
JP2008178666A (en) Image processing method and apparatus
JP3975668B2 (en) Feature quantity correctness determination method and image processing apparatus
JP2002125961A (en) Diagnostic imaging supporting unit
JP4438305B2 (en) Medical image processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051213