JP2024008068A - X-ray image processing system and X-ray image processing method - Google Patents

X-ray image processing system and X-ray image processing method Download PDF

Info

Publication number
JP2024008068A
JP2024008068A JP2022109600A JP2022109600A JP2024008068A JP 2024008068 A JP2024008068 A JP 2024008068A JP 2022109600 A JP2022109600 A JP 2022109600A JP 2022109600 A JP2022109600 A JP 2022109600A JP 2024008068 A JP2024008068 A JP 2024008068A
Authority
JP
Japan
Prior art keywords
category
article
recognition
ray image
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022109600A
Other languages
Japanese (ja)
Inventor
直人 秋良
Naoto Akira
シビ トウ
Ziwei Deng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2022109600A priority Critical patent/JP2024008068A/en
Publication of JP2024008068A publication Critical patent/JP2024008068A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an X-ray image processing system or the like for appropriately discriminating an article based on an X-ray image.
SOLUTION: An X-ray image processing system 100 includes a control unit 11 for discriminating a category of an article based on an X-ray image of the article. The control unit 11 changes a recognition category of the article to a predetermined candidate category based on the comparison of the recognition category based on the image recognition of the article and a plurality of candidate categories based on the operation of a user, and displays the candidate category on a display device in association with the X-ray image of the article.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、X線画像処理システム等に関する。 The present invention relates to an X-ray image processing system and the like.

空港や大規模イベント会場での手荷物検査では、物品のX線画像を用いた手荷物検査が行われることが多い。X線画像に基づいて物品の種類等を自動的に判別する技術として、例えば、特許文献1,2に記載のものが知られている。
すなわち、特許文献1には、「X線画像の画素領域のうちX線透過量が透過量閾値を下回りかつ材質が連続している部分の面積が、面積閾値を超えているか否かに基づき、物品が安全であるか否かを判定する」ことが記載されている。
また、特許文献2には、「学習モデルを用いてカテゴリ毎のスコアを推定し、前記スコアの最も高いカテゴリに分類し、カテゴリ毎に、前記スコアの低い順に前記複数の教師候補画像をソートし、カテゴリ毎の分類結果を生成する」ことが記載されている。
In baggage inspections at airports and large-scale event venues, baggage inspections are often performed using X-ray images of items. 2. Description of the Related Art As a technique for automatically determining the type of article based on an X-ray image, for example, the techniques described in Patent Documents 1 and 2 are known.
In other words, Patent Document 1 states, ``Based on whether or not the area of the portion of the pixel region of the X-ray image where the amount of X-ray transmission is less than the transmission amount threshold and the material is continuous exceeds the area threshold, "Determine whether goods are safe or not."
Furthermore, Patent Document 2 states, ``Estimating a score for each category using a learning model, classifying into the category with the highest score, and sorting the plurality of teacher candidate images for each category in descending order of the score. , generates classification results for each category.''

特開2018-4363号公報JP 2018-4363 Publication 特開2020-24534号公報JP2020-24534A

X線検査装置が物品の種類を判別する際には、通常、物品の種類とX線画像との間の対応関係を予め学習し、その学習結果に基づいて物品(検査対象)の種類を判別する。しかしながら、検査対象となる物品の種類が多くなると、所定の物品のX線画像上の見た目が他の種類の物品に似通っているといったケースが生じやすくなる。このような紛らわしいケースでも物品の種類を適切に判別できるようにすることが望ましいが、そのような技術については特許文献1,2には記載されていない。 When an X-ray inspection device determines the type of item, it usually learns the correspondence between the type of item and the X-ray image in advance, and then determines the type of item (inspection target) based on the learning results. do. However, as the number of types of articles to be inspected increases, cases in which a given article looks similar to other types of articles on an X-ray image tend to occur. Although it is desirable to be able to appropriately determine the type of article even in such confusing cases, such techniques are not described in Patent Documents 1 and 2.

そこで、本発明は、X線画像に基づいて物品を適切に判別するX線画像処理システム等を提供することを課題とする。 Therefore, an object of the present invention is to provide an X-ray image processing system and the like that appropriately discriminates articles based on X-ray images.

前記した課題を解決するために、本発明に係るX線画像処理システムは、物品のX線画像に基づいて、前記物品のカテゴリを判別する制御部を備え、前記制御部は、物品の画像認識に基づく認識カテゴリと、ユーザの運用に基づく複数の候補カテゴリと、の比較に基づいて、当該物品の前記認識カテゴリを所定の前記候補カテゴリに変更し、当該候補カテゴリを当該物品のX線画像に対応付けて表示装置に表示させることとした。 In order to solve the above problems, an X-ray image processing system according to the present invention includes a control section that determines the category of the article based on an X-ray image of the article, and the control section performs image recognition of the article. The recognition category of the article is changed to the predetermined candidate category based on a comparison between the recognition category based on the user's operation and a plurality of candidate categories based on the user's operation, and the candidate category is changed to the X-ray image of the article. It was decided to display them on the display device in association with each other.

本発明によれば、X線画像に基づいて物品を適切に判別するX線画像処理システム等を提供できる。 According to the present invention, it is possible to provide an X-ray image processing system and the like that appropriately discriminates articles based on X-ray images.

実施形態に係るX線画像処理システムが適用されるX線装置を含む斜視図である。1 is a perspective view including an X-ray apparatus to which an X-ray image processing system according to an embodiment is applied. 実施形態に係るX線画像処理システムが適用されるX線画像処理装置の機能ブロック図である。FIG. 1 is a functional block diagram of an X-ray image processing apparatus to which an X-ray image processing system according to an embodiment is applied. 実施形態に係るX線画像処理システムが適用されるX線画像処理装置の物品認識に関する処理のフローチャートである。2 is a flowchart of processing related to article recognition of an X-ray image processing apparatus to which the X-ray image processing system according to the embodiment is applied. 実施形態に係るX線画像処理システムが適用されるX線画像処理装置の物品認識に関する処理のフローチャートである。2 is a flowchart of processing related to article recognition of an X-ray image processing apparatus to which the X-ray image processing system according to the embodiment is applied. 実施形態に係るX線画像処理システムの信頼度テーブルの例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of a reliability table of the X-ray image processing system according to the embodiment. 実施形態に係るX線画像処理システムの変更履歴テーブルの例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of a change history table of the X-ray image processing system according to the embodiment. 実施形態に係るX線画像処理システムにおいて、カテゴリの変更前におけるSSDとUSBメモリとの関係を示す説明図である。FIG. 3 is an explanatory diagram showing the relationship between the SSD and the USB memory before changing the category in the X-ray image processing system according to the embodiment. 実施形態に係るX線画像処理システムにおいて、物品認識モデルの学習に用いられるSSDとUSBメモリを示す説明図である。FIG. 2 is an explanatory diagram showing an SSD and a USB memory used for learning an article recognition model in the X-ray image processing system according to the embodiment. 実施形態に係るX線画像処理システムにおいて、認識カテゴリ判定モデルの学習に用いられるSSDとUSBメモリを示す説明図である。FIG. 2 is an explanatory diagram showing an SSD and a USB memory used for learning a recognition category determination model in the X-ray image processing system according to the embodiment. 実施形態に係るX線画像処理システムの優先カテゴリテーブルの例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of a priority category table of the X-ray image processing system according to the embodiment. 実施形態に係るX線画像処理システムにおいて、物品のカテゴリの判別結果を示す表示画面の一例である。2 is an example of a display screen showing a result of classification of an article category in the X-ray image processing system according to the embodiment. 実施形態に係るX線画像処理システムにおいて、物品の正しいカテゴリの選択ボタンを示す表示画面の一例である。2 is an example of a display screen showing a selection button for the correct category of an article in the X-ray image processing system according to the embodiment. 実施形態に係るX線画像処理システムが適用されるX線画像処理装置の追加学習に関する処理のフローチャートである。7 is a flowchart of processing related to additional learning of the X-ray image processing apparatus to which the X-ray image processing system according to the embodiment is applied. 実施形態に係るX線画像処理システムが適用されるX線画像処理装置の追加学習に関する処理のフローチャートである。7 is a flowchart of processing related to additional learning of the X-ray image processing apparatus to which the X-ray image processing system according to the embodiment is applied. 実施形態に係るX線画像処理システムの重なり・正面判定用テーブルの例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of an overlap/front view determination table of the X-ray image processing system according to the embodiment.

≪実施形態≫
図1は、実施形態に係るX線画像処理システム100が適用されるX線画像処理装置1を含む斜視図である。
図1に示すX線画像処理システム100は、物品のX線画像に基づいて、物品のカテゴリを判別するシステムである。なお、物品の「カテゴリ」とは、X線画像処理システム100の処理の中で用いられる物品の種類である(ノートパソコン、タブレット、水筒、ナイフ等)。例えば、物品のX線画像に基づく判別が正しく行われた場合には、その判別結果である物品の「カテゴリ」が物品の本来の種類(ユーザの運用上の種類)に一致する。
≪Embodiment≫
FIG. 1 is a perspective view including an X-ray image processing apparatus 1 to which an X-ray image processing system 100 according to an embodiment is applied.
The X-ray image processing system 100 shown in FIG. 1 is a system that determines the category of an article based on an X-ray image of the article. Note that the "category" of the article is the type of article used in the processing of the X-ray image processing system 100 (laptop computer, tablet, water bottle, knife, etc.). For example, if the classification based on the X-ray image of the article is performed correctly, the "category" of the article, which is the result of the determination, matches the original type of the article (the user's operational type).

<X線検査装置の構成>
図1に示すX線検査装置100aは、物品のX線検査を行う装置であり、X線画像処理システム100に含まれている。X線検査装置100aは、例えば、空港や大規模イベント会場の他、データセンタや工場、研究機関、公的機関での手荷物検査に用いられる。図1に示すように、X線検査装置100aは、後記するX線画像処理装置1の他、装置本体2と、表示装置3と、入力装置4と、を含んで構成されている。
<Configuration of X-ray inspection device>
The X-ray inspection apparatus 100a shown in FIG. 1 is an apparatus that performs an X-ray inspection of articles, and is included in the X-ray image processing system 100. The X-ray inspection device 100a is used, for example, for baggage inspection at airports, large-scale event venues, data centers, factories, research institutes, and public institutions. As shown in FIG. 1, the X-ray inspection apparatus 100a includes an X-ray image processing apparatus 1, which will be described later, as well as an apparatus main body 2, a display device 3, and an input device 4.

装置本体2は、図示はしないが、物品が入っている荷物をローラコンベアで搬送する搬送機構と、物品にX線を照射する照射機構と、X線の透過量を測定するX線撮影機構と、を備えている。装置本体2には、搬送機構で搬送される荷物を通過させるための矩形状の孔H1が設けられている。装置本体2のの搬送方向上流側には、荷物を孔H1に向けてスムーズに移動させるための複数のローラR1が設けられている。 Although not shown, the device main body 2 includes a conveyance mechanism that conveys the baggage containing articles on a roller conveyor, an irradiation mechanism that irradiates the articles with X-rays, and an X-ray imaging mechanism that measures the amount of transmitted X-rays. , is equipped with. The apparatus main body 2 is provided with a rectangular hole H1 through which the cargo transported by the transport mechanism passes. A plurality of rollers R1 are provided on the upstream side of the apparatus main body 2 in the conveying direction to smoothly move the cargo toward the hole H1.

装置本体2は、前記したX線撮影機構(図示せず)として、例えば、X線透過量を測定する2種類のX線センサ(図示せず)を備えている。そして、一方のX線センサが他方のX線センサよりも高いエネルギのX線透過量を検出するようになっている。このようなX線センサとして、例えば、後方散乱式の材質判定センサが用いられるが、これに限定されるものではない。なお、装置本体2において物品が通過するエリアの複数箇所(側面や天井面)のそれぞれに、前記した2種類のX線センサが設置されるようにするとよい。これによって、異なる複数の方向からX線撮影を行うことができる。 The apparatus main body 2 is equipped with, for example, two types of X-ray sensors (not shown) that measure the amount of transmitted X-rays as the above-mentioned X-ray imaging mechanism (not shown). One of the X-ray sensors detects the amount of transmitted X-rays with higher energy than the other X-ray sensor. As such an X-ray sensor, for example, a backscatter type material determination sensor is used, but the present invention is not limited thereto. Note that it is preferable that the two types of X-ray sensors described above are installed at each of a plurality of locations (side surfaces and ceiling surface) in the area through which the article passes in the apparatus main body 2. This allows X-ray imaging to be performed from a plurality of different directions.

図1に示すX線画像処理装置1は、物品のX線画像に基づいて、物品のカテゴリを判別する装置である。X線画像処理装置1は、配線(図示せず)を介して装置本体2に接続されるとともに、表示装置3や入力装置4にも接続されている。そして、装置本体2の撮影機構である2種類のX線センサ(図示せず)からX線画像処理装置1にX線透過量のデータ等が出力されるようになっている。 The X-ray image processing device 1 shown in FIG. 1 is a device that determines the category of an article based on an X-ray image of the article. The X-ray image processing device 1 is connected to the device main body 2 via wiring (not shown), and is also connected to a display device 3 and an input device 4. Data on the amount of X-ray transmission, etc. are output to the X-ray image processing device 1 from two types of X-ray sensors (not shown), which are the imaging mechanism of the device main body 2.

X線画像処理装置1は、2種類のX線センサ(図示せず)のうちの一方で取得される高エネルギのX線透過量のデータと、他方で取得される低エネルギのX線透過量のデータと、の間の差分に基づいて、物品の材質をX線画像の画素毎に判別する。そして、X線画像処理装置1は、物品の材質や密度を可視化したカラー画像又はグレースケール画像をX線画像として生成し、このX線画像に基づいて物品のカテゴリを判別する。 The X-ray image processing device 1 collects data on the amount of high-energy X-rays transmitted by one of two types of X-ray sensors (not shown) and the amount of low-energy X-rays transmitted by the other. The material of the article is determined for each pixel of the X-ray image based on the difference between the data and the data. Then, the X-ray image processing device 1 generates a color image or a grayscale image that visualizes the material and density of the article as an X-ray image, and determines the category of the article based on this X-ray image.

物品のカテゴリが所定の禁止物品(アラート対象物)に該当する場合には、禁止物品であることを示す所定の信号がX線画像処理装置1から装置本体2に出力される。この場合には、装置本体2(又は装置本体2の付近)の表示ランプが点灯したり、スピーカ(図示せず)から所定のアラート音が出力されたりする。これによって、検査対象の物品が所定の禁止物品であることをユーザ(検査員等)が把握できる。 If the category of the article falls under a predetermined prohibited article (alert target object), a predetermined signal indicating that the article is a prohibited article is output from the X-ray image processing apparatus 1 to the apparatus main body 2. In this case, a display lamp on the device main body 2 (or in the vicinity of the device main body 2) lights up, or a predetermined alert sound is output from a speaker (not shown). This allows the user (inspector, etc.) to understand that the item to be inspected is a predetermined prohibited item.

図1に示す2つの表示装置3は、装置本体2の撮影結果であるX線画像等を表示させる。これによって、物品のX線画像の他、物品のカテゴリの判別結果をユーザ(検査員等)が目視で確認できる。これら2つの表示装置3には、異なる方向から撮影された画像が表示されるようにしてもよいし、また、異なる種類の画像(例えば、カラー画像とグレースケール画像)が表示されるようにしてもよい。 The two display devices 3 shown in FIG. 1 display X-ray images and the like that are the imaging results of the device main body 2. As a result, a user (such as an inspector) can visually confirm the classification result of the category of the article as well as the X-ray image of the article. These two display devices 3 may display images taken from different directions, or may display different types of images (for example, a color image and a grayscale image). Good too.

図1に示す入力装置4は、例えば、キーボードやマウスであり、ユーザによって所定に操作される。なお、X線検査装置100aの構成は、図1の例に限定されるものではない。例えば、X線画像処理装置1が装置本体2に内蔵された構成であってもよい。 The input device 4 shown in FIG. 1 is, for example, a keyboard or a mouse, and is operated in a predetermined manner by a user. Note that the configuration of the X-ray inspection apparatus 100a is not limited to the example shown in FIG. For example, the X-ray image processing device 1 may be built into the device main body 2.

<X線画像処理装置の構成>
図2は、X線画像処理システム100が適用されるX線画像処理装置1の機能ブロック図である。
図2に示すX線画像処理装置1は、制御部11と、メモリ12と、表示インターフェース13と、入力インタフェース14と、通信部15と、補助記憶部16と、を備えるコンピュータである。制御部11は、例えば、プロセッサを含むCPU(Central Processing Unit)であり、メモリ12にロードされたプログラムを所定に実行する。メモリ12は、不揮発性の記憶素子であるROM(Read Only Memory)と、揮発性の記憶素子であるRAM(Random Access Memory)と、を含んで構成されている。
<Configuration of X-ray image processing device>
FIG. 2 is a functional block diagram of the X-ray image processing apparatus 1 to which the X-ray image processing system 100 is applied.
The X-ray image processing apparatus 1 shown in FIG. 2 is a computer that includes a control section 11, a memory 12, a display interface 13, an input interface 14, a communication section 15, and an auxiliary storage section 16. The control unit 11 is, for example, a CPU (Central Processing Unit) including a processor, and executes a program loaded into the memory 12 in a predetermined manner. The memory 12 includes a ROM (Read Only Memory), which is a nonvolatile storage element, and a RAM (Random Access Memory), which is a volatile storage element.

表示インターフェース13は、表示装置3(図1参照)に画像データを所定に出力する。入力インタフェース14は、入力装置4(図1参照)から入力されるデータの他、装置本体2(図1参照)から入力されるX線透過量のデータを受け付ける。このような入力インタフェース14として、例えば、X線画像処理装置1の専用のインターフェースが用いられてもよいし、また、VGA端子といった汎用の画面入力端子が用いられてもよい。通信部15は、所定のプロトコルに基づいて、他の装置との間の通信を制御するネットワークインターフェースある。このような通信部15として、USB(Universal Serial Bus)等のシリアルインターフェースが用いられてもよい。 The display interface 13 outputs image data to the display device 3 (see FIG. 1) in a predetermined manner. The input interface 14 accepts data on the amount of X-ray transmission input from the apparatus main body 2 (see FIG. 1) in addition to data input from the input device 4 (see FIG. 1). As such an input interface 14, for example, a dedicated interface for the X-ray image processing apparatus 1 may be used, or a general-purpose screen input terminal such as a VGA terminal may be used. The communication unit 15 is a network interface that controls communication with other devices based on a predetermined protocol. As such communication unit 15, a serial interface such as a USB (Universal Serial Bus) may be used.

補助記憶部16は、HDD(Hard Disk Drive)やフラッシュメモリ等の不揮発性の大容量記憶装置である。補助記憶部16には、OS(Operating System:図示せず)が格納されている他、制御部11(CPU)によって実行される各プログラムや、各プログラムの実行時に使用されるデータが格納されている。これらの各プログラムは、補助記憶部16から読み出されてメモリ12にロードされ、制御部11によって実行される。 The auxiliary storage unit 16 is a nonvolatile large-capacity storage device such as an HDD (Hard Disk Drive) or flash memory. The auxiliary storage unit 16 stores an OS (Operating System: not shown), and also stores various programs executed by the control unit 11 (CPU) and data used when executing each program. There is. Each of these programs is read from the auxiliary storage section 16, loaded into the memory 12, and executed by the control section 11.

図2に示すように、補助記憶部16には、X線画像取得部16aと、物品認識部16bと、物品学習部16cと、学習カテゴリ選定部16dと、変更履歴管理部16eと、重なり・正面判定部16fと、画面表示部16gと、認識カテゴリ判定部16hと、優先カテゴリ判定部16kと、が所定のプログラムとして格納されている。また、補助記憶部16には、X線画像に基づく物品の認識に用いられるモデルとして、物品認識モデル16mと、認識カテゴリ判定モデル16nと、が格納されている。 As shown in FIG. 2, the auxiliary storage section 16 includes an X-ray image acquisition section 16a, an article recognition section 16b, an article learning section 16c, a learning category selection section 16d, a change history management section 16e, and an overlapping section. A frontal determination section 16f, a screen display section 16g, a recognition category determination section 16h, and a priority category determination section 16k are stored as predetermined programs. The auxiliary storage unit 16 also stores an article recognition model 16m and a recognition category determination model 16n as models used for recognizing articles based on X-ray images.

また、補助記憶部16には、所定のデータテーブルとして、信頼度テーブル16pと、変更履歴テーブル16qと、優先カテゴリテーブル16rと、重なり・正面判定用テーブル16sと、が格納されている。さらに、補助記憶部16には、物品認識の学習に用いられるデータとして、学習データ16tと、カテゴリ判定用学習データ16uと、追加学習データ16vと、が格納されている。 Further, the auxiliary storage unit 16 stores, as predetermined data tables, a reliability table 16p, a change history table 16q, a priority category table 16r, and an overlap/frontal determination table 16s. Further, the auxiliary storage unit 16 stores learning data 16t, category determination learning data 16u, and additional learning data 16v as data used for learning article recognition.

X線画像取得部16aは、装置本体2(図1参照)から入力インタフェース14を介して、X線画像のデータを取得する。
物品認識部16bは、例えば、AI(Artificial Intelligence)による深層学習のセグメンテーション技術に基づいて、X線画像上の物品を画素単位で認識するプログラムである。
物品学習部16cは、例えば、AIによる深層学習のセグメンテーション技術に基づいて、学習データ16tを所定に学習することで、物品認識モデル16mを生成する。また、物品学習部16cは、カテゴリ判定用学習データ16uを所定に学習することで、認識カテゴリ判定モデル16nを生成する。
The X-ray image acquisition unit 16a acquires X-ray image data from the apparatus main body 2 (see FIG. 1) via the input interface 14.
The article recognition unit 16b is, for example, a program that recognizes an article on an X-ray image pixel by pixel based on deep learning segmentation technology using AI (Artificial Intelligence).
The article learning unit 16c generates the article recognition model 16m by learning the learning data 16t in a predetermined manner, for example, based on a deep learning segmentation technique using AI. Further, the article learning unit 16c generates a recognition category determination model 16n by learning the category determination learning data 16u in a predetermined manner.

学習カテゴリ選定部16dは、追加学習データ16vの中から学習に用いるデータを選定する。変更履歴管理部16eは、物品のカテゴリが変更された履歴を変更履歴テーブル16qとして管理する。重なり・正面判定部16fは、X線画像における物品の領域の面積や濃さに基づいて、所定の物品が他の物品と重なっていないか、また、所定の物品の姿勢が正面であるか否かを判定する。 The learning category selection unit 16d selects data to be used for learning from the additional learning data 16v. The change history management unit 16e manages the history of changes in the category of articles as a change history table 16q. The overlap/frontal determination unit 16f determines whether a predetermined article overlaps with another article and whether the posture of a predetermined article is frontal based on the area and density of the article region in the X-ray image. Determine whether

画面表示部16gは、X線画像の中に物品が認識された位置を示す矩形等の情報と、物品のカテゴリを示す所定の文字と、を含む画像データ(図8参照)を生成する。そして、画面表示部16gは、この画像データをX線画像上の物品の位置に対応付けて、表示装置3(図1参照)に所定に表示させる。
認識カテゴリ判定部16hは、物品認識モデル16mによって認識された物品のカテゴリを変更するか否かを判定する。優先カテゴリ判定部16kは、物品認識モデル16mによって認識された物品のカテゴリを所定の優先カテゴリに変更するか否かを判定する。
なお、補助記憶部16に格納されたデータのうち、残りの物品認識モデル16mや認識カテゴリ判定モデル16nの他、各テーブルや各データについては、次の図3A、図3Bのフローチャートの中で適宜に説明する。
The screen display unit 16g generates image data (see FIG. 8) that includes information such as a rectangle indicating the position where the article is recognized in the X-ray image and predetermined characters indicating the category of the article. Then, the screen display unit 16g displays this image data in a predetermined manner on the display device 3 (see FIG. 1) in association with the position of the article on the X-ray image.
The recognition category determination unit 16h determines whether or not to change the category of the article recognized by the article recognition model 16m. The priority category determination unit 16k determines whether or not to change the category of the article recognized by the article recognition model 16m to a predetermined priority category.
In addition, among the data stored in the auxiliary storage unit 16, the remaining article recognition model 16m and recognition category determination model 16n, as well as each table and each data, will be explained as appropriate in the flowcharts of FIGS. 3A and 3B below. Explain.

X線画像処理装置1における処理は、事前学習と、物品認識と、追加学習と、に大別される。事前学習では、物品が写っているX線画像を学習データ16t(図2参照)として大量に用意し、X線画像上の物品の見た目を物品学習部16cに学習させ、所定の物品認識モデル16mを生成させる。 Processing in the X-ray image processing apparatus 1 is roughly divided into preliminary learning, article recognition, and additional learning. In the preliminary learning, a large amount of X-ray images showing articles are prepared as learning data 16t (see FIG. 2), the article learning section 16c is made to learn the appearance of the article on the X-ray images, and a predetermined article recognition model 16m is created. to generate.

また、物品認識では、物品認識モデル16m等に基づいて、物品のカテゴリが判別される。そして、物品認識が所定期間行われた後、追加学習が行われ、さらに、追加学習の結果に基づいて物品認識を行うといったことが所定に繰り返される。追加学習では、所定の追加学習データ16vに基づいて、物品認識モデル16m等が更新される。このような追加学習は、例えば、1日ごとに行われてもよいし、また、1週間ごとや1カ月ごとに行われてもよい。以下では、物品認識に関する処理(図3A、図3B参照)について説明した後、追加学習に関する処理(図10A、図10B参照)について説明する。 Furthermore, in the article recognition, the category of the article is determined based on the article recognition model 16m and the like. Then, after the article recognition is performed for a predetermined period of time, additional learning is performed, and further, article recognition is performed based on the result of the additional learning, which is repeated in a predetermined manner. In the additional learning, the article recognition model 16m and the like are updated based on predetermined additional learning data 16v. Such additional learning may be performed, for example, every day, every week, or every month. Below, after explaining the process related to article recognition (see FIGS. 3A and 3B), the process related to additional learning (see FIGS. 10A and 10B) will be explained.

<物品認識に関する処理>
図3A、図3Bは、X線画像処理システムが適用されるX線画像処理装置の物品認識に関する処理のフローチャートである。
ステップS101において制御部11は、X線画像取得部16a(図2参照)によって、X線画像のデータを装置本体2(図1参照)から取得する。例えば、前記した2種類のX線センサ(図示せず)から所定のRAWデータ(未加工のデータ)が入力される場合、X線画像取得部16a(図2参照)は、次の処理を行う。すなわち、X線画像取得部16aは、高エネルギのX線透過量と、低エネルギのX線透過量と、の間の差分に基づいて、金属・無機物・有機物・その他の4種類のいずれかにX線画像の各画素を分類する。そして、X線画像取得部16aは、例えば、物品の材質を所定の色で示し、X線透過量(物品の密度)を色の濃さで示した所定のカラー画像を生成する。なお、表示装置3(図1参照)の表示画面をキャプチャしたデータをX線画像取得部16aが取得するようにしてもよい。
<Processing related to article recognition>
3A and 3B are flowcharts of processing related to article recognition by an X-ray image processing apparatus to which the X-ray image processing system is applied.
In step S101, the control unit 11 uses the X-ray image acquisition unit 16a (see FIG. 2) to acquire X-ray image data from the apparatus main body 2 (see FIG. 1). For example, when predetermined RAW data (unprocessed data) is input from the two types of X-ray sensors (not shown) described above, the X-ray image acquisition unit 16a (see FIG. 2) performs the following processing. . That is, the X-ray image acquisition unit 16a selects metals, inorganic materials, organic materials, and other four types based on the difference between the amount of high-energy X-rays transmitted and the amount of low-energy X-rays transmitted. Classify each pixel of the X-ray image. Then, the X-ray image acquisition unit 16a generates a predetermined color image in which, for example, the material of the article is shown in a predetermined color and the amount of X-ray transmission (density of the article) is shown in the darkness of the color. Note that the X-ray image acquisition unit 16a may acquire data obtained by capturing the display screen of the display device 3 (see FIG. 1).

また、X線画像のデータを撮影対象の荷物ごとに分割する際、X線画像取得部16a(図2参照)は、次の3通りの分割方法のいずれかを行うようにしてもよい。第1の分割方法は、X線透過量が所定閾値以下である部分を荷物エリアとして、X線画像取得部16aが荷物エリアを特定する方法である。この第1の分割方法は、装置本体2(図1参照)のVGA出力端子等からX線画像処理装置1(図1参照)に所定のRAWデータが入力される場合に用いられる。第2の分割方法は、X線画像取得部16aが、X線透過量の積分値(画像上の所定ライン又は所定時間での積分値)に基づいて、X線画像を荷物ごとに分割する方法である。第3の分割方法は、荷物検知センサ(図示せず)が荷物を検知した時刻と、荷物を検知しなくなった時刻とに基づいて、X線画像を荷物ごとに分割する方法である。 Further, when dividing the X-ray image data for each baggage to be photographed, the X-ray image acquisition unit 16a (see FIG. 2) may perform one of the following three division methods. The first division method is a method in which the X-ray image acquisition unit 16a specifies a baggage area by defining a portion where the amount of X-ray transmission is less than a predetermined threshold value as a baggage area. This first division method is used when predetermined RAW data is input to the X-ray image processing apparatus 1 (see FIG. 1) from a VGA output terminal or the like of the apparatus main body 2 (see FIG. 1). The second division method is a method in which the X-ray image acquisition unit 16a divides the X-ray image into each baggage based on the integral value of the amount of X-ray transmission (the integral value at a predetermined line on the image or at a predetermined time). It is. The third division method is a method of dividing the X-ray image into each baggage based on the time when the baggage detection sensor (not shown) detects the baggage and the time when the baggage is no longer detected.

次に、図3のステップS102において制御部11は、物品認識部16b(図2参照)によって、物品のX線画像に基づいて、物品のカテゴリを判別する(判別処理)。すなわち、物品認識部16bは、物品認識モデル16m(図2参照)に基づいて、X線画像上の物品のカテゴリを判別する他、その物品のX線画像上の位置(座標)を特定する。なお、物品認識モデル16mとは、X線画像上の物品のカテゴリを画像認識に基づいて判別する際に用いられるモデルであり、深層学習等に基づく所定のパラメータを含んでいる。前記したように、物品認識モデル16mは事前学習で生成され、さらに、追加学習で適宜に更新される。また、ステップS102の処理において、OSS(オープンソースソフトウェア)のライブラリである「Fully Convolutional Instance-aware Semantic Segmentation」や「Mask R-CNN」が適宜に用いられてもよい。 Next, in step S102 of FIG. 3, the control unit 11 uses the article recognition unit 16b (see FIG. 2) to determine the category of the article based on the X-ray image of the article (discrimination process). That is, the article recognition unit 16b determines the category of the article on the X-ray image based on the article recognition model 16m (see FIG. 2), and also specifies the position (coordinates) of the article on the X-ray image. Note that the article recognition model 16m is a model used when determining the category of an article on an X-ray image based on image recognition, and includes predetermined parameters based on deep learning or the like. As described above, the article recognition model 16m is generated through preliminary learning, and is further updated as appropriate through additional learning. Furthermore, in the process of step S102, OSS (open source software) libraries such as "Fully Convolutional Instance-aware Semantic Segmentation" or "Mask R-CNN" may be used as appropriate.

また、ステップS102の処理において物品認識部16bは、物品のカテゴリの判別結果における信頼度も算出する。「信頼度」とは、物品のカテゴリの判別結果をどの程度信頼してよいかを示す指標である。信頼度が高いほど、物品のカテゴリの判別結果が正しい可能性が高くなる。ステップS102の処理では、物品のカテゴリに関する複数の候補の中から信頼度が最も高いものが、物品のカテゴリとして選択される。 In addition, in the process of step S102, the article recognition unit 16b also calculates the reliability of the article category determination result. "Reliability" is an index indicating how much the classification result of the article category can be trusted. The higher the reliability, the higher the possibility that the classification result of the article category is correct. In the process of step S102, the one with the highest degree of reliability is selected as the article category from among the plurality of article category candidates.

また、次に説明するように、信頼度の高さが2番目以下の順位(2番目、3番目、4番目、・・・)の候補に関するデータも信頼度テーブル16p(図2参照)に格納される。信頼度テーブル16pとは、X線画像上の所定の物品のカテゴリを判別した場合の各候補のカテゴリの信頼度を示すデータテーブルである。 In addition, as described below, data regarding candidates with the second or lower reliability ranking (second, third, fourth, etc.) is also stored in the reliability table 16p (see Figure 2). be done. The reliability table 16p is a data table showing the reliability of each candidate category when determining the category of a predetermined article on an X-ray image.

図4は、信頼度テーブル16pの例を示す説明図である。
図4の例では、信頼度が最も高い第1候補(物品のX線画像上の見た目が最も似ているカテゴリ)として「ノートパソコン」が挙げられている他、信頼度が2番目以下のものでは、「タブレット」、「スマートフォン」、「携帯用ゲーム機」が順に挙げられている。このような信頼度テーブル16pは、補助記憶部16(図2参照)に一時的に格納され、後記するステップS105の処理で用いられる。
FIG. 4 is an explanatory diagram showing an example of the reliability table 16p.
In the example in Figure 4, "laptop computer" is listed as the first candidate with the highest reliability (the category that is most similar in appearance on the X-ray image of the item), and other candidates with the second or lower reliability "Tablets,""smartphones," and "portable game consoles" are listed in that order. Such a reliability table 16p is temporarily stored in the auxiliary storage unit 16 (see FIG. 2) and used in the process of step S105, which will be described later.

次に、図3のステップS103において制御部11は、物品のカテゴリの変更履歴があるか否かを判定する。すなわち、制御部11は、変更履歴管理部16e(図2参照)によって変更履歴テーブル16q(図2参照)を参照し、物品のカテゴリの変更履歴があるか否かを判定する。ここで、変更履歴テーブル16qとは、ユーザ(検査員等)の入力操作で付与された本来のカテゴリから、物品の見た目が似通っている別のカテゴリに変更された履歴を示すデータテーブルである。このような変更履歴テーブル16qについて、図5を用いて説明する。 Next, in step S103 of FIG. 3, the control unit 11 determines whether there is a change history of the category of the article. That is, the control unit 11 uses the change history management unit 16e (see FIG. 2) to refer to the change history table 16q (see FIG. 2) and determines whether there is a change history for the category of the article. Here, the change history table 16q is a data table that shows the history of changes from the original category given by the input operation of the user (inspector, etc.) to another category whose appearance is similar to that of the article. Such a change history table 16q will be explained using FIG. 5.

図5は、変更履歴テーブル16qの例を示す説明図である。
図5に示す「変更前」の欄には、過去に誤認識や認識漏れがあった物品に対して、ユーザ(検査員等)が追加学習用に登録した物品の本来のカテゴリが格納されている。ユーザは、物品のX線画像を確認したり、物品そのものを目視で確認したりすることで、所定の運用(例えば、空港の手荷物検査での運用)に基づく物品の本来のカテゴリを「変更前」のカテゴリ(候補カテゴリ)として入力する。
FIG. 5 is an explanatory diagram showing an example of the change history table 16q.
The "Before change" column shown in Figure 5 stores the original category of the item that was registered for additional learning by the user (inspector, etc.) for items that were misrecognized or failed to be recognized in the past. There is. By checking the X-ray image of the item or visually checking the item itself, the user can change the original category of the item based on predetermined operations (for example, at airport baggage inspection) to the ``before change'' category. ” category (candidate category).

図5に示す「変更後」の欄には、学習カテゴリ選定部16d(図2参照)による変更後の物品のカテゴリ(認識カテゴリ)が格納されている。図5の例では、「変更前」の物品のカテゴリとして、「SSD」(Solid State Drive)が格納され、これに対応する「変更後」の物品のカテゴリとして、「USBメモリ」(Universal Serial Bus Memory)が格納されている。また、変更履歴テーブル16qには、物品のカテゴリが変更された回数が「変更回数」として格納されている。 The "after change" column shown in FIG. 5 stores the article category (recognized category) after being changed by the learning category selection unit 16d (see FIG. 2). In the example of FIG. 5, "SSD" (Solid State Drive) is stored as the "before change" article category, and "USB memory" (Universal Serial Bus) is stored as the corresponding "after change" article category. Memory) is stored. In addition, the change history table 16q stores the number of times the category of an article has been changed as a "number of changes."

図6Aは、カテゴリの変更前におけるSSDとUSBメモリとの関係を示す説明図である。
図6Aに示すように、SSDにはさまざまな種類や形状のものがあり、その中には見た目がUSBメモリに似通っているものがある。図6Aの例では、ssd31~33は、X線画像上の見た目がusbメモリとは異なっているが、残りのSSD34,35は、その見た目がUSBメモリに似通っている。SSD31~35は、本来は共通のカテゴリ(種類)に属しているが、物品認識モデル16m(図2参照)の学習時には、見た目がUSBメモリに似通っているSSD34,35のカテゴリをUSBメモリに変更するようにしている。これによって、物品認識モデル16mに基づく物品認識の精度が高められる。
FIG. 6A is an explanatory diagram showing the relationship between the SSD and the USB memory before the category is changed.
As shown in FIG. 6A, there are various types and shapes of SSDs, and some of them look similar to USB memory. In the example of FIG. 6A, SSDs 31 to 33 look different from USB memories on the X-ray image, but the remaining SSDs 34 and 35 look similar to USB memories. SSDs 31 to 35 originally belong to a common category (type), but when learning the article recognition model 16m (see Figure 2), the category of SSDs 34 and 35, which look similar to USB memory, is changed to USB memory. I try to do that. This increases the accuracy of article recognition based on the article recognition model 16m.

図6Bは、物品認識モデルの学習に用いられるSSDとUSBメモリを示す説明図である。
詳細については後記するが、ステップS102で用いられる物品認識モデル16mの学習時には(図10bのS212)、例えば、次のような処理が行われる。すなわち、X線画像上の見た目がUSBメモリには似ていないSSD31~33のカテゴリの正解を「SSD」とし、また、見た目がUSBメモリに似ているSSD34,35の他、本来のUSBメモリ41~45のカテゴリの正解を「USBメモリ」として、物品認識モデル16mの学習が行われる。物品認識部16b(図2参照)は、X線画像上の見た目で物品を判別するため、本来のカテゴリが間違っていたとしても、見た目が似通っているものをひとまとまりにして学習した方が物品認識モデル16に基づく認識精度が高くなる。
FIG. 6B is an explanatory diagram showing the SSD and USB memory used for learning the article recognition model.
Although details will be described later, when learning the article recognition model 16m used in step S102 (S212 in FIG. 10b), for example, the following processing is performed. In other words, the correct answer for the category of SSDs 31 to 33, which do not look like USB memories on the The article recognition model 16m is trained with the correct answer for category 45 being "USB memory". The article recognition unit 16b (see FIG. 2) discriminates articles based on their appearance on X-ray images, so even if the original category is wrong, it is better to group items that have similar appearances together and learn about them. The recognition accuracy based on the recognition model 16 becomes higher.

図3AのステップS103において、物品のカテゴリの変更履歴がある場合(S103:Yes)、制御部11の処理はステップS104に進む。すなわち、変更履歴テーブル16q(図5参照)における「変更後」のカテゴリとして、X線画像上の物品のカテゴリ(S102の判別結果)に一致するものが存在する場合、制御部11の処理はステップS104に進む。 In step S103 of FIG. 3A, if there is a change history of the category of the article (S103: Yes), the process of the control unit 11 proceeds to step S104. That is, if there is a category "after change" in the change history table 16q (see FIG. 5) that matches the category of the article on the X-ray image (as determined in S102), the process of the control unit 11 proceeds to step Proceed to S104.

ステップS104において制御部11は、認識カテゴリ判定部16h(図2参照)によって、認識カテゴリ判定モデル16nに基づいて、物品のカテゴリを再び判別する。認識カテゴリ判定モデル16n(図2参照)とは、認識カテゴリ判定モデル16nとは、見た目が他のカテゴリの物品と似通っている所定の物品について、その本来のカテゴリを正しく判別するためのモデルである。例えば、図6Bに示すSSD34,35は、物品認識モデル16mの学習時には「USBメモリ」として扱われるが、最終的には、本来のカテゴリの「SSD」として表示されることが望ましい。認識カテゴリ判定モデル16nは、SSD34,35のような、カテゴリが紛らわしい物品を正しく判別するためのモデルである。 In step S104, the control unit 11 causes the recognition category determination unit 16h (see FIG. 2) to determine the category of the article again based on the recognition category determination model 16n. What is the recognition category determination model 16n (see FIG. 2)? The recognition category determination model 16n is a model for correctly determining the original category of a predetermined article that is similar in appearance to articles of other categories. . For example, the SSDs 34 and 35 shown in FIG. 6B are treated as "USB memory" during learning of the article recognition model 16m, but it is desirable that they be ultimately displayed as "SSD" in the original category. The recognition category determination model 16n is a model for correctly determining articles with confusing categories, such as the SSDs 34 and 35.

図6Cは、認識カテゴリ判定モデルの学習に用いられるSSDとUSBメモリを示す説明図である。
図6Cの例では、X線画像上の見た目がUSBメモリに似通っているSSD34,35のカテゴリの正解を「SSD」とし、また、USBメモリ41~45のカテゴリの正解を「USBメモリ」として、認識カテゴリ判定モデル16n(図2参照)が学習される。なお、SSD31~35(図6A参照)の中でも、X線画像上の見た目がUSBメモリには似ていないもの(典型的な形状のSSD31~33:図6A参照)は、認識カテゴリ判定モデル16nの学習対象から外される。このようにして学習された認識カテゴリ判定モデル16nを用いることで、X線画像上の見た目が他の物品に似通っている物品のカテゴリを高精度に判別できる。
FIG. 6C is an explanatory diagram showing the SSD and USB memory used for learning the recognition category determination model.
In the example of FIG. 6C, the correct answer for the category of SSDs 34 and 35, which look similar to USB memories on the X-ray image, is set as "SSD", and the correct answer for the category of USB memories 41 to 45 is set as "USB memory", A recognition category determination model 16n (see FIG. 2) is trained. Note that among the SSDs 31 to 35 (see FIG. 6A), those that do not look like a USB memory on an X-ray image (typically shaped SSDs 31 to 33: see FIG. 6A) are excluded from learning subjects. By using the recognition category determination model 16n learned in this way, the category of an article that looks similar to other articles on an X-ray image can be determined with high accuracy.

例えば、ステップS102では物品認識モデル16m(図2参照)が用いられるため、見た目がUSBメモリに似通っているSSD34,35は、「USBメモリ」として判別される。この「USBメモリ」は、変更履歴テーブル16q(図5参照)で「変更後」のカテゴリの一つとして登録されている(S103:Yes)。そして、次のステップS104では、認識カテゴリ判定モデル16n(図2参照)が用いられるため、SSD34,35は、「SSD」として正しく判別される。 For example, since the article recognition model 16m (see FIG. 2) is used in step S102, the SSDs 34 and 35 that look similar to USB memories are determined as "USB memories." This "USB memory" is registered as one of the "after change" categories in the change history table 16q (see FIG. 5) (S103: Yes). Then, in the next step S104, since the recognition category determination model 16n (see FIG. 2) is used, the SSDs 34 and 35 are correctly determined as "SSD".

ステップS105において制御部11は、「変更前」のカテゴリの信頼度が、「変更後」のカテゴリの信頼度よりも高いものが存在するか否かを判定する。なお、ステップS105の処理では、変更履歴テーブル16q(図5参照)に含まれている「変更前」のカテゴリ(ユーザの運用に基づく候補カテゴリ)と、「変更後」のカテゴリ(見た目が似ている認識カテゴリ)とで、ステップS104の判別結果における信頼度が比較されている。ステップS105において、変更前のカテゴリの信頼度が、変更後のカテゴリの信頼度よりも高いものが存在する場合(S105:Yes)、制御部11の処理はステップS106に進む。 In step S105, the control unit 11 determines whether there is a category for which the reliability of the "before change" category is higher than the reliability of the "after change" category. Note that in the process of step S105, the "before change" category (candidate category based on the user's operation) included in the change history table 16q (see FIG. 5) and the "after change" category (similar in appearance) The reliability of the determination result in step S104 is compared between the recognition categories (recognition categories). In step S105, if there is a category whose reliability before the change is higher than the reliability of the category after the change (S105: Yes), the process of the control unit 11 proceeds to step S106.

ステップS106において制御部11は、物品のカテゴリを「変更前」のものにする。なお、「変更前」のカテゴリの信頼度が「変更後」のカテゴリの信頼度よりも高いペア(変更前・変更後のペア)が複数存在する場合には、、「変更前」のカテゴリの信頼度が最も高いものが選択される。 In step S106, the control unit 11 sets the category of the article to "before change." In addition, if there are multiple pairs (before/after changes) in which the reliability of the "before change" category is higher than the reliability of the "after change" category, the The one with the highest reliability is selected.

例えば、図6Cに示すSSD34,35のカテゴリを認識カテゴリ判定モデル16nで判別した場合において、そのカテゴリを「SSD」としたときの信頼度が、「USBメモリ」としたときの信頼度よりも高かったとする。なお、「SSD」というカテゴリは、SSD34,35の本来の種類を示す「変更前」のカテゴリである。この場合には、変更履歴テーブル16q(図5参照)における「変更前」のカテゴリの方が信頼度が高いため(S105:Yes)、SSD34,35のカテゴリが、「USBメモリ」から「SSD」に変更される(S106)。 For example, when the categories of SSDs 34 and 35 shown in FIG. 6C are determined by the recognition category judgment model 16n, the reliability when the category is set as "SSD" is higher than the reliability when it is set as "USB memory". Suppose that Note that the category "SSD" is a "before change" category that indicates the original type of the SSDs 34 and 35. In this case, since the "before change" category in the change history table 16q (see FIG. 5) has higher reliability (S105: Yes), the categories of the SSDs 34 and 35 change from "USB memory" to "SSD". (S106).

また、図6Cに示すUSBメモリ41~45のカテゴリを認識カテゴリ判定モデル16nで判別した場合において、そのカテゴリを「SSD」としたときの信頼度が、「USBメモリ」としたときの信頼度よりも低かったとする。なお、「USBメモリ」というカテゴリは、変更履歴テーブル16q(図5参照)における「変更後」のカテゴリである。この場合には、「変更後」のカテゴリの方が信頼度が高いため(S105:No)、USBメモリ41~45については、そのままのカテゴリ(「USBメモリ」)で扱われる。 Furthermore, when the categories of USB memories 41 to 45 shown in FIG. 6C are determined by the recognized category judgment model 16n, the reliability when the category is set as "SSD" is higher than the reliability when it is set as "USB memory". Suppose that it was also low. Note that the category "USB memory" is the "after change" category in the change history table 16q (see FIG. 5). In this case, since the "after change" category has higher reliability (S105: No), the USB memories 41 to 45 are handled as they are in the category ("USB memory").

ステップS106の処理を行った後、制御部11の処理は、図3BのステップS110に進む。ステップS110において制御部11は、カテゴリの判別結果を表示装置3(図1参照)に表示させる(表示処理)。例えば、図6Aに示すSSD64,35は、そのX線画像に対応付けて、「SSD」と正しく表示される。これによって、X線画像上の見た目で物品を高精度に分類しつつ、ユーザの運用に沿った物品の本来のカテゴリを正しく表示できる。 After performing the process of step S106, the process of the control unit 11 proceeds to step S110 of FIG. 3B. In step S110, the control unit 11 displays the category determination result on the display device 3 (see FIG. 1) (display processing). For example, the SSDs 64 and 35 shown in FIG. 6A are correctly displayed as "SSD" in association with the X-ray image. As a result, it is possible to classify articles with high precision based on their appearance on the X-ray image, and to correctly display the original category of the article according to the user's operation.

このように、制御部11は、物品の画像認識に基づく認識カテゴリ(変更履歴テーブル16qにおける「変更後」のカテゴリ)と、ユーザの運用に基づく複数の候補カテゴリ(変更履歴テーブル16qにおける「変更前」のカテゴリ)と、の比較に基づいて、この物品の認識カテゴリを所定の候補カテゴリに変更する(図3AのS106)。そして、制御部11は、この候補カテゴリを物品のX線画像に対応付けて表示装置3に表示させる(図3BのS110)。 In this way, the control unit 11 uses a recognition category based on image recognition of the article (the "after change" category in the change history table 16q) and a plurality of candidate categories based on the user's operation (the "before change" category in the change history table 16q). Based on the comparison between ``category'' and ``category'', the recognition category of this article is changed to a predetermined candidate category (S106 in FIG. 3A). Then, the control unit 11 causes the display device 3 to display this candidate category in association with the X-ray image of the article (S110 in FIG. 3B).

より詳しく説明すると、制御部11は、物品認識モデル16mで物品の画像認識を行った結果が所定の認識カテゴリ(変更履歴テーブル16qにおける「変更後」のカテゴリ)に該当する場合(S103:Yes)、次の処理を行う。すなわち、制御部11は、物品認識モデル16mとは異なる所定の認識カテゴリ判定モデル16nで画像認識を行った結果(S104)、この物品のカテゴリを候補カテゴリ(変更履歴テーブル16qにおける「変更前」のカテゴリ)とした場合の信頼度が認識カテゴリとした場合の信頼度よりも高いとき(S105:Yes)、この物品のカテゴリを認識カテゴリから候補カテゴリに変更する。そして、制御部11は、この候補カテゴリを物品のX線画像に対応付けて表示装置3に表示させる(S110)。 To explain in more detail, if the result of image recognition of the article using the article recognition model 16m falls under a predetermined recognition category (the "after change" category in the change history table 16q) (S103: Yes) , perform the following processing. That is, as a result of performing image recognition using a predetermined recognition category determination model 16n different from the article recognition model 16m (S104), the control unit 11 selects the category of this article as a candidate category (“before change” in the change history table 16q). When the reliability of the article is higher than the reliability of the recognition category (S105: Yes), the category of this article is changed from the recognition category to the candidate category. Then, the control unit 11 causes the display device 3 to display this candidate category in association with the X-ray image of the article (S110).

例えば、制御部11は、図示はしないが、X線画像上のssd34,35のそれぞれを矩形枠で囲み、物品の本来のカテゴリを示す「ssd」の文字を表示させるとともに、「usbメモリ」の文字をかっこ書きで表示させるようにしてもよい。これによって、ユーザ(検査員等)は、検査対象の物品がUSBメモリである可能性も考慮した上で検査を行うことができる。 For example, although not shown, the control unit 11 surrounds each of the SSDs 34 and 35 on the X-ray image with a rectangular frame, displays the characters "ssd" indicating the original category of the article, and displays the characters "usb memory". The characters may be displayed in parentheses. This allows the user (inspector, etc.) to perform the inspection while also considering the possibility that the item to be inspected is a USB memory.

また、ステップS105において、変更前のカテゴリの信頼度が、変更後のカテゴリの信頼度よりも高いものが存在しない場合(S105:No)、制御部11の処理は、図3BのステップS107に進む。また、ステップS103において物品のカテゴリの変更履歴がない場合にも(S103:No)、制御部11の処理は、図3BのステップS107に進む。 Further, in step S105, if there is no category whose reliability before change is higher than the reliability of the category after change (S105: No), the process of the control unit 11 proceeds to step S107 of FIG. 3B. . Further, even if there is no change history of the category of the article in step S103 (S103: No), the process of the control unit 11 proceeds to step S107 in FIG. 3B.

ステップS107において制御部11は、優先カテゴリ判定部16k(図2参照)によって、ステップS102で判別した物品のカテゴリの第2候補が所定の優先カテゴリとして登録されているか否かを判定する。このステップS107の処理で用いられる優先カテゴリテーブル16rについて、図7を用いて説明する。 In step S107, the control unit 11 causes the priority category determination unit 16k (see FIG. 2) to determine whether the second candidate for the article category determined in step S102 is registered as a predetermined priority category. The priority category table 16r used in the process of step S107 will be explained using FIG. 7.

図7は、優先カテゴリテーブル16rの例を示す説明図である。
図7に示す優先カテゴリテーブル16rは、所定の優先カテゴリ等が格納されたデータテーブルである。ここで、優先カテゴリとは、物品のカテゴリを表示装置3(図1参照)に表示する際の優先度が高いカテゴリであり、予め設定されている。X線荷物検査向けの物品認識は、主に所定の禁止物品を見つけることを目的として行われているが、物品のカテゴリによって禁止レベルが異なっていたり、荷物検査の運用ルールが異なっていたりする。また、物品の種類が多くなるほど、物品間の誤認識を生じやすくなる。
FIG. 7 is an explanatory diagram showing an example of the priority category table 16r.
The priority category table 16r shown in FIG. 7 is a data table in which predetermined priority categories and the like are stored. Here, the priority category is a category with a high priority when displaying the article category on the display device 3 (see FIG. 1), and is set in advance. Article recognition for X-ray baggage inspection is mainly performed for the purpose of finding certain prohibited items, but the level of prohibition differs depending on the category of the article, and the operational rules for baggage inspection differ. Furthermore, the more types of articles there are, the more likely it is that misrecognitions will occur between articles.

そこで、本実施形態では、物品の認識結果における第2候補のカテゴリが所定の優先カテゴリに該当し、その信頼度が所定値以上である場合には、その物品のカテゴリを優先カテゴリに変更した上で結果を出力するようにしている。これによって、X線手荷物検査における禁止物品の検査漏れ(見落とし)が生じることを抑制できる。なお、優先カテゴリには、所定の禁止物品が登録されることが多い。 Therefore, in this embodiment, if the second candidate category in the recognition result of an article corresponds to a predetermined priority category and its reliability is equal to or higher than a predetermined value, the category of the article is changed to the priority category and then I am trying to output the results with . As a result, it is possible to suppress the omission (oversight) of inspection of prohibited items in the X-ray baggage inspection. Note that predetermined prohibited items are often registered in the priority category.

図7に示す優先カテゴリテーブル16rに含まれる「認識カテゴリ」は、ステップS102(図3A参照)の認識結果であり、所定の「優先カテゴリ」や「条件」に対応付けられている。例えば、ステップ102の判別結果が「スマートフォン」であり、第2候補が「ルータ」である場合において、その信頼度が所定値以上であるときには、その物品のカテゴリを「スマートフォン」から「ルータ」(優先カテゴリ)に変更するようにしている。これによって、例えば、所定の禁止物品の一つとしてルータが指定されている場合、X線荷物検査でルータの検査漏れが生じることを抑制できる。 The "recognition category" included in the priority category table 16r shown in FIG. 7 is the recognition result of step S102 (see FIG. 3A), and is associated with a predetermined "priority category" and "condition". For example, if the determination result in step 102 is "smartphone" and the second candidate is "router", and the reliability is at least a predetermined value, the category of the item is changed from "smartphone" to "router" ( (priority category). As a result, for example, if a router is designated as one of the predetermined prohibited items, it is possible to prevent the router from being omitted during the X-ray baggage inspection.

図3BのステップS107において、物品のカテゴリの第2候補が優先カテゴリとして登録されている場合(S107:Yes)、制御部11の処理はステップS108に進む。ステップS108において制御部11は、優先カテゴリ判定部16k(図2参照)によって、物品のカテゴリの第2候補の信頼度が所定値以上であるか否かを判定する。なお、所定値は、物品のカテゴリを優先カテゴリに変更するか否かの判定基準となる信頼度の閾値であり、予め設定されている。ステップS108において、物品のカテゴリの第2候補の信頼度が所定値以上である場合(S108:Yes)、制御部11の処理はステップS109に進む。 In step S107 of FIG. 3B, if the second candidate for the article category is registered as the priority category (S107: Yes), the process of the control unit 11 proceeds to step S108. In step S108, the control unit 11 uses the priority category determination unit 16k (see FIG. 2) to determine whether the reliability of the second candidate for the article category is greater than or equal to a predetermined value. Note that the predetermined value is a reliability threshold that is a criterion for determining whether or not to change the category of the article to the priority category, and is set in advance. In step S108, if the reliability of the second candidate for the article category is equal to or greater than the predetermined value (S108: Yes), the process of the control unit 11 proceeds to step S109.

ステップS109において制御部11は、物品のカテゴリを所定の優先カテゴリに変更する。これによって、優先カテゴリとして登録されている禁止物品の見落としを抑制できる。なお、物品のカテゴリを第2候補のもの(優先カテゴリ)に変更しているため、場合によっては、物品のカテゴリが本来のものとは異なっている可能性もある。しかしながら、X線荷物検査は主に禁止物品を見つけるために行われるため、優先カテゴリへの変更でX線荷物検査の業務に支障が生じるおそれは特にない。 In step S109, the control unit 11 changes the category of the article to a predetermined priority category. This can prevent overlooked prohibited items registered as priority categories. Note that since the category of the article is changed to the second candidate (priority category), the category of the article may be different from the original category depending on the case. However, since X-ray baggage inspection is mainly performed to find prohibited items, there is no particular risk that the change to the priority category will hinder the work of X-ray baggage inspection.

ステップS109の処理を行った後、ステップS110において制御部11は、物品のカテゴリの判別結果を表示させる。物品のカテゴリを優先カテゴリに変更した場合には、X線画像上の物品に対応付けて、優先カテゴリを示す所定の文字が表示される。なお、優先カテゴリを示す文字の他、第1候補のカテゴリを示す所定の文字がかっこ書き等で併せて表示されるようにしてもよい。これによって、ユーザ(検査員等)は、物品のカテゴリが第1候補のものである可能性も考慮して検査を進めることができる。 After performing the process in step S109, in step S110, the control unit 11 displays the determination result of the article category. When the category of an article is changed to the priority category, predetermined characters indicating the priority category are displayed in association with the article on the X-ray image. In addition to the characters indicating the priority category, predetermined characters indicating the first candidate category may also be displayed in parentheses or the like. This allows the user (inspector, etc.) to proceed with the inspection while also considering the possibility that the category of the article is the first candidate.

なお、図3BのS108の処理(信頼度に関する判定処理)については、適宜に省略してもよい。また、物品のカテゴリを所定の優先カテゴリに変更する際の条件として、物品の認識結果における第2候補以下(第2候補、第3候補、第4候補、・・)のカテゴリが所定の優先カテゴリに該当しているという条件が用いられてもよい。すなわち、制御部11は、認識カテゴリ判定モデル16nで物品の画像認識を行った結果(S104)、この物品のカテゴリを候補カテゴリ(変更履歴テーブル16qにおける「変更前」のカテゴリ)とした場合の信頼度が認識カテゴリ(「変更後」のカテゴリ)とした場合の信頼度以下であり(S105:No)、さらに、物品認識モデル16mで物品の画像認識を行った結果における第2候補以下の順位のカテゴリが所定の優先カテゴリに該当する場合(S107:Yes)、この物品のカテゴリを優先カテゴリに変更する(S109)。そして、制御部11は、この優先カテゴリを物品のX線画像に対応付けて表示装置3に表示させる(S110)。 Note that the process of S108 in FIG. 3B (determination process regarding reliability) may be omitted as appropriate. In addition, as a condition when changing the category of an article to a predetermined priority category, the category of the second candidate or lower (second candidate, third candidate, fourth candidate, etc.) in the recognition result of the article must be a predetermined priority category. The condition that the following applies may be used. That is, as a result of image recognition of the article using the recognition category determination model 16n (S104), the control unit 11 determines the reliability when the category of this article is set as a candidate category (category "before change" in the change history table 16q). The reliability is lower than the reliability for the recognition category (“after change” category) (S105: No), and the ranking of the second candidate or lower in the result of image recognition of the article using the article recognition model 16m is If the category corresponds to a predetermined priority category (S107: Yes), the category of this article is changed to the priority category (S109). Then, the control unit 11 causes the display device 3 to display this priority category in association with the X-ray image of the article (S110).

また、優先カテゴリテーブル16r(図7参照)に含まれる優先カテゴリ、及び、優先カテゴリへの変更前の所定のカテゴリはいずれも、変更履歴テーブル16q(図5参照)に含まれる認識カテゴリ(「変更後」のカテゴリ)とは重複していないことが好ましい。これによって、ステップS106の処理でカテゴリが変更された物品が所定の優先カテゴリに該当しているか否かを確認する必要がなくなるため、処理の簡素化を図ることができる。 In addition, the priority category included in the priority category table 16r (see FIG. 7) and the predetermined category before being changed to the priority category are all the same as the recognized category ("changed") included in the change history table 16q (see FIG. 5). It is preferable that there is no overlap with the "after" category). This eliminates the need to check whether the article whose category has been changed in the process of step S106 corresponds to a predetermined priority category, thereby simplifying the process.

また、ステップS107において物品のカテゴリの第2候補が優先カテゴリとして登録されていない場合や(S107:No)、ステップS108において第2候補の信頼度が所定値未満である場合にも(S108:No)、制御部11の処理はステップS110に進む。この場合には、図3AのS102の処理結果である所定のカテゴリが、X線画像上の物品に対応付けて表示される。 Also, if the second candidate for the article category is not registered as a priority category in step S107 (S107: No), or if the reliability of the second candidate is less than the predetermined value in step S108 (S108: No). ), the process of the control unit 11 proceeds to step S110. In this case, a predetermined category, which is the processing result of S102 in FIG. 3A, is displayed in association with the article on the X-ray image.

次に、ステップS111において制御部11は、ユーザによる入力操作に基づいて、誤認識又は認識漏れの入力があったか否かを判定する。ステップS111において誤認識も認識漏れもなかった場合(S111:No)、制御部11は、一連の処理を終了する(END)。また、ステップS111において、誤認識又は認識漏れの入力があった場合(S111:Yes)、制御部11の処理はステップS112に進む。 Next, in step S111, the control unit 11 determines whether there is an input of misrecognition or omission of recognition based on the input operation by the user. If there is no misrecognition or omission of recognition in step S111 (S111: No), the control unit 11 ends the series of processing (END). Further, in step S111, if there is an input of misrecognition or omission of recognition (S111: Yes), the process of the control unit 11 proceeds to step S112.

ステップS112において制御部11は、誤認識又は認識漏れがあった物品を追加学習データ16v(図2参照)として登録する。すなわち、ユーザによる入力操作に基づいて、物品のカテゴリの誤認識又は認識漏れを訂正するように、所定の候補カテゴリ(変更履歴テーブル16qにおける「変更前」のカテゴリ)が物品に付与された場合、制御部11は、この物品のX線画像を追加学習データとして登録する。これによって、誤認識等が生じやすい追加学習データ16vを積極的に収集できる。誤認識や認識漏れついては、ユーザ(検査員等)によるディスプレイのタッチパネルやマウス等で対象の部分をクリック(例えば、誤認識の場合には2回クリック、認識漏れの場合には1回クリック)することで指定される。 In step S112, the control unit 11 registers the misrecognized or unrecognized article as additional learning data 16v (see FIG. 2). That is, when a predetermined candidate category (the "before change" category in the change history table 16q) is assigned to an article based on the user's input operation to correct misrecognition or omission of the article's category, The control unit 11 registers the X-ray image of this article as additional learning data. As a result, additional learning data 16v that is likely to cause misrecognition can be actively collected. In case of misrecognition or omission of recognition, the user (inspector, etc.) clicks on the target part using the display touch panel or mouse (for example, click twice in case of misrecognition, click once in case of omission of recognition). It is specified by

図8は、物品のカテゴリの判別結果を示す表示画面の一例である。
図8の例では、認識された物品の画面上の位置を示す破線の矩形枠F1,F2と、物品のカテゴリを示す所定の文字と、が表示される。また、物品のカテゴリが変更された場合(図3AのS106、図3BのS109)には、変更前のカテゴリと、変更後のカテゴリ名を併記するようにするとよい。すなわち、制御部11が、物品の認識カテゴリを所定の候補カテゴリに変更した場合、この物品の候補カテゴリを示す所定の文字と、この物品の認識カテゴリを示す別の文字と、を物品のX線画像に対応付けて併記することが好ましい。なお、前記した候補カテゴリは、所定の優先カテゴリであってもよい。
FIG. 8 is an example of a display screen showing the classification result of the article category.
In the example of FIG. 8, broken rectangular frames F1 and F2 indicating the position of the recognized article on the screen and predetermined characters indicating the category of the article are displayed. Further, when the category of the article is changed (S106 in FIG. 3A, S109 in FIG. 3B), it is preferable to write the category name before the change and the category name after the change. That is, when the control unit 11 changes the recognition category of an article to a predetermined candidate category, a predetermined character indicating the candidate category of this article and another character indicating the recognition category of this article are changed to the X-ray of the article. It is preferable to write it in association with the image. Note that the aforementioned candidate category may be a predetermined priority category.

図8の例では、物品の本来のカテゴリ(つまり、候補カテゴリ)を示す「!タブレット」という文字が物品のX線画像に対応付けて表示されるとともに、「!タブレット」に変更する前の「スマートフォン」(つまり、認識カテゴリ)という文字がかっこ書きで表示されている。これによって、ユーザ(検査員等)は、物品がスマートフォンである可能性も考慮して検査を進めることができる。なお、「タブレット」という文字の前の感嘆符「!」は、所定の禁止物品であることを示している。 In the example of FIG. 8, the characters "!Tablet" indicating the original category (that is, candidate category) of the article are displayed in association with the X-ray image of the article, and the characters "!Tablet" before changing to "!Tablet" are displayed in association with the X-ray image of the article. The words "smartphone" (that is, the recognition category) are displayed in parentheses. This allows the user (inspector, etc.) to proceed with the inspection while also considering the possibility that the article is a smartphone. Note that the exclamation mark "!" in front of the word "tablet" indicates that it is a prescribed prohibited item.

図9は、物品の正しいカテゴリの選択ボタンB1を含む表示画面の一例である。
例えば、図9に示すように、スプレー缶の付近にカテゴリが不明の物品を認識した場合、制御部11は、候補となる複数のカテゴリの中からユーザが正しいカテゴリを選ぶための選択ボタンB1を表示させる。図9の例では、候補となる複数のカテゴリとして、「カッター」、「ナイフ」、「ハサミ」、「バッテリ」、「スプレー」、及び「毛染め」といった禁止物品の種類が表示されている。そして、ユーザ(検査員等)は、荷物を開けてスプレー缶の付近の物品を目視で確認するなどして、所定の選択ボタンB1をクリックする。これによって、X線画像上の物品の位置(座標)と、物品の正しいカテゴリと、が追加学習データ16v(図2参照)として登録される。
FIG. 9 is an example of a display screen including a button B1 for selecting the correct category of articles.
For example, as shown in FIG. 9, when an article of unknown category is recognized near a spray can, the control unit 11 presses the selection button B1 for the user to select the correct category from among a plurality of candidate categories. Display. In the example of FIG. 9, types of prohibited articles such as "cutter,""knife,""scissors,""battery,""spray," and "hair dye" are displayed as a plurality of candidate categories. Then, the user (inspector, etc.) opens the package, visually checks the items near the spray can, and then clicks a predetermined selection button B1. As a result, the position (coordinates) of the article on the X-ray image and the correct category of the article are registered as additional learning data 16v (see FIG. 2).

なお、制御部11は、物品のカテゴリを認識カテゴリ(変更履歴テーブル16qにおける「変更後」のカテゴリ)から候補カテゴリ(「変更前」のカテゴリ)に変更した場合において(図3AのS106)、この物品のX線画像を物品認識モデル16mの次回の追加学習で用いるときには、この物品のX線画像に認識カテゴリを対応付けるようにするとよい。これによって、X線画像上の見た目が似ているものをひとまとまりで学習できるため、物品認識モデル16mの精度を高めることができる。 Note that when changing the category of the article from the recognized category (the “after change” category in the change history table 16q) to the candidate category (the “before change” category) (S106 in FIG. 3A), the control unit 11 When using an X-ray image of an article in the next additional learning of the article recognition model 16m, it is preferable to associate a recognition category with the X-ray image of this article. As a result, items that look similar on the X-ray images can be learned as a group, so that the accuracy of the article recognition model 16m can be improved.

また、制御部11は、物品のカテゴリを認識カテゴリ(優先カテゴリテーブル16rにおける「認識カテゴリ」)から優先カテゴリに変更した場合において(図3BのS109)、この物品のX線画像を物品認識モデル16mの次回の追加学習で用いるときには、この物品のX線画像に認識カテゴリを対応付けるようにしてもよい。これによって、X線画像上の見た目が似ているものをひとまとまりで学習できるため、物品認識モデル16mで物品を認識する際の精度が高められる。 Furthermore, when the category of the article is changed from the recognition category ("recognition category" in the priority category table 16r) to the priority category (S109 in FIG. 3B), the control unit 11 converts the X-ray image of the article into the article recognition model 16m. When used in the next additional learning, the recognition category may be associated with the X-ray image of this item. As a result, objects that look similar on the X-ray images can be learned as a group, thereby increasing the accuracy when recognizing objects using the object recognition model 16m.

また、制御部11は、物品のX線画像に基づいて、この物品のカテゴリを判別した場合において(S102)、この物品のカテゴリの誤認識又は認識漏れがユーザによる入力操作で訂正されなかったときには(S111:No)、この物品のX線画像と物品のカテゴリとを対応付けて、追加学習データとして登録するようにしてもよい。これによって、物品に正しいカテゴリが対応付けられたデータを追加学習に用いることができる。図3BのステップS112の処理を行った後、制御部11は、一連の処理を終了する(END)。なお、図3A、図3Bに示す一連の処理は、X線画像が取得されるたびに行われる。 Further, when the control unit 11 determines the category of the article based on the X-ray image of the article (S102), if the misrecognition or omission of the category of the article is not corrected by the input operation by the user, (S111: No), the X-ray image of this item and the category of the item may be associated with each other and registered as additional learning data. Thereby, data in which correct categories are associated with articles can be used for additional learning. After performing the process of step S112 in FIG. 3B, the control unit 11 ends the series of processes (END). Note that the series of processes shown in FIGS. 3A and 3B are performed every time an X-ray image is acquired.

<追加学習に関する処理>
図10Aは、X線画像処理システムが適用されるX線画像処理装置の追加学習に関する処理のフローチャートである。
図10AのステップS201において制御部11は、学習カテゴリ選定部16d(図2参照)によって、補助記憶部16(図2参照)から追加学習データ16v(図2参照)を読み出す。前記したように、物品の誤認識や認識漏れに関するデータがユーザ(検査員等)の入力操作によって登録され(図3BのS111:Yes、S112)、追加学習データ16v(図2参照)として蓄積される。このように蓄積された追加学習データ16vに基づいて、物品認識モデル16m等(図2参照)の追加学習が行われる。
<Processing related to additional learning>
FIG. 10A is a flowchart of processing related to additional learning of the X-ray image processing apparatus to which the X-ray image processing system is applied.
In step S201 of FIG. 10A, the control unit 11 reads additional learning data 16v (see FIG. 2) from the auxiliary storage unit 16 (see FIG. 2) using the learning category selection unit 16d (see FIG. 2). As described above, data regarding misrecognition or omission of recognition of articles is registered through input operations by users (inspectors, etc.) (S111: Yes, S112 in FIG. 3B), and is accumulated as additional learning data 16v (see FIG. 2). Ru. Based on the additional learning data 16v accumulated in this way, additional learning of the article recognition model 16m and the like (see FIG. 2) is performed.

なお、追加学習データ16vについては、ユーザの入力操作に基づいて、物品のカテゴリの正解付けが行われているものとする。このような正解付けのカテゴリを「ラベル」ともいう。追加学習データ16vの正解付けでは、ユーザが入力操作でクリックした位置の座標に基づいて、物品の輪郭を推定する「Interactive Segmentation」という方法が適宜に用いられる。また、X線画像向けに事前学習を行った所定の輪郭推定用モデル(図示せず)と、ユーザの入力操作で指定された物品の位置(座標)と、に基づいて、制御部11が物品の領域を推定するようにしてもよい。そして、制御部11の推定結果が誤っているものについては、ユーザの入力操作で正解付けが行われるようにしてもよい。 As for the additional learning data 16v, it is assumed that the correct category of the article has been assigned based on the user's input operation. This type of correct answer category is also called a "label." In determining the correct answer for the additional learning data 16v, a method called "Interactive Segmentation" is used as appropriate to estimate the contour of the article based on the coordinates of the position clicked by the user in an input operation. Further, the control unit 11 controls the position of the object based on a predetermined contour estimation model (not shown) that has been trained in advance for X-ray images and the position (coordinates) of the object specified by the user's input operation. The area may be estimated. If the estimation result of the control unit 11 is incorrect, the correct answer may be determined by the user's input operation.

次に、ステップS202において制御部11は、物品認識部16b(図2参照)によって、追加学習データ16vにおける物品のカテゴリを判別する。なお、ステップS202の処理では、物品のカテゴリの判別に用いられる信頼度の閾値が、図3AのステップS102で用いられる信頼度の閾値よりも低い値に設定される。これによって、物品認識(S102)の際には挙げられなかった所定のカテゴリが導出されやすくなる。 Next, in step S202, the control unit 11 uses the article recognition unit 16b (see FIG. 2) to determine the category of the article in the additional learning data 16v. Note that in the process of step S202, the reliability threshold used to determine the category of the article is set to a lower value than the reliability threshold used in step S102 of FIG. 3A. This makes it easier to derive a predetermined category that was not listed during article recognition (S102).

また、ステップS202の処理を行う際、制御部11が、重なり・正面判定部16f(図2参照)によって、正解付けされた物品の領域に他の物品が写り込んでいないか、また、物品が正面から写っているか否かを判定し、物品認識の信頼性の判断材料に用いるようにしてもよい。重なり・正面判定部16fの処理には、次に説明する重なり・正面判定用テーブル16sが適宜に用いられる。 In addition, when performing the process of step S202, the control unit 11 determines whether or not another article is reflected in the area of the article that has been correctly assigned by the overlap/frontal determination unit 16f (see FIG. 2). It may be determined whether the image is taken from the front and used as a basis for determining the reliability of article recognition. An overlap/front view determination table 16s, which will be described next, is used as appropriate for the processing of the overlap/front view determination unit 16f.

図11は、重なり・正面判定用テーブル16sの例を示す説明図である。
図11に示す重なり・正面判定用テーブル16sには、カテゴリ欄と、面積欄と、長辺最大値欄と、透過量平均値欄と、透過量下限値欄と、金属類比率欄と、有機物比率欄と、が含まれている。カテゴリ欄には、物品の本来の種類を示すカテゴリ(正解)のデータが格納されている。また、カテゴリ欄の物品がX線画像上で他の物品に重なっていないと判定される際の基準となる物品の面積(画素数)が面積欄に格納されている他、物品の長辺最大値(画素数)が長辺最大値欄に格納されている。
FIG. 11 is an explanatory diagram showing an example of the overlap/front view determination table 16s.
The overlap/frontal determination table 16s shown in FIG. 11 includes a category column, an area column, a long side maximum value column, a permeation amount average value column, a permeation amount lower limit value column, a metal ratio column, and an organic matter column. Contains a ratio column. The category column stores category (correct answer) data indicating the original type of the article. In addition, the area (number of pixels) of the item, which is the standard when determining that the item in the category column does not overlap with other items on the X-ray image, is stored in the area column, as well as the maximum The value (number of pixels) is stored in the long side maximum value column.

また、カテゴリ欄の物品がX線画像上で他の物品に重なっていないと判定される際の基準となるX線の透過量平均値が透過量平均値欄に格納されている他、X線の透過量下限値が透過量下限値欄に格納されている。さらに、カテゴリ欄の物品がX線画像上で他の物品に重なっていないと判定される際の基準となるX線画像上での金属類比率が金属類比率欄に格納されている他、X線画像上での有機物比率が有機物比率欄に格納されている。 In addition, the average amount of X-ray transmission, which is the standard when determining that the item in the category column does not overlap with other items on the X-ray image, is stored in the average amount of X-ray transmission. The transmission amount lower limit value of is stored in the transmission amount lower limit value column. Furthermore, the metal ratio on the X-ray image, which is the standard when determining that the item in the category column does not overlap with other items on the X-ray image, is stored in the metal ratio column. The organic matter ratio on the line image is stored in the organic matter ratio column.

次に、図10AのステップS203において制御部11は、ステップS202での物品認識における信頼度が所定値以上であるか否かを判定する。前記した所定値は、ユーザ(検査員等)への再確認を行うか否かの判定基準となる閾値であり、予め設定されている。ステップS203において信頼度が所定値以上である場合(S203:Yes)、制御部11の処理はステップS204に進む。 Next, in step S203 of FIG. 10A, the control unit 11 determines whether the reliability in the article recognition in step S202 is greater than or equal to a predetermined value. The predetermined value described above is a threshold value that serves as a criterion for determining whether or not to reconfirm with the user (inspector, etc.), and is set in advance. If the reliability is equal to or greater than the predetermined value in step S203 (S203: Yes), the process of the control unit 11 proceeds to step S204.

ステップS204において制御部11は、学習カテゴリ選定部16dによって、物品の画像認識に基づくカテゴリがラベルに一致しているか否かを判定する。前記したように、「ラベル」とは、物品に対してユーザが正解付けしたカテゴリ(本来のカテゴリ)である。物品のカテゴリがラベルに一致している場合(S204:Yes)、制御部11の処理はステップS205に進む。 In step S204, the control unit 11 uses the learning category selection unit 16d to determine whether the category based on the image recognition of the article matches the label. As described above, the "label" is the category (original category) that the user has correctly assigned to the article. If the category of the article matches the label (S204: Yes), the process of the control unit 11 proceeds to step S205.

ステップS205において制御部11は、学習データ16t(図2参照)を更新する。つまり、制御部11は、追加学習データ16vである物品のX線画像に、その物品のカテゴリ(S202の判別結果)を対応付けたものを学習データ16tとして追加登録する。
また、ステップS204において、物品の画像認識に基づくカテゴリがラベルに一致していない場合(S204:No)、制御部11の処理はステップS206に進む。
In step S205, the control unit 11 updates the learning data 16t (see FIG. 2). That is, the control unit 11 additionally registers the X-ray image of the article, which is the additional learning data 16v, in association with the category of the article (the determination result of S202) as the learning data 16t.
Further, in step S204, if the category based on image recognition of the article does not match the label (S204: No), the process of the control unit 11 proceeds to step S206.

ステップS206において制御部11は、物品のカテゴリを変更する。つまり、物品の画像認識に基づくカテゴリを、ラベル(ユーザの入力操作に基づく正解付け)で特定されたカテゴリから、ステップS202の認識結果に基づくカテゴリに変更する。物品認識モデル16mの学習では、X線画像上での見た目が似通っているカテゴリをひとまとまりにした方が物品認識の高精度化につながるからである。 In step S206, the control unit 11 changes the category of the article. That is, the category based on the image recognition of the article is changed from the category specified by the label (correct answer based on the user's input operation) to the category based on the recognition result in step S202. This is because, in the learning of the article recognition model 16m, it is better to group together categories that have similar appearance on the X-ray image, which leads to higher accuracy in article recognition.

なお、図10Aでは記載を省略しているが、物品のカテゴリを変更した場合、変更履歴管理部16e(図2参照)は、変更前・変更後のカテゴリを変更履歴テーブル16q(図5参照)に登録する。また、変更頻度(所定期間での変更回数)が所定値未満である場合には、制御部11が変更のレアケースと判定して、後記するステップS209と同様、ユーザへの確認を行うようにしてもよい。 Although not shown in FIG. 10A, when the category of an article is changed, the change history management unit 16e (see FIG. 2) stores the categories before and after the change in the change history table 16q (see FIG. 5). Register. Further, if the change frequency (the number of changes in a predetermined period) is less than a predetermined value, the control unit 11 determines that the change is a rare case, and checks the user as in step S209, which will be described later. You can.

このように、制御部11は、物品の画像認識に用いる物品認識モデル16m(図2参照)の追加学習を行う際、X線画像上の物品のカテゴリを、所定の候補カテゴリ(変更履歴テーブル16qにおける「変更前」のカテゴリ)から所定の認識カテゴリ(「変更後」のカテゴリ)に変更した履歴を示す変更履歴テーブル16q(図5参照)を生成する。このような変更履歴テーブル16qを用いることで、物品のカテゴリの誤認識を抑制できる。 In this manner, when performing additional learning of the article recognition model 16m (see FIG. 2) used for image recognition of articles, the control unit 11 changes the category of the article on the X-ray image to a predetermined candidate category (change history table 16q). A change history table 16q (see FIG. 5) is generated that shows the history of changes from the "before change" category (category "before change") to a predetermined recognition category (category "after change"). By using such a change history table 16q, misrecognition of article categories can be suppressed.

次に、図10AのステップS207において制御部11は、学習データ16t(図2参照)を更新する。すなわち、制御部11は、変更後の物品のカテゴリを物品認識モデル16m(図2参照)の学習データ16tに追加登録する。図6Bの例(物品認識モデル16mの学習に関する説明図)では、X線画像上の見た目がUSBメモリに似ているSSD34,35のカテゴリの正解を「USBメモリ」として、物品認識モデル16mの追加学習が行われる。これによって、X線画像上の見た目で物品のカテゴリを判別する際の精度が高められる。 Next, in step S207 of FIG. 10A, the control unit 11 updates the learning data 16t (see FIG. 2). That is, the control unit 11 additionally registers the changed article category in the learning data 16t of the article recognition model 16m (see FIG. 2). In the example of FIG. 6B (explanatory diagram regarding learning of the article recognition model 16m), the correct answer for the category of SSDs 34 and 35 that look similar to USB memory on the X-ray image is set as "USB memory", and the article recognition model 16m is added. Learning takes place. This increases the accuracy when determining the category of an article based on its appearance on the X-ray image.

次に、ステップS208において制御部11は、カテゴリ判定用学習データ16u(図2参照)を更新する。図6Cの例では、X線画像上の見た目がUSBメモリに似通っているSSD34,35のカテゴリの「SSD」とした上で、カテゴリ判定用学習データ16uが更新される。前記したように、カテゴリ判定用学習データ16uは、認識カテゴリ判定モデル16nの学習に用いられる(図10BのS214)。 Next, in step S208, the control unit 11 updates the category determination learning data 16u (see FIG. 2). In the example of FIG. 6C, the category determination learning data 16u is updated after setting the SSDs 34 and 35 whose appearance on the X-ray image resembles a USB memory as the category "SSD". As described above, the category determination learning data 16u is used for learning the recognition category determination model 16n (S214 in FIG. 10B).

また、ステップS203において信頼度が所定値未満である場合(S203:No)、制御部11の処理は、図10BのステップS209に進む。ステップS209において制御部11は、ユーザ(検査員等)への再確認を行う(1回目の確認は、図3BのS111)。すなわち、制御部11は、画面表示部16g(図2参照)によって、ユーザへの確認画面を表示させる。物品のカテゴリが正しくない場合には、ユーザの入力操作基づいて、所定のラベル(カテゴリ)が適宜に入力される。 Further, if the reliability is less than the predetermined value in step S203 (S203: No), the process of the control unit 11 proceeds to step S209 in FIG. 10B. In step S209, the control unit 11 reconfirms the user (inspector, etc.) (the first confirmation is S111 in FIG. 3B). That is, the control unit 11 causes the screen display unit 16g (see FIG. 2) to display a confirmation screen for the user. If the category of the article is incorrect, a predetermined label (category) is appropriately input based on the user's input operation.

ステップS210において制御部11は、学習データ16t(図2参照)を更新する。例えば、ユーザへの再確認で所定のラベル(カテゴリ)が入力された場合には、このラベルを物品のカテゴリとして、学習データ16tが更新される。 In step S210, the control unit 11 updates the learning data 16t (see FIG. 2). For example, if a predetermined label (category) is input for reconfirmation with the user, the learning data 16t is updated using this label as the category of the article.

なお、前記した重なり・正面判定部16f(図2参照)による判定(図10AのS202に付随する処理)で、物品の撮影条件が悪いと判定された場合も、ステップS209と同様に、検査員への確認画面を表示させるようにしてもよい。例えば、物品が大きく傾いた状態で撮影されていたり、密度の大きい他の物品と重なっていたりした場合には、誤認識が生じる可能性があるからである。
また、図10AのステップS202の判別結果が所定の優先カテゴリに該当する場合には、運用上のリスクを考慮して、ステップS209と同様にユーザへの再確認を行うようにしてもよい。
Note that even if it is determined that the photographing conditions of the article are poor in the determination by the overlap/frontal determination unit 16f (see FIG. 2) (processing accompanying S202 in FIG. 10A), the inspector A confirmation screen may be displayed. For example, if an article is photographed in a highly tilted state or if it overlaps with another article with a large density, erroneous recognition may occur.
Furthermore, if the determination result in step S202 of FIG. 10A falls under a predetermined priority category, the user may be reconfirmed in the same manner as step S209, taking operational risks into consideration.

図10AのステップS205、S208、又は図10BのステップS210の処理を行った後、制御部11の処理はステップS211に進む。ステップS211において制御部11は、追加学習データ16vの読み出しが終了したか否かを判定する。すなわち、制御部11は、補助記憶部16(図2参照)に蓄積されている新たな追加学習データ16vの全てを読み出したか否かを判定する。ステップS211において追加学習データ16vの読み出しが終了していない場合(S211:No)、制御部11の処理は、図10AのステップS201に戻る。また、ステップS211において追加学習データ16vの読み出しが終了した場合(S211:Yes)、制御部11の処理はステップS212に進む。 After performing steps S205 and S208 in FIG. 10A or step S210 in FIG. 10B, the process of the control unit 11 proceeds to step S211. In step S211, the control unit 11 determines whether reading of the additional learning data 16v has been completed. That is, the control unit 11 determines whether all of the new additional learning data 16v stored in the auxiliary storage unit 16 (see FIG. 2) has been read out. If the reading of the additional learning data 16v is not completed in step S211 (S211: No), the process of the control unit 11 returns to step S201 of FIG. 10A. Moreover, when reading of the additional learning data 16v is completed in step S211 (S211: Yes), the process of the control unit 11 proceeds to step S212.

ステップS212において制御部11は、物品学習部16c(図2参照)によって、物品認識モデル16mを学習する。すなわち、物品学習部16cは、図10AのステップS205やS207の他、図10BのステップS210の更新後の学習データ16tに基づいて、物品認識モデル16mを学習する。より詳しく説明すると、制御部11は、追加学習における物品の画像認識の信頼度が所定値以上である場合において(図10AのS203:Yes)、この物品の認識カテゴリが所定の候補カテゴリ(ユーザの入力操作に基づくラベル)とは異なっているとき(S204:No)、次の処理を行う。すなわち、制御部11は、この物品のカテゴリを候補カテゴリから認識カテゴリに変更した上で、物品の画像認識に用いる物品認識モデル16mを生成する(図10BのS212)。物品認識モデル16mの学習には、例えば「Instance Segmentation」や「Object Detection」の学習方式が用いられる。 In step S212, the control unit 11 uses the article learning unit 16c (see FIG. 2) to learn the article recognition model 16m. That is, the article learning unit 16c learns the article recognition model 16m based on the updated learning data 16t in step S210 in FIG. 10B in addition to steps S205 and S207 in FIG. 10A. To explain in more detail, when the reliability of image recognition of an article in additional learning is equal to or higher than a predetermined value (S203 in FIG. If the label is different from the label based on the input operation (S204: No), the following process is performed. That is, the control unit 11 changes the category of this article from a candidate category to a recognition category, and then generates an article recognition model 16m to be used for image recognition of the article (S212 in FIG. 10B). For example, a learning method such as "Instance Segmentation" or "Object Detection" is used for learning the article recognition model 16m.

次に、ステップS213において制御部11は、学習カテゴリ選定部16d(図2参照)によって、カテゴリ判定用学習データ16u(図2参照)を再選定する。前記したように、カテゴリ判定用学習データ16uとは、認識カテゴリ判定モデル16n(図2参照)の学習に用いられるデータである。図6Cの例では、X線画像上の見た目がUSBメモリに似通っているSSD34,35のカテゴリを「SSD」とし、本来のUSBメモリ41~45のカテゴリを「USBメモリ」とした上で、認識カテゴリ判定モデル16nが学習される。これによって、X線画像上の見た目がUSBメモリに似通っているSSD34,35と、USBメモリ41~45とを判別する際の精度が高められる。 Next, in step S213, the control unit 11 causes the learning category selection unit 16d (see FIG. 2) to reselect the category determination learning data 16u (see FIG. 2). As described above, the category determination learning data 16u is data used for learning the recognition category determination model 16n (see FIG. 2). In the example of FIG. 6C, the category of SSDs 34 and 35, which look similar to USB memories on the A category determination model 16n is trained. This improves the accuracy when distinguishing between the SSDs 34 and 35, which look similar to USB memories on an X-ray image, and the USB memories 41 to 45.

なお、カテゴリの変更が行われていない物品については、認識カテゴリ判定モデル16nの学習対象にする必要は特にない。例えば、図6Aに示す典型的な形状のSSD31~33といったものについては、認識カテゴリ判定モデル16nの学習には特に用いられない。認識カテゴリ判定モデル16nは、見た目が他の物品に似通っているような物品の判別に特化したモデルだからである。 Note that there is no particular need to make the recognition category determination model 16n a learning target for articles whose category has not been changed. For example, the typical shaped SSDs 31 to 33 shown in FIG. 6A are not particularly used for learning the recognition category determination model 16n. This is because the recognition category determination model 16n is a model specialized for determining articles that look similar to other articles.

次に、ステップS214において制御部11は、物品学習部16c(図2参照)によって、認識カテゴリ判定モデル16n(図2参照)を学習する。すなわち、物品学習部16cは、ステップS213で再選定したカテゴリ判定用学習データ16uに基づいて、認識カテゴリ判定モデル16nを生成する。なお、制御部11は、追加学習において認識カテゴリ判定モデル16uを生成する際、認識カテゴリと候補カテゴリ(ユーザの運用上のカテゴリ)とが異なる物品については、その物品のX線画像に候補カテゴリを対応つける(図6C参照)。認識カテゴリ判定モデル16nは、物品のカテゴリを判別する際のステップS104(図3A参照)の処理に用いられる。ステップS214の処理を行った後、制御部11は、一連の処理を終了する(END)。 Next, in step S214, the control unit 11 uses the article learning unit 16c (see FIG. 2) to learn the recognition category determination model 16n (see FIG. 2). That is, the article learning unit 16c generates the recognition category determination model 16n based on the category determination learning data 16u reselected in step S213. Note that when generating the recognition category determination model 16u in additional learning, the control unit 11 adds the candidate category to the X-ray image of the article for articles whose recognition category and candidate category (user operational category) are different. Make a correspondence (see FIG. 6C). The recognition category determination model 16n is used in the process of step S104 (see FIG. 3A) when determining the category of the article. After performing the process of step S214, the control unit 11 ends the series of processes (END).

<効果>
本実施形態によれば、制御部11は、ユーザ(検査員等)の入力操作で付与された物品のカテゴリを、X線画像上で見た目が似通っている他の物品のカテゴリに変更した上で追加学習を行う。これによって、X線画像上の見た目に基づいて物品のカテゴリを判別する際の精度が高められる。具体的には、所定のカテゴリの物品(例えば、図6BのSSD34,35)が珍しい形状をしていたり、また、例外的な形状をしている場合、典型的な形状のもの(例えば、図6BのSSD31~33)とは区別した上で追加学習を行うことで、物品認識を行う際の精度が高められる。
<Effect>
According to the present embodiment, the control unit 11 changes the category of the article assigned by the input operation of the user (inspector, etc.) to the category of another article that looks similar on the X-ray image, and then Do additional learning. This increases the accuracy in determining the category of the article based on its appearance on the X-ray image. Specifically, if an article of a predetermined category (for example, SSDs 34 and 35 in FIG. By performing additional learning after distinguishing from the 6B SSDs 31 to 33), the accuracy when recognizing objects can be improved.

また、X線画像処理装置1の制御部11は、ユーザ(検査員等)が付与したカテゴリでなく、X線画像の見た目に基づくカテゴリに変更した上で学習を行い、物品の認識結果を表示する際には、変更前のカテゴリに戻した上で表示する。これによって、制御部11は物品認識を高精度に行いつつ、ユーザの運用に沿ったカテゴリを表示させることができる。また、制御部11は、X線画像上の見た目が他のカテゴリの物品に似通っているものを対象に認識カテゴリ判定モデル16nを学習する。これによって、ユーザの運用に沿ったカテゴリを物品のX線画像に対応付けて表示できる。 In addition, the control unit 11 of the X-ray image processing device 1 performs learning after changing the category to a category based on the appearance of the X-ray image, rather than the category assigned by the user (inspector, etc.), and displays the recognition result of the article. When changing the category, it is displayed after returning to the category before the change. Thereby, the control unit 11 can perform article recognition with high precision and display categories that match the user's operations. Furthermore, the control unit 11 learns the recognition category determination model 16n for objects whose appearance on the X-ray image is similar to articles of other categories. As a result, categories that match the user's operations can be displayed in association with the X-ray image of the article.

また、物品の認識結果の第2候補が所定の優先カテゴリに該当するる場合、物品のカテゴリが優先カテゴリに変更される。これによって、所定の禁止物品等の検査漏れが生じるリスクを低減できる。このように、本実施形態によれば、X線画像に基づいて物品を適切に判別するX線画像処理システム100等を提供できる。 Further, when the second candidate of the recognition result of the article corresponds to a predetermined priority category, the category of the article is changed to the priority category. This can reduce the risk of omission of inspection of certain prohibited items. As described above, according to the present embodiment, it is possible to provide an X-ray image processing system 100 and the like that appropriately discriminates articles based on X-ray images.

≪変形例≫
以上、本発明に係るX線画像処理システム100等について各実施形態で説明したが、本発明はこれらの記載に限定されるものではなく、種々の変更を行うことができる。
例えば、実施形態では、X線画像処理装置1の制御部11が物品のカテゴリを判別する際、図3AのステップS103~S106の処理を行う場合について説明したが、これらの処理(S103~S106)を適宜に省略してもよい。すなわち、図3AのステップS102において制御部11が物品のカテゴリを判別した後、図3BのステップS107の処理で物品のカテゴリの第2候補が優先カテゴリとして登録されているか否かを判定するようにしてもよい。つまり、制御部11が、物品を画像認識を行った結果における第2候補以下の順位のカテゴリが所定の優先カテゴリ(候補カテゴリ)に該当する場合、この物品のカテゴリを優先カテゴリに変更し、この優先カテゴリを物品のX線画像に対応付けて表示装置3に表示させるようにしてもよい。このような処理でも、物品のカテゴリが所定の優先カテゴリに変更されることで、ユーザの運用に沿った処理を行うことができる。
≪Modification example≫
Although the X-ray image processing system 100 and the like according to the present invention have been described above in each embodiment, the present invention is not limited to these descriptions, and various changes can be made.
For example, in the embodiment, a case has been described in which the control unit 11 of the X-ray image processing apparatus 1 performs the processes of steps S103 to S106 in FIG. 3A when determining the category of the article, but these processes (S103 to S106) may be omitted as appropriate. That is, after the control unit 11 determines the category of the article in step S102 of FIG. 3A, it is determined in the process of step S107 of FIG. 3B whether the second candidate for the article category is registered as a priority category. You can. In other words, when the category ranked lower than the second candidate in the result of image recognition of the article corresponds to a predetermined priority category (candidate category), the control unit 11 changes the category of this article to the priority category, and changes the category of this article to the priority category. The priority category may be displayed on the display device 3 in association with the X-ray image of the article. Even in such processing, by changing the category of the article to a predetermined priority category, processing can be performed in accordance with the user's operation.

また、実施形態では、X線画像処理装置1の制御部11が物品のカテゴリを判別する際、図3BのステップS107~S109の処理(優先カテゴリへの変更等)を行う場合について説明したが、これらの処理(S107~S109)を省略してもよい。このような場合でも、X線画像処理装置1がX線画像上の見た目に基づいて、物品のカテゴリを高精度で判別できる。 Furthermore, in the embodiment, a case has been described in which the control unit 11 of the X-ray image processing device 1 performs the processes of steps S107 to S109 in FIG. 3B (change to priority category, etc.) when determining the category of the article. These processes (S107 to S109) may be omitted. Even in such a case, the X-ray image processing device 1 can determine the category of the article with high accuracy based on the appearance on the X-ray image.

また、実施形態では、各機能部のプログラムや各テーブルといったデータが補助記憶部16(図2参照)に格納される場合について説明したが、前記したデータの少なくとも一部がメモリ12(図2参照)に格納されるようにしてもよい。
また、制御部11(図2参照)が実行するプログラムの一部又は全てのデータが、リムーバブルメディア(CD-ROM、フラッシュメモリ等)からネットワークを介して、又は外部計算機からネットワークを介して、X線画像処理装置1に提供され、そのデータが補助記憶部16に格納されるようにしてもよい。この場合において、X線画像処理装置1がリムーバブルメディア等からデータを読み込むインターフェースを備えるようにしてもよい。
Further, in the embodiment, a case has been described in which data such as programs of each functional unit and each table are stored in the auxiliary storage unit 16 (see FIG. 2). ).
In addition, part or all of the data of the program executed by the control unit 11 (see FIG. 2) may be transferred from a removable medium (CD-ROM, flash memory, etc.) via the network or from an external computer via the The data may be provided to the line image processing device 1 and stored in the auxiliary storage section 16. In this case, the X-ray image processing apparatus 1 may be provided with an interface for reading data from a removable medium or the like.

また、図2の各機能部で実現される機能の少なくとも一部が、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等のハードウェアによって実現されるようにしてもよい。
また、実施形態において、X線画像処理装置1で用いられる情報は、データ構造には特に依存しておらず、例えば、テーブル、リスト、データベース、及びキューから適宜に選択されたデータ構造が用いられてもよい。
Moreover, at least a part of the functions realized by each functional unit in FIG. 2 may be realized by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
Furthermore, in the embodiment, the information used by the X-ray image processing device 1 does not particularly depend on the data structure, and for example, a data structure appropriately selected from a table, list, database, and queue may be used. You can.

また、実施形態で説明したX線画像処理装置1の機能を複数のコンピュータ(例えば、サーバ)に分散させるようにしてもよい。この場合において、複数のコンピュータで構築された仮想的なコンピュータ上で所定の処理が実行されるようにしてもよい。
また、実施形態では、X線を用いた撮影が行われる場合について説明したが、物品を透過して撮影できる電磁波であれば、例えば、テラヘルツ波といった他の電磁波が用いられるようにしてもよい。
Further, the functions of the X-ray image processing apparatus 1 described in the embodiment may be distributed to multiple computers (for example, servers). In this case, the predetermined process may be executed on a virtual computer constructed from a plurality of computers.
Further, in the embodiment, a case has been described in which imaging is performed using X-rays, but other electromagnetic waves such as terahertz waves may be used as long as they can penetrate the article and take images.

また、実施形態で説明したX線画像処理装置1の構成や機能(X線画像処理方法)を実現するプログラムの全部又は一部を集積回路で設計する等によりハードウェアで実現してもよい。前記したハードウェアには、サーバ(図示せず)等の一つ又は複数のコンピュータが含まれる。また、実施形態で説明した構成や機能は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報が、メモリやハードディスクの他、SSD(Solid State Drive)等の記録装置、又はICカード、SDカード、CD-ROM、DVD等の記録媒体に格納されるようにしてもよい。前記したプログラムは、通信回線を介して提供することも可能である。 Further, all or part of the program for realizing the configuration and functions (X-ray image processing method) of the X-ray image processing apparatus 1 described in the embodiments may be realized in hardware by designing an integrated circuit or the like. The hardware described above includes one or more computers, such as a server (not shown). Further, the configurations and functions described in the embodiments may be realized by software by a processor interpreting and executing programs for realizing the respective functions. Information such as programs, tables, files, etc. that realize each function is stored in memory, hard disks, recording devices such as SSD (Solid State Drive), or recording media such as IC cards, SD cards, CD-ROMs, DVDs, etc. It is also possible to do so. The above-described program can also be provided via a communication line.

また、各実施形態は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されない。また、実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、前記した機構や構成は説明上必要と考えられるものを示しており、製品上必ずしも全ての機構や構成を示しているとは限らない。 Further, each embodiment is described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible to add, delete, or replace some of the configurations of the embodiments with other configurations. Further, the mechanisms and configurations described above are those considered necessary for explanation, and not all mechanisms and configurations are necessarily shown in the product.

1 X線画像処理装置
2 装置本体
3 表示装置
4 入力装置
11 制御部
12 メモリ
13 表示インターフェース
14 入力インタフェース
15 通信部
16 補助記憶部
16a X線画像取得部
16b 物品認識部
16c 物品学習部
16d 学習カテゴリ選定部
16e 変更履歴管理部
16f 重なり・正面判定部
16g 画面表示部
16h 認識カテゴリ判定部
16k 優先カテゴリ判定部
16m 物品認識モデル
16n 認識カテゴリ判定モデル
16p 信頼度テーブル
16q 変更履歴テーブル
16r 優先カテゴリテーブル
16s 重なり・正面判定用テーブル
16t 学習データ
16u カテゴリ判定用学習データ
16v 追加学習データ
100 X線検査処理システム
100a X線検査装置



1 X-ray image processing device 2 Device body 3 Display device 4 Input device 11 Control unit 12 Memory 13 Display interface 14 Input interface 15 Communication unit 16 Auxiliary storage unit 16a X-ray image acquisition unit 16b Article recognition unit 16c Article learning unit 16d Learning category Selection unit 16e Change history management unit 16f Overlap/frontal determination unit 16g Screen display unit 16h Recognition category determination unit 16k Priority category determination unit 16m Article recognition model 16n Recognition category determination model 16p Reliability table 16q Change history table 16r Priority category table 16s Overlap・Table for frontal judgment 16t Learning data 16u Learning data for category judgment 16v Additional learning data 100 X-ray inspection processing system 100a X-ray inspection device



Claims (12)

物品のX線画像に基づいて、前記物品のカテゴリを判別する制御部を備え、
前記制御部は、物品の画像認識に基づく認識カテゴリと、ユーザの運用に基づく複数の候補カテゴリと、の比較に基づいて、当該物品の前記認識カテゴリを所定の前記候補カテゴリに変更し、当該候補カテゴリを当該物品のX線画像に対応付けて表示装置に表示させる、X線画像処理システム。
comprising a control unit that determines the category of the article based on an X-ray image of the article,
The control unit changes the recognition category of the article to the predetermined candidate category based on a comparison between a recognition category based on image recognition of the article and a plurality of candidate categories based on user operations, and changes the recognition category of the article to the predetermined candidate category. An X-ray image processing system that associates a category with an X-ray image of the article and displays it on a display device.
前記制御部は、物品の前記認識カテゴリを所定の前記候補カテゴリに変更した場合、当該物品の前記候補カテゴリを示す所定の文字と、当該物品の前記認識カテゴリを示す別の文字と、を当該物品のX線画像に対応付けて併記すること
を特徴とする請求項1に記載のX線画像処理システム。
When the recognition category of an article is changed to the predetermined candidate category, the control unit changes a predetermined character indicating the candidate category of the article and another character indicating the recognition category of the article to the article. The X-ray image processing system according to claim 1, wherein the X-ray image processing system is written in association with the X-ray image.
ユーザによる入力操作に基づいて、物品のカテゴリの誤認識又は認識漏れを訂正するように、所定の前記候補カテゴリが物品に付与された場合、前記制御部は、当該物品のX線画像を追加学習データとして登録し、
前記制御部は、追加学習における当該物品の画像認識の信頼度が所定値以上である場合において、当該物品の前記認識カテゴリが前記候補カテゴリとは異なっているとき、当該物品のカテゴリを前記候補カテゴリから前記認識カテゴリに変更した上で、物品の画像認識に用いる物品認識モデルを生成すること
を特徴とする請求項1に記載のX線画像処理システム。
When the predetermined candidate category is assigned to an article based on an input operation by the user, the control unit additionally learns the X-ray image of the article so as to correct misrecognition or omission of recognition of the category of the article. Register as data,
When the reliability of image recognition of the article in additional learning is equal to or higher than a predetermined value and the recognition category of the article is different from the candidate category, the control unit changes the category of the article to the candidate category. The X-ray image processing system according to claim 1, wherein the X-ray image processing system generates an article recognition model to be used for image recognition of the article after changing the category of the article to the recognition category.
前記制御部は、物品のX線画像に基づいて、当該物品のカテゴリを判別した場合において、当該物品のカテゴリの誤認識又は認識漏れがユーザによる入力操作で訂正されなかったときには、当該物品のX線画像と当該物品のカテゴリとを対応付けて、前記追加学習データとして登録すること
を特徴とする請求項3に記載のX線画像処理システム。
When the control unit determines the category of the article based on the X-ray image of the article, if the misrecognition or omission of the category of the article is not corrected by the user's input operation, the control unit determines the X-ray image of the article. The X-ray image processing system according to claim 3, wherein the line image and the category of the article are registered in association with each other as the additional learning data.
前記制御部は、物品の画像認識に用いる物品認識モデルの追加学習を行う際、X線画像上の物品のカテゴリを、所定の前記候補カテゴリから前記認識カテゴリに変更した履歴を示す変更履歴テーブルを生成し、
前記物品認識モデルで物品の画像認識を行った結果が所定の前記認識カテゴリに該当する場合において、前記物品認識モデルとは異なる所定の認識カテゴリ判定モデルで画像認識を行った結果、当該物品のカテゴリを前記候補カテゴリとした場合の信頼度が前記認識カテゴリとした場合の信頼度よりも高いとき、当該物品のカテゴリを前記認識カテゴリから前記候補カテゴリに変更し、当該候補カテゴリを当該物品のX線画像に対応付けて前記表示装置に表示させること
を特徴とする請求項1に記載のX線画像処理システム。
When performing additional learning of an article recognition model used for image recognition of articles, the control unit creates a change history table that indicates a history of changes in the category of articles on X-ray images from the predetermined candidate category to the recognition category. generate,
If the result of image recognition of an article using the article recognition model falls under the predetermined recognition category, the result of image recognition using a predetermined recognition category determination model different from the article recognition model determines the category of the article. When the reliability when set as the candidate category is higher than the reliability when set as the recognition category, the category of the article is changed from the recognition category to the candidate category, and the candidate category is changed to the X-ray of the article. The X-ray image processing system according to claim 1, wherein the X-ray image processing system is displayed on the display device in association with an image.
前記制御部は、物品のカテゴリを前記認識カテゴリから前記候補カテゴリに変更した場合において、当該物品のX線画像を前記物品認識モデルの次回の追加学習で用いるときには、当該物品のX線画像に前記認識カテゴリを対応付けること
を特徴とする請求項5に記載のX線画像処理システム。
In the case where the category of the article is changed from the recognition category to the candidate category, when the X-ray image of the article is used in the next additional learning of the article recognition model, the control section adds the The X-ray image processing system according to claim 5, characterized in that recognition categories are associated with each other.
前記制御部は、追加学習において前記認識カテゴリ判定モデルを生成する際、前記認識カテゴリと前記候補カテゴリとが異なる物品については、当該物品のX線画像に前記候補カテゴリを対応付けること
を特徴とする請求項5に記載のX線画像処理システム。
Claim characterized in that, when generating the recognition category determination model in additional learning, the control unit associates the candidate category with an X-ray image of the article for an article for which the recognition category and the candidate category are different. The X-ray image processing system according to item 5.
前記制御部は、前記認識カテゴリ判定モデルで物品の画像認識を行った結果、当該物品のカテゴリを前記候補カテゴリとした場合の信頼度が前記認識カテゴリとした場合の信頼度以下であり、さらに、前記物品認識モデルで当該物品の画像認識を行った結果における第2候補以下の順位のカテゴリが所定の優先カテゴリに該当する場合、当該物品のカテゴリを前記認識カテゴリから前記優先カテゴリに変更し、当該優先カテゴリを当該物品のX線画像に対応付けて前記表示装置に表示させること
を特徴とする請求項5に記載のX線画像処理システム。
As a result of image recognition of the article using the recognition category determination model, the control unit determines that the reliability when the category of the article is set as the candidate category is equal to or lower than the reliability when the category is set as the recognition category, and further, If a category ranked lower than the second candidate in the result of image recognition of the article using the article recognition model corresponds to a predetermined priority category, the category of the article is changed from the recognition category to the priority category, and the category of the article is changed from the recognition category to the priority category. The X-ray image processing system according to claim 5, wherein the priority category is displayed on the display device in association with the X-ray image of the article.
前記制御部は、物品のカテゴリを前記認識カテゴリから前記優先カテゴリに変更した場合において、当該物品のX線画像を前記物品認識モデルの次回の追加学習で用いるときには、当該物品のX線画像に前記認識カテゴリを対応付けること
を特徴とする請求項8に記載のX線画像処理システム。
In the case where the category of the article is changed from the recognition category to the priority category, when the X-ray image of the article is used in the next additional learning of the article recognition model, the control unit adds the X-ray image of the article to the priority category. The X-ray image processing system according to claim 8, characterized in that recognition categories are associated with each other.
所定の優先カテゴリテーブルに含まれる前記優先カテゴリ、及び、前記優先カテゴリへの変更前の所定のカテゴリはいずれも、前記変更履歴テーブルに含まれる前記認識カテゴリとは重複していないこと
を特徴とする請求項8に記載のX線画像処理システム。
The priority category included in the predetermined priority category table and the predetermined category before the change to the priority category do not overlap with the recognition category included in the change history table. The X-ray image processing system according to claim 8.
前記制御部は、物品を画像認識を行った結果における第2候補以下の順位のカテゴリが、前記候補カテゴリに含まれる所定の優先カテゴリに該当する場合、当該物品のカテゴリを前記優先カテゴリに変更し、当該優先カテゴリを当該物品のX線画像に対応付けて前記表示装置に表示させること
を特徴とする請求項1に記載のX線画像処理システム。
The control unit changes the category of the article to the priority category if a category ranked lower than the second candidate in the result of image recognition of the article corresponds to a predetermined priority category included in the candidate categories. The X-ray image processing system according to claim 1, wherein the priority category is displayed on the display device in association with the X-ray image of the article.
物品のX線画像に基づいて、前記物品のカテゴリを判別する判別処理と、
物品の画像認識に基づく認識カテゴリと、ユーザの運用に基づく複数の候補カテゴリと、の比較に基づいて、当該物品の前記認識カテゴリを所定の前記候補カテゴリに変更し、当該候補カテゴリを当該物品のX線画像に対応付けて表示装置に表示させる表示処理と、を含むX線画像処理方法。



Discrimination processing that determines the category of the article based on the X-ray image of the article;
Based on a comparison between the recognition category based on image recognition of the item and a plurality of candidate categories based on the user's operations, the recognition category of the item is changed to the predetermined candidate category, and the candidate category is changed to the candidate category of the item. An X-ray image processing method including display processing for displaying on a display device in association with an X-ray image.



JP2022109600A 2022-07-07 2022-07-07 X-ray image processing system and X-ray image processing method Pending JP2024008068A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022109600A JP2024008068A (en) 2022-07-07 2022-07-07 X-ray image processing system and X-ray image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022109600A JP2024008068A (en) 2022-07-07 2022-07-07 X-ray image processing system and X-ray image processing method

Publications (1)

Publication Number Publication Date
JP2024008068A true JP2024008068A (en) 2024-01-19

Family

ID=89544453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022109600A Pending JP2024008068A (en) 2022-07-07 2022-07-07 X-ray image processing system and X-ray image processing method

Country Status (1)

Country Link
JP (1) JP2024008068A (en)

Similar Documents

Publication Publication Date Title
US11886799B2 (en) Determining functional and descriptive elements of application images for intelligent screen automation
US11113618B2 (en) Detecting the bounds of borderless tables in fixed-format structured documents using machine learning
Kuncheva et al. PCA feature extraction for change detection in multidimensional unlabeled data
JP4936753B2 (en) Scratch-out gesture recognition based on word or character boundary
CN108345587B (en) Method and system for detecting authenticity of comments
CN111488826A (en) Text recognition method and device, electronic equipment and storage medium
CN110059596B (en) Image identification method, device, medium and electronic equipment
KR20160132842A (en) Detecting and extracting image document components to create flow document
CN110751043A (en) Face recognition method and device based on face visibility and storage medium
JP4598466B2 (en) System and method for detecting a list in ink input
WO2022105521A1 (en) Character recognition method and apparatus for curved text image, and computer device
EP2370932B1 (en) Method, apparatus and computer program product for providing face pose estimation
US11600088B2 (en) Utilizing machine learning and image filtering techniques to detect and analyze handwritten text
CN114746859A (en) Evaluation method, evaluation program, and information processing device
US8010564B2 (en) Logical structure analyzing apparatus, method, and computer product
JP2019220014A (en) Image analyzing apparatus, image analyzing method and program
WO2023038722A1 (en) Entry detection and recognition for custom forms
CN111738252B (en) Text line detection method, device and computer system in image
CN110717407A (en) Human face recognition method, device and storage medium based on lip language password
Selvi et al. Recognition of Arabic numerals with grouping and ungrouping using back propagation neural network
RU2453919C1 (en) Method of detecting spam in bitmap image
US9104450B2 (en) Graphical user interface component classification
JP2024008068A (en) X-ray image processing system and X-ray image processing method
JP2019160240A (en) Information processing device and information processing method
CN114120305A (en) Training method of text classification model, and recognition method and device of text content