JP2022013217A - X-ray image processing system and x-ray image processing method - Google Patents

X-ray image processing system and x-ray image processing method Download PDF

Info

Publication number
JP2022013217A
JP2022013217A JP2020115632A JP2020115632A JP2022013217A JP 2022013217 A JP2022013217 A JP 2022013217A JP 2020115632 A JP2020115632 A JP 2020115632A JP 2020115632 A JP2020115632 A JP 2020115632A JP 2022013217 A JP2022013217 A JP 2022013217A
Authority
JP
Japan
Prior art keywords
article
image processing
ray
ray image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020115632A
Other languages
Japanese (ja)
Other versions
JP7422023B2 (en
Inventor
直人 秋良
Naoto Akira
紫薇 ▲とう▼
Ziwei Deng
仁志 熊谷
Hitoshi Kumagai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2020115632A priority Critical patent/JP7422023B2/en
Priority to CN202110137234.0A priority patent/CN113960687A/en
Publication of JP2022013217A publication Critical patent/JP2022013217A/en
Application granted granted Critical
Publication of JP7422023B2 publication Critical patent/JP7422023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • G01V5/22Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Analysis (AREA)

Abstract

To provide an X-ray image processing system capable of improving the recognition accuracy of prohibited items using an X-ray inspection apparatus capable of imaging from multiple directions, and an X-ray image processing method.SOLUTION: The X-ray image processing system includes: an X-ray image acquisition unit that acquires multiple X-ray images of an article picked up from multiple directions; an article recognition unit that recognizes the article by using a trained model that has learned a first plane of the article with respect to the multiple X-ray images; a recognition result integration unit that integrates recognition results regarding the multiple X-ray images; and an image generation unit that generates image information based on the integrated recognition result.SELECTED DRAWING: Figure 3

Description

本発明は、X線画像処理装置およびX線画像処理方法に関する。 The present invention relates to an X-ray image processing apparatus and an X-ray image processing method.

空港や大規模イベント会場等において手荷物検査にX線手荷物検査装置が利用されている。X線手荷物検査装置は一般的に、X線の透過量を示すグレースケール画像や、さらに材質を判定して材質毎に色づけをしたカラー画像を生成する。そして、検査員が目視で画像をチェックして危険物の有無を確認し、検査員が危険物を発見すると、荷物を開被検査するのが一般的な運用である。 X-ray baggage inspection equipment is used for baggage inspection at airports and large-scale event venues. The X-ray baggage inspection device generally generates a grayscale image showing the amount of X-ray transmission, and a color image in which the material is determined and colored for each material. Then, the inspector visually checks the image to confirm the presence or absence of dangerous goods, and when the inspector finds the dangerous goods, it is a general operation to open and inspect the baggage.

X線画像に危険物が含まれているか否かを確認するためには、高度な訓練を受けた検査員が必要である。そのため、例えば大規模イベントに際して検査員を一時的に大量に確保することは、事前の訓練やコストの点から難しい。そこで、検査員の負荷を少しでも低減するために、危険物の発見を自動化しようという試みがなされている。 A highly trained inspector is required to confirm whether the X-ray image contains dangerous goods. Therefore, for example, it is difficult to temporarily secure a large number of inspectors at a large-scale event in terms of prior training and cost. Therefore, in order to reduce the load on the inspector as much as possible, attempts are being made to automate the discovery of dangerous substances.

画像認識を自動化する一方策として、AI(人工知能)による深層学習を活用した画像認識技術があげられる。深層学習は映像解析の用途などで広く用いられており、高い認識精度が得られるため、その普及が進んでいる。例えば、特許文献1には、材質の密度と形状認識結果を組みわせることで高い認識精度を得る方法が開示されている。 One way to automate image recognition is image recognition technology that utilizes deep learning by AI (artificial intelligence). Deep learning is widely used in applications such as video analysis, and its widespread use is due to its high recognition accuracy. For example, Patent Document 1 discloses a method of obtaining high recognition accuracy by combining the density of a material and a shape recognition result.

特開2018-4363号公報Japanese Unexamined Patent Publication No. 2018-4363

特許文献1に記載の技術は、X線検査装置で1方向から撮影した画像を認識対象としている。すなわち、1つの撮影方向に対して1つの認識結果が得られるため、複数の撮影方向がある場合には、撮影方向の数だけ認識結果が得られる。そのため、検査員は複数の認識結果を確認しなければならず、検査員の確認時間が増えてしまうという課題がある。また、1方向から撮影した画像は情報量が少なく、物品を3D(三次元)で撮影可能なCT方式と比較して認識精度が低下してしまうという課題がある。 The technique described in Patent Document 1 targets an image taken from one direction by an X-ray inspection apparatus as a recognition target. That is, since one recognition result can be obtained for one shooting direction, when there are a plurality of shooting directions, recognition results can be obtained as many as the number of shooting directions. Therefore, the inspector has to confirm a plurality of recognition results, and there is a problem that the confirmation time of the inspector increases. Further, the image taken from one direction has a small amount of information, and there is a problem that the recognition accuracy is lowered as compared with the CT method capable of taking a picture of an article in 3D (three-dimensional).

一方、2方向から撮影可能なX線検査装置は、CT方式よりも安価であるため普及が進んでいる。2方向から撮影可能なX線検査装置は、例えばナイフのように厚さが薄い物品であっても、当該物品を2方向から撮影することにより、いずれかの方向から撮影した画像によって、ナイフの形状を明確に判別することが可能となる。そのため、物品を2方向から確認することにより、物品を1方向から確認する場合よりも見逃し防止が期待できる。AIを用いた禁止物品の認識においても、2方向の認識結果を統合したうえで最終的な認識結果を提示することがよいと考えられる。 On the other hand, X-ray inspection devices capable of photographing from two directions are becoming more widespread because they are cheaper than the CT method. An X-ray inspection device capable of photographing from two directions is such that even if the article is thin, such as a knife, by photographing the article from two directions, the image taken from either direction can be obtained from the knife. It is possible to clearly distinguish the shape. Therefore, by checking the article from two directions, it can be expected to prevent overlooking as compared with the case where the article is checked from one direction. In the recognition of prohibited articles using AI, it is considered better to integrate the recognition results in two directions and then present the final recognition result.

本発明の目的は、複数の方向からの撮影が可能なX線検査装置において、禁止物品の認識精度を向上させることができるX線画像処理装置およびX線画像処理方法を提供することにある。 An object of the present invention is to provide an X-ray image processing apparatus and an X-ray image processing method capable of improving the recognition accuracy of prohibited articles in an X-ray inspection apparatus capable of photographing from a plurality of directions.

上記課題を解決するために、代表的な本発明のX線画像処理装置の一つは、物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、複数のX線画像に対する認識結果を統合する認識結果統合部と、統合された認識結果をもとに、画面情報を生成する画面生成部と、を有する。 In order to solve the above problems, one of the representative X-ray image processing devices of the present invention is an X-ray image acquisition unit that acquires a plurality of X-ray images obtained by photographing an article from a plurality of directions, and a plurality of X-rays. An article recognition unit that recognizes an article and a recognition result integration unit that integrates recognition results for a plurality of X-ray images are integrated using a learning model that learns the first surface of the article for a line image. It has a screen generation unit that generates screen information based on the recognition result.

本発明によれば、複数の方向からの撮影が可能なX線検査装置において、禁止物品の認識精度を向上させることができるX線画像処理装置およびX線画像処理方法を提供することができる。
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an X-ray image processing apparatus and an X-ray image processing method capable of improving the recognition accuracy of prohibited articles in an X-ray inspection apparatus capable of photographing from a plurality of directions.
Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.

X線検査装置の構成図である。It is a block diagram of the X-ray inspection apparatus. X線画像処理装置102の機能構成図である。It is a functional block diagram of the X-ray image processing apparatus 102. 物品の認識と表示を行う処理動作を示すフローチャートである。It is a flowchart which shows the processing operation which recognizes and displays an article. 画像データを荷物単位に分割する例を示す図である。It is a figure which shows the example which divides an image data into a baggage unit. 物品の正面と側面の画像の例を示す図である。It is a figure which shows the example of the image of the front surface and the side surface of an article. 画面生成の例を示す図である。It is a figure which shows the example of screen generation. 画面生成の例を示す図である。It is a figure which shows the example of screen generation. 画面生成の例を示す図である。It is a figure which shows the example of screen generation.

以下、本発明のX線画像処理装置およびX線画像処理方法の好ましい実施形態について説明する。
本開示において、物品の「正面」とは、一般的な検査員が確認したときに物品を判別しやすい方向から見える面を意味し、物品の「側面」とは、正面が見える方向に対して垂直な方向から見える面を意味する。
Hereinafter, preferred embodiments of the X-ray image processing apparatus and the X-ray image processing method of the present invention will be described.
In the present disclosure, the "front" of an article means a surface that can be seen from a direction that makes it easy for a general inspector to identify the article, and the "side" of an article is a direction that allows the front to be seen. It means a surface that can be seen from a vertical direction.

図1は、X線画像処理装置を有するX線検査装置の構成図である。
X線検査装置100は、例えば空港の保安検査において手荷物検査装置として広く用いられている装置であり、X線装置本体(以下、装置本体という)101と、X線画像処理装置102と、表示部103と、入力部104を有する。X線画像処理装置102は例えばパーソナルコンピュータ(PC)である。表示部103は、2方向から撮影した画像を表示する場合や、カラー画像とグレースケール画像を表示する場合などに、2つ以上のディスプレイで構成されることもある。
FIG. 1 is a block diagram of an X-ray inspection device having an X-ray image processing device.
The X-ray inspection device 100 is a device widely used as a baggage inspection device in, for example, airport security inspection, and includes an X-ray device main body (hereinafter referred to as a device main body) 101, an X-ray image processing device 102, and a display unit. It has 103 and an input unit 104. The X-ray image processing device 102 is, for example, a personal computer (PC). The display unit 103 may be composed of two or more displays when displaying an image taken from two directions or when displaying a color image and a gray scale image.

装置本体101は、X線を照射する照射機構と、手荷物等の対象物を撮影してX線の透過量を計測するX線撮影機構を有し、X線透過量のデータ(以下、単に「透過量データ」または「透過量」ということがある。)を出力する。X線画像処理装置102は、装置本体101が撮影したX線画像の物品認識結果に基づき手荷物が安全であるか否かを判定する。本実施例のX線画像処理装置は、学習の機能を有しており、蓄積された物品情報を用いて画像認識用のモデルを学習することができる。表示部103はX線画像を表示する表示端末であり、画面に表示されるX線画像を検査員が目視で確認することができる。 The apparatus main body 101 has an irradiation mechanism for irradiating X-rays and an X-ray imaging mechanism for photographing an object such as baggage and measuring the amount of X-ray transmission, and data on the amount of X-ray transmission (hereinafter, simply "" It may be called "transmission amount data" or "transmission amount"). The X-ray image processing device 102 determines whether or not the baggage is safe based on the article recognition result of the X-ray image taken by the device main body 101. The X-ray image processing apparatus of this embodiment has a learning function, and can learn a model for image recognition using the accumulated article information. The display unit 103 is a display terminal that displays an X-ray image, and an inspector can visually confirm the X-ray image displayed on the screen.

装置本体101は、荷物を搬送するベルトコンベアを備えた搬送機構を有し、搬送機構は制御部により制御されて、ベルトコンベアを駆動、停止させることができる。X線画像処理装置102は、物品認識の結果、危険な手荷物(アラート対象物)と判定した場合、装置本体101または装置本体101付近に設置された表示ランプを点灯して、物品がアラート対象物である旨を検査員に通知する。なお、アラート対象物である旨の通知には、表示部103やX線画像処理装置102の音声出力部を用いてもよい。 The apparatus main body 101 has a transport mechanism provided with a belt conveyor for transporting cargo, and the transport mechanism can be controlled by a control unit to drive and stop the belt conveyor. When the X-ray image processing device 102 determines that the baggage is dangerous baggage (alert target object) as a result of the article recognition, the X-ray image processing device 102 lights the indicator lamp installed on the device main body 101 or near the device main body 101, and the article is the alert target object. Notify the inspector that it is. The voice output unit of the display unit 103 or the X-ray image processing device 102 may be used to notify that the object is an alert object.

本実施例の搬送機構には、X線の透過量を計測する2種類のX線センサ(以下単に「センサ」という。)が配置され、2種類のデータを取得する。すなわち、1つのセンサが低いエネルギーのデータを取得し、他の1つのセンサが高いエネルギーのデータを取得する。X線画像処理装置102は、2つのセンサにより取得される高エネルギーのデータと低エネルギーのデータの差分に基づき対象物の材質を判定する。X線センサは、材質が判断できるX線データが取得できればよく、X線センサの検知方式は問わない。例えば後方散乱式の材質判定センサ等を用いることができるし、その他のセンサでもよい。さらに、本実施例のX線検査装置には、荷物が通過するエリアの側面(垂直面)と天井面(水平面)など、複数個所にそれぞれ上記センサのセット(2種類のX線センサ)が取り付けられている。例えば2方向から撮影可能なX線検査装置では、上と横の二方向から同時に荷物を撮影することができる。通常、センサとしてはラインセンサが用いられている。このような場合、複数のX線の光源の干渉を避けるために、第一のセンサのセットと第二のセンサのセットは荷物進行方向に対する位置を若干ずらして設置されていることもある。 In the transport mechanism of this embodiment, two types of X-ray sensors (hereinafter, simply referred to as "sensors") for measuring the amount of X-ray transmission are arranged, and two types of data are acquired. That is, one sensor acquires low energy data and the other sensor acquires high energy data. The X-ray image processing apparatus 102 determines the material of the object based on the difference between the high-energy data and the low-energy data acquired by the two sensors. The X-ray sensor may be capable of acquiring X-ray data whose material can be determined, and the detection method of the X-ray sensor does not matter. For example, a backscattering type material determination sensor or the like can be used, or other sensors may be used. Further, in the X-ray inspection apparatus of this embodiment, the above sensor sets (two types of X-ray sensors) are attached to a plurality of places such as the side surface (vertical surface) and the ceiling surface (horizontal plane) of the area through which the cargo passes. Has been done. For example, with an X-ray inspection device capable of photographing from two directions, it is possible to simultaneously photograph luggage from two directions, top and side. Usually, a line sensor is used as the sensor. In such a case, in order to avoid interference of a plurality of X-ray light sources, the set of the first sensor and the set of the second sensor may be installed so as to be slightly offset from each other in the baggage traveling direction.

図2は、X線画像処理装置102の機能構成図である。
X線画像処理装置102は、処理部(CPU:Central Processing Unit)201、主メモリ202、表示部103を接続する表示インターフェース(I/F)部203、入力部104を接続する入力インターフェース(I/F)部204、通信部205、記憶部210を有する情報処理装置である。
FIG. 2 is a functional configuration diagram of the X-ray image processing device 102.
The X-ray image processing apparatus 102 includes a processing unit (CPU: Central Processing Unit) 201, a main memory 202, a display interface (I / F) unit 203 for connecting the display unit 103, and an input interface (I /) for connecting the input unit 104. F) An information processing device having a unit 204, a communication unit 205, and a storage unit 210.

処理部201はプログラムを実行して所定の機能や動作を実現する。記憶部210は、X線画像取得プログラム212、物品認識プログラム213、認識結果統合プログラム214、画面生成プログラム215、キャリブレーションプログラム216、物品学習プログラム217、X線画像データ218、学習モデル219を格納する。 The processing unit 201 executes a program to realize a predetermined function or operation. The storage unit 210 stores an X-ray image acquisition program 212, an article recognition program 213, a recognition result integration program 214, a screen generation program 215, a calibration program 216, an article learning program 217, an X-ray image data 218, and a learning model 219. ..

ここで、X線画像取得プログラム212は、装置本体101が撮影したX線の透過量データを専用のインターフェースまたはVGA端子などの汎用の画面出力端子から取得する。なお、空港の保安検査場などで用いられているX線検査装置の場合、一般的に2方向から撮影した画像を独立した2画面に表示することが多い。その場合は、複数の入力端子からX線の透過量データを取得しても構わない。X線画像取得プログラム212による動作の詳細については後述する。 Here, the X-ray image acquisition program 212 acquires the X-ray transmission amount data captured by the apparatus main body 101 from a dedicated interface or a general-purpose screen output terminal such as a VGA terminal. In the case of an X-ray inspection device used in an airport security checkpoint or the like, in general, images taken from two directions are often displayed on two independent screens. In that case, X-ray transmission amount data may be acquired from a plurality of input terminals. The details of the operation by the X-ray image acquisition program 212 will be described later.

物品認識プログラム213は、装置本体101が撮影した2種類のX線センサの透過量データから生成した荷物の材質情報と物品の密度情報を可視化したカラー画像または2種類のX線センサのいずれかのセンサの透過量データを変換したグレースケール画像を対象として、深層学習のセグメンテーション技術を用いて画像内に含まれる物品を画素単位で認識する。物品認識プログラム213による動作の詳細については後述する。 The article recognition program 213 is either a color image that visualizes the material information of the luggage and the density information of the article generated from the transmission amount data of the two types of X-ray sensors taken by the apparatus main body 101, or two types of X-ray sensors. Targeting a grayscale image obtained by converting sensor transmission amount data, an article contained in the image is recognized on a pixel-by-pixel basis using a segmentation technique of deep learning. The details of the operation by the article recognition program 213 will be described later.

認識結果統合プログラム214は、2方向から撮影した2つの画像の認識結果を統合して、物品を高精度に認識する。また、検査員に提示する画面を1つにする場合には、2方向から撮影した2つの画像から、検査員に提示する画像を選択する。認識結果統合プログラム214の動作の詳細については後述する。 The recognition result integration program 214 integrates the recognition results of two images taken from two directions to recognize the article with high accuracy. When the screen to be presented to the inspector is unified, the image to be presented to the inspector is selected from the two images taken from two directions. The details of the operation of the recognition result integration program 214 will be described later.

画面生成プログラム215は、認識結果統合プログラム214で統合された認識結果をもとに、検査員端末のモニタに表示する画面情報を生成し、表示部103に生成した画面情報を表示する。画面生成プログラム215の動作の詳細については後述する。 The screen generation program 215 generates screen information to be displayed on the monitor of the inspector terminal based on the recognition result integrated by the recognition result integration program 214, and displays the generated screen information on the display unit 103. The details of the operation of the screen generation program 215 will be described later.

キャリブレーションプログラム216は、複数の方向から撮影された複数の画像の位置を対応付けられるように、画像の位置を調整する。キャリブレーションプログラム216の動作の詳細については後述する。 The calibration program 216 adjusts the position of an image so that the positions of a plurality of images taken from a plurality of directions can be associated with each other. The details of the operation of the calibration program 216 will be described later.

物品学習プログラム217は、入力されたカラー画像またはグレースケール画像を対象として深層学習のセグメンテーション処理などを用いて学習を実施し、学習モデル219を生成する。 The article learning program 217 performs learning on the input color image or grayscale image by using deep learning segmentation processing or the like, and generates a learning model 219.

X線画像データ218は、2種類のセンサにより計測されるX線透過量データから生成された、材質情報と密度情報を示すカラー画像またはグレースケールの画像が登録される。カラー画像については、2種類のセンサのX線透過量データの差分から物品の材質を判定し、例えば、材質情報が色、透過量が濃さ(密度が大きい部分は濃く、密度が小さい部分は薄い)となるカラー画像が登録される。なお、センサが2つの方向の撮影用に設置されている場合は、1回の撮影で異なる向きからの画像が2つ撮影されて、X線画像データ218に登録される。 In the X-ray image data 218, a color image or a grayscale image showing material information and density information generated from X-ray transmission amount data measured by two types of sensors is registered. For color images, the material of the article is determined from the difference between the X-ray transmission amount data of the two types of sensors. A color image that becomes (thin) is registered. When the sensor is installed for shooting in two directions, two images from different directions are shot in one shooting and registered in the X-ray image data 218.

なお、記憶部210に記憶される、上記の、X線画像取得プログラム212、物品認識プログラム213、認識結果統合プログラム214、画面生成プログラム215、キャリブレーションプログラム216、物品学習プログラム217は、処理部201で実行されると、それぞれ、X線画像取得部212´、物品認識部213´、認識結果統合部214´、画面生成部215´、キャリブレーション部216´、物品学習部217´としての機能を実現する。 The above-mentioned X-ray image acquisition program 212, article recognition program 213, recognition result integration program 214, screen generation program 215, calibration program 216, and article learning program 217 stored in the storage unit 210 are the processing unit 201. When executed in, the functions as the X-ray image acquisition unit 212', the article recognition unit 213', the recognition result integration unit 214', the screen generation unit 215', the calibration unit 216', and the article learning unit 217', respectively. Realize.

X線画像データ218は、X線検査装置100で撮影された荷物のカラー画像またはグレースケールの画像である。X線検査装置100が例えば垂直方向と水平方向の2方向から撮影できる装置である場合、1つの荷物に対して、垂直方向と水平方向の2つの画像が荷物IDと共にX線画像データ218の保存領域に記録される。 The X-ray image data 218 is a color image or a gray scale image of a package taken by the X-ray inspection device 100. When the X-ray inspection device 100 is a device capable of photographing from two directions, for example, a vertical direction and a horizontal direction, two images in the vertical direction and the horizontal direction are stored in the X-ray image data 218 together with the baggage ID for one baggage. Recorded in the area.

学習モデル219には、物品学習プログラム217で学習したモデルのパラメータ情報が記録されている。なお、学習モデルとしては、一つの物品に対して、正面や側面など、さまざまな方向で学習した学習モデルを用いてもよい。しかし、本実施例においては、物品が何であるかだけでなく、学習モデルを適用した物品の画像に対して、物品の正面と側面のいずれであるかも判別できるようにしているため、本実施例に用いる学習モデルとしては、例えば、スマートフォンについて、正面の画像と側面の画像を別の物品の画像として学習した学習モデルを用いてもよい。
このような学習モデルを用いることにより、スマートフォンのように、正面と側面の見た目が大きく異なる場合、正面と側面を別の物品として学習していることで、正面と側面の識別をより的確に反映させた学習モデルが構築できる。
In the learning model 219, the parameter information of the model learned by the article learning program 217 is recorded. As the learning model, a learning model learned in various directions such as front and side surfaces may be used for one article. However, in this embodiment, not only what the article is, but also whether it is the front side or the side surface of the article with respect to the image of the article to which the learning model is applied can be determined. As the learning model used for, for example, a learning model in which a front image and a side image of a smartphone are learned as images of different articles may be used.
By using such a learning model, when the appearance of the front and the side is significantly different like a smartphone, the front and the side are learned as separate articles, and the distinction between the front and the side is reflected more accurately. You can build a learning model that you have made.

次に、図3を参照して、物品の認識と表示を行う処理動作について説明する。この処理動作は、X線検査装置100を使用する検査業務の際の処理動作である。 Next, with reference to FIG. 3, a processing operation for recognizing and displaying an article will be described. This processing operation is a processing operation during an inspection operation using the X-ray inspection device 100.

(S301)
まず、X線画像取得プログラム212が、X線のセンサで取得された透過量データであるRAWデータまたは透過量データが画像化されたX線画像(ディスプレイに表示する画面信号)を取得する。ここで、入力が高低2種類のエネルギーのRAWデータの場合は、高低2種類のエネルギーの透過量データの差分情報から画像の画素単位の材質を判定する。材質の判定は、例えばこの分野で広く知られている高低2種類のエネルギーの透過量の差分情報により、金属、無機物、有機物、その他の4種類に分類する方法を用いることができる。そして、材質情報と高低2種類のエネルギーのいずれかのX線透過量を用いて、材質情報が色、透過量が濃さ(密度が大きい部分は濃く、密度が小さい部分は薄い)となるカラー画像を生成する。
(S301)
First, the X-ray image acquisition program 212 acquires RAW data, which is transmission amount data acquired by the X-ray sensor, or an X-ray image (screen signal displayed on the display) in which the transmission amount data is imaged. Here, when the input is RAW data of two types of high and low energies, the material of each pixel of the image is determined from the difference information of the transmission amount data of the two types of high and low energies. For the determination of the material, for example, a method of classifying into four types of metal, inorganic substance, organic substance, and others can be used based on the difference information of the permeation amount of two types of high and low energies widely known in this field. Then, using the material information and the X-ray transmission amount of one of the two types of high and low energies, the material information is the color and the transmission amount is the density (the part with high density is dark and the part with low density is thin). Generate an image.

ここで、装置本体101から取得される画像データが撮影対象の荷物毎に分割されていない場合、つまり、一つの画像データに複数の荷物が写りこんでいる場合は、以下に示す第1の分割方法ないし第3の分割方法にて画像データを荷物単位に分割する。 Here, when the image data acquired from the apparatus main body 101 is not divided for each baggage to be photographed, that is, when a plurality of packages are reflected in one image data, the first division shown below is shown. The image data is divided into luggage units by the method or the third division method.

第1の分割方法は、装置本体101のVGA出力端子などからディスプレイに表示する画面信号を入力する場合の方法である。まず、画面信号を取得し、フレーム画像の変化の度合いを用いて荷物の表示内容が変化しているかどうかを判定する。荷物の撮影が終了すると画面上には荷物が静止して表示される。透過量が閾値以下の濃い部分を荷物エリアとすると、荷物エリアが変化するかどうかで荷物の撮影の終了および撮影終了時の荷物エリアを特定することができる。 The first division method is a method in which a screen signal to be displayed on a display is input from a VGA output terminal of the apparatus main body 101 or the like. First, the screen signal is acquired, and it is determined whether or not the display content of the luggage is changed by using the degree of change in the frame image. When the shooting of the luggage is completed, the luggage is displayed stationary on the screen. Assuming that the dark part where the transmission amount is equal to or less than the threshold value is the luggage area, it is possible to specify the luggage area at the end of shooting and the shooting of luggage depending on whether the luggage area changes.

第2の分割方法の例を図4に示す。画面信号またはRAWデータを取得し、透過量の積分値を一定のライン数毎または一定時間毎に求める。透過量が小さい(=濃い)部分は荷物があると判定し、透過量が大きい(=薄い)部分は荷物がないと判定して、荷物単位に画像を分割する。1ラインで判定してしまうと、ノイズなどで誤判定してしまう可能性があるため、移動平均をとった透過量の積分値が閾値以下の場合は荷物あり、閾値以上の場合は荷物なしと判定することもできる。また、荷物の途中に薄い部分が含まれることがあるため、薄い部分は一定量連続した場合に荷物と荷物の間のスペースと判定してもよい。図4のグラフは、透過量が小さい(=濃い)ほど上に、透過量が大きい(=薄い)ほど下にプロットされ、数字は何番目のラインであるかを示す。 An example of the second division method is shown in FIG. The screen signal or RAW data is acquired, and the integrated value of the transmission amount is obtained every fixed number of lines or every fixed time. It is determined that there is luggage in the portion where the transmission amount is small (= dark), and it is determined that there is no luggage in the portion where the transmission amount is large (= light), and the image is divided into luggage units. If the judgment is made on one line, it may be erroneously judged due to noise, etc., so if the integrated value of the transmission amount obtained by moving average is below the threshold value, there is luggage, and if it is above the threshold value, there is no luggage. It can also be determined. Further, since a thin portion may be included in the middle of the luggage, the thin portion may be determined as a space between the luggages when a certain amount is continuous. In the graph of FIG. 4, the smaller the transmission amount (= darker), the higher the plot, and the larger the transmission amount (= lighter), the lower the plot, and the number indicates the number of the line.

第3の分割方法は、X線検査装置の荷物投入口に設置された荷物検知センサを用いる方法である。一般的なX線検査装置では、荷物で例えば、光線が遮蔽される位置に遮蔽を検知できるセンサが設置されている。センサが荷物を検知した時刻に、センサが荷物を検知した時点からラインセンサに荷物の先端が到着するまでの時間を加算することで荷物開始点の時刻(撮影開始時刻)が取得できる。また、センサが荷物を検知しなくなった時刻に、センサが荷物を検知しなくなった時点からラインセンサに荷物の終端が到着するまでの時間を加算することで荷物終了点の時刻(撮影終了時刻)が取得できる。荷物開始点の時刻と荷物終了点の時刻を取得することで、入力が画面信号であれば、荷物終了点の時刻の画面と、撮影時間の情報から荷物領域を特定することができる。入力がRAWデータであれば、開始時刻から終了時刻までのRAWデータを1つの荷物のRAWデータとして荷物領域の画像を生成することができる。 The third division method is a method using a baggage detection sensor installed at the baggage inlet of the X-ray inspection device. In a general X-ray inspection device, for example, a sensor capable of detecting shielding is installed at a position where light rays are shielded by luggage. The time of the cargo start point (shooting start time) can be obtained by adding the time from the time when the sensor detects the cargo to the time when the tip of the cargo arrives at the line sensor to the time when the sensor detects the cargo. Also, by adding the time from the time when the sensor stops detecting the luggage to the time when the end of the luggage arrives at the line sensor, the time of the luggage end point (shooting end time) Can be obtained. By acquiring the time of the baggage start point and the time of the baggage end point, if the input is a screen signal, the baggage area can be specified from the screen of the time of the baggage end point and the information of the shooting time. If the input is RAW data, the image of the baggage area can be generated by using the RAW data from the start time to the end time as the RAW data of one baggage.

2方向から撮影できるX線検査装置では、上記の分割方法を例えば垂直方向から撮影した画像と水平方向から撮影した画像に適用する。 In an X-ray inspection apparatus capable of photographing from two directions, the above division method is applied to, for example, an image taken from a vertical direction and an image taken from a horizontal direction.

(S302)
次に、キャリブレーションプログラム216が、X線画像取得プログラム212で取得した2方向の撮影画像に対して荷物の進行方向に対する位置の対応付けを行う。例えば、X線画像取得プログラム212で2方向の2枚のX線画像を取得した場合、撮影方向によって物品の見え方が異なったり、ラインセンサの位置が異なるため、そのままでは、2枚の画像の画素単位の位置関係の対応が明確にならないことが多い。一般に検査員が検査装置の画像を目視して確認する場合や、1枚の画像毎にAIによる物品認識を適用する場合は、2枚の画像を画素単位で対応付ける必要はないため、検査員端末に表示される2方向2画面の画像はラインセンサの間隔分ずれて表示されていることもある。そこで、キャリブレーションプログラム216を用いて、以下に示す第1のキャリブレーション方法ないし第3のキャリブレーション方法にて2枚の画像の画素間の対応付けを実施する。
(S302)
Next, the calibration program 216 associates the positions of the captured images in the two directions acquired by the X-ray image acquisition program 212 with respect to the traveling direction of the luggage. For example, when two X-ray images in two directions are acquired by the X-ray image acquisition program 212, the appearance of the article differs depending on the shooting direction and the position of the line sensor differs, so that the two images are left as they are. In many cases, the correspondence between the positional relationships of each pixel is not clear. Generally, when an inspector visually confirms an image of an inspection device or when applying article recognition by AI for each image, it is not necessary to associate the two images on a pixel-by-pixel basis, so the inspector terminal The two-way, two-screen image displayed in may be displayed with a shift of the line sensor interval. Therefore, using the calibration program 216, the pixels of the two images are associated with each other by the first calibration method or the third calibration method shown below.

第1のキャリブレーション方法は、ラインセンサ間の時間間隔を用いる方法である。例えば、RAWデータを用いる方式の場合、2つのラインセンサから入力されるデータには、一定の時間のずれがある。そこで、データの入力時刻をラインセンサ間の時間間隔分調整して、ライン単位で時刻が同期するようにすることで、画素間の対応付けを行う。 The first calibration method is a method using a time interval between line sensors. For example, in the case of a method using RAW data, there is a certain time lag between the data input from the two line sensors. Therefore, the data input time is adjusted by the time interval between the line sensors so that the time is synchronized in line units, so that the pixels are associated with each other.

第2のキャリブレーション方法は、画面信号を入力とし、X線画像を取得するステップ(S301)において第1の画像分割方法または第2の画像分割方法を用いる場合のキャリブレーション方法である。透過量の大きさ(濃さ)に基づく画像分割方法を用いる場合、2つの方向から撮影した画像は、各々透過量の分布が異なるため、必ずしも同じ位置が開始点、終了点と判定されるとは限らない。また、荷物領域のみを切り出す画像分割方法の場合、荷物の進行方向だけでなく、進行方向と垂直方向に関しても余白すなわち透過量が大きい部分を削除する運用が想定されるため、2つの方向から撮影して荷物単位に切り出した画像は、解像度もアスペクト比も異なる。 The second calibration method is a calibration method when the first image segmentation method or the second image segmentation method is used in the step (S301) of acquiring an X-ray image by inputting a screen signal. When the image segmentation method based on the magnitude (darkness) of the transmission amount is used, the images taken from the two directions have different distributions of the transmission amount, so that the same position is not necessarily determined as the start point and the end point. Is not always. In addition, in the case of the image division method that cuts out only the luggage area, it is assumed that the margin, that is, the portion having a large transmission amount is deleted not only in the traveling direction of the luggage but also in the direction perpendicular to the traveling direction, so that the images are taken from two directions. The images cut out in units of luggage have different resolutions and aspect ratios.

そこで、荷物の進行方向について、2つのラインセンサの時間間隔および2つの画像の撮影開始時刻と撮影終了時刻を用いて対応付けを行う。撮影開始時刻が早いほうの画像に合わせて撮影開始時刻が遅いほうの画像に余白画像を追加し、撮影終了時刻が遅いほうの画像に合わせて撮影終了時刻が早いほうの画像に余白画像を追加する。なお、荷物の進行方向と垂直な方向については、垂直方向と水平方向では荷物のサイズも異なり、画素単位の対応付けが難しいため、画像のサイズが異なっていても構わない。すなわち、キャリブレーションにより調整された画像は、荷物の進行方向については、必ず同じ物品が同じ位置に撮影されていることが保証される。 Therefore, the traveling direction of the luggage is associated with each other by using the time interval of the two line sensors and the shooting start time and the shooting end time of the two images. A margin image is added to the image with the later shooting start time according to the image with the earlier shooting start time, and a margin image is added to the image with the earlier shooting end time according to the image with the later shooting end time. do. As for the direction perpendicular to the traveling direction of the luggage, the size of the luggage is different in the vertical direction and the horizontal direction, and it is difficult to associate the luggage in pixel units. Therefore, the size of the image may be different. That is, the image adjusted by the calibration is guaranteed that the same article is always taken at the same position in the traveling direction of the cargo.

第3のキャリブレーション方法は、第1のキャリブレーション方法または第2のキャリブレーション方法で使用するラインセンサ間の時間間隔を、装置利用開始時に特定のパターンを持つサンプル荷物を撮影することで計測する方法である。このサンプル荷物には、鉛インクなどで作られたX線画像で判別可能なパターンなど、撮影したときに位置が特定できるものが含まれている。先に撮影される画像のパターンの撮影時刻と、後から撮影される画像のパターンの撮影時刻との差分でラインセンサ間の時間間隔を計測できる。ラインセンサ間の距離は固定であっても、ベルトコンベアの進む速さに誤差が生じた場合、装置の初期導入時に設定した時間間隔では正確な位置の対応付けが行えない可能性がある。そのため、定期的に第3のキャリブレーション方法を用いて、誤差を修正することで、正確な対応付けが実現できる。 The third calibration method measures the time interval between the line sensors used in the first calibration method or the second calibration method by photographing a sample baggage having a specific pattern at the start of using the device. The method. This sample baggage includes a pattern that can be identified by an X-ray image made of lead ink or the like so that the position can be specified when the image is taken. The time interval between the line sensors can be measured by the difference between the shooting time of the pattern of the image shot earlier and the shooting time of the pattern of the image shot later. Even if the distance between the line sensors is fixed, if there is an error in the traveling speed of the belt conveyor, it may not be possible to accurately map the positions at the time interval set at the time of initial introduction of the device. Therefore, accurate correspondence can be realized by correcting the error by periodically using the third calibration method.

キャリブレーションを実施することによって、2つの方向から撮影した2枚の画像を荷物の進行方向について位置を合わせて表示することができる。また、2つの方向から撮影した2枚の画像をAIを用いて総合的に認識することができる。 By performing calibration, two images taken from two directions can be displayed in alignment with each other in the traveling direction of the luggage. In addition, two images taken from two directions can be comprehensively recognized using AI.

なお、取得したX線画像データは、次の物品認識をするステップS303や検査員が過去の画像データを参照する際に使われるため、X線画像データ218に登録される。 The acquired X-ray image data is registered in the X-ray image data 218 because it is used in step S303 for the next article recognition and when the inspector refers to the past image data.

(S303)
次に、物品認識プログラム213が、ステップS302で取得した2方向の2枚の画像をX線画像データ218から取得し、学習モデル219および深層学習のセグメンテーション処理を用いて画素単位で物品を認識する。ここで、物品の認識には、OSS(オープンソースソフトウェア)のライブラリとして広く知られている「Fully Convolutional Instance-aware Semantic Segmentation」や「Mask R-CNN」などのライブラリを用いることができる。なお、画素単位で物品が特定できれば、認識の方式は問わない。
(S303)
Next, the article recognition program 213 acquires two images in two directions acquired in step S302 from the X-ray image data 218, and recognizes the article in pixel units using the learning model 219 and the segmentation process of deep learning. .. Here, a library such as "Fully Convolutional Instance-aware Remote Segmentation" or "Mask R-CNN", which is widely known as an OSS (open source software) library, can be used for recognizing an article. As long as the article can be specified in pixel units, the recognition method does not matter.

ここで、2方向の2枚の画像があるため、物品の認識は、第1の方向から撮影した画像と、第2の方向から撮影した画像の2つの画像に対して行う。例えば、第1の方向でスマートフォンの正面が撮影された場合、第2の方向ではスマートフォンの側面が撮影されることとなる。スマートフォンの場合、正面が撮影された画像は、スマートフォンであることを判別しやすいが、側面が撮影された画像は、スマートフォンであることを判別しにくい。また、撮影した方向に物品の重なりがある場合も、物品を判別しにくい。このように、一方の画像にしか認識結果が得られないことがあるため、撮影した2枚の画像の認識結果は異なることが多い。 Here, since there are two images in two directions, the recognition of the article is performed on two images, an image taken from the first direction and an image taken from the second direction. For example, when the front surface of the smartphone is photographed in the first direction, the side surface of the smartphone is photographed in the second direction. In the case of a smartphone, it is easy to determine that the image taken from the front is a smartphone, but it is difficult to determine that the image taken from the side is a smartphone. In addition, it is difficult to distinguish the articles even if the articles overlap in the shooting direction. As described above, since the recognition result may be obtained only for one image, the recognition results of the two captured images are often different.

なお、物品の認識をするときに、正面のモデルと側面のモデルを別のモデルとして学習したモデルを用いることで、物品の正面に近いものか、側面に近いものかを認識時に同時に判別することができる。ここで、正面と側面の中間にあたる角度からの撮影である場合は、物品の正面と側面のうち、より近いほうを選ぶとよい。また、正面と側面を一緒にした学習モデルを用いて認識した結果に対して、物品の面積や事前に用意した正面と側面の見本画像とのテンプレートマッチングによる類似度合など、他の方法を用いて正面か側面かを判別しても構わない。すなわち、認識時にスマートフォン(正面)やスマートフォン(側面)といったように判別しても、正面と側面を一緒にした学習モデルを用いて認識した結果に対して、正面か側面かを判別しても構わない。 When recognizing an article, by using a model learned from the front model and the side model as separate models, it is possible to simultaneously determine whether the article is close to the front or the side. Can be done. Here, when shooting from an angle between the front and the side, it is better to select the closer one from the front and the side of the article. In addition, other methods such as the area of the article and the degree of similarity between the front and side sample images prepared in advance by template matching are used for the results recognized using the learning model that combines the front and side surfaces. You may distinguish between the front and the side. That is, it may be discriminated as a smartphone (front) or a smartphone (side) at the time of recognition, or it may be discriminated whether it is the front or the side with respect to the recognition result using the learning model in which the front and the side are combined. do not have.

なお、本実施例の説明では、説明をわかりやすくするため、2方向で説明をしているが、物品によっては、3方向以上からの撮影で各々異なる見え方をする物品もある。3方向以上で異なる見え方をする場合は、2方向以外の方向を追加してもよい。 In the explanation of this embodiment, the explanation is given in two directions in order to make the explanation easy to understand, but some articles have different appearances when photographed from three or more directions. If the appearance is different in three or more directions, directions other than the two directions may be added.

また、学習モデル219にカラー画像で学習した学習モデルと、グレースケール画像で学習した学習モデルを用意しておき、物品の重なりが大きい場合、すなわち画像の濃い部分の面積が閾値よりも大きい場合などには、グレースケール画像で学習した学習モデルを使って認識をすることもできる。これにより、物品の重なりによる材質の種類を示す色の変化の影響を避けることができる。 Further, a learning model learned with a color image and a learning model learned with a gray scale image are prepared in the learning model 219, and when the overlap of articles is large, that is, when the area of the dark part of the image is larger than the threshold value, etc. Can also be recognized using a learning model trained with grayscale images. This makes it possible to avoid the influence of the color change indicating the type of material due to the overlapping of articles.

(S304)
次に、認識結果統合プログラム214が、物品を認識するステップS303で取得した2方向の認識結果に対して、認識結果をマージまたは選択する統合処理を以下に示す第1の統合方法ないし第3の統合方法にて行う。物品認識をするステップでは、物品の認識結果と一緒に認識結果の信頼度が得られる。すなわち、2つの方向の画像のそれぞれに対して、物品の正面の学習モデルと物品の側面の学習モデルを用いて認識を試みた場合の、それぞれの認識結果と認識結果の信頼度が得られる。得られた認識結果と認識結果の信頼度を用いて統合処理が行われる。
(S304)
Next, the first integration method or the third integration process is described below in which the recognition result integration program 214 merges or selects the recognition results for the two-way recognition results acquired in step S303 for recognizing the article. It is done by the integration method. In the step of recognizing an article, the reliability of the recognition result is obtained together with the recognition result of the article. That is, when recognition is attempted using the learning model on the front surface of the article and the learning model on the side surface of the article for each of the images in the two directions, the recognition result and the reliability of the recognition result can be obtained. The integrated process is performed using the obtained recognition result and the reliability of the recognition result.

第1の統合方法は、2つの方向の画像の進行方向に対して同じ位置に物品の正面と物品の側面を認識できる場合に、物品を特定する統合方法である。2つの方向の一方で物品の正面を認識でき、他方で物品の側面を認識できる場合にのみ、物品を認識することとすれば、過剰検知(禁止物品でないものを禁止物品と判定すること)を抑止することができる。また、検出漏れを抑止するためには、それぞれの方向の認識結果を採用する信頼度の閾値を低くすればよい。このようにしても、2つの方向での認識に基づいて判断しているため、過剰検知は抑止することができる。このため、検出漏れを抑止しつつ、過剰検知も抑止できるという効果がある。すなわち、2方向撮影のX線検査装置では、一般的に1方向毎に物品認識が行われるが、本統合方法を用いることにより、物品の3D形状を考慮した認識ができる。 The first integration method is an integration method for identifying an article when the front surface of the article and the side surface of the article can be recognized at the same position with respect to the traveling direction of the image in two directions. If the article is recognized only when the front of the article can be recognized in one of the two directions and the side surface of the article can be recognized in the other, over-detection (determining that a non-prohibited article is a prohibited article) is performed. It can be deterred. Further, in order to suppress detection omission, it is sufficient to lower the threshold value of the reliability of adopting the recognition result in each direction. Even in this way, since the judgment is made based on the recognition in two directions, over-detection can be suppressed. Therefore, there is an effect that over-detection can be suppressed while suppressing detection omission. That is, in an X-ray inspection device for two-way imaging, article recognition is generally performed in each direction, but by using this integrated method, recognition can be made in consideration of the 3D shape of the article.

なお、いずれかの方向の画像に、鉛などのX線遮蔽物など、透過量が小さい部分の割合が閾値以上ある場合は、その画像には物品が写っていないと判断する。そして、もう1つの方向の信頼度の閾値を高めて、もう1つの方向からの認識結果を採用する。したがって、2つの方向の両方で物品が写っている場合には、2つの方向の認識結果を統合し、どちらかの方向にX線を遮蔽する物品などで物品が写っていない場合には、もう1つの方向の認識結果を採用する。 If the ratio of a portion having a small transmission amount such as an X-ray shield such as lead is equal to or more than the threshold value in the image in either direction, it is determined that the image does not show the article. Then, the threshold value of the reliability in the other direction is increased, and the recognition result from the other direction is adopted. Therefore, if the article is shown in both directions, the recognition results in the two directions are integrated, and if the article is not shown in an article that shields X-rays in either direction, it is already. Adopt the recognition result in one direction.

第2の統合方法は、いずれかの方向の画像に物品の正面と物品の側面のいずれかが認識できる場合に、物品を特定する統合方法である。第1の統合方法のように、2つの方向の一方で物品の正面を認識でき、他方で物品の側面を認識できる場合にのみ、物品を認識するものではないため、第1の統合方法よりも過剰検知が多くなるが、禁止物品の検出漏れを防ぐことができる。例えば、図5に例を示すように、正面が写っている方向の画像ではスマートフォンと識別できるが、側面が写っている方向の画像ではスマートフォンと識別できない場合でも、スマートフォンとして認識する。そして、側面が写っている方向の画像にも、正面が写っている方向の画像と進行方向に対する同じ位置に、スマートフォンがあるという認識結果を追加する。荷物の進行方向と垂直な方向については、正確な対応付けが難しいことから、物品がある可能性がある範囲を示す。これにより、検査員が見たときに側面の画像に関しても見落としを抑止することができるという効果がある。 The second integration method is an integration method for identifying an article when either the front surface of the article or the side surface of the article can be recognized in the image in either direction. Compared to the first integration method, the article is not recognized only when the front of the article can be recognized in one of the two directions and the side surface of the article can be recognized in the other, as in the first integration method. Over-detection increases, but it is possible to prevent omission of detection of prohibited articles. For example, as shown in FIG. 5, an image in the direction in which the front is shown can be identified as a smartphone, but an image in the direction in which the side is shown cannot be identified as a smartphone, but is recognized as a smartphone. Then, the recognition result that the smartphone is at the same position as the image in the direction in which the front is shown and the traveling direction is added to the image in the direction in which the side surface is shown is added. As for the direction perpendicular to the traveling direction of the luggage, it is difficult to make an accurate correspondence, so the range in which the article may be present is shown. This has the effect of preventing the inspector from overlooking the side image when viewed.

第3の統合方法は、2つの方向の画像のうち、禁止物品が正面に近い状態で写っている方向の画像を選択する方法である。すなわち、2つの方向の画像のうち、物品の正面についての認識結果の信頼度が大きいほうの画像を選択する。検査員が確認するモニタが1台の場合には、表示する画像を選択しなければならない。その場合は、禁止物がより鮮明に写っている画像を提示することが好ましい。そのため、禁止物品がより多く写っている画像または禁止物品の正面が写っている画像を選択する。禁止物品の数と正面のどちらを優先して選択するかは、運用条件に依存するため、事前に設定できるようにする。これにより、検査員が確認するモニタが1台であっても、可能な限り禁止物品を確認できるという効果がある。なお、第2の統合方法と組み合わせ、選択しなかった画像のみで認識されている禁止物品がある場合、選択した画像に、禁止物品が含まれる可能性がある領域を図5の破線のように追加しても構わない。 The third integration method is a method of selecting an image in the direction in which the prohibited article is shown close to the front from the images in the two directions. That is, the image having the higher reliability of the recognition result for the front surface of the article is selected from the images in the two directions. If there is only one monitor to be checked by the inspector, the image to be displayed must be selected. In that case, it is preferable to present an image in which the prohibited object is clearly shown. Therefore, an image showing more prohibited articles or an image showing the front of the prohibited articles is selected. Whether to prioritize the selection of the number of prohibited items or the front depends on the operating conditions, so it will be possible to set in advance. This has the effect that even if the inspector confirms only one monitor, the prohibited items can be confirmed as much as possible. In addition, in combination with the second integration method, when there is a prohibited article recognized only in the image not selected, the area where the prohibited article may be included in the selected image is shown by the broken line in FIG. You may add it.

なお、第1の統合方法ないし第3の統合方法は、複数の統合方法を組み合わせて使用しても、単独で使用しても、第1の統合方法ないし第3の統合方法以外と組み合わせて使用しても構わない。 The first integration method or the third integration method may be used in combination with a plurality of integration methods or alone, or may be used in combination with other than the first integration method or the third integration method. It doesn't matter.

(S305)
次に、画面生成プログラム215が、ステップS304の認識結果統合の結果の中に禁止物品が含まれている場合は、該当の部分をハイライト表示した画像を表示部103に表示する。なお、禁止物品が含まれない場合には、撮影した画像をそのまま表示すればよい。
(S305)
Next, when the screen generation program 215 includes the prohibited article in the result of the recognition result integration in step S304, the screen generation program 215 displays an image in which the corresponding portion is highlighted on the display unit 103. If the prohibited items are not included, the captured image may be displayed as it is.

ステップS305では、ステップS304の認識結果統合の結果を用いて、以下に示す第1の画面生成方法ないし第3の画面生成方法にて画面の表示データを生成し、画面表示を行う。 In step S305, the screen display data is generated by the first screen generation method or the third screen generation method shown below using the result of the recognition result integration in step S304, and the screen is displayed.

第1の画面生成方法は、図6に例を示すように、禁止物品の正面が写っている方向の画像を選んで表示する画面生成方法である。複数の物品が含まれている場合には、禁止物品としての優先度、禁止物品が認識された数など、事前に決められた条件で優先すべき方向の画像を選択して表示する。一般的に、1つの画面でAIによる認識結果を確認する場合、複数の画像を表示するよりも1つの画像を表示するほうが検査員の目視負荷を低減できる。このことから、検査の観点で確認すべき画像を表示し、その画像で認識されていない物品に関しては、ステップS304の認識結果統合の第2の統合方法を用いて、確認する画像に禁止物品が含まれる可能性がある領域が確実に表示されるようにすればよい。 The first screen generation method is a screen generation method of selecting and displaying an image in the direction in which the front of the prohibited article is shown, as shown in FIG. 6 as an example. When a plurality of articles are included, an image in a direction to be prioritized is selected and displayed under predetermined conditions such as priority as prohibited articles and the number of recognized prohibited articles. Generally, when confirming the recognition result by AI on one screen, it is possible to reduce the visual load of the inspector by displaying one image rather than displaying a plurality of images. From this, the image to be confirmed from the viewpoint of inspection is displayed, and for the article not recognized by the image, the prohibited article is included in the image to be confirmed by using the second integration method of the recognition result integration in step S304. You just need to make sure that the areas that may be included are displayed.

第2の画面生成方法は、図7に示すように、2つの方向で撮影した画像を、1画面1方向となるように、2つの画面に表示する画面生成方法である。表示する2画面の2画像は、ステップS304の認識結果統合の第2の統合方法を用いて、一方の画面にのみアラートが表示される物品が生じないようにすることが望ましい。これにより、検査員が一方の画面のみを確認して、もう一方の画面の確認を失念することによる検査漏れを抑止することができる。 As shown in FIG. 7, the second screen generation method is a screen generation method in which images taken in two directions are displayed on two screens so as to be in one direction on one screen. For the two images on the two screens to be displayed, it is desirable to use the second integration method of recognition result integration in step S304 so that no article for which an alert is displayed is generated on only one screen. As a result, it is possible to prevent an inspector from checking only one screen and forgetting to check the other screen, thereby suppressing an inspection omission.

第3の画面生成方法は、図8に示すように、1つの画面の上下または左右に、ステップS302のキャリブレーションで位置合わせをした2枚の画像を認識結果と共に表示する方法である。荷物の進行方向に関しては位置が揃っている画像で検査員が禁止物品の有無を確認できるので、2つの方向の認識結果を総合して検査員が禁止物品を判断または特定することができる。 As shown in FIG. 8, the third screen generation method is a method of displaying two images aligned by the calibration in step S302 together with the recognition result on the top, bottom, left and right of one screen. As for the traveling direction of the luggage, the inspector can confirm the presence or absence of the prohibited article by the image in which the positions are aligned, so that the inspector can judge or specify the prohibited article by integrating the recognition results in the two directions.

なお、第1の画面表示方法ないし第3の画面生成方法による画面は、装置本体101が出力する標準画面とは別に提供されても、標準画面の代わりとして提供されても構わない。また、X線画像の表示方法は、標準的な画面で用いられている荷物の撮影と同期して画面がスクロールしていく方法でも、荷物毎に画像が切り替わる方法を用いても構わない。また、物品の正面と物品の側面の両方が認識できているので、禁止物の確度が高いと判断したり、物品の正面と物品の側面の一方しか認識できていないので、禁止物品でないかもしれないが、念のために確認したほうがよいと判断したりといった認識結果に応じて、アラートの仕方を色や音などで変更することもできる。 The screen by the first screen display method or the third screen generation method may be provided separately from the standard screen output by the apparatus main body 101, or may be provided in place of the standard screen. Further, the X-ray image display method may be a method in which the screen scrolls in synchronization with the shooting of the luggage used on a standard screen, or a method in which the image is switched for each luggage. Also, since both the front of the article and the side of the article can be recognized, it is judged that the accuracy of the prohibited item is high, or since only one of the front of the article and the side of the article can be recognized, it may not be a prohibited article. However, it is possible to change the alert method by color, sound, etc. according to the recognition result such as judging that it is better to check it just in case.

なお、別の表示方法として、禁止物品がはっきりと写っている方向は見せないことで、検査員の緊張感を高めておき、その画像を問題なしと誤って判断した場合にはアラートとともに禁止物品がはっきりと写っている画像を提示することで、検査員の訓練に用いることもできる。 As another display method, the direction in which the prohibited item is clearly shown is not shown to increase the tension of the inspector, and if the image is mistakenly judged to be no problem, the prohibited item is accompanied by an alert. It can also be used for inspector training by presenting an image that clearly shows.

また、1方向のみで禁止物品として判定された場合には、方向を変更して再撮影することを検査員に促す情報を画面または音声などで出力することができる。そして、再度撮影した2方向の画像を最初に撮影した2つの方向の画像に加えた4方向の画像で判別し、少なくとも2方向の画像で物品の異なる面が認識された場合に、禁止物品と特定することができる。 Further, when it is determined that the article is prohibited in only one direction, information prompting the inspector to change the direction and take a picture again can be output on the screen or by voice. Then, the image in two directions taken again is discriminated by the image in four directions added to the image in the two directions taken first, and when different surfaces of the article are recognized in the image in at least two directions, it is regarded as a prohibited article. Can be identified.

(S306)
次に、検査が終了すなわち撮影が終了した場合には、撮影したX線画像を認識して検査員に提示するステップS301ないしステップS305の処理を終了し、検査が継続している場合には、ステップS301ないしステップS305の処理を継続する。
(S306)
Next, when the inspection is completed, that is, when the imaging is completed, the processing of steps S301 to S305 which recognizes the captured X-ray image and presents it to the inspector is terminated, and when the inspection is continued, the inspection is continued. The process of step S301 to step S305 is continued.

(S307)
次に、運用中に蓄積されたX線画像を使用して、学習モデルを生成または更新するかどうかの指示を入力I/Fに接続されたマウスやキーボードなどから受け、生成や更新をしない場合には全体の処理を終了する。
(S307)
Next, when the X-ray image accumulated during operation is used to receive an instruction as to whether to generate or update the learning model from the mouse or keyboard connected to the input I / F, and the learning model is not generated or updated. Ends the entire process.

(S308)
次に、物品学習プログラム217で、X線画像データ218を読出し、物品の学習を行い生成した学習モデルを、学習モデル219に登録する。
(S308)
Next, the article learning program 217 reads out the X-ray image data 218, learns the article, and registers the generated learning model in the learning model 219.

物品の学習は、物品の認識をするステップと同様に、OSS(オープンソースソフトウェア)のライブラリとして広く知られている「Fully Convolutional Instance-aware Semantic Segmentation」や「Mask R-CNN」などのライブラリを用いることができる。 Similar to the step of recognizing an article, the learning of an article uses a library such as "Full Convolutional Instance-aware Semantic Segmentation" or "Mask R-CNN" which is widely known as an OSS (open source software) library. be able to.

なお、物品の学習をする前には、物品の輪郭情報と物品を識別するための正解情報が必要となるが、本実施例では、正解付けの方法は限定しない。人手で物品の領域を囲み、物品名を選択するなど汎用の方法を用いればよい。 Before learning the article, contour information of the article and correct answer information for identifying the article are required, but in this embodiment, the method of correct answer is not limited. A general-purpose method such as manually enclosing the area of the article and selecting the article name may be used.

なお、ステップS303で認識された結果を物品の候補領域として提示し、人手による正解付けの作業を効率化することも可能である。例えば、1つの方向しか物品が判別できなかった場合に、もう一方の同じ物品が写っている可能性がある箇所を、正解付けをする作業者に提示することで、正解付けの漏れを防止することができる。学習した学習モデルは、学習モデル219に登録し、処理を終了する。 It is also possible to present the result recognized in step S303 as a candidate area for an article to improve the efficiency of manual correct answering work. For example, when an article can be identified in only one direction, the omission of the correct answer can be prevented by presenting to the worker who gives the correct answer the place where the same article in the other direction may be shown. be able to. The learned learning model is registered in the learning model 219, and the process ends.

本実施例によれば、2つの方向で撮影した画像の認識結果を統合することで、物品の認識精度を向上しつつ、検査員に表示する画像は物品が見やすい方向の画像を提示することができるので、検査漏れを抑止しつつ、検査効率を向上できるという効果がある。また、1画面の表示であっても、必要な情報を統合して表示できるので、表示部の設置スペースの削減や装置台数の削減といった効果がある。 According to this embodiment, by integrating the recognition results of the images taken in the two directions, the recognition accuracy of the article can be improved, and the image displayed to the inspector can be presented in the direction in which the article is easy to see. This has the effect of improving inspection efficiency while suppressing inspection omissions. Further, even if the display is on one screen, the necessary information can be integrated and displayed, which has the effects of reducing the installation space of the display unit and the number of devices.

なお、本実施例では、主に2つの方向で撮影する例を示したが、複数の方向で撮影するものであればよい。
また、本実施例では、X線を用いて物品を撮影する例を示したが、物品を透過して撮影できる電磁波であれば、例えば、テラヘルツ波など他の電磁波を用いても構わない。
例えば、X線を電磁波に変えた次のような構成でも、複数の方向からの撮影が可能な電磁波検査装置において、禁止物品の認識精度を向上させることができる電磁波画像処理装置および電磁波画像処理方法を提供することができるという同様の効果を奏する。
物品を複数の方向から撮影した複数の電磁波画像を取得する電磁波画像取得部と、複数の電磁波画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、複数の電磁波画像に対する認識結果を統合する認識結果統合部と、統合された認識結果をもとに、画面情報を生成する画面生成部と、有する電磁波画像処理装置。
電磁波画像処理装置における電磁波画像処理方法であって、物品を複数の方向から撮影した複数の電磁波画像を取得する電磁波画像取得ステップと、複数の電磁波画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、複数の電磁波画像に対する認識結果を統合する認識結果統合ステップと、統合された認識結果をもとに、画面情報を生成する画面生成ステップと、を有する電磁波画像処理方法。
また、本実施例では、X線装置本体101と、X線画像処理装置102とが別体である例を示したが、X線画像処理装置は、X線装置本体に内蔵されてもよい。
In this embodiment, an example of shooting mainly in two directions is shown, but it may be shot in a plurality of directions.
Further, in this embodiment, an example in which an article is photographed using X-rays is shown, but other electromagnetic waves such as terahertz waves may be used as long as the electromagnetic waves can be photographed through the article.
For example, an electromagnetic wave image processing device and an electromagnetic wave image processing method that can improve the recognition accuracy of prohibited articles in an electromagnetic wave inspection device capable of taking pictures from a plurality of directions even with the following configuration in which X-rays are converted into electromagnetic waves. Has the same effect of being able to provide.
An article recognition that recognizes an article by using an electromagnetic wave image acquisition unit that acquires a plurality of electromagnetic wave images obtained by photographing an article from a plurality of directions and a learning model that learns the first surface of the article for a plurality of electromagnetic wave images. An electromagnetic wave image processing device having a unit, a recognition result integration unit that integrates recognition results for a plurality of electromagnetic wave images, a screen generation unit that generates screen information based on the integrated recognition results, and an electromagnetic wave image processing unit.
It is an electromagnetic wave image processing method in an electromagnetic wave image processing device, and learns an electromagnetic wave image acquisition step of acquiring a plurality of electromagnetic wave images obtained by photographing an article from a plurality of directions, and a first surface of the article for a plurality of electromagnetic wave images. An article recognition step that recognizes an article, a recognition result integration step that integrates recognition results for a plurality of electromagnetic wave images, and a screen generation step that generates screen information based on the integrated recognition results. And, an electromagnetic wave image processing method having.
Further, in this embodiment, an example in which the X-ray device main body 101 and the X-ray image processing device 102 are separate bodies is shown, but the X-ray image processing device may be built in the X-ray device main body.

また、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 Further, the present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add / delete / replace a part of the configuration of the embodiment with another configuration.

100:X線検査装置
101:装置本体
102:X線画像処理装置
103:表示部
104:入力部
201:CPU
202:主メモリ
205:通信部
210:記憶部
211:OS
212:X線画像取得プログラム
213:物品認識プログラム
214:認識結果統合プログラム
215:画面生成プログラム
216:キャリブレーションプログラム
217:物品学習プログラム
218:X線画像データ
219:学習モデル
100: X-ray inspection device 101: Device main body 102: X-ray image processing device 103: Display unit 104: Input unit 201: CPU
202: Main memory 205: Communication unit 210: Storage unit 211: OS
212: X-ray image acquisition program 213: Article recognition program 214: Recognition result integration program 215: Screen generation program 216: Calibration program 217: Article learning program 218: X-ray image data 219: Learning model

Claims (14)

物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、
前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、
前記複数のX線画像に対する認識結果を統合する認識結果統合部と、
統合された認識結果をもとに、画面情報を生成する画面生成部と、
を有するX線画像処理装置。
An X-ray image acquisition unit that acquires multiple X-ray images of an article taken from multiple directions,
An article recognition unit that recognizes an article by using a learning model that learns the first surface of the article for the plurality of X-ray images.
The recognition result integration unit that integrates the recognition results for the plurality of X-ray images,
A screen generator that generates screen information based on the integrated recognition results,
X-ray image processing apparatus.
請求項1に記載のX線画像処理装置であって、
前記物品認識部は、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、
X線画像処理装置。
The X-ray image processing apparatus according to claim 1.
The article recognition unit recognizes an article by using a learning model that learns the first surface of the article and a learning model that learns a second surface different from the first surface of the article.
X-ray image processing device.
請求項1または請求項2に記載のX線画像処理装置であって、
前記認識結果統合部は、前記複数のX線画像から、前記物品の第1の面についての認識結果の信頼度が最も大きいX線画像を選択する、
X線画像処理装置。
The X-ray image processing apparatus according to claim 1 or 2.
The recognition result integration unit selects from the plurality of X-ray images the X-ray image having the highest reliability of the recognition result for the first surface of the article.
X-ray image processing device.
請求項1または請求項2に記載のX線画像処理装置であって、
前記認識結果統合部は、前記複数のX線画像の1つに、前記物品の第1の面を認識でき、前記複数のX線画像の他の1つに、前記物品の第2の面を認識できる場合に、前記物品を認識する、
X線画像処理装置。
The X-ray image processing apparatus according to claim 1 or 2.
The recognition result integration unit can recognize the first surface of the article on one of the plurality of X-ray images, and the second surface of the article on the other one of the plurality of X-ray images. Recognize the article if it can be recognized,
X-ray image processing device.
請求項1または請求項2に記載のX線画像処理装置であって、
前記認識結果統合部は、前記複数のX線画像の1つに、前記物品の第1の面または前記物品の第2の面を認識できる場合に、前記物品を認識する、
X線画像処理装置。
The X-ray image processing apparatus according to claim 1 or 2.
The recognition result integration unit recognizes the article when the first surface of the article or the second surface of the article can be recognized in one of the plurality of X-ray images.
X-ray image processing device.
請求項1ないし請求項5のいずれか1項に記載のX線画像処理装置であって、
前記画面生成部は、前記複数のX線画像のうち、一部のX線画像に対してのみ危険物が認識されている場合、残りのX線画像の前記危険物に対応する部分に、危険物が含まれる可能性がある領域を示す表示を追加する、
X線画像処理装置。
The X-ray image processing apparatus according to any one of claims 1 to 5.
When the dangerous substance is recognized only for a part of the X-ray images among the plurality of X-ray images, the screen generation unit may be dangerous to the portion of the remaining X-ray images corresponding to the dangerous substance. Add a display showing areas that may contain objects,
X-ray image processing device.
請求項1ないし請求項6のいずれか1項に記載のX線画像処理装置であって、
前記複数のX線画像のサイズまたは表示位置を調整するキャリブレーション部を有する、
X線画像処理装置。
The X-ray image processing apparatus according to any one of claims 1 to 6.
It has a calibration unit for adjusting the size or display position of the plurality of X-ray images.
X-ray image processing device.
X線画像処理装置におけるX線画像処理方法であって、
物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得ステップと、
前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、
前記複数のX線画像に対する認識結果を統合する認識結果統合ステップと、
統合された認識結果をもとに、画面情報を生成する画面生成ステップと、
を有するX線画像処理方法。
It is an X-ray image processing method in an X-ray image processing apparatus.
An X-ray image acquisition step to acquire multiple X-ray images of an article taken from multiple directions,
An article recognition step for recognizing an article by using a learning model in which the first surface of the article is learned for the plurality of X-ray images.
The recognition result integration step for integrating the recognition results for the plurality of X-ray images,
A screen generation step that generates screen information based on the integrated recognition result,
X-ray image processing method having.
請求項8に記載のX線画像処理方法であって、
前記物品認識ステップは、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、
X線画像処理方法。
The X-ray image processing method according to claim 8.
The article recognition step recognizes an article by using a learning model that learns a first surface of the article and a learning model that learns a second surface different from the first surface of the article.
X-ray image processing method.
請求項8または請求項9に記載のX線画像処理方法であって、
前記認識結果統合ステップは、前記複数のX線画像から、前記物品の第1の面についての認識結果の信頼度が最も大きいX線画像を選択する、
X線画像処理方法。
The X-ray image processing method according to claim 8 or 9.
The recognition result integration step selects from the plurality of X-ray images the X-ray image having the highest reliability of the recognition result for the first surface of the article.
X-ray image processing method.
請求項8または請求項9に記載のX線画像処理方法であって、
前記認識結果統合ステップは、前記複数のX線画像の1つに、前記物品の第1の面を認識でき、前記複数のX線画像の他の1つに、前記物品の第2の面を認識できる場合に、前記物品を認識する、
X線画像処理方法。
The X-ray image processing method according to claim 8 or 9.
In the recognition result integration step, the first surface of the article can be recognized in one of the plurality of X-ray images, and the second surface of the article can be recognized in the other one of the plurality of X-ray images. Recognize the article if it can be recognized,
X-ray image processing method.
請求項8または請求項9に記載のX線画像処理方法であって、
前記認識結果統合ステップは、前記複数のX線画像の1つに、前記物品の第1の面または前記物品の第2の面を認識できる場合に、前記物品を認識する、
X線画像処理方法。
The X-ray image processing method according to claim 8 or 9.
The recognition result integration step recognizes the article if one of the plurality of X-ray images can recognize the first surface of the article or the second surface of the article.
X-ray image processing method.
請求項8ないし請求項12のいずれか1つに記載のX線画像処理方法であって、
前記画面生成ステップは、前記複数のX線画像のうち、一部のX線画像に対してのみ危険物が認識されている場合、残りのX線画像の前記危険物に対応する部分に、危険物が含まれる可能性がある領域を示す表示を追加する、
X線画像処理方法。
The X-ray image processing method according to any one of claims 8 to 12.
In the screen generation step, when a dangerous substance is recognized only for a part of the X-ray images among the plurality of X-ray images, the portion of the remaining X-ray images corresponding to the dangerous substance is dangerous. Add a display showing areas that may contain objects,
X-ray image processing method.
請求項8ないし請求項13のいずれか1つに記載のX線画像処理方法であって、
前記複数のX線画像のサイズまたは表示位置を調整するキャリブレーションステップを有する、
X線画像処理方法。
The X-ray image processing method according to any one of claims 8 to 13.
It has a calibration step for adjusting the size or display position of the plurality of X-ray images.
X-ray image processing method.
JP2020115632A 2020-07-03 2020-07-03 X-ray image processing device and X-ray image processing method Active JP7422023B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020115632A JP7422023B2 (en) 2020-07-03 2020-07-03 X-ray image processing device and X-ray image processing method
CN202110137234.0A CN113960687A (en) 2020-07-03 2021-02-01 X-ray image processing device and X-ray image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020115632A JP7422023B2 (en) 2020-07-03 2020-07-03 X-ray image processing device and X-ray image processing method

Publications (2)

Publication Number Publication Date
JP2022013217A true JP2022013217A (en) 2022-01-18
JP7422023B2 JP7422023B2 (en) 2024-01-25

Family

ID=79459397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020115632A Active JP7422023B2 (en) 2020-07-03 2020-07-03 X-ray image processing device and X-ray image processing method

Country Status (2)

Country Link
JP (1) JP7422023B2 (en)
CN (1) CN113960687A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117455956A (en) * 2023-12-22 2024-01-26 天津众合智控科技有限公司 AI technology-based man-package association tracking method and system
JP7517747B1 (en) 2023-05-24 2024-07-17 株式会社桑原 Foreign object detection device and foreign object detection system for clothing and miscellaneous goods

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05133909A (en) * 1991-11-15 1993-05-28 Toshiba Corp Scattered radiation inspecting apparatus
EP0579848B1 (en) * 1992-07-20 1995-10-04 Heimann Systems GmbH Testing system for objects
JP3435648B2 (en) * 1997-03-25 2003-08-11 株式会社日立メディコ X-ray inspection equipment
US20050058242A1 (en) 2003-09-15 2005-03-17 Peschmann Kristian R. Methods and systems for the rapid detection of concealed objects
US8137976B2 (en) 2006-07-12 2012-03-20 Varian Medical Systems, Inc. Dual angle radiation scanning of objects
CN101387610B (en) * 2008-10-14 2011-02-09 重庆大学 Safety inspection method utilizing double source double energy straight-line type safety inspection CT apparatus
CN101509880A (en) * 2009-03-25 2009-08-19 公安部第一研究所 Safety check system of manifold effect detection fusing technology applying X ray
CN104345350A (en) * 2013-07-23 2015-02-11 清华大学 Human body safety check method and human body safety check system
CN104165896B (en) * 2014-08-18 2017-03-22 公安部第一研究所 Liquid goods safety inspection method and device
CN110286414A (en) 2014-12-17 2019-09-27 同方威视技术股份有限公司 Pulling type multi-angle of view commodity inspection system and its application method
CN108303747B (en) * 2017-01-12 2023-03-07 清华大学 Inspection apparatus and method of detecting a gun
EP4372698A2 (en) 2017-05-22 2024-05-22 Leidos Security Detection & Automation, Inc. Systems and methods for image processing
CN107871122A (en) * 2017-11-14 2018-04-03 深圳码隆科技有限公司 Safety check detection method, device, system and electronic equipment
CN108875805A (en) * 2018-05-31 2018-11-23 北京迈格斯智能科技有限公司 The method for improving detection accuracy using detection identification integration based on deep learning
CN108802840B (en) * 2018-05-31 2020-01-24 北京迈格斯智能科技有限公司 Method and device for automatically identifying object based on artificial intelligence deep learning
CN208902891U (en) * 2018-11-02 2019-05-24 北京中集博源机电设备有限公司 A kind of adaptive logistics delivery line double-visual angle intelligence safety check apparatus
CN110133739B (en) * 2019-04-04 2021-07-27 南京全设智能科技有限公司 X-ray security check equipment and automatic image recognizing method thereof
CN110133740A (en) * 2019-04-29 2019-08-16 公安部第一研究所 A kind of double-visual angle intelligence X-ray rays safety detection apparatus
CN110850493A (en) * 2019-10-24 2020-02-28 武汉艾崴科技有限公司 Linear array high-speed security inspection machine for visual image judgment of scanning imaging machine

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7517747B1 (en) 2023-05-24 2024-07-17 株式会社桑原 Foreign object detection device and foreign object detection system for clothing and miscellaneous goods
CN117455956A (en) * 2023-12-22 2024-01-26 天津众合智控科技有限公司 AI technology-based man-package association tracking method and system

Also Published As

Publication number Publication date
JP7422023B2 (en) 2024-01-25
CN113960687A (en) 2022-01-21

Similar Documents

Publication Publication Date Title
US11287391B2 (en) Systems and methods for detecting threats and contraband in cargo
EP3349050B1 (en) Inspection devices and methods for detecting a firearm
Rogers et al. Automated x-ray image analysis for cargo security: Critical review and future promise
CN106485268B (en) Image identification method and device
US9552521B2 (en) Human body security inspection method and system
US20050199782A1 (en) Cargo sensing system
US10436932B2 (en) Inspection systems for quarantine and methods thereof
EP3772722B1 (en) X-ray image processing system and method, and program therefor
CN109978892B (en) Intelligent security inspection method based on terahertz imaging
US20170103513A1 (en) Detection of items in an object
US8204291B2 (en) Method and system for identifying defects in a radiographic image of a scanned object
JP2022013217A (en) X-ray image processing system and x-ray image processing method
CN113508388A (en) Classifier using data generation
JP7295568B2 (en) Inspection device and program
JP2020153975A (en) Processing system
JP6574402B2 (en) Image inspection apparatus, image inspection method, and image inspection program
CN114170318A (en) Image processing method, apparatus, system, medium, and electronic device
KR20210115695A (en) Method for identifying cargo based on deep-learning and apparatus performing the same
KR20200087331A (en) Apparatus and method for inspecting steel products
CN112730468B (en) Article detection device and method for detecting article
CN212180649U (en) Paste appearance defect detection equipment
US20230394779A1 (en) Method and apparatus for detecting cargo in container image using container wall background removal
WO2024043190A1 (en) Inspection device, inspection system, and inspection method
US20230016147A1 (en) System and method for training an artificial intelligence (ai) classifier of scanned items
KR100939600B1 (en) Product-quality inspection system and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240115

R150 Certificate of patent or registration of utility model

Ref document number: 7422023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150