JP7422023B2 - X線画像処理装置およびx線画像処理方法 - Google Patents

X線画像処理装置およびx線画像処理方法 Download PDF

Info

Publication number
JP7422023B2
JP7422023B2 JP2020115632A JP2020115632A JP7422023B2 JP 7422023 B2 JP7422023 B2 JP 7422023B2 JP 2020115632 A JP2020115632 A JP 2020115632A JP 2020115632 A JP2020115632 A JP 2020115632A JP 7422023 B2 JP7422023 B2 JP 7422023B2
Authority
JP
Japan
Prior art keywords
article
ray image
ray
image processing
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020115632A
Other languages
English (en)
Other versions
JP2022013217A (ja
Inventor
直人 秋良
紫薇 ▲とう▼
仁志 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2020115632A priority Critical patent/JP7422023B2/ja
Priority to CN202110137234.0A priority patent/CN113960687A/zh
Publication of JP2022013217A publication Critical patent/JP2022013217A/ja
Application granted granted Critical
Publication of JP7422023B2 publication Critical patent/JP7422023B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • G01V5/22Active interrogation, i.e. by irradiating objects or goods using external radiation sources, e.g. using gamma rays or cosmic rays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Analysis (AREA)

Description

本発明は、X線画像処理装置およびX線画像処理方法に関する。
空港や大規模イベント会場等において手荷物検査にX線手荷物検査装置が利用されている。X線手荷物検査装置は一般的に、X線の透過量を示すグレースケール画像や、さらに材質を判定して材質毎に色づけをしたカラー画像を生成する。そして、検査員が目視で画像をチェックして危険物の有無を確認し、検査員が危険物を発見すると、荷物を開被検査するのが一般的な運用である。
X線画像に危険物が含まれているか否かを確認するためには、高度な訓練を受けた検査員が必要である。そのため、例えば大規模イベントに際して検査員を一時的に大量に確保することは、事前の訓練やコストの点から難しい。そこで、検査員の負荷を少しでも低減するために、危険物の発見を自動化しようという試みがなされている。
画像認識を自動化する一方策として、AI(人工知能)による深層学習を活用した画像認識技術があげられる。深層学習は映像解析の用途などで広く用いられており、高い認識精度が得られるため、その普及が進んでいる。例えば、特許文献1には、材質の密度と形状認識結果を組みわせることで高い認識精度を得る方法が開示されている。
特開2018-4363号公報
特許文献1に記載の技術は、X線検査装置で1方向から撮影した画像を認識対象としている。すなわち、1つの撮影方向に対して1つの認識結果が得られるため、複数の撮影方向がある場合には、撮影方向の数だけ認識結果が得られる。そのため、検査員は複数の認識結果を確認しなければならず、検査員の確認時間が増えてしまうという課題がある。また、1方向から撮影した画像は情報量が少なく、物品を3D(三次元)で撮影可能なCT方式と比較して認識精度が低下してしまうという課題がある。
一方、2方向から撮影可能なX線検査装置は、CT方式よりも安価であるため普及が進んでいる。2方向から撮影可能なX線検査装置は、例えばナイフのように厚さが薄い物品であっても、当該物品を2方向から撮影することにより、いずれかの方向から撮影した画像によって、ナイフの形状を明確に判別することが可能となる。そのため、物品を2方向から確認することにより、物品を1方向から確認する場合よりも見逃し防止が期待できる。AIを用いた禁止物品の認識においても、2方向の認識結果を統合したうえで最終的な認識結果を提示することがよいと考えられる。
本発明の目的は、複数の方向からの撮影が可能なX線検査装置において、禁止物品の認識精度を向上させることができるX線画像処理装置およびX線画像処理方法を提供することにある。
上記課題を解決するために、代表的な本発明のX線画像処理装置の一つは、物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、複数のX線画像に対する認識結果を統合する認識結果統合部と、統合された認識結果をもとに、画面情報を生成する画面生成部と、を有する。
本発明によれば、複数の方向からの撮影が可能なX線検査装置において、禁止物品の認識精度を向上させることができるX線画像処理装置およびX線画像処理方法を提供することができる。
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
X線検査装置の構成図である。 X線画像処理装置102の機能構成図である。 物品の認識と表示を行う処理動作を示すフローチャートである。 画像データを荷物単位に分割する例を示す図である。 物品の正面と側面の画像の例を示す図である。 画面生成の例を示す図である。 画面生成の例を示す図である。 画面生成の例を示す図である。
以下、本発明のX線画像処理装置およびX線画像処理方法の好ましい実施形態について説明する。
本開示において、物品の「正面」とは、一般的な検査員が確認したときに物品を判別しやすい方向から見える面を意味し、物品の「側面」とは、正面が見える方向に対して垂直な方向から見える面を意味し、認識結果の「信頼度」とは、認識結果の尤もらしさを意味する。
図1は、X線画像処理装置を有するX線検査装置の構成図である。
X線検査装置100は、例えば空港の保安検査において手荷物検査装置として広く用いられている装置であり、X線装置本体(以下、装置本体という)101と、X線画像処理装置102と、表示部103と、入力部104を有する。X線画像処理装置102は例えばパーソナルコンピュータ(PC)である。表示部103は、2方向から撮影した画像を表示する場合や、カラー画像とグレースケール画像を表示する場合などに、2つ以上のディスプレイで構成されることもある。
装置本体101は、X線を照射する照射機構と、手荷物等の対象物を撮影してX線の透過量を計測するX線撮影機構を有し、X線透過量のデータ(以下、単に「透過量データ」または「透過量」ということがある。)を出力する。X線画像処理装置102は、装置本体101が撮影したX線画像の物品認識結果に基づき手荷物が安全であるか否かを判定する。本実施例のX線画像処理装置は、学習の機能を有しており、蓄積された物品情報を用いて画像認識用のモデルを学習することができる。表示部103はX線画像を表示する表示端末であり、画面に表示されるX線画像を検査員が目視で確認することができる。
装置本体101は、荷物を搬送するベルトコンベアを備えた搬送機構を有し、搬送機構は制御部により制御されて、ベルトコンベアを駆動、停止させることができる。X線画像処理装置102は、物品認識の結果、危険な手荷物(アラート対象物)と判定した場合、装置本体101または装置本体101付近に設置された表示ランプを点灯して、物品がアラート対象物である旨を検査員に通知する。なお、アラート対象物である旨の通知には、表示部103やX線画像処理装置102の音声出力部を用いてもよい。
本実施例の搬送機構には、X線の透過量を計測する2種類のX線センサ(以下単に「センサ」という。)が配置され、2種類のデータを取得する。すなわち、1つのセンサが低いエネルギーのデータを取得し、他の1つのセンサが高いエネルギーのデータを取得する。X線画像処理装置102は、2つのセンサにより取得される高エネルギーのデータと低エネルギーのデータの差分に基づき対象物の材質を判定する。X線センサは、材質が判断できるX線データが取得できればよく、X線センサの検知方式は問わない。例えば後方散乱式の材質判定センサ等を用いることができるし、その他のセンサでもよい。さらに、本実施例のX線検査装置には、荷物が通過するエリアの側面(垂直面)と天井面(水平面)など、複数個所にそれぞれ上記センサのセット(2種類のX線センサ)が取り付けられている。例えば2方向から撮影可能なX線検査装置では、上と横の二方向から同時に荷物を撮影することができる。通常、センサとしてはラインセンサが用いられている。このような場合、複数のX線の光源の干渉を避けるために、第一のセンサのセットと第二のセンサのセットは荷物進行方向に対する位置を若干ずらして設置されていることもある。
図2は、X線画像処理装置102の機能構成図である。
X線画像処理装置102は、処理部(CPU:Central Processing Unit)201、主メモリ202、表示部103を接続する表示インターフェース(I/F)部203、入力部104を接続する入力インターフェース(I/F)部204、通信部205、記憶部210を有する情報処理装置である。
処理部201はプログラムを実行して所定の機能や動作を実現する。記憶部210は、X線画像取得プログラム212、物品認識プログラム213、認識結果統合プログラム214、画面生成プログラム215、キャリブレーションプログラム216、物品学習プログラム217、X線画像データ218、学習モデル219を格納する。
ここで、X線画像取得プログラム212は、装置本体101が撮影したX線の透過量データを専用のインターフェースまたはVGA端子などの汎用の画面出力端子から取得する。なお、空港の保安検査場などで用いられているX線検査装置の場合、一般的に2方向から撮影した画像を独立した2画面に表示することが多い。その場合は、複数の入力端子からX線の透過量データを取得しても構わない。X線画像取得プログラム212による動作の詳細については後述する。
物品認識プログラム213は、装置本体101が撮影した2種類のX線センサの透過量データから生成した荷物の材質情報と物品の密度情報を可視化したカラー画像または2種類のX線センサのいずれかのセンサの透過量データを変換したグレースケール画像を対象として、深層学習のセグメンテーション技術を用いて画像内に含まれる物品を画素単位で認識する。物品認識プログラム213による動作の詳細については後述する。
認識結果統合プログラム214は、2方向から撮影した2つの画像の認識結果を統合して、物品を高精度に認識する。また、検査員に提示する画面を1つにする場合には、2方向から撮影した2つの画像から、検査員に提示する画像を選択する。認識結果統合プログラム214の動作の詳細については後述する。
画面生成プログラム215は、認識結果統合プログラム214で統合された認識結果をもとに、検査員端末のモニタに表示する画面情報を生成し、表示部103に生成した画面情報を表示する。画面生成プログラム215の動作の詳細については後述する。
キャリブレーションプログラム216は、複数の方向から撮影された複数の画像の位置を対応付けられるように、画像の位置を調整する。キャリブレーションプログラム216の動作の詳細については後述する。
物品学習プログラム217は、入力されたカラー画像またはグレースケール画像を対象として深層学習のセグメンテーション処理などを用いて学習を実施し、学習モデル219を生成する。
X線画像データ218は、2種類のセンサにより計測されるX線透過量データから生成された、材質情報と密度情報を示すカラー画像またはグレースケールの画像が登録される。カラー画像については、2種類のセンサのX線透過量データの差分から物品の材質を判定し、例えば、材質情報が色、透過量が濃さ(密度が大きい部分は濃く、密度が小さい部分は薄い)となるカラー画像が登録される。なお、センサが2つの方向の撮影用に設置されている場合は、1回の撮影で異なる向きからの画像が2つ撮影されて、X線画像データ218に登録される。
なお、記憶部210に記憶される、上記の、X線画像取得プログラム212、物品認識プログラム213、認識結果統合プログラム214、画面生成プログラム215、キャリブレーションプログラム216、物品学習プログラム217は、処理部201で実行されると、それぞれ、X線画像取得部212´、物品認識部213´、認識結果統合部214´、画面生成部215´、キャリブレーション部216´、物品学習部217´としての機能を実現する。
X線画像データ218は、X線検査装置100で撮影された荷物のカラー画像またはグレースケールの画像である。X線検査装置100が例えば垂直方向と水平方向の2方向から撮影できる装置である場合、1つの荷物に対して、垂直方向と水平方向の2つの画像が荷物IDと共にX線画像データ218の保存領域に記録される。
学習モデル219には、物品学習プログラム217で学習したモデルのパラメータ情報が記録されている。なお、学習モデルとしては、一つの物品に対して、正面や側面など、さまざまな方向で学習した学習モデルを用いてもよい。しかし、本実施例においては、物品が何であるかだけでなく、学習モデルを適用した物品の画像に対して、物品の正面と側面のいずれであるかも判別できるようにしているため、本実施例に用いる学習モデルとしては、例えば、スマートフォンについて、正面の画像と側面の画像を別の物品の画像として学習した学習モデルを用いてもよい。
このような学習モデルを用いることにより、スマートフォンのように、正面と側面の見た目が大きく異なる場合、正面と側面を別の物品として学習していることで、正面と側面の識別をより的確に反映させた学習モデルが構築できる。
次に、図3を参照して、物品の認識と表示を行う処理動作について説明する。この処理動作は、X線検査装置100を使用する検査業務の際の処理動作である。
(S301)
まず、X線画像取得プログラム212が、X線のセンサで取得された透過量データであるRAWデータまたは透過量データが画像化されたX線画像(ディスプレイに表示する画面信号)を取得する。ここで、入力が高低2種類のエネルギーのRAWデータの場合は、高低2種類のエネルギーの透過量データの差分情報から画像の画素単位の材質を判定する。材質の判定は、例えばこの分野で広く知られている高低2種類のエネルギーの透過量の差分情報により、金属、無機物、有機物、その他の4種類に分類する方法を用いることができる。そして、材質情報と高低2種類のエネルギーのいずれかのX線透過量を用いて、材質情報が色、透過量が濃さ(密度が大きい部分は濃く、密度が小さい部分は薄い)となるカラー画像を生成する。
ここで、装置本体101から取得される画像データが撮影対象の荷物毎に分割されていない場合、つまり、一つの画像データに複数の荷物が写りこんでいる場合は、以下に示す第1の分割方法ないし第3の分割方法にて画像データを荷物単位に分割する。
第1の分割方法は、装置本体101のVGA出力端子などからディスプレイに表示する画面信号を入力する場合の方法である。まず、画面信号を取得し、フレーム画像の変化の度合いを用いて荷物の表示内容が変化しているかどうかを判定する。荷物の撮影が終了すると画面上には荷物が静止して表示される。透過量が閾値以下の濃い部分を荷物エリアとすると、荷物エリアが変化するかどうかで荷物の撮影の終了および撮影終了時の荷物エリアを特定することができる。
第2の分割方法の例を図4に示す。画面信号またはRAWデータを取得し、透過量の積分値を一定のライン数毎または一定時間毎に求める。透過量が小さい(=濃い)部分は荷物があると判定し、透過量が大きい(=薄い)部分は荷物がないと判定して、荷物単位に画像を分割する。1ラインで判定してしまうと、ノイズなどで誤判定してしまう可能性があるため、移動平均をとった透過量の積分値が閾値以下の場合は荷物あり、閾値以上の場合は荷物なしと判定することもできる。また、荷物の途中に薄い部分が含まれることがあるため、薄い部分は一定量連続した場合に荷物と荷物の間のスペースと判定してもよい。図4のグラフは、透過量が小さい(=濃い)ほど上に、透過量が大きい(=薄い)ほど下にプロットされ、数字は何番目のラインであるかを示す。
第3の分割方法は、X線検査装置の荷物投入口に設置された荷物検知センサを用いる方法である。一般的なX線検査装置では、荷物で例えば、光線が遮蔽される位置に遮蔽を検知できるセンサが設置されている。センサが荷物を検知した時刻に、センサが荷物を検知した時点からラインセンサに荷物の先端が到着するまでの時間を加算することで荷物開始点の時刻(撮影開始時刻)が取得できる。また、センサが荷物を検知しなくなった時刻に、センサが荷物を検知しなくなった時点からラインセンサに荷物の終端が到着するまでの時間を加算することで荷物終了点の時刻(撮影終了時刻)が取得できる。荷物開始点の時刻と荷物終了点の時刻を取得することで、入力が画面信号であれば、荷物終了点の時刻の画面と、撮影時間の情報から荷物領域を特定することができる。入力がRAWデータであれば、開始時刻から終了時刻までのRAWデータを1つの荷物のRAWデータとして荷物領域の画像を生成することができる。
2方向から撮影できるX線検査装置では、上記の分割方法を例えば垂直方向から撮影した画像と水平方向から撮影した画像に適用する。
(S302)
次に、キャリブレーションプログラム216が、X線画像取得プログラム212で取得した2方向の撮影画像に対して荷物の進行方向に対する位置の対応付けを行う。例えば、X線画像取得プログラム212で2方向の2枚のX線画像を取得した場合、撮影方向によって物品の見え方が異なったり、ラインセンサの位置が異なるため、そのままでは、2枚の画像の画素単位の位置関係の対応が明確にならないことが多い。一般に検査員が検査装置の画像を目視して確認する場合や、1枚の画像毎にAIによる物品認識を適用する場合は、2枚の画像を画素単位で対応付ける必要はないため、検査員端末に表示される2方向2画面の画像はラインセンサの間隔分ずれて表示されていることもある。そこで、キャリブレーションプログラム216を用いて、以下に示す第1のキャリブレーション方法ないし第3のキャリブレーション方法にて2枚の画像の画素間の対応付けを実施する。
第1のキャリブレーション方法は、ラインセンサ間の時間間隔を用いる方法である。例えば、RAWデータを用いる方式の場合、2つのラインセンサから入力されるデータには、一定の時間のずれがある。そこで、データの入力時刻をラインセンサ間の時間間隔分調整して、ライン単位で時刻が同期するようにすることで、画素間の対応付けを行う。
第2のキャリブレーション方法は、画面信号を入力とし、X線画像を取得するステップ(S301)において第1の画像分割方法または第2の画像分割方法を用いる場合のキャリブレーション方法である。透過量の大きさ(濃さ)に基づく画像分割方法を用いる場合、2つの方向から撮影した画像は、各々透過量の分布が異なるため、必ずしも同じ位置が開始点、終了点と判定されるとは限らない。また、荷物領域のみを切り出す画像分割方法の場合、荷物の進行方向だけでなく、進行方向と垂直方向に関しても余白すなわち透過量が大きい部分を削除する運用が想定されるため、2つの方向から撮影して荷物単位に切り出した画像は、解像度もアスペクト比も異なる。
そこで、荷物の進行方向について、2つのラインセンサの時間間隔および2つの画像の撮影開始時刻と撮影終了時刻を用いて対応付けを行う。撮影開始時刻が早いほうの画像に合わせて撮影開始時刻が遅いほうの画像に余白画像を追加し、撮影終了時刻が遅いほうの画像に合わせて撮影終了時刻が早いほうの画像に余白画像を追加する。なお、荷物の進行方向と垂直な方向については、垂直方向と水平方向では荷物のサイズも異なり、画素単位の対応付けが難しいため、画像のサイズが異なっていても構わない。すなわち、キャリブレーションにより調整された画像は、荷物の進行方向については、必ず同じ物品が同じ位置に撮影されていることが保証される。
第3のキャリブレーション方法は、第1のキャリブレーション方法または第2のキャリブレーション方法で使用するラインセンサ間の時間間隔を、装置利用開始時に特定のパターンを持つサンプル荷物を撮影することで計測する方法である。このサンプル荷物には、鉛インクなどで作られたX線画像で判別可能なパターンなど、撮影したときに位置が特定できるものが含まれている。先に撮影される画像のパターンの撮影時刻と、後から撮影される画像のパターンの撮影時刻との差分でラインセンサ間の時間間隔を計測できる。ラインセンサ間の距離は固定であっても、ベルトコンベアの進む速さに誤差が生じた場合、装置の初期導入時に設定した時間間隔では正確な位置の対応付けが行えない可能性がある。そのため、定期的に第3のキャリブレーション方法を用いて、誤差を修正することで、正確な対応付けが実現できる。
キャリブレーションを実施することによって、2つの方向から撮影した2枚の画像を荷物の進行方向について位置を合わせて表示することができる。また、2つの方向から撮影した2枚の画像をAIを用いて総合的に認識することができる。
なお、取得したX線画像データは、次の物品認識をするステップS303や検査員が過去の画像データを参照する際に使われるため、X線画像データ218に登録される。
(S303)
次に、物品認識プログラム213が、ステップS302で取得した2方向の2枚の画像をX線画像データ218から取得し、学習モデル219および深層学習のセグメンテーション処理を用いて画素単位で物品を認識する。ここで、物品の認識には、OSS(オープンソースソフトウェア)のライブラリとして広く知られている「Fully Convolutional Instance-aware Semantic Segmentation」や「Mask R-CNN」などのライブラリを用いることができる。なお、画素単位で物品が特定できれば、認識の方式は問わない。
ここで、2方向の2枚の画像があるため、物品の認識は、第1の方向から撮影した画像と、第2の方向から撮影した画像の2つの画像に対して行う。例えば、第1の方向でスマートフォンの正面が撮影された場合、第2の方向ではスマートフォンの側面が撮影されることとなる。スマートフォンの場合、正面が撮影された画像は、スマートフォンであることを判別しやすいが、側面が撮影された画像は、スマートフォンであることを判別しにくい。また、撮影した方向に物品の重なりがある場合も、物品を判別しにくい。このように、一方の画像にしか認識結果が得られないことがあるため、撮影した2枚の画像の認識結果は異なることが多い。
なお、物品の認識をするときに、正面のモデルと側面のモデルを別のモデルとして学習したモデルを用いることで、物品の正面に近いものか、側面に近いものかを認識時に同時に判別することができる。ここで、正面と側面の中間にあたる角度からの撮影である場合は、物品の正面と側面のうち、より近いほうを選ぶとよい。また、正面と側面を一緒にした学習モデルを用いて認識した結果に対して、物品の面積や事前に用意した正面と側面の見本画像とのテンプレートマッチングによる類似度合など、他の方法を用いて正面か側面かを判別しても構わない。すなわち、認識時にスマートフォン(正面)やスマートフォン(側面)といったように判別しても、正面と側面を一緒にした学習モデルを用いて認識した結果に対して、正面か側面かを判別しても構わない。
なお、本実施例の説明では、説明をわかりやすくするため、2方向で説明をしているが、物品によっては、3方向以上からの撮影で各々異なる見え方をする物品もある。3方向以上で異なる見え方をする場合は、2方向以外の方向を追加してもよい。
また、学習モデル219にカラー画像で学習した学習モデルと、グレースケール画像で学習した学習モデルを用意しておき、物品の重なりが大きい場合、すなわち画像の濃い部分の面積が閾値よりも大きい場合などには、グレースケール画像で学習した学習モデルを使って認識をすることもできる。これにより、物品の重なりによる材質の種類を示す色の変化の影響を避けることができる。
(S304)
次に、認識結果統合プログラム214が、物品を認識するステップS303で取得した2方向の認識結果に対して、認識結果をマージまたは選択する統合処理を以下に示す第1の統合方法ないし第3の統合方法にて行う。物品認識をするステップでは、物品の認識結果と一緒に認識結果の信頼度が得られる。すなわち、2つの方向の画像のそれぞれに対して、物品の正面の学習モデルと物品の側面の学習モデルを用いて認識を試みた場合の、それぞれの認識結果と認識結果の信頼度が得られる。得られた認識結果と認識結果の信頼度を用いて統合処理が行われる。
第1の統合方法は、2つの方向の画像の進行方向に対して同じ位置に物品の正面と物品の側面を認識できる場合に、物品を特定する統合方法である。2つの方向の一方で物品の正面を認識でき、他方で物品の側面を認識できる場合にのみ、物品を認識することとすれば、過剰検知(禁止物品でないものを禁止物品と判定すること)を抑止することができる。また、検出漏れを抑止するためには、それぞれの方向の認識結果を採用する信頼度の閾値を低くすればよい。このようにしても、2つの方向での認識に基づいて判断しているため、過剰検知は抑止することができる。このため、検出漏れを抑止しつつ、過剰検知も抑止できるという効果がある。すなわち、2方向撮影のX線検査装置では、一般的に1方向毎に物品認識が行われるが、本統合方法を用いることにより、物品の3D形状を考慮した認識ができる。
なお、いずれかの方向の画像に、鉛などのX線遮蔽物など、透過量が小さい部分の割合が閾値以上ある場合は、その画像には物品が写っていないと判断する。そして、もう1つの方向の信頼度の閾値を高めて、もう1つの方向からの認識結果を採用する。したがって、2つの方向の両方で物品が写っている場合には、2つの方向の認識結果を統合し、どちらかの方向にX線を遮蔽する物品などで物品が写っていない場合には、もう1つの方向の認識結果を採用する。
第2の統合方法は、いずれかの方向の画像に物品の正面と物品の側面のいずれかが認識できる場合に、物品を特定する統合方法である。第1の統合方法のように、2つの方向の一方で物品の正面を認識でき、他方で物品の側面を認識できる場合にのみ、物品を認識するものではないため、第1の統合方法よりも過剰検知が多くなるが、禁止物品の検出漏れを防ぐことができる。例えば、図5に例を示すように、正面が写っている方向の画像ではスマートフォンと識別できるが、側面が写っている方向の画像ではスマートフォンと識別できない場合でも、スマートフォンとして認識する。そして、側面が写っている方向の画像にも、正面が写っている方向の画像と進行方向に対する同じ位置に、スマートフォンがあるという認識結果を追加する。荷物の進行方向と垂直な方向については、正確な対応付けが難しいことから、物品がある可能性がある範囲を示す。これにより、検査員が見たときに側面の画像に関しても見落としを抑止することができるという効果がある。
第3の統合方法は、2つの方向の画像のうち、禁止物品が正面に近い状態で写っている方向の画像を選択する方法である。すなわち、2つの方向の画像のうち、物品の正面についての認識結果の信頼度が大きいほうの画像を選択する。検査員が確認するモニタが1台の場合には、表示する画像を選択しなければならない。その場合は、禁止物がより鮮明に写っている画像を提示することが好ましい。そのため、禁止物品がより多く写っている画像または禁止物品の正面が写っている画像を選択する。禁止物品の数と正面のどちらを優先して選択するかは、運用条件に依存するため、事前に設定できるようにする。これにより、検査員が確認するモニタが1台であっても、可能な限り禁止物品を確認できるという効果がある。なお、第2の統合方法と組み合わせ、選択しなかった画像のみで認識されている禁止物品がある場合、選択した画像に、禁止物品が含まれる可能性がある領域を図5の破線のように追加しても構わない。
なお、第1の統合方法ないし第3の統合方法は、複数の統合方法を組み合わせて使用しても、単独で使用しても、第1の統合方法ないし第3の統合方法以外と組み合わせて使用しても構わない。
(S305)
次に、画面生成プログラム215が、ステップS304の認識結果統合の結果の中に禁止物品が含まれている場合は、該当の部分をハイライト表示した画像を表示部103に表示する。なお、禁止物品が含まれない場合には、撮影した画像をそのまま表示すればよい。
ステップS305では、ステップS304の認識結果統合の結果を用いて、以下に示す第1の画面生成方法ないし第3の画面生成方法にて画面の表示データを生成し、画面表示を行う。
第1の画面生成方法は、図6に例を示すように、禁止物品の正面が写っている方向の画像を選んで表示する画面生成方法である。複数の物品が含まれている場合には、禁止物品としての優先度、禁止物品が認識された数など、事前に決められた条件で優先すべき方向の画像を選択して表示する。一般的に、1つの画面でAIによる認識結果を確認する場合、複数の画像を表示するよりも1つの画像を表示するほうが検査員の目視負荷を低減できる。このことから、検査の観点で確認すべき画像を表示し、その画像で認識されていない物品に関しては、ステップS304の認識結果統合の第2の統合方法を用いて、確認する画像に禁止物品が含まれる可能性がある領域が確実に表示されるようにすればよい。
第2の画面生成方法は、図7に示すように、2つの方向で撮影した画像を、1画面1方向となるように、2つの画面に表示する画面生成方法である。表示する2画面の2画像は、ステップS304の認識結果統合の第2の統合方法を用いて、一方の画面にのみアラートが表示される物品が生じないようにすることが望ましい。これにより、検査員が一方の画面のみを確認して、もう一方の画面の確認を失念することによる検査漏れを抑止することができる。
第3の画面生成方法は、図8に示すように、1つの画面の上下または左右に、ステップS302のキャリブレーションで位置合わせをした2枚の画像を認識結果と共に表示する方法である。荷物の進行方向に関しては位置が揃っている画像で検査員が禁止物品の有無を確認できるので、2つの方向の認識結果を総合して検査員が禁止物品を判断または特定することができる。
なお、第1の画面表示方法ないし第3の画面生成方法による画面は、装置本体101が出力する標準画面とは別に提供されても、標準画面の代わりとして提供されても構わない。また、X線画像の表示方法は、標準的な画面で用いられている荷物の撮影と同期して画面がスクロールしていく方法でも、荷物毎に画像が切り替わる方法を用いても構わない。また、物品の正面と物品の側面の両方が認識できているので、禁止物の確度が高いと判断したり、物品の正面と物品の側面の一方しか認識できていないので、禁止物品でないかもしれないが、念のために確認したほうがよいと判断したりといった認識結果に応じて、アラートの仕方を色や音などで変更することもできる。
なお、別の表示方法として、禁止物品がはっきりと写っている方向は見せないことで、検査員の緊張感を高めておき、その画像を問題なしと誤って判断した場合にはアラートとともに禁止物品がはっきりと写っている画像を提示することで、検査員の訓練に用いることもできる。
また、1方向のみで禁止物品として判定された場合には、方向を変更して再撮影することを検査員に促す情報を画面または音声などで出力することができる。そして、再度撮影した2方向の画像を最初に撮影した2つの方向の画像に加えた4方向の画像で判別し、少なくとも2方向の画像で物品の異なる面が認識された場合に、禁止物品と特定することができる。
(S306)
次に、検査が終了すなわち撮影が終了した場合には、撮影したX線画像を認識して検査員に提示するステップS301ないしステップS305の処理を終了し、検査が継続している場合には、ステップS301ないしステップS305の処理を継続する。
(S307)
次に、運用中に蓄積されたX線画像を使用して、学習モデルを生成または更新するかどうかの指示を入力I/Fに接続されたマウスやキーボードなどから受け、生成や更新をしない場合には全体の処理を終了する。
(S308)
次に、物品学習プログラム217で、X線画像データ218を読出し、物品の学習を行い生成した学習モデルを、学習モデル219に登録する。
物品の学習は、物品の認識をするステップと同様に、OSS(オープンソースソフトウェア)のライブラリとして広く知られている「Fully Convolutional Instance-aware Semantic Segmentation」や「Mask R-CNN」などのライブラリを用いることができる。
なお、物品の学習をする前には、物品の輪郭情報と物品を識別するための正解情報が必要となるが、本実施例では、正解付けの方法は限定しない。人手で物品の領域を囲み、物品名を選択するなど汎用の方法を用いればよい。
なお、ステップS303で認識された結果を物品の候補領域として提示し、人手による正解付けの作業を効率化することも可能である。例えば、1つの方向しか物品が判別できなかった場合に、もう一方の同じ物品が写っている可能性がある箇所を、正解付けをする作業者に提示することで、正解付けの漏れを防止することができる。学習した学習モデルは、学習モデル219に登録し、処理を終了する。
本実施例によれば、2つの方向で撮影した画像の認識結果を統合することで、物品の認識精度を向上しつつ、検査員に表示する画像は物品が見やすい方向の画像を提示することができるので、検査漏れを抑止しつつ、検査効率を向上できるという効果がある。また、1画面の表示であっても、必要な情報を統合して表示できるので、表示部の設置スペースの削減や装置台数の削減といった効果がある。
なお、本実施例では、主に2つの方向で撮影する例を示したが、複数の方向で撮影するものであればよい。
また、本実施例では、X線を用いて物品を撮影する例を示したが、物品を透過して撮影できる電磁波であれば、例えば、テラヘルツ波など他の電磁波を用いても構わない。
例えば、X線を電磁波に変えた次のような構成でも、複数の方向からの撮影が可能な電磁波検査装置において、禁止物品の認識精度を向上させることができる電磁波画像処理装置および電磁波画像処理方法を提供することができるという同様の効果を奏する。
物品を複数の方向から撮影した複数の電磁波画像を取得する電磁波画像取得部と、複数の電磁波画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、複数の電磁波画像に対する認識結果を統合する認識結果統合部と、統合された認識結果をもとに、画面情報を生成する画面生成部と、有する電磁波画像処理装置。
電磁波画像処理装置における電磁波画像処理方法であって、物品を複数の方向から撮影した複数の電磁波画像を取得する電磁波画像取得ステップと、複数の電磁波画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、複数の電磁波画像に対する認識結果を統合する認識結果統合ステップと、統合された認識結果をもとに、画面情報を生成する画面生成ステップと、を有する電磁波画像処理方法。
また、本実施例では、X線装置本体101と、X線画像処理装置102とが別体である例を示したが、X線画像処理装置は、X線装置本体に内蔵されてもよい。
また、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100:X線検査装置
101:装置本体
102:X線画像処理装置
103:表示部
104:入力部
201:CPU
202:主メモリ
205:通信部
210:記憶部
211:OS
212:X線画像取得プログラム
213:物品認識プログラム
214:認識結果統合プログラム
215:画面生成プログラム
216:キャリブレーションプログラム
217:物品学習プログラム
218:X線画像データ
219:学習モデル

Claims (12)

  1. 物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、
    前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、
    前記複数のX線画像に対する認識結果を統合する認識結果統合部と、
    統合された認識結果をもとに、画面情報を生成する画面生成部と、
    を有し、
    前記認識結果統合部は、前記複数のX線画像から、前記物品の第1の面についての認識結果の信頼度が最も大きいX線画像を選択する、
    X線画像処理装置。
  2. 請求項1に記載のX線画像処理装置であって、
    前記物品認識部は、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、
    X線画像処理装置。
  3. 物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、
    前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、
    前記複数のX線画像に対する認識結果を統合する認識結果統合部と、
    統合された認識結果をもとに、画面情報を生成する画面生成部と、
    を有し、
    前記物品認識部は、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識し、
    前記認識結果統合部は、前記複数のX線画像の1つに、前記物品の第1の面を認識でき、前記複数のX線画像の他の1つに、前記物品の第2の面を認識できる場合に、前記物品を認識する、
    X線画像処理装置。
  4. 物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得部と、
    前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識部と、
    前記複数のX線画像に対する認識結果を統合する認識結果統合部と、
    統合された認識結果をもとに、画面情報を生成する画面生成部と、
    を有し、
    前記画面生成部は、前記複数のX線画像のうち、一部のX線画像に対してのみ危険物が認識されている場合、残りのX線画像の前記危険物に対応する部分に、危険物が含まれる可能性がある領域を示す表示を追加する、
    X線画像処理装置。
  5. 請求項4に記載のX線画像処理装置であって、
    前記物品認識部は、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、
    X線画像処理装置。
  6. 請求項1ないし請求項のいずれか1項に記載のX線画像処理装置であって、
    前記複数のX線画像のサイズまたは表示位置を調整するキャリブレーション部を有する、
    X線画像処理装置。
  7. X線画像処理装置におけるX線画像処理方法であって、
    物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得ステップと、
    前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、
    前記複数のX線画像に対する認識結果を統合する認識結果統合ステップと、
    統合された認識結果をもとに、画面情報を生成する画面生成ステップと、
    を有し、
    前記認識結果統合ステップは、前記複数のX線画像から、前記物品の第1の面についての認識結果の信頼度が最も大きいX線画像を選択する、
    X線画像処理方法。
  8. 請求項に記載のX線画像処理方法であって、
    前記物品認識ステップは、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、
    X線画像処理方法。
  9. X線画像処理装置におけるX線画像処理方法であって、
    物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得ステップと、
    前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、
    前記複数のX線画像に対する認識結果を統合する認識結果統合ステップと、
    統合された認識結果をもとに、画面情報を生成する画面生成ステップと、
    を有し、
    前記物品認識ステップは、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識し、
    前記認識結果統合ステップは、前記複数のX線画像の1つに、前記物品の第1の面を認識でき、前記複数のX線画像の他の1つに、前記物品の第2の面を認識できる場合に、前記物品を認識する、
    X線画像処理方法。
  10. X線画像処理装置におけるX線画像処理方法であって、
    物品を複数の方向から撮影した複数のX線画像を取得するX線画像取得ステップと、
    前記複数のX線画像に対して、物品の第1の面を学習した学習モデルを用いて、物品を認識する物品認識ステップと、
    前記複数のX線画像に対する認識結果を統合する認識結果統合ステップと、
    統合された認識結果をもとに、画面情報を生成する画面生成ステップと、
    を有し、
    前記画面生成ステップは、前記複数のX線画像のうち、一部のX線画像に対してのみ危険物が認識されている場合、残りのX線画像の前記危険物に対応する部分に、危険物が含まれる可能性がある領域を示す表示を追加する、
    X線画像処理方法。
  11. 請求項10に記載のX線画像処理方法であって、
    前記物品認識ステップは、前記物品の第1の面を学習した学習モデルと、前記物品の第1の面とは異なる第2の面を学習した学習モデルとを用いて、物品を認識する、
    X線画像処理方法。
  12. 請求項ないし請求項11のいずれか1つに記載のX線画像処理方法であって、
    前記複数のX線画像のサイズまたは表示位置を調整するキャリブレーションステップを有する、
    X線画像処理方法。
JP2020115632A 2020-07-03 2020-07-03 X線画像処理装置およびx線画像処理方法 Active JP7422023B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020115632A JP7422023B2 (ja) 2020-07-03 2020-07-03 X線画像処理装置およびx線画像処理方法
CN202110137234.0A CN113960687A (zh) 2020-07-03 2021-02-01 X射线图像处理装置及x射线图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020115632A JP7422023B2 (ja) 2020-07-03 2020-07-03 X線画像処理装置およびx線画像処理方法

Publications (2)

Publication Number Publication Date
JP2022013217A JP2022013217A (ja) 2022-01-18
JP7422023B2 true JP7422023B2 (ja) 2024-01-25

Family

ID=79459397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020115632A Active JP7422023B2 (ja) 2020-07-03 2020-07-03 X線画像処理装置およびx線画像処理方法

Country Status (2)

Country Link
JP (1) JP7422023B2 (ja)
CN (1) CN113960687A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117455956A (zh) * 2023-12-22 2024-01-26 天津众合智控科技有限公司 一种基于ai技术的人包关联追踪方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050058242A1 (en) 2003-09-15 2005-03-17 Peschmann Kristian R. Methods and systems for the rapid detection of concealed objects
US20080014643A1 (en) 2006-07-12 2008-01-17 Paul Bjorkholm Dual angle radiation scanning of objects
JP2017509891A (ja) 2014-12-17 2017-04-06 同方威視技術股▲分▼有限公司 連結式多視点物品検査システム及びその使用方法
JP2018112550A (ja) 2017-01-12 2018-07-19 清華大学Tsinghua University 検査機器および銃器検出方法
WO2018217738A1 (en) 2017-05-22 2018-11-29 L3 Security & Detection Systems, Inc. Systems and methods for image processing

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05133909A (ja) * 1991-11-15 1993-05-28 Toshiba Corp 散乱放射線検査装置
DE59203913D1 (de) * 1992-07-20 1995-11-09 Heimann Systems Gmbh & Co Prüfanlage für Gegenstände.
JP3435648B2 (ja) * 1997-03-25 2003-08-11 株式会社日立メディコ X線検査装置
CN101387610B (zh) * 2008-10-14 2011-02-09 重庆大学 利用双源双能量直线式安检ct装置进行安全检测的方法
CN101509880A (zh) * 2009-03-25 2009-08-19 公安部第一研究所 一种应用x射线的多效应探测融合技术的安全检查***
CN104345350A (zh) * 2013-07-23 2015-02-11 清华大学 人体安全检查方法和人体安全检查***
CN104165896B (zh) * 2014-08-18 2017-03-22 公安部第一研究所 一种液态物品安全检查的方法与装置
CN107871122A (zh) * 2017-11-14 2018-04-03 深圳码隆科技有限公司 安检检测方法、装置、***及电子设备
CN108875805A (zh) * 2018-05-31 2018-11-23 北京迈格斯智能科技有限公司 基于深度学习的利用检测识别一体化提高检测精度的方法
CN108802840B (zh) * 2018-05-31 2020-01-24 北京迈格斯智能科技有限公司 基于人工智能深度学习的自动识别物体的方法及其装置
CN208902891U (zh) * 2018-11-02 2019-05-24 北京中集博源机电设备有限公司 一种自适应物流输送线双视角智能安检装置
CN110133739B (zh) * 2019-04-04 2021-07-27 南京全设智能科技有限公司 一种x射线安检设备及其自动识图方法
CN110133740A (zh) * 2019-04-29 2019-08-16 公安部第一研究所 一种双视角智能化x射线安检设备
CN110850493A (zh) * 2019-10-24 2020-02-28 武汉艾崴科技有限公司 一种扫描成像机器视觉判图的线阵列高速安检机

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050058242A1 (en) 2003-09-15 2005-03-17 Peschmann Kristian R. Methods and systems for the rapid detection of concealed objects
US20080014643A1 (en) 2006-07-12 2008-01-17 Paul Bjorkholm Dual angle radiation scanning of objects
JP2017509891A (ja) 2014-12-17 2017-04-06 同方威視技術股▲分▼有限公司 連結式多視点物品検査システム及びその使用方法
JP2018112550A (ja) 2017-01-12 2018-07-19 清華大学Tsinghua University 検査機器および銃器検出方法
WO2018217738A1 (en) 2017-05-22 2018-11-29 L3 Security & Detection Systems, Inc. Systems and methods for image processing

Also Published As

Publication number Publication date
JP2022013217A (ja) 2022-01-18
CN113960687A (zh) 2022-01-21

Similar Documents

Publication Publication Date Title
CN106485268B (zh) 一种图像识别方法及装置
Rogers et al. Automated x-ray image analysis for cargo security: Critical review and future promise
US9552521B2 (en) Human body security inspection method and system
WO2015067208A1 (zh) 检查方法和设备
CA3109136A1 (en) Systems and methods for image processing
CN106415325B (zh) 对象中的物项探测
USH2110H1 (en) Automated security scanning process
CN108303747A (zh) 检查设备和检测***的方法
US10436932B2 (en) Inspection systems for quarantine and methods thereof
EP3772722B1 (en) X-ray image processing system and method, and program therefor
KR102387529B1 (ko) 검사 장치
WO2006011899A1 (en) Security system for detecting nuclear masses
US8090150B2 (en) Method and system for identifying a containment vessel
JP5591849B2 (ja) 異物検査装置、異物検査プログラム、異物検査方法
JP2018004363A (ja) X線自動判定装置、x線自動判定方法
JP7422023B2 (ja) X線画像処理装置およびx線画像処理方法
JP2016156647A (ja) 電磁波を使用した検査装置
JP7295568B2 (ja) 検査装置及びプログラム
Frosio et al. Optimized acquisition geometry for X-ray inspection
KR20210115695A (ko) 딥러닝 기반의 화물 식별 모델을 이용한 화물 식별 장치 및 방법
US11335083B2 (en) Object identification device and object identification method
JP2023529644A (ja) ニューラルネットワークをバルクフローにおけるオブジェクトを分類するように学習させる方法及びシステム
CN114170318A (zh) 图像处理方法、装置、***、介质及电子设备
CN112730468B (zh) 物品检测设备及其检测物品的方法
US11551432B1 (en) System and method for training an artificial intelligence (AI) classifier of scanned items

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240115

R150 Certificate of patent or registration of utility model

Ref document number: 7422023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150