JP7425032B2 - 物体判定装置および物体判定システム - Google Patents

物体判定装置および物体判定システム Download PDF

Info

Publication number
JP7425032B2
JP7425032B2 JP2021174994A JP2021174994A JP7425032B2 JP 7425032 B2 JP7425032 B2 JP 7425032B2 JP 2021174994 A JP2021174994 A JP 2021174994A JP 2021174994 A JP2021174994 A JP 2021174994A JP 7425032 B2 JP7425032 B2 JP 7425032B2
Authority
JP
Japan
Prior art keywords
interest
regions
vehicle
unit
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021174994A
Other languages
English (en)
Other versions
JP2023064620A (ja
Inventor
聡司 綾川
裕喜 竹内
祐輔 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2021174994A priority Critical patent/JP7425032B2/ja
Publication of JP2023064620A publication Critical patent/JP2023064620A/ja
Application granted granted Critical
Publication of JP7425032B2 publication Critical patent/JP7425032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本開示は、物体判定装置および物体判定システムに関する。
搬送される対象物の種類を判定するシステムが知られている。例えば、搬送される対象物または対象物の搬送機構に設けられた識別符号をセンサにより読取ることで、対象物の種類を判定することが行われている(例えば、特許文献1参照)。
特開平11-049331号公報
しかしながら、従来技術では、識別符号の設置部分の汚れや搬送される対象物の揺れなどによって、対象物の種類の判定が困難となる場合があった。
本開示が解決しようとする課題は、搬送される対象物の種類を高精度に判定することができる物体判定装置および物体判定システムを提供することである。
本開示にかかる物体判定装置は、抽出部と、判定部と、を備える。抽出部は、搬送される対象物の撮影画像から複数の着目領域を抽出する。判定部は、前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する。前記対象物は車両であり、複数の前記着目領域は前記車両の互いに異なる部品を含む領域である。
本開示にかかる物体判定装置および物体判定システムによれば、搬送される対象物の種類を高精度に判定することができる。
図1は、実施形態の物体判定システムの模式図である。 図2は、物体判定装置およびシーケンサのハードウェア構成図である。 図3は、物体判定装置の機能ブロック図である。 図4は、撮影画像の模式図である。 図5は、学習用画像の説明図である。 図6は、情報処理の流れを示すフローチャートである。
以下に添付図面を参照して、本開示に係る物体判定装置および物体判定システムの実施形態を説明する。
図1は、本実施形態の物体判定システム1の一例を示す模式図である。物体判定システム1は、物体判定装置10と、シーケンサ20と、撮影部30と、搬送機構40と、を備える。
物体判定システム1は、搬送される対象物の種類を判定するシステムである。
対象物とは、種類の判定対象の物体である。対象物は、搬送機構40によって搬送される物体であればよい。対象物は、例えば、車両Vなどの物体、物体または建造物等を構成する部品、果実等の食品、等である。本実施形態では、対象物が車両Vである形態を一例として説明する。
搬送機構40は、対象物を搬送する機構である。本実施形態では、搬送機構40が、車両Vの生産ラインに含まれる工程である塗装工程の搬送機構である形態を一例として説明する。
搬送機構40は、例えば、ガイドレール40Aと、支持部材40Bと、支持部材40Cと、を備える。ガイドレール40Aは、搬送方向Xに沿って延伸された部材である。支持部材40Bは、ガイドレール40Aに沿って移動可能に設けられ、支持部材40Cを介して車両Vを支持する。支持部材40Cは、車両Vを支持する。支持部材40Cは、台車と称される場合がある。なお、支持部材40Cは車両Vを支持可能な部材であればよく、車両Vを吊り下げることで支持する部材、車両Vを把持することで支持する部材、車両Vを載置することで支持する部材、などの何れであってもよい。本実施形態では、支持部材40Cは、車両Vを吊り下げることで支持する部材である形態を一例として説明する。
搬送機構40は、シーケンサ20によって図示を省略する駆動部が制御されることで、搬送方向Xに沿って所定間隔ごとに配置された支持部材40Bを搬送方向Xに搬送する。支持部材40Bが搬送方向Xに搬送されることで、支持部材40Bを介して支持部材40Cによって支持された車両Vが搬送方向Xに搬送される。
なお、搬送機構40は、車両Vを搬送方向Xに沿って搬送可能な機構であればよく、図1に示す構成に限定されない。
本実施形態では、支持部材40Cには、タグ60が設けられている。タグ60は、記憶された情報を無線通信する機器である。タグ60は、例えば、RF(Radio Frequency)タグ等である。タグ60には、例えば、支持部材40Cを一意に識別する台車ID(識別情報)が予め記憶されている。
シーケンサ20は、搬送機構40の搬送を制御する制御装置である。シーケンサ20は、搬送機構40、塗装装置50、および物体判定装置10の各々と通信可能に接続されている。
シーケンサ20は、支持部材40Cによって支持された車両Vの搬送を制御し、車両Vが所定位置X1に搬送されるごとに、判定開始信号を物体判定装置10へ送信する。判定開始信号は、車両Vの種類の判定開始を指示する信号である。シーケンサ20は、例えば、赤外線センサなどの検知結果を用いて、搬送される車両Vが所定位置X1に到達したことを判別すればよい。
次に、撮影部30について説明する。撮影部30は、車両Vの搬送される搬送空間を撮影する。撮影部30は、車両Vの搬送される搬送空間における所定の撮影範囲Rを撮影可能に配置されている。撮影範囲Rは、例えば、所定位置X1に搬送された車両Vの特定の部品Pを含む範囲となるように予め調整されている。撮影部30は、実空間における固定の撮影範囲Rを撮影するように予め調整されている。実空間における固定の撮影範囲Rとは、実空間における位置、大きさ、および範囲が固定であることを意味する。
すなわち、撮影部30は、搬送機構40によって搬送される車両Vが所定位置X1に到達したときに撮影される撮影画像70に、車両Vにおける特定の部品Pを含む領域が映り込むように、設置位置および撮影画角などが予め調整されている。
部品Pは、車両Vを構成する部材である。本実施形態では、互いに異なる複数の部品Pである部品P1および部品P2が少なくとも映り込むように、撮影部30の撮影範囲Rが予め調整されている。すなわち、撮影範囲Rは、搬送によって所定位置X1に到達した車両Vの複数の部品Pが映り込む範囲となるように、予め調整されている。部品Pは、車両Vの種類を特定可能な部材であればよい。また、撮影範囲Rに含まれる部品Pは、複数であればよく、2つの部品Pに限定されない。
撮影部30は、撮影によって撮影範囲Rの撮影画像70を得る。例えば、撮影部30は、時系列に連続する複数の撮影画像70から構成される動画像データを得る。動画像データを構成する各撮影画像70は、例えば、静止画像である。以下では、動画像データを動画像と称し、静止画像データを撮影画像と称して説明する場合がある。
本実施形態では、撮影部30は、搬送機構40の駆動が開始されたときに、搬送機構40の動画像の撮影を開始する形態を一例として説明する。搬送機構40の駆動とは、搬送機構40に含まれる支持部材40Cによって支持された車両Vの搬送方向Xへの搬送を意味する。
例えば、撮影部30は、ユーザによる撮影部30の撮影開始ボタンの操作指示等によって撮影開始信号を受付けると、撮影範囲Rの撮影を開始する。ユーザは、搬送機構40の駆動が開始されると、撮影部30の撮影開始ボタン等を操作指示すればよい。
なお、撮影部30は、搬送機構40の駆動を検出したときに、撮影範囲Rの動画像の撮影を開始してもよい。この場合、撮影部30と搬送機構40の駆動部とを通信可能に接続した構成とし、駆動開始したときに搬送機構40が撮影開始信号を撮影部30へ送信する構成とすればよい。また、撮影部30は、物体判定装置10またはシーケンサ20から受信した撮影開始信号に応じて、撮影を開始してもよい。
次に、物体判定装置10について説明する。物体判定装置10は、搬送機構40によって搬送される対象物の種類を判定する情報処理装置である。
対象物の種類とは、対象物を予め定められた分類基準に従って複数のグループに分類した、各グループを表す情報である。上述したように、本実施形態では、対象物が車両Vである形態を一例として説明する。対象物が車両Vである場合、車両Vの種類は、例えば、車両Vの種別、車両Vの車種、車両Vの年式、などであるが、これらに限定されない。車両Vの種別は、例えば、普通自動車、小型自動車、特殊用途自動車、などの種別を表す。車両Vの車種は、車両製造会社などによって規定された車名などである。本実施形態では、車両Vの種類は、車名である場合を想定して説明する。
まず、物体判定装置10およびシーケンサ20のハードウェア構成を説明する。
図2は、物体判定装置10およびシーケンサ20の一例のハードウェア構成図である。
物体判定装置10およびシーケンサ20は、CPU(Central Processing Unit)11A、ROM(Read Only Memory)11B、RAM(Random Access Memory)11C、およびI/F11D等がバス11Eにより相互に接続され、通常のコンピュータを利用したハードウェア構成である。
CPU11Aは、本実施形態の物体判定装置10およびシーケンサ20を制御する演算装置である。ROM11Bは、CPU11Aによる各種処理を実現するプログラム等を記憶する。RAM11Cは、CPU11Aによる各種処理に必要なデータを記憶する。I/F11Dは、データを送受信するためのインターフェースである。
本実施形態の物体判定装置10およびシーケンサ20で実行されるプログラムは、ROM11B等に予め組み込んで提供される。なお、本実施形態の物体判定装置10およびシーケンサ20で実行されるプログラムは、物体判定装置10およびシーケンサ20にインストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読取り可能な記録媒体に記録されて提供するように構成してもよい。
次に、物体判定装置10の機能的構成を説明する。
図3は、物体判定装置10の一例の機能ブロック図である。図3には、物体判定システム1に含まれる物体判定装置10以外の構成も併せて示す。
物体判定装置10は、処理部12と、通信部14と、記憶部16と、表示部18と、を備える。処理部12、通信部14、記憶部16、および表示部18は、例えば、バス19等を介して通信可能に接続されている。
通信部14は、シーケンサ20、タグ60、および撮影部30の各々と通信可能に接続されている。すなわち、通信部14は、シーケンサ20、タグ60、および撮影部30の各々と通信するための通信インターフェースである。記憶部16は、各種の情報を記憶する。本実施形態では、記憶部16は、学習モデル16Aを予め記憶する。学習モデル16Aの詳細は後述する。
表示部18は、各種の情報を表示する。表示部18は、例えば、画像を表示するディスプレイである。なお、物体判定装置10は、音声を出力するスピーカを更に備えた構成であってもよい。また、物体判定装置10は、ユーザによる操作入力を受付けるキーボードやポインティングデバイス等の入力装置を更に備えた構成であってよい。
処理部12は、各種の情報処理を実行する。本実施形態では、処理部12は、受付部12Aと、タグ判定部12Bと、取得部12Cと、抽出部12Dと、判定部12Eと、学習部12Fと、出力制御部12Gと、を備える。受付部12A、タグ判定部12B、取得部12C、抽出部12D、判定部12E、学習部12F、および出力制御部12Gの一部または全ては、例えば、CPU等の処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよい。また、これらの機能部の一部または全ては、IC(Integrated Circuit)等のハードウェアにより実現してもよい。また、これらの機能部の一部または全ては、ソフトウェアおよびハードウェアを併用して実現してもよい。
これらの機能部の少なくとも1つを、ネットワーク等を介して物体判定装置10に通信可能に接続された外部の情報処理装置に搭載した構成としてもよい。また、記憶部16に記憶されたデータの少なくとも一部を、ネットワーク等を介して物体判定装置10に通信可能に接続された外部の情報処理装置に記憶した構成としてもよい。
受付部12Aは、シーケンサ20から判定開始信号を受付ける。上述したように、シーケンサ20は、搬送される車両Vが所定位置X1に到達すると、判定開始信号を物体判定装置10へ送信する。受付部12Aは、通信部14を介してシーケンサ20から判定開始信号を受付ける。
タグ判定部12Bは、受付部12Aで判定開始信号を受付けた時に、通信部14を介してタグ60から台車IDを読取る。タグ判定部12Bは、通信部14とタグ60との無線通信によって、タグ60に記憶されている台車IDを読取る。タグ判定部12Bは、読取った台車IDによって識別される支持部材40Cによって支持されている車両Vの種類を判定する。例えば、記憶部16は、台車IDと、車両Vの種類と、を対応付けた台車管理情報を予め記憶する。タグ判定部12Bは、タグ60から受付けた台車IDに対応する車両Vの種類を台車管理情報から読取ることで、車両Vの種類を判定する。台車管理情報には、ユーザによる操作指示などによって、実際に搬送機構40を搬送されている車両Vの種類と該車両Vを支持する支持部材40Cの台車IDとが一致する情報が予め登録されているものとする。
タグ判定部12Bは、タグ60に記憶されている台車IDを用いた車両Vの種類の判定に成功した場合、車両Vの種類を表す判定結果を後述する出力制御部12Gへ出力する。
ここで、タグ60の汚れ、タグ60の揺れ、支持部材40Cの揺れ、または通信エラー等によって、台車IDの読取異常が発生する場合がある。また、タグ60から読取った台車IDに対応する車両Vの種別が台車管理情報に含まれない場合がある。このような場合、タグ判定部12Bは、タグ60に記憶されている台車IDを用いた車両Vの種類の判定に失敗する。台車IDを用いた車両Vの種類の判定に失敗した場合、タグ判定部12Bは、判定開始信号を取得部12Cへ出力する。
取得部12Cは、タグ判定部12Bから判定開始信号を受付けると、撮影部30で撮影された撮影画像70を取得する。取得部12Cは、受付部12Aがシーケンサ20から判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得する。詳細には、取得部12Cは、撮影部30で撮影された動画像に含まれる複数の撮影画像70の内、受付部12Aがシーケンサ20から判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得する。
なお、本実施形態では、物体判定装置10の処理部12が、タグ判定部12Bを備えた構成である形態を一例として説明する。しかし、処理部12は、タグ判定部12Bを備えない構成であってもよい。この場合、取得部12Cは、受付部12Aでシーケンサ20から判定開始信号を受付けた時に、撮影部30によって撮影された撮影画像70を取得すればよい。
上述したように、撮影部30の撮影範囲Rは、搬送によって所定位置X1に到達した車両Vの特定の部品Pを含む範囲となるように予め調整されている。また、シーケンサ20は、搬送によって車両Vが所定位置X1に到達したときに、判定開始信号を物体判定装置10へ送信する。このため、シーケンサ20から判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得することで、取得部12Cは、搬送される車両Vの撮影画像70であって、車両Vの種類を特定可能な複数の部品Pを含む撮影範囲Rの撮影画像70を取得する。
抽出部12Dは、取得部12Cで取得した撮影画像70から、複数の着目領域を抽出する。
図4は、撮影画像70の一例の模式図である。図4には、取得部12Cで取得した撮影画像70の一例を示す。抽出部12Dは、撮影画像70から複数の着目領域72を抽出する。
着目領域72は、撮影画像70に含まれる車両Vの種類を特定可能な領域である。抽出部12Dは、少なくとも一部の領域が非重複の複数の着目領域72を撮影画像70から抽出する。
複数の着目領域72の各々には、車両Vの種類を特定可能な部材が映り込んでいればよい。詳細には、複数の着目領域72は、撮影画像70に映り込む車両Vの互いに異なる部品Pを含む領域であることが好ましい。部品Pは、上述したように、車両Vの種類を判別可能な部材である。
本実施形態では、抽出部12Dは、部品P1を含む第1着目領域72Aと、部品P2を含む第2着目領域72Bと、を抽出する形態を一例として説明する。部品P1および部品P2は、車両Vの種類を判別可能な互いに異なる部品Pである。なお、抽出部12Dは、複数の着目領域72を抽出すればよく、2つの着目領域72を抽出する形態に限定されない。
抽出部12Dは、複数の着目領域72の各々の、撮影画像70における位置およびサイズを表す着目領域情報を予め記憶部16に記憶する。本実施形態では、抽出部12Dは、第1着目領域72Aおよび第2着目領域72Bの各々の着目領域情報として、第1着目領域情報および第2着目領域情報を予め記憶部16に記憶する。
詳細には、例えば、抽出部12Dは、撮影画像70における第1着目領域72Aの位置およびサイズを表す第1着目領域情報を予め記憶部16に記憶する。また、抽出部12Dは、撮影画像70における第2着目領域72Bの位置およびサイズを表す第2着目領域情報を予め記憶部16に記憶する。そして、抽出部12Dは、取得部12Cで取得した撮影画像70における、記憶部16から読取った第1着目領域情報および第2着目領域情報の各々によって表される位置およびサイズの範囲を抽出することで、第1着目領域72Aおよび第2着目領域72Bを撮影画像70から抽出する。すなわち、抽出部12Dは、取得部12Cで新たな撮影画像70を取得するごとに、着目領域情報に基づいて、順次取得する複数の撮影画像70間で画像内における位置およびサイズが同じ領域を着目領域72として抽出する。
図3に戻り説明を続ける。判定部12Eは、学習モデル16Aを用いて、抽出部12Dで抽出された複数の着目領域72(第1着目領域72A、第2着目領域72B)から車両Vの種類を判定する。
学習モデル16Aは、撮影画像70に含まれる複数の着目領域72から、該撮影画像70に含まれる車両Vの種類を出力する学習モデルである。言い換えると、学習モデル16Aは、複数の着目領域72を入力とし、車両Vの種類を出力とする学習モデルである。
学習部12Fは、教師データ用いた機械学習によって学習モデル16Aを予め学習する。学習部12Fは、取得部12Cで取得した撮影画像70を学習用の学習用画像として用い、学習用画像に含まれる複数の着目領域72を教師データとして用いる。
図5は、学習用画像80の一例の説明図である。学習部12Fは、撮影部30によって撮影された、搬送によって所定位置X1に到達した車両Vの撮影範囲Rの撮影画像70を、学習用画像80として用いる。そして、学習部12Fは、学習用画像80に含まれる複数の着目領域72と、複数の加工着目領域74と、を用いて学習モデル16Aを学習する。
詳細には、学習部12Fは、学習用画像80に含まれる第1着目領域72Aおよび第2着目領域72Bを、入力データと正解データとからなる教師データの入力データとして用いる。
具体的には、学習部12Fは、学習用画像80における、第1着目領域情報によって規定される位置およびサイズの領域を、第1着目領域72Aとして抽出する。また、学習部12Fは、学習用画像80における、第2着目領域情報によって規定される位置およびサイズの領域を、第2着目領域72Bとして抽出する。そして、学習部12Fは、学習用画像80から抽出した第1着目領域72Aおよび第2着目領域72Bの対を、教師データの入力データとして用いる。
また、学習部12Fは、これらの第1着目領域72Aおよび第2着目領域72Bに映り込んだ車両Vの種類を、該教師データの該入力データに対する正解データとして用いる。
また、学習部12Fは、学習用画像80に含まれる複数の着目領域72の各々について、着目領域72の位置および角度の少なくとも一方を変更した領域を加工着目領域74として抽出する。
詳細には、学習部12Fは、学習用画像80に含まれる第1着目領域72Aの位置および角度の少なくとも一方を変更した1以上の第1加工着目領域74Aを抽出する。図5には、第1着目領域72Aの位置を変更した第1加工着目領域74A1~第1加工着目領域74A2と、第1着目領域72Aの角度を変更した第1加工着目領域74A3と、を抽出した例を一例として示す。なお、学習部12Fは、第1着目領域72Aの位置および角度の少なくとも一方を変更した1以上の第1加工着目領域74Aを抽出すればよく、3つの第1加工着目領域74Aを抽出する形態に限定されない。
なお、学習部12Fは、搬送されて所定位置X1に到達した車両Vの揺れ等によって生じる、撮影部30の撮影範囲Rに対する実空間における車両Vの位置および角度のずれの範囲で、第1着目領域72Aの位置および角度を変更した複数の第1加工着目領域74Aを抽出する。但し、学習部12Fは、抽出した複数の第1加工着目領域74Aの各々が部品P1を含む領域となるように抽出位置および角度を調整する。
また、学習部12Fは、学習用画像80に含まれる第2着目領域72Bの位置および角度の少なくとも一方を変更した1以上の第2加工着目領域74Bを抽出する。図5には、第2着目領域72Bの位置を変更した第2加工着目領域74B1~第2加工着目領域74B2と、第2着目領域72Bの角度を変更した第2加工着目領域74B3と、を抽出した例を一例として示す。なお、学習部12Fは、第2着目領域72Bの位置および角度の少なくとも一方を変更した1以上の第2加工着目領域74Bを抽出すればよく、3つの第2加工着目領域74Bを抽出する形態に限定されない。
なお、学習部12Fは、搬送されて所定位置X1に到達した車両Vの揺れ等によって生じる、撮影部30の撮影範囲Rに対する実空間における車両Vの位置および角度のずれの範囲で、第2着目領域72Bの位置および角度を変更した複数の第2加工着目領域74Bを抽出する。但し、学習部12Fは、抽出した複数の第2加工着目領域74Bの各々が部品P2を含む領域となるように抽出位置を調整する。
そして、学習部12Fは、学習用画像80から抽出した第1着目領域72Aおよび複数の第1加工着目領域74Aの内の1つと、学習用画像80から抽出した第2着目領域72Bおよび複数の第2加工着目領域74Bの1つと、の対の組み合わせを変えた複数の入力データを用意する。そして、学習部12Fは、これらの複数の入力データと、複数の入力データの各々の正解データである車両Vの種類と、の対を複数の教師データとして生成する。
このように、学習部12Fは、1つの学習用画像80から組合せの異なる複数の着目領域72および加工着目領域74を入力データとした、複数の教師データを生成する。また、学習部12Fは、複数の学習用画像80を用いる場合についても同様に、複数の学習用画像80の各々から、組合せの異なる複数の着目領域72および加工着目領域74を入力データとした、複数の教師データを生成する。
そして、学習部12Fは、これらの複数の教師データの各々に含まれる入力データである第1着目領域72Aまたは第1加工着目領域74Aと、第2着目領域72Bまたは第2加工着目領域74Bと、の対を入力とし、該教師データに含まれる該入力データに対応する出力データである車両Vの種類を出力とした、学習モデル16Aを学習する。
学習モデル16Aの学習には、公知の機械学習を用いればよい。機械学習には、例えば、CNN(Convolutional Neural Network)等の深層学習等を用いればよい。
このように、学習部12Fは、学習用画像80から抽出した複数の着目領域72と、学習用画像80における着目領域72の位置及び角度の少なくとも一方を変更した複数の加工着目領域74と、を用いて学習モデル16Aを学習する。このため、学習部12Fは、少ない数の撮影画像70から効率よく且つ高精度に学習モデル16Aを学習することができる。
また、学習部12Fは、学習用画像80における着目領域72の位置および角度を、搬送される車両Vの揺れ等によって生じる、実空間における車両Vに対する撮影範囲R内の着目領域72の位置および角度のずれの範囲で変更した、複数の加工着目領域74を抽出する。そして、これらの複数の加工着目領域74を、教師データとして用いる。このため、学習部12Fは、搬送される車両Vの位置ずれや揺れなどによって、実空間における車両Vの撮影範囲Rに映り込む範囲がずれた場合であっても、高精度に車両Vの種類を出力可能な学習モデル16Aを学習することができる。
また、学習部12Fは、学習済モデルを用いた転移学習(Transfer Learning)により、学習モデル16Aを学習してもよい。転移学習を行う場合についても、教師データの入力データには、学習用画像80から抽出した複数の着目領域72と、学習用画像80における着目領域72の位置および角度の少なくとも一方を変更した複数の加工着目領域74と、を用いればよい。
学習部12Fが転移学習により学習モデル16Aを学習することで、学習部12Fは、更に少ない教師データで且つ短時間に効率よく高精度な学習モデル16Aを学習することができる。
なお、学習部12Fは、物体判定装置10の外部の情報処理装置に設けられた構成であってもよい。この場合、学習部12Fは、物体判定装置10の外部の情報処理装置で上記学習方法を用いて学習モデル16Aを学習し、学習済の学習モデル16Aを物体判定装置10の記憶部16に記憶すればよい。
図3に戻り説明を続ける。判定部12Eは、学習部12Fによって学習された学習モデル16Aに、抽出部12Dで抽出された第1着目領域72Aおよび第2着目領域72Bを入力する。そして、判定部12Eは、該学習モデル16Aからの出力である車両Vの種類を取得することで、車両Vの種類を判定する。
出力制御部12Gは、判定部12Eまたはタグ判定部12Bによる判定結果を出力する。判定結果は、車両Vの種類を表す情報である。
出力制御部12Gは、判定結果である車両Vの種類を、通信部14を介してシーケンサ20へ出力する。
シーケンサ20は、車両Vの種類の判定結果を物体判定装置10から受付けると、該判定結果を塗装装置50へ送信する。塗装装置50は、シーケンサ20から受付けた判定結果によって表される車両Vの種類に応じた塗装処理を実行する。例えば、塗装装置50は、シーケンサ20から受付けた車両Vの種類に応じた車両Vの特定の領域に塗装処理を行う。なお、物体判定システム1には、車両Vの種類の判定結果に応じた各種処理を行う処理装置が設けられていればよく、塗装を行う塗装装置50の設けられた形態に限定されない。また、物体判定システム1には、車両Vの種別に応じた処理を行う塗装装置50などの装置が設けられていない構成であってもよい。
また、出力制御部12Gは、判定結果である車両Vの種類を、表示部18に表示してもよい。この場合、出力制御部12Gは、搬送されて所定位置X1に到達した車両Vの種類をユーザに対して視認可能に提供することができる。
次に、本実施形態の物体判定装置10で実行する情報処理の流れの一例を説明する。
図6は、物体判定装置10が実行する情報処理の流れの一例を示すフローチャートである。
受付部12Aは、シーケンサ20から判定開始信号を受付ける(ステップS100)。
タグ判定部12Bは、ステップS100で判定開始信号を受付けた時に、通信部14を介してタグ60から台車IDを読取る(ステップS102)。タグ判定部12Bは、ステップS102で読取った台車IDを用いた車両Vの種類の判定に失敗したか否かを判断する(ステップS104)。タグ判定部12Bは、ステップS102で読取った台車IDに対応する車両Vの種類を台車管理情報から読取ることで、車両Vの種類を判定する。タグ判定部12Bは、台車IDを用いた車両Vの種類の判定に成功した場合、ステップS104で否定判断し(ステップS104:No)、後述するステップS112へ進む。ステップS104で肯定判断すると(ステップS104:Yes)、ステップS106へ進む。
ステップS106では、取得部12Cが撮影画像70を取得する(ステップS106)。取得部12Cは、ステップS100で判定開始信号を受付けた時に撮影部30によって撮影された撮影画像70を取得する。ステップS106の処理によって、取得部12Cは、搬送されて所定位置X1に到達した車両Vの撮影範囲Rの撮影画像70を取得する。
抽出部12Dは、ステップS106で取得した撮影画像70から複数の着目領域72を抽出する(ステップS108)。例えば、抽出部12Dは、撮影画像70から第1着目領域72Aおよび第2着目領域72Bを抽出する。
判定部12Eは、学習モデル16Aを用いて、ステップS108で抽出された複数の着目領域72(第1着目領域72A、第2着目領域72B)から車両Vの種類を判定する(ステップS110)。
出力制御部12Gは、ステップS110の判定結果またはステップS104で否定判断(ステップS104:No)することにより受付けた判定結果を出力する(ステップS112)。例えば、出力制御部12Gは、判定結果である車両Vの種類を、通信部14を介してシーケンサ20へ出力する。シーケンサ20は、例えば、該判定結果を塗装装置50へ送信する。塗装装置50は、シーケンサ20から受付けた判定結果によって表される車両Vの種類に応じた塗装処理を実行する。
次に、処理部12は、物体判定処理を終了するか否かを判断する(ステップS114)。例えば、処理部12は、物体判定処理の終了指示信号を受付けたか否かを判別することで、ステップS114の判断を行う。例えば、ユーザは、車両Vの種類の判定処理を終了するときに物体判定装置10の操作部等を操作することで、物体判定処理の終了指示信号を入力する。処理部12は、終了指示信号を受付けた場合、物体判定処理を終了すると判断すればよい。ステップS114で否定判断すると(ステップS114:No)、上記ステップS100に戻る。ステップS114で肯定判断すると(ステップS114:Yes)本ルーチンを終了する。
以上説明したように、本実施形態の物体判定装置10は、抽出部12Dと、判定部12Eと、を備える。抽出部12Dは、搬送される対象物の撮影画像70から複数の着目領域72を抽出する。判定部12Eは、撮影画像70である学習用画像80に含まれる複数の着目領域72を用いて学習された、複数の着目領域72から対象物の種類を出力する学習モデル16Aを用いて、抽出された複数の着目領域72から対象物の種類を判定する。
ここで、従来では、搬送される対象物または対象物の搬送機構に設けられた識別符号をセンサにより読取ることで、対象物の種類を判定していた。しかしながら、従来技術では、識別符号の設置部分の汚れや搬送される対象物の揺れなどによって、対象物の種類の判定が困難となる場合があった。また、搬送される対象物を支持する支持部材の劣化等により、搬送される対象物に位置ずれや揺れが発生することで、識別符号の読取異常が発生する場合があった。このため、従来技術では、搬送される対象物の種類を高精度に判定することが困難となる場合があった。
一方、本実施形態の物体判定装置10では、搬送される車両Vの撮影画像70から複数の着目領域72を抽出し、抽出した複数の着目領域72を学習モデル16Aへ入力することで、該学習モデル16Aからの出力として車両Vなどの対象物の種類を判定する。
このため、本実施形態の物体判定装置10では、識別符号の読取異常などによる対象物の種類の判定精度の低下を抑制することができる。また、本実施形態の物体判定装置10では、撮影画像70に含まれる複数の着目領域72を対象物の種類の判定に用いるため、1つの着目領域72のみを判定に用いる場合に比べて、高精度に対象物の種類を判定することができる。
従って、本実施形態の物体判定装置10は、搬送される対象物の種類を高精度に判定することができる。
また、従来技術では、搬送される対象物または対象物の搬送機構に設けられた識別符号の読取異常が発生した場合には、搬送機構40による対象物の搬送を停止し、ユーザが手動で異常解消のための作業を行った後に再度搬送を再開させるなどの作業を行っていた。一方、本実施形態の物体判定装置10では、例えば、タグ60から読取った台車IDの読取異常等が発生した場合であっても、搬送される対象物の撮影画像70から抽出した複数の着目領域72と学習モデル16Aとを用いて、対象物の種類を判定する。このため、本実施形態の物体判定装置10は、上記効果に加えて、読取異常等による生産ラインの停止を抑制することができ、また、ユーザの作業負荷の低減を図ることができる。
なお、上記実施形態の物体判定装置10で実行される上記各処理を実行するためのプログラムは、HDDに記憶されていてもよい。また、上記実施形態の物体判定装置10で実行される上記各処理を実行するためのプログラムは、ROM11Bに予め組み込まれて提供されていてもよい。
また、上記実施形態の物体判定装置10で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、上記実施形態の物体判定装置10で実行される上記処理を実行するためのプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施形態の物体判定装置10で実行される上記処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
なお、上記には、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態およびその変形は、発明の範囲および要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 物体判定システム
10 物体判定装置
12D 抽出部
12E 判定部
30 撮影部

Claims (4)

  1. 搬送される対象物の撮影画像から複数の着目領域を抽出する抽出部と、
    前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
    を備え
    前記対象物は車両であり、
    複数の前記着目領域は前記車両の互いに異なる部品を含む領域である、
    物体判定装置。
  2. 搬送される対象物の撮影画像から複数の着目領域を抽出する抽出部と、
    前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
    を備え
    前記対象物は車両であり、
    複数の前記着目領域は前記車両の互いに異なる部品を含む領域であり、
    前記判定部は、
    前記学習用画像に含まれる複数の前記着目領域と、前記学習用画像における前記着目領域の位置および角度の少なくとも一方を変更した複数の加工着目領域と、を用いて学習された前記学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する、
    物体判定装置。
  3. 搬送される対象物を撮影する撮影部と、
    前記対象物の撮影画像から複数の着目領域を抽出する抽出部と、
    前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
    を備え
    前記対象物は車両であり、
    複数の前記着目領域は前記車両の互いに異なる部品を含む領域である、
    物体判定システム。
  4. 搬送される対象物を撮影する撮影部と、
    前記対象物の撮影画像から複数の着目領域を抽出する抽出部と、
    前記撮影画像である学習用画像に含まれる複数の前記着目領域を用いて学習された、複数の前記着目領域から前記対象物の種類を出力する学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する判定部と、
    を備え
    前記対象物は車両であり、
    複数の前記着目領域は前記車両の互いに異なる部品を含む領域であり、
    前記判定部は、
    前記学習用画像に含まれる複数の前記着目領域と、前記学習用画像における前記着目領域の位置および角度の少なくとも一方を変更した複数の加工着目領域と、を用いて学習された前記学習モデルを用いて、抽出された複数の前記着目領域から前記対象物の種類を判定する、
    物体判定システム。
JP2021174994A 2021-10-26 2021-10-26 物体判定装置および物体判定システム Active JP7425032B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021174994A JP7425032B2 (ja) 2021-10-26 2021-10-26 物体判定装置および物体判定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021174994A JP7425032B2 (ja) 2021-10-26 2021-10-26 物体判定装置および物体判定システム

Publications (2)

Publication Number Publication Date
JP2023064620A JP2023064620A (ja) 2023-05-11
JP7425032B2 true JP7425032B2 (ja) 2024-01-30

Family

ID=86271586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021174994A Active JP7425032B2 (ja) 2021-10-26 2021-10-26 物体判定装置および物体判定システム

Country Status (1)

Country Link
JP (1) JP7425032B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108109137A (zh) 2017-12-13 2018-06-01 重庆越畅汽车科技有限公司 车辆部件的机器视觉检测***及方法
CN108416338A (zh) 2018-04-28 2018-08-17 深圳信息职业技术学院 一种非接触掌纹身份认证方法
US20190034734A1 (en) 2017-07-28 2019-01-31 Qualcomm Incorporated Object classification using machine learning and object tracking
US20200186813A1 (en) 2018-12-05 2020-06-11 Samsung Electronics Co., Ltd. System and method for compressing data using a filter without loss of critical data
JP2021128705A (ja) 2020-02-17 2021-09-02 トヨタ自動車株式会社 物体状態識別装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190034734A1 (en) 2017-07-28 2019-01-31 Qualcomm Incorporated Object classification using machine learning and object tracking
CN108109137A (zh) 2017-12-13 2018-06-01 重庆越畅汽车科技有限公司 车辆部件的机器视觉检测***及方法
CN108416338A (zh) 2018-04-28 2018-08-17 深圳信息职业技术学院 一种非接触掌纹身份认证方法
US20200186813A1 (en) 2018-12-05 2020-06-11 Samsung Electronics Co., Ltd. System and method for compressing data using a filter without loss of critical data
JP2021128705A (ja) 2020-02-17 2021-09-02 トヨタ自動車株式会社 物体状態識別装置

Also Published As

Publication number Publication date
JP2023064620A (ja) 2023-05-11

Similar Documents

Publication Publication Date Title
US10594937B2 (en) Multi-sensor image stabilization techniques
CN101393605B (zh) 图像处理设备和图像处理方法
JP5787642B2 (ja) 対象物保持装置、対象物保持装置の制御方法、およびプログラム
US20160323700A1 (en) Device, system, and method for determining the status of lanes
JP6473691B2 (ja) 位置ずれ補正装置および位置ずれ補正システム
JP6538458B2 (ja) 物流システム、および物流管理方法
US10823572B2 (en) Method, system and apparatus for generating navigational data
US20210072734A1 (en) Information processing apparatus and method, robot controlling apparatus and method, and non-transitory computer-readable storage medium
JP6113631B2 (ja) 作業確認システム
CN110795985A (zh) 信息处理方法及信息处理***
JP7425032B2 (ja) 物体判定装置および物体判定システム
JP6728995B2 (ja) 自動倉庫システムおよび自動倉庫の管理方法
US10891879B1 (en) Repurposed packages
JP2017214197A (ja) 管理システム、管理方法および情報処理装置
JP7309499B2 (ja) 物品搬送制御装置および仕分けシステム
CN113673276A (zh) 目标物体识别对接方法、装置、电子设备及存储介质
US11327504B2 (en) Method, system and apparatus for mobile automation apparatus localization
US20190228032A1 (en) Non-transitory computer readable medium, information processing apparatus, and information processing method for determining a location of a target based on image information generated by capturing an image of the target
JP2017186106A (ja) 配達支援装置、配達支援システム、及び配達支援プログラム
US11568564B2 (en) Mapping multiple views to an identity
KR102457712B1 (ko) 수하물 이중적재 판별 시스템 및 방법
JP2007033328A (ja) 画像処理方法および該画像処理方法を用いたピッキング動作補正方法
JP2017214195A (ja) 管理システム、管理方法および搬送システム
JP6852488B2 (ja) 識別装置、識別方法およびプログラム
US11508149B2 (en) Operating method with goods information and non-transitory computer readable medium thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240118

R150 Certificate of patent or registration of utility model

Ref document number: 7425032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150