JP2019049780A - 教師データ作成プログラム、教師データ作成装置、及び教師データ作成方法 - Google Patents

教師データ作成プログラム、教師データ作成装置、及び教師データ作成方法 Download PDF

Info

Publication number
JP2019049780A
JP2019049780A JP2017172495A JP2017172495A JP2019049780A JP 2019049780 A JP2019049780 A JP 2019049780A JP 2017172495 A JP2017172495 A JP 2017172495A JP 2017172495 A JP2017172495 A JP 2017172495A JP 2019049780 A JP2019049780 A JP 2019049780A
Authority
JP
Japan
Prior art keywords
image
teacher data
captured
feature amount
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017172495A
Other languages
English (en)
Inventor
松田 裕司
Yuji Matsuda
裕司 松田
健太郎 辻
Kentaro Tsuji
健太郎 辻
瀬川 英吾
Eigo Segawa
英吾 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017172495A priority Critical patent/JP2019049780A/ja
Priority to US16/121,965 priority patent/US10755134B2/en
Publication of JP2019049780A publication Critical patent/JP2019049780A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体を自動で分別するための教師データであって、人による分別作業の結果を反映した教師データを効率よく作成する。【解決手段】教師データ作成プログラムは、以下の3つの処理をコンピュータに実行させる。第1の処理は、物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、作業が行われた後の第2のタイミングに撮像された第2の画像とを取得する処理である。第2の処理は、第1の画像及び第2の画像のそれぞれにおいて物体が撮像されている領域の特徴量を抽出する処理である。第3の処理は、物体を自動で分別するための教師データを記憶する記憶部に、第1の画像と第2の画像との両方に撮像されている物体に対応する領域の特徴量、又は、第1の画像と第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量を記憶する処理である。【選択図】図5

Description

本発明は、教師データ作成プログラム、教師データ作成装置、及び教師データ作成方法に関する。
画像を利用した物体の分別作業には、例えば、各種製品の生産ラインにおける生産物の外観検査や、生鮮食品を加工する工場における加工に使用できない食品等の除去等がある。この種の分別作業では、問題のない物体(正常品)の画像についての情報と、何らかの問題があるため取り除くべき物体(異常品)の画像についての情報とを含む教師データに基づいて、コンピュータが画像内の物体を取り除くか否かを判別する。
教師データを作成する際には、コンピュータ(又は人間)は、分別対象である物体を撮像した多数の画像を収集し、画像毎に正常品及び異常品のいずれの物体を撮像した画像であるかを分別するラベルを付与する。この際、収集する画像が多いほど判別精度は高くなるが、その反面、ラベルを付与する作業の回数が多くなり作業時間が長くなる。特に、ラベルを付与する作業を人(作業員)が入力装置を操作して行っている場合には、画像が多くなるほど作業員の作業負担が増大する。このため、近年、画像データに含まれる情報を利用して教師データを効率よく作成する方法が提案されている。
教師データを作成する方法の1つとして、人手によりラベル付けされたデータをカテゴリ毎に用意し、ラベルが未知であるデータのカテゴリを、ラベル付けされたデータのうちの類似度が最も高いデータのカテゴリに決定する方法がある(例えば、特許文献1を参照)。
また、事前に定義した特徴に基づいて類似画像を教師無し学習によりクラスタに分割しておき、新規に入力された画像がどのクラスタに属するかにより正常か異常かを判定する方法がある(例えば、特許文献2を参照)。
特開2001−158373号公報 特開2006−330797号公報
画像データに含まれる情報に基づいて教師データを作成する場合、分別の基準となる特徴が適切に設定されていないと、誤ったラベルが付与されてしまい教師データによる判別精度が低下する可能性がある。特に、問題のない物体の外形、寸法、色等が一意的ではない物体である場合には、画像データに含まれる情報のみで教師データを作成することが困難である。
1つの側面において、本発明は、画像による物体分別のための教師データであって、人による分別作業の結果を反映した教師データを効率よく作成することを目的とする。
1つの態様の教師データ作成プログラムは、以下の3つの処理をコンピュータに実行させる。第1の処理は、物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、作業が行われた後の第2のタイミングに撮像された第2の画像とを取得する処理である。第2の処理は、第1の画像及び第2の画像のそれぞれにおいて物体が撮像されている領域の特徴量を抽出する処理である。第3の処理は、物体を自動で分別するための教師データを記憶する記憶部に、第1の画像と第2の画像との両方に撮像されている物体に対応する領域の特徴量、又は、第1の画像と第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量を記憶する処理である。
上述の態様によれば、画像による物体分別のための教師データであって、人による分別作業の結果を反映した教師データを効率よく作成することが可能となる。
一実施形態に係る教師データ作成装置の適用例を説明する斜視図である。 一実施形態に係る教師データ作成装置の機能的構成を示す図である。 一実施形態に係る教師データ作成装置が行う処理を説明するフローチャートである。 特徴量抽出処理の内容を説明するフローチャートである。 登録処理の内容を説明するフローチャートである。 画像の収集方法を説明する図(その1)である。 画像の収集方法を説明する図(その2)である。 教師データ作成装置が収集した画像を示す図である。 特徴量テーブルの内容を説明する図である。 教師データの内容の一例を説明する図である。 登録処理の内容の変形例を説明するフローチャートである。 登録処理の変形例により作成される教師データの内容の一例を示す図である。 教師データの更に別の例を説明する図である。 教師データの利用方法の第1の例を説明する図である。 教師データの利用方法の第2の例を説明する図である。 取得する画像の別の例を説明する図である。 画像の撮像方法の別の例を説明する斜視図である。 コンピュータのハードウェア構成を示す図である。
図1は、一実施形態に係る教師データ作成装置の適用例を説明する斜視図である。
本実施形態の教師データ作成装置は、例えば、複数種類の物体を所望の条件を満たす物体と他の物体とに分別する作業を機械により行う際に分別の基準とする教師データを作成する装置である。図1には、教師データ作成装置1の適用例の1つとして、ベルトコンベア2により搬送される複数の物体3のなかから異物を取り除く作業についての教師データを作成する例を示している。
教師データ作成装置1により教師データを作成する際には、図1のように、作業員4が物体3の分別作業(異物を取り除く作業)を行っている作業ライン10を利用する。図1の作業ライン10において分別対象となっている物体3には、外形が円柱状の物体301〜304,306〜308,及び310と、外形が直方体状の物体300,305,及び309とが含まれる。作業員4は、ベルトコンベア2により搬送される物体3を、円柱状の物体と、外形がその他の形状の物体とに分別する作業を行う。この際、作業員4は、ベルトコンベア2で搬送される物体3のなかから、直方体状の物体305等の、外見が円柱状ではない物体を発見すると、該物体を取り上げて回収容器5に入れる。これにより、ベルトコンベア2の搬送路における作業員4よりも下流側には、円柱状の物体301〜304,306〜308,及び310のみが搬送される。この種の作業は、例えば、生鮮食品を加工する工場等で行われる。生鮮食品を加工する工場では、例えば、仕入れた食品のうちの加工に使用できない食品等を異物として取り除く作業を行う。
ベルトコンベア2で搬送される物体3を分別する作業についての教師データを作成する場合、教師データ作成装置1は、例えば、第1のカメラ6Aで撮像した画像と、第2のカメラ6Bで撮像した画像とを取得する。第1のカメラ6Aは、ベルトコンベア2の搬送路における、作業員4が異物を取り除く作業を行う作業領域よりも上流側に位置する第1の撮像領域7Aを撮像する。一方、第2のカメラ6Bは、搬送路における、作業領域よりも下流側に位置する第2の撮像領域7Bを撮像する。第1のカメラ6Aでは分別対象である全ての物体3を撮像し、第2のカメラ6Bでは分別対象である全ての物体3のうちの作業員4が取り除かなかった物体3のみを撮像する。すなわち、第1のカメラ6Aは分別する前の複数の物体の画像を撮像し、第2のカメラ6Bは分別した後の作業員4が取り除かなかった物体の画像のみを撮像する。したがって、第1のカメラ6Aにより撮像された物体3の画像毎に、第2のカメラ6Bにより撮像された画像も存在するか否かを判定して分別することで、画像に基づいた物体の分別基準(教師データ)が得られる。例えば、図1における円柱状の物体301は、第1のカメラ6Aにより撮像された画像及び第2のカメラ6Bにより撮像された画像が存在する。このため、教師データ作成装置1は、円柱状の物体301の画像を、取り除かない物体の画像として教師データに登録する。一方、図1における直方体状の物体305は、第1のカメラ6Aにより撮像された画像は存在するが、第2のカメラ6Bにより撮像された画像は存在しない。このため、教師データ作成装置1は、直方体状の物体305の画像を、取り除く物体の画像として教師データに登録する。
図2は、一実施形態に係る教師データ作成装置の機能的構成を示す図である。
図2に示すように、本実施形態の教師データ作成装置1は、画像取得部110と、特徴量抽出部120と、登録部130と、出力部140とを備える。また、教師データ作成装置1は、画像データ保持部191、特徴量テーブル192、及び教師データ193を含む各種情報を記憶する記憶部190を備える。
画像取得部110は、第1のカメラ6Aにより撮像された画像と、第2のカメラ6Bにより撮像された画像とを取得する。第1のカメラ6Aにより撮像された画像は、分別対象である複数の物体を分別していない状態で撮像された画像である。一方、第2のカメラ6Bにより撮像された画像は、作業員が目視により複数の物体を所定の分別基準に従って分別した後の1つのグループに含まれる物体のみを撮像した画像である。すなわち、画像取得部110は、物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、作業が行われた後の第2のタイミングで撮像された第2の画像とを取得する。以下の説明では、第1のカメラ6Aにより撮像された第1の画像を分別前の画像といい、第2のカメラ6Bにより撮像された第2の画像を分別後の画像とする。画像取得部110は、取得した分別前の画像及び分別後の画像を、それぞれ、撮像したカメラ及び撮像時刻を識別可能な状態で記憶部190の画像データ保持部191に格納する。
特徴量抽出部120は、分別前の画像及び分別後の画像のそれぞれにおいて物体が撮像されている領域の特徴量を抽出する。特徴量抽出部120は、分別前の画像及び分別後の画像のそれぞれから、分別対象である物体が撮像されている領域を検出し、該物体についての特徴量を抽出する。特徴量抽出部120は、既知の検出方法に従って画像内の物体を検出する。例えば、特徴量抽出部120は、ベルトコンベア2上に物体がない状態で撮像した背景画像と、物体の検出対象である画像との差分に基づいて、取得した画像に物体が存在するか否かを判定して物体を検出する。また、特徴量抽出部120は、既知の抽出方法に従って画像内から検出した物体の特徴量を抽出する。例えば、特徴量抽出部120は、画像内における物体を含む所定の部分領域の色ヒストグラム、或いは画像内における物体のエッジの勾配ヒストグラムを、特徴量として抽出する。なお、1枚の画像に複数の物体が含まれる場合、特徴量抽出部120は、1枚の画像から検出した複数の物体のそれぞれについての特徴量を抽出する。特徴量抽出部120は、各画像から抽出した物体の特徴量を、画像の撮像時刻と対応付けて記憶部190の特徴量テーブル192に格納する。
登録部130は、分別前の画像から検出した物体毎に、物体についての情報と、該物体が分別後の画像にも存在する物体であるか否かを示す情報とを記憶部190の教師データ193に登録する。登録部130は、照合部131と、分別部132とを含む。照合部131は、分別前の画像から検出した物体毎に、分別前の画像から抽出した該物体の特徴量と、分別後の画像から抽出した物体の特徴量とを照合する。照合部131は、例えば、分別前の画像から抽出した物体の特徴量と、分別後の画像から抽出した物体の特徴量との距離を算出し、算出した距離が閾値以下となる特徴量の組み合わせが存在するか否かを判定する。距離が閾値以下となる特徴量の組み合わせが存在する場合、照合部131は、分別前の画像から検出した物体が分別後の画像も存在する物体であると認識する。一方、距離が閾値以下となる特徴量の組み合わせが存在しない場合、照合部131は、分別前の画像から検出した物体は分別後の画像が存在しない物体であると認識する。分別部132は、分別前の画像から検出した物体毎に、該物体についての情報と、照合部131での照合結果(分別後の画像が存在する物体であるか否か)を示す情報とを教師データ193に登録する。分別部132は、例えば、照合部131での照合結果を示す情報として、分別後の画像が存在しない物体についての情報に、ベルトコンベア2上から取り除くことを示すラベルを付与する。この場合、教師データ193に登録された複数の物体についての情報は、ラベルが付与されているか否かにより、ベルトコンベア2上から取り除く物体についての情報と、取り除かない物体についての情報とに識別可能となる。また、分別部132は、例えば、照合部131での照合結果を示す情報として、分別後の画像が存在する物体であることを示すラベルと、分別後の画像が存在しない物体であることを示すラベルとを用いてもよい。
出力部140は、作成した教師データ193を外部装置11に出力する。外部装置11は、例えば、教師データ193を利用して物体を分別する分別機であってもよいし、分別機に教師データ193を提供するサーバ装置であってもよい。
図3は、一実施形態に係る教師データ作成装置が行う処理を説明するフローチャートである。
本実施形態の教師データ作成装置1は、図3に示すように、画像を収集する処理(ステップS1)と、特徴量抽出処理(ステップS2)と、登録処理(ステップS3)とを行う。
ステップS1の処理は、画像取得部110が行う。画像取得部110は、分別対象である複数の物体3を分別する作業を行っているときに第1のカメラ6Aにより撮像された画像(分別前の画像)及び第2のカメラ6Bにより撮像された画像(分別後の画像)を取得する。画像取得部110は、例えば、所定の時間間隔で分別前の画像及び分別後の画像を取得し、取得した分別前の画像及び分別後の画像を、それぞれ、撮像したカメラと撮像時刻とを識別可能な状態で記憶部190の画像データ保持部191に格納する。
ステップS2の特徴量抽出処理は、特徴量抽出部120が行う。特徴量抽出部120は、分別前の画像及び分別後の画像のそれぞれから、分別対象である物体を検出し、検出した物体の特徴量を抽出する。特徴量抽出部120は、抽出した物体の特徴量を、それぞれ、該物体の画像を撮像したカメラと画像の撮像時刻とを識別可能な状態で記憶部190の特徴量テーブル192に格納する。
ステップS3の登録処理は、登録部130が行う。登録部130は、分別前の画像から検出した物体毎に、該物体の特徴量と、分別後の画像から抽出した物体の特徴量とを照合し、分別後の画像が存在する物体であるか否かを判別する。登録部130は、照合する特徴量同士の距離(差異)を算出し、分別後の画像から抽出した物体の特徴量のなかに距離が閾値以下となる特徴量があるか否かにより、分別後の画像が存在する物体であるか否かを判別する。分別後の画像から抽出した物体の特徴量のなかに、分別前の画像から検出した物体についての特徴量との距離が閾値以下となる特徴量が存在する場合、登録部130は、分別前の画像から検出した該物体を、分別後の画像が存在する物体であると認識する。分別前の画像から検出した物体のうちの分別後の画像が存在する物体は、作業員4の目視による分別作業においてベルトコンベア2から取り除かれなかった物体である。このため、分別前の画像から検出した物体を分別後の画像が存在する物体であると認識した場合、登録部130は、例えば、該物体についての情報を、ラベルを付与せずに教師データ193に登録する。一方、分別後の画像から抽出した物体の特徴量のなかに、分別前の画像から検出した物体についての特徴量との距離が閾値以下となる特徴量が存在しない場合、登録部130は、分別前の画像から検出した該物体を、分別後の画像が存在しない物体であると認識する。分別前の画像から検出した物体のうちの分別後の画像が存在しない物体は、作業員4の目視による分別作業においてベルトコンベア2から取り除かれた物体である。このため、分別前の画像から検出した物体を分別後の画像が存在しない物体であると認識した場合、登録部130は、例えば、該物体についての情報に、取り除くことを示すラベルを付与して教師データ193に登録する。
なお、本実施形態の教師データ作成装置1におけるステップS1の処理、ステップS2の処理、及びステップS3の処理を行うタイミングは、適宜変更可能である。例えば、教師データ作成装置1により教師データを作成する際には、物体の分別作業を行っている期間にステップS1の処理を行い、分別作業を終了した後でステップS2の処理及びステップS3の処理を行うことが可能である。この際、教師データ作成装置1は、ステップS2の処理とステップS3の処理のそれぞれの処理を個別に行ってもよいし、2つの処理をパイプライン化して行ってもよい。また、教師データを作成する際には、例えば、教師データ作成装置1は、ステップS1の処理、ステップS2の処理、及びステップS3の処理の3つの処理をパイプライン化して行ってもよい。更に、教師データを作成する際には、例えば、教師データ作成装置1は、ステップS1の処理とステップS2処理とをパイプライン化して行い、その後にステップS3の処理のみを行ってもよい。
図3のフローチャートにおけるステップS2の特徴量抽出処理は、上記のように、教師データ作成装置1の特徴量抽出部120が行う。特徴量抽出部120は、特徴量抽出処理として、例えば、図4のフローチャートに沿った処理を行う。
図4は、特徴量抽出処理の内容を説明するフローチャートである。
特徴量抽出部120は、図4に示すように、まず、画像データ保持部191で保持している画像を1つ選択し(ステップS201)、選択した画像から分別対象の物体を検出する(ステップS202)。ステップS201において、特徴量抽出部120は、所定の選択規則に従って、画像データベース191に登録された複数の画像のうちの1つの画像を選択して読み出す。また、ステップS202において、特徴量抽出部120は、背景差分法等の所定の検出方法に従って、選択した画像における物体が撮像されている領域を検出する。背景差分法により物体が撮像されている領域を検出する場合、特徴量抽出部120は、ベルトコンベア2上に物体が存在しない状態で撮像した背景画像と、選択中の画像との差分とに基づいて、物体の有無を判定して物体が撮像されている領域を検出する。この場合、特徴量抽出部120は、背景画像の各画素と選択中の画像の各画素との色情報又は輝度情報の差分を算出し、例えば、差分が閾値以上である画素が所定の個数以上含まれる領域を物体が撮像されている領域として検出する。
次に、特徴量抽出部120は、選択した画像から物体が検出されたか否かを判定する(ステップS203)。ステップS203において、特徴量抽出部120は、物体が撮像されている領域が選択中の画像から検出された場合に、画像から物体が検出されたと判定する。選択した画像から物体が検出された場合(ステップS203;YES)、特徴量抽出部120は、選択中の画像から該物体の特徴量を抽出し(ステップS204)、抽出した特徴量を特徴量テーブル192に格納する(ステップS205)。ステップS204において、特徴量抽出部120は、既知の抽出方法に従って、選択した画像から物体の特徴量を抽出する。特徴量抽出部120は、例えば、画像内における物体を含む所定の部分領域の色ヒストグラム、或いは画像内における物体のエッジの勾配ヒストグラムを、特徴量として抽出する。ステップS205において、特徴量抽出部120は、抽出した特徴量を、例えば、選択中の画像を撮像したカメラ及び該画像の撮像時刻を識別可能な態様で特徴量テーブル192に格納する。なお、選択中の画像から複数の物体を検出した場合、特徴量抽出部120は、検出した物体毎に、特徴量を抽出し、抽出した特徴量を特徴量テーブル192に登録する。
ステップS204及びS205の処理を終えると、特徴量抽出部120は、次に、選択していない画像があるか否かを判定する(ステップS206)。また、選択中の画像から物体が検出されなかった場合(ステップS203;NO)、特徴量抽出部120は、ステップS204及びS205の処理を省略し、ステップS206の判定を行う。画像データ保持部191にまだ選択していない画像がある場合(ステップS206;YES)、特徴量抽出部120は、ステップS201以降の処理を繰り返す。そして、画像データ保持部191内の選択可能な全ての画像に対してステップS201以降の処理を行った場合(ステップS206;NO)、特徴量抽出部120は、特徴量抽出処理を終了する。
特徴量抽出部120は、特徴量抽出処理(ステップS2)を終了する際に、登録部130に処理が終了したことを通知する。この通知が入力されると、登録部130は、登録処理(ステップS3)を開始する。登録部130は、登録処理として、例えば、図5のフローチャートに沿った処理を行う。
図5は、登録処理の内容を説明するフローチャートである。
登録部130は、図5に示すように、まず、特徴量テーブル192を参照し、分別前の画像から検出した物体を1つ選択し、該物体の特徴量を取得する(ステップS301)。ステップS301の処理は、例えば、登録部130の照合部131が行う。ステップS301において、照合部131は、所定の選択規則に従って、特徴量を取得する物体を選択する。例えば、照合部131は、特徴量テーブル192において対応付けられた撮像時刻が最も早い物体から順に1つずつ選択し、該物体の特徴量を読み出す。
次に、登録部130は、分別後の画像から抽出した物体の特徴量のうちの、ステップS301で読み出した物体の特徴量と照合する特徴量を特定する(ステップS302)。ステップS302の処理は、照合部131が行う。ステップS302において、照合部131は、例えば、まず、ステップS301で選択した物体が第2のカメラ6Bの撮像範囲内に到達する時刻を算出する。この時刻は、例えば、選択中の物体と対応付けられた撮像時刻と、第1のカメラ6Aの撮像範囲7Aから第2のカメラ6Bの撮像範囲7Bまでの距離と、ベルトコンベア2上の物体の移動速度とに基づいて算出する。その後、照合部131は、算出した時刻を含む所定の時間範囲内に撮像された分別後の画像を特定し、該分別後の画像から抽出した物体の特徴量を照合する特徴量に特定する。
次に、登録部130は、分別前の画像から抽出した選択中の物体の特徴量と、分別後の画像から抽出した物体の特徴量との、特徴量同士の距離を算出する(ステップS303)。ステップS303の処理は、照合部131が行う。照合部131は、既知の算出方法に従って、特徴量同士の距離(差異)を算出する。なお、ステップS302において特定した、分別後の画像から抽出した物体の特徴量が複数である場合、照合部131は、特定した複数の物体の特徴量毎に、分別前の画像から抽出した物体の特徴量との距離を算出する。
次に、登録部130は、算出した距離が閾値以下となる特徴量の組み合わせがあるか否かを判定する(ステップS304)。ステップS304の判定は、例えば、照合部131が行う。距離が閾値以下となる特徴量の組み合わせがない場合、分別後の画像から検出した物体のなかに、分別前の画像から検出した物体のうちの選択中の物体と対応する物体が存在しない。すなわち、距離が閾値以下となる特徴量の組み合わせがない場合、分別前の画像から検出した物体のうちの選択中の物体と対応する物体は、分別作業により取り除かれた物体であるといえる。よって、距離が閾値以下となる組み合わせがない場合(ステップS304;NO)、登録部130は、分別前の画像から検出した物体のうちの選択中の物体についての情報に取り除くことを示すラベルを付与して教師データ193に登録する(ステップS305)。一方、距離が閾値以下となる組み合わせがある場合(ステップS304;YES)、登録部130は、分別前の画像から検出した物体のうちの選択中の物体についての情報を、ラベルを付与せずに教師データ193に登録する(ステップS306)。ステップS305及びS306の処理は、分別部132が選択的に行う。分別部132は、分別前の画像から検出した物体のうちの選択中の物体(すなわち教師データ193への登録の対象となっている物体)が分別後の画像も存在する物体である場合には、該物体についての情報を、ラベルを付与せずに教師データ193に登録する。一方、選択中の物体が分別後の画像が存在しない物体である場合には、該物体についての情報にラベルを付与して教師データ193に登録する。
ステップS305又はS306の処理を終えると、登録部130は、分別前の画像から検出した物体のなかに選択していない物体があるか否かを判定する(ステップS307)。ステップS307の判定は、例えば、照合部131が行う。まだ選択していない物体がある場合(ステップS307;YES)、登録部130は、ステップS301以降の処理を繰り返す。そして、選択可能な全ての物体に対してステップS301以降の処理を行った場合(ステップS307;NO)、登録部130は、登録処理を終了する。
登録処理を終えた後、教師データ作成装置1は、作成した教師データ193を外部装置11に出力する処理等を行う。
このように、本実施形態の教師データ作成装置1は、物体の分別作業を行う前に撮像された分別前の画像から検出した物体の特徴量と、分別作業を行った後に撮像された分別後の画像から検出した物体の特徴量とに基づいて、教師データを作成する。このとき、教師データ作成装置1は、分別前の画像から検出した物体毎に、分別前の画像から抽出した該物体の特徴量と、分別後の画像から抽出した物体の特徴量とに基づいて、分別後の画像が存在するか否かを判別する。そして、教師データ作成装置1は、分別後の画像が存在しない物体についての情報を教師データ193に登録する際に、該情報に分別作業でベルトコンベア2から取り除くことを示すラベルを付与して登録する。すなわち、本実施形態の教師データ作成装置1は、分別前の画像における物体についての情報を教師データ193に登録する際に、自動的にラベルを付与する。このため、多数の画像のそれぞれから分別対象である物体を検出して教師データ193を作成する際に、オペレータ(作業員4)が入力装置を操作して各物体にラベルを付与する作業を行う場合と比べ、オペレータの作業負担が軽減される。
図6Aは、画像の収集方法を説明する図(その1)である。図6Bは、画像の収集方法を説明する図(その2)である。
図6Aの(a)には、時刻T1にベルトコンベア2上に存在する物体3と、撮像範囲7A及び7Bとの例を示している。ベルトコンベア2は、物体3がx方向(右方向)に移動するよう動作している。すなわち、図6Aの(a)では作業者4の左方がベルトコンベア2の上流となり、右方が下流となる。よって、分別前の画像を撮像する第1のカメラ6Aの撮像範囲7Aは作業者4よりも左方となり、分別後の画像を撮像する第2のカメラ6Bの撮像範囲7Bは作業者4よりも右方となる。このとき、第1のカメラ6Aの撮像範囲7Aと第2のカメラ6Bの撮像範囲7Bとの距離Lは、例えば、撮像範囲7Aにおける物体3の搬送方向の寸法L0の整数倍(図6Aの(a)では4倍)とする。このようにすると、撮像範囲7Aにおける搬送方向の寸法L0と対応した移動量の分だけベルトコンベア2が動作する毎に第1のカメラ6A及び第2のカメラ6Bで各撮像範囲7A,7Bを撮像することで、取得した画像間の切れ目をなくすことが可能となる。すなわち、ベルトコンベア2上の物体が撮像範囲7Aの寸法L0と対応する距離だけ移動するのに要する時間DT毎に第1のカメラ6A及び第2のカメラ6Bで各撮像範囲7A,7Bを撮像することで、物体の検出漏れを防ぐことが可能となる。
例えば、時刻T1において、第1のカメラ6Aで撮像範囲7Aを撮像するとともに、第2のカメラ6Bで撮像範囲7Bを撮像したとする。このとき、第1のカメラ6Aの撮像範囲7A内には物体324が存在するため、時刻T1に第1のカメラ6Aで撮像した画像は物体324を含む。このため、時刻T1に第1のカメラ6Aで撮像範囲7Aを撮像した場合、教師データ作成装置1は、第1のカメラ6Aにより撮像された物体324を含む画像を、分別前の画像の1つとして取得する。また、時刻T1に第2のカメラ6Bで撮像範囲7Bを撮像した場合、教師データ作成装置1は、第2のカメラ6Bにより撮像された物体321を含む画像を、分別後の画像の1つとして取得する。
時刻T1から時間DTだけ経過した時刻T2(=T1+DT)になると、図6Aの(b)のように、ベルトコンベア2上の各物体322〜324はそれぞれ寸法L0分だけx方向(右方)に移動する。ここで、時間DT(=T2−T1)は、ベルトコンベア2上の物体が撮像範囲7Aの寸法L0に相当する移動量の分だけ移動するのに要する時間である。すなわち、図6Aの(b)におけるベルトコンベア2上の物体は、(a)における位置から撮像範囲1個分だけ右方に移動した位置となる。
時刻T2には、新たな分別対象の物体325が第1のカメラ6Aの撮像範囲7A内に移動してくる。このため、時刻T2に第1のカメラ6Aで撮像範囲7Aを撮像した場合、教師データ作成装置1は、物体325を含む画像を、分別前の画像の1つとして取得する。なお、物体325は、他の円柱状の物体322〜324とは異なり、外形が直方体状である。すなわち、物体325は、作業員4により取り除かれる物体(異物)である。また、時刻T2に第2のカメラ6Bで撮像範囲7Bを撮像した場合、教師データ作成装置1は、物体の存在しない画像を、分別後の画像の1つとして取得する。
時刻T2から時間2・DTだけ経過した時刻T4(=T1+3・DT)になると、図6Aの(c)のように、直方体状の物体325が作業者4の前に到達する。このとき、作業者4は、自身の前を通過する物体325を取り除くべき物体であると認識し、該物体325をベルトコンベア2上から取り上げて図示しない回収容器に入れる。時刻T4に第1のカメラ6Aで撮像範囲7Aを撮像した場合、教師データ作成装置1は、物体327を含む画像を、分別前の画像の1つとして取得する。また、時刻T4に第2のカメラ6Bで撮像範囲7Bを撮像した場合、教師データ作成装置1は、物体323を含む画像を、分別後の画像の1つとして取得する。
そして、時刻T4から時間DTだけ経過した時刻T5(=T1+4・DT)になると、図6Bの(d)のように、ベルトコンベア2上の物体324が第2のカメラ6Bの撮像範囲7B内に到達する。物体324は、時刻T1に第1のカメラ6Aで撮像した画像に含まれる物体である。時刻T5に第2のカメラ6Bで撮像範囲7Bを撮像した場合、教師データ作成装置1は、物体324を含む画像を、分別後の画像の1つとして教師データ作成装置1に入力される。また、時刻T5に第1のカメラ6Aで撮像範囲7Aを撮像した場合、教師データ作成装置1は、物体328を含む画像を、分別前の画像の1つとして取得する。
更に、時刻T5から時間DTだけ経過した時刻T6(=T2+4・DT)になると、
図6Bの(e)のように、ベルトコンベア2における物体325が存在していた部分領域325’が第2のカメラ6Bの撮像範囲7B内に到達する。物体325は、撮像範囲7Bに到達する前に、作業者4によりベルトコンベア2上から取り除かれている。このため、時刻T6における撮像範囲内7Bには物体が存在しない。よって、時刻T6に第2のカメラ6Bで撮像範囲7Bを撮像した場合、教師データ作成装置1は、物体の存在しない画像を、分別後の画像の1つとして取得する。また、時刻T6に第1のカメラ6Aで撮像範囲7Aを撮像した場合、教師データ作成装置1は、物体329を含む画像を、分別前の画像の1つとして取得する。
その後、教師データ作成装置1は、時間DT毎に第1のカメラ6A及び第2のカメラ6Bで撮像した画像の取得を続ける。そして、所定数の画像が得られると、教師データ作成装置1は、画像を収集するステップS1の処理を終了する。ステップS1の処理を終了すると、教師データ作成装置1には、例えば、図7に示したような撮像時間の関係を有する複数の画像が蓄積される。
図7は、教師データ作成装置が収集した画像を示す図である。
教師データ作成装置1が第1のカメラ6A及び第2のカメラ6Bから取得した(収集した)画像は、教師データ作成装置1の画像データ保持部191に蓄積される。このとき、画像データ保持部191には、図7に示すように、分別前の画像の集合である第1の画像群G1と、分別後の画像の集合である第2の画像群G2とが蓄積される。第1の画像群G1に含まれる分別前の画像及び第2の画像群G2に含まれる分別後の画像は、それぞれ、撮像時刻を示す情報と対応付けられている。
例えば、第1の画像群G1の画像1211は、図6Aの(a)に示した時刻T1に、第1のカメラ6Aで撮像した画像である。このため、画像1211には、時刻T1に撮像範囲7A内に存在する物体324が写っている。一方、第2の画像群G2の画像1221は、時刻T1に、第2のカメラ6Bで撮像した画像である。このため、画像1221には、時刻T1に撮像範囲7B内に存在する物体321が写っている。
また、第1の画像群G1の画像1212は、図6Aの(b)に示した時刻T2に第1のカメラ6Aで撮像した画像である。このため、画像1212には、時刻T2に撮像範囲7A内に存在する直方体状の物体325が写っている。一方、第2の画像群G2の画像1222は、時刻T2に第2のカメラ6Bで撮像した画像である。このため、画像1221には、物体が写っていない。
また、第2の画像群G2における画像1225は、図6Bの(d)に示した時刻T5に第2のカメラ6Bで撮像した画像である。時刻T5は、時刻T1に第1のカメラ6Aの撮像範囲7A内に存在した物体324が、第2のカメラ6Bの撮像範囲7B内に到達する時刻である。そして、物体324は外形が円柱状であるため、作業員4は、物体324を取り除かずにベルトコンベア2の下流に通過させる物体であると認識する。よって、時刻T5に第2のカメラ6Bで撮像した画像1225には、時刻T1に第1のカメラ6Aで撮像した物体324が写っている。
また、第2の画像群G2における画像1226は、図6Bの(e)に示した時刻T6に第2のカメラ6Bで撮像した画像である。時刻T6は、時刻T2に第1のカメラ6Aの撮像範囲7A内に存在した物体が、第2のカメラ6Bの撮像範囲7B内に到達する時刻である。ところが、時刻T2に撮像範囲7Aに存在した物体325(言い換えると、時刻T2に第1のカメラ6Aで撮像した画像1212に写っている物体325)は、外形が円柱状ではない。このため、作業員4は、図6Aの(c)のように、自身の前を移動する物体325をベルトコンベア2上から取り除く。よって、時刻T6に第2のカメラ6Bで撮像した画像1226には、物体325が写っていない。
本実施形態の教師データ作成装置1は、図7のような第1の画像群G1及び第2の画像群G2を収集した後、収集した画像群G1,G2に含まれる画像のそれぞれから撮像された物体の特徴量を抽出する処理を行う。教師データ作成装置1は、物体の特徴量を抽出する処理として、例えば、図4のフローチャートに沿った処理を行う。教師データ作成装置1は、収集した画像毎に、例えば、背景差分法により物体を検出し、検出した物体についての特徴量を抽出する。教師データ作成装置1は、画像から抽出した物体の特徴量を特徴量テーブル192に格納する。
図8は、特徴量テーブルの内容を説明する図である。
図8には、特徴量テーブル192の一例を示している。図8の特徴量テーブル192における画像群G1及びG2は、それぞれ、図7の第1の画像群G1及び第2の画像群G2と対応している。特徴量テーブル192における物体IDは、それぞれ、1つの画像群に含まれる複数の画像から検出された複数の物体を識別する数値である。特徴量テーブル192における画像ファイル名及び撮像時刻は、それぞれ、物体を検出した画像データを識別するファイル名及び画像を撮像した時刻である。特徴量テーブル192における特徴量は、物体を検出した画像から抽出した該物体についての特徴量である。特徴量は、例えば、画像内における物体を含む所定の部分領域の色ヒストグラム、或いは画像内における物体のエッジの勾配ヒストグラムである。
例えば、図7の画像1211から検出した物体324に対する物体IDを「1」とする場合、教師データ作成装置1は、画像1211のファイル名(XXX-1.jpg)、撮像時刻T1、及び物体の特徴量PV11を、画像群G1の物体ID=1と対応付けて特徴量テーブル192に格納する。このとき、教師データ作成装置1は、画像1212から検出した物体325の物体IDを「2」とし、画像1212のファイル名(XXX-2.jpg)、撮像時刻T2、及び物体の特徴量PV12を、画像群G1の物体ID=2と対応付けて特徴量テーブル192に格納する。
また、図7の画像1221から検出した物体321に対する物体IDを「1」とする場合、教師データ作成装置1は、画像1221のファイル名(YYY-1.jpg)、撮像時刻T1、及び物体の特徴量PV21を、画像群G2の物体ID=1と対応付けて特徴量テーブル192に格納する。
ここで、図4のステップS201において特徴量抽出部120が物体を検出する画像を画像群毎に時系列で選択しているとすると、画像1221の次に選択される画像は、時刻T2に第2のカメラ6Bで撮像した画像1222となる。ところが、図7に示したように、画像1222には物体が写っていない。このため、特徴量抽出部120が背景差分法等により画像1222から物体を検出する処理を行っても、物体は検出されない。よって、教師データ作成装置1の特徴量抽出部120は、画像1222から物体の特徴量を抽出する処理を省略し、次に、時刻T3に第2のカメラ6Bで撮像した画像1223から物体を検出する処理を行う。図7に示したように、画像1223には物体323が写っている。このため、特徴量抽出部120は、画像1223から物体323が撮像された領域を検出し、物体323についての特徴量を抽出する。よって、教師データ作成装置1は、特徴量テーブル192における画像群G2の物体ID=2に、画像1223のファイル名(YYY-3.jpg)、撮像時刻T3、及び物体の特徴量PV23を対応付ける。
収集した画像に対する特徴量抽出処理が終了して特徴量テーブル192が得られると、教師データ作成装置1は、特徴量テーブル192に基づいて、分別前の画像から検出した物体を分別して教師データ193に登録する登録処理を行う。登録処理において、教師データ作成装置1の登録部130は、分別前の画像から検出した物体毎に、分別前の画像から抽出した該物体の特徴量と、分別後の画像から抽出した物体の特徴量とを照合する。この際、照合する物体の特徴量が多くなると教師データ作成装置1の処理負荷が増大する。このため、本実施形態の教師データ作成装置1では、分別前の画像から検出した物体を選択したときに、該物体を検出した画像の撮像時刻と、ベルトコンベア2上の物体の移動速度とに基づいて、照合する物体の特徴量を抽出した画像の撮像時刻を絞り込む。例えば、図6A及び図6B、並びに図7の例では、第1のカメラ6Aにより撮像された物体が第2のカメラ6Bの撮像範囲7B内に到達するまでに要する時間は4・DTである。このため、図7の画像1211から検出した物体324を選択した場合、登録部130は、画像1211の撮像時刻T1から時間4・DTが経過した時刻を含む所定の時間範囲内に撮像された画像から検出された物体についての特徴量を、照合する特徴量に特定する。例えば、登録部130は、撮像時刻T1から時間4・DTが経過した時刻T5を中心とする±DTの時間範囲内、すなわち時刻T4から時刻T6までの期間内に第2のカメラ6Bにより撮像された画像から抽出した物体の特徴量を、照合する特徴量に特定する。この場合、登録部130は、時刻T4に撮像した画像1224から抽出した物体323の特徴量、及び時刻T5に撮像した画像1225から抽出した物体324の特徴量を、照合する特徴量に特定する。
照合する特徴量を特定した後、登録部130は、分別前の画像から抽出した物体の特徴量と、分別後の画像から抽出した物体の特徴量との距離を算出する。ここで、分別後の画像から抽出した特徴量が、分別前の画像から検出した物体を撮像した画像から抽出した特徴量である場合、特徴量の距離は小さくなる。例えば、図7の画像1211から抽出した物体324の特徴量と、画像1225から抽出した物体324の特徴量とは略同一の値となるため、該2つの特徴量の距離は非常に小さくなる。逆に、図7の画像1211から抽出した物体324の特徴量と、画像1224から抽出した物体323の特徴量とは差異が大きいため、該2つの特徴量の距離は大きくなる。よって、照合する2つの特徴量が同一の物体の特徴量である場合の距離に基づいて閾値を設定することで、登録部130は、距離が閾値以下となる場合には取り除かない物体であると判別することが可能となる。
また、図7の画像1212から検出した物体325を選択すると、登録部130は、時刻T5から時刻T7までの期間内に第2のカメラ6Bにより撮像された画像から抽出した物体の特徴量を、照合する特徴量に特定する。ただし、画像1212から検出した物体325は、外形が円柱状ではないため作業員4に取り除かれており、物体325を撮像した分別後の画像は存在しない。このため、画像1212から検出した物体325の特徴量と照合する特徴量は、物体325とは外形の異なる物体324の特徴量、及び物体326の特徴量となる。このとき、物体325の特徴量と物体324の特徴量との距離、及び物体325の特徴量と物体326の特徴量との距離は、いずれも大きな値となる。よって、登録部130は、画像1212から検出した物体325は取り除く物体であると判別する。
このようにして、教師データ作成装置1の登録部130は、分別前の画像から検出した物体毎に、特徴量を照合して取り除く物体か否かを判別し、物体についての情報と判別結果を示す情報とを教師データ193に登録する。
図9は、教師データの内容の一例を説明する図である。
図9には、登録部130において図5のフローチャートに沿った登録処理を行った場合の教師データ193の一例を示している。教師データ193におけるIDは、登録した物体を識別する値である。教師データ193における画像ファイル名は、物体を検出した画像データを識別するファイル名である。教師データ193におけるラベルは、分別時に取り除くか否かを示す情報であり、「(無し)」はラベルを付与していないことを示す。図5のフローチャートでは、分別前の画像から検出した物体のうちの、分別後の画像から抽出した物体の特徴量との特徴量同士の距離が閾値以下とならない物体に対し、取り除くことを示すラベルを付与している(ステップS305)。一方、分別前の画像から検出した物体のうちの、分別後の画像から抽出した物体の特徴量との特徴量同士の距離が閾値以下となる特徴量の組み合わせが存在する物体は、取り除かない物体ではあるためラベルを付与しない(ステップS306)。
教師データ193におけるID=1の物体が、図7の画像1211から検出した物体324であるとすると、特徴部130は、画像1211から抽出した物体324の特徴量と、画像1225から抽出した物体324の特徴量との距離を算出する。このとき、特徴量同士の距離は閾値以下となるため、登録部130は、物体324についての情報を、ラベルを付与せずに教師データ193に登録する(ステップS306)。
また、このとき、教師データ193におけるID=2の物体が、図7の画像1212から検出した物体325であるとすると、第2の画像群G2に含まれる分別後の画像のなかに物体325を撮像した画像は存在しない。このため、画像1212から抽出した物体325の特徴量と、分別後の画像から抽出した物体の特徴量との距離は閾値よりも大きくなる。よって、登録部130は、物体325についての情報を、取り除くことを示すラベルを付与して教師データ193に登録する(ステップS305)。
このように、本実施形態の教師データ作成装置1では、分別前の画像から検出した物体のうちの、分別後の画像が存在しない物体についての情報に取り除くことを示すラベルを付与して教師データ193に登録する。これにより、教師データ193を参照するコンピュータや人は、ラベルがない物体を取り除かない物体であると判別することが可能となる。
以上のように、本実施形態の教師データ作成装置1は、分別前の画像から抽出した物体の特徴量と、分別後の画像から抽出した物体の特徴量とに基づいて、分別前の画像から検出した物体が分別作業により取り除かれたか否かを判定する。そして、教師データ作成装置1は、分別前の画像から検出した物体についての情報とともに、判定結果に応じた分別作業により取り除くか否かを示す情報を教師データ193に登録する。このとき、人手による物体の分別作業を行っていれば、教師データ作成装置1は、該分別作業と同時に、人による分別基準を反映した教師データ193を作成して記憶部190に記憶させることが可能となる。このため、本実施形態の教師データ作成装置1によれば、教師データ193に分別対象である物体についての情報を登録する際に作業員が手作業で取り除くか否かを示す情報(ラベル)を付与する場合と比べ、作業員の作業負担が軽減される。また、本実施形態の教師データ作成装置1は、分別前の画像から抽出した物体の特徴量と分別後の画像から抽出した物体の特徴量とに基づいて取り除くか否かを判別し、判別結果を示す情報を付与する。このため、本実施形態の教師データ作成装置1によれば、教師データ193を効率よく作成することが可能となる。更に、教師データ作成装置1が取得する分別後の画像には、作業員4が目視により物体3を分別した後でベルトコンベア2上に残っている物体のみが写っている。このような作業員4の目視による分別を行う場合、わずかな差異(異常)がある物体を発見して取り除くことが可能であるため、高精度の分別が可能となる。よって、本実施形態の教師データ作成装置1は、誤りが少なく且つ効率よく教師データ193を作成することが可能となる。
なお、図4のフローチャートは、画像から物体の特徴量を抽出する処理の一例に過ぎない。また、図5のフローチャートは、物体の特徴量に基づいて分別時に取り除くか否かを判別し、判別結果を示す情報を物体についての情報とともに教師データ193に登録する処理の一例に過ぎない。本実施形態の教師データ作成装置1が行う特徴量を抽出する処理、及び物体についての情報を教師データ193に登録する処理は、それぞれ、本実施形態の要旨を逸脱しない範囲において適宜変更可能である。
図10は、登録処理の内容の変形例を説明するフローチャートである。図11は、登録処理の変形例により作成される教師データの内容の一例を示す図である。
図10のフローチャートに沿った処理は、教師データ作成装置1の登録部130が行う。登録部130は、まず、分別前の画像から検出した物体についての特徴量と、分別後の画像から抽出した物体の特徴量との距離を算出する処理(ステップS301〜S303)を行う。このステップS301〜S303の処理は、登録部130の照合部131が行う。照合部131は、例えば、上記の手順によりステップS301〜S303の処理を行う。
ステップS301〜S303の処理を終えると、登録部130は、次に、ステップS303で算出した距離が閾値以下となる特徴量の組み合わせがあるか否かを判定する(ステップS304)。そして、距離が閾値以下となる特徴量の組み合わせがない場合(ステップS304;NO)、登録部130は、選択中の物体についての情報に取り除くことを示すラベルを付与して教師データ193に登録する(ステップS305)。一方、距離が閾値以下となる特徴量の組み合わせがある場合(ステップS304;YES)、登録部130は、選択中の物体についての情報に取り除かないことを示すラベルを付与して教師データ193に登録する(ステップS316)。
ステップS305又はS316の処理を終えると、登録部130は、分別前の画像から検出した物体のなかに選択していない物体があるか否かを判定する(ステップS307)。選択していない物体がある場合(ステップS307;YES)、登録部130は、ステップS301以降の処理を繰り返す。そして、選択可能な全ての物体に対してステップS301以降の処理を行った場合(ステップS307;NO)、登録部130は、登録処理を終了する。
このように、教師データ作成装置1は、分別前の画像から検出した物体のうちの、分別後の画像から抽出した物体の特徴量との特徴量同士の距離が閾値以下である物体についての情報に、取り除かないことを示すラベルを付与して教師データ193に登録してもよい。上記の登録処理の変形例により作成される教師データ193は、例えば、図11に示すような内容となる。
図11には、図7の第1の画像群G1の画像及び第2の画像群G2の画像から抽出した物体の特徴量に基づいて作成した教師データ193の一例を示している。図10のフローチャートに沿った処理では、登録部130は、特徴量同士の距離が閾値以下である物体についての情報を教師データ193に登録する際に、該物体についての情報に取り除かないことを示すラベルを付与する。したがって、教師データ193におけるラベルは、取り除くことを示すラベルと、取り除かないことを示すラベルとの2通りのラベルとなる。
教師データ193を利用して物体の分別作業を機械化(自動化)する際には、例えば、分別作業時に取り除く物体についての情報がわかればよい場合がある。このような分別作業に対する教師データを作成する教師データ作成装置1は、図5に示したフローチャートに沿った処理を行い、取り除く物体についての情報に取り除くことを示すラベルを付与した教師データ193を作成するものであればよい。また、教師データ193を利用した分別作業では、物体毎に、取り除く物体であるのか、取り除かない物体であるのかを判別する必要がある場合もある。このような分別作業に対する教師データを作成する教師データ作成装置1は、登録処理(ステップS3)として図10のフローチャートに沿った処理を行うものとする。
また、物体についての情報に付与するラベルが示す情報は、取り除くか否かを示す情報に限らず、他の情報であってもよい。また、教師データ193に登録する物体についての情報は、画像ファイル名に限らず、画像から抽出した物体の特徴量であってもよい。
図12は、教師データの更に別の例を説明する図である。
図12の(a)には、教師データ193のラベルが示す情報の別の例を示している。例えば、図1の作業ライン10では、作業者4或いは物体を分別する装置が、ベルトコンベア2で搬送される複数の物体3を、所望の条件(規格)を満たす正常品と条件を満たさない異常品とに分別し、異常品を取り除く作業を行うことがある。この場合、教師データ193は、例えば、物体についての情報に付与するラベルを、正常であることを示すラベルと、異常であることを示すラベルとの2種類のラベルとしてもよい。ラベルを正常品及び異常品のいずれであるかを示す情報とした場合、例えば、物体を分別する装置が正常品をベルトコンベア2上から取り除き、異常品を通過させる作業ラインに、教師データ193内のラベルを変更することなく適用することが可能となる。
図12の(b)には、教師データ193に登録する物体についての情報の別の例を示している。図12の(a)等に示した教師データ193における物体についての情報は、物体を検出した画像ファイルを特定する情報である。このような画像ファイルを特定する情報を教師データ193に登録した場合、例えば、教師データ193を利用して物体を分別する装置は、分別に用いる物体の特徴量を適宜変更することが可能となる。ただし、画像ファイルを特定する情報を教師データ193に登録した場合、教師データ193を利用して物体を分別する装置は、物体の分別を行う際に、都度教師データ193の物体についての特徴量を算出することとなる。このため、教師データ193を利用する際に用いる特徴量がわかっている場合、教師データ作成装置1は、図12の(b)のように、物体についての情報として、画像から抽出した物体の特徴量を教師データ193に登録してもよい。なお、教師データ193に登録する物体の特徴量は、ステップS2の特徴量抽出処理で算出した特徴量に限らず、別途算出した、教師データ193を利用する際に用いる特徴量であってもよい。また、図12の(b)では、教師データ193のラベルが正常品であることを示すラベルと、異常品であることを示すラベルとの2種類のラベルになっているが、これに限らず、ラベルの内容は適宜変更可能である。
図13は、教師データの利用方法の第1の例を説明する図である。
本実施形態の教師データ作成装置1で作成した教師データ193は、例えば、図13に示すように、作業員4が分別作業を行っている作業ライン10に検査装置13を導入して分別作業を機械化(自動化)する場合に利用可能である。
この場合、教師データ作成装置1は、検査装置13を導入する前の作業ライン10(10−1)において作業員4による物体を分別する作業が行われる前に撮像された画像と、分別する作業が行われた後で撮像された画像とを取得する。教師データ作成装置1は、ベルトコンベア2における作業員4よりも左方に位置する第1のカメラ6Aにより撮像された画像を、物体を分別する作業が行われる前に撮像された画像として取得する。また、教師データ作成装置1は、ベルトコンベア2における作業員4よりも右方に位置する第2のカメラ6Bにより撮像された画像を、分別する作業が行われた後で撮像された画像として取得する。教師データ作成装置1は、所定数の画像の取得(収集)が完了すると、ステップS2及びステップS3の処理を行って教師データ193を作成する。教師データ作成装置1で作成した教師データ193は、例えば、可搬型記録媒体21に記録して保存する。
その後、作業員4とは別の工員等が、第1のカメラ6A及び第2のカメラ6B等を撤去し、図13における右方の作業ライン10(10−2)のように、ベルトコンベア2の搬送路に検査装置13を設置する。検査装置13は、カメラ6と、分別機14とを含む。カメラ6は、ベルトコンベア2上の物体を撮像する。分別機14は、カメラ6で撮像した画像と教師データ193とに基づいて、ベルトコンベア2上の物体のうちの取り除く物体を判別してベルトコンベア2から取り除く装置である。分別機14は、可搬型記録媒体21に記録した教師データ193を利用して、カメラ6で撮像した画像から検出した物体が取り除く物体であるか否かを判別する。また、分別機14は、取り除くと判定した物体をベルトコンベア2上から取り除き、ベルトコンベア2により搬送される物体を分別する。
図14は、教師データの利用方法の第2の例を説明する図である。
本実施形態の教師データ作成装置1で作成した教師データ193は、例えば、作業員4が分別作業を行っている作業ラインの設置地域とは異なる地域に、同一の分別作業を行う機械化(自動化)された作業ラインを新規に設置する場合にも利用可能である。
図14における左方の作業ライン10Aは、第1の地域の工場に設置された稼働中の作業ラインである。作業ライン10Aでは、ベルトコンベア2で搬送される物体の分別作業を作業員4が行っている。一方、図14における右方の作業ライン10Bは、第2の地域の工場に新たに設置された作業ラインである。作業ライン10Bでは、作業ライン10Aにおいて作業員4が行っている分別作業と同一の分別作業を、カメラ6及び分別機14を含む検査装置13により行う。このような場合、作業ライン10Bの分別機14で利用する教師データ193は、作業ライン10Aで作成する。すなわち、教師データ作成装置1は、作業ライン10Aにおいて作業員4による物体を分別する作業が行われる前に撮像された画像と、分別する作業が行われた後で撮像された画像とを取得する。教師データ作成装置1は、ベルトコンベア2における作業員4よりも左方に位置する第1のカメラ6Aにより撮像された画像を、物体を分別する作業が行われる前に撮像された画像として取得する。また、教師データ作成装置1は、ベルトコンベア2における作業員4よりも右方に位置する第2のカメラ6Bにより撮像された画像を、分別する作業が行われた後で撮像された画像として取得する。教師データ作成装置1は、所定数の画像の取得(収集)が完了すると、ステップS2及びステップS3の処理を行って教師データ193を作成する。教師データ作成装置1は、例えば、作成した教師データ193をサーバ装置15に送信する。この場合、例えば、教師データ作成装置1の出力部140は、インターネット等のネットワーク16に接続可能な通信機能を備えたものとする。これにより、データ作成装置1で作成した教師データ193を、ネットワーク16を介してサーバ装置15に送信することが可能となる。
一方、第2の地域の工場における作業ライン10Bでは、工員が、物体を搬送するベルトコンベア2と、カメラ6及び分別機14を含む検査装置13とを設置するとともに、分別機14に教師データを導入する。分別機14は、例えば、ネットワーク16に接続可能な通信機能を備えており、ネットワーク16を介してサーバ装置15から教師データ193を取得する。分別機14は、サーバ装置15から取得した教師データ193を利用して、カメラ6で撮像した画像から検出した物体が取り除く物体であるか否かを判別する。また、分別機14は、取り除くと判定した物体をベルトコンベア2上から取り除き、ベルトコンベア2により搬送される物体を分別する
このように教師データ193は、画像の収集に用いた作業ライン10を機械化(自動化)する場合に限らず、同一の分別作業を行う他の機械化された作業ラインにも利用可能である。
また、例えば、分別対象である物体3が生鮮食品である場合、季節や産地により外形や色の特徴が変化する。このため、例えば、図14の第1の地域の工場における作業ライン10Aにおいて定期的に教師データ193を作成し、作成した教師データ193を第2の地域の工場の分別機14等に送信してもよい。
なお、図14は、作業ライン10Aに教師データ作成装置1を設置して教師データ193を作成する例を示している。図14に示すようにネットワーク16を利用して教師データ193を含む各種情報を転送可能な場合、例えば、教師データ作成装置1に含まれる機能の一部又は全てをサーバ装置15に含めることも可能である。例えば、第1のカメラ6Aで撮像した画像及び第2のカメラ6Bで撮像した画像を取得する装置は、画像取得部110と、特徴量抽出部120と、出力部とを備える情報処理装置であってもよい。この場合、情報処理装置は、特徴量抽出部120で抽出した特徴量を、登録部130を備えたサーバ装置15に送信する。サーバ装置15は、情報処理装置から受信した特徴量に基づいて、教師データ193を作成する。
図15は、取得する画像の別の例を説明する図である。
図6A及び図6B、並びに図7では、分別前の画像及び分別後の画像を撮像する際に、それぞれ画像内に1個の物体のみが存在する状態で撮像可能になるような間隔で複数の物体を搬送している。しかしながら、分別前の画像及び分別後の画像は、例えば、図15に示すように、1枚の画像12に複数個の物体331〜339が含まれる状態で撮像された画像であってもよい。1枚の画像12に複数個の物体331〜339が含まれる場合、特徴量抽出部120は、1枚の画像12から複数個の物体331〜339を検出し、検出した物体毎に特徴量を算出する。このとき、特徴量抽出部120は、例えば、検出した物体毎に、該物体を中心とする所定の領域7Sを特定し、該領域7S内における部分画像の情報に基づいて特徴量を算出する。また、特徴量抽出部120は、1枚の画像12から検出した複数の物体331〜339のそれぞれに、異なる物体IDを割り当て、撮像時刻や特徴量等を特徴量テーブル192に格納する。この場合、例えば、図8の特徴量テーブル192における1つの画像群(例えば第1の画像群G1)には、撮像時刻が同一であり、かつ特徴量の異なる複数の物体が登録される。
なお、図15の画像12は、分別前の画像の一例である。すなわち、教師データを作成する際には、教師データ作成装置1は、画像12に写っている物体のうちの、円柱状ではない物体334及び336が取り除かれた分別後の画像を取得し、該画像から各物体の特徴量を抽出する。教師データ作成装置1は、分別後の画像から、画像12における円柱状ではない物体334及び336を検出しない。そのため、教師データ作成装置1は、画像12から検出した物体334及び336についての情報に、取り除くことを示すラベルを付与して教師データ193に登録する。
また、本実施形態の教師データ作成装置1が取得する画像は、物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像(分別前の画像)と、作業が行われた後の第2のタイミングで撮像された第2の画像(分別後の画像)とであればよい。このため、教師データ作成装置1は、1個のカメラにより撮像された分別前の画像と分別後の画像とを取得してもよい。
図16は、画像の撮像方法の別の例を説明する斜視図である。
作業員4が分別対象である複数の物体を2つのグループに分別する作業は、ベルトコンベア2で搬送される物体(移動している物体)を分別する作業に限らず、例えば、図16に示すように、所定の領域内に静止している複数の物体を分別する作業の場合もある。
図16には、テーブル17上にランダムに配置された複数の物体3(341〜345)のなかから、外形が円柱状ではない物体344及び345を取り除く作業の例を示している。この種の作業についての教師データを作成する場合、教師データ作成装置1は、例えば、テーブル17の上方に設置した1個のカメラ6により撮像された画像を取得して教師データを作成する。すなわち、教師データ作成装置1は、作業員4が物体を分別する作業を行う前にテーブル17における所定の撮像領域7D内をカメラ6で撮像した画像と、作業員4が作業を行った後の撮像領域7D内をカメラ6で撮像した画像とを取得して、教師データを作成する。
なお、本実施形態で説明した教師データ193の作成方法は、物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、作業が行われた後の第2のタイミングで撮像された第2の画像とに基づいて教師データを作成する方法の一例に過ぎない。例えば、本実施形態では、分別対象である複数の物体を2つのグループに分別する作業の前後における物体の画像を利用しており、分別前の画像が第1の画像となり、分別後の画像が第2の画像となる。しかしながら、教師データ193を作成する場合には、これに限らず、第2の画像が分別前の物体を撮像した画像となってもよい。すなわち、分別前の画像及び分別後の画像を撮像するときには、分別後の2つのグループのうちの一方のグループに含まれる物体のみを撮像した後、作業員4等が他方のグループに含まれる物体を追加して撮像してもよい。この場合、第1のタイミングで撮像した第1の画像は分別後の画像となり、第2のタイミングで撮像した第2の画像は分別前の画像となる。
更に、本実施形態で説明した教師データ193におけるラベルは、分別前の画像から検出された物体が分別作業で取り除く物体であるか否かを示す情報の一例である。言い換えると、教師データ193におけるラベルは、分別前の画像から検出された物体を、分別前の画像のみに存在する物体であるか、分別前の画像及び分別後の画像の両方に存在する物体であるかを示す情報の一例である。したがって、教師データ193のラベルは、上記のように、分別後の2つのグループを識別可能な情報であればよい。すなわち、教師データ193は、第1の画像と第2の画像との両方に撮像されている物体に対応する領域の特徴量、又は第1の画像と第2の画像とのいずれか一方のみに撮像されている物体に対応する領域の特徴量を記憶したものであればよい。
加えて、本実施形態では、分別対象である物体を分別作業により取り除くグループと取り除かないグループの2つのグループに分別する例を挙げている。しかしながら、本実施形態に係る教師データ193の作成方法は、例えば、2段階以上のステップにより3通り以上のグループに分別する場合の教師データの作成にも適用可能である。
上記の教師データ作成装置1は、コンピュータと、該コンピュータに実行させるプログラムとにより実現可能である。以下、図17を参照して、コンピュータとプログラムとにより実現される教師データ作成装置1について説明する。
図17は、コンピュータのハードウェア構成を示す図である。
図17に示すように、コンピュータ20は、プロセッサ2001と、主記憶装置2002と、補助記憶装置2003と、入力装置2004と、出力装置2005と、入出力インタフェース2006と、通信制御装置2007と、媒体駆動装置2008と、を備える。コンピュータ20におけるこれらの要素2001〜2008は、バス2010により相互に接続されており、要素間でのデータの受け渡しが可能になっている。
プロセッサ2001は、Central Processing Unit(CPU)やMicro Processing Unit(MPU)等である。プロセッサ2001は、オペレーティングシステムを含む各種のプログラムを実行することにより、コンピュータ20の全体の動作を制御する。また、プロセッサ2001は、例えば、図3、図4、及び図5のフローチャートにおける各処理を含む教師データ作成プログラムを実行することにより、教師データ193を作成する。
主記憶装置2002は、図示しないRead Only Memory(ROM)及びRandom Access Memory(RAM)を含む。主記憶装置2002のROMには、例えば、コンピュータ20の起動時にプロセッサ2001が読み出す所定の基本制御プログラム等が予め記録されている。また、主記憶装置2002のRAMは、プロセッサ2001が、各種のプログラムを実行する際に必要に応じて作業用記憶領域として使用する。主記憶装置2002のRAMは、例えば、画像データ、特徴量テーブル192、及び教師データ193等の記憶に利用可能である。
補助記憶装置2003は、例えば、Hard Disk Drive(HDD)や、フラッシュメモリ等の不揮発性メモリ(Solid State Drive(SSD)を含む)等、主記憶装置2002のRAMと比べて容量の大きい記憶装置である。補助記憶装置2003は、プロセッサ2001によって実行される各種のプログラムや各種のデータ等の記憶に利用可能である。補助記憶装置2003は、例えば、図3、図4、及び図5のフローチャートにおける各処理を含む教師データ作成プログラムの記憶に利用可能である。また、補助記憶装置2003は、例えば、画像データ、特徴量テーブル192、及び教師データ193等の記憶に利用可能である。
入力装置2004は、例えば、キーボード装置やタッチパネル装置等である。コンピュータ20のオペレータ(利用者)が入力装置2004に対して所定の操作を行うと、入力装置2004は、その操作内容に対応付けられている入力情報をプロセッサ2001に送信する。また、入力装置2004は、第1のカメラ6A及び第2のカメラ6B等のカメラを含んでもよい。入力装置2004がカメラを含む場合、例えば、該カメラから入力される画像データを教師データ193の作成に利用可能である。
出力装置2005は、例えば、液晶表示装置等の表示装置やスピーカ等の音声再生装置である。
入出力インタフェース2006は、コンピュータ20と、他の電子機器とを接続する。入出力インタフェース2006は、例えば、Universal Serial Bus(USB)規格のコネクタ等を備える。入出力インタフェース2006は、例えば、コンピュータ20と、第1のカメラ6A及び第2のカメラ6Bのそれぞれとの接続等に利用可能である。
通信制御装置2007は、コンピュータ20をインターネット等のネットワークに接続し、ネットワークを介したコンピュータ20と他の電子機器との各種通信を制御する装置である。通信制御装置2007は、例えば、コンピュータ20とサーバ装置15との間で教師データ等の送受信に利用可能である。
媒体駆動装置2008は、可搬型記録媒体21に記録されているプログラムやデータの読み出し、補助記憶装置2003に記憶されたデータ等の可搬型記録媒体21への書き込みを行う。媒体駆動装置2008には、例えば、1種類又は複数種類の規格に対応したメモリカード用リーダ/ライタが利用可能である。媒体駆動装置2008としてメモリカード用リーダ/ライタを用いる場合、可搬型記録媒体21としては、メモリカード用リーダ/ライタが対応している規格のメモリカード、例えば、Secure Digital(SD)規格のメモリカード(フラッシュメモリ)等を利用可能である。また、可搬型記録媒体21としては、例えば、USB規格のコネクタを備えたフラッシュメモリが利用可能である。更に、コンピュータ20が媒体駆動装置2008として利用可能な光ディスクドライブを搭載している場合、当該光ディスクドライブで認識可能な各種の光ディスクを可搬型記録媒体21として利用可能である。可搬型記録媒体21として利用可能な光ディスクには、例えば、Compact Disc(CD)、Digital Versatile Disc(DVD)、Blu-ray Disc(登録商標)等がある。可搬型記録媒体21は、例えば、図3、図4、及び図5のフローチャートにおける各処理を含む教師データ作成プログラムの記憶に利用可能である。また、可搬型記録媒体21は、例えば、画像データ、特徴量テーブル192、及び教師データ193等の記憶に利用可能である。
オペレータが入力装置2004等を利用して教師データの作成処理の開始命令をコンピュータ20に入力すると、プロセッサ2001が、補助記憶装置2003等の非一時的な記録媒体に記憶させた教師データ作成プログラムを読み出して実行する。教師データ作成プログラムを実行している間、プロセッサ2001は、教師データ作成装置1における画像取得部110、特徴量抽出部120、登録部130として機能する(動作する)。また、コンピュータ20において教師データ作成プログラムを実行している間、主記憶装置2002のRAMや補助記憶装置2003は、教師データ作成装置1における記憶部190として機能する。
また、コンピュータ20は、教師データ193の作成が完了した後、教師データ193を可搬型記録媒体21に記録して保存することが可能である
なお、教師データ作成装置1として動作させるコンピュータ20は、図17に示した全ての要素2001〜2008を含む必要はなく、用途や条件に応じて一部の要素を省略することも可能である。例えば、コンピュータ20は、媒体駆動装置2008が省略されたものであってもよい。
また、コンピュータ20に実行させる教師データ作成プログラムは、図5のフローチャートにおける各処理の代わりに、図10のフローチャートにおける各処理を含むプログラムであってもよい。
以上記載した実施形態に関し、更に以下の付記を開示する。
(付記1)
物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、前記作業が行われた後の第2のタイミングに撮像された第2の画像とを取得し、
前記第1の画像及び前記第2の画像のそれぞれにおいて物体が撮像されている領域の特徴量を抽出し、
物体を自動で分別するための教師データを記憶する記憶部に、前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量、又は、前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量を記憶する、
処理をコンピュータに実行させることを特徴とする教師データ作成プログラム。
(付記2)
前記第1の画像と前記第2の画像とを取得する処理は、前記物体を搬送する搬送路における作業員が前記物体を分別する作業を行う位置よりも上流側を撮像した前記第1の画像と、前記搬送路における前記作業員が前記作業を行う位置よりも下流側を撮像した前記第2の画像とを取得する、
ことを特徴とする付記1に記載の教師データ作成プログラム。
(付記3)
前記領域の特徴量を記憶する処理は、
前記第1の画像に撮像されている前記物体に対応する領域の特徴量のうちの、前記第2の画像に撮像されている前記物体に対応する領域の特徴量との差が閾値以下となる特徴量の組み合わせが存在する前記領域の特徴量を、前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量として前記記憶部に記憶させる、
ことを特徴とする付記1に記載の教師データ作成プログラム。
(付記4)
前記領域の特徴量を記憶する処理は、前記第1の画像に撮像されている前記物体に対応する領域の特徴量とともに、該領域の特徴量のそれぞれが、前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量であるか、前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量であるかを識別する情報を前記記憶部に記憶させる、
ことを特徴とする付記1に記載の教師データ作成プログラム。
(付記5)
前記領域の特徴量を記憶する処理は、
前記第1の画像に撮像されている前記物体に対応する領域の特徴量のうちの、前記第2の画像に撮像されている前記物体に対応する領域の特徴量との差が閾値以下となる特徴量の組み合わせが存在しない前記領域の特徴量を、前記第1の画像のみに撮像されている物体に対応する領域の特徴量として前記記憶部に記憶させる、
ことを特徴とする付記1に記載の教師データ作成プログラム。
(付記6)
前記領域の特徴量を記憶する処理では、
前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量は、正常な物体であることを示すラベルを付与して前記記憶部に記憶させ、
前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量は、異常な物体であることを示すラベルを付与して前記記憶部に記憶させる、
ことを特徴とする付記1に記載の教師データ作成プログラム。
(付記7)
前記第1の画像と前記第2の画像とを取得する処理は、
所定の撮像範囲内に複数の物体を配置した状態で撮像された前記第1の画像と、前記複数の物体のうちの1個以上の物体を前記撮像範囲内から取り除いた状態で撮像された前記第2の画像とを取得する、
ことを特徴とする付記1に記載の教師データ作成プログラム。
(付記8)
物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、前記作業が行われた後の第2のタイミングに撮像された第2の画像とを取得する画像取得部と、
前記第1の画像及び前記第2の画像のそれぞれにおいて物体が撮像されている領域の特徴量を抽出する特徴量抽出部と、
物体を自動で分別するための教師データに、前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量、又は、前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量を登録する登録部と、
を備えることを特徴とする教師データ作成装置。
(付記9)
コンピュータが、
物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、前記作業が行われた後の第2のタイミングに撮像された第2の画像とを取得し、
前記第1の画像及び前記第2の画像のそれぞれにおいて物体が撮像されている領域の特徴量を抽出し、
物体を自動で分別するための教師データを記憶する記憶部に、前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量、又は、前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量を記憶する、
処理を実行することを特徴とする教師データ作成方法。
1 教師データ作成装置
110 画像取得部
120 特徴量算出部
130 登録部
131 照合部
132 分別部
140 出力部
190 記憶部
191 画像データ保持部
192 特徴量テーブル
193 教師データ
2 ベルトコンベア
4 作業員
6,6A,6B カメラ
10 作業ライン
11 外部装置
13 検査装置
14 分別機
15 サーバ装置
20 コンピュータ
2001 プロセッサ
2002 主記憶装置
2003 補助記憶装置
2004 入力装置
2005 出力装置
2006 入出力インタフェース
2007 通信制御装置
2008 媒体駆動装置
2010 バス
21 可搬型記録媒体

Claims (6)

  1. 物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、前記作業が行われた後の第2のタイミングに撮像された第2の画像とを取得し、
    前記第1の画像及び前記第2の画像のそれぞれにおいて物体が撮像されている領域の特徴量を抽出し、
    物体を自動で分別するための教師データを記憶する記憶部に、前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量、又は、前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量を記憶する、
    処理をコンピュータに実行させることを特徴とする教師データ作成プログラム。
  2. 前記第1の画像と前記第2の画像とを取得する処理は、前記物体を搬送する搬送路における作業員が前記物体を分別する作業を行う位置よりも上流側を撮像した前記第1の画像と、前記搬送路における前記作業員が前記作業を行う位置よりも下流側を撮像した前記第2の画像とを取得する、
    ことを特徴とする請求項1に記載の教師データ作成プログラム。
  3. 前記領域の特徴量を記憶する処理は、前記第1の画像に撮像されている前記物体に対応する領域の特徴量とともに、該領域の特徴量のそれぞれが、前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量であるか、前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量であるかを識別する情報を前記記憶部に記憶させる、
    ことを特徴とする請求項1に記載の教師データ作成プログラム。
  4. 前記領域の特徴量を記憶する処理では、
    前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量は、正常な物体であることを示すラベルを付与して前記記憶部に記憶させ、
    前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量は、異常な物体であることを示すラベルを付与して前記記憶部に記憶させる、
    ことを特徴とする請求項1に記載の教師データ作成プログラム。
  5. 物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、前記作業が行われた後の第2のタイミングに撮像された第2の画像とを取得する画像取得部と、
    前記第1の画像及び前記第2の画像のそれぞれにおいて物体が撮像されている領域の特徴量を抽出する特徴量抽出部と、
    物体を自動で分別するための教師データに、前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量、又は、前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量を登録する登録部と、
    を備えることを特徴とする教師データ作成装置。
  6. コンピュータが、
    物体を分別する作業が行われる前の第1のタイミングで撮像された第1の画像と、前記作業が行われた後の第2のタイミングに撮像された第2の画像とを取得し、
    前記第1の画像及び前記第2の画像のそれぞれにおいて物体が撮像されている領域の特徴量を抽出し、
    物体を自動で分別するための教師データを記憶する記憶部に、前記第1の画像と前記第2の画像との両方に撮像されている物体に対応する領域の特徴量、又は、前記第1の画像と前記第2の画像とのいずれか一方にのみ撮像されている物体に対応する領域の特徴量を記憶する、
    処理を実行することを特徴とする教師データ作成方法。
JP2017172495A 2017-09-07 2017-09-07 教師データ作成プログラム、教師データ作成装置、及び教師データ作成方法 Pending JP2019049780A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017172495A JP2019049780A (ja) 2017-09-07 2017-09-07 教師データ作成プログラム、教師データ作成装置、及び教師データ作成方法
US16/121,965 US10755134B2 (en) 2017-09-07 2018-09-05 Generation of training data for object-sorting work based on a difference between feature amounts of captured object images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017172495A JP2019049780A (ja) 2017-09-07 2017-09-07 教師データ作成プログラム、教師データ作成装置、及び教師データ作成方法

Publications (1)

Publication Number Publication Date
JP2019049780A true JP2019049780A (ja) 2019-03-28

Family

ID=65517955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017172495A Pending JP2019049780A (ja) 2017-09-07 2017-09-07 教師データ作成プログラム、教師データ作成装置、及び教師データ作成方法

Country Status (2)

Country Link
US (1) US10755134B2 (ja)
JP (1) JP2019049780A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6721221B1 (ja) * 2019-05-27 2020-07-08 株式会社Lightblue Technology 教師データ作成システム、学習済みモデル生成システム及び教師データ作成方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7054436B2 (ja) * 2017-12-14 2022-04-14 オムロン株式会社 検出システム、情報処理装置、評価方法及びプログラム
JP7210169B2 (ja) 2018-06-29 2023-01-23 株式会社日立システムズ コンテンツ提示システムおよびコンテンツ提示方法
US10977520B2 (en) * 2018-12-18 2021-04-13 Slyce Acquisition Inc. Training data collection for computer vision
JP7269126B2 (ja) * 2019-07-31 2023-05-08 ファナック株式会社 撮像検出データの転送システム
JP7372076B2 (ja) * 2019-08-07 2023-10-31 ファナック株式会社 画像処理システム
US11937019B2 (en) 2021-06-07 2024-03-19 Elementary Robotics, Inc. Intelligent quality assurance and inspection device having multiple camera modules
US11605159B1 (en) 2021-11-03 2023-03-14 Elementary Robotics, Inc. Computationally efficient quality assurance inspection processes using machine learning
US11675345B2 (en) 2021-11-10 2023-06-13 Elementary Robotics, Inc. Cloud-based multi-camera quality assurance architecture
US11605216B1 (en) * 2022-02-10 2023-03-14 Elementary Robotics, Inc. Intelligent automated image clustering for quality assurance

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221841A (ja) * 2010-04-12 2011-11-04 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
WO2016063940A1 (ja) * 2014-10-24 2016-04-28 三菱レイヨン株式会社 異物の除去方法及び異物の除去装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001158373A (ja) 1999-12-01 2001-06-12 Kubota Corp 作業車の表示装置
JP4641450B2 (ja) 2005-05-23 2011-03-02 日本電信電話株式会社 非定常画像検出方法、非定常画像検出装置、及び非定常画像検出プログラム
US20100027873A1 (en) 2006-08-28 2010-02-04 I-Pulse Kabushiki Kaisha Board appearance inspection method and device
US20120017507A1 (en) * 2010-07-21 2012-01-26 Cognisense Labs, Inc. Automated organic polarized object organization
JP2012026982A (ja) 2010-07-27 2012-02-09 Panasonic Electric Works Sunx Co Ltd 検査装置
US20170066597A1 (en) * 2014-03-28 2017-03-09 Nec Corporation Information processing device, information processing system, distribution system, information processing method, and program storage medium
JP6653511B2 (ja) * 2016-07-15 2020-02-26 国立研究開発法人産業技術総合研究所 Libs型物体選別装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221841A (ja) * 2010-04-12 2011-11-04 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
WO2016063940A1 (ja) * 2014-10-24 2016-04-28 三菱レイヨン株式会社 異物の除去方法及び異物の除去装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6721221B1 (ja) * 2019-05-27 2020-07-08 株式会社Lightblue Technology 教師データ作成システム、学習済みモデル生成システム及び教師データ作成方法
JP2020194270A (ja) * 2019-05-27 2020-12-03 株式会社Lightblue Technology 教師データ作成システム、学習済みモデル生成システム及び教師データ作成方法

Also Published As

Publication number Publication date
US20190073557A1 (en) 2019-03-07
US10755134B2 (en) 2020-08-25

Similar Documents

Publication Publication Date Title
JP2019049780A (ja) 教師データ作成プログラム、教師データ作成装置、及び教師データ作成方法
US20160098636A1 (en) Data processing apparatus, data processing method, and recording medium that stores computer program
EP3118813A1 (en) Image recognition device, image sensor, and image recognition method
WO2021115345A1 (zh) 图像处理方法、装置、计算机设备及存储介质
JP2006509271A (ja) 画像シグネチャによる郵便物の識別タグおよび関連するメール操作機
US9443129B2 (en) Methods and apparatus for image analysis using threshold compactness features
JP2018512567A (ja) 検査室自動化のためのサイドビューサンプルチューブ画像におけるバーコードタグ検出
US9947105B2 (en) Information processing apparatus, recording medium, and information processing method
CN110490237B (zh) 数据处理方法、装置、存储介质及电子设备
JP2015143951A (ja) 物体判別装置、画像センサ、物体判別方法
JP2008131330A (ja) 画像表示装置および画像表示方法
CN110533654A (zh) 零部件的异常检测方法及装置
CN106557521A (zh) 对象索引方法、对象搜索方法及对象索引***
TW201123026A (en) Methods and systems for gesture recognition, and computer program products thereof
TWI744000B (zh) 影像標記裝置、方法及其電腦程式產品
JP2020042684A (ja) 検索装置、検索方法及びプログラム
CN111126119A (zh) 基于人脸识别的到店用户行为统计方法和装置
JP2011232864A (ja) 施設情報分類システムおよび施設情報分類プログラム
CN113906357A (zh) 信息管理***、信息管理方法
JP4973738B2 (ja) 業務フロー処理プログラム、方法及び装置
CN111160374A (zh) 一种基于机器学习的颜色识别方法及***、装置
JP6890101B2 (ja) 画像識別装置、及び画像識別装置を備える物品製造装置
US9020268B2 (en) Method and apparatus for annotating multimedia data in a computer-aided manner
CN110717432B (zh) 一种物品检测方法、装置和计算机存储介质
EP2776974B1 (en) Methods and apparatus for image analysis using threshold compactness features

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210916

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220215