JP7197971B2 - 情報処理装置、情報処理装置の制御方法及びプログラム - Google Patents

情報処理装置、情報処理装置の制御方法及びプログラム Download PDF

Info

Publication number
JP7197971B2
JP7197971B2 JP2017167662A JP2017167662A JP7197971B2 JP 7197971 B2 JP7197971 B2 JP 7197971B2 JP 2017167662 A JP2017167662 A JP 2017167662A JP 2017167662 A JP2017167662 A JP 2017167662A JP 7197971 B2 JP7197971 B2 JP 7197971B2
Authority
JP
Japan
Prior art keywords
image
label information
information
target object
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017167662A
Other languages
English (en)
Other versions
JP2019046095A (ja
Inventor
久義 降籏
一彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017167662A priority Critical patent/JP7197971B2/ja
Priority to US16/112,991 priority patent/US10964057B2/en
Priority to DE102018121039.6A priority patent/DE102018121039A1/de
Priority to CN201811002038.7A priority patent/CN109426835B/zh
Publication of JP2019046095A publication Critical patent/JP2019046095A/ja
Application granted granted Critical
Publication of JP7197971B2 publication Critical patent/JP7197971B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19133Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19167Active pattern learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法及びプログラムに関し、特に、画像上の物体を認識する技術に関する。
物体を撮影した画像からパターンを学習し、物体の種類や位置姿勢を認識する手法が知られている。パターンの学習を行うには、人が画像に対して正解値を示すラベルを設定する必要がある。画像とラベルのデータを学習データと呼ぶ。
精度の高い認識器を作るためには、学習データを大量に用意する必要がある。特許文献1では、「人がラベルを付ける操作」と「認識器の精度を評価する操作」とを所望の精度に達するまで繰り返すことで、十分な精度が確保された学習データを取得する方法が記載されている。
特許第5953151号公報
しかしながら、人が設定するラベル情報には、誤りが含まれる可能性がある。特許文献1に記載の技術では、誤ったラベル情報を含む学習データを利用してパターンの学習を行うと、認識器の精度が低下するという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、対象物体に対して設定されたラベル情報を修正できるようにし、ユーザが学習データを効率的に見直すことを可能にする技術を提供することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
画像中の対象物体に設定された、前記対象物体が存在する前記画像中の位置に関するラベル情報を保持する保持手段と、
前記ラベル情報が、前記対象物体が存在する前記画像中の位置に設定されているかの正確さの度合いを示す信頼度を取得する取得手段と、
前記信頼度が所定値以下である場合に、前記ラベル情報によって示される前記画像中の位置と当該ラベル情報に対応する画像とを表示装置に表示させる表示制御手段と、
前記表示装置に対するユーザの操作を受け付ける受付手段と、
前記操作に基づいて前記表示装置に表示されたラベル情報によって示される前記画像中の位置を修正する修正手段と、
を備えることを特徴とする。
本発明によれば、対象物体に対して設定されたラベル情報を修正できるようになり、ユーザが学習データを効率的に見直すことが可能となる。
第1の実施形態における、画像とラベル情報の例を示す図である。 第1の実施形態における、情報処理装置の構成を示す図である。 第1の実施形態における、情報処理装置の処理を示すフローチャートである。 第1の実施形態における、信頼度取得部の処理を示すフローチャートである。 第1の実施形態における、信頼度の低いラベル情報と画像とを表示した例を示す図である。 第2の実施形態における、画像とラベル情報の例を示す図である。 第2の実施形態における、信頼度の低いラベル情報と画像とを表示した例を示す図である。 第1の変形例における、対象物体の形状を表すモデルを表示した例を示す図である。 第2の変形例における、信頼度の低いラベル情報と画像とを表示するバリエーションの例を示す図である。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(第1の実施形態)
<概要>
本実施形態では、学習データのラベル情報に誤りが含まれる可能性を考慮し、ユーザが学習データを効率的に見直すことを可能にする例を説明する。
本実施形態では、画像上の任意の位置における対象物体の存在に関するラベル情報を設定する。図1(a)は撮影した画像の例である。図1(a)において、符号110と111と112で示す直方体の物体はラベル情報を設定すべき対象物体である。一方、符号120で示す円柱の物体はラベル情報を設定すべきでない非対象物体である。図1(b)はユーザがラベル情報を設定した例である。図1(b)の130と131とは対象物体が存在する位置にラベル情報を設定した例である。ここでは、ラベル情報を設定した位置を黒点で表現している。132と133は誤って対象物体が存在しない位置にラベル情報を設定した例である。140は対象物体が存在するにもかかわらず、ラベル情報を設定しなかった例である。
ユーザがラベルを設定する場合、図1(b)の例のようにラベル情報の設定に誤りが発生する可能性がある。そこで、本実施形態では、ラベル情報の信頼度を算出し、その信頼度が低い場合(所定値以下である場合)に画像とラベル情報とを選択して表示する。これにより、効率的なラベル情報の見直しを可能にする。
<システム構成>
まず、図2を参照して、本実施形態のシステム構成について説明する。図2の200は本実施形態の情報処理装置であり、300は画像を撮影する撮影装置である。400は画像情報を表示する表示装置であり、500はユーザが操作する操作装置である。情報処理装置200は、画像取得部210と、ラベル情報保持部220と、信頼度取得部230と、表示制御部240と、操作受付部250と、ラベル情報修正部260とを備える。
撮影装置300は、画像を撮影するカメラである。本実施形態では、画像は濃淡画像であるものとするが、濃淡画像に限定されない。表示装置400は、画像を表示するモニタである。本実施形態では、表示制御部240による制御下で、画像取得部210で取得した画像とラベル情報保持部220で保持するラベル情報とを表示する。操作装置500は、ユーザが操作するデバイスである。本実施形態では、マウスとするが、キーボードでもよいし、タッチパネルでもよい。
<装置構成>
続いて、情報処理装置200の構成要素について詳述する。画像取得部210は、撮影装置300により撮影された画像を取得する。本実施形態では、取得する画像の枚数は1枚または複数枚である。
ラベル情報保持部220は、画像取得部210により取得された各画像に対して設定されたラベル情報を保持する。本実施形態におけるラベル情報は、画像中の任意の位置における対象物体の存在に関する情報であり、画像上の各位置に対象物体が存在するかどうかの情報である。具体的には、対象物体が存在する場合は1、存在しない場合は0の情報を保持する。ラベル情報は、対象物体の存在する位置にはユーザが1のラベルを設定するものとし、それ以外の位置には0のラベルが設定されているとする。また、ラベルは、位置の情報を保持する。位置は画像上での2次元座標の値とする。
信頼度取得部230は、ラベル情報保持部220により保持される各ラベル情報について、正確さの度合いを示す信頼度を取得する。信頼度の算出方法の詳細は後述する。認識部235は、画像上で指定された位置に対象物体が存在するかを認識し、存在する確率を算出して出力する。本実施形態では、対象物体が存在する確率をニューラルネットワークに基づく認識器を使って計算するものとする。なお、対象物体が存在する画像と存在しない画像とを利用して学習を行うことで、画像上に対象物体が存在するかを認識する認識器を構築することができる。また、認識部235は情報処理装置200の外部にあってもよい。
表示制御部240は、信頼度取得部230により算出された信頼度に基づいて、画像取得部210により取得された画像と、ラベル情報保持部220により保持されるラベル情報とを表示装置400に表示させる制御を行う。操作受付部250は、操作装置500を用いたユーザの入力を受け付ける。ラベル情報修正部260は、操作受付部250により受け付けられたユーザの操作に従って、ラベル情報保持部220により保持されているラベル情報を修正する。
<処理>
次に、本実施形態の処理について説明する。図3は、本実施形態に係る情報処理装置200が実施する処理の手順を示すフローチャートである。本処理は、ユーザにより各画像に対して設定済のラベル情報に対して、修正が必要なラベル情報を提示し、ユーザから修正を受付ける処理である。
(ステップS310)
信頼度取得部230は、画像取得部210により取得された画像に対して設定されたラベル情報保持部220が保持するラベル情報について、正確さの度合いを示す信頼度を取得する。ここで、図4は、信頼度取得処理の手順を示すフローチャートである。
(ステップS3101)
まず、信頼度取得部230は、ラベル情報保持部220が保持するラベル情報を1つ選択する。選択したラベル情報をLとする。また、画像取得部210により取得された画像の中から当該ラベル情報に対応する画像を選択する。選択した画像をIとする。
(ステップS3102)
次に、信頼度取得部230は、画像I及びラベルLの情報を認識部235へ出力し、ラベルLの示す画像I上の位置について、対象物体が存在するかどうかの認識結果を認識部235から取得する。より具体的には、認識部235により対象物体が存在する確率Pを算出し、その算出結果を認識部235から取得する。
(ステップS3103)
認識部235により算出された確率Pについて、選択したラベルLが1であるのに確率Pが低い場合や、ラベルLが0である位置であるのに確率Pが高い場合は、ラベル情報に誤りがある可能性が高い。信頼度取得部230は、ラベルLが1である場合、信頼度EをE=Pとして設定する。逆に、ラベルLが0である場合、信頼度EをE=1-Pとして設定する。
(ステップS3104)
信頼度取得部230は、全てのラベル情報、画像について信頼度を取得したか否かを判定する。全てのラベル情報、画像について信頼度を取得した場合、処理を終了する。一方、全てのラベル情報、画像について信頼度を取得していない場合、ステップS3101に戻る。
このように、選択するラベル情報を変えながら、全てのラベル情報について一連の処理を行う。以上で図4の一連の処理が終了する。その後、図3のステップS320へ進む。
(ステップS320)
表示制御部240は、信頼度取得部230により取得された信頼度に基づいて、画像取得部210により取得されて保持されている画像と、ラベル情報保持部220で保持するラベル情報とを表示装置400に表示させる。
対象物体が存在しない位置にラベルとして1が設定されている場合や、対象物体が存在する位置にラベルとして0が設定されている場合には、ラベル情報の信頼度が低くなる。ここでは、その傾向から信頼度の低いラベルは誤りの可能性が高いと判定し、画像と共に表示を行う。
まず、信頼度取得部230が取得したラベル情報の信頼度Eが、所定値以下であるラベル情報を1つ選択する。選択したラベル情報をLとする。次に、ラベルLに対応する画像上の部位を選択する。選択した画像上の部位をJとする。部位Jは、例えば、ラベルLの座標を中心とした所定サイズの矩形領域である。
そして、表示装置400のモニタに対して、部位Jを含むウィンドウを表示する。図5は表示例である。図5の700はモニタに表示するウィンドウである。710は表示する部位Jの一例である。720の黒点は、ラベルが1であることを示す情報である。例えば、ラベルが1の場合は黒点720を表示し、ラベルが0の場合は黒点720を表示しないように構成する。ここでは、部位Jに非対象物体である円柱の物体が含まれている。そのため、対象物体が存在しないことを示すラベル1に対応する黒点720が表示される。このようにして、ユーザは、モニタに表示される部位Jとそのラベルの有無(黒点の有無)とを確認することで、ラベル情報が正しいかどうかを判定することができる。
例えば、図5の710には対象物体は存在しないにも関わらず、ラベルが1の場合(黒点720が有る場合)、設定したラベル情報が誤りであったと判定することができる。また、図1の140のように、対象物体が存在するにも関わらず、ラベルが0の場合(黒点が無い場合)も、設定したラベル情報が誤りであったと判定することができる。
(ステップS330)
操作受付部250は、操作装置500によるユーザの入力を受け付ける。ここでは、マウスの操作によって、ラベル情報を修正受付け可能である。例えば、表示装置400が表示するウィンドウにボタンを配置して、それをマウスでクリックすることでラベル情報を修正できるようにする。ここで、図5の730と731はボタンの例である。730はラベル情報を修正する操作を実行する修正ボタンである。731は次に表示するラベル情報の候補に切り替える切替ボタンである。
(ステップS340)
ラベル情報修正部260は、操作受付部250により受け付けられたユーザの操作に従って、ラベル情報を修正するかどうかを判定する。図5の例の場合、対象物体が存在しないにも関わらず、ラベルが1である。例えば、修正ボタン730が押下された場合にラベル情報を修正すると判定する。切替ボタン731が押下された場合にラベル情報を修正しないと判定する。ラベル情報を修正する場合、ステップS350へ進む。一方、ラベル情報を修正しない場合、ステップS360へ進む。
(ステップS350)
ラベル情報修正部260は、操作受付部250により受け付けられたユーザ操作に従って、ラベル情報保持部220が保持するラベル情報を修正する。例えば、対象物体が存在するとして設定されていた1のラベルを0に修正し、対象物体が存在しないとして設定されていた0のラベルを1に修正する。この操作により、誤って設定されていたラベル情報を修正することができる。
(ステップS360)
表示制御部240は、処理を終了するか否かを判定する。一連の修正作業を終了する不図示のボタンの押下や、全ての修正作業が完了した場合、処理を終了する。一方、切替ボタン731が押下された場合には、処理を終了せずに、ステップS320に戻る。以上で、図3の一連の処理が終了する。
以上説明したように、本実施形態に係る情報処理装置は、対象物体について設定されたラベル情報の信頼度を算出し、その信頼度に基づいて、例えば信頼度が所定値以下である場合に、ラベル情報と当該ラベル情報に対応する画像とを選択して表示する。これにより、表示されたラベル情報及び画像を観察したユーザが誤って設定されたラベル情報を修正することが可能となるため、ユーザが学習データを効率的に見直すことが可能となる。
(第2の実施形態)
<概要>
本実施形態では、画像中の対象物体の存在に関するラベル情報として、位置及び姿勢を表すパラメータを設定する例について説明する。なお、本実施形態における姿勢とは、画像上での角度を表す数値である。
図6は、本実施形態に係るラベル情報を設定した例である。図6の810は対象物体の存在する位置に正しい姿勢のラベル情報が設定できた例を表す。ラベル情報は、対象物体の位置を黒点、姿勢をベクトルとして表現している。ここで、姿勢は、対象物体について予め定められた方向が、画像上ではどの方向になるかを表す。本実施形態では、対象物体の上部の面の方向に、ベクトルが設定されていることを正解としている。811及び820は、対象物体の存在する位置は正しいが、誤った姿勢のラベル情報が設定されている例である。821は、誤って対象物体が存在しない位置にラベル情報を設定した例である。830は対象物体が存在するにもかかわらず、ラベル情報を設定しなかった例である。
本実施形態では、位置と姿勢の情報を持つラベル情報について信頼度を算出し、その信頼度に基づいて画像とラベル情報とを選択して表示する。これにより、効率的なラベル情報の見直しを可能にする。
<システム構成及び装置構成>
まず、本実施形態のシステム構成について説明する。本実施形態のシステム構成は、第1の実施形態と同じである。ただし、ラベル情報に含まれる情報が増えたことで、各装置の構成要素の処理内容が異なる。
まず、ラベル情報保持部220で保持するラベル情報は、画像上の各位置に対象物体が存在するかどうかを示す情報と、対象物体の姿勢の情報とを含む。具体的には、ラベル情報は、対象物体が存在する場合は1、存在しない場合は0の情報を有しており、位置と姿勢の情報も有する。位置は画像上での2次元座標の値、姿勢は画像上での角度の数値とする。
信頼度取得部230は、認識部235により算出された、指定された位置及び姿勢で対象物体が存在する確率Pに基づいて、第1の実施形態と同様にして信頼度を取得する。認識部235は、画像上で指定された位置に指定された姿勢で対象物体が存在するかを認識する。本実施形態では、指定された位置及び姿勢で対象物体が存在する確率Pをニューラルネットワークに基づく認識器を使って計算するものとする。なお、対象物体の有無を変えた画像と、対象物体の姿勢を変えた画像とを利用して学習を行うことで、画像上の対象物体の有無と、対象物体がある場合はその姿勢を認識する認識器を構築することができる。
表示制御部240は、信頼度取得部230により取得された信頼度に基づいて、画像取得部210により取得されて保持されている画像と、ラベル情報保持部220により保持されているラベル情報とを、表示装置400に表示させる。ここで、ラベル情報は、姿勢が分かるように表示される。本実施形態ではベクトルにより姿勢を表現する。図7は表示の例である。図7の900はモニタに表示するウィンドウである。910はラベル情報に対応する画像上の部位の例である。920の黒点及びベクトルは、対象物体が存在するかどうかを示す情報と、姿勢の情報とを表す。
例えば、図7の910に示される920のベクトルは、予め定められた対象物体の方向(ここでは対象物体の上面に垂直な方向)にベクトルが向いていないため、設定したラベル情報が誤りであったと判定することができる。
操作受付部250は、操作装置500によるユーザの入力を受け付ける。例えば、姿勢の修正を行う場合、マウスを使って、画像上の部位を指定することで角度を入力できるように構成する。ラベルの有無の修正は第1の実施形態と同様である。ラベル情報修正部260は、操作受付部250により受け付けられたユーザの操作に従って、ラベル情報保持部220が保持するラベル情報を修正する。
以上説明したように、本実施形態に係る情報処理装置は、対象物体について設定された位置及び姿勢の情報を含むラベル情報の信頼度を算出し、その信頼度に基づいて、例えば、信頼度が所定値以下である場合にラベル情報と当該ラベル情報に対応する画像とを選択して表示する。これにより、表示されたラベル情報及び画像を観察したユーザが、誤って設定されたラベル情報を修正することが可能となるため、ユーザが学習データを効率的に見直すことが可能となる。
[第1の変形例]
第1及び第2の実施形態では、信頼度取得部230は、ラベル情報保持部220が保持するラベル情報について、正確さの度合いを示す信頼度を算出したが、その際、認識部235でニューラルネットワークを用いた認識結果に基づいて信頼度を算出した。
しかしながら、信頼度を算出する方法は、画像に対して設定したラベル情報が正しいかどうかの度合いを算出できれば、他のどのような方法を用いてもよい。例えば、ラベル情報が示す位置及び姿勢に基づいて、対象物体の3次元形状モデルを画像上に投影し、投影した3次元形状モデルと画像との一致度に基づいて信頼度を設定してもよい。具体的には、3次元形状モデルを構成する線を画像上に投影し、投影された線と画像上から検出されたエッジとの一致度に基づいて信頼度を設定してもよい。
或いは、対象物体の3次元形状モデルをテンプレートとして、画像とのテンプレートマッチングを行うことで一致度を計算し、その一致度に基づいて信頼度を設定してもよい。その場合、一致度が高い場合は信頼度を高く設定する。逆に、一致度が低い場合は信頼度を低く設定する。
また、距離画像を用いて、距離画像の品質から信頼度を設定してもよい。例えば、隠れが発生する条件や、対象物体の角度の条件によっては、対象物体が見えづらい場合がある。この場合、誤ったラベル情報を設定する可能性が高いと推測できる。そこで、距離画像から距離情報のばらつきや面の傾きを調べて、その値に基づいて信頼度を設定してもよい。具体的には、距離値のばらつきが大きい場合や、撮影装置300の視線方向に対して物体の面の傾きが大きいため物体を観測しにくい場合は、信頼度を低く設定してもよい。
また、ユーザがラベル情報を設定する時に、その自信の程度に応じて信頼度もユーザが設定し、信頼度取得部230が、設定された信頼度を読み込むことによりラベル情報の信頼度を算出してもよい。
[第2の変形例]
第1及び第2の実施形態で説明した表示制御部240は、画像とラベル情報とを表示する際に、ラベル情報に含まれる位置や姿勢の情報は黒点やベクトルを使って表示していた。
しかしながら、ラベル情報に含まれる情報を表示する方法は、その情報が分かるように表示できれば、他のどのような方法を用いてもよい。例えば、対象物体の形状を表すモデルを画面上に表示してもよい。図8は、ラベルの位置及び姿勢の情報に基づいて、モデルを表示した例である。図8の1000はモニタに表示するウィンドウである。1010はラベル情報に対応する画像上の部位の例である。1020の黒点とベクトルは、対象物体が存在することを示す情報と、姿勢の情報とを表す。1030の点線は、物体の形状を表すモデルであり、位置及び姿勢の情報に基づいて画像上に表示したものである。モデルを表示する方法は、単に位置や姿勢を黒点やベクトルで表示する方法に比べて、画像とラベル情報とが整合しているかどうかを確認しやすいという利点がある。なお、図8の1010は、画像とモデルとを比較した結果、両者の間にずれが確認できるので、設定したラベル情報が誤りであったと判定することができる。その他にも、位置及び姿勢の情報は文字や数字で表示してもよい。或いは、表やグラフで表示してもよい。
[第3の変形例]
第1及び第2の実施形態で説明した表示制御部240では、ラベル情報に対応する画像上の部位を1つ切り出して表示していた。しかしながら、画像を表示する方法は、信頼度取得部230で算出する信頼度が低いラベル情報が示す部位が分かるように表示できれば、他のどのような方法を用いてもよい。
例えば、信頼度が低い複数のラベル情報について、対応する複数の画像をまとめて表示してもよい。ここで、図9(a)は、複数の画像をまとめて表示した例である。図9の1100、1101、1102は信頼度が低いラベル情報が示す部位の例である。また、複数の画像を表示する場合、信頼度に応じて画像をソートして表示してもよい。すなわち、信頼度に基づいて、ラベル情報と当該ラベル情報に対応する画像上の部位との組を複数表示させる例である。
その他にも、画像全体を表示し、信頼度が低いラベル情報が示す部位を強調して表示してもよい。図9(b)は、1つの画像全体を表示して、その中で信頼度が低いラベル情報が示す部位を枠で囲んで強調した例である。図9の1110、1111、1112の点線の枠は、信頼度が低いラベル情報が示す部位を表す。
すなわち、各ラベル情報に対応する画像上の各部位が1つの画像中に複数含まれる場合、1つの画像全体を表示すると共に、信頼度が所定値以下であるラベル情報に対応する部位を強調して表示させる例である。
その他にも、画像全体を表示して、各部位の信頼度の分布をヒートマップとして表示することで、ラベル情報と信頼度とを比較できるように構成してもよい。
このように、複数の候補を表示する方法は、一度に確認ができるため、ユーザによるラベル情報の見直しの効率を向上させることができる。
[第4の変形例]
第1及び第2の実施形態で説明したラベル情報は、対象物体の位置や姿勢の情報を含むものであった。しかしながら、ラベル情報は対象物体の位置や姿勢以外のパラメータであってもよく、例えば、対象物体の特定の部分(把持対象部分)についての位置や姿勢であってもよい。
具体的には、画像から認識した対象物体をロボットがピッキングするシステムを考えた場合、必要になるのは対象物体を把持する部分の位置や角度である。この場合、対象物体を把持する部分の位置や角度をラベル情報として利用してもよい。処理の内容は、ラベル情報が表現する位置や角度が変化しただけで、第1及び第2の実施形態と同様である。また、その場合、信頼度取得部230は、第1の変形例で述べたように、対象物体の3次元形状モデルを画像上に投影し、投影した3次元形状モデルと画像との一致度に基づいて信頼度を設定してもよい。また、一致度を算出する際に、把持対象位置の近傍を重視して評価値を算出するようにしてもよい。
また、さらに対象物体の色や種類を示す情報をラベル情報に加えてもよい。その場合、情報が増えた分、認識部235は、さらに対象物体の色や種類を認識した上で、その確率を出力する。信頼度取得部230は、認識部235が出力する確率と、設定されているラベル情報との差異に応じて信頼度を算出する。
[第5の変形例]
第1及び第2の実施形態では、画像取得部210が取得する画像は濃淡画像であった。しかし、画像は対象物体を撮影した画像であれば、濃淡画像でもよいし、カラー画像でもよい。また、対象物体までの距離情報を有する距離画像でもよい。また、撮影装置300で撮影した画像を取得する方法であれば、取得方法はどのような方法でもよい。ネットワークを介して画像を取得してもよいし、一時的にメモリ上に保存した画像を取得してもよい。
撮影装置300は、画像を取得する装置であればどのような装置でもよい。画像の2次元情報を取得するカメラでもよいし、距離画像を取得する距離センサでもよい。
<効果>
第1の実施形態では、ラベル情報の信頼度を算出し、その信頼度が所定値以下である場合に画像とラベル情報とを選択して表示する。これにより、効率的なラベル情報の見直しが可能となる。
第2の実施形態では、位置と姿勢の情報を持つラベル情報について信頼度を算出し、その信頼度に基づいて画像とラベル情報とを選択して表示する。これにより、効率的なラベル情報の見直しが可能となる。
<定義>
本発明において、ラベル情報保持部220が保持するラベル情報は、対象物体の位置や姿勢を表す情報でもよいし、対象物体に設定した把持対象位置などの特定の部位の位置や角度を表す情報でも良い。さらに、物体の種類や色などの情報を加えてもよい。
本発明において、信頼度取得部230が取得する信頼度は、ラベル情報の正しさの度合いを表す信頼度を算出できる方法であればどのような方法でもよい。ニューラルネットワークに基づく認識結果に従って信頼度を算出てもよいし、対象物体の3次元形状モデルを参考に画像との一致度を見て信頼度を算出してもよい。距離画像の距離情報を用いて、その傾きやばらつきから信頼度を算出してもよい。また、ユーザがラベル情報を設定する時に、その自信の程度に応じてユーザが信頼度を設定しておき、それを読み出すことにより信頼度を取得してもよい。
本発明において、表示制御部240が表示する情報は、信頼度取得部230が取得する信頼度が所定値以下のラベル情報が示す部位が分かるように表示できれば、どのような方法で表示してもよい。信頼度が低いラベル情報に対応する画像上の部位を切り出して表示してもよいし、画像全体を表示して信頼度が低いラベル情報の部位を矩形の枠などで示すように表示してもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
200:情報処理装置、210:画像取得部、220:ラベル情報保持部、230:信頼度取得部、235:認識部、240:表示制御部、250:操作受付部、260:ラベル情報修正部、300:撮影装置、400:表示装置、500:操作装置

Claims (12)

  1. 画像中の対象物体に設定された、前記対象物体が存在する前記画像中の位置に関するラベル情報を保持する保持手段と、
    前記ラベル情報が、前記対象物体が存在する前記画像中の位置に設定されているかの正確さの度合いを示す信頼度を取得する取得手段と、
    前記信頼度が所定値以下である場合に、前記ラベル情報によって示される前記画像中の位置と当該ラベル情報に対応する画像とを表示装置に表示させる表示制御手段と、
    前記表示装置に対するユーザの操作を受け付ける受付手段と、
    前記操作に基づいて前記表示装置に表示されたラベル情報によって示される前記画像中の位置を修正する修正手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記ラベル情報が示す前記画像中の位置に前記対象物体が存在する確率を算出することにより前記対象物体を認識する認識手段をさらに備え、
    前記取得手段は、前記認識手段による認識結果に基づいて信頼度を取得することを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得手段は、前記ラベル情報に基づいて前記対象物体の形状を表すモデルを前記画像上に投影し、投影された前記モデルと前記画像との差に基づいて信頼度を取得することを特徴とする請求項1に記載の情報処理装置。
  4. 前記画像は距離画像であり、
    前記取得手段は、前記距離画像の距離情報に基づいて前記ラベル情報の信頼度を取得することを特徴とする請求項1に記載の情報処理装置。
  5. 前記ラベル情報は、前記画像中の任意の位置における前記対象物体の存在の有無を示す情報を含むことを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  6. 前記ラベル情報は、前記画像中の任意の位置における前記対象物体の存在の有無を示す情報と、前記位置における前記対象物体の姿勢の情報とを含むことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  7. 前記表示制御手段は、前記ラベル情報に含まれる位置及び姿勢の情報に基づいて、前記画像上に前記対象物体の形状を表すモデルを表示することを特徴とする請求項6に記載の情報処理装置。
  8. 前記ラベル情報は、前記対象物体のうち把持対象部分の情報であることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. 前記表示制御手段は、前記信頼度が所定値以下である場合に、前記ラベル情報によって示される前記画像中の位置と当該ラベル情報に対応し前記画像から前記位置を含むように切り出した部分画像とを表示させることを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 前記表示制御手段は、各ラベル情報に対応する画像上の各部位が1つの画像中に複数含まれる場合、1つの画像全体を表示すると共に、前記信頼度が所定値以下であるラベル情報に対応する画像上の部位を強調して表示させることを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 画像中の対象物体に設定された、前記対象物体が存在する前記画像中の位置に関するラベル情報を保持する保持手段を備える情報処理装置の制御方法であって、
    前記ラベル情報が、前記対象物体が存在する前記画像中の位置に設定されているかの正確さの度合いを示す信頼度を取得する取得工程と、
    前記信頼度が所定値以下である場合に、前記ラベル情報によって示される前記画像中の位置と当該ラベル情報に対応する画像とを表示装置に表示させる表示制御工程と、
    前記表示装置に対するユーザの操作を受け付ける受付工程と、
    前記操作に基づいて前記表示装置に表示されたラベル情報によって示される前記画像中の位置を修正する修正工程と、
    を有することを特徴とする情報処理装置の制御方法。
  12. コンピュータを、請求項1乃至10の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2017167662A 2017-08-31 2017-08-31 情報処理装置、情報処理装置の制御方法及びプログラム Active JP7197971B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017167662A JP7197971B2 (ja) 2017-08-31 2017-08-31 情報処理装置、情報処理装置の制御方法及びプログラム
US16/112,991 US10964057B2 (en) 2017-08-31 2018-08-27 Information processing apparatus, method for controlling information processing apparatus, and storage medium
DE102018121039.6A DE102018121039A1 (de) 2017-08-31 2018-08-29 Informationsverarbeitungsvorrichtung, verfahren zur steuerung von informationsverarbeitungsvorrichtung und speichermedium
CN201811002038.7A CN109426835B (zh) 2017-08-31 2018-08-30 信息处理装置、信息处理装置的控制方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017167662A JP7197971B2 (ja) 2017-08-31 2017-08-31 情報処理装置、情報処理装置の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019046095A JP2019046095A (ja) 2019-03-22
JP7197971B2 true JP7197971B2 (ja) 2022-12-28

Family

ID=65321479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017167662A Active JP7197971B2 (ja) 2017-08-31 2017-08-31 情報処理装置、情報処理装置の制御方法及びプログラム

Country Status (4)

Country Link
US (1) US10964057B2 (ja)
JP (1) JP7197971B2 (ja)
CN (1) CN109426835B (ja)
DE (1) DE102018121039A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP7103506B2 (ja) * 2019-03-14 2022-07-20 日本電気株式会社 情報提示方法、情報提示装置及びプログラム
JP2021010970A (ja) * 2019-07-05 2021-02-04 京セラドキュメントソリューションズ株式会社 ロボットシステム及びロボット制御方法
EP4023398A4 (en) * 2019-08-26 2023-09-13 Kawasaki Jukogyo Kabushiki Kaisha INFORMATION PROCESSING DEVICE, CONFIGURATION DEVICE, IMAGE RECOGNITION SYSTEM, ROBOT SYSTEM, CONFIGURATION METHOD, LEARNING DEVICE, AND LEARNED MODEL GENERATION METHOD
CN114424210A (zh) * 2019-09-20 2022-04-29 谷歌有限责任公司 存在标签噪声情况下的鲁棒训练
KR20210106814A (ko) * 2020-02-21 2021-08-31 삼성전자주식회사 뉴럴 네트워크 학습 방법 및 장치
JPWO2021241260A1 (ja) * 2020-05-27 2021-12-02
US11468695B2 (en) * 2020-06-26 2022-10-11 Accenture Global Solutions Limited Substance description management based on substance information analysis using machine learning techniques
JP2022190289A (ja) 2021-06-14 2022-12-26 株式会社日立製作所 画像認識支援装置、画像認識支援方法、及び画像認識支援プログラム
US20230282002A1 (en) 2022-03-07 2023-09-07 Woven By Toyota, Inc. Apparatus and method for modifying ground truth for checking accuracy of machine learning model
JP2024008593A (ja) * 2022-07-08 2024-01-19 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015164035A (ja) 2014-01-31 2015-09-10 株式会社モルフォ 画像処理装置及び画像処理方法
JP2016103094A (ja) 2014-11-27 2016-06-02 株式会社豊田自動織機 画像処理方法、画像処理装置、および画像処理プログラム
JP2017076287A (ja) 2015-10-15 2017-04-20 キヤノン株式会社 データ解析装置、データ解析方法及びプログラム
WO2017073373A1 (ja) 2015-10-30 2017-05-04 株式会社モルフォ 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5953151B2 (ja) 1979-07-24 1984-12-24 三菱電機株式会社 シ−ム溶接機のスクラツプ除去方法
JPS5953151A (ja) 1982-09-16 1984-03-27 Toshiba Corp 研磨装置の研磨布張付け方法および装置
JP3426002B2 (ja) * 1993-09-20 2003-07-14 三菱電機株式会社 物体認識装置
US6298351B1 (en) * 1997-04-11 2001-10-02 International Business Machines Corporation Modifying an unreliable training set for supervised classification
JP4886560B2 (ja) * 2007-03-15 2012-02-29 キヤノン株式会社 情報処理装置、情報処理方法
CN101271511B (zh) * 2008-03-13 2010-04-21 中兴通讯股份有限公司 一种近距离无线通讯终端实现标签功能的装置和方法
CN101262557A (zh) * 2008-04-02 2008-09-10 北京理工大学 遥控器、视频设备遥控***及电视机遥控方法
CN101419055B (zh) * 2008-10-30 2010-08-25 北京航空航天大学 基于视觉的空间目标位姿测量装置和方法
US8935258B2 (en) * 2009-06-15 2015-01-13 Microsoft Corporation Identification of sample data items for re-judging
CN101989334A (zh) * 2009-08-06 2011-03-23 王洪洋 轮胎制造的信息管理方法及***
JP5477635B2 (ja) * 2010-02-15 2014-04-23 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5544332B2 (ja) * 2010-08-23 2014-07-09 東芝テック株式会社 店舗システムおよびプログラム
JP5194149B2 (ja) * 2010-08-23 2013-05-08 東芝テック株式会社 店舗システムおよびプログラム
JP5927955B2 (ja) * 2012-02-06 2016-06-01 カシオ計算機株式会社 情報処理装置及びプログラム
CN102625446B (zh) * 2012-03-02 2014-09-03 黄东 一种物联网中的物件标签定位方法
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法
JP2014016707A (ja) * 2012-07-06 2014-01-30 Nec Saitama Ltd 情報処理装置
JP5953151B2 (ja) 2012-07-13 2016-07-20 日本放送協会 学習装置、及びプログラム
JP5707375B2 (ja) * 2012-11-05 2015-04-30 東芝テック株式会社 商品認識装置及び商品認識プログラム
JP6147676B2 (ja) * 2014-01-07 2017-06-14 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
JP6220679B2 (ja) * 2014-01-08 2017-10-25 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
US10289910B1 (en) * 2014-07-10 2019-05-14 Hrl Laboratories, Llc System and method for performing real-time video object recognition utilizing convolutional neural networks
JP6193897B2 (ja) * 2015-01-05 2017-09-06 東芝テック株式会社 情報処理装置、店舗システム及びプログラム
JP2017126980A (ja) * 2016-01-08 2017-07-20 オリンパス株式会社 情報処理装置、撮像装置、表示装置、情報処理方法、撮像装置の制御方法、表示装置の制御方法、情報処理プログラム、撮像装置の制御プログラム、および表示装置の制御プログラム
JP2018041261A (ja) * 2016-09-07 2018-03-15 東芝テック株式会社 情報処理装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015164035A (ja) 2014-01-31 2015-09-10 株式会社モルフォ 画像処理装置及び画像処理方法
JP2016103094A (ja) 2014-11-27 2016-06-02 株式会社豊田自動織機 画像処理方法、画像処理装置、および画像処理プログラム
JP2017076287A (ja) 2015-10-15 2017-04-20 キヤノン株式会社 データ解析装置、データ解析方法及びプログラム
WO2017073373A1 (ja) 2015-10-30 2017-05-04 株式会社モルフォ 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置

Also Published As

Publication number Publication date
US20190066333A1 (en) 2019-02-28
CN109426835A (zh) 2019-03-05
CN109426835B (zh) 2022-08-30
DE102018121039A1 (de) 2019-02-28
US10964057B2 (en) 2021-03-30
JP2019046095A (ja) 2019-03-22

Similar Documents

Publication Publication Date Title
JP7197971B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
CN106859675B (zh) 用3d相机进行的用于x射线管的扫描仪自动化的方法和***
JP7071054B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10430650B2 (en) Image processing system
JP6557943B2 (ja) 画像照合装置、画像センサ、処理システム、画像照合方法
JP5469491B2 (ja) 画像処理装置および画像処理方法
JP2016103230A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2013010155A (ja) 対象物把持装置、対象物把持装置の制御方法、およびプログラム
US9020214B2 (en) Striped pattern image examination support device, striped pattern image examination support method and program
US10386930B2 (en) Depth determining method and depth determining device of operating body
US11989928B2 (en) Image processing system
JP2020021212A (ja) 情報処理装置、情報処理方法及びプログラム
JP6915611B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6425405B2 (ja) 情報処理装置、方法、プログラム
JP2020123105A (ja) 学習装置、学習方法、学習プログラム、及び対象物認識装置
JP2006343989A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR101766787B1 (ko) Gpu장치를 기반으로 하는 딥러닝 분석을 이용한 영상 보정 방법
EP4129584A1 (en) Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device
KR101802918B1 (ko) 3차원 영상 획득 장치 및 그 동작방법
JP6884911B1 (ja) 運用保守システム、運用保守方法および運用保守プログラム
WO2022009399A1 (ja) 画像処理装置および画像処理方法
US20230311308A1 (en) Machine-learning device
EP2908219A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
JP2018037766A (ja) 映像編集装置、映像編集方法及び映像編集用コンピュータプログラム
CN117532584A (zh) 机械臂示教方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221216

R151 Written notification of patent or utility model registration

Ref document number: 7197971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151