JP6331517B2 - 画像処理装置、システム、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、システム、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
JP6331517B2
JP6331517B2 JP2014050256A JP2014050256A JP6331517B2 JP 6331517 B2 JP6331517 B2 JP 6331517B2 JP 2014050256 A JP2014050256 A JP 2014050256A JP 2014050256 A JP2014050256 A JP 2014050256A JP 6331517 B2 JP6331517 B2 JP 6331517B2
Authority
JP
Japan
Prior art keywords
image
positions
image processing
feature points
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014050256A
Other languages
English (en)
Other versions
JP2015176217A (ja
Inventor
善久 湊
善久 湊
加藤 豊
豊 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2014050256A priority Critical patent/JP6331517B2/ja
Priority to CN201510076062.5A priority patent/CN104915947A/zh
Priority to EP15155707.1A priority patent/EP2919155A1/en
Priority to US14/625,894 priority patent/US9607244B2/en
Publication of JP2015176217A publication Critical patent/JP2015176217A/ja
Application granted granted Critical
Publication of JP6331517B2 publication Critical patent/JP6331517B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Manipulator (AREA)

Description

本発明は、形状が変化し得る物体に対しても位置認識が可能な画像処理装置、画像処理方法、および画像処理プログラム、ならびに当該画像処理装置を含むシステムに関する。
FA(Factory Automation)分野においては、ワークなどの検出対象物を撮像し、その大きさや位置などを計測する処理や、予め登録されたモデル画像に一致する位置または領域を探索する処理などが実行される。
例えば、特開2013−156094号公報(特許文献1)は、検査対象物に個体差がある場合や検査対象物の位置・向きが不定の場合であっても、適応的に検査領域を自動設定し、高精度な検査を可能にする技術を開示する。
特開2013−156094号公報
上述のような画像処理のアプリケーションとして、検出対象物を撮像してその存在する位置または領域を特定するとともに、特定した位置または領域を基準として任意に定められる位置または領域に対して、何らかの作用(例えば、ワークの把持やワークに対する各種の加工)を与えるようなものがある。このようなアプリケーションでは、検出対象物の特徴量および当該検出対象物に対して作用を与えるべき位置または領域の情報をモデル情報として予め登録しておくことになる。
しかしながら、モデル情報として登録された形状とは異なる形状を生じ得るものが検出対象物となる場合もある。例えば、前工程の温度や湿度などの環境条件に依存してその形状が定まるワークや、フレキシブルな材質で構成されており、外力(例えば、重力)の影響を受けて形状が容易に変化するようなワークが想定される。
モデル情報として登録された形状とは異なる形状を生じ得る検出対象物であっても、作用を与えるべき位置を適切に決定できる手法が要望されている。
本発明のある局面に従う画像処理装置は、検出対象物の複数の特徴点を示す情報を含むモデル情報を保持する記憶手段と、2次元画像または3次元画像である入力画像に含まれる複数の特徴点を抽出するとともに、抽出された複数の特徴点とモデル情報の複数の特徴点との間の対応関係を決定する対応関係決定手段と、対応関係に基づいて、検出対象物に相対して設定された1または複数の第1の位置に対応する、入力画像での1または複数の第2の位置を推定する位置推定手段とを含む。ここで、1または複数の第1の位置は、点、線、または領域に含まれる。
好ましくは、対応関係決定手段は、モデル情報の各特徴点と、入力画像から抽出された各特徴点とをそれぞれ一対一で対応付けるとともに、互いに対応付けられた、モデル情報の複数の特徴点からなる集合と、入力画像から抽出された複数の特徴点からなる集合との間で、対応関係を示す関数を決定する。
本発明の別の局面に従うシステムは、画像処理装置と、画像処理装置からの出力に従って動作するロボットとを含む。画像処理装置は、検出対象物の複数の特徴点を示す情報を含むモデル情報を保持する記憶手段と、2次元画像または3次元画像である入力画像に含まれる複数の特徴点を抽出するとともに、抽出された複数の特徴点とモデル情報の複数の特徴点との間の対応関係を決定する対応関係決定手段と、対応関係に基づいて、検出対象物に相対して設定された1または複数の第1の位置に対応する、入力画像での1または複数の第2の位置を推定する位置推定手段と、推定した第2の位置に基づいてロボットに対する指令を生成する指令生成手段とを含む。ここで、1または複数の第1の位置は、点、線、または領域に含まれる。
本発明のさらに別の局面に従う画像処理方法は、検出対象物の複数の特徴点を示す情報を含むモデル情報を取得するステップと、2次元画像または3次元画像である入力画像に含まれる複数の特徴点を抽出するとともに、抽出された複数の特徴点とモデル情報の複数の特徴点との間の対応関係を決定するステップと、対応関係に基づいて、検出対象物に相対して設定された1または複数の第1の位置に対応する、入力画像での1または複数の第2の位置を推定するステップとを含む。ここで、1または複数の第1の位置は、点、線、または領域に含まれる。
本発明のさらに別の局面に従えば、コンピュータによって実行される画像処理プログラムが提供される。画像処理プログラムは、コンピュータに、検出対象物の複数の特徴点を示す情報を含むモデル情報を取得するステップと、2次元画像または3次元画像である入力画像に含まれる複数の特徴点を抽出するとともに、抽出された複数の特徴点とモデル情報の複数の特徴点との間の対応関係を決定するステップと、対応関係に基づいて、検出対象物に相対して設定された1または複数の第1の位置に対応する、入力画像での1または複数の第2の位置を推定するステップとを実行させる。1または複数の第1の位置は、点、線、または領域に含まれる。
本発明によれば、モデル情報として登録された形状とは異なる形状を生じ得る検出対象物であっても、作用を与えるべき位置を適切に決定できる。
本実施の形態の画像処理装置を含むシステムの構成を示す模式図である。 本発明の従来技術およびその課題について説明するための図である。 本実施の形態の画像処理装置が処理するモデル画像および入力画像の一例を示す図である。 図3に示すモデル画像および入力画像について決定された対応関係の一例を示す図である。 本実施の形態の画像処理装置が提供する対応関係を示す関数の決定に用いた特徴点を示す表示例を示す図である。 本実施の形態の画像処理装置のハードウェア構成を示す模式図である。 本実施の形態の画像処理装置の機能構成を示す模式図である。 本実施の形態の画像処理装置で実行される処理手順を示すフローチャートである。 本実施の形態の画像処理装置での検出点の推定処理の変形例を説明するための図である。 本実施の形態の画像処理装置での検出点の推定処理結果を示す画面例を示す図である。
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。
<A.システムの構成>
本実施の形態の画像処理装置は、各種のアプリケーションへの適用が可能であるが、一例として、ワークを撮像して得られる情報から、当該ワークが存在する位置、線または領域を特定するとともに、特定した位置、線または領域を基準として任意に定められる位置、線または領域において、ロボットがワークに対して何らかの作用を与えるようなアプリケーションについて説明する。ワークが存在する「線分」または「領域」、および作用が与えられる「線分」または「領域」は、複数の位置の集合とみなすこともできる。以下では、説明の便宜上、主として「位置」(すなわち、1つの座標値)を特定または検出する処理について説明するが、これに限られることなく、複数の座標値の集合である「線分」または「領域」を特定または検出することも可能である。つまり、注目する1つまたは複数の位置は、点、線、または領域に含まれることになる。このような点、線、または領域を単位として探索処理が行なわれる。
本明細書において、「入力画像」は、2次元画像および3次元画像を含み得る。説明の便宜上、主として2次元画像を例として説明するが、3次元画像についても同様の主要が応用できることは自明である。つまり、後述するような対応関係を推定する手法を入力画像の種類に応じて適切に設定することで、同様の処理を用いることができる。言い換えれば、2次元画像では、典型的には平面上に点を配置することになるが、3次元画像では、典型的には曲面上に点を配置することになる。なお、3次元画像について表示をする場合には、二次元にレンダリング処理を行なってもよい。特に、後述するようなロボットに応用する場合には、3次元画像を入力画像とすることが好ましい。
図1は、本実施の形態の画像処理装置100を含むシステム1の構成を示す模式図である。図1を参照して、システム1は、主として、画像処理装置100と、ロボットコントローラ200と、ロボット300とを含む。システム1は、撮像部8を用いてコンベア10上の一部の領域を撮像するとともに、当該撮像によって得られた画像(以下「入力画像」とも称す。)を処理することで、コンベア10上を搬送される検出対象物(以下「ワークW」とも称す。)の位置を特定し、特定した位置の情報に基づいて、予め定められた位置でワークWを把持して、コンベア10外にワークWを移動させる。
より具体的には、画像処理装置100は、撮像部8からの入力画像に対して、以下に詳述するような画像処理を実行し、その画像処理の実行結果から得られる位置情報(または、移動指令)をロボットコントローラ200へ出力する。ロボットコントローラ200は、画像処理装置100からの情報に従って、駆動指令を与えることで、ロボット300を駆動する。典型的には、ロボット300は、可動軸毎にサーボモータを有しており、ロボットコントローラ200は、軸毎に計算される移動量に相当する数のパルスを含むパルス信号を出力する。
後述するように、ロボット300がワークWを把持すべき位置については、予め登録されているものとする。より具体的には、画像処理装置100では、把持対象のワークWの形状の情報に加えて、ワークWに対して何らかの作用を与えるべき位置が予め登録されている。画像処理装置100は、ワークWがモデル情報として登録された形状とは異なる形状に変化している場合であっても、ワークWの把持すべき位置を特定できる。
図1に示すような、ワークWを把持するシステムの他、ワークに対する操作や加工を行なうようなシステムにも応用可能である。例えば、ワークに関して、切断位置、穴あけ位置、研磨位置、印刷位置、塗装位置などを予め登録しておけば、画像処理装置100は、登録した形状とは異なる形状を有するワークに対しても、当該登 録された位置に対応する位置を特定し、処理を行なうことができる。
<B.従来技術およびその課題>
本実施の形態の画像処理装置および画像処理方法について理解を深めるために、従来技術およびその課題について概略する。
図2は、本発明の従来技術およびその課題について説明するための図である。図2(a)に示すような、検出対象物の画像をモデル画像として登録するとともに、モデル画像に含まれる検出対象物に対して、検出点20が設定されているとする。検出点20は、例えば、ロボット300のロボットアーム(すなわち、マニピュレータ)を作用あるいは移動させるべき検出対象物上の点などである。
このような状態において、図2(b)に示すような入力画像が得られたとする。図2(b)に示す入力画像に含まれる検出対象物の形状は、予め登録されたモデル画像に含まれる検出対象物の形状とは異なっており、いわば変形している状態であるとする。
典型的なパターンマッチングの技術を用いると、入力画像に対してモデル画像の相対位置、相対角度および相対サイズなどを順次変化させていき、一致度(あるいは、類似度)が最も高くなる位置、角度およびサイズが探索される。このような探索の結果決定された位置、角度およびサイズに従って、モデル画像を入力画像に重ね合わせ(すなわち、変換を適用し)、モデル画像の検出点20に対応する、重ね合わせたモデル画像(図2(b)の領域22に相当)における変換後の検出点24を決定する。
このような方法では、検出対象物が変形することを考慮しておらず、領域22の位置から検出点24が決定されるので、図2(b)に示すように、モデル登録時に意図した検出点に対応する位置を正しく決定することができない場合がある。すなわち、図2(b)に示す例では、検出対象物のモデル画像からの変形により、ロボット300のマニピュレータを移動させても検出対象物が存在しないという結果になる。
パターンマッチングの別の手法として、モデル画像そのものではなく、モデル画像の特徴量として、メッシュ状の点群やエッジなどのコントロール点を登録しておき、これらの情報を用いて入力画像とのマッチングを行なうような手法もある。このような手法においても、モデルとして登録される検出対象物と実測される入力画像に含まれる検出対象物との間には、実質的な形状の変化がないことを前提としているため、予め登録される検出点が入力画像上のいずれの位置に対応するのかを正確に把握することができない場合がある。
上述したように、従来の手法では、モデルに相対して任意に設定される検出点が入力画像のいずれの座標値に対応するのかを正確に特定することができず、検出対象物の把持位置やロボットアームを動かすべき位置が判らないという場合があった。すなわち、従来の手法では、その形状がモデル登録時から異なるような検出対象物については、検出点を安定的に推定することが難しかった。
本実施の形態の画像処理装置および画像処理方法は、モデル情報として登録された形状とは異なる形状を生じ得る検出対象物であっても、作用を与えるべき位置を適切に決定することを目的とする。これによって、形状が変形する検出対象物に対しても、マニピュレーションや各種の加工などを安定的に行なうことができる。
<C.概要>
本実施の形態の画像処理装置100は、モデルとして予め登録した検出対象物と、入力画像に被写体として含まれる検出対象物との間の対応関係を決定し、この対応関係を利用して、任意に設定される検出点に対応する検出点を補間により推定する。
図3は、本実施の形態の画像処理装置100が処理するモデル画像および入力画像の一例を示す図である。図4は、図3に示すモデル画像および入力画像について決定された対応関係の一例を示す図である。
まず、図3(a)に示すように、モデル登録時に、各入力画像において特定したい1つまたは複数の検出点32(図中の「+」印)をユーザが指定する。すなわち、ユーザは、撮像される検出対象物30において位置を知りたい検出点を1つまたは複数指定する。
このモデル登録時において、画像処理装置100は、モデル30を示す画像から特徴量を抽出するとともに、顕著な特徴量(図3(a)に示す例では、エッジピーク点)を示す特徴点をコントロール点34として決定し、登録する。コントロール点34の各々については、位置を示す情報(すなわち、座標値)と、対応する特徴量(コントロール点の近傍にある1または複数の特徴量を含み得る)とが関連付けて格納される。一般的に、複数のコントロール点34が登録される。
なお、コントロール点34は、公知のアルゴリズムに従って自動的に決定してもよいし、人為的に与えてもよい。さらに、両者を合わせた方法、つまりアルゴリズムに従って自動的にコントロール点を決定するとともに、これらの自動的に決定されたコントロール点に対してユーザが人為的に調整するような態様であってもよい。後述するように、入力画像に対する対応関係が得られれば補間関数を決定できるので、この対応関係および補間関数を決定するために用いられるコントロール点については、任意の指定方法または算出方法を用いることができる。
このように、画像処理装置100は、被写体として検出対象物30を含むモデル画像から複数の特徴点を抽出する。そして、画像処理装置100は、検出対象物30の複数の特徴点であるコントロール点34を示す情報を含むモデル情報を保持する。コントロール点は、特徴点そのものの座標値を用いて指定してもよいし、ある特徴点からの相対位置を用いて指定してもよい。
続いて、撮像部8による撮像によって、図3(b)に示すような入力画像が得られると、画像処理装置100は、入力画像から特徴量を抽出し、予めモデル登録されたコントロール点34にそれぞれ対応するコントロール点44を決定する。すなわち、画像処理装置100は、入力画像に含まれる複数の特徴点を抽出するとともに、抽出された複数の特徴点とモデル情報の複数の特徴点との間の対応関係を決定する。
最終的に、画像処理装置100は、入力画像から抽出されたコントロール点44の全部または一部の情報に基づいて、その位置を知りたい検出点42の位置を推定する。すなわち、画像処理装置100は、決定された対応関係に基づいて、検出対象物30に相対して設定された検出点32(第1の位置)に対応する、入力画像での検出点42(第2の位置)を推定する。
なお、上述したように、単一の検出点32だけではなく、複数の検出点が設定されることもあるし、複数の検出点の集合である線または領域などの単位で、対応関係が推定されることもある。
図3(b)に示すように、推定したコントロール点44を入力画像上に関連付けて表示してもよい。つまり、画像処理装置100は、推定した1または複数のコントロール点44の位置を入力画像に重ねて表示する機能を有していてもよい。
典型的には、画像処理装置100は、図4に示すように、予めモデル登録された複数のコントロール点34と、入力画像から抽出された複数のコントロール点44との間の対応関係を決定する。そして、画像処理装置100は、複数のコントロール点34から複数のコントロール点44への写像を示す補間関数を計算する。すなわち、画像処理装置100は、モデル情報の各特徴点と、入力画像から抽出された各特徴点とをそれぞれ一対一で対応付けるとともに、互いに対応付けられた、モデル情報の複数の特徴点からなる集合と、入力画像から抽出された複数の特徴点からなる集合との間で、対応関係を示す補間関数を決定する。
一例として、画像処理装置100は、モデル画像上の任意の座標値(x,y)と、入力画像上の任意の座標値(x’,y’)との関係を定義する、補間関数F(x,y)を決定する。このような補間関数の決定手法としては、薄板スプライン補間などを利用できる。このとき、対応点群の一部を用いてもよいし、その全部を用いてもよい。すなわち、画像処理装置100は、一対一で対応付けられた特徴点の集合の全部または一部を用いて対応関係を示す関数を決定してもよい。さらに、対応関係を示す関数の決定に用いた特徴点が判るようにユーザへの表示を行なってもよい。
図5は、本実施の形態の画像処理装置が提供する対応関係を示す関数の決定に用いた特徴点を示す表示例を示す図である。図5に示すように、モデル30に設定されたコントロール点34のうち、検出対象物40を含む入力画像中から対応するコントロール点44を見つけることのできたものをそうでなかったものとは異なる態様で表示する。このような視覚的な表現を用いることでユーザに対する説明性を高めることができる。
モデル画像上の検出点32の座標値そのものを用いて、検出点32を指定してもよいし、検出点32に隣接する1または複数のコントロール点34との相対位置および/または相対距離を用いて、検出点32を指定してもよい。前者の指定方法では、検出点32の座標値と補間関数F(x,y)とから入力画像上の検出点42を決定できる。後者の指定法補では、指定に用いられたコントロール点34と補間関数F(x,y)とから入力画像上のコントロール点44を決定し、さらにこれらのコントロール点44から検出点42を決定できる。すなわち、画像処理装置100は、予め設定された検出点32(第1の位置)を示す座標値(X1,Y1)と対応関係を示す補間関数F(x,y)とから、検出点42(第2の位置)の座標値(X1’,Y1’)を計算する。
なお、3次元画像を入力画像とする場合には、予め設定された検出点32(第1の位置)を示す座標値(X1,Y1,Z1)と対応関係を示す補間関数F(x,y,z)とから、検出点42(第2の位置)の座標値(X1’,Y1’,Z1’)を計算することになる。
なお、検出対象物が自然由来物である場合には、ある程度の揺らぎが必然的に生じるため、モデル画像に基づいて決定されたコントロール点34のすべてについて、対応するコントロール点44を探索できない場合もある。これに対して、検出対象物が人工物である場合には、モデル画像に基づいて決定されたコントロール点34のすべてについて、対応するコントロール点44を見つけることがより容易である。
なお、探索された対応点のみを用いて、補間関数を決定してもよい。
このように、画像処理装置100は、コントール点間の対応関係、すなわち補間関数を計算し、この補間関数を用いて、モデル画像上の検出点32を写像することで、入力画像上の検出点42を推定する。
<D.画像処理装置100のハードウェア構成>
図6は、本実施の形態の画像処理装置100のハードウェア構成を示す模式図である。図6を参照して、画像処理装置100は、典型的には、汎用的なコンピュータアーキテクチャに従う構造を有しており、予めインストールされたプログラムをプロセッサが実行することで、後述するような各種の画像処理を実現する。
より具体的には、画像処理装置100は、表示部102と、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)などのプロセッサ110と、主メモリ112と、ハードディスク114と、カメラインターフェイス120と、ロボットインターフェイス122と、ネットワークインターフェイス124と、メモリカードインターフェイス126とを含む。これらの各部は、内部バス104を介して互いにデータ通信可能に接続される。
プロセッサ110は、ハードディスク114に格納された画像処理プログラム116を読み出して、主メモリ112に展開して実行することで、本実施の形態の画像処理を実現する。表示部102には、画像処理の実行に伴う各種情報が表示される。また、画像処理の実行結果の一部または全部は、ロボットインターフェイス122を通じて、ロボットコントローラ200へ出力されてもよい。
画像処理プログラム116は、例えば、メモリカード106などに格納された状態で流通する。この場合、メモリカードインターフェイス126を通じてメモリカード106に格納された画像処理プログラム116が読み出されて、ハードディスク114へインストールされる。あるいは、画像処理プログラム116は、ネットワークインターフェイス124を通じて、外部サーバから配信されるように構成してもよい。
汎用的なコンピュータアーキテクチャに従う構造を有する画像処理装置100を利用する場合には、コンピュータの基本的な機能を提供するためのOS(Operating System)がインストールされていてもよい。この場合には、画像処理プログラム116は、OSの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の順序および/またはタイミングで呼出して処理を実行するものであってもよい。すなわち、本実施の形態の画像処理に必要なモジュールのすべてが画像処理プログラム116に含まれていなくともよく、必要なモジュールの一部がOSから提供されるような形態であってもよい。さらに、本実施の形態の画像処理プログラム116は、他のプログラムの一部に組み込まれて提供されるものであってもよい。
カメラインターフェイス120は、撮像部8による撮像によって得られる入力画像を受付ける。撮像部8は、典型的には、レンズなどの光学系に加えて、CCD(Coupled Charged Device)やCMOS(Complementary Metal Oxide Semiconductor)センサといった撮像素子を含んで構成される。なお、2次元画像を入力画像とする場合には、通常のイメージセンサを用いることができるが、3次元画像を入力画像とする場合には、ステレオカメラや、通常のイメージセンサと距離センサとの組合せなどを用いることができる。
図1には、画像処理装置100とは別に撮像部8が設けられ、撮像部8から画像処理の対象となる入力画像が提供される構成例を示すが、この構成に限られるものではない。例えば、画像処理装置100と撮像部8とを一体的に構成し、撮像によって生成される入力画像に対して直接的に画像処理を実行するようにしてもよい。あるいは、各種の記憶媒体または通信媒体を介して、画像処理の対象となる入力画像を画像処理装置100へ与えるようにしてもよい。
代替的に、画像処理プログラム116の実行により提供される機能の一部または全部を専用のハードウェア回路として実装してもよい。
<E.画像処理装置100の機能構成>
図7は、本実施の形態の画像処理装置100の機能構成を示す模式図である。図7に示す各モジュールは、典型的には、プロセッサ110が画像処理プログラム116(いずれも図6)を実行することで実現される。
図7を参照して、画像処理装置100は、その機能構成として、特徴量抽出モジュール150と、モデル情報生成モジュール152と、対応関係決定モジュール154と、検出点推定モジュール156と、移動指令生成モジュール158とを含む。但し、移動指令生成モジュール158については、オプショナルであり、必要に応じて設けられる。ハードディスク114(図6)の少なくとも一部の領域にデータ格納部160が設けられる。
特徴量抽出モジュール150は、モデル画像または入力画像を受付け、画像内に含まれる特徴量を抽出する。すなわち、特徴量抽出モジュール150は、被写体として検出対象物を含むモデル画像および入力画像から複数の特徴点を抽出する。モデル画像について抽出された特徴量の情報は、モデル情報生成モジュール152へ与えられ、入力画像について抽出された特徴量の情報は、対応関係決定モジュール154へ与えられる。
モデル情報生成モジュール152は、モデル画像に含まれる検出対象物の複数の特徴点(コントロール点34)を示す情報を含むモデル情報162を生成する。典型的には、モデル情報は、コントロール点34の各々について、その位置を示す情報(座標値)と、対応する特徴量とを含む。モデル情報162は、データ格納部160に格納される。すなわち、データ格納部160は、検出対象物の複数の特徴点(コントロール点34)を示す情報を含むモデル情報162を保持する。
モデル情報生成モジュール152は、基本的には、モデル画像からコントロール点34を自動的に抽出するが、自動的に抽出されたコントロール点34をユーザが手動で変更してもよいし、ユーザが任意の位置にコントロール点34を設定してもよい。例えば、検出対象物の輪郭が変化する点(変曲点、角、頂点など)などにコントロール点34を設定することで、対応するコントロール点の探索がより容易になる。
データ格納部160には、ユーザが任意に設定した検出点の座標値を示す検出点設定164も格納される。
対応関係決定モジュール154は、データ格納部160に格納されているモデル情報162に基づいて、入力画像から抽出された特徴量から入力画像についてのコントロール点44を決定し、さらに入力画像のコントロール点44とモデル情報162の複数のコントロール点34との間の対応関係を決定する。すなわち、特徴量抽出モジュール150および対応関係決定モジュール154は、入力画像に含まれる複数の特徴点(コントロール点44)を抽出するとともに、抽出された複数の特徴点とモデル情報162の複数の特徴点との間の対応関係を決定する。
検出点推定モジュール156は、対応関係決定モジュール154によって決定された対応関係に基づいて、データ格納部160に格納されている検出点設定164に含まれる検出点20の座標値から、入力画像の対応する検出点32の座標値を推定する。すなわち、検出点推定モジュール156は、対応関係に基づいて、検出対象物に相対して設定された検出点32(第1の位置)に対応する、入力画像での検出点42(第2の位置)を推定する。この推定された検出点32の座標値は、位置情報としてロボット300へ与えられる。
移動指令生成モジュール158は、検出点推定モジュール156によって推定された検出点32の座標値から外部装置であるロボット300へ出力すべき移動指令を生成する。典型的には、検出点推定モジュール156は、検出対象物に相対して設定された複数の検出点32(第1の位置)に対応する、複数の検出点42(第2の位置)をそれぞれ推定する。移動指令生成モジュール158は、複数の検出点42から指令を生成する。例えば、モデル画像上で加工の開始点および終了点を設定し、これらの開始点および終了点にそれぞれ対応する入力画像上の点を推定するとともに、推定した開始点および終了点を結ぶ軌跡を決定することができる。
<F.画像処理装置100での処理手順>
図8は、本実施の形態の画像処理装置100で実行される処理手順を示すフローチャートである。図8に示す各ステップは、典型的には、プロセッサ110が画像処理プログラム116(いずれも図6)を実行することで実現される。
図8に示す処理手順は、モデル画像からモデル情報を登録するためのモデル登録処理と、入力画像の対応する検出点を推定するための推定処理とを含む。基本的には、モデル登録処理の実行後、推定処理が実行されるが、この順序は問わない。1回のモデル登録処理でモデル情報を登録しておき、この登録されたモデル情報を共通に用いて、複数の入力画像に対して、推定処理をそれぞれ行なってもよい。
図8を参照して、モデル登録処理において、プロセッサ110は、モデル画像を受付ける(ステップS10)。より具体的には、ユーザがモデルとすべき検出対象物を撮像部8の視野内に配置した状態で、撮像部8へ指令を与えることで、撮像部8が検出対象物を撮像して得られたモデル画像が取得される。
続いて、プロセッサ110は、モデル画像中の検出対象物に対してユーザが設定する検出点20を受付ける(ステップS12)。より具体的には、表示部102などにモデル画像を表示するとともに、ユーザがモデル画像上にオーバービュー表示されるインジケータ(例えば、図4(a)に示す「+」印)の位置をマウスなどで操作することで、検出点20が設定される。
続いて、プロセッサ110は、モデル画像から複数の特徴点を抽出し(ステップS14)、抽出した複数の特徴点に基づいて、コントロール点34を決定する(ステップS16)。最終的に、プロセッサ110は、モデル画像から抽出された象物の複数の特徴点(コントロール点34)を示す情報を含むモデル情報を格納する(ステップS18)。以上で、モデル登録処理は終了する。
一方、推定処理においては、プロセッサ110は、入力画像を受付ける(ステップS20)。より具体的には、検出対象物を撮像部8の視野内に到達すると撮像部8へ指令が与えられ、撮像部8が検出対象物を撮像することで入力画像が取得される。
続いて、プロセッサ110は、入力画像から複数の特徴点を抽出し(ステップS22)、抽出した複数の特徴点に基づいて、モデル情報に含まれるコントロール点34にそれぞれ対応するコントロール点44を探索し(ステップS24)、入力画像から抽出されたコントロール点34とモデル情報に含まれるコントロール点34との間の対応関係を決定する(ステップS26)。そして、プロセッサ110は、ステップS26において決定された対応関係に基づいて、モデル登録処理において、検出対象物に相対して設定された検出点32に対応する、入力画像での対応する検出点42を推定する(ステップS28)。さらに、プロセッサ110は、ステップS28において推定された1つまたは複数の検出点42の座標値を用いて、位置情報(または、移動指令)をロボットコントローラ200へ出力することで、ロボット300を制御する(ステップS30)。以上で、推定処理は終了する。
<G.検出点の推定処理の変形例>
上述した検出点の推定処理について、以下のような変形例を実装することもできる。
例えば、上述したような対応関係、すなわちモデル画像上の複数のコントロール点34から入力画像上の複数のコントロール点44への写像を示す補間関数を計算する際には、複数のコントロール点34のすべてを用いてもよいし、予め設定された検出点の近傍にあるいくつかのコントロール点44のみを用いてもよい。
図9は、本実施の形態の画像処理装置100での検出点の推定処理の変形例を説明するための図である。図9を参照して、例えば、検出対象物を長手方向に二分する線に沿って切断や塗布しようとするような場合には、抽出されたコントロール点44のうち、隣接するコントロール点44同士を結ぶことでトラス状に三角形を作り、各三角形の内部の辺を二分割する点を結ぶことにより、対応する複数の検出点(検出領域)46を推定する。このトラス状に三角形を作る処理では、ドゥローネの三角化などが利用できる。
また、入力画像における対応する検出点の推定に、近傍にあるコントロール点44のみを用いた場合には、それを視覚的に表現して、ユーザに対する説明性を高めることが好ましい。
図10は、本実施の形態の画像処理装置100での検出点の推定処理結果を示す画面例を示す図である。図10を参照して、例えば、入力画像での検出点42の推定に、その近傍のコントロール点44のみを用いた場合には、その検出点42の推定に用いたコントロール点44をそれ以外のコントロール点44とは異なる態様で表示するようにしてもよい。つまり、検出点42の推定に近傍のいくつかのコントロール点44を用いた場合には、それら近傍のコントロール点44を明確に色で分けて、補間に用いたコントロール点44を一見して把握できるようにすることが好ましい。
<H.ロボットコントローラ200およびロボット300とのインターフェイス>
上述したように、本実施の形態の画像処理装置100による検出点42の推定結果を用いて、例えば、ワークの把持やワークに対する各種の加工(切断、穴あけ、研磨、印刷、塗装など)を行なうことができる。把持の場合には、入力画像上の1つの検出点の座標値を出力すればよいが、各種の加工を行なう場合には、複数の検出点の座標値を順次算出し、これらの算出結果を用いてロボット300の軌跡を示す指令を出力する必要がある。
例えば、塗布や切断などの加工については、切断の開始点および終了点といった、複数の検出点を推定する必要があり、このような場合も上述したのと同様の方法で決定できる。このとき、コントロール点をより密に配置することにより、操作対象の曲線を実現してもよい。また、複数の離散的な検出点について補間を行なうことで、ロボット300の連続的な軌跡を決定してもよい。
ワークに対する各種の加工を行なう軌跡が相対的に長い場合には、すべての軌跡について対応する検出点を推定しようとすれば、処理量が相対的に多くなる。そこで、入力画像上で位置を知りたい複数の検出点の各々について、モデル画像上において近傍にある、いくつかのコントロール点およびそれらのコントロール点からの相対位置を予め登録しておき、入力画像の形状がモデル画像に比較して変形している場合には、各検出点について、対応するいくつかのコントロール点を基準として、予め登録しておいた相対位置を適用することで、入力画像上の検出点を順次計算する。このような方法を採用することで、計算に係る演算量を低減できる。
画像処理装置100から推定した補間関数そのものをロボットコントローラ200へ出力するようにしてもよい。この場合には、ロボットコントローラ200は、与えられた補間関数を用いて、予め設定されている軌道を修正した上で、検出対象物に対して作用を与える軌跡を順次計算する。
あるいは、画像処理装置100が探索した入力画像上のそれぞれのコントロール点44の座標値をロボットコントローラ200へ出力するようにしてもよい。この場合には、ロボットコントローラ200は、与えられたそれぞれのコントロール点44の座標値から、軌跡を算出し、ロボット300を駆動する。
なお、画像処理装置100からロボットコントローラ200へ出力する位置情報(または、移動指令)の内容や種別については、ロボットの仕様や処理内容に応じて適宜異ならせてもよい。さらに、システム1が検出対象物に対して各種の加工を選択的に実行可能である場合には、ユーザに対して、予め用意された複数の加工のうち、いずれの加工を実行するのかの選択を受付けるユーザインターフェイス画面を提供するようにしてもよい。
<I.結論>
本実施の形態の画像処理装置100によれば、モデル情報として登録された検出対象物の形状とは異なる形状を有する検出対象物が入力画像に存在している場合であっても、当該検出対象物に相対して任意に設定される任意の検出点の対応する位置をより正確に推定できる。これによって、何らかの要因によって形状が変化する検出対象物に対しても、ロボット300などに対して適切な指令を与えることで、目的の位置において目的の作用を与えることができる。
上述の説明では、主として柔軟性を有する検出対象物が変形する場合について説明したが、例えば、撮像部の移動により生じる射影変換に基づく変形にも応用可能である。すなわち、検出対象物の自由変形に加えて、検出対象物の形状には変形がないが、撮像部と検出対象物との間の相対的な位置関係に変化が生じた場合、例えば、撮像部の視点が変化した場合や、検出対象物が回転した場合に生じる拘束変形にも対応可能である。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 システム、8 撮像部、10 コンベア、100 画像処理装置、102 表示部、104 内部バス、106 メモリカード、110 プロセッサ、112 主メモリ、114 ハードディスク、116 画像処理プログラム、120 カメラインターフェイス、122 ロボットインターフェイス、124 ネットワークインターフェイス、126 メモリカードインターフェイス、150 特徴量抽出モジュール、152 モデル情報生成モジュール、154 対応関係決定モジュール、156 検出点推定モジュール、158 移動指令生成モジュール、160 データ格納部、162 モデル情報、164 検出点設定、200 ロボットコントローラ、300 ロボット、W ワーク。

Claims (10)

  1. 検出対象物の複数の特徴点を示す情報を含むモデル情報を保持する記憶手段と、
    2次元画像または3次元画像である入力画像に含まれる複数の特徴点を抽出するとともに、抽出された複数の特徴点と前記モデル情報の複数の特徴点との間の対応関係を決定する対応関係決定手段と、
    前記対応関係に基づいて、前記検出対象物に相対して設定された1または複数の第1の位置に対応する、前記入力画像での1または複数の第2の位置を推定する位置推定手段とを備え、前記1または複数の第1の位置は、点、線、または領域に含まれ
    前記1または複数の第1の位置を被写体として前記検出対象物を含むモデル画像に重ねて表示する表示手段を備え、
    前記対応関係決定手段は、前記モデル情報の各特徴点と、前記入力画像から抽出された各特徴点とをそれぞれ一対一で対応付けるとともに、互いに対応付けられた、前記モデル情報の複数の特徴点からなる集合と、前記入力画像から抽出された複数の特徴点からなる集合との間で、前記対応関係を示す関数を決定し、
    前記表示手段は、前記1または複数の第1の位置のうち第2の位置との対応付けができたものと対応付けができなかったものとを異なる態様で表示する、画像処理装置。
  2. 前記モデル画像から複数の特徴点を抽出する抽出手段をさらに備える、請求項1に記載の画像処理装置。
  3. 前記対応関係決定手段は、一対一で対応付けられた特徴点の集合の全部または一部を用いて前記対応関係を示す関数を決定する、請求項1または2に記載の画像処理装置。
  4. 前記位置推定手段は、予め設定された第1の位置を示す座標値と前記対応関係を示す関数とから、前記第2の位置の座標値を算出する、請求項に記載の画像処理装置。
  5. 前記表示手段は、さらに、前記推定した1または複数の第2の位置を前記入力画像に重ねて表示する、請求項1〜のいずれか1項に記載の画像処理装置。
  6. 前記位置推定手段は、前記検出対象物に相対して設定された複数の前記第1の位置に対応する、複数の第2の位置をそれぞれ推定し、
    前記画像処理装置は、前記複数の第2の位置から外部装置に対する指令を生成する指令生成手段をさらに備える、請求項1〜のいずれか1項に記載の画像処理装置。
  7. システムであって、
    画像処理装置と、
    前記画像処理装置からの出力に従って動作するロボットとを備え、
    前記画像処理装置は、
    検出対象物の複数の特徴点を示す情報を含むモデル情報を保持する記憶手段と、
    2次元画像または3次元画像である入力画像に含まれる複数の特徴点を抽出するとともに、抽出された複数の特徴点と前記モデル情報の複数の特徴点との間の対応関係を決定する対応関係決定手段と、
    前記対応関係に基づいて、前記検出対象物に相対して設定された1または複数の第1の位置に対応する、前記入力画像での1または複数の第2の位置を推定する位置推定手段と、
    前記推定した第2の位置に基づいて前記ロボットに対する指令を生成する指令生成手段とを備え、前記1または複数の第1の位置は、点、線、または領域に含まれ
    前記1または複数の第1の位置を被写体として前記検出対象物を含むモデル画像に重ねて表示する表示手段を備え、
    前記対応関係決定手段は、前記モデル情報の各特徴点と、前記入力画像から抽出された各特徴点とをそれぞれ一対一で対応付けるとともに、互いに対応付けられた、前記モデル情報の複数の特徴点からなる集合と、前記入力画像から抽出された複数の特徴点からなる集合との間で、前記対応関係を示す関数を決定し、
    前記表示手段は、前記1または複数の第1の位置のうち第2の位置との対応付けができたものと対応付けができなかったものとを異なる態様で表示する、システム。
  8. 前記位置推定手段は、前記検出対象物に相対して設定された複数の前記第1の位置に対応する、複数の第2の位置をそれぞれ推定し、
    前記指令生成手段は、前記複数の第2の位置から前記指令を生成する、請求項に記載のシステム。
  9. 検出対象物の複数の特徴点を示す情報を含むモデル情報を取得するステップと、
    2次元画像または3次元画像である入力画像に含まれる複数の特徴点を抽出するとともに、抽出された複数の特徴点と前記モデル情報の複数の特徴点との間の対応関係を決定するステップと、
    前記対応関係に基づいて、前記検出対象物に相対して設定された1または複数の第1の位置に対応する、前記入力画像での1または複数の第2の位置を推定するステップとを備え、前記1または複数の第1の位置は、点、線、または領域に含まれ、さらに
    前記1または複数の第1の位置を被写体として前記検出対象物を含むモデル画像に重ねて表示するステップを備え、
    前記対応関係を決定するステップは、前記モデル情報の各特徴点と、前記入力画像から抽出された各特徴点とをそれぞれ一対一で対応付けるとともに、互いに対応付けられた、前記モデル情報の複数の特徴点からなる集合と、前記入力画像から抽出された複数の特徴点からなる集合との間で、前記対応関係を示す関数を決定するステップを含み、
    前記表示するステップは、前記1または複数の第1の位置のうち第2の位置との対応付けができたものと対応付けができなかったものとを異なる態様で表示するステップを含む、画像処理方法。
  10. コンピュータによって実行される画像処理プログラムであって、前記画像処理プログラムは前記コンピュータに
    検出対象物の複数の特徴点を示す情報を含むモデル情報を取得するステップと、
    2次元画像または3次元画像である入力画像に含まれる複数の特徴点を抽出するとともに、抽出された複数の特徴点と前記モデル情報の複数の特徴点との間の対応関係を決定するステップと、
    前記対応関係に基づいて、前記検出対象物に相対して設定された1または複数の第1の位置に対応する、前記入力画像での1または複数の第2の位置を推定するステップとを実行させ、前記1または複数の第1の位置は、点、線、または領域に含まれ、さらに
    前記1または複数の第1の位置を被写体として前記検出対象物を含むモデル画像に重ねて表示するステップを実行させ、
    前記対応関係を決定するステップは、前記モデル情報の各特徴点と、前記入力画像から抽出された各特徴点とをそれぞれ一対一で対応付けるとともに、互いに対応付けられた、前記モデル情報の複数の特徴点からなる集合と、前記入力画像から抽出された複数の特徴点からなる集合との間で、前記対応関係を示す関数を決定するステップを含み、
    前記表示するステップは、前記1または複数の第1の位置のうち第2の位置との対応付けができたものと対応付けができなかったものとを異なる態様で表示するステップを含む、画像処理プログラム。
JP2014050256A 2014-03-13 2014-03-13 画像処理装置、システム、画像処理方法、および画像処理プログラム Active JP6331517B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014050256A JP6331517B2 (ja) 2014-03-13 2014-03-13 画像処理装置、システム、画像処理方法、および画像処理プログラム
CN201510076062.5A CN104915947A (zh) 2014-03-13 2015-02-12 图像处理装置、***、图像处理方法及图像处理程序
EP15155707.1A EP2919155A1 (en) 2014-03-13 2015-02-19 Image processing device, system, image processing method, and image processing program
US14/625,894 US9607244B2 (en) 2014-03-13 2015-02-19 Image processing device, system, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014050256A JP6331517B2 (ja) 2014-03-13 2014-03-13 画像処理装置、システム、画像処理方法、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015176217A JP2015176217A (ja) 2015-10-05
JP6331517B2 true JP6331517B2 (ja) 2018-05-30

Family

ID=52596336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014050256A Active JP6331517B2 (ja) 2014-03-13 2014-03-13 画像処理装置、システム、画像処理方法、および画像処理プログラム

Country Status (4)

Country Link
US (1) US9607244B2 (ja)
EP (1) EP2919155A1 (ja)
JP (1) JP6331517B2 (ja)
CN (1) CN104915947A (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105303557B (zh) * 2015-09-21 2018-05-22 深圳先进技术研究院 一种可透视型智能眼镜及其透视方法
CN105551048A (zh) * 2015-12-21 2016-05-04 华南理工大学 一种基于空间面片的三维角点检测方法
CN106228589A (zh) * 2016-08-04 2016-12-14 北京金双狐油气技术有限公司 带方向约束散点数据的网格化方法
JP6915288B2 (ja) * 2017-02-08 2021-08-04 オムロン株式会社 画像処理システム、画像処理装置、FPGA(Field Programmable Gate Array)における回路の再構成方法、および、FPGAにおける回路の再構成プログラム
KR102285760B1 (ko) * 2017-02-13 2021-08-05 주식회사 고영테크놀러지 인쇄 회로 기판에 실장된 부품을 검사하는 장치, 그 동작 방법 및 컴퓨터 판독 가능한 기록 매체
JP6684475B2 (ja) * 2017-03-13 2020-04-22 オムロン株式会社 画像処理装置、画像処理方法及びプログラム
CN107598920A (zh) * 2017-08-23 2018-01-19 深圳果力智能科技有限公司 一种基于视觉控制的机械手
WO2019065784A1 (ja) * 2017-09-29 2019-04-04 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
US10970425B2 (en) * 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
CN108144865A (zh) * 2017-12-31 2018-06-12 芜湖哈特机器人产业技术研究院有限公司 汽车油管粗检***及其检测方法
CN108278126A (zh) * 2018-04-03 2018-07-13 长沙矿山研究院有限责任公司 一种智能型溜井放矿***
WO2021069084A1 (en) * 2019-10-11 2021-04-15 Toyota Motor Europe Methods and systems for determining the 3d-locations, the local reference frames and the grasping patterns of grasping points of an object
CN110702705B (zh) * 2019-11-20 2022-04-29 大连交通大学 一种基于原子分辨电镜的负载金属催化剂分散度测算方法
CN111250421A (zh) * 2020-03-23 2020-06-09 山东瑞吉德自动化股份有限公司 电表分拣方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5325475A (en) 1992-09-09 1994-06-28 Massachusetts Institute Of Technology Computer method and apparatus for matching between line drawings
US6633686B1 (en) 1998-11-05 2003-10-14 Washington University Method and apparatus for image registration using large deformation diffeomorphisms on a sphere
WO2006002320A2 (en) * 2004-06-23 2006-01-05 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
EP1811456B1 (en) * 2004-11-12 2011-09-28 Omron Corporation Face feature point detector and feature point detector
JP4093273B2 (ja) * 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
JP4196302B2 (ja) * 2006-06-19 2008-12-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
WO2008060289A1 (en) * 2006-11-17 2008-05-22 Thomson Licensing System and method for model fitting and registration of objects for 2d-to-3d conversion
CN101542520B (zh) * 2007-03-09 2011-12-07 欧姆龙株式会社 识别处理方法及使用该方法的图像处理装置
US7983487B2 (en) 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
US20140321756A9 (en) * 2008-05-27 2014-10-30 Samsung Electronics Co., Ltd. System and method for circling detection based on object trajectory
JP2009300230A (ja) * 2008-06-12 2009-12-24 Olympus Corp 位置合わせを行う装置、方法、およびプログラム、ならびに基準モデルを作成する装置、方法、およびプログラム
IT1394181B1 (it) * 2009-05-07 2012-06-01 Marchesini Group Spa Metodo di segmentazione basato sulle caratteristiche per segmentare una pluralita' di articoli duplicati disposti alla rinfusa e gruppo che attua tale metodo per alimentare una macchina confezionatrice
US9019349B2 (en) * 2009-07-31 2015-04-28 Naturalpoint, Inc. Automated collective camera calibration for motion capture
JP5045827B2 (ja) * 2011-02-01 2012-10-10 カシオ計算機株式会社 画像処理装置、画像処理方法、及び、プログラム
JP5929238B2 (ja) 2012-01-27 2016-06-01 オムロン株式会社 画像検査方法および画像検査装置
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
US8929602B2 (en) * 2013-01-31 2015-01-06 Seiko Epson Corporation Component based correspondence matching for reconstructing cables

Also Published As

Publication number Publication date
US9607244B2 (en) 2017-03-28
US20150262415A1 (en) 2015-09-17
EP2919155A1 (en) 2015-09-16
JP2015176217A (ja) 2015-10-05
CN104915947A (zh) 2015-09-16

Similar Documents

Publication Publication Date Title
JP6331517B2 (ja) 画像処理装置、システム、画像処理方法、および画像処理プログラム
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP6703812B2 (ja) 3次元物体検査装置
JP2018126857A5 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP5093591B2 (ja) 三次元位置姿勢計測方法および装置
JP2010184300A (ja) 姿勢変更システムおよび姿勢変更方法
CN110298879B (zh) 一种待抓取物***姿的确定方法、装置及电子设备
KR20130075712A (ko) 레이저비전 센서 및 그 보정방법
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
US9508192B2 (en) Image processing device, image processing method, and image processing program
CN112347837A (zh) 图像处理***
JP6265784B2 (ja) 姿勢推定システム、プログラムおよび姿勢推定方法
EP3738725B1 (en) Measurement system, measurement device, measurement method, and measurement program
CN113811740B (zh) 计测装置、计测方法以及计测程序
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
CN115674184A (zh) 基于机器人视觉的目标定位方法及装置
JP5814714B2 (ja) 画像類似度判定装置、画像類似度判定方法及び画像類似度判定プログラム
WO2019093299A1 (ja) 位置情報取得装置およびそれを備えたロボット制御装置
JP7450195B2 (ja) 位置分析装置及び方法、並びにカメラシステム
CN114952832B (zh) 基于单目六自由度物体姿态估计的机械臂拼装方法及装置
JP7178802B2 (ja) 2次元位置姿勢推定装置及び2次元位置姿勢推定方法
EP4382258A1 (en) Robot control device, robot control system, and robot control method
JP2017156968A (ja) 情報処理装置、情報処理方法、プログラム
Park et al. Robot-based Object Pose Auto-annotation System for Dexterous Manipulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180416

R150 Certificate of patent or registration of utility model

Ref document number: 6331517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250