JP2019084645A - 位置情報取得装置およびそれを備えたロボット制御装置 - Google Patents

位置情報取得装置およびそれを備えたロボット制御装置 Download PDF

Info

Publication number
JP2019084645A
JP2019084645A JP2017216213A JP2017216213A JP2019084645A JP 2019084645 A JP2019084645 A JP 2019084645A JP 2017216213 A JP2017216213 A JP 2017216213A JP 2017216213 A JP2017216213 A JP 2017216213A JP 2019084645 A JP2019084645 A JP 2019084645A
Authority
JP
Japan
Prior art keywords
image
position information
dimensional coordinates
unit
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017216213A
Other languages
English (en)
Inventor
茂男 井原
Shigeo Ihara
茂男 井原
大田 佳宏
Yoshihiro Ota
佳宏 大田
正志 高村
Masashi Takamura
正志 高村
憲裕 小泉
Norihiro Koizumi
憲裕 小泉
恭平 冨田
Kyohei Tomita
恭平 冨田
亮祐 近藤
Ryosuke Kondo
亮祐 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2017216213A priority Critical patent/JP2019084645A/ja
Priority to PCT/JP2018/041109 priority patent/WO2019093299A1/ja
Publication of JP2019084645A publication Critical patent/JP2019084645A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

【課題】視覚センサを有するロボットの操作対象物にマーカーを付与することなく、保管部における操作対象物の位置情報を高速かつ精度よく取得可能にする。【解決手段】位置情報取得装置は、視覚センサにより取得された画像から保管部に付与された複数のマーカーの平面座標系における2次元座標を取得し、当該2次元座標から定まる平面領域の重心のセンサ座標系における3次元座標および回転姿勢を取得し、平面領域の画像と、上記重心の3次元座標等に対応した第1テンプレート画像とのテンプレートマッチングにより操作対象物の存否を判別し、存在する操作対象物ごとに、平面領域の画像と、平面視した保管部および操作対象物を示す第2テンプレート画像とのテンプレートマッチングにより得られる相関度が最大になる位置の2次元座標を取得し、当該2次元座標から操作対象物の3次元座標および回転姿勢を取得する。【選択図】図2

Description

本開示は、視覚センサを有するロボットの操作対象物を複数保管可能な保管部における当該操作対象物の位置情報を取得する位置情報取得装置およびそれを備えたロボット制御装置に関する。
従来、対象物体を撮像して画像データを生成する撮像部と、撮像部を可動に支持するロボット本体と、テンプレート情報記憶部と、位置姿勢データ生成部とを含むロボット装置が知られている(例えば、特許文献1参照)。このロボット装置のテンプレート情報記憶部は、リファレンスに対する撮像部からの視線方向ごとに、視線方向に対する面のテンプレート画像データと、ロボット座標系における面の位置および姿勢を表す情報と、ロボット座標系における撮像部および姿勢を表す情報とを含むテンプレート情報を記憶する。そして、位置姿勢データ生成部は、撮像部が生成した画像データに含まれる対象物体の画像から可視である面を検出すると共に、テンプレート情報記憶部から可視である面に対応するテンプレート情報を読み込み、テンプレート情報に基づいてロボット座標系における対象物体の位置および姿勢を表す位置姿勢データを生成する。
また、従来、患者サンプルを効率的に処理するためのシステムとして、サンプルコンテナホルダのサンプルコンテナの1つ以上の画像を得るように構成された画像取得デバイスと、画像取得デバイスに接続された画像分析デバイスと、サンプルコンテナホルダから画像分析デバイスの分析結果に応じたサンプルコンテナを選択可能なロボットアーム(グリッパ)とを含むものも知られている(例えば、特許文献2参照)。このシステムの画像分析デバイスは、プロセッサによって、サンプルコンテナホルダおよびサンプルコンテナホルダの中のサンプルコンテナの画像を分析し、サンプルコンテナの管キャップインジケータが遠心分離インジケータおよび緊急サンプルインジケータの何れであるかを判別する。
特開2012−185752号公報 特表2014−532880号公報
上記特許文献1に記載されたようなテンプレートマッチングを用いることで、ロボット装置の撮像部により取得された画像からロボット座標系における対象物体(操作対象物)の位置および姿勢を求めることができる。更に、ロボットの操作対象物に対して特許文献2に記載された管キャップインジケータのようなマーカーを付与しておくことで、画像取得デバイスにより取得された画像から複数の操作対象物の位置および姿勢をより精度よく求めることができるであろう。しかしながら、操作対象物の数や形状、材質といった特性によっては、上述のようなマーカーを当該操作対象物のすべてに付与することが困難となる。また、複数の操作対象物のそれぞれにマーカーを付与し得たとしても、画像中のマーカーの認識処理における演算負荷や処理速度が増大化してしまい、操作対象物の位置情報を高速かつ精度よく取得することが困難となる。
そこで、本開示は、視覚センサを有するロボットの操作対象物にマーカーを付与することなく、保管部における操作対象物の位置情報を高速かつ精度よく取得可能にすることを主目的とする。
本開示の位置情報取得装置は、視覚センサを有するロボットの操作対象物を複数保管可能な保管部における前記操作対象物の位置情報を取得する位置情報取得装置であって、前記視覚センサにより取得された前記保管部の画像から前記保管部に付与された複数のマーカーの前記画像の平面座標系における2次元座標を取得すると共に、前記複数のマーカーの前記2次元座標から定まる平面領域の重心のセンサ座標系における3次元座標および回転姿勢を取得する第1座標姿勢取得部と、前記視覚センサにより取得された前記画像と、前記複数のマーカーの前記2次元座標とに基づいて、前記平面領域の画像を生成する平面領域画像生成部と、前記操作対象物を全数保管している前記保管部の複数の角度から撮影された複数の画像に基づいて、前記平面領域の前記重心の前記3次元座標および回転姿勢に対応した第1テンプレート画像を生成するテンプレート生成部と、前記平面領域の前記画像と前記第1テンプレート画像とのテンプレートマッチングにより前記操作対象物の存否を判別すると共に、前記保管部に存在する前記操作対象物ごとに、前記平面領域の前記画像と、平面視した前記保管部および前記操作対象物を示す第2テンプレート画像とのテンプレートマッチングにより得られる相関度が最大になる位置の前記平面座標系における2次元座標を取得し、取得した前記2次元座標に基づいて前記操作対象物の前記センサ座標系における3次元座標および回転姿勢を前記位置情報として取得する第2座標姿勢取得部とを含むものである。
本開示の位置情報取得装置の第1座標姿勢取得部は、視覚センサにより取得された保管部の画像から当該保管部に付与された複数のマーカーの当該画像の平面座標系における2次元座標を取得すると共に、当該複数のマーカーの2次元座標から定まる平面領域の重心のセンサ座標系における3次元座標および回転姿勢を取得する。また、平面領域画像生成部は、視覚センサにより取得された画像と、複数のマーカーの2次元座標とに基づいて、当該平面領域の画像を生成する。更に、テンプレート生成部は、操作対象物を全数保管している保管部の複数の角度から撮影された複数の画像に基づいて、平面領域の重心の3次元座標および回転姿勢に対応した第1テンプレート画像を生成する。また、第2座標姿勢取得部は、上記平面領域の画像と第1テンプレート画像とのテンプレートマッチングにより操作対象物の存否を判別する。更に、第2座標姿勢取得部は、保管部に存在する操作対象物ごとに、平面領域の画像と、平面視した保管部および操作対象物を示す第2テンプレート画像とのテンプレートマッチングにより得られる相関度が最大になる位置の平面座標系における2次元座標を取得する。そして、第2座標姿勢取得部は、取得した2次元座標に基づいて操作対象物のセンサ座標系における3次元座標および回転姿勢を位置情報として取得する。
このように、本開示の位置情報取得装置は、保管部に付与された比較的少数のマーカーに基づいて生成された平面領域の画像と、第1および第2テンプレート画像とのテンプレートマッチングを実行することで、操作対象物のセンサ座標系における3次元座標および回転姿勢を取得する。これにより、操作対象物にマーカーを付与する必要がなくなり、視覚センサにより取得された画像中のマーカーの認識処理における演算負荷や処理速度を大幅に低減化することが可能となる。更に、第1および第2テンプレート画像を用いたテンプレートマッチングを実行することで、操作対象物のセンサ座標系における3次元座標および回転姿勢を高精度に取得することができる。この結果、視覚センサを有するロボットの操作対象物にマーカーを付与することなく、保管部における操作対象物の位置情報を高速かつ精度よく取得することが可能となる。
また、前記平面領域画像生成部は、前記視覚センサにより取得された画像を前記複数のマーカーの前記2次元座標に基づくホモグラフィ変換により正規化画像に変換すると共に、前記正規化画像を所定の色空間画像に変換することにより前記平面領域の前記画像を生成するものであってもよい。これにより、第1および第2テンプレート画像を用いたテンプレートマッチングの精度およびロバスト性をより向上させることが可能となる。
更に、前記第2座標姿勢取得部は、前記保管部に存在する前記操作対象物ごとに、前記平面領域の前記画像と、前記相関度が最大になる位置の前記2次元座標とに基づいて、同一円周上に位置するピクセルの輝度値の和を複数算出すると共に、前記輝度値の和が最大になる円周の中心の前記平面座標系における2次元座標を取得し、取得した前記2次元座標から前記操作対象物の前記センサ座標系における3次元座標および回転姿勢を取得するものであってもよい。これにより、上記平面領域における操作対象物の2次元座標をより精度よく取得することができるので、操作対象物のセンサ座標系における3次元座標および回転姿勢をより一層精度よく取得することが可能となる。
また、前記第2座標姿勢取得部は、前記保管部に存在する前記操作対象物ごとに、前記相関度に基づいて該相関度が最大になる位置からの距離が減少するにつれて値が小さくなる第1指標を複数算出し、算出した前記第1指標を視覚的に把握可能な態様で前記保管部を示す画像と共に表示装置に表示させるものであってもよい。これにより、ロボットを用いた操作対象物への処理を管理する作業者に対して、有用な操作対象物の位置情報をわかりやすく提供することが可能となり、ロボットを用いた操作対象物への処理の作業効率をより向上させることができる。
更に、前記第2座標姿勢取得部は、前記保管部に存在する前記操作対象物ごとに、前記ロボットのロボットハンドの現在位置からの移動距離が長いほど小さくなると共に前記第1指標が大きいほど大きくなる第2指標を算出し、算出した前記第2指標に基づいて前記保管部に存在する前記操作対象物への前記ロボットハンドのアクセス順序を設定するものであってもよい。これにより、ロボットを用いた操作対象物への処理の作業効率をより向上させることが可能となる。
また、前記第2座標姿勢取得部は、前記第2指標を視覚的に把握可能な態様で前記保管部を示す画像と共に前記表示装置に表示させるものであってもよい。これにより、ロボットを用いた操作対象物への処理を管理する作業者に対して、ロボットハンドのアクセス順序に関する有用な情報をわかりやすく提供することができるので、ロボットを用いた操作対象物への処理の作業効率をより一層向上させることが可能となる。
更に、前記操作対象物は、開口が上方に位置するように前記保管部により保持される有底筒状の容器であってもよい。すなわち、本開示の位置情報取得装置は、マーカーを付与し難い有底筒状の容器の保管部における位置情報を取得するのに極めて有用である。ただし、本開示における操作対象物は、このような容器に限られるものではない。
本開示のロボット制御装置は、上記何れかの位置情報取得装置を含み、前記第2座標姿勢取得装置により取得された前記操作対象物の前記センサ座標系における3次元座標および回転姿勢に基づいて前記ロボットを制御するものであってもよい。これにより、高速かつ高精度なロボットによる作業を実現することが可能となる。
本開示のロボット制御装置を含むロボット装置を示す概略構成図である。 図1に示すロボット装置の制御ブロック図である。 本開示のロボット制御装置により実行されるルーチンを示すフローチャートである。 本開示のロボット制御装置により実行される他のルーチンを示すフローチャートである。 本開示のロボット制御装置に接続された表示装置に表示される画像を例示する説明図である。
次に、図面を参照しながら、本開示の発明を実施するための形態について説明する。
図1は、ロボット1および本開示のロボット制御装置10を含むロボット装置RDを示す概略構成図であり、図2は、ロボット装置RDの制御ブロック図である。図示するように、ロボット1は、保管部としての試験管ラック100に保管されている多数の試験管TTに対して例えば薬品等の投入といった予め定められた処理を自動的に実行するように本開示のロボット制御装置10によって制御されるものである。ロボット1の操作対象物である試験管TTは、円形の開口部を有する有底円筒状の容器であり、試験管ラック100は、複数の保持孔101を有する。各保持孔101は、試験管ラック100の上面で開口しており、上方から挿入された試験管TTを保持する。また、本実施形態において、試験管ラック100の上面は、四角形状を呈しており、当該上面には、少なくとも3つ以上の画像マーカーMが設けられている。本実施形態では、合計4つの画像マーカーMが試験管ラック100の上面の四隅に1つずつ設けられており、各画像マーカーMは、同一または固有の特徴的なテクスチャパターンを有する。
ロボット1は、先端部(手先部)に図示しないロボットハンドが装着される多関節アーム機構2と、当該多関節アーム機構2を駆動するアクチュエータ3(図2参照)と、多関節アーム機構2の先端部に取り付けられた視覚センサ4とを含む。多関節アーム機構2に装着されるロボットアームは、例えば試験管TT内に薬品等を投入するように構成されたものである。ただし、ロボットアームは、これに限られるものではなく、例えば試験管TTを把持して試験管ラック100の保持孔101から挿脱するように構成されたもの等であってもよい。また、本実施形態において、視覚センサ4は、光学式デジタルカメラであり、ロボット制御装置10からの撮影指令信号に応じて試験管ラック100を撮影し、当該試験管ラック100を示す画像データをロボット制御装置10に与える。ただし、視覚センサ4は、光学式デジタルカメラ以外の撮像装置であってもよい。
ロボット制御装置10は、何れも図示しないCPU,ROM,RAM、入出力ポート等を有するコンピュータである。図2に示すように、ロボット制御装置10には、CPUやROM,RAMといったハードウエアと、ROMにインストールされた制御プログラムといったソフトウェアとの協働により、平面認識処理部(第1座標姿勢取得部)20、テンプレート生成部30、位置情報処理部(第2座標姿勢取得部)40および動作制御部50が機能ブロック(モジュール)として構築され、平面認識処理部20、テンプレート生成部30および位置情報処理部40は、本開示の位置情報取得装置を構成する。また、ロボット制御装置10には、ロボット1による作業に際して各種情報を表示させる液晶モニタ等の表示装置60が接続されており、ロボット制御装置10は、当該表示装置60を制御する図示しない表示制御部を更に含む。
平面認識処理部20は、それぞれCPU等のハードウエアとソフトウェアとの協働により構築されるマーカー認識部21および平面領域推定部22を含む。マーカー認識部21は、視覚センサ4からの試験管ラック100を示す画像データを解析し、当該画像データから各画像マーカーMの重心のセンサ座標系における3次元座標および回転姿勢を示すベクトルMG i(以下、単に「3次元座標および回転姿勢」という。ただし、“i”は、画像マーカーMに付与された識別子であり、本実施形態では、i=1,…,4である。)を取得する。ここで、センサ座標系は、視覚センサ4の光学系の光軸を座標軸の1つとして含む右手座標系であり、回転姿勢は、当該光軸に対する傾きを示す。更に、マーカー認識部21は、取得した画像マーカーMの3次元座標および回転姿勢MG iに基づいて当該画像マーカーMの重心の画像の平面座標系(XY座標系)における2次元座標を示すベクトル(以下、単に「2次元座標」という。)Mg iを取得する。また、平面領域推定部22は、マーカー認識部21により取得された画像マーカーMの重心の2次元座標Mg iに基づいて、画像マーカーMの2次元座標Mg iから定まる四角形状の平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢を取得する。
テンプレート生成部30は、平面認識処理部20の平面領域推定部22から上記平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢を入力し、試験管ラック100における試験管TTの存否判定に用いられるテンプレート画像を学習済みニューラルネットワークにより生成するものである。このため、テンプレート生成部30は、すべての保持孔101に試験管TTが挿入された試験管ラック100を様々な角度から撮影した多数の画像を格納した画像データベース31を含む。そして、テンプレート生成部30は、画像データベース31に格納された画像に基づいて、平面領域推定部22により取得された平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢に対応した第1テンプレート画像を生成する。本実施形態において、画像データベース31に格納される画像は、例えばHSV色空間で一定の色領域のみを抽出・強調した色空間画像(以下、適宜「HSV画像」という。)に変換されている。また、画像データベース31に格納される画像には、試験管TTが挿入された単一の保持孔101の周辺を真上から撮影して得られた画像をHSV色空間で一定の色領域のみを抽出・強調した第2テンプレート画像(HSV画像)が含まれている。
位置情報処理部40は、それぞれCPU等のハードウエアとソフトウェアとの協働により構築される平面領域画像生成部41、存否判定部42、位置姿勢推定部43および位置情報演算部44を含む。平面領域画像生成部41は、視覚センサ4からの画像データと、平面認識処理部20により取得された画像マーカーMの重心の2次元座標Mg iとに基づいて、上記平面領域LMi^の画像(平面画像)を生成する。存否判定部42は、平面領域画像生成部41により生成された画像とテンプレート生成部30により生成された第1テンプレート画像とのテンプレートマッチングを実行し、試験管ラック100における試験管TTの存否を判定する。
位置情報処理部40の位置姿勢推定部43は、平面領域画像生成部41により生成された画像と、テンプレート生成部30の画像データベース31に格納された第2テンプレート画像とのテンプレートマッチングを実行し、試験管ラック100に存在する試験管TTごとに、開口部の中心(重心)の上記画像の平面座標系における2次元座標を取得する。位置情報演算部44は、位置姿勢推定部43により取得された2次元座標等に基づいて、試験管ラック100に存在する試験管TTの開口部の中心のセンサ座標系における3次元座標および回転姿勢といった位置情報を算出する。
動作制御部50は、それぞれCPU等のハードウエアとソフトウェアとの協働により構築される位置姿勢補正部51および関節角度演算部52を含む。位置姿勢補正部51は、位置情報処理部40(位置情報演算部44)により取得された試験管TTの開口部の中心のセンサ座標系における3次元座標および回転姿勢をロボット1の手先座標系における座標および回転姿勢に変換する。関節角度演算部52は、位置姿勢補正部51により取得された座標および回転姿勢に基づいて、多関節アーム機構2の各関節の角度を算出すると共に、算出した各関節の角度に基づいて当該多関節アーム機構2を駆動するアクチュエータ3を制御する。
次に、図3から図5を参照しながら、ロボット制御装置10における演算処理の手順について説明する。
図3は、ロボット制御装置10の平面認識処理部20により実行されるルーチンの一例を示すフローチャートである。平面認識処理部20は、作業者によるロボット1の作業開始指令に応じて視覚センサ4に撮影指令信号を送信し、当該視覚センサ4から試験管ラック100を示す画像データを入力する(ステップS100)。以下、ステップS100にて入力される画像データを適宜「初期画像データ」という。次いで、平面認識処理部20(マーカー認識部21)は、入力した画像データの解析を行い、試験管ラック100に付与された複数の画像マーカーMの少なくとも何れか1つが検出されたか否かを判定する(ステップS110)。ステップS110にて試験管ラック100に付与された画像マーカーMが検出されなかったと判定した場合(ステップS110:NO)、平面認識処理部20は、視覚センサ4に撮影指令信号を再度送信し、当該視覚センサ4から画像データを再度入力する(ステップS100)。なお、画像データからの画像マーカーMの検出には、「拡張現実感システム構築ツールARToolKitの開発」(加藤 博一、Technical report of IEICE. PRMU 101(652), 79-86, 2002-02-14)に記載された手法を用いることができる。
ステップS110にて試験管ラック100に付与された少なくとも何れか1つの画像マーカーMが検出されたと判定した場合(ステップS110:YES)、平面認識処理部20(マーカー認識部21)は、検出された画像マーカーMの重心のセンサ座標系における3次元座標および回転姿勢MG iを取得する(ステップS120)。また、ステップS120において、平面認識処理部20(マーカー認識部21)は、画像マーカーMの3次元座標および回転姿勢MG iに基づいて当該画像マーカーMの重心の画像の平面座標系(XY座標系)における2次元座標Mg iを取得する。2次元座標Mg iは、画像マーカーMの3次元座標および回転姿勢MG iに基づく画像解析により取得された画像マーカーMの4つのコーナー部の画像上における2次元座標から求められる。
更に、ステップS120において、平面認識処理部20(平面領域推定部22)は、画像マーカーMの重心の2次元座標Mg iに基づいて、画像マーカーMの2次元座標Mg iから定まる平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢を取得する。マーカー認識部21によって試験管ラック100の全画像マーカーM(本実施形態では、4つ)の重心の2次元座標Mg iが取得されている場合、平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢は、すべての画像マーカーMの重心の2次元座標Mg iから定まる四角形状の平面領域LMi^の重心をマーカー認識部21により取得された各画像マーカーMの3次元座標および回転姿勢MG iに基づいてセンサ座標系に射影することにより求められる。また、マーカー認識部21によって試験管ラック100の全画像マーカーMの重心の2次元座標Mg iが取得されていない場合、平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢は、予め判明している試験管ラック100の上面の平面形状と、マーカー認識部21により取得された画像マーカーMの重心の3次元座標および回転姿勢MG i並びに2次元座標Mg iとに基づいて推定される。
ステップS120の処理の後、平面認識処理部20は、視覚センサ4に撮影指令信号を再度送信し、当該視覚センサ4から画像データを入力する(ステップS130)。以下、ステップS130にて入力される画像データを適宜「次画像データ」という。更に、平面認識処理部20(マーカー認識部21)は、ステップS130にて入力した次画像データと、ステップS120にて取得した画像マーカーMの重心の3次元座標および回転姿勢MG iとに基づくパーティクルフィルタ処理により、次画像データにおける画像マーカーMの重心の3次元座標および回転姿勢MG iを推定する(ステップS140)。ステップS130にて用いられるパーティクルフィルタは、「複合現実感のための2次元矩形マーカーを用いたカメラ追跡の精度向上」(植松裕子ら、「画像の認識・理解シンポジウム(MIRU2007)」2007年7月)に記載されたものを並進運動に関する推定が可能となるように改変したものである。また、ステップS140において、平面認識処理部20は、ステップS120と同様にして、推定した次画像データにおける画像マーカーMの重心の3次元座標および回転姿勢MG iに基づいて次画像データにおける画像マーカーMの重心の2次元座標Mg iと、当該2次元座標Mg iから定まる平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢とを取得する。
ステップS140にて上記次画像データにおける画像マーカーMの重心の三次元的位置および回転姿勢MG iを推定した後、平面認識処理部20(マーカー認識部21)は、ステップS130にて取得した次画像データにおける画像マーカーMの重心の3次元座標および回転姿勢MG iから尤度を算出し(ステップS150)、算出した尤度が閾値以上であるか否かを判定する(ステップS160)。ステップS150において、尤度は、画像マーカーMの輪郭情報に加えて、画像マーカーMと外部環境との関係や、画像マーカーMのテクスチャパターンと入力画像の類似度を考慮した画像マーカーMの輪郭に対して垂直な方向のテクスチャパターン検出評価関数を用いて算出される。また、ステップS160にて用いられる閾値は、次画像データにおける画像マーカーMの重心の3次元座標および回転姿勢MG iの推定に要する時間に応じて変更されるとよい。
ステップS160にて尤度が閾値以上であると判定した場合(ステップS160:YES)、平面認識処理部20は、ステップS140にて推定された次画像データにおける画像マーカーMの重心の3次元座標および回転姿勢MG i、画像マーカーMの重心の2次元座標Mg i、並びに当該2次元座標Mg iから定まる平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢を図示しないRAMに格納する。また、ステップS160にて尤度が閾値未満であると判定した場合(ステップS160:NO)、平面認識処理部20は、ステップS120にて取得した初期画像データにおける画像マーカーMの重心の3次元座標および回転姿勢MG i、画像マーカーMの重心の2次元座標Mg i、並びに当該2次元座標Mg iから定まる平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢を図示しないRAMに格納する。
ステップS170またはS180の処理の後、平面認識処理部20は、作業者によりロボット1の動作開始指令がなされたか否かを判定し(ステップS190)、当該動作開始指令がなされていないと判定した場合、(ステップS190:NO)上述のステップS100以降の処理を再度実行する。これに対して、ステップS190にて作業者によりロボット1の動作開始指令がなされたと判定した場合(ステップS190:YES)、その時点で図3のルーチンを終了させる。
図4は、作業者によるロボット1の動作開始指令に応じて、ロボット制御装置10の位置情報処理部40により実行されるルーチンの一例を示すフローチャートである。図4のルーチンの開始に際し、位置情報処理部40(平面領域画像生成部41)は、平面認識処理部20により図示しないRAMに格納された画像マーカーMの重心の3次元座標および回転姿勢MG i、画像マーカーMの重心の2次元座標Mg i、並びに当該2次元座標Mg iから定まる平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢を入力する(ステップS200)。次いで、処理に必要なデータを取得し得たか否かを判定し(ステップS210)、処理に必要なデータが取得されていない場合(ステップS210:NO)、その時点で図4のルーチンを終了させ、図3のルーチンの再実行を指示する。
ステップS210にて処理に必要なデータを取得し得たと判定した場合(ステップS210:YES)、位置情報処理部40(平面領域画像生成部41)は、ステップS200にて読み出した画像マーカーMの重心の2次元座標Mg iに対応した初期画像データまたは次画像データを当該2次元座標Mg iに基づくホモグラフィ変換により正規化画像に変換する(ステップS220)。ステップS220にて用いられるホモグラフィ変換としては、「単眼動画像からの可展面物体の3次元変形とその展開テクスチャの復元」(柴山 裕樹ら、「画像の認識・理解シンポジウム(MIRU2011)」2011年7月)に記載されたものを用いることができる。更に、位置情報処理部40(平面領域画像生成部41)は、ステップS220にて得られた正規化画像をHSV画像に変換することにより平面領域LMi^の画像を生成する(ステップS230)。
続いて、位置情報処理部40(存否判定部42)は、ステップS200にて読み出した平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢に対応した第1テンプレート画像の生成をテンプレート生成部30に要求し、当該テンプレート生成部30により生成された第1テンプレート画像を取得する(ステップS240)。第1テンプレート画像を取得した後、位置情報処理部40(存否判定部42)は、平面領域LMi^のHSV画像と第1テンプレート画像とのテンプレートマッチングを実行する(ステップS250)。ステップS250では、平面領域LMi^のHSV画像を第1テンプレート画像により走査しながら、両画像の輝度値の平均値を考慮した明るさの変動に強い正規化相互相関値を求めると共に、当該正規化相互相関値と閾値を比較することにより試験管TTの存否が判別される。かかるテンプレートマッチングに際して、平面領域LMi^の画像と第1テンプレート画像とをHSV色空間で一定の色領域のみを抽出・強調したHSV画像とすることで、ノイズの影響を低減化することができる。
ステップS250におけるテンプレートマッチングの実行後、位置情報処理部40(存否判定部42)は、試験管ラック100に試験管TTが存在しているか否かを判定する(ステップS260)。ステップS260にて試験管ラック100に試験管TTが存在していないと判定した場合(ステップS260:NO)、位置情報処理部40(存否判定部42)は、その時点で図4のルーチンを終了させる。この場合、位置情報処理部40は、図4のルーチンの終了後、表示装置60に所定のエラー表示を表示させる等の予め定められた処理を実行する。
一方、ステップS260にて試験管ラック100に試験管TTが存在していると判定した場合(ステップS260:YES)、位置情報処理部40(位置姿勢推定部43)は、テンプレート生成部30から、平面視した試験管TTおよび試験管ラック100の一部を示す上述の第2テンプレート画像を入力し(ステップS270)、平面領域LMi^のHSV画像と第2テンプレート画像とのテンプレートマッチングを実行する(ステップS280)。ステップS280では、存在が確認された試験管TTごとに、平面領域LMi^のHSV画像を第2テンプレート画像により走査しながら、両画像の相関度pが求められる。
ステップS280のテンプレートマッチングにより上記相関度pを得た後、位置情報処理部40(位置姿勢推定部43)は、試験管ラック100に存在する試験管TTごとに、平面領域LMi^のHSV画像と第2テンプレート画像との相関度pが最大になる位置の上記平面座標系における2次元座標を取得する(ステップS290)。更に、位置情報処理部40(位置姿勢推定部43)は、試験管ラック100に存在する試験管TTごとに、ステップS290にて取得した2次元座標を含む所定の2次元領域内で円の中心位置と半径とを変化させながら同一円周上に位置するピクセルの輝度値の和を複数算出すると共に、輝度値の和が最大になる円周の中心の上記平面座標系における2次元座標および半径を取得し、取得した2次元座標を当該試験管TTの開口部中心の2次元座標とする(ステップS300)。これにより、平面領域LMi^のHSV画像と第2テンプレート画像とのテンプレートマッチングにより得られた相関度pに基づく2次元座標が画像の輝度値により補正された上で試験管TTの開口部中心の2次元座標として取得されることになる。
そして、位置情報処理部40(位置情報演算部44)は、ステップS300にて取得した試験管TTの開口部中心の2次元座標をマーカー認識部21により取得された各画像マーカーMの3次元座標および回転姿勢MG iに基づいてセンサ座標系に射影することにより、当該開口部中心の3次元座標および回転姿勢を算出する(ステップS310)。更に、位置情報処理部40(位置情報演算部44)は、作業者の便に供するための第1指標P(r)を算出する(ステップS320)。ステップS320において、第1指標Pは、試験管TTの開口部中心でステップS280のテンプレートマッチングにより得られた相関度pが最大になるとの仮定のもと、当該開口部中心からの距離rが減少するにつれて値が小さくなるように、次式(1)に従って試験管ラック100に存在する試験管TTごとに複数算出される。本実施形態において、第1指標Pの算出に際し、距離rは、ステップS300にて取得された輝度値の和が最大になる円周の半径を最大として、所定間隔で変化させられる。
P=p−α×r …(1)
また、位置情報処理部40(位置情報演算部44)は、ロボット1のロボットハンドの現在位置からの移動距離Lと上記第1指標Pとに基づいてロボット1による処理の作業効率を向上させるための第2指標Qを算出する(ステップS330)。ステップS330において、第2指標Qは、試験管ラック100に存在する試験管TTの開口部中心ごとに、ロボット1のロボットハンドの現在位置からの移動距離Lが長いほど小さくなると共に上記第1指標Pが大きいほど大きくなるように次式(2)に従って算出される。式(2)において、係数aは、予め定められた負の一定値であり、係数bは、予め定められた正の一定値である。ステップS330では、試験管ラック100に存在する試験管TTごとに、ロボットハンドの停止位置(待機位置)を基準として開口部中心における第2指標Qが算出される。更に、ステップS330では、算出された第2指標Qを最大にする開口部中心の2次元座標に対応した試験管TTがロボットハンドの最初の移動先として定められ、以後、第2指標Qの大きい順に、試験管ラック100に存在する試験管TTへのロボットハンドのアクセス順序が定められる。
Q=a×L+b×P …(2)
ステップS330の処理の完了後、位置情報処理部40(位置情報演算部44)は、算出した試験管ラック100に存在する試験管TT(開口部中心)の3次元座標および回転姿勢やロボットハンドのアクセス順序といった位置情報を動作制御部50に送信すると共に、試験管ラック100に存在する試験管TT(開口部中心)の2次元座標や第1指標Pおよび第2指標Qを表示装置60の表示制御部(図示省略)に送信し(ステップS340)、図4のルーチンを終了させる。動作制御部50は、位置情報処理部40から受け取った3次元座標および回転姿勢に基づいて多関節アーム機構2の各関節の角度を算出し、上述のアクセス順序に従って多関節アーム機構2を駆動するアクチュエータ3を制御する。
また、位置情報処理部40から位置情報としての第1および第2指標P,Q等を受け取った図示しない表示制御部は、第1および第2指標P,Qを視覚的に把握可能な態様で試験管ラック100および試験管TTを示す画像(例えば、上述の平面領域LMi^の画像)と共に表示装置60に表示させる。本実施形態において、第1指標Pの値は、図5に示すように、値が大きいほど赤みが増し、小さいほど青みが増すように色温度を用いて試験管ラック100を示す画像上の試験管TTが存在する箇所に表示される。同様に、第2指標Qも色温度に対応づけられ、試験管ラック100を示す画像上の試験管TTが存在する箇所の表示色は、第2指標Qの値が大きいほど赤みが増し、小さいほど青みが増すように設定される。
以上説明したように、ロボット制御装置10の平面認識処理部20(第1座標姿勢取得部)は、視覚センサ4により取得された試験管ラック100の画像から当該試験管ラック100に付与された複数の画像マーカーMの当該画像の平面座標系における2次元座標Mg iを取得すると共に、当該複数のマーカーの2次元座標から定まる平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢を取得する(図3のステップS100〜S190)。また、位置情報処理部40(第2座標姿勢取得部)の平面領域画像生成部41は、視覚センサ4により取得された画像と、複数の画像マーカーMの2次元座標Mg iとに基づいて、平面領域LMi^の画像(HSV画像)を生成する(図4のステップS220,S230)。
更に、テンプレート生成部30は、位置情報処理部40の存否判定部42からの要求に応じて、すべての保持孔101に試験管TTが挿入された試験管ラック100を様々な角度から撮影した多数の画像に基づいて、平面領域LMi^の重心のセンサ座標系における3次元座標および回転姿勢に対応した第1テンプレート画像を生成する(図4のステップS240)。また、位置情報処理部40の存否判定部42は、平面領域LMi^のHSV画像と第1テンプレート画像とのテンプレートマッチングにより試験管ラック100における試験管TTの存否を判別する(図4のステップS250)。更に、位置情報処理部40の位置姿勢推定部43は、存在が確認された試験管TTごとに、平面領域LMi^のHSV画像と、平面視した試験管TTおよび試験管ラック100の一部を示す第2テンプレート画像とのテンプレートマッチングを実行し(図4のステップS270,S280)、当該テンプレートマッチングにより得られる相関度pが最大になる位置の上記平面座標系における2次元座標を取得する(図4のステップS290,S300)。そして、位置情報処理部40の位置情報演算部44は、取得した2次元座標に基づいて試験管TTのセンサ座標系における3次元座標および回転姿勢を位置情報として取得する(図4のステップS310)。
このように、ロボット制御装置10は、試験管ラック100に付与された比較的少数の画像マーカーMに基づいて生成された平面領域LMi^の画像と、第1および第2テンプレート画像とのテンプレートマッチングを実行することで、試験管TTのセンサ座標系における3次元座標および回転姿勢を取得する。これにより、各試験管TTに画像マーカーMを付与する必要がなくなり、視覚センサ4により取得された画像中の画像マーカーMの認識処理における演算負荷や処理速度を大幅に低減化することが可能となる。更に、上述のような第1および第2テンプレート画像を用いたテンプレートマッチングを実行することで、試験管TTのセンサ座標系における3次元座標および回転姿勢を高精度に取得することができる。この結果、視覚センサ4を有するロボット1の操作対象物である試験管TTに画像マーカーMを付与することなく、試験管ラック100における試験管TTの位置情報を高速かつ精度よく取得することが可能となり、高速かつ高精度なロボットによる作業を実現することができる。
また、位置情報処理部40の平面領域画像生成部41は、視覚センサ4により取得された画像データを複数の画像マーカーMの2次元座標Mg iに基づくホモグラフィ変換により正規化画像に変換すると共に、正規化画像をHSV画像に変換することにより平面領域LMi^の画像を生成する(図4のステップS220,S230)。これにより、第1および第2テンプレート画像を用いたテンプレートマッチングの精度およびロバスト性をより向上させることが可能となる。
更に、位置情報処理部40の位置姿勢推定部43は、試験管ラック100に存在する試験管TTごとに、平面領域LMi^のHSV画像と、上記相関度pが最大になる位置の2次元座標とに基づいて、同一円周上に位置するピクセルの輝度値の和を複数算出すると共に、輝度値の和が最大になる円周の中心の平面座標系における2次元座標を取得する(図4のステップS300)。そして、位置情報処理部40の位置情報演算部44は、位置姿勢推定部43により取得された2次元座標から試験管TTのセンサ座標系における3次元座標および回転姿勢を取得する(図4のステップS310)。これにより、平面領域LMi^における試験管TTの2次元座標をより精度よく取得することができるので、当該試験管TTのセンサ座標系における3次元座標および回転姿勢をより一層精度よく取得することが可能となる。なお、画像データベース31に格納される画像や、平面領域LMi^の画像、第1および第2テンプレート画像は、例えばRGB画像やグレースケール画像といったHSV画像以外の色空間画像であってもよい。
また、ロボット制御装置10の位置情報処理部40は、試験管ラック100に存在する試験管TTごとに、相関度pに基づいて当該相関度pが最大になる位置からの距離が減少するにつれて値が小さくなる第1指標Pを複数算出し(図4のステップS320)、算出した第1指標Pを視覚的に把握可能な色温度を用いて試験管ラック100を示す画像と共に表示装置60に表示させる(図4のステップS340)。これにより、ロボット1を用いた試験管TTへの処理を管理する作業者に対して、有用な当該試験管TTの位置情報をわかりやすく提供することが可能となり、ロボット1を用いた処理の作業効率をより向上させることが可能となる。
更に、ロボット制御装置10の位置情報処理部40は、試験管ラック100に存在する操試験管TTごとに、ロボット1のロボットハンドの現在位置からの移動距離Lが長いほど小さくなると共に第1指標Pが大きいほど大きくなる第2指標Qを算出し、算出した第2指標Qに基づいて試験管ラック100に存在する試験管TTへのロボットハンドのアクセス順序を設定する(図4のステップS330)。これにより、ロボット1を用いた試験管TTへの処理の作業効率をより向上させることが可能となる。
加えて、ロボット制御装置10の位置情報処理部40は、第2指標Qを視覚的に把握可能な色温度を用いて試験管ラック100を示す画像と共に表示装置60に表示させる(図4のステップS340)。これにより、ロボット1を用いた試験管TTへの処理を管理する作業者に対して、ロボットハンドのアクセス順序に関する有用な情報をわかりやすく提供することができるので、ロボット1を用いた処理の作業効率をより一層向上させることが可能となる。
そして、ロボット制御装置10によれば、画像マーカーMを付与し難い有底筒状の試験管TTの試験管ラック100における位置情報を高速かつ精度よく取得することが可能となる。ただし、ロボット制御装置10により制御されるロボット1の操作対象物は、有底筒状の容器に限られるものではない。
なお、本開示の発明は上記実施形態に何ら限定されるものではなく、本開示の外延の範囲内において様々な変更をなし得ることはいうまでもない。更に、上記実施形態は、あくまで発明の概要の欄に記載された発明の具体的な一形態に過ぎず、発明の概要の欄に記載された発明の要素を限定するものではない。
本開示の発明は、ロボットを利用する産業等において利用可能である。
1 ロボット、2 多関節アーム機構、3 アクチュエータ、4 視覚センサ、10 ロボット制御装置、20 平面認識処理部、21 マーカー認識部、22 平面領域推定部、30 テンプレート生成部、31 画像データベース、40 位置情報処理部、41 平面領域画像生成部、42 存否判定部、43 位置姿勢推定部、44 位置情報演算部、50 動作制御部、51 位置姿勢補正部、52 関節角度演算部、60 表示装置、100 試験管ラック、101 保持孔、M 画像マーカー、RD ロボット装置、TT 試験管。

Claims (8)

  1. 視覚センサを有するロボットの操作対象物を複数保管可能な保管部における前記操作対象物の位置情報を取得する位置情報取得装置であって、
    前記視覚センサにより取得された前記保管部の画像から前記保管部に付与された複数のマーカーの前記画像の平面座標系における2次元座標を取得すると共に、前記複数のマーカーの前記2次元座標から定まる平面領域の重心のセンサ座標系における3次元座標および回転姿勢を取得する第1座標姿勢取得部と、
    前記視覚センサにより取得された前記画像と、前記複数のマーカーの前記2次元座標とに基づいて、前記平面領域の画像を生成する平面領域画像生成部と、
    前記操作対象物を全数保管している前記保管部の複数の角度から撮影された複数の画像に基づいて、前記平面領域の前記重心の前記3次元座標および回転姿勢に対応した第1テンプレート画像を生成するテンプレート生成部と、
    前記平面領域の前記画像と前記第1テンプレート画像とのテンプレートマッチングにより前記操作対象物の存否を判別すると共に、前記保管部に存在する前記操作対象物ごとに、前記平面領域の前記画像と、平面視した前記保管部および前記操作対象物を示す第2テンプレート画像とのテンプレートマッチングにより得られる相関度が最大になる位置の前記平面座標系における2次元座標を取得し、取得した前記2次元座標に基づいて前記操作対象物の前記センサ座標系における3次元座標および回転姿勢を前記位置情報として取得する第2座標姿勢取得部と、
    を備える位置情報取得装置。
  2. 請求項1に記載の位置情報取得装置において、
    前記平面領域画像生成部は、前記視覚センサにより取得された画像を前記複数のマーカーの前記2次元座標に基づくホモグラフィ変換により正規化画像に変換すると共に、前記正規化画像を所定の色空間画像に変換することにより前記平面領域の前記画像を生成する位置情報取得装置。
  3. 請求項1または2に記載の位置情報取得装置において、
    前記第2座標姿勢取得部は、前記保管部に存在する前記操作対象物ごとに、前記平面領域の前記画像と、前記相関度が最大になる位置の前記2次元座標とに基づいて、同一円周上に位置するピクセルの輝度値の和を複数算出すると共に、前記輝度値の和が最大になる円周の中心の前記平面座標系における2次元座標を取得し、取得した前記2次元座標から前記操作対象物の前記センサ座標系における3次元座標および回転姿勢を取得する位置情報取得装置。
  4. 請求項1から3の何れか一項に記載の位置情報取得装置において、
    前記第2座標姿勢取得部は、前記保管部に存在する前記操作対象物ごとに、前記相関度に基づいて該相関度が最大になる位置からの距離が減少するにつれて値が小さくなる第1指標を複数算出し、算出した前記第1指標を視覚的に把握可能な態様で前記保管部を示す画像と共に表示装置に表示させる位置情報取得装置。
  5. 請求項4に記載の位置情報取得装置において、
    前記第2座標姿勢取得部は、前記保管部に存在する前記操作対象物ごとに、前記ロボットのロボットハンドの現在位置からの移動距離が長いほど小さくなると共に前記第1指標が大きいほど大きくなる第2指標を算出し、算出した前記第2指標に基づいて前記保管部に存在する前記操作対象物への前記ロボットハンドのアクセス順序を設定する位置情報取得装置。
  6. 請求項5に記載の位置情報取得装置において、
    前記第2座標姿勢取得部は、前記第2指標を視覚的に把握可能な態様で前記保管部を示す画像と共に前記表示装置に表示させる位置情報取得装置。
  7. 請求項1から6の何れか一項に記載の位置情報取得装置において、
    前記操作対象物は、開口が上方に位置するように前記保管部により保持される有底筒状の容器である位置情報取得装置。
  8. 請求項1から7の何れか一項に記載の位置情報取得装置を含むロボット制御装置であって、
    前記第2座標姿勢取得装置により取得された前記操作対象物の前記センサ座標系における3次元座標および回転姿勢に基づいて前記ロボットを制御するロボット制御装置。
JP2017216213A 2017-11-09 2017-11-09 位置情報取得装置およびそれを備えたロボット制御装置 Pending JP2019084645A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017216213A JP2019084645A (ja) 2017-11-09 2017-11-09 位置情報取得装置およびそれを備えたロボット制御装置
PCT/JP2018/041109 WO2019093299A1 (ja) 2017-11-09 2018-11-06 位置情報取得装置およびそれを備えたロボット制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017216213A JP2019084645A (ja) 2017-11-09 2017-11-09 位置情報取得装置およびそれを備えたロボット制御装置

Publications (1)

Publication Number Publication Date
JP2019084645A true JP2019084645A (ja) 2019-06-06

Family

ID=66437799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017216213A Pending JP2019084645A (ja) 2017-11-09 2017-11-09 位置情報取得装置およびそれを備えたロボット制御装置

Country Status (2)

Country Link
JP (1) JP2019084645A (ja)
WO (1) WO2019093299A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127575A1 (ja) * 2021-12-29 2023-07-06 川崎重工業株式会社 物体検出装置、ロボットシステム及び物体検出プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3842233B2 (ja) * 2003-03-25 2006-11-08 ファナック株式会社 画像処理装置及びロボットシステム
JP2011209958A (ja) * 2010-03-29 2011-10-20 Fuji Xerox Co Ltd 採取対象物品の認識構造及びこれを用いた採取情報認識装置並びに採取処理装置
JP5699697B2 (ja) * 2011-03-07 2015-04-15 セイコーエプソン株式会社 ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法
JP2015056057A (ja) * 2013-09-12 2015-03-23 トヨタ自動車株式会社 姿勢推定方法及びロボット
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP2017071033A (ja) * 2015-10-09 2017-04-13 キヤノン株式会社 作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127575A1 (ja) * 2021-12-29 2023-07-06 川崎重工業株式会社 物体検出装置、ロボットシステム及び物体検出プログラム

Also Published As

Publication number Publication date
WO2019093299A1 (ja) 2019-05-16

Similar Documents

Publication Publication Date Title
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
JP6331517B2 (ja) 画像処理装置、システム、画像処理方法、および画像処理プログラム
WO2015045834A1 (ja) マーカ画像処理システム
US9639942B2 (en) Information processing apparatus, information processing method, and storage medium
US11625842B2 (en) Image processing apparatus and image processing method
KR20170053585A (ko) 로봇 제어 장치 및 로봇 제어 방법
CN110977985A (zh) 一种定位的方法及装置
JP2013036988A (ja) 情報処理装置及び情報処理方法
CN110842901A (zh) 基于一种新型三维标定块的机器人手眼标定方法与装置
JPH06175715A (ja) 視覚センサ座標系設定治具及び設定方法
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2008309595A (ja) オブジェクト認識装置及びそれに用いられるプログラム
CN110853102A (zh) 一种新的机器人视觉标定及引导方法、装置及计算机设备
JP2015111128A (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
WO2019093299A1 (ja) 位置情報取得装置およびそれを備えたロボット制御装置
US20230321823A1 (en) Robot control device, and robot system
CN116867619A (zh) 示教装置
CN115082550A (zh) 从对象的相机图像中定位对象的位置的设备和方法
CN115674184A (zh) 基于机器人视觉的目标定位方法及装置
WO2022172471A1 (ja) 支援システム、画像処理装置、支援方法およびプログラム
CN114043531B (zh) 台面倾角确定、使用方法、装置、机器人和存储介质
US11348280B2 (en) Method and computer readable medium for pose estimation
WO2021177159A1 (ja) 機械学習装置