JP2022098073A - 三次元形状計測方法、三次元形状計測装置およびロボットシステム - Google Patents
三次元形状計測方法、三次元形状計測装置およびロボットシステム Download PDFInfo
- Publication number
- JP2022098073A JP2022098073A JP2020211405A JP2020211405A JP2022098073A JP 2022098073 A JP2022098073 A JP 2022098073A JP 2020211405 A JP2020211405 A JP 2020211405A JP 2020211405 A JP2020211405 A JP 2020211405A JP 2022098073 A JP2022098073 A JP 2022098073A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional shape
- camera
- resolution
- contour
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
【課題】装置の大型化を抑制することのできる三次元形状計測方法、三次元形状計測装置およびロボットシステムを提供すること。【解決手段】三次元形状計測方法は、カメラを用いて対象物の深度を計測する深度計測ステップと、前記カメラを用いて前記対象物の輪郭形状を検出する輪郭検出ステップと、前記深度および前記輪郭形状に基づいて前記対象物の物体認識を行う物体認識ステップと、を含み、前記深度計測ステップにおける前記カメラの解像度が前記輪郭検出ステップにおける前記カメラの解像度よりも低い。【選択図】図2
Description
本発明は、三次元形状計測方法、三次元形状計測装置およびロボットシステムに関する。
例えば、カメラを用いて対象物の三次元形状を計測する方法として、特許文献1に記載されているようなストラクチャードライト方式が知られている。ストラクチャードライト方式とは、対象物Xに対してパターン光をずらしながら複数回投影し、その都度、パターン光が投影された対象物を含む領域をカメラで撮像し、得られた複数の撮像画像に基づいて対象物Xの三次元形状計測を行う方式である。
ここで、例えばロボットの分野においては、上述したようなストラクチャードライト方式による対象物の形状認識に加えて、対象物の色情報が必要となる場合がある。そのような場合には、上記のカメラとは別に対象物の色情報を取得するためのカメラを別途配置する方法がある。しかしながら、このような方法では装置の大型化を招くおそれがある。
本発明の三次元形状計測方法は、カメラを用いて対象物の深度を計測する深度計測ステップと、
前記カメラを用いて前記対象物の輪郭形状を検出する輪郭検出ステップと、
前記深度および前記輪郭形状に基づいて前記対象物の物体認識を行う物体認識ステップと、を含み、
前記深度計測ステップにおける前記カメラの解像度が前記輪郭検出ステップにおける前記カメラの解像度よりも低い。
前記カメラを用いて前記対象物の輪郭形状を検出する輪郭検出ステップと、
前記深度および前記輪郭形状に基づいて前記対象物の物体認識を行う物体認識ステップと、を含み、
前記深度計測ステップにおける前記カメラの解像度が前記輪郭検出ステップにおける前記カメラの解像度よりも低い。
本発明の三次元形状計測装置は、カメラを用いて対象物の深度を計測し、前記カメラを用いて前記対象物の輪郭形状を検出し、前記深度および前記輪郭形状に基づいて前記対象物の物体認識を行い、
前記深度を計測する際の前記カメラの解像度が前記輪郭形状を検出する際の前記カメラの解像度よりも低い。
前記深度を計測する際の前記カメラの解像度が前記輪郭形状を検出する際の前記カメラの解像度よりも低い。
本発明のロボットシステムは、上述の三次元形状計測装置と、
ロボットと、
前記三次元形状計測装置の計測結果に基づいて前記ロボットの駆動を制御するロボット制御装置と、を備える。
ロボットと、
前記三次元形状計測装置の計測結果に基づいて前記ロボットの駆動を制御するロボット制御装置と、を備える。
以下、本発明の三次元形状計測方法、三次元形状計測装置およびロボットシステムを添付図面に示す実施形態に基づいて詳細に説明する。
図1は、第1実施形態に係るロボットシステムの全体構成を示す図である。図2は、三次元形状計測装置の全体構成を示す図である。図3は、投影部により投影されるパターン光の一例を示す平面図である。図4は、ビニング機能について説明する図である。図5は、対象物の一例を示す図である。図6は、ビニング機能について説明する図である。図7は、三次元形状計測装置の処理工程を示すタイミングチャートである。
図1に示すロボットシステム1は、ロボット2と、レーザー光LLを用いて対象物Xの物体認識を行う三次元形状計測装置4と、三次元形状計測装置4の計測結果に基づいてロボット2の駆動を制御するロボット制御装置5と、ロボット制御装置5と通信可能なホストコンピューター6と、を有する。これら各部は、有線または無線により通信可能とされている。通信は、インターネットのようなネットワークを介してなされてもよい。
-ロボット-
ロボット2は、例えば、精密機器やこれを構成する部品の給材、除材、搬送および組立等の作業を行うロボットである。ただし、ロボット2の用途としては、特に限定されない。ロボット2は、6軸ロボットであり、床、天井等に固定されたベース21と、ベース21に連結されたロボットアーム22と、を有する。
ロボット2は、例えば、精密機器やこれを構成する部品の給材、除材、搬送および組立等の作業を行うロボットである。ただし、ロボット2の用途としては、特に限定されない。ロボット2は、6軸ロボットであり、床、天井等に固定されたベース21と、ベース21に連結されたロボットアーム22と、を有する。
ロボットアーム22は、ベース21に対して第1軸O1まわりに回動自在に連結された第1アーム221と、第1アーム221に対して第2軸O2まわりに回動自在に連結された第2アーム222と、第2アーム222に対して第3軸O3まわりに回動自在に連結された第3アーム223と、第3アーム223に対して第4軸O4まわりに回動自在に連結された第4アーム224と、第4アーム224に対して第5軸O5まわりに回動自在に連結された第5アーム225と、第5アーム225に対して第6軸O6まわりに回動自在に連結された第6アーム226と、を有する。第6アーム226には、ロボット2に実行させる作業に応じたエンドエフェクター24が装着されている。
また、ロボット2は、ベース21に対して第1アーム221を回動させる第1駆動装置251と、第1アーム221に対して第2アーム222を回動させる第2駆動装置252と、第2アーム222に対して第3アーム223を回動させる第3駆動装置253と、第3アーム223に対して第4アーム224を回動させる第4駆動装置254と、第4アーム224に対して第5アーム225を回動させる第5駆動装置255と、第5アーム225に対して第6アーム226を回動させる第6駆動装置256と、を有する。第1~第6駆動装置251~256は、それぞれ、例えば、モーターと、モーターの駆動を制御するコントローラーと、モーターの回転量を検出するエンコーダーと、を有する。第1~第6駆動装置251~256の駆動は、ロボット制御装置5によって独立して制御される。
ロボット2としては、特に限定されず、例えば、ロボットアーム22が有するアームの数が1本~5本であってもよいし、7本以上であってもよい。また、例えば、ロボット2の種類は、スカラロボットや、2つのロボットアーム22を有する双腕ロボットであってもよい。また、床、天井等に固定されない自走式のロボットであってもよい。
-ロボット制御装置-
ロボット制御装置5は、ホストコンピューター6からロボット2の位置指令を受け、各アーム221~226が位置指令に応じた位置となるように第1~第6駆動装置251~256の駆動をそれぞれ独立して制御する。ロボット制御装置5は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部インターフェースと、を有する。メモリーにはプロセッサーにより実行可能な各種プログラムが保存され、プロセッサーは、メモリーに記憶された各種プログラム等を読み込んで実行する。
ロボット制御装置5は、ホストコンピューター6からロボット2の位置指令を受け、各アーム221~226が位置指令に応じた位置となるように第1~第6駆動装置251~256の駆動をそれぞれ独立して制御する。ロボット制御装置5は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部インターフェースと、を有する。メモリーにはプロセッサーにより実行可能な各種プログラムが保存され、プロセッサーは、メモリーに記憶された各種プログラム等を読み込んで実行する。
-三次元形状計測装置-
三次元形状計測装置4は、3D点群データに基づいて対象物Xの三次元形状を測定すると共に2D画像に基づいて対象物Xの輪郭形状を取得する。図2に示すように、三次元形状計測装置4は、対象物Xにレーザー光LLにより形成したパターン光PLを投影する投影部41と、対象物Xを撮像する撮像部46と、これら各部の駆動を制御する制御装置47と、を有する。また、制御装置47は、撮像部46で取得した画像に基づいて対象物Xの三次元形状を計測する三次元形状計測部471と、撮像部46で取得した画像に基づいて対象物Xの輪郭形状を検出する輪郭検出部472と、を有する。
三次元形状計測装置4は、3D点群データに基づいて対象物Xの三次元形状を測定すると共に2D画像に基づいて対象物Xの輪郭形状を取得する。図2に示すように、三次元形状計測装置4は、対象物Xにレーザー光LLにより形成したパターン光PLを投影する投影部41と、対象物Xを撮像する撮像部46と、これら各部の駆動を制御する制御装置47と、を有する。また、制御装置47は、撮像部46で取得した画像に基づいて対象物Xの三次元形状を計測する三次元形状計測部471と、撮像部46で取得した画像に基づいて対象物Xの輪郭形状を検出する輪郭検出部472と、を有する。
三次元形状計測装置4は、ロボット2の第5アーム225に固定されている。投影部41は、第5アーム225の先端側に向けてレーザー光LLを出射する。また、撮像部46は、第5アーム225の先端側を向き、パターン光PLの照射範囲を含む領域を撮像する。第5アーム225の先端側にエンドエフェクター24が位置する関係は、第5アーム225以外の第1~第4アーム221~224、第6アーム226がどのような姿勢の際にも維持される。そのため、第5アーム225に三次元形状計測装置4を固定することにより、三次元形状計測装置4は、常に、エンドエフェクター24の先端側にレーザー光LLを出射することができると共に、エンドエフェクター24の先端側を撮像することができる。したがって、エンドエフェクター24により対象物Xを把持しようとするときの姿勢、つまり、エンドエフェクター24が対象物Xに対して如何なる姿勢で対向しても、当該姿勢において対象物Xに向けてレーザー光LLを出射することができると共に、対象物Xを撮像することができる。
なお、三次元形状計測装置4の配置は、特に限定されず、例えば、第1~第4アーム221~224や第6アーム226に固定されていてもよい。また、三次元形状計測装置4は、ロボットアーム22以外の場所、例えば、ベース21、床、天井、壁等の可動しない部位に固定されていてもよい。
投影部41は、対象物Xに向けてレーザー光LLを照射することにより、対象物Xに対し図3に示す縞状のパターン光PLを投影する。投影部41は、図2に示すように、レーザー光LLを出射するレーザー光源42と、レーザー光源42から出射されたレーザー光LLが通過する複数のレンズを含む光学系43と、光学系43を通過したレーザー光LLを対象物Xに向けて走査する光走査部44と、を有する。レーザー光源42としては、例えば、垂直共振器面発光レーザー(VCSEL)、外部共振器型垂直面発光レーザー(VECSEL)等の半導体レーザーを用いることができる。
光学系43は、レーザー光源42から出射されるレーザー光LLを対象物X付近に集光する集光レンズ431と、集光レンズ431によって集光されたレーザー光LLを揺動軸Jと平行な方向すなわち図2の紙面奥行き方向に延びるライン状とするロッドレンズ432と、を有する。光走査部44は、揺動軸Jまわりに回動するミラー441を有し、このミラー441でレーザー光LLを反射することにより、ライン状のレーザー光LLを面状に走査する。これにより、簡単な構成で対象物X上にパターン光PLを投影することができる。光走査部44としては、特に限定されず、例えば、MEMS(Micro Electro Mechanical Systems)、ガルバノミラー、ポリゴンミラー等を用いることができる。
投影部41としては、対象物X上にパターン光PLを投影することができれば、特に限定されない。例えば、ロッドレンズ432ではなく、MEMSやガルバノミラーを用いて線状のレーザー光LLをライン状に拡散してもよい。つまり、2つの光走査部44を用いてレーザー光LLを二次元走査してもよい。また、例えば、2軸自由度を有するジンバル型の1つのMEMSを用いてレーザー光LLを二次元走査してもよい。
撮像部46は、対象物Xを撮像する。撮像部46は、CMOSイメージセンサー、CCDイメージセンサー等の撮像素子462および撮像素子462に集光させる集光レンズ463を備えたカメラとしてのモノクロカメラ461で構成されている。このように、モノクロカメラ461を用いることにより、例えば、RGBカラーカメラを用いた場合と比較して装置の小型化や高感度化を図ることができる。なお、モノクロカメラ461とは、実質的に単色の色で表現され、光度以外の情報を有さない画像(以下「モノクロ画像」とも言う)しか取得することのできないカメラを意味する。モノクロカメラ461で取得した画像は、三次元形状計測部471および輪郭検出部472に送信される。
制御装置47は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部インターフェースと、を有する。メモリーにはプロセッサーにより実行可能な各種プログラムが記憶されており、プロセッサーは、メモリーに記憶された各種プログラム等を読み込んで実行することができる。
制御装置47は、ストラクチャードライト方式を用いた位相シフト法により対象物Xの三次元形状を計測する。位相シフト法によれば、対象物Xの深度を精度よく計測することができるため、対象物Xの三次元形状を精度よく計測することができる。具体的には、制御装置47は、ミラー441の揺動と同期させてレーザー光源42からレーザー光LLを出射し、図3に示すような輝度値の明暗で表現した縞模様のパターン光PLを対象物X上にπ/2ずつ位相をずらして4回投影し、その都度、パターン光PLが投影された対象物Xを含む領域をモノクロカメラ461で撮像するように各部の駆動を制御する。三次元形状計測部471は、モノクロカメラ461で撮像された4枚の画像D1に基づいて3D点群データを生成し、生成した3D点群データに基づいて対象物Xの三次元形状計測を行う。具体的には、対象物Xの姿勢、空間座標等を含む三次元情報を算出する。以下では、対象物Xの深度に基づいて三次元形状を計測する工程を「深度計測ステップ」とも言う。
対象物Xの三次元形状を計測する方法としては、モノクロカメラ461を用いる方法であれば、特に限定されない。例えば、本実施形態では、パターン光PLを対象物X上にπ/2ずつ位相をずらして4回投影しているが、位相のずらし幅や投影回数は、特に限定されない。また、本実施形態では、1つの波長を有するパターン光PLを用いる「単数周期位相シフト法」を用いているが、これに限定されず、異なる周期を有する複数のパターン光PLを用いる「複数周期位相シフト法」を用いてもよい。位相シフト法においては、パターン光PLの周期が長い程、計測レンジが拡大するが深度分解能が低下し、パターン光PLの周期が短い程、計測レンジが縮小するが深度分解能が向上する。そこで、複数周期位相シフト法を用いることにより、広い計測レンジと高い深度分解能との両立を図ることができる。複数周期位相シフト法としては、特に限定されず、例えば、複数周期で周期毎に複数回計測する手法であってもよいし、複数周期で周期毎に異なった回数計測する手法であってもよい。また、位相シフト法以外の方法で対象物Xの三次元形状を計測してもよい。
また、制御装置47は、対象物Xの輪郭形状を検出する。具体的には、制御装置47は、ミラー441の揺動と同期させてレーザー光源42からレーザー光LLを出射し、レーザー光LLをベタに走査することにより対象物Xに光を照射し、光が照射された状態の対象物Xをモノクロカメラ461で撮像するように各部の駆動を制御する。これにより、光が照射された状態の対象物Xを含む画像D2が得られる。輪郭検出部472は、画像D2に基づいて対象物Xの輪郭形状を検出する。以下では、対象物Xの輪郭形状を検出する工程を「輪郭検出ステップ」とも言う。
以上のように、1台のモノクロカメラ461で対象物Xの三次元形状および輪郭形状を取得することにより、例えば、複数のカメラを用いる場合と比べて三次元形状計測装置4の小型化を図ることができる。
ここで、深度計測ステップでの三次元形状認識では、モノクロカメラ461に高い解像度がそれほど要求されない。必要以上に高い解像度のモノクロカメラ461を用いてしまうと、撮像素子462の画素サイズが小さくなり、その分、感度が低下して露光時間が長くなる。そのため、深度計測ステップにかかる時間が長くなる。一方、輪郭検出ステップでは、モノクロカメラ461の解像度が高い程、対象物Xの輪郭形状を鮮明に検出することができる。このように、深度計測ステップと輪郭検出ステップとでは、モノクロカメラ461に求められる最適な解像度が異なる。そこで、本実施形態では、深度計測ステップと輪郭検出ステップとでモノクロカメラ461の解像度を変化させ、それぞれのステップで最適な解像度となるようにする。
具体的には、深度計測ステップにおけるモノクロカメラ461の解像度を輪郭検出ステップにおけるモノクロカメラ461の解像度よりも低くする。これにより、深度計測ステップおよび輪郭検出ステップをそれぞれ精度よく行いつつ、画像D1を取得するのにかかる時間を短くし深度計測ステップにかかる時間を短縮することができる。なお、モノクロカメラ461の解像度を変化させる方法としては、特に限定されないが、モノクロカメラ461が有するビニング機能を用いることが好ましい。ビニング機能とは、撮像素子462内の隣り合う画素のいくつかをひとまとめにして1つの画素として扱う機能を意味する。これにより、解像度を簡単に変更することができる。
本実施形態の深度計測ステップでは、例えば、図4に示すように、隣り合う2×2、計4つの画素Pxを1つの画素Px’として扱う。これにより、1画素あたりの受光面積を仮想的に大きくすることができるため感度を高めることができる。そのため、モノクロカメラ461の露光時間をより短くすることができ、画像D1を取得するのにかかる時間がより短くなる。
なお、1つの画素Px’として取り扱う画素Pxの数や配置としては、特に限定されず、深度計測ステップにおいて求められるモノクロカメラ461の解像度や対象物Xの形状に基づいて適宜設定することができる。例えば、図5に示すように対象物Xが長尺状の場合等、細長い輪郭を検出する場合には、図6に示すように、対象物Xの延在方向に隣り合う2×1、計2つの画素Pxを1つの画素Px’として扱ってもよい。これにより、対象物Xの幅方向(短手方向)の解像度を落とすことなく延在方向(長手方向)の解像度を落とすことができる。このように、対象物Xの形状によって画素Px’のアスペクト比を設定し、縦横の解像度を異ならせてもよい。
一方、輪郭検出ステップでは、ビニング機能を用いずに1つの画素Pxをそのまま1つの画素として扱う。つまり、ネイティブ解像度で画像D2を取得する。これにより、高解像度の画像D2が得られ、対象物Xの輪郭形状を精度よく取得することができる。
制御装置47は、深度計測ステップで計測された対象物Xの三次元形状と、輪郭検出ステップで取得された対象物Xの輪郭形状と、に基づいて対象物Xの物体認識を行う。つまり、対象物Xの姿勢や位置を認識する。このように、対象物Xの三次元形状を表す3Dデータと対象物Xの輪郭形状を表す2Dデータとに基づくことにより、いずれか一方に基づく場合と比較してより精度よく対象物Xの物体認識を行うことができる。なお、以下では、対象物Xの物体認識を行う工程を「物体認識ステップ」とも言う。そして、制御装置47は、対象物Xの物体認識結果をホストコンピューター6に送信する。ホストコンピューター6は、受け取った対象物Xの物体認識結果に基づいて、ロボット2の位置指令を生成し、ロボット制御装置5に送信する。
なお、本実施形態では、三次元形状計測部471および輪郭検出部472が制御装置47に内蔵されているが、これに限定されず、例えば、少なくとも一方がホストコンピューター6やロボット制御装置5に内蔵されていてもよい。
また、深度計測ステップと輪郭検出ステップとの順番としては、特に限定されないが、図7に示すように、深度計測ステップを輪郭検出ステップよりも先に開始することが好ましい。図7では、まず、深度計測ステップを開始し、画像D1の取得が完了した後、モノクロカメラ461の解像度を変更した上で輪郭検出ステップを開始する。そして、モノクロカメラ461で画像D2を取得しつつ、画像D1に基づいて対象物Xの三次元形状を計測する。つまり、画像D2の取得と対象物Xの三次元形状計測とを並行して行う。その後、画像D2の取得が完了した後に画像D2に基づいて対象物Xの輪郭形状を取得する。三次元形状計測部471が対象物Xの三次元形状を計測するのにかかる処理時間の方が、輪郭検出部472が対象物Xの輪郭形状を取得するのにかかる処理時間よりも長くなり易い。そのため、このような順番とすることにより、全体にかかる処理時間を短縮することができる可能性がある。
なお、図7では、三次元形状計測が終了した後に対象物Xの輪郭形状の検出を開始しているが、これに限定されず、三次元形状計測が終了するのを待たずに輪郭形状の検出を開始してもよい。
以上、ロボットシステム1について説明した。このようなロボットシステム1で行われる三次元形状計測方法は、前述したように、カメラとしてのモノクロカメラ461を用いて対象物Xの深度を計測する深度計測ステップと、モノクロカメラ461を用いて対象物Xの輪郭形状を検出する輪郭検出ステップと、深度および輪郭形状に基づいて対象物Xの物体認識を行う物体認識ステップと、を含む。そして、深度計測ステップにおけるモノクロカメラ461の解像度が輪郭検出ステップにおけるモノクロカメラ461の解像度よりも低い。このような方法によれば、1台のモノクロカメラ461で対象物Xの三次元形状および輪郭形状を取得することができるため、複数台のカメラを用いる場合と比べて三次元形状計測装置4の小型化を図ることができる。また、深度計測ステップと輪郭検出ステップとでモノクロカメラ461の解像度を変更することにより、深度計測ステップおよび輪郭検出ステップをそれぞれ精度よく行いつつ、画像D1を取得するのにかかる時間を短くし深度計測ステップにかかる時間を短縮することができる。
また、前述したように、モノクロカメラ461は、ビニング機能を有し、ビニング機能により解像度を変更する。これにより、簡単な構成で解像度を変更することができる。
また、前述したように、深度計測ステップでは、ストラクチャードライト方式により深度を計測する。これにより、対象物Xの深度を精度よく計測することができる。
また、前述したように、深度計測ステップは、輪郭検出ステップよりも先に開始される。これにより、物体認識全体にかかる処理時間を短縮することができる可能性がある。
また、前述したように、三次元形状計測装置4は、カメラとしてのモノクロカメラ461を用いて対象物Xの深度を計測し、モノクロカメラ461を用いて対象物Xの輪郭形状を検出し、深度および輪郭形状に基づいて対象物Xの物体認識を行う。そして、深度を計測する際のモノクロカメラ461の解像度が輪郭形状を検出する際のモノクロカメラ461の解像度よりも低い。このような構成によれば、1台のモノクロカメラ461で対象物Xの三次元形状および輪郭形状を取得することができるため、複数台のカメラを用いる場合と比べて三次元形状計測装置4の小型化を図ることができる。また、深度計測ステップと輪郭検出ステップとでモノクロカメラ461の解像度を変更することにより、深度計測ステップおよび輪郭検出ステップをそれぞれ精度よく行いつつ、画像D1を取得するのにかかる時間を短くし深度計測ステップにかかる時間を短縮することができる。
また、前述したように、ロボットシステム1は、三次元形状計測装置4と、ロボット2と、三次元形状計測装置4の計測結果に基づいてロボット2の駆動を制御するロボット制御装置5と、を備える。そのため、ロボットシステム1は、三次元形状計測装置4の効果を享受することができる。つまり、1台のモノクロカメラ461で対象物Xの三次元形状および輪郭形状を取得することができるため、複数台のカメラを用いる場合と比べてロボットシステム1の小型化を図ることができる。また、深度計測ステップと輪郭検出ステップとでモノクロカメラ461の解像度を変更することにより、深度計測ステップおよび輪郭検出ステップをそれぞれ精度よく行いつつ、画像D1を取得するのにかかる時間を短くし深度計測ステップにかかる時間を短縮することができる。
<第2実施形態>
図8は、第2実施形態に係る三次元形状計測装置の構成を示す図である。図9は、三次元形状計測装置の処理工程を示すタイミングチャートである。
図8は、第2実施形態に係る三次元形状計測装置の構成を示す図である。図9は、三次元形状計測装置の処理工程を示すタイミングチャートである。
本実施形態のロボットシステム1は、三次元形状計測装置4の構成が異なること以外は、前述した第1実施形態のロボットシステム1と同様である。以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図8および図9において、前述した実施形態と同様の構成については、同一符号を付している。
図8に示す三次元形状計測装置4は、前述した第1実施形態の構成に加えてさらに照明45を有する。照明45は、例えば、LEDである。図9に示すように、照明45は、輪郭検出ステップにおいて対象物Xに光Lを照射する。前述した第1実施形態では、輪郭検出ステップにおいてレーザー光LLを走査することにより対象物Xに光Lを照射しているが、取得された画像D2にレーザー光LLの照射に起因するスペックルノイズが生じるおそれがある。そこで、本実施形態の輪郭検出ステップにおいては、レーザー光LLを対象物Xに走査するのではなく、照明45から対象物Xに向けて光Lを照射する。これにより、画像D2のスペックルノイズを低減することができる。
このような第2実施形態によっても前述した第1実施形態と同様の効果を発揮することができる。
<第3実施形態>
図10は、第3実施形態に係る三次元形状計測装置の構成を示す図である。図11は、三次元形状計測装置の処理工程を示すタイミングチャートである。
図10は、第3実施形態に係る三次元形状計測装置の構成を示す図である。図11は、三次元形状計測装置の処理工程を示すタイミングチャートである。
本実施形態のロボットシステム1は、三次元形状計測装置4の構成が異なること以外は、前述した第1実施形態のロボットシステム1と同様である。以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図10および図11において、前述した実施形態と同様の構成については、同一符号を付している。
図10に示す三次元形状計測装置4は、前述した第2実施形態と同様に輪郭検出ステップにおいて対象物Xに光を照射する照明45を有する。照明45は、互いに波長の異なる光を出射する複数の光源を有し、これら光源から時分割で対象物Xに向けて光を出射する。本実施形態の照明45は、3つの光源45r、45g、45bを有する。光源45rは、赤色光Lrを対象物Xに向けて出射し、光源45gは、緑色光Lgを対象物Xに向けて出射し、光源45bは、青色光Lbを対象物Xに向けて出射する。これにより、後述するように、輪郭検出ステップにおいてフルカラーの画像D2qを生成することができる。これら各光源45r、45g、45bとしては、特に限定されないが、例えば、LEDを用いることができる。
ただし、照明45が有する光源の波長(出射する光の色)や数としては、特に限定されない。また、照明45としては、例えば、白色光を出射する光源と、光源から出射された白色光を赤色光Lr、緑色光Lgおよび青色光Lbに時分割するカラーホイールと、を組合せた構成となっていてもよい。
制御装置47は、輪郭検出ステップにおいて、対象物Xの輪郭形状に加えて対象物Xの色情報を取得する。具体的には、制御装置47は、図11に示すように、照明45から赤色光Lr、緑色光Lg、青色光Lbを時分割で順に出射し、その都度、対象物Xを含む領域をモノクロカメラ461で撮像するように各部の駆動を制御する。これにより、赤色光Lrが照射された対象物Xの画像D2r、緑色光Lgが照射された対象物Xの画像D2gおよび青色光Lbが照射された対象物Xの画像D2bが得られる。なお、画像D2rでは、赤色光Lrが散乱する部分ほど白く映り、画像D2gでは、緑色光Lgが散乱する部分ほど白く映り、画像D2bでは、青色光Lbが散乱する部分ほど白く映る。
輪郭検出部472は、画像D2rに赤色を当てはめた画像と、画像D2gに緑色を当てはめた画像と、画像D2bに青色を当てはめた画像と、を合成してフルカラーの画像D2qを生成する。そして、輪郭検出部472は、画像D2qに基づいて対象物Xの輪郭形状を検出すると共に、対象物Xの色情報を取得する。なお、色情報は、例えば、形状が同じで色だけが異なる複数の対象物Xの中から、特定の色の対象物Xを選択するために用いられる。
このように、画像D2r、D2g、D2bを合成して生成されたフルカラーの画像D2qは、例えば、ベイヤー配列のRGBカラーカメラを用いて取得されたフルカラーの画像と比べて解像度が高く擬色の発生も少ない。したがって、より鮮明な画像D2qが得られ、対象物Xの輪郭形状および色情報を精度よく取得することができる。
なお、高精度の画像D2qを得るために、画像D2r、D2g、D2bのホワイトバランスを等しくすることが好ましい。画像D2r、D2g、D2bのホワイトバランスを等しくするために、例えば、画像D2r、D2g、D2b毎のモノクロカメラ461の露光時間を等しくし、赤色光Lr、緑色光Lg、青色光Lb毎に輝度を調節してもよいし、反対に、赤色光Lr、緑色光Lg、青色光Lbの輝度を等しくし、画像D2r、D2g、D2b毎にモノクロカメラ461の露光時間を調整してもよい。これら2つの方法の中でも画像D2r、D2g、D2b毎のモノクロカメラ461の露光時間を等しくする前者を用いることが好ましく、これにより、画像D2r、D2g、D2bを取得するのにかかる時間を短く抑えることができる。
以上のように、本実施形態の輪郭検出ステップでは、輪郭形状と共に対象物Xの色情報を取得する。これにより、対象物Xの物体認識の精度がより高まる。
また、前述したように、輪郭検出ステップでは、波長の異なる複数の光である赤色光Lr、緑色光Lg、青色光Lbを対象物Xに順に照射し、各赤色光Lr、緑色光Lg、青色光Lbが照射された対象物Xをモノクロカメラ461で撮像することにより得られた複数の画像D2r、D2g、D2bを合成することにより色情報を取得する。画像D2r、D2g、D2bを合成して得られる画像D2qは、例えば、カラーカメラで撮像された画像と比べて高解像度で擬色の発生が少ない。そのため、対象物Xの輪郭形状および色情報を精度よく取得することができる。
また、前述したように、輪郭検出ステップでは、複数の光として、赤色光Lr、緑色光Lgおよび青色光Lbを用いる。これにより、フルカラーの画像D2qが得られ、対象物Xの色情報をより正確に取得することができる。
このような第3実施形態によっても前述した第1実施形態と同様の効果を発揮することができる。
<第4実施形態>
図12は、第4実施形態に係る三次元形状計測装置の処理工程を示すタイミングチャートである。
図12は、第4実施形態に係る三次元形状計測装置の処理工程を示すタイミングチャートである。
本実施形態のロボットシステム1は、輪郭検出ステップにおいてもモノクロカメラ461の解像度を変更すること以外は、前述した第3実施形態のロボットシステム1と同様である。以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図12において、前述した実施形態と同様の構成については、同一符号を付している。
本実施形態では、輪郭検出ステップにおいて、画像D2gの解像度を画像D2r、D2bの解像度よりも高く設定する。例えば、図12に示す処理工程では画像D2r、D2bの解像度を深度計測ステップと同様の解像度(図4参照)、つまりネイティブ解像度の1/4とし、画像D2gを取得する際の解像度をネイティブ解像度としている。そして、画像D1を取得した後に、まず、画像D2r、D2bを取得し、その後にモノクロカメラ461の解像度を切り替えた上で画像D2gを取得することによりモノクロカメラ461の解像度の切り替えが1回で済み、処理全体にかかる時間を短縮することができる。画像D2r、D2g、D2bを合成して画像D2qを生成する際は、画像D2r、D2g、D2bの解像度を揃えるために、例えば、画像D2r、D2bに対して線形補正等による補間処理を行えばよい。
このように、画像D2gの解像度を画像D2r、D2bの解像度よりも高く設定するのは、人間の眼が赤色、緑色および青色の中で緑色の輝度変化(解像度)に最も敏感であるためである。そのため、画像D2qの視覚的な解像度が高められ、対象物Xの色情報をより精度よく取得することができる。また、画像D2r、D2bの解像度を低くすることにより、画像D2r、D2bを取得する際のモノクロカメラ461の感度を高めることができるため、画像D2r、D2bを取得する際の露光時間を短くすることができる。そのため、画像D2qを高品質に保ちつつ、処理全体にかかる時間を短縮することができる。
ただし、画像D1、D2r、D2g、D2bの解像度や取得順としては、特に限定されず、例えば、画像D1の解像度を画像D2r、D2bよりもさらに低くしてもよい。また、画像D2r、D2bの前に画像D2gを取得してもよい。
以上のように、本実施形態の三次元形状計測装置4では、緑色光Lgが照射された対象物Xを撮像することにより得られる画像D2gの解像度は、赤色光Lrが照射された対象物Xを撮像することにより得られる画像D2rの解像度および青色光Lbが照射された対象物Xを撮像することにより得られる画像D2bの解像度よりも高い。これにより、高品質な画像D2qを得つつ、処理全体にかかる時間を短縮することができる。
このような第4実施形態によっても前述した第1実施形態と同様の効果を発揮することができる。
以上、本発明の三次元形状計測方法、三次元形状計測装置およびロボットシステムを図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。
1…ロボットシステム、2…ロボット、21…ベース、22…ロボットアーム、221…第1アーム、222…第2アーム、223…第3アーム、224…第4アーム、225…第5アーム、226…第6アーム、24…エンドエフェクター、251…第1駆動装置、252…第2駆動装置、253…第3駆動装置、254…第4駆動装置、255…第5駆動装置、256…第6駆動装置、4…三次元形状計測装置、41…投影部、42…レーザー光源、43…光学系、431…集光レンズ、432…ロッドレンズ、44…光走査部、441…ミラー、45…照明、45b…光源、45g…光源、45r…光源、46…撮像部、461…モノクロカメラ、462…撮像素子、463…集光レンズ、47…制御装置、471…三次元形状計測部、472…輪郭検出部、5…ロボット制御装置、6…ホストコンピューター、D1…画像、D2…画像、D2b…画像、D2g…画像、D2q…画像、D2r…画像、J…揺動軸、L…光、LL…レーザー光、Lb…青色光、Lg…緑色光、Lr…赤色光、O1…第1軸、O2…第2軸、O3…第3軸、O4…第4軸、O5…第5軸、O6…第6軸、PL…パターン光、Px…画素、Px’…画素、X…対象物
Claims (10)
- カメラを用いて対象物の深度を計測する深度計測ステップと、
前記カメラを用いて前記対象物の輪郭形状を検出する輪郭検出ステップと、
前記深度および前記輪郭形状に基づいて前記対象物の物体認識を行う物体認識ステップと、を含み、
前記深度計測ステップにおける前記カメラの解像度が前記輪郭検出ステップにおける前記カメラの解像度よりも低いことを特徴とする三次元形状計測方法。 - 前記カメラは、ビニング機能を有し、
前記ビニング機能により前記解像度を変更する請求項1に記載の三次元形状計測方法。 - 前記輪郭検出ステップでは、前記輪郭形状と共に前記対象物の色情報を取得する請求項1または2に記載の三次元形状計測方法。
- 前記カメラは、モノクロカメラであり、
前記輪郭検出ステップでは、波長の異なる複数の光を前記対象物に順に照射し、各前記光が照射された前記対象物を前記モノクロカメラで撮像することにより得られた複数の画像を合成することにより前記色情報を取得する請求項1ないし3のいずれか1項に記載の三次元形状計測方法。 - 前記輪郭検出ステップでは、前記複数の光として、赤色光、緑色光および青色光を用いる請求項1ないし4のいずれか1項に記載の三次元形状計測方法。
- 前記緑色光が照射された前記対象物を撮像することにより得られる前記画像の解像度は、前記赤色光が照射された前記対象物を撮像することにより得られる前記画像の解像度および前記青色光が照射された前記対象物を撮像することにより得られる前記画像の解像度よりも高い請求項5に記載の三次元形状計測方法。
- 前記深度計測ステップでは、ストラクチャードライト方式により前記深度を計測する請求項1ないし6のいずれか1項に記載の三次元形状計測方法。
- 前記深度計測ステップは、前記輪郭検出ステップよりも先に開始される請求項1ないし7のいずれか1項に記載の三次元形状計測方法。
- カメラを用いて対象物の深度を計測し、前記カメラを用いて前記対象物の輪郭形状を検出し、前記深度および前記輪郭形状に基づいて前記対象物の物体認識を行い、
前記深度を計測する際の前記カメラの解像度が前記輪郭形状を検出する際の前記カメラの解像度よりも低いことを特徴とする三次元形状計測装置。 - 請求項9に記載の三次元形状計測装置と、
ロボットと、
前記三次元形状計測装置の計測結果に基づいて前記ロボットの駆動を制御するロボット制御装置と、を備えるロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020211405A JP2022098073A (ja) | 2020-12-21 | 2020-12-21 | 三次元形状計測方法、三次元形状計測装置およびロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020211405A JP2022098073A (ja) | 2020-12-21 | 2020-12-21 | 三次元形状計測方法、三次元形状計測装置およびロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022098073A true JP2022098073A (ja) | 2022-07-01 |
Family
ID=82165860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020211405A Pending JP2022098073A (ja) | 2020-12-21 | 2020-12-21 | 三次元形状計測方法、三次元形状計測装置およびロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022098073A (ja) |
-
2020
- 2020-12-21 JP JP2020211405A patent/JP2022098073A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6029394B2 (ja) | 形状測定装置 | |
JP6112807B2 (ja) | 形状測定装置、形状測定方法および形状測定プログラム | |
US7711179B2 (en) | Hand held portable three dimensional scanner | |
US10485402B2 (en) | Observation system | |
JP7090446B2 (ja) | 画像処理装置 | |
US20190390952A1 (en) | Three-Dimensional Measuring Device, Controller, And Robot System | |
WO2017183181A1 (ja) | 三次元形状測定装置 | |
JP2007163498A (ja) | 3次元形状測定装置及び方法 | |
JP7093915B2 (ja) | 表面形状測定方法 | |
JP6417645B2 (ja) | 表面形状測定装置のアライメント方法 | |
TWI687660B (zh) | 配光特性測定裝置以及配光特性測定方法 | |
JP2001523827A (ja) | 二波長光を用いた三角測量による三次元画像化 | |
US20200070370A1 (en) | Three-Dimensional Measuring Apparatus, Robot, And Robot System | |
JP2019168286A (ja) | 画像処理装置 | |
JP5956911B2 (ja) | 形状測定装置、形状測定方法および形状測定プログラム | |
JP2017037089A (ja) | 形状測定装置 | |
JP2022098072A (ja) | 三次元形状計測方法、三次元形状計測装置およびロボットシステム | |
JP2010019762A (ja) | 表面形状測定方法及び表面形状測定装置 | |
JP2020159730A (ja) | 三次元計測方法、三次元計測装置およびロボットシステム | |
JP2022098073A (ja) | 三次元形状計測方法、三次元形状計測装置およびロボットシステム | |
JP5540664B2 (ja) | 光軸調整システム、光軸調整装置、光軸調整方法、及びプログラム | |
JP6820516B2 (ja) | 表面形状測定方法 | |
JP2016106867A (ja) | 電子スコープ及び電子内視鏡システム | |
JP4248216B2 (ja) | 画像測定機のカラー画像作成装置およびカラー画像合成方法 | |
JP2017173259A (ja) | 計測装置、システム及び物品の製造方法 |