JP2022037856A - プログラム、方法、及びシステム - Google Patents

プログラム、方法、及びシステム Download PDF

Info

Publication number
JP2022037856A
JP2022037856A JP2021007023A JP2021007023A JP2022037856A JP 2022037856 A JP2022037856 A JP 2022037856A JP 2021007023 A JP2021007023 A JP 2021007023A JP 2021007023 A JP2021007023 A JP 2021007023A JP 2022037856 A JP2022037856 A JP 2022037856A
Authority
JP
Japan
Prior art keywords
sensing
abnormality
dimensional position
program
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021007023A
Other languages
English (en)
Inventor
俊二 菅谷
Shunji Sugaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2021007023A priority Critical patent/JP2022037856A/ja
Publication of JP2022037856A publication Critical patent/JP2022037856A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Figure 2022037856000001
【課題】外観検査において、作業員の負担を軽減させること。
【解決手段】プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムである。プログラムは、プロセッサに、物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップと、センシングデータに基づき、物体の異常を検出するステップと、検出した異常の3次元位置を特定するステップと、異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させるステップと、デバイスを3次元位置に到達させると、デバイスを稼働させるステップと、を実行させる。
【選択図】図1

Description

本開示は、プログラム、方法、及びシステムに関する。
従来、製造現場における製造工程の中には、物体を組み立てる工程、物体のボディを塗装する工程など様々な工程が含まれる。
塗装する工程では、例えば、ロボットアーム等を利用した複数の手順を経て物体の塗装を進める。そして、塗装が完了すると、製造物としての物体の最終確認が行われ、製造された物体に異常がないことが確認される。物体の外観検査中に、例えば、変色、ひび割れ、ほこりの付着、塗装ムラ等の異常が発見された場合、その異常が解消される補修がなされる。例えば、塗装ムラが発見された場合、塗装ムラのある領域をポリッシャーで磨くことで、その領域の塗装を均一にする。
特開2000-205846号公報
外観検査における、異常の検出、及び発見された異常の解消は、作業員の手により行われている。しかしながら、異常の検出、及び発見された異常の解消は、高い集中力を求められ、作業員の大きな負担となっている。
特許文献1では、光学的に塗装ムラを検出する検査方法・装置が開示されているが、塗装ムラ以外の検出については記載されていない。
本開示の目的は、外観検査において、作業員の負担を軽減させることである。
本開示の一態様は、プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムである。プログラムは、プロセッサに、物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップと、センシングデータに基づき、物体の異常を検出するステップと、検出した異常の3次元位置を特定するステップと、異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させるステップと、デバイスを3次元位置に到達させると、デバイスを稼働させるステップと、を実行させる。
本発明のプログラムによれば、作業員の負担を軽減させることができる。
本実施形態に係るシステムの全体構成を示す図である。 制御装置の構成を示すブロック図である。 異常部の3次元位置情報のデータ構造を示す図である。 システムにより、物体の塗装面における異常を検知し、検知した異常を解消する流れを説明するための図である。 物体の塗装面における異常部を表す模式図である。 産業用ロボットの動作を説明するための図である。 変形例1に係るシステムの構成を示す図である。 変形例2に係るシステムの構成を示す図である。 変形例3に係るシステムの構成を示す図である。 変形例4に係るシステムの構成を示す図である。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
<概要>
本実施形態に係るシステム1は、例えば、塗装された物体の塗装面を検査し、塗装面に異常が生じている場合に、異常を解消するための作業を行うシステムである。システム1は、例えば、自動車の製造ラインで用いられる。
<全体構成>
図1は、本実施形態に係るシステム1の全体構成を示す図である。図1に示すシステム1は、物体100の塗装面を検査する。物体100は、図示を簡略化しているが、例えば自動車のボディの外板等のように、塗装工程を終え、外観検査を控えたワークである。なお、物体100は、自動車のボディの外板に限られず、外観検査を控える様々なワークが想定される。
システム1は、センシングユニット10、産業用ロボット20、制御装置30、及び表示装置40を備えている。センシングユニット10、産業用ロボット20、及び制御装置30は、相互に通信可能にネットワーク50に接続されている。センシングユニット10、産業用ロボット20、及び制御装置30のネットワーク50との接続は、有線であっても無線であっても構わない。また、センシングユニット10、及び産業用ロボット20が、ネットワーク50を介さずに制御装置30と接続されていてもよい。制御装置30は、表示装置40と有線又は無線により接続されている。なお、制御装置30と、表示装置40とはネットワーク50を介して接続されていてもよい。
センシングユニット10は、物体100に対して電磁波を用いたセンシングを行う。センシングユニット10は、センシングを行うセンシングモジュール(センシング手段)11と、センシングモジュール11の位置を制御するアクチュエータ(図示せず)と、を備えている。
センシングモジュール11は、予め設定された帯域の電磁波を用いて物体100をセンシングする。センシングモジュール11には、例えば、予め設定された帯域の電磁波を用いて実現される、以下のいずれかのデバイスが想定される。
・可視光カメラ
・赤外線カメラ
・紫外線カメラ
・超音波センサ
・RGB-Dカメラ
・LiDAR(Light Detection and Ranging)
センシングモジュール11は、物体100の塗装面に発生し得る異常の3次元位置を取得可能なように、物体100の周囲に複数配置されている。例えば、センシングモジュール11は、物体100の所定の面を、異なる方向から同時にセンシング可能な位置に配置されている。図1に示す例では、2台のセンシングモジュール11が、物体100の周囲に配置されているが、物体100の周囲に配置されるセンシングモジュール11の数は、3台以上であってもよい。
センシングユニット10は、センシングモジュール11により取得したセンシングデータを制御装置30へ送信する。
センシングユニット10のアクチュエータとしては、例えばセンシングモジュール11の位置をXY軸に沿って移動可能な直交ロボットが用いられる。直交ロボットの挙動は、制御装置30により制御される。なお、アクチュエータは、例えば、センシングモジュール11を一軸に沿って移動可能な単軸ロボットであってもよい。
産業用ロボット20は、例えば、垂直多関節ロボットである。産業用ロボット20は、例えば、多関節のロボットアーム21と、ロボットアーム21の先端に搭載されたエンドエフェクタ22と、を備えている。産業用ロボット20は、制御装置30と通信接続されている。
ロボットアーム21は、制御装置30からの制御に従って駆動する。具体的には、ロボットアーム21は、関節にモーターが設けられ、モーターの力で関節を稼働させることで腕部分を移動させる。
エンドエフェクタ22は、所定の処理を実施するデバイスである。本実施形態においては、物体100の塗装面に生じた異常を解消するためのデバイスである。エンドエフェクタ22は、ロボットアーム21により、所望の位置へ移動される。エンドエフェクタ22としては、例えば、塗装後の外板に生じた塗装ムラ(異常)を磨くことで解消する電動ポリッシャーが挙げられる。なお、エンドエフェクタ22は、物体100の塗装面に生じた異常を解消できるデバイスであれば、電動ポリッシャーに限定されない。
制御装置30は、システム1における各装置の動作を制御する。
表示装置40は、制御装置30が処理した情報をユーザに提示する。
<制御装置の構成>
次に制御装置30の構成について説明する。
図2は、制御装置30の構成を示すブロック図である。図2に示す制御装置30は、プロセッサ31と、記憶装置32と、通信インタフェース33と、入出力インタフェース34とを備えている。
記憶装置32は、種々の情報を記憶するHDD(hard disk drive)、又はSSD(solid state drive)等の不揮発性の記憶回路により実現される。記憶装置32は、プロセッサ31で実行される各種のプログラム、及び、プログラム等で処理されるデータ等を記憶している。例えば、記憶装置32は、後述する3次元位置情報を記憶する。
また、記憶装置32は、例えば、機械学習により生成された複数の学習済みモデルを記憶している。第1学習済みモデルは、例えば、物体100の塗装面の異常を検出するためのモデルである。第2学習済みモデルは、例えば、産業用ロボット20の動作を制御するためのモデルである。第1学習済みモデル、第2学習済みモデルは、制御装置30の出荷時に予め記憶されていてもよいし、出荷後にネットワーク50を介して、又は記憶媒体を介してインストールされても構わない。
第1学習済みモデル、第2学習済みモデルは、学習用データに基づき、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることにより得られる。
例えば、本実施形態において、第1学習済みモデルは、入力されるセンシングデータに対し、塗装面の異常を出力するように学習されている。このとき、学習用データは、例えば、物体についての複数のセンシングデータを入力データとし、この入力データに含まれ得る異常についての判断を正解出力データとする。
また、例えば、第2学習済みモデルは、入力される3次元位置情報に対し、産業用ロボット20の制御パラメータを出力するように学習されている。このとき、学習用データは、例えば、所定の3次元形状を有する物体についての位置情報を入力データとし、この入力データに対してエンドエフェクタ22がアクセス可能なロボットアーム21の制御パラメータを正解出力データとする。これにより、ロボットアーム21の形状と、物体100の3次元形状とを考慮して、入力された3次元位置へエンドエフェクタ22が到達可能なパラメータが設定されることになる。つまり、エンドエフェクタ22が3次元位置へ到達する過程において、ロボットアーム21と物体100とが接触せずに、ロボットアーム21を駆動させるパラメータが設定されることになる。
通信インタフェース33は、例えば、ネットワーク50と接続する回路により実現される。具体的には、例えば、通信インタフェース33は、5G、4G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ等の通信機器と接続する回路により実現される。制御装置30がセンシングユニット10、又は産業用ロボット20と直接通信接続する場合には、センシングユニット10、又は産業用ロボット20と通信接続可能な回路により実現される。
入出力インタフェース34は、ユーザからの入力を受け付ける入力装置、及び表示装置40と接続するためのインタフェースである。入力装置は、例えば、タッチパネル、タッチパッド、マウス等のポインティングデバイス、キーボード等により実現される。
プロセッサ31は、制御装置30の中枢として機能する。プロセッサ31は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。プロセッサ31は、記憶装置32に記憶されているプログラムを読み出して実行することで、プログラムに対応する種々の機能を実現する。例えば、プロセッサ31は、記憶装置32に記憶されるプログラムを実行することで、第1制御部31A、取得部31B、検出部31C、位置特定部31D、第2制御部31Eとしての機能を実現する。
第1制御部31Aは、センシングユニット10を制御する。例えば、第1制御部31Aは、センシングモジュール11を適切な位置へ移動させるように、センシングユニット10のアクチュエータへ駆動信号を送信する。
第1制御部31Aは、例えば、センシングモジュール11へ駆動信号を送信し、センシングモジュール11によるセンシングを開始させる。第1制御部31Aは、センシングモジュール11により物体100のセンシングを行い、センシングデータを取得させる。
具体的には、例えば、第1制御部31Aは、図1において2台のセンシングモジュール11を略同時に駆動させ、物体100の塗装面を異なる方向からセンシングさせる。この際、第1制御部31Aは、アクチュエータを駆動させながら、センシングモジュール11にセンシングさせてもよい。つまり、第1制御部31Aは、動画としてのセンシングデータを取得するようにセンシングユニット10を制御してよい。また、第1制御部31Aは、アクチュエータを駆動させるときにはセンシングを停止させ、センシングしているときにはアクチュエータを停止させるようにしてもよい。つまり、第1制御部31Aは、複数の静止画としてのセンシングデータを取得するようにセンシングユニット10を制御してよい。
取得部31Bは、センシングデータに基づき、物体100の3次元形状を取得する。具体的には、取得部31Bは、物体100を複数の方向からセンシングしたセンシングデータと、センシングデータを取得した複数のセンシングモジュール11の位置と、物体100の位置とに基づき、物体100の3次元形状を算出する。図1に示す例では、センシングモジュール11が2台配置されるため、センシングモジュール11及び物体100を動かさずに複数方向からのセンシングデータを取得することが可能である。取得部31Bは、取得した3次元形状についての情報を記憶装置32に記憶させる。
検出部31Cは、センシングデータに基づき、物体100の塗装面に発生している異常を検出する。本実施形態において、異常とは、例えば、変色、ひび割れ、ほこりの付着、塗装ムラ等を表す。以下の説明において、物体100の塗装面において異常が発生した部位を異常部と称する。
具体的には、検出部31Cは、例えば、第1学習済みモデルを利用して異常を検出する。検出部31Cは、センシングユニット10により取得されたセンシングデータを第1学習済みモデルに入力し、センシングデータに含まれている異常部を出力させる。
位置特定部31Dは、検出した異常部の3次元空間における位置を特定する。具体的には、例えば、位置特定部31Dは、物体100の3次元形状と照らし合わせ、物体100における異常部の3次元位置を特定する。異常部の3次元位置は、例えば、物体100の所定位置を基準とした所定の座標系における座標で表される。所定の座標系は、例えば、直交座標系、又は極座標系統である。異常部の3次元位置は、例えば、工場内の所定位置、又は、産業用ロボット20の所定位置等を基準として特定されてもよい。位置特定部31Dは、特定した3次元位置についての情報を記憶装置32に記憶させる。
第2制御部31Eは、産業用ロボット20を制御する。例えば、第2制御部31Eは、エンドエフェクタ22が所定の位置へ到達するように、ロボットアーム21のサーボモーターへ駆動信号を送信する。また、第2制御部31Eは、例えば、エンドエフェクタ22へ駆動信号を送信し、エンドエフェクタ22による処理を開始させる。
具体的には、第2制御部31Eは、位置特定部31Dで特定した異常部の3次元位置へエンドエフェクタ22を到達させるためにロボットアーム21に入力するパラメータを設定する。
このとき、第2制御部31Eは、異常部の3次元位置情報を第2学習済みモデルへ入力し、産業用ロボット20の制御パラメータを出力させる。第2制御部31Eは、第2学習済みモデルから出力されたパラメータをロボットアーム21へ送信する。第2制御部31Eは、エンドエフェクタ22が特定した3次元位置に到達すると、エンドエフェクタ22を稼働させる。
例えば、異常が塗装ムラであり、エンドエフェクタ22が電動ポリッシャーである場合、電動ポリッシャーが回転しながら異常部に接触することで、塗装ムラが存在している領域が研磨され、塗装ムラが解消される。
<データ構造>
次に、記憶装置32で記憶される情報のデータ構造について説明する。
図3は、異常部の3次元位置情報のデータ構造を示す図である。なお、図3は一例であり、記載されていないデータを除外するものではない。
図3に示すように、位置情報DBのレコードの各々は、項目「異常ID」、項目「物体ID」、項目「年月日」、項目「位置情報」等を含む。
項目「異常ID」は、発生した異常を識別するためのIDを記憶する。
項目「物体ID」は、異常が発生した物体100を識別するためのIDを記憶する。
項目「年月日」は、異常が発生した年月日を記憶する。
項目「位置情報」は、発生した異常の3次元位置を記憶する。図3では、直交座標系における3次元位置が記憶される例が示されているが、位置情報DBに記憶される位置情報は直交座標系によるものに限定されない。
<動作>
次に、システム1の処理について説明する。
図4は、システム1により、物体100の塗装面における異常を検知し、検知した異常を解消する流れの一例を説明するための図である。
図4に示すように、まず、制御装置30の第1制御部31Aは、センシングユニット10を制御する(ステップS301)。例えば、第1制御部31Aは、センシングユニット10のアクチュエータ、及びセンシングモジュール11へ駆動信号を送信する。
センシングユニット10のアクチュエータは、制御装置30からの駆動信号に従い、センシングモジュール11を適切な位置へ移動させる。センシングモジュール11は、センシングユニット10からの駆動信号に従い、センシングを開始する(ステップS101)。図1で示す2台のセンシングモジュール11は、それぞれ別の方向から物体100をセンシングする。センシングユニット10は、センシングモジュール11のセンシングにより取得したセンシングデータを制御装置30へ送信する(ステップS102)。
センシングユニット10からセンシングデータを受信すると、制御装置30の取得部31Bは、物体100の3次元形状を取得する(ステップS302)。具体的には、取得部31Bは、センシングモジュール11により取得されたセンシングデータと、センシングモジュール11がセンシングデータを取得した位置と、物体100の位置とに基づき、物体100の3次元形状を算出する。取得部31Bは、取得した3次元形状についての情報を記憶装置32に記憶させる。
ステップS302の後に、検出部31Cが物体100の塗装面における異常を検出する(ステップS303)。具体的には、検出部31Cは、センシングモジュール11により取得されたセンシングデータを第1学習済みモデルに入力し、センシングデータに含まれている異常部を出力させる。
検出部31Cで異常部を検出すると、位置特定部31Dは、異常部の位置を特定する(ステップS304)。例えば、位置特定部31Dは、物体100の3次元形状と照らし合わせ、物体100における異常部の3次元位置を特定する。このとき、位置特定部31Dは、例えば、異常部の3次元位置を、物体100の所定位置を基準とした直交座標系における座標で表す。
位置特定部31Dで異常部の位置を特定すると、第2制御部31Eは、産業用ロボット20を制御する(ステップS305)。例えば、第2制御部31Eは、異常部の3次元位置情報を第2学習済みモデルへ入力し、異常部へ産業用ロボット20のエンドエフェクタ22を到達させるための制御パラメータを出力させる。第2制御部31Eは、制御パラメータを指示するための駆動信号を産業用ロボット20のロボットアーム21へ送信する。また、第2制御部31Eは、エンドエフェクタ22の処理を開始させるための駆動信号をエンドエフェクタ22へ送信する。
ロボットアーム21は、制御装置30からの駆動信号に従った位置へエンドエフェクタ22を到達させる(ステップS201)。エンドエフェクタ22は、センシングユニット10からの駆動信号に従い、到達した位置での処理を開始する(ステップS202)。
図5は、物体100の塗装面における異常部の例を表す模式図である。図6は、産業用ロボット20の動作を説明するための模式図である。図5に示すように物体100の塗装面に異常部Bが検出された場合、位置特定部31Dは、異常部Bの3次元位置を特定する。第2制御部31Eは、特定した3次元位置に基づいてロボットアーム21の制御パラメータを算出し、算出した制御パラメータに基づいてロボットアーム21を制御することで、図6に示すように、エンドエフェクタ22を異常部Bへ到達させる。第2制御部31Eは、エンドエフェクタ22を異常部Bへ到達させると、エンドエフェクタ22である電動ポリッシャーを稼働させ、異常部Bを研磨する。これにより、エンドエフェクタ22である電動ポリッシャーによる研磨により、塗りムラは解消される。
エンドエフェクタ22により異常部Bへの処理が終了すると、制御装置30は、図4に示すステップS301、S303の処理を実施し、物体100の塗装面の異常が解消されたか否かを確認する。異常が解消されていない場合、制御装置30は、図4に示すステップS304、S305の処理を実施し、異常の解消を図る。ステップS301、S303~S305の処理は、例えば、適切な修復作業が確認されるまで、繰り返し実施されてもよい。
なお、上記の処理に限られず、各処理のステップは、各処理の流れが矛盾しない範囲で任意に変更可能である。
例えば、図4に示す例では、ステップS302での物体100の3次元形状の取得と、ステップS303での物体100における異常の検出とが一連のフローの中で実施される場合を説明した。しかしながら、制御装置30は、ステップS302での物体100の3次元形状の取得と、ステップS303での物体100における異常の検出とを別々のフローで実施してもよい。
以上説明したように、本実施形態では、制御装置30は、センシングモジュール11により物体100の外観のセンシングを行い、物体100の3次元形状を取得する。また、制御装置30は、センシングデータに基づいて異常を検出し、検出した異常の3次元位置を特定する。そして、制御装置30は、異常が発生した位置にエンドエフェクタ22を到達させて駆動させることにより、物体100の外観に生じた異常を修復するようにしている。これにより、制御装置30は、物体100における異常を自動的に検出し、検出した異常を自動的に補修することが可能となる。
したがって、本実施形態に係るシステム1によれば、外観検査において、作業員の負担を軽減させることができる。
また、本実施形態では、取得部31Bは、物体100を複数の方向からセンシングしたセンシングデータに基づいて物体100の3次元形状を取得するようにしている。これにより、制御装置30は、物体100の3次元形状を正確に取得することが可能となる。
また、本実施形態では、検出部31Cは、物体に対するセンシングデータを入力とし、異常の有無を出力するように学習された学習済みモデルを利用して、異常を検出するようにしている。これにより、作業員によらずに、精度の高い異常の検出を行うことが可能となる。
また、本実施形態では、第2制御部31Eは、異常の3次元位置を入力とし、3次元位置に対するエンドエフェクタ22の位置を出力するように学習された学習済みモデルを利用して、ロボットアーム21を移動させるようにしている。これにより、作業員によらずに、エンドエフェクタ22を異常の発生した位置に高精度に到達させることが可能となる。
また、本実施形態では、エンドエフェクタ22を稼働させた後に、適切な修復作業が行われたかどうかの確認作業を行うので、発生した異常を高精度に解消することが可能となる。
<変形例1>
次に、システム1の変形例1について説明する。上記実施形態では、センシングモジュール11が2台配置される場合を説明した。変形例1では、センシングモジュール11が1台の場合について説明する。
図7は、変形例1に係るシステム1の構成を示す図である。なお図7では、システム1のうち、制御装置30、表示装置40、及びネットワーク50の図示を省略している。図7に示すシステム1は、センシングユニット10を1つ備えている。また、物体100は、例えば、回転自在なステージ60に載置されている。
変形例1において第1制御部31Aは、センシングユニット10、及びステージ60を制御する。具体的には、例えば、第1制御部31Aは、物体100に対してセンシングモジュール11を相対的に移動させるように、センシングユニット10のアクチュエータを制御するか、ステージ60を回転させる。
第1制御部31Aは、物体100に対してセンシングモジュール11を相対的に移動させる前と、後とで物体100の塗装面をセンシングモジュール11にセンシングさせる。このとき、第1制御部31Aは、物体100の3次元形状を取得するため、第1制御部31Aは、最初のセンシングと、2回目のセンシングとの間で、物体100に対して所定の角度だけ間隔が開くようにしている。これにより、物体100の塗装面に関する、異なる方向についてのセンシングデータが取得される。
取得部31Bは、物体100を複数の方向からセンシングしたセンシングデータと、センシングデータを取得した際の物体100に対するセンシングモジュール11の位置と、物体100の位置とに基づき、物体100の3次元形状を算出する。
変形例1における制御装置30は、図4に示す動作と同様にステップS301~S305の動作を実施する。ただし、ステップS301において、第1制御部31Aは、センシン
グユニット10のアクチュエータの制御に代えて、ステージ60を回転させてもよい。これにより、ステップS101において、2方向からのセンシングデータが取得されることになる。
以上のように、変形例1に係る制御装置30は、1台のセンシングモジュール11を用い、物体100に対してセンシングモジュール11を移動させることで、物体100の塗装面について異なる方向からセンシングデータを取得する。そして、制御装置30は、取得したセンシングデータに基づいて物体100の塗装面の異常を検出し、検出した異常を、産業用ロボット20を用いて解消するようにしている。これにより、センシングモジュール11が1台である場合であっても、物体100の異常を正確に検出し、異常を解消することが可能となる。
<変形例2>
次に、システム1の変形例2について説明する。上記実施形態では、特別な照明を用いずに物体100を検査する場合を例に説明した。変形例2では、所定の波長の光を発する照明を利用する場合について説明する。
図8は、変形例2に係るシステム1の構成を示す図である。なお図8では、システム1のうち、制御装置30、表示装置40、及びネットワーク50の図示を省略している。
図8に示すシステム1は、光源である照明70を備えている。照明70は、所定の波長の光を発生させる。照明70から発せられる光は、例えば、全ての波長の光が含まれた白色光である。照明70は、物体100の表面で反射した反射光の乱反射が発生しにくい光量で光を発生させる。照明70で発せられた光は、物体100に照射される。
変形例2において、センシングモジュール11は、照明70から発せられる波長の光をセンシングする。照明70から発せられる光が白色光である場合、センシングモジュール11は、例えば、可視光をセンシングする。
変形例2における制御装置30は、図4に示す動作と同様にステップS301~S305の動作を実施する。
以上のように、変形例2に係るシステム1では、照明70が所定の波長の光を照射し、物体100での反射光をセンシングモジュール11がセンシングする。そして、制御装置30は、取得したセンシングデータに基づいて物体100の塗装面の異常を検出し、検出した異常を、産業用ロボット20を用いて解消するようにしている。これにより、軽微な塗装ムラのように、自然光におけるセンシングでは差異が確認しづらい異常も精度よく検出可能となる。
なお、変形例2では、光を照射する際に、照明70を、物体100に対して相対的に移動させてもよい。このとき、センシングモジュール11を、物体100に対して相対的に移動させてもよいし、移動させなくてもよい。照明70を物体100に対して相対的に移動させることにより、光の反射が変化するため、異常を検出する精度がさらに向上する。
また、変形例2では、照明70は、光を物体100へ照射する際、照射する光の波長を切り替えてもよい。このとき、センシングユニット10は、光の波長と対応する複数のセンシングモジュール11を備えていてもよい。
これにより、発せられる光の波長に合わせてセンシングモジュール11も切り替えることが可能となるため、多様なセンシングを行うことが可能となる。
<変形例3>
次に、システム1の変形例3について説明する。変形例3では、特定された異常部の3次元位置が、ユーザにより所有される端末で共有される場合について説明する。
図9は、変形例3に係るシステム1の構成を示す図である。図9に示すシステム1は、端末装置80を有している。端末装置80は、例えば、ヘッドマウントディスプレイ、スマートフォン、又はタブレット端末等の携行性を備えたコンピュータにより実現される。端末装置80は、現実の画像、又は風景に、所望の映像を重畳することで、知覚可能な現実環境を拡張する機能を有する。ヘッドマウントディスプレイとしての端末装置80は、一般にAR(Augmented Reality)グラスと称される。端末装置80は、通信機能と、通信機能により取得した情報を現実の画像、又は風景に重畳表示する表示機能を備えている。
制御装置30は、記憶装置32に記憶される、物体100の異常部の3次元位置に関する情報を、ネットワーク50を介して端末装置80に送信する。すなわち、制御装置30は、図4に示すステップS301~S304の処理により特定した異常の3次元位置に関する情報を、端末装置80へ送信する。
端末装置80は、取得した3次元位置に関する情報に基づき、端末装置80を介した視認方向に異常部が含まれるか否かを判断する。視認方向に異常部が捉えられる場合、端末装置80は、ディスプレイにおける異常部と対応する位置に、異常が発生していることを表す情報を重畳表示する。なお、異常部が直視できない状況、つまり、異常部が所定の構造体の陰に隠れている場合であっても、方向が捉えられていれば、異常発生を表す情報が重畳される。異常が発生していることを表す情報とは、異常部の位置を表す情報、検出された日時を表す情報、異常の程度を表す情報、異常が発生したラインを表す情報、異常が発生した物体を表す情報等を含む。
具体的には、例えば、端末装置80がARグラスである場合、端末装置80は、レンズを介した視認方向に異常部が含まれるか否かを判断する。視認方向に異常部が捉えられる場合、端末装置80は、レンズ上において異常部と対応する位置に、異常が発生していることを表す情報を重畳表示する。これにより、端末装置80のユーザは、端末装置80を介して物体100を視認した際に、物体100の異常が生じている部分に、その旨の表示が示された映像が拡張現実として視認できるようになる。
以上のように、変形例3に係る制御装置30は、特定した異常部の3次元位置に関する情報を、端末装置80に拡張現実として表示させるようにしている。これにより、物体100における異常部の位置を即座に把握することが可能になり、異常の程度の確認、修復作業の検討、又は工数の見積等を効率的に行うことが可能となる。
<変形例4>
次に、システム1の変形例4について説明する。変形例4では、センシングユニット10のアクチュエータがロボットアーム12である場合について説明する。
図10は、変形例4に係るシステム1の構成を示す図である。図10に示すシステム1は、ロボットアーム12の先端にセンシングモジュール11が配置されたセンシングユニット10aを2台有している。なお、システム1が有するセンシングユニット10aは1台でもよいし、3台以上であってもよい。
変形例4において第1制御部31Aは、センシングユニット10aを制御する。具体的には、例えば、第1制御部31Aは、物体100に対してセンシングモジュール11を相対的に移動させるように、ロボットアーム12のサーボモーターを制御する。より具体的には、第1制御部31Aは、センシングモジュール11が、物体100の運動を規則的な運動、例えば、等速直線運動、等加速度運動等として捉えられるように、ロボットアーム12を制御する。
なお、物体100が配置されるステージ61は、停止と移動とを繰り返しながら、物体100を所定の方向へ搬送するようにしてもよい。第1制御部31Aは、ステージ61が停止と移動とを繰り返す場合であっても、センシングモジュール11が、物体100の運動を規則的な運動として捉えられるように、ロボットアーム12を制御してセンシングモジュール11を移動させる。
変形例4における制御装置30は、図4に示す動作と同様にステップS301~S304の動作を実施する。
以上のように、変形例4に係る制御装置30は、ロボットアーム12に取り付けられたセンシングモジュール11により物体100の塗装面をセンシングする。そして、制御装置30は、取得したセンシングデータに基づいて物体100の塗装面の異常を検出するようにしている。ロボットアーム12にセンシングモジュール11を取り付けることで、センシングモジュール11の位置を精緻に制御することが可能となる。これにより、物体100の異常を検出する精度が向上することになる。
また、変形例4では、センシングモジュール11が、物体100の運動を規則的な運動、例えば、等速直線運動、等加速度運動等として捉えられるように、ロボットアーム12の動きを制御するようにしている。これにより、物体100の異常も規則的に運動するようになるため、誤検出を抑えられ、異常の検出精度が向上することになる。
<その他の変形例>
次に、その他の変形例について説明する。
上記実施形態では、制御装置30に検出部31Cが含まれ、検出部31Cにより、センシングデータに基づいて物体100の異常が検出される場合を例に説明した。しかしながら、物体100の異常は、センシングユニット10で検出されてもよい。センシングユニット10は、物体100の塗装面の異常を検出するための学習済みモデルを記憶している。学習済みモデルは、入力されるセンシングデータに対し、塗装面の異常を出力するように学習されている。このとき、学習用データは、例えば、物体についての複数のセンシングデータを入力データとし、この入力データに含まれ得る異常についての判断を正解出力データとする。
センシングユニット10は、センシングモジュール11によりセンシングデータが取得されると、取得されたセンシングデータを学習済みモデルに入力し、センシングデータに含まれている異常の判断を出力させる。センシングユニット10は、センシングデータと、異常の判断とを制御装置30へ送信する。
上記実施形態では、センシングモジュール11に、例えば、予め設定された帯域の電磁波を用いて実現されるデバイスが採用される場合を例に説明したが、センシングモジュール11に、それぞれ異なる帯域の電磁波を用いて実現されるデバイスが複数種類採用されてもよい。このとき、制御装置30の検出部31Cは、例えば、センシングモジュール11のそれぞれの帯域の電磁波を利用したセンシングデータに基づいて、物体100の異常を検出する。これにより、異常の検出精度を高めることが可能となる。
以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。
また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が生じない限り、適宜組み合わせ可能である。
<付記>
以上の各実施形態で説明した事項を、以下に付記する。
(付記1)
プロセッサ31と、メモリとを備えるコンピュータに実行させるためのプログラムであって、プログラムは、プロセッサに、
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップ(S302)と、
センシングデータに基づき、物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
異常を解消可能なデバイスが搭載されたロボットアーム21を、特定した3次元位置にデバイス22が到達するように、移動させるステップ(S305)と、
デバイスを3次元位置に到達させると、デバイスを稼働させるステップ(S202)と、を実行させる、プログラム。
(付記2)
物体の3次元形状を取得するステップ(S302)では、物体を複数の方向からセンシングしたセンシングデータに基づいて3次元形状を取得する、(付記1)に記載の外観検査プラグラム。
(付記3)
物体を複数の方向からセンシングしたセンシングデータを取得するように、センシング手段11を移動させ、センシング手段に物体をセンシングさせるステップ(S301)を、プロセッサに実行させる、(付記2)に記載のプログラム。
(付記4)
物体を複数の方向からセンシングしたセンシングデータを取得するように、物体を移動させ、センシング手段に物体をセンシングさせるステップ(S301)を、プロセッサに実行させる、(付記2)又は(付記3)に記載のプログラム。
(付記5)
物体を複数の方向からセンシングしたセンシングデータを取得するように、複数のセンシング手段に物体をセンシングさせるステップ(S301)を、プロセッサに実行させる、(付記2)に記載のプログラム。
(付記6)
複数の帯域の電磁波を利用するセンシング手段に、物体をセンシングさせるステップ(S101)を、プロセッサに実行させる、(付記1)から(付記5)のいずれかに記載のプログラム。
(付記7)
異常を検出するステップ(S303)では、物体に対するセンシングデータを入力とし、異常の有無を出力するように学習された学習済みモデルを利用して、異常を検出する(付記1)から(付記6)のいずれかに記載のプログラム。
(付記8)
ロボットアームを移動させるステップ(S305)では、異常の3次元位置を入力とし、3次元位置に対するデバイスの位置を出力するように学習された学習済みモデルを利用して、ロボットアームを移動させる(付記1)から(付記7)のいずれかに記載のプログラム。
(付記9)
プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、プログラムは、プロセッサに、
物体の運動を規則的な運動として捉えるように、物体に対してセンシング手段11を移動させ、電磁波を用いてセンシング手段に物体をセンシングさせるステップと、
センシングにより得られるセンシングデータに基づいて物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
を実行させる、プログラム。
(付記10)
物体に対して光を照射するステップと、
光を検出するセンシング手段に、物体をセンシングさせるステップと
をプロセッサに実行させる、(付記1)から(付記9)のいずれかに記載のプログラム。
(付記11)
光を照射するステップでは、光の光源70を、物体に対して相対的に移動させる、(付記10)に記載のプログラム。
(付記12)
光を照射するステップでは、複数種類の波長の光を切り替えて照射する、(付記10)又は(付記11)に記載のプログラム。
(付記13)
特定した3次元位置を、端末装置80へ送信するステップを、プロセッサに実行させる、(付記1)から(付記12)のいずれかに記載のプログラム。
(付記14)
プロセッサと、メモリとを備えるコンピュータが実行する方法であって、プロセッサが、
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得するステップ(S302)と、
センシングデータに基づき、物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させるステップ(S305)と、
デバイスを3次元位置に到達させると、デバイスを稼働させるステップ(S202)と、
を実行する、方法。
(付記15)
物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて物体の3次元形状を取得する手段と、
センシングデータに基づき、物体の異常を検出する手段と、
検出した異常の3次元位置を特定する手段と、
異常を解消可能なデバイスが搭載されたロボットアームを、特定した3次元位置にデバイスが到達するように、移動させ、デバイスを3次元位置に到達させると、デバイスを稼働させる手段と、
を具備するシステム。
(付記16)
プロセッサと、メモリとを備えるコンピュータが実行する方法であって、プロセッサが、
物体の運動を規則的な運動として捉えるように、物体に対してセンシング手段を移動させ、電磁波を用いてセンシング手段に物体をセンシングさせるステップと、
センシングにより得られるセンシングデータに基づいて物体の異常を検出するステップ(S303)と、
検出した異常の3次元位置を特定するステップ(S304)と、
を実行させる、方法。
(付記17)
物体の運動を規則的な運動として捉えるように、物体に対してセンシング手段を移動させ、電磁波を用いてセンシング手段に物体をセンシングさせる手段と、
センシングにより得られるセンシングデータに基づいて物体の異常を検出する手段と、
検出した異常の3次元位置を特定する手段と、
を具備するシステム。
1…システム
10,10a…センシングユニット
100…物体
11…センシングモジュール
12…ロボットアーム
20…産業用ロボット
21…ロボットアーム
22…エンドエフェクタ
30…制御装置
31…プロセッサ
31A…第1制御部
31B…取得部
31C…検出部
31D…位置特定部
31E…第2制御部
32…記憶装置
33…通信インタフェース
34…入出力インタフェース
40…表示装置
50…ネットワーク
60…ステージ
61…ステージ
70…照明
80…端末装置

Claims (17)

  1. プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、
    物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて前記物体の3次元形状を取得するステップと、
    前記センシングデータに基づき、前記物体の異常を検出するステップと、
    前記検出した異常の3次元位置を特定するステップと、
    前記異常を解消可能なデバイスが搭載されたロボットアームを、前記特定した3次元位置に前記デバイスが到達するように、移動させるステップと、
    前記デバイスを前記3次元位置に到達させると、前記デバイスを稼働させるステップと、を実行させる、プログラム。
  2. 前記物体の3次元形状を取得するステップでは、前記物体を複数の方向からセンシングしたセンシングデータに基づいて前記3次元形状を取得する、請求項1に記載のプラグラム。
  3. 前記物体を複数の方向からセンシングしたセンシングデータを取得するように、センシング手段を移動させ、前記センシング手段に前記物体をセンシングさせるステップを、前記プロセッサに実行させる、請求項2に記載のプログラム。
  4. 前記物体を複数の方向からセンシングしたセンシングデータを取得するように、前記物体を移動させ、センシング手段に前記物体をセンシングさせるステップを、前記プロセッサに実行させる、請求項2又は3に記載のプログラム。
  5. 前記物体を複数の方向からセンシングしたセンシングデータを取得するように、複数のセンシング手段に前記物体をセンシングさせるステップを、前記プロセッサに実行させる、請求項2に記載のプログラム。
  6. 複数の帯域の電磁波を利用するセンシング手段に、前記物体をセンシングさせるステップを、前記プロセッサに実行させる、請求項1から5のいずれか1項に記載のプログラム。
  7. 前記異常を検出するステップでは、前記物体に対するセンシングデータを入力とし、異常の有無を出力するように学習された学習済みモデルを利用して、前記異常を検出する請求項1から6のいずれか1項に記載のプログラム。
  8. 前記ロボットアームを移動させるステップでは、前記異常の3次元位置を入力とし、前記3次元位置に対する前記デバイスの位置を出力するように学習された学習済みモデルを利用して、前記ロボットアームを移動させる請求項1から7のいずれか1項に記載のプログラム。
  9. プロセッサと、メモリとを備えるコンピュータに実行させるためのプログラムであって、前記プログラムは、前記プロセッサに、
    物体の運動を規則的な運動として捉えるように、前記物体に対してセンシング手段を移動させ、電磁波を用いて前記センシング手段に前記物体をセンシングさせるステップと、
    前記センシングにより得られるセンシングデータに基づいて前記物体の異常を検出するステップと、
    前記検出した異常の3次元位置を特定するステップと、
    を実行させる、プログラム。
  10. 前記物体に対して光を照射するステップと、
    前記光を検出するセンシング手段に、前記物体をセンシングさせるステップと
    を前記プロセッサに実行させる、請求項1から9のいずれか1項に記載のプログラム。
  11. 前記光を照射するステップでは、前記光の光源を、前記物体に対して相対的に移動させる、請求項10に記載のプログラム。
  12. 前記光を照射するステップでは、複数種類の波長の光を切り替えて照射する、請求項10又は11に記載のプログラム。
  13. 前記特定した3次元位置を、端末装置へ送信するステップを、前記プロセッサに実行させる、請求項1から12のいずれか1項に記載のプログラム。
  14. プロセッサと、メモリとを備えるコンピュータが実行する方法であって、前記プロセッサが、
    物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて前記物体の3次元形状を取得するステップと、
    前記センシングデータに基づき、前記物体の異常を検出するステップと、
    前記検出した異常の3次元位置を特定するステップと、
    前記異常を解消可能なデバイスが搭載されたロボットアームを、前記特定した3次元位置に前記デバイスが到達するように、移動させるステップと、
    前記デバイスを前記3次元位置に到達させると、前記デバイスを稼働させるステップと、
    を実行する、方法。
  15. 物体に対する電磁波を用いたセンシングにより得られるセンシングデータに基づいて前記物体の3次元形状を取得する手段と、
    前記センシングデータに基づき、前記物体の異常を検出する手段と、
    前記検出した異常の3次元位置を特定する手段と、
    前記異常を解消可能なデバイスが搭載されたロボットアームを、前記特定した3次元位置に前記デバイスが到達するように、移動させ、前記デバイスを前記3次元位置に到達させると、前記デバイスを稼働させる手段と、
    を具備するシステム。
  16. プロセッサと、メモリとを備えるコンピュータが実行する方法であって、前記プロセッサが、
    物体の運動を規則的な運動として捉えるように、前記物体に対してセンシング手段を移動させ、電磁波を用いて前記センシング手段に前記物体をセンシングさせるステップと、
    前記センシングにより得られるセンシングデータに基づいて前記物体の異常を検出するステップと、
    前記検出した異常の3次元位置を特定するステップと、
    を実行させる、方法。
  17. 物体の運動を規則的な運動として捉えるように、前記物体に対してセンシング手段を移動させ、電磁波を用いて前記センシング手段に前記物体をセンシングさせる手段と、
    前記センシングにより得られるセンシングデータに基づいて前記物体の異常を検出する手段と、
    前記検出した異常の3次元位置を特定する手段と、
    を具備するシステム。

JP2021007023A 2020-08-25 2021-01-20 プログラム、方法、及びシステム Pending JP2022037856A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021007023A JP2022037856A (ja) 2020-08-25 2021-01-20 プログラム、方法、及びシステム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020141403A JP2022037326A (ja) 2020-08-25 2020-08-25 プログラム、方法、及びシステム
JP2021007023A JP2022037856A (ja) 2020-08-25 2021-01-20 プログラム、方法、及びシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020141403A Division JP2022037326A (ja) 2020-08-25 2020-08-25 プログラム、方法、及びシステム

Publications (1)

Publication Number Publication Date
JP2022037856A true JP2022037856A (ja) 2022-03-09

Family

ID=80354772

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020141403A Pending JP2022037326A (ja) 2020-08-25 2020-08-25 プログラム、方法、及びシステム
JP2021007023A Pending JP2022037856A (ja) 2020-08-25 2021-01-20 プログラム、方法、及びシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020141403A Pending JP2022037326A (ja) 2020-08-25 2020-08-25 プログラム、方法、及びシステム

Country Status (2)

Country Link
JP (2) JP2022037326A (ja)
WO (1) WO2022043979A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024024234A (ja) * 2022-08-09 2024-02-22 株式会社日立製作所 計測システム及び方法並びに部品再生システム及び方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11351841A (ja) * 1998-06-09 1999-12-24 Mitsutoyo Corp 非接触三次元測定方法
JP2000009659A (ja) * 1998-06-19 2000-01-14 Fuji Photo Film Co Ltd 表面検査方法及び装置
JP2002508071A (ja) * 1997-07-18 2002-03-12 アウディ アーゲー ボディ・シェルの表面欠陥を自動的に認識する方法およびこの方法を実施する装置
JP2008046103A (ja) * 2006-07-19 2008-02-28 Shimatec:Kk 表面検査装置
JP2011163823A (ja) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd 物体形状評価装置
JP2013234951A (ja) * 2012-05-10 2013-11-21 Mitsutoyo Corp 三次元測定装置
JP2015102466A (ja) * 2013-11-26 2015-06-04 セントラル硝子株式会社 湾曲板形状検査装置
JP2017009383A (ja) * 2015-06-19 2017-01-12 アスモ株式会社 外観撮影装置及び外観撮影方法
JP2017116404A (ja) * 2015-12-24 2017-06-29 ダイハツ工業株式会社 形状認識装置、及び形状認識方法
JP2018163125A (ja) * 2017-03-27 2018-10-18 株式会社ミツトヨ 測定ヘッド

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666732A (ja) * 1992-08-19 1994-03-11 Mitsubishi Motors Corp 塗装点検仕上げ方法
JPH06241737A (ja) * 1992-12-25 1994-09-02 Toyota Central Res & Dev Lab Inc 断面面積および容積計測装置
JPH0829143A (ja) * 1994-07-13 1996-02-02 Mazda Motor Corp 表面状態検査方法及びその装置
JP6737503B2 (ja) * 2016-09-13 2020-08-12 株式会社Vrc 3dスキャナ
JP6845072B2 (ja) * 2017-04-21 2021-03-17 ファナック株式会社 工場設備の保守支援装置及び保守支援システム
JP7228951B2 (ja) * 2017-12-05 2023-02-27 あいおいニッセイ同和損害保険株式会社 損失価格評価システム
IT201800006253A1 (it) * 2018-06-12 2019-12-12 Metodo e impianto per la localizzazione di punti su una superficie complessa nello spazio

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002508071A (ja) * 1997-07-18 2002-03-12 アウディ アーゲー ボディ・シェルの表面欠陥を自動的に認識する方法およびこの方法を実施する装置
JPH11351841A (ja) * 1998-06-09 1999-12-24 Mitsutoyo Corp 非接触三次元測定方法
JP2000009659A (ja) * 1998-06-19 2000-01-14 Fuji Photo Film Co Ltd 表面検査方法及び装置
JP2008046103A (ja) * 2006-07-19 2008-02-28 Shimatec:Kk 表面検査装置
JP2011163823A (ja) * 2010-02-05 2011-08-25 Aisin Seiki Co Ltd 物体形状評価装置
JP2013234951A (ja) * 2012-05-10 2013-11-21 Mitsutoyo Corp 三次元測定装置
JP2015102466A (ja) * 2013-11-26 2015-06-04 セントラル硝子株式会社 湾曲板形状検査装置
JP2017009383A (ja) * 2015-06-19 2017-01-12 アスモ株式会社 外観撮影装置及び外観撮影方法
JP2017116404A (ja) * 2015-12-24 2017-06-29 ダイハツ工業株式会社 形状認識装置、及び形状認識方法
JP2018163125A (ja) * 2017-03-27 2018-10-18 株式会社ミツトヨ 測定ヘッド

Also Published As

Publication number Publication date
JP2022037326A (ja) 2022-03-09
WO2022043979A1 (ja) 2022-03-03

Similar Documents

Publication Publication Date Title
US10994419B2 (en) Controlling a robot in the presence of a moving object
US10052765B2 (en) Robot system having augmented reality-compatible display
US10551821B2 (en) Robot, robot control apparatus and robot system
US20180117766A1 (en) Device, method, program and recording medium, for simulation of article arraying operation performed by robot
JP7490349B2 (ja) 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
US11185985B2 (en) Inspecting components using mobile robotic inspection systems
US20080013825A1 (en) Simulation device of robot system
CN103770112A (zh) 机器人***及加工件的制造方法
CN112313046A (zh) 使用增强现实可视化和修改操作界定区域
JP6856590B2 (ja) センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
JP2009214265A (ja) ロボット教示装置
CN107422686B (zh) 用于允许对一个或更多个装置的远程控制的设备
JP7396872B2 (ja) 拡張現実を用いたシミュレーション装置及びロボットシステム
JP6677706B2 (ja) リンク情報生成装置、リンク情報生成方法及びリンク情報生成プログラム
EP3257026B1 (en) Generating three dimensional models
JP2010042466A (ja) ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
CN105841641A (zh) 一种基于激光三角法3d测量仪及平整度检测方法
WO2022043979A1 (ja) プログラム、方法、及びシステム
CN112894798A (zh) 在存在人类操作员的情况下控制机器人的方法
US20180374265A1 (en) Mixed reality simulation device and computer readable medium
US11157226B2 (en) Control apparatus, head mounted display and robot system
KR101535801B1 (ko) 깊이맵 센서를 이용한 조립공정에서의 조립공정 검사장치, 방법 및 시스템
JP7173048B2 (ja) 異音検査装置、異音検査方法、プログラム及びワークの製造方法
CN114746207B (zh) 补焊设备以及补焊方法
JP2015058488A (ja) ロボット制御システム、ロボット、ロボット制御方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220111