JP6392908B2 - 視覚センサの異常原因推定システム - Google Patents

視覚センサの異常原因推定システム Download PDF

Info

Publication number
JP6392908B2
JP6392908B2 JP2017003343A JP2017003343A JP6392908B2 JP 6392908 B2 JP6392908 B2 JP 6392908B2 JP 2017003343 A JP2017003343 A JP 2017003343A JP 2017003343 A JP2017003343 A JP 2017003343A JP 6392908 B2 JP6392908 B2 JP 6392908B2
Authority
JP
Japan
Prior art keywords
abnormality
visual sensor
information
camera
cause
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017003343A
Other languages
English (en)
Other versions
JP2018113610A (ja
Inventor
象太 滝澤
象太 滝澤
文和 藁科
文和 藁科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017003343A priority Critical patent/JP6392908B2/ja
Priority to US15/862,875 priority patent/US10497146B2/en
Priority to CN201810024351.4A priority patent/CN108462871B/zh
Priority to DE102018200280.0A priority patent/DE102018200280B4/de
Publication of JP2018113610A publication Critical patent/JP2018113610A/ja
Application granted granted Critical
Publication of JP6392908B2 publication Critical patent/JP6392908B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P19/00Machines for simply fitting together or separating metal parts or objects, or metal and non-metal parts, whether or not involving some deformation; Tools or devices therefor so far as not provided for in other classes
    • B23P19/001Article feeders for assembling machines
    • B23P19/007Picking-up and placing mechanisms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • General Factory Administration (AREA)
  • Image Analysis (AREA)

Description

本発明は、視覚センサの異常原因推定システムに関する。より詳しくは、生産システムに設けられた視覚センサの異常の原因を推定する視覚センサの異常原因推定システムに関する。
対象物を搬送したり加工したりするロボットや対象物の良否を判定する検査装置等、様々な生産装置には、対象物の視覚に関する情報を得るために視覚センサが設けられる。例えば対象物を所定の位置から所定の位置まで搬送する搬送ロボットは、視覚センサによって得られた視覚情報にテンプレートマッチング等の画像処理を施すことによって対象物の位置や姿勢等を把握し、対象物を適切な位置で把持し、所定の位置まで搬送する。このように視覚センサが組み込まれた生産システムでは、視覚センサに何らかの異常が生じ、視覚センサによって望ましい画像が得られなかった場合、この視覚センサによって得られた視覚情報を用いて制御される生産装置は、その機能を適切に発揮できなくなるおそれがある。
例えば特許文献1には、視覚センサに異常が生じたことを検出する装置が示されている。より具体的には、特許文献1には、外部同期信号を視覚センサに出力し、この外部同期信号と同期して視覚センサから出力された画像データを処理するシステムにおいて、視覚センサが外部同期信号に同期して動作しているか否かを判定することによって視覚センサの異常を検出する装置が示されている。特許文献1の装置によれば、検出された視覚センサの異常の原因が、外部同期信号を視覚センサに伝達する信号線の断線によるものか、あるいは視覚センサ自体が故障して外部同期信号と同期できなくなったことによるものかを特定することができる。
また例えば特許文献2には、視覚センサによって得られた画像から異常画像を検出する装置が示されている。より具体的には、特許文献2には、視覚センサが正常な時に撮像された画像を用いて算出した画像統計値を基準とし、現在の視覚センサで撮像された画像を用いて算出した画像統計値と基準とを比較することによって、視覚センサの異常画像を検出する装置が示されている。
特開2013−46350号公報 特開2006−352644号公報
ところで生産システムにおいて実際に視覚センサの異常が生じた場合、作業者は、生産装置を適切な状態に復帰させるために、センサの異常の原因を具体的に特定する必要がある。しかしながら、視覚センサの異常の原因は多岐にわたる。より具体的には、例えば、(A)視覚センサそのものが故障しその機能を適切に発揮できなくなることに起因する場合、(B)視覚センサと他の装置とを接続するケーブルの不具合に起因する場合、(C)視覚センサの周囲の環境変化に起因する場合、等が原因として挙げられる。視覚センサの異常の原因が(A)や(B)である場合には、作業者は例えば上記特許文献1のような装置を利用することによって異常の原因を特定することができる。
しかしながら、視覚センサの異常の原因が(C)である場合、すなわち視覚センサの周囲の環境変化に起因する場合、以下のような理由により、異常の原因を具体的に特定することは困難である。例えば、このような場合に起因する視覚センサの異常は、視覚センサが故障していなくても生じる場合があるため、視覚センサの状態だけを監視していても原因を特定することができない。またこのような場合に起因する視覚センサの異常は、特定の条件のみで発生する場合があるため、異常を生じさせた環境を再現することが困難である。また視覚センサに異常を生じさせる具体的な事象が発生した後、しばらく時間が経ってから視覚センサに異常を生じさせる場合もあり、この場合、具体的な事象と視覚センサの異常との因果関係を特定することも困難である。このため従来、作業者は、視覚センサに異常が生じた場合には、思い当たる原因を総当たりで確認せざるを得ず、生産装置を復帰させるのに時間がかかる場合がある。
本発明は、生産装置を制御するために視覚センサが設けられた生産システムにおいて、視覚センサの異常の原因を推定する視覚センサの異常原因推定システムを提供することを目的とする。
(1)生産システム(例えば、後述の生産システムS)は、生産装置(例えば、後述のロボット5)と、当該生産装置又はその周囲の視覚に関する情報を検出する視覚センサ(例えば、後述のカメラ6)と、前記視覚センサによって得られた視覚情報(例えば、後述の画像信号)に基づいて前記生産装置を制御する制御装置(例えば、後述の制御装置7)と、を備える。本発明の視覚センサの異常原因推定システム(例えば、後述の異常原因推定システム1,1A)は、前記視覚センサの異常の原因を推定するものであって、前記視覚センサの環境に関する情報を取得する環境情報取得手段(例えば、後述の環境情報取得手段2)と、前記環境情報取得手段によって取得された環境情報を用いることによって、前記視覚センサの異常と予め定められた複数の異常原因項目の各々との相関の強さを推定し、推定された相関の強さを前記異常原因項目ごとに表示手段(例えば、後述の表示装置33)に表示させる異常原因推定手段(例えば、後述の演算装置32,32A、異常原因推定部37,37A)と、を備える。
なお本発明において「視覚センサの異常」とは、視覚センサによって望ましい視覚情報が得られなくなることと定義する。また本発明において「望ましい視覚情報」とは、この情報に基づいて生産装置を制御した場合に、生産装置が適切な機能(例えば、適切な位置や姿勢で対象物を把持しこれを適切な位置まで搬送する搬送動作や、対象物の良否を正確に判断する判断機能等)を実現できる情報であると定義する。したがって本発明では、視覚センサそのものが故障したり視覚センサと他の装置とを接続するケーブルに不具合が生じたことによって望ましい視覚情報が得られなくなった場合だけでなく、視覚センサのレンズに強い光が入射したり視覚センサが振動したりすることによって望ましい視覚情報が得られなかった場合も、視覚センサの異常に該当するものとする。
(2) (1)に記載の視覚センサの異常原因推定システムにおいて、前記異常原因推定手段は、前記視覚センサの異常発生時刻から所定時間前までの間の環境情報を用いることによって前記相関の強さを推定してもよい。
(3) (2)に記載の視覚センサの異常原因推定システムにおいて、当該異常原因推定システムは、前記視覚情報に基づいて前記異常発生時刻を特定する異常発生時刻特定手段(例えば、後述の画像処理ユニット71)を備えてもよい。
(4) (2)に記載の視覚センサの異常原因推定システムにおいて、当該異常原因推定システムは、前記視覚情報に所定の画像処理を施す画像処理手段(例えば、後述の画像処理ユニット71)と、前記画像処理を経て得られた画像処理情報と前記生産装置において前記視覚情報に基づいて行った動作の結果に関する動作結果情報とを用いることによって前記異常発生時刻を特定する異常発生時刻特定手段(例えば、後述のロボット動作判定部36,36A、カメラ異常検出部38A)と、を備えてもよい。
(5) (1)から(4)の何れかに記載の視覚センサの異常原因推定システムにおいて、前記環境情報取得手段は、前記視覚センサの環境を複数の環境項目に分け、前記各環境項目に属する環境情報を取得し、前記各異常原因項目は、それぞれ前記複数の環境項目の何れかと同じであるとしてもよい。
(6) (5)に記載の視覚センサの異常原因システムにおいて、前記環境項目は、前記視覚センサの周囲に設置された特定装置の振動と、前記特定装置の温度と、前記視覚センサの周囲の明るさと、を含んでもよい。
(7) (1)から(6)の何れかに記載の視覚センサの異常原因推定システムにおいて、前記異常原因推定手段は、前記環境情報とその時間変化に関する情報とを入力として用いることによって、前前記視覚センサの異常と前記複数の異常原因項目の各々との相関の強さを推定することとしてもよい。
生産システムにおいて、視覚センサは生産装置又はその周囲の視覚に関する情報を検出し、制御装置は視覚センサによって得られた視覚情報に基づいて生産装置を制御する。また環境情報取得手段は、上記のように生産装置の制御に組み込まれた視覚センサの環境に関する情報を取得し、異常原因推定手段は、環境情報取得手段によって取得された環境情報を用いることによって、視覚センサの異常と予め定められた複数の異常原因項目の各々との相関の強さを推定し、この相関の強さを異常原因項目ごとに表示手段に表示させる。これにより作業者は、例えば生産システムを稼働させている間に視覚センサの異常が生じた場合には、本発明の異常原因推定システムを用いることによって、表示手段に表示させた複数の異常原因項目のうち相関の強いものから順に異常の原因を確認することができる。このため作業者は、従来のように思い当たる原因を総当たりで確認していた場合よりも速やかに視覚センサの異常の原因を特定することができる。
本発明の第1実施形態に係る視覚センサの異常原因推定システムが組み込まれた生産システムの構成を示す図である。 カメラの異常の原因に関する演算の具体的な手順を示す図である。 表示装置に表示される異常原因推定部の推定結果の一例を示す図である。 本発明の第2実施形態に係る異常原因推定システムにおいてカメラの異常の原因に関する演算の具体的な手順を示す図である。
<第1実施形態>
以下、本発明の第1実施形態について図面を参照しながら説明する。
図1は、本実施形態に係る視覚センサの異常原因推定システム1が組み込まれた生産システムSの構成を示す図である。
生産システムSは、生産装置としてのロボット5と、このロボット5又はその周囲の視覚に関する情報を検出する視覚センサとしてのカメラ6と、カメラ6の出力に基づいてロボット5を制御する制御装置7と、カメラ6の異常の原因を推定する異常原因推定システム1と、を備える。
ロボット5は、例えば、制御装置7から送信される制御信号に応じて、生産品の一部品であるワークWを所定の位置で把持し、把持したワークWを所定の位置まで搬送する一連の搬送動作を実行する搬送ロボットである。
カメラ6は、ロボット5又はその周囲に設けられたフレームに設けられる。カメラ6は、制御装置7からの要求に応じてロボット5又はワークWを撮影し、その画像信号を所定の周期で制御装置7及び異常原因推定システム1へ送信する。
制御装置7は、画像処理ユニット71と、ロボット制御ユニット72と、を備える。画像処理ユニット71は、カメラ6から送信される画像信号に複数の画像処理を施す。画像処理ユニット71は、これら複数の画像処理を経ることによって得られた画像処理情報を、所定の周期でロボット制御ユニット72及び異常原因推定システム1へ送信する。ここで画像処理ユニット71から送信される画像処理情報には、例えば、ワークWを含む画像、この画像に写るワークWの輪郭のコントラスト、この画像の明るさ、この画像から検出されるワークWの確からしさを表すスコア、画像から検出されるワークWの検出位置及びその誤差、ワークWの誤検出(すなわち、画像において実際とは異なった位置をワークWの位置として検出すること)の有無、カメラ6の黒レベル、及びカメラ6から送信される画像信号のデータ誤り率、等に関する情報が含まれる。
ロボット制御ユニット72は、画像処理ユニット71における複数の画像処理を経て得られた上述の画像処理情報に基づいて、ロボット5において上述の搬送動作を実行させるための制御信号を生成し、この制御信号をロボット5へ送信する。またロボット制御ユニット72は、ロボット5に設けられた図示しない力センサ等から送信される信号に基づいて、上述のようにカメラ6の画像信号に基づいて実行させた搬送動作の結果に関する情報を取得し、これを動作結果情報として所定の周期で異常原因推定システム1へ送信する。ここでロボット制御ユニット72から送信される動作結果情報には、例えば、ロボット5が一連の搬送動作においてワークWを把持することができたか否か、及びロボット5がワークWを把持したときの所定の基準位置からの把持ずれ量、等に関する情報が含まれる。
異常原因推定システム1は、カメラ6の環境に関する情報を取得する環境情報取得手段2と、環境情報取得手段2、カメラ6、画像処理ユニット71、及びロボット制御ユニット72から送信される情報を用いてカメラ6の異常及びその原因に関する演算を行う情報処理装置3と、を備える。
環境情報取得手段2は、カメラ6の機能に影響を及ぼし得る環境に関する複数種類の環境情報を所定の周期毎に取得し、取得した環境情報を情報処理装置3へ送信する。ここで環境情報取得手段2によって取得される環境情報は、例えば以下で例示するように13の環境項目に分類される。各項目に属する環境情報は、以下の通りである。
項目1には、カメラ6の振動に関する情報が分類される。環境情報取得手段2は、例えばカメラ6に設けられた振動センサの出力を用いることによって、項目1に属する環境情報を取得する。項目2には、カメラ6の温度に関する情報が分類される。環境情報取得手段2は、例えばカメラ6に設けられた温度センサの出力を用いることによって、項目2に属する環境情報を取得する。項目3には、カメラ6の周囲に設けられた周囲機器の温度に関する情報が分類される。環境情報取得手段2は、例えば周囲機器に設けられた温度センサの出力を用いることによって、項目3に属する環境情報を取得する。項目4には、カメラ6の周囲の明るさに関する情報が分類される。環境情報取得手段2は、例えばカメラ6又はその近傍に設けられた照度センサの出力を用いることによって、項目4に属する環境情報を取得する。項目5には、日付及び時刻に関する情報が分類される。環境情報取得手段2は、例えば時計を用いることによって、項目5に属する環境情報を取得する。
項目6には、天気に関する情報が分類される。環境情報取得手段2は、例えば天気情報配信サーバから配信される情報を用いることによって、項目6に属する環境情報を取得する。項目7には、カメラ6が設置された部屋の天井照明のオン/オフ状態に関する情報が分類される。環境情報取得手段2は、例えば天井照明のコントローラの出力を用いることによって項目7に属する環境情報を取得する。項目8には、カメラ6が設置された部屋の空調機の設定温度に関する情報が分類される。環境情報取得手段2は、例えば空調機のコントローラの出力を用いることによって項目8に属する環境情報を取得する。項目9には、ロボット5が作業対象とするワークWの種類に関する情報が分類される。環境情報取得手段2は、例えば制御装置7から送信される信号を用いることによって項目9に属する環境情報を取得する。項目10には、カメラ6の周囲に設けられた周囲機器の動作状態(より具体的には、周囲機器が稼働中であるか、停止中であるか、スタンバイ中であるか等)に関する情報が分類される。環境情報取得手段2は、周囲機器から送信される信号を用いることによって項目10に属する環境情報を取得する。
項目11には、生産システムSに設けられる複数の装置の間で動作を同期させるために送受信する信号に関する情報が分類される。環境情報取得手段2は、例えば各装置から送信される信号を用いることによって項目11に属する環境情報を取得する。項目12には、カメラ6の電源電圧に関する情報が分類される。環境情報取得手段2は、例えば電圧センサの出力を用いることによって項目12に属する環境情報を取得する。項目13には、各装置から発せられるアラームに関する情報が分類される。環境情報取得手段2は、例えば各装置から送信されるアラーム信号を用いることによって項目13に属する環境情報を取得する。
なお、環境情報取得手段2によって取得される環境情報の中には、例えば項目6の天気に関する情報や、項目7の天井照明のオン/オフ状態に関する情報等、数値化されていない情報も含まれている。環境情報取得手段2は、このような数値化されていない情報については、予め定めた規則に従って数値化し、情報処理装置3へ送信することが好ましい。具体的には、例えば天気に関する情報については、「晴れ」には“0”が割り当てられ、「曇り」には“1”が割り当てられる。また、例えば天井照明のオン/オフ状態に関する情報については、「オン」には“1”が割り当てられ、「オフ」には“0”が割り当てられる。
また以上のような環境情報取得手段2を用いて取得される環境情報の変化は、カメラ6から送信される画像信号や制御装置7から送信される画像処理情報及び動作結果情報等の変化と比較して緩やかである。そこで、環境情報取得手段2は、制御装置7において画像処理情報や動作結果情報を生成する周期よりも長い周期で環境情報を取得し、情報処理装置3へ送信することが好ましい。
情報処理装置3は、各種データやプログラム等を記憶する記憶装置31と、記憶装置31に記憶されたデータを用いることによってカメラ6の異常及びその原因に関する演算を実行する演算装置32と、演算装置32による演算結果を作業者が視認可能な態様で表示する表示装置33と、を備えたコンピュータによって構成される。
記憶装置31には、カメラ6から送信される画像信号、画像処理ユニット71から送信される画像処理情報、ロボット制御ユニット72から送信される動作結果情報、及び環境情報取得手段2から送信される環境情報等の各々の時系列データが記憶される。また記憶装置31には、画像処理情報、動作結果情報、及び環境情報の時間変化に関する情報も記憶される。ここで時間変化とは、対象とする情報の各時刻における値とその所定時間前の時刻における値との差分値である。
図2は、演算装置32の機能構成を示す機能ブロック図である。演算装置32は、ロボット動作判定部36と、異常原因推定部37と、を備え、これらを用いることによってカメラ6の異常の原因を推定する。以下、演算装置32における演算によって実現可能に構成された各モジュール36〜37の機能について順に説明する。
ロボット動作判定部36は、記憶装置31に記憶されたデータのうち動作結果情報を用いることによって、ロボット5が適切な機能を実現できたか否か、より具体的にはカメラ6から送信される画像信号に基づいてロボット5に実行させた搬送動作が適切であったか否かを判定する。上述のように動作結果情報は、カメラ6の画像信号に基づいてロボット5に実行させた一連の搬送動作の成否に関する情報、より具体的には、ロボット5がワークWを把持できたか否かに関する情報や把持ずれ量に関する情報を含む。そこでロボット動作判定部36は、ロボット5がワークWを把持できかつ把持ずれ量が所定の基準値以下である場合にはロボットの搬送動作は適切であったと判定する。またロボット動作判定部36は、ロボット5がワークWを把持できなかった場合、又は、把持ずれ量が上記基準値より大きかった場合には、ロボットの搬送動作は不適切であったと判定する。
またロボット動作判定部36は、ロボットの搬送動作が不適切であったと判定した場合には、記憶装置31に記憶された過去の画像処理情報から不適切な搬送動作の実行の際にロボット制御ユニット72への入力として用いられた画像処理情報を特定し、この画像処理情報を画像処理ユニット71において生成するために用いられた画像信号が取得された時刻をカメラ6の異常発生時刻として異常原因推定部37へ送信する。
なお図2には、カメラ6の異常発生時刻をロボット動作判定部36においてロボットの搬送動作の結果から特定する場合を示すが、カメラ6の異常発生時刻を特定する手段はこれに限らない。カメラ6の異常発生時刻は、作業者が手動で設定し、異常原因推定部37に入力してもよい。また、カメラ6に何らかの異常が生じ、カメラ6から送信される画像信号が異常なものであった場合、カメラ6に異常が生じたこと及びこの異常発生時刻は、画像処理ユニット71においてカメラ6からの画像信号に画像処理を施すことによって特定することもできる。したがって、カメラ6の異常発生時刻は、カメラ6から送信される画像信号に基づいて画像処理ユニット71において特定してもよい。
異常原因推定部37は、以上のようにしてロボット動作判定部36や画像処理ユニット71等によって特定されたカメラ6の異常発生時刻と、記憶装置31に記憶されたデータのうち環境情報及びその時間変化に関する情報と、画像処理情報及びその時間変化に関する情報と、動作結果情報及びその時間変化に関する情報と、画像信号と、を入力データ群として用いることによってカメラ6の異常の原因を推定し、その推定結果を表示装置4に表示させる。
異常原因推定部37には、カメラ6の異常を生じさせる原因として可能性が有り得るものが、予め複数(例えば、17)の異常原因項目に分けて定義されている。またこれら17の異常原因項目は、カメラ6の異常の原因がその環境に由来する環境要因群に属する項目1〜13と、それ以外の原因、すなわちカメラ6の異常の原因がカメラ6やカメラ6に接続される装置(ケーブルや画像処理ユニット等)の故障に由来する内部要因群に属する項目14〜17と、に分けられる。また環境要因群に属する項目1〜13は、環境情報を分類するために定義された13の環境項目と同じものが用いられる。すなわち、異常原因項目1〜13は、それぞれ上述の環境項目1〜13と同じである。また内部要因群に属する項目14にはカメラ6の故障(より具体的には、例えばレンズの曇りや汚れ等による故障)が分類され、項目15には画像処理ユニット71の故障が分類され、項目16にはカメラ6と画像処理ユニット71とを接続するケーブルの故障(より具体的には、ケーブルの断線やケーブルに加わったノイズ等による故障)が分類され、項目17にはロボット5の故障(より具体的には、ロボット5の位置決め精度の低下や、ロボット5とカメラ6の同期の乱れ等による故障)が分類される。
異常原因推定部37は、異常発生時刻において発生したと推定されるカメラ6の異常と予め定められた各異常原因項目との相関の強さ、より具体的には各異常原因項目がカメラ6の異常の原因である可能性を百分率で表したものを、異常発生時刻よりも前の入力データ群を用いることによって算出する。
上記入力データ群には、カメラ6の機能と相関があるカメラ6の環境に関する情報が含まれていることから、入力データ群とカメラ6の異常との間には相関関係がある。例えば、何らかの理由によりカメラ6が過剰に振動することによってカメラ6に異常が発生した場合、このカメラ6の異常の発生と環境情報のうち項目1に属するカメラ6の振動に関する情報の変化との間には強い相関がある。また例えば、カメラ6の周囲機器の温度が上昇することによってカメラ6に異常が発生した場合、このカメラ6の異常の発生と環境情報のうち項目3に属する周囲機器の温度の変化との間には強い相関がある。また例えば、カメラ6の受光面に強い西日が差しこむことによってカメラ6に異常が発生した場合、このカメラ6の異常の発生と環境情報のうち項目5に属する日付及び時刻に関する情報との間には強い相関がある。異常原因推定部37は、このような環境情報、環境変化情報、及び画像処理情報とカメラ6の異常との間の相関関係を、既知の機械学習アルゴリズムを利用して学習することによって、各異常原因項目がカメラ6の異常の原因である確率を算出する。
異常原因推定部37において用いられる機械学習アルゴリズムの具体例としては、例えば、それぞれ所定の入出力特性を有する複数のニューロンを結合して構成される入力層と中間層と出力層とを備える階層型の多入力−多出力方式のニューラルネットワークが挙げられる。より具体的には、異常原因推定部37は、カメラ6の異常発生時刻、並びにこの異常発生時刻から所定時間前までの間の複数の環境情報及びその時間変化に関する情報と、画像処理情報及びその時間変化に関する情報と、動作結果情報及びその時間変化に関する情報と、画像信号と、から成る入力データ群が入力層を構成する各ニューロンに入力されると、各異常原因項目がカメラ6の異常の原因である確率を出力する。
図3は、表示装置4のモニタに表示される異常原因推定部37の推定結果の一例を示す図である。
図3に示すように、異常原因推定部37は、上述のような機械学習アルゴリズムを利用することによってカメラ6の異常の原因である可能性を異常原因項目ごとに算出し、さらに可能性が高い項目から順に異常原因項目の番号とその可能性とを表示装置4に表示させる。作業者は、この表示装置4に表示された異常原因項目のうち可能性の高いものから順に(図3の例では、項目1、3、4の順に)異常の原因を確認することができるので、従来のように思い当たる原因を総当たりで確認していた場合よりも速やかにカメラ6の異常の原因を特定することができる。
<第2実施形態>
次に、本発明の第2実施形態について図面を参照しながら説明する。本実施形態に係る異常原因推定システム1Aは、カメラ6の異常発生時刻を特定する手段が第1実施形態に係る異常原因推定システム1と異なる。
図4は、本実施形態に係る異常原因推定システム1Aの演算装置32Aの機能構成を示す機能ブロック図である。演算装置32Aは、ロボット動作判定部36Aと、異常原因推定部37Aと、カメラ異常判定部38Aをさらに備え、これらを用いることによってカメラ6の異常の原因を推定する。以下、演算装置32Aにおける演算によって実現可能に構成された各モジュール36A〜38Aの機能について順に説明する。
ロボット動作判定部36Aは、記憶装置31に記憶されたデータのうち動作結果情報を用いることによって、ロボット5が適切な機能を実現できたか否か、より具体的にはカメラ6から送信される画像信号に基づいてロボット5に実行させた搬送動作が適切であったか否かを判定する。またロボット動作判定部36Aは、ロボットの搬送動作が不適切であったと判定した場合には、この不適切な動作が実行された時刻に関する情報をカメラ異常検出部38Aへ送信する。なお、ロボット動作判定部36Aにおいてロボットの搬送動作が適切であったか否かを判定する具体的な手順は、第1実施形態のロボット動作判定部36と同じであるので、詳細な説明を省略する。
カメラ異常検出部38Aは、ロボット動作判定部36Aによる判定結果と、記憶装置31に記憶されたデータのうち画像処理情報と、を用いることによって、カメラ6の異常を検出する。より具体的には、カメラ異常検出部38Aは、ロボット動作判定部36Aにおいてロボットの搬送動作が不適切であったと判定された場合に、この不適切な搬送動作を引き起こした原因がカメラ6の異常に起因するものであるか否かを、不適切な搬送動作が実行された時刻より前の画像処理情報を用いて判定するとともに、カメラ6の異常発生時刻を異常原因推定部37Aへ送信する。
上述のように画像処理情報には、ロボット制御ユニット72においてロボット5の制御に直接的に用いられる情報が含まれていることから、画像処理情報とロボット5の搬送動作の異常との間には相関関係がある。より具体的には、例えば、画像処理情報に含まれるワークWの輪郭のコントラストが過剰に低下した場合や、画像が過剰に明るくなった場合には、ロボット制御ユニット72では適切な搬送動作を実現できない場合がある。カメラ異常検出部38Aは、このような画像処理情報とロボット5の搬送動作の異常との間の相関関係を、既知の機械学習アルゴリズムを利用して学習することにより、画像処理情報を入力としてカメラ6の異常を検出する。
カメラ異常検出部38Aにおいて用いられる機械学習アルゴリズムの具体例としては、例えば、それぞれ所定の入出力特性を有する複数のニューロンを結合して構成される入力層と中間層と出力層とを備える階層型の多入力−1出力方式のニューラルネットワークが挙げられる。より具体的には、カメラ異常検出部38Aは、ロボット動作判定部36の出力(不適切な搬送動作が実行された時刻)、及びこの不適切な搬送動作が実行された時刻から所定時間前までの間の複数の画像処理情報から成る入力データ群が入力層を構成する各ニューロンに入力されると、カメラ6の異常発生時刻を出力層のニューロンから出力する。
異常原因推定部37Aは、カメラ異常検出部38Aにおいてカメラ6の異常が検出された場合には、カメラ異常検出部38Aによって特定された異常発生時刻と、記憶装置31に記憶されたデータのうち環境情報及びその時間変化に関する情報と、画像処理情報及びその時間変化に関する情報と、動作結果情報及びその時間変化に関する情報と、画像信号と、を入力データ群として用いることによってカメラ6の異常の原因を推定し、その推定結果を表示装置4に表示させる。なお、異常原因推定部37Aにおいて、入力データ群を用いてカメラ6の異常の原因を推定する具体的な手順は、第1実施形態の異常原因推定部37と同じであるので、以下では詳細な説明を省略する。
以上、本発明の一実施形態について説明したが、本発明はこれに限らない。
S…生産システム
1,1A…異常原因推定システム
2…環境情報取得手段
3…情報処理装置
31…記憶装置
32,32A…演算装置
33…表示装置(表示手段)
36,36A…ロボット動作判定部(異常発生時刻特定手段)
37,37A…異常原因推定部(異常原因推定手段)
38A…カメラ異常検出部(異常発生時刻特定手段)
5…ロボット(生産装置)
6…カメラ(視覚センサ)
7…制御装置
71…画像処理ユニット(画像処理手段、異常発生時刻特定手段)
72…ロボット制御ユニット

Claims (7)

  1. 生産装置と、当該生産装置又はその周囲の視覚に関する情報を検出する視覚センサと、前記視覚センサによって得られた視覚情報に基づいて前記生産装置を制御する制御装置と、を備える生産システムにおいて、前記視覚センサの異常の原因を推定する視覚センサの異常原因推定システムであって、
    前記視覚センサの環境に関する情報を取得する環境情報取得手段と、
    前記環境情報取得手段によって取得された環境情報を用いることによって、前記視覚センサの異常と予め定められた複数の異常原因項目の各々との相関の強さを推定し、推定された相関の強さを前記異常原因項目ごとに表示手段に表示させる異常原因推定手段と、を備えることを特徴とする視覚センサの異常原因推定システム。
  2. 前記異常原因推定手段は、前記視覚センサの異常発生時刻から所定時間前までの間の環境情報を用いることによって前記相関の強さを推定することを特徴とする請求項1に記載の視覚センサの異常原因推定システム。
  3. 前記視覚情報に基づいて前記異常発生時刻を特定する異常発生時刻特定手段を備えることを特徴とする請求項2に記載の視覚センサの異常原因推定システム。
  4. 前記視覚情報に所定の画像処理を施す画像処理手段と、
    前記画像処理を経て得られた画像処理情報と前記生産装置において前記視覚情報に基づいて行った動作の結果に関する動作結果情報とを用いることによって前記異常発生時刻を特定する異常発生時刻特定手段と、を備えることを特徴とする請求項2に記載の視覚センサの異常原因推定システム。
  5. 前記環境情報取得手段は、前記視覚センサの環境を複数の環境項目に分け、前記各環境項目に属する環境情報を取得し、
    前記各異常原因項目は、それぞれ前記複数の環境項目の何れかと同じであることを特徴とする請求項1から4の何れかに記載の視覚センサの異常原因推定システム。
  6. 前記環境項目は、前記視覚センサの周囲に設置された特定装置の振動と、前記特定装置の温度と、前記視覚センサの周囲の明るさと、を含むことを特徴とする請求項5に記載の視覚センサの異常原因推定システム。
  7. 前記異常原因推定手段は、前記環境情報とその時間変化に関する情報とを入力として用いることによって、前前記視覚センサの異常と前記複数の異常原因項目の各々との相関の強さを推定することを特徴とする請求項1から6の何れかに記載の視覚センサの異常原因推定システム。
JP2017003343A 2017-01-12 2017-01-12 視覚センサの異常原因推定システム Active JP6392908B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017003343A JP6392908B2 (ja) 2017-01-12 2017-01-12 視覚センサの異常原因推定システム
US15/862,875 US10497146B2 (en) 2017-01-12 2018-01-05 Visual sensor abnormality cause estimation system
CN201810024351.4A CN108462871B (zh) 2017-01-12 2018-01-10 视觉传感器的异常原因估计***
DE102018200280.0A DE102018200280B4 (de) 2017-01-12 2018-01-10 Visuellsensor-abnormalitätsursachen-schätzsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017003343A JP6392908B2 (ja) 2017-01-12 2017-01-12 視覚センサの異常原因推定システム

Publications (2)

Publication Number Publication Date
JP2018113610A JP2018113610A (ja) 2018-07-19
JP6392908B2 true JP6392908B2 (ja) 2018-09-19

Family

ID=62636610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017003343A Active JP6392908B2 (ja) 2017-01-12 2017-01-12 視覚センサの異常原因推定システム

Country Status (4)

Country Link
US (1) US10497146B2 (ja)
JP (1) JP6392908B2 (ja)
CN (1) CN108462871B (ja)
DE (1) DE102018200280B4 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6703279B2 (ja) * 2015-09-02 2020-06-03 富士通株式会社 異常検知装置、異常検知方法、及び異常検知プログラム
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US11054811B2 (en) * 2017-11-03 2021-07-06 Drishti Technologies, Inc. Systems and methods for line balancing
KR102126003B1 (ko) * 2018-08-27 2020-06-23 아이솔루션(주) Iot 기술을 기반으로 한 비전검사장비와 생산장비 제어시스템
KR102658966B1 (ko) * 2019-08-21 2024-04-19 엘지전자 주식회사 공기 조화기의 센서 데이터를 보정하는 인공 지능 공기 조화기 및 그 방법
DE112021000229T5 (de) * 2020-01-14 2022-09-15 Fanuc Corporation Roboter-System
JP7445460B2 (ja) * 2020-03-05 2024-03-07 株式会社Fuji 作業システム
CN112947389B (zh) * 2021-03-31 2022-04-22 合肥工业大学 一种pfc控制***的多故障同步估计方法
CN113192277B (zh) * 2021-04-29 2022-09-30 重庆天智慧启科技有限公司 小区安防的自动报警***及方法
WO2024100712A1 (ja) * 2022-11-07 2024-05-16 ファナック株式会社 撮像ユニットの温度を管理する装置、制御装置、方法、及びコンピュータプログラム
CN117197133B (zh) * 2023-11-06 2024-01-30 湖南睿图智能科技有限公司 一种复杂工业环境下视觉机器人的控制***及方法
CN117754194A (zh) * 2024-02-21 2024-03-26 宁德时代新能源科技股份有限公司 电池壳盖焊接***及其点检方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131307A (ja) * 2001-10-25 2003-05-09 Ims:Kk 写真シール払出装置
JP2004363781A (ja) * 2003-06-03 2004-12-24 Mega Chips Corp デジタル映像記録システム
JP3834307B2 (ja) * 2003-09-29 2006-10-18 ファナック株式会社 ロボットシステム
JP2006013120A (ja) * 2004-06-25 2006-01-12 Matsushita Electric Ind Co Ltd 不具合原因究明システム
JP4718253B2 (ja) 2005-06-17 2011-07-06 株式会社日立ビルシステム 監視カメラの画像異常検出装置
JP5737989B2 (ja) 2011-02-14 2015-06-17 富士機械製造株式会社 部品実装機
US20130027561A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for improving site operations by detecting abnormalities
JP5296847B2 (ja) 2011-08-26 2013-09-25 ファナック株式会社 カメラの異常検出機能を備えたロボットシステム
JP2013115726A (ja) 2011-11-30 2013-06-10 Sanyo Electric Co Ltd 電子機器
WO2014076755A1 (ja) * 2012-11-13 2014-05-22 富士機械製造株式会社 基板生産状況監視装置
EP2804382B1 (en) 2013-05-15 2015-04-29 Axis AB Reliability determination of camera fault detection tests
CN103308661A (zh) 2013-05-27 2013-09-18 中国矿业大学 用于表达空间拓扑信息的井下瓦斯传感器层次编码方法
WO2015182751A1 (ja) * 2014-05-30 2015-12-03 株式会社日立国際電気 監視システムおよびカメラ装置
JP6400497B2 (ja) 2015-02-02 2018-10-03 三菱電機ビルテクノサービス株式会社 エレベータ乗りかごの異常確認システム
JP2018051721A (ja) * 2016-09-30 2018-04-05 キヤノン株式会社 異常検出装置、異常検出方法及びプログラム
JP6971020B2 (ja) * 2016-11-14 2021-11-24 株式会社日立製作所 異常検出装置および異常検出方法

Also Published As

Publication number Publication date
JP2018113610A (ja) 2018-07-19
US20180197311A1 (en) 2018-07-12
DE102018200280A1 (de) 2018-07-12
US10497146B2 (en) 2019-12-03
DE102018200280B4 (de) 2019-10-17
CN108462871B (zh) 2019-04-09
CN108462871A (zh) 2018-08-28

Similar Documents

Publication Publication Date Title
JP6392908B2 (ja) 視覚センサの異常原因推定システム
CN116841262A (zh) 基于机器视觉的智慧工厂生产在线监测分析***
CN110543800B (zh) 用于吊舱的目标识别跟踪方法、装置和吊舱
CN111542791B (zh) 使用设施诊断***的设施诊断方法
CN113748389A (zh) 用于监控工业过程步骤的方法和设备
KR102482240B1 (ko) 장비 이상 탐지 장치 및 방법
US20210133442A1 (en) Element operation division device, element operation division method, storage medium, and element operation division system
CN111890343B (zh) 一种机器人载物碰撞检测方法及装置
KR20210050889A (ko) Cctv 관제 시스템 업데이트 방법 및 cctv 관제 시스템 업데이트 장치
US20130301902A1 (en) System and method of distributed processing for machine-vision analysis
US20170050319A1 (en) Programmable Machine Vision Device
JP5710230B2 (ja) 監視システムおよび監視方法
Siam et al. Fault tolerant control of an industrial manufacturing process using image processing
JP2020091739A5 (ja)
JP2022038020A (ja) 検査システム
US11478933B2 (en) Equipment status estimation method and system
WO2020044779A1 (ja) 設置環境推定装置及びプログラム
CN116382197B (zh) 一种基于数字孪生的智慧工厂管理平台及管理方法
Jamal et al. Fault Tolerant Control of an Industrial Manufacturing Process Using Image Processing
US20200320276A1 (en) Information processing system and method
US20230334396A1 (en) Work instruction system
JP2019185083A (ja) 買物支援システム及び買物支援方法
WO2022190584A1 (ja) 情報処理装置、方法およびプログラム
JP7408731B1 (ja) 行動検知方法、行動検知装置、行動検知システム
JP7495834B2 (ja) 作業評価システムおよび方法

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180823

R150 Certificate of patent or registration of utility model

Ref document number: 6392908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150