JP2022102930A - 制御システム、および学習済モデルの作成方法 - Google Patents

制御システム、および学習済モデルの作成方法 Download PDF

Info

Publication number
JP2022102930A
JP2022102930A JP2020218011A JP2020218011A JP2022102930A JP 2022102930 A JP2022102930 A JP 2022102930A JP 2020218011 A JP2020218011 A JP 2020218011A JP 2020218011 A JP2020218011 A JP 2020218011A JP 2022102930 A JP2022102930 A JP 2022102930A
Authority
JP
Japan
Prior art keywords
unit
data
skilled worker
control
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020218011A
Other languages
English (en)
Other versions
JP7129673B2 (ja
Inventor
肇也 矢原
Toshiya Yahara
雅俊 中野
Masatoshi Nakano
遼士 新家
Ryoji Shinya
誠 川合
Makoto Kawai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2020218011A priority Critical patent/JP7129673B2/ja
Publication of JP2022102930A publication Critical patent/JP2022102930A/ja
Application granted granted Critical
Publication of JP7129673B2 publication Critical patent/JP7129673B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Numerical Control (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022102930000001
【課題】熟練作業者が保有している暗黙知に着目して得られた学習済モデルを用いて機械を制御することができる制御システム、および学習済モデルの作成方法を提供すること。
【解決手段】実施形態の制御システムは、熟練作業者の対象物の着目点を撮像するカメラによって撮像された画像のデータを取得すると共に、前記熟練作業者が機械を操作した内容を示す操作信号のデータを取得する取得部と、前記画像のデータを学習データ、前記操作信号のデータを教師データとして学習された学習済モデルに、前記画像のデータを入力することで、前記機械を操作するための信号を生成する推論部と、前記推論部によって生成された信号を前記機械に与える制御部と、を備える。
【選択図】図4

Description

本発明は、制御システム、および学習済モデルの作成方法に関する。
熟練作業が必要な工場作業労働の現場では、少子高齢化の影響で、熟練者の多くが退職し、新入社員数も少なくなってきている。熟練者の育成も困難なことから、熟練者が担ってきた熟練作業の継承が大きな課題となっている。熟練者が保有する熟練技能は、暗黙知と呼ばれる。暗黙知には、勘やコツなどの言語で表せない技能が数多く含まれており、ロジックに置き換えて機械を制御することが極めて困難であった。
一方、FA研究の専門家や研究者の間では、熟練者の知見を学んだAI(Artificial Intelligence)ではFA制御は困難であるという先入観が、長い間通説になっていた。その背景には、1980年代からから1990年代にかけて、熟練者の知識を学び、熟練者の様に判断できるエキスパートシステムなど当時のAI研究が、熟練者の暗黙知の壁に阻まれて期待通りの成果が得られないまま、実用化に繋がらなかったことの影響が大きい。例えば、エキスパートシステムを使った熟練者の知識ベース生成方法が知られている(例えば、特許文献1参照)。
特開平4-262424号公報
上記先行技術文献などの公知技術は、ルールベースでの推論を用いているため、熟練者の暗黙知には対応が困難であった。また近い将来、減り続ける数少ない熟練作業者のもとに、遠隔で複数の熟練作業を集約することが求められる中、複数の熟練作業者が分散して保有している暗黙知をどのように集約するかについて、十分に検討されていなかった。また、どのようにして熟練者の暗黙知である熟練技能を一般作業者や新人作業者に教育するかについて十分に検討されていなかった。
本発明は、このような事情を考慮してなされたものであり、熟練作業者が保有している暗黙知に着目して得られた学習済モデルを用いて機械を制御することができる制御システム、および学習済モデルの作成方法を提供することを目的の一つとする。
実施形態の制御システムは、熟練作業者の対象物の着目点を撮像するカメラによって撮像された画像のデータを取得すると共に、前記熟練作業者が機械を操作した内容を示す操作信号のデータを取得する取得部と、前記画像のデータを学習データ、前記操作信号のデータを教師データとして学習された学習済モデルに、前記画像のデータを入力することで、前記機械を操作するための信号を生成する推論部と、前記推論部によって生成された信号を前記機械に与える制御部と、を備える。
熟練作業者が保有している暗黙知に着目して得られた学習済モデルを用いて、機械を制御することができる。
制御システムの一例である鋼材加工システム1の概略図である。 学習済モデルを作成する際の熟練作業者によるセンタリング作業の一例を示す図である。 鋼材加工AIシステム2の機能構成を断面的に示す図である。 制御装置100の機能構成の一例を示すブロック図である。 学習シーンにおける制御装置の処理の一例を示す図である。 制御シーンにおける制御装置の処理の一例を示す図である。 学習済モデル作成装置200の機能構成の一例を示すブロック図である。 第2カメラ72の画像データから抽出される学習データの一例を示す図である。 CNNの構成例を示す図である。 学習処理部243による学習ソフトウェア構成の概念図の一例を示す図である。 学習処理部243が使用したRNNモデルの概略構成の一例を示す図である。 シミュレーションを行った結果の一例を示す図である。 画像データから抽出される学習済モデルへの入力データの一例を示す図である。 制御装置100による推定処理における概念図である。 制御装置100による推定処理の一例を示すフローチャートである。 制御装置100における自動制御の処理フローの一例を示すフローチャートである。 制御装置100におけるフェイルセーフとTake Overの処理フローの一例を示すフローチャートである。 制御装置100における自動出力許可の処理フローの一例を示すフローチャートである。 推定結果に基づく制御信号と熟練作業者の操作タイミングとの比較を示す図である。 インタラクティブ・ユーザ・インタフェース部190における表示画面の一例を示す図である。 インタラクティブ・ユーザ・インタフェース部190における表示画面の他の例を示す図である。 センタリング作業の比較について説明するための図である。
以下、実施形態の制御システム、および学習済モデルの作成方法を、図面を参照して説明する。
[第1実施形態]
図1は、制御システムの一例である鋼材加工システム1の概略図である。鋼材加工システム1は、例えば、コイル支持部10と、アンコイラ20と、ラフレベラ30と、サイドトリマ40と、第1カメラ71と、第2カメラ72と、制御装置100と、学習済モデル作成装置200とを備える。ここでは、制御装置100と学習済モデル作成装置200とが別体の装置としているが、これに限られない。制御装置100と学習済モデル作成装置200とは一体的に形成されてもよい。
鋼材加工システム1は、コイル状の鋼材10A(対象物の一例)を引き出して、ベルトコンベアなどの搬送手段(図示を省略)により搬送し、所定サイズの平面状の鋼材に加工するための装置である。搬送方向の上流側から下流側に向かって配置される順番に並べると、コイル支持部10、アンコイラ20、ラフレベラ30、サイドトリマ40の順である。以下、制御システムの対象物が鋼材である例について説明するが、これに限られない。制御システムの対象物は、コイル状に巻き付けられたシート状の部材であれば、ゴムや紙などの材質の部材であってもよい。
コイル支持部10は、コイル状の鋼材10Aの中心軸に沿った空洞に挿入され、鋼材10Aを回転可能に支持する。また、コイル支持部10は、制御装置100と接続されており、制御装置100により軸方向に回転させられることで、鋼材10Aを引き出したり、引き戻したりする。
コイル支持部10の周辺には、調整装置12が設けられており、調整装置12は制御装置100と接続されている。調整装置12は、例えば、コイル支持部10の一方の端10Rと他方の端10Lの両方に設けられたアクチュエータを含む。調整装置12は、制御装置100からの制御信号に基づいて動作し、コイル支持部10を軸方向に動かす。つまり、調整装置12は、コイル支持部10を一方の端10Rに向けて所定量動かす、あるいは、コイル支持部10を一方の端10Lに向けて所定量動かす。コイル支持部10が軸方向に動かされることにより、鋼材10Aのセンタリングがなされる。センタリングとは、アンコイラ20に引き出される鋼材10Aの中央(幅方向の中心)を、搬送手段による搬送方向と直交する方向の中央(以下、搬送中央線と記す)に合わせるために、鋼材10Aの搬送方向の姿勢を調整することである。このセンタリングは、作業者による手動制御であってもよく、学習済モデル作成装置200によって作成された学習済モデルを用いて自動制御であってもよい。
アンコイラ作業者Aは、制御装置100による調整装置12の自動制御を監視する。また、アンコイラ作業者Aは、制御装置100の操作レバー110Aを操作して調整装置12を動作させ、鋼材10Aの搬送方向の姿勢を調整することで、手動のセンタリング作業を行ってもよい。詳細については後述する。
センタリング作業の重要な目的として、サイドトリマ40による工程において耳切れが発生しないようにすることがある。耳切れとは、サイドトリマ40によって切り落とされた鋼材10Aの端部分(耳)の幅が少なすぎて耳が歪な形状に切断されることや、耳が切断できないことである。耳切れは、例えば、鋼材10Aの搬送方向の姿勢がずれることで発生する。耳切れが発生することで、鋼材10Aの幅方向が規定のサイズに切断されていないことを意味している。耳切れが発生した場合、鋼材加工システム1を停止させる必要があり、製造効率が悪くなる。また、耳切れが発生した部分の鋼材は商品とならないため、損失が発生する。このように、上流側の状況だけでなく、下流側の状況から耳切れを予兆しつつ、上流側でのセンタリング作業を行う必要があり、熟練作業者の暗黙知によるところが大きかった。学習済モデル作成装置200は、この熟練作業者の暗黙知を学習させた学習済モデルを作成するものである。
アンコイラ20は、上下から鋼材10Aを挟む複数のローラを備え、コイル状に巻かれた鋼材10Aを搬送路に向けて引き出す装置である。ラフレベラ30は、上下から鋼材10Aを挟む複数のローラを備え、アンコイラ20により引き出された鋼材10Aのひずみを軽減させる装置である。サイドトリマ40は、鋼材10Aの両サイドを切断して幅方向(搬送方向と直行する方向)の長さを、規定のサイズに切り揃える装置である。本実施形態において、サイドトリマ40は、鋼材10Aの両端を搬送方向に沿って切断する。これに限られず、サイドトリマ40は、鋼材10Aの片方の端部を搬送方向に沿って切断するものでもよい。
サイドトリマ40の周辺には、サイドトリマ40による切断位置P1を含む所定のエリアを撮像する第1カメラ71が取り付けられている。切断位置P1は、搬送中の鋼材10Aの両端(一方の端10P1Rと他方の端P1L)をサイドトリマ40が切断する位置である。第1カメラ71は、例えば、一方の端P1Rを含む所定エリアと、他方の端P1Lを含む所定エリアとを撮像する。
ラフレベラ30の周辺には、ラフレベラ30の入り口のアンコイラ位置P2(ラフレベラ30の搬送方向上流側)を含む所定エリアを撮像する第2カメラ72が取り付けられている。第2カメラ72は、例えば、鋼材10Aの一方の端部10Rとラフレベラ30とが接触する部分を含む所定エリアを撮像する。
第1カメラ71と第2カメラ72は、熟練作業者の対象物の着目点を撮像するカメラの一例である。着目点とは、熟練作業者がセンタリング作業を行う際に着目する物理的な場所である。例えば、第1カメラ71が撮像する着目点は切断位置P1であり、第2カメラ72が撮像する着目点はアンコイラ位置P2である。なお、着目点の決定方法や具体例などについては後述する。第1カメラ71や第2カメラ72は、例えば、防水防塵加工されたカメラである。第1カメラ71や第2カメラ72は、それぞれ一台であってもよく、複数台であってもよい。
なお、第1カメラ71や第2カメラ72により撮像されたタイミングと、制御装置100が操作を受け付けたタイミングとは、例えば日本標準時で表されるタイムスタンプで対応付けられている。つまり、時刻情報をキーとして、操作が受け付けられた事実と、画像データとが対応づけられている。
制御装置100は、例えば、産業用Raspberry Pi(登録商標)や、デジタルI/O入出力モジュールを含む装置である。制御装置100は、工場ラインで使用されている信号のうち、レバー操作など機械学習に必要な信号を入力するとともに、調整装置12を制御する制御信号を出力する。
学習済モデル作成装置200は、収集した情報に基づいて学習済モデルを作成し、作成した学習済モデルのデータを制御装置100に出力する。この学習済モデルは、調整装置12に対する熟練作業者の操作と鋼材10Aの搬送状況との関係性を学習させたモデルであり、例えば後述する熟練作業者Xの手振りの指示を参考にしたセンタリング作業や、後述する熟練作業者Yによるセンタリング作業などを事前に学習した学習済モデルである。
図2を参照して、学習済モデルを作成する際の熟練作業者によるセンタリング作業の一例について、以下説明する。図2(A)は、サイドトリマ40の近傍で耳切れを注視している熟練作業者Xと、熟練作業者Xによる補助を参考にして制御装置100を操作する熟練作業者Yとがいる例を示す。熟練作業者Xは、耳切れ予兆を察知して、熟練作業者Yに、耳切れを防止するために必要なセンタリング作業を補正するための合図を手振りで行う。また、熟練作業者Xは、同じラインの熟練作業者Yの方に合図するためのブザーを操作してもよい。このブザーが操作されたことを示す情報(ブザー信号)は、制御装置100に出力される。これは、騒音の中で遠方にいる、アンコイラ作業者Aに注意をうながし早期に耳切れの予兆に気づかせるための手法である。一方、熟練作業者Xが存在しない場合には、センタリング作業の精度が低下し、耳切れが発生する可能性が高まる。熟練作業者Xが補助することにより、熟練作業者Yは自身のアンコイラ工程でのセンタリング作業だけでなく、サイドトリマ工程での耳切れ予兆を監視する熟練者Xの着目点に基づく作業を行うことが可能となる。このようにして、熟練作業者Xが補助し、熟練作業者Yが調整装置12を操作する学習シーンにおいて学習データと教師データを取得する方法を、一つ目の学習方法と記す。
また、アンコイラ操作者自身が熟練した技能を有する場合、熟練作業者Xのような補助者が必要ない。図2(B)は、熟練作業者Yのみで制御装置100を操作する例を示す。例えば、熟練作業者Yが、サイドトリマ40の周辺を撮像した画像をモニタリングしながら、制御装置100を自ら操作して、センタリング作業を行う。熟練作業者Yは、アンコイラ20に引き出される鋼材10Aの搬送方向(搬送姿勢)を目視で確認するとともに、下流側でのサイドトリマ40の周辺での耳幅をモニタを介して確認しながら、耳切れ予兆を察知して、耳切れを防止するために必要な補正をしながら、センタリング作業を行う。このように、熟練作業者Yがモニタでサイドトリマ40付近を監視しながら調整装置12を操作する学習シーンにおいて学習データと教師データを取得する方法を、以下、二つ目の学習方法と記す。
図2(C)は、サイドトリマ40の近傍で耳切れを注視している熟練作業者Xと、熟練作業者Xによる補助を参考にして制御装置100を操作する非熟練作業者Bとがいる例を示す。非熟練作業者Bは、熟練作業者Xによる補助を受けながら、調整装置12を操作する。このような学習シーンにおいて学習データと教師データを取得する方法を、以下、三つ目の学習方法と記す。学習済モデル作成装置200は、上述のいずれか一つの学習シーンの下で学習済モデルを作成してもよく、異なるシーンにおいて得られた情報を組み合わせて学習済モデルを作成してもよい。
制御装置100は、学習済モデル作成装置200により作成された学習済モデルを用いて、例えば熟練作業者Xの指示を模倣するように調整装置12を自動制御する。こうすることで、熟練作業者Xが不在の場合であっても、耳切れの発生を防止することができる。また、制御装置100は、学習済モデル作成装置200により作成された学習済モデルを用いて、例えば熟練作業者Yの操作を模倣するように調整装置12を自動制御する。こうすることで、アンコイラ作業者Aが未熟な作業者であっても、耳切れの発生を防止することができる。
制御装置100は、例えば、上記の学習済モデルを使用し、第1カメラ71からの画像データや第2カメラ72からの画像データに基づき、切断位置に向かって搬送される鋼材10Aの搬送姿勢(搬送位置)を調整する調整装置12を操作するための信号(以下、自動センタリング・アシスト信号と記す)を生成する。自動センタリング・アシスト信号は、例えば、類似操作に従った制御を調整装置12に実行させるためのコマンド信号である。制御装置100は、生成した自動センタリング・アシスト信号を調整装置12に出力して、鋼材10Aの軸方向のずれを調整するように調整装置12を制御する。そして、制御装置100は、生成した自動センタリング・アシスト信号を、調整装置12に対して制御信号を出力し、鋼材10Aの軸方向のずれを調整する。
図3は、鋼材加工AIシステム2の機能構成を断面的に示す図である。図3には、図1で図示を省略した複数のローラの一例を示す。また、図1では省略したが、サイドトリマ40よりも下流側には、メインレベラ50と、剪断部60とが設けられていてもよい。メインレベラ50は、ラフレベラ30と同様に、上下から鋼材10Aを挟む複数のローラを備え、鋼材10Aのひずみを軽減させる装置である。剪断部60は、鋼材10Aをコイルの軸方向両(犯行方向と直交する方向)で切断して、鋼材10Aを規定のサイズに切り出す装置である。
[制御装置]
図4は、制御装置100の機能構成の一例を示すブロック図である。制御装置100は、例えば、機械操作部110と、機械表示部120と、取得部130と、処理部140と、記憶部150と、制御部160と、通信部170と、インタラクティブ・ユーザ・インターフェイス部190とを備える。制御装置100は、第1カメラ71および第2カメラ72と有線で接続されている。
機械操作部110は、例えば、上述した操作レバー110A、各種キー、ボタン、ダイヤルスイッチ、マウスなどのうち一部または全部を含む。機械表示部120は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)表示装置などである。機械操作部110と機械表示部120とは一体として形成されるタッチパネルTPであってもよい。
インタラクティブ・ユーザ・インターフェイス部190は、例えばタブレット端末であり、操作部191と表示部192とを備える。インタラクティブ・ユーザ・インターフェイス部190は、熟練作業者の操作の仕方を表示したり、別工程での熟練作業者の着目点を表示したり、作業者がデータに付与するラベリング情報を受け付ける。また、インタラクティブ・ユーザ・インターフェイス部190は、システムの起動操作と停止操作、鋼材10Aの種類を選択する操作、鋼材10Aの厚みを選択する操作(例えば、3.2mmと4.5mmの厚みに応じた選択する操作を受け付け、操作内容を示す情報を出力する。インタラクティブ・ユーザ・インターフェイス部190は、調整装置12を操作する操作者が目視可能な位置に設置されている。
記憶部150は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、SDカード、レジスタ、ハードディスクドライブなどによって実現される。記憶部150には、例えば、画像データ151と、操作履歴情報152と、学習済モデルデータ153とが格納されている。画像データ151は、第1カメラ71から出力された画像データと、第2カメラ72から出力された画像データとを含む。画像データには、例えば、タイムスタンプが付与されている。操作履歴情報152は、機械操作部110が受け付けた操作内容を示す情報を含み、上述した通り、これらの情報には画像データのタイムスタンプと同期しているタイムスタンプが付与されている。学習済モデルデータ153は、学習済モデル作成装置200により作成された学習済モデルのパラメータや接続構造、関数特性などを示すデータである。
通信部170は、セルラー網やWi-Fi網等を用いて、ネットワークNWに接続するためのハードウェアを有する。例えば、通信部170は、アンテナおよび送受信装置などを有する。通信部170は、ネットワークNWを介して、学習済モデル作成装置200と、外部サーバ300と通信する。これに限られず、通信部170は、有線で学習済モデル作成装置200と接続され、通信するものであってもよい。
取得部130は、例えば、画像取得部131と、電気信号取得部132とを備える。処理部140は、例えば、データストレージ部141と、ストリーミング映像送信部142と、表示制御部143と、推論部144とを備える。制御部160は、例えば、手動制御部161と、自動制御部162とを備える。処理部140および制御部160の機能のうち一部または全部は、例えば、CPU(Central Processing Unit)などのプロセッサが、自身の記憶部に記憶されたプログラム(ソフトウェア)を実行することで実現される。また、これらの構成要素の機能のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部:circuitryを含む)によって実現されていてもよいし、ソフトウェアとハードウェアの協働によって実現されていてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
画像取得部131は、例えば、第1カメラ71から画像データを取得し、画像データ151の一部として記憶部150に格納する。また、画像取得部131は、第2カメラ72から画像データを取得し、画像データ151の一部として記憶部150に格納する。例えば、学習済モデル作成装置200によって学習済モデルを作成する場合、画像取得部131は、画像データを、学習済モデルを作成する学習データとして取得する。一方、調整装置12を自動制御する場合、画像取得部131は、リアルタイムに取得した画像データを、学習済モデルの入力データとして推論部144に出力する。また、操作者のモニタリングのため、画像取得部131は、リアルタイムに取得した画像データを、ストリーミング映像送信部142に出力する。
画像取得部131は、取得した画像データのうち熟練作業者により選択された画像データに対して、良好な学習データであることを示すラベリング情報を付与してもよい。ラベリング情報が付与される(熟練作業者により良好な学習データとして選択される)タイミングは、撮像された画像がリアルタイムにインタラクティブ・ユーザ・インターフェイス部190に表示されているときであってもよく、撮像された画像を後で読み出してインタラクティブ・ユーザ・インターフェイス部190に表示しているときであってもよい。こうすることにより、学習データを取得する際のデータ・クレンジングを容易にすることができる。なお、ラベリング情報に関するこれらの処理は、学習済モデル作成装置200において実行されてもよい。
電気信号取得部132は、機械操作部110を介して受け付けた調整装置12に対する操作内容を示す情報(以下、操作履歴情報と記す)を取得し、操作履歴情報152の一部として、記憶部150に格納する。操作履歴情報には、例えば、センタリング作業において操作レバー110Aを操作したときの電気信号であるセンタリング信号が含まれる。また、操作履歴情報には、センタリング作業をしながら熟練作業者Xや熟練作業者Yが着目した着目点の画像内の位置情報を第1カメラ71や第2カメラ72により撮像された画像のデータに付与した情報が含まれてよい。
例えば、学習済モデル作成装置200によって学習済モデルを作成する場合、電気信号取得部132は、学習データとしての画像データと同じタイムスタンプが付与された操作履歴情報を、教師データとして取得する。一方、調整装置12を手動制御する場合、電気信号取得部132は、リアルタイムに取得した操作内容を示す情報を、手動制御部161に出力する。
例えば、操作履歴情報は、例えば、熟練作業者Yが、第1カメラ71により撮像された画像が機械表示部120やインタラクティブ・ユーザ・インターフェイス部190に表示されている状態で、ラフレベラ30の入り口のアンコイラ位置P2を目視で確認しながら、機械表示部120やインタラクティブ・ユーザ・インターフェイス部190を監視しながら操作した操作の履歴である。これに限られず、第1カメラ71により撮像された画像と、第2カメラ72により撮像された画像との両方が機械表示部120に表示されている状態で、機械表示部120やインタラクティブ・ユーザ・インターフェイス部190を監視しながら熟練作業者Yが操作した操作の履歴であってもよい。これらいずれも、上述した二つ目の学習方法における操作履歴情報の一例である。これに限られず、操作履歴情報は、上述した一つ目の学習方法や三つ目の学習方法における操作履歴の情報であってもよい。
また、電気信号取得部132は、熟練作業者Xが操作する操作部(図示を省略)からの出力に基づいて、同じラインの(熟練していない)アンコイラ作業者Aの方に合図するためのブザー信号を取得し、操作履歴情報に含めてもよい。さらに、電気信号取得部132は、ライン停止時に不要なデータを取得することによるメモリ逼迫を防止するため、機械操作部110を介して取得したライン停止を判断する信号を、操作履歴情報に含めてもよい。また、電気信号取得部132は、最初のコイル巻き出し時に、作業者が機械操作部110を操作しなくても安定して鋼材10Aが流れるようになった時点で、機械操作部110に含まれる自動ボタンが押されると、その時の鋼材10Aの位置を安定に流動できる初期基準位置として取得し、操作履歴情報に含めてもよい。また、電気信号取得部132は、ラインが動いているかを検知するセンサからのセンサ信号や、遠方の熟練作業者同志で、緊急時に連絡をとりあう際のきっかけの合図を受け付けるブザーからのブザー信号を取得し、操作履歴情報に含めてもよい。
データストレージ部141は、画像取得部131が取得したこれらの画像データや電気信号取得部132が取得した操作履歴情報を、通信部170を介して学習済モデル作成装置200や外部サーバ300に送信し、格納させる。
ストリーミング映像送信部142は、画像取得部131によりリアルタイムに取得された画像データを、インタラクティブ・ユーザ・インターフェイス部190に出力する。インタラクティブ・ユーザ・インターフェイス部190が入力された画像データを表示部192に表示させることで、リアルタイムに第1カメラ71(あるいは第2カメラ72も含む)により撮像された画像を操作者に提供することができる。
表示制御部143は、所定情報を機械表示部120に表示させる。また、表示制御部143は、所定情報をインタラクティブ・ユーザ・インターフェイス部190に出力し、各種操作画面や案内画像等を表示部192に表示させる。
推論部144は、学習済モデルを使って、少なくとも第1カメラ71からの画像データに基づき、調整装置12に対する自動センタリング・アシスト信号を生成する。推論部144は、さらに第2カメラ72からの画像データに基づき、学習済モデルを使って、調整装置12に対する自動センタリング・アシスト信号を生成してもよい。
また、推論部144は、リアルタイムに取得された画像データ(あるいは画像データから取得された情報)を学習済モデルに入力することで、調整装置12に対する熟練作業者の操作に類似した操作(以下、類似操作と記す)を推定してもよい。類似操作は、例えば、切断位置よりも搬送方向の上流側において、搬送方向と直行する幅方向の鋼材10Aの位置ずれに対する調整量を調整するための操作内容である。具体的には、幅方向の右側に〇〇cm動かすために操作レバー110Aを右側に××度傾けることなどが含まれる。推論部144による具体的な処理については、学習済モデル作成装置200による処理を説明した後で、詳細に説明する。
表示制御部143は、学習済モデルを用いて推論部144により推定された類似操作(熟練作業者の操作の仕方)を機械表示部120やインタラクティブ・ユーザ・インターフェイス部190に表示させる。こうすることで、手動制御に切り替えられた場合であっても、熟練者でないアンコイラ作業者Aが、推奨手動レバー操作を参考にして、調整装置12を制御することができる。
また、推論部144は、リアルタイムに取得された画像データ(あるいは画像データから取得された情報)を学習済モデルに入力することで、調整装置12に対する熟練作業者の着目点を推定してもよい。この場合の学習済モデルは、教師データとして、例えば、センタリング作業をしながら熟練作業者Xや熟練作業者Yが着目した着目点の画像内の位置情報を第1カメラ71や第2カメラ72により撮像された画像のデータに付与した情報が用いられる。表示制御部143は、学習済モデルを用いて推論部144により推定された熟練作業者の着目点を機械表示部120やインタラクティブ・ユーザ・インターフェイス部190に表示させる。
手動制御部161は、操作レバー110Aやその他の機械操作部110が受け付けた情報に基づいて、調整装置12を制御する。なお、手動制御部161は、自動制御部162による自動制御が実行されている状態において、機械操作部110を介して作業者による操作が入力された場合、自動制御から手動制御に切り替える。
自動制御部162は、推論部144により生成された自動センタリング・アシスト信号に基づいて、調整装置12を自動的に制御する。例えば、自動制御部162は、自動センタリング・アシスト信号を、PLC(Programmable Logic Controller:プログラマブルロジックコントローラ)に出力することにより、調整装置12を制御して、自動センタリング制御を行う。例えば、推定される熟練作業者の操作が操作レバー110Aを右側に××度傾けることである場合、幅方向の右側に〇〇cm動かすための自動センタリング・アシスト信号を生成し、調整装置12に出力する。こうすることで、熟練作業者が機械操作部110を介して操作したときの制御を自動化で再現することができる。
また、自動制御部162は、自動制御の開始タイミングと終了タイミングとを判定し、開始タイミングに到達した場合に自動制御を開始し、終了タイミングに到達した場合に自動制御を終了する。例えば、自動制御部162は、機械操作部110に含まれる自動ボタンが押された場合、自動制御を開始する。コイル状の鋼材10Aが終端に近づき、機械操作部110に含まれる手動ボタンが押された場合、自動制御部162は、自動制御を解除し、手動操作に戻る。制御装置100は、自動制御が開始されてから終了されるまで、推論部144による推定処理と、自動制御部162による制御信号出力とを繰り返す。なお、自動制御の終了タイミングには、手動制御への切替条件を満たす場合も含まれる。
なお、自動制御部162は、推論部144により生成された自動センタリング・アシスト信号に基づく制御が規定範囲内であるか否かを判定し、規定範囲内である場合、推論部144により推定された自動センタリング・アシスト信号に基づいて調整装置12を自動的に制御する。一方、規定範囲内でない場合、自動制御部162は、規定範囲内の制御を実行する。この規定範囲内の制御は、事前に設定されていてもよく、推論部144により生成された自動センタリング・アシスト信号に基づく制御を規定範囲内の制御に変更したものであってもよい。こうすることにより、未知の入力データに対しても出力を保証することが可能であり、深層学習による推論結果から得られる出力が規定範囲内で限定されるように制限することができる。つまり、自動制御部162は、フェイルセーフ(fail safe)機能を有し、誤操作・誤動作による障害が発生した場合であっても安全に制御することができ、信頼性を向上させることができる。そのため、推論部144による推論結果で制御を実施するためには、推論結果から得られる出力が規定範囲内で限定されるように制限するなどフェイルセーフが不可欠となる。詳細については、後述する。
また、自動制御部162は、フェイルセーフ機能と同様の理由で、推論部144の出力結果が想定外の動きをした場合に、動作を監視している作業者が手動で正しく操作を補正できるようにするためTake Over機能を有する。例えば、自動制御部162は、推論部144により推定された操作内容に基づく自動制御を実行中に、機械操作部110を介して操作を受け付けた場合、機械操作部110を介して受け付けた操作に基づく手動制御に切り替える。
例えば、自動制御部162は、自動センタリング・アシスト信号の出力時に誤って過大なレバー操作信号が調整装置12に出力されないよう設定された、制御出力の時間と回数に関するリミッタに基づいて、各部を制御してよい。例えば、自動制御中に、アンコイラ作業者Aが手動で操作レバー110Aを操作した場合、自動制御部162は、人との衝突を避けるために直ちに自動センタリング制御のゲインを落として自動制御を中断し、手動を優先するTake overを実施する。また、緊急時に緊急停止ボタンが押された場合、自動制御部162は、直ちに自動制御を停止し手動に復帰させてよい。
図5は、学習シーンにおける制御装置の処理の一例を示す図である。例えば、画像取得部131は、第1カメラ71により撮像された画像のデータと第2カメラ72により撮像された画像のデータを、学習済モデルを作成するための学習データとして取得する。同時に、電気信号取得部132は、機械操作部位110を操作した結果である電気信号(操作履歴情報)を、教師データとして取得する。データストレージ部141は、画像取得部131が取得したこれらの画像データや電気信号取得部132が取得した操作履歴情報を、通信部170を介して学習済モデル作成装置200や外部サーバ300に送信し、格納させる。
また、データストレージ部141は、画像取得部131が取得した画像データをストリーミング映像送信部142に出力する。ストリーミング映像送信部142は、入力された画像データを、インタラクティブ・ユーザ・インターフェイス部190に出力し、表示部192に表示させる。また、インタラクティブ・ユーザ・インターフェイス部190は、操作部191を介して入力された熟練作業者の操作内容を出力し、電気信号取得部132が操作履歴情報の一部として取得し、教師データに含めてもよい。
図6は、制御シーンにおける制御装置の処理の一例を示す図である。例えば、画像取得部131は、第1カメラ71や第2カメラ72からリアルタイムに取得した画像データを、学習済モデルの入力データとして推論部144に出力する。自動制御が実行中である場合、推論部144は、学習済モデルを使って、入力した画像データに基づき自動センタリング・アシスト信号を生成し、自動制御部162に出力する。自動制御部162は、推論部144により生成された自動センタリング・アシスト信号に基づいて、調整装置12を自動的に制御する。
また、推論部144は、リアルタイムに取得された画像データを学習済モデルに入力することで、調整装置12に対する熟練作業者の操作に類似した類似操作を推定する。表示制御部143は、推定された類似操作を機械表示部120やインタラクティブ・ユーザ・インターフェイス部190に表示させる。類似操作は、自動制御の実行中も、手動制御の実行中も、表示されてよい。
手動制御が実行中である場合、電気信号取得部132は、リアルタイムに取得した操作内容を示す情報を、手動制御部161に出力する。手動制御部161は、入力された操作内容に従って調整装置12を制御する。
[学習済モデル作成装置]
図7は、学習済モデル作成装置200の機能構成の一例を示すブロック図である。学習済モデル作成装置200は、例えば、処理部240と、記憶部250と、通信部270とを備える。記憶部250と通信部270は、上述した記憶部150と通信部170と同様の構成であってよく、詳細な説明は省略する。また、学習済モデル作成装置200は、上述したインタラクティブ・ユーザ・インターフェイス部190と同様の構成を備えていてもよい。また、学習済モデル作成装置200は、第1カメラ71、第2カメラ72、および機械操作部110と直接接続されていてもよい。
処理部240は、例えば、取得部241と、データ収集部242と、学習処理部243と、検証部244と、を備える。これらの機能部のうち一部または全部は、例えば、CPUなどのプロセッサが、自身の記憶部に記憶されたプログラム(ソフトウェア)を実行することで実現される。また、これらの構成要素の機能のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部:circuitryを含む)によって実現されていてもよいし、ソフトウェアとハードウェアの協働によって実現されていてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
取得部241は、熟練作業者が着目するポイントに関する情報(以下、着目情報と記す)を取得し、記憶部250の着目情報252に格納する。例えば、取得部241は、熟練作業者からのヒアリングによって、熟練作業者が制御装置100と鋼材10Aの何処に注意を払い、何に着目しているかについて話を聞いた内容の情報(以下、ヒアリング内容情報と記す)を着目情報として取得する。また、取得部241は、視線検知装置(図示を省略)で、熟練作業者の視線を検知することで、熟練作業者が着目している箇所を示す情報(以下、視線情報と記す)を着目情報として取得してもよい。さらに、取得部241は、記録された上記視線検知装置による熟練者の視線情報を元に、熟練作業者にヒアリングすることにより、着目した理由も含め、ヒアリング内容情報を取得してもよい。このように、視線検知装置による検知結果と熟練作業者からのヒアリングとを組み合わせることにより、なぜそこに熟練作業者が着目したのかの理由を含む着目情報を取得することができ、より正確な着目点の情報を取得することもできる。
また、取得部241は、第1カメラ71や第2カメラ72により撮像された画像に、熟練作業者が着目している箇所を示す情報を対応付けた情報を着目情報として取得してもよい。なお、ここでいう熟練作業者には、サイドトリマ40の近傍で耳切れを注視しながらアンコイラ作業者Aに指示する技術が優れている熟練作業者Xと、制御装置100を操作してセンタリングする技術が優れている熟練作業者Yのうち少なくとも一方が含まれる。
例えば、熟練作業者Xは、切断位置における耳の幅方向の長さの変化、左右の耳の幅方向のバランスの変化、切断された耳の歪みなどの変化に着目している。例えば、熟練作業者Yは、鋼材10Aの搬送時の基準位置を示すレーザ光線と鋼材10Aとの相対的な位置関係や、ラフレベラ30のローラと鋼材10Aとの接点の変化に着目している。
なお、第1カメラ71や第2カメラ72を設置する管理者は、取得部241により取得された情報に基づいて、熟練作業者が着目する箇所(注視している箇所を含む)を撮像するように、第1カメラ71や第2カメラ72の設置位置を決定する。
例えば、第1カメラ71は、切断位置において熟練作業者が着目する所定のエリア(以下、第1着目エリアと記す)を撮像するように設置される。第2カメラ72は、センタリング作業において熟練作業者が着目する所定のエリア(以下、第2着目エリアと記す)を撮像するように設置される。第1着目エリアは、例えば、サイドトリマ40により切断された両端の耳の幅方向の長さを取得可能なエリアである。第2着目エリアは、例えば、ラフレベラ30のローラと鋼材10Aの接点にあたる鋼板エッジ位置を含むエリアである。詳細については後述する。
第1着目エリアや第2着目エリアは、例えば、熟練作業者Xや熟練作業者Yからのヒアリングや視線検知テスト結果により管理者によって決定される。熟練作業者Xや熟練作業者Yが、機械と素材(鋼材)の何処に注意を払い、何に着目しているかについて話を聞くことで、着目エリアが決定される。なお、着目エリアは、ヒアリング以外の上述した着目情報に基づいて、管理者により決定されてもよい。
なお、着目エリアは、第1カメラ71からの画像データや第2カメラ72からの画像データなどの画像処理結果や着目情報を入力情報として、学習処理部243がディープラーニングにより決定してもよい。例えば、学習処理部243は、画像データの画像認識結果に基づいて、着目情報が示す特徴点やルールを抽出し、抽出結果に基づいて着目エリアを決定する。
また、取得部241は、学習済モデルを作成するための生データを取得する。例えば、取得部241は、第1カメラ71の撮像により得られた画像データを外部サーバ300から取得し、データ収集部242に出力する。また、取得部241は、第2カメラ72の撮像により得られた画像データを外部サーバ300から取得し、データ収集部242に出力する。また、取得部241は、調整装置12に対する操作内容を示す情報を外部サーバ300から取得し、データ収集部242に出力する。
なお、第1カメラ71から出力された画像データと、第2カメラ72から出力された画像データと、制御装置100の機械操作部110が受け付けた操作履歴情報とは、上述した通り、同期しているタイムスタンプが付与されている。
データ収集部242は、取得部241により取得された生データを、生データ251の一部として記憶部250に格納する。また、データ収集部242は、取得部241により取得された画像データから、熟練作業者が着目している着目点の遷移を示す情報を学習データとして抽出し、学習データ253の一部として格納する。また、データ収集部242は、取得部241により取得された操作機歴情報から、熟練作業者によるセンタリング信号を教師データとして抽出し、教師データ254の一部として格納する。こうすることにより、学習処理部243は、熟練者が保有する熟練技能(暗黙知)を学習させた学習済モデルを生成することができる。
なお、データ収集部242は、取得した生データや抽出した学習データや教師データを外部サーバ300に送信して格納しておき、学習済モデルを作成する際に外部サーバ300から読み出してもよい。また、データ収集部242は、例えばラベリング情報に基づいて、生データのうち、有効なデータをクレンジングで抽出した後、抽出された画像データに前処理を行った後、D.L.(Deep Learning)で画像認識し、学習データとしてニューラルネットワークモデルに与えてもよい。
例えば、データ収集部242は、第1カメラ71の撮像により得られた画像データから特徴(着目点)をつかみやすい位置を求めるCNN(Convolutional Neural Network)による画像前処理を実行する。例えば、データ収集部242は、画像データからカットした左右の耳幅の長さを示す複数の位置を求めるCNNモデル(以下、CNN2モデルと記す)で鋼板エッジとサイドトリマ40の刃でカットした左右の耳幅値を示す情報(以下、耳幅値情報と記す)を画像認識により得て、耳幅値情報にタイムスタンプを付与した情報を、学習データ253の一部として記憶部250に格納する。
また、データ収集部242は、例えば、第2カメラ72の撮像により得られた画像データから特徴をつかみやすい位置を求めるCNNモデル(以下、CNN1モデルと記す)による画像前処理を実行する。例えば、第2カメラ72として、鋼材10Aのコイル支持部10の軸方向の変位量が明確に判明でき、かつ光の映り込みや、影にならず、作業者の作業の支障にならない場所にレイアウトされた工業用GigEカメラを使用する。
図8は、第2カメラ72の画像データから抽出される学習データの一例を示す図である。データ収集部242は、画像の特徴量が鮮明になり学習しやすいように、第2カメラ72の画像データD1を適正なサイズに切り取り、正規化データD2を生成する。例えば、データ収集部242は、例えば、着目情報252を参照し、熟練作業者による着目点を含む所定サイズを切り出すように、正規化データD2のサイズや位置を決定し、決定されたサイズや位置で正規化された正規化データD2を取得する。
例えば、データ収集部242は、ラフレベラ30のローラと鋼材10Aの接点にあたる鋼板エッジ位置をCNN2モデルで画像認識した情報(以下、エッジ位置情報と記す)を生成する。例えば、データ収集部242は、鋼板エッジ位置のみが白となっている二値化画像D3に基づいて、画像データD1における鋼板エッジ位置を示すエッジ位置情報を取得する。データ収集部242は、生成した正規化データD2と、生成したエッジ位置情報に、それぞれ画像データD1に付与されていたタイムスタンプを付与して、学習データ253の一部として記憶部250に格納する。
図9は、CNNモデルの構成例を示す図である。学習済モデルとなる機械学習モデルとして、領域分割に優れたエンコーダ・デコーダ方式のCNNモデルを使用した。
学習処理部243は、例えば、切断位置において熟練作業者が着目する所定のエリア(第1着目エリア)を撮像した複数の画像を用いて学習された学習済モデルを作成する。
例えば、学習処理部243は、アンコイラ工程とトリマ工程という無駄時間の異なる2つの系によって概略構成される学習済モデルを作成する。図10は、学習処理部243による学習ソフトウェア構成の概念図の一例を示す図である。
まず、学習処理部243は、それぞれ同じタイムスタンプが付与されたエッジ位置情報を学習データ、センタリング信号T1を教師データとして、RNN1モデルに入力し、無駄時間の短いアンコイラ系モデルを生成する。RNN1モデルは、例えば、アンコイラ側の熟練作業者Yの着目点が反映された自動センタリング・アシスト信号を予測するためのモデルである。センタリング信号T1は、上述した学習方法のいずれかにおいて熟練操作者等が操作した操作内容の履歴である。なお、学習処理部243は、学習データとしてさらに、コイル支持部10の回転速度を、RNN1モデルに入力してもよい。
次いで、学習処理部243は、例えば、熟練作業者Yが、遠方にあるサイドトリマの画像モニタを観察し耳切れ予兆を画像から予見して、耳切れを回避するために操作レバー110Aを手動で操作している時のセンタリング信号T2を、生データ251から読み出す。なお、センタリング信号T2は、上述した学習方法のいずれかにおいて熟練操作者等が操作した操作内容の履歴であってもよい。
そして、学習処理部243は、それぞれ同じタイムスタンプが付与された耳幅情報を学習データ、センタリング信号T2を教師データとして、RNN2モデルに入力し、推論して自動センタリング補正用の耳切防止信号を予測するサイドトリマ系モデルを生成する。RNN2モデルは、例えば、サイドトリマ側の熟練作業者Xの着目点が反映された自動センタリング・アシスト信号を予測するためのモデルである。
制御装置100による推定工程において、アンコイラ系モデルによる推定結果と、サイドトリマ系モデルによる推定結果とを合成することにより、自動センタリング・アシスト信号を生成する。
学習処理部243は、アンコイラ工程とサイドトリマ工程とをそれぞれ独立したモデルで扱い、2つのモデルで構成される学習済モデルを生成し、それぞれのモデルによる推定結果を合成することにより、無駄時間の異なる制御系を1つのモデルとして取り扱うことができる。詳細については後述する。
これに限られず、学習処理部243は、シミュレーション結果に基づいて、学習済モデルを生成してもよい。上述したように作成したRNNモデルに学習データを入力し、推論させても正答率があがらない場合がある。この場合、まず正解の判明している実験データに合致するように、学習処理部243は、合成した入出力学習データセットでRNNモデルのシミュレーションを行い、正答率をあげるように、モデル構成やハイパーパラメータを見直してもよい。入出力学習データセットとは、同じタイムスタンプの学習データと教師データのセットである。
さらに、実データを使って実施したシミュレーション結果が、実際の作業者のレバー操作の操作内容により近似するように、短い時間での鋼材位置の変化を無視して、長い時間の位置変化にのみ予測出力できるようLSTMのタイムステップのチューニングを行ってもよい。
また、学習に必要なデータ数に関しても、シミュレーションによって確認を行ってもよい。図11は、学習処理部243が使用したRNNモデルの概略構成の一例を示す図である。図示の通り、中間層にはLSTM(Long short-term memory)層を用い、より過去の情報を学習に用いることを可能にしている。
検証部244は、使用したRNNモデルの妥当性を確認するために、あらかじめ答えの判明しているデータセットをシミュレーションデータとして与えて学習したRNNの推論結果を正解と確かめることにより、モデルの妥当性を示す情報を算出する。シミュレーションデータについては、シミュレーション鋼板エッジをランダムに移動させ、操作なし範囲から閾値を超えた場合に閾値内に移動させるための入力を行うこととし、物理条件での算出式から信号入力データを作成した。
図12は、シミュレーションを行った結果の一例を示す図である。実線がシミュレーション理想データ、破線がAI推論結果である。図示の結果からわかるように、信号の入力方向、入力時間や入力タイミングが、ほぼ一致していることが分かる。
一方、検証部244は、最低必要な学習データ数をシミュレーションによって見極めると共に、実データが正しくセンタリングのための操作なのかを検証してもよい。こうすることで、典型的なお手本データとみなせるデータに、インタラクティブ・ユーザ・インターフェイス部190を使って作業者にラベリングしてもらうことにより、データ・クレンジングの時間を短縮することが可能である。また、鋼材が安定して流れていると判断した時にアンコイラ作業者Aがインタラクティブ・ユーザ・インターフェイス部190に含まれる自動ボタンをONし、この操作内容を示す情報を学習データや教師データに含めることにより、基準位置を取り込むようにしてもよい。
[制御装置100による推定処理]
次に、制御装置100による推定処理について詳細に説明する。図13は、画像データから抽出される学習済モデルへの入力データの一例を示す図である。図14は、制御装置100による推定処理における概念図である。図15は、制御装置100による推定処理の一例を示すフローチャートである。先に、操作者はインタラクティブ・ユーザ・インターフェイス部190を介して、鋼材10Aの種類を選択しておく。こうすることで、鋼材の種類ごとに取得されたデータに基づいて、鋼材の種類ごとに学習済モデルを作成することができる。
まず、推論部144は、第2カメラ72の撮像により得られた画像データから特徴をつかみやすい位置を求めるCNNによる画像前処理を実行する。例えば、推論部144は、画像の特徴量が鮮明になり学習しやすいように、画像データD11を適正なサイズに切り取り、正規化データD12を取得する。さらに、推論部144は、鋼板エッジ位置のみが白となっている二値化画像D13に基づいて、ラフレベラ30のローラと鋼材10Aの接点にあたる鋼板エッジ位置をCNNで画像認識した情報(エッジ位置情報)を取得し、画像データD11にエッジ位置情報を示す二値化画像D14を生成する。つまり、二値化画像D14は、元データサイズに復元した推論結果である。推論部144は、二値化画像D14にタイムスタンプを付与した情報を、入力データとして取得する(ステップS1)。
次いで、推論部144は、ステップS1で取得した入力データを、RNNのアンコイラ系モデル(学習済モデル)に与えて推定結果を取得する。
また、推論部144は、第1カメラ71の撮像により得られた左側の耳の画像データから特徴をつかみやすい位置を求めるCNNによる画像前処理を実行する。例えば、推論部144は、左側の耳の画像データからCNNで鋼板エッジとサイドトリマ40の刃でカットした左の耳幅値を画像認識により得て、認識結果(左側耳幅値情報)にタイムスタンプを付与した情報を、入力データとして取得する(ステップS2)。
さらに、推論部144は、第1カメラ71の撮像により得られた右側の耳の画像データから特徴をつかみやすい位置を求めるCNNによる画像前処理を実行する。例えば、推論部144は、右側の耳の画像データからCNNで鋼板エッジとサイドトリマ40の刃でカットした右の耳幅値を画像認識により得て、認識結果(右側耳幅値情報)にタイムスタンプを付与した情報を、入力データとして取得する(ステップS3)。
次いで、推論部144は、ステップS2で取得した入力データと、ステップS3で取得した入力データとを、RNNのサイドトリマ系モデル(学習済モデル)に与えて、推定結果を取得する。
そして、推論部144は、アンコイラ系モデルによる推定結果と、サイドトリマ系モデルによる推定結果とを合成することにより、RNN推論による自動センタリング・アシスト信号を生成する(ステップS4)。
なお、同様にして、推論部144は、類似操作内容を推定してもよい。
図16は、制御装置100における自動制御の処理フローの一例を示すフローチャートである。自動制御部162は、自動制御の開始タイミングに到達した場合に自動制御を開始する(ステップS11)。自動制御部162により自動制御が開始されると、推論部144は学習済モデルにリアルタイムで取得された画像データ等を入力し、自動センタリング・アシスト信号を生成する(ステップS12)。次いで、自動制御部162は、推論部144により生成された自動センタリング・アシスト信号に基づき、調整装置12を制御する(ステップS13)。そして、自動制御部162は、自動制御の終了タイミングに到達した場合に自動制御を終了する(ステップS14)。一方、自動制御の終了タイミングに到達しない場合、自動制御部162は、ステップS11に戻って処理を繰り返す。
図17は、制御装置100におけるフェイルセーフとTake Overの処理フローの一例を示すフローチャートである。制御装置100は、学習済モデルの推定に基づく自動センタリング・アシスト信号を、そのまま出力してしまわない様に何重にもインターロックをかけてもよい。
例えば、推論部144により推定された自動センタリング・アシスト信号が入力された場合(ステップS21)、自動制御部162は、(1)出力許可状態であるか否かを判定する(ステップS22)。出力許可状態である場合、自動制御部162は、(2)自動出力自体が異常ではないか否かを判定する(ステップS23)。自動出力自体が異常ではない場合、自動制御部162は、(3)人の操作が入った時の入力と自動出力が同じであるか否かを判定する(ステップS24)。人の操作が入った時の入力と自動出力が同じである場合、自動制御部162は、これら(1)~(3)のすべての条件を満たすため、推論部144により推定された操作内容に基づく自動制御の制御信号をそのまま使用する(ステップS25)。
一方、ステップS22の判定において出力許可状態でない場合、自動制御部162は、ステップS21に戻って処理を繰り返す。この場合、許可状態にする必要がある。
また、ステップS23の判定において自動出力自体が異常である場合、ステップS24の判定において人の操作が入った時の入力と自動出力が同じでない場合(人の操作がない場合も含む)、自動制御部162は、出力許可を解除し(ステップS26)、制御出力による異常な動作を防ぐことができる。
図18は、制御装置100における自動出力許可の処理フローの一例を示すフローチャートである。自動出力の許可を簡単にできない様にするため、所定の手順を踏んで行う必要がある。所定の手順については、例えば、操作者が機械操作部110を介して特定のパターンデータを所定の順に入力する方法や、操作者が機械操作部110を介して自動制御の許可を指示した時から一定時間が経過するまでに自動制御を開始する方法等が含まれる。
まず、自動制御部162は、自動出力を許可するための手順を実行し(ステップS31)、所定の許可手順の通り設定されたか否かを判定する(ステップS32)。ステップS32の判定において、所定の許可手順の通り設定されていた場合、自動制御部162は、自動制御の出力許可状態とする(ステップS33)。一方、ステップS32の判定において、所定の許可手順の通り設定されていなかった場合、自動制御部162は、自動制御の出力不許可状態とする(ステップS34)。
こうすることで、手順通りに出力許可の設定が行われた時に初めて、自動出力を許可することができるようになる。つまり、手順を踏んで設定を行わなかった場合は自動出力が許可されない。また自動出力許可の解除は、手順を踏まずに容易にできるようにする。
図19は、推定結果に基づく制御信号と熟練作業者の操作タイミングとの比較を示す図である。細い実線は、第2カメラ72の撮像画像から学習済モデルを使って画像認識した特徴点(ラフレベラ30のローラと鋼材10Aの接点にあたる鋼板エッジ位置)を示す情報である。太い実線は、学習済モデルで推定した結果に基づく制御信号を示す情報である。太い破線は、熟練作業者Yによる操作履歴を示す情報である。マークM1~M3において、熟練者の操作とほぼ近似したタイミングで推論結果による制御信号が出力されていることがわかる。
[インタラクティブ・ユーザ・インタフェース]
まず、インタラクティブ・ユーザ・インタフェース部190に含まれる操作機能の一例について説明する。インタラクティブ・ユーザ・インタフェース部190は、鋼板選択ボタンと、お手本OKボタンと、自動ボタンと、手動ボタンとを含む。鋼板選択ボタンは、作業者がデータに鋼板種類をラベリングするボタン押すと、ONでSW.点灯、更に押すとOFFで消灯となる。お手本OKボタンは、作業者が正しいデータであると認定するボタン押すとONでSW.点灯、板抜けセンサ信号でOFF消灯となる。自動ボタンは、コイル巻き出しはじめに頻繁にレバー操作しなくても鋼板が流れるようになった時に、自動センタリング・アシストを開始するためのボタンであり、押すと自動になり点灯、コイル終端信号で点滅し、再度押すと手動に切り替わり消灯となる。手動ボタンは、緊急時のシステム動作を停止し手動に戻すボタンであり、押すとONでSW.点灯、もう一度押すとOFFでSW.消灯となる。
次いで、インタラクティブ・ユーザ・インタフェース部190に含まれる表示機能の一例について説明する。以下に説明する表示機能は、表示制御部143による制御により実行される。
例えば、自動センタリング時において、インタラクティブ・ユーザ・インタフェース部190は、レバー操作を表示し、作業者にレバー操作方向を教示する情報を表示する。インタラクティブ・ユーザ・インタフェース部190は、トリマ耳切画像モニタ部分に、作業者にトリマ耳切画像を表示する。インタラクティブ・ユーザ・インタフェース部190は、コイル終端を表示し、作業者にコイル終端が近いことを知らせる情報を表示する。インタラクティブ・ユーザ・インタフェース部190は、データ取得ステイタスを表示し、開始と、データ取り込み中と、終了のステイタスとを表示する。インタラクティブ・ユーザ・インタフェース部190は、エラーを表示し、データ取得時のエラー発生を知らせる情報を表示する。
図20は、インタラクティブ・ユーザ・インタフェース部190における表示画面の一例を示す図である。表示画面400は、左側画面の上段に板仕様の選択ボタン401を備え、下段に手動制御と自動制御との切り替えボタン403を備える。表示画面400の左側画面の中段は、熟練者から学んだ機械操作信号の向きを示す表示エリア402である。表示画面400は、右側画面に、遠方のサイドトリマ工程におけるW.S.とD.S.のトリマによって切断された鋼材の切れ端(通称/耳)の幅をモニタできる画面を配置している。
図21は、インタラクティブ・ユーザ・インタフェース部190における表示画面の他の例を示す図である。表示画面410には、予測される耳幅の変化及びオペレータの操作によって、これからどのように耳幅が変化していくかの予測を、モニタ画像にオーバーレイしたARで表示することもできる。この表示画面410を使って、熟練作業者に、現在取得したデータが、作業のお手本として適切な場合にお手本データとしてよいかを確認する、お手本OKボタンを画面上に設けた。例えば、お手本OKボタンが操作された時に表示画面410に表示されている画面データに対してラベリング情報が付与される。これにより、膨大な収集データの中から、熟練作業者が正しいと認めた学習データのみを抽出でき、学習データをクレンジングする際に有効となる。
図22は、センタリング作業の比較について説明するための図である。図22(A)は、従来のセンタリング作業を説明するための図である。従来のセンタリング作業では、熟練作業者Xが、サイドトリマ40の着目点を映すモニターカメラの映像から、サイドトリマ40による切断位置P1付近を目視で監視し、耳切れの予兆を認知して、鋼材をどちらに寄せるべきかを判断し、右方向、左方向を手振りの連続動作で熟練作業者Yに知らせていた。この熟練作業者Xの手振りを熟練作業者Yが解釈することにより、センタリングを補正して、耳切れを回避していた。
図22(B)は、教師データを収集する際のセンタリング作業を説明するための図である。ここでは、熟練作業者Xは必要なく、熟練作業者Yだけでよい。制御装置100のインタラクティブ・ユーザ・インターフェイス部190には、サイドトリマ40による切断位置P1付近を撮像した画像が表示されている。熟練作業者Yは、このインタラクティブ・ユーザ・インターフェイス部190を監視しながら、ラフレベラ30の入り口のアンコイラ位置P2を目視で確認しつつ、操作レバー110Aを操作する。このときの操作履歴情報が教師データの一部となる。
図22(C)は、制御装置100による自動制御で行うセンタリング作業を説明するための図である。制御装置100には、学習済モデルが格納されているため、サイドトリマ40による切断位置P1付近を撮像した画像と、ラフレベラ30の入り口のアンコイラ位置P2を撮像した画像に基づく情報を、学習済モデルに入力することで、熟練作業者による操作を推定し、推定された操作内容に従って調整装置12を制御する。
以上説明した実施形態によれば、熟練作業者が保有している暗黙知に着目して得られた学習済モデルを用いて制御を行うことができる。
また、熟練作業者の技能の大半は暗黙知であり、言語化できないために、従来からあるエキスパートシステムでは、多くの重要な熟練者の技能を獲得することができない。本実施形態によれば、深層学習の特徴量を自動で学習する特徴を生かして、熟練者の暗黙知をそのまま学習して、熟練者に、ならって機械を制御することができる。また、複数の熟練作業者が分散して保有している暗黙知を学習して、複数の熟練者の作業を集約して機械を制御することができる。
(第2実施形態)
制御装置100は、教師データとする操作履歴情報を取得する際に、熟練作業者の鋼材10Aの着目点に関する情報(例えば、上述の着目情報)をインタラクティブ・ユーザ・インタフェース部190に表示させてもよい。インタラクティブ・ユーザ・インタフェース部190に表示される着目情報は、テキスト情報であってもよく、第1カメラ71(あるいは第2カメラ72)により撮像された画像をリアルタイムに表示する画面上に重畳して、着目箇所を目立たせるマーカ等であってもよい。
また、制御装置100は、教師データとする操作履歴情報を取得する際に、熟練作業者による過去の操作履歴に基づく推奨手動レバー操作をインタラクティブ・ユーザ・インタフェース部190に表示させてもよい。推奨手動レバー操作は、耳切れを防止するために過去に熟練作業者が実行した操作である。インタラクティブ・ユーザ・インタフェース部190に表示される操作履歴報は、テキスト情報であってもよく、第1カメラ71(あるいは第2カメラ72)により撮像された画像をリアルタイムに表示する画面上に重畳して、操作履歴所を目立たせるマーカ等であってもよい。
本実施形態において、制御装置100は、熟練作業者による着目情報、あるいは、熟練作業者による過去の操作履歴に基づく推奨手動レバー操作がインタラクティブ・ユーザ・インタフェース部190に表示されている状態で、アンコイラ作業者Aや熟練作業者Yがインタラクティブ・ユーザ・インタフェース部190を監視しながら操作した操作履歴を取得し、学習済モデル作成装置200は、この操作履歴を教師データとして学習済モデルを作成する。
こうすることにより、一以上の熟練作業者が保有する熟練技能(暗黙知)を学習させた学習済モデルを生成することができ、複数の熟練者が分散して暗黙知として保有していた一連の熟練技能を統合して習得することできる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…鋼材加工システム、10…コイル支持部、20…アンコイラ、30…ラフレベラ、40…サイドトリマ、71…第1カメラ、72…第2カメラ、100…制御装置、200…学習済モデル作成装置、110…機械操作部、120…機械表示部、130…取得部、131…画像取得部、132…電気信号取得部、140…処理部、141…データストレージ部、142…ストリーミング映像送信部、143…表示制御部、144…推論部、150…記憶部、160…制御部、170…通信部、190…インタラクティブ・ユーザ・インターフェイス部

Claims (9)

  1. 熟練作業者の対象物の着目点を撮像するカメラによって撮像された画像のデータを取得すると共に、前記熟練作業者が機械を操作した内容を示す操作信号のデータを取得する取得部と、
    前記画像のデータを学習データ、前記操作信号のデータを教師データとして学習された学習済モデルに、前記画像のデータを入力することで、前記機械を操作するための信号を生成する推論部と、
    前記推論部によって生成された信号を前記機械に与える制御部と、
    を備える制御システム。
  2. 前記画像のデータを学習データ、前記操作信号のデータを教師データとして前記学習済モデルを学習する学習処理部を更に備える、
    請求項1記載の制御システム。
  3. 前記制御部は、前記着目点に関する情報を、前記機械を操作する操作者が目視可能な表示部に表示させ、
    前記取得部は、さらに、前記表示部に前記着目点に関する情報が表示されている期間において入力された前記熟練作業者と別の熟練作業者が前記機械を操作した内容を示す操作信号のデータを取得し、
    前記学習処理部は、前記画像のデータを学習データとし、前記別の熟練作業者が前記機械を操作した内容を示す操作信号のデータを教師データとして学習済モデルを学習する
    請求項2に記載の制御システム。
  4. 前記制御部は、前記機械を操作する操作者が目視可能な表示部に、前記推論部により推定された操作内容を表示させる、
    請求項1に記載の制御システム。
  5. 操作部をさらに備え、
    前記制御部は、複数の前記画像のうち前記操作部を介して熟練作業者により選択された画像に対して、良好な教師データであること示すラベリング情報を付与する、
    請求項1に記載の制御システム。
  6. 前記制御部は、前記推論部により推定された操作内容に基づく制御が規定範囲内であるか否かを判定し、規定範囲内でない場合、前記規定範囲内の制御を実行する、
    請求項1に記載の制御システム。
  7. 前記制御部は、前記推論部により推定された操作内容に基づく自動制御を実行中に、操作部を介して操作を受け付け場合、前記操作部を介して受け付けた操作に基づく手動制御に切り替える、
    請求項1に記載の制御システム。
  8. 搬送中のシート状部材の端部を搬送方向に沿って切断する切断位置を含む所定エリアを撮像するカメラから画像のデータを取得する共に、前記切断位置よりも搬送方向の上流側において前記シート状部材の搬送位置を調整する調整装置を操作した内容を示す操作信号のデータを取得する取得部と、
    前記切断位置において熟練作業者が着目する所定のエリアを撮像した複数の画像のデータを学習データ、前記操作信号のデータを教師データとして学習された学習済モデルに、前記画像のデータを入力することで、前記調整装置を操作するための信号を生成する推論部と、
    前記推論部により推定された操作内容に基づいて、前記調整装置を制御する制御部と、
    を備える制御システム。
  9. 搬送中のシート状部材の端部を搬送方向に沿って切断する切断位置において熟練作業者が着目する所定のエリアを撮像した複数の撮像画像を取得し、
    前記切断位置よりも搬送方向の上流側において前記シート状部材の搬送位置を調整する調整装置に対する操作履歴を示す情報を取得し、
    前記複数の撮像画像に基づき得られた情報を学習データとし、前記操作履歴を示す情報とを教師データとして、前記調整装置に対する操作と前記シート状部材の搬送状況との関係性を学習させた学習モデルを作成する、
    学習済モデルの作成方法。
JP2020218011A 2020-12-25 2020-12-25 制御システム、および学習済モデルの作成方法 Active JP7129673B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020218011A JP7129673B2 (ja) 2020-12-25 2020-12-25 制御システム、および学習済モデルの作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020218011A JP7129673B2 (ja) 2020-12-25 2020-12-25 制御システム、および学習済モデルの作成方法

Publications (2)

Publication Number Publication Date
JP2022102930A true JP2022102930A (ja) 2022-07-07
JP7129673B2 JP7129673B2 (ja) 2022-09-02

Family

ID=82273259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020218011A Active JP7129673B2 (ja) 2020-12-25 2020-12-25 制御システム、および学習済モデルの作成方法

Country Status (1)

Country Link
JP (1) JP7129673B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002066627A (ja) * 2000-08-25 2002-03-05 Aida Engineering Co Ltd チューブミルライン及びロールフォーミングライン
JP2014083572A (ja) * 2012-10-25 2014-05-12 Jfe Steel Corp 鋼板搬送装置および鋼板の搬送制御方法
JP2017138282A (ja) * 2016-02-05 2017-08-10 トヨタ自動車株式会社 自動運転システム
JP2018206286A (ja) * 2017-06-09 2018-12-27 川崎重工業株式会社 動作予測システム及び動作予測方法
JP2020052539A (ja) * 2018-09-25 2020-04-02 トヨタ自動車株式会社 学習画像選別装置
WO2020075423A1 (ja) * 2018-10-10 2020-04-16 ソニー株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
WO2020235471A1 (ja) * 2019-05-17 2020-11-26 ヤンマーパワーテクノロジー株式会社 作業車両用の自動走行システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002066627A (ja) * 2000-08-25 2002-03-05 Aida Engineering Co Ltd チューブミルライン及びロールフォーミングライン
JP2014083572A (ja) * 2012-10-25 2014-05-12 Jfe Steel Corp 鋼板搬送装置および鋼板の搬送制御方法
JP2017138282A (ja) * 2016-02-05 2017-08-10 トヨタ自動車株式会社 自動運転システム
JP2018206286A (ja) * 2017-06-09 2018-12-27 川崎重工業株式会社 動作予測システム及び動作予測方法
JP2020052539A (ja) * 2018-09-25 2020-04-02 トヨタ自動車株式会社 学習画像選別装置
WO2020075423A1 (ja) * 2018-10-10 2020-04-16 ソニー株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
WO2020235471A1 (ja) * 2019-05-17 2020-11-26 ヤンマーパワーテクノロジー株式会社 作業車両用の自動走行システム

Also Published As

Publication number Publication date
JP7129673B2 (ja) 2022-09-02

Similar Documents

Publication Publication Date Title
US10732623B2 (en) Remotely operated mobile robot and robot control system
JP7156731B2 (ja) 作業支援装置、作業支援方法及びプログラム
EP3682415B1 (en) Image acquisition device and method of controlling the same
JP6343953B2 (ja) プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム
JP2013140563A (ja) 印刷システム、画像形成装置及び方法
JP4586092B2 (ja) 複数のロボット機構部を備えたロボットシステム
US20050267633A1 (en) Vehicle appraisal assisting robot and vehicle appraisal system using the robot
CA2949356A1 (en) Asset estimate generation system
CN106863807A (zh) 一种3d打印机的故障提示方法及装置
JP2007235613A (ja) 遠隔制御装置
CN113442950A (zh) 基于多车辆的自动驾驶控制方法、装置和设备
JP2022102930A (ja) 制御システム、および学習済モデルの作成方法
JP2007011880A (ja) 自動販売機の制御システム
US10560578B2 (en) Methods and systems for providing interactive support sessions
US10872606B2 (en) Device control apparatus and device control method
JP2010081041A (ja) 自動追尾カメラの制御装置及び自動追尾カメラシステム及び自動追尾カメラの制御方法
WO2020071222A1 (ja) 情報処理方法、及び、情報処理システム
US11217248B2 (en) Conversation device and conversation system
CN109129460B (zh) 机器人管理***
JP2016184242A (ja) 情報案内システム
JP2021037904A (ja) 対象物検知装置、対象物検知システムおよび対象物検知方法
US20220161437A1 (en) Robot and control system
EP3467465A1 (en) A system and a method for monitoring the position of a blocking device, and a method of edging an ophthalmic lens
WO2018158881A1 (ja) 作業指示システム、情報処理装置、プログラム及び作業指示方法
US20240203221A1 (en) Monitoring device and monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7129673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150