JP6643170B2 - 作業支援システム及び方法 - Google Patents

作業支援システム及び方法 Download PDF

Info

Publication number
JP6643170B2
JP6643170B2 JP2016078581A JP2016078581A JP6643170B2 JP 6643170 B2 JP6643170 B2 JP 6643170B2 JP 2016078581 A JP2016078581 A JP 2016078581A JP 2016078581 A JP2016078581 A JP 2016078581A JP 6643170 B2 JP6643170 B2 JP 6643170B2
Authority
JP
Japan
Prior art keywords
work
worker
dimensional data
data
work space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016078581A
Other languages
English (en)
Other versions
JP2017191351A (ja
Inventor
浩彦 佐川
浩彦 佐川
辰哉 鈴木
辰哉 鈴木
佳生 山村
佳生 山村
敏彰 柴田
敏彰 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016078581A priority Critical patent/JP6643170B2/ja
Publication of JP2017191351A publication Critical patent/JP2017191351A/ja
Application granted granted Critical
Publication of JP6643170B2 publication Critical patent/JP6643170B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、製品の組み立てや設備の保守等の各種作業において、作業に必要な情報を作業者に提示することにより作業者を支援する、作業支援システムに関するものである。
製品の組み立てや設備の保守等の各種作業においては、作業が適切に完了したか否かの確認を作業者が行う必要がある。その際、必要な箇所を見落としなく確認を行うための支援が必要である。また、作業を実施した箇所や対象物を撮影した写真等により、作業結果を保存する場合もあるが、この場合も、作業後に確認を行うために必要な箇所の写真等が適切に取得されるよう、作業者を支援することが望ましい。
近年、実世界を映した映像上の適切な位置に他の画像や文字等の仮想情報を提示することにより、使用者による実世界の理解を補助する技術である拡張現実感と呼ばれる技術が注目されている(例えば、非特許文献1)。拡張現実感を用いることにより、作業者が見ている作業空間上に作業を実施する対象物の位置を3次元的に提示することができる。このように提示された対象物の位置は確認を行う必要がある場所でもあることから、作業結果の確認の支援を目的として使用することも可能である。さらに、対象物の位置を表示する際に、対象物の場所に作業者の視線を誘導するような3次元的な表示も可能である。
例えば、特許文献1及び特許文献2では、3次元CADデータや3次元の目標データと、3次元計測機やステレオ画像により取得した3次元データとの差分を求めることにより、作業の進捗を判定する技術が記載されている。さらに特許文献2では、目標データと取得した3次元データとを重畳表示させることにより、目標とするデータとの差分を視覚化する技術が記載されている。
特許文献3では、データベース中の写真と新たに取得した写真を比較し、差異をハイライト表示する技術が記載されている。
特許文献4及び特許文献5では、非特許文献1にある拡張現実感技術において、状況に応じて、現実空間上に重ね合わせる情報を変える技術が記載されている。例えば、特許文献4では対象の位置・方向に基づいて情報の内容を変化させる技術が、特許文献5では作業者の手を検出し、その有無で表示の色や透過度を変える技術がそれぞれ示されている。
特開平9−133519号公報 特開2002−352224号公報 特許5740884号公報 特願2009−55575号公報 特願2010−269635号公報
「特集 拡張現実感」、情報処理学会誌、Vol.51、No.4、2010年
非特許文献1の技術を用いることにより、確認が必要な箇所や対象物に対して、作業者の視線を誘導することが可能となる。また、特許文献1、特許文献2及び特許文献3の技術を用いることにより、3次元の目標データや3次元CADデータと作業完了後の対象物の状態との差異を作業者が認識することが可能である。
しかしながら、これらの技術では、作業者が特定の箇所や対象物のどの部分を確認し、どの部分を確認していないかを判定し、確認していない部分を作業者に提示することができない。
また、非特許文献1の技術では、作業者が見ている作業空間上に対象物の位置を3次元的に提示することができるため、確認すべき場所を特定できた場合に、作業者の視線をその箇所に誘導する技術として有効であると考えられる。
しかしながら、作業者と対象物との距離が近いような場合、表示装置によっては、必要な箇所が表示領域内に納まらないことがある。このような場合、逆に、作業者が状況を把握しづらくなる可能性がある。
また、非特許文献1の技術では、作業者と作業空間の位置関係を推定する処理を行うが、その処理が適切に実施されない場合、情報がまったく提示されなくなるという問題もある。
特許文献4及び特許文献5では、状況に基づいて提示する情報の内容を変化させているが、現実空間上への重ね合わせ表示のみを対象としているため、上記のような状況に対しては十分な方法であるとは言えない。
そこで、本発明の目的は、作業者が行う作業結果の確認を適切に遂行できるように作業者を支援する技術を提供することにある。
本発明のさらに別の目的は、作業結果の確認を支援するための情報を作業者に分かりやすく提供することである。
本発明の一つの実施態様に従う作業支援システムは、作業空間内にある、作業対象の被取付体及び前記被取付体に取り付ける部品の3次元データと、1以上の作業工程の作業手順を示す作業マニュアルデータと、を記憶する記憶装置と、作業者が作業を行っている間、前記作業者から見える作業空間の3次元データを取得する3次元データ取得装置と、中央処置装置と、を備える。前記中央処理装置は、前記記憶手段に記憶されている作業マニュアルデータに基づいて、各作業工程の作業手順を出力させる処理と、前記記憶手段に記憶されている、第1の作業工程に係る被取付体及び部品の3次元データと、前記3次元データ取得装置が取得した作業空間の3次元データとを比較し、第1の作業工程の目視確認作業の終了条件を満たすか否かを判定する処理と、前記判定で前記終了条件が満たされないときは、前記終了条件を満たすためのガイダンスを出力させる処理と、を行う。
好適な実施態様では、前記中央処理装置は、さらに、前記3次元データ取得装置の位置及び姿勢を推定し、前記推定の結果に基づいて前記第1の作業工程に係る被取付体及び部品の3次元データと、前記作業空間の3次元データとをマッチングさせる処理を行ってよい。前記目視確認作業の終了条件は、前記第1の作業工程に係る被取付体及び部品の3次元データと前記作業空間の3次元データとの差分が所定の閾値以下でよい。
好適な実施態様では、前記終了条件を満たすためのガイダンスは、前記作業者が見る視点及び視線の方向を示すものでよい。
好適な実施態様では、前記作業者が見る視点は、前記第1の作業工程に係る被取付体及び部品の3次元データにあって前記作業空間の3次元データにない領域であってよい。
好適な実施態様では、前記作業者によって装着されるヘッドマウントディスプレイをさらに備えてよい。前記終了条件を満たすためのガイダンスは、前記ヘッドマウントディスプレイを通して前記作業者から見える作業空間において、前記作業者が見る前記被取付体または前記部品の位置及び視線の方向を、前記ヘッドマウントディスプレイに表示する第1の表示態様と、前記取付体及び前記部品を含むCG画像において前記作業者が見る前記被取付体または前記部品の位置及び視線の方向をコンピュータグラフィックスで前記ヘッドマウントディスプレイに表示する第2の表示態様と、のいずれかの表示態様で出力されてよい。
好適な実施態様では、前記ガイダンスは、(1)〜(4)のいずれかが満たされるとき、前記第2の表示態様で出力されてよい。
(1)前記作業者と前記部品の距離が所定以下であるとき
(2)前記作業者が見る前記被取付体または前記部品の位置を遮蔽するまたは遮蔽するおそれがある物があるとき
(3)第1の表示態様では、前記作業者が見る前記被取付体または前記部品の位置及び視線の方向の表示が前記ヘッドマウントディスプレイに収まらないとき
(4)前記マッチングを行っても前記第1の作業工程に係る被取付体及び部品の3次元データと前記作業空間の3次元データとのズレが所定以上であるとき
好適な実施態様では、前記中央処理装置は、さらに、前記判定で前記終了条件が満たされるときは、第1の作業工程の次の第2の作業工程の作業手順を出力させてよい。
好適な実施態様では、前記中央処理装置は、さらに、前記判定で前記終了条件が満たされたときは、前記作業空間の3次元データを前記記憶装置に保存してよい。
本発明によれば、作業者が行う作業結果の確認を適切に遂行できるように作業者を支援することができる。
また、本発明によれば、作業結果の確認を支援するための情報を作業者に分かりやすく提供することができる。
本発明の第1の実施形態に係る作業支援システムを実現するための情報処理装置のハードウェア構成の一例 本実施形態における作業支援システムの利用シーンの一例 デプスセンサにより取得される作業空間データのフォーマットの一例 作業者のビュー及びそれに対応する領域の作業空間データの一例140 部品モデル及び作業空間モデルを点群データの形式で保存する場合のデータフォーマットの一例 点群データとして設備を表した場合のイメージ 部品モデル及び作業空間モデルをポリゴンの形式で保存する場合のデータフォーマットの一例 作業マニュアルデータのデータフォーマットの一例 作業支援の手順を示すフローチャート 位置及び姿勢の推定の説明図 確認状態判定プログラムで実行される処理のフローチャート 作業空間データが不足している部品モデル上の領域を特定する処理の説明図 作業者が見るべき方向を決定する処理の説明図 作業者に見るべき位置及び方向を提示する方法の一例 本発明の第2の実施形態に係る作業支援システムの構成図 作業履歴のデータフォーマットの一例 第2の実施形態で実行される処理の流れを表すシーケンス図
以下、本発明の実施形態に係る作業支援システムについて図面を参照して説明する。本実施形態に係る作業支援システムは、例えば、組み立て作業を行う作業者に対して作業手順などの情報を提供して作業を支援する。
図1は、本発明を適用した第1の実施形態に係る作業支援システムを実現するための情報処理装置のハードウェア構成の一例を示す。
図1において、情報処理装置は、中央処理装置101と、入力装置102と、出力装置103と、記憶装置104と、を備える。
中央処理装置101が各種のプログラムを実行する。
入力装置102は、作業を実施する設備や対象物を含む空間に関するデータを作業空間データとして入力する装置である。本実施形態では、作業空間データを入力する装置102は、対象物までの距離を画素値とする距離画像を取得するデプスセンサ204でよい。また、入力装置102は、例えば、キーボード、マウス、タッチパネル等の一般的なコンピュータにおける入力装置を含んでもよい。
出力装置103は情報を作業者へ提示する装置であり、HMD(ヘッドマウントディスプレイ)205と呼ばれる頭部装着型の表示装置でよい。
記憶装置104は、作業管理プログラム105、位置姿勢推定プログラム106、確認状態判定プログラム107、及び表示内容生成プログラム108を記憶する。各プログラムは中央処理装置101により実行されることで以下に説明する機能が実現される。
記憶装置104は、さらに、作業マニュアルデータ800と、部品モデル120と、作業空間モデル130と、作業空間データ140とを有する。
作業管理プログラム105は、位置姿勢推定プログラム106、確認状態判定プログラム107、及び表示内容生成プログラム108の実行を制御し、作業者に提示する情報を管理するプログラムである。作業管理プログラム105は、例えば、作業マニュアルデータ800に基づいて、各作業工程の作業手順を出力させよい。作業管理プログラム105は、一つの作業工程の終了条件が満たされるときは、次の作業工程の作業手順を出力させてよい。
位置姿勢推定プログラム106は、作業空間データ1400と作業空間モデル1300の対応関係を求めることにより、デプスセンサ204と作業空間との位置関係を推定するプログラムである。位置姿勢推定プログラム106は、デプスセンサ204の位置及び姿勢を推定し、その推定の結果に基づいて被取付体及び部品の3次元データと、作業空間の3次元データとをマッチングさせる。
確認状態判定プログラム107は、位置姿勢推定プログラム106により推定されたデプスセンサ204と作業空間との位置関係に基づいて、作業者が対象物に対して確認を行った部分を推定するプログラムである。例えば、確認状態判定プログラム107は、被取付体及び部品の3次元データと、デプスセンサ204が取得した作業空間の3次元データとを比較し、各作業工程の目視確認作業の終了条件を満たすか否かを判定してもよい。目視確認作業の終了条件は、被取付体及び部品の3次元データと作業空間の3次元データとの差分が所定の閾値以下としてもよい。
表示内容生成プログラム108は、確認状態判定プログラム107の結果に基づいて、作業者が見るべき位置及び方向を決定し、作業者に提示する情報を生成するプログラムである。例えば、確認状態判定プログラム107が目視確認作業の終了条件が満たされないと判断したときは、表示内容生成プログラム108は、その終了条件を満たすためのガイダンスを出力させてよい。このガイダンスは、作業者が見る視点及び視線の方向を示すものでよい。作業者が見る視点は、被取付体及び部品の3次元データにあって作業空間の3次元データにない領域でよい。
部品モデル120は、被取付体に取り付ける部品を表す3次元のモデルである。部品モデル120は、点群データの形式で表現され得る。また、部品モデル120は、部品を取り付ける場所及び取り付ける向きをコンピュータグラフィックス(CG)技術を用いて作業者に提示するために、ポリゴン(多角形)を用いた3次元モデルであってもよい。ポリゴンは、あらかじめ定めた大きさになるまで分割し、その頂点を抽出することにより、点群モデルに変換され得る。記憶装置104には、予め複数の部品の部品モデルが登録されていてもよい。
作業空間モデル130は、作業を実施する空間全体を表す3次元のモデルである。作業空間モデル130には、作業空間内にある作業対象の被取付体の3次元モデルを含む。作業空間モデル130は、部品モデル120と同様に、点群データの形式で表現され得る。記憶装置104には、複数の作業空間の状態に対応する複数の作業空間モデル130が点群データの形式で保存されていてもよい。
作業マニュアルデータ800は、1以上の作業工程について、各作業工程の作業手順を示す。例えば、作業マニュアルデータ800には、作業工程及び各作業工程の作業手順に関する情報と、作業で用いられる部品に関する情報と、作業空間モデルにおける部品の位置及び姿勢に関する情報が含まれる。
図2は、本実施形態における作業支援システムの利用シーンの一例を示す。
図2において、201はユーザ端末である。ユーザ端末201は、例えば、作業支援システムの各種処理を行う携帯型端末であり、小型コンピュータやタブレット型端末、スマートフォン等でよい。ユーザ端末201にはタッチパネル202が装備されており、タッチパネル202が受け付けたユーザ操作に従って、作業支援システムが動作するようにしてもよい。例えば、システムを開始または終了させる場合、及びシステムが誤って次の作業工程へ遷移した際に元の作業工程へ戻す場合等に、タッチパネル202がユーザ操作を受け付ける。本実施形態では、図1の情報処理装置がユーザ端末201であってよい。つまり、本実施形態では、ユーザ端末201が作業管理プログラム105、位置姿勢推定プログラム106、確認状態判定プログラム107、及び表示内容生成プログラム108の機能を実現する。
203は、作業者が作業中に装着するヘルメットである。ヘルメット203は、例えば、入力装置102である作業中空間データを入力するためのデプスセンサ204と、出力装置103である頭部装着型の表示装置のHMD(ヘッドマウントディスプレイ)205とを有する。
デプスセンサ204は、作業者が作業を行っている間、作業者から見える作業空間の3次元データを取得する3次元データ取得装置である。デプスセンサ204は、作業中の作業者の視線の作業空間を表す作業空間データ140を取得する。そのため、デプスセンサ204はHMD205に設置されてもよい。あるいは、作業者の肩や胸等、目的の空間の情報を取得することが可能な任意の箇所にデプスセンサ204を設置してもよい。
デプスセンサ204で取得された距離画像は、センサの焦点距離や中心位置を用いることにより、3次元空間上における点の集合として対象空間の情報を表す点群データに変換され得る。本実施形態における作業空間データ140は点群データとして表現されたものを使用する。また、デプスセンサ204としては、通常のカラー画像も取得することができるものを使用することができる。この場合、色情報が付加された点群データを取得することができる。本実施形態では、色情報が付加された点群データを使用する。
206は作業空間中に配置された設備であり、設備206に対して取り付けを行う部品207、208、209、210が取り付けられる。図2では、既に取り付けが終了した状態を表しているが、作業開始時は部品207〜210は、設備206上には設置されていない状態となる。
本実施形態では、図2の設備206に部品を取り付ける場合を例に説明するが、本発明は製品、機械、装置等の本体を被取付体としてこれに部品を取り付けるような、部品の取り付け工程の作業に対して適用することができる。
図3は、デプスセンサ204により取得される作業空間データ140のフォーマットの一例を示す。
作業空間データ140は、点の数1401と、点の位置座標1402と、点の色情報1403とをデータ項目として有する。作業空間データ140は点の数1401に示す点の数だけ点の位置座標1402及び色情報1403を有する。
位置座標1402は、一般的に使用されるx軸、y軸及びz軸上の座標値の組み合わせで表現することができる。位置座標1402は、他の座標系で表現されてもよい。
色情報1403は、例えば、三原色(赤、緑、青)の各成分の値の組み合わせで表現することができる。色情報1403は、他の色空間を用いて表現されてもよい。
図4Aは、作業者がHMD205を通して見ている作業空間である作業者のビュー401を示す。作業者のビュー401には、部品209と設備206の一部が含まれる。
図4Bは、作業者のビュー401に対応する領域の作業空間データ140(点群データ)に基づいて描画した図を示す。図4Bに示すように、デプスセンサ204から取得される点群データを空間上に表示すると、作業空間内の設備206及び部品209の面が点の集合として表現される。
図5は、部品モデル120及び作業空間モデル130を点群データの形式で保存する場合のデータフォーマットの一例を示す。部品モデル120及び作業空間モデル130は共通のフォーマットでよい。ここでは、点群データの形式の部品モデル120及び作業空間モデル130を、3次元モデル(点群データ)500と呼ぶ。
3次元モデル(点群データ)500は、データ項目として名称501と、点の数502と、点の位置座標503と、点の色情報504とを有する。3次元モデル(点群データ)500は複数の点の位置座標503及び色情報504を有する。
名称501は、部品あるいは作業空間の名称で、識別子である。名称501としては、任意の文字列を使用することができる。
点の数502は、部品または作業空間の3次元モデルを構成する点の数である。
点の位置座標503は、部品または作業空間の3次元モデルを構成する点の位置座標である。点の位置座標503の表現方法は、位置座標1402と同じでよい。
点の色情報504は、部品または作業空間の3次元モデルを構成する点の色情報である。点の色情報504の表現方法は、色情報1403と同じでよい。
図6は、作業空間モデル130として、図2の設備206を示す点群データを3次元モデル(点群データ)500形式で有するとき、それを空間上に表示した場合の設備イメージ601を示す。
図7は、部品モデル120及び作業空間モデル130をポリゴン(多角形)の形式で保存する場合のデータフォーマットの一例を示す。部品モデル120及び作業空間モデル130は共通のフォーマットでよい。ここでは、ポリゴン形式の部品モデル120及び作業空間モデル130を、3次元モデル(ポリゴンデータ)700と呼ぶ。
3次元モデル(ポリゴンデータ)700は、データ項目として、名称701、ポリゴンの数702、ポリゴンの頂点数703、頂点の位置座標704、法線の向き706及びポリゴンの色情報707を有する。
名称701は、各部品や作業空間を区別するために付与される名称であり、識別子である。名称701としては、任意の文字列を使用することができる。
ポリゴンの数702は、部品や作業空間を構成するポリゴンの数である。3次元モデル(ポリゴンデータ)700は、ポリゴンの数702だけポリゴンの頂点数703〜ポリゴンの色情報707を有する。
ポリゴンの頂点数703は、ポリゴンを構成する頂点の数であり、ポリゴンが三角形であれば3、四角形であれば4などの数値が登録される。3次元モデル(ポリゴンデータ)700は、ポリゴンの頂点数703だけ頂点の位置座標704を有する。
頂点の位置座標704は、ポリゴンを構成する各頂点の位置座標である。頂点の位置座標704は、ポリゴンの頂点数703だけデータを有する。位置座標の表現方法は位置座標1402と同じでよい。
法線の向き706は、ポリゴンの法線の方向を示すベクトルに関する情報である。法線の向き706は、ベクトルのx軸、y軸及びz軸方向の成分の値により表すことができる。
ポリゴンの色情報707は、ポリゴンの色を示す。ポリゴンの色情報707の表現方法は、色情報1403と同じでよい。
図8は、作業マニュアルデータ800のデータフォーマットの一例を示す。
作業マニュアルデータ800は、作業を構成する複数の作業工程ごとの各工程の作業手順に関する情報と、作業で被取付体に対して取り付ける部品に関する情報と、作業空間モデルにおける部品の位置及び姿勢に関する情報が含まれる。
作業の名称801は、複数の作業がある場合に各作業を区別するために付与される名称であり、識別子である。作業の名称801は、任意の文字列を使用することができる。
作業工程の数802は、作業を構成する工程の数である。
作業工程の名称803は、各作業工程の名称である。作業工程の名称803には、任意の文字列を使用することができる。
作業工程の内容804は、各作業工程で行う作業工程の内容である。作業工程の内容804には、任意の文字列を使用することができる。作業工程の内容804には、具体的な作業手順を示す画像や動画を含めることができる。
作業空間モデル名805は、各作業工程に関連する作業空間モデル130の名称である。作業空間は作業が進むにともなって変化していくことになるため、図8に示すデータフォーマットでは、作業工程毎に異なる作業空間モデル130を指定できるようにしている。
部品モデル名806は、各作業工程において取り付けられる部品の部品モデルの名称である。
部品の位置及び姿勢807は、部品モデル名806の部品の位置及び姿勢を示す情報であり、位置と向きに関する情報で構成される。位置は一般的に使用されるx軸、y軸及びz軸上の座標値の組み合わせでよい。向きは、x軸、y軸及びz軸周りの回転角度で表すことができる。位置及び向きの表現方法としては、同様の機能を有する方法であれば、どのような表現を用いても良い。
また、図8に示すフォーマットでは、各作業工程で対象となる部品(部品モデル名806及び部品の位置及び姿勢807)は一つであるが、複数の部品を登録できるようにしても良い。
図9のフローチャートを用いて、本実施形態に係る作業支援システムが行う作業支援の手順について説明する。
図9のステップ901では、作業管理プログラム105が作業マニュアルデータ800から作業者が選択した作業工程に関する情報をシステムに読み込む。作業工程を選択する方法としては、例えば、作業工程の一覧をユーザ端末201の画面上に一覧表示し、タッチパネル等を用いて選択できるようにすれば良い。
ステップ902では、読み込んだ作業工程における作業工程の内容が実施対象の作業手順として設定される。
ステップ903では、システム状態が「作業中」に設定される。
ステップ904では、作業管理プログラム105が、デプスセンサ204から作業者が見ている作業空間のデータ(点群データ)を取得する。
ステップ905では、姿勢推定プログラム106が作業空間モデル130に対するデプスセンサ204の位置及び姿勢の推定を行う。姿勢推定プログラム106は、作業管理プログラム105により起動されてもよい。
姿勢推定プログラム106は、ステップ904で取り込んだ作業空間データ140と、実施中の作業工程の作業空間モデル名805に対応する作業空間モデル130の点群データとを用いて、デプスセンサ204の位置及び姿勢を推定してもよい。例えば、位置姿勢推定プログラム106は、デプスセンサ204から取得された作業空間データ140と、実施中の作業工程の作業空間モデル名805に対応する作業空間モデル130の点群データとが最も良く一致するように、一方の点群データの並進及び回転を行う変換行列を求めることにより、デプスセンサ204の位置及び姿勢を推定してもよい。
図10を参照して、位置及び姿勢の推定について具体的に説明する。
同図Aは、デプスセンサ204から取得された作業空間データ140に基づいて描画した作業空間1001を示す。同図Bは、実施中の作業工程の作業空間モデル名805に対応する作業空間モデル130の点群データを描画した作業空間モデル601である。
位置姿勢推定プログラム106は、例えば、作業空間1001を、作業空間モデル601における対応箇所1002に一致するように、作業空間1001を並進及び回転させる変換行列を求める。作業空間1001及び対応箇所1002が最も良く一致する変換行列を求める方法としては、点群データの位置合わせとして良く知られている方法、例えば、ICP(Iterative Closest Point)アルゴリズム(S. Rusinkiewicz and M. Levoy、 “Efficient Variants of the ICP Algorithm”、 Third International Conference on 3D Digital Imaging and Modeling、 2001)やNDT(Normal Distributions Transformation)(P. Biber and W. StraBer、 “The Normal Distributions Transform:A New Approach to Laser ScanMatching Proceedings of the 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems、 2003)等を用いることができる。
デプスセンサ204の位置及び姿勢の推定を行う方法としては、二つの点群データが最も良く一致する回転行列を求める手法であれば、これ以外のどのような手法を用いても良い。
図9に戻ると、ステップ906では、作業管理プログラム105が、システム状態が「作業中」であるか「確認中」であるかを判定する。システム状態が「作業中」の場合はステップ907に、「確認中」の場合はステップ910に進む。
ステップ907では、作業管理プログラム105が、実施中の作業工程の内容に関する情報を作業マニュアルデータ800から抽出し、HMD205に表示させてよい。この場合、表示される情報は、作業手順の名称803及び作業工程の内容804でよい。
このとき、作業管理プログラム105が、部品モデル名806の部品モデル120と、部品の位置及び姿勢807と、ステップ905で推定されたデプスセンサ204の位置及び姿勢とに基づいて、作業者のビューにおいて、作業空間内の部品と重畳されるように、部品のCG画像をHMD205に表示してもよい。このようなHMD205への表示は、例えば、拡張現実感(Augmented Reality)として良く知られている技術を用いることにより行うことができる。
ステップ908では、作業管理プログラム105が、作業者から確認開始の指示があったか否かを判定する。ここで、確認とは、各工程の作業手順が終了したあとに、その工程の作業が仕様通りに完了しているか否かについて、作業者が目視で行う確認である。この目視確認の終了条件が満たされると、ステップ914で次の作業工程に遷移する。
確認開始の指示は、例えば、ユーザ端末201の画面上に確認開始用のボタンを表示し、入力装置102として装備されているキーボードやマウス、タッチパネル等を用いて表示されているボタンを押下することにより行うことができる。あるいは、あらかじめ決められたキーボードやボタンを押下する方法や、デプスセンサ204により取得された点群データから、あらかじめ決められたジェスチャを検出する等、システムに指示を行う方法であれば、どのような手段でも用いることができる。
作業者による確認開始の指示が行われていない場合は、そのままステップ904に戻る。
作業者による確認開始の指示が行われた場合は、作業管理プログラム105がステップ909でシステム状態を「確認中」に設定した後、ステップ904に戻る。
ステップ906において、システム状態が「確認中」の場合は、ステップ910に進む。
ステップ910では、作業管理プログラム105により起動された確認状態判定プログラム107が、確認の状態を判定する。例えば、確認状態判定プログラム107は、作業者によって行われている確認の状況が作業工程の終了条件を満たすか否かを判定する。確認状態判定プログラム107は、さらに、確認されていない部品の領域があると判定された場合は、その領域を作業者による確認が必要な領域、つまり作業者が見る位置及び方向とする。
確認状態判定プログラム107で実行される処理について、図11から図13を用いて説明する。
確認状態判定プログラム107は、ステップ1101においてデプスセンサ204から取得された作業空間データ140から、実施中の作業工程に関連する部品に対応する点群データを抽出する。
この処理は、まず、確認状態判定プログラム107が、作業空間モデル130における部品の領域を特定してもよい。この部品領域は、例えば、作業マニュアルデータ800の部品モデル名806で特定される部品モデル120を、位置及び姿勢807で特定される情報を用いて座標変換して特定してもよい。次に、確認状態判定プログラム107が、ステップ905で推定されたデプスセンサ204の位置及び姿勢を用いて、デプスセンサ204により取得された作業空間データを作業空間モデルと同じ座標系に座標変換してもよい。そして、確認状態判定プログラム107が、座標変換された作業空間データから部品領域の点群データを抽出してもよい。部品領域が既に抽出されているときは、抽出済みの部品領域の点群データに新たに抽出された点群データを足して(合成して)よい。
図12に示す具体例を用いて説明する。
同図において、1201が、作業空間データ140を作業空間モデル130と同じ座標系に座標変換した後に、作業空間データ140の点群データを描画した作業空間を示す。1202が、部品の位置及び姿勢807により作業空間1201において特定された部品の領域である。このとき、部品領域1202に含まれる点群データ1203が部品に対する点群データとして抽出される。
抽出された点群データは、作業空間モデルと同じ座標系に座標変換されている。そのため、このあとにデプスセンサ204がさらに取得した点データをこの抽出された点群データに追加していくことで、点群データの合成を行うことができる。なお、合成後の点群データで、同じ位置に点が重複する場合や、特定の範囲に点が密集する場合があるため、特定の間隔で点を抽出する等の処理を行うことにより、均等に点が分布した点群データに変換されてもよい。
図11に戻ると、ステップ1102では、確認状態判定プログラム107が、ステップ1101で抽出された部品領域の点が所定以上であるか否かを判定する。例えば、確認状態判定プログラム107が、抽出された部品の点群データと部品モデルとの差分が所定以下であるか否かを判定する。例えば、確認状態判定プログラム107が、部品モデルには存在するが、デプスセンサ204が取得した対象の部品の点群データには存在しない領域があるか否かを判定してもよい。この判定が、目視確認作業の終了条件であってもよい。
この処理は、ステップ1101で抽出された部品領域の点群データとそれ以前に抽出済みの部品領域の点群データとを合成した点群データと、部品モデルと比較することにより行ってもよい。
部品モデルが点群データである場合、ステップ1102の判定を以下のようにして行ってもよい。例えば、確認状態判定プログラム107が、抽出された部品の点群データ中の各点と一番近い部品モデルの点を求め、点間の距離を計算する。そして、確認状態判定プログラム107は、点間の距離があらかじめ定められた閾値より大きくなる部品モデル上の点を抽出する。これにより、抽出された点が集まった領域を、デプスセンサ204で取得された点群データが不足している部品モデル上の領域としてもよい。
部品モデルがポリゴンの形式である場合は、ステップ1102の判定を以下のようにして行ってもよい。例えば、確認状態判定プログラム107が、抽出された部品の点群データ中の各点から下ろした垂線が一番短くなる部品モデル上のポリゴンを検索し、垂線の距離及び垂線とポリゴンとの交点を求める。そして、確認状態判定プログラム107が垂線の距離があらかじめ定められた閾値より大きくなる垂線とポリゴンの交点を抽出する。点群データの場合と同様に、抽出された点が集まった領域を、デプスセンサ204で取得された点群データが不足している部品モデル上の領域としてもよい。
図12では、1204が点群データとして保存された部品モデルである。このとき、部品モデル1204と点群データ1203とが上記の方法で比較されると、1205で示した部品の領域が点群データが不足している領域として特定される。特定された領域の大きさがあらかじめ定められた閾値より大きい場合は、部品に対する点群データが十分に取得されていないと判定する。あるいは、点群データが不足している領域の大きさと部品の表面積の比率を求め、求めた比率があらかじめ定められた閾値より大きい場合、部品に対する点群データが十分に取得されていないと判定しても良い。
図11に戻ると、ステップ1103で、ステップ1102において部品に対する点群データが不足していると判定された場合、ステップ1104に進む。部品に対する点群データが十分に取得された場合は処理を終了する。
ステップ1104では、点群データが不足している領域に対して、作業者の視点及び視線の方向を決定する。
作業者が見るべき位置(視点)は、例えば、点群データが不足している領域の中心や重心等でよい。また、該当する領域があらかじめ定めた閾値より大きい場合は、該当する領域をより小さい領域に分割し、得られた小さい領域の一つに対して中心や重心等を求めても良い。領域を分割する方法としては、例えば、二つに分割する場合、領域を特定の座標軸上に写像し、写像された領域の中間点を通る平面で分割すれば良い。
確認状態判定プログラム107は、作業者が見るべき位置を決定した後、作業者が見る方向を決定する。
図13を用いて、作業者が見るべき方向(視線の方向)の決定方法について説明する。
図13において、1301が点群データが不足していると判定された領域であり、1302は作業者が見るべき位置として決定された位置であるとする。ここで、確認状態判定プログラム107は、領域1301の法線の逆ベクトルを作業者が位置1302を見るべき方向の基準方向1303として設定してもよい。
次に、確認状態判定プログラム107は、基準方向1303の直線と他の部品を構成するポリゴンが交差するかどうかを検証してもよい。これにより、作業者が基準方向1303から位置1302を見た場合に視界を遮る他の部品があるかどうかの判定ができる。あるいは、確認状態判定プログラム107が基準方向1303の直線と他の部品を構成する点があらかじめ定められた閾値以内の距離にあるかどうかを検証することにより、視界を遮る可能性がある部品の有無を判定してもよい。図13の場合、基準方向1303から位置1302を見る場合、他の部品1304が視界を遮ると判断される。視界を遮る他の部品が無いと判断された場合は、基準方向1303を作業者が位置1302を見るべき方向として決定されてよい。視界を遮る他の部品があると判断された場合、確認状態判定プログラム107は、基準方向1303を中心として角度を変化させた方向(例えば、図中の1305または1306)について、上述と同様の方法で、位置1302を見た場合に視界を遮る他の部品の有無を判定し、視界を遮る他の部品が無いと判定された方向を作業者が位置1302を見るべき方向として決定してもよい。
視線方向の角度を変化させる方法としては、あらかじめ角度を変化させる幅を設定しておき、設定されている幅を用いて、角度を変換させて良い。また、視界を遮る他の部品の有無の判定は、見るべき方向を表す直線からあらかじめ定めた範囲内にポリゴンや点が存在しない場合に視界を遮る他の部品が存在しないと判定しても良い。図13の場合、視界を遮る他の部品が存在しない方向1305が選択されてよい。
図9に戻ると、ステップ911では、表示内容生成プログラム108が起動される。そして、表示内容生成プログラム108が、作業者が確認のために見るべき領域の位置及び見る方向を示すガイダンスの画像を生成する。ガイダンスの画像は、ステップ910において決定された、作業者が見ていない部品の領域及びその領域を見る方向に基づいて生成されるものでよい。
ガイダンス画像としては、良く知られた拡張現実感技術を用いることにより、作業者がHMD205を通して見ている実際の部品に重なるようにHMD205に位置及び方向を示す画像でよい。ガイダンス画像には文字が含まれていてもよい。
ガイダンス画像は、例えば、HMD205を通して作業者から見える作業空間において、作業者が見る被取付体または部品の位置及び視線の方向を示す画像でよい。これは、拡張現実感技術を用いて実現されるものでよい。また、ガイダンス画像は、被取付体及び部品を含むCG画像において作業者が見る被取付体または部品の位置及び視線の方向を示す画像でよい。
例えば、図14Aのように、表示内容生成プログラム108が、作業者が実際に見ている作業空間(作業者のビュー)に位置及び方向を示す矢印と確認を促すメッセージを組み合わせた画像1401をHMD205に表示して良い。あるいは、図14Bに示すように、メッセージの代わりに、目視を想起させる目や顔、カメラ等の画像1403がCGとの組み合わせで提示されるようにしても良い。あるいは、目視する位置へ移動する矢印等によるアニメーションを用いることもできる。さらに、拡張現実感による実際の部品による重ね合わせを行う他、図14Cに示すようなCG画像1404を表示させてもよい。CG画像1404は、部品モデル120及び作業空間モデル130に基づいて生成された作業空間及び部品のCGにおいて、作業者が見るべき位置及び方向を表示するものでよい。CG画像1404は、作業者の視界を遮らないHMD205内の位置、例えば、左右の上方等に提示するようにしても良い。
この場合、拡張現実感技術を用いることにより、表示内容生成プログラム108が、作業者が実際の部品及び作業空間を見ているのと同じ視点からみた部品モデル及び作業空間モデルのCG画像をリアルタイムに生成するようにしても良い。作業者に見るべき領域の位置及び方向を提示する方法としては、見るべき領域の位置及び方向を認識できる方法であれば、どのような方法を用いても良い。
さらには、表示内容生成プログラム108は、デプスセンサ204が取得した作業空間データにおいて、作業者の手や作業者が把持している工具を検出してもよい。そして、検出された作業者の手や工具が対象となっている部品と重なって見える位置にある場合、あるいは、あらかじめ定められた範囲内に存在している場合は、表示内容生成プログラム108はCG画像を用いた提示方法を採用し、それ以外の場合は拡張現実感技術を用いた提示方法を採用してもよい。これは、作業者の手や工具が作業者が見るべき部品等の位置を遮蔽または遮蔽するおそれがあるからである。
部品を遮蔽するものがあるとき、及び作業者と部品の距離が近いときは、図9のステップ905における位置及び姿勢の推定が適切に完了しない場合が多い。従って、位置及び姿勢推定が適切である場合は拡張現実感技術を用いた方法を使用し、そうでない場合はCG画像を用いた方法を使用するようにしても良い。
ここで、位置及び姿勢の推定が適切に完了したか否かの判定は、例えば以下のように行ってもよい。すなわち、推定された位置及び姿勢を用いたデプスセンサ204から取得された作業空間データが作業空間モデルの座標系に座標変換された後、変換された作業空間データと作業空間モデルとの距離が、あらかじめ定めた閾値以内であれば位置及び姿勢の推定が適切であると判定されるようにしてよい。位置及び姿勢の推定が適切でない場合のCG画像としては、例えば、最後に位置及び姿勢の推定が適切に完了した際に得られた位置及び姿勢を用いて生成されたCG画像でもよいし、あるいは、あらかじめ定めされた位置及び姿勢を用いて生成されたCG画像でもよい。
また、表示内容生成プログラム108は、図14A及び図14Bに示す拡張現実感を用いた提示方法と、図14Cに示すCG画像を用いた提示方法を切り替えるようにしてもよい。例えば、(1)作業者と部品の距離が所定以下であるとき、(2)作業者が見る被取付体または部品の位置を遮蔽するまたは遮蔽するおそれがある物があるとき、(3)拡張現実感を用いた画像では、作業者が見る被取付体または部品の位置及び視線の方向の表示がHMD205に収まらないとき、(4)座標変換後の第1の作業工程に係る被取付体及び部品の3次元データと作業空間の3次元データとの距離が所定以上であるとき、のいずれかの場合には、CG画像を用いた方法を使用するようにしても良い。
図9に戻ると、ステップ912では、ステップ910において確認が完了した(終了条件が満たされた)と判定された場合、ステップ913に進む。確認が完了していない(終了条件が満たされていない)と判定された場合はステップ904に戻る。
ステップ913に進む前に、確認が完了したことや次の手順に進むことを作業者に通知する情報をHMD205に提示するようにしても良い。この場合、さらに、通知に対する作業者の応答を入力装置102から取得し、応答取得後にステップ913に進むようにしても良い。
ステップ913では、作業管理プログラム105がすべての作業工程が終了したかどうかを判定する。すべての作業工程が終了した場合は、処理を終了する。処理を終了する際には、確認時に取得された作業空間データ(各部品の点群データを含む)140を記憶装置104に保存するようにしても良い。さらに、各作業手順の開始時刻や確認開始時刻、確認終了時刻等を併せて保存してもよい。
すべての作業工程が終了していない場合は、ステップ914で次の作業工程に遷移し、ステップ915でシステム状態を「作業中」に設定し、ステップ904に戻る。
なお、本システムはタイムアウトを判定する機能を有していてもよい。すなわち、ステップ912において対象の部品の確認が完了しておらず、かつ、確認の開始時からの経過時間が所定時間以上になると、作業管理プログラム105が強制的にステップ903以降の処理を行うようにしてもよい。このとき、作業管理プログラム105が作業のやり直しを作業者に指示する情報をHMD205に提示してもよい。さらに、作業のやり直しの指示に対する作業者の応答を入力装置102により取得し、応答取得後にステップ903に戻るようにしても良い。
さらに、本システムは、作業空間データと部品モデルと適合度合いが低いとき、強制リセットする機能を有していてもよい。すなわち、ステップ912において、作業空間データと部品モデルとの距離があらかじめ定められた閾値より大きい場合、作業管理プログラム105が強制的にステップ903以降の処理を行うようにしてもよい。このとき、作業管理プログラム105が作業のやり直しを作業者に指示する情報をHMD205に提示してもよい。さらに、作業のやり直しの指示に対する作業者の応答を入力装置102により取得し、応答取得後にステップ903に戻るようにしても良い。
なお、本実施形態では、出力装置としてHMD205を用いる例で説明したが、ユーザ端末201を出力装置としてもよい。例えば、作業中の作業者への支援を目的とする場合はHMD205を出力装置とするのが好適であり、作業後に作業結果を確認することを目的とする場合はユーザ端末201を出力装置とするのが好適である。
ユーザ端末201を出力装置とする場合、デプスセンサ204は、ユーザ端末201と一体でもよいし、ユーザ端末201に装着されていてもよい。各種の処理や表示方法はHMDの利用を前提とした場合の処理や表示方法と同様でよい。
また、本実施形態では、取り付け作業を対象として説明を行ったが、より一般的な製造工程や建設・改修工事、点検等における確認作業の完了確認にも適用可能である。
さらに、作業者への情報提示方法として、CG画像を用いた方法と拡張現実感を用いた方法を切り替える方法は、確認作業時のみならず、取り付け等の通常の作業時にも適用することが可能である。
本実施形態により、作業者が作業結果の確認を行う際に、確認が不足している箇所を自動的に検出し、検出した箇所に作業者の視線を誘導することにより、確実に作業結果の確認を遂行できるように作業者を支援することが可能となる。さらに、作業結果の確認を行っている際の作業者や作業空間の状況に応じて、作業者が状況を理解しやすい情報を提示することができる。
次に、本発明の第2の実施形態に係る作業支援システムについて、図15〜図17を用いて説明する。
図15は、第2の実施形態に係る作業支援システムの構成図である。
本実施形態に係る作業支援システムは、作業者用端末1501と、作業情報管理用端末1517とを有し、これらがネットワーク1516を介して接続されている。そして、作業情報管理用端末1517が本システムで使用するデータを管理する。作業者用端末1501は、作業情報管理用端末1517からデータを取得して作業者の支援を行う。以下の説明において、第1の実施形態と同様の機能または構成については説明を省略する場合がある。
作業者用端末1501は、中央処理装置1502、入力装置1503、出力装置1504、及び記憶装置1506を有する。これらは、図1における中央処理装置101、入力装置102、出力装置103、及び記憶装置104とそれぞれ同様のものである。
記憶装置1506には、送受信プログラム1507と、作業管理プログラム1508と、位置姿勢推定プログラム1509と、確認状態判定プログラム1510と、表示内容生成プログラム1511と、部品モデル1513と、作業空間モデル1514と、作業マニュアルデータ1515とが記憶されている。
作業管理プログラム1508は、第1の実施形態における作業管理プログラム105と同様の機能を有し、さらに、作業情報管理用端末1517との間で、データの送受信を行う機能を有する。
位置姿勢推定プログラム1509、確認状態判定プログラム1510、表示内容生成プログラム1511は、第1の実施形態における位置姿勢推定プログラム106、確認状態判定プログラム107、表示内容生成プログラム108とそれぞれ同様のものである。
部品モデル1513、作業空間モデル1514、及び作業マニュアルデータ1515は、第1の実施形態における部品モデル120、作業空間モデル130、及び作業マニュアルデータ800とそれぞれ同様のものである。
作業者用端末1501は、さらに、通信装置1505を備える。通信装置1505は、作業情報管理用端末1517との間で情報のやり取りを行うための装置である。
作業結果1512には、作業の開始時刻や確認完了時刻等の作業時間に関する情報や、各部品を確認した結果取得された作業空間データ(点群データ)が保存される。
また、記憶装置1506に格納される送受信プログラム1507は、作業者が選択した作業に関する作業マニュアルデータ及びそれに付随する部品モデルや作業空間モデルを作業情報管理用端末1517から受信し、作業空間モデル1513、部品モデル1514、及び作業マニュアルデータ1515にそれぞれ格納するとともに、実施中の作業完了後、作業結果1512に保存されている作業時間に関する情報や各部品の点群データを作業情報管理用端末1517に送信するためのプログラムである。
作業情報管理用端末1517は、作業手順に関する情報及びそれに付随する部品モデルや作業空間モデルを一括管理する作業情報管理用端末である。
1518は、各種のプログラムを実行するための中央処理装置である。
1519は、各種プログラムを制御するためのキーボードあるいはマウス、タッチパネル等の一般的なコンピュータにおける入力装置である。
1520はディスプレイ等、一般的なコンピュータで使用される出力装置である。
1521は、作業者用端末1501との間で情報のやり取りを行うための通信装置である。
記憶装置1522には、送受信プログラム1523と、作業手順登録プログラム1524、作業履歴閲覧プログラム1525、部品モデル1526と、作業空間モデル1527と、作業マニュアルデータ1528と、作業履歴1529とが格納される。
送受信プログラム1523は、作業マニュアルデータ及びそれに付随する部品モデルや作業空間モデルを作業者用端末1501に送信するとともに、作業者用端末1501から送信される作業時間に関する情報や各部品の点群データを受信し、作業履歴1529に格納するプログラムである。
作業手順登録プログラム1524は、作業マニュアルデータ及びそれに付随する部品モデル及び作業空間モデルを追加、修正及び削除するためのプログラムである。
作業履歴閲覧プログラム1525は、作業履歴1529の内容を出力装置1520上に表示し、作業履歴の内容の確認や情報の追加・修正を行うためのプログラムである。
部品モデル1526、作業空間モデル1527、作業マニュアルデータ1528は、部品モデル120、作業空間モデル130、作業マニュアルデータ800とそれぞれ同様のものである。
作業履歴1529は、過去に実施した作業における各作業手順の時間情報や確認時に取得した作業空間データを作業の実施履歴として保存する。作業履歴1529のデータフォーマットは、作業結果1512に保存される作業結果データ1600と同様である。
図16に作業結果データ1600のデータフォーマットの一例を示す。
1601は作業の名称であり、識別子である。作業の名称1601は、任意の文字列を使用することができる。
1602は作業を実施した日時を示す。作業実施日時1602は日付と時刻を有する。時刻は作業の開始時刻及び終了時刻の一方または両方を含めることができる。
1603は作業項目の数を示す。
1604は、作業工程の完了時刻である。
1605は、作業工程の確認が完了した時点の作業空間データである。各工程の作業の目視確認が終了した時点で取得済みの作業空間の点群データでよい。
作業結果データ1600は、作業項目の数1603だけの作業工程の完了時刻1604及び作業空間データ1605を有する
図16のデータフォーマットでは、各作業工程の完了時刻のみを記載しているが、作業工程の開始時刻や確認の開始時刻を含めることもできる。
図17は、本実施形態における処理の流れを表すシーケンス図を示す。
作業者がシステムを起動すると(1701)、作業者用端末1501は作業管理プログラム1508を用いて、作業情報管理用端末1517に、作業に関する情報の一覧を要求する(1702)。
作業情報管理用端末1517は、作業者用端末1501からの要求を受信し、要求に応じて、作業に関する情報の一覧を作業者用端末1501に送信する(1703)。
作業者用端末1501は作業に関する情報の一覧を受信し、受信した作業の一覧を出力装置1504に表示する(1704)。
作業者が実施対象の作業工程を選択すると(1705)、作業者用端末1501は、作業情報管理用端末1517に、作業者が選択した作業工程に関する作業マニュアルデータとその作業工程に付随する3次元モデルを要求する(1706)。
作業情報管理用端末1517は、作業者用端末1501からの要求に基づいて作業マニュアルデータと3次元モデルを送信する(1707)。
作業者用端末1501では作業管理プログラム1508により、受信した作業マニュアルデータと3次元モデルに基づいて、第1の作業工程に関する情報を出力装置1504に表示する(1708)。
作業者が第1の作業工程の確認開始を作業者用端末1501に通知すると(1709)、作業者用端末1501では、第1の実施例と同様に、位置及び姿勢推定プログラム1509、確認状態判定プログラム1510、及び表示内容生成プログラム1511を用いることにより作業者の確認作業の支援を行う。確認が完了すると、第2の作業工程に関する情報を出力装置1504に表示する(1710)。
最後の作業工程である第n番目の作業工程に関する確認開始が作業者から通知され(1711)、確認が完了すると、作業者用端末1501は、作業完了の通知を出力装置1504上に表示する(1712)。
さらに作業者用端末1501は、各工程の開始時刻や終了時刻等の時間情報と、確認時に取得された各部品を含む作業空間データとを作業結果として作業情報管理用端末1517に送信する(1713)。作業情報管理用端末1517では、受信した作業結果を作業履歴1529に保存する。
第2の実施形態では、作業マニュアルデータ、部品モデル及び作業空間モデルの管理のみを作業情報管理用端末1517が実施するが、作業支援の機能の一部または全部を作業情報管理用端末1517が行うようにしても良い。この場合、作業者用端末1501は、入力装置1503から取得した点群データを作業情報管理用端末1517に送信するとともに、作業情報管理用端末1517から受信した表示内容を出力装置1504に表示する処理のみを実施することになり、作業結果1512、部品モデル1513、作業空間モデル1514及び作業マニュアルデータ1515も作業者用端末1501から削除された構成でよい。
第2の実施形態に係る作業支援システムにより、第1の実施形態と同様に作業者を支援することが可能となる。さらに、第2の実施形態では、作業マニュアルデータを作業情報管理用端末で一元管理し、必要な作業マニュアルデータのみを作業者用端末に読み込ませることにより、各作業者に応じた作業支援を行うことが可能となる。また、作業履歴を作業情報管理用端末に集約することにより、作業者以外が作業結果を確認することや、作業結果の比較分析等を行うことも容易となる。
105 作業管理プログラム
106 位置姿勢推定プログラム
107 確認状態判定プログラム
108 表示内容生成プログラム
120 部品モデル
130 作業空間モデル
130 作業空間モデル
140 作業空間データ
201 ユーザ端末
202 タッチパネル
203 ヘルメット
204 デプスセンサ
205 ヘッドマウントディスプレイ(HMD)

Claims (9)

  1. 作業空間内にある、作業対象の被取付体及び前記被取付体に取り付ける部品の3次元データと、1以上の作業工程の作業手順を示す作業マニュアルデータと、を記憶する記憶装置と、
    作業者が作業を行っている間、前記作業者から見える作業空間の3次元データを取得する3次元データ取得装置と、
    中央処装置と、を備えた作業支援システムであって、
    前記中央処理装置は、
    前記記憶装置に記憶されている作業マニュアルデータに基づいて、各作業工程の作業手順を出力させる処理と、
    前記記憶装置に記憶されている、第1の作業工程に係る被取付体及び部品の3次元データと、前記3次元データ取得装置が取得した作業空間の3次元データとを比較し、第1の作業工程の目視確認作業の終了条件を満たすか否かを判定する処理と、
    前記判定で前記終了条件が満たされないときは、前記終了条件を満たすためのガイダンスを出力させる処理と、を行う作業支援システム。
  2. 前記中央処理装置は、さらに、
    前記3次元データ取得装置の位置及び姿勢を推定し、前記推定の結果に基づいて前記第1の作業工程に係る被取付体及び部品の3次元データと、前記作業空間の3次元データとをマッチングさせる処理を行い、
    前記目視確認作業の終了条件は、前記第1の作業工程に係る被取付体及び部品の3次元データと前記作業空間の3次元データとの差分が所定の閾値以下である、請求項1に記載の作業支援システム。
  3. 前記終了条件を満たすためのガイダンスは、前記作業者が見る視点及び視線の方向を示す、請求項2に記載の作業支援システム。
  4. 前記作業者が見る視点は、前記第1の作業工程に係る被取付体及び部品の3次元データにあって前記作業空間の3次元データにない領域である、請求項3記載の作業支援システム。
  5. 前記作業者によって装着されるヘッドマウントディスプレイをさらに備え、
    前記終了条件を満たすためのガイダンスは、
    前記ヘッドマウントディスプレイを通して前記作業者から見える作業空間において、前記作業者が見る前記被取付体または前記部品の位置及び視線の方向を、前記ヘッドマウントディスプレイに表示する第1の表示態様と、
    前記取付体及び前記部品を含むCG画像において前記作業者が見る前記被取付体または前記部品の位置及び視線の方向をコンピュータグラフィックスで前記ヘッドマウントディスプレイに表示する第2の表示態様と、のいずれかの表示態様で出力される、請求項2〜4のいずれかに記載の作業支援システム。
  6. 前記ガイダンスは、(1)〜(4)のいずれかが満たされるとき、前記第2の表示態様で出力される、請求項5に記載の作業支援システム。
    (1)前記作業者と前記部品の距離が所定以下であるとき
    (2)前記作業者が見る前記被取付体または前記部品の位置を遮蔽するまたは遮蔽するおそれがある物があるとき
    (3)第1の表示態様では、前記作業者が見る前記被取付体または前記部品の位置及び視線の方向の表示が前記ヘッドマウントディスプレイに収まらないとき
    (4)前記マッチングを行っても前記第1の作業工程に係る被取付体及び部品の3次元データと前記作業空間の3次元データとのズレが所定以上であるとき
  7. 前記中央処理装置は、さらに、
    前記判定で前記終了条件が満たされるときは、第1の作業工程の次の第2の作業工程の作業手順を出力させる処理を行う、請求項1〜6のいずれかに記載の作業支援システム。
  8. 前記中央処理装置は、さらに、
    前記判定で前記終了条件が満たされたときは、前記作業空間の3次元データを前記記憶装置に保存する処理を行う、請求項1〜7のいずれかに記載の作業支援システム。
  9. 作業空間内にある、作業対象の被取付体及び前記被取付体に取り付ける部品の3次元データと、1以上の作業工程の作業手順を示す作業マニュアルデータと、を記憶する記憶装置と、
    作業者が作業を行っている間、前記作業者から見える作業空間の3次元データを取得する3次元データ取得装置と、
    中央処装置と、を備えた作業支援システムが行う作業支援方法であって、
    前記中央処理装置が、
    前記記憶装置に記憶されている作業マニュアルデータに基づいて、各作業工程の作業手順を出力させる処理と、
    前記記憶装置に記憶されている、第1の作業工程に係る被取付体及び部品の3次元データと、前記3次元データ取得装置が取得した作業空間の3次元データとを比較し、第1の作業工程の目視確認作業の終了条件を満たすか否かを判定する処理と、
    前記判定で前記終了条件が満たされないときは、前記終了条件を満たすためのガイダンスを出力させる処理と、を行う方法。
JP2016078581A 2016-04-11 2016-04-11 作業支援システム及び方法 Active JP6643170B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016078581A JP6643170B2 (ja) 2016-04-11 2016-04-11 作業支援システム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016078581A JP6643170B2 (ja) 2016-04-11 2016-04-11 作業支援システム及び方法

Publications (2)

Publication Number Publication Date
JP2017191351A JP2017191351A (ja) 2017-10-19
JP6643170B2 true JP6643170B2 (ja) 2020-02-12

Family

ID=60086394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016078581A Active JP6643170B2 (ja) 2016-04-11 2016-04-11 作業支援システム及び方法

Country Status (1)

Country Link
JP (1) JP6643170B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6321879B1 (ja) 2017-12-20 2018-05-09 グレイステクノロジー株式会社 作業支援システム及び作業支援プログラム
JP7098349B2 (ja) * 2018-02-22 2022-07-11 一般財団法人電力中央研究所 電線形状の再現方法,再現装置,及び再現プログラム、並びに、点群精度の評価方法,評価装置,及び評価プログラム
JP7000935B2 (ja) * 2018-03-14 2022-01-19 沖電気工業株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2020044440A1 (ja) 2018-08-28 2020-03-05 株式会社オプティム コンピュータシステム、動作検証方法及びプログラム
JP6990777B2 (ja) * 2018-09-03 2022-01-12 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
JP6801024B2 (ja) * 2019-01-31 2020-12-16 味の素エンジニアリング株式会社 建造物の管理システム
JP7109395B2 (ja) * 2019-03-08 2022-07-29 株式会社日立製作所 作業支援システム、作業支援装置、及び作業支援方法
JP7296220B2 (ja) * 2019-03-08 2023-06-22 株式会社竹中工務店 支援システム、及び支援プログラム
JP7240573B2 (ja) * 2019-03-15 2023-03-16 ダイダン株式会社 施工支援システムおよび施工支援装置
JP7336253B2 (ja) * 2019-04-26 2023-08-31 三菱重工業株式会社 据付物の施工方法
JP7403273B2 (ja) * 2019-10-16 2023-12-22 東芝プラントシステム株式会社 画像処理装置、及び画像処理方法
TWI722738B (zh) * 2019-12-25 2021-03-21 亞達科技股份有限公司 擴增實境裝置與定位方法
JP7442329B2 (ja) * 2020-02-04 2024-03-04 株式会社トプコン データ管理システム,管理方法,管理プログラム
JP2022049410A (ja) * 2020-09-16 2022-03-29 Jfeプラントエンジ株式会社 工事支援システム及び工事支援方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09133519A (ja) * 1995-11-10 1997-05-20 Ishikawajima Harima Heavy Ind Co Ltd 3次元形状構造物の検査方法
JP5062774B2 (ja) * 2009-05-21 2012-10-31 トヨタ自動車東日本株式会社 作業訓練システム及び作業訓練方法並びに該作業訓練方法を記録した記録媒体
JP5839553B2 (ja) * 2011-10-28 2016-01-06 株式会社日立製作所 作業支援システム、作業支援方法、および、作業用端末
JP2014149718A (ja) * 2013-02-01 2014-08-21 Nec Corp 撮影指示装置、撮影指示方法、及びプログラム
JP6344890B2 (ja) * 2013-05-22 2018-06-20 川崎重工業株式会社 部品組立作業支援システムおよび部品組立方法
WO2015173882A1 (ja) * 2014-05-13 2015-11-19 株式会社日立製作所 コンテンツ生成方法および管理装置

Also Published As

Publication number Publication date
JP2017191351A (ja) 2017-10-19

Similar Documents

Publication Publication Date Title
JP6643170B2 (ja) 作業支援システム及び方法
JP5709440B2 (ja) 情報処理装置、情報処理方法
JP2011028309A5 (ja)
CA3016539A1 (en) Image processing method, display device, and inspection system
US20110311127A1 (en) Motion space presentation device and motion space presentation method
CN112313046A (zh) 使用增强现实可视化和修改操作界定区域
KR20120069654A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP6742701B2 (ja) 情報処理装置、その制御方法及びプログラム
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP2015125641A (ja) 情報処理装置、その制御方法、及びプログラム
CN109584361B (zh) 一种装备电缆虚拟预装和轨迹测量方法及***
Ziaei et al. Real-time markerless Augmented Reality for Remote Handling system in bad viewing conditions
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
CN112667179A (zh) 一种基于混合现实的远程同步协作***
JP6364389B2 (ja) 検査方法及び検査システム
JP6295296B2 (ja) 複合システム及びターゲットマーカ
JP2017016376A (ja) 情報処理装置、情報処理方法、プログラム
JP2013008257A (ja) 画像合成プログラム
JP7266422B2 (ja) 注視行動調査システム、及び制御プログラム
JP7039216B2 (ja) 情報処理装置及びその方法、プログラム
US20230267667A1 (en) Immersive analysis environment for human motion data
JP6800599B2 (ja) 情報処理装置、方法及びプログラム
JP2019185475A (ja) 特定プログラム、特定方法及び情報処理装置
JP6357412B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R150 Certificate of patent or registration of utility model

Ref document number: 6643170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150