JP2017120512A - Work support system and method - Google Patents

Work support system and method Download PDF

Info

Publication number
JP2017120512A
JP2017120512A JP2015256606A JP2015256606A JP2017120512A JP 2017120512 A JP2017120512 A JP 2017120512A JP 2015256606 A JP2015256606 A JP 2015256606A JP 2015256606 A JP2015256606 A JP 2015256606A JP 2017120512 A JP2017120512 A JP 2017120512A
Authority
JP
Japan
Prior art keywords
marker
work
imaging
imaging unit
work support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015256606A
Other languages
Japanese (ja)
Inventor
村 直 弘 中
Naohiro Nakamura
村 直 弘 中
野 信 一 中
Sinichi Nakano
野 信 一 中
隈 克 敏 日
Katsutoshi Hikuma
隈 克 敏 日
松 政 彦 赤
Masahiko Akamatsu
松 政 彦 赤
本 臣 吾 米
Shingo Yonemoto
本 臣 吾 米
海 大 輔 渡
Daisuke TOKAI
海 大 輔 渡
永 啓 太 冨
Keita Tominaga
永 啓 太 冨
島 等 三
Hitoshi Mishima
島 等 三
野 芳 樹 丹
Yoshiki Tanno
野 芳 樹 丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2015256606A priority Critical patent/JP2017120512A/en
Publication of JP2017120512A publication Critical patent/JP2017120512A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a work support system that can significantly reduce restrictions on the position where a marker is set.SOLUTION: A work support system 1 includes: object imaging means 3 for acquiring an actual image including a work object; and positional attitude information acquiring means 5, 8 for acquiring information on a relative position and attitude of the object imaging means 3 to the work object, the positional attitude information acquiring means 5, 8 having a marker 4 located in a predetermined positional attitude relation with the work object and marker imaging means 5 for imaging the marker 4 located in a predetermined positional attitude relation with the object imaging means 3.SELECTED DRAWING: Figure 1

Description

本発明は、作業対象物が存在する作業空間の現実画像に仮想画像を重畳した映像を提示して、作業者の作業を支援するための作業支援システムおよび方法に関する。   The present invention relates to a work support system and method for supporting a worker's work by presenting a video in which a virtual image is superimposed on a real image of a work space in which a work object exists.

製品や構造物等の作業対象物の加工、組立、検査等の作業を実施する際、製品等の種類や大きさによっては、大量の図面から該当箇所を探して確認する必要があり、これは非常に非効率であった。   When carrying out operations such as processing, assembly, and inspection of work objects such as products and structures, depending on the type and size of the product, etc., it is necessary to search for the relevant part from a large number of drawings. It was very inefficient.

このような不都合を解消するために、拡張現実感(AR: Augmented Reality)技術を利用して、製作した製品等、作業対象物の現実画像に、設計用3Dモデルの仮想画像を重畳して表示することで、作業者の作業を支援するシステムが提案されている(例えば、特許文献1)。   In order to eliminate such inconvenience, augmented reality (AR) technology is used to display a virtual image of the 3D model for design superimposed on the real image of the work target such as a manufactured product. Thus, a system that supports the work of the worker has been proposed (for example, Patent Document 1).

このAR技術を利用した作業支援システムにおいては、作業対象物の現実画像に設計用3Dモデルの仮想画像を重畳する際に、両者の位置合わせを行う必要があるため、作業対象物を撮像するためのカメラの画角内にマーカーを設置して、作業対象物と一緒にマーカーをカメラによって撮像する。カメラによって撮像されたマーカーの画像に基づいて、カメラの位置姿勢を特定することができ、これにより、現実画像に仮想画像を重畳する際の位置を特定するための情報が得られる。   In the work support system using this AR technology, when the virtual image of the 3D model for design is superimposed on the real image of the work object, it is necessary to align the both, so that the work object is imaged. A marker is placed within the angle of view of the camera, and the marker is imaged by the camera together with the work target. Based on the image of the marker imaged by the camera, the position and orientation of the camera can be specified, and thereby information for specifying the position when the virtual image is superimposed on the real image can be obtained.

特開2009−69954号公報JP 2009-69954 A

上述したように、AR技術を利用した従来の作業支援システムにおいては、製品や構造物等の作業対象物を撮像するためのカメラの画角内、すなわち、作業実施個所の近くにマーカーを設定する必要がある。このため、製品や構造物等の近くにマーカーを設置することが困難であるような作業環境においては、従来の作業支援システムを利用することができなかった。   As described above, in the conventional work support system using the AR technology, a marker is set within the angle of view of a camera for imaging a work target such as a product or a structure, that is, near the work place. There is a need. For this reason, the conventional work support system cannot be used in a work environment where it is difficult to place a marker near a product or a structure.

また、作業対象物と3Dモデルとをずれなく重畳表示させるためには、マーカーが作業対象物に対して所定の位置に配置されている必要があり、このような条件を満たすことも、従来は必ずしも容易ではなかった。   Moreover, in order to display the work object and the 3D model in a superimposed manner without any deviation, the marker needs to be arranged at a predetermined position with respect to the work object. It was not always easy.

さらに、マーカーを貼り付ける箇所が平面ではなく曲面である場合等、マーカーの形が平面状態から変化するときには、位置合わせの精度が極端に悪化することがある。しかしながら、従来の作業支援システムにおいては、上記のとおり、作業実施個所の近くにマーカーを設置する必要があり、平面状態でマーカーを貼付できる個所を確保することが難しい場合があった。   Further, when the marker shape changes from the flat state, such as when the marker is pasted on a curved surface instead of a flat surface, the alignment accuracy may be extremely deteriorated. However, in the conventional work support system, as described above, it is necessary to place a marker near the work place, and it may be difficult to secure a place where the marker can be attached in a flat state.

本発明は、上述した従来の技術の問題点に鑑みてなされたものであって、マーカーの設置位置に関する制約を大幅に軽減することができる作業支援システムおよび方法を提供することを目的とする。   The present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to provide a work support system and method that can greatly reduce restrictions on the marker installation position.

上記課題を解決するために、本発明の第1の態様は、作業対象物が存在する作業空間の現実画像に仮想画像を重畳した映像を提示して、作業者の作業を支援するための作業支援システムであって、前記作業対象物を含む前記現実画像を取得するための対象物撮像手段と、前記対象物撮像手段と前記作業対象物との相対的な位置および姿勢に関する情報を取得するための位置姿勢情報取得手段と、を備え、前記位置姿勢情報取得手段は、前記作業対象物に対して所定の位置姿勢関係に配置されたマーカーと、前記マーカーを撮像するためのマーカー撮像手段であって、前記対象物撮像手段に対して所定の位置姿勢関係に配置されたマーカー撮像手段と、を有する、ことを特徴とする。   In order to solve the above-described problem, a first aspect of the present invention is a work for supporting a worker's work by presenting a video in which a virtual image is superimposed on a real image of a work space in which a work object exists. A support system for acquiring information relating to an object imaging means for acquiring the real image including the work object, and a relative position and posture between the object imaging means and the work object. Position and orientation information acquisition means, wherein the position and orientation information acquisition means is a marker arranged in a predetermined position and orientation relationship with respect to the work object, and a marker imaging means for imaging the marker. And marker imaging means arranged in a predetermined position and orientation relationship with respect to the object imaging means.

本発明の第2の態様は、第1の態様において、前記マーカーは、前記作業空間内の所定の位置に前記作業対象物を固定するための固定治具に取り付けられている、ことを特徴とする。   According to a second aspect of the present invention, in the first aspect, the marker is attached to a fixing jig for fixing the work object at a predetermined position in the work space. To do.

本発明の第3の態様は、第1または第2の態様において、前記マーカーは、前記対象物撮像手段の撮像領域の外側に配置されている、ことを特徴とする。   According to a third aspect of the present invention, in the first or second aspect, the marker is arranged outside an imaging region of the object imaging means.

本発明の第4の態様は、第1乃至第3のいずれかの態様において、前記仮想画像は、前記作業対象物に関する3Dモデルを含む、ことを特徴とする。   According to a fourth aspect of the present invention, in any one of the first to third aspects, the virtual image includes a 3D model related to the work object.

本発明の第5の態様は、第1乃至第4のいずれかの態様において、前記対象物撮像手段と前記マーカー撮像手段とが、互いに固定されている、ことを特徴とする。   According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the object imaging unit and the marker imaging unit are fixed to each other.

本発明の第6の態様は、第1乃至第5のいずれかの態様において、前記対象物撮像手段と前記マーカー撮像手段との相対的な位置姿勢関係を特定するための位置姿勢関係特定手段をさらに備え、前記位置姿勢関係特定手段は、前記対象物撮像手段で撮像される第1マーカーと、前記マーカー撮像手段で撮像される第2マーカーとを有し、前記第1マーカーと前記第2マーカーとが所定の位置姿勢関係に配置されている、ことを特徴とする。   According to a sixth aspect of the present invention, in any one of the first to fifth aspects, a position / orientation relationship specifying unit for specifying a relative position / orientation relationship between the object imaging unit and the marker imaging unit is provided. The position and orientation relation specifying means further includes a first marker imaged by the object imaging means and a second marker imaged by the marker imaging means, wherein the first marker and the second marker Are arranged in a predetermined position and orientation relationship.

上記課題を解決するために、本発明の第7の態様は、作業対象物が存在する作業空間の現実画像に仮想画像を重畳した映像を提示して、作業者の作業を支援するための作業支援方法であって、対象物撮像手段によって、前記作業対象物を含む前記現実画像を取得する工程と、位置姿勢情報取得手段によって、前記対象物撮像手段と前記作業対象物との相対的な位置および姿勢に関する情報を取得する工程であって、前記位置姿勢情報取得手段は、前記作業対象物に対して所定の位置姿勢関係に配置されたマーカーと、前記対象物撮像手段に対して所定の位置姿勢関係に配置された、前記マーカーを撮像するためのマーカー撮像手段と、を有する、工程と、を備えたことを特徴とする。   In order to solve the above-described problem, a seventh aspect of the present invention provides a work for supporting a worker's work by presenting a video in which a virtual image is superimposed on a real image of a work space where a work object exists. In the support method, the object image capturing unit acquires the real image including the work object, and the position and orientation information acquisition unit detects the relative position between the object image capturing unit and the work object. The position and orientation information acquisition means includes a marker arranged in a predetermined position and orientation relationship with respect to the work object, and a predetermined position with respect to the object imaging means. And a marker imaging means for imaging the marker, which is arranged in a posture relationship.

本発明の第8の態様は、第7の態様において、前記マーカーは、前記作業空間内の所定の位置に前記作業対象物を固定するための固定治具に取り付けられている、ことを特徴とする。   According to an eighth aspect of the present invention, in the seventh aspect, the marker is attached to a fixing jig for fixing the work object at a predetermined position in the work space. To do.

本発明の第9の態様は、第7または第8の態様において、前記マーカーは、前記対象物撮像手段の撮像領域の外側に配置されている、ことを特徴とする。   According to a ninth aspect of the present invention, in the seventh or eighth aspect, the marker is arranged outside an imaging region of the object imaging means.

本発明の第10の態様は、第7乃至第9のいずれかの態様において、前記仮想画像は、前記作業対象物に関する3Dモデルを含む、ことを特徴とする。   According to a tenth aspect of the present invention, in any one of the seventh to ninth aspects, the virtual image includes a 3D model related to the work object.

本発明の第11の態様は、第7乃至第10のいずれかの態様において、前記対象物撮像手段と前記マーカー撮像手段とが、互いに固定されている、ことを特徴とする。   According to an eleventh aspect of the present invention, in any of the seventh to tenth aspects, the object imaging means and the marker imaging means are fixed to each other.

本発明の第12の態様は、第7乃至第11のいずれかの態様において、位置姿勢関係特定手段によって、前記対象物撮像手段と前記マーカー撮像手段との相対的な位置姿勢関係を特定する工程をさらに備え、前記位置姿勢関係特定手段は、前記対象物撮像手段で撮像される第1マーカーと、前記マーカー撮像手段で撮像される第2マーカーとを有し、前記第1マーカーと前記第2マーカーとが所定の位置姿勢関係に配置されている、ことを特徴とする。   According to a twelfth aspect of the present invention, in any one of the seventh to eleventh aspects, the relative position / orientation relationship between the object imaging unit and the marker imaging unit is specified by the position / orientation relationship specifying unit. The position / orientation relationship specifying means includes a first marker imaged by the object imaging means and a second marker imaged by the marker imaging means, and the first marker and the second marker The marker is arranged in a predetermined position and orientation relationship.

本発明によれば、マーカーの設置位置に関する制約を大幅に軽減することができる作業支援システムおよび方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the work assistance system and method which can reduce the restrictions regarding the installation position of a marker significantly can be provided.

本発明の一実施形態による作業支援システムの概略構成を示した図。The figure which showed schematic structure of the work assistance system by one Embodiment of this invention. 本発明の一実施形態による作業支援システムにおける対象物撮像部(第1のカメラ)とマーカー撮像部(第2のカメラ)とを拡大して模式的に示した斜視図。The perspective view which expanded and showed typically the target object imaging part (1st camera) and marker imaging part (2nd camera) in the work assistance system by one Embodiment of this invention. 本発明の一実施形態による作業支援システムを用いて作業者の作業を支援する方法を説明するための図。The figure for demonstrating the method of assisting a worker's operation | work using the operation | work assistance system by one Embodiment of this invention. 本発明の一実施形態による作業支援システムの表示部で表示される合成画像の一例を示した図。The figure which showed an example of the synthesized image displayed on the display part of the work assistance system by one Embodiment of this invention. 本発明の一実施形態による作業支援システムにおいて対象物撮像部(第1のカメラ)とマーカー撮像部(第2のカメラ)との位置姿勢関係を特定するためのキャリブレーションボードを模式的に示した図。1 schematically shows a calibration board for specifying a position and orientation relationship between an object imaging unit (first camera) and a marker imaging unit (second camera) in a work support system according to an embodiment of the present invention. Figure.

以下、本発明の一実施形態による作業支援システムおよび方法について説明する。   Hereinafter, a work support system and method according to an embodiment of the present invention will be described.

本実施形態による作業支援システムおよび方法は、製品や構造物等の作業対象物が存在する作業空間の現実画像に仮想画像を重畳した映像を提示して、作業者の作業を支援するためのものである。すなわち、本実施形態による作業支援システムおよび方法は、拡張現実感(AR)技術を用いるものであり、以下では、まず初めにAR技術について概説する。   The work support system and method according to the present embodiment is for supporting a worker's work by presenting a video in which a virtual image is superimposed on a real image of a work space where work objects such as products and structures exist. It is. That is, the work support system and method according to the present embodiment uses augmented reality (AR) technology, and first, the AR technology will be briefly described below.

AR技術とは、現実画像に仮想画像を重畳し、これにより得られた合成画像を観察者に提示して、現実世界と仮想世界を融合させる映像技術である。   The AR technology is a video technology that superimposes a virtual image on a real image, presents a synthesized image obtained thereby, and fuses the real world and the virtual world.

拡張現実感空間(AR空間)を表現するためには、現実空間中に定義した基準座標系、すなわち、現実空間に重畳しようとする仮想物体の位置姿勢を決定する基準となる現実空間中の座標系と、撮像部の座標系(カメラ座標系)との間の、相対的な位置姿勢関係を取得することが必要である。   In order to represent an augmented reality space (AR space), a reference coordinate system defined in the real space, that is, a coordinate in the real space that serves as a reference for determining the position and orientation of the virtual object to be superimposed on the real space. It is necessary to obtain a relative position and orientation relationship between the system and the coordinate system (camera coordinate system) of the imaging unit.

そのような画像位置合わせ技術の一例として、マーカーを利用するものがあげられる。マーカーとは、画像の位置合わせのために使う指標のことであり、現実空間内に配置されたマーカーを、カメラ(撮像手段)で撮像することにより、カメラの位置姿勢を画像処理によって推定することができるというものである。   An example of such an image registration technique is one that uses a marker. A marker is an index used for alignment of images, and a camera (imaging means) is used to estimate the position and orientation of the camera by image processing by imaging the marker placed in the real space. It can be done.

すなわち、現実空間中の既知の三次元座標に、所定の視覚的特徴を有するマーカーを配置し、現実画像中に含まれるマーカーを検出し、検出したマーカーの構成要素(マーカーの中心や頂点など)の二次元画像位置と、既知の三次元座標とからカメラの位置姿勢が算出される。   That is, a marker having a predetermined visual feature is arranged at a known three-dimensional coordinate in the real space, the marker included in the real image is detected, and the detected marker components (the center and the vertex of the marker) The position and orientation of the camera are calculated from the two-dimensional image position and the known three-dimensional coordinates.

本実施形態による作業支援システムおよび方法は、上述したAR技術を利用したものであり、以下その構成について、図面を参照して説明する。   The work support system and method according to the present embodiment utilize the above-described AR technology, and the configuration thereof will be described below with reference to the drawings.

図1に示したように、本実施形態による作業支援システム1は、システム本体2を備えている。システム本体2は、CPU、RAM、ROM、外部記憶装置、記憶媒体ドライブ装置、入力デバイスなどを備えたコンピュータによって構成されている。   As shown in FIG. 1, the work support system 1 according to the present embodiment includes a system main body 2. The system main body 2 is configured by a computer including a CPU, a RAM, a ROM, an external storage device, a storage medium drive device, an input device, and the like.

また、作業支援システム1は、作業対象物を含む現実画像を取得するための対象物撮像部3を備えており、この対象物撮像部3は、カメラによって構成されている。   In addition, the work support system 1 includes a target image capturing unit 3 for acquiring a real image including a work target, and the target image capturing unit 3 includes a camera.

さらに、作業支援システム1は、作業対象物に対して所定の位置姿勢関係に配置されたマーカー4を撮像するためのマーカー撮像部5を備えている。マーカー撮像部5は、対象物撮像部3を構成するカメラとは別のカメラによって構成されている。   Further, the work support system 1 includes a marker imaging unit 5 for imaging the marker 4 arranged in a predetermined position and orientation relationship with respect to the work target. The marker imaging unit 5 is configured by a camera different from the camera that configures the object imaging unit 3.

上記の通り、本実施形態による作業支援システム1は、作業対象物を撮像するためのカメラとは別に、マーカー4を撮像するための専用のカメラを備えている。   As described above, the work support system 1 according to the present embodiment includes a dedicated camera for imaging the marker 4 separately from the camera for imaging the work object.

作業支援システム1のシステム本体3は、対象物撮像部3で得られた撮像データと、マーカー撮像部5で得られた撮像データとが入力される記憶部6を有する。対象物撮像部3およびマーカー撮像部5から記憶部6へのデータの受け渡しは、オンラインでもオフラインでも良く、また、有線でも無線でも良い。   The system main body 3 of the work support system 1 includes a storage unit 6 into which imaging data obtained by the object imaging unit 3 and imaging data obtained by the marker imaging unit 5 are input. Data transfer from the object imaging unit 3 and the marker imaging unit 5 to the storage unit 6 may be online or offline, or may be wired or wireless.

また、システム本体2は、作業対象物に関する3Dモデルを含む仮想画像を生成するための仮想画像生成部7を備えている。ここで、作業対象物に関する3Dモデルとしては、対象物撮像部3で撮像される作業対象物(製品等)の完成品に関する設計用3Dモデルが一例としてあげられる。   In addition, the system main body 2 includes a virtual image generation unit 7 for generating a virtual image including a 3D model related to the work object. Here, as the 3D model related to the work object, a 3D model for design related to a finished product of the work object (product or the like) imaged by the object imaging unit 3 is given as an example.

例えば、組立途中の製品を対象物撮像部3で撮像して現実画像を取得し、次に取り付けるべき部品に関する仮想画像を仮想画像生成部7で生成して、それぞれのデータを記憶部6に入力する。   For example, a product being assembled is imaged by the object imaging unit 3 to acquire a real image, a virtual image relating to a component to be attached next is generated by the virtual image generation unit 7, and each data is input to the storage unit 6 To do.

さらに、システム本体2は、マーカー検出部8を備えており、このマーカー検出部8は、マーカー撮像部5によって得られた画像からマーカー4を検出して、検出したマーカー4の構成要素(マーカーの中心や頂点など)の二次元画像位置と、既知の三次元座標とからマーカー撮像部(カメラ)5の位置姿勢を算出する。   Further, the system main body 2 includes a marker detection unit 8, which detects the marker 4 from the image obtained by the marker imaging unit 5 and detects the constituent elements (marker of the marker) of the detected marker 4. The position and orientation of the marker imaging unit (camera) 5 are calculated from the two-dimensional image position (center, vertex, etc.) and the known three-dimensional coordinates.

図2は、対象物撮像部3を構成する第1のカメラと、マーカー撮像部5を構成する第2のカメラとを示しており、両カメラは、アングル状のカメラ取付部材9によって、互いに所定の位置姿勢関係に固定されている。本例においては、第1のカメラ3の撮像方向(視線)と、第2のカメラ5の撮像方向(視線)とが、互いに90度となるように設定されている。   FIG. 2 shows a first camera that constitutes the object imaging unit 3 and a second camera that constitutes the marker imaging unit 5, and the two cameras are mutually predetermined by an angle-shaped camera mounting member 9. The position / posture relationship is fixed. In this example, the imaging direction (line of sight) of the first camera 3 and the imaging direction (line of sight) of the second camera 5 are set to be 90 degrees with each other.

第1のカメラ3と第2のカメラ5との所定の位置姿勢関係に関するデータは、システム本体2の記憶部6に登録されている。   Data relating to a predetermined position and orientation relationship between the first camera 3 and the second camera 5 is registered in the storage unit 6 of the system body 2.

なお、対象物撮像部(第1のカメラ)3とマーカー撮像部(第2のカメラ)5との相対的な位置姿勢関係は、本例のようにお互いの視線が90度の関係にあるものには限られない。すなわち、対象物撮像部3とマーカー撮像部5とが、互いの撮像領域(画角)が完全には重複せず、少なくとも一部に重複しない部分があれば良い。好ましくは、対象物撮像部(第1のカメラ)3の撮像領域(画角)と、マーカー撮像部(第2のカメラ)5の撮像領域(画角)とが、互いにまったく重複していない状態とする。   Note that the relative position and orientation relationship between the object imaging unit (first camera) 3 and the marker imaging unit (second camera) 5 is such that the lines of sight of each other are 90 degrees as in this example. It is not limited to. That is, the object imaging unit 3 and the marker imaging unit 5 only need to have a portion in which the imaging regions (view angles) do not completely overlap and do not overlap at least partially. Preferably, the imaging area (view angle) of the object imaging section (first camera) 3 and the imaging area (view angle) of the marker imaging section (second camera) 5 do not overlap each other at all. And

作業支援システム1のシステム本体2は、対象物撮像部(第1のカメラ)3によって得られた現実画像に、仮想画像生成部7で生成された仮想画像を重畳して、合成画像を生成するための画像合成部10を備えている。画像合成部10は、マーカー検出部8で算出されたマーカー撮像部(第2のカメラ)5の位置姿勢に関するデータと、記憶部6に予め登録されている、対象物撮像部(第1のカメラ)3とマーカー撮像部(第2のカメラ)5との所定の位置姿勢関係に関するデータとに基づいて、現実画像に対する仮想画像の位置合わせ処理を実施する。   The system main body 2 of the work support system 1 generates a composite image by superimposing the virtual image generated by the virtual image generation unit 7 on the real image obtained by the object imaging unit (first camera) 3. The image composition unit 10 is provided. The image composition unit 10 includes data related to the position and orientation of the marker imaging unit (second camera) 5 calculated by the marker detection unit 8 and an object imaging unit (first camera) registered in the storage unit 6 in advance. ) Based on data relating to a predetermined position / orientation relationship between 3 and the marker imaging unit (second camera) 5, the virtual image is aligned with the real image.

画像合成部10で生成された、現実画像と仮想画像との合成画像のデータは、システム本体2から表示部11に送られてそこで表示される。表示部11は、PC用モニターでも良いし、システム本体2との間でデータ通信を行うようにしたヘッド・マウント・ディスプレイ(HMD)でも良い。   The composite image data of the real image and the virtual image generated by the image composition unit 10 is sent from the system body 2 to the display unit 11 and displayed there. The display unit 11 may be a PC monitor, or a head mounted display (HMD) configured to perform data communication with the system main body 2.

図3に示したように、本例においては、作業対象物である製品12が製品固定用治具13の上に載置されており、この製品固定用治具13によって、作業空間内の所定の位置に製品12が位置決めされ、固定されている。   As shown in FIG. 3, in this example, a product 12 that is a work object is placed on a product fixing jig 13, and the product fixing jig 13 allows the product 12 to be fixed in the work space. The product 12 is positioned and fixed at the position.

マーカー撮像部(第2のカメラ)5により撮像されるマーカー4は、製品12から離れた位置にて、製品固定用治具13に貼付されている。本例においては、マーカー4の貼付位置は、対象物撮像部(第1のカメラ)3の撮像領域(画角)の外側である。   The marker 4 imaged by the marker imaging unit (second camera) 5 is affixed to the product fixing jig 13 at a position away from the product 12. In this example, the sticking position of the marker 4 is outside the imaging area (view angle) of the object imaging unit (first camera) 3.

製品(作業対象物)12は製品固定用治具13に対して所定の位置姿勢関係にあるので、製品固定用治具13におけるマーカー4の貼付位置が分かれば、マーカー4と製品(作業対象物)12との位置姿勢関係を特定することができる。特定された、マーカー4と製品12との位置姿勢関係に関するデータは、システム本体2の記憶部6に登録される。   Since the product (work object) 12 is in a predetermined position and orientation relationship with respect to the product fixing jig 13, the marker 4 and the product (work object) are known if the marker 4 sticking position on the product fixing jig 13 is known. ) The position and orientation relationship with 12 can be specified. The specified data relating to the position and orientation relationship between the marker 4 and the product 12 is registered in the storage unit 6 of the system main body 2.

図4は、表示部11で表示される合成画像の一例を示しており、対象物撮像部(第1のカメラ)3によって撮像された製品(作業対象物)12の現実画像に、仮想画像生成部7によって生成された部品14の仮想画像が重畳されている。なお、本例においては、対象物撮像部(第1のカメラ)3で撮像された画像の中には、マーカー4の画像は含まれていない。そのため、表示部11で表示される合成画像の中には、マーカー4の画像は含まれていない。   FIG. 4 shows an example of a composite image displayed on the display unit 11, and virtual image generation is performed on the real image of the product (work object) 12 imaged by the object imaging unit (first camera) 3. A virtual image of the component 14 generated by the unit 7 is superimposed. In this example, the image of the marker 4 is not included in the image captured by the object imaging unit (first camera) 3. Therefore, the composite image displayed on the display unit 11 does not include the image of the marker 4.

図5は、キャリブレーションボード15を示しており、このキャリブレーションボード15は、対象物撮像部(第1のカメラ)3と、マーカー撮像部(第2のカメラ)5との相対的な位置姿勢関係を特定するための位置姿勢関係特定手段を構成している。   FIG. 5 shows a calibration board 15, which is a relative position and orientation between the object imaging unit (first camera) 3 and the marker imaging unit (second camera) 5. Position / orientation relationship specifying means for specifying the relationship is configured.

キャリブレーションボード15は、対象物撮像部(第1のカメラ)3で撮像される第1マーカー16と、マーカー撮像部(第2のカメラ)5で撮像される第2マーカー17とを有する。第1マーカー16と第2マーカー17とは、所定の位置姿勢関係に配置されており、本例においては、平面状の第1マーカー16と平面状の第2マーカー17とが互いに90°の角度を成している。   The calibration board 15 includes a first marker 16 imaged by the object imaging unit (first camera) 3 and a second marker 17 imaged by the marker imaging unit (second camera) 5. The first marker 16 and the second marker 17 are arranged in a predetermined position and orientation relationship, and in this example, the planar first marker 16 and the planar second marker 17 are at an angle of 90 ° to each other. Is made.

そして、対象物撮像部(第1のカメラ)3で第1マーカー16を撮像すると共に、マーカー撮像部(第2のカメラ)5で第2マーカー17を撮像すれば、第1マーカー16と第2マーカー17との位置姿勢関係が予め分かっているので、対象物撮像部(第1のカメラ)3とマーカー撮像部(第2のカメラ)17との相対的な位置姿勢関係を算出することができる。   Then, if the first marker 16 is imaged by the object imaging unit (first camera) 3 and the second marker 17 is imaged by the marker imaging unit (second camera) 5, the first marker 16 and the second marker 16 are captured. Since the position and orientation relationship with the marker 17 is known in advance, the relative position and orientation relationship between the object imaging unit (first camera) 3 and the marker imaging unit (second camera) 17 can be calculated. .

次に、本実施形態による作業支援システム1を用いて、作業者の作業を支援する際の方法について説明する。   Next, a method for supporting a worker's work using the work support system 1 according to the present embodiment will be described.

まず、図5に示したキャリブレーションボード15を用いて、対象物撮像部(第1のカメラ)3とマーカー撮像部(第2のカメラ)5との相対的な位置姿勢関係を特定し、その情報をシステム本体2の記憶部6に登録する。   First, by using the calibration board 15 shown in FIG. 5, the relative position and orientation relationship between the object imaging unit (first camera) 3 and the marker imaging unit (second camera) 5 is specified. Information is registered in the storage unit 6 of the system body 2.

そして、図3に示したように、製品(作業対象物)12を製品固定用治具13で位置決め固定した状態で、対象物撮像部(第1のカメラ)3によって、製品(作業対象物)12を含む現実画像を取得する。これと同時に、マーカー撮像部(第2のカメラ)5によって、製品固定用治具13の所定の位置に貼付されたマーカー4を撮像する。   As shown in FIG. 3, the product (working object) 12 is moved by the object imaging unit (first camera) 3 with the product (working object) 12 positioned and fixed by the product fixing jig 13. A real image including 12 is acquired. At the same time, the marker imaging unit (second camera) 5 images the marker 4 attached to a predetermined position of the product fixing jig 13.

マーカー撮像部(第2のカメラ)5で得られたマーカー4の画像は、システム本体2のマーカー検出部8で画像分析される。その画像分析のデータと、記憶部6に予め登録されている、対象物撮像部(第1のカメラ)3とマーカー撮像部(第2のカメラ)5との相対的な位置姿勢関係に関するデータと、同じく記憶部6に予め登録されている、マーカー4と製品12との位置姿勢関係に関するデータとに基づいて、画像合成部10は、対象物撮像部(第1のカメラ)3で得られた現実画像に、仮想画像生成部7で生成された仮想画像を位置決めして重畳する。   The image of the marker 4 obtained by the marker imaging unit (second camera) 5 is subjected to image analysis by the marker detection unit 8 of the system body 2. Data on the image analysis, and data on a relative position and orientation relationship between the object imaging unit (first camera) 3 and the marker imaging unit (second camera) 5 registered in advance in the storage unit 6 The image composition unit 10 is obtained by the object imaging unit (first camera) 3 on the basis of the data relating to the position and orientation relationship between the marker 4 and the product 12 that is also registered in advance in the storage unit 6. The virtual image generated by the virtual image generator 7 is positioned and superimposed on the real image.

なお、製品12の加工・組立誤差による位置ずれ量を考慮する必要がある場合には、3Dモデルの原点、製品固定用治具13の基準位置、および検査基準位置を同一にする必要がある。一方、位置ずれ量を考慮する必要がなければ、これらの位置を同一にする必要はない。   When it is necessary to consider the amount of misalignment due to processing / assembly errors of the product 12, the origin of the 3D model, the reference position of the product fixing jig 13, and the inspection reference position must be the same. On the other hand, if it is not necessary to consider the amount of displacement, these positions need not be the same.

以上述べたように、本実施形態による作業支援システム1および方法によれば、作業対象物(製品)12を撮像するための対象物撮像部(第1のカメラ)3とは別に、マーカー4を撮像するためのマーカー撮像部(第2のカメラ)5を設けたので、マーカー4の設置位置に関する制約を大幅に軽減することができる。   As described above, according to the work support system 1 and the method according to the present embodiment, the marker 4 is provided separately from the object imaging unit (first camera) 3 for imaging the work object (product) 12. Since the marker imaging unit (second camera) 5 for imaging is provided, restrictions on the installation position of the marker 4 can be greatly reduced.

このため、作業対象物12の近傍にマーカー4を設置することが困難である作業環境においても、AR技術を利用した作業支援システム1を支障なく利用することができる。   For this reason, even in a work environment where it is difficult to install the marker 4 in the vicinity of the work object 12, the work support system 1 using the AR technology can be used without any trouble.

例えば、建築構造物である多数の配管のうちの特定の配管(作業対象物)に対して作業を行う際に、対象配管の作業個所を合成画像として提示する場合、従来の技術では対象配管自体またはその近傍にマーカーを貼付する必要があり、適切なマーカー設置個所を確保することが難しかった。   For example, when working on a specific pipe (work target) among a large number of pipes that are building structures, when the work location of the target pipe is presented as a composite image, the conventional technique itself Or it was necessary to affix a marker in the vicinity, and it was difficult to secure an appropriate marker installation location.

これに対して、本実施形態による作業支援システム1によれば、対象配管から離れた個所にマーカー4を設置することができるので、適切なマーカー設置個所(例えば、建築構造物の平面状の表面など)を容易に確保することができる。   On the other hand, according to the work support system 1 according to the present embodiment, since the marker 4 can be installed at a location away from the target pipe, an appropriate marker installation location (for example, a planar surface of a building structure) Etc.) can be secured easily.

また、上記のとおり、作業対象物12の近傍にマーカーを設置する必要がないので、マーカー4のサイズの設定やデザインの選択における自由度が大幅に高まる。これにより、マーカー4の検出において、高い検出精度を容易に確保することができる。   Further, as described above, since there is no need to install a marker in the vicinity of the work object 12, the degree of freedom in setting the size of the marker 4 and selecting the design is greatly increased. Thereby, high detection accuracy can be easily ensured in the detection of the marker 4.

また、製品12を位置決め固定するための製品固定用治具13にマーカー4を貼付するようにしたので、マーカー4と製品12との位置姿勢関係を容易に特定することができる。   In addition, since the marker 4 is affixed to the product fixing jig 13 for positioning and fixing the product 12, the positional orientation relationship between the marker 4 and the product 12 can be easily specified.

また、マーカー4が貼付された製品固定用治具13は、複数の製品12において共用できるので、従来のように製品ごとにマーカーを設置する必要がなく、これにより、作業効率が大幅に向上する。   Further, since the product fixing jig 13 to which the marker 4 is attached can be shared by a plurality of products 12, it is not necessary to install a marker for each product as in the prior art, thereby greatly improving work efficiency. .

1 作業支援システム
2 システム本体
3 対象物撮像部(第1のカメラ)
4 マーカー
5 マーカー撮像部(第2のカメラ)
6 記憶部
7 仮想画像生成部
8 マーカー検出部
9 カメラ取付部材
10 画像合成部
11 表示部
12 製品(作業対象物)
13 製品固定用治具
14 部品
15 キャリブレーションボード(位置姿勢関係特定手段)
16 第1マーカー
17 第2マーカー
DESCRIPTION OF SYMBOLS 1 Work support system 2 System main body 3 Object imaging part (1st camera)
4 Marker 5 Marker imaging unit (second camera)
6 Storage Unit 7 Virtual Image Generation Unit 8 Marker Detection Unit 9 Camera Mounting Member 10 Image Composition Unit 11 Display Unit 12 Product (Work Object)
13 Product Fixing Jig 14 Parts 15 Calibration Board (Position and Orientation Relationship Identification Means)
16 First marker 17 Second marker

Claims (12)

作業対象物が存在する作業空間の現実画像に仮想画像を重畳した映像を提示して、作業者の作業を支援するための作業支援システムであって、
前記作業対象物を含む前記現実画像を取得するための対象物撮像手段と、
前記対象物撮像手段と前記作業対象物との相対的な位置および姿勢に関する情報を取得するための位置姿勢情報取得手段と、を備え、
前記位置姿勢情報取得手段は、
前記作業対象物に対して所定の位置姿勢関係に配置されたマーカーと、
前記マーカーを撮像するためのマーカー撮像手段であって、前記対象物撮像手段に対して所定の位置姿勢関係に配置されたマーカー撮像手段と、を有する、作業支援システム。
A work support system for supporting a worker's work by presenting a video in which a virtual image is superimposed on a real image of a work space where a work object exists,
Object imaging means for acquiring the real image including the work object;
Position and orientation information acquisition means for acquiring information related to the relative position and orientation of the object imaging means and the work object;
The position and orientation information acquisition means includes
A marker arranged in a predetermined position and orientation relationship with respect to the work object;
A work support system, comprising: marker imaging means for imaging the marker, and marker imaging means arranged in a predetermined position and orientation relationship with respect to the object imaging means.
前記マーカーは、前記作業空間内の所定の位置に前記作業対象物を固定するための固定治具に取り付けられている、請求項1記載の作業支援システム。   The work support system according to claim 1, wherein the marker is attached to a fixing jig for fixing the work object at a predetermined position in the work space. 前記マーカーは、前記対象物撮像手段の撮像領域の外側に配置されている、請求項1または2に記載の作業支援システム。   The work support system according to claim 1, wherein the marker is disposed outside an imaging region of the object imaging unit. 前記仮想画像は、前記作業対象物に関する3Dモデルを含む、請求項1乃至3のいずれか一項に記載の作業支援システム。   The work support system according to claim 1, wherein the virtual image includes a 3D model related to the work object. 前記対象物撮像手段と前記マーカー撮像手段とが、互いに固定されている、請求項1乃至4のいずれか一項に記載の作業支援システム。   The work support system according to claim 1, wherein the object imaging unit and the marker imaging unit are fixed to each other. 前記対象物撮像手段と前記マーカー撮像手段との相対的な位置姿勢関係を特定するための位置姿勢関係特定手段をさらに備え、
前記位置姿勢関係特定手段は、前記対象物撮像手段で撮像される第1マーカーと、前記マーカー撮像手段で撮像される第2マーカーとを有し、前記第1マーカーと前記第2マーカーとが所定の位置姿勢関係に配置されている、請求項1乃至6のいずれか一項に記載の作業支援システム。
A position / orientation relationship specifying unit for specifying a relative position / orientation relationship between the object imaging unit and the marker imaging unit;
The position and orientation relation specifying unit includes a first marker imaged by the object imaging unit and a second marker imaged by the marker imaging unit, and the first marker and the second marker are predetermined. The work support system according to claim 1, wherein the work support system is arranged in a position / posture relationship.
作業対象物が存在する作業空間の現実画像に仮想画像を重畳した映像を提示して、作業者の作業を支援するための作業支援方法であって、
対象物撮像手段によって、前記作業対象物を含む前記現実画像を取得する工程と、
位置姿勢情報取得手段によって、前記対象物撮像手段と前記作業対象物との相対的な位置および姿勢に関する情報を取得する工程であって、前記位置姿勢情報取得手段は、前記作業対象物に対して所定の位置姿勢関係に配置されたマーカーと、前記対象物撮像手段に対して所定の位置姿勢関係に配置された、前記マーカーを撮像するためのマーカー撮像手段と、を有する、工程と、を備えた作業支援方法。
A work support method for supporting a worker's work by presenting a video in which a virtual image is superimposed on a real image of a work space in which a work object exists,
Acquiring the real image including the work object by an object imaging means;
A step of acquiring information related to a relative position and posture between the object imaging unit and the work object by a position / orientation information acquisition unit, wherein the position / orientation information acquisition unit And a marker having a predetermined position and orientation relationship, and a marker imaging means for imaging the marker, which is disposed in a predetermined position and orientation relationship with respect to the object imaging means. Work support method.
前記マーカーは、前記作業空間内の所定の位置に前記作業対象物を固定するための固定治具に取り付けられている、請求項7記載の作業支援方法。   The work support method according to claim 7, wherein the marker is attached to a fixing jig for fixing the work object at a predetermined position in the work space. 前記マーカーは、前記対象物撮像手段の撮像領域の外側に配置されている、請求項7または8に記載の作業支援方法。   The work support method according to claim 7 or 8, wherein the marker is arranged outside an imaging region of the object imaging means. 前記仮想画像は、前記作業対象物に関する3Dモデルを含む、請求項7乃至9のいずれか一項に記載の作業支援方法。   The work support method according to claim 7, wherein the virtual image includes a 3D model related to the work object. 前記対象物撮像手段と前記マーカー撮像手段とが、互いに固定されている、請求項7乃至10のいずれか一項に記載の作業支援方法。   The work support method according to claim 7, wherein the object imaging unit and the marker imaging unit are fixed to each other. 位置姿勢関係特定手段によって、前記対象物撮像手段と前記マーカー撮像手段との相対的な位置姿勢関係を特定する工程をさらに備え、
前記位置姿勢関係特定手段は、前記対象物撮像手段で撮像される第1マーカーと、前記マーカー撮像手段で撮像される第2マーカーとを有し、前記第1マーカーと前記第2マーカーとが所定の位置姿勢関係に配置されている、請求項7乃至11のいずれか一項に記載の作業支援方法。
A step of specifying a relative position and orientation relationship between the object imaging unit and the marker imaging unit by a position and orientation relationship specifying unit;
The position and orientation relation specifying unit includes a first marker imaged by the object imaging unit and a second marker imaged by the marker imaging unit, and the first marker and the second marker are predetermined. The work support method according to claim 7, wherein the work support method is arranged in a position / posture relationship.
JP2015256606A 2015-12-28 2015-12-28 Work support system and method Pending JP2017120512A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015256606A JP2017120512A (en) 2015-12-28 2015-12-28 Work support system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015256606A JP2017120512A (en) 2015-12-28 2015-12-28 Work support system and method

Publications (1)

Publication Number Publication Date
JP2017120512A true JP2017120512A (en) 2017-07-06

Family

ID=59271947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015256606A Pending JP2017120512A (en) 2015-12-28 2015-12-28 Work support system and method

Country Status (1)

Country Link
JP (1) JP2017120512A (en)

Similar Documents

Publication Publication Date Title
JP6138566B2 (en) Component mounting work support system and component mounting method
JP6344890B2 (en) Component assembly work support system and component assembly method
US11565427B2 (en) Robot system
JP6349307B2 (en) Work processing support system and work processing method
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
US20150377606A1 (en) Projection system
WO2020075232A1 (en) Mechanical fastening unit management method using augmented reality
JP2009042162A (en) Calibration device and method therefor
WO2011118476A1 (en) Three dimensional distance measuring device and method
JP6630504B2 (en) Work action support navigation system and method, computer program for work action support navigation, storage medium storing program for work action support navigation, self-propelled robot equipped with work action support navigation system, used in work action support navigation system Intelligent helmet
JP5804892B2 (en) Camera posture calculation device
WO2020130006A1 (en) Information projection system, control device, and information projection method
JP2009269134A (en) Simulation device in visual inspection apparatus
JP4679293B2 (en) In-vehicle panoramic camera system
JP6295296B2 (en) Complex system and target marker
JP2017151026A (en) Three-dimensional information acquiring device, three-dimensional information acquiring method, and program
JP2011087319A (en) In-vehicle panorama camera system
JP2017120512A (en) Work support system and method
JP2020194214A (en) Image display device
JP5882153B2 (en) Three-dimensional coordinate calculation device
US20200242797A1 (en) Augmented reality location and display using a user-aligned fiducial marker
JP7225109B2 (en) Work support system and work support method
CN106500714B (en) A kind of robot navigation method and system based on video
JP2020042667A (en) Projection system, projection method, and program
JP6116094B2 (en) Image search device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190913

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200312