JP2017200144A - Work support system - Google Patents

Work support system Download PDF

Info

Publication number
JP2017200144A
JP2017200144A JP2016091723A JP2016091723A JP2017200144A JP 2017200144 A JP2017200144 A JP 2017200144A JP 2016091723 A JP2016091723 A JP 2016091723A JP 2016091723 A JP2016091723 A JP 2016091723A JP 2017200144 A JP2017200144 A JP 2017200144A
Authority
JP
Japan
Prior art keywords
unit
user
serviceman
image
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016091723A
Other languages
Japanese (ja)
Other versions
JP6493296B2 (en
Inventor
徹 道上
Toru Michigami
徹 道上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2016091723A priority Critical patent/JP6493296B2/en
Publication of JP2017200144A publication Critical patent/JP2017200144A/en
Application granted granted Critical
Publication of JP6493296B2 publication Critical patent/JP6493296B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a work support system that enables a serviceman at a remote plate to give easier-to-understand support information, is applicable to a wide range of kinds of work, and supports user's work.SOLUTION: A work support system 1 comprises display terminals 10, 20 which are head-mounted type terminals, and worn by a user 76 and a serviceman 86, a user-side image processor 100, and a serviceman-side image processor 200. A moving image composition part of the serviceman-side image processor 200 forms a composite moving image 180 by integrating an extracted moving image 170 including a moving image of the hands of the serviceman 86 and a user-side moving image 150 imaged by an imaging part 18 of the user-side display terminal 20. The composite moving image 180 is displayed on both a display part of the serviceman-side display terminal 10 and a display part of the user-side display terminal 20.SELECTED DRAWING: Figure 7

Description

この発明は、作業支援システムに関するものである。   The present invention relates to a work support system.

現場における機器の操作や保守作業などの作業の際に、その現場から地理的に離れた場所に居るサービスマンなどの指示者から、ユーザーなどの現場で作業を行う作業者に対し指示を送ることにより現場での作業を支援することは従来行われている。   When performing operations such as equipment operations and maintenance work at the site, an instruction from a service person or the like who is geographically distant from the site will send instructions to the operator who performs the work at the site, such as a user. Supporting on-site work is conventionally performed.

例えば特許文献1においては、拡張現実(Augmented Reality:AR)を利用して、故障解析装置から送信される障害修復作業に関する情報を、作業者により装着されるメガネ型のヘッドマウントディスプレイの表示部に表示することにより、最適な障害修復作業を案内して作業支援を行う情報処理システムが開示されている。   For example, in Patent Document 1, using augmented reality (AR), information related to failure repair work transmitted from a failure analysis device is displayed on a display unit of a glasses-type head mounted display worn by an operator. An information processing system that guides an optimal fault repair work and provides work support by displaying the information is disclosed.

指示者が現場作業員に対し電話や無線装置などの通話手段を用いて口頭でユーザーに指示を伝達することも一般的に行われている。また携帯電話やスマートフォン、タブレット端末などのカメラ付き通信端末の普及により、現場作業員が現場の状況を撮影し、撮影された画像や映像を指示者に送信し、その画像や映像を見た指示者からの音声による助言により作業を支援する場合もある。   In general, an instructor verbally communicates an instruction to a user using a telephone or wireless communication device. Also, with the spread of camera-equipped communication terminals such as mobile phones, smartphones, and tablet terminals, field workers take pictures of the situation at the site, send the shot images and videos to the instructor, and give instructions to view the images and videos. In some cases, the work is supported by voice advice from the person.

例えば特許文献2には、所定の情報を表示可能なヘッドマウントディスプレイ装置と、そのヘッドマウントディスプレイ装置を装着したユーザーの視線方向を撮影可能な撮影手段と、情報処理装置とを備えた作業支援システムが開示されている。情報処理装置は、作業者に指示を与えるオペレーターの操作に従って、撮影手段が撮影した作業者の視線方向の撮影画像に所定の画像を重畳し、指示画像を生成する指示画像生成手段を備えている。またヘッドマウントディスプレイ装置は、指示画像生成手段が生成した指示画像を表示する際に、指示画像が作業者の視界と重なるように制御する制御手段を備えている。   For example, Patent Document 2 discloses a work support system including a head-mounted display device capable of displaying predetermined information, a photographing unit capable of photographing the line-of-sight direction of a user wearing the head-mounted display device, and an information processing device. Is disclosed. The information processing apparatus includes instruction image generation means for generating an instruction image by superimposing a predetermined image on a photographed image of the worker's line of sight taken by the photographing means in accordance with an operation of an operator who gives an instruction to the worker. . The head mounted display device also includes control means for controlling the instruction image so that it overlaps the operator's field of view when displaying the instruction image generated by the instruction image generating means.

特開2011−248860号公報JP 2011-248860 A 特開2013−16020号公報JP2013-16020A

しかしながら、特許文献1に示すようなシステムにおいては、あらかじめ障害修復作業に関する情報をサーバーに登録しておく必要がある。そのため、そのサーバーに登録されていない障害に対応することができない。また定型化されてない修復技術などは、事前情報としてサーバーに登録することは難しく、適用できる範囲が典型的な障害のみに限定されていた。   However, in a system such as that disclosed in Patent Document 1, it is necessary to register information related to failure repair work in advance on a server. Therefore, it is impossible to deal with a failure that is not registered in the server. In addition, it is difficult to register repair techniques that are not standardized in the server as advance information, and the applicable range is limited to typical failures.

これに対し、特許文献2に開示されているシステムにおいては、実際の現場の映像を見ながら、作業者に対し指示者が画像による指示を行えることから、特許文献1のシステムに比べて適用範囲は広い。しかしながら、指示画像は静止画像であり、指示できる情報が限定される。また、実際の修復作業の流れや作業者の動きなどは十分に伝えることができなかった。   On the other hand, in the system disclosed in Patent Document 2, since the instructor can instruct the operator by an image while viewing the actual scene image, the scope of application is larger than that in the system of Patent Document 1. Is wide. However, the instruction image is a still image, and information that can be instructed is limited. In addition, the actual flow of repair work and the movement of workers could not be fully communicated.

この発明の目的は、遠隔地に居るサービスマンからより理解しやすい支援情報を与えることができ、かつ幅広い種類の作業に適用が可能な、ユーザーの作業を支援する作業支援システムを提供することである。   An object of the present invention is to provide a work support system that can provide support information that can be more easily understood by a service person located in a remote place and that can be applied to a wide variety of work, and that supports user work. is there.

この発明は、遠隔地に居るサービスマンからユーザーに対し指示を行うことにより、ユーザーの作業を支援する作業支援システムに関する。この発明の作業支援システムは、頭部装着型の端末であって、ユーザーに装着されるユーザー側表示端末と、頭部装着型の端末であって、サービスマンに装着されるサービスマン側表示端末と、ユーザー側表示端末と通信可能なユーザー側画像処理装置と、サービスマン側表示端末と通信可能なサービスマン側画像処理装置と、を備える。ユーザー側画像処理装置と、サービスマン側画像処理装置とは通信可能に接続されている。   The present invention relates to a work support system that supports a user's work by giving an instruction to the user from a service person located in a remote place. A work support system according to the present invention is a head-mounted terminal, which is a user-side display terminal worn by a user, and a head-mounted terminal that is worn by a serviceman. And a user-side image processing device that can communicate with the user-side display terminal, and a serviceman-side image processing device that can communicate with the serviceman-side display terminal. The user-side image processing apparatus and the serviceman-side image processing apparatus are connected to be communicable.

ユーザー側表示端末およびサービスマン側表示端末は、それぞれ、装着部と、撮像部と、端末データ送受信部と、表示部と、表示制御部と、を備える。装着部は、ユーザーまたはサービスマンである装着者に装着可能な形状を有する。撮像部は、装着者の視野範囲内の画像処理装置の像と装着者の手の像とを含む動画像を撮像する。端末データ送受信部は、ユーザー側画像処理装置またはサービスマン側画像処理装置のうち、通信可能な画像処理装置との間でデータを送受信する。表示部は、装着部に設置されている。表示部は、装着者に視認可能な電子画像を表示すると共に、画像処理装置の像を光学的に透過しうる光学透過式のレンズを有する。表示制御部は、端末データ送受信部により受信されたデータに基づいて、表示部に電子画像が表示されるよう制御する。   Each of the user-side display terminal and the serviceman-side display terminal includes a mounting unit, an imaging unit, a terminal data transmission / reception unit, a display unit, and a display control unit. The wearing part has a shape that can be worn by a wearer who is a user or a service person. The imaging unit captures a moving image including an image of the image processing device and an image of the wearer's hand within the wearer's visual field range. The terminal data transmission / reception unit transmits / receives data to / from a communicable image processing device of the user side image processing device or the serviceman side image processing device. The display unit is installed in the mounting unit. The display unit has an optically transmissive lens that displays an electronic image that can be visually recognized by the wearer and that can optically transmit the image of the image processing apparatus. The display control unit controls the display unit to display an electronic image based on the data received by the terminal data transmission / reception unit.

ユーザー側画像処理装置は、ユーザー側表示端末およびサービスマン側画像処理装置と通信可能なユーザー側通信部を備える。   The user-side image processing device includes a user-side communication unit that can communicate with the user-side display terminal and the serviceman-side image processing device.

サービスマン側画像処理装置は、サービスマン側通信部と、データ取得部と、動画像抽出部と、動画像合成部と、を備える。サービスマン側通信部は、サービスマン側表示端末および前記ユーザー側画像処理装置と通信可能な通信部である。データ取得部は、サービスマン側通信部を通じて、ユーザー側表示端末の撮像部により撮像されたユーザー側動画像と、サービスマン側表示端末の撮像部により撮像されたサービスマン側動画像とを取得する。動画像抽出部は、データ取得部により受信されたサービスマン側動画像から、装着者であるサービスマンの手の動画像を抽出する。動画像合成部は、動画像抽出部により抽出された、サービスマンの手の動画像を含む抽出動画像と、ユーザー側動画像とを統合し、合成動画像を形成する。上記サービスマン側通信部は、動画像合成部により形成された合成動画像を、ユーザー側表示端末及びサービスマン側表示端末に送信する。   The serviceman-side image processing device includes a serviceman-side communication unit, a data acquisition unit, a moving image extraction unit, and a moving image composition unit. The serviceman side communication unit is a communication unit capable of communicating with a serviceman side display terminal and the user side image processing apparatus. The data acquisition unit acquires the user side moving image captured by the imaging unit of the user side display terminal and the serviceman side moving image captured by the imaging unit of the serviceman side display terminal through the serviceman side communication unit. . The moving image extraction unit extracts a moving image of the hand of the serviceman who is the wearer from the serviceman side moving image received by the data acquisition unit. The moving image synthesizing unit integrates the extracted moving image including the moving image of the serviceman's hand extracted by the moving image extracting unit and the user-side moving image to form a synthesized moving image. The serviceman side communication unit transmits the combined moving image formed by the moving image combining unit to the user side display terminal and the serviceman side display terminal.

また、上記表示制御部は、サービスマン側通信部から送信され、端末データ送受信部により受信された合成動画像を、表示部に表示するよう制御する。   The display control unit controls the display unit to display the synthesized moving image transmitted from the serviceman side communication unit and received by the terminal data transmission / reception unit.

この発明においては、サービスマンが頭部に装着するサービスマン側表示端末の表示部と、ユーザーが頭部に装着するユーザー側表示端末の表示部の両方に、同一の合成動画像が表示される。この合成動画像は、ユーザーの視野範囲を撮像した動画像に、サービスマンの手の動画像が重畳されるように合成されている。これによりサービスマンは、ユーザーの作業状況を視覚的に把握することができ、効率よく作業を支援することができる。一方、ユーザーは、表示端末の表示部に表示されたサービスマンの手の動きを見ることにより、視覚的に作業の流れを把握することができる。そのため、静止画像に比べてより詳細な支援情報を得ることができる。またこのシステムによれば、サーバーなどから提供される画一的な支援情報と比較して、サービスマンがユーザーの作業状況を見ながら臨機応変に対応できるため、障害修復作業に関する情報を事前にサーバーに登録しておく必要がない。さらに、このシステムは、様々な操作や作業に適用が可能である。   In this invention, the same composite moving image is displayed on both the display unit of the serviceman side display terminal worn by the serviceman on the head and the display unit of the user side display terminal worn by the user on the head. . This synthesized moving image is synthesized so that the moving image of the user's field of view is superimposed on the moving image of the serviceman's hand. As a result, the service person can visually grasp the user's work status and can efficiently support the work. On the other hand, the user can visually grasp the work flow by observing the movement of the serviceman's hand displayed on the display unit of the display terminal. Therefore, more detailed support information can be obtained compared to still images. Also, according to this system, compared to the uniform support information provided from the server, etc., the service person can respond flexibly while looking at the user's work status. There is no need to register with. Furthermore, this system can be applied to various operations and operations.

この発明の一実施形態に係る作業支援システムの全体図である。1 is an overall view of a work support system according to an embodiment of the present invention. この発明の一実施形態に係る作業支援システムの全体の構成を示すブロック図である。1 is a block diagram showing an overall configuration of a work support system according to an embodiment of the present invention. ARグラスの制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part of AR glass. ユーザー側の画像処理装置である複合機の制御部の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a control unit of a multifunction peripheral that is a user-side image processing apparatus. サービスマン側の画像処理装置である複合機の制御部の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a control unit of a multifunction peripheral that is an image processing apparatus on a service person side. この発明に係る作業支援システムによってユーザーの作業を支援する際の開始時の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process at the time of starting at the time of supporting a user's work by the work assistance system which concerns on this invention. 各撮像カメラにより撮像される像と、各表示レンズに表示される像の関係を示した概略図である。It is the schematic which showed the relationship between the image imaged with each imaging camera, and the image displayed on each display lens. この発明に係る作業支援システムによってユーザーの作業を支援する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of assisting a user's work by the work assistance system which concerns on this invention. ユーザーにより装着されるARグラスの撮像カメラにより撮像される動画像の一例を模式図として示した図である。It is the figure which showed as an example the moving image imaged with the imaging camera of AR glass with which a user is mounted | worn as a schematic diagram. サービスマンにより装着されるARグラスの撮像カメラにより撮像される動画像の一例を模式図として示した図である。It is the figure which showed as an example the moving image imaged with the imaging camera of AR glass with which a service person is equipped. 背景除去処理を行うことにより、サービスマンの両手の動画像のみを抽出した後の抽出動画像の例を示す図である。It is a figure which shows the example of the extracted moving image after extracting only the moving image of both hands of a serviceman by performing a background removal process. ARグラスの装着者が視認する合成動画像を示す図である。It is a figure which shows the synthetic | combination moving image visually recognized by the wearer of AR glass. この発明の一実施形態に係る作業支援システムによる作業の支援が完了した後の、作業完了の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process of a work completion after the support of the work by the work assistance system which concerns on one Embodiment of this invention is completed.

以下、この発明の実施の形態を説明する。図1は、この発明の一実施形態に係る作業支援システム1の全体図である。図2は、この発明の一実施形態に係る作業支援システム1の全体の構成を示すブロック図である。   Embodiments of the present invention will be described below. FIG. 1 is an overall view of a work support system 1 according to an embodiment of the present invention. FIG. 2 is a block diagram showing the overall configuration of the work support system 1 according to one embodiment of the present invention.

図1〜図2を参照して、この発明の一実施形態に係る作業支援システム1は、頭部装着型の端末であって、ユーザーに装着されるユーザー側表示端末としてのAR(Augmented Reality)グラス10と、ユーザー側表示端末と通信可能なユーザー側画像処理装置としての複合機100と、を備える。上記作業支援システム1は、さらに、頭部装着型の端末であって、サービスマンに装着されるサービスマン側表示端末としてのARグラス20と、サービスマン側表示端末と通信可能なサービスマン側画像処理装置としての複合機200と、を備える。   1 to 2, a work support system 1 according to an embodiment of the present invention is a head-mounted terminal, which is an AR (Augmented Reality) as a user-side display terminal worn by a user. A glass 10 and a multifunction peripheral 100 as a user-side image processing apparatus capable of communicating with a user-side display terminal are provided. The work support system 1 is further a head-mounted terminal, which is an AR glass 20 serving as a serviceman-side display terminal worn by a serviceman, and a serviceman-side image communicable with the serviceman-side display terminal. And a multifunction machine 200 as a processing apparatus.

複合機100と、複合機200とは、ネットワーク5を介して互いに通信可能に接続されている。ユーザー側のARグラス10と複合機100は、有線または無線通信により通信可能である。同様に、サービスマン側のARグラス20と複合機200も通信可能である。   The multi-function device 100 and the multi-function device 200 are connected via a network 5 so as to communicate with each other. The AR glass 10 on the user side and the MFP 100 can communicate with each other by wired or wireless communication. Similarly, the AR glass 20 on the service person side and the multifunction device 200 can also communicate with each other.

ユーザー側のARグラス10は、装着部11と、ユーザーARグラス制御部12と、第1メモリ14と、第1マイク15と、第1表示レンズ16と、第1スピーカ17と、第1撮像カメラ18と、ユーザー側データ送受信部19とを備える。   The AR glass 10 on the user side includes a mounting unit 11, a user AR glass control unit 12, a first memory 14, a first microphone 15, a first display lens 16, a first speaker 17, and a first imaging camera. 18 and a user-side data transmission / reception unit 19.

装着部11は、装着者であるユーザーが装着可能な形状、例えばメガネ状の形状を有する。ユーザーARグラス制御部12は、ARグラス10全体の制御を行う。記憶部としての第1メモリ14は、受信した画像データや音声データ、入力された動作条件等の格納を行う。   The wearing unit 11 has a shape that can be worn by a user who is a wearer, for example, a glasses-like shape. The user AR glass control unit 12 controls the AR glass 10 as a whole. The first memory 14 serving as a storage unit stores received image data and audio data, input operating conditions, and the like.

音声入力部としての第1マイク15は、音声情報、例えばARグラス10を装着したユーザーにより発声された音声情報の入力を受け付ける。音声出力部としての第1スピーカ17は、サービスマン側表示端末としてのARグラス20およびユーザー側表示端末としてのARグラス10のうち、他方、すなわち、ARグラス20の音声入力部である第2マイク25(後述)から入力された音声情報を、ネットワーク5を介してARグラス10が受け取った後、出力する。   The first microphone 15 as an audio input unit receives input of audio information, for example, audio information uttered by a user wearing the AR glass 10. The first speaker 17 as an audio output unit is a second microphone that is an audio input unit of the AR glass 20 on the other side of the AR glass 20 as a serviceman side display terminal and the AR glass 10 as a user side display terminal. The voice information input from 25 (described later) is received by the AR glass 10 via the network 5 and then output.

撮像部としての第1撮像カメラ18は、装着者であるユーザーの視野範囲内の画像処理装置の像と、装着者であるユーザーの手の像とを含む動画像を撮像する。ユーザー側動画像に含まれる画像処理装置の像は、ユーザー側表示端末としてのARグラス10を装着したユーザーの視野範囲内の、ユーザー側画像処理装置としての複合機100の像であるのが好ましい。   The first imaging camera 18 as an imaging unit captures a moving image including an image of the image processing apparatus within the visual field range of the user who is the wearer and an image of the hand of the user who is the wearer. The image of the image processing apparatus included in the user side moving image is preferably an image of the multifunction peripheral 100 as the user side image processing apparatus within the field of view of the user wearing the AR glass 10 as the user side display terminal. .

表示部としての第1表示レンズ16は、装着部11に設置されている。第1表示レンズ16は、装着者であるユーザーに視認可能な電子画像を表示すると共に、画像処理装置である複合機100の像を光学的に透過しうる光学透過式のレンズを有する。   The first display lens 16 as a display unit is installed in the mounting unit 11. The first display lens 16 has an optically transmissive lens that displays an electronic image that can be visually recognized by a user who is a wearer and can optically transmit an image of the multifunction peripheral 100 that is an image processing apparatus.

端末データ送受信部としてのユーザー側データ送受信部19は、ARグラス10と通信可能な複合機100との間、具体的にはユーザー側データ送受信部19とユーザー側通信部109との間でデータを送受信する。   The user-side data transmission / reception unit 19 serving as a terminal data transmission / reception unit transmits data between the MFP 100 that can communicate with the AR glass 10, specifically, between the user-side data transmission / reception unit 19 and the user-side communication unit 109. Send and receive.

サービスマン側のARグラス20は、装着部21と、サービスマンARグラス制御部22と、第2メモリ24と、第2マイク25と、第2表示レンズ26と、第2スピーカ27と、第2撮像カメラ28と、サービスマン側データ送受信部29とを備える。各部の機能は、ユーザー側のARグラス10に対応する。すなわち、上記説明においてユーザーとサービスマンを置き換え、複合機100を複合機200に置き換え、ARグラス10をARグラス20に置き換える以外は、サービスマン側のARグラス20は、ユーザー側のARグラス10と同一の機能を有する。装着部21は装着部11と、サービスマンARグラス制御部22はユーザーARグラス制御部12と、第2メモリ24は第1メモリ14とそれぞれ対応する機能を有する。さらに、第2マイク25は第1マイク15と、第2表示レンズ26は第1表示レンズ16と、第2スピーカ27は第1スピーカ17と、第2撮像カメラ28は第1カメラ18と、サービスマン側データ送受信部29はユーザー側データ送受信部19と、それぞれ対応する機能を有する。詳細については省略する。   The AR glass 20 on the serviceman side includes a mounting unit 21, a serviceman AR glass control unit 22, a second memory 24, a second microphone 25, a second display lens 26, a second speaker 27, and a second speaker. An imaging camera 28 and a serviceman side data transmission / reception unit 29 are provided. The function of each part corresponds to the AR glass 10 on the user side. That is, in the above description, the AR glass 20 on the serviceman side is the same as the AR glass 10 on the user side, except that the user and the serviceman are replaced, the MFP 100 is replaced with the MFP 200, and the AR glass 10 is replaced with the AR glass 20. Has the same function. The mounting unit 21 has a function corresponding to the mounting unit 11, the serviceman AR glass control unit 22 has a function corresponding to the user AR glass control unit 12, and the second memory 24 has a function corresponding to the first memory 14. Further, the second microphone 25 is the first microphone 15, the second display lens 26 is the first display lens 16, the second speaker 27 is the first speaker 17, the second imaging camera 28 is the first camera 18, and the service. The man-side data transmitting / receiving unit 29 has functions corresponding to the user-side data transmitting / receiving unit 19. Details are omitted.

ユーザー側画像処理装置としての複合機100は、ユーザーが操作やメンテナンスなどの作業を行う対象の機器である。複合機100は、ユーザー側表示操作部101と、ユーザー側複合機制御部102と、ユーザー側画像形成部104と、ユーザー側通信部109とを備える。   The multifunction peripheral 100 serving as a user-side image processing apparatus is a target device on which a user performs operations such as operation and maintenance. The multifunction device 100 includes a user side display operation unit 101, a user side multifunction device control unit 102, a user side image forming unit 104, and a user side communication unit 109.

ユーザー側表示操作部101は、画像処理の条件や電源のオンまたはオフを入力させる。また、キー操作により、支援を要請するための支援要請の入力や支援の終了の要求の入力を受け付ける。   The user side display operation unit 101 inputs image processing conditions and power on / off. Also, an input of a support request for requesting support or an input of a request for termination of support is accepted by key operation.

ユーザー側画像形成部104は、画像形成要求に応じて、記録媒体、例えば、用紙上に画像を形成する。ユーザー側通信部109は、ユーザー側表示端末としてのARグラス10およびサービスマン側画像処理装置としての複合機200と通信可能である。ユーザー側通信部109は、ARグラス10のユーザー側データ送受信部19との間、およびネットワーク5を介して、サービスマン側画像処理装置としての複合機200のサービスマン側通信部209との間でデータを送受信する。   The user-side image forming unit 104 forms an image on a recording medium, for example, paper in response to an image formation request. The user-side communication unit 109 can communicate with the AR glass 10 as a user-side display terminal and the multifunction device 200 as a serviceman-side image processing apparatus. The user-side communication unit 109 communicates with the user-side data transmission / reception unit 19 of the AR glass 10 and with the serviceman-side communication unit 209 of the MFP 200 serving as the serviceman-side image processing apparatus via the network 5. Send and receive data.

サービスマン側画像処理装置としての複合機200は、サービスマン側表示操作部201と、サービスマン側複合機制御部202と、ハードディスク(HDD)204と、サービスマン側画像形成部205と、サービスマン側通信部209とを備える。   A multifunction machine 200 serving as a serviceman-side image processing apparatus includes a serviceman-side display operation unit 201, a serviceman-side multifunction machine control unit 202, a hard disk (HDD) 204, a serviceman-side image forming unit 205, and a serviceman. Side communication unit 209.

サービスマン側表示操作部201は、画像処理の条件や電源のオンまたはオフを入力させる。サービスマン側複合機制御部202は、複合機200全体の制御を行う。HDD204は、送信された画像データや入力された画像処理条件等の格納を行う。また、HDD204は、ユーザーの作業を支援する作業支援情報を格納する作業支援情報格納部としても機能する。作業支援情報としては、例えば、マニュアル文書や、作業手順を示した画像などが挙げられる。   The serviceman side display operation unit 201 inputs image processing conditions and power on / off. The serviceman side multifunction device control unit 202 controls the entire multifunction device 200. The HDD 204 stores transmitted image data, input image processing conditions, and the like. The HDD 204 also functions as a work support information storage unit that stores work support information that supports the work of the user. Examples of the work support information include a manual document and an image showing a work procedure.

サービスマン側画像形成部205は、画像形成要求に応じて、記録媒体、例えば、用紙上に画像を形成する。サービスマン側通信部209は、サービスマン側表示端末であるARグラス20と、ユーザー側画像処理装置である複合機100と通信可能である。サービスマン側通信部209は、ARグラス20のサービスマン側データ送受信部29との間、およびネットワーク5を介して、ユーザー側画像処理装置としての複合機100のユーザー側通信部109との間でデータを送受信する。   The serviceman-side image forming unit 205 forms an image on a recording medium, for example, paper in response to an image formation request. The serviceman-side communication unit 209 can communicate with the AR glass 20 that is a serviceman-side display terminal and the multifunction peripheral 100 that is a user-side image processing apparatus. The serviceman side communication unit 209 communicates with the serviceman side data transmission / reception unit 29 of the AR glass 20 and between the user side communication unit 109 of the multifunction peripheral 100 as the user side image processing apparatus via the network 5. Send and receive data.

なお、複合機100および200は、画像データの書き出しや読み出しを行うDRAM(Dynamic Random Access Memory)や現像剤によって形成された可視化像を転写する用紙を搬送する用紙搬送部等を備えるが、これらについては、図示および説明を省略する。また、図2中の矢印は、制御信号や制御、画像に関するデータの流れを示している。   The multifunction peripherals 100 and 200 include a DRAM (Dynamic Random Access Memory) that writes and reads image data, a sheet conveyance unit that conveys a sheet on which a visualized image formed by a developer is transferred, and the like. The illustration and description are omitted. In addition, arrows in FIG. 2 indicate the flow of data regarding control signals, control, and images.

次に、上記したARグラス10のユーザーARグラス制御部12(以下、制御部12と略する)、およびARグラス20のサービスマンARグラス制御部22(以下、制御部22と略する)の構成について説明する。図3は、制御部12および制御部22の構成を示すブロック図である。図3を参照して、制御部12と制御部22とは、共通の構造を有している。   Next, the configuration of the user AR glass control unit 12 (hereinafter abbreviated as control unit 12) of the AR glass 10 and the serviceman AR glass control unit 22 (hereinafter abbreviated as control unit 22) of the AR glass 20 is described. Will be described. FIG. 3 is a block diagram illustrating configurations of the control unit 12 and the control unit 22. Referring to FIG. 3, control unit 12 and control unit 22 have a common structure.

図3を参照して、制御部12および制御部22は、それぞれ、表示制御部31,41と、振動検知部32,42と、安定化処理部33,43とを備える。   Referring to FIG. 3, control unit 12 and control unit 22 include display control units 31 and 41, vibration detection units 32 and 42, and stabilization processing units 33 and 43, respectively.

表示制御部31および41は、対応する第1表示レンズ16または第2表示レンズ26に電子動画像が表示されるよう制御する。振動検知部32および42は、それぞれ、対応する第1撮像カメラ18または第2撮像カメラ28の振動を検知する。安定化処理部33および43は、対応する振動検知部32または42により検知された振動の状態に応じて、第1撮像カメラ18または第2撮像カメラ28によって撮像された動画像から動揺を取り除く画像安定化処理を行う。   The display control units 31 and 41 perform control so that an electronic moving image is displayed on the corresponding first display lens 16 or second display lens 26. The vibration detection units 32 and 42 detect the vibration of the corresponding first imaging camera 18 or second imaging camera 28, respectively. The stabilization processing units 33 and 43 remove images from the moving images captured by the first imaging camera 18 or the second imaging camera 28 according to the state of vibration detected by the corresponding vibration detection units 32 or 42. Stabilize.

このとき、振動検知部32または42によって検知された振動が所定の閾値を超えると、表示制御部31または41は、対応する表示部としての第1表示レンズ16または第2表示レンズ26に警告画面を電子画像として表示するよう制御してもよい。   At this time, if the vibration detected by the vibration detection unit 32 or 42 exceeds a predetermined threshold, the display control unit 31 or 41 displays a warning screen on the first display lens 16 or the second display lens 26 as a corresponding display unit. May be controlled to be displayed as an electronic image.

次に、上記したユーザー側複合機100のユーザー側複合機制御部102(以下、制御部102と略する)の構成について説明する。図4は、制御部102の構成を示すブロック図である。   Next, the configuration of the user-side multifunction device control unit 102 (hereinafter abbreviated as the control unit 102) of the user-side multifunction device 100 will be described. FIG. 4 is a block diagram illustrating a configuration of the control unit 102.

図4を参照して、ユーザー側複合機制御部102は、支援要請受け付け部52と、作業ログ作成部56とを備える。支援要請受け付け部52は、支援を要請するための支援要請の入力を受け付ける。支援要請の入力は、例えばユーザー側表示操作部101のキーを操作することにより入力される。作業ログ作成部56は、作業の内容を示す作業ログを作成する。作業ログは、例えば支援の終了後に作成される。作成された作業ログは、例えば、複合機200に送信され、複合機200のHDD204に保存される。   With reference to FIG. 4, the user-side multifunction peripheral control unit 102 includes a support request receiving unit 52 and a work log creating unit 56. The support request receiving unit 52 receives an input of a support request for requesting support. The support request is input by, for example, operating a key of the user side display operation unit 101. The work log creation unit 56 creates a work log indicating the contents of work. The work log is created after the support is completed, for example. For example, the created work log is transmitted to the multi-function device 200 and stored in the HDD 204 of the multi-function device 200.

次に、上記した複合機200のサービスマン側複合機制御部202(以下、制御部202と略する)の構成について説明する。図5は、制御部202の構成を示すブロック図である。   Next, the configuration of the serviceman side multifunction device control unit 202 (hereinafter, abbreviated as the control unit 202) of the multifunction device 200 will be described. FIG. 5 is a block diagram illustrating a configuration of the control unit 202.

図5を参照して、制御部202は、データ取得部62と、動画像抽出部64と、動画像合成部66と、位置合わせ部67と、認証部68と、支援終了要求受け付け部69と、を備える。   Referring to FIG. 5, the control unit 202 includes a data acquisition unit 62, a moving image extraction unit 64, a moving image synthesis unit 66, a registration unit 67, an authentication unit 68, and a support end request reception unit 69. .

データ取得部62は、サービスマン側通信209部を通じて、ユーザー側表示端末の撮像部としての第1撮像カメラ18により撮像されたユーザー側動画像と、サービスマン側表示端末の撮像部としての第2撮像カメラ28により撮像されたサービスマン側動画像とを取得する。   The data acquisition unit 62 receives the user-side moving image captured by the first imaging camera 18 as the imaging unit of the user-side display terminal and the second imaging unit of the serviceman-side display terminal through the serviceman-side communication 209 unit. A serviceman side moving image captured by the imaging camera 28 is acquired.

動画像抽出部64は、データ取得部62により受信されたサービスマン側動画像から、装着者であるサービスマンの手の動画像を抽出する。手の動画像を抽出する手段および技術としては、既存の手段および公知の画像認識技術や画像加工技術が利用できる。第2撮像カメラ28による撮像時には、サービスマンの手の動画像が抽出しやすいように、サービスマンは専用の手袋を着用していてもよい。   The moving image extraction unit 64 extracts a moving image of the hand of the serviceman who is the wearer from the serviceman side moving image received by the data acquisition unit 62. As means and techniques for extracting a hand moving image, existing means and known image recognition techniques and image processing techniques can be used. At the time of imaging by the second imaging camera 28, the serviceman may wear a dedicated glove so that a moving image of the serviceman's hand can be easily extracted.

動画像合成部66は、動画像抽出部64により抽出された、サービスマンの手の動画像を含む抽出動画像と、ユーザー側動画像とを統合し、合成動画像を形成する。動画の合成処理技術としては、公知の画像認識技術や画像加工技術が利用できる。   The moving image synthesizing unit 66 integrates the extracted moving image including the moving image of the serviceman's hand extracted by the moving image extracting unit 64 and the user-side moving image to form a synthesized moving image. As the moving image composition processing technique, a known image recognition technique or image processing technique can be used.

サービスマン側通信部209は、動画像合成部66により形成された合成動画像を、ユーザー側表示端末としてのARグラス10と、サービスマン側表示端末としてのARグラス20に送信する。合成動画像は、サービスマン側表示端末としてのARグラス20から送信され、端末データ送受信部としてのユーザー側データ送受信部19およびサービスマン側データ送受信部29により受信される。表示制御部31および41は、ユーザー側データ送受信部19およびサービスマン側データ送受信部29により受信された合成動画像を、表示部としての第1表示レンズ16および第2表示レンズにそれぞれ表示するよう制御する。このようにして、合成動画像が、ARグラス10および20の各表示レンズ16または26に、電子動画像として表示される。   The service person side communication unit 209 transmits the synthesized moving image formed by the moving image composition unit 66 to the AR glass 10 as the user side display terminal and the AR glass 20 as the service person side display terminal. The synthesized moving image is transmitted from the AR glass 20 as a serviceman side display terminal, and is received by the user side data transmission / reception unit 19 and the serviceman side data transmission / reception unit 29 as terminal data transmission / reception units. The display control units 31 and 41 display the synthesized moving images received by the user-side data transmission / reception unit 19 and the serviceman-side data transmission / reception unit 29 on the first display lens 16 and the second display lens as display units, respectively. Control. In this way, the synthesized moving image is displayed as an electronic moving image on each display lens 16 or 26 of the AR glasses 10 and 20.

位置合わせ部67は、データ取得部62により取得されたユーザー側動画像とサービスマン側動画像のうち、ユーザー側動画像に含まれる画像処理装置としての複合機100の像と、サービスマン側動画像に含まれる画像処理装置としての複合機200の像との位置を合わせる。位置合わせ部67が2つの画像の位置合わせを行うことにより、動画像合成部66による合成動画像の形成が容易になる。   The alignment unit 67 includes an image of the MFP 100 as an image processing apparatus included in the user-side moving image and the serviceman-side moving image among the user-side moving image and the serviceman-side moving image acquired by the data acquisition unit 62. The position of the image of the multifunction peripheral 200 as the image processing apparatus included in the image is adjusted. When the alignment unit 67 aligns the two images, the moving image combining unit 66 can easily form a combined moving image.

認証部68は、サービスマン側画像処理装置としての複合機200との通信を要求する機器を認証するための種々の役割を果たす。たとえば、支援要請受け付け部52により前記支援要請の入力が受け付けられると、ユーザー側画像処理装置としての複合機100に対し、認証用情報、例えばパスワードなど、を発行する。認証部68により発行された認証用情報は、ユーザー側画像処理装置としての複合機100のユーザー側表示操作部101に表示される。表示操作部101に表示された認証用情報は、ユーザー側表示端末としてのARグラス10の撮像部としての第1撮像カメラ18により読み取られる。認証部68は、ユーザー側表示端末としてのARグラス10の撮像部としての第1撮像カメラ18により読み取られた読み取り結果と、認証部68により発行された認証用情報とが整合するか否かを判断する。両者が整合する場合には、ユーザー側画像処理装置としての複合機100と、サービスマン側画像処理装置としての複合機200との間での通信を確立する。   The authentication unit 68 plays various roles for authenticating a device that requests communication with the multifunction peripheral 200 as a serviceman-side image processing apparatus. For example, when an input of the support request is received by the support request receiving unit 52, authentication information, for example, a password or the like is issued to the multifunction peripheral 100 as the user side image processing apparatus. The authentication information issued by the authentication unit 68 is displayed on the user-side display operation unit 101 of the multifunction peripheral 100 as the user-side image processing apparatus. The authentication information displayed on the display operation unit 101 is read by the first imaging camera 18 as the imaging unit of the AR glass 10 as the user side display terminal. The authentication unit 68 determines whether or not the reading result read by the first imaging camera 18 as the imaging unit of the AR glass 10 as the user side display terminal matches the authentication information issued by the authentication unit 68. to decide. If the two match, communication is established between the MFP 100 as the user-side image processing apparatus and the MFP 200 as the serviceman-side image processing apparatus.

支援終了要求受け付け部69は、支援の終了の要求の入力を受け付ける。支援の終了の要求は、例えば作業終了後にサービスマンがサービスマン側表示操作部201のキーを操作することによって入力される。   The support end request receiving unit 69 receives an input of a support end request. The request to end the support is input, for example, when the serviceman operates a key on the serviceman display operation unit 201 after the work is completed.

支援終了要求受け付け部69により支援の終了の要求の入力が受け付けられると、認証部68は、支援を終了するための支援終了用認証情報、例えばテストパターンを発行する。画像形成部としてのユーザー側画像形成部105は、認証部68により発行された支援終了用認証情報を示す画像を用紙上に形成する。画像形成部としてのユーザー側画像形成部105により用紙上に形成された、支援終了用認証情報を示す画像は、ユーザー側表示端末としてのARグラス10の、撮像部としての第1撮像カメラ18により読み取られる。認証部68は、ユーザー側表示端末としてのARグラス10の、撮像部としての第1撮像カメラ18による読み取り結果と、認証部68により発行された支援終了用認証情報とを照合する。照合の結果、両者が整合する場合には、ユーザー側画像処理装置としての複合機100と、サービスマン側画像処理装置としての複合機200との間の通信を停止する。   When the support end request receiving unit 69 receives an input of a support end request, the authentication unit 68 issues support end authentication information for ending support, for example, a test pattern. A user-side image forming unit 105 as an image forming unit forms an image indicating support end authentication information issued by the authentication unit 68 on a sheet. The image indicating the support end authentication information formed on the sheet by the user side image forming unit 105 as the image forming unit is sent by the first imaging camera 18 as the imaging unit of the AR glass 10 as the user side display terminal. Read. The authentication unit 68 collates the reading result of the first imaging camera 18 as the imaging unit of the AR glass 10 as the user side display terminal with the support end authentication information issued by the authentication unit 68. If they match as a result of the collation, communication between the multifunction device 100 as the user-side image processing device and the multifunction device 200 as the serviceman-side image processing device is stopped.

なお上述の説明において、ユーザー側画像処理装置としての複合機100と、サービスマン側画像処理装置としての複合機200とは、同一の構造を備えた同一の機種であるのが好ましい。複合機100と複合機200とが同一の構造を備えた同一の機種であれば、位置合わせ部67による動画像の位置合わせを適切に行うことができ、動画像合成部66による合成画像の形成を効率良く行うことができる。また同一の構造を備えた同一の機種を用いてサービスマンがり具体的で詳細な指示を行えることから、ユーザーは、より有用な内容の支援を受けることができる。   In the above description, it is preferable that the multi-function device 100 as the user-side image processing device and the multi-function device 200 as the serviceman-side image processing device are the same model having the same structure. If the multifunction device 100 and the multifunction device 200 are the same model having the same structure, the moving image can be properly aligned by the alignment unit 67, and the synthesized image can be formed by the moving image combining unit 66. Can be performed efficiently. In addition, since a service person can give specific and detailed instructions using the same model having the same structure, the user can receive more useful support.

次に、この発明の一実施形態に係る作業支援システム1により、実際にユーザーがサービスマンの支援を受けながら作業を行う場合の流れについて説明する。一例として、サービスマンからの支援を受けながら、複合機100のメンテナンス作業をユーザーが行う場合について説明する。このとき、図1を参照して、ARグラス10と、作業が行われる対象の機器である複合機100は、ユーザー側にある。またARグラス20と、複合機200とは、サービスマン側にある。またサービスマンは、ユーザーから遠隔の場所に居るものとする。さらに、ユーザー側画像処理装置としての複合機100と、サービスマン側画像処理装置としての複合機200は、同一の構造を備えた同一の機種であるとする。   Next, a flow in the case where the user actually performs work while receiving support from a serviceman by the work support system 1 according to the embodiment of the present invention will be described. As an example, a case where the user performs maintenance work on the multifunction peripheral 100 while receiving support from a service person will be described. At this time, referring to FIG. 1, the AR glass 10 and the multifunction peripheral 100 which is a target device on which work is performed are on the user side. The AR glass 20 and the multifunction device 200 are on the service person side. The service person is assumed to be remote from the user. Furthermore, it is assumed that the multifunction peripheral 100 as the user-side image processing apparatus and the multifunction peripheral 200 as the serviceman-side image processing apparatus are the same model having the same structure.

図6は、作業を行う前の準備として、ユーザーがサービスマンから支援を受ける際の、支援手続きの開始の流れを示すフローチャートである(図6における、ステップS11〜S20(以下、「ステップ」を省略する))。   FIG. 6 is a flowchart showing a flow of starting a support procedure when a user receives support from a service person as preparation before work (steps S11 to S20 in FIG. 6 (hereinafter referred to as “step”). Omitted)).

図6を参照して、まず、メンテナンスを行うユーザーは、複合機100のユーザー側表示操作部101のキーを操作することにより、支援の要請を行う。支援要請受け付け部52は、支援の要請の入力を受け付ける(S11)。支援要請受け付け部52により支援の要請が受け付けられると、その支援の要請は、ユーザー側通信部109から、ネットワーク5を介して複合機200のサービスマン側通信部209に送信される。サービスマン側通信部209により支援の要請が受信されると(S12)、複合機200の認証部68は、認証用情報として、ワンタイムパスワードを発行する(S13)。そのワンタイムパスワードは、複合機200のサービスマン側通信部209から、ネットワーク5を介して、複合機100のユーザー側通信部109に送信される。ユーザー側通信部109により受信されたワンタイムパスワードは、ユーザー側の複合機100のユーザー側表示操作部101に表示される。   Referring to FIG. 6, first, a user who performs maintenance requests assistance by operating a key of the user side display operation unit 101 of the multifunction peripheral 100. The support request receiving unit 52 receives an input of a support request (S11). When the support request is received by the support request receiving unit 52, the support request is transmitted from the user side communication unit 109 to the service person side communication unit 209 of the MFP 200 via the network 5. When the request for support is received by the serviceman side communication unit 209 (S12), the authentication unit 68 of the multifunction device 200 issues a one-time password as authentication information (S13). The one-time password is transmitted from the service person side communication unit 209 of the MFP 200 to the user side communication unit 109 of the MFP 100 via the network 5. The one-time password received by the user-side communication unit 109 is displayed on the user-side display operation unit 101 of the user-side multifunction device 100.

ユーザーは、ARグラス10を装着した状態で、第1表示レンズ16を通して、ユーザー側表示操作部101に表示されたワンタイムパスワードの像を見る。このとき、第1撮像カメラ18は、ユーザーの視野に捉えられたそのワンタイムパスワードを読み取る(S14)。第1撮像カメラ18による読み取り結果は、ARグラス10のユーザー側データ送受信部19から、複合機100のユーザー側通信部109に送信される。さらに、その読み取り結果は、ユーザー側通信部109から、ネットワーク5を介して、複合機200のサービスマン側通信部209に送信される(S15)。認証部68は、サービスマン側通信部209により受け取られた読み取り結果と、認証部68により発行されたワンタイムパスワードとが整合するか否かを判定する(S16)。両者が整合する場合(S17において、YES)には、複合機100と複合機200との間での通信を確立する。この手続きが完了すると作業の支援の準備が完了する。   The user views the one-time password image displayed on the user-side display operation unit 101 through the first display lens 16 with the AR glass 10 attached. At this time, the first imaging camera 18 reads the one-time password captured in the user's field of view (S14). The result of reading by the first imaging camera 18 is transmitted from the user side data transmission / reception unit 19 of the AR glass 10 to the user side communication unit 109 of the multifunction peripheral 100. Further, the reading result is transmitted from the user-side communication unit 109 to the serviceman-side communication unit 209 of the multifunction device 200 via the network 5 (S15). The authentication unit 68 determines whether or not the read result received by the serviceman side communication unit 209 matches the one-time password issued by the authentication unit 68 (S16). If the two match (YES in S17), communication between the multifunction device 100 and the multifunction device 200 is established. When this procedure is completed, preparations for work support are completed.

一方、上記読み取り結果と、認証部68により発行された元のパスワードとを照合した結果、両者が整合しない場合(S17において、NO)は以下の様な処理が行われる。不整合の回数が所定の回数以下、例えば3回以下である場合には(S19において、NO)、複合機200の認証部68は、再度、別のワンタイムパスワードを発行する(S13)。それでもなお、上記読み取り結果とパスワードとが一致せず、不整合の回数が連続して所定の回数を超えると(S19において、YES)、複合機100と複合200の間の通信の接続は拒絶される(S20)。   On the other hand, as a result of collating the read result with the original password issued by the authentication unit 68, if the two do not match (NO in S17), the following processing is performed. If the number of inconsistencies is equal to or less than a predetermined number, for example, 3 or less (NO in S19), the authentication unit 68 of the multifunction device 200 issues another one-time password again (S13). Nevertheless, if the read result and the password do not match and the number of inconsistencies exceeds the predetermined number in succession (YES in S19), the communication connection between the MFP 100 and the MFP 200 is rejected. (S20).

このようにして、ユーザー側画像処理装置としての複合機100と、サービスマン側画像処理装置としての複合機200との間の通信が確立された状態で、作業の支援が行われる。図7は、各撮像カメラ18および28により撮像される像と、各表示レンズ16および26に表示される像の関係を示した概略図である。   In this way, work support is performed in a state where communication between the multifunction device 100 as the user-side image processing device and the multifunction device 200 as the serviceman-side image processing device is established. FIG. 7 is a schematic diagram showing the relationship between images captured by the imaging cameras 18 and 28 and images displayed on the display lenses 16 and 26.

図7を参照して、ユーザー76が装着するARグラス10には、第1撮像カメラ18が設けられている。またサービスマン86が装着するARグラス20には、第2撮像カメラ28が設けられている。ユーザー76側の第1撮像カメラ18は、装着者であるユーザー76の視野範囲内の、画像処理装置としての複合機100の像と、装着者であるユーザー76の手の像とを含む動画像(動画像150。以下、第1動画像と呼ぶ)を撮像する。またサービスマン86側の第2撮像カメラ28は、装着者であるサービスマン86の視野範囲内の、画像処理装置としての複合機200の像と、装着者であるサービスマン86の手の像とを含む動画像(動画像160。以下、第2動画像と呼ぶ)を撮像する。複合機200の制御部202内にある動画像抽出部64は、第2撮像カメラ28によって撮像された第2動画像から背景の像を除去し、サービスマン86の両手の像82および84の動画像170を抽出する。得られた抽出動画像170は、第1動画像150と合成される。得られた合成動画像180は、ARグラス10および20に送信され、ユーザー76により装着されるARグラス10の第1表示レンズ16と、サービスマン86により装着されるARグラス20の第2表示レンズ26に、それぞれ表示される。この同一の合成動画像180をユーザー76とサービスマン86の両者が視認する。この合成動画像180に加え、さらに音声によるサービスマン86とのコミュニケーションを取りながらユーザー76は作業を行う。   With reference to FIG. 7, the first imaging camera 18 is provided in the AR glass 10 worn by the user 76. A second imaging camera 28 is provided in the AR glass 20 worn by the service person 86. The first imaging camera 18 on the user 76 side includes a moving image including an image of the multifunction peripheral 100 as an image processing device and an image of a hand of the user 76 who is the wearer, within the field of view of the user 76 who is the wearer. (Moving image 150; hereinafter referred to as a first moving image) is captured. The second imaging camera 28 on the serviceman 86 side includes an image of the multifunction device 200 as an image processing device and an image of the hand of the serviceman 86 who is the wearer within the field of view of the serviceman 86 who is the wearer. A moving image (moving image 160; hereinafter referred to as a second moving image) is captured. The moving image extraction unit 64 in the control unit 202 of the multifunction device 200 removes the background image from the second moving image captured by the second imaging camera 28, and the moving images of the images 82 and 84 of both hands of the serviceman 86. An image 170 is extracted. The obtained extracted moving image 170 is combined with the first moving image 150. The obtained synthesized moving image 180 is transmitted to the AR glasses 10 and 20, and the first display lens 16 of the AR glass 10 attached by the user 76 and the second display lens of the AR glass 20 attached by the service man 86. 26, respectively. Both the user 76 and the service person 86 visually recognize the same synthesized moving image 180. In addition to the synthesized moving image 180, the user 76 performs work while communicating with the service person 86 by voice.

次に、この発明の一実施形態に係る作業支援システム1によって、ユーザー76の作業の支援が行われる際の処理を説明する。図8は、この発明の一実施形態に係る作業支援システム1によって作業の支援が行われる際の処理の流れを示すフローチャートである(S31〜S42)。   Next, processing when work support of the user 76 is performed by the work support system 1 according to an embodiment of the present invention will be described. FIG. 8 is a flowchart showing the flow of processing when work support is performed by the work support system 1 according to one embodiment of the present invention (S31 to S42).

図8を参照して、まずユーザー76は、ARグラス10を頭部に装着する。同様に、サービスマン86は、ARグラス20を頭部に装着する。このとき、ユーザー76により装着されるARグラス10は、有線または無線の通信手段により、複合機100と互いに通信可能に接続される。同様に、サービスマン86により装着されるARグラス20は、有線または無線の通信手段により、複合機200と互いに通信可能に接続される。   Referring to FIG. 8, first, user 76 wears AR glass 10 on his head. Similarly, the service man 86 wears the AR glass 20 on the head. At this time, the AR glasses 10 worn by the user 76 are connected to the multifunction peripheral 100 so as to communicate with each other by wired or wireless communication means. Similarly, the AR glasses 20 attached by the service person 86 are connected to the multifunction device 200 so as to be communicable with each other by wired or wireless communication means.

次に、ARグラス10を装着したユーザー76およびARグラス20を装着したサービスマン86が、光学透過式の第1表示レンズ16および第2表示レンズ26を通して、それぞれ、視野範囲にある複合機100または200を視認する。このとき、第1撮像カメラ18および第2撮像カメラ28は、ユーザー76またはサービスマン86の視野範囲の像を動画像としてそれぞれ撮像する(S31)。図9は、ユーザー76により装着されるARグラス10の、第1撮像カメラ18により撮像される第1動画像150の一例を模式図として示した図である。図9を参照して、第1撮像カメラ18によって撮像される第1動画像150には、ユーザー76による作業が行われる対象の、ユーザー側画像処理装置としての複合機100の像が含まれている。さらに図9の第1動画像150には、ユーザー76の左手72の像および右手74の像が含まれている。   Next, the user 76 wearing the AR glass 10 and the serviceman 86 wearing the AR glass 20 pass through the optically transmissive first display lens 16 and the second display lens 26, respectively. 200 is visually recognized. At this time, the first imaging camera 18 and the second imaging camera 28 respectively capture images of the visual field range of the user 76 or the serviceman 86 as moving images (S31). FIG. 9 is a schematic diagram illustrating an example of the first moving image 150 captured by the first imaging camera 18 of the AR glass 10 worn by the user 76. Referring to FIG. 9, the first moving image 150 captured by the first imaging camera 18 includes an image of the multi-function device 100 as a user-side image processing device on which work by the user 76 is performed. Yes. Further, the first moving image 150 in FIG. 9 includes an image of the left hand 72 and an image of the right hand 74 of the user 76.

また、図10は、サービスマン86により装着されるARグラス20の、第2撮像カメラ28により撮像される第2動画像160の一例を模式図として示した図である。図10を参照して、第2撮像カメラ28によって撮像される第2動画像160には、サービスマン側画像処理装置としての複合機200の像が含まれている。さらに図10の第1動画像160には、サービスマン86の左手82の像および右手84の像が含まれている。   FIG. 10 is a schematic diagram illustrating an example of the second moving image 160 captured by the second imaging camera 28 of the AR glass 20 worn by the service person 86. Referring to FIG. 10, the second moving image 160 captured by the second imaging camera 28 includes an image of the multifunction device 200 as a serviceman side image processing device. Further, the first moving image 160 in FIG. 10 includes an image of the left hand 82 and an image of the right hand 84 of the service man 86.

第1撮像カメラ18による撮像の際、振動検知部32は、動画像の動揺を検知する。安定化処理部33は、検知された動揺の状態に応じて、第1撮像カメラ18によって撮像された動画像150から動揺を取り除く画像安定化処理(ブレ補正)を行う。このとき、振動検知部32によって検知された振動が所定の閾値を超えると、表示制御部31は、第1表示レンズ16に警告画面を電子画像として表示する。第2撮像カメラ28においても同様の処理が行われる。   At the time of imaging by the first imaging camera 18, the vibration detection unit 32 detects the shaking of the moving image. The stabilization processing unit 33 performs image stabilization processing (blur correction) that removes the shaking from the moving image 150 captured by the first imaging camera 18 in accordance with the detected shaking state. At this time, if the vibration detected by the vibration detection unit 32 exceeds a predetermined threshold, the display control unit 31 displays a warning screen on the first display lens 16 as an electronic image. Similar processing is performed in the second imaging camera 28.

次に、ユーザー76は、支援を求める作業の内容を音声によりサービスマン86に伝える。ユーザー76が発した第1の音声は、音声入力部としての第1マイク15に入力される。また、サービスマン86は、音声によりユーザー76に指示を行う。サービスマン86が発した第2の音声は、音声入力部としての第2マイク25に入力される(S32)。第1撮像カメラ18および第2撮像カメラ28により撮像された第1動画像および第2動画像および、第1マイク15および第2マイク25に入力された第1および第2の音声は、ユーザー側データ送受信部19およびサービスマン側データ送受信部29から、それぞれ複合機200のサービスマン側通信部209に送信される(S33)。   Next, the user 76 conveys the contents of the work for which assistance is sought to the service person 86 by voice. The 1st audio | voice which the user 76 uttered is input into the 1st microphone 15 as an audio | voice input part. Further, the service person 86 gives an instruction to the user 76 by voice. The 2nd audio | voice which the service person 86 uttered is input into the 2nd microphone 25 as an audio | voice input part (S32). The first and second moving images captured by the first imaging camera 18 and the second imaging camera 28 and the first and second sounds input to the first microphone 15 and the second microphone 25 are on the user side. The data is transmitted from the data transmission / reception unit 19 and the serviceman side data transmission / reception unit 29 to the serviceman side communication unit 209 of the MFP 200, respectively (S33).

複合機200のサービスマン側通信部209は、上記動画像と音声のデータを受信する(S34)。位置合わせ部67は、第1動画像150の複合機100の像と、第2動画像160の複合機200の像を参照し、複合機100と複合機200の像が重畳されるように第1動画像150と第2動画像160の大きさや位置を合わせる(S35)。その後、動画像抽出部64は、サービスマン側通信部209によって受信された第2動画像160から、装着者であるサービスマン86の手82および84の動画像を抽出する処理を行う(S36)。このようにして、サービスマン86の両手82および84の動画像のみが抽出された抽出動画像170の図を図11に示す。このとき、位置合わせ部67により調整された第2動画像160の大きさや位置は保持されたまま、第2動画像160の背景が消去され、サービスマン86の手82および84の動画像を抽出した抽出動画像170が形成される。   The serviceman side communication unit 209 of the multifunction device 200 receives the moving image and audio data (S34). The alignment unit 67 refers to the image of the multifunction device 100 of the first moving image 150 and the image of the multifunction device 200 of the second moving image 160, so that the images of the multifunction device 100 and the multifunction device 200 are superimposed. The sizes and positions of the first moving image 150 and the second moving image 160 are matched (S35). Thereafter, the moving image extraction unit 64 performs a process of extracting moving images of the hands 82 and 84 of the serviceman 86 who is the wearer from the second moving image 160 received by the serviceman side communication unit 209 (S36). . FIG. 11 shows an extracted moving image 170 in which only moving images of both hands 82 and 84 of the serviceman 86 are extracted in this way. At this time, the background of the second moving image 160 is erased while the size and position of the second moving image 160 adjusted by the alignment unit 67 is maintained, and moving images of the hands 82 and 84 of the serviceman 86 are extracted. The extracted moving image 170 is formed.

次に動画像合成部66は、動画像抽出部64によって抽出された抽出動画像と、第1動画像150とを統合して一つの合成動画像を形成する(S37)。この第1動画像150は、上述したとおり、ユーザー76が装着するARグラス10の第1撮像カメラ18によって撮像されたものである。   Next, the moving image synthesizing unit 66 integrates the extracted moving image extracted by the moving image extracting unit 64 and the first moving image 150 to form one synthesized moving image (S37). As described above, the first moving image 150 is captured by the first imaging camera 18 of the AR glass 10 worn by the user 76.

上記抽出処理、および合成処理は、公知の画像認識技術や画像加工技術を用いて実施される。   The extraction process and the synthesis process are performed using a known image recognition technique or image processing technique.

動画像合成部66により形成された合成動画像180の一例を図12に示す。図12を参照して、合成動画像180は、図9に示す第1動画像150と、図11に示す抽出動画像170とが合成されたものである。合成動画像180には、ユーザー76の両手72および74の動画像と、サービスマン86の両手82および84の動画像と、ユーザー76側の複合機100の像が含まれている。   An example of the synthesized moving image 180 formed by the moving image synthesizing unit 66 is shown in FIG. Referring to FIG. 12, a synthesized moving image 180 is a combination of the first moving image 150 shown in FIG. 9 and the extracted moving image 170 shown in FIG. The synthesized moving image 180 includes moving images of both hands 72 and 74 of the user 76, moving images of both hands 82 and 84 of the serviceman 86, and an image of the multifunction device 100 on the user 76 side.

サービスマン側通信部209は、動画像合成部66により形成された合成動画像180と、サービスマン側通信部209がARグラス20から受信したサービスマン86の音声データとを、ネットワーク5およびユーザー側通信部109を介して、ユーザー76側のARグラス10に送信する。同様に、サービスマン側通信部209は、動画像合成部66により形成された合成動画像180と、サービスマン側通信部209がARグラス10から受信したユーザーの音声データとを、サービスマン86側のARグラス20に送信する(S38)。   The serviceman side communication unit 209 receives the synthesized moving image 180 formed by the moving image synthesis unit 66 and the voice data of the serviceman 86 received from the AR glass 20 by the serviceman side communication unit 209 from the network 5 and the user side. The data is transmitted to the AR glass 10 on the user 76 side via the communication unit 109. Similarly, the serviceman side communication unit 209 displays the synthesized moving image 180 formed by the moving image synthesis unit 66 and the user's voice data received from the AR glass 10 by the serviceman side communication unit 209 on the serviceman 86 side. To the AR glass 20 (S38).

ARグラス10のユーザー側データ送受信部19は、サービスマン側通信部209により送信された合成動画像180と、サービスマン86が発した第2の音声のデータとを受信する。同様に、ARグラス20のサービスマン側データ送受信部29は、サービスマン側通信部209により送信された合成動画像180と、ユーザー76が発した第1の音声のデータとを受信する(S39)。表示制御部31と41とは、サービスマン側通信部209から送信され、端末データ送受信部としてのユーザー側データ送受信部19およびサービスマン側データ送受信部29により受信された合成動画像180を、表示部としての第1表示レンズ16および第2表示レンズ26に表示するよう制御する(S40)。第1表示レンズ16には、ユーザー76の視野の画像にサービスマン86の両手82および84が重畳するように電子画像が表示される。したがって、ユーザー76がARグラス10の第1表示レンズ16に表示された合成動画像180を視認すると、サービスマン86の両手82および84が目の前に存在しているかのように視認することができる。またサービスマン86は、ARグラス20の第2表示レンズ26に表示された合成動画像180を視認することにより、ユーザー76の作業の現状を認知できる。サービスマン86は、ユーザー76による複合機100のメンテンナンス作業の現状を見ながら、実際に手を動かして指示を行う。ユーザー76は、その合成動画像180に含まれるサービスマン86の手82および84の動きを含む動画像による支援を受けながら、作業を進めることができる。   The user-side data transmission / reception unit 19 of the AR glass 10 receives the synthesized moving image 180 transmitted by the serviceman-side communication unit 209 and the second audio data generated by the serviceman 86. Similarly, the serviceman side data transmission / reception unit 29 of the AR glass 20 receives the synthesized moving image 180 transmitted by the serviceman side communication unit 209 and the data of the first voice uttered by the user 76 (S39). . The display control units 31 and 41 display the composite moving image 180 transmitted from the serviceman side communication unit 209 and received by the user side data transmission / reception unit 19 and the serviceman side data transmission / reception unit 29 as the terminal data transmission / reception unit. The display is controlled so as to be displayed on the first display lens 16 and the second display lens 26 as a unit (S40). An electronic image is displayed on the first display lens 16 such that both hands 82 and 84 of the serviceman 86 are superimposed on the image of the visual field of the user 76. Therefore, when the user 76 visually recognizes the synthesized moving image 180 displayed on the first display lens 16 of the AR glass 10, it can be visually recognized as if both hands 82 and 84 of the serviceman 86 exist in front of the eyes. it can. In addition, the service person 86 can recognize the current state of the work of the user 76 by visually recognizing the synthesized moving image 180 displayed on the second display lens 26 of the AR glass 20. The service person 86 gives instructions by actually moving his / her hand while viewing the current state of maintenance work of the multifunction peripheral 100 by the user 76. The user 76 can proceed with work while receiving support by a moving image including the movements of the hands 82 and 84 of the service person 86 included in the synthesized moving image 180.

また、ユーザー76が発した第1の音声の情報は、サービスマン86が装着するARグラス20の、音声出力部としての第2スピーカ27から出力される。また、サービスマン86が発した第2の音声の情報は、ユーザー76が装着するARグラス10の、音声出力部としての第1スピーカ17から出力される(S41)。そのため、サービスマン86は、手による指示と共に、音声による指示を行いながら作業を支援することもできる。例えば、サービスマン86は、合成動画像180を視認し、実際に手を動かしながら、「左手で『このレバー』を左に回しながら、右手で『このレバー』を上に上げてください。」という指示を行う。ARグラス20の第2マイク25は、この、「左手で『このレバー』を左に回しながら、右手で『このレバー』を上に上げてください。」という音声情報の入力を受け付ける。第2マイク25により受け付けられたサービスマン86の第2の音声のデータは、ARグラス10に送信され、音声出力部としての第1スピーカ17から出力される。ユーザー76は、第1スピーカ17から出力される、サービスマン86の第2の音声による支援を受けながら、作業を進めることができる。   In addition, the information of the first voice uttered by the user 76 is output from the second speaker 27 as the voice output unit of the AR glass 20 worn by the service person 86. In addition, the information of the second sound emitted by the service person 86 is output from the first speaker 17 as the sound output unit of the AR glass 10 worn by the user 76 (S41). Therefore, the service person 86 can also assist the work while giving an instruction by voice together with an instruction by hand. For example, the serviceman 86 visually recognizes the synthesized moving image 180 and moves his / her hand while saying “Please raise this lever” with your right hand while turning “this lever” to the left with your left hand ”. Give instructions. The second microphone 25 of the AR glass 20 accepts the input of the voice information “Turn this lever” to the left with the left hand and raise this lever with the right hand. ” The second audio data of the serviceman 86 received by the second microphone 25 is transmitted to the AR glass 10 and output from the first speaker 17 as an audio output unit. The user 76 can proceed with work while receiving support by the second voice of the service person 86 output from the first speaker 17.

また、ユーザー76が、サービスマン86からの第2の音声による指示に対し返答すると、ユーザー76が発した音声は、第1マイク15に入力される。第1マイク15により入力が受け付けられた第1の音声のデータは、ARグラス20に送信され、音声出力部としての第2スピーカ27から出力される。サービスマン86は、第2スピーカ27から出力される、ユーザー76の第1の音声を聞き取ることにより、ユーザー76の理解度を確かめながら作業の支援を行うことができる。   When the user 76 responds to the instruction by the second voice from the service person 86, the voice uttered by the user 76 is input to the first microphone 15. The data of the first sound whose input is accepted by the first microphone 15 is transmitted to the AR glass 20 and is output from the second speaker 27 as the sound output unit. The service person 86 can assist the work while checking the degree of understanding of the user 76 by listening to the first voice of the user 76 output from the second speaker 27.

このS31〜41を含むサイクルを、ユーザー76による作業が完了するまで繰り返す(S42)。   The cycle including S31 to 41 is repeated until the work by the user 76 is completed (S42).

以上がこの発明の一実施形態に係る作業支援システム1により、実際にユーザー76がサービスマン86の支援を受けながら作業を行う場合の流れである。このように、この発明に係る作業支援システム1によると、第2表示レンズ26に表示された合成動画像180をユーザー76が視認すると、複合機100の存在する作業現場において、サービスマン86と協働で作業を行っているようにして作業の支援を受けることができる。また第1スピーカ17からは、サービスマン86が発した第2の音声による支援情報が出力される。そのため作業が行われる複合機100から地理的に離れた位置にいるサービスマン86が、あたかもユーザー76と共に作業を行っているような状態で作業を行うことができる。またユーザー76にとって視覚的に作業の流れがわかりやすく、作業効率の向上が期待できる。   The above is a flow in the case where the user 76 actually performs work while receiving support from the service person 86 by the work support system 1 according to the embodiment of the present invention. As described above, according to the work support system 1 according to the present invention, when the user 76 visually recognizes the synthesized moving image 180 displayed on the second display lens 26, the service person 86 cooperates with the service person 86 at the work site where the multifunction peripheral 100 exists. You can receive work support as if you were working. Further, the first speaker 17 outputs support information based on the second voice emitted by the service person 86. For this reason, the service person 86 located geographically away from the multifunction peripheral 100 on which the work is performed can perform the work as if it is working with the user 76. Further, it is easy for the user 76 to visually understand the work flow, and improvement in work efficiency can be expected.

このようにして一連の作業が完了すると、最後に作業完了の手続きを行う。図13は、この発明の一実施形態に係る作業支援システム1による作業の支援が完了した後の、作業完了の処理の流れを示すフローチャートである(S51〜S62)。   When a series of work is completed in this way, the work completion procedure is finally performed. FIG. 13 is a flowchart showing a flow of work completion processing after work support by the work support system 1 according to one embodiment of the present invention is completed (S51 to S62).

まずサービスマン86は、作業が完了したことを確認し、複合機200の表示操作部201のキーを操作することにより支援の終了の要求を入力する。ユーザー側表示操作部101に支援の終了の要求が入力されると、支援終了要求受け付け部69は、その入力を受け付ける(S51)。支援終了要求受け付け部69によりその要求の入力が受け付けられると、認証部68は、支援を終了するための支援終了用認証情報として、テストパターンを発行する。そのテストパターンは、サービスマン側通信部209から、ネットワーク5を介して、ユーザー76側の複合機100のユーザー側通信部109に送信される(S52)。   First, the service person 86 confirms that the work has been completed, and inputs a request to end support by operating the keys of the display operation unit 201 of the multifunction device 200. When a support end request is input to the user-side display operation unit 101, the support end request receiving unit 69 receives the input (S51). When the input of the request is received by the support end request receiving unit 69, the authentication unit 68 issues a test pattern as support end authentication information for ending support. The test pattern is transmitted from the serviceman side communication unit 209 to the user side communication unit 109 of the MFP 100 on the user 76 side via the network 5 (S52).

ユーザー側通信部109によりテストパターンの情報が受信されると、ユーザー側画像形成部105は、テストパターンの画像を用紙上に形成する(S53)。ユーザー76により装着されるARグラス10の第1撮像カメラ18は、ユーザー側画像形成部105により用紙上に形成されたテストパターンの画像を撮像し、そのテストパターンに含まれる情報を読み取る(S54)。   When the test pattern information is received by the user side communication unit 109, the user side image forming unit 105 forms an image of the test pattern on the sheet (S53). The first imaging camera 18 of the AR glass 10 mounted by the user 76 captures an image of the test pattern formed on the paper by the user-side image forming unit 105 and reads information included in the test pattern (S54). .

ARグラス10の第1撮像カメラ18により読み取られた結果は、ARグラス10のユーザー側データ送受信部19から、複合機100のユーザー側通信部109およびネットワーク5を介して、複合機200のサービスマン側通信部209に送信される(S55)。サービスマン側通信部209により読み取り結果が受信されると(S56)、認証部68は、認証部68から発行された元のテストパターンと、ユーザー76側のARグラス10の第1撮像カメラ18により読み取られた読み取り結果とを照合する(S57)。   The result read by the first imaging camera 18 of the AR glass 10 is sent from the user-side data transmitting / receiving unit 19 of the AR glass 10 to the service person of the multifunction device 200 via the user-side communication unit 109 and the network 5 of the multifunction device 100. It is transmitted to the side communication unit 209 (S55). When the read result is received by the serviceman side communication unit 209 (S56), the authentication unit 68 uses the original test pattern issued from the authentication unit 68 and the first imaging camera 18 of the AR glass 10 on the user 76 side. The read result is collated (S57).

認証部68による照合の結果、認証部68から発行されたテストパターンと、ユーザー76側のARグラス10の第1撮像カメラ18により読み取られた読み取り結果が整合すると判断されると(S58において、YES)、支援を完了する(S59)。支援が完了すると、ユーザー76側の複合機100に向けて、複合機200のサービスマン側通信部209から、ネットワーク5を介して支援が完了した旨の通知を送信する。複合機100のユーザー側通信部109は、その通知を受信する(S60)。ユーザー側通信部109により支援が完了した旨の通知が受け取られると、複合機100の第三の制御部102内の作業ログ作成部56は、作業ログを作成する(S61)。その作業ログは、複合機200のHDD204に保存される。その後、複合機100と複合機200の間の通信が終了される(S62)。このようにして一連の支援が終了する。   As a result of verification by the authentication unit 68, if it is determined that the test pattern issued from the authentication unit 68 matches the reading result read by the first imaging camera 18 of the AR glass 10 on the user 76 side (YES in S58). ), The support is completed (S59). When the support is completed, a notification indicating that the support is completed is transmitted from the serviceman side communication unit 209 of the multifunction device 200 to the multifunction device 100 on the user 76 side via the network 5. The user side communication unit 109 of the MFP 100 receives the notification (S60). When the notification that the support is completed is received by the user-side communication unit 109, the work log creation unit 56 in the third control unit 102 of the multifunction peripheral 100 creates a work log (S61). The work log is stored in the HDD 204 of the multifunction device 200. Thereafter, the communication between the multifunction device 100 and the multifunction device 200 is terminated (S62). In this way, a series of support ends.

以上が一連の流れである。なお、ユーザーが行う作業はメンテナンス作業に限られない。例えば、画像処理装置の設定や、通常の操作など、専門的な知識を有するサービスマンからの支援が必要な、画像処理装置に対するあらゆる作業にこの発明の作業支援システムは適用することができる。   The above is a series of flows. The work performed by the user is not limited to the maintenance work. For example, the work support system of the present invention can be applied to any work for an image processing apparatus that requires support from a service person having specialized knowledge, such as setting of an image processing apparatus or normal operation.

またサービスマン側画像処理装置としての複合機200に、マニュアル文書や、作業手順を示した画像などの作業支援情報が格納されている場合には、合成動画像180に重畳するように、ユーザー76が装着するARグラス10の第1表示レンズ16に表示させることも可能である。作業支援情報格納部としてのハードディスク204に格納されている作業支援情報は、サービスマン側通信部209から、ネットワーク5およびユーザー側通信部109を介して、ユーザー側データ送受信部19に送信される。ARグラス10の表示制御部31は、その作業支援情報を、静止画像または動画像として、ARグラス10の第1表示レンズ16に表示するよう制御する。作業者は、動画像、音声による指示、および作業支援情報をそれぞれ参考することにより、作業を円滑に行うことができる。   When work support information such as a manual document or an image showing a work procedure is stored in the multifunction machine 200 as the service person side image processing apparatus, the user 76 is superimposed on the synthesized moving image 180. It is also possible to display on the first display lens 16 of the AR glass 10 to be mounted. The work support information stored in the hard disk 204 as the work support information storage unit is transmitted from the service person side communication unit 209 to the user side data transmission / reception unit 19 via the network 5 and the user side communication unit 109. The display control unit 31 of the AR glass 10 controls the work support information to be displayed on the first display lens 16 of the AR glass 10 as a still image or a moving image. The worker can perform the work smoothly by referring to the moving image, the voice instruction, and the work support information.

上記実施形態において説明したマイクおよびスピーカは必須ではなく、省略が可能である。すなわち、支援は動画像のみを利用して行われてもよい。   The microphone and speaker described in the above embodiment are not essential and can be omitted. That is, the support may be performed using only moving images.

上記実施形態においては、ユーザー側画像処理装置である複合機100がサービスマン側画像処理装置である複合機200と同一の構造を有する同一の機種の場合について説明したが、ユーザー側画像処理装置とサービスマン側画像処理装置は同一の機種である必要はない。サービスマン側の画像処理装置の画像は、動画像抽出部64による動画像の抽出の際に消去されるので、サービスマン側画像処理装置とユーザー側画像処理装置とは同一の機種である必要はない。またこの場合、位置合わせ部67も省略することができる。   In the above embodiment, the case has been described in which the MFP 100 that is the user-side image processing apparatus is the same model having the same structure as the MFP 200 that is the serviceman-side image processing apparatus. The serviceman side image processing apparatus need not be the same model. Since the image of the serviceman side image processing apparatus is deleted when the moving image extraction unit 64 extracts the moving image, the serviceman side image processing apparatus and the user side image processing apparatus need to be the same model. Absent. In this case, the alignment unit 67 can also be omitted.

またユーザー側画像処理装置およびサービスマン側画像処理装置は、それぞれ画像形成部105、205を有していなくてもよい。またサービスマン側画像処理装置は、ハードディスク204を有していなくてもよい。   The user-side image processing apparatus and the serviceman-side image processing apparatus may not include the image forming units 105 and 205, respectively. The serviceman-side image processing apparatus may not have the hard disk 204.

上記実施形態においては、第1撮像カメラ18がユーザー76の両手72,74の動画像を、第2撮像カメラ28がサービスマン86の両手82,84の動画像を撮像する例を示している。しかしながら、第1撮像カメラ18および第2撮像カメラ28により撮像されるユーザー76またはサービスマン86の手は片手のみであっても構わない。   In the above embodiment, an example is shown in which the first imaging camera 18 captures moving images of both hands 72 and 74 of the user 76, and the second imaging camera 28 captures moving images of both hands 82 and 84 of the serviceman 86. However, the user 76 or the serviceman 86 captured by the first imaging camera 18 and the second imaging camera 28 may have only one hand.

上記実施形態においては、ユーザー側表示端末およびサービスマン側表示端末がARグラスである場合について説明したが、頭部装着型表示端末であるこれらの表示端末は、ARグラスのみに限定されない。この発明において使用できる他の頭部装着型端末の例としては、片眼型端末や、メガネ型ウェアラブル端末、ゴーグル型端末、ヘルメット型端末などが挙げられる。但し、装着のし易さや装着時の安定性、視認性の高さなどから片眼型端末やメガネ型ウェアラブル端末、ARグラスが好ましい。頭部装着型端末の装着部は、ユーザーの頭部に装着可能にする部材からなり、その構造は限定されないが、装着部の例としては、メガネのフレーム、ヘルメット、バンド、ゴーグル、片耳を利用して観察者の頭部に装着されるフレーム、またはそれらの類似構造物の、ユーザーが頭部に装着するために必要な構造を有する部材が挙げられる。また装着部の構成材料については適宜選択可能である。   In the said embodiment, although the case where a user side display terminal and a service person side display terminal were AR glasses was demonstrated, these display terminals which are head mounted display terminals are not limited only to AR glass. Examples of other head-mounted terminals that can be used in the present invention include one-eye terminals, glasses-type wearable terminals, goggles-type terminals, and helmet-type terminals. However, a single-eye terminal, a glasses-type wearable terminal, and AR glass are preferable in terms of ease of mounting, stability during mounting, and high visibility. The mounting part of the head-mounted terminal consists of a member that can be mounted on the user's head, and its structure is not limited, but examples of the mounting part include glasses frames, helmets, bands, goggles, and one ear Thus, a member having a structure necessary for the user to attach to the head, such as a frame attached to the observer's head, or a similar structure thereof, can be used. The constituent material of the mounting portion can be selected as appropriate.

ユーザー側表示端末およびサービスマン側表示端末は、ブレ防止機能を有していなくてもよい。すなわち、振動検知部32および42、ならびに安定化処理部33および43を設けるか否かは任意に選択できる。   The user-side display terminal and the serviceman-side display terminal do not have to have a shake prevention function. That is, whether or not to provide the vibration detection units 32 and 42 and the stabilization processing units 33 and 43 can be arbitrarily selected.

ユーザー側複合機100の制御部102内の、支援要請受け付け部52、および作業ログ作成部56は必須ではなく、省略が可能である。   The support request receiving unit 52 and the work log creating unit 56 in the control unit 102 of the user side multifunction device 100 are not essential and can be omitted.

サービスマン側複合機200の制御部202内の、位置合わせ部67、認証部68、および支援終了要求受け付け部69についても、省略が可能である。   The positioning unit 67, the authentication unit 68, and the support end request receiving unit 69 in the control unit 202 of the service person-side multifunction device 200 can also be omitted.

今回開示された実施の形態および実施例はすべての点で例示であって、どのような面からも制限的なものではないと理解されるべきである。本発明の範囲は上記した説明ではなく、特許請求の範囲によって規定され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiments and examples disclosed herein are illustrative in all respects and are not restrictive in any respect. The scope of the present invention is defined by the scope of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the scope of the claims.

この発明にかかる作業支援システムは、機器のメンテナンス時におけるユーザーへの指示や、不慣れな者には操作方法がわかりにくい機器の操作の支援など、様々な作業の支援を行うために利用することができる。   The work support system according to the present invention can be used to support various operations such as instructions to the user at the time of equipment maintenance, and support for operation of equipment that is difficult for an inexperienced person to understand the operation method. it can.

1 作業支援システム、5 ネットワーク、10 ARグラス、12 ユーザーARグラス制御部、14 第1メモリ、15 第1マイク、16 第1表示レンズ、17 第1スピーカ、18 第1撮像カメラ、19 第1通信部、20 ARグラス、22 サービスマンARグラス制御部、24 第2メモリ、25 第2マイク、26 第2表示レンズ、27 第2スピーカ、28 第2撮像カメラ、29 サービスマン側データ送受信部、31 表示制御部、32 振動検知部、33 安定化処理部、41 表示制御部、42 振動検知部、43 安定化処理部、52 支援要請受け付け部、56 作業ログ作成部、62 データ取得部、64 動画像抽出部、66 動画像合成部、67 位置合わせ部、68 認証部、69 支援終了要求受け付け部、72 ユーザーの左手、74 ユーザーの右手、76 ユーザー、82 サービスマンの左手、84 サービスマンの右手、86 サービスマン、100 ユーザー側複合機、101 ユーザー側表示操作部、102 ユーザー側複合機制御部、105 ユーザー側画像形成部、109 ユーザー側通信部、150 第1動画像、160 第2動画像、170 抽出動画像、180 合成動画像、200 サービスマン側複合機、201 サービスマン側表示操作部、202 サービスマン側複合機制御部、204 ハードディスク、205 サービスマン側画像形成部、209 サービスマン側通信部。
DESCRIPTION OF SYMBOLS 1 Work support system, 5 network, 10 AR glass, 12 user AR glass control part, 14 1st memory, 15 1st microphone, 16 1st display lens, 17 1st speaker, 18 1st imaging camera, 19 1st communication Unit, 20 AR glass, 22 serviceman AR glass control unit, 24 second memory, 25 second microphone, 26 second display lens, 27 second speaker, 28 second imaging camera, 29 serviceman side data transmission / reception unit, 31 Display control unit, 32 Vibration detection unit, 33 Stabilization processing unit, 41 Display control unit, 42 Vibration detection unit, 43 Stabilization processing unit, 52 Support request reception unit, 56 Work log creation unit, 62 Data acquisition unit, 64 Movie Image extraction unit, 66 moving image composition unit, 67 alignment unit, 68 authentication unit, 69 support end request reception unit, 72 user's left hand, 74 user User's right hand, 76 users, 82 Serviceman's left hand, 84 Serviceman's right hand, 86 Serviceman, 100 User side multifunction device, 101 User side display operation unit, 102 User side multifunction device control unit, 105 User side image forming unit 109 user side communication unit, 150 first moving image, 160 second moving image, 170 extracted moving image, 180 synthesized moving image, 200 serviceman side multifunction device, 201 serviceman side display operation unit, 202 serviceman side multifunction device Control unit, 204 hard disk, 205 serviceman side image forming unit, 209 serviceman side communication unit.

Claims (12)

遠隔地に居るサービスマンからユーザーに対し指示を行うことにより、前記ユーザーの作業を支援する作業支援システムであって、
頭部装着型の端末であって、前記ユーザーに装着されるユーザー側表示端末と、
頭部装着型の端末であって、前記サービスマンに装着されるサービスマン側表示端末と、
前記ユーザー側表示端末と通信可能なユーザー側画像処理装置と、
前記サービスマン側表示端末と通信可能なサービスマン側画像処理装置と、
を備え、
前記ユーザー側画像処理装置と、前記サービスマン側画像処理装置とは通信可能に接続され、
前記ユーザー側表示端末および前記サービスマン側表示端末は、それぞれ、
前記ユーザーまたは前記サービスマンである装着者に装着可能な形状を有する装着部と、
前記装着者の視野範囲内の画像処理装置の像と前記装着者の手の像とを含む動画像を撮像する撮像部と、
前記ユーザー側画像処理装置または前記サービスマン側画像処理装置のうち、通信可能な画像処理装置との間でデータを送受信する端末データ送受信部と、
前記装着部に設置され、前記装着者に視認可能な電子画像を表示すると共に、画像処理装置の前記像を光学的に透過しうる光学透過式のレンズを有する表示部と、
前記端末データ送受信部により受信されたデータに基づいて、前記表示部に前記電子画像が表示されるよう制御する表示制御部と、を備え、
前記ユーザー側画像処理装置は、
前記ユーザー側表示端末および前記サービスマン側画像処理装置と通信可能なユーザー側通信部を備え、
前記サービスマン側画像処理装置は、
前記サービスマン側表示端末および前記ユーザー側画像処理装置と通信可能なサービスマン側通信部と、
前記サービスマン側通信部を通じて、前記ユーザー側表示端末の前記撮像部により撮像されたユーザー側動画像と、前記サービスマン側表示端末の前記撮像部により撮像されたサービスマン側動画像とを取得するデータ取得部と、
前記データ取得部により受信された前記サービスマン側動画像から、前記装着者である前記サービスマンの前記手の動画像を抽出する動画像抽出部と、
前記動画像抽出部により抽出された、前記サービスマンの前記手の動画像を含む抽出動画像と、前記ユーザー側動画像とを統合し、合成動画像を形成する動画像合成部と、
を備え、
前記サービスマン側通信部は、前記動画像合成部により形成された合成動画像を、前記ユーザー側表示端末及び前記サービスマン側表示端末に送信し、
前記表示制御部は、前記サービスマン側通信部から送信され、前記端末データ送受信部により受信された前記合成動画像を、前記表示部に表示するよう制御する、
作業支援システム。
A work support system that supports the user's work by instructing the user from a service person in a remote location,
A head-mounted terminal, which is a user-side display terminal worn by the user;
A head-mounted terminal, a serviceman-side display terminal worn by the serviceman;
A user-side image processing apparatus capable of communicating with the user-side display terminal;
A serviceman image processing apparatus capable of communicating with the serviceman display terminal;
With
The user-side image processing device and the serviceman-side image processing device are communicably connected,
The user side display terminal and the serviceman side display terminal are respectively
A wearing portion having a shape that can be worn by the wearer who is the user or the serviceman;
An imaging unit that captures a moving image including an image of the image processing apparatus within the field of view of the wearer and an image of the hand of the wearer;
A terminal data transmission / reception unit that transmits / receives data to / from a communicable image processing device among the user side image processing device or the serviceman side image processing device;
A display unit that is installed in the mounting unit and displays an electronic image that is visible to the wearer, and has an optically transmissive lens that can optically transmit the image of the image processing apparatus;
A display control unit configured to control the electronic image to be displayed on the display unit based on data received by the terminal data transmission / reception unit;
The user-side image processing device includes:
A user side communication unit capable of communicating with the user side display terminal and the serviceman side image processing device;
The serviceman-side image processing apparatus includes:
A serviceman-side communication unit capable of communicating with the serviceman-side display terminal and the user-side image processing device;
A user side moving image captured by the imaging unit of the user side display terminal and a serviceman side moving image captured by the imaging unit of the serviceman side display terminal are acquired through the serviceman side communication unit. A data acquisition unit;
A moving image extraction unit that extracts the moving image of the hand of the serviceman who is the wearer from the moving image of the serviceman received by the data acquisition unit;
A moving image synthesizing unit that combines the extracted moving image including the moving image of the hand of the serviceman extracted by the moving image extracting unit and the user side moving image to form a synthesized moving image;
With
The serviceman side communication unit transmits the synthesized moving image formed by the moving image synthesis unit to the user side display terminal and the serviceman side display terminal,
The display control unit controls the display of the synthesized moving image transmitted from the serviceman side communication unit and received by the terminal data transmission / reception unit on the display unit,
Work support system.
サービスマン側画像処理装置は、前記データ取得部により取得された前記ユーザー側動画像と前記サービスマン側動画像のうち、前記ユーザー側動画像に含まれる画像処理装置の前記像と、前記サービスマン側動画像に含まれる画像処理装置の前記像との位置を合わせる位置合わせ部をさらに備える、請求項1に記載の作業支援システム。 The serviceman-side image processing device includes the image of the image processing device included in the user-side moving image among the user-side moving image and the serviceman-side moving image acquired by the data acquisition unit, and the serviceman The work support system according to claim 1, further comprising an alignment unit that aligns a position with the image of the image processing device included in the side moving image. 前記ユーザー側画像処理装置と前記サービスマン側画像処理装置は、同一の構造を備えた同一の機種である、請求項1または2に記載の作業支援システム。 The work support system according to claim 1 or 2, wherein the user-side image processing apparatus and the serviceman-side image processing apparatus are the same model having the same structure. 前記サービスマン側表示端末および前記ユーザー側表示端末は、それぞれ、
音声情報の入力を受け付ける音声入力部と、
前記サービスマン側表示端末および前記ユーザー側表示端末のうち、他方の前記音声入力部から入力された音声情報を出力する音声出力部と、をさらに備える、請求項1〜3のいずれか1項に記載の作業支援システム。
The serviceman side display terminal and the user side display terminal are respectively
A voice input unit for receiving voice information;
The voice output part which outputs the audio | voice information input from the other said audio | voice input part among the said serviceman side display terminals and the said user side display terminals is further provided in any one of Claims 1-3. The work support system described.
前記サービスマン側画像処理装置は、前記ユーザーの作業を支援する作業支援情報を格納する作業支援情報格納部をさらに備え、
前記作業支援情報格納部に格納された前記作業支援情報は、静止画像または動画像として、前記ユーザー側表示端末の前記表示部に表示される、請求項1〜4に記載の作業支援システム。
The serviceman-side image processing apparatus further includes a work support information storage unit that stores work support information that supports the work of the user,
The work support system according to claim 1, wherein the work support information stored in the work support information storage unit is displayed on the display unit of the user side display terminal as a still image or a moving image.
前記ユーザー側表示端末および前記サービスマン側表示端末は、それぞれ、
前記撮像部の振動を検知する振動検知部と、
前記振動検知部により検知された振動の状態に応じて、前記撮像部によって撮像された前記動画像から動揺を取り除く安定化処理を行う安定化処理部と、をさらに備える、請求項1〜5のいずれか1項に記載の作業支援システム。
The user side display terminal and the serviceman side display terminal are respectively
A vibration detection unit that detects vibration of the imaging unit;
The stabilization process part of performing further the stabilization process which removes a shake from the said moving image imaged by the said imaging part according to the state of the vibration detected by the said vibration detection part, The further provided of Claims 1-5 The work support system according to any one of claims.
前記振動検知部によって検知された振動が所定の閾値を超えると、前記表示制御部は、前記表示制御部に対応する前記表示部に警告画面を電子画像として表示するよう制御する、請求項6に記載の作業支援システム。 The display control unit controls to display a warning screen as an electronic image on the display unit corresponding to the display control unit when the vibration detected by the vibration detection unit exceeds a predetermined threshold. The work support system described. 前記ユーザー側画像処理装置は、支援を要請するための支援要請の入力を受け付ける支援要請受け付け部をさらに備える、請求項1〜7のいずれか1項に記載の作業支援システム。 The work support system according to claim 1, further comprising a support request receiving unit that receives an input of a support request for requesting support. 前記サービスマン側画像処理装置は、前記支援要請受け付け部により前記支援要請の入力が受け付けられると、前記ユーザー側画像処理装置に対し認証用情報を発行する認証部をさらに備え、
前記ユーザー側画像処理装置は、前記認証部により発行された前記認証用情報を表示する表示操作部をさらに備え、
前記表示操作部に表示された前記認証用情報は、前記ユーザー側表示端末の前記撮像部により読み取られ、
前記認証部は、前記ユーザー側表示端末の前記撮像部により読み取られた読み取り結果と、前記認証部により発行された前記認証用情報とが整合するか否かを判断し、両者が整合する場合には、前記ユーザー側画像処理装置と前記サービスマン側画像処理装置との間での通信を確立する、請求項8に記載の作業支援システム。
The serviceman-side image processing device further includes an authentication unit that issues authentication information to the user-side image processing device when an input of the support request is received by the support request receiving unit,
The user-side image processing apparatus further includes a display operation unit that displays the authentication information issued by the authentication unit,
The authentication information displayed on the display operation unit is read by the imaging unit of the user side display terminal,
The authentication unit determines whether or not the reading result read by the imaging unit of the user-side display terminal matches the authentication information issued by the authentication unit, and if both match The work support system according to claim 8, wherein communication is established between the user-side image processing apparatus and the serviceman-side image processing apparatus.
前記サービスマン側画像処理装置は、支援の終了の要求の入力を受け付ける支援終了要求受け付け部をさらに備え、
前記支援終了要求受け付け部により前記支援の終了の要求の入力が受け付けられると、前記認証部は、前記支援を終了するための支援終了用認証情報を発行する、請求項1〜9のいずれか1項に記載の作業支援システム。
The serviceman-side image processing apparatus further includes a support end request receiving unit that receives an input of a support end request,
10. The support ending authentication information is issued by the authentication unit for ending the support when an input of the support end request is received by the support end request receiving unit. The work support system according to item.
前記ユーザー側画像処理装置は、用紙上に画像を形成する画像形成部をさらに備え、
前記画像形成部は、前記認証部により発行された前記支援終了用認証情報を示す画像を用紙上に形成し、
前記画像形成部により用紙上に形成された、前記支援終了用認証情報を示す画像は、前記ユーザー側表示端末の前記撮像部により読み取られ、
前記認証部は、前記ユーザー側表示端末の前記撮像部による読み取り結果と、前記認証部により発行された前記支援終了用認証情報とを照合し、照合の結果、両者が整合する場合には、前記ユーザー側画像処理装置と前記サービスマン側画像処理装置との間の通信を停止する、請求項10に記載の作業支援システム。
The user-side image processing apparatus further includes an image forming unit that forms an image on paper,
The image forming unit forms an image on the paper indicating the authentication information for end of support issued by the authentication unit;
The image indicating the authentication information for support termination formed on the paper by the image forming unit is read by the imaging unit of the user side display terminal,
The authentication unit collates a reading result by the imaging unit of the user side display terminal with the support end authentication information issued by the authentication unit. The work support system according to claim 10, wherein communication between a user-side image processing apparatus and the serviceman-side image processing apparatus is stopped.
前記ユーザー側画像処理装置は、前記作業の内容を示す作業ログを作成する作業ログ作成部をさらに備える、請求項1〜11に記載の作業支援システム。 The work support system according to claim 1, wherein the user-side image processing apparatus further includes a work log creation unit that creates a work log indicating the content of the work.
JP2016091723A 2016-04-28 2016-04-28 Work support system Expired - Fee Related JP6493296B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016091723A JP6493296B2 (en) 2016-04-28 2016-04-28 Work support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016091723A JP6493296B2 (en) 2016-04-28 2016-04-28 Work support system

Publications (2)

Publication Number Publication Date
JP2017200144A true JP2017200144A (en) 2017-11-02
JP6493296B2 JP6493296B2 (en) 2019-04-03

Family

ID=60239653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016091723A Expired - Fee Related JP6493296B2 (en) 2016-04-28 2016-04-28 Work support system

Country Status (1)

Country Link
JP (1) JP6493296B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132487A (en) * 2000-10-25 2002-05-10 Oki Electric Ind Co Ltd Remote operation supporting system
JP2004206363A (en) * 2002-12-25 2004-07-22 Nec Fielding Ltd Teleworking system, teleworking method and program for teleworking system
JP2010050645A (en) * 2008-08-20 2010-03-04 Olympus Corp Image processor, image processing method, and image processing program
JP2012008704A (en) * 2010-06-23 2012-01-12 Toshiba Tec Corp Information processor, program, and call system
JP2014011624A (en) * 2012-06-29 2014-01-20 Nikon Corp Information input/output device and head-mounted display device
JP2014093036A (en) * 2012-11-06 2014-05-19 Konica Minolta Inc Guide information display device
JP2014206880A (en) * 2013-04-12 2014-10-30 Tis株式会社 Operation assist device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132487A (en) * 2000-10-25 2002-05-10 Oki Electric Ind Co Ltd Remote operation supporting system
JP2004206363A (en) * 2002-12-25 2004-07-22 Nec Fielding Ltd Teleworking system, teleworking method and program for teleworking system
JP2010050645A (en) * 2008-08-20 2010-03-04 Olympus Corp Image processor, image processing method, and image processing program
JP2012008704A (en) * 2010-06-23 2012-01-12 Toshiba Tec Corp Information processor, program, and call system
JP2014011624A (en) * 2012-06-29 2014-01-20 Nikon Corp Information input/output device and head-mounted display device
JP2014093036A (en) * 2012-11-06 2014-05-19 Konica Minolta Inc Guide information display device
JP2014206880A (en) * 2013-04-12 2014-10-30 Tis株式会社 Operation assist device

Also Published As

Publication number Publication date
JP6493296B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
US10579320B2 (en) Display system, display device, information display method, and program
US10142618B2 (en) Imaging apparatus and imaging method
JP6693060B2 (en) Display system, display device, display device control method, and program
CN111225157B (en) Focus tracking method and related equipment
CN108632543B (en) Image display method, image display device, storage medium and electronic equipment
JP2020509522A (en) Multimedia acquisition, registration and management system and method
JP7086552B2 (en) Information processing equipment, imaging equipment, information processing methods and programs
JP2018036812A (en) System and method for remotely supporting it operation work
JP2015149552A (en) Wearable electronic apparatus
JP2009089324A (en) Video conference system and program, and recoding medium
TWI439134B (en) 3d digital image monitor system and method
CN111246224A (en) Video live broadcast method and video live broadcast system
WO2016095422A1 (en) Glasses, display terminal and image display processing system and method
WO2020138258A1 (en) Information processing device, information processing method, and information processing program
JP2017182487A (en) System, information processing device, head-mounted device, and method
CN111163280B (en) Asymmetric video conference system and method thereof
US7986336B2 (en) Image capture apparatus with indicator
JP2005117285A (en) Information input device, communication terminal and communication method
JP5972462B2 (en) Image generation method
JP6493296B2 (en) Work support system
JP2017062650A (en) Display system, display unit, information display method, and program
JP2005303683A (en) Image transceiver
JP6733401B2 (en) Display system, display device, information display method, and program
JP2011041133A (en) Photographing device and photographing method
TWM569008U (en) Eye position calibrating system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6493296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees