WO2015173882A1 - コンテンツ生成方法および管理装置 - Google Patents

コンテンツ生成方法および管理装置 Download PDF

Info

Publication number
WO2015173882A1
WO2015173882A1 PCT/JP2014/062673 JP2014062673W WO2015173882A1 WO 2015173882 A1 WO2015173882 A1 WO 2015173882A1 JP 2014062673 W JP2014062673 W JP 2014062673W WO 2015173882 A1 WO2015173882 A1 WO 2015173882A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
content
detected
worker
program
Prior art date
Application number
PCT/JP2014/062673
Other languages
English (en)
French (fr)
Inventor
栗原 恒弥
浩彦 佐川
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to PCT/JP2014/062673 priority Critical patent/WO2015173882A1/ja
Publication of WO2015173882A1 publication Critical patent/WO2015173882A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to a content generation method and a management device for creating content.
  • Augmented Reality is a technology that adds information such as images and characters corresponding to the real environment (the information is referred to as “AR content”) to the image of the real environment. .
  • AR content information such as images and characters corresponding to the real environment
  • the user can obtain a feeling as if the AR content actually exists by viewing the image obtained by combining the image of the real environment and the AR content.
  • AR technology can be applied to a head-mounted display (Head Mounted Display, sometimes abbreviated as “HMD”).
  • HMD Head Mounted Display
  • By AR technology using HMD it is possible to present a video on a real object and give a work instruction.
  • a method of use at a manufacturing site has been proposed (Patent Document 1).
  • One of the important issues in AR technology is the production of AR content.
  • it is necessary to associate the work content and work position with the AR content and a large amount of man-hour is required to produce such AR content manually.
  • Patent Document 1 In the technology of Patent Document 1, an easy-to-understand work instruction is given to the worker by the AR content visible from the HMD.
  • the AR content creation method is not disclosed, and the AR content must be created manually. Since AR content is CG (Computer Graphics, computer graphics) data for work instructions that is easy for the operator to understand, a large amount of man-hour is required for authoring the content.
  • CG Computer Graphics, computer graphics
  • the present invention has been made in view of the above problems, and an object thereof is to efficiently create AR content.
  • a content generation method by a management device includes a processor that executes a program and a storage device that stores the program, and a three-dimensional space in a work space where a work target exists
  • the position specifying process specified based on the position, the attitude detection process for detecting the attitude of the worker with respect to the work target from the moving image of the work space, and the attitude of the worker detected by the attitude detection process A motion detection process for detecting a motion performed by the worker on an operation target of the target from a moving image of the work space;
  • the motion detected by the motion detection process is a specific motion
  • area detection is performed to detect a work area where the detected motion is performed based on the position of the three-dimensional camera identified by the position identification process.
  • FIG. 1 is a block diagram illustrating a hardware configuration example of a management device according to Embodiment 1.
  • FIG. It is explanatory drawing which shows an example of the content of a work procedure manual. It is explanatory drawing which shows the example 2 of a display of AR screen. It is explanatory drawing which shows the example 3 of a display of AR screen. It is explanatory drawing which shows the example 4 of a display of AR screen. It is explanatory drawing which shows the data structure example of AR content. It is explanatory drawing which shows the data structure example of the work content shown in FIG. It is explanatory drawing which shows the AR content production example 1 from actual work.
  • FIG. 9 is a block diagram illustrating a hardware configuration example of a management apparatus according to a second embodiment. 12 is a flowchart illustrating a detailed processing procedure example of the AR content generation processing (step S1102) illustrated in FIG. 11 according to the second embodiment.
  • FIG. 9 is a block diagram illustrating a hardware configuration example of a management apparatus according to a third embodiment.
  • FIG. 12 is a flowchart illustrating a detailed processing procedure example of the AR content generation processing (step S1102) illustrated in FIG. 11 according to the third embodiment.
  • FIG. 10 is a block diagram illustrating a hardware configuration example of a management apparatus according to a fourth embodiment. 12 is a flowchart illustrating a detailed processing procedure example of the AR content generation processing (step S1102) illustrated in FIG. 11 according to the fourth embodiment. It is explanatory drawing which shows the data structure example of the work content concerning Example 5.
  • FIG. FIG. 10 is a block diagram illustrating a hardware configuration example of a management apparatus according to a fifth embodiment. 12 is a flowchart illustrating a detailed processing procedure example of the AR content generation processing (step S1102) illustrated in FIG. 11 according to the fifth embodiment.
  • AR technology is used for education, entertainment, advertising, navigation, medical care, etc.
  • One of them is maintenance of equipment plants and support for construction.
  • the proportion of inexperienced users is expected to increase due to a lack of skilled workers. Therefore, in this embodiment, a technique for supporting an operator using the AR technique will be described as an example.
  • each process in the embodiment may be described using “program” as a subject (operation subject), but the program performs a process defined by being executed by a processor using a memory and a communication port. Therefore, the description may be made with the processor as the subject. Further, the processing disclosed with the program as the subject may be processing performed by a computer. Part or all of the program may be realized by dedicated hardware, or may be modularized. Various programs may be installed in each computer by a program distribution server or a storage medium.
  • FIG. 1 is an explanatory diagram illustrating a display example 1 of the AR screen.
  • the worker W performs an inspection work of the control panel 101 that is an example of a work target in the work space 100.
  • the worker W wears the HMD 110 and looks at the control panel 101.
  • the control panel 101 includes, for example, a lever 102, ammeters 103 and 104, switches 105 and 106, and lamps 107 to 109.
  • the worker W performs an opening / closing operation of the lever 102.
  • the worker W reads the current values of the ammeters 103 and 104 as necessary.
  • a rated value is designated for the ammeters 103 and 104, and it may be determined whether the read current value is within the rated value.
  • the operator W sets the switches 105 and 106 to ON or OFF as necessary.
  • the operator W grasps the state of the control panel 101 by looking at the lamps 107 to 109. For example, for each of the lamps 107 to 109, an error is indicated when the lamps 107 to 109 are lit, and it is assumed that the lamps 107 to 109 are normal when the lamps 107 to 109 are turned off.
  • the HMD 110 superimposes and displays AR content that is CG data and character strings using AR technology on an actual scene.
  • the HMD 110 includes a three-dimensional camera 111 and acquires a three-dimensional image.
  • the three-dimensional camera 111 is used for estimating the viewpoint position of the worker W.
  • the HMD 110 superimposes and displays the AR content on the actual scene.
  • the HMD 110 superimposes and displays the AR content on the 3D video of the actual scene obtained by the 3D camera 111.
  • a screen on which AR content is superimposed and displayed by the HMD 110 is referred to as an AR screen 112.
  • the AR screen 112 is visually recognized by the worker W wearing the HMD 110.
  • the AR screen 112 presented by the HMD 110 is a screen on which AR contents such as a message 113, rectangular parallelepiped data 114, and arrow data 115 are superimposed with the lever 102 as a center.
  • the message 113 is text data indicating contents to be performed by the worker W.
  • the rectangular parallelepiped data 114 is CG data indicating the position of the operation target (in the case of FIG. 1, the lever 102).
  • the rectangular parallelepiped data 114 includes or is close to the lever 102 that is the operation target.
  • the arrow data 115 is CG data indicating a work operation, and in this example, represents the release direction of the lever 102.
  • the worker W performs an operation according to these AR contents.
  • FIG. 2 is a block diagram of a hardware configuration example of the management apparatus according to the first embodiment.
  • the management apparatus 200 is a computer that executes creation of AR content and work support using the created AR content.
  • the management device 200 includes a processor 201, an input device 202, an output device 203, a communication interface 204, and a storage device 205, and these are connected via a bus 206.
  • the processor 201 executes various programs 211 to 218 stored in the storage device 205.
  • the input device 202 is an input device for inputting information necessary for creating the AR content. For example, a keyboard, a mouse, a touch panel, a microphone for performing voice input, and a three-dimensional camera 111 for performing operations such as input of work results. A separate three-dimensional camera is included.
  • the output device 203 is a device that outputs data, and includes, for example, a monitor that displays AR content and a speaker that outputs sound.
  • the output device 203 is also used in editing AR content.
  • the communication interface 204 receives a three-dimensional image from the three-dimensional camera 111 mounted on the HMD 110 wirelessly or by wire. In addition, the communication interface 204 transmits the AR content to the HMD 110 by wireless or wired. In addition, the communication interface 204 transmits / receives data to / from other devices (not shown) via the network.
  • the storage device 205 stores various programs 211 to 218, and stores information related to the progress of processing by the programs 211 to 218.
  • the storage device 205 includes a three-dimensional model acquisition program 211, a camera position / posture estimation program 212, a posture extraction program 213, a work motion estimation program 214, a work area estimation program 215, a content generation program 216, a content editing program.
  • a program 217 and a content execution program 217 are stored.
  • the 3D model acquisition program 211 is a program for causing the processor 201 to acquire the 3D model of the work space 100.
  • the acquired three-dimensional model is stored in the three-dimensional model DB 231.
  • the three-dimensional model includes a three-dimensional model of the control panel 101 that is a work target.
  • the camera position / orientation estimation program 212 is a program for causing the processor 201 to estimate the position and orientation of the three-dimensional camera 111 mounted on the HMD 110 worn by the worker W who is working.
  • the camera position and orientation estimation by the program 212 corresponds to a camera tracking process in augmented reality.
  • the position / orientation estimation of the three-dimensional camera 111 by the camera position / orientation estimation program 212 can be realized, for example, by using a known technique for aligning an input three-dimensional image with a prepared three-dimensional model.
  • the position and orientation of the three-dimensional camera 111 are expressed in a world coordinate system based on the three-dimensional model of the work space 100.
  • the position and orientation of the three-dimensional camera 111 mounted on the worker W's HMD 110 are estimated.
  • the AR content that is a virtual CG image is converted to the HMD 110 or It is displayed superimposed on the output device 203. Thereby, the superimposed display by AR technique is implement
  • the posture extraction program 213 is a program for causing the processor 201 to extract the posture of the worker W from the three-dimensional image obtained by the three-dimensional camera 111 of the HMD 110 for the worker W who is working. Since the 3D camera 111 is mounted on the HMD 110, for example, a 3D image indicating the posture of the worker W's hand is acquired as the 3D image acquired by the 3D camera 111.
  • the posture extraction program 213 matches the time-series data of the three-dimensional image indicating the posture of the hand of the worker W with the posture dictionary 233, thereby obtaining the hand from the time-series data of the three-dimensional image acquired by the three-dimensional camera 111.
  • a three-dimensional image indicating the posture is extracted.
  • the posture extraction program 213 performs matching between the input three-dimensional image and the three-dimensional image in the posture dictionary 233, and a similar three-dimensional image (with a sufficiently close distance) is obtained from the posture dictionary. If it is detected in 233, it is determined to be the corresponding posture.
  • the image feature amount of a three-dimensional image is generally expressed as a numerical vector.
  • Each element of the numerical vector includes, for example, a value obtained by digitizing an image color, an intensity of a gradient of an image, a value of a direction, or a value obtained by using these values as a frequency distribution.
  • the Euclidean distance, the Mahalanobis distance, and the Bhattacharya distance between vectors are used as indices for evaluating similarity. Therefore, it can be determined that the images are more similar as the distance is smaller.
  • the work motion estimation program 214 is a program for causing the processor 201 to estimate the work motion of the worker W using the data indicating the posture extracted by the posture extraction program 213.
  • the work motion estimation program 214 has a database that associates a 3D image of a work motion to be extracted in advance with the work motion (name), and the posture extracted by the posture extraction program 213.
  • the work motion is estimated by comparing the three-dimensional image indicating the above and the three-dimensional image of the work motion in the database.
  • work operations include, for example, “lever opening operation”, “lever closing operation”, “instrument reading”, “switch check”, “lamp check”, “part installation”, “parts” Removal ".
  • the work area estimation program 215 is a program that causes the processor 201 to estimate the work area where the work motion estimated by the work motion estimation program 214 is performed.
  • the work area estimation program 215 stores the position of the hand while detecting the work motion estimated by the work motion estimation program 214.
  • the position of the hand is expressed in a camera coordinate system based on the three-dimensional camera 111 of the HMD 110.
  • the work area estimation program 215 converts this camera coordinate system into a world coordinate system based on the three-dimensional model. For the coordinate conversion, the position and orientation data of the three-dimensional camera 111 estimated by the camera position and orientation estimation program 212 is used.
  • the work area estimation program 215 converts coordinates expressed in the camera coordinate system of the three-dimensional camera 111 into a world coordinate system using the position and orientation data of the three-dimensional camera 111.
  • the position and movement of the hand when the work operation is performed can be expressed in the world coordinate system of the three-dimensional model.
  • the estimated work area is defined as a bounding box (closing box) of the locus of the position of the hand at the time when the work operation was performed.
  • the content generation program 216 is a program that causes the processor 201 to generate AR content corresponding to the work motion estimated by the work motion estimation program 214 and the work area estimated by the work area estimation program 215.
  • the generated AR content is stored in the AR content DB 232.
  • the content generation program 216 has a function of estimating the work content indicating the action actually performed by the worker W from the work operation. For example, when the word “operation” is included in the work operation, the content generation program 216 determines the work content to be “end operation”. For example, when the work operation is “lever opening operation”, the work content is set to “operation end”.
  • the content generation program 216 determines the work content to be “numerical input” when there is a word “read” or “confirm” in the work operation. For example, when the work operation is “reading of ammeter”, the work content is set to “numerical value input”. That is, it means inputting a current value. When the work operation is “confirm switch”, the work content is set to “numerical value input”. That is, it means inputting a true / false value indicating the switch state (ON or OFF).
  • the content editing program 217 is an interactive program that causes the processor 201 to edit the AR content generated by the content generation program 216 in response to a user operation input from the input device 202.
  • the content execution program 218 is a program for causing the processor 201 to display the AR content on the output device 203 and output to the HMD 110 via the communication interface 204.
  • the storage device 205 also functions as various databases.
  • the 3D model DB 231 stores the 3D model acquired by the 3D model acquisition program 211.
  • the AR content DB 232 stores AR content generated by the content generation program 216.
  • the posture dictionary 233 stores a three-dimensional image indicating the posture of the worker W, a work operation, and a work CG type in association with each other.
  • the work CG type is information for specifying the type of CG data to be displayed on the AR screen 112.
  • the posture dictionary 233 stores three-dimensional images for all postures that the operator W can take. For example, in the posture dictionary 233, a three-dimensional image indicating “lever operation”, a work operation “lever operation”, and an “arrow” indicating a “lever operation” direction as a work CG type are associated with each other. .
  • FIG. 3 is an explanatory diagram showing an example of the contents of the work procedure manual.
  • the work procedure manual 301 a title 302 is described, and the type of work procedure manual 301 is specified.
  • the work procedure manual 301 is composed of a plurality of detailed work columns, and headings 303, 305, and 313 representing the outline and type of each work are described.
  • the work contents 304 are work contents corresponding to the headline 303
  • the work contents 306 to 312 are work contents corresponding to the headline 305
  • the work contents 314 are work contents corresponding to the headline 313.
  • the work procedure according to the work procedure manual 301 is as follows.
  • the inspection procedure (302) first, as preparation for inspection (303), the operator W opens the lever 102 (304).
  • the worker W executes “inspection” which is the heading 305.
  • the worker W reads the ammeter 103 and records the current value, and confirms that the current value is within the rating (306).
  • the operator W reads the ammeter 104 and records the current value, and confirms that the current value is within the rating (307).
  • the worker W confirms that the switch 105 is on (308). Furthermore, the worker W confirms that the switch 106 is on (309).
  • the operator W confirms that the lamp 107 is turned off (310). Furthermore, the worker W confirms that the lamp 208 and the lamp 209 are off (311 and 312).
  • the worker W performs “inspection end” processing as a heading 313. That is, the lever 102 is closed (314).
  • the work procedure shown in this work procedure manual 301 is supported using AR technology.
  • Display examples 2 to 4 of AR screen 112 will be described.
  • the display example 2 of the AR screen 112 shows the AR screen 112 displayed next to the AR screen 112 in the display example 1 of the AR screen 112 shown in FIG. 1, and the display example 3 of the AR screen 112 is the display of the AR screen 112.
  • the AR screen 112 displayed after the AR screen 112 in the display example 2 is shown.
  • the display example 4 of the AR screen 112 shows the AR screen 112 displayed after the AR screen 112 in the display example 3 of the AR screen 112. .
  • FIG. 4 is an explanatory diagram showing a display example 2 of the AR screen 112.
  • FIG. 4 is a display example of the AR screen 112 corresponding to “read the ammeter 103 and record the current value and confirm that the current value is within the rating” of the work content 306 of the work procedure manual 301. is there.
  • the content of the message 113 also corresponds to the work content 306 of the work procedure manual 301.
  • the management device 200 compares the input current value with the rated value.
  • FIG. 5 is an explanatory diagram showing a display example 3 of the AR screen 112.
  • FIG. 5 is a display example of the AR screen 112 corresponding to “confirm that the switch 105 is on” of the work content 308 of the work procedure manual 301.
  • the content of the message 113 also corresponds to the work content 308 of the work procedure manual 301.
  • the worker W inputs the confirmation result to the input device 202.
  • the input value in this case is a true / false value that is the state of the switch 105 (a value indicating ON or OFF).
  • FIG. 6 is an explanatory diagram showing a display example 4 of the AR screen 112.
  • FIG. 6 is a display example of the AR screen 112 corresponding to “confirm that the lamp 107 is turned off” in the work content 310 of the work procedure manual 301.
  • the content of the message 113 also corresponds to the work content 310 of the work procedure manual 301.
  • the worker W inputs the confirmation result to the input device 202.
  • the input value is a true / false value indicating the state of the lamp 107 (a value indicating lighting or extinguishing).
  • AR content (1) a character string to be displayed on the AR screen 112, (2) CG data of a three-dimensional figure such as a rectangular parallelepiped indicating the position of the operation target, (3) CG data such as an arrow indicating the operation content, 4) It is possible to define four work contents that are actions requested of the worker W.
  • FIG. 7 is an explanatory diagram showing an example of the data structure of AR content.
  • the AR content 700 includes a work title 701, a work number 702, a work headline 703 corresponding to the work number, and a content 704 corresponding to the work number.
  • the work title 701 is a title name indicating work.
  • a character string “XX check procedure” is stored as a work title.
  • the work heading 703 is a work name that becomes an index of each work. There are n work headings 703 corresponding to the number of work 702. For example, in the work procedure manual 301 of FIG. 3, a character string “inspection preparation” is stored in the work heading H1, “inspection” in the work heading H2, and “inspection end processing” in the work heading H3.
  • a character string “inspection preparation” is stored in the work heading H1, “inspection” in the work heading H2, and “inspection end processing” in the work heading H3.
  • the content 704 stores the work content 705 and the work content 706 corresponding to the number of work contents.
  • the number of work contents 705 is the number of work contents 706.
  • the work content 706 exists for 705 work contents.
  • the content Ci is a set of Mi pieces of work content Ci-1, ..., Ci-mi, ..., Ci-Mi.
  • the working content number Mi of the content Ci is an integer of 1 ⁇ mi ⁇ Mn.
  • i is an integer of 1 ⁇ i ⁇ n.
  • the work content number M1 of the content C1 of the work heading H1 is one of “open the lever 102”.
  • the work content number M2 of the content C2 of the work heading H2 is seven of reference numerals 306 to 312.
  • the work content number M3 of the content C3 of the work heading H3 is one of “close the lever 102”.
  • the work content 706 indicates the content of the work specified by the work heading 703.
  • a set of work contents 706 becomes contents 704.
  • the work content C1-1 of the content C1 of the work heading H1 is “open the lever 102”.
  • the work contents C2-1 to C2-7 of the content C2 of the work heading H2 are the work contents indicated by reference numerals 306 to 312.
  • the work content C3-1 of the content C3 of the work heading H3 is “close the lever 102”.
  • FIG. 8 is an explanatory diagram showing an example of the data structure of the work content Ci-mi shown in FIG.
  • the work content Ci-mi includes a work instruction description 801, a work CG type 802, a work CG state 803, an operation target state 804, and a work content 805.
  • the work instruction description 801 is an explanatory text for instructing a work.
  • the work instruction description 801 corresponds to a sentence “lever opening, operating the lever 102 in the direction of the arrow”.
  • the work instruction description 801 is added or edited from the input device 202 by the content editing program 217.
  • the work CG type 802 is information for specifying the type of CG data displayed on the AR screen 112.
  • the type of work CG is “arrow”.
  • the work CG type 802 is “cuboid”. That is, the operation CG type 802 is set to “arrow” for an operation target that moves itself (changes its position) like the lever 102 by analyzing the time-series data of the three-dimensional image of the operation estimation program 214.
  • the work CG type 802 is set to a “cuboid” that includes or is close to the operation target.
  • the work CG state 803 is information indicating the position, direction, and size of the CG data identified by the work CG type 802 on the three-dimensional model.
  • arrow for example, the CG data of the arrow that is arranged in the vicinity of the lever 102 that is the operation target and indicates the shape indicating the operation direction is obtained by analyzing the time series data of the three-dimensional image of the work motion estimation program 214 .
  • the size may be set according to the lever 102 that is the operation target.
  • the operation target state 804 is information indicating the position, direction, and size of the operation target such as the lever 102 and the ammeter 103 on the three-dimensional model.
  • the operation target state 804 specifies the position, direction, and size of the rectangular parallelepiped data 114.
  • the position of the operation target is expressed by, for example, sphere data
  • the position and radius of the sphere data are designated.
  • the operation target state 804 is a work area estimation result by the work area estimation program 215.
  • the work content 805 is information indicating an action actually performed by the worker W.
  • a signal indicating the end of work by the opening operation of the lever 102 for example, input of operation end from the input device 202
  • it is input of a truth value.
  • FIG. 9 is an explanatory diagram of an AR content generation example 1 from actual work.
  • FIG. 9 is an example of an operation for opening the lever 102.
  • the hand h of the operator W grabs the lever 102 and operates the lever 102 in the direction of the arrow.
  • the management device 200 uses the posture extraction program 213 to obtain the behavior of the hand h that is the posture of the worker W by the three-dimensional camera 111 of the HMD 110. Extract from time-series data of dimensional images. Further, the management device 200 estimates the work operation “lever opening operation” from the behavior of the hand h that is the posture of the worker W by the work operation estimation program 214.
  • the management apparatus 200 Since the work operation “lever opening operation” is estimated, the management apparatus 200 estimates the position of the hand h on the three-dimensional model that is the work area using the bounding box of the locus of the hand by the work area estimation program 215. To do. Next, the management apparatus 200 adds the work content Ci-mi to the AR content 700 by the AR content addition process of the content generation program 216.
  • the work CG type 802 of the work content Ci-mi to be added is an “arrow” corresponding to the work motion “lever opening operation” that is the work motion estimation result in the posture dictionary 233.
  • the work CG state 803 is obtained from the work motion estimation result by the work motion estimation program 214.
  • the operation target state 804 is obtained from the work area estimation result by the work area estimation program 215. Further, as described above, the management apparatus 200 estimates the “operation end” as the work content 805 from the work motion estimated by the work motion estimation program 214 by the content generation program 216.
  • FIG. 10 is an explanatory diagram showing an AR content generation example 2 from actual work.
  • FIG. 10 is an example of an operation for reading the ammeter 103.
  • the hand h of the worker W points to the ammeter 103.
  • the worker W inputs a numerical value to the management apparatus 200 by the input device 202.
  • the management device 200 uses the posture extraction program 213 to obtain the behavior of the hand h that is the posture of the worker W by the three-dimensional camera 111 of the HMD 110. Extract from time-series data of dimensional images. Further, the management device 200 estimates the work operation “reading of the instrument” from the behavior of the hand h that is the posture of the worker W by the work operation estimation program 214.
  • the management apparatus 200 uses the work area estimation program 215 to estimate the position of the hand h on the three-dimensional model, which is the work area, using the bounding box of the hand trajectory. .
  • the management apparatus 200 adds the work content Ci-mi to the AR content 700 by the AR content addition process of the content generation program 216.
  • “reading instrument” as a work operation is associated with “cuboid” as a work CG type 802. Accordingly, the work CG type 802 of the work content Ci-mi to be added here is “cuboid”.
  • the work CG state 803 is obtained from the work motion estimation result by the work motion estimation program 214.
  • the operation target state 804 is obtained from the work area estimation result estimated by the work area estimation program 215. Further, as described above, the management apparatus 200 estimates the “numeric input” that is the work content 805 from the work motion estimated by the work motion estimation program 214 by the content generation program 216.
  • the management apparatus 200 may use the content editing program 217 to execute the AR content 700 after the creation of the AR content 700, if necessary. Can be corrected.
  • FIG. 11 is a flowchart showing an example of the entire processing procedure from creation to execution of AR content.
  • the management apparatus 200 acquires a three-dimensional model to be worked such as the control panel 101 using the three-dimensional model acquisition program 211 and stores it in the three-dimensional model DB 231 (step S1101).
  • the worker W performs work on the work target, and the management apparatus 200 executes AR content generation processing using the work (step S1102). Details of the AR content generation process (step S1102) will be described later.
  • the management apparatus 200 edits the AR content 700 generated by the AR content generation process (step S1102) by the AR content editing program 217.
  • the management apparatus 200 newly adds work content to the AR content 700, or modifies the work instruction work instruction description 801, work CG state 803, operation target state 804, and work content 805 by user operation. .
  • it can be edited by a text editor or interactively as in the 3DCG authoring program.
  • the management apparatus 200 executes processing using the AR content 700 by the content execution program 217 (step S1104). By this processing, work support using AR technology is realized.
  • FIG. 12 is a flowchart showing a detailed processing procedure example of the AR content generation processing (step S1102) shown in FIG.
  • the worker W starts work (step S1201).
  • the management device 200 creates a three-dimensional image. Input (step S1202).
  • the management apparatus 200 estimates the position and orientation of the three-dimensional camera 111 of the HMD 110 in real time using the camera position and orientation estimation program 212 (step S1203).
  • the estimation of the position and orientation of the camera using the three-dimensional image can be realized by using a known technique for aligning the input three-dimensional image with a three-dimensional model prepared in advance.
  • the position and orientation of the three-dimensional camera 111 are expressed in a world coordinate system based on the three-dimensional model.
  • the management apparatus 200 estimates the posture of the worker W using the input three-dimensional image by the posture extraction program 213 (step S1204). Then, the management device 200 estimates the work motion from the posture of the worker W by the work motion estimation program 214 (step S1205).
  • the management apparatus 200 determines whether or not a registered work operation has been detected (step S1206). That is, the work motion estimation program 214 determines whether or not the estimated work motion exists in the database of the work motion estimation program 214. When the work operation is not detected (step S1206: No), the process returns to step S1202. On the other hand, when the work operation is detected (step S1206: Yes), the management apparatus 200 estimates the work area in which the detected work operation is performed by the work area estimation program 215 (step S1207). The estimation of the work area is determined, for example, from the position indicated by the posture of the worker W that is the work motion estimation source.
  • the management apparatus 200 adds the AR content 700 by the AR content addition process of the content generation program 216.
  • the work CG type 802 of the AR content to be added is set based on the type of work operation detected in step S1206. For example, when the work operation is “lever opening operation”, the operation target is a movable lever, and the work CG type 802 is “arrow”.
  • the work CG state 803 is the position, direction, and size of the CG data specified by the work CG type 802. Accordingly, the work CG state 803 in this case is the arrow data 115 corresponding to the start point, the end point, and the direction of the operation of the lever 102 obtained from the estimation result of the work area and the three-dimensional model of the control panel 101.
  • the operation target state 804 is the position, direction, and size of the rectangular parallelepiped data 114 including the lever 102 obtained from the estimation result of the work area and the three-dimensional model of the control panel 101.
  • the work CG type 802, the work CG state 803, and the operation target state 804 can be corrected by the AR content editing process (step S1103) after the AR content generation process (step S1102) by the actual work. is there.
  • the management apparatus 200 estimates the work content 805 by the content generation program 216.
  • the work content 805 is estimated from the work movement and work area estimated by the work movement estimation program 214.
  • the content generation program 216 has a table that associates work operations with work contents 805.
  • work areas may be associated. For example, when the work operation is “lever opening operation”, the work content 805 is information indicating “work end” by referring to the table. In addition, when the work operation is “instrument reading” and the work area is the ammeter 103, the work content 805 becomes “input of current value” by referring to the table.
  • the management device 200 determines whether or not the work of the worker W has been completed (step S1209).
  • step S1209: Yes the content creation process is finished. If the work has not been completed (step S1209: No), the process returns to the three-dimensional image input process (S1202).
  • the worker W it is possible for the worker W to designate the end of the work by the input device 202.
  • a gesture for ending work can be used.
  • the AR content 700 can be generated by the worker W actually performing the work.
  • FIG. 13 is a flowchart showing a detailed processing procedure example of the AR content execution processing (step S1104) shown in FIG.
  • the management device 200 waits for selection of the AR content 700 to be executed from the AR content DB 232 by the operation of the worker W (step S1301).
  • the management apparatus 200 transmits the work instruction description 801 of the selected AR content 700 to the HMD 110 and displays it on the AR screen 112 of the HMD 110, for example, as shown in FIG. (Step S1302).
  • the management apparatus 200 acquires a video displayed on the three-dimensional camera 111 of the HMD 110 from the HMD 110 as a three-dimensional image (step S1303). Then, the management apparatus 200 estimates the position and orientation of the three-dimensional camera 111 of the HMD 110 in real time using the camera position and orientation estimation program 212 (step S1304).
  • the camera position / orientation estimation is the same process as the camera position / orientation estimation (step S1203) in the AR content creation process (step S1102).
  • the management apparatus 200 transmits CG data such as the rectangular parallelepiped data 114 and the arrow data 115 to the HMD 110 using the position and orientation of the three-dimensional camera 111 estimated by the camera position and orientation estimation (step S1304), and the HMD 110 (Step S1305).
  • the management device 200 stores the CG data in the HMD 110 as shown in FIG. 1 with the position, posture, and size specified by the work CG state 803 (the position, posture, and size of the CG data). Display.
  • the management apparatus 200 determines whether the work has been completed (step S1307). Whether or not the processing has been completed is determined by an input from the input device 202. If the current work (for example, operation of the lever 102) is not completed and is being executed, there is no work end input from the input device 202 (step S1306: No), and the process returns to step S1303. On the other hand, when the AR work is finished, the work end is inputted from the input device 202 (step S1306: Yes), and the process returns to step S1301.
  • step S1301 when AR content is not selected (step S1301: No), the process proceeds to step S1307. Then, the management device 200 determines whether or not the entire work has been completed (step S1307). Whether or not the processing has been completed is determined based on whether or not there is an AR content 700 to be input or selected from the input device 202. If the entire work is not finished (step S1307: No), the process returns to step S1301. On the other hand, when it is the end of the entire work (step S1307: Yes), the AR content execution process (step S1104) is ended.
  • the AR content 700 can be created while the worker W is actually working.
  • a work procedure manual 301 relating to work contents is prepared in advance, and referring to the work procedure manual 301, work operation estimation, work area estimation, and content addition processing are executed.
  • a work manual that is electronic data may be prepared.
  • more accurate AR content 700 is generated using the work manual.
  • differences from the first embodiment will be described.
  • FIG. 14 is a block diagram of a hardware configuration example of the management apparatus 200 according to the second embodiment.
  • a collation program 1401 and a work manual 1402 are added to the storage device 205 shown in FIG.
  • the work manual 1402 is a manual related to actual work.
  • the contents of the work manual 1402 are the same as the work procedure manual 301 of FIG.
  • the work instruction explanation 801 shown in FIG. 8 is determined from the work manual 1402.
  • the work instruction explanation 801 is determined by the headings 303, 305, and 313.
  • the work CG type 802 can be estimated using the work manual 1402 by the content generation program 216. For example, in the operation of the lever 102, if the work manual 1402 indicates “open the lever”, the work CG type 802 is determined as “arrow”. The direction of the arrow is specified by analyzing the movement of the lever 102 from the time-series data of the three-dimensional image of the work area estimated by the work area estimation program 215.
  • the work CG state 803 and the operation target state 804 cannot be estimated from the work manual 1402. Therefore, the management apparatus 200 estimates the work CG state 803 by the work motion estimation program 214 and estimates the operation target state 804 by the work area estimation program 215 as in the first embodiment.
  • the collation program 1401 collates the work motion estimated by the work motion estimation program 214 with the contents of the work manual 1402 and collates to which part of the work manual 1402 the operation performed by the worker W corresponds. To do. That is, in the collation process, it is determined whether or not the work motion estimated by the work motion estimation program 214 matches the work contents 304, 306 to 312 and 314 described in the work manual 1402.
  • FIG. 15 is a flowchart of a detailed process procedure example of the AR content generation process (step S1102) depicted in FIG. 11 according to the second embodiment.
  • the management apparatus 200 collates the work motion with the work manual 1402 (step S1206). S1501).
  • the management apparatus 200 estimates the work area (step S1207).
  • step S1502: No the process proceeds to step S1209.
  • step S1208 the management apparatus 200 specifies the work instruction description 801 from the work manual 1402 and stores it in the work content Ci-mi. Further, the management apparatus 200 identifies the work content 805 and stores it in the work content Ci-mi as in the first embodiment.
  • a template of the AR content 700 can be created from the work manual 1402.
  • the management apparatus 200 can estimate and add or edit the work CG state 803 and the operation target state 804 from the work of the worker W on the template of the AR content 700.
  • the AR content 700 can be created by preparing the work manual 1402.
  • the third embodiment is a method of performing work motion estimation and content addition processing with reference to the voice recognition result by using voice recognition in the first embodiment.
  • the work In the actual work, there is a case where the work is performed while speaking the actual work content by voice, and more accurate AR content 700 is generated using the voice recognition result.
  • differences from the first embodiment will be described.
  • FIG. 16 is a block diagram of a hardware configuration example of the management apparatus 200 according to the third embodiment.
  • a voice recognition program 1601 is added to the storage device 205 illustrated in FIG.
  • the voice recognition program 1601 recognizes the voice that the worker W is working on.
  • the worker W is uttering a work operation name that identifies the operation being performed.
  • the work instruction explanation and the headline in the work procedure manual 301 shown in FIG. For example, in the case of the work content 306, the worker W utters “read the ammeter 103 and record the current value”.
  • FIG. 17 is a flowchart of a detailed process procedure example of the AR content generation process (step S1102) depicted in FIG. 11 according to the third embodiment.
  • the management apparatus 200 recognizes the voice related to the work operation during work from the HMD 110 by the voice recognition program 1601, and obtains information related to the operation during work (step S1701). ).
  • the management apparatus 200 determines the work instruction description 801 using this information.
  • the work CG type 802 is estimated from the speech recognition content.
  • AR content addition step S1208 is executed.
  • step S1208 for example, when the voice is “lever open, lever 102 is operated in the direction of the arrow”, the work instruction explanation 801 is a character string obtained from the voice. Further, as a result of referring to the work instruction description 801, the operation target is a movable lever, and therefore the work CG type 802 is “arrow”.
  • the work instruction explanation 801 is a character string obtained from the voice. Further, as a result of referring to the work instruction explanation 801, the operation target is an ammeter that does not move, and therefore the work CG type 802 is “cuboid”.
  • the work CG state 803 and the operation target state 804 are specified in the same manner as in the first embodiment using the work CG type 802 obtained by voice recognition. Also, the work content 805 is specified in the same manner as in the first embodiment. As described above, in the third embodiment, the AR content 700 can be efficiently created by voice recognition.
  • Example 4 is an example in which position information of operation targets such as the lever 102 and the ammeter 103 is given to the three-dimensional model of the work space 100 in advance in Example 1.
  • position information of the operation target By using the position information of the operation target, it is possible to perform work motion estimation with higher accuracy.
  • the operation target is the lever 102
  • it is possible to guess that the operation target is the lever 102 from the position of the hand h of the worker W by giving the position information of the lever 102.
  • the details of the operation of the worker W can be estimated more accurately.
  • the operation target is the ammeter 103, 104
  • a corresponding operation such as input of the value of the ammeter 103, 104 from the position of the hand h of the worker W.
  • FIG. 18 is a block diagram of a hardware configuration example of the management apparatus 200 according to the fourth embodiment.
  • a work area DB 1802 is added to the storage device 205 of the first embodiment.
  • the work motion estimation program 214 and the work area estimation program 215 are deleted from the storage device 205, and a second work motion estimation program 214 that newly refers to the work area is added.
  • the work area DB 1802 has work area data that is position information of the operation target described above. The work area data is given to the three-dimensional model of the work space 100.
  • FIG. 19 is a flowchart of a detailed process procedure example of the AR content generation process (step S1102) depicted in FIG. 11 according to the fourth embodiment.
  • the work motion estimation program 214 and the work area estimation program 215 do not exist, the work motion estimation (step S1205) and the work area estimation (step S1207) are not executed. Instead, after the posture estimation of the worker W (step S1204), the management apparatus 200 executes the work area of the worker W (for example, the hand h of the worker W whose posture is estimated) by the second work motion estimation program 1801. And the work area data recorded in the work area DB 1802 are collated (step S1901).
  • the management apparatus 200 determines whether or not the distance between the work area of the worker W and the work area data is within a predetermined distance.
  • the distance between the work area of the worker W and the work area data for example, the distance between the position of the three-dimensional camera 111 and the position indicated by the work area data is used.
  • the management apparatus 200 uses the operation target (for example, a lever) specified by the work area data in the work area. It is detected that the work operation has been performed (step S1206: Yes), and the process proceeds to step S1208.
  • the operation target for example, a lever
  • the fourth embodiment by setting the work area data in advance, it is possible to estimate the work operation with reference to the work area, and it is possible to create the AR content 700 more efficiently.
  • Embodiment 5 is an example having a step of inputting success / failure of work when each work is finished and a step of storing work procedures depending on the success / failure of work in Embodiment 1.
  • AR content depending on the success or failure of the work at the end of the work can be generated, it is possible to generate a more flexible AR content.
  • the values of the ammeters 103 and 104 are not within the ratings, it is possible to specify a special case handling method for a specific operation target specified in advance.
  • differences from the first embodiment will be described.
  • FIG. 20 is an explanatory diagram of a data structure example of the work content Ci-mi according to the fifth embodiment.
  • the work content Ci-mi includes a work instruction description 801, a work CG type 802, a work CG state 803, an operation target state 804, a work content 805, and a jump destination address 2000 when the condition is not satisfied.
  • the jump destination address 2000 is an address that jumps when the work content 805 includes a success / failure determination and the determination is not, for example, another work content Ci-k (k ⁇ mi) of the same content Ci. Address.
  • the work content Ci-mi is work content related to “reading of an ammeter”
  • the address is “0”, it indicates that no jump is made even when the determination is not made.
  • FIG. 21 is a block diagram of a hardware configuration example of the management apparatus 200 according to the fifth embodiment.
  • an end condition input program 2101 is added to the storage device 205 of the first embodiment.
  • the end condition input program 2101 receives an input from the input device 202 as to whether or not the end is normal when each work is completed.
  • the AR content of the fifth embodiment includes work content Ci-mi shown in FIG.
  • FIG. 22 is a flowchart of a detailed process procedure example of the AR content generation process (step S1102) depicted in FIG. 11 according to the fifth embodiment.
  • the management apparatus 200 inputs work success / failure determination by the end condition input program 2101 after work area estimation (step S1207) (step S2201). In accordance with this success / failure, the management apparatus 200 changes the AR content addition process.
  • the management apparatus 200 adds content as before (step S1208). If the termination condition is non-existing, the next process should be added to another address (for example, an address that specifies working content on how to handle special cases when the ammeter is not rated) And another address is set as the jump destination address when the condition is not met.
  • the embodiment of the present invention it is possible to display the departure time together with an analog clock so that it can be easily seen. Also, different screen sizes can be displayed appropriately with the same program. Furthermore, the operation information and the departure information can be displayed easily and simultaneously.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 プロセッサは、3次元カメラの位置を、3次元カメラによって撮影された作業空間の動画像と作業空間の3次元モデルとに基づいて特定し、作業対象に対する作業者の姿勢を作業空間の動画像から検出し、作業者の姿勢により、作業対象が有する操作対象に対して作業者が行った動作を作業空間の動画像から検出し、検出された動作が特定の動作である場合、3次元カメラの位置に基づいて、検出された動作が行われた作業領域を検出し、操作対象を検出された動作により操作させ、かつ、検出された作業領域に基づいて作業空間の動画像上に表示可能な作業指示に関するコンテンツを生成する。

Description

コンテンツ生成方法および管理装置
 本発明は、コンテンツを作成するコンテンツ生成方法および管理装置に関する。
 拡張現実感(Augmented Reality:AR)技術とは、現実環境を撮影した画像に、現実環境に対応する画像や文字などの情報(当該情報を「ARコンテンツ」と称す。)を付加する技術である。ユーザは、現実環境の画像とARコンテンツとが合成された画像を見ることにより、あたかもARコンテンツが実際に存在しているかのような感覚を得ることができる。
 AR技術は、ヘッドマウントディスプレイ(Head Mounted Display、「HMD」と略す場合がある)に適用可能である。HMDを用いたAR技術により、現実の物体上に映像を提示して作業指示を行うことが可能である。AR技術については、製造現場での利用方法が提案されている(特許文献1)。AR技術において重要な課題の1つは、ARコンテンツの制作である。AR技術を用いる場合、3次元の作業空間に対して、作業者にわかりやすい作業指示を提示する必要がある。特に作業内容と作業位置とをARコンテンツに対応付ける必要があり、このようなARコンテンツを手作業で制作するためには多大な工数が必要となる。
 コンテンツの制作に関連する技術として、熟練者が実際に作業を行い、熟練者の視野を表す視野カメラの映像と視線計測とを用いることで、熟練者の技能の継承を支援するコンテンツ制作方法が提案されている。この技術は、熟練者の視野映像を表す視野カメラの映像に対して、視線計測装置から熟練者の視線の位置を表示する。また、この技術は、オーサリングにより、熟練者のコメントなどを画面上に表示する。
特開2008-201101号公報
 特許文献1の技術では、HMDから見えるARコンテンツにより、作業者にわかりやすい作業指示を与える。しかしながら、ARコンテンツの作成方法については開示されておらず、ARコンテンツを手作業で作成しなければならない。ARコンテンツは、作業者にわかりやすい作業指示用のCG(Computer Graphics,コンピュータグラフィクス)データであるため、コンテンツのオーサリングに多大な工数が必要となる。
 本発明は、上記のような課題に鑑みてなされたものであり、ARコンテンツを効率的に作成することを目的とする。
 本願において開示される発明の一側面となる管理装置によるコンテンツ生成方法は、プログラムを実行するプロセッサと、前記プログラムを記憶する記憶装置と、を有し、作業対象が存在する作業空間内の3次元カメラと通信可能な管理装置によるコンテンツ生成方法であって、前記プロセッサは、前記3次元カメラの位置を、前記3次元カメラによって撮影された前記作業空間の動画像と前記作業空間の3次元モデルとに基づいて特定する位置特定処理と、前記作業対象に対する作業者の姿勢を前記作業空間の動画像から検出する姿勢検出処理と、前記姿勢検出処理によって検出された前記作業者の姿勢により、前記作業対象が有する操作対象に対して前記作業者が行った動作を前記作業空間の動画像から検出する動作検出処理と、前記動作検出処理によって検出された動作が特定の動作である場合、前記位置特定処理によって特定された前記3次元カメラの位置に基づいて、前記検出された動作が行われた作業領域を検出する領域検出処理と、前記操作対象を前記検出された動作により操作させ、かつ、前記領域検出処理によって検出された作業領域に基づいて前記作業空間の動画像上に表示可能な作業指示に関するコンテンツを生成する生成処理と、を実行することを特徴とする。
 本発明の代表的な実施の形態によれば、コンテンツを効率的に生成することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
AR画面の表示例1を示す説明図である。 実施例1にかかる管理装置のハードウェア構成例を示すブロック図である。 作業手順書の内容の一例を示す説明図である。 AR画面の表示例2を示す説明図である。 AR画面の表示例3を示す説明図である。 AR画面の表示例4を示す説明図である。 ARコンテンツのデータ構造例を示す説明図である。 図7に示した作業コンテンツのデータ構造例を示す説明図である。 実作業からのARコンテンツ生成例1を示す説明図である。 実作業からのARコンテンツ生成例2を示す説明図である。 ARコンテンツの作成から実行までの全体の処理手順例を示すフローチャートである。 図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。 図11に示したARコンテンツ実行処理(ステップS1104)の詳細な処理手順例を示すフローチャートである。 実施例2にかかる管理装置のハードウェア構成例を示すブロック図である。 実施例2にかかる、図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。 実施例3にかかる管理装置のハードウェア構成例を示すブロック図である。 実施例3にかかる、図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。 実施例4にかかる管理装置のハードウェア構成例を示すブロック図である。 実施例4にかかる、図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。 実施例5にかかる作業コンテンツのデータ構造例を示す説明図である。 実施例5にかかる管理装置のハードウェア構成例を示すブロック図である。 実施例5にかかる、図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。
 AR技術は、教育、娯楽、広告、ナビゲーション、医療などに利用されるが、その一つに設備プラントの保守や建築の支援がある。近年、海外で設備プラントの保守や建設の計画が進む一方、熟練者不足のため、経験の浅いユーザの割合が増加すると予測されている。そこで、本実施例では、AR技術を用いて作業者を支援する技術を例に挙げて説明する。AR技術をプラントの保守や建設現場に適用することにより、機器の状態や内部構造を可視化し、状態把握を補助することができる。これにより、効率的に作業を支援することができる。
 以下に示す実施例では、ARコンテンツを生成する例について説明する。これにより、上述したように、AR技術の作業支援への導入の容易化を図ることができ、効率的に作業を支援することができる。
 なお、以下では「プログラム」を主語(動作主体)として実施例における各処理について説明を行う場合があるが、プログラムはプロセッサによって実行されることで定められた処理をメモリ及び通信ポートを用いながら行うため、プロセッサを主語とした説明としてもよい。また、プログラムを主語として開示された処理は計算機が行う処理としてもよい。プログラムの一部または全ては専用ハードウェアで実現してもよく、また、モジュール化されていても良い。各種プログラムはプログラム配布サーバや記憶メディアによって各計算機にインストールされてもよい。
 <AR画面の表示例1>
 図1は、AR画面の表示例1を示す説明図である。作業者Wは、作業空間100内の作業対象の一例である制御盤101の点検作業をおこなう。作業者Wは、HMD110を装着し、制御盤101を見ている。制御盤101は、たとえば、レバー102、電流計103,104、スイッチ105,106、ランプ107~109を有する。点検作業では、作業者Wは、レバー102の開閉操作を行う。
 また、作業者Wは、必要に応じて電流計103,104の電流の値を読み取る。電流計103,104には定格値が指定されており、読み取った電流の値が定格値内に入っているかを判断する場合がある。また、作業者Wは必要に応じてスイッチ105,106をオンまたはオフに設定する。また、作業者Wは、ランプ107~109を見て制御盤101の状態を把握する。たとえば、ランプ107~109の各々について、ランプ107~109が点灯している場合にエラーを意味し、ランプ107~109が消灯している場合に正常であるとする。
 HMD110は、実際の情景の上にAR技術によるCGデータや文字列であるARコンテンツを重畳表示する。HMD110は、3次元カメラ111を搭載しており、3次元映像を取得する。また、3次元カメラ111は、作業者Wの視点位置を推定するために用いられる。シースルー型のHMD110の場合、当該HMD110は、現実の情景にARコンテンツを重畳表示する。ビデオシースルー型のHMD110の場合、当該HMD110は、3次元カメラ111によって得られた実際の情景の3次元映像にARコンテンツを重畳表示する。HMD110によりARコンテンツが重畳表示される画面を、AR画面112と称す。AR画面112は、HMD110を装着している作業者Wにより視認される。
 図1に示す作業は、たとえば、レバー102を開放操作する作業である。HMD110により提示されるAR画面112は、レバー102を中心にして、メッセージ113や直方体データ114、矢印データ115などのARコンテンツが重畳された画面である。メッセージ113は、作業者Wが行うべき内容を示すテキストデータである。直方体データ114は、操作対象(図1の場合は、レバー102)の位置を示すCGデータである。直方体データ114は、操作対象であるレバー102を包含または操作対象であるレバー102に近接する。矢印データ115は、作業動作を示すCGデータであり、本例では、レバー102の開放方向を表現する。作業者Wは、これらARコンテンツにしたがって操作をおこなう。
 <管理装置のハードウェア構成例>
 図2は、実施例1にかかる管理装置のハードウェア構成例を示すブロック図である。管理装置200は、ARコンテンツの作成と、作成されたARコンテンツを用いた作業支援と、を実行するコンピュータである。管理装置200は、プロセッサ201と、入力装置202と、出力装置203と、通信インタフェース204と、記憶装置205と、を有し、これらをバス206を介して接続する。
 プロセッサ201は、記憶装置205に記憶されている各種プログラム211~218を実行する。入力装置202は、ARコンテンツの作成に必要な情報を入力する入力装置であり、たとえば、作業結果の入力などの操作を行うためのキーボードやマウス、タッチパネル、音声入力を行うマイク、3次元カメラ111とは別の3次元カメラが含まれる。
 出力装置203は、データを出力する装置であり、たとえば、ARコンテンツを表示するモニタや音声を出力するスピーカが含まれる。出力装置203は、ARコンテンツの編集においても使用される。
 通信インタフェース204は、HMD110に搭載されている3次元カメラ111からの3次元画像を無線または有線により受信する。また、通信インタフェース204は、HMD110にARコンテンツを無線または有線により送信する。そのほか、通信インタフェース204は、ネットワークを介して他の装置(不図示)とデータの送受信をおこなう。
 記憶装置205は、各種プログラム211~218を格納し、プログラム211~218による処理の途中経過に関する情報を格納する。具体的には、たとえば、記憶装置205は、3次元モデル取得プログラム211、カメラ位置姿勢推定プログラム212、姿勢抽出プログラム213、作業動作推定プログラム214、作業領域推定プログラム215、コンテンツ生成プログラム216、コンテンツ編集プログラム217、コンテンツ実行プログラム217を格納する。
 3次元モデル取得プログラム211は、作業空間100の3次元モデルをプロセッサ201に取得させるためのプログラムである。取得された3次元モデルは、3次元モデルDB231に格納される。また、3次元モデルには、作業対象である制御盤101の3次元モデルが含まれる。
 カメラ位置姿勢推定プログラム212は、作業中の作業者Wが装着しているHMD110に搭載されている3次元カメラ111の位置および姿勢を、プロセッサ201に推定させるためのプログラムである。当該プログラム212によるカメラ位置姿勢推定は、拡張現実感におけるカメラトラッキング処理に相当する。
 カメラ位置姿勢推定プログラム212による3次元カメラ111の位置姿勢推定は、たとえば、入力された3次元画像とあらかじめ用意した3次元モデルとの位置合わせを行う公知の技術を用いることで実現できる。ここで、3次元カメラ111の位置および姿勢は、作業空間100の3次元モデルを基準とした世界座標系で表現される。カメラ位置姿勢推定により、作業者WのHMD110に搭載されている3次元カメラ111の位置および姿勢が推定され、推定された位置および姿勢に応じて、仮想のCG映像であるARコンテンツが、HMD110や出力装置203に重畳表示される。これにより、AR技術による重畳表示が実現される。
 姿勢抽出プログラム213は、作業中の作業者Wに対して、HMD110の3次元カメラ111によって得られた3次元画像から作業者Wの姿勢をプロセッサ201に抽出させるためのプログラムである。3次元カメラ111は、HMD110に搭載されているため、3次元カメラ111によって取得される3次元画像として、たとえば、作業者Wの手の姿勢を示す3次元画像が取得される。
 姿勢抽出プログラム213は、作業者Wの手の姿勢を示す3次元画像の時系列データを姿勢辞書233にマッチングすることで、3次元カメラ111によって取得された3次元画像の時系列データから、手の姿勢を示す3次元画像を抽出する。実際に3次元画像が入力された場合、姿勢抽出プログラム213は、入力3次元画像と姿勢辞書233の3次元画像とのマッチングを行い、類似する(距離が十分に近い)3次元画像が姿勢辞書233内で検出された場合には、該当の姿勢であると判定する。
 より具体的には、たとえば、3次元画像の画像特徴量は一般に数値ベクトルとして表される。この数値ベクトルの各要素には、たとえば、画像の色を数値化した値や画像の勾配の強度、方向の値、またはそれらの値を頻度分布とした値がある。たとえば、ベクトル間のユークリッド距離やマハラノビス距離、Bhattacharyya距離が、類似性を評価する指標として用いられる。したがって、距離が小さいほど画像同士が類似していると判断することができる。
 作業動作推定プログラム214は、姿勢抽出プログラム213によって抽出された姿勢を示すデータを用いて、作業者Wの作業動作をプロセッサ201に推定させるためのプログラムである。具体的には、たとえば、作業動作推定プログラム214は、あらかじめ抽出したい作業動作の3次元画像と作業動作(の名称)とを関連付けたデータベースを有しており、姿勢抽出プログラム213によって抽出された姿勢を示す3次元画像と当該データベース内の作業動作の3次元画像とを照合することで、作業動作を推定する。ここで、作業動作とは、たとえば、「レバーの開放操作」、「レバーの閉鎖操作」、「計器の読み取り」、「スイッチの確認」、「ランプの確認」、「部品の取り付け」、「部品の取り外し」などである。
 作業領域推定プログラム215は、作業動作推定プログラム214によって推定された作業動作が行われた作業領域を、プロセッサ201に推定させるプログラムである。作業領域推定プログラム215は、作業動作推定プログラム214によって推定された作業動作を検知した間の手先の位置を記憶する。この手先の位置は、HMD110の3次元カメラ111を基準としたカメラ座標系で表現される。作業領域推定プログラム215は、このカメラ座標系を3次元モデルを基準とした世界座標系に変換する。この座標変換には、カメラ位置姿勢推定プログラム212によって推定された3次元カメラ111の位置および姿勢のデータが用いられる。
 すなわち、作業領域推定プログラム215は、3次元カメラ111のカメラ座標系で表現された座標を、3次元カメラ111の位置および姿勢のデータを用いて世界座標系に座標変換する。以上により、作業動作を行っていた時の手先の位置および動きを3次元モデルの世界座標系で表現することができる。推定された作業領域は、作業動作を行っていた時間の手先の位置の軌跡のbounding box(閉包箱)として定義される。
 コンテンツ生成プログラム216は、作業動作推定プログラム214によって推定された作業動作と、作業領域推定プログラム215によって推定された作業領域と、に対応するARコンテンツを、プロセッサ201に生成させるプログラムである。生成されたARコンテンツは、ARコンテンツDB232に格納される。
 また、コンテンツ生成プログラム216は、作業動作から、実際に作業者Wが実行する行為を示す作業内容を推定する機能を有する。たとえば、コンテンツ生成プログラム216は、作業動作に「操作」という単語がある場合、作業内容を「操作終了」に決定する。たとえば、作業動作が「レバーの開放操作」である場合、作業内容は「操作終了」に設定される。
 また、コンテンツ生成プログラム216は、作業動作に「読み取り」や「確認」という単語がある場合、作業内容を「数値入力」に決定する。たとえば、作業動作が「電流計の読み取り」である場合、作業内容は「数値入力」に設定される。すなわち、電流値を入力することを意味する。また、作業動作が「スイッチの確認」である場合、作業内容は「数値入力」に設定される。すなわち、スイッチの状態(ONまたはOFF)である真偽の値を入力することを意味する。
 コンテンツ編集プログラム217は、入力装置202からのユーザ操作の入力により、コンテンツ生成プログラム216によって生成されたARコンテンツを、プロセッサ201に編集させる対話的なプログラムである。
 コンテンツ実行プログラム218は、ARコンテンツの出力装置203への表示や、通信インタフェース204を介してのHMD110への出力を、プロセッサ201に実行させるためのプログラムである。
 また、記憶装置205は、各種データベースとしても機能する。3次元モデルDB231には、3次元モデル取得プログラム211によって取得された3次元モデルが格納される。ARコンテンツDB232には、コンテンツ生成プログラム216によって生成されたARコンテンツが格納される。
 姿勢辞書233には、作業者Wの姿勢を示す3次元画像と、作業動作と、作業CG種類とが関連付けられて格納されている。作業CG種類は、AR画面112に表示するCGデータの種類を特定する情報である。姿勢辞書233には、作業者Wがとりうるすべての姿勢についての3次元画像が格納されている。たとえば、姿勢辞書233では、「レバーの操作」を示す3次元画像と、作業動作「レバーの操作」と、作業CG種類として「レバーの操作」方向を示す「矢印」とが対応付けられている。
 <作業手順書の内容の例>
 図3は、作業手順書の内容の一例を示す説明図である。作業手順書301には、タイトル302が記載されており、どの種類の作業手順書301であるかが特定される。通常、作業手順書301は、複数の細かい作業の列により構成されており、各作業の概要や種類等を表す見出し303、305、313が記載される。また、作業内容304は、見出し303に対応する作業内容であり、作業内容306~312は、見出し305に対応する作業内容であり、作業内容314は、見出し313に対応する作業内容である。
 作業手順書301による作業手順は、以下の通りである。○○点検手順(302)では、まず、点検の準備(303)として、作業者Wはレバー102を開ける(304)。つぎに、作業者Wは見出し305である「点検」を実行する。まず、作業者Wは電流計103を読み取って電流の値を記録し、電流の値が定格内にあることを確認する(306)。つぎに、作業者Wは電流計104を読み取って電流の値を記録し、電流の値が定格内にあることを確認する(307)。
 つぎに、作業者Wはスイッチ105がオンであることを確認する(308)。さらに、作業者Wはスイッチ106がオンであることを確認する(309)。つぎに、作業者Wはランプ107が消灯であることを確認する(310)。さらに、作業者Wはランプ208、ランプ209が消灯であることを確認する(311,312)。つぎに、作業者Wは見出し313である「点検終了」処理を行う。すなわち、レバー102を閉じる(314)。この作業手順書301に示された作業手順は、AR技術を用いて支援される。
<AR画面112の表示例2~4>
 つぎに、AR画面112の表示例2~4について説明する。AR画面112の表示例2は、図1に示したAR画面112の表示例1におけるAR画面112のつぎに表示されるAR画面112を示し、AR画面112の表示例3は、AR画面112の表示例2におけるAR画面112のつぎに表示されるAR画面112を示し、AR画面112の表示例4は、AR画面112の表示例3におけるAR画面112のつぎに表示されるAR画面112を示す。
 図4は、AR画面112の表示例2を示す説明図である。図4は、作業手順書301の作業内容306の「電流計103を読み取って電流の値を記録し、電流の値が定格内にあることを確認する」に対応するAR画面112の表示例である。メッセージ113の内容も、作業手順書301の作業内容306に対応する。図4に示す作業では、作業者Wは電流の値を記録する必要があるため、「操作終了」の合図だけでは不十分であり、作業者Wは、電流の値を入力装置202を操作して入力する必要がある。管理装置200は、入力された電流の値と定格値とを比較することになる。
 図5は、AR画面112の表示例3を示す説明図である。図5は、作業手順書301の作業内容308の「スイッチ105がオンであることを確認する」に対応するAR画面112の表示例である。メッセージ113の内容も、作業手順書301の作業内容308に対応する。図5に示す作業では、作業者Wは確認結果を入力装置202に入力することとなる。この場合の入力の値は、スイッチ105の状態(オンまたはオフを示す値)である真偽の値である。
 図6は、AR画面112の表示例4を示す説明図である。図6は、作業手順書301の作業内容310の「ランプ107が消灯であることを確認する」に対応するAR画面112の表示例である。メッセージ113の内容も、作業手順書301の作業内容310に対応する。図6に示す作業では、作業者Wは確認結果を入力装置202に入力することとなる。この場合の入力の値は、ランプ107の状態(点灯または消灯を示す値)である真偽の値である。
 <ARコンテンツ>
 つぎに、ARコンテンツについて説明する。ARコンテンツでは、(1)AR画面112上に表示する文字列、(2)操作対象の位置を示す直方体などの3次元図形のCGデータ、(3)操作内容を表す矢印などのCGデータ、(4)作業者Wに要求するアクションである作業内容の四つが定義可能である。
 <ARコンテンツのデータ構造例>
 図7は、ARコンテンツのデータ構造例を示す説明図である。ARコンテンツ700は、作業タイトル701と、作業数702と、作業数分の作業見出し703と、作業数分のコンテンツ704と、を有する。
 作業タイトル701は、作業を示すタイトル名である。たとえば、図3の作業手順書301の場合、「○○点検手順」という文字列が作業タイトルとして格納される。
 作業数702は、作業者Wが行う作業の数であり、作業見出しの数に一致する。図3の作業手順書301の場合、作業見出しの数は「3」であるため、作業数702はn=3である。nは1以上の整数である。
 作業見出し703は、各作業のインデックスとなる作業名である。作業見出し703は、作業数702であるn個分存在する。たとえば、図3の作業手順書301の場合、作業見出しH1には「点検準備」、作業見出しH2には「点検」、作業見出しH3には「点検終了処理」という文字列が作業見出しとして格納される。
 コンテンツ704には、作業コンテンツ数705と作業コンテンツ数分の作業コンテンツ706が格納される。作業コンテンツ数705は、作業コンテンツ706の数である。作業コンテンツ706は、作業コンテンツ数705分存在する。たとえば、コンテンツCiは、Mi個の作業コンテンツCi-1、…、Ci-mi、…、Ci-Miの集合である。コンテンツCiの作業コンテンツ数Miは、1≦mi≦Mnの整数である。iは1≦i≦nの整数である。
 たとえば、図3の作業手順書301において、作業見出しH1のコンテンツC1の作業コンテンツ数M1は、「レバー102を開ける」の1個である。また、作業見出しH2のコンテンツC2の作業コンテンツ数M2は、符号306~312の7個である。また、作業見出しH3のコンテンツC3の作業コンテンツ数M3は、「レバー102を閉じる」の1個である。
 また、作業コンテンツ706とは、作業見出し703により特定される作業の内容を示す。作業コンテンツ706の集合がコンテンツ704となる。たとえば、図3の作業手順書301において、作業見出しH1のコンテンツC1の作業コンテンツC1-1は、「レバー102を開ける」である。また、作業見出しH2のコンテンツC2の作業コンテンツC2-1~C2-7は、符号306~312で示した作業コンテンツである。また、作業見出しH3のコンテンツC3の作業コンテンツC3-1は、「レバー102を閉じる」である。
 図8は、図7に示した作業コンテンツCi-miのデータ構造例を示す説明図である。作業コンテンツCi-miは、作業指示説明801、作業CG種類802、作業CG状態803、操作対象状態804、作業内容805を含む。作業指示説明801とは、作業を指示する説明文であり、たとえば、図1の例では、「レバー開放、レバー102を矢印の向きに操作する」という文に対応する。作業指示説明801は、コンテンツ編集プログラム217により、入力装置202から追加または編集される。
 作業CG種類802とは、AR画面112に表示するCGデータの種類を特定する情報である。たとえば、図1において、レバー102の操作方向を示す矢印データ115の場合、作業CG種類は「矢印」となる。また、図4~図6の例では、作業CG種類802は「直方体」となる。すなわち、作業動作推定プログラム214の3次元画像の時系列データの解析により、レバー102のようにそれ自体動く(位置が変化する)操作対象については、作業CG種類802は「矢印」に設定され、電流計103やスイッチ、ランプのようにそれ自体動かない(位置が変化しない)操作対象については、作業CG種類802は、操作対象を包含または操作対象に近接する「直方体」に設定される。
 作業CG状態803とは、作業CG種類802で種類が特定されたCGデータの3次元モデル上での位置、方向および大きさを示す情報である。「矢印」の場合、たとえば、操作対象であるレバー102の近傍に配置され、作業動作推定プログラム214の3次元画像の時系列データの解析により、操作方向を示す形状を示す矢印のCGデータとなる。大きさについては、操作対象であるレバー102に応じた大きさとしてもよい。なお、作業CG種類802が「直方体」の場合は、操作対象状態804と同一となるため、作業CG状態803は省略される。
 操作対象状態804とは、レバー102や電流計103などの操作対象の3次元モデル上での位置、方向および大きさを示す情報である。操作対象の位置を直方体データ114で表現する場合、操作対象状態804には、直方体データ114の位置、方向および大きさが指定される。操作対象の位置をたとえば球データで表現する場合には、球データの位置および半径が指定される。操作対象状態804は、作業領域推定プログラム215による作業領域の推定結果である。
 作業内容805とは、実際に作業者Wが実行する行為を示す情報である。たとえば、図1の例では、レバー102の開放操作による作業終了の合図(たとえば、入力装置202からの操作終了の入力)、図4の例では、入力装置202からの電流値の入力、図5および図6の例では、真偽の値の入力である。
 <実作業からのARコンテンツ生成例>
 図9は、実作業からのARコンテンツ生成例1を示す説明図である。図9は、レバー102を開放する動作の例である。この例では、作業者Wの手hはレバー102を掴み、矢印方向にレバー102を操作する。
 作業者Wがこのような作業を行った場合には、管理装置200は、姿勢抽出プログラム213により、作業者Wの姿勢である手hの挙動を、HMD110の3次元カメラ111によって得られた3次元画像の時系列データから抽出する。また、管理装置200は、作業動作推定プログラム214によって、作業者Wの姿勢である手hの挙動から作業動作「レバーの開放操作」を推定する。
 作業動作「レバーの開放操作」が推定されたため、管理装置200は、作業領域推定プログラム215によって、手先の軌跡のbounding boxを用いて作業領域である3次元モデル上での手hの位置を推定する。つぎに、管理装置200は、コンテンツ生成プログラム216のARコンテンツ追加処理によって、ARコンテンツ700に作業コンテンツCi-miを追加する。ここで、追加される作業コンテンツCi-miの作業CG種類802は、姿勢辞書233において、作業動作推定結果である作業動作「レバーの開放操作」に対応する「矢印」となる。
 また、作業CG状態803は、作業動作推定プログラム214による作業動作の推定結果から得られる。操作対象状態804は、作業領域推定プログラム215による作業領域の推定結果から得られる。また、管理装置200は、上述したように、コンテンツ生成プログラム216により、作業動作推定プログラム214によって推定された作業動作から作業内容805である「操作終了」を推定する。
 図10は、実作業からのARコンテンツ生成例2を示す説明図である。図10は、電流計103を読み取る動作の例である。この例では、作業者Wの手hは電流計103を指している。さらに、その後、作業者Wは、入力装置202によって数値を管理装置200に入力する。作業者Wがこのような作業を行った場合には、管理装置200は、姿勢抽出プログラム213により、作業者Wの姿勢である手hの挙動を、HMD110の3次元カメラ111によって得られた3次元画像の時系列データから抽出する。また、管理装置200は、作業動作推定プログラム214によって、作業者Wの姿勢である手hの挙動から作業動作「計器の読み取り」を推定する。
 作業動作「計器の読み取り」が推定されたため、管理装置200は、作業領域推定プログラム215によって、手先の軌跡のbounding boxを用いて作業領域である3次元モデル上での手hの位置を推定する。つぎに、管理装置200は、コンテンツ生成プログラム216のARコンテンツ追加処理によって、ARコンテンツ700に作業コンテンツCi-miを追加する。姿勢辞書233では、作業動作である「計器の読み取り」と作業CG種類802である「直方体」とが対応付けられている。したがって、ここで、追加される作業コンテンツCi-miの作業CG種類802は、「直方体」となる。
 また、作業CG状態803は、作業動作推定プログラム214による作業動作の推定結果から得られる。操作対象状態804は、作業領域推定プログラム215により推定された作業領域の推定結果から得られる。また、管理装置200は、上述したように、コンテンツ生成プログラム216により、作業動作推定プログラム214によって推定された作業動作から作業内容805である「数値入力」を推定する。
 上記のように、作業者Wの作業内容805の推定からARコンテンツ700を生成することが可能である。前述のように、作業内容805の詳細などは、作業から推定することが困難な場合もあるため、ARコンテンツ700の作成後に、必要ならば、管理装置200は、コンテンツ編集プログラム217によってARコンテンツ700の修正が可能である。
 <全体の流れ>
 図11は、ARコンテンツの作成から実行までの全体の処理手順例を示すフローチャートである。まず、管理装置200は、3次元モデル取得プログラム211によって、制御盤101などの作業対象の3次元モデルを取得し、3次元モデルDB231に保存する(ステップS1101)。つぎに、作業者Wが作業対象に対して作業を行い、その作業を用いて管理装置200がARコンテンツ生成処理を実行する(ステップS1102)。ARコンテンツ生成処理(ステップS1102)の詳細については後述する。
 つぎに、管理装置200は、ARコンテンツ編集プログラム217により、ARコンテンツ生成処理(ステップS1102)によって生成されたARコンテンツ700を編集する。この処理では、管理装置200は、ユーザ操作により、ARコンテンツ700にあらたに作業コンテンツを追加したり、作業コンテンツの作業指示説明801、作業CG状態803、操作対象状態804、作業内容805を修正する。たとえば、テキストエディタにより編集したり、3DCGオーサリングプログラムと同様、対話的に編集することが可能である。最後に、管理装置200は、コンテンツ実行プログラム217により、ARコンテンツ700を用いた処理を実行する(ステップS1104)。この処理により、AR技術を用いた作業支援を実現する。
 <ARコンテンツ生成処理(ステップS1102)>
 図12は、図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。まず、作業者Wが作業を開始する(ステップS1201)。つぎに、作業者Wが、作業者Wが装着したHMD110の3次元カメラ111を用いて、当該3次元カメラ111に映し出される3次元空間を撮影することにより、管理装置200は、3次元画像として入力する(ステップS1202)。
 つぎに、管理装置200は、カメラ位置姿勢推定プログラム212によって,HMD110の3次元カメラ111の位置および姿勢をリアルタイムで推定する(ステップS1203)。この3次元画像を用いたカメラの位置姿勢推定は、たとえば、入力された3次元画像とあらかじめ用意した3次元モデルとの位置合わせを行う公知の技術を用いることで実現できる。ここで、3次元カメラ111の位置および姿勢は、3次元モデルを基準とした世界座標系で表現される。
 つぎに、管理装置200は、姿勢抽出プログラム213によって、入力された3次元画像を用いて作業者Wの姿勢を推定する(ステップS1204)。そして、管理装置200は、作業動作推定プログラム214によって、作業者Wの姿勢から作業動作を推定する(ステップS1205)。
 つぎに、管理装置200は、登録されている作業動作を検知したかどうかを判定する(ステップS1206)。すなわち、作業動作推定プログラム214が、推定された作業動作が作業動作推定プログラム214のデータベースに存在するか否かを判断する。作業動作が検知されない場合には(ステップS1206:No)、ステップS1202に戻る。一方、作業動作が検知された場合には(ステップS1206:Yes)、管理装置200は、作業領域推定プログラム215によって、検知された作業動作がおこなわれている作業領域を推定する(ステップS1207)。作業領域の推定は、たとえば、作業動作の推定元となった作業者Wの姿勢が示す位置から決定される。
 つぎに、管理装置200は、コンテンツ生成プログラム216のARコンテンツ追加処理によって、ARコンテンツ700を追加する。ここで、追加されるARコンテンツの作業CG種類802は、ステップS1206において検出された作業動作の種類から設定される。たとえば,作業動作が「レバーの開放操作」の場合には、操作対象が可動するレバーであるため、作業CG種類802は「矢印」である。
 また、作業CG状態803は、作業CG種類802で特定されるCGデータの位置、方向、および大きさである。したがって、この場合の作業CG状態803は、作業領域の推定結果と制御盤101の3次元モデルから得られるレバー102の操作の始点、終点、および方向に該当する矢印データ115となる。操作対象状態804は、作業領域の推定結果と制御盤101の3次元モデルから得られるレバー102を包含する直方体データ114の位置、方向、および大きさである。なお、作業CG種類802、作業CG状態803、および操作対象状態804については、実作業によるARコンテンツ生成処理(ステップS1102)の後で、ARコンテンツ編集処理(ステップS1103)によって修正することが可能である。
 また、管理装置200は、コンテンツ生成プログラム216により、作業内容805を推定する。作業内容805は、作業動作推定プログラム214によって推定された作業動作や作業領域から推定される。具体的には、たとえば、コンテンツ生成プログラム216は、作業動作と、作業内容805と、を対応付けるテーブルを有する。さらに作業領域を対応付けてもよい。たとえば、作業動作が「レバーの開放操作」の場合は、作業内容805は、当該テーブルを参照することにより、「作業終了」を示す情報となる。また、作業動作が「計器の読み取り」で、作業領域が電流計103である場合には、当該テーブルを参照することにより、作業内容805は「電流値の入力」となる。
 つぎに、管理装置200は、作業者Wの作業が終了したかどうかを判定する(ステップS1209)。作業が終了した場合には(ステップS1209:Yes)、コンテンツ作成処理が終了する。作業が終了していない場合には(ステップS1209:No)、3次元画像入力処理(S1202)に戻る。ここで、作業の終了の判定は、入力装置202によって作業者Wが指定することが可能である。あるいは、作業終了用のジェスチャーを用いることも可能である。以上により、作業者Wが実際に作業を行うことで、ARコンテンツ700を生成することができる。
 <ARコンテンツ実行処理(ステップS1104)>
 図13は、図11に示したARコンテンツ実行処理(ステップS1104)の詳細な処理手順例を示すフローチャートである。まず、管理装置200は、作業者Wの操作により、ARコンテンツDB232の中から、実行したいARコンテンツ700の選択を待ち受ける(ステップS1301)。選択された場合(ステップS1301:Yes)、管理装置200は、選択されたARコンテンツ700の作業指示説明801をHMD110に送信し、たとえば、図1に示すように、HMD110のAR画面112に表示させる(ステップS1302)。
 つぎに、管理装置200は、HMD110の3次元カメラ111に映し出されている映像を、3次元画像としてHMD110から取得する(ステップS1303)。そして、管理装置200は、カメラ位置姿勢推定プログラム212によって、HMD110の3次元カメラ111の位置および姿勢をリアルタイムで推定する(ステップS1304)。カメラ位置姿勢推定は、ARコンテンツ作成処理(ステップS1102)のカメラ位置姿勢推定(ステップS1203)と同じ処理である。
 つぎに、管理装置200は、カメラ位置姿勢推定(ステップS1304)によって推定された3次元カメラ111の位置および姿勢を用いて、直方体データ114や矢印データ115などのCGデータをHMD110に送信し、HMD110に表示させる(ステップS1305)。このとき、管理装置200は、作業CG状態803(CGデータの位置、姿勢、および大きさ)で特定される位置、姿勢、および大きさで、図1に示したように、CGデータをHMD110に表示させる。
 このあと、管理装置200は、作業が終了したかどうかを判定する(ステップS1307)。終了したか否かは、入力装置202からの入力によって判定される。現在の作業(たとえば、レバー102の操作)が終了せず、実行中の場合には、入力装置202からの作業終了の入力がないため(ステップS1306:No)、ステップS1303に戻る。一方、AR作業が終了した場合には、入力装置202から作業終了の入力があるため(ステップS1306:Yes)、ステップS1301に戻る。
 ステップS1301において、ARコンテンツが選択されない場合(ステップS1301:No)、ステップS1307に移行する。そして、管理装置200は、全体作業が終了したか否かを判断する(ステップS1307)。終了したか否かは、入力装置202からの入力または選択すべきARコンテンツ700の有無によって判定される。全体作業終了でない場合(ステップS1307:No)、ステップS1301に戻る。一方、全体作業終了である場合(ステップS1307:Yes)、ARコンテンツ実行処理(ステップS1104)を終了する。
 以上のように、実施例1では、作業者Wが実際に作業を行いながらARコンテンツ700を作成することができる。
 実施例1では、あらかじめ作業内容に関する作業手順書301を用意しておき、作業手順書301を参照して、作業動作推定、作業領域推定、コンテンツ追加処理を実行する方法である。実際の作業においては、電子データである作業マニュアルが用意されている場合もあり、実施例2では、作業マニュアルを用いて、より正確なARコンテンツ700を生成する。実施例2では、実施例1との相違点について説明する。
 <ハードウェア構成例>
 図14は、実施例2にかかる管理装置200のハードウェア構成例を示すブロック図である。実施例2では、図2に示した記憶装置205に、照合プログラム1401および作業マニュアル1402が追加される。作業マニュアル1402は、実際の作業に関するマニュアルである。この作業マニュアル1402の内容は、図3の作業手順書301と同じとする。
 また、図8に示した作業指示説明801に関しては、作業マニュアル1402から決定される。たとえば、作業指示説明801は、見出し303,305,313により決定される。
 作業CG種類802は、コンテンツ生成プログラム216により、作業マニュアル1402を用いて推定可能である。たとえば、レバー102の操作においては、作業マニュアル1402に「レバーを開放」とあれば、作業CG種類802は「矢印」に決定される。なお、矢印の方向については、作業領域推定プログラム215によって推定される作業領域の3次元画像の時系列データからレバー102の動きを解析することで特定される。
 作業CG状態803および操作対象状態804は、作業マニュアル1402からは推定できない。ため、管理装置200は、実施例1と同様、作業動作推定プログラム214により作業CG状態803を推定し、作業領域推定プログラム215により操作対象状態804を推定する。
 照合プログラム1401は、作業動作推定プログラム214によって推定された作業動作と作業マニュアル1402の内容とを照合し、作業者Wが行っている動作が、作業マニュアル1402のどの部分に対応しているかを照合する。すなわち、照合処理では、作業動作推定プログラム214によって推定された作業動作と作業マニュアル1402に記載されている作業内容304、306~312、314とが一致するかどうかを判定する。
 <ARコンテンツ作成処理(ステップS1102)>
 図15は、実施例2にかかる、図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。実施例2では、ステップS1206において作業動作推定プログラム214によって推定された作業動作が検知された場合に(ステップS1206:Yes)、管理装置200は、当該作業動作と作業マニュアル1402とを照合する(ステップS1501)。照合された場合には(ステップS1502:Yes)、管理装置200は、作業領域を推定することになる(ステップS1207)。一方、照合されなかった場合は(ステップS1502:No)、ステップS1209に移行する。
 また、ステップS1208において、管理装置200は、作業マニュアル1402から作業指示説明801を特定し、作業コンテンツCi-miに格納する。また、管理装置200は、実施例1と同様に作業内容805を特定し、作業コンテンツCi-miに格納する。
 実施例2によれば、作業マニュアル1402からARコンテンツ700のひな形を作成することができる。管理装置200は、ARコンテンツ700のひな形に対して、作業CG状態803および操作対象状態804を作業者Wの作業から推定し、追加や編集を行うことができる。また、実施例2によれば、作業マニュアル1402を用意することで、ARコンテンツ700を作成することができる。
 実施例3は、実施例1において音声認識を用いることで、作業動作推定、コンテンツ追加処理を、音声認識結果を参考にして実行する方法である。実際の作業においては、音声によって実際の作業内容を発声しながら作業する場合もあり、音声認識結果を用いて、より正確なARコンテンツ700を生成する。実施例3では、実施例1との相違点について説明する。
 <ハードウェア構成例>
 図16は、実施例3にかかる管理装置200のハードウェア構成例を示すブロック図である。実施例3では、図2に示した記憶装置205に、音声認識プログラム1601が追加される。音声認識プログラム1601は、作業者Wの作業中の音声を認識する。ここで、作業者Wは作業中の動作を特定する作業動作名を発声していると仮定する。作業中の発声は、図3に示す作業手順書301における、作業指示説明や見出し、その作業内容の文字列を発声するものとする。たとえば、作業内容306の場合は、作業者Wは、「電流計103を読み取り、電流の値を記録」と発声する。
 <ARコンテンツ作成処理(ステップS1102)>
 図17は、実施例3にかかる、図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。実施例3では、作業領域推定(ステップS1207)のあと、管理装置200は、HMD110からの作業中の作業動作に関する音声を音声認識プログラム1601によって認識し、作業中の動作に関する情報を得る(ステップS1701)。管理装置200は、この情報を用いて、作業指示説明801を決定する。作業CG種類802は、音声認識内容から推定する。そして、ARコンテンツ追加(ステップS1208)が実行される。
 ARコンテンツ追加(ステップS1208)では、たとえば、音声が「レバー開放、レバー102を矢印の向きに操作する」である場合、作業指示説明801は、当該音声から得られる文字列となる。また、作業指示説明801を参照した結果、操作対象が可動するレバーであるため、作業CG種類802は「矢印」となる。
 また、音声が「電流計103を読み取り、電流の値を記録」である場合、作業指示説明801は、当該音声から得られる文字列となる。また、作業指示説明801を参照した結果、操作対象が可動しない電流計であるため、作業CG種類802は「直方体」となる。
 作業CG状態803および操作対象状態804は、音声認識によって得られた作業CG種類802を用いて、実施例1と同様に特定される。また、作業内容805についても、実施例1と同様に特定される。このように、実施例3では、音声認識によってARコンテンツ700を効率的に作成することができる。
 実施例4は、実施例1において、レバー102や電流計103といった操作対象の位置情報を、あらかじめ作業空間100の3次元モデルに与えておく例である。操作対象の位置情報を用いることで、作業動作推定をより高精度に行うことが可能である。たとえば、操作対象がレバー102である場合には、レバー102の位置情報を与えることで、作業者Wの手hの位置から操作対象がレバー102であることが推測できる。さらにレバー102の回転可能な方向などの情報がある場合、作業者Wの動作の詳細をより正確に推定することができる。
 また、操作対象が電流計103,104の場合には、作業者Wの手hの位置から、電流計103,104の値の入力などの対応する動作を推定することが可能である。実施例4では、実施例1との相違点について説明する。
 <ハードウェア構成例>
 図18は、実施例4にかかる管理装置200のハードウェア構成例を示すブロック図である。実施例4では、実施例1の記憶装置205に、作業領域DB1802が追加される。さらに、作業動作推定プログラム214および作業領域推定プログラム215は記憶装置205から削除され、新たに作業領域を参照する第2の作業動作推定プログラム214が追加される。作業領域DB1802には、上述した操作対象の位置情報である作業領域データを有する。作業領域データは、作業空間100の3次元モデルに与えられる。
 <ARコンテンツ作成処理(ステップS1102)>
 図19は、実施例4にかかる、図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。実施例4では、作業動作推定プログラム214および作業領域推定プログラム215が存在しないため、作業動作推定(ステップS1205)および作業領域推定(ステップS1207)は実行されない。そのかわり、管理装置200は、作業者Wの姿勢推定(ステップS1204)のあと、第2の作業動作推定プログラム1801により、作業者Wの作業領域(たとえば、姿勢推定された作業者Wの手hの位置)と作業領域DB1802に記録した作業領域データとを照合する(ステップS1901)。具体的には、たとえば、管理装置200は、作業者Wの作業領域と作業領域データとの間の距離が所定距離以内であるか否かを判断する。作業者Wの作業領域と作業領域データとの間の距離としては、たとえば、3次元カメラ111の位置と作業領域データが示す位置との距離が用いられる。
 作業者Wの作業領域と作業領域データとが所定距離以内である場合には、管理装置200は、作業者Wが作業領域で、作業領域データにより特定される操作対象(たとえば、レバー)を用いた作業動作をおこなっていると検知して(ステップS1206:Yes)、ステップS1208に移行する。
 以上のように実施例4では、作業領域データを事前に設定することで、作業領域を参照して作業動作を推定することができ、ARコンテンツ700をより効率的に作成することができる。
 実施例5は、実施例1において、個々の作業を終了したときに作業の成否を入力するステップと、作業の成否の場合に依存する作業手順を記憶するステップを有する例である。これにより、作業終了時の作業の成否に依存したARコンテンツを生成することができるため、より柔軟性のあるARコンテンツを生成することが可能である。たとえば、電流計103,104の値が定格に入っていない場合など、あらかじめ指定された特定の操作対象について特殊な場合の対処方法を指定することが可能となる。実施例5では、実施例1との相違点について説明する。
 図20は、実施例5にかかる作業コンテンツCi-miのデータ構造例を示す説明図である。作業コンテンツCi-miには、作業指示説明801、作業CG種類802、作業CG状態803、操作対象状態804、作業内容805のほか、条件が非の場合のジャンプ先アドレス2000を有する。ジャンプ先アドレス2000は、作業内容805に成否判定が含まれる場合に、判定が非の場合にジャンプするアドレスであり、たとえば、同一コンテンツCi内の他の作業コンテンツCi-k(k≠mi)のアドレスである。
 たとえば、作業コンテンツCi-miが「電流計の読み取り」に関する作業コンテンツである場合、電流計103,104の値が定格に入っていない場合の特殊な場合の対処方法に関する作業コンテンツを指定するアドレスが、ジャンプ先アドレス2000に格納される。なお、アドレスが「0」の場合には判定が非の場合にもジャンプしないことを示す。
 <ハードウェア構成例>
 図21は、実施例5にかかる管理装置200のハードウェア構成例を示すブロック図である。実施例5では、実施例1の記憶装置205に、終了条件入力プログラム2101が追加される。終了条件入力プログラム2101は、個々の作業が終了したときに、正常終了したかどうかの入力を入力装置202から受け付ける。さらに、実施例5のARコンテンツには、図20に示す作業コンテンツCi-miが含まれる。
 <ARコンテンツ作成処理(ステップS1102)>
 図22は、実施例5にかかる、図11に示したARコンテンツ生成処理(ステップS1102)の詳細な処理手順例を示すフローチャートである。実施例5では、管理装置200は、作業領域推定(ステップS1207)のあと、終了条件入力プログラム2101によって作業の成否判定を入力する(ステップS2201)。この成否に従って、管理装置200は、ARコンテンツの追加処理を変更する。
 すなわち、終了条件が正の場合には、管理装置200は、これまでと同様にコンテンツを追加する(ステップS1208)。終了条件が非の場合には、次の処理は、別のアドレス(たとえば、電流計の値が定格に入っていない場合の特殊な場合の対処方法に関する作業コンテンツを指定するアドレス)に追加することとし、条件が非の場合のジャンプ先アドレスにその別のアドレスを設定する。
 上記のように、終了条件の成否に依存したARコンテンツを生成するためには、複数回、作業者Wが作業を行い、すべての条件におけるARコンテンツを生成する必要がある。実施例5では、作業終了時の作業の成否に依存したARコンテンツを生成することができるため、より柔軟性のあるARコンテンツを生成することが可能である。
 以上に説明したように、本発明の実施例によると、アナログ式の時計と共に出発時刻を見易く表示することができる。また、異なる画面サイズでも同じプログラムで適切な表示することができる。さらに、運行情報と出発情報とを見易く同時に表示することができる。
 以上、本発明を添付の図面を参照して詳細に説明したが、本発明はこのような具体的構成に限定されるものではなく、添付した請求の範囲の趣旨内における様々な変更及び同等の構成を含むものである。

Claims (7)

  1.  プログラムを実行するプロセッサと、前記プログラムを記憶する記憶装置と、を有し、作業対象が存在する作業空間内の3次元カメラと通信可能な管理装置によるコンテンツ生成方法であって、
     前記プロセッサは、
     前記3次元カメラの位置を、前記3次元カメラによって撮影された前記作業空間の動画像と前記作業空間の3次元モデルとに基づいて特定する位置特定処理と、
     前記作業対象に対する作業者の姿勢を前記作業空間の動画像から検出する姿勢検出処理と、
     前記姿勢検出処理によって検出された前記作業者の姿勢により、前記作業対象が有する操作対象に対して前記作業者が行った動作を前記作業空間の動画像から検出する動作検出処理と、
     前記動作検出処理によって検出された動作が特定の動作である場合、前記位置特定処理によって特定された前記3次元カメラの位置に基づいて、前記検出された動作が行われた作業領域を検出する領域検出処理と、
     前記操作対象を前記検出された動作により操作させ、かつ、前記領域検出処理によって検出された作業領域に基づいて前記作業空間の動画像上に表示可能な作業指示に関するコンテンツを生成する生成処理と、
     を実行することを特徴とするコンテンツ生成方法。
  2.  前記生成処理では、前記プロセッサは、前記作業指示に関するコンテンツの種類を、前記検出された動作に応じた内容に設定することを特徴とする請求項1に記載のコンテンツ生成方法。
  3.  前記プロセッサは、
     前記動作検出処理によって検出された動作が特定の動作である場合、前記操作対象に対する操作内容が記述された電子データと、前記検出された動作とを照合する照合処理を実行し、
     前記領域検出処理では、前記プロセッサは、前記照合処理によって照合された場合、前記位置特定処理によって特定された前記3次元カメラの位置に基づいて、前記検出された動作が行われた作業領域を検出することを特徴とする請求項1に記載のコンテンツ生成方法。
  4.  前記プロセッサは、
     前記作業空間からの音声を認識する音声認識処理を実行し、
     前記生成処理では、前記プロセッサは、前記作業指示に関するコンテンツの種類を、前記音声認識処理によって認識された音声に応じた内容に設定することを特徴とする請求項1に記載のコンテンツ生成方法。
  5.  前記プロセッサは、
     前記検出された作業により前記操作対象から得られる情報を入力する入力処理を実行し、
     前記生成処理では、前記プロセッサは、前記作業指示に関するコンテンツに、前記情報に応じた分岐条件の分岐先として他の作業指示に関するコンテンツを指定する情報を設定することを特徴とする請求項1に記載のコンテンツ生成方法。
  6.  プログラムを実行するプロセッサと、前記プログラムを記憶する記憶装置と、を有し、作業対象が存在する作業空間内の3次元カメラと通信可能な管理装置によるコンテンツ生成方法であって、
     前記プロセッサは、
     前記3次元カメラの位置を、前記3次元カメラによって撮影された前記作業空間の動画像と前記作業空間の3次元モデルとに基づいて特定する位置特定処理と、
     前記作業対象に対する作業者の姿勢を前記作業空間の動画像から検出する姿勢検出処理と、
     前記位置特定処理によって特定された前記3次元カメラの位置と、前記作業空間の3次元モデルに含まれている前記作業対象内の操作対象の位置と、に基づいて、前記姿勢検出処理によって検出された姿勢により前記作業者が前記操作対象を操作したことを検出する動作検出処理と、
     前記操作対象を前記動作検出処理によって検出された動作により操作させ、かつ、前記操作対象の位置に基づいて前記作業空間の動画像上に表示可能な作業指示に関するコンテンツを生成する生成処理と、
     を実行することを特徴とするコンテンツ生成方法。
  7.  プログラムを実行するプロセッサと、前記プログラムを記憶する記憶装置と、を有し、作業対象が存在する作業空間内の3次元カメラと通信可能な管理装置であって、
     前記プロセッサは、
     前記3次元カメラの位置を、前記3次元カメラによって撮影された前記作業空間の動画像と前記作業空間の3次元モデルとに基づいて特定する位置特定処理と、
     前記作業対象に対する作業者の姿勢を前記作業空間の動画像から検出する姿勢検出処理と、
     前記姿勢検出処理によって検出された前記作業者の姿勢により、前記作業対象が有する操作対象に対して前記作業者が行った動作を前記作業空間の動画像から検出する動作検出処理と、
     前記動作検出処理によって検出された動作が特定の動作である場合、前記位置特定処理によって特定された前記3次元カメラの位置に基づいて、前記検出された動作が行われた作業領域を検出する領域検出処理と、
     前記操作対象を前記検出された動作により操作させ、かつ、前記領域検出処理によって検出された作業領域に基づいて前記作業空間の動画像上に表示可能な作業指示に関するコンテンツを生成する生成処理と、
     を実行することを特徴とする管理装置。
PCT/JP2014/062673 2014-05-13 2014-05-13 コンテンツ生成方法および管理装置 WO2015173882A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/062673 WO2015173882A1 (ja) 2014-05-13 2014-05-13 コンテンツ生成方法および管理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/062673 WO2015173882A1 (ja) 2014-05-13 2014-05-13 コンテンツ生成方法および管理装置

Publications (1)

Publication Number Publication Date
WO2015173882A1 true WO2015173882A1 (ja) 2015-11-19

Family

ID=54479454

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/062673 WO2015173882A1 (ja) 2014-05-13 2014-05-13 コンテンツ生成方法および管理装置

Country Status (1)

Country Link
WO (1) WO2015173882A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017191351A (ja) * 2016-04-11 2017-10-19 株式会社日立製作所 作業支援システム及び方法
WO2018179230A1 (ja) * 2017-03-30 2018-10-04 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
JP2019121136A (ja) * 2017-12-29 2019-07-22 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
JP2020115284A (ja) * 2019-01-17 2020-07-30 株式会社日立製作所 データ作成システム及びデータ作成方法
JP6777266B1 (ja) * 2019-09-18 2020-10-28 三菱電機株式会社 作業要素分析装置及び作業要素分析方法
JPWO2020110270A1 (ja) * 2018-11-29 2021-09-27 マクセル株式会社 映像表示装置および方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281297A (ja) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology 情報提示装置および情報提示方法
JP2005267033A (ja) * 2004-03-17 2005-09-29 Canon Inc 複合現実感映像蓄積検索方法及び装置
JP2006209664A (ja) * 2005-01-31 2006-08-10 Canon Inc システム、画像処理装置、情報処理方法
JP2006276748A (ja) * 2005-03-30 2006-10-12 Olympus Corp 情報呈示装置、情報呈示方法、及びコンピュータプログラム
JP2011159162A (ja) * 2010-02-02 2011-08-18 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2014056486A (ja) * 2012-09-13 2014-03-27 Hitachi Ltd 画像ネットワークシステム、画像表示端末および画像処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281297A (ja) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology 情報提示装置および情報提示方法
JP2005267033A (ja) * 2004-03-17 2005-09-29 Canon Inc 複合現実感映像蓄積検索方法及び装置
JP2006209664A (ja) * 2005-01-31 2006-08-10 Canon Inc システム、画像処理装置、情報処理方法
JP2006276748A (ja) * 2005-03-30 2006-10-12 Olympus Corp 情報呈示装置、情報呈示方法、及びコンピュータプログラム
JP2011159162A (ja) * 2010-02-02 2011-08-18 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2014056486A (ja) * 2012-09-13 2014-03-27 Hitachi Ltd 画像ネットワークシステム、画像表示端末および画像処理方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017191351A (ja) * 2016-04-11 2017-10-19 株式会社日立製作所 作業支援システム及び方法
WO2018179230A1 (ja) * 2017-03-30 2018-10-04 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
JPWO2018179230A1 (ja) * 2017-03-30 2019-11-14 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
JP2019121136A (ja) * 2017-12-29 2019-07-22 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
JP7017689B2 (ja) 2017-12-29 2022-02-09 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
JPWO2020110270A1 (ja) * 2018-11-29 2021-09-27 マクセル株式会社 映像表示装置および方法
JP7076007B2 (ja) 2018-11-29 2022-05-26 マクセル株式会社 映像表示装置および方法
JP2020115284A (ja) * 2019-01-17 2020-07-30 株式会社日立製作所 データ作成システム及びデータ作成方法
JP7065795B2 (ja) 2019-01-17 2022-05-12 株式会社日立製作所 データ作成システム及びデータ作成方法
JP6777266B1 (ja) * 2019-09-18 2020-10-28 三菱電機株式会社 作業要素分析装置及び作業要素分析方法

Similar Documents

Publication Publication Date Title
WO2015173882A1 (ja) コンテンツ生成方法および管理装置
WO2021073292A1 (zh) 一种ar场景图像处理方法、装置、电子设备及存储介质
US20220398844A1 (en) Shared Augmented Reality Session Recording and Playback
US11678004B2 (en) Recording remote expert sessions
US10685489B2 (en) System and method for authoring and sharing content in augmented reality
KR101990284B1 (ko) 음성인식을 이용한 지능형 인지기술기반 증강현실시스템
Jörg et al. Data-driven finger motion synthesis for gesturing characters
US11156838B2 (en) Mixed reality measurement with peripheral tool
US6545673B1 (en) Three-dimensional CG model generator and recording medium storing processing program thereof
JP5195641B2 (ja) ハーネス検証装置およびハーネス検証プログラム
JP7150894B2 (ja) Arシーン画像処理方法及び装置、電子機器並びに記憶媒体
WO2016084142A1 (ja) 作業支援システム、及び、作業支援方法
KR101751697B1 (ko) 건물 외곽 텍스처링 및 bim 데이터 연계를 통한 투명 객체 가시화 방법 및 장치
US11663680B2 (en) Method and system for automatic work instruction creation
JP4379616B2 (ja) モーションキャプチャデータ補正装置、マルチモーダルコーパス作成システム、画像合成装置、及びコンピュータプログラム
JP7065795B2 (ja) データ作成システム及びデータ作成方法
US10373385B2 (en) Subtractive rendering for augmented and virtual reality systems
KR20190115161A (ko) 3차원 객체 생성 장치
US20230343042A1 (en) Methods and systems using mixed-reality for the creation of insitu cad models
KR20210109758A (ko) 모션 캡쳐를 이용한 문학 작품 속의 3 차원 캐릭터 생성방법
JP2021166091A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
KR101530895B1 (ko) 3차원 캐드로부터 2차원 캐드를 위한 오브젝트 데이터 추출 방법 및 2차원 캐드로부터 3차원 캐드를 위한 오브젝트 데이터 추출 방법
Simón et al. The development of an advanced maintenance training programme utilizing augmented reality
JP6886663B2 (ja) 動作指示生成システム、方法およびプログラム
JP2017199085A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14891725

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14891725

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP