JP2023057382A - System, information processing device, and program - Google Patents

System, information processing device, and program Download PDF

Info

Publication number
JP2023057382A
JP2023057382A JP2021166885A JP2021166885A JP2023057382A JP 2023057382 A JP2023057382 A JP 2023057382A JP 2021166885 A JP2021166885 A JP 2021166885A JP 2021166885 A JP2021166885 A JP 2021166885A JP 2023057382 A JP2023057382 A JP 2023057382A
Authority
JP
Japan
Prior art keywords
image
user
camera
processor
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021166885A
Other languages
Japanese (ja)
Inventor
勝志 松林
Shoji Matsubayashi
晃弘 山下
Akihiro Yamashita
祥太朗 坂上
Shotaro Sakagami
成郎 北原
Shigeo Kitahara
敦 古川
Atsushi Furukawa
哲生 天下井
Tetsuo Amagai
浩伸 畑本
Hironobu Hatamoto
翼 飛鳥馬
Tsubasa Asuma
嘉人 竹下
Yoshito Takeshita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumagai Gumi Co Ltd
Institute of National Colleges of Technologies Japan
Original Assignee
Kumagai Gumi Co Ltd
Institute of National Colleges of Technologies Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumagai Gumi Co Ltd, Institute of National Colleges of Technologies Japan filed Critical Kumagai Gumi Co Ltd
Priority to JP2021166885A priority Critical patent/JP2023057382A/en
Publication of JP2023057382A publication Critical patent/JP2023057382A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Operation Control Of Excavators (AREA)

Abstract

To improve the operability of a working machine by showing a video of the working machine photographed from the outside of the working machine to a user who remotely operates the working machine.SOLUTION: An accepting unit 211 accepts a user's operation from an operator 31 of an input/output device 3. Further, the reception unit 211 receives data on each attitude of a display device 32 and a support 33 with respect to the reference coordinate system from an identification unit 36 of the input/output device 3. A selection unit 212 selects a selection image to be combined with the video captured by a first camera 11 according to the content of the received user's operation. A generation unit 213 generates a composite video by combining the selected image with the video captured by the selected first camera 11 so as to be arranged around the user. An instruction unit 214 transmits the composite image generated by the generation unit 213 to the display device 32 and instructs to display it.SELECTED DRAWING: Figure 2

Description

本発明は、作業機械を遠隔操作するシステムの技術に関する。 The present invention relates to technology of a system for remotely controlling work machines.

車等の移動体からリアルタイムで撮影した映像を遠隔地に転送して表示させ、あたかもその移動体に搭乗しているような感覚をユーザに与えるシステムが開発されている。 2. Description of the Related Art A system has been developed in which an image captured in real time from a mobile object such as a car is transferred to a remote location and displayed, thereby giving the user a feeling as if he or she were on board the mobile object.

特許文献1には、車両の動作に応じた画像を送信して、ユーザに、運転者と旅行しているかのような疑似体験をさせるための画像処理システム、が記載されている。 Patent Literature 1 describes an image processing system for transmitting an image according to the motion of a vehicle and giving the user a simulated experience as if he or she were traveling with a driver.

特許文献2には、仮想空間をレンダリングする際、カメラで撮影した現実空間の映像を解析し、映像内から机上部分の領域を抽出し、抽出した領域内の映像を仮想空間内の机オブジェクトの天板にはめ込み合成するVR機能部が記載されている。 In Patent Document 2, when rendering a virtual space, an image of the real space captured by a camera is analyzed, a desk area is extracted from the image, and the image in the extracted area is used as a desk object in the virtual space. The VR function part that is embedded in the top plate and synthesized is described.

特開2020-145612号公報JP 2020-145612 A 特開2001-103395号公報Japanese Patent Application Laid-Open No. 2001-103395

クレーン車やブルドーザ、ショベルカー等の作業機械を遠隔操作する場合に、ユーザは、例えば作業機械の操縦席や、操縦席に相当する位置から撮影した映像を見ることで、その作業機械の操縦席にいるように各種の判断をすることが可能になる。しかし、作業機械から撮影可能な範囲には限界があり、その作業機械が置かれている状況や周囲の危険等は、その作業機械を外部から撮影した外観画像に現れることもある。 When remotely operating a working machine such as a crane truck, a bulldozer, or an excavator, a user can, for example, see an operator's seat of the working machine or an image taken from a position corresponding to the operator's seat, and thereby understand the operator's seat of the working machine. It is possible to make various judgments as if you were in However, there is a limit to the range that can be photographed from a working machine, and the situation in which the working machine is placed, the surrounding dangers, and the like may appear in an exterior image of the working machine that is photographed from the outside.

本発明の目的の一つは、作業機械の外部からその作業機械を撮影した映像を、その作業機械の遠隔操作をするユーザに見せることでその作業機械の操作性を向上させること、である。 One of the objects of the present invention is to improve the operability of a working machine by showing a user who remotely operates the working machine a video image of the working machine taken from outside the working machine.

本発明の請求項1に係るシステムは、作業機械と、前記作業機械から周囲を撮影する第1カメラと、ユーザの操作を受付ける操作子と、前記第1カメラにより撮影された映像に、複数の画像から前記ユーザの操作に応じて選択された1以上の選択画像を前記周囲に配置されているように合成した合成映像を生成するプロセッサと、前記ユーザの頭部に装着されて、前記合成映像のうち、前記頭部の姿勢に応じた範囲の映像を表示する表示機と、を有するシステムである。 A system according to claim 1 of the present invention includes a work machine, a first camera that captures an image of the surroundings from the work machine, an operator that receives a user's operation, and a plurality of images captured by the first camera. a processor configured to generate a synthesized image obtained by synthesizing one or more selected images selected from the images in accordance with the user's operation so as to be arranged around the image; and a display device for displaying an image in a range corresponding to the posture of the head.

本発明の請求項2に係るシステムは、請求項1に記載の態様において、前記プロセッサは、前記ユーザの操作に応じて、前記選択画像の前記合成映像における位置、大きさ、色相、彩度、明度、の少なくとも1つを変更するシステムである。 In the system according to claim 2 of the present invention, in the aspect according to claim 1, the processor, in accordance with the user's operation, determines the position, size, hue, saturation, A system for changing at least one of brightness.

本発明の請求項3に係るシステムは、請求項1又は2に記載の態様において、前記複数の画像は、前記作業機械の周囲から該作業機械を撮影した外観映像を含むシステムである。 A system according to claim 3 of the present invention is the system according to the aspect of claim 1 or 2, wherein the plurality of images include exterior images of the working machine photographed from the surroundings of the working machine.

本発明の請求項4に係るシステムは、請求項3に記載の態様において、前記プロセッサは、前記外観映像が、前記作業機械の危険を示しているときに、該外観映像を合成した前記合成映像を生成するシステムである。 In the system according to claim 4 of the present invention, in the aspect according to claim 3, when the appearance image indicates danger of the working machine, the processor generates the composite image obtained by synthesizing the appearance image. is a system that generates

本発明の請求項5に係るシステムは、請求項4に記載の態様において、前記プロセッサは、前記外観映像が、前記危険を示しているときに、該危険を示していないときに比べて該外観映像を強調した前記合成映像を生成するシステムである。 In the system according to claim 5 of the present invention, in the aspect according to claim 4, the processor controls the appearance image when the appearance image indicates the danger compared to when the appearance image does not indicate the danger. It is a system for generating the composite video in which the video is emphasized.

本発明の請求項6に係るシステムは、請求項1から5のいずれか1項に記載の態様において、前記作業機械に取り付けられた、前記第1カメラと異なる第2カメラ、を有し、前記複数の画像は、前記第2カメラから撮影した映像を含むシステムである。 Claim 6 of the present invention is the system according to any one of Claims 1 to 5, further comprising a second camera different from the first camera attached to the working machine, A plurality of images is a system including images taken from the second camera.

本発明の請求項7に係るシステムは、請求項1から6のいずれか1項に記載の態様において、前記作業機械の周囲の音を収集するマイクと、前記マイクにより収集された前記音のうち、前記頭部の姿勢に応じた音を放出する放音機と、を有するシステムである。 Claim 7 of the present invention provides a system according to any one of claims 1 to 6, wherein a microphone for collecting ambient sounds of the working machine, and , and a sound emitter that emits a sound according to the posture of the head.

本発明の請求項8に係るシステムは、請求項1から7のいずれか1項に記載の態様において、前記作業機械を複数有し、前記プロセッサは、前記ユーザの操作が、前記選択画像のうち、他の作業機械を示す選択画像を指定して該他の作業機械への乗り換えを指示するものである場合に、該他の作業機械から周囲を撮影する第1カメラにより撮影された映像に、1以上の前記選択画像を合成した合成映像を生成するシステムである。 According to claim 8 of the present invention, in the aspect of any one of claims 1 to 7, the system has a plurality of the work machines, and the processor controls the operation of the user to , when a selection image showing another working machine is specified and a transfer to the other working machine is instructed, the image captured by the first camera that captures the surroundings from the other working machine, It is a system for generating a synthesized video obtained by synthesizing one or more of the selected images.

本発明の請求項9に係るシステムは、請求項1から8のいずれか1項に記載の態様において、前記作業機械は、前記ユーザの操作に応じて稼働するシステムである。 A system according to claim 9 of the present invention is a system according to any one of claims 1 to 8, wherein the work machine operates according to the user's operation.

本発明の請求項10に係るシステムは、請求項1から9のいずれか1項に記載の態様において、前記操作子は、ユーザの視線による前記操作を受付けるシステムである。 A system according to claim 10 of the present invention is the system according to any one of claims 1 to 9, wherein the operator receives the operation by the user's line of sight.

本発明の請求項11に係るシステムは、請求項1から10のいずれか1項に記載の態様において、前記第1カメラが受ける加速度を計測する計測器と、前記ユーザの身体を支持する支持体と、前記計測器により計測された前記加速度に応じて前記支持体を駆動させる駆動機と、を有し、前記表示機は、前記支持体に対する前記頭部の姿勢に応じた範囲の映像を表示するシステムである。 According to claim 11 of the present invention, in the aspect of any one of claims 1 to 10, a system comprising: a measuring device for measuring acceleration received by the first camera; and a driving device that drives the support according to the acceleration measured by the measuring device, and the display device displays an image of a range corresponding to the posture of the head with respect to the support. It is a system that

本発明の請求項12に係るシステムは、請求項1から11のいずれか1項に記載の態様において、前記作業機械の位置を測定する測位機、を有し、前記複数の画像は、前記測位機により測定された前記位置を示す地図を含むシステムである。 Claim 12 of the present invention is the system according to any one of claims 1 to 11, further comprising a positioning device that measures the position of the working machine, wherein the plurality of images are the positioning a system including a map showing the position measured by the aircraft.

本発明の請求項13に係る情報処理装置は、プロセッサを有し、前記プロセッサは、作業機械から周囲を撮影する第1カメラにより撮影された映像に、複数の画像からユーザの操作に応じて選択された1以上の選択画像を前記周囲に配置されているように合成した合成映像を生成し、前記ユーザの頭部に装着された表示機に、前記合成映像のうち、前記頭部の姿勢に応じた範囲の映像を表示させる情報処理装置である。 According to a thirteenth aspect of the present invention, the information processing apparatus has a processor, and the processor selects from a plurality of images according to a user's operation from the image captured by the first camera that captures the surroundings of the working machine. A composite video is generated by synthesizing the one or more selected images so as to be arranged in the surroundings, and a display device attached to the user's head displays the composite video in the posture of the head. It is an information processing device that displays an image in a corresponding range.

本発明の請求項14に係るプログラムは、プロセッサを有するコンピュータに、作業機械から周囲を撮影する第1カメラにより撮影された映像に、複数の画像からユーザの操作に応じて選択された1以上の選択画像を前記周囲に配置されているように合成した合成映像を生成する機能、前記ユーザの頭部に装着された表示機に、前記合成映像のうち、前記頭部の姿勢に応じた範囲の映像を表示させる機能、を実現させるためのプログラムである。 A program according to claim 14 of the present invention stores, in a computer having a processor, one or more images selected from a plurality of images according to a user's operation, in a video captured by a first camera that captures the surroundings of a working machine. A function of generating a composite video in which the selected images are synthesized so as to be arranged in the surroundings, and displaying a range of the composite video corresponding to the posture of the head on the display device attached to the user's head. It is a program for realizing the function of displaying images.

本発明の実施形態に係るシステム9の構成の例を示す図。The figure which shows the example of a structure of the system 9 which concerns on embodiment of this invention. 情報処理装置2の機能的構成の例を示す図。2 is a diagram showing an example of a functional configuration of an information processing device 2; FIG. 外観映像が合成された合成映像の例を示す図。The figure which shows the example of the synthetic|combination image|video by which the exterior image|video was synthesize|combined. 作業機械1の外観を含む外観映像の例を示す図。FIG. 4 is a diagram showing an example of an exterior image including the exterior of the work machine 1;

<実施形態>
<システムの構成>
図1は、本発明の実施形態に係るシステム9の構成の例を示す図である。システム9は、作業機械1に第1カメラ11を設置して、作業機械1により移動する感覚をユーザUに再現して提供するシミュレータシステムである。
<Embodiment>
<System configuration>
FIG. 1 is a diagram showing an example configuration of a system 9 according to an embodiment of the present invention. The system 9 is a simulator system in which a first camera 11 is installed on the work machine 1 to reproduce and provide the user U with the sensation of moving with the work machine 1 .

システム9は、作業機械1、情報処理装置2、入出力装置3、及び外部カメラ4を有する。図1に示すシステム9は、作業機械1、情報処理装置2、入出力装置3、及び外部カメラ4をそれぞれ1つずつ有するが、これらの数はそれぞれ2以上であってもよい。 The system 9 has a working machine 1 , an information processing device 2 , an input/output device 3 and an external camera 4 . The system 9 shown in FIG. 1 has one working machine 1, one information processing device 2, one input/output device 3, and one external camera 4, but the number of each may be two or more.

作業機械1は、土木、建築等の作業に用いられる作業機械であって、例えばショベルカーである。この作業機械1は、例えば、操縦席等から見える光景をカメラで撮影してその映像を情報処理装置2に送る機構を有する。図1に示す作業機械1は、第1カメラ11、第2カメラ12、通信部13、マイク14、計測器15、測位機16、及び稼働部17を有する。 The work machine 1 is a work machine used for civil engineering, construction work, and the like, and is, for example, an excavator. The working machine 1 has a mechanism for capturing a scene seen from the cockpit or the like with a camera and sending the image to the information processing device 2 . A working machine 1 shown in FIG.

第1カメラ11は、作業機械1の例えば操縦席等に取り付けられたカメラであり、作業機械1から周囲を撮影する。図1に示す第1カメラ11は、広角レンズを有する光学系と、その光学系で集光した光に応じて画像データを生成する撮像素子と、の複数の組を有し、これらによって自身の周囲のあらゆる方向を撮像する。この第1カメラ11は、例えば、いわゆる全天球カメラ等と呼ばれるものである。 The first camera 11 is a camera attached to, for example, an operator's seat of the work machine 1 and photographs the surroundings from the work machine 1 . The first camera 11 shown in FIG. 1 has a plurality of sets of an optical system having a wide-angle lens and an imaging device that generates image data according to light condensed by the optical system. Take images in all directions around you. The first camera 11 is, for example, a so-called omnidirectional camera.

なお、第1カメラ11は1つに限らず、2つ以上設けられていてもよい。例えば、複数の第1カメラ11は、作業機械1において操縦席の他に、操縦室の外側(屋根、シャーシ、アーム等)にも設けられていてもよい。 In addition, the number of the first cameras 11 is not limited to one, and two or more may be provided. For example, the plurality of first cameras 11 may be provided outside the operating room (roof, chassis, arm, etc.) in addition to the operator's seat in the work machine 1 .

第2カメラ12は、第1カメラ11とともに作業機械1に取り付けられた、第1カメラ11と異なるカメラである。つまり、第2カメラ12を有するシステム9は、作業機械に取り付けられた、第1カメラとことなる第2カメラを有するシステムの例である。 The second camera 12 is a camera different from the first camera 11 attached to the working machine 1 together with the first camera 11 . That is, the system 9 having the second camera 12 is an example of a system having a second camera different from the first camera attached to the working machine.

図1に示す第2カメラ12は、第1カメラ11が設置された操縦席から、フレームや座席等により死角になる範囲を撮影するカメラである。この第2カメラ12は、例えば、操縦席の後方の外壁に、進行方向の後ろ側に向けて取り付けられており、車輪等の移動装置と道との接地点を撮影する。 The second camera 12 shown in FIG. 1 is a camera that takes an image of a blind spot due to the frame, seat, etc. from the cockpit where the first camera 11 is installed. The second camera 12 is attached, for example, to the outer wall behind the driver's seat facing the rear side in the direction of travel, and photographs the contact point between the moving device such as wheels and the road.

なお、第2カメラ12の数は1つに限らず、なくてもよいし、また、2つ以上であってもよい。例えば、第2カメラ12は、作業機械1の後方のみならず、前方、下方、左右であって、第1カメラ11から死角になる複数箇所に設けられてもよい。 In addition, the number of the second cameras 12 is not limited to one, and may be omitted, or may be two or more. For example, the second cameras 12 may be provided not only in the rear of the work machine 1 but also in front, below, left and right, and at a plurality of locations that are blind spots from the first camera 11 .

マイク14は、作業機械1に取り付けられ、作業機械1の周囲の音を収集するマイクロフォンである。つまり、マイク14を有するシステム9は、作業機械の周囲の音を収集するマイクを有するシステムの例である。 Microphone 14 is a microphone that is attached to work machine 1 and collects sounds around work machine 1 . That is, system 9 with microphone 14 is an example of a system with a microphone that collects sounds around the work machine.

図1に示すマイク14は、例えば、作業機械1の操縦席や、操縦席の天板等に設置される。マイク14は、第1カメラ11や第2カメラ12に内蔵されていてもよい。 The microphone 14 shown in FIG. 1 is installed, for example, on the operator's seat of the working machine 1 or on the top plate of the operator's seat. The microphone 14 may be built in the first camera 11 or the second camera 12 .

計測器15は、第1カメラ11が受ける加速度を計測する計測器である。計測器15は、例えば、圧電型、ピエゾ抵抗型、静電容量型等による三軸加速度センサである。この計測器15は、MEMS(Micro Electro Mechanical Systems)が用いられてもよい。この計測器15は、計測した加速度を示す計測データを生成し、情報処理装置2へ送信する。 The measuring device 15 is a measuring device that measures the acceleration that the first camera 11 receives. The measuring device 15 is, for example, a three-axis acceleration sensor of piezoelectric type, piezoresistive type, capacitance type, or the like. MEMS (Micro Electro Mechanical Systems) may be used for this measuring instrument 15 . The measuring device 15 generates measurement data indicating the measured acceleration and transmits the measurement data to the information processing device 2 .

なお、計測器15が計測する物理量は加速度に限らない。計測器15は、位置を計測してもよい。この場合、情報処理装置2は、例えば、取得した計測データが示す位置を時間で二階微分して第1カメラ11が受ける加速度を求めてもよい。また、計測器15は、第1カメラ11の速度を計測してもよい。この場合、情報処理装置2は、例えば、取得した計測データが示す速度を時間で微分して第1カメラ11が受ける加速度を求めてもよい。 Note that the physical quantity measured by the measuring instrument 15 is not limited to acceleration. The measuring device 15 may measure the position. In this case, the information processing device 2 may obtain the acceleration received by the first camera 11 by, for example, second-order differentiation of the position indicated by the acquired measurement data with respect to time. Also, the measuring device 15 may measure the speed of the first camera 11 . In this case, the information processing device 2 may obtain the acceleration received by the first camera 11 by, for example, differentiating the speed indicated by the acquired measurement data with respect to time.

測位機16は、作業機械1の位置を測定する測位機であり、例えば、全地球航法衛星システム(GNSS: Global Navigation Satellite System)の航法衛星が発信する電波から航法信号を抽出して測位計算をする受信デバイスである。 The positioning device 16 is a positioning device that measures the position of the work machine 1. For example, the positioning device 16 extracts navigation signals from radio waves emitted by navigation satellites of the Global Navigation Satellite System (GNSS) and performs positioning calculations. It is a receiving device that

通信部13は、無線により情報処理装置2と制御信号や映像データ等をやり取りする通信回路を有する。図1に示す通信部13は、例えば、LPWA(Low Power Wide Area)を用いた通信回線を有してもよい。また、作業機械1の移動に伴って通信線を繰り出し、又は収容する機構を有し、この通信線が作業機械1の移動を妨げないのであれば、通信部13は、有線により作業機械1と情報処理装置2とを通信可能に接続してもよい。 The communication unit 13 has a communication circuit for wirelessly exchanging control signals, video data, and the like with the information processing device 2 . The communication unit 13 shown in FIG. 1 may have, for example, a communication line using LPWA (Low Power Wide Area). If a mechanism is provided for extending or housing a communication line as the work machine 1 moves, and if this communication line does not hinder the movement of the work machine 1, the communication unit 13 can communicate with the work machine 1 by wire. The information processing device 2 may be communicably connected.

通信部13は、第1カメラ11、及び第2カメラ12で撮影された映像を示す映像データ、及び計測器15が計測した計測データ、を情報処理装置2へ送信する。また、通信部13は、マイク14が収集した音を示す音声信号、及び測位機16が測定した作業機械1の位置を示す位置データ、を情報処理装置2へ送信する。 The communication unit 13 transmits image data representing images captured by the first camera 11 and the second camera 12 and measurement data measured by the measuring device 15 to the information processing device 2 . Further, the communication unit 13 transmits to the information processing device 2 an audio signal indicating the sound collected by the microphone 14 and position data indicating the position of the work machine 1 measured by the positioning device 16 .

稼働部17は、作業機械1のブーム、アーム、バケット、ショベル等の作業機械や、車輪、無限軌道等の移動装置を制御して、作業機械1を稼働させる構成であり、通信部13を経由して受信した制御信号に基づいてプロセッサが作業機械の油圧出力機構や、ガソリンエンジン、動力伝達機構等を制御する。 The operating unit 17 is configured to operate the working machine 1 by controlling the working machine such as the boom, arm, bucket, shovel, etc. of the working machine 1 and the moving device such as the wheels and the endless track. The processor controls the hydraulic output mechanism, the gasoline engine, the power transmission mechanism, etc. of the work machine based on the control signal received as a result.

情報処理装置2は、例えばコンピュータである。図1に示す情報処理装置2は、プロセッサ21、メモリ22、及び通信部23を有する。 The information processing device 2 is, for example, a computer. The information processing device 2 shown in FIG. 1 has a processor 21 , a memory 22 and a communication section 23 .

プロセッサ21は、メモリ22に記憶されているコンピュータプログラム(以下、単にプログラムという)を読出して実行することにより情報処理装置2の各部を制御する。プロセッサ21は、例えばCPU(Central Processing Unit)である。 Processor 21 controls each part of information processing apparatus 2 by reading and executing a computer program (hereinafter simply referred to as a program) stored in memory 22 . The processor 21 is, for example, a CPU (Central Processing Unit).

通信部23は、無線により情報処理装置2を、作業機械1に通信可能に接続する通信回路である。なお、上述した通り、通信部23は、有線により作業機械1と情報処理装置2とを通信可能に接続してもよい。 The communication unit 23 is a communication circuit that wirelessly connects the information processing device 2 to the work machine 1 so as to be communicable. In addition, as described above, the communication unit 23 may connect the work machine 1 and the information processing device 2 by a cable so as to be able to communicate with each other.

メモリ22は、プロセッサ21に読み込まれるオペレーティングシステム、各種のプログラム、データ等を記憶する記憶手段である。メモリ22は、RAM(Random Access Memory)やROM(Read Only Memory)を有する。なお、メモリ22は、ソリッドステートドライブ、ハードディスクドライブ等を有してもよい。 The memory 22 is storage means for storing an operating system read by the processor 21, various programs, data, and the like. The memory 22 has RAM (Random Access Memory) and ROM (Read Only Memory). Note that the memory 22 may include a solid state drive, hard disk drive, or the like.

入出力装置3は、再現室等に設置され、ユーザに映像、音声等を出力し、ユーザからの操作を入力する装置である。図1に示す入出力装置3は、操作子31、表示機32、支持体33、放音機34、駆動機35、及び特定部36を有する。操作子31、表示機32、放音機34、駆動機35、及び特定部36は、情報処理装置2のプロセッサ21と、例えば、バス経由で接続しており、プロセッサ21により制御される。なお、入出力装置3のこれらの構成は、情報処理装置2の通信部23を経由してプロセッサ21と通信可能に接続されてもよい。 The input/output device 3 is installed in a reproduction room or the like, and is a device for outputting video, audio, etc. to a user and for inputting an operation from the user. The input/output device 3 shown in FIG. The operator 31 , the display device 32 , the sound emitter 34 , the driver 35 , and the identification unit 36 are connected to the processor 21 of the information processing device 2 via, for example, a bus, and controlled by the processor 21 . Note that these components of the input/output device 3 may be communicably connected to the processor 21 via the communication unit 23 of the information processing device 2 .

操作子31は、例えば、ユーザの手、指等が触れるタッチパネルやハンドル、ボタン等で構成され、ユーザの操作を受付ける。操作子31は、表示機32の内部であって、ユーザの眼球を撮影し、ユーザの視線を検知してこの視線による操作を受付けるデバイスであってもよい。この場合、操作子31は、ユーザの視線による前記操作を受付ける操作子の例である。 The manipulator 31 is composed of, for example, a touch panel, a handle, a button, or the like with which a user's hand, finger, or the like touches, and receives a user's operation. The manipulator 31 may be a device that is inside the display device 32, captures the eyeball of the user, detects the line of sight of the user, and receives an operation based on the line of sight. In this case, the manipulator 31 is an example of a manipulator that receives the above-mentioned manipulation by the user's line of sight.

また、操作子31は、ユーザの手や指、瞼、舌、唇等に装着されて、これらの動作により表現されるジェスチャーを特定するウェアラブルデバイスであってもよい。また、操作子31は、ユーザの発する音声を収集し、この音声が示す操作を自然言語解析によって解釈して特定する音声認識デバイスであってもよい。 Also, the manipulator 31 may be a wearable device that is attached to a user's hand, finger, eyelid, tongue, lips, or the like, and specifies a gesture expressed by these actions. Further, the operator 31 may be a voice recognition device that collects voices uttered by the user and interprets and specifies operations indicated by the voices by natural language analysis.

表示機32は、ユーザUの頭部Uhに装着されて、上述した第1カメラ11により撮影された映像を表示する表示機である。表示機32は、例えば上述したHMDである。表示機32は、ユーザUの眼前に配置される液晶ディスプレイによって映像を表示する、いわゆる接眼光学系のHMDでもよい。また、表示機32は、ユーザの網膜に直接、レーザ光等を投影する網膜投影型のHMDでもよい。 The display device 32 is a display device that is mounted on the head Uh of the user U and displays the image captured by the first camera 11 described above. The display device 32 is, for example, the HMD described above. The display device 32 may be a so-called eyepiece optical system HMD that displays an image on a liquid crystal display arranged in front of the user U's eyes. Further, the display device 32 may be a retinal projection type HMD that projects laser light or the like directly onto the user's retina.

支持体33は、ユーザUの身体(すなわち、胴体Ut、及び頭部Uh)を支持する構造物であり、例えば、図1に示す椅子、シート等である。なお、支持体33は、椅子、シート等に限られず、例えば、ユーザUを吊り下げるバンド、ロープ、網等であってもよい。 The support 33 is a structure that supports the body of the user U (that is, the body Ut and the head Uh), and is, for example, the chair, seat, etc. shown in FIG. Note that the support 33 is not limited to a chair, a seat, or the like, and may be, for example, a band, a rope, a net, or the like for suspending the user U.

なお、支持体33が直接、接触して支持するのは、ユーザUの胴体Utであり、頭部Uhは、胴体Utを介して、間接的に支持体33により支持されている。ユーザUは、支持体33に着席した状態で、頭部Uhを拘束されていないので、首を上下左右に振って見る方向を変えることができる。 It should be noted that the body Ut of the user U is directly contacted and supported by the support 33 , and the head Uh is indirectly supported by the support 33 via the body Ut. When the user U is seated on the support 33, the head Uh is not restrained, so the user U can change the viewing direction by shaking the head up, down, left, or right.

駆動機35は、第1カメラ11が受ける加速度に応じて支持体33を駆動させる機構であり、例えば、スチュアート・プラットフォーム等の6自由度のアクチュエータ装置や、1自由度、又は多自由度のアクチュエータ装置等である。 The driving device 35 is a mechanism for driving the support 33 in accordance with the acceleration received by the first camera 11. For example, a 6-DOF actuator device such as a Stewart platform, or a 1-DOF or multi-DOF actuator device equipment and the like.

特定部36は、基準となる座標系(以下、基準座標系という)に対する表示機32、及び支持体33の各姿勢を特定する。ここで、基準座標系とは、支持体33及び駆動機35が設置されている、再現室等における慣性座標系である。 The specifying unit 36 specifies each orientation of the display device 32 and the support 33 with respect to a reference coordinate system (hereinafter referred to as a reference coordinate system). Here, the reference coordinate system is an inertial coordinate system in a reproduction room or the like in which the support 33 and the driving machine 35 are installed.

特定部36は、例えば、いわゆるカメラ方式と呼ばれるポジショントラッキングにより、表示機32、及び支持体33の各姿勢を特定する。この場合、表示機32、及び支持体33にはそれぞれLED(light emitting diode)等の発光素子が設けられている。特定部36は、この表示機32、及び支持体33に設けられた発光素子から照射される赤外線等の光を、例えば、再現室に設置された複数のカメラで捉えることにより、発光素子の位置を特定し、それらの位置から表示機32、及び支持体33の姿勢をそれぞれ特定する。 The specifying unit 36 specifies each posture of the display device 32 and the support 33 by, for example, position tracking called a so-called camera method. In this case, the indicator 32 and the support 33 are each provided with a light emitting element such as an LED (light emitting diode). The specifying unit 36 captures the light such as infrared light emitted from the display device 32 and the light emitting elements provided on the support 33 with, for example, a plurality of cameras installed in the reproduction room, thereby determining the positions of the light emitting elements. are specified, and the postures of the display device 32 and the support 33 are specified from those positions.

なお、特定部36による特定の方式は、上述したものに限られない。例えば、再現室の1箇所以上の位置に固定された1以上の発光素子が赤外線等の光を照射し、照射された光を表示機32、又は支持体33に備えられた複数のカメラや光センサ等で感知してもよい。この場合、特定部36は、表示機32、又は支持体33に含まれる。 Note that the identification method by the identification unit 36 is not limited to the one described above. For example, one or more light-emitting elements fixed at one or more positions in the reproduction chamber irradiate light such as infrared light, and the irradiated light is transmitted to the display device 32 or a plurality of cameras or light sources provided on the support 33. It may be sensed by a sensor or the like. In this case, the identifying portion 36 is included in the display 32 or the support 33 .

また、表示機32は、ユーザUの頭部Uhに取り付けられているため、ユーザUは、頭部Uhを動かすことによって特定部36に表示機32の姿勢の変化を特定させることができる。したがって、特定部36は、この表示機32の姿勢の変化を、上述したジェスチャーとして受け取る操作子31として機能してもよい。 In addition, since the display device 32 is attached to the head Uh of the user U, the user U can cause the specifying unit 36 to specify a change in posture of the display device 32 by moving the head Uh. Therefore, the specifying unit 36 may function as the operator 31 that receives the change in posture of the display device 32 as the gesture described above.

放音機34は、プロセッサ21の制御の下、音を放出するスピーカ等の放音機である。情報処理装置2のプロセッサ21は、通信部13、及び通信部23を介してマイク14により収集された音を示す音声信号を受付けると、この音のうち、特定部36によって特定されるユーザの頭部の姿勢に応じた音を放出する。つまり、この放音機34を有するシステムは、マイクにより収集された音のうち、ユーザの頭部の姿勢に応じた音を放出する放音機を有するシステムの例である。 The sound emitter 34 is a speaker or the like that emits sound under the control of the processor 21 . When the processor 21 of the information processing device 2 receives an audio signal indicating the sound collected by the microphone 14 via the communication unit 13 and the communication unit 23, the user's head specified by the specifying unit 36 is detected from the sound. It emits sound according to the posture of the part. In other words, the system having this sound emitter 34 is an example of a system having a sound emitter that emits sound, among the sounds collected by the microphone, according to the posture of the user's head.

情報処理装置2の通信部23は、作業機械1から、映像データ、音声信号、位置データ、及び計測データを受信する。図1に示す駆動機35は、情報処理装置2のプロセッサ21の制御の下、通信部23が受信した計測データに応じて支持体33を駆動させる。 The communication unit 23 of the information processing device 2 receives video data, audio signals, position data, and measurement data from the work machine 1 . The driving device 35 shown in FIG. 1 drives the support 33 according to the measurement data received by the communication unit 23 under the control of the processor 21 of the information processing device 2 .

情報処理装置2のプロセッサ21は、支持体33に対する表示機32の姿勢に応じた範囲がユーザUに見えるように映像を補正し、補正したその映像を表示機32に表示させる。 The processor 21 of the information processing device 2 corrects the image so that the user U can see the range corresponding to the posture of the display 32 with respect to the support 33, and causes the display 32 to display the corrected image.

例えば、図1に示すプロセッサ21は、特定部36により特定された、基準座標系に対する表示機32、及び支持体33の姿勢を示すデータをそれぞれ受信する。そして、このプロセッサ21は、特定部36が特定した表示機32の姿勢と、支持体33の姿勢と、の差分を用いて、第1カメラ11により撮影された映像を補正する。 For example, the processor 21 shown in FIG. 1 receives data indicating the attitudes of the display device 32 and the support 33 with respect to the reference coordinate system specified by the specifying unit 36, respectively. Then, the processor 21 corrects the image captured by the first camera 11 using the difference between the orientation of the display device 32 and the orientation of the support 33 specified by the specifying unit 36 .

表示機32は、上述した補正された映像をユーザに表示する。つまり、この表示機32は、支持体に対するユーザの頭部の姿勢に応じた範囲の映像を表示する表示機の例である。 The display device 32 displays the corrected image to the user. In other words, the display device 32 is an example of a display device that displays an image in a range corresponding to the posture of the user's head with respect to the support.

外部カメラ4は、作業機械1の周囲から、この作業機械1を撮影するカメラである。外部カメラ4は、例えば情報処理装置2の図示しないインタフェースを介して有線、又は無線で情報処理装置2に接続されている。外部カメラ4は、作業機械1を撮影した映像(外観映像という)をプロセッサ21に供給する。なお、外部カメラ4は、通信部23を介してプロセッサ21に接続されてもよい。 The external camera 4 is a camera that photographs the working machine 1 from the surroundings of the working machine 1 . The external camera 4 is connected to the information processing device 2 by wire or wirelessly via an interface (not shown) of the information processing device 2, for example. The external camera 4 supplies the processor 21 with an image of the working machine 1 (referred to as an exterior image). Note that the external camera 4 may be connected to the processor 21 via the communication section 23 .

<情報処理装置の機能的構成>
図2は、情報処理装置2の機能的構成の例を示す図である。情報処理装置2のプロセッサ21は、メモリ22に記憶されたプログラムを実行することにより、受付部211、選択部212、生成部213、及び指示部214として機能する。なお、図2において、通信部13、及び通信部23は、いずれも省略されている。
<Functional Configuration of Information Processing Device>
FIG. 2 is a diagram showing an example of the functional configuration of the information processing device 2. As shown in FIG. The processor 21 of the information processing device 2 functions as a reception unit 211 , a selection unit 212 , a generation unit 213 and an instruction unit 214 by executing programs stored in the memory 22 . Note that both the communication unit 13 and the communication unit 23 are omitted in FIG.

受付部211は、入出力装置3の操作子31からユーザの操作に応じた信号をバス経由で受信し、このユーザによる操作を受付ける。また、受付部211は、入出力装置3の特定部36から基準座標系に対する表示機32、及び支持体33の各姿勢のデータを受付ける。 The receiving unit 211 receives a signal corresponding to a user's operation from the operator 31 of the input/output device 3 via the bus, and receives this user's operation. The reception unit 211 also receives data on the orientations of the display device 32 and the support 33 with respect to the reference coordinate system from the identification unit 36 of the input/output device 3 .

さらに、受付部211は、作業機械1に設置されたマイク14から音声信号を、計測器15から、計測された加速度を示す計測データを、測位機16から、測定された作業機械1の位置を示す位置データを、それぞれ受付ける。 Further, the reception unit 211 receives an audio signal from the microphone 14 installed on the working machine 1, measurement data indicating the measured acceleration from the measuring device 15, and the measured position of the working machine 1 from the positioning device 16. Each receives the position data indicated.

選択部212は、受付部211が受付けたユーザの操作の内容に応じて、第1カメラ11を選択する。例えば、選択部212は、ユーザの手や視線等によるジェスチャーに応じて、作業機械1を選択し、その操縦席等に設置された第1カメラ11を選択する。1台の作業機械1に複数の第1カメラ11が設置されている場合、選択部212は、選択された作業機械1に設置されたそれら複数の第1カメラ11のうち、予め決められた(いわゆるデフォルトの)第1カメラ11を選択して、これにより撮影された全天球映像を取得すればよい。その後、ユーザが振り返って、選択された第1カメラ11からではバックシートしか見えない範囲に視線が移ったり、その振り返ったユーザの頭部の姿勢が検知されたりしたとき、選択部212は、その視線や頭部の方向に応じて、作業機械1に設けられた複数の第1カメラ11の中からいずれかを選択してもよい。 The selection unit 212 selects the first camera 11 according to the content of the user's operation received by the reception unit 211 . For example, the selection unit 212 selects the work machine 1 and selects the first camera 11 installed in the operator's seat or the like in accordance with a user's hand gesture, line of sight, or the like. When a plurality of first cameras 11 are installed on one work machine 1, the selection unit 212 selects a predetermined ( The so-called default first camera 11 may be selected and an omnidirectional image captured by it may be acquired. Thereafter, when the user turns around and the line of sight shifts to a range where only the backseat can be seen from the selected first camera 11, or when the orientation of the head of the user who turned around is detected, the selection unit 212 One of the plurality of first cameras 11 provided on the work machine 1 may be selected according to the line of sight or the direction of the head.

そして、選択部212は、受付けたユーザの操作の内容に応じて、第1カメラ11により撮影された映像に合成する画像(以下、選択画像という)を選択する。この選択画像の複数のソース(つまり、出力元)の候補には、第2カメラ12、外部カメラ4、及びメモリ22が含まれる。選択部212は、1つの選択画像を選択してもよいし、複数の選択画像を選択してもよい。 Then, the selection unit 212 selects an image (hereinafter referred to as a selected image) to be combined with the image captured by the first camera 11 according to the content of the received user's operation. Candidates for a plurality of sources (that is, output sources) of this selected image include the second camera 12 , the external camera 4 , and the memory 22 . The selection unit 212 may select one selection image, or may select a plurality of selection images.

なお、選択部212は、受付部211が測位機16から受付けた作業機械1の位置データに応じて、この位置データが示す位置を含む地図の画像を、選択画像として、例えば、メモリ22に格納された地図データベースから選択してもよい。この場合、プロセッサ21は、測位機により測定された、作業機械の位置を示す地図を含む複数の画像から、ユーザの操作に応じて選択された1以上の選択画像を、第1カメラ11の周囲に配置されているように合成した合成映像を生成するプロセッサ、の例である。 Note that the selection unit 212 stores, as a selection image, a map image including the position indicated by the position data of the work machine 1 received by the reception unit 211 from the positioning device 16 in the memory 22, for example. map database. In this case, the processor 21 selects one or more selected images according to the user's operation from a plurality of images including a map indicating the position of the working machine measured by the positioning device, and displays the images around the first camera 11. 1 is an example of a processor that generates a synthesized composite video as arranged in the .

生成部213は、選択部212により選択された第1カメラ11により撮影された映像に、上述したソースにより提供される選択画像を、ユーザの周囲に配置されているように合成した合成映像を生成する。 The generation unit 213 generates a composite image by combining the selected image provided by the above-described source with the image captured by the first camera 11 selected by the selection unit 212 so as to be arranged around the user. do.

指示部214は、生成部213が生成した合成映像を表示機32へ送信して、これを表示するように指示をする。指示部214は、上述した通り、特定部36により特定された、基準座標系に対する表示機32、及び支持体33の姿勢を示すデータを用いて、映像を補正する。これにより、ユーザは、生成部213により生成された合成映像を、支持体33に対する表示機32の姿勢に応じた方向に沿って見る。 The instruction unit 214 transmits the synthesized image generated by the generation unit 213 to the display device 32 and instructs to display it. As described above, the instruction unit 214 corrects the image using the data indicating the attitudes of the display device 32 and the support 33 with respect to the reference coordinate system specified by the specifying unit 36 . Thereby, the user views the composite image generated by the generation unit 213 along the direction corresponding to the posture of the display device 32 with respect to the support 33 .

なお、例えば、選択部212は、ユーザの手や視線等によるジェスチャーに応じて、表示機32への指示を列挙したメニューリストを選択してもよい。生成部213は、選択部212により選択されたメニューリストの画像を選択画像として映像に合成し、指示部214は、合成された合成映像を表示機32に表示させる指示をすればよい。これにより、ユーザはメニューリストを見て、さらに操作子31を操作する。 Note that, for example, the selection unit 212 may select a menu list listing instructions to the display device 32 according to gestures made by the user's hand, line of sight, or the like. The generation unit 213 synthesizes the image of the menu list selected by the selection unit 212 with the image as the selected image, and the instruction unit 214 instructs the display device 32 to display the synthesized image. Thereby, the user sees the menu list and further operates the manipulator 31 .

したがって、このプロセッサ21は、作業機械に設置された第1カメラにより撮影された映像に、複数の画像からユーザの操作に応じて選択された1以上の選択画像を、第1カメラの周囲に配置されているように合成した合成映像を生成するプロセッサの例である。 Therefore, the processor 21 arranges one or more selected images selected from a plurality of images according to the user's operation in the image captured by the first camera installed on the work machine, around the first camera. FIG. 11 is an example of a processor that generates a composite video synthesized as shown in FIG.

そして、このプロセッサ21を有する情報処理装置2は、プロセッサを有し、このプロセッサが、作業機械から周囲を撮影する第1カメラにより撮影された映像に、複数の画像からユーザの操作に応じて選択された1以上の選択画像を前記周囲に配置されているように合成した合成映像を生成し、前記ユーザの頭部に装着された表示機に、前記合成映像のうち、前記頭部の姿勢に応じた範囲の映像を表示させる情報処理装置の例である。 The information processing apparatus 2 having this processor 21 has a processor, and this processor selects from a plurality of images in accordance with the user's operation to the image captured by the first camera that captures the surroundings from the working machine. A composite video is generated by synthesizing the one or more selected images so as to be arranged in the surroundings, and a display device attached to the user's head displays the composite video in the posture of the head. It is an example of an information processing device that displays an image of a corresponding range.

また、表示機32は、ユーザの頭部に装着されて、合成映像のうち、頭部の姿勢に応じた範囲の映像を表示する表示機の例である。 Further, the display device 32 is an example of a display device that is worn on the user's head and displays a range of video images corresponding to the orientation of the head among the composite video images.

なお、指示部214は、受付部211がマイク14から受付けた音声信号を放音機34に送信し、この音声信号に応じた音声を出力するように指示してもよい。この場合、放音機34は、作業機械1に設置されたマイク14により収集された周囲の音声を出力する。作業機械1に複数のマイク14が設けられ、入出力装置3に複数の放音機34が設けられている場合、指示部214は、特定部36が特定した支持体33、及び表示機32の姿勢に応じて、複数のマイク14から受付けた音声信号の一部又は全部を合成、変換してそれぞれの放音機34で出力する音声を調整してもよい。 Note that the instruction unit 214 may transmit the audio signal received by the reception unit 211 from the microphone 14 to the sound emitter 34 and instruct to output a sound corresponding to the audio signal. In this case, the sound emitter 34 outputs ambient sounds collected by the microphone 14 installed on the work machine 1 . When the work machine 1 is provided with a plurality of microphones 14 and the input/output device 3 is provided with a plurality of sound emitters 34, the instruction unit 214 selects the support 33 and the indicator 32 specified by the specifying unit 36. Depending on the posture, some or all of the audio signals received from the multiple microphones 14 may be synthesized and converted to adjust the audio output from each sound emitter 34 .

このとき、指示部214は、例えば、第1カメラ11が撮像している全方向のうち、支持体33に対する表示機32の方向に相当する方向を正面とした音像を、放音機34によって再現する。また、マイク14が、第1カメラ11にそれぞれ内蔵されている場合、
選択部212は、受付けたユーザの操作の内容に応じて第1カメラ11を選択するとともに、選択されたその第1カメラに内蔵されているマイク14を選択してもよい。この場合、指示部214は、選択された第1カメラ11に内蔵されているマイク14が収集した音声を、放音機34に再現するよう指示すればよい。
At this time, the instruction unit 214 reproduces, by the sound emitter 34, a sound image whose front is the direction corresponding to the direction of the display device 32 with respect to the support 33 among all the directions captured by the first camera 11. do. Moreover, when the microphone 14 is built in each of the first cameras 11,
The selection unit 212 may select the first camera 11 according to the content of the received user's operation, and select the microphone 14 built in the selected first camera. In this case, the instruction unit 214 may instruct the sound emitter 34 to reproduce the sound collected by the microphone 14 built in the selected first camera 11 .

これによりユーザは、あたかも第1カメラ11、又はマイク14の設置部位にいるときのような音声を聞くことができる。ユーザは、作業機械1の周囲の状況を視覚のみからではなく、聴覚でも、意識的・無意識的のいずれかに関わらず捉えている。そのため、上述した音像の再現によりユーザは、作業機械1に実際に乗った感覚に近い感覚を得ることができ、事故等の予測がし易くなる。 This allows the user to hear sounds as if they were at the location where the first camera 11 or the microphone 14 is installed. The user perceives the surroundings of the work machine 1 not only visually but also audibly, consciously or unconsciously. Therefore, the reproduction of the sound image described above allows the user to obtain a feeling close to the feeling of actually riding the work machine 1, making it easier to predict an accident or the like.

また、指示部214は、計測器15により計測され、受付部211が受付けた加速度を示す計測データに応じて、支持体33を駆動させるように駆動機35に指示をしてもよい。 In addition, the instruction unit 214 may instruct the driving device 35 to drive the support 33 according to the measurement data indicating the acceleration measured by the measuring device 15 and received by the receiving unit 211 .

また、指示部214は、受付部211が操作子31から受付けたユーザの操作に応じて作業機械1を稼働させるように稼働部17に指示をしてもよい。この場合、作業機械1は、ユーザの操作に応じて稼働する作業機械の例である。 Further, the instruction unit 214 may instruct the operation unit 17 to operate the work machine 1 according to the user's operation received by the reception unit 211 from the operator 31 . In this case, the work machine 1 is an example of a work machine that operates according to user's operation.

選択部212が、外部カメラ4をソースとして選択すると、生成部213は、この外部カメラ4によって撮影された作業機械1の外観を示す外観映像を、第1カメラ11の撮影した映像に、選択画像として合成する。 When the selection unit 212 selects the external camera 4 as a source, the generation unit 213 converts the exterior image showing the appearance of the work machine 1 captured by the external camera 4 into the image captured by the first camera 11 as a selected image. Synthesize as

図3は、外観映像が合成された合成映像の例を示す図である。図3に示す映像G1は、作業機械1に設けられた第1カメラ11により撮影された映像である。この映像G1のうち、領域R1には、外部カメラ4が映りこんでいる。 FIG. 3 is a diagram showing an example of a synthesized image obtained by synthesizing an appearance image. A video G1 shown in FIG. The external camera 4 is reflected in the area R1 of the image G1.

図4は、作業機械1の外観を含む外観映像の例を示す図である。図4に示す外観映像G2は、外部カメラ4により撮影されたものである。この外観映像G2のうち、領域R2には、作業機械1が映りこんでいる。 FIG. 4 is a diagram showing an example of an external image including the external appearance of work machine 1. In FIG. An exterior image G2 shown in FIG. 4 is captured by the external camera 4. As shown in FIG. The working machine 1 is reflected in the area R2 of the appearance image G2.

ユーザが、外部カメラ4により撮影された外観映像G2を選択画像として選択する操作を行うと、この操作を受付けて情報処理装置2のプロセッサ21は、外観映像G2を、決められた枠にはめ込む演算を行う。この枠とは、第1カメラ11により撮影される、第1カメラ11の周囲の空間に配置された仮想的な枠である。プロセッサ21は、例えば、この枠の四隅の点に、外観映像G2の四隅が配置されるように、外観映像G2を変形し、変形した外観映像G2cを映像G1に重畳して、図3に示す合成映像を生成する。 When the user performs an operation to select the external image G2 captured by the external camera 4 as a selected image, the processor 21 of the information processing device 2 accepts this operation and performs calculation to fit the external image G2 into a predetermined frame. I do. This frame is a virtual frame that is arranged in the space around the first camera 11 and captured by the first camera 11 . For example, the processor 21 transforms the exterior image G2 so that the four corners of the frame are aligned with the four corners of the frame, superimposes the transformed exterior image G2c on the image G1, and produces the image shown in FIG. Generate composite video.

この場合、プロセッサ21は、作業機械の周囲からこの作業機械を撮影した外観映像を含む複数の画像から、ユーザの操作に応じて選択された1以上の選択画像を、第1カメラ11の周囲に配置されているように合成した合成映像を生成するプロセッサ、の例である。 In this case, the processor 21 displays one or more selected images selected according to the user's operation from a plurality of images including an exterior image of the work machine taken from around the work machine around the first camera 11. 1 is an example of a processor that generates a synthesized image that is synthesized as arranged;

また、選択部212が、第2カメラ12をソースとして選択すると、生成部213は、この第2カメラ12によって撮影された映像を、第1カメラ11の撮影した映像に、選択画像として合成する。この場合、プロセッサ21は、作業機械に取り付けられた、第1カメラと異なる第2カメラから撮影した映像を含む複数の画像から、ユーザの操作に応じて選択された1以上の選択画像を、第1カメラ11の周囲に配置されているように合成した合成映像を生成するプロセッサ、の例である。 Also, when the selection unit 212 selects the second camera 12 as a source, the generation unit 213 synthesizes the image captured by the second camera 12 with the image captured by the first camera 11 as a selected image. In this case, the processor 21 selects one or more selected images according to the user's operation from a plurality of images including images captured by a second camera different from the first camera, which is attached to the work machine. 1 is an example of a processor that generates a synthesized image that is synthesized so as to be arranged around one camera 11. FIG.

<変形例>
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例は組み合わされてもよい。
<Modification>
The above is the description of the embodiment, but the content of this embodiment can be modified as follows. Moreover, the following modifications may be combined.

<1>
上述した実施形態において、システム9が有する情報処理装置2のプロセッサ21は、第1カメラ11により撮影された映像に合成する1以上の選択画像を、複数の画像からユーザの操作に応じて選択していたが、この選択画像の位置、大きさ、色相、彩度、明度、の少なくとも1つを、受付けたユーザの操作に応じて変更してもよい。この場合、このプロセッサ21は、ユーザの操作に応じて、選択画像の合成映像における位置、大きさ、色相、彩度、明度、の少なくとも1つを変更するプロセッサの例である。これにより、ユーザは、第1カメラ11が撮影した映像に合成する選択画像の位置、大きさ、色相、彩度、明度、の少なくとも1つを変更することができる。
<1>
In the above-described embodiment, the processor 21 of the information processing device 2 included in the system 9 selects one or more selection images to be combined with the video captured by the first camera 11 from a plurality of images in accordance with the user's operation. However, at least one of the position, size, hue, saturation, and brightness of the selected image may be changed according to the received user's operation. In this case, this processor 21 is an example of a processor that changes at least one of the position, size, hue, saturation, and brightness of the selected image in the composite video according to the user's operation. This allows the user to change at least one of the position, size, hue, saturation, and brightness of the selected image to be combined with the video captured by the first camera 11 .

<2>
上述した実施形態において、システム9が有する情報処理装置2のプロセッサ21は、1以上の選択画像を、複数の画像からユーザの操作に応じて選択していたが、ユーザの操作によらずに1以上の選択画像を選択してもよい。例えば、プロセッサ21は、外部カメラ4が作業機械1を撮影した外観映像が、作業機械1の危険を示しているか否かを判断して、この判断に基づき選択画像を選択してもよい。この場合、プロセッサ21は、外観映像に対して、例えば、深層学習を用いた物体検出を行い、作業機械1が学習済みの危険状態に直面しているか否かを判断する。ここでいう、危険とは、作業機械1が移動し続けることにより、岩や他の作業機械等の障害物や、通行人等に衝突する事象等をいう。
<2>
In the above-described embodiment, the processor 21 of the information processing device 2 included in the system 9 selects one or more selected images from a plurality of images according to user's operation. Any of the above selected images may be selected. For example, the processor 21 may determine whether or not the exterior image captured by the external camera 4 of the work machine 1 indicates danger to the work machine 1, and select the selected image based on this determination. In this case, the processor 21 performs object detection using, for example, deep learning on the exterior image, and determines whether or not the work machine 1 is facing a learned dangerous state. Here, the term "danger" refers to an event that the working machine 1 collides with an obstacle such as a rock or another working machine, or a passerby or the like, as the working machine 1 continues to move.

そして、外観映像が作業機械1の危険を示している、と判断するとき、プロセッサ21は、この外観映像を選択画像として選択し、第1カメラ11が撮影した映像に合成して、合成映像を生成してもよい。 Then, when it is determined that the appearance image indicates danger of the work machine 1, the processor 21 selects this appearance image as the selected image, combines it with the image captured by the first camera 11, and produces a composite image. may be generated.

したがって、このプロセッサ21は、外観映像が、作業機械の危険を示しているときに、この外観映像を合成した合成映像を生成するプロセッサの例である。 Therefore, this processor 21 is an example of a processor that generates a composite image by synthesizing the exterior image when the exterior image indicates danger to the working machine.

<3>
また、システム9が有する情報処理装置2のプロセッサ21は、外部カメラ4が作業機械1を撮影した外観映像が、作業機械1の危険を示していると判断するときに、第1カメラ11が撮影した映像に合成する際に、この外観映像を強調してもよい。
<3>
In addition, when the processor 21 of the information processing device 2 included in the system 9 determines that the exterior image captured by the external camera 4 of the work machine 1 indicates danger of the work machine 1, the first camera 11 captures the image. This exterior image may be emphasized when synthesizing it with the captured image.

外観映像を強調する具体的な態様は、例えば、外観映像の輪郭に描かれる枠の色を、例えば無色から赤色に変更したり、枠の太さを太くしたり、外観映像に重ねて文字や数字、記号、イラスト等が表示されたりするものが挙げられる。 Specific aspects of emphasizing the exterior image include, for example, changing the color of the frame drawn on the outline of the exterior image from colorless to red, increasing the thickness of the frame, and superimposing text and text on the exterior image. Examples include those that display numbers, symbols, illustrations, and the like.

このプロセッサ21は、外観映像が作業機械の危険を示しているときに、危険を示していないときに比べてこの外観映像を強調した合成映像を生成するプロセッサの例である。これにより、ユーザは、作業機械1が危険を示しているときの外観映像と、そうでないときの外観映像とを区別することができる。 This processor 21 is an example of a processor that generates a composite image that emphasizes the exterior image when the exterior image indicates a danger to the working machine compared to when the exterior image does not indicate the danger. This allows the user to distinguish between the exterior image when the work machine 1 is showing danger and the exterior image when it is not.

<4>
上述した実施形態において、システム9が有する情報処理装置2のプロセッサ21は、受付けたユーザの操作の内容に応じて、第1カメラ11を選択していたが、このときのユーザの操作は、選択画像の候補のうち、作業機械1と異なる作業機械(つまり、他の作業機械)を示す選択画像を指定して、その作業機械への乗り換えを指示するものであってもよい。乗り換えが指示されると、プロセッサ21は、現在、選択されている作業機械1の第1カメラ11を、指示された「他の作業機械」が有する第1カメラ11に変更すればよい。
<4>
In the above-described embodiment, the processor 21 of the information processing device 2 included in the system 9 selects the first camera 11 according to the details of the received user operation. A selected image showing a working machine different from the working machine 1 (that is, another working machine) may be designated from among the image candidates, and a transfer to that working machine may be instructed. When the transfer is instructed, the processor 21 may change the first camera 11 of the currently selected working machine 1 to the first camera 11 of the instructed "other working machine".

ここで、他の作業機械を示す選択画像とは、その作業機械の型番やロットナンバーを示す記号が描かれた画像であってもよいし、その作業機械の外観を撮影した画像であってもよい。さらに、「他の作業機械」を示す選択画像は、その作業機械を外部カメラ4で撮影した画像であってもよい。なお、乗り換えを指示する操作は、予め決められたジェスチャー等とのパターンマッチングをプロセッサ21が行うことにより、検出されてもよい。 Here, the selected image indicating the other working machine may be an image in which a symbol indicating the model number or lot number of the working machine is drawn, or an image of the appearance of the working machine. good. Furthermore, the selected image indicating “another working machine” may be an image of the working machine captured by the external camera 4 . Note that the operation of instructing a transfer may be detected by the processor 21 performing pattern matching with a predetermined gesture or the like.

また、例えば、操作子31がユーザの視線による操作を受付けるデバイスである場合、ユーザが他の作業機械を示す選択画像を一定の時間以上にわたって見続けたことを操作子31が検知したときに、プロセッサ21は、この視線による操作を、見続けられた他の作業機械への乗り換えを指示する操作として解釈してもよい。 Further, for example, in the case where the operator 31 is a device that accepts operations based on the user's line of sight, when the operator 31 detects that the user continues to look at a selected image showing another working machine for a certain period of time or longer, The processor 21 may interpret this line-of-sight operation as an instruction to switch to another work machine that has been watched.

ユーザの操作に応じて、第1カメラ11を変更すると、プロセッサ21は、変更後の第1カメラ11により撮影された、その第1カメラ11を搭載する作業機械1から見た周囲の映像に、1以上の選択画像を合成した合成映像を生成して、表示機32に表示させる。これにより、ユーザは、選択画像に対して、乗り換え操作を行うだけで、操作する作業機械1を変更する「乗り換え」を行うことができる。 When the first camera 11 is changed according to the user's operation, the processor 21 adds the following to the surrounding image captured by the changed first camera 11 as viewed from the work machine 1 on which the first camera 11 is mounted: A synthesized image obtained by synthesizing one or more selected images is generated and displayed on the display device 32 . As a result, the user can change the work machine 1 to be operated by simply performing a transfer operation on the selected image.

この場合、このプロセッサ21は、ユーザの操作が、選択画像のうち、他の作業機械を示す選択画像を指定して、その作業機械への乗り換えを指示するものである場合に、その作業機械から周囲を撮影する第1カメラにより撮影された映像に、1以上の選択画像を合成した合成映像を生成するプロセッサの例である。 In this case, when the user's operation designates a selection image showing another work machine among the selection images and instructs to transfer to that work machine, the processor 21 This is an example of a processor that generates a synthesized image by synthesizing one or more selected images with an image captured by a first camera that captures surroundings.

<5>
情報処理装置2のプロセッサ21によって実行されるプログラムは、プロセッサを有するコンピュータに、作業機械から周囲を撮影する第1カメラにより撮影された映像に、複数の画像からユーザの操作に応じて選択された1以上の選択画像を前記周囲に配置されているように合成した合成映像を生成する機能、前記ユーザの頭部に装着された表示機に、前記合成映像のうち、前記頭部の姿勢に応じた範囲の映像を表示させる機能、を実現させるためのプログラムとして観念され得る。
<5>
A program executed by the processor 21 of the information processing device 2 is selected from a plurality of images in accordance with a user's operation, in the computer having the processor, the image captured by the first camera that captures the surroundings from the working machine. A function of generating a composite image in which one or more selected images are synthesized so as to be arranged around the user, and displaying the composite image on a display device attached to the user's head according to the posture of the head. It can be thought of as a program for realizing the function of displaying an image in the specified range.

このプログラムは、磁気テープ及び磁気ディスク等の磁気記録媒体、光ディスク等の光記録媒体、光磁気記録媒体、半導体メモリ等の、コンピュータ装置が読取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムは、インターネット等の通信回線経由でダウンロードされてもよい。なお、上述したプロセッサ21によって例示した制御手段としてはCPU以外にも種々の装置が適用される場合があり、例えば、専用のプロセッサ等が用いられる。 This program can be provided in a state stored in a computer-readable recording medium such as magnetic recording media such as magnetic tapes and magnetic disks, optical recording media such as optical discs, magneto-optical recording media, and semiconductor memories. Also, this program may be downloaded via a communication line such as the Internet. Various devices other than the CPU may be applied as the control means exemplified by the processor 21 described above, and for example, a dedicated processor or the like may be used.

<6>
上述した実施形態において、入出力装置3は、支持体33、及び駆動機35を有していたが、これらを有しなくてもよい。この場合、特定部36は、表示機32の基準座標系における姿勢のみを特定し、支持体33の姿勢を特定しなくてよい。
<6>
In the above-described embodiment, the input/output device 3 has the support 33 and the drive 35, but may not have these. In this case, the specifying unit 36 may specify only the orientation of the display device 32 in the reference coordinate system and not the orientation of the support 33 .

また、この場合、プロセッサ21は、特定部36が特定した表示機32の姿勢の情報に基づいて第1カメラ11により撮影された映像を補正すればよい。また、プロセッサ21は、第1カメラ11により撮影された映像を補正しなくてもよい。この場合、入出力装置3は、表示機32の姿勢を特定する特定部36を有しなくてもよい。 Also, in this case, the processor 21 may correct the image captured by the first camera 11 based on the orientation information of the display device 32 specified by the specifying unit 36 . Also, the processor 21 does not have to correct the image captured by the first camera 11 . In this case, the input/output device 3 may not have the specifying unit 36 that specifies the orientation of the display device 32 .

1…作業機械、11…第1カメラ、12…第2カメラ、13…通信部、14…マイク、15…計測器、16…測位機、17…稼働部、2…情報処理装置、21…プロセッサ、211…受付部、212…選択部、213…生成部、214…指示部、22…メモリ、23…通信部、3…入出力装置、31…操作子、32…表示機、33…支持体、34…放音機、35…駆動機、36…特定部、4…外部カメラ、9…システム。 DESCRIPTION OF SYMBOLS 1... Working machine, 11... 1st camera, 12... 2nd camera, 13... Communication part, 14... Microphone, 15... Measuring instrument, 16... Positioning device, 17... Operation part, 2... Information processing apparatus, 21... Processor , 211... reception unit, 212... selection unit, 213... generation unit, 214... instruction unit, 22... memory, 23... communication unit, 3... input/output device, 31... operator, 32... display device, 33... support body , 34... Sound emitting device, 35... Driving device, 36... Specific unit, 4... External camera, 9... System.

Claims (14)

作業機械と、
前記作業機械から周囲を撮影する第1カメラと、
ユーザの操作を受付ける操作子と、
前記第1カメラにより撮影された映像に、複数の画像から前記ユーザの操作に応じて選択された1以上の選択画像を前記周囲に配置されているように合成した合成映像を生成するプロセッサと、
前記ユーザの頭部に装着されて、前記合成映像のうち、前記頭部の姿勢に応じた範囲の映像を表示する表示機と、を有するシステム。
a working machine;
a first camera that captures an image of the surroundings from the work machine;
an operator that accepts a user's operation;
a processor for generating a synthesized image obtained by synthesizing one or more selected images selected from a plurality of images in accordance with the user's operation with the image captured by the first camera so as to be arranged around the image;
and a display device mounted on the head of the user for displaying an image in a range corresponding to the posture of the head out of the composite image.
前記プロセッサは、
前記ユーザの操作に応じて、前記選択画像の前記合成映像における位置、大きさ、色相、彩度、明度、の少なくとも1つを変更する
請求項1に記載のシステム。
The processor
2. The system according to claim 1, wherein at least one of position, size, hue, saturation, and brightness of said selected image in said synthesized video is changed according to said user's operation.
前記複数の画像は、前記作業機械の周囲から該作業機械を撮影した外観映像を含む
請求項1又は2に記載のシステム。
The system according to claim 1 or 2, wherein the plurality of images include exterior images of the work machine taken from around the work machine.
前記プロセッサは、
前記外観映像が、前記作業機械の危険を示しているときに、該外観映像を合成した前記合成映像を生成する
請求項3に記載のシステム。
The processor
4. The system of claim 3, wherein the composite image is generated by combining the exterior image when the exterior image indicates a danger to the work machine.
前記プロセッサは、
前記外観映像が、前記危険を示しているときに、該危険を示していないときに比べて該外観映像を強調した前記合成映像を生成する
請求項4に記載のシステム。
The processor
5. The system of claim 4, wherein when the appearance image indicates the danger, the composite image is generated that emphasizes the appearance image compared to when the appearance image does not indicate the danger.
前記作業機械に取り付けられた、前記第1カメラと異なる第2カメラ、を有し、
前記複数の画像は、前記第2カメラから撮影した映像を含む
請求項1から5のいずれか1項に記載のシステム。
a second camera attached to the work machine and different from the first camera;
6. The system according to any one of claims 1 to 5, wherein said plurality of images includes images taken from said second camera.
前記作業機械の周囲の音を収集するマイクと、
前記マイクにより収集された前記音のうち、前記頭部の姿勢に応じた音を放出する放音機と、を有する
請求項1から6のいずれか1項に記載のシステム。
a microphone that collects sounds around the work machine;
7. The system according to any one of claims 1 to 6, further comprising a sound emitter that emits a sound corresponding to the posture of the head among the sounds collected by the microphone.
前記作業機械を複数有し、
前記プロセッサは、
前記ユーザの操作が、前記選択画像のうち、他の作業機械を示す選択画像を指定して該他の作業機械への乗り換えを指示するものである場合に、該他の作業機械から周囲を撮影する第1カメラにより撮影された映像に、1以上の前記選択画像を合成した合成映像を生成する
請求項1から7のいずれか1項に記載のシステム。
Having a plurality of the working machines,
The processor
When the user's operation designates a selected image showing another working machine among the selected images and instructs to transfer to the other working machine, the surroundings are photographed from the other working machine. 8. The system according to any one of claims 1 to 7, wherein a synthesized image is generated by synthesizing one or more of the selected images with an image captured by the first camera.
前記作業機械は、前記ユーザの操作に応じて稼働する
請求項1から8のいずれか1項に記載のシステム。
The system according to any one of claims 1 to 8, wherein the work machine operates according to the user's operation.
前記操作子は、ユーザの視線による前記操作を受付ける
請求項1から9のいずれか1項に記載のシステム。
The system according to any one of Claims 1 to 9, wherein the manipulator receives the manipulation by a user's line of sight.
前記第1カメラが受ける加速度を計測する計測器と、
前記ユーザの身体を支持する支持体と、
前記計測器により計測された前記加速度に応じて前記支持体を駆動させる駆動機と、
を有し、
前記表示機は、前記支持体に対する前記頭部の姿勢に応じた範囲の映像を表示する
請求項1から10のいずれか1項に記載のシステム。
a measuring instrument for measuring the acceleration received by the first camera;
a support for supporting the user's body;
a driving machine that drives the support according to the acceleration measured by the measuring instrument;
has
11. The system according to any one of claims 1 to 10, wherein said display displays an image of a range according to the posture of said head with respect to said support.
前記作業機械の位置を測定する測位機、を有し、
前記複数の画像は、前記測位機により測定された前記位置を示す地図を含む
請求項1から11のいずれか1項に記載のシステム。
a positioning device that measures the position of the work machine;
12. The system according to any one of claims 1 to 11, wherein said plurality of images includes a map showing said position measured by said positioning device.
プロセッサを有し、前記プロセッサは、
作業機械から周囲を撮影する第1カメラにより撮影された映像に、複数の画像からユーザの操作に応じて選択された1以上の選択画像を前記周囲に配置されているように合成した合成映像を生成し、
前記ユーザの頭部に装着された表示機に、前記合成映像のうち、前記頭部の姿勢に応じた範囲の映像を表示させる
情報処理装置。
a processor, the processor comprising:
A composite image obtained by synthesizing one or more selected images selected from a plurality of images in accordance with a user's operation with an image captured by a first camera that captures the surroundings from the working machine so as to be arranged in the surroundings. generate and
An information processing apparatus that causes a display device attached to the user's head to display an image in a range corresponding to the posture of the head out of the composite image.
プロセッサを有するコンピュータに、
作業機械から周囲を撮影する第1カメラにより撮影された映像に、複数の画像からユーザの操作に応じて選択された1以上の選択画像を前記周囲に配置されているように合成した合成映像を生成する機能、
前記ユーザの頭部に装着された表示機に、前記合成映像のうち、前記頭部の姿勢に応じた範囲の映像を表示させる機能、
を実現させるためのプログラム。
a computer having a processor,
A composite image obtained by synthesizing one or more selected images selected from a plurality of images in accordance with a user's operation with an image captured by a first camera that captures the surroundings from the working machine so as to be arranged in the surroundings. function to generate,
A function of displaying an image of a range corresponding to the posture of the head out of the composite image on the display device attached to the user's head,
program to make it happen.
JP2021166885A 2021-10-11 2021-10-11 System, information processing device, and program Pending JP2023057382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021166885A JP2023057382A (en) 2021-10-11 2021-10-11 System, information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021166885A JP2023057382A (en) 2021-10-11 2021-10-11 System, information processing device, and program

Publications (1)

Publication Number Publication Date
JP2023057382A true JP2023057382A (en) 2023-04-21

Family

ID=86006252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021166885A Pending JP2023057382A (en) 2021-10-11 2021-10-11 System, information processing device, and program

Country Status (1)

Country Link
JP (1) JP2023057382A (en)

Similar Documents

Publication Publication Date Title
US11237594B2 (en) Headset computer that uses motion and voice commands to control information display and remote devices
US9884248B2 (en) Display control method for head-mounted display (HMD) and image generation device
US11755122B2 (en) Hand gesture-based emojis
US10996757B2 (en) Methods and apparatus for generating haptic interaction for virtual reality
KR101850028B1 (en) Device for virtual tour experience and method thereof
US20120293506A1 (en) Avatar-Based Virtual Collaborative Assistance
WO2015180497A1 (en) Motion collection and feedback method and system based on stereoscopic vision
US20130293466A1 (en) Operation device
JP7287257B2 (en) Image processing device, display system, program and image processing method
JP5013398B2 (en) Mixed reality system and event input method
JP2010257081A (en) Image procession method and image processing system
JP7268130B2 (en) Head-mounted information processing device
US6149435A (en) Simulation method of a radio-controlled model airplane and its system
JP2023057382A (en) System, information processing device, and program
JP2018164223A (en) Display system
US20220230357A1 (en) Data processing
WO2021002116A1 (en) Information processing device, information processing method, and program
US20240255991A1 (en) Headset Computer That Uses Motion And Voice Commands To Control Information Display And Remote Devices
WO2022149496A1 (en) Entertainment system and robot
US20240087334A1 (en) Information process system
JPH09305788A (en) Information processor
JP2022142517A (en) Image display control device, image display control system and image display control method
CN117596380A (en) Augmented reality device display method, augmented reality device, and readable storage medium
JP2018206103A (en) Head-mounted display and work support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240711