JP2019167220A - Ambient monitoring system for service vehicle, service vehicle, display method and program - Google Patents

Ambient monitoring system for service vehicle, service vehicle, display method and program Download PDF

Info

Publication number
JP2019167220A
JP2019167220A JP2018057687A JP2018057687A JP2019167220A JP 2019167220 A JP2019167220 A JP 2019167220A JP 2018057687 A JP2018057687 A JP 2018057687A JP 2018057687 A JP2018057687 A JP 2018057687A JP 2019167220 A JP2019167220 A JP 2019167220A
Authority
JP
Japan
Prior art keywords
image
display
camera
calibration information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018057687A
Other languages
Japanese (ja)
Other versions
JP7047521B2 (en
Inventor
藤岡 晃
Akira Fujioka
晃 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tadano Ltd
Original Assignee
Tadano Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tadano Ltd filed Critical Tadano Ltd
Priority to JP2018057687A priority Critical patent/JP7047521B2/en
Publication of JP2019167220A publication Critical patent/JP2019167220A/en
Application granted granted Critical
Publication of JP7047521B2 publication Critical patent/JP7047521B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

To provide an ambient monitoring system for a service car, a service vehicle, a display method, and a program that are easy to handle while suppressing an increase in the number of parts.SOLUTION: An ambient monitoring system 100 for a service car includes a storage unit 31 and control unit 30. The storage unit 31 stores calibration information for converting an image captured by a left camera 11 and a right camera 12 installed in the service vehicle into an image in a form that can be visually recognized by a person. The control unit 30 cuts out a part of the surrounding video images captured by the left camera 11 and the right camera 12 according to the calibration information, and generates a planar image that allows a person to visually recognize the cut image. The service vehicle includes an ambient monitoring system 100 for the service vehicle.SELECTED DRAWING: Figure 5

Description

本発明は、作業車用の周囲監視システム、作業車、表示方法、及びプログラムに関する。   The present invention relates to a surrounding monitoring system for a work vehicle, a work vehicle, a display method, and a program.

吊り荷を視認できない状態でクレーンを操作する必要がある場合がある。特許文献1には、この種の操作を容易にするため、ブームの先端に設けられた吊り荷監視用カメラで映像を取得して、表示装置に表示する技術が開示されている。   It may be necessary to operate the crane with no load visible. Patent Document 1 discloses a technique for acquiring an image with a hanging load monitoring camera provided at the tip of a boom and displaying the image on a display device in order to facilitate this kind of operation.

特開2013―142037号公報JP 2013-142037 A

移動式クレーンの多くは、走行時には、キャビンよりも前方にブームの先端が位置する。このため、交差点等では、周囲を確認し、ブームの先端が周囲の建造物、他の車両等に衝突しないように注意する必要がある。そこで、ブームの先端に左右一対のサイドカメラを設け、サイドカメラからの映像をモニタに表示することにより、オペレータにブーム先端の左右方向の状況を報知する方法が考えられる。   In many mobile cranes, the tip of the boom is positioned in front of the cabin when traveling. For this reason, at intersections and the like, it is necessary to check the surroundings and be careful so that the tip of the boom does not collide with surrounding buildings or other vehicles. Therefore, a method of informing the operator of the situation in the left-right direction of the boom tip by providing a pair of left and right side cameras at the tip of the boom and displaying an image from the side camera on the monitor can be considered.

しかし、特許文献1に開示されているクレーンにこの方法を単純に適用すると、ブームの先端に、吊り荷監視用のカメラと一対のサイドカメラの計3台のカメラを取り付ける必要がある。ブームの先端にカメラを取り付けるためには、カメラに加えて、カメラからキャビンに延在する信号線、ブームの伸縮に合わせて信号線の伸長と巻き取りとを行うコードリール、等の部品も必要となる。   However, if this method is simply applied to the crane disclosed in Patent Document 1, it is necessary to attach a total of three cameras, a suspended load monitoring camera and a pair of side cameras, to the tip of the boom. To attach the camera to the tip of the boom, in addition to the camera, parts such as a signal line extending from the camera to the cabin and a cord reel that extends and winds up the signal line as the boom expands and contracts are required. It becomes.

カメラ1台に1本の信号線が必要であり、1本の信号線に1つのコードリールが必要である。このため、3台のカメラを取り付けるためには、3台のカメラに加えて、3本の信号線と3つのコードリールとが必要になる。   One signal line is required for one camera, and one cord reel is required for one signal line. For this reason, in order to attach three cameras, in addition to the three cameras, three signal lines and three cord reels are required.

さらに、ブームの伸縮に合わせて、3つのコードリールで、3本の信号線の伸長と巻き取りとを行う必要がある。この場合、ブームの伸長時に、信号線同士が絡まらないように、また、周囲の部材に引っかからないように、適切な張力で信号線の伸長と巻き取りを行う必要がある。従って、信号線の引き回し及びコードリールの制御が複雑となる。   Furthermore, it is necessary to extend and wind up three signal lines with three cord reels in accordance with the expansion and contraction of the boom. In this case, it is necessary to extend and wind up the signal line with an appropriate tension so that the signal lines are not entangled when the boom is extended and the surrounding members are not caught. This complicates signal line routing and cord reel control.

このように、ブームの先端に3台のカメラを取り付けると、信号線の引き回し及びコードリールの制御が複雑で、取り扱いが難しくなる。   As described above, when three cameras are attached to the tip of the boom, the routing of the signal line and the control of the cord reel are complicated, and the handling becomes difficult.

本発明はこれらの課題を解決するものであり、部品点数の増加を抑えつつ、取り扱いの容易な作業車用の周囲監視システム、作業車、表示方法、及びプログラムを提供することを目的とする。   The present invention solves these problems, and an object thereof is to provide an environment monitoring system for a work vehicle, a work vehicle, a display method, and a program that are easy to handle while suppressing an increase in the number of parts.

上記目的を達するため、本発明に係る作業車用の周囲監視システムは、
作業車に設置された全方位カメラが撮影する映像を、人が視認できる形態の画像に変換するためのキャリブレーション情報を記憶する記憶部と、
前記全方位カメラが撮影した映像の一部分を切り取り、前記記憶部から前記キャリブレーション情報を取得し、切り取った前記映像の一部分を、取得した前記キャリブレーション情報を用いて、人が視認できる形態の画像に変換し、出力する制御部と、
を備える。
In order to achieve the above object, a surrounding monitoring system for a work vehicle according to the present invention includes:
A storage unit for storing calibration information for converting an image captured by an omnidirectional camera installed in a work vehicle into an image in a form that can be visually recognized by a person;
An image in a form in which a part of a video captured by the omnidirectional camera is cut out, the calibration information is acquired from the storage unit, and a part of the cut out video is visible to a person using the acquired calibration information A control unit for converting to and outputting,
Is provided.

また、上記目的を達するため、本発明に係る作業車は、
上記作業車用の周囲監視システムを備える作業車であって、
前記作業車は、前記全方位カメラと、人が搭乗するキャビンとを備え、
前記キャビンの内部または外部に、前記記憶部と前記制御部と表示装置とが設置されている。
In order to achieve the above object, the work vehicle according to the present invention is
A work vehicle including a surrounding monitoring system for the work vehicle,
The work vehicle includes the omnidirectional camera and a cabin on which a person is boarded,
The storage unit, the control unit, and a display device are installed inside or outside the cabin.

本発明における作業車用の周囲監視システム、作業車、表示方法、及びプログラムによれば、作業車に設置された全方位カメラが撮影する映像の一部分を切り取り、切り取った映像の一部分を、人が視認できる形態の画像に変換することにより、部品点数の増加を抑えつつ、取り扱いを容易にすることができる。   According to the surrounding monitoring system for a work vehicle, the work vehicle, the display method, and the program according to the present invention, a part of the image captured by the omnidirectional camera installed on the work vehicle is cut out, and a part of the cut out image is By converting the image into a visually recognizable image, the handling can be facilitated while suppressing an increase in the number of components.

本発明の実施の形態1に係るクレーンの概要図である。It is a schematic diagram of the crane which concerns on Embodiment 1 of this invention. 実施の形態1に係る左カメラと右カメラの配置の概要図である。3 is a schematic diagram of arrangement of a left camera and a right camera according to Embodiment 1. FIG. 実施の形態1に係る左カメラと右カメラの軸方向を示す図である。It is a figure which shows the axial direction of the left camera which concerns on Embodiment 1, and a right camera. 実施の形態1に係る表示装置の概要図である。1 is a schematic diagram of a display device according to Embodiment 1. FIG. 図4に示す制御部の機能ブロック図である。It is a functional block diagram of the control part shown in FIG. 図4に示す制御部のハードウエアブロック図である。It is a hardware block diagram of the control part shown in FIG. (A)と(B)は、実施の形態1に係るクレーンの走行時における周囲監視方法の一例を説明するための図である。(A) And (B) is a figure for demonstrating an example of the surroundings monitoring method at the time of the traveling of the crane which concerns on Embodiment 1. FIG. (A)は、実施の形態1に係るクレーンの走行時の左カメラで撮像した映像と切り取り範囲の例を示し、(B)は、切り取った画像を平面化処理した後の平面化画像を示し、(C)は、表示画像の例を示す図である。(A) shows the example of the image imaged by the left camera at the time of traveling of the crane according to Embodiment 1 and the cutout range, and (B) shows the flattened image after the cutout image is flattened. (C) is a figure which shows the example of a display image. (A)は、実施の形態1に係るクレーンの走行時の左カメラで撮像した映像と切り取り範囲の例を示し、(B)は、切り取った画像を平面化処理した後の平面化画像を示し、(C)は、表示画像の例を示す図である。(A) shows the example of the image imaged by the left camera at the time of traveling of the crane according to Embodiment 1 and the cutout range, and (B) shows the flattened image after the cutout image is flattened. (C) is a figure which shows the example of a display image. (A)は、実施の形態1に係るクレーンの作業時の様子を示し、(B)は、左カメラで撮像した作業時の映像と切り取り範囲の例を示し、(C)は、切り取った画像を平面化処理した後の平面化画像を示す図である。(A) shows a state during work of the crane according to the first embodiment, (B) shows an image of the work taken with the left camera and an example of a cutting range, and (C) shows a cut image. It is a figure which shows the planarization image after carrying out the planarization process. (A)は、実施の形態1に係るクレーンの作業時の左カメラで撮像した映像と切り取り範囲の例を示し、(B)は、ブームの傾斜角と切り取り範囲の関係の例を示す図である。(A) shows the example of the image | video and the cutting range which were imaged with the left camera at the time of the work of the crane which concerns on Embodiment 1, (B) is a figure which shows the example of the relationship between the inclination-angle of a boom and the cutting range. is there. (A)と(B)は、実施の形態1に係る走行時用データベースと作業時用データベースの例を示す図である。(A) And (B) is a figure which shows the example of the database for driving | running | working and the database for working time which concern on Embodiment 1. FIG. 本発明の実施の形態1に係る複数カメラ画像表示処理のフローチャートである。It is a flowchart of the multiple camera image display process which concerns on Embodiment 1 of this invention. (A)と(B)は、本発明の実施の形態2に係るカメラの配置の概要図である。(A) And (B) is a schematic diagram of arrangement | positioning of the camera which concerns on Embodiment 2 of this invention. 実施の形態2に係る表示装置の概要図である。6 is a schematic diagram of a display device according to Embodiment 2. FIG. 実施の形態2に係る制御部の機能ブロック図である。6 is a functional block diagram of a control unit according to Embodiment 2. FIG. 実施の形態2に係るクレーンの走行時における車両周囲の一例を示す図である。It is a figure which shows an example of the vehicle periphery at the time of the driving | running | working of the crane which concerns on Embodiment 2. FIG. (A)は、実施の形態2に係るクレーンの走行時の撮影映像と2つの切り取り範囲の例を示し、(B)と(C)は、切り取った画像を平面化処理した後の平面化画像の例を示す図である。(A) shows the example of the picked-up image at the time of the traveling of the crane which concerns on Embodiment 2, and two cropping ranges, (B) and (C) are the planarization images after planarizing the cropped image It is a figure which shows the example of. (A)は、実施の形態2に係るクレーンの作業時の撮影映像と切り取り範囲の例を示し、(B)は、切り取った画像を平面化処理した後の平面化画像の例を示す図である。(A) shows the example of the picked-up image at the time of the operation | work of the crane which concerns on Embodiment 2, and a cutting range, (B) is a figure which shows the example of the planarization image after carrying out the planarization process of the cut image. is there. (A)と(B)は、実施の形態2に係る走行時用データベースと作業時用データベースの例を示す図である。(A) And (B) is a figure which shows the example of the database for driving | running | working which concerns on Embodiment 2, and the database for work. 実施の形態2に係る単一カメラ画像表示処理のフローチャートである。10 is a flowchart of single camera image display processing according to the second embodiment. 実施の形態2の変形例に係るカメラの配置の概要図である。FIG. 10 is a schematic diagram of arrangement of cameras according to a modification of the second embodiment. 本発明の実施の形態3に係る距離測定処理のフローチャートである。It is a flowchart of the distance measurement process which concerns on Embodiment 3 of this invention.

本発明の周囲監視システムは、移動式クレーン等の作業車に備えられる。この周囲監視システムは、ブームの先端に配置された全方位カメラで撮影した映像の一部を切り取って平面画像に変換して表示することで、走行時の周辺領域の状況の確認及び作業時の吊り荷の状態の確認を可能とする。すなわち、本発明の周囲監視システムは、ブームの先端に設けられたカメラを、サイドカメラと吊り荷監視用カメラとに共用するシステムである。   The surrounding monitoring system of the present invention is provided in a work vehicle such as a mobile crane. This perimeter monitoring system cuts out a part of the video shot by the omnidirectional camera placed at the tip of the boom, converts it into a flat image, and displays it to check the status of the surrounding area during driving and It is possible to check the state of the suspended load. That is, the surrounding monitoring system of the present invention is a system that shares the camera provided at the tip of the boom with the side camera and the suspended load monitoring camera.

以下、本発明の実施の形態に係る周囲監視システムと方法について、図面を参照しつつ説明する。なお、同一または同等の部分に同一の符号を付す。   Hereinafter, a surroundings monitoring system and method according to embodiments of the present invention will be described with reference to the drawings. In addition, the same code | symbol is attached | subjected to the same or equivalent part.

(実施の形態1)
実施の形態1に係る周囲監視システム100について、図1から図13を参照して説明する。実施の形態1に係る周囲監視システム100は、クレーンのブームの先端の左右両側に設けられた2台の全方位カメラを、サイドカメラと吊り荷監視用カメラとに共用するシステムである。
(Embodiment 1)
A surrounding monitoring system 100 according to the first embodiment will be described with reference to FIGS. The surroundings monitoring system 100 according to Embodiment 1 is a system in which two omnidirectional cameras provided on the left and right sides of the tip of a crane boom are shared by a side camera and a suspended load monitoring camera.

最初に、周囲監視システム100が適用されるクレーン1の全体的な構成を説明する。クレーン1は、走行機能を有する車両本体部分となる走行体2と、走行体2の上に水平旋回可能に取り付けられた旋回台3と、旋回台3に設けられたキャビン4とを備えている。走行体2の前側と後側にはそれぞれ、クレーン1を地面G上で固定するための左右一対のアウトリガ5が備えられている。   First, the overall configuration of the crane 1 to which the surrounding monitoring system 100 is applied will be described. The crane 1 includes a traveling body 2 that is a vehicle main body portion having a traveling function, a swivel base 3 that is mounted on the traveling body 2 so as to be capable of horizontal swiveling, and a cabin 4 provided on the swivel base 3. . A pair of left and right outriggers 5 for fixing the crane 1 on the ground G are provided on the front side and the rear side of the traveling body 2, respectively.

キャビン4は、オペレータがクレーン1の操作のために搭乗する装置である。その内部には、後述する表示装置20とコントローラ32とが配置されている。   The cabin 4 is a device on which an operator gets on to operate the crane 1. Inside, a display device 20 and a controller 32, which will be described later, are arranged.

旋回台3の上には、ブラケット6が固定されている。ブラケット6には、ブーム7が、ブーム7の基端部の支持軸を介して取り付けられている。ブーム7は、支持軸を中心に起伏することができる。ブラケット6とブーム7との間には、起伏用シリンダ70が設けられている。ブーム7は、起伏用シリンダ70が伸縮することにより起伏する。   A bracket 6 is fixed on the swivel base 3. A boom 7 is attached to the bracket 6 via a support shaft at the base end of the boom 7. The boom 7 can be raised and lowered around the support shaft. A hoisting cylinder 70 is provided between the bracket 6 and the boom 7. The boom 7 is raised and lowered as the raising and lowering cylinder 70 expands and contracts.

ブーム7は、基端ブーム7aと、1又は複数本の中間ブーム7bと、先端ブーム7cとを備えている。基端ブーム7aと、中間ブーム7bと、先端ブーム7cとは、この順序で外側から内側へ入れ子式に組み合わされている。ブーム7a〜7cは、内部で伸縮シリンダと伸縮ワイヤにより連結されており、ブーム7は、伸縮シリンダが伸縮することで伸縮する。また、ブーム7には、ブーム7の傾きを検出する傾斜計とブーム7の長さを求める長さ計が配置されている。   The boom 7 includes a proximal boom 7a, one or more intermediate booms 7b, and a distal boom 7c. The proximal boom 7a, the intermediate boom 7b, and the distal boom 7c are nested in this order from the outside to the inside. The booms 7a to 7c are connected to each other by an extendable cylinder and an extendable wire, and the boom 7 expands and contracts as the extendable cylinder expands and contracts. Further, the boom 7 is provided with an inclinometer for detecting the tilt of the boom 7 and a length meter for obtaining the length of the boom 7.

先端ブーム7cは、その先端に先端部7dが設けられている。先端部7dには、シーブが備えられている。このシーブには、ブラケット6に設けられたウインチから延びたワイヤWが掛けられている。ワイヤWには、フックブロック8が吊り下げられている。フックブロック8には、フック9が取り付けられている。フック9には、ワイヤロープWRを介して吊り荷10が掛けられる。ウインチには、吊り荷10の重さを計測する荷重計が配置されている。   The tip boom 7c is provided with a tip 7d at the tip. The tip portion 7d is provided with a sheave. A wire W extending from a winch provided on the bracket 6 is hung on the sheave. A hook block 8 is suspended from the wire W. A hook 9 is attached to the hook block 8. A suspended load 10 is hung on the hook 9 via a wire rope WR. A load meter for measuring the weight of the suspended load 10 is arranged on the winch.

図2に示すように、先端部7dの左右両側には、左カメラ11と右カメラ12とが、カメラ保持部13を介して設けられている。カメラ保持部13は、フック9用のシーブ軸上に配置されている。左カメラ11と右カメラ12は、全方位カメラから構成されている。全方位カメラは、CCD(Charge Coupled Device)撮像素子、CMOS(Complementary Metal Oxide Semiconductor)撮像素子等の撮像素子と、魚眼レンズとを備えている。全方位カメラは、1つのレンズで半球ほぼ360度の撮影ができるカメラである。   As shown in FIG. 2, the left camera 11 and the right camera 12 are provided on the left and right sides of the distal end portion 7 d via the camera holding unit 13. The camera holding unit 13 is disposed on the sheave shaft for the hook 9. The left camera 11 and the right camera 12 are composed of omnidirectional cameras. The omnidirectional camera includes an image sensor such as a charge coupled device (CCD) image sensor, a complementary metal oxide semiconductor (CMOS) image sensor, and a fisheye lens. An omnidirectional camera is a camera that can shoot approximately 360 degrees of a hemisphere with one lens.

左カメラ11と右カメラ12の視野について、図3を参照してさらに説明する。左カメラ11と右カメラ12の撮像素子の撮像面に垂直な軸をZ軸とする。左カメラ11のZ軸をZとし、右カメラ12のZ軸をZとする。Z軸を、クレーン1の車両の側方向に90度回転した軸をX軸とし、左カメラ11のX軸をXとし、右カメラ12のX軸をXとする。また、Z軸を、クレーン1の車両後方に90度回転した軸をY軸とする。左カメラ11のY軸をYとし、右カメラ12のY軸をYとする。 The field of view of the left camera 11 and the right camera 12 will be further described with reference to FIG. An axis perpendicular to the imaging surfaces of the imaging elements of the left camera 11 and the right camera 12 is taken as a Z axis. The Z-axis of the left camera 11 and Z L, the Z-axis of the right camera 12 and Z R. The Z-axis, an axis that is rotated 90 degrees in the lateral direction of the vehicle crane 1 is X-axis, the X-axis of the left camera 11 and X L, the X-axis of the right camera 12 and X R. Further, the Z-axis is defined as a Y-axis that is an axis rotated 90 degrees behind the crane 1 in the vehicle. The Y-axis of the left camera 11 and Y L, the Y-axis of the right camera 12 and Y R.

左カメラ11と右カメラ12は、クレーン1の走行時には、走行姿勢のブーム7の側方から地面方向を含む周辺領域を撮影でき、作業時には、ブーム7の角度によらず、吊り荷10を含む作業領域を撮影できる方向を向く位置で、カメラ保持部13に固定されている。左カメラ11と右カメラ12とを、このように取り付けることにより、クレーン1の側方から地面G方向までを撮影することができる。   The left camera 11 and the right camera 12 can shoot a peripheral region including the ground direction from the side of the boom 7 in the traveling posture when the crane 1 is traveling, and include the suspended load 10 regardless of the angle of the boom 7 during the operation. It is fixed to the camera holding unit 13 at a position facing the direction in which the work area can be photographed. By attaching the left camera 11 and the right camera 12 in this way, it is possible to photograph from the side of the crane 1 to the ground G direction.

全方位カメラで撮影した映像は、ほぼ全域を含み、さらに、画像の歪みが大きい。このため、左カメラ11及び右カメラ12で撮影した画像をそのまま表示しても、何の画像なのかを理解が難しい。そこで、周囲監視システム100は、以下に説明する画像の切り取りと平面化処理、さらに、表示枠の設定(これらをまとめてキャリブレーション処理と呼ぶ)を行うことにより、オペレータが理解しやすい画像を表示装置20に表示する。   A video taken with an omnidirectional camera includes almost the entire area, and further, image distortion is large. For this reason, even if images taken by the left camera 11 and the right camera 12 are displayed as they are, it is difficult to understand what the images are. Accordingly, the surroundings monitoring system 100 displays an image that is easy for the operator to understand by performing image cropping and flattening processing, which will be described below, and setting a display frame (collectively referred to as calibration processing). Display on the device 20.

まず、表示装置20の構成を、図4を参照して説明する。表示装置20は、キャビン4内の、オペレータから容易に視認可能な位置に配置されている。表示装置20は、画像を表示する表示部200と、表示部200の下側に配置された複数の操作キーを備えている。また、表示装置20は、内部に制御部30と記憶部31を備える。   First, the configuration of the display device 20 will be described with reference to FIG. The display device 20 is disposed in the cabin 4 at a position that can be easily visually recognized by the operator. The display device 20 includes a display unit 200 that displays an image, and a plurality of operation keys arranged on the lower side of the display unit 200. The display device 20 includes a control unit 30 and a storage unit 31 inside.

表示装置20は、表示部200に単一の画像(ウインドウ)を表示するシングルウインドウ・モードと、複数の画像を同時に表示するタイリングウインドウ・モードとを切り替えることができる。なお、タイリングウインドウ・モードでの表示画像の数を2とする。表示部200は、LCD(Liquid Crystal Display)パネル、有機EL(Electro−Luminescence)パネル等の表示インターフェース装置から構成される。   The display device 20 can switch between a single window mode in which a single image (window) is displayed on the display unit 200 and a tiling window mode in which a plurality of images are simultaneously displayed. Note that the number of display images in the tiling window mode is 2. The display unit 200 includes a display interface device such as an LCD (Liquid Crystal Display) panel or an organic EL (Electro-Luminescence) panel.

複数の操作キーは、左カメラ選択キー210と、右カメラ選択キー211と、パン操作キー212と、チルト操作キー213と、表示拡大キー214と、表示縮小キー215と、表示画像切替キー216と、複数画像表示キー217と、十字キー218とを備えている。   The plurality of operation keys include a left camera selection key 210, a right camera selection key 211, a pan operation key 212, a tilt operation key 213, a display enlargement key 214, a display reduction key 215, and a display image switching key 216. A multi-image display key 217 and a cross key 218 are provided.

左カメラ選択キー210と右カメラ選択キー211とは、左カメラ11と右カメラ12のうち、どちらのカメラで撮影した映像を表示部200に表示するかを選択するキーである。左カメラ選択キー210または右カメラ選択キー211の押下により選択されたカメラを示す選択カメラ情報は記憶部31に記憶される。例えば、右カメラ選択キー211が押下されると、右カメラ12が選択されたことを示す選択カメラ情報が記憶部31に記憶され、右カメラ12で撮影された映像がキャリブレーション処理後、表示部200に表示される。なお、左カメラ選択キー210と右カメラ選択キー211のいずれも押下されていない場合、デフォルトに設定されているカメラ、例えば、左カメラ11を特定する選択カメラ情報が記憶部31に記憶される。   The left camera selection key 210 and the right camera selection key 211 are keys for selecting which of the left camera 11 and the right camera 12 is to be displayed on the display unit 200. Selected camera information indicating a camera selected by pressing the left camera selection key 210 or the right camera selection key 211 is stored in the storage unit 31. For example, when the right camera selection key 211 is pressed, selected camera information indicating that the right camera 12 has been selected is stored in the storage unit 31, and after the video imaged by the right camera 12 is calibrated, the display unit 200. When neither the left camera selection key 210 nor the right camera selection key 211 is pressed, selected camera information for specifying the camera set as a default, for example, the left camera 11 is stored in the storage unit 31.

パン操作キー212とチルト操作キー213は、パン機能とチルト機能を操作するキーである。パン操作キー212またはチルト操作キー213を操作することにより、表示画像を左右方向及び上下方向に移動させることができる。表示拡大キー214と表示縮小キー215とは、表示部200に表示された映像を、表示部200の中心を基点として、拡大または縮小させるキーである。   The pan operation key 212 and the tilt operation key 213 are keys for operating the pan function and the tilt function. By operating the pan operation key 212 or the tilt operation key 213, the display image can be moved in the horizontal direction and the vertical direction. The display enlargement key 214 and the display reduction key 215 are keys for enlarging or reducing the video displayed on the display unit 200 with the center of the display unit 200 as a base point.

表示画像切替キー216は、左カメラ11または右カメラ12が撮影した映像内で、表示対象範囲の切り替えを指示するキーである。具体的に説明すると、左カメラ11及び右カメラ12が撮影した映像上には、複数の切り取り範囲が設定され、何れかの切り取り範囲の画像が切り出されて表示される。表示画像切替キー216を押下することにより、カメラの選択は変更せず、切り取り範囲を変更して、表示画像を変更することができる。   The display image switching key 216 is a key for instructing switching of the display target range in the video captured by the left camera 11 or the right camera 12. More specifically, a plurality of cutout ranges are set on the video captured by the left camera 11 and the right camera 12, and an image of any cutout range is cut out and displayed. By pressing the display image switching key 216, the selection of the camera is not changed, and the display range can be changed by changing the cropping range.

複数画像表示キー217は、表示装置20を、複数の画像を同時に表示するタイリングウインドウ・モードと1つの画像を表示するシングルウインドウ・モードとの間で切り替えるキーである。   The multiple image display key 217 is a key for switching the display device 20 between a tiling window mode for simultaneously displaying a plurality of images and a single window mode for displaying one image.

表示画像切替キー216及び複数画像表示キー217の押下により選択された表示形式を特定する表示形式情報が記憶部31に記憶される。十字キー218は、表示部200の中心を起点として、表示を上下左右方向に移動させるキーである。   Display format information for specifying the display format selected by pressing the display image switching key 216 and the multiple image display key 217 is stored in the storage unit 31. The cross key 218 is a key for moving the display in the vertical and horizontal directions starting from the center of the display unit 200.

次に、図5を参照して、表示装置20に内蔵された制御部30と記憶部31について説明する。   Next, the control unit 30 and the storage unit 31 built in the display device 20 will be described with reference to FIG.

制御部30は、機能的には、図5に示すように、映像取得部301と、データ取得部302と、対地角度算出部303と、キャリブレーション情報取得部304と、表示画像生成部305とを備えるコンピュータである。   As shown in FIG. 5, the control unit 30 functionally includes a video acquisition unit 301, a data acquisition unit 302, a ground angle calculation unit 303, a calibration information acquisition unit 304, and a display image generation unit 305. It is a computer provided with.

映像取得部301は、左カメラ11と右カメラ12が撮影した映像を取得する。データ取得部302は、コントローラ32に接続されている。コントローラ32は、クレーン1全体の動作、特に、旋回台3の旋回動作、起伏用シリンダ70の伸縮によるブーム7の起伏動作、伸縮シリンダの伸縮によるブーム7の伸縮動作を制御する。データ取得部302は、コントローラ32から、吊り荷10の荷重、ジブの角度、ブーム7の長さと傾斜角度といったパラメータを取得する。ブーム7の傾斜角度は傾斜計、ブーム7の長さは長さ計、吊り荷10の荷重は荷重計により計測され、コントローラ32に通知されたものである。   The video acquisition unit 301 acquires video captured by the left camera 11 and the right camera 12. The data acquisition unit 302 is connected to the controller 32. The controller 32 controls the operation of the crane 1 as a whole, in particular, the turning operation of the swivel 3, the hoisting operation of the boom 7 due to the expansion / contraction of the hoisting cylinder 70, and the expansion / contraction operation of the boom 7 due to the expansion / contraction of the expansion / contraction cylinder. The data acquisition unit 302 acquires parameters such as the load of the suspended load 10, the jib angle, the boom 7 length and the tilt angle from the controller 32. The tilt angle of the boom 7 is measured by the inclinometer, the length of the boom 7 is measured by the length meter, and the load of the suspended load 10 is measured by the load meter and notified to the controller 32.

対地角度算出部303は、データ取得部302がコントローラ32から取得したパラメータを用いて、ブーム7の基部の回転軸とカメラ保持部13とを結ぶラインと地面Gとの交差角度(以下、対地角度)を求める。具体的には、対地角度算出部303は、ブーム7の傾斜角(傾斜計により計測された値)とブーム7の長さと吊り荷10の重量の組み合わせと対地角度とを対応付ける演算式又は三次元テーブルを内部メモリに記憶している。対地角度算出部303は、この演算式又は三次元テーブルに、取得したパラメータを適用して対地角度を求める。このような処理を行う理由は、ブーム7が長くなるに従って、また、吊り荷10が重くなるに従って、ブーム7が撓むため、傾斜計による計測だけでは、正確な対地角度を求めることができないからである。   The ground angle calculation unit 303 uses the parameters acquired by the data acquisition unit 302 from the controller 32, and the intersection angle between the line connecting the rotation axis of the base of the boom 7 and the camera holding unit 13 and the ground G (hereinafter referred to as the ground angle). ) Specifically, the ground angle calculation unit 303 is an arithmetic expression or a three-dimensional relationship that associates the inclination angle of the boom 7 (value measured by an inclinometer) with the combination of the length of the boom 7 and the weight of the suspended load 10 and the ground angle. The table is stored in the internal memory. The ground angle calculation unit 303 obtains the ground angle by applying the acquired parameter to the arithmetic expression or the three-dimensional table. The reason for performing such processing is that the boom 7 bends as the boom 7 becomes longer and as the suspended load 10 becomes heavier, and therefore, an accurate ground angle cannot be obtained only by measurement with an inclinometer. It is.

キャリブレーション情報取得部304は、記憶部31に記憶されているカメラ選択情報、表示形式情報、キャリブレーション処理に必要な情報(以下、キャリブレーション情報)等の記憶部31に記憶されている種々の情報を取得する。   The calibration information acquisition unit 304 stores various information stored in the storage unit 31 such as camera selection information, display format information, and information necessary for calibration processing (hereinafter referred to as calibration information) stored in the storage unit 31. Get information.

表示画像生成部305は、映像取得部301が取得した映像、対地角度算出部303が算出した対地角度、キャリブレーション情報取得部304が取得したカメラ選択情報と表示形式情報とキャリブレーション情報、を用いて、表示対象の画像を生成する。表示画像生成部305は、生成した画像を表示装置20に出力する。   The display image generation unit 305 uses the video acquired by the video acquisition unit 301, the ground angle calculated by the ground angle calculation unit 303, and the camera selection information, display format information, and calibration information acquired by the calibration information acquisition unit 304. To generate an image to be displayed. The display image generation unit 305 outputs the generated image to the display device 20.

制御部30のハードウエアの構成の一例を図6に示す。図示するように、制御部30は、プロセッサ310と、メモリ311と、表示コントローラ312と、I/Oポート313と、内部バス314から構成されている。プロセッサ310と、メモリ311と、表示コントローラ312と、I/Oポート313とは、内部バス314を介して相互に接続されている。   An example of the hardware configuration of the control unit 30 is shown in FIG. As illustrated, the control unit 30 includes a processor 310, a memory 311, a display controller 312, an I / O port 313, and an internal bus 314. The processor 310, the memory 311, the display controller 312, and the I / O port 313 are connected to each other via an internal bus 314.

プロセッサ310は、記憶部31に保存された各種プログラムを読み出してメモリ311に展開し、実行する。プロセッサ310は、CPU(Central Processing Unit)、MPU(Micro−Processing Unit)等の処理装置から構成されている。メモリ311は、RAM(Random Access Memory)等の揮発性半導体メモリ、フラッシュメモリ等の不揮発性半導体メモリ等から構成されている。   The processor 310 reads out various programs stored in the storage unit 31, expands them in the memory 311, and executes them. The processor 310 includes processing devices such as a CPU (Central Processing Unit) and an MPU (Micro-Processing Unit). The memory 311 includes a volatile semiconductor memory such as a RAM (Random Access Memory), a nonvolatile semiconductor memory such as a flash memory, and the like.

表示コントローラ312は、表示装置20の表示部200に文字と映像とを表示させるため映像信号を出力するコントローラである。表示コントローラ312は、ビデオカード、GPU(Graphics Processing Unit)、グラフィックボード等の映像信号出力装置から構成される。   The display controller 312 is a controller that outputs a video signal for displaying characters and video on the display unit 200 of the display device 20. The display controller 312 includes a video signal output device such as a video card, a GPU (Graphics Processing Unit), and a graphic board.

I/Oポート313は、制御部30に入出力される信号を送受信するためのインターフェースである。制御部30は、I/Oポート313を介して左カメラ11と、右カメラ12と、コントローラ32と、表示装置20とに接続される。   The I / O port 313 is an interface for transmitting and receiving signals input to and output from the control unit 30. The control unit 30 is connected to the left camera 11, the right camera 12, the controller 32, and the display device 20 via the I / O port 313.

プロセッサ310とI/Oポート313とは、図5に示す映像取得部301とデータ取得部302を構成する。また、プロセッサ310は、対地角度算出部303とキャリブレーション情報取得部304と表示画像生成部305を構成する。   The processor 310 and the I / O port 313 constitute a video acquisition unit 301 and a data acquisition unit 302 shown in FIG. The processor 310 constitutes a ground angle calculation unit 303, a calibration information acquisition unit 304, and a display image generation unit 305.

次に、左カメラ11及び右カメラ12で撮影した映像に対して制御部30が行うキャリブレーション処理について説明する。   Next, a calibration process performed by the control unit 30 on the video captured by the left camera 11 and the right camera 12 will be described.

まず、クレーン1の走行時における、キャリブレーション処理について、図7から図9を参照しつつ説明する。   First, the calibration process when the crane 1 is traveling will be described with reference to FIGS.

ここで、図7(A)に示すように、クレーン1が、交差点50に差しかかっている場面を想定する。走行時は、クレーン1のブーム7は縮められ、伏せた状態にあり、その先端部7dは、キャビン4よりも前方にある。クレーン1から見て左側の交差点50の角には、建物等の障害物51が位置している。また、キャビン4は、クレーン1のフロントバンパーよりも後方に位置している。   Here, it is assumed that the crane 1 is approaching the intersection 50 as shown in FIG. During traveling, the boom 7 of the crane 1 is shrunk and is in a state of being laid down, and its tip 7 d is in front of the cabin 4. An obstacle 51 such as a building is located at the corner of the intersection 50 on the left side when viewed from the crane 1. The cabin 4 is located behind the front bumper of the crane 1.

交差点50を左折した地点をA、交差点50を渡った正面の地点をB、フロントバンパーと障害物51との間の地点をC、クレーン1と障害物51との間の地点をDとする。   A point where the intersection 50 is turned left is A, a point in front of the intersection 50 is B, a point between the front bumper and the obstacle 51 is C, and a point between the crane 1 and the obstacle 51 is D.

クレーン1のブーム7は、キャビン4の左横に取り付けられていることが多い。   The boom 7 of the crane 1 is often attached to the left side of the cabin 4.

この場合、キャビン4内のオペレータから見て、地点Aは、キャビン4の左側にあるブーム7の陰になる。このため、オペレータは、キャビン4内から地点Aを直接目視することが困難である。したがって、オペレータは、地点Aに進入してくる他の車両、歩行者を、直接は視認することが困難である。また、キャビン4内のオペレータから見て、左前方にブーム7があるため、地点Bは、ブーム7の陰になり、オペレータは地点Bを直接は目視することが困難である。   In this case, when viewed from the operator in the cabin 4, the point A is behind the boom 7 on the left side of the cabin 4. For this reason, it is difficult for the operator to directly observe the point A from the cabin 4. Therefore, it is difficult for the operator to directly view other vehicles and pedestrians entering the point A. Further, since the boom 7 is located on the left front side when viewed from the operator in the cabin 4, the point B is behind the boom 7, and it is difficult for the operator to visually observe the point B directly.

また、地点Cは、左側のフロントバンパーの陰になる。したがって、オペレータは、クレーン1の前方に背の低いもの、例えば、子供がいた場合には、それを視認することが困難である。また、キャビン4の左側にブーム7があるため、地点Dは、ブーム7の陰になる。このため、オペレータは、地点Dを直接目視することが困難である。   Point C is behind the left front bumper. Therefore, it is difficult for the operator to visually recognize a short object, such as a child, in front of the crane 1. Further, since the boom 7 is on the left side of the cabin 4, the point D is behind the boom 7. For this reason, it is difficult for the operator to visually observe the point D directly.

現状、オペレータは、クレーン1の走行時に、地点Aから地点Dの監視を目視によって行っている。一部のクレーンには、左側面等に前方を撮影するカメラを備えるものがある。このタイプのクレーンでは、図7(B)に示すように、キャビン4の内部に、前方モニタ41が配置され、前方モニタ41に、カメラによって撮影されたクレーン1の前方、すなわち地点Bの映像が表示される。また、キャビン4のフロントガラスの前に、フロントバンパー確認ミラー42を備え、ブーム7の左側に、サイドミラー43を備えるものも存在する。フロントバンパー確認ミラー42は、地点Cを写すことができる鏡であり、サイドミラー43は、地点Dを写すことのできる鏡である。   Currently, the operator visually monitors point A to point D when the crane 1 is traveling. Some cranes have a camera for photographing the front on the left side. In this type of crane, as shown in FIG. 7 (B), a front monitor 41 is arranged inside the cabin 4, and the front monitor 41 displays an image of the front of the crane 1, that is, a point B photographed by the camera. Is displayed. In addition, there is a type that includes a front bumper confirmation mirror 42 in front of the windshield of the cabin 4 and a side mirror 43 on the left side of the boom 7. The front bumper confirmation mirror 42 is a mirror that can capture the point C, and the side mirror 43 is a mirror that can capture the point D.

このような構成の場合、オペレータは、地点Aと、前方モニタ41に表示された地点Bの映像と、フロントバンパー確認ミラー42に写った地点Cの画像と、サイドミラー43に写った地点Dの画像とを、それぞれ目視で確認する必要がある。しかし、地点Aと、前方モニタ41と、フロントバンパー確認ミラー42と、サイドミラー43とは、それぞれ位置が離れている。このため、オペレータは、地点Aと、前方モニタ41と、フロントバンパー確認ミラー42と、サイドミラー43とを、頭ごと視線を動かして見ていく必要がある。したがって、交差点50の地点Aから地点Dの状況を、把握することが難しい。   In the case of such a configuration, the operator, the image of the point A, the image of the point B displayed on the front monitor 41, the image of the point C captured on the front bumper confirmation mirror 42, and the image of the point D captured on the side mirror 43 Must be confirmed visually. However, the positions of the point A, the front monitor 41, the front bumper confirmation mirror 42, and the side mirror 43 are separated from each other. For this reason, the operator needs to look at the point A, the front monitor 41, the front bumper confirmation mirror 42, and the side mirror 43 while moving the line of sight with the head. Therefore, it is difficult to grasp the situation from the point A to the point D of the intersection 50.

そこで、本実施の形態では、周囲監視システム100により、交差点50の地点Aから地点Dを、簡単に監視することができるようにする。具体的には、本実施の形態の場合、ブーム7がキャビン4の左側に位置しているため、キャビン4からは、左方が右方よりも確認しづらい。このため、まず、オペレータは、左カメラ選択キー210を押下することで、映像を取得するカメラとして、左カメラ11を選択する。これにより、左カメラ11が撮影しているブーム7の左方の映像を、表示装置20に表示させ、周囲の状態を確認することができる。   Therefore, in the present embodiment, the surrounding monitoring system 100 can easily monitor the point D from the point A of the intersection 50. Specifically, in the case of the present embodiment, since the boom 7 is located on the left side of the cabin 4, the left side is harder to confirm than the right side from the cabin 4. For this reason, first, the operator depresses the left camera selection key 210 to select the left camera 11 as a camera for acquiring video. Thereby, the left image of the boom 7 taken by the left camera 11 can be displayed on the display device 20 and the surrounding state can be confirmed.

左カメラ11が撮影している映像の一例を、図8(A)に示す。左カメラ11は、360度の撮影ができる全方向魚眼カメラであるため、左カメラ11で撮影した映像は、全体が丸くなり、かつ、縁に行くにしたがって歪みが強くなる。また、左カメラ11で撮影した映像には、左カメラ11を取り付けたブーム7の一部等の周囲の確認に不要な部分が映り込んでいる。この画像をそのまま表示部200に表示しても、周囲の把握が困難である。   An example of an image captured by the left camera 11 is shown in FIG. Since the left camera 11 is an omnidirectional fish-eye camera capable of 360-degree shooting, the image shot by the left camera 11 becomes round as a whole and becomes more distorted toward the edge. In addition, the video imaged by the left camera 11 includes a portion unnecessary for confirmation of the surroundings such as a part of the boom 7 to which the left camera 11 is attached. Even if this image is displayed on the display unit 200 as it is, it is difficult to grasp the surroundings.

そこで、制御部30は、左カメラ11で撮影した映像のうち、周囲の確認に有用な一部分を、予め定められた形状の切り取り範囲501に合わせて切り取る。例えば、ブーム7の左方の地点を含んだ範囲を切り取り範囲501とする。次に、制御部30は、切り取った画像に平面化処理を施し、歪みが小さく認識しやすい平面画像を生成する。この平面化処理は、切り取り範囲501内の画像のレンズ歪みを表す関数の逆関数で表される。生成した平面画像の一例を図8(B)に示す。この変換後の平面画像511の基準位置に表示枠WIを設定し、表示枠WI内の画像を、図8(C)に示すように、表示装置20の表示部200に表示する。オペレータは、表示部200に表示された平面画像を見ることによって、地点Aの状況を視認することができる。なお、画像の平面化は、人間が容易に認識できる程度でよく、画像の平面性の厳格性は要求されない。   Therefore, the control unit 30 cuts out a part of the video shot by the left camera 11 that is useful for checking the surroundings in accordance with a cutout range 501 having a predetermined shape. For example, a range including a left point of the boom 7 is set as a cutout range 501. Next, the control unit 30 performs flattening processing on the cut image, and generates a flat image that is easy to recognize with little distortion. This planarization process is represented by an inverse function of a function representing lens distortion of an image within the cutout range 501. An example of the generated planar image is shown in FIG. The display frame WI is set at the reference position of the converted planar image 511, and the image in the display frame WI is displayed on the display unit 200 of the display device 20 as shown in FIG. The operator can visually recognize the situation at the point A by looking at the planar image displayed on the display unit 200. Note that the flattening of the image may be such that it can be easily recognized by a human, and the strictness of flatness of the image is not required.

また、B点を視認できるようにするためには、左カメラ11で撮影した映像を、図9(A)に示すように、予め定められた切り取り範囲502で切り取る。制御部30は、切り取った画像について平面化処理を行い、歪みの小さい平面画像512を生成する。この平面化処理は、切り取り範囲502内の画像の歪みを表す関数の逆関数で表される。生成した平面画像512の一例を図9(B)に示す。この平面画像512の基準位置に表示枠WIを設定し、表示枠WI内の画像を、図9(C)に示すように、表示部200に表示する。オペレータは、表示された平面画像を見ることによって、地点Bの状況を視認することができる。   Further, in order to make the point B visible, the video shot by the left camera 11 is cut out at a predetermined cutout range 502 as shown in FIG. The control unit 30 performs planarization processing on the cut image and generates a planar image 512 with small distortion. This flattening process is represented by an inverse function of a function representing distortion of an image in the cutout range 502. An example of the generated planar image 512 is shown in FIG. A display frame WI is set at the reference position of the planar image 512, and the image in the display frame WI is displayed on the display unit 200 as shown in FIG. 9C. The operator can visually recognize the situation at the point B by looking at the displayed planar image.

シングルウインドウ・モードにおいては、図4に示した表示画像切替キー216を押下することにより、図8(C)に示した地点Aを含む平面画像と図9(C)に示した地点Bを含む平面画像とが、表示部200上で切り替えて表示される。また、図4に示した複数画像表示キー217を押下して、タイリングウインドウ・モードを設定すると、図8(C)に示した平面画像と図9(C)に示した平面画像とが、表示部200に並べて表示される。   In the single window mode, when the display image switching key 216 shown in FIG. 4 is pressed, a plane image including the point A shown in FIG. 8C and a point B shown in FIG. 9C are included. A planar image is displayed by switching on the display unit 200. Further, when the tiling window mode is set by pressing the multi-image display key 217 shown in FIG. 4, the planar image shown in FIG. 8C and the planar image shown in FIG. They are displayed side by side on the display unit 200.

切り取り範囲501、502の形状と大きさと位置、平面化処理に使用する関数、及び表示枠WIを設定する基準位置は、後述する図12(A)に示す走行時用データベースD1に格納され、記憶部31に記憶されている。   The shape, size, and position of the cut-out areas 501, 502, the function used for the planarization process, and the reference position for setting the display frame WI are stored and stored in the travel time database D1 shown in FIG. Stored in the unit 31.

次に、クレーン1の作業時における、キャリブレーション処理について、図10を参照して説明する。   Next, the calibration process during the operation of the crane 1 will be described with reference to FIG.

図10(A)に示すように、クレーン1が吊り荷10を吊り上げる作業をしている場面を想定する。この状態において、オペレータが、吊り荷10の状態を確認するため、左カメラ11が撮影している地面Gの方向の映像を、表示装置20に表示させるものとする。この場合、オペレータは、図4に示す、左カメラ選択キー210を押下することで、映像を取得するカメラとして左カメラ11を選択する。   As shown in FIG. 10A, a scene is assumed in which the crane 1 is working to lift the suspended load 10. In this state, in order to confirm the state of the suspended load 10, the operator displays an image of the direction of the ground G captured by the left camera 11 on the display device 20. In this case, the operator presses the left camera selection key 210 shown in FIG. 4 to select the left camera 11 as a camera for acquiring video.

左カメラ11が撮影している映像を図10(B)に例示する。左カメラ11で撮影した画像は、全体が丸くなり、かつ、縁に行くに従って歪みの程度が大きくなる。制御部30は、この映像のうち吊り荷10を含む画像を、画像の中心点を起点とし、鉛直方向の画像を含む扇形の切り取り範囲503を切り取り、切り取った画像に平面化処理を行い、図10(C)に示すように、可能な平面画像513を生成する。この平面化処理は、魚眼レンズによる歪みの逆変換に相当する関数を用いる。制御部30は、生成した平面画像513上に表示枠WIを設定し、表示枠WI内の画像を、表示部200に表示させる。なお、画像を取得するカメラとして左カメラ11を選択する例を説明したが、画像を取得するカメラとして右カメラ12を選択しても良い。   An image taken by the left camera 11 is illustrated in FIG. The image taken by the left camera 11 is rounded as a whole, and the degree of distortion increases as it goes to the edge. The control unit 30 cuts out the image including the suspended load 10 from the image, starting from the center point of the image, cutting out the fan-shaped cutting range 503 including the image in the vertical direction, and planarizing the cut image. As shown in FIG. 10C, a possible plane image 513 is generated. This planarization process uses a function corresponding to the inverse transformation of distortion by a fisheye lens. The control unit 30 sets a display frame WI on the generated planar image 513 and causes the display unit 200 to display an image in the display frame WI. In addition, although the example which selects the left camera 11 as a camera which acquires an image was demonstrated, you may select the right camera 12 as a camera which acquires an image.

映像の切り取り範囲503及び表示枠WIの設定位置は、ブーム7の対地角度に応じて変化する。これは、ブーム7が起伏して対地角度が変わると、左カメラ11または右カメラ12が撮影した映像内の吊り荷10の位置が変変化するからである。そこで、ブーム7の対地角度と切り取り範囲503と平坦化後の画像の上の表示枠WIの設定位置との関係を、予め求めておき、図12(B)に示すように、作業時用データベースD2として記憶部31に記憶しておく。   The setting positions of the image cutout range 503 and the display frame WI change according to the ground angle of the boom 7. This is because when the boom 7 is raised and lowered and the ground angle is changed, the position of the suspended load 10 in the image captured by the left camera 11 or the right camera 12 is changed. Therefore, the relationship between the ground angle of the boom 7, the cutout range 503, and the setting position of the display frame WI on the flattened image is obtained in advance, and as shown in FIG. This is stored in the storage unit 31 as D2.

切り取り範囲503とブーム7の対地角度との関係を示すテーブルについて、図11と図12(B)を参照して説明する。図11(A)に、左カメラ11または右カメラ12が撮影した映像に設定する角度の一例を示す。まず、左カメラ11において、0度を−X軸方向、90度を+Y軸方向、180度を+X軸方向、270度を−Y軸方向とする。右カメラ12についても同様に角度を設定する。   A table showing the relationship between the cutout range 503 and the ground angle of the boom 7 will be described with reference to FIGS. 11 and 12B. FIG. 11A shows an example of an angle set for an image captured by the left camera 11 or the right camera 12. First, in the left camera 11, 0 degrees is defined as −X axis direction, 90 degrees is defined as + Y axis direction, 180 degrees is defined as + X axis direction, and 270 degrees is defined as −Y axis direction. The angle is similarly set for the right camera 12.

図11(A)に示すように、切り取り範囲503を、画像の中心を基準として、吊り荷10の画像が含まれる扇型の範囲に設定する。ブーム7の対地角度が変化する毎に、画像全体の中の吊り荷10の位置が変化する。そこで、図11(B)に例示するように、対地角度に応じて、切り出す角度範囲を変化させる。この例では、左カメラ11で撮影した画像に関しては、切り取り範囲503を、ブーム7の対地角度0〜20°未満の場合には、+30°〜−150°の範囲、対地角度が20°〜40°未満の場合には、0°〜−130°未満の範囲、対地角度が40°〜60°未満の場合には、−30°〜−110°の範囲などとする。右カメラ12の映像についても、吊り荷10の画像の位置を基準に切り取り範囲503が定められる。この関係は、図12(B)に示す作業時用データベースD2にまとめられている。   As shown in FIG. 11A, the cut-out range 503 is set to a fan-shaped range including the image of the suspended load 10 with the center of the image as a reference. Each time the ground angle of the boom 7 changes, the position of the suspended load 10 in the entire image changes. Therefore, as illustrated in FIG. 11B, the angle range to be cut out is changed according to the ground angle. In this example, with respect to the image captured by the left camera 11, the cropping range 503 is set to a range of + 30 ° to −150 ° when the ground angle of the boom 7 is less than 0 ° to 20 °, and the ground angle is 20 ° to 40 °. When the angle is less than 0 °, the range is 0 ° to less than −130 °, and when the ground angle is less than 40 ° to 60 °, the range is −30 ° to −110 °. Also for the video of the right camera 12, a cutout range 503 is determined based on the position of the image of the suspended load 10. This relationship is summarized in the work database D2 shown in FIG.

図12(A)は、走行時用データベースD1の一例を示す。クレーン1の、走行時には、ブーム7は伏せられた状態にあり、その対地角度は一定である。図8(A)に示す地点Aを表示するための切り取り範囲501と図9(A)に示す地点Bを表示するための切り取り範囲502は、左カメラ11と右カメラ12とで、それぞれの範囲が定められている。また、撮影された映像を平面画像に変換するための平面化関数及び変換された平面画像上の表示枠WIの基準位置も、左カメラ11と右カメラ12とで、それぞれで定められている。   FIG. 12A shows an example of the travel time database D1. When the crane 1 is traveling, the boom 7 is in a face-down state, and the ground angle is constant. A cutout range 501 for displaying the point A shown in FIG. 8A and a cutout range 502 for displaying the point B shown in FIG. 9A are the respective ranges for the left camera 11 and the right camera 12. Is stipulated. The left camera 11 and the right camera 12 also determine the planarization function for converting the captured video into a planar image and the reference position of the display frame WI on the converted planar image.

この走行時用データベースD1から、例えば、左カメラ11を使用して地点Aの画像を表示部200に表示するためには、撮影した映像の第1範囲の画像を切り取り、平面化関数fを用いて平面画像化し、生成された平面画像の座標(X,Y)を基準として表示枠WIを設定し、表示枠WI内の画像を表示部200に表示すればよいことを特定できる。なお、表示された画像をパンする場合には、表示枠WIをX軸方向(画像の水平方向)に移動し、チルトする場合には、表示枠WIをX軸方向(画像の鉛直方向)に移動し、拡大する場合には、表示枠WIを小さくし、縮小する場合には、表示枠WIを大きくすればよい。 For example, in order to display the image of the point A on the display unit 200 using the left camera 11 from the running database D1, the first range image of the captured video is cut out, and the planarization function f 1 is obtained. It is possible to specify that the display frame WI is set based on the coordinates (X 1 , Y 1 ) of the generated plane image, and the image in the display frame WI is displayed on the display unit 200. When the displayed image is panned, the display frame WI is moved in the X-axis direction (the horizontal direction of the image), and when tilted, the display frame WI is moved in the X-axis direction (the vertical direction of the image). When moving and enlarging, the display frame WI may be reduced, and when reducing, the display frame WI may be increased.

一方、図12(B)は、作業時用データベースD2の一例を示す。この作業時用データベースD2は、左カメラ11と右カメラ12の別と、ブーム7の対地角度と、切り取り範囲と、平面化関数と、表示枠の基準位置といったパラメータを互いに対応付けて規定している。切り取り範囲には、図11(B)に例示した角度範囲を格納する。平面化関数には、切り取り範囲の画像の歪みを補正して平面画像に変換するための関数を格納する。表示枠の位置には、平面画像上に設定する表示枠の基準位置を格納する。   On the other hand, FIG. 12B shows an example of the work database D2. The work database D2 defines parameters such as the left camera 11 and the right camera 12, the ground angle of the boom 7, the cutting range, the planarization function, and the reference position of the display frame in association with each other. Yes. The angle range illustrated in FIG. 11B is stored in the cutout range. In the planarization function, a function for correcting the distortion of the image in the cutout range and converting it into a planar image is stored. The reference position of the display frame set on the planar image is stored in the display frame position.

この作業時用データベースD2から、例えば、ブーム7の対地角度が30°のときに、左カメラ11を使用して吊り荷の画像を表示するためには、撮影した映像の0°〜−130°の範囲の画像を切り取り、平面化関数fを用いて平面画像化し、生成された平面画像の座標(X,Y)を基準として表示枠WIを設定し、表示枠WI内の画像を表示部200に表示すればよいことを特定できる。 From this work time database D2, for example, in order to display an image of a suspended load using the left camera 11 when the ground angle of the boom 7 is 30 °, 0 ° to −130 ° of the captured video is displayed. Is cut out and converted into a planar image using the planarization function f 6 , the display frame WI is set based on the coordinates (X 6 , Y 6 ) of the generated planar image, and the image in the display frame WI is selected. It can be specified that the information should be displayed on the display unit 200.

走行時用データベースD1と作業時用データベースD2の記憶部31への記憶は、設計時に設計者が行う。メンテナンス時に、メンテナンス担当者が、記憶部31に記憶しているデータベースを、更新または変更してもよい。   The designer stores the running database D1 and the working database D2 in the storage unit 31 at the time of designing. During maintenance, the person in charge of maintenance may update or change the database stored in the storage unit 31.

左カメラ11または右カメラ12で撮影した映像に対して、制御部30が行うキャリブレーションと表示装置20への表示の処理は、複数カメラ画像表示処理のプログラムとして、記憶部31に記憶されている。制御部30は、表示装置20の電源がオンされたタイミング等で、記憶部31から複数カメラ画像表示処理用のプログラムを読み出し、これを実行する。   The calibration performed by the control unit 30 and the display process on the display device 20 with respect to the video captured by the left camera 11 or the right camera 12 are stored in the storage unit 31 as a program for a multiple camera image display process. . The control unit 30 reads out a program for displaying a plurality of camera images from the storage unit 31 at a timing when the power of the display device 20 is turned on, and executes the program.

制御部30は、複数カメラ画像表示処理を実行する時に、映像取得部301と、データ取得部302と、対地角度算出部303と、キャリブレーション情報取得部304と、表示画像生成部305として機能する。   The control unit 30 functions as a video acquisition unit 301, a data acquisition unit 302, a ground angle calculation unit 303, a calibration information acquisition unit 304, and a display image generation unit 305 when executing a multi-camera image display process. .

次に、複数カメラ画像表示処理について、図13に示すフローチャートを参照して説明する。   Next, the multi-camera image display process will be described with reference to the flowchart shown in FIG.

表示装置20の電源がオンされると、制御部30は、図13に示す複数カメラ画像表示処理を開始し、まず、コントローラ32からクレーン1のPTO(Power Take−Off)の状態を取得する。PTOは、エンジンからクレーン1の作業に必要な動力を取り出す機構である。このため、制御部30は、PTOがONであれば、クレーン1は作業中であり、PTOがOFFであれば、クレーン1は走行中と判断する。   When the power of the display device 20 is turned on, the control unit 30 starts the multi-camera image display process shown in FIG. 13, and first acquires the PTO (Power Take-Off) state of the crane 1 from the controller 32. The PTO is a mechanism for extracting power necessary for the operation of the crane 1 from the engine. For this reason, the control unit 30 determines that the crane 1 is working if the PTO is ON, and the crane 1 is traveling if the PTO is OFF.

PTOの状態がONであれば(ステップS100;YES)、クレーン1は作業状態であり、制御部30のデータ取得部302は、コントローラ32から、吊り荷10の荷重、ブーム7の長さと傾斜角等のパラメータを取得する。対地角度算出部303は、データ取得部302が取得した各種パラメータを所定の演算式又はテーブルに適用することにより、ブーム7の対地角度を算出し、表示画像生成部305に通知する(ステップS101)。   If the state of the PTO is ON (step S100; YES), the crane 1 is in a working state, and the data acquisition unit 302 of the control unit 30 receives the load of the suspended load 10, the length of the boom 7 and the inclination angle from the controller 32. And so on. The ground angle calculation unit 303 calculates the ground angle of the boom 7 by applying the various parameters acquired by the data acquisition unit 302 to a predetermined arithmetic expression or table, and notifies the display image generation unit 305 of it (step S101). .

表示画像生成部305は、キャリブレーション情報取得部304を介して、記憶部31からカメラ選択情報と表示形式情報とを取得する(ステップS102)。なお、前述のように、カメラ選択情報は、図4に示す左カメラ選択キー210または右カメラ選択キー211の押下により設定される。また、表示形式情報は、表示画像切替キー216と複数画像表示キー217との押下により設定される。   The display image generation unit 305 acquires camera selection information and display format information from the storage unit 31 via the calibration information acquisition unit 304 (step S102). As described above, the camera selection information is set by pressing the left camera selection key 210 or the right camera selection key 211 shown in FIG. The display format information is set by pressing the display image switching key 216 and the multiple image display key 217.

表示画像生成部305は、キャリブレーション情報取得部304を介して記憶部31にアクセスし、作業時用データベースD2から、カメラ選択情報が特定するカメラと算出された対地角度とに対応するキャリブレーション情報、即ち、映像の切り取り範囲と平面化関数と表示枠設定基準を特定する情報を取得する(ステップS103)。例えば、カメラ選択情報が左カメラ11を指定しており、ステップS103で対地角度が30°と求められている場合、切り取り範囲として0°〜−130°の範囲、平面化関数としてf、表示枠WIの基準位置として(X6,Y)を読み出す。 The display image generation unit 305 accesses the storage unit 31 via the calibration information acquisition unit 304, and calibration information corresponding to the camera specified by the camera selection information and the calculated ground angle from the work database D2. That is, information for specifying the cutout range of the video, the planarization function, and the display frame setting reference is acquired (step S103). For example, if the camera selection information specifies the left camera 11 and the ground angle is determined to be 30 ° in step S103, the cut-out range is 0 ° to −130 °, the flattening function is f 6 , and the display (X 6 , Y 6 ) is read as the reference position of the frame WI.

表示画像生成部305は、カメラ選択データが指定するカメラからの映像を映像取得部301から取得する(ステップS104)。   The display image generation unit 305 acquires the video from the camera specified by the camera selection data from the video acquisition unit 301 (step S104).

表示画像生成部305は、取得した映像にキャリブレーション処理を実行する。即ち、取得した映像の切り取り範囲の画像を切り取り、平面化関数を適用して平面画像を生成する。さらに、生成された平面画像上に、基準位置に基づいて、表示枠WIを設定する(ステップS105)。   The display image generation unit 305 performs calibration processing on the acquired video. That is, an image in the cutout range of the acquired video is cut out, and a planar image is generated by applying a planarization function. Further, a display frame WI is set on the generated planar image based on the reference position (step S105).

なお、パンが設定されている場合には、表示枠WIの位置を基準位置からX軸方向に移動し、チルトが設定されている場合には、表示枠WIの位置を基準位置からY軸方向に移動して配置する。十字キー218が操作された場合には、操作に応じて、適宜調整される。また、拡大が設定されている場合には、表示枠WIを縮小し、縮小が設定されている場合には、表示枠WIを縮小して配置する。   When pan is set, the position of the display frame WI is moved from the reference position in the X-axis direction. When tilt is set, the position of the display frame WI is moved from the reference position to the Y-axis direction. Move to place. When the cross key 218 is operated, it is appropriately adjusted according to the operation. Further, when enlargement is set, the display frame WI is reduced, and when reduction is set, the display frame WI is reduced and arranged.

表示画像生成部305は、表示枠WI内の画像を表示装置20に出力する。表示装置20は、入力された画像を、表示部200に表示する(ステップS106)。これにより、オペレータは、表示部200に表示された吊り荷10の平面画像をみながら、作業を行うことができる。   The display image generation unit 305 outputs the image in the display frame WI to the display device 20. The display device 20 displays the input image on the display unit 200 (step S106). Thereby, the operator can perform work while viewing the planar image of the suspended load 10 displayed on the display unit 200.

一方、ステップS100で、PTOの状態がOFFであれば(ステップS100;NO)、クレーン1は走行状態であり、ブーム7は伏した状態にある。表示画像生成部305は、キャリブレーション情報取得部304を介して、記憶部31からカメラ選択情報と表示形式情報を取得する(ステップS107)。   On the other hand, if the state of the PTO is OFF in step S100 (step S100; NO), the crane 1 is in a traveling state and the boom 7 is in a down state. The display image generation unit 305 acquires camera selection information and display format information from the storage unit 31 via the calibration information acquisition unit 304 (step S107).

続いて、表示画像生成部305は、キャリブレーション情報取得部304を介して、記憶部31に記憶されている走行時用データベースD1(図12(A))から、カメラ選択情報と表示形式情報とをキーに、キャリブレーション情報を取得する(ステップS108)。即ち、カメラ選択情報と表示形式情報に従って、走行時用データベースD1から、切り取り範囲と平面化関数と表示枠基準位置を読み出す。具体的には、設定されている表示形式がシングルウインドウ・モードであれば、走行時用データベースD1の表示形式情報で特定されるエントリに設定されている切り取り範囲と平面化関数と表示枠基準位置を取得する。例えば、カメラ選択情報が左カメラを指定していれば、左カメラ用の先頭エントリから「第1範囲」と「平面化関数f」と、基準位置(X,Y)を取得する。取得するエントリは表示画像切替キー216の押下により順次切り替えられる。 Subsequently, the display image generation unit 305 receives camera selection information, display format information, and the like from the travel time database D1 (FIG. 12A) stored in the storage unit 31 via the calibration information acquisition unit 304. Is used as a key to obtain calibration information (step S108). That is, in accordance with the camera selection information and the display format information, the cropping range, the planarization function, and the display frame reference position are read from the travel time database D1. Specifically, if the set display format is the single window mode, the cropping range, the planarization function, and the display frame reference position set in the entry specified by the display format information in the travel time database D1 To get. For example, if the camera selection information specifies the left camera, the “first range”, “planarization function f 1 ”, and reference position (X 1 , Y 1 ) are acquired from the first entry for the left camera. Entries to be acquired are sequentially switched by pressing the display image switching key 216.

また、現在設定されている表示形式がタイリングウインドウ・モードであれば、カメラ選択情報が指示するカメラ用のエントリからタイリングウインドウの数分取得する。例えば、例えば、カメラ選択情報が左カメラを指定していれば、図12(A)に示された左カメラ用の第1及び第2エントリから、「第1範囲」と「f」と「X,Y」の組と「第2範囲」と「f」と「X,Y」の組みを取得する。取得するエントリは表示画像切替キー216の押下により順次切り替えられる。 If the currently set display format is the tiling window mode, the number of tiling windows is acquired from the camera entry indicated by the camera selection information. For example, if the camera selection information designates the left camera, from the first and second entries for the left camera shown in FIG. 12A, “first range”, “f 1 ”, “ A set of “X 1 , Y 1 ”, a “second range”, “f 2 ” and “X 2 , Y 2 ” is acquired. Entries to be acquired are sequentially switched by pressing the display image switching key 216.

次に、表示画像生成部305は、映像取得部301から、カメラ選択情報が示すカメラが撮影した映像を取得する(ステップS109)。表示画像生成部305は、映像取得部301から取得した映像にキャリブレーション処理を施す(ステップS110)。即ち、取得した映像から、ステップS108で取得した切り取り範囲の画像を切り取り、平面化関数fで平面画像に変換して、さらに、変換後の平面画像に、基準位置を基準として、表示枠WIを設定する。なお、表示枠WIの設定位置は、パン操作キー212、チルト操作キー213、十字キー218の操作などにより、基準位置を中心に適宜変化する。また、表示枠WIのサイズは、表示拡大キー214,表示縮小キー215等の操作により基準サイズを中心に適宜調整される。   Next, the display image generation unit 305 acquires, from the video acquisition unit 301, a video captured by the camera indicated by the camera selection information (Step S109). The display image generation unit 305 performs a calibration process on the video acquired from the video acquisition unit 301 (step S110). That is, the image of the cutout range acquired in step S108 is cut from the acquired video, converted into a plane image by the planarization function f, and the display frame WI is further converted into a plane image after conversion using the reference position as a reference. Set. Note that the setting position of the display frame WI appropriately changes around the reference position by the operation of the pan operation key 212, the tilt operation key 213, the cross key 218, and the like. Further, the size of the display frame WI is appropriately adjusted around the reference size by operating the display enlargement key 214, the display reduction key 215, and the like.

表示画像生成部305は、表示枠WI内の画像を表示装置20に出力する。表示装置20は、入力された画像を、現在設定されている表示形式により表示部200に表示する(ステップS111)。オペレータは、表示部200に表示された左右前後の平面画像を参照しつつ、クレーン1を走行させることができる。   The display image generation unit 305 outputs the image in the display frame WI to the display device 20. The display device 20 displays the input image on the display unit 200 in the currently set display format (step S111). The operator can drive the crane 1 while referring to the left and right planar images displayed on the display unit 200.

制御部30は、以上のステップS100からステップS111の処理を、表示部200の電源がオフされるまで繰り返し実行する。   The control unit 30 repeatedly executes the above processing from step S100 to step S111 until the power of the display unit 200 is turned off.

以上のように、実施の形態1によれば、ブーム7の先端の左右に配置された全方位カメラで撮影された映像をキャリブレーションすることで、走行時の周囲の状況及び作業時の吊り荷10の状態を確認できるようにすることができる。すなわち、ブーム7の先端の左右に設けた全方位カメラを、サイドカメラと吊り荷監視用カメラとして共用することができる。これにより、部品点数を減らすことができる。また、カメラの台数を通常想定される3台から2台に減らすことができるので、信号線の引き回しを容易にし、かつ、コードリールの制御を簡単にすることができる。   As described above, according to the first embodiment, by calibrating the images taken by the omnidirectional cameras arranged on the left and right of the tip of the boom 7, the surrounding conditions during traveling and the suspended load during work Ten states can be confirmed. That is, the omnidirectional camera provided on the left and right of the tip of the boom 7 can be shared as a side camera and a suspended load monitoring camera. Thereby, the number of parts can be reduced. In addition, since the number of cameras can be reduced from the normally assumed three to two, the signal lines can be easily routed and the control of the cord reel can be simplified.

また、クレーン1の走行中は、カメラで撮影した映像を、単一の画像を表示するシングルウインドウ・モードと、複数の画像を同時に表示するタイリングウインドウ・モードとに切り替えて表示装置20に表示することができる。このため、オペレータがクレーンの周囲の状況を簡単に監視することができる。これにより、従来、オペレータがクレーンの周囲の状況を監視するために必要としたクレーンの側方向を撮影するカメラと、フロントバンパー確認ミラー42と、サイドミラー43とが不要になる。したがって、部品の点数を減らすことができる。   Further, while the crane 1 is traveling, the video captured by the camera is displayed on the display device 20 by switching between a single window mode for displaying a single image and a tiling window mode for simultaneously displaying a plurality of images. can do. For this reason, the operator can easily monitor the situation around the crane. Thereby, the camera which image | photographs the side direction of the crane conventionally required for the operator to monitor the condition around a crane, the front bumper confirmation mirror 42, and the side mirror 43 become unnecessary. Therefore, the number of parts can be reduced.

また、撮影画像のうち表示対象となりうる部分を切り取ってから平面化処理を行うので、画像全体を平面化処理する場合に比して、制御部の処理量を大幅に抑えることができる。   In addition, since the planarization process is performed after a portion that can be a display target is cut out from the captured image, the processing amount of the control unit can be significantly reduced as compared with the case where the entire image is planarized.

(実施の形態2)
本発明の実施の形態2に係る周囲監視システム100Aは、ブーム7の先端に設けた1台の全方位カメラを、サイドカメラと吊り荷監視用カメラを共用したカメラとして用いることができるシステムである。以下、周囲監視システム100Aについて、図14から図22を参照して説明する。なお、実施の形態1と同一の部分の説明については同一の符号を付す。
(Embodiment 2)
Ambient monitoring system 100A according to Embodiment 2 of the present invention is a system in which one omnidirectional camera provided at the tip of boom 7 can be used as a camera sharing a side camera and a suspended load monitoring camera. . Hereinafter, the surroundings monitoring system 100A will be described with reference to FIGS. In addition, the same code | symbol is attached | subjected about description of the part same as Embodiment 1. FIG.

図14(A)に示すように、ブーム7の先端部7dの前側には、単一のカメラ15がカメラ保持部16を介して設けられている。カメラ15は、魚眼レンズを備えた全方位カメラから構成される。   As shown in FIG. 14A, a single camera 15 is provided on the front side of the distal end portion 7 d of the boom 7 via a camera holding portion 16. The camera 15 is composed of an omnidirectional camera equipped with a fisheye lens.

図14(B)に示すように、カメラ15の魚眼レンズの光学軸をZ軸とし、クレーン1の車両の左右方向をX軸方向とし、X軸とZ軸に直角な方向をY軸方向とする。カメラ15は、クレーン1の走行時には、ブーム7の側方向から地面方向を撮影可能で、作業時には、吊り荷10が撮影できる方向を向く姿勢でカメラ保持部16に固定されている。   As shown in FIG. 14B, the optical axis of the fisheye lens of the camera 15 is the Z axis, the left-right direction of the crane 1 vehicle is the X axis direction, and the direction perpendicular to the X axis and the Z axis is the Y axis direction. . The camera 15 is fixed to the camera holding unit 16 so as to be able to take an image of the ground direction from the side of the boom 7 when the crane 1 is traveling and to face the direction in which the suspended load 10 can be taken during operation.

周囲監視システム100Aは、カメラ15が撮影した映像をキャリブレーションし、表示装置20Aに表示する。   The surrounding monitoring system 100A calibrates the image captured by the camera 15 and displays it on the display device 20A.

図15に示すように、表示装置20Aは、図4に示す表示装置20の左カメラ選択キー210と右カメラ選択キー211に代えて、左方向表示キー220と右方向表示キー221を備える。   As illustrated in FIG. 15, the display device 20 </ b> A includes a left direction display key 220 and a right direction display key 221 instead of the left camera selection key 210 and the right camera selection key 211 of the display device 20 illustrated in FIG. 4.

左方向表示キー220は、カメラ15が撮影した映像から、クレーン1の左方向の画像を抽出して表示することを指示するキーである。右方向表示キー221は、カメラ15が撮影した映像から、クレーン1の右方向の画像を抽出して、表示することを指示するキーである。左方向表示キー220または右方向表示キー221の押下により、選択された向きが表示方向であることを示す表示方向選択情報が記憶部31に記憶される。なお、初期状態では、デフォルトの表示方向選択示選択情報、例えば、左方向の表示を指定する表示方向選択情報が記憶部31に記憶されている。   The left display key 220 is a key for instructing to extract and display a left image of the crane 1 from the video taken by the camera 15. The right direction display key 221 is a key for instructing to extract and display an image of the crane 1 in the right direction from the video taken by the camera 15. When the left direction display key 220 or the right direction display key 221 is pressed, display direction selection information indicating that the selected direction is the display direction is stored in the storage unit 31. In the initial state, default display direction selection display selection information, for example, display direction selection information for designating display in the left direction is stored in the storage unit 31.

次に、カメラ15が撮影した映像を表示装置20Aに表示させる制御部30Aの構成を、図16を参照して説明する。なお、制御部30Aと、カメラ15と、記憶部31と、表示装置20Aとが周囲監視システム100Aを構成する。制御部30Aは、映像取得部301と、データ取得部302と、対地角度算出部303と、キャリブレーション情報取得部304と、表示画像生成部305とを備えている。   Next, the configuration of the control unit 30A that displays the video captured by the camera 15 on the display device 20A will be described with reference to FIG. Note that the control unit 30A, the camera 15, the storage unit 31, and the display device 20A constitute a surrounding monitoring system 100A. The control unit 30A includes a video acquisition unit 301, a data acquisition unit 302, a ground angle calculation unit 303, a calibration information acquisition unit 304, and a display image generation unit 305.

映像取得部301は、1台のカメラ15が撮影した映像を取得する。キャリブレーション情報取得部304は、記憶部31に記憶されている走行時用または作業時用のキャリブレーション情報、表示方向選択情報、及び、表示形式特定データを取得する。表示画像生成部305は、映像取得部301が取得した映像、対地角度算出部303が算出した対地角度、キャリブレーション情報取得部304を介して取得したキャリブレーション情報と表示方向選択情報及び表示形式選択情報とに基づいて、表示部200に表示する画像を生成する。表示画像生成部305は、生成した画像を表示装置20Aに出力する。データ取得部302と対地角度算出部303は、図5に示すデータ取得部302と対地角度算出部303と実質的に同一である。   The video acquisition unit 301 acquires video captured by one camera 15. The calibration information acquisition unit 304 acquires calibration information for travel or work, display direction selection information, and display format specifying data stored in the storage unit 31. The display image generation unit 305 includes the video acquired by the video acquisition unit 301, the ground angle calculated by the ground angle calculation unit 303, the calibration information acquired via the calibration information acquisition unit 304, display direction selection information, and display format selection. An image to be displayed on the display unit 200 is generated based on the information. The display image generation unit 305 outputs the generated image to the display device 20A. The data acquisition unit 302 and the ground angle calculation unit 303 are substantially the same as the data acquisition unit 302 and the ground angle calculation unit 303 illustrated in FIG.

制御部30Aのハードウエアの構成は、図6に示す構成と実質的に同一である。   The hardware configuration of the control unit 30A is substantially the same as the configuration shown in FIG.

次に、制御部30Aが行うキャリブレーション処理について説明する。   Next, the calibration process performed by the control unit 30A will be described.

まず、クレーン1の走行時におけるキャリブレーション処理について、図17と図18を参照しつつ説明する。   First, a calibration process during traveling of the crane 1 will be described with reference to FIGS. 17 and 18.

図17に示すようにクレーン1が、交差点50に差しかかっている場面を想定する。この状態では、カメラ15は、キャビン4よりも前方の交差点を見渡せる位置にある。クレーン1から見て交差点50の左側の角には、障害物51がある。交差点50を左折した地点を地点A、交差点50を渡った地点を地点B、クレーン1のフロントバンパーと障害物51との間の地点を地点C、クレーン1と障害物51との間の地点を地点Dとする。また、クレーン1から見て交差点50を挟んで右斜め前方の地点を地点E、交差点50を挟んで地点Aと対向する地点を地点Fとする。   Assume that the crane 1 is approaching the intersection 50 as shown in FIG. In this state, the camera 15 is in a position overlooking the intersection ahead of the cabin 4. There is an obstacle 51 at the left corner of the intersection 50 when viewed from the crane 1. The point where the intersection 50 is turned left is the point A, the point crossing the intersection 50 is the point B, the point between the front bumper of the crane 1 and the obstacle 51 is the point C, and the point between the crane 1 and the obstacle 51 is the point D. Further, a point diagonally right forward with respect to the intersection 50 when viewed from the crane 1 is a point E, and a point facing the point A with the intersection 50 interposed is a point F.

カメラ15が撮影している映像を図18(A)に例示する。この映像は、交差点50とブーム7の映像を含み、右半分がクレーン1の右方向を撮影した映像であり、左半分がクレーン1の左方向を撮影した映像である。   An image captured by the camera 15 is illustrated in FIG. This image includes images of the intersection 50 and the boom 7, and the right half is an image of the right direction of the crane 1 and the left half is an image of the left direction of the crane 1.

ここで、オペレータが、図15に示す表示装置20Aの右方向表示キー221を押下したとする。この場合、記憶部31に、右方向選択情報が格納される。制御部30Aは、カメラ15が撮影した映像を、予め定められた切り取り範囲504に合わせて切り取る。切り取り範囲504は、右方向を撮影した映像を切り取る範囲として、予め定められた範囲である。切り取り範囲504は、例えば、クレーン1が交差点にさしかかったときに、交差点の右折方向の道路の画像が納まる範囲として設定される。制御部30Aは、切り取った画像について平面化処理を行い、平面画像を生成する。生成した平面画像を図18(B)に例示する。制御部30Aは、生成した平面画像上に表示枠WIを設定する。表示枠WI内の画像が、表示部200に表示される。オペレータは、表示部200に表示された画像を見ることによって、地点Fの状況を視認することができる。   Here, it is assumed that the operator presses the right direction display key 221 of the display device 20A shown in FIG. In this case, the right direction selection information is stored in the storage unit 31. The control unit 30A cuts the video shot by the camera 15 in accordance with a predetermined cut range 504. The cutout range 504 is a predetermined range as a cutout range of a video shot in the right direction. The cutout range 504 is set, for example, as a range in which an image of a road in the right turn direction at the intersection is accommodated when the crane 1 approaches the intersection. The control unit 30A performs planarization processing on the cut image and generates a planar image. The generated planar image is illustrated in FIG. The control unit 30A sets the display frame WI on the generated planar image. An image in the display frame WI is displayed on the display unit 200. The operator can visually recognize the situation at the point F by looking at the image displayed on the display unit 200.

次に、オペレータが、表示装置20Aの左方向表示キー220を押下したとする。この場合、記憶部31に、左方向選択情報が格納される。この場合、制御部30Aは、図18(A)に示すカメラ15が撮影した映像の切り取り範囲505を切り取る。切り取り範囲505は、左方向を撮影した映像を切り取る範囲として、定められた範囲である。切り取り範囲505は、例えば、クレーン1が交差点にさしかかったときに、左折方向の道路の画像が納まる範囲として設定される。   Next, it is assumed that the operator presses the left direction display key 220 of the display device 20A. In this case, the left direction selection information is stored in the storage unit 31. In this case, the control unit 30A cuts out a cutout range 505 of the video shot by the camera 15 shown in FIG. The cutout range 505 is a range determined as a cutout range of a video shot in the left direction. The cutout range 505 is set, for example, as a range in which an image of a road in a left turn direction is accommodated when the crane 1 approaches an intersection.

制御部30Aは、切り取った画像について平面化処理を行い、平面画像を生成する。生成した平面画像を図18(C)に例示する。制御部30Aは、生成した平面画像上に表示枠WIを設定する。表示枠WI内の画像が、表示部200に表示される。オペレータは、表示部200に表示された画像を見ることによって、地点Aの状況を視認することができる。   The control unit 30A performs planarization processing on the cut image and generates a planar image. The generated planar image is illustrated in FIG. The control unit 30A sets the display frame WI on the generated planar image. An image in the display frame WI is displayed on the display unit 200. The operator can visually recognize the situation at the point A by looking at the image displayed on the display unit 200.

図18(B)、(C)に示した画像は、表示画像切替キー216を押下することにより、表示部200上で切り替えて表示することができる。また、図18(B)、(C)に示した画像は、複数画像表示キー217を押下することで、表示部200上に同時に並べて表示することができる。   The images shown in FIGS. 18B and 18C can be switched and displayed on the display unit 200 by pressing the display image switching key 216. In addition, the images shown in FIGS. 18B and 18C can be displayed side by side on the display unit 200 by pressing the multiple image display key 217.

切り取り範囲、平滑化関数、表示枠WIの基準位置は、図20(A)に示す走行時用データベースD11にまとめられ、記憶部31に記憶されている。   The cutout range, the smoothing function, and the reference position of the display frame WI are collected in the travel database D11 shown in FIG. 20A and stored in the storage unit 31.

次に、クレーン1の作業時におけるキャリブレーション処理について、図19と20(B)を参照しつつ説明する。作業時には、カメラ15で撮影した地面Gの方向の映像を、キャリブレーションし、表示部200に表示させる。   Next, the calibration process at the time of work of the crane 1 is demonstrated, referring FIG. 19 and 20 (B). At the time of work, an image in the direction of the ground G photographed by the camera 15 is calibrated and displayed on the display unit 200.

クレーン1が吊り荷10を吊り上げる作業をしており、吊り荷10方向の映像を、表示部200に表示させるものとする。   It is assumed that the crane 1 is lifting the suspended load 10 and displays an image in the direction of the suspended load 10 on the display unit 200.

この場合、制御部30Aは、図19(A)に示すように、カメラ15で撮影した映像の地面方向の画像を、映像の中心点を起点とした扇形の切り取り範囲506に合わせて切り取る。制御部30Aは、切り取った画像に平面化処理を行い、平面画像を生成する。生成した長方形の画像を、図19(B)に例示する。制御部30Aは、生成した平面画像上に表示枠WIを設定する。表示枠WI内の画像が、表示部200に表示される。   In this case, as shown in FIG. 19A, the control unit 30A cuts an image in the ground direction of the video shot by the camera 15 in accordance with a sector-shaped cutout range 506 starting from the center point of the video. The control unit 30A performs planarization processing on the cut image and generates a planar image. The generated rectangular image is illustrated in FIG. The control unit 30A sets the display frame WI on the generated planar image. An image in the display frame WI is displayed on the display unit 200.

クレーン1の作業時における映像の切り取り範囲506と平滑化関数と表示枠WIの設定位置は、ブーム7の対地角度に応じて変化する。これは、カメラ15が撮影する映像内の吊り荷10の位置が、ブーム7の対地角度によって変化するためである。これらのキャリブレーション処理に必要な情報は、図20(B)に示すようにテーブル化され、作業時用データベースD12として記憶部31に記憶されている。   The image cutout range 506, the smoothing function, and the setting position of the display frame WI during the operation of the crane 1 change according to the ground angle of the boom 7. This is because the position of the suspended load 10 in the video imaged by the camera 15 changes depending on the ground angle of the boom 7. Information necessary for the calibration process is tabulated as shown in FIG. 20B and stored in the storage unit 31 as the work database D12.

カメラ15で撮影した映像に対して、制御部30Aが行うキャリブレーション処理は、単一カメラ画像表示処理のプログラムとして、記憶部31に記憶されている。制御部30Aは、表示装置20Aが起動されると、記憶部31からこのプログラムを読み出し、実行する。   The calibration process performed by the control unit 30A for the video imaged by the camera 15 is stored in the storage unit 31 as a single camera image display process program. When the display device 20A is activated, the control unit 30A reads this program from the storage unit 31 and executes it.

制御部30Aは、単一カメラ画像表示処理プログラムを実行する時には、映像取得部301と、データ取得部302と、対地角度算出部303と、キャリブレーション情報取得部304と、表示画像生成部305として機能する。   When executing the single camera image display processing program, the control unit 30A serves as a video acquisition unit 301, a data acquisition unit 302, a ground angle calculation unit 303, a calibration information acquisition unit 304, and a display image generation unit 305. Function.

単一カメラ画像表示処理について、図21に示すフローチャートを参照して説明する。   The single camera image display process will be described with reference to the flowchart shown in FIG.

表示装置20Aがオンになると、制御部30Aは、図21に示す単一カメラ画像表示処理を開始し、まず、クレーン1のPTOの状態を確認する(ステップS200)。   When the display device 20A is turned on, the control unit 30A starts the single camera image display process shown in FIG. 21 and first checks the state of the PTO of the crane 1 (step S200).

PTOの状態がONであれば(ステップS200;YES)、クレーン1は作業状態であり、制御部30Aのデータ取得部302は、コントローラ32から、吊り荷10の荷重、ブーム7の長さと傾斜角等のパラメータを取得する。対地角度算出部303は、データ取得部302が取得したパラメータから、ブーム7の対地角度を算出する(ステップS201)。   If the state of the PTO is ON (step S200; YES), the crane 1 is in the working state, and the data acquisition unit 302 of the control unit 30A receives the load of the suspended load 10, the length of the boom 7 and the inclination angle from the controller 32. And so on. The ground angle calculation unit 303 calculates the ground angle of the boom 7 from the parameters acquired by the data acquisition unit 302 (step S201).

表示画像生成部305は、キャリブレーション情報取得部304を介して、記憶部31から表示形式情報を取得する(ステップS202)。   The display image generation unit 305 acquires display format information from the storage unit 31 via the calibration information acquisition unit 304 (step S202).

表示画像生成部305は、キャリブレーション情報取得部304を介して記憶部31にアクセスし、作業時用データベースD12から、算出された対地角度に対応するキャリブレーション情報、即ち、映像の切り取り範囲と平面化関数と表示枠設置位置を特定する情報を取得する(ステップS203)。例えば、対地角度が30°と求められている場合、切り取り範囲として−30°〜−150°の範囲、平面化関数としてf16,表示枠WIの基準位置として(X16,Y16)を読み出す。 The display image generation unit 305 accesses the storage unit 31 via the calibration information acquisition unit 304, and obtains calibration information corresponding to the calculated ground angle from the work database D12, that is, the cutout range and plane of the video. Information for specifying the conversion function and the display frame installation position is acquired (step S203). For example, when the ground angle is determined to be 30 °, a cutout range of −30 ° to −150 °, f 16 as a planarization function, and (X 16 , Y 16 ) as a reference position of the display frame WI are read out. .

表示画像生成部305は、カメラ15からの映像を取得する(ステップS204)。   The display image generation unit 305 acquires video from the camera 15 (step S204).

表示画像生成部305は、取得した映像にキャリブレーション処理を実行する(ステップS205)。即ち、取得した映像から、切り取り範囲の画像を切り取り、平面化関数を適用して平面画像を生成する。さらに、生成された平面画像上に、基準位置に基づいて、表示枠WIを設定する。   The display image generation unit 305 performs a calibration process on the acquired video (step S205). That is, an image in the cutout range is cut out from the acquired video, and a flattening function is applied to generate a flattened image. Further, a display frame WI is set on the generated planar image based on the reference position.

なお、パンが設定されている場合には、表示枠WIの位置を基準位置からX軸方向に移動し、チルトが設定されている場合には、表示枠WIの位置を基準位置からY軸方向に移動して配置する。十字キー218が操作されている場合も同様である。また、拡大が設定されている場合には、表示枠WIを縮小し、縮小が設定されている場合には、表示枠WIを縮小して配置する。   When pan is set, the position of the display frame WI is moved from the reference position in the X-axis direction. When tilt is set, the position of the display frame WI is moved from the reference position to the Y-axis direction. Move to place. The same applies when the cross key 218 is operated. Further, when enlargement is set, the display frame WI is reduced, and when reduction is set, the display frame WI is reduced and arranged.

表示画像生成部305は、表示枠WI内の画像を表示装置20Aに出力する。表示装置20Aは、入力された画像を、表示部200に表示する(ステップS206)。これにより、オペレータは、吊り荷10の平面画像を見ながら、作業を行うことができる。   The display image generation unit 305 outputs the image in the display frame WI to the display device 20A. The display device 20A displays the input image on the display unit 200 (step S206). Thereby, the operator can perform work while looking at the plane image of the suspended load 10.

一方、ステップS200で、PTOの状態がOFFであれば(ステップS200;NO)、クレーン1は走行状態であり、表示画像生成部305は、キャリブレーション情報取得部304を介して、記憶部31から表示方向選択情報と表示形式情報を取得する(ステップS207)。なお、表示方向選択情報は、図15に示す左方向表示キー220又は右方向表示キー221の押下により設定される。   On the other hand, if the PTO state is OFF in step S200 (step S200; NO), the crane 1 is in a traveling state, and the display image generation unit 305 is stored in the storage unit 31 via the calibration information acquisition unit 304. Display direction selection information and display format information are acquired (step S207). The display direction selection information is set by pressing the left direction display key 220 or the right direction display key 221 shown in FIG.

続いて、表示画像生成部305は、キャリブレーション情報取得部304を介して、記憶部31に記憶されている走行時用データベースD11(図20(A))から、表示方向選択情報と表示形式情報とをキーに、キャリブレーション情報を取得する(ステップ208)。即ち、表示方向選択情報と表示形式情報に従って、走行時用データベースD11から、切り取り範囲と平面化関数と表示枠基準位置を読み出す。具体的には、設定されている表示形式がシングルウインドウ・モードであれば、走行時用データベースD11の現在表示対象となっているエントリに設定されている切り取り範囲と平面化関数と表示枠基準位置を得する。例えば、表示方向選択情報が左方向を指定しており、現在の表示対象が第1エントリであれば、左方向用の先頭エントリから「第1範囲」と「平面化関数f11」と、基準位置(X11,Y11)を取得する。また、設定されている表示形式がタイリングウインドウ・モードであれば、表示方向選択情報が指示する表示方向用のエントリからタイリングウインドウの数分の情報を取得する。例えば、左方向用の第1及び第2エントリから、「第1範囲」と「f11」と「X11,Y11」の組と「第2範囲」と「f12」と「X12,Y12」の組を取得する。 Subsequently, the display image generation unit 305 receives display direction selection information and display format information from the running database D11 (FIG. 20A) stored in the storage unit 31 via the calibration information acquisition unit 304. The calibration information is acquired by using and as keys (step 208). That is, in accordance with the display direction selection information and the display format information, the cropping range, the planarization function, and the display frame reference position are read from the travel time database D11. Specifically, if the set display format is the single window mode, the cut range, the planarization function, and the display frame reference position set in the entry currently displayed in the travel time database D11 To get. For example, if the display direction selection information specifies the left direction and the current display target is the first entry, the “first range” and “planarization function f 11 ” from the first entry for the left direction, the reference The position (X 11 , Y 11 ) is acquired. If the set display format is the tiling window mode, information corresponding to the number of tiling windows is acquired from the display direction entry indicated by the display direction selection information. For example, from the first and second entries for the left direction, a set of “first range”, “f 11 ”, “X 11 , Y 11 ”, “second range”, “f 12 ”, “X 12 , A set of “Y 12 ” is acquired.

次に、表示画像生成部305は、映像取得部301から、カメラ15が撮影した映像を取得する(ステップS209)。表示画像生成部305は、取得した映像にキャリブレーション処理を施す(ステップS210)。即ち、取得した映像から、切り取り範囲の画像を切り取り、平面化関数fで平面画像に変換して、さらに、変換後の平面画像上に表示枠WIを設定する。   Next, the display image generation unit 305 acquires the video captured by the camera 15 from the video acquisition unit 301 (step S209). The display image generation unit 305 performs a calibration process on the acquired video (step S210). That is, an image in the cutout range is cut out from the acquired video, converted into a flat image using the planarization function f, and a display frame WI is set on the converted flat image.

表示画像生成部305は、表示枠WI内の画像を表示装置20Aに出力する。表示装置20Aは、入力された画像を、現在設定されている表示形式により表示部200に表示する(ステップS211)。オペレータは、表示部200に表示された左右前後の平面画像参照しつつ、クレーン1を走行させることができる。   The display image generation unit 305 outputs the image in the display frame WI to the display device 20A. The display device 20A displays the input image on the display unit 200 in the currently set display format (step S211). The operator can run the crane 1 while referring to the left and right plane images displayed on the display unit 200.

制御部30Aは、以上のステップS200からステップS211の処理を、表示装置20Aのスイッチがオフされるまで繰り返し実行する。   The control unit 30A repeatedly executes the processes from step S200 to step S211 until the switch of the display device 20A is turned off.

以上のように、実施の形態2によれば、カメラが1台ですむ。従って、部品点数を減らし、信号線の引き回しを容易にし、かつ、コードリールの制御を簡単にすることができる。   As described above, according to the second embodiment, only one camera is required. Therefore, the number of parts can be reduced, the signal lines can be easily routed, and the control of the cord reel can be simplified.

(変形例1)
上記の説明では、図14(A)に示すように、ブーム7の先端部7dの前側にカメラ15を配置したが、必要な画像が確保できる範囲で、カメラの設置位置は任意である。例えば、図22に示すように、カメラ15を、先端部7dのキャビン4とは反対側、すなわち、先端部7dの左側に配置してもよい。この場合、走行時には、クレーン1の左方向を撮影している映像を切り取り、オペレータに提示することができる。キャビン4の右方向は、カメラ15では撮影できないので、オペレータが視認する。また、作業時には、実施の形態2と同様に、吊り荷10方向の画像を切り取って、表示することができる。
(Modification 1)
In the above description, as shown in FIG. 14A, the camera 15 is arranged on the front side of the distal end portion 7d of the boom 7, but the installation position of the camera is arbitrary as long as a necessary image can be secured. For example, as shown in FIG. 22, the camera 15 may be arranged on the opposite side of the tip 7d from the cabin 4, that is, on the left side of the tip 7d. In this case, at the time of traveling, an image capturing the left direction of the crane 1 can be cut out and presented to the operator. The right direction of the cabin 4 cannot be photographed by the camera 15 and is therefore visually recognized by the operator. Further, at the time of work, as in the second embodiment, an image in the direction of the suspended load 10 can be cut out and displayed.

(実施の形態3)
本発明の実施の形態3に係る周囲監視システム100Bは、左カメラ11と右カメラ12との視野が重なる部分において、ステレオカメラの機能を提供することができるシステムである。ステレオカメラは、両眼視差により距離を求めることができる。このため、実施の形態3に係る周囲監視システム100Bは、作業時に、地面Gから左カメラ11と右カメラ12までの距離、地面Gから吊り荷10までの距離を求めることができる。測定した距離は、表示装置20の表示部200に表示される。
(Embodiment 3)
The surroundings monitoring system 100B according to Embodiment 3 of the present invention is a system that can provide a stereo camera function in a portion where the visual fields of the left camera 11 and the right camera 12 overlap. The stereo camera can obtain the distance by binocular parallax. For this reason, the surroundings monitoring system 100B according to the third embodiment can obtain the distance from the ground G to the left camera 11 and the right camera 12 and the distance from the ground G to the suspended load 10 during work. The measured distance is displayed on the display unit 200 of the display device 20.

本実施の形態における、左カメラ11と右カメラ12の設置方法は図2に示す実施の形態1と同一である。ただし、左カメラ11と右カメラ12のその視野の一部が重なるように設置される。   The installation method of the left camera 11 and the right camera 12 in the present embodiment is the same as that of the first embodiment shown in FIG. However, the left camera 11 and the right camera 12 are installed so that part of their fields of view overlap.

本実施の形態の制御部30の構成は、図5に示す実施の形態1の制御部30と同一である。ただし、表示画像生成部305は、左カメラ11と右カメラ12が撮影した映像の両方に写っている被写体までの距離を求める機能を備えている。図23を参照して具体的に説明すると、表示画像生成部305は、映像取得部301から左カメラ11と右カメラ12が撮影した映像から、視野が重なっている領域の画像をそれぞれ取得する(ステップS301)。   The configuration of the control unit 30 of the present embodiment is the same as that of the control unit 30 of the first embodiment shown in FIG. However, the display image generation unit 305 has a function of obtaining the distance to the subject shown in both the images taken by the left camera 11 and the right camera 12. Specifically, with reference to FIG. 23, the display image generation unit 305 acquires, from the video acquisition unit 301, images of regions with overlapping fields of view from the video captured by the left camera 11 and the right camera 12 ( Step S301).

表示画像生成部305は、取得した両画像について、それぞれキャリブレーション処理を実行し、平面化画像を生成する(ステップS302)。なお、キャリブレーション情報は、実施の形態1,2で説明したように、予め記憶部31に記憶されており、適当なものが選択されて使用される。   The display image generation unit 305 performs a calibration process for each of the acquired images and generates a planarized image (step S302). Note that the calibration information is stored in advance in the storage unit 31 as described in the first and second embodiments, and appropriate information is selected and used.

表示画像生成部305は、生成した両平面画像の中から、同一の被写体の画像をパターンマッチング等を用いて特定する(ステップS303)。   The display image generation unit 305 specifies an image of the same subject from the generated two-dimensional images using pattern matching or the like (step S303).

次に、表示画像生成部305は、特定した各被写体について、左カメラ11と右カメラ12の視差を求める(ステップS304)。   Next, the display image generation unit 305 obtains the parallax between the left camera 11 and the right camera 12 for each identified subject (step S304).

表示画像生成部305は、求めた視差と左カメラ11と右カメラ12の距離から、各被写体までの距離を求める(ステップS305)。   The display image generation unit 305 calculates the distance to each subject from the calculated parallax and the distance between the left camera 11 and the right camera 12 (step S305).

続いて、表示画像生成部305は、画像から地面Gまでの距離を求め、求めた地面Gまでの距離と各被写体までの距離のから、地面Gから各被写体までの距離を求め、これを内部メモリに記憶する(ステップS306)。   Subsequently, the display image generation unit 305 obtains the distance from the image to the ground G, and obtains the distance from the ground G to each subject from the obtained distance to the ground G and the distance to each subject. Store in the memory (step S306).

表示画像生成部305は、上述の距離測定処理と並行して実行している、図13に示す複数カメラ画像表示処理のステップS106又はS111において、表示する平面画像上の各被写体に重畳して或いは被写体の脇に求めた距離を表示する(ステップS307)。   In step S106 or S111 of the multiple camera image display process shown in FIG. 13 that is executed in parallel with the distance measurement process described above, the display image generation unit 305 is superimposed on each subject on the planar image to be displayed or The calculated distance is displayed beside the subject (step S307).

以上のように、実施の形態3によれば、実施の形態1の効果に加えて、クレーン1の作業時には、左カメラ11と右カメラ12が撮影した映像から、距離を求めることができる。これにより、作業時に、表示装置20の表示部200に、例えば、地面Gから吊り荷10までの距離を表示することができるので、オペレータが作業状況を把握し易くなるという効果がある。   As described above, according to the third embodiment, in addition to the effects of the first embodiment, the distance can be obtained from the images taken by the left camera 11 and the right camera 12 when the crane 1 is working. Thereby, at the time of work, for example, the distance from the ground G to the suspended load 10 can be displayed on the display unit 200 of the display device 20, so that the operator can easily grasp the work situation.

(変形例2)
実施の形態1及び3において、左カメラ選択キー210と右カメラ選択キー211のいずれか選択されているか視認認識可能とするために、選択されているキーの表示色を変更したり、点灯する等、視認可能に表示してもよい。同様に、実施の形態2において、左方向表示キー220と右方向表示キー221についても同様である。また、表示装置20が表示する画像に、いずれのカメラで取得したいずれの方向の画像であるかをテキストや絵記号などで視認可能に表示してもよい。
(Modification 2)
In the first and third embodiments, the display color of the selected key is changed, the light is turned on, etc. in order to make it possible to visually recognize whether the left camera selection key 210 or the right camera selection key 211 is selected. It may be displayed so as to be visible. Similarly, in the second embodiment, the same applies to the left direction display key 220 and the right direction display key 221. In addition, the image displayed by the display device 20 may be displayed so as to be visible as text or a pictorial symbol, in which direction the image is acquired by which camera.

(変形例3)
上記の実施の形態1から3においては、コントローラ32から取得した各種パラメータの情報を用いて、ブーム7の正確な対地角度を算出しているが、傾斜計が測定した角度をそのまま使用することも可能である。
(Modification 3)
In the above first to third embodiments, the accurate ground angle of the boom 7 is calculated using information on various parameters acquired from the controller 32. However, the angle measured by the inclinometer may be used as it is. Is possible.

(変形例4)
上記の実施の形態1から3においては、表示装置20、20Aは、表示部200と、複数の操作用のキーとを備える構成としたが、表示部200と、複数の操作用のキーとを、タッチパネルを用いて構成してもよい。この場合タッチパネルには、抵抗膜式、静電容量式といったタッチパネルを用いることができる。
(Modification 4)
In the first to third embodiments, the display devices 20 and 20A include the display unit 200 and a plurality of operation keys. However, the display unit 200 and the plurality of operation keys are provided. Alternatively, a touch panel may be used. In this case, a touch panel such as a resistance film type or a capacitance type can be used as the touch panel.

(変形例5)
上記の実施の形態1から3においては、表示装置20、20Aは、表示部200と、複数の操作用のキーとを備える構成としたが、表示装置自体が複数の操作キーを備える代わりに、リモコンが操作キーを備えても良い。
(Modification 5)
In the above first to third embodiments, the display devices 20 and 20A are configured to include the display unit 200 and a plurality of operation keys. Instead of the display device itself including a plurality of operation keys, The remote control may be provided with operation keys.

(変形例6)
上記の実施の形態1から3においては、表示装置20、20Aは、表示部200と複数の操作用のキーとを備える構成、すなわち一体としたが、表示部200と複数の操作キーとを、別体にしてもよい。
(Modification 6)
In the first to third embodiments, the display devices 20 and 20A are configured to include the display unit 200 and a plurality of operation keys, that is, are integrated. However, the display unit 200 and the plurality of operation keys are combined. It may be a separate body.

(変形例7)
上記の実施の形態1から3においては、表示部200には、全方位カメラが撮影した映像をキャリブレーションした後の画像を表示するものとした。これにかかわらず、表示部200に、全方位カメラが撮影した映像を、キャリブレーションせずに、そのまま表示しても良い。また、表示部200に、全方位カメラが撮影したキャリブレーションする前の画像とキャリブレーションした後の画像とを並べて表示しても良い。もしくは、キャリブレーションする前の画像とキャリブレーションした後の画像とを、切り替えて表示しても良い。
(Modification 7)
In the above-described first to third embodiments, the display unit 200 displays an image after calibrating the video imaged by the omnidirectional camera. Regardless of this, the image captured by the omnidirectional camera may be displayed on the display unit 200 as it is without being calibrated. Further, the image before calibration and the image after calibration captured by the omnidirectional camera may be displayed side by side on the display unit 200. Alternatively, an image before calibration and an image after calibration may be switched and displayed.

(変形例8)
上記の実施の形態1から3においては、全方位カメラが撮影した映像を切り取る範囲を、クレーン1の走行時には予め定められた形状とし、クレーン1の作業時には映像の中心点を起点した扇形の角度としている。しかしながら、映像を切り取る範囲を、走行時には映像の中心点を起点した扇形の角度とし、作業時には予め定められた形状とする等、切り取る範囲と形状は必要に応じて適宜設定可能である。例えば、映像を切り取る範囲の予め定められた形状は、図8(A)に示す切り取り範囲501の形状、および図18に示す切り取り範囲504、505の形状の他、矩形、扇形、台形、ユーザ固有の形状といった種々の形状を用いることができる。予め定められた形状は、その大きさと、撮影した映像上の位置とを、任意に定めることができる。
(Modification 8)
In the first to third embodiments described above, the range in which the image taken by the omnidirectional camera is cut out is a predetermined shape when the crane 1 is traveling, and the sector angle starting from the center point of the image when the crane 1 is working. It is said. However, the cut-out range and shape can be appropriately set as necessary, such that the cut-out range of the image is a fan-shaped angle starting from the center point of the video when traveling and a predetermined shape is set during work. For example, the predetermined shape of the cutout range of the image is a rectangle, a sector, a trapezoid, or a user-specific shape in addition to the shape of the cutout range 501 shown in FIG. Various shapes such as the shape can be used. The predetermined shape can arbitrarily determine the size and the position on the captured image.

また、走行時と作業時とで、映像を切り取る範囲を、予め定められた形状、または、映像の中心点を起点した扇形の角度に分けず、同一としても良い。さらに、左カメラ11と右カメラ12のそれぞれで、映像を切り取る範囲の設定を分けても良い。単一のカメラ15の撮影する映像の右側、左側のそれぞれで、映像を切り取る範囲の設定を分けても良い。クレーン1の作業時においては、ブーム7の対地角度毎に、映像を切り取る範囲の設定を分けても良い。   Further, the range in which the image is cut out during traveling and during the work may be the same without being divided into a predetermined shape or a fan-shaped angle starting from the center point of the image. Furthermore, the setting of the range for cutting out the video may be divided between the left camera 11 and the right camera 12. The setting of the range to cut out the video may be divided on the right side and the left side of the video shot by the single camera 15. When the crane 1 is working, the setting of the range in which the image is cut out may be divided for each ground angle of the boom 7.

(変形例9)
上記の実施の形態1及び3においては、左カメラ11と右カメラ12のそれぞれに、信号線とコードリールとを備えることを想定している。しかしながら、左カメラ11と右カメラ12の信号線を1本にまとめ、1つのコードリールで信号線の伸長と巻き取りをしても良い。この場合、1本の信号線の伸長と巻き取りとを、1つのコードリールで行うこととなる。したがって、部品点数を減らすとともに、信号線の引き回しを容易にし、かつ、コードリールの制御を簡単にすることができる。
(Modification 9)
In the first and third embodiments, it is assumed that the left camera 11 and the right camera 12 are each provided with a signal line and a cord reel. However, the signal lines of the left camera 11 and the right camera 12 may be combined into one and the signal lines may be extended and wound with one cord reel. In this case, extension and winding of one signal line are performed by one cord reel. Therefore, the number of parts can be reduced, the signal lines can be easily routed, and the control of the cord reel can be simplified.

(変形例10)
上記の実施の形態1から3においては、左カメラ11、右カメラ12、またはカメラ15に、無線通信機能を備えたカメラを用いても良い。この場合、映像取得部301は無線通信機能を備え、カメラからの映像を無線で受信する。信号線とコードリールが無いので、信号線の引き回しとコードリールの制御が不要となる。すなわち、部品点数を減らすとともに、信号線の引き回しとコードリールの制御とを不要とすることができる。
(Modification 10)
In the first to third embodiments, a camera having a wireless communication function may be used for the left camera 11, the right camera 12, or the camera 15. In this case, the video acquisition unit 301 has a wireless communication function and receives video from the camera wirelessly. Since there are no signal lines and cord reels, it is not necessary to route the signal lines and control the cord reels. That is, it is possible to reduce the number of parts and to eliminate the need for signal line routing and cord reel control.

(変形例11)
上記の実施の形態1から3においては、表示装置20、20Aと制御部30、30Aと記憶部31とをキャビン4の内部に設けるものとした。しかしながら、これらの全部又は一部を、クレーン1上のキャビン4外の装置に設けても良い。さらに、クレーン1から離間した箇所に配置してもよい。例えば、クレーン1を遠隔操作する遠隔操作装置に、これらの構成の全部又は一部を配置しても良い。
(Modification 11)
In the first to third embodiments, the display devices 20 and 20A, the control units 30 and 30A, and the storage unit 31 are provided inside the cabin 4. However, all or part of these may be provided in a device outside the cabin 4 on the crane 1. Furthermore, you may arrange | position in the location away from the crane 1. FIG. For example, you may arrange | position all or one part of these structures in the remote control apparatus which remote-controls the crane 1. FIG.

(変形例12)
実施の形態1から3においては、全方位カメラを魚眼レンズを備えるカメラとする例を示したが、必要な画角が得られるならば、カメラの構成は任意である。本発明における全方位カメラは、クレーン1の側方と下方を撮影できるものを広く含むものである。また、平面化関数は、各カメラの特性にあわせて設定される。
(Modification 12)
In the first to third embodiments, an example in which the omnidirectional camera is a camera provided with a fisheye lens has been described. However, the configuration of the camera is arbitrary as long as a necessary angle of view can be obtained. The omnidirectional camera in the present invention includes a wide range of cameras that can photograph the side and the lower side of the crane 1. The planarization function is set according to the characteristics of each camera.

(変形例13)
実施の形態1から3においては、全方位カメラで取得した映像を平面化関数により平面化したが、全方位カメラが撮影した映像を、人が何が表示されているかを視認できる形態の画像に変換できれば、映像をどのように補正するかは任意である。よって、平面化関数に限定されず、任意の補正関数を使用して、撮影映像を人が視認できる形態の画像に変換してもよい。
(Modification 13)
In the first to third embodiments, the video acquired by the omnidirectional camera is planarized by the planarization function, but the video captured by the omnidirectional camera is converted into an image in a form in which a person can visually recognize what is displayed. If it can be converted, how to correct the video is arbitrary. Therefore, the captured video is not limited to the planarization function, and the captured video may be converted into an image in a form that can be visually recognized by a person.

(変形例14)
実施の形態1から3においては、全方位カメラで撮影した画像を切り取ってから平面化処理を行ったが、画像全体を平面化してから、画像を切り取ることも可能である。
(Modification 14)
In the first to third embodiments, the flattening process is performed after the image taken by the omnidirectional camera is cut out. However, the image can be cut out after the entire image is flattened.

(変形例15)
実施の形態1から3においては、作業車として、移動式クレーンを例示したが、固定式のクレーン等作業車の種類は限定されない。本発明は、サイドカメラ、作業確認用のカメラ等の複数のカメラを必要とする作業車に広く適用可能である。
(Modification 15)
In Embodiments 1 to 3, a mobile crane is illustrated as a work vehicle, but the type of work vehicle such as a fixed crane is not limited. The present invention can be widely applied to work vehicles that require a plurality of cameras such as a side camera and a work confirmation camera.

(変形例16)
実施の形態1から3においては、タイリングウインドウ・モードでは、2つの画像を同時に表示する例を示したが、同時に表示する画像の数は任意であり、3以上でもよい。
(Modification 16)
In the first to third embodiments, an example in which two images are simultaneously displayed in the tiling window mode has been described. However, the number of images to be simultaneously displayed is arbitrary, and may be three or more.

なお、本発明の技術的範囲は、上記実施の形態と変形例によっては限定されない。本発明は特許請求の範囲に記載された技術的思想の限りにおいて、自由に応用、変形、あるいは改良して、実施することができる。   Note that the technical scope of the present invention is not limited by the above-described embodiment and modification examples. The present invention can be practiced by being freely applied, modified or improved within the scope of the technical idea described in the claims.

1 クレーン、2 走行体、3 旋回台、4 キャビン、5 アウトリガ、6 ブラケット、7 ブーム、8 フックブロック、9 フック、10 吊り荷、11 左カメラ、12 右カメラ、13 カメラ保持部、15 カメラ、16 カメラ保持部、20、20A 表示装置、30、30A 制御部、31 記憶部、32 コントローラ、50 交差点、51 障害物、100、100A、100B 周囲監視システム、200 表示部、210 左カメラ選択キー、211 右カメラ選択キー、212 パン操作キー、213 チルト操作キー、214 表示拡大キー、215 表示縮小キー、216 表示画像切替キー、217 複数画像表示キー、218 十字キー、220 左方向表示キー、221 右方表示キー、301 映像取得部、302 データ取得部、303 対地角度算出部、304 キャリブレーション情報取得部、305 表示画像生成部、306 距離算出部、310 プロセッサ、311 メモリ、312 表示コントローラ、313 I/Oポート、314 内部バス、501、502、503、504、505、506 切り取り範囲、511、512、513 平面画像。   1 Crane, 2 traveling body, 3 swivel base, 4 cabin, 5 outrigger, 6 bracket, 7 boom, 8 hook block, 9 hook, 10 suspended load, 11 left camera, 12 right camera, 13 camera holding unit, 15 camera, 16 Camera holding unit, 20, 20A Display device, 30, 30A Control unit, 31 Storage unit, 32 Controller, 50 Intersection, 51 Obstacle, 100, 100A, 100B Ambient monitoring system, 200 Display unit, 210 Left camera selection key, 211 Right camera selection key, 212 Pan operation key, 213 Tilt operation key, 214 Display enlargement key, 215 Display reduction key, 216 Display image switching key, 217 Multi-image display key, 218 Cross key, 220 Left direction display key, 221 Right Direction display key, 301 video acquisition unit, 302 data Acquisition unit, 303 Ground angle calculation unit, 304 Calibration information acquisition unit, 305 Display image generation unit, 306 Distance calculation unit, 310 processor, 311 memory, 312 display controller, 313 I / O port, 314 internal bus, 501 and 502 , 503, 504, 505, 506 Cutout range, 511, 512, 513 Planar image.

Claims (9)

作業車に設置された全方位カメラが撮影する映像を、人が視認できる形態の画像に変換するためのキャリブレーション情報を記憶する記憶部と、
前記全方位カメラが撮影した映像の一部分を切り取り、前記記憶部から前記キャリブレーション情報を取得し、切り取った前記映像の一部分を、取得した前記キャリブレーション情報を用いて、人が視認できる形態の画像に変換し、出力する制御部と、
を備える作業車用の周囲監視システム。
A storage unit for storing calibration information for converting an image captured by an omnidirectional camera installed in a work vehicle into an image in a form that can be visually recognized by a person;
An image in a form in which a part of a video captured by the omnidirectional camera is cut out, the calibration information is acquired from the storage unit, and a part of the cut out video is visible to a person using the acquired calibration information A control unit for converting to and outputting,
A surrounding monitoring system for work vehicles.
前記キャリブレーション情報は、前記全方位カメラの映像の一部分を切り取る切り取り範囲と前記切り取り範囲の映像を人が視認できる形態の画像に補正する補正関数とを含み、
前記記憶部は、走行時用のキャリブレーション情報と作業時用のキャリブレーション情報とを記憶する、
請求項1に記載の作業車用の周囲監視システム。
The calibration information includes a cutout range for cutting out a part of the image of the omnidirectional camera, and a correction function for correcting the image of the cutout range into an image in a form that can be visually recognized by a person,
The storage unit stores calibration information for travel and calibration information for work.
The surroundings monitoring system for work vehicles of Claim 1.
前記制御部は、前記記憶部から前記キャリブレーション情報を取得するキャリブレーション情報取得部と、前記作業車のパラメータを取得するデータ取得部と、前記作業車のブームの地面に対する対地角度を求める対地角度算出部と、表示装置に表示する画像を生成する表示画像生成部とを備え、
前記対地角度算出部は、前記データ取得部が取得したパラメータを用いて、前記ブームの対地角度を求め、
前記キャリブレーション情報取得部は、前記対地角度算出部が求めた対地角度に対応する前記作業時用のキャリブレーション情報を前記記憶部から取得し、
前記表示画像生成部は、取得した前記作業時用のキャリブレーション情報を用いて前記全方位カメラが撮影した映像の一部分を人が視認できる形態の画像に変換する、
請求項2に記載の作業車用の周囲監視システム。
The control unit includes a calibration information acquisition unit that acquires the calibration information from the storage unit, a data acquisition unit that acquires parameters of the work vehicle, and a ground angle that calculates a ground angle of the boom of the work vehicle with respect to the ground. A calculation unit, and a display image generation unit that generates an image to be displayed on the display device,
The ground angle calculation unit obtains the ground angle of the boom using the parameters acquired by the data acquisition unit,
The calibration information acquisition unit acquires calibration information for work corresponding to the ground angle obtained by the ground angle calculation unit from the storage unit,
The display image generation unit converts a part of the image captured by the omnidirectional camera into an image that can be visually recognized by a person using the acquired calibration information for work.
The surroundings monitoring system for work vehicles of Claim 2.
前記制御部は、前記作業車の走行時には、前記走行時用のキャリブレーション情報を用いて、前記全方位カメラが撮影した映像中の周辺領域の画像を人が視認できる形態の画像に変換し、前記作業車の作業時には、前記作業時用のキャリブレーション情報を用いて、前記全方位カメラが撮影する映像中の作業領域の画像を人が視認できる形態の画像に変換する、
請求項2または3に記載の作業車用の周囲監視システム。
The control unit converts the image of the peripheral area in the video captured by the omnidirectional camera into an image that can be visually recognized by a person using the calibration information for traveling when the work vehicle is traveling, When working on the work vehicle, the calibration information for the work is used to convert the image of the work area in the video taken by the omnidirectional camera into an image that can be viewed by a person.
The surroundings monitoring system for work vehicles of Claim 2 or 3.
請求項1から4の何れか一項に記載の作業車用の周囲監視システムを備える作業車であって、
前記作業車は、前記全方位カメラと、人が搭乗するキャビンとを備え、
前記キャビンの内部または外部に、前記記憶部と前記制御部と表示装置とが設置されている、
作業車。
A work vehicle comprising the surrounding monitoring system for a work vehicle according to any one of claims 1 to 4,
The work vehicle includes the omnidirectional camera and a cabin on which a person is boarded,
The storage unit, the control unit, and a display device are installed inside or outside the cabin.
Work vehicle.
前記作業車は、伸縮及び起伏可能なブームをさらに備え、
前記全方位カメラは前記ブームに設置され、前記ブームの動きに伴って前記全方位カメラの撮影している領域が変化する、
請求項5に記載の作業車。
The work vehicle further includes a boom that can extend and retract,
The omnidirectional camera is installed on the boom, and a region where the omnidirectional camera is photographing changes with the movement of the boom.
The work vehicle according to claim 5.
前記全方位カメラは、魚眼レンズを備える全方位カメラである、
請求項6に記載の作業車。
The omnidirectional camera is an omnidirectional camera equipped with a fisheye lens.
The work vehicle according to claim 6.
作業車に設置された全方位カメラが撮影する映像の一部分を切り取り、
切り取った前記映像の一部分を、キャリブレーション情報を用いて、人が視認できる形態の画像に変換し、
変換後の画像を表示する、
表示方法。
Cut out a part of the image taken by the omnidirectional camera installed on the work vehicle,
A part of the cut video is converted into an image in a form that can be seen by a person using calibration information,
Display the converted image,
Display method.
コンピュータに、
作業車に設置された全方位カメラが撮影する映像の一部分を切り取る処理、
切り取った前記映像の一部分を、キャリブレーション情報を用いて、人が視認できる形態の画像に変換する処理、
変換後の画像を表示する処理、
を実行させるプログラム。
On the computer,
Processing to cut out a part of the image taken by the omnidirectional camera installed on the work vehicle,
A process of converting a part of the clipped image into an image in a form that can be visually recognized by a person using calibration information;
Processing to display the converted image,
A program that executes
JP2018057687A 2018-03-26 2018-03-26 Surrounding monitoring system for work vehicles, work vehicles, display methods, and programs Active JP7047521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018057687A JP7047521B2 (en) 2018-03-26 2018-03-26 Surrounding monitoring system for work vehicles, work vehicles, display methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018057687A JP7047521B2 (en) 2018-03-26 2018-03-26 Surrounding monitoring system for work vehicles, work vehicles, display methods, and programs

Publications (2)

Publication Number Publication Date
JP2019167220A true JP2019167220A (en) 2019-10-03
JP7047521B2 JP7047521B2 (en) 2022-04-05

Family

ID=68108045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018057687A Active JP7047521B2 (en) 2018-03-26 2018-03-26 Surrounding monitoring system for work vehicles, work vehicles, display methods, and programs

Country Status (1)

Country Link
JP (1) JP7047521B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484432B2 (en) 2020-06-01 2024-05-16 株式会社タダノ Crane travel support device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02127877A (en) * 1988-11-08 1990-05-16 Casio Comput Co Ltd Electronic still camera provided with fisheye lens
JP2000011166A (en) * 1998-06-24 2000-01-14 Sony Corp Device and method for processing image and providing medium
JP2008312004A (en) * 2007-06-15 2008-12-25 Sanyo Electric Co Ltd Camera system and mechanical apparatus
JP2013142037A (en) * 2012-01-12 2013-07-22 Tadano Ltd Suspended load monitoring camera device for working vehicle
WO2015133907A1 (en) * 2014-03-04 2015-09-11 Nmi Holding As Method for use of a camera for surveillance of a work area and a crane provided with a camera
JP2018039648A (en) * 2016-09-09 2018-03-15 株式会社タダノ Image display system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02127877A (en) * 1988-11-08 1990-05-16 Casio Comput Co Ltd Electronic still camera provided with fisheye lens
JP2000011166A (en) * 1998-06-24 2000-01-14 Sony Corp Device and method for processing image and providing medium
JP2008312004A (en) * 2007-06-15 2008-12-25 Sanyo Electric Co Ltd Camera system and mechanical apparatus
JP2013142037A (en) * 2012-01-12 2013-07-22 Tadano Ltd Suspended load monitoring camera device for working vehicle
WO2015133907A1 (en) * 2014-03-04 2015-09-11 Nmi Holding As Method for use of a camera for surveillance of a work area and a crane provided with a camera
JP2018039648A (en) * 2016-09-09 2018-03-15 株式会社タダノ Image display system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484432B2 (en) 2020-06-01 2024-05-16 株式会社タダノ Crane travel support device

Also Published As

Publication number Publication date
JP7047521B2 (en) 2022-04-05

Similar Documents

Publication Publication Date Title
JP6727971B2 (en) Work vehicle
US9169108B2 (en) Performance line display unit
WO2019189430A1 (en) Construction machine
JP6486596B2 (en) Specified range monitoring system
JP6321977B2 (en) Perimeter monitoring equipment for heavy machinery
JP2008312004A (en) Camera system and mechanical apparatus
JP2013142037A (en) Suspended load monitoring camera device for working vehicle
US11292699B2 (en) Remote operation terminal and work vehicle provided with remote operation terminal
WO2017038183A1 (en) Surrounding display device for traveling crane
JP5971994B2 (en) Crane work monitoring device
JP2008074594A (en) Periphery monitor of vehicle having work machine
JP5640433B2 (en) Image information providing apparatus and image information providing method
JP6417300B2 (en) Specified range monitoring system
JP7099150B2 (en) Crane and information sharing system
JP7076501B2 (en) Work vehicle
JP6080450B2 (en) Surveillance camera device
JP2014105091A (en) Monitoring camera of crane
JP2018024500A (en) Obstacle detection device
JP7047521B2 (en) Surrounding monitoring system for work vehicles, work vehicles, display methods, and programs
WO2019163875A1 (en) Camera device, suspended-load monitoring system, and working machine
JP6551639B1 (en) Camera device, suspended load monitoring system, and work machine
JP6712358B2 (en) Image processing device, camera device, and image processing method
JP2021075359A (en) Periphery monitoring device for work vehicle having boom
JP3374547B2 (en) Monitoring device for remote operation
US12030751B2 (en) Crane information display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R150 Certificate of patent or registration of utility model

Ref document number: 7047521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150