WO2023037936A1 - 作業車両 - Google Patents

作業車両 Download PDF

Info

Publication number
WO2023037936A1
WO2023037936A1 PCT/JP2022/032652 JP2022032652W WO2023037936A1 WO 2023037936 A1 WO2023037936 A1 WO 2023037936A1 JP 2022032652 W JP2022032652 W JP 2022032652W WO 2023037936 A1 WO2023037936 A1 WO 2023037936A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
moving object
bird
work vehicle
control unit
Prior art date
Application number
PCT/JP2022/032652
Other languages
English (en)
French (fr)
Inventor
勁太 間嶋
Original Assignee
株式会社タダノ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社タダノ filed Critical 株式会社タダノ
Priority to JP2023546897A priority Critical patent/JPWO2023037936A1/ja
Publication of WO2023037936A1 publication Critical patent/WO2023037936A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to work vehicles.
  • a crane which are typical work vehicles, have long been known.
  • a crane is mainly composed of a traveling body and a revolving body.
  • the traveling body includes a plurality of wheels and is configured to travel freely.
  • the revolving structure is equipped with wire ropes and hooks in addition to a boom, and is configured to freely carry loads.
  • One aspect of the work vehicle includes: A control unit that acquires a surrounding image of the surroundings of the running body and/or a composite image obtained by synthesizing a plurality of the surrounding images, and displays the acquired image on an image display unit arranged in a cabin above the running body.
  • the control unit detects a moving object in the acquired image, and outputs a warning when the detected moving object is invisible or difficult to be visually recognized in the display image of the image display unit.
  • the operator can use the displayed image inside the cabin more safely.
  • a diagram showing a crane The figure which shows the structure of an image display system. The figure which shows the inside of a cabin. The figure which displayed the peripheral image and the bird's-eye view synthetic
  • the working vehicle according to the first embodiment will be described using FIG.
  • the work vehicle will be described as a mobile crane (hereinafter simply referred to as a crane), but the technical concept of the present application can also be applied to other work vehicles having the traveling body 2 .
  • Another work vehicle is, for example, an aerial work vehicle.
  • the crane 1 is mainly composed of a traveling body 2 and a revolving body 3.
  • the traveling body 2 is provided with a pair of left and right front wheels 4 and rear wheels 5 respectively.
  • the traveling body 2 is provided with an outrigger 6 that is grounded and stabilized when carrying out the work of transporting a load.
  • the traveling body 2 can turn the rotating body 3 supported on the top thereof by a turning motor 7 .
  • the revolving body 3 is equipped with a boom support 31.
  • the revolving body 3 also has a boom 32 projecting forward from the rear portion of the boom support 31 .
  • the boom 32 can be swiveled by the swivel motor 7 .
  • the boom 32 is telescopically telescopic by means of a telescopic cylinder 34 .
  • the boom 32 can be raised and lowered by a raising and lowering cylinder 35 .
  • a wire rope 33 is stretched over the boom 32 .
  • a hook 36 is attached to the wire rope 33 hanging down from the tip of the boom 32 .
  • a winch 37 is installed near the base end of the boom 32 .
  • the winch 37 is configured integrally with a winding hydraulic motor 38 to enable the wire rope 33 to be wound in and out. Therefore, the hook 36 can be moved up and down by the winding hydraulic motor 38 .
  • the revolving body 3 has a cabin 39 on the side of the boom 32 .
  • FIG. 1 the configuration of the image display system 41 provided in the crane 1 will be described using FIGS. 2 and 3.
  • FIG. 2 the configuration of the image display system 41 provided in the crane 1 will be described using FIGS. 2 and 3.
  • the image display system 41 has a camera 42, a control section 43, an image display section 48, and a buzzer 49.
  • the camera 42 captures a peripheral image P of the running body 2 (see FIG. 4).
  • the cameras 42 are composed of a front camera 42a, a rear camera 42b, a right camera 42c, and a left camera 42d.
  • the installation position and number of the cameras 42 are not particularly limited as long as they can photograph the surroundings of the traveling body 2 .
  • the front camera 42a captures, for example, the area in front of the traveling body 2 as a front image Pa including the horizon (see FIG. 4).
  • the front camera 42a is provided at the front end portion of the traveling body 2 (the front end portion excluding the boom 32). Further, the front camera 42 a is connected to the control section 43 . Therefore, the control unit 43 can acquire the forward image Pa.
  • the rear camera 42b captures, for example, the rear area including the rear end of the traveling body 2 as a rear image (not shown) including the horizon.
  • the rear camera 42 b is provided at the rear end of the traveling body 2 .
  • the rear camera 42 b is connected to the control section 43 . Therefore, the control unit 43 can acquire the rear image.
  • the right camera 42c captures, for example, the right side area including the right end of the revolving body 3 as a right side image (not shown) including the horizon.
  • the right camera 42c is provided at the right end portion of the revolving body 3 (the outer plate portion on the right side of the cabin 39). Also, the right camera 42 c is connected to the control unit 43 . Therefore, the control unit 43 can acquire the right image.
  • the left camera 42d captures, for example, the left area including the left end of the revolving body 3 as a left image (not shown) including the horizon.
  • the left camera 42d is provided at the left end portion of the revolving body 3 (the outer plate portion on the left side of the boom support 31). Also, the left camera 42 d is connected to the control unit 43 . Therefore, the control unit 43 can acquire the left image.
  • the control unit 43 controls the display of the image display unit 48 and outputs warnings.
  • the control unit 43 can process the acquired image. Further, the control unit 43 can switch the image displayed on the image display unit 48 according to the operation information of the operator.
  • the control unit 43 has an overhead controller 44 , an image recognition controller 45 , a tracking controller 46 and a warning controller 47 .
  • the control unit 43 is configured by a control circuit (not shown) exemplified by a processor such as a CPU (Central Processing Unit).
  • the control unit 43 further has a storage unit (not shown) such as a memory that stores a predetermined program, and by causing the processor to execute the program, the overhead controller 44, the image recognition controller 45, and the tracking controller 46 are controlled. and each function of the warning controller 47 is realized.
  • the bird's-eye view controller 44 synthesizes the surrounding images P to generate a bird's-eye composite image Pm of the surroundings of the traveling object 2 (see FIG. 4).
  • the image recognition controller 45 detects the moving object photographed by the camera 42 on the image.
  • a tracking controller 46 tracks the moving object on the image.
  • the warning controller 47 warns that a moving body has entered the synthesizing section.
  • the region that cannot be properly recognized is an example of a portion that is invisible or difficult for the operator to see in the image displayed on the image display section 48 .
  • the mobile object is an object that moves around the crane 1, such as a person, a two-wheeled vehicle, a forklift, etc., and features such as shape are set in the image recognition controller 45 as objects to be detected.
  • the moving object is detected as moving relative to crane 1 (camera 42). For example, even if the moving body is stationary, if the position or orientation of the camera 42 changes while the crane 1 is traveling or turning, the moving body is recognized as a moving body on the image by the image recognition controller 45. detected.
  • the image display unit 48 displays images. As shown in FIG. 3, the image display unit 48 is provided inside the cabin 39 in front of the operator's seat so that the operator can visually recognize it while the crane 1 is running while looking forward.
  • the image display unit 48 has a so-called touch panel, and operation information is input by the operator touching the display surface (touch operation).
  • the image display unit 48 is connected to the control unit 43 . Therefore, the control unit 43 can cause the image display unit 48 to display images such as the surrounding image P and the bird's-eye composite image Pm (see FIG. 4). Further, the control unit 43 can acquire operation information input by the operator through the image display unit 48 .
  • the operation information input by the operator is not limited to the touch operation, and may be input using an input device such as a button.
  • the buzzer 49 vibrates a diaphragm to generate a buzzing sound.
  • the buzzer 49 is attached inside the cabin 39 so that the operator can recognize the buzzer sound while the crane 1 is running.
  • a buzzer 49 is connected to the control unit 43 . Therefore, the control unit 43 (warning controller 47) can transmit a signal to the buzzer 49 to cause the buzzer 49 to generate a buzzing sound.
  • the bird's-eye composite image Pm is generally generated by first generating the bird's-eye view image of each peripheral image P, and converting it to positions corresponding to the front, rear, left, and right of the running body 2 (in the case where there are four cameras 42 as described above). It is generated by arranging each bird's-eye view image and performing a blending process to reduce the discomfort of the synthesizing unit S.
  • this is only an example, and a method or the like may be used in which the four peripheral images P are directly converted into one panorama image, and the panorama image is converted into the bird's-eye composite image Pm.
  • the bird's-eye composite image Pm may be arranged with a surrounding image P that has not been turned into a bird's-eye view image. That is, generation of the bird's-eye composite image Pm is not limited to converting the peripheral image P into a bird's-eye view image.
  • the bird's-eye view controller 44 performs image processing so that the bird's-eye view images are seamlessly connected to generate the bird's-eye composite image Pm.
  • the bird's-eye composite image Pm includes a front bird's-eye view image Pa1 obtained by converting the front image Pa into a bird's-eye image, a rear bird's-eye image Pb1 obtained by converting a rear image into a bird's-eye image, and a right image obtained by converting a right image into a bird's-eye image.
  • the bird's-eye composite image Pm includes the front bird's-eye image Pa1 and the left bird's-eye image Pd1 up to the horizon, and has a wider display area than the rear bird's-eye image Pb1 and the right bird's-eye image Pc1.
  • the bird's-eye view composite image Pm allows the entire circumference of the crane 1 to be visually recognized as a single image while the crane 1 is traveling forward. Suitable for
  • a composite portion S which is a portion where the peripheral images P are joined together, is formed (light ink portion).
  • the synthesizing unit S synthesizes images between the front bird's-eye image Pa1 and the right bird's-eye image Pc1, between the right bird's-eye image Pc1 and the rear bird's-eye image Pb1, between the rear bird's-eye image Pb1 and the left bird's-eye image Pd1, and the left bird's-eye image. They are respectively formed between the image Pd1 and the front bird's-eye view image Pa1.
  • the synthesizing portion S may be a blind spot on the bird's-eye synthetic image Pm, or may be stretched during synthesis and displayed unnaturally. Therefore, there is a possibility that the operator will overlook the moving object existing in the synthesizing section S. Note that the area of the combining portion S in the bird's-eye combined image Pm is set in the control unit 43 .
  • the crane 1 includes a shift switch (not shown) for detecting whether the crane 1 is in a state corresponding to forward travel or in a state corresponding to reverse travel, and a shift switch (not shown) for detecting whether the crane 1 is in a state corresponding to forward travel or reverse travel. and a PTO switch (not shown) for detecting whether or not the power source is being taken out by a PTO (Power take-off device).
  • the shift switch and PTO switch are connected to the controller 43 . Therefore, the control unit 43 can recognize whether the crane 1 is traveling forward, whether the crane 1 is traveling backward, or whether the crane 1 is working.
  • the control unit 43 changes the size of the display areas of the bird's-eye images Pa1, Pb1, Pc1, and Pd1 according to the conditions of forward traveling, backward traveling, and working, and selectively displays the bird's-eye composite image Pm. can be generated.
  • the moving body M is described as a person, but it is not particularly limited, and the moving body M may be a two-wheeled vehicle, a forklift, or the like.
  • the image recognition controller 45 detects a person on the bird's-eye synthetic image Pm using techniques such as deep learning. Specifically, the image recognition controller 45 extracts a person candidate based on the outline feature on the bird's-eye view composite image Pm, and uses a model that has learned the feature such as the shape of the person to recognize the above person. Determine whether the candidate is a person. As shown in FIG. 5, the control unit 43 superimposes and displays a rectangular frame F1 so as to surround the person on the bird's-eye composite image Pm as a detection result. The image recognition controller 45 holds the coordinate information of the area where the person exists on the bird's-eye composite image Pm.
  • the area in which a person exists is an area surrounded by a minimum rectangular frame F1 (bounding box) capable of enclosing a person on the bird's-eye composite image Pm.
  • the bird's-eye view composite image Pm is set to be updated at a cycle of 30 Hz, for example.
  • the detection of the moving object M performed by the image recognition controller 45 is set to be performed every frame at a cycle of 30 Hz, for example, like the update of the bird's-eye composite image Pm.
  • the method of detecting the moving body M is not particularly limited, and a known method can be used.
  • the moving body M can be detected based on the feature amount of the moving body M. Further, when the position or orientation of the camera 42 is changed (when the crane 1 is traveling or turning), the movement of the moving body M is calculated based on the difference between the moving direction of the moving body M on the image and the moving direction of the background. Body M can be detected.
  • the tracking controller 46 assigns an ID, which is identification information, to each detected moving object M. For example, on the bird's-eye view synthesized images Pm of continuous frames (on the bird's-eye view synthesized images Pm whose shooting time is continuous), if the areas within the bounding boxes overlap at a rate equal to or greater than a certain threshold, the same It is regarded as a moving body M and given a similar ID. As a result, the moving object M can be identified between consecutive frames, and the moving object M can be tracked.
  • an ID which is identification information
  • the tracking controller 46 considers that the moving object M is not the same and assigns a different ID. Give.
  • the warning controller 47 highlights the combining section S when the moving body M enters the combining section S (when the moving body M becomes undetectable). For example, the warning controller 47 causes the image display unit 48 to display an elliptical frame F2 surrounding the composite portion S as a highlight display of the composite portion S.
  • the warning controller 47 switches the display to the surrounding image P including the combining part S, and highlights the moving body M on the image display unit 48 .
  • the warning controller 47 additionally displays the peripheral image P including the combined portion S, and causes the image display portion 48 to highlight the moving body M.
  • FIG. 7 the warning controller 47 displays, as the switching display of the surrounding image P, the image of the forward image Pa in which the moving object M is captured. Then, the warning controller 47 causes the image display section 48 to display a frame F3 surrounding the moving object M as a highlight display of the synthesizing section S. As shown in FIG.
  • the warning controller 47 displays, as an additional display of the peripheral image P, a bird's-eye synthetic image Pm and a front image Pa in which the moving object M is captured side by side. Then, the warning controller 47 causes the image display unit 48 to display a frame F4 surrounding the moving body M as a highlighted display of the moving body M. FIG. In addition, the warning controller 47 can display an elliptical frame F5 surrounding the synthesized portion S into which the moving object M has entered, thereby highlighting the synthesized portion S. FIG. As a result, the warning controller 47 can allow the operator to more accurately recognize the position of the moving object M that has entered the synthesizing section S.
  • the warning controller 47 causes the buzzer 49 to generate a buzzing sound at the same time as the warning on the image display unit 48 described above. Thereby, the warning controller 47 can make the operator recognize that the moving body M has entered the synthesizing section S more reliably.
  • the warning controller 47 continues the warning on the image display section 48 and the buzzer 49 for an arbitrary period of time. After that, the warning controller 47 returns the display of the image display unit 48 to the original bird's-eye synthetic image Pm, and stops the buzzer sound of the buzzer 49 .
  • the operator can operate the crane 1 so that even if the moving body M enters the combining section S while the crane 1 is traveling, the moving body M and the traveling body 2 do not come into contact with each other.
  • the image display system 41 detects the boom 32 and the suspended load on the bird's-eye composite image Pm during the work of the crane 1, and outputs a warning when the boom 32 and the load enter the synthesizing section S. You can also As a result, the operator can operate the boom 32 and the like so that the mobile object M does not come into contact with the boom 32 and the load.
  • the work vehicle (crane 1) has an image recognition controller 45 that detects the moving body M photographed by the camera 42 on the image (overhead view composite image Pm), and the moving body M on the image (overhead view composite image Pm).
  • a tracking controller 46 for tracking and a warning controller 47 for warning that the moving body M has entered the synthesizing section S are provided.
  • the operator recognizes that the moving body M has entered the synthesizing section S. Therefore, the operator can use the overhead composite image Pm more safely.
  • the camera 42 can be used as a sensor for detecting the moving object M, it is advantageous in terms of cost.
  • the tracking controller 46 gives identification information (ID) to the mobile object M.
  • ID identification information
  • the tracking controller 46 gives identification information (ID) to the mobile object M.
  • the image recognition controller 45 detects the mobile object M on the bird's-eye composite image Pm.
  • the number of pixels of the bird's-eye composite image Pm is generally smaller than the total number of pixels of the peripheral images P. As shown in FIG. Therefore, the moving object M can be detected with fewer computational resources than when the peripheral image P is used.
  • the warning controller 47 causes the image display unit 48 to highlight, when the moving body M has entered the combining part S, the combining part S into which the moving body M has entered.
  • the position of the mobile object M that has entered the synthesizing section S can be recognized from the bird's-eye synthetic image Pm. Therefore, even if the moving object M enters the synthesizing section S, the operator can more safely drive or operate the work vehicle while grasping the position of the moving object M on the bird's-eye synthetic image Pm.
  • the warning controller 47 switches the screen display to the surrounding image P and highlights the moving body M when the moving body M enters the synthesizing unit S. According to such a work vehicle, the position of the moving object M that has entered the synthesizing section S can be recognized from the peripheral image P. Therefore, even if the moving object M invades the synthesizing unit S, the operator can confirm the moving object M on the peripheral image P and safely drive or operate the work vehicle.
  • the image recognition controller 45 detects a person on the peripheral image P using techniques such as deep learning. As shown in FIG. 9, in the peripheral image P, an area Sa corresponding to the combined portion S of the bird's-eye view combined image Pm is set (light ink portion). The area Sa is an example of a portion of the surrounding image P displayed on the image display unit 48 that is invisible or difficult for the operator to see.
  • the warning controller 47 issues a warning using the image display unit 48 and the buzzer 49 when the moving object M has entered the area Sa.
  • the warning controller 47 returns the display of the image display unit 48 to the original bird's-eye synthetic image Pm and stops the buzzer sound of the buzzer 49 when the moving object M cannot be detected in each peripheral image P.
  • the image recognition controller 45 detects the mobile object M on the peripheral image P. According to such a work vehicle, the moving object M can be detected without relying on the bird's-eye composite image Pm.
  • the technical idea of the present application can also be applied to the operation of arbitrarily arranging the peripheral images P from the respective cameras 42 and displaying them on the image display unit 48 without generating the bird's-eye composite image Pm.
  • the image recognition controller 45 can perform moving object detection processing on the surrounding images P from each camera 42 .
  • the image recognition controller 45 performs moving object detection processing not only on the peripheral image P being displayed on the image display unit 48, but also on (data of) the peripheral image P not displayed on the image display unit 48. It can be carried out.
  • the peripheral image P not displayed on the image display unit 48 is an example of a portion of the peripheral image P being displayed on the image display unit 48 that is invisible or difficult for the operator to see.
  • the warning controller 47 displays the position of the moving object M with respect to the traveling object 2 as visual information (for example, the moving object M).
  • the warning can be given by switching the screen display to the surrounding image P where is detected and highlighting the moving object M) or by audio information (for example, outputting the direction in which the moving object M is detected by audio).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

より安全にオペレータがキャビン内の表示画像を利用できる作業車両を提供する。走行体(2)の周辺を撮影した周辺画像(P)及び又は複数の周辺画像を合成した合成画像(Pm)を取得し、取得画像を、走行体(2)の上部のキャビン(39)に配置された画像表示部(48)に表示させる制御部(43)を備え、制御部(43)は、取得画像において移動体(M)を検知し、検知された移動体(M)が画像表示部(48)の表示画像では視認不可能又は視認困難である場合、警告を出力する。

Description

作業車両
 本発明は、作業車両に関する。
 従来より、代表的な作業車両であるクレーンが知られている。クレーンは、主に走行体と旋回体で構成されている。走行体は、複数の車輪を備え、走行自在に構成されている。旋回体は、ブームのほかにワイヤロープやフックを備え、荷物を搬送自在に構成されている。
 ところで、走行体の周辺をキャビン内で確認可能な画像表示システムを備えるクレーン車(クレーン)が提案されている(特許文献1参照)。このようなクレーン車においては、複数の部位に走行体の周辺を撮影するカメラが設けられ、各カメラで撮影された画像(周辺画像)がキャビン内に設けられた画像表示部に表示される。表示制御部(制御部)は、各カメラで撮影された画像に基づいて、クレーンの全周囲を、疑似的に上方から俯瞰した単一の画像(俯瞰合成画像)が生成されるように合成処理を行う。合成処理では、各カメラで撮影された画像がシームレスに繋がって見えるように画像処理が行われる。俯瞰合成画像は、合成画像の一例である。
 しかしながら、上記の画像表示システムにおいて、周辺画像を繋ぎ合わせた部分である合成部には、死角となる等の理由により、俯瞰合成画像上で適切に認識できない領域が存在する。このため、例えば、オペレータが俯瞰合成画像を見ながらクレーン車の運転を行う場合に、合成部に存在する移動体がオペレータに認識されず、移動体とクレーン車が接触する可能性がある。これは、画像表示システムを備える他の作業車両においても同様であると考えられる。そこで、より安全にオペレータがキャビン内の表示画像を利用できる作業車両が求められていた。
特開2018-39476号公報
 より安全にオペレータがキャビン内の表示画像を利用できる作業車両を提供する。
 本発明に係る作業車両の一態様は、
 走行体の周辺を撮影した周辺画像及び又は複数の前記周辺画像を合成した合成画像を取得し、取得画像を、前記走行体の上部のキャビンに配置された画像表示部に表示させる制御部を備え、前記制御部は、前記取得画像において移動体を検知し、検知された移動体が前記画像表示部の表示画像では視認不可能又は視認困難である場合、警告を出力する。
 本発明の効果として、以下に示すような効果を奏する。
 本発明によれば、より安全にオペレータがキャビン内の表示画像を利用できる。
クレーンを示す図。 画像表示システムの構成を示す図。 キャビンの内部を示す図。 周辺画像と俯瞰合成画像を並べて表示した図。 合成部に人が侵入する前の俯瞰合成画像を表示した図。 合成部に人が侵入した俯瞰合成画像を表示した図。 俯瞰合成画像から切り替えられた周辺画像を表示した図。 俯瞰合成画像に追加して周辺画像を表示した図。 合成部に相当する領域に人が侵入した周辺画像を示す図。
 本願に開示する技術的思想は、以下に説明する実施形態のほか、他の実施形態にも適用できる。
 まず、図1を用いて、第一実施形態に係る作業車両について説明する。なお、本願においては、作業車両を移動式クレーン(以下、単にクレーンという)として説明するが、本願の技術的思想は、走行体2を備える他の作業車両に対しても適用できる。他の作業車両は、例えば高所作業車等である。
 図1に示すように、クレーン1は、主に走行体2と旋回体3で構成されている。
 走行体2は、それぞれ左右一対の前輪4と後輪5を備えている。また、走行体2は、荷物の搬送作業を行う際に接地させて安定を図るアウトリガ6を備えている。なお、走行体2は、旋回用モータ7によって、その上部に支持する旋回体3を旋回自在としている。
 旋回体3は、ブームサポート31を備えている。また、旋回体3は、ブームサポート31の後部から前方へ突き出すようにブーム32を備えている。ブーム32は、旋回用モータ7によって旋回自在となっている。また、ブーム32は、伸縮用シリンダ34によって伸縮自在となっている。更に、ブーム32は、起伏用シリンダ35によって起伏自在となっている。
 加えて、ブーム32には、ワイヤロープ33が架け渡されている。ブーム32の先端部分から垂下するワイヤロープ33には、フック36が取り付けられている。また、ブーム32の基端側近傍には、ウインチ37が設置されている。ウインチ37は、巻回用油圧モータ38と一体的に構成されており、ワイヤロープ33の巻き入れ及び巻き出しを可能としている。そのため、フック36は、巻回用油圧モータ38によって昇降自在となっている。そして、旋回体3は、ブーム32の側方にキャビン39を備えている。
 次に、図2及び図3を用いて、クレーン1が備える画像表示システム41の構成について説明する。
 図2に示すように、画像表示システム41は、カメラ42、制御部43、画像表示部48、ブザー49を有している。
 カメラ42は、走行体2の周辺画像Pを撮影するものである(図4参照)。本実施形態において、カメラ42は、前方カメラ42a、後方カメラ42b、右方カメラ42c、左方カメラ42dで構成され、ブーム32を除いたクレーン1の前後左右の平面視中央にそれぞれ1個ずつ設けられている。なお、カメラ42は、設置位置や数は特に限定されるものではなく、走行体2の周辺を撮影可能であればよい。例えば、荷物の吊り上げ、移動、吊り下げといったクレーン1の作業中において、より高い視点の周辺画像Pを撮影する場合は、旋回体3にカメラ42を設けることが好ましい。一方、クレーン1の旋回中におけるカメラ42の視点を固定させる場合は、走行体2にカメラ42を設けることが好ましい。
 前方カメラ42aは、例えば、走行体2の前方の領域を、地平線まで含む前方画像Paとして撮影するものである(図4参照)。前方カメラ42aは、走行体2の前端部(ブーム32を除いた前端部)に設けられている。また、前方カメラ42aは、制御部43に接続されている。そのため、制御部43は、前方画像Paを取得することができる。
 後方カメラ42bは、例えば、走行体2の後端部を含む後方の領域を、地平線まで含む後方画像(図示せず)として撮影するものである。後方カメラ42bは、走行体2の後端部に設けられている。また、後方カメラ42bは、制御部43に接続されている。そのため、制御部43は、後方画像を取得することができる。
 右方カメラ42cは、例えば、旋回体3の右端部を含む右側方の領域を、地平線まで含む右方画像(図示せず)として撮影するものである。右方カメラ42cは、旋回体3の右端部(キャビン39の右側の外板部分)に設けられている。また、右方カメラ42cは、制御部43に接続されている。そのため、制御部43は、右方画像を取得することができる。
 左方カメラ42dは、例えば、旋回体3の左端部を含む左側方の領域を、地平線まで含む左方画像(図示せず)として撮影するものである。左方カメラ42dは、旋回体3の左端部(ブームサポート31の左側の外板部分)に設けられている。また、左方カメラ42dは、制御部43に接続されている。そのため、制御部43は、左方画像を取得することができる。
 制御部43は、画像表示部48の表示の制御、及び警告の出力を行うものである。制御部43は、カメラ42から取得した画像を画像表示部48に表示する際に、取得した画像に対して処理を施すことができる。また、制御部43は、オペレータの操作情報に応じて、画像表示部48に表示する画像を切り替えることができる。
 制御部43は、俯瞰コントローラ44、画像認識コントローラ45、追跡コントローラ46、警告コントローラ47を有している。制御部43は、CPU(Central Processing Unit)等のプロセッサを一例とする制御回路(図示せず)により構成される。例えば、制御部43は、所定のプログラムを記憶するメモリ等の記憶部(図示せず)をさらに有し、当該プログラムをプロセッサに実行させることにより、俯瞰コントローラ44、画像認識コントローラ45、追跡コントローラ46及び警告コントローラ47の各機能を実現する。俯瞰コントローラ44は、周辺画像Pを合成して走行体2の周辺の俯瞰合成画像Pmを生成するものである(図4参照)。画像認識コントローラ45は、カメラ42により撮影された移動体を画像上で検知するものである。追跡コントローラ46は、画像上で移動体を追跡するものである。警告コントローラ47は、合成部に移動体が進入したことを警告するものである。上述した通り、周辺画像を繋ぎ合わせた部分である合成部には、死角となる等の理由により、俯瞰合成画像上で適切に認識できない領域が存在する。適切に認識できない領域は、画像表示部48に表示された画像において、オペレータが視認不可能又は視認困難な部分の一例である。
 ここで、移動体とは、クレーン1の周囲を移動するものであり、例えば、人、二輪車、フォークリフト等であり、検知対象として形状等の特徴が画像認識コントローラ45に設定されている。移動体は、クレーン1(カメラ42)に対して相対的に移動するものとして検知される。例えば、停止している移動体であっても、クレーン1の走行中や旋回中にカメラ42の位置や向きが変化した場合に、当該移動体は、画像認識コントローラ45により画像上で移動体として検知される。
 画像表示部48は、画像を表示するものである。図3に示すように、画像表示部48は、オペレータが前方を見ながらクレーン1を走行させている状態で視認できるよう、キャビン39の内部における運転座席の前側に設けられている。画像表示部48は、所謂タッチパネルを有しており、オペレータが表示面に触れること(タッチ操作)により操作情報が入力される。また、画像表示部48は、制御部43に接続されている。そのため、制御部43は、画像表示部48に周辺画像P、俯瞰合成画像Pm等の画像を表示させることができる(図4参照)。また、制御部43は、画像表示部48を通じてオペレータが入力した操作情報を取得できる。なお、オペレータによる操作情報の入力は、タッチ操作に限定されず、ボタン等の入力装置を用いた入力であってもよい。
 ブザー49は、振動板を振動させてブザー音を発生するものである。ブザー49は、オペレータがクレーン1を走行させている状態でブザー音を認識できるよう、キャビン39の内部に取り付けられている。ブザー49は、制御部43に接続されている。そのため、制御部43(警告コントローラ47)は、ブザー49へ信号を送信して、ブザー49からブザー音を発生させることができる。
 次に、図2及び図4を用いて、画像表示システム41によって生成される俯瞰合成画像Pmについて説明する。ここで、俯瞰合成画像Pmは、一般的に、各周辺画像Pの俯瞰画像を先に生成し、走行体2の前後左右相当の位置(上記のようにカメラ42が4個の場合)に変換した各俯瞰画像を配置し、合成部Sの違和感を少なくするブレンディング処理を行うことで生成される。しかし、あくまで一例であって、4枚の周辺画像Pをそのまま1枚のパノラマ画像に変換し、当該パノラマ画像を俯瞰合成画像Pmに変換する方法等を用いてもよい。また、俯瞰合成画像Pmは、俯瞰画像化されていない周辺画像Pが配置されてもよい。即ち、俯瞰合成画像Pmの生成は、周辺画像Pの俯瞰画像化を行うことに限定されない。
 俯瞰コントローラ44は、俯瞰画像がシームレスに繋がって見えるように画像処理を行って俯瞰合成画像Pmを生成する。図4に示すように、俯瞰合成画像Pmは、前方画像Paを俯瞰画像化した前方俯瞰画像Pa1と、後方画像を俯瞰画像化した後方俯瞰画像Pb1と、右方画像を俯瞰画像化した右方俯瞰画像Pc1と、左方画像を俯瞰画像化した左方俯瞰画像Pd1と、4つの俯瞰画像Pa1、Pb1、Pc1、Pd1の中心に、平面視のクレーン1を模式的に表したクレーン画像Pzと、を1つに合成した画像である。
 俯瞰合成画像Pmは、前方俯瞰画像Pa1及び左方俯瞰画像Pd1をそれぞれ地平線まで含み、後方俯瞰画像Pb1や右方俯瞰画像Pc1よりも表示領域が広く設定されている。俯瞰合成画像Pmは、クレーン1の前進走行中に、クレーン1の全周囲を単一の画像で視認可能で、クレーン1の前方及びキャビン39からの死角が大きい左方の各領域を視認するのに適している。
 俯瞰合成画像Pmは、周辺画像Pを繋ぎ合わせた部分である合成部Sが形成されている(薄墨部分)。合成部Sは、前方俯瞰画像Pa1と右方俯瞰画像Pc1の間と、右方俯瞰画像Pc1と後方俯瞰画像Pb1の間と、後方俯瞰画像Pb1と左方俯瞰画像Pd1の間と、左方俯瞰画像Pd1と前方俯瞰画像Pa1の間と、にそれぞれ形成されている。合成部Sは、俯瞰合成画像Pm上で死角となる場合や、合成時に引き延ばされて不自然な表示となる場合がある。従って、オペレータが合成部Sに存在する移動体を見落とす可能性がある。なお、合成部Sは、俯瞰合成画像Pmにおける合成部Sの領域が制御部43に設定されている。
 クレーン1は、クレーン1が前進走行に対応した状態であるか又は後退走行に対応した状態であるかをシフトポジションによって検知するシフトスイッチ(図示せず)と、クレーン作業のためにエンジン等の駆動源の動力をPTO(Power take-off:動力取り出し装置)で取り出している状態か否かを検知するPTOスイッチ(図示せず)と、を備えている。シフトスイッチ及びPTOスイッチは、制御部43に接続されている。そのため、制御部43は、クレーン1が前進走行中であるか、クレーン1が後退走行中であるか、クレーン1が作業中であるか、を認識できる。制御部43は、前進走行中、後退走行中、作業中のそれぞれの状況に応じて俯瞰画像Pa1、Pb1、Pc1、Pd1の表示領域の広さを変更して、俯瞰合成画像Pmを選択的に生成できる。
 次に、図5及び図6を用いて、画像表示システム41が行う移動体検知処理について説明する。なお、本実施形態において、移動体Mを人として説明するが、特に限定されるものではなく、移動体Mは、二輪車、フォークリフト等であってもよい。
 画像認識コントローラ45は、俯瞰合成画像Pmに対して、ディープラーニング等の手法を用いて、俯瞰合成画像Pm上の人を検知する。具体的には、画像認識コントローラ45は、俯瞰合成画像Pm上の輪郭的な特徴に基づいて人の候補を抽出し、人の形状等の特徴を学習させたモデルを用いて、上記の人の候補が人か否かを判定する。図5に示すように、制御部43は、検知結果として、俯瞰合成画像Pm上の人を囲むように矩形の枠F1を重畳表示する。画像認識コントローラ45は、俯瞰合成画像Pm上の人が存在する領域の座標情報を保持している。人が存在する領域とは、俯瞰合成画像Pm上の人を囲うことができる最小の矩形の枠F1(バウンディングボックス)で囲まれた領域である。俯瞰合成画像Pmは、例えば、30Hzの周期で更新されるように設定されている。また、画像認識コントローラ45が行う移動体Mの検知は、例えば、俯瞰合成画像Pmの更新と同様に30Hzの周期で毎フレーム実行されるように設定されている。なお、移動体Mを検知する手法は、特に限定されるものではなく、公知の手法を用いることができる。例えば、カメラ42の位置や向きが変化していない場合(クレーン1が走行中や旋回中ではない場合)、移動体Mの特徴量に基づいて当該移動体Mを検知できる。また、カメラ42の位置や向きが変化している場合(クレーン1が走行中や旋回中である場合)、画像上における移動体Mの移動方向と背景の移動方向との差分に基づいて当該移動体Mを検知できる。
 追跡コントローラ46は、検知した移動体Mに対して、それぞれ識別情報であるIDを付与する。追跡コントローラ46は、例えば、連続するフレームの俯瞰合成画像Pm上(撮影時間が連続する俯瞰合成画像Pm上)において、一定の閾値以上の割合でバウンディングボックス内の領域が重なっていた場合、同一の移動体Mとみなして同様のIDを付与する。これにより、連続するフレーム間で移動体Mが識別可能となり、移動体Mの追跡(トラッキング)を行うことができる。なお、追跡コントローラ46は、連続するフレームの俯瞰合成画像Pm上において、一定の閾値以上の割合でバウンディングボックス内の領域が重なっていなかった場合、同一の移動体Mではないとみなして異なるIDを付与する。
 図6に示すように、警告コントローラ47は、移動体Mが合成部Sに侵入した場合(移動体Mを検知できなくなった場合)、合成部Sの強調表示を行う。例えば、警告コントローラ47は、合成部Sの強調表示として、画像表示部48に合成部Sを囲う楕円形の枠F2を表示させる。
 或いは、警告コントローラ47は、移動体Mが合成部Sに侵入した場合、合成部Sが含まれる周辺画像Pに切替表示を行うとともに、移動体Mを画像表示部48に強調表示させる。或いは、警告コントローラ47は、合成部Sが含まれる周辺画像Pの追加表示を行うとともに、移動体Mを画像表示部48に強調表示させる。図7に示すように、例えば、警告コントローラ47は、周辺画像Pの切替表示として、移動体Mが撮影されている前方画像Paの画像を表示させる。そして、警告コントローラ47は、合成部Sの強調表示として、画像表示部48に移動体Mを囲う枠F3を表示させる。図8に示すように、例えば、警告コントローラ47は、周辺画像Pの追加表示として、俯瞰合成画像Pmと、移動体Mが撮影されている前方画像Paと、を並べて表示させる。そして、警告コントローラ47は、移動体Mの強調表示として、画像表示部48に移動体Mを囲う枠F4を表示させる。また、警告コントローラ47は、移動体Mが侵入した合成部Sを囲う楕円形の枠F5を表示させて、合成部Sの強調表示を行うことも可能である。これにより、警告コントローラ47は、合成部Sに侵入している移動体Mの位置を、より正確にオペレータに認識させることができる。
 加えて、警告コントローラ47は、上記の画像表示部48での警告と同時にブザー49からブザー音を発生させる。これにより、警告コントローラ47は、移動体Mが合成部Sに侵入していることを、より確実にオペレータに認識させることができる。
 警告コントローラ47は、画像表示部48及びブザー49での警告を任意の時間継続させる。その後、警告コントローラ47は、画像表示部48の表示を元の俯瞰合成画像Pmの表示に戻すとともに、ブザー49のブザー音を停止させる。
 これにより、オペレータは、クレーン1の走行中において、合成部Sに移動体Mが侵入した場合でも、移動体Mと走行体2が接触しないように運転することができる。また、画像表示システム41は、クレーン1の作業中において、俯瞰合成画像Pm上でブーム32及び吊り下げられた荷物を検知して、ブーム32や荷物が合成部Sに侵入した場合に警告を出力することもできる。これにより、オペレータは、移動体Mと、ブーム32及び荷物と、が接触しないようにブーム32等を操作することができる。
 即ち、作業車両(クレーン1)は、カメラ42により撮影された移動体Mを画像(俯瞰合成画像Pm)上で検知する画像認識コントローラ45と、移動体Mを画像(俯瞰合成画像Pm)上で追跡する追跡コントローラ46と、合成部Sに移動体Mが侵入したことを警告する警告コントローラ47と、を備える。このような作業車両によれば、合成部Sへの移動体Mの侵入がオペレータに認識される。従って、より安全にオペレータが俯瞰合成画像Pmを利用できる。また、移動体Mを検知するためのセンサとして、カメラ42のみで対応できるため、コスト面で有利である。
 また、作業車両(クレーン1)において、追跡コントローラ46は、移動体Mに識別情報(ID)を付与する。このような作業車両によれば、移動体Mが複数ある場合に、当該移動体Mがそれぞれ識別される。従って、移動体Mを識別して追跡できる。
 また、作業車両(クレーン1)において、画像認識コントローラ45は、俯瞰合成画像Pm上で移動体Mを検知する。このような作業車両では、俯瞰合成画像Pmの画素数が各周辺画像Pの画素数の合計よりも概ね少ない。従って、周辺画像Pを用いるよりも少ない計算リソースで移動体Mを検知できる。
 また、作業車両(クレーン1)において、警告コントローラ47は、合成部Sに移動体Mが侵入した場合に、移動体Mが侵入した合成部Sを画像表示部48に強調表示させる。このような作業車両によれば、合成部Sへ侵入した移動体Mの位置が俯瞰合成画像Pmから認識可能となる。従って、オペレータは、合成部Sに移動体Mが侵入した場合でも、俯瞰合成画像Pm上で移動体Mの位置を把握しながら、より安全に作業車両の運転や操作等を行うことができる。
 また、作業車両(クレーン1)において、警告コントローラ47は、合成部Sに移動体Mが侵入した場合に、周辺画像Pに画面表示を切り替えるとともに、移動体Mを強調表示させる。このような作業車両によれば、合成部Sへ侵入した移動体Mの位置が周辺画像Pから認識可能となる。従って、オペレータは、合成部Sに移動体Mが侵入した場合でも、周辺画像P上で移動体Mを確認しながら、より安全に作業車両の運転や操作等を行うことができる。
 次に、図9を用いて、第二実施形態に係る作業車両について説明する。なお、以下においては、第一実施形態に係る作業車両の説明で用いた名称と符号を用いることで、同じものを指すこととする。また、第一実施形態に係る作業車両に対して相違する部分を中心に説明する。
 画像認識コントローラ45は、周辺画像Pに対して、ディープラーニング等の手法を用いて、周辺画像P上の人を検知する。図9に示すように、周辺画像Pには、俯瞰合成画像Pmの合成部Sに相当する領域Saが設定されている(薄墨部分)。領域Saは、画像表示部48に表示された周辺画像Pにおいて、オペレータが視認不可能又は視認困難な部分の一例である。
 警告コントローラ47は、移動体Mが領域Saに侵入した場合、上記の画像表示部48及びブザー49での警告を行う。警告コントローラ47は、各周辺画像Pで移動体Mの検知ができなくなった場合に、画像表示部48の表示を元の俯瞰合成画像Pmの表示に戻すとともに、ブザー49のブザー音を停止させる。
 即ち、作業車両(クレーン1)において、画像認識コントローラ45は、周辺画像P上で移動体Mを検知する。このような作業車両によれば、俯瞰合成画像Pmに拠らずに移動体Mを検知できる。
 最後に、本願の技術的思想は、俯瞰合成画像Pmを生成せずに、各カメラ42からの周辺画像Pを任意に並べて画像表示部48に表示する運用に対しても適用できる。この場合、画像認識コントローラ45は、各カメラ42からの周辺画像Pに対して、それぞれ移動体検知処理を行うことができる。ここで、画像認識コントローラ45は、画像表示部48に表示中の周辺画像Pだけでなく、画像表示部48に表示していない周辺画像P(のデータ)に対しても、移動体検知処理を行うことができる。なお、画像表示部48に表示していない周辺画像Pは、画像表示部48に表示中の周辺画像Pにおいて、オペレータが視認不可能又は視認困難な部分の一例である。そして、警告コントローラ47は、画像表示部48に表示していない周辺画像Pにおいて移動体Mの検知があった場合に、走行体2に対する移動体Mの位置を、視覚情報(例えば、移動体Mが検知された周辺画像Pに画面表示を切り替えて、移動体Mを強調表示する)又は音声情報(例えば、移動体Mが検知された方向を音声出力する)により警告することができる。
 2021年9月8日出願の特願2021-146434の日本出願に含まれる明細書、図面及び要約書の開示内容は、すべて本願に援用される。
 1     クレーン(作業車両)
 2     走行体
 39    キャビン
 42    カメラ
 43    制御部
 44    俯瞰コントローラ
 45    画像認識コントローラ
 46    追跡コントローラ
 47    警告コントローラ
 48    画像表示部(ディスプレイ)
 M     移動体
 P     周辺画像
 Pm    俯瞰合成画像
 Pa1   前方俯瞰画像(俯瞰画像)
 Pb1   後方俯瞰画像(俯瞰画像)
 Pc1   右方俯瞰画像(俯瞰画像)
 Pd1   左方俯瞰画像(俯瞰画像)
 S     合成部

Claims (9)

  1.  走行体の周辺を撮影した周辺画像及び又は複数の前記周辺画像を合成した合成画像を取得し、取得画像を、前記走行体の上部のキャビンに配置された画像表示部に表示させる制御部を備え、
     前記制御部は、前記取得画像において移動体を検知し、検知された移動体が前記画像表示部の表示画像では視認不可能又は視認困難である場合、警告を出力する制御部と、を備える、
     作業車両。
  2.  前記制御部は、検知された移動体を前記取得画像において追跡し、追跡された移動体が前記画像表示部の表示画像では視認不可能又は視認困難となる位置へ移動した場合、警告を出力する、
     請求項1に記載の作業車両。
  3.  前記合成画像は、前記周辺画像を繋ぎ合わせた部分である合成部を含む俯瞰合成画像であり、前記画像表示部に表示中の前記俯瞰合成画像において、前記合成部は視認不可能又は視認困難な部分を含み、
     前記制御部は、検知された移動体が前記合成部に位置する場合、警告を出力する、
     請求項1に記載の作業車両。
  4.  前記制御部は、検知された移動体を前記取得画像において追跡し、追跡された移動体が前記合成部に侵入した場合、警告を出力する、
     請求項3に記載の作業車両。
  5.  前記制御部は、検知された移動体に識別情報を付与する、請求項1に記載の作業車両。
  6.  前記制御部は、前記俯瞰合成画像上で前記移動体を検知する、請求項3に記載の作業車両。
  7.  前記制御部は、前記周辺画像上で前記移動体を検知する、請求項1に記載の作業車両。
  8.  前記制御部は、前記合成部に前記移動体が侵入した場合に、前記移動体が侵入した前記合成部を前記画像表示部に強調表示させる、請求項4に記載の作業車両。
  9.  前記制御部は、前記合成部に前記移動体が侵入した場合に、前記俯瞰合成画像から前記周辺画像に前記画像表示部の表示を切り替えるとともに、前記移動体を前記画像表示部に強調表示させる、請求項4に記載の作業車両。
     
PCT/JP2022/032652 2021-09-08 2022-08-30 作業車両 WO2023037936A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023546897A JPWO2023037936A1 (ja) 2021-09-08 2022-08-30

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021146434 2021-09-08
JP2021-146434 2021-09-08

Publications (1)

Publication Number Publication Date
WO2023037936A1 true WO2023037936A1 (ja) 2023-03-16

Family

ID=85506690

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/032652 WO2023037936A1 (ja) 2021-09-08 2022-08-30 作業車両

Country Status (2)

Country Link
JP (1) JPWO2023037936A1 (ja)
WO (1) WO2023037936A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002019556A (ja) * 2000-07-04 2002-01-23 Matsushita Electric Ind Co Ltd 監視システム
JP2003169323A (ja) * 2001-11-29 2003-06-13 Clarion Co Ltd 車両周囲監視装置
JP2006131166A (ja) * 2004-11-09 2006-05-25 Alpine Electronics Inc 運転支援装置
JP2014064144A (ja) * 2012-09-20 2014-04-10 Komatsu Ltd 作業車両用周辺監視システム及び作業車両
JP2016119559A (ja) * 2014-12-19 2016-06-30 日立建機株式会社 作業機械の周囲監視装置
JP2018148386A (ja) * 2017-03-06 2018-09-20 日立建機株式会社 移動物体検知システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002019556A (ja) * 2000-07-04 2002-01-23 Matsushita Electric Ind Co Ltd 監視システム
JP2003169323A (ja) * 2001-11-29 2003-06-13 Clarion Co Ltd 車両周囲監視装置
JP2006131166A (ja) * 2004-11-09 2006-05-25 Alpine Electronics Inc 運転支援装置
JP2014064144A (ja) * 2012-09-20 2014-04-10 Komatsu Ltd 作業車両用周辺監視システム及び作業車両
JP2016119559A (ja) * 2014-12-19 2016-06-30 日立建機株式会社 作業機械の周囲監視装置
JP2018148386A (ja) * 2017-03-06 2018-09-20 日立建機株式会社 移動物体検知システム

Also Published As

Publication number Publication date
JPWO2023037936A1 (ja) 2023-03-16

Similar Documents

Publication Publication Date Title
JP5529943B2 (ja) 作業車両用周辺監視システム及び作業車両
US10661712B2 (en) Bird's-eye view image system, bird's-eye view image display method and program
JP5128566B2 (ja) 周囲画像提示装置及び操作支援システム
JP2011035729A (ja) 車両周辺画像表示装置および車両周辺画像表示方法
JP6352797B2 (ja) 作業機械の周囲監視装置
JP6017691B2 (ja) 情報提示装置、クレーンシステム及び情報提示方法
JP2010112100A (ja) 作業機械の監視装置
JP2002176641A (ja) 周囲映像提示装置
JP2007142545A (ja) 車両周辺画像処理装置及びプログラム。
JP5926315B2 (ja) 作業車両用周辺監視システム及び作業車両
JP2012162211A (ja) 車両用周辺監視装置
WO2017038123A1 (ja) 車両の周囲監視装置
WO2019208283A1 (ja) クレーン車
JP5718080B2 (ja) 車両用周辺監視装置
JP6917167B2 (ja) 建設機械用俯瞰画像表示装置
JP2003063339A (ja) 駐車支援装置
WO2023037936A1 (ja) 作業車両
JP2017061283A (ja) 作業車両の周囲監視装置
JP2018039648A (ja) 画像表示システム
JP6756554B2 (ja) 画像表示システム
JP2019087909A (ja) 画像表示装置、及び画像表示システム
US12030751B2 (en) Crane information display system
JP2016013888A (ja) クレーン車の障害物報知システム
WO2022070872A1 (ja) 物体検出システム及び物体検出方法
JP2016013890A (ja) クレーン車の障害物報知システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22867258

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023546897

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE