JP6960803B2 - Vehicle peripheral visibility device - Google Patents

Vehicle peripheral visibility device Download PDF

Info

Publication number
JP6960803B2
JP6960803B2 JP2017164407A JP2017164407A JP6960803B2 JP 6960803 B2 JP6960803 B2 JP 6960803B2 JP 2017164407 A JP2017164407 A JP 2017164407A JP 2017164407 A JP2017164407 A JP 2017164407A JP 6960803 B2 JP6960803 B2 JP 6960803B2
Authority
JP
Japan
Prior art keywords
vehicle
image
camera
processing unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017164407A
Other languages
Japanese (ja)
Other versions
JP2019047143A (en
Inventor
孝治 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sakae Riken Kogyo Co Ltd
Original Assignee
Sakae Riken Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sakae Riken Kogyo Co Ltd filed Critical Sakae Riken Kogyo Co Ltd
Priority to JP2017164407A priority Critical patent/JP6960803B2/en
Publication of JP2019047143A publication Critical patent/JP2019047143A/en
Application granted granted Critical
Publication of JP6960803B2 publication Critical patent/JP6960803B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、複数の連結車両を有する車両に用いられる車両周辺視認装置に関する。 The present disclosure relates to a vehicle peripheral visual recognition device used for a vehicle having a plurality of connected vehicles.

従来、特許文献1の記載のように、大型トレーラーのような複数の連結車両を有する車両において、複数のカメラで撮像した画像を変形および合成して、車両上空からの画像のように表示する車両周辺視認装置が知られている。 Conventionally, as described in Patent Document 1, in a vehicle having a plurality of connected vehicles such as a large trailer, a vehicle that deforms and synthesizes images captured by a plurality of cameras and displays them as an image from above the vehicle. Peripheral visual recognition devices are known.

特開2003−235036号公報Japanese Unexamined Patent Publication No. 2003-235036

特許文献1の構成では、複数のカメラで撮像した画像を変形および合成するため、処理が複雑になり、処理の時間がかかる。このため、車両の外側の通行車または通行者等がモニタに表示されず、車両の安全性が低下する虞がある。また、複数の連結車両を有する車両において、車両が曲がるとき、カメラが連結車両を撮像するため、車両上空からの画像のように表示できない虞がある。これにより、車両の外側の通行車または通行者等がモニタに表示されず、車両の安全性が低下する虞がある。 In the configuration of Patent Document 1, since images captured by a plurality of cameras are deformed and combined, the processing becomes complicated and the processing takes time. Therefore, a passing vehicle or a passerby outside the vehicle may not be displayed on the monitor, which may reduce the safety of the vehicle. Further, in a vehicle having a plurality of connected vehicles, when the vehicle turns, the camera captures the connected vehicle, so that there is a possibility that the image cannot be displayed as if it were an image from the sky above the vehicle. As a result, the passing vehicle or passerby on the outside of the vehicle is not displayed on the monitor, which may reduce the safety of the vehicle.

本開示の目的は、車両の安全性が向上する車両周辺視認装置を提供することにある。 An object of the present disclosure is to provide a vehicle peripheral visibility device that improves vehicle safety.

本開示は、第1連結車両(11)および第1連結車両に対して、後側に設けられ、第1連結車両に対して回転可能に、第1連結車両と連結されている第2連結車両(12)を有する車両(10)に用いられる車両周辺視認装置(51、52)である。
車両周辺視認装置は、ボディ(30)、カメラ(40)、画像処理部(60)およびモニタ(70)を備える。
The present disclosure is a second connected vehicle provided on the rear side of the first connected vehicle (11) and the first connected vehicle and rotatably connected to the first connected vehicle with respect to the first connected vehicle. It is a vehicle peripheral visual recognition device (51, 52) used for the vehicle (10) having (12).
The vehicle peripheral visual recognition device includes a body (30), a camera (40), an image processing unit (60), and a monitor (70).

ボディは、第1連結車両に設けられる。
カメラは、ボディに設けられており、第1連結車両の後方または車両の周辺を撮像可能である。
画像処理部は、カメラが撮像した画像であるカメラ画像(Ic)から第2連結車両の外側の画像を切り取り可能である。画像処理部は、車両の外側および第2連結車両を含むように、カメラ画像を切り取り、切り取ったカメラ画像における第2連結車両の画像が非球面鏡で映した鏡像となるように、カメラ画像を処理する。
モニタは、車両に設けられており、カメラ画像から画像処理部が切り取った画像(Ic_P)を表示可能である。
カメラ画像において、車両の後端部(121)から車両の外側に向かう方向に対して予め設定される距離(d1、d5)に位置する点(P3、P9)を通過する直線を第1切り取り線(Lo1、Lo5)とすると、画像処理部は、第1切り取り線を含んで、カメラ画像から切り取る。
The body is provided on the first connected vehicle.
The camera is provided on the body and can take an image of the rear of the first connected vehicle or the periphery of the vehicle.
The image processing unit can cut out an image of the outside of the second connected vehicle from the camera image (Ic), which is an image captured by the camera. The image processing unit cuts out the camera image so as to include the outside of the vehicle and the second connected vehicle, and processes the camera image so that the image of the second connected vehicle in the cut camera image becomes a mirror image reflected by the aspherical mirror. do.
The monitor is provided in the vehicle and can display an image (Ic_P) cut out by the image processing unit from the camera image.
In the camera image, the first cut line is a straight line passing through a point (P3, P9) located at a preset distance (d1, d5) from the rear end portion (121) of the vehicle toward the outside of the vehicle. (Lo1, Lo5), the image processing unit includes the first cutting line and cuts from the camera image.

画像処理部は、カメラ画像を合成する等の複雑な処理をする必要がない。このため、カメラ画像を処理する時間が短縮される。処理時間が短縮されて、不要な範囲が切り取られ、車両の周辺の特定された範囲の画像がモニタに表示される。これにより、車両の外側の通行車または通行者等を運転者が認識しやすくなるため、車両の安全性が向上する。 The image processing unit does not need to perform complicated processing such as synthesizing camera images. Therefore, the time for processing the camera image is shortened. The processing time is reduced, unnecessary areas are cut out, and an image of the specified area around the vehicle is displayed on the monitor. This makes it easier for the driver to recognize a passing vehicle or a passerby on the outside of the vehicle, which improves the safety of the vehicle.

本実施形態に用いられる車両の構成図。The block diagram of the vehicle used in this embodiment. 第1実施形態による車両周辺視認装置を示すブロック図。The block diagram which shows the vehicle peripheral visual recognition device according to 1st Embodiment. 図1のIIIから見た上面図。Top view seen from III in FIG. 第1実施形態による車両周辺視認装置において、車両が直線走行しているときのカメラ画像を表す図。The figure which shows the camera image when the vehicle is traveling in a straight line in the vehicle peripheral visual recognition device according to 1st Embodiment. 第1実施形態による車両周辺視認装置において、車両が直線走行しているときの処理画像を表す図。The figure which shows the processed image when the vehicle is traveling in a straight line in the vehicle peripheral visual recognition device according to 1st Embodiment. 第1実施形態による車両周辺視認装置において、車両が曲線走行しているときのカメラ画像を表す図。The figure which shows the camera image when the vehicle is traveling on a curve in the vehicle peripheral visual recognition device according to 1st Embodiment. 第1実施形態による車両周辺視認装置において、車両が曲線走行しているときの処理画像を表す図。The figure which shows the processed image when the vehicle is traveling on a curve in the vehicle peripheral visual recognition device according to 1st Embodiment. 第1実施形態による車両周辺視認装置において、車両が曲線走行しているときに、アスフェル化処理をした処理画像を表す図。FIG. 3 is a diagram showing a processed image that has undergone asferification processing when the vehicle is traveling on a curved line in the vehicle peripheral visual recognition device according to the first embodiment. 第1実施形態による車両周辺視認装置の画像処理部の処理を説明するためのフローチャート。The flowchart for demonstrating the processing of the image processing part of the vehicle peripheral visual recognition apparatus according to 1st Embodiment. 第1実施形態による車両周辺視認装置において、車両が直線走行しているときの処理画像の範囲を表す図。The figure which shows the range of the processed image when the vehicle is traveling in a straight line in the vehicle peripheral visual recognition device according to 1st Embodiment. 第1実施形態による車両周辺視認装置において、車両が曲線走行しているときの処理画像の範囲を表す図。The figure which shows the range of the processed image when the vehicle is traveling on a curve in the vehicle peripheral visual recognition device according to 1st Embodiment. 第2実施形態による車両周辺視認装置を示すブロック図。The block diagram which shows the vehicle peripheral visual recognition device according to 2nd Embodiment. 第2実施形態による車両周辺視認装置の画像処理部の処理を説明するためのフローチャート。The flowchart for demonstrating the processing of the image processing part of the vehicle peripheral visual recognition apparatus according to 2nd Embodiment. 比較例の車両周辺視認装置のカメラが撮像する範囲を説明するための図。The figure for demonstrating the range imaged by the camera of the vehicle peripheral visual recognition device of the comparative example.

以下、車両周辺視認装置の実施形態を図面に基づいて説明する。複数の実施形態において、実質的に同一の構成には、同一の符号を付して説明する。また、本実施形態という場合、複数の実施形態を包括する。本実施形態の車両周辺視認装置は、複数の連結車両を有する車両に用いられる。 Hereinafter, embodiments of the vehicle peripheral visual recognition device will be described with reference to the drawings. In a plurality of embodiments, substantially the same configuration will be described with the same reference numerals. Further, the present embodiment includes a plurality of embodiments. The vehicle peripheral visual recognition device of the present embodiment is used for a vehicle having a plurality of connected vehicles.

まず、本実施形態の車両周辺視認装置に用いられる車両10について説明する。車両10の前進方向を「前」とする。車両10の後退方向を「後」とする。また、前進方向から見て上側を「上」とする。前進方向から見て下側を「下」とする。上下方向と車両の高さ方向である車高方向は同一である。さらに、前進方向から見て右側を「右」とする。前進方向から見て左側を「左」とする。左右方向は、車幅方向と同一である。 First, the vehicle 10 used in the vehicle peripheral visual recognition device of the present embodiment will be described. The forward direction of the vehicle 10 is "front". The backward direction of the vehicle 10 is defined as "rear". Further, the upper side when viewed from the forward direction is defined as "upper". The lower side when viewed from the forward direction is "down". The vertical direction and the vehicle height direction, which is the vehicle height direction, are the same. Further, the right side when viewed from the forward direction is defined as "right". The left side when viewed from the forward direction is "left". The left-right direction is the same as the vehicle width direction.

図1に示すように、車両10は、第1連結車両11、第2連結車両12、連結部13、荷物収容部14およびエンジン22を備える。
第1連結車両11は、前側に設けられており、第2連結車両12に対して回転可能である。第1連結車両11は、複数の第1タイヤ15、フロントウィンドウ16、ドア18および第1荷台部19を有する。また、図示はしないが、第1連結車両11は、座席およびハンドルを有する。
ドア18は、ドアウィンドウ17を含む。
第1荷台部19は、ドア18に対して後方に延びており、荷物収容部14を搭載可能である。
As shown in FIG. 1, the vehicle 10 includes a first connected vehicle 11, a second connected vehicle 12, a connecting portion 13, a luggage accommodating portion 14, and an engine 22.
The first connected vehicle 11 is provided on the front side and is rotatable with respect to the second connected vehicle 12. The first connected vehicle 11 has a plurality of first tires 15, a front window 16, a door 18, and a first loading platform 19. Further, although not shown, the first connected vehicle 11 has a seat and a steering wheel.
The door 18 includes a door window 17.
The first loading platform portion 19 extends rearward with respect to the door 18 and can mount the luggage accommodating portion 14.

第2連結車両12は、第1連結車両11に対して後側に設けられており、連結部13を介して第1連結車両11と連結されている。第2連結車両12は、複数の第2タイヤ20および第2荷台部21を有する。
第2荷台部21は、前後方向に延びており、荷物収容部14を搭載可能である。
The second connected vehicle 12 is provided on the rear side of the first connected vehicle 11 and is connected to the first connected vehicle 11 via the connecting portion 13. The second connected vehicle 12 has a plurality of second tires 20 and a second loading platform 21.
The second loading platform portion 21 extends in the front-rear direction, and the luggage accommodating portion 14 can be mounted on the second loading platform portion 21.

連結部13は、第1連結車両11と第2連結車両12とに接続されている。連結部13は、第1連結車両11に固定されており、第2連結車両12を中心に回転可能である。第1連結車両11が回転したとき、連結部13は、第1連結車両11とともに、第2連結車両12に対して回転する。このとき、車両10は、右折または左折する、すなわち、曲線走行する。 The connecting portion 13 is connected to the first connected vehicle 11 and the second connected vehicle 12. The connecting portion 13 is fixed to the first connected vehicle 11 and can rotate around the second connected vehicle 12. When the first connected vehicle 11 rotates, the connecting portion 13 rotates with respect to the second connected vehicle 12 together with the first connected vehicle 11. At this time, the vehicle 10 makes a right turn or a left turn, that is, travels on a curve.

荷物収容部14は、第1荷台部19および第2荷台部21に設けられており、箱状に形成されている。荷物収容部14は、荷物を搭載可能である。
エンジン22は、第1連結車両11に設けられており、燃料をガソリンまたは軽油とする内燃機関である。なお、車両10は、内燃機関を有する自動車に限定されず、ハイブリッド自動車または電気自動車であってもよい。
The luggage accommodating portion 14 is provided in the first loading platform portion 19 and the second loading platform portion 21, and is formed in a box shape. The luggage storage unit 14 can load luggage.
The engine 22 is provided in the first connected vehicle 11, and is an internal combustion engine that uses gasoline or light oil as fuel. The vehicle 10 is not limited to a vehicle having an internal combustion engine, and may be a hybrid vehicle or an electric vehicle.

(第1実施形態)
図2に示すように、車両周辺視認装置51は、車両10に設けられており、ボディ30、カメラ40、画像処理部60、モニタ70、モニタ制御部80および連結角度検出部85を備える。
図1に戻って、ボディ30は、第1連結車両11に設けられており、例えば、樹脂で形成されている。ボディ30は、例えば、第1連結車両11のピラー付近、ドアウィンドウ17付近またはドアミラーが設けられる位置に設けられている。
ボディ30は、第1連結車両11の左右に1つずつ設けられている。
(First Embodiment)
As shown in FIG. 2, the vehicle peripheral visual recognition device 51 is provided in the vehicle 10, and includes a body 30, a camera 40, an image processing unit 60, a monitor 70, a monitor control unit 80, and a connection angle detection unit 85.
Returning to FIG. 1, the body 30 is provided on the first connected vehicle 11, and is made of, for example, resin. The body 30 is provided, for example, near the pillar of the first connected vehicle 11, near the door window 17, or at a position where a door mirror is provided.
One body 30 is provided on each side of the first connected vehicle 11.

図2に戻って、カメラ40は、ボディ30に収容されている。
カメラ40は、広角レンズを有する撮像光学系、および、撮像素子を有し、撮像を1秒間に60フレーム以上のフレーム数の動画として出力可能である。撮像素子は、例えば、CCD型またはCMOS型である。CCDは、Charge Coupled Deviceの略であり、電荷結合素子を用いたセンサのことである。CMOSは、Complementary MOSFETの略であり、金属酸化物半導体電界効果トランジスタであるMOSFETを相補形に設置されたゲート構造のことである。
Returning to FIG. 2, the camera 40 is housed in the body 30.
The camera 40 has an image pickup optical system having a wide-angle lens and an image pickup element, and can output an image pickup as a moving image having 60 frames or more per second. The image sensor is, for example, a CCD type or a CMOS type. CCD is an abbreviation for Charge Coupled Device, and is a sensor using a charge coupling element. CMOS is an abbreviation for Complementary MOSFET, which is a gate structure in which MOSFETs, which are metal oxide semiconductor field effect transistors, are installed in a complementary manner.

図3に示すように、カメラ40は、第1連結車両11の後方または車両10の周辺を撮像可能である。図において、左側のカメラ40の撮像範囲Aを破線で記載する斜線のハッチングで示す。右側のカメラ40の撮像範囲は、左側のカメラ40の撮像範囲Aと同様である。カメラ40が撮像した画像をカメラ画像Icとする。 As shown in FIG. 3, the camera 40 can take an image of the rear of the first connected vehicle 11 or the periphery of the vehicle 10. In the figure, the imaging range A of the camera 40 on the left side is indicated by hatching with diagonal lines indicated by broken lines. The imaging range of the camera 40 on the right side is the same as the imaging range A of the camera 40 on the left side. The image captured by the camera 40 is referred to as a camera image Ic.

画像処理部60は、マイコンを主体として構成されており、CPU、読み出し可能な非一時的有形記録媒体、ROM、I/O、および、これらの構成を接続するバスライン等を備えている。画像処理部60の各処理は、ROM等の実体的なメモリ装置に予め記憶されたプログラムをCPUで実行することによるソフトウェア処理であってもよいし、専用の電子回路によるハードウェア処理であってもよい。
画像処理部60は、カメラ画像Icを画像処理可能である。画像処理部60がカメラ画像Icを処理した画像を処理画像Ic_Pとする。画像処理部60は、処理画像Ic_Pをモニタ70に出力する。
The image processing unit 60 is mainly composed of a microcomputer, and includes a CPU, a readable non-temporary tangible recording medium, a ROM, I / O, a bus line connecting these configurations, and the like. Each process of the image processing unit 60 may be software processing by executing a program stored in advance in a physical memory device such as a ROM on the CPU, or hardware processing by a dedicated electronic circuit. May be good.
The image processing unit 60 can process the camera image Ic. The image processed by the image processing unit 60 for the camera image Ic is designated as the processed image Ic_P. The image processing unit 60 outputs the processed image Ic_P to the monitor 70.

モニタ70は、第1連結車両11の中に設けられており、座席に座る運転者が視認可能に設けられている。モニタ70は、左用と右用とに各1台ずつ設けられており、左右のカメラ40に対応している。モニタ70は、処理画像Ic_Pを表示可能である。
モニタ制御部80は、画像処理部60と同様に、マイコンを主体として構成されている。モニタ制御部80は、左右のモニタ70の一方または両方が選択されて表示されるように、モニタ70を制御可能である。
The monitor 70 is provided in the first connected vehicle 11 so that the driver sitting in the seat can see it. One monitor 70 is provided for each of the left and right monitors, and the monitors 70 correspond to the left and right cameras 40. The monitor 70 can display the processed image Ic_P.
Like the image processing unit 60, the monitor control unit 80 is mainly composed of a microcomputer. The monitor control unit 80 can control the monitor 70 so that one or both of the left and right monitors 70 are selected and displayed.

連結角度検出部85は、第1連結車両11および第2連結車両12に設けられている。
第1連結車両11が第2連結車両12に対する回転した角度を連結角度θsとする。
連結角度検出部85は、例えば、ポテンショメータであって、基準となる角度からの回転角度に比例する電圧を出力するセンサであり、連結角度θsを検出可能である。なお、連結角度検出部85は、回転角度をデジタル信号に変化するエンコーダであってもよい。検出された連結角度θsは、画像処理部60に出力される。
The connection angle detection unit 85 is provided on the first connection vehicle 11 and the second connection vehicle 12.
The angle at which the first connected vehicle 11 rotates with respect to the second connected vehicle 12 is defined as the connection angle θs.
The connection angle detection unit 85 is, for example, a potentiometer, which is a sensor that outputs a voltage proportional to the rotation angle from a reference angle, and can detect the connection angle θs. The connection angle detection unit 85 may be an encoder that changes the rotation angle into a digital signal. The detected connection angle θs is output to the image processing unit 60.

従来、特許文献1の記載のように、大型トレーラーのような複数の連結車両を有する車両に用いられ、複数のカメラで撮像した画像を変形および合成して、車両上空からの画像のように表示する車両周辺視認装置が知られている。
特許文献1の構成では、複数のカメラで撮像した画像を変形および合成するため、処理が複雑になり、処理の時間がかかる。このため、車両の外側の通行車または通行者等がモニタに表示されず、車両の安全性が低下する虞がある。
Conventionally, as described in Patent Document 1, it has been used for a vehicle having a plurality of connected vehicles such as a large trailer, and images captured by a plurality of cameras are deformed and combined to be displayed as an image from above the vehicle. There is a known vehicle peripheral visual recognition device.
In the configuration of Patent Document 1, since images captured by a plurality of cameras are deformed and combined, the processing becomes complicated and the processing takes time. Therefore, a passing vehicle or a passerby outside the vehicle may not be displayed on the monitor, which may reduce the safety of the vehicle.

図14に示す比較例のように、第1連結車両91および第2連結車両92を有する車両90において、第1連結車両91が曲がるとき、車両周辺視認装置95のカメラ93が第2連結車両92または荷物収容部94を撮像する。このため、車両90の上空からの画像を表示できない虞がある。これにより、車両90の外側の通行車または通行者等がモニタに表示されず、車両90の安全性が低下する虞がある。図において、カメラ93の撮像範囲A_refをハッチングで記載している。
そこで、本実施形態の車両周辺視認装置では、車両の安全性が向上する。
As in the comparative example shown in FIG. 14, in the vehicle 90 having the first connected vehicle 91 and the second connected vehicle 92, when the first connected vehicle 91 turns, the camera 93 of the vehicle peripheral visual recognition device 95 determines the second connected vehicle 92. Alternatively, the luggage storage unit 94 is imaged. Therefore, there is a possibility that the image from the sky of the vehicle 90 cannot be displayed. As a result, the passersby or passersby outside the vehicle 90 may not be displayed on the monitor, and the safety of the vehicle 90 may be reduced. In the figure, the imaging range A_ref of the camera 93 is shown by hatching.
Therefore, in the vehicle peripheral visual recognition device of the present embodiment, the safety of the vehicle is improved.

画像処理部60は、カメラ画像Icを画像処理可能であり、第2連結車両12の外側の画像をカメラ画像Icから切り取り可能またはトリミング可能である。また、画像処理部60は、第2連結車両12の画像を含むように、切り取り可能またはトリミング可能である。
画像処理部60は、車両10の走行に応じて、カメラ画像Icの画像処理を行う。
まず、車両10が直線走行するときの画像処理部60の画像処理について説明する。
The image processing unit 60 can process the camera image Ic, and can cut or trim the image outside the second connected vehicle 12 from the camera image Ic. Further, the image processing unit 60 can be cut or trimmed so as to include an image of the second connected vehicle 12.
The image processing unit 60 performs image processing of the camera image Ic according to the traveling of the vehicle 10.
First, the image processing of the image processing unit 60 when the vehicle 10 travels in a straight line will be described.

図4に示すように、車両10が直線走行するときのカメラ画像Icにおいて、第1連結車両11の後端部111の任意の点を第1仮想点P1とする。図において、カメラ画像Icは、車両10に対して左側に設けられるカメラ40の画像である。第2連結車両12の後端部121の任意の点を第2仮想点P2とする。第1仮想点P1と第2仮想点P2とを結び、前後方向に延びる直線を第1仮想線I1とする。 As shown in FIG. 4, in the camera image Ic when the vehicle 10 travels in a straight line, an arbitrary point of the rear end portion 111 of the first connected vehicle 11 is set as a first virtual point P1. In the figure, the camera image Ic is an image of the camera 40 provided on the left side with respect to the vehicle 10. An arbitrary point of the rear end portion 121 of the second connected vehicle 12 is designated as a second virtual point P2. A straight line extending in the front-rear direction by connecting the first virtual point P1 and the second virtual point P2 is defined as the first virtual line I1.

第2仮想点P2から第2連結車両12の外側に向かう方向に対して、予め設定される距離を第1設定距離d1とする。第1設定距離d1は、任意に設定されており、後写鏡に関する法規、車両10の運転状況、実験またはシミュレーションを用いて、設定される。第2仮想点P2から第1設定距離d1に位置する点を第3仮想点P3とする。第3仮想点P3を通過し、上下方向に延びる直線を第1切り取り線Lo1とする。第1仮想点P1と第3仮想点P3とを結ぶ直線を第2仮想線I2とする。第1仮想線I1と第2仮想線I2とでなす角度を第1角度θ1とする。第1角度θ1は、第1設定距離d1に応じて変化する。なお、図において、記載を明確にするため、第1角度θ1の記載を省略している。 The preset distance with respect to the direction from the second virtual point P2 toward the outside of the second connected vehicle 12 is defined as the first set distance d1. The first set distance d1 is arbitrarily set and is set by using the regulations concerning the rearview mirror, the driving situation of the vehicle 10, an experiment or a simulation. The point located at the first set distance d1 from the second virtual point P2 is referred to as the third virtual point P3. A straight line that passes through the third virtual point P3 and extends in the vertical direction is defined as the first cutting line Lo1. The straight line connecting the first virtual point P1 and the third virtual point P3 is referred to as the second virtual line I2. The angle formed by the first virtual line I1 and the second virtual line I2 is defined as the first angle θ1. The first angle θ1 changes according to the first set distance d1. In the figure, the description of the first angle θ1 is omitted in order to clarify the description.

第2仮想点P2から第2連結車両12の内側に向かう方向に対して、予め設定される距離を第2設定距離d2とする。第2設定距離d2は、任意に設定されており、車両10の運転状況、実験またはシミュレーションを用いて、設定される。なお、第2設定距離d2は、ゼロであってもよい。第2仮想点P2から第2設定距離d2に位置する点を第4仮想点P4とする。第4仮想点P4を通過し、上下方向に延びる直線を第2切り取り線Lo2とする。 The preset distance with respect to the direction from the second virtual point P2 toward the inside of the second connected vehicle 12 is defined as the second set distance d2. The second set distance d2 is arbitrarily set and is set by using the driving condition, experiment or simulation of the vehicle 10. The second set distance d2 may be zero. The point located at the second set distance d2 from the second virtual point P2 is referred to as the fourth virtual point P4. A straight line that passes through the fourth virtual point P4 and extends in the vertical direction is referred to as a second cutting line Lo2.

第2仮想点P2から上方向に対して、予め設定される距離を第3設定距離d3とする。第2仮想点P2から下方向に対して、予め設定される距離を第4設定距離d4とする。第3設定距離d3および第4設定距離d4は、第1設定距離d1に応じて設定される。第2仮想点P2から第3設定距離d3に位置する点を第5仮想点P5とする。第5仮想点P5を通過し、左右方向に延びる直線を第3切り取り線Lo3とする。第2仮想点P2から第4設定距離d4に位置する点を第6仮想点P6とする。第6仮想点P6を通過し、左右方向に延びる直線を第4切り取り線Lo4とする。 The preset distance from the second virtual point P2 in the upward direction is defined as the third set distance d3. The preset distance from the second virtual point P2 in the downward direction is defined as the fourth set distance d4. The third set distance d3 and the fourth set distance d4 are set according to the first set distance d1. The point located at the third set distance d3 from the second virtual point P2 is referred to as the fifth virtual point P5. A straight line that passes through the fifth virtual point P5 and extends in the left-right direction is defined as the third cutting line Lo3. The point located at the fourth set distance d4 from the second virtual point P2 is referred to as the sixth virtual point P6. A straight line that passes through the sixth virtual point P6 and extends in the left-right direction is defined as the fourth cutting line Lo4.

図5に示すように、車両10が直線走行するとき、画像処理部60は、第1−第4切り取り線Lo1−Lo4を含み、第1−第4切り取り線Lo1−Lo4で区画した部分を、カメラ画像Icから切り取る。画像処理部60は、カメラ画像Icを処理画像Ic_Pに変換する。画像処理部60は、処理画像Ic_Pをモニタ70に出力する。
次に、車両10が曲線走行するときの画像処理部60の画像処理について説明する。
As shown in FIG. 5, when the vehicle 10 travels in a straight line, the image processing unit 60 includes the 1st to 4th cutting lines Lo1-Lo4 and divides the portion divided by the 1st to 4th cutting lines Lo1-Lo4. Cut from the camera image Ic. The image processing unit 60 converts the camera image Ic into the processed image Ic_P. The image processing unit 60 outputs the processed image Ic_P to the monitor 70.
Next, the image processing of the image processing unit 60 when the vehicle 10 travels on a curve will be described.

図6に示すように、車両10が曲線走行するときのカメラ画像Icにおいて、第1連結車両11の後端部111の任意の点を第7仮想点P7とする。第2連結車両12の後端部121の任意の点を第8仮想点P8とする。第7仮想点P7と第8仮想点P8とを結び、前後方向に延びる直線を第3仮想線I3とする。図において、記載を明確にするため、第3仮想線I3の記載を省略している。 As shown in FIG. 6, in the camera image Ic when the vehicle 10 travels on a curve, an arbitrary point of the rear end portion 111 of the first connected vehicle 11 is designated as a seventh virtual point P7. An arbitrary point of the rear end portion 121 of the second connected vehicle 12 is designated as an eighth virtual point P8. The straight line extending in the front-rear direction by connecting the 7th virtual point P7 and the 8th virtual point P8 is referred to as the 3rd virtual line I3. In the figure, the description of the third virtual line I3 is omitted in order to clarify the description.

第8仮想点P8から第2連結車両12の外側に向かう方向に対して、予め設定される距離を第5設定距離d5とする。第5設定距離d5は、任意に設定されており、連結角度θs、車両10の運転状況、実験またはシミュレーションを用いて、設定される。第8仮想点P8から第5設定距離d5に位置する点を第9仮想点P9とする。第9仮想点P9を通過し、上下方向に延びる直線を第5切り取り線Lo5とする。第7仮想点P7と第9仮想点P9とを結ぶ直線を第4仮想線I4とする。第3仮想線I3と第4仮想線I4とでなす角度を第2角度θ2とする。第2角度θ2は、第5設定距離d5に応じて変化する。なお、図において、記載を明確にするため、第2角度θ2および第4仮想線I4の記載を省略している。 A preset distance is set as the fifth set distance d5 with respect to the direction from the eighth virtual point P8 toward the outside of the second connected vehicle 12. The fifth set distance d5 is arbitrarily set and is set by using the connection angle θs, the driving condition of the vehicle 10, an experiment or a simulation. The point located at the fifth set distance d5 from the eighth virtual point P8 is referred to as the ninth virtual point P9. A straight line that passes through the ninth virtual point P9 and extends in the vertical direction is defined as the fifth cutting line Lo5. The straight line connecting the 7th virtual point P7 and the 9th virtual point P9 is referred to as the 4th virtual line I4. The angle formed by the third virtual line I3 and the fourth virtual line I4 is defined as the second angle θ2. The second angle θ2 changes according to the fifth set distance d5. In the figure, in order to clarify the description, the description of the second angle θ2 and the fourth virtual line I4 is omitted.

第8仮想点P8から第2連結車両12の内側に向かう方向に対して、予め設定される距離を第6設定距離d6とする。第6設定距離d6は、任意に設定されており、連結角度θs、車両10の運転状況、実験またはシミュレーションを用いて、設定される。なお、第6設定距離d6は、ゼロであってもよい。第8仮想点P8から第6設定距離d6に位置する点を第10仮想点P10とする。第10仮想点P10を通過し、上下方向に延びる直線を第6切り取り線Lo6とする。 A preset distance is set as the sixth set distance d6 with respect to the direction from the eighth virtual point P8 toward the inside of the second connected vehicle 12. The sixth set distance d6 is arbitrarily set and is set by using the connection angle θs, the driving condition of the vehicle 10, an experiment or a simulation. The sixth set distance d6 may be zero. The point located at the sixth set distance d6 from the eighth virtual point P8 is referred to as the tenth virtual point P10. A straight line that passes through the tenth virtual point P10 and extends in the vertical direction is referred to as a sixth cut line Lo6.

第8仮想点P8から上方向に対して、予め設定される距離を第7設定距離d7とする。第8仮想点P8から下方向に対して、予め設定される距離を第8設定距離d8とする。第7設定距離d7および第8設定距離d8は、第5設定距離d5に応じて設定される。第8仮想点P8から第7設定距離d7に位置する点を第11仮想点P11とする。第11仮想点P11を通過し、左右方向に延びる直線を第7切り取り線Lo7とする。第8仮想点P8から第8設定距離d8に位置する点を第12仮想点P12とする。第12仮想点P12を通過し、左右方向に延びる直線を第8切り取り線Lo8とする。 The preset distance from the 8th virtual point P8 in the upward direction is defined as the 7th set distance d7. The preset distance from the eighth virtual point P8 in the downward direction is defined as the eighth set distance d8. The seventh set distance d7 and the eighth set distance d8 are set according to the fifth set distance d5. The point located at the 7th set distance d7 from the 8th virtual point P8 is referred to as the 11th virtual point P11. A straight line that passes through the 11th virtual point P11 and extends in the left-right direction is defined as the 7th cutting line Lo7. The point located at the eighth set distance d8 from the eighth virtual point P8 is referred to as the twelfth virtual point P12. The straight line that passes through the 12th virtual point P12 and extends in the left-right direction is defined as the 8th cutting line Lo8.

図7に示すように、車両10が曲線走行するとき、画像処理部60は、第5−第8切り取り線Lo5−Lo8を含み、第5−第8切り取り線Lo5−Lo8で区画した部分を、カメラ画像Icから切り取る。画像処理部60は、カメラ画像Icを処理画像Ic_Pに変換する。画像処理部60は、処理画像Ic_Pをモニタ70に出力する。 As shown in FIG. 7, when the vehicle 10 travels on a curve, the image processing unit 60 includes the fifth and eighth cutting lines Lo5-Lo8, and divides the portion divided by the fifth and eighth cutting lines Lo5-Lo8. Cut from the camera image Ic. The image processing unit 60 converts the camera image Ic into the processed image Ic_P. The image processing unit 60 outputs the processed image Ic_P to the monitor 70.

図6に戻って、第10仮想点P10から第2連結車両12の内側に向かう方向に対して、予め設定される距離を第9設定距離d9とする。第9設定距離d9は、任意に設定されており、車両10の運転状況、実験またはシミュレーションを用いて、設定される。第10仮想点P10から第9設定距離d9に位置する点を第13仮想点P13とする。第13仮想点P13を通過し、上下方向に延びる直線を第5仮想線I5とする。 Returning to FIG. 6, a preset distance is set as the ninth set distance d9 with respect to the direction from the tenth virtual point P10 toward the inside of the second connected vehicle 12. The ninth set distance d9 is arbitrarily set and is set by using the driving condition, experiment or simulation of the vehicle 10. The point located at the ninth set distance d9 from the tenth virtual point P10 is referred to as the thirteenth virtual point P13. The straight line that passes through the thirteenth virtual point P13 and extends in the vertical direction is referred to as the fifth virtual line I5.

車両10が曲線走行するとき、画像処理部60は、第6切り取り線Lo6から第5仮想線I5までを含む範囲における第2連結車両12の画像を処理可能である。
図8に示すように、画像処理部60は、第2連結車両12の画像がアスフェルカルミラー、すなわち、非球面鏡に映される鏡像となるように、カメラ画像Icをアスフェル化処理する。このアスフェル化処理後に、画像処理部60は、カメラ画像Icを切り取って、処理画像Ic_Pに変換して、処理画像Ic_Pをモニタ70に出力してもよい。
When the vehicle 10 travels on a curve, the image processing unit 60 can process an image of the second connected vehicle 12 in a range including the sixth cut line Lo6 to the fifth virtual line I5.
As shown in FIG. 8, the image processing unit 60 asferifies the camera image Ic so that the image of the second connected vehicle 12 becomes an asfercal mirror, that is, a mirror image reflected on the aspherical mirror. After this asferification process, the image processing unit 60 may cut out the camera image Ic, convert it into the processed image Ic_P, and output the processed image Ic_P to the monitor 70.

図9のフローチャートを参照して、画像処理部60の処理について説明する。フローチャートにおいて、「S」は、ステップを意味する。
ステップ101において、エンジン22が始動する。
ステップ102において、画像処理部60は、連結角度θsがゼロであるか否かを判定する。本明細書中、ゼロは、常識的な誤差範囲を含むものとする。
連結角度θsがゼロであるとき、すなわち、車両10が直線走行するとき、処理は、ステップ103に移行する。
連結角度θsがゼロでないとき、すなわち、車両10が曲線走行するとき、処理は、ステップ108に移行する。
The processing of the image processing unit 60 will be described with reference to the flowchart of FIG. In the flow chart, "S" means a step.
In step 101, the engine 22 is started.
In step 102, the image processing unit 60 determines whether or not the connection angle θs is zero. In the present specification, zero includes a common sense error range.
When the connection angle θs is zero, that is, when the vehicle 10 travels in a straight line, the process proceeds to step 103.
When the connection angle θs is not zero, that is, when the vehicle 10 travels on a curve, the process proceeds to step 108.

ステップ103において、画像処理部60は、カメラ画像Icを取得する。
ステップ104において、画像処理部60は、カメラ画像Icにおいて、第1連結車両11の後端部111および第2連結車両12の後端部121を検出する。画像処理部60は、第1仮想点P1および第2仮想点P2を設定する。画像処理部60は、例えば、カメラ画像Icを2値化して、第1連結車両11の後端部111および第2連結車両12の後端部121を検出する。
In step 103, the image processing unit 60 acquires the camera image Ic.
In step 104, the image processing unit 60 detects the rear end portion 111 of the first connected vehicle 11 and the rear end portion 121 of the second connected vehicle 12 in the camera image Ic. The image processing unit 60 sets the first virtual point P1 and the second virtual point P2. The image processing unit 60, for example, binarizes the camera image Ic to detect the rear end portion 111 of the first connected vehicle 11 and the rear end portion 121 of the second connected vehicle 12.

ステップ105において、画像処理部60は、第1仮想点P1、第2仮想点P2および第1−第4設定距離d1−d4から第1−第4切り取り線Lo1−Lo4を設定する。
ステップ106において、画像処理部60は、第1−第4切り取り線Lo1−Lo4で区画された画像を切り取り、カメラ画像Icを処理画像Ic_Pに変換する。画像処理部60は、処理画像Ic_Pをモニタ70に出力する。
ステップ107において、モニタ70は、処理画像Ic_Pを表示する。
In step 105, the image processing unit 60 sets the first virtual point P1, the second virtual point P2, and the 1st to 4th set distances d1-d4 to the 1st to 4th cutting lines Lo1-Lo4.
In step 106, the image processing unit 60 cuts out the image partitioned by the first to fourth cutting lines Lo1-Lo4 and converts the camera image Ic into the processed image Ic_P. The image processing unit 60 outputs the processed image Ic_P to the monitor 70.
In step 107, the monitor 70 displays the processed image Ic_P.

ステップ108において、画像処理部60は、カメラ画像Icを取得する。
ステップ109において、画像処理部60は、カメラ画像Icにおいて、第1連結車両11の後端部111および第2連結車両12の後端部121を検出する。画像処理部60は、第7仮想点P7および第8仮想点P8を設定する。
In step 108, the image processing unit 60 acquires the camera image Ic.
In step 109, the image processing unit 60 detects the rear end portion 111 of the first connected vehicle 11 and the rear end portion 121 of the second connected vehicle 12 in the camera image Ic. The image processing unit 60 sets the seventh virtual point P7 and the eighth virtual point P8.

ステップ110において、画像処理部60は、第7仮想点P7、第8仮想点P8および第5−第8設定距離d5−d8から第5−第8切り取り線Lo5−Lo8を設定する。
ステップ111において、画像処理部60は、第5−第8切り取り線Lo5−Lo8で区画された画像を切り取り、カメラ画像Icを処理画像Ic_Pに変換する。画像処理部60は、処理画像Ic_Pをモニタ70に出力する。このとき、画像処理部60は、カメラ画像Icにおける第2連結車両12の画像のアスフェル化処理を行い、処理画像Ic_Pに変換してもよい。なお、画像処理部60では、アスフェル化処理を行うか選択可能に設定されている。
ステップ112において、モニタ70は、処理画像Ic_Pを表示する。
In step 110, the image processing unit 60 sets the seventh virtual point P7, the eighth virtual point P8, and the fifth to eighth set distances d5-d8 to the fifth and eighth cut lines Lo5-Lo8.
In step 111, the image processing unit 60 cuts out the image partitioned by the 5th and 8th cutting lines Lo5-Lo8, and converts the camera image Ic into the processed image Ic_P. The image processing unit 60 outputs the processed image Ic_P to the monitor 70. At this time, the image processing unit 60 may perform asferification processing of the image of the second connected vehicle 12 in the camera image Ic and convert it into the processed image Ic_P. The image processing unit 60 is set so that it is possible to select whether to perform asferification processing.
In step 112, the monitor 70 displays the processed image Ic_P.

ステップ113において、画像処理部60は、例えば、国連欧州経済委員会規則(UN/ECE規則)の規則番号R46を満たすように、エンジン22が停止しているか否かを判定する。画像処理部60は、各法規に従って、エンジン22が停止しているか否かを判定する。
エンジン22が停止しているとき、処理は、ステップ114に移行する。
エンジン22が停止していないとき、すなわち、エンジン22が作動しているとき、処理は、ステップ102に戻る。
ステップ114において、モニタ70は、処理画像Ic_Pの表示を停止し、処理は、終了する。
In step 113, the image processing unit 60 determines whether or not the engine 22 is stopped so as to satisfy, for example, rule number R46 of the United Nations Economic Commission for Europe (UN / ECE rule). The image processing unit 60 determines whether or not the engine 22 is stopped according to each regulation.
When the engine 22 is stopped, the process proceeds to step 114.
When the engine 22 is not stopped, that is, when the engine 22 is operating, the process returns to step 102.
In step 114, the monitor 70 stops displaying the processed image Ic_P, and the process ends.

(効果)
[1]画像処理部60は、第2連結車両12の外側の画像をカメラ画像Icから切り取り可能である。
図10に示すように、車両10が直線走行するとき、画像処理部60によりモニタ70に表示される画像の範囲が特定される。
図11に示すように、車両10が曲線走行するとき、画像処理部60によりモニタ70に表示される画像の範囲が特定される。図において、画像処理部60が切り取った範囲をドット柄で記載している。
(effect)
[1] The image processing unit 60 can cut out an image of the outside of the second connected vehicle 12 from the camera image Ic.
As shown in FIG. 10, when the vehicle 10 travels in a straight line, the image processing unit 60 specifies a range of images displayed on the monitor 70.
As shown in FIG. 11, when the vehicle 10 travels on a curve, the image processing unit 60 specifies a range of images displayed on the monitor 70. In the figure, the range cut out by the image processing unit 60 is described by a dot pattern.

画像処理部60は、カメラ画像Icを合成する等の複雑な処理をする必要がない。このため、カメラ画像Icを処理する時間が短縮される。処理時間が短縮されて、不要な範囲が切り取られ、車両10の周辺の特定された範囲の画像がモニタ70に表示される。これにより、車両10の外側の通行車または通行者等を運転者が認識しやすくなるため、車両10の安全性が向上する。 The image processing unit 60 does not need to perform complicated processing such as synthesizing the camera image Ic. Therefore, the time for processing the camera image Ic is shortened. The processing time is shortened, an unnecessary range is cut out, and an image of the specified range around the vehicle 10 is displayed on the monitor 70. As a result, the driver can easily recognize the passing vehicle or the passerby on the outside of the vehicle 10, so that the safety of the vehicle 10 is improved.

[2]画像処理部60は、第1切り取り線Lo1および第2切り取り線Lo2で区画される範囲を含んで、カメラ画像Icから処理画像Ic_Pに変換する。また、画像処理部60は、第5切り取り線Lo5および第6切り取り線Lo6で区画される範囲を含んで、カメラ画像Icから処理画像Ic_Pに変換する。第2連結車両12を運転者が認識できるため、運転者は、車両10の外側の通行車または通行者等と車両10との距離を目測できる。これにより、運転者は、運転者が車両10の外側の通行車または通行者等をより認識しやすくなり、車両10の安全性がより向上する。 [2] The image processing unit 60 converts the camera image Ic into the processed image Ic_P, including the range partitioned by the first cut line Lo1 and the second cut line Lo2. Further, the image processing unit 60 converts the camera image Ic into the processed image Ic_P, including the range partitioned by the fifth cut line Lo5 and the sixth cut line Lo6. Since the driver can recognize the second connected vehicle 12, the driver can visually measure the distance between the vehicle 10 and the passing vehicle or the passerby or the like outside the vehicle 10. As a result, the driver can more easily recognize the passing vehicle or the passing person outside the vehicle 10, and the safety of the vehicle 10 is further improved.

(第2実施形態)
第2実施形態では、アクチュエータをさらに備える点を除き、第1実施形態と同様である。
図12に示すように、車両周辺視認装置52は、アクチュエータ88をさらに備える。
アクチュエータ88は、左右のボディ30にそれぞれ収容されており、図示しないモータを有する。
(Second Embodiment)
The second embodiment is the same as the first embodiment except that an actuator is further provided.
As shown in FIG. 12, the vehicle peripheral visual recognition device 52 further includes an actuator 88.
The actuator 88 is housed in each of the left and right bodies 30, and has a motor (not shown).

アクチュエータ88は、上下方向に延びている回転軸Oを中心に、カメラ40とともに回転可能であり、カメラ40の位置または向きを変更可能である。
また、アクチュエータ88は、連結角度検出部85に接続されており、連結角度θsに応じて、回転する。
The actuator 88 can rotate together with the camera 40 about a rotation axis O extending in the vertical direction, and the position or orientation of the camera 40 can be changed.
Further, the actuator 88 is connected to the connection angle detection unit 85 and rotates according to the connection angle θs.

図13のフローチャートを参照して、車両周辺視認装置52の処理について説明する。
ステップ201−207は、第1実施形態のステップ101−107と同様である。
ステップ208において、アクチュエータ88は、連結角度θsに応じて、回転する。アクチュエータ88が回転することで、カメラ40の撮像範囲Aが調整される。
ステップ209−215は、第1実施形態のステップ108−114と同様である。
The processing of the vehicle peripheral visual recognition device 52 will be described with reference to the flowchart of FIG.
Steps 201-207 are the same as steps 101-107 of the first embodiment.
In step 208, the actuator 88 rotates according to the connection angle θs. By rotating the actuator 88, the imaging range A of the camera 40 is adjusted.
Steps 209-215 are similar to steps 108-114 of the first embodiment.

第2実施形態においても、第1実施形態と同様の効果を奏する。さらに、第2実施形態では、アクチュエータ88がカメラ40の位置または向きを変更可能である。これにより、不要な範囲をカメラ画像Icが含まないで、画像処理部260は、カメラ画像Icを取得できる。不要な範囲をカメラ画像Icが含まないので、画像処理部260は、カメラ画像Icを処理しやすくなる。このため、処理時間がさらに短縮される。処理時間がさらに短縮されることで、車両10の安全性がより向上する。 The second embodiment also has the same effect as that of the first embodiment. Further, in the second embodiment, the actuator 88 can change the position or orientation of the camera 40. As a result, the image processing unit 260 can acquire the camera image Ic without including the unnecessary range of the camera image Ic. Since the camera image Ic does not include an unnecessary range, the image processing unit 260 can easily process the camera image Ic. Therefore, the processing time is further shortened. By further shortening the processing time, the safety of the vehicle 10 is further improved.

(他の実施形態)
(i)画像処理部は、第2連結車両の後端部に第2仮想点を設定することに限定されず、荷物収容部の後端部に第2仮想点を設定してもよく、車両の後端部に第2仮想点が設定されていればよい。
(Other embodiments)
(I) The image processing unit is not limited to setting the second virtual point at the rear end of the second connected vehicle, and may set the second virtual point at the rear end of the luggage storage unit. It suffices if the second virtual point is set at the rear end.

(ii)画像処理部は、車両が直線走行するときに、カメラ画像Icにおける第2連結車両の画像をアスフェル化処理してもよい。
以上、本開示はこのような実施形態に限定されるものではなく、その趣旨を逸脱しない範囲において、種々の形態で実施することができる。
(Ii) The image processing unit may asfer-process the image of the second connected vehicle in the camera image Ic when the vehicle travels in a straight line.
As described above, the present disclosure is not limited to such an embodiment, and can be implemented in various forms without departing from the spirit of the present disclosure.

10 ・・・車両、
11 ・・・第1連結車両、
12 ・・・第2連結車両、
30 ・・・ボディ、
40 ・・・カメラ、
51、52 ・・・車両周辺視認装置、
60 ・・・画像処理部、
70 ・・・モニタ。
10 ... Vehicle,
11 ・ ・ ・ First connected vehicle,
12 ・ ・ ・ Second connected vehicle,
30 ... body,
40 ・ ・ ・ Camera,
51, 52 ・ ・ ・ Vehicle peripheral visibility device,
60 ・ ・ ・ Image processing unit,
70 ... Monitor.

Claims (6)

第1連結車両(11)および前記第1連結車両に対して、後側に設けられ、前記第1連結車両に対して回転可能に、前記第1連結車両と連結されている第2連結車両(12)を有する車両(10)に用いられる車両周辺視認装置(51、52)であって、
前記第1連結車両に設けられるボディ(30)と、
前記ボディに設けられており、前記第1連結車両の後方または前記車両の周辺を撮像可能なカメラ(40)と、
前記カメラが撮像した画像であるカメラ画像(Ic)から前記第2連結車両の外側の画像を切り取り可能であり、前記車両の外側および前記第2連結車両を含むように、前記カメラ画像を切り取り、切り取った前記カメラ画像における前記第2連結車両の画像が非球面鏡で映した鏡像となるように、前記カメラ画像を処理する画像処理部(60)と、
前記車両に設けられており、前記カメラ画像から前記画像処理部が切り取った画像(Ic_P)を表示可能なモニタ(70)と、
を備え
前記カメラ画像において、前記車両の後端部(121)から前記車両の外側に向かう方向に対して予め設定される距離(d1、d5)に位置する点(P3、P9)を通過する直線を第1切り取り線(Lo1、Lo5)とすると、
前記画像処理部は、前記第1切り取り線を含んで、前記カメラ画像から切り取る車両周辺視認装置。
A second connected vehicle (11) and a second connected vehicle that is provided on the rear side of the first connected vehicle and is rotatably connected to the first connected vehicle with respect to the first connected vehicle (11). A vehicle peripheral visibility device (51, 52) used for a vehicle (10) having 12).
The body (30) provided in the first connected vehicle and
A camera (40) provided on the body and capable of photographing the rear of the first connected vehicle or the periphery of the vehicle.
An image of the outside of the second connected vehicle can be cut out from the camera image (Ic) which is an image captured by the camera , and the camera image is cut so as to include the outside of the vehicle and the second connected vehicle. An image processing unit (60) that processes the camera image so that the image of the second connected vehicle in the cut camera image becomes a mirror image reflected by the aspherical mirror.
A monitor (70) provided in the vehicle and capable of displaying an image (Ic_P) cut out by the image processing unit from the camera image.
Equipped with a,
In the camera image, a straight line passing through a point (P3, P9) located at a preset distance (d1, d5) from the rear end portion (121) of the vehicle toward the outside of the vehicle is the first. If one cut line (Lo1, Lo5) is used,
The image processing unit is a vehicle peripheral visual recognition device that includes the first cutting line and cuts from the camera image.
前記カメラ画像において、前記車両の後端部から前記車両の内側に向かう方向に対して予め設定される距離(d2、d6)に位置する点(P4、P10)を通過する直線を第2切り取り線(Lo2、Lo6)とすると、
前記画像処理部は、前記第1切り取り線および前記第2切り取り線で区画される範囲を前記カメラ画像から切り取る請求項に記載の車両周辺視認装置。
In the camera image, a second cut line is a straight line passing through a point (P4, P10) located at a preset distance (d2, d6) from the rear end of the vehicle toward the inside of the vehicle. (Lo2, Lo6)
The vehicle peripheral visual recognition device according to claim 1 , wherein the image processing unit cuts a range partitioned by the first cut line and the second cut line from the camera image.
前記カメラ画像において、前記車両の後端部から前記車両に対して上方向に対して予め設定される距離(d3、d7)に位置する点(P5、P11)を通過する直線を第3切り取り線(Lo3、Lo7)とし、前記カメラ画像において、前記車両の後端部から前記車両に対して下方向に対して予め設定される距離(d4、d8)に位置する点(P6、P12)を通過する直線を第4切り取り線(Lo4、Lo8)とすると、
前記画像処理部は、前記第1切り取り線、前記第2切り取り線、前記第3切り取り線および前記第4切り取り線で区画される範囲を前記カメラ画像から切り取る請求項に記載の車両周辺視認装置。
In the camera image, a third cut line is a straight line passing through a point (P5, P11) located at a preset distance (d3, d7) from the rear end of the vehicle to the vehicle in the upward direction. (Lo3, Lo7), and pass through a point (P6, P12) located at a preset distance (d4, d8) from the rear end of the vehicle to the vehicle in the downward direction in the camera image. If the straight line to be used is the 4th cutting line (Lo4, Lo8),
The vehicle peripheral visual recognition device according to claim 2 , wherein the image processing unit cuts a range defined by the first cut line, the second cut line, the third cut line, and the fourth cut line from the camera image. ..
前記第2連結車両に対する前記第1連結車両の角度である連結角度(θs)を検出可能な連結角度検出部(85)をさらに備え、
前記画像処理部は、前記連結角度に応じて、前記カメラ画像から切り取る請求項1からのいずれか一項に記載の車両周辺視認装置。
A connection angle detection unit (85) capable of detecting a connection angle (θs), which is an angle of the first connection vehicle with respect to the second connection vehicle, is further provided.
The vehicle peripheral visual recognition device according to any one of claims 1 to 3 , wherein the image processing unit cuts out from the camera image according to the connection angle.
前記カメラの位置または向きを変更可能なアクチュエータ(88)をさらに備える請求項1からのいずれか一項に記載の車両周辺視認装置。 The vehicle peripheral viewing device according to any one of claims 1 to 4 , further comprising an actuator (88) capable of changing the position or orientation of the camera. 前記第2連結車両に対する前記第1連結車両の角度である連結角度(θs)を検出可能な連結角度検出部(85)をさらに備え、
前記アクチュエータは、前記連結角度に応じて、前記カメラの位置または向きを変更する請求項に記載の車両周辺視認装置。
A connection angle detection unit (85) capable of detecting a connection angle (θs), which is an angle of the first connection vehicle with respect to the second connection vehicle, is further provided.
The vehicle peripheral visual recognition device according to claim 5 , wherein the actuator changes the position or orientation of the camera according to the connection angle.
JP2017164407A 2017-08-29 2017-08-29 Vehicle peripheral visibility device Active JP6960803B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017164407A JP6960803B2 (en) 2017-08-29 2017-08-29 Vehicle peripheral visibility device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017164407A JP6960803B2 (en) 2017-08-29 2017-08-29 Vehicle peripheral visibility device

Publications (2)

Publication Number Publication Date
JP2019047143A JP2019047143A (en) 2019-03-22
JP6960803B2 true JP6960803B2 (en) 2021-11-05

Family

ID=65814709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017164407A Active JP6960803B2 (en) 2017-08-29 2017-08-29 Vehicle peripheral visibility device

Country Status (1)

Country Link
JP (1) JP6960803B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7339821B2 (en) * 2019-09-12 2023-09-06 サカエ理研工業株式会社 vehicle display

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2604387Y2 (en) * 1993-08-12 2000-05-08 日産ディーゼル工業株式会社 Rear confirmation device
JP4461567B2 (en) * 2000-04-28 2010-05-12 いすゞ自動車株式会社 Rearview mirror device
JP2002181518A (en) * 2000-10-02 2002-06-26 Isuzu Motors Ltd Device for detecting angle of coupling of trailer
DE102013214368A1 (en) * 2013-07-23 2015-01-29 Application Solutions (Electronics and Vision) Ltd. Method and device for reproducing a lateral and / or rear surrounding area of a vehicle
CN106537905B (en) * 2014-08-12 2020-07-03 索尼公司 Signal processing apparatus, signal processing method, and monitoring system
JP6683451B2 (en) * 2015-10-09 2020-04-22 株式会社東海理化電機製作所 Vehicle visibility device

Also Published As

Publication number Publication date
JP2019047143A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP7245295B2 (en) METHOD AND DEVICE FOR DISPLAYING SURROUNDING SCENE OF VEHICLE-TOUCHED VEHICLE COMBINATION
JP3979330B2 (en) Image display device for vehicle
EP2990265B1 (en) Vehicle control apparatus
KR102106572B1 (en) Around view monitoring system and method by adjusting view angle of camera for vehicle
US9238434B2 (en) Rear view mirror simulation
US7974444B2 (en) Image processor and vehicle surrounding visual field support device
EP3357793A1 (en) Parking assist apparatus
CN109572552A (en) System and method for controlling display
US10909750B2 (en) Periphery monitoring device
JP2018531530A5 (en)
US20030197660A1 (en) Image display apparatus, method, and program for automotive vehicle
US10893208B2 (en) Camera module, selector, controller, camera monitoring system, and moveable body
US11648932B2 (en) Periphery monitoring device
US20170116710A1 (en) Merging of Partial Images to Form an Image of Surroundings of a Mode of Transport
US20190184909A1 (en) Photographing Device Mounted on Vehicle and Photographing Method in Vehicle
JP2008085691A (en) Vehicle periphery monitoring apparatus
JP2012051391A (en) Apparatus and method for processing image
JP6960803B2 (en) Vehicle peripheral visibility device
US20200084395A1 (en) Periphery monitoring device
JP4679816B2 (en) Vehicle periphery display control device
US10821900B2 (en) Image processing device
CN115923660A (en) Display device for vehicle, display method for vehicle, and computer-readable medium
JP7005279B2 (en) Vehicle peripheral visibility device
US20210362651A1 (en) Vehicle electronic mirror system
JP7347330B2 (en) Vehicle surrounding monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211012

R150 Certificate of patent or registration of utility model

Ref document number: 6960803

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150