JP7188228B2 - image generator - Google Patents

image generator Download PDF

Info

Publication number
JP7188228B2
JP7188228B2 JP2019060291A JP2019060291A JP7188228B2 JP 7188228 B2 JP7188228 B2 JP 7188228B2 JP 2019060291 A JP2019060291 A JP 2019060291A JP 2019060291 A JP2019060291 A JP 2019060291A JP 7188228 B2 JP7188228 B2 JP 7188228B2
Authority
JP
Japan
Prior art keywords
distance
tilt angle
camera
moving body
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019060291A
Other languages
Japanese (ja)
Other versions
JP2020162020A (en
Inventor
礼文 ▲高▼須賀
浩明 丸野
聡 辻岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019060291A priority Critical patent/JP7188228B2/en
Publication of JP2020162020A publication Critical patent/JP2020162020A/en
Application granted granted Critical
Publication of JP7188228B2 publication Critical patent/JP7188228B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動体に搭載されたカメラにより生成された撮影画像から視点変換画像を生成する画像生成装置に関する。 The present invention relates to an image generation device that generates a viewpoint-converted image from a photographed image generated by a camera mounted on a mobile object.

車両等の移動体に搭載されたカメラにより生成された撮影画像を用いて、予め設定された仮想視点から見た視点変換画像を生成する画像生成装置が知られている。例えば、仮想視点が車両よりも上の位置に設定された場合、視点変換画像は、車両を上から見た俯瞰画像である。 2. Description of the Related Art There is known an image generation device that generates a viewpoint-transformed image viewed from a preset virtual viewpoint using a photographed image generated by a camera mounted on a moving object such as a vehicle. For example, when the virtual viewpoint is set at a position above the vehicle, the viewpoint-converted image is a bird's-eye image of the vehicle viewed from above.

車両が複数のカメラを搭載する場合、画像生成装置は、複数のカメラによって生成された複数の撮影画像を仮想視点から見た画像に変換する。画像生成装置は、変換された複数の撮影画像を繋ぎ合わせて、視点変換画像を生成する。車両におけるカメラの取付位置や光軸データを含むカメラ姿勢データが、撮影画像を変換するためのパラメータとして画像生成装置に予め設定されている。カメラ姿勢データは、視点変換画像において複数の撮影画像を繋ぎ合わせた際に生じる画像間のずれをなくすよう、車両の出荷時に調整される。この調整作業をカメラキャリブレーションといい、例えば、特許文献1が知られている When a vehicle is equipped with a plurality of cameras, the image generation device converts a plurality of captured images generated by the plurality of cameras into an image viewed from a virtual viewpoint. The image generation device joins together the plurality of converted captured images to generate a viewpoint-converted image. Camera orientation data including camera mounting position and optical axis data on a vehicle is preset in the image generation device as a parameter for converting a captured image. The camera posture data is adjusted when the vehicle is shipped so as to eliminate the deviation between images that occurs when a plurality of shot images are joined together in the viewpoint conversion image. This adjustment work is called camera calibration, and for example, Patent Document 1 is known.

特開2013-089984号公報JP 2013-089984 A

しかし、運転者等の搭乗者が車両に乗車した場合、車両の姿勢が変化する。カメラの姿勢は、車両の姿勢変化に応じて変化する。そのため、搭乗者が車両に乗車すると、視点変換画像において繋ぎ合わせた画像間にずれが生じてしまう。 However, when a passenger such as a driver gets into the vehicle, the posture of the vehicle changes. The attitude of the camera changes according to the change in the attitude of the vehicle. Therefore, when a passenger gets into the vehicle, a shift occurs between the joined images in the viewpoint-converted images.

上記問題点に鑑み、本発明は、搭乗者が車両に乗車して移動体の姿勢が変化した場合であっても、仮想視点画像において繋ぎ合わせた画像間のずれの発生を抑制することができる画像生成装置を提供することを課題とする。 In view of the above-described problems, the present invention can suppress the occurrence of deviations between images that are joined together in virtual viewpoint images even when a passenger gets into a vehicle and the posture of the moving object changes. An object of the present invention is to provide an image generation device.

第1の発明は、移動体に搭載された複数のカメラにより生成された複数の撮影画像からカメラの姿勢データを用いて視点変換画像を生成する画像生成装置であって、第1距離検出部と、第2距離検出部と、傾斜角算出部と、補正部と、画像生成部と、を備える。第1距離検出部は、移動体に搭乗者が乗車する前に、移動体の左方向または右方向に存在する物体と移動体との距離を、第1距離として検出する。第2距離検出部は、移動体に搭乗者が乗車した後に、移動体の左方向または右方向に存在する物体と移動体との距離を、第2距離として検出する。傾斜角算出部は、第1距離および第2距離に基づき、搭乗者が移動体に搭乗する前後における移動体の横方向の傾斜角の変化量である傾斜角変化量を算出する。補正部は、傾斜角変化量、第1距離および第2距離に基づき姿勢データを補正する。画像生成部は、補正された姿勢データを用いて、生成された複数の画像から視点変換画像を生成する。 A first invention is an image generation device that generates a viewpoint-transformed image from a plurality of captured images generated by a plurality of cameras mounted on a moving object using posture data of the cameras, comprising: a first distance detection unit; , a second distance detection unit, an inclination angle calculation unit, a correction unit, and an image generation unit. The first distance detection unit detects, as a first distance, a distance between an object existing on the left side or the right side of the mobile body and the mobile body before the passenger gets on the mobile body. The second distance detection unit detects, as a second distance, a distance between an object existing on the left side or the right side of the moving body and the moving body after the passenger gets on the moving body. The tilt angle calculation unit calculates a tilt angle change amount, which is a change amount of the tilt angle in the horizontal direction of the moving body before and after the passenger boards the moving body, based on the first distance and the second distance. The correction unit corrects the posture data based on the tilt angle change amount, the first distance, and the second distance. The image generator uses the corrected orientation data to generate a viewpoint-transformed image from the plurality of generated images.

本発明は、搭乗者が車両に乗車して移動体の姿勢が変化した場合であっても、仮想視点画像において繋ぎ合わせた画像間のずれの発生を抑制することができる画像生成装置を提供できる。 INDUSTRIAL APPLICABILITY The present invention can provide an image generation device capable of suppressing the occurrence of deviations between images that are joined together in a virtual viewpoint image even when the posture of a moving body changes when a passenger gets into a vehicle. .

本発明の実施の形態に係る画像生成装置を搭載した車両の構成を示す機能ブロック図である。1 is a functional block diagram showing the configuration of a vehicle equipped with an image generation device according to an embodiment of the invention; FIG. 図1に示す車両に搭載されたカメラの配置を示す図である。FIG. 2 is a diagram showing the arrangement of cameras mounted on the vehicle shown in FIG. 1; カメラの姿勢データの定義を示す図である。FIG. 4 is a diagram showing the definition of camera orientation data; カメラの姿勢データの定義を示す図である。FIG. 4 is a diagram showing the definition of camera orientation data; 図1に示す画像生成装置の構成を示す機能ブロック図である。2 is a functional block diagram showing the configuration of the image generation device shown in FIG. 1; FIG. 傾斜角変化量の算出方法を説明する図である。It is a figure explaining the calculation method of inclination-angle change amount. 図1に示す画像生成装置の動作を示すフローチャートである。2 is a flow chart showing the operation of the image generation device shown in FIG. 1;

以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings, and the description thereof will not be repeated.

[1.構成]
[1.1.車両1の構成]
図1は、本発明の実施の形態に係る画像生成装置10を搭載した車両1の構成を示す機能ブロック図である。図1を参照して、画像生成装置10は、移動体である車両1に搭載された複数のカメラにより生成された複数の撮影画像から、カメラの姿勢データを用いて視点変換画像を生成する。本実施の形態では、視点変換画像は、車両1の上方に設定された仮想視点から車両1を見下ろした俯瞰画像25である。図1において、俯瞰画像25の生成に関する構成以外の車両1の構成の表示を省略している。
[1. Constitution]
[1.1. Configuration of vehicle 1]
FIG. 1 is a functional block diagram showing the configuration of a vehicle 1 equipped with an image generation device 10 according to an embodiment of the invention. Referring to FIG. 1, an image generation device 10 generates a viewpoint-converted image from a plurality of captured images generated by a plurality of cameras mounted on a vehicle 1, which is a moving body, using posture data of the cameras. In the present embodiment, the viewpoint conversion image is a bird's-eye view image 25 looking down on the vehicle 1 from a virtual viewpoint set above the vehicle 1 . In FIG. 1, the display of the configuration of the vehicle 1 other than the configuration related to the generation of the bird's-eye view image 25 is omitted.

車両1は、車体1Dと、左前輪1FLと、右前輪1FRと、左後輪1RLと、右後輪1RRと、フロントシャフト1SFと、リアシャフト1SRとを備える。 The vehicle 1 includes a vehicle body 1D, a left front wheel 1FL, a right front wheel 1FR, a left rear wheel 1RL, a right rear wheel 1RR, a front shaft 1SF, and a rear shaft 1SR.

左前輪1FLは、車体1Dの左前方に配置される。右前輪1FRは、車体1Dの右前方に配置される。左前輪1FL及び右前輪1FRは、車体1Dの前方に配置されたフロントシャフト1SFを回転軸として回転する。フロントシャフト1SFは、図示しないエンジンの出力を左前輪1FL及び右前輪1FRに伝える。左前輪1FL及び右前輪1FRは、車両1の操舵輪であり、図示しないステアリングホイールの回転に応じて回転する。 The left front wheel 1FL is arranged on the left front side of the vehicle body 1D. The right front wheel 1FR is arranged on the front right side of the vehicle body 1D. The front left wheel 1FL and the front right wheel 1FR rotate about a front shaft 1SF arranged in front of the vehicle body 1D as a rotation axis. The front shaft 1SF transmits the output of the engine (not shown) to the front left wheel 1FL and the front right wheel 1FR. The front left wheel 1FL and the front right wheel 1FR are steering wheels of the vehicle 1, and rotate according to rotation of a steering wheel (not shown).

左後輪1RLは、車体1Dの左後方に配置される。右後輪1RRは、車体1Dの右後方に配置される。左後輪1RL及び右後輪1RRは、車体1Dの後方に配置されたリアシャフト1SRを回転軸として回転する。リアシャフト1SRは、図示しないエンジンの出力を左後輪1RL及び右後輪1RRに伝える。 The left rear wheel 1RL is arranged at the left rear of the vehicle body 1D. The right rear wheel 1RR is arranged on the rear right side of the vehicle body 1D. The left rear wheel 1RL and the right rear wheel 1RR rotate about a rear shaft 1SR arranged behind the vehicle body 1D as a rotation axis. The rear shaft 1SR transmits the output of the engine (not shown) to the left rear wheel 1RL and the right rear wheel 1RR.

車両1は、さらに、フロントカメラ2Fと、左サイドカメラ2Lと、右サイドカメラ2Rと、リアカメラ2Bとを備える。 Vehicle 1 further includes a front camera 2F, a left side camera 2L, a right side camera 2R, and a rear camera 2B.

フロントカメラ2Fは、車両1の前方を撮影して前方撮影画像3Fを生成する。左サイドカメラ2Lは、車両1の左方を撮影して左方撮影画像3Lを生成する。右サイドカメラ2Rは、車両1の右方を撮影して右方撮影画像3Rを生成する。リアカメラ2Bは、車両1の後方を撮影して後方撮影画像3Bを生成する。生成された撮影画像3F、3L、3R及び3Bの各々は、画像生成装置10に出力される。 The front camera 2F captures the front of the vehicle 1 to generate a front captured image 3F. The left side camera 2L captures the left side of the vehicle 1 to generate a left captured image 3L. The right side camera 2R captures the right side of the vehicle 1 to generate a right captured image 3R. The rear camera 2B captures the rear of the vehicle 1 to generate a rear captured image 3B. Each of the generated photographed images 3F, 3L, 3R and 3B is output to the image generating device 10. FIG.

本実施の形態において、前方撮影画像3F、左方撮影画像3L、右方撮影画像3Rおよび後方撮影画像3Bの各々は、動画像を構成するフレームである。例えば、フロントカメラ2Fは、フレームである前方撮影画像3Fを生成するたびに、その生成した前方撮影画像3Fを画像生成装置10に出力する。 In the present embodiment, each of the front shot image 3F, the left shot image 3L, the right shot image 3R, and the rear shot image 3B is a frame forming a moving image. For example, the front camera 2F outputs the generated front shot image 3F to the image generation device 10 each time it generates the front shot image 3F, which is a frame.

車両1は、さらに、測距センサ4L、4Rを備える。測距センサ4L、4Rは、それぞれ左サイドカメラ2L、右サイドカメラ2Rの近傍に設置される。測距センサ4L、4Rは、超音波、電波、光等を用いた公知のレーダ装置とすることができる。測距センサ4Lは、車両1の左方に存在する隣接車両等の物体との距離を検出する。測距センサ4Rは、車両1の右方に存在する隣接車両等の物体との距離を検出する。測距センサ4L、4Rは、距離検出信号5L、5Rを画像生成装置10に出力する。なお、測距センサ4L、4Rは、物体を検出できない場合は距離検出信号5L、5Rを画像生成装置10に出力しない。 Vehicle 1 further includes ranging sensors 4L and 4R. The ranging sensors 4L and 4R are installed near the left side camera 2L and the right side camera 2R, respectively. The distance sensors 4L and 4R can be known radar devices using ultrasonic waves, radio waves, light, or the like. The distance measuring sensor 4L detects the distance to an object such as an adjacent vehicle existing on the left side of the vehicle 1 . The distance measuring sensor 4R detects the distance to an object such as an adjacent vehicle existing on the right side of the vehicle 1 . The distance measuring sensors 4L, 4R output distance detection signals 5L, 5R to the image generation device 10 . Note that the distance sensors 4L and 4R do not output the distance detection signals 5L and 5R to the image generation device 10 when the object cannot be detected.

車両1は、さらに、ロックスイッチ6L、6Rを備える。ロックスイッチ6Lは、車両1の助手席側ドアの施錠状態を検出する。ロックスイッチ6Lは、助手席側ドアがロック状態からアンロック状態に変化したときにアンロック信号7Lを画像生成装置10に出力する。ロックスイッチ6Rは、車両1の運転席側ドアの施錠状態を検出する。ロックスイッチ6Rは、運転席側ドアがロック状態からアンロック状態に変化したときにアンロック信号7Rを画像生成装置10に出力する。 Vehicle 1 further includes lock switches 6L and 6R. The lock switch 6L detects whether the passenger side door of the vehicle 1 is locked. The lock switch 6L outputs an unlock signal 7L to the image generation device 10 when the passenger side door changes from the locked state to the unlocked state. The lock switch 6R detects whether the driver's side door of the vehicle 1 is locked. The lock switch 6R outputs an unlock signal 7R to the image generation device 10 when the driver's side door changes from the locked state to the unlocked state.

車両1は、さらに、イグニッションスイッチ8(以下、「IGスイッチ8」という)を備える。IGスイッチ8は、オンになると画像生成装置10を含む車両各部に配置される制御装置(図示せず)にバッテリ(図示せず)からの電力を供給する。それにより画像生成装置10は動作を開始する。IGスイッチ8は、オンになるとオンになったことを示すイグニッション信号9(以下、「IG信号9」という)を画像生成装置10に出力する。 Vehicle 1 further includes an ignition switch 8 (hereinafter referred to as "IG switch 8"). When the IG switch 8 is turned on, it supplies power from a battery (not shown) to control devices (not shown) arranged in various parts of the vehicle including the image generating device 10 . Accordingly, the image generating device 10 starts operating. When the IG switch 8 is turned on, it outputs an ignition signal 9 indicating that it has been turned on (hereinafter referred to as "IG signal 9") to the image generation device 10. FIG.

車両1は、さらに、画像生成装置10と、表示装置23とを備える。画像生成装置10は、距離検出信号5L、5Rを測距センサ4L、4Rから受ける。また、画像生成装置10は、アンロック信号7L、7Rをロックスイッチ6L、6Rから受ける。さらに、画像生成装置10は、IG信号9をIGスイッチ8から受ける。画像生成装置10は、その受けた距離検出信号5L、5R、アンロック信号7L、7R、IG信号9等に基づいて、画像生成装置10に予め設定されたカメラの姿勢データを補正する。カメラの姿勢データは、カメラの位置データ及び光軸データを含む。画像生成装置1は、補正したカメラの姿勢データを用いて、車両1に搭載されたカメラにより生成された複数の撮影画像から俯瞰画像25を生成する。 Vehicle 1 further includes an image generation device 10 and a display device 23 . The image generating device 10 receives distance detection signals 5L, 5R from the distance measuring sensors 4L, 4R. The image generating device 10 also receives unlock signals 7L and 7R from the lock switches 6L and 6R. In addition, image production device 10 receives IG signal 9 from IG switch 8 . The image generation device 10 corrects camera attitude data preset in the image generation device 10 based on the received distance detection signals 5L, 5R, unlock signals 7L, 7R, IG signal 9, and the like. The camera orientation data includes camera position data and optical axis data. The image generation device 1 generates a bird's-eye view image 25 from a plurality of captured images generated by the camera mounted on the vehicle 1 using the corrected camera posture data.

表示装置23は、俯瞰画像25を画像生成装置10から受け、その受けた俯瞰画像25を表示する。車両1の運転者は、表示装置23に表示された俯瞰画像25を参照して、車両1の周囲の状況を容易に確認できる。 The display device 23 receives the bird's-eye view image 25 from the image generation device 10 and displays the received bird's-eye view image 25 . The driver of the vehicle 1 can easily check the situation around the vehicle 1 by referring to the bird's-eye view image 25 displayed on the display device 23 .

なお、本実施の形態において、フロントカメラ2F、左サイドカメラ2L、右サイドカメラ2R及びリアカメラ2Bを総称して「カメラ2」と記載する場合がある。また、本実施の形態において、前方撮影画像3F、左方撮影画像3L、右方撮影画像3R及び後方撮影画像3Bを総称して「撮影画像3」と記載する場合がある。また、本実施の形態において、測距センサ4Lおよび測距センサ4Rを総称して「測距センサ4」と記載する場合がある。また、本実施の形態において、距離検出信号5Lおよび距離検出信号5Rを総称して「距離検出信号5」と記載する場合がある。また、本実施の形態において、ロックスイッチ6Lおよびロックスイッチ6Rを総称して「ロックスイッチ6」と記載する場合がある。また、本実施の形態において、アンロック信号7Lおよびアンロック信号7Rを総称して「アンロック信号7」と記載する場合がある。 In the present embodiment, the front camera 2F, left side camera 2L, right side camera 2R and rear camera 2B may be collectively referred to as "camera 2". Further, in the present embodiment, the front captured image 3F, the left captured image 3L, the right captured image 3R, and the rear captured image 3B may be collectively referred to as "captured image 3". Further, in the present embodiment, the ranging sensor 4L and the ranging sensor 4R may be collectively referred to as "ranging sensor 4". Further, in the present embodiment, the distance detection signal 5L and the distance detection signal 5R may be collectively referred to as "distance detection signal 5". Further, in the present embodiment, the lock switch 6L and the lock switch 6R may be collectively referred to as "lock switch 6". Further, in this embodiment, the unlock signal 7L and the unlock signal 7R may be collectively referred to as "unlock signal 7".

[1.2.カメラの配置]
図2は、図1に示すカメラの取付位置を示す図であり、図1に示す車両1を上から見た平面図に相当する。
[1.2. camera placement]
FIG. 2 is a diagram showing the mounting position of the camera shown in FIG. 1, and corresponds to a plan view of the vehicle 1 shown in FIG. 1 as viewed from above.

図2を参照して、フロントカメラ2Fは、車両1の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸2Faは車両1の前方に向けられている。リアカメラ2Bは、車両1の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸2Baは、車両1の後方に向けられている。 Referring to FIG. 2 , front camera 2</b>F is provided near the license plate mounting position at the front end of vehicle 1 , and its optical axis 2</b>Fa is directed forward of vehicle 1 . The rear camera 2B is provided in the vicinity of the license plate attachment position at the rear end of the vehicle 1, and its optical axis 2Ba is directed to the rear of the vehicle 1. As shown in FIG.

左サイドカメラ2Lは左のドアミラー93に設けられ、その光軸2Laは車両1の左方に向けられている。右サイドカメラ2Rは右のドアミラー93に設けられ、その光軸2Raは車両1の右方に向けられている。 The left side camera 2L is provided on the left door mirror 93, and its optical axis 2La is directed leftward of the vehicle 1. As shown in FIG. The right side camera 2R is provided on the right door mirror 93, and its optical axis 2Ra is directed to the right side of the vehicle 1. As shown in FIG.

車両1に搭載される各カメラのレンズは、180°以上の画角を有する広角レンズである。フロントカメラ2F、左サイドカメラ2L、右サイドカメラ2R及びリアカメラ2Bを用いることにより、車両1の全周囲を撮影できる。フロントカメラ2F及びリアカメラ2Bの取付位置は、車両1の左右中央であることが望ましいが、左右中央から多少ずれた位置であってもよい。 A lens of each camera mounted on the vehicle 1 is a wide-angle lens having an angle of view of 180° or more. By using the front camera 2F, the left side camera 2L, the right side camera 2R, and the rear camera 2B, the entire surroundings of the vehicle 1 can be photographed. The mounting positions of the front camera 2F and the rear camera 2B are desirably at the left-right center of the vehicle 1, but they may be positioned slightly off the left-right center.

なお、図2では図示を省略しているが、測距センサ4Lは左サイドカメラ2Lの近傍に設けられ、その光軸は、左サイドカメラ2Lの光軸2Laと平行であり車両1の左方に向けられている。また、測距センサ4Rは右サイドカメラ2Rの近傍に設けられ、その光軸は、右サイドカメラ2Rの光軸2Raと平行であり車両1の右方に向けられている。 Although not shown in FIG. 2, the distance measuring sensor 4L is provided in the vicinity of the left side camera 2L, and its optical axis is parallel to the optical axis 2La of the left side camera 2L. directed to. Further, the distance measuring sensor 4R is provided near the right side camera 2R, and its optical axis is parallel to the optical axis 2Ra of the right side camera 2R and directed to the right side of the vehicle 1.

[1.3.カメラ姿勢データの定義]
次に、カメラ2の姿勢データの定義について、図3および図4を用いて説明する。図3および図4は、カメラ2の姿勢データの定義を示す図である。カメラ2の姿勢データは、カメラ2の位置データと光軸データを含む。カメラ2の位置データ、および光軸データは、路面を基準とした路面座標系で表される。本実施の形態において、路面座標系は、X軸と、Y軸と、Z軸とを有する3次元直交座標系である。
[1.3. Definition of camera posture data]
Next, definition of posture data of the camera 2 will be described with reference to FIGS. 3 and 4. FIG. 3 and 4 are diagrams showing definitions of attitude data of the camera 2. FIG. The posture data of camera 2 includes position data and optical axis data of camera 2 . The position data of the camera 2 and the optical axis data are expressed in a road surface coordinate system based on the road surface. In this embodiment, the road surface coordinate system is a three-dimensional orthogonal coordinate system having an X-axis, a Y-axis and a Z-axis.

図3および図4に示すように、路面座標系の原点Oは、車両1の重心を路面100に対して鉛直方向に投影した路面上の点Oである。X軸は、原点Oを通り車両1の横方向に伸び、Y軸は、原点Oを通り車両1の前後方向に伸びる。Z軸は、原点Oを通り路面100から車両1の高さ方向に伸びる。 As shown in FIGS. 3 and 4, the origin O of the road surface coordinate system is a point O on the road surface obtained by projecting the center of gravity of the vehicle 1 onto the road surface 100 in the vertical direction. The X-axis passes through the origin O and extends in the lateral direction of the vehicle 1 , and the Y-axis passes through the origin O and extends in the longitudinal direction of the vehicle 1 . The Z-axis passes through the origin O and extends in the height direction of the vehicle 1 from the road surface 100 .

カメラ2の位置データは、原点Oを基準とした各カメラの設置位置を示し、(X、Y、Z)で表される。カメラ2の位置データのXは、原点Oを基準とした車両1の横方向の位置(距離)を示す。カメラ2の位置データのYは、原点Oを基準とした車両1の前後方向の位置(距離)を示す。カメラ2の位置データのZは、原点Oを基準とした車両1の高さ方向の位置(距離)を示す。 The position data of the camera 2 indicates the installation position of each camera with reference to the origin O, and is represented by (X, Y, Z). X in the position data of the camera 2 indicates the lateral position (distance) of the vehicle 1 with the origin O as a reference. Y in the position data of the camera 2 indicates the longitudinal position (distance) of the vehicle 1 with the origin O as a reference. Z in the position data of the camera 2 indicates the position (distance) in the height direction of the vehicle 1 with the origin O as a reference.

図3、および図4(a)に示す例では、左サイドカメラ2Lの横方向の位置はXLであり、前後方向の位置はYLであり、高さ方向の位置はZLであることを示している。したがって、左サイドカメラ2Lの位置データは、(XL、YL、ZL)となる。同様に、右サイドカメラ2Rの位置データは、(XR、YR、ZR)となる。図示していないが、フロントカメラ2Fの位置データは、(XF、YF、ZF)となり、リアカメラ2Bの位置データは、(XB、YB、ZB)となる。本実施の形態において、各カメラ2F、2L、2R及び2Bの位置データを総称して(X、Y、Z)と記載する場合がある。また、位置データを位置座標と記載する場合がある。 In the example shown in FIGS. 3 and 4(a), the left side camera 2L is positioned at XL in the horizontal direction, YL in the front-rear direction, and ZL in the height direction. there is Therefore, the position data of the left side camera 2L is (XL, YL, ZL). Similarly, the position data of the right side camera 2R is (XR, YR, ZR). Although not shown, the position data of the front camera 2F is (XF, YF, ZF), and the position data of the rear camera 2B is (XB, YB, ZB). In this embodiment, the position data of each camera 2F, 2L, 2R and 2B may be generically described as (X, Y, Z). Also, position data may be described as position coordinates.

カメラ2の光軸データは、カメラ2の光軸の角度やカメラの取付角度を示し、Pan(パン)角P、Roll(ロール)角R、およびTilt(チルト)角Tからなる。 The optical axis data of the camera 2 indicates the angle of the optical axis of the camera 2 and the mounting angle of the camera, and consists of a Pan angle P, a Roll angle R, and a Tilt angle T.

パン角Pは、カメラ2の光軸が基準線に対して旋回方向になす角度を示す。図3を参照して左サイドカメラ2Lを例にとり説明する。左サイドカメラ2Lの位置座標(XL、YL、ZL)を通り、Y軸と平行に前方向に伸びる基準線61Lを0°とする。左サイドカメラの位置座標(XL、YL、ZL)を通り、Z軸と平行に鉛直方向に伸びる基準線(図示せず)を回転軸とする。左サイドカメラ2Lのパン角は、この回転軸回りに光軸2Laが基準線61Lとなす角度PLで表される。 The pan angle P indicates the angle that the optical axis of the camera 2 makes in the turning direction with respect to the reference line. The left side camera 2L will be described as an example with reference to FIG. A reference line 61L that passes through the position coordinates (XL, YL, ZL) of the left side camera 2L and extends forward in parallel with the Y-axis is assumed to be 0°. A reference line (not shown) passing through the position coordinates (XL, YL, ZL) of the left side camera and extending in the vertical direction in parallel with the Z axis is defined as the axis of rotation. The panning angle of the left side camera 2L is represented by an angle PL formed between the optical axis 2La and the reference line 61L around this rotation axis.

右サイドカメラ2Rのパン角も同様であり、右サイドカメラ2Rの位置座標(XR、YR、ZR)を通り、前方向に伸びる基準線61Rを0°とし、鉛直方向に伸びる基準線(図示せず)を回転軸とする。右サイドカメラ2Rのパン角は、この回転軸回りに光軸2Raが基準線61Rとなす角度PRで表される。フロントカメラ2Fおよびリアカメラ2Bのパン角も同様であり、フロントカメラ2Fのパン角はPFで表され、リアカメラ2Bのパン角はPBで表される。 The pan angle of the right side camera 2R is the same. ) is the axis of rotation. The pan angle of the right side camera 2R is represented by the angle PR formed by the optical axis 2Ra and the reference line 61R around this rotation axis. The same applies to the pan angles of the front camera 2F and the rear camera 2B. The pan angle of the front camera 2F is represented by PF, and the pan angle of the rear camera 2B is represented by PB.

ロール角Rは、カメラ2が基準線に対して回転する角度を示す。ロール角Rは、カメラ2が基準線に対して傾いている角度であるともいえる。図4(a)を参照して左サイドカメラ2Lを例にとり説明する。左サイドカメラ2Lの位置座標(XL、YL、ZL)を通り、Z軸と平行に上方向に伸びる基準線62Lを0°とする。左サイドカメラ2Lの位置座標(XL、YL、ZL)を通り、X軸と平行に横方向に伸びる基準線(図示せず)を回転軸とする。左サイドカメラ2Lのロール角は、この回転軸回りに左サイドカメラ2Lが基準線62Lから回転している角度RLで表される。同様に、右サイドカメラ2Rのロール角はRR、フロントカメラ2Fのロール角はRF、リアカメラ2Bのロール角はRBで表される。なお、フロントカメラ2Fとリアカメラ2Bのロール角の回転軸は、Y軸と平行に前後方向に伸びる基準線である。 The roll angle R indicates the angle by which the camera 2 rotates with respect to the reference line. The roll angle R can also be said to be the angle at which the camera 2 is tilted with respect to the reference line. The left side camera 2L will be described as an example with reference to FIG. 4(a). A reference line 62L that passes through the position coordinates (XL, YL, ZL) of the left side camera 2L and extends upward in parallel with the Z axis is assumed to be 0°. A reference line (not shown) passing through the position coordinates (XL, YL, ZL) of the left side camera 2L and extending in the horizontal direction in parallel with the X axis is defined as the axis of rotation. The roll angle of the left side camera 2L is represented by an angle RL at which the left side camera 2L is rotated from the reference line 62L around this rotation axis. Similarly, the roll angle of the right side camera 2R is represented by RR, the roll angle of the front camera 2F by RF, and the roll angle of the rear camera 2B by RB. The rotation axis of the roll angle of the front camera 2F and the rear camera 2B is a reference line extending in the front-rear direction in parallel with the Y-axis.

チルト角Tは、カメラ2の光軸が基準線に対して高さ方向になす角度を示す。図4(b)を参照して左サイドカメラ2Lを例にとり説明する。左サイドカメラ2Lの位置座標(XL、YL、ZL)を通り、X軸と平行に横方向に伸びる基準線63Lを0°とする。左サイドカメラの位置座標(XL、YL、ZL)を通り、Y軸と平行に前後方向に伸びる基準線(図示せず)を回転軸とする。左サイドカメラ2Lのチルト角は、この回転軸回りに光軸2Laが基準線63Lとなす角度TLで表される。 The tilt angle T indicates the angle that the optical axis of the camera 2 makes in the height direction with respect to the reference line. The left side camera 2L will be described as an example with reference to FIG. 4(b). A reference line 63L that passes through the position coordinates (XL, YL, ZL) of the left side camera 2L and extends in the horizontal direction in parallel with the X-axis is assumed to be 0°. A reference line (not shown) passing through the position coordinates (XL, YL, ZL) of the left side camera and extending in the front-rear direction in parallel with the Y-axis is defined as the axis of rotation. The tilt angle of the left side camera 2L is represented by the angle TL formed by the optical axis 2La and the reference line 63L around this rotation axis.

右サイドカメラ2Rのチルト角も同様であり、右サイドカメラ2Rの位置座標(XR、YR、ZR)を通り、横方向に伸びる基準線63Rを0°とし、前後方向に伸びる基準線(図示せず)を回転軸とする。右サイドカメラ2Rのチルト角は、この回転軸回りに光軸2Raが基準線63Rとなす角度TRで表される。同様に、フロントカメラ2Fのチルト角はTF、リアカメラ2Bのチルト角はTBで表される。なお、フロントカメラ2Fとリアカメラ2Bのチルト角の回転軸は、X軸と平行に横方向に伸びる基準線である。本実施の形態において、各カメラ2F、2L、2R及び2Bのパン角、ロール角、チルト角を総称して(P、R、T)と記載する場合がある。 The tilt angle of the right side camera 2R is also the same. ) is the axis of rotation. The tilt angle of the right side camera 2R is represented by the angle TR formed by the optical axis 2Ra and the reference line 63R around this rotation axis. Similarly, the tilt angle of the front camera 2F is represented by TF, and the tilt angle of the rear camera 2B is represented by TB. The axis of rotation of the tilt angles of the front camera 2F and the rear camera 2B is a reference line that extends horizontally in parallel with the X-axis. In this embodiment, the pan angle, roll angle, and tilt angle of each camera 2F, 2L, 2R, and 2B may be collectively referred to as (P, R, T).

以上のように、左サイドカメラ2Lの姿勢データは、位置データとして横方向位置XL、前後方向位置YL、高さ方向位置ZLを有し、光軸データとしてパン角PL、ロール角RL、チルト角TLを有する。同様に、右サイドカメラ2Rの姿勢データは、位置データとして横方向位置XR、前後方向位置YR、高さ方向位置ZRを有し、光軸データとしてパン角PR、ロール角RR、チルト角TRを有する。フロントカメラ2Fおよびリアカメラ2Bも同様である。 As described above, the attitude data of the left-side camera 2L has the lateral position XL, the front-rear position YL, and the height-direction position ZL as position data, and the pan angle PL, roll angle RL, and tilt angle as optical axis data. have a TL. Similarly, the posture data of the right-side camera 2R has a horizontal position XR, a front-back position YR, and a height-direction position ZR as position data, and pan angle PR, roll angle RR, and tilt angle TR as optical axis data. have. The same applies to the front camera 2F and the rear camera 2B.

かかる、カメラ2の姿勢データは、車両1の出荷前に公知のカメラキャリブレーションによって調整されて画像生成装置10の記憶部15(図5)に記憶される。カメラ2の姿勢データは、各カメラ2の撮影画像を繋ぎ合わせて俯瞰画像を生成する際に、隣接するカメラ2の撮影画像間にずれが生じないように設定されたデータである。なお、本実施の形態において、車両1の出荷前に調整されたカメラ2の姿勢データを「初期カメラ姿勢データ」という。 Such posture data of the camera 2 is adjusted by known camera calibration before the vehicle 1 is shipped and stored in the storage unit 15 (FIG. 5) of the image generation device 10 . The posture data of the camera 2 is data set so that when the captured images of the respective cameras 2 are joined together to generate a bird's-eye view image, there is no deviation between the captured images of the adjacent cameras 2 . In this embodiment, the attitude data of the camera 2 adjusted before the shipment of the vehicle 1 is called "initial camera attitude data".

[1.4.画像生成装置10の構成]
図5は、図1に示す画像生成装置10の構成を示す機能ブロック図である。画像生成装置10は、距離検出部11と、傾斜角算出部12と、補正部13と、画像生成部14と、記憶部15とを備える。
[1.4. Configuration of image generation device 10]
FIG. 5 is a functional block diagram showing the configuration of the image generating device 10 shown in FIG. 1. As shown in FIG. The image generation device 10 includes a distance detection section 11 , an inclination angle calculation section 12 , a correction section 13 , an image generation section 14 and a storage section 15 .

距離検出部11は、車両1に搭乗者が乗車する前と乗車した後に、車両1の左方に存在する物体(以下、「左方物体」という)および右方に存在する物体(以下、「右方物体」という)と車両1との距離をそれぞれ検出する。距離検出部11は、第1距離検出部111と第2距離検出部112を備える。なお、本実施の形態において、左方物体と右方物体を総称して、「隣接物体」という場合がある。 The distance detection unit 11 detects an object existing on the left side of the vehicle 1 (hereinafter referred to as a "left object") and an object existing on the right side of the vehicle 1 (hereinafter referred to as a " ) and the vehicle 1 are respectively detected. The distance detector 11 includes a first distance detector 111 and a second distance detector 112 . Note that, in the present embodiment, the left object and the right object may be collectively referred to as "adjacent objects".

第1距離検出部111は、車両1に搭乗者が乗車する前に、左方物体および右方物体と車両1との距離を、第1距離Xaとして検出する。具体的には、第1距離検出部111は、車両1に搭乗者が乗車する前の所定時点T1で、測距センサ4Lを起動し、測距センサ4Lから距離検出信号5Lを取得する。第1距離検出部111は、取得した距離検出信号5Lに基づき、左方物体と車両1との距離を左方第1距離LXaとして検出する。この左方第1距離LXaは、車両1に搭乗者が乗車する前における左サイドカメラ2Lと左方物体との距離として用いられる。 The first distance detection unit 111 detects the distance between the left object and the right object and the vehicle 1 as the first distance Xa before the passenger gets on the vehicle 1 . Specifically, the first distance detection unit 111 activates the distance measurement sensor 4L at a predetermined time T1 before the passenger gets on the vehicle 1, and acquires the distance detection signal 5L from the distance measurement sensor 4L. The first distance detection unit 111 detects the distance between the left object and the vehicle 1 as the first left distance LXa based on the obtained distance detection signal 5L. This left first distance LXa is used as the distance between the left side camera 2L and the left object before the passenger gets into the vehicle 1 .

また、第1距離検出部111は、車両1に搭乗者が乗車する前の前記所定時点T1で、測距センサ4Rを起動し、測距センサ4Rから距離検出信号5Rを取得する。第1距離検出部111は、取得した距離検出信号5Rに基づき、右方物体と車両1との距離を右方第1距離RXaとして検出する。この右方第1距離RXaは、車両1に搭乗者が乗車する前における右サイドカメラ2Rと右方物体との距離として用いられる。なお、本実施の形態において、左方第1距離LXaと右方第1距離RXaを総称して、第1距離Xaと記載する場合がある。 Further, the first distance detection unit 111 activates the distance measurement sensor 4R at the predetermined time T1 before the passenger gets on the vehicle 1, and acquires the distance detection signal 5R from the distance measurement sensor 4R. The first distance detection unit 111 detects the distance between the right object and the vehicle 1 as a right first distance RXa based on the obtained distance detection signal 5R. This first right distance RXa is used as the distance between the right side camera 2R and the right object before the passenger gets into the vehicle 1 . In the present embodiment, the first left distance LXa and the first right distance RXa may be collectively referred to as the first distance Xa.

第1距離検出部111は、検出した第1距離Xaを傾斜角算出部12に出力する。ただし、第1距離検出部111は、測距センサ4から距離検出信号5を取得できない場合は、その方向に物体は存在しないと判断する。その場合、第1距離検出部111は、その方向の第1距離Xaを傾斜角算出部12に出力しない。 The first distance detector 111 outputs the detected first distance Xa to the tilt angle calculator 12 . However, when the first distance detection unit 111 cannot acquire the distance detection signal 5 from the distance measurement sensor 4, it determines that there is no object in that direction. In that case, the first distance detector 111 does not output the first distance Xa in that direction to the tilt angle calculator 12 .

第1距離検出部111は、ロックスイッチ6からアンロック信号7を取得する。第1距離検出部111は、アンロック信号7を取得したとき、車両1に搭乗者が乗車する前の所定時点T1であると判断する。具体的には、第1距離検出部111は、助手席側ドアのアンロック信号7Lおよび運転席側ドアのアンロック信号7Rを取得する。第1距離検出部111は、アンロック信号7Lまたは7Rのどちらかを先に取得した時点を所定時点T1であると判断する。運転席側ドアまたは助手席側ドアのアンロックは、搭乗者が車両1に搭乗する直前に行われるためである。 The first distance detector 111 acquires the unlock signal 7 from the lock switch 6 . When the unlock signal 7 is acquired, the first distance detector 111 determines that it is the predetermined time T1 before the passenger gets into the vehicle 1 . Specifically, the first distance detection unit 111 acquires the unlock signal 7L for the passenger side door and the unlock signal 7R for the driver side door. The first distance detection unit 111 determines that the time when either the unlock signal 7L or 7R is obtained first is the predetermined time T1. This is because the driver side door or passenger side door is unlocked immediately before the passenger gets into the vehicle 1 .

このように、第1距離検出部111は、アンロック信号7を取得すると、車両1に搭乗者が乗車する直前であると判断し、測距センサ4を起動して測距センサ4から距離検出信号5を取得する。第1距離検出部111は、取得した距離検出信号5を基に第1距離Xaを検出する。 Thus, when the first distance detection unit 111 acquires the unlock signal 7, it determines that the vehicle 1 is about to be boarded by a passenger, activates the distance measurement sensor 4, and detects the distance from the distance measurement sensor 4. Get signal 5. The first distance detector 111 detects the first distance Xa based on the acquired distance detection signal 5 .

第2距離検出部112は、車両1に搭乗者が乗車した後に、左方物体または右方物体と車両1との距離を、第2距離Xbとして検出する。具体的には、第2距離検出部112は、車両1に搭乗者が乗車した後の所定時点T2で、測距センサ4Lから距離検出信号5Lを取得する。第2距離検出部112は、取得した距離検出信号5Lに基づき、左方物体と車両1との距離を左方第2距離LXbとして検出する。この左方第2距離LXbは、車両1に搭乗者が乗車した後における左サイドカメラ2Lと左方物体との距離として用いられる。 The second distance detection unit 112 detects the distance between the left object or the right object and the vehicle 1 as the second distance Xb after the passenger gets on the vehicle 1 . Specifically, the second distance detection unit 112 acquires the distance detection signal 5L from the distance measurement sensor 4L at a predetermined time T2 after the passenger gets on the vehicle 1 . The second distance detection unit 112 detects the distance between the left object and the vehicle 1 as a second left distance LXb based on the acquired distance detection signal 5L. This left second distance LXb is used as the distance between the left side camera 2L and the left object after the passenger gets into the vehicle 1 .

また、第2距離検出部112は、車両1に搭乗者が乗車した後の前記所定時点T2で、測距センサ4Rから距離検出信号5Rを取得する。第2距離検出部112は、取得した距離検出信号5Rに基づき、右方物体と車両1との距離を右方第2距離RXbとして検出する。この右方第2距離RXbは、車両1に搭乗者が乗車した後における右サイドカメラ2Lと右方物体との距離として用いられる。なお、左方第2距離LXbと右方第2距離RXbを総称して、第2距離Xbと記載する場合がある。 Further, the second distance detection unit 112 acquires the distance detection signal 5R from the distance measurement sensor 4R at the predetermined time T2 after the passenger has boarded the vehicle 1 . The second distance detection unit 112 detects the distance between the right object and the vehicle 1 as a right second distance RXb based on the acquired distance detection signal 5R. This second right distance RXb is used as the distance between the right side camera 2L and the right object after the passenger gets into the vehicle 1 . The left second distance LXb and the right second distance RXb may be collectively referred to as the second distance Xb.

第2距離検出部112は、検出した第2距離Xbを傾斜角算出部12に出力する。ただし、第2距離検出部112は、測距センサ4から距離検出信号5を取得できない場合は、その方向に物体は存在しないと判断する。その場合、第2距離検出部112は、その方向の第2距離Xbを傾斜角算出部12に出力しない。 The second distance detector 112 outputs the detected second distance Xb to the tilt angle calculator 12 . However, when the second distance detection unit 112 cannot acquire the distance detection signal 5 from the distance measurement sensor 4, it determines that there is no object in that direction. In that case, the second distance detector 112 does not output the second distance Xb in that direction to the tilt angle calculator 12 .

第2距離検出部112は、IGスイッチ8からIG信号9を取得する。第2距離検出部112は、IG信号9を取得したとき、車両1に搭乗者が乗車した後の所定時点T2であると判断する。IGスイッチ8のオン操作は、搭乗者が車両1に搭乗した後に行われるためである。 Second distance detector 112 acquires IG signal 9 from IG switch 8 . The second distance detection unit 112 determines that it is the predetermined time T2 after the passenger gets into the vehicle 1 when the IG signal 9 is acquired. This is because the ON operation of the IG switch 8 is performed after the passenger has boarded the vehicle 1 .

このように、第2距離検出部112は、IG信号9を取得すると、車両1に搭乗者が乗車した後であると判断し、測距センサ4から距離検出信号5を取得する。第2距離検出部112は、取得した距離検出信号5を基に第2距離Xbを検出する。 In this way, when the second distance detection unit 112 acquires the IG signal 9 , the second distance detection unit 112 determines that the passenger has boarded the vehicle 1 , and acquires the distance detection signal 5 from the distance measurement sensor 4 . The second distance detector 112 detects the second distance Xb based on the obtained distance detection signal 5 .

傾斜角算出部12は、第1距離検出部111で検出された第1距離Xaと、第2距離検出部112で検出された第2距離Xbに基づき、搭乗者が車両1に搭乗する前後における車両1の横方向の傾斜角の変化量である傾斜角変化量θを算出する。 The inclination angle calculation unit 12 calculates the distance before and after the passenger boards the vehicle 1 based on the first distance Xa detected by the first distance detection unit 111 and the second distance Xb detected by the second distance detection unit 112. A tilt angle change amount θ, which is a change amount of the tilt angle in the lateral direction of the vehicle 1, is calculated.

具体的には、運転席側ドアまたは助手席側ドアがアンロックされた時点T1では、車両1に搭乗者は乗車していないため、車両1に姿勢変化はない。すなわち、時点T1において、車両1は搭乗者が乗車していない初期状態である。第1距離Xaは、車両1の初期状態における隣接物体と車両1との距離を示す。 Specifically, at the time T1 when the driver's seat side door or the passenger's seat side door is unlocked, there is no passenger in the vehicle 1, so the posture of the vehicle 1 does not change. That is, at time T1, the vehicle 1 is in an initial state in which no passenger is on board. The first distance Xa indicates the distance between the adjacent object and the vehicle 1 in the initial state of the vehicle 1 .

その後、IGスイッチ8がオンされた時点T2では、車両1に搭乗者が乗車しているため、車両1に姿勢変化が生じる。すなわち、車両1が初期状態から横方向に傾斜角θだけ傾く。傾斜角θは、搭乗者が車両1に搭乗する前後における車両1の横方向の傾斜角の変化量である。第2距離Xbは、車両1が初期状態から横方向に傾斜角変化量θだけ傾いた状態における隣接物体と車両1との距離を示す。第1距離Xaと第2距離Xbの差は、傾斜角変化量θとして表れる。第1距離Xaと第2距離Xbの差が大きくなるほど傾斜角変化量θも大きくなる。 After that, at time T2 when the IG switch 8 is turned on, the vehicle 1 changes its posture because a passenger is on the vehicle 1 . That is, the vehicle 1 is tilted laterally by the tilt angle θ from the initial state. The tilt angle θ is the amount of change in the lateral tilt angle of the vehicle 1 before and after the passenger boards the vehicle 1 . The second distance Xb indicates the distance between the adjacent object and the vehicle 1 when the vehicle 1 is tilted laterally by the tilt angle change amount θ from the initial state. The difference between the first distance Xa and the second distance Xb appears as the tilt angle change amount θ. As the difference between the first distance Xa and the second distance Xb increases, the tilt angle change amount θ also increases.

かかる事実に基づき、傾斜角算出部12は、第1距離Xaと第2距離Xbの差を求め、その差を基に傾斜角変化量θを算出する。傾斜角変化量θの具体的な算出方法は後述する。傾斜角算出部12は、算出した傾斜角変化量θを補正部13に出力する。傾斜角算出部12は、また、第1距離Xaおよび第2距離Xbを補正部13に出力する。 Based on this fact, the tilt angle calculator 12 obtains the difference between the first distance Xa and the second distance Xb, and calculates the tilt angle change amount θ based on the difference. A specific method for calculating the tilt angle change amount θ will be described later. The tilt angle calculator 12 outputs the calculated tilt angle change amount θ to the corrector 13 . The tilt angle calculator 12 also outputs the first distance Xa and the second distance Xb to the corrector 13 .

補正部13は、傾斜角変化量θ、第1距離Xaおよび第2距離Xbに基づき、カメラの姿勢データを補正する。具体的には、補正部13は、傾斜角変化量θに基づき記憶部15に記憶されている初期カメラ姿勢データ41を補正する。初期カメラ姿勢データ41は、カメラキャリブレーションにより得られたカメラ2の位置データX、Y、Zからなる初期位置データ42と、光軸データP、R、Tからなる初期光軸データ43である。 The correction unit 13 corrects the posture data of the camera based on the tilt angle change amount θ, the first distance Xa, and the second distance Xb. Specifically, the correction unit 13 corrects the initial camera posture data 41 stored in the storage unit 15 based on the tilt angle change amount θ. The initial camera attitude data 41 is initial position data 42 consisting of position data X, Y, Z of the camera 2 obtained by camera calibration, and initial optical axis data 43 consisting of optical axis data P, R, T.

補正部13は、補正した初期カメラ姿勢データ41を補正カメラ姿勢データ51として記憶部15に記憶する。補正部13は、記憶部15に記憶した補正カメラ姿勢データ51、すなわち、補正位置データ52と補正光軸データ53を画像生成部14に出力する。なお、補正部13は、初期カメラ姿勢データ41を補正していない場合は、初期カメラ姿勢データ41を補正カメラ姿勢データ51として画像生成部14に出力する。初期カメラ姿勢データ41の具体的な補正方法は後述する。 The correction unit 13 stores the corrected initial camera posture data 41 as corrected camera posture data 51 in the storage unit 15 . The correction unit 13 outputs the corrected camera attitude data 51 stored in the storage unit 15 , that is, the corrected position data 52 and the corrected optical axis data 53 to the image generation unit 14 . When the initial camera orientation data 41 is not corrected, the correction unit 13 outputs the initial camera orientation data 41 as corrected camera orientation data 51 to the image generation unit 14 . A specific correction method for the initial camera attitude data 41 will be described later.

画像生成部14は、補正カメラ姿勢データ51を用いて、生成された複数の撮影画像3から視点変換画像を生成する。具体的には、画像生成部14は、補正位置データ52と補正光軸データ53を補正部13から受け、撮影画像3を車両1に搭載された各カメラ2から受ける。画像生成部14は、補正位置データ52と補正光軸データ53を用いて、撮影画像3から俯瞰画像25を生成する。画像生成部14は、生成した俯瞰画像25を表示装置23に出力する。 The image generation unit 14 uses the corrected camera posture data 51 to generate a viewpoint-converted image from the plurality of captured images 3 generated. Specifically, the image generation unit 14 receives the corrected position data 52 and the corrected optical axis data 53 from the correction unit 13 and receives the captured image 3 from each camera 2 mounted on the vehicle 1 . The image generator 14 generates the overhead image 25 from the captured image 3 using the corrected position data 52 and the corrected optical axis data 53 . The image generator 14 outputs the generated overhead image 25 to the display device 23 .

記憶部15は、初期カメラ姿勢データ41と補正カメラ姿勢データ51を記憶する。初期カメラ姿勢データ41は、車両1の出荷前にカメラキャリブレーションによって調整されたカメラ2の姿勢データである。初期カメラ姿勢データ41は、初期位置データ42と初期光軸データ43を含む。 The storage unit 15 stores initial camera attitude data 41 and corrected camera attitude data 51 . The initial camera attitude data 41 is attitude data of the camera 2 adjusted by camera calibration before the vehicle 1 is shipped. Initial camera attitude data 41 includes initial position data 42 and initial optical axis data 43 .

初期位置データ42は、前述したように、カメラキャリブレーションによって得られたカメラ2の横方向位置X、前後方向位置Y、および高さ方向位置Zを有する。具体的には、初期位置データ42は、左サイドカメラ2L、右サイドカメラ2R、フロントカメラ2F、およびリアカメラ2Bのそれぞれの横方向位置XL、XR、XF、XB、前後方向位置YL、YR、YF、YB、および高さ方向位置ZL、ZR、ZF、ZBを有する。 The initial position data 42 has the lateral position X, front-rear position Y, and height position Z of the camera 2 obtained by camera calibration, as described above. Specifically, the initial position data 42 includes the lateral positions XL, XR, XF, and XB of the left-side camera 2L, the right-side camera 2R, the front camera 2F, and the rear camera 2B, and the front-to-rear positions YL, YR, It has YF, YB, and height positions ZL, ZR, ZF, ZB.

初期光軸データ43は、前述したように、カメラキャリブレーションによって得られたカメラ2のパン角P、ロール角R、チルト角Tを有する。具体的には、初期光軸データ43は、左サイドカメラ2L、右サイドカメラ2R、フロントカメラ2F、およびリアカメラ2Bのそれぞれのパン角PL、PR、PF、PB、ロール角RL、RR、RF、RB、およびチルト角TL、TR、TF、TBを有する。 The initial optical axis data 43 has the pan angle P, roll angle R, and tilt angle T of the camera 2 obtained by camera calibration, as described above. Specifically, the initial optical axis data 43 includes pan angles PL, PR, PF, PB, roll angles RL, RR, and RF of the left side camera 2L, right side camera 2R, front camera 2F, and rear camera 2B. , RB, and tilt angles TL, TR, TF, TB.

補正カメラ姿勢データ51は、補正部13により補正された初期カメラ姿勢データ41である。補正カメラ姿勢データ51は、補正位置データ52と補正光軸データ53を含む。 The corrected camera posture data 51 is the initial camera posture data 41 corrected by the correction unit 13 . The corrected camera posture data 51 includes corrected position data 52 and corrected optical axis data 53 .

本実施の形態において、初期カメラ姿勢データ41と補正カメラ姿勢データ51を区別するために、初期カメラ姿勢データ41に含まれる各データはa付きで表示し、補正カメラ姿勢データ51に含まれる各データはb付きで表示することがある。例えば、左サイドカメラ2Lの初期高さ方向位置はZLaと表記し、補正された高さ方向位置はZLbと表記する。 In this embodiment, in order to distinguish between the initial camera attitude data 41 and the corrected camera attitude data 51, each data included in the initial camera attitude data 41 is indicated with a, and each data included in the corrected camera attitude data 51 is sometimes labeled with a b. For example, the initial height direction position of the left side camera 2L is denoted as ZLa, and the corrected height direction position is denoted as ZLb.

[2.傾斜角変化量θの算出方法]
以下、図6を用いて、傾斜角変化量θの具体的な算出方法について説明する。図6は、傾斜角変化量θの算出方法を説明する図である。図6(a)は、車両1の左右両隣に隣接物体である隣接車両1L、1Rが駐車枠110内に駐車している状態を上面視で示している。図6(b)は、車両1に搭乗者が搭乗する前の時点T1における各車両1、1L、1Rの状態を後面視で示している。図6(c)は、車両1に搭乗者が乗車した後の時点T2における各車両1、1L、1Rの状態を後面視で示している。なお、図6(b)(c)において、車両1、1L、1Rを直方体の剛体として表現している。図6(d)は、車両1に搭乗者が乗車する前後の車両1の姿勢変化、および車両1の左方の隣接車両1Lと車両1との距離関係を示している。なお、図6(c)(d)において、車両1の姿勢が変化した後の車両1と同じ車両部分については、「’」付きで表記している。
[2. Calculation method of tilt angle change amount θ]
A specific method for calculating the tilt angle change amount θ will be described below with reference to FIG. 6 . FIG. 6 is a diagram illustrating a method of calculating the tilt angle change amount θ. FIG. 6(a) shows a state in which adjacent vehicles 1L and 1R, which are adjacent objects on the left and right sides of the vehicle 1, are parked within the parking frame 110 in a top view. FIG. 6B shows the states of the vehicles 1, 1L, and 1R at time T1 before passengers board the vehicle 1 as viewed from the rear. FIG. 6(c) shows the states of the vehicles 1, 1L, and 1R at time T2 after the passenger has boarded the vehicle 1 as seen from the rear. In FIGS. 6B and 6C, the vehicles 1, 1L, and 1R are expressed as rigid rectangular parallelepiped bodies. FIG. 6(d) shows a change in attitude of the vehicle 1 before and after a passenger gets on the vehicle 1, and a distance relationship between the vehicle 1 and the adjacent vehicle 1L on the left side of the vehicle 1. FIG. In addition, in FIGS. 6(c) and 6(d), the parts of the vehicle that are the same as the vehicle 1 after the attitude of the vehicle 1 has changed are indicated with "'".

図6(b)を参照して、運転席側ドアまたは助手席側ドアがアンロックされた時点T1では、車両1は搭乗者が乗車していない初期状態である。このときの車両1と左方隣接車両1Lとの距離である左方第1距離はLXaであり、車両1と右方の隣接車両1Rとの右方第1距離はRXaであるとする。その後、搭乗者が車両1に乗車し、IGスイッチ8をオンした時点T2では、図6(c)に示すように、搭乗者の乗車により車両1の姿勢が変化する。図6(c)では車両1が右側に傾斜角θLだけ初期状態から傾斜していることを示している。すなわち、車両1の左方の傾斜角変化量θはθL(以下、「左方傾斜角変化量θL」という)である。このときの車両1’と左方隣接車両1Lとの距離である左方第2距離はLXbであり、車両1’と右方隣接車両1Rとの右方第2距離はRXbであるとする。なお、図6では、時点T1と時点T2で車両1の前後方向の傾斜角変化量は0であるとしている。 Referring to FIG. 6(b), at time T1 when the driver's seat side door or passenger's seat side door is unlocked, vehicle 1 is in an initial state in which no passenger is on board. At this time, the first left distance, which is the distance between the vehicle 1 and the adjacent left vehicle 1L, is LXa, and the first right distance between the vehicle 1 and the adjacent vehicle 1R on the right is RXa. After that, when the passenger gets on the vehicle 1 and turns on the IG switch 8 at time T2, the attitude of the vehicle 1 changes due to the passenger getting on, as shown in FIG. 6(c). FIG. 6(c) shows that the vehicle 1 is tilted to the right by the tilt angle θL from the initial state. That is, the left tilt angle change amount θ of the vehicle 1 is θL (hereinafter referred to as “left tilt angle change amount θL”). At this time, the second left distance, which is the distance between the vehicle 1' and the adjacent left vehicle 1L, is LXb, and the second right distance between the vehicle 1' and the adjacent right vehicle 1R is RXb. In FIG. 6, it is assumed that the amount of change in the tilt angle of the vehicle 1 in the longitudinal direction is 0 between time T1 and time T2.

図6(d)を参照して、車両1の左側面1Sには左サイドカメラ2Lが取り付けられている。測距センサ4Lは図6(d)に図示していないが、左サイドカメラ2Lの近傍でほぼ同じ位置に設置されている。時点T1では車両1は初期状態であり、このときの左サイドカメラ2Lの路面に対する高さは、初期位置データ42における左サイドカメラ2Lの高さ方向位置ZLaに対応する長さである。また、時点T1において、左サイドカメラ2Lと左方隣接車両1Lの右側面1LSとの左方第1距離はLXaである。 6(d), a left side camera 2L is attached to the left side 1S of the vehicle 1. As shown in FIG. Although the distance measuring sensor 4L is not shown in FIG. 6(d), it is installed in the vicinity of the left side camera 2L and at substantially the same position. At time T1, the vehicle 1 is in the initial state, and the height of the left side camera 2L with respect to the road surface at this time corresponds to the height direction position ZLa of the left side camera 2L in the initial position data 42. FIG. Also, at time T1, the first left distance between the left side camera 2L and the right side surface 1LS of the left adjacent vehicle 1L is LXa.

時点T2において、車両1’が回転中心Aを中心として左方傾斜角変化量θLだけ傾く。このとき、左サイドカメラ2L’と左方隣接車両1Lの右側面1LSとの左方第2距離はLXbである。よって、傾斜後の左サイドカメラ2L’と初期状態における車両1の左側面1Sとの距離は、LXb-LXaとなる。時点T2において、左サイドカメラ2L’と回転中心Aとの距離は、初期状態における左サイドカメラ2Lの高さと同じであるため、高さ方向位置ZLaに対応する長さである。したがって、左方傾斜角変化量θLは、下記の式(1)を用いて算出することができる。
θL=sin-1((LXb-LXa)/ZLa) ・・・(1)
At time T2, the vehicle 1' is tilted about the center of rotation A by the left tilt angle change amount θL. At this time, the second left distance between the left side camera 2L' and the right side surface 1LS of the left adjacent vehicle 1L is LXb. Therefore, the distance between the tilted left side camera 2L' and the left side surface 1S of the vehicle 1 in the initial state is LXb-LXa. At time T2, the distance between the left-side camera 2L' and the center of rotation A is the same as the height of the left-side camera 2L in the initial state, and thus has a length corresponding to the height direction position ZLa. Therefore, the left tilt angle change amount θL can be calculated using the following formula (1).
θL=sin −1 ((LXb−LXa)/ZLa) (1)

左方隣接車両1Lに対して左方傾斜角変化量θLを算出したのと同様に、右方隣接車両1Rに対しても、車両1の右方の傾斜角変化量θである傾斜角変化量θR(以下、「右方傾斜角変化量θR」という)を算出することができる。この場合、高さ方向位置ZLaの代わりに、右サイドカメラ2Rの高さ方向位置ZRaを使用し、右方第1距離はRXaを使用し、右方第2距離はRXbを使用する。右方傾斜角変化量θRは、下記の式(2)を用いて算出することができる。
θR=sin-1((RXb-RXa)/ZRa) ・・・(2)
なお、本実施の形態において、左方傾斜角変化量θLと右方傾斜角変化量θRを総称して、傾斜角変化量θと記載する場合がある。
In the same manner as calculating the left tilt angle change amount θL for the left adjacent vehicle 1L, the tilt angle change amount, which is the right tilt angle change amount θ of the vehicle 1, is calculated for the right adjacent vehicle 1R as well. θR (hereinafter referred to as “right tilt angle change amount θR”) can be calculated. In this case, instead of the height direction position ZLa, the height direction position ZRa of the right side camera 2R is used, the right first distance uses RXa, and the right second distance uses RXb. The right tilt angle change amount θR can be calculated using the following formula (2).
θR=sin −1 ((RXb−RXa)/ZRa) (2)
In the present embodiment, the left tilt angle change amount θL and the right tilt angle change amount θR may be collectively referred to as the tilt angle change amount θ.

傾斜角算出部12(図5)は、第1距離検出部111から左方第1距離LXaおよび右方第1距離RXaを取得する。傾斜角算出部12は、第2距離検出部112から左方第2距離LXbおよび右方第2距離RXbを取得する。さらに、傾斜角算出部12は、記憶部15から初期カメラ姿勢データ41におけるカメラ位置データ42のうち、左サイドカメラ2Lの高さ方向位置データZLaおよび右サイドカメラ2Rの高さ方向位置データZRaを読み出す。傾斜角算出部12は、取得した左方第1距離LXa、左方第2距離LXb、および高さ方向位置データZLaに基づき、前記式(1)により左方傾斜角変化量θLを算出する。 The tilt angle calculator 12 ( FIG. 5 ) acquires the first left distance LXa and the first right distance RXa from the first distance detector 111 . The tilt angle calculator 12 acquires the left second distance LXb and the right second distance RXb from the second distance detector 112 . Further, the tilt angle calculation unit 12 extracts the height direction position data ZLa of the left side camera 2L and the height direction position data ZRa of the right side camera 2R from the camera position data 42 in the initial camera posture data 41 from the storage unit 15. read out. The tilt angle calculator 12 calculates the left tilt angle change amount θL using the above equation (1) based on the obtained left first distance LXa, left second distance LXb, and height direction position data ZLa.

また、傾斜角算出部12は、取得した右方第1距離RXa、右方第2距離RXb、および高さ方向位置データZRaに基づき、前記式(2)により右方傾斜角変化量θRを算出する。傾斜角算出部12は、算出した左方傾斜角変化量θLと右方傾斜角変化量θRを補正部13に出力する。また、傾斜角算出部12は、検出した左方第1距離LXa、左方第2距離LXb、および右方第1距離RXa、右方第2距離RXbを補正部13に出力する。 In addition, the tilt angle calculation unit 12 calculates the right tilt angle change amount θR by the above-described formula (2) based on the obtained right first distance RXa, right second distance RXb, and height direction position data ZRa. do. The tilt angle calculation unit 12 outputs the calculated left tilt angle change amount θL and right tilt angle change amount θR to the correction unit 13 . The tilt angle calculator 12 also outputs the detected left first distance LXa, left second distance LXb, and right first distance RXa and right second distance RXb to the corrector 13 .

[3.カメラ姿勢データの補正方法]
次に、初期カメラ姿勢データ41の補正方法について図6(d)を用いて説明する。車両1が左方傾斜角変化量θLだけ横方向に傾斜することにより、左サイドカメラ2Lの初期カメラ姿勢データ41が変化する。具体的には、横方向位置XLは、初期横方向位置XLaに対しLXb-LXaだけ小さくなる。高さ方向位置ZLは、初期高さ方向位置ZLaに対し、ZLa-(LXb-LXa)/tanθLだけ小さくなる。チルト角TLaは、初期チルト角TLaに対し、左方傾斜角変化量θLだけ大きくなる。一方、前後方向位置YL、パン角PL、およびロール角RLは、車両1の姿勢変化後も初期値から変化しない。
[3. Method of Correcting Camera Posture Data]
Next, a method for correcting the initial camera attitude data 41 will be described with reference to FIG. 6(d). When the vehicle 1 tilts in the lateral direction by the left tilt angle change amount θL, the initial camera attitude data 41 of the left side camera 2L changes. Specifically, the lateral position XL is smaller than the initial lateral position XLa by LXb-LXa. The height direction position ZL is smaller than the initial height direction position ZLa by ZLa-(LXb-LXa)/tan θL. The tilt angle TLa is larger than the initial tilt angle TLa by the left tilt angle change amount θL. On the other hand, the longitudinal position YL, the pan angle PL, and the roll angle RL do not change from their initial values even after the posture of the vehicle 1 changes.

したがって、補正後の左サイドカメラ2Lの補正カメラ姿勢データ51は、式(3)から式(8)のようになる。
補正横方向位置XLb=XLa-(LXb-LXa) ・・・(3)
補正前後方向位置YLb=YLa ・・・(4)
補正高さ方向位置ZLb=(LXb-LXa)/tanθL ・・・(5)
補正パン角PLb=PLa ・・・(6)
補正ロール角RLb=RLa ・・・(7)
補正チルト角TLb=TLa+θL ・・・(8)
Therefore, the corrected camera attitude data 51 of the left-side camera 2L after correction is represented by equations (3) to (8).
Corrected lateral position XLb=XLa-(LXb-LXa) (3)
Corrected front-back direction position YLb=YLa (4)
Corrected height direction position ZLb=(LXb-LXa)/tan θL (5)
Corrected pan angle PLb=PLa (6)
Corrected roll angle RLb=RLa (7)
Corrected tilt angle TLb=TLa+θL (8)

右サイドカメラ2Rについても同様であり、補正後の右サイドカメラ2Rの補正カメラ姿勢データ51は、式(9)から式(14)のようになる。
補正横方向位置XRb=XRa-(RXb-RXa) ・・・(9)
補正前後方向位置YRb=YRa ・・・(10)
補正高さ方向位置ZRb=(RXb-RXa)/tanθR ・・・(11)
補正パン角PRb=PRa ・・・(12)
補正ロール角RRb=RRa ・・・(13)
補正チルト角TRb=TRa+θR ・・・(14)
The same is true for the right side camera 2R, and the corrected camera posture data 51 of the right side camera 2R after correction is represented by formulas (9) to (14).
Corrected lateral position XRb=XRa-(RXb-RXa) (9)
Corrected longitudinal position YRb=YRa (10)
Corrected height direction position ZRb=(RXb-RXa)/tan θR (11)
Corrected pan angle PRb=PRa (12)
Corrected roll angle RRb=RRa (13)
Corrected tilt angle TRb=TRa+θR (14)

フロントカメラ2Fの場合、左右のサイドカメラ2L、2Rと若干異なり、横方向位置XFおよび高さ方向位置ZFの変化量は、左方傾斜角変化量θLと初期高さ方向位置ZFaによって定まる。また、フロントカメラ2Fの場合、ロール角RFが左方傾斜角変化量θLだけ変化する。したがって、フロントカメラ2Fの補正後の補正カメラ姿勢データ51は、式(15)から式(20)のようになる。
補正横方向位置XFb=XFa-sinθL×ZFa ・・・(15)
補正前後方向位置YFb=YFa ・・・(16)
補正高さ方向位置ZFb=cosθL×ZFa ・・・(17)
補正パン角PFb=PFa ・・・(18)
補正ロール角RFb=RFa+θL ・・・(19)
補正チルト角TFb=TFa ・・・(20)
In the case of the front camera 2F, slightly different from the left and right side cameras 2L and 2R, the amount of change in the lateral position XF and the height direction position ZF is determined by the left tilt angle change amount θL and the initial height direction position ZFa. In the case of the front camera 2F, the roll angle RF changes by the left tilt angle change amount θL. Therefore, the corrected camera attitude data 51 after the correction of the front camera 2F is represented by equations (15) to (20).
Corrected lateral position XFb=XFa-sin θL×ZFa (15)
Corrected longitudinal position YFb=YFa (16)
Corrected height direction position ZFb=cos θL×ZFa (17)
Corrected pan angle PFb=PFa (18)
Corrected roll angle RFb=RFa+θL (19)
Corrected tilt angle TFb=TFa (20)

リアカメラ2Bについては、フロントカメラ2Fと同様であり、補正後の補正カメラ姿勢データ51は、式(21)から式(26)のようになる。
補正横方向位置XBb=XBa-sinθL×ZBa ・・・(21)
補正前後方向位置YBb=YBa ・・・(22)
補正高さ方向位置ZBb=cosθL×ZBa ・・・(23)
補正パン角PBb=PBa ・・・(24)
補正ロール角RBb=RBa+θL ・・・(25)
補正チルト角TBb=TBa ・・・(26)
The rear camera 2B is the same as the front camera 2F, and the corrected camera attitude data 51 after correction is represented by equations (21) to (26).
Corrected lateral position XBb=XBa-sin θL×ZBa (21)
Corrected longitudinal position YBb=YBa (22)
Corrected height direction position ZBb=cos θL×ZBa (23)
Corrected pan angle PBb=PBa (24)
Corrected roll angle RBb=RBa+θL (25)
Corrected tilt angle TBb=TBa (26)

なお、フロントカメラ2Fおよびリアカメラ2Bの補正カメラ姿勢データ51は、傾斜角変化量θとして左方傾斜角変化量θLを使用しているが、これに限らない。例えば、補正カメラ姿勢データ51は、傾斜角変化量θとして右方傾斜角変化量θRを使用してもよい。補正カメラ姿勢データ51は、左方傾斜角変化量θLと右方傾斜角変化量θRの平均値を使用してもよい。 Although the corrected camera posture data 51 of the front camera 2F and the rear camera 2B uses the left tilt angle change amount θL as the tilt angle change amount θ, the present invention is not limited to this. For example, the corrected camera attitude data 51 may use the right tilt angle change amount θR as the tilt angle change amount θ. The corrected camera posture data 51 may use an average value of the left tilt angle change amount θL and the right tilt angle change amount θR.

補正部13(図5)は、傾斜角算出部12から左方傾斜角変化量θL、左方第1距離LXaおよび左方第2距離LXbを取得する。補正部13は、前記式(3)から式(8)により左サイドカメラ2Lの補正カメラ姿勢データ51を算出する。 The correction unit 13 ( FIG. 5 ) acquires the left tilt angle change amount θL, the left first distance LXa, and the left second distance LXb from the tilt angle calculation unit 12 . The correction unit 13 calculates the corrected camera posture data 51 of the left side camera 2L using the formulas (3) to (8).

補正部13は、傾斜角算出部12から右方傾斜角変化量θR、右方第1距離RXaおよび右方第2距離RXbを取得する。補正部13は、前記式(9)から式(14)により右サイドカメラ2Rの補正カメラ姿勢データ51を算出する。 The correction unit 13 acquires the right tilt angle change amount θR, the right first distance RXa, and the right second distance RXb from the tilt angle calculation unit 12 . The correction unit 13 calculates the corrected camera posture data 51 of the right side camera 2R using the formulas (9) to (14).

補正部13は、傾斜角算出部12から取得した左方傾斜角変化量θLまたは右方傾斜角変化量θRを用いて、前記式(15)から式(26)によりフロントサイドカメラ2F、およびリアカメラ2Bの補正カメラ姿勢データ51を算出する。 Using the left tilt angle change amount θL or the right tilt angle change amount θR acquired from the tilt angle calculation unit 12, the correction unit 13 adjusts the front side camera 2F and the rear Corrected camera attitude data 51 of the camera 2B is calculated.

補正部13は、補正カメラ姿勢データ51を算出すると、算出した補正カメラ姿勢データ51を記憶部15に記憶し、画像生成部14に出力する。これにより、画像生成部14は、補正カメラ姿勢データ51を用いて撮影画像3から俯瞰画像25を生成する。これにより、搭乗者が車両1に乗車して車両1の姿勢が変化しても、仮想視点画像において繋ぎ合わせた画像間にずれが生じなくなる。 After calculating the corrected camera orientation data 51 , the correction unit 13 stores the calculated corrected camera orientation data 51 in the storage unit 15 and outputs the calculated corrected camera orientation data 51 to the image generation unit 14 . Accordingly, the image generator 14 generates the bird's-eye view image 25 from the captured image 3 using the corrected camera attitude data 51 . As a result, even if a passenger gets on the vehicle 1 and the attitude of the vehicle 1 changes, the images connected together in the virtual viewpoint images are not displaced.

なお、車両1の左右方向に、左方隣接車両1Lと右方隣接車両1Rのどちらか一方のみが存在する場合、補正部13は、その一方の隣接車両に対する傾斜角変化量θと第1距離Xa、第2距離Xbしか得られない。その場合、補正部13は、取得した一方の傾斜角変化量θを共通の傾斜角変化量θとし、取得した一方の第1距離Xa、第2距離Xbを共通の第1距離Xa、第2距離Xbとする。補正部13は、隣接車両が存在しない側に対応する他方の傾斜角変化量θとして、共通の傾斜角変化量θを使用する。また補正部13は、隣接車両が存在しない側に対応する他方の第1距離Xa、第2距離Xbとして共通の第1距離Xa、第2距離Xbを使用する。 Note that when only one of the left adjacent vehicle 1L and the right adjacent vehicle 1R exists in the left-right direction of the vehicle 1, the correction unit 13 calculates the inclination angle change amount θ and the first distance with respect to the one adjacent vehicle. Xa, only the second distance Xb is obtained. In this case, the correction unit 13 sets one of the obtained tilt angle change amounts θ as the common tilt angle change amount θ, and sets the obtained one of the first distance Xa and the second distance Xb as the common first distance Xa and the second distance Xb. Let the distance be Xb. The correction unit 13 uses the common tilt angle change amount θ as the other tilt angle change amount θ corresponding to the side on which the adjacent vehicle does not exist. Further, the correction unit 13 uses the common first distance Xa and second distance Xb as the other first distance Xa and second distance Xb corresponding to the side on which there is no adjacent vehicle.

例えば、車両1の隣に左方隣接車両1Lが駐車しており、右方隣接車両1Rが駐車していないとする。その場合、補正部13は、左方傾斜角変化量θL、左方第1距離LXa、左方第2距離LXbしか取得できない。補正部13は、右サイドカメラ2Rの補正カメラ姿勢データ51を算出するにあたり、前記式(9)から式(14)において、右方傾斜角変化量θR、右方第1距離RXa、右方第2距離RXbの代わりに、左方傾斜角変化量θL、左方第1距離LXa、左方第2距離LXbを使用する。 For example, it is assumed that the left adjacent vehicle 1L is parked next to the vehicle 1 and the right adjacent vehicle 1R is not parked. In that case, the correction unit 13 can acquire only the left tilt angle change amount θL, the left first distance LXa, and the left second distance LXb. In calculating the corrected camera posture data 51 of the right side camera 2R, the correction unit 13 uses the right tilt angle change amount θR, the right first distance RXa, the right first The left tilt angle change amount θL, the left first distance LXa, and the left second distance LXb are used instead of the two distances RXb.

また、車両1の左右方向に、左方隣接車両1Lと右方隣接車両1Rのどちらも存在しない場合、補正部13は、傾斜角変化量θと第1距離Xa、第2距離Xbを得られない。その場合、補正部13は初期カメラ姿勢データ41の補正を禁止する。 Further, when neither the left adjacent vehicle 1L nor the right adjacent vehicle 1R exists in the lateral direction of the vehicle 1, the correction unit 13 cannot obtain the inclination angle change amount θ, the first distance Xa, and the second distance Xb. do not have. In that case, the correction unit 13 prohibits correction of the initial camera posture data 41 .

[4.動作詳細]
図7は、図1に示す画像生成装置10の動作を示すフローチャートである。画像生成装置10は、IGスイッチ8がオフの間はスリープモードとなり、動作を停止している。助手席側ドアのアンロック信号7L、または運転席側ドアのアンロック信号7Rのどちらかが画像生成装置10に入力されると、画像生成装置10は、スリープモードからアクティブモードになり図7に示す処理を開始する。このタイミングが、車両1に搭乗者が乗車する前の時点T1となる。
[4. Operation details]
FIG. 7 is a flow chart showing the operation of the image generation device 10 shown in FIG. While the IG switch 8 is off, the image generating device 10 is in sleep mode and stops operating. When either the unlock signal 7L for the passenger seat side door or the unlock signal 7R for the driver seat side door is input to the image generating device 10, the image generating device 10 changes from the sleep mode to the active mode, as shown in FIG. start the process shown. This timing is time T1 before the passenger gets on the vehicle 1 .

第1距離検出部111は、測距センサ4Lを起動し、測距センサ4Lから左方隣接物体との距離検出信号5Lを取得する。第1距離検出部111は、取得した距離検出信号5Lを左方第1距離LXaとして検出し、傾斜角算出部12に出力する(ステップS1)。次いで、第1距離検出部111は、測距センサ4Rを起動し、測距センサ4Rから右方隣接物体との距離検出信号5Rを取得する。第1距離検出部111は、取得した距離検出信号5Rを右方第1距離RXaとして検出し、傾斜角算出部12に出力する(ステップS2)。 The first distance detection unit 111 activates the distance measurement sensor 4L and acquires the distance detection signal 5L for the left adjacent object from the distance measurement sensor 4L. The first distance detection unit 111 detects the obtained distance detection signal 5L as the first left distance LXa, and outputs it to the tilt angle calculation unit 12 (step S1). Next, the first distance detection unit 111 activates the distance measurement sensor 4R and acquires the distance detection signal 5R for the right adjacent object from the distance measurement sensor 4R. The first distance detection unit 111 detects the acquired distance detection signal 5R as the right first distance RXa, and outputs it to the tilt angle calculation unit 12 (step S2).

第2距離検出部112は、IG信号9に基づきIGスイッチ8がオンされたか否かを判断する(ステップS3)。IGスイッチ8がオンされていなければ(ステップS3 NO)、第2距離検出部112は、ステップS3を繰り返し、IGスイッチ8がオンされるのを待つ。IGスイッチ8がオンされると、そのタイミングが、車両1に搭乗者が乗車した後の時点T2となる。 The second distance detector 112 determines whether or not the IG switch 8 is turned on based on the IG signal 9 (step S3). If the IG switch 8 is not turned on (step S3 NO), the second distance detector 112 repeats step S3 and waits for the IG switch 8 to be turned on. When the IG switch 8 is turned on, the timing becomes time T2 after the passenger gets into the vehicle 1 .

第2距離検出部112は、IGスイッチ8がオンされたと判断すると(ステップS3 YES)、測距センサ4Lから左方隣接物体との距離検出信号5Lを取得する。第2距離検出部112は、取得した距離検出信号5Lを左方第2距離LXbとして検出し、傾斜角算出部12に出力する(ステップS4)。次いで、第2距離検出部112は、測距センサ4Rから右方隣接物体との距離検出信号5Rを取得する。第2距離検出部112は、取得した距離検出信号5Rを右方第2距離RXbとして検出し、傾斜角算出部12に出力する(ステップS5)。 When the second distance detector 112 determines that the IG switch 8 has been turned on (step S3 YES), the second distance detector 112 acquires the distance detection signal 5L for the left adjacent object from the distance sensor 4L. The second distance detection unit 112 detects the acquired distance detection signal 5L as the second left distance LXb, and outputs it to the tilt angle calculation unit 12 (step S4). Next, the second distance detection unit 112 acquires the distance detection signal 5R for the right adjacent object from the distance measurement sensor 4R. The second distance detection unit 112 detects the acquired distance detection signal 5R as the second right distance RXb, and outputs it to the tilt angle calculation unit 12 (step S5).

傾斜角算出部12は、記憶部15から読み出した初期カメラ姿勢データ41と、距離検出部11から取得した第1距離Xaおよび第2距離Xbに基づき、車両1の傾斜角変化量θを算出する(ステップS6)。傾斜角算出部12は、算出した傾斜角変化量θを第1距離Xaおよび第2距離Xbと共に補正部13に出力する。具体的には、傾斜角算出部12は、記憶部15から初期カメラ姿勢データ41のうち、左右のサイドカメラ2L、2Rの初期高さ方向位置ZLa、ZRaを読み出す。傾斜角算出部12は、記憶部15から読み出した左サイドカメラ2Lの初期高さ方向位置ZLa、および傾斜角算出部12から取得した左方第1距離LXaと左方第2距離LXbに基づき、前記式(1)により左方傾斜角変化量θLを算出する。また、傾斜角算出部12は、記憶部15から読み出した右サイドカメラ2Rの初期高さ方向位置ZRa、および傾斜角算出部12から取得した右方第1距離RXaと右方第2距離RXbに基づき、前記式(2)により右方傾斜角変化量θRを算出する。傾斜角算出部12は、算出した左方傾斜角変化量θLと右方傾斜角変化量θR、を補正部13に出力する。また、傾斜角算出部12は、距離検出部11から取得した左方第1距離LXa、左方第2距離LXb、右方第1距離RXa、および右方第2距離RXbを補正部13に出力する。 The tilt angle calculator 12 calculates the tilt angle change amount θ of the vehicle 1 based on the initial camera posture data 41 read from the storage unit 15 and the first distance Xa and the second distance Xb obtained from the distance detector 11 . (Step S6). The tilt angle calculator 12 outputs the calculated tilt angle change amount θ to the corrector 13 together with the first distance Xa and the second distance Xb. Specifically, the tilt angle calculator 12 reads the initial height direction positions ZLa and ZRa of the left and right side cameras 2L and 2R from the initial camera posture data 41 from the storage unit 15 . Based on the initial height direction position ZLa of the left side camera 2L read from the storage unit 15 and the left first distance LXa and the left second distance LXb obtained from the tilt angle calculation unit 12, the tilt angle calculation unit 12 The left tilt angle change amount .theta.L is calculated by the above equation (1). In addition, the tilt angle calculation unit 12 calculates the initial height direction position ZRa of the right side camera 2R read from the storage unit 15, and the right first distance RXa and the right second distance RXb obtained from the tilt angle calculation unit 12. Based on this, the amount of change in the rightward tilt angle θR is calculated by the above equation (2). The tilt angle calculator 12 outputs the calculated left tilt angle change amount θL and right tilt angle change amount θR to the corrector 13 . The tilt angle calculator 12 also outputs the first left distance LXa, the second left distance LXb, the first right distance RXa, and the second right distance RXb obtained from the distance detector 11 to the corrector 13 . do.

補正部13は、記憶部15から初期カメラ姿勢データ41を読み出し、初期カメラ姿勢データ41と傾斜角変化量θ、第1距離Xa、第2距離Xbに基づき、初期カメラ姿勢データ41を補正する(ステップS7)。具体的には、補正部13は、前記式(3)から式(26)により各カメラ2の補正カメラ姿勢データ51を算出し、記憶部15に記憶する。補正部13は、記憶部15に記憶した補正カメラ姿勢データ51を画像生成部14に出力する。 The correction unit 13 reads the initial camera posture data 41 from the storage unit 15, and corrects the initial camera posture data 41 based on the initial camera posture data 41, the tilt angle change amount θ, the first distance Xa, and the second distance Xb ( step S7). Specifically, the correction unit 13 calculates the corrected camera posture data 51 of each camera 2 using the above formulas (3) to (26), and stores the data in the storage unit 15 . The correction unit 13 outputs the corrected camera posture data 51 stored in the storage unit 15 to the image generation unit 14 .

画像生成部14は、カメラ2から取得した撮影画像3と、補正部13から取得した補正カメラ姿勢データ51に基づき俯瞰画像25を生成する。画像生成部14は、生成した俯瞰画像25を表示装置23に出力する。 The image generator 14 generates a bird's-eye view image 25 based on the captured image 3 acquired from the camera 2 and the corrected camera posture data 51 acquired from the corrector 13 . The image generator 14 outputs the generated overhead image 25 to the display device 23 .

以上、詳細に説明したように、本実施の形態に係る画像生成装置は、移動体に搭載された複数のカメラにより生成された複数の撮影画像からカメラの姿勢データを用いて視点変換画像を生成する画像生成装置であって、第1距離検出部と、第2距離検出部と、傾斜角算出部と、補正部と、画像生成部と、を備える。第1距離検出部は、移動体に搭乗者が乗車する前に、移動体の左方向または右方向に存在する物体と移動体との距離を、第1距離として検出する。第2距離検出部は、移動体に搭乗者が乗車した後に、移動体の左方向または右方向に存在する物体と移動体との距離を、第2距離として検出する。傾斜角算出部は、第1距離および第2距離に基づき、搭乗者が移動体に搭乗する前後における移動体の横方向の傾斜角の変化量である傾斜角変化量を算出する。補正部は、傾斜角変化量、第1距離および第2距離に基づき姿勢データを補正する。画像生成部は、補正された姿勢データを用いて、生成された複数の画像から視点変換画像を生成する。 As described in detail above, the image generating apparatus according to the present embodiment generates a viewpoint-transformed image from a plurality of photographed images generated by a plurality of cameras mounted on a moving object, using camera orientation data. An image generating device for detecting an object, comprising a first distance detecting section, a second distance detecting section, an inclination angle calculating section, a correcting section, and an image generating section. The first distance detection unit detects, as a first distance, a distance between an object existing on the left side or the right side of the mobile body and the mobile body before the passenger gets on the mobile body. The second distance detection unit detects, as a second distance, a distance between an object existing on the left side or the right side of the moving body and the moving body after the passenger gets on the moving body. The tilt angle calculation unit calculates a tilt angle change amount, which is a change amount of the tilt angle in the lateral direction of the moving body before and after the passenger boards the moving body, based on the first distance and the second distance. The correction unit corrects the posture data based on the tilt angle change amount, the first distance, and the second distance. The image generator uses the corrected orientation data to generate a viewpoint-transformed image from the plurality of generated images.

これにより、移動体の姿勢が変化した場合であっても、仮想視点画像において繋ぎ合わせた画像間のずれの発生を抑制することができる。 With this, even when the posture of the moving object changes, it is possible to suppress the occurrence of a deviation between the images that are joined together in the virtual viewpoint image.

また、本実施の形態に係る画像生成装置では、カメラは、移動体の左側に搭載された左サイドカメラと移動体の右側に搭載された右サイドカメラを備え、傾斜角算出部は、移動体の左方向と右方向の両方に物体が存在する場合、移動体と左方向の物体との第1距離および第2距離に基づき傾斜角変化量を左方傾斜角変化量として算出し、移動体と前記右方向の物体との第1距離および第2距離に基づき傾斜角変化量を右方傾斜角変化量として算出し、補正部は、左サイドカメラの姿勢データを左方傾斜角変化量に基づき補正し、右サイドカメラの姿勢データを右方傾斜角変化量に基づき補正する。 Further, in the image generation device according to the present embodiment, the cameras include a left-side camera mounted on the left side of the moving body and a right-side camera mounted on the right side of the moving body, and the tilt angle calculation unit If there are objects on both the left and right sides of the moving body, the tilt angle change amount is calculated as the left tilt angle change amount based on the first distance and the second distance between the moving body and the object on the left side. and the first distance and the second distance from the object in the right direction, the amount of change in the tilt angle is calculated as the amount of change in the right tilt angle. The posture data of the right side camera is corrected based on the right tilt angle change amount.

これにより、移動体の姿勢が変化した場合であっても、左右カメラの姿勢データをそれぞれ補正でき、仮想視点画像において繋ぎ合わせた画像間のずれの発生を抑制することができる。 Thereby, even if the posture of the moving object changes, the posture data of the left and right cameras can be corrected, respectively, and the occurrence of deviation between the images joined together in the virtual viewpoint images can be suppressed.

また、本実施の形態に係る画像生成装置では、カメラは、移動体の左側に搭載された左サイドカメラと移動体の右側に搭載された右サイドカメラを備え、傾斜角算出部は、移動体の左方向と右方向のいずれか一方に物体が存在する場合、移動体と存在する物体との第1距離および第2距離に基づき傾斜角変化量を共通の傾斜角変化量として算出し、補正部は、左サイドカメラと右サイドカメラのうち、物体が存在しない側に搭載されたサイドカメラの姿勢データを共通の傾斜角変化量に基づき補正する。 Further, in the image generation device according to the present embodiment, the cameras include a left-side camera mounted on the left side of the moving body and a right-side camera mounted on the right side of the moving body, and the tilt angle calculation unit If an object exists in either the left or right direction of the moving object, the tilt angle change amount is calculated as a common tilt angle change amount based on the first distance and the second distance between the moving object and the existing object, and corrected The section corrects the attitude data of the side camera mounted on the side where the object does not exist, out of the left side camera and the right side camera, based on the common tilt angle change amount.

これによれば、移動体の左右いずれかに物体が存在しない場合であっても、物体の存在しない側に搭載されたサイドカメラの姿勢データを補正できるため、仮想視点画像において繋ぎ合わせた画像間のずれの発生を抑制することができる。 According to this, even if an object does not exist on either the left or right side of the moving body, the attitude data of the side camera mounted on the side where the object does not exist can be corrected. It is possible to suppress the occurrence of deviation.

また、本実施の形態に係る画像生成装置では、補正部は、移動体の左方向と右方向のどちらにも物体が存在しない場合、姿勢データの補正を禁止する。 In addition, in the image generating apparatus according to the present embodiment, the correcting unit prohibits correcting the orientation data when there is no object on either the left side or the right side of the moving body.

これによれば、姿勢データが間違って補正されてしまうことを防止できる。 According to this, it is possible to prevent the attitude data from being erroneously corrected.

[変形例]
上記実施の形態において、距離検出部11は、レーダ装置を例とする測距センサ4により第1距離および第2距離を検出したが、これに限らない。距離検出部11は、画像認識により第1距離と第2距離を検出してもよい。その場合、測距センサ4の代わりにカメラ2を用いることができる。具体的には、第1距離検出部111は、時点T1でカメラ2を起動し、撮影画像3を取得して記憶する。第1距離検出部111は、撮影画像3に映る物体の路面との接地点を検出する。例えば、物体が隣接車両である場合、第1距離検出部111は、撮影画像3において隣接車両のタイヤを検出し、撮影画像3におけるタイヤの最下点のピクセル位置より第1距離を検出する。第2距離検出部112も同様に、時点T2における撮影画像3より第2距離を検出する。これにより、測距センサ4をカメラ2と兼用することができるため、コストダウンになる。
[Modification]
In the above-described embodiment, the distance detection unit 11 detects the first distance and the second distance by the distance measurement sensor 4 exemplified by a radar device, but the present invention is not limited to this. The distance detection unit 11 may detect the first distance and the second distance by image recognition. In that case, the camera 2 can be used instead of the ranging sensor 4 . Specifically, the first distance detection unit 111 activates the camera 2 at time T1, acquires the captured image 3, and stores it. The first distance detection unit 111 detects the contact point of the object appearing in the captured image 3 with the road surface. For example, when the object is an adjacent vehicle, the first distance detection unit 111 detects the tires of the adjacent vehicle in the captured image 3 and detects the first distance from the pixel position of the lowest point of the tire in the captured image 3 . Similarly, the second distance detection unit 112 detects the second distance from the captured image 3 at time T2. As a result, the distance measuring sensor 4 can also be used as the camera 2, resulting in cost reduction.

上記実施の形態において、距離検出部11は、移動体に搭乗者が乗車する前の時点T1をアンロック信号7により検出したが、これに限らない。距離検出部11は、移動体に搭乗者が乗車する前であることを検出できれば、いかなる信号を使用してもよい。例えば、距離検出部11は、ドア開閉スイッチにより車両1のいずれかのドアが開いたことを検出した時点を時点T1としてもよい。 In the above-described embodiment, the distance detection unit 11 detects the time T1 before the passenger gets on the moving object by means of the unlock signal 7, but the present invention is not limited to this. Any signal may be used by the distance detection unit 11 as long as it can detect that the vehicle is before the passenger gets on the vehicle. For example, the distance detection unit 11 may set the point of time T1 to be the point of time when it is detected that one of the doors of the vehicle 1 is opened by the door opening/closing switch.

上記実施の形態において、距離検出部11は、移動体に搭乗者が乗車した後の時点T2をIGスイッチ8により検出したが、これに限らない。距離検出部11は、移動体に搭乗者が乗車したことを検出できればいかなる信号を使用してもよい。例えば、距離検出部11は、ACCスイッチのオン信号、シートに設けられる着座センサ、ブレーキのオン信号、シフト位置センサによるシフト位置の切換などにより、移動体に搭乗者が乗車したことを検出してもよい。 In the above-described embodiment, the distance detection unit 11 detects the time T2 after the passenger has boarded the moving object by means of the IG switch 8, but the present invention is not limited to this. The distance detection unit 11 may use any signal as long as it can detect that the passenger has boarded the moving body. For example, the distance detection unit 11 detects that the passenger has boarded the moving object by means of an ACC switch ON signal, a seating sensor provided on the seat, a brake ON signal, a shift position switch by a shift position sensor, or the like. good too.

上記実施の形態において、時点T1で検出した第1距離Xaと、時点T2で検出した第2距離Xbとは、同じ隣接物体と車両1との距離であると見做している。搭乗者がドアをアンロックしてからIGスイッチ8をオンするまでの時間は短時間であるため、その間に隣接物体が別の物体と入れ替わる可能性が低いためである。しかしながら、時点T1から時点T2までの時間が長い場合は、その間に隣接物体が他の物体と入れ替わっている可能性が高くなる。隣接物体が入れ替わると、第1距離Xaと第2距離Xbは、異なる物体との距離になるため、傾斜角算出部12は間違った傾斜角変化量θを算出してしまう。それにより、補正部13は、初期カメラ姿勢データ41を間違った値に補正してしまう。そこで、補正部13は、時点T1から時点T2までの経過時間を計測し、その経過時間が所定時間を超えた場合は、初期カメラ姿勢データ41の補正を禁止するようにしてもよい。これにより、補正部13が、初期カメラ姿勢データ41を間違った値に補正することを防止できる。 In the above embodiment, the first distance Xa detected at time T1 and the second distance Xb detected at time T2 are assumed to be the distances between the same adjacent object and the vehicle 1 . This is because the time from when the passenger unlocks the door to when the IG switch 8 is turned on is short, and the possibility of the adjacent object being replaced with another object during that time is low. However, if the time from time T1 to time T2 is long, there is a high possibility that the adjacent object will be replaced with another object during that time. When the adjacent objects are replaced, the first distance Xa and the second distance Xb become distances to different objects, so the tilt angle calculator 12 incorrectly calculates the tilt angle change amount θ. As a result, the correction unit 13 corrects the initial camera posture data 41 to an incorrect value. Therefore, the correction unit 13 may measure the elapsed time from the time T1 to the time T2, and prohibit the correction of the initial camera posture data 41 when the elapsed time exceeds a predetermined time. This prevents the correction unit 13 from correcting the initial camera posture data 41 to an incorrect value.

また、上記実施の形態において、画像生成装置10の各機能ブロックは、LSIなどの半導体装置により個別に1チップ化されてもよいし、一部又は全部を含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Further, in the above embodiment, each functional block of the image generation device 10 may be individually integrated into one chip by a semiconductor device such as an LSI, or may be integrated into one chip so as to include a part or all of them. . Although LSI is used here, it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Fi eld Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 The method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connections and settings of the circuit cells inside the LSI may be used.

また、画像生成装置10により実行される処理の一部または全部は、プログラムにより実現されてもよい。そして、上記各実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。 Also, part or all of the processing executed by the image generation device 10 may be implemented by a program. Part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in a computer. A program for performing each process is stored in a storage device such as a hard disk or ROM, and is read from the ROM or RAM and executed.

また、上記実施の形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。 Further, each process of the above embodiment may be realized by hardware, or may be realized by software (including cases where it is realized together with an OS (operating system), middleware, or a predetermined library). . Furthermore, it may be realized by mixed processing of software and hardware.

また、上記実施の形態における処理方法の実行順序は、上記実施の形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で実行順序を入れ替えてもよい。 Also, the execution order of the processing methods in the above embodiments is not limited to the description of the above embodiments, and the execution order may be changed without departing from the spirit of the invention.

前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。 A computer program that causes a computer to execute the method described above and a computer-readable recording medium that records the program are included in the scope of the present invention. Examples of computer-readable recording media include flexible disks, hard disks, CD-ROMs, MOs, DVDs, DVD-ROMs, DVD-RAMs, large-capacity DVDs, next-generation DVDs, and semiconductor memories. .

以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するための例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。 Although the embodiments of the present invention have been described above, the above-described embodiments are merely examples for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiment, and can be implemented by appropriately modifying the above-described embodiment without departing from the spirit of the present invention.

1 車両
2F、2L、2R、2B カメラ
4L、4R 測距センサ
10 画像生成装置
11 距離検出部
12 傾斜角算出部
13 補正部
14 画像生成部
15 記憶部
1 Vehicles 2F, 2L, 2R, 2B Cameras 4L, 4R Ranging Sensor 10 Image Generating Device 11 Distance Detecting Unit 12 Tilt Angle Calculating Unit 13 Correcting Unit 14 Image Generating Unit 15 Storage Unit

Claims (5)

移動体に搭載された複数のカメラにより生成された複数の撮影画像から前記カメラの姿勢データを用いて視点変換画像を生成する画像生成装置であって、
前記移動体に搭乗者が乗車する前に、前記移動体の左方向または右方向に存在する物体と前記移動体との距離を、第1距離として検出する第1距離検出部と、
前記移動体に搭乗者が乗車した後に、前記移動体の左方向または右方向に存在する物体と前記移動体との距離を、第2距離として検出する第2距離検出部と、
前記第1距離および前記第2距離に基づき、前記搭乗者が前記移動体に搭乗する前後における前記移動体の横方向の傾斜角の変化量である傾斜角変化量を算出する傾斜角算出部と、
前記傾斜角変化量、前記第1距離および前記第2距離に基づき前記姿勢データを補正する補正部と、
前記補正された前記姿勢データを用いて、前記生成された複数の撮影画像から前記視点変換画像を生成する画像生成部と、を備える画像生成装置。
An image generation device for generating a viewpoint-transformed image from a plurality of captured images generated by a plurality of cameras mounted on a mobile object using posture data of the cameras,
a first distance detection unit that detects, as a first distance, a distance between an object existing on the left side or the right side of the moving body and the moving body before a passenger gets on the moving body;
a second distance detection unit configured to detect, as a second distance, a distance between an object existing on the left side or the right side of the moving body and the moving body after the passenger has boarded the moving body;
a tilt angle calculation unit that calculates a tilt angle change amount, which is a change amount of the tilt angle in the horizontal direction of the moving object before and after the passenger boards the moving object, based on the first distance and the second distance; ,
a correction unit that corrects the posture data based on the tilt angle change amount, the first distance, and the second distance;
and an image generation unit that generates the viewpoint-transformed image from the plurality of generated photographed images using the corrected orientation data.
請求項1に記載の画像生成装置であって、
前記カメラは、前記移動体の左側に搭載された左サイドカメラと前記移動体の右側に搭載された右サイドカメラを備え、
前記傾斜角算出部は、前記移動体の左方向と右方向の両方に物体が存在する場合、前記移動体と前記左方向の物体との前記第1距離および前記第2距離に基づき前記傾斜角変化量を左方傾斜角変化量として算出し、前記移動体と前記右方向の物体との前記第1距離および前記第2距離に基づき前記傾斜角変化量を右方傾斜角変化量として算出し、
前記補正部は、前記左サイドカメラの前記姿勢データを前記左方傾斜角変化量に基づき補正し、前記右サイドカメラの前記姿勢データを前記右方傾斜角変化量に基づき補正する、画像生成装置。
The image generation device of claim 1, comprising:
The camera comprises a left side camera mounted on the left side of the moving body and a right side camera mounted on the right side of the moving body,
The tilt angle calculator calculates the tilt angle based on the first distance and the second distance between the moving object and the object on the left when there are objects on both the left and right sides of the moving object. The amount of change is calculated as a left tilt angle change amount, and the tilt angle change amount is calculated as a right tilt angle change amount based on the first distance and the second distance between the moving object and the rightward object. ,
The correction unit corrects the posture data of the left side camera based on the left tilt angle change amount, and corrects the posture data of the right side camera based on the right tilt angle change amount. .
請求項1に記載の画像生成装置であって、
前記カメラは、前記移動体の左側に搭載された左サイドカメラと前記移動体の右側に搭載された右サイドカメラを備え、
前記傾斜角算出部は、前記移動体の左方向と右方向のいずれか一方に物体が存在する場合、前記移動体と前記存在する物体との前記第1距離および前記第2距離に基づき前記傾斜角変化量を共通の傾斜角変化量として算出し、
前記補正部は、前記左サイドカメラと右サイドカメラのうち、前記物体が存在しない側に搭載されたサイドカメラの前記姿勢データを前記共通の傾斜角変化量に基づき補正する、画像生成装置。
The image generation device of claim 1, comprising:
The camera comprises a left side camera mounted on the left side of the moving body and a right side camera mounted on the right side of the moving body,
The tilt angle calculation unit calculates the tilt angle based on the first distance and the second distance between the moving body and the existing object when an object exists in either one of the left direction and the right direction of the moving body. Calculate the angle change amount as a common tilt angle change amount,
The image generating device, wherein the correction unit corrects the attitude data of a side camera mounted on a side where the object does not exist, out of the left side camera and the right side camera, based on the common tilt angle change amount.
請求項1に記載の画像生成装置であって、
前記補正部は、前記移動体の左方向と右方向のどちらにも物体が存在しない場合、前記姿勢データの補正を禁止する、画像生成装置。
The image generation device of claim 1, comprising:
The image generating device, wherein the correction unit prohibits correction of the posture data when an object does not exist in either the left direction or the right direction of the moving body.
移動体に搭載された複数のカメラにより生成された複数の撮影画像から前記カメラの姿勢データを用いて視点変換画像を生成する画像生成方法であって、
前記移動体に搭乗者が乗車する前に、前記移動体の左方向または右方向に存在する物体と前記移動体との距離を、第1距離として検出するステップと、
前記移動体に搭乗者が乗車した後に、前記移動体の左方向または右方向に存在する物体と前記移動体との距離を、第2距離として検出するステップと、
前記第1距離および前記第2距離に基づき、前記搭乗者が前記移動体に搭乗する前後における前記移動体の横方向の傾斜角の変化量である傾斜角変化量を算出するステップと、
前記傾斜角変化量、前記第1距離および前記第2距離に基づき前記姿勢データを補正するステップと、
前記補正された前記姿勢データを用いて、前記生成された複数の撮影画像から前記視点変換画像を生成するステップと、を備える画像生成方法。
An image generation method for generating a viewpoint-transformed image from a plurality of captured images generated by a plurality of cameras mounted on a moving body using posture data of the cameras,
a step of detecting, as a first distance, a distance between an object present on the left side or the right side of the moving body and the moving body before the passenger gets on the moving body;
a step of detecting, as a second distance, a distance between an object existing on the left side or the right side of the moving body and the moving body after the passenger has boarded the moving body;
calculating an inclination angle change amount, which is an amount of change in inclination angle in the horizontal direction of the moving body before and after the passenger boards the moving body, based on the first distance and the second distance;
correcting the posture data based on the tilt angle change amount, the first distance, and the second distance;
and generating the viewpoint-transformed image from the plurality of generated photographed images using the corrected posture data.
JP2019060291A 2019-03-27 2019-03-27 image generator Active JP7188228B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019060291A JP7188228B2 (en) 2019-03-27 2019-03-27 image generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060291A JP7188228B2 (en) 2019-03-27 2019-03-27 image generator

Publications (2)

Publication Number Publication Date
JP2020162020A JP2020162020A (en) 2020-10-01
JP7188228B2 true JP7188228B2 (en) 2022-12-13

Family

ID=72640026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060291A Active JP7188228B2 (en) 2019-03-27 2019-03-27 image generator

Country Status (1)

Country Link
JP (1) JP7188228B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7401614B1 (en) 2022-08-19 2023-12-19 株式会社デンソーテン Information processing device, information processing method and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151524A (en) 2007-12-20 2009-07-09 Alpine Electronics Inc Image display method and image display apparatus
JP2009253571A (en) 2008-04-04 2009-10-29 Clarion Co Ltd Monitor video image generation device for vehicle
WO2013058093A1 (en) 2011-10-18 2013-04-25 日立建機株式会社 Device for monitoring surroundings of machinery
JP2015106777A (en) 2013-11-29 2015-06-08 株式会社富士通ゼネラル Image processing system, operation support device, navigation device, and camera device
WO2016052505A1 (en) 2014-09-30 2016-04-07 クラリオン株式会社 Camera calibration device and camera calibration system
WO2017069191A1 (en) 2015-10-20 2017-04-27 クラリオン株式会社 Calibration apparatus, calibration method, and calibration program
JP2017143417A (en) 2016-02-10 2017-08-17 クラリオン株式会社 Calibration system, calibration device
JP2017222258A (en) 2016-06-15 2017-12-21 株式会社Jvcケンウッド Posture change determination device, overhead image generation device, overhead image generation system, posture change determination method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151524A (en) 2007-12-20 2009-07-09 Alpine Electronics Inc Image display method and image display apparatus
JP2009253571A (en) 2008-04-04 2009-10-29 Clarion Co Ltd Monitor video image generation device for vehicle
WO2013058093A1 (en) 2011-10-18 2013-04-25 日立建機株式会社 Device for monitoring surroundings of machinery
JP2015106777A (en) 2013-11-29 2015-06-08 株式会社富士通ゼネラル Image processing system, operation support device, navigation device, and camera device
WO2016052505A1 (en) 2014-09-30 2016-04-07 クラリオン株式会社 Camera calibration device and camera calibration system
WO2017069191A1 (en) 2015-10-20 2017-04-27 クラリオン株式会社 Calibration apparatus, calibration method, and calibration program
JP2017143417A (en) 2016-02-10 2017-08-17 クラリオン株式会社 Calibration system, calibration device
JP2017222258A (en) 2016-06-15 2017-12-21 株式会社Jvcケンウッド Posture change determination device, overhead image generation device, overhead image generation system, posture change determination method, and program

Also Published As

Publication number Publication date
JP2020162020A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
US9981605B2 (en) Surround-view camera system (VPM) and vehicle dynamic
US11693422B2 (en) Sensor array for an autonomously operated utility vehicle and method for surround-view image acquisition
US9986173B2 (en) Surround-view camera system (VPM) online calibration
US9619894B2 (en) System and method for estimating vehicle dynamics using feature points in images from multiple cameras
KR102313026B1 (en) Vehicle and method for collision avoidance assist when backing up the vehicle
US20210109204A1 (en) Calibration of lidar sensors
US10474898B2 (en) Image processing apparatus for vehicle
CN104890671B (en) Trailer lane-departure warning system
CN108886606B (en) Mounting angle detection device, mounting angle calibration device, and mounting angle detection method for in-vehicle camera
US10171796B2 (en) Moving body system
EP3308353B1 (en) Vehicle diagnosis and camera adjustment using a detection of camera inclination angles
JP2008269496A (en) Occupant information detection system, occupant restraint system and vehicle
CN103430044A (en) Dump truck with obstacle detection mechanism, and obstacle detection method thereof
CN103827942A (en) Work vehicle periphery monitoring system, and work vehicle
US9892519B2 (en) Method for detecting an object in an environmental region of a motor vehicle, driver assistance system and motor vehicle
JP2018090108A (en) Parking support device and parking support method
JP7188228B2 (en) image generator
JP6450530B2 (en) In-vehicle camera mounting angle adjustment processing, mounting angle detection device
JP7206938B2 (en) Movement amount calculator
CN113474678B (en) System and method for compensating for movement of a vehicle component
WO2015049154A1 (en) Vehicle having wade sensing apparatus and system
US20220342054A1 (en) Attitude/position detection system and method for detecting attitude/position of detector
JP4622637B2 (en) In-vehicle camera attitude correction device and in-vehicle camera attitude correction method
US20200074208A1 (en) Vehicle and method for controlling the same
JP2007182201A (en) Lane change assistance device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R150 Certificate of patent or registration of utility model

Ref document number: 7188228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150