JP2010074706A - Camera system and camera control method - Google Patents

Camera system and camera control method Download PDF

Info

Publication number
JP2010074706A
JP2010074706A JP2008242126A JP2008242126A JP2010074706A JP 2010074706 A JP2010074706 A JP 2010074706A JP 2008242126 A JP2008242126 A JP 2008242126A JP 2008242126 A JP2008242126 A JP 2008242126A JP 2010074706 A JP2010074706 A JP 2010074706A
Authority
JP
Japan
Prior art keywords
image
unit
camera
moving image
free
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008242126A
Other languages
Japanese (ja)
Inventor
Izuru Kiyokawa
出 清川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008242126A priority Critical patent/JP2010074706A/en
Publication of JP2010074706A publication Critical patent/JP2010074706A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Lenses (AREA)
  • Image Input (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera system and a control method, for displaying a stereoscopic image of a wide range with a large field angle of imaging and little distortion, which is obtained using a plurality of free-curved surface prisms and one imaging element, so as to be easy to view for a user. <P>SOLUTION: The camera system includes: one imaging element for converting an object image to an electric signal in a prescribed cycle; an optical system for image-forming the object images from a plurality of different directions in a prescribed area on the imaging element by the respective free-curved surface prisms; a means for generating a first moving image on the basis of output from the imaging element; a means for dividing the first moving image into partial images corresponding to respective areas; a means for combining the partial images to a second moving image in a prescribed arrangement; a means for displaying the second moving image at a display device; and a means for calculating a distance to an object in common in the two partial images on the basis of the two divided partial images. The respective free-curved surface prisms are capable of forming images as the stereoscopic images. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラを制御するカメラシステムおよびカメラ制御方法に関し、特に、複数のプリズムで光路が制御された異なる方向からの各被写体像を単一の撮像素子で結像したカメラを制御するカメラシステムおよびカメラ制御方法に関する。   The present invention relates to a camera system and a camera control method for controlling a camera, and in particular, a camera system for controlling a camera in which respective subject images from different directions whose optical paths are controlled by a plurality of prisms are formed by a single image sensor. And a camera control method.

近年、車載センサーとしてのカメラや、車両の前方、後方、両サイドを撮像するためのカメラ等、カメラを使用する場面が増えてきている。
このようなカメラに用いられる従来の撮影光学ユニットとしては、撮像レンズの前方にプリズムを配置し、このプリズムより入射された光を結像レンズに通して単一の撮像素子の撮像面で結像させることによって、複数の視野を同時に映し出す構造の車載カメラユニットが知られている(例えば、特許文献1参照。)。
In recent years, there are an increasing number of scenes where a camera is used, such as a camera as an in-vehicle sensor, a camera for imaging the front, rear, and both sides of a vehicle.
As a conventional photographic optical unit used in such a camera, a prism is arranged in front of an imaging lens, and light incident from this prism is passed through an imaging lens to form an image on the imaging surface of a single imaging device. By doing so, an in-vehicle camera unit having a structure for projecting a plurality of fields of view simultaneously is known (see, for example, Patent Document 1).

しかしながら、特許文献1のような撮影光学ユニットを用いた場合、プリズムと撮像素子との間に配される撮像レンズが複合レンズとして構成されており、ホルダ内に内包されて1つのレンズに組み立てられているため、該プリズムの入射位置と撮像素子の受光面との間を、その構造上短縮することが困難であり、したがって撮影光学ユニットそのもののサイズの小型化が困難である。   However, when the photographing optical unit as in Patent Document 1 is used, the imaging lens disposed between the prism and the imaging element is configured as a compound lens, and is enclosed in a holder and assembled into one lens. For this reason, it is difficult to shorten the space between the incident position of the prism and the light receiving surface of the image sensor, and therefore it is difficult to reduce the size of the photographing optical unit itself.

また、従来のこの種の撮影光学ユニットでは、200度程度の画角を持つ魚眼レンズを使用し、必要な画角を切り取り歪補正後に運転者に画像の情報を提供する方法がある(例えば、特許文献2参照。)が、このような撮影光学ユニットを用いた場合も、同様にレンズ構造上短縮するのが困難で撮影光学ユニットそのもののサイズの小型化が困難である。また、魚眼レンズ故に視認性の低い画像しかえられず、歪補正を行うとしても周辺の情報不足により実態とはかけ離れた画像が見えていた。   In addition, in this type of conventional imaging optical unit, there is a method of using a fisheye lens having an angle of view of about 200 degrees, cutting out the required angle of view, and providing image information to the driver after distortion correction (for example, patents). However, when such a photographing optical unit is used, it is difficult to shorten the lens structure, and it is difficult to reduce the size of the photographing optical unit itself. Also, because of the fish-eye lens, only an image with low visibility was obtained, and even if distortion correction was performed, an image far from the actual situation was seen due to lack of surrounding information.

他方、車間距離センサーとしては、レーザやミリ波といった手法を用いてのシステムが使用されている。これらのシステムは、カメラを2個使用してのステレオによる手法も利用されている。このようなシステムの場合、3次元で環境認識ができるため、車両だけでなく歩行者や障害物、車線、道路形状も把握可能となっている(例えば、特許文献3参照。)。   On the other hand, as an inter-vehicle distance sensor, a system using a technique such as laser or millimeter wave is used. These systems also use a stereo method using two cameras. In the case of such a system, since environment recognition can be performed in three dimensions, not only vehicles but also pedestrians, obstacles, lanes, and road shapes can be grasped (see, for example, Patent Document 3).

ところが、このようなステレオカメラ部においては、2個の撮像素子を使用するため、それぞれにレンズ群が必要であり、ステレオ光学系を小型軽量に構成することが難しく、コストがかかってしまう。
特開2000−89301号公報 特開2006−262447号公報 特開2004−258266号公報
However, since such a stereo camera unit uses two image sensors, a lens group is required for each, and it is difficult to configure the stereo optical system to be small and light, and costs increase.
JP 2000-89301 A JP 2006-262447 A JP 2004-258266 A

しかしながら、従来のステレオ撮影光学ユニットは、小型化が困難である上、視認性に優れていない画像しか表示できない、という問題点があった。
本発明は、上述のような実状に鑑みたものであり、複数の自由曲面プリズムと単一の撮像素子とを用いることにより得た、撮像する画角が大きく、かつ、歪の少ない広範囲の画像を、使用者にとって見やすい画像として表示装置に表示させるカメラシステムおよびカメラ制御方法と小型軽量に構成したステレオ測距画像の入力装置を提供することを目的とする。
However, the conventional stereo photographing optical unit has a problem that it is difficult to miniaturize and that only an image having poor visibility can be displayed.
The present invention has been made in view of the above-described circumstances, and has a wide range of images with a large angle of view and small distortion obtained by using a plurality of free-form surface prisms and a single image sensor. An object of the present invention is to provide a camera system and a camera control method for displaying the image on the display device as an image that is easy for the user to see, and a stereo distance measuring image input device configured in a small and lightweight manner.

本発明は、上記課題を解決するため、下記のような構成を採用した。
すなわち、本発明の一態様によれば、本発明のカメラシステムは、所定の周期で被写体像を電気信号に変換する単一の撮像素子と、複数の自由曲面プリズムで構成され、複数の異なる方向からの被写体像をそれぞれ前記各自由曲面プリズムによって前記撮像素子上の所定の領域に結像させる光学系と、前記撮像素子から出力した電気信号に基づいて第1の動画像を生成する動画像生成手段と、前記動画像生成手段によって生成された前記第1の動画像を前記各領域に対応する部分画像に分割する像分割手段と、前記像分割手段によって分割された前記部分画像を所定の配置で第2の動画像に合成する像合成手段と、前記像合成手段によって合成された前記第2の動画像を表示装置に表示させる表示制御手段と、前記像分割手段によって分割された少なくとも2つの部分画像に基づいて、前記2つの部分画像中に共通する被写体までの距離を算出する距離算出手段とを備え、前記各自由プリズムが、前記複数の方向のうち、少なくとも2つの方向は略同方向であり、その僅かな方向のズレによりステレオ画像として結像することが可能であることを特徴とする。
The present invention employs the following configuration in order to solve the above problems.
That is, according to one aspect of the present invention, the camera system of the present invention includes a single image sensor that converts an object image into an electrical signal at a predetermined period and a plurality of free-form surface prisms, and a plurality of different directions. An optical system that forms an image of the subject from each of the subject images on a predetermined region on the image sensor by each free-form surface prism, and a moving image generator that generates a first moving image based on an electrical signal output from the image sensor Means, image dividing means for dividing the first moving image generated by the moving image generating means into partial images corresponding to the respective regions, and the partial images divided by the image dividing means in a predetermined arrangement The image synthesizing unit for synthesizing the second moving image with the image synthesizing unit, the display control unit for displaying the second moving image synthesized by the image synthesizing unit on the display device, and the image dividing unit. Distance calculating means for calculating a distance to a subject common to the two partial images based on at least two partial images, wherein each free prism has at least two directions among the plurality of directions. Are substantially in the same direction, and can be formed as a stereo image by a slight shift in the direction.

また、本発明のカメラシステムは、前記光学系が、被写体に対して前記撮像素子の直前に配置されていることが望ましい。
また、本発明のカメラシステムは、前記各領域が重ならないように前記各自由曲面プリズムが配置されていることが望ましい。
In the camera system of the present invention, it is preferable that the optical system is disposed immediately before the image sensor with respect to a subject.
In the camera system of the present invention, it is desirable that the free-form surface prisms are arranged so that the regions do not overlap.

また、本発明のカメラシステムは、ステレオカメラ部とカメラ制御部を備え、前記ステレオカメラ部が、前記撮像素子と前記光学系を有し、前記カメラ制御部が、前記動画像生成手段と前記像分割手段と前記像合成手段と前記表示制御手段と前記距離算出手段とを有することが望ましい。   The camera system of the present invention includes a stereo camera unit and a camera control unit, the stereo camera unit includes the imaging element and the optical system, and the camera control unit includes the moving image generation unit and the image. It is desirable to have a dividing means, the image composition means, the display control means, and the distance calculation means.

また、本発明のカメラシステムは、前記ステレオカメラ部が、車両の外部を撮像するように前記車両に配置されていることが望ましい。
また、本発明のカメラシステムは、前記2つの方向が、前記車両の前方方向または後方方向であることが望ましい。
In the camera system of the present invention, it is preferable that the stereo camera unit is disposed in the vehicle so as to capture the outside of the vehicle.
In the camera system of the present invention, it is desirable that the two directions are a front direction or a rear direction of the vehicle.

また、本発明の一態様によれば、本発明のカメラ制御方法は、所定の周期で被写体像を電気信号に変換する単一の撮像素子と、複数の自由曲面プリズムで構成され、複数の異なる方向からの被写体像をそれぞれ前記各自由曲面プリズムによって前記撮像素子上の所定の領域に結像させる光学系とを備えるステレオカメラを制御するカメラ制御方法である。そして、前記撮像素子から出力した電気信号に基づいて第1の動画像を生成し、前記生成された前記第1の動画像を前記各領域に対応する部分画像に分割し、前記分割された前記部分画像を所定の配置で第2の動画像に合成し、前記合成された前記第2の動画像を表示装置に表示させ、前記分割された少なくとも2つの部分画像に基づいて、前記2つの部分画像中に共通する被写体までの距離を算出することを特徴とする。   Further, according to one aspect of the present invention, the camera control method of the present invention includes a single image sensor that converts a subject image into an electrical signal at a predetermined period and a plurality of free-form surface prisms. This is a camera control method for controlling a stereo camera including an optical system that forms a subject image from a direction on a predetermined region on the image sensor by each free-form curved prism. Then, a first moving image is generated based on the electrical signal output from the imaging device, the generated first moving image is divided into partial images corresponding to the respective regions, and the divided A partial image is combined with a second moving image in a predetermined arrangement, the combined second moving image is displayed on a display device, and the two portions are based on the at least two divided partial images. It is characterized in that a distance to a subject common in the image is calculated.

本発明によれば、撮像する画角が大きく、かつ、歪の少ない広範囲の画像を、使用者にとって見やすい画像として表示装置に表示させることが可能となる。
また、小型軽量に構成したステレオ測距画像の入力装置を提供できる。
According to the present invention, it is possible to display a wide range of images with a large angle of view and a small distortion on the display device as images that are easy for the user to see.
Further, it is possible to provide a stereo ranging image input device that is small and lightweight.

以下、本発明の実施の形態について図面を参照しながら説明する。
図1は、撮影光学ユニットの外観を表す図(その1)であり、図2は、撮影光学ユニットの外観を表す図(その2)であり、図3は、図1および図2に示した撮影光学ユニットの分解状態を示した図であり、図4は、図1におけるA−A断面を示した図であり、図5は、フレーム部分の外観を表す図(その1)であり、図6は、フレーム部分の外観を表す図(その2)である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram (part 1) showing the appearance of the photographing optical unit, FIG. 2 is a diagram (part 2) showing the appearance of the photographing optical unit, and FIG. 3 is shown in FIG. 1 and FIG. FIG. 4 is a diagram illustrating a disassembled state of the photographing optical unit, FIG. 4 is a diagram illustrating an AA cross section in FIG. 1, and FIG. 5 is a diagram (part 1) illustrating an appearance of a frame portion. FIG. 6 is a diagram (part 2) illustrating the appearance of the frame portion.

フレーム1は、複数個の自由曲面プリズム4、5、6、22を組み入れるためのものである(図3参照)。このフレーム1には、長手方向の中央部分に天面壁1aから底面壁1bに向けて貫通孔hが形成されており、天面壁1a、底面壁1bの両側に位置する傾斜側壁1c、1dには該貫通孔hに連通するように切り欠かれた区画凹所e1〜e4が設けられている。そして、該区画凹所e1〜e4の底部の対向位置には、2つで1組になる座部t1〜t8が形成されている(図3参照)。 The frame 1 is for incorporating a plurality of free-form curved prisms 4, 5, 6, and 22 (see FIG. 3). A through hole h is formed in the frame 1 at the center in the longitudinal direction from the top wall 1a to the bottom wall 1b. The inclined sidewalls 1c and 1d located on both sides of the top wall 1a and the bottom wall 1b Partition recesses e 1 to e 4 that are notched so as to communicate with the through hole h are provided. Then, in the position facing the bottom of the compartment recesses e 1 to e 4, the seat t 1 ~t 8 becomes 2 Tsude pair is formed (see FIG. 3).

また、ホルダ2は、前記フレーム1を載置するためのものであり、カバー体3は、このホルダ2に合わさって自由曲面プリズム4、5、6、22をフレーム1とともに内側に収納するためのものである。カバー体3には、自由曲面プリズム4、5、6、22の第1面(入射面)において開口する窓孔3a〜3cが設けられており、フレーム1とは螺子や接着によって着脱自在に固定される。カバー体3の窓孔3a〜3cには、異物の侵入を防止するためカバーガラス等が適宜設けられ、窓孔3a〜3cの開放角度は、自由曲面プリズム4、5、6、22の性能(撮影できる視野の範囲)や絞りに応じて設定される。   The holder 2 is for mounting the frame 1, and the cover body 3 is for fitting the free curved prisms 4, 5, 6, 22 together with the frame 1 inside the cover 1. Is. The cover body 3 is provided with window holes 3a to 3c that open on the first surfaces (incident surfaces) of the free-form curved prisms 4, 5, 6, and 22, and is detachably fixed to the frame 1 by screws or adhesion. Is done. A cover glass or the like is appropriately provided in the window holes 3a to 3c of the cover body 3 in order to prevent intrusion of foreign matter. It is set according to the field of view that can be taken) and the aperture.

また、自由曲面プリズム4(以下、第1の光学素子ということもある。)は、左側視野を真横(カバー体3に形成された凹部である窓孔3cの外表面)から前方に向けて角度θ1:60度の範囲で撮影を可能とした自由曲面のプリズムである(図3、図4、図8参照)。 The free-form surface prism 4 (hereinafter also referred to as the first optical element) has an angle from the left side of the field of view to the front side from the side (the outer surface of the window hole 3c, which is a recess formed in the cover body 3). θ 1 : A free-form surface prism that enables photographing within a range of 60 degrees (see FIGS. 3, 4, and 8).

自由曲面プリズム(以下、第2の光学素子ということもあり、外観形状は自由曲面プリズム4と同じ。)5は、第1の光学素子4と同様の自由曲面のプリズムである(図3参照)。この第2の光学素子5は、入射面である第1面を第1の光学素子4とは正反対に指向させて貫通孔hに並列に配置されるものであり、右側の視野を真横から前方に向かって角度θ2:60度の範囲で撮影することが可能になっている。ここで、正反転に配置するとは、具体的に図3に示したように、第1の光学素子4に対し撮像素子15へ向かう軸上主光線の周りで180度回転させて相互に平行となる配置をいう。 A free-form surface prism (hereinafter also referred to as a second optical element, and the external shape is the same as the free-form surface prism 4) 5 is a free-form surface prism similar to the first optical element 4 (see FIG. 3). . The second optical element 5 is arranged in parallel with the through-hole h with the first surface, which is the incident surface, directed in the opposite direction to the first optical element 4, and the right field of view is frontward from the side. It is possible to take an image in the range of angle θ 2 : 60 degrees toward. Here, the arrangement in the normal inversion means that, as specifically shown in FIG. 3, the first optical element 4 is rotated by 180 degrees around the axial principal ray toward the image pickup element 15 and parallel to each other. The arrangement which becomes.

また、自由曲面プリズム(以下、第3の光学素子ということもある。)6は、第1の光学素子4、第2の光学素子5と同様の構成になる自由曲面のプリズムである(図3参照)。この第3の光学素子6は、第2の光学素子5とは入射面である第1面6aの向きを正反対に指向させて貫通孔hに並列に配置されるものであり(図3参照)、その第1面6aの入側には三角柱状あるいは台形状等にて形成された前段プリズム7が配置されている(図1〜4参照)。   A free-form surface prism (hereinafter also referred to as a third optical element) 6 is a free-form surface prism having the same configuration as the first optical element 4 and the second optical element 5 (FIG. 3). reference). The third optical element 6 is arranged in parallel to the through hole h with the first surface 6a, which is the incident surface, facing the second optical element 5 in the opposite direction (see FIG. 3). A first stage prism 7 formed in a triangular prism shape or a trapezoidal shape or the like is disposed on the entrance side of the first surface 6a (see FIGS. 1 to 4).

前段プリズム7より入射された光は、第3の光学素子6を経て撮像素子15において結像される。すなわち、該第3の光学素子6は、真正面を基準に右側、左側へそれぞれ30度、合計で角度θ3:60度の範囲における視野(前方視野)の撮影を可能としている。 The light incident from the front stage prism 7 passes through the third optical element 6 and forms an image on the imaging element 15. That is, the third optical element 6 can photograph a field of view (front field of view) in a range of 30 degrees to the right side and the left side with respect to the straight front and a total angle θ 3 : 60 degrees.

また、自由曲面プリズム(以下、第4の光学素子ということもある。)22は、第1の光学素子4、第2の光学素子5、第3の光学素子6と同様の構成になる自由曲面のプリズムである(図3参照)。この第4の光学素子22は、第3の光学素子6とは入射面である第1面6aの向きを正反対に指向させて貫通孔hに並列に配置されるものであり(図3参照)、その第1面6aの入側には、前段プリズム7と同様の三角柱状あるいは台形状等にて形成された前段プリズム21が対称の位置に配置されている(図1〜4参照)。   A free-form surface prism (hereinafter sometimes referred to as a fourth optical element) 22 is a free-form surface that has the same configuration as the first optical element 4, the second optical element 5, and the third optical element 6. (See FIG. 3). The fourth optical element 22 is arranged in parallel with the through hole h with the first surface 6a, which is the incident surface, facing the third optical element 22 in the opposite direction (see FIG. 3). On the entrance side of the first surface 6a, a pre-stage prism 21 formed in a triangular prism shape or a trapezoidal shape similar to the pre-stage prism 7 is disposed at a symmetrical position (see FIGS. 1 to 4).

前段プリズム21より入射された光は、第4の光学素子22を経て撮像素子15において結像される。すなわち、該第4の光学素子22は、第3の光学素子6と同様、真正面を基準に右側、左側へそれぞれ30度、合計で角度θ4:60度の範囲における視野(前方視野)の撮影を可能としている。 The light incident from the front prism 21 is imaged on the image sensor 15 via the fourth optical element 22. That is, the fourth optical element 22, like the third optical element 6, captures a field of view (front field of view) in the range of 30 degrees to the right and left with respect to the straight front, and a total angle θ 4 : 60 degrees. Is possible.

ただし、第3の光学素子6と第4の光学素子22とは、後述するように視野が僅かにずれている。
さらに、弾性舌片8(8a〜8d)は、フレーム1の天面壁1aにねじ止めあるいは接着により設けられ、第1〜3の光学素子4〜6の上端に弾性接触してフレーム1に強固に固定保持する弾性舌片である(図3〜6参照)。この弾性舌片8は、片持ち支持になる板ばね等を例として示してあり、その先端にはシリコンゴムの如き緩衝部材9(9a〜9d)が設けられている。
However, the visual field of the third optical element 6 and the fourth optical element 22 is slightly shifted as will be described later.
Further, the elastic tongue 8 (8a to 8d) is provided on the top wall 1a of the frame 1 by screwing or bonding, and elastically contacts the upper ends of the first to third optical elements 4 to 6 so as to be firmly attached to the frame 1. It is the elastic tongue piece fixedly held (refer FIGS. 3-6). This elastic tongue piece 8 is shown as an example of a leaf spring or the like that is cantilevered, and a buffer member 9 (9a to 9d) such as silicon rubber is provided at the tip.

撮像素子15の下側には基板(フレキシブルプリント基板等)17を介して放熱板18が設けられ、該撮像素子15の上には保護板19(ガラス等)が設けられている。基板17、放熱板18、保護板19は、撮像素子15とともにホルダ2の貫通開口においてフレーム1の貫通孔hに対応するよう配置されている(パッケージ化されている)。撮像素子15は、シリコンシート等の絶縁部材を配置することにより、基板17、放熱板18とは適宜絶縁処理がなされている。   A heat radiating plate 18 is provided below the image sensor 15 via a substrate (flexible printed circuit board or the like) 17, and a protective plate 19 (glass or the like) is provided on the image sensor 15. The substrate 17, the heat radiating plate 18, and the protection plate 19 are arranged (packaged) so as to correspond to the through hole h of the frame 1 in the through opening of the holder 2 together with the imaging element 15. The imaging element 15 is appropriately insulated from the substrate 17 and the heat radiating plate 18 by disposing an insulating member such as a silicon sheet.

上記のような構成の撮影光学ユニットにおいては、第1の光学素子4を通して出射された光が右側60度の視野として撮像素子15において結像され、第2の光学素子5を通して出射された光が左側60度の視野として撮像素子15において並列に結像され、さらに、前段プリズム7及び第3の光学素子6と、前段プリズム21及び第4の光学素子22とを通して出射された光が前方60度の視野として撮像素子15において並列に結像される。すなわち、単一の撮像素子15において4つの視野が並列に結像される。このような構成の撮影光学ユニットにおいては、右側から左側、あるいは左側から右側にわたる180度の範囲における撮影が可能となり、さらに前方のステレオ画像撮影が可能となる。   In the imaging optical unit configured as described above, the light emitted through the first optical element 4 is imaged on the imaging element 15 as a visual field of 60 degrees on the right side, and the light emitted through the second optical element 5 is The left image is formed in parallel on the image sensor 15 as a field of view of 60 degrees, and light emitted through the front stage prism 7 and the third optical element 6 and the front stage prism 21 and the fourth optical element 22 is forward 60 degrees. Are imaged in parallel in the imaging device 15 as a field of view. That is, four fields of view are imaged in parallel in the single image sensor 15. In the photographic optical unit having such a configuration, it is possible to shoot in the range of 180 degrees from the right side to the left side or from the left side to the right side, and further, it is possible to shoot a front stereo image.

本発明の実施の形態では、右側60度、左側60度、前方60度の範囲における視野を結像させる撮影光学ユニットを例として説明したが、撮影可能な視野の範囲は使用する自由曲面プリズム4、5、6、22そのものの性能や組合せによって適宜変更することができるものであり、各自由曲面プリズム4、5、6、22の視野が60度の範囲に限定されるものではない。   In the embodiment of the present invention, the photographing optical unit that forms an image in the field of 60 degrees on the right side, 60 degrees on the left side, and 60 degrees on the front side has been described as an example. The field of view of each free-form curved prism 4, 5, 6, 22 is not limited to the range of 60 degrees.

また、第1の光学素子4と第2の光学素子5の2つのみで撮影光学ユニットを構成してもよいし、第3の光学素子6と第4の光学素子22の2つのみでステレオ撮影光学ユニットを構成してもよいし、左側又は右側の何れか一方と、前方あるいは後方の何れか一方の視野を結像させるように別の光学素子を組み込んで撮影光学ユニットを構成することも可能である。このような構成では光学素子の設置個数が少なくて済む分、構造をより簡素化することができ撮影光学ユニット自体のさらなる小型化が可能となる。   Further, the photographing optical unit may be constituted by only two of the first optical element 4 and the second optical element 5, or stereo by only two of the third optical element 6 and the fourth optical element 22. A photographic optical unit may be configured, or a photographic optical unit may be configured by incorporating another optical element so that either the left side or the right side and either the front or rear field of view are imaged. Is possible. In such a configuration, since the number of installed optical elements is small, the structure can be further simplified, and the photographing optical unit itself can be further downsized.

また、360度の視野を撮像することを可能にするために、本実施の形態に示した構成の撮影光学ユニットを2組み背面合わせとした構成を採用することはもちろん、さらに上下に組み込んだ構成を採用することもできる。   In addition, in order to be able to image a 360-degree field of view, it is possible to adopt a configuration in which two sets of imaging optical units having the configuration shown in the present embodiment are combined on the back side, as well as a configuration in which the imaging optical unit is further vertically integrated. Can also be adopted.

本発明を提供した撮影光学ユニットは、特に車両に搭載して外部の視野を撮影するのに好適であるばかりでなく、車両の内部に設置して車両の内外を監視する監視カメラとしても有用であり、またカプセル型内視鏡等にも適用し得る。   The imaging optical unit provided with the present invention is not only suitable for being mounted on a vehicle and photographing an external field of view, but is also useful as a surveillance camera that is installed inside a vehicle and monitors the inside and outside of the vehicle. Yes, it can also be applied to capsule endoscopes and the like.

図7は、撮影光学ユニットを車両に搭載した例を示す図である。
図7に示すように、左右両方向を同時に撮影可能とする本発明を適用した撮影光学ユニットUを、車両のフロントグリルの中央部に取り付けて、両サイド及び前方のモニタとして使用することができる。このような使用例においては、車両の走行に際して両サイドにおける安全性がより高まる。
FIG. 7 is a diagram illustrating an example in which the photographing optical unit is mounted on a vehicle.
As shown in FIG. 7, a photographic optical unit U to which the present invention capable of photographing in both the left and right directions can be used as a monitor on both sides and front by being attached to the center of the front grille of the vehicle. In such an example of use, safety on both sides is further increased when the vehicle is traveling.

図8は、本発明の第1の実施形態に係る撮影光学ユニットの概要を説明するための図であり、図9は、本発明の第1の実施形態に係る画面のサイズ及び撮像素子15に結像されるイメージを説明するための図であり、図10は、被写体の例を示す図である。   FIG. 8 is a diagram for explaining the outline of the photographing optical unit according to the first embodiment of the present invention, and FIG. 9 shows the screen size and the image sensor 15 according to the first embodiment of the present invention. FIG. 10 is a diagram for explaining an image to be formed, and FIG. 10 is a diagram illustrating an example of a subject.

図8に示したように、本発明の第1の実施形態に係る撮影光学ユニットは、前述の自由曲面プリズム4、5、6、22および前段プリズム7、21から構成されるプリズム群50と撮像素子15とが配置されている。   As shown in FIG. 8, the photographing optical unit according to the first embodiment of the present invention includes a prism group 50 including the above-described free-form surface prisms 4, 5, 6, 22 and front-stage prisms 7, 21, and an image pickup. An element 15 is arranged.

一般的なカメラなどの通常の撮像素子では、画面のアスペクト比が4対3であり、画面サイズの長い4の方向が水平方向、短い3の方向が垂直方向に被写体を正対する。ところが、本発明の第1の実施形態に係る撮影光学ユニットでは、通常の画面を90度回転させ、図9に示されるように4分割された画像の垂直方向が画面サイズの長い4の方向に配置し、短い3の方向が4分割された画面の長い方向を撮像するよう構成されている。すなわち、図9に示した画像51aは、自由曲面プリズム4による右側視野60度で撮像された画像であり、画像51bは、自由曲面プリズム5による左側視野60度で撮像された画像であり、画像51cは、自由曲面プリズム6と前段プリズム7による中心視野60度で撮像された画像である。   In an ordinary image sensor such as a general camera, the aspect ratio of the screen is 4: 3, and the long 4 direction of the screen size faces the subject in the horizontal direction, and the short 3 direction faces the subject in the vertical direction. However, in the photographing optical unit according to the first embodiment of the present invention, the normal screen is rotated by 90 degrees, and the vertical direction of the four-divided image is in the direction of 4 where the screen size is long as shown in FIG. It is arranged so that the long direction of the screen obtained by dividing the short three directions into four is imaged. That is, the image 51a shown in FIG. 9 is an image captured at 60 degrees on the right side by the free curved surface prism 4, and the image 51b is an image captured at 60 degrees on the left side by the free curved surface prism 5. 51 c is an image captured by the free-form surface prism 6 and the front prism 7 with a central visual field of 60 degrees.

さらに、後述するが、画像51dは、自由曲面プリズム22と前段プリズム21による中心視野60度で撮像された画像であり、画像51dと画像51cとが一定の視差を持っている。これらの画像51cと画像51dがステレオ測距で必要となる画像である。   Further, as will be described later, the image 51d is an image captured by the free-form surface prism 22 and the front prism 21 with a central visual field of 60 degrees, and the image 51d and the image 51c have a certain parallax. These images 51c and 51d are images necessary for stereo distance measurement.

図10に示されている画像は、被写体のイメージであり、例えば、車体の正面に設置されたカメラの画像を運転者から見た画像で表示装置上に正対した像として映し出すものとする。この図10に示されたイメージを撮像した場合の画像は、図9に示した画像51a、51b、51c、51dから構成されることを現している。   The image shown in FIG. 10 is an image of a subject. For example, it is assumed that an image of a camera installed in front of the vehicle body is projected on the display device as an image viewed from the driver. The image when the image shown in FIG. 10 is captured indicates that the image 51a, 51b, 51c, 51d shown in FIG. 9 is configured.

図11は、撮影光学ユニットの構成を示す図であり、図12は、3画面(51a、51b、51c)を2段表示にした表示例を示す図である。
図11において、撮影光学ユニットは、ステレオカメラ部52、カメラコントローラ71、ドライビングコントローラ72を備えている。
FIG. 11 is a diagram illustrating a configuration of the photographing optical unit, and FIG. 12 is a diagram illustrating a display example in which three screens (51a, 51b, 51c) are displayed in two stages.
In FIG. 11, the photographing optical unit includes a stereo camera unit 52, a camera controller 71, and a driving controller 72.

前記ステレオカメラ部52は、前述の自由曲面プリズム4、5、6、22、前段プリズム7、21、撮像素子15の他、TG/SSG部60、CDS/AGC/A/D部61、デジタル信号処理部62、シリアル(Serial)I/F63、通信I/F74を備えている。   The stereo camera unit 52 includes the above-described free-form surface prisms 4, 5, 6, and 22, the pre-stage prisms 7 and 21, the image sensor 15, a TG / SSG unit 60, a CDS / AGC / A / D unit 61, and a digital signal. A processing unit 62, a serial I / F 63, and a communication I / F 74 are provided.

前記カメラコントローラ71は、CPU53、操作入力部54、画像処理MPU57、メモリ58、通信I/F75、通信I/F77を備えている。
また、前記ドライビングコントローラ72は、画像表示部55、液晶コントローラ56、外部メモリ66、警報装置67、通信I/F78が、バス79を介して接続されている。
The camera controller 71 includes a CPU 53, an operation input unit 54, an image processing MPU 57, a memory 58, a communication I / F 75, and a communication I / F 77.
The driving controller 72 is connected to an image display unit 55, a liquid crystal controller 56, an external memory 66, an alarm device 67, and a communication I / F 78 via a bus 79.

なお、撮影画像のホワイトバランスや露出補正、シャッタースピードなどの設定については、一般的な車載カメラなどと同等であり、詳細は省略する。
また、ステレオカメラ部52による測距原理については、後述する。
Note that settings such as white balance, exposure correction, and shutter speed of the captured image are the same as those of a general on-vehicle camera, and details thereof are omitted.
The principle of distance measurement by the stereo camera unit 52 will be described later.

ステレオカメラ部52は、動画と静止画を撮像可能であり、このステレオカメラ部52に対してカメラコントローラ71のCPU53及び画像処理MPU57が、通信I/F74、75を介して接続されている。画像処理MPU57は、画像の反転、回転、鏡像、縮小、拡大、画像張り合わせ等の処理を行う。そして、その画像処理MPU57で処理された画像を、通信I/F77、78、および液晶コントローラ56を介して、モニタ装置として使用される画像表示部55に出力する。   The stereo camera unit 52 can capture moving images and still images, and the CPU 53 of the camera controller 71 and the image processing MPU 57 are connected to the stereo camera unit 52 via communication I / Fs 74 and 75. The image processing MPU 57 performs processing such as image inversion, rotation, mirror image, reduction, enlargement, and image joining. Then, the image processed by the image processing MPU 57 is output to the image display unit 55 used as a monitor device via the communication I / Fs 77 and 78 and the liquid crystal controller 56.

また、ステレオカメラ部52は、図10に示したような被写体イメージを撮像するための自由局面のプリズム群50、及びこのプリズム群50による結像位置に配置されたCMOS/CCDでなる撮像素子15を有する。撮像素子15で得た画像情報は、後述するCPU53により、動画、静止画、上述したホワイトバランス、露出補正、シャッタースピードなどを制御し、画像表示部55に出力される。   Further, the stereo camera unit 52 includes a prism group 50 in a free phase for capturing a subject image as shown in FIG. 10 and an image sensor 15 formed of a CMOS / CCD disposed at an image forming position by the prism group 50. Have Image information obtained by the image sensor 15 is output to the image display unit 55 by controlling a moving image, a still image, the above-described white balance, exposure correction, shutter speed, and the like by a CPU 53 described later.

ステレオカメラ部52のTG/SSG部60は、駆動タイミング、パルスを発生し撮像素子15の動作タイミングを生成している。ステレオカメラ部52のCDS/AGC/AD61は、撮像素子15から得られた画像情報を相関二重サンプリングし信号量に応じて利得を調整しA/D変換され、デジタル信号処理62に送られる。そして、デジタル信号処理62では、カラー信号補間、カラー補正、ホワイトバランスなどの処理が行われ、画像情報をMPU57に供給する。   The TG / SSG unit 60 of the stereo camera unit 52 generates drive timing and pulses to generate the operation timing of the image sensor 15. The CDS / AGC / AD 61 of the stereo camera unit 52 performs correlated double sampling on the image information obtained from the image sensor 15, adjusts the gain according to the signal amount, performs A / D conversion, and sends the digital information to the digital signal processing 62. In the digital signal processing 62, processing such as color signal interpolation, color correction, and white balance is performed, and image information is supplied to the MPU 57.

シリアルI/F63は、CPU53からの情報に従って、各種信号のデフォルト値や可変された露出、利得などのコマンドを実行し、ステレオカメラ部52の制御を行う。
供給された画像情報は、CPU53からの画像表示方法の指示に基づき、後述する画像の処理を行い、液晶コントローラ56を介して画像表示部55にて表示される。近年、グラフィック表示機能が充実しており、画像の反転、回転、鏡像の表示は、液晶コントローラ56で行い、画像処理MPU57の負担を軽減することもできる。
The serial I / F 63 controls commands of the stereo camera unit 52 by executing commands such as default values of various signals, variable exposure, and gain in accordance with information from the CPU 53.
The supplied image information is displayed on the image display unit 55 via the liquid crystal controller 56, based on an image display method instruction from the CPU 53, which will be described later. In recent years, graphic display functions have been enhanced, and image inversion, rotation, and mirror image display are performed by the liquid crystal controller 56, and the burden on the image processing MPU 57 can be reduced.

次に、画像表示部55に出力された画像を表示するための画像処理および加工について説明する。
前出の図9は、自由曲面プリズム4、5、6、22を介して撮像素子15に結像された像を表しているが、撮像素子15を750画素×480画素で想定すると、図9に示したように、4分割であれば1画面の画素数は、縦187画素、横480画素となる。
Next, image processing and processing for displaying an image output to the image display unit 55 will be described.
FIG. 9 described above represents an image formed on the image sensor 15 through the free-form surface prisms 4, 5, 6, and 22. If the image sensor 15 is assumed to be 750 pixels × 480 pixels, FIG. As shown in FIG. 4, if there are four divisions, the number of pixels on one screen is 187 pixels vertically and 480 pixels horizontally.

一方、この4分割された画面のうち画像表示部55に表示する3画面は、左60度51a、右60度51b、中心60度51cの計180度を撮像することになるが、このまま縦187画素、横480画素を画像表示部55に表示すると、縦は問題ないが、横に1440画素必要となり、現在車載用として主流であるWVGA(横750画素×縦480画素)のサイズの液晶画像表示部55では3画面が並ばない。   On the other hand, among the four divided screens, the three screens displayed on the image display unit 55 image a total of 180 degrees of 60 degrees 51a on the left, 60 degrees 51b on the right, and 60 degrees 51c on the center. When displaying 480 pixels and 480 pixels on the image display unit 55, there is no problem in the vertical direction, but 1440 pixels are required in the horizontal direction, and a liquid crystal image display having a size of WVGA (750 pixels × 480 pixels) that is currently mainstream for in-vehicle use. In the section 55, three screens are not arranged.

そこで、画像処理MPU57では、液晶画像表示部55に、後述する各種表示方法に応じた画像の画素間引き、縮小、拡大、カットなどを行う機能を持たせている。
さらに、3画面のうち画像表示部55上の画像の表示については、図12に示したように、画像表示部55上の画面の上半分の領域に左側視野および右側視野の2画像51a、51bを配列し、下半分の領域に中心視野の画像51cを配列することも可能である。
Therefore, in the image processing MPU 57, the liquid crystal image display unit 55 has a function of performing pixel thinning, reduction, enlargement, and cut of an image according to various display methods described later.
Further, regarding the display of the image on the image display unit 55 among the three screens, as shown in FIG. 12, two images 51a and 51b of the left visual field and the right visual field are displayed in the upper half area of the screen on the image display unit 55. It is also possible to arrange the image 51c of the central visual field in the lower half area.

次に、画像取り込み、画像処理、および画像処理後の液晶表示までの流れを説明する。
図13は、本発明を適用したカメラ制御処理の流れを示すフローチャートであり、図14は、本発明を適用したカメラシステムの機能ブロックを示す図であり、図15は、第1のフレームメモリの構成を示す図であり、図16は、第3のフレームメモリの構成を示す図である。
Next, the flow from image capture, image processing, and liquid crystal display after image processing will be described.
13 is a flowchart showing a flow of camera control processing to which the present invention is applied, FIG. 14 is a diagram showing functional blocks of a camera system to which the present invention is applied, and FIG. 15 is a diagram of the first frame memory. FIG. 16 is a diagram showing a configuration of the third frame memory.

自由曲面プリズム4、5、6、22を介して撮像素子15に結像された像は、前述した通り、図9の画像51のように撮像される。
まず、4つに分割された画像のうち、画像表示部55にて任意に表示される3枚の画像である、左側視野60度の撮像された画像51a、右側視野60度の撮像された画像51b、中心視野60度の撮像された画像51cの処理について説明する。
As described above, the image formed on the image sensor 15 via the free-form surface prisms 4, 5, 6, and 22 is captured as the image 51 in FIG.
First, among images divided into four, three images arbitrarily displayed on the image display unit 55, an image 51a captured with a left visual field of 60 degrees and an image captured with a right visual field of 60 degrees The processing of the image 51c captured at 51b and the central visual field of 60 degrees will be described.

最初に、ステップS701において、撮像部701が画像を撮像し、次のステップS702において、撮像された画像が、ADC(A/Dコンバータ)702によってA/D変換される。そして、ステップS703において、画像生成部703によって、カラー信号補間、カラー補正、ホワイトバランス、ガンマ補正の処理に付された後、次のステップS704において、第1のフレームメモリ704に格納される。   First, in step S701, the imaging unit 701 captures an image, and in the next step S702, the captured image is A / D converted by an ADC (A / D converter) 702. Then, after being subjected to color signal interpolation, color correction, white balance, and gamma correction by the image generation unit 703 in step S703, it is stored in the first frame memory 704 in the next step S704.

この際、第1のフレームメモリ704に格納される画像は、図15に示される通り、撮像素子15から読み取られた操作順に格納される。図15に示した例では、1A、1B、1C、1D、2A、2B、2C、2D、3A、3B、3C、3Dの順で、第1のフレームメモリ704に格納されることになる。   At this time, the images stored in the first frame memory 704 are stored in the order of operations read from the image sensor 15 as shown in FIG. In the example shown in FIG. 15, the data are stored in the first frame memory 704 in the order of 1A, 1B, 1C, 1D, 2A, 2B, 2C, 2D, 3A, 3B, 3C, and 3D.

次に、ステップS705において、第1のフレームメモリ704に格納された元画像は、読出/書込コントローラ705によって、アドレスメモリ706を参照し、アドレスメモリ706の画像分割アドレスの指定に従って演算され、ステップS706において、第3のフレームメモリ707に格納される。図13に示した例では、1A、2A、3A、1C、2C、3C、1B、2B、3Bの順で、第3のフレームメモリ707に格納されることになる。   Next, in step S705, the original image stored in the first frame memory 704 is calculated by the read / write controller 705 with reference to the address memory 706 according to the designation of the image division address in the address memory 706, In S706, the data is stored in the third frame memory 707. In the example shown in FIG. 13, the data are stored in the third frame memory 707 in the order of 1A, 2A, 3A, 1C, 2C, 3C, 1B, 2B, and 3B.

この際、第3のフレームメモリ707に格納される画象は、図16に示される通り、第1のフレームメモリ704に格納された画像を上下および左右反転し、さらに左側視野60度、右側視野60度、中心視野60度の撮像された画像が正対した画像になるよう配列され格納されることになる。   At this time, as shown in FIG. 16, the image stored in the third frame memory 707 is the image stored in the first frame memory 704 upside down and horizontally reversed, and further, the left side view 60 degrees, the right side view The captured images of 60 degrees and the central visual field of 60 degrees are arranged and stored so as to be directly opposed images.

そして、ステップS707の「表示設定処理」のサブルーチンが実行される。本実施の形態では、画像表示部55に表示するモニタ表示形式は、前述したように少なくとも2つ以上の選択肢を設けている。   Then, the “display setting process” subroutine of step S707 is executed. In the present embodiment, the monitor display format displayed on the image display unit 55 has at least two options as described above.

図17は、カメラ制御処理のサブルーチン「表示設定処理」の流れを示すフローチャートであり、図18は、縮小して3画面表示した場合の表示例を示す図である。
まず、ステップS710において、ユーザーによるモニタ表示形式の設定を確認する。すなわち、表示モードスイッチ713で切り替えの指示があるか否かを検出する。
FIG. 17 is a flowchart showing a flow of a subroutine “display setting process” of the camera control process, and FIG. 18 is a view showing a display example when the reduced three-screen display is performed.
First, in step S710, the setting of the monitor display format by the user is confirmed. That is, it is detected whether or not there is a switching instruction with the display mode switch 713.

モニタ表示形式の設定に変更があれば(ステップS710:YES)は、ステップS711に進み、表示パターンを参照して対応するアドレスパターンを設定する。他方、モニタ表示形式の設定に変更がなければ(ステップS710:NO)、変更前の表示バターンのままで、次のステップS712に進む。   If there is a change in the setting of the monitor display format (step S710: YES), the process proceeds to step S711, and the corresponding address pattern is set with reference to the display pattern. On the other hand, if there is no change in the setting of the monitor display format (step S710: NO), the process proceeds to the next step S712 while keeping the display pattern before the change.

そして、ステップS712において、表示パターンが単画面表示か否かを判断する。ここで、単画面表示の場合は、表示する画像を縮小することになり、単画面表示でない場合は、縮小せずに画素そのままとする。   In step S712, it is determined whether the display pattern is single-screen display. Here, in the case of single screen display, the image to be displayed is reduced, and in the case of non-single screen display, the pixel is left as it is without reduction.

表示パターンが単画面表示である場合(ステップS712:YES)、ステップS714において、アドレスメモリ706を参照して、縮小のための演算を実行する。例えば、ある画素の周囲の4ピクセルを線形あるいは3次元関数を用いて画素を作り、補間を行う方法も開示されている。   When the display pattern is a single screen display (step S712: YES), in step S714, the address memory 706 is referred to and an operation for reduction is executed. For example, a method is also disclosed in which four pixels around a certain pixel are formed by using a linear or three-dimensional function to perform interpolation.

そして、ステップS715において、第3のフレームメモリ707から読み出し、ステップS716において、補間部709が、読み出した画像を上述のような方法を用いて補間する。   In step S715, the data is read from the third frame memory 707. In step S716, the interpolation unit 709 interpolates the read image using the method described above.

次に、ステップS717において、補間した画像に画像表示部55への水平スタートアドレス、水平エンドアドレス、垂直スタートアドレス、垂直エンドアドレスの書き込みアドレスを付加し、ステップS718において、第4のフレームメモリ710に格納する。   In step S717, the horizontal start address, horizontal end address, vertical start address, and vertical end address write address to the image display unit 55 are added to the interpolated image. In step S718, the fourth frame memory 710 is read. Store.

そして、ステップS719において、全画面の書き込みが完了したか否かを判断し、完了していなければ(ステップS719:NO)、ステップS714に戻ってそれ以降を繰り返し、完了していれば(ステップS719:YES)、ステップS720において、表示コントローラ711により表示の更新処理が行われ、図18に示したような画面を表示パネル712へ表示する。   In step S719, it is determined whether or not writing of the entire screen has been completed. If not completed (step S719: NO), the process returns to step S714 and the subsequent steps are repeated, and if completed (step S719). : YES), display update processing is performed by the display controller 711 in step S720, and a screen as shown in FIG. 18 is displayed on the display panel 712.

図17のステップS712で、表示パターンが単画面表示でないと判断された場合(ステップS712:NO)は、表示する画像を縮小せず、画素そのままを表示するか、あるいは、図12に示したように、画像表示部55上の画面の上半分の領域に左側視野および右側視野の2画像51a、51bを配列し、下半分の領域に中心視野の画像51cを配列した表示を行うかが選択可能である。   If it is determined in step S712 in FIG. 17 that the display pattern is not a single screen display (step S712: NO), the image to be displayed is displayed as it is without being reduced, or as shown in FIG. In addition, it is possible to select whether to perform the display in which the two images 51a and 51b of the left visual field and the right visual field are arranged in the upper half area of the screen on the image display unit 55 and the central visual field image 51c is arranged in the lower half area. It is.

すなわち、表示パターンが単画面表示でない場合(ステップS712:NO)、例えば、図12に示したような、中心視野、右視野および左視野の3画面を2段表示にする場合、ステップS722において、アドレスメモリ706を参照して、表示のための演算を実行し、ステップS723において、例えば中心視野を中心に表示する場合は、第3のフレームメモリ707から所定のアドレスを読み出す。   That is, when the display pattern is not a single screen display (step S712: NO), for example, when three screens of the central visual field, the right visual field, and the left visual field as shown in FIG. With reference to the address memory 706, an operation for display is performed, and in step S <b> 723, for example, when displaying with the central visual field as the center, a predetermined address is read from the third frame memory 707.

次に、ステップS724において、表示する画像に画像表示部55への水平スタートアドレス、水平エンドアドレス、垂直スタートアドレス、垂直エンドアドレスの書き込みアドレスを付加し、ステップS725において、第4のフレームメモリ710に格納する。   Next, in step S724, the horizontal start address, horizontal end address, vertical start address, and vertical end address write address to the image display unit 55 are added to the image to be displayed. In step S725, the fourth frame memory 710 is added. Store.

そして、ステップS726において、第4のフレームメモリ710に対する3枚全画面の書き込みが完了したか否かを判断し、完了していなければ(ステップS726:NO)、ステップS722に戻ってそれ以降を繰り返し、完了していれば(ステップS726:YES)、ステップS720において、表示コントローラ711により表示の更新処理が行われ、図12に示したような画面を表示パネル712へ表示する。   In step S726, it is determined whether or not the writing of all three screens to the fourth frame memory 710 is completed. If not completed (step S726: NO), the process returns to step S722 and the subsequent steps are repeated. If completed (step S726: YES), display update processing is performed by the display controller 711 in step S720, and a screen as shown in FIG. 12 is displayed on the display panel 712.

図19は、測距を行うためのステレオ光学系の平面を表す図である。
図19に示したステレオ光学系は、4画面分割構成の場合のステレオカメラ部52からステレオ光学系のみを抽出し、測距に必要な自由曲面プリズム6、22と前段プリズム7、21と撮像素子15とを抽出した平面図になっている。
FIG. 19 is a diagram illustrating a plane of a stereo optical system for performing distance measurement.
The stereo optical system shown in FIG. 19 extracts only the stereo optical system from the stereo camera unit 52 in the case of the four-screen division configuration, and the free-form surface prisms 6 and 22 and the pre-stage prisms 7 and 21 and the image sensor required for distance measurement. 15 is an extracted plan view.

このステレオカメラ部52は、所定の間隔をおいて撮影光学系が配置されている。このステレオカメラ部52は、それぞれの光軸が平行に配置された自由曲面プリズム6、22とその前段に配置された前段プリズム7、21とを介して取り込まれた被写体の像を結像する撮像素子15とにより構成される。   The stereo camera unit 52 has a photographing optical system arranged at a predetermined interval. This stereo camera unit 52 forms an image of a subject taken in via free-form curved prisms 6 and 22 arranged in parallel with their optical axes and preceding prisms 7 and 21 arranged in the preceding stage. An element 15 is included.

次に、一般的なレンズと2つの撮像素子を用いた場合のステレオカメラにおける測距式を簡単に説明する。
図20は、2つの撮像素子を用いたステレオカメラにおける測距式を説明するための図である。
Next, a distance measuring method in a stereo camera using a general lens and two image sensors will be briefly described.
FIG. 20 is a diagram for explaining a distance measuring method in a stereo camera using two image sensors.

図20において、焦点距離fの受光レンズ81a及び81bが、レンズ間視差(基線長)Bをおいて配置されている。そして、これらの受光レンズ81a及び81bの後方に、焦点距離fだけ離れた位置に撮像素子80a及び80bが配置されている。この場合、撮像素子80aの結像位置に対する撮像素子80bの結像位置をxとすると、受光レンズ81a及び81bから被写体82までの被写体距離Lは、周知の三角測距の原理に従って、次式の関係により求められる。   In FIG. 20, light receiving lenses 81a and 81b having a focal length f are arranged with an inter-lens parallax (base line length) B. Image sensors 80a and 80b are arranged behind these light receiving lenses 81a and 81b at positions separated by a focal length f. In this case, if the imaging position of the image sensor 80b with respect to the imaging position of the image sensor 80a is x, the subject distance L from the light receiving lenses 81a and 81b to the subject 82 is expressed by the following equation according to the well-known principle of triangulation. Required by relationship.

L=B×f/x ・・・(1)
但し、Lは被写体距離、Bは受光レンズ間の視差(基線長)、fは受光レンズの焦点距離である。
L = B × f / x (1)
Here, L is the subject distance, B is the parallax (base line length) between the light receiving lenses, and f is the focal length of the light receiving lenses.

また、上記結像位置xが、受光位置の変位、すなわち受光レンズ81a及び81bによる左右対応点のズレである。このとき、撮像素子80a及び80bに結像される被写体像83a及び83bは、図20中の(b)のように示される。   The imaging position x is the displacement of the light receiving position, that is, the shift of the left and right corresponding points by the light receiving lenses 81a and 81b. At this time, the subject images 83a and 83b formed on the image sensors 80a and 80b are shown as (b) in FIG.

次に、本発明を適用したステレオカメラ部の機能を説明する。
図21は、警報情報の生成までの処理の流れを示すフローチャートであり、図22は、第2のフレームメモリの構成を示す図である。
Next, functions of the stereo camera unit to which the present invention is applied will be described.
FIG. 21 is a flowchart showing a flow of processing up to generation of alarm information, and FIG. 22 is a diagram showing a configuration of the second frame memory.

この図21と図14とを用いて、ステレオ画像の取り込み、測距、警報情報の生成までの流れを説明する。
前記ステレオカメラ部52は、図10に示す被写体を撮影する撮像素子15と、前記撮像素子15の前方に取り付けられるプリズム群50と、距離画像出力部723から出力された被写体の距離画像725を計測する画像処理MPU57と、測距結果から警報が必要と判断された場合に運転者に情報を提供する警報装置67から構成される。
With reference to FIG. 21 and FIG. 14, the flow from capturing a stereo image, ranging, and generation of alarm information will be described.
The stereo camera unit 52 measures the image sensor 15 that captures the subject shown in FIG. 10, the prism group 50 attached in front of the image sensor 15, and the distance image 725 of the subject output from the distance image output unit 723. And an alarm device 67 that provides information to the driver when it is determined that an alarm is necessary from the distance measurement result.

本ステレオカメラ部52は、一般のビデオカメラ、デジタルスティルカメラなどと同様に、露出検出部715と露出コントローラ716とを適宜備え、撮像素子15からの輝度情報により算出された露出値に応じて撮影露出の自動調整を行っている。   The stereo camera unit 52 includes an exposure detection unit 715 and an exposure controller 716 as appropriate, similar to a general video camera, digital still camera, and the like, and shoots according to the exposure value calculated based on the luminance information from the image sensor 15. The exposure is adjusted automatically.

また、前記ステレオカメラ部52は、それぞれの光軸が平行に配置された自由局面プリズム6、22とその前段に配置された前段プリズム7、21とを介して取り込まれた被写体の撮像素子15に像を結像することが出来るようになっている。   In addition, the stereo camera unit 52 is connected to the imaging element 15 of the subject captured via the free phase prisms 6 and 22 in which the optical axes are arranged in parallel and the pre-stage prisms 7 and 21 disposed in the preceding stage. An image can be formed.

このようにしてステレオカメラ部52で撮影された、すなわち、撮像素子15で捕らえたステレオ画像726は、図14に示すように、ADC702でA/D変換され、画像生成部703でカラー信号補間、カラー補正、ホワイトバランス、ガンマ補正等の処理が付された後、図13のステップS704において、第1のフレームメモリ704に格納されている。その後、ポーリングが開始される。   In this way, the stereo image 726 captured by the stereo camera unit 52, that is, captured by the image sensor 15, is A / D converted by the ADC 702, and the color signal interpolation is performed by the image generation unit 703. After processing such as color correction, white balance, and gamma correction, it is stored in the first frame memory 704 in step S704 of FIG. Thereafter, polling is started.

ポーリングが開始されると、ステップS730において、運転者によって操作入力部54の測距機能の選択の指示があるか否かを判断する。
測距機能の選択の指示がない場合(ステップS730:NO)は、図17のステップS701に戻る。
When polling is started, in step S730, it is determined whether or not there is an instruction to select the distance measuring function of the operation input unit 54 by the driver.
If there is no instruction to select the ranging function (step S730: NO), the process returns to step S701 in FIG.

他方、測距機能の選択の指示がある場合(ステップS730:YES)は、ステップS731において、第1のフレームメモリ704に格納された、図9に示す4画面の内、撮像された画像51c、51dのアドレス値を、アドレスメモリ706から参照する。図9に示したように、図中の4画面の内、中心視野の60度左側が撮像された画像51cと中心視野の60度右側が撮像された画像51dとは、ある一定の視差が生じることになる。   On the other hand, if there is an instruction to select the ranging function (step S730: YES), in step S731, the captured image 51c of the four screens shown in FIG. 9 stored in the first frame memory 704 is displayed. The address value 51d is referred from the address memory 706. As shown in FIG. 9, among the four screens in the figure, a certain parallax occurs between the image 51c captured 60 degrees left of the central visual field and the image 51d captured 60 degrees right of the central visual field. It will be.

次に、ステップS732において、ステップS731で参照されたアドレスに従って左側と右側の画像51c、51dを第1のフレームメモリから読み出す。
次に、ステップS733において、ステップS732で第1のフレームメモリ703から読み出した画像51c、51dに対して、レクティフィケーション部717が左側と右側の画像51c、51dのエピポーラ線を一致するように各々の画像変換処理(レクティフィケーション)を行う。そして、ステップS734において、レクティフィケーション処理された右画像718と左画像719を、図22に示すように1C、2C、3C、1D、2D、3Dの順で第2のフレームメモリ720に格納する。
Next, in step S732, the left and right images 51c and 51d are read from the first frame memory in accordance with the address referenced in step S731.
Next, in step S733, the rectification unit 717 matches the epipolar lines of the left and right images 51c and 51d with respect to the images 51c and 51d read from the first frame memory 703 in step S732, respectively. The image conversion process (rectification) is performed. In step S734, the rectified right image 718 and left image 719 are stored in the second frame memory 720 in the order of 1C, 2C, 3C, 1D, 2D, and 3D as shown in FIG. .

ステレオによる三次元情報抽出については、既に研究、論文等で各種報告されているので、詳細の計算による理論、手法は各文献等を参照されたい。ここでは、簡単にレクティフィケーションについて説明する。   There are already various reports on research and papers on 3D information extraction using stereo, so please refer to each literature for the theory and method based on detailed calculations. Here, rectification will be briefly described.

図23は、レクティフィケーション前の左右画像を示す図であり、図24は、レクティフィケーション後の左右画像を示す図である。
本実施の形態のステレオによる測距方法は、単一の撮像素子15から撮像された2枚の画像51c、51dを使用して、これらの画像51c、51d中に共通して存在する、ある同一着目点の視差量から距離の情報を算出するものである。
FIG. 23 is a diagram showing left and right images before rectification, and FIG. 24 is a diagram showing left and right images after rectification.
The stereo distance measuring method of the present embodiment uses two images 51c and 51d imaged from a single image sensor 15, and is present in common in these images 51c and 51d. The distance information is calculated from the amount of parallax at the point of interest.

レクティフィケーションとは、両画像の視差量算出の前に行われるもので、ある左右の同一着目点が同一線(エピポーラ線)上に配置されるよう視点変換、歪曲収差除去、回転変換などを行い、その両画像間の幾何関係(エピポーラ幾何)を同一平面上に存在するよう変換するものである。   Rectification is performed before calculating the amount of parallax between both images, and performs viewpoint conversion, distortion aberration removal, rotation conversion, etc. so that the same right and left points of interest are placed on the same line (epipolar line). The geometric relationship (epipolar geometry) between the two images is converted so as to exist on the same plane.

図23にレクティフィケーション前の画像として、左画像領域を基準とした左と右の画像領域を示した。画像中の着目点a、bの位置が左画像の同一直線上にあるとした場合、このときの右画像は、図のように「りんご」と「箱」の奥行きのため上下位置に差が生じている。さらに、カメラには、レンズの取り付け位置に上下方向のシフトが付いている。そのため、右画像の左画像に対する着目点a、bの位置が下にシフトしており同一線上に並ばなくなる。   FIG. 23 shows left and right image areas based on the left image area as images before rectification. If the positions of the points of interest a and b in the image are on the same straight line as the left image, the right image at this time has a difference in vertical position due to the depth of the “apple” and “box” as shown in the figure. Has occurred. Furthermore, the camera has a vertical shift in the lens mounting position. Therefore, the positions of the points of interest a and b with respect to the left image of the right image are shifted downward and are not aligned on the same line.

ここで、この着目点a、bが両画像間で同一直線上に並べる処理をレクティフィケーションと言う。
図24にレクティフィケーション後の画像を示した。着目点a、bが両画像間で同一直線上に並んでいるため、着目点を探索するには二次元での探索ではなく、一次元での探索で位置が推定できることになり、この両画像の視差を求めることで距離が算出できることになる。
Here, the process in which the points of interest a and b are arranged on the same straight line between both images is called rectification.
FIG. 24 shows an image after rectification. Since the points of interest a and b are arranged on the same straight line between the two images, the position can be estimated by a one-dimensional search instead of a two-dimensional search to search for the point of interest. The distance can be calculated by obtaining the parallax.

図21の説明に戻る。
次に、ステップS735において、第2のフレームメモリ720に格納された右画像718と左画像719を、読出/書込コントローラ721で読み出し、右画像718と左画像719の同一着目点を比較し、ステップS736において、距離算出部722が視差を算出する。距離算出部722による距離計算方法は、例えば、特許文献3(特開2004−258266号公報)に記載されている方法等に基づき実行される。
Returning to the description of FIG.
Next, in step S735, the right image 718 and the left image 719 stored in the second frame memory 720 are read by the read / write controller 721, and the same points of interest in the right image 718 and the left image 719 are compared. In step S736, the distance calculation unit 722 calculates the parallax. The distance calculation method by the distance calculation unit 722 is executed based on, for example, the method described in Patent Document 3 (Japanese Patent Application Laid-Open No. 2004-258266).

そして、ステップS737において、距離画像出力部723が被写体の三次元の距離画像725を出力する。
次に、ステップのS738において、新たな警報情報があるか否かを判断し、新たな警報情報がなければ(ステップS738:NO)、ステップS733に戻り、新たな警報情報があれば(ステップS738:YES)、ステップS739において、警報情報作成部724が、例えば車などの着目物体に危険域まで近づいているなどの警報情報を作成する。
In step S737, the distance image output unit 723 outputs a three-dimensional distance image 725 of the subject.
Next, in step S738, it is determined whether there is new alarm information. If there is no new alarm information (step S738: NO), the process returns to step S733, and if there is new alarm information (step S738). : YES), in step S739, the alarm information creating unit 724 creates alarm information indicating that the target object such as a car is approaching a dangerous area.

そして、ステップS740において、警報情報を含む画面を更新表示していく。例えば、表示コントローラ727で表示パネル712ヘのOSD表示を生成している。
また、ステレオカメラ部52は、キャリブレーション部714をさらに備え、レクティフィケーション部717に対してレクティフィケーションパラメータを出力し、距離算出部722に対して距離算出用パラメータを出力する。
In step S740, the screen including the alarm information is updated and displayed. For example, the display controller 727 generates an OSD display on the display panel 712.
The stereo camera unit 52 further includes a calibration unit 714, which outputs a rectification parameter to the rectification unit 717 and outputs a distance calculation parameter to the distance calculation unit 722.

なお、距離画像処理の各ブロックは、計算機上のソフトウェアで実現してもよい。
図25は、2画面分割構成でステレオのみの場合のステレオカメラ部を示す図であり、図26は、2画面分割構成の場合のイメージャ(WVGA)への画面イメージを示す図である。
Note that each block of the distance image processing may be realized by software on a computer.
FIG. 25 is a diagram showing a stereo camera unit in the case of only stereo with a two-screen division configuration, and FIG. 26 is a diagram showing a screen image to an imager (WVGA) in the case of a two-screen division configuration.

CPU53は、画像情報と車両情報を統括する役割を持っており、例えば、ステレオカメラ部52で処理された結果を画像表示部55に表示したり、ステレオカメラ部52で得られた距離情報を分析して、警報装置67に警報を発生させたりして、運転者に安全運転を促すことができるようになっている。   The CPU 53 has a role of supervising image information and vehicle information. For example, the CPU 53 displays the result processed by the stereo camera unit 52 on the image display unit 55 or analyzes the distance information obtained by the stereo camera unit 52. Then, an alarm is generated in the alarm device 67, and the driver can be encouraged to drive safely.

なお、警報装置67は、音声装置や振動装置などから構成されている。運転者の触覚を刺激する、運転者の視覚に訴えるような情報を出す取り組みが近年盛んであり既知ではあるが、例えば、音声装置はスピーカ等からの音声、液晶パネルでは、OSD表示、HUD表示、振動装置はステアリングハンドル、アクセルペダル、運転席シートの振動により運転者に警報を発するものを利用する。   Note that the alarm device 67 includes a sound device, a vibration device, and the like. In recent years, efforts to produce information that appeals to the driver's vision that stimulates the driver's tactile sensation are prosperous and well known. For example, a voice device is a voice from a speaker, etc. As the vibration device, a steering wheel, an accelerator pedal, and a device that issues a warning to the driver by vibration of the driver's seat are used.

このように、このカメラシステムによると、本発明に直接関係しないためその詳細説明は省略するが、本実施の形態に係るステレオカメラ部52から得られた画像情報と、各種センサー等から得られた車両情報とを統合することができ、画像表示部55による画像情報の表示、警報装置67による警報等により、運転者に安全走行を促すことができる。   As described above, according to this camera system, since it is not directly related to the present invention, the detailed description thereof is omitted, but it is obtained from the image information obtained from the stereo camera unit 52 according to the present embodiment, various sensors, and the like. The vehicle information can be integrated, and the driver can be encouraged to drive safely by displaying image information on the image display unit 55, warning by the alarm device 67, and the like.

例えば、前方の被写体に近づきすぎたときに注意を促す表示、警報、さらには例えば既知ではあるが、先行車までの距離/自車走行スピードで先行車までの到達時間を割り出し、2秒、15秒などのある一定時間以内の場合にブレーキの制御を行うことができる。   For example, a display for alerting when a subject in front is too close, a warning, and for example, although known, the arrival time to the preceding vehicle is determined by the distance to the preceding vehicle / the traveling speed of the host vehicle, 2 seconds, 15 The brake can be controlled within a certain time such as seconds.

若しくは、道路の分離帯を読み取って自動で運転を制御する等に用いることができる。
その他に、車外を観察し、前方や後方の走行車両、障害物、白線検知等に用いる他、車内の運転者、搭乗者の顔の位置、向きを検出し、脇見運転や居眠りの検知、エアバック点火時に、大人か子供か、顔の位置方向を判断し、安全にエアバッグを作動させるセンサーとして利用することも可能である。
Alternatively, it can be used to automatically control driving by reading a road separation zone.
In addition to observing the outside of the vehicle, it is used for front and rear traveling vehicles, obstacles, white line detection, etc., as well as detecting the position and orientation of the driver's face and passenger's face in the vehicle, detection of side-by-side driving and dozing, air When the back is lit, it can be used as a sensor that judges the position of the face, whether it is an adult or a child, and operates the airbag safely.

また、本発明を適用したカメラシステムは、車載のステレオ撮像システムの他に、ロボット、鉄道、飛行機、船舶、監視カメラ、遠隔会議システム用カメラ等にも応用ができるものである。   The camera system to which the present invention is applied can be applied to a robot, a railway, an airplane, a ship, a surveillance camera, a camera for a teleconference system, etc. in addition to the in-vehicle stereo imaging system.

以上、本発明の各実施の形態を、図面を参照しながら説明してきたが、本発明が適用されるカメラシステムは、その機能が実行されるのであれば、上述の各実施の形態等に限定されることなく、単体の装置であっても、複数の装置からなるシステムあるいは統合装置であっても、LAN、WAN等のネットワークを介して処理が行なわれるシステムであってもよいことは言うまでもない。   As described above, each embodiment of the present invention has been described with reference to the drawings. However, a camera system to which the present invention is applied is limited to the above-described embodiments and the like as long as the function is executed. Needless to say, a single device, a system composed of a plurality of devices, an integrated device, or a system that performs processing via a network such as a LAN or WAN may be used. .

また、バスに接続されたCPU、ROMやRAMのメモリ、入力装置、出力装置、外部記録装置、媒体駆動装置、可搬記憶媒体、ネットワーク接続装置で構成されるシステムでも実現できる。すなわち、前述してきた各実施の形態のシステムを実現するソフトウェアのプログラムコードを記録したROMやRAMのメモリ、外部記録装置、可搬記憶媒体を、カメラシステムに供給し、そのカメラシステムのコンピュータがプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。   It can also be realized by a system comprising a CPU, ROM or RAM memory connected to a bus, an input device, an output device, an external recording device, a medium drive device, a portable storage medium, and a network connection device. That is, a ROM or RAM memory, an external recording device, and a portable storage medium that record software program codes for realizing the systems of the above-described embodiments are supplied to the camera system, and the computer of the camera system is programmed. Needless to say, this can also be achieved by reading and executing the code.

この場合、可搬記憶媒体等から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記録した可搬記憶媒体等は本発明を構成することになる。   In this case, the program code itself read from the portable storage medium or the like realizes the novel function of the present invention, and the portable storage medium or the like on which the program code is recorded constitutes the present invention. .

プログラムコードを供給するための可搬記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、DVD−RAM、磁気テープ、不揮発性のメモリーカード、ROMカード、電子メールやパソコン通信等のネットワーク接続装置(言い換えれば、通信回線)を介して記録した種々の記憶媒体などを用いることができる。   Examples of portable storage media for supplying the program code include flexible disks, hard disks, optical disks, magneto-optical disks, CD-ROMs, CD-Rs, DVD-ROMs, DVD-RAMs, magnetic tapes, and nonvolatile memories. Various storage media recorded through a network connection device (in other words, a communication line) such as a card, a ROM card, electronic mail or personal computer communication can be used.

また、コンピュータがメモリ上に読み出したプログラムコードを実行することによって、前述した各実施の形態の機能が実現される他、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部又は全部を行ない、その処理によっても前述した各実施の形態の機能が実現される。   In addition, the functions of the above-described embodiments are realized by executing the program code read out on the memory by the computer, and the OS running on the computer is actually executed based on the instruction of the program code. The functions of the above-described embodiments are also realized by performing part or all of the process.

さらに、可搬型記憶媒体から読み出されたプログラムコードやプログラム(データ)提供者から提供されたプログラム(データ)が、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行ない、その処理によっても前述した各実施の形態の機能が実現され得る。   Furthermore, a program code read from a portable storage medium or a program (data) provided by a program provider is provided in a function expansion board inserted into a computer or a function expansion unit connected to a computer. The CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are also performed by the processing. Can be realized.

すなわち、本発明は、以上に述べた各実施の形態等に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成又は形状を取ることができる。   That is, the present invention is not limited to the above-described embodiments and the like, and can take various configurations or shapes without departing from the gist of the present invention.

撮影光学ユニットの外観を表す図(その1)である。FIG. 2 is a diagram (part 1) illustrating an appearance of a photographing optical unit. 撮影光学ユニットの外観を表す図(その2)である。FIG. 3 is a second diagram illustrating the appearance of a photographing optical unit. 図1および図2に示した撮影光学ユニットの分解状態を示した図である。It is the figure which showed the decomposition | disassembly state of the imaging optical unit shown in FIG. 1 and FIG. 図1におけるA−A断面を示した図である。It is the figure which showed the AA cross section in FIG. フレーム部分の外観を表す図(その1)である。It is a figure (the 1) showing the external appearance of a frame part. フレーム部分の外観を表す図(その2)である。It is a figure (the 2) showing the external appearance of a frame part. 撮影光学ユニットを車両に搭載した例を示す図である。It is a figure which shows the example which mounted the imaging | photography optical unit in the vehicle. 本発明の第1の実施形態に係る撮影光学ユニットの概要を説明するための図である。It is a figure for demonstrating the outline | summary of the imaging optical unit which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画面のサイズ及び撮像素子15に結像されるイメージを説明するための図である。FIG. 4 is a diagram for explaining a screen size and an image formed on the image sensor 15 according to the first embodiment of the present invention. 被写体の例を示す図である。It is a figure which shows the example of a to-be-photographed object. 撮影光学ユニットの構成を示す図である。It is a figure which shows the structure of an imaging optical unit. 3画面(51a、51b、51c)を2段表示にした表示例を示す図である。It is a figure which shows the example of a display which made 3 screens (51a, 51b, 51c) into 2 steps | paragraphs. 本発明を適用したカメラ制御処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the camera control process to which this invention is applied. 本発明を適用したカメラシステムの機能ブロックを示す図である。It is a figure which shows the functional block of the camera system to which this invention is applied. 第1のフレームメモリの構成を示す図である。It is a figure which shows the structure of a 1st frame memory. 第3のフレームメモリの構成を示す図である。It is a figure which shows the structure of a 3rd frame memory. カメラ制御処理のサブルーチン「表示設定処理」の流れを示すフローチャートである。It is a flowchart which shows the flow of the subroutine "display setting process" of a camera control process. 縮小して3画面表示した場合の表示例を示す図である。It is a figure which shows the example of a display at the time of reducing and displaying 3 screens. 測距を行うためのステレオ光学系の平面を表す図である。It is a figure showing the plane of the stereo optical system for performing ranging. 2つの撮像素子を用いたステレオカメラにおける測距式を説明するための図である。It is a figure for demonstrating the ranging system in the stereo camera using two image sensors. 警報情報の生成までの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process until the production | generation of warning information. 第2のフレームメモリの構成を示す図である。It is a figure which shows the structure of a 2nd frame memory. レクティフィケーション前の左右画像を示す図である。It is a figure which shows the right-and-left image before rectification. レクティフィケーション後の左右画像を示す図である。It is a figure which shows the left-right image after a rectification. 2画面分割構成でステレオのみの場合のステレオカメラ部を示す図である。It is a figure which shows the stereo camera part in the case of only a stereo by 2 screen division | segmentation structure. 2画面分割構成の場合のイメージャ(WVGA)への画面イメージを示す図である。It is a figure which shows the screen image to the imager (WVGA) in the case of 2 screen division structure.

符号の説明Explanation of symbols

a、b 着目点
B レンズ間視差(基線長)
1〜e4 区画凹所
f 焦点距離
L 被写体距離
h 貫通孔
1〜t8 座部
U 撮影光学ユニット
x 結像位置
1 フレーム
1a 天面壁
1b 底面壁
1c、1d 傾斜側壁
2 ホルダ
3 カバー体
3a〜3c 窓孔
4、5、6 自由曲面プリズム
6a 第1面
7 前段プリズム
8、8a、8b、8c、8d 弾性舌片
9、9a、9b、9c、9d 緩衝部材
15 撮像素子
17 基板(フレキシブルプリント基板等)
18 放熱板
19 保護板
21 前段プリズム
22 自由曲面プリズム
50 プリズム群
51、51a、51b、51c、51d 画像
52 ステレオカメラ部
53 CPU
54 操作入力部
55 画像表示部
56 液晶コントローラ
57 画像処理MPU
58 メモリ
60 TG/SSG部
61 CDS/AGC/A/D部
62 デジタル信号処理部
63 シリアルI/F
66 外部メモリ
67 警報装置
71 カメラコントローラ
72 ドライビングコントローラ
74 通信I/F
75 通信I/F
77 通信I/F
78 通信I/F
79 バス
80a、80b 撮像素子
81a、81b 受光レンズ
82 被写体
83a、83b 被写体像
701 撮像部
702 ADC(A/Dコンバータ)
703 画像生成部
704 第1のフレームメモリ
705 読出/書込コントローラ
706 アドレスメモリ
707 第3のフレームメモリ
708 読み出しコントローラ
709 補間部
710 第4のフレームメモリ
711 表示コントローラ
712 表示パネル
713 表示モードスイッチ
714 キャリブレーション部
715 露出検出部
716 露出コントローラ
717 レクティフィケーション部
718 右画像
719 左画像
720 第2のフレームメモリ
721 読出/書込コントローラ
722 距離算出部
723 距離画像出力部
724 警報情報作成部
725 距離画像
726 ステレオ画像
727 表示コントローラ
a, b Points of interest B Inter-lens parallax (base line length)
e 1 to e 4 section recesses f focal length L subject distance h through hole t 1 to t 8 seat U imaging optical unit x imaging position 1 frame 1a top wall 1b bottom wall 1c, 1d inclined side wall 2 holder 3 cover body 3a to 3c Window hole 4, 5, 6 Free-form surface prism 6a First surface 7 Previous stage prism 8, 8a, 8b, 8c, 8d Elastic tongue piece 9, 9a, 9b, 9c, 9d Buffer member 15 Imaging element 17 Substrate (flexible) Printed circuit boards)
18 Radiation plate 19 Protection plate 21 Pre-stage prism 22 Free-form surface prism 50 Prism group 51, 51a, 51b, 51c, 51d Image 52 Stereo camera unit 53 CPU
54 Operation Input Unit 55 Image Display Unit 56 Liquid Crystal Controller 57 Image Processing MPU
58 Memory 60 TG / SSG part 61 CDS / AGC / A / D part 62 Digital signal processing part 63 Serial I / F
66 External memory 67 Alarm device 71 Camera controller 72 Driving controller 74 Communication I / F
75 Communication I / F
77 Communication I / F
78 Communication I / F
79 Bus 80a, 80b Image sensor 81a, 81b Light receiving lens 82 Subject 83a, 83b Subject image 701 Imaging unit 702 ADC (A / D converter)
703 Image generation unit 704 First frame memory 705 Read / write controller 706 Address memory 707 Third frame memory 708 Read controller 709 Interpolation unit 710 Fourth frame memory 711 Display controller 712 Display panel 713 Display mode switch 714 Calibration Unit 715 exposure detection unit 716 exposure controller 717 rectification unit 718 right image 719 left image 720 second frame memory 721 read / write controller 722 distance calculation unit 723 distance image output unit 724 alarm information creation unit 725 distance image 726 stereo Image 727 Display controller

Claims (7)

所定の周期で被写体像を電気信号に変換する単一の撮像素子と、
複数の自由曲面プリズムで構成され、複数の異なる方向からの被写体像をそれぞれ前記各自由曲面プリズムによって前記撮像素子上の所定の領域に結像させる光学系と、
前記撮像素子から出力した電気信号に基づいて第1の動画像を生成する動画像生成手段と、
前記動画像生成手段によって生成された前記第1の動画像を前記各領域に対応する部分画像に分割する像分割手段と、
前記像分割手段によって分割された前記部分画像を所定の配置で第2の動画像に合成する像合成手段と、
前記像合成手段によって合成された前記第2の動画像を表示装置に表示させる表示制御手段と、
前記像分割手段によって分割された少なくとも2つの部分画像に基づいて、前記2つの部分画像中に共通する被写体までの距離を算出する距離算出手段と、
を備え、
前記各自由プリズムは、前記複数の方向のうち、少なくとも2つの方向は略同方向であり、その僅かな方向のズレによりステレオ画像として結像することが可能である、
ことを特徴とするカメラシステム。
A single image sensor that converts a subject image into an electrical signal at a predetermined cycle;
An optical system composed of a plurality of free-form surface prisms, and each of the subject images from different directions is formed on a predetermined region on the image sensor by each free-form surface prism;
A moving image generating means for generating a first moving image based on an electric signal output from the image sensor;
Image dividing means for dividing the first moving image generated by the moving image generating means into partial images corresponding to the respective areas;
Image combining means for combining the partial image divided by the image dividing means with a second moving image in a predetermined arrangement;
Display control means for causing the display device to display the second moving image synthesized by the image synthesizing means;
Distance calculating means for calculating a distance to a subject common to the two partial images based on at least two partial images divided by the image dividing means;
With
In each of the free prisms, at least two directions out of the plurality of directions are substantially the same direction, and can be formed as a stereo image by a slight deviation of the directions.
A camera system characterized by that.
前記光学系は、被写体に対して前記撮像素子の直前に配置されていることを特徴とする請求項1に記載のカメラシステム。   The camera system according to claim 1, wherein the optical system is disposed immediately before the image sensor with respect to a subject. 前記光学系は、前記各領域が重ならないように前記各自由曲面プリズムが配置されていることを特徴とする請求項1に記載のカメラシステム。   2. The camera system according to claim 1, wherein each of the free-form surface prisms is arranged in the optical system so that the respective regions do not overlap each other. 前記カメラシステムは、ステレオカメラ部とカメラ制御部を備え、
前記ステレオカメラ部は、前記撮像素子と前記光学系を有し、
前記カメラ制御部は、前記動画像生成手段と前記像分割手段と前記像合成手段と前記表示制御手段と前記距離算出手段とを有する、
ことを特徴とする請求項1に記載のカメラシステム。
The camera system includes a stereo camera unit and a camera control unit,
The stereo camera unit includes the image sensor and the optical system,
The camera control unit includes the moving image generation unit, the image division unit, the image synthesis unit, the display control unit, and the distance calculation unit.
The camera system according to claim 1.
前記ステレオカメラ部は、車両の外部を撮像するように前記車両に配置されていることを特徴とする請求項4に記載のカメラシステム。   The camera system according to claim 4, wherein the stereo camera unit is disposed in the vehicle so as to capture the outside of the vehicle. 前記2つの方向は、前記車両の前方方向または後方方向であることを特徴とする請求項5に記載のカメラシステム。   The camera system according to claim 5, wherein the two directions are a front direction or a rear direction of the vehicle. 所定の周期で被写体像を電気信号に変換する単一の撮像素子と、複数の自由曲面プリズムで構成され、複数の異なる方向からの被写体像をそれぞれ前記各自由曲面プリズムによって前記撮像素子上の所定の領域に結像させる光学系とを備えるステレオカメラを制御するカメラ制御方法であって、
前記撮像素子から出力した電気信号に基づいて第1の動画像を生成し、
前記生成された前記第1の動画像を前記各領域に対応する部分画像に分割し、
前記分割された前記部分画像を所定の配置で第2の動画像に合成し、
前記合成された前記第2の動画像を表示装置に表示させ、
前記分割された少なくとも2つの部分画像に基づいて、前記2つの部分画像中に共通する被写体までの距離を算出する、
ことを特徴とするカメラ制御方法。
A single image sensor that converts a subject image into an electrical signal at a predetermined cycle and a plurality of free-form surface prisms, and subject images from a plurality of different directions are respectively provided on the image sensor by the free-form surface prisms. A camera control method for controlling a stereo camera including an optical system that forms an image in the area of
Generating a first moving image based on the electrical signal output from the image sensor;
Dividing the generated first moving image into partial images corresponding to the respective areas;
Combining the divided partial images into a second moving image in a predetermined arrangement;
Displaying the synthesized second moving image on a display device;
Calculating a distance to a subject common to the two partial images based on the divided at least two partial images;
And a camera control method.
JP2008242126A 2008-09-22 2008-09-22 Camera system and camera control method Withdrawn JP2010074706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008242126A JP2010074706A (en) 2008-09-22 2008-09-22 Camera system and camera control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008242126A JP2010074706A (en) 2008-09-22 2008-09-22 Camera system and camera control method

Publications (1)

Publication Number Publication Date
JP2010074706A true JP2010074706A (en) 2010-04-02

Family

ID=42206039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008242126A Withdrawn JP2010074706A (en) 2008-09-22 2008-09-22 Camera system and camera control method

Country Status (1)

Country Link
JP (1) JP2010074706A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145322A1 (en) * 2010-05-17 2011-11-24 パナソニック株式会社 Panoramic expansion image display device and method of displaying panoramic expansion image
WO2012042704A1 (en) * 2010-09-30 2012-04-05 パナソニック株式会社 Stereoscopic photographic device
JP2015180926A (en) * 2014-03-05 2015-10-15 株式会社リコー Imaging optical system, stereo camera device, and on-vehicle camera device
CN113155147A (en) * 2012-06-05 2021-07-23 苹果公司 Virtual camera for 3D maps

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145322A1 (en) * 2010-05-17 2011-11-24 パナソニック株式会社 Panoramic expansion image display device and method of displaying panoramic expansion image
US9374528B2 (en) 2010-05-17 2016-06-21 Panasonic Intellectual Property Management Co., Ltd. Panoramic expansion image display device and method of displaying panoramic expansion image
WO2012042704A1 (en) * 2010-09-30 2012-04-05 パナソニック株式会社 Stereoscopic photographic device
CN113155147A (en) * 2012-06-05 2021-07-23 苹果公司 Virtual camera for 3D maps
JP2015180926A (en) * 2014-03-05 2015-10-15 株式会社リコー Imaging optical system, stereo camera device, and on-vehicle camera device
US10281690B2 (en) 2014-03-05 2019-05-07 Ricoh Company, Ltd. Imaging optical system, stereo camera device and car-mounted camera device

Similar Documents

Publication Publication Date Title
JP6633216B2 (en) Imaging device and electronic equipment
JP4969269B2 (en) Image processing device
KR102657198B1 (en) Image processing devices and image processing systems
US10449900B2 (en) Video synthesis system, video synthesis device, and video synthesis method
JP2010268343A (en) Photographing device and photographing method
JP6095985B2 (en) Playback apparatus, playback system, playback method, and program
CN104126299B (en) Video image stabilisation
JP5209578B2 (en) Image display device for vehicle
JP2007064804A (en) Obstacle detecting device for vehicle
JP2012068380A (en) Image processor, imaging apparatus, image processing method, and program
JP2006287892A (en) Driving support system
JP2010268343A5 (en)
JP4601505B2 (en) Top-view image generation apparatus and top-view image display method
JP2016119526A (en) Tractor vehicle surrounding image generation device and tractor vehicle surrounding image generation method
WO2018179622A1 (en) Image capturing device, image capturing module and control method of image capturing device
JP2009093332A (en) Vehicle peripheral image processor and vehicle peripheral circumstance presentation method
JP7235906B2 (en) Solid-state imaging device
WO2018016150A1 (en) Image processing device and image processing method
WO2017043331A1 (en) Image processing device and image processing method
JP2010074706A (en) Camera system and camera control method
JP2006054662A (en) Drive support device
JP2013141120A (en) Image display device
KR20100005971A (en) A vehicle around view monitorring system
JP2010183234A (en) Drawing apparatus
JP5197316B2 (en) Camera system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206