JP2013160895A - Camera exposure setting device - Google Patents

Camera exposure setting device Download PDF

Info

Publication number
JP2013160895A
JP2013160895A JP2012022060A JP2012022060A JP2013160895A JP 2013160895 A JP2013160895 A JP 2013160895A JP 2012022060 A JP2012022060 A JP 2012022060A JP 2012022060 A JP2012022060 A JP 2012022060A JP 2013160895 A JP2013160895 A JP 2013160895A
Authority
JP
Japan
Prior art keywords
image
change
acquisition means
vehicle
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012022060A
Other languages
Japanese (ja)
Inventor
Yuki Oishi
悠貴 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012022060A priority Critical patent/JP2013160895A/en
Publication of JP2013160895A publication Critical patent/JP2013160895A/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an exposure setting device capable of optimizing an exposure of a camera installed on a mobile body when moving.SOLUTION: A GPS in-vehicle device 22 acquires a change in a position of an in-vehicle camera 10 capable of exposure setting, and an inclination sensor 24 acquires a change in an optical axis direction. An image processing unit 30 sets one area or a plurality of image areas capable of varying positions for each image acquisition timing in an image acquired by the in-vehicle camera 10, acquires a luminance of each pixel constituting the image area, and calculates an evaluation value for respectively determining whether or not the plurality of image areas are incompatible areas estimated that image processing cannot be performed due to excess and deficiency of an exposure on the basis of the acquired luminance. Position coordinates of the plurality of set image areas are changed to position coordinates of predetermined areas on the basis of at least one of the change in the position of the in-vehicle camera 10 or the change in the optical axis direction of the in-vehicle camera 10 when it is determined that one of the plurality of image areas is incompatible.

Description

本発明は、車両などの移動体に搭載するカメラのような移動体の移動や設置された建造物自体の振動などにより設置位置や撮影している方向が変化する場合におけるカメラの露出制御を最適とする露出設定装置に関する。   The present invention is optimal for camera exposure control when the installation position or shooting direction changes due to movement of a moving body such as a camera mounted on a moving body such as a vehicle or vibration of the installed building itself. It is related with the exposure setting apparatus.

従来、移動体に搭載されるカメラの露出を調整する方法として、カメラで取得した画像から予め設定された複数の画像領域を抽出し、抽出した領域において算出した複数の輝度値を使って、次に画像を取得する際のカメラの露出制御パラメータを最適値に決定する技術がある(例えば、特許文献1参照)。   Conventionally, as a method for adjusting the exposure of a camera mounted on a moving object, a plurality of preset image areas are extracted from an image acquired by the camera, and the plurality of luminance values calculated in the extracted area are used to There is a technique for determining an exposure control parameter of a camera at the time of acquiring an image to an optimum value (see, for example, Patent Document 1).

特開2010−41668号公報JP 2010-41668 A

ところが、車載カメラで取得した画像において抽出された複数の画像領域はのうち車載カメラの露出を設定するための輝度検出対象領域が固定位置となっている。
したがって、車載カメラなどカメラ自身が動き、カメラの光軸方向(x’, y’, z’)が時系列で変化する場合には、例えば、車載カメラが路面の起伏により上(空側)を向くと、道路白線検出システム用の画像の場合には、画像下部領域に白線が映り、画像上部の領域には空が映るようになる。
However, among the plurality of image regions extracted from the image acquired by the in-vehicle camera, the luminance detection target region for setting the exposure of the in-vehicle camera is a fixed position.
Therefore, when the camera itself such as an in-vehicle camera moves and the optical axis direction (x ', y', z ') of the camera changes in time series, for example, the in-vehicle camera moves up (empty side) due to road undulations. On the other hand, in the case of an image for a road white line detection system, a white line appears in the lower area of the image and a sky appears in the upper area of the image.

すると、空の領域の輝度が非常に大きいため、その空の領域の画像を画像処理できるように、車載カメラの露出を抑制すると、白線のある画面下部領域の輝度が過小となるなど、白線を検出するのに最適な露出制御ではなくなるという問題がある。   Then, since the brightness of the sky area is very high, if you suppress the exposure of the in-vehicle camera so that the image of the sky area can be image-processed, the brightness of the lower area of the screen with the white line becomes too low. There is a problem that the exposure control is not optimal for detection.

本発明は、こうした問題に鑑みなされたもので、移動体に搭載されたカメラの移動時の露出を最適化できる露出設定装置を提供することを目的とする。   The present invention has been made in view of these problems, and an object of the present invention is to provide an exposure setting device that can optimize exposure when a camera mounted on a moving body is moved.

この欄においては、発明に対する理解を容易にするため、必要に応じて「発明を実施するための形態」欄において用いた符号を付すが、この符号によって請求の範囲を限定することを意味するものではない。   In this column, in order to facilitate understanding of the invention, the reference numerals used in the “Mode for Carrying Out the Invention” column are attached as necessary, which means that the scope of claims is limited by this reference numeral. is not.

上記「発明が解決しようとする課題」において述べた問題を解決するためになされた発明は、画像取得手段(10)、画像変化検出手段(20,30)、領域設定手段(30)、輝度取得手段(30)、評価値算出手段(30)、不適合領域判定手段(30)及び領域変更手段(30)を備えている。   The invention made in order to solve the problem described in “Problems to be solved by the invention” includes an image acquisition means (10), an image change detection means (20, 30), an area setting means (30), and a luminance acquisition. Means (30), evaluation value calculation means (30), nonconforming area determination means (30), and area change means (30).

画像取得手段(10)は、移動体(5)に搭載され、移動体(5)周囲の画像を取得する、露出制御パラメータを設定可能なものであり、画像変化検出手段(20,30)と、画像取得手段(10)の位置の変化又は画像取得手段(10)の光軸方向の変化のうち少なくとも1つを検出する。   The image acquisition means (10) is mounted on the moving body (5) and can set an exposure control parameter for acquiring an image around the moving body (5). The image acquisition detecting means (20, 30) and Then, at least one of a change in the position of the image acquisition means (10) or a change in the optical axis direction of the image acquisition means (10) is detected.

領域設定手段(30)は、画像取得手段(10)で取得した画像に、画像取得タイミング毎に位置が可変な複数の画像領域を設定する。
輝度取得手段(30)は、領域設定手段(30)で設定した複数の画像領域を構成する各画素の輝度を取得し、評価値算出手段(30)は、輝度取得手段(30)により取得された輝度に基づいて、複数の画像領域が露光の過不足を原因として画像処理ができないと推定される不適合領域であるか否かをそれぞれ判定するための評価値を算出する。
The area setting means (30) sets a plurality of image areas whose positions are variable at each image acquisition timing in the image acquired by the image acquisition means (10).
The luminance acquisition means (30) acquires the luminance of each pixel constituting the plurality of image areas set by the area setting means (30), and the evaluation value calculation means (30) is acquired by the luminance acquisition means (30). On the basis of the brightness, evaluation values for determining whether or not the plurality of image areas are non-conforming areas that are estimated to be incapable of image processing due to overexposure or underexposure are calculated.

不適合領域判定手段(30)は、評価値算出手段(30)で算出した評価値に基づいて、複数の画像領域が不適合領域であるか否かを判定する。
領域変更手段(30)は、不適合領域判定手段(30)により、複数の画像領域のいずれかが不適合であると判定された場合、画像変化検出手段(20,30)で検出した画像取得手段(10)の位置の変化又は画像取得手段(10)の光軸方向の変化のうち少なくとも1つに基づいて、領域設定手段(30)で設定した複数の画像領域の位置座標を、所定の領域の位置座標へ変更する。
The nonconforming area determining means (30) determines whether or not the plurality of image areas are nonconforming areas based on the evaluation value calculated by the evaluation value calculating means (30).
When the non-conforming region determining unit (30) determines that any of the plurality of image regions is non-conforming, the region changing unit (30) detects the image acquisition unit (20, 30) detected by the image change detecting unit (20, 30). Based on at least one of the change in the position of 10) or the change in the optical axis direction of the image acquisition means (10), the position coordinates of the plurality of image areas set by the area setting means (30) Change to position coordinates.

ここで、「露出制御パラメータ」とは、シャッタ開放時間やゲイン値などのような、画像取得手段(10)の露出を制御するためのパラメータを意味している。
このような露出設定装置(1)によれば、移動体(5)に搭載されたカメラの移動時の露出を最適化できる露出設定装置(1)とすることができる。以下その理由を説明する。
Here, the “exposure control parameter” means a parameter for controlling the exposure of the image acquisition means (10) such as the shutter opening time and the gain value.
According to such an exposure setting device (1), it is possible to provide an exposure setting device (1) that can optimize the exposure when the camera mounted on the moving body (5) is moved. The reason will be described below.

車両のような移動体(5)では、前後方向に移動するととともに、移動の際にピッチ方向に傾く、したがって、移動体(5)に搭載した画像取得手段(10)で取得した画像の輝度が変化する。   The moving body (5) such as a vehicle moves in the front-rear direction and tilts in the pitch direction when moving. Therefore, the brightness of the image acquired by the image acquisition means (10) mounted on the moving body (5) is high. Change.

例えば、移動体(5)が傾斜地に差し掛かり、移動体(5)の前部が上方に傾き、画像取得手段(10)で取得した画像中に空が映った場合、画面全体の輝度が非常に大きくなる。したがって、その輝度を基準として画像取得手段(10)の露出を設定すると、取得する画像の露出が過大となり、画像処理ができないようになってしまう。   For example, when the moving body (5) approaches an inclined ground, the front part of the moving body (5) is tilted upward, and sky appears in the image acquired by the image acquisition means (10), the brightness of the entire screen is very high. growing. Therefore, if the exposure of the image acquisition means (10) is set on the basis of the brightness, the exposure of the acquired image becomes excessive and image processing cannot be performed.

そこで、領域設定手段(30)によって、画像取得タイミング毎に位置が可変な複数の画像領域を設定する。
そして、その領域の評価値に基づいて、その領域が画像処理ができない不適合領域か否かを判定し、不適合であると判定された場合、画像変化検出手段(20,30)で検出した画像取得手段(10)の位置の変化又は画像取得手段(10)の光軸方向の変化のうち少なくとも1つに基づいて、領域設定手段(30)で設定した複数の画像領域の座標位置を、所定の領域の位置座標へ変更する。
Therefore, a plurality of image areas whose positions are variable at each image acquisition timing are set by the area setting means (30).
Then, based on the evaluation value of the area, it is determined whether or not the area is a non-conforming area where image processing cannot be performed. If it is determined that the area is non-conforming, the image acquisition detected by the image change detection means (20, 30) is obtained. Based on at least one of the change in the position of the means (10) or the change in the optical axis direction of the image acquisition means (10), the coordinate positions of the plurality of image areas set by the area setting means (30) Change to the position coordinates of the area.

こうすることで、画像取得手段(10)の位置や光軸方向が移動体(5)の移動に伴って変化しても、それを検出して、画像取得タイミング毎に画像領域が変更され、画像の輝度が常に画像処理可能な値に設定される。   By doing this, even if the position and the optical axis direction of the image acquisition means (10) change with the movement of the moving body (5), it is detected and the image area is changed at every image acquisition timing. The brightness of the image is always set to a value that allows image processing.

つまり、移動体(5)が移動したり、傾斜したりして画像取得手段(10)で取得した画像中に、例えば空のような輝度の大きな部分が入ってくるような状態になっても、移動体(5)に搭載されたカメラの露出を最適化できる露出設定装置(1)とすることができるのである。   That is, even if the moving body (5) moves or tilts and an image acquired by the image acquisition means (10) includes a portion with a high luminance such as the sky, for example. The exposure setting device (1) can optimize the exposure of the camera mounted on the moving body (5).

第1実施形態における車載カメラ露出設定装置の概略の構成を示すブロック図である。It is a block diagram which shows the structure of the outline of the vehicle-mounted camera exposure setting apparatus in 1st Embodiment. 露出設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an exposure setting process. 車載カメラで取得した画像に設定又は変更した複数の画像領域の例である。It is an example of the several image area | region set or changed to the image acquired with the vehicle-mounted camera. 第2実施形態における車載カメラ露出設定装置の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the vehicle-mounted camera exposure setting apparatus in 2nd Embodiment. 第3実施形態における車載カメラ露出設定装置の概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the vehicle-mounted camera exposure setting apparatus in 3rd Embodiment. 第3実施形態における画像マッチングにより特定した他車両までの距離を算出する原理を示す図である。It is a figure which shows the principle which calculates the distance to the other vehicle specified by the image matching in 3rd Embodiment. 第4実施形態における車載カメラから他車両までの距離を算出する原理を示す図である。It is a figure which shows the principle which calculates the distance from the vehicle-mounted camera in 4th Embodiment to another vehicle.

以下、本発明が適用された実施形態について図面を用いて説明する。なお、本発明の実施の形態は、下記の実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
[第1実施形態]
車載カメラ露出設定装置1は、図1に示すように、車載カメラ10、センサ部20、画像処理部30及び制御部40を備えている。
Embodiments to which the present invention is applied will be described below with reference to the drawings. The embodiment of the present invention is not limited to the following embodiment, and can take various forms as long as they belong to the technical scope of the present invention.
[First Embodiment]
The in-vehicle camera exposure setting device 1 includes an in-vehicle camera 10, a sensor unit 20, an image processing unit 30, and a control unit 40 as shown in FIG.

車載カメラ10は、車両5(図6参照)周囲の画像を取得するカメラであり、車両5の進行方向前方の画像を取得できるように、車両5の車体前部やルーフの上に搭載されている。   The in-vehicle camera 10 is a camera that acquires an image around the vehicle 5 (see FIG. 6), and is mounted on the front of the vehicle body or the roof of the vehicle 5 so that an image in front of the traveling direction of the vehicle 5 can be acquired. Yes.

車載カメラ10は、CCDカメラや赤外線カメラなどのカメラであり、制御部40からの指令により、カメラ露出制御のパラメータ(シャッタ開放時間やゲイン値)の変更ができるようになっている。   The in-vehicle camera 10 is a camera such as a CCD camera or an infrared camera, and can change a camera exposure control parameter (shutter opening time or gain value) by a command from the control unit 40.

センサ部20は、GPS車載器22及び傾斜センサ24を備えている。
GPS車載器22は、図示しないGPS衛星からの測位情報を受信し、GPS車載器22の現在位置(換言すれば、車両5及び車両5に搭載されている車載カメラ10の現在位置)を出力する(以下、車載カメラ10の位置を車両5の位置とも呼ぶ)。
The sensor unit 20 includes a GPS vehicle-mounted device 22 and a tilt sensor 24.
The GPS vehicle-mounted device 22 receives positioning information from a GPS satellite (not shown) and outputs the current position of the GPS vehicle-mounted device 22 (in other words, the current position of the vehicle 5 and the vehicle-mounted camera 10 mounted on the vehicle 5). (Hereinafter, the position of the in-vehicle camera 10 is also referred to as the position of the vehicle 5).

傾斜センサ24は、車載カメラ10の光軸方向を検出するためのセンサである。具体的には、例えば加速度センサであり、車両5の加速度を検出できるように取り付けられている。そして、車両5がピッチ方向に傾いたときに検出される加速度と、重力加速度の比(又は差分)から車両5の傾斜角を検出する。   The tilt sensor 24 is a sensor for detecting the optical axis direction of the in-vehicle camera 10. Specifically, for example, an acceleration sensor is attached so that the acceleration of the vehicle 5 can be detected. Then, the inclination angle of the vehicle 5 is detected from the ratio (or difference) between the acceleration detected when the vehicle 5 is tilted in the pitch direction and the gravitational acceleration.

車両5の傾斜角が検出できれば、車両5に搭載されている車載カメラ10の光軸の傾きを検出することができる。
画像処理部30は、CPU、ROM、RAM、I/O及び画像処理用のPGAを備えており、ROM及びPGAに格納されているプログラムにより、以下の(ア)〜(ク)に示す露出設定処理を実行する。
(ア)GPS車載器22から車両5の現在位置を取得し、車両5の位置の時間変化を算出する。
(イ)加速度センサ24から加速度を取得し、重力加速度と比較することによって、車両5のピッチ方向の傾斜角の時間変化を算出する。
(ウ)車両5の位置及び傾斜角の変化に基づいて、車載カメラ10で取得した画像に、複数の画像領域を設定する。
(エ)設定した各画像領域を構成する各画素の輝度を取得する。
(オ)取得した輝度に基づいて、複数の画像領域が露光の過不足を原因として画像処理ができないと推定される不適合領域であるか否かをそれぞれ判定するための評価値を算出する。
(カ)算出した評価値に基づいて、複数の画像領域が不適合領域であるか否かを判定する。
(キ)複数の画像領域のいずれかが不適合であると判定された場合、車両5の位置の変化又は車両5のピッチ方向又はヨー方向の変化のうち少なくとも1つに基づいて、設定した複数の画像領域の位置座標を、所定の領域の位置座標へ変更する。
(ク)複数の画像領域が不適合領域であると判定された場合、評価値が所定の評価値に近づくように次回時刻(次回の処理フロー時)の露出制御パラメータを変更し、制御部40へ出力する。
If the inclination angle of the vehicle 5 can be detected, the inclination of the optical axis of the in-vehicle camera 10 mounted on the vehicle 5 can be detected.
The image processing unit 30 includes a CPU, a ROM, a RAM, an I / O, and a PGA for image processing, and exposure settings shown in the following (a) to (c) by programs stored in the ROM and the PGA. Execute the process.
(A) The current position of the vehicle 5 is acquired from the GPS onboard device 22 and the time change of the position of the vehicle 5 is calculated.
(B) The time change of the inclination angle of the vehicle 5 in the pitch direction is calculated by acquiring the acceleration from the acceleration sensor 24 and comparing it with the gravitational acceleration.
(C) A plurality of image areas are set in the image acquired by the in-vehicle camera 10 based on the change in the position and the inclination angle of the vehicle 5.
(D) The brightness of each pixel constituting each set image area is acquired.
(E) Based on the acquired luminance, an evaluation value for determining whether each of the plurality of image areas is a non-conforming area estimated to be incapable of image processing due to overexposure or underexposure is calculated.
(F) Based on the calculated evaluation value, it is determined whether or not the plurality of image areas are non-conforming areas.
(G) When it is determined that any of the plurality of image areas is incompatible, the plurality of set areas are set based on at least one of a change in the position of the vehicle 5 or a change in the pitch direction or the yaw direction of the vehicle 5. The position coordinates of the image area are changed to the position coordinates of the predetermined area.
(H) When it is determined that the plurality of image areas are non-conforming areas, the exposure control parameter at the next time (during the next processing flow) is changed so that the evaluation value approaches a predetermined evaluation value, and the control unit 40 Output.

制御部40は、画像処理部30から出力される露出制御パラメータを入力し、車載カメラ10のシャッタの開放時間やゲイン値を制御するものである。
(露出設定処理)
次に、露出設定処理の詳細について、図2に基づいて説明する。露出設定処理は、CPUが実行し、ΔTの処理周期で実行され、処理が開始されると、図2に示すように、まずS100において、CPUが車載カメラ10から画像を取得する。
The control unit 40 receives exposure control parameters output from the image processing unit 30 and controls the shutter opening time and gain value of the in-vehicle camera 10.
(Exposure setting process)
Next, details of the exposure setting process will be described with reference to FIG. The exposure setting process is executed by the CPU, and is executed at a processing period of ΔT. When the process is started, the CPU first acquires an image from the in-vehicle camera 10 in S100 as shown in FIG.

続くS105では、GPS車載器22から、車両5の現在位置を取得し、続くS110では、車両5の現在位置の変化を算出する。つまり、S105において取得した車両5の現在位置と前回の処理ループにおけるS105において取得した車両5の現在位置との差を処理周期ΔTで除して車両5の現在位置の変化を算出する。   In subsequent S105, the current position of the vehicle 5 is acquired from the GPS vehicle-mounted device 22, and in subsequent S110, a change in the current position of the vehicle 5 is calculated. That is, a change in the current position of the vehicle 5 is calculated by dividing the difference between the current position of the vehicle 5 acquired in S105 and the current position of the vehicle 5 acquired in S105 in the previous processing loop by the processing period ΔT.

続くS115では、加速度センサ24から加速度を取得し、続くS120では、車両5のピッチ方向の傾斜角の変化を算出する。
つまり、重力加速度G(9.8m/s2)に対して、加速度センサ24から取得した加速度の値をx、車両5のピッチ方向の傾斜角をθとすると、下記式1のようになる。
In the subsequent S115, the acceleration is acquired from the acceleration sensor 24, and in the subsequent S120, the change in the inclination angle of the vehicle 5 in the pitch direction is calculated.
That is, with respect to the gravitational acceleration G (9.8 m / s 2 ), when the acceleration value acquired from the acceleration sensor 24 is x and the inclination angle of the vehicle 5 in the pitch direction is θ, the following equation 1 is obtained.

θ=cos-1(x/G)・・・ 式1
この傾斜角θが車載カメラ10の光軸の傾斜角となるので、S115において取得した加速度から算出した傾斜角と前回の処理ループのS115において取得した加速度から算出した傾斜角の差を処理周期ΔTで除して、車載カメラ10の光軸の角度変化を算出する。
θ = cos −1 (x / G) Equation 1
Since this inclination angle θ becomes the inclination angle of the optical axis of the vehicle-mounted camera 10, the difference between the inclination angle calculated from the acceleration acquired in S115 and the inclination angle calculated from the acceleration acquired in S115 of the previous processing loop is the processing period ΔT. The angle change of the optical axis of the in-vehicle camera 10 is calculated.

続く、S125では、S100において車載カメラ10から取得した画像に複数の画像領域を設定する。複数の画像領域の設定は、例えば、図3(a)に示すように、空など路面以外の領域(図a(a)中「A」で示す)と路面の領域(図3(a)中「B」で示す)を設定する。   In S125, a plurality of image areas are set in the image acquired from the in-vehicle camera 10 in S100. For example, as shown in FIG. 3 (a), the setting of the plurality of image areas includes an area other than the road surface (indicated by “A” in FIG. A (a)) such as the sky and a road surface area (in FIG. 3 (a)). Set as “B”).

続くS130では、設定した複数の領域を構成する各画素の輝度を取得し、続くS135において評価値を算出する。
ここで、評価値とは、S130において取得した輝度から、複数の画像領域が露光の過不足を原因として、S160において実行する画像処理ができないと推定される不適合領域であるか否かをそれぞれ判定するための評価値を意味している。
In subsequent S130, the brightness of each pixel constituting the plurality of set areas is acquired, and in S135, an evaluation value is calculated.
Here, the evaluation value is determined based on the brightness acquired in S130 whether or not the plurality of image areas are nonconforming areas that are estimated to be incapable of image processing performed in S160 due to overexposure or underexposure. It means the evaluation value to do.

本実施形態においては、複数の画像領域における各画素の輝度の平均値を各画像領域の評価値とする。
続くS140では、不適合領域があるか否かを判定する。つまり、S135で算出した各画像領域の評価値が所定の値の範囲内にあるか否かを判定する。
In this embodiment, the average value of the luminance of each pixel in a plurality of image areas is used as the evaluation value for each image area.
In continuing S140, it is determined whether there exists a nonconforming area | region. That is, it is determined whether or not the evaluation value of each image area calculated in S135 is within a predetermined value range.

これは、画像中の輝度が大きすぎると、その画像中から、S160で処理する画像処理ができなくなってしまうことがある。したがって、画面の輝度はある範囲内に収まっていることが必要であるからである。   This is because if the luminance in the image is too high, the image processing to be processed in S160 may not be possible from that image. Therefore, the screen brightness needs to be within a certain range.

そこで、S135において算出した各画像領域の評価値(平均輝度値)が、画像処理が不可能であると判定する。例として、256階調(0〜255)の輝度値で画像処理を行う場合には、例えばその中間値である128やあるいは別の所定の輝度値などから算出される評価値を中心値として所定の値に収まっているか否かを判定する。   Therefore, the evaluation value (average luminance value) of each image area calculated in S135 determines that image processing is impossible. For example, when image processing is performed with luminance values of 256 gradations (0 to 255), for example, an evaluation value calculated from an intermediate value of 128 or another predetermined luminance value is used as a central value. It is determined whether it is within the value of.

そして、所定の値に収まっていないと判定した場合(S140:No)には、その画像領域を不適合領域と判定し、処理をS145へ移行させ、所定の値に収まっていると判定した場合(S140:Yes)、処理をS160へ移行させる。   If it is determined that the image area does not fall within the predetermined value (S140: No), the image area is determined to be a non-conforming area, the process proceeds to S145, and the image area is determined to be within the predetermined value ( (S140: Yes), the process proceeds to S160.

S145では、S110において算出した車両5の現在位置の変化及びS120において算出した車載カメラ10の光軸の角度変化のうち少なくとも1つに基づいて、S125において設定した設定した複数の画像領域の位置座標を、所定の領域の位置座標へ変更する。   In S145, based on at least one of the change in the current position of the vehicle 5 calculated in S110 and the change in the angle of the optical axis of the in-vehicle camera 10 calculated in S120, the position coordinates of the set image regions set in S125 Is changed to the position coordinates of a predetermined area.

具体的には、車載カメラ10の光軸が、車載カメラ10の車両5へのピッチ方向への取付角度、車載カメラ10の視野角及び光軸の角度で決まる所定の角度以上になると、取得する画像中に非常に輝度の高い空が入ってくる。   Specifically, when the optical axis of the in-vehicle camera 10 is equal to or larger than a predetermined angle determined by the mounting angle of the in-vehicle camera 10 to the vehicle 5 in the pitch direction, the viewing angle of the in-vehicle camera 10, and the angle of the optical axis. A very bright sky enters the image.

すると、空が入った画像領域の輝度を画像処理可能な所定輝度に抑制しようとすると、他の画像領域の輝度が低くなり、全体画像の画像処理ができなくなってしまうことになる。   Then, if it is attempted to suppress the brightness of the image area containing the sky to a predetermined brightness that allows image processing, the brightness of the other image areas becomes low, and the entire image cannot be processed.

そこで、図3(b)に示すように、光軸が上に変化する場合には、不適合領域である空の領域(図3(b)中「A」で示す)が路面の画像領域(図3中「B」で示す)の中に入ってこないように、車載カメラ10の光軸の角度の上方向への変化割合以上の速さ(画像中では上下方向の大きさ)で、路面の画像領域の座標を所定の大きさ分下方向に変化させる(図3(b)中「C」で示す)。   Therefore, as shown in FIG. 3B, when the optical axis changes upward, an empty area (indicated by “A” in FIG. 3B) that is a non-conforming area is an image area on the road surface (see FIG. 3B). 3) (indicated by “B” in FIG. 3) at a speed (up and down direction in the image) that is higher than the rate of change of the angle of the optical axis of the in-vehicle camera 10 in the upward direction. The coordinates of the image area are changed downward by a predetermined size (indicated by “C” in FIG. 3B).

また、車両5が走行すると位置の変化により不適合領域である空の領域が複数の画像領域に入ってくるため、空の領域が複数の画像領域に入らないように、車両5の位置の変化以上の速さ(画像中では上下の大きさ)で、路面の画像領域の座標を所定の大きさ分下に変更する。   Further, when the vehicle 5 travels, an empty area that is a non-conforming area enters a plurality of image areas due to a change in position, so that the empty area does not enter a plurality of image areas. The coordinates of the image area on the road surface are changed downward by a predetermined size at the speed of (the vertical size in the image).

続くS150では、S135で算出した評価値が所定の評価値に近づくように次回時刻の露出制御パラメータを変更する。
露出制御パラメータの変更は、例えば、S135で算出した評価値である平均輝度が小さい場合には、シャッタ開放時間を長くしたり、ゲイン値を大きく設定したりする。逆に平均輝度が大きい場合には、シャッタ開放時間を短くしたり、ゲイン値を小さく設定したりする。
In subsequent S150, the exposure control parameter at the next time is changed so that the evaluation value calculated in S135 approaches a predetermined evaluation value.
For example, when the average brightness, which is the evaluation value calculated in S135, is small, the exposure control parameter is changed by increasing the shutter opening time or setting the gain value large. Conversely, when the average luminance is high, the shutter opening time is shortened or the gain value is set small.

続くS155では、S150において変更した露出制御パラメータを制御部40へ出力した後、処理をS100へ戻し、処理をS160へ移行する。
S160では、画像処理を行う。この画像処理は、特にその処理内容が決められているものではなく、例えば、白線認識処理のように、車載カメラ10で取得した画像からエッジ成分を抽出するなとの処理により、路面に描かれている白線を認識する処理や駐車支援用の後方カメラ画像表示処理のように、車両5のハンドル舵角情報から、画像中に車両5の予想針路をインポーズして、カーナビゲーション装置の画面に表示したりする処理など、画像の輝度が画像処理内容に影響を与える画像処理であればよい。
In continuing S155, after outputting the exposure control parameter changed in S150 to the control part 40, a process is returned to S100 and a process is transfered to S160.
In S160, image processing is performed. The processing content of this image processing is not particularly determined. For example, the image processing is drawn on the road surface by a process such as extracting the edge component from the image acquired by the in-vehicle camera 10 as in the white line recognition processing. Like the process of recognizing a white line and the rear camera image display process for parking assistance, the predicted course of the vehicle 5 is implied in the image from the steering angle information of the vehicle 5 and displayed on the screen of the car navigation device. Any image processing in which the brightness of the image affects the content of the image processing, such as display processing, may be used.

あるいは、例えばその画像処理は、監視カメラのように、前述のカメラの露出制御のみ実施され、ディスプレイで画像として提示したり記録媒体に記録し処理を終了するなど、ソフトウェア上での画像処理は実施されなくともよい。   Alternatively, for example, the image processing is performed only for the above-described camera exposure control like a surveillance camera, and the image processing on software is performed such as presenting as an image on a display or recording on a recording medium and ending the processing. It does not have to be done.

なお、画像処理の具体的処理方法については、周知の方法であるため、その説明は省略する。
そして、画像処理を行った後、処理をS100へ戻し、露出設定処理を繰り返す。
(車載カメラ露出設定装置1の特徴)
以上のような車載カメラ露出設定装置1では、画像中に設定した複数の領域のうち、画像処理ができない不適合領域か否かを判定し、不適合であると判定された場合、車載カメラ10の位置の変化又は車載カメラ10の光軸方向の変化のうち少なくとも1つに基づいて、設定した複数の画像領域を、不適合領域が複数の画像領域中に入らないように変更する。
Note that a specific processing method of the image processing is a well-known method, and thus description thereof is omitted.
Then, after performing the image processing, the processing returns to S100, and the exposure setting processing is repeated.
(Features of in-vehicle camera exposure setting device 1)
In the on-vehicle camera exposure setting device 1 as described above, it is determined whether or not the plurality of areas set in the image are non-conforming areas where image processing cannot be performed. Or a change in the optical axis direction of the in-vehicle camera 10, the set plurality of image areas are changed so that the non-conforming area does not enter the plurality of image areas.

したがって、車載カメラ10の位置や光軸方向が車両5の移動に伴って変化しても、それを検出して、画像取得タイミング毎に画像領域が変更され、画像の輝度が常に画像処理可能な値に設定される。   Therefore, even if the position and the optical axis direction of the in-vehicle camera 10 change as the vehicle 5 moves, it is detected and the image area is changed at every image acquisition timing, so that the brightness of the image can always be processed. Set to a value.

つまり、車両5が移動したり、傾斜したりして車載カメラ10で取得した画像中に、例えば空のような輝度の大きな部分が入ってくるような状態になっても、車両5に搭載されたカメラの露出を最適化できる。   That is, even if the vehicle 5 moves or tilts and an image acquired by the in-vehicle camera 10 enters a portion with a high luminance such as the sky, the vehicle 5 is mounted on the vehicle 5. Optimize camera exposure.

また、GPS車載器22で車載カメラ10の位置を検出し、傾斜センサ24(加速度センサ24)で車載カメラ10の光軸の傾斜角を検出しているので、正確に位置の変化や光軸の方向の変化を検出できる。   Further, since the position of the in-vehicle camera 10 is detected by the GPS onboard device 22 and the inclination angle of the optical axis of the in-vehicle camera 10 is detected by the inclination sensor 24 (acceleration sensor 24), the position change and the optical axis of the optical axis are accurately detected. Change in direction can be detected.

さらに、複数の画像領域を構成する各画素の輝度の平均値を評価値としているので、評価値の算出処理が容易で処理速度を向上させることができる。
また、露出パラメータが所定の評価値に近づくように変更しているので、車載カメラ10で取得する画像の評価値(輝度)を、S160で実行する画像処理を行うのに適したものとすることができる。
[第2実施形態]
次に、第1実施形態のセンサ部20のGPS車載器22の代わりに、レーダ26を用いて位置の変化を取得するようにした第2実施形態の車載カメラ露出設定装置2について説明する。
Furthermore, since the average value of the luminance of each pixel constituting a plurality of image areas is used as the evaluation value, the evaluation value calculation process is easy and the processing speed can be improved.
In addition, since the exposure parameter is changed so as to approach the predetermined evaluation value, the evaluation value (luminance) of the image acquired by the in-vehicle camera 10 is suitable for performing the image processing executed in S160. Can do.
[Second Embodiment]
Next, the in-vehicle camera exposure setting device 2 according to the second embodiment that acquires a change in position using a radar 26 instead of the GPS in-vehicle device 22 of the sensor unit 20 according to the first embodiment will be described.

第2実施形態では、図4に示すように、レーダ26を備えている。このレーダ26は、ミリ波レーダ若しくはレーザレーダのように、車両5の前方にある他車両、標識あるいは建物などまでの距離とその方位を取得するものである。   In the second embodiment, a radar 26 is provided as shown in FIG. This radar 26, like a millimeter wave radar or a laser radar, acquires the distance and direction to another vehicle, a sign, a building, or the like ahead of the vehicle 5.

そして、画像処理部30において、レーダ26で取得した物体までの距離を一定の時間間隔で取得することにより、車両5(つまり車載カメラ10)の位置の変化を検出することができる。
(露出設定処理)
第2実施形態の露出設定処理では、図2に示す第1実施形態の露出設定処理のS105においてGPS車載器22から車両5の現在位置を取得する代わりに、レーダ26から車両5前方の物体までの距離を取得する。
The image processing unit 30 can detect the change in the position of the vehicle 5 (that is, the in-vehicle camera 10) by acquiring the distance to the object acquired by the radar 26 at a constant time interval.
(Exposure setting process)
In the exposure setting process of the second embodiment, instead of acquiring the current position of the vehicle 5 from the GPS onboard device 22 in S105 of the exposure setting process of the first embodiment shown in FIG. Get the distance.

そして、S110において、S105において取得した距離をΔTで除して、距離の変化を算出する。このとき、露出処理を開始した最初のループの際の位置を基準点(つまり0)とすれば、その基準点からの車両5の位置の変化を求めることができる。   In step S110, the distance acquired in step S105 is divided by ΔT to calculate a change in distance. At this time, if the position at the first loop in which the exposure process is started is set as a reference point (that is, 0), a change in the position of the vehicle 5 from the reference point can be obtained.

このようにすると、レーダ26で得られた正確な距離によって、容易かつ正確に車載カメラ10の位置の変化を得ることができる。
[第3実施形態]
次に、第1実施形態のセンサ部20のGPS車載器22の代わりに、画像処理により位置の変化を取得するようにした第3実施形態の車載カメラ露出設定装置3について説明する。
In this way, the change in the position of the in-vehicle camera 10 can be easily and accurately obtained by the accurate distance obtained by the radar 26.
[Third Embodiment]
Next, an in-vehicle camera exposure setting device 3 according to a third embodiment that acquires a change in position by image processing instead of the GPS in-vehicle device 22 of the sensor unit 20 according to the first embodiment will be described.

第3実施形態では、図1(第1実施形態)に示すGPS車載器22や傾斜センサ24あるいは、図4(第2実施形態)に示すような、レーダ26の代わりに、図5に示すように記憶装置50を備えている。   In the third embodiment, as shown in FIG. 5 instead of the on-vehicle GPS device 22 and the inclination sensor 24 shown in FIG. 1 (first embodiment) or the radar 26 as shown in FIG. 4 (second embodiment). The storage device 50 is provided.

記憶装置50は、ハードディスク装置やDVD−ROMあるいはUSBメモリのような半導体記憶装置であり、車両5の走行中に前方に存在する物体、例えば、種々の車両、信号、標識など予めその大きさなどの形状情報が格納されている。   The storage device 50 is a semiconductor storage device such as a hard disk device, a DVD-ROM, or a USB memory. The storage device 50 is a front object while the vehicle 5 is running, such as various vehicles, signals, signs, etc. Is stored.

そして、車載カメラ10で取得した画像を記憶装置50に格納された物体の形状とマッチングさせることにより、画像中から物体を特定する。マッチングの方法は一般的な周知の方法によればよいため、その説明は省略する。   Then, the object acquired from the image is specified by matching the image acquired by the in-vehicle camera 10 with the shape of the object stored in the storage device 50. Since a matching method may be a general well-known method, description thereof is omitted.

そして、例えば図6に示すように、車載カメラ10から他車両7までの距離は、下記式2によって、マッチングにより特定した物体(ここで、他車両7とする)と画像中の消失点(図6(a)中「V」で示す)との画像中での間隔(図6(a)中「y」で示す)、車載カメラ10の車両5における設置高さ(図6(b)中「H」で示す)及び車載カメラ10の焦点距離fにより求めることができる。   For example, as shown in FIG. 6, the distance from the in-vehicle camera 10 to the other vehicle 7 is determined by matching the object (referred to here as the other vehicle 7) identified by matching according to the following formula 2 and the vanishing point in the image (see FIG. 6). 6 (a) (indicated by “V”) in the image (indicated by “y” in FIG. 6 (a)), the installation height of the in-vehicle camera 10 in the vehicle 5 (in FIG. 6 (b) “ H ”) and the focal length f of the in-vehicle camera 10.

(露出設定処理)
第3実施形態の露出設定処理では、図2に示す第1実施形態の露出設定処理のS105において、GPS車載器22から演じ位置を取得する代わりに、S100において取得した画像において、画像中の車両5を特定し、画像中の消失点との間隔、車載カメラ10の設置位置及び車載かめら10の焦点距離fに基づいて、前述の式2により、物体までの距離を求める。
(Exposure setting process)
In the exposure setting process of the third embodiment, in S105 of the exposure setting process of the first embodiment shown in FIG. 2, instead of acquiring the performance position from the GPS onboard unit 22, in the image acquired in S100, the vehicle in the image 5 is determined, and the distance to the object is obtained by the above-described equation 2 based on the distance from the vanishing point in the image, the installation position of the in-vehicle camera 10 and the focal length f of the in-vehicle camera 10.

そして、S110において、S105において取得した距離をΔTで除して、距離の変化を算出する。このとき、露出処理を開始した最初のループの際の位置を基準点(つまり0)とすれば、その基準点からの車両5の位置の変化を求めることができる。   In step S110, the distance acquired in step S105 is divided by ΔT to calculate a change in distance. At this time, if the position at the first loop in which the exposure process is started is set as a reference point (that is, 0), a change in the position of the vehicle 5 from the reference point can be obtained.

このように、車載カメラ10の位置の変化を画像処理にて取得しているので、位置の変化の取得のための何らかの装置が不要となり、車載カメラ露出設定装置1を小型かつ安価な構成とすることができる。
[第4実施形態]
次に、図7に基づき、第3実施形態の車載カメラ露出設定装置3における露出設定処理の距離の算出方法を変更した第4実施形態ついて説明する。
Thus, since the change in the position of the in-vehicle camera 10 is acquired by image processing, any device for acquiring the change in position is not required, and the in-vehicle camera exposure setting device 1 is configured to be small and inexpensive. be able to.
[Fourth Embodiment]
Next, based on FIG. 7, a description will be given of a fourth embodiment in which the distance calculation method of the exposure setting process in the in-vehicle camera exposure setting device 3 of the third embodiment is changed.

第4実施形態では、図7に示すように、記憶装置50に格納されている他車両7の車幅や他構造物の寸法データWと画像中の他車両7のピクセル長さw及び車載カメラ10の焦点距離から下記の式3に従って、車載カメラ10と他車両7間の距離Zを算出する。   In the fourth embodiment, as shown in FIG. 7, the vehicle width of the other vehicle 7 and the dimension data W of the other structure stored in the storage device 50, the pixel length w of the other vehicle 7 in the image, and the in-vehicle camera The distance Z between the in-vehicle camera 10 and the other vehicle 7 is calculated from the focal length of 10 according to the following Expression 3.

このようにして、車載カメラ10と他車両7の間の距離を算出しても、第3実施形態の車載カメラ露出設定装置3と同様の効果を得ることができる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は、本実施形態に限定されるものではなく、種々の態様を採ることができる。
Thus, even if the distance between the vehicle-mounted camera 10 and the other vehicle 7 is calculated, the same effect as the vehicle-mounted camera exposure setting device 3 of the third embodiment can be obtained.
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to this embodiment, A various aspect can be taken.

第1実施形態〜第3実施形態では、複数の画像領域における各画素の輝度の平均値を各画像領域の評価値としたが、それ以外のものを評価値としてもよい。たとえば、最大輝度値や最大輝度値と最小輝度値の差分などであってもよい。   In the first to third embodiments, the average value of the luminance of each pixel in a plurality of image regions is used as the evaluation value of each image region, but other values may be used as the evaluation values. For example, the maximum luminance value or the difference between the maximum luminance value and the minimum luminance value may be used.

1,2,3… 車載カメラ露出設定装置 5… 車両 7… 他車両 10… 車載カメラ 20… センサ部 22… GPS車載器 24… 傾斜センサ(加速度センサ) 26… レーダ 30… 画像処理部 40… 制御部 50… 記憶装置。   1, 2, 3 ... In-vehicle camera exposure setting device 5 ... Vehicle 7 ... Other vehicle 10 ... In-vehicle camera 20 ... Sensor unit 22 ... GPS in-vehicle device 24 ... Inclination sensor (acceleration sensor) 26 ... Radar 30 ... Image processing unit 40 ... Control Unit 50: Storage device.

Claims (7)

移動体(5)に搭載され、前記移動体周囲の画像を取得する、露出制御パラメータを設定可能な画像取得手段(10)と、
前記画像取得手段の位置の変化又は前記画像取得手段の光軸方向の変化のうち少なくとも1つを検出する画像変化検出手段(20,30)と、
前記画像取得手段で取得した画像に、画像取得タイミング毎に位置が可変な複数の画像領域を設定する領域設定手段(30)と、
前記領域設定手段で設定した前記複数の画像領域を構成する各画素の輝度を取得する輝度取得手段(30)と、
前記輝度取得手段により取得された輝度に基づいて、前記複数の画像領域が露光の過不足を原因として画像処理ができないと推定される不適合領域であるか否かをそれぞれ判定するための評価値を算出する評価値算出手段(30)と、
前記評価値算出手段で算出した評価値に基づいて、前記複数の画像領域が不適合領域であるか否かを判定する不適合領域判定手段(30)と、
前記不適合領域判定手段により、前記複数の画像領域のいずれかが不適合であると判定された場合、前記画像変化検出手段で検出した前記画像取得手段の位置の変化又は前記画像取得手段の光軸方向の変化のうち少なくとも1つに基づいて、前記領域設定手段で設定した複数の画像領域の位置座標を、所定の領域の位置座標へ変更する領域変更手段(30)と、
を備えたことを特徴とするカメラ露出設定装置(1)。
An image acquisition means (10) which is mounted on the moving body (5) and which can set an exposure control parameter for acquiring an image around the moving body;
Image change detection means (20, 30) for detecting at least one of a change in the position of the image acquisition means or a change in the optical axis direction of the image acquisition means;
Area setting means (30) for setting a plurality of image areas whose positions are variable at each image acquisition timing in the image acquired by the image acquisition means;
Luminance acquisition means (30) for acquiring the luminance of each pixel constituting the plurality of image areas set by the area setting means;
Based on the brightness acquired by the brightness acquisition means, an evaluation value for determining whether each of the plurality of image areas is a non-conforming area that is estimated to be incapable of image processing due to overexposure or underexposure. An evaluation value calculating means (30) for calculating;
A nonconforming area determining means (30) for determining whether or not the plurality of image areas are nonconforming areas based on the evaluation value calculated by the evaluation value calculating means;
When the nonconforming region determining unit determines that any of the plurality of image regions is nonconforming, the change in the position of the image acquiring unit detected by the image change detecting unit or the optical axis direction of the image acquiring unit Area changing means (30) for changing the position coordinates of the plurality of image areas set by the area setting means to position coordinates of a predetermined area based on at least one of the changes of
A camera exposure setting device (1) comprising:
請求項1に記載のカメラ露出制御装置において、
前記不適合領域判定手段において、前記複数の画像領域のいずれかが不適合領域であると判定された場合、前記評価値算出手段で算出した評価値が所定の評価値に近づくように次回時刻の露出制御パラメータを変更することを特徴とするカメラ露出設定装置。
The camera exposure control device according to claim 1,
When the nonconforming area determining means determines that any of the plurality of image areas is a nonconforming area, the next time exposure control is performed so that the evaluation value calculated by the evaluation value calculating means approaches a predetermined evaluation value. A camera exposure setting device characterized by changing a parameter.
請求項1又は請求項2に記載のカメラ露出設定装置において、
前記画像変化検出手段は、
前記画像取得手段から前記移動体の移動方向に存在する物体までの距離を取得する距離取得手段(26)を備え、
前記画像取得手段の位置の変化を、所定の基準位置から前記距離取得手段で取得した前記物体までの距離の変化によって検出することを特徴とするカメラ露出設定装置。
In the camera exposure setting device according to claim 1 or 2,
The image change detecting means includes
Distance acquisition means (26) for acquiring a distance from the image acquisition means to an object existing in the moving direction of the moving body;
A camera exposure setting device that detects a change in the position of the image acquisition means based on a change in a distance from a predetermined reference position to the object acquired by the distance acquisition means.
請求項3に記載のカメラ露出設定装置において、
前記距離取得手段は、
前記移動体の進行方向に存在する物体の形状情報を格納した格納手段(28)と、
前記格納手段に格納された物体の形状とマッチングさせることにより前記画像取得手段で取得した画像中から物体を特定する特定手段(30)と、
を備え、
前記画像において、前記特定手段で特定した前記画像中の物体と前記画像中の消失点との間隔、前記画像取得手段の設置位置及び前記画像取得手段の焦点距離に基づいて、前記画像取得手段から前記物体までの距離を取得することを特徴とするカメラ露出設定装置。
In the camera exposure setting device according to claim 3,
The distance acquisition means includes
Storage means (28) for storing shape information of an object existing in the traveling direction of the moving body;
Specifying means (30) for specifying an object from the image acquired by the image acquisition means by matching with the shape of the object stored in the storage means;
With
In the image, based on the distance between the object in the image specified by the specifying unit and the vanishing point in the image, the installation position of the image acquiring unit, and the focal length of the image acquiring unit, from the image acquiring unit A camera exposure setting device characterized by acquiring a distance to the object.
請求項3に記載のカメラ露出設定装置において、
前記距離取得手段は、
前記移動体の進行方向に存在する物体までの距離と方位を測定する測距手段(26)により、前記画像取得手段から前記物体までの距離を取得することを特徴とするカメラ露出設定装置。
In the camera exposure setting device according to claim 3,
The distance acquisition means includes
The camera exposure setting apparatus characterized in that the distance from the image acquisition means to the object is acquired by distance measurement means (26) that measures the distance and direction to the object existing in the traveling direction of the moving body.
請求項1〜請求項5のいずれか1項に記載のカメラ露出設定装置において、
前記画像変化検出手段は、
前記画像取得手段の光軸方向を取得する光軸方向取得手段(24)を備え、
前記画像取得手段の光軸方向の変化を前記光軸方向取得手段で取得した光軸方向の時間変化により検出することを特徴とするカメラ露出設定装置。
In the camera exposure setting device according to any one of claims 1 to 5,
The image change detecting means includes
Optical axis direction acquisition means (24) for acquiring the optical axis direction of the image acquisition means,
A camera exposure setting device, wherein a change in the optical axis direction of the image acquisition means is detected by a time change in the optical axis direction acquired by the optical axis direction acquisition means.
請求項1〜請求項6のいずれか1項に記載のカメラ露出設定装置において、
前記評価値算出手段は、
前記複数の画像領域を構成する各画素の輝度の平均値から算出される評価値とすることを特徴とするカメラ露出設定装置。
In the camera exposure setting device according to any one of claims 1 to 6,
The evaluation value calculation means includes
A camera exposure setting device characterized in that an evaluation value calculated from an average value of luminance of each pixel constituting the plurality of image regions is used.
JP2012022060A 2012-02-03 2012-02-03 Camera exposure setting device Pending JP2013160895A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012022060A JP2013160895A (en) 2012-02-03 2012-02-03 Camera exposure setting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012022060A JP2013160895A (en) 2012-02-03 2012-02-03 Camera exposure setting device

Publications (1)

Publication Number Publication Date
JP2013160895A true JP2013160895A (en) 2013-08-19

Family

ID=49173191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012022060A Pending JP2013160895A (en) 2012-02-03 2012-02-03 Camera exposure setting device

Country Status (1)

Country Link
JP (1) JP2013160895A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907657B1 (en) 2018-05-23 2018-10-12 엘아이지넥스원 주식회사 Apparatus securing exposure time of image sensor
KR101908021B1 (en) 2018-05-23 2018-10-12 엘아이지넥스원 주식회사 Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium
US10462378B2 (en) 2017-01-17 2019-10-29 Toyota Jidosha Kabushiki Kaisha Imaging apparatus
US11418722B2 (en) 2020-07-15 2022-08-16 Denso Corporation Exposure control device, exposure control method, and storage medium
EP4184912A4 (en) * 2020-07-15 2023-12-20 Sony Group Corporation Information processing device, information processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011174A (en) * 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
JP2008157636A (en) * 2006-12-20 2008-07-10 Aisin Aw Co Ltd Vehicle self-localization method and vehicle self-localizing apparatus
JP2008230561A (en) * 2007-03-23 2008-10-02 Alpine Electronics Inc Photographing control device and photometry area adjustment method
JP2008277921A (en) * 2007-04-25 2008-11-13 Sharp Corp Imaging device and moving body equipped with the same
JP2009223797A (en) * 2008-03-18 2009-10-01 Denso Corp Obstacle detector
JP2010018167A (en) * 2008-07-10 2010-01-28 Toyota Motor Corp Parking support device
JP2010041668A (en) * 2008-08-08 2010-02-18 Denso Corp Exposure setting device, exposure setting program, and image processing device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011174A (en) * 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
JP2008157636A (en) * 2006-12-20 2008-07-10 Aisin Aw Co Ltd Vehicle self-localization method and vehicle self-localizing apparatus
JP2008230561A (en) * 2007-03-23 2008-10-02 Alpine Electronics Inc Photographing control device and photometry area adjustment method
JP2008277921A (en) * 2007-04-25 2008-11-13 Sharp Corp Imaging device and moving body equipped with the same
JP2009223797A (en) * 2008-03-18 2009-10-01 Denso Corp Obstacle detector
JP2010018167A (en) * 2008-07-10 2010-01-28 Toyota Motor Corp Parking support device
JP2010041668A (en) * 2008-08-08 2010-02-18 Denso Corp Exposure setting device, exposure setting program, and image processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10462378B2 (en) 2017-01-17 2019-10-29 Toyota Jidosha Kabushiki Kaisha Imaging apparatus
KR101907657B1 (en) 2018-05-23 2018-10-12 엘아이지넥스원 주식회사 Apparatus securing exposure time of image sensor
KR101908021B1 (en) 2018-05-23 2018-10-12 엘아이지넥스원 주식회사 Method for securing image sensor exposure time of image sensor mounted on flight vehicle using attitude information senosr and computer program sotred in recording medium
US11418722B2 (en) 2020-07-15 2022-08-16 Denso Corporation Exposure control device, exposure control method, and storage medium
EP4184912A4 (en) * 2020-07-15 2023-12-20 Sony Group Corporation Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
EP2933790B1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP6266565B2 (en) Suspension control device
JP6657925B2 (en) In-vehicle camera system and image processing device
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
CN103874931B (en) For the method and apparatus of the position of the object in the environment for asking for vehicle
JP6988200B2 (en) Vehicle control device
JP6787157B2 (en) Vehicle control device
US20190143993A1 (en) Distracted driving determination apparatus, distracted driving determination method, and program
JP2007024590A (en) Object detector
JP6094337B2 (en) Operation control device
JP6201148B2 (en) CALIBRATION APPARATUS, CALIBRATION METHOD, MOBILE BODY CAMERA HAVING CALIBRATION FUNCTION, AND PROGRAM
US20150363653A1 (en) Road environment recognition system
JP2013160895A (en) Camera exposure setting device
WO2016194296A1 (en) In-vehicle camera system and image processing apparatus
JP2020071122A (en) Own vehicle position estimation device
JP2015199423A (en) Course estimation device and course estimation program
JP5910180B2 (en) Moving object position and orientation estimation apparatus and method
JP2015151046A (en) Axial direction control device and axial direction control program
JP2011175572A (en) Lane recognition device
JP3633469B2 (en) Inter-vehicle distance setting device
JP2020066246A (en) Road surface state estimation device
JP4039402B2 (en) Object detection device
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method
KR20180081966A (en) Image correction method by vehicle recognition
JP6564682B2 (en) Object detection device, object detection method, and object detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150714