JP7135339B2 - 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法 - Google Patents

車両に搭載される撮像システム、対象物識別装置、および対象物識別方法 Download PDF

Info

Publication number
JP7135339B2
JP7135339B2 JP2018034588A JP2018034588A JP7135339B2 JP 7135339 B2 JP7135339 B2 JP 7135339B2 JP 2018034588 A JP2018034588 A JP 2018034588A JP 2018034588 A JP2018034588 A JP 2018034588A JP 7135339 B2 JP7135339 B2 JP 7135339B2
Authority
JP
Japan
Prior art keywords
wide
distortion
captured
reference pattern
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018034588A
Other languages
English (en)
Other versions
JP2019149099A (ja
Inventor
一芳 秋葉
俊和 村尾
和彦 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018034588A priority Critical patent/JP7135339B2/ja
Priority to DE102019202737.7A priority patent/DE102019202737A1/de
Priority to CN201910151875.4A priority patent/CN110211051B/zh
Priority to US16/288,444 priority patent/US11501540B2/en
Publication of JP2019149099A publication Critical patent/JP2019149099A/ja
Priority to JP2022131447A priority patent/JP7367818B2/ja
Application granted granted Critical
Publication of JP7135339B2 publication Critical patent/JP7135339B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0026Windows, e.g. windscreen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、車両に搭載される撮像システム、対象物識別装置、および対象物識別方法に関する。
車両の運転支援を行うために、車両のフロントガラスに装着される車載カメラを用いる技術が知られている(例えば、特許文献1)。
特開2012-166615号公報
しかしながら、車載カメラとして、広角レンズを有する広角カメラが用いられる場合、そのレンズ特性から、撮像画像の周辺部における画像に歪みが生じてしまう。この結果、歪みが少ないまたは歪みのない撮像画像の中央部の画像を想定して用意された対象物を識別するための識別パターンを用いる場合、撮像画像の周辺部における対象物の認識精度が低下するという問題がある。
したがって、広角カメラによって撮像された撮像画像の周辺部における対象物の認識精度を向上させる技術が望まれている。
本開示は、以下の態様として実現することが可能である。
第1の態様は、車両に搭載される撮像システムを提供する。第1の態様に係る撮像システムは、少なくとも1つの広角カメラと、前記広角カメラによって撮像された撮像画像に対して歪補正処理を実行し、予め用意された参照パターンを用いて、前記歪補正処理された前記撮像画像における対象物を識別する対象物識別装置であって、前記撮像画像の全ての領域に対して、前記広角カメラによる撮像画像の歪みを非広角カメラにより撮像された撮像画像の歪みである非広角歪みまで補正するための歪補正処理を実行する対象物識別装置を備え、
前記参照パターンは、前記非広角歪みに対応する第2の参照パターン(RP2)であり、前記対象物識別装置は、前記第2の参照パターンを用いて前記全ての領域における対象物を識別する。
第1の態様に係る撮像システムによれば、広角カメラによって撮像された撮像画像の周辺部における対象物の認識精度を向上させることができる。
第2の態様は、車両に搭載される撮像システムを提供する。第2の態様に係る撮像システムは、少なくとも1つの広角カメラと、前記広角カメラによって撮像された撮像画像を複数の領域画像に分割し、前記複数の領域画像と各領域画像毎に予め用意された参照パターンとを用いて前記複数の領域画像における対象物を識別する対象物識別装置と、を備える。
第2の態様に係る撮像システムによれば、広角カメラによって撮像された撮像画像の周辺部における対象物の認識精度を向上させることができる。
第3の態様は、対象物識別装置を提供する。第3の態様に係る対象物識別装置は、広角カメラによって撮像された撮像画像を取得する取得部と、予め用意された参照パターンを用いて前記撮像画像における対象物を識別する識別部であって、前記取得された撮像画像に対して歪補正処理を実行し、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別する識別部であって、前記撮像画像の全ての領域に対して、前記広角カメラによる撮像画像の歪みを非広角カメラにより撮像された撮像画像の歪みである非広角歪みまで補正するための歪補正処理を実行し、前記参照パターンとして、前記非広角歪みに対応する第2の参照パターン(RP2)を用いて前記全ての領域における対象物を識別する識別部と、を備える。
第3の態様に係る対象物識別装置によれば、広角カメラによって撮像された撮像画像の周辺部における対象物の認識精度を向上させることができる。
第4の態様は、対象物識別装置を提供する。第4の態様に係る対象物識別装置は、広角カメラによって撮像された撮像画像を取得する取得部と、前記取得された撮像画像を複数の領域画像に分割し、前記複数の領域画像と各領域画像毎に予め用意された参照パターンとを用いて前記複数の領域画像における対象物を識別する識別部と、を備える。
第4の態様に係る対象物識別装置によれば、広角カメラによって撮像された撮像画像の周辺部における対象物の認識精度を向上させることができる。
第5の態様は、対象物識別方法を提供する。第5の態様に係る対象物識別方法は、広角カメラによって撮像された撮像画像を取得し、前記取得された撮像画像に対して歪補正処理を実行し、前記参照パターンを用いて前記補正部によって歪補正処理された前記撮像画像における対象物を識別することを備え、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別することは、
前記撮像画像の全ての領域に対して、前記広角カメラによる撮像画像の歪みを非広角カメラにより撮像された撮像画像の歪みである非広角歪みまで補正するための歪補正処理を実行し、
前記参照パターンは、前記非広角歪みに対応する第2の参照パターン(RP2)であり、前記第2の参照パターンを用いて前記全ての領域における対象物を識別することを備える。
第5の態様に係る対象物識別方法によれば、広角カメラによって撮像された撮像画像の周辺部における対象物の認識精度を向上させることができる。
第6の態様は対象物識別方法を提供する。第6の態様に係る対象物識別方法は、広角カメラによって撮像された撮像画像を取得し、前記取得された撮像画像を複数の領域画像に分割し、前記複数の領域画像と各領域画像毎に予め用意された参照パターンとを用いて前記複数の領域画像における対象物を識別すること、を備える。
第6の態様に係る対象物識別方法によれば、広角カメラによって撮像された撮像画像の周辺部における対象物の認識精度を向上させることができる。
第5および第6の態様係る対象物識別方法は、対象物識別プログラムまたは当該プログラムを記録するコンピュータ読み取り可能記録媒体としても実現可能である。
第1の実施形態に係る撮像システムが搭載された車両の一例を示す説明図。 第1の実施形態に係る対象物識別装置の機能的構成を示すブロック図。 第1の実施形態に係る対象物識別装置によって実行される対象物識別処理の処理フローを示すフローチャート。 広角カメラによって撮像された対象物を含む画像を模式的に示す説明図。 歪み補正処理が施された、広角カメラによって撮像された対象物を含む画像を模式的に示す説明図。 第2の実施形態に係る対象物識別装置の機能的構成を示すブロック図。 第2の実施形態に係る対象物識別装置によって実行される対象物識別処理の処理フローを示すフローチャート。 領域分割処理が施された、広角カメラによって撮像された対象物を含む画像を模式的に示す説明図。 周辺部に対して歪み補正処理が施された、中心窩カメラによって撮像された対象物を含む画像を模式的に示す説明図。 周辺部の対象物の周囲に対して歪み補正処理が施された、広角カメラによって撮像された対象物を含む画像を模式的に示す説明図。 車両に対するフロントカメラ装置の搭載位置を示す車両の前面図。 第1のカメラ構成例の内部構成を示す説明図。 第1のカメラ構成例の外部構成を示す斜視図。 第1のカメラ構成例における各レンズユニットの撮像範囲を示す上面模式図。 第1のカメラ構成例における各レンズユニットの配置関係を示す正面図。 第1のカメラ構成例における各レンズユニットを通した外界撮像によりそれぞれ生成される外界画像(a)、(b)、(c)を示す正面模式図。 第2のカメラ構成例における各レンズユニットの配置関係を示す正面図。 第3のカメラ構成例の外部構成を示す斜視図。 第3のカメラ構成例におけるフードを示す上面図。 第3のカメラ構成例における各レンズユニットの配置関係を示す正面図。 第4のカメラ構成例の外部構成を示す斜視図。 第5のカメラ構成例における各レンズユニットの配置関係を示す正面図。 第6のカメラ構成例における各レンズユニットの配置関係を示す正面図。 第7のカメラ構成例における各レンズユニットの配置関係を示す正面図。
本開示に係る車両に搭載される撮像システム、対象物識別装置、および対象物識別方法について、いくつかの実施形態に基づいて以下説明する。
第1の実施形態:
図1に示すように、第1の実施形態に係る対象物識別装置200、210は、車両500に搭載されて用いられる。車両500のフロントガラス510にはフロントカメラ装置20が配置され、リアガラス511にはリアカメラ装置21が配置されている。対象物識別装置200は、フロントカメラ制御装置とも呼ばれ、フロントカメラ装置20と接続されている。対象物識別装置210は、リアカメラ制御装置とも呼ばれ、リアカメラ装置21と接続されている。フロントカメラ制御装置200およびフロントカメラ装置20によってフロント撮像システム30が構築され、リアカメラ制御装置210およびリアカメラ装置21によってリア撮像システム31が構築される。すなわち、対象物識別装置とカメラ装置との組み合わせによって撮像システム30、31が構築される。
フロントカメラ装置20は、広角カメラ20a、狭角カメラ20bおよび望遠カメラ20cを備えている。なお、フロントカメラ装置20は、少なくとも1つの広角カメラ20aを備えていれば良く、更には、少なくとも1つの非広角カメラ、すなわち、狭角カメラ20bおよび望遠カメラ20cの少なくともいずれか一方を備えていても良い。また、広角カメラ20a、狭角カメラ20bおよび望遠カメラ20cの配置は目的に応じて適宜決定されれば良い。例えば、一つの広角カメラ20aと、広角カメラ20aを挟んで配置されている二つの狭角カメラ20bとを備え、二つの狭角カメラ20bがステレオカメラとして用いられても良い。リアカメラ装置21は1つの広角カメラ21aを備えている。なお、リアカメラ装置21は、フロントカメラ装置20と同様にして、少なくとも1つの非広角カメラを備えていても良い。
対象物識別装置200および対象物識別装置210は制御信号線を介して車両500の主制御装置100に接続されている。主制御装置100は、車両500の走行状態を制御するための制御装置であり、図示しないセンサ、アクチュエータと制御信号線を介して接続されている。第1の実施形態において、主制御装置100は、フロントカメラ制御装置200およびリアカメラ制御装置210から入力される対象物の識別信号に応じて制動装置、操舵装置、動力装置を制御し、車両500の制動支援、操舵支援、先行車追随支援といった運転支援処理を実現する。
対象物識別装置200について図2を参照して説明する。以下では、対象物識別装置として、フロントカメラ制御装置200を例にとって説明する。図2に示すように、対象物識別装置200は、識別部としての中央処理装置(CPU)201およびメモリ202、取得部としての入出力インタフェース203、並びにバス204を備えている。CPU201、メモリ202および入出力インタフェース203はバス204を介して双方向通信可能に接続されている。メモリ202は、撮像画像中に含まれる対象物を識別するための対象物識別プログラムP1、撮像画像の歪みを補正するための歪補正処理プログラムP2を不揮発的且つ読み出し専用に格納するメモリ、例えばROMと、CPU201による読み書きが可能なメモリ、例えばRAMとを含んでいる。メモリ202にはさらに、撮像画像中に含まれる対象物を識別する際に用いられる、予め用意された第1の参照パターンRP1を格納する参照パターン格納領域220aを備える。第1の実施形態において用いられる第1の参照パターンRP1は、広角カメラによって得られた撮像画像に対応する参照パターンであり、広角撮像画像中における対象物の種別の判定に用いられる第1の参照パターンである。すなわち、第1の参照パターンRP1は、広角カメラによって得られた撮像画像の中央領域CWCに見られる対象物の歪みを考慮したパターンである。CPU201はメモリ202に格納されている対象物識別プログラムP1および歪補正処理プログラムP2を読み書き可能なメモリに展開して実行することによって識別部としての機能を実現する。また、CPU201は、対象物識別プログラムP1を実行して識別部としての機能を実現し、歪補正処理プログラムP2を実行して歪補正処理部としての機能を実現し、2つの機能を別途実現しても良い。なお、CPU201は、単体のCPUであっても良く、各プログラムを実行する複数のCPUであっても良く、あるいは、複数のプログラムを同時実行可能なマルチコアタイプのCPUであっても良い。また、対象物識別装置200を別体で備えることなく、フロントカメラ装置20またはリアカメラ装置21によって撮像された未処理の画像データが検出信号として直接、主制御装置100に入力されても良い。この場合には、上記した対象物の識別に際して実行される各処理が主制御装置100において実行される。
入出力インタフェース203には、フロントカメラ装置20が接続されている。より具体的には、入出力インタフェース203には、広角カメラ20a、狭角カメラ20bおよび望遠カメラ20cがそれぞれ制御信号線を介して接続されている。
各カメラ20a、20b、20cは、CCD等の撮像素子およびレンズを1つずつ備える撮像装置であり、可視光を受光することによって対象物の外形情報を含む画像データを出力する画像センサである。各カメラ20a、20b、20cから出力される画素データは、モノクロの画素データまたはカラー、例えば、RGBの画素データである。第1の実施形態において、広角カメラ20a、21aは、単焦点の広角レンズと撮像素子とを有し、例えば、120°程度の画角を有する。狭角カメラ20bは、単焦点の狭角レンズと撮像素子とを有し、例えば、60°程度の画角を有する。望遠カメラ20cは、単焦点の望遠レンズと撮像素子とを有し、例えば、35°程度の画角を有する。なお、各カメラ20a、20b、20cおよび21aにおける画角は例示であり、広角カメラ20a、21aの画角>狭角カメラ20bの画角>望遠カメラ20cの画角の関係が規定されていれば良い。また、広角カメラ20a、21aの焦点距離<狭角カメラ20bの焦点距離<望遠カメラ20cの焦点距離の関係を有していると規定することもできる。さらに、狭角カメラ、狭角レンズは、標準カメラ、標準レンズと呼ぶことも可能であり、広角と望遠の間の画角を有するカメラ、レンズとして定義される。
各カメラ20a、20b、20cから出力された画像データに対しては、対象物識別装置200において特徴点抽出処理が実行され、抽出された特徴点が示す形状パターンと、予め用意されている判別されるべき対象物の種別、例えば、車両の形状、歩行者の形状あるいは二輪車の形状を示す参照パターンとが比較され、抽出された形状パターンと参照パターンとが一致または類似する場合には識別された対象物を含むフレーム画像が生成される。一方、抽出された外形パターンと参照パターンとが一致または類似しない場合、すなわち、非類似の場合にはフレーム画像は生成されない。なお、対象物識別装置200は、特徴点抽出処理によって撮像画像データ中に含まれている何らかの対象物を検出可能であり、更に、参照パターンを用いて検出した対象物に対して識別処理を実行することによって検出された対象物の種別を識別する。また、参照パターンには、上記以外にも、例えば、信号機、車線や停止線等の道路標示が含まれ得る。
参照パターンは、対象物の種別に応じて用意される形状パターンであるから、撮像画像に含まれている対象物が変形している場合には、その識別精度は低下する。広角カメラ20aによって得られた撮像画像の周辺部は、レンズの歪みに起因する樽形歪みを有しており撮像画像に含まれる周辺対象物の形状も歪んでおり、変形している。一方、一般的に、光軸における撮像画像に歪みはなく、また、光軸の周囲における撮像画像の歪みは小さい。よって、撮像画像の中央部または非周辺部における非周辺対象物の形状は変形していないか変形の度合いは小さい。したがって、参照パターンとして非周辺部における対象物の形状、すなわち、人の視覚によって視認される対象物の形状が定義されている場合には、周辺対象物に対して第1の参照パターンRP1を用いるとパターンマッチング処理の精度が低下する。これに対して、第1の実施形態においては、撮像画像に対して周辺部における歪みを非周辺部における歪みまで低減する歪み補正処理を実行することによって、周辺対象物の歪みの度合い、すなわち、変形の度合いを低減して、非周辺部を対象として、非周辺部における歪みに対応する第1の参照パターンRP1を用いた場合におけるパターンマッチング処理の精度を向上させる。
撮像画像に複数の対象物が含まれる場合には、対象物識別装置200において識別された各対象物を含む複数のフレーム画像が生成され、検出信号として主制御装置100に入力される。各フレーム画像は画素により表され、判別された対象物の位置情報、すなわち、座標情報を含んでいる。検出信号に含まれ得るフレーム画像数は、対象物識別装置200と主制御装置100間の通信の帯域幅に依存する。
図3から図5参照して、第1の実施形態に係る対象物識別装置200により実行される歪み補正処理および対象物識別処理について説明する。CPU201が対象物識別プログラムP1および歪補正処理プログラムP2を実行することによって図3に示す対象物識別処理が実行される。図3に示す処理ルーチンは、例えば、車両の制御システムの始動時から停止時まで、または、スタートスイッチがオンされてからスタートスイッチがオフされるまで所定の時間間隔にて繰り返して実行される。なお、第1の実施形態においては、対象物の識別処理は各カメラ20a、20bおよび20cによって撮像された各画像に対して実行されるが、歪み補正処理は、広角カメラ20aによって撮像された画像に対してのみ実行される。したがって、以下では、広角カメラ20aによって撮像された画像に対する処理を説明する。
CPU201は、取得部としての入出力インタフェース203を介して、広角カメラ20aによって撮像された画像を取得する(ステップS100)。CPU201は、歪補正処理プログラムP2を実行し、取得した画像に対して歪み補正処理を実行する(ステップS110)。例えば、図4に示すように、広角カメラ20aによって撮像された広角画像WIは水平方向または横方向、すなわち、フロントカメラ装置20が車載されている車両の幅方向、におけるに膨らむ、いわゆる樽形歪みを有している。この結果、広角画像WIの中央領域CWC、すなわち、非周辺部領域に含まれている対象物CTは歪みを有していないか小さな歪みを有しているのに対して、広角画像WIの周辺部の領域である周辺部領域EWI、すなわち水平方向の両端部に含まれている対象物DT1、DT2は、中央領域CWCから離間する方向に向かって変形する歪みを有している。歪み補正処理が実行されると、例えば、図5に示すように、一点鎖線で示す広角画像WIは実線で示す補正後広角画像MWIへと補正され、歪み対象物DT1、DT2は、歪みが低減された補正処理後の対象物MT1、MT2の形状で表される。本実施形態において、広角カメラ20aにより撮像された広角画像WIの歪み補正処理は、広角画像WIの周辺部領域EWIの歪みを、広角画像の歪み、すなわち、広角画像の中央領域CWCの歪み程度まで低減する処理であり、対象物DT1、DT2が有する歪みを中央領域CWCにおける対象物が有する歪み程度に低減する処理である。図5においては、説明を容易にするため、対象物DT1、DT2が有する歪みを大きく補正して示している。なお、図4および5の例では、理解を容易にするために、広角画像WIおよび補正後広角画像MWIの水平方向への歪みを強調しているが、鉛直方向または縦方向においても同様の歪みは存在し、鉛直向の周辺部における対象物は中央領域CWCから離間する方向に向かって変形する歪みを有している。また、広角画像全体における歪みを補正する処理、広角画像WIの歪み補正処理は、撮像画像の全体を対象とするが、歪み補正のレベルによっては、撮像画像の全体に対して歪み補正処理が実行されないこともある。例えば、歪み補正のレベルが広角画像WIの中央領域CWCにおける歪みへの補正レベルである場合には、中央領域CWCの少なくとも一部に対する歪み補正は実行されず、歪み補正のレベルが狭角画像における歪みへの補正レベルである場合には、中央領域CWCに対する歪み補正も実行され得る。
歪み補正処理について詳細に説明する。歪み補正処理において、CPU201は、予め用意されメモリ202に格納されているレンズの設計値または実測により得られた個体特性値を用いて画像に対する歪み補正処理を実行する。設計値は、広角カメラ20aが備える広角レンズ単体のディストーション値であり、より具体的には、TVディストーション値である。ディストーション値は、百分率によって表される。設計値を用いる場合には、予め撮像画像上における広角カメラ20aの光軸、すなわち光軸座標を求めておき、光軸を中心にしてディストーション値を用いて、画像を縦横方向に伸張または圧縮することによって歪み補正処理が実行される。より具体的には、画像を構成する各画素の座標位置を、例えば、アフィン変換によって座標変換し、縦横方向に移動させることによって実行される。なお、広角カメラ20aによる画像の歪みは画像の周辺部において顕著であるから、画像の伸張・圧縮に際しては、予め定められた周辺部の画素についてのみ座標変換が実行されれば良い。あるいは、光軸が一致するように、予め用意された歪み補正用の格子点テンプレートを撮像画像に重ね合わせ、各格子点に対応する画素値を周辺画素値を用いた補間処理によって求めることによって実行される。
個体特性値は、個々の広角カメラ20aによってグリッドチャートを撮像することによって得られた広角カメラ20aの実測歪み特性、すなわち、光学ディストーション値である。個体特性値を用いる場合には、レンズ特性のみならず、各広角カメラ20aの組立公差までを補正することができるので、対象物の識別精度はより向上される。光学ディストーション値は、光軸点からグリッドチャート上の各グリッド格子点までのグリッド距離と、光軸点から撮像画像上におけるグリッド格子点に対応する撮像格子点までの撮像距離との差分をグリッド距離にて除算して得られた百分率によって表される値である。すなわち、光学ディストーション値は、各撮像格子点について個別に用意されている。個体特性値を用いる場合には、予め撮像画像上における広角カメラ20aの光軸を求めておき、各撮像格子点の画素について光学ディストーション値を適用して座標変換し、各撮像格子点間の画素については補間処理を実行することによって、歪み補正処理が実行される。補間処理としては、例えば、ニアレストネイバー法、バイリニア法、バイキュービック法を用いた補間処理が可能である。
CPU201は、歪み補正処理が施された補正後画像をメモリ202、より具体的にはフレームメモリに展開し、第1の参照パターンRP1を用いた識別処理、すなわち、パターンマッチング処理を実行する(ステップS120)。具体的には、図5に示すように、CPU201は、広角画像の中央領域の対象物CTを対象として予め用意されている広角画像用の第1の参照パターンRP1を用いて、補正後広角画像MWIに含まれる対象物CT、MT1、MT2に対してパターンマッチング処理を実行する。
CPU201は、フレーム画像および対象物の属性情報を含む識別結果を主制御装置100に出力して(ステップS130)、本処理ルーチンを終了する。以上の処理は、リアカメラ装置21と接続されているリア対象物識別装置210においても同様に実行され得る。また、広角カメラ20a以外の狭角カメラ20bおよび望遠カメラ20cによって撮像された撮像画像における対象物については、歪み補正処理を実行する点を除いて上記の手順に準じて識別処理が実行される。
第1の実施形態に係る対象物識別装置200によれば、広角カメラ20aによって撮像された撮像画像に対して歪み補正処理を行い、予め用意されている一の広角画像用の第1の参照パターンRP1を用いて撮像画像全体における対象物の識別処理を実行する。したがって、一の広角画像用の第1の参照パターンRP1を用いる場合であっても、広角画像WIの周辺部領域EWIにおける対象物DT1、DT2の識別精度を向上させることができる。また、対象物の識別に際して、撮像画像の領域毎に複数の参照パターンを用いることなく、一の第1の参照パターンRP1を用いて撮像画像全体における対象物の識別を実行することができる。
第2の実施形態:
第2の実施形態に係る対象物識別装置および撮像システムは、フロントカメラに加えて、リア対象物識別装置210、リア広角カメラ21aおよびリア撮像システム31を備える他は、第1の実施形態に係る対象物識別装置200、撮像システムと同様であるから各構成に対しては同一の符号を付すことで詳細な説明を省略する。第2の実施形態に係る対象物識別装置200、210においては、広角カメラ20a、21aによって撮像された撮像画像における対象物の識別に際して、各撮像領域に用意された複数の参照パターンRPを用いる。
第2の実施形態に係る対象物識別装置としての、リア対象物識別装置210は、図6に示すように、識別部としての中央処理装置(CPU)211およびメモリ212、取得部としての入出力インタフェース213、並びにバス214を備えている。CPU211、メモリ212および入出力インタフェース213はバス214を介して双方向通信可能に接続されている。入出力インタフェース213には、リアカメラ装置21が制御信号線を介して接続されている。対象物識別装置としての、フロント対象物識別装置200の構成については、第1の実施形態において説明済みであるから説明を省略する。
第2の実施形態において、フロント対象物識別装置200およびリア対象物識別装置210のメモリ202、212は、撮像画像中に含まれる対象物を識別するための対象物識別プログラムP1、撮像画像を所望の領域に分割する領域分割プログラムP3、撮像画像中に含まれる対象物を識別する際に用いられる、予め用意された複数の第2の参照パターンRP2、周辺部参照パターンDRPを格納する参照パターン格納領域220a、221aを備える。第2の実施形態において用いられる参照パターンには、狭角画像、すなわち非広角画像の歪みに対応し、中央領域における対象物を識別するための第2の参照パターンRP2、および広角画像の端部領域における対象物を識別するための周辺部参照パターンDRPが含まれている。狭角画像の歪みに対応するとは、狭角画像の中央領域における歪みに対応することを意味する。周辺部参照パターンDRPは、広角カメラ20aに起因する歪みを有する周辺部、すなわち、端部領域に撮像される対象物の形状に合わせたパターンとして、予め用意されている。
図7および図8を参照して、第2の実施形態に係る対象物識別装置により実行される歪み補正処理および対象物識別処理について説明する。CPU201が対象物識別プログラムP1および領域分割プログラムP3を実行することによって図7に示す対象物識別処理が実行される。図7に示す処理ルーチンは、例えば、車両の制御システムの始動時から停止時まで、または、スタートスイッチがオンされてからスタートスイッチがオフされるまで所定の時間間隔にて繰り返して実行される。なお、第2の実施形態においては、対象物の識別処理は各カメラ20a、20bおよび21aによって撮像された各画像に対して実行されるが、説明を簡易にするために、フロント対象物識別装置200を例にして説明する。また、領域分割処理は、フロント広角カメラ20a、リア広角カメラ21aによって撮像された画像に対してのみ実行されるので、以下では、フロント広角カメラ20aによって撮像された画像に対する処理を説明する。
CPU201は、取得部としての入出力インタフェース203を介して、広角カメラ20aによって撮像された画像を取得する(ステップS200)。CPU201は、領域分割プログラムP3を実行し、取得した画像を複数の領域に分割する領域分割処理を実行する(ステップS210)。例えば、図8に示すように、広角カメラ20aによって撮像された広角画像WIは水平方向、すなわち、フロントカメラ装置20が車載されている車両の幅方向、におけるに膨らむ、いわゆる樽形歪みを有している。また、非周辺部領域に含まれている対象物CTは小さな歪み、すなわち、広角歪みを有している、あるいは、歪みを有していないのに対して、両端部領域に含まれている対象物DT1、DT2は、中央領域CAから離間する方向に向かって大きく変形する歪みを有している。
第2の実施形態において、CPU201は、広角画像WIを、狭角カメラ20bによって撮像された狭角画像NIの画角と重複する中央領域CAと、狭角画像NIの画角とは重複しない周辺部領域である両端部領域DA1、DA2の3領域に分割する。両端部領域は右側端部領域DA1と左側端部領域DA2とを含んでいる。画像領域の分割は、例えば、広角画像WIの水平方向をx軸、鉛直方向をy軸として、中央領域CA、両端部領域DA1、DA2をそれぞれx、yの座標値によって規定することによって実行され得る。広角画像WIを構成する各画素の位置は、画素座標値によって定義されているので、中央領域CA、両端部領域DA1、DA2に対応する画素は容易に判別することができる。
CPU201は、分割された撮像画像の3つの領域CA、DA1、DA2のうちの一つの領域の画像をメモリ202、より具体的にはフレームメモリに展開し、展開した領域に対応する第2の参照パターンRP2、周辺部参照パターンDRPを用いた識別処理、すなわち、パターンマッチング処理を実行する(ステップS220)。CPU201は、全ての領域、本実施形態では3つの領域画像に対してパターンマッチング処理が終了したか否かを判定し(ステップS230)する。CPU201は、全ての領域に対するパターンマッチング処理が終了していない場合には(ステップS230:No)、次の領域CA、DA1、DA2の画像をメモリ202に展開しステップS220を繰り返す処理を順次実行する。具体的には、図8に示すように、CPU201は、中央領域CAの対象物CTに対しては、狭角画像の歪みに対応して予め用意されている第2の参照パターンRP2を用いてパターンマッチング処理を実行し、端部領域DA1、DA2における対象物DT1、DT2に対しては、広角画像の端部歪みに対応して予め用意されている周辺部参照パターンDRPを用いてパターンマッチング処理を実行する。広角画像WIであっても中央領域CAにおける歪みは狭角画像における歪みと同等または大きく変わらないので、狭角画像の歪みに対応する第2の参照パターンRP2を用いても精度を大きく低下させることなく対象物の識別が可能である。この場合、広角画像の歪みに対応する参照パターンを備えることなく広角画像WIに対する対象物の識別処理が可能となる。但し、より高い識別精度が求められる場合には、広角画像に対応する参照パターンを中央領域に対して適用して対象物が識別されても良い。なお、右端部領域DA1と左端部領域DA2とにおける周辺部参照パターンDRPは、例えば、広角画像WIの鉛直方向の中心線に対して線対称である。なお、同一の広角カメラ20aが継続して用いられるので、予め画像領域の分割処理を実行して中央領域CA、両端部領域DA1、DA2を規定する座標情報をメモリ202に格納し、あるいは、第1回目の領域分割処理の実行時の中央領域CA、両端部領域DA1、DA2を規定する座標情報をメモリ202に格納し、格納された座標情報を用いて、識別処理が実行されても良い。
CPU201は、全ての領域に対するパターンマッチング処理が終了すると(ステップS230:YES)、フレーム画像および対象物の属性情報を含む識別結果を主制御装置100に出力して(ステップS240)、本処理ルーチンを終了する。以上の処理は、リアカメラ装置21と接続されているリア対象物識別装置210においても同様に実行され得る。また、広角カメラ20a以外の狭角カメラ20bおよび望遠カメラ20cによって撮像された撮像画像における対象物については、領域分割処理を実行する点を除いて上記の手順に準じて識別処理が実行される。
第2の実施形態に係る対象物識別装置200によれば、広角カメラ20aによって撮像された撮像画像を複数の領域に分割する領域分割処理を行い、各分割領域毎に予め用意されている複数の第2の参照パターンRP2、周辺部参照パターンDRPを用いて、各分割領域における対象物の識別処理を実行する。したがって、各分割領域における画像の歪み、すなわち、対象物が有する歪みに応じた第2の参照パターンRP2、周辺部参照パターンDRPを用いてパターンマッチング処理を実行することが可能となり、広角画像WIの周辺部領域DA1、DA2における対象物DT1、DT2の識別精度を向上させることができる。また、対象物の識別に際して、撮像画像に対する歪み補正処理を実行することなく、広角画像WIの周辺部領域DA1、DA2における対象物DT1、DT2の識別精度を向上させることができる。さらに、広角画像WIの中央領域CAに対して狭角画像における歪みに対応する第2の参照パターンRP2を用いるので、広角画像WIの中央領域CAに対応する更なる参照パターンを用意しなくて良い。
第3の実施形態:
第1の実施形態においては、対象物識別装置200は、広角カメラ20aにより撮像された広角画像の全体を対象として周辺部領域EWIにおける広角歪みを中央領域CWCにおける歪み程度まで低減するための歪み補正処理を実行したが、画像の全体を対象として狭角画像の歪み程度、すなわち、非広角歪み程度まで広角画像における歪みを補正する歪み補正処理を実行しても良い。この場合には、歪みの補正レベルを上げて対象物の識別精度を向上させることができると共に、対象物識別装置200として、参照パターンとして広角画像用の第1の参照パターンRP1を備えることなく、狭角画像における歪み、すなわち、非広角歪みに適応した第2の参照パターンRP2のみを用いて広角カメラ20aおよび狭角カメラ20bにより撮像された撮像画像に対するパターンマッチング処理を実行することができる。さらに、対象物識別装置200は、広角カメラ20aにより撮像された広角画像の全体を対象として狭角画像の最大歪み程度まで広角画像における歪みを補正する歪み補正処理を実行しても良い。この場合には、歪みの補正レベルを上げて対象物の識別精度を向上させることができると共に、歪み補正処理に要する時間および処理負荷を低減することができる。また、参照パターンとして非広角歪みに適応した第2の参照パターンRP2のみを用いて広角カメラ20aおよび狭角カメラ20bにより撮像された撮像画像に対するパターンマッチング処理を実行することができる。
第4の実施形態:
第1の実施形態における広角カメラ20aは、一般的な広角レンズを有していたが、広角レンズとして、広角カメラ20aは、中心窩レンズを有していても良い。中心窩レンズは、図9に示すように、光軸を中心とする一定の範囲、すなわち、中央領域CWCにおける像を拡大し、中央領域CWC以外の領域、すなわち、周辺部領域EWIにおける像を圧縮する光学特性を有する、正射影方式の魚眼レンズの一種である。中心窩レンズは、y=fsin(θ)の特性式で表される。ここで、y:像高、:焦点距離、θ:半画角である。これに対して、第1の実施形態において用いられている広角レンズは、y=ftan(θ)の特性式で表され得る中心射影方式のレンズである。中心窩レンズは、広い画角を有し、中央領域CWCにおける歪曲収差の値は所定値以下であり、周辺部領域EWIにおける像歪曲収差の値は所定値よりも大きい。ここで、所定値としては、例えば、狭角カメラにより撮像された狭角画像における中央領域における歪み、あるいは、挟角撮像の最大歪みであって良い。したがって、中心窩レンズによれば、中央領域CWCにおいて高解像度で歪みの目立たない撮像画像を得ることが可能となり、歪み補正処理を実行すべき画像領域を低減することができる。すなわち、図9に示すように、広角画像WIの中央領域CWCに対しては歪み補正処理を実行せず、広角画像WIの周辺部領域EWIのみを対象として広角画像WIにおける歪みを補正する歪み補正処理が行われても良い。対象物CT、MT1、MT2の識別処理に際しては、中央領域CWCの歪みは狭角画像の歪相当であるから狭角画像に対応する第2の参照パターンRP2を用いて対象物CTに関する精度の良い識別が可能である。周辺部領域EWIに対しては広角画像の歪レベルまでの歪み補正処理、あるいは、狭角画像の歪レベルまでの歪み補正処理が実行され、広角画像WIに対応する第1の参照パターンRP1を用いて対象物MT1、MT2に関する精度の良い識別が可能である。この結果、歪み補正処理に要する時間および処理負荷が低減される。なお、この他に、画像の水平方向または鉛直方向における歪みを除去可能な曲面イメージャを撮像画像に適用し、適用後の画像に対して歪み補正処理が実行されても良い。この場合にも、歪み補正処理に要する時間および処理負荷が低減される。
第5の実施形態:
第1の実施形態においては、広角カメラ20aにより撮像された広角画像WIの全体を対象として広角歪みを低減または解消するための歪み補正処理が実行されたが、広角画像WIの周辺部領域EWIのみを対象として広角画像WIにおける歪みを補正する歪み補正処理が行われても良い。例えば、第2の実施形態において説明した画像領域の分割処理を行い、周辺部領域EWIの領域の画像に対してのみ広角画像WIの中央領域CWCが有する歪み程度まで歪を低減する歪み補正処理が実行される。この場合には、歪み補正処理の対象となる画像領域が周辺部領域EWIに限られ、結果として歪み補正処理に要する時間および処理負荷が低減される。なお、対象物CT、MT1、MT2の識別処理に際しては、広角画像の歪みに対応する第1の参照パターン、例えば、広角画像WIの中央領域CWCに適応した第1の参照パターンRP1を周辺部領域EWIに対して適用し、狭角画像に適応した第2の参照パターンRPを中央領域CWCに対して適用してパターンマッチング処理が実行される。すなわち、中央領域CWCにおける歪みの程度は、第2の参照パターンRP2を適用するパターンマッチング処理によっても対象物を適切に識別できる程度の歪であり、第2の参照パターンRP2を用いても対象物の識別を適切に行うことができる。あるいは、広角画像の歪みに対応する第1の参照パターン、例えば、広角画像WIの中央領域CWCに適応した一の第1の参照パターンRP1を画像全体に対して適用してパターンマッチング処理が実行されても良く、あるいは、非広角歪みに対応する第2の参照パターンRP2、例えば狭角画像における歪みに対応する一の第2の参照パターンRP2を画像全体に対して適用してパターンマッチング処理が実行されても良い。
第6の実施形態:
第5の実施形態においては、広角カメラ20aにより撮像された広角画像WIの周辺部EWIの全体を対象として広角画像WIにおける歪みを補正する歪み補正処理が実行されたが、図10に示すように対象物DT1、DT2を囲む周囲領域TA1、TA2のみに対して歪み補正処理が行われても良い。既述のように、対象物識別装置200は、広角カメラ20aから画像データが入力されると、撮像画像に含まれている対象物となり得る対象物候補の存在および位置を検出する。したがって、対象物識別装置200は、撮像画像の周辺部EWIに存在する対象物候補、すなわち、対象物DT1、DT2となり得る対象物を含む周囲領域TA1、TA2の画像を抽出することが可能である。対象物識別装置200は、抽出した周囲領域TA1、TA2の画像をフレームメモリに展開し、既述の歪み補正処理を実行して歪み補正処理後の対象物MT1、MT2を得ることができる。この場合には、歪み補正処理の対象となる画像領域が周辺部EWIにおける周囲領域TA1、TA2に低減され、結果として歪み補正処理に要する時間および処理負荷が更に低減される。なお、中央領域CWCに対しては、歪み補正処理が実行されなくても良く、あるいは、狭角画像における歪まで歪を低減する歪み補正処理が実行されても良い。対象物CT、MT1、MT2の種別を識別する識別処理に際しては、広角画像の歪みに対応する第1の参照パターン、例えば、広角画像WIの中央領域CWCに適応した第1の参照パターンRP1を周辺部EWIに対して適用し、狭角画像に適応した第2の参照パターンRPを中央領域CWCに対して適用してパターンマッチング処理が実行されても良く、あるいは、広角画像WIの中央領域CWCに適応した一の第1の参照パターンRP1を画像全体に対して適用してパターンマッチング処理が実行されても良い。すなわち、中央領域CWCにおける歪みの程度は、周辺部領域EWIにおける歪みと比較する場合、第2の参照パターンRP2を適用するパターンマッチング処理によっても対象物を適切に識別できる程度の歪であり、第2の参照パターンRP2を用いても対象物の識別を適切に行うことができる。
第7の他の実施形態:
上記実施形態においては、CPU201、211が対象物識別プログラムP1、歪補正処理プログラムP2および領域分割プログラムP3を実行することによって、ソフトウェア的に制御部が実現されているが、予めプログラムされた集積回路またはディスクリート回路によってハードウェア的に実現されても良い。
具体的なカメラ装置構成:
以下、上記各実施形態におけるフロントカメラ装置20およびリアカメラ装置21として用いられ得るカメラの具体的な構成について説明する。
第1の構成例:
図11、12に示すように、フロントカメラ装置20は外界5を撮像するように車両500のフロントガラス510の内側に装着されている。フロントガラス510におけるフロントカメラ装置20は、車室4内の運転席に着座した乗員の視界を実質妨げないように配置されている。具体的には図11に示すように、フロントカメラ装置20は、車幅方向である水平方向において、フロントガラス510の外周縁部を枠状に保持するピラー6の開口窓6aの中心から両側へ、例えば15cm程度の範囲Xh内に配置されている。フロントカメラ装置20は、車両500の鉛直方向において、開口窓6a内の上縁部から、例えば20%程度の範囲Xv内に配置されている。この結果、フロントカメラ装置20は、フロントガラス510を払拭するワイパーの払拭範囲Xr内であって、前後方向に対してフロントガラス510例えば22~90°程度傾斜する部分に配置される。
図12、13に示すようにフロントカメラ装置20は、ブラケットアセンブリC10、カメラケーシングC20、複数のレンズユニットC30、フードC40及び撮像系C50を備えている。図13では、一部構成要素の図示が省略されている。
ブラケットアセンブリC10は、ブラケット本体C11及び装着パッドC12を組み合わせてなる。ブラケット本体C11は、例えば樹脂等の比較的成形容易な硬質材料により、全体として略平板状に形成されている。ブラケット本体C11は、フロントガラス510の内面510aに沿って配置される。図12に示すようにブラケット本体C11には、複数の装着パッドC12が嵌合固定されている。フロントカメラ装置20は、各装着パッドC12がフロントガラス510の内面510aに対して接着固定されることにより、車両500に対して位置決めされて、フロントガラス510の内側に装着されている。
カメラケーシングC20は、一対のケーシング部材C21、C22を組み合わせてなる。各ケーシング部材C21、C22は、例えばアルミニウム等の比較的高放熱性を有した硬質材料により、全体として中空状に形成されている。
逆カップ状のアッパケーシング部材C21は、ブラケットアセンブリC10の下側に配置され、ブラケットアセンブリC10とは反対側となる下側に開口部を向けている。アッパケーシング部材C21は、ブラケット本体C11に対して嵌合固定されている。これによりカメラケーシングC20は、ブラケットアセンブリC10を介してフロントガラス510の内側に位置決めされる。アッパケーシング部材C21とフロントガラス510との間には、フードC40を収容する収容凹所C212が画成されている。
皿状のロアケーシング部材C22は、アッパケーシング部材C21の下側に配置され、アッパケーシング部材C21側となる上側に開口部を向けている。ロアケーシング部材C22は、アッパケーシング部材C21に螺子で締結されている。ケーシング部材C21、C22は、レンズユニットC30及び撮像系C50を収容する収容空間C25を共同して画成している。
複数(本実施形態では3つ)のレンズユニットC30は、カメラケーシングC20の収容空間C25内に配置されている。図12、13に示すように各レンズユニットC30の前端部は、アッパケーシング部材C21の縦壁部C210を貫通する共通のレンズ窓C211を通して、カメラケーシングC20外に露出している。各レンズユニットC30には、互いに縦方向にずれて設定される光軸Aw、An、Atまわりに、図14に示すような互いに大きさの異なる画角Bw、Bn、Btが設定されている。これら各レンズユニットC30では、外界5からの光像が互いの画角Bw、Bn、Bt内へとそれぞれ個別に入射可能となっている。
図12、13に示すようにフードC40は、例えば樹脂成形等によりブラケット本体C11と一体形成され、ブラケットアセンブリC10の一部を構成している。上側から視たフードC40の全体形状は、各レンズユニットC30の光軸Aw、An、Atに関して横方向での対称形状となる皿状を呈している。フードC40は、ベース壁部C41及び側壁部C43を有している。
図12に示すようにベース壁部C41は、アッパケーシング部材C21とフロントガラス510との間にて、収容凹所C212内に収まっている。ベース壁部C41は、前側へ向かうほど上側のフロントガラス510と近接する姿勢に配置される。ベース壁部C41の底壁面C41aは、図12、13に示す光軸Aw、An、At上の撮像空間C40を空けてフロントガラス510の内面510aと対向した略平面状に広がる。外界5のうち撮像系C50による撮像対象範囲内の光像は、フロントガラス510を透過することで、撮像空間C410から各レンズユニットC30へと導かれる。
側壁部C43は、横方向に光軸Aw、An、Atを挟んだ対称位置にそれぞれ設けられることで、撮像空間C410を両側から挟んでいる。各側壁部C43は、ベース壁部C41のうち横方向の側縁部から上側へ立設されており、それぞれストレート平板状を呈している。各側壁部C43の横方向における相互間隔は、前側ほど漸次広がっている。各側壁部C43の後端部間を通して撮像空間C410内には、各レンズユニットC30の前端部が露出している。各側壁部C43のベース壁部C41からの高さは、前側ほど漸次低くなっている。各側壁部C43は、図12に示すように、フロントガラス510の内面510aに対して隙間C430を前後方向の全域で空ける姿勢に配置される。
フードC40は、外界5のうち撮像対象範囲内から各レンズユニットC30への光像の入射を許容するように、それら各レンズユニットC30の画角θw、θn、θtに応じて撮像空間C410を画成している。それと共にフードC40は、外界5のうち撮像対象範囲外から各レンズユニットC30への余剰光の入射、例えばフロントガラス510の内面510aによる反射光の入射等を規制可能に、撮像空間C410を画成している。
撮像系C50は、複数のイメージャユニットC51を制御基板C54及び制御回路C55を備える。撮像系C50のこれら構成要素C51、C54、C55は、カメラケーシングC20の収容空間C25内に配置されている。なお、制御回路C55は、第1の実施形態等における対象物識別装置200、210に相当する。
複数(本実施形態では3つ)のイメージャユニットC51は、互いに異なるレンズユニットC30の後側に、それぞれ個別に対応して位置決めされている。ここで各イメージャユニットC51の位置は、互いに異なる画角θw、θn、θtに応じた各レンズユニットC30の焦点距離に合わせて、前後方向にずれている。各イメージャユニットC51は、撮像基板C510 、撮像素子C511及び撮像回路C512を有している。撮像素子C511は、例えば、CCD又はCMOS等のカラー式若しくはモノクロ式イメージャから構成され、撮像基板C510に実装されている。撮像素子C511は、水平面上の車両500における鉛直方向及び水平方向にそれぞれ対応した縦方向及び横方向、すなわち、上下方向及び左右方向に沿って、マトリクス状に配置される複数画素を有している。撮像回路C512は、撮像素子C511の出力を処理可能な複数の回路素子から構成され、撮像基板C510に実装されている。
各イメージャユニットC51では、外界5からフロントガラス510を透過した光像が対応するレンズユニットC30を通して撮像素子C511に結像される。各イメージャユニットC51では、この結像した光像を撮像素子C511が撮影し、当該撮像素子C511から出力の信号又はデータが撮像回路C512にて処理される。
制御基板C54は、両ケーシング部材C21、C22の間にて位置決めされている。制御基板C54には、カメラケーシングC20外に露出するように、外部コネクタC542が実装されている。外部コネクタC542は、カメラケーシングC20外の、例えば主制御装置100等といった外部回路に対して接続される。外部コネクタC542は、制御基板C54において後側縁部C544よりもさらに後側へと突出した凸状基板部C543に実装されている。
制御回路C55は、マイクロコンピュータC550を含む複数の回路素子から構成され、制御基板C54に実装されている。制御回路C55は、各イメージャユニットC51の撮像回路C512に対して、それぞれ個別のフレキシブル基板(FPC)C540により接続されている。制御基板C54の上側にて各イメージャユニットC51の撮像回路C512と接続された各フレキシブル基板C540は、それぞれ対応する通窓C541を上下方向に貫通することで、制御基板C54の下側にて制御回路C55と接続されている。
各イメージャユニットC51の撮像回路C512との協働により制御回路C55は、撮像時の露光状態を含めた各イメージャユニットC51での撮像素子C511の撮影作動を制御する。さらに、各イメージャユニットC51の撮像回路C512との協働により制御回路C55は、各イメージャユニットC51の撮像素子C511から出力された信号又はデータに対して画像処理を施す。これら撮像制御機能及び画像処理機能により、各レンズユニットC30を通した撮像結果としては、外界5のうち各レンズユニットC30の画角θw、θn、θtに応じた範囲が映るように、外界画像としての撮像画像が生成される。尚、撮像制御機能及び画像処理機能のうち少なくとも一方を、制御回路C55のみが備えていてもよいし、各イメージャユニットC51の撮像回路C512のみが備えていてもよい。
制御回路C55は、外界画像に映る対象物を識別する識別機能も備えている。対象物識別機能では、図16に示すように各レンズユニットC30を通して生成の外界画像同士にて同一箇所Pw、Pn、Ptが映る画素につき、それぞれ光軸Aw、An、Atに対する位置座標のずれを、制御回路C55が例えばアライメント処理等によって補正する。具体的には、同一箇所Pw、Pn、Ptとしての例えば消失点等に、それぞれ対応する光軸Aw、An、Atに対しての位置座標のずれが上下方向及び横方向のうち少なくとも一方に認められると、当該ずれが補正される。
各レンズユニットC30の詳細構造を説明する。図12、13、15に示すように、レンズ、ユニットC30の1つである広角ユニットC30wは、広角鏡筒C32w及び広角レンズC34wを含む。広角鏡筒C32wは、例えば樹脂等の比較的成形容易な硬質材料により、中空状に形成されている。広角鏡筒C32wは、アッパケーシング部材C21に対して螺子固定又は接着固定されている。広角レンズC34wは、例えばガラス等の透光性材料により、凹メニスカスレンズ状に形成されている。広角レンズC34wは、色収差等の光学収差を補正するための後段レンズセット(図示しない)と共に、広角鏡筒C32w内に収容されている。そこで、後段レンズセットよりも前側にて広角ユニットC30wの前端部をなす広角レンズC34wから、フロントガラス510の内面510aが設定間隔を空けて離間するように、広角鏡筒C32wが位置決めされている。
図12、14、15に示す広角ユニット30wの光軸Awは、前後方向に対しては前側ほど下側若しくは上側へ傾斜して延伸、又は前後方向に沿って延伸するように、設定されている。図14に示すように広角ユニット30wの画角θwは、広角レンズC34wの採用により、例えば120°程度の比較的広い大角度に設定されているが、それよりも広い角度に設定されていてもよい。広角ユニットC30wの画角θw内での被写界深度Dwは、広角レンズC34wの採用により、外界5において車両500の乗員から見た手前側(以下、単に手前側という)の近点Dwcと、同乗員から見た奥行側(以下、単に奥行側という)の遠点Dwfとで挟まれる所定範囲に規定されている。
図12、13、15に示すように、レンズユニットC30の別の1つである狭角ユニットC30nは、狭角鏡筒C32n及び狭角レンズC34nを含む。狭角鏡筒C32nは、例えば樹脂等の比較的成形容易な硬質材料により、中空状に形成されている。狭角鏡筒C32nは、アッパケーシング部材C21に対して螺子固定又は接着固定されている。狭角レンズC34nは、例えばガラス等の透光性材料により、凹メニスカスレンズ状に形成されている。狭角レンズC34nは、色収差等の光学収差を補正するための後段レンズセット(図示しない)と共に、狭角鏡筒C32n内に収容されている。そこで、後段レンズセットよりも前側にて狭角ユニットC30nの前端部をなす狭角レンズC34nが広角レンズC34wの真上にて前後ずれも横ずれも実質なく配置されるように、狭角鏡筒C32nが位置決めされている。こうした構成により、下側へ向かうほどフロントガラス510の傾斜する前側を奥行側として、広角ユニットC30wが上側の狭角ユニットC30nよりも当該奥行側には実質張り出さない。
図12、14、15に示す狭角ユニット30nの光軸Anは、前後方向に対しては前側ほど下側若しくは上側へ傾斜して延伸、又は前後方向に沿って延伸するように設定されている。それと共に狭角ユニットC30nの光軸Anは、広角ユニットC30wの光軸Awから実質上下方向に限って偏心することで、車両500における横方向位置を当該光軸Awと位置合わせされている。図14に示すように狭角ユニットC30nの画角θnは、狭角レンズC34nの採用により、広角ユニットC30wの画角θwよりも狭い、例えば60° 程度の中角度に設定されている。これらの設定により、狭角ユニットC30n及び広角ユニットC30wの画角θn、θw同士が互いにオーバーラップする。狭角ユニットC30nの画角θn内での被写界深度Dnは、狭角レンズC34nの採用により、外界5において手前側の近点Dncと奥行側の遠点Dnfとで挟まれる所定範囲に規定されている。
広角ユニットC30wの遠点Dwfは、狭角ユニットC30nの近点Dncよりも奥行側に、設定されている。また、広角ユニットC30wの近点Dwcよりも奥行側に、狭角ユニットC30nの近点Dncが設定されている。さらに、広角ユニットC30wの遠点Dwfよりも奥行側に、狭角ユニットC30nの遠点Dnfが設定されている。これらの設定により、狭角ユニットC30nの近点Dnc及び遠点Dnfの間には広角ユニットC30wの遠点Dwfが位置することで、それらユニットC30n、C30wが被写界深度Dn、Dw同士のオーバーラップする領域Rnwを形成している。
図12、13、15に示すように、レンズユニットC30のさらに別の1つである望遠ユニットC30tは、望遠鏡筒C32tt及び望遠レンズC34tを含む。望遠鏡筒C32tは、例えば樹脂等の比較的成形容易な硬質材料により、中空状に形成されている。望遠鏡筒C32tは、アッパケーシング部材C21に対して螺子固定又は接着固定されている。望遠レンズC34tは、例えばガラス等の透光性材料により、凹レンズ状に形成されている。望遠レンズC34tは、色収差等の光学収差を補正するための後段レンズセット(図示しない)と共に、望遠鏡筒C32tt内に収容されている。そこで、後段レンズセットよりも前側にて望遠ユニットC30tの前端部をなす望遠レンズC34tが狭角レンズC34nの真上にて前後ずれも横ずれも実質なく配置されるように、望遠鏡筒C32tが位置決めされている。こうした構成により、狭角ユニットC30nが上側の望遠ユニットC30tより奥行側には実質張り出さず、且つ広角ユニットC30wも上側の望遠ユニットC30tより奥行側には実質張り出さない。
図12、14、16に示すように望遠ユニットC30tの光軸Atは、前後方向に対しては前側ほど下側若しくは上側へ傾斜して延伸、又は前後方向に沿って延伸するように、設定されている。それと共に望遠ユニットC30tの光軸Atは、広角ユニットC30w及び、狭角ユニットC30nの両光軸Aw、Anから実質上下方向に限って偏心することで、車両500における水平方向位置を当該両光軸Aw、Anと位置合わせされている。図14に示すように望遠ユニットC30tの画角θtは、望遠レンズC34tの採用により、広角ユニットC30w及び狭角ユニットC30nの両画角θw、θnよりも狭い、例えば35°程度の小角度に設定されている。これらの設定により、望遠ユニットC30t及び狭角ユニットC30nの画角θt、θn同士が互いにオーバーラップすると共に、望遠ユニットC30t及び、広角ユニットC30wの画角θt、θw同士も互いにオーバーラップする。望遠ユニットC30tの画角θt内での被写界深度Dtは、望遠レンズC34tの採用により、外界5において手前側の近点Dtcと奥行側の遠点Dtfとで挟まれる所定範囲に規定されている。
特に、望遠ユニットC30tの近点Dtcよりも奥行側に、狭角ユニットC30nの遠点Dnfが設定されている。それと共に本実施形態では、狭角ユニットC30nの近点Dnc並びに広角ユニットC30wの近点Dwc及び遠点Dwfよりも奥行側に、望遠ユニットC30tの近点Dtcが設定されている。さらに本実施形態では、狭角ユニットC30nの遠点Dnf及び、広角ユニットC30wの遠点Dwfよりも奥行側に、望遠ユニットC30tの遠点Dtfが設定されている。これらの設定により、望遠ユニットC30tの近点Dtc及び遠点Dtfの間には狭角ユニットC30nの遠点Dnfが位置することで、それらユニットC30t、C30nが被写界深度Dt、Dn同士のオーバーラップする領域Rtnを形成している。但し、本実施形態にて望遠ユニットC30tの近点Dtc及び遠点Dtfの間からは広角ユニットC30wの遠点Dwfが外れることで、それらユニットC30t、C30wの被写界深度Dt、Dw同士は互いにずれてオーバーラップしない。
互いにずれた光軸Aw、An、Atまわりの互いに異なる画角θw、θn、θtのうち、少なくとも2つずつ同士がオーバーラップするように、第1~第4注目組のレンズユニットC30がそれぞれ構成される。こうした第1~第4注目組では、構成するレンズユニットC30同士が車両500の上下方向にて重なる配置構造により、光軸Aw、An、Atのうち少なくとも2つずつ同士が車両500の横方向にて近接する。図16に例示するように、第1~第4注目組をそれぞれ構成する各レンズユニットC30を個別に通して生成される外界画像同士では、同一箇所Pw、Pn、Ptが映る画素の対応光軸Aw、An、Atに対する位置座標に、横方向の大きなずれは生じ難くなる。よって、第1~第4注目組の各レンズユニットC30を通した外界撮像による画像位置精度を、横方向にて高めることができる。
第2の構成例:
図16に示す第2の構成例では、狭角ユニットC3030nの前端部をなす狭角レンズC34nは、広角ユニットC3030wの前端部をなす広角レンズC34wの上側にて実質前後ずれなく配置され、当該広角レンズC34wとは横方向の一方側(即ち、図16の左側)へずれて配置されても良い。ここで狭角ユニットC3030nの光軸Anは、広角ユニットC3030wの光軸Awから上下方向及び横方向の双方に偏心している。この結果、下側へ向かうほどフロントガラス510の傾斜する前側を奥行側として、広角ユニットC2030wが上側の狭角ユニットC2030nよりも当該奥行側には実質張り出さない。
図16に示すように、望遠ユニットC3030tの前端部をなす望遠レンズC34tは、広角レンズC34wの上側にて実質前後ずれなく配置され、当該広角レンズC34wとは横方向の他方側(即ち、狭角ユニットC3030nとは反対側となる図16の右側)へずれて配置されても良い。ここで、望遠ユニットC3030tの光軸Atは、広角ユニットC3030wの光軸Awから上下方向及び横方向の双方に偏心している。それと共に望遠ユニットC30tの光軸Atは、狭角ユニットC3030nの光軸Anからは実質横方向に限って偏心することで、車両500における上下方向位置を当該光軸Anと位置合わせされている。この結果、広角ユニットC3030wが上側の望遠ユニットC3030t及び側方の狭角ユニットC3030nよりも奥行側には実質張り出さない。
図16に示す配置では、上下方向にて各レンズ、ユニットC3030の少なくとも一部ずつ同士が重なる注目組として、第1及び第2注目組が想定されると共に、横方向にてレンズユニットC3030同士が重なる注目組として、第3注目組が想定される。具体的には、第1注目組は、上下方向に互いに重なる広角ユニットC3030wと狭角ユニットC3030nとから構成される。第2注目組は、上下方向に互いに重なる広角ユニットC3030wと望遠ユニットC3030tとから構成される。第3注目組は、横方向に互いに重なる狭角ユニットC3030nと望遠ユニットC3030tとから構成される。
これら第1及び第2注目組によると、上下方向にて互いに重なるレンズユニットC3030の光軸Aw、An、Atのうち、2つずつ同士が上下方向及び、横方向の双方に偏心している。これによれば、第1及び第2注目組をそれぞれ構成する各レンズユニットC3030を通して生成の外界画像同士にて、同一箇所Pw、Pn、Ptが映る画素の位置座標の横方向ずれを抑制しつつも、例えば当該抑制に起因する上下方向での体格増大を軽減する等を目的とした配置自由度を確保することができる。したがって、車両500における任意乗員の視界を上下方向で担保することと両立させて、横方向での高い画像位置精度を確保することができる。特に第2注目組だけを見れば、狭角ユニットC3030nとは別の狭角ユニットとして画角θtが画角θwよりも狭い望遠ユニットC3030tと、当該画角θwの広角ユニットC3030wとにより、視界担保及び精度確保の両立が実現され得る。また、第1注目組の狭角ユニットC3030nと第2注目組の望遠ユニットC3030tとは、それらとは別の第3注目組として横方向に重なるのみならず、両ユニットの光軸An、At同士を横方向に限って偏心させている。したがって、横方向ずれの抑制に起因する上下方向での体格増大を可及的に軽減しつつも、乗員視界の担保効果を高めることができる。
第3の構成例:
図18に示す第3の構成例では、各側壁部C6043は、横方向に並ぶレンズユニットC6030のうち中央に位置する広角ユニットC6030wの光軸Awを挟んで対称に、それぞれ設けられている。ストレート平板状の各側壁部C6043は、広角ユニットC6030wの周囲から外界5側としての前側へ向かうほど、広角ユニットC6030wの広い画角θwに応じた外側側方へと向かつて、広角ユニットC6030wの光軸Awとは傾斜している。各側壁部C6043において台形平面状の内壁面C6043aは、水平面上の車両500における鉛直方向視(即ち、水平面視)では図19に示すように、画角θwよりも外側にて同角θwのテーパ線に沿って広がるように、形成されている。これにより、広角ユニットC6030wの画角θwよりも狭い狭角ユニットC6030n及び望遠ユニットC6030tの各画角θn、θtは、撮像空間C410内での鉛直方向視では当該画角θwの内側に部分的に収まっている。
図18、19に示すように各側壁部C6043の後端部間には、縦壁部C6210のうちレンズ窓C6211wの前側にて、広角露出窓C6431wが開口している。広角ユニットC6030wのうち外界5側の前端部は、撮像空間C410内からは外れ、レンズ窓C6211w内から広角露出窓C6431w内まで進入している。これにより広角露出窓C6431wは、撮像空間C410に向かつて広角ユニットC6030wを露出させている。
横方向一方側の側壁部C6043である第1側壁部C6432には、縦壁部C6210のうちレンズ窓C6211nの前側にて、狭角露出窓C6431nが開口している。狭角露出窓C6431nは、広角露出窓C6431wに対して上下方向位置を位置合わせされている。ここで、狭角ユニットC6030nにおいて外界5側の前端部は、撮像空間C410内から外れ、レンズ窓C6211n内から狭角露出窓C6431nまで進入している。これにより狭角露出窓C6431nは、撮像空間C410に向かつて狭角ユニットC6030nを露出させている。
横方向他方側の側壁部C6043である第2側壁部C6433には、縦壁部C6210のうちレンズ窓C6211tの前側にて、望遠露出窓C6431tが開口している。望遠露出窓C6431tは、広角露出窓C6431w及び狭角露出窓C6431nに対して上下方向位置を位置合わせされている。それと共に望遠露出窓C6431tは、広角露出窓C6431wに対しては前後方向位置のずれた状態で、狭角露出窓C6431nに対しては前後方向位置を位置合わせされている。ここで、望遠ユニットC6030tにおいて外界5側の前端部は、撮像空間C410内から外れ、レンズ窓C6211t内から望遠露出窓C6431t内まで進入している。これにより望遠露出窓C6431tは、撮像空間C410に向かつて望遠ユニットC6030tを、広角ユニットC6030wよりも外界5側となる前側且つ狭角ユニットC6030nの真横にて露出させている。
図20に示すように、狭角ユニットC6030nの前端部をなす狭角レンズC34nは、広角ユニットC6030wの前端部をなす広角レンズC34wは実質上下ずれなく配置されているが、外界5側としての前側と横方向の一方側(即ち、図20の左側)とには広角レンズC34wからずれている。ここで、狭角ユニットC6030nの光軸Anは、広角ユニットC6030wの光軸Awから実質横方向に限って偏心している。望遠ユニット6030tの前端部をなす望遠レンズC34tは、広角レンズC34wとは実質上下ずれなく配置されているが、外界5側としての前側と横方向の他方側(即ち、図20の右側)とには広角レンズC34wからずれている。ここで、望遠ユニットC6030tの光軸Atは、広角ユニットC6030wの光軸Awからも、狭角ユニットC6030nの光軸Anからも、実質横方向に限って偏心している。
第3の構成例では、カメラケーシングC20のうちアッパケーシング部材C21の縦壁部C6210は、上述した各ユニットC6030w、C6030n、C6030tの前後方向にずれる配置関係に合わせて、形成されている。具体的に縦壁部C6210は、横方向の中央部から左右両側側方へと向かうほど、外界5 側としての前側(すなわち、第1の構成例で説明の奥行側)へ斜めに張り出している。そこで、縦壁部C6210を貫通して各ユニットC6030w、C6030n、C6030tをカメラケーシングC20外に露出させるレンズ窓C6211w、C6211n、C6211tは、それら各ユニット毎に個別に設けられている。ここで、各ユニットC6030w、C6030n、C6030tにそれぞれ対応するレンズ窓C6211w、C6211n、C6211tの上下方向位置は、互いに位置合わせされている。それと共に、狭角ユニットC6030n及び望遠ユニットC6030tにそれぞれ対応するレンズ窓CC6211n、C6211tの前後方向位置は、広角ユニットC6030wに対応するレンズ窓6211wの前後方向位置とはずれた状態で、互いに位置合わせされている。
第4の構成例:
図21に示す第4の構成例では、各ユニットC30w、C30n、C30tの光軸Aw、An、At同士が横方向に限って偏心することで、それらユニット同士が横方向にて重なっている。この場合、横方向での画像位置精度に関する以外の作用効果を第1の構成例と同様に発揮することができ、さらに横方向での画像位置精度は位置座標のずれ補正により確保することができる。
第5~第7の構成例:
第5~第7の構成例では、望遠ユニットC30tが狭角ユニットC30nの上側以外に配置される。この場合の図22~24に示す具体例では、広角ユニットC30wと狭角ユニットC30nとのうち少なくとも一方に対する横方向の片側に、望遠ユニットC30tが配置されている。これにより望遠ユニットC30tは、広角ユニットC30wと狭角ユニットC30nとのうち少なくとも一方に対して、横方向に重なる。
以上、実施形態、変形例に基づき本開示について説明してきたが、上記した発明の実施の形態は、本開示の理解を容易にするためのものであり、本開示を限定するものではない。本開示は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本開示にはその等価物が含まれる。たとえば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。例えば、上記第1の態様に係る車両に搭載される撮像システムを適用例1とし、
適用例2:適用例1に記載の撮像システムにおいて、
前記参照パターンは、前記広角カメラによって撮像された撮像画像に対応する第1の参照パターンであり、
前記対象物識別装置は前記撮像画像の全ての領域を対象として、前記広角カメラによる歪みを補正するための歪補正処理を実行し、前記第1の参照パターンを用いて前記全ての領域における対象物を識別する、撮像システム。
適用例3:適用例1に記載の撮像システムにおいて、
前記対象物識別装置は前記撮像画像の全ての領域に対して、前記広角カメラによる撮像画像の歪みを非広角カメラにより撮像された撮像画像の歪みである非広角歪みまで補正するための歪補正処理を実行し、
前記参照パターンは、前記非広角歪みに対応する第2の参照パターンであり、前記対象物識別装置は、前記第2の参照パターンを用いて前記全ての領域における対象物を識別する、撮像システム。
適用例4:適用例3に記載の撮像システムにおいて、
前記対象物識別装置は、前記広角カメラによる撮像画像の歪みを前記非広角歪みの最大歪みまで補正するための歪補正処理を実行する、撮像システム。
適用例5:適用例1に記載の撮像システムにおいて、
前記対象物識別装置は、前記撮像画像の周辺部領域に対して前記歪補正処理を実行し、前記撮像画像の前記周辺部領域以外の他の領域に対して前記歪補正処理を実行せず、
前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターンと、非広角カメラによる撮像画像における歪みに対応する第2の参照パターンとを含み、前記対象物識別装置は、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別する、撮像システム。
適用例6:適用例3から適用例5のいずれか一項に記載の撮像システムにおいて、
少なくとも一つの前記非広角カメラを備え、
前記非広角カメラは、挟角カメラおよび望遠カメラの少なくともいずれか一方である、撮像システム。
適用例7:適用例1に記載の撮像システムにおいて、
前記対象物識別装置は、前記撮像画像の周辺部領域に含まれる対象物候補の周囲領域に対して前記歪補正処理を実行し、前記撮像画像の前記周囲領域以外の他の領域に対して前記歪補正処理を実行せず、
前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターンであり、前記対象物識別装置は、前記第1の参照パターンを用いて全ての領域における対象物を識別する、撮像システム。
適用例8:適用例1に記載の撮像システムにおいて、
前記広角カメラは中心窩レンズを有し、
前記対象物識別装置は、前記撮像画像の周辺部領域に対して前記歪補正処理を実行し、前記撮像画像の前記周縁部領域以外の他の領域に対して前記歪補正処理を実行せず、
前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターンと、非広角カメラによる撮像画像における歪みに対応する第2の参照パターンとを含み、前記対象物識別装置は、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別する、撮像システム。とし、
上記第2の態様に係る車両に搭載される撮像システムを適用例9とし、
適用例10:適用例9に記載の撮像システムにおいて、
前記複数の領域画像は、前記撮像画像の周辺部領域と前記周辺部領域以外の他の領域とを含み、
前記参照パターンは、前記他の領域に対応する第2の参照パターンと、前記周辺部領域に対応する周辺部参照パターンとを含み、前記対象物識別装置は、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記周辺部参照パターンを用いて前記周辺部領域における対象物を識別する、撮像システム。
適用例11:適用例10に記載の撮像システムにおいて、
前記周辺部領域が有する歪みは前記広角カメラにより撮像された撮像画像の周辺部が有する歪みに相当し、
前記第2の参照パターンは、前記非広角カメラによる撮像画像における歪みに対応し、前記周辺部参照パターンは、前記広角カメラによる撮像画像の周辺部における歪みに対応する、撮像システム。
適用例12:適用例11に記載の撮像システムにおいて、
前記非広角カメラは、挟角カメラおよび望遠カメラの少なくともいずれか一方である、撮像システム。
適用例13:適用例10から適用例12のいずれか一項に記載の撮像システムにおいて、前記他の領域は非広角カメラの画角に対応する領域である、撮像システム。
とし、
上記第3の態様に係る車両に搭載される対象物識別装置を適用例14とし、
適用例15:適用例14に記載の対象物識別装置において、
前記参照パターンは、前記広角カメラによって撮像された撮像画像に対応する第1の参照パターンであり、前記識別部は、前記撮像画像の全ての領域を対象として、前記広角カメラによる歪みを補正するための歪補正処理を実行し、前記第1の参照パターンを用いて前記全ての領域における対象物を識別する、対象物識別装置。
適用例16:適用例14に記載の対象物識別装置において、
前記識別部は前記撮像画像の全ての領域に対して、前記広角カメラによる撮像画像の歪みを非広角カメラにより撮像された撮像画像の歪みである非広角歪みまで補正するための歪補正処理を実行し、前記参照パターンとして、前記非広角歪みに対応する第2の参照パターンを用いて前記全ての領域における対象物を識別する、対象物識別装置。
適用例17:適用例16に記載の対象物識別装置において、
前記識別部は、前記広角カメラによる撮像画像の歪みを前記非広角歪みの最大歪みまで補正するための歪補正処理を実行する、対象物識別装置。
適用例18:適用例14に記載の対象物識別装置において、
前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターンと、非広角カメラによる撮像画像における歪みに対応する第2の参照パターンとを含み、前記識別部は、前記撮像画像の周辺部領域に対して前記歪補正処理を実行し、前記撮像画像の前記周辺部領域以外の他の領域に対して前記歪補正処理を実行せず、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別する、対象物識別装置。
適用例19:適用例16から適用例18のいずれかに記載の対象物識別装置において、
前記非広角カメラは、挟角カメラおよび望遠カメラの少なくともいずれか一方である、対象物識別装置。
適用例20:適用例14に記載の対象物識別装置において、
前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターンであり、前記識別部は、前記撮像画像の周辺部領域に含まれる対象物候補の周囲領域に対して前記歪補正処理を実行し、前記撮像画像の前記周囲領域以外の他の領域に対して前記歪補正処理を実行せず、前記第1の参照パターンを用いて全ての領域における対象物を識別する、対象物識別装置。
適用例21:適用例14に記載の対象物識別装置において、
前記広角カメラは中心窩レンズを有し、
前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターンと、非広角カメラによる撮像画像における歪みに対応する第2の参照パターンとを含み、前記識別部は、前記撮像画像の周辺部領域に対して前記歪補正処理を実行し、前記撮像画像の前記周縁部領域以外の他の領域に対して前記歪補正処理を実行せず、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別する、対象物識別装置。とし、
上記第4の態様に係る車両に搭載される対象物識別装置を適用例22とし、
適用例23:適用例22に記載の対象物識別装置において、
前記複数の領域画像は、前記撮像画像の周辺部領域と前記周辺部領域以外の他の領域とを含み、
前記参照パターンは、前記他の領域に対応する第2の参照パターンと、前記周辺部領域に対応する周辺部参照パターンとを含み、前記対象物識別装置は、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記周辺部参照パターンを用いて前記周辺部領域における対象物を識別する、対象物識別装置。
適用例24:適用例23に記載の対象物識別装置において、
前記周辺部領域が有する歪みは前記広角カメラにより撮像された撮像画像の周辺部が有する歪みに相当し、
前記第2の参照パターンは、非広角カメラによる撮像画像における歪みに対応し、前記周辺部参照パターンは、前記広角カメラによる撮像画像の周辺部における歪みに対応する、対象物識別装置。
適用例25:適用例24に記載の対象物識別装置において、
前記非広角カメラは、挟角カメラおよび望遠カメラの少なくともいずれか一方である、対象物識別装置。
適用例26:適用例23から適用例25のいずれか一項に記載の対象物識別装置において、前記他の領域は非広角カメラの画角に対応する領域である、対象物識別装置。
とすることができる。
30、31…撮像システム、20…フロントカメラ装置、21…リアカメラ装置、20a、21a…広角カメラ、200、210…対象物識別装置、201、211…CPU、202、212…メモリ、203、213…入出力インタフェース、204、214…バス、500…車両、P1…対象物識別プログラム、P2…歪補正処理プログラム、P3…領域分割プログラム。

Claims (16)

  1. 車両に搭載される撮像システム(30、31)であって、
    少なくとも1つの広角カメラ(20a、21a)と、
    前記広角カメラによって撮像された撮像画像(WI)に対して歪補正処理を実行し、予め用意された参照パターン(RP1、RP2)を用いて、前記歪補正処理された前記撮像画像における対象物を識別する対象物識別装置(20、21)であって、前記撮像画像の全ての領域に対して、前記広角カメラによる撮像画像の歪みを非広角カメラにより撮像された撮像画像の歪みである非広角歪みまで補正するための歪補正処理を実行する対象物識別装置を備え、
    前記参照パターンは、前記非広角歪みに対応する第2の参照パターン(RP2)であり、前記対象物識別装置は、前記第2の参照パターンを用いて前記全ての領域における対象物を識別する、撮像システム。
  2. 請求項1に記載の撮像システムにおいて、
    前記対象物識別装置は、前記広角カメラによる撮像画像の歪みを前記非広角歪みの最大歪みまで補正するための歪補正処理を実行する、撮像システム。
  3. 車両に搭載される撮像システム(30、31)であって、
    少なくとも1つの広角カメラ(20a、21a)と、
    前記広角カメラによって撮像された撮像画像(WI)に対して歪補正処理を実行し、予め用意された参照パターン(RP1、RP2)を用いて、前記歪補正処理された前記撮像画像における対象物を識別する対象物識別装置(20、21)であって、前記撮像画像の周辺部領域(EWI)に対して前記歪補正処理を実行し、前記撮像画像の前記周辺部領域以外の他の領域(CWC)に対して前記歪補正処理を実行しない対象物識別装置とを備え、
    前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターン(RP1)と、非広角カメラによる撮像画像における歪みに対応する第2の参照パターン(RP2)とを含み、前記対象物識別装置は、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別する、撮像システム。
  4. 請求項1から請求項3のいずれか一項に記載の撮像システムにおいて、
    少なくとも一つの前記非広角カメラを備え、
    前記非広角カメラは、挟角カメラ(20b)および望遠カメラ(20c)の少なくともいずれか一方である、撮像システム。
  5. 車両に搭載される撮像システム(30、31)であって、
    少なくとも1つの広角カメラ(20a、21a)と、
    前記広角カメラによって撮像された撮像画像(WI)に対して歪補正処理を実行し、予め用意された参照パターン(RP1、RP2)を用いて、前記歪補正処理された前記撮像画像における対象物を識別する対象物識別装置(20、21)であって、前記撮像画像の周辺部領域に含まれる対象物候補の周囲領域に対して前記歪補正処理を実行し、前記撮像画像の前記周囲領域以外の他の領域に対して前記歪補正処理を実行しない対象物識別装置とを備え、
    前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターン(RP1)であり、前記対象物識別装置は、前記第1の参照パターンを用いて全ての領域における対象物を識別する、撮像システム。
  6. 車両に搭載される撮像システム(30、31)であって、
    中心窩レンズを有する少なくとも1つの広角カメラ(20a、21a)と、
    前記広角カメラによって撮像された撮像画像(WI)に対して歪補正処理を実行し、予め用意された参照パターン(RP1、RP2)を用いて、前記歪補正処理された前記撮像画像における対象物を識別する対象物識別装置(20、21)であって、前記撮像画像の周辺部領域に対して前記歪補正処理を実行し、前記撮像画像の前記周縁部領域以外の他の領域に対して前記歪補正処理を実行しない対象物識別装置とを備え、
    前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターン(RP1)と、非広角カメラによる撮像画像における歪みに対応する第2の参照パターン(RP2)とを含み、前記対象物識別装置は、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別する、撮像システム。
  7. 対象物識別装置(20、21)であって、
    広角カメラによって撮像された撮像画像(WI)を取得する取得部(203、213)と、
    予め用意された参照パターン(RP1、RP2)を用いて前記撮像画像における対象物を識別する識別部であって、前記取得された撮像画像に対して歪補正処理を実行し、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別する識別部(201、211、P1、P2)であって、前記撮像画像の全ての領域に対して、前記広角カメラによる撮像画像の歪みを非広角カメラにより撮像された撮像画像の歪みである非広角歪みまで補正するための歪補正処理を実行し、前記参照パターンとして、前記非広角歪みに対応する第2の参照パターン(RP2)を用いて前記全ての領域における対象物を識別する識別部と、
    を備える対象物識別装置。
  8. 請求項7に記載の対象物識別装置において、
    前記識別部は、前記広角カメラによる撮像画像の歪みを前記非広角歪みの最大歪みまで補正するための歪補正処理を実行する、対象物識別装置。
  9. 対象物識別装置(20、21)であって、
    広角カメラによって撮像された撮像画像(WI)を取得する取得部(203、213)と、
    予め用意された参照パターン(RP1、RP2)を用いて前記撮像画像における対象物を識別する識別部であって、前記取得された撮像画像に対して歪補正処理を実行し、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別する識別部(201、211、P1、P2)とを備え、
    前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターン(RP1)と、非広角カメラによる撮像画像における歪みに対応する第2の参照パターン(RP2)とを含み、前記識別部は、前記撮像画像の周辺部領域(EWI)に対して前記歪補正処理を実行し、前記撮像画像の前記周辺部領域以外の他の領域(CWC)に対して前記歪補正処理を実行せず、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別する、対象物識別装置。
  10. 請求項7から請求項9のいずれかに記載の対象物識別装置において、
    前記非広角カメラは、挟角カメラ(20b)および望遠カメラ(20c)の少なくともいずれか一方である、対象物識別装置。
  11. 対象物識別装置(20、21)であって、
    広角カメラによって撮像された撮像画像(WI)を取得する取得部(203、213)と、
    予め用意された参照パターン(RP1、RP2)を用いて前記撮像画像における対象物を識別する識別部であって、前記取得された撮像画像に対して歪補正処理を実行し、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別する識別部(201、211、P1、P2)とを備え、
    前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターンであり、前記識別部は、前記撮像画像の周辺部領域(EWI)に含まれる対象物候補の周囲領域に対して前記歪補正処理を実行し、前記撮像画像の前記周囲領域以外の他の領域(CWC)に対して前記歪補正処理を実行せず、前記第1の参照パターンを用いて全ての領域における対象物を識別する、対象物識別装置。
  12. 対象物識別装置(20、21)であって、
    広角カメラによって撮像された撮像画像(WI)を取得する取得部(203、213)と、
    予め用意された参照パターン(RP1、RP2)を用いて前記撮像画像における対象物を識別する識別部であって、前記取得された撮像画像に対して歪補正処理を実行し、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別する識別部(201、211、P1、P2)とを備え、
    前記広角カメラは中心窩レンズを有し、
    前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターンと、非広角カメラによる撮像画像における歪みに対応する第2の参照パターンとを含み、前記識別部は、前記撮像画像の周辺部領域に対して前記歪補正処理を実行し、前記撮像画像の前記周縁部領域以外の他の領域に対して前記歪補正処理を実行せず、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別する、対象物識別装置。
  13. 対象物識別方法であって、
    広角カメラ(20a、21a)によって撮像された撮像画像を取得し、
    前記取得された撮像画像に対して歪補正処理を実行し、参照パターン(RP1、RP2)を用いて前記歪補正処理された前記撮像画像における対象物を識別することを備え、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別することは、
    前記撮像画像の全ての領域に対して、前記広角カメラによる撮像画像の歪みを非広角カメラにより撮像された撮像画像の歪みである非広角歪みまで補正するための歪補正処理を実行し、
    前記参照パターンは、前記非広角歪みに対応する第2の参照パターン(RP2)であり、前記第2の参照パターンを用いて前記全ての領域における対象物を識別することを備える、対象物識別方法。
  14. 対象物識別方法であって、
    広角カメラ(20a、21a)によって撮像された撮像画像を取得し、
    前記取得された撮像画像に対して歪補正処理を実行し、参照パターン(RP1、RP2)を用いて前記歪補正処理された前記撮像画像における対象物を識別することを備え、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別することは、
    前記広角カメラによって撮像された撮像画像(WI)に対して歪補正処理を実行し、予め用意された参照パターン(RP1、RP2)を用いて、前記歪補正処理された前記撮像画像における対象物を識別し、前記撮像画像の周辺部領域(EWI)に対して前記歪補正処理を実行し、前記撮像画像の前記周辺部領域以外の他の領域(CWC)に対して前記歪補正処理を実行せず、
    前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターン(RP1)と、非広角カメラによる撮像画像における歪みに対応する第2の参照パターン(RP2)とを含み、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別することを備える、対象物識別方法。
  15. 対象物識別方法であって、
    広角カメラ(20a、21a)によって撮像された撮像画像を取得し、
    前記取得された撮像画像に対して歪補正処理を実行し、参照パターン(RP1、RP2)を用いて前記歪補正処理された前記撮像画像における対象物を識別することを備え、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別することは、
    前記撮像画像の周辺部領域に含まれる対象物候補の周囲領域に対して前記歪補正処理を実行し、前記撮像画像の前記周囲領域以外の他の領域に対して前記歪補正処理を実行せず、
    前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターン(RP1)であり、前記第1の参照パターンを用いて全ての領域における対象物を識別することを備える、対象物識別方法。
  16. 対象物識別方法であって、
    中心窩レンズを有する広角カメラ(20a、21a)によって撮像された撮像画像を取得し、
    前記取得された撮像画像に対して歪補正処理を実行し、参照パターン(RP1、RP2)を用いて前記歪補正処理された前記撮像画像における対象物を識別することを備え、前記参照パターンを用いて前記歪補正処理された前記撮像画像における対象物を識別することは、
    前記撮像画像の周辺部領域に対して前記歪補正処理を実行し、前記撮像画像の前記周縁部領域以外の他の領域に対して前記歪補正処理を実行せず、
    前記参照パターンは、前記広角カメラによる撮像画像における歪みに対応する第1の参照パターン(RP1)と、非広角カメラによる撮像画像における歪みに対応する第2の参照パターン(RP2)とを含み、前記第2の参照パターンを用いて前記他の領域における対象物を識別し、前記第1の参照パターンを用いて前記周辺部領域における対象物を識別することを備える、対象物識別方法。
JP2018034588A 2018-02-28 2018-02-28 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法 Active JP7135339B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018034588A JP7135339B2 (ja) 2018-02-28 2018-02-28 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法
DE102019202737.7A DE102019202737A1 (de) 2018-02-28 2019-02-28 Abbildungssystem und Objektidentifizierungsvorrichtung, die in einem Fahrzeug zu montieren sind, und Objektidentifizierungsverfahren, das durch ein Fahrzeug einzusetzen ist
CN201910151875.4A CN110211051B (zh) 2018-02-28 2019-02-28 成像***和对象识别装置以及对象识别方法
US16/288,444 US11501540B2 (en) 2018-02-28 2019-02-28 Imaging system and object identifying apparatus to be mounted in vehicle, and object identifying method to be employed by vehicle
JP2022131447A JP7367818B2 (ja) 2018-02-28 2022-08-22 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018034588A JP7135339B2 (ja) 2018-02-28 2018-02-28 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022131447A Division JP7367818B2 (ja) 2018-02-28 2022-08-22 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法

Publications (2)

Publication Number Publication Date
JP2019149099A JP2019149099A (ja) 2019-09-05
JP7135339B2 true JP7135339B2 (ja) 2022-09-13

Family

ID=67550607

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018034588A Active JP7135339B2 (ja) 2018-02-28 2018-02-28 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法
JP2022131447A Active JP7367818B2 (ja) 2018-02-28 2022-08-22 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022131447A Active JP7367818B2 (ja) 2018-02-28 2022-08-22 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法

Country Status (4)

Country Link
US (1) US11501540B2 (ja)
JP (2) JP7135339B2 (ja)
CN (1) CN110211051B (ja)
DE (1) DE102019202737A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10593014B2 (en) * 2018-03-26 2020-03-17 Ricoh Company, Ltd. Image processing apparatus, image processing system, image capturing system, image processing method
JP7194906B2 (ja) 2018-03-30 2022-12-23 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体
JP7140580B2 (ja) * 2018-07-13 2022-09-21 マクセル株式会社 ステレオ撮像装置
CN111667398B (zh) * 2019-03-07 2023-08-01 株式会社理光 图像处理方法、装置和计算机可读存储介质
FR3100498B1 (fr) * 2019-09-10 2021-12-17 Renault Sas Dispositif de prise de vue vers l’avant au travers d’un pare-brise de vehicule
JP7467402B2 (ja) * 2021-09-24 2024-04-15 キヤノン株式会社 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
WO2024119319A1 (en) * 2022-12-05 2024-06-13 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Electronic device, method of controlling electronic device, and computer readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262159A (ja) 2001-02-28 2002-09-13 Ricoh Co Ltd 撮像装置
JP2003212041A (ja) 2002-01-25 2003-07-30 Toyota Central Res & Dev Lab Inc 車輌後方表示装置
JP2010020486A (ja) 2008-07-09 2010-01-28 Autonetworks Technologies Ltd 道路標示認識装置
JP2016134764A (ja) 2015-01-20 2016-07-25 クラリオン株式会社 車両用外界認識装置およびそれを用いた車両挙動制御装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006191210A (ja) 2004-12-28 2006-07-20 Sumitomo Electric Ind Ltd 車両周辺認識システム及び画像処理装置
KR101143176B1 (ko) * 2006-09-14 2012-05-08 주식회사 만도 조감도를 이용한 주차구획 인식 방법, 장치 및 그를 이용한주차 보조 시스템
JP2008197829A (ja) * 2007-02-09 2008-08-28 Sony Corp 画像処理装置と方法およびプログラムと記録媒体
JP2009169601A (ja) * 2008-01-15 2009-07-30 Ricoh Co Ltd 画像処理システム及びこの画像処理システムを有するカメラ
JP5035284B2 (ja) * 2009-03-25 2012-09-26 株式会社日本自動車部品総合研究所 車両周辺表示装置
JP5316562B2 (ja) 2011-02-10 2013-10-16 株式会社デンソー 車載カメラ
JP5741321B2 (ja) * 2011-08-23 2015-07-01 株式会社富士通ゼネラル 運転支援装置
CN103108154A (zh) * 2011-11-14 2013-05-15 辉达公司 一种汽车导航设备
JP2013191050A (ja) * 2012-03-14 2013-09-26 Toyota Motor Corp 車両周辺監視装置
CN104823218A (zh) * 2012-12-03 2015-08-05 哈曼国际工业有限公司 使用单一普通摄像机来检测行人的***和方法
EP3435328A4 (en) * 2016-03-23 2019-11-13 Hitachi Automotive Systems, Ltd. OBJECT DETECTION DEVICE
JP6699902B2 (ja) * 2016-12-27 2020-05-27 株式会社東芝 画像処理装置及び画像処理方法
JP6700216B2 (ja) * 2017-05-09 2020-05-27 株式会社デンソー 駐車空間検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262159A (ja) 2001-02-28 2002-09-13 Ricoh Co Ltd 撮像装置
JP2003212041A (ja) 2002-01-25 2003-07-30 Toyota Central Res & Dev Lab Inc 車輌後方表示装置
JP2010020486A (ja) 2008-07-09 2010-01-28 Autonetworks Technologies Ltd 道路標示認識装置
JP2016134764A (ja) 2015-01-20 2016-07-25 クラリオン株式会社 車両用外界認識装置およびそれを用いた車両挙動制御装置

Also Published As

Publication number Publication date
CN110211051B (zh) 2024-04-12
JP2022171678A (ja) 2022-11-11
JP2019149099A (ja) 2019-09-05
DE102019202737A1 (de) 2019-08-29
JP7367818B2 (ja) 2023-10-24
US20190266423A1 (en) 2019-08-29
US11501540B2 (en) 2022-11-15
CN110211051A (zh) 2019-09-06

Similar Documents

Publication Publication Date Title
JP7135339B2 (ja) 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法
US9499099B2 (en) Motor vehicle having a camera monitoring system
EP2254334A1 (en) Image processing device and method, driving support system, and vehicle
JP2007274377A (ja) 周辺監視装置、プログラム
CN109429007B (zh) 图像处理装置以及拍摄装置
US9682655B2 (en) Method and device for operating a vehicle
KR101583663B1 (ko) 차량용 카메라의 교정판 제공 방법
KR20130089143A (ko) 차량 내의 디스플레이 장치 상에 이미지를 디스플레이하는 방법, 운전자 보조 시스템 및 차량
EP3667413B1 (en) Stereo image processing device
JP2009120135A (ja) 撮像装置
JP5951785B2 (ja) 画像処理装置及び車両前方監視装置
KR20170111504A (ko) Avm 시스템 어라운드 영상 정합성 평가방법 및 장치
JP5405809B2 (ja) 車両周辺監視装置およびカメラ位置・姿勢判定方法
CN112351242A (zh) 图像处理装置以及图像处理方法
JP7310961B2 (ja) カメラモジュール
JP5305750B2 (ja) 車両周辺表示装置およびその表示方法
JP6844223B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
US20220174254A1 (en) A camera assembly and a method
JP6032141B2 (ja) 走行路面標示検知装置および走行路面標示検知方法
KR101293263B1 (ko) 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법
EP3974771A1 (en) Stereo camera system and distance measurement method
WO2018130689A1 (en) Method for capturing an environmental region of a motor vehicle with adaptation of a region of interest depending on a trailer, computing device, camera system as well as motor vehicle
KR20150073676A (ko) 차량용 왜곡 보정 장치 및 방법
JP2018113622A (ja) 画像処理装置、画像処理システム、及び、画像処理方法
JP2022059143A (ja) 車両用複眼カメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R151 Written notification of patent or utility model registration

Ref document number: 7135339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151