JP5067136B2 - Vehicle periphery image processing apparatus and vehicle periphery state presentation method - Google Patents

Vehicle periphery image processing apparatus and vehicle periphery state presentation method Download PDF

Info

Publication number
JP5067136B2
JP5067136B2 JP2007295399A JP2007295399A JP5067136B2 JP 5067136 B2 JP5067136 B2 JP 5067136B2 JP 2007295399 A JP2007295399 A JP 2007295399A JP 2007295399 A JP2007295399 A JP 2007295399A JP 5067136 B2 JP5067136 B2 JP 5067136B2
Authority
JP
Japan
Prior art keywords
image
vehicle
image data
camera
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007295399A
Other languages
Japanese (ja)
Other versions
JP2009124377A (en
Inventor
照久 高野
雅則 古屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2007295399A priority Critical patent/JP5067136B2/en
Publication of JP2009124377A publication Critical patent/JP2009124377A/en
Application granted granted Critical
Publication of JP5067136B2 publication Critical patent/JP5067136B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車両周囲の状況を運転者に認識させるために車両周囲を撮像した画像を表示する車両周辺画像処理装置及び車両周辺状況提示方法に関する。   The present invention relates to a vehicle periphery image processing apparatus and a vehicle periphery state presentation method for displaying an image obtained by capturing the periphery of a vehicle in order to make a driver recognize the state around the vehicle.

従来より、車両の周囲を撮像するカメラを複数備え、当該カメラによって撮像した画像を選択的に車室内のディスプレイに表示するに際して、どのカメラで撮像した画像であるかを表す文字を重畳させて表示する技術が、特許文献1などで知られている。これにより、どのカメラによって撮像された画像が表示されているかを視認者に認識しやすくさせている。
特開平11−261998号公報
Conventionally, a plurality of cameras that capture the surroundings of a vehicle are provided, and when an image captured by the camera is selectively displayed on a display in a passenger compartment, characters indicating which camera is captured are superimposed and displayed. The technique to do is known by patent document 1 etc. This makes it easy for the viewer to recognize which camera is displaying the captured image.
JP-A-11-261998

しかしながら、上述した技術は、ディスプレイに表示させている画像がどのカメラで撮像されたかを文字で表示しているので、当該文字を読まなければならず、どの方向の画像が表示されているかを直感的に把握することが困難であった。   However, since the above-described technique displays in characters which camera the image displayed on the display was captured, it is necessary to read the character and intuitively determine which direction the image is displayed. It was difficult to grasp.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、複数のカメラで撮像した複数の画像のうち、どの画像を表示させているかを直感的に把握させることができる車両周辺画像処理装置及び車両周辺状況提示方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and it is possible to intuitively grasp which image is displayed among a plurality of images captured by a plurality of cameras. It is an object to provide a processing device and a vehicle surrounding situation presentation method.

本発明は、複数の撮像された画像データを、撮像手段の配置位置と相似的な位置関係に配置して表示すると共に、複数の画像データのうち、少なくとも一つの画像データが他の画像データよりも大きく表示され、画像データを大きく表示させたことに応じて他の画像データをずらして表示させるようにした。
The present invention displays a plurality of imaged image data arranged in a similar positional relationship to the arrangement position of the imaging means, and at least one of the plurality of image data is more than the other image data. also it appears larger, in response to of displaying a large image data was so that is displayed by shifting the other image data.

本発明によれば、少なくとも一つの画像データが他の画像データよりも大きく表示されるので、大きく表示された画像データの車両に対する位置関係より、複数の撮像手段のうち、どの方向の画像が表示されているかを直感的に認識することができる。   According to the present invention, since at least one image data is displayed larger than the other image data, an image in which direction is displayed among the plurality of imaging means based on the positional relationship of the image data displayed larger with respect to the vehicle. It can be intuitively recognized whether it is done.

本発明は、例えば図1に示すように、車両周辺の画像を運転者に提供する車両周辺画像提供装置に適用される。車両周辺画像提供装置は、画像処理装置1に、カメラモジュール(撮影手段)2Fr,2R,2L,2Rr(以下、総称するときには単に「カメラモジュール2」と呼ぶ。)と、操作入力部3と、車速センサ4と、操舵角センサ5と、シフト位置センサ6と、障害物検出部7と、ナビゲーション装置8と、モニタ(表示手段)9とが接続されている。   As shown in FIG. 1, for example, the present invention is applied to a vehicle periphery image providing device that provides a driver with an image around the vehicle. The vehicle periphery image providing device includes an image processing device 1, a camera module (photographing means) 2Fr, 2R, 2L, 2Rr (hereinafter simply referred to as “camera module 2”), an operation input unit 3, and A vehicle speed sensor 4, a steering angle sensor 5, a shift position sensor 6, an obstacle detection unit 7, a navigation device 8, and a monitor (display means) 9 are connected.

カメラモジュール2は、車両周辺を撮影するものであり、例えばCCD(Charge Coupled Device)カメラやCMOS(Complementary Metal-Oxide Semiconductor)カメラが用いられる。このカメラモジュール2は、カメラモジュール2Fr,2R,2L,2Rrの4つからなっている。カメラモジュール2Frは、車両の前方を撮像方向とするために車両前部のフロントグリル中央付近に設けられている。カメラモジュール2Rは、車両の右側方を撮像方向とするために例えば車両の右側ドアミラーに設けられている。カメラモジュール2Lは、車両の左側方を撮像方向とするために例えば車両の左側ドアミラーに設けられている。カメラモジュール2Rrは、車両の後方を撮像方向とするために車両後部のリアハッチ中央付近に設けられている。このように、複数のカメラモジュール2は、車両の四方に設けられている。   The camera module 2 captures the periphery of the vehicle, and for example, a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal-Oxide Semiconductor) camera is used. The camera module 2 includes four camera modules 2Fr, 2R, 2L, and 2Rr. The camera module 2Fr is provided in the vicinity of the center of the front grill at the front of the vehicle so that the front of the vehicle is the imaging direction. The camera module 2R is provided, for example, on the right door mirror of the vehicle so that the right side of the vehicle is the imaging direction. The camera module 2L is provided, for example, on the left door mirror of the vehicle so that the left side of the vehicle is the imaging direction. The camera module 2Rr is provided in the vicinity of the rear hatch center at the rear of the vehicle so that the rear side of the vehicle is the imaging direction. As described above, the plurality of camera modules 2 are provided on all sides of the vehicle.

操作入力部3は、運転者に操作される操作インターフェースであり、例えばモニタ9と一体化されたタッチセンサによって構成される。この操作入力部3によって検出された運転者の操作を表す操作入力信号は、画像処理装置1に供給される。車速センサ4は、自車両の車速を検出するものである。この車速センサ4によって検出された車速信号は、画像処理装置1に供給される。操舵角センサ5は、自車両の操舵角を検出するものである。この操舵角センサ5によって検出された操舵角信号は、画像処理装置1に供給される。シフト位置センサ6は、自車両のシフト位置(ギヤポジションの位置)を検出するものである。このシフト位置センサ6によって検出されたシフト位置信号は、画像処理装置1に供給される。障害物検出部7は、車両周辺に存在する障害物の有無、障害物が存在する場合の距離及び方向を検出する。この障害物検出部7によって検出された障害物検出信号は、画像処理装置1に供給される。ナビゲーション装置8は、車両が走行している道路環境やシーンを表す情報を画像処理装置1に供給する。   The operation input unit 3 is an operation interface operated by the driver, and is configured by, for example, a touch sensor integrated with the monitor 9. An operation input signal representing the driver's operation detected by the operation input unit 3 is supplied to the image processing apparatus 1. The vehicle speed sensor 4 detects the vehicle speed of the host vehicle. A vehicle speed signal detected by the vehicle speed sensor 4 is supplied to the image processing apparatus 1. The steering angle sensor 5 detects the steering angle of the host vehicle. A steering angle signal detected by the steering angle sensor 5 is supplied to the image processing apparatus 1. The shift position sensor 6 detects a shift position (gear position) of the host vehicle. The shift position signal detected by the shift position sensor 6 is supplied to the image processing apparatus 1. The obstacle detection unit 7 detects the presence / absence of obstacles around the vehicle, and the distance and direction when there are obstacles. The obstacle detection signal detected by the obstacle detection unit 7 is supplied to the image processing apparatus 1. The navigation device 8 supplies the image processing device 1 with information representing the road environment or scene in which the vehicle is traveling.

画像処理装置1は、カメラモジュール2により撮像されたカメラ画像データを処理するものである。画像処理装置1は、コンピュータによるハードウエアで構成されているが、図1においては便宜的に機能ブロック毎に分けて、説明を行っている。   The image processing apparatus 1 processes camera image data captured by the camera module 2. The image processing apparatus 1 is configured by hardware by a computer, but in FIG. 1, for the sake of convenience, description is given separately for each functional block.

この画像処理装置1は、バス状の通信ライン20に、カメラモジュール2Fr,2R,2L,2Rrのそれぞれに対応した入力バッファ21a,21b,21c,21d(以下、総称する場合には単に「入力バッファ21」と呼ぶ。)と、CPU22と、画像処理部23と、テーブル記憶部24と、出力バッファ25とが接続されて構成されている。   The image processing apparatus 1 includes input buses 21a, 21b, 21c, and 21d corresponding to the camera modules 2Fr, 2R, 2L, and 2Rr (hereinafter referred to simply as “input buffers” when collectively referred to). 21 ”), a CPU 22, an image processing unit 23, a table storage unit 24, and an output buffer 25.

入力バッファ21は、カメラモジュール2からのカメラ画像データを入力して記憶しておくものである。入力バッファ21は、カメラモジュール2の個数に対応して設けられ、入力バッファ21aはカメラモジュール2Frと接続され、入力バッファ21bはカメラモジュール2Rと接続され、入力バッファ21cはカメラモジュール2Lと接続され、入力バッファ21dはカメラモジュール2Rrと接続される。入力バッファ21は、カメラ画像データを一旦格納し、CPU22の制御に従って、画像処理部23による画像変換タイミングでカメラ画像データが読み出される。   The input buffer 21 receives and stores camera image data from the camera module 2. The input buffer 21 is provided corresponding to the number of camera modules 2, the input buffer 21a is connected to the camera module 2Fr, the input buffer 21b is connected to the camera module 2R, and the input buffer 21c is connected to the camera module 2L. The input buffer 21d is connected to the camera module 2Rr. The input buffer 21 temporarily stores the camera image data, and the camera image data is read at the image conversion timing by the image processing unit 23 under the control of the CPU 22.

出力バッファ25は、後述する画像処理部23によって作成された表示データを記憶するものである。この出力バッファ25は、CPU22の制御に従って、記憶した表示データをモニタ9に出力する。モニタ9は、出力バッファ25から出力された表示データを表示する。この表示データは、図3乃至図6に示すように複数の画像を組み合わせて運転者に提示する。   The output buffer 25 stores display data created by an image processing unit 23 described later. The output buffer 25 outputs the stored display data to the monitor 9 under the control of the CPU 22. The monitor 9 displays the display data output from the output buffer 25. The display data is presented to the driver by combining a plurality of images as shown in FIGS.

CPU22は、画像処理装置1の全体を制御するものである。CPU22は、主として、入力バッファ21a,21b,21c,21dからカメラ画像データを取り出すタイミング、画像処理部23の画像処理タイミング、出力バッファ25から表示データをモニタ9に送信するタイミングを制御する。CPU22は、例えばASIC(Application Specific Integrated Circuit)や、LSI(Large Scale Integrated Circuit)や、FPGA(Field Programmable Gate Array)や、DSP(Digital Signal Processor)等のデバイスから構成されている。   The CPU 22 controls the entire image processing apparatus 1. The CPU 22 mainly controls the timing of taking out the camera image data from the input buffers 21a, 21b, 21c, and 21d, the image processing timing of the image processing unit 23, and the timing of transmitting the display data from the output buffer 25 to the monitor 9. The CPU 22 includes devices such as an ASIC (Application Specific Integrated Circuit), an LSI (Large Scale Integrated Circuit), an FPGA (Field Programmable Gate Array), and a DSP (Digital Signal Processor).

テーブル記憶部24は、カメラモジュール2により撮影された車両周辺のカメラ画像データを用いて座標変換を行って表示データを作成するアドレス変換テーブルを記憶している。テーブル記憶部24は、アドレス変換テーブルとして、複数のカメラモジュール2により撮像されたカメラ画像データを用いて、当該複数のカメラモジュール2の配置位置と相似的な位置関係となるように配置した合成画像を含む表示データを作成するアドレス変換テーブル24aを記憶している。また、このアドレス変換テーブル24aとしては、後述するように、俯瞰画像と複数のカメラモジュール2によって撮像されたカメラ画像データとの双方を含む表示データを作成するアドレス変換テーブル24a、複数のカメラ画像データのうち1以上のカメラ画像データを拡大させた表示データを作成するアドレス変換テーブル24aも含む。なお、テーブル記憶部24には、表示データに含める俯瞰画像やカメラ画像データのレイアウトに従って複数種類のアドレス変換テーブル24aを記憶しておく。このような複数のアドレス変換テーブル24aのうち、画像処理部23は、必要なアドレス変換テーブル24aを選択して、表示データを作成することとなる。   The table storage unit 24 stores an address conversion table for generating display data by performing coordinate conversion using camera image data around the vehicle photographed by the camera module 2. The table storage unit 24 uses the camera image data captured by the plurality of camera modules 2 as the address conversion table, and is a composite image arranged so as to have a similar positional relationship with the arrangement positions of the plurality of camera modules 2. An address conversion table 24a for creating display data including The address conversion table 24a includes, as will be described later, an address conversion table 24a for creating display data including both a bird's-eye view image and camera image data captured by the plurality of camera modules 2, and a plurality of camera image data. The address conversion table 24a for creating display data obtained by enlarging one or more of the camera image data is also included. The table storage unit 24 stores a plurality of types of address conversion tables 24a according to the layout of the overhead view image and camera image data included in the display data. Among such a plurality of address conversion tables 24a, the image processing unit 23 selects a necessary address conversion table 24a and creates display data.

画像処理部23は、CPU22の制御に従って入力バッファ21から供給された複数のカメラ画像データを用いた座標変換を行って、表示データを作成する。画像処理部23は、表示データに含める俯瞰画像を作成する俯瞰画像作成部23aと、複数のカメラ画像データを複数のカメラモジュール2の配置位置と相似的な関係となるような合成画像を作成する周辺画像作成部(画像作成手段)23bと、当該周辺画像作成部23bによって作成された周辺を表す合成画像を加工する画像加工部23cとを備える。なお、俯瞰画像作成部23a及び周辺画像作成部23bは、単一のアドレス変換テーブル24aを用いて図3乃至図6に示した表示データを作成する単一のモジュールであっても良く、別のアドレス変換テーブル24aを用いて俯瞰画像、複数のカメラ画像データを複数のカメラモジュール2の配置位置と相似的な関係となる合成画像を作成する別個のモジュールであっても良い。   The image processing unit 23 performs coordinate conversion using a plurality of camera image data supplied from the input buffer 21 under the control of the CPU 22 to create display data. The image processing unit 23 creates a composite image such that the overhead image creation unit 23a that creates the overhead image included in the display data and the plurality of camera image data have a similar relationship with the arrangement positions of the plurality of camera modules 2. A peripheral image creation unit (image creation unit) 23b and an image processing unit 23c that processes a composite image representing the periphery created by the peripheral image creation unit 23b. The overhead image creation unit 23a and the peripheral image creation unit 23b may be a single module that creates the display data shown in FIGS. 3 to 6 using a single address conversion table 24a. A separate module may be used that creates an overhead image and a plurality of camera image data using the address conversion table 24a to create a composite image having a similar relationship with the arrangement positions of the plurality of camera modules 2.

俯瞰画像作成部23aは、図2に示すように、カメラモジュール2Frによって撮影された車両前方の車両周辺画像32aと、カメラモジュール2Rによって撮影された車両後方の車両周辺画像32bと、カメラモジュール2Lによって撮影された車両左側方の車両周辺画像32cと、カメラモジュール2Rによって撮影された車両右側方の車両周辺画像32dとを用いる。図2に示す車両周辺画像32a〜32d、および後述する部分画像34a〜34dには、車両周辺の地面上に引かれた白線33が表示されている。   As shown in FIG. 2, the bird's-eye view image creation unit 23a includes a vehicle surrounding image 32a in front of the vehicle photographed by the camera module 2Fr, a vehicle surrounding image 32b photographed by the camera module 2R, and a camera module 2L. The photographed vehicle surrounding image 32c on the left side of the vehicle and the vehicle surrounding image 32d on the right side of the vehicle photographed by the camera module 2R are used. In the vehicle peripheral images 32a to 32d shown in FIG. 2 and partial images 34a to 34d described later, a white line 33 drawn on the ground around the vehicle is displayed.

俯瞰画像作成部23aは、各車両周辺画像32a〜32dを、アドレス変換テーブル24aを参照してそれぞれ座標変換する。すなわち、俯瞰画像作成部23aは、車両前方の車両周辺画像32aを座標変換して自車両前方を上空から眺めた部分画像34aを生成し、車両後方の車両周辺画像32bを座標変換して自車両後方を上空から眺めた部分画像34bを生成し、車両左側方の車両周辺画像32cを座標変換して車両左側方を上空から眺めた部分画像34cを生成し、車両右側方の車両周辺画像32dを座標変換して車両右側方を上空から眺めた部分画像34dを生成する。そして、俯瞰画像作成部23aは、座標変換して得た部分画像34a〜34dを合成して、自車両周辺を上空から眺めた表示用の俯瞰画像31を生成する。   The bird's-eye view image creation unit 23a converts the coordinates of each of the vehicle surrounding images 32a to 32d with reference to the address conversion table 24a. That is, the bird's-eye view image creation unit 23a generates a partial image 34a in which the vehicle periphery image 32a in front of the vehicle is coordinate-converted to view the front of the host vehicle from above, and the vehicle periphery image 32b in the rear of the vehicle is coordinate-converted to convert the host vehicle. A partial image 34b viewed from behind is generated, a vehicle peripheral image 32c on the left side of the vehicle is coordinate-converted to generate a partial image 34c viewed from the left side of the vehicle, and a vehicle peripheral image 32d on the right side of the vehicle is generated. A partial image 34d in which the right side of the vehicle is viewed from above is generated by coordinate conversion. Then, the bird's-eye view image creation unit 23a synthesizes the partial images 34a to 34d obtained by coordinate conversion, and generates a bird's-eye view image 31 for display in which the periphery of the host vehicle is viewed from above.

このように、俯瞰画像作成部23aは、カメラモジュール2によって撮影された車両周辺画像に座標変換をして俯瞰画像31を生成することができる。   As described above, the overhead image creation unit 23 a can generate the overhead image 31 by performing coordinate conversion on the vehicle periphery image captured by the camera module 2.

周辺画像作成部23bは、図3に示すように、複数のカメラ画像領域を含む合成画像101と、俯瞰画像領域102aを含む俯瞰画像102とに区分された表示画像100のうちの、合成画像101を作成する。この合成画像101は、カメラモジュール2Frによって撮像されたカメラ画像が格納される領域101Fr、カメラモジュール2Rによって撮像されたカメラ画像が格納される領域101FR及び101RR,カメラモジュール2Lによって撮像されたカメラ画像が格納される領域101FL及び101RL,カメラモジュール2Rrによって撮像されたカメラ画像が格納される領域101Rrの配置位置を、カメラモジュール2Fr,2R,2L,2Rrの配置位置と相似的な関係にしている。すなわち、カメラモジュール2Fr,2R,2L,2Rrが車両の四方を囲うように配置されていることに対し、6個のカメラ画像領域を合成画像101内の前後及び左右に配置している。   As illustrated in FIG. 3, the peripheral image creation unit 23 b includes the composite image 101 of the display images 100 divided into a composite image 101 including a plurality of camera image areas and an overhead image 102 including the overhead image area 102 a. Create The composite image 101 includes an area 101Fr in which a camera image captured by the camera module 2Fr is stored, areas 101FR and 101RR in which camera images captured by the camera module 2R are stored, and a camera image captured by the camera module 2L. The arrangement positions of the areas 101FL and 101RL to be stored and the area 101Rr in which the camera image captured by the camera module 2Rr is stored are similar to the arrangement positions of the camera modules 2Fr, 2R, 2L, and 2Rr. That is, the camera modules 2Fr, 2R, 2L, and 2Rr are arranged so as to surround the four sides of the vehicle, whereas six camera image areas are arranged in the front and rear and left and right in the composite image 101.

なお、周辺画像作成部23bは、車両周囲のカメラ画像と自車両との位置関係を運転者に提示するために、カメラ画像領域の中央部に自車両を示すマークを配置(インポーズ)しても良い。   The peripheral image creation unit 23b arranges (imposes) a mark indicating the host vehicle at the center of the camera image area in order to present the positional relationship between the camera image around the vehicle and the host vehicle to the driver. Also good.

ここで、カメラモジュール2Rによって撮像されたカメラ画像の領域は、カメラ画像領域101FRと101RRの2つが設けられている。周辺画像作成部23bは、カメラモジュール2Rによって撮像されたカメラ画像データが入力バッファ21bから供給されると、車両右側方を撮像したカメラ画像データを車両前方側と車両後方側とに分割し、車両前方側のカメラ画像データをカメラ画像領域101FRに格納し、車両後方側のカメラ画像データをカメラ画像領域101RRに格納する。   Here, two camera image areas 101FR and 101RR are provided as areas of the camera image captured by the camera module 2R. When the camera image data captured by the camera module 2R is supplied from the input buffer 21b, the peripheral image creation unit 23b divides the camera image data captured from the right side of the vehicle into a vehicle front side and a vehicle rear side, The camera image data on the front side is stored in the camera image area 101FR, and the camera image data on the rear side of the vehicle is stored in the camera image area 101RR.

同様に、カメラモジュール2Lによって撮像されたカメラ画像の領域は、カメラ画像領域101FLと101RLの2つが設けられている。周辺画像作成部23bは、カメラモジュール2Lによって撮像されたカメラ画像データが入力バッファ21cから供給されると、車両左側方を撮像したカメラ画像データを車両前方側と車両後方側とに分割し、車両前方側のカメラ画像データをカメラ画像領域101FLに格納し、車両後方側のカメラ画像データをカメラ画像領域101RLに格納する。   Similarly, two camera image areas 101FL and 101RL are provided as camera image areas captured by the camera module 2L. When the camera image data captured by the camera module 2L is supplied from the input buffer 21c, the peripheral image creation unit 23b divides the camera image data captured from the left side of the vehicle into a vehicle front side and a vehicle rear side, The camera image data on the front side is stored in the camera image area 101FL, and the camera image data on the rear side of the vehicle is stored in the camera image area 101RL.

なお、図3乃至図6に示す表示画像は、車両側方のカメラ画像を分割しているが、分割せずに、車両右側方及び車両左側方にそれぞれ単一のカメラ画像領域を設けるだけでも良い。   The display images shown in FIGS. 3 to 6 are obtained by dividing the camera image on the side of the vehicle, but it is also possible to provide a single camera image area on each of the right side and the left side of the vehicle without division. good.

このように、周辺画像作成部23bがカメラ画像領域にカメラ画像データを格納して合成画像101を作成する処理は、カメラモジュール2Fr,2R,2L,2Rrの配置と相似的にカメラ画像データを配置するためのアドレス変換テーブル24aを参照して、周辺画像作成部23bがカメラ画像データを座標変換することによって実現できる。   As described above, the process in which the peripheral image creation unit 23b creates the composite image 101 by storing the camera image data in the camera image area arranges the camera image data similar to the arrangement of the camera modules 2Fr, 2R, 2L, and 2Rr. The peripheral image creation unit 23b refers to the address conversion table 24a for performing the coordinate conversion of the camera image data.

これによって、画像処理装置1は、複数のカメラモジュール2Fr,2R,2L,2Rrと相似的に、当該カメラモジュール2Fr,2R,2L,2Rrで撮像されたカメラ画像データが配置された合成画像101をモニタ9に表示させることができる。   Thereby, the image processing apparatus 1 resembles the plurality of camera modules 2Fr, 2R, 2L, and 2Rr, and displays the composite image 101 in which the camera image data captured by the camera modules 2Fr, 2R, 2L, and 2Rr is arranged. It can be displayed on the monitor 9.

また、周辺画像作成部23bは、例えば操作入力部3から、合成画像101のうち車両右側方の前方のカメラ画像データを選択する操作入力信号を入力した場合には、図4に示すように、複数のカメラ画像領域のうちカメラ画像領域101FRを拡大させたカメラ画像領域101FR’とし、カメラ画像領域101RRを画像内下方にずらしたカメラ画像領域101RR’とした新たな合成画像101’を作成する。なお、カメラ画像領域101RR’と左右方向で並んでいたカメラ画像領域101RLも、カメラ画像領域101RR’をずらしたことに合わせて下方にずらしても良い。   In addition, when the peripheral image creation unit 23b receives an operation input signal for selecting camera image data in front of the right side of the vehicle from the composite image 101 from the operation input unit 3, for example, as shown in FIG. A new composite image 101 ′ is created with a camera image area 101FR ′ obtained by enlarging the camera image area 101FR among a plurality of camera image areas, and a camera image area 101RR ′ obtained by shifting the camera image area 101RR downward in the image. Note that the camera image area 101RL aligned with the camera image area 101RR 'in the left-right direction may be shifted downward in accordance with the shift of the camera image area 101RR'.

周辺画像作成部23bは、具体的には、図4に示すように複数のカメラ画像領域を配置するためのアドレス変換テーブル24aをテーブル記憶部24から読み出して、入力バッファ21のカメラ画像データをアドレス変換テーブル24aに従って座標変換することによって、拡大されたカメラ画像領域101FR’を含む合成画像101を作成して、モニタ9に表示させることができる。このようにユーザの選択操作に応じてカメラ画像領域を拡大させる操作入力部3は、選択手段として機能する。   Specifically, the peripheral image creation unit 23b reads an address conversion table 24a for arranging a plurality of camera image areas from the table storage unit 24 as shown in FIG. 4, and addresses the camera image data in the input buffer 21 as an address. By performing coordinate conversion according to the conversion table 24a, the composite image 101 including the enlarged camera image area 101FR ′ can be created and displayed on the monitor 9. In this way, the operation input unit 3 that enlarges the camera image area in accordance with the user's selection operation functions as a selection unit.

また、画像処理部23は、画像加工部23cによって、周辺画像作成部23bが拡大させたカメラ画像領域を強調して表示させるように加工しても良い。このような表示画像100’は、図5に示すように、拡大させたカメラ画像領域101FR’の端部を強調表示とする。例えば、カメラ画像領域101FR’の端部を太枠としても良く、色枠としても良い。逆に、画像加工部23cは、拡大されたカメラ画像領域101FR’以外を非強調表示とした新たなカメラ画像領域101Fr’、101RR’、101FL’、101RL’、101Rr’としても良い。この非強調表示の仕方としては、カメラ画像領域内のカメラ画像を半透明にすることが挙げられる。   Further, the image processing unit 23 may process the image processing unit 23c so that the camera image region enlarged by the peripheral image creation unit 23b is displayed in an emphasized manner. In such a display image 100 ', as shown in FIG. 5, the end of the enlarged camera image region 101FR' is highlighted. For example, the end of the camera image area 101FR 'may be a thick frame or a color frame. Conversely, the image processing unit 23c may use new camera image areas 101Fr ', 101RR', 101FL ', 101RL', and 101Rr 'other than the enlarged camera image area 101FR'. As a non-highlighted display method, the camera image in the camera image region can be made translucent.

このように、車両周辺画像提供装置は、選択されたカメラ画像領域101FR’のみを拡大及び強調して表示し、他のカメラ画像領域を非強調表示にすることによって、選択されたカメラ画像領域101FR’のカメラ画像データをより見やすくできる。   As described above, the vehicle periphery image providing device displays only the selected camera image area 101FR ′ in an enlarged and emphasized manner and displays the other camera image areas in a non-highlighted manner, thereby selecting the selected camera image area 101FR. The camera image data can be viewed more easily.

更に、画像処理部23は、図6に示すように、拡大させるカメラ画像領域を2以上のカメラ画像領域101FR’、101FL’としても良い。このような表示画像100’を表示させる場合、周辺画像作成部23bは、カメラ画像領域101FR’、101FL’を拡大させるアドレス変換テーブル24aを用いて、入力バッファ21から読み出したカメラ画像データを座標変換する。また、画像加工部23cは、座標変換して作成した合成画像101のうち、拡大されたカメラ画像領域101FR’、101FL’の端部を強調表示とする共に、他のカメラ画像領域を非強調表示とする。   Further, as shown in FIG. 6, the image processing unit 23 may set the camera image areas to be enlarged to two or more camera image areas 101FR 'and 101FL'. When displaying such a display image 100 ′, the peripheral image creation unit 23b uses the address conversion table 24a for enlarging the camera image areas 101FR ′ and 101FL ′ to perform coordinate conversion on the camera image data read from the input buffer 21. To do. In addition, the image processing unit 23c highlights the end portions of the enlarged camera image regions 101FR ′ and 101FL ′ in the composite image 101 created by coordinate conversion, and non-highlights the other camera image regions. And

このように、車両周辺画像提供装置は、操作入力部3によって複数のカメラ画像領域が選択された場合であっても、複数のカメラ画像領域を拡大させることができ、複数方向のカメラ画像データを見やすく表示することができる。   As described above, the vehicle surrounding image providing device can enlarge the plurality of camera image regions even when the plurality of camera image regions are selected by the operation input unit 3, and can acquire the camera image data in a plurality of directions. It can be displayed easily.

また、上述した車両周辺画像提供装置は、操作入力部3によって合成画像101に含まれるカメラ画像領域のうちの1以上のカメラ画像領域が選択された場合に、当該選択されたカメラ画像領域を拡大させたが、シフト位置センサ6(シフト状態検出手段)から供給された自車両のシフト位置(ギヤポジションの位置)を表すシフト位置信号に基づいて拡大させるカメラ画像領域を選択しても良い。この車両周辺画像提供装置は、シフト位置センサ6から画像処理部23にシフト位置信号に基づいて、シフト状態が「R(リバース)」である場合には、車両後方に相当するカメラ画像領域101Rrを拡大させ、「D(ドライブ)」である場合には、車両前方に相当するカメラ画像領域101Frを拡大させる。   In addition, when the operation input unit 3 selects one or more camera image areas of the camera image areas included in the composite image 101, the vehicle periphery image providing apparatus described above enlarges the selected camera image area. However, a camera image area to be enlarged may be selected based on a shift position signal representing the shift position (gear position) of the host vehicle supplied from the shift position sensor 6 (shift state detection means). When the shift state is “R (reverse)” based on the shift position signal from the shift position sensor 6 to the image processing unit 23, the vehicle periphery image providing device sets the camera image area 101 Rr corresponding to the rear of the vehicle. If it is “D (drive)”, the camera image area 101Fr corresponding to the front of the vehicle is enlarged.

これによって、車両周辺画像提供装置は、シフト状態によって運転者が注目すべき方向のカメラ画像領域を拡大させて表示させて、注目すべき方向のカメラ画像データの確認をしやすくできる。   Thus, the vehicle periphery image providing device can enlarge and display the camera image area in the direction that the driver should pay attention to according to the shift state, and can easily confirm the camera image data in the direction that should be noted.

更に、車両周辺画像提供装置は、合成画像101のうちで拡大させるカメラ画像領域を選択するために、駐車動作中のシーンを判定しても良い。具体的には、ある駐車枠に対して駐車させるシーンにおいて、駐車枠の前方まで前進させているときには車両前方のカメラ画像領域101Frを拡大させ、駐車枠に向けて後退させている時にはカメラ画像領域101Rrと101RR又は101RLとを拡大させて表示させる。ここで、駐車枠の前方までの前進させている状態及び駐車枠に向けて後退させている状態は、画像処理部23によって、シフト位置センサ6からのシフト位置信号、車速センサ4からの車速信号及び操舵角センサ5からの操舵各信号を画像処理部23が受信して判定して、拡大させるカメラ画像領域を選択することとなる。   Furthermore, the vehicle surrounding image providing apparatus may determine a scene during the parking operation in order to select a camera image area to be enlarged from the composite image 101. Specifically, in a scene where a certain parking frame is parked, the camera image area 101Fr in front of the vehicle is enlarged when moving forward to the front of the parking frame, and the camera image area when moving backward toward the parking frame. 101Rr and 101RR or 101RL are enlarged and displayed. Here, the state where the parking frame is advanced to the front and the state where the parking frame is retracted toward the parking frame are the shift position signal from the shift position sensor 6 and the vehicle speed signal from the vehicle speed sensor 4 by the image processing unit 23. The image processing unit 23 receives and determines each steering signal from the steering angle sensor 5 and selects a camera image area to be enlarged.

特に、縦列駐車時においては、目標とする駐車枠に向けて車両を後退進入させた後に、車両を前進させて位置調整をする必要があるため、駐車枠への進入時には車両後部のうちの端部、車両後部が注意をすべき方向であり、その後に車両前部が注意すべき方向が変わる。したがって、車両周辺画像提供装置は、シフト位置センサ6からのシフト位置信号、車速センサ4からの車速信号及び操舵角センサ5からの操舵各信号に基づいて、画像処理部23によって、先ず、車両後側方のカメラ画像領域101Rrと101RR又は101RLとを拡大表示させる状態の次に、車両後方のカメラ画像領域101Rrを拡大表示させ、次に車両前方のカメラ画像領域101Frを拡大表示させることができる。このとき、画像処理部23は、表示させる必要がある方向のカメラ画像領域を拡大させるアドレス変換テーブル24aを各状態において読み出して、新たな合成画像101を作成して、モニタ9に表示させる。   In particular, during parallel parking, it is necessary to adjust the position by moving the vehicle forward after moving the vehicle backward toward the target parking frame. The direction in which the vehicle rear part should be careful is changed, and thereafter the direction in which the vehicle front part should be changed is changed. Therefore, the vehicle periphery image providing device first performs the rear of the vehicle by the image processing unit 23 based on the shift position signal from the shift position sensor 6, the vehicle speed signal from the vehicle speed sensor 4, and the steering signals from the steering angle sensor 5. Next to the state in which the side camera image areas 101Rr and 101RR or 101RL are enlarged and displayed, the camera image area 101Rr behind the vehicle can be enlarged and displayed, and the camera image area 101Fr ahead of the vehicle can be enlarged and displayed. At this time, the image processing unit 23 reads the address conversion table 24a for enlarging the camera image area in the direction that needs to be displayed in each state, creates a new composite image 101, and displays it on the monitor 9.

更にまた、画像処理部23は、障害物検出部7によって障害物が存在する場合の距離及び方向が検出された場合に、当該障害物が存在する方向のカメラ画像を選択してカメラ画像領域を拡大させても良い。このとき、画像処理部23は、障害物が存在する方向のカメラ画像領域を拡大させるアドレス変換テーブル24aを読み出して、新たな合成画像101を作成して、モニタ9に表示させる。   Furthermore, when the obstacle detection unit 7 detects the distance and direction when an obstacle exists, the image processing unit 23 selects a camera image in the direction in which the obstacle exists and selects a camera image area. It may be enlarged. At this time, the image processing unit 23 reads the address conversion table 24a for enlarging the camera image area in the direction in which the obstacle is present, creates a new composite image 101, and displays it on the monitor 9.

更にまた、画像処理部23は、ナビゲーション装置8から供給された車両が走行している道路環境やシーンを表す情報を受信して、合成画像101のうちで拡大させるカメラ画像領域を選択しても良い。例えば、自車両が直進道路を走行している時には車両前方のカメラ画像領域101Frを拡大させ、自車両が交差点を渡ろうとする時には車両左右側方のカメラ画像領域101FR、101FLを拡大させる。このとき、画像処理部23は、走行している場面によって拡大させるカメラ画像領域を選択した時に、アドレス変換テーブル24aを読み出して、新たな合成画像101を作成してモニタ9に表示させる。   Furthermore, the image processing unit 23 may receive information representing the road environment or scene in which the vehicle is traveling supplied from the navigation device 8 and select a camera image area to be enlarged from the composite image 101. good. For example, when the host vehicle is traveling on a straight road, the camera image area 101Fr ahead of the vehicle is enlarged, and when the host vehicle is about to cross an intersection, the camera image areas 101FR and 101FL on the left and right sides of the vehicle are enlarged. At this time, when the image processing unit 23 selects a camera image area to be enlarged depending on the traveling scene, the image processing unit 23 reads the address conversion table 24a, creates a new composite image 101, and displays it on the monitor 9.

以上詳細に説明したように、本発明を適用した車両周辺画像提供装置によれば、車両周辺を複数のカメラモジュール2Fr,2R,2L,2Rrによって撮影し、複数のカメラ画像データを、当該複数のカメラモジュール2Fr,2R,2L,2Rrの配置位置と相似的な位置関係となるカメラ画像領域に配置した表示データを作成してモニタ9に表示し、表示させているカメラ画像データのうちの何れかのカメラ画像データが選択された場合には、当該選択されたカメラ画像データを他の画像データよりも拡大させて表示するので、合成画像101内における拡大されたカメラ画像領域の位置によって、複数のカメラモジュール2で撮像した複数のカメラ画像のうち、どのカメラ画像を表示させているかを直感的に把握させることができる。   As described above in detail, according to the vehicle periphery image providing device to which the present invention is applied, the vehicle periphery is photographed by the plurality of camera modules 2Fr, 2R, 2L, 2Rr, and the plurality of camera image data is captured by the plurality of camera images. Display data arranged in a camera image area having a similar positional relationship to the arrangement position of the camera modules 2Fr, 2R, 2L, 2Rr, displayed on the monitor 9, and any of the displayed camera image data When the selected camera image data is selected, the selected camera image data is displayed in an enlarged manner as compared with other image data, so that a plurality of camera image data can be displayed depending on the position of the enlarged camera image area in the composite image 101. It is possible to intuitively grasp which camera image is displayed from among a plurality of camera images captured by the camera module 2.

また、この車両周辺画像提供装置によれば、カメラモジュール2の配置とカメラ画像領域の配置とが相似的な関係となっているので、タッチパネル型の操作入力部3を設けることによって、運転者が拡大させたいカメラ画像データを選択する操作を容易なものとすることができる。   In addition, according to this vehicle periphery image providing device, the arrangement of the camera module 2 and the arrangement of the camera image area are similar to each other. Therefore, by providing the touch panel type operation input unit 3, the driver can An operation for selecting camera image data to be enlarged can be facilitated.

更に、この車両周辺画像提供装置によれば、拡大させたカメラ画像データを強調して表示させるので、モニタ9に表示させているカメラ画像データのうちどのカメラ画像データを注視するのかを更に明確にすることができ、特に、自動的に拡大するカメラ画像データを変化させた時に直感的に注視すべきカメラ画像データを把握させることができる。   Furthermore, according to this vehicle periphery image providing apparatus, since the enlarged camera image data is displayed in an emphasized manner, it is further clarified which of the camera image data displayed on the monitor 9 is to be watched. In particular, it is possible to intuitively grasp the camera image data to be watched when camera image data that is automatically enlarged is changed.

更にまた、この車両周辺画像提供装置によれば、拡大させるカメラ画像データを2以上のカメラ画像データとすることができるので、運転者が視認したいカメラ画像データが複数存在する場合や、運転者に注視させたいカメラ画像データが複数存在する場合などにも、複数のカメラ画像データを同時に視認しやすくできる。   Furthermore, according to this vehicle periphery image providing device, the camera image data to be enlarged can be two or more camera image data. Therefore, when there are a plurality of camera image data that the driver wants to view, Even when there are a plurality of camera image data to be watched, the plurality of camera image data can be easily viewed at the same time.

更にまた、この車両周辺画像提供装置によれば、車両のシフト状態に従って、何れかのカメラ画像データを選択して拡大させるので、運転者が行う車両の運転操作に従って注視すべき方向のカメラ画像領域を拡大させて、直感的に注視すべき方向を認識させることができる。   Furthermore, according to this vehicle peripheral image providing device, since any camera image data is selected and enlarged according to the shift state of the vehicle, the camera image area in the direction to be watched according to the driving operation of the vehicle performed by the driver The direction to be watched can be recognized intuitively.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

本発明を適用した車両周辺画像提供装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置の座標変換によって得られる俯瞰画像の一例を示す図である。It is a figure which shows an example of the bird's-eye view image obtained by the coordinate transformation of the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置によって表示させる表示画像の一例を示す図である。It is a figure which shows an example of the display image displayed by the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置によって一部のカメラ画像領域を拡大させた表示画像の一例を示す図である。It is a figure which shows an example of the display image which expanded some camera image areas by the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置によって表示させる他の表示画像の一例を示す図である。It is a figure which shows an example of the other display image displayed by the vehicle periphery image provision apparatus to which this invention is applied. 本発明を適用した車両周辺画像提供装置によって表示させる他の表示画像の一例を示す図である。It is a figure which shows an example of the other display image displayed by the vehicle periphery image provision apparatus to which this invention is applied.

符号の説明Explanation of symbols

1 画像処理装置
2Fr,2R,2L,2Rr カメラモジュール
3 操作入力部
4 車速センサ
5 操舵角センサ
6 シフト位置センサ
7 障害物検出部
8 ナビゲーション装置
9 モニタ
20 通信ライン
21 入力バッファ
21a,21b,21c,21d 入力バッファ
22 CPU
23 画像処理部
23a 俯瞰画像作成部
23b 周辺画像作成部
23c 画像加工部
24 テーブル記憶部
24a アドレス変換テーブル
25 出力バッファ
31 俯瞰画像
32a〜32d 車両周辺画像
33 白線
34a〜34d 部分画像
100 表示画像
101 合成画像
101FL,101FR,101Fr,101RL,101RR,101Rr カメラ画像領域
102 俯瞰画像
102a 俯瞰画像領域
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2Fr, 2R, 2L, 2Rr Camera module 3 Operation input part 4 Vehicle speed sensor 5 Steering angle sensor 6 Shift position sensor 7 Obstacle detection part 8 Navigation apparatus 9 Monitor 20 Communication line 21 Input buffer 21a, 21b, 21c, 21d Input buffer 22 CPU
23 Image processing unit 23a Overhead image creation unit 23b Peripheral image creation unit 23c Image processing unit 24 Table storage unit 24a Address conversion table 25 Output buffer 31 Overhead image 32a to 32d Vehicle peripheral image 33 White line 34a to 34d Partial image 100 Display image 101 Composition Image 101FL, 101FR, 101Fr, 101RL, 101RR, 101Rr Camera image area 102 Overhead image 102a Overhead image area

Claims (5)

車両周辺を撮影する複数の撮影手段と、
前記複数の撮像手段により撮像された画像データを、当該複数の撮像手段の配置位置と相似的な位置関係となるように配置した表示データを作成する画像作成手段と、
前記画像作成手段により作成された表示データを表示する表示手段と、
前記表示手段に表示されている画像データのうち少なくとも一つの画像データを選択する選択手段とを備え、
前記画像作成手段は、前記選択手段によって選択された画像データを、他の画像データよりも拡大させ、画像データの拡大に応じて他の画像データをずらして表示させることを特徴とする車両周辺画像処理装置。
A plurality of photographing means for photographing the periphery of the vehicle;
Image creation means for creating display data in which image data captured by the plurality of imaging means is arranged so as to have a positional relationship similar to the arrangement position of the plurality of imaging means;
Display means for displaying the display data created by the image creating means;
Selecting means for selecting at least one of the image data displayed on the display means;
Said image forming means, the image data selected by said selecting means, than other image data is enlarged, the vehicle periphery, characterized in Rukoto is displayed by shifting the other image data in accordance with the enlargement of the image data Image processing device.
前記画像作成手段は、前記拡大させた画像データを強調して表示させるように加工することを特徴とする請求項1に記載の車両周辺画像処理装置。   The vehicle periphery image processing apparatus according to claim 1, wherein the image creating unit processes the enlarged image data so as to be displayed with emphasis. 前記画像作成手段は、前記拡大させる画像データを2以上の画像データとしたことを特徴とする請求項1又は請求項2に記載の車両周辺画像処理装置。   The vehicle periphery image processing apparatus according to claim 1, wherein the image creating unit uses the image data to be enlarged as two or more image data. 車両のシフト状態を検出するシフト状態検出手段を更に備え、
前記選択手段は、前記シフト状態検出手段により検出された車両のシフト状態に従って、何れかの画像データを選択し、前記画像作成手段は、前記選択手段により選択された画像データを拡大させること
を特徴とする請求項1乃至請求項3の何れか一項に記載の車両周辺画像処理装置。
A shift state detecting means for detecting a shift state of the vehicle;
The selection means selects any image data according to the vehicle shift state detected by the shift state detection means, and the image creation means enlarges the image data selected by the selection means. The vehicle periphery image processing device according to any one of claims 1 to 3.
複数の撮像手段で撮像された画像データを、撮像手段の配置位置と相似的な位置関係に配置して表示すると共に、複数の撮像手段による画像データのうち、少なくとも一つの画像データが他の画像データよりも大きく表示され、画像データを大きく表示させたことに応じて他の画像データをずらして表示させることを特徴とする車両周辺状況提示方法。 Image data picked up by a plurality of image pickup means is arranged and displayed in a positional relationship similar to the arrangement position of the image pickup means, and at least one of the image data by the plurality of image pickup means is another image. A vehicle surrounding state presentation method characterized by displaying other image data in a shifted manner in response to the image data being displayed larger than the data and displaying the image data larger .
JP2007295399A 2007-11-14 2007-11-14 Vehicle periphery image processing apparatus and vehicle periphery state presentation method Active JP5067136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007295399A JP5067136B2 (en) 2007-11-14 2007-11-14 Vehicle periphery image processing apparatus and vehicle periphery state presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007295399A JP5067136B2 (en) 2007-11-14 2007-11-14 Vehicle periphery image processing apparatus and vehicle periphery state presentation method

Publications (2)

Publication Number Publication Date
JP2009124377A JP2009124377A (en) 2009-06-04
JP5067136B2 true JP5067136B2 (en) 2012-11-07

Family

ID=40816066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007295399A Active JP5067136B2 (en) 2007-11-14 2007-11-14 Vehicle periphery image processing apparatus and vehicle periphery state presentation method

Country Status (1)

Country Link
JP (1) JP5067136B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988525B2 (en) * 2009-08-27 2015-03-24 Robert Bosch Gmbh System and method for providing guidance information to a driver of a vehicle
EP2442549B1 (en) 2010-10-14 2015-10-14 Sony Corporation Image capturing device, system and method
JP5886068B2 (en) * 2012-02-08 2016-03-16 住友重機械工業株式会社 Display device for crane
KR101444523B1 (en) * 2012-07-06 2014-09-26 주식회사 에이스테크놀로지 System for Providing Surrounding Information of Vehicle
JP6851808B2 (en) * 2016-12-22 2021-03-31 ダイハツ工業株式会社 Driving support device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10145777A (en) * 1996-11-05 1998-05-29 Hitachi Denshi Ltd Camera image display device for mobile object
JP4140410B2 (en) * 2003-03-17 2008-08-27 住友電気工業株式会社 Vehicle display system and vehicle image display method
JP2006168699A (en) * 2004-11-22 2006-06-29 Nagano Kogaku Kenkyusho:Kk Display method of monitoring image of vehicle

Also Published As

Publication number Publication date
JP2009124377A (en) 2009-06-04

Similar Documents

Publication Publication Date Title
US11657618B2 (en) Display apparatus
KR101446898B1 (en) Vehicle periphery monitoring device
KR101446897B1 (en) Vehicle periphery monitoring device
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
WO2014068856A1 (en) Image generation device and image generation program product
JP5302227B2 (en) Image processing apparatus, image processing system, and image processing method
JP4315968B2 (en) Image processing apparatus and visibility support apparatus and method
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
JP2005311868A (en) Vehicle periphery visually recognizing apparatus
JP5064201B2 (en) Image display system and camera output control method
JP5067136B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
WO2018159016A1 (en) Bird's eye view image generation device, bird's eye view image generation system, bird's eye view image generation method and program
JP5168186B2 (en) Image processing device
JP6258000B2 (en) Image display system, image display method, and program
KR20100005971A (en) A vehicle around view monitorring system
JP2006254318A (en) Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method
JPWO2017179206A1 (en) Parking assistance display control apparatus and parking assistance display control method
JP5479639B2 (en) Image processing apparatus, image processing system, and image processing method
JP5709460B2 (en) Driving support system, driving support method, and driving support program
JP2007088577A (en) Vehicle surrounding image processing system
JP2017182543A (en) Drive support method and drive support apparatus
JP2019202584A (en) Image processing apparatus and image processing method
JP5077286B2 (en) Vehicle peripheral image display device
JP2008294616A (en) Driving support system and vehicle
JP4407246B2 (en) Vehicle periphery monitoring system and vehicle periphery monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120730

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5067136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150