KR100737655B1 - 화상처리장치 및 감시시스템 - Google Patents

화상처리장치 및 감시시스템 Download PDF

Info

Publication number
KR100737655B1
KR100737655B1 KR1020010023161A KR20010023161A KR100737655B1 KR 100737655 B1 KR100737655 B1 KR 100737655B1 KR 1020010023161 A KR1020010023161 A KR 1020010023161A KR 20010023161 A KR20010023161 A KR 20010023161A KR 100737655 B1 KR100737655 B1 KR 100737655B1
Authority
KR
South Korea
Prior art keywords
image
parameter
camera
vehicle
unit
Prior art date
Application number
KR1020010023161A
Other languages
English (en)
Other versions
KR20010098955A (ko
Inventor
노보리구니오
나카가와마사미치
이시이히로후미
오카모토슈사쿠
Original Assignee
마츠시타 덴끼 산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마츠시타 덴끼 산교 가부시키가이샤 filed Critical 마츠시타 덴끼 산교 가부시키가이샤
Publication of KR20010098955A publication Critical patent/KR20010098955A/ko
Application granted granted Critical
Publication of KR100737655B1 publication Critical patent/KR100737655B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

차량 주위를 촬영하는 복수의 카메라 촬상화상으로부터 합성화상을 생성하는 화상처리장치로서, 더 자연스러운 합성화상을 생성 가능하게 한다.
파라미터 기억부(109)는 카메라화상과 합성화상의 대응관계를 나타내며, 또 공간적 또는 시간적인 해상도의 관계가 서로 다른 복수의 화상합성 파라미터를 기억한다. 파라미터 선택부(108)는 속도나 방향 등 차량의 움직임을 검출하는 차동태 검출부(107)의 출력에 따라 화상합성 파라미터를 선택한다. 화상합성부(104)는 선택된 화상합성 파라미터에 따라, 각 카메라(101)의 촬상화상으로부터 합성화상을 생성한다.
파라미터 선택부, 화상합성부, 화상합성 파라미터, 파라미터 기억부

Description

화상처리장치 및 감시시스템{IMAGE PROCESSOR AND MONITORING SYSTEM}
도 1은 본 발명의 제 1 실시예에 관한 차량주변 감시시스템의 구성도.
도 2는 화상합성 파라미터를 이용한 화상합성의 설명도.
도 3은 본 발명의 제 1 실시예에 관한 화상합성 파라미터 선택의 일례.
도 4는 본 발명의 제 1 실시예에 관한 화상합성 파라미터와 촬상패턴 선택의 일례.
도 5는 본 발명의 제 1 실시예에 관한 밝기 검출수단의 출력을 이용한 화상합성 파라미터와 촬상패턴 선택의 일례.
도 6은 본 발명의 제 1 실시예에 관한 스위치 검출수단 및 장애물 검출수단의 출력을 이용한 화상합성 파라미터 선택의 일례.
도 7은 합성화상 구도의 일례.
도 8은 본 발명의 제 2 실시예에 관한 차량주변 감시시스템의 구성도.
도 9는 필터 파라미터의 일례도.
도 10은 본 발명의 제 2 실시예에 관한 화상합성 파라미터 및 필터 파라미터선택의 일례.
도 11은 필터 파라미터의 일례도.
도 12는 본 발명의 제 3 실시예에 관한 차량주변 감시시스템의 구성도.
도 13은 복수의 카메라화상으로부터 합성화상을 생성하기 위한 화상합성 파라미터의 예시도.
도 14는 중복영역을 갖는 합성화상과 그 화상합성 파라미터의 예시도.
도 15는 본 발명의 제 4 실시예의 카메라 및 장애물센서의 설치위치도.
도 16은 합성화상과 그 합성화상을 생성하기 위한 화상합성 파라미터의 예시도.
도 17은 본 발명의 제 4 실시예에 관한 화상합성 파라미터 선택의 예시도.
도 18은 본 발명의 제 4 실시예에 관한 화상합성 파라미터의 다른 예시도.
도 19는 본 발명의 제 4 실시예에 관한 화상합성 파라미터의 또 다른 예시도.
도 20은 본 발명의 제 4 실시예에 관한 화상합성 파라미터의 또 다른 예시도.
도 21은 본 발명을 실현하기 위한 구성의 다른 예시도.
도 22는 종래의 과제를 설명하기 위한 도면.
도 23은 종래의 과제를 설명하기 위한 도면.
* 도면의 주요 부분에 대한 부호의 설명 *
101 : 카메라 106 : 디스플레이(표시부)
107 : 차동태 검출부 108, 320 : 파라미터 선택부
109, 330 : 파라미터 기억부 200 : 차량상황 검출부
310 : 필터처리부 410 : 휘도보정부
420 : 휘도보정 파라미터 산출부
본 발명은 복수의 카메라로 촬상된 화상을 이용하여 합성화상을 생성하는 화상처리 기술에 관한 것이며, 특히 차량운전 시 안전확인의 보조 등에 이용되는 감시시스템에 유효한 기술에 속한다.
최근, 차량탑재용 디스플레이장치의 보급이나 카메라 등 영상기기의 저가격화에 수반하여, 카메라에 의한 차량주변의 감시로써 안전운전을 지원하는 장치가 실용화되어 보급되고 있다.
이와 같은 차량주변 감시장치의 종례예로서는, 운전자로부터 사각영역이 되는 차량 후방 등의 영역을 비추도록 카메라를 설치하여, 카메라화상을 디스플레이로 감시시키도록 하는 장치가 있다.
예를 들어 일특개소 58-110334호 공보에서는, 차량주위에 복수 대의 카메라를 설치하고, 촬영된 복수의 카메라화상을 이용하여 자신의 차를 중심으로 위에서 본 화상을 변형합성하고 차내 표시장치에 표시한다는 구성이 개시되었다. 이와 같은 차량주변 감시장치를 이용하면, 운전석에서 직접 볼 수 없는 사각영역을 표시화면상에서 확인할 수 있으므로, 사고를 회피하거나 운전조작을 쉽게 할 수 있게 된다.
그러나 본원 발명자의 실험 등에 따른 검토에 의하여, 종래 구성에서는 다음과 같은 문제가 있음을 알았다.
도 22는 차량이 움직인 경우의 화상합성 예를 나타낸 도면이다. 인터레이스주사 카메라를 이용한 경우, 차량이 움직이면 도 22의 (a)와 같은 1 수평라인마다 빗살모양으로 어긋난 입력화상으로 된다. 이 입력화상을 그대로 인터레이스주사 디스플레이로 관찰한 경우에 특별한 위화감은 없다. 그러나 이 입력화상을 이용하여 변형을 수반한 합성처리를 하면, 도 22의 (b)에 나타낸 바와 같이 빗살모양의 어긋남도 화상변형과 함께 변형되어, 화소에 의하여 촬상타이밍과 표시타이밍의 관계가 어긋나버리므로, 관찰할 경우 위화감을 주는 화상이 돼버린다. 즉 이른바 인터레이스 노이즈가 합성화상 상에 더욱 현저하게 나타나게 된다.
한편 1 필드의 입력화상으로부터 1 필드의 합성화상을 생성할 경우에는 상술한 바와 같은 부자연스러움은 없어진다. 그러나 프레임별로 합성하는 경우에 비해 입력화상의 해상도가 낮아지기 때문에, 도 22의 (c)와 같이 2 필드분의 화상을 프레임화상으로 관찰할 경우에, 화상이 정지되어도 좌표값의 양자화 오차에 의하여 빗살모양의 어긋남이 발생한다. 그 때문에 차량이 정지되어 있을 때, 특히 입력화상이 합성화상 상에서 확대된 영역의 화질이 나빠진다.
즉, 우선 첫 번째로, 1 프레임(2 필드)의 입력화상으로부터 1 프레임의 합성화상을 생성할 경우, 차량이 움직인 경우나 움직임이 있는 화상이 찍혔을 때 부자연스런 합성화상이 되는 한편, 1 필드의 입력화상으로부터 1 필드의 합성화상을 생성할 경우는 해상도가 낮은 합성화상이 된다는 문제가 있다.
두 번째로, 카메라화상의 변형처리를 할 경우, 합성화상의 구도에 따라서는 입력화상의 축소를 수반할 경우가 있는 점에서, 합성화상에 부분적으로 대칭왜곡(aliasing noise)이 발생해버린다는 문제가 있다.
또 세 번째로, 도 23의 (a)에 나타낸 바와 같이 각 카메라별로 화이트밸런스(white balance) 등이 실행되므로 합성화상 상에 있어서, 입력화상의 연결부분에서 휘도나 색상이 일치하지 않거나, 도 23의 (b)에 나타낸 바와 같이 화상합성 방법에 따라서는, 계산오차나 피사체 위치의 오검출 등에 기인하여 화상 연결부가 어긋나는 등 입력화상의 연결부분이 부자연스러워진다는 문제가 있다.
이러한 문제에 감안하여 본 발명은 복수의 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서, 종래에 비해 더욱 자연스런 합성화상이 생성 가능해지도록 하는 것을 과제로 한다.
상기 과제를 해결하기 위하여, 본 발명이 강구한 제 1 해결수단은, 차량 주위를 촬영하는 복수의 카메라 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서, 카메라화상과 합성화상의 대응관계를 각각 나타내며, 또 공간적 또는 시간적인 해상도의 관계가 서로 다른 복수의 화상합성 파라미터를 생성 가능하게 구성된 파라미터 생성부를 구비하고, 상기 파라미터 생성부에 의하여 생성된 화상합성 파라미터에 따라, 카메라화상으로부터 합성화상을 생성하는 것이며, 상기 파라미터 생성부는, 생성하는 화상합성 파라미터를, 차량의 움직임을 검출하는 차동태 검출부의 출력에 따라 절환하는 것이다.
본 발명에 의하면, 합성화상의 생성에 이용되는 화상합성 파라미터는 차량 움직임에 따라 절환되므로, 차량이 움직이고 있을 경우나 움직임이 있는 물체를 촬상할 경우 합성화상의 부자연스러움을 저감할 수 있음과 동시에, 차량이 정지돼 있을 경우 합성화상의 해상도 저하를 방지할 수 있다.
본 발명에 의한 상기 화상처리장치에 있어서 파라미터 생성부는, 상기 복수의 화상합성 파라미터를 기억하는 파라미터 기억부와, 상기 차동태 검출부의 출력에 따라, 상기 파라미터 기억부가 기억하는 복수의 화상합성 파라미터 중에서, 적어도 1 개를 선택하는 파라미터 선택부를 구비하는 것이다.
또, 본 발명에 의한 상기 화상처리장치에 있어서, 상기 카메라화상은 인터레이스화상이며, 상기 복수의 화상합성 파라미터는, 적어도 프레임 베이스의 화상합성 파라미터와, 필드 베이스의 화상합성 파라미터를 포함하는 것으로 한다.
상기 화상처리장치에 있어서의 파라미터 생성부는, 상기 차동태 검출부에 의하여 검출된 차량의 움직임이, 상대적으로 빠를 때는 필드 베이스 화상합성 파라미터를 생성하는 한편, 상대적으로 느릴 때는 프레임 베이스 화상합성 파라미터를 생성하는 것으로 한다.
본 발명에 의한 상기 화상처리장치에 있어서 상기 차동태 검출부는, 카메라화상으로부터 차량의 움직임을 검출하는 것으로 한다.
본 발명에 의한 상기 화상처리장치에 있어서의 복수의 카메라는, 입력된 절환신호에 따라 그 촬상패턴이 절환 가능하게 구성되며, 상기 파라미터 생성부는, 상기 차동태 검출부의 출력에 따라, 상기 화상합성 파라미터 생성과 함께, 상기 각 카메라로 절환신호를 보내어 각 카메라의 촬상패턴을 절환하는 것으로 한다.
상기 화상처리장치에 있어서의 파라미터 생성부는, 상기 차동태 검출부의 출력과 더불어, 차량주변의 밝기를 검출하는 차량상황 검출부의 출력을 가미하여, 화상합성 파라미터의 선택이나, 각 카메라의 촬상패턴의 절환을 실행하는 것으로 한다.
본 발명에 의한 상기 화상처리장치에 있어서 파라미터 생성부는, 상기 차동태 검출부의 출력과 더불어, 승차원의 조작 또는 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력을 가미하여, 화상합성 파라미터의 생성을 실행하는 것으로 한다.
그리고 본 발명에 관한 상기 화상처리장치를 화상처리부로서 감시시스템에 구비하는 것으로 한다.
또한 본 발명이 강구한 제 2 해결수단은, 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서, 카메라화상과 합성화상의 대응관계를 나타내는 화상합성 파라미터와, 이 화상합성 파라미터에 대응하는 필터 파라미터의 조합을 복수 개 기억하는 파라미터 기억부와, 차량의 움직임을 검출하는 차동태 검출부의 출력 및 승차원의 조작 또는 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력에 따라, 상기 파라미터 기억부가 기억하는 복수의 화상합성 파라미터 및 필터 파라미터의 조합 중에서, 적어도 1 조를 선택하는 파라미터 선택부와, 각 카메라화상에 대하여, 상기 파라미터 선택부에 의하여 선택된 조의 필터 파라미터에 따라, 주파수대역 제한 필터처리를 행하는 필터처리부를 구비하며, 상기 파라미터 선택부에 의하여 선택된 조의 화상합성 파라미터에 따라, 상기 필터처리부에 의하여 처리된 카메라화상으로부터 합성화상을 생성하는 것이다.
본 발명의 제 2 해결수단에 의하면, 차량의 움직임이나 차량 상황에 따라 필터 파라미터가 선택되고, 이 선택된 필터 파라미터에 따라 각 카메라화상에 대하여 주파수대역 제한 필터처리가 실행되므로, 합성화상에 있어서 대칭 왜곡을 효과적으로 억제할 수 있다.
본 발명의 상기 화상처리장치에 있어서의 필터 파라미터는, 카메라화상의 화소위치별로 필터처리의 설정데이터가 기술된 것으로 한다.
그리고 본 발명에 관한 상기 제 2 해결수단의 화상처리장치를 화상처리부로서 감시시스템에 구비하는 것으로 한다.
또한 본 발명이 강구한 제 3 해결수단은, 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서, 각 카메라화상의 휘도나 색상을 보정하기 위한 휘도보정 파라미터를 산출하는 휘도보정 파라미터 산출부와, 상기 휘도보정 파라미터 산출부에 의하여 산출된 휘도보정 파라미터를 이용하여 각 카메라화상의 휘도나 색상을 보정하는 휘도보정부를 구비하며, 카메라화상과 합성화상의 대응관계를 나타내는 화상합성 파라미터에 따라, 상기 휘도보정부에 의하여 휘도보정된 복수의 카메라화상으로부터 합성화상을 생성하는 것이며, 상기 화상합성 파라미터는, 합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 대하여 대응하는 카메라화상의 화소좌표를 나타내는 중복영역 데이터를 갖고, 상기 휘도보정 파라미터 산출부는, 상기 중복영역 데이터를 입력으로 하여, 이 중복영역 데이터가 나타내는 상기 중복영역에 대응하는 각 카메라화상 화소의 휘도나 색상 데이터를 이용하여 휘도보정 파라미터를 산출하는 것이다.
상기 본 발명의 제 3 해결수단에 의하면, 합성화상상의 중복영역에 대응하는 카메라화상의 휘도나 색상 정보를 이용하여 휘도보정 파라미터가 산출되고, 이 휘도보정 파라미터를 이용하여 휘도보정이 실행되므로, 합성화상 상에서 연결부분의 부자연스러움을 저감할 수 있다.
본 발명의 제 3 해결수단의 상기 화상처리장치에 있어서의 휘도보정 파라미터 산출부는, 상기 중복영역에 대응하는 각 카메라화상에 대하여, 중복영역에서의 휘도 통계처리를 실행하고, 이들 처리결과에 기초하여 휘도보정 파라미터를 산출하는 것으로 한다.
또 제 3 해결수단의 상기 화상처리장치에 있어서의 휘도보정 파라미터 산출부는, 상기 중복영역이 복수 개 존재할 경우에, 휘도보정 파라미터 산출 시 고려할 중복영역의 우선순위를, 차량 움직임을 검출하는 차동태 검출부의 출력에 따라 설정하는 것으로 한다.
또한 상기 제 3 해결수단의 상기 화상처리장치에 있어서의 휘도보정부는, 각 카메라에 내장되는 것으로 한다.
그리고 본 발명에 관한 제 3 해결수단의 상기 화상처리장치를 화상처리부로서 감시시스템에 구비하는 것으로 한다.
또한 본 발명이 강구한 제 4 해결수단은, 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서, 합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 있어서, 이 복수 카메라의 화상 중에서, 합성화상의 생성에 이용되는 카메라화상을, 차량 움직임을 검출하는 차동태 검출부의 출력, 또는 승차원의 조작이나 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력에 따라, 선택하는 것이다.
또 본 발명이 강구한 제 5 해결수단은, 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서, 합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 있어서, 이 복수 카메라화상에 대한 가중을, 차량 움직임을 검출하는 차동태 검출부의 출력, 또는 승차원의 조작이나 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력에 따라, 설정하는 것이다.
그리고 본 발명에 관한 상기 제 5 해결수단의 화상처리장치는, 합성화상의 화소와 카메라화상의 화소를 대응시키는 화상합성 파라미터와, 가중값 참조번호와 가중값 정보의 조합의 대응관계를 나타내는 테이블을 구비하며, 상기 중복영역에 관한 화상합성 파라미터는, 상기 테이블에 나타난 가중값 참조번호 값 중 어느 하나를 유지하는 것으로 한다.
또 본 발명에 관한 제 4 해결수단의 상기 화상처리장치를 화상처리부로서 감시시스템에 구비하는 것으로 한다.
또한 본 발명에 관한 제 5 해결수단의 상기 화상처리장치를 화상처리부로서 감시시스템에 구비하는 것으로 한다.
또 본 발명이 강구한 제 6 해결수단은, 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서, 합성화상의 화소와 카메라화상의 화소를 대응시키는 화상합성 파라미터를 구비하고, 상기 화상합성 파라미터는, 합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에서의, 이 복수 카메라화상에 대한 가중이, 디더법(dither technique)에 의하여 표시되는 것이다.
상술한 목적 및 기타의 목적과 본 발명의 특징 및 이점은 첨부 도면과 관련한 다음의 상세한 설명을 통해 보다 분명해 질 것이다.
(실시예)
이하 본 발명의 실시예에 대하여 도면을 참조하면서 설명하기로 한다.
(제 1 실시예)
도 1은 본 발명의 제 1 실시예에 관한 차량주변 감시시스템의 구성을 나타낸 도면이다. 도 1에 있어서 101은 화상을 받아들이는 카메라, 102는 아날로그 화상신호를 디지털화하는 A/D변환기, 103은 디지털화된 입력화상을 일시적으로 유지하는 프레임메모리이다. 프레임메모리(103)는 카메라(101)로부터 출력되는 화상을 상시 연속하여 기억해 감과 동시에, 바로 앞 1 프레임 분의 화상데이터를 일시적으로 기억하는, 이른바 더블버퍼 구성의 프레임메모리이다. 즉 프레임메모리(103)는 화상합성부(104)로부터의 판독요구에 응하여 바로 앞 1 프레임 분 화상의 임의 화 소데이터의 판독이 가능하도록 구성된다.
107은 차량의 움직임을 검출하는 차동태 검출부, 109는 카메라화상과 합성화상의 대응관계를 나타내는 화상합성 파라미터를 미리 복수 기억하는 파라미터 기억부, 108은 차동태 검출부(107)에 의하여 검출된 차량 움직임에 따라, 파라미터 기억부(109)에 기억된 복수의 화상합성 파라미터 중에서 어느 하나를 선택하여 출력하는 파라미터 선택부이다. 104는 파라미터 선택부(108)에 의하여 선택된 화상합성 파라미터에 따라, 프레임 메모리(103)로부터 화상을 순차 판독하여 화상합성을 실행하여, 합성화상으로서 출력하는 화상합성부, 105는 판독된 합성화상을 아날로그신호로 변환하는 D/A변환기, 106은 아날로그신호로 변환된 합성화상을 표시하는 표시부로서의 디스플레이이다.
A/D변환기(102), 프레임메모리(103), 화상합성부(104), D/A변환기(105), 파라미터 선택부(108) 및 파라미터 기억부(109)에 의하여 화상처리장치 또는 화상처리부가 구성된다. 또 파라미터 선택부(108) 및 파라미터 기억부(109)에 의하여 파라미터 생성부가 구성된다.
여기서는, 카메라(101) 및 디스플레이(106)에 의하여 취급되는 화상은 일반적인 인터레이스주사 화상인 것으로 한다. 또 차동태 검출부(107)는 차량의 차축이나 시프트레버 등에 설치된 센서의 신호로부터, 차륜의 회전속도나 진행방향 등을 차량 움직임으로서 검출하는 것으로 한다.
그리고 차량상황 검출부(200)와 그 이용방법에 대해서는 후술하기로 한다.
도 1과 같이 구성된 차량주변 감시장치에 대하여, 이하 그 동작을 설명하기 로 한다.
도 2는 화상합성 파라미터를 이용한 화상합성을 설명하기 위한 도면이다. 도 2 중 (a)는 카메라 화상의 예이고, 도 15와 같이 설치된 카메라1의 1 프레임 분 화상을 나타낸 것이다. 도 2의 (b)는 4 매의 카메라화상을 변형 합성하여 얻은 1 프레임 분의 합성화상의 예이다.
도 2의 (c)는 화상합성 파라미터의 예이다. 화상합성 파라미터의 각 좌표는 합성화상의 화소좌표와 1 대 1 대응이다. 그리고 각 좌표의 파라미터로서, 그 좌표에 대응하는 합성화상 화소를 생성하기 위한 카메라화상의 카메라 번호 및 화소좌표를 나타내는 2 차원 배열이 표현된다. 도 2의 (c)의 예에서는, 화상합성 파라미터의 좌표(xo, yo)에 『카메라 번호=1, 좌표(xi, yi)』라는 정보가 저장되어 있다. 이는 합성화상 좌표(xo, yo)의 화소는 카메라1의 화상 좌표(xi, yi)의 화소에 의하여 생성된다는 것을 나타낸다. 도 2의 (c)와 같은 구조의 합성화상 파라미터를 이용함으로써 복수 카메라화상과 합성화상과의 화소 대응관계를 기술할 수 있다.
본 실시예에서 파라미터 기억부(109)는, 카메라화상 및 합성화상 중 적어도 어느 한쪽의 공간 해상도 또는 시간 해상도가 서로 다른 복수의 화상합성 파라미터를 기억하는 것으로 한다.
특히 여기서는 공간 해상도 또는 시간 해상도가 서로 다른 복수의 화상합성 파라미터로서 합성화상의 구도가 동일한, 프레임 베이스의 화상합성 파라미터와 필드 베이스의 화상합성 파라미터가 파라미터 기억부(109)에 준비되는 것으로 한다. 프레임 베이스의 화상합성 파라미터란, 1 프레임의 카메라화상과 1 프레임의 합성화상을 대응시키는 화상합성 파라미터를 말하며, 필드 베이스의 화상합성 파라미터란, 카메라화상의 제 1 필드는 합성화상의 한쪽 필드에 대응시키고 카메라화상의 제 2 필드는 합성화상의 다른 한쪽 필드에 대응시키는 화상합성 파라미터를 말한다. 카메라화상과 합성화상의 필드단위 대응관계는, 합성화상과 카메라화상의 Y 좌표끼리 각각 기수는 기수로, 우수는 우수로 대응되도록 제약을 가함으로써 쉽게 기술할 수 있다.
도 3은 본 실시예에 관한 파라미터 선택부(108) 동작의 일례를 나타낸 도면이다. 도 3에 나타낸 바와 같이 파라미터 선택부(108)는 차동태 검출부(107)에 의하여 검출된 차량 속도에 대응하여 미리 정해진 기준에 따라, 차량 움직임이 상대적으로 느릴 때, 예를 들어 차 속도가 10㎞/h 미만일 때는 프레임 베이스의 화상합성 파라미터를 선택하는 한편, 차량 움직임이 상대적으로 빠를 때, 예를 들어 10㎞/h 이상일 때는 필드 베이스의 화상합성 파라미터를 선택한다. 화상합성부(104)는 파라미터 선택부(108)에 의하여 선택된 화상합성 파라미터의 카메라번호 및 좌표값에 따라, 프레임 메모리(103)로부터 카메라화상의 화소데이터를 판독하여 합성화상을 생성한다. 생성된 합성화상은 D/A변환기(105)에 의하여 아날로그신호로 변환되어 디스플레이(106)에 표시된다.
이와 같은 동작에 의하여, 차량의 속도가 높고 카메라화상 중의 움직임이 큰 경우는 필드별로 화상이 합성되므로, 빗살모양의 어긋남이 없는 자연스런 합성화상이 생성되는 한편, 차량 속도가 낮은 경우는 프레임별로 화상이 합성되므로, 해상 도가 높고 깨끗한 합성화상이 생성된다. 즉 차량 움직임에 따른 화상합성을 실행함으로써 차량이 움직이는 경우 합성화상의 부자연스러움을 저감시킴과 동시에, 차량이 거의 정지된 경우 합성화상의 해상도 저하를 방지할 수 있다.
그리고 상기 실시예에서 차동태 검출부(107)는, 차 축이나 시프트레버 등에 설치된 센서신호로부터 차륜의 회전속도나 진행방향 등 차량의 움직임을 검출하는 것으로 하지만, 그 대신 카메라화상으로부터 차의 움직임을 검출하는 구성으로 하여도 된다.
이 경우 차동태 검출부(107)는 카메라(101)에 의하여 촬상된 화상을 프레임 메모리(103)로부터 연속적으로 판독하여, 시간적으로 연속된 복수 프레임 또는 복수 필드 분의 화상으로부터 화상 중의 동 벡터를 산출한다. 그리고 산출된 동 벡터와, 미리 계측해 둔 카메라(101)의 설치위치나 방향, 및 초점거리 등의 카메라 파라미터를 기초로 하여 화상 중 노면 부분의 움직임 방향이나 속도를 구하고 이를 차량 속도로서 출력한다.
이와 같이 카메라화상으로부터 차량 움직임을 검출하는 차동태 검출부(107)를 구성함으로써, 차 축이나 시프트레버에 설치된 센서신호 등, 화상 이외의 입력이 불필요해지므로 간결한 구성의 시스템을 실현할 수 있다.
또 카메라(101)가, 입력된 절환신호에 따라 그 촬상패턴이 절환 가능하게 구성된 경우, 파라미터 선택부(108)는 차동태 검출부(107)에 의하여 검출된 차량 움직임에 맞추어, 상술한 바와 같은 화상합성 파라미터의 선택과 함께 각 카메라(101)의 촬상패턴을 절환하도록 해도 된다.
도 4는 이와 같은 경우의 파라미터 선택부(108) 동작의 일례를 나타낸 도면이다. 여기서 각 카메라(101)는 절환신호에 따라, 인터레이스 촬상(1/60초마다 1 필드) 또는 비 인터레이스 촬상(1/30초마다 1 프레임)의 절환과, 셔터속도(노광시간 1/30초, 1/60초, 1/120초)의 절환이 가능한 것으로 한다.
도 4에 도시한 바와 같이, 파라미터 선택부(108)는 차동태 검출부(107)에 의하여 검출된 차량 속도에 맞추어, 미리 정해진 기준에 따라 화상합성 파라미터를 선택함과 동시에 각 카메라(101)의 촬상패턴을 절환한다. 구체적으로는 차 속도가 10㎞/h 미만일 때는 프레임 베이스의 화상합성 파라미터를 선택하는 한편, 차 속도가 10㎞/h 이상일 때는 필드 베이스의 화상합성 파라미터를 선택한다. 이와 동시에 카메라(101)의 촬상패턴을, 차 속도가 10㎞/h 미만일 때는 비 인터레이스 촬상이며 노광시간 1/30초로 하고, 차 속도가 10㎞/h 이상 30㎞/h 미만일 때는 인터레이스 촬상이고 노광시간 1/60초로 하며, 차 속도가 30㎞/h 이상일 때는 인터레이스 촬상이며 노광시간 1/120초로 한다.
이와 같은 동작으로써 합성화상은, 차량 속도가 10㎞/h 미만일 때는 비 인터레이스 촬상이고 또 프레임 베이스로 화상합성되므로 해상도가 높아지는 한편, 차 속도가 10㎞/h 이상일 때는 인터레이스 촬상이고 또 필드 베이스로 화상합성되므로 해상도는 낮아지지만 움직임이 자연스러운 화상이 된다. 그리고 차량 속도에 맞추어 노광시간을 절환함으로써 합성화상은 움직임에 의한 흐려짐의 양이 적은 자연스러운 화상이 된다. 즉 차량의 움직임에 맞추어 화상합성 파라미터의 선택과 촬상패턴의 절환을 실행함으로써 차량 움직임에 따른 최적 화질의 합성화상을 생성할 수 있다.
또 도 1의 구성은 차량의 상황을 검출하는 차량상황 검출부(200)를 구비한다. 이 차량상황 검출부(200)의 출력을 이용하여 화상합성 파라미터의 선택이나 각 카메라의 촬상패턴의 절환을 실행함으로써 합성화상의 화질을 더욱 향상시킬 수 있다. 여기서 차량상황 검출부(200)는 차량에 설치된 광학센서 등에 의하여 구성되며, 차량주변의 밝기를 검출하는 수단(210)과, 운전자의 스위치 조작을 검출하는 수단(220)과, 차량주변의 장애물을 검출하는 수단(230)을 구비한다.
도 5는 밝기 검출수단(210)의 출력을 이용한 파라미터 선택부(108) 동작의 일례를 나타낸 도면이다. 여기서 일반적으로, 1 프레임을 촬상할 때의 노광시간은, 인터레이스 촬상에서는 비 인터레이스 촬상의 절반이 된다. 또 노광시간이 길 때 움직임이 있는 화상은 흐려지는 반면 밝은 화상을 얻을 수 있는 한편, 노광시간이 짧을 때는, 움직임이 있는 화상의 흐림은 적은 반면 화상은 어두워진다는 성질이 있다. 그래서 파라미터 선택부(108)는 도 5에 도시한 바와 같이, 차동태 검출부(107)에 의하여 검출된 차량 속도에 추가로, 밝기 검출수단(210)에 의하여 검출된 차량주변의 밝기에 따라 화상합성 파라미터의 선택과 각 카메라(101)의 촬상패턴을 절환한다. 이로써 차량주변의 밝기와 차량 속도에 맞는 최적 화질의 합성화상을 생성할 수 있다.
도 6은 스위치 검출수단(220) 및 장애물 검출수단(230)의 출력을 이용한 파라미터 선택부(108) 동작의 일례를 나타낸 도면이다. 여기서는, 도 7의 (a), (b)에 도시한 바와 같은 2 종류의 구도에 대하여 각각, 프레임 베이스와 필드 베이스 의 화상합성 파라미터가, 파라미터 기억부(109)에 준비되는 것으로 한다. 그리고 운전자는 화상합성의 구도에 대하여 「구도 A」「구도 B」「자동」의 3 종류 중 어느 하나를 스위치 조작으로 선택할 수 있는 것으로 한다. 스위치 검출수단(220)은 운전자의 스위치 조작을 검출한다. 또 장애물 검출수단(230)은 차량에 설치된 초음파에 의한 장애물 센서에 의하여 장애물까지의 거리를 계측하여 출력한다.
파라미터 선택부(108)는 도 6에 도시한 바와 같이, 검출된 차량의 상황 즉 운전자의 선택 및 장애물까지의 거리와, 차동태 검출부(107)에 의하여 검출된 차량 속도에 맞추어 화상합성 파라미터의 선택을 실행한다.
여기서 도 7의 (a)의 구도 A에서는, 자신의 차량 주변이 멀리까지 비치는 것에 반해, 도 7의 (b)의 구도 B에서는 자신의 차량 주변이 더욱 크게 비친다. 이 때문에 차량 속도가 같을 경우에는 구도 A의 합성화상보다 구도 B의 합성화상 쪽이, 발생하는 빗살모양의 어긋남이 커진다. 그래서 도 6에 도시한 바와 같이 합성화상 파라미터를 프레임 베이스로부터 필드 베이스로 절환하는 속도를, 차량의 움직임이나 차량의 상황에 맞추어 바꿈으로써, 더욱 최적 화질의 합성화상을 생성하는 것이 가능해진다.
여기서 운전자의 조작으로서, 시프트레버나 방향지시기 등의 조작을 차량상황 검출부(200)에 의하여 검출하도록 해도 된다.
또 본 실시예에서는 필드 베이스와 프레임 베이스의 화상합성 파라미터를 예로 들어 설명했지만, 공간적 또는 시간적 해상도의 관계가 서로 다른 타 종류의 화상합성 파라미터를 이용해도 된다. 예를 들어 1 프레임의 카메라화상이, 다른 촬 상시간으로 촬영된 복수의 화상에 의하여 구성되는 식의 경우에, 공간적 또는 시간적인 해상도의 조합이 다른 복수의 화상합성 파라미터를 이용함으로써, 본 실시예와 마찬가지 효과를 얻을 수 있다.
또한 본 실시예에서 도 3~도 6 또는 도 10에 도시한 파라미터 선택의 규칙은 어디까지나 일례에 지나지 않으며, 이들 이외의 규칙에 따라 차량의 움직임이나 차량 상황에 맞게 파라미터 선택을 실행해도 상관없음은 물론이다.
또 본 실시예에서는 필드 베이스와 프레임 베이스의 화상합성 파라미터를 각각 준비해두는 것으로 했지만, 프레임 베이스의 화상합성 파라미터만을 준비해두어도 본 실시예와 마찬가지 동작은 실현 가능하다. 즉 필드 베이스의 화상합성 파라미터는 프레임 베이스의 화상합성 파라미터의 Y 좌표값(Y0)의 필드에 맞추어 카메라화상의 Y 좌표값(Yi)을 기수 또는 우수로 모음으로써 생성할 수 있다. 이 때문에 파라미터 기억부(109)에는 프레임 베이스의 화상합성 파라미터만을 기억시켜두며 파라미터 선택부(108)는, 프레임 베이스의 화상합성 파라미터가 필요할 때는 파라미터 기억부(109)로부터 그대로 판독하고, 필드 베이스의 화상합성 파라미터가 필요할 때는 파라미터 기억부(109)에 기억된 프레임 베이스의 화상합성 파라미터를 상술한 방법으로 변환시키도록 하면 된다.
(제 2 실시예)
도 8은 본 발명의 제 2 실시예에 관한 차량주변 감시시스템의 구성을 나타낸 도면이다. 도 1의 구성과 다른 점은, A/D변환기(102)와 프레임 메모리(103) 사이에, 각 카메라화상에 대하여 필터처리를 실행하는 필터처리부(310)를 구성시킨 점 이다. 그리고 파라미터 기억부(330)는 카메라화상과 합성화상의 대응관계를 나타내는 화상합성 파라미터와, 이 화상합성 파라미터에 대응하는 필터 파라미터의 조합을 복수 개 기억하며, 파라미터 선택부(320)는 차동태 검출부(107)에 의하여 검출된 차량의 움직임과 차량상황 검출부(200)에 의하여 검출된 차량상항에 따라, 파라미터 기억부(330)로부터 화상합성 파라미터와 필터 파라미터의 조합을 선택한다. 필터처리부(310)는 파라미터 선택부(320)에 의하여 선택된 조합의 필터 파라미터에 따라 각 카메라화상에 대하여 주파수대역 제한 필터처리를 실행한다.
도 9는 필터 파라미터의 일례를 나타낸 도면이다. 도 9에 나타낸 필터 파라미터는 각 카메라에 대하여 각각, 차단주파수를 지정한다. 필터처리부(310)는 A/D변환기(102)로부터 출력되는 디지털화된 화상데이터에 대하여 필터 파라미터가 지정하는 차단주파수의 저역통과형 필터처리를 행한다.
여기서는 화소클록(fs)에 대하여 차단주파수를 부여하는 것으로 하며, 화상데이터 입력을 그대로 출력할 때는 「1/2fs」로, 차단주파수 1/4fs의 필터처리를 할 때는 「1/4fs」로 지정한다. 차단주파수는 화상합성 파라미터에 따른 화상합성 시, 그 카메라화상이 가장 축소될 부분의 축소율에 맞추어 샘플링정리에 의하여 미리 산출해둔다. 예를 들어 카메라1의 화상이 화상합성 시 가장 축소될 부분의 축소율이 길이 비로 1/2일 때, 카메라1의 차단주파수는 1/4fs로 한다.
카메라화상의 축소율은 화상합성 파라미터에 포함되는 카메라화상의 좌표값을 이용하여 구할 수 있다. 예를 들어 화상합성 파라미터의 좌표 (x0, y0)에서의 요소가 『카메라번호=1, 좌표 (x1, y1)』이고, 화상합성 파라미터의 좌표 (x0+1, y0)에서의 요소가 『카메라번호=1, 좌표 (x2, y2)』라고 한다. 이 때 좌표 (x1, y1)과 (x2, y2)의 거리를 D로 하면, 카메라번호 1의 카메라화상에 있어서 좌표 (x1, y1) 또는 (x2, y2)의 근방은 합성화상상에서 1/D로 축소된다고 할 수 있다. 이와 같이 하여 각 카메라화상의 어느 화소주변에서의 축소율을 구할 수 있다. 그리고 각 카메라화상 축소율의 최소값을, 가장 축소될 부분의 축소율이라고 할 수 있다.
파라미터 선택부(320)는, 차동태 검출부(107)에 의하여 검출된 차량의 속도나 차량상황 검출부(200)에 의하여 검출된 차량의 상황에 따라, 예를 들어 도 10에 나타낸 바와 같이 화상합성 파라미터 및 필터 파라미터를 선택한다. 다른 동작은 제 1 실시예와 마찬가지이다.
여기서, 과제의 항에서 서술한 바와 같이 화상의 축소를 수반하는 변형에서는, 축소율에 따른 고역 주파수 성분의 제거를 실행하지 않으면 대칭왜곡이 발생한다. 본 실시예에서는 필터 파라미터에 따른 저역통과 필터처리에 의하여 대칭왜곡을 제거하는 위에, 도 7과 같이 합성화상의 구도를 바꿀 경우 필터 파라미터도 함께 절환함으로써, 합성화상의 구도에 적합한 필터처리가 가능해진다. 따라서 차량의 상황과 차량의 속도에 맞는, 대칭왜곡이 적은 최적 화질의 합성화상을 생성할 수 있다.
도 11은 필터 파라미터의 다른 구성의 예를 나타낸 도면이다. 도 11의 (b)에 도시한 필터 파라미터는, 1 프레임 분 카메라화상의 각 화소좌표에 1 대 1 대응시킨 요소를 가지며, 각 요소는 각 카메라화상에 대한 필터처리의 차단주파수를 기 술한다. 즉 이 필터 파라미터는 카메라화상의 화소위치별로 필터처리의 설정데이터가 기술되는 것이다.
파라미터 선택부(320)는, 차동태 검출부(107)에 의하여 검출된 차량의 속도나 차량상항 검출부(200)에 의하여 검출된 차량 상황에 따라, 화상합성 파라미터 및 필터 파라미터를 선택하여 순차 주사하면서 그 데이터를 출력한다. 필터처리부(310)는 파라미터 선택부(320)로부터 출력된 필터 파라미터의 차단주파수의 정보로부터, A/D변환기(102)로부터 출력되는 디지털화된 화상데이터에 대하여 필터 파라미터에 따른 저역통과형 필터처리를 한다.
여기서 도 9에 도시한 바와 같은 필터 파라미터를 이용하는 경우, 1 개의 카메라화상에 대하여 1 종류의 차단주파수밖에 부여할 수 없다. 이는 카메라화상상의 위치에 따라 축소율이 다른 식의 화상합성을 할 경우에는 별로 바람직하지 못하다. 그래서 도 11의 (b)에 도시한 바와 같은 필터 파라미터를 이용함으로써, 카메라화상상의 위치에 따라 차단주파수를 바꿀 수 있으므로, 입력화상의 축소되지 않는 부분이 흐려지는 것을 방지할 수 있다.
또 도 11의 (b)의 필터 파라미터는, 1 프레임 분 카메라화상의 각 화소좌표에 1 대 1로 대응한 필터처리의 설정데이터를 유지하는 구성으로 된다. 일반적으로 근방화소의 필터 파라미터는 매우 근사한 값으로 되는 일이 많으므로, 예를 들어 (8×8)화소의 장방형 영역별로 필터처리의 설정데이터를 유지하는 등, 근방의 복수화소에 대하여 공통된 설정데이터를 유지하도록 하여도 된다. 이로써 축소되지 않는 부분의 화상이 흐려지는 것을 방지할 수 있을 뿐만 아니라, 필터처리의 설 정데이터를 화소마다 유지하는 경우에 비해 필터 파라미터의 데이터 양을 적게 할 수 있다는 효과를 얻을 수 있다.
또한 제 1 실시예와 제 2 실시예를 조합시켜 실행함으로써, 더욱 현저한 효과를 얻을 수 있다. 즉 제 1 실시예에 관한 기술적 특징에 의하여 인터레이스 노이즈를 제거할 수 있고, 이와 더불어 제 2 실시예에 관한 기술적 특징에 의하여 대칭왜곡을 제거할 수 있으므로, 차량이 고속주행 하는 경우라도 화질이 좋은 합성화상을 생성할 수 있다.
(제 3 실시예)
도 12는 본 발명의 제 3 실시예에 관한 차량주변 감시시스템의 구성을 나타낸 도면이다. 도 1의 구성과 다른 점은, 프레임 메모리(103)와 화상합성부(104) 사이에, 각 카메라화상의 휘도나 색상을 보정하는 휘도보정부(410)를 구성시킨 점이다. 또 휘도보정부(410)가 이용하는 휘도보정 파라미터를 산출하는 휘도보정 파라미터 산출부(420)도 구성된다.
도 13은 복수의 카메라화상으로부터 합성화상을 생성하기 위한 화상합성 파라미터의 예를 나타낸 도면이다. 도 13에서 (a), (b)는 차량의 후방에 설치된 2 대의 카메라로 촬상된 화상의 예이며, 이 예에서 차량의 정 후방 영역은 카메라1과 카메라2 양쪽에 의하여 중복 촬영된다. 도 13의 (c)는 합성화상의 예이고, 도 13의 (d)는 화상합성 파라미터의 예이다.
도 13의 (d)의 예에서 화상합성 파라미터의 좌표 (xo, yo)의 요소는 카메라1 화상의 (Xi1, Yi1) 화소와 카메라2 화상의 (Xi2, Yi2) 화소를, 가중값 0.7:0.3으로 가중시켜 합성하면 됨을 나타낸다. 화상합성부(104)는 이와 같은 화상합성 파라미터에 따라, 각 카메라화상을 가중시켜 가산하고 순차 합성화상으로서 출력한다. 이로써 합성화상의 화소를 1 개의 카메라화상의 단일 화소로부터 생성하는 경우에 비해 카메라화상의 휘도나 색상의 차에 의한 연결부분이 눈에 띄지 않는, 부드러운 합성화상을 생성할 수 있다.
또한 본 실시예에서는 합성화상에서의 중복영역의 정보를 이용하여 휘도보정 파라미터를 산출한다.
즉 파라미터 기억부(109)가 기억하는 화상합성 파라미터는, 합성화상상의 중복영역에 대하여, 대응하는 카메라화상의 화소좌표를 나타내는 중복영역 데이터를 가지며, 휘도보정 파라미터 산출부(420)는 화상합성 파라미터가 갖는 중복영역 데이터를 입력으로 하여, 이 중복영역 데이터가 나타내는 중복영역에 대응하는 각 카메라화상 화소의, 휘도나 색상 데이터를 이용하여 휘도보정 파라미터를 산출한다.
도 14는 중복영역을 갖는 합성화상과 그 화상합성 파라미터의 예를 나타내는 도면이다. 도 14의 (a)에 나타내는 합성화상에서 사선부분은 각각, 카메라1의 촬영범위와 카메라2의 촬영범위를 표시하며, 차량 후방부분에 카메라1의 촬영범위와 카메라2의 촬영범위가 중복된 중복영역이 형성된다. 도 14의 (b)의 화상합성 파라미터에는 중복영역에 대응하는 카메라화상의 화소좌표를 나타내는 중복영역 데이터의 일부가 나타나 있다. 즉 중복영역 좌표 (xo, yo)에 카메라1 화상 좌표(Xi1, Yi1)의 화소와 카메라2 화상 좌표 (Xi2, Yi2)의 화소가 대응하는 것이, 중복영역 데이터로서 표시된다.
여기서 가중값 정보가 「1:0」인지 그 이외의 값인지에 따라, 비 중복영역인지 중복영역인지를 판별할 수 있다. 또는 유효 카메라번호가 2 개 이상 지정되어 있으면 중복영역이고, 유효 카메라번호가 1 개 이하밖에 지정되어 있지 않으면 비 중복영역인 것으로 판별해도 된다.
파라미터 선택부(108)는, 차동태 검출부(107)에 의하여 검출된 차량의 속도나 차량상황 검출부(200)에 의하여 검출된 차량의 상황에 맞추어, 미리 정해진 기준에 따라 화상합성 파라미터를 선택하고, 인터레이스 주사에 의하여 순차 판독하여 화상합성부(104)로 출력한다. 파라미터 선택부(108)로부터 출력된 화상합성 파라미터가 갖는 중복영역 데이터는, 휘도보정 파라미터 산출부(420)로도 출력된다.
휘도보정 파라미터 산출부(420)는, 파라미터 선택부(108)로부터 출력되는 중복영역 데이터와, 화상합성부(104)가 프레임 메모리(103)로부터 판독한 화소값으로부터 중복영역에서의 각 카메라화상의 휘도나 색상의 분포를 구하여, 이들 분포가 중복영역에서 거의 일치하는 휘도보정 파라미터를 산출한다.
휘도보정부(410)는, 화상합성부(104)가 프레임 메모리(103)로부터 판독한 화소값에 대하여, 휘도보정 파라미터 산출부(420)에 의하여 산출된 휘도보정 파라미터에 따라 휘도보정을 하여 화상합성부(104)로 출력한다. 화상합성부(104)는 파라미터 선택부(108)로부터 출력된 화상합성 파라미터에 따라, 휘도보정부(410)에 의하여 휘도보정된 카메라화상으로부터 합성화상을 생성한다.
휘도보정 파라미터의 산출 순서에 대하여 구체예를 들어 설명한다.
예를 들어 휘도보정 파라미터 산출부(420)는, 중복영역에서의 각 카메라화상 휘도의 평균과 분산이 일치하는, 이득계수 및 오프셋계수를 휘도보정 파라미터로서 출력하는 것으로 한다. 그리고 휘도보정부(410)는 각 카메라화상의 화소값에 대하여, 휘도보정 파라미터인 이득계수 및 오프셋계수를 이용한 1 차식에 의하여 보정을 실시하는 것으로 한다.
여기서 중복영역이 복수 개 존재하는 것으로 한다. 예를 들어 4 종류의 중복영역, 즉 카메라1과 카메라2의 제 1 중복영역, 카메라1과 카메라3의 제 2 중복영역, 카메라2와 카메라4의 제 3 중복영역, 및 카메라3과 카메라4의 제 4 중복영역이 존재하는 것으로 한다.
휘도보정 파라미터 산출부(420)는, 우선 제 1 중복영역에 착안하여 화상합성부(104)가 프레임 메모리(103)로부터 판독한 카메라1과 카메라2의 화상을 각각 1 프레임 분 누적시켜, 제 1 중복영역에서의 카메라1과 카메라2의 화상 휘도의 평균과 분산을 각각 구한다. 마찬가지로 다른 제 2~제 4 중복영역에 대해서도 그 중복영역에 대응하는 카메라화상 휘도의 평균과 분산을 구한다.
다음으로 제 1 중복영역의 카메라1과 카메라2의 화상 휘도의 평균과 분산이 일치하도록 휘도보정 파라미터로서 이득과 오프셋을 구한다. 예를 들어 제 1 중복영역에서 카메라1 화상의 휘도 평균이 100, 분산이 10이고, 카메라2 화상의 휘도 평균이 121, 분산이 11이라고 한다면, 카메라1의 화상에 대한 이득을 1, 오프셋을 0으로 하고, 카메라2의 화상에 대한 이득을 10/11, 오프셋을 -10으로 하면, 카메라1과 카메라2의 화상 휘도의 평균과 분산이 일치한다.
다음에 제 1 중복영역에서 구한 휘도보정 파라미터를 이용하여 제 2 중복영 역에서의 카메라1 화상 휘도의 평균과 분산을 수정한다. 단 상기 예에서, 카메라1의 화상에 대한 이득은 1, 옵셋은 0이므로 카메라1 화상 휘도의 평균과 분산을 수정할 필요는 없다. 그리고 제 2 중복영역에서 카메라1과 카메라3 화상 휘도의 평균과 분산이 일치하도록 카메라3의 화상에 대한 휘도보정 파라미터를 구한다. 마찬가지로 제 1 중복영역으로부터 구한 휘도보정 파라미터를 이용하여 제 3 중복영역에서의 카메라2 화상 휘도의 평균과 분산을 수정한다. 또 제 3 중복영역에서 카메라2와 카메라4 화상 휘도의 평균과 분산이 일치하도록 카메라4의 화상에 대한 휘도보정 파라미터를 구한다.
단, 이와 같은 산출순서에서는, 제 4 중복영역에 있어서 반드시 휘도보정이 적절하게 되지는 않을 가능성이 있다. 따라서 상술한 이외의 산출순서로서, 예를 들어 각 중복영역으로부터 휘도보정 파라미터를 일단 산출하고, 복수의 중복영역에 대응하는 카메라화상에 대해서는 일단 산출한 휘도보정 파라미터의 평균값을 최종적인 휘도보정 파라미터로서 구해도 된다. 이 경우 각 중복영역에서 휘도나 색상은 완전하게는 일치하지 않지만, 합성화상 전체로서는 휘도나 색상이 크게 어긋나는 중복영역이 없어지는 것을 기대할 수 있다.
또 중복영역이 복수 개 존재할 경우에는 휘도보정 파라미터 산출시 고려할 중복영역의 우선순위를, 차동태 검출부(107)에 의하여 검출된 차량의 움직임에 따라 설정해도 상관없다.
예를 들어 차량이 후퇴하는 경우에는 합성화상 상에서 차량 후방에 위치하는 중복영역을 우선적으로 고려하면 된다. 한편 차량이 전진하는 경우에는 합성화상 상에서 차량 전방에 위치하는 중복영역을 우선적으로 고려하면 된다. 일반적으로 운전자는 차량이 후퇴할 경우는 차량의 후방에 주목하는 경향이 있고, 차량이 전진할 경우에는 차량 전방에 주목하는 경향이 있다. 따라서 일부 중복영역의 휘도나 색상은 일치하지 않더라도, 운전자가 주목하기 쉬운 위치에 있는 중복영역에서는 휘도나 색상이 일치하므로, 운전자가 보기에 더욱 자연스러운 합성화상으로 된다.
이상과 같이 본 실시예에 의하면, 중복영역에 대응하는 각 카메라화상 화소의 휘도나 색상의 데이터를 이용하여 휘도보정 파라미터를 산출하여 휘도보정을 실행하므로, 카메라화상의 휘도나 색상의 차이에 기인하는 연결부가 눈에 띄지 않는 부드러운 합성화면을 얻을 수 있다.
여기서 도 12의 구성에서는 휘도보정부(410)를 구성하지만, 카메라(101)가 휘도보정부(410)에 상당하는 기능을 내장하고 있는 경우에는 그 기능을 이용함으로써 휘도보정부(410)를 생략할 수 있어, 시스템 구성을 간략화 할 수 있다.
또 휘도보정 방법은 본 실시예에 제시한 것에 한정되는 것이 아니며, 중복영역의 휘도나 색상이 가까워질 수 있는 처리라면 다른 방법을 이용하여도 본 실시예와 마찬가지 효과를 얻을 수 있다.
그리고 본 실시예에서는 중복영역을 판별하기 위하여 화상합성 파라미터 중의 가중값 정보를 이용하는 것으로 했지만, 가중값 정보 대신에 중복영역인지 아닌지를 나타내는 전용 정보를 화상합성 파라미터 중에 설정하도록 하여도 됨은 물론이다.
(제 4 실시예)
본 발명의 제 4 실시예는 합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 있어서, 화상합성에 이용하는 카메라화상의 선택이나, 각 카메라화상의 가중 설정을 적절하게 바꾼 것이다.
본 실시예에 관한 차량주변 감시시스템의 구성은, 도 1에 나타낸 구성과 마찬가지이다. 단 파라미터 기억부(109)가, 구도는 동일하지만 중복영역에서 화상합성에 이용하는 카메라화상의 선택이 서로 다른, 복수의 화상합성 파라미터를 갖는 점이 다르다.
도 15는 본 실시예에서의 카메라 및 장애물 검출수단(230)으로서의 장애물 센서의 설치위치를 나타내는 도면이다. 도 15에 도시한 바와 같이 카메라1 및 카메라2는 차량 후방의 필러(pillar)에 설치되어, 카메라1은 차량 왼쪽 후방을 촬영하고 카메라2는 차량 오른쪽 후방을 촬영한다. 카메라1과 카메라2의 촬영범위는 차량후방에서 중복된다. 또 차량 후방에 2 개의 장애물 센서가 설치되어 이 장애물 센서에 의하여 차량 후방의 장애물을 검출할 수 있다.
도 16은 합성화상과, 이 합성화상을 생성하기 위한 화상합성 파라미터의 예를 나타내는 도면이다. 도 16 중 (a)는 합성화상, (b), (c)는 (a)의 합성화상을 생성하기 위한 2 종류의 화상합성 파라미터이다. 화상합성 파라미터A(b)와 화상합성 파라미터B(c)는 모두 동일 구도의 합성화상(a)을 생성하기 위한 화상합성 파라미터지만, 차량후방 부분의 중복영역에 있어서 화상합성을 위해 이용하는 카메라화상이 다르다. 중복영역에서 화상합성 파라미터A는 카메라1의 화상을 이용하고, 화상합성 파라미터B는 카메라2의 화상을 이용한다.
본 실시예에 관한 차량주행 감시시스템의 동작을 설명한다.
장애물 검출수단(230)은, 차량 후방의 좌우 어느 쪽인가에 장애물이 있을 경우 그 검출위치를 파라미터 선택부(108)로 출력한다. 파라미터 선택부(108)는, 검출된 장애물 위치나 사용자의 스위치 조작에 따라 화상합성 파라미터를 선택하여 출력한다.
예를 들어 차량 왼쪽 후방에 장애물이 있는 경우는 화상합성 파라미터A를, 차량 오른쪽 후방에 장애물이 있는 경우는 화상합성 파라미터B를 선택하여 출력한다. 화상합성부(104)는 선택된 화상합성 파라미터에 따라 프레임 메모리(103)로부터 카메라화상을 판독하여 합성화상을 생성한다.
이와 같은 동장에 의하여, 예를 들어 도 17의 (a)에 도시한 바와 같이 차량의 왼쪽 후방에 장애물 예를 들어 다른 차량이 있는 경우, 화상합성 파라미터A를 선택함으로써, 도 17의 (b)에 도시한 바와 같이 합성화상 상에서 카메라화상의 연결부분이 눈에 띄지 않게 된다. 만일 이때 화상합성 파라미터B를 선택하면, 도 17의 (c)에 도시한 바와 같이 합성화상 상에서의 카메라화상 연결부가, 다른 차량의 화상으로 연결되고 이로써 연결부분이 부자연스러워진다. 즉 장애물 위치에 따라서 화상합성 파라미터를 선택하여 화상합성을 실행함으로써, 합성화상 상에서 연결부분의 위치를 눈에 띄지 않는 곳으로 바꿀 수 있으므로, 연결부분이 자연스러운 합성화상을 생성할 수 있다.
또 파라미터 선택부(108)는, 차량상황 검출부(200)의 출력 대신에, 차동태 검출부(107)에 의하여 검출된 차량의 움직임에 따라 화상합성 파라미터를 절환해도 된다. 이로써 중복영역에서 화상합성에 이용하는 카메라화상을, 차량이 진행하는 방향이나 속도에 맞추어 절환할 수 있다. 이로써, 예를 들어 촬영범위가 차량 진행방향에서 가장 가까운 카메라화상을 선택함으로써 운전자가 주시하기 쉬운 영역 부근에서의 연결부분을 적게 할 수 있으므로, 운전하기 편한 합성화상 표시가 가능해진다. 물론 차량상황 검출부(200)의 출력과 차동태 검출부(107)의 출력을 함께 이용하여도 상관없다.
도 18은 본 실시예에 관한 화상합성 파라미터의 다른 예를 도시한 도면이다. 도 18의 화상합성 파라미터는, 합성화상상의 중복영역에 대하여, 각 카메라화상에 대한 가중값 정보를 복수 개 갖는다. 예를 들어 도 18에 있어서 화상합성 파라미터의 좌표(x0, y0)는, 카메라1 화상의 (Xi1, Yi1) 화소와 카메라2 화상의 (Xi2, Yi2) 화소가 중복된 영역이며, 합성 시 가중에 대하여, 가중값 정보A(0.7:0.3)와 가중값 정보B(0.2:0.8)의 2 조가 준비된다.
이 경우 파라미터 선택부(108)는 차량상황 검출부(200)의 출력에 따라, 화상합성 파라미터가 가진 복수의 가중값 정보 중 어느 하나를 선택한다. 예를 들어 차량의 왼쪽 후방에 장애물이 있을 경우는 가중값 정보A를, 차량의 오른쪽 후방에 장애물이 있을 경우는 가중값 정보B를 선택한다.
이와 같이 가중값 정보를 선택하여 화상합성을 실행함으로써, 도 17에 도시한 경우와 마찬가지로 장애물 위치에 따라서 합성화상상의 카메라화상 연결부분의 부자연스러움을 저감할 수 있어, 연결부분이 더욱 부드러운 합성화상을 생성할 수 있다.
도 19는 본 실시예에 관한 화상합성 파라미터의 또 다른 예를 도시한 도면이다. 도 19의 화상합성 파라미터는 도 18의 화상합성 파라미터와 같은 값이며, 다른 점은 각 화소마다 각각 가중값 정보를 갖는 대신 가중값 정보의 조합을 나타내는 1 개의 가중값 참조번호를 갖는 점이다.
도 19의 예에서는 화상합성 파라미터의 좌표 (x0, y0)의 가중값 참조번호는 「3」이다. 그리고 별도의 테이블로부터 가중값 참조번호「3」은, 각 화소 합성시의 가중이 0.7:0.3(가중값 정보A)인지, 0.2:0.8(가중값 정보B)인지를 나타낸다.
여기서 도 18의 화상합성 파라미터는, 가중값에 관하여 각 좌표마다 4 개의 값을 유지할 필요가 있음에 반하여, 도 19의 화상합성 파라미터는, 1 개의 가중값 참조정보 값을 유지하는 것만으로 된다. 이 때문에 화상합성 파라미터 화소 수가 많고 가중값 정보 조합 수가 적을수록 도 19의 화상합성 파라미터 쪽이 데이터 양이 더욱 적어진다고 할 수 있다.
이와 같이 합성화상 파라미터의 각 좌표마다 복수의 가중값 정보를 유지하는 대신, 복수 가중값 정보의 조합을 표시하는 가중값 참조번호를 유지함으로써 화상합성 파라미터의 데이터 양을 적게 할 수 있다.
도 20은 본 실시예에 관한 화상합성 파라미터의 다른 예를 나타내는 도면이다. 도 20의 화상합성 파라미터는, 도 18의 화상합성 파라미터를 기초로 디더법을 이용하여 생성된 것이다.
도 20의 (a)의 화상합성 파라미터A는 도 18의 화상합성 파라미터의 각 화소에 대응하는 카메라번호와 가중값 정보A를 기초로, 착안화소 근방의 각 카메라화상 화소 수의 비율이 가중값과 가까워지도록, 착안화소 어느 한쪽의 카메라화상을 선택하는, 이른바 디더법에 의하여 생성된 것이다. 마찬가지로 도 20의 (b)의 화상합성 파라미터B는 도 18의 화상합성 파라미터의 각 화소에 대응하는 카메라번호와 가중값 정보B를 기초로 하여 생성된 것이다.
예를 들어 도 18의 화상합성 파라미터의 가중값 정보A에서는, 좌표 (x0, y0)에서 카메라1이 0.7, 카메라2가 0.3의 가중임을 나타낸다. 도 20의 (a)의 화상합성 파라미터A에서는 좌표 (x0, y0) 근방화소의 카메라1 화소 수와 카메라2 화소 수의 비율이 0.7:0.3으로 가까워지도록, 카메라번호가 선택된다. 도 20의 (a)의 예에서, 좌표 (x0, y0)에서는 카메라1이 선택되지만 주변 화소의 카메라1과 카메라2의 화소비율이 거의 0.7:0.3으로 된다.
상기 디더법은 「텔레비젼 화상정보공학 핸드 북」(영상정보 미디어학회편/옴 사) 등에 개시되었고, 일반적으로 널리 알려진 방법이므로 카메라화상의 선택방법에 대한 상세한 설명은 여기서 생략한다.
파라미터 선택부(108)는 차량상황 검출부(200)의 출력에 따라 화상합성 파라미터A 또는 화상합성 파라미터B 중 어느 하나를 선택한다.
이와 같이 디더 처리된 복수의 화상합성 파라미터를 선택하여 화상합성 함으로써, 도 18의 화상합성 파라미터를 이용한 경우와 마찬가지로 장애물 위치에 따라 화상합성상 연결부분의 부자연스러움을 저감할 수 있어 연결부분이 부드러운 합성화상을 생성할 수 있다.
또 도 20 (a)의 화상합성 파라미터A와 도 20 (b)의 화상합성 파라미터B를 합 한 데이터 양은, 도 18의 화상합성 파라미터 데이터 양에 대하여 가중값 정보 분만큼 데이터 양이 적다고 할 수 있다.
그리고 도 20 (a)의 화상합성 파라미터A 또는 도 20 (b)의 화상합성 파라미터B를 이용하여 화상합성을 할 경우, 도 18의 가중 화상합성 파라미터를 이용하여 화상합성을 행하는 경우에 반해 화상합성부(104)가 프레임 메모리(103)로부터 판독할 화소 수, 및 화상합성부(104)에서의 가중 가산 분의 연산량이 적다고 할 수 있다.
이와 같이 화상합성 파라미터로서, 디더법에 의하여 생성된 화상합성 파라미터를 이용함으로써 가중값 정보를 이용한 화상합성 파라미터를 이용하는 경우에 비하여, 화상합성 파라미터의 데이터 양이 적어질 뿐만 아니라 화상합성의 처리량이 적어진다는 효과가 있다.
여기서 상술한 각 실시예에서 디스플레이(106)는, 인터레이스 주사 화상을 표시하는 것으로 하고, 파라미터 선택부(108, 320)는 인터레이스 주사에 의하여 화상합성 파라미터를 판독하는 것으로 했지만, 모두 비 인터레이스 주사를 이용하여도 각 실시예와 마찬가지 효과를 얻을 수 있다.
또 상술한 각 실시예에서 화상합성 파라미터는, 카메라화상과 합성화상 좌표의 대응관계를 나타내는 테이블 상태의 데이터인 것으로 했지만, 카메라화상과 합성화상의 대응관계를 나타내는 것이라면 다른 형식, 예를 들어 변수를 포함하는 수식이나 프로그램에 의하여 기술된 것이라도 상관없다. 이 경우 화상합성부는 변수를 포함하는 수식이나 프로그램에 의하여 기술된 화상합성 파라미터를 이용하여 좌 표의 대응을 구하는 구성으로 하면 된다. 그리고 이와 같은 변수를 포함하는 수식이나 프로그램에 의하여 기술된 화상합성 파라미터를 오려내는 방법은 일특개평 10-217261 등에 개시되어 있다.
또한 상술한 각 실시예에서 화상합성 파라미터는, 1 프레임 분의 합성화상의 화소좌표와 1 대 1 대응한 요소를 포함하고, 합성화상과 크기가 동일한 것으로 했지만, 화상합성 파라미터의 크기는 합성화상과 반드시 동일할 필요는 없다. 예를 들어 합성화상보다 크기가 큰 화상합성 파라미터를 준비해 두고, 이곳의 화상합성 파라미터로부터 합성화상과 같은 크기의 범위를 오려내어 화상합성을 실행하도록 하여도 상관없다.
또 이상의 설명에서 본 발명에 관한 감시 시스템이나 화상처리장치는, 차량에 적용하는 것으로 했지만 차량 이외의 이동체, 예를 들어 비행기나 선박 등이라도 마찬가지로 적용할 수 있다. 또한 이동체 이외의 감시대상, 예를 들어 점포, 주거, 전시장 등에 카메라를 설치하여도 된다.
또 복수 카메라의 설치위치나 대수는 여기서 나타낸 것에 한정되지 않는다.
그리고 본 발명에 관한 화상처리장치 기능은, 그 전부 또는 일부를 전용 하드웨어를 이용하여 실현시켜도 상관없으며, 소프트웨어에 의하여 실현시켜도 상관없다. 또한 본 발명에 관한 화상처리장치 기능의 전부 또는 일부를 컴퓨터로 실행시키기 위한 프로그램을 저장한 기록매체나 전송매체를 이용하는 것도 가능하다. 예를 들어 도 21에 도시한 바와 같은 컴퓨터를 이용한 구성에서, 화상합성부나 파라미터 선택부 등의 각 처리수단을 CPU(510)에 의하여 실행되는 소프트웨어로 실현 시켜 ROM(520) 또는 RAM(530)에 저장시켜 두어도 상관없다.
이상과 같이 본 발명에 의하면 합성화상에 대하여, 차량이 움직이고 있는 경우의 부자연스러움을 저감할 수 있음과 동시에, 차량이 정지되어 있는 경우의 해상도 저하를 방지할 수 있다. 또 합성화상 상에서 대칭왜곡을 효과적으로 억제할 수 있다. 그리고 합성화상 상에서 카메라화상의 연결부분의 부자연스러움을 저감할 수 있다.

Claims (23)

  1. 차량 주위를 촬영하는 복수의 카메라 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치에 있어서,
    카메라화상과 합성화상의 대응관계를 각각 나타내며, 또 공간적 또는 시간적인 해상도의 관계가 서로 다른 복수의 화상합성 파라미터를 생성 가능하게 구성된 파라미터 생성부를 구비하고,
    상기 파라미터 생성부에 의하여 생성된 화상합성 파라미터에 따라, 카메라화상으로부터 합성화상을 생성하는 것이며,
    상기 파라미터 생성부는, 생성하는 화상합성 파라미터를, 차량의 움직임을 검출하는 차동태 검출부의 출력에 따라 절환하는 것을 특징으로 하는 화상처리장치.
  2. 제 1 항에 있어서,
    상기 파라미터 생성부는,
    상기 복수의 화상합성 파라미터를 기억하는 파라미터 기억부와,
    상기 차동태 검출부의 출력에 따라, 상기 파라미터 기억부가 기억하는 복수의 화상합성 파라미터 중에서, 적어도 1 개를 선택하는 파라미터 선택부를 구비하는 것임을 특징으로 하는 화상처리장치.
  3. 제 1 항에 있어서,
    상기 카메라화상은 인터레이스화상이며,
    상기 복수의 화상합성 파라미터는, 적어도 프레임 베이스의 화상합성 파라미터와, 필드 베이스의 화상합성 파라미터를 포함하는 것을 특징으로 하는 화상처리장치.
  4. 제 3 항에 있어서,
    상기 파라미터 생성부는,
    상기 차동태 검출부에 의하여 검출된 차량의 움직임이, 상대적으로 빠를 때는 필드 베이스 화상합성 파라미터를 생성하는 한편, 상대적으로 느릴 때는 프레임 베이스 화상합성 파라미터를 생성하는 것임을 특징으로 하는 화상처리장치.
  5. 제 1 항에 있어서,
    상기 차동태 검출부는, 카메라화상으로부터 차량의 움직임을 검출하는 것임을 특징으로 하는 화상처리장치.
  6. 제 1 항에 있어서,
    상기 복수의 카메라는 입력된 절환신호에 따라, 그 촬상패턴이 절환 가능하게 구성되며,
    상기 파라미터 생성부는,
    상기 차동태 검출부의 출력에 따라, 상기 화상합성 파라미터 생성과 함께, 상기 각 카메라로 절환신호를 보내어 각 카메라의 촬상패턴을 절환하는 것을 특징으로 하는 화상처리장치.
  7. 제 6 항에 있어서,
    상기 파라미터 생성부는,
    상기 차동태 검출부의 출력과 더불어, 차량주변의 밝기를 검출하는 차량상황 검출부의 출력을 가미하여, 화상합성 파라미터의 선택이나, 각 카메라의 촬상패턴의 절환을 실행하는 것을 특징으로 하는 화상처리장치.
  8. 제 1 항에 있어서,
    상기 파라미터 생성부는,
    상기 차동태 검출부의 출력과 더불어, 승차원의 조작 또는 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력을 가미하여, 화상합성 파라미터의 생성을 실행하는 것을 특징으로 하는 화상처리장치.
  9. 차량주위를 촬영하는 복수의 카메라와,
    상기 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부와,
    상기 화상처리부에 의하여 생성된 합성화상을 표시하는 표시부를 구비하며,
    상기 화상처리부는,
    카메라화상과 합성화상과의 대응관계를 각각 나타내며, 또 공간적 또는 시간적인 해상도의 관계가 서로 다른 복수의 화상합성 파라미터를 생성 가능하게 구성된 파라미터 생성부를 구비하고,
    상기 파라미터 생성부에 의하여 생성된 화상합성 파라미터에 따라, 카메라 화상으로부터 합성화상을 생성하는 것이며,
    상기 파라미터 생성부는, 차량의 움직임을 검출하는 차동태 검출부의 출력에 따라, 상기 복수의 화상합성 파라미터 중 적어도 1 개를 생성하는 것을 특징으로 하는 감시시스템.
  10. 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치에 있어서,
    카메라화상과 합성화상의 대응관계를 나타내는 화상합성 파라미터와, 이 화상합성 파라미터에 대응하는 필터 파라미터의 조합을 복수 개 기억하는 파라미터 기억부와,
    차량의 움직임을 검출하는 차동태 검출부의 출력 및 승차원의 조작 또는 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력에 따라, 상기 파라미터 기억부가 기억하는 복수의 화상합성 파라미터 및 필터 파라미터의 조합 중에서, 적어도 1 조를 선택하는 파라미터 선택부와,
    각 카메라화상에 대하여, 상기 파라미터 선택부에 의하여 선택된 조의 필터 파라미터에 따라, 주파수대역 제한 필터처리를 행하는 필터처리부를 구비하며,
    상기 파라미터 선택부에 의하여 선택된 조의 화상합성 파라미터에 따라, 상기 필터처리부에 의하여 처리된 카메라화상으로부터, 합성화상을 생성하는 것을 특징으로 하는 화상처리장치.
  11. 제 10 항에 있어서,
    상기 필터 파라미터는, 카메라화상의 화소위치별로 필터처리의 설정데이터가 기술된 것임을 특징으로 하는 화상처리장치.
  12. 차량주위를 촬영하는 복수의 카메라와,
    상기 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부와,
    상기 화상처리부에 의하여 생성된 합성화상을 표시하는 표시부를 구비하며,
    상기 화상처리부는,
    카메라화상과 합성화상의 대응관계를 나타내는 화상합성 파라미터와, 이 화상합성 파라미터에 대응하는 필터 파라미터와의 조합을 복수 개 기억하는 파라미터 기억부와,
    차량의 움직임을 검출하는 차동태 검출부의 출력 및 승차원의 조작 또는 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력에 따라, 상기 파라미터 기억부가 기억하는 복수의 화상합성 파라미터 및 필터 파라미터의 조 합 중에서, 적어도 1 조를 선택하는 파라미터 선택부와,
    각 카메라화상에 대하여, 상기 파라미터 선택부에 의하여 선택된 조의 필터 파라미터에 따라, 주파수대역 제한 필터처리를 행하는 필터처리부를 구비하며,
    상기 파라미터 선택부에 의하여 선택된 조의 화상합성 파라미터에 따라, 상기 필터처리부에 의하여 처리된 카메라화상으로부터, 합성화상을 생성하는 것임을 특징으로 하는 감시시스템.
  13. 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치에 있어서,
    각 카메라화상의 휘도나 색상을 보정하기 위한 휘도보정 파라미터를 산출하는 휘도보정 파라미터 산출부와,
    상기 휘도보정 파라미터 산출부에 의하여 산출된 휘도보정 파라미터를 이용하여, 각 카메라화상의 휘도나 색상을 보정하는 휘도보정부를 구비하며,
    카메라화상과 합성화상의 대응관계를 나타내는 화상합성 파라미터에 따라, 상기 휘도보정부에 의하여 휘도보정된 복수의 카메라화상으로부터 합성화상을 생성하는 것이며,
    상기 화상합성 파라미터는, 합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 대하여, 대응하는 카메라화상의 화소좌표를 나타내는 중복영역 데이터를 갖고,
    상기 휘도보정 파라미터 산출부는, 상기 중복영역 데이터를 입력으로 하여, 이 중복영역 데이터가 나타내는 상기 중복영역에 대응하는 각 카메라화상 화소의, 휘도나 색상의 데이터를 이용하여 휘도보정 파라미터를 산출하는 것을 특징으로 하는 화상처리장치.
  14. 제 13 항에 있어서,
    상기 휘도보정 파라미터 산출부는,
    상기 중복영역에 대응하는 각 카메라화상에 대하여, 중복영역에서의 휘도 통계처리를 실행하고, 이들 처리결과에 기초하여 휘도보정 파라미터를 산출하는 것을 특징으로 하는 화상처리장치.
  15. 제 13 항에 있어서,
    상기 휘도보정 파라미터 산출부는,
    상기 중복영역이 복수 개 존재할 경우에, 휘도보정 파라미터 산출 시 고려할 중복영역의 우선순위를, 차량 움직임을 검출하는 차동태 검출부의 출력에 따라 설정하는 것을 특징으로 하는 화상처리장치.
  16. 제 13 항에 있어서,
    상기 휘도보정부는, 각 카메라에 내장되는 것을 특징으로 하는 화상처리장치.
  17. 차량주위를 촬영하는 복수의 카메라와,
    상기 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부와,
    상기 화상처리부에 의하여 생성된 합성화상을 표시하는 표시부를 구비하며,
    상기 화상처리부는,
    각 카메라화상의 휘도나 색상을 보정하기 위한 휘도보정 파라미터를 산출하는 휘도보정 파라미터 산출부와,
    상기 휘도보정 파라미터 산출부에 의하여 산출된 휘도보정 파라미터를 이용하여, 각 카메라화상의 휘도나 색상을 보정하는 휘도보정부를 구비하며,
    카메라화상과 합성화상의 대응관계를 나타내는 화상합성 파라미터에 따라, 상기 휘도보정부에 의하여 휘도보정된 복수의 카메라화상으로부터 합성화상을 생성하는 것이며,
    상기 화상합성 파라미터는, 합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 대하여, 대응하는 카메라화상의 화소좌표를 나타내는 중복영역 데이터를 갖고,
    상기 휘도보정 파라미터 산출부는, 상기 중복영역 데이터를 입력으로 하여, 이 중복영역 데이터가 나타내는 상기 중복영역에 대응하는 각 카메라화상 화소의, 휘도나 색상의 데이터를 이용하여 휘도보정 파라미터를 산출하는 것임을 특징으로 하는 감시시스템.
  18. 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서,
    합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 있어서, 이 복수 카메라의 화상 중에서, 합성화상의 생성에 이용되는 카메라화상을, 차량 움직임을 검출하는 차동태 검출부의 출력, 또는 승차원의 조작이나 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력에 따라, 선택하는 것을 특징으로 하는 화상처리장치.
  19. 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서,
    합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 있어서, 이 복수 카메라화상에 대한 가중을, 차량 움직임을 검출하는 차동태 검출부의 출력, 또는 승차원의 조작이나 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력에 따라, 설정하는 것을 특징으로 하는 화상처리장치.
  20. 제 19 항에 있어서,
    합성화상의 화소와 카메라화상의 화소를 대응시키는 화상합성 파라미터와,
    가중값 참조번호와 가중값 정보의 조합의 대응관계를 나타내는 테이블을 구비하며,
    상기 중복영역에 관한 화상합성 파라미터는,
    상기 테이블에 나타난 가중값 참조번호 값 중 어느 하나를 유지하는 것임을 특징으로 하는 화상처리장치.
  21. 차량주위를 촬영하는 복수의 카메라와,
    상기 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부와,
    상기 화상처리부에 의하여 생성된 합성화상을 표시하는 표시부를 구비하며,
    상기 화상처리부는,
    합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 있어서, 이 복수 카메라화상 중에서 합성화상의 생성에 이용하는 카메라화상을, 차량 움직임을 검출하는 차동태 검출부의 출력, 또는 승차원의 조작이나 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력에 따라 선택하는 것임을 특징으로 하는 감시시스템.
  22. 차량주위를 촬영하는 복수의 카메라와,
    상기 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리부와,
    상기 화상처리부에 의하여 생성된 합성화상을 표시하는 표시부를 구비하며,
    상기 화상처리부는,
    합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에 있어서, 이 복수 카메라화상에 대한 가중을, 차량 움직임을 검출하는 차동태 검출부의 출력, 또는 승차원의 조작이나 차량주변의 장애물 유무 등 차량상황을 검출하는 차량상황 검출부의 출력에 따라, 설정하는 것임을 특징으로 하는 감시시스템.
  23. 차량주위를 촬영하는 복수 카메라의 촬상화상을 입력으로 하여, 이들 카메라화상으로부터 합성화상을 생성하는 화상처리장치로서,
    합성화상의 화소와 카메라화상의 화소를 대응시키는 화상합성 파라미터를 구비하고,
    상기 화상합성 파라미터는,
    합성화상 상에서 복수 카메라의 촬영범위가 중복되는 중복영역에서의, 이 복수 카메라화상에 대한 가중값이, 디더법(dither technique)에 의하여 표시되는 것임을 특징으로 하는 화상처리장치.
KR1020010023161A 2000-04-28 2001-04-28 화상처리장치 및 감시시스템 KR100737655B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP??2000-130171 2000-04-28
JP2000130171 2000-04-28

Publications (2)

Publication Number Publication Date
KR20010098955A KR20010098955A (ko) 2001-11-08
KR100737655B1 true KR100737655B1 (ko) 2007-07-09

Family

ID=18639321

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010023161A KR100737655B1 (ko) 2000-04-28 2001-04-28 화상처리장치 및 감시시스템

Country Status (3)

Country Link
US (3) US6734896B2 (ko)
EP (1) EP1150252B1 (ko)
KR (1) KR100737655B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101116796B1 (ko) * 2009-10-30 2012-02-28 동의대학교 산학협력단 Most 네트워크 기반의 자동차 사방 감시 시스템
KR101497933B1 (ko) * 2013-08-19 2015-03-03 현대모비스(주) 클러스터링 기법을 이용한 다수 영상의 합성 시스템 및 방법

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140152823A1 (en) * 1998-11-30 2014-06-05 American Vehicular Sciences Llc Techniques to Obtain Information About Objects Around a Vehicle
US6891974B1 (en) * 2001-01-08 2005-05-10 Microsoft Corporation System and method providing improved data compression via wavelet coefficient encoding
DE60237553D1 (de) 2001-01-22 2010-10-14 Hand Held Prod Inc Optisches Lesegerät mit Partial-Frame-Betriebsmodus
US7268924B2 (en) 2001-01-22 2007-09-11 Hand Held Products, Inc. Optical reader having reduced parameter determination delay
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
JP4512293B2 (ja) * 2001-06-18 2010-07-28 パナソニック株式会社 監視システムおよび監視方法
US7697027B2 (en) 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
EP1291668B1 (en) * 2001-09-07 2005-11-30 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings display device and image providing system
JP3695377B2 (ja) * 2001-10-01 2005-09-14 日産自動車株式会社 画像合成装置および画像合成方法
KR100866450B1 (ko) * 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
US7734500B1 (en) 2001-10-17 2010-06-08 United Toll Systems, Inc. Multiple RF read zone system
US8331621B1 (en) * 2001-10-17 2012-12-11 United Toll Systems, Inc. Vehicle image capture system
US7725348B1 (en) * 2001-10-17 2010-05-25 United Toll Systems, Inc. Multilane vehicle information capture system
EP1491038A2 (en) * 2001-12-26 2004-12-29 YEDA RESEARCH AND DEVELOPMENT CO., Ltd. A system and method for increasing space or time resolution in video
JP3817174B2 (ja) * 2001-12-28 2006-08-30 矢崎総業株式会社 車両用画像修整装置及び夜間運転視界支援装置
US7110021B2 (en) 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
JP3904988B2 (ja) * 2002-06-27 2007-04-11 株式会社東芝 画像処理装置およびその方法
US20070241195A1 (en) * 2006-04-18 2007-10-18 Hand Held Products, Inc. Optical reading device with programmable LED control
US7637430B2 (en) 2003-05-12 2009-12-29 Hand Held Products, Inc. Picture taking optical reader
KR100488728B1 (ko) * 2003-05-15 2005-05-11 현대자동차주식회사 자동차의 2중 노출 카메라 시스템 및 영상 취득방법
JP4075722B2 (ja) * 2003-07-22 2008-04-16 日産自動車株式会社 車両用表示制御装置
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置
JP4513318B2 (ja) * 2003-12-10 2010-07-28 日産自動車株式会社 後側方画像制御装置および方法
US7982772B2 (en) * 2004-03-30 2011-07-19 Fujifilm Corporation Image correction apparatus and image correction method for correcting image blur using a mobile vector
JP4380550B2 (ja) * 2004-03-31 2009-12-09 株式会社デンソー 車載用撮影装置
JP3722486B1 (ja) * 2004-05-19 2005-11-30 本田技研工業株式会社 車両用走行区分線認識装置
TWI245538B (en) * 2004-07-28 2005-12-11 Lite On Technology Corp A high-speed image scanning system and method thereof
US7543466B2 (en) * 2004-09-20 2009-06-09 Stanton Concepts Inc. Security link
DE202004014778U1 (de) * 2004-09-22 2006-02-09 Mekra Lang Gmbh & Co. Kg Nutzfahrzeuge mit Kameraeinrichtung sowie Kameraeinrichtung hierfür
JP4560716B2 (ja) * 2004-09-28 2010-10-13 アイシン精機株式会社 車両の周辺監視システム
JP4639753B2 (ja) * 2004-10-25 2011-02-23 日産自動車株式会社 運転支援装置
US20060095172A1 (en) * 2004-10-28 2006-05-04 Abramovitch Daniel Y Optical navigation system for vehicles
JP4246690B2 (ja) * 2004-11-30 2009-04-02 本田技研工業株式会社 画像情報処理システム、画像情報処理方法、画像情報処理プログラムおよび自動車
JP3968375B2 (ja) * 2005-02-15 2007-08-29 松下電器産業株式会社 周辺監視装置および周辺監視方法
JP4466571B2 (ja) * 2005-05-12 2010-05-26 株式会社デンソー ドライバ状態検出装置、車載警報装置、運転支援システム
EP1916846B1 (en) * 2005-08-02 2016-09-14 Nissan Motor Company Limited Device and method for monitoring vehicle surroundings
FR2891934B1 (fr) * 2005-10-12 2008-01-18 Valeo Electronique Sys Liaison Dispositif de traitement de donnees video pour un vehicule automobile
JP4934308B2 (ja) * 2005-10-17 2012-05-16 三洋電機株式会社 運転支援システム
DE102006003538B3 (de) * 2006-01-24 2007-07-19 Daimlerchrysler Ag Verfahren zum Zusammenfügen mehrerer Bildaufnahmen zu einem Gesamtbild in der Vogelperspektive
JP4707109B2 (ja) * 2006-03-02 2011-06-22 アルパイン株式会社 複数カメラ撮影画像処理方法及び装置
JP4325642B2 (ja) * 2006-05-31 2009-09-02 ソニー株式会社 移動体カメラシステム
DE102006027121A1 (de) * 2006-06-12 2007-12-13 Robert Bosch Gmbh Bildaufnahmesystem und Verfahren für die Entfernungsbestimmung mit einem Bildaufnahmesystem
US20080007650A1 (en) 2006-06-23 2008-01-10 Broadcom Corporation, A California Corporation Processing of removable media that stores full frame video & sub-frame metadata
JP4254887B2 (ja) * 2006-07-06 2009-04-15 日産自動車株式会社 車両用画像表示システム
US20090128630A1 (en) * 2006-07-06 2009-05-21 Nissan Motor Co., Ltd. Vehicle image display system and image display method
JP5117003B2 (ja) * 2006-07-11 2013-01-09 本田技研工業株式会社 運転支援装置
DE102006036933B4 (de) * 2006-08-08 2024-01-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erzeugung eines Gesamtbilds aus überlappenden Einzelbildern
US7728879B2 (en) * 2006-08-21 2010-06-01 Sanyo Electric Co., Ltd. Image processor and visual field support device
WO2008032392A1 (fr) * 2006-09-14 2008-03-20 Fujitsu Limited Procédé et dispositif de traitement d'image et programme connexe
JP4101857B2 (ja) * 2006-09-20 2008-06-18 松下電器産業株式会社 監視システム、カメラ及び映像符号化方法
JP4879031B2 (ja) * 2007-01-11 2012-02-15 三洋電機株式会社 運転支援システム、画像処理装置及びずれ検出方法
WO2008099639A1 (ja) * 2007-02-13 2008-08-21 Fujitsu Ten Limited ドライブレコーダ、ドライブレコーダシステム、車載用映像記録装置及び車載用映像記録方法
JP2008219428A (ja) * 2007-03-02 2008-09-18 Fujifilm Corp 撮像装置
US7952021B2 (en) 2007-05-03 2011-05-31 United Toll Systems, Inc. System and method for loop detector installation
US7869621B1 (en) * 2007-06-07 2011-01-11 Aydin Arpa Method and apparatus for interpreting images in temporal or spatial domains
US7847822B2 (en) * 2007-06-14 2010-12-07 Sony Corporation Sequential regression for calibration from residues
US7782367B2 (en) * 2007-06-14 2010-08-24 Sony Corporation Direct calibration of color imaging devices
US8077205B2 (en) 2007-06-14 2011-12-13 Sony Corporation Adaptive prediction of calibration parameters for color imaging devices
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
TW200910937A (en) * 2007-08-29 2009-03-01 Imagia Technologies Co Ltd The generation device of continuous crisscross scenes
JP5347257B2 (ja) * 2007-09-26 2013-11-20 日産自動車株式会社 車両用周辺監視装置および映像表示方法
JP2009086783A (ja) * 2007-09-28 2009-04-23 Fujitsu Microelectronics Ltd フィルタ回路、フィルタ処理方法、撮像素子回路およびカメラ
US8103436B1 (en) 2007-11-26 2012-01-24 Rhythm Engineering, LLC External adaptive control systems and methods
CN101458078A (zh) * 2007-12-10 2009-06-17 鸿富锦精密工业(深圳)有限公司 一种汽车防撞***及方法
US8923648B2 (en) * 2008-01-21 2014-12-30 Denso International America, Inc. Weighted average image blending based on relative pixel position
JP5005570B2 (ja) * 2008-02-04 2012-08-22 株式会社リコー 画像処理装置およびプログラム
US8803966B2 (en) 2008-04-24 2014-08-12 GM Global Technology Operations LLC Clear path detection using an example-based approach
US8751154B2 (en) 2008-04-24 2014-06-10 GM Global Technology Operations LLC Enhanced clear path detection in the presence of traffic infrastructure indicator
US8634593B2 (en) * 2008-04-24 2014-01-21 GM Global Technology Operations LLC Pixel-based texture-less clear path detection
DE102008022064A1 (de) * 2008-05-03 2009-11-05 Adc Automotive Distance Control Systems Gmbh Verfahren zur Belichtungssteuerung für eine Kamera in einem Kraftfahrzeug
US8150105B2 (en) * 2008-05-22 2012-04-03 International Electronic Machines Corporation Inspection using three-dimensional profile information
CN101458871B (zh) * 2008-12-25 2014-03-26 北京中星微电子有限公司 一种智能交通分析***及其应用***
JP5068779B2 (ja) 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP5102795B2 (ja) * 2009-03-13 2012-12-19 パナソニック株式会社 運転支援表示装置
US8639046B2 (en) * 2009-05-04 2014-01-28 Mamigo Inc Method and system for scalable multi-user interactive visualization
US8732592B2 (en) * 2009-06-08 2014-05-20 Battelle Energy Alliance, Llc Methods and systems relating to an augmented virtuality environment
JP5031801B2 (ja) * 2009-07-28 2012-09-26 日立オートモティブシステムズ株式会社 車載用画像表示装置
JP5108840B2 (ja) * 2009-07-29 2012-12-26 クラリオン株式会社 車両用周辺監視装置および車両用周辺画像表示方法
JP5436086B2 (ja) * 2009-08-03 2014-03-05 アルパイン株式会社 車両周辺画像表示装置および車両周辺画像表示方法
US8988525B2 (en) * 2009-08-27 2015-03-24 Robert Bosch Gmbh System and method for providing guidance information to a driver of a vehicle
JP4970516B2 (ja) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 周囲確認支援装置
JP5421999B2 (ja) * 2009-10-09 2014-02-19 パナソニック株式会社 車両用周囲監視装置
MD4332C1 (ro) * 2010-02-08 2015-09-30 Общество С Ограниченной Ответственностью "Корпорация "Строй Инвест Проект М" Procedeu de determinare a vitezei de mişcare şi coordonatelor vehiculelor cu identificarea lor ulterioară şi înregistrarea automată a încălcărilor regimului de viteză şi dispozitiv de realizare a lui
WO2011158285A1 (ja) * 2010-06-15 2011-12-22 三菱電機株式会社 車両周辺監視装置
US8648702B2 (en) * 2010-08-20 2014-02-11 Denso International America, Inc. Combined time-of-flight and image sensor systems
JP5812598B2 (ja) * 2010-12-06 2015-11-17 富士通テン株式会社 物体検出装置
CN102073851B (zh) * 2011-01-13 2013-01-02 北京科技大学 一种城市交通事故自动识别方法和***
KR101316433B1 (ko) * 2011-09-14 2013-10-08 현대자동차주식회사 차량 주변정보 제공 시스템 및 그 방법
JP5962927B2 (ja) 2011-09-30 2016-08-03 パナソニックIpマネジメント株式会社 俯瞰画像生成装置、俯瞰画像生成方法、および俯瞰画像生成プログラム
KR20130080614A (ko) * 2012-01-05 2013-07-15 한국전자통신연구원 휘도 자동 보정 장치 및 방법
JP6003226B2 (ja) * 2012-05-23 2016-10-05 株式会社デンソー 車両周囲画像表示制御装置および車両周囲画像表示制御プログラム
US9242602B2 (en) 2012-08-27 2016-01-26 Fotonation Limited Rearview imaging systems for vehicle
WO2014033886A1 (ja) * 2012-08-30 2014-03-06 富士通株式会社 画像処理装置、画像処理方法、及びプログラム
CN104871204B (zh) * 2012-11-27 2018-01-26 歌乐株式会社 车载图像处理装置
JP6115104B2 (ja) * 2012-12-04 2017-04-19 アイシン精機株式会社 車両の制御装置、及び制御方法
KR101519209B1 (ko) * 2013-08-06 2015-05-11 현대자동차주식회사 Avm 영상 제공 장치 및 방법
US9323993B2 (en) * 2013-09-05 2016-04-26 Xerox Corporation On-street parking management methods and systems for identifying a vehicle via a camera and mobile communications devices
TWI552907B (zh) * 2013-10-30 2016-10-11 緯創資通股份有限公司 行車安全輔助系統和方法
US9426365B2 (en) * 2013-11-01 2016-08-23 The Lightco Inc. Image stabilization related methods and apparatus
JP6429452B2 (ja) 2013-11-22 2018-11-28 ルネサスエレクトロニクス株式会社 車載用画像処理装置及び半導体装置
JP6291866B2 (ja) * 2014-01-27 2018-03-14 株式会社デンソー 運転支援装置、および運転支援方法
US20150227965A1 (en) * 2014-02-07 2015-08-13 Paul Drysch Method and system for evaluting signage
EP3105920B1 (en) * 2014-02-11 2020-07-22 Robert Bosch GmbH Brightness and color matching video from multiple-camera system
JP6330383B2 (ja) * 2014-03-12 2018-05-30 株式会社デンソー 合成画像生成装置、および合成画像生成プログラム
TW201544826A (zh) * 2014-05-29 2015-12-01 Univ Ming Chi Technology 利用都卜勒效應之車輛切換車道輔助系統
JP6746892B2 (ja) * 2015-09-30 2020-08-26 ヤマハ株式会社 画像処理装置、画像処理方法およびプログラム
US20170124881A1 (en) * 2015-10-28 2017-05-04 Velvac Incorporated Blind zone warning for semi-trailer
DE102016112483A1 (de) * 2016-07-07 2018-01-11 Connaught Electronics Ltd. Verfahren zum Reduzieren von Störsignalen in einem Draufsichtbild, das ein Kraftfahrzeug und einen Umgebungsbereich des Kraftfahrzeugs zeigt, Fahrerassistenzsystem sowie Kraftfahrzeug
US10354408B2 (en) * 2016-07-20 2019-07-16 Harman International Industries, Incorporated Vehicle camera image processing
CN110915193B (zh) * 2017-08-09 2022-06-24 富士胶片株式会社 图像处理***、服务器装置、图像处理方法及记录介质
US10744941B2 (en) 2017-10-12 2020-08-18 Magna Electronics Inc. Vehicle vision system with bird's eye view display
CN109934076A (zh) * 2017-12-19 2019-06-25 广州汽车集团股份有限公司 视觉盲区的场景图像的生成方法、装置、***及终端设备
US20200120371A1 (en) * 2018-10-10 2020-04-16 Rovi Guides, Inc. Systems and methods for providing ar/vr content based on vehicle conditions
JP7184591B2 (ja) 2018-10-15 2022-12-06 三菱重工業株式会社 車両用画像処理装置、車両用画像処理方法、プログラムおよび記憶媒体
US10922881B2 (en) * 2018-11-02 2021-02-16 Star Global Expert Solutions Joint Stock Company Three dimensional/360 degree (3D/360°) real-time full information smart management integrated mapping system (SMIMS) and process of generating the same
JP7100574B2 (ja) * 2018-12-21 2022-07-13 ルネサスエレクトロニクス株式会社 半導体装置、画像処理方法およびプログラム
CN110942023A (zh) * 2019-11-25 2020-03-31 鹰驾科技(深圳)有限公司 车辆视觉盲区的指示方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0848198A (ja) * 1994-08-08 1996-02-20 Nissan Motor Co Ltd 車両用周囲モニタ装置
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JPH1178692A (ja) * 1997-09-03 1999-03-23 Nissan Motor Co Ltd 車両用映像提示装置
JPH11331834A (ja) * 1998-05-14 1999-11-30 Niles Parts Co Ltd 車載用映像合成表示装置
JPH11348659A (ja) * 1998-04-07 1999-12-21 Matsushita Electric Ind Co Ltd 車載画像表示装置
JP2000092306A (ja) * 1998-09-10 2000-03-31 Minolta Co Ltd 画像合成方法及びこの方法を用いた画像合成装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58110334A (ja) 1981-12-23 1983-06-30 Hino Motors Ltd 路面視界表示装置
JPS59189781A (ja) 1983-04-12 1984-10-27 Canon Inc 画像処理装置
JPH0399952A (ja) 1989-09-12 1991-04-25 Nissan Motor Co Ltd 車両用周囲状況モニタ
JPH0510869A (ja) 1991-07-04 1993-01-19 Fuji Davison Chem Ltd 吸脱着量測定用装置及び吸脱着量測定方法
CA2132515C (en) * 1992-03-20 2006-01-31 Glen William Auty An object monitoring system
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
US5325449A (en) * 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
US6160849A (en) * 1992-06-29 2000-12-12 Sony Corporation Selectable field and frame based predictive video coding
US5289321A (en) * 1993-02-12 1994-02-22 Secor James O Consolidated rear view camera and display system for motor vehicle
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5574443A (en) * 1994-06-22 1996-11-12 Hsieh; Chi-Sheng Vehicle monitoring apparatus with broadly and reliably rearward viewing
JPH0995194A (ja) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd 車両前方の物体検出装置
JPH09322057A (ja) * 1996-05-28 1997-12-12 Canon Inc 撮像装置
US5680123A (en) * 1996-08-06 1997-10-21 Lee; Gul Nam Vehicle monitoring system
US6058406A (en) * 1998-03-23 2000-05-02 Ati Technolgies, Inc. Variable length fractional bandwidth low-pass filtering
EP0949818A3 (en) * 1998-04-07 2000-10-25 Matsushita Electric Industrial Co., Ltd. On-vehicle image display apparatus, image transmission system, image transmission apparatus, and image capture apparatus
JP3511892B2 (ja) * 1998-05-25 2004-03-29 日産自動車株式会社 車両用周囲モニタ装置
EP1115250B1 (en) * 1998-07-31 2012-06-06 Panasonic Corporation Method and apparatus for displaying image
EP2410741A1 (en) * 1999-04-16 2012-01-25 Panasonic Corporation Image processing apparatus and monitoring system
JP3627914B2 (ja) * 2000-05-23 2005-03-09 シャープ株式会社 車両の周囲監視システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0848198A (ja) * 1994-08-08 1996-02-20 Nissan Motor Co Ltd 車両用周囲モニタ装置
JPH10257482A (ja) * 1997-03-13 1998-09-25 Nissan Motor Co Ltd 車両周辺状況表示装置
JPH1178692A (ja) * 1997-09-03 1999-03-23 Nissan Motor Co Ltd 車両用映像提示装置
JPH11348659A (ja) * 1998-04-07 1999-12-21 Matsushita Electric Ind Co Ltd 車載画像表示装置
JPH11331834A (ja) * 1998-05-14 1999-11-30 Niles Parts Co Ltd 車載用映像合成表示装置
JP2000092306A (ja) * 1998-09-10 2000-03-31 Minolta Co Ltd 画像合成方法及びこの方法を用いた画像合成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101116796B1 (ko) * 2009-10-30 2012-02-28 동의대학교 산학협력단 Most 네트워크 기반의 자동차 사방 감시 시스템
KR101497933B1 (ko) * 2013-08-19 2015-03-03 현대모비스(주) 클러스터링 기법을 이용한 다수 영상의 합성 시스템 및 방법

Also Published As

Publication number Publication date
US7714887B2 (en) 2010-05-11
EP1150252A2 (en) 2001-10-31
KR20010098955A (ko) 2001-11-08
EP1150252A3 (en) 2004-05-19
US20040184638A1 (en) 2004-09-23
US20060203092A1 (en) 2006-09-14
US20020047901A1 (en) 2002-04-25
EP1150252B1 (en) 2018-08-15
US6734896B2 (en) 2004-05-11

Similar Documents

Publication Publication Date Title
KR100737655B1 (ko) 화상처리장치 및 감시시스템
JP3300337B2 (ja) 画像処理装置および監視システム
JP5108840B2 (ja) 車両用周辺監視装置および車両用周辺画像表示方法
JP2931520B2 (ja) 単板式カラービデオカメラの色分離回路
US7932934B2 (en) Image processing method and imaging apparatus using the same
US8139123B2 (en) Imaging device and video signal generating method employed in imaging device
KR101091217B1 (ko) 화상 처리 방법 및 장치, 및 컴퓨터 판독가능 기록매체
WO2005125208A1 (ja) 監視装置および車両周辺監視装置
JP2011091527A (ja) 映像変換装置及び撮像装置
JP2009010730A (ja) 画像処理方法と該画像処理方法を用いた撮像装置
JP4249272B2 (ja) 高解像度の電子式映像拡大装置及びその方法
JP4801654B2 (ja) 合成画像生成装置
JP5195841B2 (ja) 車載カメラ装置および車両
JP4862321B2 (ja) 車載カメラ装置
JP5020792B2 (ja) 合成画像生成装置および合成画像生成方法
KR101339127B1 (ko) 출력 지연으로 인한 노이즈를 제거할 수 있는 차량 어라운드 뷰 영상 생성방법
JP2004260265A (ja) 画素の折り返し機能を有する画素抽出回路、および撮像装置
JP4814752B2 (ja) 表示制御装置
JP2011066498A (ja) 画像処理装置及び車載用撮像システム
JP5606774B2 (ja) 映像表示装置及び映像表示方法
US11997418B2 (en) Indirect viewing system and method for adjusting a frame rate
EP4228247A1 (en) Camera system for motor vehicle and method to operate
JP3347234B2 (ja) 液晶表示装置
JPH08186802A (ja) 飛び越し走査画像の補間画素作成方法
JP2516580B2 (ja) 画像動き検出装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
FPAY Annual fee payment

Payment date: 20130618

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140630

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150619

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160617

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170619

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180619

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190530

Year of fee payment: 13