KR102400726B1 - Method and apparatus for detecting vehicle based on image - Google Patents

Method and apparatus for detecting vehicle based on image Download PDF

Info

Publication number
KR102400726B1
KR102400726B1 KR1020200034162A KR20200034162A KR102400726B1 KR 102400726 B1 KR102400726 B1 KR 102400726B1 KR 1020200034162 A KR1020200034162 A KR 1020200034162A KR 20200034162 A KR20200034162 A KR 20200034162A KR 102400726 B1 KR102400726 B1 KR 102400726B1
Authority
KR
South Korea
Prior art keywords
candidate
wheel
vehicle
input image
candidate wheel
Prior art date
Application number
KR1020200034162A
Other languages
Korean (ko)
Other versions
KR20210117670A (en
Inventor
최현규
김준민
Original Assignee
주식회사 넥스트칩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스트칩 filed Critical 주식회사 넥스트칩
Priority to KR1020200034162A priority Critical patent/KR102400726B1/en
Publication of KR20210117670A publication Critical patent/KR20210117670A/en
Application granted granted Critical
Publication of KR102400726B1 publication Critical patent/KR102400726B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

입력 이미지 내의 차량을 검출하기 위해, 입력 이미지를 수신하고, 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출하고, 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정하고, 후보 바퀴 쌍에 기초하여 입력 이미지 내의 차량을 검출한다.To detect a vehicle in the input image, receive the input image, detect one or more candidate wheels from the input image, determine at least one candidate wheel pair based on the candidate wheels, and determine the input image based on the candidate wheel pair. Detect the vehicle inside.

Description

이미지에 기초한 차량 검출 방법 및 장치{METHOD AND APPARATUS FOR DETECTING VEHICLE BASED ON IMAGE}Image-based vehicle detection method and apparatus

아래의 실시예들은 이미지 내의 차량을 검출하기 위한 기술에 관한 것으로, 보다 상세하게는 이미지 내의 바퀴 쌍을 검출하고, 바퀴 쌍에 기초하여 차량을 검출하는 기술에 관한 것이다.The following embodiments relate to a technique for detecting a vehicle in an image, and more particularly, to a technique for detecting a wheel pair in an image and detecting a vehicle based on the wheel pair.

자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량은 하나 이상의 센서들을 이용하여 차량 주변의 상황을 인식하고, 인식된 상황에 대해 적절한 차량의 제어가 요구된다. 예를 들어, 차량 주변의 상황을 인식하기 위해, 도로의 차선 및 차량 주변의 오브젝트가 검출된다. 차선 또는 오브젝트를 검출하기 위해 차량의 카메라를 이용하여 이미지를 생성하고, 이미지 내의 오브젝트를 식별할 수 있다.An autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS) is required to recognize a situation around the vehicle using one or more sensors, and to appropriately control the vehicle based on the recognized situation. For example, in order to recognize a situation around a vehicle, a lane of a road and an object around the vehicle are detected. An image may be created using a vehicle's camera to detect a lane or object, and an object within the image may be identified.

오브젝트의 종류를 정확히 식별하기 위해서는 사전에 식별 알고리즘을 훈련시켜야 하는데, 예를 들어, 차량의 종류는 매우 다양하기 때문에 식별 알고리즘의 훈련이 어렵고, 인식의 정확도가 떨어진다.In order to accurately identify the type of object, it is necessary to train the identification algorithm in advance. For example, since vehicle types are very diverse, it is difficult to train the identification algorithm and the recognition accuracy is low.

일 실시예는 이미지 내의 차량을 검출하는 장치 및 방법을 제공할 수 있다.One embodiment may provide an apparatus and method for detecting a vehicle in an image.

일 실시예는 이미지 내의 차량 바퀴 쌍을 검출하고, 이에 기초하여 차량을 검출하는 장치 및 방법을 제공할 수 있다.One embodiment may provide an apparatus and method for detecting a vehicle wheel pair in an image and detecting a vehicle based thereon.

일 측면에 따른, 전자 장치에 의해 수행되는 차량 검출 방법은, 입력 이미지를 수신하는 단계, 상기 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출하는 단계, 상기 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정하는 단계, 및 상기 후보 바퀴 쌍에 기초하여 상기 입력 이미지 내의 차량을 검출하는 단계를 포함한다.According to an aspect, a vehicle detection method performed by an electronic device includes: receiving an input image; detecting one or more candidate wheels from the input image; and selecting at least one pair of candidate wheels based on the candidate wheels. determining, and detecting a vehicle in the input image based on the candidate wheel pair.

상기 전자 장치는 차량에 포함되고, 상기 입력 이미지는 상기 차량의 주위를 촬영한 이미지일 수 있다.The electronic device may be included in a vehicle, and the input image may be an image captured around the vehicle.

상기 차량은 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량일 수 있다.The vehicle may be an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS).

상기 입력 이미지로부터 상기 하나 이상의 후보 바퀴들을 검출하는 단계는, 상기 입력 이미지 내에 바퀴가 존재할 수 있는 관심 영역을 설정하는 단계, 및 상기 관심 영역에 기초하여 상기 하나 이상의 후보 바퀴들을 검출하는 단계를 포함한다.The detecting of the one or more candidate wheels from the input image includes setting a region of interest in which a wheel may exist in the input image, and detecting the one or more candidate wheels based on the region of interest. .

상기 입력 이미지 내에 바퀴가 존재할 수 있는 관심 영역을 설정하는 단계는, 상기 입력 이미지 내의 소실점을 결정하는 단계, 및 상기 소실점의 수직 좌표에 기초하여 상기 관심 영역을 설정하는 단계를 포함할 수 있다.Setting a region of interest in which a wheel may exist in the input image may include determining a vanishing point in the input image, and setting the region of interest based on a vertical coordinate of the vanishing point.

상기 입력 이미지 내에 바퀴가 존재할 수 있는 관심 영역을 설정하는 단계는, 상기 입력 이미지를 생성한 카메라의 정보에 기초하여 타겟 수직 좌표를 결정하는 단계, 및 상기 타겟 수직 좌표에 기초하여 상기 관심 영역을 설정하는 단계를 포함할 수 있다.The step of setting a region of interest in which a wheel may exist in the input image may include determining a target vertical coordinate based on information of a camera that generated the input image, and setting the region of interest based on the target vertical coordinate may include the step of

상기 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출하는 단계는, 최초 후보 바퀴 영역을 검출하는 단계, 상기 최초 후보 바퀴 영역의 하단 수직 좌표 및 상단 수직 좌표에 기초하여 상기 최초 후보 바퀴 영역이 미리 설정된 모델의 범위 내에 있는지 여부를 결정하는 단계, 및 상기 최초 후보 바퀴 영역이 상기 모델의 범위 내에 있는 경우 상기 최초 후보 바퀴 영역 내의 바퀴를 후보 바퀴로 결정하는 단계를 포함할 수 있다.The detecting of the one or more candidate wheels from the input image may include: detecting an initial candidate wheel area; a range of a model in which the initial candidate wheel area is preset based on the lower vertical coordinates and the upper vertical coordinates of the first candidate wheel area determining whether the wheel is within the range, and determining a wheel within the initial candidate wheel area as a candidate wheel if the initial candidate wheel area is within the range of the model.

상기 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정하는 단계는, 제1 후보 바퀴 및 제2 후보 바퀴의 상기 입력 이미지 내의 위치들에 기초하여 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴를 제1 후보 바퀴 쌍으로 결정하는 단계를 포함할 수 있다.The determining of the at least one candidate wheel pair based on the candidate wheels may include selecting the first candidate wheel and the second candidate wheel based on positions in the input image of the first candidate wheel and the second candidate wheel. It may include determining the first candidate wheel pair.

상기 제1 후보 바퀴 쌍을 결정하는 단계는, 상기 제1 후보 바퀴의 위치 및 상기 제2 후보 바퀴의 위치 간의 차이가 미리 설정된 범위 내인 경우, 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴를 제1 후보 바퀴 쌍으로 결정하는 단계를 포함할 수 있다.In the determining of the first candidate wheel pair, when a difference between the position of the first candidate wheel and the position of the second candidate wheel is within a preset range, the first candidate wheel and the second candidate wheel are first It may include determining a candidate wheel pair.

상기 후보 바퀴 쌍에 기초하여 상기 입력 이미지 내의 차량을 검출하는 단계는, 제1 후보 바퀴 쌍의 제1 후보 바퀴 및 제2 후보 바퀴 간의 상관도를 계산하는 단계, 상기 계산된 상관도가 미리 설정된 값 이상인 경우 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴의 적어도 일부를 포함하는 영역을 상기 차량의 측면으로 결정하는 단계, 및 상기 차량의 측면의 영역에 기초하여 상기 차량을 검출하는 단계를 포함할 수 있다.The detecting of the vehicle in the input image based on the candidate wheel pair may include calculating a correlation between a first candidate wheel and a second candidate wheel of a first candidate wheel pair, and the calculated correlation is a preset value. In the case of abnormality, the method may include determining an area including at least a portion of the first candidate wheel and the second candidate wheel as the side surface of the vehicle, and detecting the vehicle based on the area of the side surface of the vehicle. have.

상기 제1 후보 바퀴 쌍의 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴 간의 상기 상관도를 계산하는 단계는, 상기 제1 후보 바퀴의 제1 영역 및 상기 제2 후보 바퀴의 제2 영역의 크기를 정규화하는 단계, 및 상기 정규화된 제1 영역 내의 픽셀들의 값들 및 상기 정규화된 제2 영역 내의 픽셀들의 값들에 기초하여 상기 상관도를 계산하는 단계를 포함할 수 있다.The calculating of the correlation between the first candidate wheel and the second candidate wheel of the first candidate wheel pair may include determining the sizes of the first area of the first candidate wheel and the second area of the second candidate wheel. Normalizing, and calculating the correlation based on values of pixels in the normalized first area and values of pixels in the normalized second area.

다른 일 측면에 따른, 차량을 검출하는 방법을 수행하는 전자 장치는, 차량을 검출하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 입력 이미지를 수신하는 단계, 상기 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출하는 단계, 상기 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정하는 단계, 및 상기 후보 바퀴 쌍에 기초하여 상기 입력 이미지 내의 차량을 검출하는 단계를 수행한다.According to another aspect, an electronic device for performing a method for detecting a vehicle includes a memory in which a program for detecting a vehicle is recorded, and a processor for executing the program, the program comprising: receiving an input image; detecting one or more candidate wheels from the input image, determining at least one candidate wheel pair based on the candidate wheels, and detecting a vehicle in the input image based on the candidate wheel pair do.

상기 전자 장치는 차량에 포함되고, 상기 입력 이미지는 상기 차량의 주위를 촬영한 이미지일 수 있다.The electronic device may be included in a vehicle, and the input image may be an image captured around the vehicle.

상기 입력 이미지로부터 상기 하나 이상의 후보 바퀴들을 검출하는 단계는, 상기 입력 이미지 내에 바퀴가 존재할 수 있는 관심 영역을 설정하는 단계, 및 상기 관심 영역에 기초하여 상기 하나 이상의 후보 바퀴들을 검출하는 단계를 포함할 수 있다.Detecting the one or more candidate wheels from the input image may include setting a region of interest in which a wheel may exist in the input image, and detecting the one or more candidate wheels based on the region of interest. can

상기 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출하는 단계는, 최초 후보 바퀴 영역을 검출하는 단계, 상기 최초 후보 바퀴 영역의 하단 수직 좌표 및 상단 수직 좌표에 기초하여 상기 최초 후보 바퀴 영역이 미리 설정된 모델의 범위 내에 있는지 여부를 결정하는 단계, 및 상기 최초 후보 바퀴 영역이 상기 모델의 범위 내에 있는 경우 상기 최초 후보 바퀴 영역 내의 바퀴를 후보 바퀴로 결정하는 단계를 포함할 수 있다.The detecting of the one or more candidate wheels from the input image may include: detecting an initial candidate wheel area; a range of a model in which the initial candidate wheel area is preset based on the lower vertical coordinates and the upper vertical coordinates of the first candidate wheel area determining whether the wheel is within the range, and determining a wheel within the initial candidate wheel area as a candidate wheel if the initial candidate wheel area is within the range of the model.

상기 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정하는 단계는, 제1 후보 바퀴 및 제2 후보 바퀴의 상기 입력 이미지 내의 위치들에 기초하여 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴를 제1 후보 바퀴 쌍으로 결정하는 단계를 포함할 수 있다.The determining of the at least one candidate wheel pair based on the candidate wheels may include selecting the first candidate wheel and the second candidate wheel based on positions in the input image of the first candidate wheel and the second candidate wheel. It may include determining the first candidate wheel pair.

상기 후보 바퀴 쌍에 기초하여 상기 입력 이미지 내의 차량을 검출하는 단계는, 제1 후보 바퀴 쌍의 제1 후보 바퀴 및 제2 후보 바퀴 간의 상관도를 계산하는 단계, 상기 계산된 상관도가 미리 설정된 값 이상인 경우 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴의 적어도 일부를 포함하는 영역을 상기 차량의 측면으로 결정하는 단계, 및 상기 차량의 측면의 영역에 기초하여 상기 차량을 검출하는 단계를 포함할 수 있다.The detecting of the vehicle in the input image based on the candidate wheel pair may include calculating a correlation between a first candidate wheel and a second candidate wheel of a first candidate wheel pair, and the calculated correlation is a preset value. In the case of abnormality, the method may include determining an area including at least a portion of the first candidate wheel and the second candidate wheel as the side surface of the vehicle, and detecting the vehicle based on the area of the side surface of the vehicle. have.

상기 제1 후보 바퀴 쌍의 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴 간의 상기 상관도를 계산하는 단계는, 상기 제1 후보 바퀴의 제1 영역 및 상기 제2 후보 바퀴의 제2 영역의 크기를 정규화하는 단계, 및 상기 정규화된 제1 영역 내의 픽셀들의 값들 및 상기 정규화된 제2 영역 내의 픽셀들의 값들에 기초하여 상기 상관도를 계산하는 단계를 포함할 수 있다.The calculating of the correlation between the first candidate wheel and the second candidate wheel of the first candidate wheel pair may include determining the sizes of the first area of the first candidate wheel and the second area of the second candidate wheel. Normalizing, and calculating the correlation based on values of pixels in the normalized first area and values of pixels in the normalized second area.

이미지 내의 차량을 검출하는 장치 및 방법이 제공될 수 있다.An apparatus and method for detecting a vehicle in an image may be provided.

이미지 내의 차량 바퀴 쌍을 검출하고, 이에 기초하여 차량을 검출하는 장치 및 방법이 제공될 수 있다.An apparatus and method may be provided for detecting a vehicle wheel pair in an image and detecting a vehicle based thereon.

도 1은 일 예에 따른 입력 이미지를 도시한다.
도 2는 일 실시예에 따른 전자 장치의 구성도이다.
도 3은 일 실시예에 따른 차량 검출 방법의 흐름도이다.
도 4는 일 예에 따른 관심 영역에 기초하여 후보 바퀴들을 검출하는 방법의 흐름도이다.
도 5는 일 예에 따른 소실점에 기초하여 관심 영역을 설정하는 하는 방법의 흐름도이다
도 6은 일 예에 따른 입력 이미지 내의 소실점을 도시한다.
도 7은 일 예에 따른 카메라 정보에 기초하여 결정된 타겟 수직 좌표에 기초하여 관심 영역을 설정하는 방법의 흐름도이다.
도 8은 일 예에 따른 미리 설정된 모델에 기초하여 후보 바퀴를 결정하는 방법의 흐름도이다.
도 9는 일 예에 따른 입력 이미지 내에 결정된 최초 후보 바퀴들을 도시한다.
도 10은 일 예에 따른 미리 설정된 모델을 도시한다.
도 11은 일 예에 따른 후보 바퀴 쌍의 바퀴들 간의 상관도에 기초하여 차량을 검출하는 방법의 흐름도이다.
도 12는 일 예에 따른 차량의 측면 영역에 기초하여 검출된 차량을 도시한다.
도 13은 일 예에 따른 크기가 정규화된 후보 바퀴들의 영역들에 기초하여 후보 바퀴들 간의 상관도를 계산하는 방법의 흐름도이다.
1 illustrates an input image according to an example.
2 is a block diagram of an electronic device according to an exemplary embodiment.
3 is a flowchart of a vehicle detection method according to an exemplary embodiment.
4 is a flowchart of a method of detecting candidate wheels based on a region of interest according to an example.
5 is a flowchart of a method of setting a region of interest based on a vanishing point according to an example;
6 illustrates a vanishing point in an input image according to an example.
7 is a flowchart of a method of setting an ROI based on a target vertical coordinate determined based on camera information according to an example.
8 is a flowchart of a method of determining a candidate wheel based on a preset model according to an example.
9 illustrates initial candidate wheels determined in an input image according to an example.
10 illustrates a preset model according to an example.
11 is a flowchart of a method of detecting a vehicle based on a correlation between wheels of a candidate wheel pair according to an example.
12 illustrates a vehicle detected based on a side area of the vehicle according to an example.
13 is a flowchart of a method of calculating a degree of correlation between candidate wheels based on regions of candidate wheels whose sizes are normalized according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for the purpose of description only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or a combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. In addition, in describing the components of the embodiment, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is "connected", "coupled" or "connected" to another component, the component may be directly connected or connected to the other component, but another component is between each component. It will be understood that may also be "connected", "coupled" or "connected".

어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.Components included in one embodiment and components having a common function will be described using the same names in other embodiments. Unless otherwise stated, descriptions described in one embodiment may be applied to other embodiments as well, and detailed descriptions within the overlapping range will be omitted.

도 1은 일 예에 따른 입력 이미지를 도시한다.1 illustrates an input image according to an example.

일 측면에 따르면, 차량(102)의 정면을 촬영한 입력 이미지를 이용하여 입력 이미지 내의 차량들(104, 106)이 검출될 수 있다. 검출된 차량들(104, 106)에 대한 정보를 차량(102)의 제어를 위해 이용될 수 있다. 예를 들어, 차량(102)이 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량인 경우, 차량(102)의 주행 경로를 생성하기 위해 차량들(104, 106)에 대한 정보가 이용될 수 있다.According to one aspect, the vehicles 104 and 106 in the input image may be detected using the input image obtained by photographing the front of the vehicle 102 . Information about the detected vehicles 104 , 106 may be used for controlling the vehicle 102 . For example, when the vehicle 102 is an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS), information about the vehicles 104 and 106 is used to generate a driving route of the vehicle 102 . can be

차량들(104, 106)을 정확히 식별하기 위해서는 사전에 차량의 외형을 식별하는 알고리즘을 훈련시켜야 하는데, 차량의 종류는 매우 다양하기 때문에 식별 알고리즘의 훈련이 어렵고, 인식의 정확도가 떨어질 수 있다.In order to accurately identify the vehicles 104 and 106, it is necessary to train an algorithm for identifying the exterior of the vehicle in advance. Since the types of vehicles are very diverse, it is difficult to train the identification algorithm, and the recognition accuracy may be reduced.

이에 반하여, 차량의 바퀴는 ISO5775에 국제 규격이 정의되어 있으며, 일반적인 차량의 바퀴의 높이는 13 내지 23인치 사이에 분포되어 있다. 이에 따라, 차량의 바퀴를 검출하는 알고리즘의 훈련이 비교적 쉬워지고, 바퀴 검출의 정확도도 높다. 바퀴는 지면 또는 도로와 맞닿아 있고, 일반적으로 차량은 4개의 바퀴를 가지므로, 이러한 제한 조건들을 이용하여 차량이 검출될 수 있다.In contrast, the international standard for vehicle wheels is defined in ISO5775, and the wheel height of a general vehicle is distributed between 13 and 23 inches. Accordingly, training of the algorithm for detecting the wheels of the vehicle becomes relatively easy, and the accuracy of the wheel detection is also high. Since the wheel is in contact with the ground or road, and the vehicle generally has four wheels, the vehicle can be detected using these restrictions.

아래에서 도 2 내지 도 13을 참조하여 이미지 내에서 검출된 바퀴에 기초하여 차량을 검출하는 방법에 대해 상세히 설명된다.A method of detecting a vehicle based on a wheel detected in an image will be described in detail below with reference to FIGS. 2 to 13 .

도 2는 일 실시예에 따른 전자 장치의 구성도이다.2 is a block diagram of an electronic device according to an exemplary embodiment.

전자 장치(200)는 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다. 예를 들어, 전자 장치(200)은 도 1을 참조하여 차량(102)에 포함할 수 있다. 일 측면에 따르면, 전자 장치(200)는 차량(102)의 주위 장면을 촬영함으로써 입력 이미지를 생성하는 카메라(240)를 더 포함할 수 있다.The electronic device 200 includes a communication unit 210 , a processor 220 , and a memory 230 . For example, the electronic device 200 may be included in the vehicle 102 with reference to FIG. 1 . According to one aspect, the electronic device 200 may further include a camera 240 that generates an input image by photographing a scene around the vehicle 102 .

통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The communication unit 210 is connected to the processor 220 and the memory 230 to transmit and receive data. The communication unit 210 may be connected to another external device to transmit/receive data. Hereinafter, the expression "transmitting and receiving "A" may indicate transmitting and receiving "information or data representing A".

통신부(210)는 전자 장치(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 전자 장치(200)과 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.The communication unit 210 may be implemented as circuitry in the electronic device 200 . For example, the communication unit 210 may include an internal bus and an external bus. As another example, the communication unit 210 may be an element that connects the electronic device 200 and an external device. The communication unit 210 may be an interface. The communication unit 210 may receive data from an external device and transmit the data to the processor 220 and the memory 230 .

프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 220 processes data received by the communication unit 210 and data stored in the memory 230 . A “processor” may be a data processing device implemented in hardware having circuitry having a physical structure for performing desired operations. For example, desired operations may include code or instructions included in a program. For example, a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).

프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.Processor 220 executes computer readable code (eg, software) stored in memory (eg, memory 230 ) and instructions issued by processor 220 .

메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램(또는 어플리케이션, 소프트웨어)을 저장할 수 있다. 저장되는 프로그램은 이미지 내의 차량을 검출할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The memory 230 stores data received by the communication unit 210 and data processed by the processor 220 . For example, the memory 230 may store a program (or an application, software). The stored program may be a set of syntaxes coded to detect a vehicle in an image and executable by the processor 220 .

일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to one aspect, memory 230 may include one or more of volatile memory, non-volatile memory and random access memory (RAM), flash memory, hard disk drive, and optical disk drive.

메모리(230)는 전자 장치(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 전자 장치(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.The memory 230 stores an instruction set (eg, software) for operating the electronic device 200 . The instruction set for operating the electronic device 200 is executed by the processor 220 .

통신부(210), 프로세서(220) 및 메모리(230)에 대해, 아래에서 도 3 내지 도 13을 참조하여 상세히 설명된다.The communication unit 210 , the processor 220 , and the memory 230 will be described in detail below with reference to FIGS. 3 to 13 .

도 3은 일 실시예에 따른 차량 검출 방법의 흐름도이다.3 is a flowchart of a vehicle detection method according to an exemplary embodiment.

아래의 단계들(310 내지 340)은 도 2를 참조하여 전술된 전자 장치(200)에 의해 수행된다.The following steps 310 to 340 are performed by the electronic device 200 described above with reference to FIG. 2 .

단계(310)에서, 전자 장치(200)는 입력 이미지를 수신한다. 예를 들어, 카메라(240)는 차량의 주위 장면(예를 들어, 정면)을 촬영함으로써 입력 이미지를 생성할 수 있다.In step 310 , the electronic device 200 receives an input image. For example, the camera 240 may generate an input image by photographing a scene around the vehicle (eg, the front).

단계(320)에서, 전자 장치(200)는 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출한다. 예를 들어, 전자 장치(200)는 이미지 내의 바퀴 형상을 검출하도록 미리 훈련된 알고리즘을 이용하여 후보 바퀴들을 검출할 수 있다.In step 320 , the electronic device 200 detects one or more candidate wheels from the input image. For example, the electronic device 200 may detect candidate wheels by using a pre-trained algorithm to detect a wheel shape in an image.

후보 바퀴들을 정확하고, 빠르게 검출하기 위해 추가의 조건들이 부가될 수 있다. 추가의 조건들에 기초하여 후보 바퀴들을 검출하는 방법이 아래에서 도 4 내지 도 10을 참조하여 상세히 설명된다.Additional conditions may be added to accurately and quickly detect candidate wheels. A method of detecting candidate wheels based on additional conditions is described in detail below with reference to FIGS. 4 to 10 .

단계(330)에서, 전자 장치(200)는 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정한다.In operation 330 , the electronic device 200 determines at least one candidate wheel pair based on the candidate wheels.

일 측면에 따르면, 전자 장치(200)는 제1 후보 바퀴 및 제2 후보 바퀴의 입력 이미지 내의 위치들에 기초하여 제1 후보 바퀴 및 제2 후보 바퀴를 제1 후보 바퀴 쌍으로 결정할 수 있다. 예를 들어, 제1 후보 바퀴의 위치 및 제2 후보 바퀴의 위치 간의 차이가 미리 설정된 범위 내인 경우, 제1 후보 바퀴 및 제2 후보 바퀴가 제1 후보 바퀴 쌍으로 결정될 수 있다. 제1 후보 바퀴의 위치 및 제2 후보 바퀴의 위치 간의 차이는 실제의 공간 상에서의 제1 후보 바퀴의 위치 제2 후보 바퀴의 위치 간의 차이일 수 있다. 전자 장치(200)는 이미지 내의 제1 후보 바퀴의 위치 및 제2 후보 바퀴의 위치에 기초하여 실제의 공간 상에서의 제1 후보 바퀴의 위치 제2 후보 바퀴의 위치를 계산할 수 있다. 일반적으로, 차량의 전방 바퀴와 후방 바퀴 사이의 폭은 1.6 내지 5 미터이므로, 이러한 정보에 기초하여 후보 바퀴들 간의 차이에 대한 범위가 미리 설정될 수 있다.According to an aspect, the electronic device 200 may determine the first candidate wheel and the second candidate wheel as the first candidate wheel pair based on positions of the first candidate wheel and the second candidate wheel in the input image. For example, when the difference between the position of the first candidate wheel and the position of the second candidate wheel is within a preset range, the first candidate wheel and the second candidate wheel may be determined as the first candidate wheel pair. The difference between the position of the first candidate wheel and the position of the second candidate wheel may be a difference between the position of the first candidate wheel and the position of the second candidate wheel in the actual space. The electronic device 200 may calculate the position of the first candidate wheel in the real space and the position of the second candidate wheel based on the position of the first candidate wheel and the position of the second candidate wheel in the image. In general, since the width between the front wheel and the rear wheel of the vehicle is 1.6 to 5 meters, a range for the difference between the candidate wheels may be preset based on this information.

단계(340)에서, 전자 장치(200)는 후보 바퀴 쌍에 기초하여 입력 이미지 내의 차량을 검출한다. 예를 들어, 후보 바퀴 쌍이 결정된 경우, 후보 바퀴 쌍에 의해 차량의 측면 영역이 결정되고, 차량의 측면 영역을 포함하는 오브젝트가 차량으로 검출될 수 있다.In step 340 , the electronic device 200 detects a vehicle in the input image based on the candidate wheel pair. For example, when a candidate wheel pair is determined, a side area of the vehicle may be determined by the candidate wheel pair, and an object including the side area of the vehicle may be detected as a vehicle.

아래에서 도 11 내지 13을 참조하여 후보 바퀴 쌍에 기초하여 입력 이미지 내의 차량을 검출하는 방법에 대해, 상세히 설명된다.A method of detecting a vehicle in an input image based on a candidate wheel pair will be described in detail below with reference to FIGS. 11 to 13 .

도 4는 일 예에 따른 관심 영역에 기초하여 후보 바퀴들을 검출하는 방법의 흐름도이다.4 is a flowchart of a method of detecting candidate wheels based on a region of interest according to an example.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(320)는 아래의 단계들(410 및 420)을 포함할 수 있다.According to one aspect, the step 320 described above with reference to FIG. 3 may include the following steps 410 and 420 .

단계(410)에서, 전자 장치(200)는 입력 이미지 내에 바퀴가 존재할 수 있는 관심 영역을 설정한다. 예를 들어, 관심 영역은 입력 이미지 내의 소실점에 기초하여 설정될 수 있다. 다른 예로, 관심 영역은 입력 이미지를 생성한 카메라의 정보에 기초하여 설정될 수 있다.In operation 410 , the electronic device 200 sets a region of interest in which a wheel may exist in the input image. For example, the region of interest may be set based on a vanishing point in the input image. As another example, the region of interest may be set based on information of a camera that has generated an input image.

단계(420)에서, 전자 장치(200)는 관심 영역에 기초하여 후보 바퀴들을 검출한다. 입력 이미지의 전체 영역이 아닌 관심 영역에 대해서만 바퀴를 검출하므로 검출의 정확도 및 속도가 증가할 수 있다.In operation 420 , the electronic device 200 detects candidate wheels based on the ROI. Since the wheel is detected only for the region of interest rather than the entire region of the input image, the accuracy and speed of detection may be increased.

도 5는 일 예에 따른 소실점에 기초하여 관심 영역을 설정하는 하는 방법의 흐름도이다5 is a flowchart of a method of setting a region of interest based on a vanishing point according to an example;

일 측면에 따르면, 도 4를 참조하여 전술된 단계(410)는 아래의 단계들(510 및 520)을 포함할 수 있다.According to one aspect, the step 410 described above with reference to FIG. 4 may include the following steps 510 and 520 .

단계(510)에서, 전자 장치(200)는 입력 이미지 내의 소실점을 결정한다. 예를 들어, 입력 이미지 내의 엣지들이 수렴되는 지점이 소실점으로 결정될 수 있다. 소실점을 결정하기 위해 다양한 알고리즘이 이용될 수 있고, 특정한 알고리즘으로 한정되지 않는다. 소실점의 위치는 입력 이미지 중 특정 픽셀의 좌표일 수 있다.In operation 510 , the electronic device 200 determines a vanishing point in the input image. For example, a point at which edges in the input image converge may be determined as the vanishing point. Various algorithms may be used to determine the vanishing point, and it is not limited to a specific algorithm. The position of the vanishing point may be a coordinate of a specific pixel in the input image.

단계(520)에서, 전자 장치(200)는 소실점의 수직 좌표에 기초하여 관심 영역을 설정한다. 소실점의 수직 좌표 보다 아래의 영역이 관심 영역으로 설정될 수 있다.In operation 520 , the electronic device 200 sets the ROI based on the vertical coordinates of the vanishing point. A region below the vertical coordinate of the vanishing point may be set as the region of interest.

도 6은 일 예에 따른 입력 이미지 내의 소실점을 도시한다.6 illustrates a vanishing point in an input image according to an example.

입력 이미지(100) 내의 소실점(610)이 결정될 수 있고, 소실점(610)의 수직 좌표(예를 들어, y축 좌표) 보다 아래의 영역이 관심 영역(620)으로 설정될 수 있다. 차량의 바퀴는 지면에 밀착하는 것이 제한 조건이므로, 이러한 제한 조건의 하나로써 소실점(610)이 이용될 수 있다.A vanishing point 610 in the input image 100 may be determined, and a region below the vertical coordinate (eg, y-axis coordinate) of the vanishing point 610 may be set as the ROI 620 . Since the wheel of the vehicle is in close contact with the ground as a limiting condition, the vanishing point 610 may be used as one of these limiting conditions.

입력 이미지(100)의 전체가 아닌 관심 영역(620)에서만 바퀴가 검출되므로, 검출의 정확도 및 속도가 증가할 수 있다.Since the wheel is detected only in the region of interest 620 rather than the entire input image 100 , the accuracy and speed of detection may be increased.

도 7은 일 예에 따른 카메라 정보에 기초하여 결정된 타겟 수직 좌표에 기초하여 관심 영역을 설정하는 방법의 흐름도이다.7 is a flowchart of a method of setting an ROI based on a target vertical coordinate determined based on camera information according to an example.

다른 일 측면에 따르면, 도 4를 참조하여 전술된 단계(410)는 아래의 단계들(710 및 720)을 포함할 수 있다.According to another aspect, the step 410 described above with reference to FIG. 4 may include the following steps 710 and 720 .

단계(710)에서, 전자 장치(200)는 입력 이미지를 생성한 카메라(240)의 정보에 기초하여 타겟 수직 좌표를 결정한다. 카메라(240)의 정보는 차량 내의 카메라(240)의 설치 위치, 카메라(240)의 외부 파라미터, 내부 파라미터 및 카메라(240)의 촬영 자세(예를 들어, 자이로 센서를 이용하여 측정) 등을 포함할 수 있다. 타겟 수직 좌표는 바퀴가 존재할 수 있는 입력 이미지 내에 나타나는 지면의 최대 높이일 수 있다.In operation 710 , the electronic device 200 determines the target vertical coordinates based on information of the camera 240 that has generated the input image. The information of the camera 240 includes an installation position of the camera 240 in the vehicle, external parameters of the camera 240, internal parameters, and a photographing posture of the camera 240 (eg, measured using a gyro sensor), etc. can do. The target vertical coordinate may be the maximum height of the ground that appears in the input image at which the wheel may be present.

예를 들어, 상기의 방법은 입력 이미지 내의 소실점을 결정할 수 없는 경우에 이용될 수 있다.For example, the above method may be used when the vanishing point in the input image cannot be determined.

단계(720)에서, 전자 장치(200)는 타겟 수직 좌표에 기초하여 관심 영역을 설정한다. 타겟 수직 좌표 보다 아래의 영역이 관심 영역으로 설정될 수 있다.In operation 720, the electronic device 200 sets the ROI based on the target vertical coordinate. A region below the target vertical coordinate may be set as the region of interest.

도 8은 일 예에 따른 미리 설정된 모델에 기초하여 후보 바퀴를 결정하는 방법의 흐름도이다.8 is a flowchart of a method of determining a candidate wheel based on a preset model according to an example.

일 측면에 따르면, 도 3를 참조하여 전술된 단계(320)는 아래의 단계들(810 내지 840)을 포함할 수 있다.According to one aspect, the step 320 described above with reference to FIG. 3 may include the following steps 810 to 840 .

단계(810)에서, 전자 장치(200)는 최초 바퀴 영역을 검출한다. 예를 들어, 최초 바퀴 영역은 바퀴 검출 알고리즘을 이용하여 입력 이미지 또는 입력 이미지의 관심 영역 내에서 검출된 바퀴의 영역일 수 있다. 최초 바퀴 영역을 검출하는 방법에 대해, 아래에서 도 9를 참조하여 상세히 설명된다.In operation 810 , the electronic device 200 detects an initial wheel area. For example, the initial wheel area may be an input image or a wheel area detected within a region of interest of the input image using a wheel detection algorithm. A method of detecting the initial wheel area will be described in detail below with reference to FIG. 9 .

단계(820)에서, 전자 장치(200)는 최초 바퀴 영역이 미리 설정된 모델의 범위 내에 있는지 여부를 결정한다. 예를 들어, 모델은 다양한 입력 이미지들 내에서 나타나는 바퀴들의 크기를 GT(Ground Truth)로 하는 데이터들에 기초하여 생성된 모델일 수 있다. 실제로 동일한 바퀴인 경우에도, 이미지 내의 좌표(더욱 구체적으로, 수직 좌표)에 따라 이미지 내에서 나타나는 크기가 달라질 수 있다. 예를 들어, 이미지의 하단에 위치할수록 바퀴의 크기가 커지고, 이미지의 상단에 위치할수록 바퀴의 크기가 작아진다. 모델에 대해, 아래에서 도 10을 참조하여 상세히 설명된다.In operation 820 , the electronic device 200 determines whether the initial wheel area is within a range of a preset model. For example, the model may be a model generated based on data using the size of wheels appearing in various input images as ground truth (GT). Even in the case of actually the same wheel, the size displayed in the image may vary according to coordinates (more specifically, vertical coordinates) in the image. For example, the size of the wheel increases as it is positioned at the bottom of the image, and the size of the wheel decreases as it is positioned at the top of the image. The model is described in detail below with reference to FIG. 10 .

도 9는 일 예에 따른 입력 이미지 내에 결정된 최초 후보 바퀴들을 도시한다.9 illustrates initial candidate wheels determined in an input image according to an example.

일 측면에 따르면, 입력 이미지(100) 내의 하나 이상의 최초 후보 바퀴들(910, 920, 930 및 940)이 검출될 수 있다. 최초 후보 바퀴를 포함하는 영역이 최초 후보 바퀴 영역으로 명명될 수 있다.According to one aspect, one or more initial candidate wheels 910 , 920 , 930 and 940 in the input image 100 may be detected. An area including the initial candidate wheel may be referred to as an initial candidate wheel area.

최초 후보 바퀴(910)의 하단 수직 좌표(911) 및 상단 수직 좌표(912)가 결정될 수 있다. 수직 좌표는 입력 이미지(100) 내의 좌표 일 수 있다. 하단 수직 좌표(911) 및 상단 수직 좌표(912) 간의 차이(913)가 바퀴 영역의 높이로서 계산될 수 있다. 차이(913)는 하단 수직 좌표(911)의 픽셀 및 상단 수직 좌표(912)의 픽셀 사이에 존재하는 픽셀들의 개수에 기초하여 표현되는 길이일 수 있다.The lower vertical coordinate 911 and the upper vertical coordinate 912 of the initial candidate wheel 910 may be determined. The vertical coordinates may be coordinates in the input image 100 . The difference 913 between the bottom vertical coordinate 911 and the top vertical coordinate 912 may be calculated as the height of the wheel area. The difference 913 may be a length expressed based on the number of pixels existing between the pixel at the bottom vertical coordinate 911 and the pixel at the top vertical coordinate 912 .

최초 후보 바퀴(910) 및 최초 후보 바퀴(920)가 실제로는 동일한 제품인 경우에도, 입력 이미지(100) 내에서 나타나는 최초 후보 바퀴(910)의 크기 및 최초 후보 바퀴(920)의 크기가 서로 상이할 수 있다. 이에 따라, 최초 후보 바퀴(910)에 대한 차이(913) 및 최초 후보 바퀴(920)에 대한 차이는 서로 상이하다.Even when the initial candidate wheel 910 and the initial candidate wheel 920 are actually the same product, the size of the initial candidate wheel 910 and the size of the initial candidate wheel 920 appearing in the input image 100 may be different from each other. can Accordingly, the difference 913 with respect to the initial candidate wheel 910 and the difference with respect to the initial candidate wheel 920 are different from each other.

최초 후보 바퀴(910)의 하단 수직 좌표(911) 및 차이(913) 간의 관계가 반영되도록 모델이 미리 설정될 수 있다.The model may be preset so that the relationship between the lower vertical coordinate 911 and the difference 913 of the initial candidate wheel 910 is reflected.

도 10은 일 예에 따른 미리 설정된 모델을 도시한다.10 illustrates a preset model according to an example.

일 측면에 따르면, 다양한 입력 이미지들 내에서 실제로 나타나는 바퀴들에 대해, 바퀴 영역 하단 픽셀의 수직 위치(예를 들어, 하단 수직 좌표(911))와 바퀴 영역의 높이(예를 들어, 차이(913)) 간의 관계가 그래프 상에 나타날 수 있다. 그래프 상의 데이터들은 Ground Truth이다.According to one aspect, for the wheels that actually appear in the various input images, the vertical position of the pixel at the bottom of the wheel area (eg, bottom vertical coordinate 911 ) and the height of the wheel area (eg, the difference 913 ) )) can be shown on the graph. The data on the graph is ground truth.

일 측면에 따르면, 그래프 상에 나타나는 데이터들을 대표적으로 나타낼 수 있는 대표 선(1010)이 계산될 수 있고, 대표 선(1010)에 기초하여 경계 선들(1020 및 1030)이 결정될 수 있다. 경계 선들(1020 및 1030)은 대표 선(1010)에서 허용할 수 있는 분산의 정도를 나타낼 수 있다. 경계 선들(1020 및 1030) 내의 영역이 모델의 범위일 수 있다.According to an aspect, a representative line 1010 that can represent data appearing on a graph may be calculated, and boundary lines 1020 and 1030 may be determined based on the representative line 1010 . The boundary lines 1020 and 1030 may indicate an allowable degree of dispersion in the representative line 1010 . The area within the boundary lines 1020 and 1030 may be the extent of the model.

모델은 경계 선들(1020 및 1030)에 기초하여 미리 설정될 수 있고, 최초 후보 바퀴의 데이터가 경계 선들(1020 및 1030) 내에 존재하는 경우, 최초 후보 바퀴가 후보 바퀴로 결정될 수 있다. 최초 후보 바퀴의 데이터가 경계 선들(1020 및 1030) 내에 존재하지 않는 경우, 최초 후보 바퀴는 후보 바퀴로 결정되지 않는다.The model may be preset based on the boundary lines 1020 and 1030 , and when data of an initial candidate wheel exists within the boundary lines 1020 and 1030 , the initial candidate wheel may be determined as a candidate wheel. If the data of the first candidate wheel does not exist within the boundary lines 1020 and 1030, the initial candidate wheel is not determined as the candidate wheel.

도 11은 일 예에 따른 후보 바퀴 쌍의 바퀴들 간의 상관도에 기초하여 차량을 검출하는 방법의 흐름도이다.11 is a flowchart of a method of detecting a vehicle based on a correlation between wheels of a candidate wheel pair according to an example.

일 측면에 따르면, 도 3를 참조하여 전술된 단계(340)는 아래의 단계들(1110 내지 1140)을 포함할 수 있다.According to one aspect, the step 340 described above with reference to FIG. 3 may include the following steps 1110 to 1140 .

단계(1110)에서, 전자 장치(200)는 제1 후보 바퀴 쌍의 제1 후보 바퀴 및 제2 후보 바퀴 간의 상관도를 계산한다. 제1 후보 바퀴 및 제2 후보 바퀴가 지리적인 제한 조건을 만족하여 제1 후보 바퀴 쌍을 형성하는 경우라도, 추가의 제한 조건이 부가될 수 있다. 예를 들어, 추가의 제한 조건은 제1 후보 바퀴 및 제2 후보 바퀴 간의 형태적 유사도일 수 있다. 동일한 차량에서 전방 바퀴와 후방 바퀴는 형태적으로 유사한 경우가 많으므로, 후보 바퀴들 간의 형태적 유사도를 제한 조건으로 설정할 수 있다.In operation 1110 , the electronic device 200 calculates a correlation between the first candidate wheel and the second candidate wheel of the first candidate wheel pair. Even when the first candidate wheel and the second candidate wheel satisfy the geographical constraint to form the first candidate wheel pair, an additional constraint may be added. For example, the additional constraint may be a morphological similarity between the first candidate wheel and the second candidate wheel. In the same vehicle, since the front wheel and the rear wheel are morphologically similar in many cases, the morphological similarity between candidate wheels may be set as a limiting condition.

후보 바퀴들 간의 상관도를 계산하는 방법에 대해, 아래에서 도 13을 참조하여 상세히 설명된다.A method of calculating the degree of correlation between candidate wheels will be described in detail below with reference to FIG. 13 .

단계(1120)에서, 전자 장치(200)는 계산된 상관도가 미리 설정된 값 이상인지 여부를 결정할 수 있다. 계산된 상관도가 미리 설정된 값 미만인 경우, 제1 후보 바퀴 및 제2 후보 바퀴 간의 쌍을 해제하고, 제1 후보 바퀴에 대한 쌍을 재결정할 수 있다.In operation 1120 , the electronic device 200 may determine whether the calculated correlation is equal to or greater than a preset value. When the calculated correlation is less than a preset value, the pair between the first candidate wheel and the second candidate wheel may be released, and the pair for the first candidate wheel may be re-determined.

단계(1130)에서, 전자 장치(200)는 제1 후보 바퀴 및 제2 후보 바퀴의 적어도 일부를 포함하는 영역을 차량의 측면으로 결정한다.In operation 1130 , the electronic device 200 determines an area including at least a portion of the first candidate wheel and the second candidate wheel as the side surface of the vehicle.

단계(1140)에서, 전자 장치(200)는 차량의 측면의 영역에 기초하여 차량을 검출한다. 예를 들어, 차량의 측면의 영역과 연결되는 영역들을 추가로 결정하고, 해당 영역들을 차량의 영역들로 결정한다.In operation 1140 , the electronic device 200 detects the vehicle based on the area of the side of the vehicle. For example, areas connected to the area of the side of the vehicle are further determined, and the areas are determined as areas of the vehicle.

도 12는 일 예에 따른 차량의 측면 영역에 기초하여 검출된 차량을 도시한다.12 illustrates a vehicle detected based on a side area of the vehicle according to an example.

예를 들어, 제1 후보 바퀴(1201) 및 제2 후보 바퀴(1202)의 적어도 일부를 포함하는 차량(104)의 측면의 영역(102)이 결정될 수 있다. 영역(102)이 결정된 경우, 영역(102)과 연결되는 추가의 영역(1212)이 결정될 수 있다. 영역들(1210 및 1212)에 기초하여 차량(104)이 검출될 수 있다.For example, the area 102 of the side of the vehicle 104 that includes at least a portion of the first candidate wheel 1201 and the second candidate wheel 1202 may be determined. Once the region 102 has been determined, an additional region 1212 connected to the region 102 may be determined. Vehicle 104 may be detected based on regions 1210 and 1212 .

차량(104)과 유사하게, 차량(106)에 대해 영역들(1220 및 1222)이 결정되고, 영역들(1220 및 1222)에 기초하여 차량(106)이 검출될 수 있다.Similar to vehicle 104 , regions 1220 and 1222 may be determined for vehicle 106 , and vehicle 106 may be detected based on regions 1220 and 1222 .

도 13은 일 예에 따른 크기가 정규화된 후보 바퀴들의 영역들에 기초하여 후보 바퀴들 간의 상관도를 계산하는 방법의 흐름도이다.13 is a flowchart of a method of calculating a degree of correlation between candidate wheels based on regions of candidate wheels whose sizes are normalized according to an example.

일 측면에 따르면, 도 11을 참조하여 전술된 단계(1110)는 아래의 단계들(1310 내지 1320)을 포함할 수 있다.According to one aspect, the step 1110 described above with reference to FIG. 11 may include the following steps 1310 to 1320 .

단계(1310)에서, 전자 장치(200)는 제1 후보 바퀴의 제1 영역 및 제2 후보 바퀴의 제2 영역의 크기를 정규화한다. 제1 후보 바퀴 및 제2 후보 바퀴가 실제로 동일한 바퀴이더라도, 입력 이미지 내의 원근감에 의해 제1 영역의 크기 및 제2 영역의 크기가 서로 달라질 수 있다. 이에 따라, 비교를 위해 제1 영역 및 제2 영역의 크기가 정규화될 수 있다.In operation 1310 , the electronic device 200 normalizes the sizes of the first area of the first candidate wheel and the second area of the second candidate wheel. Even if the first candidate wheel and the second candidate wheel are actually the same wheel, the size of the first area and the size of the second area may be different from each other due to the perspective in the input image. Accordingly, sizes of the first region and the second region may be normalized for comparison.

예를 들어, 미리 설정된 크기인 20 x 50 픽셀들을 갖도록 제1 영역 및 제2 영역의 크기가 조정될 수 있다. 영역의 크기가 20 x 50 보다 큰 경우에는 샘플링을 통해 크기가 조정될 수 있고, 영역의 크기가 20 x 50 보다 작은 경우에는 보간(interpolation)을 통해 크기가 조정될 수 있다.For example, the sizes of the first area and the second area may be adjusted to have 20 x 50 pixels, which are preset sizes. When the size of the region is larger than 20 x 50, the size may be adjusted through sampling, and when the size of the region is smaller than 20 x 50, the size may be adjusted through interpolation.

단계(1320)에서, 전자 장치(200)는 정규화된 제1 영역 및 제2 영역 내의 픽셀들의 값들에 기초하여 제1 후보 바퀴 및 제2 후보 바퀴 간의 상관도가 계산된다. 아래의 [수학식 1]을 이용하여 상관도가 계산된다. 상관도는 Normalized Cross Correlation을 통해 계산될 수 있다.In operation 1320 , the electronic device 200 calculates a correlation between the first candidate wheel and the second candidate wheel based on values of pixels in the normalized first and second regions. The correlation is calculated using [Equation 1] below. Correlation can be calculated through Normalized Cross Correlation.

[수학식 1][Equation 1]

Figure 112020029385395-pat00001
Figure 112020029385395-pat00001

[수학식 1]에서, 제1 영역 및 제2 영역은 각각 n개의 픽셀들을 포함하고,

Figure 112020029385395-pat00002
는 제1 영역 내의 i 번째의 픽셀의 값이고,
Figure 112020029385395-pat00003
는 제2 영역 내의 i 번째의 픽셀의 값이고,
Figure 112020029385395-pat00004
는 제1 영역 내의 픽셀 값들의 평균이고,
Figure 112020029385395-pat00005
는 제2 영역 내의 픽셀 값들의 평균이고, r은 제1 영역 및 제2 영역 간의 상관도이다. 예를 들어, 픽셀이 R, G, B의 3개의 컬러 채널들로 구성되는 경우, 각각의 채널에 대한 부분 상관도가 계산되고, 부분 상관도들의 평균이 최종 상관도로 계산될 수 있다. 제1 영역 및 제2 영역이 유사할수록 계산되는 상관도는 1에 가까워진다.In [Equation 1], the first region and the second region each include n pixels,
Figure 112020029385395-pat00002
is the value of the i-th pixel in the first region,
Figure 112020029385395-pat00003
is the value of the i-th pixel in the second region,
Figure 112020029385395-pat00004
is the average of the pixel values in the first region,
Figure 112020029385395-pat00005
is the average of pixel values in the second region, and r is the correlation between the first region and the second region. For example, when a pixel is composed of three color channels of R, G, and B, a partial correlation for each channel may be calculated, and an average of the partial correlations may be calculated as a final correlation. As the first region and the second region are similar, the calculated correlation approaches one.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

200: 전자 장치
210: 통신부
220: 프로세서
230: 메모리
200: electronic device
210: communication department
220: processor
230: memory

Claims (19)

전자 장치에 의해 수행되는 차량 검출 방법은,
입력 이미지를 수신하는 단계;
상기 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출하는 단계;
상기 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정하는 단계; 및
상기 후보 바퀴 쌍에 기초하여 상기 입력 이미지 내의 차량을 검출하는 단계
를 포함하고,
상기 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정하는 단계는,
제1 후보 바퀴 및 제2 후보 바퀴의 상기 입력 이미지 내의 위치들에 기초하여 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴를 제1 후보 바퀴 쌍으로 결정하는 단계
를 포함하는,
차량 검출 방법.
The vehicle detection method performed by the electronic device comprises:
receiving an input image;
detecting one or more candidate wheels from the input image;
determining at least one candidate wheel pair based on the candidate wheels; and
detecting a vehicle in the input image based on the candidate wheel pair;
including,
Determining at least one candidate wheel pair based on the candidate wheels comprises:
determining the first candidate wheel and the second candidate wheel as a first candidate wheel pair based on positions in the input image of the first candidate wheel and the second candidate wheel;
containing,
Vehicle detection method.
제1항에 있어서,
상기 전자 장치는 차량에 포함되고,
상기 입력 이미지는 상기 차량의 주위를 촬영한 이미지인,
차량 검출 방법.
According to claim 1,
The electronic device is included in a vehicle,
The input image is an image taken around the vehicle,
Vehicle detection method.
제1항에 있어서,
상기 차량은 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량인,
차량 검출 방법.
According to claim 1,
The vehicle is an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS),
Vehicle detection method.
제1항에 있어서,
상기 입력 이미지로부터 상기 하나 이상의 후보 바퀴들을 검출하는 단계는,
상기 입력 이미지 내에 바퀴가 존재할 수 있는 관심 영역을 설정하는 단계; 및
상기 관심 영역에 기초하여 상기 하나 이상의 후보 바퀴들을 검출하는 단계
를 포함하는,
차량 검출 방법.
According to claim 1,
Detecting the one or more candidate wheels from the input image comprises:
setting a region of interest in which a wheel may exist in the input image; and
detecting the one or more candidate wheels based on the region of interest;
containing,
Vehicle detection method.
제4항에 있어서,
상기 입력 이미지 내에 바퀴가 존재할 수 있는 관심 영역을 설정하는 단계는,
상기 입력 이미지 내의 소실점을 결정하는 단계; 및
상기 소실점의 수직 좌표에 기초하여 상기 관심 영역을 설정하는 단계
를 포함하는,
차량 검출 방법.
5. The method of claim 4,
The step of setting a region of interest in which a wheel can exist in the input image includes:
determining a vanishing point in the input image; and
setting the region of interest based on the vertical coordinates of the vanishing point
containing,
Vehicle detection method.
제4항에 있어서,
상기 입력 이미지 내에 바퀴가 존재할 수 있는 관심 영역을 설정하는 단계는,
상기 입력 이미지를 생성한 카메라의 정보에 기초하여 타겟 수직 좌표를 결정하는 단계; 및
상기 타겟 수직 좌표에 기초하여 상기 관심 영역을 설정하는 단계
를 포함하는,
차량 검출 방법.
5. The method of claim 4,
The step of setting a region of interest in which a wheel can exist in the input image includes:
determining a target vertical coordinate based on information of a camera that has generated the input image; and
setting the ROI based on the target vertical coordinates
containing,
Vehicle detection method.
제1항에 있어서,
상기 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출하는 단계는,
최초 후보 바퀴 영역을 검출하는 단계;
상기 최초 후보 바퀴 영역의 하단 수직 좌표 및 상단 수직 좌표에 기초하여 상기 최초 후보 바퀴 영역이 미리 설정된 모델의 범위 내에 있는지 여부를 결정하는 단계; 및
상기 최초 후보 바퀴 영역이 상기 모델의 범위 내에 있는 경우 상기 최초 후보 바퀴 영역 내의 바퀴를 후보 바퀴로 결정하는 단계
를 포함하는,
차량 검출 방법.
According to claim 1,
Detecting one or more candidate wheels from the input image comprises:
detecting an initial candidate wheel area;
determining whether the initial candidate wheel area is within a range of a preset model based on a lower vertical coordinate and an upper vertical coordinate of the first candidate wheel area; and
determining a wheel within the initial candidate wheel area as a candidate wheel when the initial candidate wheel area is within the range of the model;
containing,
Vehicle detection method.
삭제delete 제1항에 있어서,
상기 제1 후보 바퀴 쌍을 결정하는 단계는,
상기 제1 후보 바퀴의 위치 및 상기 제2 후보 바퀴의 위치 간의 차이가 미리 설정된 범위 내인 경우, 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴를 제1 후보 바퀴 쌍으로 결정하는 단계
를 포함하는,
차량 검출 방법.
According to claim 1,
The step of determining the first candidate wheel pair comprises:
determining the first candidate wheel and the second candidate wheel as a first candidate wheel pair when a difference between the position of the first candidate wheel and the position of the second candidate wheel is within a preset range;
containing,
Vehicle detection method.
제1항에 있어서,
상기 후보 바퀴 쌍에 기초하여 상기 입력 이미지 내의 차량을 검출하는 단계는,
제1 후보 바퀴 쌍의 제1 후보 바퀴 및 제2 후보 바퀴 간의 상관도를 계산하는 단계;
상기 계산된 상관도가 미리 설정된 값 이상인 경우 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴의 적어도 일부를 포함하는 영역을 상기 차량의 측면으로 결정하는 단계; 및
상기 차량의 측면의 영역에 기초하여 상기 차량을 검출하는 단계
를 포함하는,
차량 검출 방법.
According to claim 1,
Detecting a vehicle in the input image based on the candidate wheel pair comprises:
calculating a correlation between a first candidate wheel and a second candidate wheel of a first candidate wheel pair;
determining an area including at least a portion of the first candidate wheel and the second candidate wheel as a side surface of the vehicle when the calculated correlation is equal to or greater than a preset value; and
detecting the vehicle based on the area of the side of the vehicle
containing,
Vehicle detection method.
제10항에 있어서,
상기 제1 후보 바퀴 쌍의 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴 간의 상기 상관도를 계산하는 단계는,
상기 제1 후보 바퀴의 제1 영역 및 상기 제2 후보 바퀴의 제2 영역의 크기를 정규화하는 단계; 및
상기 정규화된 제1 영역 내의 픽셀들의 값들 및 상기 정규화된 제2 영역 내의 픽셀들의 값들에 기초하여 상기 상관도를 계산하는 단계
를 포함하는,
차량 검출 방법.
11. The method of claim 10,
Calculating the correlation between the first candidate wheel and the second candidate wheel of the first candidate wheel pair comprises:
normalizing the sizes of the first area of the first candidate wheel and the second area of the second candidate wheel; and
calculating the correlation based on values of pixels in the normalized first region and values of pixels in the normalized second region;
containing,
Vehicle detection method.
제1항 내지 제7항, 및 제9항 내지 제11항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium storing a program for performing the method of any one of claims 1 to 7, and claims 9 to 11.
차량을 검출하는 방법을 수행하는, 전자 장치는,
차량을 검출하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
입력 이미지를 수신하는 단계;
상기 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출하는 단계;
상기 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정하는 단계; 및
상기 후보 바퀴 쌍에 기초하여 상기 입력 이미지 내의 차량을 검출하는 단계
를 수행하고,
상기 후보 바퀴 쌍에 기초하여 상기 입력 이미지 내의 차량을 검출하는 단계는,
제1 후보 바퀴 쌍의 제1 후보 바퀴 및 제2 후보 바퀴 간의 상관도를 계산하는 단계;
상기 계산된 상관도가 미리 설정된 값 이상인 경우 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴의 적어도 일부를 포함하는 영역을 상기 차량의 측면으로 결정하는 단계; 및
상기 차량의 측면의 영역에 기초하여 상기 차량을 검출하는 단계
를 포함하는,
전자 장치.
An electronic device for performing a method of detecting a vehicle, comprising:
a memory in which a program for detecting a vehicle is recorded; and
a processor that executes the program
including,
The program is
receiving an input image;
detecting one or more candidate wheels from the input image;
determining at least one candidate wheel pair based on the candidate wheels; and
detecting a vehicle in the input image based on the candidate wheel pair;
do,
Detecting a vehicle in the input image based on the candidate wheel pair comprises:
calculating a correlation between a first candidate wheel and a second candidate wheel of a first candidate wheel pair;
determining an area including at least a portion of the first candidate wheel and the second candidate wheel as a side surface of the vehicle when the calculated correlation is equal to or greater than a preset value; and
detecting the vehicle based on the area of the side of the vehicle
containing,
electronic device.
제13항에 있어서,
상기 전자 장치는 차량에 포함되고,
상기 입력 이미지는 상기 차량의 주위를 촬영한 이미지인,
전자 장치.
14. The method of claim 13,
The electronic device is included in a vehicle,
The input image is an image taken around the vehicle,
electronic device.
제13항에 있어서,
상기 입력 이미지로부터 상기 하나 이상의 후보 바퀴들을 검출하는 단계는,
상기 입력 이미지 내에 바퀴가 존재할 수 있는 관심 영역을 설정하는 단계; 및
상기 관심 영역에 기초하여 상기 하나 이상의 후보 바퀴들을 검출하는 단계
를 포함하는,
전자 장치.
14. The method of claim 13,
Detecting the one or more candidate wheels from the input image comprises:
setting a region of interest in which a wheel may exist in the input image; and
detecting the one or more candidate wheels based on the region of interest;
containing,
electronic device.
제13항에 있어서,
상기 입력 이미지로부터 하나 이상의 후보 바퀴들을 검출하는 단계는,
최초 후보 바퀴 영역을 검출하는 단계;
상기 최초 후보 바퀴 영역의 하단 수직 좌표 및 상단 수직 좌표에 기초하여 상기 최초 후보 바퀴 영역이 미리 설정된 모델의 범위 내에 있는지 여부를 결정하는 단계; 및
상기 최초 후보 바퀴 영역이 상기 모델의 범위 내에 있는 경우 상기 최초 후보 바퀴 영역 내의 바퀴를 후보 바퀴로 결정하는 단계
를 포함하는,
전자 장치.
14. The method of claim 13,
Detecting one or more candidate wheels from the input image comprises:
detecting an initial candidate wheel area;
determining whether the initial candidate wheel area is within a range of a preset model based on a lower vertical coordinate and an upper vertical coordinate of the first candidate wheel area; and
determining a wheel within the initial candidate wheel area as a candidate wheel when the initial candidate wheel area is within the range of the model;
containing,
electronic device.
제13항에 있어서,
상기 후보 바퀴들에 기초하여 적어도 하나의 후보 바퀴 쌍을 결정하는 단계는,
제1 후보 바퀴 및 제2 후보 바퀴의 상기 입력 이미지 내의 위치들에 기초하여 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴를 제1 후보 바퀴 쌍으로 결정하는 단계
를 포함하는,
전자 장치.
14. The method of claim 13,
Determining at least one candidate wheel pair based on the candidate wheels comprises:
determining the first candidate wheel and the second candidate wheel as a first candidate wheel pair based on positions in the input image of the first candidate wheel and the second candidate wheel;
containing,
electronic device.
삭제delete 제13항에 있어서,
상기 제1 후보 바퀴 쌍의 상기 제1 후보 바퀴 및 상기 제2 후보 바퀴 간의 상기 상관도를 계산하는 단계는,
상기 제1 후보 바퀴의 제1 영역 및 상기 제2 후보 바퀴의 제2 영역의 크기를 정규화하는 단계; 및
상기 정규화된 제1 영역 내의 픽셀들의 값들 및 상기 정규화된 제2 영역 내의 픽셀들의 값들에 기초하여 상기 상관도를 계산하는 단계
를 포함하는,
전자 장치.
14. The method of claim 13,
Calculating the correlation between the first candidate wheel and the second candidate wheel of the first candidate wheel pair comprises:
normalizing the sizes of the first area of the first candidate wheel and the second area of the second candidate wheel; and
calculating the correlation based on values of pixels in the normalized first region and values of pixels in the normalized second region;
containing,
electronic device.
KR1020200034162A 2020-03-20 2020-03-20 Method and apparatus for detecting vehicle based on image KR102400726B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200034162A KR102400726B1 (en) 2020-03-20 2020-03-20 Method and apparatus for detecting vehicle based on image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200034162A KR102400726B1 (en) 2020-03-20 2020-03-20 Method and apparatus for detecting vehicle based on image

Publications (2)

Publication Number Publication Date
KR20210117670A KR20210117670A (en) 2021-09-29
KR102400726B1 true KR102400726B1 (en) 2022-05-24

Family

ID=77924795

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200034162A KR102400726B1 (en) 2020-03-20 2020-03-20 Method and apparatus for detecting vehicle based on image

Country Status (1)

Country Link
KR (1) KR102400726B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102124804B1 (en) * 2018-05-13 2020-06-23 엘지전자 주식회사 Apparatus for controling autonomous vehicle and method for controlling the same

Also Published As

Publication number Publication date
KR20210117670A (en) 2021-09-29

Similar Documents

Publication Publication Date Title
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
KR102628654B1 (en) Method and apparatus of indicating lane
KR102463175B1 (en) Method and apparatus of recognizing object
KR102585219B1 (en) Device and method to control speed of vehicle
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
KR102054455B1 (en) Apparatus and method for calibrating between heterogeneous sensors
US11341754B2 (en) Method and apparatus for auto calibration
KR102633140B1 (en) Method and apparatus of determining driving information
KR102519666B1 (en) Device and method to convert image
KR101584907B1 (en) Method and Apparatus for recognizing lane using region of interest
KR20210090384A (en) Method and Apparatus for Detecting 3D Object Using Camera and Lidar Sensor
KR20210061069A (en) Method and apparatus of displaying 3d object
US20200193184A1 (en) Image processing device and image processing method
KR102133020B1 (en) Around view monitoring system and method for detecting parking line with deep learning
KR102400726B1 (en) Method and apparatus for detecting vehicle based on image
US10783350B2 (en) Method and device for controlling a driver assistance system by using a stereo camera system including a first and a second camera
US20190354781A1 (en) Method and system for determining an object location by using map information
KR20150124889A (en) Lane assignment method and system using multi-lane detection and lane change detection
KR20230025550A (en) Object detection method and electronic device performing the method
CN114037977A (en) Road vanishing point detection method, device, equipment and storage medium
CN112400094B (en) Object detecting device
KR20180071552A (en) Lane Detection Method and System for Camera-based Road Curvature Estimation
KR102063454B1 (en) Method for determining distance between vehiceles and electrinoc device performing the method
KR102590863B1 (en) Method and apparatus for calculating steering angle of vehicle
US11836933B2 (en) Method for calculating information relative to a relative speed between an object and a camera

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant