KR20210074037A - Method of obtaining information of automobile passenger and system supporting the same - Google Patents
Method of obtaining information of automobile passenger and system supporting the same Download PDFInfo
- Publication number
- KR20210074037A KR20210074037A KR1020190164958A KR20190164958A KR20210074037A KR 20210074037 A KR20210074037 A KR 20210074037A KR 1020190164958 A KR1020190164958 A KR 1020190164958A KR 20190164958 A KR20190164958 A KR 20190164958A KR 20210074037 A KR20210074037 A KR 20210074037A
- Authority
- KR
- South Korea
- Prior art keywords
- occupant
- vehicle
- face
- image
- passenger
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000001514 detection method Methods 0.000 claims abstract description 96
- 230000008569 process Effects 0.000 claims description 15
- 238000002372 labelling Methods 0.000 claims description 12
- 210000000746 body region Anatomy 0.000 claims description 7
- 238000012423 maintenance Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 15
- 238000007781 pre-processing Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000001931 thermography Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/015—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
- B60R21/01512—Passenger detection systems
- B60R21/0153—Passenger detection systems using field detection presence sensors
- B60R21/01538—Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/20—Means to switch the anti-theft system on or off
- B60R25/25—Means to switch the anti-theft system on or off using biometry
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0881—Seat occupation; Driver or passenger presence
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 차량 탑승자 정보 획득에 관한 것으로, 더욱 상세하게는 차량의 상황에 맞게 차량 탑승자의 정보를 획득하고, 이를 기반으로 지정된 기능을 제공하는 차량 탑승자 정보 획득 방법 및 이를 지원하는 시스템에 관한 것이다.The present invention relates to vehicle occupant information acquisition, and more particularly, to a vehicle occupant information acquisition method for acquiring vehicle occupant information according to vehicle conditions and providing a designated function based on the acquired vehicle occupant information, and to a system supporting the same.
차량은 복수의 바퀴와 바퀴를 동작시킬 수 있는 구동부, 방향을 조절할 수 있는 조향부를 포함하고, 상기 조향부를 조작하는 운전자 및 동승자가 탑승하여, 지정된 목적지까지 이동할 수 있는 편리한 도구이다. 이러한 차량은 키를 이용하여 시동을 턴-온하고, 조향 조작과 구동 조작을 통해 속도와 방향을 조절함으로써 운전자가 희망하는 속도와 방향으로 이동할 수 있다. 한편, 차량은 상당히 높은 가격을 형성하는 경우가 많아서, 차량 도난 방지를 위한 다양한 시스템이 적용되고 있는 추세이다. The vehicle includes a plurality of wheels, a driving unit capable of operating the wheels, and a steering unit capable of controlling a direction, and is a convenient tool for a driver and a passenger operating the steering unit to ride and move to a designated destination. Such a vehicle can move at a speed and direction desired by the driver by turning on the ignition using a key and controlling the speed and direction through steering and driving operations. On the other hand, since vehicles often form a fairly high price, various systems for preventing vehicle theft are being applied.
그러나 차량의 제어 권한이 키에 한정되기 때문에, 차량을 운전할 수 있는 키가 도난당한 경우, 해당 차량에 대한 제어권한이 키를 소유한 소유자에 의해 자유롭게 이용될 수 있어, 단순히 차량이 도난당한 재산상의 문제뿐만 아니라, 도난당한 차량으로 인한 많은 문제가 야기될 수 있다. 이에 따라, 이러한 문제를 해결할 수 있는 다양한 방안이 요구되고 있다. However, since the control authority of the vehicle is limited to the key, if the key to drive the vehicle is stolen, the control authority over the vehicle can be freely used by the owner who owns the key, so that the vehicle is simply damaged on the stolen property. In addition to problems, many problems can be caused by stolen vehicles. Accordingly, various methods for solving these problems are required.
본 발명은 차량 관리 및 보안 유지 등의 다양한 목적으로 차량 탑승자의 정보를 보다 정확하게 획득할 수 있는 차량 탑승자 정보 획득 방법 및 이를 지원하는 시스템을 제공함에 있다. An object of the present invention is to provide a vehicle occupant information acquisition method capable of more accurately acquiring vehicle occupant information for various purposes, such as vehicle management and security maintenance, and a system supporting the same.
또한, 본 발명은 차량 도난 방지의 목적뿐만 아니라, 차량 운행 관리, 탑승자들에게 필요한 정보의 자동 제공 등을 원활하게 수행할 수 있는 차량 탑승자 정보 획득 방법 및 이를 지원하는 시스템을 제공함에 있다.Another object of the present invention is to provide a method for obtaining vehicle occupant information and a system supporting the same, which can smoothly perform vehicle operation management and automatic provision of necessary information to passengers, as well as for the purpose of preventing vehicle theft.
본 발명의 실시 예에 따른 차량 내 탑승자 정보 획득 방법은 상기 차량 내 설치된 카메라를 이용하여 탑승자에 대한 RGB 값, 깊이 값, 및 영역별 온도 값을 검출할 수 있는 영상을 획득하는 단계, 상기 카메라가 획득한 영상을 기반으로 탑승자의 얼굴 및 상체를 검출하는 단계를 포함하고, 상기 탑승자의 얼굴 및 상체를 검출하는 단계는 상기 차량의 운전 여부를 확인하는 단계, 운전 이전 상태에서는 상기 탑승자에 대한 복수개의 영상을 제1 주기로 획득하고, 획득된 복수개의 영상에 대한 평균값을 추출한 후, 상기 평균값을 기준으로 상기 탑승자의 얼굴 및 상태 검출을 수행하고, 상기 운전 중 상태에서는 상기 제1 주기보다 긴 제2 주기 또는 특정 이벤트 발생에 따라 상기 탑승자에 대한 영상을 획득하고, 상기 획득된 영상을 기반으로 상기 탑승자의 얼굴 및 상태 검출을 수행하는 단계를 포함하는 것을 특징으로 한다.The method for obtaining occupant information in a vehicle according to an embodiment of the present invention includes acquiring an image capable of detecting RGB values, depth values, and temperature values for each region of a occupant using a camera installed in the vehicle, wherein the camera detecting the face and upper body of the occupant based on the acquired image, wherein detecting the face and upper body of the occupant includes checking whether the vehicle is being driven, and in a state before driving, a plurality of After acquiring an image in a first period and extracting an average value for a plurality of acquired images, the face and state of the occupant are detected based on the average value, and in the driving state, a second period longer than the first period or acquiring an image of the occupant according to occurrence of a specific event, and detecting the face and state of the occupant based on the acquired image.
추가로, 상기 방법은 상기 탑승자의 얼굴 및 상체를 검출하는 단계는 기 설정된 레이블링 규칙에 따라 레이블링을 수행하여 상기 탑승자에 대한 골격 정보를 획득하는 단계, 상기 탑승자의 얼굴 및 상체 검출 결과로부터 획득한 상기 골격 정보에 대해 스케일과 위치를 고려한 지정된 오프셋 값을 적용하여 골격 정보를 보정하는 단계를 포함할 수 있다. Additionally, in the method, the detecting of the face and upper body of the occupant includes: performing labeling according to a preset labeling rule to obtain skeletal information about the occupant; The method may include correcting the skeletal information by applying a specified offset value in consideration of the scale and position to the skeletal information.
본 발명의 실시 예에 따른 차량 내 탑승자 정보 획득을 지원하는 차량 지원 시스템은 차량의 구동을 위한 구동부, 상기 차량의 조향을 위한 조향부, 상기 차량 내 설치되어, 탑승자에 대한 RGB 값, 깊이 값, 및 영역별 온도 값을 검출할 수 있는 영상을 획득하는 카메라, 상기 카메라가 획득한 영상을 기반으로 탑승자의 얼굴 및 상체를 검출하고, 상기 얼굴 및 상체 검출 값을 기반으로 탑승자가 기 설정된 탑승자인지 확인하는 탑승자 검출을 수행하고, 기 설정된 탑승자인지 여부에 따라 서로 다른 기능을 수행하도록 제어하는 제어 회로를 포함하는 것을 특징으로 한다.A vehicle support system for supporting in-vehicle occupant information acquisition according to an embodiment of the present invention includes a driving unit for driving a vehicle, a steering unit for steering of the vehicle, and an RGB value, a depth value for an occupant, installed in the vehicle, and a camera that acquires an image capable of detecting a temperature value for each region, detects the face and upper body of the occupant based on the image acquired by the camera, and checks whether the occupant is a preset occupant based on the face and upper body detection values and a control circuit for performing occupant detection and controlling to perform different functions depending on whether the occupant is a preset occupant.
여기서, 상기 제어 회로는 상기 차량의 운전 여부를 확인하고, 상기 운전 이전 상태에서는 상기 탑승자에 대한 복수개의 영상을 제1 주기로 획득하고, 획득된 복수개의 영상에 대한 평균값을 추출한 후, 상기 평균값을 기준으로 상기 탑승자의 얼굴 및 상태 검출을 수행하도록 설정된 것을 특징으로 한다.Here, the control circuit checks whether the vehicle is being driven, acquires a plurality of images of the occupant in a first cycle in the state before the driving, extracts an average value of the plurality of images, and then uses the average value as a reference It is characterized in that it is set to perform face and state detection of the occupant.
또한, 상기 제어 회로는 상기 운전 중 상태에서는 상기 제1 주기보다 긴 제2 주기 또는 특정 이벤트 발생에 따라 상기 탑승자에 대한 영상을 획득하고, 상기 획득된 영상을 기반으로 상기 탑승자의 얼굴 및 상태 검출을 수행하도록 설정된 것을 특징으로 한다.In addition, in the driving state, the control circuit acquires an image of the occupant according to a second cycle longer than the first cycle or occurrence of a specific event, and detects the face and state of the occupant based on the acquired image It is characterized in that it is set to perform.
한편, 상기 제어 회로는 상기 탑승자의 얼굴 영역을 검출하는 얼굴 검출부 및 상기 탑승자의 상체 영역을 검출하는 상체 검출부 중 적어도 하나를 가지는 검출부를 포함하고, 상기 검출부는 상기 카메라가 획득한 영상에 대해, LAB(Locally Assembled Binary) 특징 검출을 수행하되, 복수의 크기의 영상 영역을 설정하고, 설정된 영상 영역들에 대한 LAB 특징 검출을 수행하여 계산하여 물체의 형태 또는 위치 정보를 결정하는 것을 특징으로 한다.Meanwhile, the control circuit includes a detection unit having at least one of a face detection unit detecting a face region of the occupant and an upper body detecting unit detecting an upper body region of the occupant, wherein the detection unit performs a LAB with respect to the image acquired by the camera. (Locally Assembled Binary) It is characterized in that feature detection is performed, image regions of a plurality of sizes are set, and shape or position information of an object is determined by performing LAB feature detection on the set image regions and calculating.
추가로, 상기 검출부는 상기 탑승의 얼굴 및 상태 검출 과정에서 기 설정된 레이블링 규칙에 따라 레이블링을 수행하여 상기 탑승자에 대한 골격 정보를 획득하도록 설정될 수 있다.Additionally, the detection unit may be configured to obtain skeletal information about the passenger by performing labeling according to a preset labeling rule in the process of detecting the face and state of the passenger.
또한, 상기 검출부는 상기 탑승자의 얼굴 및 상체 검출 결과로부터 획득한 상기 골격 정보에 대해 스케일과 위치를 고려한 지정된 오프셋 값을 적용하여 골격 정보를 보정하도록 설정된 것을 특징으로 한다.In addition, the detection unit is set to correct the skeleton information by applying a specified offset value in consideration of the scale and position to the skeleton information obtained from the face and upper body detection results of the passenger.
본 발명에 따른 차량 탑승자 정보 획득 방법 및 이를 지원하는 시스템에 따르면, 본 발명은 차량 내 탑승자의 얼굴 및 상체 분석을 수행하여 탑승자 정보를 획득할 수 있다. According to the method for obtaining vehicle occupant information and the system supporting the same according to the present invention, the present invention may obtain occupant information by analyzing the face and upper body of the occupant in the vehicle.
또한, 본 발명은 획득된 탑승자 정보를 기반으로 차량 운전과 관련된 지정된 기능을 적응적으로 수행할 수 있도록 지원할 수 있다. In addition, the present invention may support to adaptively perform a specified function related to driving a vehicle based on the obtained occupant information.
도 1은 본 발명의 실시 예에 따른 차량 탑승자 정보 획득이 지원되는 차량 시스템의 한 예를 나타낸 도면이다.
도 2a는 본 발명의 실시 예에 따른 제어 회로의 한 예를 나타낸 도면이다.
도 2b는 본 발명에 적용되는 Haar-like 특징을 나타낸 도면이다.
도 2c는 본 발명에 적용되는 LBP 특징을 나타낸 도면이다.
도 2d는 본 발명에 적용되는 적분 영상에서 일부 영역의 픽셀 합을 구하는 과정을 나타낸 도면이다.
도 2e는 본 발명에 적용되는 LAB 특징을 나타낸 도면이다.
도 3은 본 발명의 실시 예에 따른 차량 탑승자 정보 획득 방법의 한 예를 나타낸 도면이다.
도 4는 본 발명의 실시 예에 따른 차량 탑승자 정보 획득 방법의 다른 예를 나타낸 도면이다.
도 5a는 본 발명의 실시 예에 따른 입력 데이터에 따른 LAB 특징 계산과 realboosting 분류기 운용에 관한 도면이다.
도 5b는 본 발명의 실시 예에 따른 학습 과정과 LAB 특징 weighting 값의 일부를 나타낸 도면이다.
도 6a는 본 발명의 실시 예에 따른 탑승자 얼굴 및 상체 검출 결과를 나타낸 도면이다.
도 6b는 본 발명의 실시 예에 따른 얼굴 중앙과 목 및 어깨 포인트에 해당하는 온도 획득과 어깨 넓이 획득의 예를 나타낸 도면이다.1 is a diagram illustrating an example of a vehicle system supporting vehicle occupant information acquisition according to an embodiment of the present invention.
2A is a diagram illustrating an example of a control circuit according to an embodiment of the present invention.
Figure 2b is a view showing the Haar-like feature applied to the present invention.
Figure 2c is a view showing the characteristics of the LBP applied to the present invention.
2D is a diagram illustrating a process of obtaining a pixel sum of a partial region in an integral image applied to the present invention.
Figure 2e is a view showing the characteristics of the LAB applied to the present invention.
3 is a diagram illustrating an example of a method for obtaining vehicle occupant information according to an embodiment of the present invention.
4 is a diagram illustrating another example of a method for obtaining vehicle occupant information according to an embodiment of the present invention.
5A is a diagram illustrating LAB feature calculation and realboosting classifier operation according to input data according to an embodiment of the present invention.
5B is a diagram illustrating a part of a learning process and LAB feature weighting values according to an embodiment of the present invention.
6A is a diagram illustrating a result of detecting the face and upper body of an occupant according to an embodiment of the present invention.
6B is a diagram illustrating an example of acquiring a temperature corresponding to the center of the face, neck, and shoulder points and acquiring a shoulder width according to an embodiment of the present invention.
하기의 설명에서는 본 발명의 실시 예를 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않는 범위에서 생략될 것이라는 것을 유의하여야 한다.It should be noted that, in the following description, only the parts necessary for understanding the embodiment of the present invention will be described, and the description of other parts will be omitted in the scope not disturbing the gist of the present invention.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 바람직한 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.The terms or words used in the present specification and claims described below should not be construed as being limited to their ordinary or dictionary meanings, and the inventors have appropriate concepts of terms in order to best describe their inventions. It should be interpreted as meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined in Accordingly, the embodiments described in this specification and the configurations shown in the drawings are only preferred embodiments of the present invention, and do not represent all of the technical spirit of the present invention, so various equivalents that can be substituted for them at the time of the present application It should be understood that there may be variations and variations.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 보다 상세하게 설명하고자 한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings.
도 1은 본 발명의 실시 예에 따른 차량 탑승자 정보 획득이 지원되는 차량 시스템의 한 예를 나타낸 도면이다.1 is a diagram illustrating an example of a vehicle system in which vehicle occupant information acquisition is supported according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 차량 탑승자 정보 획득을 지원하는 차량 지원 시스템(101)은 특정 차량(100)에 적용될 수 있다. 상기 차량(100)은 복수의 바퀴를 포함하고, 상기 바퀴를 구동시키는 구동 엔진, 상기 구동 엔진과 상기 바퀴의 적어도 일부를 감싸도록 배치된 차체 등을 포함할 수 있다. 이러한 차량(100)은 예컨대, 차량 운행과 함께 차량 탑승자 정보 획득을 수행할 수 있는 차량 지원 시스템(101)을 포함할 수 있다. Referring to FIG. 1 , a
상기 차량 지원 시스템(101)은 예컨대, 구동부(110), 조향부(120), 적어도 하나의 카메라(예: 제1 카메라(131), 제2 카메라(132), 제3 카메라(133)), 메모리(140), 디스플레이(150), 센서부(170) 및 제어 회로(160)(예: motor control unit 또는 master control unit, main control unit 등)를 포함할 수 있다.The
상기 구동부(110)는 상기 차량(100)의 운전을 위한 동력을 생성하고, 생성된 동력은 이동 수단(예: 바퀴)에 전달할 수 있다. 이러한 구동부(110)는 제어 회로(160)의 제어에 따라, 지정된 방식으로 동력을 생성할 수 있다. 예컨대, 상기 구동부(110)는 배터리에 저장된 전력을 이용하여 차량(100) 구동을 위한 동력을 분배할 수 있다. 또는, 상기 구동부(110)는 연료 엔진을 구동하여, 차량(100) 구동을 위한 동력을 생성 및 분배할 수 있다. 상기 구동부(110)는 차량(100)의 시동이 턴-온된 경우 활성화될 수 있다. The
상기 조향부(120)는 상기 차량(100)의 운전 조작과 관련하여 방향을 조절할 수 있다. 예컨대, 상기 조향부(120)는 차량 핸들을 포함할 수 있다. 상기 조향부(120)는 운전자 조작에 따라 바퀴의 방향을 조절할 수 있도록 마련될 수 있다. The
상기 제1 카메라(131)는 차량(100) 내 일정 방향을 향하도록 배치되고, 배치된 방향에서의 RGB 영상을 획득할 수 있다. 상기 제1 카메라(131)는 예컨대, 운전석에 착석한 운전자의 얼굴 및 상체에 대한 RGB 이미지를 획득할 수 있도록 배치될 수 있다. 본 발명의 차량 지원 시스템(101)은 조수석 또는 차량의 뒷좌석 등에 착석한 탑승자의 얼굴 및 상체에 대한 RGB 이미지를 획득할 수도 있다. 이 경우, 복수의 탑승자들과 관련한 RGB 이미지 획득을 위하여, 상기 제1 카메라(131)는 복수의 RGB 카메라를 포함할 수 있다. 상기 복수의 RGB 카메라는 각각의 좌석(예: 운전석, 조수석, 뒷좌석들)에 착석한 탑승자들의 얼굴 및 상체 중 적어도 한 부분에 대한 RGB 이미지를 획득할 수 있도록 배치될 수 있다. The
상기 제2 카메라(132)는 차량(100) 내 일정 방향에 대한 깊이 이미지를 획득할 수 있다. 예컨대, 상기 제2 카메라(132)는 촬영된 영상에서 깊이 정보를 획득할 수 있는 적외선 카메라를 포함할 수 있다. 또는, 상기 제2 카메라(132)는 상기 제1 카메라(131)와 초점거리가 다른 카메라(예: 제1 카메라(131)가 와이드 카메라인 경우, 제2 카메라(132)는 텔레카메라)를 포함할 수 있다. 상기 제2 카메라(132)는 제1 카메라(131)에 인접되게 배치되어, 제1 카메라(131)가 탑승자의 RGB 이미지를 획득하는 동안, 제2 카메라(132)는 탑승자를 포함한 깊이 이미지를 획득할 수 있다. 상기 제1 카메라(131)가 복수의 좌석을 촬영할 수 있도록 복수의 RGB 카메라를 포함하는 경우, 제2 카메라(132) 역시, 복수의 RGB 카메라와 각각 인접되게 배치된 복수의 깊이 이미지 획득이 가능한 카메라들을 포함할 수 있다. The
상기 제3 카메라(133)는 차량(100) 내 일정 방향에 대한 온도 정보를 획득할 수 있다. 예컨대, 제3 카메라(133)는 촬영 영상에서, 피사체의 온도 정보를 획득할 수 있는 열영상 카메라를 포함할 수 있다. 상기 제3 카메라(133)는 제1 카메라(131) 또는 제2 카메라(132)에 인접되게 배치될 수 있다. 상기 제3 카메라(133)는 제어 회로(160)의 제어에 따라 지정된 좌석에 대한 열영상을 획득하고, 획득된 열영상을 제어 회로(160)에 제공할 수 있다. 제3 카메라(133)는 운전석, 조수석 및 차량의 뒷좌석 중 적어도 한 곳에 대한 열영상을 획득할 수 있도록 적어도 하나의 열영상 카메라를 포함할 수 있다. The
상기 메모리(140)는 본 발명의 실시 예에 따른 차량(100) 내 탑승자 정보 획득과 관련한 다양한 데이터 또는 프로그램을 저장할 수 있다. 예를 들어, 상기 메모리(140)는 사전 등록된 탑승자 관련 기준 정보(예: 기준 얼굴 정보, 기준 상체 정보 등)가 저장될 수 있다. 또한, 상기 메모리(140)는 복수의 카메라들(131, 132, 133)이 획득한 영상을 실시간으로 저장할 수 있다. The
상기 디스플레이(150)는 차량(100) 운행과 관련한 다양한 화면을 출력할 수 있다. 예컨대, 디스플레이(150)는 네비게이션 기능 지원에 따라 지도 정보를 출력할 수 있다. 상기 디스플레이(150)는 운전자가 운전에 방해되지 않는 특정 영역에 배치될 수 있다. 상기 디스플레이(150)는 메모리(140)에 사전 저장된 다양한 컨텐츠를 출력할 수 있다. 또는, 상기 디스플레이(150)는 탑승자 정보 확인에 따라 수행되는 기능 정보(예: 경고, 동영상 등)를 출력할 수 있다. 한편, 상기 디스플레이(150)는 상기 차량 지원 시스템(101)에서 생략될 수도 있다. The display 150 may output various screens related to the operation of the
상기 센서부(170)는 차량(100) 운행과 관련한 다양한 센싱 정보를 수집할 수 있다. 예컨대, 상기 센서부(170)는 좌석에 탑승자가 탑승했는지 여부를 확인할 수 있는 압력 센서 또는 터치 센서, 차량(100)의 운전 여부를 검출할 수 있는 가속도 센서 또는 지자기 센서, 차량(100)의 운전 속도를 검출하는 속도계 등을 포함할 수 있다. 상기 센서부(170) 구성 또한, 설계 변경에 따라 차량 지원 시스템(101)에서 생략될 수 있다. The
상기 제어 회로(160)는 차량(100) 운행과 관련한 제어 및 차량 탑승자 정보 확인과 관련한 제어를 수행할 수 있다. 특히, 제어 회로(160)는 차량 탑승자 정보 확인과 관련하여, 도 2a에 도시된 바와 같은 구성을 포함할 수 있다. The
도 2a는 본 발명의 실시 예에 따른 제어 회로의 한 예를 나타낸 도면이며, 도 2b는 본 발명에 적용되는 Haar-like 특징을 나타낸 도면이고, 도 2c는 본 발명에 적용되는 LBP 특징을 나타낸 도면이다. 도 2d는 본 발명에 적용되는 적분 영상에서 일부 영역의 픽셀 합을 구하는 과정을 나타낸 도면이며, 도 2e는 본 발명에 적용되는 LAB 특징을 나타낸 도면이다.Figure 2a is a view showing an example of a control circuit according to an embodiment of the present invention, Figure 2b is a view showing a Haar-like feature applied to the present invention, Figure 2c is a view showing the LBP feature applied to the present invention to be. FIG. 2D is a diagram illustrating a process of obtaining a pixel sum of a partial region in an integral image applied to the present invention, and FIG. 2E is a diagram illustrating LAB characteristics applied to the present invention.
도 2a를 참조하면, 본 발명의 실시 예에 따른 제어 회로(160)는 카메라 제어부(161a), 전처리부(161b), 검출부(예: 얼굴 검출부(163) 및 상체 검출부(165)) 및 정보 분석부(167)를 포함할 수 있다.Referring to FIG. 2A , the
상기 카메라 제어부(161a)는 차량(100)에 탑승 인원이 있는지 여부를 확인하고, 탑승 인원이 있는 경우 카메라들(131, 132, 133)을 제어하여 탑승 인원에 관한 이미지를 획득할 수 있다. 예컨대, 카메라 제어부(161a)는 차량문 개방, 탑승자의 좌석 착석 등을 감지할 수 있는 센서부(170)를 제어하여 센싱 정보를 획득하고, 획득된 센싱 정보를 분석하여 어떠한 좌석에 탑승 인원이 있는지 확인할 수 있다. 특히, 카메라 제어부(161a)는 별도의 탑승 인원이 없는 경우, 슬립 상태를 유지하면서, 간헐적으로 또는 일정 주기로 깨어나 차량(100) 이용에 관한 신호(예: 차량문 개방 또는 좌석 착석 등) 발생을 감지할 수 있다. 상기 카메라 제어부(161a)는 탑승 인원이 있는 경우, 해당 좌석에 배치된 카메라들(131, 132, 133)을 제어하여 탑승 인원에 대한 RGB 이미지, 깊이 이미지, 온도 이미지를 획득할 수 있다. The
상기 전처리부(161b)는 상기 카메라 제어부(161a) 제어에 따라 획득된 RGB 이미지, 깊이 이미지, 온도 이미지들에 대한 전처리를 수행할 수 있다. 예컨대, 전처리부(161b)는 카메라들(131, 132, 133)들로부터 수신된 이미지들의 크기를 리사이징하고, 영상 데이터 형 변환을 수행할 수 있다. The
상기 얼굴 검출부(163)는 상기 전처리부(161b)에 의해 전처리된 이미지들을 기반으로 얼굴 검출을 수행할 수 있다. 예컨대, 상기 얼굴 검출부(163)는 머신러닝 기반 객체 검출 알고리즘을 기반으로 특징 추출(feature extraction) 및 특징 분류(feature classification)를 수행할 수 있다. 이 동작에서, 상기 얼굴 검출부(163)는 Haar-Like 특징의 장점과 LBP(local binary pattern) 특징의 장점을 모두 반영할 수 있는 Locally Assembled Binary(LAB) 특징을 기반으로 얼굴 검출을 수행할 수 있다.The
Haar-like 특징의 특성은 도 2b에 나타낸 바와 같이, 물체의 기하학적 정보를 잘 반영하며 물체의 형태와 위치변화를 어느 정도 커버하는 특성을 갖고 있지만, 광량 변화에 따라 특징 값 차이가 큰 문제점이 있다. 한편, LBP 특징의 특성은 도 2c에 나타낸 바와 같이, 중심 영역을 포함하는 매트릭스 형태의 영역을 선정하고, 중심 영역 값을 기준으로 주변 영역을 이진 값으로 치환(예: 중심 영역 값보다 큰 화소 값을 가지면 1, 중심 영역 값보다 작은 화소 값을 가지면 0)하여 표현할 수 있다. 이러한 LBP 특징의 특성은 연산량이 적고 광량 변화가 커도 비교적 일정한 특징 값을 획득할 수 있는 장점이 있지만, 일정한 크기(3 x 3 혹은 9 x 9)의 매트릭스만 계산하기 때문에 Haar-like 특징에 비해 물체의 형태나 위치 정보를 잘 반영하지 못하는 특성이 있다. 도 2d는 적분 영상에서 D 영역의 픽셀 합을 구하는 과정을 나타낸 것이다.As shown in Fig. 2b, the Haar-like characteristic has a characteristic that reflects the geometrical information of the object and covers the shape and position of the object to some extent, but there is a problem in that the characteristic value differs greatly according to the change in the amount of light. . On the other hand, as shown in Fig. 2c, for the characteristics of the LBP characteristic, a matrix-shaped region including the central region is selected, and the peripheral region is replaced with a binary value based on the central region value (e.g., a pixel value greater than the central region value) It can be expressed as 1 if it has , and 0) if it has a pixel value smaller than the central region value. The LBP feature has the advantage of obtaining a relatively constant feature value even if the amount of computation is small and the amount of light is large. However, since only a matrix of a certain size (3 x 3 or 9 x 9) is calculated, the object compared to the Haar-like feature is There is a characteristic that does not reflect well the shape or location information of 2D is a diagram illustrating a process of obtaining a pixel sum of a region D in an integral image.
LAB 특징의 기본은 LBP 특징을 구하는 것과 같은데, 도 2e에 나타낸 바와 같이, 일정한 크기의 매트릭스만 계산하는 것이 아닌 다양한 크기를 계산할 수 있도록 확장했으며, 이러한 확장 효과로 LBP 특징에 비해 물체의 형태나 위치 정보를 잘 반영할 수 있다. 예컨대, 본 발명의 LAB 특징 검출은 서로 다른 크기의 매트릭스 형태를 획득된 영상에서 위치별로 다르게 지정하고, 지정된 다른 크기의 매트릭스의 LAB 특징을 검출하고 이를 이진 코드 값으로 표현할 수 있다. 본 발명의 얼굴 검출부(163)는 특징을 분류하는 분류기로 연산량이 적으며 분류기 통과 과정에서 신뢰도를 계산하고 분류하는 RealBoosting 분류기를 사용할 수 있다. The basics of the LAB feature are the same as finding the LBP feature, and as shown in Fig. 2e, it is expanded to calculate various sizes instead of calculating only a matrix of a certain size, and with this expansion effect, the shape or position of an object compared to the LBP feature Information can be well reflected. For example, in the LAB feature detection of the present invention, matrix shapes of different sizes may be differently designated for each location in an acquired image, LAB features of matrices of different designated sizes may be detected, and this may be expressed as a binary code value. The
상기 상체 검출부(165)는 상기 전처리부(161b)에 의해 전처리된 이미지들을 기반으로 상체 검출을 수행할 수 있다. 상체 검출부(165)도 기본적으로 얼굴 검출부(163)와 동일하게 LAB 특징을 기반으로 상체 검출을 수행할 수 있다. The upper
상기 정보 분석부(167)는 상기 얼굴 검출 결과 및 상체 검출 결과를 통해 탑승자 정보를 확인할 수 있다. 예컨대, 상기 정보 분석부(167)는 획득된 탑승자 정보를 메모리(140)에 기 저장된 기준 정보와 비교하고, 비교 결과에 따라 탑승자 정보를 확인할 수 있다. 이와 관련하여, 상기 메모리(140)에는 사전 등록된 특정 탑승자(예: 운전자 및 조수석이나 기타 뒷좌석에 탑승한 이력이 있고, 해당 탑승자 또는 운전자에 의해 등록 절차를 수행한 탑승자)와 관련된 기준 정보가 저장될 수 있다. 상기 정보 분석부(167)는 탑승자가 기 저장된 특정 탑승자의 기준 정보와 동일한 경우, 시동 턴-온, 운전 지속, 지정된 컨텐츠 재생, 특정 탑승자와 관련한 네비게이션 이력 표시 등을 수행할 수 있다. 상기 정보 분석부(167)는 탑승자가 기 저장된 특정 탑승자의 기준 정보와 다른 경우, 시동 턴-오프 상태 유지, 경고 안내 등을 수행할 수 있다. 여기서, 정보 분석부(167)는 운전자가 기 지정된 운전자와 동일한 경우에는 다른 탑승자가 기 지정된 탑승자의 기준 정보와 다르더라도 지정된 컨텐츠 이용이 가능하도록 지원할 수 있다. The
도 3은 본 발명의 실시 예에 따른 차량 탑승자 정보 획득 방법의 한 예를 나타낸 도면이다.3 is a diagram illustrating an example of a method for obtaining vehicle occupant information according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 실시 예에 따른 차량 탑승자 정보 획득 방법과 관련하여, 차량 지원 시스템(101)의 제어 회로(160)는 301 단계에서 특정 인원의 차량 탑승 여부를 확인할 수 있다. 특정 인원의 차량 탑승이 없는 경우, 차량 지원 시스템(101)의 제어 회로(160)는 303 단계에서 슬립 상태를 유지할 수 있다. 상기 슬립 상태는 예컨대, 최소 전력을 기반으로 차량(100) 개방을 요청하는 키 신호 또는 시동 턴-온을 위한 신호를 수신할 수 있는 대기 상태를 포함할 수 있다. 또는, 차량 지원 시스템(101)은 차량(100) 내 배치된 적어도 하나의 센서부(170)에 의해 센싱된 정보를 기반으로 특정 인원 탑승을 판단할 수도 있다. 이를 위하여, 차량 지원 시스템(101)은 센서부(170)를 구동하여 차량 탑승과 관련한 센싱 정보가 획득되는지 감지할 수 있다. 이와 같이, 차량 지원 시스템(101)은 슬립 상태를 유지하면서, 차량 탑승과 관련한 신호 발생을 감지할 수 있다.Referring to FIG. 3 , in relation to the method of obtaining vehicle occupant information according to an embodiment of the present invention, the
특정 인원의 차량 탑승이 수행되면, 차량 지원 시스템(101)의 제어 회로(160)는 305 단계에서 시동 턴-온 여부를 확인할 수 있다. When a specific person boards the vehicle, the
305 단계에서 시동이 켜지는 경우, 제어 회로(160)는 307 단계에서 제1 방식에 따른 탑승자 검출을 수행할 수 있다. 예컨대, 제어 회로(160)는 제1 주기로 탑승자의 얼굴과 관련한 RGB 이미지, 깊이 이미지, 온도 이미지를 획득하고, 획득된 이미지들을 기반으로 탑승자의 얼굴 정보를 분석하고, 메모리(140)에 기 저장된 기준 얼굴 정보와 비교할 수 있다. 제어 회로(160)는 기준 얼굴 정보와 동일한 얼굴인 경우, 311 단계에서 지정된 기능 수행을 지원할 수 있다. 이 동작에서, 제어 회로(160)는 시동이 턴-온된 이후, 운전이 지속 중인 경우, 운전 시작 시점에서 탑승자의 정보 확인을 수행하고, 운전 종료 시 또는 운전 멈춤 시까지 탑승자의 정보 확인을 보류할 수 있다. When the ignition is turned on in
305 단계에서 시동이 턴-오프 상태를 유지하는 경우, 제어 회로(160)는 309 단계에서 제2 방식에 따른 탑승자 검출을 수행할 수 있다. 예컨대, 상기 제어 회로(160)는 각 좌석에 대한 RGB 이미지, 깊이 이미지, 온도 이미지를 제2 주기로 획득하고, 획득된 이미지들을 기반으로 탑승자의 정보 분석을 수행할 수 있다. 상기 제2 주기는 앞서 언급한 제1 주기보다 짧을 수 있다. 이에 따라, 제2 방식에 따른 탑승자 검출을 수행하는 동안, 제어 회로(160)는 제1 방식에 비하여 보다 자주 또는 빈번하게 탑승자 검출을 수행할 수 있다. When the ignition is maintained in the turned-off state in
다음으로, 제어 회로(160)는 311 단계에서 지정된 기능 수행을 처리할 수 있다. 예를 들어, 제어 회로(160)는 제1 방식에 따른 탑승자 검출을 통해 탑승자가 검출되고, 탑승자가 기 저장된 기준 얼굴 정보와 동일한 얼굴을 가지는 탑승자인 경우, 운전이 지속될 수 있도록 구동부(110) 동작을 유지시키고, 탑승자의 음악 청취 이력을 기준으로 특정 컨텐츠 재생을 자동으로 지원할 수 있다. 또는, 제어 회로(160)는 운전자 이외의 탑승자가 선호하는 이미지를 디스플레이(150)를 통해 출력할 수 있다. 상기 제어 회로(160)는 제1 방식에 따른 탑승자 검출을 통해 검출한 탑승자가 기 저장된 탑승자가 아닌 경우, 지정된 경고 문구의 출력을 수행할 수 있다. 또한, 제어 회로(160)는 운전 지속을 위한 비밀번호 입력을 요청하거나, 구동부(110)를 제어하여 운전을 종료시킬 수 있다. 또는, 제어 회로(160)는 기 설정된 전화번호를 가지는 전자 장치로 차량(100) 운행에 관한 메시지를 안내하고, 해당 전자 장치로부터 수신된 운전 종료 요청 또는 운전 지속 요청 메시지에 따라 차량(100)의 운전 지속 또는 종료를 제어할 수 있다. Next, the
또한, 제어 회로(160)는 제2 방식에 따른 탑승자 검출에 따라 검출한 탑승자가 기 설정된 탑승자인 경우, 디스플레이(150)를 통해 지정된 컨텐츠를 출력할 수 있다. 이 과정에서, 제어 회로(160)는 운전 중이 아니기 때문에, 운전자에게도 지정된 컨텐츠를 디스플레이(150)를 통해 제공할 수 있다. 제어 회로(160)는 기 설정된 탑승자가 아닌 경우, 차량 이용 불가에 대한 안내를 출력할 수 있다. Also, when the occupant detected according to the occupant detection according to the second method is a preset occupant, the
313 단계에서, 제어 회로(160)는 탑승자 정보 획득과 관련한 기능 종료를 지시하는 이벤트가 발생하는지 확인할 수 있다. 제어 회로(160)는 해당 이벤트 발생이 없는 경우, 303 단계 이전으로 분기하여 이하 동작을 재수행할 수 있다. 또는, 제어 회로(160)는 종료 지시 이벤트 발생이 없는 경우, 311 단계에서 지정된 기능 수행을 제어할 수 있다. 종료 지시 이벤트가 발생하면, 제어 회로(160)는 탑승자 정보 확인 기능을 종료할 수 있다. 이와 관련하여, 제어 회로(160)는 제1 내지 제3 카메라들(131, 132, 133)을 비활성화하고, 관련 기능을 비활성화하도록 제어할 수 있다. In
도 4는 본 발명의 실시 예에 따른 차량 탑승자 정보 획득 방법의 다른 예를 나타낸 도면이다.4 is a diagram illustrating another example of a method for obtaining vehicle occupant information according to an embodiment of the present invention.
도 4를 참조하면, 본 발명의 실시 예에 따른 차량 탑승자 정보 획득 방법과 관련하여, 차량 지원 시스템(101)의 제어 회로(160)는 401 단계에서, 탑승자에 관한 RGB 이미지, 깊이 이미지, 온도 이미지를 획득할 수 있다.Referring to FIG. 4 , in relation to the method for obtaining vehicle occupant information according to an embodiment of the present invention, the
제어 회로(160)는 403 단계에서 획득된 이미지에 대한 전처리를 수행할 수 있다. 전처리 과정에서, 제어 회로(160)는 획득된 이미지의 크기를 지정된 크기로 리사이징하거나 영상 데이터 형을 변환할 수 있다. The
405 단계에서, 상기 제어 회로(160)는 운전 중인지 여부를 확인할 수 있다. 이와 관련하여, 제어 회로(160)는 차량 지원 시스템(101)의 센서부(170)로부터 전달된 센싱 정보를 확인하여 차량(100)이 이동 중인지 확인할 수 있다. 또는, 제어 회로(160)는 구동부(110)와 조향부(120)를 확인하여, 차량의 시동이 턴-온 상태이며, 속도가 있고 조향 중인지 확인할 수 있다. In
405 단계에서, 차량(100)이 운전자에 의해 운전 중인 경우, 407 단계에서, 제어 회로(160)는 얼굴 검출을 수행할 수 있다. 이와 관련하여, 제어 회로(160)는 획득된 RGB 이미지의 전처리된 영상에서 사람의 눈과 코 또는 입을 포함하는 특징점을 포함하는 영역을 검출하고, 검출된 얼굴 영역에 대해 메모리(140)에 기 저장된 기준 정보와 비교할 수 있다. In
409 단계에서, 제어 회로(160)는 얼굴 검출이 완료되는지 확인할 수 있다. 예컨대, 제어 회로(160)는 검출된 얼굴 영역이 기 저장된 기준 정보와 지정된 크기 이상 유사한지 또는 동일한지 확인할 수 있다. In
얼굴 검출이 완료되지 않은 경우, 또는 얼굴 검출이 실패한 경우, 411 단계에서, 제어 회로(160)는 제1 지정 기능을 수행하도록 제어할 수 있다. 예컨대, 상기 제어 회로(160)는 검출된 얼굴 영역의 정보가 메모리(140)에 기 저장된 기준 정보와 상이한 경우, 얼굴 검출을 실패한 것으로 판단할 수 있다. 또는, 제어 회로(160)는 사용자의 얼굴 영역 검출이 실패한 경우(예: 촬영 과정에서 사용자의 얼굴을 일부만 촬영하여 얼굴 검출이 불가능한 경우, 일정 시간 경과 후 얼굴 촬영을 다시 하고, 얼굴 검출을 재수행할 수도 있다. 상기 제어 회로(160)는 제1 지정 기능 수행과 관련하여, 운전에 관한 안내 정보를 출력할 수 있다. 예컨대, 제어 회로(160)는 운전 지속을 위하여, 지정된 비밀 번호 입력을 요청하거나, 기 등록된 운전자에게 운전 지속 여부를 묻거나, 운전 중지를 안내하는 정보를 출력할 수 있다. When the face detection is not completed or the face detection fails, in
409 단계에서 얼굴 검출이 완료된 경우, 413 단계에서, 제어 회로(160)는 얼굴 영역 추출 및 코 온도 획득을 수행할 수 있다. 415 단계에서, 제어 회로(160)는 제2 지정 기능을 수행할 수 있다. 예컨대, 제어 회로(160)는 탑승자 정보를 메모리(140)에 저장된 기준 정보와 비교하고, 사전 등록된 탑승자에 관한 정보를 기반으로, 지정된 컨텐츠를 재생하거나, 네비게이션 이력을 제공하거나, 좌석의 자세(또는 위치)를 지정된 값으로 자동 조절할 수 있다. When the face detection is completed in
한편, 405 단계에서, 차량(100)이 운전자에 의해 운전 중인 경우, 제어 회로(160)는 421 단계에서와 같이 상체 검출을 수행할 수도 있다. 상체 검출과 관련하여, 제어 회로(160)는 획득된 이미지에서 경계선을 기준으로 사람의 형상에 대응하는 영역을 검출하고, 검출된 영역을 기반으로 상체 영역을 특정할 수 있다. Meanwhile, when the
423 단계에서, 제어 회로(160)는 상체 검출이 완료되는지 확인할 수 있다. 이 단계에서, 상체 검출이 완료되지 않는 경우, 제어 회로(160)는 411 단계에서 제1 지정 기능을 수행할 수 있다. 또는, 제어 회로(160)는 상체 검출이 완료되지 않는 경우, 지정된 시간 경과 후 영상 촬영을 재수행하고, 재촬영된 영상에 대한 상체 검출을 재수행할 수 있다. In
423 단계에서 상체 검출이 완료된 경우, 제어 회로(160)는 425 단계에서 상체 영역 추출 및 어깨 넓이 계산을 수행할 수 있다. 다음으로, 제어 회로(160)는 415 단계에서, 검출된 정보를 기반으로 제2 지정 기능을 수행할 수 있다. 예컨대, 상기 제어 회로(160)는 계산된 어깨 넓이와 메모리(140)에 기 저장된 기준 정보를 상호 비교하여, 대응되는 탑승자를 검출할 수 있다. 상기 제어 회로(160)는 탑승자 검출에 따라, 지정된 제2 기능 수행을 지원할 수 있다. When the detection of the upper body is completed in
한편, 405 단계에서, 차량(100)이 운전자에 의해 운전 중이 아닌 경우, 431 단계에서, 제어 회로(160)는 얼굴 검출 및 움직임 평균 계산을 수행할 수 있다. 433 단계에서, 제어 회로(160)는 얼굴 검출이 완료되는지 확인할 수 있다. 433 단계에서 얼굴 검출이 완료된 경우, 435 단계에서, 제어 회로(160)는 얼굴 영역 추출 및 코 온도 획득을 수행할 수 있다. Meanwhile, when the
437 단계에서, 제어 회로(160)는 검출 점수가 지정된 기준 값(Th) 이상인지 확인할 수 있다. 검출 점수가 지정된 기준 값(Th) 미만인 경우, 제어 회로(160)는 411 단계에서 제1 지정 기능 수행을 제어할 수 있다. In operation 437 , the
433 단계에서, 얼굴 검출이 완료되지 않은 경우, 제어 회로(160)는 435 단계를 스킵하고, 437 단계로 분기할 수 있으며, 437 단계에서 검출 점수가 기준값(Th) 이상인 경우, 439 단계에서, 제어 회로(160)는 움직임 평균 얼굴 영역 조합을 수행할 수 있다. 이후, 제어 회로(160)는 조합된 움직임 평균 얼굴 영역을 기반으로 415 단계에서, 제2 지정 기능 수행을 처리할 수 있다. In
도 5a는 본 발명의 실시 예에 따른 입력 데이터에 따른 LAB 특징 계산과 RealBoosting 분류기 운용에 관한 도면이며, 도 5b는 본 발명의 실시 예에 따른 학습 과정과 LAB 특징 weighting 값의 일부를 나타낸 도면이다.5A is a view related to LAB feature calculation and RealBoosting classifier operation according to input data according to an embodiment of the present invention, and FIG. 5B is a view showing a part of the learning process and LAB feature weighting value according to an embodiment of the present invention.
도 5a를 참조하면, RealBoosting 분류기의 결과는 실수 값의 점수(혹은 신뢰도)이며, 신뢰도에 따라 사용자가 맞고 틀림을 결정할 수 있는 장점이 있다. 본 발명에서 사용한 LAB 특징 추출기와 RealBoosting 특징 분류기를 이용한 얼굴 검출부(163)(또는 상체 검출부(165))는 타 머신 러닝 기반 검출기와 유사하게 클래스가 많아질수록 검출률이 낮아지는 문제가 있기 때문에 One-클래스 검출기로 구현될 수 있다. 본 발명의 차량 지원 시스템(101)은 탑승자의 얼굴 영역과 상체 영역을 각각 획득하기 위해 얼굴 검출부(163)와 상체 검출부(165)를 포함할 수 있으며, 상기 두 개의 검출부(163, 165)는 검출기 구조는 같으며, 학습 데이터가 다른 구조로 구현될 수 있다. Referring to FIG. 5A , the result of the RealBoosting classifier is a real-valued score (or reliability), and there is an advantage in that the user can determine whether the user is right or wrong according to the reliability. The face detection unit 163 (or the upper body detection unit 165) using the LAB feature extractor and RealBoosting feature classifier used in the present invention has a problem that the detection rate decreases as the number of classes increases, similar to other machine learning-based detectors. It can be implemented as a class detector. The
본 발명의 차량 지원 시스템(101)은 DB 학습과 관련하여, 약한 분류기를 구성할 수 있는 만큼 구성한 후, 분류기가 positive로 분류하는지, negative로 분류하는지에 따라, 도 5b에 나타낸 바와 같이, weighting을 부여하고 반복적으로 학습하여 상위 N개의 classifier를 선택한다. 차량 지원 시스템(101)은 학습된 결과를 분류기의 LAB feature 값에 따른 가중치 값으로 저장할 수 있다. In relation to DB learning, the
도 6a는 본 발명의 실시 예에 따른 탑승자 얼굴 및 상체 검출 결과를 나타낸 도면이며, 도 6b는 본 발명의 실시 예에 따른 얼굴 중앙과 목 및 어깨 포인트에 해당하는 온도 획득과 어깨 넓이 획득의 예를 나타낸 도면이다.6A is a view showing the result of detecting the face and upper body of an occupant according to an embodiment of the present invention, and FIG. 6B is an example of acquiring a temperature corresponding to the center of the face, neck and shoulder points and acquiring a shoulder width according to an embodiment of the present invention the drawing shown.
도 6a를 참조하면, 얼굴 및 상체 영역 검출과 관련하여, 차량 지원 시스템(101)의 제어 회로(160)는 얼굴 및 상체를 영역을 획득하는 과정에서, 앞 단계의 검출기에서 획득한 검출 영역을 잘라 저장하고 출력할 수 있다. 또한, 상기 제어 회로(160)는 코 온도 획득 및 어깨 넓이 계산과 관련하여, 탑승자 얼굴 검출부(163) 및 상체 검출부(165)를 구성하는 과정에서 레이블링 규칙을 정하여 레이블링을 수행할 수 있다. 이에 따라, 실제 검출 결과도 레이블링 규칙대로 검출이 되며, 레이블링 규칙에 따라 대략적인 골격 정보를 유추할 수 있다. 상기 제어 회로(160)는 탑승자 얼굴 검출 결과에서 눈, 코, 입의 위치정보, 탑승자 상체 검출 결과에서 목, 명치, 어깨, 배 위치 정보를 획득할 수 있다. 이때, 제어 회로(160)는 탑승자 얼굴 및 상체 검출 결과로부터 획득한 골격 정보가 검출 사각형의 스케일별, 탑승자 위치별 차이가 있으므로, 스케일과 위치를 고려한 offset을 적용하여 골격 정보 획득한다. 상기 제어 회로(160)는 탑승자 골격 정보에 따라 어깨 넓이, 상체 길이 등을 획득할 수 있다. 어깨 넓이 획득과 관련하여, 제어 회로(160)는 왼쪽 어깨 포인트와 오른쪽 어깨 포인트의 Depth 포인트를 검출하고, 이 두 포인트를 캘리브레이션 데이터에 따라 실세계의 좌표로 재투영(reprojection)한 후, 실세계 좌표간 거리를 구하여 어깨 넓이를 구할 수 있다. 탑승자 국부 위치에 해당하는 온도 값 검출과 관련하여, 제어 회로(160)는 얼굴 중앙, 명치, 어깨 등의 포인트에 해당하는 Depth 값에 따라 Depth-Thermal 정합 정보를 통해 획득할 수 있다. Referring to FIG. 6A , in relation to face and upper body region detection, the
도 6b에 도시된 바와 같이, 제어 회로(160)는 얼굴 중앙, 목, 어깨 포인트에 해당하는 온도 획득을 수행하고, 어깨 넓이를 검출할 수 있다. 여기서, 얼굴 검출 및 움직임 평균 계산과, 검출 점수 획득과 관련하여, 제어 회로(160)는 검출부(예: 상기 얼굴 검출부(163) 및 상체 검출부(165)) 성능 향상을 위해 이전 정보를 저장할 수 있다. 즉, 제어 회로(160)는 단일 프레임에서 검출이 실패할 경우를 대비하여 일정 구간의 이전 정보를 평균 내어 저장(moving average)할 수 있다. 이때, 검출 유무에 따라 검출 점수(detection score)의 값이 증감하며, 검출 점수(detection score)에 따라 움직임 평균(moving average) 결과의 반영 유무를 결정할 수 있다. 상기 제어 회로(160)는 얼굴 또는 상체 검출 수행 시간을 더 단축시키기 위해서 운전 시작 전, 운전 중 두 가지 모드로 구분하여 검출부들을 운용할 수 있다. As shown in FIG. 6B , the
운전 시작 전 모드는 운전자 등 탑승자가 차량에 탑승했을 때 수행하는 모드이다. 제어 회로(160)는 탑승자의 얼굴 영역, 상체 영역, 얼굴 온도, 어깨 넓이를 구하는 작업을 수행하며, 여러 프레임을 고려하여(평균을 구해) 정확도를 높일 수 있다. 운전 중 모드는 운전자가 주행을 시작했을 때 수행하는 모드이다. 운전자의 어깨 넓이는 변하지 않은 요소이기 때문에 운전 중에는 추론하지 않는 것이 효율적일 수 있다. 또한, 탑승자 상체 영역 또한 운전 중에는 크게 변화하지 않는 요소이므로, 제어 회로(160)는 필요할 때만 상체 영역을 획득 할 수 있다.The pre-driving mode is a mode performed when a passenger, such as a driver, gets into the vehicle. The
한편, 본 명세서와 도면에 개시된 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게는 자명한 것이다.On the other hand, the embodiments disclosed in the present specification and drawings are merely presented as specific examples to aid understanding, and are not intended to limit the scope of the present invention. It is obvious to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.
100: 차량
101: 차량 지원 시스템
110: 구동부
120: 조향부
131, 132, 133: 카메라
140: 메모리
150: 디스플레이
160: 제어 회로
170: 센서부 100: vehicle
101: vehicle assistance system
110: driving unit
120: steering unit
131, 132, 133: camera
140: memory
150: display
160: control circuit
170: sensor unit
Claims (8)
상기 카메라가 획득한 영상을 기반으로 탑승자의 얼굴 및 상체를 검출하는 단계;를 포함하고,
상기 탑승자의 얼굴 및 상체를 검출하는 단계는
상기 차량의 운전 여부를 확인하는 단계;
운전 이전 상태에서는 상기 탑승자에 대한 복수개의 영상을 제1 주기로 획득하고, 획득된 복수개의 영상에 대한 평균값을 추출한 후, 상기 평균값을 기준으로 상기 탑승자의 얼굴 및 상태 검출을 수행하고,
상기 운전 중 상태에서는 상기 제1 주기보다 긴 제2 주기 또는 특정 이벤트 발생에 따라 상기 탑승자에 대한 영상을 획득하고, 상기 획득된 영상을 기반으로 상기 탑승자의 얼굴 및 상태 검출을 수행하는 단계;를 포함하는 것을 특징으로 하는 차량 내 탑승자 정보 획득 방법.obtaining an image capable of detecting an RGB value, a depth value, and a temperature value for each area of a passenger using a camera installed in the vehicle;
Detecting the face and upper body of the occupant based on the image acquired by the camera;
The step of detecting the face and upper body of the passenger
checking whether the vehicle is being driven;
In the state before driving, a plurality of images of the occupant are acquired in a first cycle, an average value of the acquired images is extracted, and the face and state of the occupant are detected based on the average value,
In the driving state, acquiring an image of the occupant according to a second cycle longer than the first cycle or occurrence of a specific event, and detecting the face and state of the occupant based on the acquired image; includes; In-vehicle occupant information acquisition method, characterized in that.
상기 탑승자의 얼굴 및 상체를 검출하는 단계는
기 설정된 레이블링 규칙에 따라 레이블링을 수행하여 상기 탑승자에 대한 골격 정보를 획득하는 단계;
상기 탑승자의 얼굴 및 상체 검출 결과로부터 획득한 상기 골격 정보에 대해 스케일과 위치를 고려한 지정된 오프셋 값을 적용하여 골격 정보를 보정하는 단계;를 포함하는 것을 특징으로 하는 차량 내 탑승자 정보 획득 방법.According to claim 1,
The step of detecting the face and upper body of the passenger
obtaining skeletal information about the occupant by performing labeling according to a preset labeling rule;
and correcting the skeletal information by applying a specified offset value in consideration of scale and position to the skeletal information obtained from the detection result of the occupant's face and upper body.
상기 차량의 조향을 위한 조향부;
상기 차량 내 설치되어, 탑승자에 대한 RGB 값, 깊이 값, 및 영역별 온도 값을 검출할 수 있는 영상을 획득하는 카메라;
상기 카메라가 획득한 영상을 기반으로 탑승자의 얼굴 및 상체를 검출하고, 상기 얼굴 및 상체 검출 값을 기반으로 탑승자가 기 설정된 탑승자인지 확인하는 탑승자 검출을 수행하고, 기 설정된 탑승자인지 여부에 따라 서로 다른 기능을 수행하도록 제어하는 제어 회로;를 포함하는 것을 특징으로 하는 차량 지원 시스템.a driving unit for driving a vehicle;
a steering unit for steering the vehicle;
a camera installed in the vehicle to acquire an image capable of detecting RGB values, depth values, and temperature values for each area of the occupant;
Detects the face and upper body of the occupant based on the image obtained by the camera, performs occupant detection to determine whether the occupant is a preset occupant based on the face and upper body detection values, A vehicle assistance system comprising: a control circuit that controls to perform a function.
상기 제어 회로는
상기 차량의 운전 여부를 확인하고,
상기 운전 이전 상태에서는
상기 탑승자에 대한 복수개의 영상을 제1 주기로 획득하고, 획득된 복수개의 영상에 대한 평균값을 추출한 후, 상기 평균값을 기준으로 상기 탑승자의 얼굴 및 상태 검출을 수행하도록 설정된 것을 특징으로 하는 차량 지원 시스템.4. The method of claim 3,
The control circuit is
Check whether the vehicle is being driven,
In the state before the operation,
The vehicle support system according to claim 1, wherein a plurality of images of the occupant are acquired in a first period, an average value of the acquired images is extracted, and the face and state of the occupant are detected based on the average value.
상기 제어 회로는
상기 운전 중 상태에서는
상기 제1 주기보다 긴 제2 주기 또는 특정 이벤트 발생에 따라 상기 탑승자에 대한 영상을 획득하고, 상기 획득된 영상을 기반으로 상기 탑승자의 얼굴 및 상태 검출을 수행하도록 설정된 것을 특징으로 하는 차량 지원 시스템. 5. The method of claim 4,
The control circuit is
In the driving state
The vehicle assistance system according to claim 1, wherein the image of the occupant is acquired according to a second cycle longer than the first cycle or occurrence of a specific event, and the face and state of the occupant are detected based on the acquired image.
상기 제어 회로는
상기 탑승자의 얼굴 영역을 검출하는 얼굴 검출부 및 상기 탑승자의 상체 영역을 검출하는 상체 검출부 중 적어도 하나를 가지는 검출부를 포함하고,
상기 검출부는
상기 카메라가 획득한 영상에 대해, LAB(Locally Assembled Binary) 특징 검출을 수행하되, 복수의 크기의 영상 영역을 설정하고, 설정된 영상 영역들에 대한 LAB 특징 검출을 수행하여 계산하여 물체의 형태 또는 위치 정보를 결정하는 것을 특징으로 하는 차량 지원 시스템. 4. The method of claim 3,
The control circuit is
a detection unit having at least one of a face detection unit detecting a face region of the passenger and an upper body detecting unit detecting an upper body region of the passenger;
the detection unit
For the image acquired by the camera, LAB (Locally Assembled Binary) feature detection is performed, image regions of a plurality of sizes are set, and LAB feature detection is performed on the set image regions to calculate the shape or position of an object A vehicle assistance system, characterized in that determining the information.
상기 검출부는
상기 탑승의 얼굴 및 상태 검출 과정에서 기 설정된 레이블링 규칙에 따라 레이블링을 수행하여 상기 탑승자에 대한 골격 정보를 획득하도록 설정된 것을 특징으로 하는 차량 지원 시스템.7. The method of claim 6,
the detection unit
and performing labeling according to a preset labeling rule in the process of detecting the face and state of the occupant to obtain skeletal information about the occupant.
상기 검출부는
상기 탑승자의 얼굴 및 상체 검출 결과로부터 획득한 상기 골격 정보에 대해 스케일과 위치를 고려한 지정된 오프셋 값을 적용하여 골격 정보를 보정하도록 설정된 것을 특징으로 하는 차량 지원 시스템. 8. The method of claim 7,
the detection unit
and to correct the skeletal information by applying a specified offset value in consideration of scale and position to the skeletal information obtained from the detection result of the occupant's face and upper body.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190164958A KR20210074037A (en) | 2019-12-11 | 2019-12-11 | Method of obtaining information of automobile passenger and system supporting the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190164958A KR20210074037A (en) | 2019-12-11 | 2019-12-11 | Method of obtaining information of automobile passenger and system supporting the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210074037A true KR20210074037A (en) | 2021-06-21 |
Family
ID=76600117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190164958A KR20210074037A (en) | 2019-12-11 | 2019-12-11 | Method of obtaining information of automobile passenger and system supporting the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210074037A (en) |
-
2019
- 2019-12-11 KR KR1020190164958A patent/KR20210074037A/en not_active IP Right Cessation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210405636A1 (en) | Vehicular driving assist system that learns different driving styles | |
EP2860664B1 (en) | Face detection apparatus | |
US9888875B2 (en) | Driver monitoring apparatus | |
US10553116B2 (en) | Method for detecting right lane area and left lane area of rear of vehicle using region of interest and image monitoring system for vehicle using the same | |
US9662977B2 (en) | Driver state monitoring system | |
KR101165106B1 (en) | Driver certification device and method that do fetters in face realization | |
KR102266354B1 (en) | Apparatus and Method for Authenticating Biometric Information for Multi Preference | |
US10474930B1 (en) | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same | |
CN111775944B (en) | Driving assistance apparatus, method, and computer-readable storage medium | |
JP6814977B2 (en) | Image processing device, detection device, learning device, image processing method, and image processing program | |
US11983952B2 (en) | Physique determination apparatus and physique determination method | |
KR101546893B1 (en) | System for checking doze at the vehicle | |
CN113561908A (en) | Control method and device of vehicle-mounted face recognition equipment | |
CN108875617A (en) | Auxiliary driving method and device, vehicle | |
EP3637309A1 (en) | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same | |
JP2004334786A (en) | State detection device and state detection system | |
CN114103961A (en) | Face information acquisition apparatus and face information acquisition method | |
KR20120012666A (en) | System and method for protecting drunk driving using face recognition technology | |
CN112660048A (en) | Multi-screen power supply management method, device and system based on image recognition and automobile | |
KR20210074037A (en) | Method of obtaining information of automobile passenger and system supporting the same | |
KR101976498B1 (en) | System and method for gesture recognition of vehicle | |
JP3036319B2 (en) | Driver status monitoring device | |
JP2010108167A (en) | Face recognition device | |
WO2023175686A1 (en) | Occupant information acquisition device, occupant information acquisition system, occupant information acquisition method, and non-transitory computer-readable medium | |
EP4398201A1 (en) | Activity and seating pose classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X601 | Decision of rejection after re-examination |