KR20230078069A - System for determining the posture type using object silhouette and operation method thereof - Google Patents
System for determining the posture type using object silhouette and operation method thereof Download PDFInfo
- Publication number
- KR20230078069A KR20230078069A KR1020210165467A KR20210165467A KR20230078069A KR 20230078069 A KR20230078069 A KR 20230078069A KR 1020210165467 A KR1020210165467 A KR 1020210165467A KR 20210165467 A KR20210165467 A KR 20210165467A KR 20230078069 A KR20230078069 A KR 20230078069A
- Authority
- KR
- South Korea
- Prior art keywords
- silhouette
- posture type
- posture
- image
- dimensional
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000011017 operating method Methods 0.000 claims abstract description 3
- 238000005259 measurement Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 10
- 230000036544 posture Effects 0.000 description 60
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000002747 voluntary effect Effects 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
- H04N23/23—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from thermal infrared radiation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 객체를 촬영하여 2차원의 열영상을 생성하는 영상획득장치 및 2차원의 열영상을 이용하여 객체 실루엣을 확보하고 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별하는 서버를 포함하는 객체 실루엣을 이용한 자세유형 판별 시스템 및 그 동작방법을 개시한다.The present invention provides an image acquisition device for generating a two-dimensional thermal image by photographing an object, and a server that secures an object silhouette using the two-dimensional thermal image and discriminates the posture type while providing privacy protection of the object through the object silhouette. Disclosed is a posture type discrimination system using an object silhouette and an operating method thereof.
Description
본 발명은 객체 실루엣을 이용한 자세유형 판별 시스템 및 그 동작방법에 관한 것으로서, 더욱 상세하게는 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별하는 기술에 관한 것이다.The present invention relates to a posture type determination system using an object silhouette and an operating method thereof, and more particularly, to a technique for determining a posture type while providing privacy protection of an object through an object silhouette.
종래에는 특허문헌에 기재된 바와 같이 사용자의 프라이버시 보호를 위해 영상에서 객체의 안면을 모자이크화하여 처리하고 있다. 또한 종래에는 객체의 형상에 다른 색상이나 무늬로 채워 실루엣을 처리하고 있다.Conventionally, as described in patent literature, the face of an object is mosaicked and processed in an image to protect user privacy. In addition, conventionally, the silhouette is processed by filling the shape of the object with a different color or pattern.
그러나 종래에는 안면의 모자이크 또는 형상에 다른 색상을 채워 실루엣으로 처리하기 위한 별도의 기술이 적용되어 시스템의 복잡도가 증가될 수 있는 문제점이 있다. 또한 종래에는 객체 이외에 대한 주변환경에 관한 부가정보가 고스란히 노출되어 사용자의 프라이버시 보호가 제대로 이루어지기 어려운 문제점이 있다.However, conventionally, there is a problem in that the complexity of the system may be increased because a separate technique for processing the mosaic or shape of the face as a silhouette by filling in a different color is applied. In addition, conventionally, there is a problem in that it is difficult to properly protect the user's privacy because additional information about the surrounding environment other than the object is exposed intact.
상기 문제점을 해결하기 위하여 본 발명은 2차원의 열영상을 이용하여 객체 실루엣을 확보하고, 2차원의 열영상을 3차원의 공간좌표로 생성하며, 객체의 키 포인트별로 3차원의 좌표를 부여하고, 키 포인트의 좌표변화를 분석하여 객체의 자세유형을 판별하는 객체 실루엣을 이용한 자세유형 판별 시스템 및 그 동작방법을 제공한다.In order to solve the above problems, the present invention secures an object silhouette using a 2-dimensional thermal image, generates a 2-dimensional thermal image with 3-dimensional spatial coordinates, assigns 3-dimensional coordinates to each key point of the object, , We provide a posture type determination system and its operation method using object silhouettes that analyze the coordinate change of key points to determine the posture type of an object.
본 발명은 키 포인트의 좌표변화에 대응하는 시간값을 측정하고, 좌표값에 시간값을 함께 비교 분석하여 객체의 자세유형을 판별하는 객체 실루엣을 이용한 자세유형 판별 시스템 및 그 동작방법을 제공한다.The present invention provides a posture type discrimination system using an object silhouette and an operation method for determining the posture type of an object by measuring a time value corresponding to a coordinate change of a key point and comparing and analyzing the time value with the coordinate value.
상기의 해결하고자 하는 과제를 위한 본 발명의 실시예에 따른 객체 실루엣을 이용한 자세유형 판별 시스템은, 객체를 촬영하여 2차원의 열영상을 생성하는 영상획득장치(100) 및 2차원의 열영상을 이용하여 객체의 자세유형을 판별하는 서버(200)를 포함하고, 상기 서버는, 상기 2차원의 열영상을 이용하여 객체 실루엣을 확보하고, 폴리건과 키 포인트를 이용하여 객체 실루엣의 형태를 학습하며, 객체 실루엣을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별하는 영상처리부(220); 상기 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정하는 측정부(230) 및 상기 측정부에서 측정된 좌표값의 변화를 분석하여 객체의 자세유형을 판별하는 판별부(240)를 포함하여, 상기 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별하는 것을 특징으로 한다.A posture type discrimination system using an object silhouette according to an embodiment of the present invention for the above problem to be solved is an
상기 측정부는 키 포인트의 좌표변화에 대응하는 시간값을 측정하고, 판별부는 좌표값에 시간값을 함께 비교 분석하여 객체의 자세유형을 판별하는 것을 특징으로 할 수 있다.The measurement unit may measure a time value corresponding to a coordinate change of a key point, and the determination unit may compare and analyze the time value with the coordinate value to determine the posture type of the object.
본 발명의 실시예에 따른 객체를 촬영하여 2차원의 열영상을 생성하는 영상획득장치 및 2차원의 열영상을 이용하여 객체의 자세유형을 판별하는 서버를 포함하는 객체 실루엣을 이용한 자세유형 판별 시스템의 동작방법은, 상기 2차원의 열영상을 이용하여 객체 실루엣을 확보하는 단계; 폴리건과 키 포인트를 이용하여 객체 실루엣의 형태를 학습하는 단계; 상기 객체 실루엣을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별하는 단계; 상기 객체의 키 포인트별로 3차원의 좌표를 부여하는 단계 및 상기 공간좌표에서 객체의 키 포인트에 대한 좌표변화를 분석하여 객체의 자세유형을 판별하는 단계를 포함하여, 상기 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별하는 것을 특징으로 한다.Posture type determination system using object silhouettes including an image acquisition device generating a two-dimensional thermal image by photographing an object according to an embodiment of the present invention and a server for determining the posture type of an object using the two-dimensional thermal image The method of operation may include securing an object silhouette using the two-dimensional thermal image; Learning the shape of an object silhouette using polygons and key points; generating three-dimensional spatial coordinates using the object silhouette and identifying the object; The step of assigning three-dimensional coordinates for each key point of the object and determining the posture type of the object by analyzing the coordinate change for the key point of the object in the spatial coordinates, the privacy of the object through the object silhouette It is characterized by discriminating the posture type while providing protection.
본 발명은 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별할 수 있고, 객체 이외의 부가정보의 노출을 차단하여 더욱 강력한 프라이버시 보호를 제공할 수 있다.The present invention can determine the posture type while providing privacy protection of the object through the object silhouette, and can provide more powerful privacy protection by blocking the exposure of additional information other than the object.
본 발명은 키 포인트의 좌표변화에 대응하는 시간값을 측정하고, 좌표값에 시간값을 함께 비교 분석하여 객체의 자세유형을 판별함으로써, 사고에 의한 넘어짐인지 또는 자의에 의한 누움인지 자세유형의 판별 정확도를 더욱 향상시킬 수 있고, 종래의 자세추정에 대한 오탐율을 감소시킬 수 있다.The present invention measures the time value corresponding to the coordinate change of the key point, compares and analyzes the time value with the coordinate value, and determines the posture type of the object, whether it is an accidental fall or voluntary lying down. Accuracy can be further improved, and false positive rates for conventional attitude estimation can be reduced.
도 1은 본 발명의 실시예에 따른 자세유형 판별 시스템을 도시한 블록도이다.
도 2는 도 1의 자세유형 판별 시스템을 더욱 상세하게 도시한 블록도이다.
도 3은 도 1의 서버를 더욱 상세하게 도시한 블록도이다.
도 4는 종래의 자세추정 방식을 설명하기 위한 예이다.
도 5는 종래의 자세추정 방식을 설명하기 위한 다른 예이다.
도 6은 본 발명의 자세유형 판별 방식을 설명하기 위한 예이다.
도 7은 종래와 본 발명의 자세유형 판별의 방식을 비교하기 위한 예이다.
도 8은 본 발명의 음성과 영상 분석을 이용하여 객체의 상황을 인식하는 방법을 설명하기 위한 예이다.
도 9는 열영상을 이용하여 객체의 자세유형을 판별하는 방법을 설명하기 위한 예이다.1 is a block diagram showing a posture type determination system according to an embodiment of the present invention.
FIG. 2 is a block diagram showing the posture type determination system of FIG. 1 in more detail.
FIG. 3 is a block diagram illustrating the server of FIG. 1 in more detail.
4 is an example for explaining a conventional posture estimation method.
5 is another example for explaining a conventional posture estimation method.
6 is an example for explaining the posture type determination method of the present invention.
7 is an example for comparing the posture type determination method of the prior art and the present invention.
8 is an example for explaining a method of recognizing a situation of an object using voice and video analysis according to the present invention.
9 is an example for explaining a method of determining a posture type of an object using a thermal image.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described in the accompanying drawings, but the present invention is not limited or limited by the embodiments.
도 1은 본 발명의 실시예에 따른 자세유형 판별 시스템을 도시한 블록도로서, 자세유형 판별 시스템(10)은 영상획득장치(100), 서버(200) 및 단말기(300)를 포함한다. 영상획득장치(100)는 요양병원, 어린이 보호소 또는 가정집 등 다양한 환경에서 설치가 가능하고, 감시대상을 감시하기 위해 사용된다. 감시대상은 노인, 어린이 또는 장애인 등 사용목적에 따라 다양할 수 있다.1 is a block diagram showing a posture type determination system according to an embodiment of the present invention. The posture
서버(200)는 영상획득장치(100)에서 촬영된 영상을 분석하여 감시대상을 모니터링하고, 감시대상의 이상행동 또는 낙상을 발견하면 단말기(300)에게 해당 이벤트정보를 전송한다. The
단말기(300)의 사용자는 서버(200)에서 보내준 이벤트정보를 참조하여 감시대상의 상태를 체크할 수 있다. 단말기(300)는 스마트폰, 데스크톱 또는 랩탑일 수 있고, 통신이 가능한 다양한 장치일 수 있으며, 이에 한정하지 않는다.The user of the
도 2는 도 1의 자세유형 판별 시스템을 더욱 상세하게 도시한 블록도로서, 영상획득장치(100)는 영상을 촬영하기 위한 CCTV 및 녹화를 위한 NVR을 포함할 수 있다. 서버(200)는 NVR 연결을 제공하고, 영상 분석을 위한 소프트웨어를 포함할 수 있다.FIG. 2 is a block diagram showing the posture type determination system of FIG. 1 in more detail. The
도 3은 도 1의 서버를 더욱 상세하게 도시한 블록도로서, 서버(200)는 통신부(210), 영상처리부(220), 측정부(230), 판별부(240) 및 데이터베이스(250)를 포함한다.FIG. 3 is a block diagram showing the server of FIG. 1 in more detail. The
통신부(210)는 객체를 촬영하는 영상획득장치(100)로부터 2차원의 영상을 수신한다. 영상처리부(220)는 2차원의 영상을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별한다.The
본 발명은 단일 카메라 또는 다중 카메라를 활용하여 2차원의 영상을 3차원의 공간좌표로 생성할 수 있다. 단일 카메라를 이용한 공간좌표 생성은 카메라 제원을 통해 해당 카메라의 내/외부 파라미터 값과 해당 카메라로 촬영된 측정 지표를 이미지상 기준점을 결합하여 촬영된 공간 좌표를 생성할 수 있다.The present invention can generate a 2D image with 3D spatial coordinates using a single camera or multiple cameras. Spatial coordinate generation using a single camera can generate captured spatial coordinates by combining internal/external parameter values of the corresponding camera and measurement indices captured by the corresponding camera with reference points on an image through camera specifications.
다중 카메라를 이용한 공간좌표 생성은 각각의 카메라의 거리를 측정 후 이미지상에서 표현되는 객체에 대하여 카메라 간 거리를 이용한 삼각측정 방법을 이용하여 공간 좌표를 생성할 수 있다.Spatial coordinate generation using multiple cameras can generate spatial coordinates using a triangulation method using the distance between cameras for an object represented on an image after measuring the distance of each camera.
영상처리부(220)는 지도학습(supervised learning)을 기반으로 데이터베이스(250)에 저장된 학습데이터를 이용하여 2차원의 영상에 존재하는 객체를 식별할 수 있다. 지도학습은 학습데이터를 참조하여 학습자의 입력값에 대응하는 출력값을 찾는 방식The
측정부(230)는 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정한다. 키 포인트(key point)는 영상에서 움직이고자 하는 객체의 주요한 지점을 의미하고, 예를 들어 머리, 어깨, 팔, 다리로 구분한다.The
도 4는 종래의 자세추정 방식을 설명하기 위한 예이고, 도 5는 종래의 자세추정 방식을 설명하기 위한 다른 예로서, 종래에는 서있는 상태에서 넘어지는 상태로 전환되는 학습이미지를 학습하여 객체의 자세를 추정하였다. 그러나 종래에는 서있는 상태에서 넘어지는 상태변화 등 자세변화만 인식함으로써, 사고로 넘어지는 것인지 또는 눕기 위해 자의로 넘어지는 것인지 알아내기 어려운 문제점이 있다.Figure 4 is an example for explaining a conventional posture estimation method, and Figure 5 is another example for explaining a conventional posture estimation method. was estimated. However, in the prior art, there is a problem in that it is difficult to determine whether a person falls by accident or voluntarily falls to lie down by recognizing only a change in posture, such as a change in a state of falling from a standing state.
도 6은 본 발명의 자세유형 판별 방식을 설명하기 위한 예이고, 도 7은 종래와 본 발명의 자세유형 판별의 방식을 비교하기 위한 예로서, 본 발명은 종래의 문제점을 해결하기 위하여 측정부(230)는 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정한다. 또한 판별부(240)는 키 포인트의 좌표변화를 분석하여 객체의 자세유형을 판별한다.6 is an example for explaining the posture type determination method of the present invention, and FIG. 7 is an example for comparing the posture type determination method of the present invention and the conventional method. 230) assigns three-dimensional coordinates to each key point of the object, and measures the coordinate change of the key point in space coordinates. In addition, the
측정부(230)는 3차원 공간에서의 키 포인트 기반 자세유형 모델을 구현할 수 있고, 자세유형 모델로부터 얻게 된 3차원 위치적 자세 데이터를 기반으로 자세에 대한 전체적인 특징 및 각 관절 부위의 구체적 특성을 추출하여 3차원 메시(mesh)망 형태의 인체 모델을 추출할 수 있다.The
본 발명은 키 포인트를 공간좌표에 적용하여 객체의 자세유형을 판별함으로써, 객체의 자세유형의 판별 정확도를 향상시킬 수 있다.The present invention can improve the accuracy of determining the posture type of an object by determining the posture type of an object by applying key points to spatial coordinates.
측정부(230)는 공간좌표에서 키 포인트의 좌표변화에 대응하는 좌표값과 시간값을 포함하는 자세변화율을 측정할 수 있고, 판별부(240)는 자세변화율을 분석하여 객체의 자세유형을 판별할 수 있다. 판별부(240)는 자세변화율에 의한 자세유형을 판별하기 위해 데이터베이스에 저장된 학습데이터를 활용할 수 있다.The
예를 들어 낙상으로 인한 사고에 의한 넘어짐은 좌표값 변화에 대응하여 시간값의 변화가 매우 작고, 자의로 인한 누움은 사고에 의한 넘어짐보다 시간값의 변화가 크므로, 판별부(240)는 자세변화율을 분석하여 객체의 누어있는 자세유형 중 누어있는 자세의 목적을 판별할 수 있다.For example, a fall due to an accident caused by a fall has a very small change in time value corresponding to a change in coordinate values, and a change in time value is larger than that in an accidental fall when lying down due to one's own will. By analyzing the rate of change, it is possible to determine the purpose of the lying posture among the types of lying postures of the object.
도 8은 본 발명의 음성과 영상 분석을 이용하여 객체의 상황을 인식하는 방법을 설명하기 위한 예로서, 영상획득장치(100)는 객체를 통하여 발생하는 음성을 인식하는 수단을 더 포함할 수 있고, 음성분석을 통하여 영상에 의한 객체의 자세유형을 판별하는 정확도를 더욱 향상시킬 수 있다.8 is an example for explaining a method for recognizing a situation of an object using voice and image analysis according to the present invention. The
도 9는 열영상을 이용하여 객체의 자세유형을 판별하는 방법을 설명하기 위한 예로서, 영상획득장치(100)는 객체를 촬영하여 2차원의 열영상을 생성하거나 실영상을 생성한다. 서버(200)는 영상획득장치(100)로부터 2차원의 열영상을 수신하면 열영상을 이용하여 객체의 자세유형을 판별한다.9 is an example for explaining a method of determining a posture type of an object using a thermal image, and the
영상획득장치(100)는 열영상을 촬영하기 위하여 열 센서 또는 열화상 카메라를 포함한다. 영상처리부(220)는 객체에서 발생하는 열로 인해 객체의 형상에 관한 실루엣을 확보할 수 있고, 열영상에서 열이 발생하지 않는 배경이 어두운 색으로 자연스럽게 표현되어 사생활에 관한 부가정보의 노출을 방지할 수 있다.The
영상처리부(220)는 폴리건과 키 포인트를 이용하여 객체 실루엣의 형태를 학습하고, 객체 실루엣을 이용하여 3차원의 공간좌표를 생성하며, 객체를 식별한다.The
본 발명은 열감지에 의한 다수의 실루엣을 대상으로 학습도구를 이용하고, 영상 실루엣에 폴리건을 형성하여 학습 데이터를 분류하며, 열감지에 의한 다수의 실루엣을 대상으로 학습도구를 이용하여 영상 실루엣에 머리, 어깨, 무릎, 팔 등을 마킹하여 학습데이터를 분류하고, 딥러닝 기술을 이용하여 분류된 학습데이터를 학습시켜 영상처리부(220)에서 객체를 식별할 수 있도록 한다.The present invention uses a learning tool for a plurality of silhouettes by heat detection, classifies learning data by forming a polygon in an image silhouette, and uses a learning tool for a plurality of silhouettes by heat detection to determine the image silhouette. The head, shoulder, knee, arm, etc. are marked to classify the learning data, and the classified learning data is learned using deep learning technology so that the
측정부(230)는 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정한다.The
본 발명은 객체식별을 위한 학습데이터를 구축하기 위한 데이터 분류작에서 열 감지 실루엣을 학습도구를 이용하여 숙력된 분류자가 마킹하여 처리할 수 있고, 딥러닝 기술에 의해 학습된 정보를 이용하여 부위별로 키 포인트를 부여할 수 있다.In the present invention, in a data classification work for constructing learning data for object identification, a skilled classifier can mark and process a heat-sensing silhouette using a learning tool, and use information learned by deep learning technology for each part. Key points can be assigned.
판별부(240)는 측정부(230)에서 측정된 좌표값의 변화를 분석하여 객체의 자세유형을 판별한다. 본 발명은 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별한다.The
측정부(230)는 키 포인트의 좌표변화에 대응하는 시간값을 측정할 수 있고, 판별부(240)는 좌표값에 시간값을 함께 비교 분석하여 객체의 자세유형을 판별할 수 있다.The
본 발명은 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별할 수 있고, 객체 이외의 부가정보의 노출을 차단하여 더욱 강력한 프라이버시 보호를 제공할 수 있다.The present invention can determine the posture type while providing privacy protection of the object through the object silhouette, and can provide more powerful privacy protection by blocking the exposure of additional information other than the object.
본 발명은 키 포인트의 좌표변화에 대응하는 시간값을 측정하고, 좌표값에 시간값을 함께 비교 분석하여 객체의 자세유형을 판별함으로써, 사고에 의한 넘어짐인지 또는 자의에 의한 누움인지 자세유형의 판별 정확도를 더욱 향상시킬 수 있고, 종래의 자세추정에 대한 오탐율을 감소시킬 수 있다.The present invention measures the time value corresponding to the coordinate change of the key point, compares and analyzes the time value with the coordinate value, and determines the posture type of the object, whether it is an accidental fall or voluntary lying down. Accuracy can be further improved, and false positive rates for conventional attitude estimation can be reduced.
본 발명은 영상정보와 공간정보를 결합하고, 공간정보에서 객체의 키 포인트별 좌표를 부여함으로써, 자세유형 판별의 정확성을 향상시킬 수 있다.The present invention can improve the accuracy of determining the posture type by combining image information and spatial information and assigning coordinates for each key point of an object in the spatial information.
종래에는 자세추정에 의미를 부여하였지만, 본 발명은 자세추정에서 학습하기 어려운 자세변경의 이유나 목적을 키 포인트 변화에 의한 측정으로 알아내어 자세추정에 대한 오탐율을 감소시킬 수 있다. 예를 들어 본 발명은 객체의 누어있는 목적 이외에도 식사나 운동 형태에 대한 식별 등 형태식별의 목적으로 구분하여 학습을 제공할 수 있는 것이다.In the past, meaning was given to posture estimation, but the present invention can reduce the false positive rate for posture estimation by finding out the reason or purpose of posture change, which is difficult to learn in posture estimation, by measuring the key point change. For example, in the present invention, in addition to the purpose of lying down, learning can be provided by classifying objects for the purpose of type identification, such as identification of eating or exercise type.
제어부(290)는 학습데이터의 학습을 위한 모듈을 포함할 수 있고, 장소별로 복수의 영상획득장치(100)의 동작을 제어하거나 모니터링할 수 있으며, 영상획득장치(100) 또는 단말기(300) 별 사용자를 관리하여 관리정보를 생성할 수 있고, 관리정보를 데이터베이스(250)에 저장할 수 있다.The
10: 자세유형 판별 시스템
100: 영상획득장치
200: 서버
210: 통신부
220: 영상처리부
230: 측정부
240: 판별부
250: 데이터베이스
290: 제어부
300: 단말기10: posture type determination system 100: image acquisition device
200: server 210: communication unit
220: image processing unit 230: measuring unit
240: determination unit 250: database
290: control unit 300: terminal
Claims (3)
상기 서버는,
상기 2차원의 열영상을 이용하여 객체 실루엣을 확보하고, 폴리건과 키 포인트를 이용하여 객체 실루엣의 형태를 학습하며, 객체 실루엣을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별하는 영상처리부(220);
상기 객체의 키 포인트별로 3차원의 좌표를 부여하고, 공간좌표에서 키 포인트의 좌표변화를 측정하는 측정부(230) 및
상기 측정부에서 측정된 좌표값의 변화를 분석하여 객체의 자세유형을 판별하는 판별부(240)를 포함하여,
상기 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별하는 것을 특징으로 하는 객체 실루엣을 이용한 자세유형 판별 시스템.It includes an image acquisition device 100 that captures an object and generates a two-dimensional thermal image, and a server 200 that determines the posture type of the object using the two-dimensional thermal image,
The server,
An image processing unit that secures an object silhouette using the 2D thermal image, learns the shape of the object silhouette using polygons and key points, creates 3D space coordinates using the object silhouette, and identifies the object. (220);
A measurement unit 230 that assigns three-dimensional coordinates to each key point of the object and measures the coordinate change of the key point in spatial coordinates; and
Including a determination unit 240 for determining the posture type of the object by analyzing the change in the coordinate value measured by the measurement unit,
A posture type determination system using an object silhouette, characterized in that the posture type is determined while providing privacy protection of the object through the object silhouette.
상기 측정부는 키 포인트의 좌표변화에 대응하는 시간값을 측정하고, 판별부는 좌표값에 시간값을 함께 비교 분석하여 객체의 자세유형을 판별하는 것을 특징으로 하는 객체 실루엣을 이용한 자세유형 판별 시스템.According to claim 1,
The measurement unit measures the time value corresponding to the coordinate change of the key point, and the determination unit compares and analyzes the time value with the coordinate value to determine the posture type of the object.
상기 2차원의 열영상을 이용하여 객체 실루엣을 확보하는 단계;
폴리건과 키 포인트를 이용하여 객체 실루엣의 형태를 학습하는 단계;
상기 객체 실루엣을 이용하여 3차원의 공간좌표를 생성하고, 객체를 식별하는 단계;
상기 객체의 키 포인트별로 3차원의 좌표를 부여하는 단계 및
상기 공간좌표에서 객체의 키 포인트에 대한 좌표변화를 분석하여 객체의 자세유형을 판별하는 단계를 포함하여,
상기 객체 실루엣을 통하여 객체의 프라이버시 보호를 제공하면서 자세유형을 판별하는 것을 특징으로 하는 객체 실루엣을 이용한 자세유형 판별 시스템의 동작방법.In the operating method of a posture type discrimination system using an object silhouette, including an image acquisition device for photographing an object and generating a two-dimensional thermal image, and a server for determining the posture type of an object using the two-dimensional thermal image,
securing an object silhouette using the two-dimensional thermal image;
Learning the shape of an object silhouette using polygons and key points;
generating three-dimensional spatial coordinates using the object silhouette and identifying the object;
assigning three-dimensional coordinates to each key point of the object; and
Including the step of determining the posture type of the object by analyzing the coordinate change for the key point of the object in the spatial coordinates,
A method of operating a posture type determination system using an object silhouette, characterized in that the posture type is determined while providing privacy protection of the object through the object silhouette.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210165467A KR20230078069A (en) | 2021-11-26 | 2021-11-26 | System for determining the posture type using object silhouette and operation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210165467A KR20230078069A (en) | 2021-11-26 | 2021-11-26 | System for determining the posture type using object silhouette and operation method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230078069A true KR20230078069A (en) | 2023-06-02 |
Family
ID=86756037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210165467A KR20230078069A (en) | 2021-11-26 | 2021-11-26 | System for determining the posture type using object silhouette and operation method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230078069A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101881391B1 (en) | 2018-03-09 | 2018-07-25 | 한화에어로스페이스 주식회사 | Apparatus for performing privacy masking by reflecting characteristic information of objects |
-
2021
- 2021-11-26 KR KR1020210165467A patent/KR20230078069A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101881391B1 (en) | 2018-03-09 | 2018-07-25 | 한화에어로스페이스 주식회사 | Apparatus for performing privacy masking by reflecting characteristic information of objects |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | A viewpoint-independent statistical method for fall detection | |
Kepski et al. | Fall detection using ceiling-mounted 3d depth camera | |
US7831087B2 (en) | Method for visual-based recognition of an object | |
JP5594672B2 (en) | Object recognition apparatus and object recognition method | |
JP6590609B2 (en) | Image analysis apparatus and image analysis method | |
JP4929828B2 (en) | Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program | |
EP3689236A1 (en) | Posture estimation device, behavior estimation device, posture estimation program, and posture estimation method | |
CN109830078B (en) | Intelligent behavior analysis method and intelligent behavior analysis equipment suitable for narrow space | |
JP6773829B2 (en) | Object recognition device, object recognition method, and object recognition program | |
JP2012069133A (en) | Solidity authenticating method, solidity authenticating apparatus, and solidity authenticating program | |
JP7151875B2 (en) | Image processing device, image processing method, and program | |
JP2018156408A (en) | Image recognizing and capturing apparatus | |
JP4507243B2 (en) | Behavior analysis method and system | |
CN114359976A (en) | Intelligent security method and device based on person identification | |
Abd et al. | Human fall down recognition using coordinates key points skeleton | |
WO2023096394A1 (en) | Server for determining posture type and operation method thereof | |
CN106970709A (en) | A kind of 3D exchange methods and device based on holographic imaging | |
JP6773825B2 (en) | Learning device, learning method, learning program, and object recognition device | |
CN111144260A (en) | Detection method, device and system of crossing gate | |
KR20230078069A (en) | System for determining the posture type using object silhouette and operation method thereof | |
JP2005250692A (en) | Method for identifying object, method for identifying mobile object, program for identifying object, program for identifying mobile object, medium for recording program for identifying object, and medium for recording program for identifying traveling object | |
KR102546045B1 (en) | monitering system with LiDAR for a body | |
Yuan et al. | Fall detection and direction judgment based on posture estimation | |
Kwolek et al. | Fall detection using kinect sensor and fall energy image | |
JP7152651B2 (en) | Program, information processing device, and information processing method |