WO2022019601A1 - 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법 - Google Patents

영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법 Download PDF

Info

Publication number
WO2022019601A1
WO2022019601A1 PCT/KR2021/009301 KR2021009301W WO2022019601A1 WO 2022019601 A1 WO2022019601 A1 WO 2022019601A1 KR 2021009301 W KR2021009301 W KR 2021009301W WO 2022019601 A1 WO2022019601 A1 WO 2022019601A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
feature
feature point
proper noun
Prior art date
Application number
PCT/KR2021/009301
Other languages
English (en)
French (fr)
Inventor
김승모
Original Assignee
김승모
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김승모 filed Critical 김승모
Priority to US18/015,875 priority Critical patent/US20230259549A1/en
Publication of WO2022019601A1 publication Critical patent/WO2022019601A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present invention relates to extraction of object feature points from an image and an image search system and method using the same. More particularly, it relates to an image search system and method using object feature point extraction of an image for extracting objects and feature points from an image, converting it into big data, and extracting and providing an image that meets search conditions.
  • a surveillance system is built for various purposes such as facility management, crime prevention, security, etc.
  • a surveillance system is a surveillance camera (CCTV: Closed Circuit TeleVision) that is fixedly installed in various places and stores the images captured by the surveillance camera.
  • CCTV Closed Circuit TeleVision
  • Patent Document 1 proposes a problem in that it was difficult to search for an object having a behavior type of a pattern, and this problem is supplemented through (Patent Document 1).
  • Patent Document 1 relates to a method and apparatus for searching an object of a fixed camera image, according to which an input unit for receiving an image captured by a fixedly installed camera, and a search for searching for an object included in the image a search setting unit for setting a region and a search condition, searching for an object corresponding to the search condition and the search region among objects included in the image, and tracking the searched object to display an image including the object in the image and an output unit for outputting a synthesized image by synthesizing an object search unit to extract and a marker for tracking the object with the extracted image.
  • Patent Document 1 includes a technical element of extracting an object included in an image and searching as the extracted object, and even if the object is extracted, intermittently fails to meet the search requirements or searches for an image due to a recognition error There is a problem that the system does not work properly.
  • an object feature point extraction and image search system using the same includes an image collection unit for collecting image data collected through one or more cameras or separately input image data;
  • an object detection unit configured to detect an object included in the image collected from the image collection unit
  • a feature extraction unit that extracts a feature point of the object detected from the object detector and determines a proper noun of the object based on the feature point;
  • a database for storing the proper noun of the object determined from the feature extraction unit and the data of the object extracted from the object detection unit, and converting it into big data
  • an image extraction unit for extracting one or more images extracted from the image search unit from the database may include
  • the object detection unit detects an object included in the image using a You Only Look Once (YOLO) object detection algorithm.
  • YOLO You Only Look Once
  • the feature extraction unit applies a deep learning-based object detection algorithm to one or more objects detected by the object detection unit. At least one feature point of the object may be extracted by using it.
  • the image search unit detects an object for an image to be searched from the object detection unit, A proper noun may be detected from the feature extraction unit.
  • an object feature point extraction method and an image search method using the same include: (a) collecting image data collected from one or more cameras through an image collecting unit;
  • the step (b) uses a YOLO (You Only Look Once) object detection algorithm to find the object included in the image. can be detected.
  • YOLO You Only Look Once
  • the step (c) is deep learning-based object detection in one or more objects detected by the object detector. At least one feature point of the object may be extracted using an algorithm.
  • the step (d) includes searching for an object included in an image to be searched through the object detection unit and the feature extraction unit. Extract the feature point and the proper noun of the object, and match the extracted object, the feature point of the object, and the proper noun of the object with the information stored in the database (the object stored in the database, the feature point of the object, and the proper noun of the object).
  • the object extracted from the image, the feature point of the object, and the proper noun of the object are extracted using a deep learning-based object detection algorithm, and stored in a database to make it big data, and to search Information corresponding to the image being used can be extracted from the database.
  • information on an object included in an image can be calculated using artificial intelligence, and big data can be achieved based on this.
  • FIG. 1 is a block diagram showing the extraction of object feature points from an image and an image search system using the same according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an image search method using the object feature point extraction and the same according to an embodiment of the present invention.
  • the system for extracting object feature points of an image includes an image collecting unit 13 that collects image data collected through one or more cameras, and an image collecting unit 13 .
  • An object detection unit 11 for detecting an object included in the collected image, and a feature extraction unit 12 for extracting a feature point of the object extracted from the object detector 11, and determining a proper noun of the object based on the feature point and a database 14 that stores the proper noun of the object determined by the feature extraction unit 12 and the data of the object extracted from the object detection unit 11 and converts it into big data.
  • the image collection unit 13 receives the image data collected through one or more cameras and performs a function of collecting it, and the image collection unit 13 and the camera may be connected through separate wires.
  • the camera may be configured by selecting any one of an RGN camera, a 3D depth camera, an IR camera, and a spectroscopic camera, and in the present invention, image data captured by the IR camera may be collected.
  • the image collecting unit 13 may collect image data through a camera, and may collect image data separately input from the outside.
  • the image collecting unit 13 may receive image data from a separate device (or server), and in the present invention, it may be used to collect image data to be searched.
  • the object detection unit 11 performs a function of detecting one or more objects in the image collected from the image collection unit 13, divides the original image or image into grids of the same size, and is predefined at the center of each divided grid. It may include a You Only Look Once (YOLO) object detection algorithm that predicts the number of bounding boxes designated as a predefined shape and detects an object by calculating a reliability based on this.
  • YOLO You Only Look Once
  • the object detector 11 may detect one or more objects included in the image for each time period and display the time and the object together.
  • the feature extraction unit 12 may perform a function of extracting a characteristic point of each object with respect to one or more objects detected by the object detection unit 11 and determining a proper noun of the object based on the extracted characteristic point.
  • the feature extraction unit 12 may extract at least one feature point of the object using a deep learning-based object detection algorithm.
  • the deep learning-based object detection algorithm may be interpreted as the same algorithm as the YOLO object detection algorithm.
  • the feature extraction unit 12 may infer a proper noun of an object, for example, a car, a tree, a building, etc., based on the extracted feature points of the object.
  • the object detection unit 11 and the feature extraction unit 12 extract the object for each time period, the feature point of the object, and the proper noun of the object, the extracted image may be separately stored in the database 14 .
  • the database 14 may store the information (objects, feature points of objects, and proper nouns of objects) extracted by the object detection unit 11 and the feature extraction unit 12 to make it big data.
  • An image search system using object feature points of an image matches an object for an image to be searched, a feature point of the object, and a proper noun of the object, and information stored in the database 14 to match the object; It includes an image search unit 15 that searches for an image included in the feature point of the object and the proper noun of the object, and an image extractor 16 that extracts one or more images extracted from the image search unit 15 from the database 14 do.
  • the image search unit 15 may perform a function of searching for information stored in the database 14 .
  • the object for the image to be searched, the characteristic point of the object, and the proper noun of the object are extracted using the object detection unit 11 and the characteristic extraction unit 12, and the extracted object, the characteristic point of the object and the proper noun of the object are extracted.
  • the image extractor 16 may extract it from the database 14 .
  • the image search unit 15 may separately store information (objects, feature points of objects, and proper nouns of objects) extracted from an image to be searched in the database 14 to achieve big data.
  • the method of extracting object feature points from an image and searching for an image using the same includes the steps of collecting image data (S11) and detecting an object in the image ( S12), extracting feature points for each object (S13), storing the extracted feature points (S14, S15), searching for an image in a database (S16, 17), and extracting a matching image ( S18) may be included.
  • the step (S11) of collecting image data may collect an image through the image collecting unit 13, and specifically performs a function of collecting image data collected through one or more cameras by receiving it,
  • the image collection unit 13 and the camera may be connected through separate wires.
  • the camera may be configured by selecting any one of an RGN camera, a 3D depth camera, an IR camera, and a spectroscopic camera, and in the present invention, image data captured by the IR camera may be collected.
  • the image collecting unit 13 may collect image data through a camera, and may collect image data separately input from the outside.
  • the image collecting unit 13 may receive image data from a separate device (or server), and in the present invention, it may be used to collect image data to be searched.
  • the image collected through the image collecting unit 13 may detect an object through the object detecting unit 11 (S12).
  • the object detection unit 11 performs a function of detecting one or more objects in the image collected from the image collection unit 13, divides the original image or image into grids of the same size, and divides the center of each divided grid. It may include a You Only Look Once (YOLO) object detection algorithm that predicts the number of bounding boxes specified in a predefined shape and calculates reliability based on this to detect an object.
  • YOLO You Only Look Once
  • the object detector 11 may detect one or more objects included in the image for each time period and display the time and the object together.
  • One or more objects detected by the object detector 11 may extract feature points of the object through the feature extractor 12 ( S13 ). Specifically, the feature extraction unit 12 extracts a feature point of each object with respect to one or more objects detected by the object detector 11, and determines the proper noun of the object based on the extracted feature point.
  • the feature extraction unit 12 may extract at least one feature point of the object using a deep learning-based object detection algorithm.
  • the deep learning-based object detection algorithm may be interpreted as the same algorithm as the YOLO object detection algorithm.
  • the feature extraction unit 12 may infer a proper noun of an object, for example, a car, a tree, a building, etc., based on the extracted feature points of the object.
  • the object detection unit 11 and the feature extraction unit 12 extract the object for each time period, the feature point of the object, and the proper noun of the object, the extracted image may be separately stored in the database 14 (S14).
  • the database 14 may store the information (objects, feature points of objects, and proper nouns of objects) extracted by the object detection unit 11 and the feature extraction unit 12 to make it big data (S15).
  • the information extracted by the object detection unit 11 and the feature extraction unit 12 is extracted to search for information stored in the database 14 (S16), based on the information extracted by the object detection unit and the feature extraction unit, An image matching the matching result by matching information stored in the database 14 may be searched for through the image search unit 15 (S17).
  • the image search unit 15 extracts the object for the image to be searched, the feature point of the object, and the proper noun of the object using the object detection unit 11 and the feature extraction unit 12, and extracts the extracted object and the object. It performs a function of searching the image matching the object, feature point of object, and proper noun of the object for the image to be searched by matching the characteristic point and the proper noun of the object with the object stored in the database, the characteristic point of the object, and the proper noun of the object can do.
  • the matching image may be extracted from the database 14 through the image extraction unit 16 (S18).
  • the object extracted from the image, the feature point of the object, and the proper noun of the object are extracted using a deep learning-based object detection algorithm, and stored in the database 14 to make it big data. and information corresponding to the image to be searched can be extracted from the database.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법에 관한 것이다. 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법은 하나 이상의 카메라를 통해 수집된 영상데이터를 수집하는 영상 수집부와, 상기 영상 수집부로부터 수집된 영상에 포함된 객체를 검출하는 객체 검출부와, 상기 객체 검출부로부터 추출된 객체의 특징점을 추출하고, 상기 특징점을 기초로하여 상기 객체의 고유명사를 판단하는 특징 추출부와, 상기 특징 추출부로부터 판단한 상기 객체의 고유명사 및 상기 객체 검출부로부터 추출된 상기 객체의 데이터를 저장하고, 이를 빅데이터화하는 데이터베이스와, 검색하고자 하는 영상에 대한 객체, 객체의 특징점 및 객체의 고유명사와, 데이터베이스에 저장된 하나 이상의 객체, 객체의 특징점 및 객체의 고유명사를 매칭하여 부합되는 객체, 객체의 특징점 및 객체의 고유명사에 포함되는 영상을 검색하는 영상 검색부 및 상기 영상 검색부에서 추출된 하나 이상의 영상을 상기 데이터베이스에서 추출하는 영상 추출부를 포함한다.

Description

영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법
본 발명은 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법에 관한 것이다. 더욱 상세하게는 영상에 있는 객체 및 특징점을 추출하여 빅데이터화하고, 검색 조건에 부합되는 영상을 추출하여 제공하기 위한 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법에 관한 것이다.
일반적으로, 시설 관리, 범죄 예방, 보안 등의 다양한 목적으로 감시 시스템이 구축되며, 이러한 감시 시스템은 다양한 장소에 고정 설치되는 감시 카메라(CCTV: Closed Circuit TeleVision)와 감시 카메라로부터 촬영된 영상을 저장하는 서버로 구성됨으로써, 사용자의 요청에 따라 특정 구역 또는 특정 시간대의 영상을 복원하여 확인할 수 있다.
그러나 종래의 감시 시스템에 의하면, 원하는 시간 또는 위치의 영상을 확인할 수는 있으나, 영상 내 객체의 특정 패턴의 행동 유형은 검색하기 어려운 문제점을 갖는다. 예컨대, 특정 일자(2015년 8월 12일 ~ 2015년 8월 13일) 사이에 건물의 출입한 특정 인상 착의(파랑 계통의 상의를 착용)를 갖는 인물을 찾고자 할 때, 종래의 감시시스템에 의하면 비상구를 향하여 설치된 감시 카메라의 해당 일자의 영상만을 확인할 수 있을 뿐이며, 사용자는 영상의 재생 속도를 조절하는 등의 방법으로 영상 내의 인물을 직접 찾아야 한다.
그로 인하여, 종래의 감시 시스템을 통해서는 영상 내 특정 검색 조건을 충족하는 객체를 찾기 위하여 많은 시간 및 인력을 투입하여야 하고, 검색 조건이 변경되는 경우 또다시 검색 과정을 되풀이하여야 하는 등, 영상 내 특정 패턴의 행동 유형을 갖는 객체를 검색하기 어려운 문제점이 존재하였으며, 이러한 문제점은 (특허문헌 1)을 통해 보완하고 있는 바, (특허문헌 1)을 참조하여 구체적으로 설명하면 다음과 같다.
(특허문헌 1)은 고정형 카메라 영상의 객체를 검색하기 위한 방법 및 장치에 관한 것으로, 이에 따르면, 고정 설치된 카메라에 의해 촬영된 영상을 입력받는 입력부와, 상기 영상에 포함된 객체를 검색하기 위한 검색 영역 및 검색 조건을 설정하는 검색 설정부와, 상기 영상에 포함된 객체들 중 상기 검색 조건 및 상기 검색 영역에 대응되는 객체를 검색하고, 검색된 객체를 추적하여 상기 영상 중 상기 객체가 포함된 영상을 추출하는 객체 검색부 및 상기 추출된 영상에 상기 객체를 추적하는 마커를 합성하여 합성 영상을 출력하는 출력부를 포함한다.
그러나, 전술한 (특허문헌 1)은 영상에 포함된 객체를 추출하여 추출된 객체로 검색하는 기술적 요소를 포함하고 있으며, 객체를 추출하더라도 간헐적으로 검색요건충족이 미달하거나, 인식 오류로 인한 영상 검색 시스템이 제대로 작동하지 않는 문제점이 있다.
본 발명의 목적은 영상에 있는 객체 및 특징점을 추출하여 빅데이터화하고, 검색 조건에 부합되는 영상을 추출하여 제공하기 위한 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법을 제공하는 데 있다.
상기 과제를 해결하기 위하여,
본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템은 하나 이상의 카메라를 통해 수집된 영상데이터를 수집하거나, 별도로 입력되는 영상데이터를 수집하는 영상 수집부;
상기 영상 수집부로부터 수집된 영상에 포함된 객체를 검출하는 객체 검출부;
상기 객체 검출부로부터 검출된 객체의 특징점을 추출하고, 상기 특징점을 기초로하여 상기 객체의 고유명사를 판단하는 특징 추출부;
상기 특징 추출부로부터 판단한 상기 객체의 고유명사 및 상기 객체 검출부로부터 추출된 상기 객체의 데이터를 저장하고, 이를 빅데이터화하는 데이터베이스;
검색하고자 하는 영상에 대한 객체, 객체의 특징점 및 객체의 고유명사와, 데이터베이스에 저장된 하나 이상의 객체, 객체의 특징점 및 객체의 고유명사를 매칭하여 부합되는 객체, 객체의 특징점 및 객체의 고유명사에 포함되는 영상을 검색하는 영상 검색부; 및
상기 영상 검색부에서 추출된 하나 이상의 영상을 상기 데이터베이스에서 추출하는 영상 추출부; 를 포함할 수 있다.
또한, 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템에 있어서, 상기 객체 검출부는 YOLO(You Only Look Once) 객체 탐지 알고리즘을 이용하여 상기 영상에 포함된 객체를 검출할 수 있다.
또한, 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템에 있어서, 상기 특징 추출부는 상기 객체 검출부로부터 검출된 하나 이상의 객체에 딥러닝(Deep Learning)기반의 객체 탐지 알고리즘을 이용하여 상기 객체의 특징점을 적어도 하나 이상을 추출할 수 있다.
또한, 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템에 있어서, 상기 영상 검색부는 검색하고자 하는 영상에 대한 객체를 상기 객체 검출부로부터 검출하고, 상기 객체의 특징점 및 객체의 고유명사를 상기 특징 추출부로부터 검출할 수 있다.
본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 방법은 (a) 하나 이상의 카메라로부터 수집된 영상데이터를 영상 수집부를 통해 수집하는 단계;
(b) 상기 영상데이터에 포함된 하나 이상의 객체를 객체 검출부로부터 검출하는 단계;
(c) 상기 객체 검출부에서 검출된 하나 이상의 객체의 특징점을 특징 추출부로부터 추출하고, 추출된 특징점을 기초로하여 상기 객체의 고유명사를 판단하는 단계;
(d) 상기 객체 검출부 및 특징 추출부에서 추출한 정보를 기초로하여 데이터베이스에 저장된 정보와 매칭하고, 매칭결과에 부합된 영상을 영상 검색부를 통해 검색하는 단계; 및
(e) 상기 영상 검색부에서 검색된 하나 이상의 영상을 상기 데이터베이스로부터 추출하는 단계;
를 포함할 수 있다.
또한, 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 방법에 있어서, 상기 (b) 단계는 YOLO(You Only Look Once) 객체 탐지 알고리즘을 이용하여 상기 영상에 포함된 객체를 검출할 수 있다.
또한, 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템에 있어서, 상기 (c) 단계는 상기 객체 검출부로부터 검출된 하나 이상의 객체에 딥러닝(Deep Learning)기반의 객체 탐지 알고리즘을 이용하여 상기 객체의 특징점을 적어도 하나 이상을 추출할 수 있다.
또한, 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템에 있어서, 상기 (d) 단계는 검색하고자 하는 영상에 포함된 객체를 상기 객체 검출부 및 특징 추출부를 통해 객체, 객체의 특징점 및 객체의 고유명사를 추출하고, 상기 추출한 객체, 객체의 특징점 및 객체의 고유명사를 상기 데이터베이스에 저장된 정보(데이터베이스에 저장된 객체, 객체의 특징점 및 객체의 고유명사)와 매칭할 수 있다.
이러한 해결 수단은 첨부된 도면에 의거한 다음의 발명의 상세한 설명으로부터 더욱 명백해질 것이다.
이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이고 사전적인 의미로 해석되어서는 아니 되며, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야만 한다.
본 발명의 일실시 예에 따르면, 영상에서 추출한 객체, 객체의 특징점 및 객체의 고유명사를 딥러닝 기반의 객체 탐지 알고리즘을 이용하여 추출하고, 이를 데이터베이스에 저장하여 이를 빅데이터화 시킬 수 있으며, 검색하고자 하는 영상과 부합되는 정보를 데이터베이스로부터 추출할 수 있다.
또한, 본 발명의 일실시 예에 따르면, 인공지능을 이용하여 영상내에 포함된 객체의 정보를 산출할 수 있고, 이를 기반하여 빅데이터화를 이룰 수 있다.
도 1은 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템을 나타내 보인 블록도.
도 2는 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 방법을 나타내 보인 순서도.
본 발명의 특이한 관점, 특정한 기술적 특징들은 첨부된 도면들과 연관되는 이하의 구체적인 내용과 일실시 예로부터 더욱 명백해 질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조 부호를 부가함에 있어, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 일실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 발명의 구성요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 또 다른 구성요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
이하, 본 발명의 일실시 예를 첨부된 도면에 의거하여 상세히 설명하면 다음과 같다.
도 1에 도시된 바와 같이, 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출 시스템은 하나 이상의 카메라를 통해 수집된 영상데이터를 수집하는 영상 수집부(13)와, 영상 수집부(13)로부터 수집된 영상에 포함된 객체를 검출하는 객체 검출부(11)와, 객체 검출부(11)로부터 추출된 객체의 특징점을 추출하고, 특징점을 기초로하여 객체의 고유명사를 판단하는 특징 추출부(12)와, 특징 추출부(12)로부터 판단한 객체의 고유명사 및 객체 검출부(11)로부터 추출된 객체의 데이터를 저장하고, 이를 빅데이터화하는 데이터베이스(14)를 포함할 수 있다.
영상 수집부(13)는 하나 이상의 카메라를 통해 수집된 영상데이터를 제공 받아 이를 수집하는 기능을 수행하며, 영상 수집부(13) 및 카메라는 별도의 배선을 통해 연결될 수 있다.
카메라는 RGN 카메라, 3D depth 카메라, IR 카메라, 분광카메라 중 어느 하나를 선택하여 구성될 수 있으며, 본 발명에서는 IR 카메라에서 촬영된 영상데이터를 수집할 수 있다.
또한, 영상 수집부(13)는 카메라를 통해 영상데이터를 수집할 수 있고, 별도로 외부로부터 입력되는 영상데이터를 수집할 수 있다. 여기서, 영상 수집부(13)는 별도의 디바이스(또는 서버)로부터 영상데이터를 입력받을 수 있으며, 본 발명에서는 검색하고자 하는 영상데이터를 수집할 때 사용될 수 있다.
객체 검출부(11)는 영상 수집부(13)로부터 수집된 영상에서 하나 이상의 객체를 검출하는 기능을 수행하며, 원본 이미지 또는 영상을 동일한 크기의 그리드로 구획하고, 구획한 각 그리드의 중앙에 미리 정의된 형태(Predefined Shape)로 지정된 경계박스의 개수를 예측하고, 이를 기반으로 신뢰도를 계산하여 객체를 검출하는 YOLO(You Only Look Once) 객체 탐지 알고리즘을 포함할 수 있다.
이러한 객체 검출부(11)는 영상 내에 포함된 하나 이상의 객체를 시간대별로 검출하여 시간 및 객체를 함께 표시할 수 있다.
특징 추출부(12)는 객체 검출부(11)로부터 검출된 하나 이상의 객체에 대하여 각각의 객체의 특징점을 추출하고, 추출된 특징점을 기초로하여 객체의 고유명사를 판단하는 기능을 수행할 수 있다.
구체적으로, 특징 추출부(12)는 딥러닝(Deep Learning) 기반의 객체 탐지 알고리즘을 이용하여 객체의 특징점을 적어도 하나 이상을 추출할 수 있다. 여기서, 딥러닝 기반의 객체 탐지 알고리즘은 상기한 YOLO 객체 탐지 알고리즘과 동일한 알고리즘으로 해석될 수 있다.
또한, 특징 추출부(12)는 추출된 객체의 특징점을 기초로하여 객체의 고유명사 예컨대 자동차, 나무, 건물 등을 유추할 수 있다.
상기한 객체 검출부(11) 및 특징 추출부(12)에서 추출된 영상의 시간대별 객체, 객체의 특징점 및 객체의 고유명사를 추출한 이후, 데이터베이스(14)에 별도로 저장할 수 있다.
데이터베이스(14)는 객체 검출부(11) 및 특징 추출부(12)에서 추출한 정보(객체, 객체의 특징점 및 객체의 고유명사)를 저장하여 이를 빅데이터화 시킬 수 있다.
본 발명의 일실시 예에 따른 영상의 객체 특징점을 이용한 영상검색 시스템은 검색하고자 하는 영상에 대한 객체, 객체의 특징점 및 객체의 고유명사와, 데이터베이스(14)에 저장된 정보를 매칭하여 부합되는 객체, 객체의 특징점 및 객체의 고유명사에 포함되는 영상을 검색하는 영상 검색부(15) 및 영상 검색부(15)에서 추출된 하나 이상의 영상을 데이터베이스(14)에서 추출하는 영상 추출부(16)를 포함한다.
영상 검색부(15)는 데이터베이스(14)의 내부에 저장된 정보를 검색하는 기능을 수행할 수 있다.
구체적으로, 검색하고자 하는 영상에 대한 객체, 객체의 특징점 및 객체의 고유명사를 객체 검출부(11) 및 특징 추출부(12)를 이용하여 추출하고, 추출한 객체, 객체의 특징점 및 객체의 고유명사와, 데이터베이스에 저장된 객체, 객체의 특징점 및 객체의 고유명사를 매칭하여 검색하고자 하는 영상에 대한 객체, 객체의 특징점 및 객체의 고유명사와 부합되는 영상을 검색하는 기능을 수행할 수 있다.
예컨대 부합되는 영상이 있으면 영상 추출부(16)를 데이터베이스(14)에서 추출할 수 있다.
또한, 영상 검색부(15)는 검색하고자 하는 영상에서 추출한 정보들(객체, 객체의 특징점 및 객체의 고유명사)을 데이터베이스(14)에 별도로 저장되어 빅데이터화를 이룰 수 있다.
도 1 및 도 2에 도시된 바와 같이, 본 발명의 일실시 예에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 방법은 영상 데이터를 수집하는 단계(S11)와, 영상내 객체를 검출하는 단계(S12)와, 객체별 특징점을 추출하는 단계(S13)와, 추출한 특징점을 저장하는 단계(S14,S15)와, 영상을 데이터베이스에서 검색하는 단계(S16,17) 및 부합되는 영상을 추출하는 단계(S18)를 포함할 수 있다.
먼저, 영상 데이터를 수집하는 단계(S11)는 영상 수집부(13)를 통해 영상을 수집할 수 있으며, 구체적으로는 하나 이상의 카메라를 통해 수집된 영상데이터를 제공 받아 이를 수집하는 기능을 수행하며, 영상 수집부(13) 및 카메라는 별도의 배선을 통해 연결될 수 있다.
카메라는 RGN 카메라, 3D depth 카메라, IR 카메라, 분광카메라 중 어느 하나를 선택하여 구성될 수 있으며, 본 발명에서는 IR 카메라에서 촬영된 영상데이터를 수집할 수 있다.
또한, 영상 수집부(13)는 카메라를 통해 영상데이터를 수집할 수 있고, 별도로 외부로부터 입력되는 영상데이터를 수집할 수 있다. 여기서, 영상 수집부(13)는 별도의 디바이스(또는 서버)로부터 영상데이터를 입력받을 수 있으며, 본 발명에서는 검색하고자 하는 영상데이터를 수집할 때 사용될 수 있다.
영상 수집부(13)를 통해 수집한 영상은 객체 검출부(11)를 통해 객체를 검출 할 수 있다(S12). 구체적으로, 객체 검출부(11)는 영상 수집부(13)로부터 수집된 영상에서 하나 이상의 객체를 검출하는 기능을 수행하며, 원본 이미지 또는 영상을 동일한 크기의 그리드로 구획하고, 구획한 각 그리드의 중앙에 미리 정의된 형태(Predefined Shape)로 지정된 경계박스의 개수를 예측하고, 이를 기반으로 신뢰도를 계산하여 객체를 검출하는 YOLO(You Only Look Once) 객체 탐지 알고리즘을 포함할 수 있다.
이러한 객체 검출부(11)는 영상 내에 포함된 하나 이상의 객체를 시간대별로 검출하여 시간 및 객체를 함께 표시할 수 있다.
객체 검출부(11)로부터 검출된 하나 이상의 객체는 특징 추출부(12)를 통해 객체의 특징점을 추출할 수 있다(S13). 구체적으로, 특징 추출부(12)는 객체 검출부(11)로부터 검출된 하나 이상의 객체에 대하여 각각의 객체의 특징점을 추출하고, 추출된 특징점을 기초로하여 객체의 고유명사를 판단하는 기능을 수행할 수 있다.
구체적으로, 특징 추출부(12)는 딥러닝(Deep Learning) 기반의 객체 탐지 알고리즘을 이용하여 객체의 특징점을 적어도 하나 이상을 추출할 수 있다. 여기서, 딥러닝 기반의 객체 탐지 알고리즘은 상기한 YOLO 객체 탐지 알고리즘과 동일한 알고리즘으로 해석될 수 있다.
또한, 특징 추출부(12)는 추출된 객체의 특징점을 기초로하여 객체의 고유명사 예컨대 자동차, 나무, 건물 등을 유추할 수 있다.
상기한 객체 검출부(11) 및 특징 추출부(12)에서 추출된 영상의 시간대별 객체, 객체의 특징점 및 객체의 고유명사를 추출한 이후, 데이터베이스(14)에 별도로 저장할 수 있다(S14).
데이터베이스(14)는 객체 검출부(11) 및 특징 추출부(12)에서 추출한 정보(객체, 객체의 특징점 및 객체의 고유명사)를 저장하여 이를 빅데이터화 시킬 수 있다(S15).
한편, 객체 검출부(11) 및 특징 추출부(12)에서 추출한 정보가 데이터베이스(14)에 저장된 정보를 검색하기 위해 추출된 것이면(S16), 객체 검출부 및 특징 추출부에서 추출한 정보를 기초로하고, 데이터베이스(14)에 저장된 정보와 매칭하여 매칭결과에 부합된 영상을 영상 검색부(15)를 통해 검색할 수 있다(S17).
구체적으로, 영상 검색부(15)는 검색하고자 하는 영상에 대한 객체, 객체의 특징점 및 객체의 고유명사를 객체 검출부(11) 및 특징 추출부(12)를 이용하여 추출하고, 추출한 객체, 객체의 특징점 및 객체의 고유명사와, 데이터베이스에 저장된 객체, 객체의 특징점 및 객체의 고유명사를 매칭하여 검색하고자 하는 영상에 대한 객체, 객체의 특징점 및 객체의 고유명사와 부합되는 영상을 검색하는 기능을 수행할 수 있다.
상기한 방식으로 부합되는 영상이 검색되었을 경우, 영상 추출부(16)를 통해 부합되는 영상을 데이터베이스(14)로부터 추출할 수 있다(S18).
즉, 본 발명의 일실시 예에 따르면, 영상에서 추출한 객체, 객체의 특징점 및 객체의 고유명사를 딥러닝 기반의 객체 탐지 알고리즘을 이용하여 추출하고, 이를 데이터베이스(14)에 저장하여 이를 빅데이터화 시킬 수 있으며, 검색하고자 하는 영상과 부합되는 정보를 데이터베이스로부터 추출할 수 있다.
이상 본 발명을 일실시 예를 통하여 상세히 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명에 따른 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법은 이에 한정되지 않는다. 그리고 이상에서 기재된 "포함하다", "구성하다", 또는 "가지다", 등의 용어는 특별히 반대되는 기재가 없는 한 해당 구성요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것으로 해석되어야 하며, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다.
또한, 이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형 가능하다. 따라서, 본 발명에 개시된 일실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 일실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
영상검색 및 추출 시스템 및 방법 분야에서 산업상 이용가능성이 있다.

Claims (8)

  1. 하나 이상의 카메라를 통해 수집된 영상데이터를 수집하거나, 별도로 입력되는 영상데이터를 수집하는 영상 수집부;
    상기 영상 수집부로부터 수집된 영상에 포함된 객체를 검출하는 객체 검출부;
    상기 객체 검출부로부터 검출된 객체의 특징점을 추출하고, 상기 특징점을 기초로하여 상기 객체의 고유명사를 판단하는 특징 추출부;
    상기 특징 추출부로부터 판단한 상기 객체의 고유명사 및 상기 객체 검출부로부터 추출된 상기 객체의 데이터를 저장하고, 이를 빅데이터화하는 데이터베이스;
    검색하고자 하는 영상에 대한 객체, 객체의 특징점 및 객체의 고유명사와, 데이터베이스에 저장된 하나 이상의 객체, 객체의 특징점 및 객체의 고유명사를 매칭하여 부합되는 객체, 객체의 특징점 및 객체의 고유명사에 포함되는 영상을 검색하는 영상 검색부; 및
    상기 영상 검색부에서 추출된 하나 이상의 영상을 상기 데이터베이스에서 추출하는 영상 추출부; 를 포함하는, 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템.
  2. 청구항 1에 있어서,
    상기 객체 검출부는 YOLO(You Only Look Once) 객체 탐지 알고리즘을 이용하여 상기 영상에 포함된 객체를 검출하는, 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템.
  3. 청구항 2에 있어서,
    상기 특징 추출부는 상기 객체 검출부로부터 검출된 하나 이상의 객체에 딥러닝(Deep Learning)기반의 객체 탐지 알고리즘을 이용하여 상기 객체의 특징점을 적어도 하나 이상을 추출하는, 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템.
  4. 청구항 1에 있어서.
    상기 영상 검색부는 검색하고자 하는 영상에 대한 객체를 상기 객체 검출부로부터 검출하고, 상기 객체의 특징점 및 객체의 고유명사를 상기 특징 추출부로부터 검출하는, 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템.
  5. 청구항 1에 기재된 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템을 실시하기 위한 방법에 있어서,
    (a) 하나 이상의 카메라로부터 수집된 영상데이터를 영상 수집부를 통해 수집하는 단계;
    (b) 상기 영상데이터에 포함된 하나 이상의 객체를 객체 검출부로부터 검출하는 단계;
    (c) 상기 객체 검출부에서 검출된 하나 이상의 객체의 특징점을 특징 추출부로부터 추출하고, 추출된 특징점을 기초로하여 상기 객체의 고유명사를 판단하는 단계;
    (d) 상기 객체 검출부 및 특징 추출부에서 추출한 정보를 기초로하여 데이터베이스에 저장된 정보와 매칭하고, 매칭결과에 부합된 영상을 영상 검색부를 통해 검색하는 단계; 및
    (e) 상기 영상 검색부에서 검색된 하나 이상의 영상을 상기 데이터베이스로부터 추출하는 단계;
    를 포함하는, 영상의 객체 특징점 추출과 이를 이용한 영상검색 방법.
  6. 청구항 5에 있어서,
    상기 (b) 단계는 YOLO(You Only Look Once) 객체 탐지 알고리즘을 이용하여 상기 영상에 포함된 객체를 검출하는, 영상의 객체 특징점 추출과 이를 이용한 영상검색 방법.
  7. 청구항 6에 있어서,
    상기 (c) 단계는 상기 객체 검출부로부터 검출된 하나 이상의 객체에 딥러닝(Deep Learning)기반의 객체 탐지 알고리즘을 이용하여 상기 객체의 특징점을 적어도 하나 이상을 추출하는, 영상의 객체 특징점 추출과 이를 이용한 영상검색 방법.
  8. 청구항 6에 있어서,
    상기 (d) 단계는 검색하고자 하는 영상에 포함된 객체를 상기 객체 검출부 및 특징 추출부를 통해 객체, 객체의 특징점 및 객체의 고유명사를 추출하고, 상기 추출한 객체, 객체의 특징점 및 객체의 고유명사를 상기 데이터베이스에 저장된 정보(데이터베이스에 저장된 객체, 객체의 특징점 및 객체의 고유명사)와 매칭하는, 영상의 객체 특징점 추출과 이를 이용한 영상검색 방법.
PCT/KR2021/009301 2020-07-24 2021-07-20 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법 WO2022019601A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/015,875 US20230259549A1 (en) 2020-07-24 2021-07-20 Extraction of feature point of object from image and image search system and method using same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200092185 2020-07-24
KR10-2020-0092185 2020-07-24

Publications (1)

Publication Number Publication Date
WO2022019601A1 true WO2022019601A1 (ko) 2022-01-27

Family

ID=79729881

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/009301 WO2022019601A1 (ko) 2020-07-24 2021-07-20 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법

Country Status (2)

Country Link
US (1) US20230259549A1 (ko)
WO (1) WO2022019601A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230196645A1 (en) * 2021-12-17 2023-06-22 Pinterest, Inc. Extracted image segments collage

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160068459A (ko) * 2014-12-05 2016-06-15 한화테크윈 주식회사 스마트검색을 지원하는 영상저장장치 및 영상저장장치에서 스마트 검색 방법
KR20170068312A (ko) * 2015-12-09 2017-06-19 이노뎁 주식회사 효율적인 영상 분석 및 검색이 가능한 영상 분석 시스템, 이를 포함하는 통합 관제 시스템 및 그 동작방법
KR20170134952A (ko) * 2017-11-23 2017-12-07 에스케이플래닛 주식회사 사용자 정보 기반 영상 검색 관리 방법과 이를 이용한 장치 및 시스템
KR20190068000A (ko) * 2017-12-08 2019-06-18 이의령 다중 영상 환경에서의 동일인 재식별 시스템
KR20190120645A (ko) * 2018-04-16 2019-10-24 주식회사 아임클라우드 빅 데이터 기반 이미지 및 영상 특징을 이용한 검색 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11935643B2 (en) * 2019-11-27 2024-03-19 GE Precision Healthcare LLC Federated, centralized, and collaborative medical data management and orchestration platform to facilitate healthcare image processing and analysis
CN111241989B (zh) * 2020-01-08 2023-06-13 腾讯科技(深圳)有限公司 图像识别方法及装置、电子设备
CN111596594B (zh) * 2020-06-08 2021-07-23 厦门理工学院 一种全景大数据应用监测管控***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160068459A (ko) * 2014-12-05 2016-06-15 한화테크윈 주식회사 스마트검색을 지원하는 영상저장장치 및 영상저장장치에서 스마트 검색 방법
KR20170068312A (ko) * 2015-12-09 2017-06-19 이노뎁 주식회사 효율적인 영상 분석 및 검색이 가능한 영상 분석 시스템, 이를 포함하는 통합 관제 시스템 및 그 동작방법
KR20170134952A (ko) * 2017-11-23 2017-12-07 에스케이플래닛 주식회사 사용자 정보 기반 영상 검색 관리 방법과 이를 이용한 장치 및 시스템
KR20190068000A (ko) * 2017-12-08 2019-06-18 이의령 다중 영상 환경에서의 동일인 재식별 시스템
KR20190120645A (ko) * 2018-04-16 2019-10-24 주식회사 아임클라우드 빅 데이터 기반 이미지 및 영상 특징을 이용한 검색 시스템

Also Published As

Publication number Publication date
US20230259549A1 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
WO2019088462A1 (ko) 혈압 추정 모델 생성 시스템 및 방법과 혈압 추정 시스템 및 방법
WO2014051337A1 (ko) 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
WO2021020866A1 (ko) 원격 모니터링을 위한 영상 분석 시스템 및 방법
WO2014092446A1 (ko) 객체 기반 영상 검색시스템 및 검색방법
WO2021153861A1 (ko) 다중 객체 검출 방법 및 그 장치
WO2014046401A1 (ko) 단어 자동 번역에 기초한 입술 모양 변경 장치 및 방법
WO2017115905A1 (ko) 인체 포즈 인지 시스템 및 방법
WO2012124852A1 (ko) 감시구역 상의 객체의 경로를 추적할 수 있는 스테레오 카메라 장치, 그를 이용한 감시시스템 및 방법
WO2021100919A1 (ko) 행동 시퀀스 기반으로 이상행동 여부를 판단하는 방법, 프로그램 및 시스템
WO2017090892A1 (ko) Osd 정보 생성 카메라, osd 정보 합성 단말기(20) 및 이들로 구성된 osd 정보 공유 시스템
WO2016099084A1 (ko) 비콘신호를 이용한 안전 서비스 제공 시스템 및 방법
WO2014051262A1 (ko) 이벤트 룰 설정방법 및 이를 이용한 이벤트 감시장치
WO2019088651A1 (ko) 소스 비디오 내에서 관심 동영상을 추출하는 장치 및 방법
WO2015182904A1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
WO2021157794A1 (ko) 도어락을 제어하는 장치 및 방법
WO2012137994A1 (ko) 영상인식장치 및 그 영상 감시방법
WO2022019601A1 (ko) 영상의 객체 특징점 추출과 이를 이용한 영상검색 시스템 및 방법
WO2016064107A1 (ko) 팬틸트줌 카메라 기반의 영상 재생방법 및 장치
WO2014190870A1 (zh) 一种识别用户活动类型的方法及***
WO2016072627A1 (ko) 전방위 카메라를 이용한 1대 다면 주차장 관리 시스템 및 관리방법
WO2019035544A1 (ko) 학습을 이용한 얼굴 인식 장치 및 방법
WO2011043498A1 (ko) 지능형 영상 감시 장치
WO2021091053A1 (ko) 영상의 유사도 분석을 이용한 위치 측정 시스템 및 그 방법
WO2023158068A1 (ko) 객체검출률 향상을 위한 학습시스템 및 그 방법
WO2019083073A1 (ko) 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21847093

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21847093

Country of ref document: EP

Kind code of ref document: A1