KR102005034B1 - Method and apparatus for acquiring object information based on image - Google Patents

Method and apparatus for acquiring object information based on image Download PDF

Info

Publication number
KR102005034B1
KR102005034B1 KR1020170080571A KR20170080571A KR102005034B1 KR 102005034 B1 KR102005034 B1 KR 102005034B1 KR 1020170080571 A KR1020170080571 A KR 1020170080571A KR 20170080571 A KR20170080571 A KR 20170080571A KR 102005034 B1 KR102005034 B1 KR 102005034B1
Authority
KR
South Korea
Prior art keywords
information
image
user
user input
analysis system
Prior art date
Application number
KR1020170080571A
Other languages
Korean (ko)
Other versions
KR20190001110A (en
Inventor
서민수
Original Assignee
서민수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서민수 filed Critical 서민수
Priority to KR1020170080571A priority Critical patent/KR102005034B1/en
Publication of KR20190001110A publication Critical patent/KR20190001110A/en
Application granted granted Critical
Publication of KR102005034B1 publication Critical patent/KR102005034B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

영상 기반의 객체 정보 획득 방법 및 장치가 개시되어 있다. 영상 기반의 객체 정보 획득 방법은 이미지 분석 시스템이 영상에서 객체를 탐색하기 위한 사용자 입력 정보를 수신하는 단계, 이미지 분석 시스템이 사용자 입력 정보를 기반으로 영상을 캡처하여 대상 영상 정보를 생성하는 단계와 이미지 분석 시스템이 사용자 입력 정보를 기반으로 지시된 대상 영상 정보 상의 객체에 대한 이미지 검색을 기반으로 사용자 제공 객체 정보를 제공하는 단계를 포함할 수 있다.A method and apparatus for acquiring object-based object information are disclosed. An image-based object information acquisition method includes: receiving user input information for searching an object in an image analysis system; capturing an image based on user input information and generating target image information; And the analysis system may provide the user-provided object information based on the image search for the object on the indicated target image information based on the user input information.

Description

영상 기반의 객체 정보 획득 방법 및 장치{Method and apparatus for acquiring object information based on image}TECHNICAL FIELD [0001] The present invention relates to an object-

본 발명은 객체 정보 획득 방법 및 장치에 관한 것으로서, 보다 상세하게는 영상 기반의 객체 정보 획득 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for acquiring object information, and more particularly, to a method and apparatus for acquiring object information based on an image.

일반적으로 데이터 방송은 공중파, 위성, 지상, 케이블 및 인터넷 등을 비롯한 각종 전송 매체를 통해 소정의 방송 프로그램을 방송할 경우에 방송 프로그램의 화면에 표시되는 등장 인물, 소품 및 줄거리 등을 비롯한 각종 객체들에 관련된 객체 정보와 각종 객체들의 데이터방송용 컨텐츠 주소, 전자상거래 및 전자쇼핑 등의 부가서비스정보를 비롯한 각종 방송컨텐츠 관련 정보를 소정의 방송 프로그램과 함께 제공할 수 있다.BACKGROUND ART [0002] Generally, data broadcasting includes various objects such as characters, props, plot lines, and the like displayed on a screen of a broadcast program when broadcasting a predetermined broadcast program through various transmission media including airwaves, satellites, terrestrial cables, Related service information such as content address for data broadcasting of various objects, supplementary service information such as electronic commerce and electronic shopping, together with a predetermined broadcast program.

이러한 데이터 방송은 사용자들이 디지털 텔레비전 수상기 또는 컴퓨터 등과 같이 데이터방송의 수신이 가능한 수신 장치를 통해 상기 방송하는 소정의 프로그램을 시청하고, 그 방송 프로그램에 포함되어 있는 소정의 방송 컨텐츠 관련 정보를 확인할 수 있다.Such data broadcasting allows users to view the predetermined program to be broadcast through a receiving device capable of receiving a data broadcast such as a digital television receiver or a computer and confirm predetermined broadcast content related information included in the broadcast program .

현재 데이터방송은 미리 방송 프로그램을 기준으로 방송 컨텐츠 관련 정보를 제작하고, 제작한 방송 컨텐츠 관련 정보를 해당 방송 프로그램에 삽입하여 공중파 방송을 통해 송출하거나 또는 방송 프로그램은 공중파 방송으로 송출하고 방송컨텐츠 관련정보는 인터넷을 통해 전송하여 사용자들에게 제공하고 있다.Currently, data broadcasting prepares broadcast-related information on the basis of a broadcast program, inserts the generated broadcast content related information into the broadcast program, and broadcasts it through the over-the-air broadcast, or broadcasts the broadcast program over the over- Is transmitted to the users through the Internet.

현재 이러한 방송 컨텐츠를 제공시 방속 컨텐츠와 관련된 추가 정보를 제공하는 방법에 대한 연구가 진행되고 있다.Currently, researches are being conducted on providing additional information related to non-smoking contents when providing such broadcasting contents.

10-2008-005774910-2008-0057749

본 발명의 일 측면은 영상 기반의 객체 정보 획득 방법을 제공한다.One aspect of the present invention provides an image-based object information acquisition method.

본 발명의 다른 측면은 영상 기반의 객체 정보 획득 방법을 수행하는 장치를 제공한다.Another aspect of the present invention provides an apparatus for performing image-based object information acquisition.

본 발명의 일 측면에 따른 영상 기반의 객체 정보 획득 방법은 이미지 분석 시스템이 영상에서 객체를 탐색하기 위한 사용자 입력 정보를 수신하는 단계, 상기 이미지 분석 시스템이 상기 사용자 입력 정보를 기반으로 상기 영상을 캡처하여 대상 영상 정보를 생성하는 단계와 상기 이미지 분석 시스템이 상기 사용자 입력 정보를 기반으로 지시된 상기 대상 영상 정보 상의 상기 객체에 대한 이미지 검색을 기반으로 사용자 제공 객체 정보를 제공하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided an image-based object information acquisition method including: receiving user input information for searching for an object in an image; capturing the image based on the user input information; And providing the user-provided object information based on the image search for the object on the object image information indicated by the image analysis system based on the user input information .

한편, 상기 사용자 입력 정보는 상기 대상 영상 정보에서 탐색하고자 하는 객체를 지시하는 음성 정보일 수 있다.The user input information may be voice information indicating an object to be searched in the target image information.

또한, 상기 대상 영상 정보는 상기 사용자 입려 정보의 수신 시간을 기분으로 임계 시간 전 및 임계 시간 후에 획득된 정보일 수 있다.In addition, the target image information may be information obtained before and after the threshold time, based on the reception time of the user's effect information.

또한, 상기 사용자 입력 정보는 상기 대상 영상 정보에서 탐색하고자 하는 객체에 대해 획득하고자 하는 정보를 포함하는 음성 정보일 수 있다.In addition, the user input information may be voice information including information to be acquired for an object to be searched in the target image information.

또한, 상기 사용자 제공 객체 정보는 이미지 분석 시스템으로부터 사용자 장치로 별도로 전송될 수 있다.In addition, the user-provided object information may be transmitted separately from the image analysis system to the user device.

본 발명의 또 다른 측면에 따른 영상 기반의 객체 정보 획득하는 이미지 분석 시스템은 프로세서를 포함하고, 상기 프로세서는 영상에서 객체를 탐색하기 위한 사용자 입력 정보를 수신하고, 상기 사용자 입력 정보를 기반으로 상기 영상을 캡처하여 대상 영상 정보를 생성하고, 상기 사용자 입력 정보를 기반으로 지시된 상기 대상 영상 정보 상의 상기 객체에 대한 이미지 검색을 기반으로 사용자 제공 객체 정보를 제공하도록 구현될 수 있다.According to another aspect of the present invention, there is provided an image analysis system for acquiring image-based object information, the system including a processor, the processor receiving user input information for searching an object in an image, To generate the target image information, and to provide the user-provided object information based on the image search for the object on the target image information indicated based on the user input information.

한편, 상기 사용자 입력 정보는 상기 대상 영상 정보에서 탐색하고자 하는 객체를 지시하는 음성 정보일 수 있다.The user input information may be voice information indicating an object to be searched in the target image information.

또한, 상기 대상 영상 정보는 상기 사용자 입려 정보의 수신 시간을 기분으로 임계 시간 전 및 임계 시간 후에 획득된 정보일 수 있다.In addition, the target image information may be information obtained before and after the threshold time, based on the reception time of the user's effect information.

또한, 상기 사용자 입력 정보는 상기 대상 영상 정보에서 탐색하고자 하는 객체에 대해 획득하고자 하는 정보를 포함하는 음성 정보일 수 있다.In addition, the user input information may be voice information including information to be acquired for an object to be searched in the target image information.

또한, 상기 사용자 제공 객체 정보는 이미지 분석 시스템으로부터 사용자 장치로 별도로 전송될 수 있다.In addition, the user-provided object information may be transmitted separately from the image analysis system to the user device.

본 발명의 실시예에 따른 영상 기반의 객체 정보 획득 방법 및 장치는 사용자에게 제공되는 영상에서 객체 정보를 빠르게 추출하여 사용자가 보는 영상에서 원하는 객체의 정보를 제공할 수 있다. 따라서, 사용자는 원하는 객체에 대한 정보를 영상 시청 도중에 바로 손쉽게 획득할 수 있다.The image-based object information acquisition method and apparatus according to an embodiment of the present invention can quickly extract object information from an image provided to a user and provide information of a desired object in an image that the user views. Therefore, the user can easily acquire information about the desired object directly during the video viewing.

도 1은 본 발명의 실시예에 따른 영상 기반의 객체 정보 획득하기 위한 이미지 분석 시스템을 나타낸 개념도이다.
도 2는 본 발명의 실시예에 따른 영상을 기반으로 객체에 대한 정보를 검색하는 방법을 나타낸 개념도이다.
도 3은 본 발명의 실시예에 따른 영상에서 객체 검색 방법을 나타낸 개념도이다.
도 4는 본 발명의 실시예에 따른 사용자 제공 객체 정보를 생성하는 방법을 나타낸 개념도이다.
도 5는 본 발명의 실시예에 따른 사용자 제공 객체 정보를 추출하는 방법을 나타낸 개념도이다.
도 6은 본 발명의 실시예에 따른 사용자 제공 객체 정보를 결정하는 방법을 나타낸 개념도이다.
1 is a conceptual diagram illustrating an image analysis system for acquiring image-based object information according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a method for searching for information on an object based on an image according to an embodiment of the present invention.
3 is a conceptual diagram illustrating an object retrieval method according to an embodiment of the present invention.
4 is a conceptual diagram illustrating a method for generating user-provided object information according to an embodiment of the present invention.
5 is a conceptual diagram illustrating a method of extracting user-provided object information according to an embodiment of the present invention.
6 is a conceptual diagram illustrating a method for determining user-provided object information according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조 부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

본 발명의 실시예에 따른 영상 기반의 객체 정보 획득 방법 및 장치에서는 인공 지능 기반의 영상 이미지 검색에 관한 기술이 개시된다.A method and apparatus for acquiring image information based on an image according to an exemplary embodiment of the present invention discloses a technique related to image information search based on artificial intelligence.

4차 산업 관련 인공 지능 분야의 의료, 인터넷 쇼핑몰 등에서 이미지 기반 검색 서비스가 적용되고 있으나, 해당 검색 서비스의 경우, 정지된 이미지를 기반으로 한 검색 기능이 제공되고 있다.Image-based search service is applied to medical and internet shopping malls in the artificial intelligence field related to the 4th industry, but in the case of the search service, a search function based on still images is provided.

이러한 정지된 이미지를 기반으로 한 검색 기능은 동일 사물에 대한 이미지의 촬영 위치, 각도, 타 사물의 혼입 등으로 인해 이미지에 대한 인식 기능이 현저히 낮아지는 문제점이 있다.Such a search function based on the still image has a problem in that the recognition function of the image is remarkably lowered due to the shooting position, angle, and mixing of other objects with respect to the same object.

본 발명의 실시예에 따른 영상 기반의 객체 정보 획득 방법 및 장치에서는 고정 이미지의 검색 기능 외 동영상 매체에 대한 이미지 캡쳐 기술을 기반으로 확보한 이미지의 각각의 사물을 분류, 분석하여 각각의 사물이 어떠한 객체인지 여부를 판단하고, 동일 사물을 인터넷 매체에서 실시간으로 검색 가능한 기능이 구현될 수 있다. 즉, TV와 같은 디스플레이 영상을 제공하는 기기에 인공 지능 기반 영상 검색 서비스가 제공될 수 있다.In the image-based object information acquiring method and apparatus according to the embodiment of the present invention, each object of the acquired image is classified and analyzed based on the image capturing technology for the moving image medium other than the search function of the fixed image, It is possible to determine whether the object is an object and to search the same object in real time on the Internet medium. That is, an artificial intelligence-based image search service can be provided to a device providing a display image such as a TV.

도 1은 본 발명의 실시예에 따른 영상 기반의 객체 정보 획득하기 위한 이미지 분석 시스템을 나타낸 개념도이다.1 is a conceptual diagram illustrating an image analysis system for acquiring image-based object information according to an embodiment of the present invention.

도 1을 참조하면, 이미지 분석 시스템은 입력 정보 인터페이스부(100), 이미지 캡쳐부(120), 이미지 저장 데이터베이스(140), 영상 정보 데이터베이스(160) 및 이미지 학습 데이터베이스(180)를 포함할 수 있다.1, the image analysis system may include an input information interface unit 100, an image capture unit 120, an image storage database 140, an image information database 160, and an image learning database 180 .

입력 정보 인터페이스부(100)는 사용자 입력 정보를 입력받기 위한 인터페이스일 수 있다.The input information interface unit 100 may be an interface for receiving user input information.

이미지 캡쳐부(120)는 동영상에서 이미지를 캡쳐하기 위해 구현될 수 있다.The image capture unit 120 may be implemented to capture an image from a moving image.

이미지 저장 데이터베이스(140)는 캡쳐된 이미지에 대한 저장/관리를 위해 구현될 수 있다.The image storage database 140 may be implemented for storage / management of captured images.

영상 정보 데이터베이스(160)는 동영상 정보를 저장/관리하기 위해 구현될 수 있다.영장 정보 데이터 베이스에는 영상에 매칭된 사전 영상 관련 정보를 더 포함할 수 있고, 사전 영상 관련 정보는 영상 방영 시간, 방영 영상 제목, 영상 방영 채널에 대한 정보를 포함할 수 있다.The image information database 160 may be implemented to store / manage the moving image information. The warrant information database may further include dictionary-related information matched with the image, and the dictionary-related information may include image broadcasting time, A video title, and a video broadcasting channel.

이미지 학습 데이터베이스(180)는 이미지 캡쳐부에 의해 캡쳐된 이미지에 대한 학습을 위해 구현될 수 있다.The image learning database 180 may be implemented for learning about the image captured by the image capture unit.

사용자는 TV(television)와 같은 동영상 재생 매체를 통해 동영상 정보를 수신할 수 있다. 사용자가 동영상 정보에서 검색하고자 하는 객체에 대한 검색을 수행하고 영상에서 특정 객체(예를 들어, 영상 내 가구, 출연자의 가방 등)를 검색하고자 할 수 있다.A user can receive moving picture information through a moving picture playback medium such as a television (TV). The user may search for the object to be searched in the moving image information and search for a specific object (e.g., furniture in the image, bag of the performer, etc.) in the image.

사용자는 검색하고자 하는 내용을 텍스트 정보 또는 음성 정보를 기반으로 입력할 수 있다. 사용자의 입력 정보에 따른 명령을 기반으로 해당 화면을 캡쳐할 수 있다.The user can input contents to be searched based on text information or voice information. It is possible to capture the corresponding screen based on a command according to the input information of the user.

영상 분석 시스템은 캡쳐된 화면 이미지를 저장하고, 캡쳐된 화면 이미지 내에 존재하는 각각의 객체를 분류하여 입력된 명령에 해당하는 객체의 정보에 대해 판단할 수 있다.The image analysis system stores the captured screen image, classifies each object existing in the captured screen image, and determines information about the object corresponding to the input command.

해당 영상의 기본 정보와 해당 화면에 대한 상호 관계를 판단하여, 네트워크를 통해 실시간 검색을 진행하여 제품의 정보를 제공 한다.Determines the correlation between the basic information of the image and the corresponding screen, and performs real-time searching through the network to provide information on the product.

영상 매체를 보고 있는 시청자의 영상에 포함되어 있는 제품에 대한 검색 기능이 추가되고 실시간으로 정보 전달 확보가 가능할 수 있다. It is possible to add a search function for a product included in a video of a viewer watching a video medium and secure information transmission in real time.

도 2는 본 발명의 실시예에 따른 영상을 기반으로 객체에 대한 정보를 검색하는 방법을 나타낸 개념도이다.2 is a conceptual diagram illustrating a method for searching for information on an object based on an image according to an embodiment of the present invention.

도 2를 참조하면, 이미지 분석 시스템은 검색 대상에 대한 텍스트 정보 또는 음성 정보를 수신한다(단계 S200).Referring to FIG. 2, the image analysis system receives text information or voice information about a search target (step S200).

사용자는 영상을 시청 중 영상에서 추가로 탐색하고자 하는 객체가 있는 경우, 영상에서 객체에 대한 검색을 명령할 수 있다. 객체에 대한 검색 명령은 텍스트 정보 및/또는 음성 정보일 수 있다.When there is an object to be further searched in the video during the watching, the user can instruct the searching of the object in the video. The search command for the object may be textual information and / or voice information.

이미지 분석 시스템은 사용자의 입력 정보에 따른 명령을 기반으로 해당 화면을 캡쳐한다(단계 S210).The image analysis system captures the screen based on the command according to the input information of the user (step S210).

이미지 분석 시스템은 사용자의 입력 정보의 입력 전, 입력 후의 영상을 캡쳐하고, 캡처된 영상 내에서 검색 대상 객체에 대한 정보를 획득하기 위해 구현될 수 있다.The image analysis system may be implemented to capture an input image before and after input of a user's input information, and to acquire information about the object to be searched in the captured image.

사용자는 검색하고자 하는 내용을 텍스트 정보 또는 음성 정보를 기반으로 입력할 수 있다. 사용자의 입력 정보에 따른 명령을 기반으로 해당 화면에 대한 캡쳐가 진행될 수 있다.The user can input contents to be searched based on text information or voice information. Capture for the corresponding screen can proceed based on the command according to the input information of the user.

이미지 분석 시스템에서 특정 객체(예를 들어, 영상 내 가구, 출연자의 가방 등)에 대한 검색이 수행될 수 있다(단계 S220).In the image analysis system, a search may be performed for a specific object (e.g., furniture in the image, bag of the performer, etc.) (step S220).

이미지 분석 시스템은 캡쳐된 화면 이미지를 저장하고, 캡쳐된 화면 이미지 내에 존재하는 각각의 객체를 분류하여 입력된 명령에 해당하는 객체의 정보에 대해 판단할 수 있다. 해당 영상의 기본 정보와 해당 화면에 대한 상호 관계를 판단하여, 네트워크를 통해 실시간 검색을 진행하여 객체의 정보를 제공할 수 있다. 영상 매체를 보고 있는 시청자의 영상에 포함되어 있는 객체에 대한 검색 기능이 추가되고 실시간으로 정보 전달 확보가 가능할 수 있다. The image analysis system stores the captured screen image, classifies each object existing in the captured screen image, and determines information about the object corresponding to the input command. It is possible to determine the basic information of the image and the correlation between the basic information and the corresponding image, and to provide information of the object by performing real-time searching through the network. It is possible to add a search function for an object included in a video of a viewer watching a video medium and secure information transmission in real time.

도 3은 본 발명의 실시예에 따른 영상에서 객체 검색 방법을 나타낸 개념도이다.3 is a conceptual diagram illustrating an object retrieval method according to an embodiment of the present invention.

도 3에서는 사용자 명령을 기반으로 영상에서 객체를 추출하기 위한 방법이 개시된다.3 illustrates a method for extracting an object from an image based on a user command.

도 3을 참조하면, 사용자 명령이 입력되는 경우, 입력 시간을 기반으로 일정한 영상 정보를 획득할 수 있다.Referring to FIG. 3, when a user command is input, constant image information can be obtained based on the input time.

시간에 따라 영상 정보는 계속적으로 변하게 된다. 따라서, 사용자 명령의 입력 시간을 기준으로 일정한 영상 정보가 획득될 수 있다. 사용자 명령이 입력된 사용자 명령 입력 시간(300)을 기준으로 획득된 영상 정보는 대상 영상 정보(350)라는 용어로 표현될 수 있다.The image information continuously changes with time. Therefore, constant image information can be obtained based on the input time of the user command. The image information obtained based on the user command input time 300 in which the user command is input may be expressed by the term of the target image information 350. [

이미지 분석 시스템은 대상 영상 정보(350)에서 객체에 대한 탐색을 통해 객체를 추출할 수 있다. 예를 들어, 사용자 명령이 영상 내의 탐색 대상 객체인 '핸드백'을 지시하는 경우, 대상 영상 정보(350)에서 핸드백을 탐색할 수 있다.The image analysis system can extract an object through searching for an object in the object image information 350. [ For example, if the user command indicates a 'handbag' which is a search object in the image, the handbag can be searched in the target image information 350.

대상 영상 정보(350)에 핸드백이 포함되는 경우, 핸드백에 대한 정보를 탐색할 수 있다. 핸드백에 대한 정보를 탐색하기 위해 대상 영상 정보(350)에서 객체로서 핸드백을 추출할 수 있고, 추출된 핸드백에 대한 이미지는 이미지 분석 시스템을 기반으로 분석될 수 있다.When the target image information 350 includes the handbag, information on the handbag can be searched. The handbag can be extracted as an object in the target image information 350 to search for information on the handbag and the image for the extracted handbag can be analyzed based on the image analysis system.

이후, 이미지 분석 시스템은 영상 분석을 기반으로 추출된 객체가 어떠한 객체인지에 대해 분석을 수행할 수 있다. 구체적으로 이미지 분석 시스템은 이미지 분석을 통해 해당 객체와 대응되는 정보를 웹 상에서 탐색할 수 있다.Then, the image analysis system can analyze the extracted object based on the image analysis. Specifically, the image analysis system can search the web for information corresponding to the object through image analysis.

이미지 분석 시스템은 이미지 매칭을 기반으로 유사도가 임계도 이상인 이미지를 추출하고, 가장 유사도가 높은 이미지에 대응되는 정보를 기반으로 객체 관련 정보를 획득할 수 있다. 객체 관련 정보는 객체의 이름, 상품명 등과 같은 객체 대한 보다 구체적인 정보를 검색할 수 있는 정보를 포함할 수 있다. The image analysis system extracts an image having a degree of similarity higher than a threshold based on image matching and acquires object related information based on information corresponding to the image having the highest similarity. The object-related information may include information that can retrieve more specific information about the object, such as the name of the object, the name of the product, and the like.

객체 관련 정보가 획득되는 경우, 객체 관련 정보를 기반의 검색을 통해 검색 결과를 추출하고, 검색 결과 중 사용자에게 제공할 객체 정보(사용자 제공 객체 정보)를 추출할 수 있다.When the object-related information is acquired, the search result is extracted through the search based on the object-related information, and object information (user-provided object information) to be provided to the user in the search result can be extracted.

도 4에서 보다 구체적으로 사용자 제공 객체 정보를 제공하기 위한 방법이 개시된다. A method for providing user-provided object information in more detail in FIG. 4 is disclosed.

도 4는 본 발명의 실시예에 따른 사용자 제공 객체 정보를 생성하는 방법을 나타낸 개념도이다.4 is a conceptual diagram illustrating a method for generating user-provided object information according to an embodiment of the present invention.

도 4에서는 객체에 대해 정보를 요청한 사용자에게 제공되는 사용자 제공 객체 정보를 생성하기 위한 방법이 개시된다.FIG. 4 discloses a method for generating user-provided object information provided to a user who requested information about the object.

도 4를 참조하면, 이미지 기반 1차 검색을 수행한다(단계 S400).Referring to FIG. 4, an image-based primary search is performed (step S400).

이미지 기반 1차 검색의 수행을 위해 전술한 바와 같이 대상 영상 정보에서 객체에 대한 정보를 탐색하고, 대상 영상 정보에서 객체를 추출할 수 있다. 이미지 분석 시스템은 추출된 객체에 대한 이미지 분석을 통해 객체와 대응되는 정보를 웹 상에서 탐색할 수 있다.In order to perform the image-based primary search, information on the object in the target image information can be searched for and the object can be extracted from the target image information as described above. The image analysis system can search the web for the information corresponding to the object through the image analysis of the extracted object.

이미지 매칭을 통해 객체와의 유사도가 임계값 이상인 이미지가 추출되고, 이미지와 대한 객체 관련 정보가 획득될 수 있다. 객체 관련 정보는 객체의 이름, 상품명 등과 같은 객체에 대한 보다 구체적인 정보를 검색할 수 있는 정보를 포함할 수 있다.An image having a degree of similarity to an object equal to or greater than a threshold value is extracted through image matching, and object related information about the image and the object can be obtained. The object-related information may include information that can retrieve more specific information about the object such as an object's name, a product name, and the like.

이미지와 관련된 객체 관련 정보를 기반으로 2차 검색이 수행된다(단계 S410).Secondary retrieval is performed based on object related information related to the image (step S410).

객체 관련 정보가 획득되는 경우, 객체 관련 정보를 기반으로 2차 검색을 통해 사용자에게 제공할 객체 정보(사용자 제공 객체 정보)를 추출하기 위한 텍스트 정보가 추출될 수 있다. When object-related information is acquired, text information for extracting object information (user-provided object information) to be provided to a user through secondary search based on the object-related information can be extracted.

예를 들어, 이미지 기반 1차 검색 결과를 기반으로 결정된 객체 관련 정보가 C사의 핸드백 모델 X인 경우, 객체 관련 정보는 'C사 핸드백 X'일 수 있다. For example, if the object related information determined based on the image-based primary search result is the C handbag model X, the object related information may be the 'C's handbag X'.

객체 관련 정보인 'C사 핸드백 X'라는 텍스트 정보를 기반으로 2차 검색이 수행될 수 있다. 2차 검색이 수행되는 경우, C사 핸드백 X와 관련된 정보가 추출될 수 있다. A secondary search can be performed based on the text information called 'C's handbag X' which is object related information. When the secondary search is performed, information relating to the C-company handbag X can be extracted.

2차 검색 결과를 기반으로 사용자 제공 객체 정보가 결정된다(단계 S420).The user-provided object information is determined based on the secondary search result (step S420).

2차 검색 결과 중 사용자에게 필요한 정보를 추출하여 사용자 제공 객체 정보가 결정될 수 있다.The user-provided object information can be determined by extracting information necessary for the user from the secondary search result.

사용자 제공 객체 정보는 사용자 명령 정보에 따라 변화될 수 있다. 예를 들어, 사용자 명령 정보를 통해 사용자가 가격 정보에 대한 제공을 요청한 경우, 사용자 제공 객체 정보는 객체의 가격에 대한 정보를 포함할 수 있다. 또는 사용자 명령 정보를 통해 사용자가 객체의 사용 후기에 대한 정보에 대한 제공을 요청한 경우, 사용자 제공 객체 정보는 객체의 사용 후기에 대한 정보를 포함할 수 있다. The user-provided object information may be changed according to the user command information. For example, when the user requests to provide price information through the user command information, the user-provided object information may include information on the price of the object. Or if the user requests the provision of information on the later use of the object through the user command information, the user-provided object information may include information on the late life of the object.

도 5는 본 발명의 실시예에 따른 사용자 제공 객체 정보를 추출하는 방법을 나타낸 개념도이다.5 is a conceptual diagram illustrating a method of extracting user-provided object information according to an embodiment of the present invention.

도 5에서는 이미지 정보를 기반으로 2차 검색을 위한 텍스트 정보를 추출하는 방법이 개시된다.FIG. 5 illustrates a method of extracting text information for a secondary search based on image information.

도 5를 참조하면, 이미지 정보를 기반으로 검색된 결과 중 2차 검색을 위한 텍스트 정보를 추출하기 위해 검색 결과를 기반으로 회사 정보 및 모델명에 대한 정보를 추출하기 위한 방법이 개시된다.Referring to FIG. 5, a method for extracting information on company information and model name based on search results to extract text information for secondary search among the search results based on image information is disclosed.

구체적으로 회사 정보는 검색 결과에서 회사명을 추출할 수 있다(단계S500).Specifically, the company information can be extracted from the search result (step S500).

검색 결과에서 회사와 관련된 단어를 추출하고, 추출한 회사 관련 단어 중 가장 빈도수가 높은 단어가 해당 회사에 대한 정보를 지시하는 것으로 가정할 수 있다. 회사와 관련된 단어의 추출은 서술어를 기준으로 추출될 수 있다. 회사가 주체가 될 수 있는 서술어(예를 들어, ~가 제조하다, ~에서 생산된, ~에서 기획된 등)의 주어가 회사일 수 있고, 이러한 단어가 회사 관련 단어일 수 있다. It can be assumed that words related to the company are extracted from the search result and words having the highest frequency among the extracted company related words indicate information about the company. Extraction of words related to a company can be extracted based on a predicate. A company can be a subject of a predicate that can be a subject (for example, produced in ~, produced in ~, projected in ~), and such words may be company related words.

다음으로 제품의 모델과 관련된 단어를 추출한다(단계 S510).Next, a word related to the model of the product is extracted (step S510).

추출한 제품 모델 관련 단어 중 가장 빈도수가 높은 단어가 해당 제품 모델을 지시하는 것으로 가정할 수 있다. 제품 모델과 관련된 단어의 추출은 서술어를 기준으로 추출될 수 있다. 제품 모델이 서술어(예를 들어, ~가 출시되다, ~라고 불리는, ~가 잘팔린다, ~가 팔리고 있다. 등)과 관련된 단어가 제품 모델의 이름일 수 있고, 이러한 단어가 제품 모델 관련 단어일 수 있다. It can be assumed that the word having the highest frequency among the words related to the extracted product model indicates the corresponding product model. Extraction of words related to the product model can be extracted based on the predicate. The product model can be the name of a product model, such as a descriptive term (for example, ~ is released, ~ is sold, ~ is sold, etc.) .

이러한 방식으로 회사와 제품 모델명을 추출하여 2차 검색을 위한 텍스트 정보가 추출될 수 있다.In this way, text information for secondary search can be extracted by extracting company and product model names.

도 6은 본 발명의 실시예에 따른 사용자 제공 객체 정보를 결정하는 방법을 나타낸 개념도이다.6 is a conceptual diagram illustrating a method for determining user-provided object information according to an embodiment of the present invention.

도 6에서는 영상 내에 미리 설정된 정보를 사용자 객체 정보로 제공하기 위한 방법이 개시된다.6, a method for providing preset information in a video as user object information is disclosed.

도 6을 참조하면, 이미지 분석 시스템은 제공되는 동영상에 대한 분석을 통해 미리 기본 사용자 객체 정보를 영상에 포함할 수 있다.Referring to FIG. 6, the image analysis system may include basic user object information in an image through analysis of the provided moving image.

구체적으로 이미지 분석 시스템은 내부 객체에 대한 분석을 통해 사용자가 객체 정보를 요청할 가능성이 임계 가능성 이상인 객체(600)를 결정할 수 있다. 영상 내 객체의 크기 및 객체의 위치에 대한 정보를 기반으로 사용자로부터 객체 정보의 요청 가능성이 결정될 수 있다.Specifically, the image analysis system can determine an object 600 whose probability of requesting object information by the analysis of the internal object is higher than the threshold possibility. The request possibility of the object information from the user can be determined based on the information about the size of the object and the position of the object in the image.

예를 들어, 동영상 내에서 임계 크기 이상으로 출력되는 객체이고 동영상에서 중심점을 기준으로 임계 범위 내에 위치한 객체인 경우, 해당 객체에 대한 정보 요청 가능성이 임계 가능성 이상으로 결정될 수 있다. 이러한 임계 가능성은 다른 사용자의 객체 검색 기록을 기준으로 보정될 수도 있다. For example, in the case where the object is an object that is output in a moving image beyond a threshold size and the object is located within a threshold range based on the center point in the moving image, the possibility of requesting information about the object may be determined to be more than the threshold possibility. Such a threshold probability may be corrected based on the object search record of another user.

이러한 객체에 대해서는 미리 사용자 제공 객체 정보가 별도로 탐색되고, 사용자 제공 정보가 영상과 매칭되어 별도의 데이터베이스(650)에 보관될 수 있다.For this object, the user-provided object information may be separately searched in advance, and the user-provided information may be matched with the image and stored in a separate database 650.

이러한 객체에 대한 사용자 제공 정보의 선검색/선매칭을 통해 사용자에 의해 요청이 있을 경우, 사용자 제공 객체 정보가 보다 빠르게 제공될 수 있다. When there is a request by a user through line search / line matching of user-provided information for such an object, user-provided object information can be provided more quickly.

또한, 본 발명의 실시예에 따르면, 중간에 사용자의 영상 시청에 방해를 하지 않기 위해 검색된 사용자 제공 객체 정보가 별도의 사용자 장치를 통해 사용자에게 제공될 수 있다.Also, according to the embodiment of the present invention, the retrieved user-provided object information may be provided to the user through a separate user device in order not to interfere with the user's viewing of the image in the middle.

또한, 사용자는 검색 결과를 확인하고 검색 결과가 원하는 결과가 아닌 경우, 추가 검색을 요청할 수 있다. 사용자가 검색을 요청한 캡쳐된 영상이 사용자 장치로 다시 제공되고, 사용자는 터치 기반으로 보다 정확하게 객체를 선택할 수 있다. 즉, 캡쳐된 영상에서 터치 기반으로 객체를 선택하고, 선택된 객체에 대한 객체 정보를 요청할 수 있다. Also, the user can check the search result and request the additional search if the search result is not the desired result. The captured image that the user requested to search is provided back to the user device, and the user can select the object more accurately on a touch-based basis. That is, the user can select an object based on a touch based on a touch and request object information about the selected object.

전술한 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.The above-described methods may be implemented in an application or may be implemented in the form of program instructions that may be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들일 수 있고, 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium may be those specially designed and configured for the present invention and may be those known and used by those skilled in the computer software arts.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.

Claims (10)

영상 기반의 객체 정보 획득 방법은,
이미지 분석 시스템이 영상에서 객체를 탐색하기 위한 사용자 입력 정보를 수신하는 단계;
상기 이미지 분석 시스템이 상기 사용자 입력 정보를 기반으로 상기 영상을 캡처하여 대상 영상 정보를 생성하는 단계; 및
상기 이미지 분석 시스템이 상기 사용자 입력 정보를 기반으로 지시된 상기 대상 영상 정보 상의 상기 객체에 대한 이미지 검색을 기반으로 사용자 제공 객체 정보를 제공하는 단계를 포함하는 것을 특징으로 하고,
상기 영상은 사전 영상 관련 정보를 포함하고,
상기 사전 영상 관련 정보는 영상 방영 시간, 방영 영상 제목, 영상 방영 채널에 대한 정보를 포함하고,
상기 대상 영상 정보는 상기 사용자 입력 정보의 수신 시간을 기준으로 임계 시간 전 및 임계 시간 후에 획득된 정보인 것을 특징으로 하며,
상기 사용자 제공 객체 정보 및 상기 사용자가 검색을 요청한 캡쳐된 영상은 이미지 분석 시스템으로부터 사용자 장치로 별도로 전송되는 것을 특징으로 하고,
상기 사용자 장치는 상기 제공된 사용자가 검색을 요청한 캡쳐된 영상으로부터 터치 기반으로 객체를 선택받으며,
상기 이미지 분석 시스템은 내부 객체에 대한 분석을 통해 영상 내 객체의 크기 및 객체의 위치에 대한 정보를 기반으로 사용자로부터 객체 정보의 요청 가능성을 결정하여, 사용자가 객체 정보를 요청할 가능성이 임계 가능성 이상인 객체를 결정하되, 상기 임계 가능성은 다른 사용자의 객체 검색 기록을 기준으로 보정되고, 상기 임계 가능성 이상인 객체에 대해서는 미리 사용자 제공 객체 정보가 별도로 탐색되고, 사용자 제공 정보가 영상과 매칭되어 별도의 데이터베이스에 보관되는 것을 특징으로 하는 방법.
A method of acquiring an object-
The method comprising the steps of: receiving user input information for searching an object in an image;
Capturing the image based on the user input information and generating target image information; And
Wherein the image analysis system provides user-provided object information based on an image search for the object on the target image information indicated based on the user input information,
Wherein the image includes dictionary-related information,
The dictionary-related information includes information on a video broadcast time, a video title, and a video broadcast channel,
Wherein the target image information is information obtained before and after the threshold time based on the reception time of the user input information,
Wherein the user-provided object information and the captured image requested by the user are separately transmitted from the image analysis system to the user device,
The user device selects an object based on a touch from the captured image requested by the provided user,
The image analysis system analyzes the internal object and determines the request possibility of the object information from the user based on the information about the size of the object and the position of the object in the image. If the possibility that the user requests the object information is higher than the threshold possibility The threshold probabilities are corrected on the basis of the object search records of other users, the user-provided object information is separately searched for the objects having the threshold probability or higher, the user-provided information is matched with the images and stored in a separate database ≪ / RTI >
제1항에 있어서,
상기 사용자 입력 정보는 상기 대상 영상 정보에서 탐색하고자 하는 객체를 지시하는 음성 정보인 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the user input information is voice information indicating an object to be searched in the target image information.
삭제delete 제1항에 있어서,
상기 사용자 입력 정보는 상기 대상 영상 정보에서 탐색하고자 하는 객체에 대해 획득하고자 하는 정보를 포함하는 음성 정보인 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the user input information is audio information including information to be acquired for an object to be searched in the target image information.
삭제delete 영상 기반의 객체 정보 획득하는 이미지 분석 시스템에 있어서,
상기 이미지 분석 시스템은 프로세서를 포함하고,
상기 프로세서는 영상에서 객체를 탐색하기 위한 사용자 입력 정보를 수신하고,
상기 사용자 입력 정보를 기반으로 상기 영상을 캡처하여 대상 영상 정보를 생성하고,
상기 사용자 입력 정보를 기반으로 지시된 상기 대상 영상 정보 상의 상기 객체에 대한 이미지 검색을 기반으로 사용자 제공 객체 정보를 제공하도록 구현되는 것을 특징으로 하고,
상기 영상은 사전 영상 관련 정보를 포함하고,
상기 사전 영상 관련 정보는 영상 방영 시간, 방영 영상 제목, 영상 방영 채널에 대한 정보를 포함하고,
상기 대상 영상 정보는 상기 사용자 입력 정보의 수신 시간을 기준으로 임계 시간 전 및 임계 시간 후에 획득된 정보인 것을 특징으로 하며,
상기 사용자 제공 객체 정보 및 상기 사용자가 검색을 요청한 캡쳐된 영상은 이미지 분석 시스템으로부터 사용자 장치로 별도로 전송되는 것을 특징으로 하고,
상기 사용자 장치는 상기 제공된 사용자가 검색을 요청한 캡쳐된 영상으로부터 터치 기반으로 객체를 선택받으며,
상기 이미지 분석 시스템은 내부 객체에 대한 분석을 통해 영상 내 객체의 크기 및 객체의 위치에 대한 정보를 기반으로 사용자로부터 객체 정보의 요청 가능성을 결정하여, 사용자가 객체 정보를 요청할 가능성이 임계 가능성 이상인 객체를 결정하되, 상기 임계 가능성은 다른 사용자의 객체 검색 기록을 기준으로 보정되고, 상기 임계 가능성 이상인 객체에 대해서는 미리 사용자 제공 객체 정보가 별도로 탐색되고, 사용자 제공 정보가 영상과 매칭되어 별도의 데이터베이스에 보관되는 것을 특징으로 하는 이미지 분석 시스템.
1. An image analysis system for acquiring object-based object information,
Wherein the image analysis system comprises a processor,
The processor receives user input information for searching an object in an image,
Capturing the image based on the user input information to generate target image information,
And providing the user-provided object information based on the image search for the object on the target image information indicated based on the user input information.
Wherein the image includes dictionary-related information,
The dictionary-related information includes information on a video broadcast time, a video title, and a video broadcast channel,
Wherein the target image information is information obtained before and after the threshold time based on the reception time of the user input information,
Wherein the user-provided object information and the captured image requested by the user are separately transmitted from the image analysis system to the user device,
The user device selects an object based on a touch from the captured image requested by the provided user,
The image analysis system analyzes the internal object and determines the request possibility of the object information from the user based on the information about the size of the object and the position of the object in the image. If the possibility that the user requests the object information is higher than the threshold possibility The threshold probabilities are corrected on the basis of the object search records of other users, the user-provided object information is separately searched for the objects having the threshold probability or higher, the user-provided information is matched with the images and stored in a separate database The image analysis system comprising:
제6항에 있어서,
상기 사용자 입력 정보는 상기 대상 영상 정보에서 탐색하고자 하는 객체를 지시하는 음성 정보인 것을 특징으로 하는 이미지 분석 시스템.
The method according to claim 6,
Wherein the user input information is voice information indicating an object to be searched in the target image information.
삭제delete 제6항에 있어서,
상기 사용자 입력 정보는 상기 대상 영상 정보에서 탐색하고자 하는 객체에 대해 획득하고자 하는 정보를 포함하는 음성 정보인 것을 특징으로 하는 이미지 분석 시스템.
The method according to claim 6,
Wherein the user input information is audio information including information to be acquired for an object to be searched in the target image information.
삭제delete
KR1020170080571A 2017-06-26 2017-06-26 Method and apparatus for acquiring object information based on image KR102005034B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170080571A KR102005034B1 (en) 2017-06-26 2017-06-26 Method and apparatus for acquiring object information based on image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170080571A KR102005034B1 (en) 2017-06-26 2017-06-26 Method and apparatus for acquiring object information based on image

Publications (2)

Publication Number Publication Date
KR20190001110A KR20190001110A (en) 2019-01-04
KR102005034B1 true KR102005034B1 (en) 2019-07-29

Family

ID=65018065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170080571A KR102005034B1 (en) 2017-06-26 2017-06-26 Method and apparatus for acquiring object information based on image

Country Status (1)

Country Link
KR (1) KR102005034B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023003061A1 (en) * 2021-07-23 2023-01-26 엘지전자 주식회사 Display device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060064716A1 (en) * 2000-07-24 2006-03-23 Vivcom, Inc. Techniques for navigating multiple video streams
KR20080057749A (en) 2006-12-20 2008-06-25 강화훈 Differential assembly
KR20140044663A (en) * 2012-10-05 2014-04-15 삼성전자주식회사 Information retrieval method by using broadcast receiving apparatus with display device and the apparatus thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023003061A1 (en) * 2021-07-23 2023-01-26 엘지전자 주식회사 Display device

Also Published As

Publication number Publication date
KR20190001110A (en) 2019-01-04

Similar Documents

Publication Publication Date Title
US9961404B2 (en) Media fingerprinting for content determination and retrieval
US9202523B2 (en) Method and apparatus for providing information related to broadcast programs
CN106686404B (en) Video analysis platform, matching method, and method and system for accurately delivering advertisements
US8949872B2 (en) Audio fingerprint for content identification
US9837125B2 (en) Generation of correlated keyword and image data
US10652592B2 (en) Named entity disambiguation for providing TV content enrichment
JP2021525031A (en) Video processing for embedded information card locating and content extraction
KR101700365B1 (en) Method for providing media-content relation information, device, server, and storage medium thereof
US8307403B2 (en) Triggerless interactive television
US8214368B2 (en) Device, method, and computer-readable recording medium for notifying content scene appearance
US20070136755A1 (en) Video content viewing support system and method
KR101293301B1 (en) System and method for serching images using caption of moving picture in keyword
JP2011243204A (en) Mobile content presentation based on program context
KR101550886B1 (en) Apparatus and method for generating additional information of moving picture contents
JP2010072708A (en) Apparatus for registering face identification features, method for registering the same, program for registering the same, and recording medium
US20150195626A1 (en) Augmented media service providing method, apparatus thereof, and system thereof
US20190082235A1 (en) Descriptive metadata extraction and linkage with editorial content
US9412049B2 (en) Apparatus and method for recognizing object using correlation between object and content-related information
JP4734048B2 (en) Information search device, information search method, and information search program
KR102005034B1 (en) Method and apparatus for acquiring object information based on image
KR20200024541A (en) Providing Method of video contents searching and service device thereof
JP5335500B2 (en) Content search apparatus and computer program
KR101930488B1 (en) Metadata Creating Method and Apparatus for Linkage Type Service
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
CN104396262A (en) Synchronized movie summary

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant