KR101330524B1 - 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템 - Google Patents

자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템 Download PDF

Info

Publication number
KR101330524B1
KR101330524B1 KR1020090066196A KR20090066196A KR101330524B1 KR 101330524 B1 KR101330524 B1 KR 101330524B1 KR 1020090066196 A KR1020090066196 A KR 1020090066196A KR 20090066196 A KR20090066196 A KR 20090066196A KR 101330524 B1 KR101330524 B1 KR 101330524B1
Authority
KR
South Korea
Prior art keywords
information
video
user
subtitle
user video
Prior art date
Application number
KR1020090066196A
Other languages
English (en)
Other versions
KR20110008711A (ko
Inventor
배태면
이진우
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020090066196A priority Critical patent/KR101330524B1/ko
Publication of KR20110008711A publication Critical patent/KR20110008711A/ko
Application granted granted Critical
Publication of KR101330524B1 publication Critical patent/KR101330524B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명의 일 실시예는 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템에 관한 것이다.
본 발명의 일 실시예는 사용자 동영상의 특성정보를 입력받는 특성정보 입력부; 데이터베이스에 기 저장된 동영상의 특성정보와 입력된 특성정보를 비교하여, 사용자 동영상과 동일한 동일 동영상의 자막정보를 데이터베이스에서 검색하는 자막정보 검색부; 및 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공부를 포함하는 것을 특징으로 하는 자막정보 검색 서버를 제공한다.
본 발명의 일 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 효과가 있다.
사용자 동영상, 자막정보, 검색

Description

자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템{Method, Terminal, Server and System for Searching Subtitle of Video}
본 발명의 일 실시예는 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템에 관한 것이다. 더욱 상세하게는, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해주는 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템에 관한 것이다.
요즈음, 많은 사용자는 자신의 컴퓨터 또는 이동통신단말기 등의 단말기에 인터넷 등으로부터 동영상을 다운로드 받아 저장해두었다가 이를 재생하는 기능을 많이 이용하고 있다. 이와 같이 단말기에서 재생하고자 하는 사용자 동영상에 관련된 자막정보가 있는 경우, 사용자는 자신의 단말기에 사용자 동영상과 이와 관련된 자막정보를 함께 저장해두고 사용자 동영상을 재생하게 되면, 단말기는 재생할 사용자 동영상과 관련되어 저장된 자막정보를 함께 동기화시켜 사용자 동영상과 자막정보를 함께 재생시킨다.
만약, 단말기에 사용자 동영상만 저장되어 있고, 해당 자막정보가 저장되어 있지 않은 경우에는, 사용자가 인터넷 등을 통해서 사용자 동영상과 관련된 자막정보를 검색해야만 불편함이 있다. 또한 인터넷 등을 통해 사용자 동영상의 자막정보를 검색할 때, 인터넷상에 존재하는 자막정보의 파일명이 해당 사용자 동영상과 관련된 이름 등과 같이 쉽게 확인할 수 있는 파일명으로 되어 있지 않은 경우, 원하는 사용자 동영상의 자막정보를 쉽게 검색하지 못하는 문제점도 있다.
이러한 배경에서, 본 발명의 실시예의 목적은, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 데 있다.
본 발명의 실시예의 다른 목적은, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 사용자 동영상의 특성정보를 이용하여 해당 사용자 동영상의 자막정보를 내용 기반으로 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 정확하고 효율적으로 검색할 수 있게 하는 데 있다.
본 발명의 실시예는, 사용자 동영상의 특성정보를 입력받는 특성정보 입력부; 데이터베이스에 기 저장된 동영상의 특성정보와 상기 입력된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 자막정보를 상기 데이터베이스 에서 검색하는 자막정보 검색부; 및 상기 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공부를 포함하는 것을 특징으로 하는 자막정보 검색 서버를 제공한다.
또한, 본 발명의 실시예는, 자막정보 검색 서버가 제공하는 자막정보 검색 방법에 있어서, 사용자 동영상으로부터 추출된 특성정보를 입력받는 특성정보 입력 단계; 데이터베이스에 기 저장된 동영상의 특성정보와 상기 입력된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 자막정보를 상기 데이터베이스에서 검색하는 자막정보 검색 단계; 및 상기 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공 단계를 포함하는 것을 특징으로 하는 자막정보 검색 방법을 제공한다.
또한, 본 발명의 실시예는, 사용자 동영상의 특성정보를 추출하는 특성정보 추출부; 상기 특성정보를 자막정보 검색 요청에 포함시켜 송신하는 자막정보 검색 요청부; 및 상기 자막정보 검색 요청에 대하여, 상기 사용자 동영상의 자막정보를 수신하는 자막정보 수신부를 포함하는 것을 특징으로 하는 자막정보 검색 기능을 제공하는 단말기를 제공한다.
또한, 본 발명의 실시예는, 사용자 동영상으로부터 특성정보를 추출하여 송신하고, 상기 사용자 동영상의 자막정보를 수신하는 사용자 단말기; 및 상기 특성정보를 수신하고, 데이터베이스에 기 저장된 동영상의 특성정보와 상기 수신된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 상기 자막정보를 상기 데이터베이스에서 검색하여 상기 사용자 단말기로 송신하는 자막정보 검색 서 버를 포함하는 것을 특징으로 하는 자막정보 검색 시스템을 제공한다.
또한, 본 발명의 실시예는, 사용자 동영상을 송신하고, 상기 사용자 동영상의 자막정보를 수신하는 사용자 단말기; 및 상기 사용자 동영상을 수신하여, 상기 사용자 동영상의 특성정보를 추출하고, 데이터베이스에 기 저장된 동영상의 특성정보와 상기 추출된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 상기 자막정보를 상기 데이터베이스에서 검색하여 상기 사용자 단말기로 송신하는 자막정보 검색 서버를 포함하는 것을 특징으로 하는 자막정보 검색 시스템을 제공한다.
이상에서 설명한 바와 같이 본 발명의 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 효과가 있다.
또한, 본 발명의 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 사용자 동영상의 특성정보를 이용하여 내용 기반으로 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 정확하고 효율적으로 검색할 수 있게 하는 효과가 있다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)을 개략적으로 나타낸 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)은, 재생하고자 하는 사용자 동영상의 자막정보를 검색 요청하는 사용자 단말기(110)와, 사용자 단말기(110)로부터의 자막정보 검색 요청에 대하여, 검색 요청시 수신된 데이터(예: 사용자 동영상, 또는 사용자 동영상으로부터 추출된 특성정보)를 토대로 해당 자막정보를 검색하여 사용자 단말기(110)로 제공하는 자막정보 검색 서버(120) 등을 포함한다.
위에서 언급된 사용자 동영상이란, 사용자 단말기(110)에 저장되어 해당 자막정보와 동기화되어 재생되는 동영상이며, 본 발명에서는, 이러한 사용자 동영상의 자막정보, 즉 사용자 동영상을 재생하기 위해 사용자 동영상과 동기화되는 자막정보는, 사용자 단말기(110)에 사용자 동영상과 함께 저장되어 있지 않고, 자막정보 검색 서버(120)로부터 검색되어 제공받는다.
사용자 단말기(110)는, 재생하고자 하는 사용자 동영상에 대해 저장되지 않은 자막정보를 자막정보 검색 서버(120)로부터 제공받기 위한 자막정보 검색 요청시, 해당 사용자 동영상을 자막정보 검색 서버(120)로 송신하면서 자막정보 검색 요청을 송신할 수 있고, 또는 해당 사용자 동영상을 송신하지 않는 대신 해당 사용자 동영상으로부터 특성정보를 추출하여 추출된 특성정보를 자막정보 검색 서버(120)로 송신하여 자막정보 검색 요청을 송신할 수도 있다.
이에 따라, 자막정보 검색 서버(120)는, 자막정보 검색 요청 수신시 사용자 단말기(110)로부터 해당 사용자 동영상을 수신한 경우에는 수신된 사용자 동영상으로부터 특성정보를 직접 추출하여 추출된 특성정보를 토대로 해당 자막정보를 검색하게 된다. 한편 자막정보 검색 서버(120)가 자막정보 검색 요청 수신시 사용자 단말기(110)로부터 해당 사용자 동영상의 특성정보를 수신한 경우에는 수신된 특성정보를 토대로 해당 자막정보를 바로 검색할 수도 있다.
즉, 사용자 단말기(110)에서 자막정보 검색 서버(120)로의 자막정보 검색 요청시, 송신되는 데이터가 "사용자 동영상"인 경우(도 2의 (a) 참조)와, 사용자 동영상의 "특성정보"인 경우(도 2의 (b) 참조)로 구분하여, 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)을 따라오는 도 2를 참조하여 다시 설명한다.
도 2는 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)에서 사용자 단말기(110) 및 자막정보 검색 서버(120) 간의 데이터 흐름에 대한 2가지 유형을 나타낸 도면이다.
도 2의 (a)는, 사용자 단말기(110)에서 자막정보 검색 서버(120)로의 자막정보 검색 요청시, 송신되는 데이터가 "사용자 동영상"인 경우, 데이터 흐름을 나타낸 도면이다.
도 2의 (a)를 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)은, 사용자 동영상을 송신하고, 사용자 동영상의 자막정보를 수신하는 사용자 단말기(110); 및 사용자 동영상을 사용자 단말기(110)로부터 수신하여, 수신된 사용자 동영상의 특성정보를 추출하고, 데이터베이스에 기 저장된 동영상의 특성정보 및 추출된 특성정보 간의 비교를 통해, 사용자 동영상과 동일한 동일 동영상의 자막정보를 데이터베이스에서 검색하여 사용자 단말기(110)로 송신하는 자막정보 검색 서버(120) 등을 포함한다.
도 2의 (a)에 도시된 자막정보 검색 서버(120)는, 사용자 단말기(110)로부터 수신된 사용자 동영상의 분석을 통해, 사용자 동영상에 대한 컬러 히스토그램(Color Histogram), 에지(Edge Shape), 오브젝트 모양(Object Shape) 및 텍스쳐(Texture) 등 중에서 하나 이상을 포함하는 "핑거프린트(Fingerprint)"를 특성정보로서 추출할 수 있다.
도 2의 (b)는, 사용자 단말기(110)에서 자막정보 검색 서버(120)로의 자막정 보 검색 요청시, 송신되는 데이터가 사용자 동영상의 "특성정보"인 경우, 데이터 흐름을 나타낸 도면이다.
도 2의 (b)를 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)은, 사용자 동영상으로부터 특성정보를 추출하여 송신하고, 사용자 동영상의 자막정보를 수신하는 사용자 단말기(110); 및 사용자 단말기(110)로부터 특성정보를 수신하고, 데이터베이스에 기 저장된 동영상의 특성정보 및 수신된 특성정보 간의 비교를 통해, 사용자 동영상과 동일한 동일 동영상의 자막정보를 데이터베이스에서 검색하여 사용자 단말기(110)로 송신하는 자막정보 검색 서버(120) 등을 포함한다.
도 2의 (b)에 도시된 사용자 단말기(110)는, 재생하고자 하는 사용자 동영상의 분석을 통해, 사용자 동영상에 대한 컬러 히스토그램(Color Histogram), 에지(Edge Shape), 오브젝트 모양(Object Shape) 및 텍스쳐(Texture) 등 중에서 하나 이상을 포함하는 "핑거프린트(Fingerprint)"를 특성정보로서 추출할 수 있다.
도 1 및 도 2를 참조하여 전술한 사용자 단말기(110) 및 자막정보 검색 서버(120)는, 도 1에 도시된 바와 같이, 유선 또는 무선 기반의 인터넷 이동통신망 등 중에서 하나 이상을 포함하는 유무선 통신망(130)을 통해 서로 연결될 수 있다
전술한 사용자 단말기(110)는, 이러한 유무선 통신망(130)을 통해 자막정보 검색 서버(120)에 접속하여 사용자 동영상 또는 사용자 동영상의 특성정보를 송신함으로써 자막정보 검색을 요청하여 사용자 동영상의 자막정보를 제공받는 단말기로서, 컴퓨터 및 이동통신단말기 등 중에서 하나 이상을 포함할 수 있다.
전술한 자막정보 검색 서버(120)는, 유무선 통신망(130)을 통해 접속한 사용자 단말기(110)로부터 사용자 동영상 또는 사용자 동영상의 특성정보를 수신함으로써 자막정보 검색을 요청받고, 이에 대하여 사용자 동영상의 자막정보를 검색하여 사용자 단말기(110)로 제공하는 서버로서, 사용자 단말기(110)가 유무선 통신망(130)을 통해 접속할 수 있는 웹 서버(Web Server) 또는 왑 서버(WAP Server) 등의 형태로 구현될 수 있으며, 동영상, 자막정보 및 특성정보 등을 서로 연계하여 데이터베이스에 저장시켜 관리할 수 있다. 이러한 자막정보 검색 서버(120)는 따라오는 도 3을 참조하여 더욱 상세하게 설명한다.
도 3은 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)에 대한 블록 구성도이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)는, 사용자 동영상의 특성정보를 입력받는 특성정보 입력부(320); 데이터베이스에 기 저장된 동영상의 특성정보 및 입력된 특성정보 간의 비교를 통해, 사용자 동영상과 동일한 동일 동영상의 자막정보를 데이터베이스에서 검색하는 자막정보 검색부(330); 및 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공부(340) 등을 포함한다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)는, 사용자 단말기(110)로부터 "사용자 동영상" 또는 "사용자 동영상의 특성정보"가 포함된 자막정보 검색 요청을 수신하는 자막정보 검색 요청 수신부(310)를 더 포함할 수 있다.
전술한 특성정보 입력부(320)는 이러한 자막정보 검색 요청 수신부(310)로부터 특성정보를 입력받을 수 있는데, 특성정보를 입력받는 2가지 유형을 도 4를 참조하여 아래에서 설명한다.
도 4는 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)에 포함된 특성정보 입력부(320)가 특성정보를 자막정보 검색 요청 수신부(310)로부터 입력받는 2가지 유형을 나타낸 도면이다.
도 4를 참조하면, 자막정보 검색 요청 수신부(310)는 사용자 단말기(110)로부터 자막정보 검색 요청을 수신할 때, 사용자 동영상의 특성정보를 수신하거나, 사용자 동영상을 수신할 수 있다. 이에 대하여, 자막정보 검색 요청 수신부(310)는 수신한 특성정보를 특성정보 입력부(320)로 입력시키거나, 수신한 사용자 동영상으로부터 특성정보를 추출하여 추출된 특성정보를 특성정보 입력부(320)로 입력시킬 수 있다.
이를 위해서, 도 4를 참조하면, 자막정보 검색 요청 수신부(310)는, 수신된 자막정보 검색 요청에 사용자 동영상의 "특성정보"가 포함된 경우, 포함된 특성정보를 특성정보 입력부(320)에 입력시키는 특성정보 전달부(410); 및 수신된 자막정보 검색 요청에 "사용자 동영상"이 포함된 경우, 포함된 사용자 동영상으로부터 특성정보를 추출하여 특성정보 입력부(320)에 입력시키는 특성정보 추출부(420) 중에서 하나 이상을 포함할 수 있다.
전술한 특성정보 입력부(320)가 특성정보 추출부(420)로부터 사용자 동영상의 특성정보를 입력받는 경우, 특성정보 추출부(420)는 사용자 단말기(110)로부터 수신한 사용자 동영상에서 사용자 동영상의 특성정보를 추출하기 위해서, 일 예로서 도시된 도 5와 같이, 세그먼테이션화부(510), 대표 영상 추출부(520) 및 핑거프린트 추출부(530) 등의 모듈을 포함할 수 있다.
도 5는 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)의 자막정보 검색 요청 수신부(310)에 포함된 특성정보 추출부(420)에 대한 블록 구성도이다.
도 5를 참조하면, 이러한 특성정보 추출부(420)는, 사용자 동영상의 샷(Shot)을 검출하여 검출된 샷 단위로 사용자 동영상을 세그먼테이션(Segmentation)화 하여 복수 개의 세그먼트(Segment)로 분할하는 세그먼테이션화부(510); 각 세그먼트를 대표하는 대표 영상을 추출하는 대표 영상 추출부(520); 및 추출된 대표 영상으로부터 핑거프린트를 사용자 동영상의 특성정보로서 추출하는 핑거프린트 추출부(530) 등을 포함한다.
예를 들어, 사용자 동영상의 샷(Shot)을 사용자 동영상에서의 프레임(Frame)으로 가정하면, 특성정보 추출부(420)는, 사용자 동영상으로부터 복수 개의 프레임(이는 픽처, 프레임 영상 또는 그냥 줄여서 영상이라고도 함)을 검출하고, 검출된 복수 개의 프레임으로 이루어진 사용자 동영상을 프레임 단위로 세그먼테이션화 함으로써, 사용자 동영상을 복수 개의 세그먼트로 분할한다. 이때 분할된 각 세그먼트는 하나 이상의 프레임을 포함할 수 있다. 이후 특성정보 추출부(420)는, 각 세그먼트에 포함된 하나 이상의 프레임 중에서 각 세그먼트를 대표하는 하나의 프레임을 대표 영상으로 추출하고, 이 대표 영상으로부터 사용자 동영상에서 분할된 각 세그먼트에 대한 특성정보로서의 핑거프린트를 추출한다.
핑거프린트 추출부(530)에서 사용자 동영상의 특정정보로서 추출되는 핑거프린트는, 해당 영상의 고유특성을 나타내며, 해당 대표 영상을 다른 영상과 구별시켜주는 정보이다.
일 예로서, 멀티미디어의 내용을 기술하고 동영상 데이터를 효율적으로 표현하고 검색하기 위해 MPEG-7 등의 동영상 압축 기술에서 사용되는 멀티미디어 시각 기술자(Visual Descriptor)를 전술한 핑거프린트로서 이용할 수 있다. 이러한 핑거프린트는 사용자 동영상에 대한 컬러 히스토그램, 에지, 오브젝트 모양 및 텍스쳐(Texture) 등 중에서 하나 이상을 포함할 수 있다.
전술한 대표 영상 추출부(520)는, 각 세그먼트의 중간 시간에 가장 인접한 시간에 위치하는 하나 이상의 영상(즉, 세그먼트에 포함된 프레임 영상)을 대표 영상으로 추출하는 제 1 방식과, 각 세그먼트 내 영상(즉, 세그먼트에 포함된 프레임 영상)의 평균(즉, 각 세그먼트에 포함된 각 영상에 대한 컬러 히스토그램 등과 같은 특성 정보들의 평균)에 가장 가까운 하나 이상의 영상을 대표 영상으로 추출하는 제 2 방식 중 하나의 방식으로 대표 영상을 추출할 수 있다.
예를 들어, 특정 세그먼트가 5개의 프레임 영상을 포함하는 경우, 제 1 방식에 따라 특정 세그먼트로부터 대표 영상을 추출해보면, 5개의 프레임 영상 각각의 시간 분포 중에서 중간 시간을 구하고, 이렇게 구해진 중간 시간에 가장 인접한 시간에서의 프레임 영상을 5개의 프레임 영상 중에서 추출할 수 있다. 또한, 제 2 방식에 따라 특정 세그먼트로부터 대표 영상을 추출해보면, 5개의 프레임 영상 각각에 대한 컬러 히스토그램을 구하고, 각각 구해진 컬러 히스토그램에 대한 평균을 계산한 이후, 5개의 프레임 영상 중에서 계산된 평균과 가장 가까운 컬러 히스토그램을 보이는 프레임 영상을 대표 영상으로 추출할 수 있다.
아래에서는, 전술한 2가지 대표 영상 추출 방식(제 1 방식, 제 2 방식)에 따라 추출된 대표 영상의 특성정보를 따라오는 예시적인 수학식 1 및 수학식 2를 각각 이용하여 설명한다.
전술한 특성정보 추출부(420)는, 각 세그먼트의 중간 시간에 위치하는 영상을 대표 영상으로 추출하는 제 1 방식에 의해서, 특정 동영상 An번째 세그먼트로부터 대표 영상을 추출하고, 이 대표 영상에서 추출된 특성정보 A n 은 다음과 같은 수학식 1을 이용하여 구할 수 있다. 여기서, 특성정보는 핑거프린트에 포함된 컬러 히스토그램인 것으로 가정한다.
Figure 112009044249871-pat00001
상기 수학식 1에서, M은 특정 동영상 An번째 세그먼트에 포함된 영상들(즉, 프레임들)의 개수이다. j는 특정 동영상 An번째 세그먼트에 포함된 M개의 영상들의 시간 분포를 토대로 중간 시간에 위치한 영상의 시리얼 번호, 즉 M개의 영상들 중에서 대표 영상이 되는 영상의 시리얼 번호이며, 상기 수학식 1에서는 (M+1)/2로 계산될 수 있다.
A nj 는 특정 동영상 An번째 세그먼트에 포함된 M개의 영상들 중에서 중간 시간에 해당하는 시리얼 번호 j에 대응되는 영상의 컬러 히스토그램을 의미하고, 이것이 대표 영상의 컬러 히스토그램으로 구해지는 것이다.
또한, 전술한 특성정보 추출부(420)는, 제 2 방식을 이용하여 대표 영상을 추출하여 특성정보를 추출하는 경우, 각 세그먼트 내 영상들에 대한 특성정보의 평균에 가장 가까운 특정정보를 나타낸 영상을 대표 영상으로 추출하고, 다시 이로부터 특성정보를 추출한다. 이를 위해, 특정 동영상 An번째 세그먼트로부터 추출된 대표 영상에서 추출된 특성정보 A n 은 다음과 같은 수학식 2를 이용하여 얻을 수 있다. 여기서, 특성정보는 핑거프린트에 포함된 컬러 히스토그램인 것으로 가정한다.
Figure 112009044249871-pat00002
상기 수학식 2에서, M은 특정 동영상 An번째 세그먼트에 포함된 영상들(즉, 프레임들)의 개수이다. j는 특정 동영상 A의 n번째 세그먼트에 영상들 각각에 대한 시리얼 번호이다.
A nk 는 특정 동영상 An번째 세그먼트에 포함된 k번째 영상에 대한 컬러 히스토그램을 의미한다. A navg 는 특정 동영상 An번째 세그먼트에 포함된 M개의 영상들의 컬러 히스토그램 평균값을 의미한다.
상기 수학식 2에 따르면, 특정 동영상 An번째 세그먼트에 포함된 k번째 영상 각각의 컬러 히스토그램 A nk 과, M개의 영상들의 컬러 히스토그램 평균값 A navg 의 차이값을 비교하여 차이값이 최소가 되도록 하는 컬러 히스토그램에 해당하는 영상, 즉 컬러 히스토그램 평균값에 가장 가까운 컬러 히스토그램을 보이는 영상을 대표 영상으로 추출하고 이 대표 영상에 대한 특성정보로서의 컬러 히스토그램인 A n 을 구할 수 있다.
전술한 대표 영상 추출 방식 중, 제 1 방식은 처리 속도가 빠르지만 정확도는 다소 낮을 수 있으며, 이에 비해 제 2 방식은 처리 속도가 느리지만 정확도는 높은 특징이 있다.
도 6은 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)에 포함된 자막정보 검색부(330)에 대한 블록 구성도이다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)에 포함된 자막정보 검색부(330)는, 특성정보 입력부(320)로 입력된 특성정보 및 자막정보 검색 서버(120)의 데이터베이스에 기 저장된 특성정보 간의 차이값을 계산하는 특성정보 비교부(610); 및 계산된 차이값에 근거하여, 데이터베이스에 기 저장된 특성정보 중에서, 계산된 차이값이 임계값 이하인 특성정보를 추출하고, 이렇게 추출된 특성정보와 연계되어 저장된 동영상을 동일 동영상으로서 데이터베이스에서 검색하는 동일 동영상 검색부(620); 및 검색된 동일 동영상의 자막정보를 데이터베이스에서 추출하는 자막정보 추출부(630) 등을 포함한다.
전술한 자막정보 검색부(330)에서, 특성정보에 기반하여 사용자 동영상과 동일한 동일 동영상을 데이터베이스에서 검색하는 과정을 따라오는 수학식 3과 수학 식 4를 참조하여 예시적으로 설명한다.
사용자 동영상으로부터 추출되어 특성정보 입력부(320)로 입력된 사용자 동영상(즉, A 비디오)의 특성정보(A n )는, 데이터베이스에 기 저장된 여러 동영상들 중에서 특정 동영상(즉, B 비디오)의 특성정보(B n +k )와 각각 비교되고, 비교 결과에 따른 차이값(D k )은 다음의 수학식 3을 이용하여 계산할 수 있다. 여기서, 특성정보는 핑거프린트에 포함 가능한 컬러 히스토그램인 것으로 가정한다.
Figure 112009044249871-pat00003
상기 수학식 3에서, A n 은 사용자 동영상(A 비디오)에 포함된 n번째 세그먼트으로부터 추출된 대표 영상의 컬러 히스토그램이고, B n +k 는 데이터베이스에 기 저장된 동영상(B 비디오)에 포함된 n번째 세그먼트로부터 추출된 대표 영상의 컬러 히스토그램이다. 그리고, NA 비디오의 세그먼트 개수이다. 이때, k는, A 비디오(즉, 사용자 동영상)가 B 비디오(즉, 데이터베이스에 기 저장된 동영상)보다 세그먼트의 개수가 작은 경우, B 비디오 내에서 A 비디오와 일치하는 세그먼트을 찾기 위해 A 비디오에 포함된 세그먼트와 B 비디오 내 각 세그먼트 간의 차이값을 계산하기 위한 것으로, 최종적으로 A 비디오에 포함된 세그먼트와 B 비디오 내의 세그먼트들 각각 간의 차이값 중 가장 작은 차이값을 A 비디오와 B 비디오 간의 최종적 인 차이값으로 사용할 수 있으며, 이는 수학식 4와 같이 나타낼 수 있다.
Figure 112009044249871-pat00004
상기 수학식 4에서, N, L은 각각 A 비디오 및 B 비디오의 세그먼트 개수이다. A 비디오와 B 비디오 간의 차이값(D)이 미리 정해진 특정 임계값(Threthold)보다 낮으면, A 비디오와 B 비디오는 동일한 비디오로 간주한다.
이와 같이, 동일 동영상으로 검색된 B 비디오의 자막정보를 데이터베이스에 추출하여 사용자 단말기(110)로 자막정보 검색 요청에 대한 검색 결과로서 제공한다. 이때 k가 0이 아닌 경우에는, k개의 각 세그먼트에 해당하는 자막정보를 삭제하여 A 비디오, 즉 사용자 동영상에 자막이 동기화되도록 하여 자막정보를 제공할 수 있다.
도 7은 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)가 제공하는 자막정보 검색 방법에 대한 흐름도이다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)가 제공하는 자막정보 검색 방법은, 사용자 동영상의 특성정보를 입력받는 특성정보 입력 단계(S700); 데이터베이스에 기 저장된 동영상의 특성정보 및 입력된 특성정보 간의 비교를 통해, 사용자 동영상과 동일한 동일 동영상의 자막정보를 상기 데이터베이스에서 검색하는 자막정보 검색 단계(S702); 및 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공 단계(S704) 등을 포함한다.
전술한 특성정보 입력 단계(S700) 이전에, 사용자 단말기로부터 사용자 동영상을 수신한 경우, 수신된 사용자 동영상의 분석을 통해 특성정보를 추출하는 특성정보 추출 단계를 더 포함할 수 있으며, 전술한 특성정보 입력 단계(S700)는 이러한 특성정보 추출 단계에서 추출된 특성정보를 입력받는다.
도 8은 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 사용자 단말기(110)에 대한 블록 구성도이다. 단, 아래에서는 사용자 단말기(110)를 단말기(110)로 줄여서 기재한다.
도 8을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 단말기(110)는, 재생하고자 하는 사용자 동영상의 특성정보를 추출하는 특성정보 추출부(810); 사용자 동영상 또는 사용자 동영상의 특성정보를 자막정보 검색 요청에 포함시켜 자막정보 검색 서버(120)로 송신하는 자막정보 검색 요청부(820); 및 자막정보 검색 요청에 대하여, 사용자 동영상의 자막정보를 자막정보 검색 서버(120)로부터 수신하는 자막정보 수신부(830) 등을 포함한다.
전술한 바와 같이, 단말기(110)는, 자막정보 검색 요청을 송신할 때, 사용자 동영상을 자막정보 검색 요청포함시켜 송신할 수도 있고, 사용자 동영상이 아니라 사용자 동영상의 특성정보를 자막정보 검색 요청에 포함시켜 송신할 수도 있다.
도 9는 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 단말기(110)에 포함된 특성정보 추출부(810)에 대한 블록 구성도이다.
도 9를 참조하면, 전술한 단말기(110)에 포함된 특성정보 추출부(810)는, 사용자 동영상의 샷(Shot)을 검출하여 검출된 샷 단위로 사용자 동영상을 세그먼테이 션화 하여 복수 개의 세그먼트(Segment)로 분할하는 세그먼테이션화부(910); 각 세그먼트를 대표하는 대표 영상을 추출하는 대표 영상 추출부(920); 및 추출된 대표 영상으로부터 핑거프린트를 특성정보로서 추출하는 핑거프린트 추출부(930) 등을 포함한다.
전술한 대표 영상 추출부(920)는, 각 세그먼트의 중간 시간에 위치하는 영상을 대표 영상으로 추출하는 제 1 방식과, 각 세그먼트 내 영상의 평균에 가까운 영상을 대표 영상으로 추출하는 제 2 방식 중 하나 이상을 이용하여 대표 영상을 추출할 수 있다. 이러한 단말기(110)의 특성정보 추출부(810)에 포함된 대표 영상 추출부(920)가 대표 영상을 추출하는 전술한 방식들은, 앞에서 수학식 1과 수학식 2를 참조하여 전술한 자막정보 검색 서버(120)에서의 대표 영상 추출 방식들과 동일한 방식으로 수행될 수 있다.
전술한 핑거프린트 추출부(530)에서 사용자 동영상의 특정정보로서 추출되는 핑거프린트는, 해당 영상의 고유특성을 나타내며 다른 영상과 구별되는 정보이다.
일 예로서, 멀티미디어의 내용을 기술하고 동영상 데이터를 효율적으로 표현하고 검색하기 위해 MPEG-7 등의 동영상 압축 기술에서 사용되는 멀티미디어 시각 기술자(Visual Descriptor)를 전술한 핑거프린트로서 이용할 수 있다. 이러한 핑거프린트는 컬러 히스토그램, 에지, 오브젝트 모양 및 텍스쳐(Texture) 등 중에서 하나 이상을 포함할 수 있다.
이상에서 설명한 바와 같이 본 발명의 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동 영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 효과가 있다.
또한, 본 발명의 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 사용자 동영상의 특성정보를 이용하여 내용 기반으로 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 정확하고 효율적으로 검색할 수 있게 하는 효과가 있다.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
이상에서 설명한 바와 같이 본 발명의 실시예는 동영상 관련 서비스 분야에 적용되어, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있 지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 효과를 발생하는 매우 유용한 발명이다.
도 1은 본 발명의 일 실시예에 따른 자막정보 검색 시스템을 개략적으로 나타낸 도면,
도 2는 본 발명의 일 실시예에 따른 자막정보 검색 시스템에서 사용자 단말기 및 자막정보 검색 서버 간의 데이터 흐름에 대한 2가지 유형을 나타낸 도면,
도 3은 본 발명의 일 실시예에 따른 자막정보 검색 서버에 대한 블록 구성도,
도 4는 본 발명의 일 실시예에 따른 자막정보 검색 서버에 포함된 특성정보 입력부가 특성정보를 입력받는 2가지 유형을 나타낸 도면,
도 5는 본 발명의 일 실시예에 따른 자막정보 검색 서버에 포함된 특성정보 추출부에 대한 블록 구성도,
도 6은 본 발명의 일 실시예에 따른 자막정보 검색 서버에 포함된 자막정보 검색부에 대한 블록 구성도,
도 7은 본 발명의 일 실시예에 따른 자막정보 검색 방법에 대한 흐름도,
도 8은 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 단말기에 대한 블록 구성도,
도 9는 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 단말기에 포함된 특성정보 추출부에 대한 블록 구성도이다.
< 도면의 주요 부분에 대한 부호의 설명 >
100: 자막정보 검색 시스템
110: 사용자 단말기
120: 자막정보 검색 서버
130: 유무선 통신망
310: 자막정보 검색 요청 수신부
320: 특성정보 입력부
330: 자막정보 검색부
340: 자막정보 제공부
410: 특성정보 전달부
420: 특성정보 추출부
510: 세그먼테이션화부
520: 대표 영상 추출부
530: 핑거프린트 추출부
610: 특성정보 비교부
620: 동일 동영상 검색부
630: 자막정보 추출부

Claims (11)

  1. 사용자 단말기로부터 자막정보 검색 요청을 수신하는 자막정보 검색 요청 수신부;
    사용자 동영상의 특성정보를 입력받는 특성정보 입력부;
    데이터베이스에 기 저장된 동영상의 특성정보와 상기 입력된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 자막정보를 상기 데이터베이스에서 검색하는 자막정보 검색부; 및
    상기 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공부;
    를 포함하고,
    상기 자막정보 검색 요청 수신부는,
    상기 수신된 자막정보 검색 요청에 상기 사용자 동영상의 특성정보가 포함된 경우, 상기 특성정보를 상기 특성정보 입력부에 입력시키는 특성정보 전달부; 및
    상기 수신된 자막정보 검색 요청에 상기 사용자 동영상이 포함된 경우, 상기 사용자 동영상으로부터 상기 특성정보를 추출하여 상기 특성정보 입력부에 입력시키는 특성정보 추출부;
    를 포함하며,
    상기 특성정보 추출부는,
    상기 사용자 동영상의 샷(Shot)을 검출하여 상기 검출된 샷 단위로 상기 사용자 동영상을 세그먼테이션(Segmentation)화 하여 복수 개의 세그먼트(Segment)로 분할하는 세그먼테이션화부;
    상기 각 세그먼트를 대표하는 대표 영상을 추출하는 대표 영상 추출부; 및
    상기 추출된 대표 영상으로부터 핑거프린트(Fingerprint)를 상기 특성정보로서 추출하는 핑거프린트 추출부;
    를 포함하고,
    상기 대표 영상 추출부는,
    상기 각 세그먼트의 중간 시간에 가장 인접한 시간에 해당하는 영상을 상기 대표 영상으로 추출하거나, 상기 각 세그먼트 내 영상의 평균에 가장 가까운 영상을 상기 대표 영상으로 추출하는 것을 특징으로 하는 자막정보 검색 서버.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제 1항에 있어서,
    상기 핑거프린트는,
    상기 사용자 동영상에 대한 컬러 히스토그램, 에지, 오브젝트 모양 및 텍스쳐(Texture) 중 하나 이상을 포함하는 것을 특징으로 하는 자막정보 검색 서버.
  6. 제 1항에 있어서,
    상기 자막정보 검색부는,
    상기 입력된 특성정보 및 상기 데이터베이스에 기 저장된 특성정보 간의 차이값을 계산하는 특성정보 비교부; 및
    상기 데이터베이스에 기 저장된 특성정보 중에서, 상기 계산된 차이값이 임계값 이하인 특성정보를 추출하고, 상기 추출된 특성정보와 연계되어 저장된 동영상을 상기 동일 동영상으로서 상기 데이터베이스에서 검색하는 동일 동영상 검색부; 및
    상기 검색된 동일 동영상의 자막정보를 상기 데이터베이스에서 추출하는 자막정보 추출부
    를 포함하는 것을 특징으로 하는 자막정보 검색 서버.
  7. 자막정보 검색 서버가 제공하는 자막정보 검색 방법에 있어서,
    사용자 단말기로부터 사용자 동영상을 수신한 경우, 상기 수신된 사용자 동영상의 분석을 통해 특성정보를 추출하는 특성정보 추출 단계;
    상기 사용자 동영상으로부터 추출된 특성정보를 입력받는 특성정보 입력 단계;
    데이터베이스에 기 저장된 동영상의 특성정보와 상기 입력된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 자막정보를 상기 데이터베이스에서 검색하는 자막정보 검색 단계; 및
    상기 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공 단계;
    를 포함하고,
    상기 특성정보 추출 단계는 상기 사용자 동영상의 샷(Shot)을 검출하여 상기 검출된 샷 단위로 상기 사용자 동영상을 세그먼테이션(Segmentation)화 하여 복수 개의 세그먼트(Segment)로 분할하고, 상기 각 세그먼트를 대표하는 대표 영상을 추출한 후, 상기 추출된 대표 영상으로부터 핑거프린트(Fingerprint)를 상기 특성정보로서 추출하는 것을 특징으로 하며,
    상기 특성정보 추출 단계는 상기 대표 영상 추출시 상기 각 세그먼트의 중간 시간에 가장 인접한 시간에 해당하는 영상을 상기 대표 영상으로 추출하거나, 상기 각 세그먼트 내 영상의 평균에 가장 가까운 영상을 상기 대표 영상으로 추출하는 것을 특징으로 하는 자막정보 검색 방법.
  8. 삭제
  9. 삭제
  10. 사용자 동영상으로부터 특성정보를 추출하여 송신하고, 상기 사용자 동영상의 자막정보를 수신하는 사용자 단말기; 및
    상기 특성정보를 수신하고, 데이터베이스에 기 저장된 동영상의 특성정보와 상기 수신된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 상기 자막정보를 상기 데이터베이스에서 검색하여 상기 사용자 단말기로 송신하는 자막정보 검색 서버;
    를 포함하고,
    상기 사용자 단말기는 상기 사용자 동영상의 샷(Shot)을 검출하여 상기 검출된 샷 단위로 상기 사용자 동영상을 세그먼테이션(Segmentation)화 하여 복수 개의 세그먼트(Segment)로 분할하고, 상기 각 세그먼트를 대표하는 대표 영상을 추출한 후, 상기 추출된 대표 영상으로부터 핑거프린트(Fingerprint)를 상기 특성정보로서 추출하는 것을 특징으로 하며,
    상기 사용자 단말기는 상기 대표 영상 추출시 상기 각 세그먼트의 중간 시간에 가장 인접한 시간에 해당하는 영상을 상기 대표 영상으로 추출하거나, 상기 각 세그먼트 내 영상의 평균에 가장 가까운 영상을 상기 대표 영상으로 추출하는 것을 특징으로 하는 자막정보 검색 시스템.
  11. 삭제
KR1020090066196A 2009-07-21 2009-07-21 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템 KR101330524B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090066196A KR101330524B1 (ko) 2009-07-21 2009-07-21 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090066196A KR101330524B1 (ko) 2009-07-21 2009-07-21 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템

Publications (2)

Publication Number Publication Date
KR20110008711A KR20110008711A (ko) 2011-01-27
KR101330524B1 true KR101330524B1 (ko) 2013-11-18

Family

ID=43614682

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090066196A KR101330524B1 (ko) 2009-07-21 2009-07-21 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템

Country Status (1)

Country Link
KR (1) KR101330524B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101403969B1 (ko) * 2013-04-05 2014-06-10 구재환 타임코드를 상실한 동영상의 자막 재생 시점 인식 방법
CN104462355B (zh) * 2014-12-05 2017-10-17 国家电网公司 一种多媒体***及多媒体处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050071822A (ko) * 2004-01-02 2005-07-08 황정우 동영상 편집 기능을 갖는 이동통신 단말기 및 그 방법과동영상 편집 서비스 서버 및 그 방법
KR20060099866A (ko) * 2005-03-15 2006-09-20 (주)잉카엔트웍스 자막 정보를 제공하는 방법 및 그 시스템
KR20080101075A (ko) * 2007-05-15 2008-11-21 삼성전자주식회사 영상 및 영상 정보 검색 장치 및 방법, 그리고 그 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050071822A (ko) * 2004-01-02 2005-07-08 황정우 동영상 편집 기능을 갖는 이동통신 단말기 및 그 방법과동영상 편집 서비스 서버 및 그 방법
KR20060099866A (ko) * 2005-03-15 2006-09-20 (주)잉카엔트웍스 자막 정보를 제공하는 방법 및 그 시스템
KR20080101075A (ko) * 2007-05-15 2008-11-21 삼성전자주식회사 영상 및 영상 정보 검색 장치 및 방법, 그리고 그 시스템

Also Published As

Publication number Publication date
KR20110008711A (ko) 2011-01-27

Similar Documents

Publication Publication Date Title
CN112565825B (zh) 一种视频数据处理方法、装置、设备以及介质
US8995823B2 (en) Method and system for content relevance score determination
US8879788B2 (en) Video processing apparatus, method and system
KR101810578B1 (ko) 셔터 클릭을 통한 자동 미디어 공유
US20090007202A1 (en) Forming a Representation of a Video Item and Use Thereof
US20070101266A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
JP2001155169A (ja) ビデオ画像の分割、分類、および要約のための方法およびシステム
CN104216956B (zh) 一种图片信息的搜索方法和装置
US20110052086A1 (en) Electronic Apparatus and Image Processing Method
CN108337482A (zh) 监控视频的存储方法和***
EP3007082A1 (en) Method for computing a similarity measure for video segments
KR20090019712A (ko) 정보 처리 장치 및 정보 처리 방법
KR101541495B1 (ko) 캡쳐된 이미지를 이용한 동영상 분석 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
KR100896336B1 (ko) 영상 정보 기반의 동영상 연관 검색 시스템 및 방법
KR20150015016A (ko) 참석자들에 의한 이벤트 검색
JP2014006680A (ja) ビデオ記録装置、情報処理システム、情報処理方法および記録媒体
CN114845149B (zh) 视频片段的剪辑方法、视频推荐方法、装置、设备及介质
EP2887259A1 (en) Method for annotating an object in a multimedia asset
KR101330524B1 (ko) 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템
KR20200024541A (ko) 동영상 컨텐츠 검색 지원 방법 및 이를 지원하는 서비스 장치
Bohm et al. Prover: Probabilistic video retrieval using the Gauss-tree
US20150078730A1 (en) Signal recording apparatus, camera recorder, and signal processing system
KR101334127B1 (ko) 클라이언트 단말기를 이용한 동영상 콘텐츠 공유 서비스 제공 시스템 및 방법
KR100930529B1 (ko) 비디오 식별을 통한 유해 동영상 검열 시스템 및 방법
KR20090096158A (ko) 동영상 스틸컷 기반의 크로스미디어 검색 시스템 및 방법

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181106

Year of fee payment: 6