KR20130142192A - 통신 네트워크를 통한 비디오 콘텐트 검색들을 위한 보조 - Google Patents

통신 네트워크를 통한 비디오 콘텐트 검색들을 위한 보조 Download PDF

Info

Publication number
KR20130142192A
KR20130142192A KR1020137030348A KR20137030348A KR20130142192A KR 20130142192 A KR20130142192 A KR 20130142192A KR 1020137030348 A KR1020137030348 A KR 1020137030348A KR 20137030348 A KR20137030348 A KR 20137030348A KR 20130142192 A KR20130142192 A KR 20130142192A
Authority
KR
South Korea
Prior art keywords
user
semantic data
videos
content
service
Prior art date
Application number
KR1020137030348A
Other languages
English (en)
Inventor
실바인 스퀘딘
알렉산드르 반베르
Original Assignee
알까뗄 루슨트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알까뗄 루슨트 filed Critical 알까뗄 루슨트
Publication of KR20130142192A publication Critical patent/KR20130142192A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Library & Information Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Algebra (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자에 의한 통신 네트워크를 통한 비디오 콘텐트 검색을 보조하기 위한 방법으로서, 상기 사용자에 의해 제 1 콘텐트 아이템(CZ)을 결정하는 단계; 상기 제 1 콘텐트 아이템으로부터 시맨틱 데이터를 자동으로 추출하는 단계; 시맨틱 데이터의 기능으로서, 적어도 하나의 서비스에 대한 쿼리들을 자동으로 생성하여 이러한 서비스 또는 이들 서비스들상의 한 세트의 비디오들을 검색할 수 있게 하는, 상기 쿼리들을 자동으로 생성하는 단계; 및 사용자에게 상기 세트의 비디오를 나타내는 단계를 포함한다.

Description

통신 네트워크를 통한 비디오 콘텐트 검색들을 위한 보조{ASSISTANCE FOR VIDEO CONTENT SEARCHES OVER A COMMUNICATION NETWORK}
본 발명은 인터넷을 통한 비디오 콘텐트 프로비전 서비스들에 액세스하는 것에 관한 것이다. 이들 서비스들은 "유튜브", "비메오", 및 "데일리모션" 외 많은 특수화된 플랫폼들(교육 섹터, 의학 섹터 등)과 같은 전문가 플랫폼들이다.
이들 두 개의 형태들의 서비스들은 사용자들이 그들 자신의 콘텐트를 플랫폼에 업로드하는 것을 가능하게 하는 공통 특징을 공유한다. 그 결과는 다량의 비디오 콘텐트를 모든 이들 서비스들을 따라 이용가능하다는 것이다. 현재, 대략 355 시간의 비디오들이 "유튜브" 서비스상에 1분당 업로드된다.
이용가능한 콘텐트에서 이러한 폭발적 증가에 대한 대응물은 콘텐트의 대부분이 충분한 가시성을 가지 않는다는 것이다. 따라서, 단지 이용가능한 비디오 콘텐트의 40%만이 300회 이상 보여질 것이다.
이러한 낮은 비율은 주로, 사용자들이 이러한 대량의 콘텐트 중에서 그들이 관심 있는 비디오를 식별하는 것이 극도로 어려워졌다는 사실 때문이다.
비디오 콘텐트는 프리 텍스트 필드 또는 한 세트의 라벨들을 통해 키 워드들에 기초한 검색을 가능케하는 설명들로서, 가장 흔하게는 문자인, 설명들과 연관된다. 따라서, 새로운 비디오를 업로드하기를 원하는 각각의 사용자는 서비스 또는 외부 서비스에 통합된 검색 엔진("구글", "빙", 또는 "야후"와 같은)을 사용하여 사용자의 비디오를 다른 사용자들이 찾을 수 있게 하는 설명을 제공하도록 요청된다.
그러나, 이러한 해결책은 설명들이 사용자들에 의해 제공되고 따라서 완전히 주관적이기 때문에 불충분하다. 특히, 그들은 개별적인 사용자의 흥미들을 나타내고, 다수의 언어들일 수 있고, 주어진 언어 내에서, 수 개의 가능한 동의어들을 포함하는 키워드들의 선택을 포함한다. 비디오를 찾기 위해, 따라서, 사용자들은 적절한 키워드들을 결정하기 위한 툴들 없이 적절한 키 워드들을 선택해야 한다. 비디오를 업로드한 사용자에 의해 선택된 라벨들 및 어휘를 어떻게 알 수 있겠는가?
결과적인 문제는 두 부분이다:
- 검색들이 가장 관련 있는 비디오 콘텐트를 필수적으로 제공하지는 않는다;
- 비디오는 검색들을 행하는 사용자들에게 충분히 가시적이지 않을 수 있다.
본 발명의 목적은 상기 상황을 개선하는 것이다.
이를 위해, 그의 제 1 목적은 사용자에 의해 통신 네트워크를 통해 비디오 콘텐트 검색들을 보조하는 방법으로서:
상기 사용자에 의해 제 1 콘텐트 아이템을 결정하는 단계;
이러한 제 1 콘텐트 아이템으로부터 시맨틱 데이터를 자동으로 추출하는 단계;
상기 시맨틱 데이터의 기능으로서 적어도 하나의 서비스에 대해 쿼리들을 자동으로 생성하여, 상기 적어도 하나의 서비스상에 한 세트의 비디오들을 검색할 수 있게 하는, 상기 쿼리들을 자동으로 생성하는 단계; 및
상기 세트의 비디오들을 상기 사용자에 제공하는 단계를 포함한다.
본 발명의 일 실시예에 따라, 상기 방법은 이러한 세트에서 비디오 콘텐트와 연관된 기술과 제 1 콘텐트 아이템 사이의 시맨틱 근접의 기준의 기능으로서 상기 세트 중에서 하나의 서브세트의 비디오들을 선택하는 단계를 또한 포함할 수 있다.
적어도 하나의 서비스는 시맨틱 데이터의 기능으로서 결정될 수 있다.
이들 단계들은 사람-머신 인터페이스(WB)에서 제 1 콘텐트 아이템(CZ)의 선택에 의해 및 상기 사람-머신 인터페이스를 통해 액세스가능한 소프트웨어 기능의 선택에 의해 트리거링될 수 있다.
시맨틱 데이터를 자동으로 추출하는 단계는 "주어-동사-목적어" 관계들을 추출하는 단계로 구성될 수 있다. 생성된 쿼리들은 상기 관계들에 기초하여 구성될 수 있다.
본 발명은 또한 이전이 기술된 방법을 실행하기 위한 프로세싱 수단을 구비한 통신 단말, 및 이러한 방법을 실행하기 위한 코딩 수단을 구비한 컴퓨터 프로그램을 목적으로 한다.
본 발명은 또한 사용자가 제 1 콘텐트 아이템을 선택할 수 있게 하는 수단, 및
상기 제 1 콘텐트 아이템으로부터 시맨틱 데이터를 자동으로 추출하는 단계;
이들 시맨틱 데이터의 기능으로서 적어도 하나의 서비스에 대한 쿼리들을 자동으로 생성하여, 상기 적어도 하나의 서비스상의 한 세트의 비디오들을 검색할 수 있게 하는, 상기 쿼리들을 자동으로 생성하는 단계; 및
사용자에게 상기 세트의 비디오 콘텐트를 제공하는 단계를 트리거링할 수 있게 하는 수단을 구비한, 통신 단말용 사람-머신 인터페이스를 목적으로 한다.
이러한 방식으로, 일반적으로 문자인, 제 1 콘텐트 아이템에 기초하여, 본 발명은 비디오 콘텐트의 가시성 및 검색들의 관련성을 개선하기 위해 사용자 주관성을 제거하거나, 또는 적어도 감소할 수 있게 한다. 이는 비디오 콘텐트와 검색 주제들 사이의 시맨틱 갭을 감소시킬 수 있게 한다.
본 발명 및 이들 이점들은 첨부된 도면들을 참조하여 다음의 기술에서 더 명백히 분명해질 것이다.
본 발명은 사용자에 의한 통신 네트워크를 통한 비디오 콘텐트 검색들을 보조하는 방법을 제공한다.
도 1은 본 발명을 실행하는 사람-머신 인터페이스를 도시하는 도면.
도 2는 본 발명에 따른 방법의 단계들의 가능한 연쇄를 개략적으로 도시하는 플로차트.
도 3은 텍스트 콘텐트, 및 추출된 시맨틱 데이터의 예를 도시하는 도면.
도 1은 사용자가 그들의 URLs(표준 자원 표시자(Uniform Resource Locator))로부터 웹 페이지들을 액세스할 수 있게 하는 웹 브라우저를 도시한다. 이러한 브라우저는 사람-머신 인터페이스 또는 "윈도우"(WB)를 사용자에게 제공한다. 이러한 윈도우는 페이지들이 디스플레이되는(비디오 콘텐트를 포함하는) 브라우저 공간(WP) 및 메뉴 존(MZ)을 포함하여 몇몇 부분들을 보여준다.
이러한 메뉴 존은 그 자신이 드롭-다운 메뉴들(SM) 및 아이콘들(IM)을 포함할 수 있다. 이러한 메뉴 존(MZ)을 통해, 브라우저는 사용자에게 그의 다수의 기능들에 대한 액세스를 제공한다. 주어진 기능은 또한 드롭-다운 메뉴들, 아이콘들, 또는 둘 모두를 통해 액세스가능할 수 있다. 이는 브라우저의 개발자에 의해 행해진 인간공학적 선택이다.
추가적으로, 이들 및/또는 다른 기능들이 또한 환경적인 메뉴(CM)를 통해 사용자에게 액세스가능할 수 있다. 일반적으로, 마이크로소프트사로부터의 윈도우즈(TM) 운영 체계하에서, 이러한 환경 메뉴는 마우스상의 오른쪽 메뉴 버튼으로 오픈되고 그의 요소들은 마우스 포인터의 위치 및 브라우저의 상태에 의존한다.
도 1의 예시에서, 브라우저 공간(WP)은 텍스트 콘텐트를 나타낸다. 사람-머신 인터페이스(WB)는 이러한 텍스트 콘텐트의 모두 또는 부분을 선택할 수 있게 한다. 이러한 선택은 마우스 또는 임의의 다른 포인팅 디바이스, 또는 키보드 등을 사용하여 알려진 방법들에 의해 행해질 수 있다. 도시된 예시에서, 단지 CZ 존이 선택된다.
이러한 제 1 콘텐트(CZ)가 선택되면, 사용자는 사람-머신 인터페이스(WB)의 메뉴로부터 본 발명에 대응하는 기능을 선택할 수 있다. 이러한 기능은 드롭-다운 메뉴(SM), 아이콘(IM), 또는 환경 메뉴(CM)로부터 선택될 수 있다. 이러한 선택은 아이콘(IM)을 클릭하거나 드롭-다운 메뉴(SM) 또는 환경 메뉴(CM)로부터 요소를 선택하는 것으로 구성될 수 있다.
본 발명은 또한 브라우저와 다른 소프트웨어 애플리케이션들에 적용할 수 있다. 특히, 이는 파일 디스플레이 애플리케이션에 적용할 수 있다. 전자 북(또는 "e-book") 또는 어도비사로부터의 "PDF" 포맷의 파일을 판독하는 사용자는, 상기 설명된 바와 같이, 콘텐트 존을 선택하고 선택된 콘텐트에 기초하여 문제의 소프트웨어 애플리케이션의 메뉴로부터 기능을 트리거할 수 있다.
소프트웨어 애플리케이션은 또한 마이크로소프트사로부터의 "워드" 소프트웨어와 같은 워드 프로세서일 수 있다.
유사하게, 본 발명은 텍스트 콘텐트와 다른 콘텐트에 적용할 수 있다. 그러므로, 이미지들, 사운드, 또는 비디오를 선택하는 것이 가능하다.
처음의 콘텐트를 결정하기 위해 사용자에 의해 선택된 것과 다른 메커니즘이 가능할 수 있다. 예를 들면, 결정은 디스플레이된 웹 페이지, 재생된 비디오, 판독된 이메일의 콘텐트 등의 기능과 같이 자동일 수 있다.
제 1 콘텐트 아이템(CZ)을 결정하는 이러한 단계는 도 2에서 단계(E1)에 의해 도시된다.
제 1 콘텐트 아이템(CZ) 및 적절한 기능의 선택은 제 1 콘텐트 아이템으로부터 시맨틱 데이터를 자동으로 추출하는 제 1 알고리즘 단계를 트리거한다.
이러한 단계는 단계(E2)로서 도시된다.
이러한 단계는 수 개의 서브-단계들로 세분될 수 있다.
제 1 서브-단계(E2a)는 콘텐트가 텍스트, 비디오, 이미지, 오디오 등인 것을 말하는 콘텐트의 형태를 결정하는 것으로 구성된다.
콘텐트 형태의 기능으로서, 이후 다수의 알고리즘이 시맨틱 데이터를 추출하기 위해 사용될 수 있다. 이들 알고리즘은 개별적인 소프트웨어 모듈들에 의해 구현될 수 있다.
추출 단계(E2)의 다음의 서브-단계들은 콘텐트 형태에 의존할 수 있다.
텍스트 콘텐트의 경우, 제 2 서브-단계(E2b)는 콘텐트 아이템(CZ)으로부터 미가공 시맨틱 데이터를 추출하도록 구성될 수 있다.
이들 미가공 시맨틱 데이터는 문장마다 또는 문장 블록마다 추출될 수 있다.
문장 블록들의 추출은 이전에 식별된 엔티티를 참조하는 인칭 대명사의 존재에 의해 조절된다. 이는 이후 각각의 문장의 주어가 동일하고 따라서 동일한 주제상의 문장들의 일관된 블록을 식별한다고 말할 수 있다.
모든 단어들이 추출될 수는 없다. 몇몇 단어들은, 그들이 텍스트를 이해하는데 유용하지 않기 때문에 생략될 수 있다.
상기 추출은 몇몇 단계들로 실행될 수 있다:
- 등위 접속사들 등과 같은, 소위 "정지 단어들"의 삭제.
- 남아 있는 정보를 분석하고 차별적인 의미를 갖는 한 세트의 키워드들을 추출하기 위한 통계 및 자연 언어 알고리즘의 사용. 예를 들면, 사람의 설명에서, 단어 "눈들"은 모두가 눈들을 갖기 때문에 차별적이지 않다. 다시 말해서, 단어 "외눈"은 차별적이다. 이렇게 하기 위해, 한 세트의 문서들에서 단어의 빈도상의 정보를 주는 언어 자료를 사용할 수 있다: 더 낮은 빈도일수록 단어의 선험적인 중요도는 더 크다.
이들 미가공 시맨틱 데이터에 기초하여, 제 3 서브-단계(E2c)가 정제된 시맨틱 데이터를 결정할 수 있게 한다. 이들 정제된 시맨틱 데이터는 "개념들"; 사람들, 회사들, 위치들(도시들, 국가들, 지역들, 등)의 명칭들; 날짜들; 등일 수 있다.
"개념들"은 상기 세트의 미가공 시맨틱 데이터로부터의 주요 시맨틱 데이터로서 이해될 수 있다. 그들은 다수의 방식들로 결정될 수 있다. 예를 들면, 각각의 미가공 시맨틱 데이텀은 모든 텍스트 콘텐트(CZ)에 걸친 출현 계수값과 연관될 수 있다. 이후 개념들은 가장 높은 출현들에 대응하는 시맨틱 데이터이다.
다수의 시맨틱 레벨들로부터의 동의어들 및 미가공 데이터, 및 특히 상위어들(즉, 더 일반적인 미가공 시맨틱 데이터는 하나 이상의 특정 시맨틱 데이터 아이템들을 포함함)을 고려하기 위해 온톨로지를 또한 사용할 수 있다.
개념들은 이후 동의어들 및 상위어들에 기초하여 집성된 미가공 시맨틱 데이터의 출현들의 수에 의해 결정될 수 있다. 예를 들면, 미가공 데이터 "오렌지", "포도", "바나나" 등의 출현들을 포함하는 텍스트 콘텐트는 개념 "과일"을 끌어낼 수 있다.
텍스트 콘텐트(CZ)가 속하는 카테고리를 결정하기 위해, 예를 들면, 가장 강력한 출현과 연관된 가장 중요한 개념을 끌어낼 수 있다. 이러한 카테고리는 이전에 결정된 개념들의 연속하는 상위어들을 고려하여 검색될 수 있다.
사람들, 회사들, 위치들 등의 명칭들은 사전으로부터 결정될 수 있다. 이러한 사전은 발명의 소프트웨어 수단에 대해 내부에 있을 수 있고 또는 이는 웹 서비스 또는 임의의 다른 기술적 디바이스(데이터베이스 등)의 형태로 인터넷상에 원격으로 있을 수 있다.
도 3은 텍스트 콘텐트(CZ)의 예와 추출된 시맨틱 데이터 사이의 일치를 보여준다. 이러한 예시에서, 텍스트 콘텐트(CZ)는 브라우저 공간(WP)상에 디스플레이된 웹 페이지에서 사용자에 의해 선택된 존이다. 이는 도면에서 회색 배경으로 도시된다.
발명의 기능을 트리거링한 후, "팝-업" 윈도우(PW)에는 가장 관련 있는 비디오 콘텐트(VC), 및 다른 관련 있는 비디오 콘텐트(RVC)가 디스플레이된다. 이러한 윈도우(PW)는 "카테고리", 개념들, 개인들 및 위치들("주 또는 국가")의 명칭들 및 미가공 시맨틱 데이터("태그들")를 또한 디스플레이한다. 이러한 정보는 그것이 사용자에게 너무 많은 것을 의미하지 않고 내부적으로 더 유용한 경우, 디스플레이되지 않을 수 있다. 그러나, 이는 설명을 명확히 하기 위해 여기에 디스플레이된다.
카테고리 "비지니스"(거래, 무역)는 추출된 개념들에 기초하여 이러한 예에서 결정된다. 그러므로, 개념들 "광고" 및 "세일"은 상위어 "비지니스"를 갖는다. 이러한 추론은 "저가", "시장", "어음 중개 비지니스", "실링즈(shiliings)" 등과 같은 미가공 데이터의 존재에 의해 더욱 강력해진다.
이러한 시맨틱 필드에서 수 개의 개념들의 출현을 통해, 이후 본 발명의 방법은 텍스트 콘텐트(CZ)가 비지니스에 관련되는 것을 자동으로 결정할 수 있다.
서브-단계(E2d)는 시맨틱 데이터의 가중으로 구성된다. 각각의 시맨틱 데이텀 및 그의 동의어들 및 상위어들의 출현들의 횟수의 함수로서, 가중치는 시맨틱 데이터의 중요도를 식별하고, 텍스트 콘텐트(CZ)를 나타내도록 할당될 수 있다.
더 높은 가중치들이 또한 할당될 수 있다.
실질적으로, 이러한 서브-단계는 서브-단계(E2c)와 동시에 실행될 수 있다.
이는 이후 단계들에서 사용될 이들 가중치들에 기초하는 랭킹에 따라 그의 가중치가 특정 임계치 또는 제한된 횟수를 초과하는 것들만을 저장하기 위해 시맨틱 데이터를 필터링하는 단계를 또한 포함할 수 있다.
본 발명의 일 실시예에서, 시맨틱 데이터의 문법적인 기능들을 결정하고 그들 사이의 논리 링크들을 구성하기 위해 텍스트 콘텐트(CZ)의 문법적인 분석을 실행할 수 있다.
이러한 링크는 "주어-동사-목적어" 관계에 의해 형식화될 수 있다.
본 발명의 방법은 세 개의 추출된 요소들 사이의 이러한 링크를 확립하기 위해 문장 또는 단어들의 그룹내 및 시맨틱 분석에 의해 "주어", "동사", 및 "목적어" 기능들을 식별하기를 시도한다. 물론, 다수의 방식들이 가능하다.
하나의 가능한 방식은:
문장 또는 단어들의 그룹으로부터 주어를 추출. 이러한 주어, 동작의 주체는 개인, 알려진 조직, 실제 위치 등으로서 식별될 수 있다. 사전은 이러한 식별을 위해 사용될 수 있다.
추출된 주어에 근접한 동사의 검출. 여기서 다시, 사전은 동사 형태를 식별하기 위해 사용될 수 있다. 이는 주어진 동사의 활용형들 및 다수의 형태들을 고려하도록 또한 설계될 수 있다. 상기 형태에 의존하여, 이것이 동작(동작 동사) 또는 상태(수동태, 과거분사)에 관계되었는지의 여부를 알기 위해 추가의 시맨틱 정보를 추출할 수 있다.
동작의 "목적어"를 식별하기 위해 동사에 근접한 키워드들 및 개념들을 추출,하도록 구성될 수 있다.
이러한 프로세스의 효율성을 개선하기 위해, 타동사들만을 고려하도록 설계될 수 있다. 이들은 더 인접한 "주어-동사-목적어" 관계를 구성할 수 있게 한다. 이를 위해, 동사 형태들을 추출하기 위해 사용된 사전이 타동사들만을 포함할 수 있다.
이는 "주어-동사-목적어" 관계의 생성을 사전에 속하는 언어 자료에 또한 속하는 목적어의 결정에 종속시키도록 또한 설계될 수 있다. "주어"의 예에 후속하여, 이러한 "목적어"는 개인이고, 알려진 조직, 실제 위치 등일 수 있다.
단계(E3)는 이후 시맨틱 데이터에 기초하여 적어도 하나의 서비스를 결정하는 것으로 구성될 수 있다.
실제로, 몇몇 비디오 콘텐트 프로비전 서비스들은 하나의 테마(스포츠, 뉴스, 예술 단편 영화들, 교육 등)에 특수화되고, 텍스트 콘텐트(CZ)로부터 추출된 시맨틱 데이터에 의존하여, 가장 관련 있는 서비스들을 목표로 삼도록 관련될 수 있다.
데일리모션 또는 유튜브와 같은 종합 서비스들은, 조직적으로 추가, 또는 추출된 토픽에 특수화된 서비스들이 없는 경우, 또는 그들이 불충분한 경우, 때때로 또한 질의될 수 있다.
대안으로, 서비스들은 구성에 의해 통계적으로 식별될 수 있다.
단계(E4)는 시맨틱 데이터에 기초하여 식별된 서비스 또는 서비스들에 대해 쿼리들을 자동으로 생성하도록 구성된다.
일반적으로, 이는 추출된 시맨틱 데이터의 모두 또는 일부를 포함하는 HTTP(하이퍼텍스트 전송 프로토콜) 쿼리를 파라미터들로서 구성하는 것을 포함할 수 있다.
이들 데이터는 단일 쿼리 또는 수 개의 쿼리들을 구성하기 위해 사용될 수 있다. 그러므로, 특정 임계치를 초과하는 가중치를 갖는 시맨틱 데이터만큼의 쿼리들을 구성하게 할 수 있다.
또한, "주어-동사-목적어" 관계들을 추출하는 것으로 구성되는 구현에서, 각각의 관계에 대한 상이한 쿼리를 구성하는 것이 가능할 수 있다.
모든 텍스트 콘텐트(CZ)는 문장마다 또는 단어 블록마다 브라우징될 수 있다. 각각의 문장 또는 단어 블록에 대하여, "주어-동사-목적어" 관계들이 있을 경우, 그들은 쿼리들을 구성하기 위해 사용될 수 있고; 그렇지 않은 경우, 쿼리들은 미가공 시맨틱 데이터로부터 구성될 수 있다.
이들 쿼리들은 식별된 서비스 또는 서비스들상에 이용가능한 한 세트의 비디오들을 검색할 수 있게 한다.
이들 비디오들은 이후 사람-머신 인터페이스(WB)에서 및 더 구체적으로 브라우즈 공간(WP)에서 사용자에게 제공될 수 있다.
본 발명의 일 실시예에서, 텍스트 콘텐트(CZ)와 검색된 비디오들 사이의 시맨틱 근접성의 기준을 실행할 수 있다.
시맨틱 근접성은 이전 단계들에서 텍스트 콘텐트(CZ)로부터 추출된 시맨틱 데이터 및 검색된 비디오들과 연관된 시맨틱 콘텐트에 기초하여 계산될 수 있다. 이들 데이터는 사용자들에 의해 저장된 미가공 데이터, "태그들", "필드들", "타이틀", "설명" 등일 수 있다.
검색된 비디오들의 분석을 실행하는 것이 또한 가능하다.
그러므로, 텍스처들(바다, 모래, 얼음, 등) 및/또는 컬러들을 아주 쉽게 결정하는 것이 가능하다.
이는 또한 형태 인식 알고리즘들을 실행할 수 있다. 이들은 상수들(말하자면, 시청각에 따라 변하지 않는 형태들의 부분들)로부터 알려진 형태들을 결정하는 것을 시도할 수 있다.
다수의 방식들은 다음의 시너지를 얻기 위해 함께 사용될 수 있다:
- 예를 들면, 형태 분석에 의해 바다표범을 결정하는 것은 검출된 텍스처가 실제로 얼음인 것을 확정할 수 있게 할 수 있다. 이후, 에러들을 감소시키고 결과의 신뢰도를 증가시킬 수 있다.
- 다른 예시에서, 형태의 결정과 연관된 컬러의 결정은 의미를 추가하게 할 수 있다. 그러므로, 말의 단순한 결정보다 더 차별적인 개념인, "검은 말"의 존재를 결정할 수 있다.
비디오로부터의 이미지(또는 일련의 이미지들)의 전체 분석을 실행할 수 있다. 그러므로, 주변광 레벨을 분석하고 그로부터 미가공 시맨틱 정보를 끌어낼 수 있다. 예를 들면, 장면이 옥외인 것이 또한 검출된 경우, 낮인지 밤인지를 결정할 수 있다.
이러한 정보를 비교함으로써, 특히 온톨로지를 사용함으로써, 거리를 결정할 수 있다.
다수의 방법론들이 이러한 거리를 확립하기 위하여 또한 가능하다.
특히:
- 그래프에서 포함될 거리에 기초하여 주어진 온톨로지에서 개념들간의 체험적인 메트릭들. 이러한 거리는 노드들이 키워드들 또는 개념들인 그래프상의 노드들의 수이다. 몇몇 쌍들은 링크에 의해 직접 접속된다. 링크들은 지향적이거나 대칭적일 수 있다. 두 개의 단어들 사이의 링크가 대칭적인 경우, 두 개의 단어들 사이의 관계는 더 강하다. 이러한 거리는 예를 들면, 두 개의 개념들의 유사성을 정량화할 수 있게 할 수 있다. 이는 또한 명확화의 목적을 제공할 수 있다.
- TF-IDF(용어 빈도-역 문서 빈도) 방법들은 정보 검색시 및 특히 텍스트 비교시 종종 사용된 가중 방법들이다. 이러한 통계적인 방식은 수집 또는 언어 자료에 관련된 문서에 포함된 용어의 중요도를 평가할 수 있게 한다. 가중치는 문서에서 단어의 출현들의 횟수에 비례하여 증가한다. 이는 또한 언어 자료에서 단어의 빈도에 기초하여 변한다. 원래의 식에 대한 대체물들은 사용자의 검색 기준들에 관련하여 문서의 관련성을 평가하기 위해 검색 엔진들에서 종종 사용된다.
예를 들면, 단어 "공룡"은 IDF 언어 자료에서 낮은 출현을 갖는 경우, 이는 더 일반적인 단어보다 더 판별적이기 때문에 더 중요한 것을 의미할 수 있고; 단어가 그의 출현들의 횟수에 기초하여 추출된 단어들의 각각의 'TF' 리스트(비디오의 설명으로부터 추출된 언어 자료에 링크된 리스트 및 문맥으로부터 추출된 언어 자료에 링크된 리스트)에서 나타날 경우, 그것에 더 높거나 더 낮은 가중치를 줄 수 있다. 두 리스트들상의 워드의 발견 사실은 IDF 값에 기초하여 더 강하거나 덜 강한 링크를 규정할 수 있게 한다.
또한 두 개의 방식들을 결합할 수 있다. 예를 들면, 문맥으로부터 추출된 단어들의 제 1 리스트에서, IDF 언어 자료에서 비교적 높은 가중치를 갖는 단어 "공룡"을 찾는다. 비디오 설명으로부터 추출된 제 2 리스트에서, 단어 "티라노사우르스"를 찾는다. 그래프는 두 개의 홉들(그래프에서 노드들의 수)과 대칭적 링크인 것을 보여준다.
그러므로, 이러한 비디오의 콘텍스트가 IDF 값/홉들의 수와의 유사성을 보여준다는 것을 고려할 수 있다.
이러한 알고리즘을 각각의 단어에 적용함으로써, 이와 같이 전체 유사성을 계산할 수 있다.
검색된 비디오들의 각각의 거리들에 기초하여, 가장 관련 있는 방식으로 사용자에게 비디오들을 제공하도록 비디오들을 정렬할 수 있다; 그러므로, 텍스트 콘텐트(CZ)에 가장 가까운 근접성을 갖는 비디오는 다른 관련 있는 검색된 비디오들이 전에 제공될 것이다.
또한 근접성 기준에 기초하여 검색된 비디오들의 서브-세트를 선택할 수 있다.
이는 텍스트 콘텐트(CZ)로부터 그들의 시맨틱 거리에 기초한 랭킹의 함수로서 미리 결정된 수의 비디오들만을 선택하는 것을 포함할 수 있다.
이는 또한 미리 결정된 임계치보다 아래의 시맨틱 거리에 대응하는 비디오들만을 선택하는 것을 포함할 수 있다. 그러므로, 이러한 실시예는, 검색된 비디오들이 충분히 근접하지 않을 경우, 사용자에게 비디오 콘텐트를 보여주지 않을 수 있다.
다른 대안들 및 실시예들이 또한 본 기술에 숙련된 사람에게 가능하고 이해하기 쉬울 것이다. 그러므로, 본 발명은 상기 기술된 구현들에 한정되지 않는 것으로 이해될 수 있다.

Claims (9)

  1. 사용자에 의한 통신 네트워크를 통한 비디오 콘텐트 검색들을 보조하는 방법에 있어서,
    상기 사용자에 의해 제 1 콘텐트 아이템(CZ)을 결정하는 단계;
    상기 제 1 콘텐트 아이템으로부터 시맨틱 데이터를 자동으로 추출하는 단계;
    상기 시맨틱 데이터의 기능으로서 상기 적어도 하나의 서비스에 대해 쿼리들을 자동으로 생성하여 적어도 하나의 서비스 상에 일 세트의 비디오들을 검색할 수 있게 하는 상기 쿼리들을 자동을 생성하는 단계; 및
    상기 세트의 비디오들을 상기 사용자에게 제공하는 단계를 포함하는, 사용자에 의한 통신 네트워크를 통한 비디오 콘텐트 검색들을 보조하는 방법.
  2. 제 1 항에 있어서,
    상기 제 1 콘텐트와 상기 세트에서 상기 비디오들과 연관된 디스크립션 사이의 시맨틱 근접성의 기준에 기초하여, 상기 세트 중으로부터 하나의 서브-세트의 비디오들을 선택하는 단계를 또한 포함하는, 사용자에 의한 통신 네트워크를 통한 비디오 콘텐트 검색들을 보조하는 방법.
  3. 제 2 항에 있어서,
    상기 적어도 하나의 서비스는 상기 시맨틱 데이터에 기초하여 결정되는, 사용자에 의한 통신 네트워크를 통한 비디오 콘텐트 검색들을 보조하는 방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 단계들은 사람-머신 인터페이스(WB)에서 제 1 콘텐트 아이템(CZ)의 선택에 의해 및 상기 사람-머신 인터페이스를 통해 액세스 가능한 소프트웨어 기능의 선택에 의해 트리거링될 수 있는, 사용자에 의한 통신 네트워크를 통한 비디오 콘텐트 검색들을 보조하는 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 시맨틱 데이터를 자동으로 추출하는 단계는 "주어-동사-목적어" 관계들을 추출하는 것으로 구성되는, 사용자에 의한 통신 네트워크를 통한 비디오 콘텐트 검색들을 보조하는 방법.
  6. 제 5 항에 있어서,
    상기 생성된 쿼리들은 상기 관계들에 기초하여 구성되는, 사용자에 의한 통신 네트워크를 통한 비디오 콘텐트 검색들을 보조하는 방법.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 따른 방법을 실행하기 위해 프로세싱 수단이 장착된, 통신 단말.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 따른 방법을 실행하기 위해 프로세싱 수단이 장착된, 컴퓨터 프로그램.
  9. 통신 단말용 사람-머신 인터페이스(WB)에 있어서,
    사용자가 제 1 콘텐트 아이템(CZ)을 선택할 수 있게 하는 수단; 및
    상기 제 1 콘텐트 아이템으로부터 시맨틱 데이터를 자동으로 추출하는 단계;
    상기 시맨틱 데이터의 기능으로서 상기 적어도 하나의 서비스에 대한 쿼리들을 자동으로 생성하여 적어도 하나의 서비스상에 한 세트의 비디오들을 검색을 가능하게 하는 상기 쿼리들을 자동으로 생성하는 단계; 및
    상기 세트의 비디오들을 상기 사용자에게 제공하는 단계를, 트리거할 수 있게 하는 수단을 장착한, 통신 단말용 사람-머신 인터페이스.
KR1020137030348A 2011-05-17 2012-04-27 통신 네트워크를 통한 비디오 콘텐트 검색들을 위한 보조 KR20130142192A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1154263A FR2975553B1 (fr) 2011-05-17 2011-05-17 Aide a la recherche de contenus videos sur un reseau de communication
FR1154263 2011-05-17
PCT/EP2012/057720 WO2012156193A1 (en) 2011-05-17 2012-04-27 Assistance for video content searches over a communication network

Publications (1)

Publication Number Publication Date
KR20130142192A true KR20130142192A (ko) 2013-12-27

Family

ID=46027944

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137030348A KR20130142192A (ko) 2011-05-17 2012-04-27 통신 네트워크를 통한 비디오 콘텐트 검색들을 위한 보조

Country Status (6)

Country Link
US (1) US10176176B2 (ko)
JP (1) JP5844887B2 (ko)
KR (1) KR20130142192A (ko)
CN (1) CN103562912A (ko)
FR (1) FR2975553B1 (ko)
WO (1) WO2012156193A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10467237B1 (en) * 2012-11-12 2019-11-05 Pinterest, Inc. Object relationships and similarities based on user context
CN105868176A (zh) * 2016-03-02 2016-08-17 北京同尘世纪科技有限公司 基于文字的视频合成方法及其***

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5630121A (en) 1993-02-02 1997-05-13 International Business Machines Corporation Archiving and retrieving multimedia objects using structured indexes
US20040111432A1 (en) 2002-12-10 2004-06-10 International Business Machines Corporation Apparatus and methods for semantic representation and retrieval of multimedia content
US8171030B2 (en) * 2007-06-18 2012-05-01 Zeitera, Llc Method and apparatus for multi-dimensional content search and video identification
CN101802823A (zh) 2007-08-20 2010-08-11 诺基亚公司 用于流式多媒体数据的分段的元数据和位标
US20090106307A1 (en) * 2007-10-18 2009-04-23 Nova Spivack System of a knowledge management and networking environment and method for providing advanced functions therefor
US20090292685A1 (en) 2008-05-22 2009-11-26 Microsoft Corporation Video search re-ranking via multi-graph propagation
JP5080368B2 (ja) * 2008-06-06 2012-11-21 日本放送協会 映像コンテンツ検索装置及びコンピュータプログラム
MX2011006340A (es) * 2008-12-12 2011-10-28 Atigeo Llc Suministro de recomendaciones utilizando la informacion determinada para dominios de interés.
US20100169318A1 (en) * 2008-12-30 2010-07-01 Microsoft Corporation Contextual representations from data streams
US20110087703A1 (en) * 2009-10-09 2011-04-14 Satyam Computer Services Limited Of Mayfair Center System and method for deep annotation and semantic indexing of videos

Also Published As

Publication number Publication date
JP2014517390A (ja) 2014-07-17
CN103562912A (zh) 2014-02-05
US20140122460A1 (en) 2014-05-01
FR2975553A1 (fr) 2012-11-23
WO2012156193A1 (en) 2012-11-22
JP5844887B2 (ja) 2016-01-20
FR2975553B1 (fr) 2014-05-16
US10176176B2 (en) 2019-01-08

Similar Documents

Publication Publication Date Title
US9659084B1 (en) System, methods, and user interface for presenting information from unstructured data
US8838633B2 (en) NLP-based sentiment analysis
Moussa et al. A survey on opinion summarization techniques for social media
US20110173174A1 (en) Linguistically enhanced search engine and meta-search engine
KR101060594B1 (ko) 문서 데이터의 키워드 추출 및 연관어 네트워크 구성 장치 및 방법
RU2696305C2 (ru) Браузинг изображений через интеллектуально проанализированные связанные гиперссылкой фрагменты текста
Kumar et al. Hashtag recommendation for short social media texts using word-embeddings and external knowledge
Subhashini et al. Shallow NLP techniques for noun phrase extraction
Hu et al. Embracing information explosion without choking: Clustering and labeling in microblogging
Fauzi et al. Image understanding and the web: a state-of-the-art review
Wu et al. Understanding customers using Facebook Pages: Data mining users feedback using text analysis
JP5844887B2 (ja) 通信ネットワークを通じたビデオ・コンテンツ検索のための支援
Kanakaraj et al. NLP based intelligent news search engine using information extraction from e-newspapers
US10579660B2 (en) System and method for augmenting search results
Gupta et al. Document summarisation based on sentence ranking using vector space model
Senthil Kumaran et al. Expert locator using concept linking
CN110795943A (zh) 一种针对事件的话题表示生成方法及***
Abuoda et al. Automatic Tag Recommendation for the UN Humanitarian Data Exchange.
Christensen et al. News Hunter: a semantic news aggregator
Baliyan et al. Related Blogs’ Summarization With Natural Language Processing
JP6800478B2 (ja) Webページを構成する成分キーワードの評価プログラム
Yokoo et al. Semantics-based news delivering service
Aletras Interpreting document collections with topic models
RU2708790C2 (ru) Система и способ для выбора значимых элементов страницы с неявным указанием координат для идентификации и просмотра релевантной информации
Ojo et al. Knowledge discovery in academic electronic resources using text mining

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment