KR20070000443A - 이전의 변화 위치로부터 미디어 스트림의 재생 - Google Patents

이전의 변화 위치로부터 미디어 스트림의 재생 Download PDF

Info

Publication number
KR20070000443A
KR20070000443A KR1020067014999A KR20067014999A KR20070000443A KR 20070000443 A KR20070000443 A KR 20070000443A KR 1020067014999 A KR1020067014999 A KR 1020067014999A KR 20067014999 A KR20067014999 A KR 20067014999A KR 20070000443 A KR20070000443 A KR 20070000443A
Authority
KR
South Korea
Prior art keywords
media stream
change
video stream
previous
stream
Prior art date
Application number
KR1020067014999A
Other languages
English (en)
Other versions
KR20060136413A (ko
Inventor
게라르드 홀레만스
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20070000443A publication Critical patent/KR20070000443A/ko
Publication of KR20060136413A publication Critical patent/KR20060136413A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/745Browsing; Visualisation therefor the internal structure of a single video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7864Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using domain-transform features, e.g. DCT or wavelet transform coefficients
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/915Television signal processing therefor for field- or frame-skip recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/90Tape-like record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

사용자가 이용할 수 있는 리플레이 옵션은 비디오 스트림(30)이 순차적으로 비디오 스트림(30)의 이전 변화 지점들(LN - L1)로 역방향으로 움직이도록 할 수 있고, 그런 후 사용자에 의해서 선택된 이전 변화 지점들 중 하나로부터 비디오 스트림(30)을 순방향으로 실행한다. 비디오 스트림(30)의 현재의 실행 지점(T)이전에 생성하는 비디오 스트림의 변화 지점은 실시간으로 생성되거나 또는 비디오 스트림(30)에 포함된다. 변화 지점들(LN - L1)은 음성 브레이크(speech breaks), 화면 컷(shot cuts), 또는 비디오 스트림(30)에서의 사람 또는 대상물의 움직임일 수 있다.

Description

이전의 변화 위치로부터 미디어 스트림의 재생{REPLAY OF MEDIA STREAM FROM A PRIOR CHANGE LOCATION}
본 발명은 비디오 콘텐츠의 검색과 관련된다. 특히, 본 발명은 비디오 스트림의 이전 부분의 검색과 재생에 관련된다.
비디오 리플레이에 관한 알려진 방법이 있다. 하지만, 이들 리플레이 기술은 제한되어 있다. 어떤 시스템에 대해서는, 사용자는 비디오 스트림의 리플레이를 시작하려는 특정 시간 스탬프(stamp)를 입력할 수 있다. 만일 사용자가 리플레이하는데 관심이 있는 비디오 스트림에서의 특정 시점을 알지 못한다면, 입력될 수 있는 최상의 것은 근사치이다. 이것은 관심 위치 이전 또는 이후의 비디오 스트림에 있는 위치에 사용자를 놓을 수 있어서, 사용자를 혼란하게 하거나 또는 좌절하게 할 수 있다. 또한 문장의 중간에 재생을 시작할 수 있어, 역시 사용자를 혼란하게 하거나 또는 좌절하게 할 수 있다. 사용자의 혼란은 이전의 위치로 되돌아 갈 때 역으로 비디오 스트림을 렌더링하지 않는 그러한 시스템에 대해서 악화될 수 있는데, 이는 그러한 역 실행의 사용자에게 재-시작(re-start) 위치에 대한 시각적 상황을 제공할 수 있기 때문이다.
또 다른 비디오 리플레이 특징은 사용자가 예컨대 리모트(remote)를 통해서,역 기능(reverse function)을 개시하도록 한다. 실행 위치는 사용자가 역 기능을 사용하지 않을 때까지(예컨대, 리모트에서 "정지"버튼을 누름으로써) 비디오 스트림을 통해서 시간상으로 되돌아 간다. 종종 그러한 역 특징은 사용자에게 역으로 비디오 콘텐츠를 렌더링해서, 사용자가 비디오 스트림 내에서 역방향으로 얼마나 멀리 이동했는지에 대한 어느 정도의 일반적인 감각을 사용자에게 제공한다. (그러한 역기능은 그들이 관심 있는 근접 이전의 위치에서 도착할 때까지 테잎을 리와인드(rewind)하고 그것이 역으로 실행 하는 것을 보는 VCRs의 사용자에게 잘 알려져 있다. 하지만, 그러한 역기능은 미숙한 제어이며 종종 사용자는 비디오 스트림에서 정확한 관심 위치를 확인할 수 없거나, 또는 관심 있는 위치에서 역기능을 멈출 수 없다. 추가로, 사용자를 돕기 위한 역기능 동안 렌더링된 사운드가 없다. 예컨대, 만일 사용자가 최근의 말을 리플레이하는데 관심이 있다면, 사용자는 (예컨대, 배우들을 지켜 봄으로써) 역으로 렌더링되는 비디오로부터 관심 있는 인접한 이전 위치를 결정해야만 한다. 사용자가 역기능을 멈추는 때까지, 상당한 양의 비디오 스트림에서의 여분의 역 이동이 종종 생성한다. 테잎을 시작하는 것은 또한 말해진 문장의 중간에서 시작할 수 있어서, 다시 사용자를 혼란스럽고 좌절하도록 만든다. 추가로 만일 콘텐츠가 역기능 동안 역으로 렌더링되지 않는다면, 사용자는 언제 멈출지를 추정하고 비디오 스트림이 재시작되는 위치에 대해 알지 못한다.
위의 비디오 리플레이 특징(및 그들의 부수적인 단점들은)들은 테잎, 하드 드라이브 또는 비디오 스트림을 생성하기 위한 광학적 디스크를 사용하는 비디오 시스템 상에서 발견될 수 있다. 일부의 시스템들은 또한 사용자가 "점프-백(jump-back)", "반복(repeat)", 또는 유사한 버튼을 누름으로써 방금 실행된 비디오 스트림의 일부를 리플레이하도록 한다. 이것은 전형적으로 비디오 스트림의 현재 실행을 멈추고, 비디오 스트림에서 이전에 고정된 시간으로부터 재-시작한다. 예컨대, 사용자가 점프 백 버튼(예컨대, 리모트 상에서)를 선택할 때, 비디오 스트림은 실행를 멈추고, 비디오 스트림에서 30초를 되돌려서 실행를 재-시작한다. 따라서, VCR 애플리케이션을 위해, 점프-백 버튼을 누르는 것은 테잎이 실행 시간을 30초 리-와인드하고 그 위치에서 실행 기능을 재시작한다. 유사한 특징들이 또한 하드 드라이브 및 광학 기반 비디오 시스템에서 발견된다.
하지만, 사용자의 관점에서, 그러한 고정된 양의 시간은 많은 단점을 가진다. 고정된 양의 시간은 일반적으로 사용자가 관심 있는 비디오 스트림에서의 특정 순간 이전 혹은 이후에 있는 위치로 비디오 스트림을 다시 위치하게 할 것이다. 그러한 임의의 위치는 사용자를 어수선하게 하고, 혼란스럽게 하거나 좌절시킬 수 있다. 예컨대, 사용자는 최근 대화 중 하나의 단어를 놓칠 수도 있고, 비디오의 적어도 30초를 리플레이하기를 원치 않는다. 추가로, 일부의 시스템에 대해 점프-백 특징은 사용자에 반하여 점프 백을 스패닝(spanning)해서 비디오를 렌더링하지 않고 이전의 위치로 개별적으로 점프백한다. 따라서, 사용자는 관심있는 비디오 스트림의 위치에 대해서 알지 못할 수도 있다. 사용자는 단지 그 위치로부터 비디오가 순방향으로 실행하거나 또는 또 다른 30초 동안 점프백하도록 해서 그 문제를 간단히 무마할 수 있다. 추가로, 점프 백 버튼을 누르는 것은 이전의 화면으로부터 비디오의 일부를 제시할 수 있고, 이전의 대화의 불완전한 일부를 제공할 수 있다. 다시, 이것은 사용자를 혼란하게 할 수 있다.
추가로, 하드 드라이브 및 광학 비디오 시스템들과 같은 특정 시스템들은 사용자가 비디오 스트림의 챕터(chapter)를 제공하는 메뉴에 엑세스하도록 할 수 있다. DVD는 이러한 종류의 옵션의 잘 알려진 예이다. 사용자는 따라서 메뉴에 엑세스할 수 있고, 이전의 챕터의 시작으로부터 비디오 스트림을 리플레이할 수 있다. 하지만 챕터는 사용자에게 시각적인 나레이티브(narrative)(또는 콘텐츠 테이블)를 제공하기 위해서 생성될 수 있는 화면의 그룹이다. 따라서, 그들은 다른 당사자의 화면의 주관적인 그룹핑이다. 다른 단점들 중에서 챕터의 시작부로의 이동은 사용자들이 리플레이하기를 원하는 위치를 선택하도록 허락하지 않는다. 예컨대, 만일 사용자가 현재의 화자가 이야기를 시작하는 때로부터와 같은, 짧은 양의 리플레이에, 단지 관심이 있다면, 현재의 챕터의 시작을 선택하는 것은 관심 위치의 오래전에 비디오 스트림에서의 위치에서 사용자의 위치를 정할 수 있다.
또 다른 관심 영역에서, 비디오 브라우징(browsing)의 기술은 관심 토픽이며 발전일 수 있다. 브라우징은 전형적으로 사용자에게 일부 형태의 비디오 콘텐츠의 요약을 제공함으로써 일반적으로 비디오 콘텐츠가 사용자에게 관심이 있는지를 사용자가 결정하도록 돕는 데 중점을 둔다. 예컨대, 다른 것들 중에서도, Li 등의 "Browsing Digital Video", ACM Press의 Proceeding of ACMCHI'00(2000년 4월, 네델란드, 헤이그)169-176 쪽에서, 사용자에게 화면 경계 프레임(shot boundary frames)을 포함하는 비디오 인덱스가 제공된다. Li에 따르면, 화면 경계 프레임들은 인텍스에 그들의 위치를 기록하는 검출 알고리즘에 의해서 생성될 수 있다. 비디오 스트림이 실행될 때, 현재의 화면을 위한 화면 경계 프레임은 하일라이트 되고, 사용자는 인덱스 내의 또 다른 화면 경계 프레임을 클릭함으로써 비디오의 다른 부분을 선택할 수 있다. 화면 경계 인덱스가 온전한 비디오를 위해서 완전하기 때문에, 사용자는 현재의 위치로부터 순방향 또는 역방향으로 움직일 수 있다.
유사하게, Van Houten등의 "Video Browsing & Summarisation"{저작권 2000, Telematica Instituut(TI ref: TI/RS/2000/163)}은 스토리보드(storyboard)로서 화면(shots)을 사용하는 것을 언급하며(section 2.3), 그리고 다시 Li 출판물(section 2.4.3)를 참조한다. Van Houten 또한 인덱싱에서 대화의 음성 인식(speech recognition)의 사용을 언급한다(section 2.4.1).
도 1은 본 발명을 지지하는 디바이스와 시스템의 대표도.
도 2는 실행 지점(T)에서 비디오 스트림 내의 이전 변화 위치의 대표도.
도 3은 본 발명의 실시 예에 대한 플로차트.
본 발명은 비디오 스트림의 현재의 실행 위치 이전에 생성하는 비디오 스트림의 콘텐츠 변화를 인식하는 데이터를 검출하거나 이용하기 위한 방법을 포함한다. 콘텐츠 변화는 비디오에서의 (아래에서 "음성 브레이크"로 일반적으로 언급되는) 음성에서의 브레이크(breaks)로 구성된다. 비디오에서의 음성 브레이크는 말하기가 상대적인 침묵 기간 후에 시작되는 장소일 수 있다. 콘텐츠 변화는 비디오에서의 화면 컷(shot cut)과 같은 비디오 스트림에서 콘텐츠의 다른 중대한 변화를 포함할 수 있다. 사용자가 사용할 수 있는 재생 또는 리플레이 옵션은 비디오 스트림이 순차적으로 비디오 스트림에서 이전의 콘텐츠의 변화로 역방향으로 움직이도록 한 후에 사용자에 의해서 선택된 이전의 콘텐트 변화의 위치로부터 순방향으로 비디오 스트림을 실행한다.
따라서, 본 발명의 하나의 측면에서, 비디오 스트림이 수신되고, 비디오 디스플레이 시스템에 의한 사용자를 위해서 실행한다. 비디오 스트림은 그것이 실행하듯이 실행하는 비디오 스트림 내의 음성 브레이크를 검출하기 위해 실질적으로 실시간으로 프로세스된다. 비디오 스트림의 현재의 실행 위치 이전에 비디오 스트림에서 음성 브레이크의 위치는 유지된다. 비디오 스트림이 실행할 때, 추가적인 음성 브레이크들이 검출되고, 비디오 스트림 내에서의 그들의 위치는 메모리에 추가된다. 만일 사용자가 재생 요건을 사용한다면, 비디오 스트림의 출력은 멈추고, 가장 가까운 이전 음성 브레이크 위치에서 시작한다. 따라서, 이전기술의 리플레이 시스템과 같지 않게, 비디오는 사용자에 통일성 있는 비디오에서의 위치로부터 리플레이 된다.
사용자는 재생 옵션을 여러 번 사용할 수 있으며, 매번 비디오 스트림이 비디오 스트림에서 하나의 추가적인 음성 브레이크를 다시 이동하도록 한다. 따라서, 사용자는 그들이 리플레이하는 데 관심이 있는 비디오에서의 특정 음성 브레이크의 시작으로 다시 이동할 수 있다. 사용자가 재생 옵션을 사용하기를 중단할 때, 비디오 스트림은 선택된 이전의 음성 브레이크의 위치로부터 실행하는 것을 재시작한다. 다시, 사용자는 비디오 내에서 다시 움직일 수 있어서 플레이백은 예컨대 사람들이 말하기 시작하는 음성 브레이크와 같은 비디오에서의 특정 위치로부터 시작한다.
화면 컷(shot cut)과 같은 다른 형태의 이전 콘텐츠 변화는 비디오 스트림에서 또한 검출될 수 있다. 그들의 위치는 검출된 음성 브레이크와 함께 저장될 수 있어서, 이전 변화 위치의 통합된 리스트를 포함한다. 리플레이는 이들 이전의 변화 위치 중의 하나로부터 시작될 수 있다.
본 발명의 또 다른 측면에서, 변화 위치는 미리-확인되고 사용자에 의해서 실행되는 동안 비디오 스트림의 일부로서 포함된다. 위에서 주목할만한 경우와 같이, 사용자는 비디오 스트림 데이터에서 확인되는 것처럼 이전의 변화 위치로부터의 비디오 스트림의 실행을 재시작하기 위한 재생 옵션을 사용할 수 있다.
본 발명의 추가적인 변경에서, 음성 브레이크 및 화면 컷(shot cut)에 추가하여 비디오 스트림에서의 다른 이전 변화는 재생을 위해서 이용가능하다. 예컨대, 대상물과 사람들의 움직임에서의 변화가 검출되어 리플레이가 시작될 수 있는 비디오 스트림에서의 이전의 위치로서 사용될 수 있다.
따라서, 일반적으로, 본 발명은 미디어 스트림에서의 이전에 확인된 많은 콘텐츠 변화 중의 선택된 하나로부터 미디어 스트림을 리플레이 하는 것을 포함하며, 미디어 스트림에서의 이전의 위치로부터 미디어 스트림을 재생하기 위한 방법을 포함하는데, 여기서 콘텐츠 변화는 미디어 스트림에서의 이전 음성 브레이크를 포함한다. 본 발명은 또한 미디어 스트림의 현재의 실행 위치(T) 이전의 미디어 스트림 내에서의 위치로부터 디지털 미디어 스트림을 재생하는 방법을 또한 포함한다. 상기 방법은 미디어 스트림이 실행할 때와 같이 실시간으로 콘텐츠 변화 위치를 검출하는 것을 포함한다. 적어도 많은 실행 위치(T) 이전에 검출되는 가장 인접한 변화 위치가 저장된다. 번호(m)를 포함하는 하나 이상의 입력신호가 수신되며, 미디어 스트림에서 위치(T)에 이전에 m번째 가장 가까운 변화 위치가 검색된다. 미디어 스트림은 m 번째 가장 가까운 변화위치에서 미디어 스트림 내의 T까지 리플레이 된다.
추가로, 본 발명은 미디어 스트림 내의 이전의 위치로부터 미디어 스트림을 리플레이하는 시스템을 포함한다. 이 시스템은 프로세서와 메모리를 포함하는데, 프로세서는 미디어 스트림에서 많은 이전에 확인된 콘텐츠 변화 중 하나를 선택하는 하나 이상의 입력 신호를 수신한다. 프로세서는 추가로 선택된 콘텐츠 변화에 대응하는 위치를 메모리로부터 검색하고 선택된 변화 위치로부터 미디어 스트림의 리플레이를 활성화하는데, 여기서 식별 콘텐츠 변화는 미디어 스트림 내의 이전 음성 브레이크를 포함한다.
하지만 여전히 미디어 스트림 내의 선택된 이전의 위치로부터 미디어 스트림을 리플레이 하기 위한 컴퓨터-판독가능 매체에 구현된 컴퓨터 프로그램 제품이 제공되는데, 상기 컴퓨터 프로그램 제품은 본 발명의 방법들을 수행한다.
도 1은 본 발명에 따라 실행하는 시스템(10)을 나타낸다. 비디오 디바이스(20)는 디스플레이(40)를 통해서 사용자에게 디스플레이되는 비디오 스트림(30)을 생성하고 제공한다. 비디오 디바이스(20)는 테잎을 실행시키는 비디오 카세트 레코더 또는 디스크를 가동하는 DVD 플레이어와 같은 많은 전형적인 디바이스 중 임의의 것일 수 있다. 비디오 디바이스(20)는 그 안에 삽입된 사전-기록된 비디오 테잎 또는 DVD를 재생함으로써 비디오 스트림(30)을 생성할 수 있다. 비디오 디바이스(20)는 비디오 스트림(30)이 하드 드라이브에 저장된 비디오 프로그램을 실행시킴으로써 생성될 수 있는 비디오 스트림을 저장하기 위한 하드 드라이브 저장소를 가질 수 있다. 비디오 디바이스(20)가 테잎, 하드 드라이드, 또는 유사한 레코딩 능력을 가질 때, 디바이스는 디스플레이된 비디오 스트림(30)과 같이 재생되는 입력 비디오 스트림(30a)을 수신 및 기록할 수 있다. 입력 스트림은 예컨대 유선 인터페이스상에서(예컨대, 케이블 텔레비젼 방송, 서버로부터의 웹 캐스트, 등) 또는 무선(예컨대, 통상적인 공중파(OTA) 텔레비젼 방송, 위성 텔레비젼 방송, 또는 에어 인터페이스를 통한 다른 방송)으로 수신될 수 있다. 그러한 디바이스에서, 디스플레이된 비디오 스트림(30)은 초기에 입력 비디오 스트림(30a)(예컨대, 저장된 스트림이 아님)일 수 있다. 일단 리플레이가 개시되면, 디스플레이된 스트림(30)은 입력 스트림(30a)에 뒤에 오며 메모리 내에 저장된 스트림으로부터 제공된다. 비록 디바이스(20)가 디스플레이(40)로부터 분리되듯이 도시되지만, 그들은 내장 하드 드라이브를 가진 TV와 같이 동일 디바이스에 위치할 수 있다.
비디오 스트림(30)은 프로세서(50)에 의해 실-시간 내부 프로세싱에 종속된다. (비록 프로세서(50)가 디바이스(20)의 내부에 있는 것처럼 보이지만, 프로세서(50)는 디바이스(20)의 외부에 대안적으로 위치하게 될 수 있다.) 프로세서(50)는 비디오 스트림 내에서 음성 브레이크를 검출하기 위해 프로그램된다. 음성 브레이크를 검출하기 위해 본 발명에서 사용될 수 있는 많은 알려진 방법들이 있다. 예컨대, 도 1의 수신된 비디오 스트림(30)은 오디오 부분을 음성 및 침묵 같은 카테고리로 분할하기 위해 프로세서(50)의 오디오 특성화 모듈에서 프로세스될 수 있다. 비디오 스트림의 각각의 프레임들은 일반적으로 멜-주파수 셉스트럼 계수(mel-frequency cepstrum coefficients, MFCC), 푸리에 계수(Fourier coefficients), 기본 주파수(fundamental frequency), 대역폭 등과 같은 한 세트의 오디오 특성에 의해서 일반적으로 특성화된다. (비디오 스트림의 포맷에 따라서, 특정 프리-프로세싱(pre-processing)은 오디오 특성을 추출하도록 요구될 수 있다.) 오디오 특성은 상대적인 침묵 기간 후에 인간 음성 파라미터에 대응하는 특성에 대해서 분석된다. 상대적인 침묵 기간 후에 말하기가 시작되는 비디오 스트림에서의 위치가 확인되어 음성의 시작을 구성하는 음성 브레이크로서 프로세서(50)에 의해서 저장된다.
도 2는 위에서 기술된 대로 프로세서(50)에 의해서 확인되는 비디오 스트림(30) 내의 음성 브레이크(예컨대, 음성 시작 위치)의 위치를 나타낸다. T는 비디오 스트림에서의 실행의 현재의 위치를 나타내는데 반해, T의 왼쪽에 있는 지점들은 비디오 스트림에서의 이전의 동작 위치를 나타낸다. 지점(O)은 비디오 스트림의 시작을 나타낸다. 지점(LN,...,L1)은 시간 T를 통해서 프로세서(50)에 의해서 확인되고 저장되는 비디오 스트림에서의 N 개의 이전 음성 브레이크의 위치를 나타낸다. (도 2에서의 위치 지점(L)은 비디오 스트림에서의 음성 브레이크 위치의 표시이다; 실제로 메모리에 저장된 음성 브레이크의 위치 데이터는 일반적으로 타임 스탬프, 프레임 번호, 또는 비디오 스트림에서의 브레이크 위치에 대한 유사한 표시이다.) 편의를 위해서, 도 2의 대표적인 이전 음성 브레이크 위치(L)는 내림 차순으로 현재의 실행 시간(T)에 대해서 가장 오래된 것(LN)으로부터 가장 최근의 것(L1) 순서로 라벨이 붙여진다. 물론, 실행이 진행되면서, 새로운 음성 브레이크들이 위치(L1) 후에 검출되고, 그들의 위치는 메모리에 저장된다. 하지만, 도 2는 일반적으로 비디오 스트림의 임의의 주어진 시간(T)을 통해서 검출되고 저장되는 N 개의 총 이전 변화 위치를 나타낸다.
따라서, LN은 비디오 스트림에서 제1 음성 브레이크 위치를 나타내고, L1은 실행시간(T)을 통해서 비디오 스트림(30) 내의 가장 최근의 음성 브레이크 위치를 나타낸다. 따라서, 만일 한 사람이 시간(T)에 말한다면, 위치(L1)는 비디오 스트림에서 현재의 실행 위치(T)에 대해서 가장 인접한(또는 가장 최근의) 이전 음성 브레이크 위치를 표현한다. 이전의 위치(L2)는 사람이 이야기를 시작하는 비디오 스트림에서 제2 가장 인접한 이전 위치이다.
비디오 디바이스(20)는 재생 또는 리플레이 특징을 포함한다. 리플레이 특징이 시간(T)에서 사용될 때, 디바이스(20)는 프로세서(50)에 의해서 저장된 이전 음성 브레이크 위치에 접근하고 가장 인접한 이전 음성 브레이크 위치(L1)를 검색한다. 재생 디바이스(20)는 비디오 스트림의 현재의 출력을 멈추고, 위치(L1)로부터 리플레이를 시작한다. 위치(L1)로부터 리플레이함으로써, 리플레이는 비디오 스트림에서 가장 최근의 관련된 지점, 즉 비디오 스트림에서 가장 최근의 화자가 이야기를 시작할 때로부터 시작한다. 리플레이 특성을 두 번 사용함으로써, 리플레이는 제2 이전 음성 브레이크 위치(L2)로부터 시작한다. 리플레이 특성은 연속으로 많은 횟수 "m"을 사용함으로써, 디바이스(20)는 비디오 스트림에서 T에 m번째 가장 인접한 이전 음성 브레이크(Lm)의 위치를 검색하고, 그 위치로부터 비디오 스트림의 리플레이를 시작한다.
따라서, 예컨대, 만일 디바이스(20)가 VCR이면, 확인된 이전 음성 브레이크의 저장된 위치들은 비디오 스트림 내의 프레임의 타임 스탬프(time stamp)일 수 있다. 디바이스(20)는 테잎을 선택된 이전 음성 브레이크의 타임 스탬프로 테잎을 리와인드한다. 만일 디바이스(20)가 예컨대 DVD이면 그리고 확인된 이전의 음성 브레이크들은 데이터를 트랙킹함으로써 저장되는 경우, 디바이스(20)는 레이저를 선택된 이전 음성 브레이크의 트랙 위치로 이동시키며, 실행을 계속한다. 만일 디바이스(20)가 하드 드라이브에 기초한 시스템이면, 이전 음성 브레이크는 저장된 비디오 스트림의 대응 프레임에 대한 메모리 어드레스에 의해서 확인될 수 있다. 리플레이 명령이 수신될 때, 비디오 스트림(30)은 선택된 이전 음성 브레이크에 대한 메모리 어드레스에서 시작하는 출력이다.
리플레이 특징은 수동으로 예컨대 비디오 디바이스(20) 상의 버튼을 누름으로써, 또는 선택적으로 적절한 IR 신호를 디바이스(20)로 보내는 리모트(도시되지 않음) 상의 버튼을 누름으로써 사용될 수 있다. 대안적으로, 리플레이 특징은 음성 활성화(voice activation) 또는 제스쳐 인식(gesture recognition) 또는 다른 적당한 명령 입력에 의해서 사용될 수 있다. 예컨대, 음성 인식의 경우, 리플레이 특성이 이용될 수 있고, 사용자가 단어 "리플레이"를 말할 때마다 하나의 음성 브레이크를 뒤로 움직이게 한다. 사용자의 제스쳐 인식은 사용자의 실행을 포착하는 외부 카메라를 사용해서 디바이스(20)에 의해서 검출될 수 있다; 포착된 영상은 입력 제스쳐를 검출하기 위해서 잘-알려진 영상 검출 알고리즘을 사용하는 프로세서(50)에 의해서 서브루틴에서 프로세스될 수 있다. (예컨대, 제스쳐 인식은 비디오 스트림에서 움직임을 검출하기 위한 아래에 기술된 바와 같은 다이얼 기반 기능을 이용할 수 있다.) 유사하게, 음성 활성화는 사용자의 음성을 포착해서 잘-알려진 음성 인식 프로세싱을 이용하여 명령어에 대해 그것을 분석하는 프로세서(50)에 공급하는 디바이스(20)에 연결된 외부 스티커를 이용할 수 있다. {예컨대, 음성인식은 (비디오 스트림(30)에서의 음성 브레이크를 검출하기 위해 위에서 기술된 것과 같은) 오디오 특징을 분석할 수 있다.}
디바이스(20)는 비디오 스트림 내의 현재의 위치로부터 선택된 이전 음성 브레이크의 위치로 이동하기 때문에 바람직하게 역으로 디스플레이(40) 상에 비디오 스트림의 콘텐츠를 렌더링할 수 있다. (그러한 것이 VCR 및 DVD 수동 역 기능들의 표준 특성이다.) 이들은 사용자에게 사용자가 비디오 스트림에서 얼마나 멀리 뒤로 움직였는지에 관한 가시적인 기준 프레임을 제공한다. 추가로, 리플레이 특징이 사용되고, 비디오 스트림이 선택된 이전 음성 브레이크로 되돌아 갈 때, 실행 특성은 즉각적으로 재-사용될 수 없다. 대신에, 디스플레이 상의 비디오 출력은 음성 브레이크의 제1 프레임 상에서 "움직이지 않을" 수 있어서, 사용자가 만일 이것이 요구된 리플레이 위치인지를 가시적으로 결정하도록 한다. 만일 그렇다면, 사용자는 실행버튼을 누를 수 있고, 비디오 스트림 출력이 재시작된다. 만일 그렇치 않으면, 사용자는 리플레이 버튼을 다시 누를 수 있다. 추가로, 일단 사용자가 적어도 하나의 이전 변화 위치로 되돌아 간다면, 디바이스(20)는 눌러지면 비디오스트림에서 다음의 음성 브레이크로 순방향으로 이동하는, "순방향 이동" 특성을 가질 수 있다. 따라서, 만일 사용자가 리플레이 버튼을 사용하여 너무 멀리 되돌아 간다면, 사용자는 원하는 위치로 순방향으로 이동할 수 있다.
추가로, 프로세서(50)는 모든 음성 브레이크의 위치를 현재의 실행 지점 이전에 유지할 필요가 없다. 사용자는 정상적으로 시간상 현재의 실행 지점으로부터 상당히 이전에 있는 변화 위치로부터 리플레이 하지 않는다. 따라서, 프로세서(50)는 예컨대 비디오 스트림의 현재의 실행 지점에 대해서, 마지막 10개의 변화 위치(도 2의 L10 - L1)을 단지 저장할 수 있다. 새로운 변화 위치가 비디오 스트림에서 검출되고, 메모리 위치에 추가되기 때문에, 가장 오래된 변화 위치(즉, 위에 예에서 열 번째 가장 인접한 위치)가 탈락된다.
위에서 기술된 특정 실시예에서, 음성 브레이크가 검출되며, 비디오 스트림의 실행과 동시에 컴파일된다. 대안적으로, 디바이스(20)로 입력되거나 디바이스(20)에 의해서 생성되는 스트림이 음성 브레이크 위치를 확인하도록 전-처리될 수 있다. 따라서, 예컨대, 디바이스(20)가 VCR이면, 비디오 테잎은 비디오 스트림이 실행할 때 비디오 스트림 내의 음성 브레이크를 확인하는 데이터 필드를 포함할 수 있다. 디바이스(20)는 따라서 비디오 스트림에서 확인될 때 버퍼 메모리에서의 음성 브레이크의 위치를 저장하고, 위에서 기술된 바와 같이 리플레이 기능에서의 위치를 이용한다. 대안적으로, 리플레이 기능이 사용될 때, 디바이스(20)는 테잎이 리와인드 될 때 데이터 필드로부터 이전 음성 브레이크의 위치를 검출할 수 있다. 따라서, 테잎은 선택된 수의 음성 브레이크들에 의해서 리와인드 될 수 있다. 또 다른 변형 예에서, 음성 브레이크 위치들은 데이터 세트로서 테잎의 시작에서 포함될 수 있다. 데이터 세트는 비디오 스트림의 출력 이전에 테잎에서 디바이스(20)로 다운로드 되고, 리플레이 기능 동안에 비디오 스트림에서 현재의 위치이전에 음성 브레이크의 위치를 확인하기 위해 사용된다. 비록 VCR 실시예가 본 발명에서 중점이 되지만, 유사한 변형이 다른 종류의 비디오 디바이스에 적용된다.
도 3은 본 발명의 실시예에서 수행된 절차와 처리의 플로차트를 제공한다. 단계 100에서, 비디오 스트림이 수신되거나 또는 생성된다. 단계 110에서, 수신된 또는 생성된 비디오 스트림이 음성 브레이크를 미리-확인하는 데이터를 포함할지가 결정된다. 만일 그렇지 않다면, 비디오 스트림이 처리되고, 음성 브레이크는 검출되고 비디오 스트림에서 음성 브레이크의 위치들은 실시간으로 저장된다(즉, 비디오 스트림이 실행되듯이)(단계 120). 비디오 스트림이 출력일 때, 프로세싱은 리플레이 특징이 사용되어야 할지(단계 130)를 모니터링한다. 만일 그렇다면, 비디오 스트림은 가장 인접한 이전 음성 브레이크(L1)의 위치로부터 리플레이 되거나, 또는, 만일 리플레이 특징이 m번 사용된다면, m번 째 가장 인접한 이전 음성 브레이크(Lm)(140단계)의 위치로부터 리플레이 된다. (리플레이 특성이 사용될 수 있는 횟수 m은 저장된 음성 브레이크의 위치의 수와 같거나 작은 임의의 정수 1,2,... 이다.) 프로세싱은 단계 120으로 되돌아 가는데, 여기서 비디오 스트림 출력과 음성 브레이크들의 검출이 지속된다. (이 경우, 음성 브레이크 검출은 비디오 스트림이 이전에 리플레이되는 지점을 통과할 때까지 디스플레이 될 수 있는데, 이는 이들 브레이크들이 이미 검출되고 저장되어 왔기 때문이다.) 만일 리플레이 특성이 단계 130에서 사용되지 않는다면, 비디오 스트림이 단계 150에서 종료될지가 결정된다. 만일 그렇다면, 프로세싱은 종료된다(단계 160). 만일 그렇지 않다면, 프로세싱은 또한 단계 120으로 되돌아 간다.
만일 음성 브레이크 데이터가 단계 110의 비디오 데이터 스트림 내에서 미리-확인된다면, 비디오 스트림은 단계 120a에서의 출력이다. 비디오 스트림이 출력이므로, 프로세싱은 리플레이 특징이 사용되는지를 모니터링한다(단계 130a). 만일 그렇다면, 비디오 스트림은 가장 인접한 이전 음성 브레이크의 위치로부터 리플레이 되거나 또는 만일 리플레이 특성이 m번 사용된다면, m번째 가장 인접한 이전 음성 브레이크로부터 리플레이 된다(단계 140a). 이것은 단계 120a에서의 비디오 스트림에 포함되는 음성 브레이크 위치를 이용한다. 프로세싱은 그 다음에 단계 120a로 되돌아 가는데, 여기서 비디오 스트림 출력이 계속된다. 만일 리플레이 특징이 이 단계 130a에서 사용되지 않는다면, 비디오 스트림이 단계 150a에서 완료되는지가 결정된다. 만일 그렇다면, 프로세싱은 종료된다(단계 160). 만일 그렇지 않다면, 프로세싱은 또한 단계 120a로 되돌아 간다.
위에서 기술된 디바이스, 시스템 및 방법들은 리플레이 지점으로서 음성 브레이크에 중점을 둔다. 비디오 스트림의 현재의 실행 위치(T)에 대해서 이전 음성 브레이크로부터 리플레이함으로써, 비디오 스트림은 자연스런 오디오 콘텐츠 변화 위치로부터 리플레이해서, 사용자에게 오디오 및 비디오의 일치하는 이전 세그먼트를 제공한다. 다른 리플레이 위치는 사용자에게 일관성을 제공하고 본 발명의 프로세싱에서 리플레이 위치로서 또한 포함될 수 있다. 일관된 리플레이 위치를 제공할 수 있는 비디오 스트림에서 다른 중대한 콘텐츠 변화는 장면 변화 또는 화면컷(shot cut)를 포함한다. 예컨대, 사용자는 일시적으로 산만해지고 현재의 장면의 시작으로 되돌아 가기를 원할 수 있다. 따라서, 도 1에서 디바이스(20)의 프로세서(50)는 비디오 스트림에서의 화면 컷의 위치를 검출해서 저장한다. 비록 많은 경우에 음성 브레이크 중의 하나가 화면 컷과 거의 동시에 생성한다 할지라도, 양 타입의 변화 위치를 리플레이 지점으로 이용가능하게 하는 것은 사용자에게 추가적인 유연성을 제공해준다.
예컨대, 도 1의 비디오 스트림(30)은 비디오 스트림에서의 화면 컷을 검출하기 위해 프로세서(50)에 의해서 추가로 프로세스될 수 있다. "장면-컷(scene cuts)" 및 "화면 컷(shot cut)"은 유사한 개념을 가리키며 이후로는 교환가능하게 사용될 것이다. 장면-컷 또는 화면 컷은 전형적으로 연속적인 프레임 사이에서 비디오 콘텐트에서의 실질적인 변화를 가리킨다. (더욱 일반적으로, 그것은 작은 수의 프레임상에 비디오 콘텐츠의 실질적인 변화를 가리켜서, 비디오 스트림이 비디오 콘텐츠의 이산적인 변화를 수행하는 것처럼 보이게 한다.) 다시 말해서, 매우 상관관계가 없는 연속적인 프레임들은 장면 컷 또는 화면 컷을 나타낸다. "화면 컷"이라는 용어가 아래에서 사용될 것이나 제한하도록 의도되지는 않는다.
전형적인 화면 컷은 하나의 세팅(위치)에서 다른 하나로의 변화를 포함한다. 하나의 화면 컷은 비록 위치가 동일하게 유지된다 할지라도, 또한 시간상의 변화를 포함할 수 있다. 예컨대, 야외 화면 컷(outdoor shot cut)은 위치에서의 변화없이 일광으로부터 밤중으로의 갑작스런 변화를 포함할 수 있는데, 이는 연속적인 비디오 프레임에 실질적인 콘텐츠의 변화가 있기 때문이다. 또 다른 화면 컷의 관련 예는 동일한 위치를 사용하지만, 위치의 시계의 변화를 포함한다. 잘-알려진 화면 컷의 예는 뮤직 비디오에서 생성하는데, 여기서 연기자들은 급격히 연속적으로 많은 다른 관점으로부터 보여질 수 있다.
비디오 스트림(30)은 따라서 또한 비디오 스크림 내에서의 화면 컷을 검출하기 위해서 프로세서(50)에 의한 실-시간 내부 프로세싱에 종속된다. 비디오 스트림을 분석하고 본 발명에서 사용될 수 있는 화면 컷을 검출하는데 이용가능한 많은 알려진 기술들이 있다. 본 발명에 사용될 수 있는 다양한 기술은 비디오가 실시간으로 플레이 하고 있을 때 화면 컷의 검출을 제공한다. 예컨대, 많은 기술들은 일반적으로 연속적인 프레임들 사이에서 이산 코사인 변환(DCT) 계수를 분석함으로써 비디오 스트림에서의 화면 컷을 확인하는데 의존한다. 비디오 스트림이 예컨대 MPEG 표준에 따라 압축될 때, DCT 계수들은 비디오 스트림이 디코드되고 있을때(즉, 실시간으로) 추출될 수 있다. 일반적으로, 프레임 픽셀의 많은 매크로 블록에 대한 DCT 값은 많은 이용가능한 비교 알고리즘 중의 하나에 따라 연속적인 프레임을 위해 결정되고 비교된다. 프레임 사이의 DCT 값의 차이가 특정 알고리즘에 따라 임계값을 초과할 때, 화면 컷이 지시된다. 만일 비디오 스트림이 MPEG 인코딩이 아니면, 빠른 DCT 변환이 수신된 프레임들의 매크로 블록에 제공되어서, 화면 컷 검출에 대한 그러한 실-시간 프로세싱을 허락한다.
그러한 기술의 예는 N. Dimitrova, T. McGee & H. Elenbaas의 "Video Keyframe Extraction and Filtering: A Keyframe is Not A Keyframe To Everyone"{제6차 정보 및 지식 경영에 관한 국제회의 과정(ACM CIKM'97), 라스베가스, NV(Nov. 10-14, 1997), ACM 1997, pp. 113-120}에 기술되어 있고, 그 내용은 여기에서 참조로서 삽입된다. (예컨대 섹션 2.1, "Video Cut Detection". 참조)
따라서, 프로세서(50)는 실시간으로 비디오 스트림(30)에서의 화면 컷을 확인하기 위해서 적어도 하나의 그러한 기술들을 사용한다. 비디오 스트림에서 확인된 화면 컷 위치들은 전에 기술된 바와 같이 음성 브레이크 위치와 함께 연속적으로 저장된다. 비디오 스트림에서의 위치들은 프레임 번호, 시간 스탬프 등등에 의해서 확인될 수 있다. 따라서, 도 2를 다시 참조하여, 이 경우 묘사된 LN - L1은 동작 지점 (T)까지 비디오 스트림의 N 개의 이전 "내용 변화"(음성 브레이크 또는 화면 컷)의 위치를 보여준다. 예컨대, 마지막 변화 위치(L1)는 시간 T에서 현재 말하는 배우가 말을 시작하는 비디오 스트림에서의 위치를 표시할 수 있다. L2 - L5는 스트림에서의 유사한 이전 음성 브레이크 위치를 표시하며, L6는 마지막 화면 컷 위치 등을 표시할 수 있다. 사용자가 리플레이 기능을 사용할 때, 비디오 스트림은 이 경우 L1에서 마지막 변화 위치로부터 리플레이 된다. 따라서, 만일 사용자가 예컨대 현재의 화자의 단어를 놓친다면, 리플레이 특징을 한번 누름으로써 현재의 화자가 말하기 시작하는 지점에서 비디오 스트림을 시작한다.
유사하게, 리플레이 기능을 두 번 사용하는 것은 다음의 이전 음성 브레이크(L2)로부터 비디오 스트림을 리플레이한다. (다음의 이전 음성 브레이크는 다른 화자의 음성을 시작일 수 있다. 그것은 또한 만일 화자가 음성 시작 위치 L1 및L2 사이에서 특히 중지한다면, 시간 T에서 현재의 화자에 대한 또 다른 음성의 시작일 수 있다.) 리플레이 기능을 m번 누르는 것은 m번째 이전의 변화 위치로부터 비디오 스트림을 리플레이한다. 바람직하게, 비디오 스트림은 리플레이 특징이 사용되듯이 역으로 렌더링된다. 이것은 사용자가 특정의 관심의 변화(예컨대, 지점 L6일 수 있는 마지막 화면 컷과 같음)을 확인하고, 순방향 실행이 재-시작되도록 할 수 있다.
화면 컷 위치 및 음성 브레이크 위치(말하기가 상대적인 침묵 후에 시작되는 위치와 같음)를 포함하는 모든 변화 위치들은 데이터 스트림에서 또한 미리-확인될 수 있다는 데 주목하라. 따라서, 위에서 기술된 바와 같이, 프로세서(50)는 리플레이 기능 동안 비디오 스트림에서 미리-확인된 것처럼 변화의 위치를 이용할 수 있다. 추가로, 도 3은 화면 컷과 음성 브레이크들이 프로세서(50)에 의해서 검출되고 메모리에 집적된 방식으로 저장되는 경우에 사용되는 프로세싱 단계를 나타낼 수 있다. 따라서, 도 3에서 묘사된 각 단계들에 대해서, "음성 브레이크"에 대한 중점은 예컨대 음성 브레이크 및 화면 컷 모두로 구성되는 "콘텐츠 변화"로 일반화될 수 있다.
위에서 언급된 바와 같이, 화면 컷은 프레임 사이에서 실질적인 변화를 검출하기 위한 연속적인 프레임들의 매크로 블록을 위한 DCT 계수에서의 변화를 모니터링함으로써 많은 방식으로 검출될 수 있다. 하지만, 특정 변화는 덜 실질적이나 그럼에도 불구하고 사용자에게 중요한 변화 지점이 될 수 있는 동일 화면(shot) 내에서 생성할 수 있다. 예컨대, 화면 내에서 움직이기 시작하는 배우(또는 대상물)은 사용자에 대한 관심의 변화일 수 있다. 유사하게, (예컨대, 문을 통해 화면속으로 들어와서)화면에 추가되는 또 다른 배우는 관심의 변화일 수 있다. 그러한 변화는 위에서 언급된 상대적인 침묵의 기간 후에 말하기 시작하는 배우와 유사하다. 그들은 사용자에게 관심의 변화일 수 있지만, 하나의 화면 내에서 생성할 수 있다. 따라서, 장면 내에서 배우(또는 대상물)의 움직임의 변화는 본 발명의 목적을 위한 현저한 콘텐츠 변화를 포함할 수 있다.
따라서, 그러한 움직임의 변화가 시작되는 위치로부터 리플레이하는 것은 사용자에게 리플레이의 일관성을 제공하고 본 발명의 프로세싱에서 리플레이 위치로서 포함될 수 있다. 따라서, 예컨대, 사용자는 장면에서의 배우가 문을 향해서 걷기 시작하는 비디오 스트림에서의 최근 지점으로 되돌아 가길 원할 수 있다. 따라서, 도 1에서 디바이스(20)의 프로세서(50)는 장면 내의 사람들이나 대상물을 확인하고, 사람이나 대상물이 정지한 후 움직이기 시작하는 비디오 스트림에서의 위치를 저장할 수 있다.
예컨대, 도 1의 비디오 스트림(30)은 화면내에서 사람의 윤곽 및/또는 얼굴을 확인하고 프레임 사이에서 그들의 움직임을 검출하기 위해서 프로세서(50)에서 추가로 프로세스될 수 있다. 이러한 목적을 위해서 프로세서(50)에서 프로그램될 수 있는 당업계에서 이용가능한 실-시간 영상 인식 및 움직임 검출 방법 및 기술들이 있다. 예컨대, 비디오 스트림에서 움직이는 사람들을 확인하기 위해서 사용될 수 있는 기술은 공통적으로-소유된 그리고 공동-계류중인 Gutta등에 의한 "Classification Of Objects Through Model Ensembles"로 명명된 2001년 2월 27일에 출원된 미국 특허 출원번호 09/794,443에 기술되어 있으며, 그 내용은 본 발명에서 참조로 통합되었다. (미국 특허 출원 09/794,443 또한 국제 공개 번호 WO 02/069267 A2를 갖는 WIPO에 의해 공개된 PCT 출원에 대응한다는 것에 주목할 필요가 있다.) 따라서, 사람들이 정지 후에 움직이기 시작하는 비디오 스트림에서의 위치가 프로세서(50)에 의해서 확인되고 저장된다.
비디오 스트림에서 사람들의 움직임의 그러한 시작에 대응하는 위치들은 이전에 기술된 것과 동일한 방법으로 검출된 화면 컷과 저장소에서의 음성 브레이크의 위치와 통합된다. 따라서, 도 2에 나타난 각각의 저장된 변화 위치는 말하기의 시작, 움직임의 시작, 또는 비디오 스트림에서의 화면 컷을 위한 이전의 위치일 수 있다. 예컨대, L1은 대상에 이르기 시작하는 현재의 화면에 배우의 위치를 나타낼 수 있고, L2는 화면에서 현재 말하는 배우에 의해서 말하기의 시작의 위치를 나타내고, L3는 마지막 화면 컷 등을 나타낼 수 있다. 사용자가 리플레이 기능을 사용할 때, 비디오 스트림은 현재의 실행 위치(T)에 대해서 가장 인접한 종래 변화 위치인, L1으로부터 리플레이된다. 이것은 배우가 대상물에 도달하기 시작하는 지점에서 비디오 스트림을 시작한다. 재생을 누르는 것은 다시 현재의 배우에 의한 말하기의 시작인 L2로부터의 비디오 스트림을 리플레이한다.
다양한 사용자는 본 발명의 시스템과 디바이스가 리플레이 기능을 주문형으로 만들기 위해서 사용할 수 있는 특정 리플레이 성향을 가질 수 있다. 여컨대, 하나 이상의 특정 사용자 군(family)은 전형적으로 비디오 스트림에서의 마지막 화면 컷 위치로 되돌아 가기 위한 리플레이 기능을 사용한 다음, 디바이스(20)는 디폴트 리플레이 위치로서 가장 최근의 종래 화면 컷을 설정할 수 있다. 디바이스(20)는 시간에 걸쳐 리플레이 입력을 모니터하고 시스템의 하나 이상의 사용자들의 집합적인 기호를 반영하기 위한 리플레이 기준을 조정하는 학습 알고리즘을 포함 할 수 있다. 이들은 시간에 따라 변할 수 있다. 유사한 방식으로, 시스템과 디바이스는 시스템과 디바이스를 사용하는 개별적인 다른 사용자를 위해 리플레이 기능을 맞춤제작할 수 있다. 그런 경우, 디바이스(20)는 (로그인 프로세스와 같은) 각각의 사용자에 대한 확인 절차를 가지고, 다양한 사용자들의 특성을 모니터하고 저장한다. 추가로, 비디오 스트림을 위한 저장된 변화 위치는 또한 변화 형태(화면 컷, 음성, 실행 등)를 포함해서, 리플레이는 현재의 사용자의 기호에 대응하지 않는 이들 인터리빙 변화 위치를 건너뛸 수 있다. 그러한 기호-기반 리플레이는 사용자가 모든 위치를 통해서 순차적으로 되돌아 가도록 허락하도록 원래의 리플레이 특징을 남겨둔 채, 다른 입력(예컨대, "반복-2"입력)에 의해서 시작될 수 있다.
또한, 위치(LN - L1)는 다른 콘텐츠 변화(화면 컷, 음성 브레이크 등)로 구성되는 경우, 다른 리플레이 기능들은 각각의 형태의 변화로부터 재생에 이용될 수있다. 그러한 경우에, 프로세서(50)는 변화 위치를 가지는 변화 형태를 저장한다.
추가로, 도 1을 다시 참조하여, 디바이스(20)는 사용자의 디스플레이 비다이스(40)에 유선 또는 무선 인터페이스를 통해 비디오 스트림(30)을 제공하는 서비스 제공자에 대안적으로 위치할 수 있다. 디바이스(20)는 위에서 기술된 것과 같은 방식으로 비디오 스트림에서의 위치 변화를 결정하고 검출하기 위해서 비디오 스트림을 프로세싱한다. 사용자가 리플레이 특징을 이용할 때, 그것은 위에서 기술된 바와 같이 종래의 변화 지점 위치로부터 비디오 스트림을 리플레이 하는 서비스 제공자에게 전달된다.
추가로, 위의 예시적인 실시 예에서, 비디오 스트림에서의 이전의 변화 지점으로의 하나의 움직임이 리플레이 특징의 개별적인 사용에 의해서 행해진다. 따라서, 예컨대, 비디오 스트림에서의 "m" 변화 위치로 다시 움직이기 위해서, 플레이백 옵션은 "m"번 사용되는 것으로 기술된다. 리플레이 특징을 이용하는 다른 방법들은 가능하며 본 발명에 의해서 포함된다. 예컨대, 하나의 제어 입력은 리플레이 특징이 "m" 변화 위치들을 뒤로 이동시키도록 할 수 있다. 예컨대, 입력이 리모트를 경유할 때, 채널 번호 "5"는 리플레이 특징이 비디오 스트림에서의 5 변화 위치를 뒤로 움직이도록 리모트에서 눌려질 수 있다. 대안적으로, 제스쳐 인식을 통해 입력이 있는 경우 , 3 손가락을 올리는 것은 리플레이 특징이 비디오 스트림에서 3 변화 위치를 뒤로 움직이도록 할 수 있다.
추가로, 위에서 예시된 콘텐츠의 변화는 제한되도록 의도되지 않는다. 본 발명은 검출될 수 있는(또는 미리-확인될 수 있는) 그리고 리플레이 위치로 사용될 수 있는 임의의 형태의 현저한 콘텐츠의 변화를 포함한다. 예컨대, 위의 실시예에서 음성 시작을 포함하는 음성 브레이크와 움직임의 시작을 포함하는 움직임의 변화가 예시되었다. 대안적으로(또는 추가로), 음성 및 움직임 종료는 콘텐츠 변화 위치로서 사용될 수 있다. 컬러 밸런스, 오디오 볼륨, 음악의 시작 및 종료 등과 같은 다른 콘텐츠의 변화 또한 사용될 수 있다.
추가로, 본 발명의 위에서 언급된 실시 예들은 오디오 성분을 가지는 비디오 스트림에 중점을 두었으나, 본 발명은 비디오 성분을 포함하는 미디어 스트림에 제한되지 않는다. 따라서, 본 발명은 다른 미디어 스트림을 포함한다. 예컨대, 본 발명은 또한 오디오 스트림 만의 유사한 프로세싱을 포함한다. 이러한 맥락에서, 오디오 스트림은 예컨대 테잎 플레이어, CD 플레이어 또는 하드드라이브 기반 디바이스로부터 생성할 수 있다. (초기에, 사용자가 리플레이 기능을 개시하기 전에, 위부 오디오 스트림이 수신될 수 있고, 동시에 레코드되는 동안 디바이스에 의해서 실시간으로 출력될 수 있다. 일단 리플레이 특징이 개시되면, 오디오 스트림은 수신된 스트림 뒤에 오며 저장 매체로부터 생성된다.) 오디오 스트림에 포함된 이전 음성 브레이크를 검출하고 저장하기 위한 오디오 스트림의 프로세싱은 위에서 기술된 비디오 스트림의 처리에서와 유사한 방식으로 진행된다. 사용자가 리플레이 특징을 사용할 때, 예컨대, 오디오 스트림이 중단되고, 리플레이 특징에 의해서 사용자로부터 수신되는 입력에 따라서 결정되는 이전 음성 브레이크로부터 리플레이 된다.
본 발명이 몇몇 실시 예를 참조하여 기술되었으나, 본 발명이 도시되고 기술된 특정 형태에 제한되지 않는다는 것은 당업자에 의해서 이해될 수 있을 것이다. 따라서, 형태와 세부사항에 있어서 다양한 변화가 첨부된 청구항에 의해서 한정된 바와 같은 본 발명의 정신과 범위로부터 벗어나지 않고 만들어질 수 있다. 예컨대, 위에서 언급된 바와 같이, 음성 브레이크를 검출하고, 화면 컷, 영상 인식과 움직임을 검출하기 위해 본 발명에서 사용될 수 있는 많은 기술이 있다. 따라서, 위에서 기재된 음성 브레이크를 검출하며, 화면 컷, 영상 인식 및 움직임 검출에 관련된 특정 기술들은 단지 예에 의해서 사용되며 본 발명의 범위를 제한하지 않는다.
본 발명은 비디오 콘텐츠의 검색과 관련되며, 특히 비디오 스트림의 이전 부분의 검색과 리플레이에 이용가능하다.

Claims (24)

  1. 미디어 스트림(30)에서 이전의 위치(LN-L1)로부터 미디어 스트림(30)을 재생하는 방법으로서, 상기 방법은 상기 미디어 스트림(30)에서 많은 수의 사전에 확인된 콘텐츠 변화(120,120a)중 선택된 하나로부터 미디어 스트림(140,140a)을 재생 하는 단계를 포함하며, 상기 콘텐츠 변화는 상기 미디어 스트림(30)에 이전 음성 브레이크를 포함하는, 미디어 스트림을 재생하는 방법.
  2. 제1항에 있어서, 상기 미디어 스트림(30)은 비디오 스트림(30)이며 이전에 확인된 콘텐츠 변화(120,120a)는 화면 컷 및 움직임의 변화 중 적어도 하나를 추가로 포함하는, 미디어 스트림을 재생하는 방법.
  3. 제1항에 있어서, 상기 이전의 음성 브레이크는 미디어 스트림(30)에서의 상대적인 침묵 기간 후에 음성의 시작을 포함하는, 미디어 스트림을 리플레이하는 방법.
  4. 제1항에 있어서, 재생할(140, 140a) 미디어 스트림(30)에서 하나의 이전의 콘텐츠 변화를 선택하기 위해서 사용되는 제어 명령(130, 130a)을 수신하는 단계를 추가로 포함하는, 미디어 스트림을 재생하는 방법.
  5. 제4항에 있어서, 제어 명령(130,130a)은 m개의 입력 신호를 포함하되, m 개의 입력 신호는 재생을(140,140a) 시작할 미디어 스트림에서 m번째 이전의 콘텐츠 변화를 선택하기 위해 사용되는, 미디어 스트림을 재생하는 방법.
  6. 제4항에 있어서, 제어 명령(130, 130a)은 수신되는 이전의 제어명령에 기초하여 처리되는 재생(140, 140a)할 하나의 콘텐츠 변화를 선택하기 위해 사용되는, 미디어 스트림을 재생하는 방법.
  7. 제4항에 있어서, 수신된 제어 명령(130, 130a)은 매뉴얼 입력, 음성 입력 및 제스쳐 인식 중 적어도 하나에 의해서 생성되는, 미디어 스트림을 재생하는 방법.
  8. 제1항에 있어서, 미디어 스트림(30)이 실행하는 동안 실시간으로 이전의 콘텐츠 변화의 위치를 확인하고 저장하는 단계(120)를 추가로 포함하되, 상기 선택된 이전 콘텐츠 변화로부터의 상기 미디어 스트림을 리플레이하는 단계(140)는 선택된 콘텐츠 변화에 대응하는 저장된 위치를 이용하는, 미디어 스트림을 재생하는 방법.
  9. 제1항에 있어서, 미디어 스트림에 포함되는 데이터로부터 미디어 스트림에서 이전 콘텐츠 변화의 위치를 확인하는 단계(120a)를 추가로 포함하되, 선택된 이전 콘텐츠 변화로부터의 미디어 스트림(120a)을 리플레이하는 단계(140a)는 미디어 스트림(30)에 포함된 선택된 콘텐츠 변화의 위치를 이용하는, 미디어 스트림을 재생하는 방법.
  10. 제1항에 있어서, 마그네틱 테잎, 광학 디스크, 서버 및 하드 드라이브 중 적어도 하나로부터 미디어 스트림을 생성시키는 단계(100)를 추가로 포함하는, 미디어 스트림을 재생하는 방법.
  11. 제1항에 있어서, 외부 소스로부터 상기 미디어 스트림을 수신하는 단계(100)를 추가로 포함하는, 미디어 스트림을 재생하는 방법.
  12. 제11항에 있어서, 수신된 미디어 스트림을 레코딩하고 레코딩된 미디어 스트림으로부터 재생하는 단계를 추가로 포함하는, 미디어 스트림을 재생하는 방법.
  13. 제1항에 있어서, 상기 미디어 스트림(30)에서 많은 이전에 확인된 콘텐츠 변화(120,120a) 중 선택된 하나로부터 미디어 스트림의 리플레이하는 단계(140,140a)는 콘텐츠 변화 유형의 기능인, 미디어 스트림을 재생하는 방법.
  14. 미디어 스트림(30)의 현재의 실행 위치 T 이전에 미디어 스트림에서의 위치로부터 디지털 미디어 스트림(30)을 재생하는 방법으로서, 상기 방법은,
    a) 미디어 스트림이 실행할 때 실-시간으로 콘텐츠 변화 위치(LN-L1)를 검출하는 단계(120);
    b) 실행 위치 T 이전에 검출되는 적어도 많은 가장 인접한 변화 위치를 저장하는 단계(120);
    c) 번호 m를 포함하는 하나 이상의 입력신호를 수신하는 단계(130);
    d) 미디어 스트림에서 위치 T 이전에 m번째 가장 근접한 변화 위치를 메모리로부터 수신하는 단계; 및
    e) 미디어 스트림에서 m번째 가장 인접한 변화 위치로부터 미디어 스트림을 리플레이하는 단계(140)를 포함하는, 디지털 미디어 스트림을 재생하는 방법.
  15. 제14항에 있어서, 상기 미디어 스트림(30)은 오디오 스트림 및 비디오 스트림 중 적어도 하나인, 디지털 미디어 스트림을 재생하는 방법.
  16. 제15항에 있어서, 상기 변화 위치는 상기 미디어 스트림에서 음성 브레이크 위치들로 구성되는, 디지털 미디어 스트림을 재생하는 방법.
  17. 제16항에 있어서, 상기 미디어 스트림(30)은 비디오 스트림이고, 변화 위치는 화면 컷 위치와 움직임 위치들의 변화 중 적어도 하나로 추가로 구성되는, 디지털 미디어 스트림을 재생하는 방법.
  18. 미디어 스트림(30)에서 이전의 위치(LN-L1)으로부터 미디어 스트림을 리플레이하는 시스템(10)으로서, 상기 시스템(10)은 프로세서(50)와 메모리를 포함하되, 상기 프로세서(50)는 상기 미디어 스트림(30)에서 많은 이전에 확인된 콘텐츠 변화 중의 하나를 선택하는 하나 이상의 입력 신호를 수신하며, 상기 프로세서(50)는 선택된 콘텐츠 변화에 대응하는 위치를(LN-L1)를 메모리로부터 추가로 검색하고, 선택된 변화 위치(LN-L1)로부터 상기 미디어 스트림(30)의 리플레이를 활성화하며, 여기서 확인된 상기 콘텐츠의 변화는 미디어 스트림(30)에서의 이전의 음성 브레이크들을 포함하는, 미디어 스트림을 재생하는 시스템.
  19. 제18항에 있어서, 상기 프로세서(50)는 상기 미디어 스트림(30)에서의 콘텐츠의 변화를 추가로 확인하고, 상기 미디어 스트림(30)이 재생될 때 그들의 위치(LN-L1)를 추가로 저장하는, 미디어 스트림을 재생하는 시스템.
  20. 제18항에 있어서, 상기 시스템(10)은 상기 미디어 스트림(30)을 추가로 생성시키는, 미디어 스트림을 재생하는 시스템.
  21. 제18항에 있어서, 상기 시스템(10)은 상기 미디어 스트림(30)을 추가로 수신하고 상기 미디어 스트림(30)을 레코드하는, 미디어 스트림을 재생하는 시스템.
  22. 제18항에 있어서, 상기 시스템(10)은 상기 프로세서(50)와 메모리를 수용하고, 상기 입력 신호들을 수신하며 상기 리플레이를 활성화하는 단일 디바이스(20)로 구성되는, 미디어 스트림을 재생하는 시스템.
  23. 제22항에 있어서, 상기 디바이스(20)는 VCR, CD플레이어, DVD 플레이어 및 PC 중 하나인, 미디어 스트림을 재생하는 시스템.
  24. 상기 미디어 스트림(30)에서 선택된 이전 위치(LN-L1)로부터 미디어 스트림(30)을 리플레이하기 위한 컴퓨터-판독가능 매체에 구현된 컴퓨터 프로그램 제품으로서, 상기 컴퓨터 프로그램 제품은,
    a) 상기 미디어 스트림이 동작할 때 실-시간으로 콘텐츠 변화를 검출하는 (120) 컴퓨터 판독 가능한 프로그램 코드;
    b) 재생 위치 T 이전에 검출된 상기 미디어 스트림에서의 가장 인접한 콘텐츠 변화의 적어도 많은 위치(LN-L1)를 메모리에 저장하는(120) 컴퓨터 판독가능한 프로그램 코드;
    c) 번호 m을 포함하는 하나 이상의 입력 신호를 수신하는(130) 컴퓨터 판독 가능한 프로그램 코드;
    d) 상기 미디어 스트림에서 위치 T 이전에 m번째 가장 인접한 변화 위치를 메모리로부터 검색하는 컴퓨터 판독가능한 프로그램 코드; 및
    e) T이전에 m번째 가장 인접한 변화 위치로부터 미디어 스트림을 리플레이 하기위해 출력 신호를 생성하는(140) 컴퓨터 판독가능한 프로그램 코드를 포함하는, 컴퓨터 프로그램 제품.
KR1020067014999A 2004-01-26 2005-01-24 이전의 변화 위치로부터 미디어 스트림의 재생 KR20060136413A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US53930504P 2004-01-26 2004-01-26
US60/539,305 2004-01-26

Publications (2)

Publication Number Publication Date
KR20070000443A true KR20070000443A (ko) 2007-01-02
KR20060136413A KR20060136413A (ko) 2007-01-02

Family

ID=

Also Published As

Publication number Publication date
US20070113182A1 (en) 2007-05-17
WO2005073972A1 (en) 2005-08-11
TW200537941A (en) 2005-11-16
CN1922690A (zh) 2007-02-28
JP2007522722A (ja) 2007-08-09
EP1711947A1 (en) 2006-10-18

Similar Documents

Publication Publication Date Title
US20070113182A1 (en) Replay of media stream from a prior change location
US7483618B1 (en) Automatic editing of a visual recording to eliminate content of unacceptably low quality and/or very little or no interest
US6597859B1 (en) Method and apparatus for abstracting video data
US6819863B2 (en) System and method for locating program boundaries and commercial boundaries using audio categories
US7796860B2 (en) Method and system for playing back videos at speeds adapted to content
JP5227382B2 (ja) 類似のビデオコンテンツへの乗り換えのための方法および装置
JP4778231B2 (ja) ビデオシーケンスに対してインデックス付けするシステムおよび方法
JP4683281B2 (ja) 再生システム、再生装置、再生方法、情報処理装置、情報処理方法、およびプログラム
JP4331217B2 (ja) 映像再生装置および方法
JP2005518123A (ja) ビデオコンテンツの早送り/巻き戻しにおける映像要約
US10375445B2 (en) Apparatus, systems and methods for provision of contextual content
US20100259688A1 (en) method of determining a starting point of a semantic unit in an audiovisual signal
JPWO2006016605A1 (ja) 情報信号処理方法、情報信号処理装置及びコンピュータプログラム記録媒体
US20100209072A1 (en) Method for creating a new summary of an audiovisual document that already includes a summary and reports and a receiver that can implement said method
JPH08339379A (ja) 映像解析方法および装置
CN1167263C (zh) 控制数字视频数据显现的方法和设备
JP4835439B2 (ja) 情報信号処理方法、情報信号処理装置及びコンピュータプログラム記録媒体
JP2008103802A (ja) 映像合成装置
KR20060136413A (ko) 이전의 변화 위치로부터 미디어 스트림의 재생
JP2007288300A (ja) 映像音声再生装置
JPH1188807A (ja) 映像ソフト再生方法、映像ソフト処理方法、映像ソフト再生プログラムを記録した媒体、映像ソフト処理プログラムを記録した媒体、映像ソフト再生装置、映像ソフト処理装置及び映像ソフト記録媒体
JP4341503B2 (ja) 情報信号処理方法、情報信号処理装置及びプログラム記録媒体
JP2006054622A (ja) 情報信号処理方法、情報信号処理装置及びプログラム記録媒体
JP2005260391A (ja) 動画像表示装置、動画像表示方法、動画像表示プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4470638B2 (ja) 情報信号処理方法、情報信号処理装置及びプログラム記録媒体

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid