KR101317204B1 - 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치 - Google Patents

동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치 Download PDF

Info

Publication number
KR101317204B1
KR101317204B1 KR1020060117796A KR20060117796A KR101317204B1 KR 101317204 B1 KR101317204 B1 KR 101317204B1 KR 1020060117796 A KR1020060117796 A KR 1020060117796A KR 20060117796 A KR20060117796 A KR 20060117796A KR 101317204 B1 KR101317204 B1 KR 101317204B1
Authority
KR
South Korea
Prior art keywords
objects
attributes
frame
dynamic image
dynamic
Prior art date
Application number
KR1020060117796A
Other languages
English (en)
Other versions
KR20080047845A (ko
Inventor
정지혜
박민규
이혜정
이영범
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060117796A priority Critical patent/KR101317204B1/ko
Priority to US11/889,189 priority patent/US8559792B2/en
Priority to EP20090177641 priority patent/EP2154685A3/en
Priority to EP20070120885 priority patent/EP1926105A1/en
Priority to CN2007101693784A priority patent/CN101193250B/zh
Priority to JP2007305303A priority patent/JP5522894B2/ja
Publication of KR20080047845A publication Critical patent/KR20080047845A/ko
Application granted granted Critical
Publication of KR101317204B1 publication Critical patent/KR101317204B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

다양한 컨텐츠 객체들로 이루어지는 동적 영상물을 재생하는 장치 및 방법이 개시된다.
본 발명의 일 실시예에 따른 동적 영상물을 재생하는 장치는, 프레임 별로 기록된 객체들의 속성을 읽어 들이는 프레임 정보 파서와, 저장된 객체들 중 상기 기록된 객체들을 로딩하는 객체 로더와, 상기 로딩된 객체들에 대응되는 상기 속성을 적용하여 프레임 이미지를 생성하고 상기 생성된 프레임 이미지를 디스플레이하는 재생부로 이루어진다.
Figure R1020060117796
컨텐츠, 동적 효과, 동적 영상물, 프레임

Description

동적 영상물의 프레임 정보를 생성하는 방법 및 이를 이용한 장치{Method for generating frame information on moving image and apparatus thereof}
도 1은 종래 기술에 따른 동적 영상물 재생 장치의 동작을 보여주는 도면.
도 2는 일반적인 비디오 프레임 재생 과정을 보여주는 도면.
도 3은 본 발명의 일 실시예에 따른 동적 영상물 생성 장치의 구성을 도시하는 블록도.
도 4 및 5는 동적 효과의 예를 나타내는 도면들.
도 6은 본 발명의 일 실시예에 따른 스크립트의 구조를 도시한 도면.
도 7은 객체의 깊이를 설명하기 위한 도면.
도 8은 본 발명의 일 실시예에 따른 프레임 정보 생성 장치의 구성을 도시하는 블록도.
도 9는 동적 영상물을 프레임화하는 개념을 도시하는 블록도.
도 10은 프레임 별로 객체의 속성을 계산하는 방법을 보여주는 도면.
도 11은 프레임 메타정보의 구조를 보여주는 도면.
도 12는 3개의 독립적 객체와 1개의 종속적 객체를 포함하는 구조를 갖는 장면을 예시하는 도면.
도 13은 객체의 종속성을 설명하기 위한 도면.
도 14는 본 발명의 일 실시예에 따른 동적 영상물 재생 장치의 구성을 도시하는 블록도.
도 15는 사용자가 재생 컨트롤러에 사용자 명령을 입력하기 위한 사용자 인터페이스의 예를 나타내는 도면.
(도면의 주요부분에 대한 부호 설명)
30 : 스크립트 40 : 실행모듈
50 : 프레임 메타정보 100 : 동적 영상물 생성 장치
110 : 스크립트 생성부 120 : 동적 효과 적용부
130 : 객체 배치부 140 : 객체 저장부
150 : 사용자 인터페이스 200 : 프레임 정보 생성 장치
210, 310 : 스크립트 파서 220 : 재생 시간 계산부
230 : 프레임 정보 기록부 300 : 동적 영상물 재생 장치
320 : 디스플레이부 330 : 재생부
340 : 객체 로더 350 : 객체 저장부
360 : 재생 컨트롤러 370 : 프레임 정보 파서
380 : 비디오 인코더
본 발명은 동적 영상물 재생에 관한 것으로서, 더욱 상세하게는 다양한 컨텐 츠 객체들로 이루어지는 동적 영상물을 재생하는 장치 및 방법에 관한 것이다.
일반적으로 사용자가 사진 등의 컨텐츠를 감상하는 데에는, 다수의 컨텐츠를 소정 시간 간격으로 보여주는 슬라이드쇼(Slide Show) 방식이 많이 사용되고 있다. 이러한 슬라이드쇼 방식은 단순히 소정 컨텐츠를 보여주고 난 다음, 소정 시간이 경과하게 되면, 그 다음 컨텐츠를 보여주는 방식이다. 이때, 슬라이드쇼 방식은 소정 시간 동안 컨텐츠가 정지하기 때문에 컨텐츠를 정적으로 표현하여 개인의 추억이나 선호도에 따라 컨텐츠를 구성하지 못하여 최근 개개인이 자신의 컨텐츠를 영상화하여 동적으로 표현하고자 욕구를 충족시키기에는 역부족이었다.
또한, 한번에 하나의 컨텐츠만을 보여주기 때문에 사용자가 현재 보고 있는 컨텐츠와 이미 본 컨텐츠나 앞으로 볼 컨텐츠간의 연관성을 직관적으로 알기 어렵고, 또한 정적인 표현으로 인해 다양한 표현이 어려운 문제점이 있다. 다시 말해서, 소정 컨텐츠를 소정 시간 동안 정적으로 표현하기 때문에 다수의 컨텐츠가 소정의 연관성, 예를 들어 같은 장소에서 촬영한 사진 등인 경우에도 각 컨텐츠간의 연관성을 직관적으로 파악하기 어렵다는 문제점이 있다.
따라서, 최근에는 슬라이드쇼 방식 자체의 단조로움을 벗어나기 위하여 컨텐츠와 함께 스티커 및 자막 등의 부가적인 효과를 추가하거나 컨텐츠 감상시, 줌(Zoom), 팬(Pan) 및 틸트(Tilt) 등의 다양한 동적 효과를 부가하고 있으나, 기존의 단조로움을 벗어나지 못하고 개인의 컨텐츠 형태가 항상 같은 형태로 이루어져 다양한 사용자의 요구를 만족시키기에는 역부족이었다.
최근 개인 컨텐츠를 이용한 영상물 저작이 활발해지고 있지만, 기존의 툴을 이용하여 저작하기 위해서는 전문적인 지식이 요구되고, 저작 후 여러 기기로 전송 혹은 공유하기 위해서 기기에 맞는 포맷으로 만들기 위해서는 더 많은 노력이 요구된다. 이러한 점을 해결하고자 사용자의 편이성을 최대화하여 컨텐트를 동적인 영상물로 저작해 주는 종래 기술들이 많이 제안되고 있다. 사용자는 상기 기술들을 통하여, 다수의 컨텐트를 모아 하나의 동적 영상물을 생성할 수 있으며, 이를 배신하고 공유하는 과정을 통해 상기 동적 영상물이 홈 서버 등에 응용되도록 할 수 있다.
이러한 동적인 영상물을 저작하기 위해서는 사용자에게 직접적으로 보이지는 않더라도, 사용자의 요구를 만족할 수 있도록 컨텐츠를 동적인 영상물로 구조화하고 이에 걸맞는 효과를 표현할 수 있는 기능이 요구된다.
도 1은 이와 같은 종래 기술에 따른 동적 영상물 재생 장치(10)의 동작을 보여주는 도면이다. 상기 장치(10)는 장면(scene; 11a, 11b), 컷(cut; 13a, 13b, 13c), 이미지(14a 내지 14f) 및 음향(sound; 15) 등의 다양한 컨텐츠를 조합하여 디스플레이한다. 상기 장면(11a, 11b)는 하나의 배경영상 화면을 기초로 결정되며, 그 내부에 다른 컨텐츠들을 포함할 수 있다. 상기 컷(13a, 13b, 13c)는 움직임, 변경의 단위로서 그 내부에 다른 컨텐츠들을 포함할 수 있다. 예를 들어, 하나의 컷이 회전하는 경우 그 내부의 컨텐츠들도 따라서 회전하게 된다.
상기 장치(10)은 각각의 컨텐츠들의 재생 시작 부분(점선으로 표시됨)을 기준으로 하여, 동적 영상물을 재생한다. 즉, 상기 재생 시작 부분에서부터 소정의 지속 시간 동안 상기 컨텐츠들을 디스플레이하는 것이다. 이 때, 상기 컨텐츠들에 는 동적 효과가 부가될 수도 있다. 따라서, 상기 재생 시작 부분들을 기준으로 동적 영상물에 대한 접근이 가능하지만, 임의의 시점을 기준으로 동적 영상물에 접근하는 것은 가능하지 않다. 예를 들어, 도 1에서 t1은 사용자가 임의 접근이 가능한 위치이지만, t2는 사용자의 임의 접근이 가능한 위치가 아니다. 또한, 설령 t2로 임의의 접근이 가능할 지라도 그 위치에서 동적 효과가 적용된 객체들이 모여서 이루어지는 장면을 보여주는 것은 용이하지 않았다.
이에 비하여, 일반적인 비디오 재생 장치(20)의 비디오 프레임 재생 과정은 도 2에 도시하는 바와 같다. 여기서, 비디오는 복수의 비디오 프레임(21 내지 25)으로 구성되며, 동적 영상물과는 구별되는 개념이다. 동적 영상물은 복수의 컨텐츠를 포함하여 이루어지며 각각의 컨텐츠가 독립적으로 제어될 수 있는 반면에, 비디오는 그 내부에 다양한 이미지들이 존재한다고 하더라도 그 이미지는 픽셀 정보로 이루어진데 불과하고 독립적으로 제어될 수가 없다. 비디오도 동적 영상물에 포함될 수 있는 컨텐츠에 속한다. 동적 영상물로는 매크로미디어 사의 소프트웨어 "FLASH"의해 저작되는 SWF(ShockWave Flash) 파일을 예로 들 수 있다.
도 2를 참조하면, 비디오 프레임들(21 내지 25)은 프레임율(시간당 프레임의 표시 회수)에 따른 시간 간격으로 순차적으로 디스플레이됨을 알 수 있다. 예를 들어, 프레임율이 30이면 각각의 비디오 프레임은 1/30초씩 순차적으로 디스플레이 된다. 따라서, 사용자는 전체 비디오 프레임들 중에서 원하는 비디오 프레임으로의 임의 접근이 가능하다. 물론, 비디오 코딩 방식에 따라서, 임의 접근이 가능한 프 레임(MPEG에서의 I 프레임)과 임의 접근이 불가능한 프레임(MPEG에서의 P, B 프레임)이 있을 수 있지만, 이는 사용자가 원하는 장면을 찾아가는 데에 있어서 별로 문제되지 않는다.
따라서, 상기 비디오 재생에서와 같이, 동적 영상물 재생에서도 사용자가 원하는 위치에 임의 접근할 수 있도록 하는 방법을 고안할 필요성가 있다.
본 발명의 기술적 과제는, 다양한 독립된 컨텐츠들을 포함하여 이루어지는 동적 영상물에 대한 재생 제어를 용이하게 하는 것이다.
또한, 본 발명의 다른 기술적 과제는, 동적 영상물이 재생되는 디바이스의 성능에 구애받지 않고 동적 효과가 자연스럽게 구현될 수 있도록 하는 것이다.
또한, 본 발명의 또 다른 기술적 과제는, 상기 동적 영상물을 용이하게 비디오 코딩할 수 있는 방법을 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 동적 영상물의 프레임 정보를 생성하는 장치는, 동적 영상물을 구성하는 복수의 객체들을 파악하는 스크립트 파서; 상기 동적 영상물의 총 재생 시간 중에서 프레임화할 시간적 위치를 결정하는 재생 시간 계산부; 및 상기 시간적 위치에 존재하는 상기 객체들의 속성을 기록하는 프레임 정보 기록부를 포함한다.
상기 기술적 과제를 달성하기 위한 동적 영상물을 재생하는 장치는, 프레임 별로 기록된 객체들의 속성을 읽어 들이는 프레임 정보 파서; 저장된 객체들 중 상기 기록된 객체들을 로딩하는 객체 로더; 및 상기 로딩된 객체들에 대응되는 상기 속성을 적용하여 프레임 이미지를 생성하고 상기 생성된 프레임 이미지를 디스플레이하는 재생부를 포함한다.
상기 기술적 과제를 달성하기 위한 동적 영상물의 프레임 정보를 생성하는 방법은, 동적 영상물을 구성하는 복수의 객체들을 파악하는 단계; 상기 동적 영상물의 총 재생 시간 중에서 프레임화할 시간적 위치를 결정하는 단계; 및 상기 시간적 위치에 존재하는 상기 객체들의 속성을 기록하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 동적 영상물을 재생하는 방법은, 프레임 별로 기록된 객체들의 속성을 읽어 들이는 단계; 저장된 객체들 중 상기 기록된 객체들을 로딩하는 단계; 상기 로딩된 객체들에 대응되는 상기 속성을 적용하여 프레임 이미지를 생성하는 단계; 및 상기 생성된 프레임 이미지를 디스플레이하는 단계를 포함한다.
이하 첨부된 도면들을 참조하여 본 발명의 일 실시예를 상세히 설명한다. 본 발명에 따른 전체 시스템은 크게, 동적 영상물 생성 장치(도 3의 100)와, 프레임 정보 생성 장치(도 4의 200)와, 동적 영상물 재생 장치(도 5의 300)로 이루어질 수 있다.
도 3은 본 발명의 일 실시예에 따른 동적 영상물 생성 장치(100)의 구성을 도시하는 블록도이다. 동적 영상물 생성 장치(100)는 다양한 객체(object)들로부터 동적 영상물을 생성하여 그 산출물인 스크립트(30)와 실행모듈(40)을 생성한다. 본 발명에 있어서, "객체"는 동적 영상물의 구성 요소로서, 사진, 음향, 비디오 시퀀스, 배경영상, 스티커, 텍스트(자막 등)를 총괄하는 개념이다. 상기 객체는 하나의 배경영상 화면을 단위로 변경되는 장면과, 내부의 객체들과 동일한 속성(예: 동일한 움직임, 투명도 등)을 갖는 컷을 더 포함할 수 있다.
동적 영상물 생성 장치(100)는 스크립트 생성부(110), 동적 효과 적용부(120), 객체 배치부(130), 객체 저장부(140) 및 사용자 인터페이스(150)를 포함하여 구성될 수 있다.
사용자 인터페이스(150)는 사용자의 기호에 따른 동적 영상물을 생성하기 위하여 사용자 명령을 입력 받는 수단이다. 이러한 사용자 인터페이스(150)는 기 정의된 템플릿(template)을 포함할 수 있다. 상기 템플릿은 복수의 객체들을 배치하기 위한 툴로 이해될 수 있다. 상기 템플릿은 객체들의 배치 및 동적 효과를 미리 정의하고 있기 때문에, 사용자는 상기 객체들로 사용될 컨텐츠만을 선택함으로써 간단히 동적 영상물이 생성될 수 있도록 하는 수단이다.
상기 동적 효과에는, 객체가 나타나거나 사라지며 화면 전환 효과를 보여주는 트랜지션(Transistion), 시간에 따라 객체의 위치와 크기 등을 다양한 속도로 변화시키는 애니메이션(Animation), 객체를 움직이지 않고 카메라가 움직이는 듯한 효과인 카메라 워크(Camerawork) 등이 있다.
객체 저장부(140)는 동적 영상물의 구성 요소로서 사용되는 다양한 객체들을 저장하는 메모리 또는 데이터베이스로서, 하드디스크나 플래시 메모리와 같은 비휘발성 저장 매체로 이루어지는 것이 바람직하다.
객체 배치부(130) 및 동적 효과 적용부(120)는 사용자 인터페이스(150)를 통하여 제공된 사용자 명령에 따라 동적 영상물을 구성하는 객체를 배치하고, 배치된 객체에 대하여 동적 효과를 적용하는 역할을 수행한다.
객체 배치부(130)는 템플릿 또는 사용자의 직접 명령에 따라, 동적 영상물을 복수의 장면으로 분할(도 1 참조)하고 장면 단위로 객체 저장부(140)에 저장된 객체들을 배치한다. 하나의 동적 영상물은 복수의 장면으로 구성되므로, 상기 각각의 장면을 독립적으로 편집/제어함으로써 상기 동적 영상물을 편집/제어할 수 있는 것이다.
객체 배치부(130)는 시각적으로 감지할 수 있는 객체들뿐만 아니라, 청각적으로 감지할 수 있는 객체들, 예를 들어, 배경영상 음악, 효과음 등도 상기 시각적 객체들과 동기화하여 배치할 수 있다.
동적 효과 적용부(120)는 상기 장면 별로 배치된 객체들에 대하여 트랜지션, 애니메이션, 카메라 워크 등의 동적 효과를 부여한다.
도 4 및 5는 상기 동적 효과의 예를 보여주는 도면이다. 도 4에서, 하나의 장면(60)은 하나의 배경영상(61)를 포함하고 있다. 상기 장면(60)에 포함되는 객체(62)는 초기 위치에서부터 이동하거나, 회전하거나, 확대될 수 있으며, 이동, 회전 및 확대가 동시에 이루어질 수도 있다. 한편, 도 5에서, 장면(60)에 포함되는 객체(72)는 초기 위치에서부터 이동하면서, 투명도가 변화될 수 있다. 상기 투명도 가 1(100%)이 되거나 상기 객체(72)의 지속시간이 만료되면 상기 객체(72)는 디스플레이되지 않게 된다.
동적 효과 적용부(120)에 의하여 구현되는 객체에 대한 동적 효과로 인하여 사용자의 시각으로는 동적 영상물의 재생이 일반적인 비디오의 재생과 동일하게 인식될 수 있는 것이다.
동적 영상물 생성 장치(100)의 최종 산출물은, 동적 영상물을 구성하는 객체와 그 객체의 속성을 정의하는 스크립트(30)와, 상기 스크립트와 짝을 이루며 상기 정의된 객체에 대한 동적 효과를 정의하는 실행 모듈(40)로 이루어질 수 있다.
상기 스크립트(30)는 HTML(HyperText Markup Language), XML(eXtensible Markup Language) 등과 같은 마크업 언어(Markup Language)로 표현될 수 있으며, 상기 실행 모듈(40)은 매크로미디어 社의 SWF 파일로 구현될 수 있다.
상기 실행 모듈(40)은 사용되는 객체들(장면, 배경영상, 스티커, 텍스트 등)을 각각 모듈화하여 독립적인 파일로 구성될 수 있다. 다만, 장면에 관한 실행 모듈은 상기 장면에 포함되는 다른 객체들에 관한 실행 모듈을 포함하는 구조체로 되어 있다.
스크립트 생성부(110)는 객체 배치부(130)에서 장면 별로 결정된 객체들 및 그 속성을 스크립트(30) 형태로 기록한다.
도 6은 스크립트(30)의 구조를 개념적으로 도시한 도면이다. 스크립트(30)는 복수의 장면들(#1, #2, #3)로 이루어져 있고, 하나의 장면에는 복수의 객체들을 식별하는 식별자(ID) 및 그 객체들의 속성이 기록되어 있다. 상기 식별자는 객체 저 장부(140)로부터 특정 객체를 로딩할 때 그 특정 객체를 식별하기 위하여 사용되며, 부호 또는 일련 번호로 표시될 수 있다.
상기 "속성"이란 일순간에서 객체의 특징을 나타내는 정량화된 값들을 의미한다. 예를 들어, 상기 속성은, 해당 객체의 x 좌표, y 좌표, 깊이(depth), 회전 각도, 가로 크기(width), 세로 크기(height), 투명도(transparency) 등을 포함한다. 상기 x 좌표 및 y 좌표의 기준점은 장면을 구성하는 배경영상의 좌상단에 위치할 수 있다. 예를 들어, 도 4에서 객체(62)는 x 좌표, y 좌표, 회전 각도, 가로 크기 및 세로 크기가 변경되는 것이고, 도 5에서 객체(72)는 x 좌표, y 좌표 및 투명도가 변경되는 것이다.
또한, 객체의 "깊이"는 복수의 객체가 중복된 공간상에 위치할 경우에 객체가 디스플레이되는 순서를 나타내기 위한 값이다. 예를 들어, 도 7에서 사진 객체(71)의 깊이가 가장 작고(화면에 보여지는 우선도가 높고), 스티커 객체(73) 또는 스티커 객체 (74)의 깊이가 가장 크다(화면에 보여지는 우선도가 가장 낮다).
스크립트(30)에는 이러한 객체들의 ID 및 다양한 속성들의 초기치가 기록되고, 실행 모듈(40)은 상기 객체의 변경되는 속성이 기록된다고 볼 수 있다.
도 8은 본 발명의 일 실시예에 따른 프레임 정보 생성 장치(200)의 구성을 도시하는 블록도이다. 프레임 정보 생성 장치(200)는 동적 영상물을 프레임화하여 각 프레임 별로 프레임 정보를 생성한다. 여기서, 프레임화란 상기 동적 영상물을 실제로 비디오 프레임으로 변환하는 것을 의미하는 것이 아니라, 각 프레임 위치에서 동적 영상물에 포함된 객체들 및 그 속성을 기록하는 것을 의미한다. 상기 기록 된 객체들 및 그 속성에 근거하면, 추후 상기 동적 영상물로부터 언제든지 단일의 이미지를 추출할 수 있다. 이를 위하여, 프레임 정보 생성 장치(200)는 스크립트 파서(210), 재생 시간 계산부(220) 및 프레임 정보 기록부(230)를 포함하여 구성될 수 있다.
스크립트 파서(210)는 동적 영상물 생성 장치(100)에 의하여 생성된 스크립트(30)를 분석하여 동적 영상물에 포함되는 장면, 상기 장면에 포함되는 객체들 및 그 속성을 파악한다.
재생 시간 계산부(220)는 스크립트 파서(210)에 의하여 분석된 객체들의 동적 효과를 나타내는 실행모듈(40)을 분석하여, 동적 영상물이 재생되는 총 재생 시간을 계산한다. 상기 총 재생 시간은 상기 동적 영상물을 구성하는 장면들의 지속시간들의 합계로 계산될 수 있으며, 각 장면의 지속시간은 해당 장면에 속하는 객체들의 지속시간을 분석함으로써 파악될 수 있다.
그런데, 한 장면에 포함되는 객체들의 특성에 따라 다른 객체들의 재생 시간이 영향을 받아 재생 시간의 변경될 수 있다. 일반적으로 장면에 포함된 컨텐츠(사용자가 입력한 객체)의 수와 컨텐츠의 성격, 적용된 효과에 따라 상영 시간이 결정된다. 예를 들어, 장면에 속한 객체들이 적용된 효과에 따라 모두 상영된 후 다음 장면으로 전환되는 경우, 해당 객체의 상영 시간이 남았다고 하더라도 상영이 끝나게 되는 것이다.
또한, 재생 시간 계산부(220)는 상기 계산된 총 재생 시간을 기초로 상기 동적 영상물을 프레임화하기 위하여 사용되는 프레임율(frame rate)을 결정한다. 상 기 프레임율은 사용자의 입력 값 또는 미리 결정된 디폴트 값으로서 결정될 수 있다. 예를 들어, 상기 프레임율은 총 재생 시간을 고정된 개수로 분할하는 방식으로 결정될 수도 있지만(전자), 상기 총 재생 시간과 무관하게 일정한 프레임율로 결정될 수도 있다(후자). 전자의 경우, 상기 동적 영상물은 총 재생 시간과 상관없이 일정한 프레임 수를 갖게 되고, 후자의 경우, 상기 동적 영상물은 총 재생 시간에 비례하는 프레임 수를 갖게 된다.
프레임 정보 기록부(230)는 상기 결정된 프레임율에 따라 각 프레임 별로 필요한 객체들(객체들의 ID) 및 상기 객체들의 속성을 기록하여 프레임 메타정보(frame metadata; 50)를 생성한다. 예를 들어, 도 9와 같이 재생될 것으로 정의되는 동적 영상물(80)이 있다고 할 때, 프레임 정보 기록부(230)는 각각의 프레임 위치에서의 필요한 객체들의 ID 및 그 속성을 기록한다.
도 9에서, 프레임 f2에 포함되는 객체들은 객체 a, 객체 b 및 음향 객체이고, 프레임 f4에 포함되는 객체들은 객체 b 및 음향 객체이고, 프레임 f12에 포함되는 객체는 음향 객체만임을 알 수 있다. 뿐만 아니라, 실행 모듈(40)에는 객체들의 동적 효과가 기록되어 있으므로, 이로부터 특정 프레임에서 객체의 속성을 계산할 수 있다. 예를 들어, 어떤 객체(85)가 좌표 (0, 0)(x 좌표 및 y 좌표가 모두 0임을 의미함)에서 좌표 (5, 7)로 이동하는 동적 효과를 갖고, 그 이동 시간이 3 프레임 간격(프레임 간격이란 프레임율의 역수를 의미함)에 해당한다고 가정하면, 프레임 fn +1 위치에서의 객체(85)의 좌표는 (5/3, 7/3)이고, 프레임 fn +2 위치에서의 객 체(85)의 좌표는 (10/3, 14/3)라고 계산될 수 있다. 이와 같은 방법을 이용하면, 임의의 프레임 위치에 속하는 객체(85)의 속성을 모두 추산할 수 있다.
도 9와 같은 동적 영상물(80)의 프레임 메타정보(50)는 도 11과 같은 구조로 기록될 수 있다. 프레임 f2에 대한 프레임 정보로는 객체 a의 ID 및 속성, 객체 b의 ID 및 속성, 그리고 음향 객체의 ID 및 속성이 포함된다. 프레임 f4에 대한 프레임 정보로는 객체 b의 ID 및 속성, 그리고 음향 객체의 ID 및 속성이 기록된다. 또한 프레임 f12에 대한 프레임 정보로는 음향 객체의 ID 및 속성이 기록된다. 상기 음향 객체는 다른 시각적 객체와는 달리 동적 효과는 존재하지 않으므로, 그 속성으로는 해당 프레임 위치에서의 시간 정보, 즉 동기화 정보만을 필요로 한다. 왜냐하면, 음향 객체는 특정 시간 정보에 따라 임의 접근이 이미 가능하기 때문이다.
한편, 하나의 장면에 포함되는 객체들은 독립적으로 동적 효과가 적용되는 것이 원칙이지만, 객체들간에 종속성(dependency)이 존재하는 경우에는 실행 모듈(40)에서 상위 객체들에만 동적 효과만을 지정하는 경우가 있다. 도 12는, 하나의 장면(90)이 3개의 독립적 객체(a, b, c)와 1개의 종속적 객체(d)를 포함하는 구조로 이루어진 경우를 예시한다. 실행 모듈(40)은 3개의 독립적 객체(a, b, c)에 대해서는 각각 동적 효과를 지정하고, 객체 d에 대해서는 아무런 동적 효과를 지정하지 않는 경우가 있다. 이 경우에도, 객체 d는 객체 a에 대한 종속성으로 인하여 객체 a의 동적 효과를 그대로 상속받는다.
예를 들어, 도 13에서 객체(91)과 객체(92) 간에는 종속성이 존재하지 않고, 객체(93)과 객체(94)간에는 종속성이 존재하고, 객체(91)에는 회전이라는 동적 효과가, 객체(93)에는 이동이라는 동적 효과가 지정되어 있다고 가정한다. 그러면, 객체(94)에는 특별히 동적 효과가 지정되어 있지 않더라도 객체(94)는 객체(93)과 더불어 이동하게 된다. 그러나, 객체(91)의 회전은 객체(92)에 아무런 영향을 미치지 못한다.
따라서, 프레임 정보 기록부(230)가 프레임 별로 프레임 메타정보를 생성할 때에는, 해당 프레임에 속하는 객체들의 종속성 여부를 체크하고, 종속성을 갖는 객체의 속성에는 그 상위 객체의 속성을 그대로 기록할 필요가 있다.
이상, 프레임 정보 생성 장치(200)는 그 기능에 근거하여 별도의 장치로 기술하였지만, 동적 영상물 생성 장치(100)의 내부에 포함되어 구성될 수도 있음은 물론이다.
도 14는 본 발명의 일 실시예에 따른 동적 영상물 재생 장치(300)의 구성을 도시하는 블록도이다. 동적 영상물 재생 장치(300)는 프레임 정보 생성 장치(200)에서 생성된 프레임 정보를 이용하여 상기 동적 영상물을 프레임 단위로 재생한다. 즉, 동적 영상물 재생 장치(300)는 프레임 위치에서 동적 영상물에 포함된 객체들을 그 속성에 맞게 배치함으로써 생성되는 단일의 이미지를 디스플레이한다. 이를 위하여, 동적 영상물 재생 장치(300)는 스크립트 파서(310), 디스플레이부(320), 재생부(330), 객체 로더(340), 객체 저장부(350), 재생 컨트롤러(360), 프레임 정보 파서(370) 및 비디오 인코더(380)를 포함하여 구성될 수 있다.
스크립트 파서(310)는 동적 영상물 생성 장치(100)에 의하여 생성된 스크립 트(30)를 분석하여 동적 영상물에 포함되는 장면, 상기 장면에 포함되는 객체들, 즉 동적 영상물의 구조를 파악한다.
객체 저장부(350)는 동적 영상물의 구성 요소로서 사용되는 다양한 객체들을 저장하는 메모리 또는 데이터베이스로서, 하드디스크나 플래시 메모리와 같은 비휘발성 저장 매체로 이루어지는 것이 바람직하다.
객체 로더(340)는 재생부(330)가 요청한 객체를 객체 저장부(350)로부터 읽어서 주 메모리에 로딩한다. 상기 주 메모리는 예를 들어, RAM(Random Access Memory)과 같은 휘발성 저장 매체로 이루어질 수 있다. 이 때, 객체 로더(340)는 먼저 장면을 구성하기 위한 배경영상 객체를 로딩하고, 해당 장면의 다른 구성 요소들인 객체들을 로딩한다.
재생 컨트롤러(360)는 사용자 명령에 따라 재생부(330)의 재생 동작을 제어하도록 인터페이스를 제공한다. 상기 재생 동작의 제어에는, 재생, 정지(stop), 일시 정지(pause), 앞으로 빨리 감기, 뒤로 빨리 감기, 임의 접근 등이 포함될 수 있다. 도 15는 사용자가 재생 컨트롤러(360)에 사용자 명령을 입력하기 위한 사용자 인터페이스(95) 및 동적 영상물의 재생 화면(96)의 예를 나타내는 도면이다. 이러한 인터페이스(95)를 이용하여, 사용자는 해당 동적 영상물에 대한 다양한 제어 동작을 명령할 수 있다.
이와 같이, 재생 컨트롤러(360)는 사용자로부터의 명령을 입력받을 뿐만 아니라, 재생부(330)에서 이루어지는 현재 재생 상태를 사용자에게 출력할 수도 있다. 사용자로부터 명령을 입력받거나 재생 상태를 출력하기 위하여 재생 컨트롤 러(360)는 다양한 API(application programming interface) 함수를 제공한다.
프레임 정보 파서(370)는 재생부(330)의 요청이 있는 프레임에 관한 프레임 메타정보(50)를 분석하여 재생부(360)에 제공한다. 구체적으로 프레임 정보 파서(370)는 해당 프레임에 포함되는 객체들의 식별자 및 속성을 읽어 들이고 이를 재생부(360)에 제공한다.
재생부(330)는 재생 컨트롤러(360)의 제어에 따라 동적 영상물을 프레임 단위로 재생한다. 이를 위하여, 재생부(330)는 각 프레임 단위 별로 프레임 정보 파서(370)에 의뢰하여 해당 프레임의 프레임 메타정보(50)를 제공받는다. 상기 프레임 메타정보(50)에는 해당 프레임에서 존재하는 객체들의 식별자(ID) 및 속성이 포함된다. 재생부(330)는 상기 객체들의 식별자를 객체 로더(340)에 의뢰하여 해당 객체를 읽어들인 후, 상기 읽어들인 객체들에 대응되는 속성을 적용하여 하나의 프레임 이미지(정지 영상)를 생성한다. 상기 생성된 프레임은 디스플레이부(320)로 제공되어 정해진 프레임 간격(프레임율의 역수) 동안 디스플레이부(320)를 통하여 디스플레이 된다. 재생부(330)는 이와 같이, 다양한 객체들로 구성되는 동적 영상물을 프레임화함으로써, 재생 컨트롤러(360)가 요구하는 다양한 프레임별 제어에 따른 동작을 수행할 수 있는 것이다. 재생부(330)에는 음향 객체 재생 기능이 포함되어 있어서, 시각적 객체를 프레임화하여 재생하는 동안 음향 객체를 동기화하여 스피커를 통하여 출력할 수 있다.
비디오 인코더(380)는 동적 영상물 재생 장치(300)에 있어서 부수적인 구성 요소이다. 비디오 인코더(380)는 재생부(330)에서 생성된 프레임들에 소정의 코덱 내지 압축 알고리즘(MPEG, H.264 등)을 적용하여 압축된 비디오를 간단히 생성할 수 있게 된다.
이와 같이, 본 발명의 일 실시예에 따른 동적 영상물 재생 장치(300)는 다양한 객체들로 구성된 동적 영상물을 프레임 단위로 제어할 수 있다. 단순히 픽셀 정보들만으로 구성되는 비디오 시퀀스와는 달리, 동적 영상물은 그 구성요소들의 정보가 그대로 유지되고 있다. 따라서, 상대적으로 작은 저장 용량만으로도 상기 구성요소들의 다양한 배치 및 동적 효과를 구현할 수 있으며, 복잡한 인코딩 및 디코딩 과정을 생략할 수 있다는 장점이 있다. 그러나, 종래의 동적 영상물은 프레임 단위로 제어가 어렵거나 불가능한 문제가 있었다. 본 발명에 따르면 상기 동적 영상물의 장점을 그대로 유지하면서도 프레임 단위로 재생 제어(play control)가 가능해진다.
지금까지 도 3, 도 8 및 도 14의 각 구성요소들은 메모리 상의 소정 영역에서 수행되는 태스크, 클래스, 서브 루틴, 프로세스, 오브젝트, 실행 쓰레드, 프로그램과 같은 소프트웨어(software)나, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)로 구현될 수 있으며, 또한 상기 소프트웨어 및 하드웨어의 조합으로 이루어질 수도 있다. 상기 구성요소들은 컴퓨터로 판독 가능한 저장 매체에 포함되어 있을 수도 있고, 복수의 컴퓨터에 그 일부가 분산되어 분포될 수도 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수 적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.
본 발명에 따르면, 시간, 압축방식, 파일형식 등 다양한 특성을 갖는 여러 객체로 구성된 동적 영상물을, 사용자가 프레임 단위로 실시간 제어할 수 있는 장점이 있다. 또한, 이러한 프레임 단위의 제어 기법은, 동적 영상물을 생성 또는 재생하는 장치, 상기 동적 영상물을 비디오 시퀀스로 인코딩하여 배신, 배포하는 장치 등에 응용될 수 있다.

Claims (21)

  1. 동적 영상물에 포함되는 장면들을 파악하고, 상기 장면들 중 각 장면에 포함되는 객체들 및 상기 객체들의 속성을 파악하는 스크립트 파서;
    상기 동적 영상물의 총 재생 시간 중에서 프레임화할 시간적 위치를 결정하고, 상기 장면들 중 어느 한 장면에 포함되는 상기 객체들의 속성에 따라 다른 객체들의 재생 시간을 변경하는 재생 시간 계산부; 및
    상기 시간적 위치에 존재하는 상기 객체들의 속성을 기록하고 상기 객체들 중 종속성을 갖는 객체들의 속성을 상위 객체들의 속성으로 더 기록하는 프레임 정보 기록부를 포함하는, 동적 영상물의 프레임 정보를 생성하는 장치.
  2. 제1항에 있어서, 상기 재생 시간 계산부는
    소정의 프레임율을 근거로 상기 시간적 위치를 결정하는, 동적 영상물의 프레임 정보를 생성하는 장치.
  3. 제1항에 있어서, 상기 프레임 정보 기록부는
    상기 객체들의 속성을 프레임 단위로 기록하는, 동적 영상물의 프레임 정보를 생성하는 장치.
  4. 삭제
  5. 제1항에 있어서, 상기 객체들의 속성은
    동적 영상물의 동적 효과를 정의하는 실행 모듈로부터 얻어지는, 동적 영상물의 프레임 정보를 생성하는 장치.
  6. 제1항에 있어서, 상기 속성은
    상기 객체들의 가로 위치, 세로 위치, 가로 크기, 세로 크기, 깊이, 회전 각도 및 투명도 중 적어도 하나 이상을 포함하는, 동적 영상물의 프레임 정보를 생성하는 장치.
  7. 제1항에 있어서, 상기 객체들은
    사진, 음향, 비디오 시퀀스, 배경영상 이미지, 스티커, 자막 중 적어도 하나 이상을 포함하는, 동적 영상물의 프레임 정보를 생성하는 장치.
  8. 프레임 별로 기록된 객체들의 속성을 읽어 들이는 프레임 정보 파서;
    저장된 객체들 중 상기 기록된 객체들을 로딩하는 객체 로더; 및
    상기 로딩된 객체들에 대응되는 상기 속성을 적용하여 프레임 이미지를 생성하고 상기 생성된 프레임 이미지를 디스플레이하는 재생부를 포함하고,
    상기 객체들 중 종속성을 갖는 객체들의 속성에 대해 상위 객체들의 속성이 더 기록되며, 상기 생성된 프레임 이미지를 포함하는 동적 영상물 내 어느 한 장면에 포함되는 객체들의 속성에 따라 다른 객체들의 재생 시간을 변경하는 경우에 변경된 각 객체의 재생 시간에 의해 상기 생성된 프레임 이미지를 디스플레이하는 동적 영상물을 재생하는 장치.
  9. 제8항에 있어서,
    사용자의 명령에 따라서 상기 재생부의 재생 동작을 제어하는 재생 컨트롤러를 더 포함하는, 동적 영상물을 재생하는 장치.
  10. 제9항에 있어서,
    상기 재생 동작의 제어는
    재생, 정지, 일시 정지, 앞으로 빨리 감기, 뒤로 빨리 감기 및 임의 접근 중 적어도 하나를 포함하는, 동적 영상물을 재생하는 장치.
  11. 제8항에 있어서,
    상기 생성된 프레임 이미지를 압축 알고리즘으로 인코딩하는 비디오 인코더를 더 포함하는, 동적 영상물을 재생하는 장치.
  12. 제8항에 있어서, 상기 속성은
    상기 객체들의 가로 위치, 세로 위치, 가로 크기, 세로 크기, 깊이, 회전 각도 및 투명도 중 적어도 하나 이상을 포함하는, 동적 영상물을 재생하는 장치.
  13. 제8항에 있어서, 상기 객체들은
    사진, 음향, 비디오 시퀀스, 배경영상 이미지, 스티커, 자막 중 적어도 하나 이상을 포함하는, 동적 영상물을 재생하는 장치.
  14. 동적 영상물에 포함되는 장면들을 파악하고, 상기 장면들 중 각 장면에 포함되는 객체들 및 상기 객체들의 속성을 파악하는 단계;
    상기 동적 영상물의 총 재생 시간 중에서 프레임화할 시간적 위치를 결정하며, 상기 시간적 위치를 결정하는 경우 상기 장면들 중 어느 한 장면에 포함되는 상기 객체들의 속성에 따라 다른 객체들의 재생 시간을 변경하는 단계; 및
    상기 시간적 위치에 존재하는 상기 객체들의 속성을 기록하고 상기 객체들 중 종속성을 갖는 객체들의 속성을 상위 객체들의 속성으로 더 기록하는 단계;를 포함하는, 동적 영상물의 프레임 정보를 생성하는 방법.
  15. 제14항에 있어서, 시간적 위치는
    소정의 프레임율을 근거로 결정되는, 동적 영상물의 프레임 정보를 생성하는 방법.
  16. 제14항에 있어서, 상기 객체들의 속성은
    프레임 단위로 기록되는, 동적 영상물의 프레임 정보를 생성하는 방법.
  17. 삭제
  18. 프레임 별로 기록된 객체들의 속성을 읽어 들이는 단계;
    저장된 객체들 중 상기 기록된 객체들을 로딩하는 단계;
    상기 로딩된 객체들에 대응되는 상기 속성을 적용하여 프레임 이미지를 생성하는 단계; 및
    상기 생성된 프레임 이미지를 디스플레이하는 단계를 포함하고,
    상기 객체들 중 종속성을 갖는 객체들의 속성에 대해 상위 객체들의 속성이 더 기록되며, 상기 생성된 프레임 이미지를 포함하는 동적 영상물 내 어느 한 장면에 포함되는 객체들의 속성에 따라 다른 객체들의 재생 시간을 변경하는 경우에 변경된 각 객체의 재생 시간에 의해 상기 생성된 프레임 이미지를 디스플레이하는 동적 영상물을 재생하는 방법.
  19. 제18항에 있어서,
    사용자의 명령에 따라서 상기 디스플레이하는 동작을 제어하는 단계를 더 포함하는, 동적 영상물을 재생하는 방법.
  20. 제19항에 있어서,
    상기 동작의 제어는
    재생, 정지, 일시 정지, 앞으로 빨리 감기, 뒤로 빨리 감기 및 임의 접근 중 적어도 하나를 포함하는, 동적 영상물을 재생하는 방법.
  21. 제18항에 있어서,
    상기 생성된 프레임 이미지를 압축 알고리즘으로 인코딩하는 비디오 인코더를 더 포함하는, 동적 영상물을 재생하는 방법.
KR1020060117796A 2006-11-27 2006-11-27 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치 KR101317204B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020060117796A KR101317204B1 (ko) 2006-11-27 2006-11-27 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치
US11/889,189 US8559792B2 (en) 2006-11-27 2007-08-09 System, method and medium generating frame information for moving images
EP20090177641 EP2154685A3 (en) 2006-11-27 2007-11-16 System, method and medium generating frame information for moving images
EP20070120885 EP1926105A1 (en) 2006-11-27 2007-11-16 System, method and medium generating frame information for moving images
CN2007101693784A CN101193250B (zh) 2006-11-27 2007-11-26 产生运动图像的帧信息的***和方法
JP2007305303A JP5522894B2 (ja) 2006-11-27 2007-11-27 動画のフレーム情報を生成する装置及び方法並びに動画を再生する装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060117796A KR101317204B1 (ko) 2006-11-27 2006-11-27 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치

Publications (2)

Publication Number Publication Date
KR20080047845A KR20080047845A (ko) 2008-05-30
KR101317204B1 true KR101317204B1 (ko) 2013-10-10

Family

ID=39145205

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060117796A KR101317204B1 (ko) 2006-11-27 2006-11-27 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치

Country Status (5)

Country Link
US (1) US8559792B2 (ko)
EP (2) EP2154685A3 (ko)
JP (1) JP5522894B2 (ko)
KR (1) KR101317204B1 (ko)
CN (1) CN101193250B (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349227B1 (ko) * 2010-03-29 2014-02-11 한국전자통신연구원 멀티미디어 시스템에서 객체 정보 제공 장치 및 방법
JP2012217144A (ja) * 2011-03-30 2012-11-08 Panasonic Corp 画像編集装置、画像編集方法、およびプログラム
CN103177465B (zh) * 2011-12-26 2016-04-13 腾讯科技(深圳)有限公司 动画控制方法及***
CN102682461B (zh) * 2012-04-28 2015-12-09 Tcl集团股份有限公司 一种动画渲染方法、***及动画播放器
KR102069538B1 (ko) * 2012-07-12 2020-03-23 삼성전자주식회사 멀티미디어 요소의 배치를 위한 마크업을 구성하는 방법
KR102127351B1 (ko) * 2013-07-23 2020-06-26 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
CN103475882B (zh) * 2013-09-13 2017-02-15 北京大学 监控视频的编码、识别方法和监控视频的编码、识别***
JP2015060211A (ja) * 2013-09-20 2015-03-30 カシオ計算機株式会社 投影装置、プログラム及び投影制御方法
WO2016024782A1 (ko) * 2014-08-11 2016-02-18 서장원 터치입력에 반응하는 3d 인터랙티브 무비 뷰어를 이용한 동영상 재생 방법 및 동영상을 재생하면서 애니메이션을 추가하는 방법
KR101595663B1 (ko) * 2014-11-04 2016-02-18 서장원 터치입력에 반응하는 3d 인터랙티브 무비 뷰어를 이용하여 동영상을 재생하면서 애니메이션을 추가하는 방법
KR101750060B1 (ko) * 2015-08-13 2017-06-22 이철우 반응형 영상 생성방법 및 생성프로그램
JP5946007B1 (ja) * 2015-12-17 2016-07-05 森田 孝 小画像集合体プログラム
KR102051981B1 (ko) * 2016-09-07 2019-12-04 이철우 다차원 반응형 영상 생성장치, 방법 및 프로그램, 및 다차원 반응형 영상 재생방법 및 프로그램
EP3310053A1 (en) * 2016-10-12 2018-04-18 Thomson Licensing Method and apparatus for coding transparency information of immersive video format
CN106331834B (zh) * 2016-10-20 2020-02-07 腾讯音乐娱乐(深圳)有限公司 一种多媒体数据处理方法及其设备
CN106649541A (zh) * 2016-10-26 2017-05-10 广东小天才科技有限公司 一种动画播放、生成方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020129384A1 (en) 2000-12-01 2002-09-12 Thierry Planterose Method and device for video scene composition from varied data
JP2002335442A (ja) 2001-05-11 2002-11-22 Nippon Hoso Kyokai <Nhk> シーン記述プログラム
US20030146915A1 (en) 2001-10-12 2003-08-07 Brook John Charles Interactive animation of sprites in a video production

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06121263A (ja) 1992-10-08 1994-04-28 Sony Corp 映像信号の記録方法
JP4214425B2 (ja) 1997-09-30 2009-01-28 ソニー株式会社 画像抜き出し装置および画像抜き出し方法、画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、画像記録装置および画像記録方法、画像再生装置および画像再生方法、並びに記録媒体
JP4154047B2 (ja) * 1998-11-06 2008-09-24 キヤノン株式会社 映像処理装置及び映像処理方法
JP2001309369A (ja) * 2000-04-21 2001-11-02 Toshiba Corp 動画合成表示システム及び方法並びに記憶媒体
KR20030025771A (ko) 2001-09-21 2003-03-29 주식회사 자이닉스 인터넷상의 교육용 컨텐츠 제공 시스템 및 그 방법
JPWO2003088665A1 (ja) * 2002-04-12 2005-08-25 三菱電機株式会社 メタデータ編集装置、メタデータ再生装置、メタデータ配信装置、メタデータ検索装置、メタデータ再生成条件設定装置、及びメタデータ配信方法
JP4003940B2 (ja) * 2002-06-07 2007-11-07 日本放送協会 映像関連コンテンツ生成装置、映像関連コンテンツ生成方法及び映像関連コンテンツ生成プログラム
JP3971346B2 (ja) * 2002-06-24 2007-09-05 株式会社東芝 動画像再生装置、スケジュール・データ、動画像再生方法、及びプログラム
JP2004145650A (ja) 2002-10-24 2004-05-20 Sharp Corp コンテンツ生成データのデータ構造、コンテンツ生成装置、コンテンツ生成システム、コンテンツ生成方法、およびコンテンツ生成プログラム
KR20040079490A (ko) 2003-03-07 2004-09-16 김효한 멀티미디어전자책용 파일제작방법
JP2005322097A (ja) * 2004-05-11 2005-11-17 Nippon Telegr & Teleph Corp <Ntt> 対象物像モデルのアニメーション表示装置、対象物像モデルのアニメーション表示方法および対象物像モデルのアニメーション表示プログラム
KR20050108677A (ko) 2004-05-13 2005-11-17 주식회사 한국인터넷데이터센터 플래시를 동적으로 생성 및 관리하기 위한 방법 및 이를위한 기록매체
JP2006014008A (ja) 2004-06-28 2006-01-12 Ricoh Co Ltd 呼出システム及び呼出方法
KR20040072522A (ko) 2004-07-19 2004-08-18 박광현 동영상 컨텐츠를 이용한 카테고리별 동영상 카드메일(e-mail), 모바일(핸드폰) 동영상 SMS 서비스와합성동영상 카드 메일(e-mail), 모바일(핸드폰) 동영상SMS 서비스 및 이를 활용한 동영상 스튜디오 기기 서비스및 동영상 컨텐츠 클립 다운로드 서비스 방법
JP4552005B2 (ja) 2006-05-31 2010-09-29 株式会社ヤッパ 電子新聞表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020129384A1 (en) 2000-12-01 2002-09-12 Thierry Planterose Method and device for video scene composition from varied data
JP2002335442A (ja) 2001-05-11 2002-11-22 Nippon Hoso Kyokai <Nhk> シーン記述プログラム
US20030146915A1 (en) 2001-10-12 2003-08-07 Brook John Charles Interactive animation of sprites in a video production

Also Published As

Publication number Publication date
EP1926105A1 (en) 2008-05-28
CN101193250A (zh) 2008-06-04
KR20080047845A (ko) 2008-05-30
US8559792B2 (en) 2013-10-15
US20080124045A1 (en) 2008-05-29
EP2154685A3 (en) 2010-12-08
JP5522894B2 (ja) 2014-06-18
EP2154685A2 (en) 2010-02-17
JP2008136213A (ja) 2008-06-12
CN101193250B (zh) 2012-05-02

Similar Documents

Publication Publication Date Title
KR101317204B1 (ko) 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치
KR100827241B1 (ko) 동적 영상물을 생성하기 위한 템플릿을 편집하는 장치 및방법
KR20080047847A (ko) 동적 영상물 재생 장치 및 방법
US8799757B2 (en) Synchronization aspects of interactive multimedia presentation management
US7721308B2 (en) Synchronization aspects of interactive multimedia presentation management
JP3892342B2 (ja) ビデオプロジェクトを編集するためのビデオ編集方法および装置
US9754625B2 (en) Generation and use of user-selected scenes playlist from distributed digital content
KR101183383B1 (ko) 상호작용 멀티미디어 프리젠테이션 관리의 동기화 양태
KR101952260B1 (ko) 다수의 동영상 썸네일을 동시에 표시하기 위한 영상 재생 장치 및 방법
KR20080019255A (ko) 상호작용 멀티미디어 프리젠테이션을 위한 상태 기초타이밍
RU2355050C2 (ru) Носитель для записи информации, устройство и способ записи информации, устройство и способ воспроизведения информации, устройство и способ записи и воспроизведения информации
JP4555214B2 (ja) 情報提示装置、情報提示方法、情報提示プログラム及び情報記録媒体
US20050265692A1 (en) Apparatus, method, and program for image reproduction
US6697563B1 (en) Information recording medium, motion-picture voice recording/reproducing apparatus, and motion-picture voice recording/reproducing method
KR20080104415A (ko) 동영상 편집 시스템 및 방법과 그 방법을 구현한프로그램이 기록된 기록매체
JP2012253559A (ja) 録画再生システム及びその処理方法
US20070006062A1 (en) Synchronization aspects of interactive multimedia presentation management
US11895377B1 (en) Systems and methods for presenting videos
US20230377606A1 (en) Video editing projects using single bundled video files
JP2022126153A (ja) 編集処理装置、及び編集処理プログラム
JP2012161019A (ja) 映像再生装置、映像再生方法及び映像再生プログラム
JP2009290484A (ja) 情報処理装置及び情報処理方法
JP2008011415A (ja) 映像記録装置及び映像記録方法
KR20070002834A (ko) 디지털 녹화기의 녹화 목록 표시 방법
JP2006108925A (ja) 再生装置、再生方法、及び制御プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160929

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170927

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180921

Year of fee payment: 6