KR101718373B1 - 비디오 재생 방법, 단말 및 시스템 - Google Patents

비디오 재생 방법, 단말 및 시스템 Download PDF

Info

Publication number
KR101718373B1
KR101718373B1 KR1020157017260A KR20157017260A KR101718373B1 KR 101718373 B1 KR101718373 B1 KR 101718373B1 KR 1020157017260 A KR1020157017260 A KR 1020157017260A KR 20157017260 A KR20157017260 A KR 20157017260A KR 101718373 B1 KR101718373 B1 KR 101718373B1
Authority
KR
South Korea
Prior art keywords
interest
playback
video
image
region
Prior art date
Application number
KR1020157017260A
Other languages
English (en)
Other versions
KR20150090223A (ko
Inventor
룽후이 허
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20150090223A publication Critical patent/KR20150090223A/ko
Application granted granted Critical
Publication of KR101718373B1 publication Critical patent/KR101718373B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19669Event triggers storage or change of storage policy
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • H04N9/78Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase for separating the brightness signal or the chrominance signal from the colour television signal, e.g. using comb filter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Library & Information Science (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은 비디오 재생 방법, 장치 및 시스템을 개시한다. 이 방법은 원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하는 단계; 상기 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하는 단계; 상기 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하는 단계; 및 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 단계를 포함한다. 본 발명의 실시예에 따른 비디오 재생 방법, 장치 및 시스템을 이용함으로써, 원래의 재생 이미지는 복수의 관심 영역으로 분할되고, 트리거링 이벤트가 발생한 관심 영역 내의 이미지는 개별적으로 디스플레이된다.

Description

비디오 재생 방법, 단말 및 시스템{VIDEO PLAY METHOD, TERMINAL, AND SYSTEM}
본 발명은 비디오 감시 분야에 관한 것으로서, 구체적으로, 비디오 감시 분야에서의 비디오 재생 방법, 단말 및 시스템에 관한 것이다.
(관련출원의 상호 참조)
본 출원은 2012년 12월 25일 출원된 국제출원 PCT/CN2012/087391에 기초한 출원으로서, 위 국제출원의 모든 내용은 본 출원에 원용된다.
최근에 비디오 감시 분야에서는 고화질 비디오가 중요한 기술 동향이 되어 왔고, 해상도가 720p 또는 1080p인 카메라가 비디오 감시 분야에서 점점 더 널리 적용되고 있다. 카메라 해상도의 지속적인 증가와 함께, 단일 카메라가 모니터링할 수 있는 범위가 점점 더 넓어지고 있으며, 이미지의 세부 사항(details)이 명확해지고; 동시에, 비디오 이미지에 대한 지능적 분석(intelligent analysis) 기술이 점차적으로 실행에 옮겨지고 있다. 하드웨어 장치의 기술 개발과 더불어, 하드웨어 성능은 동일한 이미지 내에서 복수의 관심 영역 상에 지능적 분석을 수행하기 위한 요건을 만족할 수 있어 왔기 때문에, 수동적인 감시와 비교할 때 비용이 현저하게 감소되었다.
종래의 비디오 감시 클라이언트는 다수의 카메라로부터의 비디오 이미지를 동시에 재생하였다. 그러나, 비디오 이미지 해상도의 증가와 더불어, 다수의 카메라로부터의 비디오 이미지의 전체 해상도는 종종 클라이언트의 모니터의 해상도 범위를 뛰어 넘게 되었다. 22인치 디스플레이를 예로 들면, 디스플레이는 일반적으로 최대 1920*1080의 해상도를 지원하는데, 이는 즉, 이 디스플레이는 하나의 피드(feed)로부터 1080p의 이미지만을 재생하도록 허용된 것이라는 의미이다. 1080p의 이미지의 다수의 피드가 모니터 상에서 동시에 재생되면, 이미지는 줌아웃(zoom out)되어야 한다. 또한 재생창에 더하여, 전형적인 비디오 감시 클라이언트의 인터페이스 상에는, 타이틀 바(title bar), 카메라 목록 및 팬-틸트-줌 제어 패널(pan-tilt-zoom control panel) 등, 다수의 감시 기능 패널이 존재할 수 있으며, 이는 비디오 이미지의 디스플레이 영역을 더 감소시킨다. 따라서, 재생창 내에서 재생될 수 있는 이미지는 원래의 이미지보다 훨씬 작아진다.
특히, 이벤트(예를 들어, 지능적 분석에 의해 트리거링되는 이벤트)가 비디오 이미지 내에서 발생하면, 재생 동안 이미지가 축소되기(downsize) 때문에, 이벤트가 발생한 이미지의 영역은 더 작아지고, 이는 사용자의 뷰(view)를 불편하게 한다. 감시 직원(observation personnel) 육안으로 이미지를 모니터링하는 경우, 감시 직원이 상세한 변화를 알아채기가 힘들기 때문에, 결과적으로 주요 정보는 놓치게 된다.
최근에 대부분의 클라이언트는 이미지의 선택 영역 내에서의 주밍(zooming) 기능을 제공한다. 즉, 마우스를 슬라이딩함으로써 비디오 재생 이미지의 영역이 선택되고, 선택된 영역이 줌인(zoom in)됨으로써, 관심 영역의 이미지 품질을 어느 정도까지는 향상시킬 수 있다. 그러나, 비디오 이미지의 디지털 주밍은 일부 픽셀 정보의 손상을 야기하며, 이에 따라 이미지 품질에 영향을 미치고, 이미지의 세부 사항에 대한 사용자의 관찰의 효과에도 영향을 미친다. 또한, 선택된 영역에서 주밍 기능이 사용되면, 일면으로는, 사용자에 의한 수동적 동작이 요구되고, 이벤트가 갑자기 발생하는 경우에 사용자는 어떠한 동작도 수행할 시간을 가질 수 없을 것이기 때문에, 이벤트를 놓치게 되며; 다른 일면으로는, 이벤트가 이미지의 상이한 영역에서 발생하면, 여러 영역에서 동시에 주밍하는 것은 불가능하다. 따라서 사용자 경험이 상대적으로 열악하다.
본 발명의 실시예는 사용자 경험을 향상시킬 수 있는 비디오 재생 방법, 단말 및 시스템을 제공한다.
제1 양상으로서, 본 발명의 일 실시예는 비디오 재생 방법을 제공하며, 이 방법은, 원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하는 단계; 상기 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트(triggering event)가 발생하는 제1 관심 영역을 결정하는 단계; 상기 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하는 단계; 및 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창(playback window)에 렌더링(rendering)하는 단계를 포함한다.
제1 양상의 제1 구현 가능 방식으로, 위 방법은, 상기 적어도 두 개의 관심 영역의 각 영역과 상기 특정 재생창 간의 대응관계(correspondence)를 판정하는 단계를 더 포함하고, 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 단계는, 상기 대응관계에 따라, 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 상기 제1 관심 영역에 대응되는 특정 재생창에 렌더링하는 단계를 포함한다.
제1 양상 또는 제1 양상의 제1 구현 가능 방식을 토대로, 제1 양상의 제2 구현 가능 방식으로는, 상기 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하는 단계가, 상기 원래의 재생 이미지 내의 관심 영역 상에서 사용자에 의해 수행된 트리거링 동작을 판정하는 단계; 및 상기 트리거링 동작이 수행된 관심 영역을 제1 관심 영역으로 결정하는 단계를 포함하고, 여기서 상기 트리거링 동작은, 클릭 동작, 더블-클릭 동작 또는 관심 영역을 선택하는 동작을 포함한다.
제1 양상 또는 제1 양상의 제1 구현 가능 방식을 토대로, 제1 양상의 제3 구현 가능 방식으로는, 상기 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하는 단계가, 상기 원래의 재생 이미지 내의 트리거링 이벤트 발생 지점의 좌표 메타데이터를 획득하는 단계; 및 상기 좌표 메타데이터에 따라, 상기 트리거링 이벤트 발생 지점이 속한 관심 영역을 상기 제1 관심 영역으로 결정하는 단계를 포함한다.
제1 양상, 또는 제1 양상의 제1 내지 제3 구현 가능 방식 중 어느 하나를 토대로, 제1 양상의 제4 구현 가능 방식으로는, 상기 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하는 단계가, 상기 원래의 재생 이미지의 디코딩된 데이터를 획득하는 단계; 및 상기 원래의 재생 이미지의 디코딩된 데이터에 따라 상기 제1 비디오 이미지의 디코딩된 데이터를 결정하는 단계를 포함한다.
제1 양상, 또는 제1 양상의 제1 내지 제4 구현 가능 방식 중 어느 하나를 토대로, 제1 양상의 제5 구현 가능 방식으로는, 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 단계가, 상기 제1 비디오 이미지의 디코딩된 데이터를 줌인(zoom-in) 방식으로 재생하기 위해 상기 특정 재생창에 렌더링하는 단계를 포함하며, 이 때 상기 특정 재생창이 상기 제1 관심 영역보다 크다.
제1 양상, 또는 제1 양상의 제1 내지 제5 구현 가능 방식 중 어느 하나를 토대로, 제1 양상의 제6 구현 가능 방식으로는, 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 단계가, 독립적인 재생창을 디스플레이하는 단계; 및 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 상기 독립적인 재생창에 렌더링하는 단계를 포함한다.
제2 양상으로서, 본 발명의 일 실시예는 비디오 재생 단말을 제공하며, 이 단말은, 원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하도록 구성된 분할 모듈; 상기 분할 모듈에 의해 표시된(marked out) 상기 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하도록 구성된 제1 결정 모듈; 상기 제1 결정 모듈에 의해 결정된 상기 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하도록 구성된 획득 모듈; 및 상기 획득 모듈에 의해 획득된 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하도록 구성된 재생 모듈을 포함한다.
제2 양상의 제1 구현 가능 방식으로, 위 단말은 상기 적어도 두 개의 관심 영역의 각 영역과 상기 특정 재생창 간의 대응관계를 판정하도록 구성된 제2 결정 모듈을 더 포함하고, 상기 재생 모듈은, 상기 제2 결정 모듈에 의해 판정된 상기 대응관계에 따라, 상기 획득 모듈에 의해 획득된 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 상기 제1 관심 영역에 대응되는 특정 재생창에 렌더링하도록 더 구성된다.
제2 양상 또는 제2 양상의 제1 구현 가능 방식을 토대로, 제2 양상의 제2 구현 가능 방식에서는, 상기 원래의 재생 이미지 내의 관심 영역 상에서 사용자에 의해 수행된 트리거링 동작을 판정하도록 구성된 제1 결정 유닛; 및 상기 제1 결정 유닛에 의해 판정된 상기 트리거링 동작이 수행된 관심 영역을 제1 관심 영역으로 결정하는 제2 결정 유닛을 포함하고, 상기 트리거링 동작은, 클릭 동작, 더블-클릭 동작 또는 관심 영역을 선택하는 동작을 포함한다.
제2 양상 또는 제2 양상의 제1 구현 가능 방식을 토대로, 제2 양상의 제3 구현 가능 방식에서는, 상기 제1 결정 모듈이, 상기 원래의 재생 이미지 내의 트리거링 이벤트 발생 지점의 좌표 메타데이터를 획득하도록 구성된 제1 획득 유닛; 및 상기 제1 획득 유닛에 의해 획득된 상기 좌표 메타데이터에 따라, 상기 트리거링 이벤트 발생 지점이 속한 관심 영역을 상기 제1 관심 영역으로 결정하도록 구성된 제3 결정 유닛을 포함한다.
제2 양상, 또는 제2 양상의 제1 내지 제3 구현 가능 방식 중 어느 하나를 토대로, 제2 양상의 제4 구현 가능 방식에서는, 상기 획득 모듈이, 상기 원래의 재생 이미지의 디코딩된 데이터를 획득하도록 구성된 제2 획득 유닛; 및 상기 제2 획득 유닛에 의해 획득된 상기 원래의 재생 이미지의 디코딩된 데이터에 따라 상기 제1 비디오 이미지의 디코딩된 데이터를 결정하도록 구성된 제3 결정 유닛을 포함한다.
제2 양상, 또는 제2 양상의 제1 내지 제4 구현 가능 방식 중 어느 하나를 토대로, 제2 양상의 제5 구현 가능 방식에서, 상기 재생 모듈은, 상기 제1 비디오 이미지의 디코딩된 데이터를 줌인 방식으로 재생하기 위해 상기 특정 재생창에 렌더링하도록 더 구성되며, 상기 특정 재생창은 상기 제1 관심 영역보다 크다.
제2 양상, 또는 제2 양상의 제1 내지 제5 구현 가능 방식 중 어느 하나를 토대로, 제2 양상의 제6 구현 가능 방식에서는, 상기 재생 모듈이, 독립적인 재생창을 디스플레이하도록 구성된 디스플레이 유닛; 및 상기 제1 비디오 이미지의 디코딩된 데이터를 상기 디스플레이 유닛에 의해 디스플레이되는 상기 독립적인 재생창에 렌더링하도록 구성된 재생 유닛을 포함한다.
제3 양상으로서, 본 발명의 일 실시예는 비디오 재생 시스템을 제공하며, 이 시스템은, 제2 양상에 따른 상기 단말; 비디오 이미지를 캡쳐하고(capture), 상기 비디오 이미지를 인코딩함으로써 미디어 스트림을 생성하도록 구성된 비디오 캡쳐링 시스템; 상기 비디오 캡쳐링 시스템에 의해 생성되는 비디오 스트림을 획득하고, 상기 단말을 위해 상기 미디어 스트림을 제공하도록 구성된 서버; 및 상기 서버에 의해 획득되는 상기 미디어 스트림을 저장하도록 구성된 저장 디바이스를 포함한다.
상술한 기술적 해결책에 기초하여, 본 발명의 실시예에 따른 비디오 재생 방법, 단말 및 시스템을 이용함으로써, 원래의 재생 이미지는 복수의 관심 영역으로 분할되고, 트리거링 이벤트가 발생한 관심 영역 내의 이미지는 개별적으로 디스플레이된다. 따라서, 일면으로는, 사용자가 관심 영역 내의 이미지 세부 사항을 보다 명확하게 관찰할 수 있고, 다른 일면으로는, 사용자가 복수의 관심 영역 내의 이미지 세부 사항을 동시에 추적할 수 있음으로써, 사용자 경험이 현저하게 향상된다.
본 발명의 실시예에서의 기술적 해결책을 보다 명확하게 설명하기 위해, 이하에서는 본 발명의 실시예를 설명하기 위해 필요한 첨부 도면들을 간략하게 소개한다. 명확하게는, 이하 설명에서의 첨부 도면들은 본 발명의 일부 실시예만을 보여주는 것일 뿐이며, 통상의 기술자는 창조의 수고 없이 이 첨부 도면들로부터 다른 도면들을 도출해낼 수 있다.
도 1은 본 발명의 일 실시예에 따른 예시적 적용 시나리오의 모식적 구조도이다.
도 2는 본 발명의 일 실시예에 따른 비디오 재생 방법의 모식적 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 비디오 재생 방법의 다른 모식적 흐름도이다.
도 4는 본 발명의 일 실시예에 따라 원래의 재생 이미지를 관심 영역으로 분할하는 방법의 모식적 흐름도이다.
도 5는 본 발명의 일 실시예에 따라 원래의 재생 이미지를 관심 영역으로 분할하는 방법의 다른 모식적 흐름도이다.
도 6은 본 발명의 일 실시예에 따라 트리거링 이벤트가 발생하는 관심 영역을 결정하는 방법의 모식적 흐름도이다.
도 7은 본 발명의 일 실시예에 따라 트리거링 이벤트가 발생하는 관심 영역을 결정하는 방법의 다른 모식적 흐름도이다.
도 8은 본 발명의 일 실시예에 따라 관심 영역의 디코딩된 데이터를 획득하는 방법의 모식적 흐름도이다.
도 9는 본 발명의 일 실시예에 따라 관심 영역 내에서 이미지를 재생하는 방법의 모식적 흐름도이다.
도 10은 본 발명의 다른 일 실시예에 따른 비디오 재생 방법의 모식적 흐름도이다.
도 11a 및 도 11b는 본 발명의 다른 일 실시예에 따른 비디오 재생 방법의 두 가지 모식적 흐름도이다.
도 12a 및 도 12b는 본 발명의 일 실시예에 따른 관심 영역의 재생의 모식도이다.
도 13은 본 발명의 일 실시예에 따른 단말의 모식적 블록도이다.
도 14는 본 발명의 일 실시예에 따른 단말의 다른 모식적 블록도이다.
도 15는 본 발명의 일 실시예에 따른 제1 결정 모듈의 모식적 블록도이다.
도 16은 본 발명의 일 실시예에 따른 제1 결정 모듈의 다른 모식적 블록도이다.
도 17은 본 발명의 일 실시예에 따른 획득 모듈의 모식적 블록도이다.
도 18은 본 발명의 일 실시예에 따른 재생 모듈의 모식적 블록도이다.
도 19는 본 발명의 일 실시예에 따른 시스템의 모식적 블록도이다.
도 20은 본 발명의 다른 일 실시예에 따른 단말의 모식적 블록도이다.
이하에서는 본 발명의 실시예에 대한 첨부 도면들을 기준으로 본 발명의 실시예에서의 기술적 해결책을 명확하게 설명한다. 명확하게는, 본 발명의 실시예 전부가 아닌 일부에 불과하다. 본 발명의 실시예들에 기초하여 통상의 기술자가 창조의 수고 없이 도출할 수 있는 다른 모든 실시예들은 본 발명의 보호 범위 내에 포함될 것이다.
도 1은 본 발명에 따른 예시적 적용 시나리오의 모식적 구조도이다. 도 1에 도시된 바와 같이, 본 발명의 실시예가 적용될 수 있는 비디오 감시(video surveillance) 시스템은, 비디오 캡쳐 디바이스(video capturing device), 중앙 서버(central server), 저장 디바이스(storage device) 및 클라이언트를 수반한 단말(a terminal with a client)을 포함할 수 있으며, 여기서 비디오 캡쳐 디바이스는, 비디오 이미지를 캡쳐하는 데에 사용될 수 있고, 네트워크를 통해 비디오 이미지를 전송하기 위해, 비디오 이미지를 인코딩하여 미디어 스트림(media stream)을 생성할 수 있다. 예를 들어, 비디오 캡쳐 디바이스는, 네트워크 카메라, 아날로그 카메라, 인코더 및 디지털 비디오 리코더(digital video recorder, 줄여서 ‘DVR’이라 함)와 같은 디바이스들을 포함할 수 있다. 중앙 서버에 연결된 이후에, 단말의 클라이언트는, 비디오 스트림을 요청하고, 그 비디오 스트림을 디코딩 및 디스플레이하여, 현장의(onsite) 비디오 이미지를 사용자에게 보여줄 수 있다.
중앙 서버는 관리 서버 및 미디어 서버를 포함할 수 있으며, 미디어 서버는, 미디어 스트림을 수신하고, 저장 디바이스 내의 미디어 스트림의 데이터를 기록 및 저장하고, 주문형 재생을 위해 클라이언트에게 미디어 스트림을 포워딩(forwarding)하는 역할을 할 수 있고; 관리 서버는, 사용자 로그인, 인증 및 서비스 스케쥴링(scheduling) 등의 기능을 담당할 수 있고; 중앙 서버는 또한, 다수의 클라이언트에 의해 액세스될 수 있고, 다양한 비디오 감시 시스템 간의 네트워크 연결을 관리하는 것 등이 가능하다. 저장 디바이스는, 예컨대, 디스크 어레이(disk array)일 수 있고, 디스크 어레이는 비디오 데이터를 저장하는 역할을 할 수 있으며, 비디오 데이터를 저장하기 위해 NAS(network attached storage), SAN(storage area network) 또는 서버 그 자체를 이용할 수 있다.
도 1에 도시된 비디오 감시 시스템은 본 발명의 방법이 적용될 수 있는 일 실시예에 불과하며 본 발명의 목적과 기능을 제한하도록 의도된 것이 아님을 이해해야 한다. 본 발명은 도 1에 도시된 비디오 감시 시스템의 구성 중 어느 하나 또는 임의의 조합에 관한 요구에 따라 설명되어서는 안 된다. 그러나 본 발명에 대해 보다 명확하게 설명하기 위해, 이하에서 본 발명의 실시예들은 비디오 감시 시스템의 적용 시나리오를 예시로 들어 설명하는 것일 뿐 본 발명은 이에 한정되지 않는다.
본 발명의 실시예에서의 비디오 데이터 전송을 위한 기술적 해결책은, 예컨대, GSM(Global System for Mobile Communications) 시스템, CDMA(Code Division Multiple Access) 시스템, WCDMA(Wideband Code Division Multiple Access) 시스템, GPRS(general packet radio service) 시스템, LTE(a Long Term Evolution) 시스템, LTE FDD(LTE frequency division duplex) 시스템, LTE TDD(time division duplex) 시스템, UMTS(Universal Mobile Telecommunication System), 또는 WiMAX( Worldwide Interoperability for Microwave Access) 통신 시스템 등의 다양한 통신 네트워크 또는 통신 시스템을 이용할 수 있다는 점 또한 이해되어야 한다. 본 발명의 실시예가 이에 한정되는 것은 아니다.
도 2는 본 발명의 일 실시예에 따른 비디오 재생 방법(100)의 모식적 흐름도이다. 이 방법(100)은 비디오 재생 장치에 의해 실행될 수 있으며, 여기서의 장치는, 예컨대, 단말 또는 클라이언트이다. 도 2에 도시된 바와 같이 본 방법(100)은 이하의 단계를 포함한다.
단계 S110: 원래의 재생 이미지를 적어도 두 개의 관심 영역(regions of interest)으로 분할한다(divide).
단계 S120: 적어도 두 개의 관심 영역 중에서, 트리거링(triggering) 이벤트가 발생하는 제1 관심 영역을 결정한다.
단계 S130: 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득한다.
단계 S140: 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창(specified playback window)에 렌더링한다(render).
재생 비디오의 이미지 품질에 영향을 미치지 않기 위해, 또 이미지 세부 사항에 대한 사용자 관찰의 효과를 향상시키기 위해, 구체적으로 다수의 비디오 이미지가 줌아웃 방식으로 동일한 창 내에 디스플레이되는 경우, 비디오 재생 장치는 먼저 원래의 재생 이미지를 복수의 관심 영역으로 분할하고, 트리거링 이벤트가 발생하는 관심 영역 내에 디스플레이된 비디오 이미지의 디코딩된 데이터를 획득하며; 이로써 비디오 재생 장치는 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 독립된 특정 재생창에 렌더링할 수 있다. 이에 따라, 사용자가 관심을 갖는 이미지 세부 사항은 독립된 창에 디스플레이될 수 있으며, 이미지 세부사항에 대한 사용자 관찰의 효과가 향상된다.
따라서, 본 발명의 실시예에 따른 비디오 재생 방법은 원래의 재생 이미지를 복수의 관심 영역으로 분할하고, 트리거링 이벤트가 발생하는 관심 영역에서 이미지를 개별적으로(separately) 디스플레이한다. 이에 따라, 일면으로는, 사용자는 관심 영역 내의 이미지 세부 사항을 더 명확하게 관찰할 수 있으며, 다른 일면으로는, 사용자는 복수의 관심 영역 내의 이미지 세부 사항을 동시에 추적할(track) 수 있음으로써, 사용자 경험이 현저하게 향상된다.
본 발명의 실시예에서 비디오는 비디오 파일 뿐만 아니라 실시간 비디오 스트림까지 포함한다는 것을 이해해야 한다. 본 발명의 실시예는 실시간 비디오 스트림의 재생을 예시로 하여 설명되었지만, 본 발명의 실시예는 이에 한정되지 않는다.
본 발명의 실시예에서는, 도 3에 도시된 바와 같이, 방법(100)이 이하의 단계를 더 포함한다.
단계 S150: 적어도 두 개의 관심 영역 중에서 각각의 관심 영역과 특정 재생창 간의 대응관계(correspondence)를 판정한다.
제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 것은 이하의 단계를 포함한다.
단계 S141: 대응관계에 따라, 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 제1 관심 영역에 대응되는 특정 재생창에 렌더링한다.
즉, 관심 영역에서 트리거링 이벤트가 발생했을 때 관심 영역 내의 이미지를 재생하기 위해서, 각각의 관심 영역은 하나 이상의 재생창과 연관될 수 있다. 특정 창은 디스플레이 장치 상의 최대 재생창일 수 있고, 또한 최대 재생창의 일부일 수도 있으며; 특정 재생창은 현재 존재하는 재생창 또는 현재 재생창의 일부일 수 있고, 새로운 팝업(pop-up) 재생창 또는 새롭게 생성된 재생창일 수도 있다. 본 발명의 실시예가 이에 한정되는 것은 아니다.
도 4 내지 도 12b를 참조하여, 이하에서는 본 발명의 일 실시예에 따른 비디오 재생 방법을 상세하게 설명한다.
단계 S110에서는, 선택적으로, 원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하는 것은, 동일한 분할 방식 또는 임의의(free) 분할 방식으로 원래의 재생 영역을 적어도 두 개의 관심 영역으로 분할하는 과정을 포함한다.
구체적으로, 단일 재생창은 클라이언트 상에서 미리 복수의 관심 영역으로 분할될 수 있다. 관심 영역의 크기는 동일할 수도 있고 상이할 수도 있으며, 관심 영역은 비정형(irregular) 영역으로 설정될 수 있으며; 또한, 본 발명의 실시예에서, 관심 영역과 재생창 간의 대응관계가 판정될 수 있다. 원래의 재생 이미지를 관심 영역으로 분할하는 것은 사용자에 의해 수동적으로 수행될 수 있고, 또한 클라이언트 소프트웨어를 통해 자동적으로 구성될(configured) 수도 있으며, 이후에 그 구성(configuration)은 클라이언트 상에 저장된다.
이미지는 동일한 분할 방식 또는 임의의 분할 방식으로 분할될 수 있다. 구체적인 구성 프로세스는 도 4 및 도 5에 도시되어 있다. 예를 들면 도 4에 도시된 바와 같이, 동일한 분할 방식으로 이미지를 관심 영역으로 분할하는 방법은 이하의 단계를 포함한다.
단계 S111: 우클릭 메뉴 또는 툴바(toolbar) 버튼을 클릭하여 구성창(configuration window)을 디스플레이한다.
단계 S112: 팝업 구성창에서, 관심 영역의 개수를 설정하는데, 예컨대, 관심 영역의 개수를 16으로 설정한다.
단계 S113: 관심 영역 상에서 우클릭을 하여 관심 영역에 묶여있는(bound) 재생창을 세팅한다(set).
단계 S114: 관심 영역 내에서 트리거링 이벤트가 발생하면 관심 영역 내에서 비디오를 재생할 수 있도록 재생창을 선택한다.
도 5에 도시된 바와 같이, 임의의 분할 방식으로 이미지를 관심 영역으로 분할하는 방법은, 예컨대, 이하의 단계를 포함할 수 있다.
단계 S115: 우클릭 메뉴 또는 툴바 버튼을 클릭하여 구성창을 팝업시킨다(pop up).
단계 S116: 팝업 구성창에서, 마우스를 드래그하여(drag) 관심 영역을 그리며, 여기서 관심 영역의 크기 및 형태는 동일하거나 상이할 수 있다.
단계 S117: 관심 영역에 대해 우클릭을 하여 관심 영역에 묶여있는 재생창을 세팅한다.
단계 S118: 트리거링 이벤트가 관심 영역 내에서 발생하면 관심 영역 내에서 비디오를 재생할 수 있도록 재생창을 선택한다.
본 발명의 실시예에서, 관심 영역으로 분할되는 원래의 재생 이미지는 모두 디스플레이 장치 상의 최대 재생창 내의 재생 이미지일 수 있으며, 또한 최대 재생창 내에서 동시에 디스플레이된 다수의 이미지 중 하나 이상의 이미지일 수도 있음을 이해해야 한다. 본 발명의 실시예는 이에 한정되지 않는다.
단계 S120에서, 비디오 재생 장치는, 별개의 재생창의 제1 관심 영역에서 이미지를 디스플레이하기 위해, 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정함으로써, 이미지 세부 사항의 디스플레이 효과를 향상시킨다.
본 발명의 실시예에서, 사용자는 이벤트를 수동적으로 트리거링하여 관심 영역을 결정할 수도 있고, 또한 생성된 트리거 이벤트를 자동적으로 검출하여 관심 영역을 결정할 수도 있으며, 이는 이하에서 도 6 및 도 7을 참조하여 각각 설명된다.
도 6에 도시된 바와 같이, 선택적으로, 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하는 과정은 이하의 단계를 포함한다.
단계 S121: 원래의 재생 이미지 내의 관심 영역 상에서 사용자에 의해 수행된 트리거링 동작을 결정하며, 여기서 트리거링 동작은, 클릭 동작, 더블클릭 동작 또는 관심 영역을 선택하는 동작을 포함한다.
단계 S122: 트리거링 동작이 행해지는 관심 영역을 제1 관심 영역으로 결정한다.
구체적으로, 사용자가 비디오를 시청할 때, 이벤트의 발생이 검출될 경우, 사용자는 클라이언트 인터페이스 상에서 동작을 할 수 있는데, 예를 들면, 원래의 재생 이미지 내의 관심 영역 상에서 트리거링 동작을 행함으로써, 이벤트가 발생한 관심 영역 내의 이미지가 사전 지정된(pre-designated) 재생창에서 재생되거나 독립적인 팝업 재생창에서 재생되고; 이벤트가 복수의 관심 영역 내에서 발생하면, 사용자는 디스플레이를 위해 복수의 창을 트리거링할 수 있다. 트리거링 동작은, 예를 들면, 클릭 동작, 더블클릭 동작 또는 관심 영역을 선택하는 동작이다. 본 발명의 실시예는 이에 한정되지 않는다.
도 7은 본 발명의 일 실시예에 따라 트리거링 이벤트가 발생한 관심 영역을 결정하는 방법의 모식적 흐름도를 보여준다. 도 7에 도시된 바와 같이, 선택적으로, 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하는 과정은 이하의 단계를 포함한다.
단계 S123: 원래의 재생 이미지 내의 트리거링 이벤트 발생 지점의 좌표 메타데이터를 획득한다.
단계 S124: 좌표 메타데이터에 따라 트리거링 이벤트 발생 지점이 속한 관심 영역을 제1 관심 영역으로 결정한다.
구체적으로, 예를 들어 사용자는, 자동 이벤트 검출을 요구하는 영역을 사전에 구성할 수 있고(pre-configure), 이벤트 검출 규칙, 예컨대, 모션(motion) 검출 또는 지능적 분석 검출 등의 이벤트 검출 규칙을 구성할 수 있다. 이벤트가 발생하면, 클라이언트 소프트웨어는, 트리거링 이벤트 발생 지점의 좌표 메타데이터에 따라, 미리 구성된 관심 영역의 대응 영역을 결정할 수 있으며, 이에 따라 대응되는 이미지가 사전 지정된 재생창 내에서 재생되거나, 독립적인 팝업 재생창 내에서 재생되고; 이벤트가 복수의 관심 영역에서 발생하는 경우, 클라이언트 소프트웨어는 재생을 위해 복수의 재생창을 트리거링할 수 있다.
비정형의 지능적 분석 영역에서는, 트리거링 이벤트가 복수의 관심 영역을 커버할 수 있고, 동시에, 복수의 관심 영역은 트리거링 이벤트가 발생하는 제1 관심 영역으로 결정될 수 있다는 것을 이해해야 한다. 본 발명의 실시예는 이에 한정되지 않는다.
본 발명의 실시예에서, 비디오 재생 장치는, 모션 검출 또는 지능적 분석 검출 등을 통해 관심 영역에서 트리거링 이벤트가 발생하는지 여부를 판정할 수 있고; 중앙 서버는 또한 관심 영역에서 트리거링 이벤트가 발생하는지 여부를 판정하기 위한 검출을 수행할 수 있고, 트리거링 이벤트가 검출되면, 중앙서버는 트리거링 이벤트 발생 지점의 좌표 메타데이터를 비디오 재생 장치로 피드백(feedback)할 수 있으며, 이로써 비디오 재생 장치는 좌표 메타데이터에 따라 트리거링 이벤트가 발생하는 제1 관심 영역을 결정할 수 있다. 본 발명의 실시예는 이에 한정되지 않는다.
단계 S130에서, 비디오 재생 장치가 제1 관심 영역에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득함으로써, 제1 비디오 이미지가 특정 재생창 내에서 재생된다.
단계 S131: 원래의 재생 이미지의 디코딩된 데이터를 획득한다.
단계 S132: 원래의 재생 이미지의 디코딩된 데이터에 따라 제1 비디오 이미지의 디코딩된 데이터를 결정한다.
구체적으로, 예를 들어 비디오 재생 장치는, 클릭, 더블클릭, 툴바 버튼 클릭 또는 단축키를 통해 사용자에 의해 수동적으로 트리거링되는 이벤트를 수신하며, 본 장치는 원래의 재생창 내의 디코딩된 YUV 데이터로부터 관심 영역에 속한 데이터 콘텐츠를 차단하고(intercept), 콘텐츠의 이 부분을, 사전에 구성된 대응관계에 따라 사전 지정된 재생 페인(pane) 내에서(또는 이 부분을 재생할 수 있도록 독립된 재생창을 디스플레이할 수 있음) 재생할 수 있다. 복수의 재생창은 동일한 YUV 데이터 소스를 이용하기 때문에, 본 장치는 별도의 다수의 비디오 스트림을 가져오거나 추가하지 않아도 된다.
예를 들어, 원래의 재생 이미지의 해상도를 Width(폭)×Height(높이)로 가정하고, 관심 영역에 대해서, 시작 지점의 수평 좌표는 StartX, 시작 지점의 수직 좌표는 StartY, 종료 지점의 수평 좌표는 EndX, 종료 지점의 수직 좌표는 EndY라 한다. 원래의 재생 이미지의 YUV 데이터는 어레이 Org[Width×Height] 내에 있고, 관심 영역의 YUV 데이터는 Dst[ROIWidth×ROIHeight] 내에 있으고, 여기서 n은 관심 영역의 임의의 지점이며; 관심 영역의 YUV 데이터는 이하의 공식에 따라 결정될 수 있다.
ROIWidth = EndX-StartX;
ROIHeight = EndY-StartY;
Dst[n] = Org[(Width×(StartY+n/ROIWidth)+StartX+n%ROIWidth)]
나누기 연산 ’/’은 가장 근접한 정수가 되도록 버림을 하는 것(rounding down)을 나타내고, ‘%’ 기호는 REM 연산을 나타낸다.
단계 S140에서, 비디오 재생 장치는 재생을 위 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링한다.
구체적으로, 비디오 재생 장치는, 팝업창에서 제1 비디오 이미지를 재생하거나, 새로운 재생창에서 제1 비디오 이미지를 디스플레이하거나, 원래의 재생창에서 제1 비디오 이미지를 디스플레이할 수 있고, 재생창의 크기를 조절할 수 있도록 제1 비디오 이미지 상에 디지털 주밍을 수행할 수 있다. 즉, 본 발명의 실시예에서, 특정 창은 디스플레이 장치 상에 최대 재생창일 수 있으며, 또한 최대 재생창의 일부일 수도 있다. 특정 창은 현재 존재하는 재생창 또는 존재하는 재생창의 일부일 수 있으며, 새로운 팝업 또는 새롭게 생성된 재생창일 수도 있고; 특정 창은 하나의 창일 수도 있고, 하나 이상의 창일 수도 있다. 본 발명의 실시예는 이에 한정되지 않는다.
본 발명의 실시예에서는, 선택적으로, 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 과정은, 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창으로, 줌인 방식에 렌더링하는 것을 포함하며, 여기서 특정 재생창은 제1 관심 영역보다 크다.
본 발명의 실시예에서, 예를 들면 도 9에 도시된 바와 같이, 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 과정은 이하의 단계를 포함한다.
단계 S142: 독립적인 재생창을 디스플레이한다.
단계 S143: 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 독립적인 재생창에 렌더링한다.
본 발명의 실시예에서, 특정한 재생창이 독립적 팝업 재생창이고, 독립적 팝업 재생창이 제1 관심 영역보다 클 수 있으며, 이에 따라 제1 비디오 이미지는 줌인 방식으로 재생된다는 것을 이해해야 하며, 다만 본 발명의 실시예는 이에 한정되지 않는다. 예컨대 독립적인 재생창은 제1 관심 영역과 같거나 더 작을 수 있다.
본 발명의 실시예에서, ‘A에 대응되는 B’라 함은 B가 A에 연관된 것임을 나타내고, B는 A에 따라 결정될 수 있다는 것을 이해해야 한다. 그러나, A에 따라 B를 결정하는 것은, B가 A에 따라서만 결정된다는 것뿐만 아니라, B가 A 및/또는 다른 정보에 따라 결정될 수 있다는 것 또한 이해해야 한다.
본 발명의 실시예에서, 전술한 프로세스들의 순번은 실행 순서를 나타내는 것이 아님을 이해해야 한다. 프로세스들의 실행 순서는 그것들의 기능과 고유의 로직(logic)에 따라 결정되어야 하며, 본 발명의 실시예의 구현 상에 어떠한 한정도 가해서는 안될 것이다.
따라서, 본 발명의 실시예에 따른 비디오 재생 방법은, 원래의 재생 이미지를 복수의 관심 영역으로 분할하고, 이미지를 트리거링 이벤트가 발생한 관심 영역 내에서 개별적으로 디스플레이한다. 이에 따라, 일면으로는, 사용자는 관심 영역 내의 이미지 세부 사항을 더 명확하게 관찰할 수 있고, 다른 일면으로는, 사용자는 복수의 관심 영역 내의 이미지 세부 사항을 동시에 추적할 수 있음으로써, 사용자 경험이 현저하게 향상된다. 또한 본 발명의 일 실시예는 관심 영역 내에서 이미지를 재생할 수 있도록 처음 디코딩된 데이터를 이용하여, 별도의 비디오 스트림을 부가하지 않는다.
도 10 내지 도 12b를 참조하여, 이하에서는 본 발명의 실시예에 따른 비디오 재생 방법을 상세하게 설명한다.
도 10에 도시된 바와 같이, 비디오 재생 방법(200)은 비디오 재생 장치에 의해 실행될 수 있으며, 이 장치는, 예컨대, 단말 또는 클라이언트이다. 본 방법(200)은 이하의 단계를 포함한다.
단계 S201: 클라이언트의 그래픽 사용자 인터페이스(graphical user interface, 줄여서 ‘GUI’라 함)를 디스플레이한다.
단계 S202: 재생 이미지 분할 방식을 설정할지 여부를 결정하고; 재생 이미지 분할 방식을 설정하는 것으로 결정되면, 프로세스는 단계 S203으로 진행되고; 그렇지 않은 경우 프로세스는 단계 S204로 진행된다.
단계 S203: 재생 이미지 분할 방식을 설정하고; 프로세스는 단계 S204로 진행된다.
단계 S204: 사용자가 재생을 시작하는지 여부를 판정하고; 사용자가 재생을 시작하는 것으로 판정되면, 프로세스는 단계 S205로 진행되고; 그렇지 않은 경우 프로세스는 단계 S201로 진행된다.
단계 S205: 네트워크 포트를 이네이블한다(enable).
단계 S206: 미디어 스트림을 수신하고, 미디어 스트림을 디코딩하여, 디코딩된 미디어 스트림을, 재생을 위해, 재생 장치에 렌더링한다.
단계 S207: 사용자가 이벤트를 수동적으로 트리거링하는지 여부를 판정하여; 사용자가 이벤트를 수동적으로 트리거링하는 것으로 판정되면, 프로세스는 단계 S208로 진행되고; 그렇지 않은 경우 프로세스는 단계 S209로 진행된다.
단계 S208: 사용자가 이벤트를 수동적으로 트리거링하는 것으로 판정된 경우, 특정 창 상에 줌인 방식으로 이벤트 발생 영역을 디스플레이하고; 프로세스는 단계 S206으로 진행된다.
단계 S209: 장치가 이벤트를 자동적으로 트리거링하는지 여부를 판정하고; 장치가 이벤트를 자동적으로 트리거링하는 것으로 판정되면, 프로세스는 단계 S210으로 진행되고; 그렇지 않은 경우 프로세스는 단계 S211로 진행된다.
단계 S210: 장치가 이벤트를 자동적으로 트리거링하는 것으로 판정되면, 특정 창 상에 줌인 방식으로 이벤트 발생 영역을 디스플레이하고; 프로세스는 단계 S206으로 진행된다.
단계 S211: 사용자가 재생을 종료하는지 여부를 판정하고; 사용자가 재생을 종료하는 것으로 판정되면, 프로세스는 단계 S212로 진행되고; 그렇지 않은 경우 프로세스는 단계 S206으로 진행된다.
단계 S212: 사용자가 클라이언트를 클로징(close)하는지 여부를 판정하고; 사용자가 클라이언트를 클로징하는 것으로 판정되면, 프로세스는 단계 S213으로 진행되고; 그렇지 않은 경우 프로세스는 단계 S201로 진행된다.
단계 S213: 시스템 리소스를 비우고; 비디오 재생을 종료한다.
전술한 프로세스들의 순번은 실행 순서를 나타내는 것이 아님을 이해해야 한다. 프로세스들의 실행 순서는 그것들의 기능과 고유의 로직(logic)에 따라 결정되어야 하며, 본 발명의 실시예의 구현 상에 어떠한 한정도 가해서는 안될 것이다.
도 11a는 본 발명의 일 실시예에 따라 수동적으로 트리거링된 관심 영역에서의 재생 방법(300)의 모식적 흐름도를 보여준다. 본 방법(300)은 비디오 재생 장치에 의해 실행될 수 있으며, 이 장치은, 예컨대, 단말 또는 클라이언트이다. 도 11a에 도시된 바와 같이, 본 방법(300)은 이하의 단계를 포함할 수 있다.
S301: 원래의 재생창에서 비디오 이미지의 프레임 각각을 정상적으로(normally) 렌더링하고 재생한다.
S302: 사용자가 이벤트를 수동적으로 트리거링하는지 여부를 판정하여; 사용자가 이벤트를 수동적으로 트리거링하는 것으로 판정되면, 프로세스는 단계 S303으로 진행되고; 그렇지 않은 경우 프로세스는 단계 S301로 진행된다.
S303: 사용자 이벤트가 위치해 있는 관심 영역을 획득한다.
S304: 관심 영역에 묶여있는 재생창을 확인한다(check).
S305: 비디오 이미지의 프레임 각각에 대해, 관심 영역에 의해 커버되는 비디오 이미지의 YUV 데이터를 계산한다.
S306: 비디오 이미지의 프레임 각각에 대해, 관심 영역의 YUV 데이터를, 재생을 위해, 특정 재생창에 렌더링하고; 예를 들어, 도 12a에 도시된 바와 같이, 전체 재생창은, 원래의 재생창과 동일한 크기를 갖는, 원래의 재생 이미지 창과 3개의 특정 재생창을 포함하고, 여기서 원래의 재생 이미지는 16개의 관심 영역으로 분할되며, 수동적인 트리거링 이벤트가 발생한 관심 영역 내의 이미지가 줌인 방식으로 특정 재생창들 중 하나에서 재생된다.
S307: 사용자가 재생을 종료하는지 여부를 판정하고; 사용자가 재생을 종료하는 것으로 판정되면, 프로세스는 단계 S308로 진행되고; 그렇지 않은 경우 프로세스는 단계 S305로 진행된다.
S308: 비디오 재생을 정지하고; 프로세스를 종료한다.
도 11b는 본 발명의 일 실시예에 따른 이벤트에 의해 자동적으로 트리거링된 관심 영역에서의 재생 방법(400)의 모식적 흐름도이다.
단계 S401: 원래의 재생창에서 비디오 이미지의 프레임 각각을 정상적으로(normally) 렌더링하고 재생한다.
단계 S402: 지능적 분석을 수행하여 트리거링 이벤트가 발생하는지 여부를 판정하고; 트리거링 이벤트가 발생한 것으로 판정되면, 프로세스는 단계 S403으로 진행되고; 그렇지 않은 경우, 프로세스는 단계 S401로 진행된다.
단계 S403: 지능적 분석 영역과 관심 영역 간의 대응관계를 계산한다.
단계 S404: 분석 이벤트에 의해 커버되는 관심 영역(또는 복수의 관심 영역)을 획득한다.
단계 S405: 관심 영역에 묶여있는 재생창을 확인한다.
단계 S406: 비디오 이미지의 프레임 각각에 대해, 관심 영역에 의해 커버되는 비디오 이미지의 YUV 데이터를 계산한다.
단계 S407: 비디오 이미지의 프레임 각각에 대해, 관심 영역의 YUV 데이터를, 재생을 위해, 특정 재생창에 렌더링하고; 예를 들어, 도 12b에 도시된 바와 같이, 전체 재생창은, 원래의 재생창과 동일한 크기를 갖는, 원래의 재생 이미지 창과 3개의 특정 재생창을 포함하고, 여기서 원래의 재생 이미지는 16개의 관심 영역으로 분할되며, 트리거링 이벤트가 발생한 관심 영역 내의 이미지가 줌인 방식으로 특정 재생창들 중 하나에서 재생된다.
단계 S408: 사용자가 재생을 종료하는지 여부를 판정하고; 사용자가 재생을 종료하는 것으로 판정되면, 프로세스는 단계 S209로 진행되고; 그렇지 않은 경우 프로세스는 단계 S406으로 진행된다.
단계 S409: 비디오 재생을 정지하고; 프로세스를 종료한다.
본 발명의 실시예에서, 전술한 프로세스들의 순번은 실행 순서를 나타내는 것이 아님을 이해해야 한다. 프로세스들의 실행 순서는 그것들의 기능과 고유의 로직(logic)에 따라 결정되어야 하며, 본 발명의 실시예의 구현 상에 어떠한 한정도 가해서는 안될 것이다.
따라서, 본 발명의 실시예에 따른 비디오 재생 방법은, 원래의 재생 이미지를 복수의 관심 영역으로 분할하고, 트리거링 이벤트가 발생한 관심 영역에서 이미지를 개별적으로 디스플레이한다. 이에 따라, 일면으로는, 사용자는 관심 영역 내의 이미지 세부 사항을 더 명확하게 관찰할 수 있고, 다른 일면으로는, 사용자는 복수의 관심 영역 내의 이미지 세부 사항을 동시에 추적할 수 있음으로써, 사용자 경험이 현저하게 향상된다.
이상으로 도 1 내지 도 12b를 참조하여 본 발명의 실시예에 따른 비디오 재생 방법은 상세하게 설명하였다. 이하에서는 도 13 내지 도 20을 참조하여 본 발명의 실시예에 따른 비디오 재생 단말 및 시스템을 상세하게 설명한다.
도 13은 본 발명의 일 실시예에 따른 단말(500)의 모식적 블록도를 보여준다. 도 13에 도시된 바와 같이 이 단말(500)은 이하의 모듈을 포함한다:
원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하도록 구성된 분할(dividing) 모듈(510);
분할 모듈(510)에 의해 표시된(marked out) 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하도록 구성된 제1 결정 모듈(520);
제1 결정 모듈(520)에 의해 결정된 제1 관심 영역에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하도록 구성된 획득 모듈(530); 및
획득 모듈(530)에 의해 획득된 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하도록 구성된 재생 모듈(540).
따라서, 본 발명의 실시예에 따른 비디오 재생 단말은, 원래의 재생 이미지를 복수의 관심 영역으로 분할하고, 트리거링 이벤트가 발생한 관심 영역에서 이미지를 개별적으로 디스플레이한다. 이에 따라, 일면으로는, 사용자는 관심 영역 내의 이미지 세부 사항을 더 명확하게 관찰할 수 있고, 다른 일면으로는, 사용자는 복수의 관심 영역 내의 이미지 세부 사항을 동시에 추적할 수 있음으로써, 사용자 경험이 현저하게 향상된다.
본 발명의 실시예에서, 비디오 재생 단말은 비디오 파일을 재생할 수 있을 뿐만 아니라 실시간 비디오 스트림을 재생할 수도 있음을 이해해야 한다. 본 발명의 실시예는, 단말이 실시간 비디오 스트림을 재생하는 일례에 기초하여 설명된 것이며, 본 발명의 실시예는 이에 한정되지 않는다.
본 발명의 실시예에서, 선택적으로, 도 14에 도시된 바와 같이, 단말(500)은, 적어도 두 개의 관심 영역 중에서 각각의 관심 영역과 특정 재생창 간의 대응관계를 판정하도록 구성된 제2 결정 모듈(550)을 더 포함하며, 이 때 재생 모듈(540)은, 제2 결정 모듈(550)에 의해 결정된 대응관계에 따라, 획득 모듈(530)에 의해 획득된 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 제1 관심 영역에 대응되는 특정 재생창에 렌더링하도록 더 구성된다.
본 발명의 실시예에서, 선택적으로, 분할 모듈(510)은, 원래의 재생 이미지를, 동일한 분할 방식 또는 임의의 분할 방식으로, 적어도 두 개의 관심 영역으로 분할하도록 더 구성된다.
본 발명의 실시예에서, 선택적으로, 도 15에 도시된 바와 같이, 제1 결정 모듈(520)은, 사용자에 의해 원래의 재생 이미지의 관심 영역 상에서 수행된 트리거링 동작을 판정하도록 구성된 제1 결정 유닛(521); 및 제1 판정 유닛(521)에 의해 판정된 트리거링 동작이 수행된 관심 영역을 제1 관심 영역으로 결정하도록 구성된 제2 결정 유닛(522)을 포함하고, 여기서 트리거링 동작은, 클릭 동작, 더블클릭 동작 또는 관심 영역을 선택하는 동작을 포함한다.
본 발명의 실시예에서, 선택적으로, 도 16에 도시된 바와 같이, 제1 결정 모듈(520)은, 원래의 재생 이미지 내의 트리거링 이벤트 발생 지점의 좌표 메타데이터를 획득하도록 구성된 제1 획득 유닛(523); 및 제1 획득 유닛(523)에 의해 획득된 좌표 메타데이터에 따라 트리거링 이벤트 발생 지점이 속한 관심 영역을 제1 관심 영역으로 결정도록 구성된 제3 결정 유닛(524)을 포함한다.
본 발명의 실시예에서, 선택적으로, 도 17에 도시된 바와 같이, 획득 모듈(530)은, 원래의 재생 이미지의 디코딩된 데이터를 획득하도록 구성된 제2 획득 유닛(531); 및 제2 획득 유닛(531)에 의해 획득된 원래의 재생 이미지의 디코딩된 데이터에 따라 제1 비디오 이미지의 디코딩된 데이터를 결정하도록 구성된 제3 결정 유닛(532)을 포함한다.
본 발명의 실시예에서, 선택적으로, 재생 모듈은, 제1 비디오 이미지의 디코딩된 데이터를 줌인 방식으로 재생하기 위해 특정 재생창에 렌더링하도록 더 구성되며, 여기서 특정 재생창은 제1 관심 영역보다 크다.
본 발명의 실시예에서, 선택적으로, 도 18에 도시된 바와 같이, 재생 모듈(540)은, 독립적인 재생창을 디스플레이하도록 구성된 디스플레이 유닛(541); 및 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 디스플레이 유닛에 의해 디스플레이된 독립적인 재생창에 렌더링하도록 구성된 재생 유닛(542)을 포함한다.
전술한 본 발명의 실시예들에 따른 비디오 재생 단말(500)은 본 발명의 실시예에서의 비디오 재생 장치에 상응하는 것일 수 있고, 단말(500) 내 모듈들의 전술한 동작 및/또는 기능 및 다른 동작 및/또는 기능들은 도 1 내지 도 12b의 대응 프로세스들을 구현하기 위해 각각 사용된다는 것을 이해해야 하며, 설명을 간명하게 하기 위해 여기서는 번복하지 않는다.
따라서, 본 발명의 실시예에 따른 비디오 재생 단말은, 원래의 재생 이미지를 복수의 관심 영역으로 분할하고, 이미지를 트리거링 이벤트가 발생한 관심 영역 내에서 개별적으로 디스플레이한다. 이에 따라, 일면으로는, 사용자는 관심 영역 내의 이미지 세부 사항을 더 명확하게 관찰할 수 있고, 다른 일면으로는, 사용자는 복수의 관심 영역 내의 이미지 세부 사항을 동시에 추적할 수 있음으로써, 사용자 경험이 현저하게 향상된다.
도 19는 본 발명의 일 실시예에 따른 시스템(600)의 모식적 블록도이다. 도 19에 도시된 바와 같이 본 시스템(600)은 이하의 구성을 포함한다:
본 발명의 실시예에 따른 단말(610);
비디오 이미지를 캡쳐하고, 비디오 이미지를 인코딩함으로써 미디어 스트림을 생성하도록 구성된 비디오 캡쳐링 시스템(620);
비디오 캡쳐링 시스템에 의해 생성되는 미디어 스트림을 획득하고, 단말(620)을 위해 미디어 스트림을 제공하도록 구성된 서버(630); 및
서버(630)에 의해 획득되는 미디어 스트림을 저장하도록 구성된 저장 디바이스(640).
본 발명의 실시예에 따른 비디오 재생 시스템(600)에 포함된 단말(610)은 전술한 본 발명의 실시예들의 비디오 재생 단말(500)에 상응하는 것일 수 있으며, 단말(610) 내 모듈들의 전술한 동작 및/또는 기능 및 다른 동작 및/또는 기능들은 도 1 내지 도 12b의 방법들(100 내지 400)의 대응 프로세스들을 구현하기 위해 각각 사용된다는 것을 이해해야 하며, 설명을 간명하게 하기 위해 여기서는 번복하지 않는다.
따라서, 본 발명의 실시예에 따른 비디오 재생 시스템은, 원래의 재생 이미지를 복수의 관심 영역으로 분할하고, 이미지를 트리거링 이벤트가 발생한 관심 영역 내에서 개별적으로 디스플레이한다. 이에 따라, 일면으로는, 사용자는 관심 영역 내의 이미지 세부 사항을 더 명확하게 관찰할 수 있고, 다른 일면으로는, 사용자는 복수의 관심 영역 내의 이미지 세부 사항을 동시에 추적할 수 있음으로써, 사용자 경험이 현저하게 향상된다.
본 발명의 일 실시예는 비디오 재생 단말을 더 제공한다. 도 20에 도시된 바와 같이, 이 단말(700)은, 프로세서(710), 메모리(720) 및 버스 시스템(bus system)(730)을 포함하며, 프로세서(710) 및 메모리(720)는 버스 시스템(730)을 통해 서로 연결된다. 메모리(720)는 명령을 저장하도록 구성되며, 프로세서(710)는 메모리(720) 내에 저장된 명령을 실행하도록 구성된다. 프로세서(710)는, 원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하고; 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하고; 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하고; 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하도록 구성된다.
따라서, 본 발명의 실시예에 따른 비디오 재생 단말은, 원래의 재생 이미지를 복수의 관심 영역으로 분할하고, 트리거링 이벤트가 발생한 관심 영역에서 이미지를 개별적으로 디스플레이한다. 이에 따라, 일면으로는, 사용자는 관심 영역 내의 이미지 세부 사항을 더 명확하게 관찰할 수 있고, 다른 일면으로는, 사용자는 복수의 관심 영역 내의 이미지 세부 사항을 동시에 추적할 수 있음으로써, 사용자 경험이 현저하게 향상된다.
본 발명의 실시예에서, 프로세서(710)는 CPU(Central Processing Unit)일 수 있고, 또한 프로세서(710)는 다른 일반적인 프로세서, DSP(digital signal processor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 또는 다른 프로그램 가능 논리 소자(programmable logic device), 독립 게이트 또는 트랜지스터 논리 소자, 독립 하드웨어 컴포넌트 등일 수도 있음을 이해해야 한다. 일반적인 프로세서는 마이크로프로세서일 수도 있고, 또는 프로세서는 임의의 프로세서 등일 수도 있다.
메모리(720)는 ROM(read-only memory) 및 RAM(random access memory)를 포함할 수 있으며, 명령 및 데이터를 프로세서(710)에 제공할 수 있다. 메모리(720)의 일부는 비휘발성 RAM을 더 포함할 수 있다. 예를 들어, 메모리(720)는 디바이스 유형 정보를 더 저장할 수 있다.
데이터 버스에 더하여, 버스 시스템(730)은, 전력 버스(power bus), 제어 버스(control bus) 및 상태 신호 버스(status signal bus) 등을 더 포함할 수 있다. 다만 설명을 명확하게 하기 위해 도면에서는 모든 버스를 버스 시스템(730)으로 표시한다.
구현 중에, 전술한 방법의 각 단계는 프로세서(710) 내의 하드웨어의 통합 논리 회로 또는 소프트웨어 형태의 명령을 통해 완료될 수 있다. 본 발명의 실시예에서 개시된 방법들을 참조한 단계들은, 하드웨어 프로세서에 의해, 또는 하드웨어와 프로세서 내 소프트웨어 모듈들의 조합에 의해 실행됨으로써 바로 구현될 수 있다. 소프트웨어 모듈은, RAM, 플래시 메모리, ROM, PROM(programmable read-only memory), EEP 메모리(electronically erasable programmable memory) 및 레지스터(register)와 같이, 해당 기술 분야에서 통용되는 저장 매체(mature storage medium) 내에 위치될 수 있다. 저장 매체는 메모리(720) 내에 위치되며; 프로세서(710)는, 메모리(720) 내의 정보를 판독하고, 그것의 하드웨어와 결합된 방법의 단계들을 완수한다. 반복을 피하기 위해 여기에서는 상세한 설명을 생략한다.
선택적으로, 일 실시예와 같이, 프로세서(710)는, 적어도 두 개의 관심 영역 중 각각의 관심 영역과 특정 재생창 간의 대응관계를 판정하도록 더 구성된다. 프로세서(710)가 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 것은: 대응관계에 따라, 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 제1 관심 영역에 대응되는 특정 재생창에 렌더링하는 것을 포함한다.
선택적으로, 일 실시예로서, 프로세서(710)가 원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하는 것은: 원래의 재생 이미지를, 동일한 분할 방식 또는 임의의 분할 방식으로, 적어도 두 개의 관심 영역으로 분할하는 것을 포함한다.
선택적으로, 일 실시예로서, 프로세서(710)가 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하는 것은: 원래의 재생 이미지 내의 관심 영역 상에서 사용자에 의해 수행된 트리거링 동작을 판정하는 것; 및 트리거링 동작이 행해지는 관심 영역을 제1 관심 영역으로 결정하는 것을 포함하며, 여기서 트리거링 동작은, 클릭 동작, 더블클릭 동작 또는 관심 영역을 선택하는 동작을 포함한다.
선택적으로, 일 실시예로서, 프로세서(710)가 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하는 것은: 원래의 재생 이미지 내의 트리거링 이벤트 발생 지점의 좌표 메타데이터를 획득하는 것; 및 좌표 메타데이터에 따라 트리거링 이벤트 발생 지점이 속한 관심 영역을 제1 관심 영역으로 결정하는 것을 포함한다.
선택적으로, 일 실시예로서, 프로세서(710)가 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하는 것은: 원래의 재생 이미지의 디코딩된 데이터를 획득하는 것; 및 원래의 재생 이미지의 디코딩된 데이터에 따라 제1 비디오 이미지의 디코딩된 데이터를 결정하는 것을 포함한다.
선택적으로, 일 실시예로서, 단말(700)은 제1 비디오 이미지의 디코딩된 데이터를 줌인 방식으로 재생하기 위해 특정 재생창에 렌더링하도록 더 구성될 수 있으며, 이 때 특정 재생창은 제1 관심 영역보다 크다.
선택적으로, 일 실시예로서, 단말(700)은 디스플레이(740)를 더 포함한다. 프로세서(710)가 제1 비디오 이미?p 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 것은: 독립적인 재생창을 디스플레이하는 것을 포함하고; 디스플레이(740)는 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 독립적인 재생창에 렌더링하도록 구성된다.
본 발명의 실시예에 따른 비디오 재생 단말(700)이 전술한 본 발명의 실시예들에서의 비디오 재생 단말(500) 또는 단말(610)에 상응하는 것일 수 있고, 단말(600) 내 모듈들의 전술한 동작 및/또는 기능 및 다른 동작 및/또는 기능들은 도 1 내지 도 12b의 방법 100 내지 400에서의 대응 프로세스들을 구현하기 위해 각각 사용된다는 것을 이해해야 하며, 설명을 간명하게 하기 위해 여기서는 번복하지 않는다.
통상의 기술자는, 본 명세서에 개시된 실시예에서 설명된 예시들의 조합으로, 전자 하드웨어, 컴퓨터 소프트웨어 또는 이들의 조합에 의해 유닛 및 알고리즘 단계가 구현될 수 있다는 것을 인식할 수 있다. 하드웨어와 소프트웨어 간의 상호 교환 가능성(interchangeability)를 명확하게 설명하기 위해, 위에서는 각 예시의 구성 및 단계를 기능에 따라 일반적으로 설명하였다. 하드웨어 또는 소프트웨어에 의해 기능이 수행되는지 여부는 기술적 해결책의 특정 적용 및 설계 제약 조건에 의존적이다. 통상의 기술자는 다른 방법을 사용하여 각각의 특정 적용을 위해 설명된 기능을 구현할 수 있으며, 그것이 본 발명의 범위를 벗어나는 구현으로 간주되어서는 안 된다.
통상의 기술자는, 편리하고 간편한 설명을 목적으로, 전술한 시스템, 장치 및 유닛의 구체적인 작동 프로세스에 대해서는, 본 방법 실시예에서 대응되는 프로세스를 참조여 명확하게 이해할 수 있으며, 여기에서는 구체적으로 설명하지 않는다.
본 발명에서 제공되는 몇몇 실시예에서, 개시된 시스템, 장치 및 방법은 다른 방식으로 구현될 수 있음을 이해해야 한다. 예를 들어, 설명한 장치 실시예는 예시에 불과하다. 예를 들어, 유닛 분할은 논리 함수 분할일 뿐이며 실제 구현에서는 다른 분할일 수 있다. 예를 들어, 복수의 유닛 또는 컴포넌트들은 다른 시스템에 결합 또는 통합될 수 있고, 일부 특징들은 무시되거나 수행되지 않을 수 있다. 또한, 표시되거나 논의된 상호 연결(mutual couplings) 또는 직접적 연결(direct couplings) 또는 통신 연결은 일부 인터페이스들을 통해 구현될 수 있다. 장치들 또는 유닛들 간의 간접적 연결 또는 통신 연결은 전자적, 기계적 또는 다른 형식으로 구현될 수 있다.
별개의 부분으로 설명된 유닛들은 물리적으로 분리될 수도 있고 분리되지 않을 수도 있으며, 유닛으로 표시된 부분들은 물리적 유닛일 수도 있고 아닐 수도 있으며, 한 지점에 위치한 것일 수도 있고, 또는 다수의 네트워크 유닛들 상에 분산되어 있을 수 있다. 여기서의 유닛들 일부 또는 전부는 실제 필요에 따라 본 발명의 실시예의 해결책의 목적을 달성할 수 있도록 선택될 수 있다.
또한, 본 발명의 실시예에서의 기능적 유닛들은 하나의 프로세싱 유닛으로 통합될 수 있거나, 또는 유닛들 각각은 물리적으로 단독으로 존재할 수도 있고, 또는 두개 이상의 유닛들이 하나의 유닛으로 통합될 수도 있다. 통합된 유닛은 하드웨어의 형태로 구현될 수도 있고, 또는 소프트웨어 기능 유닛의 형태로 실현될 수도 있다.
통합된 유닛이 소프트웨어 기능 유닛의 형태로 구현되어 독립적인 제품으로 판매되거나 사용될 경우, 통합된 유닛은 컴퓨터로 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해를 바탕으로, 본 발명의 기술적 해결책은 핵심적으로, 또는 종래 기술에 일부 기여하거나, 기술적 해결책의 전부 또는 일부는 소프트웨어 제품의 형태로 구현될 수 있다. 컴퓨터 소프트웨어 제품은 저장 매체에 저장되고, 컴퓨터 장치(개인용 컴퓨터, 서버 또는 네트워크 장치 등)에 명령하기 위한 몇몇 명령을 포함함으로써 본 발명의 실시예에서 설명된 방법의 단계들의 전부 또는 일부를 수행한다. 전술한 저장 매체는, USB 플래시 드라이브, 분리 가능 하드 디스크(removable hard disk), ROM, RAM, 자기 디스크 또는 광 디스크와 같이, 프로그램 코드를 저장할 수 있는 임의의 매체를 포함한다.
전술한 설명은 본 발명의 특정 실시예들에 불과하며 본 발명의 보호 범위를 제한하도록 의도된 것이 아니다. 통상의 기술자가 본 발명의 기술 범위 내에서 용이하게 도출할 수 있는 동등한 정도의 변경 또는 치환은 본 발명의 보호 범위 내에 속할 것이다. 따라서 본 발명의 보호 범위는 청구항의 보호 범위에 따를 것이다.

Claims (17)

  1. 비디오 재생 방법에 있어서,
    원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하는 단계;
    상기 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트(triggering event)가 발생하는 제1 관심 영역을 결정하는 단계;
    상기 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하는 단계; 및
    상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창(playback window)에 렌더링(rendering)하는 단계
    를 포함하는 비디오 재생 방법.
  2. 제1항에 있어서,
    상기 원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하는 단계 이후에,
    상기 적어도 두 개의 관심 영역의 각 영역과 상기 특정 재생창 간의 대응관계(correspondence)를 판정하는 단계
    를 더 포함하고,
    상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 단계가,
    상기 대응관계에 따라, 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 상기 제1 관심 영역에 대응되는 특정 재생창에 렌더링하는 단계를 포함하는,
    비디오 재생 방법.
  3. 제1항에 있어서,
    상기 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하는 단계는,
    상기 원래의 재생 이미지 내의 관심 영역 상에서 사용자에 의해 수행된 트리거링 동작을 판정하는 단계; 및
    상기 트리거링 동작이 수행된 관심 영역을 제1 관심 영역으로 결정하는 단계
    를 포함하고,
    상기 트리거링 동작은, 클릭 동작, 더블-클릭 동작 또는 관심 영역을 선택하는 동작을 포함하는, 비디오 재생 방법.
  4. 제1항에 있어서,
    상기 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하는 단계가,
    상기 원래의 재생 이미지 내의 트리거링 이벤트 발생 지점의 좌표 메타데이터를 획득하는 단계; 및
    상기 좌표 메타데이터에 따라, 상기 트리거링 이벤트 발생 지점이 속한 관심 영역을 상기 제1 관심 영역으로 결정하는 단계
    를 포함하는, 비디오 재생 방법.
  5. 제1항에 있어서,
    상기 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하는 단계는,
    상기 원래의 재생 이미지의 디코딩된 데이터를 획득하는 단계; 및
    상기 원래의 재생 이미지의 디코딩된 데이터에 따라 상기 제1 비디오 이미지의 디코딩된 데이터를 결정하는 단계
    를 포함하는, 비디오 재생 방법.
  6. 제1항에 있어서,
    상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 단계는,
    상기 제1 비디오 이미지의 디코딩된 데이터를 줌인(zoom-in) 방식으로 재생하기 위해 상기 특정 재생창에 렌더링하는 단계를 포함하며,
    상기 특정 재생창이 상기 제1 관심 영역보다 큰,
    비디오 재생 방법.
  7. 제6항에 있어서,
    상기 제1 비디오 이미지의 디코딩된 데이터가 상기 원래의 재생 이미지에서 줌아웃(zoom-out) 방식으로 디스플레이되고,
    상기 원래의 재생 이미지 내의 제1 비디오 이미지의 해상도는 상기 제1 비디오 이미지의 원래 해상도보다 낮고,
    상기 특정 재생창 내의 제1 비디오 이미지의 해상도는 상기 원래의 재생 이미지 내의 제1 비디오 이미지의 해상도보다 높은,
    비디오 재생 방법.
  8. 제1항에 있어서,
    상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하는 단계는,
    독립적인 재생창을 디스플레이하는 단계; 및
    상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 상기 독립적인 재생창에 렌더링하는 단계
    를 포함하는, 비디오 재생 방법.
  9. 비디오 재생 단말에 있어서,
    원래의 재생 이미지를 적어도 두 개의 관심 영역으로 분할하도록 구성된 분할 모듈;
    상기 분할 모듈에 의해 표시된(marked out) 상기 적어도 두 개의 관심 영역 중에서, 트리거링 이벤트가 발생하는 제1 관심 영역을 결정하도록 구성된 제1 결정 모듈;
    상기 제1 결정 모듈에 의해 결정된 상기 제1 관심 영역 내에 디스플레이된 제1 비디오 이미지의 디코딩된 데이터를 획득하도록 구성된 획득 모듈; 및
    상기 획득 모듈에 의해 획득된 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 특정 재생창에 렌더링하도록 구성된 재생 모듈
    을 포함하는 비디오 재생 단말.
  10. 제9항에 있어서,
    상기 적어도 두 개의 관심 영역의 각 영역과 상기 특정 재생창 간의 대응관계를 판정하도록 구성된 제2 결정 모듈을 더 포함하고,
    상기 재생 모듈은, 상기 제2 결정 모듈에 의해 판정된 상기 대응관계에 따라, 상기 획득 모듈에 의해 획득된 상기 제1 비디오 이미지의 디코딩된 데이터를, 재생을 위해, 상기 제1 관심 영역에 대응되는 특정 재생창에 렌더링하도록 더 구성된,
    비디오 재생 단말.
  11. 제9항에 있어서,
    상기 제1 결정 모듈이,
    상기 원래의 재생 이미지 내의 관심 영역 상에서 사용자에 의해 수행된 트리거링 동작을 판정하도록 구성된 제1 결정 유닛; 및
    상기 제1 결정 유닛에 의해 판정된 상기 트리거링 동작이 수행된 관심 영역을 제1 관심 영역으로 결정하는 제2 결정 유닛
    을 포함하고,
    상기 트리거링 동작은, 클릭 동작, 더블-클릭 동작 또는 관심 영역을 선택하는 동작을 포함하는,
    비디오 재생 단말.
  12. 제9항에 있어서,
    상기 제1 결정 모듈이,
    상기 원래의 재생 이미지 내의 트리거링 이벤트 발생 지점의 좌표 메타데이터를 획득하도록 구성된 제1 획득 유닛; 및
    상기 제1 획득 유닛에 의해 획득된 상기 좌표 메타데이터에 따라, 상기 트리거링 이벤트 발생 지점이 속한 관심 영역을 상기 제1 관심 영역으로 결정하도록 구성된 제3 결정 유닛
    을 포함하는, 비디오 재생 단말.
  13. 제9항에 있어서,
    상기 획득 모듈이,
    상기 원래의 재생 이미지의 디코딩된 데이터를 획득하도록 구성된 제2 획득 유닛; 및
    상기 제2 획득 유닛에 의해 획득된 상기 원래의 재생 이미지의 디코딩된 데이터에 따라 상기 제1 비디오 이미지의 디코딩된 데이터를 결정하도록 구성된 제3 결정 유닛
    을 포함하는, 비디오 재생 단말.
  14. 제9항에 있어서,
    상기 재생 모듈은, 상기 제1 비디오 이미지의 디코딩된 데이터를 줌인 방식으로 재생하기 위해 상기 특정 재생창에 렌더링하도록 더 구성되며, 상기 특정 재생창이 상기 제1 관심 영역보다 큰, 비디오 재생 단말.
  15. 제14항에 있어서,
    상기 제1 비디오 이미지의 디코딩된 데이터가 상기 원래의 재생 이미지에서 줌아웃 방식으로 디스플레이되고,
    상기 원래의 재생 이미지 내의 제1 비디오 이미지의 해상도는 상기 제1 비디오 이미지의 원래 해상도보다 낮고,
    상기 특정 재생창 내의 제1 비디오 이미지의 해상도는 상기 원래의 재생 이미지 내의 제1 비디오 이미지의 해상도보다 높은,
    비디오 재생 단말.
  16. 제9항에 있어서,
    상기 재생 모듈이,
    독립적인 재생창을 디스플레이하도록 구성된 디스플레이 유닛; 및
    상기 제1 비디오 이미지의 디코딩된 데이터를 상기 디스플레이 유닛에 의해 디스플레이되는 상기 독립적인 재생창에 렌더링하도록 구성된 재생 유닛
    을 포함하는, 비디오 재생 단말.
  17. 비디오 재생 시스템에 있어서,
    상기 제9항에 기재된 비디오 재생 단말;
    비디오 이미지를 캡쳐하고(capture), 상기 비디오 이미지를 인코딩함으로써 미디어 스트림을 생성하도록 구성된 비디오 캡쳐링 시스템;
    상기 비디오 캡쳐링 시스템에 의해 생성되는 비디오 스트림을 획득하고, 상기 비디오 재생 단말을 위해 상기 미디어 스트림을 제공하도록 구성된 서버; 및
    상기 서버에 의해 획득되는 상기 미디어 스트림을 저장하도록 구성된 저장 디바이스
    를 포함하는 비디오 재생 시스템.
KR1020157017260A 2012-12-25 2012-12-25 비디오 재생 방법, 단말 및 시스템 KR101718373B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/087391 WO2014100966A1 (zh) 2012-12-25 2012-12-25 播放视频的方法、终端和***

Publications (2)

Publication Number Publication Date
KR20150090223A KR20150090223A (ko) 2015-08-05
KR101718373B1 true KR101718373B1 (ko) 2017-03-21

Family

ID=50974785

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157017260A KR101718373B1 (ko) 2012-12-25 2012-12-25 비디오 재생 방법, 단말 및 시스템

Country Status (6)

Country Link
US (1) US9064393B2 (ko)
EP (1) EP2768216A4 (ko)
JP (1) JP2016506167A (ko)
KR (1) KR101718373B1 (ko)
CN (2) CN104081760B (ko)
WO (1) WO2014100966A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220163574A (ko) * 2021-06-03 2022-12-12 주식회사 지미션 스트림 영상 재생 장치 및 스트림 영상 재생 시스템

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9449229B1 (en) 2014-07-07 2016-09-20 Google Inc. Systems and methods for categorizing motion event candidates
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US9354794B2 (en) 2014-07-07 2016-05-31 Google Inc. Method and system for performing client-side zooming of a remote video feed
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9420331B2 (en) 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
CN105872816A (zh) * 2015-12-18 2016-08-17 乐视网信息技术(北京)股份有限公司 一种放大视频图像的方法及装置
WO2017181429A1 (en) * 2016-04-22 2017-10-26 SZ DJI Technology Co., Ltd. Systems and methods for processing image data based on region-of-interest (roi) of a user
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
CN106802759A (zh) * 2016-12-21 2017-06-06 华为技术有限公司 视频播放的方法及终端设备
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10599950B2 (en) 2017-05-30 2020-03-24 Google Llc Systems and methods for person recognition data management
CN107580228B (zh) * 2017-09-15 2020-12-22 威海元程信息科技有限公司 一种监控视频处理方法、装置及设备
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
TWI657697B (zh) 2017-12-08 2019-04-21 財團法人工業技術研究院 搜尋視訊事件之方法、裝置、及電腦可讀取記錄媒體
US11012750B2 (en) * 2018-11-14 2021-05-18 Rohde & Schwarz Gmbh & Co. Kg Method for configuring a multiviewer as well as multiviewer
CN112866625A (zh) * 2019-11-12 2021-05-28 杭州海康威视数字技术股份有限公司 一种监控视频的显示方法、装置、电子设备及存储介质
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
CN111258484A (zh) * 2020-02-12 2020-06-09 北京奇艺世纪科技有限公司 一种视频播放方法、装置、电子设备及存储介质
CN111491203B (zh) * 2020-03-16 2023-01-24 浙江大华技术股份有限公司 视频回放方法、装置、设备和计算机可读存储介质
CN111752655B (zh) * 2020-05-13 2024-06-04 西安万像电子科技有限公司 数据处理***及方法
CN111757162A (zh) * 2020-06-19 2020-10-09 广州博冠智能科技有限公司 一种高清视频播放方法、装置、设备及存储介质
CN112235626B (zh) * 2020-10-15 2023-06-13 Oppo广东移动通信有限公司 视频渲染方法、装置、电子设备及存储介质
CN112422907B (zh) * 2020-11-09 2023-10-13 西安万像电子科技有限公司 图像处理方法、装置及***
US11800179B2 (en) 2020-12-03 2023-10-24 Alcacruz Inc. Multiview video with one window based on another
CN112911384A (zh) * 2021-01-20 2021-06-04 三星电子(中国)研发中心 视频播放方法和视频播放装置
CN113286196B (zh) * 2021-05-14 2023-02-17 亿咖通(湖北)技术有限公司 一种车载视频播放***及视频分屏显示方法及装置
CN114339371A (zh) * 2021-12-30 2022-04-12 咪咕音乐有限公司 视频显示方法、装置、设备及存储介质
CN114666668B (zh) * 2022-03-18 2024-03-15 上海艺赛旗软件股份有限公司 一种视频回放方法、***、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883632B1 (ko) * 2008-08-13 2009-02-12 주식회사 일리시스 고해상도 카메라를 이용한 지능형 영상 감시 시스템 및 그 방법

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5724475A (en) * 1995-05-18 1998-03-03 Kirsten; Jeff P. Compressed digital video reload and playback system
JPH0918849A (ja) * 1995-07-04 1997-01-17 Matsushita Electric Ind Co Ltd 撮影装置
US20110058036A1 (en) * 2000-11-17 2011-03-10 E-Watch, Inc. Bandwidth management and control
JP2004120341A (ja) * 2002-09-26 2004-04-15 Riosu Corp:Kk 映像監視システム
JP2006033380A (ja) * 2004-07-15 2006-02-02 Hitachi Kokusai Electric Inc 監視システム
JP2005094799A (ja) * 2004-11-15 2005-04-07 Chuo Electronics Co Ltd 映像集約表示装置
CN1901642A (zh) * 2005-07-20 2007-01-24 英业达股份有限公司 视频浏览***及方法
US8228372B2 (en) * 2006-01-06 2012-07-24 Agile Sports Technologies, Inc. Digital video editing system
JP4714039B2 (ja) * 2006-02-27 2011-06-29 株式会社東芝 映像再生装置及び映像再生方法
US8358342B2 (en) * 2007-02-23 2013-01-22 Johnson Controls Technology Company Video processing systems and methods
JP2009100259A (ja) * 2007-10-17 2009-05-07 Mitsubishi Electric Corp 監視カメラおよび画像監視システム
JP4921338B2 (ja) * 2007-12-14 2012-04-25 株式会社日立製作所 プラント監視制御システム
JP4535150B2 (ja) 2008-03-18 2010-09-01 ソニー株式会社 画像処理装置および方法、プログラム並びに記録媒体
KR101009881B1 (ko) * 2008-07-30 2011-01-19 삼성전자주식회사 재생되는 영상의 타겟 영역을 확대 디스플레이하기 위한장치 및 방법
CN101365117B (zh) * 2008-09-18 2010-12-29 中兴通讯股份有限公司 一种自定义分屏模式的方法
JP4715909B2 (ja) * 2008-12-04 2011-07-06 ソニー株式会社 画像処理装置及び方法、画像処理システム、並びに、画像処理プログラム
CN101616281A (zh) * 2009-06-26 2009-12-30 中兴通讯股份有限公司南京分公司 一种将手机电视播放画面局部放大的方法及移动终端
KR20110023634A (ko) * 2009-08-31 2011-03-08 (주)아이디스 썸네일 이미지 생성 장치 및 이를 이용한 썸네일 이미지 출력 방법
US20110316697A1 (en) * 2010-06-29 2011-12-29 General Electric Company System and method for monitoring an entity within an area
CN101951493A (zh) * 2010-09-25 2011-01-19 中兴通讯股份有限公司 移动终端及其视频通话中对远端图像局部放大方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883632B1 (ko) * 2008-08-13 2009-02-12 주식회사 일리시스 고해상도 카메라를 이용한 지능형 영상 감시 시스템 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220163574A (ko) * 2021-06-03 2022-12-12 주식회사 지미션 스트림 영상 재생 장치 및 스트림 영상 재생 시스템
KR102500923B1 (ko) * 2021-06-03 2023-02-17 주식회사 지미션 스트림 영상 재생 장치 및 스트림 영상 재생 시스템

Also Published As

Publication number Publication date
CN104081760B (zh) 2018-01-09
EP2768216A1 (en) 2014-08-20
WO2014100966A1 (zh) 2014-07-03
US9064393B2 (en) 2015-06-23
KR20150090223A (ko) 2015-08-05
JP2016506167A (ja) 2016-02-25
EP2768216A4 (en) 2015-10-28
US20140178033A1 (en) 2014-06-26
CN104081760A (zh) 2014-10-01
CN108401134A (zh) 2018-08-14

Similar Documents

Publication Publication Date Title
KR101718373B1 (ko) 비디오 재생 방법, 단말 및 시스템
US9742995B2 (en) Receiver-controlled panoramic view video share
WO2017107441A1 (zh) 截取视频动画的方法及装置
US9667908B2 (en) Image recording system
JP5685224B2 (ja) コンテキスト適応型ユーザインターフェイスシステム
JP2019110545A (ja) ビデオ再生方法、端末、およびシステム
US10692532B2 (en) Systems and methods for video synopses
US11496671B2 (en) Surveillance video streams with embedded object data
JP7126539B2 (ja) ビデオ再生方法、端末、およびシステム
JP2015154465A (ja) 表示制御装置、表示制御方法及びプログラム
JP2013038453A (ja) 情報処理装置及び表示方法
US11509832B2 (en) Low light surveillance system with dual video streams
KR101984825B1 (ko) Api 정보를 이용한 클라우드 디스플레이 화면의 부호화 방법 및 그 장치
CN112948627B (zh) 一种报警视频生成方法、显示方法和装置
JP2017532925A (ja) サブジェクト指向圧縮システムおよび方法
JP2017011498A (ja) 動画再生装置及び動画再生方法
CN112911299A (zh) 一种视频码率控制方法、装置、电子设备和存储介质
US11736796B1 (en) Workload triggered dynamic capture in surveillance systems
CN113067766B (zh) 图片发送方法、装置和电子设备
US9384527B2 (en) Electronic device and image displaying method
CN115134633B (zh) 一种远程视频方法及相关装置
US10666955B2 (en) Still image generating apparatus and information recording medium used in still image generating apparatus
JP2008244872A (ja) 画像表示装置、及びプログラム
JP2016065958A (ja) 表示制御システム、表示制御装置、及びプログラム
CN116347112A (zh) 一种卫星云图实况直播方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal