KR20210114059A - 비디오 처리 방법, 장치, 전자 기기 및 저장 매체 - Google Patents

비디오 처리 방법, 장치, 전자 기기 및 저장 매체 Download PDF

Info

Publication number
KR20210114059A
KR20210114059A KR1020217027630A KR20217027630A KR20210114059A KR 20210114059 A KR20210114059 A KR 20210114059A KR 1020217027630 A KR1020217027630 A KR 1020217027630A KR 20217027630 A KR20217027630 A KR 20217027630A KR 20210114059 A KR20210114059 A KR 20210114059A
Authority
KR
South Korea
Prior art keywords
vibration
video file
target
video
time point
Prior art date
Application number
KR1020217027630A
Other languages
English (en)
Inventor
지자오 리
쿤 송
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202010610290.7A external-priority patent/CN111935551A/zh
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20210114059A publication Critical patent/KR20210114059A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Neurosurgery (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 출원은 비디오 처리 방법, 장치, 전자 기기 및 저장 매체를 개시하고, 인공지능 분야 및 비디오 제작 및 편집 분야에 관한 것이다. 구체적인 구현 방안은 비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하고, 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함함; 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 타겟 비디오 파일을 방송하는 과정에서, 진동 이벤트에 응답하여 단말 기기의 센서를 트리거하여 진동하도록 하는 것을 포함한다. 본 출원에 따르면, 시청자가 클라이언트를 사용하여 비디오를 시청할 때 몰입감을 더욱 잘 느낄 수 있으므로, 사용자가 비디오를 시청하는 체험감을 크게 개선할 수 있다.

Description

비디오 처리 방법, 장치, 전자 기기 및 저장 매체
본 출원은 데이터 처리 분야에 관한 것으로, 구체적으로 인공지능 분야 및 비디오 제작 및 편집 분야에 관한 것으로, 특히 비디오 처리 방법, 장치, 전자 기기 및 저장 매체에 관한 것이다.
인터넷의 급속한 발전에 따라 짧은 비디오와 생중계가 점차적으로 사람들의 생활에 들어오고 있다. 관련 기술에서, 현재 뜨겁게 발전하고 있는 짧은 비디오와 비디오 생중계의 표현 형식은 비디오와 오디오가 결합된 형식이다. 그러나, 이러한 비디오의 표현 형식은 너무 단조롭고, 사용자가 이러한 비디오 파일을 장시간 시청하면, 일반적으로 주의력이 분산되거나 또는 집중하지 못한 상황들이 일어날 수 있고, 따라서, 사용자가 클라이언트를 통해 비디오를 시청할 때, 몰입감을 더욱 잘 느낄 수 있는 방법이 현재 해결해야 할 시급한 문제가 되었다.
본 출원은 비디오 처리 방법, 장치, 전자 기기 및 저장 매체를 제공한다.
본 출원의 제1 측면에 따라 제공되는 비디오 처리 방법은,
비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 상기 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하는 단계 - 상기 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함함-;
상기 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 상기 타겟 비디오 파일을 방송하는 과정에서, 상기 진동 이벤트에 응답하여 상기 단말 기기의 센서를 트리거하여 진동하도록 하는 단계를 포함한다.
본 출원의 제2 측면에 따라 제공되는 다른 비디오 처리 방법은,
서버에서 송신한 진동 이벤트가 포함된 타겟 비디오 파일을 획득하는 단계 - 상기 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함함-;
상기 타겟 비디오 파일을 방송하여, 상기 시간 포인트까지 방송될 때, 상기 진동 이벤트에 응답하여, 상기 시간 포인트에 대응하는 진동 파라미터에 따라 단말 기기의 센서를 트리거하여 진동하는 단계를 포함한다.
본 출원의 제3 측면에 따라 제공되는 비디오 처리 장치는,
비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 상기 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하는 추가 모듈 - 상기 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함함-;
상기 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 상기 타겟 비디오 파일을 방송하는 과정에서, 상기 진동 이벤트에 응답하여 상기 단말 기기의 센서를 트리거하여 진동하도록 하는 송신 모듈을 포함한다.
본 출원의 제4 측면에 따라 제공되는 다른 비디오 처리 장치는,
서버에서 송신한 진동 이벤트가 포함된 타겟 비디오 파일을 획득하는 획득 모듈 - 상기 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함함-;
상기 타겟 비디오 파일을 방송하는 방송 모듈;
상기 타겟 비디오 파일이 상기 시간 포인트까지 방송될 때, 상기 진동 이벤트에 응답하여, 상기 시간 포인트에 대응하는 진동 파라미터에 따라 단말 기기의 센서를 트리거하여 진동하는 진동 응답 모듈을 포함한다.
본 출원의 제5 측면에 따라 제공되는 전자 기기는,
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 가능하게 연결되는 메모리를 포함하고;
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 수행되어, 상기 적어도 하나의 프로세서가 상기 제1 측면의 비디오 처리 방법을 수행하도록 한다.
본 출원의 제6 측면에 따라 제공되는 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체는, 상기 컴퓨터 명령은 상기 컴퓨터가 상기 제1 측면의 비디오 처리 방법을 수행하도록 사용된다.
본 출원의 기술 방안에 따르면, 비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하고, 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 타겟 비디오 파일을 방송하는 과정에서, 진동 이벤트에 응답하여 단말 기기의 센서를 트리거하여 진동할 수 있으므로, 시청자가 클라이언트를 사용하여 비디오를 시청할 때 몰입감을 더욱 잘 느낄 수 있으므로, 사용자가 비디오를 시청하는 체험감을 크게 개선할 수 있다.
이해 가능한 바로는 본 부분에서 설명된 내용은 본 출원의 실시예의 핵심 또는 중요한 특징을 식별하기 위한 것이 아니며, 본 출원의 범위를 한정하지도 않는다. 본 출원의 기타 특징들은 하기의 명세서에 의해 쉽게 이해될 것이다.
첨부된 도면은 본 방안을 더 잘 이해하기 위한 것으로, 본 출원에 대한 한정이 구성되지 않는다. 여기서,
도1은 본 출원의 실시예에 따른 비디오 처리 방법의 흐름도이고;
도2는 본 출원 다른 실시예에 따른 비디오 처리 방법의 흐름도이고;
도3은 본 출원 또 다른 실시예에 따른 비디오 처리 방법의 흐름도이고;
도4는 본 출원 다른 실시예에 따른 비디오 처리 방법의 흐름도이고;
도5는 본 출원의 실시예에 따른 비디오 처리 장치의 구조 블록도이고;
도6은 본 출원 다른 실시예에 따른 비디오 처리 장치의 구조 블록도이고;
도7은 본 출원 또 다른 실시예에 따른 비디오 처리 장치의 구조 블록도이고;
도8은 본 출원의 실시예의 비디오 처리 방법을 구현하기 위한 전자 기기의 블록도이다.
이하, 첨부된 도면을 결합하여 본 출원의 예시적인 실시예에 대해 설명하며, 여기에는 이해를 돕기 위해 본 출원의 실시예의 다양한 세부 사항을 포함하되, 이는 단지 예시적인 것으로 이해해야 한다. 따라서, 당업자는 본 출원의 범위 및 사상을 벗어나지 않는 한 여기에 설명된 실시예에 대해 다양한 변경 및 수정이 이루어질 수 있음을 인식해야 한다. 마찬가지로, 명확성과 간결성을 위해, 하기의 설명에서는 공지된 기능 및 구조에 대한 설명을 생략한다.
도1은 본 출원의 실시예에 따른 비디오 처리 방법의 흐름도이다. 설명해야 하는 바로는, 본 출원의 실시예의 비디오 처리 방법은 본 출원의 실시예의 비디오 처리 장치에 적용될 수 있고, 당해 비디오 처리 장치는 전자 기기에 구성될 수 있다. 당해 전자 기기는 모바일 단말기일 수 있으며, 당해 모바일 단말기는 휴대폰, 태블릿 컴퓨터, 개인용 디지털 비서 등과 같은 다양한 운영 시스템을 구비한 하드웨어 기기일 수 있다.
도1에 도시된 바와 같이, 당해 비디오 처리 방법은 하기와 같은 단계를 포함할 수 있다.
단계 101, 비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하고, 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함한다.
설명해야 하는 바로는, 본 출원의 실시예의 비디오 처리 방법은 전자 기기에 적용될 수 있고, 당해 전자 기기에는 비디오 편집기가 구비될 수 있고, 당해 비디오 편집기는 사용자에게 비디오 획득 인터페이스를 제공할 수 있으며, 사용자가 특정 비디오에 진동 효과를 추가하기 싶을 때, 비디오 편집기는 당해 인터페이스를 통해 사용자가 제공한 처리할 오리지널 비디오 파일을 획득할 수 있다. 즉, 당해 오리지널 비디오 파일은 사용자가 제공한 것일 수 있으며, 비디오 편집기를 사용하여 오리지널 비디오 파일에 진동 이벤트를 추가하여, 생성한 비디오에 진동 효과를 부여한다.
본 출원의 실시예에서, 비디오 편집기를 통해 오리지널 비디오 파일을 편집할 때, 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성할 수 있다. 당해 진동 이벤트의 추가 방식은 전자 기기의 비디오 편집기가 인공지능 기술을 사용하여 오리지널 비디오 파일의 내용에 대해 분석하므로, 오리지널 비디오 파일 중의 특수 요소 정보를 획득하고, 더 나아가 당해 특수 요소 정보를 기반하여 대응하는 진동 이벤트를 추가하여 처리된 비디오 파일이 진동 효과를 구비하는 것일 수 있다. 이 외에, 당해 진동 이벤트의 추가 방식은 또한 사용자 수동 추가일 수 있으며, 즉, 사용자가 요구에 따라 오리지널 비디오 파일의 특정 위치 또는 일부 위치에 진동 이벤트를 추가한다. 이에 따라, 생성된 타겟 비디오 파일에는 오리지널 비디오 파일의 비디오 내용 뿐만 아니라 진동 이벤트도 포함된다.
단계 102, 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 타겟 비디오 파일을 방송하는 과정에서, 진동 이벤트에 응답하여 단말 기기의 센서를 트리거하여 진동한다.
본 출원의 실시예에서, 타겟 비디오 파일을 생성한 다음, 당해 타겟 비디오 파일을 타겟 서버에 업로드할 수 있다. 이에 따라, 기타 사용자가 단말 기기를 통해 타겟 서버로부터 타겟 비디오 파일을 다운로드하여 단말 기기를 통해 당해 타겟 비디오 파일을 방송하는 경우, 진동 이벤트에 포함된 시간 포인트까지 방송할 때, 진동 이벤트에 응답하여, 상기 시간 포인트에 대응하는 진동 파라미터에 따라 단말 기기의 센서를 트리거하여 진동한다.
효율성을 높이고, 사용자 조작 단계를 간소화하고, 비디오 처리의 지능화를 구현하기 위해 인공지능 기술을 사용하여 오리지널 비디오 파일의 내용을 분석하고, 오리지널 비디오 파일 중의 특수 요소 정보를 획득하여, 더 나아가 당해 특수 요소 정보를 기반하여 오리지널 비디오 파일에 진동 이벤트를 자동으로 추가할 수 있다. 구체적으로, 본 출원의 일부 실시예에서, 도2에 도시된 바와 같이, 상기 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하는 구체적인 구현 과정은 하기와 같은 단계를 포함할 수 있다.
단계 201, 오리지널 비디오 파일을 해석하여, 키 화면을 추출한다.
선택적으로, 오리지널 비디오 파일로부터 키 프레임을 추출하고, 이미지 인식 모델을 사용하여 당해 오리지널 비디오 파일 중의 키 프레임에 대해 이미지 인식을 수행하여 당해 오리지널 비디오 파일 중의 키 화면을 획득하도록 한다. 예를 들어, 공포 비디오에서, 갑작스러운 진동이 공포의 정도를 순간 향상할 수 있으므로, 당해 요구에 따라 오리지널 비디오 파일로부터 키 프레임을 추출하고, 그리고 키 프레임에 대해 이미지 인식을 수행하여, 당해 오리지널 비디오 파일 중의 공포 화면을 추출할 수 있다.
또 다른 예를 들면, 강의 또는 수업 강의 또는 오리엔테이션 등과 같은 유형의 비디오에서, 진동을 통해 시청자에게 주의력 집중하도록 리마인드하며, 예컨대, 특정 강의 부분이 중점 내용인 경우, 시청자가 강의에 집중해야 하며, 따라서, 오리지널 비디오 파일 중의 음성 또는 비디오 표시 내용에 대해 당해 오리지널 비디오 파일 중의 어는 또는 어떤 부분이 키 화면인지를 판단하므로, 이러한 키 화면에서 진동 이벤트를 추가하여, 시청자가 당해 비디오를 시청할 때 리마인드하여, 진동을 통해 당해 단락의 비디오 내용을 중점으로 시청하도록 리마인드한다.
단계 202, 미리 설정된 템플릿 데이터베이스를 조회하여 키 화면에 대응하는 타겟 진동 템플릿을 획득하고, 타겟 진동 템플릿은 진동 파라미터를 포함한다.
선택적으로, 오리지널 비디오 파일로부터 키 화면을 추출한 다음 미리 설정된 템플릿 데이터베이스를 조회하여 당해 키 화면에 대응하는 타겟 진동 템플릿을 획득할 수 있다.
설명해야 하는 바로는, 당해 템플릿 데이터베이스는 전자 기기에 구성될 수 있다. 선택적으로, 본 출원의 일부 실시예에서, 템플릿 데이터베이스를 비디오 편집기에 통합할 수 있고, 당해 템플릿 데이터베이스는 기기 제공업체가 제공한 고유 진동 템플릿 및 사용자가 소프트웨어 제어 파라미터를 선택하는 것을 통해 설정되는 자체 정의 진동 템플릿 중의 적어도 하나를 포함한다. 본 출원의 실시예에서, 진동 템플릿에는 진동 파라미터를 포함할 수 있으며, 당해 진동 파라미터는 진동 횟수, 매번 진동 사이의 시간 간격, 매번 진동의 시간 길이 등 중의 하나 또는 하나 이상을 포함할 수 있지만, 이에 제한되지 않는다.
본 출원의 실시예에서, 각 유형의 키 화면은 적어도 하나의 진동 템플릿에 대응할 수 있고, 각 진동 템플릿 중의 진동 파라미터는 다르며, 이에 따라, 오리지널 비디오 파일 중의 키 화면을 획득한 후, 미리 설정된 템플릿 데이터베이스를 조회하여 당해 키 화면에 대응하는 타겟 진동 템플릿을 획득할 수 있다. 예를 들어, 공포 비디오에 진동 이벤트를 추가하는 예를 들어, 공포 등급이 5개 등급으로 나누면, 각 등급에 하나의 진동 템플릿이 대응되며, 이에 따라, 당해 공포 비디오의 키 화면을 획득한 후, 당해 키 화면의 등급을 결정할 수 있고, 당해 키 화면의 등급에 따라 템플릿 데이터베이스로부터 당해 키 화면의 등급에 대응하는 진동 템플릿을 찾을 수 있다. 이에 따라, 키 화면의 등급의 차이를 기반하여 오리지널 비디오 파일에 서로 다른 진동 이벤트를 추가할 수 있고, 비디오 내용을 기반하여 대응하는 진동 효과를 추가할 수 있고, 비디오를 시청할 때 사용자의 체험감을 크게 개선할 수 있다.
이해 가능한 바로는, 강의 유형의 비디오에 있어서, 강의 내용의 중점 등급에 따라, 서로 다른 진동 템플릿을 획득할 수 있고, 더 나아가, 오리지널 비디오 파일에서의 대응하는 위치에서 상응하는 진동 효과를 추가하여 시청자에게 주의력 집중하도록 리마인드할 수 있다.
단계 203, 오리지널 비디오 파일 중의 키 화면에 대응하는 시간 포인트를 획득한다.
즉, 키 화면이 오리지널 비디오 파일에서 대응하는 시간 포인트를 획득할 수 있다. 예를 들어, 공포 비디오에 진동 이벤트를 추가하는 예를 들어, 당해 공포 비디오 중의 특정 공포 화면을 추출할 때, 당해 공포 화면이 당해 공포 비디오에서 대응하는 방송 시간 포인트를 획득할 수 있으며, 당해 방송 시간 포인트는 오리지널 비디오 파일에서의 진동 이벤트의 추가 위치로 사용될 수 있다.
단계 204, 타겟 진동 템플릿을 오리지널 비디오 파일 중의 시간 포인트에 대응하는 위치에 스플라이싱하여 타겟 비디오 파일을 생성한다.
즉, 오리지널 비디오 파일 중의 키 화면 및 당해 키 화면이 비디오 파일에서 대응하는 시간 포인트를 획득할 때, 당해 키 화면에 대응하는 타겟 진동 템플릿과 오리지널 비디오 파일을 융합할 수 있다. 예를 들어, 당해 시간 포인트에 진동 이벤트의 트리거 표지를 추가할 수 있고, 진동 이벤트 트리거 표지가 추가된 오리지널 비디오 파일과 타겟 진동 템플릿을 하나의 파일로 합성하여, 진동 효과를 구비한 타겟 비디오 파일을 획득할 수 있다.
이에 따라, 인공지능 기술을 사용하여 오리지널 비디오 파일의 내용을 분석하므로, 오리지널 비디오 파일 중의 특수 요소 정보를 획득하고, 더 나아가 당해 특수 요소 정보를 기반하여 오리지널 비디오 파일에 진동 이벤트를 자동으로 추가하여, 사용자 조작 단계를 간소화할 수 있고, 효율성을 높이고, 비디오 처리의 지능화를 구현할 수 있다.
사용자의 체험감을 진일보 개선하고, 사용자의 개성화 요구를 만족하기 위해, 사용자는 자신의 요구에 따라 비디오 중의 진동 이벤트의 추가 위치를 선택할 수 있다. 선택적으로, 본 출원의 일부 실시예에서, 도3에 도시된 바와 같이, 상기 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하는 구체적인 구현 과정은 하기와 같은 단계를 포함할 수 있다.
단계 301, 오리지널 비디오 파일 중의 내용 흥취점을 획득한다.
선택적으로, 비디오 편집기를 통해 오리지널 비디오 파일 중의 각 프레임 이미지를 추출하여 사용자에게 제시하고, 사용자는 자신의 요구에 따라 오리지널 비디오 파일 중의 어떤 프레임 내용에 흥취있는지를 선택하여, 오리지널 비디오 파일 중의 내용 흥취점을 획득할 수 있다.
단계 302, 진동 설정 인터페이스를 호출하여, 내용 흥취점에 따라 진동 파라미터를 선택하고, 진동 파라미터를 오리지널 비디오 파일 중의 내용 흥취점에 대응하는 시간 포인트와 관련 설정한다.
선택적으로, 오리지널 비디오 파일 중의 사용자의 내용 흥취점을 획득한 다음, 사용자를 위해 진동 설정 인터페이스를 향상할 수 있고, 당해 내용 흥취점에 따라 진동 파라미터를 선택하여, 사용자가 진동 파라미터를 선택한 것을 획인한 다음, 당해 사용자가 선택한 진동 파라미터를 오리지널 비디오 파일 중의 내용 흥취점에 대응하는 시간 포인트와 관련 설정하여, 진동 효과를 구비한 타겟 비디오 파일을 생성할 수 있다.
이에 따라, 사용자가 자신의 요구에 따라 진동 이벤트가 비디오에서의 추가 위치를 선택하고, 더 나아가 위치에서 진동 이벤트를 추가하므로, 사용자에게 비디오에 진동 효과를 추가하는 편집 기능을 제공하여, 사용자로 하여금 비디오에 대해 진동 방식을 편집하는 능력을 구비할 수 있도록 하여, 사용자의 개성화 요구를 만족하고, 사용자의 체험감을 진일보 개선할 수 있다.
설명해야 하는 바로는, 본 출원의 실시예의 오리지널 비디오는 짧은 비디오 또는 기타 비디오일 수 있고, 생중계에서 실시간으로 생중계 서버로 업로드하는 실시간 비다오 스트림일 수 있다. 즉, 본 출원의 실시예의 비디오 처리 방법은 또한 비디오 생중계 장면에 적용될 수 있으며, 예를 들어, 생중계 소프트웨어에 비디오 편집기가 삽입되어, 메인 아나운서가 생중계 소프트웨어를 통해 생중계하는 과정에서, 메인 아나운서가 사용자에게 진동을 전달하여 새로운 인터랙션 형식을 완성하려고 하면, 메인 아나운서는 생중계 소프트웨어 중의 비디오 편집기를 통해 진동 템플릿을 생중계의 특정 시각에 추가할 수 있고, 전자 기기는 당해 메인 아나운서가 생중계를 진행할 때의 실시간 비디오 스트림을 획득할 수 있고, 당해 시각이 실시간 비디오 스트림에서 대응하는 시간 포인트를 진동 이벤트의 추가 위치로 결정하고, 당해 진동 템플릿을 당해 추가 위치와 관련 설정하고, 진동 템플릿과 관련된 실시간 비디오 스트림을 타겟 서버로 업로드한다. 생중계를 시청하는 사용자는 단말 기기를 통해 당해 타겟 서버로부터 당해 생중계의 실시간 비디오 스트림을 획득하고, 당해 생중계의 실시간 비디오 스트림을 방송하는 경우, 당해 진동 이벤트가 추가된 시간 포인트까지 방송할 때, 진동 이벤트 중의 진동 파라미터에 따라 단말 기기의 센서를 트리거하여 진동하며, 생중계에서 진동을 시청자에게 전달하는 효과를 달성하도록 한다. 이에 따라, 당해 메인 아나운서를 시청하는 시청자가 단말 기기를 통해 그의 생중계를 시청할 때, 단말 기기는 생중계 서버로부터 스트림 풀할 수 있고, 서버로부터 획득한 당해 생중계에 대응하는 실시간 비디오 스트림을 방송하고, 대응하는 진동 시간의 추가 위치(진동 이벤트가 추가된 시간 포인트)까지 방송할 때, 단말 기기의 센서를 트리거하여 진동하며, 생중계에서 진동을 시청자에게 전달하는 효과를 달성하도록 한다.
본 출원의 실시예의 비디오 처리 방법에 따르면, 비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성할 수 있고, 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 타겟 비디오 파일을 방송하는 과정에서, 진동 이벤트에 응답하여 단말 기기의 센서를 트리거하여 진동한다. 비디오 편집자에 있어서, 완전히 새로운 편집 방식을 추가하는 바, 진동을 추가할 수 있으므로 편집자 자신의 비디오를 더욱 훌륭하게 표현할 수 있고, 생중계에 진동을 추가할 수 있으므로 시청자와의 인터랙션을 더욱 훌륭하게 진행할 수 있고, 비디오 시청자에 있어서, 새로운 시청 느낌을 추가하는 바, 비디오 및 생중계를 시청할 때, 단말 기기의 진동을 느끼는 것을 통해 4차원 효과를 시뮬레이션하여, 시청자가 클라이언트를 사용하여 비디오를 시청할 때 몰입감을 더욱 느끼게할 수 있고, 시청자가 비디오의 내용을 더욱 훌륭하게 이해할 수 있고, 사용자가 비디오를 시청하는 체험감을 크게 개선할 수 있다.
도4는 본 출원 다른 실시예에 따른 비디오 처리 방법의 흐름도이다. 도4에 도시된 바와 같이, 당해 비디오 처리 방법은 하기와 같은 단계를 포함할 수 있다.
단계 401, 서버에서 송신한 진동 이벤트가 포함된 타겟 비디오 파일을 획득하고, 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함한다.
예를 들어, 시청자는 단말 기기를 통해 서버로부터 당해 진동 이벤트가 포함된 타겟 비디오 파일을 획득할 수 있다. 당해 타겟 비디오 파일은 짧은 비디오 파일일 수 있고, 생중계의 실시간 비디오 스트림 파일일 수도 있다.
본 출원의 실시예에서, 상기 타겟 비디오 파일은 전술한 도1 내지 도3에 도시된 비디오 처리 방법을 통해 오리지널 비디오 파일에 대해 편집 처리하여 획득한 비디오 파일일 수 있다. 당해 타겟 비디오 파일은 진동 이벤트를 포함하고, 당해 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함한다. 당해 진동 파라미터는 진동 횟수, 매번 진동 사이의 시간 간격, 매번 진동의 시간 길이 등 중의 하나 또는 하나 이상을 포함할 수 있지만, 이에 제한되지 않는다.
단계 402, 타겟 비디오 파일을 방송하여, 당해 진동 이벤트의 시간 포인트까지 방송될 때, 진동 이벤트에 응답하여, 시간 포인트에 대응하는 진동 파라미터에 따라 단말 기기의 센서를 트리거하여 진동한다.
즉, 타겟 비디오 파일을 획득할 때, 타겟 비디오 파일을 방송할 수 있으며, 방송 과정에서 진동 이벤트가 추가된 위치까지 방송할 때, 비디오 파일의 원본 내용을 방송하는 동시에, 당해 진동 이벤트에 응답하여, 당해 위치에서 진동 이벤트에 대응되는 진동 파라미터에 따라 단말 기기의 센서를 트리거하여 진동하므로, 비디오 오리지널 내용을 방송하는 동시에, 사용자에게 당해 내용에 대응하는 진동 행위를 전시한다. 본 출원의 실시예에서, 당해 센서는 진동 센서일 수 있다.
본 출원의 실시예의 비디오 처리 방법에 따르면, 비디오에 진동 이벤트를 추가하는 것을 통해, 당해 비디오가 방송될 때, 또한 당해 진동 이벤트가 추가된 위치까지 방송될 때, 비디오 오리지널 내용을 방송하는 동시에, 사용자에게 당해 내용에 대응하는 진동 행위를 전시할 수 있다. 비디오 편집자에 있어서, 완전히 새로운 편집 방식을 추가하는 바, 진동을 추가할 수 있으므로 편집자 자신의 비디오를 더욱 훌륭하게 표현할 수 있고, 생중계에 진동을 추가할 수 있으므로 시청자와의 인터랙션을 더욱 훌륭하게 진행할 수 있고, 비디오 시청자에 있어서, 새로운 시청 느낌을 추가하는 바, 비디오 및 생중계를 시청할 때, 단말 기기의 진동을 느끼는 것을 통해 4차원 효과를 시뮬레이션하여, 시청자가 클라이언트를 사용하여 비디오를 시청할 때 몰입감을 더욱 느끼게할 수 있고, 사용자가 비디오를 시청하는 체험감을 크게 개선할 수 있다.
상기 실시예를 구현하기 위해, 본 출원은 또한 비디오 처리 장치를 제공한다.
도5는 본 출원의 실시예에 따른 비디오 처리 장치의 구조 블록도이다. 도5에 도시된 바와 같이, 당해 비디오 처리 장치(500)는 추가 모듈(510) 및 송신 모듈(520)을 포함할 수 있다.
구체적으로, 추가 모듈(510)은 비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하도록 사용되고, 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함한다.
송신 모듈(520)은 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 타겟 비디오 파일을 방송하는 과정에서, 진동 이벤트에 응답하여 단말 기기의 센서를 트리거하여 진동하도록 사용된다.
본 출원의 일부 실시예에서, 추가 모듈(510)은, 구체적으로, 오리지널 비디오 파일을 해석하여, 키 화면을 추출하고; 미리 설정된 템플릿 데이터베이스를 조회하여, 키 화면에 대응하는 타겟 진동 템플릿을 획득하고, 타겟 진동 템플릿은 진동 파라미터를 포함하고; 오리지널 비디오 파일 중의 키 화면에 대응하는 시간 포인트를 획득하고; 타겟 진동 템플릿을 오리지널 비디오 파일 중의 시간 포인트에 대응하는 위치에 스플라이싱하여, 타겟 비디오 파일을 생성하도록 사용된다.
본 출원의 실시예에서, 도6에 도시된 바와 같이, 당해 비디오 처리 장치(500)는 통합 모듈(530)을 더 포함할 수 있고, 통합 모듈(530)은 템플릿 데이터베이스를 비디오 편집기에 통합하도록 사용되고, 템플릿 데이터베이스는 기기 제공업체가 제공한 고유 진동 템플릿, 및/또는, 사용자가 소프트웨어 제어 파라미터를 선택하는 것을 통해 설정되는 자체 정의 진동 템플릿을 포함한다.
본 출원의 일부 실시예에서, 추가 모듈(510)은, 구체적으로, 오리지널 비디오 파일 중의 내용 흥취점을 획득하고; 진동 설정 인터페이스를 호출하여 내용 흥취점에 따라 진동 파라미터를 선택하고, 진동 파라미터를 오리지널 비디오 파일 중의 내용 흥취점에 대응하는 시간 포인트와 관련 설정하도록 사용된다.
본 출원의 실시예의 비디오 처리 장치에 따르면, 비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성할 수 있고, 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 타겟 비디오 파일을 방송하는 과정에서, 진동 이벤트에 응답하여 단말 기기의 센서를 트리거하여 진동한다. 비디오 편집자에 있어서, 완전히 새로운 편집 방식을 추가하는 바, 진동을 추가할 수 있으므로 편집자 자신의 비디오를 더욱 훌륭하게 표현할 수 있고, 생중계에 진동을 추가할 수 있으므로 시청자와의 인터랙션을 더욱 훌륭하게 진행할 수 있고, 비디오 시청자에 있어서, 새로운 시청 느낌을 추가하는 바, 비디오 및 생중계를 시청할 때, 단말 기기의 진동을 느끼는 것을 통해 4차원 효과를 시뮬레이션하여, 시청자가 클라이언트를 사용하여 비디오를 시청할 때 몰입감을 더욱 느끼게할 수 있고, 시청자가 비디오의 내용을 더욱 훌륭하게 이해할 수 있고, 사용자가 비디오를 시청하는 체험감을 크게 개선할 수 있다.
상기 실시예를 구현하기 위해, 본 출원은 또한 다른 비디오 처리 장치를 제공한다.
도7은 본 출원 또 다른 실시예에 따른 비디오 처리 장치의 구조 블록도이다. 도7에 도시된 바와 같이, 당해 비디오 처리 장치(700)는 획득 모듈(710), 방송 모듈(720) 및 진동 응답 모듈(730)을 포함할 수 있다.
구체적으로, 획득 모듈(710)은 서버에서 송신한 진동 이벤트가 포함된 타겟 비디오 파일을 획득하도록 사용되고, 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함한다.
방송 모듈(720)은 타겟 비디오 파일을 방송하도록 사용된다.
진동 응답 모듈(730)은 타겟 비디오 파일이 시간 포인트까지 방송될 때, 진동 이벤트에 응답하여, 시간 포인트에 대응하는 진동 파라미터에 따라 단말 기기의 센서를 트리거하여 진동하도록 사용된다.
본 출원의 실시예의 비디오 처리 장치에 따르면, 비디오에 진동 이벤트를 추가하는 것을 통해, 당해 비디오가 방송될 때, 또한 당해 진동 이벤트가 추가된 위치까지 방송될 때, 비디오 오리지널 내용을 방송하는 동시에, 사용자에게 당해 내용에 대응하는 진동 행위를 전시할 수 있다. 비디오 편집자에 있어서, 완전히 새로운 편집 방식을 추가하는 바, 진동을 추가할 수 있으므로 편집자 자신의 비디오를 더욱 훌륭하게 표현할 수 있고, 생중계에 진동을 추가할 수 있으므로 시청자와의 인터랙션을 더욱 훌륭하게 진행할 수 있고, 비디오 시청자에 있어서, 새로운 시청 느낌을 추가하는 바, 비디오 및 생중계를 시청할 때, 단말 기기의 진동을 느끼는 것을 통해 4차원 효과를 시뮬레이션하여, 시청자가 클라이언트를 사용하여 비디오를 시청할 때 몰입감을 더욱 느끼게할 수 있고, 사용자가 비디오를 시청하는 체험감을 크게 개선할 수 있다.
본 출원의 실시예를 따르면, 본 출원은 또한 전자 기기 및 판독 가능 저장 매체가 제공된다.
도8에 도시된 바와 같이, 도8는 본 출원의 실시예의 비디오 처리 방법을 구현하기 위한 전자 기기의 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크 스테이션, 개인용 디지털 비서, 서버, 블레이드 서버, 메인 프레임 컴퓨터 및 기타 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 나타내기 위한 것이다. 전자 기기는 또한 개인용 디지털 처리, 셀룰러 폰, 스마트 폰, 웨어러블 기기 및 기타 유사한 컴퓨팅 장치와 같은 다양한 형태의 모바일 장치를 나타낼 수도 있다. 본 명세서에서 제시된 구성 요소, 이들의 연결 및 관계, 또한 이들의 기능은 단지 예일 뿐이며 본문에서 설명되거나 및/또는 요구되는 본 출원의 구현을 제한하려는 의도가 아니다.
도8에 도시된 바와 같이, 당해 전자 기기는 하나 또는 하나 이상의 프로세서(801), 메모리(802) 및 고속 인터페이스와 저속 인터페이스를 포함하는 각 구성 요소를 연결하기 위한 인터페이스를 포함한다. 각 구성 요소는 서로 다른 버스를 사용하여 서로 연결되며 공통 메인보드에 설치되거나 필요에 따라 다른 방식으로 설치될 수도 있다. 프로세서는 전자 기기 내부에서 수행되는 명령을 처리할 수 있고, 메모리 내에 혹은 메모리 위에 저장된 외부 입력 장치 또는 출력 장치(예를 들어, 인터페이스에 연결된 디스플레이 기기) 중의 적어도 하나에 GUI의 그래픽 정보를 디스플레이하기 위한 명령을 포함한다. 다른 실시 방식에서, 필요한 경우, 다수의 프로세서 및/또는 다수의 버스와 다수의 메모리를 다수의 메모리와 함께 사용될 수 있다. 마찬가지로 다수의 전자 기기를 연결할 수 있으며 각 기기는 필요한 작업의 일부를 제공한다(예를 들어, 서버 어레이, 블레이드 서버 세트 또는 다중 프로세서 시스템). 도8에서는 프로세서(801)가 예시로 도시되었다.
메모리(802)는 본 출원에 의해 제공되는 비일시적 컴퓨터 판독 가능 저장 매체이다. 상기 메모리는 적어도 하나의 프로세서에 의해 수행 가능한 명령을 저장하므로, 상기 적어도 하나의 프로세서에 의해 본 출원에서 제공되는 비디오 처리 방법을 수행하도록 한다. 본 출원의 비일시적 컴퓨터 판독 가능 저장 매체에는 컴퓨터 명령이 저장되어 있고, 당해 컴퓨터 명령은 컴퓨터에 의해 본 출원에서 제공되는 비디오 처리 방법을 수행하도록 사용된다.
메모리(802)는 비일시적 컴퓨터 판독 가능 저장 매체로서, 본 출원의 실시예에서의 비디오 처리 방법에 대응되는 프로그램 명령/모듈(예를 들어, 도5에 도시된 추가 모듈(510) 및 송신 모듈(520), 또는 도7에 도시된 획득 모듈(710), 방송 모듈(720) 및 진동 응답 모듈(730))과 같은 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 수행 가능 프로그램 및 모듈을 저장하는데 사용될 수 있다. 프로세서(801)는 메모리(802)에 저장되어 있는 비일시적 소프트웨어 프로그램, 명령 및 모듈을 수행함으로써 서버의 다양한 기능 애플리케이션 및 데이터 처리를 수행하며, 즉 전술한 방법 실시예에 따른 비디오 처리 방법을 구현한다.
메모리(802)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있는 바, 여기서 프로그램 저장 영역은 운영 시스템, 적어도 하나의 기능에 필요한 애플리케이션 프로그램을 저장할 수 있고; 데이터 저장 영역은 비디오 처리 방법을 수행하는 전자 기기의 사용시 구축된 데이터 등을 저장할 수 있다. 이 외에, 메모리(802)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 적어도 하나의 자기 디스크 메모리 소자, 플래시 메모리 소자 또는 기타 비일시적 솔리드 스테이트 메모리 소자와 같은 비일시적 메모리를 포함할 수도 있다. 일부 실시예에서, 메모리(802)는 프로세서(801)에 대해 원격으로 설치되는 메모리를 선택적으로 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 비디오 처리 방법을 구현하기 위한 전자 기기에 연결될 수 있다. 상기 네트워크의 구현예는 인터넷, 기업 인트라넷, 근거리 통신망, 모바일 통신망 및 이들의 조합을 포함하지만 이에 제한되지 않는다.
비디오 처리 방법을 구현하기 위한 전자 기기는 입력 장치(803) 및 출력 장치(804)를 더 포함할 수 있다. 프로세서(801), 메모리(802), 입력 장치(803) 및 출력 장치(804)는 버스 또는 다른 방식으로 연결될 수 있고, 도8에서는 버스를 통한 연결을 예시로 도시되었다.
입력 장치(803)는 입력된 디지털 또는 캐릭터 정보를 수신하고, 비디오 처리 방법을 구현하기 위한 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 생성할 수 있으며, 예를 들어 터치 스크린, 작은 키보드, 마우스, 트랙 패드, 터치 패드, 포인팅 스틱, 하나 또는 하나 이상의 마우스 버튼, 트랙볼, 조이스틱 등과 같은 입력 장치일 수 있다. 출력 장치(804)는 디스플레이 기기, 보조 조명 장치(예를 들어, LED) 및 촉각 피드백 장치(예를 들어, 진동 모터) 등을 포함할 수 있다. 당해 디스플레이 기기는 액정 디스플레이 장치(LCD), 발광 다이오드(LED) 디스플레이 장치 및 플라즈마 디스플레이 장치를 포함할 수 있으나 이에 제한되지 않는다. 일부 실시 방식에서, 디스플레이 기기는 터치 스크린일 수 있다.
여기서 설명된 시스템 및 기술의 다양한 실시 방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 주문형 ASIC(주문형 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및 이들의 조합 중의 적어도 하나로 구현될 수 있다. 이러한 다양한 실시 방식은 하나 또는 하나 이상의 컴퓨터 프로그램에서의 구현을 포함할 수 있으며, 당해 하나 또는 하나 이상의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 수행 및/또는 해석될 수있고, 당해 프로그램 가능 프로세서는 전용 또는 일반용일 수 있고, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신하고 또한 데이터 및 명령을 당해 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션 또는 코드로 지칭되기도 함)은 프로그램 가능 프로세서의 기계 명령을 포함하고, 고급 프로세스 및/또는 객체 지향 프로그래밍 언어 및/또는 어셈블리/기계 언어를 사용하여 이러한 컴퓨팅 프로그램을 실시할 수 있다. 본 명세서에서 사용되는 용어 "기계 판독 가능 매체" 및 "컴퓨터 판독 가능 매체"는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 컴퓨터 프로그램 제품, 기기 및/또는 장치(예를 들어, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 논리 장치(PLD))를 의미하고, 기계 판독 가능 신호인 기계 명령을 수신하는 기계 판독 가능 매체를 포함한다. 용어 "기계 판독 가능 신호"는 기계 명령 및/또는 데이터를 프로그램 가능 프로세서에 제공하기 위한 임의의 신호를 의미한다.
사용자와의 인터랙션을 제공하기 위해 여기에 설명된 시스템 및 기술은 컴퓨터에서 실시될 수 있다. 당해 컴퓨터는 사용자에게 정보를 디스플레이하기 위한 디스플레이 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 디스플레이) 모니터); 및 키보드 및 포인팅 장치(예를 들어, 마우스 또는 트랙볼)를 구비하며, 사용자는 당해 키보드 및 포인팅 장치를 통해 컴퓨터에 입력을 제공할 수 있다. 다른 유형의 장치를 사용하여 사용자와의 인터랙션을 제공할 수도 있으며, 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각적 피드백, 청각적 피드백 또는 촉각적 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력 또는 촉각 입력을 포함)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술은 백엔드 구성 요소를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버로 사용됨), 또는 미들웨어 구성 요소를 포함하는 컴퓨팅 시스템(예를 들어, 애플리케이션 서버), 또는 프런트 엔드 구성 요소를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 구비하는 사용자 컴퓨터인 바, 사용자는 당해 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시 방식과 인터랙션할 수 있음), 또는 이러한 백엔드 구성 요소, 미들웨어 구성 요소 또는 프런트 엔드 구성 요소의 임의의 조합을 포한하는 컴퓨팅 시스템에서 실시될 수 있다. 시스템의 구성 요소는 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 서로 연결될 수 있다. 통신 네트워크의 예로는 근거리 통신망(LAN), 광역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고, 일반적으로 통신 네트워크를 통해 인터랙션한다. 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 대응되는 컴퓨터에서 수행하여 클라이언트와 서버 간의 관계를 생성한다.
본 출원의 실시예의 기술 방안에 따르면, 비디오에 진동 이벤트를 추가하는 것을 통해, 당해 비디오가 방송될 때, 또한 당해 진동 이벤트가 추가된 위치까지 방송될 때, 비디오 오리지널 내용을 방송하는 동시에, 사용자에게 당해 내용에 대응하는 진동 행위를 전시할 수 있다. 비디오 편집자에 있어서, 완전히 새로운 편집 방식을 추가하는 바, 진동을 추가할 수 있으므로 편집자 자신의 비디오를 더욱 훌륭하게 표현할 수 있고, 생중계에 진동을 추가할 수 있으므로 시청자와의 인터랙션을 더욱 훌륭하게 진행할 수 있고, 비디오 시청자에 있어서, 새로운 시청 느낌을 추가하는 바, 비디오 및 생중계를 시청할 때, 단말 기기의 진동을 느끼는 것을 통해 4차원 효과를 시뮬레이션하여, 시청자가 클라이언트를 사용하여 비디오를 시청할 때 몰입감을 더욱 느끼게할 수 있고, 사용자가 비디오를 시청하는 체험감을 크게 개선할 수 있다.
이해 가능한 바로는 전술한 다양한 형태의 프로세스에 있어서 단계 재정렬, 추가 또는 삭제를 할 수 있다. 예를 들어, 본 출원에 개시된 기술 방안이 이루고자 하는 결과를 구현할 수 있는 한, 본 출원에 기재된 각 단계들은 병렬로, 순차적으로 또는 다른 순서로 수행될 수 있으나, 본 명세서에서 이에 대해 한정하지 않는다.
전술한 구체적인 실시 방식들은 본 출원의 보호 범위에 대한 한정을 구성하지 않는다. 당업자라면 본 출원의 설계 요건 및 기타 요인에 따라 다양한 수정, 조합, 서브 조합 및 대체가 이루어질 수 있음을 이해해야 한다. 본 출원의 정신과 원칙 내에서 이루어진 모든 수정, 동등한 대체 및 개선은 본 출원의 보호 범위에 포함된다.

Claims (12)

  1. 비디오 처리 방법에 있어서,
    비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 상기 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하는 단계 - 상기 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함함-; 및
    상기 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 상기 타겟 비디오 파일을 방송하는 과정에서, 상기 진동 이벤트에 응답하여 상기 단말 기기의 센서를 트리거하여 진동하도록 하는 단계를 포함하는 것,
    을 특징으로 하는 비디오 처리 방법.
  2. 제1항에 있어서,
    상기 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하는 단계는,
    상기 오리지널 비디오 파일을 해석하여, 키 화면을 추출하는 단계;
    미리 설정된 템플릿 데이터베이스를 조회하여 상기 키 화면에 대응하는 타겟 진동 템플릿을 획득하는 단계 - 상기 타겟 진동 템플릿은 진동 파라미터를 포함함;
    상기 오리지널 비디오 파일 중의 상기 키 화면에 대응하는 시간 포인트를 획득하는 단계; 및
    상기 타겟 진동 템플릿을 상기 오리지널 비디오 파일 중의 상기 시간 포인트에 대응하는 위치에 스플라이싱하여 상기 타겟 비디오 파일을 생성하는 단계를 포함하는 것,
    을 특징으로 하는 비디오 처리 방법.
  3. 제2항에 있어서,
    상기 미리 설정된 템플릿 데이터베이스를 조회하기 전에,
    상기 템플릿 데이터베이스를 상기 비디오 편집기에 통합하는 단계를 더 포함하고, 상기 템플릿 데이터베이스는 기기 제공업체가 제공한 고유 진동 템플릿 및 사용자가 소프트웨어 제어 파라미터를 선택하는 것을 통해 설정되는 자체 정의 진동 템플릿 중의 적어도 하나를 포함하는 것,
    을 특징으로 하는 비디오 처리 방법.
  4. 제1항에 있어서,
    상기 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하는 단계는,
    상기 오리지널 비디오 파일 중의 내용 흥취점을 획득하는 단계; 및
    진동 설정 인터페이스를 호출하여, 상기 내용 흥취점에 따라 진동 파라미터를 선택하고, 상기 진동 파라미터를 상기 오리지널 비디오 파일 중의 상기 내용 흥취점에 대응하는 시간 포인트와 관련 설정하는 단계를 포함하는 것,
    을 특징으로 하는 비디오 처리 방법.
  5. 비디오 처리 방법에 있어서,
    서버에서 송신한 진동 이벤트가 포함된 타겟 비디오 파일을 획득하는 단계 - 상기 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함함-;
    상기 타겟 비디오 파일을 방송하여, 상기 시간 포인트까지 방송될 때, 상기 진동 이벤트에 응답하여, 상기 시간 포인트에 대응하는 진동 파라미터에 따라 단말 기기의 센서를 트리거하여 진동하는 단계를 포함하는 것,
    을 특징으로 하는 비디오 처리 방법.
  6. 비디오 처리 장치에 있어서,
    비디오 편집기를 통해 오리지널 비디오 파일을 편집하고, 상기 오리지널 비디오 파일에 진동 이벤트를 추가하여 타겟 비디오 파일을 생성하는 추가 모듈 - 상기 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함함-;
    상기 타겟 비디오 파일을 타겟 서버에 송신하여, 사용자가 단말 기기에서 상기 타겟 비디오 파일을 방송하는 과정에서, 상기 진동 이벤트에 응답하여 상기 단말 기기의 센서를 트리거하여 진동하도록 하는 송신 모듈을 포함하는 것,
    을 특징으로 하는 비디오 처리 장치.
  7. 제6항에 있어서,
    상기 추가 모듈은, 구체적으로,
    상기 오리지널 비디오 파일을 해석하여, 키 화면을 추출하고;
    미리 설정된 템플릿 데이터베이스를 조회하여 상기 키 화면에 대응하는 타겟 진동 템플릿을 획득하고, 상기 타겟 진동 템플릿은 진동 파라미터를 포함함;
    상기 오리지널 비디오 파일 중의 상기 키 화면에 대응하는 시간 포인트를 획득하고;
    상기 타겟 진동 템플릿을 상기 오리지널 비디오 파일 중의 상기 시간 포인트에 대응하는 위치에 스플라이싱하여 상기 타겟 비디오 파일을 생성하도록 사용되는 것,
    을 특징으로 하는 비디오 처리 장치.
  8. 제7항에 있어서,
    상기 비디오 처리 장치는,
    상기 템플릿 데이터베이스를 상기 비디오 편집기에 통합하는 통합 모듈을 더 포함하고, 상기 템플릿 데이터베이스는 기기 제공업체가 제공한 고유 진동 템플릿 및 사용자가 소프트웨어 제어 파라미터를 선택하는 것을 통해 설정되는 자체 정의 진동 템플릿 중의 적어도 하나를 포함하는 것,
    을 특징으로 하는 비디오 처리 장치.
  9. 제6항에 있어서,
    상기 추가 모듈은, 구체적으로,
    상기 오리지널 비디오 파일 중의 내용 흥취점을 획득하고;
    진동 설정 인터페이스를 호출하여, 상기 내용 흥취점에 따라 진동 파라미터를 선택하고, 상기 진동 파라미터를 상기 오리지널 비디오 파일 중의 상기 내용 흥취점에 대응하는 시간 포인트와 관련 설정하도록 사용되는 것,
    을 특징으로 하는 비디오 처리 장치.
  10. 비디오 처리 장치에 있어서,
    서버에서 송신한 진동 이벤트가 포함된 타겟 비디오 파일을 획득하는 획득 모듈 - 상기 진동 이벤트는 시간 포인트 및 대응되는 진동 파라미터를 포함함-;
    상기 타겟 비디오 파일을 방송하는 방송 모듈; 및
    상기 타겟 비디오 파일이 상기 시간 포인트까지 방송될 때, 상기 진동 이벤트에 응답하여, 상기 시간 포인트에 대응하는 진동 파라미터에 따라 단말 기기의 센서를 트리거하여 진동하는 진동 응답 모듈을 포함하는 것,
    을 특징으로 하는 비디오 처리 장치.
  11. 전자 기기에 있어서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 가능하게 연결되는 메모리를 포함하고; 여기서,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 수행 가능한 명령이 저장되어 있고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 수행되어, 상기 적어도 하나의 프로세서가 제1항 내지 제5항 중 어느 한 항에 따른 비디오 처리 방법을 수행하도록 하는 것,
    을 특징으로 하는 전자 기기.
  12. 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제5항 중 어느 한 항에 따른 비디오 처리 방법을 수행하도록 하는 것,
    을 특징으로 하는 컴퓨터 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체.
KR1020217027630A 2020-06-30 2020-12-01 비디오 처리 방법, 장치, 전자 기기 및 저장 매체 KR20210114059A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010610290.7A CN111935551A (zh) 2020-06-30 2020-06-30 视频处理方法、装置、电子设备和存储介质
CN202010610290.7 2020-06-30
PCT/CN2020/133172 WO2022000983A1 (zh) 2020-06-30 2020-12-01 视频处理方法、装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
KR20210114059A true KR20210114059A (ko) 2021-09-17

Family

ID=77926567

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217027630A KR20210114059A (ko) 2020-06-30 2020-12-01 비디오 처리 방법, 장치, 전자 기기 및 저장 매체

Country Status (4)

Country Link
US (1) US20210392394A1 (ko)
EP (1) EP3955585A4 (ko)
JP (1) JP2022541968A (ko)
KR (1) KR20210114059A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114697761B (zh) * 2022-04-07 2024-02-13 脸萌有限公司 一种处理方法、装置、终端设备及介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9019087B2 (en) * 2007-10-16 2015-04-28 Immersion Corporation Synchronization of haptic effect data in a media stream
JP2012010212A (ja) * 2010-06-28 2012-01-12 Casio Comput Co Ltd 画像表示装置及びプログラム
CN103458092A (zh) * 2012-05-29 2013-12-18 中国电信股份有限公司 一种移动终端触感播放器以及触感播放方法
US8754757B1 (en) * 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US9401079B2 (en) * 2013-09-06 2016-07-26 Immersion Corporation Method and apparatus of converting control tracks for providing haptic feedback
US9619029B2 (en) * 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
JP6664069B2 (ja) * 2013-12-31 2020-03-13 イマージョン コーポレーションImmersion Corporation 触覚コンテンツを伴う視点動画を記録及び再生するシステム並びに方法
US10437341B2 (en) * 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
US10139907B2 (en) * 2014-06-16 2018-11-27 Immersion Corporation Systems and methods for foley-style haptic content creation
US9667907B2 (en) * 2014-09-13 2017-05-30 Vicente Diaz System and method for haptic integration and generation in multimedia devices
US20160150294A1 (en) * 2014-11-20 2016-05-26 Adobe Systems Incorporated Video Content Metadata for Enhanced Video Experiences
US10073523B2 (en) * 2014-12-23 2018-09-11 Immersion Corporation Position control of a user input element associated with a haptic output device
US20160366450A1 (en) * 2015-06-12 2016-12-15 Immersion Corporation Broadcast haptics architectures
EP3329350A4 (en) * 2015-09-25 2019-01-23 Immersion Corporation SYSTEM FOR DESIGNING HAPTIC EFFECTS
US20170092001A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Augmented reality with off-screen motion sensing
US10102723B2 (en) * 2016-10-31 2018-10-16 Immersion Corporation Dynamic haptic generation based on detected video events
CN106792168A (zh) * 2016-12-09 2017-05-31 北京小米移动软件有限公司 智能设备的控制方法和装置
US10075251B2 (en) * 2017-02-08 2018-09-11 Immersion Corporation Haptic broadcast with select haptic metadata based on haptic playback capability
US10194128B2 (en) * 2017-06-12 2019-01-29 Amazon Technologies, Inc. Systems and processes for generating a digital content item
US20190204917A1 (en) * 2017-12-28 2019-07-04 Immersion Corporation Intuitive haptic design
US20200153602A1 (en) * 2019-12-27 2020-05-14 Satyajit Siddharay Kamat System for syncrhonizing haptic actuators with displayed content

Also Published As

Publication number Publication date
JP2022541968A (ja) 2022-09-29
EP3955585A4 (en) 2023-01-04
EP3955585A1 (en) 2022-02-16
US20210392394A1 (en) 2021-12-16

Similar Documents

Publication Publication Date Title
US11887630B2 (en) Multimedia data processing method, multimedia data generation method, and related device
WO2022000983A1 (zh) 视频处理方法、装置、电子设备和存储介质
CN111163367B (zh) 基于播放视频的信息搜索方法、装置、设备和介质
JP7270661B2 (ja) ビデオの処理方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
CN111541930B (zh) 直播画面的显示方法、装置、终端及存储介质
WO2019105467A1 (zh) 信息的分享方法和装置、存储介质、电子装置
CN111724785A (zh) 小程序的语音控制方法、设备及存储介质
EP3024223B1 (en) Videoconference terminal, secondary-stream data accessing method, and computer storage medium
US11425466B2 (en) Data transmission method and device
EP3438852B1 (en) Electronic device and control method thereof
CN110913259A (zh) 视频播放方法、装置、电子设备和介质
CN113589982A (zh) 一种资源播放方法、装置、电子设备和存储介质
EP4322537A1 (en) Video processing method and apparatus, electronic device, and storage medium
CN113225838A (zh) 一种麦克风的控制方法、音频接收设备及音频采集设备
KR20210114059A (ko) 비디오 처리 방법, 장치, 전자 기기 및 저장 매체
CN109905753B (zh) 角标的显示方法和装置、存储介质、电子装置
CN111818279A (zh) 字幕的生成方法、展示方法及交互方法
JP6986590B2 (ja) 音声スキル作成方法、音声スキル作成装置、電子機器及び記憶媒体
WO2024037557A1 (zh) 特效道具处理方法、装置、电子设备及存储介质
CN113489938A (zh) 虚拟会议控制方法、智能设备及终端设备
CN111182339A (zh) 一种播放媒体项目的方法及显示设备
CN111158499A (zh) 一种显示设备
US11711408B2 (en) Content appearance conversion for remote application sharing
KR102545040B1 (ko) 비디오 재생 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품
CN113590555B (zh) 数据处理方法、装置及***

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application