CN108401177A - 视频播放方法、服务器及视频播放*** - Google Patents

视频播放方法、服务器及视频播放*** Download PDF

Info

Publication number
CN108401177A
CN108401177A CN201810165476.9A CN201810165476A CN108401177A CN 108401177 A CN108401177 A CN 108401177A CN 201810165476 A CN201810165476 A CN 201810165476A CN 108401177 A CN108401177 A CN 108401177A
Authority
CN
China
Prior art keywords
barrage
video
separated region
primitive frame
broadcasting method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810165476.9A
Other languages
English (en)
Other versions
CN108401177B (zh
Inventor
汪宇星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Bilibili Technology Co Ltd
Original Assignee
Shanghai Bilibili Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Bilibili Technology Co Ltd filed Critical Shanghai Bilibili Technology Co Ltd
Priority to CN201810165476.9A priority Critical patent/CN108401177B/zh
Publication of CN108401177A publication Critical patent/CN108401177A/zh
Priority to US16/279,889 priority patent/US10810434B2/en
Application granted granted Critical
Publication of CN108401177B publication Critical patent/CN108401177B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/635Overlay text, e.g. embedded captions in a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明提供了一种具有弹幕的视频播放方法、服务器及视频播放***,视频播放方法包括以下步骤:获取一视频,将所述视频分解为至少一个原始帧;识别所述原始帧内的画面主体结构;描绘所述画面主体结构的轮廓并填充,形成第一分隔区域;于所述原始帧的图像内位于所述第一分隔区域外的播放区域显示所述弹幕。采用上述技术方案后,可保证视频主界面不被遮挡的情况下,智能地调整弹幕的显示位置。

Description

视频播放方法、服务器及视频播放***
技术领域
本发明涉及互联网技术领域,尤其涉及一种视频播放方法、服务器及视频播放***。
背景技术
弹幕,用于视频网站中飞过的即时评论字幕,此种视频浏览方式已被许多用户接受,甚至不少用户在浏览视频时偏爱此种评论呈现的方式。目前弹幕的播放方式,通常为在浏览视频的界面上,从右至左逐渐飘动。在某些具有许多弹幕的视频内,弹幕的数量过多后将覆盖原视频的界面,严重者甚至遮挡了原先浏览的视频。
对此,不少视频提供网站所提出的解决方案为,给用户关闭弹幕的功能,或是设置弹幕数量上限,以控制弹幕的总数。但上述解决方案内,或多或少将减少原有的弹幕,减少用户可见的弹幕评论,降低了用户体验。
因此,需要一种新型的视频播放时的弹幕显示方式及视频播放方式,可保证视频主界面不被遮挡的情况下,智能地调整弹幕的显示位置。
发明内容
为解决上述问题,本发明公开了一种视频播放方法、服务器及视频播放***,可将任意视频内每一显示帧的弹幕显示位置智能调整,提高用户观看视频时的用户体验。
本发明公开了一种具有弹幕的视频播放方法,包括以下步骤:
获取一视频,将所述视频分解为至少一个原始帧;
识别所述原始帧内的画面主体结构;
描绘所述画面主体结构的轮廓并填充,形成第一分隔区域;
于所述原始帧的图像内位于所述第一分隔区域外的播放区域显示所述弹幕。
优选地,该视频播放方法中,识别所述原始帧内的画面主体结构的步骤包括:
识别所述原始帧内的人物、静物、动物中的任一项的边界像素;
提取位于所述边界像素内的图像单元作为所述画面主体结构。
优选地,该视频播放方法中,识别所述原始帧内的人物作为所述画面主体结构的步骤包括:
识别所述人物的关节弯折处及脸部特征;
连接相邻的关节弯折处,以形成一身体结构;
连接所述脸部特征,以形成一脸部结构;
拼接所述身体结构及脸部结构形成所述肢体结构。
优选地,该视频播放方法中,识别所述脸部特征包括识别所述人物的脸部的两侧最远点、鼻部及下侧最低点;
连接所述脸部特征,以形成一脸部结构的步骤包括:
连接所述两侧最远点,形成脸部宽度;
连接所述鼻部及下侧最低点,使所述鼻部与下侧最低点的连线及所述连线的反向倍长线为脸部长度;
拼接所述脸部宽度及所述脸部长度形成所述脸部结构。
优选地,该视频播放方法中,描绘所述画面主体结构的轮廓并填充,形成第一分隔区域的步骤后还包括:
识别所述原始帧内的文字区域;
描绘所述文字区域的轮廓并填充,形成第二分隔区域;
于所述原始帧的图像内位于所述第二分隔区域外的播放区域显示所述弹幕。
优选地,该视频播放方法中,描绘所述文字区域的轮廓并填充,形成第二分隔区域的步骤包括:
所述文字区域外框有一矩形框,且所述矩形框为所述第二分隔区域。
优选地,降低所述弹幕的透明度,形成播放弹幕的步骤包括:
获取所述第一分隔区域的色调;
根据一比例阈值及色调,计算所述弹幕的目标透明度,以形成所述播放弹幕。
优选地,该视频播放方法中,于所述原始帧的图像内位于所述第一分隔区域外的播放区域显示所述弹幕的步骤包括:
获取所述弹幕;
降低所述弹幕的透明度,形成播放弹幕;
于所述播放区域内显示所述播放弹幕。
优选地,该视频播放方法中,于所述原始帧的图像内位于所述第一分隔区域外的播放区域显示所述弹幕的步骤包括:
获取所述第一分隔区域于所述原始帧的图像内的位置;
反相所述第一分隔区域的位置以获取所述播放区域的位置。
优选地,该视频播放方法中,于所述原始帧的图像内位于所述第一分隔区域外的播放区域显示所述弹幕的步骤包括:
将所述原始帧沿Y轴划分;
识别所述第一分隔区域的Y轴位置;
提取所述Y轴上位于所述Y轴位置外的目标位置;
将所述目标位置定义为所述播放区域的滑动Y轴,以确定所述播放区域;
于所述播放区域内显示所述弹幕。
本发明还公开了一种具有弹幕的视频播放方法,所述视频播放方法应用于服务器与用户端之间,所述服务器与用户端执行上述的视频播放方法。
本发明还公开了一种服务器,包括处理器和存储设备,所述存储设备存储有计算机程序,所述处理器调用并执行所述计算机程序时实现上述的视频播放方法。
本发明又公开了一种具有弹幕的视频播放***,所述视频播放***包括服务器与用户端,所述服务器与用户端执行上述的视频播放方法。
优选地,该视频播放***中,所述用户端播放所述视频时,所述弹幕位于画面主体之外。
采用了上述技术方案后,与现有技术相比,具有以下有益效果:
1.通过对视频进行分析,可在视频浏览时,弹幕不会遮挡到视频的主体内容。;
2.弹幕的数量维持在减少的最小接收量内,尽可能保证用户体验。
附图说明
图1为符合本发明一优选实施例中视频播放方法的流程示意图;
图2为符合本发明一优选实施例中识别人物肢体结构的流程示意图;
图3为符合本发明一优选实施例中形成脸部结构的流程示意图;
图4为符合本发明另一优选实施例中视频播放方法的流程示意图;
图5为符合本发明一优选实施例中显示弹幕的流程示意图;
图6为符合本发明另一优选实施例中显示弹幕的流程示意图;
图7为符合本发明一优选实施例中第一分隔区域的显示效果图。
具体实施方式
以下结合附图与具体实施例进一步阐述本发明的优点。
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,步骤前的数字标号并不标识执行步骤的前后顺序,仅用于方便描述本发明及区别每一步骤,因此不能理解为对本发明的限制。
参阅图1,为符合本发明一优选实施例中视频播放方法的流程示意图。在该实施例中,对视频的处理及播放通过以下方式执行:
获取一视频,将视频分解为至少一个原始帧;
获取一需要处理的视频,或是随机取得一视频源文件,将该视频根据一预设周期分解为多个原始帧,如根据1秒25帧的方式将该视频内的1秒画面分解为25个原始帧。分解后的原始帧连续播放后,便可还原回原先的视频。
识别原始帧内的画面主体结构
获取了原始帧后,通常一视频的原始帧所呈现的画面内,对于用户而言,视频内的人物所在的位置,是用户通常所需要看到的画面,因此,人物所在的位置,也作为视频的主体播放区域而被期望为不适合被弹幕遮挡。因此,为避免弹幕的显示的过程中,进入到此类的主体播放区域内,需识别原始帧内人物所在的位置,以及该人物在原始帧内覆盖的大小。可以理解的是,若原始帧为某一人物的特写镜头,则可供弹幕显示的区域便较少,而若原始帧内为某一人物的远景显示,则人物以外的广大空间皆可作为弹幕的显示区域。而为对人物在原始帧内遮挡的面积大小进行确认,该实施例中,通过识别人物的肢体结构来确定。具体地,由于人体的外轮廓主要通过头部、四肢来确定,因此肢体结构的识别,可以是识别人物的头部位置,四肢延及的大小及方向。可以理解的是,人物所穿戴的衣物等,也可被识别在肢体结构内,以保留完整的人物显示。
自然地,除人物之外,考虑到视频内容的复杂性与多样性,在一些如风景介绍、动物介绍等视频内,不具有人物特征时,可将在该视频的每一画面内,更受视频观看者察觉和关注的部分作为原始帧内的画面主体结构,不局限于人物。甚至在某些已经具有人物的原始帧内,同样可将除人物以外的其他受关注部分,作为该画面主体结构。如风景介绍内的建筑物,动物介绍视频内的动物外轮廓等。
描绘画面主体结构的轮廓并填充,形成第一分隔区域
以人物肢体结构为例,确定了原始帧内的人物的肢体结构后,可通过描边法将人物肢体结构的轮廓封闭,而该轮廓内的区域,便被理解为属于人物的部分,不应当作为弹幕显示的区域,而后,将该轮廓内填充,形成第一分隔区域。可选地在填充前,识别人物肢体结构外的主色调,将填充该轮廓内区域的颜色使用为与主色调在色温、色调上具有明显差异的颜色,从而方便区分属于第一分隔区域内的部分及属于第一分隔区域外的部分。
于原始帧的图像内位于第一分隔区域外的播放区域显示弹幕
参阅图7,具有第一分隔区域后,识别该第一分隔区域即为当前视频的原始帧的主体显示部分,由于该部分不该弹幕遮挡。因此,仅在原始帧内位于第一分隔区域外的播放区域显示弹幕。也就是说,第一分隔区域内(含边界),为视频的主体播放和显示部分,而第一分隔区域外,为弹幕的播放和显示部分。
具有上述配置后,通过对视频的每一帧的识别和分割,控制弹幕的显示区域从而保证视频主体显示部分不被遮挡。
一优选实施例中,识别所述原始帧内的画面主体结构的步骤包括:识别所述原始帧内的人物、静物、动物中的任一项作为所述画面主体结构。也就是说,观众所关注的,都可以作为画面主体结构进行识别和突出。
对于形成为画面主体结构的任意画面内容而言,无论是上文所述的人物、静物、动物或是更为具体地风景、建筑、艺术品等,对于此类观众所关注的需要进行突出和识别的画面主体结构,可通过识别其边界像素来对原始帧进行分割和分类。具体地,此类作为画面主体结构的画面内容与画面主体结构外的画面内容通常具有明显的分界,区分是否属于画面主体结构的分界形成即为分界两边的像素性质不同,对所有像素的分辨率、色温、色调等识别后,可分析出位于边界上的边界像素,而后根据对边界像素内的图像单元进行分割,提取出的便是画面主体结构。
如图2所示,对于原始帧内的人物肢体结构的识别,可通过以下步骤实现:
首先,识别人物的关节弯折处及脸部特征,关节弯折处为轮廓外拐点之处,也是轮廓在某一方向延伸的最远处,因此,对关节弯折处的识别,可确定轮廓所延及的最大范围。而脸部特征的识别,考虑到人物的脸部大小通常小于身体部分,若直接沿用身体部分宽度,将浪费部分原本可用作显示弹幕的区域。因此,将同时识别人物的关节弯折处及脸部特征。
其次,将多个关节弯折处连接,形成身体结构。在连接关节弯折处时,可将相邻的关节弯折处连接,也可连接最外部的所有关节弯折处,形成一个不规则的多边形身体结构。
再次,连接脸部特征,形成脸部结构,其中所形成的脸部结构,通常呈圆形或椭圆形。因此,在确定了脸部特征后,根据各脸部特征上最远处的点连接形成的近似圆形或椭圆形作为脸部结构。
最后,将获得的身体结构及脸部结构拼接,形成肢体结构。通常,身体结构与脸部结构部分连接,一般不会在视频的原始帧内分离,因此,将身体结构和脸部结构所覆盖的区域直接相加即可。
参阅图3,在一优选实施例中,为减少识别脸部特征及构造脸部结构的***负载,对脸部特征的识别,仅识别人物的脸部的两侧最远点、鼻部及下侧最低点。两侧最远点的间距表示了该人物的脸部的宽度,鼻部作为人物的脸部的中心,确定了脸部的位置。在视频画面构图中,下侧最低点与鼻部的间距通常为脸部的长度的一半,因此,下侧最低点与鼻部配合确定了脸部的长度。识别上述主要特征后,对脸部结构的具体形成步骤,包括了:连接两侧最远点,获得脸部宽度;连接鼻部及下侧最低点,获得人物的脸部的一半长度,并将鼻部与下侧最低点的连线反向倍长后,作为整个脸部长度。最后,在脸部宽度及脸部长度的基础上,拼接脸部宽度及脸部长度形成脸部结构。
参阅图4,在描绘画面主体结构的轮廓并填充,形成第一分隔区域的步骤后还包括:
识别原始帧内的文字区域;
视频的原始帧内,除人物所在的主体显示区域外,还可能包括有如字幕、字条等文字类的文字区域,对于此类的文字区域,同样需要保留不被弹幕遮挡。因此,可通过如opencv的方式,识别原始帧内的文字区域。
描绘文字区域的轮廓并填充,形成第二分隔区域;
而后,同样对文字区域的轮廓进行描绘并填充,形成不允许弹幕遮挡或显示的第二分隔区域。在形成第二分隔区域时,同样为减少***负载,所有文字区域使用矩形框外框形成。可以理解的是,矩形框的大小,可与文字的四周贴合,或略大于文字部分的长度和宽度,保证文字部分均位于该矩形框内。
于原始帧的图像内位于第二分隔区域外的播放区域显示弹幕。
形成第一分隔区域和第二分隔区域后,将在第一分隔区域外和第二分隔区域外的播放区域显示弹幕。
参阅图5及图6,显示弹幕时,可通过以下两种实施方式控制其仅在第一分隔区域和/或第二分隔区域外显示。
实施例一
在视频浏览网站点击某一视频,来获取该视频进行浏览时,首先需获取该视频的弹幕池内的全部弹幕。而后在播放视频时,根据视频内每一画面显示的内容,按照上述部分确定这些画面内的主体显示区域,即弹幕不应显示在的第一分隔区域。在该实施例中,为节省***负载,对弹幕的显示区域不作变化,而是将那些在显示过程中将经过第一分隔区域的弹幕的透明度降低,来形成播放弹幕。可以理解的是,弹幕透明度的降低过程,可以持续在显示过程中,或是根据第一分隔区域的出现情况调节。例如,若第一分隔区域在视频的中部,则当横向位置上或显示方向上将经过第一分隔区域的弹幕在显示时,刚出现在视频上,还未显示在第一分隔区域上,弹幕的透明度不变,即正常显示播放弹幕。而随着弹幕的滑动,移动到第一分隔区域时,其透明度降低,如降低至10%、20%等,以显示第一分隔区域内的主体显示内容为主。而当弹幕的继续滑动离开第一分隔区域后,恢复至正常显示。也就是说,通过第一分隔区域的位置调节弹幕的透明度。当然,也可以将横向位置上或显示方向上将经过第一分隔区域的弹幕直接调整为透明度降低显示,更为方便,但用户体验不及前一调节方式。
此外,对弹幕的透明度的降低,可根据画面主体的变化而变化。例如某些画面主体的色调较高,则弹幕的透明度可降低得较少,反之,弹幕的透明度的降低量需增加。因此,在对弹幕的透明度进行降低时,首先获取第一分隔区域的色调,而后基一预设的比例阈值,如色调的50%、色调的80%等计算所得弹幕所需要降低到的目标透明度,从而最终形成播放弹幕。
实施例二
另一实施方式中,通过直接控制弹幕的滑动方向或显示方向不会经过第一分隔区域来实现。而是根据第一分隔区域所占的空间所决定。如,首先或获取第一分隔区域于原始帧的图像内的位置,而后再反相第一分隔区域的位置以获取播放区域的位置,也即需要获得到在原始帧的画面内,第一分隔区域的补集作为播放区域。具体地,将原始帧沿Y轴划分,划分时可根据弹幕的高度为单元分割。识别出第一分隔区域的Y轴位置,例如,原始帧根据高度划分为Y轴方向上的Y轴位置自0-30,第一分隔区域的Y轴位置可为10-20,即弹幕不应出现在10-20的Y轴位置上。后提取Y轴上位于Y轴位置外的目标位置,即0-10及20-30。这些目标位置作为弹幕可滑动的滑动Y轴,定义并确定了播放区域。确定播放区域后,控制仅在播放区域内显示弹幕。
实施例二的控制方式可与实施例一的控制方式同时使用,即即便是处于第一分隔区域外的弹幕,也控制为透明度降低,进一步凸显视频的主体显示内容。
另外,实施例二中,识别到第一分隔区域的Y轴位置后,对弹幕的显示位置作另一种控制方式。类似于实施例一中,仅在第一分割区域出现时才作的控制,弹幕刚出现在视频上,还未显示在第一分隔区域上时,可在第一分隔区域的Y轴位置上滑动或显示,而当来到第一分隔区域的位置上时,将变化到目标位置上显示。变化时,可采用瞬时变化,或是沿第一分隔区域的外轮廓滑动移位。通过此种控制方式,给到用户新奇的用户体验。
当上述视频播放方法应用到服务器及用户端时,视频播放方法包括以下步骤:服务器获取一视频,将视频分解为至少一个原始帧;服务器识别原始帧内的画面主体结构;服务器描绘画面主体结构的轮廓并填充,形成第一分隔区域;用户端于原始帧的图像内位于第一分隔区域外的播放区域显示弹幕。
优选地,该视频播放方法中,服务器识别所述原始帧内的画面主体结构的步骤包括:服务器识别所述原始帧内的人物、静物、动物中的任一项作为所述画面主体结构。
优选地,该视频播放方法中,服务器识别原始帧内的人物肢体结构的步骤包括:服务器识别人物的关节弯折处及脸部特征;服务器连接相邻的关节弯折处,以形成一身体结构;服务器连接脸部特征,以形成一脸部结构;服务器拼接身体结构及脸部结构形成肢体结构。
优选地,该视频播放方法中,服务器识别脸部特征包括服务器识别人物的脸部的两侧最远点、鼻部及下侧最低点;服务器连接脸部特征,以形成一脸部结构的步骤包括:服务器连接两侧最远点,形成脸部宽度;服务器连接鼻部及下侧最低点,使鼻部与下侧最低点的连线及连线的反向倍长线为脸部长度;服务器拼接脸部宽度及脸部长度形成脸部结构。
优选地,该视频播放方法中,服务器描绘人物肢体结构的轮廓并填充,形成第一分隔区域的步骤后还包括:服务器识别原始帧内的文字区域;服务器描绘文字区域的轮廓并填充,形成第二分隔区域;用户端于原始帧的图像内位于第二分隔区域外的播放区域显示弹幕。
优选地,该视频播放方法中,服务器描绘文字区域的轮廓并填充,形成第二分隔区域的步骤包括:服务器在文字区域外框有一矩形框,且矩形框为第二分隔区域。
优选地,该视频播放方法中,服务器于原始帧的图像内位于第一分隔区域外的播放区域显示弹幕的步骤包括:服务器获取弹幕;服务器降低弹幕的透明度,形成播放弹幕;用户端于播放区域内显示播放弹幕。
优选地,该视频播放方法中,降低所述弹幕的透明度,形成播放弹幕的步骤包括:
所述服务器获取所述第一分隔区域的色调;所述服务器根据一比例阈值及色调,计算所述弹幕的目标透明度,以形成所述播放弹幕。
优选地,该视频播放方法中,所述服务器获取所述第一分隔区域于所述原始帧的图像内的位置;所述服务器反相所述第一分隔区域的位置以获取所述播放区域的位置。
优选地,该视频播放方法中,用户端于原始帧的图像内位于第一分隔区域外的播放区域显示弹幕的步骤包括:服务器将原始帧沿Y轴划分;服务器识别第一分隔区域的Y轴位置;服务器提取Y轴上位于Y轴位置外的目标位置;服务器将目标位置定义为播放区域的滑动Y轴,以确定播放区域;用户端于播放区域内显示弹幕。
本发明所公开的服务器,其内存储的计算机程序被处理器执行时实现上述实施例中所介绍的步骤,在此不再额外赘述。
此外,在已搭建的基于服务器和用户终端的视频播放***在应用时,可根据服务器和用户终端的特性执行以下步骤:
服务器获取一视频,将视频分解为至少一个原始帧;服务器获取一视频,将视频分解为至少一个原始帧;服务器识别原始帧内的画面主体结构;服务器描绘画面主体结构的轮廓并填充,形成第一分隔区域;用户端于原始帧的图像内位于第一分隔区域外的播放区域显示弹幕。
优选地,该视频播放***中,服务器识别所述原始帧内的画面主体结构的步骤包括:服务器识别所述原始帧内的人物、静物、动物中的任一项作为所述画面主体结构。
优选地,该视频播放***中,服务器识别人物的关节弯折处及脸部特征;服务器连接相邻的关节弯折处,以形成一身体结构;服务器连接脸部特征,以形成一脸部结构;服务器拼接身体结构及脸部结构形成肢体结构。
优选地,该视频播放***中,服务器识别人物的脸部的两侧最远点、鼻部及下侧最低点;服务器连接两侧最远点,形成脸部宽度;服务器连接鼻部及下侧最低点,使鼻部与下侧最低点的连线及连线的反向倍长线为脸部长度;服务器拼接脸部宽度及脸部长度形成脸部结构。
优选地,该视频播放***中,服务器识别原始帧内的文字区域;服务器描绘文字区域的轮廓并填充,形成第二分隔区域;用户端于原始帧的图像内位于第二分隔区域外的播放区域显示弹幕。
优选地,该视频播放***中,服务器在文字区域外框有一矩形框,且矩形框为第二分隔区域。
优选地,该视频播放***中,服务器获取弹幕;服务器降低弹幕的透明度,形成播放弹幕;用户端于播放区域内显示播放弹幕。
优选地,该视频播放***中,所述服务器获取所述第一分隔区域的色调;所述服务器根据一比例阈值及色调,计算所述弹幕的目标透明度,以形成所述播放弹幕。
优选地,该视频播放***中,所述服务器获取所述第一分隔区域于所述原始帧的图像内的位置;所述服务器反相所述第一分隔区域的位置以获取所述播放区域的位置。
优选地,该视频播放***中,服务器将原始帧沿Y轴划分;服务器识别第一分隔区域的Y轴位置;服务器提取Y轴上位于Y轴位置外的目标位置;服务器将目标位置定义为播放区域的滑动Y轴,以确定播放区域;用户端于播放区域内显示弹幕。
应当注意的是,本发明的实施例有较佳的实施性,且并非对本发明作任何形式的限制,任何熟悉该领域的技术人员可能利用上述揭示的技术内容变更或修饰为等同的有效实施例,但凡未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何修改或等同变化及修饰,均仍属于本发明技术方案的范围内。

Claims (14)

1.一种具有弹幕的视频播放方法,其特征在于,包括以下步骤:
获取一视频,将所述视频分解为至少一个原始帧;
识别所述原始帧内的画面主体结构;
描绘所述画面主体结构的轮廓并填充,形成第一分隔区域;
于所述原始帧的图像内位于所述第一分隔区域外的播放区域显示所述弹幕。
2.如权利要求1所述的视频播放方法,其特征在于,
识别所述原始帧内的画面主体结构的步骤包括:
识别所述原始帧内的人物、静物、动物中的任一项的边界像素;
提取位于所述边界像素内的图像单元作为所述画面主体结构。
3.如权利要求2所述的视频播放方法,其特征在于,
识别所述原始帧内的人物作为所述画面主体结构的步骤包括:
识别所述人物的关节弯折处及脸部特征;
连接相邻的关节弯折处,以形成一身体结构;
连接所述脸部特征,以形成一脸部结构;
拼接所述身体结构及脸部结构形成所述肢体结构。
4.如权利要求3所述的视频播放方法,其特征在于,
识别所述脸部特征包括识别所述人物的脸部的两侧最远点、鼻部及下侧最低点;
连接所述脸部特征,以形成一脸部结构的步骤包括:
连接所述两侧最远点,形成脸部宽度;
连接所述鼻部及下侧最低点,使所述鼻部与下侧最低点的连线及所述连线的反向倍长线为脸部长度;
拼接所述脸部宽度及所述脸部长度形成所述脸部结构。
5.如权利要求1所述的视频播放方法,其特征在于,
描绘所述画面主体结构的轮廓并填充,形成第一分隔区域的步骤后还包括:
识别所述原始帧内的文字区域;
描绘所述文字区域的轮廓并填充,形成第二分隔区域;
于所述原始帧的图像内位于所述第二分隔区域外的播放区域显示所述弹幕。
6.如权利要求5所述的视频播放方法,其特征在于,
描绘所述文字区域的轮廓并填充,形成第二分隔区域的步骤包括:
所述文字区域外框有一矩形框,且所述矩形框为所述第二分隔区域。
7.如权利要求1所述的视频播放方法,其特征在于,
于所述原始帧的图像内位于所述第一分隔区域外的播放区域显示所述弹幕的步骤包括:
获取所述弹幕;
降低所述弹幕的透明度,形成播放弹幕;
于所述播放区域内显示所述播放弹幕。
8.如权利要求7所述的视频播放方法,其特征在于,
降低所述弹幕的透明度,形成播放弹幕的步骤包括:
获取所述第一分隔区域的色调;
根据一比例阈值及色调,计算所述弹幕的目标透明度,以形成所述播放弹幕。
9.如权利要求1所述的视频播放方法,其特征在于,
于所述原始帧的图像内位于所述第一分隔区域外的播放区域显示所述弹幕的步骤包括:
获取所述第一分隔区域于所述原始帧的图像内的位置;
反相所述第一分隔区域的位置以获取所述播放区域的位置。
10.如权利要求9所述的视频播放方法,其特征在于,
于所述原始帧的图像内位于所述第一分隔区域外的播放区域显示所述弹幕的步骤包括:
将所述原始帧沿Y轴划分;
识别所述第一分隔区域的Y轴位置;
提取所述Y轴上位于所述Y轴位置外的目标位置;
将所述目标位置定义为所述播放区域的滑动Y轴,以确定所述播放区域;
于所述播放区域内显示所述弹幕。
11.一种具有弹幕的视频播放方法,其特征在于,所述视频播放方法应用于服务器与用户端之间,所述服务器与用户端执行如权利要求1-10任一项所述的视频播放方法。
12.一种服务器,包括处理器和存储设备,所述存储设备存储有计算机程序,其特征在于,所述处理器调用并执行所述计算机程序时实现如权利要求1-10任一项所述的视频播放方法。
13.一种具有弹幕的视频播放***,其特征在于,所述视频播放***包括服务器与用户端;
所述服务器与用户端执行如权利要求1-10任一项所述的视频播放方法。
14.如权利要求13所述的视频播放***,其特征在于,
所述用户端播放所述视频时,所述弹幕位于画面主体之外。
CN201810165476.9A 2018-02-27 2018-02-27 视频播放方法、服务器及视频播放*** Active CN108401177B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810165476.9A CN108401177B (zh) 2018-02-27 2018-02-27 视频播放方法、服务器及视频播放***
US16/279,889 US10810434B2 (en) 2018-02-27 2019-02-19 Movement and transparency of comments relative to video frames

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810165476.9A CN108401177B (zh) 2018-02-27 2018-02-27 视频播放方法、服务器及视频播放***

Publications (2)

Publication Number Publication Date
CN108401177A true CN108401177A (zh) 2018-08-14
CN108401177B CN108401177B (zh) 2021-04-27

Family

ID=63096785

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810165476.9A Active CN108401177B (zh) 2018-02-27 2018-02-27 视频播放方法、服务器及视频播放***

Country Status (2)

Country Link
US (1) US10810434B2 (zh)
CN (1) CN108401177B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109120984A (zh) * 2018-09-30 2019-01-01 重庆小雨点小额贷款有限公司 弹幕显示方法、装置、终端及服务器
CN109309861A (zh) * 2018-10-30 2019-02-05 广州虎牙科技有限公司 一种媒体处理方法、装置、终端设备和存储介质
CN109618213A (zh) * 2018-12-17 2019-04-12 华中科技大学 一种防止弹幕遮挡目标对象的方法
CN109656437A (zh) * 2018-11-30 2019-04-19 维沃移动通信有限公司 一种信息显示方法及终端设备
CN109688457A (zh) * 2018-12-28 2019-04-26 武汉斗鱼网络科技有限公司 一种视频防遮挡方法、装置、电子设备及介质
CN109710365A (zh) * 2018-12-28 2019-05-03 武汉斗鱼网络科技有限公司 一种弹幕显示方法、装置、电子设备及介质
CN109905757A (zh) * 2019-02-13 2019-06-18 安徽励图信息科技股份有限公司 通过人脸识别控制视频字幕播出的方法
CN110300118A (zh) * 2019-07-09 2019-10-01 联想(北京)有限公司 流媒体处理方法、装置及存储介质
CN111199138A (zh) * 2018-11-16 2020-05-26 武汉斗鱼网络科技有限公司 使用QML对含Emoji表情弹幕描边方法、***、服务器及存储介质
WO2020155297A1 (zh) * 2019-02-01 2020-08-06 网宿科技股份有限公司 视频掩码信息的生成、弹幕防遮挡方法、服务器及客户端
CN111954081A (zh) * 2019-05-17 2020-11-17 上海哔哩哔哩科技有限公司 获取蒙版数据的方法、计算机设备及可读存储介质
CN111970559A (zh) * 2020-07-09 2020-11-20 北京百度网讯科技有限公司 视频获取方法、装置、电子设备及存储介质
CN111986096A (zh) * 2019-05-22 2020-11-24 上海哔哩哔哩科技有限公司 基于边缘提取的漫画生成方法及漫画生成装置
CN112492324A (zh) * 2019-09-12 2021-03-12 上海哔哩哔哩科技有限公司 数据处理方法及***
CN113556481A (zh) * 2021-07-30 2021-10-26 北京达佳互联信息技术有限公司 视频特效的生成方法、装置、电子设备及存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109951743A (zh) * 2019-03-29 2019-06-28 上海哔哩哔哩科技有限公司 弹幕信息处理方法、***及计算机设备
US11922904B2 (en) * 2019-08-22 2024-03-05 Sony Group Corporation Information processing apparatus and information processing method to control display of a content image
CN111596834B (zh) * 2019-09-06 2020-12-15 深圳新为云动教育科技有限公司 视频播放app控制***
US11144766B2 (en) * 2019-09-25 2021-10-12 Sony Group Corporation Method for fast visual data annotation
CN111147912B (zh) * 2019-12-31 2021-11-16 维沃移动通信有限公司 弹幕显示控制方法及电子设备
CN111726676B (zh) * 2020-07-03 2021-12-14 腾讯科技(深圳)有限公司 基于视频的图像生成方法、显示方法、装置以及设备
US20230276102A1 (en) * 2020-11-16 2023-08-31 Arris Enterprises Llc Object-based video commenting

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101573733A (zh) * 2006-11-01 2009-11-04 索尼株式会社 捕捉运动图片中的表面
CN103729614A (zh) * 2012-10-16 2014-04-16 上海唐里信息技术有限公司 基于视频图像的人物识别方法及人物识别装置
CN104735518A (zh) * 2015-03-31 2015-06-24 北京奇艺世纪科技有限公司 一种信息展示方法及装置
CN105635848A (zh) * 2015-12-24 2016-06-01 深圳市金立通信设备有限公司 一种弹幕显示方法及终端
CN106303731A (zh) * 2016-08-01 2017-01-04 北京奇虎科技有限公司 弹幕的显示方法及装置
CN107147941A (zh) * 2017-05-27 2017-09-08 努比亚技术有限公司 视频播放的弹幕显示方法、装置及计算机可读存储介质
CN107181976A (zh) * 2017-04-28 2017-09-19 华为技术有限公司 一种弹幕显示方法及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6829371B1 (en) * 2000-04-29 2004-12-07 Cognex Corporation Auto-setup of a video safety curtain system
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US10402987B2 (en) * 2017-05-24 2019-09-03 Qualcomm Incorporated Methods and systems of determining object status for false positive removal in object tracking for video analytics

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101573733A (zh) * 2006-11-01 2009-11-04 索尼株式会社 捕捉运动图片中的表面
CN103729614A (zh) * 2012-10-16 2014-04-16 上海唐里信息技术有限公司 基于视频图像的人物识别方法及人物识别装置
CN104735518A (zh) * 2015-03-31 2015-06-24 北京奇艺世纪科技有限公司 一种信息展示方法及装置
CN105635848A (zh) * 2015-12-24 2016-06-01 深圳市金立通信设备有限公司 一种弹幕显示方法及终端
CN106303731A (zh) * 2016-08-01 2017-01-04 北京奇虎科技有限公司 弹幕的显示方法及装置
CN107181976A (zh) * 2017-04-28 2017-09-19 华为技术有限公司 一种弹幕显示方法及电子设备
CN107147941A (zh) * 2017-05-27 2017-09-08 努比亚技术有限公司 视频播放的弹幕显示方法、装置及计算机可读存储介质

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109120984A (zh) * 2018-09-30 2019-01-01 重庆小雨点小额贷款有限公司 弹幕显示方法、装置、终端及服务器
CN109120984B (zh) * 2018-09-30 2021-10-08 重庆小雨点小额贷款有限公司 弹幕显示方法、装置、终端及服务器
CN109309861A (zh) * 2018-10-30 2019-02-05 广州虎牙科技有限公司 一种媒体处理方法、装置、终端设备和存储介质
CN111199138A (zh) * 2018-11-16 2020-05-26 武汉斗鱼网络科技有限公司 使用QML对含Emoji表情弹幕描边方法、***、服务器及存储介质
CN109656437A (zh) * 2018-11-30 2019-04-19 维沃移动通信有限公司 一种信息显示方法及终端设备
CN109656437B (zh) * 2018-11-30 2021-01-26 维沃移动通信有限公司 一种信息显示方法及终端设备
CN109618213A (zh) * 2018-12-17 2019-04-12 华中科技大学 一种防止弹幕遮挡目标对象的方法
CN109688457A (zh) * 2018-12-28 2019-04-26 武汉斗鱼网络科技有限公司 一种视频防遮挡方法、装置、电子设备及介质
CN109710365A (zh) * 2018-12-28 2019-05-03 武汉斗鱼网络科技有限公司 一种弹幕显示方法、装置、电子设备及介质
CN109688457B (zh) * 2018-12-28 2021-07-23 武汉斗鱼网络科技有限公司 一种视频防遮挡方法、装置、电子设备及介质
CN111526421A (zh) * 2019-02-01 2020-08-11 网宿科技股份有限公司 视频掩码信息的生成、弹幕防遮挡方法、服务器及客户端
WO2020155297A1 (zh) * 2019-02-01 2020-08-06 网宿科技股份有限公司 视频掩码信息的生成、弹幕防遮挡方法、服务器及客户端
US10986380B2 (en) 2019-02-01 2021-04-20 Wangsu Science & Technology Co., Ltd. Method for generating video mask information, method for preventing occlusion from barrage, server and client
CN111526421B (zh) * 2019-02-01 2021-10-22 网宿科技股份有限公司 视频掩码信息的生成、弹幕防遮挡方法、服务器及客户端
CN109905757A (zh) * 2019-02-13 2019-06-18 安徽励图信息科技股份有限公司 通过人脸识别控制视频字幕播出的方法
CN111954081A (zh) * 2019-05-17 2020-11-17 上海哔哩哔哩科技有限公司 获取蒙版数据的方法、计算机设备及可读存储介质
CN111986096A (zh) * 2019-05-22 2020-11-24 上海哔哩哔哩科技有限公司 基于边缘提取的漫画生成方法及漫画生成装置
CN111986096B (zh) * 2019-05-22 2024-02-13 上海哔哩哔哩科技有限公司 基于边缘提取的漫画生成方法及漫画生成装置
CN110300118A (zh) * 2019-07-09 2019-10-01 联想(北京)有限公司 流媒体处理方法、装置及存储介质
CN112492324A (zh) * 2019-09-12 2021-03-12 上海哔哩哔哩科技有限公司 数据处理方法及***
CN111970559A (zh) * 2020-07-09 2020-11-20 北京百度网讯科技有限公司 视频获取方法、装置、电子设备及存储介质
CN113556481A (zh) * 2021-07-30 2021-10-26 北京达佳互联信息技术有限公司 视频特效的生成方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
US20190266408A1 (en) 2019-08-29
US10810434B2 (en) 2020-10-20
CN108401177B (zh) 2021-04-27

Similar Documents

Publication Publication Date Title
CN108401177A (zh) 视频播放方法、服务器及视频播放***
US10275655B2 (en) Intelligent video thumbnail selection and generation
CN106210855B (zh) 对象显示方法和装置
US20210312719A1 (en) Modification of multi-view interactive digital media representation
US8872850B2 (en) Juxtaposing still and dynamic imagery for cliplet creation
CN106789991B (zh) 一种基于虚拟场景的多人互动网络直播方法及***
US8098261B2 (en) Pillarboxing correction
US6561907B2 (en) Simultaneous or reciprocal image synthesis for a video game at different viewpoints
US20160118080A1 (en) Video playback method
CN107771395A (zh) 生成和发送用于虚拟现实的元数据的方法和装置
US9041773B2 (en) Conversion of 2-dimensional image data into 3-dimensional image data
CN106713988A (zh) 一种对虚拟场景直播进行美颜处理的方法及***
KR20150122673A (ko) 비디오의 화상 요약
US9286709B2 (en) Variable frame rate rendering and projection
CN108111911B (zh) 基于自适应跟踪框分割的视频数据实时处理方法及装置
CN113747240B (zh) 视频处理方法、设备和存储介质
CN104754211A (zh) 图像处理装置以及图像处理方法
JP2000067249A (ja) 輪郭線の追跡による動映像客体の分割方法
GB2520311A (en) A method, device and computer software
CN113473207A (zh) 直播方法、装置、存储介质及电子设备
JP4328397B2 (ja) 画像データ処理方法及び装置並びに記憶媒体
US8965109B2 (en) Gamut control method for improving image performance of parallax barrier S3D display
JP2013200867A (ja) アニメーション作成装置、カメラ
CN110012284A (zh) 一种基于头戴设备的视频播放方法及装置
CN103186916A (zh) 一种播放动画的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant