CN109510990B - 图像处理方法及装置、计算机可读存储介质、电子设备 - Google Patents

图像处理方法及装置、计算机可读存储介质、电子设备 Download PDF

Info

Publication number
CN109510990B
CN109510990B CN201811253125.XA CN201811253125A CN109510990B CN 109510990 B CN109510990 B CN 109510990B CN 201811253125 A CN201811253125 A CN 201811253125A CN 109510990 B CN109510990 B CN 109510990B
Authority
CN
China
Prior art keywords
image
image frame
video stream
frame
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811253125.XA
Other languages
English (en)
Other versions
CN109510990A (zh
Inventor
解卫博
李静翔
王刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Tencent Information Technology Co Ltd
Original Assignee
Shenzhen Tencent Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Tencent Information Technology Co Ltd filed Critical Shenzhen Tencent Information Technology Co Ltd
Priority to CN201811253125.XA priority Critical patent/CN109510990B/zh
Publication of CN109510990A publication Critical patent/CN109510990A/zh
Application granted granted Critical
Publication of CN109510990B publication Critical patent/CN109510990B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明涉及计算机技术领域,提供了一种图像处理方法及装置、计算机可读存储介质、电子设备。该图像处理方法包括:通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流;将所述视频流实时发送至终端设备;接收所述终端设备实时发送的用户对所述视频流的操作信息,并通过所述第一引擎对所述操作信息进行处理以实现对所述图像帧的控制。本发明一方面能够减少数据的传输量,减少卡顿、提高画面质量;另一方面方便用户对画面的操作,真切感受虚拟与现实的交互,提升了用户体验。

Description

图像处理方法及装置、计算机可读存储介质、电子设备
技术领域
本发明涉及计算机技术领域,具体而言,涉及一种图像处理方法及装置、计算机可读介质及电子设备。
背景技术
为了使用户体验身临其境,真正感受三维空间内的事物,虚拟现实技术得到了广泛的应用,利用计算机模拟产生三维空间的虚拟世界,提供用户各种感官模拟体验,当用户执行动作时,计算机进行复杂运算,以增强用户在三维世界的真实感受。
常见的虚拟现实技术主要应用于游戏或虚拟拍摄中,为了进一步提高用户对真实效果的体验,可以使用户在游戏或虚拟拍摄中使用移动设备,例如手机或平板电脑,但是采用游戏引擎制作游戏场景时,需要强大的CPU和GPU硬件资源,因此在虚拟现实交互的过程中,存在数据传输量大、卡顿、画质差等问题,用户体验差。
因此本领域亟需寻求一种新的图像处理方法及装置。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明的目的在于提供一种图像处理方法及装置、计算机可读介质及电子设备,进而减少数据传输量、减少卡顿,提高画质,进而提升用户体验。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明的实践而习得。
根据本发明的第一方面,提供一种图像处理方法,其特征在于,包括:
通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流;将所述视频流实时发送至终端设备;接收所述终端设备实时发送的用户对所述视频流的操作信息,并通过所述第一引擎对所述操作信息进行处理以实现对所述图像帧的控制。
根据本发明的第二方面,提供一种图像处理装置,其特征在于,包括:
视频流生成模块,用于通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流;发送模块,用于将所述视频流实时发送至终端设备;交互模块,用于接收所述终端设备实时发送的用户对所述视频流的操作信息,并通过所述第一引擎对所述操作信息进行处理以实现对所述图像帧的控制。
在本发明的一些实施例中,基于前述方案,所述视频流生成模块包括:
差别像素确定单元,用于确定各所述图像帧中的其它图像帧与关键图像帧之间的差别像素;
第一编码单元,用于对所述关键图像帧和所述差别像素进行编码压缩,以形成所述视频流。
在本发明的一些实施例中,所述图像帧为RGB格式的图像帧,基于前述方案,所述视频流生成模块包括:
格式转换单元,用于将所述RGB格式的图像帧转换为YUV格式的图像帧,以获得多个目标图像帧;
第二编码单元,用于将各所述目标图像帧进行编码压缩以形成所述视频流。
在本发明的一些实施例中,基于前述方案,所述第二编码单元包括:
数据包生成单元,用于通过预设编码方法分别对各所述目标图像帧进行编码压缩,以形成与各所述目标图像帧对应的图像数据包;视频流生成单元,用于根据各所述图像数据包形成所述视频流。
在本发明的一些实施例中,基于前述方案,所述数据包生成单元包括:
写入单元,用于在形成所述图像数据包时,写入所述图像帧对应的序列号和生成所述图像数据包对应的时间戳。
根据本发明的第三方面,提供一种图像处理方法,其特征在于,包括:
接收一视频流,所述视频流包括多个图像数据包,且各所述图像数据包是通过对多个图像帧分别进行编码压缩形成的;对所述图像数据包进行解码,以获得各所述图像帧;接收用户对所述图像帧的操作信息,并将所述操作信息发送至服务器。
根据本发明的第四方面,提供一种图像处理装置,其特征在于,包括:
接收模块,用于接收一视频流,所述视频流包括多个图像数据包,且各所述图像数据包是通过对多个图像帧分别进行编码压缩形成的;解码模块,用于对所述图像数据包进行解码,以获得各所述图像帧;数据获取模块,用于接收用户对所述图像帧的操作信息,并将所述操作信息发送至服务器。
在本发明的一些实施例中,所述图像帧为YUV格式的图像帧,基于前述方案,所述图像处理装置还包括:
格式转换模块,用于在获得各所述图像帧后,将所述YUV格式的图像帧转换为RGB格式的图像帧。
在本发明的一些实施例中,基于前述方案,所述图像数据包包括所述图像帧的序列号和生成所述图像数据包对应的时间戳。
在本发明的一些实施例中,基于前述方案,所述图像处理装置包括:
检测模块,用于根据所述图像帧的序列号进行掉帧检测,并根据所述时间戳确定相邻的所述图像帧之间的时间间隔。
在本发明的一些实施例中,基于前述方案,所述检测模块包括:
掉帧判断单元,用于根据所述图像帧的序列号判断所述视频流中是否存在丢失图像帧,所述丢失图像帧具有目标序列号;
图像帧选取单元,用于在判定存在时,将与所述目标序列号相邻的前一序列号对应的图像帧作为所述目标序列号对应的图像帧。
在本发明的一些实施例中,基于前述方案,所述图像处理装置包括:
控件生成模块,用于基于第二引擎生成多个功能控件,并通过所述功能控件对所述图像帧进行控制。
根据本发明的第五方面,提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中所述的图像处理方法。
根据本发明的第六方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中所述的图像处理方法。
根据本示例实施例中的图像处理方法,首先通过第一引擎渲染生成多个图像帧,并将多个图像帧进行编码压缩形成视频流;接着将视频流实时发送到终端设备,并呈现在终端设备的显示屏幕上;然后获取用户对视频流的操作信息,并通过第一引擎对该操作信息进行处理以实现对图像帧的控制。本发明一方面能够减少数据的传输量,减少卡顿、提高画面质量;另一方面方便用户对画面的操作,真切感受虚拟与现实的交互,提升了用户体验。
本发明应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出可以应用本发明实施例的图像处理方法或图像处理装置的示例性***架构的示意图;
图2示出了适于用来实现本发明实施例的电子设备的计算机***的结构示意图;
图3示出本发明一实施例中的图像处理方法的流程图;
图4示出本发明一实施例中的编码压缩图像帧形成视频流的流程示意图;
图5示出本发明一实施例中的YUV420sp存储格式的结构示意图;
图6示出本发明一实施例中图像处理方法的流程图;
图7示出本发明一实施例中掉帧检测的流程示意图;
图8示出本发明一实施例中移动终端中显示的图像;
图9示出本发明一实施例中图像处理装置的结构示意图;
图10示出本发明一实施例中图像处理装置的结构示意图;
图11示出本发明一实施例中图像处理装置的结构示意图;
图12示出本发明一实施例中图像处理装置的结构示意图;。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。
即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
在本领域的相关技术中,在制作游戏或虚拟拍摄时会采用游戏引擎,但通常游戏引擎运行时需要强大的CPU和GPU硬件资源。在虚拟拍摄或是影视制作中,预览环节非常重要,为了真实体验引擎渲染的真实效果,可以在拍摄过程或是制作过程中使用移动设备,比如手机或者平板电脑,并且通过游戏引擎中的插件,用户可以在移动终端上看到游戏引擎渲染的画面,并将用户的操作传递回去。
但是相关技术中的插件采用的方案是将每帧画面单独压缩并传输,并没有考虑到画面之间的连续性,因此存在数据传输量大的问题,在测试局域网络环境下存在明显的卡顿现象;另外相关技术中对动态模糊等现象的处理不够好,对于高分辨率的画面,其画面质量较差,如果通过提高分辨率改变画面质量,则会影响网络传输的流畅度;最后,相关技术中只提供了移动设备的安装包,不方便用户在移动设备端添加更多的用户界面控件(UI控件)。
鉴于相关技术中存在的问题,本发明提供了一种图像处理方法及图像处理装置。
图1示出了可以应用本发明实施例的图像处理方法或图像处理装置的示例性***架构100的示意图。
如图1所示,***架构100可以包括终端设备101,网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器103可以是多个服务器组成的服务器集群等。
用户可以使用终端设备101通过网络102与服务器103交互,以接收或发送数据等。终端设备101可以是具有硬盘的各种电子设备,包括但不限于平板电脑、智能手机、便携式计算机和台式计算机等等。
服务器103可以是提供各种服务的服务器。服务器103上加载有第一引擎,通过第一引擎渲染可以生成多个图像帧,接着服务器103中的编码压缩程序对多个图像帧进行编码压缩,生成多个与图像帧对应的图像数据包,然后根据图像数据包形成视频流,且该视频流被实时发送至终端设备101;终端设备101接收到视频流后,对该视频流进行解码得到显示图像,并呈现在显示屏幕上,用户可以通过用户界面控件按钮或是在显示屏幕的任意位置通过鼠标、键盘、触屏笔等外部设备或手指对显示图像进行操作,终端设备101收集用户对显示图像的操作信息并发送至服务器103;服务器103接收到用户的操作信息后,通过第一引擎对操作信息进行处理以实现对图像帧的控制。
图2示出了适于用来实现本发明中的实施例的电子设备的计算机***的结构示意图。该电子设备能够执行本发明上述实施例中所述的图像处理方法,以实现对图像质量的控制;图2所示的计算机***可以适用于前述的终端设备101和/或服务器103。
需要说明的是,图2示出的电子设备的计算机***200仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图2所示,计算机***200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有***操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分409经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本发明的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本发明的***中限定的各种功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这以所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的单元可以的通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本发明还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的终端设备或服务器中所包含的;也可以是单独存在,而未装配入终端设备或服务器中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被终端设备或服务器执行时,使得终端设备或服务器实现如下述实施例中所述的方法。例如,终端设备或服务器可以实现如图3-图8所示的各个步骤。
在本发明一实施例中,首先提供了一种图像处理方法,以对存在的问题进行优化处理,具体参考图3所示,图像处理方法至少包括以下步骤,具体为:
步骤S310:通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流;
步骤S320:将所述视频流实时发送至终端设备;
步骤S330:接收所述终端设备实时发送的用户对所述视频流的操作信息,并通过所述第一引擎对所述操作信息进行处理以实现对所述图像帧的控制。
根据本示例实施例中的图像处理方法,对第一引擎渲染生成的多个图像帧进行编码压缩形成视频流,并将视频流实时发送至终端设备;然后接收终端设备发送的用户对视频流的操作信息,通过第一引擎对操作信息进行处理以实现对图像帧的控制。本发明一方面能够减少数据传输量,减少卡顿;另一方面能够改善动态模糊,提高画面质量,进一步提高了用户体验。
下面,对本示例实施例中的图像处理方法进行进一步的说明。
在步骤S310中,通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流。
在本示例实施例中,第一引擎可以是游戏引擎,游戏引擎是指一些已编写好的可编辑电脑游戏***或者一些交互式实时图像应用程序的核心组件,本发明中采用的游戏引擎可以是Unreal、Ogre、Unity、Gamebryo等等,通过第一引擎可以渲染生成多个图像帧,在获得多个图像帧后,可以对多个图像帧进行编码压缩以形成视频流。
在本示例实施例中,在将各图像帧进行编码压缩形成视频流时,可以采用预设的视频编码软件,例如可以采用ffmpeg编解码软件,ffmpeg编解码软件是一个自由软件,可以运行音频和视频多种格式的录影、转换、流功能,包含了音频和视频的解码/压码库。具体地,可以通过视频编码软件中的视频压缩算法,如H264、X264等视频压缩算法,对图像帧进行编码压缩以形成视频流,其中H264、X264是数字视频压缩格式,也是一种视频编解码标准。
在本示例实施例中,图4示出了编码压缩图像帧形成视频流的流程示意图,如图4所示,在对图像帧进行编码压缩形成视频流的过程中,在步骤S401中,确定所述多个图像帧中的其它图像帧与关键图像帧之间的差别像素;在步骤S402中,对所述关键图像帧和所述差别像素进行编码压缩,以形成所述视频流。值得注意的是,在本发明中还可以先获取关键图像帧,然后在编码压缩的过程中再确定其它图像帧与关键图像帧之间的差别像素,并编码压缩。由于在编码压缩图像帧形成视频流的过程中,针对相同的像素只进行了一次压缩,因此减少了压缩量,并且相对于相关技术中将每帧画面单独压缩而言,将图像帧压缩成视频流,大大减少数据传输量,节省了带宽,进一步减少了卡顿现象的出现。
在步骤S320中,将所述视频流实时发送至终端设备。
在本示例实施例中,形成视频流后,可以将视频流实时发送至终端设备101,并在终端设备101的显示屏幕中显示视频流中的图像帧,以供用户观看及操作。其中,终端设备可以是手机、平板电脑等移动终端设备,也可以是其它常用的终端设备。服务器101可以通过无线网络将由第一引擎渲染的画面帧压缩形成的视频流发送至移动终端设备,并且移动终端设备也可以通过无线网络将用户对图像帧的操作信息发送至服务器,以供第一引擎进行处理,实现虚拟和现实的交互。
在本示例实施例中,形成视频流后,可以将视频流按照预设的传输协议传送到终端设备101中,该传输协议可以是UDP协议等实时数据传输协议,其中UDP协议(用户数据包协议)是一种用于处理数据包的无连接的协议,在本发明中,对数据传输协议的类型不做具体限定。作为本发明的一个具体实施例,可以通过UDP协议将视频流传送到终端设备101中。
在步骤S330中,接收所述终端设备实时发送的用户对所述视频流的操作信息,并通过所述第一引擎对所述操作信息进行处理以实现对所述图像帧的控制。
在本示例实施例中,视频流由服务器103发送至终端设备101,用户可以通过终端设备101的显示屏幕观看视频流中的图像帧,并对图像帧进行操作。在对图像帧进行操作时,可以通过点击位于图像帧中的按钮图形触发相应地事件,还可以点击图像帧的任意位置以触发相应的事件。服务器103接收终端设备101发送的用户对视频流的操作信息,并通过第一引擎对操作信息进行处理以实现对图像帧的控制。例如,用户输入的操作信息可以为单击、双击等,当操作信息为单击时,终端设备101中的控件可以分析该单击操作对应的具体事件和位置,并形成操作信息数据包,该操作信息数据包可以由终端设备101发送至服务器103;然后加载在服务器103中的第一引擎根据操作信息数据包中的位置可以在第一引擎渲染生成的图像帧中确定相应的位置,并根据具体事件执行相应的动作,对图像帧进行处理,比如可以将图像比例进行缩放、切换图像帧等;最后再将处理后得到的图像帧返回至终端设备101。当操作信息为双击时,第一引擎可以根据双击事件执行相应的动作,比如可以提高双击位置处的图像亮度、分辨率等等。当然操作信息还可以是其它的操作,本发明对此不做具体限定。
在本示例实施例中,在采用预设的视频编码软件将图像帧进行编码压缩形成视频流的过程中,可以通过调节预设的视频编码软件的参数以保障视频质量、加快编码压缩的速度、降低视频流的延迟,其中视频编码软件的参数可以包括码率、编码压缩时画面的宽度和高度、视频频率、丢帧后需要多少帧能恢复正常画面、从编码器输入到解码器输出的延迟帧数、编码压缩的线程数、编码格式、编码压缩算法等。
进一步的,在对图像帧进行编码压缩时,可以通过单线程或多线程进行编码压缩,并且可以在第一引擎中使用Fasync Task和FnonAbandonableTask类创建线程形成编码压缩线程,以进行编码压缩。在本发明中,可以采用异步模式进行编码压缩,使压缩编码线程独立于主线程,这样独立的编码压缩线程不会对主线程形成阻塞,提高了数据传输效率。
在本示例实施例中,第一引擎渲染生成的图像帧为RGB格式的图像帧,在将图像帧编码压缩形成视频流的过程中,可以先将RGB格式的图像帧转换为YUV格式的图像帧,将YUV格式的图像帧作为目标图像帧,然后再将目标图像帧进行编码压缩形成视频流。YUV格式是指亮度参量和色度参量分开表示的像素格式,而将亮度参量和色度参量分开的好处就是不但可以避免相互干扰,还可以降低色度的采样率而不会对图像质量影响太大。由于YUV不像RGB那样要求三个独立的视频信号同时传输,所以用将图像帧转换为YUV格式进行传送可以占用极少的频宽,节省大量资源。YUV格式分为planar和packed两大类,对于planar的YUV格式,先连续存储所有像素点的明亮度,紧接着存储所有像素点的色彩,随后是所有像素点的饱和度;对于packed的YUV格式,每个像素点的明亮度、色彩和饱和度是连续交叉存储的。对于YUV格式的图像帧,可以采用YUV422P、YUV420、YUV420sp等存储格式进行存储,图5示出了YUV420sp存储格式的结构示意图,如图5所示,其中的明亮度(Y)信息是独立存放的,而色彩(U)和饱和度(V)是以UVUV的交替模式存储的。
在本示例实施例中,在将图像帧编码压缩形成视频流的过程中,对于每个图像帧会生成一个对应的图像数据包,然后根据多个图像数据包可以形成视频流。也就是说,当根据UDP传输协议传输视频流时,其实质上是传输多个UDP数据包。
进一步的,在形成图像数据包时,可以将图像帧对应的序列号和生成图像数据包对应的时间戳写入到图像帧中,具体地,可以在生成图像帧的同时对图像帧进行编号,使每个图像帧具有对应的序列号;然后根据图像帧形图像数据包时,获取对应的时间戳,并将图像帧的序列号和图像数据包对应的时间戳添加到图像数据包的数据中。通过图像数据包对应的时间戳可以确定相邻的图像帧之间的时间间隔,同时根据图像帧对应的序列号可以对图像帧是否掉帧进行检测。
在本发明一实施例中,还提供了一种图像处理方法,以对存在的问题进行优化处理,具体参考图6所示,图像处理方法至少包括以下步骤,具体为:
步骤S610:接收一视频流,所述视频流包括多个图像数据包,且各所述图像数据包是通过对多个图像帧分别进行编码压缩形成的。
在本示例实施例中,服务器103中加载的第一引擎渲染生成多个图像帧,通过对多个图像帧进行编码压缩或者对图像帧进行图像格式转换后再编码压缩以生成多个与图像帧对应的图像数据包,根据多个图像数据包可以形成视频流。为了使用户能够观看第一引擎渲染生成的图像帧,并对其进行操作,可以将视频流由服务器103发送至终端设备101。
步骤S620:对所述图像数据包进行解码,以获得各所述图像帧;
在本示例实施例中,终端设备101接收到视频流后,可以对视频流中的图像数据包进行解码以获得图像帧,并将图像帧呈现在终端设备101的显示屏幕上,以供用户观看和执行操作。其中的解码操作为步骤S610中编码压缩过程的逆操作,例如当采用X264视频编码算法压缩图像帧形成图像数据包,并根据图像数据包形成视频流时,那么相应地可以采用X264视频解码算法解码图像数据包以获得图像帧。
在本示例实施例中,图像数据包解码后获得的图像帧可以是YUV格式的图像帧,为了将图像帧呈现在终端设备101的显示屏幕上供用户观看,可以对图像帧的图像格式进行转换,如将YUV格式的图像帧转换为RGB格式的图像帧。
步骤S630:接收用户对所述图像帧的操作数据,并将所述操作数据发送至服务器。
在本示例实施例中,终端设备101对视频流进行解码获得图像帧后,多个图像帧可以呈现在终端设备101的显示屏幕中,用户在看到图像帧后即可对图像帧进行操作。用户可以通过与终端设备101连接的外部输入设备,如键盘、鼠标、触屏笔等设备,输入操作信息,也可以通过手指触摸等方式输入操作信息,该操作信息可以是任意的位置信息或动作信息,例如可以是触屏位置、单击、双击等等,本发明对此不做具体限定。终端设备101获取用户的输入信息后,将该输入信息发送至服务器103,以使第一引擎对输入信息进行处理,实现对图像帧的控制,进而实现虚拟与现实的交互。
在本示例实施例中,在对图像帧进行编码压缩形成图像数据包的过程中,可以写入图像帧对应的序列号和生成图像数据包的时间戳,其中图像帧对应的序列号用于进行掉帧检测,时间戳用于确定相邻图像帧之间的时间间隔。
进一步的,图7示出了掉帧检测的流程示意图,如图7所示,在步骤S701中,根据图像帧的序列号判断视频流中是否存在丢失图像帧,丢失图像帧具有目标序列号。由于序列号具有连续性,因此通过序列号是否连续即可判断图像帧是否丢失,并且获得丢失图像帧对应的目标序列号;在步骤S702中,若判定存在时,则将与目标序列号相邻的前一序列号对应的图像帧作为目标序列号对应的图像帧。若存在图像帧丢失的情况,则图像帧在终端设备101中呈现时会存在卡顿和噪点现象,通过采用相邻的前一序列号对应的图像帧作为目标序列号对应的图像帧,会减少卡顿和噪点的现象。
在本示例实施例中,在终端设备101中可以装载第二引擎,该第二引擎可以使用户在终端设备101的界面上添加多个功能控件,如退出按钮、信息显示框(帧率显示框、电量显示框、掉帧提示框)等等,便于用户通过功能控件对图像帧进行控制。图8示出了移动终端中显示的图像,如图8所示,移动终端中显示的图像与服务器端渲染生成的图像一致,通过在移动终端中点击功能按钮即可将点击事件传送到服务器端,并使第一引擎根据点击事件对图像帧进行处理,实现现实与虚拟的交互。作为一个具体实施例,本发明中可以采用Cocos2d作为第二引擎,Cocos2d具有架构简单、支持多语言和多平台、安装包较小的特性,并且也方便用户添加功能控件,并将用户对图像帧的操作信息传输至第一引擎。
在本示例实施例中,为了加快解码速度、减少耗电量以及与Cocos2d的语言环境(C++)匹配,可以在Cocos2d中新建一个线程,通过终端设备101自带的解码器进行解码,例如对于Android***,可以采用其自带的native codec进行解码。在解码后,可以为sprite控件编写定制着色器,通过终端设备101中的图像处理器(GPU)将YUV格式的图像帧转换为RGB格式的图像帧,并呈现在终端设备101的显示屏幕中。通过三星Note5手机进行测试,在最终分辨率设定为960*540的情况下,帧率可以稳定在30fps,CPU的占用率约15%,可以满足用户连续3小时以上的使用,当然对于配备更强GPU的移动设备,画面质量可以得到进一步的提高。
在本发明的图像处理方法中,终端设备接收到视频流后,对视频流进行解码、图像格式转换,以获得第一引擎渲染生成的图像帧,用户可以在终端设备,特别是移动终端设备中观看图像帧,并通过输入操作信息,以使服务器端根据输入的操作信息处理图像帧,使其发生相应的变化,并将处理后的图像帧返回至用户,实现了虚拟与现实的交互。另外,通过在终端设备中加载第二引擎,可以使用户自定义功能按钮,以便进行调试。
下面以游戏制作过程中的远程交互对本发明的图像处理方法进行说明:首先,通过搭载于服务器中的游戏虚拟引擎根据游戏开发人员的操作渲染生成多个游戏图像帧;由于渲染生成的游戏图像帧的格式通常为RGB格式,而YUV格式的图像中,亮度参数和色度参数是分开的,因此为了提高图像的压缩质量,可以将游戏图像帧的图像格式转换为YUV格式;接着,通过视频编码软件将多个YUV格式的游戏图像帧分别进行压缩编码生成多个图像数据包,并形成一视频流,其中各图像数据包中包含图像帧的序列号和生成图像数据包的时间戳;然后,根据传输协议将该视频流远程发送给一移动终端设备,以使用户通过移动终端设备对游戏图像帧进行远程操控。移动终端设备依次接收到形成该视频流的各个图像数据包后,首先,通过视频编码软件对各个图像数据包进行解码以获取其中的游戏图像帧,其中的解码运算为生成图像数据包时的压缩编码的逆运算;接着,对游戏图像帧的图像格式进行转换,将YUV格式转换为RGB格式并显示在移动终端设备的显示屏幕中,以便用户观看游戏画面;进一步的,可以通过设置在移动终端设备中的另一虚拟引擎在用户界面中设置多个控件按钮,以使用户通过触屏操作对游戏图像帧进行处理或者通过点击控件按钮以对游戏图像帧触发相应的事件,当移动终端设备接收到用户的操作数据后,可以将该操作数据发送至服务器,以使服务器中的游戏虚拟引擎对游戏图像帧进行相应的处理,实现用户对图像的远程控制。由于本发明实施例中将渲染的图像帧实时压缩为高质量的视频流,并通过传输协议传输到移动终端设备,这样移动终端设备的用户就可以实时看到损失很小的高质量画面,进一步提高了用户体验。
以下介绍本发明的装置实施例,可以用于执行本发明上述的图像处理方法。对于本发明装置实施例中未披露的细节,请参照本发明上述的图像处理方法的实施例。
图9示出了一种图像处理装置的结构示意图,参照图9所示,图像处理装置900可以包括:视频流生成模块901、发送模块902和交互模块903。
具体地,视频流生成模块901,用于通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流;发送模块902,用于将所述视频流实时发送至终端设备;交互模块903,用于接收所述终端设备实时发送的用户对所述视频流的操作信息,并通过所述第一引擎对所述操作信息进行处理以实现对所述图像帧的控制。
在本示例实施例中,所述视频流生成模块901包括差别像素确定单元和第一编码单元。
具体地,差别像素确定单元,用于确定所述多个图像帧中的其它图像帧与关键图像帧之间的差别像素;第一编码单元,用于对所述关键图像帧和所述差别像素进行编码压缩,以形成所述视频流。
在本实例实施例中,所述图像帧为RGB格式的图像帧,所述视频流生成模块901包括格式转换单元,用于将所述RGB格式的图像帧转换为YUV格式的图像帧,以获得多个目标图像帧;第二编码单元,用于将各所述目标图像帧进行编码压缩以形成所述视频流。
在本示例实施例中,所述第二编码单元包括数据包生成单元和视频流生成单元。
具体地,数据包生成单元,用于通过预设编码方法分别对各所述目标图像帧进行编码压缩,以形成与各所述目标图像帧对应的图像数据包;视频流生成单元,用于根据各所述图像数据包形成所述视频流。
在本示例实施例中,所述数据包生成单元包括写入单元,用于在形成所述图像数据包时,写入所述图像帧对应的序列号和生成所述图像数据包对应的时间戳。
图10示出了一种图像处理装置的结构示意图,参照图10所示,图像处理装置1000可以包括:接收模块1001、解码模块1002和数据获取模块1003。
具体地,接收模块1001,用于接收一视频流,所述视频流包括多个图像数据包,且各所述图像数据包是通过对多个图像帧分别进行编码压缩形成的;解码模块1002,用于对所述图像数据包进行解码,以获得各所述图像帧;数据获取模块1003,用于接收用户对所述图像帧的操作信息,并将所述操作信息发送至服务器。
在本示例实施例中,所述图像帧为YUV格式的图像帧,图11示出了一种图像处理装置,如图11所示,图像处理装置1000还可以包括格式转换模块1004,用于在获得各所述图像帧后,将所述YUV格式的图像帧转换为RGB格式的图像帧。
在本示例实施例中,所述图像数据包包括所述图像帧的序列号和生成所述图像数据包对应的时间戳。
图12示出了一种图像处理装置,如图12所示,图像处理装置1000还可以包括检测模块1005,用于根据所述图像帧的序列号进行掉帧检测,并根据所述时间戳确定相邻的所述图像帧之间的时间间隔。
在本示例实施例中,所述检测模块1005包括掉帧判断单元和图像帧选取单元。
具体地,掉帧判断单元,用于根据所述图像帧的序列号判断所述视频流中是否存
在丢失图像帧,所述丢失图像帧具有目标序列号;图像帧选取单元,用于在判定存在时,将与所述目标序列号相邻的前一序列号对应的图像帧作为所述目标序列号对应的图像帧。
图12示出了一种图像处理装置,如图12所示,图像处理装置1000还可以包括控件生成模块1006,用于基于第二引擎生成多个功能控件,并通过所述功能控件对所述图像帧进行控制。
由于本发明的示例实施例的图像处理装置的各个功能模块与上述图像处理方法的示例实施例的步骤对应,因此在此不再赘述。
应当注意,尽管在上文详细描述中提及了图像处理装置的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由所附的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限。

Claims (15)

1.一种图像处理方法,其特征在于,包括:
通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流;
将所述视频流实时发送至终端设备;
接收所述终端设备实时发送的用户对所述视频流中的图像帧的操作信息,并通过所述第一引擎对所述操作信息进行处理以实现对所述图像帧的控制,使得所述图像帧实现切换、比例缩放、亮度调节或分辨率调节中的任意一种变化。
2.根据权利要求1所述的图像处理方法,其特征在于,通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流,包括:
确定各所述图像帧中的其它图像帧与关键图像帧之间的差别像素;
对所述关键图像帧和所述差别像素进行编码压缩,以形成所述视频流。
3.根据权利要求1所述的图像处理方法,其特征在于,所述图像帧为RGB格式的图像帧,通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流,包括:
将所述RGB格式的图像帧转换为YUV格式的图像帧,以获得多个目标图像帧;
将各所述目标图像帧进行编码压缩以形成所述视频流。
4.根据权利要求3所述的图像处理方法,其特征在于,将各所述目标图像帧进行编码压缩以形成所述视频流,包括:
通过预设编码方法分别对各所述目标图像帧进行编码压缩,以形成与各所述目标图像帧对应的图像数据包;
根据各所述图像数据包形成所述视频流。
5.根据权利要求4所述的图像处理方法,其特征在于,通过预设编码方法分别对各所述目标图像帧进行编码压缩,以形成与各所述目标图像帧对应的图像数据包,包括:
在形成所述图像数据包时,写入所述图像帧对应的序列号和生成所述图像数据包对应的时间戳。
6.一种图像处理方法,其特征在于,包括:
接收一视频流,所述视频流包括多个图像数据包,且各所述图像数据包是通过对多个图像帧分别进行编码压缩形成的;
对所述图像数据包进行解码,以获得各所述图像帧;
接收用户对所述图像帧的操作信息,并将所述操作信息发送至服务器,以使得所述服务器通过第一引擎对所述操作信息进行处理以实现对所述图像帧的控制,使得所述图像帧实现切换、比例缩放、亮度调节或分辨率调节中的任意一种变化。
7.根据权利要求6所述的图像处理方法,其特征在于,所述图像帧为YUV格式的图像帧,所述方法还包括:
在获得各所述图像帧后,将所述YUV格式的图像帧转换为RGB格式的图像帧。
8.根据权利要求6所述的图像处理方法,其特征在于,所述图像数据包包括所述图像帧的序列号和生成所述图像数据包对应的时间戳。
9.根据权利要求8所述的图像处理方法,其特征在于,所述方法还包括:
根据所述图像帧的序列号进行掉帧检测,并根据所述时间戳确定相邻的所述图像帧之间的时间间隔。
10.根据权利要求9所述的图像处理方法,其特征在于,根据所述图像帧的序列号进行掉帧检测,包括:
根据所述图像帧的序列号判断所述视频流中是否存在丢失图像帧,所述丢失图像帧具有目标序列号;
若判定存在时,则将与所述目标序列号相邻的前一序列号对应的图像帧作为所述目标序列号对应的图像帧。
11.根据权利要求6所述的图像处理方法,其特征在于,所述方法还包括:
基于第二引擎生成多个功能控件,并通过所述功能控件对所述图像帧进行控制。
12.一种图像处理装置,其特征在于,包括:
视频流生成模块,用于通过第一引擎渲染生成多个图像帧,并将各所述图像帧进行编码压缩以形成视频流;
发送模块,用于将所述视频流实时发送至终端设备;
交互模块,用于接收所述终端设备实时发送的用户对所述视频流中的图像帧的操作信息,并通过所述第一引擎对所述操作信息进行处理以实现对所述图像帧的控制,使得所述图像帧实现切换、比例缩放、亮度调节或分辨率调节中的任意一种变化。
13.一种图像处理装置,其特征在于,包括:
接收模块,用于接收一视频流,所述视频流包括多个图像数据包,且各所述图像数据包是通过对多个图像帧分别进行编码压缩形成的;
解码模块,用于对所述图像数据包进行解码,以获得各所述图像帧;
数据获取模块,用于接收用户对所述图像帧的操作信息,并将所述操作信息发送至服务器,以使得所述服务器通过第一引擎对所述操作信息进行处理以实现对所述图像帧的控制,使得所述图像帧实现切换、比例缩放、亮度调节或分辨率调节中的任意一种变化。
14.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-11中任一项所述的图像处理方法。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-11中任一项所述的图像处理方法。
CN201811253125.XA 2018-10-25 2018-10-25 图像处理方法及装置、计算机可读存储介质、电子设备 Active CN109510990B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811253125.XA CN109510990B (zh) 2018-10-25 2018-10-25 图像处理方法及装置、计算机可读存储介质、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811253125.XA CN109510990B (zh) 2018-10-25 2018-10-25 图像处理方法及装置、计算机可读存储介质、电子设备

Publications (2)

Publication Number Publication Date
CN109510990A CN109510990A (zh) 2019-03-22
CN109510990B true CN109510990B (zh) 2022-03-29

Family

ID=65746070

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811253125.XA Active CN109510990B (zh) 2018-10-25 2018-10-25 图像处理方法及装置、计算机可读存储介质、电子设备

Country Status (1)

Country Link
CN (1) CN109510990B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490962B (zh) * 2019-08-20 2023-09-15 武汉邦拓信息科技有限公司 一种基于视频流的远程渲染方法
CN110634564B (zh) * 2019-09-16 2023-01-06 腾讯科技(深圳)有限公司 一种病理信息处理方法、装置、***、电子设备及存储介质
CN110827380B (zh) * 2019-09-19 2023-10-17 北京铂石空间科技有限公司 图像的渲染方法、装置、电子设备及计算机可读介质
CN110865787A (zh) * 2019-11-25 2020-03-06 京东方科技集团股份有限公司 图像处理方法、服务端、客户端和图像处理***
CN113055729B (zh) * 2019-12-27 2024-05-28 中兴通讯股份有限公司 一种云化机顶盒图像差分处理方法及装置
CN111836116A (zh) * 2020-08-06 2020-10-27 武汉大势智慧科技有限公司 一种网络自适应渲染的视频展示方法及***
CN114078078A (zh) * 2020-08-21 2022-02-22 北京小米移动软件有限公司 一种图像格式转换方法、装置及存储介质
CN112546633B (zh) * 2020-12-10 2024-06-21 网易(杭州)网络有限公司 虚拟场景的处理方法、装置、设备及存储介质
CN114897758A (zh) * 2021-01-26 2022-08-12 腾讯科技(深圳)有限公司 图像丢帧检测方法、装置、设备以及存储介质
CN113163259A (zh) * 2021-05-10 2021-07-23 宝宝巴士股份有限公司 一种基于FFmpeg的视频结点的渲染方法及装置
CN113760431B (zh) * 2021-08-30 2024-03-29 百度在线网络技术(北京)有限公司 应用程序的控制方法、装置、电子设备及可读存储介质
CN113784094B (zh) * 2021-08-31 2024-04-30 上海三旺奇通信息科技有限公司 视频数据处理方法、网关、终端设备及存储介质
CN114445264B (zh) * 2022-01-25 2022-11-01 上海秉匠信息科技有限公司 纹理压缩方法、装置、电子设备及计算机可读存储介质
CN114626975A (zh) * 2022-03-21 2022-06-14 北京字跳网络技术有限公司 数据处理方法、装置、设备、存储介质和程序产品
WO2023245495A1 (zh) * 2022-06-22 2023-12-28 云智联网络科技(北京)有限公司 将渲染数据转换为视频流的方法及装置、电子设备
CN115225615B (zh) * 2022-06-30 2024-02-23 如你所视(北京)科技有限公司 虚幻引擎像素流送方法及装置
CN115379207A (zh) * 2022-08-24 2022-11-22 中国第一汽车股份有限公司 摄像头模拟方法、装置、电子设备及可读介质
CN116778046B (zh) * 2023-08-28 2023-10-27 乐元素科技(北京)股份有限公司 基于多线程的头发模型处理方法、装置、设备及介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101340598A (zh) * 2008-08-07 2009-01-07 北京衡准科技有限公司 一种实现媒体三维播放的方法及装置
CN103096128B (zh) * 2011-11-07 2016-07-06 ***通信集团公司 一种实现视频互动的方法、服务器、终端及***
WO2016049187A1 (en) * 2014-09-23 2016-03-31 Lincolnpeak Systems, methods, and software for processing a question relative to one or more of a plurality of population research databases
CN105791977B (zh) * 2016-02-26 2019-05-07 北京视博云科技有限公司 基于云服务的虚拟现实数据处理方法、设备及***
CN107979763B (zh) * 2016-10-21 2021-07-06 阿里巴巴集团控股有限公司 一种虚拟现实设备生成视频、播放方法、装置及***
CN108668167B (zh) * 2017-03-28 2021-01-15 ***通信有限公司研究院 一种视频还原的方法及装置
CN107529711A (zh) * 2017-08-01 2018-01-02 杭州安恒信息技术有限公司 流媒体的显示方法及装置

Also Published As

Publication number Publication date
CN109510990A (zh) 2019-03-22

Similar Documents

Publication Publication Date Title
CN109510990B (zh) 图像处理方法及装置、计算机可读存储介质、电子设备
US10200744B2 (en) Overlay rendering of user interface onto source video
US11200426B2 (en) Video frame extraction method and apparatus, computer-readable medium
US20220014819A1 (en) Video image processing
JP5830496B2 (ja) ディスプレイコントローラおよび画面転送装置
CN110868625A (zh) 一种视频播放方法、装置、电子设备及存储介质
KR101596505B1 (ko) 멀티미디어 시스템의 사용자 인터페이스 장치 및 방법
CN110012333A (zh) 将视频流中的视频帧传送到显示器的方法及相应装置
CN110827380A (zh) 图像的渲染方法、装置、电子设备及计算机可读介质
CN111083450A (zh) 车机端图像远程输出方法、装置及***
CA2950642C (en) Minimizing input lag in a remote gui tv application
KR20160015128A (ko) 클라우드 스트리밍 서비스 시스템, 이미지 타입에 따른 클라우드 스트리밍 서비스 방법 및 이를 위한 장치
CN113497932B (zh) 测量视频传输时延的方法、***及介质
CN114938461A (zh) 视频处理方法、装置、设备及可读存储介质
KR20160011158A (ko) 화면 공유 시스템 및 방법
CN116708876B (zh) 视频流处理、展示方法、计算机可读存储介质及电子设备
CN111669541A (zh) 预监画面显示方法及显示***
CN113099308B (zh) 一种内容显示方法、显示设备及图像采集器
CN114339344B (zh) 一种智能设备及视频录制的方法
KR20110071736A (ko) 단말기 원격 공유 장치 및 방법
US11368743B2 (en) Telestration capture for a digital video production system
WO2023193524A1 (zh) 直播视频处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品
JP6067085B2 (ja) 画面転送装置
CN115801878A (zh) 云应用画面传输方法、设备和存储介质
CN115706828A (zh) 数据处理方法及装置、设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant