CN104967864B - 一种合并视频的方法及装置 - Google Patents

一种合并视频的方法及装置 Download PDF

Info

Publication number
CN104967864B
CN104967864B CN201410503239.0A CN201410503239A CN104967864B CN 104967864 B CN104967864 B CN 104967864B CN 201410503239 A CN201410503239 A CN 201410503239A CN 104967864 B CN104967864 B CN 104967864B
Authority
CN
China
Prior art keywords
video
frame
time
merging
display time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410503239.0A
Other languages
English (en)
Other versions
CN104967864A (zh
Inventor
李达
吴凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Beijing Co Ltd
Original Assignee
Tencent Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Beijing Co Ltd filed Critical Tencent Technology Beijing Co Ltd
Priority to CN201410503239.0A priority Critical patent/CN104967864B/zh
Publication of CN104967864A publication Critical patent/CN104967864A/zh
Application granted granted Critical
Publication of CN104967864B publication Critical patent/CN104967864B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本发明公开了一种合并视频的方法及装置,属于计算机技术领域。所述方法包括:获取帧间隔时间;根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。所述装置包括:第一获取模块、第二获取模块、计算模块和合并模块。本发明能够将多个视频合并为一个视频,提高播放视频的效率。

Description

一种合并视频的方法及装置
技术领域
本发明涉及计算机技术领域,特别涉及一种合并视频的方法及装置。
背景技术
目前,像手机等移动终端上基本带有拍摄视频的功能,用户常常使用该功能拍摄视频。有时用户可能在一段时间内拍摄多个视频,这些视频的内容主题可能相同或相关。例如,用户到某个地点旅行,在旅行期间用户拍摄两段视频,这两段视频的内容主题都是关于本次旅行,所以该两段视频是内容主题相同或相关的视频。
移动终端在拍摄完一段视频后,将拍摄的视频存储在移动终端的本地存储器中。用户想播放视频时,在移动终端本地找出需要播放的视频进行播放。有时用户需要播放内容主题相同或相关的多个视频,此时用户首先从移动终端本地找出一个需要播放的视频进行播放,播放完该视频后,再从移动终端本地找出其他需要播放的一个视频进行播放。如果该多个视频中还有未播放的视频,则继续从移动终端本地找出其他未播放的视频进行播放,直到播放完该多个视频。
在实现本发明的过程中,发明人发现现有技术至少存在以下问题:
当播放内容主题相同或相关的多个视频时,用户需要从移动终端本地找出一个视频进行播放,播放完再从移动终端本地找出其他视频进行播放,如此在一个视频播放完到开始播放另一个视频这段时间没有得到利用,导致播放视频的效率很低。例如,存在内容主题相同或相关的2个视频,用户需要从移动终端本地分两次找出该2个视频进行播放,在第一个视频播放结束到开始播放第二个视频这段时间内终端空闲,没有视频可以播放,导致播放效率低下。
发明内容
为了提高播放视频的效率,本发明提供了一种合并视频的方法及装置。所述技术方案如下:
一种合并视频的方法,所述方法包括:
获取帧间隔时间;
根据所述帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;
根据所述时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;
根据所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将所述第一视频和所述第二视频合并为一个视频。
一种合并视频的装置,所述装置包括:
第一获取模块,用于获取帧间隔时间;
第二获取模块,用于根据所述帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;
计算模块,用于根据所述时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;
合并模块,用于根据所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将所述第一视频和所述第二视频合并为一个视频。
在本发明实施例中,获取帧间隔时间;根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。由于根据时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算了第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,可以根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频,如此在播放视频时第一视频和第二视频作为一个视频连续播放,避免了先播放第一视频再播放第二视频时存在的等待时间,提高了播放视频的效率。
附图说明
图1是本发明实施例1提供的一种合并视频的方法流程图;
图2是本发明实施例2提供的一种合并视频的方法流程图;
图3是本发明实施例3提供的一种合并视频的装置结构示意图;
图4是本发明实施例4提供的一种终端的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
实施例1
参见图1,本发明实施例提供了一种合并视频的方法,包括:
步骤101:获取帧间隔时间;
步骤102:根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;
步骤103:根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;
步骤104:根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。
优选地,根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量,包括:
根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,按如下所示的公式(1)计算时间偏移量;
T=PTSN-PTS1+t0……(1)
在公式(1)中,T为时间偏移量,PTSN为最后一帧视频的显示时间,PTS1为第一帧视频的显示时间,t0为帧间隔时间。
优选地,根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,包括:
根据第二视频中包括的每帧视频的显示时间和该时间偏移量,按如下公式(2)计算第二视频中包括的每帧视频在合并后的视频中的显示时间;
PTSi’=PTSi+T……(2)
在公式(2)中,PTSi为第二视频中包括的第i帧视频的显示时间,PTSi’为第二视频中包括的第i帧视频在合并后的视频中的显示时间;
根据第二视频中包括的每帧视频的解码时间和该时间偏移量,按如下公式(3)计算第二视频中包括的每帧视频在合并后的视频中的解码时间;
DTSi’=DTSi+T……(3)
在公式(3)中,DTSi为第二视频中包括的第i帧视频的解码时间,DTSi’为第二视频中包括的第i帧视频在合并后的视频中的解码时间。
进一步地,获取帧间隔时间之前,还包括:
创建第一线程、第二线程和第三线程,通过第一线程、第二线程和第三线程拍摄视频。
优选地,通过第一线程、第二线程和第三线程拍摄视频,包括:
通过第一线程获取摄像头当前拍摄的一帧视频数据,将摄像头当前拍摄的一帧视频数据***到视频队列的队尾;
通过第二线程获取麦克风当前采集的一帧音频数据,将麦克风当前采集的一帧音频数据***到音频队列的队尾;
通过第三线程,从视频队列的队首获取一帧视频数据以及从音频队列的队首获取一帧音频数据,将获取的一帧视频数据和一帧音频数据组合为视频中的一帧视频。
优选地,获取帧间隔时间,包括:
获取第一视频中每帧视频所占用的时间、第一视频包括的视频帧的数目以及第一视频的总时长;
根据第一视频中每帧视频所占用的时间,计算第一视频中视频帧占用的总时间;
根据第一视频中视频帧占用的总时间和第一视频的总时长,计算第一视频中包括的帧间隔所占用的总时间;
根据帧间隔所占用的总时间和第一视频包括的视频帧的数目,计算帧间隔时间。
优选地,根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频,包括:
将第一视频中包括的每帧视频存储在一个视频文件中;
根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,确定第二视频中包括的每帧视频的存储顺序;
在视频文件中第一视频包括的最后一帧视频之后,按照确定的存储顺序存储第二视频中包括的每帧视频,以实现将第一视频和第二视频合并为一个视频。
在本发明实施例中,获取帧间隔时间;根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。由于根据时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算了第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,可以根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频,如此在播放视频时第一视频和第二视频作为一个视频连续播放,避免了先播放第一视频再播放第二视频时存在的等待时间,提高了播放视频的效率。
实施例2
本发明实施例提供了一种合并视频的方法。
目前,像手机等移动终端上基本带有拍摄视频的功能,用户常常使用该功能拍摄视频。有时用户可能在一段时间内拍摄多个视频,这些视频的内容主题可能相同或相关。在播放视频时,有时用户需要播放内容主题相同或相关的多个视频,此时终端可以通过本发明实施例提供的方法将这多个视频合并为一个视频。
参见图2,该方法具体包括:
步骤201:创建第一线程、第二线程和第三线程,通过第一线程、第二线程和第三线程拍摄第一视频和第二视频;
其中,终端上配置有摄像头和麦克风,可以通过摄像头来拍摄视频数据,通过麦克风来采集音频数据。且为了在拍摄视频数据的同时采集音频数据,可以通过多线程技术创建多个线程,通过一个线程获取摄像头拍摄的视频数据,同时通过另一个线程来获取麦克风采集的音频数据。
本步骤具体为,通过多线程技术创建第一线程、第二线程和第三线程。通过第一线程获取摄像头当前拍摄的一帧视频数据,将摄像头当前拍摄的一帧视频数据***到视频队列的队尾。通过第二线程获取麦克风当前采集的一帧音频数据,将麦克风当前采集的一帧音频数据***到音频队列的队尾。通过第三线程,从视频队列的队首获取一帧视频数据以及从音频队列的队首获取一帧音频数据,将获取的一帧视频数据和一帧音频数据组合为第一视频中的一帧视频。对于第一视频中的其他每帧视频,都可以按照上述操作获取第一视频中的其他每帧视频。同样,也可以按照上述方法获取第二视频中的每帧视频。
其中,视频队列和音频队列均为先进先出队列。由于第三线程的处理速度比第一线程和第二线程的处理速度慢很多,所以需要将第一线程获取的视频数据***到视频队列的队尾进行等待,以及需要将第二线程获取的音频数据***到音频队列的队尾进行等待。
例如,通过多线程技术创建第一线程t1、第二线程t2和第三线程t3。通过第一线程t1获取摄像头当前拍摄的一帧视频数据v3,将摄像头当前拍摄的一帧视频数据v3***到如队列1所示的视频队列的队尾。通过第二线程t2获取麦克风当前采集的一帧音频数据r3,将麦克风当前采集的一帧音频数据r3***到如队列2所示的音频队列的队尾。通过第三线程t3,从如队列1的视频队列的队首获取一帧视频数据v1以及从如队列2所示的音频队列的队首获取一帧音频数据r1,将获取的一帧视频数据v1和一帧音频数据r1组合为第一视频video1中的一帧视频。对于第一视频video1中的其他每帧视频,都可以按照上述操作获取第一视频中的其他每帧视频。同样,也可以按照上述方法获取第二视频video2中的每帧视频。
队列1
v3 v2 v1
队列2
r3 r2 r1
其中,通过多线程技术来拍摄视频,在通过摄像头拍摄视频数据的同时,可以通过麦克风采集音频数据,以及将同一时间获取的一帧视频数据和一帧音频数据组合为视频中的一帧视频,如此可以缩短获取视频的时间,提高获取视频的效率。
进一步地,第一视频和第二视频也可以不是终端拍摄的视频。第一视频和第二视频可以为终端上已存储的视频或终端从视频服务器获取的视频。但是第一视频和第二视频的视频格式必须相同。视频格式可以为AVI(Audio Video Interactive,音频和视频混合编码)、WMV(Windows Media Video,数位视频编解码格式)或DV(Digital Video,数字视频)等。
其中,函数av_read_frame()为音视频读取函数,用于读取视频中包括的每帧视频的数据。通过上述操作获取到第一视频和第二视频之后,可以通过函数av_read_frame()来分别读取第一视频中包括的每帧视频的数据和第二视频中包括的每帧视频的数据。
其中,通过上述步骤201的操作获取到第一视频和第二视频之后,可以通过如下步骤202-205的操作来将第一视频和第二视频合并为一个视频。
步骤202:获取帧间隔时间;
其中,帧间隔时间为视频中相邻两帧视频之间间隔的时间。
本步骤具体为,获取第一视频中每帧视频所占用的时间、第一视频包括的视频帧的数目以及第一视频的总时长。计算每帧视频所占用的时间的总和得到第一视频中所有视频帧所占用的时间。计算第一视频的总时长与所有视频帧所占用的时间的差值得到第一视频中的总帧间隔时间。根据第一视频包括的视频帧的数目确定第一视频中帧间隔的个数。计算总帧间隔时间与帧间隔的个数的比值得到帧间隔时间。
其中,一帧视频的数据中包括该帧视频所占的时间,且一般视频中包括的每帧视频所占用的时间均相等,可以从第一视频中每帧视频的数据中分别获取每帧视频所占用的时间。
例如,假设第一视频video1的总时长为1s,第一视频video1中包括20帧视频,每帧视频占用的时间相等且均为0.04s。获取第一视频video1中每帧视频所占用的时间均为0.04s、第一视频video1包括的视频帧的数目20以及第一视频video1的总时长1s。计算每帧视频所占用的时间的总和为0.8s,得到第一视频video1中所有视频帧所占用的时间为0.8s。计算第一视频video1的总时长1s与所有视频帧所占用的时间0.8s的差值得到第一视频video1中的总帧间隔时间为0.2s。根据第一视频video1包括的视频帧的数目20确定出第一视频video1中帧间隔的个数为19。计算总帧间隔时间0.2s与帧间隔的个数19的比值得到帧间隔时间为0.01s。
进一步地,还可以事先设置一个预设的帧间隔时间。
步骤203:根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;
其中,一帧视频中包括该帧视频的显示时间。在播放视频时,在该帧视频的显示时间播放该帧视频。在获取第一视频中包括的每帧视频的数据时可以获取到第一帧视频的显示时间以及最后一帧视频的显示时间。
本步骤具体为,根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,按如下所示的公式(1)计算时间偏移量;
T=PTSN-PTS1+t0……(1)
在公式(1)中,T为时间偏移量,PTSN为最后一帧视频的显示时间,PTS1为第一帧视频的显示时间,t0为帧间隔时间。
例如,假设第一视频video1中包括的第一帧视频的显示时间为0:00,最后一帧的显示时间为0:01。根据帧间隔时间0.01s和第一视频video1中包括的第一帧视频的显示时间0:00以及最后一帧视频的显示时间0:01,按如下所示的公式(2)计算出时间偏移量为1.01s。
T=PTSN-PTS1+t0=0:01-0:00+0.01=1.01 ……(2)
其中,通过上述步骤202和203的步骤获取到时间偏移量之后,通过下述步骤204的操作来计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间。
步骤204:根据时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;
其中,一帧视频中包括该帧视频的显示时间和解码时间。在播放视频时,在该帧视频的解码时间对该帧视频的数据进行解码,然后在该帧视频的显示时间播放该帧视频。在获取第二视频中包括的每帧视频的数据时可以获取到第二视频中包括的每帧视频的显示时间和解码时间。
本步骤具体为,根据第二视频中包括的每帧视频的显示时间和时间偏移量,按如下公式(3)计算第二视频中包括的每帧视频在合并后的视频中的显示时间。
PTSi’=PTSi+T……(3)
在公式(3)中,PTSi为第二视频中包括的第i帧视频的显示时间,PTSi’为第二视频中包括的第i帧视频在合并后的视频中的显示时间。
根据第二视频中包括的每帧视频的解码时间和时间偏移量,按如下公式(4)计算第二视频中包括的每帧视频在合并后的视频中的解码时间。
DTSi’=DTSi+T……(4)
在公式(4)中,DTSi为第二视频中包括的第i帧视频的解码时间,DTSi’为第二视频中包括的第i帧视频在合并后的视频中的解码时间。
例如,假设第二视频video2中包括3帧视频,第一帧视频的显示时间为0:00以及解码时间为0:00,第二帧视频的显示时间为0:01以及解码时间为0:00,第三帧视频的显示时间为0:02以及解码时间为0:01。根据第二视频video2中包括的第一帧视频的显示时间0:00和时间偏移量1.01,按如下公式(5)计算第二视频video2中包括的第一帧视频在合并后的视频中的显示时间为1:01。同样按照上述方法计算出第二帧视频在合并后的视频中的显示时间为1:02,以及第三帧视频在合并后的视频中的显示时间为1:03。
PTS1’=PTS1+T=0:00+1.01=1:01 ……(5)
根据第二视频video2中包括的第一帧视频的解码时间0:00和时间偏移量1.01,按如下公式(6)计算第二视频video2中包括的第一帧视频在合并后的视频中的解码时间为1:01。同样按照上述方法计算出第二帧视频在合并后的视频中的解码时间为1:01,以及第三帧视频在合并后的视频中的解码时间为1:02。
DTSi’=DTSi+T=0:00+1.01=1:01 ……(6)
其中,通过上述步骤204的操作计算出第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间之后,通过如下步骤205的操作来合并第一视频和第二视频。
步骤205:根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。
具体地,将第一视频的每帧视频存储在一个视频文件中,然后根据第二视频中包括的每帧视频在合并后的视频中的显示时间以及解码时间,确定第二视频中包括的每帧视频的存储顺序。在该视频文件中第一视频包括的最后一帧视频之后,按照确定的存储顺序将第二视频中的每帧视频也存储在该视频文件中,以实现将第一视频和第二视频合并为一个视频。
其中,存储顺序可以为第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间的先后顺序。如此将第一视频和第二视频直接存储在一个视频文件中,可以提高合并视频的效率。
例如,将第一视频video1的每帧视频存储在一个视频文件1中,然后根据第二视频video2中包括的第一帧视频在合并后的视频中的显示时间1:01以及解码时间1:01,第二帧视频在合并后的视频中的显示时间1:02以及解码时间1:01,以及第三帧视频在合并后的视频中的显示时间1:03以及解码时间1:02,确定第二视频video2中包括的每帧视频的存储顺序为第一帧视频、第二帧视频和第三帧视频。在该视频文件1中第一视频video1包括的最后一帧视频之后,按照第一帧视频、第二帧视频和第三帧视频的顺序将第二视频video2中的每帧视频也存储在该视频文件1中,以实现将第一视频video1和第二视频video2合并为一个视频。
其中,将第一视频和第二视频合并为一个视频之后,在播放视频时,连续播放合并后的视频,播放过程中没有空闲时间,如此与单独播放第一视频再播放第二视频相比,提高了播放视频的效率。
其中,如果还存在需要合并的视频,则将合并得到的视频作为第一视频,将需要合并的一个视频作为第二视频,然后按照本发明实施例提供的方法将第一视频和第二视频合并为一个视频。
其中,在本发明实施例中,通过摄像头采集视频数据以及通过麦克风采集音频数据时,是通过Java程序代码进行处理的。但是由于程序代码在处理任务时,最终都需要将数据传入底层并翻译为硬件信号来处理,而Java程序代码在将数据传入底层并翻译为硬件信号时需要经过很多次翻译,效率很低。因此在本发明实施例中,通过摄像头采集视频数据以及通过麦克风采集音频数据,并获取到第一视频和第二视频之后,将第一视频和第二视频传入到JNI(Java Native Interface,脚本本地调用层)。在JNI层,通过C++面向对象的程序代码来将第一视频和第二视频合并为一个视频,如此C++面向对象的程序代码在将数据传入底层并翻译为硬件信号时可以省去从Java程序代码翻译到C++面向对象的程序代码的过程,提高了处理效率。
在本发明实施例中,获取帧间隔时间;根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。由于根据时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算了第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,可以根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频,如此在播放视频时第一视频和第二视频作为一个视频连续播放,避免了先播放第一视频再播放第二视频时存在的等待时间,提高了播放视频的效率。
实施例3
参见图3,本发明实施例提供了一种合并视频的装置,包括:
第一获取模块301,用于获取帧间隔时间;
第二获取模块302,用于根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;
计算模块303,用于根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;
合并模块304,用于根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。
其中,第二获取模块302,用于根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,按如下所示的公式(1)计算时间偏移量;
T=PTSN-PTS1+t0……(1)
在公式(1)中,T为时间偏移量,PTSN为最后一帧视频的显示时间,PTS1为第一帧视频的显示时间,t0为帧间隔时间。
其中,计算模块303包括:
第一计算单元,用于根据第二视频中包括的每帧视频的显示时间和该时间偏移量,按如下公式(2)计算第二视频中包括的每帧视频在合并后的视频中的显示时间;
PTSi’=PTSi+T……(2)
在公式(2)中,PTSi为第二视频中包括的第i帧视频的显示时间,PTSi’为第二视频中包括的第i帧视频在合并后的视频中的显示时间;
第二计算单元,用于根据第二视频中包括的每帧视频的解码时间和该时间偏移量,按如下公式(3)计算第二视频中包括的每帧视频在合并后的视频中的解码时间;
DTSi’=DTSi+T……(3)
在公式(3)中,DTSi为第二视频中包括的第i帧视频的解码时间,DTSi’为第二视频中包括的第i帧视频在合并后的视频中的解码时间。
进一步地,该装置还包括:
拍摄模块,用于创建第一线程、第二线程和第三线程,通过第一线程、第二线程和第三线程拍摄视频。
其中,拍摄模块包括:
第一获取单元,用于通过第一线程获取摄像头当前拍摄的一帧视频数据,将摄像头当前拍摄的一帧视频数据***到视频队列的队尾;
第二获取单元,用于通过第二线程获取麦克风当前采集的一帧音频数据,将麦克风当前采集的一帧音频数据***到音频队列的队尾;
组合单元,用于通过第三线程,从视频队列的队首获取一帧视频数据以及从音频队列的队首获取一帧音频数据,将获取的一帧视频数据和一帧音频数据组合为视频中的一帧视频。
其中,第一获取模块301包括:
第三获取单元,用于获取第一视频中每帧视频所占用的时间、第一视频包括的视频帧的数目以及第一视频的总时长;
第三计算单元,用于根据第一视频中每帧视频所占用的时间,计算第一视频中视频帧占用的总时间;
第四计算单元,用于根据第一视频中视频帧占用的总时间和第一视频的总时长,计算第一视频中包括的帧间隔所占用的总时间;
第五计算单元,用于根据帧间隔所占用的总时间和第一视频包括的视频帧的数目,计算帧间隔时间。
其中,合并模块304包括:
第一存储单元,用于将第一视频中包括的每帧视频存储在一个视频文件中;
确定单元,用于根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,确定第二视频中包括的每帧视频的存储顺序;
第二存储单元,用于在视频文件中第一视频包括的最后一帧视频之后,按照确定的存储顺序存储第二视频中包括的每帧视频,以实现将第一视频和第二视频合并为一个视频。
在本发明实施例中,获取帧间隔时间;根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。由于根据时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算了第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,可以根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频,如此在播放视频时第一视频和第二视频作为一个视频连续播放,避免了先播放第一视频再播放第二视频时存在的等待时间,提高了播放视频的效率。
实施例4
请参考图4,其示出了本发明实施例所涉及的具有触敏表面的终端结构示意图,该终端可以用于实施上述实施例中提供的合并视频的方法。具体来讲:
终端900可以包括RF(Radio Frequency,射频)电路110、包括有一个或一个以上计算机可读存储介质的存储器120、输入单元130、显示单元140、传感器150、音频电路160、WiFi(wireless fidelity,无线保真)模块170、包括有一个或者一个以上处理核心的处理器180、以及电源190等部件。本领域技术人员可以理解,图4中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
RF电路110可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,交由一个或者一个以上处理器180处理;另外,将涉及上行的数据发送给基站。通常,RF电路110包括但不限于天线、至少一个放大器、调谐器、一个或多个振荡器、用户身份模块(SIM)卡、收发信机、耦合器、LNA(Low Noise Amplifier,低噪声放大器)、双工器等。此外,RF电路110还可以通过无线通信与网络和其他设备通信。所述无线通信可以使用任一通信标准或协议,包括但不限于GSM(Global System of Mobile communication,全球移动通讯***)、GPRS(General Packet Radio Service,通用分组无线服务)、CDMA(CodeDivision Multiple Access,码分多址)、WCDMA(Wideband Code Division MultipleAccess,宽带码分多址)、LTE(Long Term Evolution,长期演进)、电子邮件、SMS(ShortMessaging Service,短消息服务)等。
存储器120可用于存储软件程序以及模块,处理器180通过运行存储在存储器120的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器120可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端900的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器120可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器120还可以包括存储器控制器,以提供处理器180和输入单元130对存储器120的访问。
输入单元130可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。具体地,输入单元130可包括触敏表面131以及其他输入设备132。触敏表面131,也称为触摸显示屏或者触控板,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触敏表面131上或在触敏表面131附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触敏表面131可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器180,并能接收处理器180发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触敏表面131。除了触敏表面131,输入单元130还可以包括其他输入设备132。具体地,其他输入设备132可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元140可用于显示由用户输入的信息或提供给用户的信息以及终端900的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。显示单元140可包括显示面板141,可选的,可以采用LCD(Liquid Crystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等形式来配置显示面板141。进一步的,触敏表面131可覆盖显示面板141,当触敏表面131检测到在其上或附近的触摸操作后,传送给处理器180以确定触摸事件的类型,随后处理器180根据触摸事件的类型在显示面板141上提供相应的视觉输出。虽然在图4中,触敏表面131与显示面板141是作为两个独立的部件来实现输入和输入功能,但是在某些实施例中,可以将触敏表面131与显示面板141集成而实现输入和输出功能。
终端900还可包括至少一种传感器150,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板141的亮度,接近传感器可在终端900移动到耳边时,关闭显示面板141和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于终端900还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路160、扬声器161,传声器162可提供用户与终端900之间的音频接口。音频电路160可将接收到的音频数据转换后的电信号,传输到扬声器161,由扬声器161转换为声音信号输出;另一方面,传声器162将收集的声音信号转换为电信号,由音频电路160接收后转换为音频数据,再将音频数据输出处理器180处理后,经RF电路110以发送给比如另一终端,或者将音频数据输出至存储器120以便进一步处理。音频电路160还可能包括耳塞插孔,以提供外设耳机与终端900的通信。
WiFi属于短距离无线传输技术,终端900通过WiFi模块170可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图4示出了WiFi模块170,但是可以理解的是,其并不属于终端900的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器180是终端900的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器120内的软件程序和/或模块,以及调用存储在存储器120内的数据,执行终端900的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器180可包括一个或多个处理核心;优选的,处理器180可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器180中。
终端900还包括给各个部件供电的电源190(比如电池),优选的,电源可以通过电源管理***与处理器180逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。电源190还可以包括一个或一个以上的直流或交流电源、再充电***、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管未示出,终端900还可以包括摄像头、蓝牙模块等,在此不再赘述。具体在本实施例中,终端900的显示单元是触摸屏显示器,终端900还包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行述一个或者一个以上程序包含用于进行以下操作的指令:
获取帧间隔时间;
根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;
根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;
根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。
优选地,根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量,包括:
根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,按如下所示的公式(1)计算时间偏移量;
T=PTSN-PTS1+t0……(1)
在公式(1)中,T为时间偏移量,PTSN为最后一帧视频的显示时间,PTS1为第一帧视频的显示时间,t0为帧间隔时间。
优选地,根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,包括:
根据第二视频中包括的每帧视频的显示时间和该时间偏移量,按如下公式(2)计算第二视频中包括的每帧视频在合并后的视频中的显示时间;
PTSi’=PTSi+T……(2)
在公式(2)中,PTSi为第二视频中包括的第i帧视频的显示时间,PTSi’为第二视频中包括的第i帧视频在合并后的视频中的显示时间;
根据第二视频中包括的每帧视频的解码时间和该时间偏移量,按如下公式(3)计算第二视频中包括的每帧视频在合并后的视频中的解码时间;
DTSi’=DTSi+T……(3)
在公式(3)中,DTSi为第二视频中包括的第i帧视频的解码时间,DTSi’为第二视频中包括的第i帧视频在合并后的视频中的解码时间。
进一步地,获取帧间隔时间之前,还包括:
创建第一线程、第二线程和第三线程,通过第一线程、第二线程和第三线程拍摄视频。
优选地,通过第一线程、第二线程和第三线程拍摄视频,包括:
通过第一线程获取摄像头当前拍摄的一帧视频数据,将摄像头当前拍摄的一帧视频数据***到视频队列的队尾;
通过第二线程获取麦克风当前采集的一帧音频数据,将麦克风当前采集的一帧音频数据***到音频队列的队尾;
通过第三线程,从视频队列的队首获取一帧视频数据以及从音频队列的队首获取一帧音频数据,将获取的一帧视频数据和一帧音频数据组合为视频中的一帧视频。
优选地,获取帧间隔时间,包括:
获取第一视频中每帧视频所占用的时间、第一视频包括的视频帧的数目以及第一视频的总时长;
根据第一视频中每帧视频所占用的时间,计算第一视频中视频帧占用的总时间;
根据第一视频中视频帧占用的总时间和第一视频的总时长,计算第一视频中包括的帧间隔所占用的总时间;
根据帧间隔所占用的总时间和第一视频包括的视频帧的数目,计算帧间隔时间。
优选地,根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频,包括:
将第一视频中包括的每帧视频存储在一个视频文件中;
根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,确定第二视频中包括的每帧视频的存储顺序;
在视频文件中第一视频包括的最后一帧视频之后,按照确定的存储顺序存储第二视频中包括的每帧视频,以实现将第一视频和第二视频合并为一个视频。
在本发明实施例中,获取帧间隔时间;根据该帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;根据该时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频。由于根据时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算了第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,可以根据第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将第一视频和第二视频合并为一个视频,如此在播放视频时第一视频和第二视频作为一个视频连续播放,避免了先播放第一视频再播放第二视频时存在的等待时间,提高了播放视频的效率。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种合并视频的方法,其特征在于,所述方法包括:
获取帧间隔时间,所述帧间隔时间是指第一视频中相邻两帧视频之间间隔的时间;
根据所述帧间隔时间和所述第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;
根据所述时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;
根据所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将所述第一视频和所述第二视频合并为一个视频。
2.如权利要求1所述的方法,其特征在于,所述根据所述帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量,包括:
根据所述帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,按如下所示的公式(1)计算时间偏移量;
T=PTSN-PTS1+t0……(1)
在公式(1)中,T为所述时间偏移量,PTSN为所述最后一帧视频的显示时间,PTS1为所述第一帧视频的显示时间,t0为所述帧间隔时间。
3.如权利要求1所述的方法,其特征在于,所述根据所述时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,包括:
根据第二视频中包括的每帧视频的显示时间和所述时间偏移量,按如下公式(2)计算所述第二视频中包括的每帧视频在合并后的视频中的显示时间;
PTSi’=PTSi+T……(2)
在公式(2)中,PTSi为所述第二视频中包括的第i帧视频的显示时间,PTSi’为所述第二视频中包括的第i帧视频在所述合并后的视频中的显示时间;
根据所述第二视频中包括的每帧视频的解码时间和所述时间偏移量,按如下公式(3)计算所述第二视频中包括的每帧视频在所述合并后的视频中的解码时间;
DTSi’=DTSi+T……(3)
在公式(3)中,DTSi为所述第二视频中包括的第i帧视频的解码时间,DTSi’为所述第二视频中包括的第i帧视频在所述合并后的视频中的解码时间。
4.如权利要求1所述的方法,其特征在于,所述获取帧间隔时间之前,还包括:
创建第一线程、第二线程和第三线程,通过所述第一线程、第二线程和第三线程拍摄视频。
5.如权利要求4所述的方法,其特征在于,所述通过所述第一线程、第二线程和第三线程拍摄视频,包括:
通过所述第一线程获取摄像头当前拍摄的一帧视频数据,将所述摄像头当前拍摄的一帧视频数据***到视频队列的队尾;
通过所述第二线程获取麦克风当前采集的一帧音频数据,将所述麦克风当前采集的一帧音频数据***到音频队列的队尾;
通过所述第三线程,从所述视频队列的队首获取一帧视频数据以及从所述音频队列的队首获取一帧音频数据,将所述获取的一帧视频数据和一帧音频数据组合为视频中的一帧视频。
6.如权利要求1所述的方法,其特征在于,所述获取帧间隔时间,包括:
获取第一视频中每帧视频所占用的时间、所述第一视频包括的视频帧的数目以及所述第一视频的总时长;
根据所述第一视频中每帧视频所占用的时间,计算所述第一视频中视频帧占用的总时间;
根据所述第一视频中视频帧占用的总时间和所述第一视频的总时长,计算所述第一视频中包括的帧间隔所占用的总时间;
根据所述帧间隔所占用的总时间和所述第一视频包括的视频帧的数目,计算帧间隔时间。
7.如权利要求1所述的方法,其特征在于,所述根据所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将所述第一视频和所述第二视频合并为一个视频,包括:
将所述第一视频中包括的每帧视频存储在一个视频文件中;
根据所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,确定所述第二视频中包括的每帧视频的存储顺序;
在所述视频文件中所述第一视频包括的最后一帧视频之后,按照所述确定的存储顺序存储所述第二视频中包括的每帧视频,以实现将所述第一视频和所述第二视频合并为一个视频。
8.一种合并视频的装置,其特征在于,所述装置包括:
第一获取模块,用于获取帧间隔时间,所述帧间隔时间是指第一视频中相邻两帧视频之间间隔的时间;
第二获取模块,用于根据所述帧间隔时间和所述第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,获取时间偏移量;
计算模块,用于根据所述时间偏移量、第二视频中包括的每帧视频的显示时间和解码时间,计算所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间;
合并模块,用于根据所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,将所述第一视频和所述第二视频合并为一个视频。
9.如权利要求8所述的装置,其特征在于,所述第二获取模块,用于根据所述帧间隔时间和第一视频中包括的第一帧视频的显示时间以及最后一帧视频的显示时间,按如下所示的公式(1)计算时间偏移量;
T=PTSN-PTS1+t0……(1)
在公式(1)中,T为所述时间偏移量,PTSN为所述最后一帧视频的显示时间,PTS1为所述第一帧视频的显示时间,t0为所述帧间隔时间。
10.如权利要求8所述的装置,其特征在于,所述计算模块包括:
第一计算单元,用于根据第二视频中包括的每帧视频的显示时间和所述时间偏移量,按如下公式(2)计算所述第二视频中包括的每帧视频在合并后的视频中的显示时间;
PTSi’=PTSi+T……(2)
在公式(2)中,PTSi为所述第二视频中包括的第i帧视频的显示时间,PTSi’为所述第二视频中包括的第i帧视频在所述合并后的视频中的显示时间;
第二计算单元,用于根据所述第二视频中包括的每帧视频的解码时间和所述时间偏移量,按如下公式(3)计算所述第二视频中包括的每帧视频在所述合并后的视频中的解码时间;
DTSi’=DTSi+T……(3)
在公式(3)中,DTSi为所述第二视频中包括的第i帧视频的解码时间,DTSi’为所述第二视频中包括的第i帧视频在所述合并后的视频中的解码时间。
11.如权利要求8所述的装置,其特征在于,所述装置还包括:
拍摄模块,用于创建第一线程、第二线程和第三线程,通过所述第一线程、第二线程和第三线程拍摄视频。
12.如权利要求11所述的装置,其特征在于,所述拍摄模块包括:
第一获取单元,用于通过所述第一线程获取摄像头当前拍摄的一帧视频数据,将所述摄像头当前拍摄的一帧视频数据***到视频队列的队尾;
第二获取单元,用于通过所述第二线程获取麦克风当前采集的一帧音频数据,将所述麦克风当前采集的一帧音频数据***到音频队列的队尾;
组合单元,用于通过所述第三线程,从所述视频队列的队首获取一帧视频数据以及从所述音频队列的队首获取一帧音频数据,将所述获取的一帧视频数据和一帧音频数据组合为视频中的一帧视频。
13.如权利要求8所述的装置,其特征在于,所述第一获取模块包括:
第三获取单元,用于获取第一视频中每帧视频所占用的时间、所述第一视频包括的视频帧的数目以及所述第一视频的总时长;
第三计算单元,用于根据所述第一视频中每帧视频所占用的时间,计算所述第一视频中视频帧占用的总时间;
第四计算单元,用于根据所述第一视频中视频帧占用的总时间和所述第一视频的总时长,计算所述第一视频中包括的帧间隔所占用的总时间;
第五计算单元,用于根据所述帧间隔所占用的总时间和所述第一视频包括的视频帧的数目,计算帧间隔时间。
14.如权利要求8所述的装置,其特征在于,所述合并模块包括:
第一存储单元,用于将所述第一视频中包括的每帧视频存储在一个视频文件中;
确定单元,用于根据所述第二视频中包括的每帧视频在合并后的视频中的显示时间和解码时间,确定所述第二视频中包括的每帧视频的存储顺序;
第二存储单元,用于在所述视频文件中所述第一视频包括的最后一帧视频之后,按照所述确定的存储顺序存储所述第二视频中包括的每帧视频,以实现将所述第一视频和所述第二视频合并为一个视频。
CN201410503239.0A 2014-09-26 2014-09-26 一种合并视频的方法及装置 Active CN104967864B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410503239.0A CN104967864B (zh) 2014-09-26 2014-09-26 一种合并视频的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410503239.0A CN104967864B (zh) 2014-09-26 2014-09-26 一种合并视频的方法及装置

Publications (2)

Publication Number Publication Date
CN104967864A CN104967864A (zh) 2015-10-07
CN104967864B true CN104967864B (zh) 2019-01-11

Family

ID=54221788

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410503239.0A Active CN104967864B (zh) 2014-09-26 2014-09-26 一种合并视频的方法及装置

Country Status (1)

Country Link
CN (1) CN104967864B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105657524A (zh) * 2016-01-13 2016-06-08 上海视云网络科技有限公司 一种视频间无缝切换的方法
CN109429030A (zh) * 2017-08-31 2019-03-05 爱唯秀股份有限公司 利用超分辨率算法重建视频的方法
CN110401866B (zh) * 2018-04-25 2022-05-20 广州虎牙信息科技有限公司 直播视频的显示方法、装置、终端和存储介质
CN108966026B (zh) * 2018-08-03 2021-03-30 广州酷狗计算机科技有限公司 制作视频文件的方法和装置
CN113750527B (zh) * 2021-09-10 2023-09-01 福建天晴数码有限公司 一种高准确度的帧率控制方法及其***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101409831A (zh) * 2008-07-10 2009-04-15 浙江师范大学 一种多媒体视频对象处理方法
CN101740082A (zh) * 2009-11-30 2010-06-16 孟智平 一种基于浏览器的视频剪辑方法及***
CN102054510A (zh) * 2010-11-08 2011-05-11 武汉大学 一种视频预处理与播放的方法及***
CN102075792A (zh) * 2010-12-23 2011-05-25 华为技术有限公司 视频文件播放方法及***、用户端设备、服务器设备
US20120169883A1 (en) * 2010-12-31 2012-07-05 Avermedia Information, Inc. Multi-stream video system, video monitoring device and multi-stream video transmission method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8379677B2 (en) * 2007-04-30 2013-02-19 Vixs Systems, Inc. System for combining a plurality of video streams and method for use therewith

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101409831A (zh) * 2008-07-10 2009-04-15 浙江师范大学 一种多媒体视频对象处理方法
CN101740082A (zh) * 2009-11-30 2010-06-16 孟智平 一种基于浏览器的视频剪辑方法及***
CN102054510A (zh) * 2010-11-08 2011-05-11 武汉大学 一种视频预处理与播放的方法及***
CN102075792A (zh) * 2010-12-23 2011-05-25 华为技术有限公司 视频文件播放方法及***、用户端设备、服务器设备
US20120169883A1 (en) * 2010-12-31 2012-07-05 Avermedia Information, Inc. Multi-stream video system, video monitoring device and multi-stream video transmission method

Also Published As

Publication number Publication date
CN104967864A (zh) 2015-10-07

Similar Documents

Publication Publication Date Title
CN104427083B (zh) 调节音量的方法和装置
CN105554550B (zh) 视频播放方法及装置
CN104169856B (zh) 侧边菜单显示方法、装置和终端
CN104519404B (zh) 图像互换格式文件的播放方法及装置
CN105808060B (zh) 一种播放动画的方法和装置
CN104036536B (zh) 一种定格动画的生成方法和装置
CN104978176B (zh) 应用程序接口调用方法、装置及计算机可读存储介质
CN106488296B (zh) 一种显示视频弹幕的方法和装置
CN106933525B (zh) 一种显示图像的方法和装置
CN104252341B (zh) 应用程序的换肤方法、装置及应用程序的客户端设备
CN104967864B (zh) 一种合并视频的方法及装置
CN104238893B (zh) 一种对视频预览图片进行显示的方法和装置
CN106504303B (zh) 一种播放帧动画的方法和装置
CN104967865B (zh) 视频预览方法和装置
CN103559731B (zh) 一种锁屏状态下歌词显示的方法及终端
CN104021129B (zh) 显示组图的方法及终端
CN107396193B (zh) 视频播放的方法和装置
CN104516624B (zh) 一种输入账户信息的方法及装置
CN107203960A (zh) 图像渲染方法及装置
CN107943417A (zh) 图像处理方法、终端、计算机存储介质及计算机程序
CN110099296A (zh) 一种信息显示方法及终端设备
CN104007887B (zh) 浮层显示的方法和终端
CN108124059A (zh) 一种录音方法及移动终端
CN106210838B (zh) 字幕显示方法及装置
CN106791916A (zh) 一种推荐音频数据的方法、装置和***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant