JP6279146B2 - データ処理装置及びデータ処理方法及びデータ処理プログラム - Google Patents
データ処理装置及びデータ処理方法及びデータ処理プログラム Download PDFInfo
- Publication number
- JP6279146B2 JP6279146B2 JP2017503298A JP2017503298A JP6279146B2 JP 6279146 B2 JP6279146 B2 JP 6279146B2 JP 2017503298 A JP2017503298 A JP 2017503298A JP 2017503298 A JP2017503298 A JP 2017503298A JP 6279146 B2 JP6279146 B2 JP 6279146B2
- Authority
- JP
- Japan
- Prior art keywords
- frame data
- time
- read
- data
- reception
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000004364 calculation method Methods 0.000 claims description 84
- 238000000034 method Methods 0.000 claims description 18
- 238000012544 monitoring process Methods 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 12
- 101001128819 Tityus serrulatus Bradykinin-potentiating peptide T Proteins 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4344—Remultiplexing of multiplex streams, e.g. by modifying time stamps or remapping the packet identifiers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/65—Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/114—Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/643—Communication protocols
- H04N21/6437—Real-time Transport Protocol [RTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
この場合に、レコーダでは、RTCP(Real−time Transport Control Protocol)パケットのSR(Sender Report)を用いて、RTPヘッダに含まれるタイムスタンプと、監視カメラが持つNTP(Network Time Protocol)タイムスタンプとを同期させることが行われる。
このため、監視カメラは電源断があった場合には、電源投入後にNTPプロトコルなどを用いて外部から時刻を取得することとなる。
しかしながら、監視カメラが時刻を取得できるまでに所定の時間を要する。
監視カメラが外部から時刻を取得できるまでの間も監視カメラが撮像を行い、撮像された映像データをレコーダに送信する場合は、時刻を取得するまでの間、RTCPのSRによってRTPタイムスタンプに対応付けられるNTPタイムスタンプは誤った値となる。
このため、レコーダは、誤ったNTPタイムスタンプで映像データを記録することになり、映像データを再配信する際などに誤ったタイミングで映像データを再配信することとなる。
しかし、H.264のような予測符号化方式ではI(Intra−coded)フレームデータのサイズが他の種類のフレームデータのサイズより大きい。
このため、監視カメラとレコーダ間の帯域などの要因により、Iフレームデータの送信は他の種類のフレームデータの送信よりも時間がかる。
この結果、Iフレームデータの直前のフレームデータとIフレームデータとの間の受信間隔及びIフレームデータとIフレームデータの直後のフレームデータとの間の受信間隔が撮像時のフレーム間隔よりも長くなり、Iフレームデータ及びIフレームデータに後続するフレームデータにずれが生じる場合がある。
このずれは、Iフレームデータの受信ごとに加算されていく。
そして、フレームデータの受信時刻に従って例えば再配信のためにフレームデータを読み出すと、Iフレームデータの度に、読出しタイミングが撮像タイミングとずれていく。
また、特許文献1の技術では、PLLという特別なハードウェアが必要である。
それぞれにタイムスタンプが設定されている複数のI(Intra−coded)フレームデータと複数のP(Predicted)フレームデータとを受信する受信部と、
前記受信部による各Iフレームデータの受信時刻を取得する時刻取得部と、
前記受信部により受信された前記複数のIフレームデータと前記複数のPフレームデータとを記憶する映像記憶部と、
Iフレームデータの前記映像記憶部からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と前記先行Iフレームデータの読出し時刻とに基づき計算し、Pフレームデータの前記映像記憶部からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算する時刻計算部と、
前記読出し対象のIフレームデータと前記読出し対象のPフレームデータとをそれぞれ前記時刻計算部により計算された時刻に前記映像記憶部から読み出すデータ読出し部とを有する。
このため、本発明によれば、Iフレームデータのサイズが他の種類のフレームデータのサイズより大きい場合でも、特別なハードウェアを用いることなく、各フレームのフレームデータの読出し時刻を撮像時刻に同期させることができる。
***構成の説明***
図1は、本実施の形態に係るシステム構成例を示す。
ネットワーク2は、映像データの送信に用いられるネットワークであり、LAN(Local Area Newtork)、インターネットなどである。
データ処理装置3は、監視カメラ1からの映像データを受信し、受信した映像データを記録する。
データ処理装置3は、例えば監視レコーダである。
なお、図1では、1つの監視カメラ1のみを示しているが、監視カメラ1は複数あってもよい。
前述したように、Iフレームデータは、Bフレームデータ及びPフレームデータよりもサイズが大きい。
このため、Iフレームデータの送信はBフレームデータ及びPフレームデータの送信よりも時間がかかる。
また、後述するように、各フレームデータにはタイムスタンプが設定されている。
符号化部102は、撮像部101が撮像した映像を符号化する。
時刻付与部103は、符号化部102の符号化により得られたデータ(フレームデータ)にタイムスタンプを付与する。
送信部104は、ネットワーク2を介してフレームデータ(複数のIフレームデータ、複数のBフレームデータ、複数のPフレームデータ)をデータ処理装置3に送信する。
また、映像記憶部303は、時刻取得部302により取得されたIフレームデータの受信時刻も記憶する。
時刻計算部304は、Iフレームデータの映像記憶部303からの読出し時刻を読出し対象のIフレームデータの受信時刻と読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と先行Iフレームデータの読出し時刻とに基づき計算する。
例えば、時刻計算部304は、Iフレームデータの映像記憶部303からの読出し時刻を、読出し対象のIフレームデータの受信時刻と読出し対象のIフレームデータの直前のIフレームデータである直前Iフレームデータの受信時刻との差分と、直前Iフレームデータの読出し時刻とに基づき計算する。
また、時刻計算部304は、Bフレームデータの映像記憶部303からの読出し時刻を読出し対象のBフレームデータのタイムスタンプに基づき計算する。
例えば、時刻計算部304は、Bフレームデータの映像記憶部303からの読出し時刻を、読出し対象のBフレームデータのタイムスタンプと読出し対象のBフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、直前フレームデータの読出し時刻とに基づき計算する。
また、時刻計算部304は、Pフレームデータの映像記憶部303からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算する。
例えば、時刻計算部304は、Pフレームデータの映像記憶部303からの読出し時刻を、読出し対象のPフレームデータのタイムスタンプと読出し対象のPフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、直前フレームデータの読出し時刻とに基づき計算する。
データ読出し部305は、読み出した各フレームデータから監視カメラ1で撮像された映像を再生する。
もしくは、データ読出し部305は、読み出した各フレームデータを外部装置に再配信する。
次に、本実施の形態の動作例を説明する。
監視カメラ1において、撮像部101は撮像対象物を撮像する。
符号化部102は、撮像部10が撮像した映像を符号化する。
送信部104が符号化部102の符号化により得られたフレームデータをRTPパケットで送信する際に、時刻付与部103がタイムスタンプをRTPヘッダに挿入する。
タイムスタンプの周波数を90000Hzとすると、毎秒30フレームの映像であれば1フレームにつきタイムスタンプの値が3000ずつ増加する。
送信部104は、タイムスタンプがRTPヘッダに設定されたRTPパケットをネットワーク2を介してデータ処理装置3に送信する。
図2は、データ処理装置3の受信処理、時刻取得処理及び映像記憶処理を示す。
図3は、データ処理装置3の時刻計算処理及びデータ読出し処理を示す。
図2及び図3に示す手順は、データ処理方法及びデータ処理プログラムの処理手順に相当する。
前述のように、RTPパケットには、フレームデータとタイムスタンプが含まれる。
1つのIフレームデータが複数のRTPパケットに分割されて送信される場合は、時刻取得部302は、複数のRTPパケットのうちの先頭のRTPパケットの受信時刻を取得する。
つまり、時刻取得部302は、受信部301が各Iフレームデータの受信を開始した時刻を各Iフレームデータの受信時刻として取得する。
ここでは、時刻取得部302はIフレームデータの受信時刻のみを取得するが、時刻取得部302はBフレームデータの受信時刻及びPフレームデータの受信時刻を取得してもよい。
また、映像記憶部303は、Iフレームデータに対応付けて、時刻取得部302により取得された受信時刻を記憶する。
読出し時刻の計算方法の詳細は後述するが、前述のように、Iフレームデータの読出し時刻の計算方法と、Bフレームデータの読出し時刻の計算方法及びPフレームデータの読出し時刻の計算方法とは異なる。
なお、図3では、S202の後にS203が実施されるようになっているが、S202とS203とが並行して実施されてもよい。
なお、図4の(a)が受信時刻を表し、図4の(b)が読出し時刻を表している。
時刻Tr0から時刻Tr6は、0番目から6番目のフレームデータを受信した時刻を示している。
0番目のフレームデータと5番目のフレームデータはIフレームデータである。
1番目のフレームデータから4番目のフレームデータ及び6番目のフレームデータはPフレームデータまたはBフレームデータである。
時刻Ts0から時刻Ts6は、0番目から6番目のフレームデータの読出し時刻を示している。
また、値Δtsは一定値であり、前後のフレームデータでのタイムスタンプの差分値3000に等しく、これは1/30秒に等しい。
時刻Ts0は、ユーザからフレームデータの読出しが指示された時刻である。
読出し時刻計算部304は、時刻Ts0を0番目のフレームデータの読出し時刻に指定し、データ読出し部305は時刻Ts0にて0番目のフレームデータを映像記憶部303から読み出す。
つまり、時刻計算部304は、受信時刻Tr1を参照せずに、直前フレームデータである0番目のフレームデータの読出し時刻Ts0にタイムスタンプの差分Δtsを加算して読出し時刻Ts1を算出する。
同様に、時刻計算部304は、2番目のフレームデータの読出し時刻Ts2、3番目のフレームデータの読出し時刻Ts3、4番目のフレームデータの読出し時刻Ts4を以下にて算出する。
Ts2=Ts1+Δts
Ts3=Ts2+Δts
Ts4=Ts3+Δts
つまり、時刻計算部304は、読出し時刻Ts4を参照せずに、5番目のフレームデータの直前のIフレームデータである0番目のフレームデータの受信時刻Tr0と5番目のフレームデータの受信時刻Tr0との差分を、読出し時刻Ts0に加算して読出し時刻Ts5を算出する。
つまり、時刻計算部304は、受信時刻Tr6を参照せずに、直前フレームデータである5番目のフレームデータの読出し時刻Ts5にタイムスタンプの差分Δtsを加算して読出し時刻Ts6を算出する。
つまり、時刻計算部304は、9番目の読出し時刻Ts9を参照せずに、10番目のフレームデータの直前のIフレームデータである5番目のフレームデータの受信時刻Tr5と10番目のフレームデータの受信時刻Tr10との差分を、読出し時刻Ts5に加算して読出し時刻Ts10を算出する。
なお、7番目から9番目のフレームデータの読出し時刻の計算方法は、1番目から4番目のフレームデータの読出し時刻の計算方法と同じである。
しかし、時刻計算部304は、読出し対象のIフレームデータに先行するIフレームデータであれば、直前のIフレームデータではないIフレームデータの読出し時刻を基準にして読出し対象のIフレームデータの読出し時刻を計算してもよい。
例えば、0番目のフレームデータから5フレーム前のIフレームデータの読出し時刻が計算済みであれば、時刻計算部304は、0番目のフレームデータから5フレーム前のIフレームデータの読出し時刻を基準にして5番目のフレームデータの読出し時刻Ts5を計算してもよい。
ここでは、0番目のフレームデータから5フレーム前のIフレームデータの受信時刻をTrm5、0番目のフレームデータから5フレーム前のIフレームデータの読出し時刻をTsm5とする。
この場合に、5番目のフレームデータの読出し時刻Ts5を、Ts5=Tsm5+Trm5−Tr5により計算してもよい。
このような場合に、過去のIフレームデータの受信間隔も用いてIフレームデータの読出し時刻を補正してもよい。
例えば、0番目のフレームデータから5フレーム前のIフレームデータの受信時刻をTrm5、0番目のフレームデータから10フレーム前のIフレームデータの受信時刻をTrm10とする。
時刻計算部304は、例えば、Ts5=Ts0+(Tr5−Tr0)×0.5+(Tr0−Trm5)×0.3+(Trm5−Trm10)×0.2により読出し時刻Ts5を計算してもよい。
このように、時刻計算部304は、Iフレームデータの映像記憶部303からの読出し時刻を、読出し対象のIフレームデータの受信時刻と読出し対象のIフレームデータの直前のIフレームデータである直前Iフレームデータの受信時刻との差分と、直前Iフレームデータに先行する複数のIフレームデータの間の受信時刻の差分と、直前Iフレームデータの読出し時刻とに基づき計算するようにしてもよい。
本実施の形態によれば、データ処理装置3は、監視カメラ1が西暦年月日を含む絶対時刻を保持していなくても、各フレームのフレームデータを撮像タイミングと同期して読み出すことができる。
また、監視カメラ1に搭載された図示しない時刻クロック源とデータ処理装置3に搭載された図示しない時刻クロック源の速度に差がある場合でも、破綻無く映像データの再生又は映像データの再配信を行うことができる。
実施の形態1では、Pフレームデータの読出し時刻の計算方法は、Bフレームデータの読出し時刻の計算方法と同じである。
本実施の形態では、Pフレームデータの読み出し時刻を実施の形態1で示したIフレームデータの読出し時刻の計算方法に従って計算する。
また、データ処理装置3の動作も図2及び図3に示す通りである。
但し、本実施の形態では、時刻取得部302は、図2のS102において、受信部301がIフレームデータを受信した受信時刻を取得し、また、受信部301がPフレームデータを受信した受信時刻を取得する。
1つのPフレームデータが複数のRTPパケットに分割されて送信される場合は、時刻取得部302は、複数のRTPパケットのうちの先頭のRTPパケットの受信時刻を取得する。
つまり、時刻取得部302は、受信部301が各Pフレームデータの受信を開始した時刻を各Pフレームデータの受信時刻として取得する。
また、映像記憶部303は、図2のS103において、Pフレームデータの受信時刻も記憶する。
更に、時刻計算部304は、図3のS202において、Pフレームデータの読み出し時刻を実施の形態1で示したIフレームデータの読出し時刻の計算方法に従って計算する。
より具体的には、時刻計算部304は、Pフレームデータの読出し時刻を読出し対象のPフレームデータの受信時刻と読出し対象のPフレームデータに先行するIフレームデータ又はPフレームデータである先行I/Pフレームデータの受信時刻と先行I/Pフレームデータの読出し時刻とに基づき計算する。
また、実施の形態1では、時刻計算部304は、Iフレームデータの読出し時刻は、先行するIフレームデータの読出し時刻に基づいて計算したが、本実施の形態では、時刻計算部304は、Iフレームデータの読出し時刻を、先行するPフレームデータの読出し時刻に基づいて計算する場合がある。
以下では、図4を参照して、本実施の形態におけるIフレームデータの読出し時刻の計算方法及びPフレームデータの読出し時刻の計算方法を説明する。
また1番目から4番目のフレームデータ、6番目のフレームデータは、すべてBフレームデータである。
時刻計算部304は、0番目から4番目のフレームデータの読出し時刻を、実施の形態1と同様の方法で計算する。
また、時刻計算部304は、5番目のフレームデータ(Pフレームデータ)の読出し時刻Ts5を、実施の形態1と同様に、Ts5=Ts0+Tr5−Tr0により計算する。
つまり、時刻計算部304は、読出し時刻Ts4を参照せずに、5番目のフレームデータの直前のIフレームデータである0番目のフレームデータの受信時刻Tr0と5番目のフレームデータの受信時刻Tr0との差分を、読出し時刻Ts0に加算して読出し時刻Ts5を算出する。
つまり、時刻計算部304は、9番目の読出し時刻Ts9を参照せずに、10番目のフレームデータの直前のPフレームデータである5番目のフレームデータの受信時刻Tr5と10番目のフレームデータの受信時刻Tr10との差分を、読出し時刻Ts5に加算して読出し時刻Ts10を算出する。
なお、7番目から9番目のフレームデータの読出し時刻の計算方法は、実施の形態1と同じである。
しかし、時刻計算部304は、読出し対象のIフレームデータ(又はPフレームデータ)に先行するIフレームデータ(又はPフレームデータ)であれば、直前のIフレームデータ(又はPフレームデータ)ではないIフレームデータ(又はPフレームデータ)の読出し時刻を基準にして読出し対象のIフレームデータ(又はPフレームデータ)の読出し時刻を計算してもよい。
例えば、0番目のフレームデータから5フレーム前のIフレームデータ(又はPフレームデータ)の読出し時刻が計算済みであれば、時刻計算部304は、0番目のフレームデータから5フレーム前のIフレームデータ(又はPフレームデータ)の読出し時刻を基準にして5番目のフレームデータの読出し時刻Ts5を計算してもよい。
ここでは、0番目のフレームデータから5フレーム前のIフレームデータ(又はPフレームデータ)の受信時刻をTrm5、0番目のフレームデータから5フレーム前のIフレームデータ(又はPフレームデータ)の読出し時刻をTsm5とする。
この場合に、5番目のフレームデータの読出し時刻Ts5を、Ts5=Tsm5+Trm5−Tr5により計算してもよい。
本実施の形態では、0番目のフレームデータから5フレーム前のPフレームデータの受信時刻をTrm5、0番目のフレームデータから10フレーム前のIフレームデータの受信時刻をTrm10とする。
時刻計算部304は、例えば、Ts5=Ts0+(Tr5−Tr0)×0.5+(Tr0−Trm5)×0.3+(Trm5−Trm10)×0.2により、5番目のフレームデータであるPフレームデータ(又はIフレームデータ)の読出し時刻Ts5を計算してもよい。
つまり、前述の例において、0番目のフレームデータから5フレーム前のフレームデータがIフレームデータであり、0番目のフレームデータから10フレーム前のフレームデータがIフレームデータであれば、時刻計算部304は、これら2つのIフレームデータの間の受信時刻の差分を用いる。
また、0番目のフレームデータから5フレーム前のフレームデータがPフレームデータであり、0番目のフレームデータから10フレーム前のフレームデータがPフレームデータであれば、時刻計算部304は、これら2つのPフレームデータの間の受信時刻の差分を用いる。
また、0番目のフレームデータから5フレーム前のフレームデータがIフレームデータ(又はPフレームデータ)であり、0番目のフレームデータから10フレーム前のフレームデータがPフレームデータ(又はIフレームデータ)であれば、時刻計算部304は、これらIフレームデータとPフレームデータの間の受信時刻の差分を用いる。
データ処理装置3はコンピュータである。
データ処理装置3は、プロセッサ901、補助記憶装置902、メモリ903、通信装置904、入力インタフェース905、ディスプレイインタフェース906といったハードウェアを備える。
プロセッサ901は、信号線910を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
入力インタフェース905は、入力装置907に接続されている。
ディスプレイインタフェース906は、ディスプレイ908に接続されている。
プロセッサ901は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
補助記憶装置902は、例えば、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)である。
メモリ903は、例えば、RAM(Random Access Memory)である。
図1に示す映像記憶部303は、メモリ903又は補助記憶装置902により実現される。
通信装置904は、データを受信するレシーバー9041及びデータを送信するトランスミッター9042を含む。
通信装置904は、例えば、通信チップ又はNIC(Network Interface Card)である。
入力インタフェース905は、入力装置907のケーブル911が接続されるポートである。
入力インタフェース905は、例えば、USB(Universal Serial Bus)端子である。
ディスプレイインタフェース906は、ディスプレイ908のケーブル912が接続されるポートである。
ディスプレイインタフェース906は、例えば、USB端子又はHDMI(登録商標)(High Definition Multimedia Interface)端子である。
入力装置907は、例えば、マウス、キーボード又はタッチパネルである。
ディスプレイ908は、例えば、LCD(Liquid Crystal Display)である。
このプログラムは、メモリ903にロードされ、プロセッサ901に読み込まれ、プロセッサ901によって実行される。
更に、補助記憶装置902には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がメモリ903にロードされ、プロセッサ901はOSを実行しながら、「部」の機能を実現するプログラムを実行する。
図5では、1つのプロセッサ901が図示されているが、データ処理装置3が複数のプロセッサ901を備えていてもよい。
そして、複数のプロセッサ901が「部」の機能を実現するプログラムを連携して実行してもよい。
また、「部」の処理の結果を示す情報やデータや信号値や変数値が、メモリ903、補助記憶装置902、又は、プロセッサ901内のレジスタ又はキャッシュメモリに記憶される。
また、「部」を「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
「回路」及び「サーキットリー」は、プロセッサ901だけでなく、ロジックIC又はGA(Gate Array)又はASIC(Application Specific Integrated Circuit)又はFPGA(Field−Programmable Gate Array)といった他の種類の処理回路をも包含する概念である。
Claims (14)
- それぞれにタイムスタンプが設定されている複数のI(Intra−coded)フレームデータと複数のP(Predicted)フレームデータとを受信する受信部と、
前記受信部による各Iフレームデータの受信時刻を取得する時刻取得部と、
前記受信部により受信された前記複数のIフレームデータと前記複数のPフレームデータとを記憶する映像記憶部と、
Iフレームデータの前記映像記憶部からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と前記先行Iフレームデータの読出し時刻とに基づき計算し、Pフレームデータの前記映像記憶部からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算する時刻計算部と、
前記読出し対象のIフレームデータと前記読出し対象のPフレームデータとをそれぞれ前記時刻計算部により計算された時刻に前記映像記憶部から読み出すデータ読出し部とを有するデータ処理装置。 - 前記受信部は、
それぞれにタイムスタンプが設定されている複数のIフレームデータと複数のPフレームデータと複数のB(Bi−directional Predicted)フレームデータとを受信し、
前記映像記憶部は、
前記受信部により受信された前記複数のIフレームデータと前記複数のPフレームデータと前記複数のBフレームデータとを記憶し、
前記時刻計算部は、
Bフレームデータの前記映像記憶部からの読出し時刻を読出し対象のBフレームデータのタイムスタンプに基づき計算し、
前記データ読出し部は、
前記読出し対象のIフレームデータと前記読出し対象のPフレームデータと前記読出し対象のBフレームデータとをそれぞれ前記時刻計算部により計算された時刻に前記映像記憶部から読み出す請求項1に記載のデータ処理装置。 - 前記受信部は、
それぞれにタイムスタンプが設定されている複数のIフレームデータと複数のPフレームデータと複数のB(Bi−directional Predicted)フレームデータとを受信し、
前記時刻取得部は、
前記受信部による各Iフレームデータの受信時刻と各Bフレームデータの受信時刻とを取得し、
前記映像記憶部は、
前記受信部により受信された前記複数のIフレームデータと前記複数のPフレームデータと前記複数のBフレームデータとを記憶し、
前記時刻計算部は、
Iフレームデータの前記映像記憶部からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータ又はPフレームデータである先行I/Pフレームデータの受信時刻と前記先行I/Pフレームデータの読出し時刻とに基づき計算し、
Bフレームデータの前記映像記憶部からの読出し時刻を読出し対象のBフレームデータのタイムスタンプに基づき計算し、
Pフレームデータの前記映像記憶部からの読出し時刻を読出し対象のPフレームデータの受信時刻と前記読出し対象のPフレームデータに先行するIフレームデータ又はPフレームデータである先行I/Pフレームデータの受信時刻と前記先行I/Pフレームデータの読出し時刻とに基づき計算し、
前記データ読出し部は、
前記読出し対象のIフレームデータと前記読出し対象のPフレームデータと前記読出し対象のBフレームデータとをそれぞれ前記時刻計算部により計算された時刻に前記映像記憶部から読み出す請求項1に記載のデータ処理装置。 - 前記時刻取得部は、
前記受信部が各Iフレームデータの受信を開始した時刻を各Iフレームデータの受信時刻として取得する請求項1に記載のデータ処理装置。 - 前記時刻取得部は、
前記受信部が各Iフレームデータの受信を開始した時刻を各Iフレームデータの受信時刻として取得し、
前記受信部が各Pフレームデータの受信を開始した時刻を各Pフレームデータの受信時刻として取得する請求項3に記載のデータ処理装置。 - 前記時刻計算部は、
前記読出し対象のIフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータの直前のIフレームデータである直前Iフレームデータの受信時刻との差分と、前記直前Iフレームデータの読出し時刻とに基づき計算する請求項1に記載のデータ処理装置。 - 前記時刻計算部は、
前記読出し対象のIフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータの直前のIフレームデータである直前Iフレームデータの受信時刻との差分と、前記直前Iフレームデータに先行する複数のIフレームデータの間の受信時刻の差分と、前記直前Iフレームデータの読出し時刻とに基づき計算する請求項1に記載のデータ処理装置。 - 前記時刻計算部は、
前記読出し対象のPフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のPフレームデータのタイムスタンプと前記読出し対象のPフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、前記直前フレームデータの読出し時刻とに基づき計算する請求項1に記載のデータ処理装置。 - 前記時刻計算部は、
前記読出し対象のBフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のBフレームデータのタイムスタンプと前記読出し対象のBフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、前記直前フレームデータの読出し時刻とに基づき計算する請求項2に記載のデータ処理装置。 - 前記時刻計算部は、
前記読出し対象のIフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータの直前のIフレームデータ又はPフレームデータである直前I/Pフレームデータの受信時刻との差分と、前記直前I/Pフレームデータの読出し時刻とに基づき計算し、
前記読出し対象のPフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のPフレームデータの受信時刻と前記読出し対象のPフレームデータの直前のIフレームデータ又はPフレームデータである直前I/Pフレームデータの受信時刻との差分と、前記直前I/Pフレームデータの読出し時刻とに基づき計算する請求項3に記載のデータ処理装置。 - 前記時刻計算部は、
前記読出し対象のIフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータの直前のIフレームデータ又はPフレームデータである直前I/Pフレームデータの受信時刻との差分と、前記直前I/Pフレームデータに先行する複数のIフレームデータの間の受信時刻の差分、前記直前I/Pフレームデータに先行する複数のPフレームデータの間の受信時刻の差分及び前記直前I/Pフレームデータに先行するIフレームデータとPフレームデータとの間の受信時刻の差分のうちのいずれかと、前記直前I/Pフレームデータの読出し時刻とに基づき計算し、
前記読出し対象のPフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のPフレームデータの受信時刻と前記読出し対象のPフレームデータの直前のIフレームデータ又はPフレームデータである直前I/Pフレームデータの受信時刻との差分と、前記直前I/Pフレームデータに先行する複数のIフレームデータの間の受信時刻の差分、前記直前I/Pフレームデータに先行する複数のPフレームデータの間の受信時刻の差分及び前記直前I/Pフレームデータに先行するIフレームデータとPフレームデータとの間の受信時刻の差分のうちのいずれかと、前記直前I/Pフレームデータの読出し時刻とに基づき計算する請求項3に記載のデータ処理装置。 - 前記時刻計算部は、
前記読出し対象のBフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のBフレームデータのタイムスタンプと前記読出し対象のBフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、前記直前フレームデータの読出し時刻とに基づき計算する請求項3に記載のデータ処理装置。 - コンピュータが、それぞれにタイムスタンプが設定されている複数のI(Intra−coded)フレームデータと複数のP(Predicted)フレームデータとを受信し、
前記コンピュータが、各Iフレームデータの受信時刻を取得し、
前記コンピュータが、受信された前記複数のIフレームデータと前記複数のPフレームデータとを記憶領域に格納し、
前記コンピュータが、Iフレームデータの前記記憶領域からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と前記先行Iフレームデータの読出し時刻とに基づき計算し、Pフレームデータの前記記憶領域からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算し、
前記コンピュータが、前記読出し対象のIフレームデータと前記読出し対象のPフレームデータとをそれぞれ計算された時刻に前記記憶領域から読み出すデータ処理方法。 - それぞれにタイムスタンプが設定されている複数のI(Intra−coded)フレームデータと複数のP(Predicted)フレームデータとを受信する受信処理と、
前記受信処理による各Iフレームデータの受信時刻を取得する時刻取得処理と、
前記受信処理により受信された前記複数のIフレームデータと前記複数のPフレームデータとを記憶領域に格納する映像記憶処理と、
Iフレームデータの前記記憶領域からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と前記先行Iフレームデータの読出し時刻とに基づき計算し、Pフレームデータの前記記憶領域からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算する時刻計算処理と、
前記読出し対象のIフレームデータと前記読出し対象のPフレームデータとをそれぞれ前記時刻計算処理により計算された時刻に前記記憶領域から読み出すデータ読出し処理とをコンピュータに実行させるデータ処理プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/056556 WO2016139808A1 (ja) | 2015-03-05 | 2015-03-05 | データ処理装置及びデータ処理方法及びデータ処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016139808A1 JPWO2016139808A1 (ja) | 2017-06-01 |
JP6279146B2 true JP6279146B2 (ja) | 2018-02-14 |
Family
ID=56848808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503298A Active JP6279146B2 (ja) | 2015-03-05 | 2015-03-05 | データ処理装置及びデータ処理方法及びデータ処理プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20180359303A1 (ja) |
JP (1) | JP6279146B2 (ja) |
KR (1) | KR101795350B1 (ja) |
CN (1) | CN107251564B (ja) |
WO (1) | WO2016139808A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7208530B2 (ja) * | 2019-05-31 | 2023-01-19 | 日本電信電話株式会社 | 同期制御装置、同期制御方法及び同期制御プログラム |
CN112929702B (zh) * | 2021-04-01 | 2021-08-24 | 北京百家视联科技有限公司 | 一种数据流发送方法、装置、电子设备和存储介质 |
CN113259717B (zh) * | 2021-07-15 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 视频流的处理方法、装置、设备及计算机可读存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3552249B2 (ja) * | 1993-07-09 | 2004-08-11 | ソニー株式会社 | 画像および音声信号処理方法とその装置 |
JP4612171B2 (ja) * | 2000-10-27 | 2011-01-12 | 株式会社東芝 | 動画像復号再生モジュールと再生時刻管理プログラムとマルチメディア情報受信装置 |
JP3922047B2 (ja) * | 2002-02-26 | 2007-05-30 | ソニー株式会社 | データ受信装置、および受信データ処理方法、並びにコンピュータ・プログラム |
JP5239405B2 (ja) * | 2008-03-05 | 2013-07-17 | 日本電気株式会社 | Ts受信装置及びそれに用いるタイミング再生方法 |
JP5598155B2 (ja) * | 2010-08-12 | 2014-10-01 | ソニー株式会社 | 情報処理装置および方法、並びに送受信システム |
-
2015
- 2015-03-05 WO PCT/JP2015/056556 patent/WO2016139808A1/ja active Application Filing
- 2015-03-05 JP JP2017503298A patent/JP6279146B2/ja active Active
- 2015-03-05 KR KR1020177023196A patent/KR101795350B1/ko active IP Right Grant
- 2015-03-05 US US15/525,699 patent/US20180359303A1/en not_active Abandoned
- 2015-03-05 CN CN201580076380.XA patent/CN107251564B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
KR20170102025A (ko) | 2017-09-06 |
JPWO2016139808A1 (ja) | 2017-06-01 |
US20180359303A1 (en) | 2018-12-13 |
KR101795350B1 (ko) | 2017-11-07 |
CN107251564A (zh) | 2017-10-13 |
CN107251564B (zh) | 2018-08-28 |
WO2016139808A1 (ja) | 2016-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108243350B (zh) | 一种音视频同步处理的方法和装置 | |
US20170289231A1 (en) | Clock Synchronization Techniques Including Modification of Sample Rate Conversion | |
US20160127614A1 (en) | Video frame playback scheduling | |
JP6279146B2 (ja) | データ処理装置及びデータ処理方法及びデータ処理プログラム | |
JP2015082845A (ja) | Ipビデオ信号同期のための方法及び装置 | |
WO2014094077A1 (en) | Automated measurement of differential latency between displays | |
JP2016133608A (ja) | 表示装置、表示システム及び表示方法 | |
US20170026439A1 (en) | Devices and methods for facilitating video and graphics streams in remote display applications | |
JP7171929B2 (ja) | オーディオストリーム及びビデオストリーム同期切替方法及び装置 | |
WO2013150698A1 (ja) | 映像信号送信装置及び受信装置 | |
JP6038046B2 (ja) | パケット通信ネットワークを介して伝送されるコンテンツをストリーミングするためのクロックリカバリ機構 | |
US10070017B2 (en) | Controlling synchronization between devices in a network | |
JP2008245050A (ja) | Pcr補正回路 | |
US20140184908A1 (en) | Method and apparatus for multimedia stream synchronization | |
US9912427B2 (en) | Reception apparatus and system | |
JP5367771B2 (ja) | 映像伝送システム | |
JP5928277B2 (ja) | タイムコード同期装置、及びタイムコード同期方法 | |
JP6658504B2 (ja) | 撮像装置、撮像方法および撮像システム | |
JP2014216706A (ja) | 送信装置、受信装置及び再生システム | |
JP2007201797A (ja) | 伝送システム及び映像出力方法 | |
JP2013165313A (ja) | カメラ制御装置 | |
US20130141596A1 (en) | Transmitter, transmission method, and program | |
US10560252B2 (en) | Time aware audio streams with heterogenous frame rates | |
CN116261000A (zh) | 一种云会议中音视频的同步方法、装置和电子设备 | |
JP2004023134A (ja) | 画像音声同期化装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6279146 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |