JP6279146B2 - データ処理装置及びデータ処理方法及びデータ処理プログラム - Google Patents

データ処理装置及びデータ処理方法及びデータ処理プログラム Download PDF

Info

Publication number
JP6279146B2
JP6279146B2 JP2017503298A JP2017503298A JP6279146B2 JP 6279146 B2 JP6279146 B2 JP 6279146B2 JP 2017503298 A JP2017503298 A JP 2017503298A JP 2017503298 A JP2017503298 A JP 2017503298A JP 6279146 B2 JP6279146 B2 JP 6279146B2
Authority
JP
Japan
Prior art keywords
frame data
time
read
data
reception
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017503298A
Other languages
English (en)
Other versions
JPWO2016139808A1 (ja
Inventor
隆宏 平松
隆宏 平松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2016139808A1 publication Critical patent/JPWO2016139808A1/ja
Application granted granted Critical
Publication of JP6279146B2 publication Critical patent/JP6279146B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4344Remultiplexing of multiplex streams, e.g. by modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、映像データの読出し時刻を制御する技術に関する。
監視カメラが、RFC(Request for Comments)3550で定義されるRTP(Real−time Transport Protocol)プロトコルを用いて映像データをレコーダに送信する場合を想定する。
この場合に、レコーダでは、RTCP(Real−time Transport Control Protocol)パケットのSR(Sender Report)を用いて、RTPヘッダに含まれるタイムスタンプと、監視カメラが持つNTP(Network Time Protocol)タイムスタンプとを同期させることが行われる。
上記の方式で映像データを送信する監視カメラが時刻バックアップ用の電池を持たない場合は、監視カメラは電源断時に正しい時刻を保持することができない。
このため、監視カメラは電源断があった場合には、電源投入後にNTPプロトコルなどを用いて外部から時刻を取得することとなる。
しかしながら、監視カメラが時刻を取得できるまでに所定の時間を要する。
監視カメラが外部から時刻を取得できるまでの間も監視カメラが撮像を行い、撮像された映像データをレコーダに送信する場合は、時刻を取得するまでの間、RTCPのSRによってRTPタイムスタンプに対応付けられるNTPタイムスタンプは誤った値となる。
このため、レコーダは、誤ったNTPタイムスタンプで映像データを記録することになり、映像データを再配信する際などに誤ったタイミングで映像データを再配信することとなる。
この問題を回避するためには、RTCPを用いずに、レコーダで各フレームの映像データの受信時刻を記録しておき、記録した受信時刻を映像データを再配信する際のタイミング情報として用いることも考えられる。
しかし、H.264のような予測符号化方式ではI(Intra−coded)フレームデータのサイズが他の種類のフレームデータのサイズより大きい。
このため、監視カメラとレコーダ間の帯域などの要因により、Iフレームデータの送信は他の種類のフレームデータの送信よりも時間がかる。
この結果、Iフレームデータの直前のフレームデータとIフレームデータとの間の受信間隔及びIフレームデータとIフレームデータの直後のフレームデータとの間の受信間隔が撮像時のフレーム間隔よりも長くなり、Iフレームデータ及びIフレームデータに後続するフレームデータにずれが生じる場合がある。
このずれは、Iフレームデータの受信ごとに加算されていく。
そして、フレームデータの受信時刻に従って例えば再配信のためにフレームデータを読み出すと、Iフレームデータの度に、読出しタイミングが撮像タイミングとずれていく。
特許文献1には、RTPによりMPEG2−TS(Motion Picture Experts Group 2 Transport Stream)のような厳密なクロック同期を行う必要があるデータを送信する場合に、PLL(Phase Locked Loop)を用いてクロック再生する技術が記載されている。
特開2009−239375号公報
上述のように、レコーダでのフレームデータの受信時刻に従ってフレームデータを読み出す方式では、Iフレームデータのサイズが他の種類のフレームデータのサイズより大きい場合に、Iフレームデータの度に、読出しタイミングが撮像タイミングとずれていくという課題がある。
また、特許文献1の技術では、PLLという特別なハードウェアが必要である。
この発明は、上記のような課題を解決することを主な目的としており、Iフレームデータのサイズが他の種類のフレームデータのサイズより大きい場合でも、特別なハードウェアを用いることなく、各フレームのフレームデータの読出し時刻を撮像時刻に同期させることを主な目的とする。
本発明に係るデータ処理装置は、
それぞれにタイムスタンプが設定されている複数のI(Intra−coded)フレームデータと複数のP(Predicted)フレームデータとを受信する受信部と、
前記受信部による各Iフレームデータの受信時刻を取得する時刻取得部と、
前記受信部により受信された前記複数のIフレームデータと前記複数のPフレームデータとを記憶する映像記憶部と、
Iフレームデータの前記映像記憶部からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と前記先行Iフレームデータの読出し時刻とに基づき計算し、Pフレームデータの前記映像記憶部からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算する時刻計算部と、
前記読出し対象のIフレームデータと前記読出し対象のPフレームデータとをそれぞれ前記時刻計算部により計算された時刻に前記映像記憶部から読み出すデータ読出し部とを有する。
本発明では、Iフレームデータの読出し時刻を、読出し対象のIフレームデータの受信時刻と先行Iフレームデータの受信時刻と先行Iフレームデータの読出し時刻とに基づいて計算するため、Iフレームデータの受信時刻におけるずれを調整することができる。
このため、本発明によれば、Iフレームデータのサイズが他の種類のフレームデータのサイズより大きい場合でも、特別なハードウェアを用いることなく、各フレームのフレームデータの読出し時刻を撮像時刻に同期させることができる。
実施の形態1に係るシステム構成例を示す図。 実施の形態1に係るデータ処理装置の動作例を示すフローチャート図。 実施の形態1に係るデータ処理装置の動作例を示すフローチャート図。 実施の形態1に係る受信時刻と読出し時刻の例を示す図。 実施の形態1に係るデータ処理装置のハードウェア構成例を示す図。
実施の形態1.
***構成の説明***
図1は、本実施の形態に係るシステム構成例を示す。
図1において、監視カメラ1は撮像対象物(例えば、監視対象エリア)を撮像し、撮像対象物の映像データを送信する。
ネットワーク2は、映像データの送信に用いられるネットワークであり、LAN(Local Area Newtork)、インターネットなどである。
データ処理装置3は、監視カメラ1からの映像データを受信し、受信した映像データを記録する。
データ処理装置3は、例えば監視レコーダである。
なお、図1では、1つの監視カメラ1のみを示しているが、監視カメラ1は複数あってもよい。
監視カメラ1からの撮像映像データには、複数のI(Intra−coded)フレームデータと複数のB(Bi−directional Predicted)フレームデータと複数のP(Predicted)フレームデータが含まれている。
前述したように、Iフレームデータは、Bフレームデータ及びPフレームデータよりもサイズが大きい。
このため、Iフレームデータの送信はBフレームデータ及びPフレームデータの送信よりも時間がかかる。
また、後述するように、各フレームデータにはタイムスタンプが設定されている。
監視カメラ1において、撮像部101は撮像対象物を撮像する。
符号化部102は、撮像部101が撮像した映像を符号化する。
時刻付与部103は、符号化部102の符号化により得られたデータ(フレームデータ)にタイムスタンプを付与する。
送信部104は、ネットワーク2を介してフレームデータ(複数のIフレームデータ、複数のBフレームデータ、複数のPフレームデータ)をデータ処理装置3に送信する。
データ処理装置3において、受信部301は、監視カメラ1から送信されたフレームデータ(複数のIフレームデータ、複数のBフレームデータ、複数のPフレームデータ)を受信する。
時刻取得部302は、受信部301がIフレームデータを受信した受信時刻を取得する。
映像記憶部303は、受信部301により受信された複数のIフレームデータと複数のBフレームデータと複数のPフレームデータとを記憶する記憶領域である。
また、映像記憶部303は、時刻取得部302により取得されたIフレームデータの受信時刻も記憶する。
時刻計算部304は、後述するデータ読出し部305が各フレームデータを映像記憶部303から読み出す読出し時刻を計算する。
時刻計算部304は、Iフレームデータの映像記憶部303からの読出し時刻を読出し対象のIフレームデータの受信時刻と読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と先行Iフレームデータの読出し時刻とに基づき計算する。
例えば、時刻計算部304は、Iフレームデータの映像記憶部303からの読出し時刻を、読出し対象のIフレームデータの受信時刻と読出し対象のIフレームデータの直前のIフレームデータである直前Iフレームデータの受信時刻との差分と、直前Iフレームデータの読出し時刻とに基づき計算する。
また、時刻計算部304は、Bフレームデータの映像記憶部303からの読出し時刻を読出し対象のBフレームデータのタイムスタンプに基づき計算する。
例えば、時刻計算部304は、Bフレームデータの映像記憶部303からの読出し時刻を、読出し対象のBフレームデータのタイムスタンプと読出し対象のBフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、直前フレームデータの読出し時刻とに基づき計算する。
また、時刻計算部304は、Pフレームデータの映像記憶部303からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算する。
例えば、時刻計算部304は、Pフレームデータの映像記憶部303からの読出し時刻を、読出し対象のPフレームデータのタイムスタンプと読出し対象のPフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、直前フレームデータの読出し時刻とに基づき計算する。
データ読出し部305は、読出し対象のIフレームデータと読出し対象のBフレームデータと読出し対象のPフレームデータとをそれぞれ時刻計算部304により計算された時刻に映像記憶部303から読み出す。
データ読出し部305は、読み出した各フレームデータから監視カメラ1で撮像された映像を再生する。
もしくは、データ読出し部305は、読み出した各フレームデータを外部装置に再配信する。
***動作の説明***
次に、本実施の形態の動作例を説明する。
まずは、監視カメラ1の動作例を説明する。
監視カメラ1において、撮像部101は撮像対象物を撮像する。
符号化部102は、撮像部10が撮像した映像を符号化する。
送信部104が符号化部102の符号化により得られたフレームデータをRTPパケットで送信する際に、時刻付与部103がタイムスタンプをRTPヘッダに挿入する。
タイムスタンプの周波数を90000Hzとすると、毎秒30フレームの映像であれば1フレームにつきタイムスタンプの値が3000ずつ増加する。
送信部104は、タイムスタンプがRTPヘッダに設定されたRTPパケットをネットワーク2を介してデータ処理装置3に送信する。
次に、図2及び図3を参照して、データ処理装置3の動作例を説明する。
図2は、データ処理装置3の受信処理、時刻取得処理及び映像記憶処理を示す。
図3は、データ処理装置3の時刻計算処理及びデータ読出し処理を示す。
図2及び図3に示す手順は、データ処理方法及びデータ処理プログラムの処理手順に相当する。
図2において、データ処理装置3の受信部301は、監視カメラ1の送信部104から送信されたRTPパケットを受信する(S101)(受信処理)。
前述のように、RTPパケットには、フレームデータとタイムスタンプが含まれる。
次に、時刻取得部302は、受信部301がIフレームデータを受信した受信時刻を取得する(S102)(時刻取得処理)。
1つのIフレームデータが複数のRTPパケットに分割されて送信される場合は、時刻取得部302は、複数のRTPパケットのうちの先頭のRTPパケットの受信時刻を取得する。
つまり、時刻取得部302は、受信部301が各Iフレームデータの受信を開始した時刻を各Iフレームデータの受信時刻として取得する。
ここでは、時刻取得部302はIフレームデータの受信時刻のみを取得するが、時刻取得部302はBフレームデータの受信時刻及びPフレームデータの受信時刻を取得してもよい。
映像記憶部303は、受信部301により受信された各フレームデータとタイムスタンプとを記憶する(S103)(映像記憶処理)。
また、映像記憶部303は、Iフレームデータに対応付けて、時刻取得部302により取得された受信時刻を記憶する。
RTPパケットの受信後又はRTPパケットの受信と並行してデータ処理装置3のユーザからフレームデータの読出しが指示された場合(図3のS201でYES)に、時刻計算部304は、読出し対象のフレームデータの読出し時刻を計算する(S202)(時刻計算処理)。
読出し時刻の計算方法の詳細は後述するが、前述のように、Iフレームデータの読出し時刻の計算方法と、Bフレームデータの読出し時刻の計算方法及びPフレームデータの読出し時刻の計算方法とは異なる。
データ読出し部305は、読出し対象のIフレームデータと読出し対象のBフレームデータと読出し対象のPフレームデータとをそれぞれ時刻計算部304により計算された時刻に映像記憶部303から読み出す(S203)(データ読出し処理)。
なお、図3では、S202の後にS203が実施されるようになっているが、S202とS203とが並行して実施されてもよい。
次に、図4を参照して、S202の読出し時刻の計算方法の詳細を説明する。
図4では、左から右に時刻が進む様子を表している。
なお、図4の(a)が受信時刻を表し、図4の(b)が読出し時刻を表している。
時刻Tr0から時刻Tr6は、0番目から6番目のフレームデータを受信した時刻を示している。
0番目のフレームデータと5番目のフレームデータはIフレームデータである。
1番目のフレームデータから4番目のフレームデータ及び6番目のフレームデータはPフレームデータまたはBフレームデータである。
時刻Ts0から時刻Ts6は、0番目から6番目のフレームデータの読出し時刻を示している。
また、値Δtsは一定値であり、前後のフレームデータでのタイムスタンプの差分値3000に等しく、これは1/30秒に等しい。
データ処理装置3のユーザにより0番目のフレームデータからの読出しが指示された場合を想定する。
時刻Ts0は、ユーザからフレームデータの読出しが指示された時刻である。
読出し時刻計算部304は、時刻Ts0を0番目のフレームデータの読出し時刻に指定し、データ読出し部305は時刻Ts0にて0番目のフレームデータを映像記憶部303から読み出す。
時刻計算部304は、1番目のフレームデータの読出し時刻Ts1を、Ts1=Ts0+Δtsにより計算する。
つまり、時刻計算部304は、受信時刻Tr1を参照せずに、直前フレームデータである0番目のフレームデータの読出し時刻Ts0にタイムスタンプの差分Δtsを加算して読出し時刻Ts1を算出する。
同様に、時刻計算部304は、2番目のフレームデータの読出し時刻Ts2、3番目のフレームデータの読出し時刻Ts3、4番目のフレームデータの読出し時刻Ts4を以下にて算出する。
Ts2=Ts1+Δts
Ts3=Ts2+Δts
Ts4=Ts3+Δts
次に、5番目のフレームデータはIフレームデータであるため、時刻計算部304は、5番目のフレームの読出し時刻Ts5を、Ts5=Ts0+Tr5−Tr0により計算する。
つまり、時刻計算部304は、読出し時刻Ts4を参照せずに、5番目のフレームデータの直前のIフレームデータである0番目のフレームデータの受信時刻Tr0と5番目のフレームデータの受信時刻Tr0との差分を、読出し時刻Ts0に加算して読出し時刻Ts5を算出する。
次に、時刻計算部304は、6番目のフレームデータの送信時刻Ts6を、Ts6=Ts5+Δtsにより計算する。
つまり、時刻計算部304は、受信時刻Tr6を参照せずに、直前フレームデータである5番目のフレームデータの読出し時刻Ts5にタイムスタンプの差分Δtsを加算して読出し時刻Ts6を算出する。
図4には図示していないが、7番目から9番目のフレームデータがBフレームデータまたはPフレームデータであり、10番目のフレームデータがIフレームデータである場合は、時刻計算部304は、10番目のフレームの読出し時刻Ts10を、Ts10=Ts5+Tr10−Tr5により計算する。
つまり、時刻計算部304は、9番目の読出し時刻Ts9を参照せずに、10番目のフレームデータの直前のIフレームデータである5番目のフレームデータの受信時刻Tr5と10番目のフレームデータの受信時刻Tr10との差分を、読出し時刻Ts5に加算して読出し時刻Ts10を算出する。
なお、7番目から9番目のフレームデータの読出し時刻の計算方法は、1番目から4番目のフレームデータの読出し時刻の計算方法と同じである。
以上では、時刻計算部304は、Iフレームデータの読出し時刻を、直前のIフレームデータの読出し時刻を基準にして計算している。
しかし、時刻計算部304は、読出し対象のIフレームデータに先行するIフレームデータであれば、直前のIフレームデータではないIフレームデータの読出し時刻を基準にして読出し対象のIフレームデータの読出し時刻を計算してもよい。
例えば、0番目のフレームデータから5フレーム前のIフレームデータの読出し時刻が計算済みであれば、時刻計算部304は、0番目のフレームデータから5フレーム前のIフレームデータの読出し時刻を基準にして5番目のフレームデータの読出し時刻Ts5を計算してもよい。
ここでは、0番目のフレームデータから5フレーム前のIフレームデータの受信時刻をTrm5、0番目のフレームデータから5フレーム前のIフレームデータの読出し時刻をTsm5とする。
この場合に、5番目のフレームデータの読出し時刻Ts5を、Ts5=Tsm5+Trm5−Tr5により計算してもよい。
また、以上では、時刻計算部304は、読出し時刻Ts5を、Ts5=Ts0+Tr5−Tr0により計算したが、その結果としてTs5−Ts4がΔtsから大きく異なる値を取る場合がある。
このような場合に、過去のIフレームデータの受信間隔も用いてIフレームデータの読出し時刻を補正してもよい。
例えば、0番目のフレームデータから5フレーム前のIフレームデータの受信時刻をTrm5、0番目のフレームデータから10フレーム前のIフレームデータの受信時刻をTrm10とする。
時刻計算部304は、例えば、Ts5=Ts0+(Tr5−Tr0)×0.5+(Tr0−Trm5)×0.3+(Trm5−Trm10)×0.2により読出し時刻Ts5を計算してもよい。
このように、時刻計算部304は、Iフレームデータの映像記憶部303からの読出し時刻を、読出し対象のIフレームデータの受信時刻と読出し対象のIフレームデータの直前のIフレームデータである直前Iフレームデータの受信時刻との差分と、直前Iフレームデータに先行する複数のIフレームデータの間の受信時刻の差分と、直前Iフレームデータの読出し時刻とに基づき計算するようにしてもよい。
また、時刻計算部304は、上式で用いたパラメータ(0.5、0.3、0.2)を変更してもよいし、上式とは異なる計算式で読出し時刻Ts5を計算してもよい。
また、以上では、データ処理装置3は、IフレームデータとBフレームデータとPフレームデータを監視カメラ1から受信することとしたが、本実施の形態は、データ処理装置3は、IフレームデータとBフレームデータのみを監視カメラ1から受信する場合にも適用可能である。
***効果の説明***
本実施の形態によれば、データ処理装置3は、監視カメラ1が西暦年月日を含む絶対時刻を保持していなくても、各フレームのフレームデータを撮像タイミングと同期して読み出すことができる。
また、監視カメラ1に搭載された図示しない時刻クロック源とデータ処理装置3に搭載された図示しない時刻クロック源の速度に差がある場合でも、破綻無く映像データの再生又は映像データの再配信を行うことができる。
実施の形態2.
実施の形態1では、Pフレームデータの読出し時刻の計算方法は、Bフレームデータの読出し時刻の計算方法と同じである。
本実施の形態では、Pフレームデータの読み出し時刻を実施の形態1で示したIフレームデータの読出し時刻の計算方法に従って計算する。
本実施の形態においても、システム構成例は図1に示す通りである。
また、データ処理装置3の動作も図2及び図3に示す通りである。
但し、本実施の形態では、時刻取得部302は、図2のS102において、受信部301がIフレームデータを受信した受信時刻を取得し、また、受信部301がPフレームデータを受信した受信時刻を取得する。
1つのPフレームデータが複数のRTPパケットに分割されて送信される場合は、時刻取得部302は、複数のRTPパケットのうちの先頭のRTPパケットの受信時刻を取得する。
つまり、時刻取得部302は、受信部301が各Pフレームデータの受信を開始した時刻を各Pフレームデータの受信時刻として取得する。
また、映像記憶部303は、図2のS103において、Pフレームデータの受信時刻も記憶する。
更に、時刻計算部304は、図3のS202において、Pフレームデータの読み出し時刻を実施の形態1で示したIフレームデータの読出し時刻の計算方法に従って計算する。
より具体的には、時刻計算部304は、Pフレームデータの読出し時刻を読出し対象のPフレームデータの受信時刻と読出し対象のPフレームデータに先行するIフレームデータ又はPフレームデータである先行I/Pフレームデータの受信時刻と先行I/Pフレームデータの読出し時刻とに基づき計算する。
また、実施の形態1では、時刻計算部304は、Iフレームデータの読出し時刻は、先行するIフレームデータの読出し時刻に基づいて計算したが、本実施の形態では、時刻計算部304は、Iフレームデータの読出し時刻を、先行するPフレームデータの読出し時刻に基づいて計算する場合がある。
以下では、図4を参照して、本実施の形態におけるIフレームデータの読出し時刻の計算方法及びPフレームデータの読出し時刻の計算方法を説明する。
本実施の形態では、図4の0番目のフレームデータがIフレームデータであり、5番目のフレームデータがPフレームデータである場合を想定する。
また1番目から4番目のフレームデータ、6番目のフレームデータは、すべてBフレームデータである。
時刻計算部304は、0番目から4番目のフレームデータの読出し時刻を、実施の形態1と同様の方法で計算する。
また、時刻計算部304は、5番目のフレームデータ(Pフレームデータ)の読出し時刻Ts5を、実施の形態1と同様に、Ts5=Ts0+Tr5−Tr0により計算する。
つまり、時刻計算部304は、読出し時刻Ts4を参照せずに、5番目のフレームデータの直前のIフレームデータである0番目のフレームデータの受信時刻Tr0と5番目のフレームデータの受信時刻Tr0との差分を、読出し時刻Ts0に加算して読出し時刻Ts5を算出する。
次に、時刻計算部304は、6番目のフレームデータの送信時刻Ts6を、実施の形態1と同様の方法で計算する。
図4には図示していないが、7番目から9番目のフレームデータがBフレームデータまたはPフレームデータであり、10番目のフレームデータがIフレームデータである場合は、時刻計算部304は、10番目のフレームの読出し時刻Ts10を、Ts10=Ts5+Tr10−Tr5により計算する。
つまり、時刻計算部304は、9番目の読出し時刻Ts9を参照せずに、10番目のフレームデータの直前のPフレームデータである5番目のフレームデータの受信時刻Tr5と10番目のフレームデータの受信時刻Tr10との差分を、読出し時刻Ts5に加算して読出し時刻Ts10を算出する。
なお、7番目から9番目のフレームデータの読出し時刻の計算方法は、実施の形態1と同じである。
以上では、時刻計算部304は、Iフレームデータ(又はPフレームデータ)の読出し時刻を、直前のIフレームデータ(又はPフレームデータ)の読出し時刻を基準にして計算している。
しかし、時刻計算部304は、読出し対象のIフレームデータ(又はPフレームデータ)に先行するIフレームデータ(又はPフレームデータ)であれば、直前のIフレームデータ(又はPフレームデータ)ではないIフレームデータ(又はPフレームデータ)の読出し時刻を基準にして読出し対象のIフレームデータ(又はPフレームデータ)の読出し時刻を計算してもよい。
例えば、0番目のフレームデータから5フレーム前のIフレームデータ(又はPフレームデータ)の読出し時刻が計算済みであれば、時刻計算部304は、0番目のフレームデータから5フレーム前のIフレームデータ(又はPフレームデータ)の読出し時刻を基準にして5番目のフレームデータの読出し時刻Ts5を計算してもよい。
ここでは、0番目のフレームデータから5フレーム前のIフレームデータ(又はPフレームデータ)の受信時刻をTrm5、0番目のフレームデータから5フレーム前のIフレームデータ(又はPフレームデータ)の読出し時刻をTsm5とする。
この場合に、5番目のフレームデータの読出し時刻Ts5を、Ts5=Tsm5+Trm5−Tr5により計算してもよい。
また、時刻計算部304は、実施の形態1に示した別の計算方法により、Iフレームデータ(又はPフレームデータ)の読出し時刻を計算してもよい。
本実施の形態では、0番目のフレームデータから5フレーム前のPフレームデータの受信時刻をTrm5、0番目のフレームデータから10フレーム前のIフレームデータの受信時刻をTrm10とする。
時刻計算部304は、例えば、Ts5=Ts0+(Tr5−Tr0)×0.5+(Tr0−Trm5)×0.3+(Trm5−Trm10)×0.2により、5番目のフレームデータであるPフレームデータ(又はIフレームデータ)の読出し時刻Ts5を計算してもよい。
このように、時刻計算部304は、Iフレームデータ(又はPフレームデータ)の映像記憶部303からの読出し時刻を、読出し対象のIフレームデータ(又はPフレームデータ)の受信時刻と読出し対象のIフレームデータ(又はPフレームデータ)の直前のIフレームデータ又はPフレームデータである直前I/Pフレームデータの受信時刻との差分と、直前I/Pフレームデータに先行する複数のIフレームデータの間の受信時刻の差分、直前I/Pフレームデータに先行する複数のPフレームデータの間の受信時刻の差分及び直前I/Pフレームデータに先行するIフレームデータとPフレームデータとの間の受信時刻の差分のうちのいずれかと、直前I/Pフレームデータの読出し時刻とに基づき計算するようにしてもよい。
つまり、前述の例において、0番目のフレームデータから5フレーム前のフレームデータがIフレームデータであり、0番目のフレームデータから10フレーム前のフレームデータがIフレームデータであれば、時刻計算部304は、これら2つのIフレームデータの間の受信時刻の差分を用いる。
また、0番目のフレームデータから5フレーム前のフレームデータがPフレームデータであり、0番目のフレームデータから10フレーム前のフレームデータがPフレームデータであれば、時刻計算部304は、これら2つのPフレームデータの間の受信時刻の差分を用いる。
また、0番目のフレームデータから5フレーム前のフレームデータがIフレームデータ(又はPフレームデータ)であり、0番目のフレームデータから10フレーム前のフレームデータがPフレームデータ(又はIフレームデータ)であれば、時刻計算部304は、これらIフレームデータとPフレームデータの間の受信時刻の差分を用いる。
また、時刻計算部304は、上式で用いたパラメータ(0.5、0.3、0.2)を変更してもよいし、上式とは異なる計算式で読出し時刻Ts5を計算してもよい。
以上、本実施の形態によれば、PフレームデータのサイズがBフレームデータのサイズよりも大幅に大きい場合にも、特別なハードウェアを用いることなく、各フレームのフレームデータの読出し時刻を撮像時刻に同期させることができる。
以上、本発明の実施の形態について説明したが、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
最後に、データ処理装置3のハードウェア構成例を図5を参照して説明する。
データ処理装置3はコンピュータである。
データ処理装置3は、プロセッサ901、補助記憶装置902、メモリ903、通信装置904、入力インタフェース905、ディスプレイインタフェース906といったハードウェアを備える。
プロセッサ901は、信号線910を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
入力インタフェース905は、入力装置907に接続されている。
ディスプレイインタフェース906は、ディスプレイ908に接続されている。
プロセッサ901は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ901は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
補助記憶装置902は、例えば、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)である。
メモリ903は、例えば、RAM(Random Access Memory)である。
図1に示す映像記憶部303は、メモリ903又は補助記憶装置902により実現される。
通信装置904は、データを受信するレシーバー9041及びデータを送信するトランスミッター9042を含む。
通信装置904は、例えば、通信チップ又はNIC(Network Interface Card)である。
入力インタフェース905は、入力装置907のケーブル911が接続されるポートである。
入力インタフェース905は、例えば、USB(Universal Serial Bus)端子である。
ディスプレイインタフェース906は、ディスプレイ908のケーブル912が接続されるポートである。
ディスプレイインタフェース906は、例えば、USB端子又はHDMI(登録商標)(High Definition Multimedia Interface)端子である。
入力装置907は、例えば、マウス、キーボード又はタッチパネルである。
ディスプレイ908は、例えば、LCD(Liquid Crystal Display)である。
補助記憶装置902には、図1に示す受信部301、時刻取得部302、時刻計算部304、データ読出し部305(以下、受信部301、時刻取得部302、時刻計算部304、データ読出し部305をまとめて「部」と表記する)の機能を実現するプログラムが記憶されている。
このプログラムは、メモリ903にロードされ、プロセッサ901に読み込まれ、プロセッサ901によって実行される。
更に、補助記憶装置902には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がメモリ903にロードされ、プロセッサ901はOSを実行しながら、「部」の機能を実現するプログラムを実行する。
図5では、1つのプロセッサ901が図示されているが、データ処理装置3が複数のプロセッサ901を備えていてもよい。
そして、複数のプロセッサ901が「部」の機能を実現するプログラムを連携して実行してもよい。
また、「部」の処理の結果を示す情報やデータや信号値や変数値が、メモリ903、補助記憶装置902、又は、プロセッサ901内のレジスタ又はキャッシュメモリに記憶される。
「部」を「サーキットリー」で提供してもよい。
また、「部」を「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
「回路」及び「サーキットリー」は、プロセッサ901だけでなく、ロジックIC又はGA(Gate Array)又はASIC(Application Specific Integrated Circuit)又はFPGA(Field−Programmable Gate Array)といった他の種類の処理回路をも包含する概念である。
1 監視カメラ、2 ネットワーク、3 データ処理装置、101 撮像部、102 符号化部、103 時刻付与部、104 送信部、301 受信部、302 時刻取得部、303 映像記憶部、304 時刻計算部、305 データ読出し部。

Claims (14)

  1. それぞれにタイムスタンプが設定されている複数のI(Intra−coded)フレームデータと複数のP(Predicted)フレームデータとを受信する受信部と、
    前記受信部による各Iフレームデータの受信時刻を取得する時刻取得部と、
    前記受信部により受信された前記複数のIフレームデータと前記複数のPフレームデータとを記憶する映像記憶部と、
    Iフレームデータの前記映像記憶部からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と前記先行Iフレームデータの読出し時刻とに基づき計算し、Pフレームデータの前記映像記憶部からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算する時刻計算部と、
    前記読出し対象のIフレームデータと前記読出し対象のPフレームデータとをそれぞれ前記時刻計算部により計算された時刻に前記映像記憶部から読み出すデータ読出し部とを有するデータ処理装置。
  2. 前記受信部は、
    それぞれにタイムスタンプが設定されている複数のIフレームデータと複数のPフレームデータと複数のB(Bi−directional Predicted)フレームデータとを受信し、
    前記映像記憶部は、
    前記受信部により受信された前記複数のIフレームデータと前記複数のPフレームデータと前記複数のBフレームデータとを記憶し、
    前記時刻計算部は、
    Bフレームデータの前記映像記憶部からの読出し時刻を読出し対象のBフレームデータのタイムスタンプに基づき計算し、
    前記データ読出し部は、
    前記読出し対象のIフレームデータと前記読出し対象のPフレームデータと前記読出し対象のBフレームデータとをそれぞれ前記時刻計算部により計算された時刻に前記映像記憶部から読み出す請求項1に記載のデータ処理装置。
  3. 前記受信部は、
    それぞれにタイムスタンプが設定されている複数のIフレームデータと複数のPフレームデータと複数のB(Bi−directional Predicted)フレームデータとを受信し、
    前記時刻取得部は、
    前記受信部による各Iフレームデータの受信時刻と各Bフレームデータの受信時刻とを取得し、
    前記映像記憶部は、
    前記受信部により受信された前記複数のIフレームデータと前記複数のPフレームデータと前記複数のBフレームデータとを記憶し、
    前記時刻計算部は、
    Iフレームデータの前記映像記憶部からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータ又はPフレームデータである先行I/Pフレームデータの受信時刻と前記先行I/Pフレームデータの読出し時刻とに基づき計算し、
    Bフレームデータの前記映像記憶部からの読出し時刻を読出し対象のBフレームデータのタイムスタンプに基づき計算し、
    Pフレームデータの前記映像記憶部からの読出し時刻を読出し対象のPフレームデータの受信時刻と前記読出し対象のPフレームデータに先行するIフレームデータ又はPフレームデータである先行I/Pフレームデータの受信時刻と前記先行I/Pフレームデータの読出し時刻とに基づき計算し、
    前記データ読出し部は、
    前記読出し対象のIフレームデータと前記読出し対象のPフレームデータと前記読出し対象のBフレームデータとをそれぞれ前記時刻計算部により計算された時刻に前記映像記憶部から読み出す請求項1に記載のデータ処理装置。
  4. 前記時刻取得部は、
    前記受信部が各Iフレームデータの受信を開始した時刻を各Iフレームデータの受信時刻として取得する請求項1に記載のデータ処理装置。
  5. 前記時刻取得部は、
    前記受信部が各Iフレームデータの受信を開始した時刻を各Iフレームデータの受信時刻として取得し、
    前記受信部が各Pフレームデータの受信を開始した時刻を各Pフレームデータの受信時刻として取得する請求項3に記載のデータ処理装置。
  6. 前記時刻計算部は、
    前記読出し対象のIフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータの直前のIフレームデータである直前Iフレームデータの受信時刻との差分と、前記直前Iフレームデータの読出し時刻とに基づき計算する請求項1に記載のデータ処理装置。
  7. 前記時刻計算部は、
    前記読出し対象のIフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータの直前のIフレームデータである直前Iフレームデータの受信時刻との差分と、前記直前Iフレームデータに先行する複数のIフレームデータの間の受信時刻の差分と、前記直前Iフレームデータの読出し時刻とに基づき計算する請求項1に記載のデータ処理装置。
  8. 前記時刻計算部は、
    前記読出し対象のPフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のPフレームデータのタイムスタンプと前記読出し対象のPフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、前記直前フレームデータの読出し時刻とに基づき計算する請求項1に記載のデータ処理装置。
  9. 前記時刻計算部は、
    前記読出し対象のBフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のBフレームデータのタイムスタンプと前記読出し対象のBフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、前記直前フレームデータの読出し時刻とに基づき計算する請求項2に記載のデータ処理装置。
  10. 前記時刻計算部は、
    前記読出し対象のIフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータの直前のIフレームデータ又はPフレームデータである直前I/Pフレームデータの受信時刻との差分と、前記直前I/Pフレームデータの読出し時刻とに基づき計算し、
    前記読出し対象のPフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のPフレームデータの受信時刻と前記読出し対象のPフレームデータの直前のIフレームデータ又はPフレームデータである直前I/Pフレームデータの受信時刻との差分と、前記直前I/Pフレームデータの読出し時刻とに基づき計算する請求項3に記載のデータ処理装置。
  11. 前記時刻計算部は、
    前記読出し対象のIフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータの直前のIフレームデータ又はPフレームデータである直前I/Pフレームデータの受信時刻との差分と、前記直前I/Pフレームデータに先行する複数のIフレームデータの間の受信時刻の差分、前記直前I/Pフレームデータに先行する複数のPフレームデータの間の受信時刻の差分及び前記直前I/Pフレームデータに先行するIフレームデータとPフレームデータとの間の受信時刻の差分のうちのいずれかと、前記直前I/Pフレームデータの読出し時刻とに基づき計算し、
    前記読出し対象のPフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のPフレームデータの受信時刻と前記読出し対象のPフレームデータの直前のIフレームデータ又はPフレームデータである直前I/Pフレームデータの受信時刻との差分と、前記直前I/Pフレームデータに先行する複数のIフレームデータの間の受信時刻の差分、前記直前I/Pフレームデータに先行する複数のPフレームデータの間の受信時刻の差分及び前記直前I/Pフレームデータに先行するIフレームデータとPフレームデータとの間の受信時刻の差分のうちのいずれかと、前記直前I/Pフレームデータの読出し時刻とに基づき計算する請求項3に記載のデータ処理装置。
  12. 前記時刻計算部は、
    前記読出し対象のBフレームデータの前記映像記憶部からの読出し時刻を、前記読出し対象のBフレームデータのタイムスタンプと前記読出し対象のBフレームデータの直前のフレームデータである直前フレームデータのタイムスタンプとの差分と、前記直前フレームデータの読出し時刻とに基づき計算する請求項3に記載のデータ処理装置。
  13. コンピュータが、それぞれにタイムスタンプが設定されている複数のI(Intra−coded)フレームデータと複数のP(Predicted)フレームデータとを受信し、
    前記コンピュータが、各Iフレームデータの受信時刻を取得し、
    前記コンピュータが、受信された前記複数のIフレームデータと前記複数のPフレームデータとを記憶領域に格納し、
    前記コンピュータが、Iフレームデータの前記記憶領域からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と前記先行Iフレームデータの読出し時刻とに基づき計算し、Pフレームデータの前記記憶領域からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算し、
    前記コンピュータが、前記読出し対象のIフレームデータと前記読出し対象のPフレームデータとをそれぞれ計算された時刻に前記記憶領域から読み出すデータ処理方法。
  14. それぞれにタイムスタンプが設定されている複数のI(Intra−coded)フレームデータと複数のP(Predicted)フレームデータとを受信する受信処理と、
    前記受信処理による各Iフレームデータの受信時刻を取得する時刻取得処理と、
    前記受信処理により受信された前記複数のIフレームデータと前記複数のPフレームデータとを記憶領域に格納する映像記憶処理と、
    Iフレームデータの前記記憶領域からの読出し時刻を読出し対象のIフレームデータの受信時刻と前記読出し対象のIフレームデータに先行するIフレームデータである先行Iフレームデータの受信時刻と前記先行Iフレームデータの読出し時刻とに基づき計算し、Pフレームデータの前記記憶領域からの読出し時刻を読出し対象のPフレームデータのタイムスタンプに基づき計算する時刻計算処理と、
    前記読出し対象のIフレームデータと前記読出し対象のPフレームデータとをそれぞれ前記時刻計算処理により計算された時刻に前記記憶領域から読み出すデータ読出し処理とをコンピュータに実行させるデータ処理プログラム。
JP2017503298A 2015-03-05 2015-03-05 データ処理装置及びデータ処理方法及びデータ処理プログラム Active JP6279146B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/056556 WO2016139808A1 (ja) 2015-03-05 2015-03-05 データ処理装置及びデータ処理方法及びデータ処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2016139808A1 JPWO2016139808A1 (ja) 2017-06-01
JP6279146B2 true JP6279146B2 (ja) 2018-02-14

Family

ID=56848808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017503298A Active JP6279146B2 (ja) 2015-03-05 2015-03-05 データ処理装置及びデータ処理方法及びデータ処理プログラム

Country Status (5)

Country Link
US (1) US20180359303A1 (ja)
JP (1) JP6279146B2 (ja)
KR (1) KR101795350B1 (ja)
CN (1) CN107251564B (ja)
WO (1) WO2016139808A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7208530B2 (ja) * 2019-05-31 2023-01-19 日本電信電話株式会社 同期制御装置、同期制御方法及び同期制御プログラム
CN112929702B (zh) * 2021-04-01 2021-08-24 北京百家视联科技有限公司 一种数据流发送方法、装置、电子设备和存储介质
CN113259717B (zh) * 2021-07-15 2021-09-14 腾讯科技(深圳)有限公司 视频流的处理方法、装置、设备及计算机可读存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3552249B2 (ja) * 1993-07-09 2004-08-11 ソニー株式会社 画像および音声信号処理方法とその装置
JP4612171B2 (ja) * 2000-10-27 2011-01-12 株式会社東芝 動画像復号再生モジュールと再生時刻管理プログラムとマルチメディア情報受信装置
JP3922047B2 (ja) * 2002-02-26 2007-05-30 ソニー株式会社 データ受信装置、および受信データ処理方法、並びにコンピュータ・プログラム
JP5239405B2 (ja) * 2008-03-05 2013-07-17 日本電気株式会社 Ts受信装置及びそれに用いるタイミング再生方法
JP5598155B2 (ja) * 2010-08-12 2014-10-01 ソニー株式会社 情報処理装置および方法、並びに送受信システム

Also Published As

Publication number Publication date
KR20170102025A (ko) 2017-09-06
JPWO2016139808A1 (ja) 2017-06-01
US20180359303A1 (en) 2018-12-13
KR101795350B1 (ko) 2017-11-07
CN107251564A (zh) 2017-10-13
CN107251564B (zh) 2018-08-28
WO2016139808A1 (ja) 2016-09-09

Similar Documents

Publication Publication Date Title
CN108243350B (zh) 一种音视频同步处理的方法和装置
US20170289231A1 (en) Clock Synchronization Techniques Including Modification of Sample Rate Conversion
US20160127614A1 (en) Video frame playback scheduling
JP6279146B2 (ja) データ処理装置及びデータ処理方法及びデータ処理プログラム
JP2015082845A (ja) Ipビデオ信号同期のための方法及び装置
WO2014094077A1 (en) Automated measurement of differential latency between displays
JP2016133608A (ja) 表示装置、表示システム及び表示方法
US20170026439A1 (en) Devices and methods for facilitating video and graphics streams in remote display applications
JP7171929B2 (ja) オーディオストリーム及びビデオストリーム同期切替方法及び装置
WO2013150698A1 (ja) 映像信号送信装置及び受信装置
JP6038046B2 (ja) パケット通信ネットワークを介して伝送されるコンテンツをストリーミングするためのクロックリカバリ機構
US10070017B2 (en) Controlling synchronization between devices in a network
JP2008245050A (ja) Pcr補正回路
US20140184908A1 (en) Method and apparatus for multimedia stream synchronization
US9912427B2 (en) Reception apparatus and system
JP5367771B2 (ja) 映像伝送システム
JP5928277B2 (ja) タイムコード同期装置、及びタイムコード同期方法
JP6658504B2 (ja) 撮像装置、撮像方法および撮像システム
JP2014216706A (ja) 送信装置、受信装置及び再生システム
JP2007201797A (ja) 伝送システム及び映像出力方法
JP2013165313A (ja) カメラ制御装置
US20130141596A1 (en) Transmitter, transmission method, and program
US10560252B2 (en) Time aware audio streams with heterogenous frame rates
CN116261000A (zh) 一种云会议中音视频的同步方法、装置和电子设备
JP2004023134A (ja) 画像音声同期化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180116

R150 Certificate of patent or registration of utility model

Ref document number: 6279146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250