JP6724791B2 - 送信装置、送信方法、受信装置および受信方法 - Google Patents

送信装置、送信方法、受信装置および受信方法 Download PDF

Info

Publication number
JP6724791B2
JP6724791B2 JP2016564872A JP2016564872A JP6724791B2 JP 6724791 B2 JP6724791 B2 JP 6724791B2 JP 2016564872 A JP2016564872 A JP 2016564872A JP 2016564872 A JP2016564872 A JP 2016564872A JP 6724791 B2 JP6724791 B2 JP 6724791B2
Authority
JP
Japan
Prior art keywords
subtitle
display
region
stream
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016564872A
Other languages
English (en)
Other versions
JPWO2016098790A1 (ja
Inventor
塚越 郁夫
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016098790A1 publication Critical patent/JPWO2016098790A1/ja
Application granted granted Critical
Publication of JP6724791B2 publication Critical patent/JP6724791B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • H04N7/0885Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Circuits (AREA)
  • Television Systems (AREA)

Description

本技術は、送信装置、送信方法、受信装置および受信方法に関し、特に、ビデオ情報と共にテキスト情報を送信する送信装置等に関する。
従来、例えば、DVB(Digital Video Broadcasting)の放送などでは、サブタイトルの情報をビットマップデータで送信する運用が行われている。近時、サブタイトルの情報をテキストの文字コードで、つまりテキストベースで送信することが提案されている。この場合、受信側で解像度に応じたフォント展開がなされる。
また、サブタイトルの情報をテキストベースで送信する場合、テキスト情報にタイミング情報を持たせることが提案されている。このテキスト情報として、例えば、W3C((World Wide Web Consortium)でTTML(Timed Text Markup Language)が提唱されている(特許文献1参照)。
特開2012−169885号公報
本技術の目的は、受信側におけるサブタイトルの表示タイミング制御を良好に行い得るようにすることにある。
本技術の概念は、
符号化画像データを持つビデオストリームを生成するビデオエンコーダと、
サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを生成するサブタイトルエンコーダと、
上記ビデオストリームと上記サブタイトルストリームを含むトランスポートストリームを送信する送信部を備える
送信装置にある。
本技術において、ビデオエンコーダにより、符号化画像データを持つビデオストリームが生成される。サブタイトルエンコーダにより、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームが生成される。そして、送信部により、ビデオストリームとサブタイトルストリームを含むトランスポートストリームが送信される。
例えば、サブタイトルエンコーダは、表示タイミング情報を持つ所定フォーマットのサブタイトルのテキスト情報に基づいて、サブタイトルストリームを生成する、ようにされてもよい。この場合、例えば、所定フォーマットのサブタイトルのテキスト情報は、TTML(Timed Text Markup Language)あるいはこのTTMLの派生フォーマットである、ようにされてもよい。
また、例えば、サブタイトルの表示タイミング情報は、少なくとも、表示開始タイミングと表示期間の情報を持つ、ようにされてもよい。この場合、例えば、サブタイトルストリームは、PESヘッダとPESペイロードとからなるPESパケットにより構成され、サブタイトルのテキスト情報および表示タイミング情報はPESペイロードに配置され、表示開始タイミングは、PESヘッダに挿入されているPTS(Presentation Time Stamp)からの表示オフセットで示される、ようにされてもよい。
このように本技術においては、ビデオストリームと共に、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームが送信されるものである。そのため、受信側におけるサブタイトルの表示タイミング制御を良好に行い得る。
また、本技術の他の概念は、
符号化画像データを持つビデオストリームと、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを含むトランスポートストリームを受信する受信部と、
上記ビデオストリームにデコード処理を施して画像データを得るビデオデコーダと、
上記サブタイトルストリームにデコード処理を施してサブタイトルのビットマップデータを得ると共に、該サブタイトルの表示タイミング情報を得るサブタイトルデコーダと、
上記画像データへの上記サブタイトルのビットマップデータの重畳のタイミングを、上記表示タイミング情報に基づいて制御する表示制御部を備える
受信装置にある。
本技術において、受信部により、トランスポートストリームが受信される。このトランスポートストリームには、符号化画像データを持つビデオストリームと、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームが含まれている。
ビデオデコーダにより、ビデオストリームにデコード処理が施されて画像データが得られる。また、サブタイトルデコーダにより、サブタイトルストリームにデコード処理が施されてサブタイトルのビットマップデータが得られると共に、このサブタイトルの表示タイミング情報が得られる。そして、表示制御部により、画像データへのサブタイトルのビットマップデータの重畳のタイミングが、表示タイミング制御情報に基づいて制御される。
例えば、サブタイトルの表示タイミング情報は、少なくとも、表示開始タイミングと表示期間の情報を持つ、ようにされてもよい。この場合、例えば、サブタイトルストリームは、PESヘッダとPESペイロードとからなるPESパケットにより構成され、サブタイトルのテキスト情報および表示タイミング情報はPESペイロードに配置され、表示開始タイミングは、PESヘッダに挿入されているPTSからの表示オフセットで示される、ようにされてもよい。
このように本技術においては、サブタイトルストリームがサブタイトルのテキスト情報および表示タイミング情報を持っており、画像データへのサブタイトルのビットマップデータの重畳のタイミングがこの表示タイミング情報に基づいて制御されるものである。そのため、サブタイトルの表示タイミング制御を良好に行い得る。
本技術によれば、サブタイトルの表示タイミング制御を良好に行い得る。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
実施の形態としての送受信システムの構成例を示すブロック図である。 放送送出システムのストリーム生成部の構成例を示すブロック図である。 TTML構造を説明するための図である。 TTML構造のヘッダ(head)に存在するメタデータ(metadata)、スタイリング(styling)、レイアウト(layout)の各要素の構造例を示す図である。 TTML構造のボディ(body)の構造例を示す図である。 PESパケットの構成例を示す図である。 THMS(text header metadata segment)の構造例を示す図である。 THSS(text header styling segment)の構造例を示す図である。 THLS(text header layout segment)の構造例を示す図である。 TBS(text body segment)の構造例を示す図である。 TWS(text whole segment)の構造例を示す図である。 TCS(timing control segment)の構造例を示す図である。 TTMLをセグメント(Segment)に変換する場合における「PTS」、「display offset」、「display duration」を設定について説明するための図である。 デコーダ・バッファ・モデルの構成例を示す図である。 デコーダ・バッファ・モデルの基本的な動作の一例を示す図である。 デコーダ・バッファ・モデルのより現実的な動作の一例を示す図である。 デコーダ・バッファ・モデルのより現実的な動作の他の一例を示す図である。 デコーダ・バッファ・モデルの他の構成例を示す図である。 デコーダ・バッファ・モデルの基本的な動作の一例を示す図である。 デコーダ・バッファ・モデルのより現実的な動作の一例を示す図である。 デコーダ・バッファ・モデルのより現実的な動作の他の一例を示す図である。 トランスポートストリームTSの構成例を示す図である。 テレビ受信機の構成例を示す図である。 サブタイトルデコーダの構成例を示す図である。 サブタイトルデコーダの他の構成例を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[送受信システムの構成例]
図1は、実施の形態としての送受信システム10の構成例を示している。この送受信システム10は、放送送出システム100とテレビ受信機200により構成されている。放送送出システム100は、トランスポートストリームTSを、放送波に載せて送信する。このトランスポートストリームTSは、符号化画像データを持つビデオストリームと、符号化音声データを持つオーディオストリームと、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを有している。
放送送出システム100は、表示タイミング情報を持つ所定フォーマットのサブタイトルのテキスト情報に基づいて、サブタイトルストリームを生成する。この実施の形態において、このテキスト情報は、例えば、W3C((World Wide Web Consortium)で提唱されているTTML(Timed Text Markup Language)である。
サブタイトルストリームに含まれるサブタイトルの表示タイミング情報は、この実施の形態においては、少なくとも、表示開始タイミングと表示期間の情報を持つものとされる。ここで、サブタイトルストリームは、PESヘッダとPESペイロードとからなるPESパケットにより構成され、サブタイトルのテキスト情報および表示タイミング情報はPESペイロードに配置され、例えば、表示開始タイミングは、PESヘッダに挿入されているPTSからの表示オフセットで示される。
テレビ受信機200は、放送送出システム100から放送波で送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSは、上述したように、符号化画像データを持つビデオストリームと、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを有している。
テレビ受信機200は、ビデオストリームから画像データを得ると共に、サブタイトルストリームからサブタイトルのビットマップデータと、サブタイトルの表示タイミング情報を得る。そして、テレビ受信機200は、画像データへのブタイトルのビットマップデータの重畳タイミングを表示タイミング情報に基づいて制御し、サブタイトルが重畳された画像を表示する。
[放送送出システムのストリーム生成部の構成例]
図2は、放送送出システム100のストリーム生成部110の構成例を示している。このストリーム生成部110は、制御部111と、ビデオエンコーダ112と、オーディオエンコーダ113と、テキストフォーマット変換部114と、サブタイトルエンコーダ115を有している。
制御部111は、ストリーム生成部110の各部の動作を制御する。ビデオエンコーダ112は、画像データDVを入力し、この画像データDVに対して符号化を施し、符号化画像データを含むビデオストリーム(PESストリーム)を生成する。オーディオエンコーダ113は、音声データDAを入力し、この音声データDAに対して符号化を施し、符号化音声データを含むオーディオストリーム(PESストリーム)を生成する。
テキストフォーマット変換部114は、サブタイトル情報としてのテキストデータ(文字コード)DTを入力し、表示タイミング情報を持つ所定フォーマットのサブタイトルのテキスト情報を得る。この実施の形態においては、TTMLに変換する。
図3は、TTML構造を示している。TTMLは、XMLベースで記載される。ヘッダ(head)には、メタデータ(metadata)、スタイリング(styling)、レイアウト(layout)の各要素が存在する。図4(a)は、メタデータ(TTM:TTML Metadata)の構造例を示している。このメタデータには、メタデータのタイトルの情報と、コピーライトの情報が含まれている。
図4(b)は、スタイリング(TTS:TTML Styling)の構造例を示している。このスタイリングには、識別子(id)の他に、カラー(color)、フォント(fontFamily)、サイズ(fontSize)、アラインメント(textAlign)などの情報が含まれている。図4(c)は、レイアウト(region:TTML layout)の構造例を示している。このレイアウトには、サブタイトルを配置するリージョンの識別子(id)の他に、範囲(extent)、オフセット(padding)、バックグラウンドカラー(backgroundColor)、アラインメント(displayAlign)などの情報が含まれている。
図5は、ボディ(body)の構造例を示している。図示の例では、サブタイトル1(subtitle 1)、サブタイトル2(subtitle 2)、サブタイトル3(subtitle 3)の3つのサブタイトルの情報が含まれている。サブタイトル毎に、表示開始タイミングと表示終了タイミングが記載されると共に、テキストデータが記載されている。例えば、サブタイトル1(subtitle 1)に関しては、表示開始タイミングが“0.76s”で、表示終了タイミングが“3.45s”であり、テキストデータが「It seems a paradox, dose it not,」とされている。
図2に戻って、サブタイトルエンコーダ115は、テキストフォーマット変換部114で得られるTTMLを種々のセグメントに変換し、ペイロードにそれらのセグメントを配置したPESパケットにより構成されるサブタイトルストリームを生成する。
図6は、PESパケットの構成例を示している。PESヘッダには、PTS(Presentation Time Stamp)が含まれている。また、PESペイロードには、TCS(timing control segment)、THMS(text header metadata segment)、THSS(text header styling segment)、THLS(text header layout segment)、TBS(text body segment)の各セグメント、あるいはTCS(timing control segment)、TWS(text whole segment)の各セグメントが含まれている。
図7(a)は、THMS(text header metadata segment)の構造例(syntax)を示している。この構造には、「sync_byte」、「segment_type」、「page_id」、「segment_length」、「segment_payload()」の各情報が含まれている。「segment_type」は、セグメントタイプを示す8ビットのデータであり、ここでは、THMSを示す例えば「0x21」とされる。「segment_length」は、セグメントの長さ(サイズ)を示す8ビットのデータである。「segment_payload()」の中に、図7(b)に示すようなメタデータがXML情報として配置される。このメタデータは、TTMLのヘッダ(head)に存在するメタデータ(metadata)の要素と同じものである(図4(a)参照)。
図8(a)は、THSS(text header styling segment)の構造例(syntax)を示している。この構造には、「sync_byte」、「segment_type」、「page_id」、「segment_length」、「segment_payload()」の各情報が含まれている。「segment_type」は、セグメントタイプを示す8ビットのデータであり、ここでは、THSSを示す例えば「0x22」とされる。「segment_length」は、セグメントの長さ(サイズ)を示す8ビットのデータである。「segment_payload()」の中に、図8(b)に示すようなメタデータがXML情報として配置される。このメタデータは、TTMLのヘッダ(head)に存在するスタイリング(styling)の要素と同じものである(図4(b)参照)。
図9(a)は、THLS(text header layout segment)の構造例(syntax)を示している。この構造には、「sync_byte」、「segment_type」、「page_id」、「segment_length」、「segment_payload()」の各情報が含まれている。「segment_type」は、セグメントタイプを示す8ビットのデータであり、ここでは、THLSを示す例えば「0x23」とされる。「segment_length」は、セグメントの長さ(サイズ)を示す8ビットのデータである。「segment_payload()」の中に、図9(b)に示すようなメタデータがXML情報として配置される。このメタデータは、TTMLのヘッダ(head)に存在するレイアウト(layout)の要素と同じものである(図4(c)参照)。
図10(a)は、TBS(text body segment)の構造例(syntax)を示している。この構造には、「sync_byte」、「segment_type」、「page_id」、「segment_length」、「segment_payload()」の各情報が含まれている。「segment_type」は、セグメントタイプを示す8ビットのデータであり、ここでは、TBSを示す例えば「0x24」とされる。「segment_payload()」の中に、図10(b)に示すようなメタデータがXML情報として配置される。このメタデータは、TTMLのボディ(body)と同じものである(図5参照)。
図11(a)は、TWS(text whole segment)の構造例(syntax)を示している。この構造には、「sync_byte」、「segment_type」、「page_id」、「segment_length」、「segment_payload()」の各情報が含まれている。「segment_type」は、セグメントタイプを示す8ビットのデータであり、ここでは、TWSを示す例えば「0x25」とされる。「segment_length」は、セグメントの長さ(サイズ)を示す8ビットのデータである。「segment_payload()」の中に、図11(b)に示すようなメタデータがXML情報として配置される。このメタデータは、TTMLの全体である(図3参照)。この構造は、TTML全体での互換性を維持するための構造であって、TTML全体を一つのセグメントに入れるものである。
図12は、TCS(timing control segment)の構造例(syntax)を示している。この構造には、「sync_byte」、「segment_type」、「page_id」、「segment_length」、「format_type」、「number_of_regions」、「region_id」、「number_of_display_set」、「display offset」、「display duration」の各情報が含まれている。「segment_type」は、セグメントタイプを示す8ビットのデータであり、ここでは、TCSを示す例えば「0x20」とされる。「segment_length」は、セグメントの長さ(サイズ)を示す8ビットのデータである。
「format_type」の8ビットフィールドは、サブタイトルの伝送フォーマットの種類を示す。“1”は「DVB subtitle」であることを示し、“2”は「EBU−TT−D」であることを示し、“3”は「TTML」であることを示す。この実施の形態においては、“2”あるいは“3”となる
「number_of_regions」の8ビットフィールドは、リージョン(region)の数を示す。「region_id」の16ビットフィールドは、リージョン(region)の識別子を示す。「number_of_display_set」の8ビットは、当該リージョンの表示回数を示す。「display offset」の16ビットフィールドは、当該リージョンの表示開始タイミングとしてのPTSからのオフセット値を示す。「display duration」の16ビットフィールドは、当該リージョンの表示期間を示す。
サブタイトルエンコーダ115は、図13に示すように、TTMLをセグメント(Segment)に変換する際に、TTMLのボディ(body)に含まれる各サブタイトルの表示開始タイミング(begin)と表示終了タイミング(end)の記載に基づき、システム時刻情報(PCR、ビデオ・オーディオの同期時刻)を参照して、各サブタイトルの「PTS」、「display offset」、「display duration」を設定する。この際、サブタイトルセグメントエンコーダ115は、デコーダ・バッファ・モデルを使用し、受信側の動作が正しく行われるように検証しながら、「PTS」、「display offset」、「display duration」の設定を行う。
図14は、デコーダ・バッファ・モデル300Aの構成例を示している。このデコーダ・バッファ・モデル300Aは、コーデッドバッファ(Coded Buffer)301、サブタイトルセグメントデコーダ302、フォント展開部303およびビットマップバッファ(Bitmap Buffer)304を有している。コーデッドバッファ301は、受信されたセグメントデータを一時的に保持する。
サブタイトルセグメントデコーダ302は、コーデッドバッファ301に保持されている各リージョンのセグメントデータに対して所定のタイミングでデコード処理を施して、各リージョンのテキストデータや制御コードを得る。フォント展開部303は、サブタイトルセグメントデコーダ302で得られた各リージョンのテキストデータや制御コードに基づいてフォント展開して、各リージョンのビットマップデータを得る。
ビットマップバッファ304は、フォント展開部303で得られた各リージョンのビットマップデータ、そして、ビットマップデータを表示する際の制御情報を、一時的に保持する。このビットマップバッファ304に保持されている各リージョンのビットマップデータは、表示開始タイミングから読み出されて画像データに重畳され、それが表示期間だけ継続される。
図15は、デコーダ・バッファ・モデル300Aの基本的な動作の一例を示している。コーデッドバッファ301にリージョン1(Region 1)のセグメントデータがバッファリングされていく。そして、コーデッドバッファ301にリージョン1のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、サブタイトルセグメントデコーダ302でデコードされ、フォント展開部303でフォント展開されて、当該リージョン1のビットマップデータが得られる。
このデコード処理により、コーデッドバッファ301からリージョン1のセグメントデータは瞬時になくなる。フォント展開部303で得られるビットマップデータはビットマップバッファ304に保持され、リージョン1の表示が開始され、表示期間だけその表示が継続される。図示の例では、「ABC」の文字を持つリージョン1が、デコード直後から表示期間だけ画面上に表示される。表示期間が経過すると、ビットマップバッファ304からリージョン1のビットマップデータは瞬時になくなる。
コーデッドバッファ301にリージョン1のセグメントデータが全て蓄積された後、このコーデッドバッファ301にリージョン2(Region 2)のセグメントデータがバッファリングされていく。このリージョン2に関しても、上述のリージョン1におけると同様の処理が順次施される。
すなわち、コーデッドバッファ301にリージョン2のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、サブタイトルセグメントデコーダ302でデコードされ、フォント展開部303でフォント展開されて、リージョン2の表示が開始され、表示期間だけその表示が継続される。図示の例では、「DEFG」の文字を持つリージョン2が、デコード直後から表示期間だけ画面上に表示される。
以降についても、同様の処理が継続されていく。
図16は、デコーダ・バッファ・モデル300Aのより現実的な動作の一例を示している。この例は、あるタイミングではリージョン1のみが表示されるが、次のタイミングからはリージョン2も同時に表示され、そして、リージョン1はあるタイミングで表示されなくなり、その後に、リージョン2の表示にリージョン3の表示が加わる、というものである。
コーデッドバッファ301にリージョン1(Region 1)のセグメントデータがバッファリングされていく。そして、コーデッドバッファ301にリージョン1のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS1のタイミングで、サブタイトルセグメントデコーダ302でデコードされ、フォント展開部303でフォント展開されて、当該リージョン1のビットマップデータが得られる。猶予期間は最も少ない場合には0である。これは、デコードタイミングまでに、コーデッドバッファ301に、デコードに必要なセグメントデータの全てがバッファリングされている必要があることを意味する。
このデコード処理により、コーデッドバッファ301からリージョン1のセグメントデータは瞬時になくなる。フォント展開部303で得られるリージョン1のビットマップデータはビットマップバッファ304に保持される。PTS1のタイミングにおけるコーデッドバッファ301のデータ蓄積量はCBc_1であり、このPTS1のタイミングにおけるビットマップバッファ304のデータ蓄積量はBBc_1である。
ここで、「display offset」が定義される。これは、PTSのタイミングから表示開始タイミングまでにどれだけの遅延があるかを示す。図示の例では、PTS1のタイミングでリージョン1の表示が開始されるので、「display offset1 = 0」である。
また、ここで、「display duration」が定義される。これは、表示期間を示す。図示の例では、「display duration1 = T1」である。図示の例では、「ABC」の文字を持つリージョン1が、T1の期間だけ画面上に表示される。表示期間が経過すると、ビットマップバッファ304からリージョン1のビットマップデータは瞬時になくなる。つまり、リージョン1が表示されている期間は、ビットマップバッファ304に、リージョン1のビットマップデータが保持され続ける。
ここで、バッファモデルとしては、コーデッドバッファ301のデータ蓄積量CBc_kが常にそのバッファサイズより小さく、ビットマップバッファ304のデータ蓄積量BBc_kが常にそのバッファサイズより小さい、いうように制限される。
コーデッドバッファ301にリージョン1のセグメントデータが全て蓄積された後、このコーデッドバッファ301にリージョン2のセグメントデータがバッファリングされていく。そして、コーデッドバッファ301にリージョン2のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS2のタイミングで、サブタイトルセグメントデコーダ302でデコードされ、フォント展開部303でフォント展開されて、当該リージョン2のビットマップデータが得られる。
このデコード処理により、コーデッドバッファ301からリージョン2のセグメントデータは瞬時になくなる。フォント展開部303で得られるリージョン2のビットマップデータはビットマップバッファ304に保持される。PTS2のタイミングにおけるコーデッドバッファ301のデータ蓄積量はCBc_2であり、このPTS2のタイミングにおけるビットマップバッファ304のデータ蓄積量はBBc_2である。
ここで、PTS2のタイミングでリージョン2の表示が開始されるので、「display offset2_1 = 0」である。そして、このリージョン2はT2_1の期間だけ表示されるので、「display duration2_1 = T2_1」である。図示の例では、「DEF」の文字を持つリージョン2がT2_1の期間だけ画面上に表示される。この場合、PTS2のタイミングから、リージョン1の表示に、リージョン2の表示が加わる。なお、PTS2のタイミングで、リージョン1の表示位置は上方にシフトされる。
また、リージョン2に関しては、T2_1の期間の終わりのタイミングで当該リージョン2のビットマップデータがビットマップバッファ304からなくなるわけではなく、保持され続ける。PTS2のタイミングから所定期間を経たPTS3のタイミングでリージョン2の表示が再開されるので、「display offset2_1 = !0」である。そして、このリージョン2はT2_2の期間だけ表示されるので、「display duration2_2 = T2_2」である。
また、コーデッドバッファ301にリージョン2のセグメントデータが全て蓄積された後、このコーデッドバッファ301にリージョン3(Region 3)のセグメントデータがバッファリングされていく。そして、コーデッドバッファ301にリージョン3のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS3のタイミングで、サブタイトルセグメントデコーダ302でデコードされ、フォント展開部303でフォント展開されて、当該リージョン3のビットマップデータが得られる。
このデコード処理により、コーデッドバッファ301からリージョン3のセグメントデータは瞬時になくなる。フォント展開部303で得られるビットマップデータはビットマップバッファ304に保持される。PTS3のタイミングにおけるコーデッドバッファ301のデータ蓄積量はCBc_3であり、このPTS3のタイミングにおけるビットマップバッファ304のデータ蓄積量はBBc_3である。
ここで、PTS3のタイミングでリージョン3の表示が開始されるので、「display offset3 = 0」である。そして、このリージョン3はT3の期間だけ表示されるので、「display duration3 = T3」である。図示の例では、「GHJK」の文字を持つリージョン3がT3の期間だけ画面上に表示される。この場合、PTS3のタイミングから、リージョン2およびリージョン3が表示される。なお、PTS3のタイミングで、リージョン2の表示位置は上方にシフトされる。
なお、図示の例では、T2_1の期間の終わりのタイミングとPTS3のタイミングの間には時間差があるように示しているが同一タイミングとすることも可能である。
図17は、デコーダ・バッファ・モデル300Aのより現実的な動作の他の一例を示している。この例も、図16に示す例と同様に、あるタイミングではリージョン1のみが表示されるが、次のタイミングからはリージョン2も同時に表示され、そして、リージョン1はあるタイミングで表示されなくなり、その後に、リージョン2の表示にリージョン3の表示が加わる、というものである。ただし、図16に示す例とは異なり、リージョン1およびリージョン2のデコードが同時に行われる。
コーデッドバッファ301にリージョン1(Region 1)のセグメントデータ、さらにはリージョン2(Region 2)のセグメントデータがバッファリングされていく。そして、コーデッドバッファ301にリージョン1およびリージョン2のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS1のタイミングで、サブタイトルセグメントデコーダ302でデコードされ、フォント展開部303でフォント展開されて、当該リージョン1およびリージョン2のビットマップデータが得られる。
このデコード処理により、コーデッドバッファ301からリージョン1およびリージョン2のセグメントデータは瞬時になくなる。フォント展開部303で得られるリージョン1およびリージョン2のビットマップデータはビットマップバッファ304に保持される。PTS1のタイミングにおけるコーデッドバッファ301のデータ蓄積量はCBc_1であり、このPTS1のタイミングにおけるビットマップバッファ304のデータ蓄積量はBBc_1である。
ここで、「display offset」が定義される。これは、PTSのタイミングから表示開始タイミングまでにどれだけの遅延があるかを示す。図示の例では、PTS1のタイミングでリージョン1の表示が開始されるので、「display offset1 = 0」である。
また、ここで、「display duration」が定義される。これは、表示期間を示す。図示の例では、「display duration1 = T1」である。図示の例では、「ABC」の文字を持つリージョン1が、T1の期間だけ画面上に表示される。表示期間が経過すると、ビットマップバッファ304からリージョン1のビットマップデータは瞬時になくなる。つまり、リージョン1が表示されている期間は、ビットマップバッファ304に、リージョン1のビットマップデータが保持され続ける。
ここで、バッファモデルとしては、コーデッドバッファ301のデータ蓄積量CBc_kが常にそのバッファサイズより小さく、ビットマップバッファ304のデータ蓄積量BBc_kが常にそのバッファサイズより小さい、いうように制限される。
また、PTS1のタイミングからT2_0の期間を経たタイミングでリージョン2の表示が開始されるので、「display offset2_1 = T2_0」である。そして、このリージョン2はT2_1の期間だけ表示されるので、「display duration2_1 = T2_1」である。図示の例では、「DEF」の文字を持つリージョン2がT2_1の期間だけ画面上に表示される。この場合、リージョン1の表示に、リージョン2の表示が加わる。なお、リージョン1の表示位置は上方にシフトされる。
また、リージョン2に関しては、T2_1の期間の終わりのタイミングで当該リージョン2のビットマップデータがビットマップバッファ304からなくなるわけではなく、保持され続ける。PTS1のタイミングから所定期間を経たPTS3のタイミングでリージョン2の表示が再開されるので、「display offset2_1 = !0」である。そして、このリージョン2はT2_2の期間だけ表示されるので、「display duration2_2 = T2_2」である。
また、コーデッドバッファ301にリージョン1およびリージョン2のセグメントデータが全て蓄積された後、このコーデッドバッファ301にリージョン3(Region 3)のセグメントデータがバッファリングされていく。そして、コーデッドバッファ301にリージョン3のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS3のタイミングで、サブタイトルセグメントデコーダ302でデコードされ、フォント展開部303でフォント展開されて、当該リージョン3のビットマップデータが得られる。
このデコード処理により、コーデッドバッファ301からリージョン3のセグメントデータは瞬時になくなる。フォント展開部303で得られるビットマップデータはビットマップバッファ304に保持される。PTS3のタイミングにおけるコーデッドバッファ301のデータ蓄積量はCBc_3であり、このPTS3のタイミングにおけるビットマップバッファ304のデータ蓄積量はBBc_3である。
ここで、PTS3のタイミングでリージョン3の表示が開始されるので、「display offset3 = 0」である。そして、このリージョン3はT3の期間だけ表示されるので、「display duration3 = T3」である。図示の例では、「GHJK」の文字を持つリージョン3がT3の期間だけ画面上に表示される。この場合、PTS3のタイミングから、リージョン2およびリージョン2が表示される。なお、PTS3のタイミングで、リージョン2の表示位置は上方にシフトされる。
なお、図示の例では、T2_1の期間の終わりのタイミングとPTS3のタイミングの間には時間差があるように示しているが同一タイミングとすることも可能である。
図18は、デコーダ・バッファ・モデル300Bの構成例を示している。このデコーダ・バッファ・モデル300Bは、コーデッドバッファ(Coded Buffer)311、サブタイトルセグメントデコーダ312およびフォント展開部313を有している。コーデッドバッファ311は、受信されたセグメントデータを一時的に保持する。
サブタイトルセグメントデコーダ312は、コーデッドバッファ311に保持されている各リージョンのセグメントデータに対して、各リージョンの表示期間中はフレーム毎に常にデコード処理を施して、各リージョンのテキストデータや制御コードを得る。フォント展開部313は、各リージョンの表示期間中はフレーム毎に常に、サブタイトルセグメントデコーダ312で得られたテキストデータや制御コードに基づいてフォント展開して、各リージョンのビットマップデータを得る。フォント展開部313で得られた各リージョンのビットマップデータは、画像データに重畳される。
図19は、デコーダ・バッファ・モデル300Bの基本的な動作の一例を示している。コーデッドバッファ311にリージョン1(Region 1)のセグメントデータがバッファリングされていく。そして、コーデッドバッファ311にリージョン1のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、サブタイトルセグメントデコーダ312でデコードされ、フォント展開部313でフォント展開されて、当該リージョン1のビットマップデータが得られる。これにより、リージョン1の表示が開始され、表示期間だけその表示が継続される。図示の例では、「ABC」の文字を持つリージョン1が表示期間だけ画面上に表示される。
サブタイトルセグメントデコーダ312およびフォント展開部313では、表示期間中は、フレーム毎にその処理が繰り返される。リージョン1の表示期間が終了すると、リージョン1のセグメントデータに対するサブタイトルセグメントデコーダ312およびフォント展開部313の処理は停止され、そのタイミングで、コーデッドバッファ311からリージョン1のセグメントデータは瞬時になくなる。
コーデッドバッファ311にリージョン1(Region 1)のセグメントデータが全て蓄積された後、このコーデッドバッファ311にリージョン2(Region 2)のセグメントデータがバッファリングされていく。このリージョン2に関しても、上述のリージョン1におけると同様の処理が順次施される。
すなわち、コーデッドバッファ311にリージョン2のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、サブタイトルセグメントデコーダ312でデコードされ、フォント展開部313でフォント展開されて、当該リージョン2のビットマップデータが得られる。これにより、リージョン2の表示が開始され、表示期間だけその表示が継続される。図示の例では、「DEFG」の文字を持つリージョン2が表示期間だけ画面上に表示される。
以降についても、同様の処理が継続されていく。
図20は、デコーダ・バッファ・モデル300Bのより現実的な動作の一例を示している。この例は、あるタイミングではリージョン1のみが表示されるが、次のタイミングからはリージョン2も同時に表示され、そして、リージョン1はあるタイミングで表示されなくなり、その後に、リージョン2の表示にリージョン3の表示が加わる、というものである。
コーデッドバッファ311にリージョン1(Region 1)のセグメントデータがバッファリングされていく。そして、コーデッドバッファ311にリージョン1のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS1のタイミングとなる。
ここで、「display offset」が定義される。これは、PTSのタイミングから表示開始タイミングまでにどれだけの遅延があるかを示す。図示の例では、PTS1のタイミングでリージョン1の表示が開始されるので、「display offset1 = 0」である。この場合、PTS1のタイミングで、リージョン1のセグメントデータがサブタイトルセグメントデコーダ312でデコードされ、フォント展開部313でフォント展開されて、当該リージョン1のビットマップデータが得られる。これにより、リージョン1の表示が開始される。図示の例では、「ABC」の文字を持つリージョン1の表示が開始される。
また、ここで、「display duration」が定義される。これは、表示期間を示す。図示の例では、「display duration1 = T1」であり、リージョン1の表示はT1の期間だけ継続される。サブタイトルセグメントデコーダ312およびフォント展開部313では、リージョン1の表示期間中は、フレーム毎にその処理が繰り返される。リージョン1の表示期間が終了すると、リージョン1のセグメントデータに対するサブタイトルセグメントデコーダ312およびフォント展開部313の処理は停止され、そのタイミングで、コーデッドバッファ311からリージョン1のセグメントデータは瞬時になくなる。
PTS1のタイミングにおけるコーデッドバッファ311のデータ蓄積量はCBc_1である。ここで、バッファモデルとしては、コーデッドバッファ311のデータ蓄積量CBc_kが常にそのバッファサイズより小さい、いうように制限される。
コーデッドバッファ311にリージョン1のセグメントデータが全て蓄積された後、このコーデッドバッファ311にリージョン2のセグメントデータがバッファリングされていく。そして、コーデッドバッファ311にリージョン2のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS2のタイミングとなる。このPTS2のタイミングにおけるコーデッドバッファ311のデータ蓄積量はCBc_2である。
PTS2のタイミングでリージョン2の表示が開始されるので、「display offset2-1 = 0」である。この場合、PTS2のタイミングで、リージョン2のセグメントデータがサブタイトルセグメントデコーダ312でデコードされ、フォント展開部313でフォント展開されて、当該リージョン2のビットマップデータが得られる。これにより、リージョン2の表示が開始される。図示の例では、「DEF」の文字を持つリージョン2の表示が開始される。この場合、PTS2のタイミングから、リージョン1の表示に、リージョン2の表示が加わる。なお、PTS2のタイミングで、リージョン1の表示位置は上方にシフトされる。
そして、このリージョン2はT2_1の期間だけ表示されるので、「display duration2_1 = T2_1」である。図示の例では、「DEF」の文字を持つリージョン2がT2_1の期間だけ画面上に表示される。サブタイトルセグメントデコーダ312およびフォント展開部313では、リージョン2の表示期間中は、フレーム毎にその処理が繰り返される。
また、リージョン2に関しては、T2_1の期間の終わりのタイミングで当該リージョン2のセグメントデータがコーデッドバッファ311からなくなるわけではなく、保持され続ける。PTS2のタイミングから所定期間を経たPTS3のタイミングでリージョン2の表示が再開されるので、「display offset2_1 = !0」である。そして、このリージョン2はT2_2の期間だけ表示されるので、「display duration2_2 = T2_2」である。リージョン2の表示期間が全て終了すると、コーデッドバッファ311からリージョン2のセグメントデータは瞬時になくなる。
また、コーデッドバッファ311にリージョン2のセグメントデータが全て蓄積された後、このコーデッドバッファ311にリージョン3のセグメントデータがバッファリングされていく。そして、コーデッドバッファ311にリージョン3のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS3のタイミングとなる。このPTS3のタイミングにおけるコーデッドバッファ311のデータ蓄積量はCBc_3である。
PTS3のタイミングでリージョン3の表示が開始されるので、「display offset3 = 0」である。この場合、PTS3のタイミングで、リージョン3のセグメントデータがサブタイトルセグメントデコーダ312でデコードされ、フォント展開部313でフォント展開されて、当該リージョン3のビットマップデータが得られる。これにより、リージョン3の表示が開始される。図示の例では、「GHJK」の文字を持つリージョン3の表示が開始される。この場合、PTS3のタイミングから、リージョン2の表示に、リージョン3の表示が加わる。なお、PTS3のタイミングで、リージョン2の表示位置は上方にシフトされる。
そして、このリージョン3はT3の期間だけ表示されるので、「display duration3 = T3」である。図示の例では、「GHJK」の文字を持つリージョン3がT3の期間だけ画面上に表示される。サブタイトルセグメントデコーダ312およびフォント展開部313では、リージョン3の表示期間中は、フレーム毎にその処理が繰り返される。
なお、図示の例では、T2_1の期間の終わりのタイミングとPTS3のタイミングの間には時間差があるように示しているが同一タイミングとすることも可能である。
図21は、デコーダ・バッファ・モデル300Bのより現実的な動作の他の一例を示している。この例も、図20に示す例と同様に、あるタイミングではリージョン1のみが表示されるが、次のタイミングからはリージョン2も同時に表示され、そして、リージョン1はあるタイミングで表示されなくなり、その後に、リージョン2の表示にリージョン3の表示が加わる、というものである。ただし、図20に示す例とは異なり、コーデッドバッファ311にリージョン1およびリージョン2のセグメントデータが全て蓄積されてから、リージョン1の表示が開始される。
コーデッドバッファ301にリージョン1(Region 1)のセグメントデータ、さらにはリージョン2(Region 2)のセグメントデータがバッファリングされていく。そして、コーデッドバッファ301にリージョン1およびリージョン2のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS1のタイミングとなる。
ここで、「display offset」が定義される。これは、PTSのタイミングから表示開始タイミングまでにどれだけの遅延があるかを示す。図示の例では、PTS1のタイミングでリージョン1の表示が開始されるので、「display offset1 = 0」である。この場合、PTS1のタイミングで、リージョン1のセグメントデータがサブタイトルセグメントデコーダ312でデコードされ、フォント展開部313でフォント展開されて、当該リージョン1のビットマップデータが得られる。これにより、リージョン1の表示が開始される。図示の例では、「ABC」の文字を持つリージョン1の表示が開始される。
また、ここで、「display duration」が定義される。これは、表示期間を示す。図示の例では、「display duration1 = T1」であり、リージョン1の表示はT1の期間だけ継続される。サブタイトルセグメントデコーダ312およびフォント展開部313では、リージョン1の表示期間中は、フレーム毎にその処理が繰り返される。リージョン1の表示期間が終了すると、リージョン1のセグメントデータに対するサブタイトルセグメントデコーダ312およびフォント展開部313の処理は停止され、そのタイミングで、コーデッドバッファ311からリージョン1のセグメントデータは瞬時になくなる。
PTS1のタイミングにおけるコーデッドバッファ311のデータ蓄積量はCBc_1である。ここで、バッファモデルとしては、コーデッドバッファ311のデータ蓄積量CBc_kが常にそのバッファサイズより小さい、いうように制限される。
また、PTS1のタイミングからT2_0の期間を経たタイミングでリージョン2の表示が開始されるので、「display offset2_1 = T2_0」である。このタイミングで、リージョン2のセグメントデータがサブタイトルセグメントデコーダ312でデコードされ、フォント展開部313でフォント展開されて、当該リージョン2のビットマップデータが得られる。これにより、リージョン2の表示が開始される。図示の例では、「DEF」の文字を持つリージョン2の表示が開始される。この場合、リージョン1の表示に、リージョン2の表示が加わる。なお、リージョン1の表示位置は上方にシフトされる。
そして、このリージョン2はT2_1の期間だけ表示されるので、「display duration2_1 = T2_1」である。図示の例では、「DEF」の文字を持つリージョン2がT2_1の期間だけ画面上に表示される。サブタイトルセグメントデコーダ312およびフォント展開部313では、リージョン2の表示期間中は、フレーム毎にその処理が繰り返される。
また、リージョン2に関しては、T2_1の期間の終わりのタイミングで当該リージョン2のセグメントデータがコーデッドバッファ311からなくなるわけではなく、保持され続ける。PTS2のタイミングから所定期間を経たPTS3のタイミングでリージョン2の表示が再開されるので、「display offset2_1 = !0」である。そして、このリージョン2はT2_2の期間だけ表示されるので、「display duration2_2 = T2_2」である。リージョン2の表示期間が全て終了すると、コーデッドバッファ311からリージョン2のセグメントデータは瞬時になくなる。
また、コーデッドバッファ311にリージョン2のセグメントデータが全て蓄積された後、このコーデッドバッファ311にリージョン3のセグメントデータがバッファリングされていく。そして、コーデッドバッファ311にリージョン3のセグメントデータが全て蓄積されてから一定の猶予期間(Decode Window)を経て、PTS3のタイミングとなる。このPTS3のタイミングにおけるコーデッドバッファ311のデータ蓄積量はCBc_3である。
PTS3のタイミングでリージョン3の表示が開始されるので、「display offset3 = 0」である。この場合、PTS3のタイミングで、リージョン3のセグメントデータがサブタイトルセグメントデコーダ312でデコードされ、フォント展開部313でフォント展開されて、当該リージョン3のビットマップデータが得られる。これにより、リージョン3の表示が開始される。図示の例では、「GHJK」の文字を持つリージョン3の表示が開始される。この場合、PTS3のタイミングから、リージョン2の表示に、リージョン3の表示が加わる。なお、PTS3のタイミングで、リージョン2の表示位置は上方にシフトされる。
そして、このリージョン3はT3の期間だけ表示されるので、「display duration3 = T3」である。図示の例では、「GHJK」の文字を持つリージョン3がT3の期間だけ画面上に表示される。サブタイトルセグメントデコーダ312およびフォント展開部313では、リージョン3の表示期間中は、フレーム毎にその処理が繰り返される。
なお、図示の例では、T2_1の期間の終わりのタイミングとPTS3のタイミングの間には時間差があるように示しているが同一タイミングとすることも可能である。
図2に戻って、TSフォーマッタ116は、ビデオエンコーダ112で生成されたビデオストリーム、オーディオエンコーダ113で生成されたオーディオストリームおよびサブタイトルエンコーダ115で生成されたサブタイトルストリームを、トランスポートパケット化して多重し、多重化ストリームとしてのトランスポートストリームTSを得る。
図3に示すストリーム生成部110の動作を簡単に説明する。画像データDVは、ビデオエンコーダ112に供給される。ビデオエンコーダ112では、この画像データDVに対して符号化が施され、符号化画像データを含むビデオストリーム(PESストリーム)が生成される。このビデオストリームは、TSフォーマッタ116に供給される。また、音声データDAは、オーディオエンコーダ113に供給される。オーディオエンコーダ113では、音声データDAに対して符号化が施され、符号化音声データを含むオーディオストリーム(PESストリーム)が生成される。このオーディオストリームは、TSフォーマッタ116に供給される。
また、サブタイトル情報としてのテキストデータ(文字コード)DTは、テキストフォーマット変換部114に供給される。このキストフォーマット変換部114では、表示タイミング情報を持つ所定フォーマットのサブタイトルのテキスト情報、ここではTTMLが得られる。このTTMLは、サブタイトルエンコーダ115に供給される。
サブタイトルエンコーダ115では、TTMLが種々のセグメントに変換され、ペイロードにそれらのセグメントを配置したPESパケットにより構成されるサブタイトルストリームが生成される。このサブタイトルストリームは、TSフォーマッタ116に供給される。
このPESパケットのペイロード部には、TCS、THMS、THSS、THLS、TBSの各セグメント、あるいはTCS、TWSの各セグメントが含まれている。TCSのセグメントで、サブタイトル(リージョン)の表示タイミング情報(表示開始タイミングと表示期間の情報を持つ)が送られ、その他のセグメントでTTMLの情報が送られる。
サブタイトルエンコーダ115では、TTMLをセグメントに変換する際に、TTMLのボディ(body)に含まれる各サブタイトルの表示開始タイミングと表示終了タイミングの記載に基づき、システム時刻情報(PCR、ビデオ・オーディオの同期時刻)が参照されて、PESヘッダに挿入される「PTS」と、TCSに挿入される「display offset」、「display duration」が設定される。
TSフォーマッタ116では、ビデオエンコーダ112で生成されたビデオストリーム、オーディオエンコーダ113で生成されたオーディオストリームおよびサブタイトルエンコーダ115で生成されたサブタイトルストリームが、トランスポートパケット化されて多重され、多重化ストリームとしてのトランスポートストリームTSが得られる。
図22は、トランスポートストリームTSの構成例を示している。この構成例では、PID1で識別されるビデオストリームのPESパケット「Video PES」が存在する。また、この構成例では、PID2で識別されるオーディオストリームのPESパケット「Audio PES」が存在する。また、この構成例では、PID3で識別されるサブタイトルストリームのPESパケット「Subtitle PES」が存在する。
PESパケットは、PESヘッダ(PES header)とPESペイロード(PES payload)からなっている。ビデオストリームのPESパケットにおいて、PESヘッダにはDTS/PTSのタイムスタンプが挿入されており、PESペイロードにはビデオ符号化ストリームが挿入されている。また、オーディオストリームのPESパケットにおいて、PESヘッダにはPTSのタイムスタンプが挿入されており、PESペイロードにはオーディオ符号化ストリームが挿入されている。
また、サブタイトルストリームのPESパケットにおいて、PESヘッダにはPTSのタイムスタンプが挿入されており、PESペイロードには、複数のサブタイトルセグメントが挿入されている。すなわち、TCS、THMS、THSS、THLS、TBSの各セグメント、あるいはTCS、TWSの各セグメントである。
また、トランスポートストリームTSには、PSI(Program Specific Information)として、PMT(Program Map Table)が含まれている。このPSIは、トランスポートストリームに含まれる各エレメンタリストリームがどのプログラムに属しているかを記した情報である。また、トランスポートストリームTSには、イベント単位の管理を行うSI(Serviced Information)としてのEIT(Event Information Table)が含まれている。このEITには、番組単位のメタデータが記載される。
PMTには、プログラム全体に関連する情報を記述するプログラム・デスクリプタ(Program Descriptor)が存在する。また、このPMTには、各エレメンタリストリームに関連した情報を持つエレメンタリストリーム・ループが存在する。この構成例では、ビデオエレメンタリストリーム・ループ(Video ES loop)、オーディオエレメンタリストリーム・ループ(Audio ES loop)、サブタイトルエレメンタリストリーム・ループ(Subtitle ES loop)が存在する。各ループには、パケット識別子(PID)等の情報が配置されると共に、図示していないが、そのエレメンタリストリームに関連する情報を記述する記述子(デスクリプタ)も配置される。
[テレビ受信機の構成例]
図23は、テレビ受信機200の構成例を示している。このテレビ受信機200は、受信部201と、TS解析部202と、ビデオデコーダ203と、ビデオ重畳部204と、パネル駆動回路205と、表示パネル206を有している。また、このテレビ受信機200は、オーディオデコーダ207と。音声出力回路208と、スピーカ209と、サブタイトルデコーダ210を有している。また、このテレビ受信機200は、CPU221と、フラッシュROM222と、DRAM223と、内部バス224と、リモコン受信部225と、リモコン送信機226を有している。
CPU221は、テレビ受信機200の各部の動作を制御する。フラッシュROM222は、制御ソフトウェアの格納およびデータの保管を行う。DRAM223は、CPU221のワークエリアを構成する。CPU221は、フラッシュROM222から読み出したソフトウェアやデータをDRAM223上に展開してソフトウェアを起動させ、テレビ受信機200の各部を制御する。
リモコン受信部225は、リモコン送信機226から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU221に供給する。CPU221は、このリモコンコードに基づいて、テレビ受信機200の各部を制御する。CPU221、フラッシュROM222およびDRAM223は、内部バス224に接続されている。
受信部201は、放送送出システム100から放送波に載せて送られてくるトランスポートストリームTSを受信する。このトランスポートストリームTSには、上述したように、ビデオストリーム、オーディオストリームおよびサブタイトルストリームが含まれている。TS解析部202は、トランスポートストリームTSからビデオス、オーディオ、サブタイトルの各ストリームのパケットを抽出する。
オーディオデコーダ207は、TS解析部202で抽出されるオーディオストリームにデコード処理を施し、音声データを得る。音声出力回路208は、音声データに対して、D/A変換や増幅等の必要な処理を施し、スピーカ209に供給する。ビデオデコーダ203は、TS解析部202で抽出されるビデオストリームにデコード処理を施し、画像データを得る。
サブタイトルデコーダ210は、TS解析部202で抽出される各リージョンのセグメントデータを処理し、画像データに重畳すべき各リージョンのビットマップデータを出力する。図24、図25は、サブタイトルデコーダ210の構成例を示している。
図24に示すサブタイトルデコーダ210は、図14のデコーダ・バッファ・モデル300Aに対応した構成を持っている。すなわち、このサブタイトルデコーダ210は、コーデッドバッファ231と、サブタイトルセグメントデコーダ232と、フォント展開部233と、ビットマップバッファ234を有している。
コーデッドバッファ231は、受信されたセグメントデータを一時的に保持する。サブタイトルセグメントデコーダ232は、コーデッドバッファ231に保持されている各リージョンのセグメントデータに対して所定のタイミングでデコード処理を施して、各リージョンのテキストデータや制御コードを得る。フォント展開部233は、サブタイトルセグメントデコーダ232で得られた各リージョンのテキストデータや制御コードに基づいてフォント展開して、各リージョンのビットマップデータを得る。
ビットマップバッファ234は、フォント展開部233で得られた各リージョンのビットマップデータを一時的に保持する。このビットマップバッファ234に保持されている各リージョンのビットマップデータは、表示開始タイミングから読み出されて画像データに重畳され、それが表示期間だけ継続される。
ここで、サブタイトルセグメントデコーダ232は、PESパケットのPESヘッダからPTSを抽出する。また、サブタイトルセグメントデコーダ232は、TCSのセグメント(図12参照)から、リージョン毎の「display offset」、「display duration」の情報を抽出する。これらの情報は、CPU221に送られる。CPU221は、これらの情報に基づいて、図14のデコーダ・バッファ・モデル300Aで説明したと同様の動作が行われるように、サブタイトルセグメントデコーダ232およびフォント展開部233の処理タイミング、さらには、ビットマップバッファ234からの各リージョンのビットマップデータの読み出しタイミング等を制御する(図15〜図17参照)。
また、図25に示すサブタイトルデコーダ210は、図18のデコーダ・バッファ・モデル300Bに対応した構成を持っている。すなわち、このサブタイトルデコーダ210は、コーデッドバッファ241と、サブタイトルセグメントデコーダ242と、フォント展開部243を有している。
コーデッドバッファ241は、受信されたセグメントデータを一時的に保持する。サブタイトルセグメントデコーダ242は、コーデッドバッファ241に保持されている各リージョンのセグメントデータに対して、各リージョンの表示期間中はフレーム毎に常にデコード処理を施して、各リージョンのテキストデータや制御コードを得る。フォント展開部243は、各リージョンの表示期間中はフレーム毎に常に、サブタイトルセグメントデコーダ242で得られたテキストデータや制御コードに基づいてフォント展開して、各リージョンのビットマップデータを得る。フォント展開部243で得られた各リージョンのビットマップデータは、画像データに重畳される。
ここで、サブタイトルセグメントデコーダ242は、PESパケットのPESヘッダからPTSを抽出する。また、サブタイトルセグメントデコーダ242は、TCSのセグメント(図12参照)から、リージョン毎の「display offset」、「display duration」の情報を抽出する。これらの情報は、CPU221に送られる。CPU221は、これらの情報に基づいて、図18のデコーダ・バッファ・モデル300Bで説明したと同様の動作が行われるように、サブタイトルセグメントデコーダ232およびフォント展開部233の処理タイミング等を制御する(図19〜図21参照)。
図23に戻って、ビデオ重畳部204は、ビデオデコーダ203で得られた画像データに、サブタイトルデコーダ210から得られる各リージョンのビットマップデータを重畳する。パネル駆動回路205は、ビデオ重畳部204で得られる表示用の画像データに基づいて、表示パネル206を駆動する。表示パネル206は、例えば、LCD(Liquid Crystal Display)、有機ELディスプレイ(organic electroluminescence display)などで構成されている。
図23に示すテレビ受信機200の動作を簡単に説明する。受信部201では、放送送出システム100から放送波に載せて送られてくるトランスポートストリームTSが受信される。このトランスポートストリームTSには、ビデオストリーム、オーディオストリームおよびサブタイトルストリームが含まれている。
このトランスポートストリームTSは、TS解析部202に供給される。TS解析部202では、トランスポートストリームTSからビデオス、オーディオ、サブタイトルの各ストリームのパケットが抽出される。TS解析部202で抽出されるビデオストリーム(PESストリーム)は、ビデオデコーダ203に供給される。ビデオデコーダ203では、ビデオストリームにデコード処理が施されて、画像データが得られる。この画像データは、ビデオ重畳部204に供給される。
また、TS解析部202で抽出されるサブタイトルストリーム(PESストリーム)は、サブタイトルデコーダ210に供給される。サブタイトルデコーダ210では、各リージョンのセグメントデータが処理され、画像データに重畳すべき各リージョンのビットマップデータが出力される。この場合、サブタイトルデコーダ210では、PESヘッダから抽出されるPTSとTCSのセグメントから抽出される「display offset」、「display duration」の情報に基づいて、各リージョンのビットマップデータの出力タイミングが制御される。
サブタイトルデコーダ210から出力される各リージョンのビットマップデータは、ビデオ重畳部204に供給される。ビデオ重畳部204では、ビデオデコーダ203で得られた画像データに、サブタイトルデコーダ210から出力される各リージョンのビットマップデータが重畳される。ビデオ重畳部204で得られる表示用の画像データは、パネル駆動回路205に供給される。パネル駆動回路205では、表示用のビデオデータに基づいて、表示パネル206を駆動することが行われる。これにより、表示パネル206には、各リージョンが重畳された画像が表示される。
また、TS解析部202で抽出されるオーディオストリーム(PESストリーム)は、オーディオデコーダ207に供給される。オーディオデコーダ207では、オーディオストリームにデコード処理が施されて、音声データが得られる。この音声データは、音声出力回路208に供給される。音声出力回路208では、音声データに対して、D/A変換や増幅等の必要な処理が行われる。そして、処理後の音声データはスピーカ209に供給される。これにより、スピーカ209からは表示パネル206の表示画像に対応した音声出力が得られる。
以上説明したように、図1に示す送受信システム10においては、ビデオストリームと共に、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームが送信される。そのため、受信側におけるサブタイトルの表示タイミング制御を良好に行うことができる。
また、図1に示す送受信システム10においては、サブタイトルストリームには、サブタイトルのテキスト情報および表示タイミング情報を持つTTMLの情報を持つセグメントの他に、TTMLが持つ表示タイミング情報に対応した表示タイミング情報(表示開始タイミングおよび表示期間の情報)を持つTCSのセグメントが含まれる。そのため、受信側では表示タイミング情報をTCSのセグメントから容易に取得でき、処理負荷の軽減が可能となる。
また、図1に示す送受信システム10においては、送信側でTTMLをセグメントに変換する際に、TTMLのボディ(body)に含まれる各サブタイトルの表示開始タイミングと表示終了タイミングの記載に基づき、システム時刻情報(PCR、ビデオ・オーディオの同期時刻)を参照して、各サブタイトルの「PTS」、「display offset」、「display duration」が設定される。この際、デコーダ・バッファ・モデル(図14、図18参照)が使用されて、受信側の動作が正しく行われるように検証しながら、「PTS」、「display offset」、「display duration」の設定が行われるため、受信側におけるサブタイトルの表示タイミング制御が良好に行われる。
<2.変形例>
なお、上述実施の形態においては、表示タイミング情報を持つ所定フォーマットのサブタイトルのテキスト情報としてTTMLを用いる例を示した。しかし、本技術は、これに限定されず、TTMLと同等の情報を持つその他のタイムドテキスト情報を用いることも考えらえる。例えば、TTMLの派生フォーマットを用いてもよい。
また、上述実施の形態においては、放送送出システム100とテレビ受信機200とからなる送受信システム10を示したが、本技術を適用し得る送受信システムの構成は、これに限定されるものではない。例えば、テレビ受信機200の部分が、HDMI(High-Definition Multimedia Interface)などのデジタルインタフェースで接続されたセットトップボックスおよびモニタの構成などであってもよい。なお、「HDMI」は登録商標である。
また、本技術は、以下のような構成を取ることもできる。
(1)符号化画像データを持つビデオストリームを生成するビデオエンコーダと、
サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを生成するサブタイトルエンコーダと、
上記ビデオストリームと上記サブタイトルストリームを含むトランスポートストリームを送信する送信部を備える
送信装置。
(2)上記サブタイトルエンコーダは、
表示タイミング情報を持つ所定フォーマットのサブタイトルのテキスト情報に基づいて、上記サブタイトルストリームを生成する
前記(1)に記載の送信装置。
(3)上記所定フォーマットのサブタイトルのテキスト情報は、TTMLあるいは、該TTMLの派生フォーマットである
前記(2)に記載の送信装置。
(4)上記サブタイトルの表示タイミング情報は、少なくとも、表示開始タイミングと表示期間の情報を持つ
前記(1)から(3)のいずれかに記載の送信装置。
(5)上記サブタイトルストリームは、PESヘッダとPESペイロードとからなるPESパケットにより構成され、
上記サブタイトルのテキスト情報および表示タイミング情報はPESペイロードに配置され、
上記表示開始タイミングは、上記PESヘッダに挿入されているPTSからの表示オフセットで示される
前記(4)に記載の送信装置。
(6)符号化画像データを持つビデオストリームを生成するビデオエンコードステップと、
サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを生成するサブタイトルエンコードステップと、
送信部により、上記ビデオストリームと上記サブタイトルストリームを含むトランスポートストリームを送信する送信ステップを有する
送信方法。
(7)符号化画像データを持つビデオストリームと、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを含むトランスポートストリームを受信する受信部と、
上記ビデオストリームにデコード処理を施して画像データを得るビデオデコーダと、
上記サブタイトルストリームにデコード処理を施してサブタイトルのビットマップデータを得ると共に、該サブタイトルの表示タイミング情報を取得するサブタイトルデコーダと、
上記画像データへの上記サブタイトルのビットマップデータの重畳のタイミングを、上記表示タイミング情報に基づいて制御する表示制御部を備える
受信装置。
(8)上記サブタイトルの表示タイミング情報は、少なくとも、表示開始タイミングと表示期間の情報を持つ
前記(7)に記載の受信装置。
(9)上記サブタイトルストリームは、PESヘッダとPESペイロードとからなるPESパケットにより構成され、
上記サブタイトルのテキスト情報および表示タイミング情報はPESペイロードに配置され、
上記表示開始タイミングは、上記PESヘッダに挿入されているPTSからの表示オフセットで示される
前記(8)に記載の受信装置。
(10)受信部により、符号化画像データを持つビデオストリームと、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを含むトランスポートストリームを受信する受信ステップと、
上記ビデオストリームにデコード処理を施して画像データを得るビデオデコードステップと、
上記サブタイトルストリームにデコード処理を施してサブタイトルのビットマップデータを得ると共に、該サブタイトルの表示タイミング情報を取得するサブタイトルデコードステップと、
上記画像データへの上記サブタイトルのビットマップデータの重畳のタイミングを、上記表示タイミング情報に基づいて制御する表示制御ステップを有する
受信方法。
本技術の主な特徴は、ビデオストリームと共に、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを送信することで、受信側におけるサブタイトルの表示タイミング制御を良好に行い得るようにしたことである(図22参照)。
10・・・送受信システム
100・・・放送送出システム
110・・・ストリーム生成部
111・・・制御部
112・・・ビデオエンコーダ
113・・・オーディオエンコーダ
114・・・テキストフォーマット変換部
115・・・サブタイトルエンコーダ
116・・・TSフォーマッタ
200・・・テレビ受信機
201・・・受信部
202・・・TS解析部
203・・・ビデオデコーダ
204・・・ビデオ重畳部
205・・・パネル駆動回路
206・・・表示パネル
207・・・オーディオデコーダ
208・・・音声出力回路
209・・・スピーカ
210・・・サブタイトルデコーダ
221・・・CPU
231,241・・・コーデッドバッファ
232,242・・・サブタイトルセグメントデコーダ
233,243・・・フォント展開部
234・・・ビットマップバッファ
300A,300B・・・デコーダ・バッファ・モデル
301,311・・・コーデッドバッファ
302,312・・・サブタイトルセグメントデコーダ
303,313・・・フォント展開部
304・・・ビットマップバッファ

Claims (6)

  1. 符号化画像データを持つビデオストリームを生成するビデオエンコーダと、
    サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを生成するサブタイトルエンコーダと、
    上記ビデオストリームと上記サブタイトルストリームを含むトランスポートストリームを送信する送信部を備え、
    上記サブタイトルストリームは、ヘッダとペイロードとからなり、上記ヘッダに表示タイムスタンプが含まれるパケットにより構成され、
    上記サブタイトルのテキスト情報および表示タイミング情報はペイロードに配置され、
    上記サブタイトルの表示タイミング情報は、上記サブタイトルの表示開始タイミングを算出するための、上記表示タイムスタンプで示される上記パケットの表示時刻からのオフセット値を含む
    送信装置。
  2. 上記サブタイトルエンコーダは、
    表示タイミング情報を持つ所定フォーマットのサブタイトルのテキスト情報を複数のセグメントに変換し、ペイロードに上記複数のセグメントを配置したパケットにより構成される、上記サブタイトルストリームを生成する
    請求項1に記載の送信装置。
  3. 上記所定フォーマットのサブタイトルのテキスト情報は、TTMLあるいは、該TTMLの派生フォーマットである
    請求項2に記載の送信装置。
  4. 符号化画像データを持つビデオストリームを生成するビデオエンコードステップと、
    サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを生成するサブタイトルエンコードステップと、
    送信部により、上記ビデオストリームと上記サブタイトルストリームを含むトランスポートストリームを送信する送信ステップを有し、
    上記サブタイトルストリームは、ヘッダとペイロードとからなり、上記ヘッダに表示タイムスタンプが含まれるパケットにより構成され、
    上記サブタイトルのテキスト情報および表示タイミング情報はペイロードに配置され、
    上記サブタイトルの表示タイミング情報は、上記サブタイトルの表示開始タイミングを算出するための、上記表示タイムスタンプで示される上記パケットの表示時刻からのオフセット値を含む
    送信方法。
  5. 符号化画像データを持つビデオストリームと、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを含むトランスポートストリームを受信する受信部を備え、
    上記サブタイトルストリームは、ヘッダとペイロードとからなり、上記ヘッダに表示タイムスタンプが含まれるパケットにより構成され、
    上記サブタイトルのテキスト情報および表示タイミング情報はペイロードに配置され、
    上記サブタイトルの表示タイミング情報は、上記サブタイトルの表示開始タイミングを算出するための、上記表示タイムスタンプで示される上記パケットの表示時刻からのオフセット値を含み、
    上記ビデオストリームにデコード処理を施して画像データを得るビデオデコーダと、
    上記サブタイトルストリームにデコード処理を施して、サブタイトルのビットマップデータを得ると共に、上記オフセット値に基づいてサブタイトルの表示開始タイミングを算出するサブタイトルデコーダと、
    上記画像データへの上記サブタイトルのビットマップデータの重畳のタイミングを、上記算出された表示開始タイミングに基づいて制御する表示制御部をさらに備える
    受信装置。
  6. 受信部により、符号化画像データを持つビデオストリームと、サブタイトルのテキスト情報および表示タイミング情報を持つサブタイトルストリームを含むトランスポートストリームを受信する受信ステップを有し、
    上記サブタイトルストリームは、ヘッダとペイロードとからなり、上記ヘッダに表示タイムスタンプが含まれるパケットにより構成され、
    上記サブタイトルのテキスト情報および表示タイミング情報はペイロードに配置され、
    上記サブタイトルの表示タイミング情報は、上記サブタイトルの表示開始タイミングを算出するための、上記表示タイムスタンプで示される上記パケットの表示時刻からのオフセット値を含み、
    上記ビデオストリームにデコード処理を施して画像データを得るビデオデコードステップと、
    上記サブタイトルストリームにデコード処理を施して、サブタイトルのビットマップデータを得ると共に、上記オフセット値に基づいてサブタイトルの表示開始タイミングを算出するサブタイトルデコードステップと、
    上記画像データへの上記サブタイトルのビットマップデータの重畳のタイミングを、上記算出された表示開始タイミングに基づいて制御する表示制御ステップをさらに有する
    受信方法。
JP2016564872A 2014-12-19 2015-12-16 送信装置、送信方法、受信装置および受信方法 Active JP6724791B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014258054 2014-12-19
JP2014258054 2014-12-19
PCT/JP2015/085140 WO2016098790A1 (ja) 2014-12-19 2015-12-16 送信装置、送信方法、受信装置および受信方法

Publications (2)

Publication Number Publication Date
JPWO2016098790A1 JPWO2016098790A1 (ja) 2017-09-28
JP6724791B2 true JP6724791B2 (ja) 2020-07-15

Family

ID=56126675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016564872A Active JP6724791B2 (ja) 2014-12-19 2015-12-16 送信装置、送信方法、受信装置および受信方法

Country Status (6)

Country Link
US (1) US10511867B2 (ja)
EP (1) EP3236659B1 (ja)
JP (1) JP6724791B2 (ja)
CN (1) CN107005733B (ja)
RU (1) RU2701172C2 (ja)
WO (1) WO2016098790A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789221B1 (ko) * 2015-07-16 2017-10-23 네이버 주식회사 동영상 제공 장치, 동영상 제공 방법, 및 컴퓨터 프로그램
JP6943179B2 (ja) * 2015-07-16 2021-09-29 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
CN109479154B (zh) * 2016-07-26 2021-11-05 索尼公司 发送装置、发送方法、接收装置和接收方法
CN108111896B (zh) * 2018-01-16 2020-05-05 北京三体云联科技有限公司 一种字幕同步方法及装置
CN109819343A (zh) * 2019-01-08 2019-05-28 深圳市华曦达科技股份有限公司 一种字幕处理方法、装置及电子设备
CN117714805A (zh) * 2022-09-08 2024-03-15 海信电子科技(深圳)有限公司 一种显示设备及字幕显示方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8145033B2 (en) * 2003-02-05 2012-03-27 Lg Electronics Inc. Recording medium having data structure for managing reproducton duration of still pictures recorded thereon and recording and reproducing methods and apparatuses
KR20050005074A (ko) * 2003-07-01 2005-01-13 엘지전자 주식회사 고밀도 광디스크의 그래픽 데이터 관리방법 및 그에 따른고밀도 광디스크
CN100473133C (zh) * 2004-02-10 2009-03-25 Lg电子株式会社 再现文本字幕的方法和文本字幕解码***
CN101478661A (zh) * 2008-11-04 2009-07-08 深圳中兴力维技术有限公司 一种在视频流中提供高质量字幕叠加的***和方法
KR20110053160A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 비디오 부가 재생 정보의 3차원 깊이감 조절을 위한 멀티미디어 스트림 생성 방법과 그 장치, 및 수신 방법과 그 장치
KR20110115103A (ko) * 2010-04-14 2011-10-20 삼성전자주식회사 디지털 자막 방송을 위한 방송 비트스트림을 생성하는 방법 및 그 장치, 디지털 자막 방송을 위한 방송 비트스트림을 수신하는 방법 및 그 장치
JP5685969B2 (ja) 2011-02-15 2015-03-18 ソニー株式会社 表示制御方法、表示制御装置
JP2013021415A (ja) * 2011-07-07 2013-01-31 Sony Corp 送信装置、送信方法および受信装置
CN103688532B (zh) * 2011-07-29 2018-05-04 索尼公司 流式传输分发装置和方法、流式传输接收装置和方法、流式传输***
RU2616552C2 (ru) * 2011-12-16 2017-04-17 Сони Корпорейшн Приемное устройство и способ управления им, устройство и способ распределения, программа и система распределения
CN103416069A (zh) * 2012-01-13 2013-11-27 索尼公司 发送设备、发送方法、接收设备以及接收方法
KR101781887B1 (ko) * 2014-02-23 2017-09-26 엘지전자 주식회사 방송 신호 송수신 방법 및 장치

Also Published As

Publication number Publication date
RU2017120055A (ru) 2018-12-10
EP3236659A1 (en) 2017-10-25
US10511867B2 (en) 2019-12-17
WO2016098790A1 (ja) 2016-06-23
RU2701172C2 (ru) 2019-09-25
US20170347137A1 (en) 2017-11-30
CN107005733A (zh) 2017-08-01
EP3236659B1 (en) 2020-11-04
CN107005733B (zh) 2020-06-16
RU2017120055A3 (ja) 2019-03-15
JPWO2016098790A1 (ja) 2017-09-28
EP3236659A4 (en) 2018-09-05

Similar Documents

Publication Publication Date Title
JP6724791B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP7176598B2 (ja) 送信方法
JP6825558B2 (ja) 送信装置、送信方法、再生装置および再生方法
JPWO2017159482A1 (ja) 送信装置、送信方法、受信装置および受信方法
US20200068247A1 (en) Reception apparatus, reception method, and transmission apparatus
US10511802B2 (en) Transmission device, transmission method, reproducing device and reproducing method
JP7026621B2 (ja) 送信装置、送信方法、受信装置および受信方法
WO2017126509A1 (ja) 送信装置、送信方法、受信装置および受信方法
JP6868776B2 (ja) 送信装置、送信方法、受信装置および受信方法
JPWO2018021107A1 (ja) 送信装置、送信方法、受信装置および受信方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R151 Written notification of patent or utility model registration

Ref document number: 6724791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151