JP6971059B2 - 再配信システム、再配信方法、およびプログラム - Google Patents
再配信システム、再配信方法、およびプログラム Download PDFInfo
- Publication number
- JP6971059B2 JP6971059B2 JP2017110376A JP2017110376A JP6971059B2 JP 6971059 B2 JP6971059 B2 JP 6971059B2 JP 2017110376 A JP2017110376 A JP 2017110376A JP 2017110376 A JP2017110376 A JP 2017110376A JP 6971059 B2 JP6971059 B2 JP 6971059B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- package
- unit
- voice
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
そのために、元のコンテンツをまずベースバンド信号(非圧縮信号)の状態にして再生し、コンテンツを付加する必要があった。また、そのため、元のコンテンツを伝送するためにベースバンド信号(非圧縮信号)もしく高いビットレートでエンコードされた高解像度な映像を含む信号を伝送する必要があり、広帯域で安定した回線、即ち高コストな通信回線を必要としていた。また、そのようなシステムを構成するためには、多段の工程を必要とし、即ち多くの高価な機材等を必要としていた。特に、複数の拠点から従来技術を用いて同時にコンテンツを配信できるようにすることは、費用面において困難であった。
図1は、本実施形態による再配信システム(再配信装置)の概略機能構成と、同システムにおけるコンテンツデータの流れとを示す概略図である。図示するように、再配信システム1は、受信部120と、編集部140と、統合部160と、配信部180とを含んで構成される。
受信部120は、受信したコンテンツであるC(1)からC(m+n)を、統合部160に渡す。また、受信部120は、受信したコンテンツのうちのC(m+1)からC(m+n)を、編集部140に渡す。
なお、統合部160が、受信部120から渡されたコンテンツであるC(1)からC(m+n)までの全部ではなく、それらの一部のみを、C(m+n+1)からC(m+n+k)までと統合するようにしてもよい。この場合、C(1)からC(m+n)のうちのいずれをC(m+n+1)からC(m+n+k)までと統合するかは、適宜、定められる。
つまり、統合部160は、受信部120が受信した第1パッケージに含まれるコンテンツのうちの少なくとも一部のコンテンツと、編集部140によって生成された新たなコンテンツとを、一つの第2パッケージとして統合して出力する。
クライアント装置3は、再配信システム1が送出するコンテンツ(再配信されるコンテンツ)を受信する。クライアント装置3は、例えば、パーソナルコンピューター(PC)や、スマートフォン(スマホ)や、腕時計型の情報端末や、メガネ型の情報端末や、その他の情報機器等を用いて実現される。クライアント装置3は、例えば、ウェブブラウザーの機能を備えており、ウェブブラウザーがHTTPクライアントとして機能する。これにより、再配信システム1からHLSで再配信されるコンテンツが視聴可能となる。
次に、第2実施形態について説明する。なお、前実施形態において既に説明した事項については以下において説明を省略する場合がある。ここでは、本実施形態に特有の事項を中心に説明する。
一例として、アナウンサーや解説者らが、編集部240で再生されるコンテンツ(映像および音声A)を視聴しながら、実況あるいは解説等を行う。つまり、アナウンサーや解説者らは、自身の声をマイクロホン等に向けて発し、その声を含む音声Bのコンテンツを編集部240が生成する。このように、デコードされた第1音声を再生して、アナウンサーや解説者らがその第1音声をリアルタイムで聞きながら自身の声を発する場合には、音声を処理するための遅延時間が生じないか、その遅延時間は無視できるほどに小さい。よって、第1音声と新たな音声とは、適切なタイミングで混合され、音声Bが生成される。
なお、他の方法によって音声Bを作成してもよい。その場合、音声Bの作成にあたっては、必要に応じて、第1音声と別の音声(アナウンサーや解説者らが発する声)とのタイミングが整合するように、タイミング合わせのための適切な処理を行ってもよい。
なお、コンピューターを用いて、編集部240を実現することも可能である。一例として、パーソナルコンピューターやスマートフォン(スマホ)などの、個人用の情報機器などを用いて、編集部240を実現することも可能である。
なお、統合部260が、受信部220から渡されたコンテンツの全部(映像と音声A)ではなく、それらの一部のみを、編集部240から渡されるコンテンツ(音声B)と統合するようにしてもよい。その場合、例えば、統合部260は、受信部220から渡される映像、および編集部240から渡される音声Bだけを統合してもよい。また、例えば、受信部220から渡される音声A、および編集部240から渡される音声Bだけを統合してもよい。これらのいずれの場合にも、統合部260は、コンテンツを統合する際、受信部220が受信したコンテンツと、編集部240から渡されたコンテンツとの間で、タイミングが相互に整合するように調整する。
つまり、統合部260は、受信部220が受信した第1パッケージに含まれるコンテンツのうちの少なくとも一部のコンテンツと、編集部240によって生成された新たなコンテンツとを、一つの第2パッケージとして統合して出力する。
なお、統合部260に依るタイミングの調整およびレベルの調整の処理は、自動的に行われる。統合部260がタイミングを調整する方法の詳細については、後で述べる。
図5は、本実施形態において受信部220が受信するストリーミング配信データの構成例を示す概略図である。図示するように、配信サーバー装置2側から配信されるデータは、階層構造で構成されている。同図では、最も左側が最上位の階層、真中が中間の階層、最も右側が最下位の階層を表している。最上位の階層では、1個のインデックスファイルが存在しており、そのファイル名は「IndexFile.m3u8」である。このインデックスファイル「IndexFile.m3u8」は、下位層(中間の階層)の別の3種類のインデックスファイルの所在の情報(ファイル名、パス名等)を保持している。それらの3種類のインデックスファイルは、「Alternate−LowIndex」と、「Alternate−MidIndex」と、「Alternate−HiIndex」とである。これらの3種類のインデックスファイルは、適宜、確保可能な通信帯域幅に応じて使い分けることができる。例えば、配信を受けるクライアント装置側のユーザーが、低帯域幅、中帯域幅、高帯域幅の3種類の中から一つを指定できるようにする。「Alternate−LowIndex」と、「Alternate−MidIndex」と、「Alternate−HiIndex」のそれぞれは、所定時間長(例えば、6秒など)ごとの動画ファイルの所在情報のリストを保持している。一例として、インデックスファイル「Alternate−LowIndex」は、「Low_01.ts」と、「Low_02.ts」と、「Low_03.ts」と、「Low_04.ts」との4つの動画ファイルの所在の情報を保持している。なお、「Low_01.ts」と、「Low_02.ts」と、「Low_03.ts」と、「Low_04.ts」とは、順次再生されるべき動画ファイルである。なお、インデックスファイル「Alternate−LowIndex」は、4個に限らず、任意の数の動画ファイルの所在情報を持つことができる。ここではインデックスファイル「Alternate−LowIndex」を例として説明したが、「Alternate−MidIndex」と「Alternate−HiIndex」のそれぞれもまた、帯域幅に応じた動画ファイルの所在情報を保持する。
一方、音声(音声A)を独立のファイルとして配信サーバー装置2側から配信し、受信部220がその音声ファイルをも受信するようにしてもよい。この場合、音声は、適切な長さに分割されて、時間の経過に沿った複数のファイルとして配信される。また、それらの音声ファイルは、動画ファイルをインデックスしているのと同一のインデックスファイルによってインデックスされている。
元の配信サーバー装置2から配信される音声Aが、配信される動画ファイル内にしか存在しない場合には、統合部260は、それらの動画ファイルから音声を抽出して音声ファイルを生成する。そして、統合部260は、生成された音声ファイルを、「original」によってインデックスされる音声ファイルとして出力すればよい。
第2行目と第3行目は、音声のコンテンツに関する情報を保持する。第2行目と第3行目は、ともに「TYPE=AUDIO」という記述を含んでおり、これは、第2行目と第3行目がそれぞれ音声のコンテンツのインデックスであることを示す。また、第2行目と第3行目は、ともに「GROUP−ID=”audio”」という記述を含んでおり、これは、第2行目と第3行目がともに「audio」という識別情報によって識別されるグループに属することを示す。
これらのうち、第2行目は、「NAME=”mixed”」という記述を含んでおり、これは、混合音声であること、即ち編集部240において付加音声が付加されたもの(つまり、音声B)であることを示すものである。また、第2行目は、「DEFAULT=YES」という記述を含んでおり、これは、デフォルトの音声であることを示している。また、第2行目は、当該音声に関する下位のインデックスファイルの所在情報を保持している。「URI=”mixed/playlist.m3u8”」という記述がその所在情報にあたる。
一方で、第3行目は、「NAME=”original”」という記述を含んでおり、これは、混合される前のオリジナルの音声であることを示している。即ち、付加音声が付加されていない、受信部220が受信した音声(音声A)であることを示すものである。また、第3行目は、「DEFAULT=NO」という記述を含んでおり、これは、デフォルトの音声ではないことを示している。また、第3行目は、当該音声に関する下位のインデックスファイルの所在情報を保持している。「URI=”original/playlist.m3u8”」という記述がその所在情報にあたる。
第5行目および第6行目は、第1の映像のインデックスの情報を保持する。第1の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「545600」(単位は、ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.66.30」と「mp4a.40.2」である。また、この映像の解像度は「480x270」である。また、この映像のインデックスファイルは、「stream1/playlist.m3u8」である。
第7行目および第8行目は、第2の映像のインデックスの情報を保持する。第2の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「765600」(ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.66.30」と「mp4a.40.2」である。また、この映像の解像度は「640x360」である。また、この映像のインデックスファイルは、「stream2/playlist.m3u8」である。
第9行目および第10行目は、第3の映像のインデックスの情報を保持する。第3の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「1425600」(ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.42c01f」と「mp4a.40.2」である。また、この映像の解像度は「640x360」である。また、この映像のインデックスファイルは、「stream3/playlist.m3u8」である。
第13行目および第14行目は、第5の映像のインデックスの情報を保持する。第5の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「5640800」(ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.4d401f」と「mp4a.40.2」である。また、この映像の解像度は「1280x720」である。また、この映像のインデックスファイルは、「stream5/playlist.m3u8」である。
第15行目および第16行目は、第6の映像のインデックスの情報を保持する。第6の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「7290800」(ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.4d401f」と「mp4a.40.2」である。また、この映像の解像度は「1280x720」である。また、この映像のインデックスファイルは、「stream6/playlist.m3u8」である。
)は「30.000」と定義されている。また、第1の映像から第6の映像までの映像に関してすべて「AUDIO=”audio”」という記述が含まれている。これは、各映像に関連付けられる音声のコンテンツは、”audio”というグループIDで識別されるものであることを表す。つまり、各映像に関連付けられる音声のコンテンツは、第2行目または第3行目で定義されているものである。
第2行目は、ファイル形式のバージョン情報である。具体的には、このファイル形式のバージョンが「3」であることを示している。
第3行目の「#EXT-X-TARGETDURATION」は、次に追加される予定のメディアファイルの予測時間長を示すものである。本データの例では、予測時間長は6秒である。
第4行目の「#EXT-X-MEDIA-SEQUENCE」は、本インデックスファイルが含む最初のメディアファイルのシーケンス番号を表す。本データ例では、最初のシーケンス番号は「417554」(第8行目で指定されているファイルのファイル名に、この番号が含まれている)である。
第5行目の「#EXT-X-DISCONTINUITY-SEQUENCE」については、説明を省略する。
第6行目の「#EXT-X-PROGRAM-DATE-TIME」は、参照されるメディアファイルを、日時に関連付ける。本データ例では、最初のメディアファイルは「2017-05-11T16:19:02.866+09:00」(年月日・時分秒および千分の一秒の表記)で示される日時(世界標準時から9時間先行する時間帯における日時)に関連付けられる。
第7行目の「#EXTINF」は、この組に対応するメディアセグメントの長さを表す。具体的には、その長さは6.000秒であることが指定されている。なお、「6.000」に後続するコンマの次には、タイトルを指定可能であるが、本データではタイトルの記述が省略されている。
第8行目は、この組のメディアファイル(ここでは、混合音声(音声B)の音声ファイル)のファイル名を記述している。本データでは、具体的には、「test2_270_417554.ts」である。
次に、第2実施形態の変形例について説明する。この変形例の基本的な構成は、第2実施形態におけるそれと同一であるが、統合部260が音声Aと音声Bとの間のタイミングを合わせる方法の部分が第2実施形態とは異なる。
また、ここでは相互相関値を用いて音声Aと音声Bのタイミングを合わせる方法を例として挙げたが、統合部260が他の方法によって両者のタイミングを合わせるようにしてもよい。例えば、音声Aと音声Bの信号波形を、画像処理によって比較し、両者の波形の一致度が最も高くなるずれ量Δtを求めてもよい。
次に、第3実施形態について説明する。なお、前実施形態以前において既に説明した事項については以下において説明を省略する場合がある。ここでは、本実施形態に特有の事項を中心に説明する。
なお、音声認識エンジン自体には、既存の技術を適用することができる。音声認識エンジンは、基本的な処理として、入力される音声の音響的特徴を抽出し、必要に応じて言語としての特徴を考慮に入れながら、統計的に確からしい文字列を音声認識結果のテキストとして出力するものである。
次に、第3実施形態の変形例1について説明する。この変形例の基本的な構成は、第2実施形態におけるそれと同一であるが、統合部360が、さらに言語翻訳を行う点が、特徴的な構成である。
次に、第3実施形態の変形例2について説明する。この変形例の基本的な構成は、第2実施形態におけるそれと同一であるが、統合部360が、さらに手話への翻訳を行う点が、特徴的な構成である。
なお、言語翻訳の機能自体には、既存の技術を適用すれば良い。
2 配信サーバー装置
3 クライアント装置
11,12 再配信システム(再配信装置)
120 受信部
140 編集部
160 統合部
180 配信部
220 受信部
240 編集部
260 統合部
280 配信部
320 受信部
340 編集部
360 統合部
380 配信部
Claims (3)
- HTTPライブストリーミング(HLS)形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する受信部と、
前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する編集部と、
前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部のコンテンツと、前記編集部によって生成された前記新たなコンテンツとを、一つの第2パッケージとして統合して出力する統合部と、
前記統合部から出力される前記第2パッケージを再配信する配信部と、
を具備し、
前記受信部は、少なくとも1種類の映像のコンテンツと、少なくとも1種類の音声のコンテンツと、インデックスファイルとを含む前記第1パッケージを受信し、
前記編集部は、前記第1パッケージに含まれる少なくとも1種類の音声のコンテンツである第1音声を再生するとともに、前記第1音声と、前記第1音声に対応してマイクロホンで集音されて入力される別の音声とを重畳して得られる第2音声を生成して前記新たなコンテンツとして出力し、
前記統合部は、前記第1パッケージに含まれる前記映像のコンテンツおよび前記音声のコンテンツと、前記新たなコンテンツとの間で、再生のタイミングが整合するように統合して出力するものであり、
前記編集部は、前記第1パッケージに含まれるコンテンツが保持するタイミング情報であるプレゼンテーションタイムスタンプと、前記インデックスファイルに記述された再生時間の長さの情報とに基づいて、前記第1パッケージに含まれるコンテンツが保持していた前記プレゼンテーションタイムスタンプを整合するタイミング情報として前記新たなコンテンツに付与するとともに、前記インデックスファイルに記述されていた前記再生時間の長さに合わせた長さに分割した前記新たなコンテンツを生成するものであり、
前記統合部は、前記第1パッケージに含まれるコンテンツが保持する前記プレゼンテーションタイムスタンプおよび前記再生時間の長さと、前記新たなコンテンツに付与されたタイミング情報とおよびその再生時間の長さとが同一であることを確認して、前記第1パッケージに含まれるコンテンツと前記新たなコンテンツと前記新たなコンテンツの情報をも含む新たなインデックスファイルとを出力することによって、再生のタイミングが整合するようにする、
ことを特徴とする再配信システム。 - HTTPライブストリーミング(HLS)形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する受信過程、
前記受信過程で受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する編集過程、
前記受信過程で受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部のコンテンツと、前記編集過程において生成された前記新たなコンテンツとを、一つの第2パッケージとして統合して出力する統合過程、
前記統合過程で出力される前記第2パッケージを再配信する配信過程、
を含む再配信方法であって、
前記受信過程は、少なくとも1種類の映像のコンテンツと、少なくとも1種類の音声のコンテンツと、インデックスファイルとを含む前記第1パッケージを受信し、
前記編集過程は、前記第1パッケージに含まれる少なくとも1種類の音声のコンテンツである第1音声を再生するとともに、前記第1音声と、前記第1音声に対応してマイクロホンで集音されて入力される別の音声とを重畳して得られる第2音声を生成して前記新たなコンテンツとして出力し、
前記統合過程は、前記第1パッケージに含まれる前記映像のコンテンツおよび前記音声のコンテンツと、前記新たなコンテンツとの間で、再生のタイミングが整合するように統合して出力するものであり、
前記編集過程は、前記第1パッケージに含まれるコンテンツが保持するタイミング情報であるプレゼンテーションタイムスタンプと、前記インデックスファイルに記述された再生時間の長さの情報とに基づいて、前記第1パッケージに含まれるコンテンツが保持していた前記プレゼンテーションタイムスタンプを整合するタイミング情報として前記新たなコンテンツに付与するとともに、前記インデックスファイルに記述されていた前記再生時間の長さに合わせた長さに分割した前記新たなコンテンツを生成するものであり、
前記統合過程は、前記第1パッケージに含まれるコンテンツが保持する前記プレゼンテーションタイムスタンプおよび前記再生時間の長さと、前記新たなコンテンツに付与されたタイミング情報とおよびその再生時間の長さとが同一であることを確認して、前記第1パッケージに含まれるコンテンツと前記新たなコンテンツと前記新たなコンテンツの情報をも含む新たなインデックスファイルとを出力することによって、再生のタイミングが整合するようにする、
再配信方法。 - コンピューターを、
HTTPライブストリーミング(HLS)形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する受信部と、
前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する編集部と、
前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部のコンテンツと、前記編集部によって生成された前記新たなコンテンツとを、一つの第2パッケージとして統合して出力する統合部と、
前記統合部から出力される前記第2パッケージを再配信する配信部と、
を具備し、
前記受信部は、少なくとも1種類の映像のコンテンツと、少なくとも1種類の音声のコンテンツと、インデックスファイルとを含む前記第1パッケージを受信し、
前記編集部は、前記第1パッケージに含まれる少なくとも1種類の音声のコンテンツである第1音声を再生するとともに、前記第1音声と、前記第1音声に対応してマイクロホンで集音されて入力される別の音声とを重畳して得られる第2音声を生成して前記新たなコンテンツとして出力し、
前記統合部は、前記第1パッケージに含まれる前記映像のコンテンツおよび前記音声のコンテンツと、前記新たなコンテンツとの間で、再生のタイミングが整合するように統合して出力するものであり、
前記編集部は、前記第1パッケージに含まれるコンテンツが保持するタイミング情報であるプレゼンテーションタイムスタンプと、前記インデックスファイルに記述された再生時間の長さの情報とに基づいて、前記第1パッケージに含まれるコンテンツが保持していた前記プレゼンテーションタイムスタンプを整合するタイミング情報として前記新たなコンテンツに付与するとともに、前記インデックスファイルに記述されていた前記再生時間の長さに合わせた長さに分割した前記新たなコンテンツを生成するものであり、
前記統合部は、前記第1パッケージに含まれるコンテンツが保持する前記プレゼンテーションタイムスタンプおよび前記再生時間の長さと、前記新たなコンテンツに付与されたタイミング情報とおよびその再生時間の長さとが同一であることを確認して、前記第1パッケージに含まれるコンテンツと前記新たなコンテンツと前記新たなコンテンツの情報をも含む新たなインデックスファイルとを出力することによって、再生のタイミングが整合するようにする、
再配信システムとして機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017110376A JP6971059B2 (ja) | 2017-06-02 | 2017-06-02 | 再配信システム、再配信方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017110376A JP6971059B2 (ja) | 2017-06-02 | 2017-06-02 | 再配信システム、再配信方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018207288A JP2018207288A (ja) | 2018-12-27 |
JP6971059B2 true JP6971059B2 (ja) | 2021-11-24 |
Family
ID=64957599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017110376A Active JP6971059B2 (ja) | 2017-06-02 | 2017-06-02 | 再配信システム、再配信方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6971059B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11109107B2 (en) * | 2019-12-10 | 2021-08-31 | Tetsuro KIYOOKA | Video streaming playback system and method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3926910B2 (ja) * | 1997-12-09 | 2007-06-06 | 株式会社東芝 | 映像データ多重化装置 |
JP4153926B2 (ja) * | 2001-04-05 | 2008-09-24 | 松下電器産業株式会社 | データ放送番組ストリーム送出装置、データ放送番組ストリーム送出装置の制御方法及びプログラム並びに記録媒体 |
JP2005210196A (ja) * | 2004-01-20 | 2005-08-04 | Sony Corp | 情報処理装置、情報処理方法 |
JP2013135310A (ja) * | 2011-12-26 | 2013-07-08 | Sony Corp | 情報処理装置、情報処理方法、プログラム、記録媒体、及び、情報処理システム |
-
2017
- 2017-06-02 JP JP2017110376A patent/JP6971059B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018207288A (ja) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11218740B2 (en) | Decoder for decoding a media signal and encoder for encoding secondary media data comprising metadata or control data for primary media data | |
CN101981617B (zh) | 多对象音频信号的附加信息比特流产生方法和装置 | |
US20180165358A1 (en) | Information processing apparatus and information processing method | |
JP2016001913A (ja) | データ伝送方法及び装置 | |
JP6444016B1 (ja) | 送信装置および受信装置、ならびにプログラム | |
WO2016171002A1 (ja) | 送信装置、送信方法、受信装置および受信方法 | |
JP4718275B2 (ja) | 複数メディアの同期再生システム及び同期再生方法 | |
CN115767140A (zh) | 接收装置、接收方法及传输***中的传输单元 | |
KR20090115074A (ko) | 슈퍼 프레임을 이용하여 멀티채널 오디오 신호를 송수신하는 방법 및 장치 | |
US11197048B2 (en) | Transmission device, transmission method, reception device, and reception method | |
JP6948934B2 (ja) | コンテンツ加工システム、端末装置、およびプログラム | |
JP6971059B2 (ja) | 再配信システム、再配信方法、およびプログラム | |
JP2021197584A (ja) | 多重信号変換装置及びそのプログラム、並びに、受信機 | |
CN112188256A (zh) | 信息处理方法、信息提供方法、装置、电子设备及存储介质 | |
JP4680444B2 (ja) | 蓄積型データ放送システム | |
US11665392B2 (en) | Methods and systems for selective playback and attenuation of audio based on user preference | |
Kato et al. | A location-free commentary adding system for live streaming using a cloud infrastructure | |
KR100513795B1 (ko) | 시스템 타임 클럭을 이용한 동기화 이벤트 서비스를제공하는 디지털 데이터 방송 송/수신 장치 및 그 방법 | |
JPWO2016047475A1 (ja) | 情報処理装置および情報処理方法 | |
JP2022098735A (ja) | 字幕生成装置及び字幕生成プログラム | |
JP2016166975A (ja) | 送信装置、受信装置およびプログラム | |
KR20120058373A (ko) | Svc 서버를 이용한 http 스트리밍 수신 비디오 전송 및 단말 재생 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210224 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6971059 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |