JP6971059B2 - 再配信システム、再配信方法、およびプログラム - Google Patents

再配信システム、再配信方法、およびプログラム Download PDF

Info

Publication number
JP6971059B2
JP6971059B2 JP2017110376A JP2017110376A JP6971059B2 JP 6971059 B2 JP6971059 B2 JP 6971059B2 JP 2017110376 A JP2017110376 A JP 2017110376A JP 2017110376 A JP2017110376 A JP 2017110376A JP 6971059 B2 JP6971059 B2 JP 6971059B2
Authority
JP
Japan
Prior art keywords
content
package
unit
voice
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017110376A
Other languages
English (en)
Other versions
JP2018207288A (ja
Inventor
成暁 加藤
宗 遠藤
秋継 馬場
清彦 石川
裕紀 藤井
英樹 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2017110376A priority Critical patent/JP6971059B2/ja
Publication of JP2018207288A publication Critical patent/JP2018207288A/ja
Application granted granted Critical
Publication of JP6971059B2 publication Critical patent/JP6971059B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、再配信システム、再配信方法、およびプログラムに関する。
インターネット等の通信回線を用いて様々なコンテンツ(映像や音声など)をリアルタイムに配信(ストリーミング)する技術が普及してきている。インターネットを利用した映像や音声等の配信は、比較的低コストの設備や、相対的に低い情報伝送コストで実現できるため、今後、ますます活用されていくことが予想されている。
ところで、例えば、第1の事業者によって制作されたコンテンツを、第2の事業者が受信して再配信する場合に、コンテンツを付加する場合がある。典型的な例では、特定の地域向けあるいは特定の言語圏向けにコンテンツを再配信するときに、その地域ないしは言語等に特有のコンテンツを付加することが望まれることがある。そのような場合、従来の技術では、まず第1の事業者が制作したコンテンツ(例えば、映像および音声)を第2の事業者向けに伝送する。そして、第2の事業者は、付加すべきコンテンツ(例えば、特定言語による解説音声や、特定地域向けの解説音声)を付加した後、インターネット配信用の形式にエンコードしていた。
従来技術によるこのような方法では、第2の事業者がコンテンツを加工し、配信しやすくするため、高品質なコンテンツを専用線などを使用した伝送が必要で、第2の事業者がコンテンツ(上記の音声)を付加するために、多くの機材および工程を要していた。
具体的には、従来技術を用いた場合、第1の事業者から伝送された映像および音声をデコーダーによりデコードし、映像と音声とをDeMUX(デマルチプレクサー)で分離した後、元の音声に付加すべき音声を付加していた。そして、元の映像と付加された音声とをエンコーダーを用いてエンコードし、映像と音声を再びMUX(マルチプレクサー)で結合することでインターネット配信用の形式にエンコードしていた。
例えば、非特許文献1には、大規模なスポーツイベントに関して、放送事業者が、インターネット経由で全競技・全種目の映像を実際にライブストリーミングで配信した際のシステム構成が記載されている。この文献によれば、イベントが開催されている現地都市のセンター(ブラジル)から、国際回線を用いて、IPVandAのSD画質の映像リソースが、東京の放送センターまで伝送された。なお、SD画質の映像は、約2.5Mbpsのビットレートによるものである。そして、その放送センターにおいて、IPVandAの映像をより低ビットレートの映像にコーディングし直して、インターネット経由での配信が行われた。また、一部の競技の映像に関しては、上記の放送センター内に簡易の音声ブースを構築し、ネット配信独自の解説・実況の音声を付加して配信することが行われた。
島西顕司,遠藤宗,小久保幸紀,折下伸也,坂井駿一,前田彩、「リオデジャネイロオリンピック デジタルコンテンツ制作について」、放送技術、2016年11月、p.104−106.
従来技術において、コンテンツを付加して再配信する際に、元のコンテンツの少なくとも一部を再生する必要がある。また、元のコンテンツと、付加されるコンテンツとの間のタイミングを合わせて、再配信する必要がある。
そのために、元のコンテンツをまずベースバンド信号(非圧縮信号)の状態にして再生し、コンテンツを付加する必要があった。また、そのため、元のコンテンツを伝送するためにベースバンド信号(非圧縮信号)もしく高いビットレートでエンコードされた高解像度な映像を含む信号を伝送する必要があり、広帯域で安定した回線、即ち高コストな通信回線を必要としていた。また、そのようなシステムを構成するためには、多段の工程を必要とし、即ち多くの高価な機材等を必要としていた。特に、複数の拠点から従来技術を用いて同時にコンテンツを配信できるようにすることは、費用面において困難であった。
本発明は、上記の課題認識に基づいて行なわれたものであり、元のコンテンツを受信し、新たなコンテンツを付加し、それらをまとめて再配信する際に、伝送のコストや機材のコストを低くすることのできる、再配信システム、再配信方法、およびプログラムを提供しようとするものである。
[1]上記の課題を解決するため、本発明の一態様による再配信システムは、HTTPストリーミング形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する受信部と、前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する編集部と、前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部のコンテンツと、前記編集部によって生成された前記新たなコンテンツとを、一つの第2パッケージとして統合して出力する統合部と、前記統合部から出力される前記第2パッケージを再配信する配信部と、を具備することを特徴とする。
[2]また、本発明の一態様は、上記の再配信システムにおいて、前記受信部は、少なくとも1種類の映像のコンテンツと、少なくとも1種類の音声のコンテンツとを含む前記第1パッケージを受信し、前記編集部は、前記第1パッケージに含まれる少なくとも1種類の音声のコンテンツである第1音声を再生するとともに、前記第1音声と、前記第1音声に対応して入力される別の音声とを重畳して得られる第2音声を生成して前記新たなコンテンツとして出力し、前記統合部は、前記第1パッケージに含まれる前記映像のコンテンツおよび前記音声のコンテンツと、前記新たなコンテンツとの間で、再生のタイミングが整合するように統合して出力する、ことを特徴とする。
[3]また、本発明の一態様は、上記の再配信システムにおいて、前記編集部は、前記第1パッケージに含まれるコンテンツが保持するタイミング情報に基づいて、整合するタイミング情報を前記新たなコンテンツに付与するものであり、前記統合部は、前記第1パッケージに含まれるコンテンツが保持するタイミング情報と前記新たなコンテンツに付与されたタイミング情報とに基づいて、再生のタイミングが整合するようにする、ことを特徴とする。
[4]また、本発明の一態様は、上記の再配信システムにおいて、前記統合部は、前記第1音声の波形と前記第2音声の波形との類似性に基づいて、前記第1音声のコンテンツを含む前記第1パッケージのコンテンツと、前記新たなコンテンツである前記第2音声との、いずれか一方を時間方向に移動させることによって、再生のタイミングが整合するように統合して出力する、ことを特徴とする。
[5]また、本発明の一態様は、上記の再配信システムにおいて、前記受信部は、少なくとも1種類の音声のコンテンツを含む前記第1パッケージを受信し、前記編集部は、前記第1パッケージに含まれる少なくとも1種類の音声のコンテンツの音声認識処理を行うことによって前記音声のコンテンツに対応する字幕テキストのコンテンツを前記新たなコンテンツとして生成し、前記統合部は、前記音声のコンテンツに含まれる音声信号と生成された前記字幕テキストとの間の時間方向の対応関係に基づいて、前記音声のコンテンツの再生のタイミングと前記字幕テキストの提示のタイミングが整合するように統合して出力する、ことを特徴とする。
[6]また、本発明の一態様は、HTTPストリーミング形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する受信過程、前記受信過程で受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する編集過程、前記受信過程で受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部のコンテンツと、前記編集過程において生成された前記新たなコンテンツとを、一つの第2パッケージとして統合して出力する統合過程、前記統合過程で出力される前記第2パッケージを再配信する配信過程、を含むことを特徴とする再配信方法である。
[7]また、本発明の一態様は、コンピューターを、HTTPストリーミング形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する受信部と、前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する編集部と、前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部のコンテンツと、前記編集部によって生成された前記新たなコンテンツとを、一つの第2パッケージとして統合して出力する統合部と、前記統合部から出力される前記第2パッケージを再配信する配信部と、を具備する再配信システムとして機能させるためのプログラムである。
本発明によれば、低い伝送コスト、低い機器コストで、ストリーミング形式のコンテンツに新たなコンテンツを付加したうえで再配信することが可能となる。
本発明の第1実施形態による再配信システム(再配信装置)の概略機能構成と、同システムにおけるコンテンツデータの流れとを示す概略図である。 同実施形態による再配信システムを含む、システム全体の構成例を示すブロック図である。 第2実施形態による再配信システム(再配信装置)の概略機能構成と、同システムにおけるコンテンツデータの流れとを示す概略図である。 同実施形態において、配信サーバー装置から配信されたコンテンツを再配信システムが再配信する際のコンテンツの流れを示す概略図である。 同実施形態において配信サーバー装置側からストリーミング配信されるデータの構成例を示す概略図である。 同実施形態において再配信システムからストリーミング配信されるデータの構成例を示す概略図である。 同実施形態において用いられる最上位層のインデックスファイルの構成例を示す概略図である。 同実施形態において用いられる、相対的に下位層のインデックスファイルの構成例を示す概略図である。 第3実施形態による再配信システム(再配信装置)の概略機能構成と、同システムにおけるコンテンツデータの流れとを示す概略図である。
[第1実施形態]
図1は、本実施形態による再配信システム(再配信装置)の概略機能構成と、同システムにおけるコンテンツデータの流れとを示す概略図である。図示するように、再配信システム1は、受信部120と、編集部140と、統合部160と、配信部180とを含んで構成される。
再配信システム1は、例えば外部の配信サーバーからHTTPストリーミング等で配信されるコンテンツを受信する。なお、HTTPは、ハイパーテキスト転送プロトコル(HyperText Transfer Protocol)の略である。再配信システム1が受信するコンテンツは、例えば、映像や音声やテキストなど、複数の種類のコンテンツを含んでいる。また、再配信システム1が受信するコンテンツは、例えば、複数の映像のコンテンツや、複数の音声のコンテンツ等を含んできてもよい。そして、再配信システム1は、受信したコンテンツの少なくとも一部に基づく新たなコンテンツを生成する。そして、再配信システム1は、受信した元のコンテンツと、生成した新たなコンテンツとを、まとめて1つのコンテンツのパッケージとして、再配信するものである。
受信部120は、例えばHTTPストリーミング形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する。受信部120は、複数の種類のコンテンツを受信してもよい。図示する例では、C(1)からC(m+n)までの(m+n)種類のコンテンツを含んだパッケージを受信する。なお、ここで、mは0以上の整数であり、nは1以上の整数である。なお、受信部120は、例えばHLSによりこれらのコンテンツを受信する。HLSは、「HTTPライブストリーミング」(HTTP Live Streaming)の略であり、インターネット等を介して映像等をストリーミング配信する方法(プロトコル)として知られる。
受信部120は、受信したコンテンツであるC(1)からC(m+n)を、統合部160に渡す。また、受信部120は、受信したコンテンツのうちのC(m+1)からC(m+n)を、編集部140に渡す。
編集部140は、受信部120が受信した第1パッケージに含まれるコンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する。より具体的には、編集部140は、受信部120が受信したコンテンツのうちのC(m+1)からC(m+n)までのn種類のコンテンツを、受信部120から受け取る。そして、編集部140は、受け取ったコンテンツであるC(m+1)からC(m+n)までに基づいて、これらのコンテンツに関連する新たなコンテンツを生成する。編集部140が生成する新たなコンテンツは、C(m+n+1)からC(m+n+k)までのk種類のコンテンツである。ただし、kは、1以上の整数である。編集部140が受け取るコンテンツであるC(m+1)からC(m+n)までと、編集部が生成するコンテンツであるC(m++n+1)からC(m+n+k)までとの関係は様々であるが、両者はコンテンツとして関係を有している。また、両者は、相互に関連するものであるので、その再生等(より一般的には、提示)においてタイミングを合わせるべきものである。編集部140は、生成したコンテンツを、統合部160に渡す。
統合部160は、受信部120が受信した第1パッケージに含まれるコンテンツと、編集部140によって生成された新たなコンテンツとを、一つの第2パッケージとして統合して出力する。統合部160は、受信部120から渡されたコンテンツであるC(1)からC(m+n)までと、編集部140から渡されたコンテンツであるC(m+n+1)からC(m+n+k)までとを統合する。なお、統合部160は、エンコードされたままの状態でC(1)からC(m+n)までを受け取り、そのままコンテンツであるC(m+n+1)からC(m+n+k)までとの統合を行う。そして、統合部160は、これらのコンテンツの全体を一つのパッケージとして、配信部180に渡す。なお、このとき、統合部160は、受信部120から渡されたコンテンツと編集部140から渡されたコンテンツとの間で、再生のタイミングが整合するように統合する。
なお、統合部160が、受信部120から渡されたコンテンツであるC(1)からC(m+n)までの全部ではなく、それらの一部のみを、C(m+n+1)からC(m+n+k)までと統合するようにしてもよい。この場合、C(1)からC(m+n)のうちのいずれをC(m+n+1)からC(m+n+k)までと統合するかは、適宜、定められる。
つまり、統合部160は、受信部120が受信した第1パッケージに含まれるコンテンツのうちの少なくとも一部のコンテンツと、編集部140によって生成された新たなコンテンツとを、一つの第2パッケージとして統合して出力する。
配信部180は、統合部160から渡されたコンテンツ(第2パッケージ)を、再配信する。
図2は、再配信システム1を含む、システム全体の構成例を示すブロック図である。図示するように、本システムは、配信サーバー装置2と、再配信システム1と、クライアント装置3とを含んで構成される。再配信システム1は、インターネット等の通信回線を介して、配信サーバー装置2およびクライアント装置3と接続されている。なお、この図においては、1台のクライアント装置3のみを示しているが、実際には多数のクライアント装置3が再配信システム1に接続されていてもよい。再配信システム1が受信部120と編集部140と統合部160と配信部180とを含んで構成される点は、図1を参照しながら説明した通りである。
配信サーバー装置2は、オリジナルのコンテンツを配信するサーバーコンピューターである。配信サーバー装置2が配信するコンテンツは、例えば、映像と音声とで構成されるコンテンツである。なお、配信サーバー装置2は、コンテンツの配信には、例えば、前述のHLSを用いる。
クライアント装置3は、再配信システム1が送出するコンテンツ(再配信されるコンテンツ)を受信する。クライアント装置3は、例えば、パーソナルコンピューター(PC)や、スマートフォン(スマホ)や、腕時計型の情報端末や、メガネ型の情報端末や、その他の情報機器等を用いて実現される。クライアント装置3は、例えば、ウェブブラウザーの機能を備えており、ウェブブラウザーがHTTPクライアントとして機能する。これにより、再配信システム1からHLSで再配信されるコンテンツが視聴可能となる。
本実施形態の構成によれば、ベースバンド信号(非圧縮信号)によるコンテンツを受信することなく、ストリーミング形式で受信したコンテンツに関連する新たなコンテンツを付加したうえで、コンテンツの再配信を実現することが可能となる。つまり、工程や機材等を大幅に削減できるため、安価に再配信システムを実現することが可能となる。
[第2実施形態]
次に、第2実施形態について説明する。なお、前実施形態において既に説明した事項については以下において説明を省略する場合がある。ここでは、本実施形態に特有の事項を中心に説明する。
図3は、本実施形態による再配信システム(再配信装置)の概略機能構成と、同システムにおけるコンテンツデータの流れとを示す概略図である。図示するように、再配信システム11は、受信部220と、編集部240と、統合部260と、配信部280とを含んで構成される。
再配信システム11は、映像および音声のコンテンツ(「音声A」と呼ぶ)を受信し、受信した音声のコンテンツに基づく別の音声のコンテンツ(「音声B」と呼ぶ)を生成し、受信した元のコンテンツ(音声Aをも含む)と、生成した音声のコンテンツ(音声B)とを統合したコンテンツを、再配信するものである。
受信部220は、少なくとも1種類の映像のコンテンツと、少なくとも1種類の音声のコンテンツとを含む第1パッケージを受信する。具体的には、受信部220は、インターネット等の通信回線を介して配信されるストリーミング映像および音声(「音声A」と呼ぶ)のコンテンツを受信する。受信部220が受信する映像および音声Aは、エンコードされた状態で、例えば外部の配信サーバー等から送信されたものである。なお、一例として、受信専用のコンピューター装置などを用いて、受信部220を実現することが可能である。
編集部240は、第1パッケージに含まれる少なくとも1種類の音声のコンテンツである第1音声を再生するとともに、その第1音声と、その第1音声に対応して入力される別の音声とを重畳して得られる第2音声を生成して新たなコンテンツとして出力する。つまり、編集部240は、受信部220が外部から受信したコンテンツのうち、少なくとも音声Aのコンテンツを受け取り、再生する。なお、編集部240が、映像のコンテンツをも受け取って再生するようにしてもよい。そして、編集部240は、音声Aのコンテンツと、編集部240に接続されたマイクロホン等から集音された音声とを、音声の帯域において混合し、所定の符号化方式でエンコードして、新たな音声(「音声B」と呼ぶ)のコンテンツとして出力する。
一例として、アナウンサーや解説者らが、編集部240で再生されるコンテンツ(映像および音声A)を視聴しながら、実況あるいは解説等を行う。つまり、アナウンサーや解説者らは、自身の声をマイクロホン等に向けて発し、その声を含む音声Bのコンテンツを編集部240が生成する。このように、デコードされた第1音声を再生して、アナウンサーや解説者らがその第1音声をリアルタイムで聞きながら自身の声を発する場合には、音声を処理するための遅延時間が生じないか、その遅延時間は無視できるほどに小さい。よって、第1音声と新たな音声とは、適切なタイミングで混合され、音声Bが生成される。
なお、他の方法によって音声Bを作成してもよい。その場合、音声Bの作成にあたっては、必要に応じて、第1音声と別の音声(アナウンサーや解説者らが発する声)とのタイミングが整合するように、タイミング合わせのための適切な処理を行ってもよい。
なお、コンピューターを用いて、編集部240を実現することも可能である。一例として、パーソナルコンピューターやスマートフォン(スマホ)などの、個人用の情報機器などを用いて、編集部240を実現することも可能である。
統合部260は、第1パッケージに含まれる映像のコンテンツおよび音声のコンテンツと、上記の新たなコンテンツとの間で、再生のタイミングが整合するように統合して出力する。統合部260は、元々受信部220が受信したコンテンツ(映像と音声A)と、編集部240から渡されたコンテンツ(音声B)とを統合して、配信部280に渡す。統合部260は、これらのコンテンツを統合する際、受信部220が受信したコンテンツ(映像と音声A)と、編集部240から渡されたコンテンツ(音声B)との間で、タイミングが相互に整合するように調整する。また、統合部260は、受信部220から渡される音声Aと、編集部240から渡される音声Bとの間の、レベル調整を行う。なお、統合部260は、映像および音声Aを、エンコードされたままの状態で受信部220から受け取る。そして、そのままの状態で、音声Bとの統合を行う。
なお、統合部260が、受信部220から渡されたコンテンツの全部(映像と音声A)ではなく、それらの一部のみを、編集部240から渡されるコンテンツ(音声B)と統合するようにしてもよい。その場合、例えば、統合部260は、受信部220から渡される映像、および編集部240から渡される音声Bだけを統合してもよい。また、例えば、受信部220から渡される音声A、および編集部240から渡される音声Bだけを統合してもよい。これらのいずれの場合にも、統合部260は、コンテンツを統合する際、受信部220が受信したコンテンツと、編集部240から渡されたコンテンツとの間で、タイミングが相互に整合するように調整する。
つまり、統合部260は、受信部220が受信した第1パッケージに含まれるコンテンツのうちの少なくとも一部のコンテンツと、編集部240によって生成された新たなコンテンツとを、一つの第2パッケージとして統合して出力する。
なお、統合部260に依るタイミングの調整およびレベルの調整の処理は、自動的に行われる。統合部260がタイミングを調整する方法の詳細については、後で述べる。
配信部280は、統合部260から出力されたコンテンツを、配信する。配信部280は、インターネット等を介して、コンテンツを配信する。
図4は、本実施形態において、配信サーバー装置から配信されたコンテンツを再配信システムが再配信する際のコンテンツの流れを示す概略図である。同図において、受信部220と編集部240と統合部260と配信部280とは、図3にも示した通り、再配信システム11を構成する装置(またはその一部の機能)である。また、再配信システム11を構成するこれらの機能と、配信サーバー装置2と、クライアント装置3とは、それぞれインターネットに接続されており相互に通信可能である。なお、通信のために、インターネット以外の手段を用いてもよい。なお、図4において、クライアント装置3を1台のみ示しているが、実際には、多数のクライアント装置3が配信部280からの配信を受けるようにしてよい。
図示するように、配信サーバー装置2は、映像および音声を含むコンテンツを、インターネット経由で配信する。コンテンツの配信には、例えば、前述のHLSを用いる。受信部220は、配信サーバー装置2から配信された上記コンテンツを受信する。受信部220は、受信したコンテンツである映像および音声(音声A)を、インターネット経由で、または他の回線等を経由して、統合部260に渡す。また、受信部220は、受信したコンテンツのうちの少なくとも音声Aを(必要に応じて映像をも)、インターネット経由で、または他の回線等を経由して、編集部240に渡す。編集部240は、受信部220から受信したコンテンツに基づいて、音声Aとは異なる音声コンテンツである音声Bを生成する。なお、音声B内に、音声Aが混合されていてもよい。典型的な適用例においては、音声Aはイベント等が行われている現地からの生中継音声であり、音声Bは、編集部240を用いるアナウンサーや解説者等が、音声Aに、マッチした発話を混合させたものである。編集部240は、音声Aを有するファイルに含まれるタイミング情報を参照し、音声Bに前記タイミング情報を付加してエンコードし、ファイルとして出力する。ここで、タイミング情報とは、例えばPTS(プレゼンテーションタイムスタンプ)である。さらに、編集部240は、音声Aと音声Bとの間で再生タイミングを一致させるためのメタデータ(音声Aと音声Bとの間で対応付けられるファイル名等のデータ)を生成する。そして、編集部240は、音声Bを、新たな音声のコンテンツとして統合部260に渡す。なお、編集部240は、この音声のコンテンツ(音声B)を統合部260に渡す際、インターネット経由で送信してもよいし、その他の回線等を経由して送信してもよい。
統合部260は、受信部220から受け取ったコンテンツと、編集部240から受け取ったコンテンツとを、再生タイミングを一致させるためのメタデータ(ファイル名の対応関係等のデータ)に基づいて統合する。統合部260が行う重要な処理の一つは、受信部220側からのコンテンツと編集部240側からのコンテンツとの間で、上記のメタデータ(ファイル名の対応関係等)に基づいてタイミングを合わせることである。つまり、統合部260がコンテンツ間での同期を取ることにより、編集部240で生成された音声Bのコンテンツは、受信部220側からの映像および音声(音声A)のそれぞれと、整合したタイミングで配信することが可能となる。統合部260は、タイミングを整合させる対象となる受信部220側からのコンテンツと編集部240側からのコンテンツの到達時刻が不一致となる場合を考慮し、コンテンツを蓄積するバッファ領域を備える。統合部260は、統合されたコンテンツを、配信部280に渡す。そして、配信部280は、統合部260から渡されたコンテンツの全体を、インターネット経由で配信する。コンテンツの配信には、例えば、前述のHLSを用いる。クライアント装置3は、配信部280から再配信されたコンテンツを受信し、デコードして再生する。なお、クライアント装置3は、映像のコンテンツを再生するとともに、適宜、音声Aあるいは音声Bのいずれか一方の音声のコンテンツを再生するようにしてよい。
次に、本実施形態において配信されるデータの形式等について説明する。
図5は、本実施形態において受信部220が受信するストリーミング配信データの構成例を示す概略図である。図示するように、配信サーバー装置2側から配信されるデータは、階層構造で構成されている。同図では、最も左側が最上位の階層、真中が中間の階層、最も右側が最下位の階層を表している。最上位の階層では、1個のインデックスファイルが存在しており、そのファイル名は「IndexFile.m3u8」である。このインデックスファイル「IndexFile.m3u8」は、下位層(中間の階層)の別の3種類のインデックスファイルの所在の情報(ファイル名、パス名等)を保持している。それらの3種類のインデックスファイルは、「Alternate−LowIndex」と、「Alternate−MidIndex」と、「Alternate−HiIndex」とである。これらの3種類のインデックスファイルは、適宜、確保可能な通信帯域幅に応じて使い分けることができる。例えば、配信を受けるクライアント装置側のユーザーが、低帯域幅、中帯域幅、高帯域幅の3種類の中から一つを指定できるようにする。「Alternate−LowIndex」と、「Alternate−MidIndex」と、「Alternate−HiIndex」のそれぞれは、所定時間長(例えば、6秒など)ごとの動画ファイルの所在情報のリストを保持している。一例として、インデックスファイル「Alternate−LowIndex」は、「Low_01.ts」と、「Low_02.ts」と、「Low_03.ts」と、「Low_04.ts」との4つの動画ファイルの所在の情報を保持している。なお、「Low_01.ts」と、「Low_02.ts」と、「Low_03.ts」と、「Low_04.ts」とは、順次再生されるべき動画ファイルである。なお、インデックスファイル「Alternate−LowIndex」は、4個に限らず、任意の数の動画ファイルの所在情報を持つことができる。ここではインデックスファイル「Alternate−LowIndex」を例として説明したが、「Alternate−MidIndex」と「Alternate−HiIndex」のそれぞれもまた、帯域幅に応じた動画ファイルの所在情報を保持する。
なお、図5に示すデータ構成の場合、音声(音声A)は、それぞれの動画ファイル(Low_01.tsや、Mid_01.tsや、Hi_01.tsなど)の中に含まれている。
一方、音声(音声A)を独立のファイルとして配信サーバー装置2側から配信し、受信部220がその音声ファイルをも受信するようにしてもよい。この場合、音声は、適切な長さに分割されて、時間の経過に沿った複数のファイルとして配信される。また、それらの音声ファイルは、動画ファイルをインデックスしているのと同一のインデックスファイルによってインデックスされている。
図6は、本実施形態において統合部260が出力し、配信部280が配信するストリーミング配信データの構成例を示す概略図である。図示するように、統合部280が配信するデータもまた、階層構造で構成されている。図5で説明したデータ構成と同様に、最も左側が最上位の階層、真中が中間の階層、最も右側が最下位の階層を表している。最上位の階層では、1個のインデックスファイルが存在しており、そのファイル名は「IndexFile.m3u8」である。このインデックスファイル「IndexFile.m3u8」は、下位層(中間の階層)の別の5種類のインデックスファイルの所在の情報(ファイル名、パス名等)を保持している。それらの5種類のインデックスファイルは、「Alternate−LowIndex」と、「Alternate−MidIndex」と、「Alternate−HiIndex」と、「mixed」と、「original」とである。
このうち、「Alternate−LowIndex」と、「Alternate−MidIndex」と、「Alternate−HiIndex」との3種類は、図5で説明したデータ構成と同様、動画のファイルに関するインデックスである。これらの3種類のインデックスファイルの下位の動画ファイルも図5で説明したデータ構成と同様のものである。
また、中間階層の上記5種類のインデックスファイルのうち、「mixed」と、「original」との2種類は、それぞれ、音声のファイルをインデックスする。「mixed」と「original」とのそれぞれは、所定時間長(例えば、6秒など)ごとの音声ファイルの所在情報のリストを保持している。一例として、インデックスファイル「mixed」は、「mixed_01.ts」と、「mixed_02.ts」と、「mixed_03.ts」と、「mixed_04.ts」との4つの音声ファイルの所在の情報を保持している。なお、「mixed_01.ts」と、「mixed_02.ts」と、「mixed_03.ts」と、「mixed_04.ts」とは、順次再生されるべき音声ファイルである。なお、インデックスファイル「mixed」は、4個に限らず、任意の数の音声ファイルの所在情報を持つことができる。「mixed」と全く同様に、「original」も、所定時間長(例えば、6秒など)ごとの別の音声ファイルの所在情報のリストを保持している。つまり、「original」は、「original_01.ts」と、「original_02.ts」と、「original_03.ts」と、「original_04.ts」との4つの、順次再生されるべき音声ファイルの所在の情報を保持する。
なお、上記のインデックスファイル「mixed」がインデックスする音声ファイル(mixed_01.tsなど)は、編集部240によって出力される音声(音声B)を含むものである。また、インデックスファイル「original」がインデックスする音声フィアル(original_01.tsなど)は、受信部220が配信サーバー装置2側から受信したオリジナルの音声(音声A)を含むものである。
元の配信サーバー装置2から音声Aの独立のファイルが配信される場合には、統合部260は、そのファイルをそのまま「original」によってインデックスされる音声ファイルとして出力すればよい。
元の配信サーバー装置2から配信される音声Aが、配信される動画ファイル内にしか存在しない場合には、統合部260は、それらの動画ファイルから音声を抽出して音声ファイルを生成する。そして、統合部260は、生成された音声ファイルを、「original」によってインデックスされる音声ファイルとして出力すればよい。
図7は、本実施形態が用いるインデックスファイルの構成例を示す概略図である。なお、ここに例示するファイルは、階層構造における最上位のインデックスファイルである。このインデックスファイルのファイル名は「playlist.m3u8」である。図示するように、インデックスファイル「playlist.m3u8」は、拡張M3U形式のファイルであり、その内部にはインデックス情報を表すテキストを含んでいる。なお、図7において、便宜的にテキストの各行に対応する行番号を付している。以下、インデックスファイル「playlist.m3u8」の内容を説明する。
第1行目は、当ファイルが拡張M3U形式のファイルであることを示すヘッダーである。
第2行目と第3行目は、音声のコンテンツに関する情報を保持する。第2行目と第3行目は、ともに「TYPE=AUDIO」という記述を含んでおり、これは、第2行目と第3行目がそれぞれ音声のコンテンツのインデックスであることを示す。また、第2行目と第3行目は、ともに「GROUP−ID=”audio”」という記述を含んでおり、これは、第2行目と第3行目がともに「audio」という識別情報によって識別されるグループに属することを示す。
これらのうち、第2行目は、「NAME=”mixed”」という記述を含んでおり、これは、混合音声であること、即ち編集部240において付加音声が付加されたもの(つまり、音声B)であることを示すものである。また、第2行目は、「DEFAULT=YES」という記述を含んでおり、これは、デフォルトの音声であることを示している。また、第2行目は、当該音声に関する下位のインデックスファイルの所在情報を保持している。「URI=”mixed/playlist.m3u8”」という記述がその所在情報にあたる。
一方で、第3行目は、「NAME=”original”」という記述を含んでおり、これは、混合される前のオリジナルの音声であることを示している。即ち、付加音声が付加されていない、受信部220が受信した音声(音声A)であることを示すものである。また、第3行目は、「DEFAULT=NO」という記述を含んでおり、これは、デフォルトの音声ではないことを示している。また、第3行目は、当該音声に関する下位のインデックスファイルの所在情報を保持している。「URI=”original/playlist.m3u8”」という記述がその所在情報にあたる。
第4行目は、コンテンツの当該セグメントが、独立セグメントであることを表す情報である。つまり、当該セグメントのコンテンツをデコードするために他のセグメントからの情報を必要としないことを表す。
第5行目から第16行目までは、6種類の映像ファイルのインデックスの情報を含むものである。
第5行目および第6行目は、第1の映像のインデックスの情報を保持する。第1の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「545600」(単位は、ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.66.30」と「mp4a.40.2」である。また、この映像の解像度は「480x270」である。また、この映像のインデックスファイルは、「stream1/playlist.m3u8」である。
第7行目および第8行目は、第2の映像のインデックスの情報を保持する。第2の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「765600」(ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.66.30」と「mp4a.40.2」である。また、この映像の解像度は「640x360」である。また、この映像のインデックスファイルは、「stream2/playlist.m3u8」である。
第9行目および第10行目は、第3の映像のインデックスの情報を保持する。第3の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「1425600」(ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.42c01f」と「mp4a.40.2」である。また、この映像の解像度は「640x360」である。また、この映像のインデックスファイルは、「stream3/playlist.m3u8」である。
第11行目および第12行目は、第4の映像のインデックスの情報を保持する。第4の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「3955600」(ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.4d401f」と「mp4a.40.2」である。また、この映像の解像度は「960x540」である。また、この映像のインデックスファイルは、「stream4/playlist.m3u8」である。
第13行目および第14行目は、第5の映像のインデックスの情報を保持する。第5の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「5640800」(ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.4d401f」と「mp4a.40.2」である。また、この映像の解像度は「1280x720」である。また、この映像のインデックスファイルは、「stream5/playlist.m3u8」である。
第15行目および第16行目は、第6の映像のインデックスの情報を保持する。第6の映像は、帯域幅(BANDWIDTH)および平均帯域幅(AVERAGE-BANDWIDTH)がともに「7290800」(ビット毎秒)である。また、この映像ストリームをデコードするためのコーデック(codec)は「avc1.4d401f」と「mp4a.40.2」である。また、この映像の解像度は「1280x720」である。また、この映像のインデックスファイルは、「stream6/playlist.m3u8」である。
なお、上記の第1の映像から第6の映像までに共通して、フレームレート(FRAME-RATE
)は「30.000」と定義されている。また、第1の映像から第6の映像までの映像に関してすべて「AUDIO=”audio”」という記述が含まれている。これは、各映像に関連付けられる音声のコンテンツは、”audio”というグループIDで識別されるものであることを表す。つまり、各映像に関連付けられる音声のコンテンツは、第2行目または第3行目で定義されているものである。
図8は、本実施形態が用いるインデックスファイルの例を示す概略図である。ここに示すファイルは、図7で示した最上位のインデックスファイルから参照される下位のインデックスファイルである。このインデックスファイルのファイル名は「mixed/playlist.m3u8」である。図7で示した最上位のインデックスファイルの第2行目の記述における「URI=”mixed/playlist.m3u8”」という記述が、この図8のファイルの所在を示している。ここで「mixed」はディレクトリ名であり、このディレクトリは混合音声(音声B)用のファイルを格納するディレクトリである。つまり、このインデックスファイル「mixed/playlist.m3u8」は、混合音声に関するインデックスの情報を保持する。このインデックスファイル「mixed/playlist.m3u8」もまた、拡張M3U形式のファイルである。なお、図8においても、テキストの各行に対応する行番号を付している。以下、インデックスファイル「mixed/playlist.m3u8」の内容を説明する。
第1行目は、当ファイルが拡張M3U形式のファイルであることを示すヘッダーである。
第2行目は、ファイル形式のバージョン情報である。具体的には、このファイル形式のバージョンが「3」であることを示している。
第3行目の「#EXT-X-TARGETDURATION」は、次に追加される予定のメディアファイルの予測時間長を示すものである。本データの例では、予測時間長は6秒である。
第4行目の「#EXT-X-MEDIA-SEQUENCE」は、本インデックスファイルが含む最初のメディアファイルのシーケンス番号を表す。本データ例では、最初のシーケンス番号は「417554」(第8行目で指定されているファイルのファイル名に、この番号が含まれている)である。
第5行目の「#EXT-X-DISCONTINUITY-SEQUENCE」については、説明を省略する。
第6行目から第35行目までにおいて、3行ずつのまとまりを持つ組が、10回(計30行)繰り返されている。各組における第1行は、メディアファイルを日付・時刻に関連付ける。また、第2行は、そのメディアセグメントの長さを秒単位で表す。また、第3行は、メディアファイルそのものを参照するための情報である。
ここでは、例として、第6行目から第8行目までの組について説明する。
第6行目の「#EXT-X-PROGRAM-DATE-TIME」は、参照されるメディアファイルを、日時に関連付ける。本データ例では、最初のメディアファイルは「2017-05-11T16:19:02.866+09:00」(年月日・時分秒および千分の一秒の表記)で示される日時(世界標準時から9時間先行する時間帯における日時)に関連付けられる。
第7行目の「#EXTINF」は、この組に対応するメディアセグメントの長さを表す。具体的には、その長さは6.000秒であることが指定されている。なお、「6.000」に後続するコンマの次には、タイトルを指定可能であるが、本データではタイトルの記述が省略されている。
第8行目は、この組のメディアファイル(ここでは、混合音声(音声B)の音声ファイル)のファイル名を記述している。本データでは、具体的には、「test2_270_417554.ts」である。
この組に後続する9組においても、同様に、日時の情報と、メディアセグメントの長さの情報と、そのメディアセグメントにおけるメディアファイルのファイル名の情報とが記述されている。具体的な日時、メディアセグメントの長さ、ファイル名は、図面に記載されている通りであるため、ここでは説明を省略する。
以上のように、ここに例示したインデックスファイルは、混合音声のファイルについて、10セグメント分の情報を保持している。また、各セグメントの長さは6秒であり、10セグメント分の合計の長さは60秒である。
統合部260は、上の図7に例示したインデックスファイルを生成して出力する。つまり、統合部260は、音声A(NAME=”original”)と音声B(NAME=”mixed”)の両方を含むコンテンツを、配信部280に渡す。配信部280は、そのように統合部260によって統合されたコンテンツを、クライアント装置3に配信する。
次に、統合部260が、編集部240によって生成された(音声)音声Bのタイミングを、受信部220からわたされた映像および音声(音声A)のタイミングに合わせる方法の詳細について説明する。本実施形態の方法では、ファイルに含まれる提示時刻情報を利用する。つまり、受信部220が受信する映像および音声(音声A)のファイルには、再生のタイミング情報(PTS,プレゼンテーションタイムスタンプ)と、再生時間の長さの情報とが含まれている。HLSを用いる場合は、受信部220は、映像・音声データを含むTS(Transport Stream)ファイルからタイミング情報(PTS)を取得できる。また、配信サーバー装置2から配信されるインデックスファイル(M3U8ファイル)の「#EXTINF」の記述から、再生時間の長さの情報を取得することができる。編集部240は、元の音声Aを再生しながら音声B(混合音声)を生成するが、その際、音声Aのファイルに含まれていたタイミング情報および再生時間の長さの情報を、そのまま音声Bに埋め込む。例えば、音声の入力が開始した時点のタイミング情報(PTS−1)を取得し、音声Bを生成する際に出力ストリームの先頭のタイミング情報を、前記PTS−1とするように出力する。さらに、M3U8ファイルから取得した再生時間の長さが5秒の場合は、出力ストリームを5秒ごとのファイルに分割して生成する。つまり、編集部240は、音声Aを構成する個々のファイルと同一のタイミング情報および再生時間の長さの情報を有する、音声Bを生成し出力する。そして、統合部260は、音声Aと音声Bのファイルにおけるタイミング情報および再生時間の長さの情報が同一であることを確認して、受信部220からわたされた映像および音声(音声A)と生成した音声Bの再生タイミングが整合するように、映像、音声A、音声Bの情報を含む新たなM3U8ファイルを生成し、HLSコンテンツとして、M3U8ファイル、映像のTSファイル、音声AのTSファイル、音声BのTSファイルを配信する。
つまり、編集部240は、第1パッケージに含まれるコンテンツが保持するタイミング情報に基づいて、整合するタイミング情報を、生成する新たなコンテンツに付与するものである。また、統合部260は、第1パッケージに含まれるコンテンツが保持するタイミング情報と、上記の新たなコンテンツに付与されたタイミング情報とに基づいて、再生のタイミングが整合するようにする。
これにより、再配信システム11が受信したオリジナルのコンテンツと、再配信システム11が付加したコンテンツとの間でタイミングが合った状態で、コンテンツの再配信を行うことが可能となる。
[第2実施形態:変形例]
次に、第2実施形態の変形例について説明する。この変形例の基本的な構成は、第2実施形態におけるそれと同一であるが、統合部260が音声Aと音声Bとの間のタイミングを合わせる方法の部分が第2実施形態とは異なる。
この変形例において、統合部260は、次の通り、音声Aと音声Bとのタイミングを合わせる。編集部240は、オリジナルの音声(音声A)にアナウンサー等の発話などを混合した混合音声(音声B)を生成する。つまり、編集部240が生成する音声Bのデータには、音声Aの情報も含まれている。統合部260は、音声A(「比較用音声」とも呼ぶ)と音声B(発話によるコメントが付加されているため「コメント音声」とも呼ぶ)とを取得する。なお、統合部260は、音声Aを、受信部220から直接取得してもよいし、編集部240から取得してもよい。統合部260は、音声Bの中に音声Aの信号が含まれていることを利用して、音声Aと音声Bのタイミングを合わせるための処理を実行する。
その一例として、統合部260は、次の計算を行う。音声Aおよび音声Bを、それぞれ、S(t)およびS(t)で表す。S(t)およびS(t)は、それぞれ、時刻tにおける信号値(例えば、音声信号の振幅)である。統合部260に音声Aと音声Bとが届くとき、その時点までのプロセスの経路の違いにより、両者のタイミングがずれている可能性がある。そのずれ量をΔt(デルタ・t)とする。図3等に示す処理を装置として構成した場合の音声Aと音声Bとの間のタイミングのずれ量は、通常は最大でも1秒未満、特殊なケースでもせいぜい数秒以内と想定することは妥当である。そして、統合部260は、時刻tを含む所定の時間区間において、信号S(t)と信号S(t+Δt)との相互相関値を算出する。その相互相関値はc=corr(S(t),S(t+Δt))と表される。ここで、corr()は、2つの信号の相互相関値を求める関数である。そして、統合部260は、上記の相互相関値cを最大化するようなずれ量Δtを求める。そして、統合部260は、求められたずれ量Δtに基づいてタイミング情報(PTS)の値を変更し、音声Aと音声Bのコンテンツのタイミングを合わせて、出力する。
なお、上記の関数corr()により相互相関値を算出する際、音声Aの信号レベルと音声Bの信号レベルとを、適宜、調整するようにしてもよい。また、ここでの信号レベルの調整量を、例えば機械学習等に基づいて、自動的に求めるようにしてもよい。
また、ここでは相互相関値を用いて音声Aと音声Bのタイミングを合わせる方法を例として挙げたが、統合部260が他の方法によって両者のタイミングを合わせるようにしてもよい。例えば、音声Aと音声Bの信号波形を、画像処理によって比較し、両者の波形の一致度が最も高くなるずれ量Δtを求めてもよい。
整理すると、統合部260は、第1音声の波形と第2音声の波形との類似性に基づいて、第1音声のコンテンツを含む第1パッケージのコンテンツと、編集部240によって生成された新たなコンテンツである第2音声との、いずれか一方を時間方向に移動させることによって、再生のタイミングが整合するように第1音声と第2音声とを統合して出力する。
[第3実施形態]
次に、第3実施形態について説明する。なお、前実施形態以前において既に説明した事項については以下において説明を省略する場合がある。ここでは、本実施形態に特有の事項を中心に説明する。
図9は、本実施形態による再配信システム(再配信装置)の概略機能構成と、同システムにおけるコンテンツデータの流れとを示す概略図である。図示するように、再配信システム12は、受信部320と、編集部340と、統合部360と、配信部380とを含んで構成される。
再配信システム12は、映像および音声のコンテンツを受信する。そして、再配信システム12は、受信した音声のコンテンツに基づいて、字幕テキストのコンテンツを生成する。そして、再配信システム12は、受信したオリジナルのコンテンツと、生成した字幕テキストのコンテンツとを、再生・提示するタイミングがあった状態で、再配信するものである。
受信部320は、少なくとも1種類の音声のコンテンツを含む第1パッケージを受信する。具体的には、例えば、受信部320は、外部の配信サーバー装置から、映像および音声で構成されるコンテンツを、ストリーミングの形式で受信する。受信部320は、受信した映像のファイルおよび音声のファイルを、統合部360に送信する。また、受信部320は、受信した音声のファイルを、編集部340に送信する。
編集部340は、第1パッケージに含まれる少なくとも1種類の音声のコンテンツの音声認識処理を行うことによってその音声のコンテンツに対応する字幕テキストのコンテンツを、新たなコンテンツとして生成する。編集部340は、音声認識エンジンを内部に備えており、入力された音声を文字列に変換する機能を有する。また、編集部340は、音声から変換された文字列を、さらに字幕テキストデータの形式に整形し、ライブストリーミングにおける映像の一部として表示可能な形態のファイルとして出力する。このとき、編集部340は、元の音声のファイルに含まれているタイミング情報(PTS,プレゼンテーションタイムスタンプ)と、ファイル内での時刻の相対位置等に基づいて、字幕テキストデータの断片ごとにタイミング情報を付与する。なお、編集部340は、例えば、タイムド・テキスト・マークアップ言語(TTML,Timed Text Markup Language)等の、タイミング情報を付加することのできるデータ形式で、字幕テキストを出力することができる。編集部340は、音声に基づいて生成された字幕テキストデータのファイルを、統合部360に送信する。
なお、音声認識エンジン自体には、既存の技術を適用することができる。音声認識エンジンは、基本的な処理として、入力される音声の音響的特徴を抽出し、必要に応じて言語としての特徴を考慮に入れながら、統計的に確からしい文字列を音声認識結果のテキストとして出力するものである。
統合部360は、音声のコンテンツに含まれる音声信号と生成された字幕テキストとの間の時間方向の対応関係に基づいて、音声のコンテンツの再生のタイミングと字幕テキストの提示のタイミングが整合するように統合して出力する。つまり、統合部360は、受信部320から受け取った映像および音声のコンテンツのファイルと、編集部340から受け取った字幕テキストのファイルとを、パッケージとして統合して、配信部380に渡す。より具体的には、統合部360は、音声のコンテンツと字幕テキストのコンテンツとの間でのタイミング情報が整合している状態で、コンテンツのデータを出力する。なお、統合部360は、映像および音声のコンテンツを、エンコードされたままの状態で受信部320から受け取る。そして、そのままの状態で、字幕テキストのコンテンツとの統合を行う。
配信部380は、インターネット等を経由して、統合部360から渡されたコンテンツのファイルを配信する。具体的には、配信部380は、映像と音声と字幕テキストのコンテンツを配信する。
[第3実施形態:変形例1]
次に、第3実施形態の変形例1について説明する。この変形例の基本的な構成は、第2実施形態におけるそれと同一であるが、統合部360が、さらに言語翻訳を行う点が、特徴的な構成である。
第3実施形態の変形例1において、編集部340は、言語翻訳エンジンを備える。言語翻訳エンジンは、自然言語によるテキストの他国語への翻訳を行う。例えば、統合部360は、音声認識処理の結果として得られた日本語のテキストを、英語に翻訳し、英語の字幕テキストデータを出力する。あるいは、編集部340は、音声認識処理の結果として得られたフランス語のテキストを、日本語に翻訳し、日本語の字幕テキストデータを出力する。なお、翻訳元と翻訳先の言語は、ここに例示したもの以外であってもよい。なお、元の音声に付加されていたタイミング情報に基づいて、翻訳後の字幕テキストにもタイミング情報が付与される。編集部340は、翻訳後の字幕テキストを、統合部360に送信する。その後の処理は、既に述べた形態における処理と同様である。
[第3実施形態:変形例2]
次に、第3実施形態の変形例2について説明する。この変形例の基本的な構成は、第2実施形態におけるそれと同一であるが、統合部360が、さらに手話への翻訳を行う点が、特徴的な構成である。
なお、言語翻訳の機能自体には、既存の技術を適用すれば良い。
第3実施形態の変形例2において、編集部340は、手話への翻訳機能を備える。言語翻訳エンジンは、音声認識処理の結果得られたテキストデータを、手話表現に翻訳する。そして、編集部340は、翻訳後の手話表現に対応する映像のコンテンツを生成し、出力する。手話は、例えば、コンピューターグラフィクス(CG)を用いて映像として表される。なお、元の音声に付加されていたタイミング情報に基づいて、出力される手話の映像にもタイミング情報が付与される。編集部340は、生成された手話の映像のデータを、統合部360に送信する。統合部360は、第3実施形態で説明した字幕テキストデータの代わりに、手話の映像のデータを、配信部380に渡す。配信部380は、元の映像および音声のコンテンツと、編集部340によって生成された手話の映像とを、配信する。
なお、上述した実施形態およびその変形例における再配信システムの機能や、再配信システムを構成する一部の装置の機能をコンピューターで実現するようにしても良い。その場合、この機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM、DVD−ROM、USBメモリー等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、説明した各実施形態またはその変形例のいずれかによれば、再配信システムは、インターネット等を介して、例えばHLS等の手段を用いて配信されるコンテンツを受信する。言い換えれば、再配信システムは、ベースバンド信号(非圧縮信号)で構成されるコンテンツを受信しない。そして、再配信システムは、受信したコンテンツの少なくとも一部に基づいて、別の新たなコンテンツを生成する。そして、再配信システムは、受信したオリジナルのコンテンツと、生成した新たなコンテンツとを統合したうえで、再配信する。再配信もまた、例えば、HLS等を用いる。これにより、クライアント装置は、新たなコンテンツが付加された状態でコンテンツのストリーミング配信を受けることが可能となる。
そして、各実施形態またはその変形例によれば、最小限の工程および機材により、再配信システムを実現することが可能となり、システムを構築したり運用したりするコストを抑えられる。また、例えば、インターネットに接続できる環境さえあれば基本的にどこにおいても、配信形式のストリーミング映像に対して、音声等の新たなコンテンツを付加して再配信するサービスを実現することができる。
コストに関して言えば、ベースバンド信号(非圧縮信号)のプロセッシングを行う高価な特殊機器が不要であり、インターネットにより映像の伝送が可能となるため、伝送コストの大幅な削減が期待できる。さらに、汎用的なコンピューターと、その上で稼働するソフトウェアのみでの処理が可能となるため、インターネット接続可能な場所であればどこからも、コンテンツを付加するサービスを実現することができる。また、元のコンテンツ(映像や音声等)と、付加するコンテンツ(たとえば、音声等)のタイミングを再配信システム内で自動的に同期させることができる。これにより、既存のストリーム映像音声にリアルタイムで新たなコンテンツ(音声等)を付加するという流れを1つにし、サービスの容易な実現が可能となる。コンテンツ配信等のサービスにおいて上の実施形態等で説明した構成を適用することにより、多様で、機動力に富んだサービスを提供することができるようになる。
なお、再配信システムが新たに付加するコンテンツは、音声のコンテンツに限られない。既に説明した例では、テキスト(いわゆる字幕テキストを含む)や、映像(一例として手話の映像)を生成して付加することができる。また、ここに例示したもの以外のコンテンツを、生成して付加することも可能となる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではない。さらなる変形例で実施するようにしてもよい。また、この発明の要旨を逸脱しない範囲の設計等を行ってもよい。
例えば、上記の実施形態では、映像や音声のコンテンツを配信するための形式としてHLSを用いたが、他の形式によって配信するようにしてもよい。例えば、MPEG−DASHや、HDSや、MS Smooth Streamingなどといった形式も、使用することができる。
本発明は、例えばコンテンツを配信する事業等に利用することができる。ただし、産業上の利用可能性は、ここに例示した分野には限定されない。
1 再配信システム(再配信装置)
2 配信サーバー装置
3 クライアント装置
11,12 再配信システム(再配信装置)
120 受信部
140 編集部
160 統合部
180 配信部
220 受信部
240 編集部
260 統合部
280 配信部
320 受信部
340 編集部
360 統合部
380 配信部

Claims (3)

  1. HTTPライブストリーミング(HLS)形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する受信部と、
    前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する編集部と、
    前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部のコンテンツと、前記編集部によって生成された前記新たなコンテンツとを、一つの第2パッケージとして統合して出力する統合部と、
    前記統合部から出力される前記第2パッケージを再配信する配信部と、
    を具備し、
    前記受信部は、少なくとも1種類の映像のコンテンツと、少なくとも1種類の音声のコンテンツと、インデックスファイルとを含む前記第1パッケージを受信し、
    前記編集部は、前記第1パッケージに含まれる少なくとも1種類の音声のコンテンツである第1音声を再生するとともに、前記第1音声と、前記第1音声に対応してマイクロホンで集音されて入力される別の音声とを重畳して得られる第2音声を生成して前記新たなコンテンツとして出力し、
    前記統合部は、前記第1パッケージに含まれる前記映像のコンテンツおよび前記音声のコンテンツと、前記新たなコンテンツとの間で、再生のタイミングが整合するように統合して出力するものであり、
    前記編集部は、前記第1パッケージに含まれるコンテンツが保持するタイミング情報であるプレゼンテーションタイムスタンプと、前記インデックスファイルに記述された再生時間の長さの情報とに基づいて、前記第1パッケージに含まれるコンテンツが保持していた前記プレゼンテーションタイムスタンプを整合するタイミング情報として前記新たなコンテンツに付与するとともに、前記インデックスファイルに記述されていた前記再生時間の長さに合わせた長さに分割した前記新たなコンテンツを生成するものであり、
    前記統合部は、前記第1パッケージに含まれるコンテンツが保持する前記プレゼンテーションタイムスタンプおよび前記再生時間の長さ前記新たなコンテンツに付与されたタイミング情報とおよびその再生時間の長さとが同一であることを確認して、前記第1パッケージに含まれるコンテンツと前記新たなコンテンツと前記新たなコンテンツの情報をも含む新たなインデックスファイルとを出力することによって、再生のタイミングが整合するようにする、
    ことを特徴とす再配信システム。
  2. HTTPライブストリーミング(HLS)形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する受信過程、
    前記受信過程で受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する編集過程、
    前記受信過程で受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部のコンテンツと、前記編集過程において生成された前記新たなコンテンツとを、一つの第2パッケージとして統合して出力する統合過程、
    前記統合過程で出力される前記第2パッケージを再配信する配信過程、
    を含む再配信方法であって、
    前記受信過程は、少なくとも1種類の映像のコンテンツと、少なくとも1種類の音声のコンテンツと、インデックスファイルとを含む前記第1パッケージを受信し、
    前記編集過程は、前記第1パッケージに含まれる少なくとも1種類の音声のコンテンツである第1音声を再生するとともに、前記第1音声と、前記第1音声に対応してマイクロホンで集音されて入力される別の音声とを重畳して得られる第2音声を生成して前記新たなコンテンツとして出力し、
    前記統合過程は、前記第1パッケージに含まれる前記映像のコンテンツおよび前記音声のコンテンツと、前記新たなコンテンツとの間で、再生のタイミングが整合するように統合して出力するものであり、
    前記編集過程は、前記第1パッケージに含まれるコンテンツが保持するタイミング情報であるプレゼンテーションタイムスタンプと、前記インデックスファイルに記述された再生時間の長さの情報とに基づいて、前記第1パッケージに含まれるコンテンツが保持していた前記プレゼンテーションタイムスタンプを整合するタイミング情報として前記新たなコンテンツに付与するとともに、前記インデックスファイルに記述されていた前記再生時間の長さに合わせた長さに分割した前記新たなコンテンツを生成するものであり、
    前記統合過程は、前記第1パッケージに含まれるコンテンツが保持する前記プレゼンテーションタイムスタンプおよび前記再生時間の長さと、前記新たなコンテンツに付与されたタイミング情報とおよびその再生時間の長さとが同一であることを確認して、前記第1パッケージに含まれるコンテンツと前記新たなコンテンツと前記新たなコンテンツの情報をも含む新たなインデックスファイルとを出力することによって、再生のタイミングが整合するようにする、
    再配信方法。
  3. コンピューターを、
    HTTPライブストリーミング(HLS)形式にエンコードされた少なくとも1種類のコンテンツを含む第1パッケージを受信する受信部と、
    前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部の種類のコンテンツに基づく新たなコンテンツを生成して出力する編集部と、
    前記受信部が受信した前記第1パッケージに含まれる前記コンテンツのうちの少なくとも一部のコンテンツと、前記編集部によって生成された前記新たなコンテンツとを、一つの第2パッケージとして統合して出力する統合部と、
    前記統合部から出力される前記第2パッケージを再配信する配信部と、
    を具備し、
    前記受信部は、少なくとも1種類の映像のコンテンツと、少なくとも1種類の音声のコンテンツと、インデックスファイルとを含む前記第1パッケージを受信し、
    前記編集部は、前記第1パッケージに含まれる少なくとも1種類の音声のコンテンツである第1音声を再生するとともに、前記第1音声と、前記第1音声に対応してマイクロホンで集音されて入力される別の音声とを重畳して得られる第2音声を生成して前記新たなコンテンツとして出力し、
    前記統合部は、前記第1パッケージに含まれる前記映像のコンテンツおよび前記音声のコンテンツと、前記新たなコンテンツとの間で、再生のタイミングが整合するように統合して出力するものであり、
    前記編集部は、前記第1パッケージに含まれるコンテンツが保持するタイミング情報であるプレゼンテーションタイムスタンプと、前記インデックスファイルに記述された再生時間の長さの情報とに基づいて、前記第1パッケージに含まれるコンテンツが保持していた前記プレゼンテーションタイムスタンプを整合するタイミング情報として前記新たなコンテンツに付与するとともに、前記インデックスファイルに記述されていた前記再生時間の長さに合わせた長さに分割した前記新たなコンテンツを生成するものであり、
    前記統合部は、前記第1パッケージに含まれるコンテンツが保持する前記プレゼンテーションタイムスタンプおよび前記再生時間の長さと、前記新たなコンテンツに付与されたタイミング情報とおよびその再生時間の長さとが同一であることを確認して、前記第1パッケージに含まれるコンテンツと前記新たなコンテンツと前記新たなコンテンツの情報をも含む新たなインデックスファイルとを出力することによって、再生のタイミングが整合するようにする、
    再配信システムとして機能させるためのプログラム。
JP2017110376A 2017-06-02 2017-06-02 再配信システム、再配信方法、およびプログラム Active JP6971059B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017110376A JP6971059B2 (ja) 2017-06-02 2017-06-02 再配信システム、再配信方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017110376A JP6971059B2 (ja) 2017-06-02 2017-06-02 再配信システム、再配信方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2018207288A JP2018207288A (ja) 2018-12-27
JP6971059B2 true JP6971059B2 (ja) 2021-11-24

Family

ID=64957599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017110376A Active JP6971059B2 (ja) 2017-06-02 2017-06-02 再配信システム、再配信方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6971059B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11109107B2 (en) * 2019-12-10 2021-08-31 Tetsuro KIYOOKA Video streaming playback system and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3926910B2 (ja) * 1997-12-09 2007-06-06 株式会社東芝 映像データ多重化装置
JP4153926B2 (ja) * 2001-04-05 2008-09-24 松下電器産業株式会社 データ放送番組ストリーム送出装置、データ放送番組ストリーム送出装置の制御方法及びプログラム並びに記録媒体
JP2005210196A (ja) * 2004-01-20 2005-08-04 Sony Corp 情報処理装置、情報処理方法
JP2013135310A (ja) * 2011-12-26 2013-07-08 Sony Corp 情報処理装置、情報処理方法、プログラム、記録媒体、及び、情報処理システム

Also Published As

Publication number Publication date
JP2018207288A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
US11218740B2 (en) Decoder for decoding a media signal and encoder for encoding secondary media data comprising metadata or control data for primary media data
CN101981617B (zh) 多对象音频信号的附加信息比特流产生方法和装置
US20180165358A1 (en) Information processing apparatus and information processing method
JP2016001913A (ja) データ伝送方法及び装置
JP6444016B1 (ja) 送信装置および受信装置、ならびにプログラム
WO2016171002A1 (ja) 送信装置、送信方法、受信装置および受信方法
JP4718275B2 (ja) 複数メディアの同期再生システム及び同期再生方法
CN115767140A (zh) 接收装置、接收方法及传输***中的传输单元
KR20090115074A (ko) 슈퍼 프레임을 이용하여 멀티채널 오디오 신호를 송수신하는 방법 및 장치
US11197048B2 (en) Transmission device, transmission method, reception device, and reception method
JP6948934B2 (ja) コンテンツ加工システム、端末装置、およびプログラム
JP6971059B2 (ja) 再配信システム、再配信方法、およびプログラム
JP2021197584A (ja) 多重信号変換装置及びそのプログラム、並びに、受信機
CN112188256A (zh) 信息处理方法、信息提供方法、装置、电子设备及存储介质
JP4680444B2 (ja) 蓄積型データ放送システム
US11665392B2 (en) Methods and systems for selective playback and attenuation of audio based on user preference
Kato et al. A location-free commentary adding system for live streaming using a cloud infrastructure
KR100513795B1 (ko) 시스템 타임 클럭을 이용한 동기화 이벤트 서비스를제공하는 디지털 데이터 방송 송/수신 장치 및 그 방법
JPWO2016047475A1 (ja) 情報処理装置および情報処理方法
JP2022098735A (ja) 字幕生成装置及び字幕生成プログラム
JP2016166975A (ja) 送信装置、受信装置およびプログラム
KR20120058373A (ko) Svc 서버를 이용한 http 스트리밍 수신 비디오 전송 및 단말 재생 시스템

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R150 Certificate of patent or registration of utility model

Ref document number: 6971059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150