JP2012004645A - 3dコンテンツ配信システム、3dコンテンツ配信方法および3dコンテンツ配信プログラム - Google Patents

3dコンテンツ配信システム、3dコンテンツ配信方法および3dコンテンツ配信プログラム Download PDF

Info

Publication number
JP2012004645A
JP2012004645A JP2010135047A JP2010135047A JP2012004645A JP 2012004645 A JP2012004645 A JP 2012004645A JP 2010135047 A JP2010135047 A JP 2010135047A JP 2010135047 A JP2010135047 A JP 2010135047A JP 2012004645 A JP2012004645 A JP 2012004645A
Authority
JP
Japan
Prior art keywords
content
parallax
receiving terminal
distributed
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010135047A
Other languages
English (en)
Inventor
Shoji Yanaida
尚司 谷内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010135047A priority Critical patent/JP2012004645A/ja
Publication of JP2012004645A publication Critical patent/JP2012004645A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】配信されてくる映像コンテンツが2Dコンテンツか3Dコンテンツかを視聴者が容易に判別でき、かつ、素早く表示することが可能な3Dコンテンツ配信システムを提供する。
【解決手段】番組表配信サーバ102は、3Dコンテンツ配信サーバ101が配信する3Dコンテンツのタイトルを番組として3Dコンテンツであることを示す識別情報を付して登録した番組表をCDN200のエッジルータ201を介して受信端末301に配信し、かつ、3Dコンテンツ配信サーバ101は、受信端末301に配信する3Dコンテンツを圧縮符号化する際に、該3Dコンテンツを構成する左目用の映像データと右目用の映像データとのいずれか一方の映像データを2Dコンテンツとして圧縮符号化し、他方の映像データを該2Dコンテンツとの視差による差分を示す視差コンテンツとして圧縮符号化して、視差コンテンツを2Dコンテンツよりも先行して受信端末301に配信する。
【選択図】 図1

Description

本発明は、3D(3 Dimension:3次元)コンテンツ配信システム、3Dコンテンツ配信方法および3Dコンテンツ配信プログラムに関し、特に、CATV(Community Antenna Television)放送サービスやIPTV(Internet Protocol Television)放送サービスによって、2次元映像の通常コンテンツ(2D)と3次元映像の3Dコンテンツとが共存して配信されている際に、3xcxDコンテンツを簡便に選択して迅速に視聴することができる3Dコンテンツ配信システム、3Dコンテンツ配信方法および3Dコンテンツ配信プログラムに閲する。
近年、立体視が可能な3D映画が多く製作され、かつ、3D表示が可能なディスプレイも増加し、BS(Broadcasting Satellite)放送、BD(Blu-ray Disc)プレーヤ、CATV等々によって、家庭内においても、3次元の3D映像を楽しめるような環境が整ってきている。ここで、3D映像の符号化方式に関しては、ISO/IEC14496−10規格のAnnex Hに記載されているH.264 MVC(Multi-View Coding:マルチビュー符号化)方式として規格化されている。
米国のCATVや日本のBS放送においては、左目用と右目用との2つの映像を圧縮符号化して配信することにより、左目用と右目用との2つの映像を一つの画面上に横並びで配置して、3D表示装置で立体視できるように表示している。また、BDプレーヤにおける再生方式については、前記MVC方式により圧縮符号化して記録された3D映像コンテンツを表示装置にて視聴できるようにしている。
今後、特許文献1の特許第4012550号公報「宅側情報配信システム、情報配信システムおよび番組受信方法」や特許文献2の特開2000−078611号公報「立体映像受信装置および立体映像システム」にも記載されているように、インターネットやIPネットワークのCDN(Contents Delivery Network)を利用したIPTV放送サービスにおいても、3Dコンテンツの配信が行われることが容易に想定される。
特許第4012550号公報(第7−10頁) 特開2000−078611号公報(第3−5頁)
しかしながら、従来のBS放送やCATVにおいては、左目用と右目用とのそれぞれの映像データの水平成分を半分にするフィルタリング処理を行った後、左目用と右目用との双方の視差映像データを水平方向に並べて、圧縮符号化を行うことにより、3D映像データを放送していた。これは、放送チャンネルに割り当てられた帯域が限定されているためであり、3D映像データを放送する際には、水平方向の解像度が半減した映像になっていた。
また、3D映像データの番組を配信している際には、3D映像を表示することができる機器(受信端末)を除いて、当該番組を視聴することができなかった。
さらに、BD(Blu-ray Disc)プレーヤの場合は、ISO/IEC14496−10規格のH.264 MVC方式に基づいて、左目用と右目用とのいずれか一方の映像データを他方の映像データからの差分を示す視差映像データとして圧縮符号化することによって、2D映像データの約1.5倍のデータ量で、3D映像データを記録再生することが可能であるが、そのままの方式で放送するためには、帯域を1.5倍にする必要があり、さらに、3D映像データを配信している際には、前述のように、3D映像を表示できる機器(受信端末)を除いて、当該番組を視聴することができなかった。
また、CATVやIPTVによるVoD(Video on Demand)サービスを行うような場合には、2Dコンテンツと3Dコンテンツとの2種類を準備する必要があり、ユーザに表示することができるVoDコンテンツとして、同じ内容のコンテンツにも関わらず、2種類のコンテンツが配信されてくることとなり、ユーザの操作が煩雑になるという問題があった。
また、3Dコンテンツの視聴を開始した後、途中で、同じ内容の2Dコンテンツの視聴を切り替えようとする際に、3Dチャンネルと2Dチャンネルとが別チャンネルによる配信になっている場合には、チャンネルの変更が必要になり、チャンネルの切り替え時間中は、コンテンツの視聴を中断する必要があった。
また、3Dコンテンツを2Dコンテンツと視差コンテンツとして配信する場合において、3Dコンテンツの符号化順に配信する場合には、まず、2Dコンテンツが先行して配信され、その後、視差コンテンツが配信されることになる。しかし、そもそもの映像コンテンツとして3Dコンテンツと2Dコンテンツとが混在して配信されている環境下において、3Dコンテンツの配信をかかる配信順とした場合、2Dコンテンツと視差コンテンツとを別チャンネルによって配信することにすると、受信端末側にとって、いずれのチャンネルから先に受け取れば、素早いコンテンツ出力が可能になるかということを予測することができなかった。
本発明は、かかる事情に鑑みてなされたものであり、視聴者にとって、配信されてくる映像コンテンツが2Dコンテンツか3Dコンテンツかを容易に判別可能とし、かつ、素早く表示することが可能な3Dコンテンツ配信システム、3Dコンテンツ配信方法および3Dコンテンツ配信プログラムを提供することを、その目的としている。
前述の課題を解決するため、本発明による3Dコンテンツ配信システム、3Dコンテンツ配信方法および3Dコンテンツ配信プログラムは、主に、次のような特徴的な構成を採用している。
(1)本発明による3Dコンテンツ配信システムは、3Dコンテンツ(3 Dimension:3次元)を3Dコンテンツ配信サーバからIPネットワークを介して受信端末に配信する3Dコンテンツ配信システムであって、前記3Dコンテンツ配信サーバは、前記受信端末に配信する前記3Dコンテンツを圧縮符号化する際に、前記3Dコンテンツを構成する左目用の映像データと右目用の映像データとのいずれか一方の映像データを選択して2Dコンテンツとして圧縮符号化するとともに、他方の映像データを前記2Dコンテンツとの視差による差分を示す視差コンテンツとして圧縮符号化して、前記視差コンテンツを前記2Dコンテンツよりも先行して前記受信端末に配信し、前記受信端末は、配信されてきた前記視差コンテンツと前記2Dコンテンツとを表示モードに応じて復号することを特徴とする。
(2)本発明による3Dコンテンツ配信方法は、3Dコンテンツ(3 Dimension:3次元)を3Dコンテンツ配信サーバからIPネットワークを介して受信端末に配信するビデオ配信サービスを提供する3Dコンテンツ配信方法であって、前記3Dコンテンツ配信サーバは、前記受信端末に配信する前記3Dコンテンツを圧縮符号化する際に、前記3Dコンテンツを構成する左目用の映像データと右目用の映像データとのいずれか一方の映像データを選択して2Dコンテンツとして圧縮符号化するとともに、他方の映像データを前記2Dコンテンツとの視差による差分を示す視差コンテンツとして圧縮符号化して、前記視差コンテンツを前記2Dコンテンツよりも先行して前記受信端末に配信し、前記受信端末は、配信されてきた前記視差コンテンツと前記2Dコンテンツとを表示モードに応じて復号することを特徴とする。
(3)本発明による3Dコンテンツ配信プログラムは、少なくとも前記(2)に記載の3Dコンテンツ配信方法を、コンピュータによって実行可能なプログラムとして実施していることを特徴とする。
本発明の3Dコンテンツ配信システム、3Dコンテンツ配信方法および3Dコンテンツ配信プログラムによれば、以下のような効果を奏することができる。
すなわち、3Dコンテンツ配信サーバには、3Dコンテンツの左目用と右目用との2つの映像データに関する2Dコンテンツと3Dコンテンツを構成するための該2Dコンテンツの視差コンテンツとに圧縮符号化して保持されており、また、番組表配信サーバには、2Dコンテンツと3Dコンテンツとの両方が配信されているかもしくは2Dコンテンツのみが配信されているかを明示した電子番組表が保持されていて、それぞれのサーバが、保持している情報を視聴者が利用する受信端末に対して配信しているので、3Dコンテンツと2Dコンテンツとを混在させて配信している環境下であっても、該受信端末を利用して映像コンテンツを視聴する視聴者にとって、配信されてくる映像コンテンツが、3D視聴が可能なコンテンツか否かを判り易く表示することができ、視聴者は2Dコンテンツもしくは3Dコンテンツを容易に選択することが可能である。
また、受信端末の視聴者が、3Dコンテンツの視聴途中に、2Dコンテンツの視聴に変更することや、また、その逆の変更を行うことも容易に実現することができる。
また、3Dコンテンツと2Dコンテンツとを混在させて配信している環境下であっても、2Dコンテンツ視聴用としての2Dコンテンツと、3Dコンテンツ視聴用としての2Dコンテンツと差分データの視差コンテンツとを配信することになるため、2Dコンテンツと3Dコンテンツとの双方を分離してそのままデータ配信する場合と比較して、ネットワークの帯域を大幅に削減することができる。
本発明に係る3Dコンテンツ配信システムのシステム構成の一例を示す構成図である。 図1の3Dコンテンツ配信システムの動作の一例を示すシーケンスチャートである。 図1に示す3Dコンテンツ配信サーバにおいてH.264 MVC方式に準拠して3Dコンテンツを圧縮符号化して配信する際の符号化順序の一例を説明するためのタイムチャートである。 図1に示す3Dコンテンツ配信システムにおける受信端末のブロック構成の一例を示すブロック構成図である。 本発明に係る3Dコンテンツ配信システムの3D電子番組表の一例を示す模式図である。
以下、本発明による3Dコンテンツ配信システム、3Dコンテンツ配信方法および3Dコンテンツ配信プログラムの好適な実施形態について添付図を参照して説明する。なお、以下の説明においては、本発明による3Dコンテンツ配信システムおよび3Dコンテンツ配信方法について説明するが、かかる3Dコンテンツ配信方法をコンピュータにより実行可能な3Dコンテンツ配信プログラムとして実施するようにしても良いし、あるいは、3Dコンテンツ配信プログラムをコンピュータにより読み取り可能な記録媒体に記録するようにしても良いことは言うまでもない。
(本発明の特徴)
本発明の実施形態の説明に先立って、本発明の特徴について、その概要をまず説明する。本発明は、3Dコンテンツを構成する左目用と右目用とのいずれか一方の映像データを選択して2Dコンテンツとして圧縮符号化するとともに、残った他方の映像データを前記2Dコンテンツとの視差による差分を示す視差コンテンツとして圧縮符号化して、前記2Dコンテンツと前記視差コンテンツとをそれぞれマルチキャスト方式により配信する際に、前記視差コンテンツを前記2Dコンテンツよりも先行して(または同時に)配信する3Dコンテンツ配信サーバを少なくとも備えていることを主要な特徴としている。さらに、配信する2Dコンテンツと3Dコンテンツとのタイトルを、番組として、2Dコンテンツか3Dコンテンツかを示す識別情報とともに登録した番組表を配信する番組表配信サーバと、マルチキャスト方式によって配信されてくる映像コンテンツの中から受信端末により指定された番組に関する映像コンテンツを当該受信端末に分配するためのエッジルータと、受信した映像コンテンツを表示モードに応じて復号して3D表示もしくは2D表示を行う受信端末と、を備えていることも主要な特徴としている。
(実施形態のシステム構成例)
次に、本発明に係る3Dコンテンツ配信システムのシステム構成についてその一例を、図1を参照しながら説明する。図1は、本発明に係る3Dコンテンツ配信システムのシステム構成の一例を示す構成図である。なお、以降の各図面において、図1に示す各構成要素と同一の構成要素には同一の符号が付与されており、他の図面における重複した説明は省略する。
図1に示す3Dコンテンツ配信システムは、データセンタ/放送局100内に設置されている3Dコンテンツ配信サーバ101、2Dコンテンツ配信サーバ101A、番組表配信サーバ102と、SOHO(Small Office/Home Office)/家庭300内に設置されている映像コンテンツ受信用の受信端末301とが、映像コンテンツの配信を行うIP(Internet Protocol)ネットワークのCDN(Contents Delivery Network)200を介して接続されている例を示している。
データセンタ/放送局100の3Dコンテンツ配信サーバ101は、3Dコンテンツの左目用と右目用との2つの映像データのうち、いずれか一方の映像データを、2Dコンテンツとしてつまり3Dコンテンツの2D成分をパケット化した2DコンテンツデータS101として圧縮符号化し、他方の映像データを、前記一方の映像データとの視差に基づく差分データを示す視差コンテンツとしてつまり3Dコンテンツの視差成分をパケット化した視差コンテンツデータS102として圧縮符号化してマルチキャスト方式により配信するサーバである。また、2Dコンテンツ配信サーバ101Aは、本来の2Dコンテンツをそのままパケット化した2DコンテンツデータS103として圧縮符号化してマルチキャスト方式により配信するサーバである。
また、データセンタ/放送局100の番組表配信サーバ102は、各番組が3Dコンテンツ、2Dコンテンツのいずれかを示す識別情報を付して、3Dコンテンツ、2Dコンテンツの如何によらず、すべての映像コンテンツのタイトル(番組情報)を電子化した番組表S104として配信するサーバである。
また、SOHO/家庭300の受信端末301は、配信されてくる3Dコンテンツもしくは2Dコンテンツをデコードして再生して、視聴者に対して表示する端末である。また、IPネットワークのCDN200内には、データセンタ/放送局100の各サーバ(3Dコンテンツ配信サーバ101、2Dコンテンツ配信サーバ101A、番組表配信サーバ102)からの映像コンテンツや番組表情報を受信して、要求元のSOHO/家庭300の受信端末301からの配信要求に応じて配信するエッジルータ201が複数設置されている。
一般に、3Dコンテンツは、左右の目に入力される2種類の映像データから構成されており、2Dコンテンツに比して2倍の情報量を有しているコンテンツである。しかしながら、左右の目にそれぞれ入力される映像データの間には強い相関性があるため、該相関性を利用した圧縮符号化方式が提案されている。
3Dコンテンツの圧縮符号化方式の一つに、ISO/IEC14496−10規格のH.264 MVC(Multi-View Coding:マルチビュー符号化)方式があり、左目用と右目用との2つの映像データのうちいずれか一方を2Dコンテンツとし、他方を該2Dコンテンツと相関性がある視差コンテンツとして、双方の映像データについて相関性を利用した圧縮符号化を行うことにより、片方の映像データ(すなわち2Dコンテンツ)を圧縮符号化した情報量と比較して、2倍ではなく、約1.5倍の情報量に収めるとともに、左目用と右目用との2つの映像データそれぞれを圧縮符号化した場合の画質と同等の画質の映像が得られることが知られている。
しかしながら、H.264 MVC方式により圧縮符号化した3Dコンテンツの映像データをそのまま配信すると、H.264 MVC方式に非対応の従来の受信端末では、配信されてきたH.264 MVC方式の映像データを、デコードして表示することができない。このため、従来の受信端末においても表示することを可能とするISO/IEC14496−10規格のH.264 AVC方式(Advanced Video Coding)によって、当該3Dコンテンツのいずれか一方の映像データについては別に符号化して、2Dコンテンツとして配信することが必要であった。
ただし、H.264 MVC方式で圧縮符号化した映像データは、2DコンテンツとしてデコードすることができるH.264 AVC方式による圧縮符号化の映像データ(2Dコンテンツ)と3D表示するための視差映像データ(視差コンテンツ)とに分割することができるにも関わらず、2Dコンテンツ(つまりH.264 AVC方式の映像データ)と3Dコンテンツ(つまりH.264 MVC方式の映像データ)とをそれぞれ別々に用意してそれぞれの専用チャンネルを用いて配信することは、ネットワーク帯域を無駄に消費してしまうことになる。
そこで、図1に示す3Dコンテンツ配信システムにおいては、3Dコンテンツデータを管理する3Dコンテンツ配信サーバ101において、3Dコンテンツの左目用、右目用のいずれかのコンテンツデータつまり3Dコンテンツの2D成分をパケット化した2DコンテンツデータS101を配信するチャンネル例えばチャンネルCH1とは別に、当該チャンネルCH1の2Dコンテンツを3D表示するための視差コンテンツを配信するチャンネル、つまり、3Dコンテンツの視差成分をパケット化した視差コンテンツデータS102を配信するチャンネル例えばチャンネルCH1aをあらかじめ分離して用意して、H.264 MVC方式の配信用ストリームとして記憶しておく。
一方、そもそも、2Dコンテンツデータからなる番組を配信する場合には、2Dコンテンツデータを管理する2Dコンテンツ配信サーバ101Aにおいて、2Dコンテンツをパケット化した2DコンテンツデータS103を配信するチャンネル例えばチャンネルCH2に、H.264 AVC方式の配信用ストリームとして記憶しておく。
これらの3Dコンテンツ配信サーバ101、2Dコンテンツ配信サーバ101Aは、前述したように、データセンタ/放送局100内に設置されている。なお、3Dコンテンツ配信サーバ101と2Dコンテンツ配信サーバ101Aとは、物理的に同一のサーバから構成されていても、分離したサーバから構成されていても構わない。
また、データセンタ/放送局100は、これらの3Dコンテンツ配信サーバ101、2Dコンテンツ配信サーバ101Aに記憶された映像コンテンツをSOHO/家庭300に居る視聴者が選択して視聴することができるように、番組表配信サーバ102を設置して、記憶された映像コンテンツに関する番組表S104を配信している。なお、番組表配信サーバ102についても、3Dコンテンツ配信サーバ101、2Dコンテンツ配信サーバ101Aと物理的に同一のサーバから構成されていても、分離したサーバから構成されていても構わないことは言うまでもない。
データセンタ/放送局100とSOHO/家庭300とは、前述したように、CDN(Content Delivery Network)200を介して接続されており、データセンタ/放送局1OOは、放送電波を利用した現在の放送局のように、時刻にしたがって番組(映像コンテンツ)を配信することもあれば、VoD(Video on Demand)のように、SOHO/家庭300の受信端末301からのリクエストにしたがって番組(映像コンテンツ)を配信することもある。また、番組表配信サーバ102に記憶されている番組表S104は、例えば、図5に示すように、各チャンネル毎に、各番組それぞれが2Dコンテンツもしくは3Dコンテンツのいずれであるかが分かるように識別情報を付して記憶されており、3Dコンテンツの専用チャンネルを作成する必要はない。
図5は、本発明に係る3Dコンテンツ配信システムの3D電子番組表の一例を示す模式図であり、時刻にしたがってマルチキャスト方式で映像コンテンツを配信する場合について、2Dコンテンツと3Dコンテンツとの識別情報を付すことにより、同一チャンネルであっても、3Dコンテンツと2Dコンテンツとが混在して配信されている例を示している。例えば、図5に示す番組表において、チャンネルCH1においては、8:00〜9:00までの1時間は、3Dコンテンツの「MOVIE」を配信するが、7:00〜8:00の時間帯は、2Dコンテンツの「NEWS」が、また、9:00〜の時間帯も、2Dコンテンツの「Sports」が配信されることを示している。
(実施形態の3Dコンテンツ配信システムの動作例)
次に、図1の3Dコンテンツ配信システムの動作について、その一例を、図2のシーケンスチャートを用いて説明する。図2は、図1の3Dコンテンツ配信システムの動作の一例を示すシーケンスチャートであり、放送形態のように、データセンタ/放送局100内の3Dコンテンツ配信サーバ101から時刻情報に基づいて3Dコンテンツを含む番組を―斉配信(マルチキャスト)している一例を示している。
つまり、SOHO/家庭300内の受信端末301の視聴者が、データセンタ/放送局100内の番組表配信サーバ102からCDN200のエッジルータ201を介して配信されてくる番組表S104に基づいて、データセンタ/放送局100内の3Dコンテンツ配信サーバ101または2Dコンテンツ配信サーバ101Aから時刻にしたがって一斉配信(マルチキャスト)されている3Dコンテンツまたは2Dコンテンツのタイトル(番組情報)を選択することにより、選択した番組の3Dコンテンツまたは2Dコンテンツを、CDN200のエッジルータ201を介して受信する動作の一例を示している。
データセンタ/放送局100においては、あらかじめ決められた時刻情報に基づいて、3Dコンテンツ配信サーバ101は、3Dコンテンツの2D成分のパケットデータである2DコンテンツデータS101と、3Dコンテンツの視差成分のパケットデータである視差コンテンツデータS1O2とを、該当するチャンネル例えばチャンネルCH1とチャンネルCH1aとからマルチキャストアドレスとして配信し、2Dコンテンツ配信サーバ101Aは、2Dコンテンツのパケットデータである2DコンテンツデータS1O3を該当するチャンネル例えばチャンネル2からマルチキャストアドレスとして配信している。また、番組表配信サーバ102は、番組放送の場合には、図5の電子番組表に例示したように、各時刻に対して放送している映像コンテンツのタイトル(番組情報)が分かるような電子番組表S104を配信している。
図2のシーケンスチャートにおいて、まず、SOHO/家庭300内の受信端末301は、視聴者からの指示により、CDN200のエッジルータ201を介して、データセンタ/放送局100の番組表配信サーバ102に対して、番組表データの問い合わせを行うことにより(シーケンスSeq1)、番組表配信サーバ102から配信されてくる番組表S104を、エッジルータ201を介して受信して画面表示する(シーケンスSeq2)。
このとき、受信端末301が3D対応の受信端末であり、かつ、表示コードとして3Dモードを設定して、視聴者が3Dコンテンツを視聴する準備ができている場合には、3Dコンテンツの番組も視聴可能な番組として図5に示すような電子番組表を表示する。ここで、視聴者が3Dコンテンツを視聴する準備ができていると判断する場合の基準としては、例えば、当該受信端末301が3Dメガネ対応の端末であれば、3Dメガネの電源が入っている状態になっていれば良く、また、当該受信端末301が3Dメガネなしであっても3Dコンテンツを視聴することができる端末の場合には、表示モードが3Dモードの状態になっていれば良い。
表示された電子番組表を確認した視聴者によって、チャンネルCH1の3Dコンテンツの番組視聴が選択された場合には、受信端末301は、まず、当該チャンネルCH1の番組の3Dコンテンツの視差成分である視差コンテンツデータS102を配信するマルチキャストアドレスすなわちチャンネルCH1aへの参加要求を選局要求信号S105としてエッジルータ201に対して送信する(シーケンスSeq3)。しかる後、当該3Dコンテンツの番組の2DコンテンツデータS101を配信するマルチキャストアドレスすなわちチャンネルCH1への参加要求を選局要求信号S105としてエッジルータ201に対して送信する(シーケンスSeq4)。
受信端末301は、シーケンスSeq3によりマルチキャストアドレスすなわちチャンネルCH1aへの参加要求を行うことによりエッジルータ201から配信されてきた視差コンテンツデータS102をまず受信して、バッファメモリに一時格納する(シーケンスSeq5)。しかる後、シーケンスSeq4によりマルチキャストアドレスすなわちチャンネルCH1への参加要求を行うことによりエッジルータ201から配信されてきた2DコンテンツデータS101を受信する(シーケンスSeq6)。
受信端末301は、受信したチャンネルCH1aの視差コンテンツデータS102と2DコンテンツデータS101との2つのデータストリームから、3Dコンテンツデータをデコードして、再生することにより、3D映像として立体表示する。なお、視差コンテンツデータS102と2DコンテンツデータS101とは、配信用にパケット化されているが、ISO/IEC13818−1勧告によって規格化されたMPEG−2 TS(Moving Picture Experts Group-Transport Stream)方式に基づいて配信されるようにする。MPEG−2 TS方式に基づいて配信する場合、視差コンテンツデータS102のトランスボートストリームのタイムスタンプ(時刻情報)を、2DコンテンツデータS101のタイムスタンプと比較して同時または以下(つまり以前)の時刻情報に設定し、かつ、GOP(Group Of Picture)時間内の時刻に設定することによって、2DコンテンツデータS101を受信するまでの間、当該2DコンテンツデータS101を3D化するための視差コンテンツデータS102を一時保存する受信端末301のバッファメモリの容量を削減することが可能になる。
ここで、3Dコンテンツの立体番組を表示していた受信端末301において、当該3Dコンテンツの番組が終了するか否かによらず、視聴者が3Dメガネの電源をOffにしたり、表示モードを2Dモードに切り替えたりした場合には、図2に示すように、受信端末301は、たとえ、視聴者によってチャンネルCH1の3Dコンテンツの番組視聴が選択されていた場合であっても、受信モードを、3Dモードから2Dモードに切り替えて、当該チャンネルCH1の番組の3Dコンテンツの視差成分である視差コンテンツデータS102を配信するマルチキャストアドレスすなわちチャンネルCH1aへの不参加要求をエッジルータ201に対して行う(シーケンスSeq11)。
シーケンスSeq11により視差コンテンツデータS102のマルチキャストアドレスすなわちチャンネルCH1aへの不参加要求を受信端末301から受信したエッジルータ201は、当該受信端末301に対するチャンネルCH1aの視差コンテンツデータS102を配信する動作を抑止する(シーケンスSeq12)。ここで、当該3Dコンテンツの番組の2DコンテンツデータS101を配信するマルチキャストアドレスすなわちチャンネルCH1への参加要求については、受信端末301から受信済みの状態にあるので、エッジルータ201は、当該受信端末301に対してチャンネルCH1の2DコンテンツデータS101を引き続き配信する(シーケンスSeq13)。したがって、受信端末301は、チャンネルCH1の番組を立体表示ではなく2Dコンテンツとして引き続き画面表示することになる。
また、受信端末301が、そもそも、3Dコンテンツの再生を行うことができない端末であった場合には、たとえ、視聴者によってチャンネルCH1の3Dコンテンツの番組視聴が選択されていた場合であっても、シーケンスSeq3において視差コンテンツデータS102を配信するマルチキャストアドレスであるチャンネルCH1aへの参加要求をエッジルータ201に送信することなく、直ちに、2DコンテンツデータS101を配信するマルチキャストアドレスであるチャンネルCH1への参加要求のみをエッジルータ201に対して送信すれば良い。あるいは、受信端末301が、3Dコンテンツの再生を行う端末であっても、視聴者によって2Dコンテンツの番組視聴が選択されていた場合についても同様であり、2DコンテンツデータS101を配信するマルチキャストアドレスであるチャンネルCH1への参加要求のみをエッジルータ201に対して送信すれば良い。
次に、図1の3Dコンテンツ配信サーバ101において3Dコンテンツを圧縮符号化する際の符号化順序について、その一例を、図3のタイムチャートを用いて説明する。図3は、図1に示す3Dコンテンツ配信サーバ101においてH.264 MVC方式に準拠して3Dコンテンツを圧縮符号化して配信する際の符号化順序の一例を説明するためのタイムチャートであり、再生順10、符号化順20、伝送順30のそれぞれについて、主画像(2Dコンテンツ)と視差画像(視差コンテンツ)との時間関係を例示している。
ここで、3Dコンテンツは、前述したように、2Dコンテンツと視差コンテンツとによって構成されているものとしている。2Dコンテンツとは、3Dコンテンツにおける右目もしくは左目から眺めた際のコンテンツであり、図3には、「主画像」と表示しており、H.264 MVC方式において「主視点」と呼称されている映像情報である。一方、視差コンテンツとは、当該2Dコンテンツとして選択した目とは異なる目から眺めた際の当該2Dコンテンツとの差分を示すコンテンツであり、図3には、「視差画像」と表示しており、H.264 MVC方式において「第2視点」と呼称されている映像情報である。
図3の再生順10に示すように、3Dコンテンツを再生する際には、主画像(2Dコンテンツ)と視差画像(視差コンテンツ)との再生時刻は、各パケットごとに同一時刻であり、再生時刻情報pt1=pt1aにおいて主画像(2Dコンテンツ)の第1番目のフレーム映像データ1と視差画像(視差コンテンツ)の第1番目のフレーム映像データ1aとがデコードされて、立体映像として出力され、次の再生時刻情報pt2=pt2aにおいて主画像(2Dコンテンツ)の第2番目のフレーム映像データ2と視差画像(視差コンテンツ)の第2番目のフレーム映像データ2aとがデコードされて、立体映像として出力される。以降、第3番目、第4番目、…と、順番に、主画像(2Dコンテンツ)と視差画像(視差コンテンツ)とがそれぞれに該当する同一時刻においてデコードされて、立体映像として出力されていく。
次に、主画像(2Dコンテンツ)と視差画像(視差コンテンツ)との圧縮符号化する順序について説明する。図3の符号化順20に示すように、まず、主画像(2Dコンテンツ)の第1番目のフレーム映像データ1の画面内符号化を行い、復号用のタイムスタンプとして復号時刻情報dt1を付す。主画像として画面内符号化された第1番目のフレーム映像データ1は'I−Picture'と呼ばれている。次に、視差画像(視差コンテンツ)の第1番目のフレーム映像データ1aを主画像(2Dコンテンツ)の第1番目のフレーム映像データ1とのフレーム間差分による予測を交えて前方向予測によって符号化を行い、復号用のタイムスタンプとして復号時刻情報dt1a(復号時刻情報dt1よりも遅れた時刻)を付す。視差画像として前方向予測符号化された第1番目のフレーム映像データ1aは'P−Picture'と呼ばれている。
次に、主画像(2Dコンテンツ)の第4番目のフレーム映像データ4を主画像(2Dコンテンツ)の第1番目のフレーム映像データ1とのフレーム間差分による予測を交えて前方向予測によって'P−Picture'として符号化を行い、復号用のタイムスタンプとして復号時刻情報dt2を付す。さらに、視差画像(視差コンテンツ)の第4番目のフレーム映像データ4aを主画像(2Dコンテンツ)の第4番目のフレーム映像データ4と視差画像(視差コンテンツ)の第1番目のフレーム映像データ1aとのフレーム間差分による予測を交えた両方向予測によって符号化を行い、復号用のタイムスタンプとして復号時刻情報dt2a(復号時刻情報dt2よりも遅れた時刻)を付す。視差画像として両方向予測符号化された第4番目のフレーム映像データ4aは'B−Picture'と呼ばれている。
しかる後、主画像(2Dコンテンツ)の第2番目のフレーム映像データ2を主画像(2Dコンテンツ)の第1番目のフレーム映像データ1と第4番目のフレーム映像データ4とのフレーム間差分による予測を交えた両方向予測によって'B−Picture'として符号化を行い、復号用のタイムスタンプとして復号時刻情報dt3を付す。そして、視差画像(視差コンテンツ)の第2番目のフレーム映像データ2aを、主画像(2Dコンテンツ)の第2番目のフレーム映像データ2と視差画像(視差コンテンツ)の第1番目のフレーム映像データ1aと第4番目のフレーム映像データ4aとのフレーム間差分による予測を交えた両方向予測によって'B−Picture'として符号化を行い、復号用のタイムスタンプとして復号時刻情報dt3a(復号時刻情報dt3よりも遅れた時刻)を付す。
以降、主画像(2Dコンテンツ)の第3番目のフレーム映像データ3、視差画像(視差コンテンツ)の第3番目のフレーム映像データ3a、主画像(2Dコンテンツ)の第7番目のフレーム映像データ7、視差画像(視差コンテンツ)の第7番目のフレーム映像データ7a、…と順番に、両方向予測によって'B−Picture'として符号化を行っていく。
次に、主画像(2Dコンテンツ)と視差画像(視差コンテンツ)とからなる3Dコンテンツを伝送する伝送順について説明する。従来技術のように、3Dコンテンツを符号化順に順次配信する場合には、主画像(2Dコンテンツ)の第1番目の符号化データ1→視差画像(視差コンテンツ)の第1番目の符号化データ1a→主画像(2Dコンテンツ)の第4番目の符号化データ4→視差画像(視差コンテンツ)の第4番目の符号化データ4a→主画像(2Dコンテンツ)の第2番目の符号化データ2→視差画像(視差コンテンツ)の第2番目の符号化データ2a→主画像(2Dコンテンツ)の第3番目の符号化データ3→視差画像(視差コンテンツ)の第3番目の符号化データ3a→主画像(2Dコンテンツ)の第3番目の符号化データ7→…のように、主画像(2Dコンテンツ)の符号化データの次に当該主画像(2Dコンテンツ)に関する視差画像(視差コンテンツ)の符号化データが続くという順番に、主画像(2Dコンテンツ)と視差画像(視差コンテンツ)とが交互に配信されることになる。
つまり、従来技術の場合、MPEG−2 TS方式に基づくトランスボートストリームにした場合の配信用のタイムスタンプは、主画像(2Dコンテンツ)のストリームの方が、視差画像(視差コンテンツ)のストリームよりも早い時刻になる。主画像(2Dコンテンツ)と視差画像(視差コンテンツ)とを、別々の異なる経路(チャンネル)を用いて配信した場合においても全く同様であり、主画像(2Dコンテンツ)の第1番目の符号化データ1→視差画像(視差コンテンツ)の第1番目の符号化データ1a→主画像(2Dコンテンツ)の第4番目の符号化データ4→視差画像(視差コンテンツ)の第4番目の符号化データ4a→主画像(2Dコンテンツ)の第2番目の符号化データ2→視差画像(視差コンテンツ)の第2番目の符号化データ2a→主画像(2Dコンテンツ)の第3番目の符号化データ3→視差画像(視差コンテンツ)の第3番目の符号化データ3a→主画像(2Dコンテンツ)の第3番目の符号化データ7→…の順番に配信用のタイムスタンプが設定されることになる。
しかし、かくのごとく符号化順に2Dコンテンツと視差コンテンツとが配信されてくる場合、受信端末301が、そもそも、2Dコンテンツのみを復号化して表示するような端末においては、主画像(2Dコンテンツ)のみをデコードすれば良く、視差画像(視差コンテンツ)分のデコードを行うためのバッファは必要ではないにも関わらず、余分のバッファを準備することが必要になる。
これに対して、本実施形態に示す3Dコンテンツ配信システムにおいては、3Dコンテンツ配信サーバ101は、前述したように、符号化時に、主画像(2Dコンテンツ)、視差画像(視差コンテンツ)の符号化データを生成するとともに、それぞれの復号用のタイムスタンプを生成して付与するようにしており、さらに、視差画像(視差コンテンツ)の符号化データに付す配信用のタイムスタンプを、主画像(2Dコンテンツ)の符号化データに付す配信用のタイムスタンプと同じ時刻かあるいはより早い時刻を設定するようにしている。
かかる処理を施すことによって、主画像(2Dコンテンツ)と視差画像(視差コンテンツ)とからなる3Dコンテンツを受信する受信端末301が、主画像(2Dコンテンツ)のみをデコードする端末であった場合には、2Dコンテンツのみが配信されてくる従来の場合と同様のバッファ量があれば十分になり、一方、3Dコンテンツをデコードする受信端末については、先行して配信されてくる視差画像(視差コンテンツ)を一時保存するためのバッファメモリを余分に準備すれば良いことになる。つまり、受信端末301が、主画像(2Dコンテンツ)と視差画像(視差コンテンツ)との双方をデコードして、立体表示する端末であった場合には、配信用のタイムスタンプとして、主画像(2Dコンテンツ)と同じかまたはより早い時刻に設定されている視差画像(視差コンテンツ)を同時または先行して保存する分に応じたバッファメモリを新たに準備すれば良いことになる。
以上に説明したように、図3において、再生順10を示す再生時刻情報(PT)は、前述のように、主画像(2Dコンテンツ)の出力時刻情報(再生時刻情報)ptiと視差画像(視差コンテンツ)の出力時刻情報(再生時刻情報)ptiaとは同一であり、
pti=ptia (i=1,2,3,…)
pti : 主画像(2Dコンテンツ)の出力時刻(再生時刻)
ptia: 視差画像(視差コンテンツ)の出力時刻(再生時刻)
の関係にある。
また、符号化時に復号用のタイムスタンプとして付される復号時刻情報(DT)は、主画像(2Dコンテンツ)の復号時刻情報dtiと視差画像(視差コンテンツ)の復号時刻情報ptiaとの関係として、視差画像(視差コンテンツ)の復号時刻情報ptiaの方が主画像(2Dコンテンツ)以降の遅れた時刻に設定されていて、
dti≦dtia (i=1,2,3,…)
dti : 主画像(2Dコンテンツ)の復号時刻
ptia: 視差画像(視差コンテンツ)の復号時刻
の関係にあり、主画像(2Dコンテンツ)を復号しなければ、視差画像(視差コンテンツ)の復号はできないことを意味している。
このため、主画像(2Dコンテンツ)と視差画像(視差コンテンツ)とからなる3Dコンテンツを配信しようとする際、従来技術のように、一般的には、主画像(2Dコンテンツ)の伝送時刻情報tiと視差画像(視差コンテンツ)の復号時刻情報tiaとの関係は、
ti≦tia (i=1,2,3,…)
ti : 主画像(2Dコンテンツ)の伝送時刻
tia: 視差画像(視差コンテンツ)の伝送時刻
の関係になってしまう。
しかし、主画像(2Dコンテンツ)を視差画像(視差コンテンツ)とは別のチャンネルで伝送し、かつ、主画像(2Dコンテンツ)はそのままでも再生することを可能とするように、図3において伝送順30として示すように、本実施形態においては、主画像(2Dコンテンツ)の伝送時刻情報tiの方を視差画像(視差コンテンツ)以降に遅らせるように、
ti≧tia (i=1,2,3,…)
の関係に設定することが望ましい。つまり、視差画像(視差コンテンツ)を、対応する主画像(2Dコンテンツ)よりも先にまたは少なくとも同時に配信することが望ましい。
この時、主画像(2Dコンテンツ)の伝送時刻情報tiと視差画像(視差コンテンツ)の伝送時刻情報tiaとの間の時間差を、受信端末301のバッファメモリの容量を節約するために、第i番目の視差画像(視差コンテンツ)iaが参照すべき第i番目の主画像(2Dコンテンツ)iがI−Pictureデータであった場合を例に採ると、その直前のI−Pictureデータの伝送時刻情報よりも遅い時刻情報になるように、すなわち、GOP(Group Of Picture)時間以内の時間になるように設定することが望ましい。
(受信端末301のブロック構成例)
次に、図1に示す3Dコンテンツ配信システムにおける受信端末301のブロック構成について、その一例を、図4を参照しながら説明する。図4は、図1に示す3Dコンテンツ配信システムにおける受信端末301のブロック構成の一例を示すブロック構成図であり、図3のタイムチャートに示した手順で符号化されて配信されてくる3Dコンテンツをデコードして立体表示することが可能な端末の構成例を示している。
図4に示すように、受信端末301は、配信されてくるH.264 MVC方式準拠の主画像(2Dコンテンツ)および視差画像(視差コンテンツ)を格納するバッファメモリ3011、該主画像(2Dコンテンツ)および視差画像(視差コンテンツ)をデコードして3Dコンテンツとして出力するMVCデコーダ3012、画面表示を行うためのフレームデータを格納するフレームメモリ3013、立体表示を行う3D表示ディスプレイ3014、3D表示ディスプレイに立体表示された3Dコンテンツを視聴するために視聴者が装着する3D表示ディスプレイ連動の3Dメガネ3015、受信端末301の全体の動作を制御するCPU3016、視聴者の状態を撮像した撮像データを取得するカメラ3017を、少なくとも備えて構成されている。なお、図4の受信端末301は、動作説明を簡単化するために、3D表示ディスプレイ3014を内蔵している端末の例を示しているが、外部に配置した3D表示ディスプレイとの間をHDMI規格等の接続端子、ケーブルによって外部接続する構成としても勿論構わない。
図4に示す受信端末301においては、まず、CPU3016の制御に基づいて、図1に示す番組表配信サーバ102が配信してくる、IPパケット化された番組表データをバッファメモリ3011にて受信して、MVCデコーダ3012によってデコードして、3D表示ディスプレイ3014に表示する。この時、CPU3016は、当該受信端末301の表示モードが3Dコンテンツとして立体表示する3Dモードに設定されているか、また、3Dメガネ3015が当該受信端末301に接続されていて電源が投入されているか否かを判定し、さらに、3Dメガネ3015が当該受信端末301に接続されていて電源が投入されていても、視聴者が3Dメガネを装着していない場合や、あるいは、3Dメガネを装着していても3D視聴が可能な水平な状態に装着していない場合もあるので、カメラ3017によって視聴者の状態を撮像した情報を取得して、番組表データを3D表示ディスプレイ3014に3D表示するか否かを選択する。
ここで、CPU3016にて、当該受信端末301の表示モードが3Dモードになっていると判定した場合には、3D表示ディスプレイ3014上に番組表示を行う際に、番組表データの中に3Dコンテンツが存在している場合、3Dコンテンツを優先させて表示する。また、当該受信端末301の表示モードが、3Dモードではなく、2Dモードになっていると判定した場合には、番組表データの中の全ての番組を、3Dコンテンツの有無によらず、2Dモードとして3D表示ディスプレイ3014上に表示するが、3Dコンテンツが存在していることが分かる識別情報を付して表示するようにしておく。この場合の番組表の表示例は、先に図5として説明している通りである。
受信端末301の表示モードが3Dモードであった場合には、図2のシーケンスチャートにて説明したように、受信端末301は、視聴者のチャンネル選択結果に応じて、まず、選択した3Dコンテンツの視差コンテンツが配信されているチャンネル例えばチャンネルCH1aのマルチキャストアドレスにジョイン(参加要求)して、図1に示す3Dコンテンツ配信サーバ101から配信されてくる視差コンテンツを受信して、バッファメモリ3011に一次蓄積する。
続いて、選択した3Dコンテンツの2Dコンテンツが配信されているチャンネル例えばチャンネルCH1のマルチキャストアドレスにジョイン(参加要求)して、図1に示す3Dコンテンツ配信サーバ101から配信されてくる2Dコンテンツを受信する。
受信端末301は、チャンネルCH1の2Dコンテンツを受信した際に、当該2Dコンテンツに付されているタイムスタンプが示す復号時刻情報にしたがって、受信端末301内部の時刻情報を合わせて、MVCデコーダ3012にて2Dコンテンツのデコードを開始するとともに、バッファメモリ3011に保存している視差コンテンツに付されているタイムスタンプが示す復号時刻情報に合わせて、MVCデコーダ3012にてバッファメモリ3011に保存している視差コンテンツのデコードを行う。この時、H.264 MVC方式による符号化手順の場合、MVCデコーダ3012のデコード順と3D表示ディスプレイ3014への出力順とが異なっているため、フレームバッファ3013にて出力順を入れ替えて、3D表示ディスプレイ3014に対して出力し、立体表示を行う。
以上に詳細に説明したように、本実施形態においては、以下のような効果を得ることができる。
すなわち、3Dコンテンツ配信サーバ101には、2Dコンテンツと3Dコンテンツを構成するための2Dコンテンツの視差コンテンツとに圧縮符号化して保持されており、また、番組表配信サーバ102には、2Dコンテンツと3Dコンテンツとの両方が配信されているかもしくは2Dコンテンツのみが配信されているかを明示した電子番組表が保持されていて、それぞれのサーバが、保持している情報を視聴者が利用する受信端末301に対して配信しているので、2Dコンテンツと3Dコンテンツとが混在して配信されている環境下であっても、受信端末301を利用して映像コンテンツを視聴する視聴者にとって、配信されてくる映像コンテンツが、3D視聴が可能なコンテンツか否かを判り易く表示することができ、視聴者は2Dコンテンツもしくは3Dコンテンツを容易に選択することが可能である。
以上、本発明の好適実施例の構成を説明した。しかし、斯かる実施例は、本発明の単なる例示に過ぎず、何ら本発明を限定するものではないことに留意されたい。本発明の要旨を逸脱することなく、特定用途に応じて種々の変形変更が可能であることが、当業者には容易に理解できよう。
10 再生順
20 符号化順
30 伝送順
100 データセンタ/放送局
101 3Dコンテンツ配信サーバ
101A 2Dコンテンツ配信サーバ
102 番組表配信サーバ
200 CDN(Contents Delivery Network)
201 エッジルータ
300 SOHO(Small Office/Home Office)/家庭
301 受信端末
3011 バッファメモリ
3012 MVCデコーダ
3013 フレームメモリ
3014 3D表示ディスプレイ
3015 3Dメガネ
3016 CPU
3017 カメラ
S101 3Dコンテンツの2D成分をパケット化した2Dコンテンツデータ
S102 3Dコンテンツの視差成分をパケット化した視差コンテンツデータ
S103 2Dコンテンツをパケット化した2Dコンテンツデータ
S104 番組表
S105 選局要求信号

Claims (10)

  1. 3Dコンテンツ(3 Dimension:3次元)を3Dコンテンツ配信サーバからIPネットワークを介して受信端末に配信する3Dコンテンツ配信システムであって、前記3Dコンテンツ配信サーバは、前記受信端末に配信する前記3Dコンテンツを圧縮符号化する際に、前記3Dコンテンツを構成する左目用の映像データと右目用の映像データとのいずれか一方の映像データを選択して2Dコンテンツとして圧縮符号化するとともに、他方の映像データを前記2Dコンテンツとの視差による差分を示す視差コンテンツとして圧縮符号化して、前記視差コンテンツを前記2Dコンテンツよりも先行して前記受信端末に配信し、前記受信端末は、配信されてきた前記視差コンテンツと前記2Dコンテンツとを表示モードに応じて復号することを特徴とする3Dコンテンツ配信システム。
  2. 前記3Dコンテンツ配信サーバは、前記3Dコンテンツを圧縮符号化する際に、ISO/IEC14496−10規格のAnnex Hに準拠したH.264 MVC(Multi-View Coding)方式に基づいて圧縮符号化を行うことを特徴とする請求項1に記載の3Dコンテンツ配信システム。
  3. 前記3Dコンテンツ配信サーバから前記受信端末に配信する前記3Dコンテンツのタイトルを番組として3Dコンテンツであることを示す識別情報を付して登録した番組表を前記受信端末に前記IPネットワークを介して配信する番組表配信サーバをさらに備え、前記受信端末は、前記番組表配信サーバから配信されてきた前記番組表の中から指定した番組の配信要求を前記IPネットワークに対して行い、前記IPネットワークは、前記3Dコンテンツ配信サーバからの前記3Dコンテンツのうち、前記受信端末から指定された番組に関する前記3Dコンテンツを構成する前記2Dコンテンツと前記視差コンテンツとを抽出して当該受信端末に配信するエッジルータを備えていることを特徴とする請求項1または2に記載の3Dコンテンツ配信システム。
  4. 前記受信端末は、前記3Dコンテンツ配信サーバから配信されてきた前記3Dコンテンツを構成する前記2Dコンテンツと前記視差コンテンツとのうち、前記視差コンテンツを先に受信し、しかる後、前記2Dコンテンツを受信することを特徴とする請求項1ないし3のいずれかに記載の3Dコンテンツ配信システム。
  5. 前記受信端末は、前記表示モードとして、視聴者が3D視聴を行う3Dモードと2D視聴を行う2Dモードとを備え、視聴者が前記表示モードとして前記3Dモードを選択していた場合、配信されてきた前記視差コンテンツと前記2Dコンテンツとを復号して、前記3Dコンテンツとして再生し、視聴者が前記表示モードとして前記2Dモードを選択していた場合、配信されてきた前記視差コンテンツと前記2Dコンテンツとのうち、前記2Dコンテンツを復号して2Dコンテンツとして再生することを特徴とする請求項4に記載の3Dコンテンツ配信システム。
  6. 前記受信端末は、3D視聴用の3Dメガネの電源の投入状態を監視し、前記3Dメガネの電源が投入されているか否かに基づいて、前記3Dモードまたは前記2Dモードに設定することを特徴とする請求項5に記載の3Dコンテンツ配信システム。
  7. 前記受信端末は、当該受信端末の視聴者を撮像するカメラをさらに備え、前記カメラによって撮像した前記視聴者の状態を取得し、該視聴者が3D視聴用の3Dメガネを装着しているか否かに基づいて、あるいは、該視聴者が装着している3D視聴用の3Dメガネが水平な状態にあるか否かに基づいて、前記3Dモードまたは前記2Dモードに設定することを特徴とする請求項6に記載の3Dコンテンツ配信システム。
  8. 3Dコンテンツ(3 Dimension:3次元)を3Dコンテンツ配信サーバからIPネットワークを介して受信端末に配信するビデオ配信サービスを提供する3Dコンテンツ配信方法であって、前記3Dコンテンツ配信サーバは、前記受信端末に配信する前記3Dコンテンツを圧縮符号化する際に、前記3Dコンテンツを構成する左目用の映像データと右目用の映像データとのいずれか一方の映像データを選択して2Dコンテンツとして圧縮符号化するとともに、他方の映像データを前記2Dコンテンツとの視差による差分を示す視差コンテンツとして圧縮符号化して、前記視差コンテンツを前記2Dコンテンツよりも先行して前記受信端末に配信し、前記受信端末は、配信されてきた前記視差コンテンツと前記2Dコンテンツとを表示モードに応じて復号することを特徴とする3Dコンテンツ配信方法。
  9. 前記受信端末は、前記表示モードとして、視聴者が3D視聴を行う3Dモードと2D視聴を行う2Dモードとを備え、視聴者が前記受信モードとして前記3Dモードを選択していた場合、配信されてきた前記視差コンテンツと前記2Dコンテンツとを復号して、前記3Dコンテンツとして再生し、視聴者が前記受信モードとして前記2Dモードを選択していた場合、配信されてきた前記視差コンテンツと前記2Dコンテンツとのうち、前記2Dコンテンツを復号して2Dコンテンツとして再生することを特徴とする請求項8に記載の3Dコンテンツ配信方法。
  10. 請求項8または9に記載の3Dコンテンツ配信方法を、コンピュータによって実行可能なプログラムとして実施していることを特徴とする3Dコンテンツ配信プログラム。
JP2010135047A 2010-06-14 2010-06-14 3dコンテンツ配信システム、3dコンテンツ配信方法および3dコンテンツ配信プログラム Pending JP2012004645A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010135047A JP2012004645A (ja) 2010-06-14 2010-06-14 3dコンテンツ配信システム、3dコンテンツ配信方法および3dコンテンツ配信プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010135047A JP2012004645A (ja) 2010-06-14 2010-06-14 3dコンテンツ配信システム、3dコンテンツ配信方法および3dコンテンツ配信プログラム

Publications (1)

Publication Number Publication Date
JP2012004645A true JP2012004645A (ja) 2012-01-05

Family

ID=45536183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010135047A Pending JP2012004645A (ja) 2010-06-14 2010-06-14 3dコンテンツ配信システム、3dコンテンツ配信方法および3dコンテンツ配信プログラム

Country Status (1)

Country Link
JP (1) JP2012004645A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104081798A (zh) * 2012-01-27 2014-10-01 英特尔公司 用于改善多播内容递送的技术
WO2016204481A1 (ko) * 2015-06-16 2016-12-22 엘지전자 주식회사 미디어 데이터 전송 장치, 미디어 데이터 수신 장치, 미디어 데이터 전송 방법, 및 미디어 데이터 수신 방법
JP2017103760A (ja) * 2015-11-04 2017-06-08 ユビタス インコーポレイテッドUbitus Inc. ビデオストリームで実行される対話型アプリケーション
CN107529021A (zh) * 2017-10-18 2017-12-29 北京伟开赛德科技发展有限公司 隧道型全景视频采集、分发、定位跟踪***及其方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104081798A (zh) * 2012-01-27 2014-10-01 英特尔公司 用于改善多播内容递送的技术
JP2015513811A (ja) * 2012-01-27 2015-05-14 インテル コーポレイション 改善されたマルチキャスト・コンテンツ配信のための技術
JP2017022769A (ja) * 2012-01-27 2017-01-26 インテル コーポレイション 改善されたマルチキャスト・コンテンツ配信のための技術
CN104081798B (zh) * 2012-01-27 2018-02-06 英特尔公司 用于改善多播内容递送的方法和设备
WO2016204481A1 (ko) * 2015-06-16 2016-12-22 엘지전자 주식회사 미디어 데이터 전송 장치, 미디어 데이터 수신 장치, 미디어 데이터 전송 방법, 및 미디어 데이터 수신 방법
JP2017103760A (ja) * 2015-11-04 2017-06-08 ユビタス インコーポレイテッドUbitus Inc. ビデオストリームで実行される対話型アプリケーション
CN107529021A (zh) * 2017-10-18 2017-12-29 北京伟开赛德科技发展有限公司 隧道型全景视频采集、分发、定位跟踪***及其方法
CN107529021B (zh) * 2017-10-18 2024-05-03 北京伟开赛德科技发展有限公司 隧道型全景视频采集、分发、定位跟踪***及其方法

Similar Documents

Publication Publication Date Title
JP5956441B2 (ja) 受信再生装置、送信装置、受信再生方法及び送信方法
US20110043614A1 (en) Content transmission method and display device
Hur et al. 3DTV broadcasting and distribution systems
US20110074922A1 (en) Method and system for 3d video coding using svc spatial scalability
US20110149028A1 (en) Method and system for synchronizing 3d glasses with 3d video displays
KR102361314B1 (ko) 360도 가상현실 방송 서비스 제공 방법 및 장치
US20110090970A1 (en) Terminal and relay node for video conference system
US20150062295A1 (en) Image processing system, transmitting device, receiving device, transmitting method, receiving method, and computer program
EP2337365A2 (en) Method and system for pulldown processing for 3D video
JP5981915B2 (ja) 送信装置、受信再生装置、送信方法及び受信再生方法
US9615143B2 (en) Device and method for providing content by accessing content stream in hybrid 3D TV, and device and method for reproducing content
KR101977260B1 (ko) 입체영상 디스플레이가 가능한 디지털 방송 수신방법 및 수신장치
US20110149040A1 (en) Method and system for interlacing 3d video
US9204123B2 (en) Video content generation
JP2012004645A (ja) 3dコンテンツ配信システム、3dコンテンツ配信方法および3dコンテンツ配信プログラム
WO2013034073A1 (zh) 3d立体视频编码传输方法及装置
US20110150355A1 (en) Method and system for dynamic contrast processing for 3d video
KR20170130883A (ko) 하이브리드 망 기반의 가상 현실 방송 서비스 방법 및 장치
JP5501081B2 (ja) 表示装置、表示方法
CA2824708C (en) Video content generation
JP2019016850A (ja) 映像伝送方法および映像伝送システムならびに送信装置および受信装置
JP5684415B2 (ja) デジタル放送信号受信装置およびデジタル放送信号受信方法
Zou An Overview for Developing End‐to‐End Standards for 3‐D TV in the Home
Kwon et al. Program associated 3D non-real-time service on terrestrial DTV
KR20140111875A (ko) 영상 표시장치 및 그것의 비디오 스트림 제어방법