JP2011119906A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2011119906A
JP2011119906A JP2009274538A JP2009274538A JP2011119906A JP 2011119906 A JP2011119906 A JP 2011119906A JP 2009274538 A JP2009274538 A JP 2009274538A JP 2009274538 A JP2009274538 A JP 2009274538A JP 2011119906 A JP2011119906 A JP 2011119906A
Authority
JP
Japan
Prior art keywords
image
data
output time
time information
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009274538A
Other languages
English (en)
Inventor
Teruhiko Suzuki
輝彦 鈴木
Yoshitomo Takahashi
良知 高橋
Takuya Kitamura
卓也 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009274538A priority Critical patent/JP2011119906A/ja
Priority to US12/953,540 priority patent/US20110128355A1/en
Priority to CN2010105689474A priority patent/CN102088599A/zh
Publication of JP2011119906A publication Critical patent/JP2011119906A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】立体視画像を構成する多視点の画像が多重化されて符号化される場合に、復号時に多視点の画像の組を認識することができるようにする。
【解決手段】LRペアの画像データが符号化されて符号化ストリームが生成される。この符号化ストリームのうち、LRペアのうちのL画像の符号化データには、そのL画像のDPB出力時刻情報が付加され、R画像の符号化データにはDPB出力時刻情報が付加されずに符号化ストリームが伝送される。本発明は、例えば、立体視画像を処理する装置に適用することができる。
【選択図】図7

Description

本発明は、画像処理装置および画像処理方法に関し、特に、立体視画像を構成する多視点の画像が多重化されて符号化される場合に、復号時に多視点の画像の組を認識することができるようにした画像処理装置および画像処理方法に関する。
近年、画像情報をディジタル信号として取り扱い、その際、効率の高い情報の伝送、蓄積を目的とし、画像情報特有の冗長性を利用して、離散コサイン変換等の直交変換と動き補償により圧縮するMPEG(Moving Picture Expert Group)などの方式に準拠した装置が、放送局などの情報配信、及び一般家庭における情報受信の双方において普及しつつある。
すなわち、例えば、MPEGや、H.26x等の、離散コサイン変換若しくはカルーネン・レーベ変換等の直交変換と動き補償を採用する符号化方式によって圧縮された画像情報(ビットストリーム)を、衛星放送、ケーブルTV、インターネットなどのネットワークメディアを介して受信する際に、若しくは光、磁気ディスク、フラッシュメモリのような記憶メディア上で処理する際に用いられる符号化装置及び復号装置が普及しつつある。
例えば、MPEG2(ISO/IEC 13818-2)は、汎用画像符号化方式として定義されており、飛び越し走査画像(インターレース方式の画像)及び順次走査画像(プログレッシブ方式の画像)の双方、並びに標準解像度画像及び高精細画像を網羅する標準で、プロフェッショナル用途及びコンシューマー用途の広範なアプリケーションに現在広く用いられている。MPEG2圧縮方式を用いることにより、横×縦が、例えば720×480画素を持つ標準解像度の飛び越し走査画像であれば4〜8Mbps、1920×1088画素を持つ高解像度の飛び越し走査画像であれば18〜22Mbpsの符号量(ビットレート)を割り当てることで、高い圧縮率と良好な画質の実現が可能である。
MPEG2は主として放送用に適合する高画質符号化を対象としていたが、MPEG1より低い符号量(ビットレート)、つまり、より高い圧縮率の符号化方式には対応していなかった。携帯端末の普及により、今後そのような符号化方式のニーズは高まると思われ、これに対応してMPEG4符号化方式の標準化が行われた。画像符号化方式に関しては、1998年12月にISO/IEC 14496-2としてその規格が国際標準に承認された。
さらに、AVC (MPEG-4 part 10,ISO/IEC 14496-10,ITU-T H.264)符号化方式の標準化も行われている。この標準化は、ITU-TとISO/IECの間で共同で画像符号化方式の標準化を行うためのJVT(Joint Video Team)という団体で進められている。
AVCは、MPEG2やMPEG4と同様に、動き補償と離散コサイン変換から構成されるハイブリッド符号化方式である。AVCは、MPEG2やMPEG4といった従来の符号化方式に比べ、符号化および復号により多くの演算量が要求されるものの、より高い符号化効率が実現されることが知られている。
ところで、近年、立体視が可能な立体視画像の撮像技術および表示技術が進歩しているため、上述のような符号化の対象となる画像のコンテンツとして、2次元画像のコンテンツだけでなく、立体視画像のコンテンツも考えられている。立体視画像を構成する多視点の画像の符号化と復号の方法については、例えば、特許文献1に記載されている。
立体視画像のうちの、視点の数が最も少ないのは、視点の数が2視点の3D(Dimensional)画像(ステレオ画像)であり、3D画像の画像データは、左眼で観察される画像である左眼画像(以下、L(Left)画像ともいう)の画像データと、右眼で観察される画像である右眼画像(以下、R(Right)画像ともいう)の画像データとからなる。なお、以下では、説明を簡単にするため、立体視画像を構成する多視点の画像の一例として、視点の数が最も少ない2視点の3D画像を用いて説明する。
特開2008-182669号公報
3D画像の符号化データが、3D画像を構成するL画像およびR画像(以下、LRペアという)が時間方向に多重化されてAVC符号化方式で符号化された結果得られるビットストリームである場合、LRペアを構成するL画像とR画像の符号化データには、異なるDPB(Decoded Picture Buffer)出力時刻情報(dpb_output_delay)が付加される。なお、DPB出力時刻情報とは、DPBから復号結果を出力する時刻の情報である。
従って、復号装置では、ビットストリーム内のどの画像の符号化データとどの画像の符号化データがLRペアの符号化データであるのかを認識することができない。よって、立体視画像を表示することは困難である。
本発明は、このような状況に鑑みてなされたものであり、立体視画像を構成する多視点の画像が多重化されて符号化される場合に、復号時に多視点の画像の組を認識することができるようにするものである。
本発明の第1の側面の画像処理装置は、立体視画像を構成する多視点の画像の画像データを符号化して符号化ストリームを生成する符号化手段と、前記符号化ストリームのうち、前記多視点の画像のうちのいずれか1つの画像の符号化データには、その画像の復号結果の出力時刻を表す出力時刻情報を連結し、その画像以外の画像の符号化データには前記出力時刻情報を連結せずに前記符号化ストリームを伝送する伝送手段とを備える画像処理装置である。
本発明の第1の側面の画像処理方法は、本発明の第1の側面の画像処理装置に対応する。
本発明の第1の側面においては、立体視画像を構成する多視点の画像の画像データが符号化されて符号化ストリームが生成され、符号化ストリームのうち、多視点の画像のうちのいずれか1つの画像の符号化データには、その画像の復号結果の出力時刻を表す出力時刻情報が連結され、その画像以外の画像の符号化データには出力時刻情報が連結されずに符号化ストリームが伝送される。
本発明の第2の側面の画像処理装置は、立体視画像を構成する多視点の画像の画像データを符号化した符号化ストリームと、その符号化ストリームのうちの、前記多視点の画像のうちのいずれか1つの画像の符号化データに連結された、その画像の復号結果の出力時刻を表す出力時刻情報とを受け取る受け取り手段と、前記受け取り手段により受け取られた前記符号化ストリームを復号して画像データを生成する復号手段と、前記受け取り手段により受け取られた前記出力時刻情報に基づいて、前記復号手段により生成された、前記出力時刻情報に対応する画像の画像データと、前記出力時刻情報に対応しない画像の画像データを、前記多視点の画像の画像データとして出力する出力手段とを備える画像処理装置である。
本発明の第2の側面の画像処理方法は、本発明の第2の側面の画像処理装置に対応する。
本発明の第2の側面においては、立体視画像を構成する多視点の画像の画像データを符号化した符号化ストリームと、その符号化ストリームのうちの、多視点の画像のうちのいずれか1つの画像の符号化データに連結された、その画像の復号結果の出力時刻を表す出力時刻情報とが受け取られ、受け取られた符号化ストリームが復号されて画像データが生成され、受け取られた出力時刻情報に基づいて、復号により生成された、出力時刻情報に対応する画像の画像データと、出力時刻情報に対応しない画像の画像データが、多視点の画像の画像データとして出力される。
なお、第1および第2の側面の画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、第1および第2の側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
本発明の第1の側面によれば、立体視画像を構成する多視点の画像を多重化して符号化した符号化ストリームを復号する装置に、多視点の画像の組を通知し、多視点の画像の組を認識させることができる。
本発明の第2の側面によれば、立体視画像を構成する多視点の画像を多重化して符号化した符号化ストリームを復号する場合に、多視点の画像の組を認識することができる。
本発明を適用した符号化システムの一実施の形態の構成例を示すブロック図である。 図1のビデオ符号化装置の構成例を示すブロック図である。 符号化システムにおける撮像タイミングについて説明する図である。 符号化システムにおける他の撮像タイミングについて説明する図である。 ビデオ合成回路による多重化を説明する図である。 図2の符号化回路の構成例を示すブロック図である。 ビットストリームの例を説明する図である。 DPB出力時刻情報のシンタックスの例を示す図である。 可逆符号化部によるDPB出力時刻情報付加処理を説明するフローチャートである。 本発明を適用した符号化システムの一実施の形態の他の構成例を示すブロック図である。 図10の合成部から出力される多重化信号を説明する図である。 復号システムの構成例を示すブロック図である。 図12のビデオ復号装置の構成例を示すブロック図である。 図13の復号回路の構成例を示すブロック図である。 画像並べ替えバッファによるLRペア認識処理を説明するフローチャートである。 DPB出力時刻情報の他の付加方法を説明する図である。 コンピュータの一実施の形態の構成例を示すブロック図である。 本発明を適用したテレビジョン受像機の主な構成例を示すブロック図である。 本発明を適用した携帯電話機の主な構成例を示すブロック図である。 本発明を適用したハードディスクレコーダの主な構成例を示すブロック図である。 本発明を適用したカメラの主な構成例を示すブロック図である。
<一実施の形態>
[符号化システムの一実施の形態の構成例]
図1は、本発明を適用した符号化システムの一実施の形態の構成例を示すブロック図である。
図1の符号化システム10は、左眼用撮像装置11、右眼用撮像装置12、およびビデオ符号化装置13により構成される。
左眼用撮像装置11は、L画像を撮像する撮像装置であり、右眼用撮像装置12は、R画像を撮像する撮像装置である。左眼用撮像装置11から右眼用撮像装置12には同期信号が入力され、左眼用撮像装置11と右眼用撮像装置12は、互いに同期する。左眼用撮像装置11と右眼用撮像装置12は、所定の撮像タイミングで撮像を行う。
ビデオ符号化装置13には、左眼用撮像装置11により撮像されたL画像の画像信号が入力されるとともに、右眼用撮像装置12により撮像されたR画像の画像信号が入力される。ビデオ符号化装置13は、LRペアごとにL画像の画像信号とR画像の画像信号を時間方向に多重化し、その結果得られる多重化信号に対してAVC符号化方式に準拠した符号化を行う。ビデオ符号化装置13は、符号化の結果得られる符号化ストリームをビットストリームとして出力する。
[ビデオ符号化装置の構成例]
図2は、図1のビデオ符号化装置13の構成例を示すブロック図である。
図2のビデオ符号化装置13は、ビデオ合成回路21と符号化回路22により構成される。
ビデオ合成回路21は、LRペアごとに、左眼用撮像装置11により撮像されたL画像の画像信号と、右眼用撮像装置12により撮像されたR画像の画像信号を、時間方向に多重化し、その結果得られる多重化信号を符号化回路22に供給する。
符号化回路22は、ビデオ合成回路21から入力される多重化信号を、AVC符号化方式に準拠して符号化する。なお、このとき、符号化回路22は、LRペアのうちの符号化順が前の画像の符号化データには、DPB出力時刻情報を付加し、後ろの画像の符号化データには、DPB出力時刻情報を付加しない。符号化回路22は、LRペアのうちの符号化順が前の画像の符号化データにDPB出力時刻情報が付加された符号化ストリームをビットストリームとして出力する。
なお、以下では、LRペアの符号化順が、L画像、R画像の順であるものとして説明する。
[撮像タイミングの説明]
図3および図4は、符号化システム10における撮像タイミングについて説明する図である。
符号化システム10において、左眼用撮像装置11と右眼用撮像装置12は、図3に示すように、LRペアを同一のタイミングで撮像したり、図4に示すように、LRペアを連続する異なるタイミングで撮像したりする。
[L画像とR画像の多重化の説明]
図5は、ビデオ合成回路21による多重化を説明する図である。
図3や図4で説明したタイミングで撮像されたL画像の画像信号とR画像の画像信号は、パラレルにビデオ合成回路21に供給される。ビデオ合成回路21は、LRペアごとにL画像の画像信号とR画像の画像信号を時間方向に多重化する。これにより、ビデオ合成回路21から出力される多重化信号は、図5に示すように、L画像の画像信号とR画像の画像信号が交互に繰り返される画像信号となる。
[符号化回路の構成例]
図6は、図2の符号化回路22の構成例を示すブロック図である。
符号化回路22のA/D変換部41は、ビデオ合成回路21から供給されるアナログ信号である多重化信号に対してA/D変換を行い、ディジタル信号である画像データを得る。そして、A/D変換部41は、その画像データを画像並べ替えバッファ42に供給する。
画像並べ替えバッファ42は、A/D変換部41からの画像データを一時記憶し、必要に応じて読み出すことで、符号化回路22の出力であるビットストリームのGOP(Group of Pictures)構造に応じて、画像データのピクチャ(フレーム)(フィールド)を符号化順に並べ替える並べ替えを行う。
画像並べ替えバッファ42から読み出されたピクチャのうちの、イントラ符号が行われるイントラピクチャは、演算部43に供給される。
演算部43は、画像並べ替えバッファ42から供給されるイントラピクチャの画素値から、必要に応じて、イントラ予測部53から供給される予測画像の画素値を減算し、直交変換部44に供給する。
直交変換部44は、イントラピクチャ(の画素値、又は、予測画像が減算された減算値)に対して、離散コサイン変換や、カルーネン・レーベ変換等の直交変換を施し、その結果得られる変換係数を、量子化部45に供給する。なお、直交変換部44で行われる離散コサイン変換は、実数の離散コサイン変換を近似した整数変換であってもよい。また、離散コサイン変換の変換方法として、4×4ブロックサイズで整数係数変換を行う方法が用いられてもよい。
量子化部45は、直交変換部44からの変換係数を量子化し、その結果得られる量子化値を、可逆符号化部46に供給する。
可逆符号化部46は、量子化部45からの量子化値に対して、可変長符号化や、算術符号化等の可逆符号化を施し、その結果得られる符号化データを、蓄積バッファ47に供給する。
蓄積バッファ47は、可逆符号化部46からの符号化データを一時記憶し、所定のレートでビットストリームとして伝送する。
レート制御部48は、蓄積バッファ47の符号化データの蓄積量を監視しており、その蓄積量に基づき、量子化部45の量子化ステップ等の、量子化部45の挙動を制御する。
量子化部45で得られる量子化値は、可逆符号化部46に供給される他、逆量子化部49にも供給される。逆量子化部49は、量子化部45からの量子化値を、変換係数に逆量子化し、逆直交変換部50に供給する。
逆直交変換部50は、逆量子化部49からの変換係数を逆直交変換し、演算部51に供給する。
演算部51は、逆直交変換部50から供給されるデータに対して、必要に応じて、イントラ予測部53から供給される予測画像の画素値を加算することで、イントラピクチャの復号画像を得て、フレームメモリ52に供給する。
フレームメモリ52は、演算部51から供給される復号画像を一時記憶し、その復号画像を、必要に応じて、予測画像を生成するのに用いる参照画像として、イントラ予測部53や動き予測/動き補償部54に供給する。
イントラ予測部53は、イントラピクチャの中で、演算部43で処理の対象となっている部分(ブロック)の近傍の画素のうちの、既にフレームメモリ52に記憶されている画素から予測画像を生成し、演算部43及び51に供給する。
イントラ符号化が行われるピクチャについて、上述したようにして、イントラ予測部53から演算部43に予測画像が供給される場合、演算部43では、画像並べ替えバッファ42から供給されるピクチャから、イントラ予測部53から供給される予測画像が減算される。
また、演算部51では、演算部43で減算された予測画像が、逆直交変換部50から供給されるデータに加算される。
一方、インター符号化が行われるノンイントラピクチャは、画像並べ替えバッファ42から、演算部43、及び、動き予測/動き補償部54に供給される。
動き予測/動き補償部54は、フレームメモリ52から、画像並べ替えバッファ42からのノンイントラピクチャの動き予測に際して参照される復号画像のピクチャを、参照画像として読み出す。さらに、動き予測/動き補償部54は、フレームメモリ52からの参照画像を用いて、画像並べ替えバッファ42からのノンイントラピクチャについて、動きベクトルを検出する。
そして、動き予測/動き補償部54は、動きベクトルに従い、参照画像に動き補償を施すことで、ノンイントラピクチャの予測画像を生成し、演算部43及び51に供給する。なお、動き補償の際のブロックサイズは固定であっても可変であってもよい。
演算部43では、画像並べ替えバッファ42から供給されるノンイントラピクチャから、イントラ予測部53から供給される予測画像が減算され、以下、イントラピクチャの場合と同様にして、符号化が行われる。
なお、イントラ予測部53が予測画像を生成するモードであるイントラ予測モードは、イントラ予測部53から可逆符号化部46に供給される。また、動き予測/動き補償部54で得られる動きベクトル、及び、動き予測/動き補償部54が動き補償を行うモードである動き補償予測モードは、動き予測/動き補償部54から可逆符号化部46に供給される。
さらに、図示せぬ符号化回路22全体を制御する制御部により生成されたDPB出力時刻情報も、可逆符号化部46に供給される。
可逆符号化部46では、イントラ予測モード、動きベクトル、動き補償予測モード、その他、各ピクチャのピクチャタイプ等の、復号に必要な情報が可逆符号化され、符号化データのヘッダに含められる。さらに、可逆符号化部46では、DPB出力時刻情報が、L画像の符号化データに付加される。
[ビットストリームの説明]
図7は、符号化回路22から出力されるビットストリームの例を説明する図である。
図7に示すように、符号化回路22では、LRペアごとにL画像の画像データとR画像の画像データが時間方向に多重化されて、L画像、R画像の順に符号化される。そして、符号化の結果得られるL画像の符号化データにだけDBP出力時刻情報が付加され、R画像の符号化データにはDBP出力時刻情報は付加されない。
従って、このようなビットストリームを復号するビデオ復号装置は、DBP出力時刻情報が付加されている符号化データの復号結果をL画像の画像データと認識し、その符号化データの直後に復号されたDBP出力時刻情報が付加されていない符号化データの復号結果を、そのL画像と同一のLRペアを構成するR画像の画像データと認識することができる。即ち、ビデオ復号装置は、LRペアを認識することができる。
例えば、ビデオ復号装置は、図7に示すように、第1番目の画像の符号化データにDPB出力時刻情報が付加されており、第2番目の画像の符号化データにDPB出力時刻情報が付加されていない場合、第1番目の画像の符号化データと第2番目の画像の符号化データを、LRペアの符号化データと認識することができる。その結果、3D画像を表示することができる。
[DPB出力時刻情報のシンタックスの例]
図8は、DPB出力時刻情報のシンタックスの例を示す図である。
図8の上から4段落目がDPB出力時刻情報(dpb_output_delay)である。
[符号化システムの処理の説明]
図9は、符号化システム10の可逆符号化部46(図6)によるDPB出力時刻情報付加処理を説明するフローチャートである。このDBP出力時刻情報付加処理は、例えば、可逆符号化部46が各ピクチャの符号化データを生成したとき、開始される。
図9のステップS11において、可逆符号化部46は、生成された符号化データがL画像の符号化データであるかどうかを判定する。ステップS11で、生成された符号化データがL画像の符号化データであると判定された場合、ステップS12において、その符号化データに図示せぬ制御部により生成されたDPB出力時刻情報を付加し、処理を終了する。
一方、ステップS11で、生成された符号化データがL画像の符号化データではないと判定された場合、即ち、生成された符号化データがR画像の符号化データである場合、ステップS12の処理は行われず、処理は終了する。即ち、R画像の符号化データにはDPB出力時刻情報が付加されない。
なお、図1の符号化システム10では、ビデオ合成回路21がビデオ符号化装置13に設けられたが、ビデオ符号化装置13の外部に設けられるようにしてもよい。この場合、左眼用撮像装置11で撮像されたL画像の画像信号と右眼用撮像装置12で撮像されたR画像の画像信号がビデオ合成回路21で多重化され、多重化信号がビデオ符号化装置13に入力される。
[符号化システムの一実施の形態の他の構成例]
図10は、本発明を適用した符号化システムの一実施の形態の他の構成例を示すブロック図である。
図10の符号化システム10は、撮像装置101とビデオ符号化装置102により構成される。符号化システム10では、1つの撮像装置101でL画像とR画像が撮像され、L画像の画像信号とR画像の画像信号が多重化されてシリアルにビデオ符号化装置102に入力される。
具体的には、撮像装置101は、撮像部111、分岐部112、2つの撮像処理部113および撮像処理部114、並びに合成部115により構成される。撮像部111は、撮像処理部113の制御により撮像を行い、その結果得られる画像信号を、分岐部112を介して撮像処理部113に供給する。また、撮像部111は、撮像処理部114の制御により撮像を行い、その結果得られる画像信号を、分岐部112を介して撮像処理部114に供給する。
撮像処理部113は、撮像部111を制御して、撮像処理部114の撮像タイミングと同一の撮像タイミングまたは連続する異なる撮像タイミングで撮像を行わせる。撮像処理部113は、その結果分岐部112から供給される画像信号を合成部115に供給する。
撮像処理部114は、撮像部111を制御して、撮像処理部113の撮像タイミングと同一の撮像タイミングまたは連続する異なる撮像タイミングで撮像を行わせる。撮像処理部114は、その結果分岐部112から供給される画像信号をR画像の画像信号として合成部115に供給する。
合成部115は、撮像処理部113から供給されるL画像の画像信号と撮像処理部114から供給されるR画像の画像信号を、LRペアごとに時間方向に多重化してビデオ符号化装置102に出力する。
ビデオ符号化装置102は、図2の符号化回路22により構成され、合成部115から供給される多重化信号に対して、AVC符号化方式に準拠した符号化を行う。
図11は、合成部115から出力される多重化信号を説明する図である。
合成部115では、撮像処理部113の制御により撮像されたL画像の画像信号と撮像処理部114の制御により撮像されたR画像の画像信号が、LRペアごとに時間方向に多重化される。その結果、合成部115から出力される多重化信号は、図11に示すように、L画像の画像信号とR画像の画像信号が交互に繰り返される画像信号となる。
[復号システムの構成例]
図12は、上述した符号化システム10から出力されたビットストリームを復号する復号システムの構成例を示すブロック図である。
図12の復号システム200は、ビデオ復号装置201と3Dビデオ表示装置202により構成される。
ビデオ復号装置201は、符号化システム10から出力されたビットストリームを受け取り、AVC符号化方式に対応する方式で復号する。ビデオ復号装置201は、その結果得られるアナログ信号である画像信号を、LRペアごとに3Dビデオ表示装置202に出力する。
3Dビデオ表示装置202は、ビデオ復号装置201からLRペアごとに入力されるL画像の画像信号とR画像の画像信号に基づいて、3D画像を表示する。これにより、ユーザは、立体画像を見ることができる。
なお、3Dビデオ表示装置202としては、LRペアを同一のタイミングで表示する表示装置を用いることもできるし、LRペアを連続する異なるタイミングで表示する表示装置を用いることもできる。また、LRペアを連続する異なるタイミングで表示する表示装置としては、L画像とR画像をラインごとに交互にインタリーブし、フィールド単位で交互に表示する表示装置、L画像とR画像をフレームレートの高い画像としてフレーム単位で交互に表示する表示装置などがある。
[ビデオ復号装置の構成例]
図13は、図12のビデオ復号装置201の構成例を示すブロック図である。
図13に示すように、ビデオ復号装置201は、復号回路211、フレームメモリ212、画像サイズ変換回路213、フレームレート変換回路214、D/A(Digital/Analog)変換回路215、およびコントローラ216により構成される。
復号回路211は、符号化システム10から出力されたビットストリームを受け取り、AVC符号化方式に対応する方式で復号する。復号回路211は、ビットストリームに含まれるDPB出力時刻情報に基づいて、復号の結果得られるディジタル信号である画像データから、LRペアの画像データを認識する。また、復号回路211は、DPB出力時刻情報に基づいて、復号の結果得られるLRペアの画像データをフレームメモリ212に供給する。
フレームメモリ212は、復号回路211から供給される画像データを記憶する。フレームメモリ212は、コントローラ216の制御にしたがって、記憶しているL画像の画像データとR画像の画像データをLRペアごとに読み出し、画像サイズ変換回路213に出力する。
画像サイズ変換回路213は、フレームメモリ212から供給されるLRペアの画像データの画像サイズを、それぞれ所定のサイズに拡大または縮小し、フレームレート変換回路214に供給する。
フレームレート変換回路214は、コントローラ216の制御にしたがって、L画像およびR画像のフレームレートが所定のレートになるように、画像サイズ変換回路213から供給されるLRペアの画像データの出力タイミングを制御しながら、LRペアの画像データを出力する。
D/A変換回路215は、フレームレート変換回路214から出力されたLRペアの画像データに対してそれぞれD/A変換を行い、その結果得られるアナログ信号である画像信号を3Dビデオ表示装置202に出力する。
コントローラ216は、フレームメモリ212を制御し、LRペアごとに画像データを読み出させる。また、コントローラ216は、フレームレート変換回路214を制御し、画像サイズ変換回路213から出力されるL画像およびR画像の画像データのフレームレートを所定のフレームレートに変換して出力させる。
[復号回路の構成例]
図14は、図13の復号回路211の構成例を示すブロック図である。
蓄積バッファ271は、符号化システム10からビットストリームを受け取り、一時記憶する。
可逆符号復号部272は、蓄積バッファ271からのビットストリームに対して、そのビットストリームのフォーマットに基づき、可変長復号や、算術復号等の処理を施すことで、量子化値と、符号化データのヘッダに含められたイントラ予測モード、動きベクトル、動き補償予測モード、その他、各ピクチャのピクチャタイプ等の、画像の復号に必要な情報を復号する。
可逆符号復号部272で得られる量子化値は、逆量子化部273に供給され、イントラ予測モードは、イントラ予測部277に供給される。また、可逆符号復号部272で得られる動きベクトル(MV)、動き補償予測モード、及び、ピクチャタイプは、動き予測/動き補償部278に供給される。
さらに、可逆符号復号部272は、ビットストリームからDPB出力時刻情報を抽出し、画像並べ替えバッファ279に供給する。
逆量子化部273、逆直交変換部274、演算部275、フレームメモリ276、イントラ予測部277、及び、動き予測/動き補償部278は、図6の逆量子化部49、逆直交変換部50、演算部51、フレームメモリ52、イントラ予測部53、及び、動き予測/動き補償部54とそれぞれ同様の処理を行い、これにより、画像が復号される(復号画像が得られる)。
すなわち、逆量子化部273は、可逆符号復号部272からの量子化値を、変換係数に逆量子化し、逆直交変換部274に供給する。
逆直交変換部274は、ビットストリームのフォーマットに基づき、逆量子化部273からの変換係数に対して、逆離散コサイン変換、逆カルーネン・レーベ変換等の逆直交変換を施し、演算部275に供給する。
演算部275は、逆直交変換部274から供給されるデータのうちの、イントラピクチャのデータについては、必要に応じて、イントラ予測部277から供給される予測画像の画素値を加算することで、イントラピクチャの復号画像を得る。また、演算部275は、逆直交変換部274から供給されるデータのうちの、ノンイントラピクチャのデータについては、動き予測/動き補償部278から供給される予測画像の画素値を加算することで、ノンイントラピクチャの復号画像を得る。
演算部275で得られた復号画像は、必要に応じて、フレームメモリ276に供給されるとともに、画像並べ替えバッファ279に供給される。
フレームメモリ276は、演算部275から供給される復号画像を一時記憶し、その復号画像を、必要に応じて、予測画像を生成するのに用いる参照画像として、イントラ予測部277や動き予測/動き補償部278に供給する。
イントラ予測部277は、演算部275で処理の対象となっているデータが、イントラピクチャのデータである場合、そのイントラピクチャの予測画像を、フレームメモリ276からの参照画像としての復号画像を用いて、必要に応じて生成し、演算部275に供給する。
すなわち、イントラ予測部277は、可逆符号復号部272からのイントラ予測モードに従い、演算部275で処理の対象となっている部分(ブロック)の近傍の画素のうちの、既にフレームメモリ276に記憶されている画素から予測画像を生成し、演算部275に供給する。
一方、動き予測/動き補償部278は、演算部275で処理の対象となっているデータが、ノンイントラピクチャのデータである場合、そのノンイントラピクチャの予測画像を生成し、演算部275に供給する。
すなわち、動き予測/動き補償部278は、可逆符号復号部272からのピクチャタイプ等に従い、フレームメモリ276から、予測画像の生成に用いる復号画像のピクチャを、参照画像として読み出す。さらに、動き予測/動き補償部278は、フレームメモリ276からの参照画像に対して、可逆符号復号部272からの動きベクトル、及び、動き補償予測モードに従った動き補償を施すことにより、予測画像を生成し、演算部275に供給する。
演算部275では、以上のようにして、イントラ予測部277、又は、動き予測/動き補償部278から供給される予測画像を、逆直交変換部274から供給されるデータに加算することで、ピクチャ(の画素値)が復号される。
画像並べ替えバッファ279は、可逆符号復号部272からDPB出力時刻情報が供給されるかどうかによって、演算部275からのピクチャ(復号画像)の画像データがL画像の画像データであるか、または、R画像の画像データであるかを認識する。また、画像並べ替えバッファ279は、演算部275からのピクチャの画像データを一時記憶する。
画像並べ替えバッファ279は、可逆符号復号部272から供給されるDPB出力時刻情報に基づいて、記憶しているピクチャの画像データのうちの、そのDPB出力時刻情報が付加されたL画像のピクチャと、符号化順でそのピクチャの直後のDPB出力時刻情報が付加されていないR画像のピクチャの画像データを順に読み出すことで、ピクチャの並びを、元の並び(表示順)に並び替え、LRペアごとにフレームメモリ212(図13)に出力する。
ここで、図14の復号装置において、画像並び替えバッファ279、および、フレームメモリ276が、DPBに相当する。
[復号回路の処理の説明]
図15は、復号回路211の画像並べ替えバッファ279(図14)によるLRペア認識処理を説明するフローチャートである。このLRペア認識処理は、例えば、演算部275から復号の結果得られる各ピクチャの画像データが入力されたとき、開始される。
図15のステップS21において、画像並べ替えバッファ279は、演算部275から供給されるピクチャの画像データの復号前の符号化データにDPB出力時刻情報が付加されていたかどうかを判定する。具体的には、画像並べ替えバッファ279は、可逆符号復号部272からDPB出力時刻情報が供給されたかどうかを判定する。
ステップS21で、符号化データにDPB出力時刻情報が付加されていたと判定された場合、ステップS22において、画像並べ替えバッファ279は、演算部275から供給された画像データをL画像の画像データと認識し、処理を終了する。
ステップS21で、符号化データにDPB出力時刻情報が付加されていないと判定された場合、ステップS23において、画像並べ替えバッファ279は、演算部275から供給された画像データをR画像の画像データと認識し、処理を終了する。
以上のようにして認識されたL画像の画像データと、符号化順がその画像データの直後のR画像の画像データは、LRペアの画像データとしてフレームメモリ212に出力される。
以上のように、符号化システム10は、LRペアのうちの符号化順が前のL画像の符号化データにだけDPB出力時刻情報を付加する。従って、復号システム200は、DPB出力時刻情報が付加された符号化データの復号結果と、その符号化データより後に復号されたDPB出力時刻情報が付加されていない符号化データの復号結果が、LRペアの復号結果であることを認識することができる。その結果、復号システム200は、3D画像を表示することができる。
なお、上述した説明では、LRペアの符号化順が予め決められているものとしたが、LRペアの符号化順は可変にすることもできる。この場合、例えば、LRペアの符号化順を表す符号化順情報が符号化データに付加され、画像並べ替えバッファ279は、DPB出力時刻情報の取得の有無と符号化順情報に基づいて、演算部275からのピクチャがL画像のピクチャであるか、R画像のピクチャであるかを認識する。
また、DPB出力時刻情報が付加される画像は、LRペアのうちの符号化順が所定の順位の画像であればよい。即ち、上述した説明のように符号化順が前の画像であってもよいし、後ろの画像であってもよい。符号化順が後ろの画像にDPB出力時刻情報が付加される場合、復号システム200では、DPB出力時刻情報が付加された符号化データの復号結果と、その符号化データより前に復号されたDPB出力時刻情報が付加されていない符号化データの復号結果が、LRペアの復号結果であると認識される。
[DPB出力時刻情報の他の付加方法]
上述した説明では、DPB出力時刻情報がL画像の符号化データにだけ付加されたが、図16に示すように、DPB出力時刻情報は、L画像の符号化データとR画像の符号化データの両方に付加されるようにしてもよい。この場合、ビデオ符号化装置は、L画像の符号化データにL画像であることを示すフラグを付加したり、LRペアの符号化データにLRペアであることを示す情報を付加したりすることで、ビデオ復号装置にLRペアを認識させることができる。
なお、本実施の形態では、DPB出力時刻情報や符号化順情報が符号化データに付加(記述)されたが、DPB出力時刻情報や符号化順情報は画像データ(又はビットストリーム)と連結されていればよい。
ここで、「連結」とは、画像データ(又はビットストリーム)とDPB出力時刻情報とが互いにリンクされている状態を指す。従って、連結対象の画像データとDPB出力時刻情報とは、別の伝送路で伝送されてもよい。また、連結対象の画像データ(又はビットストリーム)とDPB出力時刻情報とは、互いに別の記録媒体(又は同一の記録媒体内の別々の記録エリア)に記録されてもよい。なお、画像データ(又はビットストリーム)とDPB出力時刻情報とをリンクさせる単位は、例えば、符号化処理単位(1フレーム、複数フレーム等)にすることができる。
[本発明を適用したコンピュータの説明]
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図17は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としての記憶部608やROM602に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブルメディア611に格納(記録)しておくことができる。このようなリムーバブルメディア611は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア611としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブルメディア611からドライブ610を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部608にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送されたり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送されたりすることができる。
コンピュータは、CPU(Central Processing Unit)601を内蔵しており、CPU601には、バス604を介して、入出力インタフェース605が接続されている。
CPU601は、入出力インタフェース605を介して、ユーザによって、入力部606が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)602に格納されているプログラムを実行する。あるいは、CPU601は、記憶部608に格納されたプログラムを、RAM(Random Access Memory)603にロードして実行する。
これにより、CPU601は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU601は、その処理結果を、必要に応じて、例えば、入出力インタフェース605を介して、出力部607から出力、あるいは、通信部609から送信、さらには、記憶部608に記録等させる。
なお、入力部606は、キーボードや、マウス、マイク等で構成される。また、出力部607は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した符号化システム10や復号システム200は、任意の電子機器に適用することができる。以下にその例について説明する。
[テレビジョン受像機の構成例]
図18は、本発明を適用した復号システムを用いるテレビジョン受像機の主な構成例を示すブロック図である。
図18のテレビジョン受像機700は、上述した符号化システム10で得られるビットストリームを、ディジタル放送の放送信号やコンテンツデータとして取得し、復号システム200と同様の処理を行って立体視画像を表示する。
テレビジョン受像機700の地上波チューナ713は、地上アナログ放送の放送波信号を、アンテナを介して受信し、復調し、画像信号を取得し、それをビデオデコーダ715に供給する。ビデオデコーダ715は、地上波チューナ713から供給された映像信号に対してデコード処理を施し、得られたディジタルのコンポーネント信号を映像信号処理回路718に供給する。
映像信号処理回路718は、ビデオデコーダ715から供給された映像データに対してノイズ除去などの所定の処理を施し、得られた映像データをグラフィック生成回路719に供給する。
グラフィック生成回路719は、表示パネル721に表示させる番組の映像データや、ネットワークを介して供給されるアプリケーションに基づく処理による画像データなどを生成し、生成した映像データや画像データをパネル駆動回路720に供給する。また、グラフィック生成回路719は、ユーザにより項目の選択などに利用される画面を表示するための映像データ(グラフィック)を生成し、それを番組の映像データに重畳したりすることによって得られた映像データをパネル駆動回路720に供給するといった処理も適宜行う。
パネル駆動回路720は、グラフィック生成回路719から供給されたデータに基づいて表示パネル721を駆動し、番組の映像や上述した各種の画面を表示パネル721に表示させる。
表示パネル721は、パネル駆動回路720による制御に従って番組の映像などを表示させる。
また、テレビジョン受像機700は、音声A/D(Analog/Digital)変換回路714、音声信号処理回路722、エコーキャンセル/音声合成回路723、音声増幅回路724、およびスピーカ725も有する。
地上波チューナ713は、受信した放送波信号を復調することにより、映像信号だけでなく音声信号も取得する。地上波チューナ713は、取得した音声信号を音声A/D変換回路714に供給する。
音声A/D変換回路714は、地上波チューナ713から供給された音声信号に対してA/D変換処理を施し、得られたディジタルの音声信号を音声信号処理回路722に供給する。
音声信号処理回路722は、音声A/D変換回路714から供給された音声データに対してノイズ除去などの所定の処理を施し、得られた音声データをエコーキャンセル/音声合成回路723に供給する。
エコーキャンセル/音声合成回路723は、音声信号処理回路722から供給された音声データを音声増幅回路724に供給する。
音声増幅回路724は、エコーキャンセル/音声合成回路723から供給された音声データに対してD/A変換処理、増幅処理を施し、音声を所定の音量に調整してスピーカ725から出力させる。
さらに、テレビジョン受像機700は、デジタルチューナ716およびMPEGデコーダ717も有する。
デジタルチューナ716は、ディジタル放送(地上ディジタル放送、BS(Broadcasting Satellite)/CS(Communications Satellite)ディジタル放送)の放送波信号を、アンテナを介して受信し、復調し、MPEG-TS(Moving Picture Experts Group-Transport Stream)を取得し、それをMPEGデコーダ717に供給する。
MPEGデコーダ717は、デジタルチューナ716から供給されたMPEG-TSに施されているスクランブルを解除し、再生対象(視聴対象)になっている番組のデータを含むストリームを抽出する。MPEGデコーダ717は、抽出したストリームを構成する音声パケットをデコードし、得られた音声データを音声信号処理回路722に供給するとともに、ストリームを構成する映像パケットをデコードし、得られた映像データを映像信号処理回路718に供給する。また、MPEGデコーダ717は、MPEG-TSから抽出したEPG(Electronic Program Guide)データを図示せぬ経路を介してCPU732に供給する。
MPEGデコーダ717から供給された映像データは、ビデオデコーダ715から供給された映像データの場合と同様に、映像信号処理回路718において所定の処理が施される。そして、所定の処理が施された映像データは、グラフィック生成回路719において、生成された映像データ等が適宜重畳され、パネル駆動回路720を介して表示パネル721に供給され、その画像が表示される。
テレビジョン受像機700は、このように映像パケットをデコードして表示パネル721に画像を表示させる処理として、上述したビデオ復号装置201と同様の処理を行う。その結果、例えば、番組のLRペアを認識し、番組の立体視画像を表示することができる。
MPEGデコーダ717から供給された音声データは、音声A/D変換回路714から供給された音声データの場合と同様に、音声信号処理回路722において所定の処理が施される。そして、所定の処理が施された音声データは、エコーキャンセル/音声合成回路723を介して音声増幅回路724に供給され、D/A変換処理や増幅処理が施される。その結果、所定の音量に調整された音声がスピーカ725から出力される。
また、テレビジョン受像機700は、マイクロホン726、およびA/D変換回路727も有する。
A/D変換回路727は、音声会話用のものとしてテレビジョン受像機700に設けられるマイクロホン726により取り込まれたユーザの音声の信号を受信する。A/D変換回路727は、受信した音声信号に対してA/D変換処理を施し、得られたディジタルの音声データをエコーキャンセル/音声合成回路723に供給する。
エコーキャンセル/音声合成回路723は、テレビジョン受像機700のユーザ(ユーザA)の音声のデータがA/D変換回路727から供給されている場合、ユーザAの音声データを対象としてエコーキャンセルを行う。そして、エコーキャンセル/音声合成回路723は、エコーキャンセルの後、他の音声データと合成するなどして得られた音声のデータを、音声増幅回路724を介してスピーカ725より出力させる。
さらに、テレビジョン受像機700は、音声コーデック728、内部バス729、SDRAM(Synchronous Dynamic Random Access Memory)730、フラッシュメモリ731、CPU732、USB(Universal Serial Bus) I/F733、およびネットワークI/F734も有する。
A/D変換回路727は、音声会話用のものとしてテレビジョン受像機700に設けられるマイクロホン726により取り込まれたユーザの音声の信号を受信する。A/D変換回路727は、受信した音声信号に対してA/D変換処理を施し、得られたディジタルの音声データを音声コーデック728に供給する。
音声コーデック728は、A/D変換回路727から供給された音声データを、ネットワーク経由で送信するための所定のフォーマットのデータに変換し、内部バス729を介してネットワークI/F734に供給する。
ネットワークI/F734は、ネットワーク端子735に装着されたケーブルを介してネットワークに接続される。ネットワークI/F734は、例えば、そのネットワークに接続される他の装置に対して、音声コーデック728から供給された音声データを送信する。また、ネットワークI/F734は、例えば、ネットワークを介して接続される他の装置から送信される音声データを、ネットワーク端子735を介して受信し、それを、内部バス729を介して音声コーデック728に供給する。
音声コーデック728は、ネットワークI/F734から供給された音声データを所定のフォーマットのデータに変換し、それをエコーキャンセル/音声合成回路723に供給する。
エコーキャンセル/音声合成回路723は、音声コーデック728から供給される音声データを対象としてエコーキャンセルを行い、他の音声データと合成するなどして得られた音声のデータを、音声増幅回路724を介してスピーカ725より出力させる。
SDRAM730は、CPU732が処理を行う上で必要な各種のデータを記憶する。
フラッシュメモリ731は、CPU732により実行されるプログラムを記憶する。フラッシュメモリ731に記憶されているプログラムは、テレビジョン受像機700の起動時などの所定のタイミングでCPU732により読み出される。フラッシュメモリ731には、ディジタル放送を介して取得されたEPGデータ、ネットワークを介して所定のサーバから取得されたデータなども記憶される。
例えば、フラッシュメモリ731には、CPU732の制御によりネットワークを介して所定のサーバから取得されたコンテンツデータを含むMPEG-TSが記憶される。フラッシュメモリ731は、例えばCPU732の制御により、そのMPEG-TSを、内部バス729を介してMPEGデコーダ717に供給する。
MPEGデコーダ717は、デジタルチューナ716から供給されたMPEG-TSの場合と同様に、そのMPEG-TSを処理する。その結果、例えば、コンテンツデータのLRペアを認識し、コンテンツデータに対応する立体視画像を表示することができる。
以上のようにテレビジョン受像機700は、立体視画像や音声等よりなるコンテンツデータを、ネットワークを介して受信し、MPEGデコーダ717を用いてデコードし、その立体視画像を表示させたり、音声を出力させたりすることができる。
また、テレビジョン受像機700は、リモートコントローラ751から送信される赤外線信号を受光する受光部737も有する。
受光部737は、リモートコントローラ751からの赤外線を受光し、復調して得られたユーザ操作の内容を表す制御コードをCPU732に出力する。
CPU732は、フラッシュメモリ731に記憶されているプログラムを実行し、受光部737から供給される制御コードなどに応じてテレビジョン受像機700の全体の動作を制御する。CPU732とテレビジョン受像機700の各部は、図示せぬ経路を介して接続されている。
USB I/F733は、USB端子736に装着されたUSBケーブルを介して接続される、テレビジョン受像機700の外部の機器との間でデータの送受信を行う。ネットワークI/F734は、ネットワーク端子735に装着されたケーブルを介してネットワークに接続し、ネットワークに接続される各種の装置と音声データ以外のデータの送受信も行う。
[携帯電話機の構成例]
図19は、本発明を適用した符号化システムおよび復号システムを用いる携帯電話機の主な構成例を示すブロック図である。
図19の携帯電話機800は、上述した符号化システム10と同様の処理を行い、立体視画像を表示するためのビットストリームを得る。また、携帯電話機800は、上述した符号化システム10で得られるビットストリームを受信して、復号システム200と同様の処理を行い、立体視画像を表示する。
図19の携帯電話機800は、各部を統括的に制御するようになされた主制御部850、電源回路部851、操作入力制御部852、画像エンコーダ853、カメラI/F部854、LCD制御部855、画像デコーダ856、多重分離部857、記録再生部862、変復調回路部858、および音声コーデック859を有する。これらは、バス860を介して互いに接続されている。
また、携帯電話機800は、操作キー819、CCD(Charge Coupled Devices)カメラ816、液晶ディスプレイ818、記憶部823、送受信回路部863、アンテナ814、マイクロホン(マイク)821、およびスピーカ817を有する。
電源回路部851は、ユーザの操作により終話および電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することにより携帯電話機800を動作可能な状態に起動する。
携帯電話機800は、CPU、ROMおよびRAM等でなる主制御部850の制御に基づいて、音声通話モードやデータ通信モード等の各種モードで、音声信号の送受信、電子メールや画像データの送受信、画像撮影、またはデータ記録等の各種動作を行う。
例えば、音声通話モードにおいて、携帯電話機800は、マイクロホン(マイク)821で集音した音声信号を、音声コーデック859によってディジタル音声データに変換し、これを変復調回路部858でスペクトラム拡散処理し、送受信回路部863でデジタルアナログ変換処理および周波数変換処理する。携帯電話機800は、その変換処理により得られた送信用信号を、アンテナ814を介して図示しない基地局へ送信する。基地局へ伝送された送信用信号(音声信号)は、公衆電話回線網を介して通話相手の携帯電話機に供給される。
また、例えば、音声通話モードにおいて、携帯電話機800は、アンテナ814で受信した受信信号を送受信回路部863で増幅し、さらに周波数変換処理およびアナログデジタル変換処理し、変復調回路部858でスペクトラム逆拡散処理し、音声コーデック859によってアナログ音声信号に変換する。携帯電話機800は、その変換して得られたアナログ音声信号をスピーカ817から出力する。
更に、例えば、データ通信モードにおいて電子メールを送信する場合、携帯電話機800は、操作キー819の操作によって入力された電子メールのテキストデータを、操作入力制御部852において受け付ける。携帯電話機800は、そのテキストデータを主制御部850において処理し、LCD制御部855を介して、画像として液晶ディスプレイ818に表示させる。
また、携帯電話機800は、主制御部850において、操作入力制御部852が受け付けたテキストデータやユーザ指示等に基づいて電子メールデータを生成する。携帯電話機800は、その電子メールデータを、変復調回路部858でスペクトラム拡散処理し、送受信回路部863でデジタルアナログ変換処理および周波数変換処理する。携帯電話機800は、その変換処理により得られた送信用信号を、アンテナ814を介して図示しない基地局へ送信する。基地局へ伝送された送信用信号(電子メール)は、ネットワークおよびメールサーバ等を介して、所定のあて先に供給される。
また、例えば、データ通信モードにおいて電子メールを受信する場合、携帯電話機800は、基地局から送信された信号を、アンテナ814を介して送受信回路部863で受信し、増幅し、さらに周波数変換処理およびアナログデジタル変換処理する。携帯電話機800は、その受信信号を変復調回路部858でスペクトラム逆拡散処理して元の電子メールデータを復元する。携帯電話機800は、復元された電子メールデータを、LCD制御部855を介して液晶ディスプレイ818に表示する。
なお、携帯電話機800では、受信した電子メールデータを、記録再生部862を介して、記憶部823に記憶させることも可能である。
この記憶部823は、書き換え可能な任意の記憶媒体である。記憶部823は、例えば、RAMや内蔵型フラッシュメモリ等の半導体メモリであってもよいし、ハードディスクであってもよいし、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、またはメモリカード等のリムーバブルメディアであってもよい。もちろん、これら以外のものであってもよい。
さらに、例えば、データ通信モードにおいて画像データを送信する場合、携帯電話機800は、撮像によりCCDカメラ816で画像データを生成する。CCDカメラ816は、レンズや絞り等の光学デバイスと光電変換素子としてのCCDを有し、被写体を撮像し、受光した光の強度を電気信号に変換し、被写体の画像の画像データを生成する。その画像データを、カメラI/F部854を介して、画像エンコーダ853で、AVC符号化方式によって圧縮符号化することにより符号化画像データに変換する。
携帯電話機800は、このように撮像により生成された画像データを圧縮符号化する処理として、上述したビデオ符号化装置13と同様の処理を行う。その結果、復号時に、撮像画像のLRペアを認識し、撮像画像の立体視画像を表示することができる。
携帯電話機800は、多重分離部857において、画像エンコーダ853から供給された符号化画像データと、音声コーデック859から供給されたディジタル音声データとを、所定の方式で多重化する。携帯電話機800は、その結果得られる多重化データを、変復調回路部858でスペクトラム拡散処理し、送受信回路部863でデジタルアナログ変換処理および周波数変換処理する。携帯電話機800は、その変換処理により得られた送信用信号を、アンテナ814を介して図示しない基地局へ送信する。基地局へ伝送された送信用信号(画像データ)は、ネットワーク等を介して、通信相手に供給される。
なお、画像データを送信しない場合、携帯電話機800では、CCDカメラ816で生成した画像データ等を、画像エンコーダ853を介さずに、LCD制御部855を介して液晶ディスプレイ818に表示させることもできる。
また、例えば、データ通信モードにおいて、簡易ホームページ等にリンクされた動画像ファイルのデータを受信する場合、携帯電話機800は、基地局から送信された信号を、アンテナ814を介して送受信回路部863で受信し、増幅し、さらに周波数変換処理およびアナログデジタル変換処理する。携帯電話機800は、その受信信号を変復調回路部858でスペクトラム逆拡散処理して元の多重化データを復元する。携帯電話機800は、多重分離部857において、その多重化データを分離して、符号化画像データと音声データとに分ける。
携帯電話機800は、画像デコーダ856において、符号化画像データを、AVC符号化方式に対応した復号方式でデコードすることにより、再生動画像データを生成し、これを、LCD制御部855を介して液晶ディスプレイ818に表示させる。これにより、例えば、簡易ホームページにリンクされた動画像ファイルに含まれる動画データの立体視画像が液晶ディスプレイ818に表示される。
携帯電話機800は、このように符号化画像データをデコードして液晶ディスプレイ818に表示する処理として、上述したビデオ復号装置201と同様の処理を行う。その結果、例えば、簡易ホームページにリンクされた動画像ファイルに対応する動画像のLRペアを認識し、動画像の立体視画像を表示することができる。
なお、電子メールの場合と同様に、携帯電話機800では、受信した簡易ホームページ等にリンクされたデータを、記録再生部862を介して、記憶部823に記憶させることも可能である。
また、携帯電話機800は、主制御部850において、撮像されてCCDカメラ816で得られた2次元コードを解析し、2次元コードに記録された情報を取得することができる。
さらに、携帯電話機800は、赤外線通信部881で赤外線により外部の機器と通信することができる。
なお、以上において、携帯電話機800が、CCDカメラ816を用いるように説明したが、このCCDカメラ816の代わりに、CMOS(Complementary Metal Oxide Semiconductor)を用いたイメージセンサ(CMOSイメージセンサ)を用いるようにしてもよい。この場合も、携帯電話機800は、CCDカメラ816を用いる場合と同様に、被写体を撮像し、被写体の画像の画像データを生成することができる。
また、以上においては携帯電話機800について説明したが、例えば、PDA(Personal Digital Assistants)、スマートフォン、UMPC(Ultra Mobile Personal Computer)、ネットブック、ノート型パーソナルコンピュータ等、この携帯電話機800と同様の撮像機能や通信機能を有する装置であれば、どのような装置であっても携帯電話機800の場合と同様に、上述した符号化システムおよび復号システムを適用することができる。
[ハードディスクレコーダの構成例]
図20は、本発明を適用した復号システムを用いるハードディスクレコーダとモニタの主な構成例を示すブロック図である。
図20のハードディスクレコーダ(HDDレコーダ)900は、上述した符号化システム10で得られるビットストリームを、チューナにより受信された、衛星や地上のアンテナ等より送信される放送波信号(テレビジョン信号)等として取得し、内蔵するハードディスクに保存する。そして、ハードディスクレコーダ900は、ユーザの指示に応じたタイミングで、保存されているビットストリームを用いて復号システム200と同様の処理を行い、放送波信号の立体視画像をモニタ960に表示させる。
ハードディスクレコーダ900は、受信部921、復調部922、デマルチプレクサ923、オーディオデコーダ924、ビデオデコーダ925、およびレコーダ制御部926を有する。ハードディスクレコーダ900は、さらに、EPGデータメモリ927、プログラムメモリ928、ワークメモリ929、ディスプレイコンバータ930、OSD(On Screen Display)制御部931、ディスプレイ制御部932、記録再生部933、D/Aコンバータ934、および通信部935を有する。
また、ディスプレイコンバータ930は、ビデオエンコーダ941を有する。記録再生部933は、エンコーダ951およびデコーダ952を有する。
受信部921は、リモートコントローラ(図示せず)からの赤外線信号を受信し、電気信号に変換してレコーダ制御部926に出力する。レコーダ制御部926は、例えば、マイクロプロセッサなどにより構成され、プログラムメモリ928に記憶されているプログラムに従って、各種の処理を実行する。レコーダ制御部926は、このとき、ワークメモリ929を必要に応じて使用する。
通信部935は、ネットワークに接続され、ネットワークを介して他の装置との通信処理を行う。例えば、通信部935は、レコーダ制御部926により制御され、チューナ(図示せず)と通信し、主にチューナに対して選局制御信号を出力する。
復調部922は、チューナより供給された信号を、復調し、デマルチプレクサ923に出力する。デマルチプレクサ923は、復調部922より供給されたデータを、オーディオデータ、ビデオデータ、およびEPGデータに分離し、それぞれ、オーディオデコーダ924、ビデオデコーダ925、またはレコーダ制御部926に出力する。
オーディオデコーダ924は、入力されたオーディオデータを、例えばMPEG方式でデコードし、記録再生部933に出力する。ビデオデコーダ925は、入力されたビデオデータを、AVC符号化方式に対応する方式でデコードし、ディスプレイコンバータ930に出力する。レコーダ制御部926は、入力されたEPGデータをEPGデータメモリ927に供給し、記憶させる。
ディスプレイコンバータ930は、ビデオデコーダ925またはレコーダ制御部926より供給されたビデオデータを、ビデオエンコーダ941により、例えばNTSC(National Television Standards Committee)方式のビデオデータにエンコードし、記録再生部933に出力する。
また、ディスプレイコンバータ930は、ビデオデコーダ925またはレコーダ制御部926より供給されるビデオデータの画面のサイズを、モニタ960のサイズに対応するサイズに変換する。ディスプレイコンバータ930は、画面のサイズが変換されたビデオデータを、さらに、ビデオエンコーダ941によってNTSC方式のビデオデータに変換し、アナログ信号に変換し、ディスプレイ制御部932に出力する。
ディスプレイ制御部932は、レコーダ制御部926の制御のもと、OSD(On Screen Display)制御部931が出力したOSD信号を、ディスプレイコンバータ930より入力されたビデオ信号に重畳し、モニタ960のディスプレイに出力し、表示させる。
ハードディスクレコーダ900は、このようにビデオデータをデコードしてモニタ960に画像を表示する処理として、上述したビデオ復号装置201と同様の処理を行う。その結果、例えば、番組のLRペアを認識し、番組の立体視画像を表示することができる。
モニタ960にはまた、オーディオデコーダ924が出力したオーディオデータが、D/Aコンバータ934によりアナログ信号に変換されて供給されている。モニタ960は、このオーディオ信号を内蔵するスピーカから出力する。
記録再生部933は、ビデオデータやオーディオデータ等を記録する記憶媒体としてハードディスクを有する。
記録再生部933は、例えば、オーディオデコーダ924より供給されるオーディオデータを、エンコーダ951によりMPEG方式でエンコードする。また、記録再生部933は、ディスプレイコンバータ930のビデオエンコーダ941より供給されるビデオデータを、エンコーダ951によりAVC符号化方式でエンコードする。
ハードディスクレコーダ900は、このようにビデオデータをエンコードする処理として、上述したビデオ符号化装置13と同様の処理を行う。その結果、復号再生時に、番組のLRペアを認識し、番組の立体視画像を表示することができる。
また、記録再生部933は、そのオーディオデータの符号化データとビデオデータの符号化データとをマルチプレクサにより合成する。記録再生部933は、その合成データをチャネルコーディングして増幅し、そのデータを、記録ヘッドを介してハードディスクに書き込む。
記録再生部933は、再生ヘッドを介してハードディスクに記録されているデータを再生し、増幅し、デマルチプレクサによりオーディオデータとビデオデータに分離する。記録再生部933は、デコーダ952によりオーディオデータをMPEG符号化方式に対応する方式でデコードし、ビデオデータをAVC符号化方式に対応する方式でデコードする。記録再生部933は、復号したオーディオデータをD/A変換し、モニタ960のスピーカに出力する。また、記録再生部933は、復号したビデオデータをD/A変換し、モニタ960のディスプレイに出力する。
レコーダ制御部926は、受信部921を介して受信されるリモートコントローラからの赤外線信号により示されるユーザ指示に基づいて、EPGデータメモリ927から最新のEPGデータを読み出し、それをOSD制御部931に供給する。OSD制御部931は、入力されたEPGデータに対応する画像データを発生し、ディスプレイ制御部932に出力する。ディスプレイ制御部932は、OSD制御部931より入力されたビデオデータをモニタ960のディスプレイに出力し、表示させる。これにより、モニタ960のディスプレイには、EPG(電子番組ガイド)が表示される。
また、ハードディスクレコーダ900は、インターネット等のネットワークを介して他の装置から供給されるビデオデータ、オーディオデータ、またはEPGデータ等の各種データを取得することができる。
通信部935は、レコーダ制御部926に制御され、ネットワークを介して他の装置から送信されるビデオデータ、オーディオデータ、およびEPGデータ等の符号化データを取得し、それをレコーダ制御部926に供給する。レコーダ制御部926は、例えば、取得したビデオデータやオーディオデータの符号化データを記録再生部933に供給し、ハードディスクに記憶させる。このとき、レコーダ制御部926および記録再生部933が、必要に応じて再エンコード等の処理を行うようにしてもよい。
また、レコーダ制御部926は、取得したビデオデータやオーディオデータの符号化データを復号し、得られるビデオデータをディスプレイコンバータ930に供給する。ディスプレイコンバータ930は、ビデオデコーダ925から供給されるビデオデータと同様に、レコーダ制御部926から供給されるビデオデータを処理し、ディスプレイ制御部932を介してモニタ960に供給し、その画像を表示させる。
また、この画像表示に合わせて、レコーダ制御部926が、復号したオーディオデータを、D/Aコンバータ934を介してモニタ960に供給し、その音声をスピーカから出力させるようにしてもよい。
さらに、レコーダ制御部926は、取得したEPGデータの符号化データを復号し、復号したEPGデータをEPGデータメモリ927に供給する。
なお、以上においては、ビデオデータやオーディオデータをハードディスクに記録するハードディスクレコーダ900について説明したが、もちろん、記録媒体はどのようなものであってもよい。例えばフラッシュメモリ、光ディスク、またはビデオテープ等、ハードディスク以外の記録媒体を適用するレコーダであっても、上述したハードディスクレコーダ900の場合と同様に、上述した符号化システム10および復号システム200を適用することができる。
[カメラの構成例]
図21は、本発明を適用した符号化システムおよび復号システムを用いるカメラの主な構成例を示すブロック図である。
図21のカメラ1000は、符号化システム10と同様の処理を行い、ビットストリームを得る。また、カメラ1000は、復号システム200と同様の処理を行い、そのビットストリームを用いて立体視画像を表示させる。
カメラ1000のレンズブロック1011は、光(すなわち、被写体の映像)を、CCD/CMOS1012に入射させる。CCD/CMOS1012は、CCDまたはCMOSを用いたイメージセンサであり、受光した光の強度を電気信号に変換し、カメラ信号処理部1013に供給する。
カメラ信号処理部1013は、CCD/CMOS1012から供給された電気信号を、Y,Cr,Cbの色差信号に変換し、画像信号処理部1014に供給する。画像信号処理部1014は、コントローラ1021の制御の下、カメラ信号処理部1013から供給された画像信号に対して所定の画像処理を施したり、その画像信号に対してエンコーダ1041でMVC符号化方式に準拠した符号化を行ったりする。
カメラ1000は、このように撮像により生成された画像信号を符号化する処理として、上述したビデオ符号化装置13と同様の処理を行う。その結果、復号時に、撮像画像のLRペアを認識し、撮像画像の立体視画像を表示することができる。
画像信号処理部1014は、画像信号を符号化して生成した符号化データを、デコーダ1015に供給する。さらに、画像信号処理部1014は、オンスクリーンディスプレイ(OSD)1020において生成された表示用データを取得し、それをデコーダ1015に供給する。
以上の処理において、カメラ信号処理部1013は、バス1017を介して接続されるDRAM(Dynamic Random Access Memory)1018を適宜利用し、必要に応じて画像データや、その画像データが符号化された符号化データ等をそのDRAM1018に保持させる。
デコーダ1015は、画像信号処理部1014から供給された符号化データを復号し、得られた画像データ(復号画像データ)をLCD1016に供給する。また、デコーダ1015は、画像信号処理部1014から供給された表示用データをLCD1016に供給する。LCD1016は、デコーダ1015から供給された復号画像データの画像と表示用データの画像を適宜合成し、その合成画像を表示する。
カメラ1000は、このように符号化データを復号してLCD1016に表示する処理として、上述したビデオ復号装置201と同様の処理を行う。その結果、例えば、撮像画像のLRペアを認識し、撮像画像の立体視画像を表示することができる。
オンスクリーンディスプレイ1020は、コントローラ1021の制御の下、記号、文字、または図形からなるメニュー画面やアイコンなどの表示用データを、バス1017を介して画像信号処理部1014に出力する。
コントローラ1021は、ユーザが操作部1022を用いて指令した内容を示す信号に基づいて、各種処理を実行するとともに、バス1017を介して、画像信号処理部1014、DRAM1018、外部インタフェース1019、オンスクリーンディスプレイ1020、およびメディアドライブ1023等を制御する。FLASH ROM1024には、コントローラ1021が各種処理を実行する上で必要なプログラムやデータ等が格納される。
例えば、コントローラ1021は、画像信号処理部1014やデコーダ1015に代わって、DRAM1018に記憶されている画像データを符号化したり、DRAM1018に記憶されている符号化データを復号したりすることができる。このとき、コントローラ1021は、画像信号処理部1014やデコーダ1015の符号化・復号方式と同様の方式によって符号化・復号処理を行うようにしてもよいし、画像信号処理部1014やデコーダ1015が対応していない方式により符号化・復号処理を行うようにしてもよい。
また、例えば、操作部1022から画像印刷の開始が指示された場合、コントローラ1021は、DRAM1018から画像データを読み出し、それを、バス1017を介して外部インタフェース1019に接続されるプリンタ1034に供給して印刷させる。
さらに、例えば、操作部1022から画像記録が指示された場合、コントローラ1021は、DRAM1018から符号化データを読み出し、それを、バス1017を介してメディアドライブ1023に装着される記録メディア1033に供給して記憶させる。
記録メディア1033は、例えば、磁気ディスク、光磁気ディスク、光ディスク、または半導体メモリ等の、読み書き可能な任意のリムーバブルメディアである。記録メディア1033は、もちろん、リムーバブルメディアとしての種類も任意であり、テープデバイスであってもよいし、ディスクであってもよいし、メモリカードであってもよい。もちろん、非接触ICカード等であっても良い。
また、メディアドライブ1023と記録メディア1033を一体化し、例えば、内蔵型ハードディスクドライブやSSD(Solid State Drive)等のように、非可搬性の記憶媒体により構成されるようにしてもよい。
外部インタフェース1019は、例えば、USB入出力端子などで構成され、画像の印刷を行う場合に、プリンタ1034と接続される。また、外部インタフェース1019には、必要に応じてドライブ1031が接続され、磁気ディスク、光ディスク、あるいは光磁気ディスクなどのリムーバブルメディア1032が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて、FLASH ROM1024にインストールされる。
さらに、外部インタフェース1019は、LANやインターネット等の所定のネットワークに接続されるネットワークインタフェースを有する。コントローラ1021は、例えば、操作部1022からの指示に従って、DRAM1018から符号化データを読み出し、それを外部インタフェース1019から、ネットワークを介して接続される他の装置に供給させることができる。また、コントローラ1021は、ネットワークを介して他の装置から供給される符号化データや画像データを、外部インタフェース1019を介して取得し、それをDRAM1018に保持させたり、画像信号処理部1014に供給したりすることができる。
なお、カメラ1000が撮像する画像データは動画像であってもよいし、静止画像であってもよい。
もちろん、上述した符号化システム10および復号システム200は、上述した装置以外の装置やシステムにも適用可能である。
10 符号化システム, 22 符号化回路, 47 蓄積バッファ, 200 復号システム, 211 復号回路, 271 蓄積バッファ, 279 画像並べ替えバッファ

Claims (14)

  1. 立体視画像を構成する多視点の画像の画像データを符号化して符号化ストリームを生成する符号化手段と、
    前記符号化ストリームのうち、前記多視点の画像のうちのいずれか1つの画像の符号化データには、その画像の復号結果の出力時刻を表す出力時刻情報を連結し、その画像以外の画像の符号化データには前記出力時刻情報を連結せずに前記符号化ストリームを伝送する伝送手段と
    を備える画像処理装置。
  2. 前記伝送手段は、前記符号化ストリームのうち、前記多視点の画像のうちの符号化順が最初の画像の符号化データには前記出力時刻情報を連結し、その画像以外の画像の符号化データには前記出力時刻情報を連結せずに前記符号化ストリームを伝送する
    請求項1に記載の画像処理装置。
  3. 前記伝送手段は、前記符号化ストリームのうち、前記多視点の画像のうちの符号化順が最後の画像の符号化データには前記出力時刻情報を連結し、その画像以外の画像の符号化データには前記出力時刻情報を連結せずに前記符号化ストリームを伝送する
    請求項1に記載の画像処理装置。
  4. 前記多視点の画像は、左眼で観察される左画像と右眼で観察される右画像から構成されるステレオ画像であり、
    前記伝送手段は、前記符号化ストリームのうち、前記左画像の符号化データには前記出力時刻情報を連結し、前記右画像の符号化データには前記出力時刻情報を連結せずに前記符号化ストリームを伝送する
    請求項1に記載の画像処理装置。
  5. 前記多視点の画像は、左眼で観察される左画像と右眼で観察される右画像から構成されるステレオ画像であり、
    前記伝送手段は、前記符号化ストリームのうち、前記右画像の符号化データには前記出力時刻情報を連結し、前記左画像の符号化データには前記出力時刻情報を連結せずに前記符号化ストリームを伝送する
    請求項1に記載の画像処理装置。
  6. 前記伝送手段はまた、前記多視点の画像の符号化順を表す符号化順情報を前記符号化ストリームに連結する
    請求項1に記載の画像処理装置。
  7. 画像処理装置が、
    立体視画像を構成する多視点の画像の画像データを符号化して符号化ストリームを生成する符号化ステップと、
    前記符号化ストリームのうち、前記多視点の画像のうちのいずれか1つの画像の符号化データには、その画像の復号結果の出力時刻を表す出力時刻情報を連結し、その画像以外の画像の符号化データには前記出力時刻情報を連結せずに前記符号化ストリームを伝送する伝送ステップと
    を含む画像処理方法。
  8. 立体視画像を構成する多視点の画像の画像データを符号化した符号化ストリームと、その符号化ストリームのうちの、前記多視点の画像のうちのいずれか1つの画像の符号化データに連結された、その画像の復号結果の出力時刻を表す出力時刻情報とを受け取る受け取り手段と、
    前記受け取り手段により受け取られた前記符号化ストリームを復号して画像データを生成する復号手段と、
    前記受け取り手段により受け取られた前記出力時刻情報に基づいて、前記復号手段により生成された、前記出力時刻情報に対応する画像の画像データと、前記出力時刻情報に対応しない画像の画像データを、前記多視点の画像の画像データとして出力する出力手段と
    を備える画像処理装置。
  9. 前記出力時刻情報に対応する画像は、前記多視点の画像のうちの符号化順が最初の画像であり、
    前記出力手段は、前記出力時刻情報に基づいて、前記復号手段により生成された、前記出力時刻情報に対応する画像の画像データと、その画像データより符号化順が後ろの前記出力時刻情報に対応しない画像データを、前記多視点の画像の画像データとして出力する
    請求項8に記載の画像処理装置。
  10. 前記出力時刻情報に対応する画像は、前記多視点の画像のうちの符号化順が最後の画像であり、
    前記出力手段は、前記出力時刻情報に基づいて、前記復号手段により生成された、前記出力時刻情報に対応する画像の画像データと、その画像データより符号化順が前の前記出力時刻情報に対応しない画像データを、前記多視点の画像の画像データとして出力する
    請求項8に記載の画像処理装置。
  11. 前記多視点の画像は、左眼で観察される左画像と右眼で観察される右画像から構成されるステレオ画像であり、
    前記出力時刻情報に対応する画像は、前記左画像であり、
    前記出力手段は、前記出力時刻情報に基づいて、前記復号手段により生成された、前記出力時刻情報に対応する前記左画像の画像データと、前記出力時刻情報に対応しない前記右画像の画像データを、前記多視点の画像の画像データとして出力する
    請求項8に記載の画像処理装置。
  12. 前記多視点の画像は、左眼で観察される左画像と右眼で観察される右画像から構成されるステレオ画像であり、
    前記出力時刻情報に対応する画像は、前記右画像であり、
    前記出力手段は、前記出力時刻情報に基づいて、前記復号手段により生成された、前記出力時刻情報に対応する前記右画像の画像データと、前記出力時刻情報に対応しない前記左画像の画像データを、前記多視点の画像の画像データとして出力する
    請求項8に記載の画像処理装置。
  13. 前記受け取り手段は、前記多視点の画像の符号化順を表す符号化順情報も受け取り、
    前記出力手段は、前記符号化順情報が表す符号化順に基づいて、前記復号手段により生成された、前記出力時刻情報に対応する画像の画像データと、その画像データより符号化順が前または後ろの前記出力時刻情報に対応しない画像の画像データを、前記多視点の画像の画像データとして出力する
    請求項8に記載の画像処理装置。
  14. 画像処理装置が、
    立体視画像を構成する多視点の画像の画像データを符号化した符号化ストリームと、その符号化ストリームのうちの、前記多視点の画像のうちのいずれか1つの画像の符号化データに連結された、その画像の復号結果の出力時刻を表す出力時刻情報とを受け取る受け取りステップと、
    前記受け取りステップの処理により受け取られた前記符号化ストリームを復号して画像データを生成する復号ステップと、
    前記受け取りステップの処理により受け取られた前記出力時刻情報に基づいて、前記復号ステップの処理により生成された、前記出力時刻情報に対応する画像の画像データと、前記出力時刻情報に対応しない画像の画像データを、前記多視点の画像の画像データとして出力する出力ステップと
    を含む画像処理方法。
JP2009274538A 2009-12-02 2009-12-02 画像処理装置および画像処理方法 Withdrawn JP2011119906A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009274538A JP2011119906A (ja) 2009-12-02 2009-12-02 画像処理装置および画像処理方法
US12/953,540 US20110128355A1 (en) 2009-12-02 2010-11-24 Image processing apparatus and image processing method
CN2010105689474A CN102088599A (zh) 2009-12-02 2010-11-25 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009274538A JP2011119906A (ja) 2009-12-02 2009-12-02 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2011119906A true JP2011119906A (ja) 2011-06-16

Family

ID=44068553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009274538A Withdrawn JP2011119906A (ja) 2009-12-02 2009-12-02 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US20110128355A1 (ja)
JP (1) JP2011119906A (ja)
CN (1) CN102088599A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101831775B1 (ko) * 2010-12-07 2018-02-26 삼성전자주식회사 멀티미디어 컨텐츠를 송수신하는 송신 장치 및 수신 장치와, 그 재생 방법
CN103348694A (zh) 2010-12-07 2013-10-09 三星电子株式会社 发送用于构成内容的数据的发射机、接收和处理该数据的接收机及其方法
EP3250387B1 (en) 2015-01-29 2020-08-05 Hewlett-Packard Development Company, L.P. Fluid ejection device and method of manufacturing a fluid ejection device
CN106657961B (zh) * 2015-10-30 2020-01-10 微软技术许可有限责任公司 立体视频的混合数字-模拟编码
CN115701313A (zh) * 2021-05-28 2023-02-07 京东方科技集团股份有限公司 多视点图像处理***及其方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07123447A (ja) * 1993-10-22 1995-05-12 Sony Corp 画像信号記録方法および画像信号記録装置、画像信号再生方法および画像信号再生装置、画像信号符号化方法および画像信号符号化装置、画像信号復号化方法および画像信号復号化装置、ならびに画像信号記録媒体
KR100397511B1 (ko) * 2001-11-21 2003-09-13 한국전자통신연구원 양안식/다시점 3차원 동영상 처리 시스템 및 그 방법
KR100523052B1 (ko) * 2002-08-30 2005-10-24 한국전자통신연구원 다중 디스플레이 방식을 지원하는 다시점 동영상의 객체 기반 부호화 장치 및 그 방법과 그를 이용한 객체 기반 송수신 시스템 및 그 방법
JP4361435B2 (ja) * 2004-07-14 2009-11-11 株式会社エヌ・ティ・ティ・ドコモ 動画像復号方法、動画像復号プログラム、動画像復号装置、動画像符号化方法、動画像符号化プログラム及び動画像符号化装置
JP2007180981A (ja) * 2005-12-28 2007-07-12 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法、及び画像符号化プログラム
WO2008130528A2 (en) * 2007-04-17 2008-10-30 Thomson Licensing Hypothetical reference decoder for multiview video coding

Also Published As

Publication number Publication date
CN102088599A (zh) 2011-06-08
US20110128355A1 (en) 2011-06-02

Similar Documents

Publication Publication Date Title
US10491919B2 (en) Image processing apparatus and method
US10721480B2 (en) Image processing apparatus and method
US8810628B2 (en) Image processing apparatus and image processing method
JP5594536B2 (ja) 画像処理装置および方法、プログラム、並びに、記録媒体
US20110164684A1 (en) Image processing apparatus and method
US20110176741A1 (en) Image processing apparatus and image processing method
US20110170605A1 (en) Image processing apparatus and image processing method
WO2010101064A1 (ja) 画像処理装置および方法
TW202029752A (zh) 圖像解碼裝置、方法及電腦可讀取記錄媒體
WO2012096229A1 (ja) 符号化装置および符号化方法、並びに復号装置および復号方法
US8705627B2 (en) Image processing apparatus and method
US20110229049A1 (en) Image processing apparatus, image processing method, and program
US20140254687A1 (en) Encoding device and encoding method, and decoding device and decoding method
JP2012147127A (ja) 画像処理装置および方法
KR20150005826A (ko) 영상을 부호화하기 위한 영상 예측 모드 결정 방법 및 장치
US20110128355A1 (en) Image processing apparatus and image processing method
WO2010038858A1 (ja) 画像処理装置および方法
JPWO2010101063A1 (ja) 画像処理装置および方法
US20130058416A1 (en) Image processing apparatus and method
WO2011046085A1 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130205