JP5685682B2 - 映像信号の符号化システム及び符号化方法 - Google Patents

映像信号の符号化システム及び符号化方法 Download PDF

Info

Publication number
JP5685682B2
JP5685682B2 JP2011232863A JP2011232863A JP5685682B2 JP 5685682 B2 JP5685682 B2 JP 5685682B2 JP 2011232863 A JP2011232863 A JP 2011232863A JP 2011232863 A JP2011232863 A JP 2011232863A JP 5685682 B2 JP5685682 B2 JP 5685682B2
Authority
JP
Japan
Prior art keywords
encoding
stream
video
frame
video tile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011232863A
Other languages
English (en)
Other versions
JP2013093656A (ja
JP2013093656A5 (ja
Inventor
笠井 裕之
裕之 笠井
直史 宇地原
直史 宇地原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gnzo Inc
Original Assignee
Gnzo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2011232863A priority Critical patent/JP5685682B2/ja
Application filed by Gnzo Inc filed Critical Gnzo Inc
Priority to PCT/JP2012/076813 priority patent/WO2013061839A1/ja
Priority to SG11201401713WA priority patent/SG11201401713WA/en
Priority to CN201280057252.7A priority patent/CN103947212A/zh
Priority to KR20147010893A priority patent/KR20140085462A/ko
Priority to EP12844021.1A priority patent/EP2773113A4/en
Priority to IN3191DEN2014 priority patent/IN2014DN03191A/en
Priority to US14/354,129 priority patent/US20150127846A1/en
Publication of JP2013093656A publication Critical patent/JP2013093656A/ja
Publication of JP2013093656A5 publication Critical patent/JP2013093656A5/ja
Application granted granted Critical
Publication of JP5685682B2 publication Critical patent/JP5685682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、映像信号の符号化システム及び符号化方法に関するものである。特に、本発明は、複数のタイルストリームにおける各MBラインを、各MBラインの単位で任意に接続して、単一の結合ビットストリームを構成するために好適な符号化技術に関するものである。
動画像情報の高解像度化、広視野化、高機能化に対して、数多くの研究開発が行われてきた。例えば、下記非特許文献1は、複数のビデオカメラや全方位カメラから取得される映像をタイル上に分割、符号化し、ユーザが要求する視点位置のタイル映像だけを復号、表示するシステムを提案している。さらに、下記非特許文献2は、H.264/AVCの拡張規格であるMulti-View Codingに基づき、複数のビデオカメラから得られた高解像度パノラマ映像へのアクセスを実現するシステムを提案している。この技術においても、送信側(サーバ側)では、入力映像を分割して符号化を行い、ユーザ(クライアント端末)が要求する視聴領域に応じて複数の符号化ストリームを伝送する。ユーザ側(つまりクライアント端末)では、この符号化ストリームを復号して、パノラマ映像の表示を行うことができる。なお、以下では、クライアント端末のことを単にクライアントと称することがある。
しかしながら、前記した非特許文献1及び2の技術では、いずれも、クライアントにおいて、複数ストリームを同時復号及び同期表示する必要がある。非特許文献1では伝送方式については言及していないものの、非特許文献2においては、複数ストリームの同時取得のための複数セッション制御も必要となる。これらは、クライアントにおける処理の複雑性を増加させるため、特にスマートフォン等の計算資源の限られた環境においては、マルチビジョンサービスの利用が困難になると考えられる。
そこで、複数ストリームの伝送を行わず、サーバ側で複数ストリームを結合して単一ストリームを生成した後、この単一ストリームの伝送を行うシステム(下記非特許文献3及び特許文献1)が提案されている。以降、結合前の複数ストリームをタイルストリームと呼び、結合後の単一ストリームを結合ストリームと呼ぶものとする。
非特許文献3及び特許文献1の技術では、配信サーバから取得した結合ストリームのみをクライアントで復号及び表示する。このため、この技術では、複数ストリームの同時復号、復号された映像信号の同期表示というような複雑な処理を、クライアント側において回避することが可能となる。これにより、クライアントシステムでは、従来からの映像再生システムを利用して、複数タイルの映像を同時再生することが可能となる。
MPEG-2あるいはMPEG-4の規格を前提とすると、結合ストリーム生成は、あるタイルストリームのフレームのMB(マクロブロック)ラインの右端と、別のタイルストリームのフレームのMBラインの左端とを結合していくことにより達成できる。このような結合をしても、MPEG-2あるいはMPEG-4の規格であれば、特段の矛盾は生じない。
しかしながら、符号化方式によっては、前記のような単純な結合を行うと、各々のMB(あるいはMBに含まれるブロックやパーティション)で参照している情報の不一致により、画質劣化(いわゆる誤差)が発生する場合がある。
以下、標準符号化規格であるH.264/AVCベースラインプロファイルに準拠した符号化の例を示す。H.264/AVCでは、イントラ(画面内)予測符号化として、「4x4画素ブロック単位で隣接画素を参照する4x4画面内予測符号化」と「16x16画素ブロック単位で隣接画素を参照する16x16画面内予測符号化」のいずれかを選択することができる。例えば「4x4画面内予測符号化」では、当該4x4画素ブロックの符号化のために、隣接する4x4画素ブロックを参照するモードが存在する。そのようなモードを用いてタイルストリームが符号化されることを想定すると、タイルストリーム結合時において、タイルストリーム符号化時と異なるブロックどうしが隣接してしまうと、画素の参照情報不一致に起因する画質劣化が発生することになる。このような不整合は、符号化における他の場面(例えばDCT後の非ゼロ係数の個数についての可変長符号化時など)でも発生しうる。
非特許文献3では、この問題を回避するために、予測差分情報の修正を行う方法を提案している。具体的には、不一致が生じる一部のMBを画素領域まで復号し、画素信号の修正(当該MBの可変長復号、係数の逆量子化、逆DCT、隣接画素値からの再予測による残差信号の再生成、DCT、量子化)及び隣接MBからの予測情報の修正を行っている。
[1] S.Heymann, A. Smolic, K. Muller, Y. Guo, J. Rurainski, P. Eisert, and T. Wiegand,"Representaion, Coding and Interactive Rendering or High-Resolution PanoramicImages and Video using MPEG-4," Proc. Panoramic Photogrammetry Workshop,Berlin, Germany, Feb. 2005. [2] H.Kimata, S. Shimizu, Y. Kunita, M. Isogai and Y. Ohtani, "Panorama video codingfor user-driven interactive video application," IEEE International Symposium onConsumer Electronics (ISCE2009), Kyoto, 2009. [3] N.Uchihara and H. Kasai, "Fast H.264/AVC stream joiner for interactive freeview-area multivision video," IEEE Transactions on Consumer Electronics,vol.57, no.3, pp.1311-1319, August 2011. [4]E.Kaminsky, D.Grois, O.Hadar, "Efficient real-time video-in-video insertioninto a pre-encoded video stream for the H.264/AVC," IEEE InternationalConference on Imaging Systems and Techniques (IST), pp.436-441, 1-2 July 2010.
[5] 特開2011−24018号公報
実環境におけるサービス提供を想定した場合、配信サーバは多数のクライアントからの要求を処理する必要があることから、配信サーバの負荷を減らして、高速化を図る必要がある。しかしながら、非特許文献3における前記した予測差分情報の修正処理は、複数ストリームの一部復号処理を伴うため、サーバでの処理量が増加する。また非特許文献4は、概略、1つの映像の画面内に1つの異なる映像を重ねるVideo-in-Videoに関する技術である。この技術では、これら二つの映像の重ね合わせ処理において、二つの符号化ビットストリームの復号処理を極力抑制するために、符号化モードの制御や符号化に関わる様々な情報を別ファイルに保存する方法を採用している。しかしながら、前記重ね合わせ処理において動きベクトルや非ゼロ係数の再計算処理及び再符号化処理を想定しているため、これによるサーバでの処理が増加するという課題がある。
本発明は、前記の状況に鑑みてなされたものである。本発明の目的の一つは、映像タイルストリームの符号化方式を工夫することにより、結合ストリームを、サーバへの負荷を抑えつつ、生成することができる技術を提供することである。本発明の他の目的は、映像タイルストリームにおけるMBラインを任意に接続して単一ビットストリームを構成する技術を提供することである。
前記した課題を解決する手段は、以下の項目のように記載できる。
(項目1)
複数の映像タイルストリームにおける各MBラインを、前記各MBライン単位で任意に接続して、単一の結合ストリームを構成可能なように、前記映像タイルストリームの符号化を行うための符号化システムであって、
映像信号受付部と、符号化処理部と、映像タイルストリーム出力部とを備えており、
前記映像信号受付部は、符号化対象となる映像信号を受け付けるものであり、
前記符号化処理部は、適宜の予測参照情報を用いて、前記映像信号を符号化することによって、映像タイルストリームを生成する構成となっており、
かつ、前記符号化処理部は、前記符号化において、前記映像タイルストリームにおける各MBラインを任意に接続しても信号の予測関係の不一致により発生する誤差を生じないように、予測参照情報制限方式又は予測参照情報固定方式を用いる構成とされており、
前記ストリーム出力部は、前記符号化処理部での符号化によって得られた前記映像タイルストリームを出力する構成となっている
ことを特徴とする符号化システム。
(項目2)
前記予測参照情報制限方式とは、異なる映像タイルストリームにおけるMBライン間で、相互に隣接するMBが保持する符号化情報の組み合わせに依存しないように、符号化情報を制限された予測方式とされている
項目1に記載の符号化システム。
(項目3)
前記予測参照情報制限方式は、以下の処理を備える、項目1に記載の符号化システム:
(1)前記映像信号を構成するフレームを、フレーム内予測符号化とフレーム間予測符号化の二種類の符号化モードのうちのいずれかで符号化する処理;
(2)フレーム内予測符号化されるフレーム内の複数のMBにおいては、異なる映像タイルストリームにおけるMBライン間で、相互に隣接するMBの内容に依存しない画素値を参照する予測モードを用いて符号化する処理。
(項目4)
前記予測参照情報固定方式は、予め設定した値に固定された予測情報を用いる方式である
項目1に記載の符号化システム。
(項目5)
前記予測参照情報固定方式は、以下の処理を備える、項目1に記載の符号化システム:
(1)前記映像タイルストリームを構成するMBであって、かつ、前記映像タイルストリームのフレームの周縁部分に位置するものうち、少なくとも一部のMBにおいて、MBにおける少なくとも一部の輝度係数列及び色差係数列のゼロでない係数の個数を、予め設定した固定値として符号化する処理;
(2)前記映像タイルストリームのフレームの周縁部分に隣接すべきMBの前記ゼロでない係数の個数を参照するMBの場合には、前記固定値の前記ゼロでない係数の個数を持つ隣接MBが存在すると仮定して、符号化する処理。
(項目6)
前記予測参照情報固定方式は、以下の処理を備える、項目1に記載の符号化システム:
(1)映像タイルストリームのフレームの周縁部分に位置するMBの内、少なくとも一部のMBにおいて、MBが保持する動きベクトルを既定の動きベクトルに固定してフレーム間予測符号化を行う処理;
(2)前記映像タイルストリームのフレームの周縁部分に隣接すべきMBの動きベクトルを参照するMBの場合には、前記既定の動きベクトルを持つ隣接MBが存在すると仮定して、フレーム間予測符号化を行う処理。
(項目7)
前記符号化処理部は、MBライン符号量挿入部を備えており、このMBライン符号量挿入部は、前記映像タイルストリーム中の前記MBラインの位置を特定するための付加情報を、前記符号化時において生成する構成となっている
項目1〜6のいずれか1項に記載の符号化システム。
前記映像タイルストリーム中の前記MBラインの位置を特定するための付加情報を、MBラインの結合時に利用することができる。
(項目8)
項目1〜6のいずれか1項に記載のシステムによって符号化された映像タイルストリームを構成するMBラインを結合するための結合システムであって、
映像タイルストリーム受付部と、結合処理部と、結合ストリーム出力部とを備えており、
前記映像タイルストリーム受付部は、前記映像タイルストリームを受け取る構成となっており、
前記結合処理部は、以下の処理を行うことで、結合ストリームを生成する構成となっており:
(1)前記映像タイルストリームにおいて、前記MBラインの端部を検出し、かつ、前記MBラインに相当するストリームを取得する処理;
(2)前記映像タイルストリームが結合された状態である結合ストリームにおけるフレームの周縁となる位置に隣接するように、前記MBラインの端部に、周縁調整用MBを挿入する処理、ただし、ここで、一部の前記周縁調整用MBは、項目1〜7のいずれか1項に記載の符号化システムで符号化されているものとする;
前記結合ストリーム出力部は、前記結合処理部で生成された前記結合ストリームを出力する構成となっている
結合システム。
ここで、MBラインの端部の検出とは、項目7記載のMBライン符号量挿入部により生成及び埋め込まれたMBラインの符号量を読み取ることによりMBラインの端部を検出する処理を含む。
(項目9)
複数の映像タイルストリームにおける各MBラインを、前記各MBラインの単位で任意に接続して、単一の結合ストリームを構成可能なように、映像タイルストリームの符号化を行うための符号化方法であって、
(1)符号化対象となる映像信号を受け付けるステップと、
(2)適宜の予測参照情報を用いて、前記映像信号を符号化することによって、タイルストリームを生成するステップと、
(3)符号化によって得られた前記映像タイルストリームを出力するステップとを備えており、
前記映像情報の符号化においては、前記映像タイルストリームにおけるフレームの各MBラインで構成されるストリームを任意に接続しても信号の予測関係の不一致により発生する誤差を生じないように前記予測参照情報制限方式又は前記予測参照情報固定方式を用いる構成とされている
ことを特徴とする符号化方法。
(項目10)
項目9に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。
(項目11)
項目1〜7のいずれか1項に記載のシステムによって符号化されたタイルストリームを構成するMBラインに相当するストリームを結合して生成されたデータ構造であって
前記映像タイルストリームが結合された状態である結合ストリームにおけるフレームの周縁となる位置に隣接するように、前記MBラインの端部に、周縁調整用MBが挿入されており、
少なくとも一部の前記周縁調整用MBは、項目1〜7のいずれか1項に記載の符号化システムで符号化されている
データ構造。
本発明によれば、結合ストリームを生成するサーバなどの処理器の負荷を抑えることができる。また、本発明によれば、映像タイルストリームにおけるMBラインを任意に接続して単一ビットストリームを構成することができる。
本発明の一実施形態における符号化システム及び結合システムを組み込んだ映像提供システムの概略的な構成を示すブロック図である。 本発明の一実施形態におけるタイルストリーム符号化部の概略的な構成を示すブロック図である。 本発明の一実施例における符号化処理部の概略的な構成を示すブロック図である。 本発明の一実施例における結合ストリーム生成部の概略的な構成を示すブロック図である。 図1の映像提供システムの全体的な動作を説明するためのフローチャートである。 本実施形態における符号化処理を説明するためのフローチャートである。 本実施形態における符号化モード決定処理を説明するためのフローチャートである。 本実施形態における動き探索・補償の処理を説明するためのフローチャートである。 パーティションのサイズを説明するための説明図である。 パーティションにおける動きベクトルの符号化を説明するための説明図である。 本実施形態におけるイントラ予測モード決定の処理を説明するための説明図である。 図11の処理において採用されるイントラ予測モードを説明するための説明図である。 本実施形態における係数調整の処理を説明するためのフローチャートである。 本実施形態における可変長符号化の処理を説明するためのフローチャートである。 タイルストリームのフレームの集合によって結合ストリームのフレームが形成される様子を説明するための説明図である。 本実施形態における結合ストリームの生成処理を説明するためのフローチャートである。 結合ストリームのフレームの周囲に周縁調整用MBを挿入する様子を説明するための説明図である。 周縁調整用MBの符号化条件を説明するための説明図である。 周縁調整用MBが挿入された結合ストリームのデータ構造を説明するための説明図である。 MBライン符号量を挿入する手順を説明するためのフローチャートである。
以下、添付図面を参照しながら、本発明の実施形態に係る符号化システムについて説明する。
(本実施形態の構成)
まず、本実施形態の符号化システムが使用される映像信号提供システム全体の概略的構成を、図1を参照しながら説明する。
このシステムは、映像入力部1と、サーバ2と、クライアント端末3と、ネットワーク4とから構成されている。
(映像入力部)
映像入力部1は、カメラ11あるいは外部映像配信サーバ12を備えている。カメラ11としては、高精細の動画像を取得できるものが好ましい。外部映像配信サーバ12には、既に符号化された映像ビットストリームが蓄積されており、サーバ2は要求に応じてサーバ12から映像ビットストリームを取得できるものである。映像入力部1としては既存のカメラあるいは映像配信サーバを利用できるので、これ以上詳しい説明は省略する。
(サーバ)
サーバ2は、タイルストリーム符号化部21と、ビットストリーム群蓄積部22と、結合ストリーム生成部23と、クライアントステータス管理サーバ24と、結合ストリーム送信部25と、映像ストリーム復号部26とを備えている。
映像ストリーム復号部26は、外部映像配信サーバ12から送られた映像ビットストリームを復号して映像信号を生成し、この映像信号をタイルストリーム符号化部21に送るものである。なお、ここで映像信号とは、未圧縮の信号を意味する。
タイルストリーム符号化部21は、本発明の符号化システムの一例に対応する機能要素である。タイルストリーム符号化部21は、カメラ11あるいは映像ストリーム復号部26から、符号化対象である映像信号を受け取るようになっている。本実施形態のタイルストリーム符号化部21は、後述するように、複数の映像タイルストリームにおける各MBラインを、各MBライン単位で任意に接続して、単一の結合ストリームを構成可能なように、映像タイルストリームの符号化を行うようになっている。なお、本明細書においてMBとはマクロブロックの意味である。
タイルストリーム符号化部21は、図2に示すように、映像信号受付部211と、符号化処理部212と、映像タイルストリーム出力部213とを備えている。
映像信号受付部211は、映像入力部1のカメラ又は映像ストリーム復号部26から送られた、符号化対象となる映像信号を受け付けるものである。
符号化処理部212は、適宜の予測参照情報を用いて、映像信号を符号化することによって、映像タイルストリームを生成する構成となっている。さらに、符号化処理部212は、符号化において、映像タイルストリームにおける各MBラインを任意に接続しても信号の予測関係の不一致により発生する誤差を生じないように、予測参照情報制限方式又は予測参照情報固定方式を用いる構成とされている。予測参照情報制限方式又は予測参照情報固定方式については後述する。さらに、符号化処理部212は、符号化において、MBライン符号量挿入方式を用いる構成とされている。MBライン符号量挿入方式とは、各々の映像タイルストリームの結合処理を高速に実行するために、全てのフレームにおける各々のMBライン符号列のビット量(この明細書ではMBライン符号量と称する)をストリーム中に保持する方式である。但し、前記MBライン符号量は、タイルストリーム中に保持せず、別のファイルや情報として保持することも可能である。
ここで、本実施形態における予測参照情報制限方式とは、異なる映像タイルストリームにおけるMBライン間で、相互に隣接するMBが保持する符号化情報の組み合わせに依存しないように、符号化情報を制限された予測方式とされている。
より具体的には、本実施形態における予測参照情報制限方式は、以下の処理を備える:
(1)映像信号を、フレーム毎に、フレーム内予測符号化とフレーム間予測符号化の二種類の符号化モードで符号化し、フレーム内予測フレームは周期的あるいは非周期的に挿入する;
(2)かつ、フレーム内予測フレーム内の複数のMBにおいては、異なる映像タイルストリームにおけるMBライン間で、相互に隣接するMBの内容に依存しない画素値を参照する予測モードを用いて符号化する。
予測参照情報制限方式の具体例は後述する。
本実施形態における予測参照情報固定方式は、予め設定した値に固定された予測情報を用いる方式である。
より具体的には、予測参照情報固定方式は、以下の処理を備える:
(1)映像タイルストリームを構成するMBであって、かつ、映像タイルストリームのフレームの周縁部分に位置するものうち、少なくとも一部のMBにおいて、MBにおける少なくとも一部の輝度係数列及び色差係数列のゼロでない係数の個数(後述の非ゼロ係数個数)を、予め設定した固定値として符号化する処理;
(2)映像タイルストリームのフレームの周縁部分に隣接すべきMBのゼロでない係数の個数を参照するMBの場合には、固定値の「ゼロでない係数の個数」を持つ隣接MBが存在すると仮定して、符号化する処理。
さらに、本実施形態の予測参照情報固定方式は、以下の処理を備える:
(1)映像タイルストリームのフレームの周縁部分に位置するMBの内、少なくとも一部のMBにおいて、MBが保持する動きベクトルを既定の動きベクトルに固定してフレーム間予測符号化を行う処理;
(2)映像タイルストリームのフレームの周縁部分に隣接すべきMBの動きベクトルを参照するMBの場合には、既定の動きベクトルを持つ隣接MBが存在すると仮定して、フレーム間予測符号化を行う処理。予測参照情報固定方式の具体例は後述する。
符号化処理部212は、図3に示されるように、直交変換部2121a、量子化部2121b、係数調整部2122、可変長符号化部2123、逆量子化部2124a、逆直交変換部2124b、フレームメモリ2125、フレーム位置及びMB位置管理部2126、符号化モード決定部2127、動き探索・補償部2128、イントラ予測モード決定部2129、MBライン符号量挿入部21291を備えている。これらのうち、直交変換部2121a、量子化部2121b、逆量子化部2124a、逆直交変換部2124b、フレームメモリ2125の構成及び動作は、従来の(例えばH.264における)ものと同様でよいので、詳しい説明は省略する。残る各機能要素の動作については、後述の符号化処理方法の説明において詳しく述べる。
タイルストリーム出力部213は、符号化処理部212での符号化によって得られた映像タイルストリームを、ビットストリーム群蓄積部22に出力する構成となっている。
ビットストリーム群蓄積部22は、タイルストリーム符号化部21で生成された映像タイルストリームを蓄積する部分である。ビットストリーム群蓄積部22は、結合ストリーム生成部23からの要求に応じて、映像タイルストリームの一部である所定のMBビットストリーム列(映像タイルストリーム)を、結合ストリーム生成部23に送ることができるようになっている。
結合ストリーム生成部23は、タイルストリーム符号化部21によって符号化された映像タイルストリームを構成するMBラインを結合するための結合システムの一例である。結合ストリーム生成部23は、図4に示すように、映像タイルストリーム受付部231と、結合処理部232と、結合ストリーム出力部233とを備えている。
映像タイルストリーム受付部231は、ビットストリーム群蓄積部22から映像タイルストリームを受け取る構成となっている。
結合処理部232は、周縁調整用MB情報挿入部2321と、MBライン符号量読み取り部2322と、MBライン抽出部2323と、結合ストリームヘッダ情報生成/挿入部2324とを備えている。
周縁調整用MB情報挿入部2321は、結合ストリームを生成するために、以下の処理を行う:
・映像タイルストリームが結合された状態である結合ストリームにおけるフレームの周縁となる位置に隣接するように、少なくともMBラインの端部に、周縁調整用MBを挿入する処理。ただし、ここで、周縁調整用MBは、前記した符号化システムで符号化されている。
MBライン符号量読み取り部2322は、符号化処理部212のMBライン符号量挿入部21291により挿入されたMBライン符号量を読み込む部分である。MBライン符号量を読み込むことにより、MBラインの端部を高速に検出することができる。
MBライン抽出部2323は、MBライン符号量読み取り部2322により取得されたMBライン符号列のビット量の分だけ、タイルストリームから符号列の抽出を行う処理を行う。それにより、MBライン符号列ビット量を得るのに本来必要な可変長復号処理を回避することが可能となる。但し、当然ながら可変長復号処理を行なうことで前記MBライン符号列のビット量を用いずに符号列を抽出することも可能である。
結合ストリームヘッダ情報生成/挿入部2324は、結合ストリームのためのヘッダ情報を生成して挿入するものである。結合ストリームヘッダの生成や挿入についても、従来の処理と同様でよいので、詳しい説明は省略する。
結合ストリーム出力部233は、結合処理部232で生成された結合ストリームを出力する構成となっている。生成された結合ストリームの例は後述する。
クライアントステータス管理サーバ24は、クライアント端末3から送られた要求、例えば、ユーザが視聴を求める映像領域の情報(具体例は後述)を受け取るものである。
結合ストリーム送信部25は、結合ストリーム生成部23で生成された結合ストリームを、ネットワーク4を介してクライアント端末3に送るものである。
(クライアント端末)
クライアント端末3は、ユーザがサーバ2に対して必要な指令を送り、あるいは、サーバ2から送られた情報を受信するための端末である。クライアント端末3は、通常、ユーザによって操作されるが、ユーザ操作を必要とせずに自動的に動作するものであってもよい。クライアント端末3としては、例えば、携帯電話(いわゆるスマートフォンを含む)、モバイル・コンピュータ、デスクトップ・コンピュータなどを用いることができる。
(ネットワーク)
ネットワーク4は、サーバ2とクライアント端末3との間での情報の送受信を行うためのものである。ネットワーク4としては、通常は、インターネットであるが、LANやWANなどのネットワークであっても良い。ネットワークとしては、必要な情報の送受信を行えるものであればよく、使用されるプロトコルや物理的な媒体は特に制約されない。
(本実施形態の動作)
次に、図5を主に参照しながら、本実施形態のシステムにおける符号化方法を説明する。
(図5のステップSA−1〜2)
まず、映像入力部1から、サーバ2の符号化処理部21に映像信号を取り込む。符号化処理部21での符号化処理の詳細を図6に基づいて説明する。なお、以降の符号化処理は、基本的には、全てMB単位の処理となる。ここで、非特許文献3及び特許文献1で説明されているように、MBによりMBラインが構成され、MBラインによりタイルストリームのフレームが構成され、タイルストリームのフレームにより結合ストリームのフレームが構成される。
(図6のステップSB−1)
符号化処理部21では、まず、MB毎の符号化モードを決定する。符号化モードとは、フレーム内符号化(いわゆるイントラ符号化)か、フレーム間予測符号化(いわゆるインター符号化)のいずれかである。
符号化モード決定処理アルゴリズムの一例を図7に示す。
(図7のステップSC−1)
まず、処理対象MBが属するフレームがリフレッシュフレームであるか否かを判定する。本判定は、フレーム位置及びMB位置管理部2126から得られる処理フレーム数を利用する。すなわち、フレーム位置及びMB位置管理部2126は、その内部にフレーム数及びMB数を処理毎にカウントする変数を保持しており、この変数を参照することにより、処理対象のフレーム数とMB数とを取得できるようになっている。そして、どのタイミングのフレームをリフレッシュフレームとすべきかについては、符号化処理部21において予め把握しているので、処理対象のフレーム数と既定のタイミング情報とを用いて、リフレッシュフレームの判定を行うことができる。また、リフレッシュフレームは、通常、周期的に(つまり所定の時間間隔毎に)挿入されるが、周期性は必須ではない。
(図7のステップSC−2)
ステップSC−1での判定がYesであったとき(つまりリフレッシュフレームの場合)、当該MBはフレーム内符号化すべきものと決定する。
(図7のステップSC−3)
ステップSC−1での判定がNoであったときは、当該MBについてはフレーム間予測符号化すべきものと決定する。
以上のアルゴリズムにより、各MBの符号化モードを決定することができる。
(図6のステップSB−2)
ついで、動き探索・補償部2128による、動き探索・補償の手法を、図8を主に参照しながら説明する。
ここでの説明の前提として、H.264における動き探索・補償の概要を説明する。H.264では、MBの中の「パーティション」と呼ばれる画素の区切りを単位として、動き探索・補償を行っている。H.264において、パーティションの画素サイズは、16×16、8×16、16×8、8×8、4×8、8×4、4×4がある(図9参照)。
そして、H.264において、図10(a)に示すパーティションEが保持する動きベクトル情報は、隣接するパーティションA、B、Cが保持する動きベクトルの中央値との差分値として符号化される。また、図10(b)に示すように、隣接するパーティションのサイズが異なっていてもよく、この場合の符号化方法も前記と同様である。
(図8のステップSD−1)
初期化処理としてフラグを0とする。以降の処理では、フレーム位置及びMB位置管理部2126から得られたMB位置を基に処理MBがフレームのどの位置に属するかを判定する。
(図8のステップSD−1−1〜SD−1−3)
ついで、処理対象であるパーティションが属するMBが、フレームの左端のものかどうかを判定する。
判定結果がYesであれば、次に、当該パーティションが、MB中において(すなわちフレームにおいて)左端のものかどうかを判定する。結果がYesであればフラグを1とする。
(図8のステップSD−2〜4)
ステップSD−1−1での判定結果がNoであったとき、処理対象であるパーティションが属するMBが、フレームの右端のものかどうかを判定する。
判定結果がYesであれば、次に、当該パーティションが、MB中において(すなわちフレームにおいて)右端のものかどうかを判定する。結果がYesであればフラグを1とする。
(図8のステップSD−5〜7)
ステップSD−2での判定結果がNoであったとき、処理対象であるパーティションが属するMBが、フレームの下端のものかどうかを判定する。
判定結果がYesであれば、次に、当該パーティションが、MB中において(すなわちフレームにおいて)下端のものかどうかを判定する。結果がYesであればフラグを1とする。
(図8のステップSD−8〜9)
MBに付されたフラグが1ではない(つまり0のままである)ときは、フレーム内のブロック情報を参照するよう予測参照情報の制限を行い、フレームメモリから得られた前フレームの画素値を基に動き探索を行う。本手法は予測参照情報制限方式の一例である。
具体的に、「フレーム内のブロック情報を参照するよう予測情報の制限を行うこと」とは、動きベクトルの探索範囲をフレーム内とするという制限を設けることで実現される。なお、動きベクトルの探索範囲の制限は文献(特開2011−55219号公報の0074〜0084段落)でも指摘されている。しかし、この文献では、エラーの伝搬を抑制することを目的に、エラー修正を行ったMBラインのみを動きベクトル探索制限範囲とすることで、それ以外のエラーの含有している可能性のある領域において参照しないよう制御している。これに対して、本実施形態では、動きベクトル探索制限範囲、対象MBライン内ではなく、フレーム内としている。
(図8のステップSD−10)
ステップSD−8での判定結果がYesであれば、固定動きベクトル値を設定する。すなわち、システム側に保存されている固定値を取り出す。固定動きベクトル値の設定は、予測参照情報固定方式の一例に対応する。具体的には、前フレームの同じ箇所を参照することとする(動きベクトルが(0、0)として固定する場合)。
(図8のステップSD−11)
ついで、動き探索・補償部2128は、探索された動きベクトル値又は固定された動きベクトル値を用いて、動き補償処理を行う。この動き補償処理自体は、H.264での通常処理と同様で良いので、詳しい説明は省略する。
前記したアルゴリズムでは、「タイルストリームのフレームの右端、左端又は下端にあるために、隣接するパーティションから参照される可能性のあるパーティションの動きベクトル値」を固定値とすることができる。このようにすれば、隣接するMBが符号化時と結合時とで異なる場合でも、隣接するMBの内容に影響されずに、正しい復号を行うことが可能となる。
(図6のステップSB−3)
つぎに、イントラ予測モード決定部2129での処理アルゴリズムを、図11を参照しながら説明する。
(図11のステップSE−1)
まず、イントラ予測モード決定部2129は、MBの位置に応じて、図12に示す予測モードを設定する。図12に示すように、このモードでは、映像タイルストリーム内左端の複数のMBにおいては、各MBの上に接するMBの画素値を参照する予測モードを用い、上端の複数のMBにおいては、各MBの左に接するMBの画素値を参照する予測モードを用いる。また右端MBにおいては、「右上のMBから予測を行う二つのモード(図12参照)以外の予測モード」を用いる、さらに、同フレーム内の左上端のMBにおいては、他のどのMBも参照しない予測モード(IPCMモード)を用いる。このような予測モードの制限は、予測参照情報制限方式の一例に対応する。このように設定することで、隣接するフレームのMBの値を参照せずに符号化できるので、各々タイルストリームのフレームにおいて符号化時と結合時で参照する予測情報が異なったとしても、正しい復号が可能となる。
(図11のステップSE−2)
ステップSE−1で設定された予測モードに従って「すでに符号化及び復号の行われた隣接画素信号」及び「フレームメモリから取得される前のフレームの画素信号」のいずれかから予測参照画素値を生成し予測参照画素値を出力する。この処理は、通常のH.264での処理と同様で良いので、詳しい説明は省略する。
(図6のステップSB−4及びSB−5)
ついで、前記したステップSB−2及びSB−3の処理の結果を利用して、入力信号との予測差分信号を生成する。さらに、直交変換及び量子化を行う。予測差分信号の生成、直交変換及び量子化の手法は、通常のH.264での処理と同様で良いので、詳しい説明は省略する。
(図6のステップSB−6)
ついで、係数調整部2122及び可変長符号化部2123(図3参照)により、可変長符号化を行う。この可変長符号化においては、通常の可変長符号化処理の前に、係数調整のための処理を行う。そこで、以下の説明では、まず、図13に基づいて係数調整処理を説明し、その後に、図14に基づいて可変長符号化処理を説明する。
(図13のステップSF−1)
係数調整対象ブロックをMB位置及びその中のブロック位置に基づき判定するため、そのフラグを0とする。ここで、MBの位置情報は、フレーム位置及びMB位置管理部2126から取得するものとする。なお、係数調整及び可変長符号化の処理は、MB内の変換係数の集合であるブロック単位で行われる。ブロック単位で処理する点は、H.264での通常の処理と同様なので詳しい説明は省略する。
(図13のステップSF−2〜SF−4)
処理対象であるMBがフレームの右端にある場合は、処理ブロックがブロックの右端(つまりフレームの右端)にあるかどうかを判定し、Yesであればフラグを1とする。
(図13のステップSF−5〜SF−7)
ステップSF−5での判定がNoであったときは、ステップSF−5に進む。ここで、処理対象であるMBがフレームの下端にある場合は、処理ブロックがブロックの下端(つまりフレームの下端)にあるかどうかを判定し、Yesであればフラグを1とする。
(図13のステップSF−8)
その後、当該MBにおけるフラグが1であるかを判定し、Noであれば可変長符号化処理に移る。
(図13のステップSF−9〜10)
ステップSF−8での判定結果がYesであれば、当該ブロックにおける非ゼロ係数個数と、予め設定されている(すなわちシステム側で保持している)非ゼロ係数個数とを比較する。なお、予め設定される非ゼロ係数個数は、YUV信号における輝度空間(Y)と色差空間(UV)とで異なっていてもよい。当該ブロックにおける非ゼロ係数個数が、予め設定されている非ゼロ係数個数より小さいときは、非ゼロ係数個数の高周波成分側から、値0以外を有する係数を挿入する。これにより、非ゼロ係数個数を既定値に合わせることができる。高周波成分側に値0以外を有する係数を挿入しても、画質への影響は小さい。
(図13のステップSF−11〜12)
当該ブロックにおける非ゼロ係数個数が、予め設定されている非ゼロ係数個数より大きいときは、非ゼロ係数個数の高周波成分側から、値0以外を有する係数に代えて、値0を有する係数を挿入する。これにより、非ゼロ係数個数を既定値に合わせることができる。高周波成分側において、値0以外を有する係数に代えて値0を有する係数を挿入しても、画質への影響は小さい。なお、固定の非ゼロ係数個数を用いることは、予測参照情報固定方式の一例に対応する。
(図14のステップSG−1)
以下、可変長符号化処理の具体例を、図14を参照しながら説明する。ここで、係数調整済みのMBが、フレーム位置及びMB位置管理部2126からの指令により、可変長符号化の対象とされる。まず、対象となるMBの処理の判定に用いるためのフラグ1とフラグ2の値をいずれも0とすることで初期化を行う。
(図14のステップSG−1−1〜SG−1−3)
処理対象であるMBがフレームの右端であり、かつ、MB中の処理対象となるパーティションがMBの右端であるときは、フラグ1を1とする。
(図14のステップSG−2〜6)
処理対象であるMBがフレームの左端であり、かつ、MB中の処理対象となるブロックがMBの左端であるときは、フラグ1を1とする。さらに、処理対象となるパーティションが左端であるときはフラグ2を1とする。
(図14のステップSG−7〜11)
処理対象であるMBがフレームの上端であり、かつ、MB中の処理対象となるブロックがMBの上端であるときは、当該フラグ1を1とする。さらに、処理対象となるパーティションが上端であるときは当該MBのフラグ2を1とする。ここで、ステップSG−7での判定結果がNoのときは、通常の可変長符号化処理が行われるので、図示を省略してある。SG-10の判定がNoである場合、ステップSG-12に処理を移す。
(図14のステップSG−12)
ついで、スキップ情報及びMB符号化モード等の符号化を行う。この処理は従来のH.264における処理と同様でよいので、詳しい説明は省略する。
(図14のステップSG−13〜15)
ついで、フラグ2が1でなく、かつ、当該MBがフレーム間予測符号化のものである場合は、処理対象のパーティションが保持する動きベクトルを、通常の手法で符号化する。当該MBがフレーム内符号化であるものである場合は、処理をSG-17に移す。
(図14のステップSG−16)
ステップSG−13での判定結果がYesであれば、処理対象であるパーティションの左、上または右上の隣接パーティションを仮定する。そして、そのパーティションが保持する動きベクトルが既定の固定値である前提で、処理対象であるパーティションの動きベクトルを符号化する。ここで、当該パーティションが保持する動きベクトルの符号化時に、図10記載のように、左、上、及び右上の隣接パーティションから予測参照情報を生成し、それとの差分値が符号化される。そのため、結合時における予測参照情報不一致を抑制するには、これらのパーティションが存在することを仮定し動きベクトルの符号化を行う。
(図14のステップSG−17)
ついで、その他のMB情報を符号化する。
(図14のステップSG−18〜19)
ついで、処理対象であるMBのフラグ1が1でなければ、左又は上に隣接するブロックにおける非ゼロ係数個数の平均値に基づいて、可変長テーブルを選択する。この処理は、通常のH.264での処理と同様なので、詳しい説明は省略する。
(図14のステップSG−20)
処理対象であるMBのフラグ1が1であれば、存在しない左又は上隣接ブロックを仮定する。その上で、これらの左又は上隣接ブロックの非ゼロ係数個数が固定値である前提で、可変長テーブルを選択する。これにより、タイルストリームのフレームが符号化時と結合時で異なっても、正しい可変長テーブルを選択することができ、正常に可変長復号することができる。
(図14のステップSG−21〜22)
ステップSG−19又はステップSG−20の後、可変長符号化処理を行う。但し、出力されるMBラインの最終ブロックの係数列を符号化して得られるビットストリームがバイト単位に区切られるように、ブロック係数列を調整することが好ましい。これ以外の可変長符号化処理は、H.264での通常の処理と同様でよいので、詳しい説明は省略する。このようにして、可変長符号化されたビットストリームを生成することができる。
(図6のステップSB−6−1)
次に、MBライン符号量挿入部21291によるMBライン符号量の挿入手順を、図20をさらに参照しながら説明する。
(図20のステップSJ−1)
まず、可変長符号化部2123により処理されたMBのビット量(以下CurrentMBBitとする)を取得する。
(図20のステップSJ−2〜4)
ついで、当該MBの位置がフレーム左端であれば、処理対象であるMBラインに含まれる全MBのビット量(MBLinebitとする)を0とする。そうでなければ、それまでのMBLinebitにCurrentMBBitを加え、新たなMBLinebitとする。
(図20のステップSJ−5〜6)
処理対象であるMB位置がフレームの右端に達すると、それまでの合算で得られたMBLinebitを、MBライン符号列のヘッダに挿入して、ビットストリームとする。右端に達しない間は、新たなMBを取得する度に、前記したステップSJ−1の処理から繰り返す。
(図6のステップSB−7〜9)
ついで、符号化されたビットストリームを、予測のために逆変換し、フレームメモリに格納する。これらの処理は、通常のH.264での処理と同様でよいので、詳しい説明は省略する。ついで、処理手順は、ステップSB−1に戻る。その後、処理すべきMBがなくなれば、処理を終了する。
(図5のステップSA−3)
ついで、タイルストリーム符号化部21は、前記の手順により生成されたビットストリームを、ビットストリーム群蓄積部22に蓄積する。
(図5のステップSA−4)
その後、ユーザは、クライアント端末3を利用して、映像領域を指定する。ここで、映像領域の指定について、図15を参照しながら説明する。前提として、映像を構成するフレームのそれぞれは、タイルストリームのフレーム(分割領域ということがある)Ap00〜Apmnから構成される。タイルストリームのフレームAp00〜Apmnで構成される映像フレーム全体については、結合ストリームのフレームあるいは全体領域Awと称する。
各タイルストリームのフレームAp00〜Apmnは、MB00〜MBpqで表されるMBの組で構成されている。これらの構成は、本発明者らによる前記非特許文献3や特許文献1に記載されているものと同様でよいので、詳しい説明は省略する。
ユーザは、クライアント端末3により、視聴を希望する領域を指定する。例えば、図15の例では、タイルストリームのフレームAp00と、フレームAp01とで示される映像領域が指定されたとする。なお、本実施形態では、タイルストリームのフレームのMBのラインの単位で、結合が行われる。ここで、ユーザからの指定は、クライアントステータス管理サーバ24を介して、結合ストリーム生成部23に送られる。なお、ユーザによる映像領域の指定方法は、本発明者らによる前記非特許文献3や特許文献1と同様で良いので、これ以上詳しい説明は省略する。例えば、本実施形態では、タイルストリームのフレームのMBのラインの単位で結合が行われるが、視聴領域の指定は、それより狭い範囲であってもよい。
(図5のステップSA−5)
ついで、結合ストリーム生成部23は、MBラインを結合して結合ストリームを生成する。この生成の手順を、図4及び図16を主に参照しながら説明する。
(図16のステップSH−1)
結合ストリーム生成部23のタイルストリーム受付部231は、既に説明した手順で符号化されたビットストリーム群を蓄積しているビットストリーム群蓄積部22から、ユーザに送信すべきタイルストリーム(本例では、Ap00とAp01のストリーム)を受け取る。
(図16のステップSH−2)
ついで、結合処理部232の周縁調整用MB情報挿入部2321は、結合すべきタイルストリームのフレームの周囲に、周縁調整用MB情報を挿入する。具体的な一例を、図17に示す。この例では、四つのタイルストリームのフレームを結合する前提となっている。この場合、その下辺を除く三辺に、周縁調整用MB情報を挿入する。ここで、周縁調整用MB情報とは、符号化の整合性を保つためのMBであり、そのデータ内容及び符号化方法は、結合処理部232において既知となっている。すなわち、前記したとおり、各タイルストリームのフレームの符号化においては、各々タイルストリームのフレームにおいて符号化時と結合時で参照する予測情報が異なったとしても、適切に復号できるアルゴリズムを採用している。その符号化条件と整合するように、タイルストリームのフレームの周囲に周縁調整用MBを挿入する。
本実施形態では、周縁調整用MBの画素値は全て黒色とされている。ただし、他の画素値を採用することは可能である。
また、本実施形態の周縁調整用MBにおける具体的な符号化条件を図18に示す。図示されているように、周縁調整用MBについての符号化条件は、以下のようになる。
●: intra_16x16のMB モードで、かつ、下端ブロックが固定非ゼロ係数個数となるよう、フレーム内符号化(リフレッシュフレームの場合);
●: 下端ブロックが固定非ゼロ係数個数でかつ固定動きベクトルとなるようフレーム間符号化(リフレッシュフレーム以外の場合);
△: 符号化制限なし;
×: Intra_16x16のMB モードで、右端ブロックが固定非ゼロ係数個数となるようフレーム内符号化(リフレッシュフレームの場合);
×: 右端ブロックが固定非ゼロ係数個数でかつ固定動きベクトルとなるようフレーム間符号化(リフレッシュフレーム以外の場合);
■: 当該MBの左側に隣接する境界ブロックの非ゼロ係数個数が固定値であることを仮定してフレーム内符号化(リフレッシュフレームの場合);
■: 当該MBの左側に隣接する境界ブロックの非ゼロ係数個数が固定値であり、かつ境界パーティションが保持する動きベクトルが固定動きベクトルであることを仮定して、当該MB自身も固定動きベクトルをもつようフレーム間符号化(リフレッシュフレーム以外の場合)。
(図16のステップSH−3〜4)
ついで、ビットストリームのヘッダに書きこまれているMBライン符号量を読取り、このMBライン符号量に基づいて、MBラインを抽出する。このように、予めMBライン符号量をヘッダに書きこんでおくことにより、可変長復号を行わずに、MBラインの端部を検出することができる。このことは、システムへの負荷を減らす上で、実装上重要である。
(図16のステップSH−5)
ついで、結合ストリームヘッダ情報生成/挿入部2324において、結合ストリームについてのヘッダ情報を生成する。生成されたヘッダ情報は、抽出されたMBライン符号列に挿入される。ヘッダが挿入された結合ストリームの概念図を図19に示す。この例では、先頭から、SPS、PPSヘッダ、スライスヘッダ、上端(第0行目)の周縁調整用MB符号列、第1行目の左端のMB符号列、結合すべきタイルストリームAp00のMBライン符号列(第1行目)、結合すべきタイルストリームAp01のMBライン符号列(第1行目)、第1行目右端の周縁調整用MB符号列、第2行目左端の周縁調整用MB符号列、結合すべきタイルストリームAp00のMBライン符号列(第2行目)、結合すべきタイルストリームAp01のMBライン符号列(第2行目)…第m行目の左端の周縁調整用MB符号列、結合すべきタイルストリームAp00のMBライン符号列(第m行目)、結合すべきタイルストリームAp01のMBライン符号列(第m行目)、第m行目右端の周縁調整用MB符号列…という構成となる。
SPS、PPSヘッダやスライスヘッダについては、従来と同様の構成とすることができるので、詳しい説明は省略する。
(図16のステップSH−6)
ついで、生成された結合ストリームを、結合ストリーム出力部233から結合ストリーム送信部25に送る。
以上の処理により、本実施形態の符号化方法は、複数の映像タイルストリームにおける各MBラインを、各MBラインの単位で任意に接続して、単一の結合ストリームを構成可能なように、映像タイルストリームの符号化を行うものとなっている。そしてこの方法は、
(1)符号化対象となる映像信号を受け付けるステップと、
(2)適宜の予測参照情報を用いて、前記映像信号を符号化することによって、タイルストリームを生成するステップと、
(3)符号化によって得られた前記映像タイルストリームを出力するステップとを備えたものとなっている。
映像情報の符号化においては、映像タイルストリームにおけるフレームの各MBラインで構成されるストリームを任意に接続しても信号の予測関係の不一致により発生する誤差を生じないように予測参照情報制限方式又は予測参照情報固定方式を用いるものとなっている。
また、本実施形態の結合方法は、前記した本実施形態の符号化システムによって符号化された映像タイルストリームを構成するMBラインを結合するための結合方法となっている。そして、この方法は、
(1)映像タイルストリームにおいて、MBラインの端部を検出し、かつ、MBラインに相当するストリームを取得するステップと;
(2)映像タイルストリームが結合された状態である結合映像ストリームにおけるフレームの周縁となる位置に隣接するように、MBラインの端部に、周縁調整用MBを挿入するステップとを有する。
ここで、一部の周縁調整用MBは、前記した符号化方法で符号化されており、結合映像ストリーム出力部25は、結合処理部232で生成された結合ストリームを出力する構成となっている。
また、図19に示すデータ構造は、前記した符号化システムによって符号化されたタイルストリームを構成するMBラインに相当するストリームを結合して生成されたデータ構造の一例である。そして、このデータ構造では、映像タイルストリームが結合された状態である結合ストリームにおけるフレームの周縁となる位置に隣接するように、MBラインの端部に、周縁調整用MBが挿入されている。さらに、少なくとも一部の周縁調整用MBは、前記した符号化システムで符号化されている。
(図5のステップSA−6)
結合ストリーム送信部25は、ネットワーク4を介して、クライアント端末3に結合ストリームを送信する。
クライアント端末3においては、結合ストリームを複合して、画像を表示することができる。この復号処理は、通常のH.264の場合と同様で良いので、詳しい説明は省略する。
本実施形態の手法で結合されたストリームは、通常のH.264用に実装されたデコーダにより、正しく復号処理することができる。また、復号された画像データを、クライアント端末3に表示することによって、ユーザに提示することができる。すなわち、本実施形態の手法によれば、タイルストリームを任意に結合した場合であっても、クライアント端末で表示される画質の劣化を防ぐことができる。しかも、本実施形態の手法では、予測参照情報の不整合を修正するために、画素レベルまで復号する必要がないので、サーバ側での処理の負担を軽減することができる。
また、本実施形態の手法では、フレーム内符号化すべきMBについて、予測モードを制限したので、各々タイルストリームのフレームにおいて符号化時と結合時で参照する予測情報が同一となるため、クライアントにおいて正常な復号が可能となる。
以上の符号化手順を採用することで、符号化時に決定されてストリーム中に書込まれた予測情報の不一致を、タイルストームを結合した場合において、回避することができる。このため、本実施形態によれば、例えば、予測情報の不一致を回避するために必要な符号の可変長復号、復号情報の再計算、再計算結果の再符号化の処理が不要となるという利点がある。また、MBライン符号量をヘッダに予め書込むことで、MBラインの端点を検出するための可変長復号などの復号処理を省略することができる。したがって、本実施形態によれば、高速に複数のタイルストリームの結合を実現することが可能となる。
なお、本発明は、前記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変更を加え得るものである。
例えば、前記した各構成要素は、機能ブロックとして存在していればよく、独立したハードウエアとして存在しなくても良い。また、実装方法としては、ハードウエアを用いてもコンピュータソフトウエアを用いても良い。さらに、本発明における一つの機能要素が複数の機能要素の集合によって実現されても良く、本発明における複数の機能要素が一つの機能要素により実現されても良い。
また、本発明を構成する各機能要素は、離散して存在しても良い。離散して存在する場合には、例えばネットワークを介して必要なデータを受け渡すことができる。各部の内部における各機能も、同様に、離散して存在することが可能である。例えば、グリッドコンピューティングやクラウドコンピューティングを用いて、本実施形態における各機能要素あるいはその一部分を実現することも可能である。
1 映像入力部
11 カメラ
12 外部映像配信サーバ
2 サーバ
21 タイルストリーム符号化部
21 符号化処理部
211 映像信号受付部
212 符号化処理部
2122 係数調整部
2123 可変長符号化部
2124a 逆量子化部
2124b 逆直交変換部
2125 フレームメモリ
2126 フレーム位置及び位置管理部
2127 符号化モード決定部
2128 探索・補償部
2129 イントラ予測モード決定部
213 映像タイルストリーム出力部
231 タイルストリーム受付部
232 結合処理部
233 結合ストリーム出力部
22 ビットストリーム群蓄積部
23 結合ストリーム生成部
2321 情報挿入部
2321 情報蓄積部
2322 可変長復号処理部
2323 抽出部
2324 挿入部
24 クライアントステータス管理サーバ
25 結合ストリーム送信部
3 クライアント端末
4 ネットワーク

Claims (8)

  1. 複数の映像タイルストリームにおける各MBラインを、前記各MBライン単位で任意に接続して、単一の結合ストリームを構成可能なように、前記映像タイルストリームの符号化を行うための符号化システムであって、
    映像信号受付部と、符号化処理部と、映像タイルストリーム出力部とを備えており、
    前記映像信号受付部は、符号化対象となる映像信号を受け付けるものであり、
    前記符号化処理部は、適宜の予測参照情報を用いて、前記映像信号を符号化することによって、映像タイルストリームを生成する構成となっており、
    かつ、前記符号化処理部は、前記符号化において、前記映像タイルストリームにおける各MBラインを任意に接続しても信号の予測関係の不一致により発生する誤差を生じないように、予測参照情報固定方式を用いる構成とされており、
    前記映像タイルストリーム出力部は、前記符号化処理部での符号化によって得られた前記映像タイルストリームを出力する構成となっており、
    さらに、前記予測参照情報固定方式は、以下の処理を備えている、符号化システム:
    (1)前記映像タイルストリームを構成するMBであって、かつ、前記映像タイルストリームのフレームの周縁部分に位置するもののうち、少なくとも一部のMBにおいて、MBにおける少なくとも一部の輝度係数列及び色差係数列のゼロでない係数の個数を、予め設定した固定値として符号化する処理;
    (2)前記映像タイルストリームのフレームの周縁部分に隣接すべきMBの前記ゼロでない係数の個数を参照するMBの場合には、前記固定値の前記ゼロでない係数の個数を持つ隣接MBが存在すると仮定して、符号化する処理。
  2. さらに、前記符号化処理部は、予測参照情報制限方式を用いており、
    前記予測参照情報制限方式は、異なる映像タイルストリームにおけるMBライン間で、相互に隣接するMBが保持する符号化情報の組み合わせに依存しないように、符号化情報を制限された予測方式とされている
    請求項1に記載の符号化システム。
  3. さらに、前記符号化処理部は、予測参照情報制限方式を用いており、
    前記予測参照情報制限方式は、以下の処理を備える、請求項1に記載の符号化システム:
    (1)前記映像信号を構成するフレームを、フレーム内予測符号化とフレーム間予測符号化の二種類の符号化モードのうちのいずれかで符号化する処理;
    (2)フレーム内予測符号化されるフレーム内の複数のMBにおいては、異なる映像タイルストリームにおけるMBライン間で、相互に隣接するMBの内容に依存しない画素値を参照する予測モードを用いて符号化する処理。
  4. 前記予測参照情報固定方式は、さらに以下の処理を備える、請求項1に記載の符号化システム:
    (1)映像タイルストリームのフレームの周縁部分に位置するMBの内、少なくとも一部のMBにおいて、MBが保持する動きベクトルを既定の動きベクトルに固定してフレーム間予測符号化を行う処理;
    (2)前記映像タイルストリームのフレームの周縁部分に隣接すべきMBの動きベクトルを参照するMBの場合には、前記既定の動きベクトルを持つ隣接MBが存在すると仮定して、フレーム間予測符号化を行う処理。
  5. 前記符号化処理部は、MBライン符号量挿入部をさらに備えており、このMBライン符号量挿入部は、前記映像タイルストリーム中の前記MBラインの位置を特定するための付加情報を、前記符号化時において生成する構成となっている
    請求項1〜4のいずれか1項に記載の符号化システム。
  6. 請求項1〜4のいずれか1項に記載のシステムによって符号化された映像タイルストリームを構成するMBラインを結合するための結合システムであって、
    映像タイルストリーム受付部と、結合処理部と、結合ストリーム出力部とを備えており、
    前記映像タイルストリーム受付部は、前記映像タイルストリームを受け取る構成となっており、
    前記結合処理部は、以下の処理を行うことで、結合ストリームを生成する構成となっており:
    (1)前記映像タイルストリームにおいて、前記MBラインの端部を検出し、かつ、前記MBラインに相当するストリームを取得する処理;
    (2)前記映像タイルストリームが結合された状態である結合ストリームにおけるフレームの周縁となる位置に隣接するように、前記MBラインの端部に、周縁調整用MBを挿入する処理、ただし、ここで、一部の前記周縁調整用MBは、請求項1〜5のいずれか1項に記載の符号化システムで符号化されているものとする;
    前記結合ストリーム出力部は、前記結合処理部で生成された前記結合ストリームを出力する構成となっている
    結合システム。
  7. 複数の映像タイルストリームにおける各MBラインを、前記各MBラインの単位で任意に接続して、単一の結合ストリームを構成可能なように、映像タイルストリームの符号化を行うための符号化方法であって、
    (1)符号化対象となる映像信号を受け付けるステップと、
    (2)適宜の予測参照情報を用いて、前記映像信号を符号化することによって、タイルストリームを生成するステップと、
    (3)符号化によって得られた前記映像タイルストリームを出力するステップとを備えており、
    前記映像情報の符号化においては、前記映像タイルストリームにおけるフレームの各MBラインで構成されるストリームを任意に接続しても信号の予測関係の不一致により発生する誤差を生じないように予測参照情報固定方式を用いる構成とされており、
    さらに、前記予測参照情報固定方式は、以下の処理ステップを備えている、符号化方法:
    (1)前記映像タイルストリームを構成するMBであって、かつ、前記映像タイルストリームのフレームの周縁部分に位置するもののうち、少なくとも一部のMBにおいて、MBにおける少なくとも一部の輝度係数列及び色差係数列のゼロでない係数の個数を、予め設定した固定値として符号化するステップ;
    (2)前記映像タイルストリームのフレームの周縁部分に隣接すべきMBの前記ゼロでない係数の個数を参照するMBの場合には、前記固定値の前記ゼロでない係数の個数を持つ隣接MBが存在すると仮定して、符号化するステップ。
  8. 請求項7に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。
JP2011232863A 2011-10-24 2011-10-24 映像信号の符号化システム及び符号化方法 Active JP5685682B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2011232863A JP5685682B2 (ja) 2011-10-24 2011-10-24 映像信号の符号化システム及び符号化方法
SG11201401713WA SG11201401713WA (en) 2011-10-24 2012-10-17 Encoding system and encoding method for video signals
CN201280057252.7A CN103947212A (zh) 2011-10-24 2012-10-17 视频信号的编码***以及编码方法
KR20147010893A KR20140085462A (ko) 2011-10-24 2012-10-17 영상 신호의 부호화 시스템 및 부호화 방법
PCT/JP2012/076813 WO2013061839A1 (ja) 2011-10-24 2012-10-17 映像信号の符号化システム及び符号化方法
EP12844021.1A EP2773113A4 (en) 2011-10-24 2012-10-17 SYSTEM AND METHOD FOR CODING VIDEO SIGNALS
IN3191DEN2014 IN2014DN03191A (ja) 2011-10-24 2012-10-17
US14/354,129 US20150127846A1 (en) 2011-10-24 2012-10-17 Encoding System and Encoding Method for Video Signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011232863A JP5685682B2 (ja) 2011-10-24 2011-10-24 映像信号の符号化システム及び符号化方法

Publications (3)

Publication Number Publication Date
JP2013093656A JP2013093656A (ja) 2013-05-16
JP2013093656A5 JP2013093656A5 (ja) 2014-05-01
JP5685682B2 true JP5685682B2 (ja) 2015-03-18

Family

ID=48167672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011232863A Active JP5685682B2 (ja) 2011-10-24 2011-10-24 映像信号の符号化システム及び符号化方法

Country Status (8)

Country Link
US (1) US20150127846A1 (ja)
EP (1) EP2773113A4 (ja)
JP (1) JP5685682B2 (ja)
KR (1) KR20140085462A (ja)
CN (1) CN103947212A (ja)
IN (1) IN2014DN03191A (ja)
SG (1) SG11201401713WA (ja)
WO (1) WO2013061839A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3032835B1 (en) * 2013-08-08 2019-12-04 The University of Electro-Communications Data processing device, data processing method, program, recording medium, and data processing system
JP6274664B2 (ja) * 2014-07-10 2018-02-07 株式会社ドワンゴ 端末装置、動画配信装置、プログラム
WO2017043949A1 (ko) * 2015-09-11 2017-03-16 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN105554513A (zh) * 2015-12-10 2016-05-04 Tcl集团股份有限公司 一种基于h.264的全景视频传输方法及***
WO2018074813A1 (ko) * 2016-10-17 2018-04-26 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285876A (ja) * 2000-03-30 2001-10-12 Sony Corp 画像符号化装置とその方法、ビデオカメラ、画像記録装置、画像伝送装置
US7599438B2 (en) * 2003-09-07 2009-10-06 Microsoft Corporation Motion vector block pattern coding and decoding
JP2006054846A (ja) * 2004-07-12 2006-02-23 Sony Corp 符号化方法、符号化装置、復号方法、復号装置およびそれらのプログラム
JP5089658B2 (ja) * 2009-07-16 2012-12-05 株式会社Gnzo 送信装置及び送信方法
JP5347849B2 (ja) 2009-09-01 2013-11-20 ソニー株式会社 画像符号化装置、画像受信装置、画像符号化方法及び画像受信方法
CN101895760B (zh) * 2010-07-29 2013-05-01 西安空间无线电技术研究所 基于jpeg-ls算法的码流拼接实现***及方法
CN102036073B (zh) * 2010-12-21 2012-11-28 西安交通大学 基于视觉潜在注意力目标区域的jpeg2000图像编解码方法

Also Published As

Publication number Publication date
US20150127846A1 (en) 2015-05-07
JP2013093656A (ja) 2013-05-16
CN103947212A (zh) 2014-07-23
KR20140085462A (ko) 2014-07-07
EP2773113A1 (en) 2014-09-03
IN2014DN03191A (ja) 2015-05-22
EP2773113A4 (en) 2015-06-03
SG11201401713WA (en) 2014-09-26
WO2013061839A1 (ja) 2013-05-02

Similar Documents

Publication Publication Date Title
US8462196B2 (en) Method and apparatus for generating block-based stereoscopic image format and method and apparatus for reconstructing stereoscopic images from block-based stereoscopic image format
JP2023025001A (ja) パーティション符号化を用いた有効な予測
TW201911863A (zh) 用於360度視訊寫碼之參考圖推導及動作補償
US11838549B2 (en) Transform in intra prediction-based image coding
US20220007028A1 (en) Method and device for signaling information on chroma format
JP5685682B2 (ja) 映像信号の符号化システム及び符号化方法
US11758142B2 (en) Method for transform-based image coding and apparatus therefor
US8704932B2 (en) Method and system for noise reduction for 3D video content
US11812059B2 (en) Image coding method based on transform, and device therefor
JP2024019423A (ja) パレットモードに基づく画像またはビデオコーディング
KR20220162739A (ko) Hls를 시그널링하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 컴퓨터 판독 가능한 기록 매체
US20220377319A1 (en) Prediction weighted table-based image/video coding method and apparatus
US11616948B2 (en) Method and device for subpicture-based image encoding/decoding, and method for transmitting bitstream
US20220174270A1 (en) Method and device for configuring mpm list
US20240022727A1 (en) Image decoding method comprising generating prediction samples by applying determined prediction mode, and device therefor
US20220132137A1 (en) Image encoding/decoding method and device using symmetric motion vector difference (smvd), and method for transmitting bitstream
US11902530B2 (en) Image coding method based on transform and apparatus therefor
US9554131B1 (en) Multi-slice/tile encoder with overlapping spatial sections
US20220272327A1 (en) Method and device for decoding images using cclm prediction in image coding system
CN115104313A (zh) 发信号通知在图片或切片级适用的视频信息的方法和装置
JP2017120980A (ja) インター予測装置、インター予測方法、動画像符号化装置、動画像復号装置及びコンピュータ可読記録媒体
CN114762350A (zh) 基于切片类型的图像/视频编译方法和设备
RU2793826C1 (ru) Кодирование изображения или видео на основе режима палитры
US11284083B2 (en) Method and apparatus for coding information about merge data
US20230143945A1 (en) Image coding method and device therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140317

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140317

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140623

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20141009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20141009

R150 Certificate of patent or registration of utility model

Ref document number: 5685682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250