JP2020508618A - Video coding techniques for multi-view video - Google Patents

Video coding techniques for multi-view video Download PDF

Info

Publication number
JP2020508618A
JP2020508618A JP2019546281A JP2019546281A JP2020508618A JP 2020508618 A JP2020508618 A JP 2020508618A JP 2019546281 A JP2019546281 A JP 2019546281A JP 2019546281 A JP2019546281 A JP 2019546281A JP 2020508618 A JP2020508618 A JP 2020508618A
Authority
JP
Japan
Prior art keywords
image
data
view
reference image
pixel block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019546281A
Other languages
Japanese (ja)
Inventor
ジェイ フン キム
ジェイ フン キム
クリス ワイ チュン
クリス ワイ チュン
ダージョン ジャン
ダージョン ジャン
ハン ユアン
ハン ユアン
シー ジュン ウー
シー ジュン ウー
ジエフー ジャイ
ジエフー ジャイ
シャオソン ジョウ
シャオソン ジョウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2020508618A publication Critical patent/JP2020508618A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/112Selection of coding mode or of prediction mode according to a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

立方体マップ画像としてキャプチャされるビデオを符号化して復号するための技術が開示される。これらの技術によれば、パディングされた基準画像が、入力データを予測する間に使用するために生成される。基準画像は、立方体マップフォーマットで記憶される。パディングされた基準画像は、基準画像から生成され、その中には基準画像に含まれる第1のビューの画像データが複製されて立方体マップ画像に含まれる第2のビューに隣接して配置される。入力画像の画素ブロックを符号化すると、予測検索は入力画素ブロックとパディングされた基準画像のコンテンツの間で実行することができる。予測検索が一致を識別すると、画素ブロックはパディングされた基準画像からの一致しているデータに関して符号化することができる。パディングされた基準画像の複製されたデータの存在は、十分な予測一致が入力画素ブロックデータに対して識別されるという可能性を増加させると考えられ、それはビデオ符号化の全体的な効率を上昇させる。【選択図】図5Techniques for encoding and decoding video captured as a cubic map image are disclosed. According to these techniques, a padded reference image is generated for use during predicting input data. The reference image is stored in a cube map format. The padded reference image is generated from the reference image, in which the image data of the first view included in the reference image is duplicated and arranged adjacent to the second view included in the cubic map image. . Once the pixel blocks of the input image have been encoded, a predictive search can be performed between the input pixel blocks and the padded reference image content. Once the predictive search has identified a match, the pixel block can be encoded with respect to the matching data from the padded reference image. It is believed that the presence of duplicated data in the padded reference image increases the likelihood that sufficient predictive matches will be identified for the input pixel block data, which increases the overall efficiency of video coding Let it. [Selection diagram] FIG.

Description

本開示は、マルチビュー撮像システムの符号化/復号システムに関し、特に、最初はマルチビュー画像データのための平坦な画像用に開発された符号化技術の使用に関する。   The present disclosure relates to encoding / decoding systems for multi-view imaging systems, and more particularly, to the use of encoding techniques originally developed for flat images for multi-view image data.

ビデオ符号化システムは、通常はビデオコンテンツの空間及び/又は時間的冗長性を利用することによって、ビデオ信号の帯域幅を減らした。入力データの所与の部分(便宜上「画素ブロック」と呼ばれる)は、類似のコンテンツを識別するために、以前に符号化された画像と比較される。検索が適切な一致を識別する場合、入力画素ブロックは一致しているデータ(「基準ブロック」)に関して以前の画像から差分的に符号化される。多くの最新の符号化プロトコル、例えばITU−T H.265、H.264、H.263及びそれらの先行プロトコルは、これらの基本原則の周辺で設計されている。   Video coding systems have reduced the bandwidth of video signals, typically by exploiting the spatial and / or temporal redundancy of the video content. A given portion of the input data (referred to as a "pixel block" for convenience) is compared to previously encoded images to identify similar content. If the search identifies a proper match, the input pixel block is differentially encoded from the previous image with respect to the matching data ("reference block"). Many modern coding protocols, such as ITU-T H.264. 265, H .; 264, H .; H.263 and their predecessor protocols are designed around these basic principles.

このようなビデオ符号化プロトコルは画像データが「平面である」という仮定で動作し、これは、画像コンテンツが連続的な二次元の視野を表すことを意味する。しかしながら、これらの仮定の下で作動しない最新のビデオシステムが開発されつつある。   Such video coding protocols operate on the assumption that the image data is "planar", which means that the image content represents a continuous two-dimensional view. However, modern video systems that do not work under these assumptions are being developed.

マルチビュー撮像は、画像データが平坦ではない1つのアプリケーションである。マルチビュー撮像システムによって生成される画像は、画像データの二次元アレイの画像データを表すことができるが、画像の中に含まれる画像データに空間的不連続性が存在することがあり得る。自由空間における比較的小さいオブジェクト運動は、オブジェクトを表す画像データの中での大きい空間移動によって表すことができる。したがって、最新の符号化システムは、これらの運動の例を差分符号化の機会として認識できない場合がある。このような現象を認識することができないことによって、このような符号化システムは、それらが可能であろうと思われるほど効率的には画像データを符号化しない。   Multi-view imaging is one application where image data is not flat. Images generated by a multi-view imaging system can represent image data of a two-dimensional array of image data, but there can be spatial discontinuities in the image data contained within the image. Relatively small object motions in free space can be represented by large spatial movements in the image data representing the object. Thus, modern coding systems may not be able to recognize these motion examples as differential coding opportunities. Due to the inability to recognize such phenomena, such encoding systems do not encode image data as efficiently as they would be possible.

したがって、本発明者らは、符号化システムを改善して、マルチビュー画像データにおいて生じ得る運動効果に適応する必要性を認識した。   Accordingly, the present inventors have recognized the need to improve the coding system to accommodate for possible motion effects in multi-view image data.

本開示の実施形態での使用に適したシステムを示す。1 illustrates a system suitable for use in embodiments of the present disclosure. 本開示の一実施形態に係る符号化システムの機能ブロック図である。1 is a functional block diagram of an encoding system according to an embodiment of the present disclosure. 例示的な立方体マップ画像及び自由空間の画像コンテンツとのその関係を示す。FIG. 4 illustrates an exemplary cube map image and its relationship to free space image content. 例示的な立方体マップ画像及び自由空間の画像コンテンツとのその関係を示す。FIG. 4 illustrates an exemplary cube map image and its relationship to free space image content. 例示的な立方体マップ画像及び自由空間の画像コンテンツとのその関係を示す。FIG. 4 illustrates an exemplary cube map image and its relationship to free space image content. 本開示の一実施形態に係る方法を示す。4 illustrates a method according to an embodiment of the present disclosure. 本開示の一実施形態に係るパディングされた立方体マップ画像を示す。5 illustrates a padded cubic map image according to an embodiment of the present disclosure. 本開示の一実施形態に係る、別の例示的な立方体マップ画像及びそこから生成され得るパディングされた画像を示す。4 illustrates another exemplary cube map image and padded images that may be generated therefrom, according to one embodiment of the present disclosure. 本開示の一実施形態に係る、別の例示的な立方体マップ画像及びそこから生成され得るパディングされた画像を示す。4 illustrates another exemplary cube map image and padded images that may be generated therefrom, according to one embodiment of the present disclosure. 本開示の別の実施形態に係る方法を示す。4 illustrates a method according to another embodiment of the present disclosure. 例示的な立方体マップ画像を示す。4 shows an exemplary cube map image. 本開示の実施形態によって符号化され得る例示的なパディングされた基準画像を示す。5 illustrates an exemplary padded reference image that may be encoded according to embodiments of the present disclosure. 本開示の実施形態によって符号化され得る例示的なパディングされた基準画像を示す。5 illustrates an exemplary padded reference image that may be encoded according to embodiments of the present disclosure. 別の例示的な立方体マップ画像及び自由空間の画像コンテンツとのその関係を示す。FIG. 4 illustrates another exemplary cube map image and its relationship to free space image content. 本開示の一実施形態に係る、マルチビュー画像データの例示的な投影を示す。4 illustrates an exemplary projection of multi-view image data according to one embodiment of the present disclosure. 本開示の一実施形態に係る、マルチビュー画像データの例示的な投影を示す。4 illustrates an exemplary projection of multi-view image data according to one embodiment of the present disclosure. 本開示の一実施形態に係る、マルチビュー画像データの例示的な投影を示す。4 illustrates an exemplary projection of multi-view image data according to one embodiment of the present disclosure. 本開示の一実施形態に係る、マルチビュー画像データの例示的な投影を示す。4 illustrates an exemplary projection of multi-view image data according to one embodiment of the present disclosure. 本開示の一実施形態に係る、球面投影画像データと共に使用されるパディングデータの適用を示す。4 illustrates the application of padding data used with spherical projection image data according to one embodiment of the present disclosure. 本開示の一実施形態に係る、球面投影画像データと共に使用されるパディングデータの適用を示す。4 illustrates the application of padding data used with spherical projection image data according to one embodiment of the present disclosure. 本開示の一実施形態に係る、球面投影画像データと共に使用されるパディングデータの適用を示す。4 illustrates the application of padding data used with spherical projection image data according to one embodiment of the present disclosure. 本開示の一実施形態に係る、球面投影画像データと共に使用されるパディングデータの適用を示す。4 illustrates the application of padding data used with spherical projection image data according to one embodiment of the present disclosure. 本開示の一実施形態に係る、球面投影画像データと共に使用されるパディングデータの適用を示す。4 illustrates the application of padding data used with spherical projection image data according to one embodiment of the present disclosure. 本開示の一実施形態に係る方法を示す。4 illustrates a method according to an embodiment of the present disclosure. 図12の方法及びそのための球面投影によって処理され得る例示的な正距円筒画像を示す。13 illustrates an exemplary equirectangular image that may be processed by the method of FIG. 12 and a spherical projection therefor. 図12の方法及びそのための球面投影によって処理され得る例示的な正距円筒画像を示す。13 illustrates an exemplary equirectangular image that may be processed by the method of FIG. 12 and a spherical projection therefor. 本開示の一実施形態に係る符号化システムの機能ブロック図である。1 is a functional block diagram of an encoding system according to an embodiment of the present disclosure. 本開示の一実施形態に係る復号システムの機能ブロック図である。It is a functional block diagram of a decoding system concerning one embodiment of the present disclosure. 本開示の実施形態での使用に適した例示的コンピュータシステムを示す。1 illustrates an exemplary computer system suitable for use in embodiments of the present disclosure.

本開示の実施形態は、立方体マップ画像用のビデオ符号化/復号技術を提供する。これらの技術によれば、パディングされた基準画像が、入力データを予測する間に使用するために生成される。基準画像は、立方体マップフォーマットで記憶される。パディングされた基準画像は、基準画像から生成され、その中には基準画像に含まれる第1のビューの画像データが複製されて立方体マップ画像に含まれる第2のビューに隣接して配置される。入力画像の画素ブロックを符号化すると、予測検索は入力画素ブロックとパディングされた基準画像のコンテンツの間で実行することができる。予測検索が一致を識別すると、画素ブロックはパディングされた基準画像からの一致しているデータに関して符号化することができる。パディングされた基準画像の複製されたデータの存在は、十分な予測一致が入力画素ブロックデータに対して識別されるという可能性を増加させると考えられ、それはビデオ符号化の全体的な効率を上昇させる。   Embodiments of the present disclosure provide video encoding / decoding techniques for cubic map images. According to these techniques, a padded reference image is generated for use during predicting input data. The reference image is stored in a cube map format. The padded reference image is generated from the reference image, in which the image data of the first view included in the reference image is duplicated and arranged adjacent to the second view included in the cubic map image. . Once the pixel blocks of the input image have been encoded, a predictive search can be performed between the input pixel blocks and the content of the padded reference image. Once the predictive search has identified a match, the pixel block can be encoded with respect to the matching data from the padded reference image. It is believed that the presence of duplicated data in the padded reference image increases the likelihood that sufficient prediction matches will be identified for the input pixel block data, which increases the overall efficiency of video coding Let it.

図1は、本開示の実施形態が使用され得るシステム100を示す。システム100は、ネットワーク130を介して相互接続される少なくとも2つの端末110〜120を含むことができる。第1の端末110は、マルチビュービデオを生成する画像ソースを有することができる。端末110は、符号化システム及び伝送システム(図示せず)も含んで、マルチビュービデオの符号化表現を第2の端末120に送信することができ、そこで、それは消費されてもよい。例えば、第2の端末120は、マルチビュービデオをローカルディスプレイ上に表示することができ、それはマルチビュービデオを修正するためにビデオ編集プログラムを実行することができるか、又はマルチビューをアプリケーション(例えば、仮想現実プログラム)に組み込むことができ、ヘッドマウントディスプレイ(例えば、仮想現実アプリケーション)に表すことができ、又は、それは後で使用するためにマルチビュービデオを記憶することができる。   FIG. 1 illustrates a system 100 in which embodiments of the present disclosure may be used. System 100 may include at least two terminals 110-120 interconnected via network 130. The first terminal 110 may have an image source that generates a multi-view video. Terminal 110 may also include a coding system and a transmission system (not shown) to send the coded representation of the multi-view video to second terminal 120, where it may be consumed. For example, the second terminal 120 can display the multi-view video on a local display, which can execute a video editing program to modify the multi-view video, or can convert the multi-view video to an application (eg, , A virtual reality program), can be represented on a head mounted display (eg, a virtual reality application), or it can store multi-view video for later use.

図1は、第1の端末110から第2の端末120へのマルチビュービデオの一方向送信に適したコンポーネントを示す。いくつかの用途で、ビデオデータの双方向性の交換を提供することは適切であり得て、この場合、第2の端末120はそれ自身の画像ソース、ビデオ符号器及び送信器(図示せず)を含むことができ、第1の端末110はそれ自身の受信機及びディスプレイ(これも図示せず)を含むことができる。マルチビュービデオを双方向に交換することが望ましい場合、以下に述べられる技術はマルチビュービデオの一対の独立した一方向交換を生成するために繰り返すことができる。他の用途では、マルチビュービデオを一方向へ(例えば、第1の端末110から第2の端末120へ)送信して、「平面」ビデオ(例えば、限られた視野からのビデオ)を逆方向に送信することは、差し支えない。   FIG. 1 shows components suitable for one-way transmission of multi-view video from a first terminal 110 to a second terminal 120. In some applications, it may be appropriate to provide a bidirectional exchange of video data, in which case the second terminal 120 will have its own image source, video encoder and transmitter (not shown). ), And the first terminal 110 may include its own receiver and display (also not shown). If it is desirable to exchange multi-view video in both directions, the techniques described below can be repeated to generate a pair of independent one-way exchanges of multi-view video. In other applications, the multi-view video is transmitted in one direction (eg, from the first terminal 110 to the second terminal 120) and “flat” video (eg, video from a limited field of view) is transmitted in the reverse direction. Can be sent to

図1において、第2の端末120はコンピュータディスプレイとして示すが、本開示の原理はそのように限定されるわけではない。本開示の実施形態は、ラップトップコンピュータ、タブレット型コンピュータ、スマートフォン、サーバ、メディアプレーヤ、仮想現実頭部装着ディスプレイ、拡張現実ディスプレイ、ホログラムディスプレイ及び/又は専用のテレビ会議装置での用途がある。ネットワーク130は、例えば、有線及び/又は無線通信ネットワークを含む端末110〜120の中の符号化ビデオデータを伝達する任意の数のネットワークを表す。通信ネットワーク130は、回線交換及び/又はパケット交換チャネルのデータを交換することができる。代表的なネットワークとしては、電気通信ネットワーク、ローカルエリアネットワーク、広域ネットワーク及び/又はインターネットを挙げることができる。本説明の目的上、ネットワーク130のアーキテクチャ及びトポロジは、以下に説明されない限り、本開示の動作にとって重要ではない。   In FIG. 1, the second terminal 120 is shown as a computer display, but the principles of the present disclosure are not so limited. Embodiments of the present disclosure have application in laptop computers, tablet computers, smartphones, servers, media players, virtual reality head mounted displays, augmented reality displays, hologram displays, and / or dedicated video conferencing devices. Network 130 represents any number of networks that carry encoded video data among terminals 110-120, including, for example, wired and / or wireless communication networks. Communication network 130 may exchange data on circuit-switched and / or packet-switched channels. Representative networks may include telecommunications networks, local area networks, wide area networks, and / or the Internet. For the purpose of this description, the architecture and topology of the network 130 are not important to the operation of the present disclosure unless described below.

図2は、本開示の一実施形態に係る符号化システム200の機能ブロック図である。システム200は、画像ソース210、画像処理システム220、ビデオ符号器230、ビデオ復号器240、基準ピクチャ記憶250、予測器260、パディングユニット270及び、任意選択的に、一対の球面変換ユニット280.1、280.2を含むことができる。画像ソース210はマルチビュー画像として画像データを生成することができ、複数の方向に基準点周辺で拡がる視野の画像データを含む。画像処理システム220は必要に応じて画像ソース210から画像データを変換することができて、ビデオ符号器230の要件に適合する。ビデオ符号器230は、通常画像データの空間及び/又は時間的冗長性を利用することによって、その入力画像データの符号化表現を生成することができる。ビデオ符号器230は、送信され、及び/又は格納されるときに、入力データより少ない帯域幅を消費する入力データの符号化表現を出力することができる。   FIG. 2 is a functional block diagram of the encoding system 200 according to an embodiment of the present disclosure. The system 200 includes an image source 210, an image processing system 220, a video encoder 230, a video decoder 240, a reference picture store 250, a predictor 260, a padding unit 270, and, optionally, a pair of spherical transform units 280.1. , 280.2. Image source 210 can generate image data as a multi-view image, including image data of a field of view extending around a reference point in multiple directions. The image processing system 220 can convert the image data from the image source 210 as needed to meet the requirements of the video encoder 230. Video encoder 230 can generate an encoded representation of its input image data, typically by exploiting the spatial and / or temporal redundancy of the image data. Video encoder 230 may output a coded representation of the input data that, when transmitted and / or stored, consumes less bandwidth than the input data.

ビデオ復号器240は、ビデオエンコーダ230によって実行された符号化動作を反転することができて、符号化ビデオデータから再構成されたピクチャを取得する。通常、ビデオ符号器230によって適用される符号化処理は損失性プロセスであり、それによって、再構成されたピクチャは元のピクチャと比較されるときに、種々のエラーを有することになる。ビデオ復号器240は、「基準ピクチャ」と呼ばれる選択された符号化ピクチャのピクチャを再構成することができて、復号された基準ピクチャを基準ピクチャ記憶250に記憶することができる。送信エラーがない場合、復号された基準ピクチャは、復号器(図2に示さず)によって取得される復号された基準ピクチャを複製する。   Video decoder 240 may invert the encoding operation performed by video encoder 230 to obtain a reconstructed picture from the encoded video data. Typically, the encoding process applied by video encoder 230 is a lossy process, whereby the reconstructed picture will have various errors when compared to the original picture. Video decoder 240 may reconstruct a picture of the selected coded picture, referred to as a “reference picture,” and may store the decoded reference picture in reference picture store 250. If there are no transmission errors, the decoded reference picture duplicates the decoded reference picture obtained by the decoder (not shown in FIG. 2).

予測器260は新規な入力ピクチャのための予測基準を、それらが符号化されるときに選択することができる。符号化されている入力ピクチャの各部分(便宜上「画素ブロック」と呼ぶ)に対して、予測器260は、符号化モードを選択することができて、符号化されている画素ブロックの予測基準検索として役立ち得る基準ピクチャの一部を識別することができる。符号化モードはイントラ符号化モードであってもよく、その場合には、予測基準は符号化されているピクチャの予め符号化された(及び、復号された)部分から引き出すことができる。あるいは、符号化モードはインター符号化モードであってもよく、その場合には、予測基準は他の予め符号化及び復号されたピクチャから引き出すことができる。予測器260は、本明細書において記載されるパディングユニット270によって生成される、パディングされた基準画像データにおいて作動することができる。   Predictor 260 can select prediction criteria for new input pictures as they are encoded. For each part of the input picture that is being coded (referred to as a “pixel block” for convenience), the predictor 260 can select a coding mode and perform a prediction criterion search for the coded pixel block. Can be identified as part of the reference picture that can serve as The encoding mode may be an intra-coding mode, in which case the prediction criterion may be derived from the pre-encoded (and decoded) portion of the picture being encoded. Alternatively, the encoding mode may be an inter-coding mode, in which case the prediction criteria may be derived from other pre-encoded and decoded pictures. The predictor 260 can operate on the padded reference image data generated by the padding unit 270 described herein.

一実施形態において、予測器260は、入力ピクチャ及び球面投影表現に変換された基準ピクチャに作用して符号化されているピクチャの予測基準を検索することができる。球面変換ユニット280.1、280.2は、入力ピクチャ及び基準ピクチャを球面投影表現に変換することができる。   In one embodiment, the predictor 260 can operate on the input picture and the reference picture converted to the spherical projection representation to retrieve the prediction reference of the picture being coded. The spherical transform units 280.1, 280.2 can transform the input picture and the reference picture into a spherical projection representation.

適切な予測基準が識別されると、予測器260は予測データをビデオ符号器230に与えることができる。ビデオ符号器230は、予測器260によって供給される予測データに関して、差分的に入力ビデオデータを符号化することができる。通常、予測動作及び差分符号化は、画素ブロックごとのベースで作用する。入力画素ブロックと予測画素ブロックの間の画素ごとの違いを表す予測残差は、更なる符号化動作の対象とすることができ、更に帯域幅を減らすことができる。   Once a suitable prediction criterion has been identified, predictor 260 may provide prediction data to video encoder 230. Video encoder 230 may differentially encode the input video data with respect to the prediction data provided by predictor 260. Normally, the prediction operation and the difference coding operate on a pixel block basis. The prediction residual, which represents the pixel-by-pixel difference between the input pixel block and the prediction pixel block, can be subject to further encoding operations, further reducing bandwidth.

示されるように、出力されるビデオ符号器230による符号化ビデオデータは、送信及び/又は格納されるときに、入力データより少ない帯域幅を消費するはずである。符号化システム200は、符号化ビデオデータを出力装置290、例えば通信ネットワーク130(図1)全体に符号化ビデオデータを送信することができる送信器(図示せず)又は電子、磁気及び/又は光記憶媒体などの記憶装置(これも図示せず)に、出力することができる。   As shown, the output encoded video data by video encoder 230, when transmitted and / or stored, should consume less bandwidth than the input data. The encoding system 200 may transmit the encoded video data to an output device 290, such as a transmitter (not shown) or electronic, magnetic and / or optical, capable of transmitting the encoded video data across the communication network 130 (FIG. 1). The data can be output to a storage device such as a storage medium (also not shown).

図3は、本発明の実施形態での使用に適した立方体マップ画像300を示す。示されるように、全方向カメラは、「正面」ビュー310、「左側」ビュー320、「背面」ビュー330、「右側」ビュー340、「上面」ビュー350及び「底面」ビュー360をそれぞれ表すいくつかの視野の画像データをキャプチャすることができる。これらのビュー310〜360の画像データは、異なる視野の間に存在する空間関係に従って、MxN画素の画像に組み立てることができる。   FIG. 3 shows a cubic map image 300 suitable for use in an embodiment of the present invention. As shown, the omnidirectional camera has several representations of a “front” view 310, a “left” view 320, a “back” view 330, a “right” view 340, a “top” view 350, and a “bottom” view 360, respectively. Image data of the field of view can be captured. The image data of these views 310-360 can be assembled into MxN pixel images according to the spatial relationship that exists between the different fields of view.

図3(a)は、より大きな立方体マップ画像300におけるビュー310〜360の向きを示す。図3(b)は、これらのビュー310〜360に対応する画像をキャプチャするカメラを中心としたビュー310〜360の向きを示す。便宜上、これらの視野ごとにキャプチャされる画像データは、立方体マップ画像300のコンテンツを説明するときに、「ビュー」310〜360として記述される。   FIG. 3A shows the orientation of the views 310 to 360 in the larger cubic map image 300. FIG. 3B shows the orientation of the views 310 to 360 around the camera that captures images corresponding to these views 310 to 360. For convenience, these image data captured for each field of view are described as "views" 310-360 when describing the content of the cubic map image 300.

図3(c)はビューの空間的向きの分解図であり、ビュー310〜360の間に発生するエッジ312〜318、322〜326、332〜336、342〜344を示す。したがって、図3(b)に示すように、エッジ312と直ちに隣接している正面ビュー310からの画像コンテンツは、これもエッジ312と直ちに隣接している左側ビュー320からの画素コンテンツと空間的に隣接している。同様に、エッジ314と直ちに隣接している正面ビュー310からの画素コンテンツは、これもエッジ314と直ちに隣接している右側ビュー340からの画素コンテンツと空間的に隣接している。エッジ316及び318と直ちに隣接している正面ビュー310からの画素コンテンツは、それぞれ、それらのエッジと直ちに隣接している上面ビュー350及び底面ビュー360からの画素コンテンツと空間的に隣接している。   FIG. 3C is an exploded view of the spatial orientation of the view, showing edges 312-318, 322-326, 332-336, 342-344 that occur between views 310-360. Thus, as shown in FIG. 3 (b), the image content from the front view 310 immediately adjacent to the edge 312 is spatially different from the pixel content from the left view 320 which is also immediately adjacent to the edge 312. Adjacent. Similarly, pixel content from the front view 310 immediately adjacent to the edge 314 is also spatially adjacent to pixel content from the right view 340, which is also immediately adjacent to the edge 314. Pixel content from the front view 310 immediately adjacent to the edges 316 and 318 is spatially adjacent to pixel content from the top view 350 and the bottom view 360, respectively, immediately adjacent to those edges.

ビュー310〜360は立方体マップ画像300内に配置されて、ビュー310〜360の間の境界のいくつかにわたって連続性を保持することができる。図3(a)に示すように、画像連続性は、正面ビュー310と隣接した左側、上面及び底面ビュー320、350及び360の間で、それらのそれぞれのエッジ312、316及び318に沿って維持することができる。画像連続性は、それぞれ、左側ビュー320と正面と背面ビュー310、330の間で、エッジ312及び322に沿って維持することができる。画像連続性は、背面ビュー330と左側と右側のビュー320、340の間のそれぞれエッジ322及び332に沿って維持することができる。   The views 310-360 can be placed in the cubic map image 300 to maintain continuity over some of the boundaries between the views 310-360. As shown in FIG. 3 (a), image continuity is maintained between the front view 310 and adjacent left, top and bottom views 320, 350 and 360 along their respective edges 312, 316 and 318. can do. Image continuity may be maintained along edges 312 and 322 between left view 320 and front and back views 310, 330, respectively. Image continuity may be maintained along edges 322 and 332 between rear view 330 and left and right views 320, 340, respectively.

しかしながら、画像連続性は、エッジ314、324、326、334、336、342、344にわたっては維持されない。したがって、これらのエッジと隣接しているビュー310〜360からの画像コンテンツは、それらが隣接する画像コンテンツを表すが、互いに近接してはない。例えば、エッジ314と隣接している正面ビュー310及び右側ビュー340からのコンテンツは、図3(c)に示すように、空間的に互いに隣接しているが、それらは図3(a)に示される立方体マップ画像300の反対側のエッジに沿って現れる。同様に、上面ビュー350のエッジ324、336及び344に沿った画像コンテンツは、それぞれ左側ビュー320、背面ビュー330及び右側ビュー340のエッジ324、336及び344に沿ったそれらの対応物から遠く離れている。更に、底面ビュー360のエッジ326、334及び342に沿った画像コンテンツは、それぞれ左側ビュー320、背面ビュー330及び右側ビュー340のエッジ326、334及び342に沿ったそれらの対応物から遠く離れている。   However, image continuity is not maintained across edges 314,324,326,334,336,342,344. Thus, the image content from views 310-360 adjacent to these edges represents the image content they are adjacent to, but not adjacent to each other. For example, content from the front view 310 and the right view 340 adjacent to the edge 314 are spatially adjacent to each other as shown in FIG. 3 (c), but they are shown in FIG. 3 (a). Appear along the opposite edge of the cubic map image 300. Similarly, image content along edges 324, 336, and 344 of top view 350 are far away from their counterparts along edges 324, 336, and 344 of left view 320, back view 330, and right view 340, respectively. I have. Further, image content along edges 326, 334, and 342 of bottom view 360 are far away from their counterparts along edges 326, 334, and 342 of left view 320, back view 330, and right view 340, respectively. .

図4は、本開示の一実施形態に係る方法を示す。方法400は、例えば図3(a)に示すような立方体マップ画像フォーマットに配置される基準ピクチャを処理することができる。候補基準ピクチャごとに、方法400は、ソース立方体マップ画像のヌル領域内にパディングされた画像を作成することができる(ボックス410)。方法400は、ボックス410で生成されたパディングされた画像全体の入力画素ブロックの運動予測検索を実行することもできる(ボックス420)。方法400は予測検索が一致を生成するかどうか判定することができ(ボックス430)、生成すると判定された場合は、方法400は運動予測検索から識別される一致している基準ブロックを用いて予測される入力画素ブロックを符号化することができる(ボックス440)。そうでない場合は、方法400は、代替の技術によって、例えばイントラ符号化によって、入力画素ブロックを符号化することができる。   FIG. 4 illustrates a method according to an embodiment of the present disclosure. The method 400 can process reference pictures arranged in a cubic map image format, for example, as shown in FIG. For each candidate reference picture, the method 400 may create an image padded in the null region of the source cube map image (box 410). The method 400 may also perform a motion prediction search of the input pixel block of the entire padded image generated in box 410 (box 420). The method 400 may determine whether the predictive search produces a match (box 430), and if so, the method 400 predicts using the matching reference block identified from the motion predictive search. The input pixel block to be encoded can be encoded (box 440). Otherwise, the method 400 may encode the input pixel block by an alternative technique, for example, by intra-coding.

図5は、本開示の一実施形態に係る、パディングされた立方体マップ画像500を示す。パディングされた立方体マップ画像500は、図3(a)のようなソース立方体マップ画像の作成から生成される、正面、左側、背面、右側、上面及び底面ビュー310〜360からの画像データを含むことができる。図3(a)に示されるヌル領域370.1、370.2であった立方体マップ画像300の領域は、エッジ324、326、334、336、342及び344に接していてそれらのエッジにわたる連続画像コンテンツを展開するのに必要なビューからの画像データを含むことができる。したがって、ヌル領域370.1(図3)の場合、上面ビュー350の画像コンテンツはパディングされた画像510、520及び530として配置されてもよく、上面ビュー350の各インスタンスは回転されて、そのエッジを左側ビュー320、背面ビュー330及び右側ビュー340のエッジ324、336及び344に位置合わせしてもよい。同様に、ヌル領域370.2(図3)の場合、底面ビュー360の画像コンテンツはパディングされた画像540、550及び560として配置されてもよく、底面ビュー360の各インスタンスは回転されて、そのエッジを左側ビュー320、背面ビュー330及び右側ビュー340のエッジ326、334及び342に位置合わせしてもよい。図5において、パディングされた画像510〜560のテキストは、これらのエッジ324、326、334、336、342及び344にデータを位置合わせするために発生し得る画像データの回転を示す。   FIG. 5 illustrates a padded cubic map image 500 according to one embodiment of the present disclosure. The padded cube map image 500 should include image data from the front, left, back, right, top, and bottom views 310-360, generated from the creation of the source cube map image as in FIG. Can be. The areas of the cubic map image 300 that were null areas 370.1 and 370.2 shown in FIG. 3A are continuous images that touch the edges 324, 326, 334, 336, 342, and 344 and extend over those edges. It can include image data from the views needed to deploy the content. Thus, for the null region 370.1 (FIG. 3), the image content of the top view 350 may be arranged as padded images 510, 520 and 530, and each instance of the top view 350 is rotated to its edge May be aligned with edges 324, 336 and 344 of left view 320, rear view 330 and right view 340. Similarly, for the null region 370.2 (FIG. 3), the image content of the bottom view 360 may be arranged as padded images 540, 550, and 560, and each instance of the bottom view 360 is rotated and its The edges may be aligned with edges 326, 334, and 342 of left view 320, rear view 330, and right view 340. In FIG. 5, the text of the padded images 510-560 shows the rotation of the image data that can occur to align the data to these edges 324, 326, 334, 336, 342, and 344.

パディングされた画像の提供は、予測ビデオ符号器が画像全体の画像コンテンツの移動を検出することができる可能性を増大させる。図3に示されるオブジェクトを左側ビュー320内の位置Loc1で考察する。オブジェクトの画像コンテンツは、以前に符号化された基準フレーム内の上面ビュー350の位置Loc2から移動したものであってもよい。したがって、上面ビュー350の位置Loc2のオブジェクトの画像コンテンツは、位置Loc1におけるオブジェクトのための予測基準としての役割を果たすことができる。しかしながら、実際には、符号化されているフレームの位置Loc1にあるオブジェクトのための予測一致を検索するビデオ符号器が、基準フレームの位置Loc2で、画像コンテンツを検出することができない場合があり、これは、正距円筒画像300の位置Loc1からのオブジェクトの距離かその向きのいずれか、又は両方ともによるものである。   Providing padded images increases the likelihood that the predictive video encoder can detect movement of image content throughout the image. Consider the object shown in FIG. 3 at position Loc1 in the left view 320. The image content of the object may have been moved from the position Loc2 of the top view 350 in the previously encoded reference frame. Thus, the image content of the object at position Loc2 in top view 350 can serve as a predictor for the object at position Loc1. However, in practice, the video encoder searching for a prediction match for the object at position Loc1 of the frame being coded may not be able to detect the image content at position Loc2 of the reference frame, This is due to either the distance of the object from the position Loc1 of the equirectangular cylinder image 300 or its orientation, or both.

図5に示すように、パディングされた画像を用いて、オブジェクトの冗長コピーは、基準フレームの位置Loc3で与えることができる。上面ビュー350の画像コンテンツは、エッジ324で左側ビュー320の画像コンテンツと共にエッジ324で上面ビュー350の画像コンテンツに隣接する向きで、パディングされたビュー510に現れる。位置Loc3の画像コンテンツの位置及び向きは、(位置Loc1で)符号化されているオブジェクトにより近く、したがって、それは、予測ビデオ符号器による予測の基礎としての役割を果たす可能性がより高い。   As shown in FIG. 5, using the padded image, a redundant copy of the object can be given at position Loc3 of the reference frame. The image content of top view 350 appears in padded view 510 along with the image content of left view 320 at edge 324 in an orientation adjacent to the image content of top view 350 at edge 324. The position and orientation of the image content at position Loc3 is closer to the object being coded (at position Loc1), so it is more likely to serve as the basis for prediction by the predictive video encoder.

本発明の原理は、様々なフォーマットの立方体マップ画像での用途がある。別のフォーマットが図6に示され、これは4つのヌル領域670.1〜670.4を有する代替的な表現における正面、左側、背面、右側、上面及び底面ビュー610〜660を示す(図6(a))。ここで、パディングされた画像680.1〜680.6はヌル領域670.1〜670.4において与えることができ、これらはビュー610〜660のそれぞれから引き出される(図6(b))。この例では、パディングされた画像680.1及び680.4は右側ビュー640から導出することができ、パディングされた画像680.2〜680.3及び680.5〜680.6は上面ビュー650から導出することができる。   The principles of the present invention have application in cubic map images in various formats. Another format is shown in FIG. 6, which shows the front, left, back, right, top and bottom views 610-660 in an alternative representation with four null regions 670.1-670.4 (FIG. 6). (A)). Here, padded images 680.1-680.6 can be provided in null regions 670.1-670.4, which are derived from each of views 610-660 (FIG. 6 (b)). In this example, padded images 680.1 and 680.4 can be derived from right view 640, and padded images 680.2-680.3 and 680.5-680.6 can be derived from top view 650. Can be derived.

図5に戻ると、パディングされた画像の使用がすべてのエッジにわたって画像連続性を作り出すというわけではないことが理解できる。例えば、上面ビュー350に関して、連続性は、エッジ324、344又は336にわたって維持されない。パディングされた画像510は、(それが左側ビュー320で対応物のエッジ324にわたる連続性を作り出す場合であっても)エッジ324にわたる連続性を作り出さない、上面ビューのデータを含む。更に、画像データは、画像500の境界エッジを表すエッジ336及び344にはない。同様に、底面ビュー360に関しては、エッジ326、334又は342にわたって連続性は維持されない。パディングされた画像540は、(それが左側ビュー320で対応物のエッジ326にわたる連続性を作り出す場合であっても)エッジ326にわたる連続性を作り出さない、底面ビューのデータを含む。更に、画像データは、画像500の境界エッジを表すエッジ334及び342にはない。したがって、予測検索はこのような境界にわたって一致を識別しない可能性があり、任意選択的に、パディングが適用された後に画像コンテンツの不連続性を有するエッジ324、326、334、336、342、344にわたる検索を回避することを強いられることがあり得る。   Returning to FIG. 5, it can be seen that the use of padded images does not create image continuity across all edges. For example, for top view 350, continuity is not maintained across edges 324, 344, or 336. Padded image 510 includes data from the top view that does not create continuity across edge 324 (even if it creates continuity across edge 324 of the counterpart in left view 320). Further, the image data is not at edges 336 and 344 that represent the boundary edges of image 500. Similarly, for bottom view 360, continuity is not maintained across edges 326, 334, or 342. Padded image 540 includes data for the bottom view that does not create continuity across edge 326 (even if it creates continuity across counterpart edge 326 in left view 320). Further, the image data is not at edges 334 and 342 that represent the boundary edges of image 500. Thus, the predictive search may not identify matches across such boundaries, and optionally, edges 324, 326, 334, 336, 342, 344 with discontinuities in the image content after padding has been applied. May be forced to avoid a search over.

更に別の実施形態では、基準画像は、画像の周辺について、パディングによって拡大されてもよい。したがって、M×N画素の画像としてビデオエンコーダ及び復号器によって処理される基準画像は、画像の周辺に沿って、それぞれ、量ΔM及びΔNにだけ拡大されて、(M+2ΔM)×(N+2ΔN)の画像を得ることができる。パディングされた画像データはM×N画素の画像の周辺エッジに沿って提供されて、周辺のビュー310、340、350、360のエッジに沿って、パディングされた画像データを提供することができる。このようなパディングされた画像データは、立方体マップビューの周辺エッジに当接するビューから引き出すことができる。例えば、右側ビューデータは正面ビュー310の周辺エッジに沿って提供することができ、正面ビューデータは右側ビュー340の周辺エッジに沿って提供することができる。したがって、予測検索は、M×N画像の周辺エッジから、ΔM及び/又はΔN拡大により提供されるパディングされた領域に拡大することができる。   In yet another embodiment, the reference image may be enlarged by padding around the image. Therefore, the reference image, which is processed by the video encoder and the decoder as an image of M × N pixels, is enlarged along the periphery of the image by the amounts ΔM and ΔN, respectively, to obtain an (M + 2ΔM) × (N + 2ΔN) image Can be obtained. The padded image data may be provided along a peripheral edge of the M × N pixel image to provide padded image data along the edges of the peripheral views 310, 340, 350, 360. Such padded image data can be derived from a view that abuts the peripheral edge of the cubic map view. For example, right view data may be provided along a peripheral edge of the front view 310 and front view data may be provided along a peripheral edge of the right view 340. Thus, the predictive search can extend from the peripheral edge of the M × N image to the padded area provided by ΔM and / or ΔN enlargement.

図7は、本開示の別の実施態様に係る方法700を示す。方法700は、符号化されている立方体マップ画像の画素ブロックごとに実行することができる。方法700は、符号化されている画素ブロックと関連したビューを識別することができる(ボックス710)。次に、入力画素ブロックのための予測基準として役割を果たすことができる各候補基準ピクチャに関して、方法700は、ボックス710において識別されるビューと隣接しているビューからの画像データを使用して、パディングされた基準画像を作成することができる(ボックス720)。方法700は、ボックス720で作成されたパディングされた基準画像の中で、運動予測検索730を実行することができる(ボックス730)。候補基準ピクチャについての考慮の後、方法700は、予測検索が一致を得たかどうかを判定することができる(ボックス740)。一致がある場合は、方法700は、運動予測検索から識別される一致している基準ブロックを用いて、予測される入力画素ブロックを符号化することができる(ボックス750)。そうでない場合は、方法700は、代替の技術によって、例えばイントラ符号化によって、入力画素ブロックを符号化することができる。   FIG. 7 illustrates a method 700 according to another embodiment of the present disclosure. Method 700 may be performed for each pixel block of a cubic map image that is being encoded. The method 700 may identify a view associated with the pixel block being encoded (box 710). Next, for each candidate reference picture that can serve as a prediction criterion for the input pixel block, the method 700 uses image data from a view adjacent to the view identified in box 710 to: A padded reference image can be created (box 720). The method 700 may perform a motion prediction search 730 in the padded reference image created in box 720 (box 730). After considering the candidate reference picture, method 700 may determine whether the predictive search yielded a match (box 740). If there is a match, the method 700 may encode the predicted input pixel block using the matching reference block identified from the motion prediction search (box 750). Otherwise, the method 700 may encode the input pixel block by an alternative technique, for example, by intra-coding.

図8は、図7の方法によって符号化され得る例示的な立方体マップ画像800を示す。図8(a)は、画素ブロックにそれぞれ分割される正面、左側、背面、右側、上面及び底面ビュー810〜880を有する立方体マップ画像800を示す。図8(b)は画素ブロックPB1が上面ビュー850から符号化されるときに生成され得るパディングされた基準画像870を示し、図8(c)は画素ブロックPB1が背面ビュー830から符号化されるときに生成され得るパディングされた基準画像880を示す。   FIG. 8 illustrates an exemplary cube map image 800 that may be encoded by the method of FIG. FIG. 8A shows a cubic map image 800 having front, left, back, right, top, and bottom views 810-880, each of which is divided into pixel blocks. FIG. 8B illustrates a padded reference image 870 that may be generated when the pixel block PB1 is encoded from the top view 850, and FIG. 8C illustrates the pixel block PB1 encoded from the back view 830. 136 illustrates a padded reference image 880 that may sometimes be generated.

図8(b)を参照すると、入力画像800の上面ビュー850からの画素ブロックPB1が符号化されると、方法700は、基準ピクチャの上面ビュー872からの画像データを含むパディングされた基準画像870及び上面ビュー872のエッジに沿って提供されるパディングされた画像874.1〜874.4を生成することができる。この例では、パディングされた画像874.1〜874.4は、基準画像の正面ビュー874.1、基準画像の左側ビュー874.2、基準画像の背面ビュー874.3及び基準画像の右側ビュー874.4の画像データをそれぞれ含む。これらのビュー874.1〜874.4の画像データはそれぞれ回転されて、上面ビュー872のエッジにわたる画像データの連続性を提供することができる。   Referring to FIG. 8 (b), once the pixel block PB1 from the top view 850 of the input image 800 has been encoded, the method 700 may include a padded reference image 870 including image data from the top view 872 of the reference picture. And padded images 874.1-874.4 provided along the edges of the top view 872. In this example, the padded images 874.1-874.4 are a reference image front view 874.1, a reference image left view 874.2, a reference image back view 874.3, and a reference image right view 874. .4 image data. The image data of each of these views 874.1-874.4 can be rotated to provide continuity of the image data across the edges of the top view 872.

パディングされた基準画像870は、画素ブロックPB1が符号化されるビュー850のすべてのエッジに沿って、連続的基準ピクチャデータを提供することができる。したがって、画素ブロックPB1を符号化するときに、ビデオ符号化システムは画素ブロックPB1が位置するビュー850のエッジにわたる予測基準を検索することができる。   Padded reference image 870 may provide continuous reference picture data along all edges of view 850 in which pixel block PB1 is encoded. Thus, when encoding the pixel block PB1, the video encoding system can search for a prediction criterion over the edge of the view 850 where the pixel block PB1 is located.

同様に、図8(c)を参照すると、入力画像800の背面ビュー830からの画素ブロックPB2が符号化されると、方法700は、基準ピクチャの背面ビュー882からの画像データを含むパディングされた基準画像880及び背面ビュー882のエッジに沿って提供されるパディングされた画像884.1〜884.4を生成することができる。この例では、パディングされた画像884.1〜884.4は、基準画像の底面ビュー884.1、基準画像の右側ビュー884.2、基準画像の上面ビュー884.3及び基準画像の左側ビュー884.4の画像データをそれぞれ含む。これらのビュー884.1〜884.4の画像データはそれぞれ回転されて、上面ビュー882のエッジにわたる画像データの連続性を提供することができる。   Similarly, with reference to FIG. 8 (c), once the pixel block PB2 from the rear view 830 of the input image 800 has been encoded, the method 700 may be padded with image data from the rear view 882 of the reference picture. Padded images 884.1-884.4 can be generated that are provided along the edges of the reference image 880 and the back view 882. In this example, the padded images 884.1-884.4 are a reference image bottom view 884.1, a reference image right view 884.2, a reference image top view 884.3, and a reference image left view 884. .4 image data. The image data for each of these views 884.1-884.4 can be rotated to provide continuity of the image data across the edges of the top view 882.

パディングされた基準画像880は、画素ブロックPB2が符号化されるビュー830のすべてのエッジに沿って、連続的基準ピクチャデータを提供することができる。したがって、画素ブロックPB2を符号化するときに、ビデオ符号化システムは画素ブロックPB2が位置するビュー80のエッジにわたる予測基準を検索することができる。   The padded reference image 880 can provide continuous reference picture data along all edges of the view 830 where the pixel block PB2 is encoded. Therefore, when encoding the pixel block PB2, the video encoding system can search for a prediction criterion over the edge of the view 80 where the pixel block PB2 is located.

方法700の動作は、符号化されている画像800の各ビュー810〜860の画素ブロックに対して繰り返すことができる。   The operations of method 700 may be repeated for each view 810-860 pixel block of image 800 being encoded.

図8(b)及び図8(c)はそれぞれ、パディングされた画像データ874.1〜874.4及び884.1〜884.4のインスタンスの間の領域内に提供されるそれぞれのヌル領域876.1〜876.4及び886.1〜886.4を示す。一実施形態では、これらのヌル領域に画像データを提供する必要がない。しかしながら、代替的に、隣接する画像から、パディングされた画像データを複製することは許容できる。例えば、ヌル領域876.3は、パディングされた画像847.1及び847.4と隣接しており、パディングされた画像の1つは、必要に応じて、ヌル領域876.3において複製することができる。   8 (b) and 8 (c) show respective null regions 876 provided within the region between instances of padded image data 874.1-874.4 and 884.1-884.4, respectively. .1 to 876.4 and 886.1 to 886.4. In one embodiment, there is no need to provide image data for these null regions. However, it is alternatively acceptable to duplicate padded image data from adjacent images. For example, null region 876.3 is adjacent to padded images 847.1 and 847.4, and one of the padded images may be duplicated in null region 876.3 if necessary. it can.

図7は、パディングされた画像の作成(ボックス720)が符号化されている画素ブロックごとに新たに実行され得ることを示すが、実際には、パディングされた画像の作成は一度実行されて、所与のビューの中ですべての画素ブロックを符号化するために再使用されてもよい。したがって、入力画像800の上面ビュー850の画素ブロックを符号化するときに、上面ビュー850からのすべての画素ブロックを符号化するのに使用する、パディングされた基準画像870の単一のインスタンスが作成されてもよい。同様に、入力画像800の背面ビュー830の画素ブロックを符号化するときに、背面ビュー830からのすべての画素ブロックを符号化するのに使用する、パディングされた基準画像880の単一のインスタンスが作成されてもよい。   FIG. 7 shows that the creation of the padded image (box 720) can be performed anew for each pixel block being coded, but in practice the creation of the padded image is performed once, It may be reused to encode all pixel blocks in a given view. Thus, when encoding a pixel block of top view 850 of input image 800, a single instance of padded reference image 870 is created that is used to encode all pixel blocks from top view 850. May be done. Similarly, when encoding a pixel block of the rear view 830 of the input image 800, a single instance of the padded reference image 880 used to encode all the pixel blocks from the rear view 830 is May be created.

更に、パディングされた基準画像を構築するときに、所与のビューのすべての画像データを使用する必要はない。その代わりに、実行されている運動予測検索の検索ウィンドウに対応する領域に画像データを展開するのに十分なパディングされた画像データの一部を提供するので十分である。例えば、図8(a)は、符号化されている画像800の上面ビュー850の画素ブロックPB1周囲に設けられている例示的な検索ウィンドウSWを示す。それは、所与のビュー(ビュー850など)のすべての画素ブロックのための検索ウィンドウの結合に対応する領域をカバーするのに十分なデータを有するパディングされた基準画像を展開するのに十分である。したがって、パディングされた基準画像は、符号化されている画素ブロックとして同じ位置にあるビュー及び同じ位置にあるビューに隣接した画像の部分に対応する、基準画像からの画像データから取得することができる。図8(b)において、基準画像の上面ビュー872はPB1があるビュー850と同じ位置にあり、基準画像からの正面、左側、背面及び右側ビューの部分は、ビュー850のすべての画素ブロックのための検索ウィンドウの結合と同一の広がりをもつパディングされた基準画像870を構築するために用いることができる。上面ビュー850(図8(a))の画素ブロックのまわりの検索ウィンドウが基準画像からの正面、左側、背面及び右側ビューに達することができない場合、それらの全部を使用する必要はない。   Further, it is not necessary to use all image data for a given view when constructing a padded reference image. Instead, it is sufficient to provide enough padded image data to expand the image data into an area corresponding to the search window of the motion prediction search being performed. For example, FIG. 8A shows an exemplary search window SW provided around the pixel block PB1 in the top view 850 of the image 800 being encoded. It is sufficient to develop a padded reference image with enough data to cover the area corresponding to the union of the search windows for all pixel blocks in a given view (eg, view 850). . Thus, the padded reference image can be obtained from image data from the reference image corresponding to the view at the same position as the pixel block being coded and the portion of the image adjacent to the view at the same position. . In FIG. 8B, the top view 872 of the reference image is at the same position as the view 850 with PB1, and the front, left, back, and right views from the reference image are for all the pixel blocks of the view 850. Can be used to construct a padded reference image 870 coextensive with the combination of the search windows. If the search window around the pixel block in the top view 850 (FIG. 8 (a)) cannot reach the front, left, back and right views from the reference image, it is not necessary to use all of them.

図7の方法700は、代替のフォーマットの立方体マップ画像データでの用途があり得る。例えば、図9(a)は、ヌル領域の使用を回避するレイアウトを有する立方体マップ画像900を示す。この例では、立方体マップ画像900は、図9(b)に示される視野から展開された正面ビュー910、左側ビュー920、背面ビュー930、右側ビュー940、上面ビュー950及び底面ビュー960をそれぞれ含む。ビュー910〜960は、図9(a)に示す3x2配列などの規則的な配列で画像内にレイアウトすることができる。しかしながら、そうすることで、立方体マップ画像900は、異なるレイアウト(例えば図3及び図6に図示されるレイアウト)であれば回避されたかもしれない、ビューのエッジに沿った追加の不連続性をもたらす。   The method 700 of FIG. 7 may have application with alternative formats of cubic map image data. For example, FIG. 9A shows a cube map image 900 having a layout that avoids the use of null regions. In this example, the cubic map image 900 includes a front view 910, a left view 920, a rear view 930, a right view 940, a top view 950, and a bottom view 960 developed from the field of view shown in FIG. 9B, respectively. The views 910 to 960 can be laid out in an image in a regular array such as the 3 × 2 array shown in FIG. However, in doing so, the cubic map image 900 has additional discontinuities along the edges of the view that might have been avoided with different layouts (eg, the layouts illustrated in FIGS. 3 and 6). Bring.

図9の例において、正面、左側及び背面ビュー910、920、930は、エッジ912|928及び922|936にわたる画像連続性を維持するように配置される。同様に、右側、上面及び底面ビューは、エッジ946|954及び942|962にわたる画像連続性を維持するように配置される。   In the example of FIG. 9, the front, left and rear views 910, 920, 930 are arranged to maintain image continuity across edges 912 | 928 and 922 | 936. Similarly, the right, top, and bottom views are positioned to maintain image continuity across edges 946 | 954 and 942 | 962.

不連続性は、正面と底面ビュー910、960の間、左側と右側ビュー920、940の間、そして、上面と背面ビュー930、950の間の継ぎ目で出現する。例えば、正面及び底面ビュー910、960が立方体マップ画像900において接触する場合、エッジ916及び968は、それらが(図9(b)によって表される)自由空間において隣接していない場合であっても、互いに隣接して配置される。同様に、左側及び右側ビュー920、940が立方体マップ画像において接触する場合、エッジ924及び944は、それらが自由空間において互いに隣接していない場合であっても、互いに隣接して配置される。また、更に、背面及び上面ビュー930、950が立方体マップ画像900において接触する場合、エッジ938及び952は互いに隣接して配置されるが、自由空間でのそれらの向きとは異なった向きに置かれる(上面ビューは反転される)。これらの不連続性は、連続的である画像ビュー間の継ぎ目が実線で表される図9(a)において破線で示される。   Discontinuities appear at seams between the front and bottom views 910, 960, between the left and right views 920, 940, and between the top and back views 930, 950. For example, if the front and bottom views 910, 960 touch in the cube map image 900, the edges 916 and 968 will be even if they are not adjacent in free space (represented by FIG. 9 (b)). , Are arranged adjacent to each other. Similarly, when the left and right views 920, 940 touch in the cubic map image, the edges 924 and 944 are positioned adjacent to each other, even if they are not adjacent to each other in free space. Still further, if the back and top views 930, 950 touch in the cube map image 900, the edges 938 and 952 are positioned adjacent to each other, but in a different orientation than their orientation in free space. (Top view flipped). These discontinuities are indicated by dashed lines in FIG. 9 (a) where the seams between continuous image views are represented by solid lines.

図7の技術を用いて、パディングされた基準画像は、図9において示すような立方体マップ画像のビューのために展開することができる。立方体マップ画像900の上面ビュー950からの画素ブロックデータを符号化するとき、パディングされた基準画像は、図8(b)に示すように、基準ピクチャの上面ビューから、そして、正面、左側、背面及び右側画像から導出されるパディングされた画像から導出されてもよい。同様に、立方体マップ画像900の背面ビュー930からの画素ブロックデータを符号化するとき、パディングされた基準画像は、図8(c)に示すように、基準ピクチャの背面ビューから、そして、基準ピクチャの底面、右側、上面及び左側画像から導出されるパディングされた画像から導出されてもよい。   Using the technique of FIG. 7, a padded reference image can be expanded for a view of a cubic map image as shown in FIG. When encoding the pixel block data from the top view 950 of the cubic map image 900, the padded reference image is moved from the top view of the reference picture, as shown in FIG. And a padded image derived from the right image. Similarly, when encoding the pixel block data from the back view 930 of the cubic map image 900, the padded reference image is, as shown in FIG. 8 (c), from the back view of the reference picture and from the reference picture May be derived from padded images derived from the bottom, right, top, and left images.

一実施形態では、画像変換は、運動予測検索の前に、パディングされた画像データに実行することができる。このような変換は、パディングされた画像からの画像データを、パディングされた画像データが追加されるビューのドメインに投影するために実行することができる。   In one embodiment, the image transformation may be performed on the padded image data prior to the motion prediction search. Such a transformation can be performed to project image data from the padded image into the domain of the view to which the padded image data is added.

図10は、本開示の一実施形態に係るそのような投影を示す。図10(a)に示すように、オブジェクトの画像データが立方体マップ画像1000の複数のビューに現れることが可能である。例えば、オブジェクトObj(図10(b))の画像データが、立方体マップ画像1000の右側ビュー1010及び上面ビュー1020に現れるもととして例示する。これらのビュー1010、1020の画像データをキャプチャする画像センサの異なる視点のために、右側及び上面ビュー1010、1020が単一の、「平面」画像として処理された場合には、オブジェクトは歪みを伴って現れ得る。一実施形態では、パディングされた画像データは、視野の間の差のため起こる歪みに反対に作用するように変換してもよい。   FIG. 10 illustrates such a projection according to one embodiment of the present disclosure. As shown in FIG. 10A, image data of an object can appear in a plurality of views of the cubic map image 1000. For example, the image data of the object Obj (FIG. 10B) is illustrated as a source that appears in the right view 1010 and the top view 1020 of the cubic map image 1000. Due to the different viewpoints of the image sensor capturing the image data of these views 1010, 1020, the object will be distorted if the right and top views 1010, 1020 are treated as a single, "planar" image. Can appear. In one embodiment, the padded image data may be transformed to counteract distortion that occurs due to differences between the fields of view.

図10(c)は、本開示の一実施形態に係る変換の動作を概略的に示す。この実施形態では、上面ビュー1020からのパディングされた画像データが右側ビュー1010からの画像データに隣接した配置のために生成されると仮定することができる。この実施形態では、上面ビュー1020からの画像データの投影は、それが右側ビュー1030の平面に現れるものとして推定される。例えば、オブジェクトObj(図10(a))は、上面ビューにおいて長さl1を有すると推定することができる。この長さは、立方体マップ画像のビューの仮定的中心から測定される角度αを占める。角度αから、それが右側ビュー1010の平面に現れる際のオブジェクトの長さl2を導出することができる。したがって、視野の異なる視点から生じる画像歪みに反対に作用して、予測目的のために画像データに改良された連続性を提供する、パディングされた画像データ1030を展開することができる(図10(d))。   FIG. 10C schematically illustrates a conversion operation according to an embodiment of the present disclosure. In this embodiment, it can be assumed that padded image data from top view 1020 is generated for placement adjacent to image data from right view 1010. In this embodiment, the projection of the image data from top view 1020 is estimated as it appears in the plane of right view 1030. For example, the object Obj (FIG. 10A) can be estimated to have a length 11 in the top view. This length occupies the angle α measured from the hypothetical center of the view of the cube map image. From the angle α, the length l2 of the object as it appears in the plane of the right view 1010 can be derived. Thus, padded image data 1030 can be developed that counteracts image distortion arising from different viewpoints of the field of view and provides improved continuity to the image data for prediction purposes (FIG. 10 ( d)).

本発明の原理はまた、球面投影フォーマットの正距円筒画像での用途がある。図11は、球面投影画像データと共に使用されるパディングデータの適用を示す。図11(a)は平面投影の第1のビュー1110の画像データを示し、図11(b)は球面投影に従って変換された図11(a)のビューの画像データ1120を示す。このような変換は、例えば、全方向カメラの上面ビューから正距円筒画像データをマッピングするときに、一般的なものである。基本的に、ビュー1110は、画像空間の「北極」のデータを表すことができる。   The principles of the present invention also find use with equirectangular images in spherical projection format. FIG. 11 illustrates the application of padding data used with spherical projection image data. FIG. 11A shows image data of the first view 1110 in planar projection, and FIG. 11B shows image data 1120 of the view in FIG. 11A converted according to spherical projection. Such a conversion is common, for example, when mapping equirectangular image data from a top view of an omnidirectional camera. Basically, the view 1110 can represent data for the "North Pole" in image space.

図11(c)及び図11(d)は、平面画像フォーマット(参照番号1130)及び球面投影(参照番号1140)による例示的な基準画像を表す。ビデオ符号化中に、球面投影基準画像1140の画像データは、新たな画像のための予測基準としての役割を果たすことができ、球面投影画像1120によって表される。画像データの球面投影のため、平面ドメインのデータの運動のかなり控え目の変更(例えば、画素ブロック1150と1152の間)が正距円筒画像における大幅な移動を引き起こし得るということが発生する場合があり、図11(d)の運動ベクトルmvによって例示する。   FIGS. 11 (c) and 11 (d) represent exemplary reference images in planar image format (reference 1130) and spherical projection (reference 1140). During video encoding, the image data of the spherical projection reference image 1140 can serve as a prediction criterion for a new image and is represented by the spherical projection image 1120. Due to the spherical projection of the image data, it may occur that rather conservative changes in the motion of the data in the planar domain (eg, between pixel blocks 1150 and 1152) can cause significant movement in the equirectangular image. , The motion vector mv in FIG.

図11(e)に示される画像パディングは、正距円筒画像の周辺に沿って予測データを複製することができる。図11(e)の例において、パディングされた基準画像は、そのエッジ1142(図11(d))に沿って基準画像1140のコンテンツを複製して、複製された画像を反転させて、それをエッジ1142に隣接して配置することによって作成される。このように、パディングされた基準画像はエッジ1142に沿って画像コンテンツの連続性を作り出し、それは予測検索の間に、より短い運動ベクトルを作り出すことができて、このことにより符号化の効率の改善に結び付けることができる。   The image padding shown in FIG. 11E can duplicate the prediction data along the periphery of the equirectangular image. In the example of FIG. 11E, the padded reference image is obtained by copying the content of the reference image 1140 along its edge 1142 (FIG. 11D), inverting the copied image, Created by placing adjacent edge 1142. In this way, the padded reference image creates a continuity of image content along the edge 1142, which can create shorter motion vectors during predictive search, thereby improving coding efficiency. Can be tied to

図12は、本開示の一実施形態に係る方法1200を示す。方法1200は、同じ画像から以前符号化された画素ブロックの運動ベクトルに従って、正距円筒画像の画素ブロックのための検索ウィンドウを予測する。方法1200は、正距円筒画像のドメインから以前符号化された画素ブロックの運動ベクトルを球面ドメインに投影することができる(ボックス1210)。方法1200は、以前符号化された画素ブロックの球面投影された運動ベクトルから符号化される新規な画素ブロックの検索ウィンドウを推定することができる(ボックス1220)。方法1200は、検索ウィンドウを球面投影から入力画像の正距円筒投影に戻して変換することができる(ボックス1230)。その後、方法1200は、変換された検索ウィンドウの中で、基準の予測検索を実行する(ボックス1240)。   FIG. 12 illustrates a method 1200 according to one embodiment of the present disclosure. The method 1200 predicts a search window for a pixel block of an equirectangular image according to a motion vector of a previously encoded pixel block from the same image. The method 1200 may project motion vectors of previously encoded pixel blocks from the domain of the equirectangular image to the spherical domain (box 1210). The method 1200 may estimate a search window for a new pixel block to be encoded from the spherically projected motion vector of the previously encoded pixel block (box 1220). The method 1200 can convert the search window from a spherical projection back to an equirectangular projection of the input image (box 1230). Thereafter, the method 1200 performs a predictive search of the criteria within the transformed search window (box 1240).

図13は、図12の方法1200によって処理される可能性がある例示的な正距円筒画像1300を示す。画素ブロック1310が符号化される時点で、画像1300からの他の画素ブロック1320、1330はすでに符号化された状態であり得て、したがって、運動ベクトルmv1、mv2は、符号化された画素ブロック1320、1330のために定めることができる(図13(a))。これらの運動ベクトルmv1、mv2は、球面ドメイン1350に投影することができる(図13(b))。多くの例において、運動ベクトルmv1、mv2が正距円筒フォーマットの同じ位置にある領域を指さない場合であっても、運動ベクトルmv1、mv2は、球面投影(図13(b))の画像コンテンツの同じ位置にある領域を指すことができる。検索ウィンドウは、例えば、運動ベクトルを平均して、そこから取得される結果としてのベクトルについて所定サイズの検索領域を定めることによって、球面投影の運動ベクトルから導出することができる。その後、検索ウィンドウは、正距円筒画像1300のドメインへ戻して変換することができる。   FIG. 13 illustrates an exemplary equirectangular image 1300 that may be processed by the method 1200 of FIG. At the time the pixel block 1310 is encoded, the other pixel blocks 1320, 1330 from the image 1300 may already be in the encoded state, so the motion vectors mv1, mv2 are , 1330 (FIG. 13A). These motion vectors mv1 and mv2 can be projected onto the spherical domain 1350 (FIG. 13B). In many instances, the motion vectors mv1, mv2 will be the image content of the spherical projection (FIG. 13 (b)), even if the motion vectors mv1, mv2 do not point to co-located regions in equirectangular format. In the same location. The search window can be derived from the spherical projection motion vectors, for example, by averaging the motion vectors and defining a search area of predetermined size for the resulting vectors obtained therefrom. Thereafter, the search window can be converted back to the domain of the equirectangular image 1300.

球面投影に対する正距円筒フォーマット間の変換は、2016年12月23日に出願された同時係属出願第15/390,202号に記載されている技術に従って実行することができ、その開示内容は本明細書に組み込まれる。   Conversion between equirectangular formats for spherical projections can be performed in accordance with the techniques described in co-pending application Ser. No. 15 / 390,202, filed Dec. 23, 2016, the disclosure of which is hereby incorporated by reference. Incorporated in the specification.

図14は、本開示の一実施形態に係る符号化システム1400の機能ブロック図である。システム1400は、画素ブロック符号器1410と、画素ブロック復号器1420と、インループフィルタシステム1430と、基準ピクチャ記憶1440と、パディングユニット1450と、予測器1460と、コントローラ1470と、シンタックスユニット1480とを含むことができる。パディングユニット1450は、前述の考察の実施形態の1つ以上に従って、パディングされた画像データを生成することができる。画素ブロック符号器及び復号器1410、1420並びに予測器1460は、ピクチャの個々の画素ブロックに対して繰り返し動作することができる。予測器1460は、新たに提示された入力画素ブロックの符号化中に使用するためのデータを予測することができる。画素ブロック符号器1410は、予測符号化技術によって新規な画素ブロックを符号化し、符号化された画素ブロックデータをシンタックスユニット1480に提示することができる。画素ブロック復号器1420は、符号化された画素ブロックデータを復号し、そこから復号された画素ブロックデータを生成することができる。インループフィルタ1430は、画素ブロック復号器1420によって取得される復号された画素ブロックから組み立てられる復号されたピクチャに対して様々なフィルタリング動作を実行することができる。フィルタリングされたピクチャは、基準ピクチャ記憶1440に格納することができ、それを後で受信した画素ブロックの予測のソースとして使用することができる。シンタックスユニット1480は、統制する符号化プロトコルに適合する符号化された画素ブロックデータからデータストリームを組み立てることができる。   FIG. 14 is a functional block diagram of an encoding system 1400 according to an embodiment of the present disclosure. The system 1400 includes a pixel block encoder 1410, a pixel block decoder 1420, an in-loop filter system 1430, a reference picture store 1440, a padding unit 1450, a predictor 1460, a controller 1470, a syntax unit 1480, Can be included. Padding unit 1450 may generate padded image data according to one or more of the embodiments discussed above. Pixel block encoders and decoders 1410, 1420 and predictor 1460 can operate repeatedly on individual pixel blocks of a picture. Predictor 1460 can predict data for use during encoding of the newly presented input pixel block. The pixel block encoder 1410 may encode a new pixel block using a predictive encoding technique, and may present the encoded pixel block data to the syntax unit 1480. Pixel block decoder 1420 may decode the encoded pixel block data and generate decoded pixel block data therefrom. In-loop filter 1430 may perform various filtering operations on the decoded pictures assembled from the decoded pixel blocks obtained by pixel block decoder 1420. The filtered picture can be stored in reference picture store 1440, which can be used as a source of prediction for a later received pixel block. Syntax unit 1480 may assemble a data stream from encoded pixel block data that conforms to the governing encoding protocol.

画素ブロック符号器1410は、減算器1412と、変換ユニット1414と、量子化器1416と、エントロピ符号器1418とを含むことができる。画素ブロック符号器1410は、減算器1412で入力データの画素ブロックを受け入れることができる。減算器1412は、予測器1460から予測された画素ブロックを受信し、そこから入力画素ブロックと予測された画素ブロックの差を表す画素残差のアレイを生成することができる。変換ユニット1414は減算器1412からサンプルデータ出力に変換を適用し、画素ドメインから変換係数のドメインにデータを変換することができる。量子化器1416は、変換ユニット1414によって出力された変換係数の量子化を実行することができる。量子化器1416は、一様又は非一様量子化器とすることができる。エントロピ符号器1418は、例えば、可変長符号語により出力を符号化することにより、係数量子化器の出力の帯域幅を低減することができる。   The pixel block encoder 1410 can include a subtractor 1412, a transform unit 1414, a quantizer 1416, and an entropy encoder 1418. Pixel block encoder 1410 can accept a pixel block of input data at subtractor 1412. Subtractor 1412 may receive the predicted pixel block from predictor 1460 and generate therefrom an array of pixel residuals representing the difference between the input pixel block and the predicted pixel block. Transform unit 1414 can apply a transform to the sample data output from subtractor 1412 to transform the data from the pixel domain to the domain of the transform coefficients. Quantizer 1416 may perform quantization of the transform coefficients output by transform unit 1414. Quantizer 1416 may be a uniform or non-uniform quantizer. The entropy encoder 1418 can reduce the bandwidth of the output of the coefficient quantizer, for example, by encoding the output with a variable length codeword.

変換ユニット1414は、コントローラ1470によって判定される様々な変換モードで動作することができる。例えば、変換ユニット1414は、離散型コサイン変換(discrete cosine transform、DCT)、離散サイン変換(discrete sine transform、DST)、Walsh−Hadamard変換、Haar変換、Daubechiesウェーブレット変換などを適用することができる。一実施形態では、コントローラ1470は、変換ユニット1415によって適用される符号化モードMを選択してもよく、それに応じて変換ユニット1415を構成してもよく、符号化されたビデオデータ中の符号化モードMを明示的に又は暗示的にシグナリングしてもよい。   The conversion unit 1414 can operate in various conversion modes determined by the controller 1470. For example, the transform unit 1414 may apply a discrete cosine transform (DCT), a discrete sine transform (discrete sine transform, DST), a Walsh-Hadamard transform, a Haar transform, a Daubechies wavelet transform, or the like. In one embodiment, the controller 1470 may select the encoding mode M applied by the transform unit 1415, and may configure the transform unit 1415 accordingly, and encode the encoding mode in the encoded video data. Mode M may be signaled explicitly or implicitly.

量子化器1416は、コントローラ1470によって供給される量子化パラメータQPに従って作動することができる。一実施形態では、量子化パラメータQPは、変換係数にマルチ値量子化パラメータとして適用されてもよく、このパラメータは、例えば、変換ドメイン画素ブロック内の異なる係数位置にわたって変動し得る。したがって、量子化パラメータQPは、量子化パラメータアレイとして提供することができる。 Quantizer 1416 may operate according to a quantization parameter Q P provided by controller 1470. In one embodiment, the quantization parameter Q P may be applied to the transform coefficients as a multi-valued quantization parameter, which may vary, for example, over different coefficient positions within the transform domain pixel block. Therefore, the quantization parameter Q P can be provided as a quantization parameter array.

画素ブロック復号器1420は、画素ブロック符号器1410の符号化動作を反転することができる。例えば、画素ブロック復号器1420は、逆量子化器1422と、逆変換ユニット1424と、加算器1426とを含むことができる。画素ブロック復号器1420は、量子化器1416の出力からその入力データを取ることができる。許容されてはいるが、画素ブロック復号器1420は、エントロピ符号化が無損失のイベントであるため、エントロピ符号化されたデータのエントロピ復号を実行する必要はない。逆量子化器1422は、画素ブロック符号器1410の量子化器1416の動作を反転することができる。逆量子化器1422は、復号された信号QPによって指定される一様又は非一様逆量子化を実行することができる。同様に、逆変換ユニット1424は、変換ユニット1414の動作を反転することができる。逆量子化器1422及び逆変換ユニット1424は、画素ブロック符号器1410のそれらの対応物として、同じ量子化パラメータQP及び変換モードMを使用することができる。量子化動作は、様々な点でデータを切り捨てることになる可能性があり、したがって逆量子化器1422によって回復されたデータは、画素ブロック符号器1410内の量子化器1416に提示されたデータと比較したとき、符号化誤差を有することになる可能性がある。 The pixel block decoder 1420 can invert the encoding operation of the pixel block encoder 1410. For example, the pixel block decoder 1420 can include an inverse quantizer 1422, an inverse transform unit 1424, and an adder 1426. Pixel block decoder 1420 can take its input data from the output of quantizer 1416. Although allowed, the pixel block decoder 1420 does not need to perform entropy decoding of entropy coded data because entropy coding is a lossless event. The inverse quantizer 1422 can invert the operation of the quantizer 1416 of the pixel block encoder 1410. Inverse quantizer 1422 may perform uniform or non-uniform inverse quantization specified by decoded signal Q P. Similarly, the inverse transform unit 1424 can reverse the operation of the transform unit 1414. The inverse quantizer 1422 and the inverse transform unit 1424 may use the same quantization parameter Q P and transform mode M as their counterparts of the pixel block encoder 1410. The quantization operation may result in truncation of the data at various points, so that the data recovered by the inverse quantizer 1422 is different from the data presented to the quantizer 1416 in the pixel block encoder 1410. When compared, they can have coding errors.

加算器1426は、減算器1412によって実行される動作を反転することができる。それは、残差信号を生成するのに減算器1412が使用したのと同じ予測画素ブロックを予測器1460から受信することができる。加算器1426は、予測画素ブロックを逆変換ユニット1424によって出力された再構成された残差値に加えることができ、再構成された画素ブロックデータを出力することができる。   Adder 1426 may invert the operation performed by subtractor 1412. It can receive from predictor 1460 the same predicted pixel block used by subtractor 1412 to generate the residual signal. An adder 1426 can add the predicted pixel block to the reconstructed residual value output by the inverse transform unit 1424 and can output reconstructed pixel block data.

インループフィルタ1430は、回復した画素ブロックデータに対して様々なフィルタリング動作を実行することができる。例えば、インループフィルタ1430は、デブロッキングフィルタ1432及びサンプル適応オフセット(sample adaptive offset、SAO)フィルタ1433を含むことができる。デブロッキングフィルタ1432は、再構成された画素ブロック間の継ぎ目でデータをフィルタリングし、符号化に起因して発生する画素ブロック間の不連続性を低減することができる。SAOフィルタは、SAOの「タイプ」に従って、例えば、エッジ方向/形状及び/又は画素/色成分レベルに基づいて、オフセットを画素値に加えることができる。インループフィルタ1430は、コントローラ1470によって選択されたパラメータに従って動作することができる。   The in-loop filter 1430 may perform various filtering operations on the recovered pixel block data. For example, the in-loop filter 1430 can include a deblocking filter 1432 and a sample adaptive offset (SAO) filter 1433. The deblocking filter 1432 can filter data at seams between reconstructed pixel blocks, and reduce discontinuities between pixel blocks that occur due to encoding. The SAO filter can add an offset to pixel values according to the SAO "type", for example, based on edge direction / shape and / or pixel / color component level. In-loop filter 1430 may operate according to the parameters selected by controller 1470.

基準ピクチャ記憶1440は、後の他の画素ブロックの予測で使用するフィルタリングされた画素データを記憶することができる。異なる予測モードに対して異なる種類の予測データが、予測器1460にて利用可能になる。例えば、入力画素ブロックに対して、イントラ予測は、入力画素ブロックが位置する同じピクチャの復号されたデータから予測基準を取る。したがって、基準ピクチャ記憶1440は、それぞれのピクチャの復号された画素ブロックデータをそれが符号化されるにつれて記憶することができる。同じ入力画素ブロックに対して、インター予測は、基準ピクチャとして指定された予め符号化され復号されたピクチャ(単数又は複数)から予測基準を取ることができる。したがって、基準ピクチャ記憶1440は、これらの復号された基準ピクチャを記憶することができる。   Reference picture store 1440 may store filtered pixel data for use in subsequent predictions of other pixel blocks. Different types of prediction data for different prediction modes are made available to the predictor 1460. For example, for an input pixel block, intra prediction takes prediction criteria from decoded data of the same picture in which the input pixel block is located. Thus, reference picture store 1440 can store the decoded pixel block data for each picture as it is encoded. For the same input pixel block, inter prediction can take a prediction criterion from the pre-encoded and decoded picture (s) designated as reference pictures. Thus, reference picture store 1440 can store these decoded reference pictures.

パディングユニット1450は、前述の実施形態で論じたように、パディングされた画像データを生成することができる。したがって、パディングユニットは、図4〜図12に図示される動作を実行して、予測器1460が予測基準を選択することができるパディングされた画像データを生成することができる。   The padding unit 1450 can generate padded image data as discussed in the previous embodiment. Accordingly, the padding unit may perform the operations illustrated in FIGS. 4 to 12 to generate padded image data from which the predictor 1460 may select a prediction criterion.

説明したように、予測器1460は、残差を生成するのに使用する予測データを画素ブロック符号器1410に供給することができる。予測器1460は、インター予測器1462と、イントラ予測器1463と、モード決定ユニット1464とを含むことができる。インター予測器1462は、符号化されることになる新しい画素ブロックを表す球面投影された画素ブロックデータを受信することができ、入力画素ブロックを符号化するのに使用する基準ピクチャ(単数又は複数)からの画素ブロックデータに対して記憶1440からの基準ピクチャデータの球面投影を検索することができる。インター予測器1462は、Pモード符号化及びBモード符号化などの複数の予測モードをサポートすることができる。インター予測器1462は、インター予測モード及び、符号化される入力画素ブロックに対する最も近い一致を提供する候補予測基準データの識別を選択することができる。インター予測器1462は、運動ベクトルなどの予測基準メタデータを生成し、どの基準ピクチャのどの部分(単数又は複数)が入力画素ブロックに対する予測のソース(単数又は複数)として選択されたかを識別することができる。   As described, the predictor 1460 can provide prediction data to the pixel block encoder 1410 for use in generating the residual. The predictor 1460 may include an inter predictor 1462, an intra predictor 1463, and a mode determination unit 1464. Inter predictor 1462 may receive spherically projected pixel block data representing a new pixel block to be encoded, and reference picture (s) used to encode the input pixel block. The spherical projection of reference picture data from storage 1440 can be searched for pixel block data from. The inter predictor 1462 can support multiple prediction modes, such as P-mode coding and B-mode coding. The inter predictor 1462 may select the inter prediction mode and the identification of candidate prediction reference data that provides the closest match to the input pixel block to be encoded. Inter predictor 1462 generates prediction reference metadata, such as a motion vector, to identify which portion (s) of which reference picture was selected as source (s) of prediction for the input pixel block. Can be.

イントラ予測器1463は、イントラ(I)モード符号化をサポートすることができる。イントラ予測器1463は、球面投影された入力画素ブロックに対する最も近い一致を提供する符号化される画素ブロックと同じピクチャからの球面投影された画素ブロックデータの中から検索することができる。イントラ予測器1463はまた、予測基準インジケータを生成し、ピクチャのどの部分が入力画素ブロックに対する予測のソースとして選択されたかを識別することができる。   Intra predictor 1463 can support intra (I) mode encoding. The intra predictor 1463 can search among spherical projected pixel block data from the same picture as the encoded pixel block that provides the closest match to the spherical projected input pixel block. Intra predictor 1463 may also generate a prediction criterion indicator to identify which portion of the picture was selected as the source of prediction for the input pixel block.

モード決定ユニット1464は、入力画素ブロックに適用されることになる最終の符号化モードを選択することができる。通常は、上述のように、モード決定ユニット1464は、与えられた目標ビットレートでビデオが復号されたときに最も小さい歪みを実現することになる予測モードを選択する。特定のチャネル挙動を満たすこと、又はランダムアクセス若しくはデータリフレッシュポリシーをサポートするといった、符号化システム1400が準拠する他のポリシーを満たすように符号化モードが選択される場合に、例外が発生することがある。モード決定が最終的な符号化モードを選択すると、モード決定ユニット1464は、非球面投影基準ブロックをストア1440から画素ブロック符号器及び復号器1410、1420に出力することができ、選択されたモードに対応する予測基準インジケータとともに選択された予測モードの識別をコントローラ1470に供給することができる。   The mode determination unit 1464 can select the final encoding mode to be applied to the input pixel block. Typically, as described above, mode determination unit 1464 selects a prediction mode that will achieve the least distortion when video is decoded at a given target bit rate. An exception may occur if the encoding mode is selected to meet certain channel behaviors or to meet other policies with which the encoding system 1400 complies, such as supporting a random access or data refresh policy. is there. When the mode decision selects the final encoding mode, the mode decision unit 1464 can output the aspheric projection reference block from the store 1440 to the pixel block encoder and decoder 1410, 1420, where the selected mode is selected. An identification of the selected prediction mode along with a corresponding prediction criterion indicator may be provided to the controller 1470.

コントローラ1470は、符号化システム1400の動作全体を制御することができる。コントローラ1470は、入力画素ブロック、並びにまた符号化ビットレート目標及び他の動作パラメータなどの外部制約条件の分析に基づいて、画素ブロック符号器1410及び予測器1460に対する動作パラメータを選択することができる。本説明に関連するように、それが量子化パラメータQP、一様又は非一様量子化器の使用及び/又は変換モードMを選択するとき、それらのパラメータをシンタックスユニット1480に提供することができ、これは、それらのパラメータを表すデータをシステム1400によって出力される符号化されたビデオデータのデータストリームに含めることができる。コントローラ1470はまた、システムがパディングされた基準画像を生成することができて、符号化データの各部分について選択されたモードを識別するメタデータを含むことができる、異なる動作モードの間で選択することができる。 Controller 1470 can control the overall operation of encoding system 1400. Controller 1470 may select operating parameters for pixel block encoder 1410 and predictor 1460 based on an analysis of the input pixel block and also external constraints such as coding bit rate targets and other operating parameters. As relevant to this description, providing those parameters to the syntax unit 1480 when it selects the quantization parameter Q P , the use of a uniform or non-uniform quantizer, and / or the transformation mode M Which can include data representing those parameters in a data stream of encoded video data output by system 1400. Controller 1470 may also select between different modes of operation, where the system may generate a padded reference image and may include metadata identifying a selected mode for each portion of the encoded data. be able to.

動作中、コントローラ1470は、量子化器1416及び変換ユニット1415の動作パラメータを画像データの異なる粒度で、画素ブロックごと又はより大きな粒度(例えば、ピクチャごと、スライスごと、最大符号化ユニット(largest coding unit、LCU)ごと、又は別の領域)のいずれかで修正することができる。一実施形態では、量子化パラメータは、符号化されたピクチャ内の画素ごとに修正することができる。   In operation, the controller 1470 may control the operating parameters of the quantizer 1416 and the transform unit 1415 at different granularities of the image data, per pixel block or larger granularities (eg, per picture, per slice, largest coding unit). , LCU), or in another region). In one embodiment, the quantization parameters can be modified for each pixel in the encoded picture.

加えて、説明したように、コントローラ1470は、インループフィルタ1430及び予測ユニット1460の動作を制御することができる。そのような制御としては、予測ユニット1460に対してはモード選択(ラムダ、テストされることになるモード、検索ウィンドウ、歪み戦略など)、及びインループフィルタ1430に対しては、フィルタパラメータの選択、パラメータの並べ替え、加重予測などを挙げることができる。   In addition, as described, the controller 1470 can control the operation of the in-loop filter 1430 and the prediction unit 1460. Such controls include mode selection (lambda, mode to be tested, search window, distortion strategy, etc.) for prediction unit 1460, and selection of filter parameters for in-loop filter 1430, Reordering of parameters, weighted prediction, etc. can be mentioned.

一実施形態では、予測器1460は、球面投影で入力画素ブロックデータ及び基準画素ブロックデータを使用して予測検索を実行することができる。このような予測技術の動作は、2016年12月23日に出願され、本出願の譲受人に譲渡された米国特許出願第15/390,202号に記載されている。そのような実施形態では、符号器1400は、予測器1460に入力される前に入力画素ブロックデータを球面ドメインに変換する球面変換ユニット1490を含むことができる。パディングユニット1450は、予測器1460に入力される前に、(上述の変換を実行することに加えて)球面ドメインに基準ピクチャデータを変換することができる。   In one embodiment, the predictor 1460 may perform a prediction search using the input pixel block data and the reference pixel block data in a spherical projection. The operation of such a prediction technique is described in US patent application Ser. No. 15 / 390,202, filed Dec. 23, 2016, and assigned to the assignee of the present application. In such an embodiment, encoder 1400 can include a spherical transform unit 1490 that transforms the input pixel block data into a spherical domain before being input to predictor 1460. Padding unit 1450 may transform the reference picture data into the spherical domain (in addition to performing the transform described above) before being input to predictor 1460.

説明したように、ビデオ符号化システム1400は、符号化システム1400によって選択されるパディング技術のパラメータを識別する符号化ビデオデータにメタデータを提供することができる。H.265(「HEVC」)符号化プロトコルに関連して使用され得る例示的なシンタックスが以下に記載される。   As described, the video encoding system 1400 can provide metadata to the encoded video data identifying parameters of the padding technique selected by the encoding system 1400. H. Exemplary syntax that may be used in connection with the H.265 ("HEVC") encoding protocol is described below.

ビデオパラメータセットシンタックスは、「vps_projection_format_id」として以下に示す新しいフィールドを、以下のようにvideo_parameter_set_rbspに追加することによって変更することができる。
The video parameter set syntax can be modified by adding a new field shown below as "vps_projection_format_id" to video_parameter_set_rbsp as follows.

この例では、vps_projection_format_idは、エンコーダによって適用される投影フォーマットを識別する2ビットのフィールドであってもよい。   In this example, vps_projection_format_id may be a 2-bit field that identifies the projection format applied by the encoder.

投影フォーマットは、以下のようにシーケンスパラメータセット(seq_paramter_set_rbsp())でシグナリングされてもよい。
The projection format may be signaled in the sequence parameter set (seq_parameter_set_rbsp ()) as follows.

例として、projection_format_idは、以下の値をとることができる。
By way of example, projection_format_id can take the following values:

加えて、cube_map_packing_idは、以下のようにシグナリングされてもよい。
In addition, the cube_map_packing_id may be signaled as follows.

当然のことながら、符号の数は、他の立方体マップフォーマットに適応するために、必要に応じて拡張されてもよい。   Of course, the number of codes may be extended as needed to accommodate other cubic map formats.

更に、reference_padding_modeは符号化されて、エンコーダによって適用される異なる変換を識別することができる。例えば、reference_padding_modeが「0」にセットされた場合、それは変換が使用されなかったことを示すことができる。reference_padding_modeが「1」にセットされた場合、それは変換が図14に従って実行されたことを示すことができる。ここでも、符号の数は、他の変換に適応するために、必要に応じて拡張されてもよい。   Further, the reference_padding_mode can be encoded to identify different transforms applied by the encoder. For example, if reference_padding_mode is set to “0”, it may indicate that no transform was used. If reference_padding_mode is set to “1”, it can indicate that the conversion was performed according to FIG. Again, the number of codes may be extended as needed to accommodate other transforms.

図15は、本開示の一実施形態に係る復号システム1500の機能ブロック図である。復号システム1500は、シンタックスユニット1510と、画素ブロック復号器1520と、インループフィルタ1530と、基準ピクチャ記憶1140と、パディングユニット1550と、予測器1560と、コントローラ1570とを含むことができる。シンタックスユニット1510は、符号化されたビデオデータストリームを受信することができ、符号化されたデータをその成分部分に解析することができる。符号化パラメータを表すデータは、コントローラ1570に供給することができ、符号化された残差を表すデータ(図11の画素ブロック符号器1110によって出力されたデータ)は、画素ブロック復号器1520に供給することができる。画素ブロック復号器1520は、(図11の)画素ブロック符号器1110によって提供される符号化動作を反転することができる。インループフィルタ1530は、再構成された画素ブロックデータをフィルタリングすることができる。再構成された画素ブロックデータは、表示のためにピクチャに組み立てて、復号システム1500から出力ビデオとして出力することができる。ピクチャはまた、予測動作に使用する予測バッファ1540に記憶することができる。パディングユニット1550は、前述の考察において説明したように、符号化されたデータに含まれるメタデータに基づいて、パディングされた基準画像を生成することができる。予測器1560は、符号化されたビデオデータストリーム内で受信した符号化データによって判定されたように、予測データを画素ブロック復号器1520に供給することができる。   FIG. 15 is a functional block diagram of a decoding system 1500 according to an embodiment of the present disclosure. The decoding system 1500 may include a syntax unit 1510, a pixel block decoder 1520, an in-loop filter 1530, a reference picture store 1140, a padding unit 1550, a predictor 1560, and a controller 1570. Syntax unit 1510 can receive the encoded video data stream and can parse the encoded data into its component parts. Data representing encoding parameters can be provided to a controller 1570, and data representing encoded residuals (data output by the pixel block encoder 1110 of FIG. 11) is provided to a pixel block decoder 1520. can do. Pixel block decoder 1520 may invert the encoding operation provided by pixel block encoder 1110 (of FIG. 11). The in-loop filter 1530 may filter the reconstructed pixel block data. The reconstructed pixel block data can be assembled into pictures for display and output from decoding system 1500 as output video. Pictures can also be stored in a prediction buffer 1540 used for prediction operations. Padding unit 1550 may generate a padded reference image based on the metadata included in the encoded data, as described in the discussion above. Predictor 1560 can provide predicted data to pixel block decoder 1520, as determined by the encoded data received in the encoded video data stream.

画素ブロック復号器1520は、エントロピ復号器1522と、逆量子化器1524と、逆変換ユニット1526と、加算器1528とを含むことができる。エントロピ復号器1522は、エントロピ復号を実行し、(図11の)エントロピ符号器1118によって実行されるプロセスを反転することができる。逆量子化器1524は、(図11の)画素ブロック符号器1110の量子化器1116の動作を反転することができる。同様に、逆変換ユニット1526は、(図11の)変換ユニット1114の動作を反転することができる。それらは、符号化されたビデオデータストリーム内で提供される量子化パラメータQP及び変換モードMを使用することができる。量子化は、データを切り捨てる可能性があるため、逆量子化器1524によって回復されたデータは、画素ブロック符号器1110内の対応物の(図11の)量子化器1116に提示された入力データと比較したとき、符号化誤差を有することになる可能性がある。 The pixel block decoder 1520 may include an entropy decoder 1522, an inverse quantizer 1524, an inverse transform unit 1526, and an adder 1528. Entropy decoder 1522 may perform entropy decoding and invert the process performed by entropy encoder 1118 (of FIG. 11). Inverse quantizer 1524 may invert the operation of quantizer 1116 of pixel block encoder 1110 (of FIG. 11). Similarly, the inverse transform unit 1526 can reverse the operation of the transform unit 1114 (of FIG. 11). They can use the quantization parameter Q P and the transformation mode M provided in the encoded video data stream. Since the quantization may truncate the data, the data recovered by the inverse quantizer 1524 is the input data presented to the counterpart quantizer 1116 (of FIG. 11) in the pixel block encoder 1110. May have coding errors when compared to.

加算器1528は、(図11の)減算器1111によって実行される動作を反転することができる。それは、符号化されたビデオデータストリーム内の予測基準によって判定されたように、予測器1560から予測画素ブロックを受信することができる。加算器1528は、予測画素ブロックを逆変換ユニット1526によって出力された再構成された残差値に加えることができ、再構成された画素ブロックデータを出力することができる。   Adder 1528 may invert the operation performed by subtractor 1111 (of FIG. 11). It can receive a predicted pixel block from the predictor 1560 as determined by a prediction criterion in the encoded video data stream. An adder 1528 can add the predicted pixel block to the reconstructed residual value output by the inverse transform unit 1526, and can output reconstructed pixel block data.

インループフィルタ1530は、再構成された画素ブロックデータに対して様々なフィルタリング動作を実行することができる。図示するように、インループフィルタ1530は、デブロッキングフィルタ1532及びSAOフィルタ1534を含むことができる。デブロッキングフィルタ1532は、再構成された画素ブロック間の継ぎ目でデータをフィルタリングし、符号化に起因して発生する画素ブロック間の不連続性を低減することができる。SAOフィルタ1534は、SAOタイプに従って、例えば、エッジ方向/形状及び/又は画素レベルに基づいて、オフセットを画素値に加えることができる。他の種類のインループフィルタも同様に使用することができる。デブロッキングフィルタ1532及びSAOフィルタ1534の動作は、理想的には、(図11の)符号化システム1100内のそれらに対応物の動作を模倣することになる。したがって、通信エラー又は他の異常がない場合、復号システム1500のインループフィルタ1530から得られる復号されたピクチャは、(図11の)符号化システム1100のインループフィルタ1150から得られる復号されたピクチャと同じになり、このようにして、符号化システム1100及び復号システム1500は、それらの対応する基準ピクチャ記憶1140、1540に基準ピクチャの共通の組を記憶しなければならない。   The in-loop filter 1530 can perform various filtering operations on the reconstructed pixel block data. As shown, the in-loop filter 1530 can include a deblocking filter 1532 and a SAO filter 1534. The deblocking filter 1532 can filter data at seams between reconstructed pixel blocks, and reduce discontinuities between pixel blocks caused by encoding. The SAO filter 1534 can add an offset to the pixel value according to the SAO type, for example, based on edge direction / shape and / or pixel level. Other types of in-loop filters can be used as well. The operation of the deblocking filter 1532 and SAO filter 1534 will ideally mimic the operation of their counterparts in the encoding system 1100 (of FIG. 11). Thus, in the absence of communication errors or other anomalies, the decoded picture obtained from the in-loop filter 1530 of the decoding system 1500 will be the decoded picture obtained from the in-loop filter 1150 of the encoding system 1100 (of FIG. 11). And thus the encoding system 1100 and the decoding system 1500 must store a common set of reference pictures in their corresponding reference picture stores 1140, 1540.

基準ピクチャ記憶1540は、後の他の画素ブロックの予測で使用するフィルタリングされた画素データを記憶することができる。基準ピクチャ記憶1540は、イントラ予測に使用する、それぞれのピクチャの復号された画素ブロックデータをそれが符号化されるにつれて記憶することができる。基準ピクチャ記憶1540は、復号された基準ピクチャを記憶することができる。   Reference picture store 1540 may store filtered pixel data for later prediction of other pixel blocks. Reference picture store 1540 may store the decoded pixel block data for each picture as it is encoded, for use in intra prediction. Reference picture store 1540 may store the decoded reference picture.

パディングユニット1550は、前述の考察において説明したように、符号化されたデータに含まれるメタデータに基づいて、パディングされた基準画像を生成することができる。したがって、パディングユニット1550はまた、前述の図4〜図11において説明したような動作を実行して、予測器1560が作動することができるパディングされた基準画像を生成することができる。復号器1500において、パディングされた画像データのタイプは、エンコーダによって実行されたパディング動作を識別する符号化された画像データに提供されるメタデータによって判定される。パディングユニット1550は、パディング動作を繰り返して、エンコーダによって生成されたパディングされた基準画像データと一致する、パディングされた基準画像データを生成することができる。   Padding unit 1550 may generate a padded reference image based on the metadata included in the encoded data, as described in the discussion above. Accordingly, padding unit 1550 may also perform operations as described in FIGS. 4-11 above to generate a padded reference image on which predictor 1560 may operate. At the decoder 1500, the type of padded image data is determined by the metadata provided to the encoded image data that identifies the padding operation performed by the encoder. Padding unit 1550 may repeat the padding operation to generate padded reference image data that matches the padded reference image data generated by the encoder.

当然のことながら、パディングユニット1550は、符号化された画素ブロックと関連した予測情報がパディングされた基準画像のパディングされた領域のデータを参照しない限り、パディング動作を実行する必要はない。図8を参照すると、エンコーダがパディングされた基準画像870の上面ビュー872からの予測データを使用して画素ブロックPB1を符号化する場合、画素ブロックPB1はパディングされた画像874.1〜874.4のいずれからのデータにも依存しない。復号器では、パディングユニット1550は、符号化された画素ブロックPB1を復号するためにパディングされた画像データを導出する動作を実行する必要はない。一方で、異なる画素ブロック(即ち、PB2)は、パディングされた画像884.3(図8(c))からのデータを使用して符号化されてもよい。この例では、パディングユニット1550(図15)は、エンコーダによって選択された基準データに対応するパディングされた画像データを展開することができる。したがって、復号器1500は、所与の符号化された画素ブロックのためのパディングされた画像データを生成する前に、パディングされた画像データが予測によって参照されるかどうかを判定する。   As a matter of course, the padding unit 1550 does not need to perform the padding operation unless the prediction information related to the encoded pixel block refers to the data of the padded region of the padded reference image. Referring to FIG. 8, when the encoder encodes pixel block PB1 using prediction data from top view 872 of padded reference image 870, pixel block PB1 is padded images 874.1-874.4. Does not depend on data from any of At the decoder, padding unit 1550 does not need to perform operations to derive padded image data to decode encoded pixel block PB1. On the other hand, a different block of pixels (ie, PB2) may be encoded using data from padded image 884.3 (FIG. 8 (c)). In this example, padding unit 1550 (FIG. 15) can expand padded image data corresponding to the reference data selected by the encoder. Thus, before generating the padded image data for a given encoded pixel block, decoder 1500 determines whether the padded image data is referenced by prediction.

説明したように、予測器1560は変換された基準ブロックデータを画素ブロック復号器1520に供給することができる。予測器1560は、符号化されたビデオデータストリーム内に供給される予測基準インジケータによって判定されたように、予測された画素ブロックデータを供給することができる。予測器1560は、図12〜図13に記載されている変換技術を繰り返すこともできる。   As described, the predictor 1560 may provide the transformed reference block data to the pixel block decoder 1520. Predictor 1560 can provide predicted pixel block data as determined by a prediction criterion indicator provided in the encoded video data stream. Predictor 1560 can also repeat the conversion techniques described in FIGS.

コントローラ1570は、符号化システム1500の動作全体を制御することができる。コントローラ1570は、符号化されたビデオデータストリーム内で受信したパラメータに基づいて、画素ブロック復号器1520及び予測器1560に対する動作パラメータを設定することができる。本説明に関連するように、これらの動作パラメータは、逆量子化器1524に対する量子化パラメータQP及び逆変換ユニット1515に対する変換モードMを含むことができる。説明したように、受信したパラメータは、画像データの様々な粒度で、例えば、画素ブロックごとに、ピクチャごとに、スライスごとに、LCUごとに、又は入力画像に対して定義された他の種類の領域に基づいて、設定することができる。 Controller 1570 can control the overall operation of encoding system 1500. Controller 1570 can set operating parameters for pixel block decoder 1520 and predictor 1560 based on parameters received in the encoded video data stream. As relevant to this description, these operating parameters may include a quantization parameter Q P for the inverse quantizer 1524 and a transform mode M for the inverse transform unit 1515. As described, the received parameters may be at different granularities of the image data, e.g., per pixel block, per picture, per slice, per LCU, or any other type defined for the input image. It can be set based on the area.

前述の考察では、本開示の実施形態の動作をビデオ符号器と復号器との関連で説明した。一般に、これらの構成要素は電子デバイスとして提供される。ビデオ復号器及び/又はコントローラは、特定用途向け集積回路、フィールドプログラマブルゲートアレイ及び/又はデジタル信号プロセッサなどの集積回路に具現化することができる。あるいは、それらは、カメラデバイス、パーソナルコンピュータ、ノートブックコンピュータ、タブレット型コンピュータ、スマートフォン又はコンピュータサーバ上で実行するコンピュータプログラムに具体化することができる。このようなコンピュータプログラムは、通常は、電子、磁気及び/又は光学ベースの記憶デバイスなどの物理記憶媒体に記憶され、それらがプロセッサに読み込まれて実行される。復号器は通常、スマートフォン、タブレット型コンピュータ、ゲームシステム、DVDプレーヤ、携帯メディアプレーヤなどのような民生電子機器内にパッケージされ、またビデオゲーム、メディアプレーヤ、メディアエディタなどのような民生用ソフトウェアアプリケーション内にパッケージすることもできる。そして、勿論、これらの構成要素は、必要に応じて、専用のハードウェア構成要素とプログラムされた汎用プロセッサにわたって機能性を分散するハイブリッドシステムとして提供することもできる。   In the foregoing discussion, the operation of the embodiments of the present disclosure has been described in the context of a video encoder and a decoder. Generally, these components are provided as electronic devices. The video decoder and / or controller may be embodied in an integrated circuit such as an application specific integrated circuit, a field programmable gate array and / or a digital signal processor. Alternatively, they can be embodied in a computer program running on a camera device, personal computer, notebook computer, tablet computer, smartphone or computer server. Such computer programs are typically stored on physical storage media, such as electronic, magnetic and / or optical based storage devices, which are read and executed by a processor. Decoders are typically packaged in consumer electronics devices such as smartphones, tablet computers, gaming systems, DVD players, portable media players, etc., and in consumer software applications such as video games, media players, media editors, etc. It can also be packaged in And, of course, these components may be provided as needed as a hybrid system that distributes functionality across dedicated hardware components and programmed general-purpose processors.

例えば、本明細書に記載される技術は、コンピュータシステムの中央処理装置によって実行されてもよい。図16は、このような技術を実行することができる例示的なコンピュータシステム1600を示す。コンピュータシステム1600は、互いに通信して提供される中央処理装置1610、1つ以上のカメラ1620、メモリ1630及び送受信機1640を含むことができる。カメラ1620は、画像キャプチャを実行することができて、キャプチャされた画像データをメモリ1630に記憶することができる。任意選択的に、デバイスは、必要に応じて、符号器1650及びディスプレイ1660などのシンク構成要素を含むこともできる。   For example, the techniques described herein may be performed by a central processing unit of a computer system. FIG. 16 illustrates an exemplary computer system 1600 that can perform such techniques. Computer system 1600 can include a central processing unit 1610, one or more cameras 1620, a memory 1630, and a transceiver 1640 provided in communication with each other. The camera 1620 can perform image capture and store the captured image data in the memory 1630. Optionally, the device can also include a sink component, such as an encoder 1650 and a display 1660, as needed.

中央処理装置1610は、システム1600のオペレーティングシステム1612及び様々なアプリケーション1614.1〜1614.Nを定義するメモリ1630に記憶された様々なプログラム命令を読み取り、実行することができる。プログラム命令は、本明細書に記載される技術に従って、符号化モード制御を実行することができる。それがそれらのプログラム命令を実行するにつれて、中央処理装置1610は、メモリ1630から、カメラ1620又はアプリケーション1614.1〜1614.Nのいずれかによって作成された画像データを読み出すことができ、それは送信のために符号化され得る。中央処理装置1610は、図6の原理に従って動作するプログラムを実行することができる。あるいは、システム1600は、スタンドアロン型処理システム及び/又は集積回路として提供される専用の符号器1650を有することができる。   Central processing unit 1610 includes operating system 1612 of system 1600 and various applications 1614.1 to 1614. Various program instructions stored in memory 1630 defining N can be read and executed. Program instructions may perform encoding mode control according to the techniques described herein. As it executes those program instructions, the central processing unit 1610 reads from the memory 1630 the camera 1620 or the application 164.1-1614. N can read out the image data created by any of N, which can be encoded for transmission. The central processing unit 1610 can execute a program that operates according to the principle of FIG. Alternatively, system 1600 can include a dedicated encoder 1650 provided as a stand-alone processing system and / or as an integrated circuit.

示されるように、メモリ1630は、実行されるとプロセッサに上記の技術を実行させるプログラム命令を記憶することができる。メモリ1630は、プログラム命令を電気的、磁気的及び/又は、光学的ベースの記憶媒体に保存することができる。   As shown, memory 1630 can store program instructions that, when executed, cause the processor to perform the techniques described above. Memory 1630 can store program instructions on an electrical, magnetic, and / or optical based storage medium.

送受信機1640は、送信単位を送信し、ネットワーク(図示せず)から確認応答メッセージを受信するための通信システムを表すことができる。中央処理装置1610がソフトウェアベースのビデオ符号器を動作させる実施形態において、送受信機1640は、確認応答メッセージの状態を表すデータを、プロセッサ1610による取り出しに対してメモリ1630に置くことができる。システム1600が専用の符号器を有する実施形態において、送受信機1640は、状態情報を符号器1650と交換することができる。   Transceiver 1640 may represent a communication system for transmitting transmission units and receiving acknowledgment messages from a network (not shown). In embodiments where the central processing unit 1610 operates a software-based video encoder, the transceiver 1640 may place data representing the status of the acknowledgment message in the memory 1630 for retrieval by the processor 1610. In embodiments in which system 1600 has a dedicated encoder, transceiver 1640 may exchange state information with encoder 1650.

前述の説明は、例示及び説明を目的として、提示されている。それは網羅的ではなく、本開示の実施形態を開示される正確な形に限定するものではない。修正及び変形は、上記の教示を考慮して可能であるか、又は本開示と整合した実践的実施形態から得ることができる。本明細書で別途記載のない限り、方法のいずれも任意の組み合わせで実施することができる。   The foregoing description has been presented for purposes of illustration and description. It is not exhaustive and does not limit embodiments of the present disclosure to the precise form disclosed. Modifications and variations are possible in light of the above teachings or may be obtained from practical embodiments consistent with the present disclosure. Unless otherwise stated herein, any of the methods can be performed in any combination.

Claims (26)

ビデオ符号化の方法であって、
立方体マップフォーマットで記憶される基準画像に対して、前記立方体マップフォーマットに含まれる第1のビューの画像データが複製されて前記立方体マップ画像に含まれる第2のビューに隣接して配置される、パディングされた基準画像を生成することと、
符号化される入力画像の画素ブロックに対して、前記入力画像と前記パディングされた基準画像のコンテンツ間の予測一致を検索することであって、前記検索は前記第1のビューの前記複製されたデータを含む、ことと、
一致が発生すると、前記画素ブロックを前記パディングされた基準画像からの一致しているデータに関して差分的に符号化することと、
を含む、方法。
A method of video encoding,
For a reference image stored in a cubic map format, image data of a first view included in the cubic map format is duplicated and arranged adjacent to a second view included in the cubic map image. Generating a padded reference image;
Searching for a predicted match between the input image and the content of the padded reference image for a pixel block of the input image to be encoded, wherein the search is performed on the duplicated view of the first view. Contain data, and
When a match occurs, differentially encoding the pixel block with respect to matching data from the padded reference image;
Including, methods.
前記基準画像が複数のビューのデータと画像コンテンツを含まない少なくとも1つのヌル領域とを含み、
前記パディングされた基準画像が前記複数のビューのデータを含み、前記複製されたビューのデータが前記基準画像のヌル領域の位置に対応する位置において提供される、請求項1に記載の方法。
The reference image includes a plurality of views of data and at least one null region that does not include image content;
The method of claim 1, wherein the padded reference image includes data of the plurality of views, and wherein the duplicated view data is provided at a location corresponding to a location of a null region of the reference image.
前記基準画像が複数のビューのデータを含み、
前記パディングされた基準画像が、符号化される前記画素ブロックに空間的に対応する前記基準画像のビューのデータを含み、
前記複製されたデータが、符号化される前記画素ブロックに空間的に対応する前記基準画像の前記ビューとエッジを共有する前記基準画像からの別のビューのデータである、請求項1に記載の方法。
The reference image includes a plurality of views of data,
The padded reference image includes data of a view of the reference image that spatially corresponds to the pixel block to be encoded;
The method of claim 1, wherein the replicated data is data of another view from the reference image that shares an edge with the view of the reference image spatially corresponding to the pixel block to be encoded. Method.
前記生成することが、前記第1のビューの画像データを前記基準画像の第2のビューの平面に投影することを含み、前記第2のビューは符号化される前記画素ブロックの空間位置に対応する、請求項1に記載の方法。   The generating comprises projecting the image data of the first view onto a plane of a second view of the reference image, the second view corresponding to a spatial position of the pixel block to be encoded. The method of claim 1, wherein 前記生成することが、前記第2のビューに関して前記第1のビューの画像データを配向して前記ビューの間の継ぎ目にわたる画像データの連続性を提供する、請求項1に記載の方法。   The method of claim 1, wherein the generating orients image data of the first view with respect to the second view to provide continuity of image data across seams between the views. 前記基準画像が複数のビューを有する立方体マップ画像であり、画像連続性は前記立方体マップ画像のすべての内部エッジにわたって維持される、請求項1に記載の方法。   The method of claim 1, wherein the reference image is a cubic map image having a plurality of views, and wherein image continuity is maintained across all internal edges of the cubic map image. 前記基準画像が複数のビューを有する立方体マップ画像であり、画像連続性は前記立方体マップ画像の複数の内部エッジにわたって維持されるが、画像連続性は前記立方体マップ画像の他の内部エッジにわたっては維持されない、請求項1に記載の方法。   The reference image is a cubic map image having a plurality of views, wherein image continuity is maintained over a plurality of internal edges of the cubic map image, while image continuity is maintained over other internal edges of the cubic map image. The method of claim 1, wherein the method is not performed. 前記入力画像が全方向カメラによって生成される、請求項1に記載の方法。   The method of claim 1, wherein the input image is generated by an omni-directional camera. 前記入力画像がコンピュータアプリケーションによって生成される、請求項1に記載の方法。   The method of claim 1, wherein the input image is generated by a computer application. 符号化される画素ブロックに対する入力及び予測された画素ブロックを有するビデオ符号器と、
前記ビデオ符号器の出力に結合された入力を有するビデオ復号器と、
前記ビデオ復号器によって生成される立方体マップフォーマットの復号されたピクチャを記憶する基準ピクチャ記憶と、
前記基準ピクチャ記憶に記憶される復号されたピクチャからのパディングされた基準画像を生成するためのパディングユニットであって、前記パディングされた基準画像は、複製されて前記立法マップ画像に含まれる第2のビューに隣接して配置される前記復号されたピクチャの第1のビューの画像データを有する、パディングユニットと、
前記パディングユニットに結合された入力及び前記ビデオ符号器に結合された出力を有する予測器と、
を備えるビデオ符号化システム。
A video encoder having an input for the pixel block to be encoded and a predicted pixel block;
A video decoder having an input coupled to an output of the video encoder;
Reference picture storage for storing decoded pictures in a cubic map format generated by the video decoder;
A padding unit for generating a padded reference image from a decoded picture stored in the reference picture storage, wherein the padded reference image is duplicated and included in the legislative map image. A padding unit having image data of a first view of the decoded picture arranged adjacent to a view of
A predictor having an input coupled to the padding unit and an output coupled to the video encoder;
A video encoding system comprising:
前記復号されたピクチャが複数のビューのデータと画像コンテンツを含まない少なくとも1つのヌル領域とを含み、
前記パディングされた基準画像が前記複数のビューのデータを含み、前記複製されたビューのデータが前記基準画像のヌル領域の位置に対応する位置において提供される、請求項10に記載のシステム。
The decoded picture includes a plurality of views of data and at least one null region that does not include image content;
The system of claim 10, wherein the padded reference image includes data of the plurality of views, and wherein the duplicated view data is provided at a location corresponding to a location of a null region of the reference image.
前記復号されたピクチャが複数のビューのデータを含み、
前記パディングされた基準画像が、
符号化される前記画素ブロックに空間的に対応する前記基準画像のビューのデータを含み、
前記複製されたデータが、符号化される前記画素ブロックに空間的に対応する前記基準画像の前記ビューとエッジを共有するデータを含む前記復号されたピクチャからの別のビューのデータである、請求項10に記載のシステム。
The decoded picture includes a plurality of views of data;
The padded reference image is
Including data of a view of the reference image that spatially corresponds to the pixel block to be encoded;
The duplicated data is data of another view from the decoded picture including data sharing edges with the view of the reference image that spatially corresponds to the pixel block to be encoded. Item 11. The system according to Item 10.
前記パディングユニットが前記第1のビューの画像データを前記復号されたピクチャの第2のビューの平面に投影し、前記第2のビューは符号化される前記画素ブロックの空間位置に対応する、請求項10に記載のシステム。   The padding unit projects the image data of the first view onto a plane of a second view of the decoded picture, wherein the second view corresponds to a spatial position of the pixel block to be encoded. Item 11. The system according to Item 10. 前記パディングユニットが、前記第2のビューに関して前記第1のビューの画像データを配向して前記ビューの間の継ぎ目にわたる画像データの連続性を提供する、請求項10に記載のシステム。   The system of claim 10, wherein the padding unit orients image data of the first view with respect to the second view to provide continuity of image data across seams between the views. 前記立方体マップフォーマットが複数のビューを有し、画像連続性は前記立方体マップ画像のすべての内部エッジにわたって維持される、請求項10に記載のシステム。   The system of claim 10, wherein the cubic map format has multiple views, and image continuity is maintained across all interior edges of the cubic map image. 前記立方体マップフォーマットが複数のビューを有し、画像連続性は前記立方体マップ画像の複数の内部エッジにわたって維持されるが、画像連続性は前記立方体マップ画像の他の内部エッジにわたっては維持されない、請求項10に記載のシステム。   The cubic map format having multiple views, wherein image continuity is maintained across multiple internal edges of the cubic map image, but image continuity is not maintained across other internal edges of the cubic map image. Item 11. The system according to Item 10. 入力画素ブロックが導出される画像データを供給する全方向カメラを更に備える、請求項10に記載のシステム。   The system of claim 10, further comprising an omni-directional camera that provides image data from which the input pixel blocks are derived. 入力画素ブロックが導出される画像データを生成するコンピュータアプリケーションを更に備える、請求項10に記載のシステム。   The system of claim 10, further comprising a computer application that generates image data from which an input pixel block is derived. 処理デバイスによって実行されると、前記デバイスに、
立方体マップフォーマットで記憶される基準画像に対して、前記立方体マップフォーマットに含まれる第1のビューの画像データが複製されて前記立方体マップ画像に含まれる第2のビューに隣接して配置される、パディングされた基準画像を生成し、
符号化される入力画像の画素ブロックに対して、前記入力画像と前記パディングされた基準画像のコンテンツ間の予測一致を検索し、前記検索は前記第1のビューの前記複製されたデータを含み、
一致が発生すると、前記画素ブロックを前記パディングされた基準画像からの一致しているデータに関して差分的に符号化する、
ようにさせるプログラム命令を記憶する、コンピュータ可読媒体。
When executed by a processing device, the device:
For a reference image stored in a cubic map format, image data of a first view included in the cubic map format is duplicated and arranged adjacent to a second view included in the cubic map image. Generate a padded reference image,
Searching for a predicted match between the input image and the content of the padded reference image for a pixel block of the input image to be encoded, wherein the search includes the duplicated data of the first view;
If a match occurs, differentially encode the pixel block with respect to matching data from the padded reference image;
A computer-readable medium that stores program instructions for causing the
前記基準画像が複数のビューのデータと画像コンテンツを含まない少なくとも1つのヌル領域とを含み、
前記パディングされた基準画像が前記複数のビューのデータを含み、前記複製されたビューのデータが前記基準画像のヌル領域の位置に対応する位置において提供される、請求項19に記載の媒体。
The reference image includes a plurality of views of data and at least one null region that does not include image content;
20. The medium of claim 19, wherein the padded reference image includes data for the plurality of views, and the duplicated view data is provided at a location corresponding to a location of a null region of the reference image.
前記基準画像が複数のビューのデータを含み、
前記パディングされた基準画像が、
符号化される前記画素ブロックに空間的に対応する前記基準画像のビューのデータを含み、
前記複製されたデータが、符号化される前記画素ブロックに空間的に対応する前記基準画像の前記ビューとエッジを共有する前記基準画像からの別のビューのデータである、請求項19に記載の媒体。
The reference image includes a plurality of views of data,
The padded reference image is
Including data of a view of the reference image that spatially corresponds to the pixel block to be encoded;
20. The replicated data of claim 19, wherein the replicated data is data of another view from the reference image that shares an edge with the view of the reference image that spatially corresponds to the pixel block to be encoded. Medium.
前記デバイスが前記第1のビューの画像データを前記基準画像の第2のビューの平面に投影し、前記第2のビューは符号化される前記画素ブロックの空間位置に対応する、請求項19に記載の媒体。   20. The device of claim 19, wherein the device projects image data of the first view onto a plane of a second view of the reference image, wherein the second view corresponds to a spatial position of the pixel block to be encoded. The described medium. ビデオ符号化の方法であって、
立方体マップフォーマットで記憶される基準画像に対して、前記立方体マップフォーマットに含まれる第1のビューの画像データが複製されて前記立方体マップ画像に含まれる第2のビューに隣接して配置される、パディングされた基準画像を生成することと、
符号化される入力画像の画素ブロックに対して、前記入力画像と前記パディングされた基準画像のコンテンツ間の予測一致を検索することであって、前記検索は前記第1のビューの前記複製されたデータを含む、ことと、
一致が発生すると、前記画素ブロックを前記パディングされた基準画像からの一致しているデータに関して差分的に符号化することと、
を含む、方法。
A method of video encoding,
For a reference image stored in a cubic map format, image data of a first view included in the cubic map format is duplicated and arranged adjacent to a second view included in the cubic map image. Generating a padded reference image;
Searching for a predicted match between the input image and the content of the padded reference image for a pixel block of the input image to be encoded, wherein the search is performed on the duplicated view of the first view. Contain data, and
When a match occurs, differentially encoding the pixel block with respect to matching data from the padded reference image;
Including, methods.
ビデオ符号化の方法であって、
符号化された画素ブロックに対して、前記符号化された画素ブロックの予測データから、前記符号化された画素ブロックがパディングされた基準画像データを参照して符号化されているかどうか判定することと、
前記符号化された画素ブロックがパディングされた基準画像データを参照して符号化されているとき、前記基準画像の第1のビューの複製された画像データによって記憶された基準画像からパディングされた基準画像を生成して、前記パディングされた基準画像を前記基準画像の第2のビューに隣接して配置することと、
前記符号化された画素ブロックのための予測基準として前記パディングされた基準画像データを使用して前記符号化された画素ブロックを復号することと、
を含む、方法。
A method of video encoding,
For an encoded pixel block, from the prediction data of the encoded pixel block, determining whether the encoded pixel block is encoded with reference to padded reference image data. ,
A reference padded from a reference image stored by duplicate image data of a first view of the reference image when the encoded pixel block is encoded with reference to padded reference image data. Generating an image and placing the padded reference image adjacent to a second view of the reference image;
Decoding the encoded pixel block using the padded reference image data as a prediction criterion for the encoded pixel block;
Including, methods.
符号化された画素ブロックデータに対する入力を有するビデオ復号器と、
前記ビデオ復号器によって生成される復号されたピクチャであって、立方体マップフォーマットの前記復号されたピクチャを記憶する基準ピクチャ記憶と、
前記基準ピクチャ記憶に記憶される復号されたピクチャからのパディングされた基準画像を生成するためのパディングユニットであって、前記パディングされた基準画像は、複製されて前記立法マップ画像に含まれる第2のビューに隣接して配置される前記復号されたピクチャの第1のビューの画像データを有する、パディングユニットと、
前記パディングユニットに結合された入力及び前記ビデオ復号器に結合された出力を有する予測器と、
を備えるビデオ復号器。
A video decoder having an input for the encoded pixel block data;
A reference picture store for storing the decoded pictures generated by the video decoder, wherein the decoded pictures are in cubic map format;
A padding unit for generating a padded reference image from a decoded picture stored in the reference picture storage, wherein the padded reference image is duplicated and included in the legislative map image. A padding unit having image data of a first view of the decoded picture arranged adjacent to a view of
A predictor having an input coupled to the padding unit and an output coupled to the video decoder;
Video decoder comprising:
ビデオ符号化の方法であって、
球面投影に従って表される基準画像に対して、前記基準画像の一部の画像データが複製されて前記基準画像のエッジに隣接して配置される、パディングされた基準画像を生成することと、
符号化される入力画像の画素ブロックに対して、前記入力画像と前記パディングされた基準画像のコンテンツ間の予測一致を検索することであって、前記検索は前記複製されたデータを含む、ことと、
一致が発生すると、前記画素ブロックを前記パディングされた基準画像からの一致しているデータに関して差分的に符号化することと、
を含む、方法。
A method of video encoding,
For a reference image represented according to a spherical projection, a portion of the reference image is duplicated and arranged adjacent to an edge of the reference image, generating a padded reference image;
Searching a pixel block of the input image to be encoded for a predicted match between the content of the input image and the padded reference image, wherein the search includes the duplicated data; ,
When a match occurs, differentially encoding the pixel block with respect to matching data from the padded reference image;
Including, methods.
JP2019546281A 2017-02-27 2018-02-14 Video coding techniques for multi-view video Pending JP2020508618A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/443,342 2017-02-27
US15/443,342 US10924747B2 (en) 2017-02-27 2017-02-27 Video coding techniques for multi-view video
PCT/US2018/018246 WO2018156403A1 (en) 2017-02-27 2018-02-14 Video coding techniques for multi-view video

Publications (1)

Publication Number Publication Date
JP2020508618A true JP2020508618A (en) 2020-03-19

Family

ID=61563468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019546281A Pending JP2020508618A (en) 2017-02-27 2018-02-14 Video coding techniques for multi-view video

Country Status (6)

Country Link
US (1) US10924747B2 (en)
EP (1) EP3577901B1 (en)
JP (1) JP2020508618A (en)
KR (1) KR102359820B1 (en)
CN (1) CN110313181B (en)
WO (1) WO2018156403A1 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11004173B2 (en) 2017-03-13 2021-05-11 Mediatek Inc. Method for processing projection-based frame that includes at least one projection face packed in 360-degree virtual reality projection layout
US11057643B2 (en) * 2017-03-13 2021-07-06 Mediatek Inc. Method and apparatus for generating and encoding projection-based frame that includes at least one padding region and at least one projection face packed in 360-degree virtual reality projection layout
US20180343470A1 (en) * 2017-05-25 2018-11-29 Advanced Micro Devices, Inc. Method of using cube mapping and mapping metadata for encoders
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10764582B2 (en) 2017-06-29 2020-09-01 Qualcomm Incorporated Reducing seam artifacts in 360-degree video
US20190005709A1 (en) * 2017-06-30 2019-01-03 Apple Inc. Techniques for Correction of Visual Artifacts in Multi-View Images
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
US10523913B2 (en) 2017-06-30 2019-12-31 Apple Inc. Packed image format for multi-directional video
WO2019034131A1 (en) 2017-08-18 2019-02-21 Mediatek Inc. Method and apparatus for reducing artifacts in projection-based frame
US20190182462A1 (en) * 2017-12-08 2019-06-13 Gopro, Inc. Methods and apparatus for projection conversion decoding for applications eco-systems
US11317114B2 (en) * 2018-03-19 2022-04-26 Sony Corporation Image processing apparatus and image processing method to increase encoding efficiency of two-dimensional image
EP3594899A1 (en) * 2018-07-10 2020-01-15 InterDigital CE Patent Holdings Tracking an object in a sequence of panoramic images
KR102653177B1 (en) * 2018-10-29 2024-04-01 삼성에스디에스 주식회사 Apparatus and method for extracting object information
US20200213570A1 (en) * 2019-01-02 2020-07-02 Mediatek Inc. Method for processing projection-based frame that includes at least one projection face and at least one padding region packed in 360-degree virtual reality projection layout
CN113302943B (en) * 2019-02-11 2023-01-06 华为技术有限公司 Method, apparatus, device and storage medium for surround view video coding and decoding
CN117015970A (en) * 2020-12-14 2023-11-07 浙江大学 Decoding method, inter-view prediction method, decoder and encoder

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160112704A1 (en) * 2014-10-20 2016-04-21 Google Inc. Continuous prediction domain
US20170214937A1 (en) * 2016-01-22 2017-07-27 Mediatek Inc. Apparatus of Inter Prediction for Spherical Images and Cubic Images
WO2018009746A1 (en) * 2016-07-08 2018-01-11 Vid Scale, Inc. 360-degree video coding using geometry projection
WO2018059654A1 (en) * 2016-09-30 2018-04-05 Huawei Technologies Co., Ltd. Apparatuses and methods for encoding and decoding a panoramic video signal
JP2019513320A (en) * 2016-03-24 2019-05-23 ノキア テクノロジーズ オーユー Video encoding / decoding apparatus, method and computer program

Family Cites Families (505)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2191917A (en) 1986-06-16 1987-12-23 Ibm A multiple window display system
US5448687A (en) 1988-09-13 1995-09-05 Computer Design, Inc. Computer-assisted design system for flattening a three-dimensional surface and for wrapping a flat shape to a three-dimensional surface
CA2044931C (en) 1990-06-19 2000-08-01 Hajime Kamata Multiwindow display control method and apparatus
US5185667A (en) 1991-05-13 1993-02-09 Telerobotics International, Inc. Omniview motionless camera orientation system
US5990941A (en) 1991-05-13 1999-11-23 Interactive Pictures Corporation Method and apparatus for the interactive display of any portion of a spherical image
US5313306A (en) 1991-05-13 1994-05-17 Telerobotics International, Inc. Omniview motionless camera endoscopy system
US7382399B1 (en) 1991-05-13 2008-06-03 Sony Coporation Omniview motionless camera orientation system
US5359363A (en) 1991-05-13 1994-10-25 Telerobotics International, Inc. Omniview motionless camera surveillance system
US5262777A (en) 1991-11-16 1993-11-16 Sri International Device for generating multidimensional input signals to a computer
US5787207A (en) 1991-12-30 1998-07-28 Golin; Stuart J. Method and apparatus for minimizing blockiness in reconstructed images
US5684937A (en) 1992-12-14 1997-11-04 Oxaal; Ford Method and apparatus for performing perspective transformation on visible stimuli
US5537155A (en) 1994-04-29 1996-07-16 Motorola, Inc. Method for estimating motion in a video sequence
JP3248186B2 (en) 1994-08-31 2002-01-21 ソニー株式会社 Still image system
US5715016A (en) 1995-04-05 1998-02-03 Graphic Communication Laboratories Motion estimation method and apparatus for calculating a motion vector
US5689800A (en) 1995-06-23 1997-11-18 Intel Corporation Video feedback for reducing data rate or increasing quality in a video processing system
US6031540A (en) 1995-11-02 2000-02-29 Imove Inc. Method and apparatus for simulating movement in multidimensional space with polygonal projections from subhemispherical imagery
JP3994445B2 (en) 1995-12-05 2007-10-17 ソニー株式会社 Motion vector detection apparatus and motion vector detection method
JP2798035B2 (en) 1996-01-17 1998-09-17 日本電気株式会社 Motion compensated inter-frame prediction method using adaptive motion vector interpolation
US5903270A (en) 1997-04-15 1999-05-11 Modacad, Inc. Method and apparatus for mapping a two-dimensional texture onto a three-dimensional surface
US6459451B2 (en) 1996-06-24 2002-10-01 Be Here Corporation Method and apparatus for a panoramic camera to capture a 360 degree image
US6331869B1 (en) 1998-08-07 2001-12-18 Be Here Corporation Method and apparatus for electronically distributing motion panoramic images
US6043837A (en) 1997-05-08 2000-03-28 Be Here Corporation Method and apparatus for electronically distributing images from a panoptic camera system
JPH10327415A (en) 1997-05-22 1998-12-08 Mitsubishi Electric Corp Motion vector detector
US6993201B1 (en) 1997-07-08 2006-01-31 At&T Corp. Generalized scalability for video coder based on video objects
JPH11119303A (en) 1997-10-20 1999-04-30 Fujitsu Ltd Monitoring system and monitoring method
KR100269125B1 (en) 1997-10-25 2000-10-16 윤덕용 Image post processing method and apparatus for reducing quantization effect
US6144890A (en) 1997-10-31 2000-11-07 Lear Corporation Computerized method and system for designing an upholstered part
JPH11308574A (en) 1998-04-22 1999-11-05 Sony Corp Scanning line number converter and its method
US6535643B1 (en) 1998-11-03 2003-03-18 Lg Electronics Inc. Method for recovering compressed motion picture for eliminating blocking artifacts and ring effects and apparatus therefor
US6204854B1 (en) 1998-12-04 2001-03-20 France Telecom Method and system for encoding rotations and normals in 3D generated scenes
US6850565B2 (en) 1998-12-18 2005-02-01 Intel Corporation Real time bit rate control system
US6222883B1 (en) 1999-01-28 2001-04-24 International Business Machines Corporation Video encoding motion estimation employing partitioned and reassembled search window
US7050085B1 (en) 2000-10-26 2006-05-23 Imove, Inc. System and method for camera calibration
US6690374B2 (en) 1999-05-12 2004-02-10 Imove, Inc. Security camera system for tracking moving objects in both forward and reverse directions
JP2001008232A (en) 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd Omnidirectional video output method and apparatus
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6769131B1 (en) 1999-11-18 2004-07-27 Canon Kabushiki Kaisha Image processing apparatus and method, image distribution system and storage medium
FR2802002B1 (en) 1999-12-02 2002-03-01 Ge Medical Syst Sa METHOD FOR AUTOMATIC RECORDING OF THREE-DIMENSIONAL IMAGES
JP2001189902A (en) 1999-12-28 2001-07-10 Nec Corp Method for controlling head-mounted display and head- mounted display device
US7259760B1 (en) 2000-02-16 2007-08-21 Be Here Corporation Polygonal curvature mapping to increase texture efficiency
US6559853B1 (en) 2000-02-16 2003-05-06 Enroute, Inc. Environment map creation using texture projections with polygonal curved surfaces
GB2363019B (en) 2000-04-07 2004-02-25 Discreet Logic Inc Processing image data
US6973130B1 (en) 2000-04-25 2005-12-06 Wee Susie J Compressed video signal including information for independently coded regions
US7149549B1 (en) 2000-10-26 2006-12-12 Ortiz Luis M Providing multiple perspectives for a venue activity through an electronic hand held device
US7095905B1 (en) 2000-09-08 2006-08-22 Adobe Systems Incorporated Merging images to form a panoramic image
US20020080878A1 (en) 2000-10-12 2002-06-27 Webcast Technologies, Inc. Video apparatus and method for digital video enhancement
US7742073B1 (en) 2000-11-01 2010-06-22 Koninklijke Philips Electronics N.V. Method and apparatus for tracking an object of interest using a camera associated with a hand-held processing device
US7327787B1 (en) 2000-11-20 2008-02-05 Intel Corporation Method and apparatus for motion estimation
US6952286B2 (en) 2000-12-07 2005-10-04 Eastman Kodak Company Doubleprint photofinishing service with the second print having subject content-based modifications
US7003061B2 (en) 2000-12-21 2006-02-21 Adobe Systems Incorporated Image extraction from complex scenes in digital video
US8253754B2 (en) 2001-01-16 2012-08-28 Microsoft Corporation Sampling-efficient mapping of images
GB0101371D0 (en) 2001-01-19 2001-03-07 Virtual Mirrors Ltd Production and visualisation of garments
WO2002080521A2 (en) 2001-03-30 2002-10-10 Digeo, Inc. System and method for a software steerable web camera with multiple image subset capture
US6756990B2 (en) 2001-04-03 2004-06-29 Be Here Corporation Image filtering on 3D objects using 2D manifolds
US7006707B2 (en) 2001-05-03 2006-02-28 Adobe Systems Incorporated Projecting images onto a surface
WO2002093495A1 (en) 2001-05-11 2002-11-21 Koninklijke Philips Electronics N.V. Method, system and computer program for producing a medical report
JP4584575B2 (en) 2001-07-06 2010-11-24 クゥアルコム・インコーポレイテッド Image processing method for interacting with 3D surface displayed in 3D image
AU2002324771A1 (en) 2001-08-25 2003-03-10 Eyesee360, Inc. Method and apparatus for encoding photogrraphic images
US7123777B2 (en) 2001-09-27 2006-10-17 Eyesee360, Inc. System and method for panoramic imaging
US7039113B2 (en) 2001-10-16 2006-05-02 Koninklijke Philips Electronics N.V. Selective decoding of enhanced video stream
US7161599B2 (en) 2001-10-18 2007-01-09 Microsoft Corporation Multiple-level graphics processing system and method
JP2003141562A (en) 2001-10-29 2003-05-16 Sony Corp Image processing apparatus and method for nonplanar image, storage medium, and computer program
US20030099294A1 (en) 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
JP4082021B2 (en) 2001-11-29 2008-04-30 コニカミノルタホールディングス株式会社 Texture image generation program, texture image data and data processing apparatus
CN101448162B (en) 2001-12-17 2013-01-02 微软公司 Method for processing video image
US7782357B2 (en) 2002-06-21 2010-08-24 Microsoft Corporation Minimizing dead zones in panoramic images
US20040022322A1 (en) 2002-07-19 2004-02-05 Meetrix Corporation Assigning prioritization during encode of independently compressed objects
US6925123B2 (en) 2002-08-06 2005-08-02 Motorola, Inc. Method and apparatus for performing high quality fast predictive motion search
US7023921B2 (en) 2002-08-06 2006-04-04 Motorola, Inc. Method and apparatus for determining block match quality
US20040032906A1 (en) 2002-08-19 2004-02-19 Lillig Thomas M. Foreground segmentation for digital video
US20040056900A1 (en) 2002-09-23 2004-03-25 Blume Leo R System and method for window priority rendering
SE0203908D0 (en) 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US7385995B2 (en) 2003-01-13 2008-06-10 Brooktree Broadband Holding, Inc. System and method for dynamic bandwidth allocation on PONs
US8027473B2 (en) 2003-01-13 2011-09-27 Conexant Systems, Inc. System and method for improved data protection in PONs
US7702015B2 (en) 2003-03-20 2010-04-20 Ge Security, Inc. Systems and methods for multi-resolution image processing
US8065614B2 (en) 2003-04-09 2011-11-22 Ati Technologies, Inc. System for displaying video and method thereof
RU2225035C1 (en) 2003-04-21 2004-02-27 Общество с ограниченной ответственностью "Р.Т.С.-Сервис" Method for encoding coordinates of video image moving on computer monitor screen, device for decoding visual object encoded by this method, and system designed for visualizing active video by means of this device
TW594594B (en) 2003-05-16 2004-06-21 Ind Tech Res Inst A multilevel texture processing method for mapping multiple images onto 3D models
US20050013498A1 (en) 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US7212206B2 (en) 2003-08-20 2007-05-01 Sony Computer Entertainment Inc. Method and apparatus for self shadowing and self interreflection light capture
US7719978B2 (en) 2003-09-12 2010-05-18 Newsouth Innovations Pty Limited Method for transmitting data over lossy packet-based communication networks
US20050069682A1 (en) 2003-09-30 2005-03-31 Tan Tseng Custom 3-D Milled Object with Vacuum-Molded 2-D Printout Created from a 3-D Camera
US7433535B2 (en) 2003-09-30 2008-10-07 Hewlett-Packard Development Company, L.P. Enhancing text-like edges in digital images
KR100657261B1 (en) 2003-12-10 2006-12-14 삼성전자주식회사 Method and apparatus for interpolating with adaptive motion compensation
US20050204113A1 (en) 2004-03-09 2005-09-15 International Business Machines Corp. Method, system and storage medium for dynamically selecting a page management policy for a memory controller
US7400679B2 (en) 2004-04-29 2008-07-15 Mediatek Incorporation Adaptive de-blocking filtering apparatus and method for MPEG video decoder
US7496141B2 (en) 2004-04-29 2009-02-24 Mediatek Incorporation Adaptive de-blocking filtering apparatus and method for MPEG video decoder
US8442311B1 (en) 2005-06-30 2013-05-14 Teradici Corporation Apparatus and method for encoding an image generated in part by graphical commands
US9532069B2 (en) * 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
US7929800B2 (en) 2007-02-06 2011-04-19 Meadow William D Methods and apparatus for generating a continuum of image data
US8194093B2 (en) 2004-09-15 2012-06-05 Onlive, Inc. Apparatus and method for capturing the expression of a performer
US20060055706A1 (en) 2004-09-15 2006-03-16 Perlman Stephen G Apparatus and method for capturing the motion of a performer
US7660245B1 (en) 2004-09-16 2010-02-09 Qualcomm Incorporated FEC architecture for streaming services including symbol-based operations and packet tagging
CN101027900A (en) 2004-09-24 2007-08-29 皇家飞利浦电子股份有限公司 System and method for the production of composite images comprising or using one or more cameras for providing overlapping images
BRPI0516309B1 (en) 2004-10-05 2019-07-02 Vectormax Corporation COMPRESSION VIDEO SYSTEM
CA2587644C (en) 2004-11-12 2015-01-13 Mok3, Inc. Method for inter-scene transitions
US7620261B2 (en) 2004-11-23 2009-11-17 Stmicroelectronics Asia Pacific Pte. Ltd. Edge adaptive filtering system for reducing artifacts and method
US7432936B2 (en) 2004-12-02 2008-10-07 Avid Technology, Inc. Texture data anti-aliasing method and apparatus
US7792385B2 (en) 2005-01-25 2010-09-07 Globalfoundries Inc. Scratch pad for storing intermediate loop filter data
US8576924B2 (en) 2005-01-25 2013-11-05 Advanced Micro Devices, Inc. Piecewise processing of overlap smoothing and in-loop deblocking
US8693537B2 (en) 2005-03-01 2014-04-08 Qualcomm Incorporated Region-of-interest coding with background skipping for video telephony
JP4708819B2 (en) 2005-03-14 2011-06-22 キヤノン株式会社 Image processing apparatus, method, computer program, and storage medium
US20060282855A1 (en) 2005-05-05 2006-12-14 Digital Display Innovations, Llc Multiple remote display system
US7755667B2 (en) 2005-05-17 2010-07-13 Eastman Kodak Company Image sequence stabilization method and camera having dual path image sequence stabilization
US8045615B2 (en) 2005-05-25 2011-10-25 Qualcomm Incorporated Deblock filtering techniques for video coding according to multiple video standards
EP1895901A2 (en) 2005-06-22 2008-03-12 The Research Foundation of State University of New York System and method for computer aided polyp detection
US20070024705A1 (en) 2005-08-01 2007-02-01 Richter Roger K Systems and methods for video stream selection
US20070064120A1 (en) 2005-09-16 2007-03-22 Richard Didow Chroma-key event photography
US9258519B2 (en) 2005-09-27 2016-02-09 Qualcomm Incorporated Encoder assisted frame rate up conversion using various motion models
ZA200803018B (en) 2005-10-12 2009-07-29 Thomson Licensing Region of interest H.264 scalable video coding
US7956929B2 (en) 2005-10-31 2011-06-07 Broadcom Corporation Video background subtractor system
GB0600141D0 (en) 2006-01-05 2006-02-15 British Broadcasting Corp Scalable coding of video signals
US7415356B1 (en) 2006-02-03 2008-08-19 Zillow, Inc. Techniques for accurately synchronizing portions of an aerial image with composited visual information
WO2007093780A2 (en) 2006-02-13 2007-08-23 Snell & Wilcox Limited Method and apparatus for modifying a moving image sequence
US8279928B2 (en) 2006-05-09 2012-10-02 Canon Kabushiki Kaisha Image encoding apparatus and encoding method, image decoding apparatus and decoding method
WO2007136094A1 (en) 2006-05-24 2007-11-29 Panasonic Corporation Dynamic image decoding device
CN101507281B (en) 2006-07-12 2013-06-05 诺基亚公司 Signaling of region-of-interest scalability information in media files
US8446509B2 (en) 2006-08-09 2013-05-21 Tenebraex Corporation Methods of creating a virtual window
US7643662B2 (en) 2006-08-15 2010-01-05 General Electric Company System and method for flattened anatomy for interactive segmentation and measurement
US7693349B2 (en) 2006-08-15 2010-04-06 General Electric Company Systems and methods for interactive image registration
US20080077953A1 (en) 2006-09-22 2008-03-27 Objectvideo, Inc. Video background replacement system
JP4931055B2 (en) 2006-11-22 2012-05-16 ソニー株式会社 Image processing apparatus and image processing method
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
WO2008092131A2 (en) 2007-01-25 2008-07-31 Skyfire Labs, Inc. Mobile device user interface for remote interaction
JP4682990B2 (en) 2007-02-06 2011-05-11 日本ビクター株式会社 Camera image compression processing apparatus and compression processing method
KR100866230B1 (en) 2007-04-12 2008-10-30 삼성전자주식회사 Method for photographing panorama picture
KR101328950B1 (en) 2007-04-24 2013-11-13 엘지전자 주식회사 Image display method and image communication terminal capable of implementing the same
AU2007202789B9 (en) 2007-06-15 2011-08-18 Canon Kabushiki Kaisha High-fidelity motion summarisation method
WO2009001793A1 (en) 2007-06-26 2008-12-31 Kabushiki Kaisha Toshiba Image encoding and image decoding method and apparatus
KR100882011B1 (en) 2007-07-29 2009-02-04 주식회사 나노포토닉스 Methods of obtaining panoramic images using rotationally symmetric wide-angle lenses and devices thereof
JP2009042811A (en) 2007-08-06 2009-02-26 Univ Of Tokyo Three-dimensional shape development device, three-dimensional shape development method, and program for three-dimensional shape development
EP2210421A4 (en) 2007-10-16 2013-12-04 Lg Electronics Inc A method and an apparatus for processing a video signal
US8553028B1 (en) * 2007-10-29 2013-10-08 Julian Michael Urbach Efficiently implementing and displaying independent 3-dimensional interactive viewports of a virtual world on multiple client devices
US8638327B2 (en) 2007-11-14 2014-01-28 Microsoft Corporation Tiled projections for planar processing of round earth data
KR100914846B1 (en) 2007-12-15 2009-09-02 한국전자통신연구원 Method and system for texturing of 3d model in 2d environment
US8170367B2 (en) 2008-01-28 2012-05-01 Vistaprint Technologies Limited Representing flat designs to be printed on curves of a 3-dimensional product
WO2009097449A1 (en) 2008-01-29 2009-08-06 Enforcement Video, Llc Omnidirectional camera for use in police car event recording
US9305389B2 (en) 2008-02-28 2016-04-05 Autodesk, Inc. Reducing seam artifacts when applying a texture to a three-dimensional (3D) model
US8269765B2 (en) 2008-02-28 2012-09-18 Autodesk, Inc. System and method for removing seam artifacts
US8217956B1 (en) 2008-02-29 2012-07-10 Adobe Systems Incorporated Method and apparatus for rendering spherical panoramas
US20090262838A1 (en) 2008-04-21 2009-10-22 Qualcomm Incorporated Method and apparatus for encoding transmission data blocks for enhanced switching performance
KR20090129926A (en) 2008-06-13 2009-12-17 삼성전자주식회사 Method and apparatus for image encoding by dynamic unit grouping, and method and apparatus for image decoding by dynamic unit grouping
KR101595344B1 (en) 2008-08-01 2016-02-18 엘지전자 주식회사 Display module and portable terminal having the same
US8804821B2 (en) 2008-09-26 2014-08-12 Microsoft Corporation Adaptive video processing of an interactive environment
US20100079605A1 (en) 2008-09-29 2010-04-01 William Marsh Rice University Sensor-Assisted Motion Estimation for Efficient Video Encoding
US9596485B2 (en) 2008-10-27 2017-03-14 Sk Telecom Co., Ltd. Motion picture encoding/decoding apparatus, adaptive deblocking filtering apparatus and filtering method for same, and recording medium
KR101315456B1 (en) 2008-11-05 2013-10-04 삼성전자주식회사 Host apparatus connected to image forming apparatus, image forming system and modifying method of background for image forming apparatus
WO2010057170A1 (en) 2008-11-17 2010-05-20 Cernium Corporation Analytics-modulated coding of surveillance video
US8295360B1 (en) 2008-12-23 2012-10-23 Elemental Technologies, Inc. Method of efficiently implementing a MPEG-4 AVC deblocking filter on an array of parallel processors
US20100316129A1 (en) 2009-03-27 2010-12-16 Vixs Systems, Inc. Scaled motion search section with downscaling filter and method for use therewith
US8364561B2 (en) 2009-05-26 2013-01-29 Embodee Corp. Garment digitization system and method
US20130124156A1 (en) 2009-05-26 2013-05-16 Embodee Corp Footwear digitization system and method
KR20110001990A (en) 2009-06-30 2011-01-06 삼성전자주식회사 Apparatus and metohd of in loop filtering an image data and encoding/decoding apparatus using the same
KR101749269B1 (en) 2009-06-30 2017-06-22 삼성전자주식회사 Apparaus and method for video encoding and decoding apparatus using adaptive in loop filter
KR100988872B1 (en) 2009-07-08 2010-10-20 주식회사 나노포토닉스 Method and imaging system for obtaining complex images using rotationally symmetric wide-angle lens and image sensor for hardwired image processing
US9300969B2 (en) 2009-09-09 2016-03-29 Apple Inc. Video storage
JP5357685B2 (en) 2009-09-28 2013-12-04 株式会社ソニー・コンピュータエンタテインメント 3D object processing apparatus, 3D object processing method, program, and information storage medium
US20110128350A1 (en) 2009-11-30 2011-06-02 Motorola, Inc. Method and apparatus for choosing a desired field of view from a wide-angle image or video
US20110142306A1 (en) 2009-12-16 2011-06-16 Vivek Nair Method and system for generating a medical image
US9762795B2 (en) 2013-09-04 2017-09-12 Gyeongil Kweon Method and apparatus for obtaining rectilinear images using rotationally symmetric wide-angle lens
TWI562600B (en) * 2010-02-08 2016-12-11 Nokia Technologies Oy An apparatus, a method and a computer program for video coding
WO2011098664A1 (en) 2010-02-11 2011-08-18 Nokia Corporation Method and apparatus for providing multi-threaded video decoding
CN102812706B (en) 2010-03-16 2016-11-02 汤姆逊许可证公司 The method and apparatus selected for the hidden adaptive motion vector predictor candidates of Video coding and decoding
US20110235706A1 (en) 2010-03-25 2011-09-29 Texas Instruments Incorporated Region of interest (roi) video encoding
US9094658B2 (en) 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
US8660174B2 (en) 2010-06-15 2014-02-25 Mediatek Inc. Apparatus and method of adaptive offset for video coding
US8730267B2 (en) 2010-06-21 2014-05-20 Celsia, Llc Viewpoint change on a display device based on movement of the device
WO2012010220A2 (en) 2010-07-19 2012-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Filling disocclusions in a virtual view
JP5739531B2 (en) 2010-07-27 2015-06-24 テルコーディア テクノロジーズ インコーポレイテッド Interactive projection and playback of related media segments on 3D facets
WO2012040721A2 (en) 2010-09-24 2012-03-29 The Research Foundation Of State University Of New York Registration of scanned objects obtained from different orientations
US8902988B2 (en) 2010-10-01 2014-12-02 Qualcomm Incorporated Zero-out of high frequency coefficients and entropy coding retained coefficients using a joint context model
WO2012044709A1 (en) 2010-10-01 2012-04-05 General Instrument Corporation Coding and decoding utilizing picture boundary padding in flexible partitioning
RU2010144450A (en) 2010-10-29 2012-05-10 ЭлЭсАй Корпорейшн (US) ASSESSING MOTION FOR A VIDEO TRANSCODER
US9007432B2 (en) 2010-12-16 2015-04-14 The Massachusetts Institute Of Technology Imaging systems and methods for immersive surveillance
JP5631229B2 (en) 2011-01-31 2014-11-26 キヤノン株式会社 Imaging apparatus, control method thereof, and program
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
CA2828013C (en) 2011-02-25 2016-07-26 Blackberry Limited Methods and devices for data compression using offset-based adaptive reconstruction levels
US9288501B2 (en) 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
JP5891426B2 (en) 2011-03-31 2016-03-23 パナソニックIpマネジメント株式会社 An image drawing apparatus, an image drawing method, and an image drawing program for drawing an all-around stereoscopic image
US9071484B1 (en) 2011-04-05 2015-06-30 Elemental Technologies, Inc. Feedback optimized video coding parameters
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
US9360991B2 (en) 2011-04-11 2016-06-07 Microsoft Technology Licensing, Llc Three-dimensional icons for organizing, invoking, and using applications
US9247266B2 (en) 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
US20160286119A1 (en) 2011-04-18 2016-09-29 360fly, Inc. Mobile Device-Mountable Panoramic Camera System and Method of Displaying Images Captured Therefrom
US9288500B2 (en) 2011-05-12 2016-03-15 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
US8730930B2 (en) 2011-05-31 2014-05-20 Broadcom Corporation Polling using B-ACK for occasional back-channel traffic in VoWIFI applications
US9866859B2 (en) 2011-06-14 2018-01-09 Texas Instruments Incorporated Inter-prediction candidate index coding independent of inter-prediction candidate list construction in video coding
US8964008B2 (en) 2011-06-17 2015-02-24 Microsoft Technology Licensing, Llc Volumetric video presentation
US8484391B2 (en) 2011-06-20 2013-07-09 Intel Corporation Configurable buffer allocation for multi-format video processing
US10484693B2 (en) 2011-06-22 2019-11-19 Texas Instruments Incorporated Method and apparatus for sample adaptive offset parameter estimation for image and video coding
US9153031B2 (en) 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
US8989270B2 (en) * 2011-06-23 2015-03-24 Apple Inc. Optimized search for reference frames in predictive video coding system
JP5890520B2 (en) 2011-06-28 2016-03-22 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for predicting color difference component of image using luminance component of image
US20130003858A1 (en) 2011-06-30 2013-01-03 Vivienne Sze Simplified Context Selection For Entropy Coding of Transform Coefficient Syntax Elements
EP2732624A4 (en) 2011-07-12 2015-07-15 Intel Corp Luma-based chroma intra prediction
US10440373B2 (en) 2011-07-12 2019-10-08 Texas Instruments Incorporated Method and apparatus for coding unit partitioning
US8890863B1 (en) 2011-08-12 2014-11-18 Google Inc. Automatic method for photo texturing geolocated 3-D models from geolocated imagery
US8682091B2 (en) 2011-08-18 2014-03-25 International Business Machines Corporation Real-time image compression
US8804816B2 (en) 2011-08-30 2014-08-12 Microsoft Corporation Video encoding enhancements
US20130051467A1 (en) 2011-08-31 2013-02-28 Apple Inc. Hybrid inter/intra prediction in video coding systems
PL2754295T3 (en) 2011-09-09 2018-07-31 Sun Patent Trust Low complex deblocking filter decisions
US8988446B2 (en) 2011-10-07 2015-03-24 Zynga Inc. 2D animation from a 3D mesh
US8913656B2 (en) 2011-10-14 2014-12-16 Mediatek Inc. Method and apparatus for in-loop filtering
JP6308495B2 (en) 2011-10-19 2018-04-11 サン パテント トラスト Image decoding method and image decoding apparatus
US9510020B2 (en) 2011-10-20 2016-11-29 Qualcomm Incorporated Intra pulse code modulation (IPCM) and lossless coding mode deblocking for video coding
US8504941B2 (en) 2011-10-31 2013-08-06 Utc Fire & Security Corporation Digital image magnification user interface
US9253482B2 (en) 2011-11-08 2016-02-02 Texas Insturments Incorporated Method and apparatus for sample adaptive offset without sign coding
US20130128986A1 (en) 2011-11-23 2013-05-23 Mediatek Inc. Method and Apparatus of Slice Boundary Padding for Loop Filtering
KR20130058584A (en) 2011-11-25 2013-06-04 삼성전자주식회사 Method and apparatus for encoding image, and method and apparatus for decoding image to manage buffer of decoder
US9723223B1 (en) 2011-12-02 2017-08-01 Amazon Technologies, Inc. Apparatus and method for panoramic video hosting with directional audio
US9838687B1 (en) 2011-12-02 2017-12-05 Amazon Technologies, Inc. Apparatus and method for panoramic video hosting with reduced bandwidth streaming
US20130141526A1 (en) 2011-12-02 2013-06-06 Stealth HD Corp. Apparatus and Method for Video Image Stitching
US9404764B2 (en) 2011-12-30 2016-08-02 Here Global B.V. Path side imagery
WO2013102293A1 (en) 2012-01-04 2013-07-11 Mediatek Singapore Pte. Ltd. Improvements of luma-based chroma intra prediction
US9749661B2 (en) 2012-01-18 2017-08-29 Qualcomm Incorporated Sub-streams for wavefront parallel processing in video coding
US9729870B2 (en) 2012-01-31 2017-08-08 Apple Inc. Video coding efficiency with camera metadata
NZ616358A (en) 2012-02-03 2015-03-27 Mediatek Inc Method and apparatus for loop filtering cross tile or slice boundaries
US9423994B2 (en) 2012-02-22 2016-08-23 Citrix Systems, Inc. Hierarchical display
US10536726B2 (en) * 2012-02-24 2020-01-14 Apple Inc. Pixel patch collection for prediction in video coding system
US11263823B2 (en) 2012-02-24 2022-03-01 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
WO2013140722A1 (en) 2012-03-21 2013-09-26 パナソニック株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device
US20130251028A1 (en) 2012-03-22 2013-09-26 The Hong Kong University Of Science And Technology Video encoding and decoding with channel prediction and error correction capability
WO2013150838A1 (en) 2012-04-05 2013-10-10 ソニー株式会社 Image processing device and image processing method
US10721487B2 (en) 2012-04-17 2020-07-21 Texas Instruments Incorporated Converting a bi-predicted merging candidate in a merging candidate list for a prediction unit of a picture
US9591312B2 (en) 2012-04-17 2017-03-07 Texas Instruments Incorporated Memory bandwidth reduction for motion compensation in video coding
US9451163B2 (en) 2012-05-11 2016-09-20 Qualcomm Incorporated Motion sensor assisted rate control for video encoding
US9256961B2 (en) 2012-06-28 2016-02-09 Here Global B.V. Alternate viewpoint image enhancement
US9467653B2 (en) 2012-06-29 2016-10-11 Avaya Inc. System and method for aggressive downstream bandwidth conservation based on user inactivity
CN108933943B (en) 2012-07-02 2020-12-25 太阳专利托管公司 Image encoding method and image encoding device
US9264710B2 (en) 2012-07-06 2016-02-16 Texas Instruments Incorporated Method and system for video picture intra-prediction estimation
GB2505912B (en) 2012-09-14 2015-10-07 Canon Kk Method and device for generating a description file, and corresponding streaming method
US9898829B2 (en) 2012-09-18 2018-02-20 Hanwha Techwin Co., Ltd. Monitoring apparatus and system using 3D information of images and monitoring method using the same
US8880563B2 (en) 2012-09-21 2014-11-04 Adobe Systems Incorporated Image search by query object segmentation
EP3255890B1 (en) 2012-09-27 2020-08-19 Dolby Laboratories Licensing Corporation Inter-layer reference picture processing for coding-standard scalability
US8989508B2 (en) 2012-09-28 2015-03-24 Sharp Kabushiki Kaisha Electronic device for signaling a sub-picture buffer parameter
US20140368669A1 (en) 2012-10-04 2014-12-18 Google Inc. Gpu-accelerated background replacement
US9819965B2 (en) 2012-11-13 2017-11-14 Intel Corporation Content adaptive transform coding for next generation video
US9253503B2 (en) 2012-12-18 2016-02-02 Xerox Corporation Computationally efficient motion estimation with learning capabilities for video compression in transportation and regularized environments
JP6044328B2 (en) 2012-12-26 2016-12-14 株式会社リコー Image processing system, image processing method, and program
US9639635B2 (en) 2013-01-02 2017-05-02 Embodee Corp Footwear digitization system and method
EP2947879B1 (en) 2013-01-17 2018-11-07 Samsung Electronics Co., Ltd. Method for decoding video on basis of decoder setting
US20140218356A1 (en) 2013-02-06 2014-08-07 Joshua D.I. Distler Method and apparatus for scaling images
CN104020935A (en) 2013-02-28 2014-09-03 国际商业机器公司 Method and device used for controlling display object on display screen
US9398302B2 (en) 2013-03-08 2016-07-19 Mediatek Inc. Image encoding method and apparatus with rate control by selecting target bit budget from pre-defined candidate bit budgets and related image decoding method and apparatus
CN105580369B (en) 2013-03-11 2019-04-26 杜比实验室特许公司 The method, apparatus and system of encoding and decoding are carried out to multi-format high dynamic range video using hierarchical coding
JP2014176034A (en) 2013-03-12 2014-09-22 Ricoh Co Ltd Video transmission device
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9013536B2 (en) 2013-03-13 2015-04-21 Futurewei Technologies, Inc. Augmented video calls on mobile devices
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US10205962B2 (en) 2013-03-15 2019-02-12 Raymond Zenkich System and method for non-uniform video coding
US9854252B2 (en) 2013-05-20 2017-12-26 Texas Instruments Incorporated Method and apparatus of HEVC de-blocking filter
US10015515B2 (en) 2013-06-21 2018-07-03 Qualcomm Incorporated Intra prediction from a predictive block
AU2013206597A1 (en) 2013-06-28 2015-01-22 Canon Kabushiki Kaisha Depth constrained superpixel-based depth map refinement
WO2015005621A1 (en) 2013-07-07 2015-01-15 주식회사 윌러스표준기술연구소 Method and apparatus for processing video signal
US9055186B2 (en) 2013-07-23 2015-06-09 Personify, Inc Systems and methods for integrating user personas with content during video conferencing
JP6091371B2 (en) 2013-07-29 2017-03-08 ローランドディー.ジー.株式会社 Slice data creation device, slice data creation method, program, and computer-readable recording medium
WO2015030221A1 (en) 2013-08-28 2015-03-05 Ricoh Company, Ltd. Image processing apparatus, image processing method, and imaging system
US20150089348A1 (en) 2013-09-23 2015-03-26 Yahoo! Inc. System and method for web page background image delivery
US9819941B2 (en) 2013-10-10 2017-11-14 Qualcomm Incorporated Signaling for sub-decoded picture buffer (sub-DPB) based DPB operations in video coding
KR20150056679A (en) * 2013-11-15 2015-05-27 광운대학교 산학협력단 Apparatus and method for construction of inter-layer reference picture in multi-layer video coding
CA2931529C (en) 2013-11-27 2022-08-23 Children's National Medical Center 3d corrected imaging
CN104683801B (en) 2013-11-29 2018-06-05 华为技术有限公司 Method for compressing image and device
US9781356B1 (en) 2013-12-16 2017-10-03 Amazon Technologies, Inc. Panoramic video viewer
US9756337B2 (en) * 2013-12-17 2017-09-05 Qualcomm Incorporated Signaling color values for 3D lookup table for color gamut scalability in multi-layer video coding
US9414016B2 (en) 2013-12-31 2016-08-09 Personify, Inc. System and methods for persona identification using combined probability maps
EP3092806A4 (en) 2014-01-07 2017-08-23 Nokia Technologies Oy Method and apparatus for video coding and decoding
US9883197B2 (en) 2014-01-09 2018-01-30 Qualcomm Incorporated Intra prediction of chroma blocks using the same vector
US20150215631A1 (en) 2014-01-23 2015-07-30 Broadcom Corporation Parallel Coding with Overlapped Tiles
KR102149448B1 (en) 2014-02-21 2020-08-28 삼성전자주식회사 Electronic device and method for processing image
JP2015170994A (en) 2014-03-07 2015-09-28 ソニー株式会社 Image processor and method, image encoder and method, and image decoder and method
US10250895B2 (en) 2014-03-14 2019-04-02 Sharp Kabushiki Kaisha DPB capacity limits
US9756354B2 (en) 2014-03-17 2017-09-05 Qualcomm Incorporated Block vector predictor for intra block copying
US20150264404A1 (en) 2014-03-17 2015-09-17 Nokia Technologies Oy Method and apparatus for video coding and decoding
GB2524249B (en) 2014-03-17 2021-01-20 Sony Interactive Entertainment Inc Image Processing
US10477232B2 (en) 2014-03-21 2019-11-12 Qualcomm Incorporated Search region determination for intra block copy in video coding
US20150279121A1 (en) 2014-03-27 2015-10-01 Knockout Concepts, Llc Active Point Cloud Modeling
GB2525448B (en) * 2014-04-27 2018-01-24 Gurulogic Microsystems Oy Encoder and decoder
GB2526263B (en) 2014-05-08 2019-02-06 Sony Interactive Entertainment Europe Ltd Image capture method and apparatus
US9986154B2 (en) 2014-05-21 2018-05-29 Here Global B.V. Developing a panoramic image
US10104397B2 (en) 2014-05-28 2018-10-16 Mediatek Inc. Video processing apparatus for storing partial reconstructed pixel data in storage device for use in intra prediction and related video processing method
US9918136B2 (en) 2014-05-29 2018-03-13 Nextvr Inc. Methods and apparatus for delivering content and/or playing back content
KR102407283B1 (en) 2014-05-29 2022-06-10 네버마인드 캐피탈 엘엘씨 Methods and apparatus for delivering content and/or playing back content
US9596899B2 (en) 2014-06-09 2017-03-21 GroupeSTAHL Apparatuses and methods of interacting with 2D design documents and 3D models and generating production textures for wrapping artwork around portions of 3D objects
CN110913217B (en) 2014-06-19 2022-01-25 Vid拓展公司 System and method for three-dimensional color mapping model parameter optimization
US9930341B2 (en) 2014-06-20 2018-03-27 Qualcomm Incorporated Block vector coding for intra block copying
EP3162075B1 (en) 2014-06-27 2020-04-08 Koninklijke KPN N.V. Hevc-tiled video streaming
US10204658B2 (en) 2014-07-14 2019-02-12 Sony Interactive Entertainment Inc. System and method for use in playing back panorama video content
CN104156947B (en) 2014-07-23 2018-03-16 小米科技有限责任公司 Image partition method, device and equipment
CN105794197A (en) 2014-07-28 2016-07-20 联发科技股份有限公司 Portable device capable of generating panoramic file
JP6642432B2 (en) 2014-07-31 2020-02-05 ソニー株式会社 Information processing apparatus, information processing method, and image display system
CN106716985B (en) 2014-09-08 2019-07-30 富士胶片株式会社 Video camera controller, camera shooting control method and camera system
GB2520822B (en) 2014-10-10 2016-01-13 Aveva Solutions Ltd Image rendering of laser scan data
US9917877B2 (en) 2014-10-20 2018-03-13 Google Llc Streaming the visible parts of a spherical video
KR102309281B1 (en) 2014-11-07 2021-10-08 삼성전자주식회사 Direction Based Device for Displaying Object and Method Thereof
US10104361B2 (en) 2014-11-14 2018-10-16 Samsung Electronics Co., Ltd. Coding of 360 degree videos using region adaptive smoothing
US10237559B2 (en) 2014-11-20 2019-03-19 Getgo, Inc. Layer-based video decoding
EP3029937B1 (en) 2014-12-03 2016-11-16 Axis AB Method and encoder for video encoding of a sequence of frames
US9866815B2 (en) 2015-01-05 2018-01-09 Qualcomm Incorporated 3D object segmentation
CN104539962B (en) 2015-01-20 2017-12-01 北京工业大学 It is a kind of merge visually-perceptible feature can scalable video coding method
US10070130B2 (en) 2015-01-30 2018-09-04 Qualcomm Incorporated Flexible partitioning of prediction units
JP5846549B1 (en) 2015-02-06 2016-01-20 株式会社リコー Image processing system, image processing method, program, imaging system, image generation apparatus, image generation method and program
US10362290B2 (en) 2015-02-17 2019-07-23 Nextvr Inc. Methods and apparatus for processing content based on viewing information and/or communicating content
WO2016134048A1 (en) 2015-02-17 2016-08-25 Nextvr Inc. Methods and apparatus for generating and using reduced resolution images and/or communicating such images to a playback or content distribution device
WO2016140439A1 (en) 2015-03-02 2016-09-09 엘지전자(주) Method and device for encoding and decoding video signal by using improved prediction filter
WO2016140083A1 (en) 2015-03-05 2016-09-09 ソニー株式会社 Image processing device and image processing method
EP3267687B1 (en) * 2015-03-05 2021-10-20 Sony Group Corporation Image processing device and image processing method
US10666979B2 (en) 2015-03-05 2020-05-26 Sony Corporation Image processing device and image processing method for encoding/decoding omnidirectional image divided vertically
JP5920507B1 (en) 2015-03-10 2016-05-18 株式会社リコー Image processing system, image processing method, and program
US9232189B2 (en) 2015-03-18 2016-01-05 Avatar Merger Sub Ii, Llc. Background modification in video conferencing
US9754413B1 (en) 2015-03-26 2017-09-05 Google Inc. Method and system for navigating in panoramic images using voxel maps
JP6491957B2 (en) 2015-05-25 2019-03-27 京セラ株式会社 Electronic apparatus and image processing method
US10038887B2 (en) 2015-05-27 2018-07-31 Google Llc Capture and render of panoramic virtual reality content
US20160353146A1 (en) 2015-05-27 2016-12-01 Google Inc. Method and apparatus to reduce spherical video bandwidth to user headset
JP6501904B2 (en) 2015-05-27 2019-04-17 グーグル エルエルシー Spherical video streaming
US9866752B2 (en) 2015-06-02 2018-01-09 Qualcomm Incorporated Systems and methods for producing a combined view from fisheye cameras
GB2538998A (en) 2015-06-03 2016-12-07 Nokia Technologies Oy A method, an apparatus, a computer program for video coding
WO2016195460A1 (en) 2015-06-05 2016-12-08 한양대학교 산학협력단 Method and device for encoding and decoding intra-frame prediction
CN115086652A (en) 2015-06-05 2022-09-20 杜比实验室特许公司 Image encoding and decoding method and image decoding apparatus
WO2016200115A1 (en) 2015-06-07 2016-12-15 엘지전자(주) Method and device for performing deblocking filtering
US10321162B2 (en) * 2015-06-08 2019-06-11 Qualcomm Incorporated Derivation of color gamut scalability parameters and tables in scalable video coding
US10448015B2 (en) 2015-06-16 2019-10-15 Lg Electronics Inc. Method and device for performing adaptive filtering according to block boundary
CN107683605B (en) 2015-06-24 2021-12-03 索尼公司 Encoding device, decoding device, and transmission control method
JP6677098B2 (en) 2015-07-01 2020-04-08 株式会社リコー Spherical video shooting system and program
KR20230128138A (en) 2015-07-08 2023-09-01 인터디지털 매디슨 페턴트 홀딩스 에스에이에스 Enhanced chroma coding using cross plane filtering
CN108141593B (en) 2015-07-31 2022-05-03 港大科桥有限公司 Depth discontinuity-based method for efficient intra coding for depth video
US20170038942A1 (en) 2015-08-07 2017-02-09 Vrideo Playback initialization tool for panoramic videos
US9277122B1 (en) 2015-08-13 2016-03-01 Legend3D, Inc. System and method for removing camera rotation from a panoramic video
US20170054907A1 (en) 2015-08-21 2017-02-23 Yoshito NISHIHARA Safety equipment, image communication system, method for controlling light emission, and non-transitory recording medium
US9967577B2 (en) 2015-08-31 2018-05-08 Microsoft Technology Licensing, Llc Acceleration interface for video decoding
WO2017039501A1 (en) 2015-09-01 2017-03-09 Telefonaktiebolaget Lm Ericsson (Publ) Spatial improvement of transform blocks
US10491711B2 (en) 2015-09-10 2019-11-26 EEVO, Inc. Adaptive streaming of virtual reality data
US9781350B2 (en) 2015-09-28 2017-10-03 Qualcomm Incorporated Systems and methods for performing automatic zoom
US20170104927A1 (en) 2015-10-07 2017-04-13 Little Star Media, Inc. Systems, methods and software programs for 360 degree video distribution platforms
US20170026659A1 (en) 2015-10-13 2017-01-26 Mediatek Inc. Partial Decoding For Arbitrary View Angle And Line Buffer Reduction For Virtual Reality Video
US10152825B2 (en) 2015-10-16 2018-12-11 Fyusion, Inc. Augmenting multi-view image data with synthetic objects using IMU and image data
GB2543766B (en) 2015-10-26 2018-02-14 Advanced Risc Mach Ltd Graphics processing systems
US10277858B2 (en) 2015-10-29 2019-04-30 Microsoft Technology Licensing, Llc Tracking object of interest in an omnidirectional video
US9948893B2 (en) 2015-11-18 2018-04-17 Avaya Inc. Background replacement based on attribute of remote user or endpoint
CN115118965A (en) 2015-11-20 2022-09-27 韩国电子通信研究院 Method for encoding/decoding image and method for storing bit stream
US10701396B2 (en) * 2015-11-23 2020-06-30 Electronics And Telecommunications Research Institute Multi-viewpoint video encoding/decoding method
WO2017116952A1 (en) 2015-12-29 2017-07-06 Dolby Laboratories Licensing Corporation Viewport independent image coding and rendering
US20170200315A1 (en) 2016-01-07 2017-07-13 Brendan Lockhart Live stereoscopic panoramic virtual reality streaming system
US10282814B2 (en) 2016-01-07 2019-05-07 Mediatek Inc. Method and apparatus of image formation and compression of cubic images for 360 degree panorama display
CN109121466B (en) 2016-01-22 2022-09-02 北京达佳互联信息技术有限公司 Omnidirectional video coding and streaming
US9992502B2 (en) 2016-01-29 2018-06-05 Gopro, Inc. Apparatus and methods for video compression using multi-resolution scalable coding
JP6665558B2 (en) 2016-01-29 2020-03-13 株式会社リコー Image management system, image management method, image communication system, and program
US20170230668A1 (en) 2016-02-05 2017-08-10 Mediatek Inc. Method and Apparatus of Mode Information Reference for 360-Degree VR Video
US10728546B2 (en) 2016-02-05 2020-07-28 Apple Inc. Sample adaptive offset systems and methods
US10509954B2 (en) 2016-02-10 2019-12-17 Intel Corporation Method and system of image segmentation refinement for image processing
US10147224B2 (en) 2016-02-16 2018-12-04 Samsung Electronics Co., Ltd. Method and apparatus for generating omni media texture mapping metadata
US9743060B1 (en) 2016-02-22 2017-08-22 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US10334224B2 (en) 2016-02-19 2019-06-25 Alcacruz Inc. Systems and method for GPU based virtual reality video streaming server
US10484621B2 (en) 2016-02-29 2019-11-19 Gopro, Inc. Systems and methods for compressing video content
US20170272758A1 (en) 2016-03-16 2017-09-21 Mediatek Inc. Video encoding method and apparatus using independent partition coding and associated video decoding method and apparatus
US10319071B2 (en) * 2016-03-23 2019-06-11 Qualcomm Incorporated Truncated square pyramid geometry and frame packing structure for representing virtual reality video content
US10878545B2 (en) 2016-03-29 2020-12-29 Sony Corporation Information processing device, imaging apparatus, image reproduction apparatus, and method and program
US9990775B2 (en) 2016-03-31 2018-06-05 Verizon Patent And Licensing Inc. Methods and systems for point-to-multipoint delivery of independently-controllable interactive media content
US10275928B2 (en) 2016-04-05 2019-04-30 Qualcomm Incorporated Dual fisheye image stitching for spherical image content
US10645362B2 (en) * 2016-04-11 2020-05-05 Gopro, Inc. Systems, methods and apparatus for compressing video content
US10834419B2 (en) 2016-04-13 2020-11-10 Qualcomm Incorporated Conformance constraint for collocated reference index in video coding
US9940697B2 (en) 2016-04-15 2018-04-10 Gopro, Inc. Systems and methods for combined pipeline processing of panoramic images
US20170302714A1 (en) 2016-04-15 2017-10-19 Diplloid Inc. Methods and systems for conversion, playback and tagging and streaming of spherical images and video
US10685542B2 (en) 2016-04-26 2020-06-16 Sensormatic Electronics, LLC System and method for monitoring a premises based on parsed codec data
KR20170124811A (en) 2016-05-03 2017-11-13 삼성전자주식회사 Image display apparatus and operating method for the same
KR20170124814A (en) 2016-05-03 2017-11-13 삼성전자주식회사 Image display apparatus and operating method for the same
CN109076241B (en) 2016-05-04 2023-06-23 微软技术许可有限责任公司 Intra picture prediction using non-adjacent reference lines of sample values
US10249019B2 (en) 2016-05-06 2019-04-02 Mediatek Inc. Method and apparatus for mapping omnidirectional image to a layout output format
WO2017195650A1 (en) 2016-05-13 2017-11-16 ソニー株式会社 Generation device and generation method, and reproduction device and reproduction method
US10602191B2 (en) 2016-05-13 2020-03-24 Gopro, Inc. Apparatus and methods for video compression
GB2550372B (en) 2016-05-17 2022-01-19 Nctech Ltd Imaging system having multiple imaging sensors and an associated method of operation
US10582201B2 (en) 2016-05-19 2020-03-03 Qualcomm Incorporated Most-interested region in an image
US10681326B2 (en) 2016-05-19 2020-06-09 AVAGO TECHNOLOGlES INTERNATIONAL SALES PTE. LIMITED 360 degree video system with coordinate compression
US11019257B2 (en) 2016-05-19 2021-05-25 Avago Technologies International Sales Pte. Limited 360 degree video capture and playback
US10848668B2 (en) 2016-05-19 2020-11-24 Avago Technologies International Sales Pte. Limited 360 degree video recording and playback with object tracking
US10979691B2 (en) 2016-05-20 2021-04-13 Qualcomm Incorporated Circular fisheye video in virtual reality
US10565463B2 (en) 2016-05-24 2020-02-18 Qualcomm Incorporated Advanced signaling of a most-interested region in an image
US9639935B1 (en) 2016-05-25 2017-05-02 Gopro, Inc. Apparatus and methods for camera alignment model calibration
US20170353737A1 (en) 2016-06-07 2017-12-07 Mediatek Inc. Method and Apparatus of Boundary Padding for VR Video Processing
US11025933B2 (en) 2016-06-09 2021-06-01 Apple Inc. Dynamic video configurations
US10368067B2 (en) 2016-06-15 2019-07-30 Mediatek Inc. Method and apparatus for selective filtering of cubic-face frames
US10269092B2 (en) 2016-06-17 2019-04-23 Nec Corporation Image processing device, image processing method, and storage medium
JP6780315B2 (en) 2016-06-22 2020-11-04 カシオ計算機株式会社 Projection device, projection system, projection method and program
US10277914B2 (en) 2016-06-23 2019-04-30 Qualcomm Incorporated Measuring spherical image quality metrics based on user field of view
US10460501B2 (en) 2016-07-04 2019-10-29 Liquid Cinema Inc., Canada System and method for processing digital video
US10297086B2 (en) 2016-07-04 2019-05-21 Liquid Cinema Inc. System and method for processing digital video
US20180020238A1 (en) 2016-07-15 2018-01-18 Mediatek Inc. Method and apparatus for video coding
US20180018807A1 (en) 2016-07-15 2018-01-18 Aspeed Technology Inc. Method and apparatus for generating panoramic image with texture mapping
US10375371B2 (en) 2016-07-15 2019-08-06 Mediatek Inc. Method and apparatus for filtering 360-degree video boundaries
US10277886B2 (en) 2016-07-19 2019-04-30 Gopro, Inc. Mapping of spherical image data into rectangular faces for transport and decoding across networks
US10339688B2 (en) 2016-07-28 2019-07-02 Cyberlink Corp. Systems and methods for rendering effects in 360 video
US10055882B2 (en) 2016-08-15 2018-08-21 Aquifi, Inc. System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
KR102567002B1 (en) 2016-08-16 2023-08-14 삼성전자주식회사 Image display apparatus and operating method for the same
KR102437742B1 (en) 2016-08-21 2022-08-29 엘지전자 주식회사 Video encoding/decoding method and apparatus therefor
US20180054613A1 (en) 2016-08-22 2018-02-22 Mediatek Inc. Video encoding method and apparatus with in-loop filtering process not applied to reconstructed blocks located at image content discontinuity edge and associated video decoding method and apparatus
WO2018038520A1 (en) 2016-08-25 2018-03-01 엘지전자 주식회사 Method for transmitting omnidirectional video, method for receiving omnidirectional video, apparatus for transmitting omnidirectional video, and apparatus for receiving omnidirectional video,
KR102358757B1 (en) 2016-08-25 2022-02-07 엘지전자 주식회사 method for transmitting omnidirectional video, method for receiving omnidirectional video, omnidirectional video transmission device, omnidirectional video receiving device
US11153594B2 (en) 2016-08-29 2021-10-19 Apple Inc. Multidimensional quantization techniques for video coding/decoding systems
US20180075576A1 (en) 2016-09-09 2018-03-15 Mediatek Inc. Packing projected omnidirectional videos
KR20180028782A (en) 2016-09-09 2018-03-19 삼성전자주식회사 Electronic apparatus and operating method for the same
KR102560029B1 (en) 2016-09-12 2023-07-26 삼성전자주식회사 A method and apparatus for transmitting and receiving virtual reality content
KR20180029315A (en) 2016-09-12 2018-03-21 삼성전자주식회사 Image processing method and apparatus for projecting an image of virtual reality content
KR102545195B1 (en) 2016-09-12 2023-06-19 삼성전자주식회사 Method and apparatus for delivering and playbacking content in virtual reality system
US10313686B2 (en) 2016-09-20 2019-06-04 Gopro, Inc. Apparatus and methods for compressing video content using adaptive projection selection
US20180091812A1 (en) 2016-09-23 2018-03-29 Apple Inc. Video compression system providing selection of deblocking filters parameters based on bit-depth of video data
CN107888928B (en) 2016-09-30 2020-02-14 华为技术有限公司 Motion compensated prediction method and apparatus
US20190253624A1 (en) 2017-07-17 2019-08-15 Ki Baek Kim Image data encoding/decoding method and apparatus
CN113873261B (en) 2016-10-04 2022-12-27 有限公司B1影像技术研究所 Image data encoding/decoding method and apparatus
CN114531586A (en) 2016-10-04 2022-05-24 有限公司B1影像技术研究所 Image data encoding/decoding method, medium, and method of transmitting bit stream
US20190238888A1 (en) 2017-07-17 2019-08-01 Ki Baek Kim Image data encoding/decoding method and apparatus
US20180098090A1 (en) 2016-10-04 2018-04-05 Mediatek Inc. Method and Apparatus for Rearranging VR Video Format and Constrained Encoding Parameters
WO2018066849A1 (en) 2016-10-04 2018-04-12 한국전자통신연구원 Method and device for encoding/decoding image, and recording medium storing bit stream
KR20240051314A (en) 2016-10-04 2024-04-19 주식회사 비원영상기술연구소 Image data encoding/decoding method and apparatus
US10339627B2 (en) 2016-10-10 2019-07-02 Gopro, Inc. Apparatus and methods for the optimal stitch zone calculation of a generated projection of a spherical image
US10652284B2 (en) 2016-10-12 2020-05-12 Samsung Electronics Co., Ltd. Method and apparatus for session control support for field of view virtual reality streaming
US20180109810A1 (en) 2016-10-17 2018-04-19 Mediatek Inc. Method and Apparatus for Reference Picture Generation and Management in 3D Video Compression
US10432856B2 (en) 2016-10-27 2019-10-01 Mediatek Inc. Method and apparatus of video compression for pre-stitched panoramic contents
US20180130264A1 (en) 2016-11-04 2018-05-10 Arnoovo Inc. Virtual reality editor
KR20180051288A (en) 2016-11-08 2018-05-16 삼성전자주식회사 Display apparatus and control method thereof
KR102633595B1 (en) 2016-11-21 2024-02-05 삼성전자주식회사 Display apparatus and the control method thereof
CN108111851B (en) 2016-11-25 2020-12-22 华为技术有限公司 Deblocking filtering method and terminal
CN116320497A (en) 2016-11-28 2023-06-23 韩国电子通信研究院 Method and apparatus for filtering
KR20180060236A (en) 2016-11-28 2018-06-07 엘지전자 주식회사 Mobile terminal and operating method thereof
US10244200B2 (en) 2016-11-29 2019-03-26 Microsoft Technology Licensing, Llc View-dependent operations during playback of panoramic video
EP3334164B1 (en) 2016-12-09 2019-08-21 Nokia Technologies Oy A method and an apparatus and a computer program product for video encoding and decoding
US20180167634A1 (en) 2016-12-09 2018-06-14 Nokia Technologies Oy Method and an apparatus and a computer program product for video encoding and decoding
US9996945B1 (en) 2016-12-12 2018-06-12 Fyusion, Inc. Live augmented reality guides
US10620441B2 (en) 2016-12-14 2020-04-14 Qualcomm Incorporated Viewport-aware quality metric for 360-degree video
KR20180071012A (en) 2016-12-19 2018-06-27 삼성전자주식회사 Electronic apparatus and controlling method thereof
US20180176468A1 (en) 2016-12-19 2018-06-21 Qualcomm Incorporated Preferred rendering of signalled regions-of-interest or viewports in virtual reality video
US10242714B2 (en) 2016-12-19 2019-03-26 Microsoft Technology Licensing, Llc Interface for application-specified playback of panoramic video
JP2018107500A (en) 2016-12-22 2018-07-05 キヤノン株式会社 Coding device, coding method, program, decoding device, decoding method, and program
US20180184101A1 (en) 2016-12-23 2018-06-28 Apple Inc. Coding Mode Selection For Predictive Video Coder/Decoder Systems In Low-Latency Communication Environments
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US10277897B1 (en) 2017-01-03 2019-04-30 Google Llc Signaling in-loop restoration filters for video coding
US20180192074A1 (en) 2017-01-03 2018-07-05 Mediatek Inc. Video processing method for processing projection-based frame with 360-degree content represented by projection faces packed in 360-degree virtual reality projection layout
JP6756269B2 (en) 2017-01-05 2020-09-16 株式会社リコー Communication terminals, image communication systems, communication methods, and programs
US10536721B2 (en) 2017-01-09 2020-01-14 Qualcomm Incorporated Restricted scheme design for video
US10313664B2 (en) 2017-01-11 2019-06-04 Qualcomm Incorporated Adjusting field of view of truncated square pyramid projection for 360-degree video
US10104288B2 (en) 2017-02-08 2018-10-16 Aspeed Technology Inc. Method and apparatus for generating panoramic image with stitching process
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US20180242016A1 (en) 2017-02-21 2018-08-23 Intel Corporation Deblock filtering for 360 video
WO2018156243A1 (en) 2017-02-22 2018-08-30 Twitter, Inc. Transcoding video
US20180240276A1 (en) 2017-02-23 2018-08-23 Vid Scale, Inc. Methods and apparatus for personalized virtual reality media interface design
CN108470379B (en) 2017-02-23 2021-12-07 株式会社理光 Three-dimensional image fusion method and device
CN108513119A (en) 2017-02-27 2018-09-07 阿里巴巴集团控股有限公司 Mapping, processing method, device and the machine readable media of image
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11172208B2 (en) 2017-02-28 2021-11-09 Nokia Technologies Oy Method and apparatus for improving the visual quality of viewport-based omnidirectional video streaming
CN108537721B (en) 2017-03-02 2021-09-07 株式会社理光 Panoramic image processing method and device and electronic equipment
KR101808327B1 (en) 2017-03-08 2017-12-13 광운대학교 산학협력단 Video encoding/decoding method and apparatus using paddding in video codec
US10681271B2 (en) 2017-03-15 2020-06-09 Ricoh Company, Ltd. Image processing apparatus, image capturing system, image processing method, and recording medium
US10643301B2 (en) 2017-03-20 2020-05-05 Qualcomm Incorporated Adaptive perturbed cube map projection
WO2018174617A1 (en) 2017-03-22 2018-09-27 한국전자통신연구원 Block form-based prediction method and device
US10957044B2 (en) 2017-03-22 2021-03-23 Qualcomm Incorporated Sphere pole projections for efficient compression of 360-degree video
CN117425006A (en) 2017-03-22 2024-01-19 韩国电子通信研究院 Prediction method and apparatus using reference block
US10839480B2 (en) 2017-03-22 2020-11-17 Qualcomm Incorporated Sphere equator projection for efficient compression of 360-degree video
US11532128B2 (en) 2017-03-23 2022-12-20 Qualcomm Incorporated Advanced signaling of regions of interest in omnidirectional visual media
WO2018178507A1 (en) 2017-03-27 2018-10-04 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US10506255B2 (en) 2017-04-01 2019-12-10 Intel Corporation MV/mode prediction, ROI-based transmit, metadata capture, and format detection for 360 video
TWI832814B (en) 2017-04-06 2024-02-21 美商松下電器(美國)知識產權公司 Decoding device and encoding device
US10587800B2 (en) 2017-04-10 2020-03-10 Intel Corporation Technology to encode 360 degree video content
KR20230079466A (en) 2017-04-11 2023-06-07 브이아이디 스케일, 인크. 360-degree video coding using face continuities
US10567768B2 (en) 2017-04-14 2020-02-18 Apple Inc. Techniques for calculation of quantization matrices in video coding
WO2018194273A1 (en) 2017-04-21 2018-10-25 Samsung Electronics Co., Ltd. Image display apparatus and method
WO2018199701A1 (en) 2017-04-28 2018-11-01 Samsung Electronics Co., Ltd. Method for providing content and apparatus therefor
KR102628508B1 (en) 2017-05-04 2024-01-24 한국전자통신연구원 Image processing apparatus and method
US10375375B2 (en) 2017-05-15 2019-08-06 Lg Electronics Inc. Method of providing fixed region information or offset region information for subtitle in virtual reality system and device for controlling the same
JP6919334B2 (en) 2017-05-26 2021-08-18 株式会社リコー Image processing device, image processing method, program
US10200687B2 (en) 2017-06-02 2019-02-05 Apple Inc. Sample adaptive offset for high dynamic range (HDR) video compression
US10873763B2 (en) 2017-06-02 2020-12-22 Apple Inc. Video compression techniques for high dynamic range data
US10199074B2 (en) 2017-06-02 2019-02-05 Apple Inc. Techniques for selecting frames for decode in media player
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10212456B2 (en) 2017-06-02 2019-02-19 Apple Inc. Deblocking filter for high dynamic range (HDR) video
US10321109B1 (en) 2017-06-13 2019-06-11 Vulcan Inc. Large volume video data transfer over limited capacity bus
US10778993B2 (en) 2017-06-23 2020-09-15 Mediatek Inc. Methods and apparatus for deriving composite tracks with track grouping
EP3422724B1 (en) 2017-06-26 2024-05-01 Nokia Technologies Oy An apparatus, a method and a computer program for omnidirectional video
US10764582B2 (en) 2017-06-29 2020-09-01 Qualcomm Incorporated Reducing seam artifacts in 360-degree video
US10523913B2 (en) 2017-06-30 2019-12-31 Apple Inc. Packed image format for multi-directional video
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
US10484682B2 (en) 2017-07-03 2019-11-19 Qualcomm Incorporated Reference picture derivation and motion compensation for 360-degree video coding
SG11202100010SA (en) 2017-07-03 2021-02-25 Univ Hanyang Ind Univ Coop Found Method and device for decoding image by using partition unit including additional region
WO2019009448A1 (en) 2017-07-06 2019-01-10 삼성전자 주식회사 Method and device for encoding or decoding image
JP6721631B2 (en) 2017-07-07 2020-07-15 ノキア テクノロジーズ オーユー Video encoding/decoding method, device, and computer program product
US10701263B2 (en) 2017-07-18 2020-06-30 Ricoh Company, Ltd. Browsing system, image distribution apparatus, and image distribution method
US20190045212A1 (en) 2017-08-07 2019-02-07 The Regents Of The University Of California METHOD AND APPARATUS FOR PREDICTIVE CODING OF 360º VIDEO
CN108520232B (en) 2017-08-16 2020-07-24 威盛电子股份有限公司 Method and device for generating three-dimensional panoramic film
EP3451670A1 (en) 2017-08-28 2019-03-06 Thomson Licensing Method and apparatus for filtering with mode-aware deep learning
US10623744B2 (en) 2017-10-04 2020-04-14 Apple Inc. Scene based rate control for video compression and video streaming
US10102611B1 (en) 2017-10-16 2018-10-16 Xplorit Llc Interconnected 360 video virtual travel
JP7031228B2 (en) 2017-10-26 2022-03-08 株式会社リコー Program, image display method, image display system, information processing device
US10574997B2 (en) 2017-10-27 2020-02-25 Apple Inc. Noise level control in video coding
US10334222B2 (en) 2017-11-20 2019-06-25 Adobe Inc. Focus-based video loop switching
US10652578B2 (en) 2018-02-05 2020-05-12 Apple Inc. Processing of multi-directional images in spatially-ordered video coding applications
US11212438B2 (en) 2018-02-14 2021-12-28 Qualcomm Incorporated Loop filter padding for 360-degree video coding
US10771781B2 (en) 2018-03-12 2020-09-08 Electronics And Telecommunications Research Institute Method and apparatus for deriving intra prediction mode
KR20190107944A (en) 2018-03-13 2019-09-23 삼성전자주식회사 Image processing apparatus for performing filtering on restored images and filtering method thereof
US10559121B1 (en) 2018-03-16 2020-02-11 Amazon Technologies, Inc. Infrared reflectivity determinations for augmented reality rendering
US10986371B2 (en) 2018-03-22 2021-04-20 Mediatek Inc. Sample adaptive offset filtering method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection
US10573060B1 (en) 2018-06-14 2020-02-25 Kilburn Live, Llc Controller binding in virtual domes
US20190387251A1 (en) 2018-06-19 2019-12-19 Mediatek Inc. Methods and Apparatuses of Video Processing with Overlapped Block Motion Compensation in Video Coding Systems
US11765349B2 (en) 2018-08-31 2023-09-19 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries
US11094088B2 (en) 2018-08-31 2021-08-17 Mediatek Inc. Method and apparatus of in-loop filtering for virtual boundaries in video coding
KR102154407B1 (en) 2018-11-15 2020-09-09 한국전자기술연구원 Motion-Constrained AV1 Encoding Method and Apparatus forTiled Streaming
US20200213570A1 (en) 2019-01-02 2020-07-02 Mediatek Inc. Method for processing projection-based frame that includes at least one projection face and at least one padding region packed in 360-degree virtual reality projection layout

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160112704A1 (en) * 2014-10-20 2016-04-21 Google Inc. Continuous prediction domain
US20170214937A1 (en) * 2016-01-22 2017-07-27 Mediatek Inc. Apparatus of Inter Prediction for Spherical Images and Cubic Images
JP2019513320A (en) * 2016-03-24 2019-05-23 ノキア テクノロジーズ オーユー Video encoding / decoding apparatus, method and computer program
WO2018009746A1 (en) * 2016-07-08 2018-01-11 Vid Scale, Inc. 360-degree video coding using geometry projection
WO2018059654A1 (en) * 2016-09-30 2018-04-05 Huawei Technologies Co., Ltd. Apparatuses and methods for encoding and decoding a panoramic video signal

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HE, YUWEN ET AL.: "AHG8: InterDigital's projection format conversion tool", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 4TH MEETING: C, vol. JVET-D0021 (version 4), JPN6020035653, 15 October 2016 (2016-10-15), pages 1 - 17, ISSN: 0004487204 *
SREEDHAR, K. KAMMACHI ET AL.: "AHG8: Test results for viewport-dependent pyramid, cube map, and equirectangular panorama schemes", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 4TH MEETING: C, vol. JVET-D0078 (version 1), JPN6020035655, 6 October 2016 (2016-10-06), pages 1 - 7, ISSN: 0004487205 *

Also Published As

Publication number Publication date
EP3577901A1 (en) 2019-12-11
WO2018156403A1 (en) 2018-08-30
CN110313181A (en) 2019-10-08
KR102359820B1 (en) 2022-02-09
CN110313181B (en) 2023-06-30
EP3577901B1 (en) 2023-10-18
US10924747B2 (en) 2021-02-16
US20180249164A1 (en) 2018-08-30
KR20190117671A (en) 2019-10-16

Similar Documents

Publication Publication Date Title
JP2020508618A (en) Video coding techniques for multi-view video
CN110115037B (en) Spherical projection motion estimation/compensation and mode decision
Han et al. A technical overview of AV1
US10992919B2 (en) Packed image format for multi-directional video
CN107734335B (en) Image prediction method and related device
JP6899443B2 (en) Processing equirectangular object data to compensate for distortion due to spherical projection
CN110121065B (en) Multi-directional image processing in spatially ordered video coding applications
US20190005709A1 (en) Techniques for Correction of Visual Artifacts in Multi-View Images
US10754242B2 (en) Adaptive resolution and projection format in multi-direction video
CN115004703A (en) Intra prediction for image and video compression
US11711540B2 (en) Method for encoding video using effective differential motion vector transmission method in omnidirectional camera, and method and device
CN116800984A (en) Encoding and decoding method and device
WO2023147262A1 (en) Predictive video coding employing virtual reference frames generated by direct mv projection (dmvp)
JP2023549771A (en) Method and apparatus for quadratic transformation using adaptive kernel options
GB2585022A (en) Video coding and decoding
CN118077203A (en) Warped motion compensation with well-defined extended rotation
Gao Designs of application-specific multiview/3D video coding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210415

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211115