JP7310794B2 - 画像処理装置と画像処理方法 - Google Patents

画像処理装置と画像処理方法 Download PDF

Info

Publication number
JP7310794B2
JP7310794B2 JP2020505588A JP2020505588A JP7310794B2 JP 7310794 B2 JP7310794 B2 JP 7310794B2 JP 2020505588 A JP2020505588 A JP 2020505588A JP 2020505588 A JP2020505588 A JP 2020505588A JP 7310794 B2 JP7310794 B2 JP 7310794B2
Authority
JP
Japan
Prior art keywords
fisheye
image
motion vector
unit
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020505588A
Other languages
English (en)
Other versions
JPWO2019176189A1 (ja
Inventor
潤一 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019176189A1 publication Critical patent/JPWO2019176189A1/ja
Application granted granted Critical
Publication of JP7310794B2 publication Critical patent/JP7310794B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

この技術は、画像処理装置と画像処理方法に関する。
魚眼レンズを用いて撮影を行うことにより得られた魚眼画像の符号化復号処理では、魚眼レンズよりも画角の狭い標準レンズ等を用いて撮影を行うことにより得られた画像(通常画像)と同様に符号化復号処理を行うことが可能である。しかし、魚眼画像は魚眼歪みすなわち物体が中心から遠ざかるほど中心方向に対して生じた歪みを有することから、例えばインター予測を行う場合、通常画像に比べて符号化効率が劣化してしまう。このため、特許文献1では、魚眼画像の歪みを補正情報生成部で補正してから、通常画像と同様に動きベクトルを検出することが行われている。
特開2017-120980号公報
ところで、特許文献1の補正情報生成部で行われる歪補正処理では、レンズ固有の特性式を考慮していない。このため、歪み補正に誤差が生じる場合がある。また、歪み補正の誤差によって動きベクトルの誤差が大きくなるおそれもある。また、画角が例えば180°である場合、魚眼画像を通常画像に補正すると無限大まで拡大してしまう。このため、魚眼画像における所定範囲を通常画像に変換して符号化すると、復号時には所定範囲外の画像を得られないことから魚眼画像を再現できない。
そこで、この技術では高い符号化効率で魚眼画像の符号化処理または復号処理を行える画像処理装置を提供することを目的とする。
この技術の第1の側面は、
魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルを、前記魚眼レンズおよび前記魚眼画像に関する魚眼情報に基づいてスケーリング処理する動きベクトル補正部を備える画像処理装置にある。
この技術において、動きベクトル補正部は、魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの例えば周辺ブロックの動きベクトルを、魚眼情報例えば魚眼レンズの射影方式と魚眼画像の半径に基づきスケーリング処理して、周辺ブロックのスケーリング処理後の動きベクトルを用いて予測動きベクトルを算出する。スケーリング処理では、例えば、魚眼レンズの中心からの距離に応じて変化する魚眼歪みを補正する補正率と魚眼画像の半径を用いて、魚眼画像における周辺ブロックの動きベクトルを魚眼歪みのない画像における動きベクトルに変換してスケーリングを行い、スケーリング後の動きベクトルを魚眼画像における動きベクトルに変換する。補正率は、魚眼レンズの射影方式の特性式と、魚眼歪みのない画像を得る中心射影方式の特性式に基づいて算出する。算出した補正率は、魚眼レンズの射影方式毎に正規化して予めテーブル化して保持して、保持されている補正率テーブルから撮像に用いた魚眼レンズに対応する補正率テーブルを用いてスケーリング処理を行う。
魚眼画像の符号化を行う画像処理装置では、魚眼画像の符号化ストリームに魚眼情報を可逆符号化部で含めるようにする。また、可逆符号化部は、符号化ストリームにスケーリング処理を行うか否かを示す情報を含める。魚眼情報は、例えば魚眼レンズの射影方式と魚眼画像の半径を含むようにしてもよく、魚眼画像の半径に代えて、光学像の投影方式を示す情報を含むようにしてもよい。
魚眼画像の符号化ストリームを復号する画像処理装置では、可逆復号部で符号化ストリームを復号して得られた魚眼情報を用いて例えば周辺ブロックの動きベクトルに対するスケーリング処理を動きベクトル補正部で行う。また、動きベクトル補正部は、可逆復号部で符号化ストリームを復号して得られた情報で、スケーリング処理を行うことが示された場合、魚眼情報を用いてスケーリング処理を行う。
この技術の第2の側面は、
魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルを、前記魚眼レンズおよび前記魚眼画像に関する魚眼情報に基づいて動きベクトル補正部でスケーリング処理すること
を含む画像処理方法にある。
この技術によれば、魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルが、魚眼レンズおよび魚眼画像に関する魚眼情報に基づいてスケーリング処理される。このため、スケーリング処理が行われていない場合よりも高い符号化効率で魚眼画像の符号化処理または復号処理を行える。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
画像符号化装置の構成を示す図である。 魚眼レンズの射影方式を示す図である。 魚眼画像を通常画像に補正するための補正率を射影方式毎に示した図である。 補正率テーブルの導出を説明するための図である。 正規化した補正率テーブルを示した図である。 画像符号化装置の動作を例示したフローチャートである。 インター予測処理の動作を例示したフローチャートである。 最適インター予測モード選択処理を示すフローチャートである。 中心射影方式の撮像レンズを用いて得られた撮像画における被写体の動きを例示した図である。 動きベクトルの平行スケーリングを示した図である。 魚眼画像における被写体の動きを例示した図である。 円周魚眼と対角線魚眼を説明するための図である。 適応スケーリング手順を説明するための図である。 カレント予測ブロックと周辺ブロックを示した図である。 適応スケーリング手順を示すフローチャートである。 画像復号装置の構成を例示した図である。 画像復号装置の動作を例示したフローチャートである。
以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
1.画像処理装置について
2.画像符号化装置の構成
3.画像符号化装置の動作
3-1.補正率テーブルについて
3-2.符号化処理動作について
3-3.動きベクトルの適応スケーリングについて
4.画像復号装置の構成
5.画像復号装置の動作
6.画像処理装置の他の構成
7.応用例
<1.画像処理装置について>
画像処理装置では、魚眼レンズを用いて撮像を行うことにより取得された動画像(以下「魚眼画像」ともいう)の符号化処理、またはこの符号化処理で生成された符号化ストリームの復号処理を行う。符号化処理を行う画像符号化装置は、カレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルを、魚眼画像の取得に用いた魚眼レンズおよび取得した魚眼画像に関する魚眼情報に基づいてスケーリング処理を行い、スケーリング処理が行われていない場合よりも、カレント予測ブロックの動きベクトルと予測動きベクトルとの差を少なくして、魚眼画像の符号化効率を向上させる。また、符号化ストリームの復号処理を行う画像復号装置は、符号化ストリームを復号して得られた魚眼情報を用いてスケーリング処理を行い、スケーリング処理後の動きベクトルを用いて復号処理を行うことで魚眼画像を生成する。
<2.画像符号化装置の構成>
図1は、魚眼画像の符号化処理を行う画像符号化装置の構成を例示している。画像符号化装置10は、予測処理を用いて画像データの符号化を行い、例えばH.265/HEVC規格に対応した符号化ストリームを生成する。
画像符号化装置10は、画面並べ替えバッファ21、演算部22、直交変換部23、量子化部24、可逆符号化部25、蓄積バッファ26、レート制御部27を有する。また、画像符号化装置10は、逆量子化部31、逆直交変換部32、演算部33、デブロッキングフィルタ34、SAO(Sample Adaptive Offset)フィルタ35、フレームメモリ36、選択部37を有している。さらに、画像符号化装置10は、補正方式判別部40、イントラ予測部41、インター予測部42、予測選択部43を有する。
魚眼画像は、入力画像として画面並べ替えバッファ21に入力される。また、魚眼画像の取得に用いた魚眼レンズと魚眼画像に関する魚眼情報は、補正方式判別部40に入力される。魚眼情報では、例えば魚眼レンズの射影方式や魚眼画像の半径等を示す情報が含まれている。
画面並べ替えバッファ21は、入力画像を記憶して、記憶した表示順序のフレーム画像を、GOP(Group of Picture)構造に応じて、符号化のための順序(符号化順)に並べ替える。画面並べ替えバッファ21は、符号化順とされたフレーム画像の画像データ(原画像データ)を、演算部22へ出力する。また、画面並べ替えバッファ21は、原画像データをSAOフィルタ35、イントラ予測部41およびインター予測部42へ出力する。
演算部22は、画面並べ替えバッファ21から供給された原画像データから、予測選択部43を介してイントラ予測部41若しくはインター予測部42から供給される予測画像データを画素毎に減算して、予測残差を示す残差データを直交変換部23へ出力する。
例えば、イントラ符号化が行われる画像の場合、演算部22は原画像データからイントラ予測部41で生成された予測画像データを減算する。また、例えば、インター符号化が行われる画像の場合、演算部22は原画像データからインター予測部42で生成された予測画像データを減算する。
直交変換部23は、演算部22から供給される残差データに対して直交変換処理を行う。例えば直交変換部23は、各CTU(Coding Tree Unit)内に設定される1つ以上のTUの各々について、離散コサイン変換または離散サイン変換あるいはカルーネン・レーベ変換等の直交変換を行う。直交変換部23は、直交変換処理を行うことにより得られた周波数領域の変換係数を量子化部24へ出力する。
量子化部24は、直交変換部23が出力する変換係数を量子化する。量子化部24は、変換係数の量子化データを可逆符号化部25へ出力する。また、量子化部24は、生成した量子化データを逆量子化部31にも出力する。
可逆符号化部25は、各CTUについて量子化部24から入力される量子化データの可逆符号化処理、例えばCABAC(Context-Adaptive Binary Arithmetic Coding)の可逆符号化処理を行う。また、可逆符号化部25は、予測選択部43で選択された予測モードのパラメータ、例えばイントラ予測モードを示す情報、またはインター予測モードを示す情報と動き情報などを取得する。さらに、可逆符号化部25は、後述するSAOフィルタ35からフィルタ処理に関するパラメータを取得する。さらに、画像にCTU、CU、TU及びPUをどのように設定すべきかを示すブロック情報を取得する。可逆符号化部25は、量子化データを符号化するとともに、取得した符号化処理に関する各パラメータをH.265/HEVC規格のシンタックス要素として、符号化ストリームのヘッダ情報の一部として蓄積バッファ26に蓄積させる。また、可逆符号化部25は、画像符号化装置10に入力された魚眼情報を、符号化ストリームのシンタックス要素として、あるいは付加情報であるSEI(Supplemental Enhancement Information)として符号化ストリームに含める。
蓄積バッファ26は、可逆符号化部25から供給されたデータを一時的に保持し、所定のタイミングにおいて、符号化された符号化画像として、例えば後段の図示せぬ記録装置や伝送路などに符号化ストリームとして出力する。
レート制御部27は、蓄積バッファ26に蓄積された圧縮画像に基づいて、オーバーフローあるいはアンダーフローが発生しないように、量子化部24の量子化動作のレートを制御する。
逆量子化部31は、量子化部24から供給された変換係数の量子化データを、量子化部24で行われた量子化に対応する方法で逆量子化する。逆量子化部31は、得られた逆量子化データを、逆直交変換部32へ出力する。
逆直交変換部32は、供給された逆量子化データを、直交変換部23で行われた直交変換処理に対応する方法で逆直交変換する。逆直交変換部32は、逆直交変換結果すなわち復元された残差データを、演算部33へ出力する。
演算部33は、逆直交変換部32から供給された残差データに、予測選択部43を介してイントラ予測部41若しくはインター予測部42から供給される予測画像データを加算し、局部的に復号された画像(復号画像)を得る。例えば、残差データが、イントラ符号化が行われる画像に対応する場合、演算部33は、その残差データにイントラ予測部41から供給される予測画像データを加算する。また、例えば、残差データが、インター符号化が行われる画像に対応する場合、演算部33は、その残差データにインター予測部42から供給される予測画像データを加算する。加算結果である復号画像データは、デブロッキングフィルタ34へ出力される。また、復号画像データは参照画像データとしてフレームメモリ36へ出力される。
デブロッキングフィルタ34は、適宜デブロッキングフィルタ処理を行うことにより復号画像データのブロック歪を除去する。デブロッキングフィルタ34は、そのフィルタ処理結果をSAOフィルタ35へ出力する。
SAOフィルタ35は、デブロッキングフィルタ34によるフィルタ後の復号画像データに対して、適応オフセットフィルタ処理(SAO(Sample Adaptive Offset)処理ともいう)を行う。SAOフィルタ35は、SAO処理後の画像をフレームメモリ36へ出力する。
フレームメモリ36に蓄積されている参照画像データは、所定のタイミングで選択部37を介してイントラ予測部41またはインター予測部42に出力される。例えば、イントラ符号化が行われる画像の場合、フレームメモリ36からデブロッキングフィルタ34等によるフィルタ処理が行われていない参照画像データが読み出されて、選択部37を介してイントラ予測部41へ出力される。また、例えば、インター符号化が行われる場合、フレームメモリ36からデブロッキングフィルタ34等によるフィルタ処理が行われている参照画像データが読み出されて、選択部37を介してインター予測部42へ出力される。
補正方式判別部40は、魚眼情報に基づき、魚眼画像の取得に用いた魚眼レンズに対応する補正率テーブルをインター予測部42へ出力する。補正率テーブルは、カレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルのスケーリング処理に用いられる。なお、補正率テーブルの詳細については後述する。また、補正方式判別部40とインター予測部42で動きベクトル補正部が構成される。
イントラ予測部41は、原画像データ及び復号画像データに基づいて、各CTU内に設定される1つ以上のPUの各々についてイントラ予測処理を実行する。PUは、1つ以上のTUへと分割され得る。例えば、イントラ予測部41は、HEVCにより仕様化されている探索範囲に含まれる予測モード候補の各々について、予測誤差及び発生する符号量に基づくコスト関数値を評価する。次に、イントラ予測部41は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、イントラ予測部41は、選択した最適な予測モードに従って予測画像データを生成して、最適な予測モードを示す予測モード情報を含むイントラ予測に関する情報、対応するコスト関数値、及び予測画像データを、予測選択部43へ出力する。
インター予測部42は、原画像データ及び復号画像データに基づいて、各CTU内に設定される1つ以上のPUの各々についてインター予測処理(動き検出及び動き補償)を実行する。例えば、インター予測部42は、例えばHEVCにより仕様化されている探索範囲に含まれる予測モード候補の各々について、予測誤差及び発生する符号量に基づくコスト関数値を評価する。また、インター予測部42は、補正方式判別部40で生成された補正率テーブルを用いて、例えばカレント予測ブロックに隣接する周辺ブロックの動きベクトルを、魚眼レンズの射影方式と魚眼画像の半径に基づいてスケーリング処理する。なお、スケーリング処理については後述する。インター予測部42は、周辺ブロックのスケーリング処理後の動きベクトルを用いて予測動きベクトルを生成して、カレント予測ブロックの動きベクトルと予測動きベクトルとの差分ベクトルを生成して、コスト関数値の算出に用いる。次に、インター予測部42は、コスト関数値が最小となる予測モード、即ち圧縮率が最も高くなる予測モードを、最適な予測モードとして選択する。また、インター予測部42は、選択した最適な予測モードに従って予測画像データを生成して、インター予測に関する情報、対応するコスト関数値、差分ベクトルや予測動きベクトル等を示す動き情報、及び予測画像データを、予測選択部43へ出力する。
予測選択部43は、イントラ予測部41及びインター予測部42から入力されるコスト関数値の比較に基づいて、CTU又はCU毎に予測モードを設定する。予測選択部43は、イントラ予測モードを設定したブロックについては、イントラ予測部41により生成される予測画像データを演算部22,33へ出力すると共に、イントラ予測に関する情報を可逆符号化部25へ出力する。また、予測選択部43は、インター予測モードを設定したブロックについては、インター予測部42により生成される予測画像データを演算部22,33へ出力すると共に、インター予測に関する情報や動き情報を可逆符号化部25へ出力する。
<3.画像符号化装置の動作>
<3-1.補正率テーブルについて>
図2は魚眼レンズの射影方式を示している。図2の(a)は正射影方式であり、入射角θで入射した光と入射された光が投影される位置yの関係(特性式)は、式(1)で示すことができる。なお、「f」は魚眼レンズの焦点距離である。
y=f・sinθ ・・・(1)
図2の(b)は等距離射影方式であり、特性式を式(2)に示す。
y=f・θ ・・・(2)
図2の(c)は立体射影方式であり、特性式を式(3)に示す。
y=2f・tan(θ/2) ・・・(3)
図2の(d)は等立体角射影方式であり、特性式を式(4)に示す。
y=2f・sin(θ/2) ・・・(4)
なお、魚眼歪みを生じないレンズ(以下「通常レンズ」という)の射影方式は、図2の(e)に示す中心射影方式であり、特性式は式(5)である。
y=f・tanθ ・・・(5)
魚眼レンズによる被写体像の射影により生じた魚眼歪みを補正するための補正率は、魚眼レンズと通常レンズの特性式に基づいて算出できる。例えば、焦点距離や撮像条件が同一で、レンズだけを変更した場合、補正率は「補正率=通常レンズの特性式/魚眼レンズの特性式」となる。
図3は、魚眼画像を通常画像に補正するための補正率を射影方式毎に示している。例えば正射影方式の補正率は「1/cosθ」となる。また、等距離射影方式の補正率は「tanθ/θ」、立体射影方式の補正率は「tanθ/(2*tan(θ/2))」、等立体角射影方式の補正率は「tanθ/(2*sin(θ/2))となる。
ところで、図3に示す補正率は、入射角θを媒介変数としているため、魚眼画像上の位置に対応する通常画像上の位置を容易に得ることができない。そこで、魚眼画像上の位置に対応する通常画像上の位置を取得できる補正率テーブルを補正率に基づき予め生成する。
図4は、補正率テーブルの導出を説明するための図である。図4の(a)に示すように、入射角θを0≦θ≦90°の範囲で変化させ、その際の魚眼レンズと通常レンズの特性式の値(以下「特性値」という)を記録する。そして、補正前の特性値をy0とし、補正後の特性値をy1とすると、補正率(y1/y0)は、図4の(b)に示す特性となる。なお、入射角が0°である場合の補正率は(0/0)となるため定義されないが、魚眼レンズの中心では通常レンズを用いた場合に対する歪みが小さいことから補正率を「1」とする。この図4(a)と図4(b)の結果に基づき、特性値y0を基準として補正率(y1/y0)を示すと、特性値y0に対する補正率(y1/y0)の関係は図4の(c)に示す特性となる。補正率テーブルは、図4の(c)に示す特性とする。また、補正率テーブルのデータ量を削減するため、図4の(c)に示す補正率を図4の(d)に示すように一定間隔でサンプリングして、補正率テーブルはサンプリングされた特性値y0に対する補正率を示すようにしてもよい。
通常レンズで用いられている中心射影方式は、入射角θが90°に近づくにつれて特性値が大きくなり、入射角θが90°となると特性値は無限大となる。また、実際の通常レンズは画角限界が例えば57°付近となっており、画角範囲が画角限界までならば通常画像は自然画として扱うことができるが、画角限界を超えると通常画像は撮像領域の被写体との乖離が大きくなる。したがって、補正率テーブルで示される補正率(y1/y0)は、特性値y0の範囲を画角限界の時の特性値yclpまでの範囲としてもよい。このように、補正率テーブルを生成すれば、符号化処理に影響することなく補正率テーブルのデータ量を削減できる。
また、特性値は焦点距離fによって異なることから、補正率テーブルは特性値y0の範囲を「0」から「1」までの範囲に正規化する。このように、特性値y0を正規化した補正率テーブルを用いるようにすれば、正規化した補正率テーブルと焦点距離に基づき所望の特性値y0に対する補正率(y1/y0)を取得できる。したがって、焦点距離毎に補正率テーブルを用意する必要がない。
図5は、正規化した補正率テーブル、例えば正射影方式から中心射影方式への正規化した補正率テーブルを例示している。なお、図5では、サンプリング間隔が狭いため、特性値y0に対する補正率(y1/y0)の変化は連続した状態で示されている。
さらに、正規化した補正率テーブルに対して魚眼半径Rを乗算すれば、魚眼半径Rである魚眼画像に対応した補正率テーブルを生成することができる。なお、正規化した補正率テーブルは、補正方式判別部40および後述する画像復号装置50の補正方式判別部74に予め記憶させておく。
<3-2.符号化処理動作について>
次に、画像符号化装置の動作について説明する。図6は、画像符号化装置の動作を例示したフローチャートである。
ステップST1において画像符号化装置は画面並べ替え処理を行う。画像符号化装置10の画面並べ替えバッファ21は、表示順の入力画像を符号化順に並べ替えて、イントラ予測部41とインター予測部42およびSAOフィルタ35へ出力する。
ステップST2において画像符号化装置はイントラ予測処理を行う。画像符号化装置10のイントラ予測部41は、フレームメモリ36から読み出した参照画像データを用いて、処理対象のブロックの画素を候補となる全てのイントラ予測モードでイントラ予測して予測画像データを生成する。また、イントラ予測部41は、生成した予測画像データと原画像データを用いてコスト関数値を算出する。なお、参照画像データとしては、デブロッキングフィルタ34等によりフィルタ処理されていない復号画像データが用いられる。イントラ予測部41は、算出されたコスト関数値に基づいて、最適イントラ予測モードを選択して、最適イントラ予測モードのイントラ予測により生成された予測画像データとパラメータやコスト関数値を予測選択部43に出力する。
ステップST3において画像符号化装置はインター予測処理を行う。図7はインター予測処理の動作を例示したフローチャートである。ステップST21においてインター予測部42はカレントピクチャに応じて参照ピクチャを決定する。インター予測部42は、カレントピクチャがPピクチャ(Predictive Picture)である場合にIピクチャ(Intra Picture)を参照ピクチャに決定し、Bピクチャ(Bidirectionally Predictive Picture)である場合、PピクチャとBピクチャを参照ピクチャに決定してステップST22に進む。
ステップST22においてインター予測部42は参照ピクチャを取得する。インター予測部42はフレームメモリ36に記憶されている参照ピクチャを取得してステップST23に進む。
ステップST23においてインター予測部42は動き探索を行う。インター予測部42は、カレントピクチャのカレント予測ブロックが参照ピクチャの何れの領域に対応するか動き探索を全ての予測モードについて行いステップST24に進む。
ステップST24においてインター予測部42は最適インター予測モード選択処理を行う。図8は、最適インター予測モード選択処理を示すフローチャートである。ステップST31においてインター予測部42は予測モードの候補を選択する。インター予測部42は、ステップST23の動き探索結果に基づき、複数の予測モードの候補例えば動きベクトルが算出された予測モードを候補としてステップST32に進む。
ステップST32においてインター予測部42は予測モードを選択する。インター予測部42は、ステップST31で決定されたインター予測モードの候補から未選択であるインター予測モードを選択してステップST33に進む。
ステップST33においてインター予測部42は予測動きベクトルを算出する。インター予測部42は、予測動きベクトルの算出に用いる動きベクトルのスケーリング処理を行う。図9は、中心射影方式の撮像レンズを用いて得られた撮像画における被写体の動きを例示している。また、図10は動きベクトルの平行スケーリングを示している。被写体OBは図9の矢印FA方向に移動している。なお、図9では時点t1と時点t2と時点t3で撮像された被写体OBを示している。このように、撮像画において被写体OBが例えば矢印FAに移動する場合、参照ピクチャRPaに代えて参照ピクチャRPbを参照先とするときは、カレントピクチャCPから参照ピクチャRPa,RPbまでの距離(時間間隔)に応じて、参照ピクチャRPaを参照面としたときの動きベクトルMVaを動きベクトルMVbにスケーリングすればよい。しかし、魚眼画像では、魚眼画像上の位置によって被写体OBの歪の強度や向きが異なる。図11は、魚眼画像における被写体の動きを例示した図であり、時点t1と時点t2と時点t3で撮像された被写体OBを示している。このように、魚眼画像では被写体が魚眼歪みを生じるため、中心射影方式の撮像レンズを用いた場合と同様に予測動きベクトルを算出すると、カレント予測ブロックで動き検出を行い算出された動きベクトルとの誤差が大きく符号化効率が低下するおそれがある。そこで、インター予測部42は、予測動きベクトルの算出に用いる動きベクトルを魚眼画像における物体の軌跡に沿ってスケーリング(以下「適応スケーリング」ともいう)する。適応スケーリングは、魚眼画像の取得に用いた撮像レンズに対応する補正率テーブルを用いて行う。インター予測部42は、スケーリング後の動きベクトルを用いて予測動きベクトルを算出してステップST34に進む。
ステップST34においてインター予測部42はコスト関数値を算出する。インター予測部42は、ステップST32で選択したインター予測モードについてコスト関数値を算出してステップST35に進む。
ステップST35においてインター予測部42は全ての候補を選択したか判別する。インター予測部42は、全てのインター予測モードを選択した場合にはステップST36に進み、選択されていないインター予測モードがある場合にはステップST32に戻り、選択されていない新たなインター予測モードを選択する。
ステップST36においてインター予測部42は最適なインター予測モードを選択する。インター予測部42は、予測モード毎に算出されているコスト関数値を比較して、例えばコスト関数値が最小となる予測モードを最適なインター予測モードと選択して図7のステップST25に進む。なお、予測動きベクトルの算出で魚眼情報に基づいて動きベクトルのスケーリング処理を行って最適なインター予測モードが選択可能であれば、図8と異なる処理を行ってもよい。
ステップST25においてインター予測部42は動き補償を行う。インター予測部42は、図8のステップST36で選択された最適なインター予測モードで動き補償を行い、予測画像データを生成する。さらに、インター予測部42は、生成した予測画像データと、最適なインター予測モードのコスト関数値、動き情報、および最適なインター予測モードに関するパラメータを予測選択部43へ出力して図6のステップST4に進む。
ステップST4において画像符号化装置は予測画像選択処理を行う。画像符号化装置10の予測選択部43は、ステップST2およびステップST3で算出されたコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードのうちの一方を、最適予測モードに決定する。そして、予測選択部43は、決定した最適予測モードの予測画像データを選択して、演算部22,33へ出力する。なお、予測画像データは、後述するステップST5,ST10の演算に利用される。また、予測選択部43は、最適予測モードに関するパラメータ等を可逆符号化部25へ出力する。
ステップST5において画像符号化装置は差分演算処理を行う。画像符号化装置10の演算部22は、ステップST2で並べ替えられた原画像データと、ステップST4で選択された予測画像データとの差分を算出して、差分結果である残差データを直交変換部23へ出力する。
ステップST6において画像符号化装置は直交変換処理を行う。画像符号化装置10の直交変換部23は、演算部22から供給された残差データを直交変換する。具体的には、離散コサイン変換等の直交変換を行い、得られた変換係数を量子化部24へ出力する。
ステップST7において画像符号化装置は量子化処理を行う。画像符号化装置10の量子化部24は、直交変換部23から供給された変換係数を量子化する。この量子化に際しては、後述するステップST16の処理で説明されるように、レートが制御される。
以上のようにして生成された量子化情報は、次のようにして局部的に復号される。すなわち、ステップST8において画像符号化装置は逆量子化処理を行う。画像符号化装置10の逆量子化部31は、量子化部24から出力された量子化データを量子化部24に対応する特性で逆量子化する。
ステップST9において画像符号化装置は逆直交変換処理を行う。画像符号化装置10の逆直交変換部32は、逆量子化部31で生成された逆量子化データを直交変換部23に対応する特性で逆直交変換して残差データを生成して演算部33へ出力する。
ステップST10において画像符号化装置は画像加算処理を行う。画像符号化装置10の演算部33は、予測選択部43から出力された予測画像データを局部的に復号された残差データに加算し、局部的に復号された(すなわち、ローカルデコードされた)画像を生成する。
ステップST11において画像符号化装置はデブロッキングフィルタ処理を行う。画像符号化装置10のデブロッキングフィルタ34は、演算部33から出力された画像データに対して、デブロッキングフィルタ処理を行い、ブロック歪みを除去してSAOフィルタ35とフレームメモリ36へ出力する。
ステップST12において画像符号化装置はSAO処理を行う。画像符号化装置10のSAOフィルタ35は、デブロッキングフィルタ34から出力された画像データに対してSAO処理を行う。このSAO処理により、最大の符号化単位であるLCU毎にSAO処理のタイプと係数が求められて、それらを用いてフィルタ処理が行われる。SAOフィルタ35は、SAO処理後の画像データをフレームメモリ36に記憶させる。また、SAOフィルタ35は、SAO処理に関するパラメータを可逆符号化部25へ出力して、後述するようにステップST14で符号化する。
ステップST13において画像符号化装置は記憶処理を行う。画像符号化装置10のフレームメモリ36は、デブロッキングフィルタ34等でフィルタ処理が行われる前の画像と、デブロッキングフィルタ34等でフィルタ処理が行われた後の画像を記憶する。
一方、上述したステップST7において量子化された変換係数は、可逆符号化部25にも出力される。ステップST14において画像符号化装置は可逆符号化処理を行う。画像符号化装置10の可逆符号化部25は、量子化部24から出力された量子化後の変換係数と、供給された各パラメータや魚眼情報を符号化する。
ステップST15において画像符号化装置は蓄積処理を行う。画像符号化装置10の蓄積バッファ26は、符号化データを蓄積する。蓄積バッファ26に蓄積された符号化データは適宜読み出されて、伝送路等を介して復号側に伝送される。
ステップST16において画像符号化装置はレート制御を行う。画像符号化装置10のレート制御部27は、蓄積バッファ26に蓄積された符号化データがオーバーフローあるいはアンダーフローを生じないように量子化部24の量子化動作のレートを制御する。
<3-3.動きベクトルの適応スケーリングについて>
次に、インター予測で行われる動きベクトルの適応スケーリングについて説明する。なお、以下の説明で用いる座標は画素単位である。
インター予測部42は、魚眼画像の中心座標(xg,yg)を求める。魚眼レンズでは、上述の射影方式だけでなく、イメージセンサのセンサ面に対する光学像の投影方式の違いによって円周魚眼と対角線魚眼に分類されている。図12は、円周魚眼と対角線魚眼を説明するための図である。図12の(a)は、円周魚眼レンズを用いた場合を示しており、魚眼レンズで撮影した魚眼画像は、イメージセンサのセンサ面内に全て含まれており、長方形のピクチャでは、魚眼画像の例えば左右の端にデータがない無効領域(斜線で示す領域)が生じている。図12の(b)は、対角線魚眼レンズを用いた場合を示しており、円形状の魚眼画像内にイメージセンサのセンサ面が含まれて、魚眼画像における斜線部分の領域は、ピクチャで表示されない領域となる。円周魚眼の中心座標と対角線魚眼の中心座標は一致しており、円周魚眼の場合と同様に対角線魚眼の適応スケーリングを行えばよい。
図13は、適応スケーリング手順を説明するための図である。インター予測部42は、式(6),(7)に基づき、魚眼画像の中心座標(xg,yg)となる。
xg = 横方向画サイズ/2 ・・・(6)
yg = 縦方向画サイズ/2 ・・・(7)
次に、カレント予測ブロックに対する周辺ブロックの座標を、魚眼の中心からのベクトルで表す。図14は、カレント予測ブロックと周辺ブロックを示している。左上側の周辺ブロックの左上座標(xn,yn)を、ピクチャの左上角である基準(0,0)として割り振り、ここから式(6)(7)で求めた魚眼の中心座標(xg,yg)を減じることで、基準を魚眼の中心とすることができる。この場合、左上側に隣接する周辺ブロックの位置は、式(8)に示すように座標(xng,yng)となる。
(xgn,ygn)=(xn-xg,yn-yg) ・・・(8)
また、周辺ブロックの座標に、周辺ブロックの動きベクトル(mvxn,mvyn)を加算することで、動きベクトルの指す座標(xgn_mv,ygn_mv)も、式(9)に示すように魚眼の中心が基準となる。
(xgn_mv,ygn_mv)=(xn-xg+mvxn,yn-yg+mvyn) ・・・(9)
さらに、式(8),(9)に示す魚眼画像における座標を、補正率テーブルを用いて通常画像の座標に変換する。ここで、座標の変換に用いる補正率テーブルは、正規化した補正率テーブルに魚眼半径Rを乗算して生成する。
ここで、座標(xng,yng)に対応する補正率を補正率「K1」、座標(xgn_mv,ygn_mv)に対応する補正率を補正率「K2」とすると、座標(xng,yng)の補正後の座標(XGN,YGN)は、式(10)に基づき算出でき、座標(xgn_mv,ygn_mv)の補正後の座標(XGN_MV,YGN_MV)は、式(11)に基づき算出できる。
(XGN,YGN)=(K1・xgn, K1・ygn) ・・・(10)
(XGN_MV,YGN_MV)=(K2・xgn_mv,K2・ygn_mv) ・・・(11)
したがって、式(12)に示すように、式(11)で示された座標から式(10)で示された座標を減算することで、補正後の周辺ブロックの動きベクトル(MVXN,MVYN)を算出できる。
(MVXN,MVYN)=(XGN_MV-XGN,YGN_MV-YGN) ・・・(12)
補正後の動きベクトル(MVXN,MVYN)は、通常画像に変換した場合の動きベクトルであることから、通常画像の動きベクトルと同様に補正後の動きベクトルのスケーリングを行う。図14に示すカレント予測ブロックの参照面がピクチャAであるのに対して、周辺ブロックの参照面がピクチャ「B」であると、動きベクトルのスケールが異なる。そのため、周辺ブロックの動きベクトルに対して通常画像と同様のスケーリング処理を行う。通常画像のスケーリングは既存コーデックあるいは、次世代コーデックの規格に従う。
スケーリング処理をScale()とすると、式(13)に基づき、スケーリング後の動きベクトル(MVXN_scl,MVYN_scl)を算出できる。
(MVXN_scl,MVYN_scl)=(Scale(MVXN),Scale(MVYN)) ・・・(13)
また、スケーリング後の動きベクトル(MVXN_scl,MVYN_scl)で示す座標(XGN_MV_scl,YGN_MV_scl)は、式(14)に示すように式(10)の座標を加算することで算出できる。
(XGN_MV_scl,YGN_MV_scl)=(Scale(MVXN)+XGN,Scale(MVYN)+YGN) ・・・(14)
また、式(14)で算出された座標(XGN_MV_scl,YGN_MV_scl)に対して補正率テーブルを逆引きすることで、通常画像の座標を魚眼画像の座標に戻し、この魚眼画像の座標から式(10)で算出した座標(XGN,YGN)を減じた結果が、適応スケーリング後の動きベクトルとなる。なお、補正率テーブルを逆引きする際に、逆引き前の座標が画角限界よりも外側にあった場合は画角限界値まで引き戻す処理を行う。
したがって、適応スケーリング後の動きベクトル(mvxn_scl,mvyn_scl)は、式(15)に基づいて算出できる。
(mvxn_scl,mvyn_scl)=(InvK(XGN_MV_scl)-xgn,InvK(YGN_MV_scl)-ygn) ・・・(15)
その後は、既存コーデックあるいは次世代コーデックの規格に従ってカレント予測ブロックの算出や差分動きベクトルの算出を上述のように行う。
図15は、適応スケーリング手順を示すフローチャートである。ステップST41でインター予測部42は魚眼の中心座標を基準とする。インター予測部42は、上述の式(6)(7)の演算を行い魚眼の中心座標を算出する。さらに、インター予測部42は、上述の式(8)(9)の演算を行い、周辺ブロックの位置や動きベクトルの基準を魚眼の中心座標としてステップST42に進む。
ステップST42でインター予測部42は周辺ブロックの位置を補正する。インター予測部42は、魚眼の中心座標を基準とする周辺ブロックの位置に対応する補正率を補正率テーブルから取得して、上述の式(10)の演算を行い、魚眼画像における座標を通常画像における座標に補正してステップST43に進む。
ステップST43でインター予測部42は周辺ブロックの動きベクトルが示す位置を補正する。インター予測部42は、周辺ブロックにおける魚眼の中心座標を基準とした動きベクトルによって示される位置に対応する補正率を補正率テーブルから取得して、上述の式(11)の演算を行い、魚眼画像における座標を通常画像における座標に補正してステップST44に進む。
ステップST44でインター予測部42は周辺ブロックの補正後の動きベクトルを算出する。インター予測部42は、ステップST43で補正された動きベクトルが示す位置とステップST42で補正された周辺ブロックの位置を用いて上述の式(12)の演算を行い、補正後の周辺ブロックの動きベクトル、すなわち通常画像に変換した場合の動きベクトルを算出してステップST45に進む。
ステップST45でインター予測部42は動きベクトルの平行スケーリングを行う。インター予測部42は、ステップST44で算出された補正後の動きベクトルが通常画像に変換した場合の動きベクトルであることから上述の式(13)の演算を行い、通常画像の場合と同様に動きベクトルのスケーリングを行いステップST46に進む。
ステップST46でインター予測部42はスケーリング後の動きベクトルが示す位置を算出する。インター予測部42は、ステップST42で算出された通常画像における周辺ブロックの位置と、ステップST45で算出されたスケーリング後の動きベクトルを用いて上述の式(14)の演算を行い、スケーリング後の動きベクトルが示す位置を算出してステップST47に進む。
ステップST47でインター予測部42は算出された位置が画角限界を超えるか判別する。インター予測部42は、ステップST46で算出したスケーリング後の動きベクトルによって示される位置が魚眼画像の画角限界を超える場合にステップST48に進み、画角限界を超えない場合にステップST49に進む。
ステップST48でインター予測部42は位置の引き戻しを行う。インター予測部42は、ステップST46で算出したスケーリング後の動きベクトルによって示される位置が画角限界を超えていることから、ベクトル方向を保持した状態で画角限界まで位置を引き戻してステップST50に進む。
ステップST47からステップST49に進むと、インター予測部42は逆補正処理を行う。インター予測部42は、ステップST48で算出されたスケーリング後の動きベクトルが示す位置は通常画像における位置であることから、通常画像における位置を魚眼画像における位置に補正するための逆補正率を、補正率テーブルから通常画像における位置に基づいて取得して、取得した逆補正率をスケーリング後の動きベクトルが示す通常画像における位置に乗算することで、魚眼画像における位置に補正してステップST50に進む。
ステップST50でインター予測部42は適応スケーリング後の動きベクトルを算出する。インター予測部42は、魚眼の中心座標を基準とした周辺ブロックの位置とスケーリング後の動きベクトルが示す魚眼画像における位置を用いて上述の式(15)の演算を行い、魚眼画像におけるスケーリング後の動きベクトルを算出する。
なお、上述の画像符号化装置は、H.265/HEVC規格に対応した符号化ストリームを生成する場合について説明したが、画像符号化装置は、H.264/AVC規格等の他の動画像圧縮符号化規格に対応した符号化ストリームを生成する場合であってもよい。また、画像符号化装置では、周辺ブロックの動きベクトルに限らず他の動きベクトルについてスケーリング処理を行ってもよい。例えばH.264/AVC規格のダイレクトモードにおける動きベクトルのスケーリングを行う際に、魚眼情報に基づいて動きベクトルのスケーリングを行うようにしてもよい。
このような画像符号化装置によれば、魚眼情報に基づいて動きベクトルのスケーリング処理を行うことで、符号化対象画像が魚眼画像であっても実際の絵柄に近い予測動きベクトルが作成可能となり、スケーリング処理を行わない場合に比べて効率よく符号化を行うことができる。また、画像符号化装置は、撮像に用いた魚眼レンズの射影方式の特性式と、魚眼歪みのない画像を得る中心射影方式の特性式に基づいて算出した補正率を利用して補正を行うことから、理論的に正しい補正が可能となり、補正を前提とした処理の正確性を増すことができる。また、画像符号化装置は、補正率テーブルを用いることで、補正率を射影方式や魚眼画像における位置等に基づいて算出する場合に比べて補正率の算出が容易となる。
さらに、画像符号化装置は、スケーリング処理は予測動きベクトルの算出に用いる動きベクトルに対して行うことから、カレント予測ブロックの動き情報として差分動きベクトルを用いる場合、カレント予測ブロックの動きベクトルの精度に影響を与えることがない。また、画像符号化装置は、魚眼画像を通常画像に変換する処理を行う必要がないので、復号処理で得られる魚眼画像で画像の欠損を生じることがない。
<4.画像復号装置の構成>
図16は、魚眼画像の符号化ストリームの復号処理を行う画像復号装置の構成を例示しており、画像復号装置50は、図1に示す画像符号化装置10に対応する画像復号装置である。画像符号化装置10で生成された符号化された符号化ストリームは、画像復号装置50に供給されて復号される。
画像復号装置50は、蓄積バッファ61、可逆復号部62、逆量子化部63、逆直交変換部64、演算部65、デブロッキングフィルタ66、SAOフィルタ67、画面並べ替えバッファ68を有する。また、画像復号装置50は、フレームメモリ71、選択部72、イントラ予測部73、補正方式判別部74、動き補償部75を有する。
蓄積バッファ61は、伝送されてきた符号化ストリームを受け取り蓄積する。この符号化ストリームは、所定のタイミングで読み出されて可逆復号部62へ出力される。
可逆復号部62は、符号化ストリームを可逆復号化して、得られたイントラ予測モードやインター予測モードを示す情報などのパラメータや魚眼情報をイントラ予測部73へ出力し、インター予測モードを示す情報や動きベクトル情報などのパラメータを動き補償部75へ出力する。また、可逆復号部62は、符号化ストリームを可逆復号化して、得られた魚眼情報を補正方式判別部74へ出力する。
逆量子化部63は、可逆復号部62により復号されて得られた量子化データを、図1の量子化部24の量子化方式に対応する方式で逆量子化する。逆量子化部63は、逆量子化されたデータを逆直交変換部64へ出力する。
逆直交変換部64は、図1の直交変換部23の直交変換方式に対応する方式で逆直交変換を行い、画像符号化装置10における直交変換前の残差データに対応する復号残差データを得て演算部65へ出力する。
演算部65には、イントラ予測部73若しくは動き補償部75から予測画像データが供給される。演算部65は、復号残差データと予測画像データとを加算して、画像符号化装置10の演算部22により予測画像データが減算される前の原画像データに対応する復号画像データを得る。演算部65は、その復号画像データをデブロッキングフィルタ66へ出力する。
デブロッキングフィルタ66は、デブロッキングフィルタ処理を行うことにより復号画像のブロック歪を除去する。デブロッキングフィルタ66は、フィルタ処理後の画像データをSAOフィルタ67へ出力する。
SAOフィルタ67は、デブロッキングフィルタ66によるフィルタ後の画像データに対してSAO処理を行う。SAOフィルタ67は、可逆復号部62から供給されるパラメータを用いて、LCU毎に、デブロッキングフィルタ66によるフィルタ後の画像データに対してフィルタ処理を行い、画面並べ替えバッファ68へ出力する。
画面並べ替えバッファ68は、画像の並べ替えを行う。すなわち、図1の画面並べ替えバッファ21により符号化の順番のために並べ替えられたフレームの順番が、元の表示の順番に並べ替えられる。
SAOフィルタ67の出力は、さらに、フレームメモリ71に供給される。選択部72は、イントラ予測に用いられる画像データをフレームメモリ71から読み出し、イントラ予測部73へ出力する。また、選択部72は、インター処理される画像データと参照される画像データをフレームメモリ71から読み出し、動き補償部75へ出力する。
イントラ予測部73には、ヘッダ情報を復号して得られた情報(予測モード情報、動きベクトル情報等が可逆復号部62から供給される。イントラ予測部73は、可逆復号部62からの情報によって予測モードがイントラ予測であることが示された場合、予測モード情報等に基づいて、フレームメモリ71から取得した画像データから予測画像データを生成して演算部65へ出力する。
補正方式判別部74は、可逆復号部62から供給された魚眼情報に基づき、魚眼画像の取得に用いた魚眼レンズに対応する補正率テーブルを動き補償部75へ出力する。なお、補正方式判別部74と動き補償部75で動きベクトル補正部が構成される。
動き補償部75には、ヘッダ情報を復号して得られた情報が可逆復号部62から供給される。動き補償部75は、可逆復号部62からの情報によって予測モードがインター予測であることが示された場合、予測モード情報や動き情報、参照フレーム情報等に基づいて、フレームメモリ71から取得した画像データから予測画像データを生成して演算部65へ出力する。また、動き補償部75は、符号化された画像が魚眼画像で予測画像データを生成する場合、補正方式判別部74で生成された補正率テーブルを用いて、画像符号化装置10のインター予測部42と同様に、カレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルのスケーリング処理を行う。動き補償部75は、スケーリング処理後の動きベクトルを用いて算出したカレント予測ブロックの動きベクトルを用いて動き補償を行い、予測画像データを生成する。
<5.画像復号装置の動作>
次に、画像復号装置の実施の形態の動作について説明する、図17は画像復号装置の動作を例示したフローチャートである。
復号処理が開始されると、ステップST101において画像復号装置は蓄積処理を行う。画像復号装置50の蓄積バッファ61は、伝送されてきた符号化ストリームを受け取り蓄積する。
ステップST102において画像復号装置は可逆復号処理を行う。画像復号装置50の可逆復号部62は、蓄積バッファ61から供給される符号化ストリームを復号する。可逆復号部62は、ピクチャの復号に先立ち、動きベクトル情報、参照フレーム情報、予測モード情報(イントラ予測モード、またはインター予測モード)、魚眼情報などのパラメータ情報を復号する。予測モード情報がイントラ予測モード情報である場合、予測モード情報や魚眼画像情報は、イントラ予測部73に供給される。予測モード情報がインター予測モード情報である場合、予測モード情報と対応する動きベクトル情報等は動き補償部75へ出力される。また、魚眼情報は、補正方式判別部74へ出力される。
ステップST103において画像復号装置は予測画像生成処理を行う。画像復号装置50のイントラ予測部73または動き補償部75は、可逆復号部62から供給される予測モード情報に対応して、それぞれ予測画像生成処理を行う。
すなわち、可逆復号部62からイントラ予測モード情報が供給された場合、イントラ予測部73はイントラ予測モードのイントラ予測画像データを生成する。可逆復号部62からインター予測モード情報が供給された場合、動き補償部75は、インター予測モードの動き補償処理を行い、インター予測画像データを生成する。また、動き補償部75は、補正方式判別部74から供給された魚眼画像の取得に用いた魚眼レンズに対応する補正率テーブルを用いて動きベクトルのスケーリング処理等を行い、予測画像データを生成する。イントラ予測部73により生成された予測画像データ、または動き補償部75により生成された予測画像データは演算部65へ出力される。
ステップST104において画像復号装置は逆量子化処理を行う。画像復号装置50の逆量子化部63は、可逆復号部62で得られた量子化データを、図1の量子化部24の量子化方式に対応する方式で逆量子化して、逆量子化データを逆直交変換部64へ出力する。
ステップST105において画像復号装置は逆直交変換処理を行う。画像復号装置50の逆直交変換部64は、図1の直交変換部23の直交変換方式に対応する方式で逆直交変換を行い、画像符号化装置10における直交変換前の残差データに対応する復号残差データを得て演算部65へ出力する。
ステップST106において画像復号装置は画像加算処理を行う。画像復号装置50の演算部65は、イントラ予測部73若しくは動き補償部75から供給された予測画像データと、逆直交変換部64から供給された復号残差データを加算して復号画像データを生成する。演算部65は、生成した復号画像データをデブロッキングフィルタ66とフレームメモリ71へ出力する。
ステップST107において画像復号装置はデブロッキングフィルタ処理を行う。画像復号装置50のデブロッキングフィルタ66は、演算部65より出力された画像に対して、デブロッキングフィルタ処理を行う。これによりブロック歪みが除去される。デブロッキングフィルタ66からの復号画像は、SAOフィルタ67へ出力する。
ステップST108において画像復号装置はSAO処理を行う。画像復号装置50のSAOフィルタ67は、可逆復号部62から供給されたSAO処理に関するパラメータを用いて、デブロッキングフィルタ66によるフィルタ後の画像に対して、SAO処理を行う。SAOフィルタ67は、SAO処理後の復号画像データを画面並べ替えバッファ68およびフレームメモリ71へ出力する。
ステップST109において画像復号装置は記憶処理を行う。画像復号装置50のフレームメモリ71は、演算部65から供給されたフィルタ処理前の復号画像データと、デブロッキングフィルタ66とSAOフィルタ67によってフィルタ処理が行われた復号画像データを記憶する。
ステップST110において画像復号装置は画面並べ替え処理を行う。画像復号装置50の画面並べ替えバッファ68は、SAOフィルタ67から供給された復号画像データを蓄積して、蓄積した復号画像データを画像符号化装置10の画面並べ替えバッファ21で並べ替えられる前の表示順序に出力する。
このような復号処理を行えば、上述の画像符号化装置10で生成された符号化ストリームの復号を行い、画像符号化装置10された魚眼画像を画像復号装置50から出力できる。
<6.画像処理装置の他の構成>
画像処理装置は、従来と同様な通常画像の符号化復号処理と上述の魚眼画像の符号化復号処理を行うようにしてもよい。この場合、符号化復号処理の対象が通常画像と魚眼画像の何れであるかを示す識別情報、例えばフラグ(以下「魚眼フラグFEfg」という)を用いる。
魚眼フラグFEfgは、例えば「FEfg=1」の場合、補正率テーブルを用いて上述の符号化復号処理を行う。また、「FEfg=0」の場合、補正率テーブルを用いることなく従来の符号化復号処理を行う。さらに、魚眼フラグFEfgが設けられていない場合、「FEfg=0」の場合と同様に、補正率テーブルを用いることなく符号化復号処理を行う。
この場合、魚眼情報には、上述の射影方式を示す情報と魚眼半径を示す情報に加えて魚眼フラグFEfgを含める。また、射影方式を示す情報と魚眼半径を示す情報は、魚眼フラグFEfgが「FEfg=1」の場合に有効となる。
射影方式を示す情報は、図2に示す4つの射影方式を例えば「0」~「3」の値で識別可能とする。
魚眼半径を示す情報では、半径の長さが示される。このように、半径の長さを示すようにすれば、円形状の魚眼画像が画像端に接していない場合でも上述の処理を行うことができるので、円形状の魚眼画像が画像端に接するように写し方を規定する必要がないため、魚眼画像を取得する際の自由度を高くできる。
また、魚眼情報には、図12に示す円周魚眼と対角線魚眼の何れのであるかを示すレンズタイプ情報を含めてもよい。例えば「0」「1」の値で円周魚眼と対角線魚眼を識別可能とする。このレンズタイプ情報は、魚眼フラグFEfgが「FEfg=1」の場合に有効となる。このレンズタイプ情報を魚眼情報に含めれば、ピクチャのサイズが決まった後で魚眼半径Rを算出できる。また、符号化時にレンズタイプ情報とピクチャサイズが決まれば、魚眼半径Rを算出できる。例えば、円周魚眼である場合、魚眼半径Rはピクチャの短辺の長さの1/2倍である。また、対角線魚眼である場合、魚眼半径Rはピクチャの対角線の長さの1/2倍となる。なお、復号時には魚眼半径を算出する必要がある。また、魚眼半径Rがピクチャの短辺の長さの1/2倍よりも小さい場合や、対角線の長さの1/2倍よりも大きい場合など、円形状の魚眼画像がピクチャの画像端と接していない場合は魚眼半径Rを算出できない。しかし、レンズタイプが円周魚眼と対角線魚眼の何れかに限定される場合、魚眼半径に代えてレンズタイプ情報を魚眼情報に含めるようにすれば、レンズタイプ情報は魚眼半径を示す情報よりもデータ量を削減できるので、符号化効率を高くすることが可能となる。
このような本技術の画像処理装置によれば、従来の画像処理装置すなわち中心射影方式の通常レンズを用いて取得した画像の符号化復号処理と、互換性を維持できる。
<7.応用例>
次に、本技術の画像処理装置の応用例について説明する。本技術の画像処理装置は、例えば魚眼レンズを用いて動画像を撮影する撮像装置に適用できる。この場合、撮像装置に画像符号化装置10を設ければ、魚眼画像を効率よく符号化して、符号化ストリームを記録媒体に記録あるいは外部機器に出力できる。また、撮像装置に画像復号装置50を設ければ、符号化ストリームを復号して魚眼画像の記録再生を行うことができる。また、画像符号化装置10を設けた撮像装置を、例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載すれば、移動体の周囲全体の画像を効率よく記録あるいは外部機器に伝送することができるようになる。さらに、魚眼レンズを用いて動画像を撮影する機能を有した携帯型電子機器に本技術の画像処理装置を設ければ、記録媒体に魚眼画像を記録する際に、従来よりもデータ量を削減することが可能となる。
また、復号処理を行う画像処理装置を画像再生装置に設ければ、全天球画像をヘッドマウントディスプレイ等で表示できるようになる。
明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
また、本技術の画像処理装置は以下のような構成も取ることができる。
(1) 魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルを、前記魚眼レンズおよび前記魚眼画像に関する魚眼情報に基づいてスケーリング処理する動きベクトル補正部を備える画像処理装置。
(2) 前記動きベクトル補正部は、前記魚眼レンズの射影方式と魚眼画像の半径に基づいて前記動きベクトルのスケーリング処理を行う(1)に記載の画像処理装置。
(3) 前記動きベクトル補正部は、前記魚眼レンズの中心からの距離に応じて変化する魚眼歪みを補正する補正率を用いて前記動きベクトルのスケーリング処理を行う(2)に記載の画像処理装置。
(4) 前記動きベクトル補正部は、前記補正率と前記魚眼画像の半径を用いて、前記魚眼画像における前記動きベクトルを前記魚眼歪みのない画像における動きベクトルに変換してスケーリングを行い、スケーリング後の前記動きベクトルを前記魚眼画像における動きベクトルに変換する(3)に記載の画像処理装置。
(5) 前記動きベクトル補正部は、正規化された前記補正率を示す前記魚眼レンズの射影方式毎の補正率テーブルから、前記撮像に用いた魚眼レンズに対応する補正率テーブルを用いて前記スケーリング処理を行う(3)または(4)に記載の画像処理装置。
(6) 前記動きベクトル補正部は、前記射影方式毎の補正率テーブルを予め保持する(5)に記載の画像処理装置。
(7) 前記補正率は、前記魚眼レンズの射影方式の特性式と、前記魚眼歪みのない画像を得る中心射影方式の特性式に基づいて算出する(3)乃至(5)の何れかに記載の画像処理装置。
(8) 前記予測動きベクトルの算出に用いる動きベクトルは、前記カレント予測ブロックに対する周辺ブロックの動きベクトルである(1)乃至(7)の何れかに記載の画像処理装置。
(9) 前記魚眼画像の符号化ストリームに前記撮像に用いた魚眼レンズに関する魚眼情報を含める可逆符号化部をさらに備える(1)乃至(8)の何れかに記載の画像処理装置。
(10) 前記可逆符号化部は、前記符号化ストリームに前記スケーリング処理を行うか否かを示す情報を含める(9)に記載の画像処理装置。
(11) 前記魚眼情報は、前記魚眼レンズの射影方式を示す情報と前記魚眼画像の半径を示す情報を含む(9)または(10)に記載の画像処理装置。
(12) 前記魚眼情報は、前記魚眼画像の半径を示す情報に代えて、光学像の投影方式を示す情報を含む(11)に記載の画像処理装置。
(13) 前記魚眼画像の符号化ストリームを復号する可逆復号部をさらに備え、
前記動きベクトル補正部は、前記可逆復号部で前記符号化ストリームを復号して得られた前記撮像に用いた魚眼レンズに関する魚眼情報を用いて前記スケーリング処理を行う(1)乃至(8)の何れかに記載の画像処理装置。
(14) 前記動きベクトル補正部は、前記可逆復号部で前記符号化ストリームを復号して得られた情報で、前記スケーリング処理を行うことが示された場合、前記魚眼情報を用いて前記スケーリング処理を行う(13)に記載の画像処理装置。
この技術の画像処理装置と画像処理方法によれば、魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルが、魚眼レンズおよび魚眼画像に関する魚眼情報に基づいてスケーリング処理される。このため、スケーリング処理が行われていない場合よりも高い符号化効率で魚眼画像の符号化処理または復号処理を行える。したがって、魚眼画像の記録や再生,伝送等を行う電子機器や移動体装置等に適している。
10・・・画像符号化装置
21,68・・・画面並べ替えバッファ
22,33,65・・・演算部
23・・・直交変換部
24・・・量子化部
25・・・可逆符号化部
26・・・蓄積バッファ
27・・・レート制御部
31,63・・・逆量子化部
32,64・・・逆直交変換部
34,66・・・デブロッキングフィルタ
35,67・・・SAOフィルタ
36,71・・・フレームメモリ
37,72・・・選択部
40,74・・・補正方式判別部
41,73・・・イントラ予測部
42・・・インター予測部
43・・・予測選択部
50・・・画像復号装置
61・・・蓄積バッファ
62・・・可逆復号部
75・・・動き補償部

Claims (11)

  1. 魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルを、前記魚眼レンズの中心からの距離に応じて変化する魚眼歪みを補正する補正率および前記魚眼画像の半径を示す魚眼情報に基づいて、前記魚眼歪みのない画像における動きベクトルに変換するスケーリング処理を実行し、前記スケーリング処理後の前記動きベクトルを前記魚眼画像における動きベクトルに変換する動きベクトル補正部
    を備える画像処理装置。
  2. 前記魚眼情報はさらに前記魚眼レンズの射影方式を示し、
    前記動きベクトル補正部は、正規化された前記補正率を示す前記魚眼レンズの射影方式毎の補正率テーブルから、前記撮像に用いた魚眼レンズに対応する補正率テーブルを用いて前記スケーリング処理を行う
    請求項1に記載の画像処理装置。
  3. 前記動きベクトル補正部は、前記射影方式毎の補正率テーブルを予め保持する
    請求項2に記載の画像処理装置。
  4. 前記予測動きベクトルの算出に用いる動きベクトルは、前記カレント予測ブロックに対する周辺ブロックの動きベクトルである
    請求項1に記載の画像処理装置。
  5. 前記魚眼画像の符号化ストリームに前記撮像に用いた魚眼レンズに関する魚眼情報を含める可逆符号化部をさらに備える
    請求項1に記載の画像処理装置。
  6. 前記可逆符号化部は、前記符号化ストリームに前記スケーリング処理を行うか否かを示す情報を含める
    請求項5に記載の画像処理装置。
  7. 前記魚眼画像の符号化ストリームを復号する可逆復号部をさらに備え、
    前記動きベクトル補正部は、前記可逆復号部で前記符号化ストリームを復号して得られた前記撮像に用いた魚眼レンズに関する魚眼情報を用いて前記スケーリング処理を行う
    請求項1に記載の画像処理装置。
  8. 前記動きベクトル補正部は、前記可逆復号部で前記符号化ストリームを復号して得られた情報で、前記スケーリング処理を行うことが示された場合、前記魚眼情報を用いて前記スケーリング処理を行う
    請求項7に記載の画像処理装置。
  9. 魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルを、前記魚眼レンズおよび前記魚眼画像に関する魚眼情報に基づいてスケーリング処理する動きベクトル補正部
    を備え、
    前記魚眼情報が、
    前記魚眼レンズの射影方式、
    魚眼画像の半径、および
    前記魚眼レンズの射影方式の特性式と、前記魚眼レンズの中心からの距離に応じて変化する魚眼歪みのない画像を得る中心射影方式の特性式に基づいて算出された、前記魚眼歪みを補正する補正率を示す、
    画像処理装置。
  10. 魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルを、前記魚眼レンズの中心からの距離に応じて変化する魚眼歪みを補正する補正率および前記魚眼画像の半径を示す魚眼情報に基づいて、前記魚眼歪みのない画像における動きベクトルに変換するスケーリング処理を実行するステップと、
    前記スケーリング処理後の前記動きベクトルを前記魚眼画像における動きベクトルに変換するステップと、
    を含む画像処理方法。
  11. 魚眼レンズを用いて撮像した魚眼画像におけるカレント予測ブロックの予測動きベクトルの算出に用いる動きベクトルを、前記魚眼レンズおよび前記魚眼画像に関する魚眼情報に基づいて動きベクトル補正部でスケーリング処理することを含み、
    前記魚眼情報が、
    前記魚眼レンズの射影方式、
    魚眼画像の半径、および
    前記魚眼レンズの射影方式の特性式と、前記魚眼レンズの中心からの距離に応じて変化する魚眼歪みのない画像を得る中心射影方式の特性式に基づいて算出された、前記魚眼歪みを補正する補正率を示す、
    画像処理方法。
JP2020505588A 2018-03-16 2018-12-04 画像処理装置と画像処理方法 Active JP7310794B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018049200 2018-03-16
JP2018049200 2018-03-16
PCT/JP2018/044524 WO2019176189A1 (ja) 2018-03-16 2018-12-04 画像処理装置と画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2019176189A1 JPWO2019176189A1 (ja) 2021-03-25
JP7310794B2 true JP7310794B2 (ja) 2023-07-19

Family

ID=67907557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020505588A Active JP7310794B2 (ja) 2018-03-16 2018-12-04 画像処理装置と画像処理方法

Country Status (5)

Country Link
US (1) US11245919B2 (ja)
JP (1) JP7310794B2 (ja)
KR (1) KR20200131231A (ja)
CN (1) CN111837394B (ja)
WO (1) WO2019176189A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113785592A (zh) * 2019-06-25 2021-12-10 Oppo广东移动通信有限公司 运动补偿的处理方法、编码器、解码器以及存储介质
US11720995B2 (en) 2021-06-04 2023-08-08 Ford Global Technologies, Llc Image rectification

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193458A (ja) 2007-02-06 2008-08-21 Victor Co Of Japan Ltd カメラ画像圧縮処理装置及び圧縮処理方法
JP2009290889A (ja) 2009-08-07 2009-12-10 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP2011023885A (ja) 2009-07-14 2011-02-03 Canon Inc 映像符号化装置及び映像符号化方法
JP2017120980A (ja) 2015-12-28 2017-07-06 Kddi株式会社 インター予測装置、インター予測方法、動画像符号化装置、動画像復号装置及びコンピュータ可読記録媒体
JP2017536002A (ja) 2014-10-27 2017-11-30 華為技術有限公司Huawei Technologies Co.,Ltd. 画像予測方法および関連装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006295626A (ja) * 2005-04-12 2006-10-26 Canon Inc 魚眼像処理装置及びその方法並びに魚眼像撮像装置
JP2008011079A (ja) * 2006-06-28 2008-01-17 Matsushita Electric Ind Co Ltd 動画像符号化装置、動画像復号化装置及び動画像伝送システム
JP4629131B2 (ja) * 2008-09-03 2011-02-09 大日本印刷株式会社 画像変換装置
JP5631229B2 (ja) * 2011-01-31 2014-11-26 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP2014176034A (ja) * 2013-03-12 2014-09-22 Ricoh Co Ltd 映像伝送装置
JP6614472B2 (ja) * 2013-09-30 2019-12-04 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
KR101904480B1 (ko) * 2014-12-26 2018-10-04 재단법인 다차원 스마트 아이티 융합시스템 연구단 카메라의 왜곡을 고려한 물체 인식 시스템 및 방법
JP2017208619A (ja) * 2016-05-16 2017-11-24 株式会社リコー 画像処理装置、画像処理方法、プログラム及び撮像システム
US10979691B2 (en) * 2016-05-20 2021-04-13 Qualcomm Incorporated Circular fisheye video in virtual reality
US10699389B2 (en) * 2016-05-24 2020-06-30 Qualcomm Incorporated Fisheye rendering with lens distortion correction for 360-degree video
KR102560029B1 (ko) * 2016-09-12 2023-07-26 삼성전자주식회사 가상 현실 콘텐트를 송수신하는 방법 및 장치
US10330935B2 (en) * 2016-09-22 2019-06-25 Apple Inc. Predictive, foveated virtual reality system
KR102503342B1 (ko) * 2017-01-10 2023-02-28 삼성전자주식회사 스테레오 스코픽 비디오 콘텐츠를 전송하기 위한 방법 및 장치
US10506255B2 (en) * 2017-04-01 2019-12-10 Intel Corporation MV/mode prediction, ROI-based transmit, metadata capture, and format detection for 360 video

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193458A (ja) 2007-02-06 2008-08-21 Victor Co Of Japan Ltd カメラ画像圧縮処理装置及び圧縮処理方法
JP2011023885A (ja) 2009-07-14 2011-02-03 Canon Inc 映像符号化装置及び映像符号化方法
JP2009290889A (ja) 2009-08-07 2009-12-10 Ntt Docomo Inc 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP2017536002A (ja) 2014-10-27 2017-11-30 華為技術有限公司Huawei Technologies Co.,Ltd. 画像予測方法および関連装置
JP2017120980A (ja) 2015-12-28 2017-07-06 Kddi株式会社 インター予測装置、インター予測方法、動画像符号化装置、動画像復号装置及びコンピュータ可読記録媒体

Also Published As

Publication number Publication date
CN111837394B (zh) 2024-01-26
CN111837394A (zh) 2020-10-27
US11245919B2 (en) 2022-02-08
WO2019176189A1 (ja) 2019-09-19
KR20200131231A (ko) 2020-11-23
US20200404318A1 (en) 2020-12-24
JPWO2019176189A1 (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
JP5631229B2 (ja) 撮像装置、その制御方法及びプログラム
US11758179B2 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
KR101482896B1 (ko) 최적화된 디블록킹 필터
JP2010016454A (ja) 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
RU2684193C1 (ru) Устройство и способ для компенсации движения в видеоизображении
JP2012257198A (ja) 立体画像符号化装置、その方法、および立体画像符号化装置を有する撮像装置
JP7310794B2 (ja) 画像処理装置と画像処理方法
CN112352425B (zh) 图像处理装置和图像处理方法
KR102161888B1 (ko) 보조 프레임을 지원하는 비디오 코딩 포맷으로 비디오 스트림을 인코딩하기 위한 인코더 및 방법
US20140233645A1 (en) Moving image encoding apparatus, method of controlling the same, and program
US20230224489A1 (en) Method and device for processing video signal using affine motion prediction
JP5441812B2 (ja) 動画像符号化装置、及びその制御方法
WO2010035735A1 (ja) 画像処理装置および方法
US11202082B2 (en) Image processing apparatus and method
JP5171675B2 (ja) 画像処理装置、およびそれを搭載した撮像装置
JP7034363B2 (ja) 画像復号装置、画像復号方法及びプログラム
US11317114B2 (en) Image processing apparatus and image processing method to increase encoding efficiency of two-dimensional image
JP4561701B2 (ja) 動画像符号化装置
WO2020170554A1 (ja) 画像処理装置と画像処理方法
JP2022158242A (ja) 符号化装置及び方法
JP2012222460A (ja) 動画像符号化装置、動画像符号化方法及びプログラム
JP5943757B2 (ja) 画像符号化装置及びその方法
JPWO2009128208A1 (ja) 動画像符号化装置、動画像復号化装置、動画像符号化方法、および動画像復号化方法
JP2009005090A (ja) 符号化装置及び符号化の方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R151 Written notification of patent or utility model registration

Ref document number: 7310794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151