JP2018530225A - 光照射野ベース画像を符号化及び復号する方法と装置、および対応するコンピュータプログラム製品 - Google Patents

光照射野ベース画像を符号化及び復号する方法と装置、および対応するコンピュータプログラム製品 Download PDF

Info

Publication number
JP2018530225A
JP2018530225A JP2018512284A JP2018512284A JP2018530225A JP 2018530225 A JP2018530225 A JP 2018530225A JP 2018512284 A JP2018512284 A JP 2018512284A JP 2018512284 A JP2018512284 A JP 2018512284A JP 2018530225 A JP2018530225 A JP 2018530225A
Authority
JP
Japan
Prior art keywords
image
focus stack
stack
current focus
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018512284A
Other languages
English (en)
Other versions
JP6901468B2 (ja
JP2018530225A5 (ja
Inventor
ギヨテル,フィリップ
トロ,ドミニク
ヴァンダム,ブノワ
パトリック ロペス
パトリック ロペス
ボワソン,ギヨーム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2018530225A publication Critical patent/JP2018530225A/ja
Publication of JP2018530225A5 publication Critical patent/JP2018530225A5/ja
Application granted granted Critical
Publication of JP6901468B2 publication Critical patent/JP6901468B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

画像ごとに異なる焦点距離でフォーカスした画像セットを含む現在の焦点スタックを符号化する方法を開示する。本開示によると、該方法は、前記現在の焦点スタックの画像を表す情報を符号化(31)することであって、前記画像は画像鮮明度基準に従って前記現在の焦点スタックにおいて選択され、前記画像を再構成して再構成画像にすることと、少なくとも再構成された画像からの予測によって、現在の焦点スタックの少なくとも他の画像を符号化すること(32)とを含む。

Description

本開示は、光照射野イメージング、および光照射野データを取得および処理する技術に関する。より詳細には、本開示は、概して、光照射野ベース画像を符号化および復号する方法および装置に関し、画像またはビデオの符号化/復号(すなわち、画像またはビデオの圧縮/復元)の分野において用途がある。
このセクションは、以下に説明して特許請求する本開示の様々な態様に関連する様々な態様の技術を読者に紹介することを意図するものである。この説明は、本発明の様々な態様の理解を容易にする背景情報を読者に提供する役に立つはずである。従って、言うまでもなく、これらの記載は上記を考慮して読むべきであり、先行技術として認める(admissions of prior art)ものではない。
従来の画像キャプチャ装置は、3次元シーンを2次元センサ上にレンダリングする。動作中、従来のキャプチャ装置は、装置内の光センサ(または光検出器)に到達する光の量を表す2次元(2−D)画像をキャプチャする。しかし、この2−D画像は、光センサに到達する光線の方向分布に関する情報(これは光照射野と呼ばれ得る)を含まない。例えば、深度は撮像中に失われる。したがって、従来のキャプチャ装置は、シーンからの光分布に関する情報の大部分を記憶していない。
光照射野キャプチャ装置(「光照射野データ取得装置」とも呼ばれる)は、そのシーンの様々な視点から光をキャプチャすることによって、シーンの4次元(4D)光照射野を測定するように設計されている。このように、これらの装置は、光センサと交差する各光ビームに沿って進む光の量を測定することにより、後処理によって新たなイメージングアプリケーションを提供するための追加の光学情報(光束の方向分布に関する情報)をキャプチャすることができる。光照射野キャプチャ装置によって取得される情報は、光照射野データと呼ばれる。光照射野キャプチャ装置は、本明細書において、光照射野データをキャプチャすることができる任意の装置として定義される。光照射野キャプチャ装置にはいくつかの種類がある:
− 米国特許出願公開第2013/0222633号明細書に記載されているように、イメージセンサと主レンズとの間に配置されたマイクロレンズアレイを使用するプレノプティック装置;
− それぞれのカメラが自分のイメージセンサにイメージを結ぶ(image)カメラアレイ。
また光照射野データは、従来のハンドヘルドカメラを使用することによって様々な視点から撮ったシーンの一連の2次元画像(同じシーンを表す2つの異なる画像が異なる視点でキャプチャされたときのビューと呼ばれる)からCGI(Computer Generated Imagery)を用いてシミュレーションしてもよい。
光照射野データ処理は、シーンのリフォーカスされた画像を生成すること、シーンの遠近図を生成すること、シーンの深度マップを生成すること、拡張被写界深度(EDOF)画像を生成すること、立体画像を生成すること、および/またはこれらの任意の組み合わせを含むが、特に限定されない。
本開示は、より詳しくは、非特許文献1によって開示された図1に示されるようなプレノプティック装置(plenoptic device)によってキャプチャされる光照射野ベース画像にフォーカスする。
このようなプレノプティック装置は、主レンズ(11)、マイクロレンズアレイ(12)、及びフォトセンサ(13)よりなる。より詳しくは、主レンズは被写体をマイクロレンズアレイ上に(またはその近くに)フォーカスする。マイクロレンズアレイ(12)は、収束光線を分離して、マイクロレンズアレイの背後にあるフォトセンサ上の画像にする。
プレノプティック装置とは対照的に、Pelican Imaging(登録商標)カメラなどのカメラアレイ装置は、ビューのマトリックスを直接的に(モザイク解除せずに)提供する。
一般に、4次元(4D)光照射野は、焦点スタックを用いて処理される。焦点スタック(focal stack)は、それぞれが異なる焦点距離に焦点を合わせられた画像の集まりを含む。このような焦点スタックによりユーザは後処理により画像の焦点を変更できる。
光照射野画像またはビデオのデータセット(プレノプティックカメラ、カメラアレイまたはCGI(Computer Generated Imagery)によるシミュレーションにより取得されたかにかかわらず)は、再編成され、フロントレンズの焦点面の近傍に、その焦点面の近傍のレンズによって生成される光照射野と同様の光データボリュームを形成する。このような焦点スタック100は、図2に概略的に示されている。
カメラによる従来の焦点合わせは、焦点スタック100中の画像101,102,103のうちの1つを選択することによってシミュレーションされる。これは、カメラの主光軸zに垂直に焦点面を移動させることに対応する。
これらの豊富なデータ源によって提供される多くの新しい光照射野イメージング機能には、コンテンツを、それが捕らえられた後に操作する機能がある。これらの操作には、さまざまな目的があり、特に芸術的、タスクベースおよび犯罪捜査(forensic)がある。例えば、ユーザは、リアルタイムで、焦点、焦点深度、立体視のベースライン、および視点を変更することが可能である。このようなメディアの相互作用および経験は、光照射野ベースの画像を符号化/復号化するために従来の標準的な画像またはビデオコーデックを使用することによって得られるだろう従来のイメージングフォーマットでは利用できない。
さらに、AIF(All In Focus)画像は、焦点融合(focus fusion)によって生成されてもよい。各焦点スタック画像内で合焦領域を検出し、これらの合焦領域のすべてを融合してAIF画像を形成する。
このような光照射野ベース画像を符号化する従来技術の方法は、標準的な画像またはビデオコーデック(JPEG、JPEG−2000、MPEG4 Part 10 AVC、HEVCなど)を使用することにある。しかしながら、そのような標準的なコーデックは、光照射野イメージング(別名、プレノプティックデータ)の特異性を考慮に入れることができない。光照射野は、あらゆる方向の、空間内のあらゆる点における光の量(「放射輝度」)を記録している。
実際に、従来の標準画像またはビデオコーデック(JPEG、JPEG−2000、MPEG4 Part 10 AVC、HEVCなど)を適用すると、従来のイメージングフォーマットとなる。
特に、従来のフレーム間符号化方式を使用すると、(他の視点から撮られた)他のビューによって提供される知識を考慮することなく、(同じ視点から撮られた)過去、未来、または時間的に隣接する画像からの情報を用いて符号化されるプレノオプティクビューとなる。
代替案として、MPEG MVCのような多視点符号化方法を使用することは、あるビューから別のビューを予測することにあるが、4D光照射野によって提供される深度を符号化するのには適していない。
結果として、従来の標準的な画像またはビデオのコーデックで符号化された4D光照射野データの復号化後、プレノプティック画像の再構成は不正確になる可能性がある。このようなデータからAIF画像を取得することは不可能な場合がある。
したがって、従来技術の少なくとも1つの欠点を回避することができる光照射野ベース画像を符号化/復号化する技術を提供することが望ましい。
R. Ng, et al.著「Light field photography with a hand−held plenoptic camera」(Standford University Computer Science Technical Report CSTR 2005−02, no. 11 (April 2005))
以下は、読者に本開示の幾つかの態様に関する基本的な理解を提供するために開示の簡略化された概要を提示する。この要約は本開示の包括的な概要ではない。本開示の重要な又は必須の要素を特定することは意図していない。以下の概要は、より詳細な説明に対する前書きとして、簡単な形式で、単に本開示の幾つかの態様を提示するものである。
本開示は、画像ごとに異なる焦点距離でフォーカスされた画像セットを含む現在の焦点スタックを符号化する方法で、先行技術の欠点のうち少なくとも1つを緩和する。
かかる方法は、
− 現在の焦点スタックの画像を表す情報を符号化し、前記画像は最大数の合焦画素を含み、前記画像を再構成して再構成画像にすることと、
− 少なくとも再構成された画像からの予測によって、現在の焦点スタックの少なくとも他の画像を符号化することとを含む。
本開示の一実施形態では、焦点スタックに含まれる幾つかの画像中の合焦画素の数がクローズされ(closed)、閾値を越える(またはそれより大きい)とき、最大数の合焦画素を有する画像を使う替わりに、これらの画像の1つを符号化目的で用いることができる。
留意点として、合焦画素の数は画像鮮明度基準に関連することに留意されたい。実際、画像の要素/部分は、フォーカスされている場合、鮮明に(sharp)見える(すなわち、不鮮明でない(not blurred))。それゆえ、合焦画素数を判定するため、当業者は次の文献に記載された技術の1つを用いることができる:J. Kumar et al.著「Sharpness Estimation for Document and Scene Images」、またはK. De and Masilamani V.著「A new No−Reference Image quality Measure for Blurred Images in Spatial Domain」、またはD. Shaked and I. Tastl著「Sharpness Measure: Towards Automatic Image Enhancement」、またはP.V. Vu and D. M. Chandler著「A Fast Wavelet−Based Algorithm for Global and Local Image Sharpness Estimation」。これらの技術は、なかんずく周波数コンテンツ分析(frequency content analysis)やエッジ幅(edge−width)に基づく。このように、本開示の一実施形態では、合焦画素数を明示的に判定する必要はない。実際、鮮明度推定器を、画像に関連する他の値と比較して、鮮明度の値に従って焦点スタック中の画像を選択するのに用いることができる。例えば、焦点スタック中の各画像について、(例えば、前述の文献「A Fast Wavelet−Based Algorithm for Global and Local Image Sharpness Estimation」に記載されているように)鮮明度指標を決定できる。本開示の一実施形態では、鮮明度指標(sharpness index)値が最高である画像が、予測目的のためのベース画像として選択される。本開示の他の実施形態では、幾つかの鮮明度指標値が閾値より大きく、互いに近いとき、これらの画像のそれぞれを予測目的のベース画像(base image)として用いることができる。
よって、当業者は、焦点スタック中の画像を選択するのに鮮明度基準を用いることができる。以下では、説明は、焦点スタック中の参照画像を選択する基準として、合焦画素数の利用のみにフォーカスする。しかし、前述の通り、係る選択は画像鮮明度基準に従って行うことができる。このように、最大数の合焦画像(pixels in focus)を選択基準として利用する場合、他の画像鮮明度基準と置き換えることも可能である。さらに、前述の通り、かならずしも最大が用いられるわけではない。合焦画素数が閾値より大きい画素を参照画像として用いることもできる。
このように、本開示は、同じ視点でキャプチャされ、画像ごとに異なる焦点距離でフォーカスされた、同じシーンの画像セットを含む現在の焦点スタックを符号化する新規な発明的アプローチに依存する。焦点スタックはそのシーンに関連する光照射野データから得られる。
実際、光照射野原画像のマトリックスと比較した主な利点は、焦点を変更することが容易である焦点スタックの具体的な特性から、本開示は利益を享受する。
より正確には、本開示によると、考慮される焦点スタックにおいて最大数の合焦画素を含む画像を表す情報が最初に符号化される。
かかる情報は、例えば、最大数の合焦画素を含むかかる画像のイントラ符号化(intra−encoding)に対応する。この場合、再構成画像は、イントラ符号化に対応する前記情報を復号することにより取得される。
かかる情報は、レシーバが最大数の合焦画素を含むかかる画像を再構成できるシグナリング情報でもあり得る。この場合、再構成画像はデコーダによって再構成されるものに対応する。
次いで、他の画像の少なくとも1つの画素について、予測は、再構成画像中の同一位置にある対応画素の値から値を取得することを含む。
例えば、焦点スタック中で、他の画像が復号され、これは他の画像の画素の真の輝度値と、再構成画像中の同一位置にある対応画素の輝度値との間の輝度差分値を用いて行われる。
換言すると、焦点スタックの構造を利用し、焦点スタックに属する画像間の予測依存性の決定を、最大数の合焦画素を含む画像を予測用の参照画像として用いて行う。このように、本開示によれば、シーンに関連する光照射野から得られる焦点スタックを、画像符号化のための新しいピクチャグループ(group of picture (GOP))として利用する。
留意すべき点として、以下の通り、「再構成(reconstructed)」と「復号(decoded)」との用語は互換的に使える。通常、「再構成」はエンコーダ側で用いられ、「復号」はデコーダ側で用いられる。
ある態様によると、現在の焦点スタックにおいて、最大数の合焦画素を含む画像は全合焦(all−in focus)画像である。
全合焦画像(AIF画像)は、すべての画素が合焦(in focus)である再構成画像に対応する。
留意すべき点として、本開示によると、全合焦画像を外部のプロバイダから受信することもできるし、または全合焦画像は本方法の前のステップ中に取得される。
本開示の実施形態によると、現在の焦点スタックの少なくとも1つの他の画像を少なくとも前記再構成画像からの予測によって符号化することは、前記他の画像の少なくとも1つの画素について、前記再構成画像内の対応する位置に配置された対応する画素の少なくとも1つの値と、符号化する前記他の画像に関連する焦点スタックにおける位置に応じた不鮮明化関数(blurring function)から値を符号化することを含む。
このような不鮮明さ(blur)モデルを取ることにより、符号化効率を改善できる。 不鮮明化関数の典型的な例は
Figure 2018530225
で与えられるガウス関数である。ここで、σはガウス分布の標準偏差であり、焦点面に対する画素距離(深度)に依存する。理想的には、σは焦点スタック中の画素ごとに、及び画像ごとに計算される。
元の(全合焦画像)グレースケール画素が標準偏差σxを有し、小さい標準偏差がσyである現在の画素(現在の画像面)では、σは
Figure 2018530225
により近似できる。
デコーダにおいて同じプロセスを用いるため、σを送信しなければならない。ビットレートを低減するため、この情報はコーディングユニットまたはブロックごとに送信されてもよい(ユニットのヘッダで、又はメタデータとして、またはSEIメッセージ(SEIはSupplemental Enhancement Informationを意味する)として)。
本開示の一実施態様によると、現在の焦点スタックは様々な視野角でキャプチャされた焦点スタックグループの一部であり、焦点スタックグループの焦点スタックはその視野角の方向順にしたがって順序付けられ、符号化方法はさらに、
− 参照視野角と呼ばれる、前記現在の焦点スタックの方向順序および視野角からスタック間画像符号化順序を決定することと、
− 現在の焦点スタックの再構成画像からスタック間画像符号化順序に従って処理された焦点スタック群の少なくとももう1つの焦点スタックの画像の少なくとも1つの画素を符号化することであって、少なくとももう1つの焦点スタックの画像は、最大数の合焦画素を有する画像であり、参照画像と呼ばれる、ことを含む。
換言すると、異なる視野角でキャプチャされた焦点スタックグループの構造を考慮して、焦点スタックグループの焦点スタックは、焦点スタックグループに属する各焦点スタックについて、それらの視野角の方位順序に従って並んでいるので、最大数の合焦画素を有する画像に対応する参照画像は、参照視野角でキャプチャされた現在の焦点スタックの再構成画像から符号化される。
結果として、(イントラ符号化に対応する情報により、またはデコーダにそれの再構成を許可するシグナリング情報により表された)参照視野角でキャプチャされた現在の焦点スタックの1つの画像から始めて、焦点スタックグループに属する他の各焦点スタックの各参照画像を符号化することができ、次いで、現在の焦点スタックについて前述したように、参照視野角とは異なる視野角でキャプチャした所与の焦点スタックの参照画像は、その所与の焦点スタックの他のすべての画像を符号化するのに用いられる。
この特定の場合を考えると、参照視野角とは異なる視野角でキャプチャされた焦点スタックの角参照画像が全合焦画像(all−in focus image)であるとき、この実施形態は事前に決定されたスタック間画像符号化順序に従って、隣接する全合焦画像から各全合焦画像を予測することに対応する。
例えば、双方向予測が実装される場合を考えると、スタック間画像符号化順序は、次を考慮することを含む:
− 現在の焦点スタックの最大数の合焦画素を含む画像に対応する再構成画像は「Iフレーム」(すなわち、焦点スタックグループの他のすべての画像から独立して符号化される画像)である。
− 現在の焦点スタックの再構成画像に関連する参照視野角と異なる最大視野角差を表す他の2つの焦点スタックの2つの参照画像は、「Pフレーム」と見なせる。次いで、
− 現在の焦点スタックの「I再構成画像」と「P参照画像」との間の中間視野角でキャプチャされたその他の参照画像は「Bフレーム」と見なされる。
本実施形態の第1の変形例によると、参照画像の画素は、参照画像と、現在の焦点スタックの再構成画像との間の視野角を表す情報から、視野角の参照値でキャプチャされた、現在の焦点スタック再構成画像から符号化される。
実際、同じシーンを表すが異なる視点でキャプチャされた2つの異なる画像に対応する2つのビュー間の視差が分かっており(計算されるか、符号化する焦点スタックグループの画像とともに提供される)、利用可能であると仮定すると、視差の利用を代替案として実行できる。これは、参照視野角でキャプチャされた現在の焦点スタックの再構成画像と最も一致する、焦点スタックグループの少なくとも他の焦点スタックの画像の1つの画素を検索することにある。
本実施形態の第2の変形例によると、視野角の前記参照値とは異なる視野角でキャプチャした前記参照画像の各画素の値は、視野角の前記参照値でキャプチャされた現在の焦点スタックの前記再構成画像から、及び前記焦点スタックグループに関連するシーンの階層的深度画像から符号化される。
換言すると、この第2の変形例によると、参照視野角でキャプチャされた現在の焦点スタックの再構成画像における最良の一致をする、焦点スタックグループの少なくとも他の焦点スタックの画像の1つの画素を検索する替わりに、階層的深度画像符号化方式(layered depth image encoding scheme)を用いる。
より正確には、階層的深度画像(LDI)符号化方式は、1つの投影中心の下に複数の参照画像をマージするShade et al.著「Layered Depth Images」(in proceedings of SIGGRAPH 1998)により提案されている。かかる符号化方式は、閉塞問題(occlusion problems)の解決を、1つの参照画像をワープする単純性を維持しつつ、画素ごとの複数の深度を保持することにより行う。このように、LDI方式は、画像、深度/視差および遮蔽領域を符号化し、1つのビュー内で閉塞する(occlude)領域を再構成することを含む。この領域は、視差だけによって再構成することができない。
他の一実施形態では、前記焦点スタックグループは、基準時刻t0にキャプチャされ、時刻tにキャプチャされた少なくとも1つの他の焦点スタックグループをさらに含むシーケンスの一部であり、前記基準時刻t0にキャプチャされた前記現在の焦点スタックの再構成画像から実行された時間予測を用いて、焦点スタックグループのシーケンスの時刻tにキャプチャされた少なくとも1つの他の焦点スタックグループの、視野角の前記参照値でキャプチャされた焦点スタックの参照画像の少なくとも1つの画素を符号化することを含む。
言い換えると、本開示のこの実施形態によると、参照時刻t0における参照視野角でキャプチャされた現在の焦点スタックの最大数の合焦画素を含む画像に対応する1つの画像から始めて、異なる時刻にキャプチャされた複数の焦点スタックグループを含む全体シーケンスを符号化することができる。
このようなシーケンス全体の符号化は、焦点距離、視野角、およびキャプチャ時刻に対応する焦点スタック群のシーケンスの3つのパラメータを考慮して、3つのレベルの符号化を実施する。
− 所与のキャプチャ時刻および所与の視野角でキャプチャされた焦点スタックの焦点距離次元を符号化することを可能にする「スタック内符号化」であって、焦点スタックに属する各画像が異なる焦点距離でキャプチャされることを可能にする。
− 所与の時刻においてキャプチャされた焦点スタックグループの視野角次元を符号化させる「スタック間符号化」であって、その焦点スタックグループに属する各焦点スタックは異なる視野角でキャプチャされる、スタック間符号化と、
− 焦点スタックグループのシーケンスの時間次元を符号化させる「インター符号化(intere encoding)」であって、そのシーケンスに属する各焦点スタックグループは異なる時刻にキャプチャされる。
留意すべき点として、これら3つの符号化レベルの任意の組み合わせを、本開示により実装でき、シーケンス全体の符号化を成功できる。
例えば、参照時刻t0において参照視野角でキャプチャされた現在の焦点スタックの最大数の合焦画素を含む画像から始めて、最初に「インター符号化」、次に「スタック内符号化」、最後に「スタック間符号化」を適用することが可能であり、他の一例によると、「スタック間符号化」から始めて、次いで「インター符号化」、次いで「インター符号化」、最後に「スタック内符号化」が可能である。
本開示の他の態様によると、本方法は、現在の焦点スタックを表す信号に、現在の焦点スタックの全合焦画像を再構成するマップを挿入することを含む。
より正確には、そのようなマップは、各画素について、現在の焦点スタック内のどの画像が使用されるべきか(例えば、考慮される画素が合焦である場合)指示する。
本開示の他の態様に関する信号は、画像ごとに様々な焦点距離でフォーカスされた画像セットを含む少なくとも現在の焦点スタックを表す信号であって、少なくとも、
− 現在の焦点スタックの画像を表す情報であって、画像は最大数の合焦画素を含む、情報と、
− 前記現在の焦点スタックの少なくとも他の画像に関連し、最大数の合焦画素を含む画像の少なくとも再構成画像からの予測により取得される情報とを含む。
本開示の他の態様は、上記の信号を担う記録媒体に関する。
本開示の他の態様に関する方法は、画像ごとに様々な焦点距離でフォーカスされた画像セットを含む少なくとも現在の焦点スタックを復号する方法である。かかる方法は、
− 現在の焦点スタックの画像を表す情報を復号することであって、画像は最大数の合焦画素を含む、ことと、
− 少なくとも前記復号された画像からの予測によって、現在の焦点スタックの少なくとも他の画像を再構成することとを含む。
かかる復号方法は、上記の符号化方法に従って符号化された信号を復号するのに特に適している。
このように、同じ予測ステップの実行は、予測残差(信号で送信される)を予測に任意的に負荷することにより、所与の画素を再構成するように、符号化時に実行されるように行われる。
この復号方法の特徴と利点は符号化方法のそれと同じである。そのため、それらを詳細には説明しない。
本開示の他の態様に関する装置は、画像ごとに様々な焦点距離でフォーカスされた画像セットを含む少なくとも現在の焦点スタックを符号化する装置であって、少なくとも、
− 現在の焦点スタックの画像を表す情報を符号化し、前記画像は最大数の合焦画素を含み、前記画像を再構成して再構成画像にする手段と、
− 少なくとも再構成された画像からの予測によって、現在の焦点スタックの少なくとも他の画像を符号化する手段とを含む。
本開示の他の一実施形態では、符号化装置であって、メモリと、前記メモリに結合した少なくとも1つのプロセッサであって、符号化プロセスに関して前述したステップを実行するように構成されたものとを含む。
かかる符号化装置は、上記の通り、符号化方法を実装するように特に適合されている。
本開示の他の態様に関する装置は、画像ごとに様々な焦点距離でフォーカスされた画像セットを含む少なくとも現在の焦点スタックを復号する装置であって、
− 現在の焦点スタックの画像を表す情報を復号する手段であって、画像は最大数の合焦画素を含む、手段と、
− 少なくとも前記復号された画像からの予測によって、現在の焦点スタックの少なくとも他の画像を再構成する手段とを含む。
本開示の他の一実施形態では、復号装置は、メモリと、前記メモリに結合した少なくとも1つのプロセッサであって、復号プロセスに関して前述したステップを実行するように構成されたものとを含む。
かかる復号装置は、上記の通り、復号方法を実装するように特に適合されている。
本開示は、上記の方法を実装するように構成されたプロセッサを有する装置に関する。
本開示は、通信ネットワークからダウンロード可能であり、及び/又はコンピュータにより読み取り可能な媒体上に記録され、及び/又はプロセッサにより実行可能であり、上記のように焦点スタックを符号化及び/又は復号する方法を実装するプログラムコード命令を含むコンピュータプログラム製品に更に関する。
本開示は、コンピュータプログラム製品が記録され、プロセッサにより実行され得る非一時的コンピュータ読み取り可能媒体であって、上記の通り、焦点スタックを符号化及び/又は復号する方法を実装するプログラムコード命令を含む、非一時的コンピュータ読み取り可能媒体にも関する。
そのようなコンピュータプログラムは、コンピュータ可読記憶媒体に記憶されてもよい。本願のコンピュータ読み取り可能記憶媒体は、情報をその中に記憶する本来的機能、及びそれから情報の読み出しをする本来的機能を与えられた、非一時的記憶媒体である。コンピュータ読み取り可能記憶媒体は、例えば、電子的、磁気的、光学的、電磁気的、赤外線、又は半導体のシステム、装置、又は装置、又はそれらの任意の好適な組み合わせである。言うまでもなく、次のリストは、本原理を適用できるコンピュータ読み取り可能記憶媒体のよりぐらい的な例を提供するものであるが、当業者には明らかなように、単なる例示であり網羅的なものではない:ポータブルコンピュータディスケット;ハードディスク;リードオンリーメモリ(ROM);消去可能プログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ);ポータブルコンパクトディスクリードオンリーメモリ(CD−ROM);光学的記憶装置;磁気記憶装置;又はそれらの任意の好適な組み合わせ。
言うまでもなく、上記の概要と、下記の詳細な説明とは、説明をするためのものであり、特許請求の範囲に記載された発明を制限するものではない。
言うまでもなく、本明細書において「one embodiment」または「an embodiment」と言う場合、記載した実施形態が、ある機能、構造、または特徴を含むが、かならずしもすべての実施形態がその機能、構造、または特徴を含むとは限らないことを意味する。
さらに、かかる文言は必ずしも同じ実施形態を参照しているとは限らない。さらに、ある機能、構造、または特徴をある実施形態について説明した場合、明示的に記載していようがいまいが、他の実施形態に関するそれらの機能、構造、または特徴に影響が及ぶことは、当業者には自明である。
本開示の特定の性質、ならびに本開示の他の目的、利点、特徴および使用は、添付の図面と併せた以下の実施形態の説明から明らかになるであろう。
本発明の実施形態は、例として与えられ保護範囲を限定しない以下の説明と図面を参照して、より良く理解できるだろう。
先行技術に関連して既に示した、プレノプティックカメラを示す概念図である。 先行技術に関連して既に示した、画像の焦点スタックの一例を示す図である。 本開示による符号化方法の主要ステップを示す概略図である。 現在の焦点スタックを「スタック内符号化」するために実装された符号化順序の例を概略的に示す図である。 グループ焦点スタックの例を示す図である。 焦点スタックのグループの「スタック間符号化」の例を示す。 焦点スタックのグループの時間的シーケンスの「インター符号化(inter encoding)」の例を示す図である。 本開示によって符号化された焦点スタックのグループのシーケンスを含む信号構造を示す概略図である。 本開示による復号方法のステップを示す概略図である。 本開示の一実施形態による装置のアーキテクチャの例を示す図である。 類似または同一の要素は、同じ参照番号で参照される。図中のコンポーネントは必ずしも寸法通りではなく、本発明の原理を例示するに当たり、強調した部分もある。
<一般的原理>
本開示の一般的原理は、焦点スタックに対応する新しいピクチャグループ(GOP)構造内の予測依存性を決定することによって、光照射野コンテキストにおいて焦点スタックを符号化する新しい方法にある。
本開示の実施形態における画像の焦点スタックを符号化/復号する符号化及び復号方法、対応する装置、及びコンピュータ可読記憶媒体をここで説明する。
しかし、本開示は、多数の代替的な形式で実施でき、ここに開示した実施形態に限定されると解釈してはならない。したがって、本開示はいろいろな一部変更や代替的形体をとりうるが、具体的な実施形態を図面中で例として示し、以下に詳細に説明する。しかし、言うまでもなく、開示した具体的な形式に本開示を限定する意図ではなく、逆に、本開示は請求項で定められた開示の精神と範囲に入るすべての修正、代替物、構成、及び等価物をカバーする。
ここで用いる用語は、具体的な実施形態を説明することを目的としており、本開示の限定を意図したものではない。ここで、冠詞「a」、「an」、及び「the」は、明らかに文脈に反しない限り、複数の場合も含む。さらに、言うまでもなく、「有する」、「含む」との用語は、本明細書で用いるとき、記載した特徴、整数、ステップ、動作、要素及び/又はコンポーネントがあることを示し、その他の特徴、整数、ステップ、動作、要素、コンポーネント及び/またはこれらのグループがあることを排除するものではない。
さらに、ある要素は、他の要素に「応答する(responsive)」または「接続されている(connected)」というとき、その要素に直接的に応答しまたは接続されていてもよいし、媒介する要素があってもよい。対照的に、ある要素が他の要素に「直接応答する(directly responsive)」または「直接接続される(directly connected)」と言うとき、媒介する要素はない。本明細書で使用される場合、「および/または」という用語は、関連する列挙された項目の1つまたは複数の任意のおよびすべての組み合わせを含み、「/」と省略することがある。
言うまでもなく、第1、第2などの用語は、ここでは様々な要素を説明するために使用されるが、これらの要素はこれらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。本開示の教示から逸脱することなく、例えば、第1の要素を第2の要素と呼んでもよく、同様に、第2の要素を第1の要素と呼んでもよい。
幾つかの図には、主要な通信方向を示す矢印を通信パス上に含むが、言うまでもなく、通信は図示した矢印とは反対の方向に行われてもよい。
幾つかの実施形態をブロック図と動作フローチャートを参照して説明するが、各ブロックは回路素子、モジュール、またはコードの一部を表す。コードの一部は、指定された論理機能を実装する一以上の実行可能命令を含む。また、他の実施形態では、ブロック内に記されている機能が、記載された順序から外れることがあることにも留意されたい。例えば、順次的に示された2つのブロックは、その機能に応じて、実際には、実質的に同時に実行してもよく、逆の順序で実行してもよい。
本明細書において「一実施形態」とは、その実施形態に関して説明する具体的な機能、構造、特徴などが本開示の少なくとも1つの実施形態に含まれ得ることを意味している。本明細書ではいろいろな箇所で「一実施形態とは」または「一実施形態によれば」と記載するが、必ずしも同じ実施形態を指すものではなく、別の、または代替的な実施形態は、必ずしも他の実施形態と互いに排他的なものではない。
特許請求の範囲に示す参照符号は例示であり、請求項の範囲を限定するものではない。
明示的には説明していないが、本実施形態及び変形は任意の組み合わせやサブコンビネーションで利用できる。
この開示は、焦点スタックのビューの画素を符号化/復号する場合を説明するが、シーケンスに属する各ビューが以下に説明するように順次符号化/復号されるので、焦点スタックのグループのシーケンス(プレノスコープビデオ)の符号化/復号に拡張される。
<焦点スタック>
図2に示すように、焦点スタック100は、異なる焦点面(すなわち、異なる焦点距離)に焦点を合わせたS個の画像Is(s∈[1,S])の集まりである。)のキューブを画定する。ここで、Sはユーザが選択した画像数または装置(例えば、エンコーダ/デコーダ)により要求される限度である。したがって、焦点スタック100内の2つの連続画像間の(z軸上の)距離または距離間隔は、これら2つの連続画像にリンクされた2つの焦点面間の距離に対応する。
記載された焦点スタックの計算は、4Dの光照射野が、レンズアレイおよび任意的な主レンズで、単一のイメージセンサによって記録されるという仮定に基づくことができる。しかしながら、焦点スタックの計算は、このようなタイプの光照射野カメラによって記録された4D光照射野に限定されないので、任意のタイプの光照射野カメラによって記録される4D光照射野に基づく再フォーカス画像の焦点スタックを計算することが可能であることに留意すべきである。
<符号化方法>
図3は、本開示による少なくとも1つの現在の焦点スタックFt0,v0を符号化する方法の主要ステップを模式的に示す図である。この方法は、符号化装置によって実行することができる。少なくとも1つの現在の焦点スタックFt0,v0は、図3に示すように、ある画像から別の画像に異なる焦点距離に焦点を合わせたS枚の1組の画像Is_Tt0,v0を含む。
特定の非限定的な実施形態によれば、少なくとも1つの現在の焦点スタックFt0,v0を符号化する方法(30)は、第1に、最大数の合焦画素を含む現在の焦点スタックFt0,v0をイントラ画像として符号化するステップ(31)と、第2に、その画像を再構成して再構成画像にするステップ(31)とを含む。
この特定のケースでは、考慮される焦点スタック内で最大数の合焦画素を含む画像を表す情報は、最大数の合焦画素を含むそのような画像のイントラ符号化に対応する。
任意的に、点線で表されるように、焦点スタックFt0,v0の最大数の合焦画素を含む画像は、全合焦(all−in focus)画像(AIF)である。
AIF画像は、外部プロバイダから受信されてもよく、または計算されてもよい(ステップ3000)。
さらに、現在の焦点スタックの最大数の合焦画素を含む画像が全合焦画像(AIF)である場合、イントラ画像として符号化されたAIF画像を受信機に送信し、この受信器が、符号化され送信された現在の焦点スタックを復号することも可能である。
別の変形例では、符号化された現在の焦点スタックを表す信号に、マップを挿入することができ(3001)、そのマップによりAIF画像を再構成することができるようにしてもよい。そのような挿入(3001)は、イントラ画像として符号化されたAIF画像の送信を回避する。実際、このようなマップを受信すると、レシーバは焦点スタックの他の画像を復号する前にAIFを再構成する。
結果として、この特定の場合には、AIF(すなわち、現在の焦点スタックの最大数の合焦画素を含む画像)を表す情報は、前記マップに直接対応することができ、または(符号化されなければならない)そのマップが、情報ビットのように、復号のために用いられなければならないことを理解する役に立つ他のシグナリング情報であってもよい(31)。
そのようなマップは、各画素について、現在の焦点スタック内のどの画像が使用されるべきか(例えば、考慮される画素が合焦である場合)指示する。
一旦、再構成画像IREC_Tt0,v0が得られると(31)、現在の焦点スタックFt0,v0の少なくとも他の画像Is_Ft0,v0が、少なくとも再構成画像IREC_Tt0,v0から予測(320)により符号化される(32)。換言すると、他の画像Is_Ft0,v0の画素について、予測(320)は、再構成画像中の同一位置にある対応画素の値から値を取得することを含む。
例えば、現在の焦点スタックFt0,v0中で、他の画像Is_Ft0,v0が復号され、これは他の画像の画素の真の輝度値と、再構成画像IREC_Tt0,v0中の同一位置にある対応画素の輝度値との間の(残差または残差信号としても知られている)輝度差分値を用いて行われる。
最大数の合焦画素を含む画像に関連する再構成画像IREC_Tt0,v0を除き、現在の焦点スタックFt0,v0のS枚の画像すべてのこのような符号化(32)は、「イントラスタック符号化(intra−stack encoding)」と呼ばれ、現在の焦点スタックFt0,v0のS枚の画像すべての間の依存性を利用するものである。すべての画像は、例えばイントラ画像として事前に符号化された少なくとも再構成画像IREC_Tt0,v0から予測されるからである。
任意的に、符号化効率を改善するため、現在の焦点スタック中の各画像の位置に応じて、不鮮明化モデル(321)を追加することもできる。
不鮮明化プロセス(321)は、次のように定義できる:
サイズ[m×n](すなわち、m画素×n画素)の考慮中の画像Is_Ft0,v0の各画素(座標を(x、y)とする)に対して、g(x,y)=h(x,y)×f(x,y)+n(x,y)、ここで:
− f(x,y)は、現在の焦点スタックFt0,v0の再構成画像IREC_Tt0,v0の座標(x,y)の同一位置画素の値に対応し、
− h(x,y)は、現在の焦点スタックFt0,v0の他の画像と、再構成画像IREC_Tt0,v0との間の不鮮明度(blur)を表す不鮮明化関数に対応し、
− n(x,y)は、加わるノイズであり、
− g(x,y)は、現在の焦点スタックFt0,v0のIs_Ft0,v0を符号化する考慮中の画像の不鮮明化画素(blurred pixel)に対応し、不鮮明化値(blurring value)は画像源画像(source image)として用いられる再構成画像IREC_Tt0,v0から取得される。
ノイズn(x,y)を無視すると、不鮮明化関数による畳み込みは
Figure 2018530225
により与えられる。ここで、
a=(m−1)/2、b=(n−1)/2である。
不鮮明化関数の典型的な例は
Figure 2018530225
で与えられるガウス関数である。ここで、σはガウス分布の標準偏差であり、焦点面に対する画素距離(深度)に依存する。理想的には、σは焦点スタック中の画素ごとに、及び画像ごとに計算される。例えば、σは次のように推定できる:
元の(全合焦画像)グレースケール画素値が標準偏差σxを有し、現在の画素(現在の画像面)では小さい標準偏差がσyであるとすると、σは
Figure 2018530225
により近似できる。
デコーダにおいて同じプロセスを用いるため、σを送信しなければならない。ビットレートを低減するため、この情報はコーディングユニットまたはブロックごとに送信されてもよい(ユニットのヘッダで、又はメタデータとして、またはSEIメッセージ(SEIはSupplemental Enhancement Informationを意味する)として)。
T.J Kosloff et al.著「An Algorithm for Rendering Generalized Depth of Field Effects Based on Simulated Heat Diffusion」(International Conference on Computational Science and Its Applications, 2007)により開示されたものなど、他の不鮮明化モデル(blurring model)を使うこともできる。
値g(x,y)が得られると、画素の真の値と比較される。この画素の座標は、符号化する他の画像における(x,y)である。これら2つの値の間の差分(残差とも呼ばれる)を用いて、符号化する他の画像Is_Ft0,v0の画素を符号化する。
逆に、復号において、現在の焦点スタックの最大数の合焦画素を含む画像を表す情報を復号することにより得られる、再構成画像中の同一位置にある画素の値から始めて、残差を再構成画像IREC_Tt0,v0中の同一位置にある画素の不鮮明化結果に加えることにより、座標が焦点スタックFt0,v0の復号する他の画像の(x,y)である画素が得られる。
図4は、時刻t0において視野v0でキャプチャされた現在の焦点スタックFt0,v0の「スタック内符号化(intra−stack encoding)」の一例を示す概略図である。現在の焦点スタックFt0,v0の画像Is_Ft0,v0は、例えば、第1画像Is_Ft0,v0(41)の焦点面と、後続する各画像(42,43,44,45,46)の焦点面との間の距離に応じて、昇順O_f_dにしたがって順序付けられる。そのような例によれば、予測(320)が双方向予測であることを考慮すると、再構成画像IREC_Ft0,v0(40)は「Iフレーム」と見なされ、例えば焦点スタックFt0,v0の中央に位置する画像に対応する。
再構成画像IREC_Ft0,v0(40)を「Iフレーム」として使用して、焦点スタックFt0,v0の2つの極端な画像(すなわち、最初の画像(41)および最後の画像(46))は、「Pフレーム」として予測的に符号化される。それらは再構成され、中間画像を「Bフレーム」として予測的に符号化するために後で使用される。「Bフレーム」は、再構成画像IREC_Ft0,v0に対応する「Iフレーム」(40)と、「Pフレーム」(41および46)のうちの1つとの間に位置する。より正確には、「Bフレーム」は、IREC_Ft0,v0と、参照画像として使用される再構成された「Pフレーム」との両方を使用して予測される。
このように、留意点として、本開示に従って提案される「イントラスタック」符号化においてこの例に従って実装される符号化順序は、スタック順序O_f_dとは異なる。(例えば、焦点スタックの中央に位置する)焦点の最大数の合焦画素を有する「Iフレーム」(40)が、例えば、最初にイントラ画像として符号化され、次に、焦点スタックの最初と最後の画像に対応する「Pフレーム」(41及び46)が符号化され、最終的に「Iフレーム」(40)と「Pフレーム」(41,46)のうちの1つとの間に位置する中間画像に対応する「Bフレーム」(42,43,44及び45)が符号化される。
アプリケーションに応じて、現在の焦点スタックFt0,v0は、現在の焦点スタックFt0,v0と同じ時刻t0にキャプチャされるが、現在の焦点スタックFt0,v0の視野角v0と異なる視野角を有する焦点スタックのグループGtoの一部である可能性がある。
例えば、図5は、同じシーン(50)からキャプチャされた焦点スタックのグループGtoの例を示しており、2つの焦点面(すなわち、S = 2)はそれぞれ下記に対応する:
− 画像500,501および502がキャプチャされた第1の焦点面、および
− 画像500,501および5000がキャプチャされた第2の焦点面。
3つの異なる視野角(すなわち、V = 3)はそれぞれ下記に対応する:
− 主キャラクタが軽く左に向けられている2つの画像500および5000をキャプチャするための第1の視野角、
− 主キャラクタがフロントビューでキャプチャされる2つの画像501および5001をキャプチャするための第2の視野角、及び
− 主キャラクタが軽く右に向けられている2つの画像502および5002をキャプチャするための第3の視野角。
この任意的な場合(図3の左側の点線で示されるように)、「スタック間符号化」3400が実行され、焦点スタックのグループGtoに属するすべての画像を符号化する。
より正確には、焦点スタック群のうちの複数の焦点スタックは、例えば、図5または図6に示されるように、視野角の方向順序に従って順序付けられる。
この場合には、「スタック間符号化」は、
− 参照視野角v0と呼ばれる、現在の焦点スタックの方向順序および視野角v0からスタック間画像符号化順序を決定すること(33)、
− 現在の焦点スタックの再構成画像IREC_Ft0,v0からスタック間画像符号化順序に従って処理された焦点スタック群Gの少なくとももう1つの焦点スタックFt0,v0の画像の少なくとも1つの画素を符号化すること(34)であって、少なくとももう1つの焦点スタックFt0,v0の画像は、最大数の合焦画素を有する画像であり、参照画像と呼ばれる、ことを含む。
図5に関して、向きの順序は、メインキャラクタに対してキャプチャ装置の位置を左から右へと追従させるように画像を順序付けることにある。「スタック間符号化」予測(320)で実施される符号化(34)が双予測であることを考慮すると、再構成画像IREC_Ft0,v0は「Iフレーム」と考えられ、例えば画像5001に対応し、メインキャラクタは視野角v0でキャプチャされた顔である。
図6は、同じ場面からキャプチャされた焦点スタックのグループGtoの別の例を示す。再構成画像IREC_Ft0,v0(60)の焦点面以外の6つの焦点面(すなわちS = 6)と、現在の焦点スタックFt0,v0の視野角v0以外の4つの異なる視野角(すなわち、V = 0)が使用される。
視野角v1、v2、v0、v3およびv4は、方向順序O_Oに従って順序付けられる。
「スタック間符号化」(3400)は、少なくとも「Iフレーム」と見なされる再構成画像IREC_Ft0,v0(60)からすべての参照画像(61,62,63,64)を符号化することを含む。
画像(61)および(64)に対応する焦点スタックのグループGtoの方向順序を考慮するとき、2つの極端な参照画像は、「Pフレーム」としてIREC_Tt0,v0から予測的に符号化され、再構成される。再構成された「Pフレーム」は、中間画像を「Bフレーム」(62および63)として予測的に符号化するために後で使用され、「Bフレーム」(62および63)は、再構成画像IREC_Tt0,v0(60)に対応する「Iフレーム」と、複数の「Pフレーム」(61および64)のうちの1つとの間にある。
このように、留意点として、符号化順序は、本開示に従って提案される「スタック間」符号化中にこの例に従って実装され、方向順序O_Oとは異なる。焦点スタック群の中央に位置する「Iフレーム」(60)は、例えば、最初にイントラ画像として符号化され、次に、「Pフレーム」(61及び64)が符号化され、最後に「Iフレーム」(60)と「Pフレーム」(61と64)のうちの1つとの間に位置する中間画像に対応する「Bフレーム」(62と63)が符号化される。
第1の変形例によれば、1つの参照画像(61,62,63または64)が、考慮される焦点スタック、例えばFt0,v0中の焦点スタックFt0,v1、Ft0,v2、Ft0,v3、Ft0,v4、Ft0,v5を含む焦点スタック群中の1つの焦点スタックに対して符号化されると、6つの他の焦点面の他の画像は、上述の「スタック内符号化」3200を使用して符号化される。
第2の変形例によると、すべての参照画像(61,62,63又は64)は、再構成画像IREC_Tt0,v0から符号化でき、次いで、各焦点スタックFt0,v1、Ft0,v2、Ft0,v3、Ft0,v4、Ft0,v5に対して、「スタック内符号化」3200が実行される。
「スタック間符号化」の特徴によれば、焦点スタックのグループGtoの画像間の視差(341)が既知であり、利用可能である(計算され、または利用可能であり、またはそれらの画像とともに送信された)と仮定して、このような視差(341)を用いて、再構成画像IREC_Tt0,v0(60)から1つの参照画像(61,62,63または64)の予測を改善する。
そのような視差を考慮に入れることは、予測中に実施することができる最良のマッチの古典的な探索に関する代替案である。
例えば、「Pフレーム」(61)に対応する参照画像の座標(x,y)の1つの画素に対して、画素Pv(x,y)の値は、Pv(x,y)=Iv(x+dx,y+dy)である。ここで、dxとdyはそれぞれ水平方向と垂直方向における視差(diisparities)である。
「スタック間符号化」の別の特徴によれば、これらのビューを符号化するための別の代替手段として、階層的深度画像(LDI)符号化方式を使用することができる(342)。LDI方式は、画像、深度/視差および遮蔽領域を符号化し、1つのビュー(すなわち画像)内で遮蔽された領域を再構成することを含む。この領域は、視差によって再構成することができない。
アプリケーションに応じて、現在の焦点スタックFt0,v0と同じ時刻t0にキャプチャされた焦点スタックのグループGtoは、図7に示したt0とは異なる時刻tにキャプチャされた焦点スタックの少なくとも1つの他のグループGtをさらに含むシーケンスSeqにも属することも可能である。
この場合、本開示による方法は、焦点スタックの少なくとも1つの他のグループGtの視野角v0の基準値でキャプチャされ、焦点スタックのグループのシーケンスSeqの時刻tでキャプチャされた、焦点スタックの参照画像(71)の少なくとも1つの画素の「インター符号化」(3500)を含み、基準時点t0でキャプチャされた焦点スタックのグループGtoの現在の焦点スタックFt0,v0の再構成画像IREC_Ft0,v0(70)から実行される時間的予測(35)を使用することによって達成される。
図からわかるように、図7に表した焦点スタックのグループのシーケンスは、それぞれ焦点スタックGt0とG5の2つのグループのみを含む(すなわち、T=2であり、ここでTは1つのシーケンスSeqの焦点スタックのグループの数である)。このように、それ自体が「Iグループ」と見なせる参照時点t0においてキャプチャされたグループGt0に対して、焦点スタックのグループGtは「Pグループ」と見なせる。実際、「Pグループ」Gtは、「Iグループ」Gt0から符号化される。言い換えれば、「Iグループ」Gt0は、例えばイントラ画像として符号化された画像を含む。この画像は、再構成後IREC_Tt0,v0(70)、シーケンスの他のすべての画像を符号化するため直接的または間接的に用いられる。2つより多いグループがある(T>2)場合、同じ考え方が、「Iグループ」(または「Pグループ」から符号化された「Bグループ」と、他の「Pグループ」に対して有効である。
留意点として、かかるシーケンスを符号化しなければならない場合、再構成画像IREC_Tt0,v0(70)から焦点スタックの他のグループGtの参照視野角v0でキャプチャされた参照画像(71)を最初に符号化(3500)し、次いで、上記の通り、「スタック内符号化」(3200)と「スタック間符号化」(3400)を用いて、各グループGt0とGt内で、他のすべての残っている画像を符号化することができる。
しかし、上記の通り、最初に、「スタック内符号化」(3200)と「スタック間符号化」(3400)とを用いてグループGt0のすべての画像を符号化し、次に、「インター符号化(inter−encoding)」(3500)を用いてグループGtの参照画像71を符号化し、次に、上記の通り、「スタック内符号化」(3200)と「スタック間符号化」(3400)とを用いてグループGtの他のすべての画像を符号化することも可能である。
「インター符号化」(3500)動き補償モデルを改善することを用いて、予測精度を改善できる。
焦点スタックのT個のグループを含む、かかる符号化シーケンスを含む信号(例えば、ビットストリーム)の構造を図8に示す。
グループ数T+1は、T回のキャプチャ時と参照時t0に対応する。焦点スタックの1つのグループGt0中で、V+1個の異なる視野角を用いて、V個の異なる焦点スタックと、参照視野角v0で時刻t0にキャプチャされる焦点スタックFt0,v0とをキャプチャする。焦点スタックFt0,v0はS+1枚の画像を含み、画像Is0は例えばイントラ画像として符号化され、S枚の他の画像は1枚ずつ異なる焦点距離にフォーカスされる。
図8に表されたかかる信号は、階層的に組織化される。各階層レベル:シーケンスレベル、グループレベル及びスタックレベルは、符号化パラメータが指定されたヘッダを含む。
例えば、シーケンスヘッダは、焦点スタックごとの画像数S、焦点スタックのグループごとの視野角数V、及びシーケンスごとのキャプチャ回数Tを含むが、画像フォーマット、フレームレート等も含む。
これも図からわかるように、双方向予測が実装される場合、符号化順序(I,P,B)もこの信号で指定される。
<復号方法>
ここで図9を参照して、ある画像から他の画像まで、様々な焦点距離でフォーカスされた画像セットを含む少なくとも現在の焦点スタックを表す信号の復号に適したデコーダに実装される復号の主ステップを示す。
デコーダは、例えば、上記の符号化方法に従って符号化された少なくとも現在の焦点スタックを表す信号を受信するものと仮定する。
よって、この実施形態では、本発明による復号方法は、
− 現在の焦点スタックの画像を表す情報を復号することであって、画像は最大数の合焦画素を含む、ことと、
− 少なくとも復号された画像からの予測によって、現在の焦点スタックの少なくとも他の画像を再構成することとを含む。
上記の符号化とは逆に、本開示による復号方法は、最大数の合焦画素を含む画像に対応する再構成画像から始めて、現在の焦点スタックの各画像を復号する。
任意的に、かつ符号化とは逆に、焦点スタックの最大数の合焦画素を含む前記画像は全合焦(all−in focus)画像(AIF)である。
この特定の場合には、デコーダは、例えば、上記の符号化方法によって符号化された少なくとも現在の焦点スタックを表す前記信号から、前記AIF画像の再構成を許可するマップを取り出す。
そのようなマップは、各画素について、現在の焦点スタック内のどの画像が使用されるべきか(例えば、考慮される画素が合焦である場合)指示する。
最大数の合焦画素を含む画像が、受信された信号に挿入されたマップを用いて、イントラ画像として復号(91)され、又はAIFとして再構成されると、現在の焦点スタックの少なくとも他の画像は、最大数の合焦画素を含む少なくとも前記画像からの予測により復号(92)される。
換言すると、他の画像の少なくとも1つの画素について、予測は、現在の焦点スタックの最大数の合焦画素を含む画像に対応する画像と同一位置に配置された少なくとも対応する画素の値から、値を取得することを含む。
最大数の合焦画素を含む画像に関連する復号された画像を除き、現在の焦点スタックの画像すべてのこのような符号化(92)は、「スタック内復号(intra−stack encoding)」と呼ばれ、現在の焦点スタックの画像すべての間の依存性を利用するものである。すべての画像は、再構成画像から予測されるからである。
「スタック内符号化(intra−stack encoding」とは逆に、前記「スタック内復号(intra−stack decoding)」は不鮮明度モデル(a model of blur)を考慮することができる。
また、アプリケーションに応じて、現在の焦点スタックは、現在の焦点スタックと同じ時刻にキャプチャされるが、上記の通り、図5に示したように、現在の焦点スタックの視野角と異なる視野角を有する焦点スタックのグループの一部である可能性がある。
この任意的な場合には、「スタック間復号(inter−stack decoding)」(図示せず)が実行され、焦点スタックのグループに属するすべての画像を復号する。
より正確には、焦点スタック群のうちの複数の焦点スタックは、例えば、図5に示されるように、視野角の方向順序に従って順序付けられる。
この場合には、「スタック間符号化」は:
− 参照視野角v0と呼ばれる、現在の焦点スタックの方向順序および視野角v0からスタック間画像復号順序を決定すること、
− 現在の焦点スタックの再構成画像からスタック間画像符号化順序に従って処理された焦点スタック群の少なくとももう1つの焦点スタックの画像の少なくとも1つの画素を復号することであって、少なくとももう1つの焦点スタックの画像は、最大数の合焦画素を有する画像であり、参照画像と呼ばれる、ことを含む。
第1の変形例によれば、1つの参照画像が、考慮される焦点スタック、焦点スタックを含む焦点スタック群中の1つの焦点スタックに対して復号されると、他の焦点面の他の画像は、上述の「スタック内復号」を使用して復号される。
第2の変形例によると、すべての参照画像は、再構成画像から復号でき、次いで、各焦点スタックに対して、「スタック内復号」が実行される。
「スタック間復号」の特徴によると、焦点スタックのグループの画像間の視差が、デコーダに知られており、利用可能である(計算され、または利用可能であり、または復号する信号中でエンコーダにより送信されたもの)と仮定すると、かかる視差を用いて、再構成画像の参照画像の予測を改善する。
そのような不一致を考慮に入れることは、予測中に実施することができる最良のマッチの古典的な探索に関する代替案である。
「スタック間復号」の別の特徴によれば、これらのビューを復号するための別の代替手段として、階層的深度画像(LDI)復号方式を使用することができる。LDI方式は、画像、深度/視差および遮蔽領域を復号し、1つのビュー(すなわち画像)内で遮蔽された領域を再構成することを含む。この領域は、視差によって再構成することができない。
アプリケーションに応じて、現在の焦点スタックと同じ時刻にキャプチャされた焦点スタックのグループは、図7に示した異なる時刻にキャプチャされた焦点スタックの少なくとも1つの他のグループをさらに含むシーケンスSeqにも属することも可能である。
この場合、本開示による方法は、焦点スタックの少なくとも1つの他のグループの視野角v0の基準値でキャプチャされ、焦点スタックのグループのシーケンスSeqの時刻tでキャプチャされた、焦点スタックの参照画像の少なくとも1つの画素の「インター復号」を含み、基準時点でキャプチャされた焦点スタックのグループの現在の焦点スタックの再構成画像から実行される時間的予測を使用することによって達成される。
留意点として、かかるシーケンスを復号しなければならない場合、再構成画像から焦点スタックの他のグループの参照視野角v0でキャプチャされた参照画像を最初に復号し、次いで、上記の通り、「スタック内復号」と「スタック間復号」を用いて、各グループGt0とGt内で、他のすべての残っている画像を符号化することができる。
しかし、上記の通り、最初に、「スタック内復号」と「スタック間復号」とを用いてグループGt0のすべての画像を復号し、次に、「スタック間復号」を用いてグループGtの参照画像をし、次に、上記の通り、「スタック内復号」と「スタック間復号」とを用いてグループGtの他のすべての画像をすることも可能である。
「インター復号」動き補償モデルを改善することを用いて、予測精度を改善できる。
<エンコーダとデコーダの構造>
図3と図9において、モジュールは機能ユニットであり、区別可能な物理的ユニットに関しても、関しなくてもよい。例えば、これらのモジュールは全体を、またはその一部を、1つの部品や回路にまとめてもよいし、またはソフトウェアの機能に貢献してもよい。逆に、幾つかのモジュールは、別の物理的実体により構成されてもよい。本開示とコンパチブルな装置は、純粋なハードウェア、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはVLSI(Very Large Scale Integration)などの専用ハードウェアを用いて、または装置に組み込まれた幾つかの集積電子コンポーネントを用いて、またはハードウェアコンポーネントとソフトウェアコンポーネントとの組み合わせを用いて、実装される。
図10は、装置900のアーキテクチャ例を表し、これは図3−7を参照して説明した符号化方法、または図9を参照して説明した復号方法を実装するように構成され得る。
装置900は、データ及びアドレスバス901によりリンクされた次のよそを含む:
− マイクロプロセッサ903(またはCPU)、これは例えばDSP(すなわちDigital Signal Processor)である;
− ROM(すなわちRead Only Memory)902;
− RAM(すなわちRandom Access Memory) 904;
− アプリケーションとの間でデータを送受信するI/Oインターフェース905、及び
− バッテリ906。
一変形例では、電源906は装置の外部にある。図10の各要素は、当業者には周知であり、これ以上は説明しない。上記のメモリの各々において、本明細書で用いる「レジスタ」との用語は、小容量(数ビット)の領域または非常に大きい領域(例えば、プログラム全体または大量の受信または復号データ)に対応し得る。ROM902は少なくともプログラムとパラメータを含む。本開示による方法のアルゴリズムは、ROM902に格納される。スイッチオンの時に、CPU903はRAMにプログラムをアップロードし、対応する命令を実行する。
RAM904は、レジスタ中に、CPU903により実行され、装置900のスイッチオン後にアップロードされるプログラム、レジスタ中の入力データ、レジスタ中の方法の様々な状態にある中間データ、レジスタ中の本方法の実行のために用いるその他の変数を含む。
ここで説明した実施形態は、方法またはプロセス、装置、またはソフトウェアプログラム、データストリーム、又は信号として実施できる。1つの形式の実施形態の場合で説明した(例えば、方法または装置としてのみ説明した)場合であっても、説明した機能の実施形態は他の形式(例えば、プログラム)でも実施できる。装置は例えば適切なハードウェア、ソフトウェア、及びファームウェアで実施可能である。上記の方法は、例えばプロセッサ等の装置で実施可能である。プロセッサとは、処理装置一般を指し、例えばコンピュータ、マイクロプロセッサ、集積回路、プログラマブル論理装置などを指す。プロセッサは、エンドユーザ間での情報通信を行う、コンピュータ、セルラー電話、ポータブル/パーソナル・デジタル・アシスタント(PDA)などの装置、及びその他の通信装置も含む。
符号化またはエンコーダの具体的な実施形態によると、焦点スタックはソースから取得される。例えば、情報源は次を含むセットに属する:
− ローカルメモリ(902または904)であって、例えばビデオメモリまたはRAM(すなわちランダムアクセスメモリ)、フラッシュメモリ、ROM(すなわちリードオンリーメモリ)、ハードディスク;
− ストレージインターフェースであって、例えば大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク、または磁気支持体とのインターフェース;
− 通信インターフェース(905)であって、例えば有線インターフェース(例えば、バスインターフェース、広域ネットワークインターフェース、ローカルエリアネットワークインターフェース)または無線インターフェース(例えば、IEEE802.11インターフェースまたはBluetooth(登録商標)インターフェース)、及び
− 撮像回路(例えば、CCD(すなわちCharge−Coupled Device)またはCMOS(すなわちComplementary Metal−Oxide−Semiconductor)などのセンサ)。
符号化またはエンコーダの異なる実施形態によると、エンコーダにより配信される信号は送り先に送信される。一例として、信号は、ビデオメモリ(904)またはRAM(904)、ハードディスク(902)などのローカルまたはリモートメモリに格納される。 変形例では、信号は、例えば、大規模記憶、フラッシュメモリ、ROM、光ディスクまたは磁気サポートとのインターフェースなどのストレージインターフェースに送信され、ポイントツーポイントリンク、通信バス、ポイントツーマルチポイントリンクまたはブロードキャストネットワークなどの通信インターフェース(905)を解して送信される。
復号またはデコーダの様々な実施形態によると、復号された焦点スタックは送り先に送信され、具体的には次のものを含むセットに属する送り先に送信される:
− ローカルメモリ(902または904)であって、例えばビデオメモリまたはRAM(すなわちランダムアクセスメモリ)、フラッシュメモリ、ROM(すなわちリードオンリーメモリ)、ハードディスク;
− ストレージインターフェースであって、例えば大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク、または磁気支持体とのインターフェース;
− 通信インターフェース(905)であって、例えば有線インターフェース(例えば、バスインターフェース、広域ネットワークインターフェース、ローカルエリアネットワークインターフェース)または無線インターフェース(例えば、IEEE802.11インターフェースまたはBluetooth(登録商標)インターフェース)、及び
− ディスプレイ。
復号またはデコーダの様々な実施形態によると、信号はソースから取得される。典型的には、信号は、ビデオメモリ(904)、RAM(904)、ROM(902)、フラッシュメモリ(902)またはハードディスク(902)などのローカルメモリから読み出される。変形例では、信号はストレージインターフェースから受信され、例えば大容量記憶装置、RAM、ROM、フラッシュメモリ、光ディスクまたは磁気支持体とのインターフェースから受信され、および/または通信インターフェース(905)から受信され、例えばポイントツーポイントリンク、バス、ポイント・ツー・マルチポイント・リンク、またはブロードキャストネットワークとのインターフェースから受信される。
ここに説明した様々なプロセスと特徴の実施形態は、異なるいろいろな装置やアプリケーションで実施できる。かかる装置の例には、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダに入力を供給するプリプロセッサ、ビデオコーダ、ビデオデコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、セルラー電話、PDA、ピクチャまたはビデオを処理するその他の任意の装置、またはその他の通信装置が含まれる。言うまでもなく、上記の機器は可動なものであってもよいし、移動体に組み込まれていてもよい。
さらに、これらの方法は、プロセッサによって実行される命令によって実施されてもよく、そのような命令(および/または実装によって生成されたデータ値)は、コンピュータ可読記憶媒体に格納されてもよい。コンピュータ読み取り可能記憶媒体は、一以上のコンピュータ読み取り可能媒体に化体され、その上に化体され、コンピュータにより実行可能なコンピュータ読み取り可能プログラムコードを有するコンピュータ読み取り可能プログラム製品の形式を取ることができる。本願のコンピュータ読み取り可能記憶媒体は、情報をその中に記憶する本来的機能、及びそれから情報の読み出しをする本来的機能を与えられた、非一時的記憶媒体である。コンピュータ読み取り可能記憶媒体は、例えば、電子的、磁気的、光学的、電磁気的、赤外線、又は半導体のシステム、装置、又は装置、又はそれらの任意の好適な組み合わせである。言うまでもなく、次のリストは、本原理を適用できるコンピュータ読み取り可能記憶媒体のよりぐらい的な例を提供するものであるが、当業者には明らかなように、単なる例示であり網羅的なものではない:ポータブルコンピュータディスケット;ハードディスク;リードオンリーメモリ(ROM);消去可能プログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ);ポータブルコンパクトディスクリードオンリーメモリ(CD−ROM);光学的記憶装置;磁気記憶装置;又はそれらの任意の好適な組み合わせ。
上記の命令は、プロセッサ読み取り可能媒体上に化体されたアプリケーションプログラムであってもよい。
命令は、例えば、ハードウェア、ファームウェア、常駐ソフトウェア、マイクロコードなど、または本明細書ではすべて「回路」、「モジュール」、または「システム」と総称することができるソフトウェアおよびハードウェアの側面を組み合わせた実施形態であってもよい。
本原理が1つまたは複数のハードウェアコンポーネントによって実装される場合、留意点として、ハードウェア構成要素は、中央処理装置などの集積回路であるプロセッサ、および/またはマイクロプロセッサ、および/または特定用途向け集積回路(ASIC)、および/またはアプリケーション特有の命令セットプロセッサ(ASIP)、および/またはグラフィックス処理ユニット(GPU)、および/または物理処理ユニット(PPU)、および/またはデジタル信号プロセッサ(DSP)、および/または画像プロセッサ、および/またはコプロセッサ、および/または浮動小数点ユニット、および/またはネットワークプロセッサ、および/またはオーディオプロセッサ、および/またはマルチコアプロセッサなどを含む。さらに、ハードウェアコンポーネントは、ベースバンドプロセッサ(例えば、メモリユニットおよびファームウェアを含む)および/または無線信号を受信または送信する無線電子回路(アンテナを含むことができる)を備えることもできる。一実施形態では、ハードウェアコンポーネントは1つまたは複数の標準に準拠し、例えば、ISO/IEC18092/ECMA−340、ISO/IEC21481/ECMA−352、GSMA、StoLPaN、ETSI/SCP(スマートカードプラットフォーム)、GlobalPlatform(セキュアエレメント)などに準拠する。変形例では、ハードウェアコンポーネントは、無線周波数識別(RFID)タグである。一実施形態では、ハードウェアコンポーネントは、Bluetooth(登録商標)通信、および/またはWi−Fi通信、および/またはジグビー通信、および/またはUSB通信、および/またはファイヤーワイヤ通信、および/またはNFC(近距離通信)通信を可能にする回路を含む。
さらにまた、本原理の諸態様はコンピュータ読み取り可能記憶媒体の形式を取り得る。一以上のコンピュータ読み取り可能記憶媒体の任意の組み合わせを利用できる。
このように、例えば、当業者には言うまでもなく、ここに説明したブロック図は本発明の原理を化体するシステムコンポーネント及び/または回路を概念的に示すものである。同様に、言うまでもなく、フローチャート、フロー図、状態遷移図、擬似コード等は、様々な方法(processes)を表し、これらの方法をコンピュータ読み取り可能記憶媒体に実質的に表しても、(明示的に示していようがいまいが)コンピュータやプロセッサで実行してもよい。
当業者には言うまでもないが、実施形態は、例えば記憶または送信され得る情報を担うようフォーマットされた種々の信号を生成することもできる。情報には、例えば、方法を実行する命令や、説明した実施形態により生成されるデータが含まれ得る。例えば、信号は、データとして、説明した実施形態のシンタックスを書き込み又は読み出しする規則を担うようにフォーマットされてもよいし、又はデータとして、説明した実施形態により書き込まれた実際のシンタックス値を担うようにフォーマットされてもよい。かかる信号は、(例えば、無線周波数のスペクトルを用いた)電磁波やベースバンド信号などとしてフォーマットし得る。フォーマット化には、例えば、データストリームの符号化、符号化したデータストリームによるキャリアの変調が含まれる。信号が担う情報は例えばアナログ情報やデジタル情報であってもよい。知られているように、信号は様々な異なる有線リンクまたは無線リンクで送信できる。信号はプロセッサ読み取り可能媒体に記憶してもよい。
実施形態を説明した。しかし、言うまでもなく様々な修正を行うことができる。例えば、別の実施形態の要素を組み合わせ、補充し、修正し、または削除して、他の実施形態を形成してもよい。また、当業者には言うまでもないが、開示した構成やプロセスを他の構成やプロセスで置き換えてもよく、その結果の実施形態が少なくとも実質的に同じ機能を果たし、少なくとも実質的に同じように、開示した実施形態と実質的に同じ結果を達成する。したがって、本願ではこれらの実施形態及びその他の実施形態を想定している。

Claims (16)

  1. 画像ごとに異なる焦点距離でフォーカスした画像セットを含む現在の焦点スタックの符号化方法であって、
    前記現在の焦点スタックの画像を表す情報を符号化し、前記画像は画像鮮明度基準に従って前記現在の焦点スタックにおいて選択され、前記画像を再構成して再構成画像にすることと、
    少なくとも前記再構成画像からの予測によって、前記現在の焦点スタックの少なくとも他の画像を符号化することとを含む
    符号化方法。
  2. 前記画像鮮明度基準は画像中の合焦画素の数に対応する、
    請求項1に記載の符号化方法。
  3. 前記現在の焦点スタックにおいて選択される画像は、最大数の合焦画素を有する画像である、
    請求項2に記載の符号化方法。
  4. 前記現在の焦点スタックにおいて、最大数の合焦画素を含む画像は全合焦画像である、
    請求項3に記載の符号化方法。
  5. 現在の焦点スタックの少なくとも1つの他の画像を少なくとも前記再構成画像からの予測によって符号化することは、前記他の画像の少なくとも1つの画素について、前記再構成画像内の対応する位置に配置された対応する画素の少なくとも1つの値と、符号化する前記他の画像に関連する深度位置に応じた不鮮明化関数から値を符号化することを含む、
    請求項1に記載の符号化方法。
  6. 前記現在の焦点スタックは様々な視野角でキャプチャされた焦点スタックグループの一部であり、前記焦点スタックグループの前記焦点スタックはその視野角の方向順にしたがって順序付けられ、前記符号化方法はさらに、
    参照視野角と呼ばれる、前記現在の焦点スタックの方向順序および視野角からスタック間画像符号化順序を決定することと、
    前記現在の焦点スタックの再構成画像から前記スタック間画像符号化順序に従って処理された前記焦点スタックグループの少なくとももう1つの焦点スタックの画像の少なくとも1つの画素を符号化することであって、前記少なくとももう1つの焦点スタックの画像は、画像鮮明度基準にしたがって選択された画像であり、参照画像と呼ばれることとを含む、
    請求項1乃至5いずれか一項に記載の符号化方法。
  7. 前記参照画像の画素は、視野角の参照値でキャプチャされた前記現在の焦点スタックの再構成画像から、かつ前記参照画像と前記現在の焦点スタックの再構成画像との間の視野を表す情報から符号化される、
    請求項6に記載の符号化方法。
  8. 視野角の参照値とは異なる視野角でキャプチャした前記参照画像の各画素の値は、視野角の前記参照値でキャプチャされた現在の焦点スタックの前記再構成画像から、及び前記焦点スタックグループに関連するシーンの階層的深度画像から符号化される、
    請求項6に記載の符号化方法。
  9. 前記焦点スタックグループは、基準時刻t0にキャプチャされ、時刻tにキャプチャされた少なくとも1つの他の焦点スタックグループをさらに含むシーケンスの一部であり、
    前記符号化方法はさらに、:
    前記基準時刻t0にキャプチャされた前記現在の焦点スタックの再構成画像から実行された時間予測を用いて、焦点スタックグループのシーケンスの時刻tにキャプチャされた少なくとも1つの他の焦点スタックグループの、視野角の参照値でキャプチャされた焦点スタックの参照画像の少なくとも1つの画素を符号化することを含む、
    請求項6ないし8いずれか一項に記載の符号化方法。
  10. 前記符号化方法はさらに、前記現在の焦点スタックを表す信号に、前記現在の焦点スタックの全合焦画像を再構成するマップを挿入することを含む、
    請求項4に記載の符号化方法。
  11. 画像ごとに様々な焦点距離でフォーカスされた画像セットを含む少なくとも現在の焦点スタックを表す信号であって、少なくとも、
    前記現在の焦点スタックの画像を表す情報であって、
    前記画像は画像鮮明度基準に従って前記現在の焦点スタックから選択される、情報と、
    前記現在の焦点スタックの少なくとも他の画像に関連し、前記選択される画像の少なくとも再構成画像からの予測により取得される情報とを含む、
    信号。
  12. 画像ごとに異なる焦点距離でフォーカスした画像セットを含む現在の焦点スタックを復号する方法であって、
    前記現在の焦点スタックの画像を表す情報を復号することであって、前記画像は画像鮮明度基準を満たす、ことと、
    少なくとも前記復号された画像からの予測によって、現在の焦点スタックの少なくとも他の画像を再構成することとを含む、
    方法。
  13. 画像ごとに異なる焦点距離でフォーカスした画像セットを含む現在の焦点スタックを符号化する装置であって、
    メモリと、
    前記メモリに結合した少なくとも1つのプロセッサであって、
    前記現在の焦点スタックの画像を表す情報を符号化し、前記画像は画像鮮明度基準に従って前記現在の焦点スタックにおいて選択され、前記画像を再構成して再構成画像にし、
    少なくとも前記再構成された画像からの予測によって、現在の焦点スタックの少なくとも他の画像を符号化するように構成される、
    装置。
  14. 画像ごとに異なる焦点距離でフォーカスした画像セットを含む現在の焦点スタックを復号する装置であって、
    メモリと、
    前記メモリに結合した少なくとも1つのプロセッサであって、
    前記現在の焦点スタックの画像を表す情報を復号し、前記画像は画像鮮明度基準を満たす、
    少なくとも前記復号された画像からの予測によって、現在の焦点スタックの少なくとも他の画像を再構成するように構成される、
    装置。
  15. 通信ネットワークからダウンロード可能であり、及び/又はコンピュータにより読み取り可能な媒体上に記録され、及び/又はプロセッサにより実行可能であり、請求項1ないし10いずれか一項または請求項12に記載の方法を実装するプログラムコード命令を含むコンピュータプログラム製品。
  16. コンピュータプログラム製品が記録され、プロセッサにより実行され得る非一時的コンピュータ読み取り可能媒体であって、請求項1乃至10いずれか一項または請求項12に記載の方法を実装するプログラムコード命令を含む、非一時的コンピュータ読み取り可能媒体。
JP2018512284A 2015-09-07 2016-09-05 光照射野ベース画像を符号化及び復号する方法と装置、および対応するコンピュータプログラム製品 Active JP6901468B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15306363.1 2015-09-07
EP15306363.1A EP3139614A1 (en) 2015-09-07 2015-09-07 Method and device for encoding and decoding a light field based image, and corresponding computer program product
PCT/EP2016/070886 WO2017042133A1 (en) 2015-09-07 2016-09-05 Method and device for encoding and decoding a light field based image, and corresponding computer program product

Publications (3)

Publication Number Publication Date
JP2018530225A true JP2018530225A (ja) 2018-10-11
JP2018530225A5 JP2018530225A5 (ja) 2019-10-10
JP6901468B2 JP6901468B2 (ja) 2021-07-14

Family

ID=54249408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018512284A Active JP6901468B2 (ja) 2015-09-07 2016-09-05 光照射野ベース画像を符号化及び復号する方法と装置、および対応するコンピュータプログラム製品

Country Status (6)

Country Link
US (2) US10536718B2 (ja)
EP (2) EP3139614A1 (ja)
JP (1) JP6901468B2 (ja)
KR (1) KR20180049028A (ja)
CN (1) CN108141610B (ja)
WO (1) WO2017042133A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200096025A (ko) * 2019-02-01 2020-08-11 한국전자통신연구원 다중 초점 영상을 이용한 올인포커스 영상 생성 방법 및 장치

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3151534A1 (en) * 2015-09-29 2017-04-05 Thomson Licensing Method of refocusing images captured by a plenoptic camera and audio based refocusing image system
US10432944B2 (en) * 2017-08-23 2019-10-01 Avalon Holographics Inc. Layered scene decomposition CODEC system and methods
JP6936990B2 (ja) * 2018-07-26 2021-09-22 日本電信電話株式会社 符号化装置及びプログラム
WO2020025097A1 (en) * 2018-07-30 2020-02-06 Huawei Technologies Co., Ltd. Multifocal display devices and methods
CN111416977B (zh) * 2019-01-07 2024-02-09 浙江大学 视频编码器、视频解码器及相应方法
CN110490924B (zh) * 2019-07-16 2022-07-01 西安理工大学 一种基于多尺度Harris的光场图像特征点检测方法
CN111182312B (zh) * 2020-01-03 2021-10-29 杭州电子科技大学 一种分级残差光场视频编码方法
CN111427166B (zh) 2020-03-31 2022-07-05 京东方科技集团股份有限公司 一种光场显示方法及***、存储介质和显示面板
CN111416983B (zh) * 2020-04-07 2022-03-15 清华大学深圳国际研究生院 基于成像相关的多焦距光场视频帧内预测方法和装置
CN112019862B (zh) * 2020-09-08 2022-01-04 华中科技大学 图像处理方法、装置及设备
US20220084223A1 (en) * 2020-09-14 2022-03-17 The Regents Of The University Of Michigan Focal Stack Camera As Secure Imaging Device And Image Manipulation Detection Method
WO2023019567A1 (zh) * 2021-08-20 2023-02-23 深圳传音控股股份有限公司 图像处理方法、移动终端及存储介质
KR102545741B1 (ko) * 2022-11-08 2023-06-21 주식회사 하나씨엔에스 Cctv 회전형 카메라 제어 단말기
CN118135120B (zh) * 2024-05-06 2024-07-12 武汉大学 一种纳米样品表面形貌三维重建及显微操作***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011977A (ja) * 2005-07-04 2007-01-18 Nikon Corp 画像処理方法、コンピュータ実行可能なプログラム、及び顕微鏡システム
JP2014029528A (ja) * 2012-07-19 2014-02-13 Sony Corp Zスタック顕微鏡画像を圧縮するための方法及び装置
US20140267618A1 (en) * 2013-03-15 2014-09-18 Google Inc. Capturing and Refocusing Imagery
JP2015008387A (ja) * 2013-06-25 2015-01-15 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム並びに撮像装置
JP2015103872A (ja) * 2013-11-21 2015-06-04 キヤノン株式会社 画像符号化装置及び画像復号装置及びそれらの制御方法
JP2016533686A (ja) * 2013-08-30 2016-10-27 クアルコム,インコーポレイテッド 全焦点画像を生成するための方法および装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7519907B2 (en) * 2003-08-04 2009-04-14 Microsoft Corp. System and method for image editing using an image stack
US8559705B2 (en) * 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
IT1403541B1 (it) * 2011-01-31 2013-10-31 Sarong Spa Macchina erogatrice per bevande
US8432434B2 (en) * 2011-07-08 2013-04-30 Mitsubishi Electric Research Laboratories, Inc. Camera and method for focus based depth reconstruction of dynamic scenes
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
WO2014083574A2 (en) * 2012-11-30 2014-06-05 Larsen & Toubro Limited A method and system for extended depth of field calculation for microscopic images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011977A (ja) * 2005-07-04 2007-01-18 Nikon Corp 画像処理方法、コンピュータ実行可能なプログラム、及び顕微鏡システム
JP2014029528A (ja) * 2012-07-19 2014-02-13 Sony Corp Zスタック顕微鏡画像を圧縮するための方法及び装置
US20140267618A1 (en) * 2013-03-15 2014-09-18 Google Inc. Capturing and Refocusing Imagery
JP2015008387A (ja) * 2013-06-25 2015-01-15 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム並びに撮像装置
JP2016533686A (ja) * 2013-08-30 2016-10-27 クアルコム,インコーポレイテッド 全焦点画像を生成するための方法および装置
JP2015103872A (ja) * 2013-11-21 2015-06-04 キヤノン株式会社 画像符号化装置及び画像復号装置及びそれらの制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200096025A (ko) * 2019-02-01 2020-08-11 한국전자통신연구원 다중 초점 영상을 이용한 올인포커스 영상 생성 방법 및 장치
KR102669255B1 (ko) 2019-02-01 2024-05-27 한국전자통신연구원 다중 초점 영상을 이용한 올인포커스 영상 생성 방법 및 장치

Also Published As

Publication number Publication date
EP3139614A1 (en) 2017-03-08
US20180249178A1 (en) 2018-08-30
JP6901468B2 (ja) 2021-07-14
US20200099955A1 (en) 2020-03-26
WO2017042133A1 (en) 2017-03-16
US10536718B2 (en) 2020-01-14
KR20180049028A (ko) 2018-05-10
EP3348060B1 (en) 2023-04-05
EP3348060A1 (en) 2018-07-18
CN108141610B (zh) 2023-10-13
CN108141610A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
JP6901468B2 (ja) 光照射野ベース画像を符号化及び復号する方法と装置、および対応するコンピュータプログラム製品
US10652577B2 (en) Method and apparatus for encoding and decoding light field based image, and corresponding computer program product
Li et al. Scalable coding of plenoptic images by using a sparse set and disparities
CN102598674B (zh) 用于2d视频数据到3d视频数据的转换的深度图产生技术
JP6872533B2 (ja) ライトフィールドベース画像を符号化および復号する方法および装置、および対応するコンピュータプログラム製品
US10003806B2 (en) Optimized plenoptic image encoding
WO2015056712A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
US20180278955A1 (en) Method and apparatus for reducing the coding artefact of a light field based image, and corresponding computer program product
US20170150152A1 (en) Methods and devices for encoding and decoding a matrix of views obtained from light-field data, corresponding computer program and non-transitory program storage device
US10580210B2 (en) Method and device for refocusing at least one plenoptic video
EP3203742A1 (en) System and method for encoding and decoding information representative of a focalization distance associated to an image belonging to a focal stack representative of a light field content
US10783609B2 (en) Method and apparatus for processing video information
Guo et al. Hole-filling map-based coding unit size decision for dependent views in three-dimensional high-efficiency video coding
KR20160120535A (ko) 라이트 필드 데이터 압축방법 및 압축장치

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190829

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R150 Certificate of patent or registration of utility model

Ref document number: 6901468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250