JP5932666B2 - 画像符号化装置とその集積回路、および画像符号化方法 - Google Patents

画像符号化装置とその集積回路、および画像符号化方法 Download PDF

Info

Publication number
JP5932666B2
JP5932666B2 JP2012548660A JP2012548660A JP5932666B2 JP 5932666 B2 JP5932666 B2 JP 5932666B2 JP 2012548660 A JP2012548660 A JP 2012548660A JP 2012548660 A JP2012548660 A JP 2012548660A JP 5932666 B2 JP5932666 B2 JP 5932666B2
Authority
JP
Japan
Prior art keywords
image
unit
block size
encoding
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012548660A
Other languages
English (en)
Other versions
JPWO2013011608A1 (ja
Inventor
健二 清水
健二 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2013011608A1 publication Critical patent/JPWO2013011608A1/ja
Application granted granted Critical
Publication of JP5932666B2 publication Critical patent/JP5932666B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画像にぼかしを付加して符号化を行う画像符号化技術に関する。
主要被写体を引き立たせ立体感を演出するための加工として、画像の一部の被写体のみにピントをあわせ、それ以外の前景・背景を意図的にぼかす処理が行われている。また、立体視のための立体映像信号においては、観視者の注意が遠景に向いた際に、観視者が強い疲労を覚え、または立体視が破綻する問題が発生し得る(例えば、非特許文献1参照)。この問題を防ぐため、観視者の注意が遠景に向かないように立体映像信号の遠景をぼかす処理が行われている。
一方で、画像符号化においては、集合的な冗長度を除き圧縮符号化効率を高めるため、多数の画素を集めてブロック化を行う。したがって、そのブロック間の相関を利用して圧縮率を向上させる予測符号化においては、複雑な画像は小さなブロック単位で画面間予測と画面内予測を行い、平坦な画像は大きなブロック単位で画面間予測と画面内予測を行えば、複雑な画像も平坦な画像も効率良く予測できる。
符号化対象領域の特徴に応じてブロックサイズを変更する符号化装置の従来例として、特許文献1が開示されている。一般に超音波診断装置においては、フォーカス位置に近いほど画像の解像度が高く、フォーカス位置から離れるほど解像度が低い。このため、距離情報とフォーカス位置情報を用いてブロックサイズを決定することで、解像度の高い領域の高画質化と解像度の低い領域の高圧縮化を同時に図っている。
また、別の従来例として特許文献2が開示されている。特許文献2の技術においては、平坦度の高い静止領域がちらつきやすいことに着目し、予測ブロックサイズを大きくすることで、ちらつきを抑えた圧縮画像を生成する。
特開2007−289556号公報 特開2007−67469号公報
本田捷夫修「立体映像技術―空間表現メディアの最新動向―」シーエムシー出版、2008年7月31日(P61−P62)
特許文献1の技術では、距離情報と、フォーカス位置情報から、符号化のブロックサイズを決定している。しかしながら、様々なぼかし処理に対して、フォーカス位置情報と距離情報のみから決定されたブロックサイズが、必ずしもぼかし処理後の画像に対して適切なブロックサイズであるとは限らない。
一方、特許文献2の技術では、画像領域の平坦度合いに応じて、ブロックサイズを決定している。しかしながら、平坦であるか否かの判定のみで決定するブロックサイズが、必ずしもぼかし処理後の画像に対して適切なブロックサイズであるとは限らない。
本発明は上述の課題を鑑みてなされたものであり、視差情報または距離情報に応じた様々なぼかし処理を加えた後に、適切なブロックサイズを選択して符号化を行う画像符号化装置や画像符号化方法を提供することを目的とする。
前記従来の課題を解決するために、本発明の画像符号化装置は、画像を取得する画像取得部と、前記画像の画素単位ごとの視差または画素単位ごとの距離情報の少なくとも一方を取得する視差取得部と、前記画像の画素単位ごとのぼかし量を前記画素単位ごとの視差または前記画素単位ごとの距離情報から決定するぼかし量決定部と、前記ぼかし量に従って、前記画像にぼかし処理を施すぼかし処理部と、前記ぼかし処理を施した各画像から符号化対象領域を切り出すためのブロックサイズを複数のブロックサイズから前記ぼかし量に応じて決定するブロックサイズ決定部と、前記ぼかし処理を施した画像を前記決定されたブロックサイズに従ってブロック単位に符号化する符号化部とを含むことを特徴とする。
この構成によれば、画像を符号化する際にぼかし量を用いてブロックサイズを決定することで、ぼかし処理に対してぼかし量に応じた適切なブロックサイズを用いることができる。
本発明の実施の形態1における画像符号化装置のブロック図 本発明の実施の形態1における撮影光学系とぼかし量を示す図 本発明の実施の形態1におけるぼかしマトリクスの例を示す図 本発明の実施の形態1における画像符号化装置の動作を示すフローチャート 本発明の実施の形態1における画像符号化装置の符号化対象信号の生成の動作を示すフローチャート 本発明の実施の形態1における画像符号化装置の画面内予測におけるブロックサイズ決定の動作を示すフローチャート 本発明の実施の形態1における画像符号化装置の動き補償予測におけるブロックサイズ決定の動作を示すフローチャート 本発明の実施の形態1における画像符号化装置の視差補償予測におけるブロックサイズ決定の動作を示すフローチャート 本発明の実施の形態1の変形例1における画像符号化装置のブロック図 本発明の実施の形態2における画像符号化装置のブロック図 本発明の実施の形態2における画像符号化装置の動作を示すフローチャート 本発明の実施の形態2における画像符号化装置のブロックサイズ決定の動作を示すフローチャート 本発明の実施の形態3における画像符号化装置のブロック図 本発明の実施の形態3における画像符号化装置の動作を示すフローチャート 本発明の実施の形態4における画像符号化装置のブロック図 本発明の実施の形態4における被写体と焦点、撮像素子の位置関係を示す図 本発明の実施の形態5における画像符号化システムのブロック図 本発明の実施の形態1における集積回路としての画像符号化装置のブロック図 従来の符号化手段を備えた超音波診断装置のブロック図 従来の符号化制御方法を示すフローチャートを示す図
<発明に至った経緯>
画像処理の一つとして、被写体の距離に応じたぼかしの処理は重要な技術である。例えば、主要被写体を引き立たせ立体感を演出するための加工として、画像の一部の被写体のみにピントを合わせ、それ以外の前景および背景を意図的にぼかす処理が行われている。このようなぼかし処理では、被写体深度の浅い光学系を用いて撮影される場合に発生する「ぼけ」を再現して前景および背景をぼかすことがある。また、それ以外にも、例えば、背景に対するぼかしと前景に対するぼかしとの間でぼかし強度を変化させたり、距離の異なる複数の人物にピントを合わせて最も手前にいる人物の前景と最も奥にいる人物の背景をぼかしたり、あるいは、人物とその後方の建物の双方にピントを合わせて人物と建物の双方を引き立たせそれ以外の被写体をぼかしたりするなど、さまざまな処理がある。
また、立体視のための立体映像信号においては、非特許文献1に記載されているように、観視者の注意が遠景に向いた際に、視差情報が示す距離と焦点距離との不一致が引き起こされると、観視者が強い疲労を覚えたり、立体視が破綻したりする問題がある。特に、小さいスクリーンに映写する前提で作成した立体映像信号を大きいスクリーンに拡大映写した場合には、立体映像信号が想定する右眼と左眼との間隔も拡大される。そのため、一つの被写体について、右眼用画像内の被写体像と左眼用画像内の被写体像との距離が右眼と左眼との間隔より大きくなった場合(後方発散)に、当該被写体の視差が、単一の物体を見た場合の視差としてあり得ない状態となるため、立体視が破綻する。この問題を防ぐため、観視者の注意が遠景に向かないように立体映像信号の遠景をぼかす処理が行われている。
一方で、画像を符号化するとき、集合的な冗長度を除き圧縮符号化効率を高めるため、多数の画素を集めてブロック化を行う。したがって、そのブロック間の相関を利用して圧縮率を向上させる予測符号化においては、複雑な画像は小さなブロック単位で画面間予測と画面内予測を行い、平坦な画像は大きなブロック単位で画面間予測と画面内予測を行えば、複雑な画像も平坦な画像も効率良く予測できる。
ここで、発明者らは、強いぼかしをかけられた領域は大きなブロックサイズが適している、複雑な模様がなく平坦な領域となることに着目した。そして、強いぼかしの対象となる領域をぼかし処理後の画像を解析することなく取得できれば、ぼかし処理後の画像を符号化する際のブロックサイズ選択において、当該領域のブロックサイズ選択を行う必要がなくなり、符号化のための演算量を削減できるとの着想を得た。そうすれば、ぼかし処理後の画像から強いぼかしの対象となった領域を再度検出し直すようなブロックサイズ選択処理を行う必要がなくなるからである。
これに対し、従来のブロックサイズ選択技術においては、符号化対象画像そのものを解析対象とする。したがって、ぼかし処理前の画像に対して従来のブロックサイズ選択技術を適用した場合に、選択されたブロックサイズが、必ずしもぼかし処理後の画像の符号化に適しているとは限らないという問題がある。
特許文献1は、距離情報とフォーカス情報を用いてブロックサイズを選択する超音波診断装置であり、図19は、特許文献1の超音波診断装置のブロック図である。この超音波診断装置は深度情報である反射信号を入力画像データとして符号化を行う。超音波診断装置の画像解像度はフォーカス位置からの距離によって決まるので、距離情報とフォーカス位置情報を用いてブロックサイズを決定することで、解像度の高い領域の高画質化と解像度の低い領域の高圧縮化を同時に図っている。
しかしながら、距離とフォーカス位置が定まっても、ぼかし処理の内容が定まらなければぼかしの強度は一意には定まらない。すなわち、同一の画像の、フォーカス位置にはない同一の被写体に対してぼかし処理を行う場合に、フォーカス位置の前景のみに対するぼかし処理を行う場合と、フォーカス位置の背景のみに対するぼかし処理を行う場合とでは、ぼかし処理後の画像における当該被写体の領域は前者の場合と後者の場合とで当然に異なる。つまり、ぼかし処理後の画像の符号化のために適切なブロックサイズはぼかし処理前の画像が同一であっても、ぼかし処理の内容が異なれば同一とは限らない。したがって、様々なぼかし処理に対して、距離とフォーカス位置のみでブロックサイズを選択する特許文献1の方法では、必ずしもぼかし後の画像に適切なブロックサイズを得られるとは限らない。
また、特許文献2は、画像の平坦度を基にちらつきを抑える符号化制御方法であり、図20は、特許文献2の符号化制御方法を示すフローチャートである。特許文献2の技術においては、静止領域かどうかの判定を行い、次に静止領域と判定した領域について、画素値の分散などからその領域の平坦度合いを算出する。そして、その算出した平坦度合いと量子化ステップサイズとを基に、ちらつき度合いを判定し、ちらつき度の高い領域のブロックサイズを大きくすることで、ちらつきを抑えた圧縮画像を生成する。
しかしながら、上述したように複雑な画像は平坦な領域であっても小さなブロックサイズが適している。強いぼかしを行った領域は大きなブロックサイズが適しているが、ぼかさない領域に複雑な模様を有する平坦な領域が存在する可能性があるので、平坦な領域か否かのみでブロックサイズを決定する特許文献2の技術では、適切なブロックサイズを選択できない。また、特許文献2の技術では、ぼかし処理後に発生する、大きなブロックサイズが適している強いぼかしを行った領域を、ぼかし処理前の画像から検出することはできない。
そこで、発明者らは、ぼかし処理を行う際に画素単位ごとのぼかしの強度を保持しておき、保持したぼかしの強度を用いてブロックサイズを決定することを特徴とする本発明に至った。このようにすることで、ぼかしを付加した後の符号化の際に、強いぼかしをかけた領域について適切なブロックサイズを選択することができ、また画面予測を行う符号化を行う場合には小さなブロックサイズを用いた画面予測を行う必要がなくなるので、ぼかし処理後の画像を解析することなく、符号化の演算量を削減することができる。
<実施の形態>
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1における画像符号化装置のブロック図である。
図1において、ステレオ撮影符号化システムは、被写体を立体視可能なように撮影し、撮影によって生成されたステレオ映像信号を符号化する。このようなステレオ撮影符号化システムは、視差のある主画像および副画像を撮影するカメラ100aおよび100bと、画像符号化装置200と、ぼかしパラメータ入力部300と、記憶部400を備えている。
<カメラ100>
カメラ100aおよび100bは、それぞれ互いに人の両眼の平均的な間隔である6.5cmの距離を離して配置されている。カメラ100aおよび100bはそれぞれ、被写体を撮影し、撮影によって得られた映像信号を画像符号化装置200に出力する。
以下、簡略化のため、カメラ100aおよび100bのそれぞれから出力される映像信号を合わせて、ステレオ映像信号という。また、カメラ100aから出力される映像信号によって示される画像を、主画像と称し、カメラ100bから出力される映像信号によって示される画像を、副画像と称する。
この主画像および副画像によって、被写体の像が立体視される。カメラ100aおよび100bのそれぞれは、同一のタイミング(時刻)にピクチャを生成して出力する。
<ぼかしパラメータ入力部300>
ぼかしパラメータ入力部300は、カメラ100aとカメラ100bの実際の撮影レンズによるものとは異なるぼけを主画像と副画像のステレオ映像信号に付加するための、ぼかしパラメータの入力を行うユーザーインターフェースであり、タッチパネルと十字キーからなる。
入力するぼかしパラメータとして、被写体前方または後方の位置におけるぼかしの調整量(Sn、Sf)と被写体前方と後方における各重み係数(Wn、Wf)、被写体のピント位置情報(P)、カメラ100aと100b間の基線長(l)、画素サイズ(m)、焦点距離(fp)、実際の撮影レンズによるものとは異なるレンズ情報、つまり仮想の焦点距離(fv)と絞り値(F値)を入力する。
被写体の前方と後方におけるぼかし調整量(Sn、Sf)と重み係数(Wn、Wf)は、立体視をする場合、前方の飛び出し具合を抑えて、奥行きのある遠近感を表現したい場合には、前方のぼかし調整量Snあるいは重み係数Wnを大きくする、または後方のぼかし調整量Sfあるいは重み係数Wfを小さくすることで、被写体前方のぼかし量を大きくする。逆に、前方の被写体を強調し、背景を意図的にぼかす事で、前方の被写体を引き立たせる立体感を表現する場合には、後方のぼかし調整量Sfあるいは重み係数Wfを大きくする、または前方のぼかし調整量Snあるいは重み係数Wnを小さくすることで、被写体後方のぼかし量を大きくする。
なお、ぼかし調整量(Sn、Sf)を大きくすると被写体距離に関係なくピント位置の前方または後方に対し一律にぼかし処理をかけることができる。一方、重み係数(Wn、Wf)を大きくすると、被写体がピント位置から遠ざかるほどぼかしが強くなり、被写体距離に依存したぼかし処理が可能となる。
レンズ情報と重み係数の入力は、タッチパネルと十字キーから設定項目メニューを呼び出して各項目を設定することにより行われる。ピント位置は、タッチパネルに表示されているカメラ100aの主画像中の被写体の位置を指定する操作によって入力される。
ぼかしパラメータ入力部300は、これらのぼかしパラメータの設定を受け取り、画像符号化装置200に出力する。これにより、ぼかし処理部202において仮想の撮影レンズ、または実際のレンズでは生成することができない任意のぼけ具合も表現できるぼかし処理が行える。
<記憶部400>
記憶部400は、画像符号化装置200から出力される画像データ(後述の局所復号画像信号)を格納するための記録媒体である。
<画像符号化装置200>
画像符号化装置200は、カメラ100aおよび100bから出力されるステレオ映像信号を符号化することによって、符号化映像信号を生成して出力する。ここで、本実施の形態において画像符号化装置200は、ステレオ映像信号の主画像と副画像との両方にぼかし処理を行い、ステレオ映像信号を符号化するものとする。また、画像符号化装置200は、ステレオ映像信号に含まれる2つの映像信号を符号化するときには、ピクチャを構成する領域ごとにそれらの映像信号を符号化する。画像符号化装置200は、カメラ100aから出力される映像信号にぼかしを加えた画像信号をH.264 MVC(Multi View Coding)形式で符号化するものとし、映像信号に含まれる各ピクチャをそれぞれIピクチャ、PピクチャおよびBピクチャとして符号化する。
なお、IピクチャおよびPピクチャを符号化するときには、画像符号化装置200は画面内予測符号化を行う。
なお、PピクチャおよびBピクチャを符号化するときには、画像符号化装置200は画面間予測符号化(動き補償予測符号化)を行う。
一方、画像符号化装置200は、カメラ100bから出力される映像信号にぼかしを加えた画像信号を符号化するときには、視差補償予測符号化を行い、映像信号に含まれる各ピクチャをそれぞれPピクチャとして符号化する。
つまり、画像符号化装置200は、主画像のピクチャから、そのピクチャと同一のタイミングで生成された副画像のピクチャを予測し、その予測結果に基づいて副画像のピクチャを符号化する。
このような画像符号化装置200は、画像取得部206、視差取得部207、ぼかし処理部202、セレクタ203、スイッチ204a、204bおよび204c、減算器205、ブロックサイズ決定部210aおよび210b、ブロック分割部212aおよび212b、画面内予測部213、検出部214、補償部215、変換部216、量子化部217、可変長符号化部218、逆量子化部219、逆変換部220、および加算器221を備える。
<画像取得部206>
画像取得部206は、カメラ100aと100bから出力される画像信号を取得し、ぼかし処理部202に出力する。
<視差取得部207>
視差取得部207は、画像取得部206が受け付ける画像信号上の各要素単位における、被写体とカメラ100との間の視差の値または距離の値を取得し、視差の値または距離の値をぼかし処理部202に出力する。本実施の形態において、視差取得部207は視差検出部201を含み、視差検出部201が視差の値を生成する。
<視差検出部201>
視差検出部201は、カメラ100a、100bから入力された主画像と副画像データ間の視差を検出する。視差の検出は、主画像と副画像間の対応位置を求め、一方の画像の単位領域と他方の画像の対応する領域との水平方向の位置のずれを画素数として検出することにより行う。視差検出部201は、検出した視差情報(d)をぼかし処理部202に出力する。
本実施の形態において視差の検出はブロックマッチング法を用いることにより行う。ブロックマッチング法では、まず比較元の画像から16×16画素の単位領域を切り出す。次に、比較先の検索領域から同じ16×16サイズの領域を複数切り出し、切り出したそれぞれの領域について、比較元の領域との輝度差の絶対値の総和(SAD; Sum of Absolute Difference)を求める。そして、SADが最も小さくなる切り出し位置を見つけ出すことで比較元画像に対応する位置を領域単位で求める。
<ぼかし処理部202>
ぼかし処理部202は、ぼかしパラメータ入力部300から入力されたぼかしパラメータと、視差取得部207から入力された視差情報または距離情報を用いて、画像取得部206から入力された主画像と副画像の各画素単位に対して付加するぼかしマトリクスを決定する。本実施の形態では、ぼかし処理部202は視差取得部207から入力された視差情報を用いる。ぼかし処理部202は、ぼかしマトリクスより算出した、画素単位ごとのぼかし量をブロックサイズ決定部210aおよび210bに出力する。
また、ぼかし処理部202は、ぼかしマトリクスを基に主画像または副画像データに付加するぼかし処理を行い、処理結果の主画像と副画像の各ぼかし画像データをセレクタ203へ出力する。
なお、本実施の形態において画素単位は1画素で構成される。
ぼかし処理の流れは次のようになる。ぼかし処理部202は、視差情報(d)を用いてカメラから被写体までの距離分布を求め、ぼかしパラメータ入力部300からのパラメータと被写体の距離からぼかしマトリクスを生成して、主画像または副画像データの各画素領域にぼかしマトリクスを畳み込むことでぼかしを付加する。併せて、ぼかし処理部202はぼかしマトリクスよりぼかし量を算出してブロックサイズ決定部210aおよび210bに出力する。
図2を用いて説明する。まず、各画素単位の視差情報(d)からカメラから被写体までの距離分布を求める。図2の(a)に示すように、視差情報を(d)、撮影に用いた撮像素子の1画素の水平方向における長さを(m)とすると、被写体とカメラとの距離(D)は
Figure 0005932666
となる。なお、上述したように(fp)はレンズの焦点距離、(l)はカメラ100aと100b間の基線長である。
このような計算を全ての画素単位について行うことにより、主画像または副画像に撮影されている被写体の距離分布が求まる。
カメラとの距離がピント位置(P)からずれた位置の点の結像であるぼけた円を錯乱円と呼ぶが、本実施の形態においてはぼかしマトリクスの大きさを仮想的な錯乱円径(σ)を用いて決定する。
ピント位置(P)とカメラとの距離(L)は、上述のDの算出式にピント位置(P)における視差情報を(d)に代入することでDの値として求められる。同様に、任意の被写体とカメラとの距離(X)は、上述のDの算出式に当該被写体の視差情報を(d)に代入することでDの値として求められる。
カメラから距離(X)における錯乱円径は、光学系の特性値である焦点距離(fv)、F値(F)、ピント位置とカメラとの距離(L)、カメラと被写体との距離(X)を用いて次のように算出する。
本実施の形態においては、F値(F)は、ぼかしパラメータ入力部300より入力された仮想の値を用いる。また、ぼかしパラメータ入力部300より入力されたぼかし調整量Sf、Sn、重み係数Wf、Wnを用いてピント位置より後方および前方の錯乱円径(σ)に重みづけを行う。ぼかし調整量Sf、Snと重み係数Wf、Wnは前述の通り、Sf>SnまたはWf>Wnとすれば後方が強く前方が弱いぼかしとなり、Sf<SnまたはWf<Wnとすれば前方が強く後方が弱いぼかしとなる。また、ぼかし調整量Sf、Snはいずれも0とすると調整量がなくなって仮想光学系で発生するぼけとなり、値が大きいほどピント位置前方または後方に一律にぼかしがかかるようになる。また、重み係数Wf、Wnはいずれも1とすると重みづけがなくなって仮想光学系で発生するぼけそのものとなり、値が大きいほど被写体距離に強く依存したぼかしを発生させ、0とすると前方または後方へのぼかしが被写体距離に依存しなくなる。
錯乱円径の算出式を近似した上で調整量を加算し重みづけを行うと、ピント位置より後方の仮想錯乱円径(σ)は
Figure 0005932666
となり、ピント位置より前方の仮想錯乱円径(σ)は
Figure 0005932666
となる。
主画像および副画像上の画素単位ごとに、上述の(D)の算出式に視差情報(d)を入力して距離(X)を求め、この仮想錯乱円径(σ)の算出式に距離(X)を入力すればぼかしマトリクスの大きさを求めることができる。数2、数3による仮想錯乱円径(σ)と距離との関係を図2(b)に示す。次に、図3の(a)に示すようにぼかしマトリクスの大きさである仮想錯乱円径(σ)を直径とする円の内部をフィルタ係数1、外側をフィルタ係数0となるぼかしマトリクスを作成する。
次に、生成したぼかしマトリクスと主画像または副画像データの各画素領域を畳み込むことでぼかしを付加する。このとき、まずぼかしマトリクス内の全フィルタ係数の和を算出してこの値でマトリクス内全フィルタ係数の除算を行い、内部の全フィルタ係数の和が1である畳み込みマトリクスを生成する。この畳み込みマトリクスを用いて畳み込みを行う。
また、上記で求めた画素単位ごとのぼかしマトリクスから、画素単位ごとのぼかし量を算出する。ぼかし量は、ぼかしマトリクスのうちフィルタ係数が閾値以上である範囲を指し示す値である。範囲を指し示す値とは、例えば円形であれば直径であり、正方形であれば対角線の長さである。
本実施の形態においては、ぼかしマトリクスは仮想錯乱円径(σ)を直径とする円の内部をフィルタ係数1、外側をフィルタ係数0とするマトリクスであるので、閾値を1とし、直径σの円を指し示す値としてぼかし量をσとする。
ぼかし処理部202は、上記のように求めた画素単位ごとのぼかし量をブロックサイズ決定部210aおよび210bに出力する。
<セレクタ203>
セレクタ203は、カメラ100aおよび100bのそれぞれから出力される映像信号を取得し、それらの映像信号を交互に切り替えてスイッチ204a、減算器205、ブロック分割部212aまたは212bに出力する。
本実施の形態では、セレクタ203はピクチャ単位に切り替えを行う。すなわち、セレクタ203は、ぼかし処理後の主画像と副画像とをそれぞれ同一のタイミングでぼかし処理部202から取得すると、まず、ぼかし処理後の主画像を出力し、次に、ぼかし処理後の副画像を出力する。
<減算部205>
減算器205は、セレクタ203から出力される映像信号によって示される符号化対象画像と、スイッチ204bから出力される予測信号によって示される予測画像との差分をブロックごとに算出する。減算器205は、その差分を示す予測誤差信号をスイッチ204aに出力する。
ここで、減算器205は、符号化対象画像がIピクチャ、PピクチャまたはBピクチャの画像(ブロック)の各ピクチャにおいて、上述の差分を算出して予測誤差信号を出力する。
<スイッチ204a>
スイッチ204aは、符号化対象画像がIピクチャの主画像であり、画面内予測を行わない場合には、セレクタ203を変換部216に接続し、その符号化対象画像を示す映像信号をセレクタ203から変換部216に受け渡す。
また、スイッチ204aは、符号化対象画像がIピクチャの主画像であり、画面内予測を行う場合、またはPピクチャまたはBピクチャの画像(主画像または副画像)である場合には、減算器205を変換部216に接続し、Iピクチャ、PピクチャまたはBピクチャの各予測誤差信号を減算器205から変換部216に受け渡す。
<変換部216>
変換部216は、ブロックごとに、映像信号または予測誤差信号を画像信号としてスイッチ204aを介して取得し、その画像信号に対して直交変換である離散コサイン変換(DCT;Discrete Cosine Transform)を行う。これにより、変換部216は、画像信号を周波数係数であるDCT係数に変換し、つまり、その画像信号の領域を空間領域から周波数領域に変換し、その周波数係数を量子化部217に出力する。
<量子化部217>
量子化部217は、変換部216から周波数係数を取得し、その周波数係数に対して量子化を行う。つまり、量子化部217は、周波数係数を量子化ステップで除算することによって量子化値を生成する。ここで、量子化部217は、画像符号化規格、本実施の形態においてはH.264に従い、決められている量子化ステップを用いてその符号化対象ブロックを量子化する。
<可変長符号化部218>
可変長符号化部218は、量子化部217によって生成された量子化値と、検出部214から出力される動きベクトルまたは視差ベクトルとを可変長符号化することによって、符号化ステレオ映像信号を生成して出力する。なお、この可変長符号化は可逆的な符号化である。
<逆量子化部219>
逆量子化部219は、量子化部217によって生成された量子化値に対して逆量子化を行うことによって逆量子化周波数係数を生成する。つまり、逆量子化部219は、量子化部217で用いられた量子化ステップを量子化値に乗算することよって逆量子化周波数係数を生成する。
なお、このときに生成される逆量子化周波数係数は、変換部216によって生成された周波数係数と異なり量子化誤差を含んでいる。
<逆変換部220>
逆変換部220は、逆量子化部219によって生成された逆量子化周波数係数に対して変換部216が行った直交変換の逆である逆直交変換、本実施の形態では逆離散コサイン変換(iDCT;inverse Discrete Cosine Transform)を行う。これにより、逆変換部220は、逆量子化周波数係数を画像信号に変換し、つまり、その逆量子化周波数係数の領域を周波数領域から空間領域に変換し、その画像信号を加算器221に出力する。
<加算器221>
加算器221は、符号化対象画像がIピクチャの主画像であり画面内予測を行わない場合には、逆変換部220から出力される画像信号を局所復号画像信号として記憶部400に格納する。
また、加算器221は、符号化対象画像がIピクチャの主画像であって画面内予測を行う場合、または符号化対象画像がPピクチャもしくはBピクチャの画像(主画像であっても副画像であってもよい)である場合には、逆変換部220から出力される画像信号と、スイッチ204cから出力される予測信号とを加算し、その加算結果を局所復号画像信号として画面内予測部213へ出力する。同時に、加算結果を記憶部400へ格納する。
<ブロックサイズ決定部210a>
ブロックサイズ決定部210aは、符号化対象画像がIピクチャ、PピクチャまたはBピクチャの各画像において、画面内予測を行う場合には、符号化対象画像領域のぼかし量をぼかし処理部202から取得し、閾値と比較する。
本実施の形態においては前述の通り符号化方式としてH.264を使用するため、画面内予測においては16×16、4×4のブロックサイズが使用できる。ここでは、閾値を4ピクセルとし、ぼかし量が4ピクセルより大きい領域は4×4のブロックサイズを使用しないものとする。
ぼかし量が閾値より大きい場合には、画面内予測部213で予測するブロック単位を16×16の大きいブロックサイズに制限するブロックサイズ情報をブロック分割部212aに出力する。
逆に、ぼかし量が閾値より小さい場合には、16×16の他に4×4の小さいブロックサイズも含めたブロックサイズ情報をブロック分割部212aに出力する。
<ブロック分割部212a>
ブロック分割部212aは、ブロックサイズ決定部210aから出力されるブロックサイズ情報に基づいて、セレクタ203から出力される符号化対象画像を、ブロックサイズ情報の大きさ毎に分割する。
例えば、ブロックサイズ情報が16×16に制限されている場合、16×16のサイズのみで符号化対象画像を分割して、分割画像を画面内予測部213へ出力する。
一方、ブロックサイズ情報が16×16と4×4の2種類からなる場合、符号化対象画像を16×16のブロックサイズで分割した画像と、同じ符号化対象画像を4×4のブロックサイズで分割した画像の2種類を用意し、用意した2種類の分割画像それぞれを画面内予測部213へ出力する。
<画面内予測部213>
画面内予測部213は、加算器221から出力された同じピクチャの内の局所復号画像信号を、符号化対象画像の位置から見て、左、上、右上、左上の計4つの位置に対して、ブロック分割部212aから出力される分割ブロックサイズの単位で画面内予測を行う。
例えば、ブロック分割部212aから16×16のブロックサイズに制限されたブロック情報を受け取った場合は、4つの位置に対して、16×16のブロックサイズのみで同一または類似のブロックの探索を行う。
一方、16×16と4×4の2種類のブロックサイズ情報を受け取った場合、4つの位置に対して、16×16と4×4の2種類のブロックサイズで同一または類似のブロックの探索を行う。
その後、探索によって得られた最も類似している予測信号をスイッチ204bと204cに出力する。
<ブロックサイズ決定部210b>
ブロックサイズ決定部210bは、符号化対象画像がPピクチャまたはBピクチャの主画像である場合と、Pピクチャの副画像である場合には、符号化対象画像領域のぼかし量をぼかし処理部202から取得し、閾値と比較する。
本実施の形態においては前述の通り符号化方式としてH.264を使用するため、画面間予測においては16×16、8×8のブロックサイズが使用できる。ここでは、閾値を8ピクセルとし、ぼかし量が8ピクセルより大きい画素は8×8のブロックサイズを使用しないものとする。なお、H.264の規格上は16×8、8×16のブロックサイズも使用可能であるが、本実施の形態では使用しないものとする。
ぼかし量が閾値より大きい場合には、検出部214で動きベクトルまたは視差ベクトルを探索するブロック単位を16×16の大きいブロックサイズに制限するブロックサイズ情報をブロック分割部212bに出力する。ここでは、閾値として8ピクセルを用いる。
逆に、ぼかし量が閾値より小さい場合には、16×16の他に8×8の小さいブロックサイズも含めたブロックサイズ情報をブロック分割部212bに出力する。
<ブロック分割部212b>
ブロック分割部212bは、ブロックサイズ決定部210bから出力されるブロックサイズ情報に基づいて、セレクタ203から出力される符号化対象画像を、ブロックサイズ情報の大きさ毎に分割する。
例えば、16×16に制限されたブロックサイズ情報の場合、16×16のサイズのみで符号化対象画像を分割して、分割画像を検出部214へ出力する。
一方、16×16と8×8の2種類のブロックサイズ情報を受け取った場合、符号化対象画像を16×16のブロックサイズで分割した画像と、同じ符号化対象画像を用いて8×8のブロックサイズで分割した画像の2種類を用意し、両分割画像を検出部214へ出力する。
<検出部214>
検出部214は、ブロック分割部212bにてブロック分割された符号化対象画像がPピクチャまたはBピクチャの主画像である場合には、その符号化対象画像に対してブロックごとに動きベクトルを検出する。
つまり、検出部214は、記憶部400に格納されている、既に符号化されて復号された他の主画像(IピクチャまたはPピクチャ)を示す局所復号画像信号を参照画像として参照する。
そして、検出部214は、符号化対象画像(符号化対象ブロック)と同一または類似のブロックをその参照画像から探索することによって、その符号化対象画像の動きを動きベクトルとして検出する。
そして、検出部214は、その動きベクトルを補償部215および可変長符号化部218に出力する。
一方、検出部214は、ブロック分割部212bにてブロック分割された符号化対象画像がPピクチャの副画像である場合には、その符号化対象画像に対してブロックごとに視差ベクトルを検出する。
つまり、検出部214は、記憶部400に格納されている、既に符号化されて復号された主画像(Iピクチャ、PピクチャまたはBピクチャ)を示す局所復号画像信号を参照画像として参照する。
そして、検出部214は、符号化対象画像(符号化対象ブロック)と同一または類似のブロックをその参照画像から探索することによって、その符号化対象ブロックと、同一または類似のブロックと間の位置関係を視差ベクトル(視差)として検出する。
なお、符号化対象ブロックを含む副画像のピクチャと、主画像である参照画像(参照ピクチャ)とはそれぞれ、カメラ100aおよび100bによって同一のタイミングで生成されたピクチャである。そして、検出部214は、その視差ベクトルを補償部215および可変長符号化部218に出力する。
なお、視差ベクトルは、上記ブロック間の位置関係を、左右方向の位置のずれとして示す。
また、動きベクトルと視差ベクトルの両方の場合において、ブロック分割部212bから16×16のブロックサイズに制限されたブロック情報を受け取った場合は、符号化対象画像の周囲32×32の領域に対して、16×16のブロックサイズのみで同一または類似のブロックの探索を行う。
一方、16×16と8×8の2種類のブロックサイズ情報を受け取った場合、符号化対象画像の周囲32×32の領域に対して、16×16と8×8の2種類のブロックサイズで同一または類似のブロックの探索を行う。
その後、最も類似している動きベクトルまたは視差ベクトルを補償部215に出力する。
<補償部215>
補償部215は、検出部214から動きベクトルを取得したときには、その動きベクトルと参照画像を用いて動き補償を行うことによって予測信号を生成し、その予測信号を出力する。つまり、参照画像に含まれる上記同一または類似のブロックが上記動きベクトルに応じて空間的にシフトされる。
一方、補償部215は、検出部214から視差ベクトルを取得したときには、その視差ベクトルと参照画像を用いて視差補償を行うことによって予測信号を生成し、その予測信号を出力する。
つまり、参照画像に含まれる上記同一または類似のブロックが上記視差ベクトルに応じて空間的にシフトされる。
<スイッチ204c>
スイッチ204cは、符号化対象画像がIピクチャの主画像であって画面内予測を行わない場合には、画面内予測部213と加算器221との間、さらに補償部215と加算器221との間を開放する。
また、スイッチ204cは、符号化対象画像がIピクチャ、PピクチャまたはBピクチャの画像(主画像または副画像)である場合で画面内予測を行う場合には、画面内予測部213を加算器221に接続し、予測信号を画面内予測部213から加算器221へ受け渡す。
一方、スイッチ204cは、符号化対象画像がPピクチャまたはBピクチャの画像(主画像または副画像)である場合には、補償部215を加算器221に接続し、予測信号を補償部215から加算器221へ受け渡す。
<スイッチ204b>
スイッチ204bは、符号化対象画像がIピクチャ、PピクチャまたはBピクチャの画像(主画像または副画像)である場合で画面内予測を行う場合には、画面内予測部213を減算器205に接続し、予測信号を画面内予測部213から減算器205へ受け渡す。
一方、スイッチ204bは、符号化対象画像がPピクチャまたはBピクチャの画像(主画像または副画像)である場合には、補償部215を減算器205に接続し、予測信号を補償部215から減算器205へ受け渡す。
また、PピクチャまたはBピクチャの画像(主画像または副画像)であって、画面内予測部213と補償部215の両方の予測信号がある場合は、画面内予測部213の予測信号と補償部215の予測信号のどちらかより類似している方の予測信号を減算器205へ受け渡す。
<動作>
図4、図5、図6、図7および図8は、本実施の形態における画像符号化装置200の動作を示すフローチャートである。
画像符号化装置200は、視差のあるステレオ映像信号に含まれるピクチャを順次符号化する。
画像符号化装置200は、符号化するときには、まず、主要被写体を引き立たせて立体感を演出するために、主要被写体以外の領域をぼかすためのレンズ情報など任意のぼかしを行うためのぼかしパラメータを設定する(S10)。
画像符号化装置200は、ぼかしパラメータの設定が完了後、画像信号の取得を行い(S20)、視差検出部201は、取得したそれぞれ2つの画像間の視差の検出を行う(S30)。
画像符号化装置200は、符号化の対象となる画像を選択する(S40)。本実施の形態においては、主画像と副画像との両方にぼかしを付加して符号化するので、主画像と副画像との両方を選択する。
ぼかし処理部202は、ステップS10で取得したぼかしパラメータと、S30で取得した視差情報から、ステレオ映像信号に付加するぼかし量を算出し、ステレオ映像信号に算出したぼかし量を付加するぼかし処理を行う(S50)。
画像符号化装置200は、これらぼかし量を追加したぼかし画像からなるステレオ映像信号に対して符号化するため、符号化対象信号を生成する(S60)。
ここで、符号化対象信号を生成するS60の一連の動作を説明する。まず、符号化対象画像が主画像か否かを判別する(S61)。ここでは、画像符号化装置200に備えられた制御部が判別する。
ここで、符号化対象画像が主画像であると判別されると(S61でY)、上述の制御部は、さらに、その符号化対象画像に対して動き補償予測符号化を行うべきか否かを判別する(S62)。例えば、画像符号化装置200は、符号化対象画像をPピクチャまたはBピクチャのブロックとして符号化するときには、動き補償予測符号化を行うべきと判別し(S62でY)、符号化対象画像をIピクチャのブロックとして符号化するときには、動き補償予測符号化を行うべきでないと判別する(S62でN)。
制御部は、動き補償予測符号化を行うべきと判別すると(S62でY)、スイッチ204aを制御して減算器205を変換部216に接続、スイッチ204bを制御して補償部215を減算器205に接続、スイッチ204cを制御して補償部215と加算器221との間の3つを接続させる。
次に、ブロックサイズ決定部210bは、その符号化対象画像のぼかし量に応じて動き検出を行う際のブロックサイズの決定を行う(S64b)。まず、符号化対象画像領域のぼかし量をぼかし処理部202から取得し、閾値と比較する(S211)。閾値より大きいと判断すると、検出部214で動きベクトルを探索するブロック単位を16×16の大きいブロックサイズに制限するブロックサイズ情報をブロック分割部212bに出力する(S212)。逆に、閾値より小さいと判断されると、16×16の他に8×8の小さいブロックサイズも含めたブロックサイズ情報をブロック分割部212bに出力する(S213)。
ブロック分割部212bは、ブロックサイズ決定部210bから出力されるブロックサイズ情報に基づいて、セレクタ203から出力される符号化対象画像を、ブロックサイズ情報の大きさ毎に分割する(S65b)。
次に、検出部214は、その符号化対象画像に対してブロック分割部212bから受け取るブロックサイズで同一または類似のブロックを探索し、動きベクトルを検出する。そのとき、最も類似している動きベクトルを出力する(S661)。
動きベクトルにおいて、ブロック分割部212bから16×16のブロックサイズに制限されたブロック情報を受け取った場合は、符号化対象画像の周囲32×32の領域に対して、16×16のブロックサイズのみで同一または類似のブロックの探索を行う。
一方、16×16と8×8の2種類のブロックサイズ情報を受け取った場合、符号化対象画像の周囲32×32の領域に対して、16×16と8×8の2種類のブロックサイズで同一または類似のブロックの探索を行う。その後、最も類似している動きベクトルを補償部215に出力する。
さらに、補償部215は、その検出された動きベクトルを用いて動き補償を行うことによって、符号化対象画像のブロックに対する予測信号を生成する(S662)。
また、減算器205は、符号化対象画像から、予測信号の示す画像を減算することによって予測誤差信号を生成する(S67b)。
一方、制御部は、符号化対象画像がIピクチャであってS406で動き補償予測符号化を行うべきでないと判別するときであって画面内予測符号化を行うべきと判別するとき、または、符号化対象画像がPピクチャまたはBピクチャであって画面内予測符号化を行うべきと判別するとき(S63でY)、スイッチ204aを制御して減算器205を変換部216に接続、スイッチ204bを制御して画面内符号化部213を減算器205に接続、スイッチ204cを制御して画面内符号化部213と加算器221との間の3つを接続させる。
次に、ブロックサイズ決定部210aは、その符号化対象画像のぼかし量に応じて画面内予測を行う際のブロックサイズの決定を行う(S64a)。まず、符号化対象画像領域のぼかし量をぼかし処理部202から取得し、閾値より大きいか判断する(S201)。閾値より大きいと判断すると、画面内予測部213でブロック探索するブロック単位を16×16の大きいブロックサイズに制限するブロックサイズ情報をブロック分割部212aに出力する(S202)。逆に、閾値より小さいと判断されると、16×16の他に4×4の小さいブロックサイズも含めたブロックサイズ情報をブロック分割部212aに出力する(S203)。
ブロック分割部212aは、ブロックサイズ決定部210aから出力されるブロックサイズ情報に基づいて、セレクタ203から出力される符号化対象画像を、ブロックサイズ情報の大きさ毎に分割する(S65a)。
画面内予測において、ブロック分割部212aから16×16のブロックサイズに制限されたブロック情報を受け取った場合は、符号化対象画像の位置から見て、左、上、右上、左上の計4つの位置に対して、16×16のブロックサイズのみで同一または類似のブロックの探索を行う。
一方、16×16と4×4の2種類のブロックサイズ情報を受け取った場合、4つの位置に対して、16×16と4×4の2種類のブロックサイズで同一または類似のブロックの探索を行う。
その後、最も類似している予測信号をスイッチ204bと204cに出力する(S66)。
また、減算器205は、符号化対象画像から、予測信号の示す画像を減算することによって予測誤差信号を生成する(S67a)。
一方、制御部は、符号化対象画像が副画像であると判別されると(S61でN)、スイッチ204aを制御して減算器205を変換部216に接続、スイッチ204bを制御して補償部215と減算器205を接続、スイッチ204cを制御して補償部215と加算器221との間の3つを接続させる。
次に、ブロックサイズ決定部210bは、その符号化対象画像のぼかし量に応じて視差検出を行う際のブロックサイズの決定を行う(S64c)。まず、符号化対象画像領域のぼかし量をぼかし処理部202から取得し、閾値より大きいか判断する(S221)。閾値より大きいと判断すると、検出部214で視差ベクトルを探索するブロック単位を16×16の大きいブロックサイズに制限するブロックサイズ情報をブロック分割部212bに出力する(S222)。
逆に、閾値より小さいと判断されると、16×16の他に8×8の小さいブロックサイズも含めたブロックサイズ情報をブロック分割部212bに出力する(S223)。
ブロック分割部212bは、ブロックサイズ決定部210bから出力されるブロックサイズ情報に基づいて、セレクタ203から出力される符号化対象画像を、ブロックサイズ情報の大きさ毎に分割する(S65c)。
次に、検出部214は、その符号化対象画像に対してブロック分割部212bから受け取るブロックサイズで同一または類似のブロックを探索し、視差ベクトルを検出する。そのとき、最も類似している視差ベクトルを出力する(S663)。
視差ベクトルにおいて、ブロック分割部212bから16×16のブロックサイズに制限されたブロック情報を受け取った場合は、符号化対象画像の周囲32×32の領域に対して、16×16のブロックサイズのみで同一または類似のブロックの探索を行う。
一方、16×16と8×8の2種類のブロックサイズ情報を受け取った場合、符号化対象画像の周囲32×32の領域に対して、16×16と8×8の2種類のブロックサイズで同一または類似のブロックの探索を行う。その後、最も類似している視差ベクトルを補償部215に出力する。
さらに、補償部215は、その検出された視差ベクトルを用いて視差補償を行うことによって、符号化対象画像のブロックに対する予測信号を生成する(S664)。
また、減算器205は、符号化対象画像から、予測信号の示す画像を減算することによって予測誤差信号を生成する(S67c)。
次に、スイッチ204aは生成された予測残差信号を変換部216に出力する(S70)。
ここで、複数の予測残差信号が生成されている場合がある。例えば、符号化対象画像が副画像でPピクチャの場合、副画像であるため視差補償による予測残差信号が生成され(S67c)、Pピクチャであるため動き補償による予測残差信号が生成され(S67b)、画面内符号化が行えるため画面内符号化による予測残差信号が生成され(S67a)、結果、合わせて3つの予測残差信号が生成される。その場合、生成された複数の予測残差信号のうちで最も小さい予測残差信号を変換部216へ受け渡す。
逆に、予測残差信号が全く生成されていない場合がある。例えば、符号化対象画像が主画像のIピクチャの場合、画面内予測、動き補償予測、視差補償予測のいずれも行わないため、予測残差信号が一つも生成されない。その場合、予測残差信号選択を行わず、スイッチ204aはセレクタ203から出力される主画像データの符号化対象画像を変換部216に出力する。
その後、変換部216は、スイッチ204aが出力する符号化対象画像または予測残差信号に対して直交変換を行うことによって周波数係数を生成する(S80)。
量子化部217は、その周波数係数を量子化することによって量子化値を生成し(S90)、可変長符号化部218はその量子化値を可変長符号化する(S100)。
<まとめ>
このように本実施の形態では、符号化する際のブロックサイズ決定には、視差情報による距離情報やフォーカスポイント情報だけで無く、任意のぼかしパラメータも用いたぼかし処理により付加されるぼかし情報を用いることで、任意のぼかし具合に対してブロックサイズの決定を行うことができる。
これにより、ブロックサイズを複数の候補から決定の行える符号化において、ぼかし量が大きい領域ほど大きいブロックサイズに制限することから、情報量の少ないぼかし量の大きい領域の圧縮率を向上させることができる。
また、本実施の形態では、任意のぼかし具合に対して可変ブロックサイズの決定を行った後、画面内予測を用いた符号化を行うことができる。
これにより、同一画面内のブロック間の相関を利用して圧縮率を向上させる画面内予測による符号化において、ぼかし量が大きく設定された領域では強めのぼかし処理により高周波成分が低下した平坦な画像と判断し、大きな予測ブロックサイズに制限して予測することで、画面内予測における予測残差が小さい参照ブロックの探索処理量を減らし、処理の高速化や、省電力化が行える。また、逆に、ぼかし量が小さい、またはぼかさない領域は、複雑な画像が存在しても問題無いように、小さなブロックも含めたブロックで予測する。こうして、平坦な画像も複雑な画像も効率良く予測できる。
さらに、本実施の形態では、任意のぼかし具合に対して可変ブロックサイズの決定を行った後、動き補償予測または視差補償予測による画面間予測を用いた符号化を行うことができる。
これにより、複数画面間のブロック間の相関を利用して圧縮率を向上させる画面間予測による符号化において、ぼかし量が大きく設定された領域では強めのぼかし処理により高周波成分が低下した平坦な画像と判断し、大きなブロック単位で予測することで、画面間予測における予測残差が小さい参照ブロックの探索処理量を減らし、処理の高速化や、省電力化が行える。逆に、ぼかし量が小さい、またはぼかさない領域は、複雑な画像が存在しても問題無いように、小さなブロックも含めたブロックで予測する。こうして、平坦な画像も複雑な画像も効率良く予測できる。さらに、画面間予測における参照ブロックの探索処理には、複数画面をメモリに蓄え、それを参照する為、大きなブロック単位での予測に制限することでデータアクセス回数またはデータ転送量を減らし省メモリ帯域化が行える。
(変形例1)
上記実施の形態において、画像符号化装置200は、主画像と副画像から視差情報を生成して、主画像と副画像それぞれにぼかしを付加して符号化を行ったが、単一の画像と、当該画像の画素単位ごとの距離情報を取得し、ぼかしを付加して符号化を行ってもよい。
図9に本変形例に係る画像符号化装置500を示す。図9において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
図9において、撮影画像符号化システムは、被写体を撮影すると同時に被写体とシステムとの距離情報を取得し、距離情報を用いてぼかしを付与した画像信号を符号化する。このような撮影画像符号化システムは、本変形例における画像符号化装置500と、カメラ100と、距離取得手段110と、ぼかしパラメータ入力部300とを備えている。
<距離取得手段110>
距離取得手段110は、カメラ100から入力された画像上の各画素におけるカメラと被写体との距離を測定する。距離の検出は、超音波やミリ波などを送出し、被写体からの反射波が到達するまでの時間や位相差などを測定することにより行う。
<画像符号化装置500>
画像符号化装置500は、距離取得手段110から出力される距離情報を用いて、カメラ100から出力される画像信号にぼかしを付与して符号化することによって、符号化画像信号を生成して出力する。
このような画像符号化装置500は、画像取得部206、視差取得部501、ぼかし処理部202、セレクタ203、スイッチ204a、204bおよび204c、減算器205、ブロックサイズ決定部210aおよび210b、ブロック分割部212aおよび212b、画面内予測部213、検出部214、補償部215、変換部216、量子化部217、可変長符号化部218、逆量子化部219、逆変換部220、および加算器221を備える。
<視差取得部501>
視差取得部501は、視差検出部201を含まず、距離取得手段110より視差または距離情報を取得して、ぼかし処理部202に視差または距離情報を出力する。本実施の形態において、視差取得部501は、距離取得手段110より、カメラ100から入力された画像上の各画素におけるカメラと被写体との距離を取得する。
<動作>
画像符号化装置500の動作は、視差の検出を行わずに入力された距離情報を用いてぼかし量の算出を行うこと、および、ぼかしと符号化の対象が単一の画像であることを除いて上記実施の形態と同様であるので、図4のフローチャートをそのまま用いて、差分のみについて説明する。
画像取得部206は、カメラ100より画像信号を取得する(S20)。受け付ける画像信号は、単一視点の映像信号である。
視差取得部501は、距離取得手段110より画像信号の画素単位ごとの距離情報を取得し、ぼかし処理部202に出力する(S30)。
画像符号化装置500は、画像取得部206が受け付けた画像信号を符号化対象画像として選択する(S40)。
ぼかし処理部202は、画像信号の画素単位ごとの距離情報を用いてぼかし量の算出を行い、符号化対象画像にぼかしの付加を行う(S50)。このとき、ぼかし処理部202は視差取得部501より距離情報を得ているため、ぼかしパラメータを用いて視差から距離情報を算出する処理は行わず、視差取得部501より距離情報をそのまま用いてぼかし量を算出する。
以下の符号化の処理については、副画像が存在しない単一の画像を符号化することを除いてS60〜S100の動作と同様であるので説明を省略する。
このように本変形例では、被写体の距離が既知である単一の画像に対して、任意のぼかしパラメータと距離とを用いたぼかし処理により付加されるぼかし情報を用いて、ブロックサイズを選択し符号化を行うことができる。
なお、本変形例においては、視差取得部501が距離情報を距離取得手段110から取得してぼかし処理部202に出力するものとしたが、視差取得部501は、視差画像など視差値そのものの入力を受け付けるものとしてもよい。この場合、視差取得部501は取得した視差をぼかし処理部202に出力してもよいし、ぼかしパラメータを用いて距離情報に変換し、距離情報をぼかし処理部202に出力してもよい。また、同様に視差取得部501は距離情報を得て、ぼかしパラメータを用いて距離情報を視差に変換し、視差をぼかし処理部202に出力するものとしてもよい。
(変形例2)
上記実施の形態において、画像符号化装置200は、主画像と副画像からなるステレオ映像信号にぼかしを付加して符号化を行ったが、主画像または副画像の一方のみにぼかしを付加して符号化を行ってもよい。
この場合、例えば、ぼかしパラメータに主画像と副画像のいずれに対してぼかしを付加して符号化するか示す情報を含め、S40において当該情報に基づき符号化の対象となる画像を選択することで、符号化の対象となる画像にのみぼかし処理と符号化処理を行うことができる。あるいは、主画像のみにぼかしを付加して符号化する場合には、カメラ100bの画像信号を画像取得部206またはぼかし処理部202に入力せず、視差検出部201にのみ入力するとしてもよい。
本変形例においては、ぼかしを付加して符号化する画像は単一であるので、ぼかし処理部202は符号化の対象となる画像にのみぼかし処理を行い、単一のぼかし画像データをセレクタ203に出力する。ぼかし処理および符号化の動作は、上記変形例1と同様であるので説明を省略する。
(実施の形態2)
図10は、本発明の実施の形態2における画像符号化装置600のブロック図である。図10において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
本実施の形態における画像符号化装置600は、任意のぼかし具合に対して可変ブロックサイズの決定を行った後、周波数成分への変換を行う直交変換を用いた符号化を行う点に特徴がある。
図10において、ステレオ撮影符号化システムは、被写体を立体視可能なように撮影し、撮影によって生成されたステレオ映像信号を符号化する。このようなステレオ撮影符号化システムは、実施の形態2における画像符号化装置600と、視差のある主画像および副画像の入力を受け付けるカメラ100aおよび100bと、ぼかしパラメータ入力部300とを備えている。
<画像符号化装置600>
画像符号化装置600は、視差検出部201から出力される視差を用いて、カメラ100aおよび100bから出力されるステレオ映像信号にぼかしを付加し符号化することによって、符号化映像信号を生成して出力する。また、画像符号化装置600は、ステレオ映像信号に含まれる2つの映像信号を符号化するときには、静止画または動画として符号化する。
このような画像符号化装置600は、画像取得部206、視差取得部207、ぼかし処理部202、セレクタ203、ブロックサイズ決定部610、ブロック分割部611、変換部216、量子化部217、および可変長符号化部218を備える。
なお、本実施の形態では、符号化方式として、直交変換である離散ウェーブレット変換を用いる静止画形式JPEG 2000、動画形式Motion JPEG 2000を使用する。
<ブロックサイズ決定部610>
ブロックサイズ決定部610は、符号化対象画像に対して、符号化対象画像領域のぼかし量をぼかし処理部202から取得し、閾値と比較する。
本実施の形態では、ブロックサイズを16×16、8×8の2種類のうち一方を使用するものとし、閾値を8ピクセルとする。
ぼかし量が閾値より大きい場合には、変換部216で直交変換を行うブロック単位を16×16の大きいブロックサイズに制限するブロックサイズ情報をブロック分割部611に出力する。
逆に、閾値より小さい場合には、8×8の小さいブロックサイズに制限するブロックサイズ情報をブロック分割部611に出力する。
<ブロック分割部611>
ブロック分割部611は、ブロックサイズ決定部610から出力されるブロックサイズ情報に基づいて、セレクタ203から出力される符号化対象画像を、ブロックサイズ情報の大きさ毎に分割する。
本実施の形態においては、16×16に制限されたブロックサイズ情報の場合、16×16のサイズのみで符号化対象画像を分割して、分割画像を変換部216へ出力する。
一方、8×8に制限されたブロックサイズ情報を受け取った場合、8×8のサイズのみで符号化対象画像を分割して、分割画像を変換部216へ出力する。
<動作>
図11、図12は、本実施の形態における画像符号化装置600の動作を示すフローチャートである。
図11において、図4と同じ動作については同じ符号を用い、説明を省略する。
ブロックサイズ決定部610は、その符号化対象画像のぼかし量に応じて直交変換を行う際のブロックサイズの決定を行う(S310)。まず、符号化対象画像領域のぼかし量をぼかし処理部202から取得し、閾値より大きいか判断する(S311)。閾値より大きいと判断すると、変換部216で直交変換を行うブロック単位を16×16の大きいブロックサイズに制限するブロックサイズ情報をブロック分割部611に出力する(S312)。
逆に、閾値より小さいと判断されると、8×8の小さいブロックサイズに制限するブロックサイズ情報をブロック分割部611に出力する(S313)。
ブロック分割部611は、ブロックサイズ決定部610から出力されるブロックサイズ情報に基づいて、セレクタ203から出力される符号化対象画像を、ブロックサイズ情報の大きさ毎に分割する(S320)。
<まとめ>
このように本実施の形態では、符号化する際の直交変換を行うためのブロックサイズの決定に、任意のぼかしパラメータを用いたぼかし処理により付加されるぼかし情報を用いる。これにより任意のぼかし具合に対して直交変換のブロックサイズの決定を行うことができる。
また、ぼかし量が大きい領域では、強めのぼかし処理により高周波成分が低下しているため、ブロックサイズを大きく制限することで高圧縮化を図ることができる。
なお、実施の形態2の画像符号化装置600に対しても、実施の形態1における変形例1または変形例2と同様の変形を行うことができる。変形例の動作は、実施の形態1における変形例で説明したS10〜40の差異、ならびにぼかしと符号化の対象が単一の画像信号となる以外は実施の形態2と同様である。
(実施の形態3)
図13は、本発明の実施の形態3における画像符号化装置700のブロック図である。図13において、図1、図9と同じ構成要素については同じ符号を用い、説明を省略する。
本実施の形態における画像符号化装置700は、1つの画像とその画像に対応した被写体の距離情報から立体視可能な2つの画像を生成し、被写体の距離情報を用いて任意のぼかしを付加して符号化を行う点に特徴がある。
図13において、ステレオ映像符号化システムは、被写体を撮影すると同時に被写体の距離情報を取得し、距離情報に基づいて撮影によって生成された画像からステレオ映像信号を生成して符号化する。このようなステレオ映像符号化システムは、実施の形態3における画像符号化装置700と、画像の入力を受け付けるカメラ100と、距離取得手段110と、ぼかしパラメータ入力部300と、記憶部400とを備えている。
<画像符号化装置700>
画像符号化装置700は、視差取得部501、画像取得部701、ぼかし処理部202、セレクタ203、スイッチ204a、204bおよび204c、減算器205、ブロックサイズ決定部210aおよび210b、ブロック分割部212aおよび212b、画面内予測部213、検出部214、補償部215、変換部216、量子化部217、可変長符号化部218、逆量子化部219、逆変換部220、および加算器221を備える。また、画像取得部206は、立体画像生成部701を備える。
<ぼかしパラメータ入力部300>
ぼかしパラメータ入力部300は、カメラ100で撮影された画像から立体画像を生成するための立体画像生成パラメータと、生成したステレオ映像信号に付加するためのぼかしパラメータの入力を行うユーザーインターフェースである。
入力するパラメータは以下の通りとなる。立体画像生成パラメータとして、カメラ100の画素サイズ(m)と焦点距離(fp)に加えて、立体画像を撮像するために想定される2つのカメラ間の基線長(l)、視差調整量(Sr)と重み係数(Wr)を入力する。ぼかしパラメータとして、被写体前方または後方の位置におけるぼかしの調整量(Sn、Sf)と被写体前方と後方における各重み係数(Wn、Wf)、被写体のピント位置情報(P)、実際の撮影レンズによるものとは異なるレンズ情報、つまり仮想の焦点距離(fv)と絞り値(F値)を入力する。
なお、視差調整量(Sr)と重み係数(Wr)は被写体全体の距離と、被写体間の奥行距離を変化させる係数で、値が大きいほど被写体がカメラに近づくと同時に被写体間のカメラからの距離の差が小さくなり、値が小さいほど被写体がカメラから遠ざかると同時に被写体間のカメラからの距離の差が大きくなる効果が発生する。また、視差調整量(Sr)を0かつ重み係数(Wr)を1に設定した場合には、カメラの基線長(l)だけカメラ100から離れた位置で撮影されたと想定される副画像が生成される。
これらのパラメータの設定を受け取り、立体画像生成パラメータを立体画像生成部701に出力し、ぼかしパラメータをぼかし処理部202に出力する。
<画像取得部701>
画像取得部701は、カメラ100から画像を取得し、ステレオ映像信号を生成してぼかし処理部202に出力する。画像取得部701は、ステレオ映像信号を生成する立体画像生成部702を含んでいる。
<立体画像生成部702>
立体画像生成部702は、カメラ100から入力された画像と、視差取得部501から入力された距離情報を基に左眼用画像と右眼用画像とからなるステレオ映像信号を生成する。
立体画像を生成する方法について説明する。実施の形態1で説明したように、視差情報を(d)とすると、被写体とカメラとの距離(D)との関係は数2のとおりであるから(図2(a))、視差情報(d)は
Figure 0005932666
となる。
このような計算を全ての被写体について行うことにより、立体画像における被写体ごとの視差の値が求まる。
本実施の形態においては、画像取得部701がカメラ100から取得した画像をそのまま主画像とし、主画像の各画素を
Figure 0005932666
で求められるdrだけずらすことによって副画像を生成する。
なお、drの分布によって、副画像上の各画素が主画像上の複数の画素に対応する場合や、対応する主画像上の画素が存在しない場合がある。副画像上の画素が主画像上の複数の画素に対応する場合、対応する画素の中で最もカメラに近い画素と対応させれば自然な画像となる。逆に、対応する主画像上の画素が存在しない空白の画素については、当該画素の周辺の画素のデータを複製することで空白を埋めて不自然な副画像が出力されることを防ぐことができる。
立体画像生成部702は、生成した主画像と副画像をぼかし処理部202に出力する。
<動作>
図14は、本実施の形態における画像符号化装置700の動作を示すフローチャートである。
図14において、図4と同じ動作については同じ符号を用い、説明を省略する。
画像処理装置700はぼかしパラメータの設定が完了後、画像信号の取得を行い(S20)、取得した画像の各画素に関する距離情報を取得する(S410)。
立体画像生成部702は、S10で取得したぼかしパラメータと、ステップS410で取得した距離情報から、ステレオ映像信号に存在するべき視差量を算出する。立体画像生成部702は、ステップS20で取得した画像を主画像として、主画像に算出した視差量を付加した副画像を生成するステレオ画像生成を行う(S420)。立体画像生成部702は、生成したステレオ画像をぼかし処理部202に出力する。
このように本実施の形態では、1つの画像とその画像に対応した被写体の距離情報から立体視可能な2つの画像を生成し、被写体の距離情報を用いて任意のぼかしを付加して符号化を行う。これにより、1視点の画像と被写体の距離情報から、ぼかしを付加した符号化ステレオ映像信号を生成することが可能となる。
(実施の形態4)
図15は、本発明の実施の形態4における画像符号化装置710のブロック図である。図15において、図13と同じ構成要素については同じ符号を用い、説明を省略する。
本実施の形態における画像符号化装置710は、カメラ120のズーム制御によって2つの焦点距離を切り替えることで撮像素子と被写体との間の距離情報を取得する点に特徴がある。
図15において、ステレオ映像符号化システムは、焦点距離の異なる2つの画像を取得し、2つの画像の視差情報に基づいて被写体の距離を算出し、算出した距離情報に基づいて撮影された一方の画像からステレオ映像信号を生成して符号化する。このようなステレオ映像符号化システムは、実施の形態4における画像符号化装置710と、ズーム機能を有し焦点距離が可変であるカメラ120と、ぼかしパラメータ入力部300と、記憶部400とを備えている。
<画像符号化装置710>
画像符号化装置710は、視差取得部703に距離検出部704を備えており、距離検出部704はカメラ120、ぼかしパラメータ入力部300に接続されている。
<ぼかしパラメータ入力部300>
ぼかしパラメータ入力部300は、画像を生成するための焦点距離(fp)と距離測定を行うための焦点距離(fp')(fp'>fp)の入力を受け付ける。
ぼかしパラメータ入力部300は、2つの焦点距離情報を距離検出部704に出力する。
<距離検出部704>
距離検出部704は、ぼかしパラメータ入力部300より焦点距離(fp)と焦点距離(fp')を受け取り、カメラ120に1フレームごとに焦点距離(fp)と焦点距離(fp')を交互に設定し、カメラ120から入力された画像上の各画素における、カメラ120と被写体との距離を測定する。距離の検出は、焦点距離の異なる2種類の画像上の対応する画素の視差情報を検出し三角計測の計測原理を用いることにより行う。距離検出部704は、測定した距離情報を立体画像生成部702とぼかし処理部202に出力する。
図15を用いて説明する。焦点距離(fp)のときに被写体に対応する撮像素子上の画素と光軸との距離(yp)、光軸を基準とした撮像素子から被写体への焦点距離(fp)のときの方位(θp)との関係は、
Figure 0005932666
である。焦点距離(fp')のときに被写体に対応する撮像素子上の画素と光軸との距離(yp')、光軸を基準とした撮像素子から被写体への焦点距離(fp')のときの方位(θp')との関係は同様に、
Figure 0005932666
である。
一方、光軸と被写体との距離を(y)とし、焦点距離(fp')のときの焦点から被写体までの距離を(z)とすると、(θp)と(y)、(z)との関係は、
Figure 0005932666
であり、同様に(θp')と(y)、(z)との関係は、
Figure 0005932666
である。数6〜数9より、被写体から撮像素子までの距離(Z)は、
Figure 0005932666
となる。
被写体ごとに画素の位置(yp)、(yp')を検出し、得られた画素の位置(yp)、(yp')から数10を用いることで、前述の被写体と撮像素子との間の距離(Z)を得ることができる。なお、画素の位置(yp)、(yp')の検出は、例えば、実施の形態1における視差検出部201がブロックマッチング法で視差を検出するのと同様の方法で行うことができる。
この得られた被写体と撮像素子との間の距離(Z)を立体画像生成部702に出力する。
<立体画像生成部702>
立体画像生成部702は、カメラ120から入力された画像と、視差取得部703から入力された距離情報を基に左眼用画像と右眼用画像とからなるステレオ映像信号を生成する。動作については実施の形態3と同様であるので説明を省略する。
<動作>
画像処理装置710はぼかしパラメータの設定が完了後、カメラ120の焦点距離を(fp)に設定して画像信号の取得を行い(S20)、次にカメラ120の焦点距離を(fp')に設定した画像信号の取得と取得した2画像の視差の検出を行うことで、視差値に基づく被写体ごとの距離情報の検出を行う(S410)。
このように本実施の形態では、1つの画像と、焦点距離を変更して取得したもう1つの画像から被写体の距離情報を検出し、検出した被写体の距離情報を用いて、立体視可能な2つの画像を生成し任意のぼかしを付加して符号化を行う。これにより、ズーム機能を有し焦点距離が可変である1つのカメラを用いて、焦点距離が異なる1視点の2つの画像から、ぼかしを付加した符号化ステレオ映像信号を生成することが可能となる。
(実施の形態5)
本実施の形態では、本発明に係る画像符号化装置を備えたシステムについて説明する。
図17は、本実施の形態における画像符号化システムの構成を示すブロック図である。図17において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
画像符号化システムは、画像符号化装置200、記憶部400、カメラ100a、カメラ100b、表示部800、および外部記録装置900を備える。
カメラ100aは、レンズ101a、撮像素子102a、主制御部103aおよびレンズ制御部104aを備える。撮像素子102aは、例えばCCD(Charge Coupled Device)から構成され、レンズ101aを介して光信号を取得し、その光信号を電気信号に変換して主制御部103aに出力する。レンズ制御部104aは、主制御部103aからの制御に応じて、レンズ101aの焦点などを調整する。主制御部103aは、例えばIC(Integrated Circuit)から構成され、撮像素子102aから出力された電気信号を取得し、その電気信号を映像信号として画像符号化装置200に出力する。さらに、主制御部103aは、撮像素子102aおよびレンズ制御部103aを制御することにより、シャッタースピード、ゲイン調整、および焦点調整などを行う。
カメラ100bは、レンズ101b、撮像素子102b、主制御部103bおよびレンズ制御部104bを備える。カメラ100bが備えるこれらの構成要素は、それぞれカメラ100aが備える上述の各構成要素と同一である。
なお、主制御部103aおよび103bはそれぞれ、カメラ100aおよび100bの焦点およびシャッタースピードなどが同一となるように協調動作を行う。
表示部800は、例えば液晶ディスプレイなどを備え、画像符号化装置200からステレオ映像信号を取得し、そのステレオ映像信号により示される主画像および副画像を表示する。
外部記録装置900は、例えばBD−R(Blu−ray Disc Recordable)が装着されるように構成されている。そして、外部記録装置900は、画像符号化装置200から符号化映像信号を取得し、その符号化映像信号を装着された記録媒体に書き込む。
<本実施の形態に係るその他の変形例>
(1)実施の形態1では、ブロックマッチング法による視差の検出方法として、16×16画素の領域を切り出し、輝度差の総和(SAD)を求め、切り出し位置を検索する場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、切り出し領域が8×8画素であってもよいし、8×16画素など縦横比が異なる切り出し領域を用いてもよい。あるいは、輝度差の総和(SAD)の代わりに、例えば、輝度差の2乗和(SSD; Sum of Squared Difference)や、正規化相互相関(ZNCC; Zero−mean Normalized Cross−Correlation)を用いてもよい。
あるいは、主画像と副画像間の対応位置を求める手法はブロックマッチング法でなくともよく、例えばグラフカット法を用いてもよい。
(2)実施の形態1では、ブロックマッチング法による視差の検出方法として、輝度差を用いる場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、画素値がRGB空間で表されている場合、Gの値の差を用いてもよいし、画素値がYCbCr空間で表されていて画面内の輝度Yがほぼ一定であるような場合、Cbの値の差またはCrの値の差を用いてもよい。
あるいは、例えば、画素値がRGB空間で表されている場合、R・G・Bの値それぞれについてSADを算出して、それらの最小値あるいは平均値を用いてもよいし、あるいは加重平均値を用いてもよい。例えば、(RのSAD+2×GのSAD+BのSAD)/4を視差値として、視差値が最小となる切り出し位置を検索してもよい。同様に画素値がYCbCr空間で表わされている場合、Y・Cb・CrそれぞれについてSADを算出して最小値を用いてもよいし、平均値または加重平均値を用いてもよい。このようにすることで、画素値の全部または一部を用いた任意の方法で視差を検出することができる。
(3)実施の形態1では、ぼかしパラメータ入力部300はぼかしパラメータはタッチパネルと十字キーから設定を受け取り、ピント位置を主画像中の被写体の位置を指定して設定する場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、ぼかしパラメータ入力部300はキーボードやダイヤルなど任意の入力デバイスであってもよい。あるいは、例えばカメラ100aがオートフォーカス機能を有していれば、ぼかしパラメータ入力部300は、ピント位置とピント位置情報(P)をカメラ100aから取得してもよい。
(4)実施の形態1では、前方と後方の各重み係数(Wn、Wf)、ぼかし調整量(Sf、Sn)以外のぼかしパラメータとして、被写体のピント位置情報(P)、カメラ100aと100b間の基線長(l)、焦点距離(fp)、画素サイズ(m)、仮想の焦点距離(fv)と絞り値(F値)をあげたが、本発明は必ずしもこの場合に限定されない。例えば、画素サイズ(m)はカメラ100aから取得してもよいし、基線長(l)は予め画像符号化装置200が保持していてもよい。このようにすることで、ぼかしに必要十分なぼかしパラメータを取得して使用することが可能になる。
あるいは、画像符号化装置200は、ピント位置からの距離と錯乱円径の対応パターンを予め複数保持しておき、いずれかのパターンを適応してぼかし処理を行った画像をユーザーに提示し、どのパターンを使用するか選択させてもよい。このようにすることで、ユーザーに好適なぼかしを選択して実施することが可能になる。
(5)実施の形態1では、ぼかしパラメータとして撮像に用いた光学系の焦点距離(fp)と仮想の焦点距離(fv)を使用し、焦点距離(fp)を用いてカメラと被写体との距離(D)を算出したが、本発明は必ずしもこの場合に限定されない。例えば、ピント位置(P)を実際の距離(L)でなく視差値(d)で得ている場合には、撮像に用いた光学系の焦点距離(fp)を使用せず、仮想の焦点距離(fv)で代用してもよい。
カメラと被写体との距離(D)を視差値(d)から算出するときにfpの代用としてfvを用いると、視差値から算出される距離D’(以下、仮想距離と呼ぶ)は実際の距離Dのfv/fp倍となるので、XとLは実際値のfv/fp倍となる。このため視差値(d)に対応する仮想錯乱円径(σ’)の値は、数2、数3のそれぞれにおいて、右辺第1項が実際値のfp/fv倍となる。そのため、あらかじめ重み係数(Wn、Wf)にfv/fpを織り込んでおくことにより、視差値(d)に対応する所望の仮想錯乱円径(σ)の値を得ることが可能となる。また、カメラとピント位置(P)との仮想距離L’も実際の距離Lのfv/fp倍となるので、全ての被写体およびピント位置(P)における、カメラからの仮想距離は実際の距離のfv/fp倍となる。したがって、被写体とピント位置との前後関係、被写体同士の前後関係は実際の距離と仮想距離とに対して同一の関係となる。
つまり、カメラとあらゆる点との仮想距離が実際の距離のfv/fp倍であること、仮想錯乱円径(σ’)の距離依存成分がfp/fv倍となること以外にfpの代わりにfvを用いることの影響は発生しない。加えて、上述したように、σ’への影響は重み係数(Wn、Wf)をfv/fp倍すれば打ち消すことができるため、ぼかしマトリクスおよびぼかし量においてfpの代わりにfvを用いることの影響をなくすことが可能である。
以上の理由により、fpの代用としてfvを用いてもよい。これによりfpを使用する必要がなくなり、ぼかしパラメータを一つ減らすことが可能となる。
(6)実施の形態1では、仮想錯乱円径(σ)は、ピント位置より遠い場合に数2、ピント位置より近い場合に数3で算出される場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、仮想光学系の錯乱円径をそのまま用いて、
Figure 0005932666
であるとしてもよいし、近似を行わず調整量や重み係数の付加のみを行ってもよい。
あるいは、被写体の距離範囲毎に異なるσの算出式を用いてもよい。例えば、図2(c)に示すように、ピント位置より遠い場合に、任意の距離X1より遠い場合と近い場合とで異なるσの算出式を用いてもよい。
あるいは、理想的な光学系を想定してぼかしを付加するのではなく、Xを変数とする任意の関数を用いてσを算出してもよい。例えば、図2(d)に示すように、2つのピント位置L1、L2(L1<L2)を用いて、ピント位置L1より近い場合、ピント位置L2より遠い場合、およびピント位置L1より遠くL2より近い場合とで異なるσの算出式を用いてもよい。このようにすることで、距離の異なる複数の被写体にピントを合わせ、いずれのピント位置にも存在しない被写体を全てぼかす処理を行うことができる。
また、例えば、重み係数をWg、調整量をSgとして、カメラセンサのゲイン(G)に対して
Figure 0005932666
としてもよいし、重み係数をWiso、調整量をSisoとして、カメラセンサのISO感度(ISO)に対して
Figure 0005932666
としてもよい。このようにすることで、ピント位置についてはぼかしを付加せず引き立たせておき、ピント位置から離れた位置についてはゲイン・ISO感度が高いことによって発生するノイズを平滑化して目立たせないためのぼかしを付加することができる。
このように、任意のぼかしを付加することが可能になる。
(7)実施の形態1では、ぼかしマトリクスとして、図3の(a)のように仮想錯乱円径(σ)内部のフィルタ係数を1、外部のフィルタ係数を0であるマトリクスを挙げたが、本発明は必ずしもこの場合に限定されない。例えば、図3の(b)に示されるような中心に近いほどフィルタ係数が大きいマトリクスであってもよいし、対角線の長さが仮想錯乱円径(σ)である正方形内部のフィルタ係数を1、外部のフィルタ係数を0とするなど、任意のマトリクスであってもよい。あるいは、算出された仮想錯乱円径(σ)から、σg=σ/4のガウシアンフィルタ
Figure 0005932666
を用いてマトリクスを生成してもよい。
これらのマトリクスはユーザーが自由に入力できるものとしてもよいし、予め画像符号化装置200に用意したマトリクスからユーザーが選択するものとしてもよい。このようにすることで、ユーザーに好適なぼかしを選択して実施することが可能になる。
(8)実施の形態1では、ぼかし量が仮想錯乱円径(σ)の値である場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば図3の(b)のようなぼかしマトリクスを使用する場合には、フィルタ係数の一定の割合(ここでは68.26%とする)が集約される範囲の直径をぼかし量であるとしてもよい。
また同様に図3の(b)のようなぼかしマトリクスを使用する場合には、フィルタ係数の平均値を閾値とし、その閾値以上の値が集約される範囲の直径をぼかし量であるとしてもよい。なお、閾値をフィルタ係数の中央値、またはフィルタ係数の最大値の半分としてもよい。
あるいは、上記変形例(7)の数14で表されるガウシアンフィルタを用いたマトリクスを使用する場合には、(σ/2)を閾値としてもよい。
このようにすることで、マトリクスの特性に応じてぼかし量を算出することができる。
(9)実施の形態1では、ぼかし処理の画素単位を1画素である場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、画素単位が2×2画素の4画素からなるものとしてもよい。このようにすることで、ぼかし処理に好適な単位で処理を行うことができるようになり、また処理量を削減することが可能になる。
(10)実施の形態1と実施の形態2では、ブロックサイズ決定部210a、210b、610が、閾値を4ピクセルまたは8ピクセルとして、16×16と4×4、または16×16と8×8の2種類のブロックサイズからブロックサイズ情報を出力する場合を説明したが、本発明は必ずしもこの場合に限定されない。
例えば、閾値のピクセル数は、カメラのセンサである撮像面の対角線の長さをHとしたとき、許容錯乱円径は(H/N)(Nは1000〜1500の値)であるので、許容錯乱円径(H/1300)の2倍を閾値のピクセル数としてもよい。
また、近似も調整量や重み係数の付加も行わない錯乱円径の最大値(f2/(FL))の2倍を超えない値であって前述の許容錯乱円径(H/1300)の2倍以上の任意の値を閾値のピクセル数としてもよい。このようにすることで、カメラのセンササイズに応じて閾値のピクセル数を決定し、ブロックサイズ情報を出力することが可能になる。
閾値のピクセル数は、これに限定されず、ユーザーが任意に閾値のピクセル数を設定してもよい。
(11)実施の形態1では、ブロックサイズ決定部210aが閾値を4ピクセルとして16×16と4×4の2種類のブロックサイズからブロックサイズ情報を出力する場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、さらに8×8のブロックサイズを用いることができる場合、閾値として4ピクセルと8ピクセルの2つを用いて、16×16と8×8、4×4の3種類のブロックサイズからブロックサイズ情報を出力するものとしてもよい。このようにすることで、ぼかし量が大きい画像領域ほどブロックサイズを大きくすることが可能になる。
あるいは、ぼかし量が閾値より小さい場合には、最小のブロックサイズ、例えば4×4に制限したブロックサイズ情報を出力してもよい。このようにすることで、ぼかし量が小さい領域について、複数のブロックサイズに対して画面内予測を実施する必要がなくなり処理量を削減することが可能になる。
(12)実施の形態1では、ブロックサイズ決定部210bが閾値を8ピクセルとして16×16と8×8の2種類のブロックサイズからブロックサイズ情報を出力する場合を説明したが、本発明は必ずしもこの場合に限定されない。
例えば、さらに閾値として4ピクセルを用いて、8×8に決定するブロックについてぼかし量が4ピクセル以下の場合に4×4のサブブロックに決定するものとしてもよい。このようにすることで、ぼかし量に応じてブロックサイズを多段に変更することが可能になる。
あるいは、ぼかし量が閾値より小さい場合には、最小のブロックサイズ、例えば8×8に制限したブロックサイズ情報を出力してもよい。このようにすることで、ぼかし量が小さい領域について、複数のブロックサイズに対して動き予測、視差予測を実施する必要がなくなり処理量を削減することが可能になる。
また、H.264の規格上は16×8、8×16のブロックサイズも使用可能であるので、例えば、閾値を8ピクセルとし、ぼかし量が8ピクセルより大きい画素は、8×8、16×8、8×16のブロックを使用しないものとしてもよい。
さらに、例えば、閾値を8ピクセルと6ピクセルの2つを設定することで、ぼかし量が8ピクセルより大きい画素は、8×8、16×8、8×16のブロックを使用しないものとし、ぼかし量が6ピクセルより大きい画素は、8×8を使用しないものとしても良い。
(13)実施の形態1では、検出部214が符号化対象画像の周囲32×32の領域に対して、同一または類似のブロックの探索を行う場合を説明したが、本発明は必ずしもこの場合に限定されない。より広い領域、例えば、周囲64×64の領域に対して同一または類似のブロックの探索を行ってもよい。このようにすることで、より類似したブロックを探索できるようになる。
あるいは、より狭い領域、例えば、8×8のブロックに対しては周囲16×16の領域に対して同一または類似のブロックの探索を行うようにしてもよい。このようにすることで、処理量を削減することができる。
(14)実施の形態1では、動き補償予測と視差補償予測とがいずれも画面間予測であって同一または類似の処理を行うことから、ブロックサイズ決定部210bとブロック分割部210b、検出部214と補償部215を共有して処理する場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、ブロックサイズ決定部210bを動き補償予測と視差補償予測とで分けてもよい。このようにすることで、ブロックサイズ決定のためのぼかし量の閾値を処理ごとに異なる値に設定することができ、それぞれの処理に対して好適なブロックサイズの決定が可能になる。
(15)実施の形態1では、検出部214が符号化対象画像に対してブロック分割部212bから受け取るブロックサイズで同一または類似のブロックを探索し、視差ベクトルを検出する場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、視差検出部201が検出した視差情報を用いて視差ベクトルを算出してもよい。このようにすることで、ブロック探索処理を省略することができ、処理量を削減することが可能になる。
(16)実施の形態1では、変換部216と逆変換部220がそれぞれDCT、iDCTを行う場合について説明したが、本発明は必ずしもこの場合に限定されない。例えば、変換部216が離散ウェーブレット変換(DWT;Discrete Wavelet Transform)を行い、逆変換部220が逆離散ウェーブレット変換を行ってもよい。このようにすることで、直交変換を用いた任意の符号化方式を用いることができる。
(17)実施の形態1では、画像符号化装置200が視差補償予測と動き補償予測の両方式を利用するH.264MVCで符号化する場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、H.264またはMPEG−4のような、視差補償予測のない符号化方式を使用しても良い。このようにすることで、ブロックサイズが1種類に限定されない符号化方式であれば、任意の符号化方式を用いることができる。
(18)実施の形態1の変形例1では、距離取得手段110が、カメラ100から入力された画像上の各画素におけるカメラと被写体との距離を、超音波やミリ波などを用いて測定する場合について説明したが、本発明は必ずしもこの場合に限定されない。例えば、距離取得手段110は、カメラ100の画像と、カメラ100とは別の視点の画像を取得し、視差を用いて距離を取得するものであってもよい。また、例えば、距離取得手段110は、実施の形態4で説明したような、2以上の焦点距離を有するカメラを用いた距離測定手段であってもよい。このようにすることで、視差取得部501は任意の方法で取得された視差または距離情報を取得し、画像符号化装置500はぼかし処理と符号化を行うことができる。
(19)実施の形態2では、ブロックサイズ決定部610が閾値を8ピクセルとして16×16と8×8の2種類のブロックサイズからブロックサイズ情報を出力する場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、ブロックサイズに4×4、32×32、8×16、64×32など任意のサイズを用いてもよいし、閾値は使用するブロックサイズに応じて任意の値を使用してもよい。
あるいは、例えば、閾値として4ピクセルと8ピクセルの2つを用いて、16×16と8×8、4×4の3種類のブロックサイズからブロックサイズ情報を出力するものとしてもよい。このようにすることで、ぼかし量が大きい画像領域ほどブロックサイズを大きくすることが可能になる。
(20)実施の形態2では、符号化方式として静止画であればJPEG 2000、動画像であればMotion JPEG 2000を使用する場合を説明したが、本発明は必ずしもこの場合に限定されない。複数のブロックサイズが許容され、直交変換を用いる符号化方式であれば、任意の符号化方式を用いることができる。
(21)実施の形態3では、画像符号化装置700が、画像符号化装置200のカメラ100a、カメラ100bをカメラ100に、視差取得部207を視差取得部501に、画像取得部206を画像取得部701にそれぞれ置換した構成であるとしたが、本発明は必ずしもこの場合に限定されない。例えば、実施の形態3に係る画像符号化装置は、画像符号化装置600のカメラ100a、カメラ100bをカメラ100に、視差取得部207を視差取得部501に、画像取得部206を画像取得部701にそれぞれ置換した構成であるとしてもよい。このようにすることで、1つの画像とその画像に対応した被写体の距離情報から生成したステレオ映像信号に対して、周波数成分への変換を行う直交変換を用いた符号化を行うことが可能となる。
また同様に、実施の形態4に係る画像符号化装置710は、画像符号化装置600のカメラ100a、カメラ100bをカメラ120に、視差取得部207を視差取得部703に、画像取得部206を画像取得部701にそれぞれ置換した構成であるとしてもよい。
(22)実施の形態4では、距離検出のための焦点距離(fp')が画像生成のための焦点距離(fp)より長い場合(fp'>fp)を説明したが、本発明は必ずしもこの場合に限定されない。距離検出のための焦点距離(fp')が画像生成のための焦点距離(fp)より短い場合(fp'<fp)であってもよい。このようにすることで、画像生成のための焦点距離(fp)と異なる焦点距離(fp')が設定可能であれば、焦点距離の異なる2つの画像から距離検出を行うことが可能となる。
(23)実施の形態5では、画像符号化システムは画像符号化装置200を含む場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、画像符号化システムは画像符号化装置200の代わりに画像符号化装置600を含むとしてもよい。また、例えば、画像符号化システムは、カメラ100a、100bと画像符号化装置200の代わりに、カメラ100及び距離取得手段110と接続される、画像符号化装置500または画像符号化装置700を含むとしてもよい。また、例えば、画像符号化システムは、カメラ100a、100bと画像符号化装置200の代わりに、カメラ120と接続される、画像符号化装置710を含むとしてもよい。
(24)実施の形態5では、表示部800が画像符号化装置200からステレオ映像信号を取得し、そのステレオ映像信号により示される主画像および副画像を表示する場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、表示部800は画像符号化装置200から局所復号画像信号を取得し、その局所復号画像信号により示される主画像および副画像を表示してもよい。このようにすることで、符号化後の画像信号をモニタすることができる。
(25)実施の形態5では、外部記憶装置900がBD−Rを記録媒体とする場合を説明したが、本発明は必ずしもこの場合に限定されない。例えば、記憶媒体として、CD−R(Compact Disc Recordable)、MO(Magnet Optical disk)、DVD−R(Digital Versatile Disk Recordable)を用いてもよいし、またはSDHCメモリカード、SDXCメモリカードなど半導体メモリを用いてもよい。
(26)上記の各実施の形態の画像符号化装置は、典型的には集積回路であるLSI(Large Scale Integration)として実現されてよい。各回路を個別に1チップとしてもよいし、全ての回路又は一部の回路を含むように1チップ化されてもよい。例えば、図18のようにぼかし処理部202は他の回路部と同一の集積回路に集積されることもあれば、別の集積回路になる場合もある。
ここでは、LSIとして記載したが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラム化することが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。
(27)上記の各実施の形態および各変形例の説明は本発明の例示に過ぎず、本発明の範囲を逸脱することなく種々の改良や変形を行うことができる。
以下に、実施の形態に係る画像符号化装置とその集積回路、および画像符号化方法の構成および効果について説明する。
(a)実施の形態に係る画像符号化装置は、画像を取得する画像取得部と、前記画像の画素単位ごとの視差または画素単位ごとの距離情報の少なくとも一方を取得する視差取得部と、前記画像の画素単位ごとのぼかし量を前記画素単位ごとの視差または前記画素単位ごとの距離情報から決定するぼかし量決定部と、前記ぼかし量に従って、前記画像にぼかし処理を施すぼかし処理部と、前記ぼかし処理を施した各画像から符号化対象領域を切り出すためのブロックサイズを複数のブロックサイズから前記ぼかし量に応じて決定するブロックサイズ決定部と、前記ぼかし処理を施した画像を前記決定されたブロックサイズに従ってブロック単位に符号化する符号化部とを含むことを特徴とする。
また、実施の形態に係る集積回路は、画像を取得する画像取得部と、前記画像の画素単位ごとの視差または画素単位ごとの距離情報の少なくとも一方を取得する視差取得部と、前記画像の画素単位ごとのぼかし量を前記画素単位ごとの視差または前記画素単位ごとの距離情報から決定するぼかし量決定部と、前記ぼかし量に従って、前記画像にぼかし処理を施すぼかし処理部と、前記ぼかし処理を施した画像から符号化対象領域を切り出すためのブロックサイズを複数のブロックサイズから前記ぼかし量に応じて決定するブロックサイズ決定部と、前記ぼかし処理を施した画像を前記決定されたブロックサイズに従ってブロック単位に符号化する符号化部とを含むことを特徴とする。
また、実施の形態に係る画像符号化方法は、画像を取得する画像取得ステップと、前記画像の画素単位ごとの視差または画素単位ごとの距離情報の少なくとも一方を取得する視差取得ステップと、前記画像の画素単位ごとのぼかし量を前記画素単位ごとの視差または前記画素単位ごとの距離情報から決定するぼかし量決定ステップと、前記ぼかし量に従って、前記画像にぼかし処理を施すぼかし処理ステップと、前記ぼかし処理を施した画像から符号化対象領域を切り出すためのブロックサイズを複数のブロックサイズから前記ぼかし量に応じて決定するブロックサイズ決定ステップと、前記ぼかし処理を施した画像を前記決定されたブロックサイズに従ってブロック単位に符号化する符号化ステップとを含むことを特徴とする。
また、実施の形態に係る画像符号化システムは、画像を撮影するためのカメラと、前記画像を符号化する画像符号化装置と、前記画像符号化装置による符号化によって生成される画像圧縮データを記録するための記録媒体とからなる画像符号化システムであって、前記画像符号化装置は、前記画像を取得する画像取得部と、前記画像の画像単位ごとの視差または画像単位ごとの距離情報の少なくとも一方を取得する視差取得部と、前記画像の画素単位ごとのぼかし量を前記画像単位ごとの視差または前記画像単位ごとの距離情報から決定するぼかし量決定部と、前記ぼかし量に従って、前記画像にぼかし処理を施すぼかし処理部と、前記ぼかし処理を施した画像から符号化対象領域を切り出すためのブロックサイズを複数のブロックサイズから前記ぼかし量に応じて決定するブロックサイズ決定部と、前記ぼかし処理を施した画像を前記決定されたブロックサイズに従ってブロック単位に符号化する符号化部とを含むことを特徴とする。
これら上記の構成によれば、画像を符号化する際にぼかし量を用いてブロックサイズを決定することで、画像の画素単位ごとのぼかし量に応じた適切なブロックサイズを用いることができる。
(b)また、実施の形態に係る上記(a)の画像符号化装置は、前記ぼかし量は、前記画像の画素単位ごとの視差または画素単位ごとの距離情報と、前記画像のぼかしパラメータとによって決まる、としてもよい。
これにより、視差情報だけでなく、例えばフォーカスポイント情報や被写体距離ごとのぼかし量など任意のぼかし情報を用いることで、多様なぼかし処理を行うことができる。
(c)また、実施の形態に係る上記(b)の画像符号化装置は、前記ぼかしパラメータは、前記画像を撮影した光学系の特性値とは異なる光学的特性値を含む、としてもよい。
これにより、ぼかし情報を用いて仮想の光学系を設定し、実際に撮像に用いた光学系に制限されることなく、任意の光学系によるぼけ具合を付加した画像を作成し、あるいは実現が難しい光学系で撮像されたと想定される画像をぼかし処理により作成することができる。
(d)また、実施の形態に係る上記(c)の画像符号化装置は、前記ぼかしパラメータは、1以上の被写体のピント位置情報を含む、としてもよい。
これにより、フォーカスポイント情報を用いたぼかし処理を行うことができ、例えば、フォーカスポイントが複数存在するなど、実際の光学系では実現できないようなぼかし処理も行うことが可能となる。
(e)また、実施の形態に係る上記(a)の画像符号化装置は、前記ブロックサイズ決定部は、前記ぼかし量がしきい値より大きい画素単位に対して、複数のブロックサイズのうち最小のブロックサイズでないブロックサイズに決定する、としてもよい。
これにより、2種類以上のブロックサイズを用いることができる符号化方式において、ぼかし量が大きい領域ほど使用するブロックサイズを大きいブロックサイズに制限することから、情報量が少ない、ぼかし量の大きい領域の圧縮率を向上させることができる。また、予測符号化処理を行う場合に、決定されたブロックサイズより小さなブロックサイズに対して予測ブロックサイズの選択をする必要がなく、さらに処理量の削減が可能となる。
(f)また、実施の形態に係る上記(a)の画像符号化装置は、前記ブロックサイズ決定部は、前記ぼかし量がしきい値より小さい画素単位に対して、複数のブロックサイズのうち最小のブロックサイズを含む1以上のブロックサイズに決定する、としてもよい。
これにより、ぼかし量が小さい、またはぼかさない領域には小さいブロックも含めた可変ブロックを用いることで情報量の削減を防ぐことができる。また、予測符号化処理を行う場合に複数のブロックサイズを用いるように決定すれば、参照ブロックが大きいブロックサイズに制限されていた場合に大きいブロックサイズを用いて効率よく予測符号化処理を行うことが可能になる。
(g)また、実施の形態に係る上記(e)または上記(f)の画像符号化装置は、前記符号化部は動き補償予測、視差補償予測、または画面内予測を行う場合において、前記ブロックサイズ決定部が決定した各ブロックサイズを用いて類似ブロックの探索を行い、前記ブロック単位に分割された画像に最も類似したブロックを得られたブロックサイズを1つ選択して、選択したブロックサイズに対する残差信号を生成する、としてもよい。
これにより、符号化の過程において動き予測、視差予測、または画面内予測の処理を行っている場合に、決定された可変ブロックの中からそれぞれの処理に好適なブロックサイズを決定することが可能となり、残差信号を最小化でき高圧縮化が行える。
(h)また、実施の形態に係る上記(a)の画像符号化装置は、前記画像取得部は、立体画像表示に用いるための左眼用画像と右眼用画像とを取得し、前記視差取得部は、前記左眼用画像の領域と、前記右眼用画像の対応する領域との視差を検出する視差検出部を含む、としてもよい。
これにより、立体画像表示に用いるための右眼用画像と左眼用画像とから、画素単位ごとの視差情報を生成し、右眼用画像と左眼用画像からなる立体画像に対して、生成した視差情報を用いてぼかし処理と適切なブロックサイズを用いた符号化を行うことができる。
(j)また、実施の形態に係る上記(a)の画像符号化装置は、前記画像取得部は、取得した1つの画像と、前記視差取得部が取得した前記画像の視差または距離情報とから、左眼用画像と右眼用画像とからなる立体画像を生成する立体画像生成部を含む、としてもよい。
これにより、1つの画像とその画像に係る被写体の距離情報から、立体視するための2つの画像を生成し、生成された立体画像に対して被写体の距離情報を用いてぼかし処理と適切なブロックサイズを用いた符号化を行うことができる。
本発明は、画像信号を符号化する画像符号化装置に関するものであって、特に被写体の距離に応じた適切なぼかしの付加と、ぼかし量に応じたブロックサイズの決定を可能にし、効率のよい符号化と処理量の削減に奏功する。
従って、映像信号を扱う、デジタルビデオカメラやデジタルスチルカメラなどの画像記録機器に有効である。その他、画像伝送機器や画像編集機器などにも有効である。
100、100a、100b、120 カメラ
101a、101b レンズ
102a、102b 撮像素子
103a、103b 主制御部
110 距離取得手段
200、500、600、700、710 画像符号化装置
201 視差検出部
202 ぼかし処理部
203 セレクタ
204a、204b、204c スイッチ
205 減算器
206、701 画像取得部
207、501、703 視差取得部
210a、210b、610 ブロックサイズ決定部
212a、212b、611 ブロック分割部
213 画面内予測部
214 検出部
215 補償部
216 変換部
217 量子化部
218 可変長符号化部
219 逆量子化部
220 逆変換部
221 加算器
300 ぼかしパラメータ入力部
400 記憶部
702 立体画像生成部
704 距離検出部
800 表示部
900 外部記憶装置

Claims (12)

  1. 画像を取得する画像取得部と、
    前記画像の画素単位ごとの視差または画素単位ごとの距離情報の少なくとも一方を取得する視差取得部と、
    前記画像の画素単位ごとのぼかし量を前記画素単位ごとの視差または前記画素単位ごとの距離情報から決定するぼかし量決定部と、
    前記ぼかし量に従って、前記画像にぼかし処理を施すぼかし処理部と、
    前記ぼかし処理を施した各画像から符号化対象領域を切り出すためのブロックサイズを複数のブロックサイズから前記ぼかし量に応じて決定するブロックサイズ決定部と、
    前記ぼかし処理を施した画像を前記決定されたブロックサイズに従ってブロック単位に符号化する符号化部と
    を含む
    ことを特徴とする画像符号化装置。
  2. 前記ぼかし量は、
    前記画像の画素単位ごとの視差または画素単位ごとの距離情報と、
    前記画像のぼかしパラメータと
    によって決まる
    ことを特徴とする請求項1に記載の画像符号化装置。
  3. 前記ぼかしパラメータは、
    前記画像を撮影した光学系の特性値とは異なる光学的特性値
    を含む
    ことを特徴とする請求項2に記載の画像符号化装置。
  4. 前記ぼかしパラメータは、
    1以上の被写体のピント位置情報を含む
    ことを特徴とする請求項3に記載の画像符号化装置。
  5. 前記ブロックサイズ決定部は、
    前記ぼかし量がしきい値より大きい画素単位に対して、複数のブロックサイズのうち最小のブロックサイズでないブロックサイズに決定する
    ことを特徴とする請求項1に記載の画像符号化装置。
  6. 前記ブロックサイズ決定部は、
    前記ぼかし量がしきい値より小さい画素単位に対して、複数のブロックサイズのうち最小のブロックサイズを含む1以上のブロックサイズに決定する
    ことを特徴とする請求項1に記載の画像符号化装置。
  7. 前記符号化部は動き補償予測、視差補償予測、または画面内予測を行う場合において、
    前記ブロックサイズ決定部が決定した各ブロックサイズを用いて類似ブロックの探索を行い、
    前記ブロック単位に分割された画像に最も類似したブロックを得られたブロックサイズを1つ選択して、選択したブロックサイズに対する残差信号を生成する
    ことを特徴とする請求項5または6に記載の画像符号化装置。
  8. 前記画像取得部は、立体画像表示に用いるための左眼用画像と右眼用画像とを取得し、
    前記視差取得部は、前記左眼用画像の領域と、前記右眼用画像の対応する領域との視差を検出する視差検出部を含む
    ことを特徴とする請求項1に記載の画像符号化装置。
  9. 前記画像取得部は、
    取得した1つの画像と、前記視差取得部が取得した前記画像の視差または距離情報とから、左眼用画像と右眼用画像とからなる立体画像を生成する立体画像生成部
    を含むことを特徴とする請求項1に記載の画像符号化装置。
  10. 画像を取得する画像取得部と、
    前記画像の画素単位ごとの視差または画素単位ごとの距離情報の少なくとも一方を取得する視差取得部と、
    前記画像の画素単位ごとのぼかし量を前記画素単位ごとの視差または前記画素単位ごとの距離情報から決定するぼかし量決定部と、
    前記ぼかし量に従って、前記画像にぼかし処理を施すぼかし処理部と、
    前記ぼかし処理を施した画像から符号化対象領域を切り出すためのブロックサイズを複数のブロックサイズから前記ぼかし量に応じて決定するブロックサイズ決定部と、
    前記ぼかし処理を施した画像を前記決定されたブロックサイズに従ってブロック単位に符号化する符号化部と
    を含む
    ことを特徴とする集積回路。
  11. 画像を取得する画像取得ステップと、
    前記画像の画素単位ごとの視差または画素単位ごとの距離情報の少なくとも一方を取得する視差取得ステップと、
    前記画像の画素単位ごとのぼかし量を前記画素単位ごとの視差または前記画素単位ごとの距離情報から決定するぼかし量決定ステップと、
    前記ぼかし量に従って、前記画像にぼかし処理を施すぼかし処理ステップと、
    前記ぼかし処理を施した画像から符号化対象領域を切り出すためのブロックサイズを複数のブロックサイズから前記ぼかし量に応じて決定するブロックサイズ決定ステップと、
    前記ぼかし処理を施した画像を前記決定されたブロックサイズに従ってブロック単位に符号化する符号化ステップと
    を含む
    ことを特徴とする画像符号化方法。
  12. 画像を撮影するためのカメラと、前記画像を符号化する画像符号化装置と、前記画像符号化装置による符号化によって生成される画像圧縮データを記録するための記録媒体とからなる画像符号化システムであって、
    前記画像符号化装置は、
    前記画像を取得する画像取得部と、
    前記画像の画像単位ごとの視差または画像単位ごとの距離情報の少なくとも一方を取得する視差取得部と、
    前記画像の画素単位ごとのぼかし量を前記画像単位ごとの視差または前記画像単位ごとの距離情報から決定するぼかし量決定部と、
    前記ぼかし量に従って、前記画像にぼかし処理を施すぼかし処理部と、
    前記ぼかし処理を施した画像から符号化対象領域を切り出すためのブロックサイズを複数のブロックサイズから前記ぼかし量に応じて決定するブロックサイズ決定部と、
    前記ぼかし処理を施した画像を前記決定されたブロックサイズに従ってブロック単位に符号化する符号化部と
    を含む
    ことを特徴とする画像符号化システム。
JP2012548660A 2011-07-19 2012-04-06 画像符号化装置とその集積回路、および画像符号化方法 Expired - Fee Related JP5932666B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011158060 2011-07-19
JP2011158060 2011-07-19
PCT/JP2012/002448 WO2013011608A1 (ja) 2011-07-19 2012-04-06 画像符号化装置とその集積回路、および画像符号化方法

Publications (2)

Publication Number Publication Date
JPWO2013011608A1 JPWO2013011608A1 (ja) 2015-02-23
JP5932666B2 true JP5932666B2 (ja) 2016-06-08

Family

ID=47557812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012548660A Expired - Fee Related JP5932666B2 (ja) 2011-07-19 2012-04-06 画像符号化装置とその集積回路、および画像符号化方法

Country Status (3)

Country Link
US (1) US9076267B2 (ja)
JP (1) JP5932666B2 (ja)
WO (1) WO2013011608A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102835118A (zh) * 2010-04-06 2012-12-19 富士胶片株式会社 图像生成装置、方法及打印机
JP5450643B2 (ja) * 2010-05-25 2014-03-26 パナソニック株式会社 画像符号化装置、画像符号化方法、プログラムおよび集積回路
KR20130011994A (ko) * 2011-07-22 2013-01-30 삼성전자주식회사 송신 장치, 수신 장치 및 그 송수신 방법
JP6271990B2 (ja) 2013-01-31 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
KR101750421B1 (ko) * 2013-10-17 2017-06-23 니폰 덴신 덴와 가부시끼가이샤 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치, 동화상 부호화 프로그램, 및 동화상 복호 프로그램
US20150116529A1 (en) * 2013-10-28 2015-04-30 Htc Corporation Automatic effect method for photography and electronic apparatus
GB2523347B (en) 2014-02-20 2016-01-13 Gurulogic Microsystems Oy Encoder, decoder and method
WO2016002578A1 (ja) * 2014-07-04 2016-01-07 ソニー株式会社 画像処理装置および方法
JP6365102B2 (ja) * 2014-08-14 2018-08-01 富士ゼロックス株式会社 データ処理装置およびプログラム
US20160073087A1 (en) * 2014-09-10 2016-03-10 Lenovo (Singapore) Pte. Ltd. Augmenting a digital image with distance data derived based on acoustic range information
CN104618723B (zh) * 2014-11-03 2017-12-15 西安交通大学 一种基于运动矢量投影矩阵的h.264/avc压缩域视频匹配方法
GB2543844B (en) 2015-11-01 2018-01-03 Gurulogic Microsystems Oy Encoders, decoders and methods
EP3166315A1 (en) 2015-11-05 2017-05-10 Axis AB A method and apparatus for controlling a degree of compression of a digital image
JP2019114821A (ja) 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
DE102016207905A1 (de) * 2016-05-09 2017-11-09 Friedrich-Alexander-Universität Erlangen-Nürnberg Verfahren und Vorrichtung zur Rekonstruktion medizinischer Bilddaten mittels gefilterter Rückprojektion
CN107613199B (zh) * 2016-06-02 2020-03-13 Oppo广东移动通信有限公司 虚化照片生成方法、装置和移动终端
KR102113591B1 (ko) * 2017-09-12 2020-05-22 선전 구딕스 테크놀로지 컴퍼니, 리미티드 얼굴 검출 활성화 방법, 얼굴 검출 활성화 장치 및 전자 장치
CN107948520A (zh) * 2017-11-30 2018-04-20 广东欧珀移动通信有限公司 图像处理方法和装置
CN108024056B (zh) * 2017-11-30 2019-10-29 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置
WO2019135270A1 (ja) * 2018-01-04 2019-07-11 株式会社ソシオネクスト 動画像解析装置、動画像解析システム、動画像解析方法、及びプログラム
KR102664681B1 (ko) * 2018-06-19 2024-05-09 삼성전자 주식회사 영상 압축을 수행하는 전자 장치 및 전자 장치의 동작 방법
KR20200117562A (ko) * 2019-04-04 2020-10-14 삼성전자주식회사 비디오 내에서 보케 효과를 제공하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
US10887589B2 (en) * 2019-04-12 2021-01-05 Realnetworks, Inc. Block size determination for video coding systems and methods
JP2022189536A (ja) * 2021-06-11 2022-12-22 キヤノン株式会社 撮像装置および方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2809552B2 (ja) 1992-03-18 1998-10-08 大日本スクリーン製造株式会社 画像符号化処理方法および画像復号化処理方法
JP4012267B2 (ja) 1996-03-30 2007-11-21 三星電子株式会社 オブジェクト単位の処理が可能な動映像の符号化/復号化方法及び符号化/復号化装置
JP4044454B2 (ja) 2003-02-07 2008-02-06 独立行政法人科学技術振興機構 ズームによる位置計測方法
JP2005295215A (ja) 2004-03-31 2005-10-20 Victor Co Of Japan Ltd 動画像符号化装置
JP4246723B2 (ja) 2005-08-29 2009-04-02 日本電信電話株式会社 フレーム内予測符号化制御方法、フレーム内予測符号化制御装置、フレーム内予測符号化制御プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4835252B2 (ja) * 2006-04-27 2011-12-14 パナソニック株式会社 超音波診断装置
KR20110015452A (ko) * 2008-06-06 2011-02-15 리얼디 인크. 입체 이미지의 블러 향상
WO2010052833A1 (ja) 2008-11-07 2010-05-14 三菱電機株式会社 画像符号化装置及び画像復号装置
JP4963124B2 (ja) 2009-03-02 2012-06-27 シャープ株式会社 映像処理装置、映像処理方法及びそれをコンピュータに実行させるためのプログラム
WO2010119500A1 (ja) * 2009-04-13 2010-10-21 富士通株式会社 生体情報登録装置、生体情報登録方法及び生体情報登録用コンピュータプログラムならびに生体認証装置、生体認証方法及び生体認証用コンピュータプログラム

Also Published As

Publication number Publication date
JPWO2013011608A1 (ja) 2015-02-23
WO2013011608A1 (ja) 2013-01-24
CN102986221A (zh) 2013-03-20
US20130147843A1 (en) 2013-06-13
US9076267B2 (en) 2015-07-07

Similar Documents

Publication Publication Date Title
JP5932666B2 (ja) 画像符号化装置とその集積回路、および画像符号化方法
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
JP7036599B2 (ja) 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法
EP2491722B1 (en) Depth map generation techniques for conversion of 2d video data to 3d video data
JP4762994B2 (ja) 視差マップ
JP5942195B2 (ja) 3次元画像処理装置、3次元撮像装置および3次元画像処理方法
EP2706504A2 (en) An apparatus, a method and a computer program for image processing
KR102464523B1 (ko) 이미지 속성 맵을 프로세싱하기 위한 방법 및 장치
JP6800797B2 (ja) 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム
JP5450643B2 (ja) 画像符号化装置、画像符号化方法、プログラムおよび集積回路
WO2012060156A1 (ja) 多視点画像符号化装置及び多視点画像復号装置
JP5395911B2 (ja) ステレオ画像符号化装置、方法
JP2004200973A (ja) 簡易ステレオ画像入力装置、方法、プログラム、および記録媒体
JP2015087851A (ja) 画像処理装置及び画像処理プログラム
JP2012238932A (ja) 3d自動色補正装置とその色補正方法と色補正プログラム
JP2015171097A (ja) 画像処理装置及びその制御方法
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP5869839B2 (ja) 画像処理装置およびその制御方法
Li et al. Joint view filtering for multiview depth map sequences
Farid et al. No-reference quality metric for hevc compression distortion estimation in depth maps
CN102986221B (zh) 图像编码装置及其集成电路、以及图像编码方法
Fatima et al. Quality assessment of 3D synthesized images based on structural and textural distortion
JP2024092837A (ja) 画像生成装置、画像生成方法、及び、プログラム
Lee et al. Technical Challenges of 3D Video Coding
WO2017158229A1 (en) Method and apparatus for processing video information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R150 Certificate of patent or registration of utility model

Ref document number: 5932666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees