JP5175910B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP5175910B2
JP5175910B2 JP2010207831A JP2010207831A JP5175910B2 JP 5175910 B2 JP5175910 B2 JP 5175910B2 JP 2010207831 A JP2010207831 A JP 2010207831A JP 2010207831 A JP2010207831 A JP 2010207831A JP 5175910 B2 JP5175910 B2 JP 5175910B2
Authority
JP
Japan
Prior art keywords
value
difference
intensity
depth
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010207831A
Other languages
English (en)
Other versions
JP2012063987A (ja
Inventor
安則 田口
信幸 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010207831A priority Critical patent/JP5175910B2/ja
Priority to US13/069,605 priority patent/US8908959B2/en
Publication of JP2012063987A publication Critical patent/JP2012063987A/ja
Application granted granted Critical
Publication of JP5175910B2 publication Critical patent/JP5175910B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明の実施形態は、画像を強調する画像処理装置に関する。
奥行き度が近景であることを表す画素が、遠景の画素よりも相対的に目立つように画像を処理することにより、画像の奥行き感や立体感を向上させる画像処理装置が知られている。
特開2009−038794号公報
しかしながら、従来技術では、得られる画像が不自然となる問題があった。例えばカメラで画像を撮影する場合、光はレンズを経てセンサに到達する。人間が何かを観察する場合、光はレンズの役割を果たす角膜や水晶体を経て網膜に到達する。したがって、カメラで撮影した画像や、人間の目で観察した画像で最も目立つ部分は、近景であるとは限らない。すなわち、従来技術のように近景を目立つように処理した画像は、カメラでいずれかの部分に焦点を合わせた場合に得られる画像、または、人間がいずれかの部分を注視した場合に観察される画像とは目立つ部分が異なるため、不自然な画像となる場合があった。
実施形態の画像処理装置は、差算出部と、強度算出部と、強調部とを備える。差算出部は、入力画像の部分領域ごとに、入力画像に撮像されている被写体の奥行値と、基準とする奥行値である基準値との差を算出する。強度算出部は、部分領域ごとに、差が0のときに極大値となり、差の絶対値が小さいほど値が大きい強度を算出する。強調部は、部分領域ごとに入力画像を算出した強度で強調した出力画像を生成する。
第1の実施形態に係わる画像処理装置のブロック図。 第1の実施形態における画像強調処理のフローチャート。 入力画像の一例を示す図。 奥行きデータの一例を示す図。 奥行値と基準値と差との関係を示す図。 差の値と強度との関係の一例を示す図。 差の値と強度との関係の一例を示す図。 奥行値と強度との関係の一例を示す図。 奥行値と強度との関係の一例を示す図。 基準値が木の奥行値と等しい場合の強度データの例を示す図。 基準値が人物の奥行値と等しい場合の強度データの例を示す図。 注目画素の一例を示す図。 図12の注目画素の強調時に参照する画素集合の範囲の一例を示す図。 レンズと被写体の位置関係の一例を示す図。 強調に利用されるトーンカーブの一例を示す図。 強調に利用されるトーンカーブの一例を示す図。 強調に利用されるトーンカーブの一例を示す図。 明度または彩度のヒストグラムの一例を示す図。 明度または彩度のヒストグラムの一例を示す図。 強調に利用されるトーンカーブの一例を示す図。 強調に利用されるトーンカーブの一例を示す図。 第2の実施形態に係わる画像処理装置のブロック図。 第2の実施形態における画像強調処理のフローチャート。 強調によって発生するシュートについて説明するための図。 第3の実施形態に係わる画像処理装置のブロック図。 第3の実施形態における画像強調処理のフローチャート。 第4の実施形態に係わる画像処理装置のブロック図。 第4の実施形態における画像強調処理のフローチャート。 被写体が3Dディスプレイから飛び出して見える場合の例を表す図。 被写体が3Dディスプレイの面上に見える場合の例を表す図。 第1から第4の実施形態にかかる画像処理装置のハードウェア構成図。
以下に添付図面を参照して、この発明にかかる画像処理装置の好適な実施形態を詳細に説明する。
(第1の実施形態)
第1の実施形態にかかる画像処理装置は、奥行きが基準となる奥行き(基準値)に近い画素ほど強い強度で画像を強調する。これにより、基準値に近い奥行きに位置する被写体がはっきりと(明りょうに)見える画像が生成される。したがって、生成された画像を見た人物に対して、被写体を注視した場合に感じる奥行き感と立体感を与えられる。
図1は、第1の実施形態に係わる画像処理装置10の構成例を示すブロック図である。図2は、第1の実施形態における画像強調処理の全体の流れを示すフローチャートである。以下、図1および図2を参照しながら、画像処理装置10の構成および機能を説明する。
図1に示すように、画像処理装置10は、差算出部104と、強度算出部106と、強調部108とを備える。画像処理装置10は、入力画像101と、奥行きデータ102(詳細は後述)と、基準とする奥行値である基準値103とが入力されると、出力画像109を出力する。
差算出部104は、入力画像101の部分領域ごとに、撮像されている被写体の奥行値と、基準値103との差を算出し、差データ105を出力する。強度算出部106は、部分領域ごとに、算出された差が0のときに極大値となり、差の絶対値が小さいほど値が大きい強度を算出する。強調部108は、部分領域ごとに入力画像101を算出された強度で強調した出力画像109を生成して出力する。
図3は、入力画像101の一例を示す図である。図3は、道路に人物302が立っていて、その道路に沿って木301と木303が立っている画像の例が示されている。入力画像101全体の中では、カメラや人間の目などといった視点から画面最下部が最も近く、画面最上部が最も遠い。木301と人物302と木303の中では、木301が、視点に最も近く、人物302がその次に近く、木303が最も遠い。木301と人物302と木303のうちのいずれも、入力画像101の画面最下部よりも視点から遠く、入力画像101の画面最上部よりも近い。
図2に示すように、奥行きデータ102と基準値103が差算出部104に入力されると、差算出部104が、差データ105を算出して強度算出部106に送る(ステップS11)。奥行きデータ102は、入力画像101の部分領域ごとに被写体の奥行きの値(奥行値)を持つデータである。以下では、部分領域が入力画像101の画素であり、奥行値が視点からの距離を表す値である場合を説明する。
図4は、奥行きデータ102の一例を示す図である。図4では、斜線の密度が大きい部分ほど奥行値が小さく、視点に近いことを表す。斜線の密度が小さい部分ほど奥行値が大きく、視点から遠いことを表す。なお、図4では、説明の便宜上、例えば道路を含む背景部分の奥行値を4段階に分けて記載している。実際には、例えば道路の奥行値は画面最上部に向かって連続的に大きくなる。後述の図10および図11も同様である。
差データ105は、奥行きデータ102のうちの各画素の奥行値から基準値103を引くことで算出され、画素ごとに差の値を持つ。図5は、奥行値と基準値103と差との関係を示す図である。
図2に戻り、差データ105が強度算出部106に入力されると、強度算出部106は、差データ105から強度データ107を算出して強調部108に送る(ステップS12)。強度データ107は、差データ105から算出され、画素ごとに強度の値を持つ。各画素の強度は、差データ105のうちのその画素の差の値の絶対値が小さいほど大きく算出され、差の値の絶対値が大きいほど小さく算出される。差の絶対値が同じでも、差が正の場合の方が負の場合よりも、強度の値が大きく算出されても良い。
各画素の強度の値は、例えば、差データ105のうちのその画素の差の値と、差の値と強度との関係を定めた関数またはテーブルによって算出される。図6および図7は、差の値と強度との関係の一例を示す図である。強度算出部106は、図6または図7の関係を表した関数によって強度を算出しても良いし、図6または図7の関係を表したテーブルによって強度を算出しても良い。関数によって算出する場合、テーブルを保持するためのメモリが必要ない。テーブルによって算出する場合、関数の値を計算するコストを削減できる。
各画素の強度の値を、奥行値と基準値と強度との関係を定めた関数またはテーブルによって算出するように構成してもよい。図8および図9は、奥行値と強度との関係の一例を示す図である。強度が差と図6のような関係から算出されることと、強度が奥行値と基準値103と図8のような関係から算出されることは等価である。また、強度が差と図7のような関係から算出されることと、強度が奥行値と基準値103と図9のような関係から算出されることは等価である。
図8および図9に示すように、基準値103と同じ奥行値の画素の強度の値が極大となる。また、奥行きが基準値103よりも奥である画素の強度は、差の絶対値が等しく、基準値103よりも手前の画素の強度よりも大きい。
図10は、基準値103が木301の奥行値と等しい場合の強度データ107の例を示す図である。図10で斜線の密度が小さい部分ほど強度の値が大きく、斜線の密度が大きい部分ほど強度の値が小さいことを表す。図10に示すように、木301と奥行きが近いほど強度の値が大きくなる。
図11は、基準値103が人物302の奥行値と等しい場合の強度データ107の例を示す図である。この場合、図11に示すように、人物302と奥行きが近いほど強度の値が大きくなる。
図2に戻り、入力画像101と強度データ107が強調部108に入力されると、強調部108は、入力画像101を強度データ107で強調した出力画像109を生成して出力する(ステップS13)。
出力画像109は、入力画像101の明度と彩度のうちの少なくとも1つが、強度データ107に基づいて強調されることで生成される。強調には、例えば、アンシャープマスクフィルタやラプラシアンフィルタなどの先鋭化フィルタが利用される。先鋭化フィルタで処理する対象の画素である注目画素の値を強調するために参照する画素集合の範囲は、予め定められた範囲とする。参照する画素集合の範囲は、例えば、注目画素を中心とする縦方向と横方向に共に3画素の集合である。
図12は、注目画素の一例を示す図である。図13は、図12の注目画素の強調時に参照する画素集合の範囲の一例を示す図である。図12の画素1501が注目画素である場合、図13の画素集合1601が参照する画素集合である。参照する画素集合の範囲は、これに限られるものではない。先鋭化フィルタの強度は、画素ごとに切り替えられる。その強度として、強度データ107の各画素の強度の値が利用される。
カメラで撮像した画像で、はっきり見える被写体と、はっきり見えない被写体の奥行きについて、図14の例を利用して説明する。図14は、レンズと被写体の位置関係の一例を示す図である。
図14の例では、レンズ704とセンサが配置された面705に対し、焦点が位置702に合っている。位置702から位置701までの距離と、位置702から位置703までの距離は等しい。位置702に存在する被写体から出た光は、面705で一点に収束するため、撮像画像ではっきり観察される。位置702よりもレンズ704に近い位置701に存在する被写体から出た光は、面705で広がりを持つため、撮像画像でぼけて(不明りょうに)観察される。位置702よりもレンズ704から遠い位置703に存在する被写体から出た光は、面705で広がりを持つため、撮像画像でぼけて観察される。その広がりは、位置701に存在する被写体から出た光よりも狭い。図14から、焦点が合った奥行きの被写体ははっきりと見えるため、目立つことがわかる。また、焦点が合っていない奥行きの被写体はぼけて見えるため、目立たないことがわかる。さらに、焦点が合っている奥行きからの距離が同じであっても、視点から近い被写体の方が、遠い被写体よりもぼけて見えることがわかる。
このように、第1の実施形態に係わる画像処理装置10によれば、奥行きが基準値103に近い画素ほど強い強度で画像を強調できる。このため、基準値103に近い奥行きに位置する被写体がはっきりと見える画像が生成される。カメラでどこかに焦点を合わせた場合に得られる画像は、その奥行きに存在する被写体がはっきり見えるため、目立つ。人間の目の角膜や水晶体がレンズの役割を果たし、網膜がセンサの役割を果たすため、人間がどこかを注視した場合も同様である。したがって、本実施形態の画像処理装置10によって生成された出力画像109を見た人物に、基準値103に位置する物体を注視した場合に感じる奥行き感と立体感を与えられる。
画像をぼかすことで奥行き感や立体感を与えることもできるが、画像をぼかすことは必ずしも画像を見る人に好まれない。本実施形態では、画像をぼかすか否かに関わらず、強調することにより、基準値103に位置する物体を注視した場合に感じる奥行き感と立体感を与えられる。
(部分領域に関する変形例)
これまでは奥行きデータ102が奥行値を持つ単位が、入力画像101の画素である場合を説明したが、部分領域が入力画像101の画素である必要はない。例えば、部分領域が入力画像101の画素の集合であっても構わない。その場合、各画素の奥行値を補間したデータを奥行きデータ102とすれば良い。または、部分領域が入力画像101の画素より細かい領域であっても構わない。その場合、入力画像101の画素より細かい領域ごとの奥行値を積分することで各画素の奥行値を生成したデータを奥行きデータ102とすれば良い。この変形例によっても、第1の実施形態と同様の効果がある。
(奥行値に関する変形例)
これまでは奥行値が視点からの距離が大きいほど大きくなる場合を説明した。この場合、視点から近いほど、奥行値は小さい。逆に、視点から近いほど、奥行値が大きくなる形式を利用しても構わない。その場合、値の大小を反転させてから上述の処理を適用すれば良い。この変形例によっても、第1の実施形態と同様の効果がある。
(強調に関する変形例)
これまでは先鋭化フィルタを用いて画像を強調する例を説明した。先鋭化フィルタ以外の画像処理で画像の明度や彩度を強調するように構成してもよい。例えば、トーンカーブによる階調補正によって画像の明度と彩度の少なくとも一方が強調されても構わない。
図15〜図17は、強調に利用されるトーンカーブの一例を示す図である。図15〜図17では、横軸が入力の明度または彩度を表し、縦軸が出力の明度または彩度を表す。図15のトーンカーブは、強調には利用されないトーンカーブの例である。このトーンカーブは、切片が0で傾きが1の直線であり、ある入力に対する出力が入力と一致する。そのため、図15のトーンカーブによる階調補正によって生成される出力画像109は、入力画像101と一致し、基準値103に近い奥行きの部分が強調されない。
基準値103に近い奥行きの画素の集合を強調するためには、その部分での傾きが1より大きいトーンカーブが利用される。説明のために、基準値103に近い奥行きの部分の明度または彩度の値は、主に図16および図17の値2501から値2502までであると仮定する。この場合に、例えば、図16や図17に示したトーンカーブが利用される。
図16や図17の例では、値2501から値2502までの範囲で傾きが1より大きい。入力が値2501から値2502までの部分では、出力が値2503から値2504までの範囲に変換される。値2501から値2502までの範囲よりも、値2503から値2504までの範囲の方が広いため、基準値103に近い奥行きの画素の集合のコントラストが強調される。値2501と値2502は、例えば、基準値103からの差が閾値以内の奥行値である画素の明度または彩度の頻度を表すヒストグラムから決定される。
図18は、明度または彩度のヒストグラムの一例を示す図である。図18の例では、ヒストグラムの頻度が閾値2701である明度または彩度が値2501と値2502として決定される。
ここでは、説明の簡略化のために、画像全体に対して1つのトーンカーブによる階調補正で画像が強調される変形例を説明した。これに対し、画像を部分画像に分割し、分割した部分画像ごとに異なるトーンカーブを利用した階調補正で画像を強調するように構成してもよい。これにより、基準値103からの差が閾値以内の奥行きである画素の集合の明度または彩度に関するコントラストが部分画像ごとに細やかに強調される。
また、トーンカーブの形状に関して、傾きが1より大きい部分が1つに限定されるものではない。例えば、基準値103に近い奥行値の被写体が複数ある場合、ヒストグラムが図19のように峰を複数持つ場合がある。この場合、図20に示したトーンカーブのように、傾きが1より大きい部分が複数あっても構わない。すなわち、図19で頻度が閾値2701と一致する値2801から値2802までの範囲、および、値2803から値2804までの範囲で、傾きが1より大きいトーンカーブ(図20)を用いても良い。
もちろん、図21に示したトーンカーブのように、傾きが1より大きい部分が1つであっても構わない。いずれの場合も、基準値103からの差が閾値以内の奥行きである画素の集合の明度または彩度に関するコントラストが強調される。
(第2の実施形態)
第2の実施形態にかかる画像処理装置は、物体間の境界、または、凹凸のはっきりした物体で奥行きが互いに大きく異なる部位間の境界などの画素を強調する強度の値を小さくする。これにより、先鋭化フィルタのシュートを抑制することができる。
図22は、第2の実施形態に係わる画像処理装置130の構成例を示すブロック図である。図23は、第2の実施形態における画像強調処理の全体の流れを示すフローチャートである。以下、図22および図23を参照しながら、画像処理装置130の構成および機能を説明する。
図22に示すように、画像処理装置130は、差算出部104と、境界度算出部1301と、強度算出部1303と、強調部108とを備える。画像処理装置130は、入力画像101と奥行きデータ102と基準値103が入力されると、出力画像109を出力する。
第2の実施形態では、境界度算出部1301を追加したこと、および、強度算出部1303の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる画像処理装置10の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
境界度算出部1301は、部分領域(画素)ごとに、部分領域の奥行値と部分領域の周辺領域の奥行値との差が大きいほど値が大きい境界度を算出する。強度算出部1303は、部分領域ごとに、算出された差が0のときに極大値となり、差の絶対値が小さいほど値が大きく、かつ、境界度が小さいほど値が大きい強度を算出する。
図23のステップS21およびステップS24は、それぞれ図2のステップS11およびステップS13と同様であるため説明を省略する。奥行きデータ102が境界度算出部1301に入力されると、境界度算出部1301は、境界度データ1302を算出して強度算出部1303に送る(ステップS22)。境界度データ1302は、各画素に対して、その画素が奥行きの異なる物体同士の境界かどうかを表す境界度の値を持つデータであり、奥行きデータ102から算出される。
境界度の算出方法について、上述の図12および図13を利用して説明する。図12の画素1501での境界度の値は、強調部108で画素1501が処理される際に参照される図13の画素集合1601内の各画素の奥行値と、画素1501の奥行値から算出される。例えば、境界度算出部1301は、まず画素集合1601内の各画素の奥行きデータ102中の奥行値と、画素1501の奥行きデータ102中の奥行値との差をそれぞれ算出する。境界度算出部1301は、画素集合1601内の各画素に対して算出した差の絶対値のうち最大値を、画素1501の境界度の値として算出する。画素1501の境界度の値が大きいことは、画素1501が、異なる物体間の境界、または、凹凸のはっきりした物体で互いに大きく奥行きの異なる部位間の境界であることを表す。
図23に戻り、差データ105と境界度データ1302が強度算出部1303に入力されると、強度算出部1303は、強度データ107を算出して強調部108に送る(ステップS23)。強度データ107は、差データ105と境界度データ1302から算出され、画素ごとに強度の値を持つ。各画素の強度は、差データ105のうちのその画素の差の値の絶対値が小さいほど大きく算出され、差の値の絶対値が大きいほど小さく算出され、境界度データ1302のうちのその画素の境界度の値が大きいほど小さく算出される。または、各画素の強度は、差データ105のうちのその画素の差の値の絶対値が小さいほど大きく算出され、差の値の絶対値が大きいほど小さく算出され、境界度データ1302のうちのその画素の境界度の値が大きいほど小さく算出され、境界度データ1302のうちのその画素の境界度の値が小さいほど大きく算出される。
強度の値は、差の値と境界度の値とを入力すると、強度の値を出力する関数によって算出される。または、強度の値は、差の値と境界度の値とを入力すると、強度の値を出力するテーブルによって算出される。関数によって算出される場合、テーブルを保持するためのメモリが必要ない。テーブルによって算出される場合、関数の値を計算するためのコストがかからない。
強度算出部1303は、境界度データ1302のうちのある画素の境界度が、物体間の境界、または、凹凸のはっきりした物体で奥行きが互いに大きく異なる部位間の境界であることを表している場合に、その画素の強度の値を小さくする点が、第1の実施形態の強度算出部106と異なる。
このように、第2の実施形態にかかる画像処理装置130では、境界度が大きい画素が強調される際の強度が弱くなる。これにより、先鋭化フィルタのシュートが抑制される効果がある。以下、この抑制効果について説明する。図24は、強調によって発生するシュートについて説明するための図である。
先鋭化フィルタでは、明度や彩度などの画素の値が強調される。この強調は、注目画素の値を、注目画素の周辺領域(周辺の参照画素)の値の代表値から離すことによって実現される。図24の左側は、強調前の画像の断面における画素の位置と、画素の値(明度または彩度)の関係を表す例である。一方、図24の右側は、全画素に対して均一な強度で強調した後の画像の断面における画素の位置と、画素の値(明度または彩度)の関係を表す例である。
図24に示すように、強調前の画像に存在する画素の値のピークが強調される。また、強調前の画像には存在しないものが発生していることが図24の右側に示されている。これがシュートと呼ばれるものである。このように、画像の強調により、物体表面のテクスチャを先鋭にする効果がある一方で、物体間の境界や、凹凸のはっきりした物体で奥行きが互いに大きく異なる部位間の境界で目障りなアーチファクトとして知覚されるシュートが発生する。
第2の実施形態では、物体間の境界や、凹凸のはっきりした物体で奥行きが互いに大きく異なる部位間の境界で大きくなる境界度を算出し、境界度が大きいほど強調の強度を弱めている。このため、境界でシュートが発生するのを抑制できる。もちろん、第2の実施形態は、第1の実施形態の効果も持っている。
(境界度の算出方法に関する変形例)
これまでは、画素集合1601内の各画素の奥行きデータ102中の奥行値と、画素1501の奥行きデータ102中の奥行値の差を算出し、差の絶対値の最大値を画素1501の境界度の値として算出する例について記述した。境界度の算出方法はこれに限られるものではない。例えば、画素集合1601内の各画素の奥行きデータ102中の奥行値と、画素1501の奥行きデータ102中の奥行値の差をそれぞれ算出し、差の2乗の最大値を画素1501の境界度の値として算出しても構わない。または、画素集合1601内の各画素の奥行きデータ102中の奥行値と、画素1501の奥行きデータ102中の奥行値の差をそれぞれ算出し、差の絶対値または2乗の総和を、画素1501の境界度の値として算出しても構わない。いずれの場合も、変形前と同様の効果がある。
(第3の実施形態)
第3の実施形態にかかる画像処理装置は、ユーザにより指定された基準被写体の奥行値を基準値として設定する。これにより、ユーザが注視したい被写体を注視したかのような奥行き感と立体感をユーザに与えられる。
図25は、第3の実施形態に係わる画像処理装置180の構成例を示すブロック図である。図26は、第3の実施形態における画像強調処理の全体の流れを示すフローチャートである。以下、図25および図26を参照しながら、画像処理装置180の構成および機能を説明する。
図25に示すように、画像処理装置180は、基準値設定部1802と、差算出部104と、境界度算出部1301と、強度算出部1303と、強調部108と、を備える。画像処理装置180は、入力画像101と奥行きデータ102と基準被写体1801が入力されると、出力画像109を出力する。
第3の実施形態では、基準値設定部1802を追加したことが第2の実施形態と異なっている。その他の構成および機能は、第2の実施形態にかかる画像処理装置130の構成を表すブロック図である図22と同様であるので、同一符号を付し、ここでの説明は省略する。
基準値設定部1802は、入力画像101に撮像されている被写体のうち基準として指定された基準被写体1801の奥行値を基準値として設定する。
図26に示すように、奥行きデータ102と基準被写体1801が基準値設定部1802に入力されると、基準値設定部1802は基準値103を設定して差算出部104に送る(ステップS31)。ステップS32からステップS35は、図23のステップS21からステップS24と同様であるため説明を省略する。
基準被写体1801は、入力画像101で強調する被写体の位置または領域を特定するデータである。例えば、基準被写体1801は、入力画像101における位置を表す座標データである。この場合、その座標データが示す位置に最も近い画素の奥行きデータ102中の奥行値が、基準値103として設定される。または、基準被写体1801は、入力画像101における矩形の部分領域の四隅の座標データである。この場合、その座標データが示す部分領域に含まれる1つ以上の画素の奥行きデータ102中の奥行値の平均値が基準値103として設定される。基準被写体1801は、例えば画像処理装置180のユーザによってユーザインターフェースを介して外部から指定され、画像処理装置180に入力される。
第3の実施形態により、基準被写体1801がユーザの指示によって指定され、その基準被写体1801の奥行値が基準値103として設定される。このため、ユーザが注視したい被写体を注視したかのような奥行き感と立体感をユーザに与えられる。
(第4の実施形態)
第4の実施形態にかかる画像処理装置は、画像から検出した基準被写体の奥行値を基準値として設定する。これにより、ユーザの指示がなくても、被写体を注視したかのような奥行き感と立体感をユーザに与えられる。
図27は、第4の実施形態に係わる画像処理装置200の構成例を示すブロック図である。図28は、第4の実施形態における画像強調処理の全体の流れを示すフローチャートである。以下、図27および図28を参照しながら、画像処理装置200の構成および機能を説明する。
図27に示すように、画像処理装置200は、基準被写体設定部2001と、基準値設定部1802と、差算出部104と、境界度算出部1301と、強度算出部1303と、強調部108と、を備える。画像処理装置200は、入力画像101と奥行きデータ102が入力されると、出力画像109を出力する。
第4の実施形態では、基準被写体設定部2001を追加したことが第3の実施形態と異なっている。その他の構成および機能は、第3の実施形態にかかる画像処理装置180の構成を表すブロック図である図25と同様であるので、同一符号を付し、ここでの説明は省略する。
基準被写体設定部2001は、入力画像101から顔検出処理により人物等の顔を検出し、検出した顔または検出した顔を含む被写体を基準被写体1801として設定する。
図28に示すように、入力画像101が基準被写体設定部2001に入力されると、基準被写体設定部2001は、入力画像101から顔を検出して基準被写体1801として設定する(ステップS41)。基準被写体1801は例えば、入力画像101から顔検出により検出された顔の領域を表す矩形の四隅の座標データである。設定された基準被写体1801は、基準値設定部1802に送られる。ステップS42からステップS46は、図26のステップS31からステップS35と同様であるため説明を省略する。
このように、第4の実施形態により、人物の顔の領域を基準被写体1801とすることができる。このため、ユーザの指示がなくても、その顔を注視したかのような奥行き感と立体感をユーザに与えられる。
(基準被写体に関する変更例1)
入力画像101中に顔が複数ある場合、最も大きく映っている顔の領域を表す矩形の四隅の座標データが基準被写体1801として設定されるように変更しても良い。これにより、ユーザの指示がなくても、最も大きく映っている顔を注視したかのような奥行き感と立体感を、ユーザに与えられる。
(基準被写体に関する変更例2)
入力画像101中に顔が複数存在する場合、最も先鋭な顔の領域を表す矩形の四隅の座標データが基準被写体1801として設定されるように変更しても良い。先鋭度合いは、例えば、周波数解析によって算出した高周波成分のパワーである。これにより、ユーザの指示がなくても、最も先鋭な顔を注視したかのような奥行き感と立体感を、ユーザに与えられる。
(基準被写体に関する変更例3)
基準被写体設定部2001にカメラをさらに追加し、カメラで撮影したユーザの視線の方向を検出し、ユーザが注視している位置の座標データを算出し、算出した座標データを基準被写体1801として設定するように構成しても良い。これにより、ユーザが実際に注視した領域が最も強く強調されるため、そこを注視したかのような奥行き感と立体感を、ユーザに与えられる。
(基準被写体に関する変更例4)
入力画像101が複数の視差画像であっても良い。視差画像とは、互いに視差が存在する複数の視点から見た画像である。基準被写体設定部2001は、例えば想定する視点で右目と左目とにそれぞれ入る視差画像間に視差が存在しない領域(視差が所定の閾値より小さい領域)を、基準被写体1801として設定する。強調部108は、複数の視差画像(入力画像101)のうちの少なくとも1枚の明度と彩度のうちの少なくとも1つを、強度データ107に基づいて強調して出力画像109を生成する。
入力画像101が両眼視差画像である場合を例にとって、視差が存在しない領域を基準被写体1801に設定した場合の効果を説明する。図29は、被写体である三角形が3Dディスプレイから手前に飛び出して見える場合の例を表す図である。この例では、右目用の視差画像中の三角形と左目用の視差画像中の三角形とに相対位置のずれ、すなわち、視差が存在する。このため、右目と右目用の視差画像中の三角形を結ぶ線と、左目と左目用の視差画像中の三角形を結ぶ線とが交差する位置に、三角形の像が飛び出して見える。
一方、図30は、被写体である三角形が3Dディスプレイの面上に見える場合の例を表す図である。この例では、右目用の視差画像中の三角形と左目用の視差画像中の三角形に相対位置のずれ、すなわち、視差が存在しない。このため、右目と右目用の視差画像中の被写体である三角形を結ぶ線と、左目と左目用の視差画像中の被写体である三角形を結ぶ線とがディスプレイ面上で交わり、三角形がディスプレイ面上に存在するかのように見える。
図30のように、相対位置のずれ(視差)が存在しない被写体の像は、ディスプレイ面上で観察される。被写体を飛び出させる量が多いと人間の目に負担がかかるため、映像コンテンツの制作者は注視させたい被写体の像が、ディスプレイの面上に生成されるように複数の視差画像を作成すると考えられる。したがって、本変形例によって視差が存在しない領域を基準被写体1801とすることで、映像コンテンツの制作者が注視させたい被写体が強調される効果がある。
以上説明したとおり、第1から第4の実施形態によれば、奥行きが基準となる奥行き(基準値)に近い画素ほど強い強度で画像を強調する。これにより、基準値に近い奥行きに位置する被写体がはっきりと(明りょうに)見える画像を生成でき、生成された画像を見た人物に対して、被写体を注視した場合に感じる奥行き感と立体感を与えられる。
次に、第1から第4の実施形態にかかる画像処理装置のハードウェア構成について図31を用いて説明する。図31は、第1から第4の実施形態にかかる画像処理装置のハードウェア構成を示す説明図である。
第1から第4の実施形態にかかる画像処理装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、HDD(Hard Disk Drive)、CD(Compact Disc)ドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置と、各部を接続するバス61を備えており、通常のコンピュータを利用したハードウェア構成となっている。
第1から第4の実施形態にかかる画像処理装置で実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。
また、第1から第4の実施形態にかかる画像処理装置で実行される画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、第1から第4の実施形態にかかる画像処理装置で実行される画像処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、第1から第4の実施形態の画像処理プログラムを、ROM等に予め組み込んで提供するように構成しても良い。
第1から第4の実施形態にかかる画像処理装置で実行される画像処理プログラムは、上述した各部(差算出部、強度算出部、強調部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU51(プロセッサ)が上記記憶媒体から画像処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上述した各部が主記憶装置上に生成されるようになっている。
なお、本実施形態は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
10、130、180、200 画像処理装置
104 差算出部
106、1303 強度算出部
108 強調部
1301 境界度算出部
1802 基準値設定部
2001 基準被写体設定部

Claims (9)

  1. 入力画像の部分領域ごとに、被写体の奥行値と、基準となる奥行を示す基準値との差を算出する差算出部と、
    前記部分領域ごとに、前記差が0のときに極大値となり、かつ、前記差の絶対値が小さいほど値が大きい強度を算出する強度算出部と、
    前記部分領域のそれぞれを前記強度に従って強調した出力画像を生成する強調部と、
    前記部分領域ごとに、前記部分領域の前記奥行値と前記部分領域の周辺領域の前記奥行値との差が大きいほど値が大きい境界度を算出する境界度算出部と、を備え、
    前記強度算出部は、前記部分領域ごとに、前記差が0のときに極大値となり、前記差の絶対値が小さいほど値が大きく、かつ、前記境界度が小さいほど値が大きい前記強度を算出すること、
    特徴とする画像処理装置。
  2. 入力画像の部分領域ごとに、被写体の奥行値と、基準となる奥行を示す基準値との差を算出する差算出部と、
    前記部分領域ごとに、前記差が0のときに極大値となり、かつ、前記差の絶対値が小さいほど値が大きい強度を算出する強度算出部と、
    前記部分領域のそれぞれを前記強度に従って強調した出力画像を生成する強調部と、を備え、
    前記強度算出部は、前記差の絶対値が同一である2つの部分領域のうち、前記奥行値が前記基準値より手前であることを示す部分領域の強度を、前記奥行値が前記基準値より奥であることを示す部分領域の強度以下に算出すること、
    を特徴とする画像処理装置。
  3. 前記入力画像に撮像されている被写体のうち基準として指定された基準被写体の奥行値を前記基準値として設定する基準値設定部をさらに備えること、
    を特徴とする請求項1および2に記載の画像処理装置。
  4. ユーザにより指定された被写体、前記入力画像から顔検出処理により検出された顔という被写体、または、前記入力画像の被写体のうち、ユーザの視線検出によって検出された視線の方向に存在する被写体を、前記基準被写体として設定する被写体設定部をさらに備え、
    前記基準値設定部は、前記被写体設定部により設定された前記基準被写体の奥行値を前記基準値として設定すること、
    を特徴とする請求項3に記載の画像処理装置。
  5. 複数の視差画像である入力画像の部分領域ごとに、被写体の奥行値と、基準となる奥行を示す基準値との差を算出する差算出部と、
    前記部分領域ごとに、前記差が0のときに極大値となり、かつ、前記差の絶対値が小さいほど値が大きい強度を算出する強度算出部と、
    前記部分領域のそれぞれを前記強度に従って強調した出力画像を生成する強調部と、
    前記入力画像に撮像されている被写体のうち基準として指定された基準被写体の奥行値を前記基準値として設定する基準値設定部と、
    前記視差画像間での視差が予め定められた閾値より小さい領域に撮像されている被写体を前記基準被写体として設定する被写体設定部と、を備え、
    前記基準値設定部は、前記被写体設定部により設定された前記基準被写体の奥行値を前記基準値として設定すること
    を特徴とする画像処理装置。
  6. 入力画像の部分領域ごとに、被写体の奥行値と、基準となる奥行を示す基準値との差を算出する差算出ステップと、
    前記部分領域ごとに、前記差が0のときに極大値となり、かつ、前記差の絶対値が小さいほど値が大きい強度を算出する強度算出ステップと、
    前記部分領域のそれぞれを前記強度に従って強調した出力画像を生成する強調ステップと、
    前記部分領域ごとに、前記部分領域の前記奥行値と前記部分領域の周辺領域の前記奥行値との差が大きいほど値が大きい境界度を算出する境界度算出ステップと、を含み、
    前記強度算出ステップは、前記部分領域ごとに、前記差が0のときに極大値となり、前記差の絶対値が小さいほど値が大きく、かつ、前記境界度が小さいほど値が大きい前記強度を算出すること、
    を特徴とする画像処理方法。
  7. 入力画像の部分領域ごとに、被写体の奥行値と、基準となる奥行を示す基準値との差を算出する差算出ステップと、
    前記部分領域ごとに、前記差が0のときに極大値となり、かつ、前記差の絶対値が小さいほど値が大きい強度を算出する強度算出ステップと、
    前記部分領域のそれぞれを前記強度に従って強調した出力画像を生成する強調ステップと、を含み、
    前記強度算出ステップは、前記差の絶対値が同一である2つの部分領域のうち、前記奥行値が前記基準値より手前であることを示す部分領域の強度を、前記奥行値が前記基準値より奥であることを示す部分領域の強度以下に算出すること、
    を特徴とする画像処理方法。
  8. コンピュータを、
    入力画像の部分領域ごとに、被写体の奥行値と、基準となる奥行を示す基準値との差を算出する差算出部と、
    前記部分領域ごとに、前記差が0のときに極大値となり、かつ、前記差の絶対値が小さいほど値が大きい強度を算出する強度算出部と、
    前記部分領域のそれぞれを前記強度に従って強調した出力画像を生成する強調部と、
    前記部分領域ごとに、前記部分領域の前記奥行値と前記部分領域の周辺領域の前記奥行値との差が大きいほど値が大きい境界度を算出する境界度算出部と、として機能させ、
    前記強度算出部は、前記部分領域ごとに、前記差が0のときに極大値となり、前記差の絶対値が小さいほど値が大きく、かつ、前記境界度が小さいほど値が大きい前記強度を算出する、
    プログラム。
  9. コンピュータを、
    入力画像の部分領域ごとに、被写体の奥行値と、基準となる奥行を示す基準値との差を算出する差算出部と、
    前記部分領域ごとに、前記差が0のときに極大値となり、かつ、前記差の絶対値が小さいほど値が大きい強度を算出する強度算出部と、
    前記部分領域のそれぞれを前記強度に従って強調した出力画像を生成する強調部と、として機能させ、
    前記強度算出部は、前記差の絶対値が同一である2つの部分領域のうち、前記奥行値が前記基準値より手前であることを示す部分領域の強度を、前記奥行値が前記基準値より奥であることを示す部分領域の強度以下に算出する、
    プログラム。
JP2010207831A 2010-09-16 2010-09-16 画像処理装置、画像処理方法およびプログラム Expired - Fee Related JP5175910B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010207831A JP5175910B2 (ja) 2010-09-16 2010-09-16 画像処理装置、画像処理方法およびプログラム
US13/069,605 US8908959B2 (en) 2010-09-16 2011-03-23 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010207831A JP5175910B2 (ja) 2010-09-16 2010-09-16 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2012063987A JP2012063987A (ja) 2012-03-29
JP5175910B2 true JP5175910B2 (ja) 2013-04-03

Family

ID=45817817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010207831A Expired - Fee Related JP5175910B2 (ja) 2010-09-16 2010-09-16 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US8908959B2 (ja)
JP (1) JP5175910B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5254297B2 (ja) 2010-09-27 2013-08-07 株式会社東芝 画像処理装置
US9070223B2 (en) 2010-12-03 2015-06-30 Sharp Kabushiki Kaisha Image processing device, image processing method, and image processing program
JP5937871B2 (ja) * 2012-04-02 2016-06-22 日本電信電話株式会社 立体的画像表示装置、立体的画像表示方法及び立体的画像表示プログラム
JP5631935B2 (ja) 2012-07-11 2014-11-26 株式会社東芝 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置
JP2014128001A (ja) 2012-12-27 2014-07-07 Toshiba Corp 画像処理装置および画像処理方法
WO2015089115A1 (en) * 2013-12-09 2015-06-18 Nant Holdings Ip, Llc Feature density object classification, systems and methods
JP7278080B2 (ja) * 2018-02-15 2023-05-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7117914B2 (ja) * 2018-06-29 2022-08-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6157733A (en) * 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US6525699B1 (en) * 1998-05-21 2003-02-25 Nippon Telegraph And Telephone Corporation Three-dimensional representation method and an apparatus thereof
JP4389371B2 (ja) * 2000-09-28 2009-12-24 株式会社ニコン 画像修復装置および画像修復方法
JP3428581B2 (ja) * 2000-12-22 2003-07-22 株式会社スクウェア ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムを記録したコンピュータ読取り可能な記録媒体。
US7120293B2 (en) * 2001-11-30 2006-10-10 Microsoft Corporation Interactive images
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
JP2005018529A (ja) * 2003-06-27 2005-01-20 Ricoh Co Ltd 画像処理装置
US7369699B1 (en) * 2003-08-29 2008-05-06 Apple Inc. Methods and apparatuses for restoring color and enhancing electronic images
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
JP4424299B2 (ja) * 2005-11-02 2010-03-03 ソニー株式会社 画像処理方法、画像処理装置およびこれを用いた画像表示装置
US20070121094A1 (en) * 2005-11-30 2007-05-31 Eastman Kodak Company Detecting objects of interest in digital images
US7821570B2 (en) * 2005-11-30 2010-10-26 Eastman Kodak Company Adjusting digital image exposure and tone scale
US8559705B2 (en) * 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
JP5111872B2 (ja) * 2007-01-23 2013-01-09 パナソニック株式会社 映像信号処理装置、映像信号処理方法、映像信号処理プログラムおよび映像信号表示装置
JP5014274B2 (ja) 2007-07-06 2012-08-29 パナソニック株式会社 画像処理装置、画像処理方法、画像処理システム、プログラム、記録媒体および集積回路
US8131098B2 (en) * 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
US8457429B2 (en) * 2007-07-31 2013-06-04 Hewlett-Packard Development Company, L.P. Method and system for enhancing image signals and other signals to increase perception of depth
JP5127628B2 (ja) * 2008-08-08 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法
JP4655238B2 (ja) * 2008-09-19 2011-03-23 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8213052B2 (en) * 2009-07-31 2012-07-03 Eastman Kodak Company Digital image brightness adjustment using range information
US9042636B2 (en) * 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
JP5254297B2 (ja) 2010-09-27 2013-08-07 株式会社東芝 画像処理装置

Also Published As

Publication number Publication date
US20120070069A1 (en) 2012-03-22
US8908959B2 (en) 2014-12-09
JP2012063987A (ja) 2012-03-29

Similar Documents

Publication Publication Date Title
JP5175910B2 (ja) 画像処理装置、画像処理方法およびプログラム
US9916517B2 (en) Image processing method and apparatus
JP2013172190A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US9064331B2 (en) Three-dimensional image processing apparatus, three-dimensional image processing method, and program
JP5556394B2 (ja) 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
JP4875762B2 (ja) 画像処理装置、画像表示装置および画像撮像装置
JP5509487B2 (ja) 立体視画像のブラー強化
US20110228051A1 (en) Stereoscopic Viewing Comfort Through Gaze Estimation
TW201432622A (zh) 產生一關於一影像之深度圖
US10165249B2 (en) Method for smoothing transitions between scenes of a stereo film and controlling or regulating a plurality of 3D cameras
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2012020558A1 (ja) 画像処理装置、画像処理方法、表示装置、表示方法およびプログラム
JP5303692B1 (ja) 立体画像処理装置及び立体画像処理方法
JPWO2012032778A1 (ja) 立体画像処理装置、立体撮像装置、立体撮像方法およびプログラム
US9602797B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and stereoscopic image processing program
JP2017021759A (ja) 画像処理装置、画像処理方法及びプログラム
JP5820985B2 (ja) 立体画像処理装置および立体画像処理方法
JP5861114B2 (ja) 画像処理装置、及び画像処理方法
KR20110093616A (ko) 오버레이 영역의 3d 영상 변환 방법 및 그 장치
WO2022036338A2 (en) System and methods for depth-aware video processing and depth perception enhancement
JP2014022867A (ja) 画像処理装置および方法、並びにプログラム
JP2012109725A (ja) 立体映像処理装置および立体映像処理方法
JP2013162330A (ja) 画像処理装置および方法、プログラム、並びに記録媒体
US9183665B2 (en) Film grain for stereoscopic or multi-view images
US20160165207A1 (en) Electronic device, method, and computer program product

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130107

R151 Written notification of patent or utility model registration

Ref document number: 5175910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees