JP6042525B2 - 画像強調 - Google Patents

画像強調 Download PDF

Info

Publication number
JP6042525B2
JP6042525B2 JP2015501680A JP2015501680A JP6042525B2 JP 6042525 B2 JP6042525 B2 JP 6042525B2 JP 2015501680 A JP2015501680 A JP 2015501680A JP 2015501680 A JP2015501680 A JP 2015501680A JP 6042525 B2 JP6042525 B2 JP 6042525B2
Authority
JP
Japan
Prior art keywords
image
pixels
map
constituent
perceptual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015501680A
Other languages
English (en)
Other versions
JP2015516627A5 (ja
JP2015516627A (ja
Inventor
バースカラン、バスデフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015516627A publication Critical patent/JP2015516627A/ja
Publication of JP2015516627A5 publication Critical patent/JP2015516627A5/ja
Application granted granted Critical
Publication of JP6042525B2 publication Critical patent/JP6042525B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

[0001]本開示は、画像強調に関し、より詳細には、構成画像に対する画像強調に関する。
[0002]様々なデバイスが、ビデオまたは画像を表示するように動作可能である。たとえば、デバイスは、ビデオもしくは画像をダウンロードすることができ、または、デジタルカメラを用いてビデオまたは画像を捕捉することができる。ダウンロード、捕捉、または他の様態で生成されたビデオまたは画像は、ディスプレイ上に表示される。たとえば、ビデオは、一連のフレームとして表示され得る。
[0003]概して、本開示では、画像強調のための技法について説明する。画像強調は、ビデオの構成フレーム(constructed frame)、または、個々の構成画像を強調することを指す。言い換えれば、説明される技法は、独立した画像またはビデオのフレームに適用可能であり得る。より詳細に説明されるように、本技法は、画像内のピクセルが他のピクセルに対して強調されるべきであるかを判定するために、別の知覚マップ(perception map)とともに、画像化の物体の相対深度を示すデプスマップ(depth map)を利用することができる。
[0004]一例において、本開示は、画像を受信することと、画像内のピクセルの相対深度を示す、画像のデプスマップのデプスマップ値を決定することとを含む、画像処理のための方法を説明する。本方法は、画像の知覚マップのための知覚マップ値を決定することと、少なくともデプスマップ値および知覚マップ値に基づいて、画像の第2の部分に対して画像の第1の部分を強調することとをも含む。
[0005]別の例において、本開示は、画像を記憶するように構成されているメモリと、1つまたは複数の処理ユニットとを含むデバイスを説明する。1つまたは複数の処理ユニットは、画像を受信し、画像内のピクセルの相対深度を示す、画像のデプスマップのデプスマップ値を決定するように構成されている。1つまたは複数の処理ユニットは、画像の知覚マップのための知覚マップ値を決定し、少なくともデプスマップ値および知覚マップ値に基づいて、画像の第2の部分に対して画像の第1の部分を強調するようにも構成されている。
[0006]別の例において、本開示は、画像を受信するための手段と、画像内のピクセルの相対深度を示す、画像のデプスマップのデプスマップ値を決定するための手段とを含むデバイスを記載する。デバイスは、画像の知覚マップのための知覚マップ値を決定するための手段と、少なくともデプスマップ値および知覚マップ値に基づいて、画像の第2の部分に対して画像の第1の部分を強調するための手段とをも含む。
[0007]別の例において、本開示では、コンピュータ可読記憶媒体について説明する。コンピュータ可読記憶媒体は、1つまたは複数のプロセッサに、画像を受信させ、画像内のピクセルの相対深度を示す、画像のデプスマップのデプスマップ値を決定させ、画像の知覚マップのための知覚マップ値を決定させ、少なくともデプスマップ値および知覚マップ値に基づいて、画像の第2の部分に対して画像の第1の部分を強調させる命令を備える。
[0008]1つまたは複数の例の詳細は、添付の図面および以下の説明に記載されている。他の特徴、目的、および利点は、その説明および図面、ならびに特許請求の範囲から明らかになろう。
[0009]本開示の1つまたは複数の態様を実施することができるデバイスの一例を示すブロック図。 [0010]本開示において説明される1つまたは複数の技法を実施することができるポストプロセッサの一例を示すブロック図。 [0011]本開示において説明される1つまたは複数の技法を実施することができる強調ユニットの一例を示すブロック図。 [0012]本開示において説明される1つまたは複数の技法を実施することができる強調ユニットの別の例を示すブロック図。 [0013]本開示において説明される1つまたは複数の技法を実施することができるデプスマップ処理ユニットの一例を示すブロック図。 [0014]本開示において説明される1つまたは複数の例による例示的な技法を示す流れ図。 [0015]本開示の1つまたは複数の態様を実施するように動作可能であり得るデバイスの別の例を示すブロック図。
[0016]一般的に、本開示は、画像に関連付けられる、観察者が知覚可能な情報を使用して1つまたは複数の画像を強調するための、画像強調技法に関する。画像は、静止画像(たとえば、カメラから撮影された写真)であってもよく、または、ビデオデータの一部分(たとえば、ビデオデータのフレーム)であってもよい。いくつかの例において、画像は、右目用画像および左目用画像(たとえば、立体ビデオの一部分)であってもよく、または、マルチビュービデオのための画像であってもよい。
[0017]より詳細に説明されるように、デバイスの1つまたは複数の処理ユニットは、本開示において説明される画像強調技法を実施することができる。本開示に記載される例示的な技法は、観察者が知覚可能な画像情報を使用して画像強調を実行することによって、より現実的な画像をもたらすことができる。たとえば、動き情報および/または顕著性情報(saliency information)と組み合わせたデプス情報のような知覚可能情報に基づいて、画像の部分に対して、1つまたは複数の処理ユニットは、コントラスト強調、鮮鋭化(sharpening)およびぼかし、色強調、またはそれらの任意の組合せを実行することができる。
[0018]図1は、本開示の1つまたは複数の態様を実施することができるデバイスの一例を示すブロック図である。たとえば、図1はデバイス10を示す。デバイス10の例には、限定はしないが、メディアプレーヤのようなビデオデバイス、セットトップボックス、携帯電話のようなワイヤレスハンドセット、携帯情報端末(PDA)、デスクトップコンピュータ、ラップトップコンピュータ、ゲーミングコンソール、ビデオ会議ユニット、タブレットコンピューティングデバイスなどがある。図示されているように、デバイス10は、ディスプレイ12と、ビデオプロセッサ14と、グラフィックスプロセシングユニット(GPU)16と、ビデオ符号化器/復号器(コーデック)18と、メモリ20と、ポストプロセッサ22とを含んでもよい。デバイス10は、図1に示す構成要素に加えて、構成要素を含んでもよい。たとえば、図9は、図1に示されているものよりも多くの構成要素を含むデバイス10の一例を示す。
[0019]ビデオプロセッサ14、GPU16、ビデオコーデック18、およびポストプロセッサ22の例には、限定はしないが、デジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価な集積回路もしくはディスクリート論理回路がある。さらに、ビデオプロセッサ14、GPU16、ビデオ符号化器−復号器(コーデック)18、およびポストプロセッサ22は別個の構成要素として示されているが、本開示の態様はそのように限定されない。代替の例において、ビデオプロセッサ14、GPU16、ビデオコーデック18、およびポストプロセッサ22のうちの1つまたは複数は、共通の集積回路の一部分であってもよい。例示し説明を容易にする目的のために、ビデオプロセッサ14、GPU16、ビデオコーデック18、およびポストプロセッサ22は別個の構成要素として示されている。
[0020]また、本開示は、ポストプロセッサ22を、例示的な技法を実施するものとして説明する。代替の例において、デバイス10の処理ユニットのいずれか1つが、本開示において説明される技法を実施してもよい。たとえば、デバイス10のビデオプロセッサ14、GPU16、ビデオコーデック18、ポストプロセッサ22、ディスプレイプロセッサまたは中央処理ユニット(CPU)が、本開示において説明される技法を実施してもよい。これを示すために、いくつかの例において、本開示は、処理ユニットを、本開示において説明される技法を実行するものとして説明する。そのような処理ユニットの例には、デバイス10のビデオプロセッサ14、GPU16、ビデオコーデック18、ポストプロセッサ22、またはデバイス10のCPUがある。いくつかの例において、ポストプロセッサ22は、他の処理ユニットのうちの1つの中に形成されてもよい。たとえば、デバイス10のディスプレイプロセッサがポストプロセッサ22を含んでもよい。この例において、本開示において説明される技法は、ディスプレイプロセッサによって実行されるとして考えられてもよい。
[0021]ビデオプロセッサ14、GPU16、および/またはビデオコーデック18は、画像データをメモリ20に出力することができる。たとえば、メモリ20は、ビデオプロセッサ14、GPU16、またはビデオコーデック18のいずれか1つから生成された構成画像である画像24を記憶することができる。図1に示されていない他の構成要素が画像24を生成し、画像24をメモリ20内に記憶することが可能であってもよく、例示の目的のために、ビデオプロセッサ14、GPU16、およびビデオコーデック18が記載されている。ポストプロセッサ22は、メモリ20から画像24を取り出し、画像24を強調して強調画像26を生成し、強調画像26をディスプレイ12上に提示することができる。
[0022]画像24を強調して強調画像26を生成することは、強調画像26の全体的な概観が画像24よりも高い品質のものになるように、画像24内のピクセルの色値のようなピクセル値を変更することを指し得る。画像24と比較しての、強調画像のより高い品質の一例は、強調画像26が画像24よりも現実的に見えることであってもよいが、より高い品質の他の例が、本開示の技法を利用して達成されてもよい。たとえば、より詳細に説明されるように、ポストプロセッサ22は、強調画像26を生成するために、画像24内の別の部分に対して、画像24の一部分内のピクセルのコントラスト、鮮鋭度、および/または色を強調してもよい。そのような強調は、結果として、画像24よりも現実的に見える強調画像26をもたらすことができる。さらに、より詳細に説明されるように、ポストプロセッサ22は、画像24のいずれの部分を他の部分に対して強調すべきかを判定するために、3つの例として、デプス情報、動き情報、および顕著性情報のような、観察者が知覚可能な情報を利用することができる。
[0023]画像24は、画像24が画像24のピクセルの各々のピクセル値を有する完全な画像であることを示すために、構成画像と称される場合がある。たとえば、ビデオプロセッサ14、GPU16、またはビデオコーデック18のうちの1つが、そのそれぞれの昨日を完遂して画像24を生成し、画像24をメモリ20内に記憶してもよい。より詳細に説明されるように、本開示において説明される例示的な技法は、そのような構成画像を強調し、強調画像を表示することができる。言い換えれば、画像24は、表示されるための状態にあり得るが、本開示において説明される例示的な技法は、表示する前に画像24を強調することができる。
[0024]ディスプレイ12は、液晶ディスプレイ(LCD)、有機発光ダイオードディスプレイ(OLED)、陰極線管(CRT)ディスプレイ、プラズマディスプレイ、または別のタイプのディスプレイデバイスを備え得る。メモリ20の例としては、限定はしないが、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM(登録商標))、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、デバイス10の中央処理ユニット(CPU)、ビデオプロセッサ14、GPU16、ビデオコーデック18、およびポストプロセッサ22によってアクセスされ得る、任意の他の媒体がある。いくつかの例において、メモリ20は、コンピュータ可読記憶デバイスのような、1つまたは複数のコンピュータ可読記憶媒体を備えてもよい。たとえば、いくつかの例示的な実施態様において、メモリ20は、ポストプロセッサ22に、本開示においてポストプロセッサ22に帰するものとされている昨日を実行させる命令を含んでもよい。
[0025]メモリ20は、いくつかの例において、非一時的記憶媒体として考えられてもよい。「非一時的」という用語は、記憶媒体が、搬送波または伝搬信号においては具現化されないことを示し得る。しかしながら、「非一時的」という用語は、システムメモリ20が非可動であることを意味するものと解釈されるべきでない。一例として、システムメモリ20は、デバイス10から取り外され、別のデバイスに移されてもよい。別の例として、メモリ20と実質的に同様の記憶デバイスが、デバイス10中に挿入されてもよい。いくつかの例において、非一時的記憶媒体は、時間経過に伴って変動し得るデータを(たとえば、RAMに)記憶してもよい。
[0026]一例として、ユーザは、ビデオコンテンツをディスプレイ12上で見ることを所望する場合がある。ビデオプロセッサ14は、ビデオコンテンツを処理し、メモリ20内にビデオコンテンツを一連の画像24(フレームまたはピクチャと称される)として記憶することができる。ポストプロセッサ22は、メモリ20から画像24の各々を取り出し、ユーザがビデオの円滑な再生を体験するような特定のフレームレートで、それらをディスプレイ12を介して表示することができる。
[0027]別の例として、ユーザは、ビデオゲームをデバイス10上でプレイすることを所望する場合がある。この例において、GPU16は、ビデオゲームのグラフィックスコンテンツを、GPU16がメモリ20内に記憶する画像24の形態で生成することができる。ポストプロセッサ22は、メモリ20からビデオゲーム画像24を取り出し、画像24を強調し、それらをディスプレイ12を介して表示することができる。ビデオゲーム以外のアプリケーションが、ポストプロセッサ22が取り出し、強調し、ディスプレイ12上に表示することができるグラフィックスコンテンツを生成する場合もある。
[0028]また別の例として、ビデオコーデック18は、受信されたビデオコンテンツを復号することができる。ビデオプロセッサ14と同様に、復号されたビデオコンテンツは一連の画像24であってもよい。ビデオコーデック18は、これらの一連の画像をメモリ20内に記憶することができる。ビデオプロセッサ14と同様に、ポストプロセッサ22は、メモリ20から画像24を取り出し、画像24を強調し、それらをディスプレイ12を介して表示することができる。
[0029]画像24をディスプレイ12上に表示する前に、ポストプロセッサ22は、画像強調を実行することができる。ディスプレイ12はその後、この強調画像を表示することができる。たとえば、図1は、ディスプレイ12を、強調画像26を表示するものとして示している。強調画像26は、画像24の強調から結果としてもたらされる画像である。
[0030]図1はポストプロセッサ22が、メモリ20、たとえば、システムメモリから画像24を受信することを示しているが、本開示の態様はそのように限定されない。ポストプロセッサ22が、システムメモリ20を通じてではなく、たとえば、直接メモリ転送によって、ビデオプロセッサ14、GPU16、およびビデオコーデック18のいずれか1つから直接、画像24を受信することが可能であり得る。しかしながら、簡潔にする目的のために、本技法は、ポストプロセッサ22がメモリ20から画像24を受信することに関して説明されている。
[0031]ポストプロセッサ22は、画像24を強調して強調画像26を生成するための様々な技法を実施することができる。一例として、ポストプロセッサ24は、別の知覚マップの値と組み合わせてデプスマップの値を利用して、画像24を強調することができる。たとえば、図1に示されているように、メモリ20は、デプスマップ28および知覚マップ30の値を記憶している。ポストプロセッサ22は、メモリ20からデプスマップ28および知覚マップ30の値を取り出し、これらの値のうちの1つまたは複数を利用して画像24を強調することができる。
[0032]たとえば、ポストプロセッサ22は、デプスマップ28および知覚マップ30の値を利用して、画像24のいずれの部分が、および、他の例においてはどの程度だけ、他の部分に対して強調されるべきかを判定することができる。ポストプロセッサ22は、画像24の部分を強調するために、任意の強調方式を利用してもよい。たとえば、ポストプロセッサ22は、画像24の他の部分内のピクセルに対して強調されるべき画像24の部分内のピクセル間のコントラストを強調してもよい。別の例として、ポストプロセッサ22は、画像24の他の部分内のピクセルに対して強調されるべき画像24の部分内のピクセル間の鮮鋭度を強調してもよい。また別の例として、ポストプロセッサ22は、画像24の他の部分内のピクセルに対して強調されるべき画像24の部分内のピクセルの色を強調してもよい。
[0033]より詳細に説明されるように、デプスマップ28および知覚マップ30の値を決定するための様々な方法があり得る。本開示において説明される技法は、デプスマップ24および知覚マップ30の値が決定される特定の例の方法に限定されない。一般的に、本開示において説明される技法は、デプスマップ24および知覚マップ30の値が決定されれる任意の方法に拡張可能であってもよい。
[0034]デプスマップ28は、デプス情報と称される、画像24のピクセルの「深度」の相対測度を提供することができる。「深度」という用語は、本開示において使用される場合、奥行きの深さである。たとえば、画像24は、2次元(2D)画像であり、この文脈における深さは、特定の物体が、2D画像内の他の物体よりも遠ざかって見えるという知覚を指す。
[0035]デプスマップ28の値は、画像24内の対応するピクセルに関する相対深度を示すことができる。一例として、デプスマップ28は、画像24(たとえば、静止画像またはビデオのフレーム)内の各ピクセルの深度の推定値を提供する2Dマップとして考えられてもよい。この例において、デプスマップ28は画像24と同じサイズであってもよく、各々が画像24の1ピクセルに対応する複数の箇所を有する。デプスマップ28内のこれらの箇所の各々は、画像24のその対応するピクセルの深度を示す値を含んでもよい。たとえば、デプスマップ28は、画像24のいずれのピクセルが前景ピクセルである(たとえば、相対的に画像24内で前にあるように見える)か、および、画像24のいずれのピクセルが背景ピクセルである(たとえば、相対的に画像24内で後ろにあるように見える)かを示すことができる。
[0036]デプスマップ28と同様に、知覚マップ30は、画像24内の対応するピクセルに対する値を含んでもよい。知覚マップ30の値は、画像24に関する追加の情報を示すことができる。一例として、知覚マップ30の値は、動き情報を提供してもよい。この例において、知覚マップ30は、動き情報マップと称される場合がある。たとえば、画像24がビデオまたはグラフィックスの一連のフレームのうちの1つ(たとえば、ビデオゲームの一部分としての)である例において、動き情報は、画像24の物体の、以前のまたは将来のフレームに対する位置変化を示し得る。たとえば、そのうちの1つが画像24を含む一連のフレームが表示されると、観察者は、フレームを表示している画面を横切って移動している車のような物体を知覚し得る。
[0037]物体は、本開示において参照される場合、画像24内の、明確に区別できる、観察者が識別可能な物品を指す。車はそのような物体の一例であるが、静止物体(すなわち、その位置が1つのフレームから次のフレームまでに変化しない物体)を含む他の物体の例が、本開示によって企図される。画像24内の物体は、画像24の複数のピクセルによって包含され得る。この例において、知覚マップ30の値によって提供されるものとしての動き情報が、速度および方向ならびに/または座標のような値を含み得る。
[0038]たとえば、物体に関する画像24内の1つのピクセルは、同じ物体について以前のフレームまたは後続のフレーム内では異なる箇所に対応ピクセル(corresponding pixel)を有する場合がある。画像24内のピクセルの動き情報は、物体がどれだけ速く、および、どの方向に動いているか、ならびに/または、以前のフレームまたは後続のフレーム内の対応ピクセルの座標の何らかの量を提供することができる。対応ピクセルは、本開示において使用される場合、コロケートピクセル(co-located pixel)と混同されるべきではないが、対応ピクセルがコロケートピクセルであることも(たとえば、動きがない場合)あり得る。コロケートピクセルは、異なる複数のフレーム内で同じ箇所にあるピクセルを指す。対応ピクセルは、画像24内のピクセルと同じ物体内の箇所にある、以前のまたは後続のフレーム内のピクセルを指す。
[0039]知覚マップ30の別の例は、顕著性マップであり得る。顕著性マップの値は顕著性情報を提供することができ、これは、どれだけ「目立つ」ピクセルが画像24内にあるかの何らかの量である。たとえば、観察者に望ましい視覚体験を提供するためには、観察者の注意を、他のピクセルと比較して特定のピクセルにより多く引きつけることが有益であり得る。顕著性マップの値は、他のピクセルと比較して、どのピクセルに観察者の注意が引きつけられるべきかを示し得る。
[0040]動き情報マップおよび顕著性マップに加えて知覚マップ30の他の例があってもよく、本開示の態様は、知覚マップ30が動き情報マップおよび顕著性マップに限定されることに限定されるべきではない。さらに、図1は単一の知覚マップ30を記憶するメモリ20を示しているが、本開示の態様はそのように限定されない。メモリ20は、1つまたは複数の知覚マップを記憶してもよい。たとえば、メモリ20は、動き情報マップとしての1つの知覚マップ30、および、顕著性マップとしての別の知覚マップ30を記憶してもよい。そのような例において、例示的な技法は、画像24を強調するために、デプスマップ28、動きマップ、および顕著性マップからの値を利用し得る。
[0041]少なくともデプスマップ28および知覚マップ30からの値を利用して画像24を強調することは、結果として、相対的により現実的な画像をもたらすことができる。言い換えれば、強調画像26は、画像24と比較してより現実的な画像であることができる。一例として、現実的な画像においては、画像24の前景ピクセルが、画像24の背景ピクセルと比較してより鮮鋭、より明瞭、かつ/またはより尖鋭に見え得る。デプスマップ28は、画像24のいずれのピクセルが前景ピクセルであるか、および、いずれのピクセルが背景ピクセルであるかを示す値を提供することができ、いずれのピクセルが前景ピクセルであるか、および、いずれのピクセルが背景ピクセルであるかを示す値に基づいて画像24を強調することが可能であり得る。
[0042]いくつかの例において、デプスマップ28によって提供されるものとしてのデプス情報のみに依拠することは、現実的な画像を提供するには不十分である可能性があり得る。たとえば、画像24内の物体のピクセルが前景であり得る。しかしながら、物体は移動しているため、物体が他の物体ほど明瞭に見えるべきではない。たとえば、物体(たとえば、車)が画像24の前景にあり、車が移動している(たとえば、画像24に先行するフレームおよび後続するフレームの連続的な表示によって証明されるように)と想定する。この例において、車は、車の移動のために、他の物体と比較して明瞭に見えなくなり得る。さらに、車が速く移動すればするほど、車は現実的には明瞭に見えなくなる。より詳細に説明されるように、ポストプロセッサ22は、デプスマップ28からのデプス情報および知覚マップ30からの動き情報を利用して、画像24の第2の部分(たとえば、画像24の背景)に対して画像24の第1の部分(たとえば、画像24の前景)を強調することができる。このように、ポストプロセッサ22は、画像24の部分を画像24の他の部分に対してどの程度強調すべきかを判定するために、デプス情報と動き情報の両方を考慮に入れることができる。
[0043]いくつかの例において、顕著性情報が、画像24のいずれのピクセルが強調されるべきかを判定するにあたってポストプロセッサ22をさらに補助してもよい。たとえば、デプスマップ28からのデプス情報が、特定のピクセルが前景にあることを示してもよく、この例においては、知覚マップ30からの顕著性情報が、その特定のピクセルが目立っていることを示してもよい。この例において、ポストプロセッサ22は、デプス情報と顕著性情報の両方を利用して、その特定のピクセルを他のピクセルに対してどの程度強調すべきかを判定してもよい。
[0044]別の例として、デプスマップ28からのデプス情報が、特定のピクセルが背景にあることを示すことができ、この例においては、知覚マップ30からの顕著性情報が、その特定のピクセルが目立っていることを示すことができる。そのような背景ピクセルが過度にぼかされるのを回避するために、または、さらには強調されるようにするために、ポストプロセッサ22は、顕著性マップの値と組み合わせてデプスマップ28の値を利用して、特定のピクセルを他のピクセルに対してどの程度強調すべきかを判定してもよい。
[0045]図2は、本開示において説明される1つまたは複数の技法を実施することができるポストプロセッサ22の一例を示すブロック図である。ポストプロセッサ22は、画像24の観察者が知覚可能な情報を利用して、画像24の部分を画像24の他の部分に対して強調することができる。たとえば、ポストプロセッサ22は、画像24内で背景ピクセルよりも前景ピクセルを強調してもよい。ポストプロセッサ22が画像24の一部分を画像24の他の部分に対して強調し得る様々な方法があり得る。たとえば、ポストプロセッサ22は、第1の部分を強調し、第2の部分を強調しなくてもよい。別の例として、ポストプロセッサ22は、第2の部分をぼかし、第1の部分を変更しなくてもよい。また別の例として、ポストプロセッサ22は、第1の部分を鮮鋭化し、第2の部分をぼかしてもよい。これらの例において、第1の部分は第2の部分よりも明瞭に見え得る。したがって、これらの例において、第1の部分の強調は第2の部分に対して相対的なものである。
[0046]上記で説明されたように、ポストプロセッサ22は、画像24の部分を強調するためにデプスマップ28および知覚マップ30の値を利用することができる。下記に説明されるように、デプスマップ28および知覚マップ30の値を決定するための様々な方法があり得る。デプスマップ28および知覚マップ30の値を決定するためのこれらの例示的な技法は、例示の目的のために提供されており、限定と考えられるべきではない。その上、本技法は、互いと、または、それらの任意の組合せとともに利用されてもよい。たとえば、デバイス10は、デプスマップ28の値を決定するために1つの技法を利用してもよく、知覚マップ30の値を決定するために同じまたは異なる技法を利用してもよい。
[0047]一例として、デバイス10が、別のデバイスから画像24または画像24を含むビデオをダウンロードする事例において、その他のデバイスが画像24とともにデプスマップ28および知覚マップ30の値を提供してもよい。この例において、一例として、ビデオコーデック18が、デプスマップ28および知覚マップ30とともに画像24を受信してもよい。ビデオコーデック18は、その後、メモリ20内に画像24のピクセル値ならびにデプスマップ28および知覚マップ30の値を記憶してもよい。ポストプロセッサ22は、その後、メモリ20から画像24のピクセル値ならびにデプスマップ28および知覚マップ30の値を受信することによって、これらの値を決定してもよい。ポストプロセッサ22は、その後、より詳細に説明されるように、受信された情報を用いて、画像24の部分を他の部分に対して強調してもよい。
[0048]別の例として、デバイス10内のモジュールが、デプスマップ28および知覚マップ30の値を生成してもよい。一例として、ビデオプロセッサ14が、デバイス10の一部分であるか、またはデバイス10に結合されているカメラで撮られた画像24または画像24を含むビデオを受信してもよい。この例において、ビデオプロセッサ14は、デプスマップ28および知覚マップ30の値を生成するためのアルゴリズムを実行してもよい。ビデオプロセッサ14は、その後、メモリ20内にデプスマップ28および知覚マップ30の値を記憶してもよい。上記と同様に、ポストプロセッサ22は、その後、より詳細に説明されるように、受信された情報を用いて、画像24の部分を他の部分に対して強調してもよい。
[0049]いくつかの例において、GPU16が、デプスマップ28および知覚マップ30の値を生成してもよい。たとえば、画像24は、静止グラフィックス画像であってもよく、または、一例のグラフィックス画像の一部分であるグラフィックス画像(たとえば、ビデオゲームにおける画像)であってもよい。この例において、GPU16が、画像24を生成するのに加えて、デプスマップ28および知覚マップ30の値を生成してもよい。GPU16は、その後、メモリ20内に画像24のピクセル値ならびにデプスマップ28および知覚マップ30の値を記憶してもよい。上記と同様に、ポストプロセッサ22は、その後、より詳細に説明されるように、受信された情報を用いて、画像24の部分を他の部分に対して強調してもよい。
[0050]いくつかの場合において、ポストプロセッサ22が、デプスマップ28および知覚マップ30の値を決定することが可能であり得る。この例において、ポストプロセッサ22が、一時記憶のためにメモリ20内にデプスマップ28および知覚マップ30の値を記憶してもよい。代替的に、ポストプロセッサ22は、ローカルメモリ内にデプスマップ28および知覚マップ30の値を記憶してもよい。この例において、メモリ20は、デプスマップ28および知覚マップ30の値を記憶しなくてもよい。
[0051]上記で説明されたように、ビデオプロセッサ14、GPU16、ビデオコーデック18、およびポストプロセッサ22のいずれか1つが、デプスマップ28および知覚マップ30の値を生成してもよい。また、上記で説明されたように、ビデオプロセッサ14、GPU16、ビデオコーデック18、およびポストプロセッサ22のいずれか1つが、本開示において説明される強調技法を実施してもよい。これを例示するために、本開示の例示的な技法は、1つまたは複数の処理ユニットによって実施されるものとして考えられてもよい。1つまたは複数の処理ユニットの例は、ビデオプロセッサ14、GPU16、ビデオコーデック18、およびポストプロセッサ22を含む。たとえば、1つの処理ユニットがデプスマップ28および知覚マップ30の値を決定してもよく、別の処理ユニットまたは同じ処理ユニットが本開示において説明される例示的な強調技法を実施してもよい。その上、いくつかの例において、表示プロセッサが、1つまたは複数の処理ユニットの別の例であり得る。たとえば、いくつかの例において、ポストプロセッサ22は、表示プロセッサとして考えられてもよい。例示および簡潔さの目的のために、例示的な技法は、ポストプロセッサ22によって実行されるものとして説明される。
[0052]デバイス10がデプスマップ28および/または知覚マップ30の値を受信しない例において、1つまたは複数の処理ユニットが、デプスマップ28および/または知覚マップ30の値を決定するために1つまたは複数の既知のアルゴリズムを実施してもよい。一例として、1つまたは複数の処理ユニットは、画像24内のピクセルの深度を推定するために、陰影情報(shadow information)を利用してもよい。別の例として、1つまたは複数の処理ユニットは、デプスマップ28の値を判定するために、動き情報を利用してもよい。たとえば、速く動いているように見える物体は一般的に前景にあると考えられ、より遅く動いているように見える物体は一般的に、背景において動いていると考えられる。たとえば、空を飛んでいる飛行機(たとえば、背景にある)は、前景において急速に動いている車と比較してより遅く動いているように見える。この例において、1つまたは複数の処理ユニットは、デプスマップ28のデプス値を決定する(たとえば、飛行機が背景にあり、車が前景にあると判定する)ために動き情報を使用してもよく、また、知覚マップ30の値を決定する(たとえば、知覚マップ30が動き情報マップである場合に)ために動き情報を使用してもよい。
[0053]知覚マップ30が顕著性マップである例において知覚マップ30の値を決定するための様々な技法があり得る。1つのそのような例示的な技法は、「Spatio−temporal Saliency Detection Using Phase Spectrum of Quaternion Fourier Transform」、Chenlei Guo、Qi Ma、Liming Zhang、IEEE Computer Vision and Pattern Recognition Conference(IEEE CVPR)、2008に記載されており、その全体が参照により組み込まれる。この引用文献に記載されている技法は、例示の目的のために与えられており、限定であると考えられるべきでない。本開示において説明される技法は、顕著性マップの値が受信されない例を含む、知覚30が顕著性マップである例において知覚マップ30の値を決定するための任意の方式を実装してもよい。
[0054]図2に示されているように、ポストプロセッサ22は、画像24のピクセル値を受信し、強調画像26の強調ピクセル値を出力する。ピクセル値は、単一の画像、2Dビデオ(たとえば、単一チャネルビデオ)、または3Dビデオ(たとえば、マルチチャネルビデオ)の一部分に関連付けられるピクセル値を含んでもよい。ピクセル値は、一例として色値であってもよく、標準的なビデオフォーマットに従って定義されてもよい。たとえば、ピクセル値は、標準的な赤−緑−青(RGB)にあってもよい。ピクセル値の例は、色値に加えて、2つの例として、座標および不透明度値のような値を含んでもよい。
[0055]図2の例において、ポストプロセッサ22は、デプスマップ処理ユニット32と、強調マップユニット34と、強調ユニット36とを含む。これらのユニットは、ともに形成されてもよく、または図2に示されているように、別個のユニットとして形成されてもよい。デプスマップ処理ユニット32、強調マップユニット34、および/または強調ユニット36は、ハードウェアとして、またはハードウェア上で実行しているソフトウェアとして実装されてもよい。強調ユニット36の出力が、強調画像26のピクセル値であってもよい。
[0056]さらに、デプスマップ処理ユニット32、強調マップユニット34、および強調ユニット36はポストプロセッサ22内に形成されるものとして示されているが、本開示の態様はそのように限定されない。他の例において、デプスマップ処理ユニット32、強調マップユニット34、および強調ユニット36のうちの1つまたは複数は、他の処理ユニットのうちの1つまたは複数の中に形成されてもよい。別の例として、デプスマップ処理ユニット32および強調マップユニット34は各々、個々のユニットであってもよく、または、デバイス10内にあって、デバイス10のビデオプロセッサ14、GPU16、ビデオコーデック18、ポストプロセッサ22、およびCPUの外部にあるようにともに形成されてもよい。これらの例において、デプスマップ処理ユニット32および強調マップユニット34は、本開示において説明される例示的な技法を実施する1つまたは複数の処理ユニットの一部分であってもよい。
[0057]デプスマップ28がデバイス10によって受信されるか、またはデバイス10によって生成されるいくつかの例において、デプスマップ28の値に対するさらなる変更が適切である場合がある。たとえば、デプスマップ28の値は、画像24のいずれの部分が、および、どの程度だけ、他の部分に対して強調されるべきかを判定するのに画像24のいずれの部分が、および、どの程度だけ、他の部分に対して強調されるべきかを判定するのに理想的でない場合がある。図2の例において、デプスマップ処理ユニット32は、画像24のいずれの部分が、および、どの程度だけ強調されるべきかを判定するのにより適切であり得る値を生成するために、デプスマップ28の値を変更してもよい。デプスマップ処理ユニット32の例は、図5に関連してより詳細に示されている。他の例において、デプスマップ28の値はそのままで、画像24の部分を他の部分に対して強調するのに適切であり得る。これらの例において、デプスマップ処理ユニット32は必要とされなくてもよく、または、デプスマップ28の値のパススルー(pass through)として機能してもよい。
[0058]強調マップユニット34は、デプスマップ処理ユニット32から処理されたデプスマップ28を受け取ってもよい。ポストプロセッサ22がデプスマップ処理ユニット32を含まない例において、強調マップユニット34が、デプスマップ28の値を直接受け取ってもよい。図示されているように、強調マップユニット34は、知覚マップ30の値も受信してもよい。いくつかの例において、ポストプロセッサ22は、知覚マップ30の値を、画像24の部分をどの程度強調すべきかを判定するのにより適したものにするために、その値を変更する知覚マップ処理ユニットをも含んでもよい。しかしながら、そのような知覚マップ処理ユニットは、ポストプロセッサ22のすべての例において必要であるとは限らない場合があり、または知覚マップ30の値のパススルーとして機能してもよい。
[0059]強調マップユニット34は、画像24のピクセルがどの程度強調されるべきかを判定するための様々なアルゴリズムを実施してもよい。一例のアルゴリズムとして、強調マップユニット34は、強調マップを生成するために、デプスマップ28の値と知覚マップ30の値との加重和を実行してもよい。強調マップの値は、画像24の対応ピクセルがどの程度強調されるべきかを示し得る。この例において、強調ユニット36は、強調マップユニット34から強調マップを受信し、強調マップの対応する値に基づいて、画像24のピクセルを他のピクセルに対して強調してもよい。
[0060]たとえば、強調マップユニット34は、デプスマップ28および知覚マップ30の値に選択可能なまたはプログラムされた重みを加えることによって、強調をより前景に向けて、または、動きが少なく、かつ/もしくは顕著性が大きい物体に向けてバイアスしてもよい。加重和の結果としての値は、仮にそうであるとしても、ピクセルの値がどの程度強調されるべきかを示し得る。たとえば、知覚マップ30の値が動き情報の値である例において、加重和の結果としての値は、強調ユニット36に、前景に位置する、遅く動いている物体のピクセルを、背景に位置する物体のピクセルまたは速く動いている物体のピクセルに対して強調するよう指示し得る。
[0061]いくつかの例において、強調マップユニット34は、知覚マップ30が顕著性マップである場合に、デプスマップ28の値と知覚マップ30の値との加重和を同様に実行してもよい。たとえば、この例において、加重和の結果としての値は、強調ユニット36に、前景に位置する物体を有する画像24の部分内の目立つピクセルを、ピクセルが背景にある物体のものであるか、またはより目立たないピクセルのものである画像24の部分と比較して、より強調するよう指示し得る。
[0062]一例として、加重和を実行するために、強調マップユニット34は、画像24内の同じピクセルに対応するデプスマップ28および知覚マップ30の対応する値の各々に、以下の関数を実施してもよい。
[0063]β=γd+δ(1−t)、式中、γは知覚マップ30の値に対する選択可能なまたはプログラムされた重みであり、dは知覚マップ30の値の1つであり、δはデプスマップ28の値に対する選択可能なまたはプログラムされた重みであり、tは知覚マップ30のdの値に対応するデプスマップ28の値の1つであり、dとtの両方は画像24のピクセルの1つに対応する。
[0064]この例において、βは、強調ユニット36が画像24の対応ピクセルをどの程度強調すべきかを判定するのに利用することができる、画像24の対応ピクセルに対する結果としての加重和値である。たとえば、強調マップは、画像24のピクセルごとに1つのβ値を含んでもよい。γの値は、知覚マップ30の値向けに所望されるバイアスの量に基づいて選択可能であってもよく、またはプログラムされてもよい。たとえば、物体が、画像24内の深度と比較して、動きまたは顕著性により基づいて強調され、γの値がそのような結果を達成するように選択またはプログラムされ得ることを保証することが望ましい場合がある。同様に、δの値は、デプスマップ28の値向けに所望されるバイアスの量に基づいて選択可能であってもよく、またはプログラムされてもよい。たとえば、物体が、動きまたは顕著性と比較して、深度により基づいて強調され、δの値がそのような結果を達成するように選択またはプログラムされ得ることを保証することが望ましい場合がある。
[0065]値dは、知覚マップ30が動き情報マップである例において、知覚される「速さ」に逆相関し得る。たとえば、知覚される速さが速ければ速いほど、dの値は小さくなる。tの値は、知覚される「深度」を示し得、1以下である。この例において、tの値が大きければ大きいほど、画像24内でさらに奥になる。
[0066]γ、δ、d、およびtの値と、それらのそれぞれのバイアス、速さ、および深度との間の相関は例示の目的のためにのみ与えられており、限定と考えられるべきではないことは理解されるべきである。さらに、βに関する式は、例示の目的のためにのみ与えられており、限定と考えられるべきではない。一般的に、強調マップユニット34は、デプスマップ28および知覚マップ30の値に基づいて画像24のピクセルに対して加えるべき強調の量を決定する任意のアルゴリズムを実施してもよい。
[0067]図示されているように、強調ユニット36は、強調マップユニット34からの加重和の結果および画像24のピクセル値を受け取ってもよい。強調ユニット36は、その後、対応する加重和値に基づいて画像24のピクセル値(たとえば、色値)を強調してもよい。強調ユニット36が加重和値を利用して画像24の第1の部分を画像24の第2の部分に対して強調し得る様々な方法があり得る。
[0068]たとえば、強調ユニット36は、加重和値に対する閾値を制定してもよい。その対応する加重和値が閾値以上であるピクセルが、画像24の第1の部分内のピクセルであり得る。その対応する加重和値が閾値未満であるピクセルが、画像24の第2の部分内のピクセルであり得る。画像24の第2の部分に対する第1の部分の強調の一例として、強調ユニット36は、画像24の第1の部分内のピクセルを強調して、画像24の第2の部分内のピクセルは強調しなくてもよい。別の例として、強調ユニット36は、画像24の第2の部分内のピクセルをぼかし、画像24の第1の部分内のピクセルはぼかさなくてもよい。また別の例として、強調ユニット36は、画像24の第1の部分内のピクセルをぼかし、画像24の第2の部分内のピクセルをぼかしてもよい。これらの例示的な事例のいずれにおいても、第1の部分は第2の部分よりも明瞭に見え得る。このように、例示的な技法は、画像24の第1の部分を画像24の第2の部分に対して強調することができる。
[0069]強調ユニット36は、任意のタイプの強調技法を実施するように構成されてもよい。例として、強調ユニット36は、コントラスト強調、鮮鋭化およびぼかし、ならびに色強調のうちの1つまたは複数を実施してもよいが、本開示の態様は、コントラスト強調、鮮鋭化およびぼかし、ならびに色強調に限定されると考えられるべきではない。強調ユニット36の一例が、図3に関連してより詳細に説明される。
[0070]上記の例は、画像24を、単一の静止画像またはビデオの1つの画像として説明した。ビデオの画像の少なくとも2つの例があり得、本開示の技法はビデオの両方の例に拡張可能である。ビデオの1つの例は一般的にモノビュービデオ(mono-view video)と称され、ビデオのもう1つの例はマルチビュービデオと称される。マルチビュービデオの一部に、立体ビデオがある。
[0071]三次元(3D)ビデオと称される場合がある立体ビデオにおいて、デバイス10は、ディスプレイ12上に2つの画像を同時に表示することができ、一方の画像は右目ではなく左目で見ることができ、もう一方の画像は左目ではなく右目で見ることができる。左目画像および右目画像は実質的に同様の画像内容を含み得るが、対応するピクセルにわずかなずれがあり得る。左目画像および右目画像を同時に見ることによって、観察者に、ディスプレイ12から飛び出すかまたはディスプレイに入り込む単一の画像を知覚させることができ、それが、観察者に3D体験を与える。
[0072]マルチビュービデオは立体ビデオの延長である。たとえば、マルチビュービデオは、3D体験を生成するのと同様の前提に基づいているが、左および右目画像だけでない画像を生成し、それによって、3Dの見え方が、観察者がビデオを見る方向を問わず、より詳細にはユーザが3D画像を見るためのいかなる特定の眼鏡も装着していないときにも発生する。例示の目的のために、本技法は立体ビデオについて説明されるが、本技法はマルチビューにも同様に拡張可能であり得る。
[0073]二次元(2D)ビデオと称される場合があるモノビュービデオにおいて、デバイス10は、一度に1つの画像をディスプレイ12上に表示し得る。観察者は3D効果を何ら体験することができない。たとえば、ビデオはディスプレイ12内に固定されているように見え得る。立体ビデオおよびモノビュービデオの両方において、ビデオ内に物体までの奥行きの深さがあり得るという点では、画像は3D画像であり得る。しかしながら、画像の各々はディスプレイ12の境界に制約されている。観察者がディスプレイ12から飛び出すまたはディスプレイ内に入り込む単一の画像を知覚するのは、立体ビデオの左目画像および右目画像が同時に見られるときのみである。
[0074]本開示において説明される技法は、立体ビデオまたはマルチビュービデオに拡張可能であり得る。たとえば、画像24は立体ビデオの左目画像または右目画像のうちの一方であってもよく、メモリ20は、左目画像と右目画像の両方を記憶してもよい。画像24が立体ビデオのためのものである例において、デプスマップ28は視差マップと称される場合がある。この事例において、視差マップは画像24内の物体の奥行きの深さを示す値と、対応する他方の目の画像に関する物体の奥行きの深さを示す値とを含み得るため、デプスマップ28は視差マップと称される場合がある。たとえば、画像24が左目画像である場合、デプスマップ28(たとえば、視差マップ)は、左目画像(すなわち、画像24)、および、対応する右目画像、並びのその逆の中の物体の深度を示す値を含み得る。
[0075]画像24が立体ビデオのためのものである例において、強調マップユニット34は、画像24のデプスマップ28(たとえば、視差マップ)を受信し得、このマップは、立体ビデオの他方の画像のデプスマップでもある。この例において、強調マップユニット34は、立体ビデオの両方の画像のピクセルを強調するのに強調ユニット36が利用する単一の強調マップを生成してもよい。強調ユニット36は、立体ビデオの右目画像と左目画像の両方のピクセル値(たとえば、色値)を受信してもよく、単一の強調マップを使用して右目画像および左目画像を強調してもよい。いくつかの事例において、強調ユニット36が右目画像に加える強調の量が、左目画像に加えられる強調の量と異なる場合、強調された右目および左目画像を見ることは、適切な3D効果を生成しない場合がある。これに対処するために、強調ユニット36は、右目画像と左目画像の両方に同じ量の強調を加え得る。
[0076]画像24が立体ビデオの画像であるいくつかの例において、ポストプロセッサ22は、デプス情報のみを使用して画像24および立体ビデオの対応する画像(たとえば、右目画像と左目画像の両方)を強調してもよい。これらの例において、知覚マップ30は必要でない場合がある。しかしながら、代替の例において、ポストプロセッサ22は、画像24が立体ビデオの画像である例においてさえも、デプスマップ28と知覚マップ30の両方を利用してもよい。強調ユニット36がデプスマップ28の値を利用するが、知覚マップ30の値は利用しない例において、強調マップは、デプスマップ28の値が乗算された、上記で説明されたような選択可能なまたはプログラムされた値「δ」であってもよい。強調ユニット36がデプスマップ28と知覚マップ30の両方からの値を利用する例示において、強調マップは、画像24の各対応ピクセルについて「β」の値を含んでもよい。
[0077]図3は、本開示において説明される1つまたは複数の技法を実施することができる強調ユニット36の一例を示すブロック図である。図3の例において、強調ユニット36は、コントラスト強調ユニット38と、鮮鋭化およびぼかしユニット40と、色強調ユニット42とを含む。他の例において、強調ユニット36は、図3に示されているものよりも少ないまたは多いユニットを含んでもよい。たとえば、強調ユニット36は、コントラスト強調ユニット38、鮮鋭化およびぼかしユニット40、ならびに色強調ユニット42の3つすべて、これら3つのうちのいずれか2つ、またはこれら3つのうちのいずれか1つを含んでもよい。言い換えれば、強調ユニット36は、これらの例示的な強調技法のうちの1つまたは複数を適用してもよい。たとえば、強調ユニット36は、コントラスト強調、鮮鋭化およびぼかし、ならびに色強調ユニット3つすべて、これら3つのうちのいずれか2つ、またはこれら3つのうちのいずれか1つを利用してもよい。強調ユニット36の出力が、強調画像26のピクセル値であってもよい。
[0078]コントラスト強調ユニット38は、強調マップユニット34によって生成された強調マップに基づいて、画像24の第1の部分内のピクセルのコントラストを、画像24の第2の部分に対して変化させることができる。たとえば、強調マップは、コントラスト強調ユニット38に、背景内の物体のピクセルまたは遅く動いているかもしくはより目立たない物体のピクセルと比較して、遅く動いているかまたはより目立つ前景内の物体のピクセルのコントラストを増大させるように指示してもよい。
[0079]鮮鋭化およびぼかしユニット40は、強調マップに基づいて鮮鋭化させ、またはぼかすことができる。たとえば、鮮鋭化およびぼかしユニット40は、強調マップに基づいて、前景ピクセルを鮮鋭化させるか、背景ピクセルをぼかすか、または前景ピクセルの鮮鋭化と背景ピクセルのぼかしの両方を行ってもよい。強調マップに基づいて前景にある物体が動いているように知覚される場合、鮮鋭化およびぼかしユニット40は、前景ピクセルをぼかしてもよい。
[0080]色強調ユニット42は、強調マップに基づいてピクセルの色値を変化させてもよい。たとえば、人間は、前景物体を、背景物体よりも「暖かい」色をしていると知覚する。これに基づいて、色強調ユニット42は、前景ピクセルの「赤さ」を増大させ、背景ピクセルの「赤さ」を低減し得る。コントラスト強調ユニット38、鮮鋭化およびぼかしユニット40、および色強調ユニット42によって実行される強調は、任意の数の順序において順次実行されてもよく、または、並列に実行されてもよいことが留意されるべきである。
[0081]強調ユニット36は、上記で説明された立体ビデオの画像に対して例示的な強調技法のいずれを適用してもよい。いくつかの状況において、立体ビデオの画像により適した他の強調技法があってもよい。図4は、本開示において説明される1つまたは複数の技法を実施することができる強調ユニット36の別の例を示すブロック図である。図4に示されている例示的な強調ユニット36は、画像24が立体ビデオの画像のうちの1つである場合の、強調ユニット36の適切な例であり得る。例示の目的のために、画像24は左目画像であると仮定する。
[0082]図4に示されているように、この例の強調ユニット36において、強調ユニット36は、フィルタ44と、乗算器46と、加算器48と、乗算器52とを含む。いくつかの例において、強調ユニット36は、図4において「A」によって表されている、一定値50を事前プログラムされ得る。代替的に、一定値50は選択可能であってもよい。
[0083]フィルタ44は、画像24(たとえば、左目画像)のピクセル値を受信し、ピクセル値をハイパスフィルタリングし得る。フィルタ44がピクセル値をハイパスフィルタリングし得る様々な方法があり得る。一例として、フィルタ44はピクセル値をローパスフィルタリングし、元のピクセル値からローパスフィルタリングされたピクセル値を減算して、ハイパスフィルタリングされたピクセル値を生成してもよい。ピクセル値をローパスフィルタリングするために、一例として、フィルタ44はピクセル値に5×5ガウスカーネルを乗算してもよい。フィルタ44のフィルタリング技法は、例示の目的のためにのみ与えられており、限定と考えられるべきではない。別の例において、3×3または5×5カーネルが使用されてもよい。この例において、これらの寸法のローパスフィルタカーネルは、固定標準偏差を有する回転対称ガウス分布関数(circularly symmetric Gaussian spread function)から導出され得る。このとき、ハイパスカーネルは単純に1として計算され得る。さらに、ローパスカーネル重みは、それらの大きさが0〜1であるように正規化され得る。一般的に、本開示の態様は、任意のハイパスフィルタリング技法に拡張可能である。
[0084]乗算器46は、フィルタ44からのハイパスフィルタリングされたピクセル値および強調マップを受信し、これらの値をともに乗算し得る。強調マップの値の一例は、立体ビデオの強調マップがデプスマップ28および知覚マップ30の値に基づく例において、上記で説明されたような、画像24の各対応ピクセルの「β」の値であってもよい。強調マップの値の別の例は、立体ビデオの強調マップがデプスマップ28に基づき、知覚マップ30の値には基づかない例において、デプスマップ28の値を乗算された、上記で説明されたような、「δ」の値であってもよい。
[0085]乗算器52も、画像24のピクセル値を受信し、ピクセル値に一定値50を乗算し得る。一定値50は、選択可能なまたは事前プログラムされた値であってもよい。加算器48は、乗算器46からの、および乗算器52からの値を受信し、これらの値をともに加算し得る。加算の結果は、強調画像26のピクセル値であり得る。図4に示されているような強調ユニット36は、立体ビデオの画像24に対応する他方の画像(たとえば、右目画像)を強調するために同様の技法を実行し得る。
[0086]図5は、本開示において説明される1つまたは複数の技法を実施することができるデプスマップ処理ユニット32の一例を示すブロック図である。上述のように、いくつかの例において、デプスマップ28の受信されたまたは生成された値は、画像24のいずれの部分が他の部分に対して強調されるべきかを判定するのに理想的に適していない場合がある。たとえば、デプスマップ28は、これを画像強調にあまり有用でなくする場合があるノイズを含む場合がある。デプスマップ処理ユニット32は、そのようなフィルタリングを実行するとともに、画像強調に使用するのに適した値を生成するために、デプスマップ28の値に対する他の処理を実行し得る。また、上記で説明されたように、デプスマップ処理ユニット32は、すべての例において必要であるとは限らない場合もある。
[0087]図5に示されている例示的なデプスマップ処理ユニット32は、中央値フィルタリングユニット54と、平滑化ユニット56と、伸張ユニット58とを含んでもよい。中央値フィルタリングユニット54は、事前プログラムされたまたは選択可能なフィルタを適用することによって、受信されたデプスマップ28内のインパルスノイズを除去し得る。平滑化ユニット56は、ピクセルのデプス値を隣接するデプス値の値と置き換えることによって、デプスマップ28内の「穴」を除去し得る。たとえば、ピクセルが0のデプス値を有するが、より高いデプス値を有するピクセルに囲まれている場合、ピクセルは引き継ぎ得る。このように、物体を構成するピクセルは同様の深度を有するように見えることになり、物体がより連続的に見えることになる。
[0088]伸張ユニット58は、ヒストグラム伸張またはルックアップテーブルマッピングを使用して、受信されたデプスマップのダイナミックレンジを増大し得る。たとえば、受信されたデプスマップ28は、17の最大デプス値を有し得る。伸張ユニット58は、画像24の知覚される深度をさらに強調するために、一例として、この値を255まで増大させ得る。例示的な図5において示されているデプスデータ処理ユニット32がデプスマップを処理するものとして説明されているが、他の例において、ポストプロセッサ22は、画像24内の物体がより連続的であり、互いからより明瞭に区別されるように、知覚マップ30の値を同様に処理するための知覚マップ処理ユニットを含んでもよいことが留意されるべきである。
[0089]図6は、本開示において説明される1つまたは複数の例による例示的な技法を示す流れ図である。図6において示されているステップのすべてがすべての事例において実行される必要はないことが留意されるべきである。1つまたは複数のステップは実行されなくてもよく、または、図6において示されているものとは異なる順序で実行されてもよい。例示のみの目的のために、図1〜図5が参照される。
[0090]1つまたは複数の処理ユニットが画像を受信し得る(60)。処理ユニットの例には、デバイス10のビデオプロセッサ14、GPU16、ビデオコーデック18、ポストプロセッサ22、およびCPUがある。受信される画像の一例は、1つまたは複数の処理ユニットが画像強調のためにメモリ20から受信する画像24であってもよい。
[0091]1つまたは複数の処理ユニットが、画像内のピクセルの相対深度を示す、画像のデプスマップのデプスマップ値を決定し得る(62)。たとえば、ポストプロセッサ22は、デプスマップ28のデプスマップ値を決定してもよい。デプスマップ値は、いずれのピクセルが前景にある物体内にあり、いずれのピクセルが背景にある物体内にあるかのような、ピクセルの相対深度を示し得る。
[0092]1つまたは複数の処理ユニットが、画像の知覚マップの知覚マップ値を決定し得る(64)。たとえば、知覚マップ値は、知覚マップ30のためのものであってもよい。いくつかの例において、知覚マップ値は、物体が相対的に速く動いているか、または相対的に遅く動いているかの測定値を与えることができる、動き情報を示してもよい。いくつかの例において、知覚マップ値は、どの程度目立つピクセルが画像24内にあるかを示してもよい。
[0093]1つまたは複数の処理ユニットが、少なくともデプスマップ値および知覚マップ値に基づいて画像の第1の部分を画像の第2の部分に対して強調し得る(66)。1つまたは複数の処理ユニットが第1の部分を第2の部分に対して強調し得る様々な方法があり得る。たとえば、1つまたは複数の処理ユニットは、第1の部分を強調し、第2の部分を強調しなくてもよい。別の例として、1つまたは複数の処理ユニットは、第2の部分をぼかし、第1の部分をぼかさなくてもよい。また別の例として、1つまたは複数の処理ユニットは、第1の部分を強調し、第2の部分をぼかしてもよい。
[0094]いくつかの例において、1つまたは複数の処理ユニットは、画像の前景にある物体のピクセル値、および、画像内の物体の動き情報を決定してもよい。これらの例において、1つまたは複数の処理ユニットは、画像の前景にあり、遅く動いている物体のピクセルを、画像の背景にあり、速く動いている物体のピクセルに対して強調してもよい。
[0095]いくつかの例において、1つまたは複数の処理ユニットは、画像の前景にある物体のピクセル値、および、画像内のピクセルの顕著性情報を決定してもよい。これらの例において、1つまたは複数の処理ユニットは、より目立つ、画像の前景にある物体のピクセルを、より目立たない、画像の背景にある物体のピクセルに対して強調してもよい。
[0096]図7は、本開示の1つまたは複数の態様を実施するように動作可能であり得るデバイスの別の例を示すブロック図である。たとえば、図7は、図1のデバイス10をより詳細に示す。簡潔さの目的のために、図7に示されているが図1には示されていないデバイス10の構成要素のみが、詳細に説明される。
[0097]図7の例において、デバイス10は、ディスプレイ12と、ビデオプロセッサ14と、GPU16と、ビデオコーデック18と、メモリ20と、ポストプロセッサ22と、送受信機モジュール68と、ユーザインターフェース70と、プロセッサ72とを含み得る。プロセッサ72は、デバイス10の中央処理ユニット(CPU)であってもよい。本開示は、ポストプロセッサ22を、本開示において説明される例示的な技法を実施するものとして説明するが、デバイス10の任意の処理ユニットが例示的な技法を実施することが可能であり得る。処理ユニットは、プロセッサ72、ビデオプロセッサ14、GPU16、ビデオコーデック18、およびポストプロセッサ22、または図1および図9には示されていない何らかの他の処理ユニットのうちの1つまたは複数であってもよい。
[0098]デバイス10は、明瞭さの目的のために図7に示されていない追加のモジュールまたはユニットを含んでもよい。たとえば、デバイス10は、デバイス10がモバイルワイヤレス電話である例において電話通信を実現するために、そのいずれも図7に示されていないスピーカおよびマイクロフォン、またはデバイス10がメディアプレーヤである場合にスピーカを含んでもよい。デバイス10はビデオカメラをも含んでもよい。さらに、デバイス10に示す様々なモジュールおよびユニットは、デバイス10のすべての例において必要であるとは限らない。たとえば、ユーザインターフェース70およびディスプレイ12は、デバイス10がデスクトップコンピュータまたは外部のユーザインターフェースもしくはディスプレイとインターフェースするように備えられた他のデバイスである例において、デバイス10の外部にあってよい。
[0099]ユーザインターフェース70の例には、限定はしないが、トラックボール、マウス、キーボード、および他のタイプの入力デバイスがある。ユーザインターフェース70はまた、タッチスクリーンであり得、ディスプレイ12の一部として組み込まれ得る。送受信機モジュール68は、デバイス10と別のデバイスまたはネットワークとの間のワイヤレスまたはワイヤード通信を可能にするための回路を含み得る。送受信機モジュール68は、ワイヤードまたはワイヤレス通信のための変調器、復調器、増幅器および他のそのような回路を含み得る。
[0100]例によっては、本明細書で説明された技法のうちいずれかの、いくつかの行為またはイベントは、異なる順番で実行される可能性があり、追加され、統合され、または完全に除外され得る(たとえば、すべての説明された行為またはイベントが、本技法の実施のために必要であるとは限らない)ことが認識されるべきである。さらに、いくつかの例において、行為またはイベントは、連続的にではなく、同時に、たとえば、マルチスレッド処理、割込み処理、または複数のプロセッサを通じて実行されてもよい。
[0101]1つまたは複数の例において、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せにおいて実装されてもよい。ソフトウェアにおいて実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されてもよい。コンピュータ可読媒体はコンピュータデータ記憶媒体を含み得る。データ記憶媒体は、本開示において説明される技法の実施のための命令、コードおよび/またはデータ構造を取り出すために1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。限定ではなく、例として、そのようなコンピュータ可読媒体は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、EEPROM、CD−ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、または命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイ(登録商標)ディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含まれるべきである。
[0102]コードは、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路によって実行され得る。したがって、本明細書において使用される場合、「プロセッサ」という用語は、前述の構造、または本明細書において説明される技法の実装に好適な他の構造のいずれかを指す。また、本技法は、1つまたは複数の回路または論理要素中に全体が実装され得る。
[0103]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(すなわち、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示されている技法を実行するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明されているが、それらの構成要素、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明された1つまたは複数のプロセッサを含めて、ハードウェアユニットにおいて組み合わせられるか、または相互動作ハードウェアユニットの集合によって与えられ得る。
[0104]様々な例が説明された。これらおよび他の例は、以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]画像処理のための方法であって、前記方法は以下を備える、
画像を受信することと、
前記画像内のピクセルの相対深度を示す、前記画像のデプスマップのデプスマップ値を決定することと、
前記画像の知覚マップの知覚マップ値を決定することと、
少なくとも前記デプスマップ値および前記知覚マップ値に基づいて前記画像の第1の部分を前記画像の第2の部分に対して強調すること。
[C2]前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調することは、
前記第1の部分内のピクセルを強調し、前記第2の部分内のピクセルは強調しないことと、
前記第2の部分内の前記ピクセルをぼかし、前記第1の部分内の前記ピクセルはぼかさないことと、
前記第1の部分内の前記ピクセルを強調し、前記第2の部分内の前記ピクセルをぼかすことと、
のうちの少なくとも1つを備える、[C1]に記載の方法。
[C3]前記デプスマップのデプス値を決定することは、いずれのピクセルが前記画像の前景にある物体のためのものであるかを決定することを備え、
前記知覚マップの知覚マップ値を決定することは、前記画像内の物体の動き情報を決定することを備え、
前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調することは、前記動き情報によって決定される、前記画像の前記前景にあって遅く動いている物体のピクセルを、前記動き情報によって決定される、前記画像の背景にあって速く動いている物体のピクセルに対して強調することを備える、[C1]に記載の方法。
[C4]前記デプスマップのデプス値を決定することは、いずれのピクセルが前記画像の前景にある物体のためのものであるかを決定することを備え、
知覚マップ値を求めることは、前記画像内のピクセルの顕著性情報を求めることを備え、
前記画像の前記第1の部分を前記第2の部分に対して強調することは、より目立つ、前記画像の前記前景にある物体のピクセルを、より目立たない、前記画像の背景にある物体のピクセルに対して強調することを備える、[C1]に記載の方法。
[C5]前記知覚マップは、前記画像内の物体の知覚速度を示す動き情報マップ、および、前記画像内のピクセルの顕著性を示す顕著性マップを備える、[C1]に記載の方法。
[C6]前記画像は、第1の目に対する立体ビデオの第1の画像を備え、前記方法は、
第2の目に対する前記立体ビデオの第2の画像を受信すること、ここにおいて、前記第1の画像および前記第2の画像の画像内容は実質的に同様である、と、
少なくとも前記第1の画像の前記デプスマップ値および前記第1の画像の前記知覚マップ値に基づいて前記第2の画像の第1の部分を前記第2の画像の第2の部分に対して強調することと、
を備える、[C1]に記載の方法。
[C7]前記方法は、
強調マップの強調マップ値を生成するために、前記デプスマップ値および前記知覚マップ値に対して加重和を実行することをさらに備え、
前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調することは、前記強調マップ値に基づいて、前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調することをさらに備える、[C1]に記載の方法。
[C8]前記デプスマップの前記デプス値をフィルタリングすることと、
前記デプスマップの前記デプス値を平滑化することと、
前記デプスマップの前記デプス値をヒストグラム伸張することと、
のうちの少なくとも1つをさらに備える、[C1]に記載の方法。
[C9]デバイスであって、前記デバイスは以下を備える、
画像を記憶するように構成されているメモリと、
1つまたは複数の処理ユニット、ここで、前記1つまたは複数の処理ユニットは、
前記画像を受信し、
前記画像内のピクセルの相対深度を示す、前記画像のデプスマップのデプスマップ値を決定し、
前記画像の知覚マップの知覚マップ値を決定し、
少なくとも前記デプスマップ値および前記知覚マップ値に基づいて前記画像の第1の部分を前記画像の第2の部分に対して強調する。
[C10]前記画像の前記第1の部分を前記第2の部分に対して強調するために、前記1つまたは複数の処理ユニットは、
前記第1の部分内のピクセルを強調し、前記第2の部分内のピクセルは強調しない、
前記第2の部分内の前記ピクセルをぼかし、前記第1の部分内の前記ピクセルはぼかさない、および
前記第1の部分内の前記ピクセルを強調し、前記第2の部分内の前記ピクセルをぼかす、
のうちの少なくとも1つを行うように構成されている、[C9]に記載のデバイス。
[C11]前記1つまたは複数の処理ユニットは、いずれのピクセルが前記画像の前景にある物体のためのものであるかを決定し、前記画像内の前記物体の動き情報を決定し、前記動き情報によって決定される、前記画像の前記前景にあって遅く動いている物体のピクセルを、前記動き情報によって決定される、前記画像の背景にあって速く動いている物体のピクセルに対して強調するように構成されている、[C9]に記載のデバイス。
[C12]前記1つまたは複数の処理ユニットは、いずれのピクセルが前記画像の前景にある物体のためのものであるかを決定し、前記画像内のピクセルの顕著性情報を求め、より目立つ、前記画像の前記前景にある物体のピクセルを、より目立たない、前記画像の背景にある物体のピクセルに対して強調するように構成されている、[C9]に記載のデバイス。
[C13]前記知覚マップは、前記画像内の物体の知覚速度を示す動き情報マップ、および、前記画像内のピクセルの顕著性を示す顕著性マップを備える、[C9]に記載のデバイス。
[C14]前記画像は、第1の目に対する立体ビデオの第1の画像を備え、前記1つまたは複数の処理ユニットは、
第2の目に対する前記立体ビデオの第2の画像を受信し、ここで、前記第1の画像および前記第2の画像の画像内容は実質的に同様であり、
少なくとも前記第1の画像の前記デプスマップ値および前記第1の画像の前記知覚マップ値に基づいて前記第2の画像の第1の部分を前記第2の画像の第2の部分に対して強調するように構成されている、[C9]に記載のデバイス。
[C15]前記1つまたは複数の処理ユニットは、
強調マップの強調マップ値を生成するために、前記デプスマップ値および前記知覚マップ値に対して加重和を実行し、
少なくとも前記強調マップ値に基づいて前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調する
ように構成されている、[C9]に記載のデバイス。
[C16]前記1つまたは複数の処理ユニットは、
前記デプスマップの前記デプス値をフィルタリングする、
前記デプスマップの前記デプス値を平滑化する、および
前記デプスマップの前記デプス値をヒストグラム伸張する、
のうちの少なくとも1つを行うように構成されている、[C9]に記載のデバイス。
[C17]デバイスであって、前記デバイスは以下を備える、
画像を受信するための手段と、
前記画像内のピクセルの相対深度を示す、前記画像のデプスマップのデプスマップ値を決定するための手段と、
前記画像の知覚マップの知覚マップ値を決定するための手段と、
少なくとも前記デプスマップ値および前記知覚マップ値に基づいて前記画像の第1の部分を前記画像の第2の部分に対して強調するための手段。
[C18]前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調するための前記手段は、
前記第1の部分内のピクセルを強調し、前記第2の部分内のピクセルは強調しないための手段と、
前記第2の部分内の前記ピクセルをぼかし、前記第1の部分内の前記ピクセルはぼかさないための手段と、
前記第1の部分内の前記ピクセルを強調し、前記第2の部分内の前記ピクセルをぼかすための手段と、
のうちの少なくとも1つを備える、[C17]に記載のデバイス。
[C19]前記デプスマップのデプス値を求めるための前記手段は、いずれのピクセルが前記画像の前景にある物体のためのものであるかを決定するための手段を備え、
前記知覚マップの知覚マップ値を求めるための前記手段は、前記画像内の物体の動き情報を決定するための手段を備え、
前記画像の前記第1の部分を前記第2の部分に対して強調するための前記手段は、前記動き情報によって決定される、前記画像の前記前景にあって遅く動いている物体のピクセルを、前記動き情報によって決定される、前記画像の背景にあって速く動いている物体のピクセルに対して強調するための手段を備える、[C17]に記載のデバイス。
[C20]前記デプスマップのデプス値を求めるための前記手段は、いずれのピクセルが前記画像の前景にある物体のためのものであるかを決定するための手段を備え、
前記知覚マップ値を求めるための前記手段は、前記画像内のピクセルの顕著性情報を決定するための手段を備え、
前記画像の前記第1の部分を前記第2の部分に対して強調するための前記手段は、より目立つ、前記画像の前記前景にある物体のピクセルを、より目立たない、前記画像の背景にある物体のピクセルに対して強調するための手段を備える、[C17]に記載のデバイス。
[C21]前記知覚マップは、前記画像内の物体の知覚速度を示す動き情報マップ、および、前記画像内のピクセルの顕著性を示す顕著性マップを備える、[C17]に記載のデバイス。
[C22]前記画像は、第1の目に対する立体ビデオの第1の画像を備え、前記デバイスは、
第2の目に対する前記立体ビデオの第2の画像を受信するための手段、ここにおいて、前記第1の画像および前記第2の画像の画像内容は実質的に同様である、と、
少なくとも前記第1の画像の前記デプスマップ値および前記第1の画像の前記知覚マップ値に基づいて前記第2の画像の第1の部分を前記第2の画像の第2の部分に対して強調するための手段と、
をさらに備える、[C17]に記載のデバイス。
[C23]前記デバイスは、
強調マップの強調マップ値を生成するために、前記デプスマップ値および前記知覚マップ値に対して加重和を実行するための手段をさらに備え、
ここにおいて、前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調するための前記手段は、前記強調マップ値に基づいて、前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調するための手段をさらに備える、[C17]に記載のデバイス。
[C24]前記デプスマップの前記デプス値をフィルタリングするための手段と、
前記デプスマップの前記デプス値を平滑化するための手段と、
前記デプスマップの前記デプス値をヒストグラム伸張するための手段と、
のうちの少なくとも1つをさらに備える、[C17]に記載のデバイス。
[C25]命令を備えるコンピュータ可読記憶媒体であって、前記命令は1つまたは複数のプロセッサに以下をさせる、
画像を受信すること、
前記画像内のピクセルの相対深度を示す、前記画像のデプスマップのデプスマップ値を決定すること、
前記画像の知覚マップの知覚マップ値を決定すること、
少なくとも前記デプスマップ値および前記知覚マップ値に基づいて前記画像の第1の部分を前記画像の第2の部分に対して強調すること。
[C26]前記画像の前記第1の部分を前記第2の部分に対して強調するための前記命令は、
前記第1の部分内のピクセルを強調し、前記第2の部分内のピクセルは強調しない、
前記第2の部分内の前記ピクセルをぼかし、前記第1の部分内の前記ピクセルはぼかさない、および
前記第1の部分内の前記ピクセルを強調し、前記第2の部分内の前記ピクセルをぼかす
のうちの少なくとも1つのための命令を備える、[C25]に記載のコンピュータ可読記憶媒体。
[C27]前記デプスマップのデプス値を求めるための前記命令は、いずれのピクセルが前記画像の前景にある物体のためのものであるかを決定するための命令を備え、
前記知覚マップの知覚マップ値を決定するための前記命令は、前記画像内の物体の動き情報を決定するための命令を備え、
前記画像の前記第1の部分を前記第2の部分に対して強調するための前記命令は、前記動き情報によって決定される、前記画像の前記前景にあって遅く動いている物体のピクセルを、前記動き情報によって決定される、前記画像の背景にあって速く動いている物体のピクセルに対して強調するための命令を備える、[C25]に記載のコンピュータ可読記憶媒体。
[C28]前記デプスマップのデプス値を求めるための前記命令は、いずれのピクセルが前記画像の前景にある物体のためのものであるかを決定するための命令を備え、
前記知覚マップ値を決定するための前記命令は、前記画像内のピクセルの顕著性情報を決定するための命令を備え、
前記画像の前記第1の部分を前記第2の部分に対して強調するための前記命令は、より目立つ、前記画像の前記前景にある物体のピクセルを、より目立たない、前記画像の背景にある物体のピクセルに対して強調するための命令を備える、[C25]に記載のコンピュータ可読記憶媒体。
[C29]前記知覚マップは、前記画像内の物体の知覚速度を示す動き情報マップ、および、前記画像内のピクセルの顕著性を示す顕著性マップを備える、[C25]に記載のコンピュータ可読記憶媒体。
[C30]前記画像は、第1の目に対する立体ビデオの第1の画像を備え、前記命令は、前記1つまたは複数のプロセッサに、
第2の目に対する前記立体ビデオの第2の画像を受信させ、ここで、前記第1の画像および前記第2の画像の画像内容は実質的に同様であり、
少なくとも前記第1の画像の前記デプスマップ値および前記第1の画像の前記知覚マップ値に基づいて前記第2の画像の第1の部分を前記第2の画像の第2の部分に対して強調させる、
命令をさらに備える、[C25]に記載のコンピュータ可読記憶媒体。
[C31]前記命令は、前記1つまたは複数のプロセッサに、
強調マップの強調マップ値を生成するために、前記デプスマップ値および前記知覚マップ値に対して加重和を実行させ、
前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調するための前記手段は、前記強調マップ値に基づいて、前記画像の前記第1の部分を前記画像の前記第2の部分に対して強調させる、
命令をさらに備える、[C25]に記載のコンピュータ可読記憶媒体。
[C32]前記1つまたは複数のプロセッサに、
前記デプスマップの前記デプス値をフィルタリングする、
前記デプスマップの前記デプス値を平滑化する、および
前記デプスマップの前記デプス値をヒストグラム伸張する、
のうちの少なくとも1つを行わせる命令をさらに備える、[C25]に記載のコンピュータ可読記憶媒体。

Claims (29)

  1. 画像処理のための方法であって、前記方法は以下を備える、
    第1の部分および第2の部分を含む構成画像を受信することと、
    少なくとも、いずれのピクセルが前記構成画像の前景にある物体のためのものであるかを決定することによって、前記構成画像内のピクセルの相対深度を示す、前記構成画像のデプスマップのデプスマップ値を決定することと、
    少なくとも、前記構成画像内の物体のピクセルの動き情報を決定することによって、前記構成画像の知覚マップの知覚マップ値を決定することと、
    前記構成画像の強調されたバージョンを生成するために少なくとも前記デプスマップ値および前記知覚マップ値に基づいて前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調すること、ここにおいて、前記構成画像の前記第1の部分は、前記知覚マップ値によって決定される、前記構成画像の前記前景にあって、閾値より遅く動いている物体のピクセルを含み、前記構成画像の前記第2の部分は、前記知覚マップ値によって決定される、前記構成画像の背景にある物体のピクセルと前記閾値より速く動いている物体のピクセルとを含む。
  2. 前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調することは、
    前記第1の部分内のピクセルを強調し、前記第2の部分内のピクセルは強調しないことと、
    前記第2の部分内の前記ピクセルをぼかし、前記第1の部分内の前記ピクセルはぼかさないことと、
    前記第1の部分内の前記ピクセルを強調し、前記第2の部分内の前記ピクセルをぼかすことと、
    のうちの少なくとも1つを備える、請求項1に記載の方法。
  3. 知覚マップ値を決定することは、前記構成画像内のピクセルの顕著性情報を決定することを備え、
    前記構成画像の前記第1の部分を前記第2の部分に対して強調することは、より目立つ、前記構成画像の前記前景にある物体のピクセルを、より目立たない、前記構成画像の背景にある物体のピクセルに対して強調することを備える、請求項1に記載の方法。
  4. 前記知覚マップは、前記構成画像内の物体の知覚速度を示す動き情報マップ、または、前記構成画像内の物体の知覚速度を示す前記動き情報マップおよび前記構成画像内のピクセルの顕著性を示す顕著性マップを備える、請求項1に記載の方法。
  5. 前記構成画像は、第1の目に対する立体ビデオの第1の構成画像を備え、前記方法は、
    第2の目に対する前記立体ビデオの第2の構成画像を受信すること、ここにおいて、前記第1の構成画像および前記第2の構成画像の画像内容は実質的に同様である、と、
    少なくとも前記第1の構成画像の前記デプスマップ値および前記第1の構成画像の前記知覚マップ値に基づいて前記第2の構成画像の第1の部分を前記第2の構成画像の第2の部分に対して強調することと、
    をさらに備える、請求項1に記載の方法。
  6. 強調マップの強調マップ値を生成するために、前記デプスマップ値および前記知覚マップ値に対して加重和を実行することをさらに備え、
    前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調することは、前記強調マップ値に基づいて、前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調することを備える、請求項1に記載の方法。
  7. 前記デプスマップの前記デプスマップ値をフィルタリングすることと、
    前記デプスマップの前記デプスマップ値を平滑化することと、
    前記デプスマップの前記デプスマップ値をヒストグラム伸張することと、
    のうちの少なくとも1つをさらに備える、請求項1に記載の方法。
  8. 前記構成画像および前記構成画像の前記強調されたバージョンは、同じビューからのものである、請求項1に記載の方法。
  9. デバイスであって、前記デバイスは以下を備える、
    第1の部分および第2の部分を含む構成画像を記憶するように構成されているメモリと、
    1つまたは複数の処理ユニット、ここで、前記1つまたは複数の処理ユニットは、以下を行うように構成されている、
    前記構成画像を受信することと、
    少なくとも、いずれのピクセルが前記構成画像の前景にある物体のためのものであるかを決定することによって、前記構成画像内のピクセルの相対深度を示す、前記構成画像のデプスマップのデプスマップ値を決定することと、
    少なくとも、前記構成画像内の物体の動き情報を決定することによって、前記構成画像の知覚マップの知覚マップ値を決定することと、
    前記構成画像の強調されたバージョンを生成するために少なくとも前記デプスマップ値および前記知覚マップ値に基づいて前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調すること、ここにおいて、前記構成画像の前記第1の部分は、前記知覚マップ値によって決定される、前記構成画像の前記前景にあって、閾値より遅く動いている物体のピクセルを含み、前記構成画像の前記第2の部分は、前記知覚マップ値によって決定される、前記構成画像の背景にある物体のピクセルと、前記閾値より速く動いている物体のピクセルとを含む。
  10. 前記構成画像の前記第1の部分を前記第2の部分に対して強調するために、前記1つまたは複数の処理ユニットは、
    前記第1の部分内のピクセルを強調し、前記第2の部分内のピクセルは強調しないことと、
    前記第2の部分内の前記ピクセルをぼかし、前記第1の部分内の前記ピクセルはぼかさないことと、
    前記第1の部分内の前記ピクセルを強調し、前記第2の部分内の前記ピクセルをぼかすことと、
    のうちの少なくとも1つを行うように構成されている、請求項9に記載のデバイス。
  11. 前記1つまたは複数の処理ユニットは、
    少なくとも、前記構成画像内のピクセルの顕著性情報を決定することによって前記知覚マップの知覚マップ値を決定することと、
    少なくとも、より目立つ、前記構成画像の前記前景にある物体のピクセルを、より目立たない、前記構成画像の背景にある物体のピクセルに対して強調することによって、前記構成画像の前記第1の部分を前記第2の部分に対して強調することと、
    を行うように構成されている、請求項9に記載のデバイス。
  12. 前記知覚マップは、前記構成画像内の物体の知覚速度を示す動き情報マップ、または、前記構成画像内の物体の知覚速度を示す前記動き情報マップおよび前記構成画像内のピクセルの顕著性を示す顕著性マップを備える、請求項9に記載のデバイス。
  13. 前記構成画像は、第1の目に対する立体ビデオの第1の構成画像を備え、前記1つまたは複数の処理ユニットは、
    第2の目に対する前記立体ビデオの第2の構成画像を受信すること、ここにおいて、前記第1の構成画像および前記第2の構成画像の画像内容は実質的に同様である、と、
    少なくとも前記第1の構成画像の前記デプスマップ値および前記第1の構成画像の前記知覚マップ値に基づいて前記第2の構成画像の第1の部分を前記第2の構成画像の第2の部分に対して強調することと、
    を行うように構成されている、請求項9に記載のデバイス。
  14. 前記1つまたは複数の処理ユニットは、
    強調マップの強調マップ値を生成するために、前記デプスマップ値および前記知覚マップ値に対して加重和を実行することと、
    前記強調マップ値に基づいて、前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調することと、
    を行うように構成されている、請求項9に記載のデバイス。
  15. 前記1つまたは複数の処理ユニットは、
    前記デプスマップの前記デプスマップ値をフィルタリングすることと、
    前記デプスマップの前記デプスマップ値を平滑化することと、
    前記デプスマップの前記デプスマップ値をヒストグラム伸張することと、
    のうちの少なくとも1つを行うように構成されている、請求項9に記載のデバイス。
  16. デバイスであって、前記デバイスは以下を備える、
    第1の部分および第2の部分を含む構成画像を受信するための手段と、
    少なくとも、いずれのピクセルが前記構成画像の前景にある物体のためのものであるかを決定することによって、前記構成画像内のピクセルの相対深度を示す、前記構成画像のデプスマップのデプスマップ値を決定するための手段と、
    少なくとも、前記構成画像内の物体の動き情報を決定することによって、前記構成画像の知覚マップの知覚マップ値を決定するための手段と、
    前記構成画像の強調されたバージョンを生成するために少なくとも前記デプスマップ値および前記知覚マップ値に基づいて前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調するための手段、ここにおいて、前記構成画像の前記第1の部分は、前記知覚マップ値によって決定される、前記構成画像の前記前景にあって、閾値より遅く動いている物体のピクセルを含み、前記構成画像の前記第2の部分は、前記知覚マップ値によって決定される、前記構成画像の背景にある物体のピクセルと、前記閾値より速く動いている物体のピクセルとを含む。
  17. 前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して前記強調するための手段は、
    前記第1の部分内のピクセルを強調し、前記第2の部分内のピクセルは強調しないための手段と、
    前記第2の部分内の前記ピクセルをぼかし、前記第1の部分内の前記ピクセルはぼかさないための手段と、
    前記第1の部分内の前記ピクセルを強調し、前記第2の部分内の前記ピクセルをぼかすための手段と、
    のうちの少なくとも1つを備える、請求項16に記載のデバイス。
  18. 知覚マップ値を前記決定するための手段は、前記構成画像内のピクセルの顕著性情報を決定するための手段を備え、
    前記構成画像の前記第1の部分を前記第2の部分に対して前記強調するための手段は、より目立つ、前記構成画像の前記前景にある物体のピクセルを、より目立たない、前記構成画像の背景にある物体のピクセルに対して強調するための手段を備える、請求項16に記載のデバイス。
  19. 前記知覚マップは、前記構成画像内の物体の知覚速度を示す動き情報マップ、または、前記構成画像内の物体の知覚速度を示す前記動き情報マップおよび前記構成画像内のピクセルの顕著性を示す顕著性マップを備える、請求項16に記載のデバイス。
  20. 前記構成画像は、第1の目に対する立体ビデオの第1の構成画像を備え、前記デバイスは、
    第2の目に対する前記立体ビデオの第2の構成画像を受信するための手段、ここにおいて、前記第1の構成画像および前記第2の構成画像の画像内容は実質的に同様である、と、
    少なくとも前記第1の構成画像の前記デプスマップ値および前記第1の構成画像の前記知覚マップ値に基づいて前記第2の構成画像の第1の部分を前記第2の構成画像の第2の部分に対して強調するための手段と、
    をさらに備える、請求項16に記載のデバイス。
  21. 強調マップの強調マップ値を生成するために、前記デプスマップ値および前記知覚マップ値に対して加重和を実行するための手段をさらに備え、
    前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して前記強調するための手段は、前記強調マップ値に基づいて、前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調するための手段を備える、請求項16に記載のデバイス。
  22. 前記デプスマップの前記デプスマップ値をフィルタリングするための手段と、
    前記デプスマップの前記デプスマップ値を平滑化するための手段と、
    前記デプスマップの前記デプスマップ値をヒストグラム伸張するための手段と、
    のうちの少なくとも1つをさらに備える、請求項16に記載のデバイス。
  23. 命令を備える非一時的なコンピュータ可読記憶媒体であって、前記命令は1つまたは複数のプロセッサに以下をさせる、
    1の部分および第2の部分を含む構成画像を受信すること
    少なくとも、いずれのピクセルが前記構成画像の前景にある物体のためのものであるかを決定することによって、前記構成画像内のピクセルの相対深度を示す、前記構成画像のデプスマップのデプスマップ値を決定すること
    少なくとも、前記構成画像内の物体の動き情報を決定することによって、前記構成画像の知覚マップの知覚マップ値を決定すること
    前記構成画像の強調されたバージョンを生成するために少なくとも前記デプスマップ値および前記知覚マップ値に基づいて前記構成画像の第1の部分を前記構成画像の第2の部分に対して強調すること、ここにおいて、前記構成画像の前記第1の部分は、前記知覚マップ値によって決定される、前記構成画像の前記前景にあって、閾値より遅く動いている物体のピクセルを含み、前記構成画像の前記第2の部分は、前記知覚マップ値によって決定される、前記構成画像の背景にある物体のピクセルと、前記閾値より速く動いている物体のピクセルとを含む。
  24. 前記構成画像の前記第1の部分を前記第2の部分に対して強調するための前記命令は、
    前記第1の部分内のピクセルを強調し、前記第2の部分内のピクセルは強調しないことと、
    前記第2の部分内の前記ピクセルをぼかし、前記第1の部分内の前記ピクセルはぼかさないことと、
    前記第1の部分内の前記ピクセルを強調し、前記第2の部分内の前記ピクセルをぼかすことと、
    のうちの少なくとも1つのための命令を備える、請求項23に記載の非一時的なコンピュータ可読記憶媒体。
  25. 知覚マップ値を決定するための前記命令は、前記構成画像内のピクセルの顕著性情報を決定するための命令を備え、
    前記構成画像の前記第1の部分を前記第2の部分に対して強調するための前記命令は、より目立つ、前記構成画像の前記前景にある物体のピクセルを、より目立たない、前記構成画像の背景にある物体のピクセルに対して強調するための命令を備える、請求項23に記載の非一時的なコンピュータ可読記憶媒体。
  26. 前記知覚マップは、前記構成画像内の物体の知覚速度を示す動き情報マップ、または、前記構成画像内の物体の知覚速度を示す前記動き情報マップおよび前記構成画像内のピクセルの顕著性を示す顕著性マップを備える、請求項23に記載の非一時的なコンピュータ可読記憶媒体。
  27. 前記構成画像は、第1の目に対する立体ビデオの第1の構成画像を備え、前記命令は、前記1つまたは複数のプロセッサに、
    第2の目に対する前記立体ビデオの第2の構成画像を受信すること、ここにおいて、前記第1の構成画像および前記第2の構成画像の画像内容は実質的に同様である、と、
    少なくとも前記第1の構成画像の前記デプスマップ値および前記第1の構成画像の前記知覚マップ値に基づいて前記第2の構成画像の第1の部分を前記第2の構成画像の第2の部分に対して強調することと、
    をさせる命令をさらに備える、請求項23に記載の非一時的なコンピュータ可読記憶媒体。
  28. 前記命令は、前記1つまたは複数のプロセッサに、
    強調マップの強調マップ値を生成するために、前記デプスマップ値および前記知覚マップ値に対して加重和を実行させる命令をさらに備え、
    前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調するための前記命令は、前記強調マップ値に基づいて、前記構成画像の前記第1の部分を前記構成画像の前記第2の部分に対して強調するための命令を備える、請求項23に記載の非一時的なコンピュータ可読記憶媒体。
  29. 前記1つまたは複数のプロセッサに、
    前記デプスマップの前記デプスマップ値をフィルタリングすることと、
    前記デプスマップの前記デプスマップ値を平滑化することと、
    前記デプスマップの前記デプスマップ値をヒストグラム伸張することと、
    のうちの少なくとも1つをさせるための命令をさらに備える、請求項23に記載の非一時的なコンピュータ可読記憶媒体。
JP2015501680A 2012-03-22 2013-02-20 画像強調 Active JP6042525B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/427,167 US9286658B2 (en) 2012-03-22 2012-03-22 Image enhancement
US13/427,167 2012-03-22
PCT/US2013/026927 WO2013141997A1 (en) 2012-03-22 2013-02-20 Image enhancement

Publications (3)

Publication Number Publication Date
JP2015516627A JP2015516627A (ja) 2015-06-11
JP2015516627A5 JP2015516627A5 (ja) 2016-06-23
JP6042525B2 true JP6042525B2 (ja) 2016-12-14

Family

ID=47843423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015501680A Active JP6042525B2 (ja) 2012-03-22 2013-02-20 画像強調

Country Status (5)

Country Link
US (1) US9286658B2 (ja)
EP (1) EP2828823A1 (ja)
JP (1) JP6042525B2 (ja)
CN (1) CN104246822B (ja)
WO (1) WO2013141997A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE536510C2 (sv) * 2012-02-21 2014-01-14 Flir Systems Ab Bildbehandlingsmetod för detaljförstärkning och brusreduktion
KR101934261B1 (ko) * 2012-07-09 2019-01-03 삼성전자 주식회사 이미지 해상도 변화 방법과 장치, 및 상기 장치를 포함하는 전자 장치
CN102970548B (zh) * 2012-11-27 2015-01-21 西安交通大学 一种图像深度感知装置
US20150228106A1 (en) * 2014-02-13 2015-08-13 Vixs Systems Inc. Low latency video texture mapping via tight integration of codec engine with 3d graphics engine
US20150287174A1 (en) * 2014-04-04 2015-10-08 Digital Signal Corporation System and Method for Improving an Image Characteristic of Image Frames in a Video Stream
US20160189355A1 (en) * 2014-12-29 2016-06-30 Dell Products, Lp User controls for depth based image editing operations
CN107851309A (zh) * 2016-04-05 2018-03-27 华为技术有限公司 一种图像增强方法及装置
CN108230444B (zh) * 2016-12-14 2021-06-01 中国航空工业集团公司西安航空计算技术研究所 一种通用的增强型合成视景计算平台
CN109002750B (zh) * 2017-12-11 2021-03-30 罗普特科技集团股份有限公司 一种基于显著性检测与图像分割的相关滤波跟踪方法
CN109360222B (zh) * 2018-10-25 2021-07-16 北京达佳互联信息技术有限公司 图像分割方法、装置及存储介质
CN109598753B (zh) * 2018-11-28 2021-02-19 联想(北京)有限公司 图像处理方法及装置
CN110189340B (zh) 2019-06-03 2022-01-21 北京达佳互联信息技术有限公司 图像分割方法、装置、电子设备及存储介质
JP7354686B2 (ja) 2019-08-27 2023-10-03 株式会社リコー 出力制御装置、表示制御システム、出力制御方法およびプログラム
CN112784704A (zh) * 2021-01-04 2021-05-11 上海海事大学 一种面向小样本视频动作分类的方法
CN112887605B (zh) * 2021-01-26 2022-09-30 维沃移动通信有限公司 图像防抖方法、装置及电子设备
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6108005A (en) * 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
CA2550842A1 (en) * 2003-12-30 2005-07-21 The Trustees Of The Stevens Institute Of Technology Three-dimensional imaging system using optical pulses, non-linear optical mixers and holographic calibration
US8325220B2 (en) * 2005-12-02 2012-12-04 Koninklijke Philips Electronics N.V. Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input
KR100873638B1 (ko) * 2007-01-16 2008-12-12 삼성전자주식회사 영상 처리 방법 및 장치
US7911513B2 (en) 2007-04-20 2011-03-22 General Instrument Corporation Simulating short depth of field to maximize privacy in videotelephony
CN101287143B (zh) * 2008-05-16 2010-09-15 清华大学 基于实时人机对话的平面视频转立体视频的方法
CN101587586B (zh) 2008-05-20 2013-07-24 株式会社理光 一种图像处理装置及图像处理方法
WO2009152769A1 (zh) 2008-06-17 2009-12-23 深圳华为通信技术有限公司 视频通讯方法、装置及***
EP2384584B1 (en) 2009-01-30 2017-03-15 Thomson Licensing Coding of depth maps
US8180178B2 (en) * 2009-06-24 2012-05-15 Hewlett-Packard Development Company, L.P. Autocropping and autolayout method for digital images
US8711204B2 (en) * 2009-11-11 2014-04-29 Disney Enterprises, Inc. Stereoscopic editing for video production, post-production and display adaptation
US9218644B2 (en) 2009-12-17 2015-12-22 Broadcom Corporation Method and system for enhanced 2D video display based on 3D video input
CA2783588C (en) * 2009-12-22 2017-06-13 Thomson Licensing Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
CN103069814B (zh) * 2010-08-10 2016-05-11 株式会社尼康 图像处理装置、图像处理方法、显示装置、显示方法及程序
JP5609425B2 (ja) * 2010-08-24 2014-10-22 株式会社ニコン 画像処理装置、撮像装置、及び画像処理プログラム
JP5150698B2 (ja) * 2010-09-30 2013-02-20 株式会社東芝 デプス補正装置及び方法
US9094660B2 (en) * 2010-11-11 2015-07-28 Georgia Tech Research Corporation Hierarchical hole-filling for depth-based view synthesis in FTV and 3D video
JP2013012045A (ja) * 2011-06-29 2013-01-17 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置及びコンピュータプログラム

Also Published As

Publication number Publication date
CN104246822B (zh) 2017-06-06
WO2013141997A1 (en) 2013-09-26
US9286658B2 (en) 2016-03-15
JP2015516627A (ja) 2015-06-11
EP2828823A1 (en) 2015-01-28
US20130251281A1 (en) 2013-09-26
CN104246822A (zh) 2014-12-24

Similar Documents

Publication Publication Date Title
JP6042525B2 (ja) 画像強調
KR101775253B1 (ko) 2차원 이미지 또는 비디오의 3차원 스테레오 이미지 또는 비디오로의 실시간 자동 변환
US9922681B2 (en) Techniques for adding interactive features to videos
US10095953B2 (en) Depth modification for display applications
US10935788B2 (en) Hybrid virtual 3D rendering approach to stereovision
US20160301868A1 (en) Automated generation of panning shots
US10713760B2 (en) Configuration for rendering virtual reality with an adaptive focal plane
EP2755187A2 (en) 3d-animation effect generation method and system
US10957063B2 (en) Dynamically modifying virtual and augmented reality content to reduce depth conflict between user interface elements and video content
WO2008086049A1 (en) Rendering 3d video images on a stereo-enabled display
KR20160045561A (ko) 이미지 안티 에일리어싱 방법 및 장치
Kellnhofer et al. Optimizing disparity for motion in depth
US8817081B2 (en) Image processing apparatus, image processing method, and program
CN108027646A (zh) 一种终端显示防抖方法及装置
US10114447B2 (en) Image processing method and apparatus for operating in low-power mode
TW202303374A (zh) 具有訊框外插的高品質ui元素
Cheng et al. 51.3: An Ultra‐Low‐Cost 2‐D/3‐D Video‐Conversion System
JP2015149547A (ja) 画像処理方法、画像処理装置、及び電子機器
Rößing et al. Real‐Time Disparity Map‐Based Pictorial Depth Cue Enhancement
Tariq et al. Perceptually adaptive real-time tone mapping
Shen et al. 3-D perception enhancement in autostereoscopic TV by depth cue for 3-D model interaction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160426

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160426

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161109

R150 Certificate of patent or registration of utility model

Ref document number: 6042525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250