JP2024007899A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2024007899A
JP2024007899A JP2022109291A JP2022109291A JP2024007899A JP 2024007899 A JP2024007899 A JP 2024007899A JP 2022109291 A JP2022109291 A JP 2022109291A JP 2022109291 A JP2022109291 A JP 2022109291A JP 2024007899 A JP2024007899 A JP 2024007899A
Authority
JP
Japan
Prior art keywords
image
hand
processing device
noise
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022109291A
Other languages
English (en)
Inventor
良隆 佐々木
Yoshitaka Sasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022109291A priority Critical patent/JP2024007899A/ja
Priority to US18/335,371 priority patent/US20240013361A1/en
Publication of JP2024007899A publication Critical patent/JP2024007899A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】CG画像に手の画像を重ねて合成する場合に、より適切な手の画像を合成できる技術を提供する。【解決手段】画像処理装置は、ユーザの手を撮像した第1の画像の画素に、前記第1の画像における当該画素の位置に応じた補正量で補正する補正処理が施された第2の画像を取得する取得手段と、前記第1の画像における手の位置に対する前記補正処理の前記補正量に基づき、前記第2の画像のノイズの低減強度を設定する設定手段と、前記設定手段により設定された前記低減強度で前記第2の画像のノイズを低減した第3の画像を生成する処理手段と、前記第3の画像から前記手の領域を検出する検出手段と、前記検出手段が検出した手の領域の情報を参照して、前記第3の画像に、CG画像と前記手の領域の画像とを合成して合成画像を生成する合成手段とを有する。【選択図】図2

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
現実空間と仮想空間との繋ぎ目のない結合を実現する複合現実(MR:Mixed Reality)に関する技術の1つとして、ビデオシースルー方式のヘッドマウントディスプレイ(HMD)を用いるMRシステムが知られている。MRシステムでは、撮像装置(ビデオカメラなど)が現実空間を撮像した画像(撮像画像)に対して、撮像装置の位置姿勢に応じたCG画像が合成された合成画像が生成される。そして、合成画像が、表示装置(HMDのディスプレイなど)に表示されることにより、ユーザは合成画像を観察する。
MRシステムは、例えば、ハンドトラッキング機能(撮像画像から手を検出してその動きを追跡する機能)、ハンドジェスチャー機能(撮像画像における手の形状を認識する機能)を有する。また、MRシステムは、例えば、ハンドマスク機能(撮像画像から手を抽出して、手がCG画像に隠れないようにCG画像上に手を合成する機能)を有する。これらの機能は、画像処理(撮像装置のレンズに起因する撮像画像の明るさのばらつきを低減する処理)によるノイズの増幅の影響を受けて性能が低下する場合がある。
このため、特許文献1では、ノイズが増幅される前の撮像画像から手の位置を検出することにより、ノイズの影響を抑制する技術が開示されている。
特開2011-166535号公報
しかしながら、ハンドマスク機能では、手の1点の位置だけでなく、手の領域を検出しなければならない。このため、ノイズが増幅される前の撮像画像から手の領域を検出する場合であっても、レンズに起因して各位置で明るさにばらつきのあるために、適切に手の領域を検出できないことがある。つまり、ハンドマスク機能において、適切な手の領域をCG画像に合成できない。
そこで、本発明は、CG画像に手の領域の画像を重ねて合成する場合に、より適切な手の領域の画像を合成できる技術を提供することを目的とする。
本発明の1つの態様は、
ユーザの手を撮像した第1の画像の画素に、前記第1の画像における当該画素の位置に応じた補正量で補正する補正処理が施された第2の画像を取得する取得手段と、
前記第1の画像における前記手の位置に対する前記補正処理の前記補正量に基づき、前記第2の画像のノイズの低減強度を設定する設定手段と、
前記設定手段により設定された前記低減強度で前記第2の画像のノイズを低減した第3の画像を生成する処理手段と、
前記第3の画像から前記手の領域を検出する検出手段と、
前記検出手段が検出した手の領域の情報を参照して、前記第3の画像に、CG画像と前
記手の領域の画像とを合成して合成画像を生成する合成手段と、
を有することを特徴とする画像処理装置である。
本発明の1つの態様は、
ユーザの手を撮像した第1の画像の画素に、前記第1の画像における当該画素の位置に応じた補正量で補正する補正処理が施された第2の画像を取得する取得ステップと、
前記第1の画像における前記手の位置に対する前記補正処理の前記補正量に基づき、前記第2の画像のノイズの低減強度を設定する設定ステップと、
前記設定ステップにおいて設定された前記低減強度で前記第2の画像のノイズを低減した第3の画像を生成する処理ステップと、
前記第3の画像から前記手の領域を検出する検出ステップと、
前記検出ステップにおいて検出された手の領域の情報を参照して、前記第3の画像に、CG画像と前記手の領域の画像とを合成して合成画像を生成する合成ステップと、
を有することを特徴とする画像処理方法である。
本発明によれば、CG画像に手の領域の画像を重ねて合成する場合に、より適切な手の領域の画像を合成できる。
実施形態1に係る画像処理装置のハードウェア構成図である。 実施形態1に係る画像処理装置の論理構成図である。 実施形態1に係る画像生成処理を示すフローチャートである。 実施形態1に係る手の位置およびシェーディング特性を説明する図である。 実施形態1に係る低減パラメータの算出に関する関数を説明する図である。 実施形態1に係る合成画像の例を説明する図である。 実施形態1に係る位置検出処理を示すフローチャートである。 実施形態1に係る領域検出処理を示すフローチャートである。 実施形態2に係る画像処理装置の論理構成図である。 実施形態2に係る画像生成処理を示すフローチャートである。 実施形態3に係る画像処理装置の論理構成図である。 実施形態3に係る画像生成処理を示すフローチャートである。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
<実施形態1>
図1は、実施形態1に係る画像処理装置1のハードウェア構成を示す。画像処理装置1は、CPU101、RAM102、記憶装置103、撮像装置104、汎用インターフェース(I/F)105、表示装置108、メインバス109を有する。汎用I/F105は、制御装置106(例えば、PC)および外部メモリ107(例えば、メモリーカード)をメインバス109に接続する。
以下では、記憶装置103に格納された各種ソフトウェア(コンピュータプログラム)に従ってCPU101が動作することで実現される各種処理について説明する。各種処理が行われる場合には、まず、CPU101は、記憶装置103に格納されている処理アプリケーションを起動してRAM102に展開するとともに、表示装置108にユーザインターフェース(UI)を表示する。続いて、CPU101は、各種データ(記憶装置103や外部メモリ107に格納されているデータ)、撮像画像(撮像装置104により取得された画像)、または制御装置106からの指示などをRAM102に転送する。さらに
、CPU101は、画像処理アプリケーションが示す処理内容に従って、RAM102に格納されている画像に関して各種演算を行う。演算結果は、表示装置108(ディスプレイ;モニタ)に表示されてもよいし、記憶装置103または外部メモリ107に格納されてもよい。
次に、図2の論理構成図を参照して、実施形態1に係る画像処理装置1の論理構成について説明する。画像処理装置1は、画像取得部201、位置検出部202、補正量算出部203、NR強度設定部204、ノイズ低減処理部205、領域検出部206、合成部207、表示制御部208を有する。なお、例えば、CPU101がこれらの各構成として動作することにより、各構成の処理が実現される。また、各構成が取得した情報(データ)、および各構成が処理した情報(データ)は、RAM102に格納される。
画像取得部201は、ユーザの手が位置する現実空間を撮像した情報を撮像画像として撮像装置104から取得する。また、画像取得部201は、撮像装置104のレンズに起因する撮像画像全体の明るさ(輝度)のばらつきを補正するためのシェーディング補正(補正処理;周辺光量落ちの補正)を撮像画像に施した画像(以降、「補正済画像」と呼ぶ)を生成する。ここでは、画像取得部201は、撮像画像における画素の画素値を、当該画素の位置に応じたゲイン(シェーディング補正量)で補正する。
ここで、撮像を行う際のレンズの影響によって、撮像画像では、像高が高い領域ほど(撮像画像の光学中心位置から離れた領域ほど)暗い傾向がある。このため、画像取得部201は、記憶装置103に予め保持されているシェーディング特性(像高と輝度の関係)の情報に基づき、像高が高い(光学中心位置から遠い)画素ほどシェーディング補正量を大きくする。例えば、画像取得部201は、撮像画像の光学中心位置の画素の画素値には、シェーディング補正量として1を乗算することにより、当該画素値を補正する。一方で、画像取得部201は、例えば、撮像画像の四隅に近い画素の画素値には、シェーディング補正量として1.5を乗算することにより、当該画素値を大きくするように補正する。なお、シェーディング補正は、撮像画像の全体(全ての画素)に行われる必要はなく、撮像画像の周辺部の画素にのみ行われてもよい。つまり、撮像画像の周辺部の画素の画素値に対してのみ、シェーディング補正量を用いた乗算が行われてもよい。
このようにシェーディング補正(補正処理)が行われると、撮像画像の明るさのばらつきが低減されて、色情報を利用することによる手の検出が容易になる。つまり、シェーディング補正が行われることによれば、例えば、ある人物を撮像した画像をシェーディング補正した画像において、画像の光学中心と四隅とでその人物の肌の色が異なる色になる可能性を低減することができる。一方で、シェーディング補正前の撮像画像から手を検出しようとすると、手の位置により明るさや色が変化することになるため、手(手の位置や領域)を安定して検出することが困難になる。
なお、撮像画像は、複数フレームの静止画から構成される動画であってもよいし、1つの静止画であってもよい。これは、以降に説明する画像処理は、フレーム単位で実施可能であり、画像処理が行われる画像の種類(動画または静止画)に依存しないためである。
また、画像取得部201は、撮像画像から補正済画像を生成せずに、撮像装置104から補正済画像を取得してもよい。つまり、撮像装置104が補正済画像を生成してもよい。
位置検出部202は、補正済画像からユーザの手の位置(手の位置情報)を検出する。
補正量算出部203は、手の位置情報と、シェーディング特性(像高と輝度の関係)の
情報とに基づき、手の位置に対応するシェーディング補正量を算出する。手の位置に対応するシェーディング補正量とは、画像取得部201が、撮像画像における手の位置に対して実行したシェーディング処理のシェーディング補正量である。
NR強度設定部204は、手の位置に対応するシェーディング補正量に応じて、ノイズ低減強度を示す低減パラメータ(ノイズ低減強度のパラメータ)を更新(設定)する。なお、低減パラメータの初期値は、例えば、画像処理装置1の製造者(メーカー)によって予め設定されている。
ノイズ低減処理部205は、更新された低減パラメータを参照して、補正済画像に対して、ノイズ低減処理(シェーディング補正により生じたノイズを低減する処理)を施す。
領域検出部206は、ノイズ低減処理が施された補正済画像(以降、「ノイズ低減画像」と呼ぶ)から手の領域(手領域)を検出して、手領域の画像を取得する。
合成部207は、手領域の画像と、CG画像(記憶装置103や制御装置106、外部メモリ107から読み込んだCG画像)とを、ノイズ低減画像に合成した画像(合成画像)を生成する。なお、合成部207は、ノイズ低減画像の代わりに、撮像画像または補正済画像に対して、手領域の画像とCG画像を合成してもよい。CG画像は、仮想物体(例えば、特定の家具または家電などの物体)を示す画像である。
表示制御部208は、合成画像を表示するように表示装置108を制御する。
(画像生成処理について)
図3のフローチャートを参照して、画像処理装置1において合成画像を生成するための画像生成処理(画像処理方法)の詳細について説明する。なお、図3に示す各処理は、撮像画像が動画であれば、補正済画像のフレームごとに個別に行われる。
ステップS301では、位置検出部202は、画像取得部201が取得した補正済画像から手の位置(手の位置情報)を検出する。なお、実施形態1では、位置検出部202は、補正済画像から手の位置を検出するが、撮像画像から手の位置を検出してもよい。つまり、位置検出部202は、ノイズ低減処理が行われる前の画像であれば、どの画像から手の位置を検出してもよい。
図4Aは、手の位置を説明する模式図である。以下では、補正済画像の左上画素の位置の座標を座標(0,0)として、補正済画像の幅方向(横方向)をX軸方向とし、高さ方向(縦方向)をY軸方向とする場合を想定する。このような場合には、手の位置として、手が配置されている座標(x,y)が得られる。なお、手の位置は、例えば、これとは異なる座標系により表現されていてもよいし、手領域を囲む多角形の頂点の座標であってもよい。位置検出部202における手の位置の検出処理(位置検出処理)の詳細は後述する(図7参照)。
ステップS302では、補正量算出部203は、ステップS301にて検出された手の位置に対応するシェーディング補正量を算出する。
図4Bは、光学中心の画素の輝度を1とした場合における、像高(光学中心からの距離)がdである画素の輝度(輝度比s)をシェーディング特性(像高と輝度の関係)として示している。つまり、或る物体が光学中心に写っている場合に撮像画像において当該物体の輝度がBであれば、当該物体が像高dの座標に写っている場合には、撮像画像において当該物体の輝度はB×sであることが示されている。図4Bによれば、像高dが高いほど
、輝度比sが低くなることが分かる。
なお、シェーディング特性(像高と輝度の関係)は、撮像装置104のレンズやセンサの特性に応じて決まるため、記憶装置103などに、LUT(ルックアップテーブル)などの形式で予め格納されているとよい。この場合には、補正量算出部203は、LUTを参照することによって、手の位置に応じて、当該手の位置に対応するシェーディング補正量を算出できる。なお、手の位置の座標(x,y)に対応する像高dは、光学中心の座標が(X’/2,Y’/2)であるとすると、次の式1により得られる。
Figure 2024007899000002
補正量算出部203は、LUTを参照して、手の位置の像高dに応じた輝度比sを求めた後に、式2によって、輝度比sの逆数をシェーディング補正量Tとして得る。
Figure 2024007899000003
なお、上述では、シェーディング特性がLUT形式によって保持される例を説明したが、これに限られるものではない。例えば、像高と輝度比の対応を示す関数(モデル式)が記憶装置103などに保持されており、その関数に応じて像高から輝度比が算出できてもよい。また、像高からシェーディング補正量を直接に算出可能なモデルやLUTが保持されていてもよい。
ステップS303では、NR強度設定部204は、手の位置に対応するシェーディング補正量Tに基づき、低減パラメータ(ノイズ低減強度)を更新する。ここで、シェーディング補正の強度が強いほど(つまり、シェーディング補正量Tが大きいほど)、補正済画像においてノイズが強調される。このため、シェーディング補正量Tが大きいほど、強いノイズ低減強度を示す低減パラメータに更新されるとよい。低減パラメータ(ノイズ低減強度)を変更可能なノイズ低減処理には、様々な方法の処理が提案されているため、これらのうち任意の方法の処理を適用することが可能である。
実施形態1では、ノイズ低減処理に、低減パラメータを閾値εとするようなεフィルタを用いる場合について説明する。εフィルタを用いる処理(ノイズ低減処理)は、処理の対象画素の画素値P(n)と、その近傍画素の画素値の差分に応じた処理である。εフィルタを用いる処理では、画素値P(n)との画素値の差分が小さい複数の近傍画素の画素値の平均値に、対象画素の画素値を置き換えることで、補正済画像におけるノイズが低減される。具体的には、εフィルタを用いた処理は、次の式3により表すことができる。
Figure 2024007899000004
式3において、P(n)は、補正済画像における処理の対象画素の画素値である。P(n-k)は、処理の対象画素の近傍の複数の画素のいずれかの画素値(補正済画像における画素値)を示すものである。P(n-k)は、例えば、kが0よりも大きければ、処理の対象画素よりも前の画素のうち対象画素からk番目に近い画素の画素値(補正済画像における画素値)である。P(n-k)は、例えば、kが0よりも小さければ、処理の対象画素よりも後の画素のうち対象画素から-k番目に近い画素の画素値(補正済画像におけ
る画素値)である。P’(n)は、ノイズ低減画像における処理の対象画素の画素値(画素値の出力値)である。
係数aは、a-Nからa+Nまでの総和が1である低域通過フィルタ係数である。関数F(x)は、xが±ε以内である範囲でのみ線形性を有する非線形関数である。図5は、関数F(x)の例である。図5の関数F(x)を用いれば、低減パラメータである閾値εが大きくなると、平均化に用いられる近傍画素の数が増えるため、ノイズ低減強度(ノイズを低減する強さ)が強くなる。そこで、NR強度設定部204は、ステップS302で算出したシェーディング補正量Tを用いて式4に基づき、閾値εを更新する。なお、更新される前の閾値εは、製造者(メーカー)により予め設定された初期値であってもよいし、例えば、前フレーム(前回)の閾値εの値であってもよい。
Figure 2024007899000005
なお、ノイズ低減処理および、低減パラメータ(ノイズ低減強度)の調整方法はこれに限られるものではない。ノイズ低減処理には、例えば、バイラテラルフィルタやNLM(Non Local Means)フィルタなどを利用することもできる。また、低減パラメータの調整方法としては、式4のように直接、低減パラメータが更新されてもよいし、シェーディング補正量と低減パラメータ(ノイズ低減強度)の対応関係を記録したLUTを参照して、低減パラメータが新たに算出(調整)されてもよい。
ステップS304では、ノイズ低減処理部205は、ステップS303にて更新した低減パラメータを用いて、補正済画像のノイズを低減して、ノイズ低減画像を生成する。実施形態1では、ノイズ低減処理部205は、更新した閾値εを用いて、補正済画像に対してεフィルタを適用することによって、補正済画像のノイズを低減する。
ステップS305では、領域検出部206は、ノイズ低減処理が施された補正済画像(ノイズ低減画像)から手領域を検出して、手領域の画像を取得する。なお、手領域を検出する処理(領域検出処理)の詳細は後述する(図8参照)。
ステップS306では、合成部207は、ノイズ低減画像、手領域の画像、およびCG画像(記憶装置103などに記録されているCG画像)を合成して合成画像を生成する。ここで、ノイズ低減画像の手領域とCG画像とが重なる場合には、合成部207は、ノイズ低減画像にCG画像を重畳して、その上から手領域の画像を重畳するように、合成画像を生成する。これにより、ユーザは、常に手領域を見ることができる。
なお、合成画像の生成の際に、ノイズ低減画像(補正済画像)における手領域とCG画像とが重ならない場合には、合成部207は、手領域の画像をノイズ低減画像に合成することを行わない(ハンドマスク機能を実行しない)。これは、ノイズ低減画像における手(手領域)がCG画像によって隠れてしまうということが想定されないためである。
図6A~図6Cは、合成画像の例を説明する模式図である。ここで、図6Aは、手領域602を含むノイズ低減画像601を示している。図6Bは、ノイズ低減画像601にCG画像603を重畳した画像を示している。図6Bに示すように、画像処理装置1が、手領域602を検出せずに、ノイズ低減画像601にCG画像603を合成する場合には、手領域602がCG画像603の後ろに隠れてしまうことがある。
図6Cは、検出した手領域602の画像を参照して、ノイズ低減画像601に対して、CG画像603と手領域602の画像を順に重畳した画像である。このように手領域60
2を検出して、手領域602とCG画像603との関係を考慮した合成を行うことで、CG画像603が示す仮想物体に手で触れているような合成画像が生成できる。なお、合成画像は、合成部207から表示制御部208に送られて、表示装置108に表示される。
(位置検出処理について;S301)
図7のフローチャートを参照して、ステップS301における手の位置を検出する処理(位置検出処理)について説明する。
ステップS701では、位置検出部202は、補正済画像から肌領域を選択するための「肌の色」の情報(人の肌の色を示す色信号値)を取得する。「肌の色」の情報の取得方法には、任意の公知の方法を用いることができる。例えば、位置検出部202は、記憶装置103に予め格納された「肌の色」の色信号値(明るさY、彩度Cおよび色相H)を取得してもよいし、撮像画像における手領域のうちの1つの画素をユーザ操作に応じて選択して、その画素の色信号値を取得してもよい。後者の場合には、選択した画素の座標自体を、位置検出部202による位置検出の結果として出力することもできる。以下では、位置検出部202は、記憶装置103に予め格納された「肌の色」の色信号値を取得したと仮定して説明する。
ステップS702では、位置検出部202は、ステップS701で取得した「肌の色」の色信号値を参照して、補正済画像から肌領域(人の肌であると推定される領域;人の肌に近い色の領域)を選択する。ここで、肌領域に対応する色における明るさY、彩度C、および色相Hそれぞれは、「肌の色」の色信号値から幅(上限幅)を有している。位置検出部202は、例えば、補正済画像のうち、「肌の色」の色信号値(明るさY、彩度Cおよび色相H)に近い色の領域(例えば、明るさY±5、彩度C±5、色相H±10の範囲に含まれる色の領域)を肌領域として選択する。なお、上限幅は、ユーザによって任意に決定されてもよいし、補正済画像の全体の明るさ(平均の明るさ)に応じて決定されてもよい。また、肌領域は、人種による「肌の色」の違いを考慮して決定されてもよい。
ステップS703では、位置検出部202は、肌を示す画素ではないのに肌領域に含まれている画素(誤判定画素)を除去するために、ステップS702で選択された肌領域に対して孤立点除去処理を実行する。孤立点除去処理には、複数の手法が提案されているが所望の処理を用いて構わない。例えば、位置検出部202は、1つの画素とその近傍の8つの画素を確認し、これらの9つの画素のうち当該1つの画素のみが肌領域に含まれると判定されていた場合には、その1つの画素を誤判定画素として判定する。そして、位置検出部202は、肌領域から誤判定画素を除去する。
ステップS704では、位置検出部202は、肌領域の重心位置を算出する。具体的には、位置検出部202は、肌領域の全ての画素の座標の平均値を算出し、その平均値を手の位置として出力する。なお、例えば、位置検出部202は、肌領域をさらに複数の領域に分割し、複数の領域のうち画素の密度の高い領域から手の位置を検出するなど、各種の画像処理と組み合わせて手の位置を検出してもよい。
(領域検出処理について;S305)
図8のフローチャートを参照して、ステップS305における手領域を検出する処理(領域検出処理)について説明する。なお、ステップS801~S803では、領域検出部206は、上述のステップS701~S703と同様の処理をノイズ低減画像に対して行う。このため、ステップS801~S803の処理についての説明は省略する。ステップS801~S803でも、ノイズ低減画像はシェーディング補正が行われた後の画像であるため、色情報(「肌の色」の色信号値)を用いて適切に肌領域が判定できる。
ステップS804では、領域検出部206は、ノイズ低減画像における肌領域の画素と、それ以外の画素との境界(エッジ)を得るための処理(エッジ検出処理)を実行する。画像のエッジ検出には、Sobelフィルタ、Laplacianフィルタ、またはCannyフィルタなど多様なエッジ検出フィルタが提案されている。本実施形態では、これらのエッジ検出フィルタのうちの任意のフィルタを用いてよい。なお、これらのエッジ検出フィルタは、ノイズの影響を受けやすいため、ステップS304にて手の位置に応じた適切なノイズ低減処理が適用されたノイズ低減画像を用いることにより、正確に手の輪郭をエッジとして検出することができる。つまり、ノイズ低減画像を用いることによって、適切な手領域の検出が可能になる。
ステップS805では、領域検出部206は、ステップS804にて検出したエッジに対して細線化処理(二値化された画像において、線の中心1画素分だけを残すように線を細くする処理)を適用する。細線化処理のアルゴリズムには、Hilditch、田村の方法、Zhang Suenなどが提案されているが、任意の方法を用いて構わない。
ステップS806では、領域検出部206は、ノイズ低減画像のうち、細線化処理されたエッジの線が囲う領域を手領域(手の領域)として検出する。
なお、手領域を検出する方法はこれに限られるものではなく、例えば孤立点除去や細線化処理を省略したり、ノイズ低減画像の全体または特定の一部領域からのエッジ検出後に肌領域を選択したりすることも可能である。また、手領域は、手に持っている物体を含むように検出されてもよい。
実施形態1では、画像処理装置1は、手の位置に応じて更新された低減パラメータに基づき、補正済画像のノイズを低減する。これにより、手の位置に応じた適切なノイズ低減処理が施された画像から、適切な手領域を検出できる。そして、画像処理装置1は、CG画像に適切な手領域の画像を合成することが可能になる。つまり、ハンドマスク機能を安定して実行することが可能になる。
<実施形態2>
実施形態1では、画像処理装置1は、手の位置に応じて低減パラメータを更新することによりノイズが低減された画像(ノイズ低減画像)から手領域を検出した。ここで、ノイズ低減画像の手領域にCG画像が重ならない場合には、ハンドマスク機能を実行する必要性がないため、低減パラメータ(ノイズ低減強度)を更新する必要性が低い。また、CG画像がノイズ低減画像の全体に表示される場合には、撮像画像が隠されてしまうため、ノイズ低減処理による画質低下が無視できる。
そこで、実施形態2では、図9と図10を参照して、CG画像の表示領域に応じて低減パラメータを制御する画像処理装置2について説明する。なお、以下では、実施形態1と重複する部分は省略して、差異についてのみを説明する。
図9は、実施形態2に係る画像処理装置2の論理構成を示す模式図である。画像処理装置2は、画像取得部201、位置検出部202、補正量算出部203、NR強度設定部204、ノイズ低減処理部205、領域検出部206、合成部207、表示制御部208、CG領域判定部909を備える。なお、上記の構成のうち、画像処理装置1における構成と同名の構成は、画像処理装置1との差異のみ説明する。
CG領域判定部909は、位置検出部202が検出した手の位置と、CG画像の情報とに基づき、低減パラメータを更新するか否かを判定する。NR強度設定部204は、その判定結果に従って、低減パラメータを制御する。
図10のフローチャートを参照して、画像処理装置2において、合成画像を生成するための画像生成処理の詳細について説明する。なお、ステップS301~S303,S305,S306は、図3のフローチャートにおける同名のステップと同じであるため、説明は省略する。
ステップS1002では、CG領域判定部909は、手の位置とCG画像とに基づき、合成画像を生成する場合に、ノイズ低減画像における手領域にCG画像が重なる(重畳される)か否かを判定する。手領域にCG画像が重なると判定された場合には、ステップS302に進む。手領域にCG画像が重ならないと判定された場合には、ステップS1005に進む。
ここで、手領域とCG画像とが重なるか否かの判定(重畳判定)の例を説明する。画像処理装置2は、CG画像をノイズ低減画像に合成するために、CG画像を合成する位置の座標および表示サイズに関する情報(CG領域情報)を予め有している。そこで、CG領域判定部909は、手の位置(重心座標)と、CG画像のCG領域情報とを参照することによって、手領域とCG画像とが重なるか否かを判定できる。なお、CG領域情報は、例えば、CG画像に付加されていてもよい。
例えば、手の重心座標を(x,y)として、CG画像の中心座標を(p,q)として、CG画像の表示領域が中心座標から距離r以内の範囲の領域であるとする。すると、CG領域判定部909は、「p-r≦x≦p+r」かつ「q-r≦y≦q+r」を満たす場合に、手領域にCG画像が重なると判定する。また、例えば、CG領域判定部909は、手領域における全ての画素の座標のうちいずれかが、CG画像の表示領域の全ての画素の座標のうちのいずれかと同じ座標である場合には、手領域にCG画像が重なると判定してもよい。
もっとも、手領域とCG画像の重畳判定の方法は、これに限られるものではない。また、より複雑なデータで構成されるCG画像であっても、合成画像に表示する際の座標データに変換したCG画像の中心位置と、ステップS1001で算出した手の位置とを比較することで重畳判定は可能である。
ステップS1005では、ノイズ低減処理部205は、低減パラメータに基づき補正済画像のノイズを低減する。なお、ステップS1005では、ステップS1002にてCG画像が手領域と重ならないと判定された場合には、ステップS303の処理が実行されないため、前回の処理(補正済画像の前フレームの処理)と同じ低減パラメータが用いられてもよい。または、ステップS1005では、ステップS1002にてCG画像が手領域と重ならないと判定された場合には、低減パラメータの初期値が用いられてもよい。これらによれば、ステップS1002にてCG画像が手領域と重ならないと判定された場合には、ステップS302,S303の処理が行われないため、画像生成処理の効率化が実現できる。
実施形態2では、画像処理装置2は、手領域とCG画像の表示領域とが重なる場合には、ノイズ低減パラメータを更新することをせずに、補正済画像のノイズを低減する。これにより、CG画像の表示領域に応じた適切なノイズ低減処理が施された画像から、適切に手領域を検出することが可能になる。
なお、実施形態2で説明したCG画像の表示領域に基づき低減パラメータ(ノイズ低減強度)を制御する別の形態として、CG画像がノイズ低減画像の全てと重なる場合を考える。CG画像がノイズ低減画像の全体に重なると、ノイズ低減画像が見えなくなるのでノ
イズ低減処理によって補正済画像から解像感が低下する画質劣化を無視できる。このため、CG画像がノイズ低減画像の全てと重なる場合には、NR強度設定部204は、手の位置に依らず低減パラメータを最大のパラメータに設定して、低減パラメータの更新(ステップS302,S303の処理)を省略することも可能である。ここで、最大のパラメータとは、撮像画像の全画素にそれぞれ対応するシェーディング補正量のうち最大値に基づく低減パラメータである。
なお、CG画像がノイズ低減画像の全てと重なる場合ではなく、ノイズ低減画像の所定割合(例えば、80%)より多くの範囲とCG画像が重なる場合に、NR強度設定部204は、低減パラメータを最大のパラメータに設定してもよい。また、このような場合には、NR強度設定部204は、低減パラメータを最大のパラメータに設定するのではなく、例えば、低減パラメータを特定のパラメータ(例えば、最大のパラメータの所定割合)に設定してもよい。
<実施形態3>
実施形態1では、画像処理装置1は、手の位置に応じて低減パラメータを更新した。しかし、撮像画像が動画であって、手の移動が速い場合に、低減パラメータが頻繁に更新されると、表示装置108に表示される合成画像がちらついて見える場合がある。
そこで、実施形態3では、図11と図12を参照して、手の移動速度に応じて低減パラメータを制御する画像処理装置3について説明する。なお、以下では、実施形態1または2と重複する部分については説明を省略する。
図11は、実施形態3に係る画像処理装置3の論理構成を示す模式図である。画像処理装置3は、画像取得部201、位置検出部202、補正量算出部203、NR強度設定部204、ノイズ低減処理部205、領域検出部206、合成部207、表示制御部208、移動速度算出部1109を備える。なお、上記の構成のうち、画像処理装置1における構成と同名の構成は、画像処理装置1との差異のみ説明する。
移動速度算出部1109は、位置検出部202が補正済画像の現フレームで検出した手の位置と、前フレームで検出した手の位置とに基づき手の移動速度を算出する。そして、移動速度算出部1109は、手の移動速度が閾値より大きいか否かにより、低減パラメータを更新するか否かを判定する。NR強度設定部204は、その判定結果に従って、低減パラメータを制御する。
図12のフローチャートを参照して、画像処理装置3において、合成画像を生成するための画像生成処理の詳細について説明する。なお、図10のフローチャートと同様の処理については説明を省略する。
ステップS1202では、移動速度算出部1109は、補正済画像の前フレームからの手の移動速度を算出する。このとき、前フレームの手の位置の座標を(x’,y’)とし、ステップS1201で検出した現在のフレームの手の位置の座標を(x,y)とし、動画のフレームレートを60fpsとする。この場合には、手の移動速度vは、式5に示すように、2つの座標間の距離を60で乗算することにより算出できる。
Figure 2024007899000006
ステップS1203では、移動速度算出部1109は、ステップS1202で算出した移動速度が閾値以下であるか否かを判定する。移動速度が閾値以下であると判定された場
合には、ステップS302に進む。移動速度が閾値より大きいと判定された場合には、ステップS1005に進む。なお、ステップS1005において、ステップS1203にて移動速度が閾値より大きいと判定された場合には、ノイズ低減処理部205は、前フレーム(前回)の低減パラメータをそのまま用いて、補正済画像のノイズを低減する。
実施形態3では、画像処理装置3は、フレーム間の手の移動速度(移動量)が速い場合には、前フレーム(前回)から低減パラメータを更新せずに、補正済画像のノイズを低減する。これにより、低減パラメータの更新に起因する合成画像のちらつきを抑制しつつ、適切に手領域を検出することが可能になる。
なお、ステップS1203において移動速度が閾値よりも大きい場合であってもステップS302に進んでもよい。この場合には、例えば、NR強度設定部204は、ステップS303にて、前フレームの低減パラメータと、実施形態1の方法により算出した低減パラメータとの平均値を、現フレームの低減パラメータとして算出する。この方法によっても、低減パラメータが前フレームから大きく変化することを抑制できるため、合成画像のちらつきを抑制できる。
また、実施形態3では、移動速度算出部1109は、補正済画像の現フレームの手の位置と前フレームの手の位置に基づき移動速度を算出した。しかし、移動速度算出部1109は、例えば、現フレームの2フレーム前のフレームの手の位置と現フレームの手の位置に基づき移動速度を算出してもよい。つまり、移動速度算出部1109は、前フレームと現フレームの2つのフレームに限らず、補正済画像の複数のフレームにおける手の位置の変化に基づき、移動速度を算出してもよい。
また、上記において、「AがB以上の場合にはステップS1に進み、AがBよりも小さい(低い)場合にはステップS2に進む」は、「AがBよりも大きい(高い)場合にはステップS1に進み、AがB以下の場合にはステップS2に進む」と読み替えてもよい。逆に、「AがBよりも大きい(高い)場合にはステップS1に進み、AがB以下の場合にはステップS2に進む」は、「AがB以上の場合にはステップS1に進み、AがBよりも小さい(低い)場合にはステップS2に進む」と読み替えてもよい。このため、矛盾が生じない限り、「A以上」という表現は、「AまたはAよりも大きい(高い;長い;多い)」と置き換えてもよいし、「Aよりも大きい(高い;長い;多い)」と読み替えてよく、置き換えてもよい。一方で、「A以下」という表現は、「AまたはAよりも小さい(低い;短い;少ない)」と置き換えてもよいし、「Aよりも小さい(低い;短い;少ない)」と置き換えても読み替えてもよい。そして、「Aよりも大きい(高い;長い;多い)」は、「A以上」と読み替えてもよく、「Aよりも小さい(低い;短い;少ない)」は「A以下」と読み替えてもよい。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
なお、上記の各実施形態(各変形例)の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ASIC、FPGA、DSPなどのハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリ(記憶媒体)とを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して
実行することにより実現されてもよい。
(その他の実施形態)
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上記の実施形態の開示は、以下の構成、方法、およびプログラムを含む。
[構成1]
ユーザの手を撮像した第1の画像の画素に、前記第1の画像における当該画素の位置に応じた補正量で補正する補正処理が施された第2の画像を取得する取得手段と、
前記第1の画像における前記手の位置に対する前記補正処理の前記補正量に基づき、前記第2の画像のノイズの低減強度を設定する設定手段と、
前記設定手段により設定された前記低減強度で前記第2の画像のノイズを低減した第3の画像を生成する処理手段と、
前記第3の画像から前記手の領域を検出する検出手段と、
前記検出手段が検出した手の領域の情報を参照して、前記第3の画像に、CG画像と前記手の領域の画像とを合成して合成画像を生成する合成手段と、
を有することを特徴とする画像処理装置。
[構成2]
前記検出手段は、前記第3の画像における少なくとも一部の領域からエッジを検出して、前記エッジに基づき前記手の領域を検出する、
ことを特徴とする構成1に記載の画像処理装置。
[構成3]
前記第1の画像において前記手の位置が光学中心の位置から遠いほど、前記第1の画像における前記手の位置に対する前記補正処理の前記補正量は大きく、
前記設定手段は、前記第1の画像における前記手の位置に対する前記補正処理の前記補正量が大きいほど、前記低減強度を強くする、
ことを特徴とする構成1または2に記載の画像処理装置。
[構成4]
前記設定手段は、前記合成画像が生成される場合において前記第3の画像の前記手の領域と前記CG画像とが重なるか否かに基づき、前記低減強度を制御する、
ことを特徴とする構成1から3に記載の画像処理装置。
[構成5]
前記設定手段は、前記合成画像が生成される場合において前記第3の画像の前記手の領域と前記CG画像とが重ならない場合には、前回から前記低減強度を更新しない、
ことを特徴とする構成4に記載の画像処理装置。
[構成6]
前記設定手段は、前記合成画像が生成される場合において前記3の画像の全てに前記CG画像が重なる場合には、前記第1の画像の全画素のそれぞれに対応する前記補正量のうちの最大値に基づき、前記低減強度を設定する、
ことを特徴とする構成4に記載の画像処理装置。
[構成7]
前記第1の画像は、動画であって、
前記画像処理装置は、前記第2の画像の複数のフレームに基づき、前記手の移動速度を算出する移動速度算出手段を有し、
前記設定手段は、前記移動速度に基づき、前記低減強度を制御する、
ことを特徴とする構成1から6のいずれか1項に記載の画像処理装置。
[構成8]
前記設定手段は、前記移動速度が閾値より大きければ、前回から前記低減強度を更新しない、
ことを特徴とする構成7に記載の画像処理装置。
[構成9]
前記検出手段は、前記第3の画像から、色の情報に基づき前記手の領域を検出する、
ことを特徴とする構成1から8のいずれか1項に記載の画像処理装置。
[構成10]
前記検出手段は、前記手に持っている物体を含む領域を前記手の領域として検出する、
ことを特徴とする構成1から9のいずれか1項に記載の画像処理装置。
[構成11]
前記第1の画像または前記第2の画像から前記手の位置を検出する位置検出手段をさらに有する、
ことを特徴とする構成1から10のいずれか1項に記載の画像処理装置。
[方法]
ユーザの手を撮像した第1の画像の画素に、前記第1の画像における当該画素の位置に応じた補正量で補正する補正処理が施された第2の画像を取得する取得ステップと、
前記第1の画像における前記手の位置に対する前記補正処理の前記補正量に基づき、前記第2の画像のノイズの低減強度を設定する設定ステップと、
前記設定ステップにおいて設定された前記低減強度で前記第2の画像のノイズを低減した第3の画像を生成する処理ステップと、
前記第3の画像から前記手の領域を検出する検出ステップと、
前記検出ステップにおいて検出された手の領域の情報を参照して、前記第3の画像に、CG画像と前記手の領域の画像とを合成して合成画像を生成する合成ステップと、
を有することを特徴とする画像処理方法。
[プログラム]
コンピュータを、構成1から11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
1:画像処理装置、201:画像取得部、
204:NR強度設定部、205:ノイズ低減処理部、
206:領域検出部、207:合成部

Claims (13)

  1. ユーザの手を撮像した第1の画像の画素に、前記第1の画像における当該画素の位置に応じた補正量で補正する補正処理が施された第2の画像を取得する取得手段と、
    前記第1の画像における前記手の位置に対する前記補正処理の前記補正量に基づき、前記第2の画像のノイズの低減強度を設定する設定手段と、
    前記設定手段により設定された前記低減強度で前記第2の画像のノイズを低減した第3の画像を生成する処理手段と、
    前記第3の画像から前記手の領域を検出する検出手段と、
    前記検出手段が検出した手の領域の情報を参照して、前記第3の画像に、CG画像と前記手の領域の画像とを合成して合成画像を生成する合成手段と、
    を有することを特徴とする画像処理装置。
  2. 前記検出手段は、前記第3の画像における少なくとも一部の領域からエッジを検出して、前記エッジに基づき前記手の領域を検出する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の画像において前記手の位置が光学中心の位置から遠いほど、前記第1の画像における前記手の位置に対する前記補正処理の前記補正量は大きく、
    前記設定手段は、前記第1の画像における前記手の位置に対する前記補正処理の前記補正量が大きいほど、前記低減強度を強くする、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記設定手段は、前記合成画像が生成される場合において前記第3の画像の前記手の領域と前記CG画像とが重なるか否かに基づき、前記低減強度を制御する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記設定手段は、前記合成画像が生成される場合において前記第3の画像の前記手の領域と前記CG画像とが重ならない場合には、前回から前記低減強度を更新しない、
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記設定手段は、前記合成画像が生成される場合において前記3の画像の全てに前記CG画像が重なる場合には、前記第1の画像の全画素のそれぞれに対応する前記補正量のうちの最大値に基づき、前記低減強度を設定する、
    ことを特徴とする請求項4に記載の画像処理装置。
  7. 前記第1の画像は、動画であって、
    前記画像処理装置は、前記第2の画像の複数のフレームに基づき、前記手の移動速度を算出する移動速度算出手段を有し、
    前記設定手段は、前記移動速度に基づき、前記低減強度を制御する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  8. 前記設定手段は、前記移動速度が閾値より大きければ、前回から前記低減強度を更新しない、
    ことを特徴とする請求項7に記載の画像処理装置。
  9. 前記検出手段は、前記第3の画像から、色の情報に基づき前記手の領域を検出する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  10. 前記検出手段は、前記手に持っている物体を含む領域を前記手の領域として検出する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  11. 前記第1の画像または前記第2の画像から前記手の位置を検出する位置検出手段をさらに有する、
    ことを特徴とする請求項1または2に記載の画像処理装置。
  12. ユーザの手を撮像した第1の画像の画素に、前記第1の画像における当該画素の位置に応じた補正量で補正する補正処理が施された第2の画像を取得する取得ステップと、
    前記第1の画像における前記手の位置に対する前記補正処理の前記補正量に基づき、前記第2の画像のノイズの低減強度を設定する設定ステップと、
    前記設定ステップにおいて設定された前記低減強度で前記第2の画像のノイズを低減した第3の画像を生成する処理ステップと、
    前記第3の画像から前記手の領域を検出する検出ステップと、
    前記検出ステップにおいて検出された手の領域の情報を参照して、前記第3の画像に、CG画像と前記手の領域の画像とを合成して合成画像を生成する合成ステップと、
    を有することを特徴とする画像処理方法。
  13. コンピュータを、請求項1または2に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2022109291A 2022-07-06 2022-07-06 画像処理装置、画像処理方法、およびプログラム Pending JP2024007899A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022109291A JP2024007899A (ja) 2022-07-06 2022-07-06 画像処理装置、画像処理方法、およびプログラム
US18/335,371 US20240013361A1 (en) 2022-07-06 2023-06-15 Image processing device and method for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022109291A JP2024007899A (ja) 2022-07-06 2022-07-06 画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2024007899A true JP2024007899A (ja) 2024-01-19

Family

ID=89431675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022109291A Pending JP2024007899A (ja) 2022-07-06 2022-07-06 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US20240013361A1 (ja)
JP (1) JP2024007899A (ja)

Also Published As

Publication number Publication date
US20240013361A1 (en) 2024-01-11

Similar Documents

Publication Publication Date Title
Gallo et al. Artifact-free high dynamic range imaging
WO2018176925A1 (zh) Hdr图像的生成方法及装置
KR101036787B1 (ko) 움직임 벡터 연산 방법과 이 방법을 이용한 손 떨림 보정장치, 촬상 장치, 및 동영상 생성 장치
JP4480760B2 (ja) 画像データ処理方法および画像処理装置
US8891867B2 (en) Image processing method
US20200258196A1 (en) Image processing apparatus, image processing method, and storage medium
US9727984B2 (en) Electronic device and method for processing an image
TWI496105B (zh) 影像合成裝置及用於影像合成之電腦程式
JP2017138647A (ja) 画像処理装置、画像処理方法、映像撮影装置、映像記録再生装置、プログラム及び記録媒体
JP2012208553A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7207957B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN115104120A (zh) 将低动态范围图像合并为单幅图像的方法及装置
JP6904842B2 (ja) 画像処理装置、画像処理方法
US9781343B2 (en) Image processing apparatus and method for operating image processing apparatus
JP6541501B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP7265316B2 (ja) 画像処理装置及び画像処理方法
JP2008021163A (ja) 画像処理装置
JP5820716B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置
JP2024007899A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5822739B2 (ja) 画像処理装置、方法、及びプログラム
JP2018160024A (ja) 画像処理装置、画像処理方法及びプログラム
JP6103942B2 (ja) 画像データ処理装置及び画像データ処理プログラム
JP6137437B1 (ja) 画像処理装置及び画像処理方法
KR20160069452A (ko) 영상 처리 장치, 영상 처리 방법, 및 프로그램
JP2020181399A (ja) 画像処理装置及びその制御方法及びプログラム