JP3740394B2 - 高ダイナミックレンジ映像の生成方法とその装置、及びこの方法の実行プログラムとこの実行プログラムの記録媒体 - Google Patents
高ダイナミックレンジ映像の生成方法とその装置、及びこの方法の実行プログラムとこの実行プログラムの記録媒体 Download PDFInfo
- Publication number
- JP3740394B2 JP3740394B2 JP2001227008A JP2001227008A JP3740394B2 JP 3740394 B2 JP3740394 B2 JP 3740394B2 JP 2001227008 A JP2001227008 A JP 2001227008A JP 2001227008 A JP2001227008 A JP 2001227008A JP 3740394 B2 JP3740394 B2 JP 3740394B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- image
- imaging
- long
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 291
- 238000003384 imaging method Methods 0.000 claims description 297
- 230000008569 process Effects 0.000 claims description 146
- 230000002194 synthesizing effect Effects 0.000 claims description 31
- 238000012937 correction Methods 0.000 claims description 24
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 230000002123 temporal effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 27
- 230000009977 dual effect Effects 0.000 description 17
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 12
- 239000000284 extract Substances 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 12
- 230000009466 transformation Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 8
- 230000035945 sensitivity Effects 0.000 description 8
- 208000037004 Myoclonic-astatic epilepsy Diseases 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000000874 microwave-assisted extraction Methods 0.000 description 7
- 239000002131 composite material Substances 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000000926 separation method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 241000519995 Stachys sylvatica Species 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229940028444 muse Drugs 0.000 description 1
- GMVPRGQOIOIIMI-DWKJAMRDSA-N prostaglandin E1 Chemical compound CCCCC[C@H](O)\C=C\[C@H]1[C@H](O)CC(=O)[C@@H]1CCCCCCC(O)=O GMVPRGQOIOIIMI-DWKJAMRDSA-N 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
【発明の属する技術分野】
本発明は、ダイナミックレンジの高い被写体を白トビや黒つぶれなく映像にする高ダイナミックレンジ映像の生成方法および生成装置に関するものであり、主な利用分野として映像産業や計測産業があげられる。
【0002】
【従来の技術】
映像を記録するには様々な方法があるが、今日ではCCDを用いた撮像装置が広く使われている。しかし、CCDは銀塩フィルム等に比べると明暗のダイナミックレンジが小さい欠点があった。これに対して撮像時間を可変に制御できる電子シャッタ付きのCCDを用いて短時間撮像と長時間撮像を交互に繰り返し、隣り合う2画像から高ダイナミックレンジ映像を生成する方法や装置が提案されている。例えば、特開昭63−306779号や特開平6−141229号の技術がこれに該当する。
【0003】
【発明が解決しようとする課題】
しかしながら、図1(a)の11に示すように両方法とも、2フレームの原画像から1フレームの画像を合成するためにフレームレートが半減してしまい、滑らかな動きの動画映像が生成できない欠点があった。特開平6−141229号では実質倍速で動作する専用CCDを開発してこの問題を解決しているが、この方法では汎用のCCDを使えないため汎用性やコストに問題がある。また、CCDの画素数が増大すると倍速動作そのものが技術的に困難となるため、HDTVやUDTV等の高解像度映像には適用できない問題もある。
【0004】
また、静止画撮影ではなく動画撮影する場合には、動く被写体の高輝度領域または低輝度領域の位置、形状が時間と共に変動するが、従来の方法では異なる時刻に撮像された画像をそのまま合成しているため、合成部の輪郭領域において偽信号の発生による画質劣化が生じてしまう問題がある。特開平6−141229号では2枚の画像を輝度値に応じて徐々に混合することにより画質劣化が視覚的に目立たないよう工夫しているが、根本的な解決方法とはなっていない。
【0005】
本発明は、上記従来の技術の問題点を解決するために為されたものであり、原画像と同フレームレートで高ダイナミックレンジ映像を生成できる方法及び装置を提供することを課題とする。さらに、その生成の際に、映像の切り替わり点や、画像内容がフレーム間で不連続的に変化する場合にも、高品質の高ダイナミックレンジ映像を生成できる方法及び装置を提供することを課題とする。
【0007】
【課題を解決するための手段】
上記の課題を解決するための手段として、本発明の請求項1では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Aと、短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Bの異なる2つの合成過程とを有し、長時間撮像時刻における画像については過程Aを実行し、短時間撮像時刻における画像については過程Bを実行し、
過程Aにおいて、長時間撮像の画像内にあるオーバーフロー領域Xを検出する過程Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、2領域の輪郭線のパターンマッチングを行う過程とを有し、過程Cにより長時間撮像画像を領域Xとそれ以外の領域X-に分離し、過程Dにより直後または直前の短時間撮像画像から領域Yを抜き出し、パターンマッチングを行う過程により領域Yの位置、形状を領域Xの位置、形状に合わせた後で画素の輝度値の倍率補正を行った後に、領域X-と合成することによって、長時間撮像と直後または直前の短時間撮像の2画像から長時間撮像時刻における画像を合成することを特徴とする高ダイナミックレンジ映像の生成方法を用いる。
【0008】
また、本発明の請求項2では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Aと、短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Bの異なる2つの合成過程とを有し、長時間撮像時刻における画像については過程Aを実行し、短時間撮像時刻における画像については過程Bを実行し、
過程Bにおいて、長時間撮像の画像内にあるオーバーフロー領域Xを検出する過程Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、2領域の輪郭線のパターンマッチングを行う過程とを有し、過程Dにより短時間撮像画像を領域Yとその他の領域Y-に分離し、過程Cにより直後または直前の長時間撮像画像を領域Xとその他の領域X-に分離し、パターンマッチングを行う過程により領域X-の位置、形状を領域Y-の位置、形状に合わせた後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直後または直前の長時間撮像の2画像から短時間撮像時刻における画像を合成することを特徴とする高ダイナミックレンジ映像の生成方法を用いる。
【0009】
また、本発明の請求項3では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、長時間撮像と直前の短時間撮像と直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Eと、短時間撮像と直前の長時間撮像と直後の長時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Fの異なる2つの合成過程とを有し、長時間撮像時刻における画像については過程Eを実行し、短時間撮像時刻における画像については過程Fを実行することを特徴とする高ダイナミックレンジ映像の生成方法を用いる。
【0010】
また、本発明の請求項4では、過程Eでは、長時間撮像の画像中にあるオーバーフロー領域Xを検出する過程Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、2領域の画像のパターンマッチングを行う過程とを有し、過程Cにより長時間撮像の画像を領域Xとそれ以外の領域X-に分離し、過程Dにより直前の短時間撮像の画像から領域Y1を切り出し、過程Dにより直後の短時間撮像の画像から領域Y2を切り出し、2領域の画像のパターンマッチングを行う過程により2領域である領域Y1と領域Y2から長時間撮像時刻における中間画像Y3を生成し、中間画像Y3から領域Xと位置的に重なる領域を切り出し、画素の輝度値の倍率補正を行った後で、領域X-と合成することによって、長時間撮像と直前の短時間画像と直後の短時間撮像の3画像から長時間撮像時刻における画像を合成することを特徴とする請求項3に記載の高ダイナミックレンジ映像の生成方法を用いる。
【0011】
また、本発明の請求項5では、過程Fでは、長時間撮像の画像中にあるオーバーフロー領域Xを検出する過程Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、2領域の画像のパターンマッチングを行う過程とを有し、過程Dにより短時間撮像の画像を領域Yとその他の領域Y-に分離し、過程Cにより直前の長時間撮像の画像を領域X1とその他の領域X1-に分離し、過程Cにより直後の長時間撮像の画像を領域X2とその他の領域X2-に分離し、2領域の画像のパターンマッチングを行う過程により2領域である領域X1-と領域X2-から短時間撮像時刻における中間画像X3-を生成し、中間画像X3-から領域Y-と位置的に重なる領域を切り出した後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直前の長時間撮像と直後の短時間撮像の3画像から短時間撮像時刻における画像を合成することを特徴とする請求項3に記載の高ダイナミックレンジ映像の生成方法を用いる。
【0014】
また、本発明の請求項6では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Aと、短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Bの異なる2つの合成器とを有し、長時間撮像時刻における画像については合成器Aを用い、短時間撮像時刻における画像については合成器Bを用い、
合成器Aは、長時間撮像の画像内にあるオーバーフロー領域Xを検出する検出器Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、2領域の輪郭線のパターンマッチングを行うパターンマッチング器とを有し、検出器Cを用いて長時間撮像画像を領域Xとそれ以外の領域X-に分離し、検出器Dを用いて直後または直前の短時間撮像画像から領域Yを抜き出し、該パターンマッチング器を用いて領域Yの位置、形状を領域Xの位置、形状に合わせた後で画素の輝度値の倍率補正を行った後に、領域X-と合成することによって、長時間撮像と直後または直前の短時間撮像の2画像から長時間撮像時刻における画像を合成するものであることを特徴とする高ダイナミックレンジ映像の生成装置を用いる。
【0015】
また、本発明の請求項7では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Aと、短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Bの異なる2つの合成器とを有し、長時間撮像時刻における画像については合成器Aを用い、短時間撮像時刻における画像については合成器Bを用い、
合成器Bは、長時間撮像の画像内にあるオーバーフロー領域Xを検出する検出器Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、2領域の輪郭線のパターンマッチングを行うパターンマッチング器とを有し、検出器Dを用いて短時間撮像画像を領域Yとその他の領域Y-に分離し、検出器Cを用いて直後または直前の長時間撮像画像を領域Xとその他の領域X-に分離し、該パターンマッチング器を用いて領域X-の位置、形状を領域Y-の位置、形状に合わせた後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直後または直前の長時間撮像の2画像から短時間撮像時刻における画像を合成するものであることを特徴とする高ダイナミックレンジ映像の生成装置を用いる。
【0016】
また、本発明の請求項8では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、長時間撮像と直前の短時間撮像と直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Eと、短時間撮像と直前の長時間撮像と直後の長時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Fの異なる2つの合成器とを有し、長時間撮像時刻における画像については合成器Eを用い、短時間撮像時刻における画像については合成器Fを用いることを特徴とする高ダイナミックレンジ映像の生成装置を用いる。
【0017】
また、本発明の請求項9では、合成器Eは、長時間撮像の画像中にあるオーバーフロー領域Xを検出する検出器Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、2領域の画像のパターンマッチングを行うパターンマッチング器とを有し、検出器Cを用いて長時間撮像の画像を領域Xとそれ以外の領域X-に分離し、検出器Dを用いて直前の短時間撮像の画像から領域Y1を切り出し、検出器Dを用いて直後の短時間撮像の画像から領域Y2を切り出し、領域Y1と領域Y2から該パターンマッチング器を用いて長時間撮像時刻における中間画像Y3を生成し、中間画像Y3から領域Xと位置的に重なる領域を切り出し、画素の輝度値の倍率補正を行った後で、領域X-と合成することによって、長時間撮像と直前の短時間画像と直後の短時間撮像の3画像から長時間撮像時刻における画像を合成するものであることを特徴とする請求項8に記載の高ダイナミックレンジ映像の生成装置を用いる。
【0018】
また、本発明の請求項10では、合成器Fは、長時間撮像の画像中にあるオーバーフロー領域Xを検出する検出器Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、2領域の画像のパターンマッチングを行うパターンマッチング器とを有し、検出器Dを用いて短時間撮像の画像を領域Yとその他の領域Y-に分離し、検出器Cを用いて直前の長時間撮像の画像を領域X1とその他の領域X1-に分離し、検出器Cを用いて直後の長時間撮像の画像を領域X2とその他の領域X2-に分離し、領域X1-と領域X2-から該パターンマッチング器を用いて短時間撮像時刻における中間画像X3-を生成し、中間画像X3-から領域Y-と位置的に重なる領域を切り出した後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直前の長時間撮像と直後の短時間撮像の3画像から短時間撮像時刻における画像を合成するものであることを特徴とする請求項8に記載の高ダイナミックレンジ映像の生成装置を用いる。
【0020】
また、本発明の請求項11では、請求項1から請求項5のいずれか1項に記載の高ダイナミックレンジ映像の生成方法における過程を、コンピュータに実行させるためのプログラムとしたことを特徴とする高ダイナミックレンジ映像の生成方法の実行プログラムを用いる。
【0021】
また、本発明の請求項12では、請求項1から請求項5のいずれか1項に記載の高ダイナミックレンジ映像の生成方法における過程を、コンピュータに実行させるためのプログラムとし、該プログラムを、該コンピュータが読み取りできる記録媒体に記録したことを特徴とする高ダイナミックレンジ映像の生成方法の実行プログラムを記録した記録媒体を用いる。
【0022】
本発明の方法および装置は、図1(b)の12および図1(c)の13に示すように、異なる二つの合成アルゴリズムを交互に使用することにより、実質的には1フレームの原画像から1フレームの高ダイナミックレンジ画像を生成することによって同フレームレートで高ダイナミックレンジ映像を提供する。
【0023】
請求項1、2は、図1(b)の12に示すように連続する2フレームの画像から高ダイナミックレンジ画像を合成する方法を提供するものであり、請求項3は図1(c)の13に示すように連続する3フレームの画像から高ダイナミックレンジ画像を合成する方法を提供するものである。
【0024】
請求項3の方法は、より高精度に画像を予測生成して高ダイナミックレンジ画像を合成する方法であり、通常、請求項1、2の方法より高品質に画像合成できるが、連続する3フレームの画像を必ず必要とするため、映像の切り替わり点や、画像内容がフレーム間で不連続的に変化する場合には適用できないか、または無理に適用しても低品質の合成画像しか得られない等の問題点もある。
【0025】
そこで、前記のフレーム間の不連続性を2画像の類似度を調べることによって検出し、請求項3の方法と請求項1、2の方法を適応的に切り替えて処理を行う方法を提供する。
【0026】
請求項6,7は図1(b)の12に示すように連続する2フレームの画像から高ダイナミックレンジ画像を合成する装置を提供するものであり、請求項8は図1(c)の13に示すように連続する3フレームの画像から高ダイナミックレンジ画像を合成する装置を提供するものである。
【0027】
請求項8の装置は、より高精度に画像を予測生成して高ダイナミックレンジ画像を合成する装置であり、通常、請求項6,7の装置より高品質に画像合成できるが、連続する3フレームの画像を必ず必要とするため、映像の切り替わり点や、画像内容がフレーム間で不連続的に変化する場合には適用できないか、または無理に適用しても低品質の合成画像しか得られない等の問題点もある。
【0028】
そこで、前記のフレーム間の不連続性を2画像の類似度を調べることによって検出し、請求項8の方法と請求項6,7の方法を適応的に切り替えて処理を行う装置を提供する。
【0029】
以上のように、本発明の方法および装置は、パターンマッチングを行う手段を用いた動画補償や輪郭線フィッティングを行うことによって撮像時刻に得られるはずの画像を予測生成した上で該画像を用いて高ダイナミックレンジ画像を合成する。これより動画撮影の場合にも高品質な高ダイナミックレンジ映像を提供する。
【0030】
図2を用いて本発明の請求項1、2の方法の作用を説明する。図2の21から23は撮像時間を交互に変えて撮像した映像データの一部であり、21と23が長時間撮像画像、22が短時間撮像画像である。211と231は被写体の露出オーバーでオーバーフローを起こした領域、212と232はそれ以外の領域である。221は長時間撮像であったならオーバーフローすると予測される領域、222はそれ以外の領域である。
【0031】
請求項1、2の方法に従うと、過程Aによって221が211の位置、形状に合わされて223となり、223は26で画素の輝度値の倍率補正を受けた後に212と組み合わされて24が合成され、過程Bによって232が222の位置、形状に合わされて233となり、27で画素の輝度値の倍率補正を受けた後の221と組み合わされて25が合成される。
【0032】
なお、ここではある時刻における画像と直後の画像より該時刻における画像を合成する作用を説明しているが、例えば、25を合成する場合、232のかわりに212を222の位置、形状に合わせるのごとく、直後の画像を使う部分を直前の画像に置き換えるだけで、ある時刻における画像と直前の画像より該時刻における画像を合成できることは言うまでもない。
【0033】
請求項1の方法に従うと、過程Aは221と211の輪郭線のパターンマッチングを行って221の211に対する位置、形状の変移量28を算出し、221に対して28を逆に作用させることによって223を生成し、26で画素の輝度値の倍率補正をした後に、212と組み合わして24を合成する作用を行う。
【0034】
請求項2の方法に従うと、過程Bは232と222の輪郭線のパターンマッチングを行い、232の222に対する位置、形状の変移量29を算出し、232に対して29を逆に作用させることによって233を生成し、27で輝度値の倍率補正をした後の221と組み合わして25を合成する作用を行う。
【0035】
次に、図3を用いて本発明の請求項3の方法の作用を説明する。図3の31から34は撮像時間を交互に変えて撮像した映像データの一部であり、31と33が短時間撮像画像、32と34が長時間撮像画像である。321と341は被写体の露出オーバーでオーバーフローを起こした領域、322と342はそれ以外の領域である。311と331は長時間撮像であったならオーバーフローすると予測される領域、312と332はそれ以外の領域である。
【0036】
請求項3の方法に従うと、過程Eによって311と331から321の位置、形状に合った323が生成され、37で画素の輝度値の倍率補正をした後に、322と組み合わして35が合成され、過程Fによって322と342から332の位置、形状に合った333が生成され、38で輝度値の倍率補正をした後の331と組み合わせることによって36が合成される。
【0037】
次に、図4を用いて請求項4の方法の作用を説明する。なお、図中で図3と同一部分は図3の番号をつけている。初めに311と331の画像のパターンマッチングを行い、311の331に対する画像の位置、形状の変移量41を計算する。311と331に対して該変移量より32の撮像時刻における中間画像42と43を予測生成し、両画像を合成することによって中間画像44を生成する。次に44から321内に位置する領域を切り出すことによって323を生成する。323は37で輝度値の倍率補正をした後に322と組み合わせることによって35を合成する作用を行う。
【0038】
次に、図5を用いて請求項5の方法の作用を説明する。なお、図中で図3と同一部分は図3の番号をつけている。初めに322と342の画像のパターンマッチングを行い、322の342に対する画像の位置、形状の変移量51を計算する、322と342に対して該変移量より33の撮像時刻における中間画像52と53を予測生成し、両画像を合成することによって中間画像54を生成する。次に54から332内に位置する領域を切り出すことによって333を生成する。333と38で輝度値の倍率補正をした後の331を組み合わせることによって36を合成する作用を行う。
【0039】
請求項4または請求項5の方法では、画像のパターンマッチングを行う時に二つのパターンの類似度も算出する。類似度が小さいか、またはパターンマッチングの対象となる領域がなかった場合には、請求項4の方法においては311と321間の類似度と321と331間の類似度を輪郭線のパターンマッチングによって比較し、321と331間の類似度の方が大きかった場合には、請求項3の方法の代わりに32と33を用いた直後の画像を用いる請求項1、2の方法に切り替え、311と321間の類似度の方が大きかった場合には、請求項3の方法の代わりに31と32を用いた直前の画像を用いる請求項1、2の方法に切り替える作用を行う。請求項5の方法においては322と332間の類似度と332と342間の類似度を輪郭線のパターンマッチングによって比較し、332と342間の類似度の方が大きかった場合には、請求項3の方法の代わりに33と34を用いた直後の画像を用いる請求項1、2の方法に切り替え、322と332間の類似度の方が大きかった場合には、請求項3の方法の代わりに32と33を用いる直前の画像を用いる請求項1、2の方法に切り替える作用を行う。
【0040】
図2を用いて本発明の請求項6,7の装置の作用を説明する。図2の21から23は撮像時間を交互に変えて撮像した映像データの一部であり、21と23が長時間撮像画像、22が短時間撮像画像である。211と231は被写体の露出オーバーでオーバーフローを起こした領域、212と232はそれ以外の領域である。221は長時間撮像であったならオーバーフローすると予測される領域、222はそれ以外の領域である。
【0041】
請求項6,7の装置に従うと、合成器Aによって221が211の位置、形状に合わされて223となり、223は26で画素の輝度値の倍率補正を受けた後に212と組み合わされて24が合成され、合成器Bによって232が222の位置、形状に合わされて233となり、27で画素の輝度値の倍率補正を受けた後の221と組み合わされて25が合成される。
【0042】
なお、ここではある時刻における画像と直後の画像より該時刻における画像を合成する作用を説明しているが、例えば、25を合成する場合、232のかわりに212を222の位置、形状に合わせるのごとく、直後の画像を使う部分を直前の画像に置き換えるだけである時刻における画像と直前の画像より該時刻における画像を合成できることは言うまでもない。
【0043】
請求項6の装置に従うと、合成器Aは221と211の輪郭線のパターンマッチングを行って221の211に対する位置、形状の変移量28を算出し、221に対して28を逆に作用させることによって223を生成し、26で画素の輝度値の倍率補正をした後に、212と組み合わして24を合成する作用を行う。
【0044】
請求項7の装置に従うと、合成器Bは232と222の輪郭線のパターンマッチングを行い、232の222に対する位置、形状の変移量29を算出し、232に対して29を逆に作用させることによって233を生成し、27で輝度値の倍率補正をした後の221と組み合わして25を合成する作用を行う。
【0045】
次に、図3を用いて本発明の請求項8の装置の作用を説明する。図3の31から34は撮像時間を交互に変えて撮像した映像データの一部であり、31と33が短時間撮像画像、32と34が長時間撮像画像である。321と341は被写体の露出オーバーでオーバーフローを起こした領域、322と342はそれ以外の領域である。311と331は長時間撮像であったならオーバーフローすると予測される領域、312と332はそれ以外の領域である。
【0046】
請求項8の装置に従うと、合成器Eによって311と331から321の位置、形状に合った323が生成され、37で画素の輝度値の倍率補正をした後に、322と組み合わされて35が合成され、合成器Fによって322と342から332の位置、形状に合った333が生成され、38で輝度値の倍率補正をした後の331と組み合わせることによって36が合成される。
【0047】
次に、図4を用いて請求項9の装置の作用を説明する。なお、図中で図3と同一部分は図3の番号をつけている。初めに311と331の画像のパターンマッチングをパターンマッチング器で行い、311の331に対する画像の位置、形状の変移量41を計算する。311と331に対して該変移量より32の撮像時刻における中間画像42と43を予測生成し、両画像を合成することによって中間画像44を生成する。次に44から321内に位置する領域を切り出すことによって323を生成する。323は37で輝度値の倍率補正をした後に322と組み合わせることによって35を合成する作用を行う。
【0048】
次に、図5を用いて請求項10の装置の作用を説明する。なお、図中で図3と同一部分は図3の番号をつけている。初めに322と342の画像のパターンマッチングをパターンマッチング器で行い、322の342に対する画像の位置、形状の変移量51を計算する。322と342に対して該変移量より33の撮像時刻における中間画像52と53を予測生成し、両画像を合成することによって中間画像54を生成する。次に54から332内に位置する領域を切り出すことによって333を生成する。333と38で輝度値の倍率補正をした後の331を組み合わせることによって36を合成する作用を行う。
【0049】
請求項9または請求項10の装置では、画像のパターンマッチングをパターンマッチング器で行う時に二つのパターンの類似度も算出し、類似度を類似度評価器で評価する。類似度が小さいか、またはパターンマッチングの対象となる領域がなかった場合には、請求項9の装置においては311と321間の類似度と321と331間の類似度を輪郭線のパターンマッチングによって比較し、321と331間の類似度の方が大きかった場合には、請求項8の装置の代わりに32と33を用いた直後の画像を用いる請求項6,7の装置の処理動作に切り替え、311と321間の類似度の方が大きかった場合には、請求項8の装置の代わりに31と32を用いた直前の画像を用いる請求項6,7の装置の処理動作に切り替える作用を行う。請求項10の装置においては322と332間の類似度と332と342間の類似度を輪郭線のパターンマッチングによって比較し、332と342間の類似度の方が大きかった場合には、請求項8の装置の代わりに33と34を用いた直後の画像を用いる請求項6,7の装置の処理動作に切り替え、322と332間の類似度の方が大きかった場合には、請求項8の装置の代わりに32と33を用いる直前の画像を用いる請求項6,7の装置の処理動作に切り替える作用を行う。
【0050】
【発明の実施の形態】
以下、本発明の実施の形態について図を用いて詳細に説明する。
【0051】
本発明の請求項1、2の方法の一実施形態を図6に示す。図6の61は原映像データ格納過程、62はデータ出力切り替え過程、63は請求項1の方法の過程Aを実現する一実施形態、64は請求項2の方法の過程Bを実現する一実施形態、65は出力データ格納過程である。
【0052】
631と632は領域分離過程であり、請求項1の方法における過程Cと過程Dの一実施形態である。633と634は輪郭形状抽出過程、635は輪郭形状のパターンマッチング過程、636は領域の移動、変形過程、637は画素の輝度値倍率補正過程、638は画像合成過程である。
【0053】
641と642は領域分離過程であり、請求項2の方法における過程Cと過程Dの一実施形態である。643と634は輪郭線抽出過程、645は輪郭線形状のパターンマッチング過程、646は領域の移動、変形過程、647は画素の輝度値倍率補正過程、648は画像合成過程である。
【0054】
本実施形態による処理の流れを説明する。なお、本実施形態では原画像データはダイナミックレンジが8bit(画素の輝度値のとりうる値は0から255)で逆ガンマ補正済みとする。また、長時間撮像時間と短時間撮像時間の撮像時間比をkとし、ある時刻における画像と直後の画像データより該時刻における画像データを合成する処理について説明する。
【0055】
61では交互に撮像時間を変えて撮った映像データを蓄えている。なお、本方法を実時間処理で行える場合には、61のかわりに直接撮像時間可変カメラの出力(ガンマ補正済み)過程であっても構わない。
【0056】
62は61から逐次、画像と直後フレームの画像を取り出し、該2画像が長時間撮像画像、短時間撮像画像の順番であるなら長時間撮像画像を631に短時間撮像画像を632に出力する。また、短時間撮像画像、長時間撮像画像の順番であるなら長時間撮像画像を641に短時間撮像画像を642に出力する。
【0057】
631と632は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。631の指定値を255とすることによって、631はオーバーフロー領域Xを633に出力し、それ以外の領域X-(図面ではXバーを表す)を638に出力する。632の指定値を256/kとすることによって、632は長時間撮像であったならオーバーフローすると予測される領域Yを634と636に出力する。
【0058】
633と634は、公知の方法であるチェイン符号化法(参考文献:画像解析ハンドブックpp.579−580)で領域の輪郭線を抽出して635に出力する。
【0059】
635は633と634から出力された輪郭形状をフーリエ記述子(参考文献:画像解析ハンドブックpp.581−582)表現データに変換し、該データを比較してパターンマッチングを行うことによって両輪郭線形状の位置、形状の変移量データをアフィン変換行列データとして出力する(参考文献:画像処理アルゴリズムの最新動向、別冊OplusE、pp.58−72)。なお、輪郭線形状のパターンマッチング方法には様々な公知の方法があり、本発明の特許請求の範囲は本実施形態に限定されるものではない。また、2フレーム間に起きる輪郭線形状の移動変形量は微小なので変形は考慮せず全領域均一に移動するとして2領域の重心座標の変移量を変移データとして出力する簡略方法もあり、変移量データの内容は本実施形態に限定されるものではない。
【0060】
また、本実施形態ではパターンマッチング対象領域が一つの場合について説明しているが、633と634で輪郭線が複数抽出されている場合は各々の輪郭線で囲まれた領域の重心座標を求め、最も重心座標の近い物同士で上記のパターンマッチングを行うことによって容易に複数の処理に拡張できることは言うまでもない。
【0061】
636は635から出力されたアフィン変換行列データに基づいて、領域Yの位置、形状を領域Xの位置、形状に合わせて637に出力する。
【0062】
637は画素の輝度値をk倍して638に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0063】
638は637の出力と631から出力された領域X-を一枚の画像データに合成し、これを65で格納する。これによって長時間撮像と直後の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0064】
641と642は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。641の指定値を255とすることによって、641はオーバーフローしていない領域X-を643と646に出力する。642の指定値を256/kとすることによって、642は長時間撮像であったならオーバーフローすると予測される領域Yを647に、それ以外の領域Y-(図面ではYバーを表す)を644に出力する。
【0065】
643と644は公知の方法であるチェイン符号化法で領域の輪郭線を抽出して645に出力する。
【0066】
645は643と644から出力された輪郭形状をフーリエ記述子表現データに変換し、該データを比較してパターンマッチングを行うことによって両輪郭線形状の位置、形状の変移量データをアフィン変換行列データとして出力する。
【0067】
646は645から出力されたアフィン変換行列データに基づいて、領域X-の位置、形状を領域Y-の位置、形状に合わせて648に出力する。
【0068】
647は642から出力された領域Yの画素の輝度値をk倍して648に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0069】
648は646の出力と647の出力を一枚の画像データに合成し、これを65で格納する。これによって短時間撮像と直後の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0070】
本発明の請求項3から5の方法の一実施形態を図7に示す。図7の71は原映像データ格納過程、72はデータ出力切り替え過程、73は請求項4の方法の過程Eを実現する一実施形態、74は請求項5の方法の過程Fを実現する一実施形態、75は出力データ格納過程である。
【0071】
731と732と733は、領域分離過程であり、請求項4の方法における過程Cと過程Dの一実施形態である。734は中間画像の予測生成過程、735は領域切り出し過程、736は画素の輝度値の倍率補正過程、737は画像合成過程である。
【0072】
741と742と743は、領域分離過程であり、請求項5の方法における過程Cと過程Dの一実施形態である。744は中間画像の予測生成過程、745は領域切り出し過程、746は画素の輝度値の倍率補正過程、747は画像合成過程である。
【0073】
本実施形態による処理の流れを説明する。なお、本実施形態では原画像データはダイナミックレンジが8bit(画素の輝度値のとりうる値は0から255)で逆ガンマ補正済みとする。また、長時間撮像時間と短時間撮像時間の撮像時間比をkとし、ある時刻における画像と直後の画像データより該時刻における画像データを合成する処理について説明する。
【0074】
71では交互に撮像時間を変えて撮った映像データを蓄えている。なお、本方法を実時間処理で行える場合には71のかわりに直接撮像時間可変カメラの出力(ガンマ補正済み)過程であっても構わない。
【0075】
72は71から逐次、画像と直前及び直後フレームの画像を取り出し、該3画像が短時間撮像画像、長時間撮像画像、短時間撮像画像の順番であるなら、直前の短時間撮像画像を731に、長時間撮像画像を732に、直後の短長間画像を733に出力する。また、該3画像が長時間撮像画像、短時間撮像画像、長時間撮像画像の順番であるなら、直前の長短間撮像画像を741に、短時間撮像画像を742に、直後の長時間画像を743に出力する。
【0076】
731と732と733は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。731の指定値を256/kとすることによって、731は長時間撮像であったならオーバーフローすると予測される領域Yを734に出力する。732の指定値を255とすることによって、732はオーバーフロー領域Xを735に、それ以外の領域X-を737に出力する。733の指定値を256/kとすることによって、733は長時間撮像であったならオーバーフローすると予測される領域Yを734に出力する。
【0077】
734は731と733から出力された領域Yの画像から短時間撮像時刻における中間画像をデュアルプライム予測法(参考文献:デジタル放送・インターネット技術のための情報圧縮技術、pp.218−219)で予測生成し、735に出力する。デュアルプライム予測法は作用の説明で述べた図4の41、42、43、44の作用を一括して行う。請求項4の方法に記載した画像のパターンマッチングの作用はデュアルプライム予測法内のBMA(ブロックマッチングアルゴリズム)にて行われる。
【0078】
なお、画像のパターンマッチングにはBMA以外にも様々な公知の方法があり、画像の予測生成方法もデュアルプライム予測法以外の公知の方法があり、本発明の特許請求の範囲は本実施形態に限定されるものではない。
【0079】
735は734から出力された中間画像のうち、732から出力された領域Xに含まれる領域の画像のみを切り出して736に出力する。
【0080】
736は735から出力された画像の画素の輝度値をk倍して737に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0081】
737は732の出力と736の出力を一枚の画像データに合成し、これを75で格納する。これによって長時間撮像と直前及び直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0082】
741と742と743は、入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。741の指定値を255とすることによって、741はオーバーフロー領域X-を744に出力する。742の指定値を256/kとすることによって、742は長時間撮像であったなら、オーバーフローすると予測される領域Yを746に、それ以外の領域Y-を745に出力する。743の指定値を255とすることによって、743はオーバーフロー領域X-を744に出力する。
【0083】
744は、741と743から出力された領域X-の画像から短時間撮像時刻における中間画像をデュアルプライム予測法で予測生成し、745に出力する。デュアルプライム予測法は、作用の説明で述べた図5の51、52、53、54の作用を一括して行う。請求項5の方法に記載した画像のパターンマッチングの作用はデュアルプライム予測法内のBMA(ブロックマッチングアルゴリズム)にて行われる。
【0084】
745は、744から出力された中間画像のうち、742から出力された領域Y-に含まれる領域の画像のみを切り出して747に出力する。
【0085】
746は742から出力された画像の画素の輝度値をk倍して747に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0086】
747は745の出力と746の出力を一枚の画像データに合成し、これを75で格納する。これによって短時間撮像と直前及び直後の短時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0087】
本発明の方法の一実施形態を図8に示す。図8において図7と全く同じ作用を行う過程を示す部分は図7と同じ番号を付している。
【0088】
図8において、71は原映像データ格納過程、72はデータ出力切り替え過程、731、732、733は領域分離過程、734はデュアルプライム予測法に基づく中間画像予測生成過程である。831から835は734の内部処理過程を示しており、831はBMAに基づく動きベクトル抽出過程、832は動き補償ベクトル生成過程、833は前フレーム画像を用いた中間画像予測生成過程、834は後フレーム画像を用いた中間画像予測生成過程、835は中間画像合成過程である。836は画像パターンの類似度判定過程、81は直前の短時間撮像画像の領域Xの輪郭線と長時間撮像画像の領域Yの輪郭線のパターンマッチング過程、82は直後の短時間撮像画像の領域Xの輪郭線と長時間撮像画像の領域Yの輪郭線のパターンマッチング過程、83は処理動作選択過程、84は長時間撮像画像と直前の短時間撮像画像から高ダイナミックレンジ画像を合成する請求項1の方法を実現する過程、85は長時間撮像画像と直後の短時間撮像画像から高ダイナミックレンジ画像を合成する請求項1、2の方法を実現する過程、75は出力データ格納過程である。
【0089】
本図を用いて短時間撮像画像、長時間撮像画像、短時間撮像画像の順に並んだ3フレームの画像より本発明の方法を実施することによって、請求項3の方法から直前または直後の画像を用いる請求項1、2の方法に切り替える例について説明する。
【0090】
71から連続する3フレームの画像データを72は取り出し、直前の短時間撮像画像は731に、長時間撮像画像は732に、直後の短時間撮像画像は733に出力する。
【0091】
731は長時間撮像であったならオーバーフローしたであろうと予測される領域Yを831と81に出力する。733は長時間撮像であったならオーバーフローしたであろうと予測される領域Yを831と82に出力する。
【0092】
734はデュアルプライム予測法に基づく中間画像予測生成過程であり、内部ブロックの831から835は公知の処理過程、836は本発明の方法を構成する新規の過程である。初めに従来の734の動作について簡単に説明する。
【0093】
831は、2領域の画像をブロックパターンマッチング法でパターンマッチングを行い、各々のブロック毎に変移ベクトルを算出して832に、また、2領域のマッチング結果の残差であるMAE(平均値絶対値誤差)を836に出力する。832は長時間撮像画像の撮像時刻における画像にするための変移量(補償ベクトル)を直前の画像と直後の画像毎に別々に算出して833と834に出力する。
【0094】
833は補償ベクトルを用いて731から出力された領域Yを部分中間画像に移動変形し835に出力する。834は補償ベクトルを用いて733から出力された領域Yを部分中間画像に移動変形し835に出力する。835は2枚の部分中間画像を合成することによって1枚の中間画像を生成する。以降、請求項3の方法であるならば図7の735、736、737の流れに沿って処理が進んでいく。
【0095】
次に、本発明の方法の動作が行われる場合について説明する。836は831から出力された各ブロック毎のMAEを調べ、予め与えられた閾値vに対して、全てのブロックのMAEの総和>vであるならば2領域の類似度が低いと判定して734以降の処理を停止し、81と82に動作を命令する。
【0096】
なお、類似度はMAEばかりでなく、公知の方法であるMSE(平均二乗誤差)や相互相関関数で与えることもできる。また、類似度判定もこれら誤差成分のみで判断するだけでなく、831で生成された各ブロック毎の移動ベクトルの分散から判定することもできるが、2領域の類似度を表現できる手法であるならば類似度の表現方法および判定方法は本実施形態に限定されるものではない。
【0097】
81は2領域の輪郭線形状を抽出し輪郭線のパターンマッチングをすることによって移動変形量を算出し83に出力する。なお、輪郭線の抽出処理や移動変形量の実施方法は図6の実施形態に述べた符号化チェイン法およびフーリエ記述子変換法によるパターンマッチングとする。
【0098】
82は2領域の輪郭線形状を抽出し輪郭線のパターンマッチングをすることによって移動変形量を算出し83に出力する。
【0099】
83は類似度判定を行うことにより、直前の短時間撮像画像と直後の短時間撮像画像のうちより長時間撮像画像と類似度の高い画像を決定する。類似度判定は移動変形量のより小さい方とする。例えば移動変形量が図6で説明した実施形態のごとくアフィン変換行列で与えられる場合には、正規化した行列の全要素の値の二乗和を算出してこれを類似度とする。なお、二乗和以外にも類似度を表現することは可能であり、また、移動変形量がアフィン変換行列式以外のデータ構造で与えられる場合にもそれに対応して類似度の表現式は変化するが、2輪郭線間の類似度を表現する式であるならば本実施形態に限定されるものではない。
【0100】
83は、81から計算した類似度が82から計算した類似度より大きい場合、長時間撮像画像と直前の短時間撮像画像の類似度がより大きいと判定し84を動作させる。82から計算した類似度がより大きい場合、長時間撮像画像と直後の短時間撮像画像の類似度がより大きいと判定し85を動作させる。
【0101】
84は長時間撮像画像と直前の短時間撮像撮像画像から図6の実施形態の過程によって高ダイナミックレンジ画像を合成し、75で格納する。
【0102】
85は長時間撮像画像と直後の短時間撮像撮像画像から図6の実施形態の過程によって高ダイナミックレンジ画像を合成し、75で格納する。
【0103】
本実施形態の方法を用いた場合の原映像から高ダイナミックレンジ映像を生成する説明図を図9に示す。91から96は短時間撮像画像と長時間撮像画像の交互に繰り返しで構成される原映像である。ここで91、93、95は長時間撮像画像、92、94、96は短時間撮像画像である。フレーム94以降でスポットライトが照明され画像内の明るい部分の領域形状が大幅に変化しているとする。
【0104】
本実施形態を用いると、基本的には3フレームの画像から1フレームの高ダイナミックレンジ画像を合成する請求項3の方法が使われる(97、98、911、912)が、99の処理においては92と94で類似度が低いと判定され、93とより類似度の高い画像は92であると判定されて、93と直前の92の2フレームの画像から1フレームの高ダイナミックレンジ画像を合成する請求項1、2の方法が使われる。910の処理においては93と95で類似度が低いと判定され、94とより類似度の高い画像は95であると判定されて、94と直後の95の2フレームの画像から1フレームの高ダイナミックレンジ画像を合成する請求項1、2の方法が使われる。
【0105】
本発明の請求項6,7の装置の一実施形態を図10に示す。図10の101は磁気記録装置またはメモリ等で構成される原映像データ格納器、102はCPUを用いた制御装置、103は請求項6の装置の合成器Aを実現する一実施形態、104は請求項7の装置の合成器Bを実現する一実施形態、105は磁気記録装置またはメモリ等で構成される出力データ格納器である。
【0106】
1031と1032は領域分離器であり、請求項6の装置における検出器Cと検出器Dの一実施形態である。1033と1034は輪郭形状抽出器、1035は輪郭形状のパターンマッチング器、1036は領域の移動、変形器、1037は画素の輝度値倍率補正器、1038は画像合成器である。
【0107】
1041と1042は領域分離器であり、請求項7の装置における検出器Cと検出器Dの一実施形態である。1043と1034は輪郭線抽出器、1045は輪郭線形状のパターンマッチング器、1046は領域の移動、変形器、1047は画素の輝度値倍率補正器、1048は画像合成器である。
【0108】
本実施形態による処理の流れを説明する。なお、本実施形態では原画像データはダイナミックレンジが8bit(画素の輝度値のとりうる値は0から255)で逆ガンマ補正済みとする。また、長時間撮像時間と短時間撮像時間の撮像時間比をkとし、ある時刻における画像と直後の画像データより該時刻における画像データを合成する処理について説明する。
【0109】
101は交互に撮像時間を変えて撮った映像データを蓄えている。なお、本装置を実時間処理動作できる場合には101を省略して撮像時間可変カメラの出力(ガンマ補正済み)を直接102に接続しても構わない。
【0110】
102は101から逐次、画像と直後フレームの画像を取り出し、該2画像が長時間撮像画像、短時間撮像画像の順番であるなら、長時間撮像画像を1031に、短時間撮像画像を1032に出力する。また、短時間撮像画像、長時間撮像画像の順番であるなら、長時間撮像画像を1041に、短時間撮像画像を1042に出力する。
【0111】
1031と1032は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。1031の指定値を255とすることによって、1031はオーバーフロー領域Xを1033に出力し、それ以外の領域X-を1038に出力する。1032の指定値を256/kとすることによって、1032は長時間撮像であったならオーバーフローすると予測される領域Yを1034と1036に出力する。
【0112】
1033と1034は公知の方法であるチェイン符号化法(参考文献:画像解析ハンドブックpp.579−580)で領域の輪郭線を抽出して1035に出力する。
【0113】
1035は1033と1034から出力された輪郭形状をフーリエ記述子(参考文献:画像解析ハンドブックpp.581−582)表現データに変換し、該データを比較してパターンマッチングを行うことによって両輪郭線形状の位置、形状の変移量データをアフィン変換行列データとして出力する(参考文献:画像処理アルゴリズムの最新動向、別冊OplusE、pp.58−72)。なお、輪郭線形状のパターンマッチング装置には様々な公知の装置があり。輪郭線が抽出できるのであれば本発明の特許請求の範囲は本実施形態に限定されるものではない。また、2フレーム間に起きる輪郭線形状の移動変形量は微小なので変形は考慮せず、全領域均一に移動するとして2領域の重心座標の変移量を変移データとして出力する簡略化した装置(例:MUSE方式HiVisionのエンコーダ)もあり、本発明の特許請求の範囲を本実施形態に限定するものではない。
【0114】
また、本実施形態ではパターンマッチング対象領域が一つの場合について説明しているが、1033と1034で輪郭線が複数抽出されている場合は各々の輪郭線で囲まれた領域の重心座標を求め、最も重心座標の近い物同士で上記のパターンマッチングを行うことによって、容易に複数の処理に拡張できることは言うまでもない。
【0115】
1036は1035から出力されたアフィン変換行列データに基づいて、領域Yの位置、形状を領域Xの位置、形状に合わせて1037に出力する。
【0116】
1037は画素の輝度値をk倍して1038に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0117】
1038は1037の出力と1031から出力された領域X-を一枚の画像データに合成して105に格納する。これによって長時間撮像と直後の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0118】
1041と1042は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。1041の指定値を255とすることによって、1041はオーバーフローしていない領域X-を1043と1046に出力する。1042の指定値を256/kとすることによって、1042は長時間撮像であったならオーバーフローすると予測される領域Yを1047に、それ以外の領域Y-を1044に出力する。
【0119】
1043と1044は公知の方法であるチェイン符号化法で領域の輪郭線を抽出して1045に出力する。
【0120】
1045は1043と1044から出力された輪郭形状をフーリエ記述子表現データに変換し、該データを比較してパターンマッチングを行うことによって両輪郭線形状の位置、形状の変移量データをアフィン変換行列データとして出力する。
【0121】
1046は1045から出力されたアフィン変換行列データに基づいて、領域X-の位置、形状を領域Y-の位置、形状に合わせて1048に出力する。
【0122】
1047は1042から出力された領域Yの画素の輝度値をk倍して1048に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0123】
1048は1046の出力と1047の出力を一枚の画像データに合成して105に格納する。これによって短時間撮像と直後の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0124】
本発明の請求項8から10の装置の一実施形態を図11に示す。図11の111は磁気記録装置またはメモリ等で構成される原映像データ格納器、112はCPUを用いた制御装置、113は請求項9の装置の合成器Eを実現する一実施形態、114は請求項10の装置の合成器Fを実現する一実施形態、115は磁気記録装置またはメモリ等で構成される出力データ格納器である。
【0125】
1131と1132と1133は領域分離器であり、請求項9の装置における検出器Cと検出器Dの一実施形態である。1134は中間画像の予測生成器、1135は領域切り出し器、1136は画素の輝度値の倍率補正器、1137は画像合成器である。
【0126】
1141と1142と1143は領域分離器であり、請求項9の装置における検出器Cと検出器Dの一実施形態である。1144は中間画像の予測生成器、1145は領域切り出し器、1146は画素の輝度値の倍率補正器、1147は画像合成器である。
【0127】
本実施形態による処理の流れを説明する。なお、本実施形態では原画像データはダイナミックレンジが8bit(画素の輝度値のとりうる値は0から255)で逆ガンマ補正済みとする。また、長時間撮像時間と短時間撮像時間の撮像時間比をkとし、ある時刻における画像と直後の画像データより該時刻における画像データを合成する処理について説明する。
【0128】
111は交互に撮像時間を変えて撮った映像データを蓄えている。なお、本装置を実時間処理動作できる場合には111を省略して撮像時間可変カメラの出力(ガンマ補正済み)を直接112に接続しても構わない。
【0129】
112は111から逐次、画像と直前及び直後フレームの画像を取り出し、該3画像が短時間撮像画像、長時間撮像画像、短時間撮像画像の順番であるなら、直前の短時間撮像画像を1131に、長時間撮像画像を1132に、直後の短長間画像を1133に出力する。また、該3画像が長時間撮像画像、短時間撮像画像、長時間撮像画像の順番であるなら、直前の長短間撮像画像を1141に、短時間撮像画像を1142に、直後の長時間画像を1143に出力する。
【0130】
1131と1132と1133は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。1131の指定値を256/kとすることによって、1131は長時間撮像であったならオーバーフローすると予測される領域Yを1134に出力する。1132の指定値を255とすることによって、1132はオーバーフロー領域Xを1135にそれ以外の領域X-を1137に出力する。1133の指定値を256/kとすることによって、1133は長時間撮像であったならオーバーフローすると予測される領域Yを1134に出力する。
【0131】
1134は1131と1133から出力された領域Yの画像から短時間撮像時刻における中間画像をデュアルプライム予測演算器(参考文献:デジタル放送・インターネット技術のための情報圧縮技術、pp.218−219)で予測生成し1135に出力する。デュアルプライム予測演算器は作用の説明で述べた図4の41、42、43、44の作用を一括して行う。デュアルプライム演算器内のBMA(ブロックマッチングアルゴリズム)演算器が請求項9の装置に記載した画像のパターンマッチング器に該当する。
【0132】
なお、画像のパターンマッチング器にはBMA以外にも様々な公知の装置があり、画像の予測生成器もデュアルプライム予測演算器以外の公知の装置があり、画像のパターンマッチングを用いて予測生成を行う装置であるなら本発明の特許請求の範囲を本実施形態に限定するものではない。
【0133】
1135は1134から出力された中間画像のうち、1132から出力された領域Xに含まれる領域の画像のみを切り出して1136に出力する。
【0134】
1136は1135から出力された画像の画素の輝度値をk倍して1137に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され。同一輝度部分を撮像した画素の輝度値は同一となる。
【0135】
1137は1132の出力と1136の出力を一枚の画像データに合成して115に格納する。これによって長時間撮像と直前及び直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0136】
1141と1142と1143は、入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。1141の指定値を255とすることによって、1141はオーバーフロー領域X-を1144に出力する。1142の指定値を256/kとすることによって、1142は長時間撮像であったならオーバーフローすると予測される領域Yを1146に、それ以外の領域Y-を1145に出力する。1143の指定値を255とすることによって、1143はオーバーフロー領域X-を1144に出力する。
【0137】
1144は、1141と1143から出力された領域X-の画像から短時間撮像時刻における中間画像をデュアルプライム予測演算器で予測生成し、1145に出力する。デュアルプライム予測演算器は作用の説明で述べた図5の51、52、53、54の作用を一括して行う。デュアルプライム演算器内のBMA(ブロックマッチングアルゴリズム)演算器が請求項10の装置に記載した画像のパターンマッチング器に該当する。
【0138】
1145は1144から出力された中間画像のうち、1142から出力された領域Y-に含まれる領域の画像のみを切り出して1147に出力する。
【0139】
1146は1142から出力された画像の画素の輝度値をk倍して1147に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0140】
1147は1145の出力と1146の出力を一枚の画像データに合成して115に格納する。これによって短時間撮像と直前及び直後の短時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0141】
本発明の装置について短時間撮像画像、長時間撮像画像、短時間撮像画像の順に並んだ3フレームの画像を処理する場合の実施形態を図12に示す。図12において図11と全く同じ装置を示す部分は図11と同じ番号を付している。
【0142】
図12において、111は磁気記録装置またはメモリ等で構成される原映像データ格納器、112はCPUを用いた制御装置、1131、1132、1133は領域分離器、1134はデュアルプライム予測法に基づく中間画像予測生成器である。1231から1235は1134の内部処理を行う装置を示しており、1231はBMAに基づく動きベクトル抽出器、1232は動き補償ベクトル生成器、1233は前フレーム画像を用いた中間画像予測生成器、1234は後フレーム画像を用いた中間画像予測生成器、1235は中間画像合成器である。1236は画像パターンの類似度判定器、121は直前の短時間撮像画像の領域Xの輪郭線と長時間撮像画像の領域Yの輪郭線のパターンマッチング器、122は直後の短時間撮像画像の領域Xの輪郭線と長時間撮像画像の領域Yの輪郭線のパターンマッチング器、123は処理動作選択器、124は長時間撮像画像と直前の短時間撮像画像から高ダイナミックレンジ画像を合成する請求項6,7の装置、125は長時間撮像画像と直後の短時間撮像画像から高ダイナミックレンジ画像を合成する請求項6,7の装置、115は磁気記録装置またはメモリ等で構成される出力データ格納器である。
【0143】
本図を用いて短時間撮像画像、長時間撮像画像、短時間撮像画像の順に並んだ3フレームの画像より本発明の装置を用いて、請求項8の装置から直前または直後の画像を用いる請求項6,7の装置に処理動作を切り替える例について説明する。
【0144】
111から連続する3フレームの画像を112は取り出し、直前の短時間撮像画像は1131に、長時間撮像画像は1132に、直後の短時間撮像画像は1133に出力する。1131は長時間撮像であったならオーバーフローしたであろうと予測される領域Yを1231と121に出力する。1133は長時間撮像であったならオーバーフローしたであろうと予測される領域Yを1231と122に出力する。
【0145】
1134はデュアルプライム予測法に基づく中間画像予測生成装置であり、内部ブロックの1231から1235は公知の処理装置、1236は本発明の装置を構成する新規の装置である。初めに従来の1134の動作について簡単に説明する。
【0146】
1231は2領域の画像をBMA法でパターンマッチングを行い、各々のブロック毎に変移ベクトルを算出して1232に、また、2領域のマッチング結果の残差であるMAE(平均値絶対値誤差)を1236に出力する。1232は長時間撮像画像の撮像時刻における画像にするための変移量(補償ベクトル)を直前の画像と直後の画像毎に別々に算出して1233と1234に出力する。
【0147】
1233は補償ベクトルを用いて1131から出力された領域Yを部分中間画像に移動変形し1235に出力する。1234は補償ベクトルを用いて1133から出力された領域Yを部分中間画像に移動変形し1235に出力する。1235は2枚の部分中間画像を合成することによって1枚の中間画像を生成する。以降、請求項8の装置で処理が続く場合には図11の1135、1136、1137の流れに沿って処理が進んでいく。
【0148】
次に、本発明の装置の動作が行われる場合について説明する。1236は1231から出力された各ブロック毎のMAEを調べ、予め与えられた閾値vに対して、全てのブロックのMAEの総和>vであるならば2領域の類似度が低いと判定して1132の処理を停止し、121と122に動作を命令する。
【0149】
121は1131から出力された領域Yと1132から出力された領域Xについて、輪郭線を符号化チェイン法による輪郭線抽出器によって抽出し、フーリエ記述子変換法によるパターンマッチング器によって移動変形量を算出し123に出力する。
【0150】
122は1133から出力された領域Yと1132から出力された領域Xについて、輪郭線を符号化チェイン法による輪郭線抽出器によって抽出し、フーリエ記述子変換法によるパターンマッチング器によって移動変形量を算出し123に出力する。
【0151】
123は移動変形量を用いて類似度判定を行うことにより、直前の短時間撮像画像と直後の短時間撮像画像のうちより長時間撮像画像と類似度の高い画像を決定する。類似度判定は移動変形量のより小さい方とする。例えば移動変形量が図10で説明した実施形態のごとくアフィン変換行列で与えられる場合には、正規化した行列の全要素の値の二乗和を算出してこれを類似度とする。なお、二乗和以外にも類似度を表現することは可能であり。また、移動変形量がアフィン変換行列式以外のデータ構造で与えられる場合にもそれに対応して類似度の表現式は変化するが、2輪郭線の類似度を表現する式であるならば本発明の特許請求の範囲は本実施形態に限定されるものではない。
【0152】
123は、121から計算した類似度が122から計算した類似度より大きい場合、長時間撮像画像と直前の短時間撮像画像の類似度がより大きいと判定し124を動作させる。122から計算した類似度がより大きい場合、長時間撮像画像と直後の短時間撮像画像の類似度がより大きいと判定し125を動作させる。
【0153】
124は長時間撮像画像と直前の短時間撮像撮像画像から図10の実施形態の装置によって高ダイナミックレンジ画像を合成し115に格納する。
【0154】
125は長時間撮像画像と直後の短時間撮像撮像画像から図10の実施形態の装置によって高ダイナミックレンジ画像を合成し115に格納する。
【0155】
なお、図10〜図12で示した装置における各部の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、あるいは、図6〜図8で説明した処理過程による方法の処理の手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータにその処理の手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、FD(フロッピーディスク(登録商標))や、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
【0156】
【発明の効果】
従来の方法および装置では、図1(a)の11に示すように2フレームの画像より単一の合成アルゴリズムで1フレームの画像を合成するためフレームレートが半減してしまうが、本発明の方法および装置は、請求項1、2の方法と請求項6,7の装置では図1(b)の12、請求項3の方法と請求項8の装置では図1(c)の13のように、どちらも原映像と同フレームレートで高ダイナミックレンジ映像を生成することができる。
【0157】
また、本発明の請求項1、2の方法および請求項6,7の装置では、図2に示したように撮像時刻の異なる2フレームの画像をそのまま合成せず、同じ撮像時刻に得られるはずの画像を予測生成した後に合成するため、動画像であっても不自然な画像を合成しない。
【0158】
更に、請求項1、2の方法および請求項6,7の装置は、輪郭線部の動きと輪郭線内の動きが同じ時に正確な合成映像が提供できるが、請求項3の方法および請求項8の装置は輪郭線部の動きと輪郭線内部の動きが別々の場合でも正確な合成画像を提供することができるので、より高品質な高ダイナミックレンジ映像を提供できる。
【0159】
一方で、請求項3の方法および請求項8の装置は、連続する3フレームの映像を必要とするため、映像の切り替わり点や、画像内容がフレーム間で不連続的に変化するような場合には適用できないか、または無理に適用しても低品質の合成画像しか得られない等の問題点もある。そこで、本発明の方法および装置において、前記の不連続な部分を2画像の類似度を調べることによって検出し、請求項3の方法と請求項1、2の方法あるいは請求項8の装置と請求項6,7の装置を適応的に切り替えて処理を行うことによって、図9に示したように画像間で不連続な部分が存在しても常に最適な画像合成方法および装置を選択して高ダイナミックレンジ映像を合成することが可能となる。
【図面の簡単な説明】
【図1】 (1)は従来の方法を、(2)は本発明の請求項1、2の方法を、(3)は本発明の請求項3の方法を、それぞれ用いた場合の原画像データと合成画像データの対応を説明した図である。
【図2】 本発明の請求項1、2の方法および請求項6、7の装置の作用を説明した図である。
【図3】 本発明の請求項3の方法および請求項8の装置の作用を説明した図である。
【図4】 本発明の請求項4の方法および請求項9の装置の作用を説明した図である。
【図5】 本発明の請求項5の方法および請求項10の装置の作用を説明した図である。
【図6】 本発明の請求項1、2の方法の一実施形態を示した図である。
【図7】 本発明の請求項3、4、5の方法の一実施形態を示した図である。
【図8】 本発明の方法の一実施形態を示した図である。
【図9】 本発明の方法および装置を用いた場合の原画像データと合成画像データの対応関係を示した図である。
【図10】 本発明の請求項6、7の装置の一実施形態を示した図である。
【図11】 本発明の請求項8、9、10の装置の一実施形態を示した図である。
【図12】 本発明の装置の一実施形態を示した図である。
Claims (12)
- 撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、
長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Aと、
短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Bの異なる2つの合成過程とを有し、
長時間撮像時刻における画像については過程Aを実行し、短時間撮像時刻における画像については過程Bを実行し、
過程Aでは、
長時間撮像の画像内にあるオーバーフロー領域Xを検出する過程Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、
2領域の輪郭線のパターンマッチングを行う過程とを有し、
過程Cにより長時間撮像画像を領域Xとそれ以外の領域X - に分離し、
過程Dにより直後または直前の短時間撮像画像から領域Yを抜き出し、
パターンマッチングを行う過程により領域Yの位置、形状を領域Xの位置、形状に合わせた後で画素の輝度値の倍率補正を行った後に、領域X - と合成することによって、長時間撮像と直後または直前の短時間撮像の2画像から長時間撮像時刻における画像を合成する
ことを特徴とする高ダイナミックレンジ映像の生成方法。 - 撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、
長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Aと、
短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Bの異なる2つの合成過程とを有し、
長時間撮像時刻における画像については過程Aを実行し、短時間撮像時刻における画像については過程Bを実行し、
過程Bでは、
長時間撮像の画像内にあるオーバーフロー領域Xを検出する過程Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、
2領域の輪郭線のパターンマッチングを行う過程とを有し、
過程Dにより短時間撮像画像を領域Yとその他の領域Y - に分離し、
過程Cにより直後または直前の長時間撮像画像を領域Xとその他の領域X - に分離し、
パターンマッチングを行う過程により領域X - の位置、形状を領域Y - の位置、形状に合わせた後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直後または直前の長時間撮像の2画像から短時間撮像時刻における画像を合成する
ことを特徴とする高ダイナミックレンジ映像の生成方法。 - 撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、
長時間撮像と直前の短時間撮像と直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Eと、
短時間撮像と直前の長時間撮像と直後の長時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Fの異なる2つの合成過程とを有し、
長時間撮像時刻における画像については過程Eを実行し、短時間撮像時刻における画像については過程Fを実行する
ことを特徴とする高ダイナミックレンジ映像の生成方法。 - 過程Eでは、
長時間撮像の画像中にあるオーバーフロー領域Xを検出する過程Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、
2領域の画像のパターンマッチングを行う過程とを有し、
過程Cにより長時間撮像の画像を領域Xとそれ以外の領域X-に分離し、
過程Dにより直前の短時間撮像の画像から領域Y1を切り出し、
過程Dにより直後の短時間撮像の画像から領域Y2を切り出し、
2領域の画像のパターンマッチングを行う過程により2領域である領域Y1と領域Y2から長時間撮像時刻における中間画像Y3を生成し、
中間画像Y3から領域Xと位置的に重なる領域を切り出し、画素の輝度値の倍率補正を行った後で、領域X-と合成することによって、長時間撮像と直前の短時間画像と直後の短時間撮像の3画像から長時間撮像時刻における画像を合成する
ことを特徴とする請求項3に記載の高ダイナミックレンジ映像の生成方法。 - 過程Fでは、
長時間撮像の画像中にあるオーバーフロー領域Xを検出する過程Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、
2領域の画像のパターンマッチングを行う過程とを有し、
過程Dにより短時間撮像の画像を領域Yとその他の領域Y-に分離し、
過程Cにより直前の長時間撮像の画像を領域X1とその他の領域X1-に分離し、
過程Cにより直後の長時間撮像の画像を領域X2とその他の領域X2-に分離し、
2領域の画像のパターンマッチングを行う過程により2領域である領域X1-と領域X2-から短時間撮像時刻における中間画像X3-を生成し、
中間画像X3-から領域Y-と位置的に重なる領域を切り出した後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直前の長時間撮像と直後の短時間撮像の3画像から短時間撮像時刻における画像を合成する
ことを特徴とする請求項3に記載の高ダイナミックレンジ映像の生成方法。 - 撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、
長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Aと、
短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Bの異なる2つの合成器とを有し、
長時間撮像時刻における画像については合成器Aを用い、短時間撮像時刻における画像については合成器Bを用い、
合成器Aは、
長時間撮像の画像内にあるオーバーフロー領域Xを検出する検出器Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、
2領域の輪郭線のパターンマッチングを行うパターンマッチング器とを有し、
検出器Cを用いて長時間撮像画像を領域Xとそれ以外の領域X - に分離し、検出器Dを用いて直後または直前の短時間撮像画像から領域Yを抜き出し、該パターンマッチング器を用いて領域Yの位置、形状を領域Xの位置、形状に合わせた後で画素の輝度値の倍率補正を行った後に、領域X - と合成することによって、長時間撮像と直後または直前の短時間撮像の2画像から長時間撮像時刻における画像を合成するものである
ことを特徴とする高ダイナミックレンジ映像の生成装置。 - 撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、
長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイ ナミックレンジ画像を合成する合成器Aと、
短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Bの異なる2つの合成器とを有し、
長時間撮像時刻における画像については合成器Aを用い、短時間撮像時刻における画像については合成器Bを用い、
合成器Bは、
長時間撮像の画像内にあるオーバーフロー領域Xを検出する検出器Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、
2領域の輪郭線のパターンマッチングを行うパターンマッチング器とを有し、
検出器Dを用いて短時間撮像画像を領域Yとその他の領域Y - に分離し、検出器Cを用いて直後または直前の長時間撮像画像を領域Xとその他の領域X - に分離し、該パターンマッチング器を用いて領域X - の位置、形状を領域Y - の位置、形状に合わせた後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直後または直前の長時間撮像の2画像から短時間撮像時刻における画像を合成するものである
ことを特徴とする高ダイナミックレンジ映像の生成装置。 - 撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、
長時間撮像と直前の短時間撮像と直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Eと、
短時間撮像と直前の長時間撮像と直後の長時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Fの異なる2つの合成器とを有し、
長時間撮像時刻における画像については合成器Eを用い、短時間撮像時刻における画像については合成器Fを用いる
ことを特徴とする高ダイナミックレンジ映像の生成装置。 - 合成器Eは、
長時間撮像の画像中にあるオーバーフロー領域Xを検出する検出器Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、
2領域の画像のパターンマッチングを行うパターンマッチング器とを有し、
検出器Cを用いて長時間撮像の画像を領域Xとそれ以外の領域X-に分離し、検出器Dを用いて直前の短時間撮像の画像から領域Y1を切り出し、検出器Dを用いて直後の短時間撮像の画像から領域Y2を切り出し、領域Y1と領域Y2から該パターンマッチング器を用いて長時間撮像時刻における中間画像Y3を生成し、中間画像Y3から領域Xと位置的に重なる領域を切り出し、画素の輝度値の倍率補正を行った後で、領域X-と合成することによって、長時間撮像と直前の短時間画像と直後の短時間撮像の3画像から長時間撮像時刻における画像を合成するものである
ことを特徴とする請求項8に記載の高ダイナミックレンジ映像の生成装置。 - 合成器Fは、
長時間撮像の画像中にあるオーバーフロー領域Xを検出する検出器Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、
2領域の画像のパターンマッチングを行うパターンマッチング器とを有し、
検出器Dを用いて短時間撮像の画像を領域Yとその他の領域Y-に分離し、検出器Cを用いて直前の長時間撮像の画像を領域X1とその他の領域X1-に分離し、検出器Cを用いて直後の長時間撮像の画像を領域X2とその他の領域X2-に分離し、領域X1-と領域X2-から該パターンマッチング器を用いて短時間撮像時刻における中間画像X3-を生成し、中間画像X3-から領域Y-と位置的に重なる領域を切り出した後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直前の長時間撮像と直後の短時間撮像の3画像から短時間撮像時刻における画像を合成するものである
ことを特徴とする請求項8に記載の高ダイナミックレンジ映像の生成装置。 - 請求項1から請求項5のいずれか1項に記載の高ダイナミックレンジ映像の生成方法における過程を、コンピュータに実行させるためのプログラムとした
ことを特徴とする高ダイナミックレンジ映像の生成方法の実行プログラム。 - 請求項1から請求項5のいずれか1項に記載の高ダイナミックレンジ映像の生成方法における過程を、コンピュータに実行させるためのプログラムとし、
該プログラムを、該コンピュータが読み取りできる記録媒体に記録した
ことを特徴とする高ダイナミックレンジ映像の生成方法の実行プログラムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001227008A JP3740394B2 (ja) | 2001-07-27 | 2001-07-27 | 高ダイナミックレンジ映像の生成方法とその装置、及びこの方法の実行プログラムとこの実行プログラムの記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001227008A JP3740394B2 (ja) | 2001-07-27 | 2001-07-27 | 高ダイナミックレンジ映像の生成方法とその装置、及びこの方法の実行プログラムとこの実行プログラムの記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003046857A JP2003046857A (ja) | 2003-02-14 |
JP3740394B2 true JP3740394B2 (ja) | 2006-02-01 |
Family
ID=19059731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001227008A Expired - Fee Related JP3740394B2 (ja) | 2001-07-27 | 2001-07-27 | 高ダイナミックレンジ映像の生成方法とその装置、及びこの方法の実行プログラムとこの実行プログラムの記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3740394B2 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6879731B2 (en) * | 2003-04-29 | 2005-04-12 | Microsoft Corporation | System and process for generating high dynamic range video |
TWI246031B (en) | 2004-09-17 | 2005-12-21 | Ulead Systems Inc | System and method for synthesizing multi-exposed image |
JP2007300463A (ja) * | 2006-05-01 | 2007-11-15 | Opt Kk | カメラ装置および画像処理方法 |
JP5566048B2 (ja) * | 2009-04-28 | 2014-08-06 | キヤノン株式会社 | 表示装置及びその制御方法 |
JP5214538B2 (ja) * | 2009-05-25 | 2013-06-19 | オリンパス株式会社 | 画像取得装置、画像合成方法、及び顕微鏡システム |
KR101633460B1 (ko) | 2009-10-21 | 2016-06-24 | 삼성전자주식회사 | 다중 노출 제어 장치 및 그 방법 |
JP5432799B2 (ja) | 2010-03-30 | 2014-03-05 | オリンパスイメージング株式会社 | 撮像装置、撮像システム、撮像方法 |
JP2011234342A (ja) | 2010-04-08 | 2011-11-17 | Canon Inc | 画像処理装置及びその制御方法 |
JP5066249B2 (ja) * | 2010-05-26 | 2012-11-07 | オリンパスイメージング株式会社 | 撮像装置および撮像方法 |
JP5713752B2 (ja) | 2011-03-28 | 2015-05-07 | キヤノン株式会社 | 画像処理装置、及びその制御方法 |
JP5814610B2 (ja) * | 2011-05-06 | 2015-11-17 | キヤノン株式会社 | 画像処理装置及びその制御方法、並びにプログラム |
JP5980618B2 (ja) * | 2012-08-09 | 2016-08-31 | オリンパス株式会社 | 画像処理装置及び画像処理方法 |
JP6343200B2 (ja) * | 2014-07-31 | 2018-06-13 | キヤノン株式会社 | 撮像装置およびその制御方法ならびにプログラム |
KR102628911B1 (ko) * | 2019-01-07 | 2024-01-24 | 삼성전자주식회사 | 영상 처리 방법 및 이를 수행하는 영상 처리 장치 |
CN110377779B (zh) * | 2019-05-29 | 2021-01-22 | 腾讯科技(深圳)有限公司 | 图像标注的方法、基于病理图像的标注展示方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3666900B2 (ja) * | 1994-04-25 | 2005-06-29 | キヤノン株式会社 | 撮像装置および撮像方法 |
JP2000078480A (ja) * | 1998-08-31 | 2000-03-14 | Sony Corp | 撮像装置及び撮像方法 |
JP4284570B2 (ja) * | 1999-05-31 | 2009-06-24 | ソニー株式会社 | 撮像装置及びその方法 |
JP4742453B2 (ja) * | 2001-06-20 | 2011-08-10 | ソニー株式会社 | 撮像方法および装置 |
-
2001
- 2001-07-27 JP JP2001227008A patent/JP3740394B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003046857A (ja) | 2003-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3740394B2 (ja) | 高ダイナミックレンジ映像の生成方法とその装置、及びこの方法の実行プログラムとこの実行プログラムの記録媒体 | |
US10277812B2 (en) | Image processing to obtain high-quality loop moving image | |
JP4321287B2 (ja) | 撮影装置および撮影方法、並びに、プログラム | |
US7511730B2 (en) | Image processing apparatus and method and image pickup apparatus | |
US7612909B2 (en) | Image processing apparatus and method, and image-capturing apparatus based on the difference between a signal detected by a sensor and the real world | |
JP5687553B2 (ja) | 画像合成装置、画像合成方法及び画像合成プログラム | |
US7221778B2 (en) | Image processing apparatus and method, and image pickup apparatus | |
US7024050B2 (en) | Image processing apparatus | |
JP2010021698A (ja) | 画像処理装置およびプログラム | |
JP3866957B2 (ja) | 画像合成装置 | |
KR20060070557A (ko) | 화상 처리 방법 및 화상 처리 장치, 및 컴퓨터 프로그램 | |
US7130464B2 (en) | Image processing device | |
JP2011097246A (ja) | 画像処理装置および方法、並びにプログラム | |
KR20150108774A (ko) | 비디오 시퀀스를 프로세싱하는 방법, 대응하는 디바이스, 컴퓨터 프로그램 및 비일시적 컴퓨터 판독가능 매체 | |
JP5531865B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP4507948B2 (ja) | 撮影装置、撮影画像の画像処理方法及びプログラム | |
US8134613B2 (en) | Image processing apparatus and method, and image pickup apparatus | |
CN110958361B (zh) | 能够进行hdr合成的摄像设备及其控制方法和存储介质 | |
US7412075B2 (en) | Picture processing apparatus for processing picture data in accordance with background information | |
US7352917B2 (en) | Image processing apparatus and method, and image pickup apparatus | |
JP2006325274A (ja) | 撮像装置 | |
JP4622711B2 (ja) | 画像合成装置、画像合成方法、及び、プログラム | |
CN110033421B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
JP2019047336A (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JPH07212653A (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051107 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091111 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101111 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101111 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111111 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111111 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121111 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121111 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131111 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |